Spaces:
Sleeping
Sleeping
moctardiallo
commited on
Commit
•
50cd04e
1
Parent(s):
6d38d15
Added description details
Browse files
app.py
CHANGED
@@ -2,7 +2,12 @@ from model import model
|
|
2 |
|
3 |
import gradio as gr
|
4 |
|
5 |
-
with gr.Blocks() as demo:
|
|
|
|
|
|
|
|
|
|
|
6 |
with gr.Row(equal_height=True):
|
7 |
with gr.Column(min_width=200, scale=0):
|
8 |
max_tokens = gr.Slider(minimum=1, maximum=2048, value=512, step=1, label="Max new tokens", render=True)
|
@@ -25,6 +30,7 @@ with gr.Blocks() as demo:
|
|
25 |
temperature,
|
26 |
top_p,
|
27 |
],
|
|
|
28 |
)
|
29 |
|
30 |
|
|
|
2 |
|
3 |
import gradio as gr
|
4 |
|
5 |
+
with gr.Blocks(fill_height=True) as demo:
|
6 |
+
with gr.Accordion("Voir les Details"):
|
7 |
+
gr.Markdown("""
|
8 |
+
Cette application vous permet de chatter directement avec une page de documentation pour generer du code que vous demandez.
|
9 |
+
Vous indiquez l'url de la page, ensuite vous posez votre question dans le chat. Alors le contenu de la page est recupere (grace a du scraping) puis decompose en blocks. Puis une recherche semantique est effectue a travers ces bloques pour retourner uniquement les plus signifiants par rapport a la question posee. Ces nouveaux blocks constituent alors le contexte dans lequel le LLM doit repondre a la question, ce que ces modeles savent tres bien faire. La reponse est enfin affichee. Nous obtenons ainsi en conclusion ce qu'on appelle un RAG (Retrieval Augmented Generation).
|
10 |
+
""")
|
11 |
with gr.Row(equal_height=True):
|
12 |
with gr.Column(min_width=200, scale=0):
|
13 |
max_tokens = gr.Slider(minimum=1, maximum=2048, value=512, step=1, label="Max new tokens", render=True)
|
|
|
30 |
temperature,
|
31 |
top_p,
|
32 |
],
|
33 |
+
type="messages",
|
34 |
)
|
35 |
|
36 |
|
model.py
CHANGED
@@ -43,6 +43,6 @@ class Model:
|
|
43 |
|
44 |
response += token
|
45 |
yield response
|
46 |
-
|
47 |
|
48 |
model = Model()
|
|
|
43 |
|
44 |
response += token
|
45 |
yield response
|
46 |
+
|
47 |
|
48 |
model = Model()
|