moctardiallo commited on
Commit
50cd04e
1 Parent(s): 6d38d15

Added description details

Browse files
Files changed (2) hide show
  1. app.py +7 -1
  2. model.py +1 -1
app.py CHANGED
@@ -2,7 +2,12 @@ from model import model
2
 
3
  import gradio as gr
4
 
5
- with gr.Blocks() as demo:
 
 
 
 
 
6
  with gr.Row(equal_height=True):
7
  with gr.Column(min_width=200, scale=0):
8
  max_tokens = gr.Slider(minimum=1, maximum=2048, value=512, step=1, label="Max new tokens", render=True)
@@ -25,6 +30,7 @@ with gr.Blocks() as demo:
25
  temperature,
26
  top_p,
27
  ],
 
28
  )
29
 
30
 
 
2
 
3
  import gradio as gr
4
 
5
+ with gr.Blocks(fill_height=True) as demo:
6
+ with gr.Accordion("Voir les Details"):
7
+ gr.Markdown("""
8
+ Cette application vous permet de chatter directement avec une page de documentation pour generer du code que vous demandez.
9
+ Vous indiquez l'url de la page, ensuite vous posez votre question dans le chat. Alors le contenu de la page est recupere (grace a du scraping) puis decompose en blocks. Puis une recherche semantique est effectue a travers ces bloques pour retourner uniquement les plus signifiants par rapport a la question posee. Ces nouveaux blocks constituent alors le contexte dans lequel le LLM doit repondre a la question, ce que ces modeles savent tres bien faire. La reponse est enfin affichee. Nous obtenons ainsi en conclusion ce qu'on appelle un RAG (Retrieval Augmented Generation).
10
+ """)
11
  with gr.Row(equal_height=True):
12
  with gr.Column(min_width=200, scale=0):
13
  max_tokens = gr.Slider(minimum=1, maximum=2048, value=512, step=1, label="Max new tokens", render=True)
 
30
  temperature,
31
  top_p,
32
  ],
33
+ type="messages",
34
  )
35
 
36
 
model.py CHANGED
@@ -43,6 +43,6 @@ class Model:
43
 
44
  response += token
45
  yield response
46
-
47
 
48
  model = Model()
 
43
 
44
  response += token
45
  yield response
46
+
47
 
48
  model = Model()