Spaces:
Running
Running
Ilyas KHIAT
commited on
Commit
•
fc093fb
1
Parent(s):
d8b8d75
whatif
Browse files
main.py
CHANGED
@@ -137,10 +137,7 @@ async def generate(user_input: UserInput):
|
|
137 |
@app.post("/whatif")
|
138 |
async def generate_whatif(whatif_input: WhatifInput):
|
139 |
try:
|
140 |
-
|
141 |
-
return generate_whatif_stream(whatif_input["question"],whatif_input["answer"])
|
142 |
-
except Exception as e:
|
143 |
-
return {"message": str(e)}
|
144 |
|
145 |
@app.post("/whatif_chat")
|
146 |
async def generate_whatif_chat(user_input: UserInput):
|
|
|
137 |
@app.post("/whatif")
|
138 |
async def generate_whatif(whatif_input: WhatifInput):
|
139 |
try:
|
140 |
+
|
|
|
|
|
|
|
141 |
|
142 |
@app.post("/whatif_chat")
|
143 |
async def generate_whatif_chat(user_input: UserInput):
|
prompt.py
CHANGED
@@ -74,11 +74,13 @@ template_whatif_response = '''
|
|
74 |
Vous êtes un assistant IA très intelligent qui connaît tout sur le livre {name_book} de {writer}.
|
75 |
Vous allez répondre à la question de l'utilisateur, qui portera sur ce livre. Vous répondrez rigoureusement dans le style d'écriture de la nouvelle. Vos réponses seront courtes.
|
76 |
|
|
|
|
|
77 |
**Historique des messages :** {messages}
|
78 |
|
79 |
**l'utilisateur :** {query}
|
80 |
|
81 |
-
**
|
82 |
|
83 |
**Sortie attendue :** Votre réponse doit être bien formatée, plaisante à lire et inclure des émojis.
|
84 |
'''
|
|
|
74 |
Vous êtes un assistant IA très intelligent qui connaît tout sur le livre {name_book} de {writer}.
|
75 |
Vous allez répondre à la question de l'utilisateur, qui portera sur ce livre. Vous répondrez rigoureusement dans le style d'écriture de la nouvelle. Vos réponses seront courtes.
|
76 |
|
77 |
+
Résumé du livre : {summary}
|
78 |
+
|
79 |
**Historique des messages :** {messages}
|
80 |
|
81 |
**l'utilisateur :** {query}
|
82 |
|
83 |
+
**Extrait récupéré (si pertinent pour votre réponse) :** {context}
|
84 |
|
85 |
**Sortie attendue :** Votre réponse doit être bien formatée, plaisante à lire et inclure des émojis.
|
86 |
'''
|
rag.py
CHANGED
@@ -197,7 +197,7 @@ def generate_stream_whatif_chat(query:str,messages = [], model = "gpt-4o-mini",
|
|
197 |
prompt = PromptTemplate.from_template(template_whatif_response)
|
198 |
|
199 |
writer = "Laurent Tripied"
|
200 |
-
name_book = "
|
201 |
print("retreiving context")
|
202 |
context = retrieve_context_from_vectorestore(query)
|
203 |
print(f"Context: {context}")
|
@@ -205,9 +205,9 @@ def generate_stream_whatif_chat(query:str,messages = [], model = "gpt-4o-mini",
|
|
205 |
|
206 |
print("streaming")
|
207 |
if stream:
|
208 |
-
return llm_chain.stream({"name_book":name_book,"writer":writer,"messages":messages,"context":context,"query":query})
|
209 |
else:
|
210 |
-
return llm_chain.invoke({"name_book":name_book,"writer":writer,"messages":messages,"context":context,"query":query})
|
211 |
|
212 |
except Exception as e:
|
213 |
print(e)
|
|
|
197 |
prompt = PromptTemplate.from_template(template_whatif_response)
|
198 |
|
199 |
writer = "Laurent Tripied"
|
200 |
+
name_book = "La confession muette"
|
201 |
print("retreiving context")
|
202 |
context = retrieve_context_from_vectorestore(query)
|
203 |
print(f"Context: {context}")
|
|
|
205 |
|
206 |
print("streaming")
|
207 |
if stream:
|
208 |
+
return llm_chain.stream({"name_book":name_book,"writer":writer,"messages":messages,"context":context,"query":query,"summary":summary_text})
|
209 |
else:
|
210 |
+
return llm_chain.invoke({"name_book":name_book,"writer":writer,"messages":messages,"context":context,"query":query,"summary":summary_text})
|
211 |
|
212 |
except Exception as e:
|
213 |
print(e)
|