Spaces:
Running
Running
Update main.py
Browse files
main.py
CHANGED
@@ -51,7 +51,7 @@ async def LLModel():
|
|
51 |
os.environ['HUGGINGFACEHUB_API_TOKEN'] = os.environ['HUGGINGFACEHUB_API_TOKEN']
|
52 |
repo_id = "mistralai/Mixtral-8x7B-Instruct-v0.1"
|
53 |
llm = HuggingFaceEndpoint(
|
54 |
-
repo_id=repo_id, max_new_tokens=5300, temperature=
|
55 |
)
|
56 |
return llm
|
57 |
|
@@ -235,7 +235,7 @@ async def on_message(message: cl.Message):
|
|
235 |
|
236 |
with async_literal_client.thread() as thread:
|
237 |
cb = cl.AsyncLangchainCallbackHandler()
|
238 |
-
results = await runnable.acall("Contexte : Vous êtes un chercheur de l'enseignement supérieur et vous êtes doué pour faire des analyses d'articles de recherche sur les thématiques liées à la pédagogie, en fonction des critères définis ci-avant. En fonction des informations suivantes et du contexte suivant seulement et strictement, répondez en langue française strictement à la question ci-dessous, en
|
239 |
answer = results["answer"]
|
240 |
|
241 |
await cl.Message(content=GoogleTranslator(source='auto', target='fr').translate(answer)).send()
|
|
|
51 |
os.environ['HUGGINGFACEHUB_API_TOKEN'] = os.environ['HUGGINGFACEHUB_API_TOKEN']
|
52 |
repo_id = "mistralai/Mixtral-8x7B-Instruct-v0.1"
|
53 |
llm = HuggingFaceEndpoint(
|
54 |
+
repo_id=repo_id, max_new_tokens=5300, temperature=0.5, task="text2text-generation", streaming=True
|
55 |
)
|
56 |
return llm
|
57 |
|
|
|
235 |
|
236 |
with async_literal_client.thread() as thread:
|
237 |
cb = cl.AsyncLangchainCallbackHandler()
|
238 |
+
results = await runnable.acall("Contexte : Vous êtes un chercheur de l'enseignement supérieur et vous êtes doué pour faire des analyses d'articles de recherche sur les thématiques liées à la pédagogie, en fonction des critères définis ci-avant. En fonction des informations suivantes et du contexte suivant seulement et strictement, répondez en langue française strictement à la question ci-dessous, en 5500 mots minimum. En plus, tu créeras et tu afficheras, à la fin de ta réponse, 3 questions supplémentaires en relation avec le contexte initial, à chaque étape de la conversation. Tu écriras et tu afficheras les 3 questions supplémentaires en relation avec le contexte initial, à la fin de ta réponse, avec un titrage de niveau 1 qui a pour titre \"Questions en relation avec le contexte : \". Lorsque cela est possible, cite les sources du contexte. Si vous ne pouvez pas répondre à la question sur la base des informations, dites que vous ne trouvez pas de réponse ou que vous ne parvenez pas à trouver de réponse. Essayez donc de comprendre en profondeur le contexte et répondez uniquement en vous basant sur les informations fournies. Ne générez pas de réponses non pertinentes. Question : " + message.content, callbacks=[cb])
|
239 |
answer = results["answer"]
|
240 |
|
241 |
await cl.Message(content=GoogleTranslator(source='auto', target='fr').translate(answer)).send()
|