datacipen commited on
Commit
bdd1edb
1 Parent(s): 297817f

Update main.py

Browse files
Files changed (1) hide show
  1. main.py +2 -2
main.py CHANGED
@@ -51,7 +51,7 @@ async def LLModel():
51
  os.environ['HUGGINGFACEHUB_API_TOKEN'] = os.environ['HUGGINGFACEHUB_API_TOKEN']
52
  repo_id = "mistralai/Mixtral-8x7B-Instruct-v0.1"
53
  llm = HuggingFaceEndpoint(
54
- repo_id=repo_id, max_new_tokens=5300, temperature=1.0, task="text2text-generation", streaming=True
55
  )
56
  return llm
57
 
@@ -235,7 +235,7 @@ async def on_message(message: cl.Message):
235
 
236
  with async_literal_client.thread() as thread:
237
  cb = cl.AsyncLangchainCallbackHandler()
238
- results = await runnable.acall("Contexte : Vous êtes un chercheur de l'enseignement supérieur et vous êtes doué pour faire des analyses d'articles de recherche sur les thématiques liées à la pédagogie, en fonction des critères définis ci-avant. En fonction des informations suivantes et du contexte suivant seulement et strictement, répondez en langue française strictement à la question ci-dessous, en 5000 mots minimum. En plus, tu créeras et tu afficheras, à la fin de ta réponse, 3 questions supplémentaires en relation avec le contexte initial, à chaque étape de la conversation. Tu écriras et tu afficheras les 3 questions supplémentaires en relation avec le contexte initial, à la fin de ta réponse, avec un titrage de niveau 1 qui a pour titre \"Questions en relation avec le contexte : \". Lorsque cela est possible, cite les sources du contexte. Si vous ne pouvez pas répondre à la question sur la base des informations, dites que vous ne trouvez pas de réponse ou que vous ne parvenez pas à trouver de réponse. Essayez donc de comprendre en profondeur le contexte et répondez uniquement en vous basant sur les informations fournies. Ne générez pas de réponses non pertinentes. Question : " + message.content, callbacks=[cb])
239
  answer = results["answer"]
240
 
241
  await cl.Message(content=GoogleTranslator(source='auto', target='fr').translate(answer)).send()
 
51
  os.environ['HUGGINGFACEHUB_API_TOKEN'] = os.environ['HUGGINGFACEHUB_API_TOKEN']
52
  repo_id = "mistralai/Mixtral-8x7B-Instruct-v0.1"
53
  llm = HuggingFaceEndpoint(
54
+ repo_id=repo_id, max_new_tokens=5300, temperature=0.5, task="text2text-generation", streaming=True
55
  )
56
  return llm
57
 
 
235
 
236
  with async_literal_client.thread() as thread:
237
  cb = cl.AsyncLangchainCallbackHandler()
238
+ results = await runnable.acall("Contexte : Vous êtes un chercheur de l'enseignement supérieur et vous êtes doué pour faire des analyses d'articles de recherche sur les thématiques liées à la pédagogie, en fonction des critères définis ci-avant. En fonction des informations suivantes et du contexte suivant seulement et strictement, répondez en langue française strictement à la question ci-dessous, en 5500 mots minimum. En plus, tu créeras et tu afficheras, à la fin de ta réponse, 3 questions supplémentaires en relation avec le contexte initial, à chaque étape de la conversation. Tu écriras et tu afficheras les 3 questions supplémentaires en relation avec le contexte initial, à la fin de ta réponse, avec un titrage de niveau 1 qui a pour titre \"Questions en relation avec le contexte : \". Lorsque cela est possible, cite les sources du contexte. Si vous ne pouvez pas répondre à la question sur la base des informations, dites que vous ne trouvez pas de réponse ou que vous ne parvenez pas à trouver de réponse. Essayez donc de comprendre en profondeur le contexte et répondez uniquement en vous basant sur les informations fournies. Ne générez pas de réponses non pertinentes. Question : " + message.content, callbacks=[cb])
239
  answer = results["answer"]
240
 
241
  await cl.Message(content=GoogleTranslator(source='auto', target='fr').translate(answer)).send()