datacipen commited on
Commit
777d505
1 Parent(s): 672ae7d

Update main.py

Browse files
Files changed (1) hide show
  1. main.py +7 -13
main.py CHANGED
@@ -701,9 +701,12 @@ async def construction_NCS(romeListArray):
701
  """
702
  context_p = f"Contexte : {context}. {definitions} Modèle de note sectorielle : {structure}. Réponds en langue française strictement à la question suivante en respectant strictement les données du contexte. Si vous ne pouvez pas répondre à la question sur la base des informations, dites que vous ne trouvez pas de réponse ou que vous ne parvenez pas à trouver de réponse. Essayez donc de comprendre en profondeur le contexte et répondez uniquement en vous basant sur les informations fournies. Ne générez pas de réponses non pertinentes. Si les informations du contexte sont insuffisantes, procédez à une projection sur le secteur, les entreprises et le marché de l'emploi, pour construire la note de composante sectorielle."
703
  prompt = PromptTemplate(template=template, input_variables=["question","context"])
704
- llm_chain = LLMChain(prompt=prompt, llm=client_llm)
705
- completion_NCS = llm_chain.run({"question":question_p,"context":context_p}, callbacks=[StreamingStdOutCallbackHandler()])
706
-
 
 
 
707
  #completion_NCS = client_anthropic.messages.create(
708
  # model="claude-3-opus-20240229",
709
  # max_tokens=4000,
@@ -992,10 +995,6 @@ async def setup_agent(settings):
992
  streaming=True
993
  )
994
 
995
- #model = ChatAnthropic(
996
- # temperature=1,
997
- # model_name="claude-3-opus-20240229"
998
- #)
999
  memory = cl.user_session.get("memory")
1000
  prompt = ChatPromptTemplate.from_messages(
1001
  [
@@ -1013,7 +1012,6 @@ async def setup_agent(settings):
1013
  )
1014
  | prompt
1015
  | model
1016
- | StrOutputParser()
1017
  )
1018
  cl.user_session.set("runnable", runnable)
1019
 
@@ -1028,11 +1026,7 @@ async def main(message: cl.Message):
1028
  msg = cl.Message(author="Datapcc : 🌐🌐🌐",content="")
1029
  text_elements = []
1030
  answer = []
1031
- async for chunk in runnable.ainvoke(
1032
- {"question": message.content},
1033
- config=RunnableConfig(callbacks=[cl.AsyncLangchainCallbackHandler(stream_final_answer=True)]),
1034
- #config=RunnableConfig(callbacks=[cl.LangchainCallbackHandler()]),
1035
- ):
1036
  await parent_step.stream_token(chunk)
1037
  await msg.stream_token(chunk)
1038
 
 
701
  """
702
  context_p = f"Contexte : {context}. {definitions} Modèle de note sectorielle : {structure}. Réponds en langue française strictement à la question suivante en respectant strictement les données du contexte. Si vous ne pouvez pas répondre à la question sur la base des informations, dites que vous ne trouvez pas de réponse ou que vous ne parvenez pas à trouver de réponse. Essayez donc de comprendre en profondeur le contexte et répondez uniquement en vous basant sur les informations fournies. Ne générez pas de réponses non pertinentes. Si les informations du contexte sont insuffisantes, procédez à une projection sur le secteur, les entreprises et le marché de l'emploi, pour construire la note de composante sectorielle."
703
  prompt = PromptTemplate(template=template, input_variables=["question","context"])
704
+ #llm_chain = LLMChain(prompt=prompt, llm=client_llm)
705
+ #completion_NCS = llm_chain.run({"question":question_p,"context":context_p}, callbacks=[StreamingStdOutCallbackHandler()])
706
+ chain = prompt | client_llm
707
+ completion_NCS = chain.invoke({"question":question_p,"context":context_p})
708
+ #for s in chain.stream({"question":question_p,"context":context_p}):
709
+ # print(s, end="", flush=True)
710
  #completion_NCS = client_anthropic.messages.create(
711
  # model="claude-3-opus-20240229",
712
  # max_tokens=4000,
 
995
  streaming=True
996
  )
997
 
 
 
 
 
998
  memory = cl.user_session.get("memory")
999
  prompt = ChatPromptTemplate.from_messages(
1000
  [
 
1012
  )
1013
  | prompt
1014
  | model
 
1015
  )
1016
  cl.user_session.set("runnable", runnable)
1017
 
 
1026
  msg = cl.Message(author="Datapcc : 🌐🌐🌐",content="")
1027
  text_elements = []
1028
  answer = []
1029
+ async for chunk in runnable.astream({"question": message.content}):
 
 
 
 
1030
  await parent_step.stream_token(chunk)
1031
  await msg.stream_token(chunk)
1032