alexkueck commited on
Commit
54bd604
1 Parent(s): 947c6de

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +5 -4
app.py CHANGED
@@ -176,7 +176,7 @@ def umwandeln_fuer_anzeige(image):
176
  ####################################################
177
  #aus einem Text-Prompt die Antwort von KI bekommen
178
  #mit oder ohne RAG möglich
179
- def generate_text (prompt, chatbot, history, vektordatenbank, top_p=0.6, temperature=0.2, max_new_tokens=4048, max_context_length_tokens=2048, repetition_penalty=1.3, top_k=35):
180
  print("Text pur..............................")
181
  if (prompt == ""):
182
  raise gr.Error("Prompt ist erforderlich.")
@@ -186,14 +186,15 @@ def generate_text (prompt, chatbot, history, vektordatenbank, top_p=0.6, temper
186
  print("HF Anfrage.......................")
187
  #model_kwargs={"temperature": 0.5, "max_length": 512, "num_return_sequences": 1, "top_k": top_k, "top_p": top_p, "repetition_penalty": repetition_penalty}
188
  #llm = HuggingFaceHub(repo_id=repo_id, model_kwargs=model_kwargs)
189
- #llm = HuggingFaceChain(model=MODEL_NAME_HF, model_kwargs={"temperature": 0.5, "max_length": 128})
190
 
191
  #Prompt an history anhängen und einen Text daraus machen
192
  history_text_und_prompt = generate_prompt_with_history(prompt, history)
193
 
194
  #zusätzliche Dokumenten Splits aus DB zum Prompt hinzufügen (aus VektorDB - Chroma oder Mongo DB)
195
  print("LLM aufrufen mit RAG: ...........")
196
- result = rag_chain(history_text_und_prompt, vektordatenbank, ANZAHL_DOCS)
 
197
  print("result regchain.....................")
198
  print(result)
199
 
@@ -305,7 +306,7 @@ def generate_auswahl(prompt_in, file, file_history, chatbot, history, anzahl_doc
305
  #kein Bild hochgeladen -> auf Text antworten...
306
  status = "Antwort der KI ..."
307
  if (file == None and file_history == None):
308
- results, status = generate_text(prompt, chatbot, history,vektordatenbank, top_p=0.6, temperature=0.5, max_new_tokens=4048, max_context_length_tokens=2048, repetition_penalty=1.3, top_k=3)
309
  else:
310
  #Es wurde ein File neu angehängt -> das hochladen und dann Prompt bearbeiten
311
  #das history_fiel muss neu gesetzt werden
 
176
  ####################################################
177
  #aus einem Text-Prompt die Antwort von KI bekommen
178
  #mit oder ohne RAG möglich
179
+ def generate_text (prompt, chatbot, history, vektordatenbank, retriever, top_p=0.6, temperature=0.2, max_new_tokens=4048, max_context_length_tokens=2048, repetition_penalty=1.3, top_k=35):
180
  print("Text pur..............................")
181
  if (prompt == ""):
182
  raise gr.Error("Prompt ist erforderlich.")
 
186
  print("HF Anfrage.......................")
187
  #model_kwargs={"temperature": 0.5, "max_length": 512, "num_return_sequences": 1, "top_k": top_k, "top_p": top_p, "repetition_penalty": repetition_penalty}
188
  #llm = HuggingFaceHub(repo_id=repo_id, model_kwargs=model_kwargs)
189
+ llm = HuggingFaceChain(model=MODEL_NAME_HF, model_kwargs={"temperature": 0.5, "max_length": 128})
190
 
191
  #Prompt an history anhängen und einen Text daraus machen
192
  history_text_und_prompt = generate_prompt_with_history(prompt, history)
193
 
194
  #zusätzliche Dokumenten Splits aus DB zum Prompt hinzufügen (aus VektorDB - Chroma oder Mongo DB)
195
  print("LLM aufrufen mit RAG: ...........")
196
+ #result = rag_chain(history_text_und_prompt, vektordatenbank, ANZAHL_DOCS)
197
+ result = rag_chain(llm, history_text_und_prompt, retriever)
198
  print("result regchain.....................")
199
  print(result)
200
 
 
306
  #kein Bild hochgeladen -> auf Text antworten...
307
  status = "Antwort der KI ..."
308
  if (file == None and file_history == None):
309
+ results, status = generate_text(prompt, chatbot, history,vektordatenbank, retriever, top_p=0.6, temperature=0.5, max_new_tokens=4048, max_context_length_tokens=2048, repetition_penalty=1.3, top_k=3)
310
  else:
311
  #Es wurde ein File neu angehängt -> das hochladen und dann Prompt bearbeiten
312
  #das history_fiel muss neu gesetzt werden