alexkueck commited on
Commit
694fbaa
1 Parent(s): 6e7b117

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +8 -6
app.py CHANGED
@@ -49,6 +49,10 @@ splittet = False
49
  #für eine Session werden die chatsverläufe hier gespeichert...
50
  chats={}
51
 
 
 
 
 
52
  ##################################################
53
  #Für MongoDB statt Chroma als Vektorstore
54
  #MONGODB_URI = os.environ["MONGODB_ATLAS_CLUSTER_URI"]
@@ -160,7 +164,7 @@ def download_chats(selected_chats):
160
  # Diese Funktion bereitet die ausgewählten Chats zum Download vor
161
  data = "\n\n".join(chats[chat] for chat in selected_chats)
162
  # Dateipfad festlegen (hier wird die Datei im aktuellen Verzeichnis gespeichert)
163
- file_path = 'data/chatverlauf.txt'
164
 
165
  # Datei im Schreibmodus öffnen (erstellt die Datei, wenn sie nicht existiert)
166
  with open(file_path, 'w') as file:
@@ -434,7 +438,7 @@ def generate_text (prompt, chatbot, history, rag_option, model_option, openai_ap
434
  else:
435
  #oder an Hugging Face --------------------------
436
  print("HF Anfrage.......................")
437
- llm = HuggingFaceHub(repo_id=repo_id, model_kwargs={"temperature": 0.5, "max_length": 128})
438
  #llm = HuggingFaceChain(model=MODEL_NAME_HF, model_kwargs={"temperature": 0.5, "max_length": 128})
439
  #llm = HuggingFaceHub(url_??? = "https://wdgsjd6zf201mufn.us-east-1.aws.endpoints.huggingface.cloud", model_kwargs={"temperature": 0.5, "max_length": 64})
440
  #llm = HuggingFaceTextGenInference( inference_server_url="http://localhost:8010/", max_new_tokens=max_new_tokens,top_k=10,top_p=top_p,typical_p=0.95,temperature=temperature,repetition_penalty=repetition_penalty,)
@@ -456,9 +460,7 @@ def generate_text (prompt, chatbot, history, rag_option, model_option, openai_ap
456
  print("LLM aufrufen ohne RAG: ...........")
457
  resulti = llm_chain(llm, history_text_und_prompt)
458
  result = resulti.strip()
459
- print("result llm ohne rag:...................")
460
- print(result)
461
- print("result ende .......................")
462
  #Wenn keine Antwort möglich "Ich weiß es nicht" etc., dann versuchen mit Suche im Internet.
463
  if (result == None or is_response_similar(result)):
464
  print("Suche im Netz: ...........")
@@ -699,7 +701,7 @@ with gr.Blocks(css=customCSS, theme=small_and_beautiful_theme) as demo:
699
 
700
 
701
  demo.title = "LI-ChatBot"
702
- demo.queue().launch(debug=True)
703
 
704
 
705
 
 
49
  #für eine Session werden die chatsverläufe hier gespeichert...
50
  chats={}
51
 
52
+ #############################################
53
+ # Allgemeine Konstanten
54
+ TEMP_PATH = '/tmp/gradio/01834b95fcf793903d65ab947cc410dc1600d0df/chatverlauf.txt'
55
+
56
  ##################################################
57
  #Für MongoDB statt Chroma als Vektorstore
58
  #MONGODB_URI = os.environ["MONGODB_ATLAS_CLUSTER_URI"]
 
164
  # Diese Funktion bereitet die ausgewählten Chats zum Download vor
165
  data = "\n\n".join(chats[chat] for chat in selected_chats)
166
  # Dateipfad festlegen (hier wird die Datei im aktuellen Verzeichnis gespeichert)
167
+ file_path = TEMP_PATH #'data/chatverlauf.txt'
168
 
169
  # Datei im Schreibmodus öffnen (erstellt die Datei, wenn sie nicht existiert)
170
  with open(file_path, 'w') as file:
 
438
  else:
439
  #oder an Hugging Face --------------------------
440
  print("HF Anfrage.......................")
441
+ llm = HuggingFaceHub(repo_id=repo_id, model_kwargs={"temperature": 0.5, "max_length": 1024})
442
  #llm = HuggingFaceChain(model=MODEL_NAME_HF, model_kwargs={"temperature": 0.5, "max_length": 128})
443
  #llm = HuggingFaceHub(url_??? = "https://wdgsjd6zf201mufn.us-east-1.aws.endpoints.huggingface.cloud", model_kwargs={"temperature": 0.5, "max_length": 64})
444
  #llm = HuggingFaceTextGenInference( inference_server_url="http://localhost:8010/", max_new_tokens=max_new_tokens,top_k=10,top_p=top_p,typical_p=0.95,temperature=temperature,repetition_penalty=repetition_penalty,)
 
460
  print("LLM aufrufen ohne RAG: ...........")
461
  resulti = llm_chain(llm, history_text_und_prompt)
462
  result = resulti.strip()
463
+
 
 
464
  #Wenn keine Antwort möglich "Ich weiß es nicht" etc., dann versuchen mit Suche im Internet.
465
  if (result == None or is_response_similar(result)):
466
  print("Suche im Netz: ...........")
 
701
 
702
 
703
  demo.title = "LI-ChatBot"
704
+ demo.queue(default_concurrency_limit=15).launch(debug=True)
705
 
706
 
707