Spaces:
Runtime error
Runtime error
Update app.py
Browse files
app.py
CHANGED
@@ -49,6 +49,10 @@ splittet = False
|
|
49 |
#für eine Session werden die chatsverläufe hier gespeichert...
|
50 |
chats={}
|
51 |
|
|
|
|
|
|
|
|
|
52 |
##################################################
|
53 |
#Für MongoDB statt Chroma als Vektorstore
|
54 |
#MONGODB_URI = os.environ["MONGODB_ATLAS_CLUSTER_URI"]
|
@@ -160,7 +164,7 @@ def download_chats(selected_chats):
|
|
160 |
# Diese Funktion bereitet die ausgewählten Chats zum Download vor
|
161 |
data = "\n\n".join(chats[chat] for chat in selected_chats)
|
162 |
# Dateipfad festlegen (hier wird die Datei im aktuellen Verzeichnis gespeichert)
|
163 |
-
file_path = 'data/chatverlauf.txt'
|
164 |
|
165 |
# Datei im Schreibmodus öffnen (erstellt die Datei, wenn sie nicht existiert)
|
166 |
with open(file_path, 'w') as file:
|
@@ -434,7 +438,7 @@ def generate_text (prompt, chatbot, history, rag_option, model_option, openai_ap
|
|
434 |
else:
|
435 |
#oder an Hugging Face --------------------------
|
436 |
print("HF Anfrage.......................")
|
437 |
-
llm = HuggingFaceHub(repo_id=repo_id, model_kwargs={"temperature": 0.5, "max_length":
|
438 |
#llm = HuggingFaceChain(model=MODEL_NAME_HF, model_kwargs={"temperature": 0.5, "max_length": 128})
|
439 |
#llm = HuggingFaceHub(url_??? = "https://wdgsjd6zf201mufn.us-east-1.aws.endpoints.huggingface.cloud", model_kwargs={"temperature": 0.5, "max_length": 64})
|
440 |
#llm = HuggingFaceTextGenInference( inference_server_url="http://localhost:8010/", max_new_tokens=max_new_tokens,top_k=10,top_p=top_p,typical_p=0.95,temperature=temperature,repetition_penalty=repetition_penalty,)
|
@@ -456,9 +460,7 @@ def generate_text (prompt, chatbot, history, rag_option, model_option, openai_ap
|
|
456 |
print("LLM aufrufen ohne RAG: ...........")
|
457 |
resulti = llm_chain(llm, history_text_und_prompt)
|
458 |
result = resulti.strip()
|
459 |
-
|
460 |
-
print(result)
|
461 |
-
print("result ende .......................")
|
462 |
#Wenn keine Antwort möglich "Ich weiß es nicht" etc., dann versuchen mit Suche im Internet.
|
463 |
if (result == None or is_response_similar(result)):
|
464 |
print("Suche im Netz: ...........")
|
@@ -699,7 +701,7 @@ with gr.Blocks(css=customCSS, theme=small_and_beautiful_theme) as demo:
|
|
699 |
|
700 |
|
701 |
demo.title = "LI-ChatBot"
|
702 |
-
demo.queue().launch(debug=True)
|
703 |
|
704 |
|
705 |
|
|
|
49 |
#für eine Session werden die chatsverläufe hier gespeichert...
|
50 |
chats={}
|
51 |
|
52 |
+
#############################################
|
53 |
+
# Allgemeine Konstanten
|
54 |
+
TEMP_PATH = '/tmp/gradio/01834b95fcf793903d65ab947cc410dc1600d0df/chatverlauf.txt'
|
55 |
+
|
56 |
##################################################
|
57 |
#Für MongoDB statt Chroma als Vektorstore
|
58 |
#MONGODB_URI = os.environ["MONGODB_ATLAS_CLUSTER_URI"]
|
|
|
164 |
# Diese Funktion bereitet die ausgewählten Chats zum Download vor
|
165 |
data = "\n\n".join(chats[chat] for chat in selected_chats)
|
166 |
# Dateipfad festlegen (hier wird die Datei im aktuellen Verzeichnis gespeichert)
|
167 |
+
file_path = TEMP_PATH #'data/chatverlauf.txt'
|
168 |
|
169 |
# Datei im Schreibmodus öffnen (erstellt die Datei, wenn sie nicht existiert)
|
170 |
with open(file_path, 'w') as file:
|
|
|
438 |
else:
|
439 |
#oder an Hugging Face --------------------------
|
440 |
print("HF Anfrage.......................")
|
441 |
+
llm = HuggingFaceHub(repo_id=repo_id, model_kwargs={"temperature": 0.5, "max_length": 1024})
|
442 |
#llm = HuggingFaceChain(model=MODEL_NAME_HF, model_kwargs={"temperature": 0.5, "max_length": 128})
|
443 |
#llm = HuggingFaceHub(url_??? = "https://wdgsjd6zf201mufn.us-east-1.aws.endpoints.huggingface.cloud", model_kwargs={"temperature": 0.5, "max_length": 64})
|
444 |
#llm = HuggingFaceTextGenInference( inference_server_url="http://localhost:8010/", max_new_tokens=max_new_tokens,top_k=10,top_p=top_p,typical_p=0.95,temperature=temperature,repetition_penalty=repetition_penalty,)
|
|
|
460 |
print("LLM aufrufen ohne RAG: ...........")
|
461 |
resulti = llm_chain(llm, history_text_und_prompt)
|
462 |
result = resulti.strip()
|
463 |
+
|
|
|
|
|
464 |
#Wenn keine Antwort möglich "Ich weiß es nicht" etc., dann versuchen mit Suche im Internet.
|
465 |
if (result == None or is_response_similar(result)):
|
466 |
print("Suche im Netz: ...........")
|
|
|
701 |
|
702 |
|
703 |
demo.title = "LI-ChatBot"
|
704 |
+
demo.queue(default_concurrency_limit=15).launch(debug=True)
|
705 |
|
706 |
|
707 |
|