Update app.py
Browse files
app.py
CHANGED
@@ -288,11 +288,13 @@ def generate_prompt_with_history_langchain(prompt, history):
|
|
288 |
###################################################
|
289 |
#Funktion von Gradio aus, die den dort eingegebenen Prompt annimmt und weiterverarbeitet
|
290 |
#erstmal gucken, ob text oder Bild angekommen ist
|
291 |
-
def chatbot_response(messages
|
|
|
|
|
292 |
responses = []
|
293 |
for message in messages:
|
294 |
if message['type'] == 'text':
|
295 |
-
invoke(message['data'], history, rag_option, model_option, openai_api_key, temperature=0.5, max_new_tokens=4048, top_p=0.6, repetition_penalty=1.3,)
|
296 |
responses.append({'type': 'text', 'data': f"Echo: {message['data']}"})
|
297 |
else:
|
298 |
print("Bild.............................")
|
|
|
288 |
###################################################
|
289 |
#Funktion von Gradio aus, die den dort eingegebenen Prompt annimmt und weiterverarbeitet
|
290 |
#erstmal gucken, ob text oder Bild angekommen ist
|
291 |
+
def chatbot_response(messages):
|
292 |
+
print("messages.......................")
|
293 |
+
print(messages)
|
294 |
responses = []
|
295 |
for message in messages:
|
296 |
if message['type'] == 'text':
|
297 |
+
#invoke(message['data'], history, rag_option, model_option, openai_api_key, temperature=0.5, max_new_tokens=4048, top_p=0.6, repetition_penalty=1.3,)
|
298 |
responses.append({'type': 'text', 'data': f"Echo: {message['data']}"})
|
299 |
else:
|
300 |
print("Bild.............................")
|