Update app.py
Browse files
app.py
CHANGED
@@ -465,12 +465,12 @@ def generate_bild(prompt, chatbot, temperature=0.5, max_new_tokens=4048,top_p=0
|
|
465 |
#zu einem Bild und Text-Prompt eine Analyse generieren
|
466 |
def generate_text_zu_bild(file, prompt):
|
467 |
headers, payload = process_image(file, prompt)
|
468 |
-
response =
|
469 |
#als json ausgeben
|
470 |
-
|
471 |
# Den "content" auswählen, da dort die Antwort der Ki enthalten ist
|
472 |
-
|
473 |
-
return
|
474 |
|
475 |
####################################################
|
476 |
#aus einem Text-Prompt die Antwort von KI bekommen
|
@@ -531,7 +531,7 @@ def generate_text (prompt, chatbot, history, rag_option, model_option, openai_ap
|
|
531 |
result = rag_chain(llm, history_text_und_prompt, db)
|
532 |
else:
|
533 |
print("LLM aufrufen ohne RAG: ...........")
|
534 |
-
result =
|
535 |
|
536 |
except Exception as e:
|
537 |
raise gr.Error(e)
|
|
|
465 |
#zu einem Bild und Text-Prompt eine Analyse generieren
|
466 |
def generate_text_zu_bild(file, prompt):
|
467 |
headers, payload = process_image(file, prompt)
|
468 |
+
response = requests.post("https://api.openai.com/v1/chat/completions", headers=headers, json=payload)
|
469 |
#als json ausgeben
|
470 |
+
data = response.json()
|
471 |
# Den "content" auswählen, da dort die Antwort der Ki enthalten ist
|
472 |
+
result = data['choices'][0]['message']['content']
|
473 |
+
return result
|
474 |
|
475 |
####################################################
|
476 |
#aus einem Text-Prompt die Antwort von KI bekommen
|
|
|
531 |
result = rag_chain(llm, history_text_und_prompt, db)
|
532 |
else:
|
533 |
print("LLM aufrufen ohne RAG: ...........")
|
534 |
+
result = llm_chain(llm, history_text_und_prompt)
|
535 |
|
536 |
except Exception as e:
|
537 |
raise gr.Error(e)
|