Update app.py
Browse files
app.py
CHANGED
@@ -96,8 +96,6 @@ MODEL_NAME_IMAGE = "gpt-4-vision-preview"
|
|
96 |
|
97 |
|
98 |
#verfügbare Modelle anzeigen lassen
|
99 |
-
|
100 |
-
|
101 |
#HuggingFace Reop ID--------------------------------
|
102 |
#repo_id = "meta-llama/Llama-2-13b-chat-hf"
|
103 |
repo_id = "HuggingFaceH4/zephyr-7b-alpha" #das Modell ist echt gut!!! Vom MIT
|
@@ -191,8 +189,6 @@ def umwandeln_fuer_anzeige(image):
|
|
191 |
###################################################
|
192 |
#Funktion von Gradio aus, die den dort eingegebenen Prompt annimmt und weiterverarbeitet
|
193 |
###################################################
|
194 |
-
|
195 |
-
|
196 |
#########################################################
|
197 |
#Funktion wird direkt aufgerufen aus der GUI - von hier muss auch die Rückmeldung kommen....
|
198 |
#man kann einen Text-Prompt eingeben (mit oder ohne RAG), dazu ein Image hochladen, ein Bild zu einem reinen textprompt erzeugen lassen
|
@@ -288,7 +284,6 @@ def generate_text (prompt, chatbot, history, rag_option, model_option, openai_ap
|
|
288 |
#history für Langchain formatieren
|
289 |
#history_text_und_prompt = generate_prompt_with_history_langchain(prompt, history)
|
290 |
|
291 |
-
|
292 |
try:
|
293 |
###########################
|
294 |
#LLM auswählen (OpenAI oder HF)
|
|
|
96 |
|
97 |
|
98 |
#verfügbare Modelle anzeigen lassen
|
|
|
|
|
99 |
#HuggingFace Reop ID--------------------------------
|
100 |
#repo_id = "meta-llama/Llama-2-13b-chat-hf"
|
101 |
repo_id = "HuggingFaceH4/zephyr-7b-alpha" #das Modell ist echt gut!!! Vom MIT
|
|
|
189 |
###################################################
|
190 |
#Funktion von Gradio aus, die den dort eingegebenen Prompt annimmt und weiterverarbeitet
|
191 |
###################################################
|
|
|
|
|
192 |
#########################################################
|
193 |
#Funktion wird direkt aufgerufen aus der GUI - von hier muss auch die Rückmeldung kommen....
|
194 |
#man kann einen Text-Prompt eingeben (mit oder ohne RAG), dazu ein Image hochladen, ein Bild zu einem reinen textprompt erzeugen lassen
|
|
|
284 |
#history für Langchain formatieren
|
285 |
#history_text_und_prompt = generate_prompt_with_history_langchain(prompt, history)
|
286 |
|
|
|
287 |
try:
|
288 |
###########################
|
289 |
#LLM auswählen (OpenAI oder HF)
|