Update app.py
Browse files
app.py
CHANGED
@@ -284,7 +284,7 @@ def generate_prompt_with_history_langchain(prompt, history):
|
|
284 |
|
285 |
###################################################
|
286 |
#Funktion von Gradio aus, die den dort eingegebenen Prompt annimmt und weiterverarbeitet
|
287 |
-
def invoke (prompt, history, rag_option, model_option, openai_api_key, temperature=0.
|
288 |
global splittet
|
289 |
print(splittet)
|
290 |
#Prompt an history anhängen und einen Text daraus machen
|
@@ -364,13 +364,13 @@ def vote(data: gr.LikeData):
|
|
364 |
|
365 |
additional_inputs = [
|
366 |
#gr.Radio(["Off", "Chroma", "MongoDB"], label="Retrieval Augmented Generation", value = "Off"),
|
367 |
-
gr.Radio(["Aus", "An"], label="RAG - LI Erweiterungen", value = "
|
368 |
gr.Radio(["OpenAI", "HuggingFace"], label="Modellauswahl", value = "HuggingFace"),
|
369 |
gr.Textbox(label = "OpenAI API Key", value = "sk-", lines = 1),
|
370 |
-
gr.Slider(label="Temperature", value=0.9, minimum=0.0, maximum=1.0, step=0.05, interactive=True, info="Höhere Werte erzeugen diversere Antworten", visible=
|
371 |
-
gr.Slider(label="Max new tokens", value=256, minimum=0, maximum=4096, step=64, interactive=True, info="Maximale Anzahl neuer Tokens", visible=
|
372 |
-
gr.Slider(label="Top-p (nucleus sampling)", value=0.6, minimum=0.0, maximum=1, step=0.05, interactive=True, info="Höhere Werte verwenden auch Tokens mit niedrigerer Wahrscheinlichkeit.", visible=
|
373 |
-
gr.Slider(label="Repetition penalty", value=1.2, minimum=1.0, maximum=2.0, step=0.05, interactive=True, info="Strafe für wiederholte Tokens", visible=
|
374 |
]
|
375 |
|
376 |
chatbot_stream = gr.Chatbot()
|
|
|
284 |
|
285 |
###################################################
|
286 |
#Funktion von Gradio aus, die den dort eingegebenen Prompt annimmt und weiterverarbeitet
|
287 |
+
def invoke (prompt, history, rag_option, model_option, openai_api_key, temperature=0.5, max_new_tokens=512, top_p=0.6, repetition_penalty=1.3,):
|
288 |
global splittet
|
289 |
print(splittet)
|
290 |
#Prompt an history anhängen und einen Text daraus machen
|
|
|
364 |
|
365 |
additional_inputs = [
|
366 |
#gr.Radio(["Off", "Chroma", "MongoDB"], label="Retrieval Augmented Generation", value = "Off"),
|
367 |
+
gr.Radio(["Aus", "An"], label="RAG - LI Erweiterungen", value = "An"),
|
368 |
gr.Radio(["OpenAI", "HuggingFace"], label="Modellauswahl", value = "HuggingFace"),
|
369 |
gr.Textbox(label = "OpenAI API Key", value = "sk-", lines = 1),
|
370 |
+
gr.Slider(label="Temperature", value=0.9, minimum=0.0, maximum=1.0, step=0.05, interactive=True, info="Höhere Werte erzeugen diversere Antworten", visible=True),
|
371 |
+
gr.Slider(label="Max new tokens", value=256, minimum=0, maximum=4096, step=64, interactive=True, info="Maximale Anzahl neuer Tokens", visible=True),
|
372 |
+
gr.Slider(label="Top-p (nucleus sampling)", value=0.6, minimum=0.0, maximum=1, step=0.05, interactive=True, info="Höhere Werte verwenden auch Tokens mit niedrigerer Wahrscheinlichkeit.", visible=True),
|
373 |
+
gr.Slider(label="Repetition penalty", value=1.2, minimum=1.0, maximum=2.0, step=0.05, interactive=True, info="Strafe für wiederholte Tokens", visible=True)
|
374 |
]
|
375 |
|
376 |
chatbot_stream = gr.Chatbot()
|