alexkueck commited on
Commit
74241c4
1 Parent(s): 7de1e3a

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +6 -6
app.py CHANGED
@@ -284,7 +284,7 @@ def generate_prompt_with_history_langchain(prompt, history):
284
 
285
  ###################################################
286
  #Funktion von Gradio aus, die den dort eingegebenen Prompt annimmt und weiterverarbeitet
287
- def invoke (prompt, history, rag_option, model_option, openai_api_key, temperature=0.9, max_new_tokens=512, top_p=0.6, repetition_penalty=1.3,):
288
  global splittet
289
  print(splittet)
290
  #Prompt an history anhängen und einen Text daraus machen
@@ -364,13 +364,13 @@ def vote(data: gr.LikeData):
364
 
365
  additional_inputs = [
366
  #gr.Radio(["Off", "Chroma", "MongoDB"], label="Retrieval Augmented Generation", value = "Off"),
367
- gr.Radio(["Aus", "An"], label="RAG - LI Erweiterungen", value = "Aus"),
368
  gr.Radio(["OpenAI", "HuggingFace"], label="Modellauswahl", value = "HuggingFace"),
369
  gr.Textbox(label = "OpenAI API Key", value = "sk-", lines = 1),
370
- gr.Slider(label="Temperature", value=0.9, minimum=0.0, maximum=1.0, step=0.05, interactive=True, info="Höhere Werte erzeugen diversere Antworten", visible=False),
371
- gr.Slider(label="Max new tokens", value=256, minimum=0, maximum=4096, step=64, interactive=True, info="Maximale Anzahl neuer Tokens", visible=False),
372
- gr.Slider(label="Top-p (nucleus sampling)", value=0.6, minimum=0.0, maximum=1, step=0.05, interactive=True, info="Höhere Werte verwenden auch Tokens mit niedrigerer Wahrscheinlichkeit.", visible=False),
373
- gr.Slider(label="Repetition penalty", value=1.2, minimum=1.0, maximum=2.0, step=0.05, interactive=True, info="Strafe für wiederholte Tokens", visible=False)
374
  ]
375
 
376
  chatbot_stream = gr.Chatbot()
 
284
 
285
  ###################################################
286
  #Funktion von Gradio aus, die den dort eingegebenen Prompt annimmt und weiterverarbeitet
287
+ def invoke (prompt, history, rag_option, model_option, openai_api_key, temperature=0.5, max_new_tokens=512, top_p=0.6, repetition_penalty=1.3,):
288
  global splittet
289
  print(splittet)
290
  #Prompt an history anhängen und einen Text daraus machen
 
364
 
365
  additional_inputs = [
366
  #gr.Radio(["Off", "Chroma", "MongoDB"], label="Retrieval Augmented Generation", value = "Off"),
367
+ gr.Radio(["Aus", "An"], label="RAG - LI Erweiterungen", value = "An"),
368
  gr.Radio(["OpenAI", "HuggingFace"], label="Modellauswahl", value = "HuggingFace"),
369
  gr.Textbox(label = "OpenAI API Key", value = "sk-", lines = 1),
370
+ gr.Slider(label="Temperature", value=0.9, minimum=0.0, maximum=1.0, step=0.05, interactive=True, info="Höhere Werte erzeugen diversere Antworten", visible=True),
371
+ gr.Slider(label="Max new tokens", value=256, minimum=0, maximum=4096, step=64, interactive=True, info="Maximale Anzahl neuer Tokens", visible=True),
372
+ gr.Slider(label="Top-p (nucleus sampling)", value=0.6, minimum=0.0, maximum=1, step=0.05, interactive=True, info="Höhere Werte verwenden auch Tokens mit niedrigerer Wahrscheinlichkeit.", visible=True),
373
+ gr.Slider(label="Repetition penalty", value=1.2, minimum=1.0, maximum=2.0, step=0.05, interactive=True, info="Strafe für wiederholte Tokens", visible=True)
374
  ]
375
 
376
  chatbot_stream = gr.Chatbot()