alexkueck commited on
Commit
eb31b4b
1 Parent(s): 61853f8

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +3 -3
app.py CHANGED
@@ -321,7 +321,7 @@ def invoke (prompt, history, openai_api_key, rag_option, temperature=0.9, max_ne
321
  ###############################################
322
  #Beschreibung oben in GUI
323
  ################################################
324
- title = "LLM mit RAG"
325
  description = """<strong>Information:</strong> Hier wird ein <strong>Large Language Model (LLM)</strong> mit
326
  <strong>Retrieval Augmented Generation (RAG)</strong> auf <strong>externen Daten</strong> demonstriert.\n\n
327
  """
@@ -335,7 +335,7 @@ def vote(data: gr.LikeData):
335
  additional_inputs = [
336
  gr.Textbox(label = "OpenAI API Key", value = "sk-", lines = 1),
337
  #gr.Radio(["Off", "Chroma", "MongoDB"], label="Retrieval Augmented Generation", value = "Off"),
338
- gr.Radio(["Off", "Chroma"], label="Retrieval Augmented Generation", value = "Off"),
339
  gr.Slider(label="Temperature", value=0.9, minimum=0.0, maximum=1.0, step=0.05, interactive=True, info="Höhere Werte erzeugen diversere Antworten"),
340
  gr.Slider(label="Max new tokens", value=256, minimum=0, maximum=4096, step=64, interactive=True, info="Maximale Anzahl neuer Tokens"),
341
  gr.Slider(label="Top-p (nucleus sampling)", value=0.6, minimum=0.0, maximum=1, step=0.05, interactive=True, info="Höhere Werte verwenden auch Tokens mit niedrigerer Wahrscheinlichkeit."),
@@ -346,7 +346,7 @@ chatbot_stream = gr.Chatbot()
346
 
347
  chat_interface_stream = gr.ChatInterface(fn=invoke,
348
  #additional_inputs = additional_inputs,
349
- title = "Generative AI - LLM & RAG",
350
  theme="soft",
351
  chatbot=chatbot_stream,
352
  retry_btn="Wiederholen",
 
321
  ###############################################
322
  #Beschreibung oben in GUI
323
  ################################################
324
+ #title = "LLM mit RAG"
325
  description = """<strong>Information:</strong> Hier wird ein <strong>Large Language Model (LLM)</strong> mit
326
  <strong>Retrieval Augmented Generation (RAG)</strong> auf <strong>externen Daten</strong> demonstriert.\n\n
327
  """
 
335
  additional_inputs = [
336
  gr.Textbox(label = "OpenAI API Key", value = "sk-", lines = 1),
337
  #gr.Radio(["Off", "Chroma", "MongoDB"], label="Retrieval Augmented Generation", value = "Off"),
338
+ gr.Radio(["Aus", "An"], label="RAG - LI Erweiterungen", value = "Aus"),
339
  gr.Slider(label="Temperature", value=0.9, minimum=0.0, maximum=1.0, step=0.05, interactive=True, info="Höhere Werte erzeugen diversere Antworten"),
340
  gr.Slider(label="Max new tokens", value=256, minimum=0, maximum=4096, step=64, interactive=True, info="Maximale Anzahl neuer Tokens"),
341
  gr.Slider(label="Top-p (nucleus sampling)", value=0.6, minimum=0.0, maximum=1, step=0.05, interactive=True, info="Höhere Werte verwenden auch Tokens mit niedrigerer Wahrscheinlichkeit."),
 
346
 
347
  chat_interface_stream = gr.ChatInterface(fn=invoke,
348
  #additional_inputs = additional_inputs,
349
+ title = "ChatGPT vom LI",
350
  theme="soft",
351
  chatbot=chatbot_stream,
352
  retry_btn="Wiederholen",