alexkueck commited on
Commit
3e901f3
1 Parent(s): 790cd7f

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +10 -9
app.py CHANGED
@@ -539,6 +539,8 @@ def generate_text (prompt, file, chatbot, history, rag_option, model_option, ope
539
  description = """<strong>Information:</strong> Hier wird ein <strong>Large Language Model (LLM)</strong> mit
540
  <strong>Retrieval Augmented Generation (RAG)</strong> auf <strong>externen Daten</strong> verwendet.\n\n
541
  """
 
 
542
  #css = """.toast-wrap { display: none !important } """
543
  #examples=[['Was ist ChtGPT-4?'],['schreibe ein Python Programm, dass die GPT-4 API aufruft.']]
544
 
@@ -631,15 +633,14 @@ with gr.Blocks(css=customCSS, theme=small_and_beautiful_theme) as demo:
631
  # Tab zum Zeichnen mit Stable Diffusion
632
  ################################################
633
  with gr.Tab("KI zum Zeichnen"):
634
- description2 = "<strong>Information:</strong> Hier wird ein <strong>Large Language Model (LLM)</strong> zum Zeichnen verwendet. Zur Zeit wird hier Stable Diffusion verwendet.\n\n"
635
- additional_inputs = [
636
- gr.Slider(label="Temperature", value=0.65, minimum=0.0, maximum=1.0, step=0.05, interactive=True, info="Höhere Werte erzeugen diversere Antworten", visible=True),
637
- gr.Slider(label="Max new tokens", value=1024, minimum=0, maximum=4096, step=64, interactive=True, info="Maximale Anzahl neuer Tokens", visible=True),
638
- gr.Slider(label="Top-p (nucleus sampling)", value=0.6, minimum=0.0, maximum=1, step=0.05, interactive=True, info="Höhere Werte verwenden auch Tokens mit niedrigerer Wahrscheinlichkeit.", visible=True),
639
- gr.Slider(label="Repetition penalty", value=1.2, minimum=1.0, maximum=2.0, step=0.05, interactive=True, info="Strafe für wiederholte Tokens", visible=True)
640
- ]
641
- #damit der Prompt auch nach dem upload in die History noch für predicts_args verfügbar ist
642
- user_question2 = gr.State("")
643
  with gr.Row():
644
  gr.HTML("LI Zeichnen mit KI")
645
  status_display2 = gr.Markdown("Success", elem_id="status_display")
 
539
  description = """<strong>Information:</strong> Hier wird ein <strong>Large Language Model (LLM)</strong> mit
540
  <strong>Retrieval Augmented Generation (RAG)</strong> auf <strong>externen Daten</strong> verwendet.\n\n
541
  """
542
+ description2 = "<strong>Information:</strong> Hier wird ein <strong>Large Language Model (LLM)</strong> zum Zeichnen verwendet. Zur Zeit wird hier Stable Diffusion verwendet.\n\n"
543
+
544
  #css = """.toast-wrap { display: none !important } """
545
  #examples=[['Was ist ChtGPT-4?'],['schreibe ein Python Programm, dass die GPT-4 API aufruft.']]
546
 
 
633
  # Tab zum Zeichnen mit Stable Diffusion
634
  ################################################
635
  with gr.Tab("KI zum Zeichnen"):
636
+ #additional_inputs = [
637
+ #gr.Slider(label="Temperature", value=0.65, minimum=0.0, maximum=1.0, step=0.05, interactive=True, info="Höhere Werte erzeugen diversere Antworten", visible=True),
638
+ #gr.Slider(label="Max new tokens", value=1024, minimum=0, maximum=4096, step=64, interactive=True, info="Maximale Anzahl neuer Tokens", visible=True),
639
+ #gr.Slider(label="Top-p (nucleus sampling)", value=0.6, minimum=0.0, maximum=1, step=0.05, interactive=True, info="Höhere Werte verwenden auch Tokens mit niedrigerer Wahrscheinlichkeit.", visible=True),
640
+ #gr.Slider(label="Repetition penalty", value=1.2, minimum=1.0, maximum=2.0, step=0.05, interactive=True, info="Strafe für wiederholte Tokens", visible=True)
641
+ #]
642
+ #damit der Prompt auch nach dem upload in die History noch für predicts_args verfügbar ist
643
+ user_question2 = gr.State("")
 
644
  with gr.Row():
645
  gr.HTML("LI Zeichnen mit KI")
646
  status_display2 = gr.Markdown("Success", elem_id="status_display")