Update app.py
Browse files
app.py
CHANGED
@@ -539,6 +539,8 @@ def generate_text (prompt, file, chatbot, history, rag_option, model_option, ope
|
|
539 |
description = """<strong>Information:</strong> Hier wird ein <strong>Large Language Model (LLM)</strong> mit
|
540 |
<strong>Retrieval Augmented Generation (RAG)</strong> auf <strong>externen Daten</strong> verwendet.\n\n
|
541 |
"""
|
|
|
|
|
542 |
#css = """.toast-wrap { display: none !important } """
|
543 |
#examples=[['Was ist ChtGPT-4?'],['schreibe ein Python Programm, dass die GPT-4 API aufruft.']]
|
544 |
|
@@ -631,15 +633,14 @@ with gr.Blocks(css=customCSS, theme=small_and_beautiful_theme) as demo:
|
|
631 |
# Tab zum Zeichnen mit Stable Diffusion
|
632 |
################################################
|
633 |
with gr.Tab("KI zum Zeichnen"):
|
634 |
-
|
635 |
-
|
636 |
-
gr.Slider(label="
|
637 |
-
gr.Slider(label="
|
638 |
-
gr.Slider(label="
|
639 |
-
|
640 |
-
|
641 |
-
|
642 |
-
user_question2 = gr.State("")
|
643 |
with gr.Row():
|
644 |
gr.HTML("LI Zeichnen mit KI")
|
645 |
status_display2 = gr.Markdown("Success", elem_id="status_display")
|
|
|
539 |
description = """<strong>Information:</strong> Hier wird ein <strong>Large Language Model (LLM)</strong> mit
|
540 |
<strong>Retrieval Augmented Generation (RAG)</strong> auf <strong>externen Daten</strong> verwendet.\n\n
|
541 |
"""
|
542 |
+
description2 = "<strong>Information:</strong> Hier wird ein <strong>Large Language Model (LLM)</strong> zum Zeichnen verwendet. Zur Zeit wird hier Stable Diffusion verwendet.\n\n"
|
543 |
+
|
544 |
#css = """.toast-wrap { display: none !important } """
|
545 |
#examples=[['Was ist ChtGPT-4?'],['schreibe ein Python Programm, dass die GPT-4 API aufruft.']]
|
546 |
|
|
|
633 |
# Tab zum Zeichnen mit Stable Diffusion
|
634 |
################################################
|
635 |
with gr.Tab("KI zum Zeichnen"):
|
636 |
+
#additional_inputs = [
|
637 |
+
#gr.Slider(label="Temperature", value=0.65, minimum=0.0, maximum=1.0, step=0.05, interactive=True, info="Höhere Werte erzeugen diversere Antworten", visible=True),
|
638 |
+
#gr.Slider(label="Max new tokens", value=1024, minimum=0, maximum=4096, step=64, interactive=True, info="Maximale Anzahl neuer Tokens", visible=True),
|
639 |
+
#gr.Slider(label="Top-p (nucleus sampling)", value=0.6, minimum=0.0, maximum=1, step=0.05, interactive=True, info="Höhere Werte verwenden auch Tokens mit niedrigerer Wahrscheinlichkeit.", visible=True),
|
640 |
+
#gr.Slider(label="Repetition penalty", value=1.2, minimum=1.0, maximum=2.0, step=0.05, interactive=True, info="Strafe für wiederholte Tokens", visible=True)
|
641 |
+
#]
|
642 |
+
#damit der Prompt auch nach dem upload in die History noch für predicts_args verfügbar ist
|
643 |
+
user_question2 = gr.State("")
|
|
|
644 |
with gr.Row():
|
645 |
gr.HTML("LI Zeichnen mit KI")
|
646 |
status_display2 = gr.Markdown("Success", elem_id="status_display")
|