alexkueck commited on
Commit
27bc431
1 Parent(s): a455202

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +16 -6
app.py CHANGED
@@ -270,7 +270,7 @@ def create_assistant_suche(prompt):
270
  #########################################################
271
  #Funktion wird direkt aufgerufen aus der GUI - von hier muss auch die Rückmeldung kommen....
272
  #man kann einen Text-Prompt eingeben (mit oder ohne RAG), dazu ein Image hochladen, ein Bild zu einem reinen textprompt erzeugen lassen
273
- def generate_auswahl(prompt, file, file_history, chatbot, history, rag_option, model_option, openai_api_key, k=3, top_p=0.6, temperature=0.5, max_new_tokens=4048, max_context_length_tokens=2048, repetition_penalty=1.3,):
274
  global splittet, db
275
  #wenn RAG angeschaltet - Vektorstore initialisieren
276
  #aber nur, wenn es noch nicht geshehen ist (splittet = False)
@@ -278,7 +278,7 @@ def generate_auswahl(prompt, file, file_history, chatbot, history, rag_option, m
278
  neu_file = file_history
279
 
280
  #prompt normalisieren bevor er an die KIs geht
281
- prompt = normalise_prompt(prompt_in)
282
 
283
  if (rag_option == "An"):
284
  #muss nur einmal ausgeführt werden...
@@ -294,7 +294,7 @@ def generate_auswahl(prompt, file, file_history, chatbot, history, rag_option, m
294
  #kein Bild hochgeladen -> auf Text antworten...
295
  status = "Antwort der KI ..."
296
  if (file == None and file_history == None):
297
- result, status = generate_text(prompt, chatbot, history, rag_option, model_option, openai_api_key, db, k=3, top_p=0.6, temperature=0.5, max_new_tokens=4048, max_context_length_tokens=2048, repetition_penalty=1.3,)
298
  history = history + [[prompt, result]]
299
  else:
300
  #Es wurde ein File neu angehängt -> wenn prompt dazu, das Bild analysieren
@@ -398,7 +398,7 @@ def generate_text_zu_doc(file, prompt, k, rag_option, chatbot, history, db):
398
  ####################################################
399
  #aus einem Text-Prompt die Antwort von KI bekommen
400
  #mit oder ohne RAG möglich
401
- def generate_text (prompt, chatbot, history, rag_option, model_option, openai_api_key, db, k=3, top_p=0.6, temperature=0.5, max_new_tokens=4048, max_context_length_tokens=2048, repetition_penalty=1.3,):
402
  global splittet
403
  suche_im_Netz="Antwort der KI ..."
404
  print("Text pur..............................")
@@ -434,7 +434,7 @@ def generate_text (prompt, chatbot, history, rag_option, model_option, openai_ap
434
  else:
435
  #oder an Hugging Face --------------------------
436
  print("HF Anfrage.......................")
437
- model_kwargs={"temperature": 0.5, "max_length": 128, "num_return_sequences": 1}
438
  llm = HuggingFaceHub(repo_id=repo_id, model_kwargs=model_kwargs)
439
  #llm = HuggingFaceChain(model=MODEL_NAME_HF, model_kwargs={"temperature": 0.5, "max_length": 128})
440
  #llm = HuggingFaceHub(url_??? = "https://wdgsjd6zf201mufn.us-east-1.aws.endpoints.huggingface.cloud", model_kwargs={"temperature": 0.5, "max_length": 64})
@@ -564,6 +564,15 @@ with gr.Blocks(css=customCSS, theme=small_and_beautiful_theme) as demo:
564
  label="Top-p",
565
  visible=False,
566
  )
 
 
 
 
 
 
 
 
 
567
  temperature = gr.Slider(
568
  minimum=0.1,
569
  maximum=2.0,
@@ -652,7 +661,8 @@ with gr.Blocks(css=customCSS, theme=small_and_beautiful_theme) as demo:
652
  temperature,
653
  max_length_tokens,
654
  max_context_length_tokens,
655
- repetition_penalty
 
656
  ],
657
  outputs=[chatbot, history, attached_file, attached_file_history, status_display],
658
  show_progress=True,
 
270
  #########################################################
271
  #Funktion wird direkt aufgerufen aus der GUI - von hier muss auch die Rückmeldung kommen....
272
  #man kann einen Text-Prompt eingeben (mit oder ohne RAG), dazu ein Image hochladen, ein Bild zu einem reinen textprompt erzeugen lassen
273
+ def generate_auswahl(prompt, file, file_history, chatbot, history, rag_option, model_option, openai_api_key, k=3, top_p=0.6, temperature=0.5, max_new_tokens=4048, max_context_length_tokens=2048, repetition_penalty=1.3,top_k=35):
274
  global splittet, db
275
  #wenn RAG angeschaltet - Vektorstore initialisieren
276
  #aber nur, wenn es noch nicht geshehen ist (splittet = False)
 
278
  neu_file = file_history
279
 
280
  #prompt normalisieren bevor er an die KIs geht
281
+ prompt = prompt_in # hier könnte der Prompt normalisiert werden: normalise_prompt(prompt_in)
282
 
283
  if (rag_option == "An"):
284
  #muss nur einmal ausgeführt werden...
 
294
  #kein Bild hochgeladen -> auf Text antworten...
295
  status = "Antwort der KI ..."
296
  if (file == None and file_history == None):
297
+ result, status = generate_text(prompt, chatbot, history, rag_option, model_option, openai_api_key, db, k=3, top_p=0.6, temperature=0.5, max_new_tokens=4048, max_context_length_tokens=2048, repetition_penalty=1.3,top_k=35)
298
  history = history + [[prompt, result]]
299
  else:
300
  #Es wurde ein File neu angehängt -> wenn prompt dazu, das Bild analysieren
 
398
  ####################################################
399
  #aus einem Text-Prompt die Antwort von KI bekommen
400
  #mit oder ohne RAG möglich
401
+ def generate_text (prompt, chatbot, history, rag_option, model_option, openai_api_key, db, k=3, top_p=0.6, temperature=0.5, max_new_tokens=4048, max_context_length_tokens=2048, repetition_penalty=1.3,top_k=35):
402
  global splittet
403
  suche_im_Netz="Antwort der KI ..."
404
  print("Text pur..............................")
 
434
  else:
435
  #oder an Hugging Face --------------------------
436
  print("HF Anfrage.......................")
437
+ model_kwargs={"temperature": 0.5, "max_length": 512, "num_return_sequences": 1, "top_k": top_k, "top_p": top_p, "repetition_penalty": repetition_penalty}
438
  llm = HuggingFaceHub(repo_id=repo_id, model_kwargs=model_kwargs)
439
  #llm = HuggingFaceChain(model=MODEL_NAME_HF, model_kwargs={"temperature": 0.5, "max_length": 128})
440
  #llm = HuggingFaceHub(url_??? = "https://wdgsjd6zf201mufn.us-east-1.aws.endpoints.huggingface.cloud", model_kwargs={"temperature": 0.5, "max_length": 64})
 
564
  label="Top-p",
565
  visible=False,
566
  )
567
+ top_k = gr.Slider(
568
+ minimum=1,
569
+ maximum=100,
570
+ value=35,
571
+ step=1,
572
+ interactive=True,
573
+ label="Top-k",
574
+ visible=False,
575
+ )
576
  temperature = gr.Slider(
577
  minimum=0.1,
578
  maximum=2.0,
 
661
  temperature,
662
  max_length_tokens,
663
  max_context_length_tokens,
664
+ repetition_penalty,
665
+ top_k
666
  ],
667
  outputs=[chatbot, history, attached_file, attached_file_history, status_display],
668
  show_progress=True,