import requests import os, sys, json import gradio as gr import openai from openai import OpenAI import time import re import io from PIL import Image, ImageDraw, ImageOps, ImageFont import base64 from langchain.chains import LLMChain, RetrievalQA from langchain.chat_models import ChatOpenAI from langchain.document_loaders import PyPDFLoader, WebBaseLoader, UnstructuredWordDocumentLoader, DirectoryLoader from langchain.document_loaders.blob_loaders.youtube_audio import YoutubeAudioLoader from langchain.document_loaders.generic import GenericLoader from langchain.document_loaders.parsers import OpenAIWhisperParser from langchain.schema import AIMessage, HumanMessage from langchain.llms import HuggingFaceHub from langchain.llms import HuggingFaceTextGenInference from langchain.embeddings import HuggingFaceInstructEmbeddings, HuggingFaceEmbeddings, HuggingFaceBgeEmbeddings, HuggingFaceInferenceAPIEmbeddings from langchain.embeddings.openai import OpenAIEmbeddings from langchain.prompts import PromptTemplate from langchain.text_splitter import RecursiveCharacterTextSplitter from langchain.vectorstores import Chroma from chromadb.errors import InvalidDimensionException from utils import * from beschreibungen import * #from langchain.vectorstores import MongoDBAtlasVectorSearch #from pymongo import MongoClient from dotenv import load_dotenv, find_dotenv _ = load_dotenv(find_dotenv()) ############################################### #globale Variablen ############################################## #nur bei ersten Anfrage splitten der Dokumente - um die Vektordatenbank entsprechend zu füllen splittet = False ################################################## #Für MongoDB statt Chroma als Vektorstore #MONGODB_URI = os.environ["MONGODB_ATLAS_CLUSTER_URI"] #client = MongoClient(MONGODB_URI) #MONGODB_DB_NAME = "langchain_db" #MONGODB_COLLECTION_NAME = "gpt-4" #MONGODB_COLLECTION = client[MONGODB_DB_NAME][MONGODB_COLLECTION_NAME] #MONGODB_INDEX_NAME = "default" ################################################# #Prompt Zusätze template = """Antworte in deutsch, wenn es nicht explizit anders gefordert wird. Wenn du die Antwort nicht kennst, antworte einfach, dass du es nicht weißt. Versuche nicht, die Antwort zu erfinden oder aufzumocken. Halte die Antwort kurz aber ausführlich genug und exakt.""" llm_template = "Beantworte die Frage am Ende. " + template + "Frage: {question} Hilfreiche Antwort: " rag_template = "Nutze die folgenden Kontext Teile, um die Frage zu beantworten am Ende. " + template + "{context} Frage: {question} Hilfreiche Antwort: " ################################################# #Konstanten LLM_CHAIN_PROMPT = PromptTemplate(input_variables = ["question"], template = llm_template) RAG_CHAIN_PROMPT = PromptTemplate(input_variables = ["context", "question"], template = rag_template) #Plattform Keys aus den Secrets holen zu diesem Space HUGGINGFACEHUB_API_TOKEN = os.getenv("HF_ACCESS_READ") OAI_API_KEY=os.getenv("OPENAI_API_KEY") HEADERS = {"Authorization": f"Bearer {HUGGINGFACEHUB_API_TOKEN}"} #Pfad, wo Docs/Bilder/Filme abgelegt werden können - lokal, also hier im HF Space (sonst auf eigenem Rechner) PATH_WORK = "." CHROMA_DIR = "/chroma" YOUTUBE_DIR = "/youtube" HISTORY_PFAD = "/data/history" ############################################### #URLs zu Dokumenten oder andere Inhalte, die einbezogen werden sollen PDF_URL = "https://arxiv.org/pdf/2303.08774.pdf" WEB_URL = "https://openai.com/research/gpt-4" YOUTUBE_URL_1 = "https://www.youtube.com/watch?v=--khbXchTeE" YOUTUBE_URL_2 = "https://www.youtube.com/watch?v=hdhZwyf24mE" #YOUTUBE_URL_3 = "https://www.youtube.com/watch?v=vw-KWfKwvTQ" ################################################ #LLM Model mit dem gearbeitet wird #openai------------------------------------- MODEL_NAME = "gpt-3.5-turbo-16k" #MODEL_NAME = "gpt-3.5-turbo-1106" #MODEL_NAME= "gpt-4-1106-preview" MODEL_NAME_IMAGE = "gpt-4-vision-preview" #verfügbare Modelle anzeigen lassen #HuggingFace Reop ID-------------------------------- #repo_id = "meta-llama/Llama-2-13b-chat-hf" repo_id = "HuggingFaceH4/zephyr-7b-alpha" #das Modell ist echt gut!!! Vom MIT #repo_id = "TheBloke/Yi-34B-Chat-GGUF" #repo_id = "meta-llama/Llama-2-70b-chat-hf" #repo_id = "tiiuae/falcon-40b" #repo_id = "Vicuna-33b" #repo_id = "alexkueck/ChatBotLI2Klein" #repo_id = "mistralai/Mistral-7B-v0.1" #repo_id = "internlm/internlm-chat-7b" #repo_id = "Qwen/Qwen-7B" #repo_id = "Salesforce/xgen-7b-8k-base" #repo_id = "Writer/camel-5b-hf" #repo_id = "databricks/dolly-v2-3b" #repo_id = "google/flan-t5-xxl" #HuggingFace Model name-------------------------------- MODEL_NAME_HF = "mistralai/Mixtral-8x7B-Instruct-v0.1" MODEL_NAME_OAI_ZEICHNEN = "dall-e-3" #Alternativ zeichnen: Stabe Diffusion from HF: API_URL = "https://api-inference.huggingface.co/models/stabilityai/stable-diffusion-2-1" ################################################ #HF Hub Zugriff ermöglichen ############################################### os.environ["HUGGINGFACEHUB_API_TOKEN"] = HUGGINGFACEHUB_API_TOKEN ################################################# ################################################# ################################################# #Funktionen zur Verarbeitung ################################################ ############################################## #wenn löschen Button geklickt def clear_all(): return None, gr.Image(visible=False), [] ############################################## #History - die Frage oder das File eintragen... def add_text(chatbot, history, prompt, file): if (file == None): chatbot = chatbot +[(prompt, None)] else: if (prompt == ""): chatbot=chatbot + [((file.name,), "Prompt fehlt!")] else: chatbot = chatbot +[((file.name,), None), (prompt, None)] print("chatbot nach add_text............") print(chatbot) return chatbot, history, prompt, file, gr.Image(visible = False), "" #gr.Image( label=None, size=(30,30), visible=False, scale=1) #gr.Textbox(value="", interactive=False) def add_text2(chatbot, prompt): if (prompt == ""): chatbot = chatbot + [("", "Prompt fehlt!")] else: chatbot = chatbot + [(prompt, None)] print("chatbot nach add_text............") print(chatbot) return chatbot, prompt, "" ############################################ #nach dem Upload soll das zusätzliche Fenster mit dem image drinnen angezeigt werden def file_anzeigen(file): return gr.Image( width=47, visible=True, interactive = False, height=47, min_width=47, show_download_button=False, show_share_button=False, show_label=False, scale = 0.5), file, file def file_loeschen(): return None, gr.Image(visible = False) ############################################ #wenn 'Stop' Button geklickt, dann Message dazu und das Eingabe-Fenster leeren def cancel_outputing(): reset_textbox() return "Stop Done" def reset_textbox(): return gr.update(value=""),"" ########################################## #Hilfsfunktion, um ein von Stable Diffusion erzeugtes Bild für die Ausgabe in der History vorzubereiten def umwandeln_fuer_anzeige(image): buffer = io.BytesIO() image.save(buffer, format='PNG') return buffer.getvalue() ################################################### #Funktion von Gradio aus, die den dort eingegebenen Prompt annimmt und weiterverarbeitet ################################################### ######################################################### #Funktion wird direkt aufgerufen aus der GUI - von hier muss auch die Rückmeldung kommen.... #man kann einen Text-Prompt eingeben (mit oder ohne RAG), dazu ein Image hochladen, ein Bild zu einem reinen textprompt erzeugen lassen def generate_auswahl(prompt, file, chatbot, history, rag_option, model_option, openai_api_key, k=3, top_p=0.6, temperature=0.5, max_new_tokens=4048, max_context_length_tokens=2048, repetition_penalty=1.3,): #kein Bild hochgeladen -> auf Text antworten... if (file == None): result = generate_text(prompt, chatbot, history, rag_option, model_option, openai_api_key, k=3, top_p=0.6, temperature=0.5, max_new_tokens=4048, max_context_length_tokens=2048, repetition_penalty=1.3,) history = history + [(prompt, result)] else: #Es wurde ein Bild angehängt -> wenn prompt dazu, das Bild analysieren #geht nur über spezielle OpenAI-Schnittstelle... result= generate_text_zu_bild(file, prompt, k, rag_option, chatbot) history = history + [((file,), None),(prompt, result)] print("result..................") print(result) print("history.......................") print(chatbot) chatbot[-1][1] = "" for character in result: chatbot[-1][1] += character time.sleep(0.03) yield chatbot, history, None, "Generating" if shared_state.interrupted: shared_state.recover() try: yield chatbot, history, None, "Stop: Success" except: pass ################################################## #zu einem Text-Prompt ein Bild via Stable Diffusion generieren def generate_bild(prompt, chatbot, temperature=0.5, max_new_tokens=4048,top_p=0.6, repetition_penalty=1.3): #Bild nach Anweisung zeichnen und in History darstellen... data = {"inputs": prompt} response = requests.post(API_URL, headers=HEADERS, json=data) print("fertig Bild") result = response.content #Bild ausgeben image = Image.open(io.BytesIO(result)) image_64 = umwandeln_fuer_anzeige(image) chatbot[-1][1]= "".format(base64.b64encode(image_64).decode('utf-8')) return chatbot, "Success" ################################################## #zu einem Bild und Text-Prompt eine Analyse generieren def generate_text_zu_bild(file, prompt, k, rag_option, chatbot): global splittet prompt_neu = prompt if (rag_option == "An"): #muss nur einmal ausgeführt werden... if not splittet: splits = document_loading_splitting() document_storage_chroma(splits) db = document_retrieval_chroma2() #mit RAG: neu_text_mit_chunks = rag_chain2(prompt, db, k) #für Chat LLM: #prompt = generate_prompt_with_history_openai(neu_text_mit_chunks, history) #als reiner prompt: prompt_neu = generate_prompt_with_history(neu_text_mit_chunks, chatbot) headers, payload = process_image(file, prompt_neu) response = requests.post("https://api.openai.com/v1/chat/completions", headers=headers, json=payload) #als json ausgeben data = response.json() # Den "content" auswählen, da dort die Antwort der Ki enthalten ist result = data['choices'][0]['message']['content'] return result #################################################### #aus einem Text-Prompt die Antwort von KI bekommen #mit oder ohne RAG möglich def generate_text (prompt, chatbot, history, rag_option, model_option, openai_api_key, k=3, top_p=0.6, temperature=0.5, max_new_tokens=4048, max_context_length_tokens=2048, repetition_penalty=1.3,): global splittet if (openai_api_key == "" or openai_api_key == "sk-"): #raise gr.Error("OpenAI API Key is required.") #eigenen OpenAI key nutzen openai_api_key= OAI_API_KEY if (rag_option is None): raise gr.Error("Retrieval Augmented Generation ist erforderlich.") if (prompt == ""): raise gr.Error("Prompt ist erforderlich.") #history für HuggingFace Models formatieren #history_text_und_prompt = generate_prompt_with_history_hf(prompt, history) #history für openAi formatieren #history_text_und_prompt = generate_prompt_with_history_openai(prompt, history) #history für Langchain formatieren #history_text_und_prompt = generate_prompt_with_history_langchain(prompt, history) try: ########################### #LLM auswählen (OpenAI oder HF) ########################### if (model_option == "OpenAI"): #Anfrage an OpenAI ---------------------------- print("OpenAI Anfrage.......................") llm = ChatOpenAI(model_name = MODEL_NAME, openai_api_key = openai_api_key, temperature=temperature)#, top_p = top_p) #Prompt an history anhängen und einen Text daraus machen if (rag_option == "An"): history_text_und_prompt = generate_prompt_with_history(prompt, chatbot) else: history_text_und_prompt = generate_prompt_with_history_openai(prompt, chatbot) else: #oder an Hugging Face -------------------------- print("HF Anfrage.......................") llm = HuggingFaceHub(repo_id=repo_id, model_kwargs={"temperature": 0.5, "max_length": 128}) #llm = HuggingFaceChain(model=MODEL_NAME_HF, model_kwargs={"temperature": 0.5, "max_length": 128}) #llm = HuggingFaceHub(url_??? = "https://wdgsjd6zf201mufn.us-east-1.aws.endpoints.huggingface.cloud", model_kwargs={"temperature": 0.5, "max_length": 64}) #llm = HuggingFaceTextGenInference( inference_server_url="http://localhost:8010/", max_new_tokens=max_new_tokens,top_k=10,top_p=top_p,typical_p=0.95,temperature=temperature,repetition_penalty=repetition_penalty,) print("HF") #Prompt an history anhängen und einen Text daraus machen history_text_und_prompt = generate_prompt_with_history(prompt, chatbot) #zusätzliche Dokumenten Splits aus DB zum Prompt hinzufügen (aus VektorDB - Chroma oder Mongo DB) if (rag_option == "An"): print("RAG aktiviert.......................") #muss nur einmal ausgeführt werden... if not splittet: splits = document_loading_splitting() document_storage_chroma(splits) db = document_retrieval_chroma(llm, history_text_und_prompt) print("LLM aufrufen mit RAG: ...........") result = rag_chain(llm, history_text_und_prompt, db) #elif (rag_option == "MongoDB"): #splits = document_loading_splitting() #document_storage_mongodb(splits) #db = document_retrieval_mongodb(llm, history_text_und_prompt) #result = rag_chain(llm, history_text_und_prompt, db) else: print("LLM aufrufen ohne RAG: ...........") result = llm_chain(llm, history_text_und_prompt) except Exception as e: raise gr.Error(e) return result ################################################ #GUI ############################################### #Beschreibung oben in GUI ################################################ #title = "LLM mit RAG" #description = """Information: Hier wird ein Large Language Model (LLM) mit #Retrieval Augmented Generation (RAG) auf externen Daten verwendet.\n\n""" description2 = "Information: Hier wird ein Large Language Model (LLM) zum Zeichnen verwendet. Zur Zeit wird hier Stable Diffusion verwendet.\n\n" #css = """.toast-wrap { display: none !important } """ #examples=[['Was ist ChtGPT-4?'],['schreibe ein Python Programm, dass die GPT-4 API aufruft.']] def vote(data: gr.LikeData): if data.liked: print("You upvoted this response: " + data.value) else: print("You downvoted this response: " + data.value) print ("Start GUIneu") with open("custom.css", "r", encoding="utf-8") as f: customCSS = f.read() #Add Inputs für Tab 2 additional_inputs = [ gr.Slider(label="Temperature", value=0.65, minimum=0.0, maximum=1.0, step=0.05, interactive=True, info="Höhere Werte erzeugen diversere Antworten", visible=True), gr.Slider(label="Max new tokens", value=1024, minimum=0, maximum=4096, step=64, interactive=True, info="Maximale Anzahl neuer Tokens", visible=True), gr.Slider(label="Top-p (nucleus sampling)", value=0.6, minimum=0.0, maximum=1, step=0.05, interactive=True, info="Höhere Werte verwenden auch Tokens mit niedrigerer Wahrscheinlichkeit.", visible=True), gr.Slider(label="Repetition penalty", value=1.2, minimum=1.0, maximum=2.0, step=0.05, interactive=True, info="Strafe für wiederholte Tokens", visible=True) ] with gr.Blocks(css=customCSS, theme=small_and_beautiful_theme) as demo: #Session Variablen, um Weete zu speichern, auch wenn die Felder in der GUI bereits wieder leer sind #history parallel zu chatbot speichern - momentan nicht im Gebrauch, ist aber in allen relevanten Methoden mit verlinkt history = gr.State([]) #damit der Prompt auch nach dem upload in die History noch für predicts_args verfügbar ist user_question = gr.State("") #damit der Prompt auch nach dem upload in die History noch für predicts_args verfügbar ist user_question2 = gr.State("") attached_file = gr.State(None) ################################################ # Tab zum Chatbot mit Text oder Bildeingabe ################################################ gr.Markdown(description_top) with gr.Tab("Chatbot"): with gr.Row(): gr.HTML("LI Chatot") status_display = gr.Markdown("Success", elem_id="status_display") with gr.Row(): with gr.Column(scale=5): with gr.Row(): chatbot = gr.Chatbot(elem_id="li-chat",show_copy_button=True) with gr.Row(): with gr.Column(scale=12): user_input = gr.Textbox( show_label=False, placeholder="Gib hier deinen Prompt ein...", container=False ) with gr.Column(min_width=70, scale=1): submitBtn = gr.Button("Senden") with gr.Column(min_width=70, scale=1): cancelBtn = gr.Button("Stop") with gr.Row(): #file_display = gr.File(visible=False) image_display = gr.Image( visible=False) upload = gr.UploadButton("📁", file_types=["image"], scale = 10) emptyBtn = gr.ClearButton([user_input, chatbot, history, attached_file, image_display], value="🧹 Neue Session", scale=10) with gr.Column(): with gr.Column(min_width=50, scale=1): with gr.Tab(label="Parameter Einstellung"): #gr.Markdown("# Parameters") rag_option = gr.Radio(["Aus", "An"], label="LI Erweiterungen (RAG)", value = "Aus") model_option = gr.Radio(["OpenAI", "HuggingFace"], label="Modellauswahl", value = "OpenAI") top_p = gr.Slider( minimum=-0, maximum=1.0, value=0.95, step=0.05, interactive=True, label="Top-p", visible=False, ) temperature = gr.Slider( minimum=0.1, maximum=2.0, value=0.5, step=0.1, interactive=True, label="Temperature", visible=False ) max_length_tokens = gr.Slider( minimum=0, maximum=512, value=512, step=8, interactive=True, label="Max Generation Tokens", visible=False, ) max_context_length_tokens = gr.Slider( minimum=0, maximum=4096, value=2048, step=128, interactive=True, label="Max History Tokens", visible=False, ) repetition_penalty=gr.Slider(label="Repetition penalty", value=1.2, minimum=1.0, maximum=2.0, step=0.05, interactive=True, info="Strafe für wiederholte Tokens", visible=False) anzahl_docs = gr.Slider(label="Anzahl Dokumente", value=3, minimum=1, maximum=10, step=1, interactive=True, info="wie viele Dokumententeile aus dem Vektorstore an den prompt gehängt werden", visible=False) openai_key = gr.Textbox(label = "OpenAI API Key", value = "sk-", lines = 1, visible = False) ################################################ # Tab zum Zeichnen mit Stable Diffusion ################################################ with gr.Tab("KI zum Zeichnen"): with gr.Row(): gr.HTML("LI Zeichnen mit KI") status_display2 = gr.Markdown("Success", elem_id="status_display") gr.Markdown(description2) with gr.Row(): with gr.Column(scale=5): with gr.Row(): chatbot_bild = gr.Chatbot(elem_id="li-zeichnen") with gr.Row(): with gr.Column(scale=12): user_input2 = gr.Textbox( show_label=False, placeholder="Gib hier deinen Prompt ein...", container=False ) with gr.Column(min_width=70, scale=1): submitBtn2 = gr.Button("Senden") #with gr.Column(min_width=70, scale=1): #cancelBtn2 = gr.Button("Stop") with gr.Row(): emptyBtn2 = gr.ClearButton([user_input, chatbot_bild], value="🧹 Neue Session", scale=10) #additional_inputs_accordion = gr.Accordion(label="Weitere Eingaben...", open=False) gr.Markdown(description) ###################################### # Events und Übergabe Werte an Funktionen ####################################### ###################################### # Für Tab 1: Chatbot #Argumente für generate Funktion als Input predict_args = dict( fn=generate_auswahl, inputs=[ user_question, attached_file, chatbot, history, rag_option, model_option, openai_key, anzahl_docs, top_p, temperature, max_length_tokens, max_context_length_tokens, repetition_penalty ], outputs=[chatbot, history, attached_file, status_display], #[chatbot, history, status_display] show_progress=True, ) reset_args = dict( fn=reset_textbox, inputs=[], outputs=[user_input, status_display] ) # Chatbot transfer_input_args = dict( fn=add_text, inputs=[chatbot, history, user_input, attached_file], outputs=[chatbot, history, user_question, attached_file, image_display , user_input], show_progress=True ) predict_event1 = user_input.submit(**transfer_input_args, queue=False,).then(**predict_args) predict_event2 = submitBtn.click(**transfer_input_args, queue=False,).then(**predict_args) predict_event3 = upload.upload(file_anzeigen, [upload], [image_display, image_display, attached_file] ) #.then(**predict_args) emptyBtn.click(clear_all, [], [attached_file, image_display, history]) image_display.select(file_loeschen, [], [attached_file, image_display]) #Berechnung oder Ausgabe anhalten (kann danach fortgesetzt werden) cancelBtn.click(cancel_outputing, [], [status_display], cancels=[predict_event1,predict_event2, predict_event3]) ###################################### # Für Tab 2: Zeichnen predict_args2 = dict( fn=generate_bild, inputs=[ user_question2, chatbot_bild, #additional_inputs, ], outputs=[chatbot_bild, status_display2], #[chatbot, history, status_display] show_progress=True, ) transfer_input_args2 = dict( fn=add_text2, inputs=[chatbot_bild, user_input2], outputs=[chatbot_bild, user_question2, user_input2], show_progress=True ) predict_event2_1 = user_input2.submit(**transfer_input_args2, queue=False,).then(**predict_args2) predict_event2_2 = submitBtn2.click(**transfer_input_args2, queue=False,).then(**predict_args2) #emptyBtn2.click(clear_all, [], [file_display, image_display]) #cancelBtn2.click( #cancels=[predict_event2_1,predict_event2_2 ] #) demo.title = "LI-ChatBot" demo.queue().launch(debug=True)