Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -44,7 +44,7 @@ OAI_API_KEY=os.getenv("OPENAI_API_KEY")
|
|
44 |
template = """Antworte in deutsch, wenn es nicht explizit anders gefordert wird. Wenn du die Antwort nicht kennst, antworte einfach, dass du es nicht weißt. Versuche nicht, die Antwort zu erfinden oder aufzumocken. Halte die Antwort kurz aber exakt. Wenn du die Antwort in den Dokumenten nicht findest, schaue in deinen eigenen Daten nach, mache das aber in der Antwort deutlich."""
|
45 |
|
46 |
llm_template = "Beantworte die Frage am Ende. " + template + "Frage: {question} Hilfreiche Antwort: "
|
47 |
-
rag_template = "Nutze die folgenden Kontext Teile, um die Frage zu beantworten am Ende. " + template + "{context} Frage: {question} Hilfreiche Antwort: "
|
48 |
|
49 |
|
50 |
#################################################
|
@@ -220,7 +220,7 @@ def llm_chain(prompt):
|
|
220 |
#prompt mit RAG!!!
|
221 |
def rag_chain(prompt, db, k=3):
|
222 |
rag_template = "Nutze die folgenden Kontext Teile am Ende, um die Frage zu beantworten . " + template + "Frage: " + prompt + "Kontext Teile: "
|
223 |
-
retrieved_chunks = db.similarity_search(prompt)
|
224 |
|
225 |
neu_prompt = rag_template
|
226 |
for i, chunk in enumerate(retrieved_chunks):
|
@@ -235,8 +235,6 @@ def rag_chain(prompt, db, k=3):
|
|
235 |
###################################################
|
236 |
#Funktion, die einen Prompt mit der history zusammen erzeugt - allgemein
|
237 |
def generate_prompt_with_history(text, history, max_length=4048):
|
238 |
-
#prompt = "The following is a conversation between a human and an AI assistant named Baize (named after a mythical creature in Chinese folklore). Baize is an open-source AI assistant developed by UCSD and Sun Yat-Sen University. The human and the AI assistant take turns chatting. Human statements start with [|Human|] and AI assistant statements start with [|AI|]. The AI assistant always provides responses in as much detail as possible, and in Markdown format. The AI assistant always declines to engage with topics, questions and instructions related to unethical, controversial, or sensitive issues. Complete the transcript in exactly that format.\n[|Human|]Hello!\n[|AI|]Hi!"
|
239 |
-
#prompt = "Das folgende ist eine Unterhaltung in deutsch zwischen einem Menschen und einem KI-Assistenten, der Baize genannt wird. Baize ist ein open-source KI-Assistent, der von UCSD entwickelt wurde. Der Mensch und der KI-Assistent chatten abwechselnd miteinander in deutsch. Die Antworten des KI Assistenten sind immer so ausführlich wie möglich und in Markdown Schreibweise und in deutscher Sprache. Wenn nötig übersetzt er sie ins Deutsche. Die Antworten des KI-Assistenten vermeiden Themen und Antworten zu unethischen, kontroversen oder sensiblen Themen. Die Antworten sind immer sehr höflich formuliert..\n[|Human|]Hallo!\n[|AI|]Hi!"
|
240 |
prompt=""
|
241 |
history = ["\n{}\n{}".format(x[0],x[1]) for x in history]
|
242 |
history.append("\n{}\n".format(text))
|
|
|
44 |
template = """Antworte in deutsch, wenn es nicht explizit anders gefordert wird. Wenn du die Antwort nicht kennst, antworte einfach, dass du es nicht weißt. Versuche nicht, die Antwort zu erfinden oder aufzumocken. Halte die Antwort kurz aber exakt. Wenn du die Antwort in den Dokumenten nicht findest, schaue in deinen eigenen Daten nach, mache das aber in der Antwort deutlich."""
|
45 |
|
46 |
llm_template = "Beantworte die Frage am Ende. " + template + "Frage: {question} Hilfreiche Antwort: "
|
47 |
+
rag_template = "Nutze die folgenden Kontext Teile, um die Frage zu beantworten am Ende. " + template + "{context} Frage: {question} Hilfreiche Antwort: Findest du die Antwort in den Kontext Teilen nicht, versuche die Antwort selbst zu finden. Mache das aber in deiner Antwort deutlich."
|
48 |
|
49 |
|
50 |
#################################################
|
|
|
220 |
#prompt mit RAG!!!
|
221 |
def rag_chain(prompt, db, k=3):
|
222 |
rag_template = "Nutze die folgenden Kontext Teile am Ende, um die Frage zu beantworten . " + template + "Frage: " + prompt + "Kontext Teile: "
|
223 |
+
retrieved_chunks = db.similarity_search(prompt, k)
|
224 |
|
225 |
neu_prompt = rag_template
|
226 |
for i, chunk in enumerate(retrieved_chunks):
|
|
|
235 |
###################################################
|
236 |
#Funktion, die einen Prompt mit der history zusammen erzeugt - allgemein
|
237 |
def generate_prompt_with_history(text, history, max_length=4048):
|
|
|
|
|
238 |
prompt=""
|
239 |
history = ["\n{}\n{}".format(x[0],x[1]) for x in history]
|
240 |
history.append("\n{}\n".format(text))
|