alexkueck commited on
Commit
1fc3bfd
1 Parent(s): 6db1b29

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +2 -4
app.py CHANGED
@@ -44,7 +44,7 @@ OAI_API_KEY=os.getenv("OPENAI_API_KEY")
44
  template = """Antworte in deutsch, wenn es nicht explizit anders gefordert wird. Wenn du die Antwort nicht kennst, antworte einfach, dass du es nicht weißt. Versuche nicht, die Antwort zu erfinden oder aufzumocken. Halte die Antwort kurz aber exakt. Wenn du die Antwort in den Dokumenten nicht findest, schaue in deinen eigenen Daten nach, mache das aber in der Antwort deutlich."""
45
 
46
  llm_template = "Beantworte die Frage am Ende. " + template + "Frage: {question} Hilfreiche Antwort: "
47
- rag_template = "Nutze die folgenden Kontext Teile, um die Frage zu beantworten am Ende. " + template + "{context} Frage: {question} Hilfreiche Antwort: "
48
 
49
 
50
  #################################################
@@ -220,7 +220,7 @@ def llm_chain(prompt):
220
  #prompt mit RAG!!!
221
  def rag_chain(prompt, db, k=3):
222
  rag_template = "Nutze die folgenden Kontext Teile am Ende, um die Frage zu beantworten . " + template + "Frage: " + prompt + "Kontext Teile: "
223
- retrieved_chunks = db.similarity_search(prompt)
224
 
225
  neu_prompt = rag_template
226
  for i, chunk in enumerate(retrieved_chunks):
@@ -235,8 +235,6 @@ def rag_chain(prompt, db, k=3):
235
  ###################################################
236
  #Funktion, die einen Prompt mit der history zusammen erzeugt - allgemein
237
  def generate_prompt_with_history(text, history, max_length=4048):
238
- #prompt = "The following is a conversation between a human and an AI assistant named Baize (named after a mythical creature in Chinese folklore). Baize is an open-source AI assistant developed by UCSD and Sun Yat-Sen University. The human and the AI assistant take turns chatting. Human statements start with [|Human|] and AI assistant statements start with [|AI|]. The AI assistant always provides responses in as much detail as possible, and in Markdown format. The AI assistant always declines to engage with topics, questions and instructions related to unethical, controversial, or sensitive issues. Complete the transcript in exactly that format.\n[|Human|]Hello!\n[|AI|]Hi!"
239
- #prompt = "Das folgende ist eine Unterhaltung in deutsch zwischen einem Menschen und einem KI-Assistenten, der Baize genannt wird. Baize ist ein open-source KI-Assistent, der von UCSD entwickelt wurde. Der Mensch und der KI-Assistent chatten abwechselnd miteinander in deutsch. Die Antworten des KI Assistenten sind immer so ausführlich wie möglich und in Markdown Schreibweise und in deutscher Sprache. Wenn nötig übersetzt er sie ins Deutsche. Die Antworten des KI-Assistenten vermeiden Themen und Antworten zu unethischen, kontroversen oder sensiblen Themen. Die Antworten sind immer sehr höflich formuliert..\n[|Human|]Hallo!\n[|AI|]Hi!"
240
  prompt=""
241
  history = ["\n{}\n{}".format(x[0],x[1]) for x in history]
242
  history.append("\n{}\n".format(text))
 
44
  template = """Antworte in deutsch, wenn es nicht explizit anders gefordert wird. Wenn du die Antwort nicht kennst, antworte einfach, dass du es nicht weißt. Versuche nicht, die Antwort zu erfinden oder aufzumocken. Halte die Antwort kurz aber exakt. Wenn du die Antwort in den Dokumenten nicht findest, schaue in deinen eigenen Daten nach, mache das aber in der Antwort deutlich."""
45
 
46
  llm_template = "Beantworte die Frage am Ende. " + template + "Frage: {question} Hilfreiche Antwort: "
47
+ rag_template = "Nutze die folgenden Kontext Teile, um die Frage zu beantworten am Ende. " + template + "{context} Frage: {question} Hilfreiche Antwort: Findest du die Antwort in den Kontext Teilen nicht, versuche die Antwort selbst zu finden. Mache das aber in deiner Antwort deutlich."
48
 
49
 
50
  #################################################
 
220
  #prompt mit RAG!!!
221
  def rag_chain(prompt, db, k=3):
222
  rag_template = "Nutze die folgenden Kontext Teile am Ende, um die Frage zu beantworten . " + template + "Frage: " + prompt + "Kontext Teile: "
223
+ retrieved_chunks = db.similarity_search(prompt, k)
224
 
225
  neu_prompt = rag_template
226
  for i, chunk in enumerate(retrieved_chunks):
 
235
  ###################################################
236
  #Funktion, die einen Prompt mit der history zusammen erzeugt - allgemein
237
  def generate_prompt_with_history(text, history, max_length=4048):
 
 
238
  prompt=""
239
  history = ["\n{}\n{}".format(x[0],x[1]) for x in history]
240
  history.append("\n{}\n".format(text))