alexkueck commited on
Commit
505139a
1 Parent(s): b2574ec

Update utils.py

Browse files
Files changed (1) hide show
  1. utils.py +25 -0
utils.py CHANGED
@@ -80,6 +80,31 @@ german_stopwords = set(stopwords.words('german'))
80
  #Konstanten
81
  ANZAHL_DOCS = 5
82
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
83
  ################################################
84
  #Pfad, wo Docs/Bilder/Filme abgelegt werden können - lokal, also hier im HF Space (sonst auf eigenem Rechner)
85
  PATH_WORK = "."
 
80
  #Konstanten
81
  ANZAHL_DOCS = 5
82
 
83
+ #################################################
84
+ #Gesetzte Werte für Pfade, Prompts und Keys..
85
+ #################################################
86
+ #################################################
87
+ #Prompt Zusätze
88
+ template = """\Antworte in deutsch, wenn es nicht explizit anders gefordert wird. Wenn du die Antwort nicht kennst, antworte direkt, dass du es nicht weißt.
89
+ Versuche nicht es zu umschreiben. Versuche nicht, die Antwort zu erfinden oder aufzumocken. Antworte nur zu dem mitgelieferten Text."""
90
+
91
+ llm_template = "Beantworte die Frage am Ende. " + template + "Frage: {question} "
92
+ #nur für HF für Stichwotre bei chatverlauf
93
+ llm_template2 = "Fasse folgenden Text als Überschrift mit maximal 3 Worten zusammen. Text: {question} "
94
+
95
+ rag_template = "Nutze ausschließlich die folgenden Kontexte (Beginnend mit dem Wort 'Kontext:') aus Teilen aus den angehängten Dokumenten, um die Frage (Beginnend mit dem Wort 'Frage: ') am Ende zu beantworten. Wenn du die Frage aus dem folgenden Kontext nicht beantworten kannst, sage, dass du keine passende Antwort gefunden hast. Wenn du dich auf den angegebenen Kontext beziehst, gib unbedingt den Namen des Dokumentes an, auf den du dich beziehst." + template + "Kontext: {context} Frage: {question}"
96
+
97
+ #################################################
98
+ #Konstanten
99
+ LLM_CHAIN_PROMPT = PromptTemplate(input_variables = ["question"],
100
+ template = llm_template)
101
+ #nur für HF bei chatverlauf
102
+ LLM_CHAIN_PROMPT2 = PromptTemplate(input_variables = ["question"],
103
+ template = llm_template2)
104
+
105
+ RAG_CHAIN_PROMPT = PromptTemplate(input_variables = ["context", "question"],
106
+ template = rag_template)
107
+
108
  ################################################
109
  #Pfad, wo Docs/Bilder/Filme abgelegt werden können - lokal, also hier im HF Space (sonst auf eigenem Rechner)
110
  PATH_WORK = "."