Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -44,12 +44,6 @@ template = """Antworte in deutsch, wenn es nicht explizit anders gefordert wird.
|
|
44 |
llm_template = "Beantworte die Frage am Ende. " + template + "Frage: {question} Hilfreiche Antwort: "
|
45 |
rag_template = "Nutze die folgenden Kontext Teile, um die Frage zu beantworten am Ende. " + template + "{context} Frage: {question} Hilfreiche Antwort: "
|
46 |
|
47 |
-
#################################################
|
48 |
-
#Konstanten
|
49 |
-
LLM_CHAIN_PROMPT = PromptTemplate(input_variables = ["question"],
|
50 |
-
template = llm_template)
|
51 |
-
RAG_CHAIN_PROMPT = PromptTemplate(input_variables = ["context", "question"],
|
52 |
-
template = rag_template)
|
53 |
|
54 |
#################################################
|
55 |
# Konstanten
|
@@ -221,21 +215,13 @@ def llm_chain(prompt):
|
|
221 |
#prompt mit RAG!!!
|
222 |
def rag_chain(prompt, db):
|
223 |
rag_template = "Nutze die folgenden Kontext Teile am Ende, um die Frage zu beantworten . " + template + "Frage: " + prompt + "Kontext Teile: "
|
224 |
-
|
225 |
-
|
226 |
-
|
227 |
-
|
228 |
-
|
229 |
-
return result["result"]
|
230 |
-
|
231 |
-
|
232 |
-
|
233 |
-
#retrieved_chunks = db.query(prompt, k=3) #3 passende chunks zum Prompt hinzufügen
|
234 |
-
#neu_prompt = rag_template
|
235 |
-
#for i, chunk in enumerate(retrieved_chunks):
|
236 |
-
#neu_prompt += f"{i+1}. {chunk}\n"
|
237 |
|
238 |
-
|
239 |
|
240 |
|
241 |
|
|
|
44 |
llm_template = "Beantworte die Frage am Ende. " + template + "Frage: {question} Hilfreiche Antwort: "
|
45 |
rag_template = "Nutze die folgenden Kontext Teile, um die Frage zu beantworten am Ende. " + template + "{context} Frage: {question} Hilfreiche Antwort: "
|
46 |
|
|
|
|
|
|
|
|
|
|
|
|
|
47 |
|
48 |
#################################################
|
49 |
# Konstanten
|
|
|
215 |
#prompt mit RAG!!!
|
216 |
def rag_chain(prompt, db):
|
217 |
rag_template = "Nutze die folgenden Kontext Teile am Ende, um die Frage zu beantworten . " + template + "Frage: " + prompt + "Kontext Teile: "
|
218 |
+
retriever = db.as_retriever(search_kwargs={"k": 3})
|
219 |
+
retrieved_chunks = retriever(prompt)
|
220 |
+
neu_prompt = rag_template
|
221 |
+
for i, chunk in enumerate(retrieved_chunks):
|
222 |
+
neu_prompt += f"{i+1}. {chunk}\n"
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
223 |
|
224 |
+
return neu_prompt
|
225 |
|
226 |
|
227 |
|