alexkueck commited on
Commit
873efb0
1 Parent(s): 7472bbd

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +6 -20
app.py CHANGED
@@ -44,12 +44,6 @@ template = """Antworte in deutsch, wenn es nicht explizit anders gefordert wird.
44
  llm_template = "Beantworte die Frage am Ende. " + template + "Frage: {question} Hilfreiche Antwort: "
45
  rag_template = "Nutze die folgenden Kontext Teile, um die Frage zu beantworten am Ende. " + template + "{context} Frage: {question} Hilfreiche Antwort: "
46
 
47
- #################################################
48
- #Konstanten
49
- LLM_CHAIN_PROMPT = PromptTemplate(input_variables = ["question"],
50
- template = llm_template)
51
- RAG_CHAIN_PROMPT = PromptTemplate(input_variables = ["context", "question"],
52
- template = rag_template)
53
 
54
  #################################################
55
  # Konstanten
@@ -221,21 +215,13 @@ def llm_chain(prompt):
221
  #prompt mit RAG!!!
222
  def rag_chain(prompt, db):
223
  rag_template = "Nutze die folgenden Kontext Teile am Ende, um die Frage zu beantworten . " + template + "Frage: " + prompt + "Kontext Teile: "
224
- rag_chain = RetrievalQA.from_chain_type(API_URL,
225
- chain_type_kwargs = {"prompt": RAG_CHAIN_PROMPT},
226
- retriever = db.as_retriever(search_kwargs = {"k": 3}),
227
- return_source_documents = True)
228
- result = rag_chain({"query": prompt})
229
- return result["result"]
230
-
231
-
232
-
233
- #retrieved_chunks = db.query(prompt, k=3) #3 passende chunks zum Prompt hinzufügen
234
- #neu_prompt = rag_template
235
- #for i, chunk in enumerate(retrieved_chunks):
236
- #neu_prompt += f"{i+1}. {chunk}\n"
237
 
238
- #return neu_prompt
239
 
240
 
241
 
 
44
  llm_template = "Beantworte die Frage am Ende. " + template + "Frage: {question} Hilfreiche Antwort: "
45
  rag_template = "Nutze die folgenden Kontext Teile, um die Frage zu beantworten am Ende. " + template + "{context} Frage: {question} Hilfreiche Antwort: "
46
 
 
 
 
 
 
 
47
 
48
  #################################################
49
  # Konstanten
 
215
  #prompt mit RAG!!!
216
  def rag_chain(prompt, db):
217
  rag_template = "Nutze die folgenden Kontext Teile am Ende, um die Frage zu beantworten . " + template + "Frage: " + prompt + "Kontext Teile: "
218
+ retriever = db.as_retriever(search_kwargs={"k": 3})
219
+ retrieved_chunks = retriever(prompt)
220
+ neu_prompt = rag_template
221
+ for i, chunk in enumerate(retrieved_chunks):
222
+ neu_prompt += f"{i+1}. {chunk}\n"
 
 
 
 
 
 
 
 
223
 
224
+ return neu_prompt
225
 
226
 
227