alexkueck commited on
Commit
7770812
1 Parent(s): e4efa50

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +9 -8
app.py CHANGED
@@ -200,10 +200,10 @@ def document_retrieval_chroma(prompt):
200
  #ChromaDb um die embedings zu speichern
201
  db = Chroma(embedding_function = embeddings, persist_directory = PATH_WORK + CHROMA_DIR)
202
  print ("Chroma DB bereit ...................")
203
- llm = ChatOpenAI(temperature=0.5)
204
- retriever = SelfQueryRetriever.from_llm(llm,vectorstore,document_content_description=prompt,enable_limit=True,verbose=True,)
205
 
206
- return db, retriever
207
 
208
 
209
 
@@ -218,10 +218,11 @@ def llm_chain(prompt):
218
 
219
  #langchain nutzen, um prompt an llm zu leiten, aber vorher in der VektorDB suchen, um passende splits zum Prompt hinzuzufügen
220
  #prompt mit RAG!!!
221
- def rag_chain(prompt, db, retriever):
222
  rag_template = "Nutze die folgenden Kontext Teile am Ende, um die Frage zu beantworten . " + template + "Frage: " + prompt + "Kontext Teile: "
223
- retrieved_chunks = retriever.get_relevant_documents(prompt)
224
- print
 
225
  neu_prompt = rag_template
226
  for i, chunk in enumerate(retrieved_chunks):
227
  neu_prompt += f"{i+1}. {chunk}\n"
@@ -281,9 +282,9 @@ def generate(text, history, rag_option, model_option, temperature=0.5, max_new_
281
  if not splittet:
282
  splits = document_loading_splitting()
283
  document_storage_chroma(splits)
284
- db, retriever = document_retrieval_chroma(text)
285
  #mit RAG:
286
- neu_text_mit_chunks = rag_chain(text, db, retriever)
287
  #für Chat LLM:
288
  #prompt = generate_prompt_with_history_openai(neu_text_mit_chunks, history)
289
  #als reiner prompt:
 
200
  #ChromaDb um die embedings zu speichern
201
  db = Chroma(embedding_function = embeddings, persist_directory = PATH_WORK + CHROMA_DIR)
202
  print ("Chroma DB bereit ...................")
203
+ #llm = ChatOpenAI(temperature=0.5)
204
+ #retriever = SelfQueryRetriever.from_llm(llm,vectorstore,document_content_description=prompt,enable_limit=True,verbose=True,)
205
 
206
+ return db #, retriever
207
 
208
 
209
 
 
218
 
219
  #langchain nutzen, um prompt an llm zu leiten, aber vorher in der VektorDB suchen, um passende splits zum Prompt hinzuzufügen
220
  #prompt mit RAG!!!
221
+ def rag_chain(prompt, db):
222
  rag_template = "Nutze die folgenden Kontext Teile am Ende, um die Frage zu beantworten . " + template + "Frage: " + prompt + "Kontext Teile: "
223
+ retrieved_chunks = db.similarity_search(prompt)
224
+ #retrieved_chunks = retriever.get_relevant_documents(prompt)
225
+
226
  neu_prompt = rag_template
227
  for i, chunk in enumerate(retrieved_chunks):
228
  neu_prompt += f"{i+1}. {chunk}\n"
 
282
  if not splittet:
283
  splits = document_loading_splitting()
284
  document_storage_chroma(splits)
285
+ db = document_retrieval_chroma()
286
  #mit RAG:
287
+ neu_text_mit_chunks = rag_chain(text, db)
288
  #für Chat LLM:
289
  #prompt = generate_prompt_with_history_openai(neu_text_mit_chunks, history)
290
  #als reiner prompt: