alexkueck commited on
Commit
9ae7139
1 Parent(s): 0c88fbe

Update utils.py

Browse files
Files changed (1) hide show
  1. utils.py +4 -7
utils.py CHANGED
@@ -352,13 +352,7 @@ def llm_chain(llm, prompt):
352
  llm_chain = LLMChain(llm = llm, prompt = LLM_CHAIN_PROMPT)
353
  result = llm_chain.run({"question": prompt})
354
  return result
355
- """
356
- #nur für HF-um bei chatverlauf kurzbeschreibung zu erzeugen
357
- def llm_chain2(llm, prompt):
358
- llm_chain = LLMChain(llm = llm, prompt = LLM_CHAIN_PROMPT2)
359
- result = llm_chain.run({"question": prompt})
360
- return result
361
- """
362
 
363
  #############################################
364
  #langchain nutzen, um prompt an llm zu leiten, aber vorher in der VektorDB suchen, um passende splits zum Prompt hinzuzufügen
@@ -400,6 +394,9 @@ def rag_chain(llm, prompt, retriever):
400
  outputs = modell_rag.generate(inputs['input_ids'], max_length=150, num_beams=2, early_stopping=True)
401
  answer = tokenizer_rag.decode(outputs[0], skip_special_tokens=True)
402
  """
 
 
 
403
  #Alternative, wenn llm direkt übergeben....................................
404
  #llm_chain = LLMChain(llm = llm, prompt = RAG_CHAIN_PROMPT)
405
  #answer = llm_chain.run({"context": combined_content, "question": prompt})
 
352
  llm_chain = LLMChain(llm = llm, prompt = LLM_CHAIN_PROMPT)
353
  result = llm_chain.run({"question": prompt})
354
  return result
355
+
 
 
 
 
 
 
356
 
357
  #############################################
358
  #langchain nutzen, um prompt an llm zu leiten, aber vorher in der VektorDB suchen, um passende splits zum Prompt hinzuzufügen
 
394
  outputs = modell_rag.generate(inputs['input_ids'], max_length=150, num_beams=2, early_stopping=True)
395
  answer = tokenizer_rag.decode(outputs[0], skip_special_tokens=True)
396
  """
397
+ #############################################
398
+ #Verschiedene LLMs ausprobieren
399
+ #############################################
400
  #Alternative, wenn llm direkt übergeben....................................
401
  #llm_chain = LLMChain(llm = llm, prompt = RAG_CHAIN_PROMPT)
402
  #answer = llm_chain.run({"context": combined_content, "question": prompt})