alexkueck commited on
Commit
5068dc1
1 Parent(s): 96bcade

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +18 -18
app.py CHANGED
@@ -209,12 +209,18 @@ def generate_text (prompt, chatbot, history, vektordatenbank, retriever, top_p=0
209
  try:
210
  #oder an Hugging Face --------------------------
211
  print("HF Anfrage.......................")
212
- #model_kwargs={"temperature": 0.5, "max_length": 512, "num_return_sequences": 1, "top_k": top_k, "top_p": top_p, "repetition_penalty": repetition_penalty}
213
- #llm = HuggingFaceHub(repo_id=repo_id, model_kwargs=model_kwargs)
214
-
215
- # Erstelle eine Pipeline mit den gewünschten Parametern
216
- #pipe = pipeline("text-generation", model=MODEL_NAME_HF, config={"temperature": 0.5, "max_length": 512, "num_return_sequences": 1, "top_k": top_k, "top_p": top_p, "repetition_penalty": repetition_penalty})
 
 
 
 
 
217
 
 
218
  # Erstelle eine HuggingFaceEndPoints-Instanz mit den entsprechenden Endpunkt-Parametern
219
  """
220
  llm = HuggingFaceEndpoint(
@@ -226,22 +232,16 @@ def generate_text (prompt, chatbot, history, vektordatenbank, retriever, top_p=0
226
  top_p=top_p,
227
  repetition_penalty=repetition_penalty
228
  )
 
229
  """
230
 
231
- #######################################################
232
- #Alternativ, wenn repro_id gegeben:
233
- # Verwenden Sie die InferenceApi von huggingface_hub
234
- llm = InferenceApi(repo_id, token=hf_token)
235
-
236
-
237
- #Prompt an history anhängen und einen Text daraus machen
238
- history_text_und_prompt = generate_prompt_with_history(prompt, history)
239
 
240
- #zusätzliche Dokumenten Splits aus DB zum Prompt hinzufügen (aus VektorDB - Chroma oder Mongo DB)
241
- print("LLM aufrufen mit RAG: ...........")
242
- #result = rag_chain(history_text_und_prompt, vektordatenbank, ANZAHL_DOCS)
243
- #result = rag_chain(llm, history_text_und_prompt, retriever)
244
- result = rag_chain(API_URL, history_text_und_prompt, retriever)
245
 
246
  except Exception as e:
247
  raise gr.Error(e)
 
209
  try:
210
  #oder an Hugging Face --------------------------
211
  print("HF Anfrage.......................")
212
+ #zusätzliche Dokumenten Splits aus DB zum Prompt hinzufügen (aus VektorDB - Chroma oder Mongo DB)
213
+ print("LLM aufrufen mit RAG: .....................................................")
214
+ ##############################################
215
+ #Verschiedene Alternativen als llm übergeben an die rag-chain
216
+ #############################################
217
+ #0. Alternative - repo ID
218
+ #Alternativ, wenn repro_id gegeben:
219
+ # Verwenden Sie die InferenceApi von huggingface_hub
220
+ #llm = InferenceApi(repo_id, token=hf_token)
221
+ #result = rag_chain(llm, history_text_und_prompt, retriever)
222
 
223
+ #1.Alternative mit Inference API
224
  # Erstelle eine HuggingFaceEndPoints-Instanz mit den entsprechenden Endpunkt-Parametern
225
  """
226
  llm = HuggingFaceEndpoint(
 
232
  top_p=top_p,
233
  repetition_penalty=repetition_penalty
234
  )
235
+ result = rag_chain(llm, history_text_und_prompt, retriever)
236
  """
237
 
238
+ #2. Alternative: mit API_URL
239
+ #result = rag_chain(API_URL, history_text_und_prompt, retriever)
 
 
 
 
 
 
240
 
241
+ #3.te Alternative für pipeline
242
+ # Erstelle eine Pipeline mit den gewünschten Parametern
243
+ llm = pipeline("text-generation", model=MODEL_NAME_HF, config={"temperature": 0.5, "max_length": 1024, "num_return_sequences": 1, "top_k": top_k, "top_p": top_p, "repetition_penalty": repetition_penalty})
244
+ result = rag_chain(llm, history_text_und_prompt, retriever)
 
245
 
246
  except Exception as e:
247
  raise gr.Error(e)