alexkueck commited on
Commit
f56d31c
1 Parent(s): 0356e76

Update utils.py

Browse files
Files changed (1) hide show
  1. utils.py +6 -2
utils.py CHANGED
@@ -144,10 +144,14 @@ urls = [
144
  ##################################################
145
  #Modell und Tokenizer für die Anfrage der RAG Chain
146
  ##################################################
147
- # Schritt 1: Initialisiere den Sentence-Transformer und das Generierungsmodell
 
148
  embedder_modell = SentenceTransformer("sentence-transformers/all-mpnet-base-v2") #'all-MiniLM-L6-v2')
149
  EMBEDDING_MODELL = "sentence-transformers/all-mpnet-base-v2"
150
- HF_MODELL = "t5-small"
 
 
 
151
  modell_rag = AutoModelForSeq2SeqLM.from_pretrained(HF_MODELL)
152
  tokenizer_rag = AutoTokenizer.from_pretrained(HF_MODELL)
153
 
 
144
  ##################################################
145
  #Modell und Tokenizer für die Anfrage der RAG Chain
146
  ##################################################
147
+ # Schritt 1: Embedding Modelle, um relvante Texte zu einem Prompt zu finden
148
+ #sowohl die texte als auch der Prompt werden embeddet!
149
  embedder_modell = SentenceTransformer("sentence-transformers/all-mpnet-base-v2") #'all-MiniLM-L6-v2')
150
  EMBEDDING_MODELL = "sentence-transformers/all-mpnet-base-v2"
151
+
152
+ #Modell und Tokenizer, um die Summary über die relevanten Texte zu machen
153
+ #mögliche Modelle: "HuggingFaceH4/zephyr-7b-alpha" #"t5-small" #"meta-llama/Meta-Llama-3-8B-Instruct" #"mistralai/Mistral-7B-Instruct-v0.3" #"microsoft/Phi-3-mini-4k-instruct" #"HuggingFaceH4/zephyr-7b-alpha"
154
+ HF_MODELL = "HuggingFaceH4/zephyr-7b-alpha"
155
  modell_rag = AutoModelForSeq2SeqLM.from_pretrained(HF_MODELL)
156
  tokenizer_rag = AutoTokenizer.from_pretrained(HF_MODELL)
157