Update utils.py
Browse files
utils.py
CHANGED
|
@@ -152,9 +152,14 @@ EMBEDDING_MODELL = "sentence-transformers/all-mpnet-base-v2"
|
|
| 152 |
#Modell und Tokenizer, um die Summary über die relevanten Texte zu machen
|
| 153 |
#mögliche Modelle: "HuggingFaceH4/zephyr-7b-alpha" #"t5-small" #"meta-llama/Meta-Llama-3-8B-Instruct" #"mistralai/Mistral-7B-Instruct-v0.3" #"microsoft/Phi-3-mini-4k-instruct" #"HuggingFaceH4/zephyr-7b-alpha"
|
| 154 |
HF_MODELL = "microsoft/Phi-3-mini-4k-instruct"
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 155 |
modell_rag = AutoModelForSeq2SeqLM.from_pretrained(HF_MODELL)
|
| 156 |
tokenizer_rag = AutoTokenizer.from_pretrained(HF_MODELL)
|
| 157 |
-
|
| 158 |
|
| 159 |
|
| 160 |
##################################################
|
|
|
|
| 152 |
#Modell und Tokenizer, um die Summary über die relevanten Texte zu machen
|
| 153 |
#mögliche Modelle: "HuggingFaceH4/zephyr-7b-alpha" #"t5-small" #"meta-llama/Meta-Llama-3-8B-Instruct" #"mistralai/Mistral-7B-Instruct-v0.3" #"microsoft/Phi-3-mini-4k-instruct" #"HuggingFaceH4/zephyr-7b-alpha"
|
| 154 |
HF_MODELL = "microsoft/Phi-3-mini-4k-instruct"
|
| 155 |
+
# Laden des Modells und Tokenizers
|
| 156 |
+
modell_rag = AutoModelForCausalLM.from_pretrained(HF_MODELL)
|
| 157 |
+
tokenizer_rag = AutoTokenizer.from_pretrained(HF_MODELL)
|
| 158 |
+
"""
|
| 159 |
+
HF_MODELL = "t5-small"
|
| 160 |
modell_rag = AutoModelForSeq2SeqLM.from_pretrained(HF_MODELL)
|
| 161 |
tokenizer_rag = AutoTokenizer.from_pretrained(HF_MODELL)
|
| 162 |
+
"""
|
| 163 |
|
| 164 |
|
| 165 |
##################################################
|