Update utils.py
Browse files
utils.py
CHANGED
|
@@ -425,7 +425,7 @@ def rag_chain(llm, prompt, retriever):
|
|
| 425 |
#RAG_CHAIN_PROMPT = PromptTemplate(template="Context: {context}\n\nQuestion: {question}\n\nAnswer:")
|
| 426 |
|
| 427 |
# Inahlte Abrufen der relevanten Dokumente
|
| 428 |
-
doc_contents = [doc["
|
| 429 |
|
| 430 |
#Berechne die Ähnlichkeiten und finde das relevanteste Dokument
|
| 431 |
question_embedding = embedder_modell.encode(prompt, convert_to_tensor=True)
|
|
@@ -437,7 +437,7 @@ def rag_chain(llm, prompt, retriever):
|
|
| 437 |
most_relevant_docs = [extracted_docs[i] for i in most_relevant_doc_indices]
|
| 438 |
|
| 439 |
#Kombiniere die Inhalte aller relevanten Dokumente
|
| 440 |
-
combined_content = " ".join([doc["
|
| 441 |
|
| 442 |
#Formuliere die Eingabe für das Generierungsmodell
|
| 443 |
input_text = f"frage: {prompt} kontext: {combined_content}"
|
|
|
|
| 425 |
#RAG_CHAIN_PROMPT = PromptTemplate(template="Context: {context}\n\nQuestion: {question}\n\nAnswer:")
|
| 426 |
|
| 427 |
# Inahlte Abrufen der relevanten Dokumente
|
| 428 |
+
doc_contents = [doc["content"] for doc in extracted_docs]
|
| 429 |
|
| 430 |
#Berechne die Ähnlichkeiten und finde das relevanteste Dokument
|
| 431 |
question_embedding = embedder_modell.encode(prompt, convert_to_tensor=True)
|
|
|
|
| 437 |
most_relevant_docs = [extracted_docs[i] for i in most_relevant_doc_indices]
|
| 438 |
|
| 439 |
#Kombiniere die Inhalte aller relevanten Dokumente
|
| 440 |
+
combined_content = " ".join([doc["content"] for doc in most_relevant_docs])
|
| 441 |
|
| 442 |
#Formuliere die Eingabe für das Generierungsmodell
|
| 443 |
input_text = f"frage: {prompt} kontext: {combined_content}"
|