Update utils.py
Browse files
utils.py
CHANGED
|
@@ -321,20 +321,18 @@ def rag_chain(llm, prompt, retriever):
|
|
| 321 |
if (len(relevant_docs)>0):
|
| 322 |
print("releant docs2......................")
|
| 323 |
print(relevant_docs)
|
| 324 |
-
|
| 325 |
-
|
| 326 |
-
|
| 327 |
-
|
| 328 |
-
|
| 329 |
-
else:
|
| 330 |
-
#Normale Abfrage, da keine relevanten Dokumente gefunden
|
| 331 |
-
llm_chain = LLMChain(llm = llm, prompt = LLM_CHAIN_PROMPT)
|
| 332 |
-
result = llm_chain.run({"question": neu_prompt})
|
| 333 |
return result
|
| 334 |
|
| 335 |
|
| 336 |
|
| 337 |
|
|
|
|
|
|
|
| 338 |
###################################################
|
| 339 |
#Prompts mit History erzeugen für verschiednee Modelle
|
| 340 |
###################################################
|
|
|
|
| 321 |
if (len(relevant_docs)>0):
|
| 322 |
print("releant docs2......................")
|
| 323 |
print(relevant_docs)
|
| 324 |
+
llm_chain = LLMChain(llm = llm, prompt = RAG_CHAIN_PROMPT)
|
| 325 |
+
result = llm_chain.run({"context": relevant_docs, "question": neu_prompt})
|
| 326 |
+
else:
|
| 327 |
+
# keine relevanten Dokumente gefunden
|
| 328 |
+
result = "Keine relevanten Dokumente gefunden"
|
|
|
|
|
|
|
|
|
|
|
|
|
| 329 |
return result
|
| 330 |
|
| 331 |
|
| 332 |
|
| 333 |
|
| 334 |
+
|
| 335 |
+
|
| 336 |
###################################################
|
| 337 |
#Prompts mit History erzeugen für verschiednee Modelle
|
| 338 |
###################################################
|