Update app.py
Browse files
app.py
CHANGED
|
@@ -236,12 +236,12 @@ def generate_text (prompt, chatbot, history, vektordatenbank, retriever, top_p=0
|
|
| 236 |
|
| 237 |
#Prompt an history anhängen und einen Text daraus machen
|
| 238 |
history_text_und_prompt = generate_prompt_with_history(prompt, history)
|
| 239 |
-
|
| 240 |
#zusätzliche Dokumenten Splits aus DB zum Prompt hinzufügen (aus VektorDB - Chroma oder Mongo DB)
|
| 241 |
print("LLM aufrufen mit RAG: ...........")
|
| 242 |
#result = rag_chain(history_text_und_prompt, vektordatenbank, ANZAHL_DOCS)
|
| 243 |
#result = rag_chain(llm, history_text_und_prompt, retriever)
|
| 244 |
-
result = rag_chain2(history_text_und_prompt, retriever)
|
| 245 |
|
| 246 |
except Exception as e:
|
| 247 |
raise gr.Error(e)
|
|
|
|
| 236 |
|
| 237 |
#Prompt an history anhängen und einen Text daraus machen
|
| 238 |
history_text_und_prompt = generate_prompt_with_history(prompt, history)
|
| 239 |
+
|
| 240 |
#zusätzliche Dokumenten Splits aus DB zum Prompt hinzufügen (aus VektorDB - Chroma oder Mongo DB)
|
| 241 |
print("LLM aufrufen mit RAG: ...........")
|
| 242 |
#result = rag_chain(history_text_und_prompt, vektordatenbank, ANZAHL_DOCS)
|
| 243 |
#result = rag_chain(llm, history_text_und_prompt, retriever)
|
| 244 |
+
result = rag_chain2(API_URL, history_text_und_prompt, retriever)
|
| 245 |
|
| 246 |
except Exception as e:
|
| 247 |
raise gr.Error(e)
|