Spaces:
Runtime error
Runtime error
Update run.py
Browse files
run.py
CHANGED
@@ -2,7 +2,7 @@
|
|
2 |
# Title: Gradio AI-Interface with Memory-RAG
|
3 |
# Author: Andreas Fischer
|
4 |
# Date: October 15th, 2023
|
5 |
-
# Last update:
|
6 |
##########################################################################################
|
7 |
|
8 |
#https://github.com/abetlen/llama-cpp-python/issues/306
|
@@ -330,7 +330,7 @@ def response(message, history,customSysPrompt,settings):
|
|
330 |
|
331 |
gr.ChatInterface(
|
332 |
response,
|
333 |
-
chatbot=gr.Chatbot(value=[[None,"Herzlich willkommen! Ich bin ein KI-basiertes Assistenzsystem, mit dem du zu unterschiedlichen Themen sprechen kannst.<br>Wenn du mich lokal bzw. "on premises" betreibst, kann ich unseren Dialog auf Wunsch auch speichern und bei meinen Antworten auch lange zurück liegende Episoden berücksichtigen.<br>Was ist dein Anliegen?"]], render_markdown=True),
|
334 |
title="AI-Interface (on prem)" if onPrem else "AI-Interface (HFHub)",
|
335 |
additional_inputs=[
|
336 |
gr.Textbox(value=None,label="System Prompt"),
|
|
|
2 |
# Title: Gradio AI-Interface with Memory-RAG
|
3 |
# Author: Andreas Fischer
|
4 |
# Date: October 15th, 2023
|
5 |
+
# Last update: March 1st, 2024
|
6 |
##########################################################################################
|
7 |
|
8 |
#https://github.com/abetlen/llama-cpp-python/issues/306
|
|
|
330 |
|
331 |
gr.ChatInterface(
|
332 |
response,
|
333 |
+
chatbot=gr.Chatbot(value=[[None,"Herzlich willkommen! Ich bin ein KI-basiertes Assistenzsystem, mit dem du zu unterschiedlichen Themen sprechen kannst.<br>Wenn du mich lokal bzw. \"on premises\" betreibst, kann ich unseren Dialog auf Wunsch auch speichern und bei meinen Antworten auch lange zurück liegende Episoden berücksichtigen.<br>Was ist dein Anliegen?"]], render_markdown=True),
|
334 |
title="AI-Interface (on prem)" if onPrem else "AI-Interface (HFHub)",
|
335 |
additional_inputs=[
|
336 |
gr.Textbox(value=None,label="System Prompt"),
|