Update app.py
Browse files
app.py
CHANGED
|
@@ -552,20 +552,21 @@ def vote(data: gr.LikeData):
|
|
| 552 |
print ("Start GUIneu")
|
| 553 |
with open("custom.css", "r", encoding="utf-8") as f:
|
| 554 |
customCSS = f.read()
|
| 555 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 556 |
with gr.Blocks(css=customCSS, theme=small_and_beautiful_theme) as demo:
|
| 557 |
#Session Variablen, um Weete zu speichern, auch wenn die Felder in der GUI bereits wieder leer sind
|
| 558 |
#history parallel zu chatbot speichern - momentan nicht im Gebrauch, ist aber in allen relevanten Methoden mit verlinkt
|
| 559 |
history = gr.State([])
|
| 560 |
#damit der Prompt auch nach dem upload in die History noch für predicts_args verfügbar ist
|
| 561 |
user_question = gr.State("")
|
| 562 |
-
|
| 563 |
-
additional_inputs = [
|
| 564 |
-
gr.Slider(label="Temperature", value=0.65, minimum=0.0, maximum=1.0, step=0.05, interactive=True, info="Höhere Werte erzeugen diversere Antworten", visible=True),
|
| 565 |
-
gr.Slider(label="Max new tokens", value=1024, minimum=0, maximum=4096, step=64, interactive=True, info="Maximale Anzahl neuer Tokens", visible=True),
|
| 566 |
-
gr.Slider(label="Top-p (nucleus sampling)", value=0.6, minimum=0.0, maximum=1, step=0.05, interactive=True, info="Höhere Werte verwenden auch Tokens mit niedrigerer Wahrscheinlichkeit.", visible=True),
|
| 567 |
-
gr.Slider(label="Repetition penalty", value=1.2, minimum=1.0, maximum=2.0, step=0.05, interactive=True, info="Strafe für wiederholte Tokens", visible=True)
|
| 568 |
-
]
|
| 569 |
################################################
|
| 570 |
# Tab zum Chatbot mit Text oder Bildeingabe
|
| 571 |
################################################
|
|
|
|
| 552 |
print ("Start GUIneu")
|
| 553 |
with open("custom.css", "r", encoding="utf-8") as f:
|
| 554 |
customCSS = f.read()
|
| 555 |
+
|
| 556 |
+
#Add Inputs für Tab 2
|
| 557 |
+
additional_inputs = [
|
| 558 |
+
gr.Slider(label="Temperature", value=0.65, minimum=0.0, maximum=1.0, step=0.05, interactive=True, info="Höhere Werte erzeugen diversere Antworten", visible=True),
|
| 559 |
+
gr.Slider(label="Max new tokens", value=1024, minimum=0, maximum=4096, step=64, interactive=True, info="Maximale Anzahl neuer Tokens", visible=True),
|
| 560 |
+
gr.Slider(label="Top-p (nucleus sampling)", value=0.6, minimum=0.0, maximum=1, step=0.05, interactive=True, info="Höhere Werte verwenden auch Tokens mit niedrigerer Wahrscheinlichkeit.", visible=True),
|
| 561 |
+
gr.Slider(label="Repetition penalty", value=1.2, minimum=1.0, maximum=2.0, step=0.05, interactive=True, info="Strafe für wiederholte Tokens", visible=True)
|
| 562 |
+
]
|
| 563 |
with gr.Blocks(css=customCSS, theme=small_and_beautiful_theme) as demo:
|
| 564 |
#Session Variablen, um Weete zu speichern, auch wenn die Felder in der GUI bereits wieder leer sind
|
| 565 |
#history parallel zu chatbot speichern - momentan nicht im Gebrauch, ist aber in allen relevanten Methoden mit verlinkt
|
| 566 |
history = gr.State([])
|
| 567 |
#damit der Prompt auch nach dem upload in die History noch für predicts_args verfügbar ist
|
| 568 |
user_question = gr.State("")
|
| 569 |
+
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 570 |
################################################
|
| 571 |
# Tab zum Chatbot mit Text oder Bildeingabe
|
| 572 |
################################################
|