Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
|
@@ -2,32 +2,30 @@ import os
|
|
| 2 |
import streamlit as st
|
| 3 |
from huggingface_hub import InferenceClient
|
| 4 |
|
| 5 |
-
# 🔒 HF token olvasása
|
| 6 |
HF_TOKEN = st.secrets["HF_TOKEN"]
|
| 7 |
client = InferenceClient(token=HF_TOKEN)
|
| 8 |
|
| 9 |
-
# Oldal
|
| 10 |
st.set_page_config(page_title="Major Plato Szimulátor", layout="wide")
|
| 11 |
st.title("🎖️ Major Plato – Katonai Etikai Szimuláció")
|
| 12 |
|
| 13 |
# Rendszer prompt betöltése
|
| 14 |
-
system = ""
|
| 15 |
if os.path.exists("system.txt"):
|
| 16 |
system = open("system.txt", encoding="utf-8").read().strip()
|
| 17 |
else:
|
| 18 |
-
st.error("Hiba: Nincs 'system.txt' fájl! Ide
|
| 19 |
st.stop()
|
| 20 |
|
| 21 |
# Forgatókönyv feltöltése vagy kézi kérdés
|
| 22 |
scenario = ""
|
| 23 |
-
uploaded = st.file_uploader("
|
| 24 |
if uploaded:
|
| 25 |
scenario = uploaded.read().decode("utf-8")
|
| 26 |
-
|
| 27 |
user_in = st.text_area("Vagy írd be kézzel a kérdésedet:")
|
| 28 |
|
| 29 |
-
# Paraméterek
|
| 30 |
-
max_tokens = st.sidebar.slider("Max token",
|
| 31 |
temperature = st.sidebar.slider("Temperature", 0.2, 1.0, 0.7, 0.1)
|
| 32 |
|
| 33 |
# CSS a scrollozható expanderhez
|
|
@@ -39,13 +37,12 @@ st.markdown(
|
|
| 39 |
overflow-y: auto;
|
| 40 |
}
|
| 41 |
</style>
|
| 42 |
-
""",
|
| 43 |
-
unsafe_allow_html=True
|
| 44 |
)
|
| 45 |
|
| 46 |
if st.button("Indítás"):
|
| 47 |
if not (scenario.strip() or user_in.strip()):
|
| 48 |
-
st.error("
|
| 49 |
else:
|
| 50 |
usr_content = scenario.strip()
|
| 51 |
if user_in.strip():
|
|
@@ -57,12 +54,20 @@ if st.button("Indítás"):
|
|
| 57 |
]
|
| 58 |
|
| 59 |
with st.spinner("Major Plato gondolkodik..."):
|
| 60 |
-
|
| 61 |
model="meta-llama/Meta-Llama-3-8B-Instruct",
|
| 62 |
messages=messages,
|
| 63 |
max_tokens=max_tokens,
|
| 64 |
-
temperature=temperature
|
|
|
|
| 65 |
)
|
| 66 |
|
|
|
|
|
|
|
| 67 |
with st.expander("🗣️ Major Plato válasza:", expanded=True):
|
| 68 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 2 |
import streamlit as st
|
| 3 |
from huggingface_hub import InferenceClient
|
| 4 |
|
| 5 |
+
# 🔒 HF token olvasása titkos változóból
|
| 6 |
HF_TOKEN = st.secrets["HF_TOKEN"]
|
| 7 |
client = InferenceClient(token=HF_TOKEN)
|
| 8 |
|
| 9 |
+
# Oldal beállítások
|
| 10 |
st.set_page_config(page_title="Major Plato Szimulátor", layout="wide")
|
| 11 |
st.title("🎖️ Major Plato – Katonai Etikai Szimuláció")
|
| 12 |
|
| 13 |
# Rendszer prompt betöltése
|
|
|
|
| 14 |
if os.path.exists("system.txt"):
|
| 15 |
system = open("system.txt", encoding="utf-8").read().strip()
|
| 16 |
else:
|
| 17 |
+
st.error("Hiba: Nincs 'system.txt' fájl! Ide írd Major Plato karakterleírását.")
|
| 18 |
st.stop()
|
| 19 |
|
| 20 |
# Forgatókönyv feltöltése vagy kézi kérdés
|
| 21 |
scenario = ""
|
| 22 |
+
uploaded = st.file_uploader("Tölts fel forgatókönyv fájlt (.txt):", type="txt")
|
| 23 |
if uploaded:
|
| 24 |
scenario = uploaded.read().decode("utf-8")
|
|
|
|
| 25 |
user_in = st.text_area("Vagy írd be kézzel a kérdésedet:")
|
| 26 |
|
| 27 |
+
# Paraméterek az oldalsávban
|
| 28 |
+
max_tokens = st.sidebar.slider("Max token", 100, 1000, 600, 50)
|
| 29 |
temperature = st.sidebar.slider("Temperature", 0.2, 1.0, 0.7, 0.1)
|
| 30 |
|
| 31 |
# CSS a scrollozható expanderhez
|
|
|
|
| 37 |
overflow-y: auto;
|
| 38 |
}
|
| 39 |
</style>
|
| 40 |
+
""", unsafe_allow_html=True
|
|
|
|
| 41 |
)
|
| 42 |
|
| 43 |
if st.button("Indítás"):
|
| 44 |
if not (scenario.strip() or user_in.strip()):
|
| 45 |
+
st.error("Kérlek, tölts fel forgatókönyvet vagy írj kérdést!")
|
| 46 |
else:
|
| 47 |
usr_content = scenario.strip()
|
| 48 |
if user_in.strip():
|
|
|
|
| 54 |
]
|
| 55 |
|
| 56 |
with st.spinner("Major Plato gondolkodik..."):
|
| 57 |
+
stream = client.chat_completion(
|
| 58 |
model="meta-llama/Meta-Llama-3-8B-Instruct",
|
| 59 |
messages=messages,
|
| 60 |
max_tokens=max_tokens,
|
| 61 |
+
temperature=temperature,
|
| 62 |
+
stream=True # folyamatos válasz fogadó
|
| 63 |
)
|
| 64 |
|
| 65 |
+
placeholder = st.empty()
|
| 66 |
+
full_resp = ""
|
| 67 |
with st.expander("🗣️ Major Plato válasza:", expanded=True):
|
| 68 |
+
for chunk in stream:
|
| 69 |
+
delta = chunk.choices[0].delta.content
|
| 70 |
+
if delta:
|
| 71 |
+
full_resp += delta
|
| 72 |
+
placeholder.markdown(full_resp)
|
| 73 |
+
|