Qwen-QwQ-32B / app.py
Segizu's picture
Update app.py
b6df2f4 verified
raw
history blame
1.58 kB
import streamlit as st
import requests
# Configuraci贸n de la barra lateral
st.sidebar.title("Inference Provider")
st.sidebar.markdown(
"""
Esta aplicaci贸n permite ejecutar inferencias con diferentes modelos usando la API de Hugging Face.
Ingresa tu token y selecciona el modelo que deseas usar.
"""
)
token = st.sidebar.text_input("Token de Hugging Face", type="password")
# Lista de modelos disponibles; puedes agregar o quitar modelos seg煤n necesites
model_list = ["Qwen/QwQ-32B", "gpt2", "distilbert-base-uncased"]
model_choice = st.sidebar.selectbox("Selecciona el modelo", model_list)
# 脕rea principal para la inferencia
st.title("Inferencia del Modelo")
prompt = st.text_area("Ingresa tu prompt", "Escribe aqu铆...")
if st.button("Ejecutar Inferencia"):
if not token:
st.error("Por favor, ingresa tu token de Hugging Face.")
else:
API_URL = f"https://api-inference.huggingface.co/models/{model_choice}"
headers = {"Authorization": f"Bearer {token}"}
payload = {"inputs": prompt}
with st.spinner("Ejecutando inferencia..."):
response = requests.post(API_URL, headers=headers, json=payload)
if response.status_code == 200:
try:
result = response.json()
st.write("Salida:")
st.write(result)
except Exception as e:
st.error("Error al interpretar la respuesta de la API.")
else:
st.error(f"Error {response.status_code}: {response.text}")