Spaces:
Running
Running
import streamlit as st | |
import requests | |
# Configuraci贸n de la barra lateral | |
st.sidebar.title("Inference Provider") | |
st.sidebar.markdown( | |
""" | |
Esta aplicaci贸n permite ejecutar inferencias con diferentes modelos usando la API de Hugging Face. | |
Ingresa tu token y selecciona el modelo que deseas usar. | |
""" | |
) | |
token = st.sidebar.text_input("Token de Hugging Face", type="password") | |
# Lista de modelos disponibles; puedes agregar o quitar modelos seg煤n necesites | |
model_list = ["Qwen/QwQ-32B", "gpt2", "distilbert-base-uncased"] | |
model_choice = st.sidebar.selectbox("Selecciona el modelo", model_list) | |
# 脕rea principal para la inferencia | |
st.title("Inferencia del Modelo") | |
prompt = st.text_area("Ingresa tu prompt", "Escribe aqu铆...") | |
if st.button("Ejecutar Inferencia"): | |
if not token: | |
st.error("Por favor, ingresa tu token de Hugging Face.") | |
else: | |
API_URL = f"https://api-inference.huggingface.co/models/{model_choice}" | |
headers = {"Authorization": f"Bearer {token}"} | |
payload = {"inputs": prompt} | |
with st.spinner("Ejecutando inferencia..."): | |
response = requests.post(API_URL, headers=headers, json=payload) | |
if response.status_code == 200: | |
try: | |
result = response.json() | |
st.write("Salida:") | |
st.write(result) | |
except Exception as e: | |
st.error("Error al interpretar la respuesta de la API.") | |
else: | |
st.error(f"Error {response.status_code}: {response.text}") | |