Segizu commited on
Commit
d25c5a7
verified
1 Parent(s): b6df2f4

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +34 -38
app.py CHANGED
@@ -1,41 +1,37 @@
1
- import streamlit as st
2
- import requests
3
 
4
- # Configuraci贸n de la barra lateral
5
- st.sidebar.title("Inference Provider")
6
- st.sidebar.markdown(
7
- """
8
- Esta aplicaci贸n permite ejecutar inferencias con diferentes modelos usando la API de Hugging Face.
9
- Ingresa tu token y selecciona el modelo que deseas usar.
10
- """
11
- )
12
- token = st.sidebar.text_input("Token de Hugging Face", type="password")
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
13
 
14
- # Lista de modelos disponibles; puedes agregar o quitar modelos seg煤n necesites
15
- model_list = ["Qwen/QwQ-32B", "gpt2", "distilbert-base-uncased"]
16
- model_choice = st.sidebar.selectbox("Selecciona el modelo", model_list)
17
-
18
- # 脕rea principal para la inferencia
19
- st.title("Inferencia del Modelo")
20
- prompt = st.text_area("Ingresa tu prompt", "Escribe aqu铆...")
21
-
22
- if st.button("Ejecutar Inferencia"):
23
- if not token:
24
- st.error("Por favor, ingresa tu token de Hugging Face.")
25
- else:
26
- API_URL = f"https://api-inference.huggingface.co/models/{model_choice}"
27
- headers = {"Authorization": f"Bearer {token}"}
28
- payload = {"inputs": prompt}
29
-
30
- with st.spinner("Ejecutando inferencia..."):
31
- response = requests.post(API_URL, headers=headers, json=payload)
32
- if response.status_code == 200:
33
- try:
34
- result = response.json()
35
- st.write("Salida:")
36
- st.write(result)
37
- except Exception as e:
38
- st.error("Error al interpretar la respuesta de la API.")
39
- else:
40
- st.error(f"Error {response.status_code}: {response.text}")
41
 
 
1
+ import gradio as gr
 
2
 
3
+ with gr.Blocks() as demo:
4
+ with gr.Sidebar():
5
+ gr.Markdown("# Inference Provider")
6
+ gr.Markdown("Selecciona el modelo a cargar y accede con tu cuenta de Hugging Face.")
7
+ token = gr.LoginButton("Sign in")
8
+ model_choice = gr.Dropdown(choices=["Qwen/QwQ-32B", "Modelo2", "Modelo3"],
9
+ label="Selecciona el modelo")
10
+
11
+ # Crear contenedores para cada modelo, inicialmente solo el primero es visible
12
+ container_model1 = gr.Column(visible=True)
13
+ container_model2 = gr.Column(visible=False)
14
+ container_model3 = gr.Column(visible=False)
15
+
16
+ with container_model1:
17
+ gr.load("models/Qwen/QwQ-32B", accept_token=token, provider="hyperbolic")
18
+ with container_model2:
19
+ gr.load("models/Modelo2", accept_token=token, provider="hyperbolic")
20
+ with container_model3:
21
+ gr.load("models/Modelo3", accept_token=token, provider="hyperbolic")
22
+
23
+ # Funci贸n para actualizar la visibilidad seg煤n el modelo seleccionado
24
+ def update_model(selected_model):
25
+ if selected_model == "Qwen/QwQ-32B":
26
+ return gr.update(visible=True), gr.update(visible=False), gr.update(visible=False)
27
+ elif selected_model == "Modelo2":
28
+ return gr.update(visible=False), gr.update(visible=True), gr.update(visible=False)
29
+ elif selected_model == "Modelo3":
30
+ return gr.update(visible=False), gr.update(visible=False), gr.update(visible=True)
31
+
32
+ model_choice.change(fn=update_model, inputs=model_choice,
33
+ outputs=[container_model1, container_model2, container_model3])
34
+
35
+ demo.launch()
36
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
37