Spaces:
Runtime error
Runtime error
import gradio as gr | |
from transformers import AutoModelForCausalLM, AutoTokenizer | |
# Задаем имя модели на Hugging Face | |
model_name = "AnatoliiPotapov/T-lite-instruct-0.1" | |
tokenizer = AutoTokenizer.from_pretrained(model_name) | |
# Загрузка модели с параметрами для оптимизации работы на CPU | |
model = AutoModelForCausalLM.from_pretrained(model_name, device_map="auto", low_cpu_mem_usage=True) | |
# Функция для генерации ответа от модели | |
def generate_response(input_text): | |
inputs = tokenizer(input_text, return_tensors="pt") | |
outputs = model.generate(inputs["input_ids"], max_length=50) | |
response = tokenizer.decode(outputs[0], skip_special_tokens=True) | |
return response | |
# Настройка интерфейса Gradio | |
iface = gr.Interface( | |
fn=generate_response, | |
inputs="text", | |
outputs="text", | |
title="Telegram-like Chatbot", | |
description="Введите текст и получите ответ от модели" | |
) | |
# Запуск интерфейса с публичным доступом | |
iface.launch(share=True, server_port=7860) |