Spaces:
Sleeping
Sleeping
A newer version of the Gradio SDK is available:
5.46.0
metadata
title: T5 Question Generator
emoji: 👀
colorFrom: red
colorTo: green
sdk: gradio
sdk_version: 5.38.2
app_file: app.py
pinned: false
license: mit
short_description: T5 Fine-tuned on SQuAD for Question Generation
T5 Fine-tuned on SQuAD for Question Generation
Ce modèle T5 a été fine-tuné par Mamadou Balde à partir du modèle t5-base
pour la génération de réponses à partir d’un contexte et d’une question, en se basant sur un format simplifié de SQuAD.
📚 Données
Je me suis basé sur le dataset Kaggle : ananthu017/squad-csv-format
🛠️ Utilisation
Ce Space vous permet de générer des réponses à partir d’un contexte et d’une question, en utilisant un modèle T5 fine-tuné sur un dataset dérivé de SQuAD.
✅ Modèle utilisé : Baldezo313/t5-finetuned-squad-mamadou
- Exemple
- Contexte :
La classification est une tâche supervisée en apprentissage automatique où l’objectif est de prédire une étiquette.
- Question :
Qu’est-ce que la classification ?
- Réponse générée :
C’est une tâche supervisée où l’on prédit une étiquette.
from transformers import T5ForConditionalGeneration, T5Tokenizer
model = T5ForConditionalGeneration.from_pretrained("Baldezo313/t5-finetuned-squad-mamadou")
tokenizer = T5Tokenizer.from_pretrained("Baldezo313/t5-finetuned-squad-mamadou")
context = "Machine learning is a field of artificial intelligence that uses statistical techniques to give computer systems the ability to learn from data."
question = "What is machine learning?"
inputs = tokenizer(context, question, return_tensors="pt", padding="max_length", truncation=True, max_length=512)
outputs = model.generate(**inputs)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Auteur
👨💻 Mamadou Saidou BALDE
📫 Contact : LinkedIn
Check out the configuration reference at https://huggingface.co/docs/hub/spaces-config-reference