Baldezo313's picture
Update README.md
3519c88 verified

A newer version of the Gradio SDK is available: 5.46.0

Upgrade
metadata
title: T5 Question Generator
emoji: 👀
colorFrom: red
colorTo: green
sdk: gradio
sdk_version: 5.38.2
app_file: app.py
pinned: false
license: mit
short_description: T5 Fine-tuned on SQuAD  for Question Generation

T5 Fine-tuned on SQuAD for Question Generation

Ce modèle T5 a été fine-tuné par Mamadou Balde à partir du modèle t5-base pour la génération de réponses à partir d’un contexte et d’une question, en se basant sur un format simplifié de SQuAD.

📚 Données

Je me suis basé sur le dataset Kaggle : ananthu017/squad-csv-format

🛠️ Utilisation

Ce Space vous permet de générer des réponses à partir d’un contexte et d’une question, en utilisant un modèle T5 fine-tuné sur un dataset dérivé de SQuAD.

✅ Modèle utilisé : Baldezo313/t5-finetuned-squad-mamadou

  • Exemple
  • Contexte : La classification est une tâche supervisée en apprentissage automatique où l’objectif est de prédire une étiquette.
  • Question : Qu’est-ce que la classification ?
  • Réponse générée : C’est une tâche supervisée où l’on prédit une étiquette.
from transformers import T5ForConditionalGeneration, T5Tokenizer

model = T5ForConditionalGeneration.from_pretrained("Baldezo313/t5-finetuned-squad-mamadou")
tokenizer = T5Tokenizer.from_pretrained("Baldezo313/t5-finetuned-squad-mamadou")

context = "Machine learning is a field of artificial intelligence that uses statistical techniques to give computer systems the ability to learn from data."
question = "What is machine learning?"

inputs = tokenizer(context, question, return_tensors="pt", padding="max_length", truncation=True, max_length=512)
outputs = model.generate(**inputs)

print(tokenizer.decode(outputs[0], skip_special_tokens=True))

Auteur

👨‍💻 Mamadou Saidou BALDE
📫 Contact : LinkedIn

Check out the configuration reference at https://huggingface.co/docs/hub/spaces-config-reference