Model Card for Model ID
This is the model ranked first in the TextMine 2025 competition.
Model Details
Model Description
This model processes a prompt that decribes a candidate relation between two entities in a French intelligence report, and predicts wether this relation exists in the given text by simply outputting yer or no.
- Developed by: Adrien Guille, Université Lumière Lyon 2
- Language: French
- License: Apache 2.0
- Finetuned from model: bigscience/mt0-xxl
How to Get Started with the Model
Use the code below to get started with the model.
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
import torch
model = AutoModelForSeq2SeqLM.from_pretrained(
"AdrienGuille/TextMine2025",
torch_dtype=torch.bfloat16, # requires a compatible GPU, otherwise should be set to torch.float16
return_dict=True,
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained("bigscience/mt0-xxl")
# format the prompt according to the following template
prompt = """Does the relation (head_entity: [Constance Dupuis], relation_type: is_in_contact_with},
tail_entity: [Airîle, compagnie aérienne]), exists in the following text: "L’avion NY8 de la
compagnie Airîle a lancé sa dernière position via le signal radio avant de se crasher dans une forêt
en Malaisie le 19 février 2003. La compagnie aérienne a alerté les secours pour évacuer les
passagers. Les hélicoptères d’urgence ont retrouvé l’appareil en feu. Les autorités malaisiennes ont
recensé 15 morts au total. Cet incident n’a fait que peu de survivants, dont Constance Dupuis,
présidente de l’association « des médicaments pour tous » en Grèce. D’après son témoignage, le
NY8 a connu une défaillance technique que les pilotes n’ont pas pu contrôler. Les corps ont été
transportés par brancard à la morgue."?"""
# do not do sample for generation
input_ids = tokenizer(prompt, return_tensors="pt").to("cuda")
output_ids = model.generate(**input_ids, num_beams=1, do_sample=False, max_new_tokens=4)
# output should be either yer or no
answer = tokenizer.decode(output_ids[0], skip_special_tokens=True)
print(answer)
Citation
BibTeX:
@inproceedings{guille_textmine_2025,
title={Adaptation d’un modèle de langue encodeur-décodeur pour l'extraction de relations dans des rapports de renseignement.},
author={Guille, Adrien},
booktitle={Actes de l'atelier TextMine 2025},
pages={5-7},
year={2025}}
APA:
Guille, A. (2025). Adaptation d’un modèle de langue encodeur-décodeur pour l'extraction de relations dans des rapports de renseignement. Actes de l'atelier TextMine 2025. 5-7.
- Downloads last month
- 0
Inference Providers
NEW
This model is not currently available via any of the supported third-party Inference Providers, and
the model is not deployed on the HF Inference API.
Model tree for AdrienGuille/TextMine2025
Base model
bigscience/mt0-xxl