File size: 12,245 Bytes
6340e5e
 
 
 
 
 
 
 
27acac7
 
 
 
 
6340e5e
 
 
 
 
 
 
502ce47
27acac7
5b629c6
27acac7
5b629c6
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
502ce47
5b629c6
 
 
 
 
502ce47
5b629c6
 
 
502ce47
5b629c6
502ce47
5b629c6
 
 
502ce47
5b629c6
 
 
 
 
 
502ce47
5b629c6
502ce47
5b629c6
 
 
 
 
 
 
 
 
 
6340e5e
5b629c6
 
6340e5e
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
5b629c6
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
502ce47
 
5b629c6
502ce47
5b629c6
 
 
 
502ce47
5b629c6
482b958
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
---
datasets: WiroAI/dolphin-r1-french
library_name: transformers
model_name: OpenR1-Qwen-7B-French
tags:
- generated_from_trainer
- trl
- sft
- reasoning
- thinking
- deepseek
- dolphin
- qwen
licence: license
license: apache-2.0
language:
- fr
base_model:
- Qwen/Qwen2.5-7B-Instruct
---

<div align="center" style="display: flex; justify-content: center; align-items: center;">
  <img src="https://huggingface.co/WiroAI/wiroai-turkish-llm-9b/resolve/main/wiro_logo.png" width="15%" alt="Wiro AI" />
  <img src="https://upload.wikimedia.org/wikipedia/en/c/c3/Flag_of_France.svg" width="15%" alt="French Flag" style="margin-left: 10px;" />
</div>
<hr>
<div align="center" style="line-height: 1;">
  <a href="https://www.wiro.ai/" target="_blank" style="margin: 2px;">
    <img alt="Homepage" src="https://huggingface.co/WiroAI/wiroai-turkish-llm-9b/resolve/main/homepage.svg" style="display: inline-block; vertical-align: middle;"/>
  </a>
  <a href="https://wiro.ai/tools?search=&categories=chat&tags=&page=0" target="_blank" style="margin: 2px;">
    <img alt="Chat" src="https://huggingface.co/WiroAI/wiroai-turkish-llm-9b/resolve/main/chat.svg" style="display: inline-block; vertical-align: middle;"/>
  </a>
  <a href="https://huggingface.co/WiroAI" target="_blank" style="margin: 2px;">
    <img alt="Hugging Face" src="https://huggingface.co/WiroAI/wiroai-turkish-llm-9b/resolve/main/huggingface.svg" style="display: inline-block; vertical-align: middle;"/>
  </a>
</div>
<div align="center" style="line-height: 1;">
  <a href="https://instagram.com/wiroai" target="_blank" style="margin: 2px;">
    <img alt="Instagram Follow" src="https://img.shields.io/badge/Instagram-wiroai-555555?logo=instagram&logoColor=white&labelColor=E4405F" style="display: inline-block; vertical-align: middle;"/>
  </a>
    <a href="https://x.com/wiroai" target="_blank" style="margin: 2px;">
    <img alt="X Follow" src="https://img.shields.io/badge/X-wiroai-555555?logo=x&logoColor=white&labelColor=000000" style="display: inline-block; vertical-align: middle;"/>
  </a>
</div>
<div align="center" style="line-height: 1;">
  <a href="https://wiro.ai/agreement/terms-of-service" style="margin: 2px;">
    <img alt="License" src="https://img.shields.io/badge/License-apache 2.0-f5de53?&color=f5de53" style="display: inline-block; vertical-align: middle;"/>
  </a>
</div>

# 🚀 OpenR1-Qwen-7B-French 🚀

This is a finetune of [Qwen2.5-Instruct](https://huggingface.co/Qwen/Qwen2.5-7B-Instruct) on [WiroAI/dolphin-r1-french](https://huggingface.co/datasets/WiroAI/dolphin-r1-french).

## 🟢 Overview 

- DeepSeek's distilled models sometimes reason in Chinese or English even though prompted in another language.
- Open-Source models still need improvement on relatively low-resource languages.
- A motivation to reproduce R1 and contribute to the community.

## 🟢 Training 

- We train the model on the [WiroAI/dolphin-r1-french](https://huggingface.co/datasets/WiroAI/dolphin-r1-french) for 2 epochs. We use learning rate of 1e-5 and max seq length 4096. The training follows a cosine learning rate schedule with a 10% warmup phase. 
- Training took 5 days in 8xA6000 ADA cluster.
- Normally, R1 team compares the performance of OpenR1 models to DeepSeek-Distill-Qwen-7B and OpenThinker-7B using [lighteval](https://github.com/huggingface/open-r1/tree/main?tab=readme-ov-file#evaluating-models). However, the datasets are only MATH oriented so not to conclude anything we won't disclose the default results.

You can find the training and evaluation code at: https://github.com/huggingface/open-r1/

## 🐨 Quick start

```python
from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "OpenR1-Qwen-7B-French"

model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype="auto",
    device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)

prompt = "Explique brièvement l'importance des investissements que la France réalise pour progresser dans le domaine de l'intelligence artificielle."

messages = [
    {"role": "system", "content": "Veuillez réfléchir étape par étape avant de répondre."},
    {"role": "user", "content": prompt}
]

text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(device)

generated_ids = model.generate(
    model_inputs.input_ids,
    max_new_tokens=4096
)
generated_ids = [
    output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]

response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
```

```
'<|begin_of_thought|>
D\'accord, je dois expliquer pourquoi les investissements de la France en matière d\'IA sont importants. Commençons par rappeler ce que je sais du développement de l\'IA en France.
Tout d\'abord, la France a un fort écosystème technologique. Il y a des universités renommées comme l\'École Polytechnique et l\'Institut Polytechnique de Paris, qui produisent probablement beaucoup de talents en ingénierie et en sciences. De plus, il y a des entreprises technologiques qui opèrent là-bas, donc le pays pourrait avoir une base solide pour l\'innovation.
Ensuite, il y a l\'initiative IA France. Je me souviens qu\'elle a été lancée en 2018 pour faire de la France un leader mondial de l\'IA. Les investissements comprennent probablement des fonds publics, des subventions et des partenariats avec des industries. Le but est de stimuler la recherche et le développement (R&D), de soutenir les startups et de créer des emplois.
L\'accès à la main-d\'œuvre qualifiée est important. La France possède une forte présence académique et des programmes d\'enseignement supérieur axés sur l\'IA. Des institutions comme INRIA me viennent à l\'esprit ; c\'est une organisation de recherche en informatique fondée en France. Ils contribuent à la recherche en IA et collaborent avec des entreprises.
Les startups et les startups font également partie du paysage français. L\'écosystème de la startup à Paris est connu sous le nom de "La Défense" ou quelque chose de similaire. Ces startups ont besoin de financement et de ressources pour évoluer. Les investissements gouvernementaux peuvent aider à accélérer leur croissance et à attirer davantage de capitaux privés.
Le rôle de l\'industrie est un autre aspect. Des entreprises comme Thales et Dassault Systemes utilisent probablement l\'IA dans leurs secteurs respectifs, comme la défense et l\'aérospatiale. L\'investissement dans l\'IA peut aider ces entreprises à rester compétitives et à innover.
L\'objectif de l\'IA pour la société comprend probablement des applications dans la santé, l\'éducation et la durabilité. Par exemple, l\'utilisation de l\'IA pour le diagnostic médical ou les technologies vertes. Cela montre comment l\'IA peut avoir un impact positif sur la société au-delà simplement de la technologie.
Les partenariats internationaux pourraient être un facteur. L\'Europe a besoin de s\'unir pour la compétition mondiale, et les investissements de la France dans l\'IA pourraient se faire en collaboration avec d\'autres nations européennes. De plus, les collaborations avec les États-Unis et la Chine pourraient faire partie de stratégies mondiales.
Le soutien politique et réglementaire est essentiel. La France pourrait avoir des politiques visant à promouvoir l\'adoption de l\'IA tout en maintenant la responsabilité éthique. Les investissements pourraient inclure la création de cadres juridiques pour garantir la confidentialité des données et éviter la discrimination.
La création d\'emplois est un autre avantage économique. L\'essor de l\'IA crée des opportunités dans le développement de logiciels, l\'apprentissage automatique et d\'autres domaines techniques. Cela aide l\'économie à se diversifier et à attirer les talents internationaux.
La résilience face aux crises pourrait être un avantage. Pendant la pandémie de COVID-19, l\'IA a été utilisée pour la modélisation prédictive et le dépistage. La capacité de la France à utiliser efficacement l\'IA pendant cette période a mis en évidence ses progrès.
Les défis potentiels ne sont pas mentionnés ici, mais je devrais peut-être les noter brièvement. Les problèmes de pénurie de talents, de fragmentation réglementaire et de concurrence internationale. Cependant, la question porte sur l\'importance des investissements, donc se concentrer sur les points positifs est logique.
En résumé, les investissements de la France dans l\'IA stimulent la recherche, favorisent l\'innovation, créent des emplois, renforcent l\'industrie nationale et positionnent le pays comme un leader mondial. Cela contribue à la compétitivité économique, à la résolution de problèmes sociétaux et à la construction d\'une infrastructure technologique durable.\n
<|end_of_thought|>
<|begin_of_solution|>
Les investissements de la France dans l\'IA sont cruciaux pour plusieurs raisons :
1. **Stimulation de la recherche et du développement** :\n   - L\'initiative IA France (2018) alloue des fonds publics pour financer des projets de R&D, des partenariats universitaires et des startups, consolidant ainsi la position de la France en tant que leader de l\'IA.
2. **Renforcement de l\'écosystème technologique** :\n   - Des institutions comme l\'INRIA et des universités renommées (par exemple, l\'École Polytechnique) produisent des talents qualifiés en ingénierie et en sciences, alimentant ainsi les startups et les industries.\n   - L\'écosystème de la startup parisien (par exemple, "La Défense") attire des investissements privés et favorise l\'innovation.
3. **Impact économique et création d\'emplois** :\n   - L\'IA stimule les secteurs clés comme la défense, l\'aérospatiale et la santé, créant des opportunités d\'emploi et diversifiant l\'économie.\n   - La création d\'entreprises de pointe (par exemple, Deeptech) contribue à l\'indépendance industrielle et à la croissance économique.
4. **Applications sociales et éthiques** :\n   - Les applications de l\'IA dans la santé, l\'éducation et la durabilité améliorent la qualité de vie et la résilience face aux crises.\n   - Les cadres juridiques (par exemple, la loi française sur la protection des données) favorisent la confiance et la responsabilité éthique.
5. **Partenariats internationaux** :\n   - La collaboration avec des pays européens et mondiaux (par exemple, l\'UE) renforce la compétition mondiale et l\'innovation transfrontalière.
6. **Adaptation à la transformation numérique** :\n   - L\'IA permet aux industries françaises de rester compétitives dans un monde dominé par la technologie, préparant ainsi la France à une croissance durable.
En combinant les ressources académiques, les investissements publics et les initiatives de partenariat, les investissements de la France dans l\'IA visent à stimuler la croissance économique, à relever les défis sociétaux et à positionner le pays comme un acteur mondial de premier plan dans ce domaine.
<|end_of_solution|>'
```


## 🟡 Evaluation

- We observed that reasoning process has slightly improved. Our model thinks more clearly in French compared to the DeepSeek's reasoning model.
- This model trained for experimental motives and any benchmark evaluation is appreciated. Please be aware that this model will be producing more tokens compared to normal models and will consume more VRAM during inference.
- If you are willing to evaluate this model please make sure that model will be allowed to produce enough tokens. Generate until requests that restrict the model to output less than 4000 tokens will lead to poor results.
- We believe democratized and culturally improved open-source models will be through sharing and experiments!

## 🤗 Community
- We would like to thank Huggingface Staff and everyone who contributed to the Open-R1 project!

## Citation

```none
@article{WiroAI,
  title={WiroAI/OpenR1-Qwen-7B-French,
  author={Abdullah Bezir, Cengiz Asmazoğlu},
  year={2025},
  url={https://huggingface.co/WiroAI/OpenR1-Qwen-7B-French}
}
```