bezir commited on
Commit
5b629c6
·
verified ·
1 Parent(s): 7d14982

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +111 -48
README.md CHANGED
@@ -1,60 +1,123 @@
1
- ---
2
- base_model: Qwen/Qwen2.5-7B-Instruct
3
- datasets: WiroAI/dolphin-r1-french
4
- library_name: transformers
5
- model_name: Qwen2.5-7B-Open-R1-Distill-French
6
- tags:
7
- - generated_from_trainer
8
- - open-r1
9
- - trl
10
- - sft
11
- licence: license
12
- ---
13
-
14
- # Model Card for Qwen2.5-7B-Open-R1-Distill-French
15
-
16
- This model is a fine-tuned version of [Qwen/Qwen2.5-7B-Instruct](https://huggingface.co/Qwen/Qwen2.5-7B-Instruct) on the [WiroAI/dolphin-r1-french](https://huggingface.co/datasets/WiroAI/dolphin-r1-french) dataset.
17
- It has been trained using [TRL](https://github.com/huggingface/trl).
18
-
19
- ## Quick start
20
 
21
- ```python
22
- from transformers import pipeline
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
23
 
24
- question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?"
25
- generator = pipeline("text-generation", model="bezir/Qwen2.5-7B-Open-R1-Distill-French", device="cuda")
26
- output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0]
27
- print(output["generated_text"])
28
- ```
29
 
30
- ## Training procedure
 
 
31
 
32
- [<img src="https://raw.githubusercontent.com/wandb/assets/main/wandb-github-badge-28.svg" alt="Visualize in Weights & Biases" width="150" height="24"/>](https://wandb.ai/bezirglasgow/huggingface/runs/4n7k3qsc)
33
 
 
 
 
34
 
35
- This model was trained with SFT.
 
 
 
 
 
36
 
37
- ### Framework versions
38
 
39
- - TRL: 0.16.0.dev0
40
- - Transformers: 4.49.0
41
- - Pytorch: 2.5.1
42
- - Datasets: 3.3.2
43
- - Tokenizers: 0.21.0
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
44
 
45
- ## Citations
46
 
 
47
 
 
 
 
 
48
 
49
- Cite TRL as:
50
-
51
- ```bibtex
52
- @misc{vonwerra2022trl,
53
- title = {{TRL: Transformer Reinforcement Learning}},
54
- author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallouédec},
55
- year = 2020,
56
- journal = {GitHub repository},
57
- publisher = {GitHub},
58
- howpublished = {\url{https://github.com/huggingface/trl}}
59
- }
60
- ```
 
1
+ ---
2
+ datasets: WiroAI/dolphin-r1-french
3
+ library_name: transformers
4
+ model_name: OpenR1-Qwen-7B-French
5
+ tags:
6
+ - generated_from_trainer
7
+ - trl
8
+ - sft
9
+ licence: license
10
+ license: apache-2.0
11
+ language:
12
+ - fr
13
+ base_model:
14
+ - Qwen/Qwen2.5-7B-Instruct
15
+ ---
 
 
 
 
16
 
17
+ <div align="center">
18
+ <img src="https://huggingface.co/WiroAI/wiroai-turkish-llm-9b/resolve/main/wiro_logo.png" width="15%" alt="Wiro AI" />
19
+ </div>
20
+ <hr>
21
+ <div align="center" style="line-height: 1;">
22
+ <a href="https://www.wiro.ai/" target="_blank" style="margin: 2px;">
23
+ <img alt="Homepage" src="https://huggingface.co/WiroAI/wiroai-turkish-llm-9b/resolve/main/homepage.svg" style="display: inline-block; vertical-align: middle;"/>
24
+ </a>
25
+ <a href="https://wiro.ai/tools?search=&categories=chat&tags=&page=0" target="_blank" style="margin: 2px;">
26
+ <img alt="Chat" src="https://huggingface.co/WiroAI/wiroai-turkish-llm-9b/resolve/main/chat.svg" style="display: inline-block; vertical-align: middle;"/>
27
+ </a>
28
+ <a href="https://huggingface.co/WiroAI" target="_blank" style="margin: 2px;">
29
+ <img alt="Hugging Face" src="https://huggingface.co/WiroAI/wiroai-turkish-llm-9b/resolve/main/huggingface.svg" style="display: inline-block; vertical-align: middle;"/>
30
+ </a>
31
+ </div>
32
+ <div align="center" style="line-height: 1;">
33
+ <a href="https://instagram.com/wiroai" target="_blank" style="margin: 2px;">
34
+ <img alt="Instagram Follow" src="https://img.shields.io/badge/Instagram-wiroai-555555?logo=instagram&logoColor=white&labelColor=E4405F" style="display: inline-block; vertical-align: middle;"/>
35
+ </a>
36
+ <a href="https://x.com/wiroai" target="_blank" style="margin: 2px;">
37
+ <img alt="X Follow" src="https://img.shields.io/badge/X-wiroai-555555?logo=x&logoColor=white&labelColor=000000" style="display: inline-block; vertical-align: middle;"/>
38
+ </a>
39
+ </div>
40
+ <div align="center" style="line-height: 1;">
41
+ <a href="https://wiro.ai/agreement/terms-of-service" style="margin: 2px;">
42
+ <img alt="License" src="https://img.shields.io/badge/License-apache 2.0-f5de53?&color=f5de53" style="display: inline-block; vertical-align: middle;"/>
43
+ </a>
44
+ </div>
45
 
46
+ # 🚀 OpenR1-Qwen-7B-French 🚀
47
+
48
+ This is a finetune of [Qwen2.5-Instruct](https://huggingface.co/Qwen/Qwen2.5-7B-Instruct) on [WiroAI/dolphin-r1-french](https://huggingface.co/datasets/WiroAI/dolphin-r1-french).
49
+
50
+ ## 🟢 Overview
51
 
52
+ - DeepSeek's distilled models sometimes reason in Chinese or English even though prompted in another language.
53
+ - Open-Source models still need improvement on relatively low-resource languages.
54
+ - A motivation to reproduce R1 and contribute to the community.
55
 
56
+ ## 🟢 Training
57
 
58
+ - We train the model on the [WiroAI/dolphin-r1-french](https://huggingface.co/datasets/WiroAI/dolphin-r1-french) for 2 epochs. We use learning rate of 1e-5 and max seq length 4096. The training follows a cosine learning rate schedule with a 10% warmup phase.
59
+ - Training took 5 days in 8xA6000 ADA cluster.
60
+ - Normally, R1 team compares the performance of OpenR1 models to DeepSeek-Distill-Qwen-7B and OpenThinker-7B using [lighteval](https://github.com/huggingface/open-r1/tree/main?tab=readme-ov-file#evaluating-models). However, the datasets are only MATH oriented so not to conclude anything we won't disclose the default results.
61
 
62
+ You can find the training and evaluation code at: https://github.com/huggingface/open-r1/
63
+
64
+ ## 🐨 Quick start
65
+
66
+ ```python
67
+ from transformers import AutoModelForCausalLM, AutoTokenizer
68
 
69
+ model_name = "OpenR1-Qwen-7B-French"
70
 
71
+ model = AutoModelForCausalLM.from_pretrained(
72
+ model_name,
73
+ torch_dtype="auto",
74
+ device_map="auto"
75
+ )
76
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
77
+
78
+ prompt = "Explique brièvement l'importance des investissements que la France réalise pour progresser dans le domaine de l'intelligence artificielle."
79
+
80
+ messages = [
81
+ {"role": "system", "content": "Lütfen adım adım düşün ve cevapla."},
82
+ {"role": "user", "content": prompt}
83
+ ]
84
+ ```
85
+
86
+ ```
87
+ '<|begin_of_thought|>
88
+ D\'accord, je dois expliquer pourquoi les investissements de la France en matière d\'IA sont importants. Commençons par rappeler ce que je sais du développement de l\'IA en France.
89
+ Tout d\'abord, la France a un fort écosystème technologique. Il y a des universités renommées comme l\'École Polytechnique et l\'Institut Polytechnique de Paris, qui produisent probablement beaucoup de talents en ingénierie et en sciences. De plus, il y a des entreprises technologiques qui opèrent là-bas, donc le pays pourrait avoir une base solide pour l\'innovation.
90
+ Ensuite, il y a l\'initiative IA France. Je me souviens qu\'elle a été lancée en 2018 pour faire de la France un leader mondial de l\'IA. Les investissements comprennent probablement des fonds publics, des subventions et des partenariats avec des industries. Le but est de stimuler la recherche et le développement (R&D), de soutenir les startups et de créer des emplois.
91
+ L\'accès à la main-d\'œuvre qualifiée est important. La France possède une forte présence académique et des programmes d\'enseignement supérieur axés sur l\'IA. Des institutions comme INRIA me viennent à l\'esprit ; c\'est une organisation de recherche en informatique fondée en France. Ils contribuent à la recherche en IA et collaborent avec des entreprises.
92
+ Les startups et les startups font également partie du paysage français. L\'écosystème de la startup à Paris est connu sous le nom de "La Défense" ou quelque chose de similaire. Ces startups ont besoin de financement et de ressources pour évoluer. Les investissements gouvernementaux peuvent aider à accélérer leur croissance et à attirer davantage de capitaux privés.
93
+ Le rôle de l\'industrie est un autre aspect. Des entreprises comme Thales et Dassault Systemes utilisent probablement l\'IA dans leurs secteurs respectifs, comme la défense et l\'aérospatiale. L\'investissement dans l\'IA peut aider ces entreprises à rester compétitives et à innover.
94
+ L\'objectif de l\'IA pour la société comprend probablement des applications dans la santé, l\'éducation et la durabilité. Par exemple, l\'utilisation de l\'IA pour le diagnostic médical ou les technologies vertes. Cela montre comment l\'IA peut avoir un impact positif sur la société au-delà simplement de la technologie.
95
+ Les partenariats internationaux pourraient être un facteur. L\'Europe a besoin de s\'unir pour la compétition mondiale, et les investissements de la France dans l\'IA pourraient se faire en collaboration avec d\'autres nations européennes. De plus, les collaborations avec les États-Unis et la Chine pourraient faire partie de stratégies mondiales.
96
+ Le soutien politique et réglementaire est essentiel. La France pourrait avoir des politiques visant à promouvoir l\'adoption de l\'IA tout en maintenant la responsabilité éthique. Les investissements pourraient inclure la création de cadres juridiques pour garantir la confidentialité des données et éviter la discrimination.
97
+ La création d\'emplois est un autre avantage économique. L\'essor de l\'IA crée des opportunités dans le développement de logiciels, l\'apprentissage automatique et d\'autres domaines techniques. Cela aide l\'économie à se diversifier et à attirer les talents internationaux.
98
+ La résilience face aux crises pourrait être un avantage. Pendant la pandémie de COVID-19, l\'IA a été utilisée pour la modélisation prédictive et le dépistage. La capacité de la France à utiliser efficacement l\'IA pendant cette période a mis en évidence ses progrès.
99
+ Les défis potentiels ne sont pas mentionnés ici, mais je devrais peut-être les noter brièvement. Les problèmes de pénurie de talents, de fragmentation réglementaire et de concurrence internationale. Cependant, la question porte sur l\'importance des investissements, donc se concentrer sur les points positifs est logique.
100
+ En résumé, les investissements de la France dans l\'IA stimulent la recherche, favorisent l\'innovation, créent des emplois, renforcent l\'industrie nationale et positionnent le pays comme un leader mondial. Cela contribue à la compétitivité économique, à la résolution de problèmes sociétaux et à la construction d\'une infrastructure technologique durable.\n
101
+ <|end_of_thought|>
102
+ <|begin_of_solution|>
103
+ Les investissements de la France dans l\'IA sont cruciaux pour plusieurs raisons :
104
+ 1. **Stimulation de la recherche et du développement** :\n - L\'initiative IA France (2018) alloue des fonds publics pour financer des projets de R&D, des partenariats universitaires et des startups, consolidant ainsi la position de la France en tant que leader de l\'IA.
105
+ 2. **Renforcement de l\'écosystème technologique** :\n - Des institutions comme l\'INRIA et des universités renommées (par exemple, l\'École Polytechnique) produisent des talents qualifiés en ingénierie et en sciences, alimentant ainsi les startups et les industries.\n - L\'écosystème de la startup parisien (par exemple, "La Défense") attire des investissements privés et favorise l\'innovation.
106
+ 3. **Impact économique et création d\'emplois** :\n - L\'IA stimule les secteurs clés comme la défense, l\'aérospatiale et la santé, créant des opportunités d\'emploi et diversifiant l\'économie.\n - La création d\'entreprises de pointe (par exemple, Deeptech) contribue à l\'indépendance industrielle et à la croissance économique.
107
+ 4. **Applications sociales et éthiques** :\n - Les applications de l\'IA dans la santé, l\'éducation et la durabilité améliorent la qualité de vie et la résilience face aux crises.\n - Les cadres juridiques (par exemple, la loi française sur la protection des données) favorisent la confiance et la responsabilité éthique.
108
+ 5. **Partenariats internationaux** :\n - La collaboration avec des pays européens et mondiaux (par exemple, l\'UE) renforce la compétition mondiale et l\'innovation transfrontalière.
109
+ 6. **Adaptation à la transformation numérique** :\n - L\'IA permet aux industries françaises de rester compétitives dans un monde dominé par la technologie, préparant ainsi la France à une croissance durable.
110
+ En combinant les ressources académiques, les investissements publics et les initiatives de partenariat, les investissements de la France dans l\'IA visent à stimuler la croissance économique, à relever les défis sociétaux et à positionner le pays comme un acteur mondial de premier plan dans ce domaine.
111
+ <|end_of_solution|>'
112
+ ```
113
 
 
114
 
115
+ ## 🟡 Evaluation
116
 
117
+ - We observed that reasoning process has slightly improved. Our model thinks more clearly in French compared to the DeepSeek's reasoning model.
118
+ - This model trained for experimental motives and any benchmark evaluation is appreciated. Please be aware that this model will be producing more tokens compared to normal models and will consume more VRAM during inference.
119
+ - If you are willing to evaluate this model please make sure that model will be allowed to produce enough tokens. Generate until requests that restrict the model to output less than 4000 tokens will lead to poor results.
120
+ - We believe democratized and culturally improved open-source models will be through sharing and experiments!
121
 
122
+ ## 🤗 Community
123
+ - We would like to thank Huggingface Staff and everyone who contributed to the Open-R1 project!