Update README.md
Browse files
README.md
CHANGED
@@ -36,465 +36,76 @@ tags:
|
|
36 |
<div style="font-family: Arial, sans-serif; font-size: 16px; color: rgba(255,255,255,0.7); font-style: italic; margin-top: 12px;">Solution d'intelligence artificielle nouvelle génération</div>
|
37 |
</div>
|
38 |
|
|
|
39 |
|
40 |
-
|
41 |
-
|
42 |
-
|
43 |
-
|
44 |
-
|
45 |
-
|
46 |
-
|
47 |
-
|
48 |
-
|
49 |
-
|
50 |
-
|
51 |
-
|
52 |
-
|
53 |
-
|
54 |
-
|
55 |
-
|
56 |
-
|
57 |
-
|
58 |
-
|
59 |
-
|
60 |
-
|
61 |
-
|
62 |
-
|
63 |
-
|
64 |
-
|
65 |
-
|
66 |
-
|
67 |
-
|
68 |
-
|
69 |
-
|
70 |
-
|
71 |
-
|
72 |
-
|
73 |
-
|
74 |
-
|
75 |
-
|
76 |
-
|
77 |
-
|
78 |
-
|
79 |
-
|
80 |
-
|
81 |
-
|
82 |
-
|
83 |
-
|
84 |
-
|
85 |
-
|
86 |
-
|
87 |
-
|
88 |
-
|
89 |
-
|
90 |
-
|
91 |
-
|
92 |
-
|
93 |
-
|
94 |
-
|
95 |
-
|
96 |
-
|
97 |
-
|
98 |
-
|
99 |
-
|
100 |
-
|
101 |
-
|
102 |
-
|
103 |
-
|
104 |
-
|
105 |
-
|
106 |
-
|
107 |
-
|
108 |
-
|
109 |
-
margin-bottom: 2rem;
|
110 |
-
}
|
111 |
-
.info-grid {
|
112 |
-
display: grid;
|
113 |
-
grid-template-columns: repeat(auto-fit, minmax(200px, 1fr));
|
114 |
-
gap: 1rem;
|
115 |
-
margin-bottom: 2rem;
|
116 |
-
}
|
117 |
-
.info-card {
|
118 |
-
background: rgba(255, 255, 255, 0.1);
|
119 |
-
backdrop-filter: blur(20px);
|
120 |
-
border: 1px solid rgba(255, 255, 255, 0.2);
|
121 |
-
border-radius: 20px;
|
122 |
-
padding: 1.5rem;
|
123 |
-
text-align: center;
|
124 |
-
transition: all 0.3s ease;
|
125 |
-
position: relative;
|
126 |
-
overflow: hidden;
|
127 |
-
}
|
128 |
-
.info-card::before {
|
129 |
-
content: '';
|
130 |
-
position: absolute;
|
131 |
-
top: 0;
|
132 |
-
left: -100%;
|
133 |
-
width: 100%;
|
134 |
-
height: 100%;
|
135 |
-
background: linear-gradient(90deg, transparent, rgba(255, 255, 255, 0.1), transparent);
|
136 |
-
transition: left 0.5s;
|
137 |
-
}
|
138 |
-
.info-card:hover::before {
|
139 |
-
left: 100%;
|
140 |
-
}
|
141 |
-
.info-card:hover {
|
142 |
-
transform: translateY(-5px);
|
143 |
-
box-shadow: 0 20px 40px rgba(0, 0, 0, 0.2);
|
144 |
-
border-color: rgba(255, 255, 255, 0.4);
|
145 |
-
}
|
146 |
-
.info-card h3 {
|
147 |
-
color: white;
|
148 |
-
font-size: 0.9rem;
|
149 |
-
margin-bottom: 0.5rem;
|
150 |
-
text-transform: uppercase;
|
151 |
-
letter-spacing: 0.1em;
|
152 |
-
}
|
153 |
-
.info-card p {
|
154 |
-
color: rgba(255, 255, 255, 0.9);
|
155 |
-
font-size: 1.1rem;
|
156 |
-
font-weight: 600;
|
157 |
-
}
|
158 |
-
.section {
|
159 |
-
background: rgba(255, 255, 255, 0.05);
|
160 |
-
backdrop-filter: blur(20px);
|
161 |
-
border: 1px solid rgba(255, 255, 255, 0.1);
|
162 |
-
border-radius: 30px;
|
163 |
-
padding: 3rem;
|
164 |
-
margin-bottom: 3rem;
|
165 |
-
position: relative;
|
166 |
-
overflow: hidden;
|
167 |
-
}
|
168 |
-
.section::before {
|
169 |
-
content: '';
|
170 |
-
position: absolute;
|
171 |
-
top: -2px;
|
172 |
-
left: -2px;
|
173 |
-
right: -2px;
|
174 |
-
bottom: -2px;
|
175 |
-
background: linear-gradient(45deg, #ff6b6b, #4ecdc4, #45b7d1, #96ceb4, #feca57);
|
176 |
-
border-radius: 32px;
|
177 |
-
z-index: -1;
|
178 |
-
opacity: 0;
|
179 |
-
transition: opacity 0.3s;
|
180 |
-
}
|
181 |
-
.section:hover::before {
|
182 |
-
opacity: 0.3;
|
183 |
-
}
|
184 |
-
.section h2 {
|
185 |
-
color: white;
|
186 |
-
font-size: 2.5rem;
|
187 |
-
margin-bottom: 2rem;
|
188 |
-
display: flex;
|
189 |
-
align-items: center;
|
190 |
-
gap: 1rem;
|
191 |
-
}
|
192 |
-
.section p, .section li {
|
193 |
-
color: rgba(255, 255, 255, 0.85);
|
194 |
-
line-height: 1.6;
|
195 |
-
font-size: 1.1rem;
|
196 |
-
margin-bottom: 1rem;
|
197 |
-
}
|
198 |
-
.features-grid {
|
199 |
-
display: grid;
|
200 |
-
grid-template-columns: repeat(auto-fit, minmax(300px, 1fr));
|
201 |
-
gap: 2rem;
|
202 |
-
margin-top: 2rem;
|
203 |
-
}
|
204 |
-
.feature-card {
|
205 |
-
background: rgba(255, 255, 255, 0.08);
|
206 |
-
border-radius: 20px;
|
207 |
-
padding: 2rem;
|
208 |
-
border: 1px solid rgba(255, 255, 255, 0.15);
|
209 |
-
transition: all 0.3s ease;
|
210 |
-
position: relative;
|
211 |
-
}
|
212 |
-
.feature-card:hover {
|
213 |
-
transform: translateY(-10px);
|
214 |
-
box-shadow: 0 30px 60px rgba(0, 0, 0, 0.3);
|
215 |
-
background: rgba(255, 255, 255, 0.12);
|
216 |
-
}
|
217 |
-
.use-case-table {
|
218 |
-
width: 100%;
|
219 |
-
border-collapse: collapse;
|
220 |
-
margin-top: 2rem;
|
221 |
-
background: rgba(255, 255, 255, 0.05);
|
222 |
-
border-radius: 15px;
|
223 |
-
overflow: hidden;
|
224 |
-
}
|
225 |
-
.use-case-table th,
|
226 |
-
.use-case-table td {
|
227 |
-
padding: 1.5rem;
|
228 |
-
text-align: left;
|
229 |
-
border-bottom: 1px solid rgba(255, 255, 255, 0.1);
|
230 |
-
}
|
231 |
-
.use-case-table th {
|
232 |
-
background: rgba(255, 255, 255, 0.1);
|
233 |
-
color: white;
|
234 |
-
font-weight: 600;
|
235 |
-
text-transform: uppercase;
|
236 |
-
letter-spacing: 0.05em;
|
237 |
-
}
|
238 |
-
.use-case-table td {
|
239 |
-
color: rgba(255, 255, 255, 0.85);
|
240 |
-
}
|
241 |
-
.benchmark-table {
|
242 |
-
width: 100%;
|
243 |
-
border-collapse: collapse;
|
244 |
-
margin-top: 2rem;
|
245 |
-
background: rgba(255, 255, 255, 0.05);
|
246 |
-
border-radius: 15px;
|
247 |
-
overflow: hidden;
|
248 |
-
}
|
249 |
-
.benchmark-table th,
|
250 |
-
.benchmark-table td {
|
251 |
-
padding: 1rem 1.5rem;
|
252 |
-
text-align: center;
|
253 |
-
border-bottom: 1px solid rgba(255, 255, 255, 0.1);
|
254 |
-
}
|
255 |
-
.benchmark-table th {
|
256 |
-
background: rgba(255, 255, 255, 0.1);
|
257 |
-
color: white;
|
258 |
-
font-weight: 600;
|
259 |
-
}
|
260 |
-
.benchmark-table td {
|
261 |
-
color: rgba(255, 255, 255, 0.85);
|
262 |
-
font-weight: 500;
|
263 |
-
}
|
264 |
-
.best-score {
|
265 |
-
background: linear-gradient(135deg, #4facfe 0%, #00f2fe 100%);
|
266 |
-
background-clip: text;
|
267 |
-
-webkit-background-clip: text;
|
268 |
-
-webkit-text-fill-color: transparent;
|
269 |
-
font-weight: 700;
|
270 |
-
}
|
271 |
-
.floating-element {
|
272 |
-
position: absolute;
|
273 |
-
width: 100px;
|
274 |
-
height: 100px;
|
275 |
-
border-radius: 50%;
|
276 |
-
background: linear-gradient(135deg, rgba(255, 255, 255, 0.1), rgba(255, 255, 255, 0.05));
|
277 |
-
backdrop-filter: blur(10px);
|
278 |
-
animation: floatAround 20s linear infinite;
|
279 |
-
}
|
280 |
-
.floating-element:nth-child(1) {
|
281 |
-
top: 10%;
|
282 |
-
left: 10%;
|
283 |
-
}
|
284 |
-
.floating-element:nth-child(2) {
|
285 |
-
top: 60%;
|
286 |
-
right: 10%;
|
287 |
-
animation-delay: -10s;
|
288 |
-
}
|
289 |
-
@keyframes floatAround {
|
290 |
-
0% { transform: translateY(0px) rotate(0deg); }
|
291 |
-
25% { transform: translateY(-20px) rotate(90deg); }
|
292 |
-
50% { transform: translateY(0px) rotate(180deg); }
|
293 |
-
75% { transform: translateY(20px) rotate(270deg); }
|
294 |
-
100% { transform: translateY(0px) rotate(360deg); }
|
295 |
-
}
|
296 |
-
.pros-cons-grid {
|
297 |
-
display: grid;
|
298 |
-
grid-template-columns: 1fr 1fr;
|
299 |
-
gap: 2rem;
|
300 |
-
margin-top: 2rem;
|
301 |
-
}
|
302 |
-
.pros-card, .cons-card {
|
303 |
-
background: rgba(255, 255, 255, 0.08);
|
304 |
-
border-radius: 20px;
|
305 |
-
padding: 2rem;
|
306 |
-
border: 1px solid rgba(255, 255, 255, 0.15);
|
307 |
-
}
|
308 |
-
.pros-card {
|
309 |
-
border-left: 4px solid #4ecdc4;
|
310 |
-
}
|
311 |
-
.cons-card {
|
312 |
-
border-left: 4px solid #ff6b6b;
|
313 |
-
}
|
314 |
-
@media (max-width: 768px) {
|
315 |
-
.pros-cons-grid {
|
316 |
-
grid-template-columns: 1fr;
|
317 |
-
}
|
318 |
-
.hero h1 {
|
319 |
-
font-size: 3rem;
|
320 |
-
}
|
321 |
-
.section {
|
322 |
-
padding: 2rem;
|
323 |
-
}
|
324 |
-
}
|
325 |
-
</style>
|
326 |
-
</head>
|
327 |
-
<body>
|
328 |
-
<div class="floating-element"></div>
|
329 |
-
<div class="floating-element"></div>
|
330 |
-
<div class="container">
|
331 |
-
<div class="hero">
|
332 |
-
<h1>Vera v0.2</h1>
|
333 |
-
<p class="hero-subtitle">Modèle de Langage Multilingue Nouvelle Génération</p>
|
334 |
-
<div class="info-grid">
|
335 |
-
<div class="info-card">
|
336 |
-
<h3>Créé le</h3>
|
337 |
-
<p>7 mai 2025</p>
|
338 |
-
</div>
|
339 |
-
<div class="info-card">
|
340 |
-
<h3>Auteur</h3>
|
341 |
-
<p>Dorian Dominici</p>
|
342 |
-
</div>
|
343 |
-
<div class="info-card">
|
344 |
-
<h3>Paramètres</h3>
|
345 |
-
<p>8 milliards</p>
|
346 |
-
</div>
|
347 |
-
<div class="info-card">
|
348 |
-
<h3>Contexte max.</h3>
|
349 |
-
<p>128 000 tokens</p>
|
350 |
-
</div>
|
351 |
-
</div>
|
352 |
-
</div>
|
353 |
-
<div class="section">
|
354 |
-
<h2>🌟 Description</h2>
|
355 |
-
<p>Vera est un modèle de langage polyvalent (LLM) multilingue, conçu pour offrir un <strong>échange naturel</strong> principalement en <strong>français</strong> et en <strong>anglais</strong>, avec un support secondaire pour l'<strong>espagnol</strong>, l'<strong>italien</strong>, l'<strong>allemand</strong> et le <strong>polonais</strong>. Grâce à ses 8 milliards de paramètres et à une fenêtre contextuelle considérablement étendue à 128k tokens, Vera excelle dans :</p>
|
356 |
-
<div class="features-grid">
|
357 |
-
<div class="feature-card">
|
358 |
-
<h3>💬 Conversation fluide et naturelle</h3>
|
359 |
-
</div>
|
360 |
-
<div class="feature-card">
|
361 |
-
<h3>🔄 Traduction précise et contextuelle</h3>
|
362 |
-
</div>
|
363 |
-
<div class="feature-card">
|
364 |
-
<h3>📝 Génération et correction de code avancées</h3>
|
365 |
-
</div>
|
366 |
-
<div class="feature-card">
|
367 |
-
<h3>🤖 Agents IA pour tâches complexes</h3>
|
368 |
-
</div>
|
369 |
-
<div class="feature-card">
|
370 |
-
<h3>📊 Analyse de documents volumineux</h3>
|
371 |
-
</div>
|
372 |
-
</div>
|
373 |
-
</div>
|
374 |
-
<div class="section">
|
375 |
-
<h2>🚀 Points forts</h2>
|
376 |
-
<div class="pros-cons-grid">
|
377 |
-
<div class="pros-card">
|
378 |
-
<h3>✨ Avantages</h3>
|
379 |
-
<ul>
|
380 |
-
<li><strong>Multilingue</strong> : Excellence en français et anglais, avec support solide pour l'espagnol, l'italien, l'allemand et le polonais.</li>
|
381 |
-
<li><strong>Contexte étendu</strong> : Fenêtre de 128k tokens idéale pour l'analyse de longs documents et scénarios d'agents IA complexes.</li>
|
382 |
-
<li><strong>Connaissance générale élevée</strong> : Base de connaissances étendue couvrant un large éventail de domaines académiques, culturels et pratiques.</li>
|
383 |
-
<li><strong>Polyvalence améliorée</strong> : Performances supérieures en chat, traduction, résumé, codage et raisonnement.</li>
|
384 |
-
<li><strong>Compétences techniques</strong> : Très bonnes aptitudes en programmation, analyse de données et rédaction technique.</li>
|
385 |
-
<li><strong>Accès open-source</strong> : Facilement déployable et intégrable via la plateforme Hugging Face.</li>
|
386 |
-
</ul>
|
387 |
-
</div>
|
388 |
-
<div class="cons-card">
|
389 |
-
<h3>🔧 Points d'amélioration</h3>
|
390 |
-
<ul>
|
391 |
-
<li><strong>Spécialisation</strong> : Bien que polyvalent, peut être moins performant que des modèles spécialisés pour certaines tâches très spécifiques.</li>
|
392 |
-
<li><strong>Taille modérée</strong> : Avec 8 milliards de paramètres, reste plus compact que les modèles géants (tout en offrant un excellent rapport performances/ressources).</li>
|
393 |
-
</ul>
|
394 |
-
</div>
|
395 |
-
</div>
|
396 |
-
</div>
|
397 |
-
<div class="section">
|
398 |
-
<h2>🛠️ Cas d'usage</h2>
|
399 |
-
<table class="use-case-table">
|
400 |
-
<thead>
|
401 |
-
<tr>
|
402 |
-
<th>Domaine</th>
|
403 |
-
<th>Exemples</th>
|
404 |
-
</tr>
|
405 |
-
</thead>
|
406 |
-
<tbody>
|
407 |
-
<tr>
|
408 |
-
<td><strong>Chatbot & Assistance</strong></td>
|
409 |
-
<td>Support client multilingue, systèmes conversationnels avancés</td>
|
410 |
-
</tr>
|
411 |
-
<tr>
|
412 |
-
<td><strong>Traduction</strong></td>
|
413 |
-
<td>Textes techniques, documentation spécialisée, littérature</td>
|
414 |
-
</tr>
|
415 |
-
<tr>
|
416 |
-
<td><strong>Développement logiciel</strong></td>
|
417 |
-
<td>Génération de code, débogage, documentation automatisée</td>
|
418 |
-
</tr>
|
419 |
-
<tr>
|
420 |
-
<td><strong>Rédaction & Analyse</strong></td>
|
421 |
-
<td>Articles, rapports, synthèses de documents volumineux</td>
|
422 |
-
</tr>
|
423 |
-
<tr>
|
424 |
-
<td><strong>Automatisation IA</strong></td>
|
425 |
-
<td>Agents conversationnels complexes, systèmes de RAG</td>
|
426 |
-
</tr>
|
427 |
-
<tr>
|
428 |
-
<td><strong>Éducation</strong></td>
|
429 |
-
<td>Tutoriels personnalisés, assistance à l'apprentissage</td>
|
430 |
-
</tr>
|
431 |
-
</tbody>
|
432 |
-
</table>
|
433 |
-
</div>
|
434 |
-
<div class="section">
|
435 |
-
<h2>🧪 Benchmark</h2>
|
436 |
-
<table class="benchmark-table">
|
437 |
-
<thead>
|
438 |
-
<tr>
|
439 |
-
<th>Benchmark</th>
|
440 |
-
<th>Vera v0.2</th>
|
441 |
-
<th>Llama 3 8B</th>
|
442 |
-
<th>Qwen 3 8B</th>
|
443 |
-
</tr>
|
444 |
-
</thead>
|
445 |
-
<tbody>
|
446 |
-
<tr>
|
447 |
-
<td><strong>ARC Challenge</strong></td>
|
448 |
-
<td>60.6%</td>
|
449 |
-
<td><span class="best-score">82.0%</span></td>
|
450 |
-
<td>61.7%</td>
|
451 |
-
</tr>
|
452 |
-
<tr>
|
453 |
-
<td><strong>HellaSwag</strong></td>
|
454 |
-
<td><span class="best-score">81.7%</span></td>
|
455 |
-
<td>80.4%</td>
|
456 |
-
<td>56.5%</td>
|
457 |
-
</tr>
|
458 |
-
<tr>
|
459 |
-
<td><strong>MMLU (global)</strong></td>
|
460 |
-
<td>68.1%</td>
|
461 |
-
<td>67.9%</td>
|
462 |
-
<td><span class="best-score">74.7%</span></td>
|
463 |
-
</tr>
|
464 |
-
</tbody>
|
465 |
-
</table>
|
466 |
-
</div>
|
467 |
-
<div class="section">
|
468 |
-
<h2>📦 Détails techniques</h2>
|
469 |
-
<div class="features-grid">
|
470 |
-
<div class="feature-card">
|
471 |
-
<h3>🏗️ Architecture</h3>
|
472 |
-
<p>Transformer optimisé</p>
|
473 |
-
</div>
|
474 |
-
<div class="feature-card">
|
475 |
-
<h3>📊 Taille du modèle</h3>
|
476 |
-
<p>8 milliards de paramètres</p>
|
477 |
-
</div>
|
478 |
-
<div class="feature-card">
|
479 |
-
<h3>🖼️ Context window</h3>
|
480 |
-
<p>128 000 tokens</p>
|
481 |
-
</div>
|
482 |
-
<div class="feature-card">
|
483 |
-
<h3>🌍 Langues principales</h3>
|
484 |
-
<p>Français, Anglais</p>
|
485 |
-
</div>
|
486 |
-
<div class="feature-card">
|
487 |
-
<h3>🗣️ Langues secondaires</h3>
|
488 |
-
<p>Espagnol, Italien, Allemand, Polonais</p>
|
489 |
-
</div>
|
490 |
-
<div class="feature-card">
|
491 |
-
<h3>📄 Licence</h3>
|
492 |
-
<p>Apache-2.0</p>
|
493 |
-
</div>
|
494 |
-
</div>
|
495 |
-
</div>
|
496 |
-
</div>
|
497 |
-
</body>
|
498 |
-
</html>
|
499 |
|
500 |
[_Cliquez ici télécharger le GGUF_](https://huggingface.co/Dorian2B/Vera-v0.2-GGUF)
|
|
|
36 |
<div style="font-family: Arial, sans-serif; font-size: 16px; color: rgba(255,255,255,0.7); font-style: italic; margin-top: 12px;">Solution d'intelligence artificielle nouvelle génération</div>
|
37 |
</div>
|
38 |
|
39 |
+
# Vera v0.2
|
40 |
|
41 |
+
**Créé le :** 7 mai 2025
|
42 |
+
**Auteur :** Dorian Dominici
|
43 |
+
**Paramètres :** 8 milliards
|
44 |
+
**Contexte max. :** 128 000 tokens
|
45 |
+
|
46 |
+
## 🌟 Description
|
47 |
+
|
48 |
+
Vera est un modèle de langage polyvalent (LLM) multilingue, conçu pour offrir un **échange naturel** principalement en **français** et en **anglais**, avec un support secondaire pour l'**espagnol**, l'**italien**, l'**allemand** et le **polonais**. Grâce à ses 8 milliards de paramètres et à une fenêtre contextuelle considérablement étendue à 128 k tokens, Vera excelle dans :
|
49 |
+
|
50 |
+
- 💬 **Conversation fluide et naturelle**
|
51 |
+
- 🔄 **Traduction précise et contextuelle**
|
52 |
+
- 📝 **Génération et correction de code avancées**
|
53 |
+
- 🤖 **Agents IA** pour tâches complexes
|
54 |
+
- 📊 **Analyse de documents volumineux**
|
55 |
+
|
56 |
+
---
|
57 |
+
|
58 |
+
## 🚀 Points forts
|
59 |
+
|
60 |
+
- **Multilingue** : Excellence en français et anglais, avec support solide pour l'espagnol, l'italien, l'allemand et le polonais.
|
61 |
+
- **Contexte étendu** : Fenêtre de 128k tokens idéale pour l'analyse de longs documents et scénarios d'agents IA complexes.
|
62 |
+
- **Connaissance générale élevée** : Base de connaissances étendue couvrant un large éventail de domaines académiques, culturels et pratiques.
|
63 |
+
- **Polyvalence améliorée** : Performances supérieures en chat, traduction, résumé, codage et raisonnement.
|
64 |
+
- **Compétences techniques** : Très bonnes aptitudes en programmation, analyse de données et rédaction technique.
|
65 |
+
- **Accès open-source** : Facilement déployable et intégrable via la plateforme Hugging Face.
|
66 |
+
|
67 |
+
---
|
68 |
+
|
69 |
+
## 🧱 Points d'amélioration
|
70 |
+
|
71 |
+
- **Spécialisation** : Bien que polyvalent, peut être moins performant que des modèles spécialisés pour certaines tâches très spécifiques.
|
72 |
+
- **Taille modérée** : Avec 8 milliards de paramètres, reste plus compact que les modèles géants (tout en offrant un excellent rapport performances/ressources).
|
73 |
+
|
74 |
+
---
|
75 |
+
|
76 |
+
## 🛠️ Cas d'usage
|
77 |
+
|
78 |
+
| Domaine | Exemples |
|
79 |
+
|------------------------|-------------------------------------------------|
|
80 |
+
| Chatbot & Assistance | Support client multilingue, systèmes conversationnels avancés |
|
81 |
+
| Traduction | Textes techniques, documentation spécialisée, littérature |
|
82 |
+
| Développement logiciel | Génération de code, débogage, documentation automatisée |
|
83 |
+
| Rédaction & Analyse | Articles, rapports, synthèses de documents volumineux |
|
84 |
+
| Automatisation IA | Agents conversationnels complexes, systèmes de RAG |
|
85 |
+
| Éducation | Tutoriels personnalisés, assistance à l'apprentissage |
|
86 |
+
|
87 |
+
---
|
88 |
+
|
89 |
+
## 🧪 BenchMark
|
90 |
+
|
91 |
+
| **Benchmark** | **Vera v0.2** | **Llama 3 8B** | **Qwen 3 8B** |
|
92 |
+
| ----------------- | ------------: | -------------: | ------------: |
|
93 |
+
| **ARC Challenge** | 60.6% | **82.0%** | 61.7% |
|
94 |
+
| **HellaSwag** | **81.7%** | 80.4% | 56.5% |
|
95 |
+
| **MMLU (global)** | 68.1% | 67.9% | **74.7%** |
|
96 |
+
|
97 |
+
|
98 |
+
|
99 |
+
|
100 |
+
## 📦 Détails techniques
|
101 |
+
|
102 |
+
- **Architecture** : Transformer optimisé
|
103 |
+
- **Taille du modèle** : 8 milliards de paramètres
|
104 |
+
- **Context window** : 128 000 tokens
|
105 |
+
- **Langues principales** : Français, Anglais
|
106 |
+
- **Langues secondaires** : Espagnol, Italien, Allemand, Polonais
|
107 |
+
- **Licence** : Apache-2.0
|
108 |
+
|
109 |
+
---
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
110 |
|
111 |
[_Cliquez ici télécharger le GGUF_](https://huggingface.co/Dorian2B/Vera-v0.2-GGUF)
|