File size: 5,650 Bytes
aef2916 b0cef59 2929d31 aef2916 484d958 aef2916 5bef02f d5c0d0b 5bef02f 31d992a b4a9a47 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 |
---
license: apache-2.0
language:
- fr
- en
- es
- it
- pl
- de
pipeline_tag: text-generation
tags:
- LLM
- General
- Instruct
- llama-cpp
- 8B
---
<div style="background: linear-gradient(135deg, #2d0a3e, #701f6e, #b83150); border-radius: 16px; padding: 30px; margin: 20px auto; box-shadow: 0 10px 30px rgba(0,0,0,0.3); text-align: center; max-width: 500px;">
<!-- Logo content -->
<div style="display: flex; align-items: center; justify-content: center; margin-bottom: 15px;">
<!-- Logo icon -->
<div style="width: 60px; height: 60px; background: linear-gradient(135deg, #ff8a00, #e52e71); border-radius: 12px; display: flex; align-items: center; justify-content: center; margin-right: 20px; box-shadow: 0 5px 15px rgba(229, 46, 113, 0.3);">
<span style="font-family: Arial, sans-serif; font-weight: 900; font-size: 32px; color: white; text-shadow: 0 1px 3px rgba(0,0,0,0.3);">V</span>
</div>
<!-- Logo text -->
<div style="text-align: left; position: relative;">
<div style="font-family: Arial, sans-serif; font-size: 48px; font-weight: 900; color: #ff8a00; background: linear-gradient(to right, #ff8a00, #ff5895, #cd5ff8); -webkit-background-clip: text; -webkit-text-fill-color: transparent; margin: 0; line-height: 1; letter-spacing: 1px;">VERA</div>
<div style="font-family: Arial, sans-serif; font-size: 14px; font-weight: 500; color: #fff; background: linear-gradient(135deg, #ff8a00, #e52e71); padding: 2px 8px; border-radius: 12px; position: absolute; top: 5px; right: -40px; box-shadow: 0 3px 8px rgba(229, 46, 113, 0.3);">v0.2</div>
<div style="font-family: Arial, sans-serif; font-size: 18px; font-weight: 300; color: rgba(255,255,255,0.8); letter-spacing: 3px; text-transform: uppercase; margin: 0;">INTELLIGENCE</div>
</div>
</div>
<!-- Divider -->
<div style="width: 100%; height: 1px; background: linear-gradient(to right, transparent, rgba(255,255,255,0.5), transparent); margin: 15px auto;"></div>
<!-- Subtitle -->
<div style="font-family: Arial, sans-serif; font-size: 16px; color: rgba(255,255,255,0.7); font-style: italic; margin-top: 12px;">Solution d'intelligence artificielle nouvelle génération</div>
</div>
# Vera v0.2
**Créé le :** 7 mai 2025
**Auteur :** Dorian Dominici
**Paramètres :** 8 milliards
**Contexte max. :** 128 000 tokens
## 🌟 Description
Vera est un modèle de langage polyvalent (LLM) multilingue, conçu pour offrir un **échange naturel** principalement en **français** et en **anglais**, avec un support secondaire pour l'**espagnol**, l'**italien**, l'**allemand** et le **polonais**. Grâce à ses 8 milliards de paramètres et à une fenêtre contextuelle considérablement étendue à 128 k tokens, Vera excelle dans :
- 💬 **Conversation fluide et naturelle**
- 🔄 **Traduction précise et contextuelle**
- 📝 **Génération et correction de code avancées**
- 🤖 **Agents IA** pour tâches complexes
- 📊 **Analyse de documents volumineux**
---
## 🚀 Points forts
- **Multilingue** : Excellence en français et anglais, avec support solide pour l'espagnol, l'italien, l'allemand et le polonais.
- **Contexte étendu** : Fenêtre de 128k tokens idéale pour l'analyse de longs documents et scénarios d'agents IA complexes.
- **Connaissance générale élevée** : Base de connaissances étendue couvrant un large éventail de domaines académiques, culturels et pratiques.
- **Polyvalence améliorée** : Performances supérieures en chat, traduction, résumé, codage et raisonnement.
- **Compétences techniques** : Très bonnes aptitudes en programmation, analyse de données et rédaction technique.
- **Accès open-source** : Facilement déployable et intégrable via la plateforme Hugging Face.
---
## 🧱 Points d'amélioration
- **Spécialisation** : Bien que polyvalent, peut être moins performant que des modèles spécialisés pour certaines tâches très spécifiques.
- **Taille modérée** : Avec 8 milliards de paramètres, reste plus compact que les modèles géants (tout en offrant un excellent rapport performances/ressources).
---
## 🛠️ Cas d'usage
| Domaine | Exemples |
|------------------------|-------------------------------------------------|
| Chatbot & Assistance | Support client multilingue, systèmes conversationnels avancés |
| Traduction | Textes techniques, documentation spécialisée, littérature |
| Développement logiciel | Génération de code, débogage, documentation automatisée |
| Rédaction & Analyse | Articles, rapports, synthèses de documents volumineux |
| Automatisation IA | Agents conversationnels complexes, systèmes de RAG |
| Éducation | Tutoriels personnalisés, assistance à l'apprentissage |
---
## 🧪 BenchMark
| **Benchmark** | **Vera v0.2** | **Llama 3 8B** | **Qwen 3 8B** |
| ----------------- | ------------: | -------------: | ------------: |
| **ARC Challenge** | 60.6% | **82.0%** | 61.7% |
| **HellaSwag** | **81.7%** | 80.4% | 56.5% |
| **MMLU (global)** | 68.1% | 67.9% | **74.7%** |
## 📦 Détails techniques
- **Architecture** : Transformer optimisé
- **Taille du modèle** : 8 milliards de paramètres
- **Context window** : 128 000 tokens
- **Langues principales** : Français, Anglais
- **Langues secondaires** : Espagnol, Italien, Allemand, Polonais
- **Licence** : Apache-2.0
---
[_Cliquez ici télécharger le GGUF_](https://huggingface.co/Dorian2B/Vera-v0.2-GGUF) |