Lil-R commited on
Commit
55a1ed0
·
verified ·
1 Parent(s): 2fb7214

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +6 -7
README.md CHANGED
@@ -3,10 +3,13 @@ license: apache-2.0
3
  ---
4
 
5
  readme_content = """
6
- # 2_PRYMMAL-ECE-2B-SLERP-V1-finetuned
7
 
 
 
 
8
  ## Description
9
- Ce modèle, **2_PRYMMAL-ECE-2B-SLERP-V1-finetuned**, est un modèle de langage pré-entraîné et affiné (fine-tuned) pour des tâches spécifiques en compréhension et génération de texte. Il a été optimisé pour fonctionner efficacement sur des données textuelles complexes, telles que des questions-réponses et des descriptions détaillées.
10
 
11
  ## Détails du modèle
12
  - **Architecture** : Basé sur [Base Model Architecture] (remplace par le nom de l'architecture si applicable, ex. Llama, GPT, etc.).
@@ -30,7 +33,7 @@ Pour utiliser ce modèle dans un projet Python avec Hugging Face :
30
  ```python
31
  from transformers import AutoModelForCausalLM, AutoTokenizer
32
 
33
- model_name = "Lil-R/2_PRYMMAL-ECE-2B-SLERP-V1-finetuned"
34
 
35
  # Charger le modèle et le tokenizer
36
  tokenizer = AutoTokenizer.from_pretrained(model_name)
@@ -53,7 +56,3 @@ Le modèle peut être téléchargé directement depuis Hugging Face.
53
  ## Licence
54
  Ce modèle est distribué sous une licence ouverte.
55
  "Apache 2.0"
56
-
57
- This model has been produced by:
58
- - **LALAIN Youri**, engineering student at French Engineering School ECE
59
- - **RAGE LILIAN**, engineering student at French Engineering School ECE
 
3
  ---
4
 
5
  readme_content = """
6
+ # 2_PRYMMAL-ECE-2B-SLERP-V2-finetuned
7
 
8
+ This model has been produced by:
9
+ - **LALAIN Youri**, engineering student at French Engineering School ECE
10
+ - **RAGE LILIAN**, engineering student at French Engineering School ECE
11
  ## Description
12
+ Ce modèle, **2_PRYMMAL-ECE-2B-SLERP-V2-finetuned**, est un modèle de langage pré-entraîné et affiné (fine-tuned) pour des tâches spécifiques en compréhension et génération de texte. Il a été optimisé pour fonctionner efficacement sur des données textuelles complexes, telles que des questions-réponses et des descriptions détaillées.
13
 
14
  ## Détails du modèle
15
  - **Architecture** : Basé sur [Base Model Architecture] (remplace par le nom de l'architecture si applicable, ex. Llama, GPT, etc.).
 
33
  ```python
34
  from transformers import AutoModelForCausalLM, AutoTokenizer
35
 
36
+ model_name = "Lil-R/2_PRYMMAL-ECE-2B-SLERP-V2-finetuned"
37
 
38
  # Charger le modèle et le tokenizer
39
  tokenizer = AutoTokenizer.from_pretrained(model_name)
 
56
  ## Licence
57
  Ce modèle est distribué sous une licence ouverte.
58
  "Apache 2.0"