hodza commited on
Commit
5b233aa
·
1 Parent(s): 2a611bd

First model version

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ *.gguf filter=lfs diff=lfs merge=lfs -text
Apache License MTS AI.docx ADDED
Binary file (22.9 kB). View file
 
Cotype-Nano-8bit.gguf ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:261b0c7caff96c4502242c7757a96a7c5b1a244244f443da3c76bb6b0512779f
3
+ size 1646572544
README.md CHANGED
@@ -1,3 +1,145 @@
1
  ---
2
- license: apache-2.0
 
 
 
 
 
 
 
3
  ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  ---
2
+ library_name: transformers
3
+ language:
4
+ - ru
5
+ - en
6
+ pipeline_tag: text-generation
7
+ license: other
8
+ license_name: apache-2.0
9
+ license_link: https://huggingface.co/MTSAIR/Cotype-Nano/blob/main/Apache%20License%20MTS%20AI.docx
10
  ---
11
+
12
+
13
+
14
+ # Cotype-Nano🤖
15
+
16
+ MTSAIR/Cotype-Nano – это легковесная LLM, разработанная для выполнения задач с минимальными ресурсами. Она оптимизирована для быстрого и эффективного взаимодействия с пользователями, обеспечивая высокую производительность даже в условиях ограниченных ресурсов.
17
+
18
+ Cotype Nano is a lightweight LLM, designed to perform tasks with minimal resources. It is optimized for fast and efficient interaction with users, providing high performance even under resource-constrained conditions.
19
+
20
+ ### Inference with vLLM
21
+ ```sh
22
+ python3 -m vllm.entrypoints.openai.api_server --model MTSAIR/Cotype-Nano --port 8000
23
+ ```
24
+
25
+ ### Recommended generation parameters and system prompt
26
+ ```python
27
+ import openai
28
+ import pandas as pd
29
+ from tqdm import tqdm
30
+ openai.api_key = 'xxx'
31
+ endpoint = 'http://localhost:8000/v1'
32
+ model = 'MTSAIR/Cotype-Nano'
33
+ openai.api_base = endpoint
34
+ # Possible system prompt:
35
+ # {"role": "system", "content": "Ты — ИИ-помощник. Тебе дано задание: необходимо сгенерировать подробный и развернутый ответ."},
36
+ response = openai.ChatCompletion.create(
37
+ model=model,
38
+ temperature=0.4, # 0.0 is also allowed
39
+ frequency_penalty=0.0,
40
+ max_tokens=2048,
41
+ top_p=0.8, # 0.1 is also allowed
42
+ messages=[
43
+ {"role": "user", "content": "Как мне обучить модель meta-llama/Llama-3.2-1B с помощью библиотеки transformers?"}
44
+ ]
45
+ )
46
+ answer = response["choices"][0]["message"]["content"]
47
+ print(answer)
48
+ ```
49
+
50
+ ### Inference with Huggingface
51
+ ```python
52
+ from transformers import pipeline
53
+ pipe = pipeline("text-generation", model="MTSAIR/Cotype-Nano", device="cuda")
54
+ messages = [
55
+ {"role": "system", "content": "Ты — ИИ-помощник. Тебе дано задание: необходимо сгенерировать подробный и развернутый ответ."},
56
+ {"role": "user", "content": "Расскажи мне про ИИ"},
57
+ ]
58
+ res = pipe(messages, max_length=1024)
59
+ print(res[0]['generated_text'][-1]['content'])
60
+ ```
61
+
62
+
63
+ ## Example request
64
+
65
+ **Request:** Напиши простой сервер на фастапи
66
+
67
+
68
+ #### Cotype-Nano response:
69
+ > Фастапи (FastAPI) — это современный фреймворк для создания веб-сервисов на языке Python, который использует асинхронный синтаксис и поддерживает генераторы. Он подходит для создания сложных веб-приложений и часто используется в сочетании с базой данных.
70
+ >
71
+ > Для создания простого сервера на фастапи, вам понадобится:
72
+ >
73
+ > 1. Установить фастапи и необходимые библиотеки.
74
+ > 2. Создать базовый класс `App` для настройки сервера.
75
+ > 3. Реализовать маршруты и обработчики для вашего веб-приложения.
76
+ >
77
+ > ### Шаг 1: Установка фастапи и необходимых библиотек
78
+ >
79
+ > Для начала установите фастапи и другие необходимые библиотеки, такие как `uvicorn` для запуска сервера:
80
+ >
81
+ > ```bash
82
+ > pip install fastapi uvicorn
83
+ > ```
84
+ >
85
+ > ### Шаг 2: Создание класса `App`
86
+ >
87
+ > Создайте класс `App`, который будет настраивать сервер:
88
+ >
89
+ > ```python
90
+ > from fastapi import FastAPI
91
+ >
92
+ > app = FastAPI()
93
+ > ```
94
+ >
95
+ > ### Шаг 3: Реализация маршрутов
96
+ >
97
+ > Добавьте маршруты и обработчики для вашего веб-приложения. Например, создадим простой endpoint для ответа на GET-запросы:
98
+ >
99
+ > ```python
100
+ > @app.get("/")
101
+ > async def read_root():
102
+ > return {"message": "Hello, FastAPI!"}
103
+ > ```
104
+ >
105
+ > ### Шаг 4: Запуск сервера
106
+ >
107
+ > Используйте `uvicorn` для запуска сервера:
108
+ >
109
+ > ```bash
110
+ > uvicorn main:app --reload
111
+ > ```
112
+ >
113
+ > Здесь `main` — это имя файла с вашим кодом, а `app` — это экземпляр класса `App`, который вы создали ранее.
114
+ >
115
+ >`--reload` указывает `uvicorn` перезагружать сервер при изменении кода.
116
+ >
117
+ > Теперь, когда вы запустите сервер, он будет доступен по адресу `http://127.0.0.1:8000`. Вы можете отправить GET-запрос на `/` и увидеть ответ:
118
+ >
119
+ > ```
120
+ > {
121
+ > "message": "Hello, FastAPI!"
122
+ > }
123
+ > ```
124
+ >
125
+ > Это базовый пример того, как можно создать простой сервер на фастапи. Вы можете расширять и модифицировать его, добавляя новые маршруты, обработчики и функциональность в соответствии с вашими требованиями.
126
+ ### Training process
127
+ The model was trained in two stages. In the first stage, MLP layers were trained on mathematics and code. In the second stage, the entire model was trained on internal and open synthetic instructional datasets.
128
+ ### ru-llm-arena: **30.2** (local measurement)
129
+ | Model | Score | 95% CI | Avg. #Tokens |
130
+ |---------------------------------------------|-------|-------------------------|---------------|
131
+ | **Cotype-Nano** | **30.2** | **+2.2 / -1.3** | **542** |
132
+ | vikhr-it-5.3-fp16-32k | 27.8 | +1.5 / -2.1 | 519.71 |
133
+ | vikhr-it-5.3-fp16 | 22.73 | +1.8 / -1.7 | 523.45 |
134
+ | **Cotype-Nano-4bit** | **22.5** | **+2.1 / -1.4** | **582** |
135
+ | kolibri-vikhr-mistral-0427 | 22.41 | +1.6 / -1.9 | 489.89 |
136
+ | snorkel-mistral-pairrm-dpo | 22.41 | +1.7 / -1.6 | 773.8 |
137
+ | storm-7b | 20.62 | +1.4 / -1.6 | 419.32 |
138
+ | neural-chat-7b-v3-3 | 19.04 | +1.8 / -1.5 | 927.21 |
139
+ | Vikhrmodels-Vikhr-Llama-3.2-1B-instruct | 19.04 | +1.2 / -1.5 | 958.63 |
140
+ | gigachat_lite | 17.2 | +1.5 / -1.5 | 276.81 |
141
+ | Vikhrmodels-Vikhr-Qwen-2.5-0.5b-Instruct | 16.5 | +1.5 / -1.7 | 583.5 |
142
+ | Qwen-Qwen2.5-1.5B-Instruct | 16.46 | +1.3 / -1.3 | 483.67 |
143
+ | Vikhrmodels-vikhr-qwen-1.5b-it | 13.19 | +1.3 / -1.1 | 2495.38 |
144
+ | meta-llama-Llama-3.2-1B-Instruct | 4.04 | +0.6 / -0.8 | 1240.53 |
145
+ | Qwen-Qwen2.5-0.5B-Instruct | 4.02 | +0.7 / -0.8 | 829.87 |
config.json ADDED
@@ -0,0 +1,29 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "",
3
+ "architectures": [
4
+ "Qwen2ForCausalLM"
5
+ ],
6
+ "attention_dropout": 0.0,
7
+ "bos_token_id": 151643,
8
+ "eos_token_id": 151645,
9
+ "hidden_act": "silu",
10
+ "hidden_size": 1536,
11
+ "initializer_range": 0.02,
12
+ "intermediate_size": 8960,
13
+ "max_position_embeddings": 32768,
14
+ "max_window_layers": 21,
15
+ "model_type": "qwen2",
16
+ "num_attention_heads": 12,
17
+ "num_hidden_layers": 28,
18
+ "num_key_value_heads": 2,
19
+ "rms_norm_eps": 1e-06,
20
+ "rope_scaling": null,
21
+ "rope_theta": 1000000.0,
22
+ "sliding_window": null,
23
+ "tie_word_embeddings": true,
24
+ "torch_dtype": "bfloat16",
25
+ "transformers_version": "4.46.2",
26
+ "use_cache": true,
27
+ "use_sliding_window": false,
28
+ "vocab_size": 151936
29
+ }
generation_config.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token_id": 151643,
3
+ "do_sample": true,
4
+ "eos_token_id": [
5
+ 151645,
6
+ 151643
7
+ ],
8
+ "pad_token_id": 151643,
9
+ "repetition_penalty": 1.1,
10
+ "temperature": 0.2,
11
+ "top_k": 20,
12
+ "top_p": 0.9,
13
+ "transformers_version": "4.46.2"
14
+ }