Update README.md
Browse files
README.md
CHANGED
@@ -8,20 +8,20 @@ language:
|
|
8 |
---
|
9 |
# GigaChat-20B-A3B-instruct GGUF
|
10 |
|
11 |
-
|
12 |
|
|
|
13 |
|
14 |
-
|
|
|
|
|
|
|
15 |
|
16 |
-
```
|
17 |
-
./bin/llama-simple-chat -m /path/to/downloaded/GigaChat-20B-A3B-instruct_f16.gguf
|
18 |
-
```
|
19 |
|
20 |
-
|
21 |
-
- llama-cpp-python (PR нет, ожидаем в 0.3.6)
|
22 |
-
- ollama ([PR](https://github.com/ollama/ollama/pull/8142), ожидаем в 0.5.5)
|
23 |
|
24 |
-
|
25 |
|
26 |
-
|
|
|
27 |
|
|
|
8 |
---
|
9 |
# GigaChat-20B-A3B-instruct GGUF
|
10 |
|
11 |
+
Диалоговая модель из семейства моделей GigaChat, основная на [ai-sage/GigaChat-20B-A3B-instruct](https://huggingface.co/ai-sage/GigaChat-20B-A3B-instruct). Поддерживает контекст в 131 тысячу токенов.
|
12 |
|
13 |
+
Больше подробностей в [хабр статье](https://habr.com/en/companies/sberdevices/articles/865996/) и в карточке оригинальной instruct модели.
|
14 |
|
15 |
+
**Добавление поддержки модели в:**
|
16 |
+
- llama-cpp-python (>=0.3.6)
|
17 |
+
- ollama (>=0.5.5)
|
18 |
+
- lm studio (>=0.3.6)
|
19 |
|
|
|
|
|
|
|
20 |
|
21 |
+
### llama cpp
|
|
|
|
|
22 |
|
23 |
+
**Модель рекомендуется запускать в режиме чата для автоматической поддержки chat template:**
|
24 |
|
25 |
+
```
|
26 |
+
./bin/llama-simple-chat -m /path/to/downloaded/GigaChat-20B-A3B-instruct_v1.5_bf16.gguf
|
27 |
|