license: GLM-4 | |
license_name: glm-4-9b | |
license_link: LICENSE | |
pipeline_tag: text-generation | |
tags: | |
- chatglm | |
- gptq | |
- int4 | |
- 量化修复 | |
- vLLM | |
# GLM-4-9B-Chat-GPTQ-Int4-量化修复 | |
原模型 [ZhipuAI/glm-4-9b-chat](https://www.modelscope.cn/models/ZhipuAI/glm-4-9b-chat) | |
### 【模型更新日期】 | |
``` 2024-06-05 21:00 ``` | |
### 【模型大小】 | |
`6.5GB` | |
### 【06-05 临时情况告知】 | |
1. 目前需要用vllm entrypoint的方式来启动模型。 | |
2. 如果出现感叹号,请留言告知,并告知显卡型号。 | |
### 【更新日志】 | |
``` | |
2004-06-05 21:00 | |
1. 尝试修复!!!感叹号吐字问题。 | |
2. group_size 调整为64,减少量化精度损失。 | |
``` | |
### 【介绍】 | |
GLM-4-9B 是智谱 AI 推出的最新一代预训练模型 GLM-4 系列中的开源版本。 在语义、数学、推理、代码和知识等多方面的数据集测评中,GLM-4-9B 及其人类偏好对齐的版本 GLM-4-9B-Chat 均表现出较高的性能。 除了能进行多轮对话,GLM-4-9B-Chat 还具备网页浏览、代码执行、自定义工具调用(Function Call)和长文本推理(支持最大 128K 上下文)等高级功能。 本代模型增加了多语言支持,支持包括日语,韩语,德语在内的 26 种语言。我们还推出了支持 1M 上下文长度(约 200 万中文字符)的模型。 | |
[更多详情...](https://www.modelscope.cn/models/ZhipuAI/glm-4-9b-chat/summary) | |
### 【量化修复】 | |
调优了现有 `AWQ` 与 `GPTQ` 量化算法的量化策略。带有`量化修复`标签的`Int3`模型,可以比肩默认`AWQ`与`GPTQ`算法的`Int8`模型的能力。 | |
1. 量化修复可以极大减少模型的`1.乱吐字`、`2.无限循环`、`3.长文能力丢失`等量化损失造成的模型不可用的情况。 | |
2. 调优后的量化模型,`AWQ`与`GPTQ`模型在能力上没有表现出明显区别。同时考虑到`GPTQ`的`vLLM`引擎的并发推理效率最好,所以不再制作`AWQ`模型。 | |
3. 待工作完成后补充... | |
### 【同期量化修复模型】 | |
待工作完成后补充... | |
### 【模型下载】 | |
```python | |
from modelscope import snapshot_download | |
model_dir = snapshot_download('tclf90/模型名', cache_dir="本地路径") | |
``` | |
### 【[vLLM](https://github.com/vllm-project/vllm)推理(目前仅限Linux)】 | |
#### 1. Python 简易调试 | |
待工作完成后补充... | |
#### 2. 类ChatGPT RESTFul API Server | |
``` | |
>>> python -m vllm.entrypoints.openai.api_server --model 本地路径/tclf90/模型名称 | |
``` | |