Delete README.md
Browse files
README.md
DELETED
@@ -1,257 +0,0 @@
|
|
1 |
-
# 基于本地知识库的 ChatGLM 等大语言模型应用实现
|
2 |
-
|
3 |
-
## 介绍
|
4 |
-
|
5 |
-
🌍 [_READ THIS IN ENGLISH_](README_en.md)
|
6 |
-
|
7 |
-
🤖️ 一种利用 [langchain](https://github.com/hwchase17/langchain) 思想实现的基于本地知识库的问答应用,目标期望建立一套对中文场景与开源模型支持友好、可离线运行的知识库问答解决方案。
|
8 |
-
|
9 |
-
💡 受 [GanymedeNil](https://github.com/GanymedeNil) 的项目 [document.ai](https://github.com/GanymedeNil/document.ai) 和 [AlexZhangji](https://github.com/AlexZhangji) 创建的 [ChatGLM-6B Pull Request](https://github.com/THUDM/ChatGLM-6B/pull/216) 启发,建立了全流程可使用开源模型实现的本地知识库问答应用。现已支持使用 [ChatGLM-6B](https://github.com/THUDM/ChatGLM-6B) 等大语言模型直接接入,或通过 [fastchat](https://github.com/lm-sys/FastChat) api 形式接入 Vicuna, Alpaca, LLaMA, Koala, RWKV 等模型。
|
10 |
-
|
11 |
-
✅ 本项目中 Embedding 默认选用的是 [GanymedeNil/text2vec-large-chinese](https://huggingface.co/GanymedeNil/text2vec-large-chinese/tree/main),LLM 默认选用的是 [ChatGLM-6B](https://github.com/THUDM/ChatGLM-6B)。依托上述模型,本项目可实现全部使用**开源**模型**离线私有部署**。
|
12 |
-
|
13 |
-
⛓️ 本项目实现原理如下图所示,过程包括加载文件 -> 读取文本 -> 文本分割 -> 文本向量化 -> 问句向量化 -> 在文本向量中匹配出与问句向量最相似的`top k`个 -> 匹配出的文本作为上下文和问题一起添加到`prompt`中 -> 提交给`LLM`生成回答。
|
14 |
-
|
15 |
-
📺 [原理介绍视频](https://www.bilibili.com/video/BV13M4y1e7cN/?share_source=copy_web&vd_source=e6c5aafe684f30fbe41925d61ca6d514)
|
16 |
-
|
17 |
-

|
18 |
-
|
19 |
-
从文档处理角度来看,实现流程如下:
|
20 |
-
|
21 |
-

|
22 |
-
|
23 |
-
|
24 |
-
🚩 本项目未涉及微调、训练过程,但可利用微调或训练对本项目效果进行优化。
|
25 |
-
|
26 |
-
🐳 Docker镜像:registry.cn-beijing.aliyuncs.com/isafetech/chatmydata:1.0 (感谢 @InkSong🌲 )
|
27 |
-
|
28 |
-
💻 运行方式:docker run -d -p 80:7860 --gpus all registry.cn-beijing.aliyuncs.com/isafetech/chatmydata:1.0
|
29 |
-
|
30 |
-
🌐 [AutoDL 镜像](https://www.codewithgpu.com/i/imClumsyPanda/langchain-ChatGLM/langchain-ChatGLM)
|
31 |
-
|
32 |
-
📓 [ModelWhale 在线运行项目](https://www.heywhale.com/mw/project/643977aa446c45f4592a1e59)
|
33 |
-
|
34 |
-
## 变更日志
|
35 |
-
|
36 |
-
参见 [版本更新日志](https://github.com/imClumsyPanda/langchain-ChatGLM/releases)。
|
37 |
-
|
38 |
-
## 硬件需求
|
39 |
-
|
40 |
-
- ChatGLM-6B 模型硬件需求
|
41 |
-
|
42 |
-
注:如未将模型下载至本地,请执行前检查`$HOME/.cache/huggingface/`文件夹剩余空间,模型文件下载至本地需要 15 GB 存储空间。
|
43 |
-
注:一些其它的可选启动项见[项目启动选项](docs/StartOption.md)
|
44 |
-
模型下载方法可参考 [常见问题](docs/FAQ.md) 中 Q8。
|
45 |
-
|
46 |
-
| **量化等级** | **最低 GPU 显存**(推理) | **最低 GPU 显存**(高效参数微调) |
|
47 |
-
| -------------- | ------------------------- | --------------------------------- |
|
48 |
-
| FP16(无量化) | 13 GB | 14 GB |
|
49 |
-
| INT8 | 8 GB | 9 GB |
|
50 |
-
| INT4 | 6 GB | 7 GB |
|
51 |
-
|
52 |
-
- MOSS 模型硬件需求
|
53 |
-
|
54 |
-
注:如未将模型下载至本地,请执行前检查`$HOME/.cache/huggingface/`文件夹剩余空间,模型文件下载至本地需要 70 GB 存储空间
|
55 |
-
|
56 |
-
模型下载方法可参考 [常见问题](docs/FAQ.md) 中 Q8。
|
57 |
-
|
58 |
-
| **量化等级** | **最低 GPU 显存**(推理) | **最低 GPU 显存**(高效参数微调) |
|
59 |
-
|-------------------|-----------------------| --------------------------------- |
|
60 |
-
| FP16(无量化) | 68 GB | - |
|
61 |
-
| INT8 | 20 GB | - |
|
62 |
-
|
63 |
-
- Embedding 模型硬件需求
|
64 |
-
|
65 |
-
本项目中默认选用的 Embedding 模型 [GanymedeNil/text2vec-large-chinese](https://huggingface.co/GanymedeNil/text2vec-large-chinese/tree/main) 约占用显存 3GB,也可修改为在 CPU 中运行。
|
66 |
-
|
67 |
-
## Docker 整合包
|
68 |
-
🐳 Docker镜像地址:`registry.cn-beijing.aliyuncs.com/isafetech/chatmydata:1.0 `🌲
|
69 |
-
|
70 |
-
💻 一行命令运行:
|
71 |
-
```shell
|
72 |
-
docker run -d -p 80:7860 --gpus all registry.cn-beijing.aliyuncs.com/isafetech/chatmydata:1.0
|
73 |
-
```
|
74 |
-
|
75 |
-
- 该版本镜像大小`25.2G`,使用[v0.1.16](https://github.com/imClumsyPanda/langchain-ChatGLM/releases/tag/v0.1.16),以`nvidia/cuda:12.1.1-cudnn8-runtime-ubuntu22.04`为基础镜像
|
76 |
-
- 该版本内置两个`embedding`模型:`m3e-base`,`text2vec-large-chinese`,内置`fastchat+chatglm-6b`
|
77 |
-
- 该版本目标为方便一键部署使用,请确保您已经在Linux发行版上安装了NVIDIA驱动程序
|
78 |
-
- 请注意,您不需要在主机系统上安装CUDA工具包,但需要安装`NVIDIA Driver`以及`NVIDIA Container Toolkit`,请参考[安装指南](https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html)
|
79 |
-
- 首次拉取和启动均需要一定时间,首次启动时请参照下图使用`docker logs -f <container id>`查看日志
|
80 |
-
- 如遇到启动过程卡在`Waiting..`步骤,建议使用`docker exec -it <container id> bash`进入`/logs/`目录查看对应阶段日志
|
81 |
-

|
82 |
-
|
83 |
-
|
84 |
-
## Docker 部署
|
85 |
-
为了能让容器使用主机GPU资源,需要在主机上安装 [NVIDIA Container Toolkit](https://github.com/NVIDIA/nvidia-container-toolkit)。具体安装步骤如下:
|
86 |
-
```shell
|
87 |
-
sudo apt-get update
|
88 |
-
sudo apt-get install -y nvidia-container-toolkit-base
|
89 |
-
sudo systemctl daemon-reload
|
90 |
-
sudo systemctl restart docker
|
91 |
-
```
|
92 |
-
安装完成后,可以使用以下命令编译镜像和启动容器:
|
93 |
-
```
|
94 |
-
docker build -f Dockerfile-cuda -t chatglm-cuda:latest .
|
95 |
-
docker run --gpus all -d --name chatglm -p 7860:7860 chatglm-cuda:latest
|
96 |
-
|
97 |
-
#若要使用离线模型,请配置好模型路径,然后此repo挂载到Container
|
98 |
-
docker run --gpus all -d --name chatglm -p 7860:7860 -v ~/github/langchain-ChatGLM:/chatGLM chatglm-cuda:latest
|
99 |
-
```
|
100 |
-
|
101 |
-
|
102 |
-
## 开发部署
|
103 |
-
|
104 |
-
### 软件需求
|
105 |
-
|
106 |
-
本项目已在 Python 3.8.1 - 3.10,CUDA 11.7 环境下完成测试。已在 Windows、ARM 架构的 macOS、Linux 系统中完成测试。
|
107 |
-
|
108 |
-
vue前端需要node18环境
|
109 |
-
|
110 |
-
### 从本地加载模型
|
111 |
-
|
112 |
-
请参考 [THUDM/ChatGLM-6B#从本地加载模型](https://github.com/THUDM/ChatGLM-6B#从本地加载模型)
|
113 |
-
|
114 |
-
### 1. 安装环境
|
115 |
-
|
116 |
-
参见 [安装指南](docs/INSTALL.md)。
|
117 |
-
|
118 |
-
### 2. 设置模型默认参数
|
119 |
-
|
120 |
-
在开始执行 Web UI 或命令行交互前,请先检查 [configs/model_config.py](configs/model_config.py) 中的各项模型参数设计是否符合需求。
|
121 |
-
|
122 |
-
如需通过 fastchat 以 api 形式调用 llm,请参考 [fastchat 调用实现](docs/fastchat.md)
|
123 |
-
|
124 |
-
### 3. 执行脚本体验 Web UI 或命令行交互
|
125 |
-
|
126 |
-
> 注:鉴于环境部署过程中可能遇到问题,建议首先测试命令行脚本。建议命令行脚本测试可正常运行后再运行 Web UI。
|
127 |
-
|
128 |
-
执行 [cli_demo.py](cli_demo.py) 脚本体验**命令行交互**:
|
129 |
-
```shell
|
130 |
-
$ python cli_demo.py
|
131 |
-
```
|
132 |
-
|
133 |
-
或执行 [webui.py](webui.py) 脚本体验 **Web 交互**
|
134 |
-
|
135 |
-
```shell
|
136 |
-
$ python webui.py
|
137 |
-
```
|
138 |
-
|
139 |
-
或执行 [api.py](api.py) 利用 fastapi 部署 API
|
140 |
-
```shell
|
141 |
-
$ python api.py
|
142 |
-
```
|
143 |
-
或成功部署 API 后,执行以下脚本体验基于 VUE 的前端页面
|
144 |
-
```shell
|
145 |
-
$ cd views
|
146 |
-
|
147 |
-
$ pnpm i
|
148 |
-
|
149 |
-
$ npm run dev
|
150 |
-
```
|
151 |
-
|
152 |
-
VUE 前端界面如下图所示:
|
153 |
-
1. `对话` 界面
|
154 |
-

|
155 |
-
2. `知识库问答` 界面
|
156 |
-

|
157 |
-
3. `Bing搜索` 界面
|
158 |
-

|
159 |
-
|
160 |
-
WebUI 界面如下图所示:
|
161 |
-
1. `对话` Tab 界面
|
162 |
-

|
163 |
-
2. `知识库测试 Beta` Tab 界面
|
164 |
-

|
165 |
-
3. `模型配置` Tab 界面
|
166 |
-

|
167 |
-
|
168 |
-
Web UI 可以实现如下功能:
|
169 |
-
|
170 |
-
1. 运行前自动读取`configs/model_config.py`中`LLM`及`Embedding`模型枚举及默认模型设置运行模型,如需重新加载模型,可在 `模型配置` Tab 重新选择后点击 `重新加载模型` 进行模型加载;
|
171 |
-
2. 可手动调节保留对话历史长度、匹配知识库文段数量,可根据显存大小自行调节;
|
172 |
-
3. `对话` Tab 具备模式选择功能,可选择 `LLM对话` 与 `知识库问答` 模式进行对话,支持流式对话;
|
173 |
-
4. 添加 `配置知识库` 功能,支持选择已有知识库或新建知识库,并可向知识库中**新增**上传文件/文件夹,使用文件上传组件选择好文件后点击 `上传文件并加载知识库`,会将所选上传文档数据加载至知识库中,并基于更新后知识库进行问答;
|
174 |
-
5. 新增 `知识库测试 Beta` Tab,可用于测试不同文本切分方法与检索相关度阈值设置,暂不支持将测试参数作为 `对话` Tab 设置参数。
|
175 |
-
6. 后续版本中将会增加对知识库的修改或删除,及知识库中已导入文件的查看。
|
176 |
-
|
177 |
-
### 常见问题
|
178 |
-
|
179 |
-
参见 [常见问题](docs/FAQ.md)。
|
180 |
-
|
181 |
-
## Demo
|
182 |
-
|
183 |
-
以问题`chatglm-6b 的局限性具体体现在哪里,如何实现改进`为例:
|
184 |
-
|
185 |
-
未使用 langchain 接入本地文档时:
|
186 |
-
|
187 |
-
>ChatGLM-6B 是一个基于 GPT-3 的聊天机器人,它的局限性主要体现在以下几个方面:
|
188 |
-
>1. 语言模型的精度:GPT-3 是一种大型的语言模型,它的精度比较高,但是仍然有一些局限性。例如,它可能无法准确地理解某些方言、口音或者复杂的句子结构。
|
189 |
-
>2. 知识图谱的完整性:GPT-3 可以生成一些知识图谱,但是其完整性和准确性可能不够。例如,它可能无法准确地理解某些领域的专业知识和术语。
|
190 |
-
>3. 对话生成的连贯性:GPT-3 可以生成一些连贯的对话,但是其生成的对话可能不够自然。例如,它可能会生成一些虚假的、不连贯的对话或者误解用户的意图。
|
191 |
-
>
|
192 |
-
>为了改进 ChatGLM-6B,可以考虑以下几个方面:
|
193 |
-
>1. 提高语言模型的精度:可以通过增加训练数据、使用更好的语言模型架构、优化模型训练过程等方式来提高语言模型的精度。
|
194 |
-
>2. 增强知识图谱的完整性:可以通过增加知识图谱的维度、使用更好的知识图谱构建方法、优化知识图谱的匹配算法等方式来增强知识图谱的完整性。
|
195 |
-
>3. 提高对话生成的连贯性:可以通过增加对话生成模型的上下文信息、使用更好的上下文信息提取方法、优化对话生成模型的算法等方式来提高对话生成的连贯性。
|
196 |
-
>4. 引入更多的人类反馈:人类反馈可以帮助 ChatGLM-6B 更好地理解用户的意图和需求,从而提高对话生成的质量和准确性。可以通过引入更多的人类客服、使用人类反馈收集器等方式来引入更多的人类反馈。
|
197 |
-
|
198 |
-
使用 langchain 接入 ChatGLM-6B 项目的 README.md 文件后 ChatGLM 的回答:
|
199 |
-
>ChatGLM-6B 是一个基于深度学习的自然语言处理模型,它在回答问题方面表现出色。但是,它也有一些局限性,具体如下:
|
200 |
-
>1. 语言理解有限:ChatGLM-6B 只学习了中文自然语言,对于其他语言可能会存在理解上的局限性。
|
201 |
-
>2. 知识储备不足:ChatGLM-6B 的训练数据集只包含了中文语料,因此它可能无法回答一些非中文的问题或者某些特定领域的问题。
|
202 |
-
>3. 数据量有限:ChatGLM-6B 的训练数据集只有几百万条记录,因此它可能无法回答一些非常具体或者复杂的问题。
|
203 |
-
>
|
204 |
-
>为了改进 ChatGLM-6B,可以考虑以下几个方面:
|
205 |
-
>1. 学习更多的语言知识:可以学习其他语言的自然语言处理技术,扩大语言理解的范围。
|
206 |
-
>2. 扩大知识储备:可以收集更多的中文语料,或者使用其他语言的数据集来扩充知识储备。
|
207 |
-
>3. 增加数据量:可以使用更大的数据集来训练 ChatGLM-6B,提高模型的表现。
|
208 |
-
>4. 引入更多的评估指标:可以引入更多的评估指标来评估模型的表现,从而发现 ChatGLM-6B 存在的不足和局限性。
|
209 |
-
>5. 改进模型架构:可以改进 ChatGLM-6B 的模型架构,提高模型的性能和表现。例如,可以使用更大的神经网络或者改进的卷积神经网络结构。
|
210 |
-
|
211 |
-
## 路线图
|
212 |
-
|
213 |
-
- [ ] Langchain 应用
|
214 |
-
- [x] 接入非结构化文档(已支持 md、pdf、docx、txt 文件格式)
|
215 |
-
- [x] jpg 与 png 格式图片的 OCR 文字识别
|
216 |
-
- [x] 搜索引擎接入
|
217 |
-
- [ ] 本地网页接入
|
218 |
-
- [ ] 结构化数据接入(如 csv、Excel、SQL 等)
|
219 |
-
- [ ] 知识图谱/图数据库接入
|
220 |
-
- [ ] Agent 实现
|
221 |
-
- [x] 增加更多 LLM 模型支持
|
222 |
-
- [x] [THUDM/chatglm2-6b](https://huggingface.co/THUDM/chatglm2-6b)
|
223 |
-
- [x] [THUDM/chatglm-6b](https://huggingface.co/THUDM/chatglm-6b)
|
224 |
-
- [x] [THUDM/chatglm-6b-int8](https://huggingface.co/THUDM/chatglm-6b-int8)
|
225 |
-
- [x] [THUDM/chatglm-6b-int4](https://huggingface.co/THUDM/chatglm-6b-int4)
|
226 |
-
- [x] [THUDM/chatglm-6b-int4-qe](https://huggingface.co/THUDM/chatglm-6b-int4-qe)
|
227 |
-
- [x] [ClueAI/ChatYuan-large-v2](https://huggingface.co/ClueAI/ChatYuan-large-v2)
|
228 |
-
- [x] [fnlp/moss-moon-003-sft](https://huggingface.co/fnlp/moss-moon-003-sft)
|
229 |
-
- [x] 支持通过调用 [fastchat](https://github.com/lm-sys/FastChat) api 调用 llm
|
230 |
-
- [x] 增加更多 Embedding 模型支持
|
231 |
-
- [x] [nghuyong/ernie-3.0-nano-zh](https://huggingface.co/nghuyong/ernie-3.0-nano-zh)
|
232 |
-
- [x] [nghuyong/ernie-3.0-base-zh](https://huggingface.co/nghuyong/ernie-3.0-base-zh)
|
233 |
-
- [x] [shibing624/text2vec-base-chinese](https://huggingface.co/shibing624/text2vec-base-chinese)
|
234 |
-
- [x] [GanymedeNil/text2vec-large-chinese](https://huggingface.co/GanymedeNil/text2vec-large-chinese)
|
235 |
-
- [x] [moka-ai/m3e-small](https://huggingface.co/moka-ai/m3e-small)
|
236 |
-
- [x] [moka-ai/m3e-base](https://huggingface.co/moka-ai/m3e-base)
|
237 |
-
- [ ] Web UI
|
238 |
-
- [x] 基于 gradio 实现 Web UI DEMO
|
239 |
-
- [x] 基于 streamlit 实现 Web UI DEMO
|
240 |
-
- [x] 添加输出内容及错误提示
|
241 |
-
- [x] 引用标注
|
242 |
-
- [ ] 增加知识库管理
|
243 |
-
- [x] 选择知识库开始问答
|
244 |
-
- [x] 上传文件/文件夹至知识库
|
245 |
-
- [x] 知识库测试
|
246 |
-
- [ ] 删除知识库中文件
|
247 |
-
- [x] 支持搜索引擎问答
|
248 |
-
- [ ] 增加 API 支持
|
249 |
-
- [x] 利用 fastapi 实现 API 部署方式
|
250 |
-
- [ ] 实现调用 API 的 Web UI Demo
|
251 |
-
- [x] VUE 前端
|
252 |
-
|
253 |
-
## 项目交流群
|
254 |
-
<img src="img/qr_code_39.jpg" alt="二维码" width="300" height="300" />
|
255 |
-
|
256 |
-
|
257 |
-
🎉 langchain-ChatGLM 项目微信交流群,如果你也对本项目感兴趣,欢迎加入群聊参与讨论交流。
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|