update README.md
Browse files
README.md
CHANGED
@@ -4,11 +4,14 @@ language:
|
|
4 |
- en
|
5 |
tags:
|
6 |
- glm
|
7 |
-
- chatglm
|
8 |
-
- thudm
|
9 |
---
|
10 |
-
# ChatGLM-6B
|
11 |
## 介绍
|
|
|
|
|
|
|
|
|
12 |
ChatGLM-6B 是一个开源的、支持中英双语问答的对话语言模型,基于 [General Language Model (GLM)](https://github.com/THUDM/GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。ChatGLM-6B 使用了和 [ChatGLM](https://chatglm.cn) 相同的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答。
|
13 |
|
14 |
## 软件依赖
|
@@ -19,12 +22,12 @@ pip install protobuf==3.20.0 transformers==4.26.1 icetk cpm_kernels
|
|
19 |
|
20 |
## 代码调用
|
21 |
|
22 |
-
可以通过如下代码调用 ChatGLM-6B 模型来生成对话:
|
23 |
|
24 |
```ipython
|
25 |
>>> from transformers import AutoTokenizer, AutoModel
|
26 |
-
>>> tokenizer = AutoTokenizer.from_pretrained("
|
27 |
-
>>> model = AutoModel.from_pretrained("
|
28 |
>>> response, history = model.chat(tokenizer, "你好", history=[])
|
29 |
>>> print(response)
|
30 |
你好👋!我是人工智能助手 ChatGLM-6B,很高兴见到你,欢迎问我任何问题。
|
|
|
4 |
- en
|
5 |
tags:
|
6 |
- glm
|
7 |
+
- chatglm-slim
|
|
|
8 |
---
|
9 |
+
# ChatGLM-6B-Slim
|
10 |
## 介绍
|
11 |
+
ChatGLM-6B-Slim是在ChatGLM-6B的基础上通过裁剪词表构建的。因为ChatGLM-6B使用了icetk,在其词表中,前20000个token是预留给图片的,在文本模型中没有用到这些图片token,但是在infer和微调的时候,这些token对应的embedding依然需要被加载,并且在解码每一个token的时候需要多计算20K个logits,会占用不少显存。因此将这一部分token裁剪掉以节省显存。
|
12 |
+
|
13 |
+
除了词表外,ChatGLM-6B-Slim的其他结构与ChatGLM-6B完全一致,性能也完全一样,可以认为是ChatGLM-6B的一个低显存版等价平替。
|
14 |
+
|
15 |
ChatGLM-6B 是一个开源的、支持中英双语问答的对话语言模型,基于 [General Language Model (GLM)](https://github.com/THUDM/GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。ChatGLM-6B 使用了和 [ChatGLM](https://chatglm.cn) 相同的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答。
|
16 |
|
17 |
## 软件依赖
|
|
|
22 |
|
23 |
## 代码调用
|
24 |
|
25 |
+
可以通过如下代码调用 ChatGLM-6B-Slim 模型来生成对话:
|
26 |
|
27 |
```ipython
|
28 |
>>> from transformers import AutoTokenizer, AutoModel
|
29 |
+
>>> tokenizer = AutoTokenizer.from_pretrained("silver/chatglm-6b-slim", trust_remote_code=True)
|
30 |
+
>>> model = AutoModel.from_pretrained("silver/chatglm-6b-slim", trust_remote_code=True).half().cuda()
|
31 |
>>> response, history = model.chat(tokenizer, "你好", history=[])
|
32 |
>>> print(response)
|
33 |
你好👋!我是人工智能助手 ChatGLM-6B,很高兴见到你,欢迎问我任何问题。
|