File size: 2,227 Bytes
b139c86 f0eb1f5 b139c86 f0eb1f5 b139c86 f0eb1f5 b139c86 f0eb1f5 b139c86 f0eb1f5 b139c86 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 |
---
license: GLM-4
license_name: glm-4-9b
license_link: LICENSE
pipeline_tag: text-generation
tags:
- chatglm
- gptq
- int4
- 量化修复
- vLLM
---
# GLM-4-9B-Chat-GPTQ-Int4-量化修复
原模型 [ZhipuAI/glm-4-9b-chat](https://www.modelscope.cn/models/ZhipuAI/glm-4-9b-chat)
### 【模型更新日期】
``` 2024-06-05 ```
### 【模型大小】
`6.2GB`
### 【介绍】
<i>似乎需要确保flash attention的安装</i>
GLM-4-9B 是智谱 AI 推出的最新一代预训练模型 GLM-4 系列中的开源版本。 在语义、数学、推理、代码和知识等多方面的数据集测评中,GLM-4-9B 及其人类偏好对齐的版本 GLM-4-9B-Chat 均表现出较高的性能。 除了能进行多轮对话,GLM-4-9B-Chat 还具备网页浏览、代码执行、自定义工具调用(Function Call)和长文本推理(支持最大 128K 上下文)等高级功能。 本代模型增加了多语言支持,支持包括日语,韩语,德语在内的 26 种语言。我们还推出了支持 1M 上下文长度(约 200 万中文字符)的模型。
[更多详情...](https://www.modelscope.cn/models/ZhipuAI/glm-4-9b-chat/summary)
### 【量化修复】
调优了现有 `AWQ` 与 `GPTQ` 量化算法的量化策略。带有`量化修复`标签的`Int3`模型,可以比肩默认`AWQ`与`GPTQ`算法的`Int8`模型的能力。
1. 量化修复可以极大减少模型的`1.乱吐字`、`2.无限循环`、`3.长文能力丢失`等量化损失造成的模型不可用的情况。
2. 调优后的量化模型,`AWQ`与`GPTQ`模型在能力上没有表现出明显区别。同时考虑到`GPTQ`的`vLLM`引擎的并发推理效率最好,所以不再制作`AWQ`模型。
3. 待工作完成后补充...
### 【同期量化修复模型】
待工作完成后补充...
### 【模型下载】
```python
from modelscope import snapshot_download
model_dir = snapshot_download('tclf90/模型名', cache_dir="本地路径")
```
### 【[vLLM](https://github.com/vllm-project/vllm)推理(目前仅限Linux)】
#### 1. Python 简易调试
待工作完成后补充...
#### 2. 类ChatGPT RESTFul API Server
```
>>> python -m vllm.entrypoints.openai.api_server --model 本地路径/tclf90/模型名称
```
|