File size: 2,227 Bytes
b139c86
f0eb1f5
 
 
 
 
 
 
 
 
 
b139c86
 
f0eb1f5
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
b139c86
 
f0eb1f5
b139c86
f0eb1f5
 
 
 
 
 
 
b139c86
f0eb1f5
b139c86
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
---
license: GLM-4
license_name: glm-4-9b
license_link: LICENSE
pipeline_tag: text-generation
tags:
- chatglm
- gptq
- int4
- 量化修复
- vLLM
---

# GLM-4-9B-Chat-GPTQ-Int4-量化修复
原模型 [ZhipuAI/glm-4-9b-chat](https://www.modelscope.cn/models/ZhipuAI/glm-4-9b-chat)


### 【模型更新日期】
``` 2024-06-05 ```

### 【模型大小】
`6.2GB`

### 【介绍】

<i>似乎需要确保flash attention的安装</i>

GLM-4-9B 是智谱 AI 推出的最新一代预训练模型 GLM-4 系列中的开源版本。 在语义、数学、推理、代码和知识等多方面的数据集测评中,GLM-4-9B 及其人类偏好对齐的版本 GLM-4-9B-Chat 均表现出较高的性能。 除了能进行多轮对话,GLM-4-9B-Chat 还具备网页浏览、代码执行、自定义工具调用(Function Call)和长文本推理(支持最大 128K 上下文)等高级功能。 本代模型增加了多语言支持,支持包括日语,韩语,德语在内的 26 种语言。我们还推出了支持 1M 上下文长度(约 200 万中文字符)的模型。

[更多详情...](https://www.modelscope.cn/models/ZhipuAI/glm-4-9b-chat/summary)

### 【量化修复】

调优了现有 `AWQ``GPTQ` 量化算法的量化策略。带有`量化修复`标签的`Int3`模型,可以比肩默认`AWQ``GPTQ`算法的`Int8`模型的能力。

1. 量化修复可以极大减少模型的`1.乱吐字``2.无限循环``3.长文能力丢失`等量化损失造成的模型不可用的情况。

2. 调优后的量化模型,`AWQ``GPTQ`模型在能力上没有表现出明显区别。同时考虑到`GPTQ``vLLM`引擎的并发推理效率最好,所以不再制作`AWQ`模型。

3. 待工作完成后补充...

### 【同期量化修复模型】
待工作完成后补充...

### 【模型下载】
```python
from modelscope import snapshot_download
model_dir = snapshot_download('tclf90/模型名', cache_dir="本地路径")
```

### 【[vLLM](https://github.com/vllm-project/vllm)推理(目前仅限Linux)】
#### 1. Python 简易调试

待工作完成后补充...

#### 2. 类ChatGPT RESTFul API Server
```
>>> python -m vllm.entrypoints.openai.api_server --model 本地路径/tclf90/模型名称
```