File size: 1,880 Bytes
5bdf7bf
 
 
 
ab98d26
 
5bdf7bf
ab98d26
 
 
 
 
 
 
 
 
 
 
 
 
 
 
f99ede9
ab98d26
f99ede9
ab98d26
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
---
license: other
license_name: yi-license
license_link: https://huggingface.co/01-ai/Yi-6B-200K/blob/main/LICENSE
language:
- zh
---
这个模型是01-ai/Yi-6B-200K经过AutoGPTQ/AutoAWQ量化后保存的模型,与TheBloke/Yi-6B-200K-GPTQ的不同在于仅在于量化时使用的数据。

量化时使用的数据为(仅为量化时使用的数据,不代表训练数据):
 - 70% 中文
   - 30% wikimedia/wikipedia 20231101.zh (维基百科数据集—>中文子集)
   - 10% wikimedia/wikipedia 20231101.zh-classical (维基百科数据集—>文言文子集)
   - 10% wikimedia/wikipedia 20231101.zh-yue (维基百科数据集—>粤语子集)
   - 10% wikimedia/wikipedia 20231101.zh-min-nan (维基百科数据集—>闽南语子集)
   - 10% OSCAR unshuffled_deduplicated_zh (OSCAR—>中文去重子集)
 - 30% 英文
   - 20% wikimedia/wikipedia 20231101.en (维基百科数据集—>英文子集)
   - 10% OSCAR unshuffled_deduplicated_en (OSCAR—>英文去重子集)

目的是为了更好的映射Yi-6B-200K训练时使用的数据,达到更好的量化效果。


这里提供了共四个量化后的模型权重(下面按量化后的性能排序):
  - [AutoGPTQ-8bit-32gs](https://huggingface.co/ECj/Yi-6B-200K-GPTQ/tree/8bits-gps32)  使用GPTQ方式进行8bit量化,拥有最高的生成质量。
  - [AutoAWQ-4bit-32gs](https://huggingface.co/ECj/Yi-6B-200K-AWQ/tree/main) 使用AWQ方式进行4bit量化,比GPTQ-4bit生成质量优秀,但兼容性不如GPTQ
  - [AutoGPTQ-4bit-32gs](https://huggingface.co/ECj/Yi-6B-200K-GPTQ/tree/main) 使用GPTQ方式进行4bit量化,使用了Group size 32,比默认设置量化的效果更优秀。
  - [AutoGPTQ-4bit-128gs](https://huggingface.co/ECj/Yi-6B-200K-GPTQ/tree/4bits-gps128-descactF) 使用GPTQ方式进行4bit量化,使用了AutoGPTQ的默认设置。