Datasets:

Modalities:
Text
Formats:
json
Languages:
Chinese
ArXiv:
Libraries:
Datasets
Dask
File size: 12,669 Bytes
1abe1a2
24f500e
 
 
 
 
 
 
 
 
aaf7bb9
 
 
 
 
24f500e
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1abe1a2
 
 
 
 
 
 
 
 
f6c0de9
845fffd
 
 
b7b7ecf
845fffd
 
 
f6c0de9
 
 
 
 
 
 
 
 
 
 
 
 
 
 
33ecf2e
f6c0de9
 
 
16aaf90
 
f6c0de9
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
87e5861
 
f6c0de9
 
 
 
 
 
 
b8db2ca
f6c0de9
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
457b8e3
f6c0de9
 
 
 
 
 
 
 
 
 
457b8e3
f6c0de9
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
16aaf90
f6c0de9
 
 
 
 
 
918d04d
 
 
 
 
f6c0de9
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
---
configs:
- config_name: "chinese_traditional"
  data_files:
  - split: train
    path: chinese_traditional/*
- config_name: "coig_pc"
  data_files:
  - split: train
    path: coig_pc/*
- config_name: "exam"
  data_files:
  - split: train
    path: exam/*
- config_name: "finance"
- config_name: "douban"
  data_files:
  - split: train
    path: douban/*
- config_name: "finance"
  data_files:
  - split: train
    path: finance/*
- config_name: "human_value"
  data_files:
  - split: train
    path: human_value/*
- config_name: "logi_qa"
  data_files:
  - split: train
    path: logi_qa/*
- config_name: "ruozhiba"
  data_files:
  - split: train
    path: ruozhiba/*
- config_name: "segmentfault"
  data_files:
  - split: train
    path: segmentfault/*
- config_name: "wiki"
  data_files:
  - split: train
    path: wiki/*
- config_name: "wikihow"
  data_files:
  - split: train
    path: wikihow/*
- config_name: "xhs"
  data_files:
  - split: train
    path: xhs/*
- config_name: "zhihu"
  data_files:
  - split: train
    path: zhihu/*
  
task_categories:
- question-answering
- text-classification
- text-generation
- text2text-generation
language:
- zh
size_categories:
- 10K<n<100K
---

<div align="center">
    <img src="Yi_logo.svg" width="150px" style="display: inline-block;">
    <img src="siat-logo.jpg" width="150px" style="display: inline-block;">  
    <img src="m-a-p.png" width="150px" style="display: inline-block;">
</div>

# COIG-CQIA:Quality is All you need for Chinese Instruction Fine-tuning

<!-- Provide a quick summary of the dataset. -->


## Dataset Details

### Dataset Description

<!-- Provide a longer summary of what this dataset is. -->
欢迎来到COIG-CQIA,COIG-CQIA全称为**Chinese Open Instruction Generalist - Quality is All You Need**, 是一个开源的高质量指令微调数据集,旨在为中文NLP社区提供**高质量**且符合**人类交互行为**的指令微调数据。COIG-CQIA以中文互联网获取到的问答及文章作为原始数据,经过深度清洗、重构及人工审核构建而成。本项目受*LIMA: Less Is More for Alignment*等研究启发,使用少量高质量的数据即可让大语言模型学习到人类交互行为,因此在数据构建中我们十分注重数据的来源、质量与多样性,数据集详情请见数据介绍以及我们接下来的论文。

Welcome to the COIG-CQIA project page. COIG-CQIA stands for **Chinese Open Instruction Generalist - Quality is All You Need**, a high-quality Chinese instruction fine-tuning dataset. This dataset is designed to provide the Chinese NLP community with **high-quality** and **human interaction-aligned** instruction fine-tuning data.Inspired by studies like *LIMA: Less Is More for Alignment*, COIG-CQIA focuses on creating a dataset from Chinese internet sources including Q&A and articles. These are deeply cleansed, restructured, and manually reviewed to ensure quality, diversity, and relevance.


- **Curated by:** 来自零一万物、中科院深圳先进技术研究院,和M-A-P等机构的研究者们。
- **Language(s) (NLP):** 本数据集主要语言为中文。
- **License:** [More Information Needed]

本数据集当前为v0.1版本,如果您在使用中发现数据集存在问题或者有可以改进的地方,欢迎留言交流!

## Uses

<!-- Address questions around how the dataset is intended to be used. -->

### Direct Use

<!-- This section describes suitable use cases for the dataset. -->

本数据集适用于指令微调,训练模型具备响应指令的能力。

### Out-of-Scope Use

<!-- This section addresses misuse, malicious use, and uses that the dataset will not work well for. -->

[More Information Needed]

## 数据

### 数据格式

```json
{
    "instruction": "示例问题或者指令。",
    "input": "示例问题或指令的补充。",
    "output": "对输入的回复。",
    "task_type": {
        "major": ["问答"],
        "minor": ["百科问答"]
    },
    "domain": ["百科", "医疗"],
    "answer_from": "human",
    "human_verified": true,
    "copyright": "作者及版权信息。",
}
```

### 数据字段

- `instruction`: 用于输入的指令或者问题。
- `input`: 问题或指令的补充内容。
- `output`: 输入对应的回答。
- `task_type`: 表示该数据所属的主要任务类型和细分任务类型。
- `domain`: 该数据所属领域。
- `answer_from`: 回答是人类撰写的还是大模型撰写的,本数据集中绝大部分是由人类撰写的回答,少部分由大模型生成(经过了人工验证)。
- `human_verified`: 该数据是否又人类核验过。
- `copyright`: 包括该数据的版权信息,包括作者等。

当前版本的数据字段中仍有不完善的部分,我们将在近期的下一版本中补充。

### 数据详情

<details>
<summary><b>社交媒体&论坛</b></summary>

| 类别          | 数量 | 来源 | 构造方式                     |
| ----------------- | -------- | ------ | --------------------------------------- |
| 知乎        | 8837      | [[网址链接]](https://www.zhihu.com/) | 经过多阶段的数据质量筛选和人工验证。 |
| 豆瓣       | 3132    | [[网址链接]](https://www.douban.com/) | 人工撰写多样的prompt模板构造而成。 |
| 小红书       | 1508    | [[网址链接]](https://www.xiaohongshu.com/explore) | 人工撰写多样的prompt模板构造而成。 |
| Segmentfault       | 458    | [[网址链接]](https://segmentfault.com/) | 规则方式清洗与筛选,并经过人工验证。 |
| **总量**         | **13935** | -      | -                                       |

</details>

<details>
<summary><b>通用百科</b></summary>

| 类别          | 数量 | 来源 | 构造方式                     |
| ----------------- | -------- | ------ | --------------------------------------- |
| 百科文章        | 980      | 从网络中收集。[[网址链接]](https://10why.net/) [[网址链接]](https://www.eetree.cn/wiki/eebaike) [[网址链接]](https://www.nongyie.com/) [[网址链接]](https://www.gkket.com/gkwk/) | 规则方式清洗与筛选,并经过人工验证。 |
| 中国大百科全书       | 1706    | [[网址链接]](https://www.zgbk.com/) | 人工撰写多样的prompt模板构造而成。 |
| wikiHow中文       | 1876    | [[网址链接]](https://zh.wikihow.com/首页)&[[公开数据集]](https://github.com/esbatmop/MNBVC/tree/main) | 规则方式清洗与筛选。 |
| **总量**         | **4571** | -      | -                                       |

</details>

</details>

<details>
<summary><b>通用NLP任务</b></summary>

| 类别          | 数量 | 来源 | 构造方式                     |
| ----------------- | -------- | ------ | --------------------------------------- |
| COIG-PC-Core        | 3000      | [[Open Dataset]](https://huggingface.co/datasets/BAAI/COIG-PC-core) | 人工验证数据质量。 |
| **总量**         | **3000** | -      | -                                       |

</details>

<details>
<summary><b>考试&试题</b></summary>

| 类别          | 数量 | 来源 | 构造方式                     |
| ----------------- | -------- | ------ | --------------------------------------- |
| 高考&中考        | 2000      | [[公开数据集]](https://huggingface.co/datasets/BAAI/COIG) | - |
| 研究生入学考试       | 475    | 从网络中收集 | 规则方式清洗与筛选。 |
| 逻辑推理题       | 422    | 从网络中收集 | 规则方式清洗与筛选。 |
| **总量**         | **2897** | -      | -                                       |

</details>

<details>
<summary><b>人类价值观</b></summary>

| 类别          | 数量 | 来源 | 构造方式                     |
| ----------------- | -------- | ------ | --------------------------------------- |
| 100poison         | 906      | [[公开数据集]](https://modelscope.cn/datasets/damo/100PoisonMpts/summary) | - |
| COIG-human-value  | 101      | [[公开数据集]](https://huggingface.co/datasets/BAAI/COIG) | 经人工审核数据质量 |
| **总量**         | **1007** | -      | -                                       |

</details>

<details>
<summary><b>中国传统文化</b></summary>

| 类别          | 数量 | 来源 | 构造方式                     |
| ----------------- | -------- | ------ | --------------------------------------- |
| 中华传统文化试题         | 232      | 从网络中收集 | 规则方式清洗与筛选,并经过人工验证。 |
| 成语释义  | 112      | [[公开数据集]](https://huggingface.co/datasets/YeungNLP/firefly-train-1.1M) | 规则方式清洗与筛选,并经过人工验证。 |
| 古诗词撰写  | 47      | [[公开数据集]](https://huggingface.co/datasets/YeungNLP/firefly-train-1.1M) | 规则方式清洗与筛选,并经过人工验证。 |
| 文言文互译  | 112      | [[公开数据集]](https://huggingface.co/datasets/YeungNLP/firefly-train-1.1M) | 规则方式清洗与筛选,并经过人工验证。 |
| **总量**         | **503** | -      | -                                       |

</details>

<details>
<summary><b>金融&经管领域</b></summary>

| 类别          | 数量 | 来源 | 构造方式                     |
| ----------------- | -------- | ------ | --------------------------------------- |
| MBA百科       | 10689    | [[网址链接]](https://wiki.mbalib.com/wiki/首页) | 人工撰写多样的prompt模板构造而成。 |
| 金融NLP任务  | 600      | [[公开数据集]](https://huggingface.co/datasets/BAAI/COIG-PC) | 人工核验数据质量 |
| **总量**         | **11289** | -      | -                                       |

</details>

<details>
<summary><b>医疗领域</b></summary>

| 类别          | 数量 | 来源 | 构造方式                     |
| ----------------- | -------- | ------ | --------------------------------------- |
| 医疗百科       | 8351    | [[网址链接]](www.baikemy.com) | 人工撰写多样的prompt模板构造而成。 |
| 医疗文章  | 186      | [[网址链接]](https://51zyzy.com/article/list.html) [[网址链接]](https://baobao.baidu.com/dailyjnl/list/13.html) | 规则方式清洗与筛选。 |
| **总量**         | **8537** | -      | -                                       |

</details>

<details>
<summary><b>法律领域</b></summary>

| 类别          | 数量 | 来源 | 构造方式                     |
| ----------------- | -------- | ------ | --------------------------------------- |
| 法律研究生入学考试       | 2645    | 从网络中收集 | 规则方式清洗与筛选。 |
| **总量**         | **2645** | -      | -                                       |

</details>


### Recommendations

<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->

Users should be made aware of the risks, biases and limitations of the dataset. More information needed for further recommendations.

## Citation

<!-- If there is a paper or blog post introducing the dataset, the APA and Bibtex information for that should go in this section. -->

如果本项目为您的研究带来了帮助,欢迎引用!

```bibtex
@article{bai2024coig,
  title={COIG-CQIA: Quality is All You Need for Chinese Instruction Fine-tuning},
  author={Bai, Yuelin and Du, Xinrun and Liang, Yiming and Jin, Yonggang and Liu, Ziqiang and Zhou, Junting and Zheng, Tianyu and Zhang, Xincheng and Ma, Nuo and Wang, Zekun and others},
  journal={arXiv preprint arXiv:2403.18058},
  year={2024}
}
```

本数据集中也包含了以下公开数据:
```bibtex
@article{zhang2023chinese,
  title={Chinese open instruction generalist: A preliminary release},
  author={Zhang, Ge and Shi, Yemin and Liu, Ruibo and Yuan, Ruibin and Li, Yizhi and Dong, Siwei and Shu, Yu and Li, Zhaoqun and Wang, Zekun and Lin, Chenghua and others},
  journal={arXiv preprint arXiv:2304.07987},
  year={2023}
}
@misc{Firefly,
  author = {Jianxin Yang},
  title = {Firefly(流萤): 中文对话式大语言模型},
  year = {2023},
  publisher = {GitHub},
  journal = {GitHub repository},
  howpublished = {\url{https://github.com/yangjianxin1/Firefly}},
}
@misc{xu2023cvalues,
    title={CValues: Measuring the Values of Chinese Large Language Models from Safety to Responsibility}, 
    author={Guohai Xu and Jiayi Liu and Ming Yan and Haotian Xu and Jinghui Si and Zhuoran Zhou and Peng Yi and Xing Gao and Jitao Sang and Rong Zhang and Ji Zhang and Chao Peng and Fei Huang and Jingren Zhou},
    year={2023},
    eprint={2307.09705},
    archivePrefix={arXiv},
    primaryClass={cs.CL}
  }
```