Datasets:
File size: 6,523 Bytes
c1ea8c9 26d699d c1ea8c9 26d699d c1ea8c9 26d699d c1ea8c9 26d699d c1ea8c9 26d699d c1ea8c9 26d699d c1ea8c9 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 |
import datasets
import json
from typing import List
_LICENSE = """
## CCL2021中文空间语义理解评测数据集使用许可
由 北京大学计算语言学研究所 授权给(使用者)
#### 一
1. 任何使用本数据集的主体都需要知晓、理解并同意本许可的全部内容。
2. 传播本数据集的主体必须同时提供本许可并要求传播受众知晓、理解并同意本许可的全部内容。
3. 使用本数据集即代表知晓、理解并同意本许可的全部内容。
#### 二
1. 本数据集的版权归北京大学计算语言学研究所(下简称“版权所有者”)所有。
2. 本数据集将分阶段在CCL2021中文空间语义理解评测活动中发布。
3. 版权所有者对本数据集内容有权进行任何修改,修改后,如无特殊说明,使用者仍需遵守本许可的条款。
4. 版权所有者对本数据集的名称、网站等相关信息、材料等有权进行任何修改,修改后,如无特殊说明,使用者仍需遵守本许可的条款。
#### 三
1. 本数据集仅供以下用途使用:
(1) 参赛选手在比赛中使用。参看《[CCL2021中文空间语义理解评测选手参赛协议](https://github.com/2030NLP/SpaCE2021/blob/main/Agreement.md)》。
(2) 高校、科研机构在科学研究中使用。
2. 本数据集禁止用于任何商业目的,不提供任何形式的商业授权。除了在参与CCL2021中文空间语义理解评测的过程中为参赛而使用本数据集,公司或其他商业机构禁止使用本数据集。
3. 使用本数据进行科学研究,发表论文或其他材料时应注明:“本研究使用了CCL2021北京大学组织的‘中文空间语义理解’评测数据”,并在参考文献中引用版权所有者的评测报告论文(请关注举办方后续的论文发表情况)。
#### 四
1. 本许可证的最终解释权归属于版权所有者。
北京大学计算语言学研究所
2021年3月31日
"""
_DESCRIPTION = """SpaCE2021"""
# 詹卫东、孙春晖、岳朋雪、唐乾桐、秦梓巍,2022,空间语义理解能力评测任务设计的新思路——SpaCE2021数据集的研制,《语言文字应用》2022年第2期(总第122期),pp.99-110。
_CITATION = """
@article{space2021,
title={空间语义理解能力评测任务设计的新思路——SpaCE2021数据集的研制},
author={詹卫东 and 孙春晖 and 岳朋雪 and 唐乾桐 and 秦梓巍},
journal={语言文字应用},
volume={2022},
number={2},
pages={99-110},
year={2022}
}
"""
_DESCRIPTION_TASK1 = """SpaCE2021 Task1"""
_DESCRIPTION_TASK2 = """SpaCE2021 Task2"""
_DESCRIPTION_TASK3 = """SpaCE2021 Task3"""
_DESCRIPTION_DICT = {
'task1': _DESCRIPTION_TASK1,
'task2': _DESCRIPTION_TASK2,
'task3': _DESCRIPTION_TASK3,
}
# _URLS_ROOT = "https://huggingface.co/datasets/2030NLP/SpaCE2021/raw/main/"
_URLS_ROOT = "./"
_URLS_DICT = {
'task1': {
'train': _URLS_ROOT + "data/task1/task1-train.jsonl",
'dev': _URLS_ROOT + "data/task1/task1-dev.jsonl",
'test': _URLS_ROOT + "data/task1/task1-test.jsonl",
},
'task2': {
'train': _URLS_ROOT + "data/task2/task2-train.jsonl",
'dev': _URLS_ROOT + "data/task2/task2-dev.jsonl",
'test': _URLS_ROOT + "data/task2/task2-test.jsonl",
},
'task3': {
'dev': _URLS_ROOT + "data/task3/task3-dev.jsonl",
'test': _URLS_ROOT + "data/task3/task3-test.jsonl",
},
}
_FEATURES_DICT = {
'task1': {
"qID": datasets.Value(dtype="string"),
"context": datasets.Value(dtype="string"),
"judge1": datasets.Value(dtype="bool"),
},
'task2': {
"qID": datasets.Value(dtype="string"),
"context": datasets.Value(dtype="string"),
"reason": datasets.Value(dtype="string"),
"judge2": datasets.Value(dtype="bool"),
},
'task3': {
"qID": datasets.Value(dtype="string"),
"context": datasets.Value(dtype="string"),
"reason": datasets.Value(dtype="string"),
"judge1": datasets.Value(dtype="bool"),
"judge2": datasets.Value(dtype="bool"),
},
}
_split_name_map = {
'train': datasets.Split.TRAIN,
'dev': datasets.Split.VALIDATION,
'test': datasets.Split.TEST,
}
class SpaCE2021Config(datasets.BuilderConfig):
"""BuilderConfig for SpaCE2021."""
def __init__(self, splits, **kwargs):
# Version history:
# 1.0518.0: final version used in SpaCE2021 Eval.
super().__init__(version=datasets.Version("1.0518.0"), **kwargs)
self.splits = splits
class SpaCE2021(datasets.GeneratorBasedBuilder):
"""The SpaCE2021 benchmark."""
BUILDER_CONFIGS = [
SpaCE2021Config(
name="task1",
splits=['train', 'dev', 'test'],
),
SpaCE2021Config(
name="task2",
splits=['train', 'dev', 'test'],
),
SpaCE2021Config(
name="task3",
splits=['dev', 'test'],
),
]
def _info(self):
return datasets.DatasetInfo(
description=_DESCRIPTION_DICT[self.config.name],
features=datasets.Features(_FEATURES_DICT[self.config.name]),
homepage="http://ccl.pku.edu.cn:8084/SpaCE2021/",
citation=_CITATION,
license=_LICENSE,
)
def _split_generators(self, dl_manager: datasets.DownloadManager) -> List[datasets.SplitGenerator]:
# 在 hugging face 中如何为 dataset 创建 _split_generators 函数?
split_things = []
for split_name in self.config.splits:
# print('')
split_data_path = _URLS_DICT[self.config.name][split_name]
# print(split_data_path)
filepath = dl_manager.download(split_data_path)
# print(filepath)
# print('')
split_thing = datasets.SplitGenerator(
name=_split_name_map[split_name],
gen_kwargs={
"filepath": filepath,
"split": split_name,
}
)
split_things.append(split_thing)
return split_things
def _generate_examples(self, filepath, split):
with open(filepath, encoding="utf-8") as ff:
for idx, line in enumerate(ff):
example = json.loads(line.strip())
qid = example.get("qID")
if split == qid.split("-")[2]:
yield example.get("qID"), example
|