File size: 6,799 Bytes
c1ea8c9
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
26d699d
c1ea8c9
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
26d699d
c1ea8c9
 
 
 
 
 
 
 
 
 
 
26d699d
 
 
 
 
 
c1ea8c9
 
 
bd651cb
26d699d
c1ea8c9
 
 
 
 
 
bd651cb
26d699d
bd651cb
26d699d
c1ea8c9
bd651cb
 
26d699d
bd651cb
 
 
 
 
c1ea8c9
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190

import datasets
import json
from typing import List

_LICENSE = """
## CCL2021中文空间语义理解评测数据集使用许可

由 北京大学计算语言学研究所 授权给(使用者)

#### 一

1. 任何使用本数据集的主体都需要知晓、理解并同意本许可的全部内容。
2. 传播本数据集的主体必须同时提供本许可并要求传播受众知晓、理解并同意本许可的全部内容。
3. 使用本数据集即代表知晓、理解并同意本许可的全部内容。

#### 二

1. 本数据集的版权归北京大学计算语言学研究所(下简称“版权所有者”)所有。
2. 本数据集将分阶段在CCL2021中文空间语义理解评测活动中发布。
3. 版权所有者对本数据集内容有权进行任何修改,修改后,如无特殊说明,使用者仍需遵守本许可的条款。
4. 版权所有者对本数据集的名称、网站等相关信息、材料等有权进行任何修改,修改后,如无特殊说明,使用者仍需遵守本许可的条款。

#### 三

1. 本数据集仅供以下用途使用:
   (1) 参赛选手在比赛中使用。参看《[CCL2021中文空间语义理解评测选手参赛协议](https://github.com/2030NLP/SpaCE2021/blob/main/Agreement.md)》。
   (2) 高校、科研机构在科学研究中使用。
2. 本数据集禁止用于任何商业目的,不提供任何形式的商业授权。除了在参与CCL2021中文空间语义理解评测的过程中为参赛而使用本数据集,公司或其他商业机构禁止使用本数据集。
3. 使用本数据进行科学研究,发表论文或其他材料时应注明:“本研究使用了CCL2021北京大学组织的‘中文空间语义理解’评测数据”,并在参考文献中引用版权所有者的评测报告论文(请关注举办方后续的论文发表情况)。

#### 四

1. 本许可证的最终解释权归属于版权所有者。

北京大学计算语言学研究所
2021年3月31日
"""

_DESCRIPTION = """SpaCE2021"""
# 詹卫东、孙春晖、岳朋雪、唐乾桐、秦梓巍,2022,空间语义理解能力评测任务设计的新思路——SpaCE2021数据集的研制,《语言文字应用》2022年第2期(总第122期),pp.99-110。
_CITATION = """
@article{space2021,
title={空间语义理解能力评测任务设计的新思路——SpaCE2021数据集的研制},
author={詹卫东 and 孙春晖 and 岳朋雪 and 唐乾桐 and 秦梓巍},
journal={语言文字应用},
volume={2022},
number={2},
pages={99-110},
year={2022}
}
"""

_DESCRIPTION_TASK1 = """SpaCE2021 Task1"""
_DESCRIPTION_TASK2 = """SpaCE2021 Task2"""
_DESCRIPTION_TASK3 = """SpaCE2021 Task3"""



_DESCRIPTION_DICT = {
    'task1': _DESCRIPTION_TASK1,
    'task2': _DESCRIPTION_TASK2,
    'task3': _DESCRIPTION_TASK3,
}

# _URLS_ROOT = "https://huggingface.co/datasets/2030NLP/SpaCE2021/raw/main/"
_URLS_ROOT = "./"
_URLS_DICT = {
    'task1': {
        'train': _URLS_ROOT + "data/task1/task1-train.jsonl",
        'dev': _URLS_ROOT + "data/task1/task1-dev.jsonl",
        'test': _URLS_ROOT + "data/task1/task1-test.jsonl",
    },
    'task2': {
        'train': _URLS_ROOT + "data/task2/task2-train.jsonl",
        'dev': _URLS_ROOT + "data/task2/task2-dev.jsonl",
        'test': _URLS_ROOT + "data/task2/task2-test.jsonl",
    },
    'task3': {
        'dev': _URLS_ROOT + "data/task3/task3-dev.jsonl",
        'test': _URLS_ROOT + "data/task3/task3-test.jsonl",
    },
}


_FEATURES_DICT = {
    'task1': {
        "qID": datasets.Value(dtype="string"),
        "context": datasets.Value(dtype="string"),
        "judge1": datasets.Value(dtype="bool"),
    },
    'task2': {
        "qID": datasets.Value(dtype="string"),
        "context": datasets.Value(dtype="string"),
        "reason": datasets.Value(dtype="string"),
        "judge2": datasets.Value(dtype="bool"),
    },
    'task3': {
        "qID": datasets.Value(dtype="string"),
        "context": datasets.Value(dtype="string"),
        "reason": datasets.Value(dtype="string"),
        "judge1": datasets.Value(dtype="bool"),
        "judge2": datasets.Value(dtype="bool"),
    },
}

_split_name_map = {
    'train': datasets.Split.TRAIN,
    'dev': datasets.Split.VALIDATION,
    'test': datasets.Split.TEST,
}




class SpaCE2021Config(datasets.BuilderConfig):
    """BuilderConfig for SpaCE2021."""

    def __init__(self, splits, **kwargs):
        # Version history:
        # 1.0518.0: final version used in SpaCE2021 Eval.
        super().__init__(version=datasets.Version("1.0518.0"), **kwargs)
        self.splits = splits


class SpaCE2021(datasets.GeneratorBasedBuilder):
    """The SpaCE2021 benchmark."""

    BUILDER_CONFIGS = [
        SpaCE2021Config(
            name="task1",
            splits=['train', 'dev', 'test'],
        ),
        SpaCE2021Config(
            name="task2",
            splits=['train', 'dev', 'test'],
        ),
        SpaCE2021Config(
            name="task3",
            splits=['dev', 'test'],
        ),
    ]

    def _info(self):
        return datasets.DatasetInfo(
            description=_DESCRIPTION_DICT[self.config.name],
            features=datasets.Features(_FEATURES_DICT[self.config.name]),
            homepage="http://ccl.pku.edu.cn:8084/SpaCE2021/",
            citation=_CITATION,
            license=_LICENSE,
        )

    def _split_generators(self, dl_manager: datasets.DownloadManager) -> List[datasets.SplitGenerator]:

        # 在 hugging face 中如何为 dataset 创建 _split_generators 函数?

        split_things = []
        for split_name in self.config.splits:
            # print('')
            split_data_path = _URLS_DICT[self.config.name][split_name]
            # print(split_data_path)
            filepath = dl_manager.download(split_data_path)
            # print(filepath)
            # print('')
            split_thing = datasets.SplitGenerator(
                name=_split_name_map[split_name],
                gen_kwargs={
                    "task": self.config.name,
                    "filepath": filepath,
                    "split": split_name,
                }
            )
            split_things.append(split_thing)
        return split_things

    def _generate_examples(self, task, filepath, split):
        with open(filepath, encoding="utf-8") as ff:
            keys = _FEATURES_DICT[task].keys()
            for idx, line in enumerate(ff):
                example = json.loads(line.strip())
                example = {kk: example[kk] for kk in keys if kk in example}
                # print(example)
                qid = example.get("qID")
                # print(qid)
                jj = (split == qid.split("-")[1])
                # print(jj)
                if jj:
                    yield qid, example