File size: 7,571 Bytes
60f3d2f
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207

import datasets
import json
from typing import List
from typing import Union

_LICENSE = """
## 第二届中文空间语义理解评测 SpaCE2022 数据集使用许可

由 北京大学计算语言学研究所 授权给(使用者)

#### 一

1. 任何使用本数据集的主体都需要知晓、理解并同意本许可的全部内容。
2. 传播本数据集的主体必须同时提供本许可并要求传播受众知晓、理解并同意本许可的全部内容。
3. 使用本数据集即代表知晓、理解并同意本许可的全部内容。

#### 二

1. 本数据集的版权归北京大学计算语言学研究所(下简称“版权所有者”)所有。
2. 本数据集将分阶段在 第二届中文空间语义理解评测 SpaCE2022 活动中发布。
3. 版权所有者对本数据集内容有权进行任何修改,修改后,如无特殊说明,使用者仍需遵守本许可的条款。
4. 版权所有者对本数据集的名称、网站等相关信息、材料等有权进行任何修改,修改后,如无特殊说明,使用者仍需遵守本许可的条款。

#### 三

1. 本数据集仅供以下用途使用:
   (1) 参赛选手在比赛中使用。参看《[第二届中文空间语义理解评测 SpaCE2022 参赛协议](https://github.com/2030NLP/SpaCE2022/blob/main/Agreement.md)》。
   (2) 高校、科研机构在科学研究中使用。
2. 本数据集禁止用于任何商业目的,不提供任何形式的商业授权。除了在参与第二届中文空间语义理解评测 SpaCE2022 的过程中为参赛而使用本数据集,公司或其他商业机构禁止使用本数据集。
3. 使用本数据进行科学研究,发表论文或其他材料时应注明来源信息,如:“本研究使用了北京大学组织的第二届中文空间语义理解评测提供的 SpaCE2022 数据集”,并在参考文献中引用版权所有者的评测报告论文(**请关注举办方后续的论文发表情况**)。

#### 四

1. 本许可证的最终解释权归属于版权所有者。

北京大学计算语言学研究所
2022年5月23日
"""

_DESCRIPTION = """SpaCE2022"""
_CITATION = """ """

_DESCRIPTION_TASK1 = """SpaCE2022 Task1"""
_DESCRIPTION_TASK2 = """SpaCE2022 Task2"""
_DESCRIPTION_TASK3 = """SpaCE2022 Task3"""



_DESCRIPTION_DICT = {
    'task1': _DESCRIPTION_TASK1,
    'task2': _DESCRIPTION_TASK2,
    'task3': _DESCRIPTION_TASK3,
}

# _URLS_ROOT = "https://huggingface.co/datasets/2030NLP/SpaCE2022/raw/main/"
_URLS_ROOT = "./"
_URLS_DICT = {
    'task1': {
        'train': _URLS_ROOT + "data/task1/task1_train.jsonl",
        'dev': _URLS_ROOT + "data/task1/task1_dev.jsonl",
    },
    'task2': {
        'train': _URLS_ROOT + "data/task2/task2_train.jsonl",
        'dev': _URLS_ROOT + "data/task2/task2_dev.jsonl",
    },
    'task3': {
        'train': _URLS_ROOT + "data/task3/task3_train.jsonl",
        'dev': _URLS_ROOT + "data/task3/task3_dev.jsonl",
    },
}

XXXX = datasets.Sequence([{
    'text': datasets.Sequence(datasets.Value('string')),
    'idxes': datasets.Sequence(datasets.Value('int32')),
}])

_FEATURES_DICT = {
    'task1': {
        "qid": datasets.Value(dtype="string"),
        "context": datasets.Value(dtype="string"),
        "judge": datasets.Value(dtype="int8"),
    },
    'task2': {
        "qid": datasets.Value(dtype="string"),
        "context": datasets.Value(dtype="string"),
        "reasons": datasets.Sequence(
            feature={
                "fragments": datasets.Sequence(
                    feature={
                        "role": datasets.ClassLabel(num_classes=11, names=['S', 'P', 'E', 'S1', 'P1', 'E1', 'S2', 'P2', 'E2', 'text1', 'text2']),
                        "text": datasets.Value(dtype="string"),
                        "idxes": datasets.Sequence(datasets.Value("int32")),
                    },
                ),
                "type": datasets.ClassLabel(num_classes=3, names=['A', 'B', 'C']),
            },
        ),
    },
    'task3': {
        "qid": datasets.Value(dtype="string"),
        "context": datasets.Value(dtype="string"),
        "corefs": datasets.Sequence(datasets.Sequence(feature={
            "text": datasets.Value("string"),
            "idxes": datasets.Sequence(datasets.Value("int32")),
        })),
        "non_corefs": datasets.Sequence(datasets.Sequence(feature={
            "text": datasets.Value("string"),
            "idxes": datasets.Sequence(datasets.Value("int32")),
        })),
        # "outputs": datasets.Sequence(datasets.Sequence(feature={
        #     "text": datasets.Value("string"),
        #     "idxes": datasets.Sequence(datasets.Value("int32")),
        # })),
        "outputs": datasets.Sequence(datasets.Sequence(feature={})),
    },
}

_split_name_map = {
    'train': datasets.Split.TRAIN,
    'dev': datasets.Split.VALIDATION,
    'test': datasets.Split.TEST,
}




class SpaCE2022Config(datasets.BuilderConfig):
    """BuilderConfig for SpaCE2022."""

    def __init__(self, splits, **kwargs):
        # Version history:
        # 1.4.0: final version used in SpaCE2022 Eval.
        super().__init__(version=datasets.Version("1.4.0"), **kwargs)
        self.splits = splits


class SpaCE2022(datasets.GeneratorBasedBuilder):
    """The SpaCE2022 benchmark."""

    BUILDER_CONFIGS = [
        SpaCE2022Config(
            name="task1",
            splits=['train', 'dev'],
        ),
        SpaCE2022Config(
            name="task2",
            splits=['train', 'dev'],
        ),
        # SpaCE2022Config(
        #     name="task3",
        #     splits=['train', 'dev'],
        # ),
    ]

    def _info(self):
        return datasets.DatasetInfo(
            description=_DESCRIPTION_DICT[self.config.name],
            features=datasets.Features(_FEATURES_DICT[self.config.name]),
            homepage="https://2030nlp.github.io/SpaCE2022/",
            citation=_CITATION,
            license=_LICENSE,
        )

    def _split_generators(self, dl_manager: datasets.DownloadManager) -> List[datasets.SplitGenerator]:

        # 在 hugging face 中如何为 dataset 创建 _split_generators 函数?

        split_things = []
        for split_name in self.config.splits:
            # print('')
            split_data_path = _URLS_DICT[self.config.name][split_name]
            # print(split_data_path)
            filepath = dl_manager.download(split_data_path)
            # print(filepath)
            # print('')
            split_thing = datasets.SplitGenerator(
                name=_split_name_map[split_name],
                gen_kwargs={
                    "task": self.config.name,
                    "filepath": filepath,
                    "split": split_name,
                }
            )
            split_things.append(split_thing)
        return split_things

    def _generate_examples(self, task, filepath, split):
        try:
            with open(filepath, encoding="utf-8") as ff:
                keys = _FEATURES_DICT[task].keys()
                for idx, line in enumerate(ff):
                    example = json.loads(line.strip())
                    example = {kk: example[kk] for kk in keys if kk in example}
                    print('')
                    print(example)
                    print('')
                    qid = example.get("qid")
                    # print(qid)
                    jj = (split == qid.split("-")[1])
                    # print(jj)
                    if jj:
                        yield qid, example
        except Exception as error:
            print(error)