hugforziio commited on
Commit
c1ea8c9
1 Parent(s): cb58f65

Create SpaCE2021.py

Browse files
Files changed (1) hide show
  1. SpaCE2021.py +175 -0
SpaCE2021.py ADDED
@@ -0,0 +1,175 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+
2
+ import datasets
3
+ import json
4
+ from typing import List
5
+
6
+ _LICENSE = """
7
+ ## CCL2021中文空间语义理解评测数据集使用许可
8
+
9
+ 由 北京大学计算语言学研究所 授权给(使用者)
10
+
11
+ #### 一
12
+
13
+ 1. 任何使用本数据集的主体都需要知晓、理解并同意本许可的全部内容。
14
+ 2. 传播本数据集的主体必须同时提供本许可并要求传播受众知晓、理解并同意本许可的全部内容。
15
+ 3. 使用本数据集即代表知晓、理解并同意本许可的全部内容。
16
+
17
+ #### 二
18
+
19
+ 1. 本数据集的版权归北京大学计算语言学研究所(下简称“版权所有者”)所有。
20
+ 2. 本数据集将分阶段在CCL2021中文空间语义理解评测活动中发布。
21
+ 3. 版权所有者对本数据集内容有权进行任何修改,修改后,如无特殊说明,使用者仍需遵守本许可的条款。
22
+ 4. 版权所有者对本数据集的名称、网站等相关信息、材料等有权进行任何修改,修改后,如无特殊说明,使用者仍需遵守本许可的条款。
23
+
24
+ #### 三
25
+
26
+ 1. 本数据集仅供以下用途使用:
27
+ (1) 参赛选手在比赛中使用。参看《[CCL2021中文空间语义理解评测选手参赛协议](https://github.com/2030NLP/SpaCE2021/blob/main/Agreement.md)》。
28
+ (2) 高校、科研机构在科学研究中使用。
29
+ 2. 本数据集禁止用于任何商业目的,不提供任何形式的商业授权。除了在参与CCL2021中文空间语义理解评测的过程中为参赛而使用本数据集,公司或其他商业机构禁止使用本数据集。
30
+ 3. 使用本数据进行科学研究,发表论文或其他材料时应注明:“本研究使用了CCL2021北京大学组织的‘中文空间语义理解’评测数据”,并在参考文献中引用版权所有者的评测报告论文(请关注举办方后续的论文发表情况)。
31
+
32
+ #### 四
33
+
34
+ 1. 本许可证的最终解释权归属于版权所有者。
35
+
36
+ 北京大学计算语言学研究所
37
+ 2021年3月31日
38
+ """
39
+
40
+ _DESCRIPTION = """SpaCE2021"""
41
+ # 詹卫东、孙春晖、岳朋雪、唐乾桐、秦梓巍,2022,空间语义理解能力评测任务设计的新思路——SpaCE2021数据集的研制,《语言文字应用》2022年第2期(总第122期),pp.99-110。
42
+ _CITATION = """
43
+ @article{space2021,
44
+ title={空间语义理解能力评测任务设计的新思路——SpaCE2021数据集的研制},
45
+ author={詹卫东 and 孙春晖 and 岳朋雪 and 唐乾桐 and 秦梓巍},
46
+ journal={语言文字应用},
47
+ volume={2022},
48
+ number={2},
49
+ pages={99-110},
50
+ year={2022}
51
+ }
52
+ """
53
+
54
+ _DESCRIPTION_TASK1 = """SpaCE2021 Task1"""
55
+ _DESCRIPTION_TASK2 = """SpaCE2021 Task2"""
56
+ _DESCRIPTION_TASK3 = """SpaCE2021 Task3"""
57
+
58
+
59
+
60
+ _DESCRIPTION_DICT = {
61
+ 'task1': _DESCRIPTION_TASK1,
62
+ 'task2': _DESCRIPTION_TASK2,
63
+ 'task3': _DESCRIPTION_TASK3,
64
+ }
65
+
66
+ # _URLS_ROOT = "https://huggingface.co/datasets/2030NLP/SpaCE2021/raw/main/"
67
+ _URLS_ROOT = "./"
68
+ _URLS_DICT = {
69
+ 'task1': {
70
+ 'train': _URLS_ROOT + "data/task1/task1-train.jsonl",
71
+ 'dev': _URLS_ROOT + "data/task1/task1-dev.jsonl",
72
+ 'test': _URLS_ROOT + "data/task1/task1-test.jsonl",
73
+ },
74
+ 'task2': {
75
+ 'train': _URLS_ROOT + "data/task2/task2-train.jsonl",
76
+ 'dev': _URLS_ROOT + "data/task2/task2-dev.jsonl",
77
+ 'test': _URLS_ROOT + "data/task2/task2-test.jsonl",
78
+ },
79
+ 'task3': {
80
+ 'dev': _URLS_ROOT + "data/task3/task3-dev.jsonl",
81
+ 'test': _URLS_ROOT + "data/task3/task3-test.jsonl",
82
+ },
83
+ }
84
+
85
+
86
+ _FEATURES_DICT = {
87
+ 'task1': {
88
+ "qID": datasets.Value(dtype="string"),
89
+ "context": datasets.Value(dtype="string"),
90
+ "judge1": datasets.Value(dtype="bool"),
91
+ },
92
+ 'task2': {
93
+ "qID": datasets.Value(dtype="string"),
94
+ "context": datasets.Value(dtype="string"),
95
+ "reason": datasets.Value(dtype="string"),
96
+ "judge2": datasets.Value(dtype="bool"),
97
+ },
98
+ 'task3': {
99
+ "qID": datasets.Value(dtype="string"),
100
+ "context": datasets.Value(dtype="string"),
101
+ "reason": datasets.Value(dtype="string"),
102
+ "judge1": datasets.Value(dtype="bool"),
103
+ "judge2": datasets.Value(dtype="bool"),
104
+ },
105
+ }
106
+
107
+ _split_name_map = {
108
+ 'train': datasets.Split.TRAIN,
109
+ 'dev': datasets.Split.VALIDATION,
110
+ 'test': datasets.Split.TEST,
111
+ }
112
+
113
+
114
+
115
+
116
+ class SpaCE2021Config(datasets.BuilderConfig):
117
+ """BuilderConfig for SpaCE2021."""
118
+
119
+ def __init__(self, features, splits, **kwargs):
120
+ # Version history:
121
+ # 1.0518.0: final version used in SpaCE2021 Eval.
122
+ super().__init__(version=datasets.Version("1.0518.0"), **kwargs)
123
+ self.features = features
124
+ self.splits = splits
125
+
126
+
127
+ class SpaCE2021(datasets.GeneratorBasedBuilder):
128
+ """The SpaCE2021 benchmark."""
129
+
130
+ BUILDER_CONFIGS = [
131
+ SpaCE2021Config(
132
+ name="task1",
133
+ splits=['train', 'dev', 'test'],
134
+ ),
135
+ SpaCE2021Config(
136
+ name="task2",
137
+ splits=['train', 'dev', 'test'],
138
+ ),
139
+ SpaCE2021Config(
140
+ name="task3",
141
+ splits=['dev', 'test'],
142
+ ),
143
+ ]
144
+
145
+ def _info(self):
146
+ return datasets.DatasetInfo(
147
+ description=_DESCRIPTION_DICT[self.config.name],
148
+ features=_FEATURES_DICT[self.config.name],
149
+ homepage="http://ccl.pku.edu.cn:8084/SpaCE2021/",
150
+ citation=_CITATION,
151
+ license=_LICENSE,
152
+ )
153
+
154
+ def _split_generators(self, dl_manager: datasets.DownloadManager) -> List[datasets.SplitGenerator]:
155
+
156
+ # 在 hugging face 中如何为 dataset 创建 _split_generators 函数?
157
+
158
+ split_things = []
159
+ for split_name in self.config.splits:
160
+ split_thing = datasets.SplitGenerator(
161
+ name=_split_name_map[split_name],
162
+ gen_kwargs={
163
+ "data_file": dl_manager.download(_URLS_DICT[self.config.name][split_name]),
164
+ "split": split_name,
165
+ }
166
+ )
167
+ split_things.append(split_thing)
168
+ return split_things
169
+
170
+ def _generate_examples(self, filepath):
171
+ with open(filepath, encoding="utf-8") as f:
172
+ for idx, line in enumerate(f):
173
+ example = json.loads(line.strip())
174
+ yield idx, example
175
+