Datasets:
Languages:
Japanese
Size Categories:
10K<n<100K
import json | |
from typing import Any, Dict, Iterator, List, Tuple | |
import datasets | |
from datasets import Value | |
_DESCRIPTION = ( | |
"書籍『大規模言語モデル入門』で使用する、「AI王」コンペティションのQAデータセットです。" | |
"GitHub リポジトリ cl-tohoku/quiz-datasets で公開されているデータセットを利用しています。" | |
) | |
_HOMEPAGE = "https://github.com/cl-tohoku/quiz-datasets" | |
_LICENSE = ( | |
"本データセットに含まれる一部のクイズ問題の著作権は abc/EQIDEN 実行委員会に帰属するものであり、" | |
"これらのクイズ問題は本書における使用許諾を得ているものです。" | |
"本データセットに含まれる一部のクイズ問題は株式会社キュービックおよび株式会社カプリティオに依頼し作成したものであり、" | |
"これらのクイズ問題は クリエイティブ・コモンズ表示・継承ライセンス 4.0 (CC BY-SA 4.0) ライセンスの下に提供されています。" | |
"本データセットにパッセージとして付与されている Wikipedia のコンテンツは、" | |
"クリエイティブ・コモンズ表示・継承ライセンス 3.0 (CC BY-SA 3.0) および GNU 自由文書ライセンス (GFDL) の下に配布されているものです。" | |
f"クイズ問題のライセンスについて、詳細は {_HOMEPAGE} を参照してください。" | |
) | |
_URL_BASE = "https://github.com/cl-tohoku/quiz-datasets/releases/download" | |
_URLS = { | |
"train": f"{_URL_BASE}/v1.0.0/datasets.jawiki-20220404-c400-large.aio_02_train.jsonl.gz", | |
"dev": f"{_URL_BASE}/v1.0.0/datasets.jawiki-20220404-c400-large.aio_02_dev.jsonl.gz", | |
} | |
class AioRetriever(datasets.GeneratorBasedBuilder): | |
VERSION = datasets.Version("1.0.0") | |
def _info(self) -> datasets.DatasetInfo: | |
features = datasets.Features({ | |
"qid": Value("string"), | |
"competition": Value("string"), | |
"timestamp": Value("string"), | |
"section": Value("string"), | |
"number": Value("string"), | |
"original_question": Value("string"), | |
"original_answer": Value("string"), | |
"original_additional_info": Value("string"), | |
"question": Value("string"), | |
"answers": [Value("string")], | |
"passages": [ | |
{ | |
"passage_id": Value("int32"), | |
"title": Value("string"), | |
"text": Value("string"), | |
} | |
], | |
"positive_passage_indices": [Value("int32")], | |
"negative_passage_indices": [Value("int32")], | |
}) | |
return datasets.DatasetInfo( | |
description=_DESCRIPTION, | |
homepage=_HOMEPAGE, | |
license=_LICENSE, | |
features=features, | |
) | |
def _split_generators(self, dl_manager: datasets.DownloadManager) -> List[datasets.SplitGenerator]: | |
filepaths = dl_manager.download_and_extract(_URLS) | |
split_generators = [ | |
datasets.SplitGenerator(name=datasets.Split.TRAIN, gen_kwargs={"filepath": filepaths["train"]}), | |
datasets.SplitGenerator(name=datasets.Split.VALIDATION, gen_kwargs={"filepath": filepaths["dev"]}), | |
] | |
return split_generators | |
def _generate_examples(self, filepath: str) -> Iterator[Tuple[int, Dict[str, Any]]]: | |
with open(filepath, encoding="utf-8") as f: | |
for i, line in enumerate(f): | |
item = json.loads(line) | |
yield i, item | |