import json from typing import Any, Dict, Iterator, List, Tuple import datasets from datasets import Value _DESCRIPTION = ( "書籍『大規模言語モデル入門』で使用する、「AI王」コンペティションのQAデータセットです。" "GitHub リポジトリ cl-tohoku/quiz-datasets で公開されているデータセットを利用しています。" ) _HOMEPAGE = "https://github.com/cl-tohoku/quiz-datasets" _LICENSE = ( "本データセットに含まれる一部のクイズ問題の著作権は abc/EQIDEN 実行委員会に帰属するものであり、" "これらのクイズ問題は本書における使用許諾を得ているものです。" "本データセットに含まれる一部のクイズ問題は株式会社キュービックおよび株式会社カプリティオに依頼し作成したものであり、" "これらのクイズ問題は クリエイティブ・コモンズ表示・継承ライセンス 4.0 (CC BY-SA 4.0) ライセンスの下に提供されています。" "本データセットにパッセージとして付与されている Wikipedia のコンテンツは、" "クリエイティブ・コモンズ表示・継承ライセンス 3.0 (CC BY-SA 3.0) および GNU 自由文書ライセンス (GFDL) の下に配布されているものです。" f"クイズ問題のライセンスについて、詳細は {_HOMEPAGE} を参照してください。" ) _URL_BASE = "https://github.com/cl-tohoku/quiz-datasets/releases/download" _URLS = { "train": f"{_URL_BASE}/v1.0.0/datasets.jawiki-20220404-c400-large.aio_02_train.jsonl.gz", "dev": f"{_URL_BASE}/v1.0.0/datasets.jawiki-20220404-c400-large.aio_02_dev.jsonl.gz", } class AioRetriever(datasets.GeneratorBasedBuilder): VERSION = datasets.Version("1.0.0") def _info(self) -> datasets.DatasetInfo: features = datasets.Features({ "qid": Value("string"), "competition": Value("string"), "timestamp": Value("string"), "section": Value("string"), "number": Value("string"), "original_question": Value("string"), "original_answer": Value("string"), "original_additional_info": Value("string"), "question": Value("string"), "answers": [Value("string")], "passages": [ { "passage_id": Value("int32"), "title": Value("string"), "text": Value("string"), } ], "positive_passage_indices": [Value("int32")], "negative_passage_indices": [Value("int32")], }) return datasets.DatasetInfo( description=_DESCRIPTION, homepage=_HOMEPAGE, license=_LICENSE, features=features, ) def _split_generators(self, dl_manager: datasets.DownloadManager) -> List[datasets.SplitGenerator]: filepaths = dl_manager.download_and_extract(_URLS) split_generators = [ datasets.SplitGenerator(name=datasets.Split.TRAIN, gen_kwargs={"filepath": filepaths["train"]}), datasets.SplitGenerator(name=datasets.Split.VALIDATION, gen_kwargs={"filepath": filepaths["dev"]}), ] return split_generators def _generate_examples(self, filepath: str) -> Iterator[Tuple[int, Dict[str, Any]]]: with open(filepath, encoding="utf-8") as f: for i, line in enumerate(f): item = json.loads(line) yield i, item