from datasets import load_dataset def test_load_dataset(): dataset = load_dataset("taishi-i/nagisa_stopwords") nagisa_stopwords = dataset["nagisa_stopwords"] assert "words" in nagisa_stopwords.features assert "postags" in nagisa_stopwords.features expected_words = [ "の", "、", "。", "て", "に", "を", "が", "は", "と", "た", "し", "で", "も", "ます", "\u3000", "で", "です", "1", "こと", "な", "0", "に", "いる", "する", "い", "か", "2", "「", "」", "から", "お", "れ", "まし", "・", "(", ")", "さ", "ない", "ある", "いう", "よう", "年", "だ", "あり", "や", "3", "その", "なっ", "!", "ませ", "ん", "5", "この", "ない", "ご", "9", "月", "的", "4", "ば", "など", "人", "もの", "8", "でき", "方", "なり", "ため", "6", "なる", "まで", "7", "?", "ね", "者", "それ", "さん", "場合", "たい", "私", "れる", "日", "ん", "思い", "これ", "自分", "ください", "時", "できる", "日", "だけ", "...", "でしょう", "日本", "-", "き", "おり", "一", "たら", "られ", ] assert expected_words == nagisa_stopwords["words"] expected_postags = [ "助詞", "補助記号", "補助記号", "助詞", "助詞", "助詞", "助詞", "助詞", "助詞", "助動詞", "動詞", "助詞", "助詞", "助動詞", "空白", "助動詞", "助動詞", "名詞", "名詞", "助動詞", "名詞", "助動詞", "動詞", "動詞", "動詞", "助詞", "名詞", "補助記号", "補助記号", "助詞", "接頭辞", "助動詞", "助動詞", "補助記号", "補助記号", "補助記号", "動詞", "助動詞", "動詞", "動詞", "形状詞", "名詞", "助動詞", "動詞", "助詞", "名詞", "連体詞", "動詞", "補助記号", "助動詞", "助動詞", "名詞", "連体詞", "形容詞", "接頭辞", "名詞", "名詞", "接尾辞", "名詞", "助詞", "助詞", "名詞", "名詞", "名詞", "動詞", "名詞", "動詞", "名詞", "名詞", "動詞", "助詞", "名詞", "補助記号", "助詞", "接尾辞", "代名詞", "接尾辞", "名詞", "助動詞", "代名詞", "助動詞", "名詞", "助詞", "動詞", "代名詞", "名詞", "動詞", "名詞", "動詞", "接尾辞", "助詞", "補助記号", "助動詞", "名詞", "補助記号", "動詞", "動詞", "名詞", "助動詞", "助動詞", ] assert expected_postags == nagisa_stopwords["postags"]