filename
stringlengths
1
10
text
stringlengths
33
111k
category
stringclasses
9 values
license
stringclasses
1 value
credit
stringclasses
5 values
B6-4.pdf
# 事前学習済み言語モデルによるエンティティの概念化 坂田将樹 1,2 横井祥 1,2 Benjamin Heinzerling ${ }^{2,1}$ 乾健太郎 ${ }^{1,2}$ 1 東北大学 2 理化学研究所 sakata.masaki.s5@dc. tohoku.ac.jp benjamin.heinzerling@riken.jp, \{yokoi, kentaro.inui\}@tohoku.ac.jp ## 概要 事前学習済みマスク言語モデルは,事実知識に関する穴埋め問題に正答できるなど,エンティティを含むテキストをある程度うまく処理することができる. 果たしてこの挙動は言語モデルがエンティティを人間同様に「知っている」証拠となりうるのだろうか? 本研究では,言語モデルがエンティティを概念化できているか,すなわち異なる文脈や表層をもって言及される同一のエンティティを同一の事物として認識できているかどうかについて,その内部表現が十分に密で他と分離されたクラスタを成しているかという視点で検証を行った. BERTを対象とした実験の結果,約 7 割のエンティティについて, その埋込表現が他の概念と完全に分離したクラスタを形成していること(すなわち内部表現の意味での概念化に成功していること)が確認できた. ${ }^{1)}$ ## 1 はじめに 近年登場した事前学習済みマスク言語モデル [1,2] は,実世界の事物であるエンティティを含むテキストをうまく処理できているように見える. 例えば BERT [1] は "Hillary Clinton was born in [MASK]." という入力に対して,“Chicago”という実世界の事実と整合した出力を返すことができる $[3,4]$. しかし,このように言語モデルがエンティティを含む個別のテキストをある程度の精度で「処理できる」という事実は,モデルがエンティティを人間同様に「知っている」証拠となりうるのだろうか. 本稿では,マスク言語モデルがどの程度エンティティについて「知って」いるかについてある程度明らかにすることを試みる。 もしモデルのエンティティに対する理解を正確に把握する手段が手に入れば,モデルの解釈性が上がり, さらに高品質な言語モデル  図 1 エンティティの概念化の測定の概要 の実現に繋がり得るだろう。 我々は検証の第一歩として概念化という考え方を採用する. エンティティを「知っている」人間は,同一のエンティティが異なる周辺文脈で言及されたときでも,あるいは同一のエンティティを指し示すために異なるメンション(文字列)が用いられたときでも,それらを同一のものだと正しく認識できる. 例えば “Barack Obama was born in Hawaii.” と “Barack Hussein Obama was elected...” に登場する人名を同じ人物(同じ概念)であると認識できる. すなわちエンティティを概念化できている。はたしてマスク言語モデルは人間同様の概念化をおこなえているのだろうか?この問いに答えるため, 本研究では,同一のエンティティに対する内部表現が十分に密な(他と分離された)クラスタを成しているかという視点での検証をおこなう.言い換えれば,マスク言語モデルがエンティティをどの程度概念化しているかという問いに,埋め达み空間の配置を通じて答えることを試みる。本論文の貢献をまとめると以下の通り: ・事前学習済みマスク言語モデルがエンティティを概念化できているかについて,同一の事物に対応するエンティティが埋め込み空間で他の埋め込みと混ざり合っていないかという観点で定量的に評価する方法を提案した. ・BERTを対象とした検証の結果,エンティティ の周辺文脈やメンションが多様である場合でも,約 7 割のエンティティは他の概念と区別できていたことがわかった. ## 2 関連研究 言語モデルの内部表現の分析手法言語モデルの内部表現に言語的特徴が反映されているかを分析している先行研究として, [5] と [6] が挙げられる. [5] は,普通名詞や動詞の語義によって文脈化単語埋め込みの位置が異なることを可視化によって定性的に示した. [6] は, 言語の持つ特徴が単語埋め込み空間に反映されているかを明らかにするために,教師なしクラスタリングを用いた分析手法を提案した. 我々は [5] と [6] とは異なり, 新たにエンティティの情報がモデルの内部表現に反映されているかを探る. また, [6] の手法は生成されたクラスタが分離可能か不可能かの 2 值しかわからないため, 各クラスタがどの程度混ざっているのかは測定できない. したがって, 本研究ではエンティティが埋め込み空間で他の埋め込みと混ざっているか,もしくは分離しているかについて連続評価を行う。 ## 言語モデルにエンコードされている情報の分析手 法言語モデルにエンコードされている情報を分析する手法には,内部表現の分析の他にプロンプトを用いる手法がある $[3,4]$. 例えば, “Paris is the capital of [MASK]." というプロンプトに対して“France”が出力されるかによって, 言語モデルが持つ事実知識を測定している。ただし,プロンプトから得られる評価は信頼性に欠ける可能性が指摘されている. 具体的には,プロンプトが意味的に同じであっても,予測結果が異なる点 [7] や, 各モデルによって, 正解しやすいプロンプトの選好が存在する点 $[8]$ が報告されている. よって, 本研究ではプロンプトを用いずにモデルの内部表現を直接分析する. また,内部表現を分析する手法は言語モデルが 「知って」いることは測れていても,「使っている」 ことを正しく測れているかはわからない点が指摘されている [9]. そこで, [9] は「知って」いることと「使って」いることを切り分けて分析する立場をとっている. 我々も [9] と同じ立場をとる。つまり,言語モデルがエンティティに関する情報を「知って」いることと,それを認識した上で情報抽出や単語生成時に「使って」いるかを切り分けて分析する.本研究では,まず「知って」いることを調査する。 ## 3 エンティティの概念化の測定方法 ## 3.1 クラスタ間の分離度合いを測定 ## 本研究の目的は, 言語モデルがエンティティを 概念化できているかを定量的に確かめることである. 例えば, “Barack Obama was born in Hawaii." と “Barack Hussein Obama was elected..." の 2 つの文章が与えられた場合,登場する人名を同じ人物 (同じ概念) であると認識できれば,その人物について概念化しているといえる. 概念化ができているかについては,言語モデルの文脈化単語埋め込みから形成されるクラスタの分離度合いを測定することで判断する. 多義語の文脈化単語埋め込みはその語義毎に埋め込み空間上で偏在することが知られている [5]. 言い換えれば,同じ意味で用いられているトークン集合の文脈化単語埋め込みは空間上で凝集する。もし,言語モデルがエンティティを他の概念と混同しているならば,エンティティの文脈化単語埋め込みは他の概念と混ざりあっていることが予想される. 逆に,エンティティと他の概念を区別できているのであれば,概念の違いによって分離していることが予想される. このことを踏まえて,文脈化単語埋め込みを用いて以下を測定する。 ・エンティティの各クラスタと,他の概念のクラスタとの分離度合い ・エンティティ以外の各クラスタと,他の概念のクラスタとの分離度合い ここでのクラスタとは,センテンス中に現れる "Barack Obama" や"Barack Hussein Obama" の文脈化単語埋め込みを 1 つにまとめた集合を指す。 もし,エンティティの大多数のクラスタがエンティティ以外のクラスタと比べてうまく分離しているのであれば,言語モデルはエンティティの概念をよりよく区別できているといえる. 凝縮率クラスタ間の分離度合いを測定するために,各文脈化単語埋め込みの最近傍のクラスタの中心が自クラスタのクラスタ中心である割合 (以下凝縮率と呼ぶ)を算出する。 エンティティの集合を $\mathscr{B} \mathrm{~ , エンティティ ~} e \in \mathbb{E}$ に対応するべクトル集合を $X_{e}:=\left.\{\boldsymbol{x}_{e}^{1}, \boldsymbol{x}_{e}^{2}, \cdots\right.\}$, その重心を $\boldsymbol{b}_{e}:=\frac{1}{\left|\boldsymbol{X}_{e}\right|} \sum_{\boldsymbol{x}_{e} \in \boldsymbol{X}_{e}} \boldsymbol{x}_{e}$, さまざまなエンティティの重心を集めた集合を $\boldsymbol{B}:=\left.\{\boldsymbol{b}_{e} \mid e \in \mathscr{E}\right.\}$ とおく. エ 表 1 検証用データセットの詳細 表 2 クラスタが凝縮率=100\%である割合 (\%) ンティティ $e$ の凝縮率,すなわち $\boldsymbol{X}_{e}$ に含まれるべクトルたちが一箇所に固まっており他のエンティティのベクトルたちと十分に分離している度合い $P(e)$ を以下で定義する. $ P(e):=\frac{1}{\left|\boldsymbol{X}_{e}\right|} \sum_{\boldsymbol{x}_{e} \in \boldsymbol{X}_{e}} \mathbb{1}\left[\underset{\boldsymbol{b} \in \boldsymbol{B}}{\arg \min } d\left(\boldsymbol{x}_{e}, \boldsymbol{b}\right)=\boldsymbol{b}_{e}\right] $ $d(\boldsymbol{x}, \boldsymbol{y})$ は距離関数であり,検証ではユークリッド距離を使用した. この凝縮率は,あるクラスタに所属している割合を算出するという意味で,クラスタリングの良さを測る尺度である純度(Purity)と非常によく似ている. もし,あるエンティティの凝縮率が $100 \%$ あ゙れば,そのエンティティは他のクラスタと分離しており,他の概念と区別ができているといえる (図 1 , “Obama”) . 逆に凝縮率が低い場合, 他の概念と混ざり合っているといえる (図 1, “Clinton”と “Trump”). ## 4 検証 言語モデルが各エンティティの概念を区別できているかについて,文脈化単語埋め込みの分離度合いを測定することで確かめる.具体的に以下の 2 点について検証する。 1. 言語モデルは周辺文脈が異なるエンティティ同士を“同じもの”であるとわかるか? 2. 言語モデルは周辺文脈とメンションが異なるエンティティ同士を“同じもの”であるとわかるか? 1 点目では,例えば“Obama”は,大統領に就任する文やゴルフをしている文など,多様な文脈に登場する.この“Obama”を言語モデルは同じ人物だと認識しているかを検証する. 2 点目では,例えば, エンティティのメンションが“Obama”である文と, “Barack H. Obama”である文に対して,言語モデル 図 2 エンティティの周辺文脈とメンションが異なる場合のエンティティのクラスタの凝縮率の頻度 図 3 エンティティの周辺文脈とメンションが異なる場合のエンティティ以外のクラスタの凝縮率の頻度 は同じ人物だと認識しているかについて検証する。 言語モデルが各エンティティに対して概念の区別をしているかどうかは,3 節で述べたクラスタ間の分離度合いを測定し,エンティティ以外のクラスタよりも凝縮率が高いかどうかで判断する. ## 4.1 設定 モデル事前学習済み BERT-base (uncased)を使用した. 取得する文脈化単語埋め込みは BERT 最終層の隠れ状態べクトルを使用した. 使用データ wikilinks[10] データセットを使用した. このデータセットには, Wikipedia に存在する 300 万エンティティと,その周辺文脈が収録されている. 検証では,上記データセットから約 97 万センテンスをランダムに抽出した. 抽出条件として, 1 クラスタ内の点群は必ず 10 個以上とした. また,検証に使用するエンティティは人名と地名とした。「1. 言語モデルは周辺文脈が異なるエンティティ同士を“同じもの”であるとわかるか?」を検証する際には,エンティティのメンションの摇れをWikipedia 上のタイトルに統一した. 入力時には, センテンスの文頭に [CLS] トークン,文末に [SEP] トークンを挿入した。検証用データの詳細は表 1 に示した. 表 4 メンションの変化によって他クラスタと混ざった事例. 括弧内は単語のカテゴリを表す ## 4.2 検証結果と考察 各単語の分離度合いを検証した結果を表 2 に示す. ## 4.2.1 エンティティの周辺文脈のみが異なる場合 エンティティの周辺文脈が多様であっても, BERT はエンティティを区別できる:各単語の文脈化単語埋め込みの分離度合いを測定したところ,エ ンティティのクラスタの約 $83 \%$ が,凝縮率 $100 \%$ で あり,他のクラスタと分離できていた。対して,エ ンティティ以外のクラスタで凝縮率 $100 \%$ あるも のは約 $29 \%$ でぁった. エンティティとエンティティ以外の凝縮率を比較すると,エンティティのほうが他の概念と分離できていることが確認できる。したがって,エンティティの周辺文脈が多様であっても,BERT はエンティティ以外の単語と比べて他の概念と区別できるといえる。 ## 4.2.2 エンティティの周辺文脈とメンションが異な る場合 エンティティの周辺文脈やメンションが多様であっても,BERT はエンティティを区別できる(図 2,3 ) : 各単語の文脈化単語埋め込みの分離度合いを測定したところ,エンティティのクラスタの約 $70 \%$ が,凝縮率 100\%であった. 対して,エンティティ以外のクラスタで凝縮率 100\%であるものは約 29\%であった. エンティティとエンティティ以外の凝縮率を比較すると,エンティティのほうが他の概念と分離できていることが確認できた.したがって,エンティティの周辺文脈とメンションが多様であっても, BERT はエンティティ以外の単語と比べて他の概念 と区別できるといえる. しかし,「周辺文脈のみが異なる場合」と比較すると,エンティティが凝縮率 100\%である事例は約 13\%減少する.すなわち,メンションが異なることで,他のクラスタと混ざるようになり,各エンティティの区別が若干難しくなることがわかる. 実際に,エンティティが他のクラスタと混ざってしまう事例を表 3 , 表 4 に示した。これらの事例を観察すると,同じカテゴリ(人名や地名)同士で混ざっているように見える。実際に集計すると,人名と地名の両者において同じカテゴリ同士で混ざる比率は,チャンスレベルの比率より高いことがわかった (Appendix A, 表 5). よって,BERT は少なくともオントロジーレベルの概念化はできていることがわかる.しかしながら, “Stone (actor)" と "stone (noun)" が混ざり合っているように,BERT のエンティティの概念化は完璧とは言えないことも同時にわかる. ## 5 おわりに 本研究では,マスク言語モデルがエンティティをどのような形で「知って」いるかについて検証を行った. 検証では,文脈化単語埋め込みから形成されるクラスタの分離度合いを分析することで,エンティティの概念化を測定した。BERTを対象とした実験の結果,約 7 割のエンティティについて,他の概念と分離したクラスタを形成していたことが確認できた. すなわち内部表現の意味での概念化には成功していることがわかった。 ただし,本研究の検証では言語モデルがエンティティの概念化を情報抽出や単語生成時に「使って」 いるかはわからない. 今後は言語モデルがタスクを解く上で,エンティティの概念化を実際に使っているかを検証する.これにより,言語モデルの解釈性を向上することが可能となる. ## 謝辞 本研究は JST CREST JPMJCR20D2, JST ACT-X JPMJAX200S, JSPS 科研費 22H05106,22H03654, 21K17814 の助成を受けたものです. また,本研究の実装に関して東北大学の穀田一真氏に多くのご助言を頂きました. 感謝致します. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach, 2019. [3] Fabio Petroni, Tim Rocktäschel, Sebastian Riedel, Patrick Lewis, Anton Bakhtin, Yuxiang Wu, and Alexander Miller. Language models as knowledge bases? In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 2463-2473, Hong Kong, China, November 2019. Association for Computational Linguistics. [4] Zhengbao Jiang, Frank F. Xu, Jun Araki, and Graham Neubig. How can we know what language models know? Transactions of the Association for Computational Linguistics, Vol. 8, pp. 423-438, 2020. [5] Emily Reif, Ann Yuan, Martin Wattenberg, Fernanda B Viegas, Andy Coenen, Adam Pearce, and Been Kim. Visualizing and measuring the geometry of bert. In $\mathrm{H}$. Wallach, H. Larochelle, A. Beygelzimer, F. d'Alché-Buc, E. Fox, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 32. Curran Associates, Inc., 2019. [6] Yichu Zhou and Vivek Srikumar. DirectProbe: Studying representations without classifiers. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 5070-5083, Online, June 2021. Association for Computational Linguistics. [7] Yanai Elazar, Nora Kassner, Shauli Ravfogel, Abhilasha Ravichander, Eduard Hovy, Hinrich Schütze, and Yoav Goldberg. Measuring and improving consistency in pretrained language models. Transactions of the Association for Computational Linguistics, Vol. 9, pp. 10121031, 2021. [8] Boxi Cao, Hongyu Lin, Xianpei Han, Fangchao Liu, and Le Sun. Can prompt probe pretrained language models? understanding the invisible risks from a causal view. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 5796-5808, Dublin, Ireland, May 2022. Association for Computational Linguistics. [9] Karim Lasri, Tiago Pimentel, Alessandro Lenci, Thierry Poibeau, and Ryan Cotterell. Probing for the usage of grammatical number. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 8818-8831, Dublin, Ireland, May 2022. Association for Computational Linguistics. [10] Sameer Singh, Amarnag Subramanya, Fernando Pereira, and Andrew McCallum. Wikilinks: A large-scale cross-document coreference corpus labeled via links to wikipedia. 2012. ## A Appendix エンティティの各単語埋め込みが最近傍クラスタと混ざっている場合,同じカテゴリ同士で混ざるのか, もしくは違うカテゴリと混ざるのかについて検証した. 得られた結果は表 5 に示した. チャンスレべルの比率と比較すると,同じカテゴリ同士で混ざる比率がより多いことがわかる.ここでのカテゴリは,人名,地名,エンティティ以外の 3 種類である. 表 5 最近傍クラスタが異なるクラスタである場合の各カテゴリの比率
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B6-5.pdf
# 理論言語学の知見を応用した多言語クラスタリング 今井咲良 ${ }^{1}$ 河原大輔 1 折田奈甫 ${ }^{1}$ 小田博宗 ${ }^{2}$ 1 早稲田大学理工学術院 2 東京大学大学院総合文化研究科 sakura_imai@toki.waseda.jp, \{dkw, orita\}@waseda.jp hiromuneoda@g.ecc.u-tokyo.ac.jp ## 概要 多言語クラスタリング研究では、言語モデルの埋め込みを用いる手法が主流であり、語族がベースライン手法として扱われている。しかし、語族による分類は粒度が粗く、言語の性質を十分に考慮しているとは言い難い。そのため、より言語の性質に着目した分類を検討する必要がある。本研究では、固有表現認識 (NER) のための多言語クラスタリングを目的として、理論言語学の知見に基づく言語分類方法を検討し、名詞句の形態・統語的特徴による分類と主要部の位置による分類を選定した。これらの分類と埋め込みによるクラスタリング手法を NER において比較した結果、どちらの分類も埋め込みによるクラスタリング手法の精度を上回った。 ## 1 はじめに 低リソース言語への言語間転移を目的とした言語クラスタリングは、固有表現認識 (NER)をはじめとした自然言語処理の様々な分野で利用されている。近年は言語モデルの埋め込みを用いたクラスタリングが主流となっており、言語学の知見をもとにしたクラスタリングは、語族、すなわち系統分類がべー スラインとして用いられている程度である $[1,2]$ 。 しかし、言語学では系統分類以外に様々な言語の分類方法が提案されており、言語学の知見を生かした言語クラスタリングには改善の余地が多分にある。本研究は、これまでに検証されてこなかった言語の形態・統語的性質による分類に着目し、このクラスタリングの有用性を調査する。言語の形態・統語的性質による分類とは、言語の系統関係、すなわち語族ではなく、語順や定冠詞の有無といった言語の特徴に基づく分類であり、理論言語学の知見が用いられる。これらの知見を応用すれば、埋め込みでは捉えられない言語的性質が反映されたクラスタリングが可能になると予測する。形態・統語的性質に基づくクラスタリングの有用性を評価するため、すでに埋め込みによるクラスタリングと系統分類によるクラスタリングが検証されている [2] NER タスクを評価対象として用いる。また、本稿で報告する実験では印欧語族の言語データを用いる。これは、NERタスクの訓練・評価データが存在する言語が多く、理論言語学研究においても最も知見の蓄積がある語族であるためである。 本稿で新たに提案する分類には 2 種類あり、どちらも理論言語学、特に統語理論におけるパラメータを利用している。 第一の分類は、名詞句の形態・統語的性質に関するパラメータに基づく分類である。NER は入力文中の名詞句中で固有表現が表れる位置を推測する夕スクであるため、名詞句の形態・統語パラメータに類似性をもつ言語同士をクラスタリングする方が精度が上がると予測する。本研究では、Ceolin ら [3] が提案する、名詞句に関する様々な形態・統語パラメータをもとに作られた言語樹を用いてこのクラスタリングを行う。第二の分類は、句構造内で主要部が現れる位置を示す主要部パラメータによる分類である。各言語の句構造において、例えば場所を表す語(前置詞や後置詞)が似た位置に現れる言語で分類する方が NER の精度が上がると予測する。 本研究では、上記 2 種類のクラスタリング手法を、言語クラスタリングで主流の埋め込みべースの手法および系統分類と比較し、理論言語学的分類の有用性を検証する。 ## 2 関連研究 ## 2.1 言語間転移学習 言語間転移学習 [4] とは、学習データが特定の言語しか存在しない状況下で言語モデルの学習を行い、それを転移先のターゲット言語でのタスクに転用する手法である。言語間転移学習を効率的に 行うための手法として、様々な研究が行われている $[5,6,7,8,9,10]$ 。しかし、これらの研究において用いられている事前知識は、粒度の粗い系統分類や表層的な文字種などに限られており、言語学の知見を生かす余地が多分にある。 ## 2.2 多言語クラスタリング 多言語間での転移学習をより効果的に実施するための一手法として、言語同士をクラスタリングして言語モデルを学習する多言語クラスタリングが挙げられる。多言語クラスタリングは、特にニューラル機械翻訳の分野において活用されており、翻訳モデルの埋め込みを用いて言語間の距離を測定しクラスタリングを行う手法が提案されている [1]。 Shaffer [2] は、NERにおいて埋め込みと系統分類によるクラスタリングを比較し、埋め込みべースのクラスタリングの有効性を確認している。しかし、多言語クラスタリングにおいて、系統分類以外の言語学的知識を用いた実験は未だ行われておらず、さらなる検証が必要である。 ## 3 理論言語学のパラメータを用いた 言語クラスタリング ## 3.1 対象のタスクおよび言語の選定 本研究では、埋め込みおよび系統分類に基づくクラスタリングによって NER の精度向上を図った先行研究 [2] と比較するため、対象のタスクとして NER を選定する。また、対象言語には、印欧語族に属する 25 言語を用いた。これは、NER のデータが存在する言語が多く、理論言語学でも知見の蓄積が多いためである。 本研究で用いる言語の一覧を表 1 に示す。先行研究 [2] では、データが存在するにもかかわらず、ケルト語派等の下位分類は使用されなかった。本研究では、下位分類の網羅性を可能な限り考慮して言語を選択する。なお、本稿では、各言語を ISO639-11) に準拠した言語コードで表す。 ## 3.2 名詞句パラメータクラスタリング NER は、入力文をトークンとしてモデルに与え、名詞句から構成される固有表現とその属性を推測するトークン分類のタスクである。そのため、名詞句  表 1 本研究で使用した言語と先行研究との比較 図 1 Ceolin ら [3] による言語樹 の構造が類似した言語同士でクラスタリングをすると学習の効果が高いと考元、定冠詞の有無など名詞句における形態・統語的性質を通言語的に捉えたパラメータに着目する。本研究では、Ceolin ら [3] が提案する、名詞句に関する 94 種類の形態・統語パラメータ2)(関係節への定冠詞付加の有無や接置詞を用いた属格の有無など)をもとに作られた言語樹をクラスタリングに用いて、名詞句の形態・統語的性質が似た言語で分類する。本研究で用いる Ceolin らの言語樹を図 1 に示す。 言語樹を用いたクラスタリングでは、言語樹上で距離が近い下位分類同士を結合し一つのクラスタを形成するという操作を繰り返し行う。例として、クラスタ数 3 において図 1 を用いてクラスタリングを行った結果を表 2 に示す。クラスタ数は 4.2 節にて述べるエルボー法の結果により決定する。 ## 3.3 主要部パラメータクラスタリング 言語モデルが NER のタスクを解く際は、固有表現が含まれる名詞句全体だけでなく、周辺のトークンの羅列(語順)も暗黙的に学習すると仮定する。固有表現である名詞句は、場所を表す接置詞句などの一部を構成する場合や、目的語として動詞句の一部を構成する場合があるため、主要部の位置が同じ言語同士で分類する方が学習効果が高くなると予測 2) https://github.com/AndreaCeolin/Boundaries/blob/ main/Tables2.pdf 表 2 図 1 の言語樹によるクラスタリング(クラスタ数 3) 表 3 主要部パラメータに基づくクラスタリング \\ 主に主要部後行 & インド・イラン語派 する。この仮説をもとに、各言語の句構造においてどの位置に句の主要部が置かれるかを表す主要部パラメータ [11]を用いて言語をクラスタリングする。例えば接置詞句 (PP) では、主要部先行であれば主要部である接置詞 $(\mathrm{P})$ が名詞句 $(\mathrm{NP})$ に先行し、主要部後行であればその逆になる (図 2)。こうした主要部パラメータに基づく分類を表 3 に示す。 ## 4 固有表現認識 (NER) 評価実験 ## 4.1 実験設定 NER による評価実験では、3 節の 2 種類のクラスタリング手法を用いて実験を行う。本研究における全言語は系統分類 (印欧語族) にあたるため、系統分類で Fine-tuning する場合と単言語で Fine-tuning する場合とも比較する。 初めにクラスタ内の全ての言語の訓練セットを結合し、NERで言語モデルを Fine-tuningする。その後、クラスタ内の各言語の評価セットを用いて評価を行い、スコアを取得する。本研究では、Wikiann [4] データセット ${ }^{3)}$ と XLM-RoBERTa-base ${ }^{4}$ [12]を用いる。各クラスタにおける NER 評価実験を 3 回ずつ行い、平均 $\mathrm{F} 1$ スコアと標準偏差を算出する。また、 すべての実験に関して、バッチサイズを 32 、入力の最大長を 512、学習率を 5e-05 と設定し、 3 epoch の Fine-tuning を行う。 ## 4.2 埋め込みベースクラスタリング 本研究では、比較対象として Shaffer [2] による埋め込みべースのクラスタリング手法を採用する。埋め込みベースクラスタリングの概略を図 3 に示す。初めに、Wikiann 訓練セットを用いて、XLMRoBERTa-base を言語識別タスクで Fine-tuning する。 3) https://huggingface.co/datasets/wikiann 4) https://huggingface.co/xlm-roberta-base 図 2 接置詞句 (PP) の主要部先行 (左) と主要部後行 (右) 図 3 埋め込みベースクラスタリングの概略 言語識別タスクとは、言語モデルに与えた入力がどの言語で記述されているかを推測するタスクである。本研究では、表 1 の全 25 言語を用いて行う。 次に、言語識別タスクで Fine-tuning した XLMRoBERTa に Wikiann 検証セットの各文を入力として与光、[CLS]トークンから埋め込みを取得する。そして、得られた埋め込みをもとに、凝集クラスタリングにより再帰的にクラスタリングを行う。そして、各入力に対してクラスタをラベリングし、各言語においてどのクラスタに一番多く割り当てられたかによりその言語が属するクラスタを決定する。 Wikiann データセットの各言語の検証セットから、 1,000 サンプルおよび 10,000 サンプルを用いてクラスタリングを行った結果を表 4 に示す。 本研究では、 3 節にて述べた名詞句のパラメータによるクラスタリング手法と比較する際は、エルボー法 [13] により決定されたクラスタ数 3を用いる (その他のクラスタ数 $\{2,4,5\}$ での比較実験の結果は付録参照)。また、主要部パラメータを用いたクラスタリング手法と比較する際はクラスタ数を 2 に揃えてクラスタを生成する。 ## 4.3 結果と議論 表 5 に名詞句パラメータと単言語、埋め込み、系統分類を用いた NER 評価結果を示す。表 6 に主要部パラメータとの比較結果を示す。表では、言語ごとに最高スコアを太字にしている。 はじめに、本研究で用いた形態・統語パラメータによるクラスタリングと埋め込みべースのクラスタリングによる NER 評価結果を比較する。表 4 から、埋め込みによるクラスタリング手法は、対象言語の選定や埋め込みを得るためのサンプル数によって結果が大きく異なり、一様に最も有効な手法とは言い難いことがわかった。名詞句パラメータに基づくク 表 4 埋め込みベースクラスタリング結果 (クラスタ数 3) & \\ 表 5 ラスタを用いて NER 評価を行った結果(表 5)、7 割の言語において埋め込みによるクラスタリングを上回った。また、主要部パラメータに基づくクラスタを用いた結果(表 6)では、8割の言語において埋め込みべースの結果を上回った。これらの結果は、理論言語学の通言語的パラメータが自然言語処理夕スクにおいて有用であることを示している。 つぎに、系統分類と形態・統語パラメータによるクラスタを用いた結果を比較する。本研究の対象言語はすべて印欧語族に属することから、全言語を用いた結果は系統分類によるクラスタリングを行った結果と等しい。したがって、系統分類は他の分類に比べ訓練サンプル数が圧倒的に多い。本研究が提案する形態・統語パラメータを用いた分類はデータ量 で大きく劣るにも関わらず、系統分類と比べて同等かそれ以上のスコアを達成した。最も良いスコアを出した分類の全言語での割合を比較すると、系統分類の 4 割に対して名詞句パラメータは 3 割に達している(表 5)。訓練サンプル数が格段に少ない名詞句パラメータの分類が全言語での学習に匹敵している。さらに、約 7 割の言語において主要部パラメー タが最も良いスコアを出した(表 6)。これらの結果は、最近のデータ偏重の自然言語処理において、言語学が役立つ可能性を示唆している。 ## 5 おわりに 本稿では、言語の形態・統語的性質による分類を活用した多言語クラスタリングを提案し、NER タスクにおける本手法の有用性を示した。 本研究でクラスタリングに用いた形態・統語パラメータ以外にも、様々なパラメータが提案されている [14]。対象とするタスクによってクラスタリングに最適な言語パラメータが異なる可能性がある。また、考慮するパラメータをさらに増やして複合的なクラスタリングを行うことでより効果的に言語間転移が行われる可能性もあり、今後の課題としたい。 ## 謝辞 本研究は JSPS 科研費 JP21H04901 の助成を受けて実施した。 ## 参考文献 [1] Xu Tan, Jiale Chen, Di He, Yingce Xia, Tao Qin, and TieYan Liu. Multilingual neural machine translation with language clustering. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 963-973, Hong Kong, China, November 2019. Association for Computational Linguistics. [2] Kyle Shaffer. Language clustering for multilingual named entity recognition. In Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 40-45, Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [3] Andrea Ceolin, Cristina Guardiano, Giuseppe Longobardi, Monica Alexandrina Irimia, Luca Bortolussi, and Andrea Sgarro. At the boundaries of syntactic prehistory. Philosophical Transactions of the Royal Society B, Vol. 376, , 2021 . [4] Mikel Artetxe and Holger Schwenk. Massively multilingual sentence embeddings for zero-shot cross-lingual transfer and beyond. Transactions of the Association for Computational Linguistics, Vol. 7, pp. 597-610, 2019. [5] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, Berlin, Germany, August 2016. Association for Computational Linguistics. [6] Vaidehi Patil, Partha Talukdar, and Sunita Sarawagi. Overlap-based vocabulary generation improves crosslingual transfer among related languages. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 219-233, Dublin, Ireland, May 2022. Association for Computational Linguistics. [7] Ryokan Ri and Yoshimasa Tsuruoka. Pretraining with artificial language: Studying transferable knowledge in language models. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 7302-7315, Dublin, Ireland, May 2022. Association for Computational Linguistics. [8] Telmo Pires, Eva Schlinger, and Dan Garrette. How multilingual is multilingual BERT? In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4996-5001, Florence, Italy, July 2019. Association for Computational Linguistics. [9] Yoshinari Fujinuma, Jordan Boyd-Graber, and Katharina Kann. Match the script, adapt if multilingual: Analyzing the effect of multilingual pretraining on cross-lingual trans- ferability. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1500-1512, Dublin, Ireland, May 2022. Association for Computational Linguistics. [10] Wietse de Vries, Martijn Wieling, and Malvina Nissim. Make the best of cross-lingual transfer: Evidence from POS tagging with over 100 languages. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 7676-7685, Dublin, Ireland, May 2022. Association for Computational Linguistics. [11] Noam Chomsky. Lectures on Government and Binding. De Gruyter, Berlin, Germany, 1981. [12] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised cross-lingual representation learning at scale. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8440-8451, Online, July 2020. Association for Computational Linguistics. [13] Robert L. Thorndike. Who belongs in the family? Psychometrika, Vol. 18, pp. 267-276, 1953. [14] Ian Roberts. Parameter Hierarchies and Universal Grammar. Oxford University Press, Jun 2019. & & & \\ ## A クラスタ数を変化させた場合の NER 評価結果 3 節および 4 節では、クラスタ数を 3 とした場合における名詞句パラメータクラスタリングと埋め込みベースクラスタリングの比較を行った。本節では、クラスタ数を $\{2,4,5\}$ と変化させた場合のクラスタリング結果、またそれらを用いた NER による評価実験結果について述べる。はじめに、例として Wikiann データセットの検証セット 10,000 サンプルを用いて作成したクラスタを表 7 に示す。これらのクラスタを用いた NER 評価実験の結果を表 8 亿示す。 表8から、クラスタ数が減少するにつれて名詞句パラメータクラスタリングが埋め込みベースクラスタリングを大幅に上回ることがわかった。クラスタ数を 2 に設定した場合は、全体の 6 割の言語で最高スコアを記録している。 一方で、クラスタ数 5 の結果では、1,000 サンプルと 10,000 サンプルの埋め込みベースクラスタリングでそれぞれ 5 言語と 13 言語、名詞句パラメータクラスタリングでは 8 言語が最高スコアを記録した (表 8)。表 7 を参照すると、埋め込みベースのクラスタ数 5 において各クラスタに属する言語数に大きな偏りがあることがわかる。特に、 10,000 サンプルを用いたクラスタリングでは 1 つのクラスタに言語が集中していることがわかる (表7)。したがって、各クラスタのデー 夕量にも大きな差が生じる。そのような状況下でも、NER 評価結果において名詞句パラメータクラスタリングは埋め込みベースクラスタリングに NER スコアにおいて匹敵している。この結果は、クラスタ数を変化させてもクラスタリング亿形態・統語的性質を用いる有効性があることを示している。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B7-1.pdf
# DAS-VQA: Dual Awareness Systems for Improving Generalization in Visual Question Answering Trang Nguyen Naoaki Okazaki Tokyo Institute of Technology, Department of Computer Science, School of Computing trang.nguyen@nlp.c.titech.ac.jp okazakilc.titech.ac.jp } \begin{abstract} Multimodal reasoning is a crucial factor of generalizability in the Visual Question Answering (VQA) task. Recent studies deal with generalization by refining unimodal models but pay less attention to the combination of multimodalities. We propose Dual Awareness Systems VQA (DAS-VQA), a novel framework to improve the Out-ofDistribution generalization by enhancing multimodal reasoning. DAS-VQA consists of two components: (1) the input processing component to identify the purpose of a question, and (2) the selection component for a proper strategy to give an answer. The experimental results show that DAS-VQA improves the generalization on real-life images and medical datasets without extra human annotations. \end{abstract ## 1 Introduction The Visual Question Answering (VQA) task is to provide an answer to the questions regarding an image. Recent studies (Niu et al., 2021; Wen et al., 2021; Niu and Zhang, 2021) raised an issue that the models tend to answer a question while ignoring the input image, which hinders the Out-of-Distribution (OOD) generalization. For more details, OOD generalization is the ability to perform well in OOD cases rather than just recalling the co-occurrence of data during the independent and identically distributed (IID) training (Zhang et al., 2021; Kawaguchi et al., 2022). The reasons come from the biases in human knowledge that cause some correlations between the question and answer distribution (Niu et al., 2021; Wen et al., 2021). For instance, the question Is this ...? is usually supposed to be a Yes/No question (e.g. Is this a cat?) instead of a multiple choice question (e.g. Is this a cat or dog?). Therefore, there is a chance to give a correct answer just by replying Figure 1: DAS-VQA overview: $A S_{1}$ (green area) implicitly recognizes question's purposes, and $A S_{2}$ (yellow area) selects a proper strategy to give the answer. Yes or No. Some promising approaches to solve this issue are (1) reducing the linguistic correlation (Niu et al., 2021; Wen et al., 2021), (2) strengthening the visual processing (Yang et al., 2020), and (3) balancing the answer distribution by generating new image-question pairs (Gokhale et al., 2020). However, these approaches focus only on either language or the visual modality without considering the causality among input properties such as question types, objects, or backgrounds. In fact, the VQA task requires not only the joint of visual and language processing but also the multimodal reasoning between them (Wang et al., 2022b; Nguyen et al., 2022). In addition, it is impossible to cover all combinations of the visual and language properties in a single dataset (Cao et al., 2021) due to the diversity of data in real life (Gokhale et al., 2020). Therefore, the reasoning across modularities should be considered as a core aspect to solve the bias issue and improve OOD generalization (Cao et al., 2021). In this work, we propose Dual Awareness Systems VQA (DAS-VQA) as a novel framework to improve the OOD generalization by emphasizing multimodal reasoning, inspired by the causality theory (Daniel et al., 2015; Wang et al., 2022a). Assuming that question types lead to differ- ent strategies to answer the question, DAS-VQA consists of two components called the Awareness System (AS): (1) the first one is placed in the inputs processing part, which is responsible for implicitly recognizing the question's purpose; and (2) the second one takes the processed inputs and the question purpose into account to select one from a list of strategies to predict the answer. Our contributions are summarized as follows: (1) We propose DAS-VQA as a novel framework to improve OOD generalization by enhancing the multimodal reasoning that is compatible with a diversity of multimodal tasks and domains; and (2) DAS-VQA is the first work for VQA task that represents the multimodal reasoning as the interaction of double mediators in a causal graph, which corresponds to the two layers of cognition. ## 2 Preliminaries ## 2.1 The causal-effect in general A basic form of a causal relation is defined as $X \rightarrow Y$ with the treatment $X$ and outcome $Y$. To explore the reasons of $X$ causes $Y$, Pearl and Mackenzie (2018) mentioned mediator to dissect the effect into direct and indirect effects. ## 2.1.1 Mediators in causality A single mediator $M$ forms an indirect path $X \rightarrow M \rightarrow$ $Y$ as described in Figure 2a. On the other hand, considering two ordered mediators $M_{1}$ and $M_{2}$ in Figure 2b, we have three indirect paths: - Case 1: $X \rightarrow M_{1} \rightarrow Y:$ only through $M_{1}$ - Case 2: $X \rightarrow M_{2} \rightarrow Y$ : only through $M_{2}$ - Case 3: $X \rightarrow M_{1} \rightarrow M_{2} \rightarrow Y:$ through both $M_{1}, M_{2}$ Following Daniel et al. (2015), we denote $\mathrm{Y}_{i^{-}} j k l$ is the outcome conditioned by $i, j, k, l \in\{0,1\}$. $i$ equals to 1 when the treatment $X$ is given and 0 otherwise when a virtual value is defined for $X . j, k$, and $l$ equal to 1 when $Y$ is affected by the indirect path described as Case 1, Case 2, and Case 3, respectively, and 0 otherwise. For instance, $\mathrm{Y}_{1}-001$ represents the outcome that is affected by a given $X$ and two factors: $X \rightarrow Y$ and $X \rightarrow M_{1} \rightarrow M_{2} \rightarrow Y$. ## 2.1.2 Total Effect and related terms The term Total Effect (TE) described in Equation 1 compares the effect of $X$ on $Y$ through any indirect paths. The (a) Causal relation with a single mediator $M$ (b) Causal relation with two mediators $M_{1}$ and $M_{2}$ Figure 2: General forms of the causal graphs general form of Natural Direct Effect (NDE) is defined in Equation $2^{1)}$ to analyze a particular indirect case. In addition, the TE can be decomposed into the sum of NDE and Total Indirect Effect (TIE) as in Equation 3. $ \begin{gathered} \mathrm{TE}=\mathrm{Y}_{1}-111-\mathrm{Y}_{0}-000 \\ \mathrm{NDE}-j k l=\mathrm{Y}_{1}-j k l-\mathrm{Y}_{0}-j k l \\ \mathrm{TIE}=\mathrm{TE}-\mathrm{NDE} \end{gathered} $ ## 2.2 The causal-effect view in VQA Consider the causal graph for the VQA task depicted in Figure $3 \mathrm{a}$ in which the inputs $V$ and $Q$ cause an answer $A$, and a mediator $K$ represents the commonsense knowledge space. We have: Direct paths: $Q \rightarrow A, V \rightarrow A$ and Indirect path: $(V, Q) \rightarrow K \rightarrow A$. Notice that the direct paths represent the effects only from the question or image, while the indirect path represents the relation of the question, image, and the knowledge space to cause an answer. Therefore, the causality approach for the VQA task aims to enhance the indirect effect and eliminate the direct effects. ## 3 Proposed method: DAS-VQA ## 3.1 Dual Awareness Systems The DAS-VQA, illustrated in Figure 1, provides an architecture backbone to promote the effects of multimodal reasoning between the input image, question, and commonsense knowledge to yield an answer in the VQA task. The key idea of DAS-VQA is to construct two awareness systems (AS) to have (1) distinct approaches in understanding the multimodal input and (2) various strategies in giving the answer by assuming that different questions' purposes lead to diverse ways to answer a question. Subsequently, DAS-VQA learns to operate a large number of multimodal 1) We have eight cases of NDE corresponding to the increase of the binary string from 000 to 111 (Daniel et al., 2015) reasoning flows, which is interpreted as choosing an appropriate pair of approach and strategy for a particular multimodal input. Therefore, DAS-VQA is able to deal with the diversity of multimodal combinations, which improves the OOD generalization. Technically, the causal view of DAS-VQA, as presented in Figure 3c, contains the given values of treatment as $(v, q)$ that causes an answer $A$, controlled by the two ASs denoted as mediators $A S_{1}$ and $A S_{2}$. Subsequently, any paths that do not go through $A S_{1}$ (e.g. $\quad q \rightarrow A$, $q \rightarrow A S_{2} \rightarrow A$ ) are considered as unimodal paths since they do not produce any multimodal understanding from the input pair. Likewise, any paths that do not go through $A S_{2}\left(\right.$ e.g. $(v, q) \rightarrow A S_{1} \rightarrow A$ ) are considered as monolithic paths since they do not involve separated strategies to give the answer. Finally, DAS-VQA emphasizes multimodal reasoning by eliminating paths without a completed reasoning flow, including unimodal and monolithic paths. Notice that the question types and strategies are implicitly distinguished by the model during training, not explicitly defined by humans. ## 3.2 Implementation details Following the notation in Section 2.1.1, we denote $Z_{I}-S_{1} S_{2} S_{12} \in \mathbb{R}^{N}$ is the predicted answer controlled by $I, S_{1}, S_{2}, S_{12} \in\{0,1\}$ ( $N$ is the vocabulary size). Specifically, $I$ is 1 when the input pair is given; $S_{1}$ is 1 when the path corresponding to Case 1 exists and 0 otherwise. $S_{2}$ and $S_{12}$ are defined similarly with Case 2 and Case 3. Let $x$ denote the multimodal representation of the input pair computed by $A S_{1}$. Next, define the list of answers $z \in \mathbb{R}^{N}$ computed by Neural Network (NN) models: $z_{v}=$ $W_{v}(v)$ and $z_{q}=W_{q}(q)$ as direct effects; $z_{v^{*}}=W_{v^{*}}(v)$ and $z_{q^{*}}=W_{q^{*}}(q)$ as indirect effects only through $A S_{2}$; $z_{M F}=W_{M F}(x)$ as an indirect effect only through $A S_{1}$ in which $W_{M F}$ is designed as monolithic funciton and $z_{A S}=W_{A S}(x)$ as indirect effect through both of ASs. $ \begin{gathered} Z_{1}-111=z_{q}+z_{v}+z_{q^{*}}+z_{v^{*}}+z_{M F}+z_{A S} \\ Z_{1}-110=z_{q}+z_{v}+z_{q^{*}}+z_{v^{*}}+z_{M F} \end{gathered} $ Training $A S_{1}$ and the NNs above are trained by Cross Entropy Loss on $Z_{1}-111$, which is described in Equation 4, with the target as the correct answer in the training data. Inference Following Equation 3, the predicted answer probability is defined as the subtraction of $Z_{1}-111$ as TE (a) Conventional VQA (b) Strategy awareness VQA (c) DAS-VQA Figure 3: General forms of the causal graphs and $Z_{1}-110$ (Equation 5) as NDE, with the meaning of eliminating effects from uncompleted reasoning paths. For more details about the model design of this study, we refer the readers to Appendix B. ## 4 Experiments and Results Our experiments validate two hypotheses: (1) the awareness of the question's purpose is beneficial to improving the VQA performance, and (2) the awareness of multimodal reasoning helps enhance the OOD generalization. ## 4.1 Experiment setup ## 4.1.1 Datasets To examine the first hypothesis, we conduct an experiment on four datasets in two domains: (1) real-life: VQACPv2 (Agrawal et al., 2017) and VQAv2 and (2) medical: PathVQA (He et al., 2021) and VQA-RAD (Lau et al., 2018). To examine the second hypothesis, we observe results on the VQA-CPv2 dataset since this is an OOD dataset with significant differences in answer distribution per question category between the training and test sets. ## 4.1.2 Baselines In VQA-CPv2 and VQAv2, we compare DAS-VQA and CFVQA (Niu et al., 2021), which use a similar approach, i.e., the causal view of the VQA task to overcome the language priors. CFVQA attempts to eliminate the effect of the question-only branch, which is distinct from our method that promotes multimodal reasoning. We compare DAS- Table 1: Comparison on VQA-CPv2 and VQAv2. The bolded values indicate the best results. Table 2: Overall score comparison on PathVQA and VQARAD. The bolded values indicate the best results. (a) How many ... ? (b) Which ... ? Figure 4: Answers distributions on VQA-CPv2 VQA to MMQ-VQA (Binh D. Nguyen, 2019) on PathVQA and VQA-RAD as the first work that reports results on PathVQA and the state-of-the-art on VQA-RAD. We report the mean and standard error over 5 seeds for all methods. ## 4.2 Experiment results ## 4.2.1 Quantitative Results The IID results on VQAv2, PathVQA, and VQA-RAD are presented in Tables 1 and 2. Overall, DAS-VQA outperforms the baselines in all answer categories. Taking a deeper look at the OOD result on VQA-CPv2, DAS-VQA robustly outperforms the baseline by a large margin, especially +20.1 point in the Number type. ## 4.2.2 Qualitative Results Debiased answer distribution As illustrated in Figure 4, DAS-VQA exhibits the OOD generalizability when overcoming the biased answers in training set on multiple question categories, whereas the baseline shows the biased distribution of the memorized answers. Debiased sample Figure 5 provides a comparison of debiasing results from the baseline and DAS-VQA. DAS- Figure 5: Sample of debiased case. DAS-VQA recognize the multiple choice question and give a correct answer VQA answers the question correctly by recognizing the question purpose (the multiple choice question) accurately, although the baseline is trapped in the Yes/No question type and gives an incorrect answer. For further discussion on qualitative results, we refer the readers to Appendix D. ## 5 Related Work Causality approaches in VQA Niu et al. (2021) creates the question-only, (i.e. $Q \rightarrow A$ ) to basically capture the linguistic biases. They utilize the counterfactual training objective similarly to Equation 3 to subtract the bias from the conventional answer distribution to obtain a debiased one. In contrast, DAS-VQA extends the biases not only from the linguistic but also from the monolithic strategy of the model for different question purposes. Multimodal reasoning in VQA Wang et al. (2022b) create multimodal reasoning by combining the two knowledge graphs of visual-level with extracted objects and concept-level with multimodal information. In contrast to DAS-VQA, we define multimodal reasoning as the choices of paths in the causal graph to understand the multimodal and select a proper strategy to predict the answer. ## 6 Conclusion In this study, we proposed DAS-VQA as a novel framework that improves the OOD generalization in the VQA task by promoting multimodal reasoning without any additional human annotations or labels. The experiment results demonstrate that DAS-VQA outperforms the baselines in both IID and OOD cases with real-life images and the medical domain datasets. ## 7 Acknowledgement These research results were partly obtained from the commissioned research (No. 225) by National Institute of Information and Communications Technology (NICT), Japan. ## References Agrawal, A., Batra, D., Parikh, D., and Kembhavi, A. (2017). Don't just assume; look and answer: Overcoming priors for visual question answering. In CVPR. Binh D. Nguyen, Thanh-Toan Do, B. X. N. T. D. E. T. Q. D. T. (2019). Overcoming data limitation in medical visual question answering. In MICCAI. Cao, Q., Wan, W., Wang, K., Liang, X., and Lin, L. (2021). Linguistically routing capsule network for outof-distribution visual question answering. In 2021 IEEE/CVF International Conference on Computer Vision (ICCV), pages 1594-1603. Daniel, R. M., De Stavola, B. L., Cousens, S. N., and Vansteelandt, S. (2015). Causal mediation analysis with multiple mediators. Biometrics, 71(1):1-14. Gokhale, T., Banerjee, P., Baral, C., and Yang, Y. (2020). MUTANT: A training paradigm for out-of-distribution generalization in visual question answering. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 878-892, Online. Association for Computational Linguistics. He, X., Cai, Z., Wei, W., Zhang, Y., Mou, L., Xing, E., and Xie, P. (2021). Towards visual question answering on pathology images. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pages 708718, Online. Association for Computational Linguistics. Kawaguchi, K., Bengio, Y., and Kaelbling, L. (2022). Generalization in deep learning. In Mathematical Aspects of Deep Learning, pages 112-148. Cambridge University Press. Lau, J. J., Gayen, S., Demner, D. L., and Abacha, A. B. (2018). Visual question answering in radiology (vqarad). In Open Science Framework. Nguyen, B. X., Do, T., Tran, H., Tjiputra, E., Tran, Q. D., and Nguyen, A. (2022). Coarse-to-fine reasoning for visual question answering. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 4558-4566. Niu, Y., Tang, K., Zhang, H., Lu, Z., Hua, X.-S., and Wen, J.-R. (2021). Counterfactual vqa: A cause-effect look at language bias. In CVPR, pages 12695-12705. Niu, Y. and Zhang, H. (2021). Introspective distillation for robust question answering. In Ranzato, M., Beygelzimer, A., Dauphin, Y., Liang, P., and Vaughan, J. W., editors, Advances in Neural Information Processing Systems, volume 34, pages 16292-16304. Curran Associates, Inc. Pearl, J. and Mackenzie, D. (2018). The Book of Why: The New Science of Cause and Effect. Basic Books, Inc., USA, 1 st edition. Schölkopf, B., Locatello, F., Bauer, S., Ke, N. R., Kalchbrenner, N., Goyal, A., and Bengio, Y. (2021). Toward causal representation learning. Proceedings of the IEEE, 109(5):612-634. Wang, W., Lin, X., Feng, F., He, X., Lin, M., and Chua, T.-S. (2022a). Causal representation learning for outof-distribution recommendation. In Proceedings of the ACM Web Conference 2022, WWW '22, page 3562-3571, New York, NY, USA. Association for Computing Machinery. Wang, Y., Yasunaga, M., Ren, H., Wada, S., and Leskovec, J. (2022b). Vqa-gnn: Reasoning with multimodal semantic graph for visual question answering. Wen, Z., Xu, G., Tan, M., Wu, Q., and Wu, Q. (2021). Debiased visual question answering from feature and sample perspectives. In Beygelzimer, A., Dauphin, Y., Liang, P., and Vaughan, J. W., editors, Advances in Neural Information Processing Systems. Yang, X., Lin, G., Lv, F., and Liu, F. (2020). Trrnet: Tiered relation reasoning for compositional visual question answering. In ECCV. Zhang, C., Bengio, S., Hardt, M., Recht, B., and Vinyals, O. (2021). Understanding deep learning (still) requires rethinking generalization. volume 64, page 107-115, New York, NY, USA. Association for Computing Machinery. Is this ... or ...? Figure 6: The strategy awareness VQA from the view of ICM ## A The flexibility of DAS-VQA The flexibility of DAS-VQA is described by two points: the design of the two awareness systems and the choices of NDE. First, technically, these two ASs can be designed as any deep learning architecture that serves the desired responsibility. Second, as mentioned in Section 2.1.1, we have eight forms of NDE, then, adapting to different training objectives of arbitrary multimodal tasks, different NDE is executed. The following are eight equations of the prediction probability $Z_{I}-S_{1} S_{2} S_{12}$ preparing for NDE computations. $ \begin{aligned} & Z_{1}-000=z_{q}+z_{v} \\ & Z_{1}-001=z_{q}+z_{v}+z_{A S} \\ & Z_{1}-010=z_{q}+z_{v}+\left(z_{v^{*}}+z_{q^{*}}\right) \\ & Z_{1}-011=z_{q}+z_{v}+\left(z_{v^{*}}+z_{q^{*}}\right)+z_{A S} \\ & Z_{1}-100=z_{q}+z_{v}+z_{M F} \\ & Z_{1}-101=z_{q}+z_{v}+z_{M F}+z_{A S} \\ & Z_{1}-110=z_{q}+z_{v}+z_{M F}+\left(z_{v^{*}}+z_{q^{*}}\right) \\ & Z_{1}-111=z_{q}+z_{v}+z_{M F}+\left(z_{v^{*}}+z_{q^{*}}\right)+z_{A S} \end{aligned} $ ## B Implementation details ## B. 1 Designs of awareness systems In this study, we utilize the independent causal mechanisms (ICM) structure (Schölkopf et al., 2021) for both components. The main idea of the ICM is to decompose the original design into smaller parts that are learned independently. We manipulate one causal mechanism for each question's purpose and each strategy. In this work, all of the guiding models and mechanisms are designed as multilayer perceptron (MLP). The general flow of ICM is illustrated in Figure 6, which contains a list of strategy models and a guiding model. Figure 7: The causal impact of strategy selection. The Prediction values indicate results from the selected strategy by $A S_{2}$, while the Random values represent a random selection of strategies, collected from VQA-CPv2. The key objective of ICM is to train the strategy models independently, with means the weight-updating process of this model does not affect other models' weight. The role of the guiding model is to select $k$ strategies to be activated by a $k$-hot Gumbel max. Afterward, only the selected strategy would contribute to the output of ICM. ## B. 2 Monolithic models design DAS-VQA utilizes the following Monolithic models: $W_{v}, W_{q}, W_{M F}$. In this work, we use MLP for these models. ## C Evaluation method Our evaluation methods follow the previous works (Niu et al., 2021; Binh D. Nguyen, 2019), Overall, we evaluate the predicted answer by word-by-word accuracy. In addition, for VQA-CPv2 and VQAv2, we also report the accuracy of Yes/No and Numbers related questions, the rest of the question types denoted as Other type. While for PathVQA and VQA-RAD, we report the overall score only. ## D Further discussion on qualitative results The Causal Impact of Strategy Selection The causal impact of strategy selection is depicted in Figure 7. DASVQA proves the ability to learn a list of strategies independently and gain a significant distance in roles of each strategy by the drop of performance when just randomly selecting a strategy.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B7-2.pdf
# Multimodal Encoder with Gated Cross-attention for Text-VQA Tasks Wei Yang, Arisa Ueda, and Komei Sugiura Keio University \{wei.yang, arinko31,komei.sugiura\}@keio.jp } \begin{abstract} Visual scene understanding, such as visual question answering (VQA), is expected to improve as it benefits people with disabilities in daily life. The Text-based VQA task as an extension of VQA is more challenging to tackle, in which the questions' answers must relate to the text information with reading and reasoning like humans. In this work, we propose an integrated self- and gated crossattention encoder module to fuse multi-modalities captured in an image effectively. We evaluated our method on the TextVQA dataset, and the results demonstrated that our model outperformed baseline models on the accuracy evaluation in the text-based VQA task. \end{abstract ## 1 Introduction In recent decades, visual and natural language understanding has grown into crucial domains for innovation in Artificial Intelligence (AI) [1,2], with more and more applications reshaping lifestyles [3]. Such as automatic navigation for guiding vehicles [4], dialogue systems [5-7], etc. In daily life, many visual scenes and questions contain textrelated information. Thus, it should be helpful for humans to obtain an accurate answer when they ask a question about the visual scene related to the text, especially for visually impaired people. The target task of this work refers to constructing a visual question answering (VQA) model that can handle the question-answering problem while requiring reading and reasoning the text in images (TextVQA). And this makes it more complicated and challenging to tackle. For example, in Figure 1, several words exist in the image in different colors (green, brown, and white) to introduce a small bean around the Lake Trasimeno area of Italy. When asked about 'what word is written in white text?', it is required to generate an answer 'trasimeno', which is written in white Figure 1 Overview of our method for TextVQA: We integrate self- and gated cross-attention mechanisms into a V\&L encoder. color and difficult to see. And this requires reading and reasoning from all text information in the image. In [8], they combine different modalities with a multimodal transformer over a large joint embedding space. Thus it lacks specific modality pair computation, e.g., a pair between the question and the OCR text information. On the other hand, the image-related cross-attention computation needs to be improved in [9]. And the utilization of the global image modality is absent in both works. We propose a multimodal encoder, which maximizes using multiple modalities in an image and models the relationship with both self- and gated cross-attention mechanisms. Therefore, our model can handle the text-based VQA problem with a stronger visual-language encoder, especially to obtain visually informed question (language) features. The main contributions of our work are as follows: - We introduce an additional vanilla attention block for the entire image to complete the utilization of the visual information. - To obtain richer features for text and visual modalities, we introduce using a pre-trained CLIP [1] model for OCR tokens and the entire image. - We introduce a Flamingo's [10] gated cross-attention mechanism to further model the relationship between the entire image (visual) and the question (language). Figure 2 Overview of our proposed encoder-decoder architecture. TrmD and DPN denote the general Transformer decoder and the dynamic pointer network, respectively. The introduced integrated self- and gated cross-attention encoder are given in green. ## 2 Problem Statement The focus of this paper is the TextVQA task. The model is expected to predict (output or generate) an answer to a question which should be a deduction based on the text and the visual information in the image. The input and output in our experiments are defined as follows, - Input: An image that contains text and one imagerelated question. In detail, an image, including the entire image, detected object regions and detected OCR tokens/regions. - Output: An answer that answers the question by reading and reasoning over the text in the image. ## 3 Proposed Method Our method is inspired by the M4C [8] and SSbaseline model [11], multimodal Transformer networks that have been successfully applied to the TextVQA task. Figure 2 shows the overview of our proposed self- and gated corss-attention encoder-decoder architecture. Our proposed method is applicable to more than just this work and can be applied to other visual-and-language (V\&L) tasks that consider language- and image-related modalities as inputs. Because efficiently fusing and modeling the relationship between visual and textual modalities is considered the basic strategy for solving any V\&L problems. Our model comprises two grand divisions: encoder and decoder modules. The encoder module consists of a sequence of stacked attention blocks with self- and gated cross-attention mechanisms. The Transformer decoder module with a dynamic pointer network (DPN) is built to predict the answers from a fixed vocabulary or the OCR tokens in an image, i.e., the answer generation module. ## 3.1 Input The input $\boldsymbol{X}$ to our model is defined as follows: $ \boldsymbol{X}=\left.\{\boldsymbol{X}_{\mathrm{Q}}, \boldsymbol{X}_{\text {img }}, \boldsymbol{X}_{\text {obj }}, \boldsymbol{X}_{\text {ocr }, \mathrm{v}}, \boldsymbol{X}_{\text {ocr }, \mathrm{s}}\right.\} $ where $\boldsymbol{X}_{\mathrm{Q}}, \boldsymbol{X}_{\mathrm{img}}, \boldsymbol{X}_{\mathrm{obj}}, \boldsymbol{X}_{\mathrm{ocr}, \mathrm{v}}$, and $\boldsymbol{X}_{\mathrm{ocr}, \mathrm{s}}$ denote the question, entire image, detected objects, recognized OCR regions (visual) and OCR tokens (semantic), respectively. We use the CLIP (RN50x4) model to obtain a 640dimensional feature vector $\left(\boldsymbol{x}_{\text {glob }}\right)$ for each entire image. Moreover, we encode the detected objects in an image through the fc6 layer of Faster R-CNN [12] and finetuning the last layer on the TextVQA dataset, $\left.\{\boldsymbol{x}_{\mathrm{obj}, \mathrm{fr}}^{(m)} \mid\right.$ $m=1, \cdots, M\}$, where $M$ denotes the number of the objects considered in the image. The same Faster R-CNN model and fine-tuning are also applied to the OCR region feature extraction, $\left.\{\boldsymbol{x}_{\mathrm{ocr}, \mathrm{fr}}^{(n)} \mid n=1, \cdots, N\right.\}$, where $N$ denotes the number of the OCR tokens considered in the image. We obtain a 2048-dimensional feature vector for each region. The spatial features (4-dimensional bounding box features, e.g., $\left.\boldsymbol{x}_{\mathrm{obj}, \mathrm{bx}}^{(m)}\right)$ are also used in our experiments. The recognized OCR token features $\boldsymbol{x}_{\text {ocr,tok }}^{(n)}$ are made up of (1) character-level Pyramidal Histogram of Characters (PHOC) [13] feature for each OCR token (604dimensional $\boldsymbol{x}_{\text {ocr,phoc }}^{(n)}$, (2) FastText features $\boldsymbol{x}_{\text {ocr,ft }}^{(n)}$ for the OCR tokens in subword-level (300-dimensional) and (3) 640-dimensional CLIP-based OCR token features $\boldsymbol{x}_{\text {ocr,clip }}^{(n)}$. Note that we use the same pre-trained CLIP model for image and OCR token's feature extraction. We use a threelayer BERT [14] model to obtain a 768-dimensional embedding for each token. This BERT model is fine-tuned during training $ \begin{gathered} \boldsymbol{h}_{\text {glob }}=f_{\mathrm{LN}}\left(\boldsymbol{W}_{\text {glob }} \boldsymbol{x}_{\text {glob }}\right) \\ \boldsymbol{h}_{\mathrm{obj}}^{(m)}=f_{\mathrm{LN}}\left(\boldsymbol{W}_{\mathrm{obj}, \mathrm{fr}} \boldsymbol{x}_{\mathrm{obj}, \mathrm{fr}}^{(m)}\right)+f_{\mathrm{LN}}\left(\boldsymbol{W}_{\mathrm{obj}, \mathrm{bx}} \boldsymbol{x}_{\mathrm{obj}, \mathrm{bx}}^{(m)}\right) \end{gathered} $ $ \begin{gathered} \boldsymbol{h}_{\mathrm{ocr}, \mathrm{v}}^{(n)}=f_{\mathrm{LN}}\left(\boldsymbol{W}_{\mathrm{ocr}, \mathrm{fr}} \boldsymbol{x}_{\mathrm{ocr}, \mathrm{fr}}^{(n)}\right)+f_{\mathrm{LN}}\left(\boldsymbol{W}_{\mathrm{ocr}, \mathrm{bx}} \boldsymbol{x}_{\mathrm{ocr}, \mathrm{bx}}^{(n)}\right) \\ \boldsymbol{h}_{\mathrm{ocr}, \mathrm{s}}^{(n)}=f_{\mathrm{LN}}\left(\boldsymbol{W}_{\mathrm{ft}} \boldsymbol{x}_{\mathrm{ocr}, \mathrm{ft}}^{(n)}+\boldsymbol{W}_{\mathrm{ph}} \boldsymbol{x}_{\mathrm{ocr}, \mathrm{phoc}}^{(n)}+\boldsymbol{W}_{\mathrm{c}} \boldsymbol{x}_{\mathrm{ocr}, \mathrm{clip}}^{(n)}\right) \end{gathered} $ We apply Layer Normalization $f_{\mathrm{LN}}($.$) to various ex-$ tracted features. $\boldsymbol{W}$. denotes weight matrix. ## 3.2 Visual-and-language encoders The first encoder module consists of a stack of attention blocks to model the relationship between the question and other text or visual modalities using self-attention. The inputs of each attention block are the embeddings $\left(X_{\mathrm{Q}}=\right.$ $\left.\{\boldsymbol{x}_{\mathrm{q}}^{(1)}, \cdots, \boldsymbol{x}_{\mathrm{q}}^{(L)}\right.\}$ of the question sequence, $Q=\left.\{q_{i}\right.\}_{i=1}^{L}$, and the encoded features of another modality (e.g., $\boldsymbol{h}_{\text {ocr, }, \mathrm{v}}^{(n)}$ and $\left.\boldsymbol{h}_{\text {glob }}\right)$. The outputs of an attention block refer to the weighted sum of subword-based features $\left(\boldsymbol{X}_{Q}^{\prime}\right)$ and the summarizing feature of another modality (e.g., $\boldsymbol{X}_{\mathrm{ocr}, \mathrm{v}}^{\prime}$ ). In practice, we firstly input the question features into a fully connected feed-forward network consisting of two convolutions with kernel size 1. $ \boldsymbol{h}_{\mathrm{q}}^{(i)}=\operatorname{Conv1D}\left(\operatorname{ReLU}\left[\operatorname{Conv1D}\left(\boldsymbol{x}_{\mathrm{q}}^{(i)}, 1\right)\right]\right), i=1, \ldots, L $ Then, the output $\boldsymbol{h}_{\mathrm{q}}^{(i)}$ goes through a self-attention process before it works with other modalities. We define the self-attention operation as follows, $ \boldsymbol{h}^{\prime}=\operatorname{SelfAttn}(\boldsymbol{h})=\operatorname{softmax}\left(\frac{\boldsymbol{h} \boldsymbol{W}_{Q} \boldsymbol{W}_{K}^{\top} \boldsymbol{h}^{\top}}{\sqrt{d_{k}}}\right) \boldsymbol{h} \boldsymbol{W}_{V} $ where $\boldsymbol{W}$. denotes a learnable weight, $d_{k}$ is obtained as $d_{k}=\mathrm{H} /$ heads (Appendix A.2). Here, we parallelly perform self-attention on the question modality with independent parameters as the input for different attention blocks. $ \boldsymbol{\alpha}_{i}=\operatorname{SelfAttn}\left(\boldsymbol{h}_{\mathrm{q}}^{(i)}\right) $ For each attention block, we obtain the first output, weighted sum of subword-based features $\left(\boldsymbol{X}_{Q}^{\prime}\right)$ for the question sequence, as follows, $ \boldsymbol{X}_{Q}^{\prime}=\sum_{i=1}^{L} \alpha_{i} \boldsymbol{x}_{\mathrm{q}}^{(i)} $ It is also used as the guidance for calculating the cross-modality (e.g., Question and OCR regions) attention weights (see formula (9) and (10)). In this example, the value of $n(n=1, \cdots, N)$ varies with the number of OCR tokens recognized in the image. It also can be the number of detected objects in the image. $ \begin{gathered} \boldsymbol{u}_{n}=\operatorname{ReLU}\left(\boldsymbol{W}_{q} \boldsymbol{X}_{Q}^{\prime}\right) \odot \operatorname{ReLU}\left(\boldsymbol{W}_{h} \boldsymbol{h}_{\mathrm{ocr}, \mathrm{v}}^{(n)}\right) \\ \boldsymbol{\beta}_{n}=\operatorname{SelfAttn}\left(\boldsymbol{u}_{n}\right), n=1, \ldots, N \end{gathered} $ We obtain the summarizing feature of the OCR visual modality as the second output of the attention block. $ \boldsymbol{X}_{\mathrm{ocr}, \mathrm{v}}^{\prime}=\sum_{n=1}^{N} \boldsymbol{\beta}_{n} \boldsymbol{h}_{\mathrm{ocr}, \mathrm{v}}^{(n)} $ Finally, the element-wise multiplication is applied to the outputs of each attention block for final fusion. $ \boldsymbol{z}_{\mathrm{ocr}, \mathrm{v}}=\boldsymbol{X}_{Q}^{\prime} \odot \boldsymbol{X}_{\mathrm{ocr}, \mathrm{v}}^{\prime} $ As described above, our module consists of four this kind of attention blocks for the modality pair Q-and-OCRvisual (as an example), Q-and-OCR-token, Q-and-Object, and Q-and-Image. Moreover, to further model the relationship between an image and its corresponding question, a learnable gated cross-attention mechanism is introduced. We firstly define the cross-attention operation as follows, $\tilde{\boldsymbol{h}}=\operatorname{Cross} \operatorname{Attn}\left(\boldsymbol{h}_{\mathbf{1}}, \boldsymbol{h}_{\mathbf{2}}\right)=\operatorname{softmax}\left(\frac{\boldsymbol{h}_{\mathbf{1}} \boldsymbol{W}_{Q} \boldsymbol{W}_{K}^{\top} \boldsymbol{h}_{\mathbf{2}}^{\top}}{\sqrt{d_{k}}}\right) \boldsymbol{h}_{\mathbf{2}} \boldsymbol{W}_{V}$ $h_{1}$ and $h_{2}$ can be any two modalities' features. Here they refer to the entire image and the question modalities. Then, $ \boldsymbol{h}_{Q}=\boldsymbol{X}_{Q}+\tanh \left(\boldsymbol{W}_{a}\right) \odot \operatorname{Cross} \operatorname{Attn}\left(\boldsymbol{X}_{Q}, \boldsymbol{h}_{\text {glob }}\right), $ where $\boldsymbol{W}_{a}$ denotes the attention-gating parameter. $ \boldsymbol{h}_{f}=\boldsymbol{h}_{Q}+\tanh \left(\boldsymbol{W}_{b}\right) \odot \operatorname{FFW}\left(\boldsymbol{h}_{Q}\right), $ where FFW is feed-forward network, and $\boldsymbol{W}_{b}$ denotes the FFW-gating parameter. These layers followed by a regular self-attention and another FFW on language modality to obtain visually informed question (language) features, $ \begin{gathered} \boldsymbol{h}_{s}=\boldsymbol{h}_{f}+\operatorname{SelfAttn}\left(\boldsymbol{h}_{f}\right) \\ z_{i m g \rightarrow q}=\boldsymbol{h}_{s}+\operatorname{FFW}\left(\boldsymbol{h}_{s}\right) \end{gathered} $ Finally, the obtained $z_{i m g} \rightarrow q$ will be concatenated with the four outputs by a sequence of stocked attention blocks to obtain a final context embedding for the decoding process. ## 3.3 Transformer decoder We introduce a transformer decoder module with a dynamic pointer network to interactively generate answers from a fixed answer vocabulary $(v=1, \cdots, V)$ or copy from the OCR tokens $(n=1, \cdots, N)$ in an image alternatively. In the implementation, the probability computation for the selection from the fixed answer vocabulary $p\left(\hat{\boldsymbol{y}}_{t, v}^{\mathrm{voc}}\right)$ or OCR tokens $p\left(\hat{\boldsymbol{y}}_{t, n}^{\text {ocr }}\right)$ is given as follows, $ \begin{gathered} p\left(\hat{\boldsymbol{y}}_{t, v}^{\mathrm{voc}}\right)=\operatorname{softmax}\left(\left(\boldsymbol{w}_{\mathrm{voc}}^{(v)}\right)^{\top} \boldsymbol{z}_{\mathrm{dec}}^{(t)}\right) \\ p\left(\hat{\boldsymbol{y}}_{t, n}^{\mathrm{ocr}}\right)=\operatorname{softmax}\left(\left(\boldsymbol{W}_{\text {ocr }} \boldsymbol{z}_{\mathrm{ocr}}^{(n)}\right)^{\top}\left(\boldsymbol{W}_{\mathrm{dec}} \boldsymbol{z}_{\mathrm{dec}}^{(t)}\right)\right), \end{gathered} $ where $\boldsymbol{W}_{\text {ocr }}$ and $\boldsymbol{W}_{\text {dec }}$ denote $d \times d$ matrices. $\boldsymbol{z}_{\text {ocr }}^{(n)}(n=$ $1, \ldots, N$ ) denotes the d-dimensional transformer output of the $N$ OCR tokens in the image. For both two formula, the decoder embedding (d-dimensional $z_{\text {dec }}^{(t)}$ ) for the current time-step $t$ is obtained depending on the previously predicted token at time-step $t-1$ and its corresponding representation $\boldsymbol{x}_{\mathrm{dec}}^{(t)}$. In other words, in the case of the prediction at time-step $t-1$ is a word from the fixed vocabulary, we feed its corresponding weight vector $\boldsymbol{w}_{\text {voc }}^{(v)}$ as the transformer input. On the other hand, if the prediction (at timestep $t$-1) from the OCR tokens, its OCR representation $\boldsymbol{h}_{\text {ocr,all }}^{(n)}$ (obtained from OCR visual and semantic modalities) is considered as the transformer input to obtain the decoder embedding for the time-step $t$. For the final prediction, we take the argmax on the concatenation of both probabilities $\left[p\left(\hat{\boldsymbol{y}}_{t, v}^{\mathrm{voc}}\right) ; p\left(\hat{\boldsymbol{y}}_{t, n}^{\text {ocr }}\right)\right]$ and select the top element with the highest score as the answer from the concatenation of $V+N$ candidates. ## 4 Experiments ## 4.1 Quantitative results We performed the experiments using the TextVQA dataset (See Appendix A.3) with the experimental setting given in Appendix A.2. We used the standard evaluation for VQA tasks, accuracy (Acc.), which was evaluated based on the predicted answer against the ground truth (GT) answers provided by humans. Table 1 shows the quantitative results of the baselines and our method. The scores in Table 1 represent the evaluations reported in the papers or with average and standard deviation obtained based on five trials in our experiments. Note that the baselines and proposed method share $x_{\text {ocr,phoc, }}^{(n)}$, $\boldsymbol{x}_{\text {ocr,ft }}^{(n)}, \boldsymbol{x}_{\text {ocr,fr }}^{(n)}, \boldsymbol{x}_{\text {ocr,bx }}^{(n)}, \boldsymbol{x}_{\text {obj,fr }}^{(m)}$, and $\boldsymbol{x}_{\text {obj,bx }}^{(m)}$ as inputs. Table 1 Qualitative results. & & \\ The experimental results demonstrate that the proposed method outperformed the SSbaseline model (43.9\%), with an increase of $1 \%$. More significant improvements (5.5\%) were obtained compared with the M4C method (39.4\%). Q: what is in the bottles? A: (ours) [5-hour] [energy] (SSbaseline) sugar energy (GT) ['cherry 5 hour energy', '5 hour energy'] Q: what does the sign say after command model? A: (ours) [service] [module] (SSbaseline) command module (GT) ['module', 'service module', 'usa', 'sevice module'] Figure 3 Qualitative samples of the predicted answers based on our proposed method and the SSbaseline method. ## 4.2 Qualitative results Figure 3 shows the qualitative samples of our model compared with the SSbaseline model. The left subfigure shows that the baseline model failed to predict the correct answer due to the wrong OCR token selection. In contrast, according to the question asked about the contents of those bottles, our model correctly selected to use the accurate OCR tokens '5-hour' with 'energy'. The subfigure on the right shows that our model predicted the correct answers by considering the OCR tokens 'service' and 'module' and their corresponding objects (the sign after the command model). The baseline method failed in these two samples. ## 5 Conclusion In this paper, we focused on the TextVQA task that generates answers according to the questions that need text understanding and reasoning. We would like to emphasize the following contribution of this wok: - We proposed using image modality with an additional attention block to complete the utilization of the visual information in an image. - To obtain the rich features for different modalities, we introduced using a pre-trained CLIP for OCR tokens and an entire image. - We introduced a Flamingo's gated cross-attention mechanism to further model the relationship especially for the entire image and the question. - Our method outperformed the baseline methods on accuracy evaluation with the TextVQA dataset. ## Acknowledgements This material is based upon work supported by JSPS KAKENHI Grant Number 20H04269, JST Moonshot, and NEDO. ## References [1] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, et al. Learning transferable visual models from natural language supervision. In ICML, pp. 8748-8763, 2021. [2] Jianfeng Wang, Zhengyuan Yang, Xiaowei Hu, Linjie Li, Kevin Lin, Zhe Gan, Zicheng Liu, Ce Liu, and Wang Lijuan. GIT: A generative image-to-text transformer for vision and language. arXiv preprint arXiv:2205.14100, 2015. [3] Erik Wijmans, Samyak Datta, Oleksandr Maksymets, Abhishek Das, Georgia Gkioxari, Stefan Lee, Irfan Essa, Devi Parikh, and Dhruv Batra. Embodied question answering in photorealistic environments with point cloud perception. In CVPR, pp. 6659-6668, 2019. [4] Xin Wang, Qiuyuan Huang, Asli Celikyilmaz, Jianfeng Gao, Dinghan Shen, Yuan-Fang Wang, William Yang Wang, and Lei Zhang. Reinforced cross-modal matching and self-supervised imitation learning for vision-language navigation. In CVPR, pp. 6629-6638, 2019. [5] Minlie Huang, Xiaoyan Zhu, and Jianfeng Gao. Challenges in building intelligent open-domain dialog systems. ACM Transactions on Information Systems (TOIS), Vol. 38, No. 3, pp. 1-32, 2020. [6] Shoya Matsumori, Kosuke Shingyouchi, Yuki Abe, Yosuke Fukuchi, Komei Sugiura, and Michita Imai. Unified questioner transformer for descriptive question generation in goal-oriented visual dialogue. In ICCV, pp. 1878-1887, 2021. [7] Komei Sugiura, Naoto Iwahashi, Hideki Kashioka, and Satoshi Nakamura. Active learning for generating motion and utterances in object manipulation dialogue tasks. In AAAI Fall Symposium on Dialog with Robots, pp. 115-120, 2010. [8] Ronghang Hu, Amanpreet Singh, Trevor Darrell, and Marcus Rohrbach. Iterative answer prediction with pointeraugmented multimodal transformers for TextVQA. In CVPR, pp. 9992-10002, 2020. [9] Amanpreet Singh, Vivek Natarajan, Meet Shah, Yu Jiang, Xinlei Chen, Dhruv Batra, Devi Parikh, and Marcus Rohrbach. Towards VQA models that can read. In CVPR, pp. 8317-8326, 2019 [10] Jean-Baptiste Alayrac, Jeff Donahue, Pauline Luc, Antoine Miech, Iain Barr, Yana Hasson, Karel Lenc, Arthur Mensch, Katie Millican, Malcolm Reynolds, et al. Flamingo: a visual language model for few-shot learning. NeurIPS, 2022. [11] Qi Zhu, Chenyu Gao, Peng Wang, and Qi Wu. Simple is not easy: A simple strong baseline for TextVQA and TextCaps. In AAAI Conference on Artificial Intelligence, pp. 3608-3615, 2020. [12] Shaoqing Ren, Kaiming He, Ross Girshick, and Jian Sun. Faster R-CNN: Towards real-time object detection with region proposal networks. NeurIPS, 2015. [13] Jon Almazán, Albert Gordo, Alicia Fornés, and Ernest Valveny. Word spotting and recognition with embedded attributes. IEEE Trans. PAMI, Vol. 36, No. 12, pp. 25522566, 2014 [14] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In ACL, pp. 41714186, 2019. ## A Appendix ## A. 1 Loss function We combine using the multi-label binary cross-entropy and a new policy gradient loss introduced in [11]. ## A. 2 Experimental setup The experimental setting for the hyperparameters is summarized in Table 2. L, H, and heads denote the number of hidden layers, hidden size, and the number of attention heads of a Transformer model, respectively. Our experiments were performed on four Tesla V100 GPUs with 64GB memory in total. For each performance, it required approximately 43 hours to train over 34,000 iterations. Our model had 187,456,002 (187M) trainable parameters. The prediction for one sample took approximately $70 \mathrm{~ms}$. Table 2 Hyperparameter setting of our experiments ## A. 3 Dataset In our experiments, we used the standard dataset TextVQA, released to facilitate the progress of the Textbased image captioning task in 2019. This dataset was annotated via crowd-sourcing based on the Open Images (v3) dataset. The annotators were asked to identify images containing text, then collected 1-2 questions requiring reading and reasoning about the text in the image; ten answers were collected according to different questions. The TextVQA dataset contains 45,336 questions (samples) in English with their corresponding answers collected based on 28,408 images. The total number of tokens is 308,753 , and the number of unique tokens is 9,568 . The average question length is 7.44 words. Note that we did not perform any pre-processing for the questions' statistics. The average answer length is 1.58 [9]. The dataset is divided into training, validation, and test sets with sizes $34,602,5,000$, and 5,734, respectively. There is no overlap between any two splits. We used the training set to update the parameters of our model. We evaluated our model on the validation set because the test set's ground truth (GT) answers were not provided. The experiments followed standard procedures in which the validation set was not used for training or tuning hyperparameters. ## A. 4 Ablation Studies Table 3 presents Ablation Studies of our proposed method. We defined the following three ablation conditions: (i) Without (w/o) image-related attention block \& gated cross-attention operation for language and image (=SSbaseline). (ii) Without (w/o) gated cross-attention operation for language and image. (iii) Our proposed method (full). In Table 3, compared with Condition (i), the accuracy was increased by approximately $0.4 \%$ by introducing an additional vanilla attention block with image modality and CLIP features (Condition (ii)). Thus, the image modality, absent in the baseline model introduced in our proposed method, increases the TextVQA task's performance. In comparing Condition (iii) with Condition (ii), a further improvement $(0.6 \%)$ was obtained by introducing a gated cross-attention module for image and question modalities in the encoding process. In summary, these results indicate that only using the object and OCR modalities with questions is insufficient; image as one of the visual modalities is also indispensable to the text-based VQA performance. Furthermore, more robust attention computation between the image and question modality is essential in the encoder process in our TextVQA task. Table 3 Ablation studies on TextVQA. & Acc. on val. \\
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B7-3.pdf
# DueT: 視覚・言語の Dual-adapter Tuning による基盤モデル 西田京介 $1 *$ 長谷川拓 $1 *$ 前田航希 $2 \dagger \quad$ 齋藤邦子 1 1 日本電信電話株式会社 NTT 人間情報研究所 2 東京工業大学 \{kyosuke.nishida.rx, taku.hasegawa.ps\}@hco.ntt.co.jp ## 概要 対照学習により構築する視覚・言語の基盤モデル CLIP の新たな転移学習方法として DueT を提案する. DueT は単一モーダルのコーパスで事前学習されたモデルにより画像・テキストエンコーダを初期化して固定し,両エンコーダに追加したゲート機構付のアダプタのみを学習する. 英語・日本語ドメインの 0-shot 画像・テキスト検索において,単純な fine-tuning や画像エンコーダのみ転移・固定する従来手法に比べ,提案手法が精度やパラメータ効率性の観点で優れていたことを報告する. ## 1 はじめに CLIP [1] が視覚と言語の融合理解における基盤モデルとして,テキストからの画像生成 $[2,3]$ や視覚情報を考慮した対話 [4] を始め様々なタスクで革新的な成果を挙げている. CLIP は 4 億件という膨大な画像・テキストのペアを用いた対照学習により,正しい(誤った)ぺアに対して画像・テキストの各エンコーダが出力する特徴べクトルの類似度が高く (低く)なるように scratch から学習された. ここで, CLIP よりも視覚と言語の意味的対応付けに優れた基盤モデルを少量の学習データから構築するためには,比較的学習しやすい単一モーダルの事前学習済モデルの転移学習が重要になると考える。 本研究では視覚・言語の基盤モデルの学習方法 DueT(Dual-adapter Tuning)を提案する. DueT は単一モーダルの事前学習済モデルを各エンコーダのパラメータの固定値とし,さらに両エンコーダにゲー 卜機構を持つアダプタを追加して学習を行う(図 1 右). 英語・日本語ドメインの実験において,単純な転移学習や画像エンコーダのみ転移・固定する LiT [5] に比べて,DueT は優れた性能を達成できた.  / Fine-tuning Locked-image Tuning Dual-adapter Tuning (DueT) 図 1 視覚・言語の基盤モデルの学習方法. 左: 両エンコーダを学習 (始). 中央: LiT (Locked-image Tuning) [5].事前学習済みの画像エンコーダを固定(料)し,テキストエンコーダのみ学習する. 右: DueT (Dual-adapter Tuning).両エンコーダに追加したアダプタのみ学習する. ## 2 関連研究 ## 2.1 視覚・言語の基盤モデル 視覚・言語の基盤モデルとして CLIP [1] および ALIGN [6] が提案されて以降,性能改善に向けて様々な観点から研究が行われている。 転移学習全てのパラメータをランダムに初期化して学習する from-scratch $[1,6,7,8,9,10]$ と,画像テキストエンコーダを各モーダルの事前学習済モデルで初期化する fine-tuning $[11,12,13]$ のいずれかが多く採用されている (図 1 左). 最近では, 画像エンコーダのみを事前学習済モデルで初期化・固定し, テキストエンコーダのみを学習する Locked-image Tuning (LiT) [5] が提案されている(図 1 中央). ## クロスアテンション CLIP はクロスアテンショ ン機構を持たないため,両モーダルを入力とする クロスエンコーダ $[11,12,9]$ ,クロスアテンション を行うテキストエンコーダ [13]・テキストデコー ダ $[13,8]$ などの追加に関する検討が行われている. 目的関数 masked 言語モデリング [11,12,10], causal 言語モデリング $[8,13]$, masked 画像モデリング [12],画像・テキストマッチング $[11,12,13]$ など 様々な目的関数の追加が検討されている. また,対照学習自体もトークンレベルでの類似度 [7], 難解な負例の追加 $[10,14]$ による改善が検討されている. ## 2.2 パラメータ効率的な転移学習 事前学習済の言語モデルを効率的に下流タスクに適応させるための技術が盛んに研究されている.代表的な手法には adapter tuning [15, 16, 17, 18, 19], prefix tuning [20,21], additive methods [22, 23, 24], sparse-finetuning $[25,26]$ などがある. また,これらを統一的に扱うアプローチも提案されている $[27,28]$. 特に adapter tuning は Transformer の層間に,アダプタと呼ばれる小さな追加モジュール(一般的には 2 層のフィードフォワードネットワーク;FFN)を残差接続付きで挿入し,アダプタのみを学習する. ## 2.3 本研究の位置付け adapter tuning [15] のアイデアを下流タスクではなく CLIP の事前学習に導入した初めての研究である.単一モーダルの事前学習の忘却を防ぎ高精度かつパラメータ効率的な転移学習の実現を狙う。転移学習を除く前記した CLIP の拡張研究は扱わないが,これらは提案手法と組み合わせた利用が可能である. ## 3 提案手法 基盤モデルの学習方法として DueT(Dual-adapter Tuning)を提案する、モデルは画像・テキストの Transformer [29] エンコーダから構成される. 事前学習済モデル(ViT [30] や BERT [31] など)で各エンコーダの初期化を行い, Transformer ブロックに追加した Gated Adapter Unit(GAU)のみを学習する. 入出力画像(テキスト)エンコーダは,パッチ (トークン)の系列を入力として受け取り,d 次元ベクトルの系列 $\boldsymbol{H}=\left[\boldsymbol{h}_{\mathrm{CLS}}, \boldsymbol{h}_{1}, \ldots, \boldsymbol{h}_{\mathrm{SEP}}\right]$ を出力する.各エンコーダの出力 $\boldsymbol{h}_{\mathrm{CLS}} \in \mathbb{R}^{d}$ を学習可能パラメー タによる線形変換および $L_{2}$ 正規化にて $d_{m}$ 次元の特徴べクトル $\boldsymbol{x}, \boldsymbol{y}$ にそれぞれ射影し, 最終的に内積 $\boldsymbol{x}^{\top} \boldsymbol{y}$ によって画像・テキストの類似度を求める. GAU 一般的なアダプタを [15]を学習可能なゲー 卜係数 $\alpha$ によりアダプタの入出力を混合する GAU に拡張する. 各エンコーダの全ての Transformer ブロック $(l=1 \ldots L)$ に式 (1)のGAUを挿入する. $ \begin{aligned} \operatorname{GAU}^{l}\left(\boldsymbol{H}^{l}\right) & =\alpha^{l} \mathrm{FFN}^{l}\left(\operatorname{LN}\left(\boldsymbol{H}^{l}\right)\right)+\left(1-\alpha^{l}\right) \boldsymbol{H}^{l}, \\ \operatorname{FFN}^{l}(\boldsymbol{h}) & =\phi\left(\boldsymbol{h} \boldsymbol{W}_{\text {down }}^{l}+\boldsymbol{b}_{\text {down }}^{l}\right) \boldsymbol{W}_{\text {up }}^{l}+\boldsymbol{b}_{\text {up }}^{l} \end{aligned} $ 図 2 Gated Adapter Unit(GAU). 左: 各 Transformer ブロックに挿入した GAU および LNを学習し(世),FFN や Self-Attention のパラメータは更新しない (䊅). 右: GAU は 2 層の FFN および学習可能なゲート係数 $\alpha$ を持つ. ここで,入力 $\boldsymbol{H}^{l}$ は Transformer の FFN モジュールの残差接続後の出力である. LN は layer normalization [32] を表す1). $\boldsymbol{W}_{\text {down }}^{l} \in \mathbb{R}^{d \times m}, \boldsymbol{b}_{\text {down }}^{l} \in \mathbb{R}^{m}$, $\boldsymbol{W}_{\mathrm{up}}^{l} \in \mathbb{R}^{m \times d}, \boldsymbol{b}_{\mathrm{up}}^{l} \in \mathbb{R}^{d}, \alpha^{l} \in \mathbb{R}$ は GAU 毎に独立した学習可能パラメータである. 入出力・中間層の次元を $d, m$ とする。活性化関数 $\phi$ は GeLU [33] である. 図 2 に GAU の例を示す. Transformer 本体は LN のパラメータを除いて固定し,GAU のみを学習する.なお,全てのゲート係数が 0 のとき,エンコー ダは事前学習済モデルに等しくなる。 対照学習ミニバッチ内に同じ画像やテキストが含まれた際のノイズを軽減するため,UniCL [34]のアイデアに基づく損失関数を用いる。画像・テキストのハッシュ値 $(s, t)$ のいずれかが同じ値となるぺアを正例 $\mathbf{P}$ ,他のランダムに形成されるぺアを負例 Bとして,以下の損失関数の合計を最小化する。 $ \begin{aligned} L_{\mathrm{i} 2 \mathrm{t}} & =-\frac{1}{|\mathbf{B}|} \sum_{i \in \mathbf{B}} \frac{1}{\left|\mathbf{P}_{i}\right|} \sum_{k \in \mathbf{P}_{i}} \log \frac{\exp \left(\boldsymbol{x}_{i}^{\top} \boldsymbol{y}_{k} / \tau\right)}{\sum_{j \in \mathbf{B}} \exp \left(\boldsymbol{x}_{i}^{\top} \boldsymbol{y}_{j} / \tau\right)} \\ L_{\mathrm{t} 2 \mathrm{i}} & =-\frac{1}{|\mathbf{B}|} \sum_{i \in \mathbf{B}} \frac{1}{\left|\mathbf{P}_{i}\right|} \sum_{k \in \mathbf{P}_{i}} \log \frac{\exp \left(\boldsymbol{y}_{i}^{\top} \boldsymbol{x}_{k} / \tau\right)}{\sum_{j \in \mathbf{B}} \exp \left(\boldsymbol{y}_{i}^{\top} \boldsymbol{x}_{j} / \tau\right)} \end{aligned} $ ここで,兀は温度パラメータである。 学習効率性画像・テキストエンコーダの層数 $L$ と次元数 $d$ が同じとき, DueT の学習対象パラメー 夕数(\#TP)はおよそ $4 L d m$ となる. エンコーダとして ViT-B/16 と $\mathrm{BERT}_{\text {base }}(L=12, d=768$, 合計パラメータ数 194.7M) を用いた場合, $m=1536$ とした時の\#TP は全体の約 $29.1 \%$ (56.8M)となる.  ## 4 評価実験 英語・日本語の CLIPを構築して評価を行った。 ## 4.1 事前学習済モデル 画像エンコーダ(IE) ImageNet-21k [35] から学習されたViT-B/16 [36,37]を用いた。 テキストエンコーダ(TE)英語モデルには BERT-base-uncased [31,38]を用いた. 日本語モデルには Wikipedia および CC-100-ja [39] から [31] の設定で学習した BERT-base-uncased を用いた。 ## 4.2 訓練データセット YFCC-CLIP Radford ら [1]により整備された英語の自然言語により記述されたタイトルあるいは説明を持つ約 15M 件の Flickr 画像 (YFCC100M [40] のサブセット)を用いる。なお, ImageNet-21kには Flickr 画像が多く含まれているため YFCC-CLIP は IE の学習ドメインに近いデータセットと言える。 JWeb5M 我々が独自に広範囲の Web サイトから収集した $5 \mathrm{M}$ 件の画像・日本語テキストペアである. 100 件のサンプリング調査を実施したところ, 32 件の画像に日本語文字が含まれているなど IE の学習ドメインからは遠いデータセットと言える. 単語数の中央值は 9 語であり,自然文ではない数単語のみのテキストも含まれる。詳細は付録 A に示す. ## 4.3 評価データセット 英語 / 日本語の 0-shot(下流タスクでの fine-tuning を行わない)の画像・テキスト検索タスクにて,訓練データにて学習した基盤モデルを評価する. COCO [41] / STAIR Captions [42] 5000 件のテス卜画像([43] の分割). 各画像に 5 件の自然文キャプション. それぞれの単語数の中央値は $11 / 12$ 語. Flickr30k [44] / F30kEnt-JP [45] 1000 件のテスト画像 ([43] の分割). 各画像に 5 件の自然文キャプション. それぞれの単語数の中央値は $12 / 17$ 語. 上記セットの画像は Flickr 由来であるため, IE の事前学習と YFCC-CLIP に近いドメインと言える。詳細は付録 B に示す. また, 0 -shot の評価とは異なるが, YFCC-CLIP・JWeb5M の訓練セットから開発・テスト用に 10,000 ペアを分割して利用した. 評価指標 [11] と同様に,クエリに対する $k$ 件の検索結果に正しい事例が含まれる割合である Recall@k $(k=1,5,10)$ の平均値を報告する.表 1 英語モデルのテキスト・画像検索 $(\mathrm{I} \rightarrow \mathrm{T}, \mathrm{T} \rightarrow \mathrm{I})$ 性能. \#TP は学習対象パラメータ数. † 0 -shot 検索タスク。 表 2 日本語モデルの検索性能。 0 -shot 検索タスク. ## 4.4 実験設定 提案手法 $m=3072$ とした GAUを両エンコーダの全層に挿入した. 学習対象パラメータ数 (\#TP) は $113.4 \mathrm{M}$ であった. 特徴べクトル $\boldsymbol{x}, \boldsymbol{y}$ の次元を $d_{m}=512$ とし, バッチサイズ 8192 で 16 エポック学習した. Ablationテストでは $m=1536$ とした (\#TP=56.8M).その他の詳細は付録 C に示す. ベースラインエンコーダ(IE・TE)の初期化およびパラメータ固定について 4 つの手法を用意した. その他の設定は提案手法と揃えた。 $\cdot$ from-scratch(FS) IE・TE の両方をランダムに初期化して学習する (194.7M). - fine-tuning(FT) IE・TE の両方を事前学習済モデルで初期化して学習する (194.7M). ・LiT [5] IEを事前学習済モデルで初期化および固定. TEはランダム初期化して学習 (108.9M). ・LiT-FT IE・TEの両方を事前学習済モデルで初期化し,TEのみを学習する(108.9M). ## 4.5 実験結果 表 1 ・2 に英語・日本語モデルの評価結果を示す.提案手法 DueT は 0 -shot 画像・テキスト検索においてべースラインの評価スコアを上回った. 特に, F30kEnt-JP の画像検索においては,学習パラメータ数を約 $58 \%$ に抑えつつ fine-tuning(from-scratch)に比べてスコアを 5.9 (40.4) ポイント改善した. ベースラインの中では fine-tuning が優れていた. 表 3 GAU の学習パラメータ数による検索性能の変化.水色セルは fine-tuning(FT)と同程度の性能を表す. 表 4 GAUを挿入する層の範囲による検索性能の変化. YFCC-CLIP のテストセットでは最高スコアを達成したが,訓練データに過学習し易く0-shot 検索の評価セットでは英語・日本語共に全て提案手法のスコアを下回った. 特に,画像エンコーダの事前学習と訓練セットのドメインが異なる日本語モデルの評価では提案手法のスコアを大きく下回った. LiT は事前学習済の画像エンコーダがカバーしていないドメインへの適応能力が低く, 日本語モデルの評価において大きくスコアを落とした。また,転移学習を行わない from-scratch の場合は, 5-15M 程度の学習データ数では不足していることが分かった. ## 4.6 Ablation テスト 学習データにJWeb5M を用いて, 本研究の主な貢献である GAU の導入に関する評価を行った。 パラメータ効率的な学習が可能か?表 3 に示す通り, DueT はSTAIR(F30kEnt-JP)では 14.3M (3.7M)個のパラメータ更新により,194.7M 個を更新する fine-tuning と同等の性能が得られており,パラメータ効率的な学習が実現できた. 全ての層にアダプタは必要か? 表 4 に示す様に GAU を挿入する Transformer ブロック数を減らした場合の性能は低下した. 画像・テキストエンコーダの両方の適応が CLIP で用いられる対照学習において重要であることが示唆された。表 5 ゲート機構の違いによる検索性能の変化. 表 6 ゲート係数の初期値と学習による検索性能の変化. アダプタのゲート係数は有効か? 表 5 にゲートを用いない場合( $\alpha=1.0$ 固定)および 1 層の FFN によりトークンあるいは文レベルで大力に適応的なゲート機構(詳細は付録 D に示す)との比較結果を示す. まず,ゲート係数の有無の比較により,ゲー 卜係数を導入することの有効性を確認できた。一方で,FFNによる適応的なゲート機構とゲート係数の間に明確な性能差は確認されなかった. ## ゲート係数の初期値および学習の影響はあるか?表 6 に示す通り, ゲート係数 $\alpha$ を学習により更新す ることで性能が改善された。また,初期値を大きく 設定すると,学習初期から未学習の GAU の影響が 強くなるため転移学習が進みにくい問題があった。 ## 5 おわりに 対照学習により構築する視覚・言語の基盤モデル CLIP [1] の事前学習に adapter tuning [15] による転移学習を導入した DueT を提案した. 単一モーダルの事前学習済モデルを各エンコーダのパラメータの固定值とし, 両エンコーダに [15] から拡張したゲート機構付のアダプタ GAUを追加して学習を行う. 本研究の貢献膨大な学習データを要する CLIP において, 単一モーダルの事前学習済モデルの転移学習は重要なテーマである. fine-tuning や LiT [5] よりも精度およびパラメータ効率性の観点で優れた手法を提案できたことは,基盤モデルの研究に関する大きな貢献と言える. そして,評価実験を通じて日本語 CLIP の構築における転移学習に要する追加パラメータ数などの知見が得られた. 本研究の成果は,視覚と言語の融合的な理解を必要とする対話やナビゲーション,コンテンツ生成・検索など産業上重要なサービスの発展に貢献できる. ## 参考文献 [1] Alec Radford, et al. Learning transferable visual models from natural language supervision. In ICML, pp. 8748-8763, 2021. [2] Aditya Ramesh, et al. Hierarchical text-conditional image generation with CLIP latents. arXiv:2204.06125, 2022. [3] Robin Rombach, et al. High-resolution image synthesis with latent diffusion models. In CVPR, pp. 10674-10685, 2022. [4] Jean-Baptiste Alayrac, et al. Flamingo: a visual language model for few-shot learning. arXiv:2204.14198, 2022. [5] Xiaohua Zhai, et al. LiT: Zero-shot transfer with locked-image text tuning. In CVPR, pp. 18123-18133, 2022. [6] Chao Jia, et al. Scaling up visual and vision-language representation learning with noisy text supervision. In ICML, pp. 4904-4916, 2021. [7] Lewei Yao, et al. FILIP: fine-grained interactive language-image pre-training. In ICLR, 2022. [8] Jiahui Yu, et al. CoCa: Contrastive captioners are image-text foundation models. arxiv:2205.01917, 2022. [9] Lu Yuan, et al. Florence: A new foundation model for computer vision. arxiv:2111.11432, 2021. [10] Yangguang Li, et al. Supervision exists everywhere: A data efficient contrastive language-image pre-training paradigm. In ICLR, 2022. [11] Junnan Li, et al. Align before fuse: Vision and language representation learning with momentum distillation. In NeurIPS, pp. 9694-9705, 2021. [12] Amanpreet Singh, et al. FLAVA: A foundational language and vision alignment model. In CVPR, pp. 15638-15650, 2022. [13] Junnan Li, et al. BLIP: bootstrapping language-image pre-training for unified vision-language understanding and generation. In ICML, pp. 12888-12900, 2022. [14] Manling Li, et al. Clip-event: Connecting text and images with event structures. In CVPR, pp. 16420-16429, 2022. [15] Neil Houlsby, et al. Parameter-efficient transfer learning for NLP. In ICML, pp. 2790-2799, 2019. [16] Jonas Pfeiffer, et al. Adapterhub: A framework for adapting transformers. In EMNLP, pp. 46-54, 2020. [17] Jonas Pfeiffer, et al. Adapterfusion: Non-destructive task composition for transfer learning. In EACL, pp. 487-503, 2021. [18] Ruidan He, et al. On the effectiveness of adapter-based tuning for pretrained language model adaptation. In ACL/IJCNLP, pp. 2208-2222, 2021. [19] Rabeeh Karimi Mahabadi, James Henderson, and Sebastian Ruder. Compacter: Efficient low-rank hypercomplex adapter layers. In NeurIPS, pp. 1022-1035, 2021. [20] Xiang Lisa Li and Percy Liang. Prefix-tuning: Optimizing continuous prompts for generation. In ACL-IJCNLP, pp. 4582-4597, 2021. [21] Brian Lester, Rami Al-Rfou, and Noah Constant. The power of scale for parameter-efficient prompt tuning. In EMNLP, pp. 30453059, 2021. [22] Demi Guo, Alexander M. Rush, and Yoon Kim. Parameter-efficient transfer learning with diff pruning. In ACL-IJCNLP, pp. 48844896, 2021. [23] Edward J. Hu, et al. LoRA: Low-rank adaptation of large language models. In ICLR, 2022. [24] Jeffrey O. Zhang, et al. Side-tuning: A baseline for network adaptation via additive side networks. In ECCV, pp. 698-714, 2020. [25] Yi-Lin Sung, Varun Nair, and Colin Raffel. Training neural networks with fixed sparse masks. In NeurIPS, pp. 24193-24205, 2021. [26] Elad Ben Zaken, Yoav Goldberg, and Shauli Ravfogel. BitFit: Sim- ple parameter-efficient fine-tuning for transformer-based masked language-models. In ACL, pp. 1-9, 2022. [27] Yuning Mao, et al. Unipelt: A unified framework for parameterefficient language model tuning. In ACL, pp. 6253-6264, 2022. [28] Junxian He, et al. Towards a unified view of parameter-efficient transfer learning. In ICLR, 2022. [29] Ashish Vaswani, et al. Attention is all you need. In NIPS, pp. 5998-6008, 2017. [30] Alexey Dosovitskiy, et al. An image is worth 16x16 words: Transformers for image recognition at scale. In ICLR, 2021. [31] Jacob Devlin, et al. BERT: pre-training of deep bidirectional transformers for language understanding. In NAACL-HLT, pp. 41714186, 2019. [32] Lei Jimmy Ba, Jamie Ryan Kiros, and Geoffrey E. Hinton. Layer normalization. arxiv:1607.06450, 2016. [33] Dan Hendrycks and Kevin Gimpel. Gaussian error linear units (GELUs). arxiv:1606.08415, 2016. [34] Jianwei Yang, et al. Unified contrastive learning in image-text-label space. In CVPR, pp. 19163-19173, 2022. [35] Jia Deng, et al. ImageNet: A large-scale hierarchical image database. In CVPR, pp. 248-255, 2009. [36] Andreas Steiner, et al. How to train your ViT? data, augmentation, and regularization in vision transformers. arxiv:2106.10270, 2021. [37] Andreas Steiner. Vision transformer and MLP-mixer architectures, 2021. https://github.com/google-research/vision_ transformer. [38] Google. BERT, 2018.https://github.com/google-research/ bert. [39] Alexis Conneau, et al. Unsupervised cross-lingual representation learning at scale. In ACL, pp. 8440-8451, 2020. [40] Bart Thomee, et al. YFCC100M: the new data in multimedia research. Commun. ACM, Vol. 59, No. 2, pp. 64-73, 2016. [41] Tsung-Yi Lin, et al. Microsoft COCO: common objects in context. In ECCV, pp. 740-755, 2014. [42] Yuya Yoshikawa, Yutaro Shigeto, and Akikazu Takeuchi. STAIR captions: Constructing a large-scale japanese image caption dataset. In ACL, pp. 417-421, 2017. [43] Andrej Karpathy and Li Fei-Fei. Deep visual-semantic alignments for generating image descriptions. IEEE Trans. Pattern Anal. Mach. Intell., Vol. 39, No. 4, pp. 664-676, 2017. [44] Bryan A. Plummer, et al. Flickr30k entities: Collecting region-tophrase correspondences for richer image-to-sentence models. Int. J. Comput. Vis., Vol. 123, No. 1, pp. 74-93, 2017. [45] Hideki Nakayama, Akihiro Tamura, and Takashi Ninomiya. A visually-grounded parallel corpus with phrase-to-region linking. In LREC, pp. 4204-4210, 2020. [46] Armand Joulin, et al. Bag of tricks for efficient text classification. In EACL, pp. 427-431, 2017. [47] Paulius Micikevicius, et al. Mixed precision training. In ICLR, 2018. [48] Tianqi Chen, et al. Training deep nets with sublinear memory cost. arXiv:1604.06174, 2016. [49] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In ICLR, 2019. [50] Christian Szegedy, et al. Going deeper with convolutions. In CVPR, pp. 1-9, 2015. [51] Samuel G. Müller and Frank Hutter. TrivialAugment: Tuningfree yet state-of-the-art data augmentation. In ICCV, pp. 754-762, 2021 . ## A JWeb5M JWeb5M は本研究のために我々が広範囲な Web サイトから収集した画像・日本語キャプションを基に構築したデータセットである。 ユニーク画像数 4,942,737 (md5 ハッシュ値による確認),キャプション数は $4,369,144$ となる. 画像は短辺のサイズが 256 以上になるようにダウンロード時にリサイズした. 言語判定には学習済の fastText [46] モデル 2) を利用した. キャプションを mecab-unidicにより単語分割した際の単語数の分布を図 3 に示す. 文字数および単語数の平均(中央)值は 26.3(20.0)文字, 11.9 (9.0)単語であった. 自然文ではなく12単語のキャプションも含まれる。また, 100 画像をサンプリングして調査した際, 日本語の文字(漢字, ひらがな,カタカナ)を含む画像は 32 枚であった. ## B評価データセット COCO [41] は 123K 件の画像を含み,各画像に 5 件のキャプションが付与されている. 画像は Flickr から収集され,クラウドワーカにより自然文のキャプションが作成された. nltk-punct による単語数の平均(中央)値は 11.3(11)単語であった. 日本語版である STAIR Captions [42] は, COCO と同じ画像に対してクラウドワーカによって新たに各画像 5 件の日本語キャプションが作成された. mecab-unidic による単語数の平均(中央)值は 12.5(12)単語であった。 Flickr30K は $31 \mathrm{~K}$ 件の画像を含み,各画像に 5 件のキャプションが付与されている. 単語数の平均 (中央)值は 31.4(12)単語であった. 日本語版である F30kEnt-JP [45] は, Flickr30k の各キャプションを専門家が翻訳してキャプションが作成された. 単語数の平均(中央)值は 18.4(17)単語であった. COCO および Flickr30k については,従来研究と同様に,[43] におけるデータセットの分割に従ってテストデータの画像を選択した。 ## C 実験設定 学習には 8 枚の NVIDIA A100 80GB GPUを用いた. バッチサイズを 8192 とし, mixed precision training [47] および gradient checkpointing [48]を用いて 16 エポック学習した. オプティマイザには  language-identification.html 図 $3 \mathrm{JWeb5M}$ の各キャプションの単語数の分布. 横軸:単語数(bin 幅 10), 縦軸: 頻度(対数) AdamW [49] を用い,学習率は 5e-4 とした. 温度パラメータ $\tau$ は 0.015625 (1/64)で固定とした. 1 エポック毎にチェックポイントを保存し, 開発セットの評価値(画像検索・テキスト検索それぞれの $\mathrm{R} @ 1, \mathrm{R} @ 5, \mathrm{R} @ 10$ の平均値)の上位 3 つのチェックポイントのモデルに対するテストセットの評価値の平均を実験結果として報告した. YFCC-CLIP の学習時は Inception-style random cropping [50]を用い, 解像度は $224 \times 224$ とした. JWeb5M の学習時は上記の設定からクロップ範囲のスケールの下限のみ 0.9 に変更した。また,共通の augmentation 手法として TrivialAugment Wide [51]を採用し,画像の正規化は CLIP [1] と同様に行った. テキストエンコーダへの入力は最大 77 トークンとした. テスト時は, 解像度 $224 \times 224$ のリリイズ・中央からのクロップと正規化のみ行った. テキストエンコー ダにおけるプロンプトテキストは学習・テスト時のいずれも利用していない. ## D 適応的ゲート機構 表 5 の実験では,式(1)のゲート係数 $\alpha^{l}$ を 1 層の FFN に変更して, 文・トークンレベルの適応的なゲート機構の評価を行った. $\operatorname{GAU}^{l}\left(\boldsymbol{H}^{l}\right)$ を $ \operatorname{FFN}_{\alpha}^{l}\left(\boldsymbol{H}^{l}\right) \operatorname{FFN}^{l}\left(\operatorname{LN}\left(\boldsymbol{H}^{l}\right)\right)+\left(1-\operatorname{FFN}_{\alpha}^{l}\left(\boldsymbol{H}^{l}\right)\right) \boldsymbol{H}^{l}, $ としたとき, $ \begin{aligned} \mathrm{FFN}_{\alpha, \text { sent }}^{l}\left(\boldsymbol{H}^{l}\right) & =\sigma\left(\boldsymbol{h}_{\text {CLS }}^{l}{ }^{\top} \boldsymbol{w}_{\text {gate }}^{l}+b_{\text {gate }}^{l}\right) \in \mathbb{R} \\ \operatorname{FFN}_{\alpha, \text { token }}^{l}\left(\boldsymbol{H}^{l}\right) & =\sigma\left(\boldsymbol{H}^{l} \boldsymbol{w}_{\text {gate }}^{l}+b_{\text {gate }}^{l}\right) \in \mathbb{R}^{n} \end{aligned} $ と定義した. $\sigma$ はシグモイド関数である. $\boldsymbol{w}_{\text {gate }}^{l} \in$ $\mathbb{R}^{d}, b_{\text {gate }}^{l} \in \mathbb{R}$ は学習可能パラメータ, $n$ は系列の長さである.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B7-4.pdf
# Free Donut: E2E 文書理解モデルにおける Attention を用いた 文字領域アノテーション不要なテキスト検出手法の提案 Shuhei Yokoon ${ }^{1 *} \quad$ Geewook Kim²* Sukmin $\mathrm{Seo}^{3}$ Atsuki Osanai ${ }^{1} \quad$ Yamato Okamoto $^{1} \quad$ Youngmin Baek $^{1,3}$ }^{1}$ LINE $\quad{ }^{2}$ NAVER $\quad{ }^{3}$ NAVER Cloud \{shuhei.yokoo,atsuki.osanai,yamato.okamoto\}@linecorp.com \{gw.kim,sukmin.seo,youngmin.baek\}@navercorp.com ## 概要 本稿では,End-to-End(E2E)文書理解モデルをベースとした,文書画像から $\mathrm{E} 2 \mathrm{E}$ にテキスト抽出と言語処理を行う新しいモデルを提案する。従来のモデルは OCR モデルや文書認識モデルといった複数のモデルを組み合わせる必要があったが,E2E 文書理解モデルはあらゆる言語処理タスクを単一モデルで扱えて,学習コストを削減することが可能である。一方で,E2E 文書理解モデルは明示的な文字検出を行わないため, テキストの位置情報の獲得ができないという問題がある。そこで,テキスト領域に Attention の注視点が分布するといった特性を利用して,位置アノテーションフリーにテキストの位置情報を獲得する方法を提案する.実験では,提案手法がくずし字認識タスクにおいて高精度な文字認識および位置情報の獲得が可能なことを示した。 ## 1 はじめに 文書(Document)は生活のあらゆる場面で利用される. 文書を自動で処理する自動文書処理 (Automated Document Processing) のニーズは極めて高く, 機械学習に基づく視覚的文書理解 (Visual Document Understanding, 以下 VDU)モデルが提案されている. 既存の VDU モデルは,テキストの検出 (Detection), 認識 (Recognition), 解析 (Parsing) の 3 つのモデルを組み合わせるため, モデル学習及びアノテーションのコストが大きく,特にテキストの位置を人手で記録するコストが課題視されている. 学習コスト削減のために,単一モデルで VDU を E2E に実施するモデルが提案されている. E2E 文書理解モデルは,画像と画像から抽出したいテキストのみで学習でき,位置の教師データを必要としない  図 1 アノテーションの例. 既存手法ではテキストと位置アノテーションの両方が必須となるが,E2E モデルは位置アノテーションを必要としないためコストが大幅に削減可能. のでコストが大幅に削減できる(図 1 参照)。また,複数のモデルを組み合わせる既存手法とは異なり,一つのモデルを E2E に学習するだけで VDU を実現できるため学習コストも削減できる。 E2E 文書理解モデルは文書分類 (Classification), 情報抽出(Information Extraction),質疑応答(Question Answering)などのアプリケーションで高い性能を達成したと既存研究 $[1,2]$ より報告されている. しかし,VDU アプリケーションには,例えば文書画像から個人情報に該当するテキストをマスキングするといった, テキストの位置が必要となる場合もある.本研究では,テキスト位置の教師データを必要としない利点を保ちつつ,E2E 文書理解モデルによってテキスト位置を獲得する手法を提案する。モデルがテキストを出力するとき,画像上で対応するテキスト領域に注視点が分布すると仮定して, Transformer から得られる Attention Map からテキス卜位置を獲得した. 実験では Kim et al. [1] のモデルを用いて,古文書の画像からくずし字を検出して認識するタスク [3] に対して,最新の OCR モデル [4] との比較により有効性を検証した。 ## 2 関連研究 光学的文字認識 (OCR). 画像からテキストを抽出する OCR は 2 つの機能で構成される。一つ目は画像上 の全テキストの位置情報を獲得するテキスト検出 (Text Detection), 二つ目は画像上のテキストを読むテキスト認識(Text Recognition)である. 深層学習の発展に伴い,それぞれの機能を実現する手法が提案されている $[5,6]$. また, OCR の 2 つの機能を単一モデルで E2E に実施する試みも増えている [4]. 視覚的文書理解 (VDU). VDU はテキストの抽出に加えて理解も実施する. 例えば, 文書画像上の情報を構造化して抽出する視覚的文書情報解析(Visual Document Parsing)や, 文書画像に対する自然言語の質問文に対して回答する視覚的文書質疑応答 (Visual Document Question Answering)が挙げられる. これらは主に OCR と自然言語モデルを直列に結合する手法で実現されてきた $[7,8,9]$. しかし,OCR を含む VDU モデルは,OCR で生じる計算コストの課題や, OCR まで誤差伝播しにくい学習の課題を抱えており, OCR を介さず単一モデルで VDU を実施する $\mathrm{E} 2 \mathrm{E}$ 文書理解モデルも研究されている $[1,2]$. ## 3 提案手法 本節ではまず $\mathrm{E} 2 \mathrm{E}$ 文書理解モデルの一つであ る Document Understanding Transformer [1] (以下, Donut) の構造を説明し, Donut のような Transformer 基盤の $\mathrm{E} 2 \mathrm{E}$ 文書理解モデルの Attention 層からテキストの位置を獲得する提案手法を説明する。 ## 3.1 事前知識 : Donut Donut は Transformer 基盤のエンコーダ・デコー ダモデルである. Kim et al.〜 [1] は Swin Transformer [10] をエンコーダに, BART [11] をデコーダに用いた. エンコーダは文書画像 $\mathbf{x} \in \mathbb{R}^{H \times W \times C}$ を入力とし,画像の各パッチ領域に対応する分散表現 $\left.\{\mathbf{z}_{i} \mid \mathbf{z}_{i} \in \mathbb{R}^{d}, 1 \leq i \leq n\right.\}$ を出力する. ここで $d$ は分散表現の次元数, $n$ はパッチ数を表すハイパーパラメータである.ここでパッチ数はまた別のハイパー パラメータである,パッチサイズ $p$ (ここでは正方形のパッチを前提に説明する)から決まる。入力画像を $H \times W$ へ固定するとすると,パッチ数は $n=H \cdot W / p^{2}$ となる. デコーダはエンコーダが出力した分散表現 $\{\mathbf{z}\}$ を参照しながら求められる情報 $\left(\mathbf{y}_{i}\right)_{i=1}^{m}$ を出力する. ここで $\mathbf{y}_{i} \in \mathbb{R}^{v}$ は $i$ 番目のトークンを表す 1-hot ベクトルであり,v は辞書のサイズ, $m$ は出力する最大トークン数を表すハイパーパラメータである. デコーダは Cross Attention [12] と呼ばれる仕組みにより $\{\mathbf{z}\}$ を参照する。その過程でデ コーダが各 time step $i$ で参照したパッチ領域を表すスコア $\left.\{\mathbf{A}_{i} \mid \mathbf{A}_{i} \in \mathbb{R}^{n \times h}, 1 \leq i \leq m\right.\}$ (以下, Attention Map) が獲得できる. ここで $h$ は Attention の数を決めるハイパーパラメータであり, $h>1$ の場合は Multi Head Attention [12](MHA)と呼ばれる. ## 3.2 提案アルゴリズム 提案手法は 3.1 節で説明した Cross Attention の Attention $\operatorname{Map}\{\mathbf{A}\}$ を用いる。〈ずし字認識タスク [3] に転移学習した Donut モデルの Attention Map を図 2 に示す. 図 2 でデコーダの最終層の $h$ 個の Attention Map の平均値であり,值が大きい領域(以下,注視点)が各 time step で出力した文字に対応する画像上の文字周辺に集中している. デコーダの各層ごとに Map が得られるが,くずし字認識タスクに対する予備実験の結果から最終層と出力文字との対応関係が強いことが観測できた. 本稿の実験と分析では最終層の Mapを分析の対象とし,Text Localization へ用いる方法を考える.この傾向を用いて, 各 time step の注視点をテキスト位置として獲得する. Map を box 化する方法としては,画像処理を用いることで実現した. 具体的には,Map に対して連結成分ラベリングを行い,最も連結成分の値の和が大きいものを予測の box とした. さらに, 我々が観測した Attention Map の 2 つの傾向を用いて Localization の精度を向上させる. 分散情報の利用. MHA を用いる Donut にはデコー ダの各層に 16 個の Attention Head が存在して, 16 個の Map を獲得できる. 図 3 は分散が大きい Map と分散が小さい Map を示し, 分散が大きい Map では注視点が出力文字周辺に集中して,分散が小さい Map では注視点が画像全体に分散する傾向を観測した. そこで, Attention Map を分散により重みつき平均した Mapを最終的に用いた。 読み順の利用. 図 4 は文字出力時の Attention Map を示す. くずし字データセット [3] ではテキストの読み順が右上から左下の画像が多く, 読み順に沿って文字を出力するよう転移学習した Donut では,注視点が文字の中心よりも上方に分布しやすい傾向にあった。一方で, 逆方向の読み順で文字を出力するよう学習させた場合, 注視点が文字の中心よりも下方に分布しやすい傾向にあった. 双方向の出力が相補的な役割を果たすと期待して,これらを統合して用いる. 双方向の出力の統合と効率化について. 双方向の 図 2 Donut モデルの Attention の可視化. くずし字認識タスクへ転移学習したモデルの Cross Attention Mapを可視化した. 文字の読み順に従って Attention の注視点が移動していることがわかる. 図 3 分散による Attention Map の傾向. (上) 分散が最も大きい Attention Head の Map. (下) 分散が最も小さい Attention Head $の$ Map. 図 4 読み方向による Attention Map の傾向. (上) 順方向の Map. (下) 逆方向の Map. 出力を統合する方法には, 双方向の Attention Map の重みつき平均を算出する方法(以下,Early Fusion) と, 双方向の Attention Map からテキスト位置を示す Bounding Box を獲得して,それらを統合する方法 (以下,Late Fusion)が考えられる.Box 統合する手法としては, WBF [13] を用いた. 本稿では両手法を実装して 4 節で定量評価した。 次に,提案手法の学習と推論の効率性について考察する. Donut は次のステップの文字を予測させる 図 5 提案手法の Overview. テキスト出力時の Atteniton Map から位置を獲得する. <S>は順方向の文字出力, $<\mathrm{R}>$ は逆方向の文字出力を動作させる命令トークン [1] である. Teacher Forcing 方式で学習する [1]. 逆方向の文字出力は, 順方向のテキストを反転させたテキストを教師データに用いて学習すれば容易に実現できる. また,そのとき双方向モデルの重みを全て共通化することで,パラメータ数を増加させることなく学習可能である.さらに,双方向どちらのデコーダも,エンコーダの同一の出力を入力に用いるため,エンコーダの計算は一回で済むことも利点として挙げられる。 推論時は 1 ステップに 1 文字づつ出力するため,双方向で計 2 回の推論を実施すると計算コストが大きくなってしまう.そこで次のアイデアを適用した.まず,片方向(ここでは順方向と仮定する)だけ推論して Attention Map と文字列を得る. 次に,得た文字列を反転させた文字列を,逆方向の読み順でモデルが出力した文字列だと見なして, 全て同時にデコーダに入力して逆方向の Attention Map を得る. この方法だと,逆方向の推論時にステップを繰り返すことなく,1 ステップのみで完了するため計算コストが大幅に削減できる。図 5 に提案手法の全体フローを示す。 表 1 くずし字認識タスクの性能. ## 4 実験 タスクとデータ. 実験では古文書くずし字データセット [3] 用いて文字検出及び認識タスクにより提案手法を評価した. データセットに含まれる 44 冊の古文書から一冊を評価データとして用いた. 本タスクではくずし字が書かれている文書画像から各くずし字の位置とテキストを獲得しており,〈ずし字を現代の語彙へと認識する点で従来の OCR タスクとは若干異なる点に注意されたい。 評価方法. 評価指標には検出した文字の位置を評価する mAP,OCR の評価指標の 1 つである CLEVAL [14], 〈ずし字認識 Kaggle チャレンジ ${ }^{1}$ で用いられた F1 スコア,そして認識した全ての文字を検出位置を元にソートして, Ground Truth の文字列との一致度合いを評価する Normalized Edit Distance(nED)を用いて評価した。 比較手法. まず,本研究では終端間文書理解モデルの一つである Donut [1] に提案手法を結合したものを提案手法とし, Box Annotation Free Donut (Free Donut)と呼ぶ. 比較対象には, 利用可能な API とオープンソースモデルである, MS OCR $\mathrm{API}^{2}$, EasyOCR ${ }^{3}$ を使用した. くずし字認識に特化した最先端手法とも比較するために,近年開催された ECCV-22 OCR Challenge ${ }^{4}$ を参照し, DEER [4] をくずし字データセットで学習した特化モデルも準備した. 結果. 表 1 に実験結果を示す.まず上段は市販の API やオープンソースモデルの評価結果であり,他の手法より大幅に低いスコアとなった。これは  くずし字認識に特化していないためだと推察される. 次に,中段はくずし字認識タスクで学習したモデルの評価結果である. テキスト位置の教師デー タを用いた DEER [4] と比べて,テキスト位置の教示データを用いない提案手法でも一部の評価指標では同等以上の性能を達成できた. ただし,出力した Bounding Box と Ground Truth Box の一致度合いを表す Area Precision [14]では, 閾值次第で DEER とのスコアの差分が大きくなった. これはテキスト位置の教師データを用いて学習した DEER に比べて, テキスト位置の教師データを用いない提案手法では, テキスト領域を余白なく漏れなく特定する観点では劣ることを示唆し, 改善の余地がると分かった. 出力した Bounding Box の中心点が, GT の Bounding Box 内に含まれるかどうかを評価する $\mathrm{F} 1$ や,認識されたテキストの正しさを評価する $\mathrm{nED}$ では提案手法が優位となった. 次に,Ablation Studyにより提案手法を構成する 2 つの要素の有効性を評価した。まず,分散を用いて Attention Head ごとの Map の重みつき平均を取ることによる性能向上は下段の 1 行目と 2 行目の比較で確認できる. 次に,双方向の読み順の出力を利用することの有効性は, 中段の提案手法のスコアと, 下段の片方向のみを利用した場合のスコアとの性能差から確認できる. ## 5 まとめと今後の課題 本稿では E2E 文書理解モデルを用いて, 推論時の Attention Map の後処理によってテキスト位置を獲得するアルゴリズムを提案した. 実験では古文書のくずし字認識タスクで高いスコアを示した. 今後の課題は, Attention Map を後処理する Ad-hoc なアルゴリズムの正式な根拠づけ, 性能向上, そして文字認識に限らない多様な応用先での有用性評価である。 ## 謝辞 The authors deeply thank members of NAVER Cloud CLOVA Vision Semantic Perception Team and LINE AI Company Computer Vision Lab Team. ## 参考文献 [1] Geewook Kim, Teakgyu Hong, Moonbin Yim, JeongYeon Nam, Jinyoung Park, Jinyeong Yim, Wonseok Hwang, Sangdoo Yun, Dongyoon Han, and Seunghyun Park. Ocrfree document understanding transformer. In European Conference on Computer Vision, pages 498-517. Springer, 2022. [2] Brian Davis, Bryan Morse, Bryan Price, Chris Tensmeyer, Curtis Wigington, and Vlad Morariu. End-to-end document recognition and understanding with dessurt. ECCV Workshop on Text in Everything, 2022. [3] 国文学研究資料館. 日本古典籍くずし字データセット. [4] Seonghyeon Kim, Seung Shin, Yoonsik Kim, Han-Cheol Cho, Taeho Kil, Jaeheung Surh, Seunghyun Park, Bado Lee, and Youngmin Baek. Deer: Detection-agnostic endto-end recognizer for scene text spotting. arXiv preprint arXiv:2203.05122, 2022. [5] Jeonghun Baek, Geewook Kim, Junyeop Lee, Sungrae Park, Dongyoon Han, Sangdoo Yun, Seong Joon Oh, and Hwalsuk Lee. What is wrong with scene text recognition model comparisons? dataset and model analysis. In Proceedings of the IEEE/CVF international conference on computer vision, pages 4715-4723, 2019. [6] Youngmin Baek, Bado Lee, Dongyoon Han, Sangdoo Yun, and Hwalsuk Lee. Character region awareness for text detection. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 9365-9374, 2019. [7] Yiheng Xu, Minghao Li, Lei Cui, Shaohan Huang, Furu Wei, and Ming Zhou. Layoutlm: Pre-training of text and layout for document image understanding. In Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery \& Data Mining, pages 1192-1200, 2020. [8] Teakgyu Hong, DongHyun Kim, Mingi Ji, Wonseok Hwang, Daehyun Nam, and Sungrae Park. Bros: A pretrained language model focusing on text and layout for better key information extraction from documents. Proceedings of the AAAI Conference on Artificial Intelligence, 36(10):10767-10775, Jun. 2022. [9] Yupan Huang, Tengchao Lv, Lei Cui, Yutong Lu, and Furu Wei. Layoutlmv3: Pre-training for document ai with unified text and image masking. arXiv preprint arXiv:2204.08387, 2022. [10] Ze Liu, Yutong Lin, Yue Cao, Han Hu, Yixuan Wei, Zheng Zhang, Stephen Lin, and Baining Guo. Swin transformer: Hierarchical vision transformer using shifted windows. In Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), pages 10012-10022, October 2021. [11] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pages 7871-7880, Online, July 2020. Association for Computational Linguistics. [12] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Proceedings of the 31st International Conference on Neural Information Processing Systems, NIPS'17, page 6000-6010, Red Hook, NY, USA, 2017. Curran Associates Inc. [13] Roman A. Solovyev and Weimin Wang. Weighted boxes fusion: ensembling boxes for object detection models. arXiv preprint arXiv:1910.13302, 2019. [14] Baek Youngmin, Nam Daehyun, Park Sungrae, Lee Junyeop, Shin Seung, Baek Jeonghun, Young Lee Chae, and Lee Hwalsuk. Cleval: Character-level evaluation for text detection and recognition tasks. arXiv preprint arXiv:2006.06244, 2020.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B7-5.pdf
# 文脈理解に着目した 対照学習に基づく弱教師あり Phrase Grounding 唐井希 清丸寛一 Chenhui Chu 黒橋禎夫 京都大学大学院 情報学研究科 $\{$ karai, kiyomaru, chu, kuro\}@nlp.ist.i.kyoto-u.ac.jp ## 概要 本研究では,対照学習に基づく弱教師あり Phrase Grounding 手法の改善に取り組む. 既存手法では, フレーズの文脈を考慮することが学習されず,画像中に同じクラスの物体が複数存在する場合にフレー ズを正しい物体領域に対応付けられない. 本研究では対照学習に用いる負例をフレーズの文脈を置き換えて作成することによってこの問題に対処する。提案手法を Flickr30k Entities データセットに適用し, ベースライン手法と比較して,最大で 2.89 ポイントの Recall の改善を確認した. ## 1 はじめに Phrase Grounding(Phrase Localization)は画像中の物体領域と画像キャプション中のフレーズの対応関係を同定するタスクである [1]. 自然言語によるロボットへの指示などその応用は多岐に渡る。 Phrase Grounding は一般に画像中の物体領域と画像キャプション中のフレーズの対応がアノテーションされた訓練データを用いて教師あり学習で解かれる $[2,3]$. しかし,こうした訓練データの構築には膨大な人的・金銭的コストが必要であり,異なるドメインや多言語への適用,訓練データ数を増やすことによる性能改善は困難である。 この問題を解決するため,画像とキャプションのペアから Phrase Grounding を学習する弱教師あり設定が研究されている $[4,5,6,7]$. この設定では画像中の物体領域と画像キャプション中のフレーズの対応のアノテーションが不要であり, 必要となる画像とキャプションのぺアもウェブデータ・実世界デー タから今後ますます多く手に入ると期待される [8].弱教師あり設定の手法としては,対照学習に基づく手法 $[4,5]$ が代表的である. この手法では, 共起する物体領域とフレーズのペア(正例)の類似度の 正例 [Chocolate donut] in front of a computer 負例 (先行研究) [Chocolate cookie] in front of a computer 負例 (提案手法) [Cream donut] in front of a computer 図 1: 対照学習における負例の作成方法. [ カッコ内 ] は関心のフレーズ,下線は正例のキャプションから置き換えた単語を表す。 最大化とそれ以外のペア(負例)の類似度の最小化の学習を通して,実際に対応関係にある物体領域とフレーズのペアに高い類似度を与える。 対照学習では負例の作成方法が性能を左右する。先行研究 [4] はフレーズの主辞を置き換えて負例を作成している。図 1 に例を示す.この例では,フレーズ chocolate donut の主辞 donut を cookie に置き換えて負例としている。これは対照学習により画像中に chocolate donut は存在するが chocolate cookie は存在しないことを学習することを意味する。しかし,これは主辞の donut と cookie に着目すれば解くことができ,画像中に同じクラスの物体(例えば chocolate donut と cream donut)が存在する場合に,主辞の文脈を考慮して正しい物体領域に対応付けることは必ずしも学習されない. 本研究では,フレーズの主辞ではなく,その文脈を置き換えて負例を作成することを提案する.図 1 に例を示す。提案手法では,主辞を修飾する文脈 chocolateを creamに置き換えて負例とする。これにより文脈を考慮し,同じクラスの物体を区別することを学習させる。 実験では,Flickr30K Entities [9] データセットに提案手法を適用し,提案手法がベースライン手法の性能を大きく改善することを確認した。 ## 2 関連研究 Phrase Grounding におけるアノテーションコストの問題を解決・緩和するため,いくつかのアプロー チが提案されている. 最も素朴な方法として, 学習済みの物体検出器のラベルとフレーズの単語類似度に基づき,物体領域とフレーズの対応を見つける手法がある [10]. しかし, 物体の情報が物体検出器が予測するラベルの範囲でしか区別できないため,同一クラスの物体を区別してフレーズと対応付けることは困難である。 別のアプローチとして,画像とキャプションのペアから Phrase Groundingを学習する弱教師あり設定が研究されている $[4,5,6,7]$. 最も代表的な手法は対照学習に基づくものである $[4,5]$. 他の手法としては,訓練済みのキャプショニングモデルの注意機構の活性からフレーズと物体領域の対応を抽出する手法 [7] などがある. ## 3 対照学習による弱教師あり Phrase Grounding 提案手法は,対照学習によって画像とキャプションのペアデータから Phrase Grounding を学習する枠組み $[4,5]$ に基づく.この手法では, 共起する物体領域とフレーズのぺアの類似度を上げつつ,共起しない物体領域とフレーズのペアの類似度を下げることを学習する.この学習により, 実際に対応関係にある物体領域とフレーズのペアには対応関係にないペアよりも高い類似度が与えられるようになる。 形式的には,まず画像とキャプションからそれぞれ物体領域特徵 $\mathbf{R}=\left.\{r_{1}, \cdots, r_{m}\right.\}\left(r_{i} \in \mathbb{R}^{d_{r}}\right)$ とフレー ズ特徴 $\mathbf{W}=\left.\{p_{1}, \cdots, p_{n}\right.\}\left(p_{j} \in \mathbb{R}^{d_{p}}\right)$ を抽出する. ただし, $m$ は画像から検出された物体領域の数, $d_{r}$ は物体領域特徵の次元数, $n$ はキャプション中のフレーズの数, $d_{p}$ はフレーズ特徴の次元数である.物体領域特徴とフレーズ特徴はそれぞれ事前学習済みの物体検出器と事前学習済みの言語モデルから得る. 次に,物体領域特徴とフレーズ特徴の類似度を注意機構—[11] によって計算する. 注意機構による類似度の計算には, 物体領域特徴の key ベクトルへの変換 $k_{r}: \mathbb{R}^{d_{r}} \rightarrow \mathbb{R}^{d}$ とフレーズ特徵の query ベクトルへの変換 $q_{p}: \mathbb{R}^{d_{p}} \rightarrow \mathbb{R}^{d}$ を用いる. ただし, $d$ は変換後の特徴の次元数である. $k_{r}$ と $q_{p}$ はいずれも単一の線形層を備えたニューラルネットワークとす る.これらを用いて, 物体領域特徴 $r_{i}$ とフレーズ特徵 $p_{j}$ の類似度 $a\left(r_{i}, p_{j}\right)$ を得る. $ \begin{aligned} & a\left(r_{i}, p_{j}\right)=\frac{e^{s\left(r_{i}, p_{j}\right)}}{\sum_{i^{\prime}=1}^{m} e^{s\left(r_{i^{\prime}}, p_{j}\right)}} \\ & s\left(r_{i}, p_{j}\right)=q_{p}\left(p_{j}\right)^{T} k_{r}\left(r_{i}\right) / \sqrt{d} \end{aligned} $ テスト時は各フレーズについて最も類似度が高い物体領域を選択することで Phrase Grounding を実行する.しかし, 弱教師あり設定では物体領域とフレー ズの対応に関する教師信号がないため,この類似度は直接最適化することはできない. そこで,画像 $\mathbf{R}$ とフレース $p_{j}$ の類似度 $\phi\left(\mathbf{R}, p_{j}\right)$ を導入し,このもとで対照学習を行うことで物体領域とフレーズの類似度を最適化する. この計算のため, 物体領域特徴の value ベクトルへの変換 $v_{r}: \mathbb{R}^{d_{r}} \rightarrow \mathbb{R}^{d}$ とフレーズ特徴の value ベクトルへの変換 $v_{w}: \mathbb{R}^{d_{p}} \rightarrow \mathbb{R}^{d}$ を導入する. $v_{r}$ と $v_{w}$ もまた,単一の線形層を備えたニューラルネットワークとして構成する。これらを用いて,画像とフレーズの類似度 $\phi\left(\mathbf{R}, p_{j}\right)$ を得る. $ \begin{aligned} \phi\left(\mathbf{R}, p_{j}\right) & =v_{w}^{T}\left(p_{j}\right) v_{\text {att }}\left(\mathbf{R}, p_{j}\right) \\ v_{\text {att }}\left(\mathbf{R}, p_{j}\right) & =\sum_{i=1}^{m} a\left(r_{i}, p_{j}\right) v_{r}\left(r_{i}\right) \end{aligned} $ 対照学習は,Gupta ら [4] に倣い,画像を置き換えて負例を作る画像側の対照学習と,キャプション中の単語を置き換えて負例を作る言語側の対照学習の組み合わせで行う. 画像側の対照学習では,ミニバッチ中に含まれる別の画像の物体領域特徵を負例とする。目的関数 $\mathcal{L}_{i m g}$ は以下の通りである. $ \mathcal{L}_{\text {img }}=-\sum_{j=1}^{n} \log \left(\frac{e^{\phi\left(\mathbf{R}, p_{j}\right)}}{e^{\phi\left(\mathbf{R}, p_{j}\right)}+\sum_{i=1}^{k-1} e^{\phi\left(\mathbf{R}_{i}^{\prime}, p_{j}\right)}}\right) $ ただし,$k$ はバッチサイズである. 言語側の対照学習では,正例のキャプション中の単語を別の単語に置き換えることで負例とする.具体的には,フレーズの主辞を対象として,事前学習済みの BERT [12] を使用し, 文脈的に妥当な単語に置き換えて負例を作成する.置き換え先の単語として置き換え元の単語の同義語や上位語が選択され不適格な負例となるを避けるため,以下の手続きを取る. ある文脈 $c$ を伴う単語 $w$ を置き換える際,まず,単語 $w$ をマスクしたキャプションを BERTに入力し, マスクの部分の当てはまる単語の予測確率 $p\left(w^{\prime} \mid c\right)$ を計算する.この上位 $K$ 単語を置き換え 表 1: 各手法で作成される負例の例. [ カッコ内 ] は関心のフレーズ,下線は正例のキャプションから置き換えた単語を表す。 & & & \\ 先の単語候補とする. 次に,単語 $w$ をスクせずそのまま BERT に入力し,単語 $w$ の部分に当てはまる単語の予測確率 $p\left(w^{\prime} \mid w, c\right)$ を計算する. 置き換え元の単語の同義語や上位語には $p\left(w^{\prime} \mid w, c\right)$ で高い確率になると期待される。置き換え先の単語候補をスコア $p\left(w^{\prime} \mid c\right) / p\left(w^{\prime} \mid w, c\right)$ をもとに並び替え,上位 $L$単語を置き換え先の単語として採用する. 目的関数 $\mathcal{L}_{\text {lang }}$ は以下の通りである. $ \mathcal{L}_{\text {lang }}=-\log \left(\frac{e^{\phi\left(\mathbf{R}, p_{j}\right)}}{e^{\phi\left(\mathbf{R}, p_{j}\right)}+\sum_{l=1}^{L} e^{\phi\left(\mathbf{R}, p_{l}^{\prime}\right)}}\right) $ ただし, $L$ は負例の数, $p_{l}^{\prime}$ は正例のキャプション中の単語を置き換えた上で抽出したフレーズ特徴である. モデルはこれらの和 $\mathcal{L}=\mathcal{L}_{\text {img }}+\mathcal{L}_{\text {lang }}$ を目的関数とし,その最小化を学習する。 ## 4 提案手法 対照学習に基づくPhrase Groundingでは,フレー ズの主辞を置き換えて負例を作成されている [4].本論文ではこの負例の作成方法を HEAD と呼ぶ. 本論文では,これに加えて,フレーズの主辞の文脈単語を置き換えて作成した負例を対照学習に利用することを提案する. 本研究では 2 つの方法を提案する. 1 つ目はフレーズの主辞を修飾する形容詞を置き換える方法である. まず,フレーズの主辞を修飾する形容詞を構文解析を適用して見つける置き換え先の単語は HEAD と同様, BERT の予測確率に基づき得る. この負例の作成方法を ADJ と呼ぶ. 2つ目はフレーズ内の単語を含むフレーズの周辺単語を無作為に置き換える方法である. ADJ と比べて, 多様な修飾関係が学習されると期待される. 置き換え先の単語は HEAD と同様の方法で得る.この負例の作成方法を RAND と呼ぶ. HEAD と ADJ は品詞情報, 統語情報を活用して置き換える単語を選択するため,基本的に妥当な負例 が得られる。一方,RAND はそれらを一切考慮しないため, 多様な修飾関係がカバーされる代わりに,不適当な負例になる場合も多い. 表 1 に各手法で作成される負例の具体例を示す. ## 5 実験 提案手法の有効性を確認するため実験を行った。 ## 5.1 実験設定 実験には Flickr30K Entities [9] データセットを使用した. Flickr30K Entitiesには 3 万枚の画像が含まれ,各画像に 5 つのキャプションが付与されている. また, すべての画像・キャプションのぺアに対して,画像領域とキャプション中のフレーズの対応のアノテーションが付与されている. 提案手法は弱教師あり手法であり,画像領域とフレーズの対応に関するアノテーションは訓練に使用しないことに注意されたい. 評価指標には Recall と Pointing Accuracy の2つを用いた. Recall は正解領域と予測領域が IOU $\geq 0.5$ であるフレーズの割合である. Pointing Accuracy は, モデルがフレーズごとに 1 つの点の位置を予測し, その予測が正解領域内にある割合である. 本研究では予測領域の中心を予測値の点とした. 物体領域特徴は物体検出器 Faster-RCNN [13] を用いて抽出した. フレーズ特徴は BERT [12] が出力するフレーズの構成単語の文脈化埋め込みの平均とした. 画像側の対照学習における負例の数 $k$ は 10 , 言語側の対照学習における負例の数 $L$ は 5 とした. ADJ による負例生成には,構文解析 spacy ${ }^{11}$ の出力を使用した. RAND による負例生成では, 置き換える単語候補をフレーズ内の単語およびフレーズの前後 3, 5, 10 単語として比較した.  表 2: 実験結果. 最良の結果を太字で示す.(†)は元論文からの引用. RAND に付記されたカッコ内の数字はフレーズの前後何単語以内を置き換えの対象としたかを表す. ## 5.2 結果 表 2 に結果を示す.フレーズの主辞の名詞を置き換えて負例とする HEAD はほぼ先行研究 [4] の再現であるが, 3.28 ポイントの Recall の改善が見られた. これは, 先行研究がフレーズ特徴としてフレー ズ主辞の文脈化埋め込みを使用しているのに対し, HEAD はフレーズを構成する単語の文脈化埋め込みの平均を使用しているという違いに起因する. 先行研究 [4] も文脈化埋め込みを使用しているため主辞の文脈の情報は考慮されていると期待されるが,実験の結果,フレーズの構成単語全ての埋め込みを利用してフレーズ特徴を構成する方が効果的であることが確認された。 主辞を修飾する形容詞を置き換えて負例とする ADJ を加えることで,さらに 2.23 ポイントの Recall の改善が見られた. また, フレーズの周辺単語を無作為に置き換えて負例とする RAND 加えることで,最大 2.89 ポイントの Recall の改善が確認された. RANDについては,置き換える単語の窓幅を大きくするほど精度が向上する傾向が確認された. これは選択する範囲を増やすことで考慮できる修飾関係の種類が増えたためだと考えられる。 ## 5.3 ケーススタディ モデルの出力を分析したところ,提案手法によりモデルが期待通り,フレーズの文脈を考慮することを学習していることが確認された. 図 $2 \mathrm{a}$ に例を示す. HEADでは画像中にフレーズの主辞 jacketを修飾する leather の情報が考慮されず,誤った物体領域を選択しているが,HEAD+ADJではフレーズを正し A five-piece band, four of the men in red outfits and one of them in a leather jacket and jeans, perform on the sidewalk in front of a shop . (a) 提案手法による改善例. A young woman in a bikini looking at something in a glass case . (b) 提案手法による改善例. 図 2: 提案手法によって改善した例. 青色が HEAD (ベースライン), 橙色が HEAD+ADJ(提案), 紫色が HEAD+RAND(提案),黄色が正解の領域を示す. い物体領域に選択できている。 形容詞を考慮するだけでは不十分な例も確認された. 図 $2 b$ に例を示す. この例では主辞を修飾する young の情報だけではどの領域が正しいか選択できず,HEAD+ADJ は誤った領域を出力している。一方, HEAD+RAND は in a bikini を考慮して正しい領域を出力している. HEAD+RAND と HEAD+ADJ と比べて多様な修飾関係を考慮しているにも関わらず,その性能差は決して大きくない.これは HEAD+RANDで作成される負例にノイズが多く含まれることが原因と考えられる。 ## 6 おわりに 本研究では,対照学習に基づく弱教師あり Phrase Grounding 手法の改善に取り組んだ. 既存手法ではフレーズの文脈を考慮した Phrase Grounding が学習されないことに着目し, 対照学習に用いる負例の工夫によりこの問題に対処した. 実験では提案手法を Flickr30k Entities データセットに適用し, その有効性を確認した. 今後, 言語素性・統語構造を考慮したより効果的な負例の作成方法を検討したい。 ## 謝辞 本研究はヤフー株式会社の支援のもとで行われた。 ## 参考文献 [1] Akira Fukui, Dong Huk Park, Daylen Yang, Anna Rohrbach, Trevor Darrell, and Marcus Rohrbach. Multimodal compact bilinear pooling for visual question answering and visual grounding. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 457-468, Austin, Texas, November 2016. Association for Computational Linguistics. [2] Aishwarya Kamath, Mannat Singh, Yann LeCun, Gabriel Synnaeve, Ishan Misra, and Nicolas Carion. Mdetr - modulated detection for end-to-end multi-modal understanding. In Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), pp. 1780-1790, October 2021. [3] Liunian Harold Li, Pengchuan Zhang, Haotian Zhang, Jianwei Yang, Chunyuan Li, Yiwu Zhong, Lijuan Wang, Lu Yuan, Lei Zhang, Jenq-Neng Hwang, Kai-Wei Chang, and Jianfeng Gao. Grounded language-image pre-training. In 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pp. 10955-10965, 2022. [4] Tanmay Gupta, Arash Vahdat, Gal Chechik, Xiaodong Yang, Jan Kautz, and Derek Hoiem. Contrastive learning for weakly supervised phrase grounding. In ECCV, 2020. [5] Liwei Wang, Jing Huang, Yin Li, Kun Xu, Zhengyuan Yang, and Dong Yu. Improving weakly supervised visual grounding by contrastive knowledge distillation. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pp. 1409014100, June 2021. [6] Samyak Datta, Karan Sikka, Anirban Roy, Karuna Ahuja, Devi Parikh, and Ajay Divakaran. Align2ground: Weakly supervised phrase grounding guided by image-caption alignment. In Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), October 2019. [7] Effrosyni Mavroudi and René Vidal. Weakly-supervised generation and grounding of visual descriptions with conditional generative models. In 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pp. 15523-15533, 2022. [8] Piyush Sharma, Nan Ding, Sebastian Goodman, and Radu Soricut. Conceptual captions: A cleaned, hypernymed, image alt-text dataset for automatic image captioning. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2556-2565, Melbourne, Australia, July 2018. Association for Computational Linguistics. [9] Bryan A. Plummer, Liwei Wang, Chris M. Cervantes, Juan C. Caicedo, Julia Hockenmaier, and Svetlana Lazebnik. Flickr30k entities: Collecting region-to-phrase correspondences for richer image-to-sentence models. In 2015 IEEE International Conference on Computer Vision (ICCV), pp. 2641-2649, 2015. [10] Josiah Wang and Lucia Specia. Phrase localization without paired training examples. In Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), October 2019. [11] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [12] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [13] Peter Anderson, Xiaodong He, Chris Buehler, Damien Teney, Mark Johnson, Stephen Gould, and Lei Zhang. Bottom-up and top-down attention for image captioning and visual question answering. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2018
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B8-1.pdf
# 指示文からの画像生成における配置指定能力の調査 木村昴 ${ }^{1}$ 工藤慧音 ${ }^{1}$ 赤間怜奈 1,2 鈴木潤 1,2 1 東北大学 2 理化学研究所 \{subaru.kimura.s4, keito.kudo.q4\}@dc.tohoku.ac.jp \{akama, jun.suzuki\}@tohoku.ac.jp ## 概要 指示文から品質の高い画像を生成する画像生成モデルが大きな関心を集めている. 現在,生成画像の品質や忠実さの向上に焦点を当てた研究が盛んに行われている。一方で,生成画像内の各物体の位置や関係性といった細かい指定を実現する方法については,未だほとんど取り組まれていない. 本研究では,一般に広く使われている拡散モデルに基づく指示文からの画像生成方法の配置指定能力を調査する. 単純な位置指定表現を加えた指示文により物体の配置ができるかを実験により検証する。実験結果より,単純な位置指定表現では意図通りに作用しないことを報告する。 ## 1 はじめに 現在,拡散モデル [1] が画像生成モデルに取り入れられたことにより,指示文 (システムに入力されるプロンプト)の内容を忠実に画像へ描写できる画像生成技術が向上している. 例えば,生成したい画像に対する物体の指定や全体的な画風などの指定に対する生成画像の品質は以前に比べて格段に向上した.しかし,生成内容の配置を自由に指示文から指定することは容易ではない. 図 1 の図下の例では,猫を画像内の左下に描写することを意図した指示文を入力としたときの実際の画像生成例を示している. 生成画像を眺めると意図通りに猫を配置できていないことが分かる. 一方で, 本研究が目指す生成画像の理想は, 図 1 の図上のように指示文通りに配置をすることである. 生成画像内容の配置を指定する研究は Generative Adversarial Networks (GANs) [2] によって画像生成が可能になってから徐々に研究され始めた [3]. その後は,物体領域やセグメンテーションを用いた配置図をモデルの入力に加えることで配置を指定する研究 $[4,5,6,7,8]$ が報告されている. また,画像内の 図 1 現状の Stable Diffusion における位置指定付き指示文での実際の生成例 (図下) と本研究で目指す指示文のみでの配置指定の理想像 (図上). 物体同士の位置および意味的な関係を表現したグラフを用いて多くの物体を含む複雑な文から忠実な画像を生成する研究 [9] などが実施されている. これらの関連研究の内,モデル構造に拡散モデルを用いているのは最近の研究のみで [4],その他は拡散モデル以外のモデル構造を用いている $[3,5,6,7,8,9]$.拡散モデルを用いた画像生成において指示文のみで配置指定ができるかは明確に明らかにされていない.また,画像生成モデルが有用であるには,生成内容を高度に制御できることが望ましい. その上で,配置図などを作成せずとも指示文のみで配置指定を制御できることは有用であると考える。 そこで本研究では,一般に使われている Stable Diffusion [10] を対象に,「指示文のみでの配置指定」 をすることが可能かを実験により確かめ,指示文からの画像生成モデルの配置指定能力を調査する.また, 現在 Imagic [11] や Texutual Inversion [12], DreamBooth [13] などの小規模の微調整で生成内容を個別の目的に最適化する方法が注目されている. これらの手法 $[11,12,13]$ と微調整に使うデータサイズや工夫は異なるが,単純な微調整の有用性を調べるために画像内の物体領域の位置情報を加えた説明文を用意し,その説明文と画像のペアを用いて微調 図 2 実験の流れ:Visual Genome データセットから説明文を作成し,その説明文を用いて Stable Diffusion で画像生成または説明文画像ぺアで微調整してから画像生成する。 整した上で画像生成した場合の結果についても調査する。 ## 2 調査方法 今回調查対象とした画像生成モデルは Stable Diffusion である. 次にモデルの入出力を述べる.図 2 のように,画像内の一つの物体に注目し,その物体の位置から説明文を作成する。ここでの説明文とは画像中心を原点とした 4 象限のどこに物体が属しているかを明示する位置指定文とその物体について記述した文の 2 文からなる文である.これを指示文として対象モデルに入力し生成された画像における注目物体の生成位置を評価し,対象モデルが指示文で配置指定が可能かを調査する。また,作成した説明文と作成元画像のペアのデータセットを用いて, Stable Diffusion モデルを微調整した複数のモデルを用意し,それぞれのモデルで指示文のみでの配置指定が可能かを調査する.調査する観点をまとめると以下の 2 点になる. 1.そのままの Stable Diffsuion モデルで指示文による注目物体の配置指定が可能か. 2. 説明文画像ペアのデータセットを用いて Stable Diffusion モデルを微調整したモデルにおいて指示文による注目物体の配置指定が可能か. ## 3 実験 2 章で述べた内容を実験的に調べる. ## 3.1 調査に用いるデータセット 今回作成するデータセットの元として,計 108,077 枚の画像と詳細な各画像内の物体の記述を持つ Visual Genome [14] を用いる. 画像内の物体一つを選び出し説明文を Visual Genome の各画像から作成した計 94,079 枚の画像と説明文からなるデータセッ卜を構築した. 位置指定の種類は画像中心を原点として 4 象限に分けた時,どこに物体が属しているかで 4 種類ある. これらの位置と位置指定文の例の対表 1 画像中心を原点として 4 象限に分けた位置と位置指定文の例の対応表. 表 2 作成データセット内の選択物体領域の位置内訳. 応を表 1 に示す. 次にデータセット作成の手順を示す. 1. 画像の幅,高さが異なる画像を画像の左上頂点から幅と高さの内小さい方の長さで $1: 1$ に切り出す. 2. 画像中心を原点として 4 象限に分けた位置のどれかに物体が属している物体を一つ選び出す。選び出せない場合や物体についての記述がない画像については除外. 3. 選んだ物体の物体領域を拡大縮小し,学習・生成画像サイズである 512 に合わせる. 4. サイズ調整した物体領域の中心を算出. 5. 算出した中心が画像中心を原点として 4 象限に分けた位置のどれに位置するかで説明文を作成. 6. 作成した説明文画像ペアのデータセットを訓練,検証,評価セットに分割。このときの分割比は, Frolov らの研究 [8] にならい, 訓練:検証 : 評価を 14:1:1 の比率とする. 作成したデータセット内の選択物体領域の位置内訳を表 2 に示す。また,データセット分割時は表 2 の位置内訳が保たれるように分割した。 ## 3.2 調査に用いたモデル 一般に,指示文からの画像生成モデルは指示文を解釈するテキストエンコーダとその出力を用いて画像を生成する生成モデルで構成される. Stable Diffusion はテキストエンコーダとして OpenAI が発表した言語画像事前学習の Contrastive Language Image Pretaraining で事前学習されたモデルである CLIP [15] のテキストエンコーダを使用している. また,生成モデルとして潜在拡散モデル [10]を使用している. 潜在拡散モデルは画像から潜在空間への符号化と潜在空間から画像への復号化をする Variational Auto-Encoder (VAE) [16] と潜在空間で拡散モデルとして機能する Unet [17] から構成されている.また,Stable Diffusion は主に LAION-5B [18] の英語データセットで学習されている。 今回は,元の Stable Diffusion だけでなく,作成データセットの訓練データに含まれる説明文画像ぺアで Stable Diffusion モデルを微調整したものを用意する.このとき,潜在拡散モデルの Unet だけを微調整する場合と, Unet に加えてテキストエンコーダも微調整する場合の 2 通りのモデルを用意した. ## 3.3 評価指標 生成画像を評価する指標として指示文で指定した位置に物体が配置されているかを評価する指標と画像の質の指標を用意する。 位置評価指示文で指定した位置に物体が配置されているかを評価する指標として独自に評価指標を 3 種類用意した. Frolov ら [8] は, 配置指定ができているかを評価するために指定物体領域を切り出し, その領域の説明文との CLIPscore [19] を計算している. CLIPscore とは CLIPを用いて説明文と画像の一致度を評価する指標である。しかし,この方法では切り出す領域以外に物体が配置されたときに評価できない. ゆえに,本研究では物体検出器を用いた独自の評価指標群を利用する. 物体検出器には検出クラス数の制限がなく, 文を入力として検出できる物体検出器 [20]を用いる. 物体検出において検出物体が意図した物体かどうかを 0 から 1 で示す確信度の閾值は 0.01 とした. 我々の位置評価では指示文に含まれる物体名で画像内の同一の物体を検出し, 確信度が閾値を超えて検出された物体の物体領域全てについて正解画像の正解物体領域との IoUを求め,最大値をとる物体領域を検出物体の代表物体領域として採用する.このときの IoUを一つ目の評価指標とする. IoU とは Intersection over Union の略で (1) 式で計算される物体領域同士の重なり具合を評価する指標である. (1) 式の $A, B$ は物体領域を表す. $ \operatorname{IoU}(A, B)=\frac{|A \cap B|}{|A \cup B|} $ 二つ目の評価指標は,正解物体領域の中心と代表物体領域の中心との距離 D(単位は pixel)である. そして三つ目の評価指標は,正解物体領域の 4 象限での存在位置を正解データとして,代表物体領域の中心が同じ象限に生成されている場合に正解,そうでない場合に不正解としたときの正解率を採用する。画像の質の評価一般に使われている Inception Score (IS) [21] を用いる. IS は, 画像の識別しやすさと多様性を評価する指標であり,高いほど良い。 ## 4 実験結果および考察 ## 4.1 結果 3.2 節で用意した 3 つのモデルに対して評価デー タの説明文を指示文とし $512 \times 512$ の画像を 5880 枚生成した. 生成条件として,位置指定文を説明文から除くどうか. 加えて,位置指定文がある場合に言語誘導係数 [22] を変える場合を足した 3 通りの場合について 3 つの各モデルで画像を生成した. 言語誘導係数とは画像生成時の設定値の一つで指示文の内容をどれだけ画像内容に強く反映させるかの設定値である.この値を高くしたときの配置指定能力についても調査する.各モデルの各生成条件ごとに,生成した各画像の評価値の平均値を表 3 に示す. 位置評価の注釈本研究の位置評価の有効性を考える. 正解物体領域の選択元である評価データの画像 (正解画像) に対して考案した位置評価指標を用いて評価値の計算を行なった。これをオラクルの評価値とする. オラクルの評価値は検出物体領域が多少違えど同じ正解の物体領域を検出し, 各値がベストに近い值を出すと考えられる。オラクルの評価値は表 3 一行目の評価データ画像の IoU, D,正解率の各值を見ると各指標のべストに近いため,我々の位置評価指標は有効であると判断した。この値を基準として,モデルの生成画像に対する評価値がどの程度になるかを測定し,評価を行なった。 しかし,今回は微調整モデルの生成画像の質が良くなかったため物体検出器の確信度の閾値を経験的に 0.01 と低くした. ゆえに検出対象以外の物体領域を誤検出しうるという欠点があることを注釈する。 ## 4.2 考察 Stable Diffusion 表 3 より, Stable Diffusion の位置指定あり・言語誘導係数 7.5 での結果を見ると,位置指定ありで生成した時と位置指定なしの時を比較すると, IoU で見ると 2 倍ほどの差があり, 正解との物体領域中心同士の距離 D が 136 pixel ほどと最も低いため数値上はある程度位置指定の効果があるとも考えられる. しかし, このときの Stable Diffusion の生成画像を眺めると同一物体を複数生成する場合が散見されたため, 配置指定できたという 表 3 各モデルの各生成条件ごとに,生成した各画像の評価値の平均値. 微調整の有無・位置指定の有無・言語誘導係数を変えた計 9 つの組み合わせで,5,880 枚の評価データ画像から作成した説明文で生成した画像の評価結果. IoU all 成画像数,IoU,正解との物体領域中心同士の距離 D,代表物体領域中心が正解位置にあるかの正解率は検出画像数で平均を取った值である.位置指定の列の「-」は位置指定なしの説明文を,「、」は位置指定ありの説明文を使うことを意味する. } & - & 7.5 & 3,991 & 0.0517 & 0.0763 & 158.5 & 48.29 & 21.95 \\ より,画像内に物体を大量に生成することでその中で正解物体領域と近いものが選ばれた可能性がある.また,正解率は 5 割でオラクルの評価値と比べると配置指定が正確にできているとは言えない. 微調整の結果図 3 の生成画像の代表例を眺めると, 元の Stable Diffusion で生成した画像は, 図 3 の 1 行目の画像のように指示文の注目物体のみを大きなサイズで生成し,他のものを生成しない傾向がある. 一方で,微調整したモデルで生成した画像は,図 3 の 2, 3 行目の画像のように指示文には存在しない物体も生成する傾向があるため, 検出画像数やその他の位置評価の値に差が出た可能性がある。また,テキストエンコーダも含めて微調整しても評価値や生成内容に大きな差は見られなかった. 言語誘導係数 Stable Diffusion モデルで言語誘導係数を 15 に上げても表 3 の評価結果や目視で確認した配置指定能力にも大きな差は見られなかった.一方で,目視で確認すると微調整したモデルの生成内容では指示文の注目物体を明確に生成する頻度が増えた。これに関連して表 3 の微調整したモデルでの検出画像数の増加や IS の向上が生じたと考える. 今後の展望表 3 の結果より, 微調整したモデルでは生成画像の IS が減少した. この原因として, 微調整に使用した説明文画像ペアの内容の一致が十分でないことが学習の際に悪影響した可能性がある. そして,説明文画像ぺアの内容を一致させるためには,説明文の作成時に画像内の物体の選び方を工夫する余地がある.例えば,今回のように画像内の物体を一つ選ぶのみでなく全体的に画像内容と一致するように複数選び出して説明文を作ることや,画像 図 3 生成画像の代表例. 指示文は位置指定ありの時, $「$ Sign is in the lower left. Sign is red.」. 位置指定なしの時, $「$ Sign is red.」. 右 2 列は言語誘導係数が各列で異なる. 内の最大の物体を選び説明文を作ることが考えられる.また,配置指定として経験的に on やunder での配置指定はできる傾向があったため,他の位置指定によっては配置指定可能な余地がある. ## 5 おわりに 本稿では,一般に使われている Stable Diffusion の生成内容の配置指定能力を調査した. 実験の結果から,今回調査した位置指定文では,指示文による配置指定が安直にはできないことを物体検出を用いた独自の位置評価で定量的に明らかにした。 今後は,データセットや指示文の改良,モデル構造自体を変える必要性について調査していきたい。 ## 謝辞 本研究は,JST ムーンショット型研究開発事業 JPMJMS2011 (fundamental research) の助成を受けて実施されたものである.本研究を進めるにあたり,有益な助言を頂きました東北大学岡谷研究室の菅沼助教へ,記して感謝いたします. ## 参考文献 [1] Ling Yang, Zhilong Zhang, Shenda Hong, Runsheng Xu, Yue Zhao, Yingxia Shao, Wentao Zhang, Ming-Hsuan Yang, and Bin Cui. Diffusion models: A comprehensive survey of methods and applications. CoRR, Vol. abs/2209.00796, , 2022. [2] Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron C. Courville, and Yoshua Bengio. Generative adversarial nets. In NeurIPS, 2014. [3] Scott E. Reed, Zeynep Akata, Santosh Mohan, Samuel Tenka, Bernt Schiele, and Honglak Lee. Learning what and where to draw, 2016. [4] Yu Zeng, Zhe Lin, Jianming Zhang, Qing Liu, John P. Collomosse, Jason Kuen, and Vishal M. Patel. Scenecomposer: Any-level semantic image synthesis. CoRR, Vol. abs/2211.11742, , 2022. [5] Tobias Hinz, Stefan Heinrich, and Stefan Wermter. Generating multiple objects at spatially distinct locations. 2019. [6] Nan Liu, Shuang Li, Yilun Du, Joshua B. Tenenbaum, and Antonio Torralba. Learning to compose visual relations. In NeurIPS, 2021. [7] Tristan Sylvain, Pengchuan Zhang, Yoshua Bengio, R. Devon Hjelm, and Shikhar Sharma. Object-centric image generation from layouts. In AAAI. [8] Stanislav Frolov, Prateek Bansal, Jörn Hees, and Andreas R. Dengel. Dt2i: Dense text-to-image generation from region descriptions. In ICANN, 2022. [9] Justin Johnson, Agrim Gupta, and Li Fei-Fei. Image generation from scene graphs. In CVPR, 2018. [10] Robin Rombach, Andreas Blattmann, Dominik Lorenz, Patrick Esser, and Björn Ommer. High-resolution image synthesis with latent diffusion models. In CVPR, 2022. [11] Bahjat Kawar, Shiran Zada, Oran Lang, Omer Tov, HuiTang Chang, Tali Dekel, Inbar Mosseri, and Michal Irani. Imagic: Text-based real image editing with diffusion models. CoRR, Vol. abs/2210.09276, , 2022. [12] Rinon Gal, Yuval Alaluf, Yuval Atzmon, Or Patashnik, Amit H. Bermano, Gal Chechik, and Daniel CohenOr. An image is worth one word: Personalizing textto-image generation using textual inversion. CoRR, Vol. abs/2208.01618, , 2022. [13] Nataniel Ruiz, Yuanzhen Li, Varun Jampani, Yael Pritch, Michael Rubinstein, and Kfir Aberman. Dreambooth: Fine tuning text-to-image diffusion models for subject-driven generation. CoRR, Vol. abs/2208.12242, , 2022. [14] Ranjay Krishna, Yuke Zhu, Oliver Groth, Justin Johnson, Kenji Hata, Joshua Kravitz, Stephanie Chen, Yannis Kalantidis, Li-Jia Li, David A. Shamma, Michael S. Bern- stein, and Li Fei-Fei. Visual genome: Connecting language and vision using crowdsourced dense image annotations. International Journal of Computer Vision, Vol. 123, pp. 32-73, 2016. [15] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, Gretchen Krueger, and Ilya Sutskever. Learning transferable visual models from natural language supervision. In ICML, 2021. [16] Diederik P. Kingma and Max Welling. Auto-encoding variational bayes. In ICLR, 2014. [17] Olaf Ronneberger, Philipp Fischer, and Thomas Brox. Unet: Convolutional networks for biomedical image segmentation. In MICCAI, 2015. [18] Christoph Schuhmann, Romain Beaumont, Richard Vencu, Cade Gordon, Ross Wightman, Mehdi Cherti, Theo Coombes, Aarush Katta, Clayton Mullis, Mitchell Wortsman, Patrick Schramowski, Srivatsa Kundurthy, Katherine Crowson, Ludwig Schmidt, Robert Kaczmarczyk, and Jenia Jitsev. Laion-5b: An open large-scale dataset for training next generation image-text models. CoRR, Vol. abs/2210.08402, , 2022. [19] Jack Hessel, Ari Holtzman, Maxwell Forbes, Ronan Joseph Le Bras, and Yejin Choi. Clipscore: A referencefree evaluation metric for image captioning. In EMNLP, 2021. [20] Matthias Minderer, Alexey A. Gritsenko, Austin Stone, Maxim Neumann, Dirk Weissenborn, Alexey Dosovitskiy, Aravindh Mahendran, Anurag Arnab, Mostafa Dehghani, Zhuoran Shen, Xiao Wang, Xiaohua Zhai, Thomas Kipf, and Neil Houlsby. Simple open-vocabulary object detection with vision transformers. CoRR, Vol. abs/2205.06230, , 2022. [21] Tim Salimans, Ian J. Goodfellow, Wojciech Zaremba, Vicki Cheung, Alec Radford, and Xi Chen. Improved techniques for training gans, 2016. [22] Jonathan Ho. Classifier-free diffusion guidance. CoRR, Vol. abs/2207.12598, , 2022. 表 4 作成データセットの詳細情報 : 各画像で選ばれた物体名の上位 10 位までの物体名とその個数. & \\ 表 5 微調整時の学習設定. ## 参考情報 実験の実装をするにあたっては,Hugging Face の diffusers ライブラリ1)を用いた. また,Stable Diffusion のモデルについても Hugging Face 上で公開されているモデルを使用した2). 作成データセットの詳細情報表 4 に作成データセットの詳細情報として, 作成データセット内の各画像で選ばれた物体名の上位 10 位までの物体名とその個数を示す. 微調整時の学習設定値表 5 に微調整時の学習設定値を示す. 画像生成時の設定値表 6 に画像生成時の設定値を示す。 評価指標一覧以下に評価指標をまとめる. - 検出画像数:画像の精細さや目的の物体を生成できているかが関係すると考えられる。 - $\mathrm{IoU}_{\mathrm{all}}$ :正解物体領域と代表物体領域の重なり具合の指標. 最大値 1 . 生成画像数を分母に平均を取った值. - IoU:正解物体領域と代表物体領域の重なり具合の指標. 最大値 1. 検出画像数を分母に平均を取った值. - D:正解物体領域中心と代表物体領域中心の距離. 検出画像数を分母に平均を取った値. 低い 1) https://github.com/huggingface/diffusers 2) https://huggingface.co/runwayml/stable-diffusion-v1-5表 6 画像生成時の設定値. ほど良い. - Acc:検出代表物体領域の中心座標を四象限分類したときの正解率. 検出画像数を分母に平均を取った值. - IS : 生成画像の識別しやすさと多様性を評価する指標. 生成画像数を分母に平均を取った值.高いほど良い.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B8-2.pdf
# 画像キャプションを介した脳活動からの視覚体験再構成 高木優 $1,2^{*}$ 西本伸志 1,2 1 大阪大学大学院生命機能研究科 2 情報通信研究機構 } 図 1:(左)脳活動からのキャプションを介した視覚再構成の概要図.(右)先行研究 [1] との比較 ## 概要 ヒト脳活動から視覚体験を映像化する(視覚再構成)精度が,大規模自然画像データで学習した深層学習モデルを用いることで飛躍的に向上している.近年我々が提案した LDM(Latent Diffusion Model) を用いた手法 [1] は,LDM の潜在表現と脳活動との間に線形モデルを構築するだけで高解像度の視覚再構成が可能なことを示した一方で,生成画像がぼやける問題があった. 本研究では,脳活動から生成された画像キャプションを介することで,高精細な再構成が可能となることを示す.また,キャプション生成モデルの内部表現と脳との対応関係を探ることで,モデルの内部で視覚情報が意味情報へと動的に変換されていく過程を定量的に示す. ## 1 はじめに ヒト脳活動から視覚体験を映像化する(視覚再構成)精度が,大規模自然画像データで学習した深層学習モデルを用いることで飛躍的に向上している $[2,3,4,5,6,7,8]$. 特に近年我々が提案した fMRI (functional Magnetic Resonance Imaging) により取得された脳活動データと LDM[9](Stable Diffusion)を用いた手法 [1] は,LDM で用いる画像・意味を表現する潜在表現と脳活動との間にシンプルな線形モデルを構築するだけで,高解像度かつ意味的に妥当な  画像を出力できる。また,深層学習モデルと脳活動との対応関係を探ることで,ブラックボックスである深層学習モデルを生物学的な観点から理解する研究も進んでいる $[10,11]$. LDM は,入力文に対応した高精細な画像を出力できる。 それら高精細な画像と比較して,脳活動から生成された画像はぼやけてしまう問題があった [1]. ここで興味深いことに, 脳活動から生成された画像はぼやけてはいるものの,元画像の意味情報はよく表現している。このことは,離散的なテキスト入力と対応する自然画像を用いて訓練された LDM が,意味潜在表現空間の全域で自然画像と対応しているわけではない,もしくは部分的に滑らかではなく,脳活動からの推定に伴うノイズに対して脆弱なことを示唆する。 我々は上記の観察を踏まえて,脳活動から画像の意味潜在表現を予測する問題を,脳活動からの画像キャプション生成問題へと置き換える。これによって,脳活動から連続値で推定されノイズを含む潜在表現を,ノイズの少ない離散的なテキストへと変換する。そうして予測されたテキストをLDM の入力に用いることで,高精細かつ意味的に妥当な画像を出力できるという仮説を立てた. 本研究ではこの仮説を検証するために,大規模データセットによって訓練されたキャプション生成モデル [12]を利用する. 具体的には,視覚刺激提示中に fMRI から取得されたヒト脳活動を用いて提示 画像のキャプションを生成し,そのキャプションを介した視覚再構成を行った (図 1). 提案手法は,先行研究に比べて高精細かつ意味的に妥当な画像を出力することができた. また,キャプション生成モデルと脳活動との対応関係を探ることで,モデル内で視覚表現が意味表現へと変換される過程を定量的に示した. ## 2 関連研究 ## 2.1 脳活動デコーディング fMRI データを用いた視覚再構成(デコーディング)は,ノイズが多くサンプル数も少ないため一般に難しかった. だが近年,大規模自然画像で学習した深層学習モデルを用いることで高精度な再構成が可能となった $[2,3,4,5,6,7,8]$. これらの先行研究では,fMRI データまたは fMRI 実験で使われた刺激を用いた複雑な深層学習モデルの訓練・ファインチューニングを行う必要があった. 我々が提案した LDM を用いた手法 [1] は,LDM の潜在表現と脳活動との線形予測モデルを構築するだけで,高解像度かつ意味的に信頼度が高い視覚再構成ができることを示した. この手法は簡便かつ高精度な再構成を可能としたが,それでもなお,LDM にテキストを直接入力した場合に比べて画像がぼやける問題があった。 本研究で我々は,脳活動から生成されたキャプションを介することによって上記の問題を解決する. 脳活動からのキャプション生成について,限定的なデータで試みた研究は少数存在するが [13, 14],視覚再構成に利用した研究は存在しない. 今回我々は,大規模データで訓練されたキャプション生成モデル [12]を用いて,簡便な手法で脳活動からのキャプション生成が可能なことを示す. 加えて,キャプションを介することにより視覚再構成の精度が向上することを示す. ## 2.2 脳活動エンコーディング 深層学習モデルを生物学的観点から解釈するために先行研究は, 深層学習モデルの異なる層から特徵量を抽出し,それぞれの特徴量から脳活動を予測するモデル(エンコーディング)を構築してきた. 例えば,畳み込みニューラルネットワーク(CNN)の階層表現と,ヒトの視覚野の階層表現との対応などが示されてきた $[10,15,16,17,11,18]$. CNN などの視覚系モデルと比べ,言語など高次機能に関わるモデルと脳との関連を探る研究は少ない [19]. 特に,キャプション生成モデルと脳との関係を調べた研究は存在しない. 本研究では,キャプション生成モデルの各構成要素と対応する脳活動を探ることで,画像が言語情報へと変換されていく内部過程を生物学的観点から理解する. ## 3 提案手法 ## 3.1 データセット 本研究では,Natural Scenes Dataset(NSD)を用いた [20]. ${ }^{1} \mathrm{NSD}$ は, 7 テスラの fMRI 内で各被験者が MS-COCO から選定された 10,000 枚の画像を 3 回繰り返し見た際の脳活動データを提供している. 本研究では,全画像を視聴した 4 被験者 (subj01,subj02, subj05,および subj07)のデータのうち,公開されている 27,750 試行をデータとして用いた. このうち 2,770 試行(982 枚の画像に対応)は全被験者が同一の画像を視聴しており,これらの試行をテストデータに,残りの試行(24,980 試行)を訓練データに用いた。脳画像データとして,NSDが提供している前処理済の脳画像を用いた。関心領域(ROI)には NSD が提供する視覚野を用いた。詳細は A. 1 を参照. ## 3.2 脳活動を用いたキャプション生成 本研究では,キャプション生成モデルである BLIP[12]を用いて, 脳活動からのキャプション生成を行う. BLIP は, 入力画像 $\mathbf{X}$ から Vision Transformer(ViT) 特徵量 $\mathbf{z}_{\mathbf{v}}$ を抽出し, そこから BERT[21]を利用した言語生成を行う (図 2 上段). 詳細はA. 2 を参照. 本研究では,脳活動から予測された $\mathbf{z}_{\mathbf{v}}$ を用いてキャプションを生成する. 予測モデルの重みは $\mathrm{L} 2$ 正則化線形回帰を用いて訓練データから推定し,その後テストデータに適用した. 生成されたキャプションに関して,テキストベースの評価(BLEU-4)[22], テキストと画像の類似度による評価 (CLIP[23]), 人手評価を行った. 人手評価では 6 人の評価者に対して,ランダムに抽出した他の画像のキャプションと比べてどちらが提示画像をよく表しているかを回答させた $(\mathrm{N}=600$ 枚). : / /$ naturalscenesdataset.org/ } 図 2: 提案手法の概要図.(上段) 本研究で用いるキャプション生成モデル BLIP. (中段) 脳活動から生成されたキャプションを利用した視覚再構成の概要. (下段) BLIP の内部表現と脳活動との対応関係を探るためのエンコーディング解析の概要. ## 3.3 脳活動を用いた視覚再構成 本研究は,我々が近年提案した LDM(Stable Diffusion)を用いた視覚再構成手法を用いた [1](図 2 中段). 先行研究ではまず,入力画像 $\mathbf{X}$ をオートエンコーダのエンコーダに通した出力である潜在表現 $\mathbf{z}$ を脳活動から線形モデルで予測した. 次に,画像に付随するテキストアノテーションを CLIP エンコーダに通し,その出力である潜在表現 $\mathbf{c}$ を脳活動から予測した. 予測した $\mathbf{z}$ 及び $\mathbf{c}$ を LDM の逆拡散過程に通し再構成を行った。詳細は A. 3 及び A. 4 を参照. 本研究では, $\mathbf{c}$ を脳活動から直接推定するのではなく,脳活動から生成したキャプションを介することで推定する点が先行研究と異なる. 再構成画像に関して,画像べースの評価(CLIP)と,人手評価を行った. 画像べースの評価については, 先行研究による再構成画像と提案手法による再構成画像について,提示画像との CLIP 類似度を比較した. 人手評価では, 6 人の評価者に対して,先行研究による再構成画像と提案手法による再構成画像のどちらが提示画像とよく似ているかを尋ねた $(\mathrm{N}=400$ 枚). ## 3.4 脳活動エンコーディングモデル 次に,BLIP の内部表現について定量的に解釈するために,BLIP の各潜在表現と脳活動との対応関 a city street in the middle of the city a group of people on the street a group of people on the street a group of people walking down the street a clock on a wall a building with a clock on the top a building with a clock tower a clock on a wall 図 3: 脳活動から生成したキャプションの例. 各行は異なる被験者の脳活動から生成されたキャプション. 係を探った. そのために, BLIP で用いている ViT 特徴量 $\mathbf{z}_{\mathbf{v}}$ と BERT 特徴量 $\mathbf{z}_{\mathbf{B}}$ を用いて, それぞれから脳活動を予測するモデルを構築した (図 2 下段). また,BERT の中で視覚的な情報が言語的な情報へと変換される過程を見るために, $\mathbf{z}_{\mathbf{v}}$ と $\mathbf{z}_{\mathbf{B}}$ の両方を組み込んだ予測モデルも構築し,予測に対する $\mathbf{z}_{\mathbf{B}}$ の寄与度を検証した.全ての予測モデルは BERT の各層ごとに構築し, $\mathbf{z}_{\mathbf{B}}$ の予測力が層を経るごとにどう変化していくのかを検証した。 予測モデルの重みは L2 正則化線形回帰を用いて訓練データから推定し,その後テストデータに適用した。評価には,予測 fMRI 信号と実際の fMRI 信号のピアソン相関係数を使用した. 統計的有意性は, 2 つの独立な乱数間の相関を比較することによって計算した. 統計的閾値は $P<0.05$ とし, FDR 法により多重比較補正を行った。 ## 4 結果・議論 ## 4.1 脳活動からのキャプション生成 図 3 に,全 4 名の被験者それぞれの脳活動を用いて生成したキャプションの例を示す. 被験者を通じて, 提案手法はヒトの視覚体験をよく表現するキャプションを生成できていることがわかる,次に定量評価の結果を表 1 に示す. テキストベース指標,画像べース指標,人手評価のいずれも,ランダムに選択された他のキャプションに比べて提案手法で生成されたキャプションは画像をよく説明することが示された. 表 1: キャプションの定量評価. 括弧内はチャンスレベル. ## 4.2 脳活動からの視覚再構成 図 4 に,キャプションを介して視覚再構成を行った場合と, 介さずに視覚再構成を行なった場合の生成画像の例を示す. 先行研究に比べ,キャプションを介した視覚再構成がより精細な画像を生成できていることがわかる. 定量評価の結果,画像ベース指標の場合は $75.6 \%$, 人手評価の場合は $64.6 \%$ の割合でキャプション生成を介した再構成画像が既存手法による再構成画像よりも提示画像と類似していた.以上の結果より,キャプション生成を介した視覚再構成によって精度が高まることが示された。 図 4: 脳活動から生成したキャプション(各画像の下に提示)を介した視覚再構成の例. 図は単一の被験者の例. その他の被験者の結果は図 B. 1 を参照. ## 4.3 エンコーディングモデル 図 5 に,単一被験者の脳活動を BLIP の潜在表現から予測した結果を示す. どちらの特徴量も視覚野 (後頭部)をよく説明するが, ViT 特徴量 $\mathbf{z}_{\mathbf{v}}$ はより後部の低次視覚野をよく説明し, BERT 特徴量 $\mathbf{z}_{\mathbf{B}}$ はより前部にある高次視覚野をよく説明した。また, BERT 内は高次層おど予測力が高く, キャプション生成中期で最も説明力が高かった(図 6). 次に, BERT の階層表現と脳部位の対応を検証するため, $\mathbf{z}_{\mathbf{v}}$ と $\mathbf{z}_{\mathbf{B}}$ を同時にモデルに組み込んだ場合の $\mathbf{z}_{\mathbf{B}}$ の説明力の変化を探った. 図 7 は, 脳の各ボクセルを最も高い精度で予測した BERT の層番号を図示したものである. BERT 層が上がるに連れて,対応する脳領域も低次から高次へとシフトしており,意味的な情報が獲得されていくことがわかる. 図 5: BLIP 特徴量を用いて脳活動を予測した結果. 後頭初期視覚野を含む視覚野全般を予測する ViT (A) に比べ, BERT (B) は高次視覚野を中心に予測する。図は左右大脳皮質(上)およびその平面図(下)を表し,有意な予測を示したボクセルのみ色を付与. 図 6: BERT 各層の表現を用いた視覚野活動予測精度の全ボクセル平均值を生成初期・中期・後期に分けて図示. ## 5 結論 本研究では,ヒト脳活動から視覚体験を映像化する手法について,脳活動から得られた意味情報をそのまま特徵べクトルとして扱うのではなく一旦キャプションに変換することで画像生成精度が高められることを示した.また,急速に発展している画像・言語生成モデルの内部表現に生物学的観点から定量的解釈を提供した. 図 7: BERT 各層表現の予測精度. 初期視覚野から高次視覚野へと予測力が高い領域がシフトしている. 有意な予測を示したボクセルのみ色を付与. ## 謝辞 本研究は JSPS 科研費 19H05725,JP18H05522,JST CREST JPMJCR18A5,およびERATO JPMJER1801の助成を受けた。 ## 参考文献 [1] Yu Takagi and Shinji Nishimoto. High-resolution image reconstruction with latent diffusion models from human brain activity. bioRxiv, 2022. [2] Katja Seeliger, Umut Güçlü, Luca Ambrogioni, Yagmur Güçlütürk, and Marcel AJ van Gerven. Generative adversarial networks for reconstructing natural images from brain activity. Neurolmage, Vol. 181, pp. 775-785, 2018. [3] Guohua Shen, Tomoyasu Horikawa, Kei Majima, and Yukiyasu Kamitani. Deep image reconstruction from human brain activity. PLoS Computational Biology, Vol. 15, , 2019. [4] Guohua Shen, Kshitij Dwivedi, Kei Majima, Tomoyasu Horikawa, and Yukiyasu Kamitani. End-to-end deep image reconstruction from human brain activity. Frontiers in Computational Neuroscience, p. 21, 2019. [5] Guy Gaziv, Roman Beliy, Niv Granot, Assaf Hoogi, Francesca Strappini, Tal Golan, and Michal Irani. Selfsupervised natural image reconstruction and large-scale semantic classification from brain activity. Neurolmage, Vol. 254, , 72022. [6] Roman Beliy, Guy Gaziv, Assaf Hoogi, Francesca Strappini, Tal Golan, and Michal Irani. From voxels to pixels and back: Self-supervision in natural-image reconstruction from fmri. Advances in Neural Information Processing Systems, Vol. 32, , 2019. [7] Lynn Le, Luca Ambrogioni, Katja Seeliger, Yağmur Güçlütürk, Marcel van Gerven, and Umut Güçlü. Brain2pix: Fully convolutional naturalistic video reconstruction from brain activity. BioRxiv, 2021. [8] Sikun Lin, Thomas Sprague, and Ambuj K Singh. Mind reader: Reconstructing complex images from brain activities. Advances in Neural Information Processing Systems, 92022. [9] Robin Rombach, Andreas Blattmann, Dominik Lorenz, Patrick Esser, and Björn Ommer. High-resolution image synthesis with latent diffusion models. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 10684-10695, 2022. [10] Daniel LK Yamins, Ha Hong, Charles F Cadieu, Ethan A Solomon, Darren Seibert, and James J DiCarlo. Performance-optimized hierarchical models predict neural responses in higher visual cortex. Proceedings of the national academy of sciences, Vol. 111, No. 23, pp. 8619-8624, 2014. [11] Umut Güçlü and Marcel AJ van Gerven. Deep neural networks reveal a gradient in the complexity of neural representations across the ventral stream. Journal of Neuroscience, Vol. 35, No. 27, pp. 10005-10014, 2015. [12] Junnan Li, Dongxu Li, Caiming Xiong, and Steven Hoi. Blip: Bootstrapping language-image pre-training for uni- fied vision-language understanding and generation. arXiv preprint arXiv:2201.12086, 2022. [13] Wei Huang, Hongmei Yan, Kaiwen Cheng, Chong Wang, Jiyi Li, Yuting Wang, Chen Li, Chaorong Li, Yunhan Li, Zhentao Zuo, et al. A neural decoding algorithm that generates language from visual activity evoked by natural images. Neural Networks, Vol. 144, pp. 90-100, 2021. [14] Eri Matsuo, Ichiro Kobayashi, Shinji Nishimoto, Satoshi Nishida, and Hideki Asoh. Generating natural language descriptions for semantic representations of human brain activity. In Proceedings of the ACL 2016 student research workshop, pp. 22-29, 2016. [15] Tomoyasu Horikawa and Yukiyasu Kamitani. Generic decoding of seen and imagined objects using hierarchical visual features. Nature communications, Vol. 8, No. 1 , pp. 1-15, 2017. [16] Haiguang Wen, Junxing Shi, Yizhen Zhang, Kun-Han Lu, Jiayue Cao, and Zhongming Liu. Neural encoding and decoding with deep learning for dynamic natural vision. Cerebral cortex, Vol. 28, No. 12, pp. 4136-4160, 2018. [17] Tim C Kietzmann, Courtney J Spoerer, Lynn KA Sörensen, Radoslaw M Cichy, Olaf Hauk, and Nikolaus Kriegeskorte. Recurrence is required to capture the representational dynamics of the human visual system. Proceedings of the National Academy of Sciences, Vol. 116, No. 43, pp. 21854-21863, 2019. [18] Iris IA Groen, Michelle R Greene, Christopher Baldassano, Li Fei-Fei, Diane M Beck, and Chris I Baker. Distinct contributions of functional and deep neural network features to representational similarity of scenes in human brain and behavior. Elife, Vol. 7, , 2018. [19] Ariel Goldstein, Zaid Zada, Eliav Buchnik, Mariano Schain, Amy Price, Bobbi Aubrey, Samuel A Nastase, Amir Feder, Dotan Emanuel, Alon Cohen, et al. Shared computational principles for language processing in humans and deep language models. Nature neuroscience, Vol. 25, No. 3, pp. 369-380, 2022. [20] Emily J. Allen, Ghislain St-Yves, Yihan Wu, Jesse L. Breedlove, Jacob S. Prince, Logan T. Dowdle, Matthias Nau, Brad Caron, Franco Pestilli, Ian Charest, J. Benjamin Hutchinson, Thomas Naselaris, and Kendrick Kay. A massive $7 \mathrm{t}$ fmri dataset to bridge cognitive neuroscience and artificial intelligence. Nature Neuroscience, Vol. 25, pp. 116-126, 12022. [21] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018. [22] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th annual meeting of the Association for Computational Linguistics, $\mathrm{pp}$. 311-318, 2002. [23] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, et al. Learning transferable visual models from natural language supervision. In International Conference on Machine Learning, pp. 8748-8763. PMLR, 2021. ## A 手法 ## A. 1 データセット 本研究では, Natural Scenes Dataset(NSD)が公開している前処理済み脳機能画像(解像度 $=1.8 \mathrm{~mm}$ )を用いた. 前処理には,スライス時間の差を補正する時間的リサンプリングと,頭部の動きと空間的歪みを補正する空間的補間が含まれている. NSD は, GLM で推定した 3 種類の単一試行ごとのベータ值を提供している. 本研究では, betasfithrfGLMdenoiseRR を使用した. 加えて NSD は,各被験者について複数の関心領域(ROI)を提供している.本研究では,streams アトラスに含まれる視覚野のうち, $\mathbf{z}_{\mathbf{v}}$ および $\mathbf{c}$ の推定には視覚野全体を, $\mathbf{z}$ の推定には初期視覚野を ROI として用いた. テストデータでは各画像について 3 試行の平均值を用いた. 訓練データでは,平均化せずに 3 試行をそのまま用いた. ## A. 2 キャプション生成モデル 本研究では,キャプション生成モデルとして BLIP[12]を用いた. fMRI データが刺激として MS-COCOを用いていることから,モデルは公式からリリースされている LAION-5B で訓練された Base モデル2を用いており,MS-COCO でファインチューニングされたキャプショニングモデルは用いていない. 各種パラメータについて,繰り返しに対するペナルティを 1.5 に設定し,その他はデフォルトの数值を用いた. ## A. 3 LDM (Latent Diffusion Model) 本研究では,StabilityAI 社がリリースした LDM である Stable Diffusion のバージョン 1.4 を用いた. Stable Diffusion は, テキストで条件付けた高精細な画像生成(text-to-image)を可能にする.LAION-5B のサブセットを用いて学習され, CLIP ViT-L/14 のテキストエンコーダーが用いられている.コード及びパラメータは著者らが提供しているコード及びデフォルトパラメータを使用した. ${ }^{3}$ ## A. 4 関連研究(Takagi and Nishimoto 2022)手法詳細 本研究では,我々が先行研究で行った LDM を用いた視覚再構成手法を用いた [1]. 以下,再構成手法の概要を述べる. まず,初期視覚野の活動を用いて,提示画像 $\mathbf{X}$ をオートエンコーダーのエンコーダーに通した潜在表現 $\mathbf{z}$ を予測した.次に, $\mathbf{z}$ をデコーダーに通し, $320 \times 320$ の粗い画像 $\mathbf{X}_{\mathbf{z}}$ を生成し,さらに $\mathbf{X}_{\mathbf{z}}$ を $512 \times 512$ にリサイズした. 次に,リサイズした $\mathbf{X}_{\mathbf{z}}$ をエンコーダに通し,さらに拡散過程を通すことで,ノイズを付加した潜在表現 $\mathbf{z}_{\mathbf{T}}$ を作成した. 同時に,脳活動から生成したキャプションまたは視覚野全体から,CLIP エンコーダーの潜在表現 $\mathbf{c}$ を推定した. 最後に, $\mathbf{z}_{\mathbf{T}}$ と $\mathbf{c}$ を用いて $512 \times 512$ の再構成画像を生成した. モデル構築には L2 正則化線形回帰を用い,すべてのモデルは被験者ごとに構築された。重みは訓練データから推定し, 正則化パラメータは 5 分割交差検定を用いて訓練データ内で探索した. ## B 全被験者の視覚再構成結果 図 B.1: 全被験者の結果. 上段が提案手法, 下段が先行研究による再構成 [1] 
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B8-3.pdf
# JaSPICE : 日本語における述語項構造に基づく 画像キャプション生成モデルの自動評価尺度 和田唯我 兼田寛大 杉浦孔明 慶應義塾大学 \{yuiga,k.kaneda,komei.sugiura\}@keio.jp ## 概要 画像キャプション生成タスクでは,生成文の品質が適切に評価されることが重要である。しかし, BLEU や METEOR のような n-gram に基づく自動評価尺度は人間による評価との相関が高くないことが報告されている.そのため英語においては,人間による評価との相関が高い SPICE 等が提案されてきたが,日本語においてはそのような自動評価尺度が存在しない. そこで本論文では,日本語のキャプションに対してシーングラフに基づく評価を行う自動評価尺度 JaSPICE を提案する. 実験の結果,提案尺度はベースライン尺度ならびに機械翻訳による英訳文から算出された SPICE と比較して,人間による評価との相関係数が高いことを確認した。 ## 1 はじめに 画像キャプション生成は,視覚障害者の補助,画像に関する対話生成,画像に基づく質問応答など,幅広く研究が行われ,様々な用途で社会応用されている [1-3]. 本研究分野においては, 生成文の品質が適切に評価されることが重要である. 一方, n-gram に基づく自動評価尺度は人間による評価との相関が高くないことが報告されている [4]. そのため英語においては,人間による評価との相関が高い SPICE [4] 等の自動評価尺度が提案されているものの,日本語を含めた全ての言語においてそのような自動評価尺度が存在するわけではない. したがって,日本語による画像キャプション生成において,人間による評価との相関が十分に高い自動評価尺度が構築されれば有益である。 SPICE は英語による画像キャプション生成タスクにおける標準的な尺度であり,シーングラフに基づいた評価を行う。ここで,SPICE は Universal Dependency (UD) [5] を用いてシーングラフを生成す る.しかし,UDでは基本的な依存関係しか抽出できず,日本語における「A の B」[6] などの複雑な関係への対処が不十分である (「金髪の男性」など). また,生成文を英訳して SPICE を適用することも考えられるが,すべての問題設定に対応できるわけではない. 例えば,TextCaps [7] では画像中の単語を翻訳することは必ずしも適切ではない,以上のように,SPICE を日本語へ直接適用することは難しい。 そこで,本論文では日本語による画像キャプション生成手法における自動評価尺度 JaSPICE を提案する. JaSPICE は係り受け構造と述語項構造から生成されたシーングラフに基づくため,複雑な依存関係を抽出できる.図 1 に提案手法の流れを示す. 図のように,画像に対する参照文群とモデルの生成文を入力として,生成文がどの程度適切であるかを示す JaSPICE 值を計算する。 既存手法との違いは,日本語における画像キャプション生成モデルを評価できる点,係り受け構造と述語項構造に基づきシーングラフを生成する点,および同義語集合を自動評価に用いた点である. 係り受け構造と述語項構造をシーングラフに反映させることで,参照文群と生成文に対し適切なシーングラフを生成することができると期待される。また,同義語集合を用いることで,表層表現の不一致による評価値の低下を避けることができるため,人間による評価との相関が高まることが期待される. 提案手法1) における新規性は以下の通りである。 ・日本語による画像キャプション生成タスクにおける自動評価尺度 JaSPICE を提案する。 ・UD を用いる SPICE とは異なり,JaSPICE では係り受け構造と述語項構造に基づき,日本語の文からシーングラフを生成する。 ・同義語を利用したグラフの拡張手法を導入する。  図 1: 提案手法の流れ ## 2 問題設定 本論文では,日本語での画像キャプション生成に対する自動評価を扱う. 画像キャプション生成モデルにおける自動評価尺度は,人間による評価に近いことが望ましい. 具体的には評価値と人間による評価との相関係数が高いことが望ましい. 本論文で使用する用語を以下のように定義する. ・正解キャプション:画像に対してアノテータが付与したキャプション. - 述語項構造 : 文中の述語とその項の関係を表現する構造 [8]. ・シーングラフ : 画像内の物体同士の意味的関係を表現したグラフ. 詳しくは 3.1 節にて述べる. 画像キャプション生成モデルにおける自動評価尺度は, $i$ 番目の画像に対してモデルの生成するキャプション $\hat{y}_{i}$ と,画像に対する正解キャプション $\left.\{y_{i, j}\right.\}_{j=1}^{N}$ を入力として,$\left.\{y_{i, j}\right.\}_{j=1}^{N}$ に対して $\hat{y}_{i}$ が適切であるかの評価値を計算する。ここで, $N$ は $y_{i}$ あたりの正解キャプション数を示す. 本自動評価尺度の評価には人間の評価との相関係数 (Pearson/Spearman/Kendall の相関係数)を使用する. 本論文では, 日本語の画像キャプションに対する自動評価を前提とする。ただし, 本論文の議論の一部は,他言語に応用可能であると考えられる。 ## 3 提案手法 本論文では,日本語における画像キャプション生成のための自動評価尺度 JaSPICE を提案する. JaSPICE は SPICE [4] を拡張した自動評価尺度であり, 日本語のキャプションに対してシーングラフに基づく評価を行うことが可能である。本評価尺度は SPICE を拡張した手法だが,主語の補完や同義語によるノードの追加など,SPICE では扱わない要素も考慮しており, 本論文の議論の一部は, 他の自動評価尺度に対しても応用可能であると考えられる。 本提案手法と SPICE の主な違いは以下の通りである。 ・UD [5]を用いるSPICE とは異なり,JASPICE は係り受け構造と述語項構造に基づきルールベー スでシーングラフを生成する. ・ JaSPICE はヒューリスティックなゼロ照応解析と同義語を利用したグラフの拡張を行う。 本提案手法は, 図 1 のように Japanese Scene Graph Parser (JaSGP) と Graph Analyzer (GA) に分けられる. ## 3.1 シーングラフ シーングラフはキャプション $y$ に対して $G(y)=\mathcal{G}\langle O(y), E(y), K(y)>$ で表される. ここで, $O(y)$ は $y$ に属する物体の集合, $E(y)$ は物体同士の関係の集合,また $K(y)$ は属性を持った物体の集合である. $C, R , A$ をそれぞれ物体,関係,属性の全体集合とすると, $O(y) \subseteq C, E(y) \subseteq$ $O(y) \times R \times O(y), K(y) \subseteq O(y) \times A$ である. (a) (b)図 2: 画像と対応するシーングラフの一例 図 2 に画像とシーングラフの例を示す. 図 2(b) は図2(a) の説明文「人通りの少なくなった道路で,青いズボンを着た男の子がオレンジ色のへルメットを被り,スケートボードに乗っている.」から得られたシーングラフである.ピンク,緑,水色のノードはそれぞれ物体,属性,関係を表し,矢印は依存関係を表す。 ## 3.2 Japanese Scene Graph Parser り, 出力は入力されたキャプション $\hat{y}$ に対するシー ングラフ $G(\hat{y})$ である. まず,形態素解析器,構文解析器, 述語項解析器より, $\hat{y}$ か述語項構造と係り受け構造が取り出される。次に,述語項構造と係り受け構造から 10 種類の格を抽出し, 抽出した格よりルールベースでシーングラフ $\mathcal{G}\langle O(\hat{y}), E(\hat{y}), K(\hat{y})>$ を生成する。ここで, 10 種類の格とはガ格, ヨ格,二格, ト格, デ格, カラ格, ヨリ格,へ格, マデ格, 時間格 [9] である. 後述の通り,提案する自動評価尺度では $E(\cdot)$ を使用するが,日本語ではゼロ代名詞が存在する場合,すなわち関係 Rel $<o, R, o^{\prime}>$ のうち物体 $o$ が欠損している場合がある. したがって,提案手法では次のようにヒューリスティックな方法でゼロ照応解析を行う.いま,物体 $o_{2}$ と $o_{3}$ が関係 $R$ によって接続されているとする. 述語項構造と係り受け構造より述語に対する主語が特定できない $\mathcal{R}=\mathrm{Rel}<?, R, o_{2}>$ が存在する場合, $o_{2}$ と接続している別の関係 $\mathrm{Rel}<\mathrm{O}_{3}, R^{\prime}, o_{2}>$ から $\mathcal{R}$ における主語を $o_{3}$ へと決定する。 ## 3.3 Graph Analyzer GA における入力は $\left.\{y_{i, j}\right.\}_{j=1}^{N}$ から得られた $\left.\{G\left(y_{j}\right)\right.\}_{j=1}^{N}$ と $\hat{y}$ から得られた $G(\hat{y})$ である. まず, GA では次のように同義語によるノードの追加を行う. すなわち, $o \in O(\hat{y})$ の同義語集合 $S(\hat{y})$ を生成し, $O(\hat{y})$ と $S(\hat{y})$ の和集合 $O^{\prime}(\hat{y})$ を用いて新たに $G^{\prime}(\hat{y})$ を定義する. ここで,同義語集合には日本語 WordNet [10]を用いた. 次に, $\left.\{y_{i, j}\right.\}_{j=1}^{N}$ に対する $\left.\{G\left(y_{i, j}\right)\right.\}_{j=1}^{N}$ について,これらを 1 つの $G\left(\left.\{y_{i, j}\right.\}_{j=1}^{N}\right)$ へと統合する. 具体的には, $\left.\mathcal{G}<O\left(y_{i, j}\right), E\left(y_{i, j}\right), K\left(y_{i, j}\right)\right.\rangle$ について, $\mathcal{G}<\left.\{O\left(y_{i, j}\right)\right.\}_{j=1}^{N},\left.\{E\left(y_{i, j}\right)\right.\}_{j=1}^{N},\left.\{K\left(y_{i, j}\right)\right.\}_{j=1}^{N}>$ を $G\left(\left.\{y_{i, j}\right.\}_{j=1}^{N}\right)$ とする. $T(G(x))$ を $T(G(x)):=$ $O(x) \cup E(x) \cup K(x)$ と定義すると, $T\left(G^{\prime}(\hat{y})\right)$ と $T\left(G\left(\left.\{y_{i, j}\right.\}_{j=1}^{N}\right)\right)$ から適合率 $P$, 再現率 $R$, および $\mathrm{F} 1$値 $F_{1}$ を次のように計算する. $ \begin{aligned} P\left(\hat{y}, \boldsymbol{y}_{i}\right) & =\frac{\left|T\left(G^{\prime}(\hat{y})\right) \otimes T\left(G\left(\left.\{y_{i, j}\right.\}_{j=1}^{N}\right)\right)\right|}{\left|T\left(G^{\prime}(\hat{y})\right)\right|} \\ R\left(\hat{y}, \boldsymbol{y}_{\boldsymbol{i}}\right) & =\frac{\left|T\left(G^{\prime}(\hat{y})\right) \otimes T\left(G\left(\left.\{y_{i, j}\right.\}_{j=1}^{N}\right)\right)\right|}{\left|T\left(G\left(\left.\{y_{i, j}\right.\}_{j=1}^{N}\right)\right)\right|} \end{aligned} $ $\operatorname{JaSPICE}\left(\hat{y}, \boldsymbol{y}_{\boldsymbol{i}}\right)=F_{1}\left(\hat{y}, \boldsymbol{y}_{\boldsymbol{i}}\right)=\frac{2 \cdot P\left(\hat{y}, \boldsymbol{y}_{i}\right) \cdot R\left(\hat{y}, \boldsymbol{y}_{\boldsymbol{i}}\right)}{P\left(\hat{y}, \boldsymbol{y}_{\boldsymbol{i}}\right)+R\left(\hat{y}, \boldsymbol{y}_{\boldsymbol{i}}\right)}$ ここで, $\otimes$ はつのシーングラフのうち一 致している組を返す演算子である。GAでは $\operatorname{JaSPICE}\left(\hat{y}, \boldsymbol{y}_{\boldsymbol{i}}\right)$ を出力とし,この値を JaSPICE 値と定義する。 ## 4 実験 ## 4.1 実験設定 JaSPICE を既存の自動評価尺度と比較評価するため,JaSPICE 值と人間による評価との相関係数を用いた評価実験を行う. $s_{J}^{(i)}$ を $i$ 番目のキャプションに対する JaSPICE 値, $s_{H}^{(i)} \mathrm{i}$ 番目のキャプションに対する人間による評価とする. このとき, $\mathrm{N}$ 対の $\left.\{\left(s_{J}^{(i)}, s_{H}^{(i)}\right)\right.\}_{i=1}^{N}$ に対する相関係数 (Pearson, Spearman, Kendall の相関係数) を評価に用いる.また,実験設定の詳細は付録 A. 2 に記載する。 ## 4.2 実験結果 表 1 に提案尺度ならびにべースライン尺度と,人間による評価との相関係数を示す。ここでベースライン尺度には,画像キャプション生成において標準的な尺度である BLEU [11], ROUGE [12], METEOR [13], CIDEr [14] を用いた。表 1 より,JaSPICE は Pearson, Spearman, Kendall の相関係数において,それぞれ $0.501,0.529,0.413$ であり, ベースライン尺度を上回った. 表 2 に JaSPICE および SPICE と人間による評価との相関係数を示す.ここで, $\mathrm{SPICE}_{\mathrm{trm}}$ は JParaCrawl [15] で訓練した Transformer の出力した (DeepL) の出力した英訳文を用いて算出した SPICE 值である. JaSPICE は Pearson, Spearman, Kendall の相関係数において,それぞれ $0.501,0.529,0.413$ であり, SPICE $_{\text {trm }}$ と比較して $0.01,0.013,0.01$ ポイ JaSPICE はそれぞれ $0.013,0.014,0.011$ ポイント上回った. 図 3 亿提案尺度の成功例を示す. 図は入力画像と $\hat{y}_{i}$ 「眼鏡をかけた女性が青い携帯電話を操作している」に対するシーングラフである.図における $y_{i, 1}$ は「女性が青いスマートフォンを片手に持ってい 表 1: 自動評価尺度と人間による評価との相関係数 表 2: JaSPICE および SPICE と人間による評価との相関係数 る」であり, $\operatorname{JaSPICE}\left(\hat{y}, \boldsymbol{y}_{i}\right)=0.588, s_{H}^{(i)}=5$ であった. テスト集合において,この JaSPICE 値は上位 $0.02 \%$ の值であるため, 図の例において提案尺度は人間による評価に近い値を出力しているといえる。 ## 4.3 Ablation study 以下の 2 つの条件を Ablation study に定めた. (i) UDを用いたグラフ解析器を使用した場合: JaSGP UD を用いたグラフ解析器に置き換えることで,JaSPICE の性能への影響を調査した。 (ii) 同義語によるグラフ拡張を行わない場合 :同義語によるグラフ拡張を行わないことで, JaSPICE の性能への影響を調査した。 JaSPICE は $T\left(G^{\prime}(\hat{y})\right)$ と $T\left(G\left(\left.\{y_{i, j}\right.\}_{j=1}^{N}\right)\right)$ をもとに一致する組を調べるため,一致する組がない場合 JASPICE 值が 0 になることがある.そのため,上記の ablation 条件において,相関係数および $\operatorname{JaSPICE}\left(\hat{y}, \boldsymbol{y}_{i}\right)=0$ であったサンプル数 $M$ についても調査した。 表 3 に ablation study の結果を示す。条件 (ii) と (iv) を比較すると Pearson, Spearman, Kendall の相関係数において,それぞれ $0.102,0.139,0.104$ ポイント下回った. また, $M$ については 84 サンプル下回った. このことから JaSGP の導入が最も性能に寄与していると考えられる。同様に,条件 (i) と (iv),条件 (iii) と (iv) から,グラフ拡張の導入も性能に寄与していることが確認できる.表 3: Ablation study (P: Pearson, S: Spearman, K: Kendall) & $\mathrm{P}$ & $\mathrm{S}$ & $\mathrm{K}$ & $\mathrm{M}$ \\ (ii) & UD & $\checkmark$ & 0.399 & 0.390 & 0.309 & 1430 \\ (iii) & JaSGP & & 0.493 & 0.524 & 0.410 & 1417 \\ (iv) & JaSGP & $\checkmark$ & $\mathbf{0 . 5 0 1}$ & $\mathbf{0 . 5 2 9}$ & $\mathbf{0 . 4 1 3}$ & $\mathbf{1 3 4 6}$ (a) (b)図 3: 成功例における画像とシーングラフ ## 5 おわりに 本論文では,日本語での画像キャプション生成に対する自動評価尺度を提案した。本研究の貢献を以下に示す. ・日本語の画像キャプション生成に対する自動評価尺度 JaSPICE を提案した。 ・UD [5] を用いる SPICE [4] とは異なり,係り受け構造と述語項構造に基づくルールベースのグラフ解析器 JaSGPを提案した. ・同義語を考慮した評価を行うため,同義語を利用したグラフの拡張を導入した. ・JaSPICE はベースライン尺度,ならびに機械翻訳による英訳文から算出された SPICE と比較して,人間による評価との相関係数が高いことを示した. ## 謝辞 本研究の一部は,JSPS 科研費 $20 \mathrm{H} 04269$ ,JST CREST,NEDO の助成を受けて実施されたものである. ## 参考文献 [1] Danna Gurari, Yinan Zhao, Meng Zhang, and Nilavra Bhattacharya. Captioning Images Taken by People Who Are Blind. In ECCV, pp. 417-434, 2020. [2] Julia White, Gabriel Poesia, Robert Hawkins, et al. Opendomain Clarification Question Generation Without Question Examples. In EMNLP, pp. 563-570, 2021. [3] Adam Fisch, Kenton Lee, Ming-Wei Chang, Jonathan Clark, and Regina Barzilay. CapWAP: Image Captioning with a Purpose. In EMNLP, pp. 8755-8768, 2020. [4] Peter Anderson, Basura Fernando, Mark Johnson, and Stephen Gould. SPICE: Semantic Propositional Image Caption Evaluation. In ECCV, pp. 382-398, 2016. [5] Marie-Catherine de Marneffe, Timothy Dozat, Natalia Silveira, et al. Universal Stanford dependencies: A crosslinguistic typology. In LREC, pp. 4585-4592, 2014. [6] 黒橋禎夫, 酒井康行. 国語辞典を用いた名詞句「A の B」の意味解析. 情報処理学会研究報告. NL, 自然言語処理研究会報告, Vol. 129, pp. 109-116, 1999. [7] Oleksii Sidorov, Ronghang Hu, Marcus Rohrbach, et al. TextCaps: a Dataset for Image Captioning with Reading Comprehension. In ECCV, pp. 742-758, 2020. [8] Yuichiroh Matsubayashi and Kentaro Inui. Distance-Free Modeling of Multi-Predicate Interactions in End-to-End Japanese Predicate-Argument Structure Analysis. In COLING, pp. 94-106, 2018. [9] 河原大輔, 笹野遼平, 黒橋禎夫, 橋田浩一.格・省略・共参照タグ付けの基準,2005. https://nlp.ist.i.kyoto-u.ac.jp/nl-resource/ corpus/KyotoCorpus4.0/doc/rel_guideline.pdf. [10] Francis Bond, Hitoshi Isahara, Sanae Fujita, et al. Enhancing the Japanese WordNet. In Workshop on Asian Language Resources, pp. 1-8, 2009. [11] Kishore Papineni, Salim Roukos, Todd Ward, and Wei Zhu. Bleu: a Method for Automatic Evaluation of Machine Translation. In ACL, pp. 311-318, 2002. [12] Chin Lin. ROUGE: A Package For Automatic Evaluation Of Summaries. In ACL, pp. 74-81, 2004. [13] Satanjeev Banerjee, et al. METEOR: An Automatic Metric for MT Evaluation with Improved Correlation with Human Judgments. In IEEvaluation@ACL, pp. 65-72, 2005. [14] Ramakrishna Vedantam, Lawrence Zitnick, and Devi Parikh. CIDEr: Consensus-based Image Description Evaluation. In CVPR, pp. 4566-4575, 2015. [15] Makoto Morishita, Jun Suzuki, and Masaaki Nagata. JParaCrawl: A Large Scale Web-Based English-Japanese Parallel Corpus. In LREC, pp. 3603-3609, 2020. [16] Kelvin Xu, Jimmy Ba, Ryan Kiros, Kyunghyun Cho, et al. Show, Attend and Tell: Neural Image Caption Generation with Visual Attention. In ICML, pp. 2048-2057, 2015. [17] Simao Herdade, Armin Kappeler, Kofi Boakye, and Joao Soares. Image Captioning: Transforming Objects into Words. In NeurIPS, Vol. 32, pp. 11137-11147, 2019. [18] Marcella Cornia, Matteo Stefanini, Lorenzo Baraldi, and Rita Cucchiara. Meshed-Memory Transformer for Image Captioning. In CVPR, pp. 10578-10587, 2020. [19] Yunpeng Luo, Jiayi Ji, Xiaoshuai Sun, Liujuan Cao, et al. Dual-Level Collaborative Transformer for Image Captioning. AAAI, Vol. 35, No. 3, pp. 2286-2293, 2021. [20] Jingyu Li, Zhendong Mao, et al. ER-SAN: EnhancedAdaptive Relation Self-Attention Network for Image Captioning. In IJCAI, pp. 1081-1087, 2022. [21] 加藤駿弥, Chenhui Chu, 黒橋禎夫. 抽象度を制御可能なエンティティレベルの画像キャプション生成. 言語処理学会第 28 回年次大会, pp. 1349-1354, 2021. [22] Motonari Kambara, et al. Case Relation Transformer: A Crossmodal Language Generation Model for Fetching Instructions. IEEE RAL, Vol. 6, No. 4, pp. 8371-8378, 2021. [23] Tadashi Ogura, Aly Magassouba, Komei Sugiura, Tsubasa Hirakawa, et al. Alleviating the Burden of Labeling: Sentence Generation by Attention Branch Encoder-Decoder Network. IEEE RAL, Vol. 5, No. 4, pp. 5945-5952, 2020. [24] Aly Magassouba, Komei Sugiura, and Hisashi Kawai. Multimodal Attention Branch Network for PerspectiveFree Sentence Generation. In CORL, pp. 76-85, 2019. [25] Matteo Stefanini, Marcella Cornia, Lorenzo Baraldi, et al. From Show to Tell: A Survey on Deep Learning-based Image Captioning. arXiv preprint arXiv:2107.06912, 2021. [26] Tsung Lin, Michael Maire, Serge Belongie, Lubomir Bourdev, Ross Girshick, et al. Microsoft COCO: Common Objects in Context. In ECCV, pp. 740-755, 2014. [27] Peter Young, et al. From Image Descriptions to Visual Denotations: New Similarity Metrics for Semantic Inference over Event Descriptions. TACL, Vol. 2, pp. 67-78, 2014. [28] Piyush Sharma, Nan Ding, et al. Conceptual captions: A Cleaned, Hypernymed, Image Alt-text Dataset for Automatic Image Captioning. In ACL, pp. 2556-2565, 2018. [29] Yuya Yoshikawa, Yutaro Shigeto, and Akikazu Takeuchi. STAIR Captions: Constructing a Large-Scale Japanese Image Caption Dataset. In ACL, pp. 417-421, 2017. [30] Takashi Miyazaki and Nobuyuki Shimizu. Cross-Lingual Image Caption Generation. In ACL, pp. 1780-1790, 2016. [31] Ron Mokady, Amir Hertz, and Amit Bermano. ClipCap: CLIP Prefix for Image Captioning. arXiv preprint arXiv:2107.06912, 2021. [32] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, et al. Attention is all you need. In NeurIPS, Vol. 30, pp. 5998-6008, 2017. [33] Peter Anderson, Xiaodong He, et al. Bottom-Up and TopDown Attention for Image Captioning and Visual Question Answering. In CVPR, pp. 6077-6086, 2018. [34] Mert Kilickaya, Aykut Erdem, Nazli Ikizler-Cinbis, and Erkut Erdem. Re-evaluating Automatic Metrics for Image Captioning. In EACL, pp. 199-209, 2017. ## A 付録 ## A. 1 関連研究 画像キャプション生成の研究は盛んに行われており [16-21], 生活支援ロボットへの応用も行われている [22-24]. 画像キャプション生成に関するサー ベイ論文である [25] では, 画像キャプション生成モデルや標準的なデータセット,および評価尺度についての包括的な総括がなされている. 画像キャプション生成における代表的な尺度とし $\tau$, BLEU [11], ROUGE [12], METEOR [13], CIDEr [14] が挙げられる. また英語における代表的な尺度としては,これらに加え SPICE [4]が挙げられる. 英語の画像キャプション生成タスクにおける標準的なデータセットとして, MS COCO [26] や Flickr30K [27], CC3M [28] がある. また日本語の画像キャプション生成タスクにおける標準的なデータセットとして, MS COCO に日本語のキャプションが付与された STAIR Captions [29] や YJ Captions [30] がある. ## A. 2 実験設定 本研究では,日本語の画像キャプション生成において標準的なコーパスである STAIR Captions [29]を用いた. 本実験では STAIR Captions を訓練集合,検証集合,テスト集合に分割し,それぞれの集合は 413915, 37269, 35594 個のキャプションを含む. 人間による評価は,与えられた 1 枚の画像と,対応するキャプションの組に対して,キャプションの適切さを 5 段階で評価したものである. ここで,人間による評価はクラウドソーシングサービスを用いて 100 人の評価者から収集した. 評価には,モデルの出力した各キャプション,また $\left.\{y_{i}\right.\}$ と $\left.\{y_{\mathrm{rand}}\right.\}$ を含む合計 21227 個のキャプションを使用した. ここで, $y_{i}$ は $i$ 番目の画像に対する $\left.\{y_{i, j}\right.\}_{j=1}^{5}$ のうち 1 つを無作為に抽出したキャプションであり, $y_{\mathrm{rand}}$ は全画像における正解キャプションのうち 1 つを無作為に抽出したキャプションである. 評価に使用するモデルは,画像キャプション生成において標準的なモデルを採用した. 使用したモデルは SAT [16], ORT [17], $\mathcal{M}^{2}$-Transformer [18], DLCT [19], ER-SAN [20], ClipCap mlp $^{\text {[31], ClipCap }}{ }_{\text {trm }}$, および 3 種類の Transformer [32] である.ここで, (a) (b)図 4: 失敗例における画像とシーングラフ て Mapping Network を MLP, Transformer としたものであり,また使用した 3 種類の Transformer は Bottom-up Feature [33] を入力に用いた 3, 6, 12 層からなる. また上記実験に加えて, 日本語で学習したモデルの出力文を機械翻訳で英訳し,英訳文から算出した SPICE 值と人間による評価との相関係数を計算する.ここで,機械翻訳には JParaCrawl [15] で訓練した Transformer,および一般的な機械翻訳システム ${ }^{2)}$ を用いた。 [4] では,自動評価尺度の評価のため $\left.\{\left(s_{S}^{(i)}, s_{H}^{(i)}\right)\right.\}_{i=1}^{N}$ に対する相関係数と, モデルごとの平均值に対する相関係数 $\left.\{\left(\bar{s}_{S}^{(j)}, \bar{s}_{H}^{(j)}\right)\right.\}_{j=1}^{J}$ が提示されている.ここで $s_{S}^{(i)} i$ 番目のキャプションに対する SPICE 值とし, $J$ をモデルの個数とする.しかし,一般に $J$ は極めて小さいため,相関係数を計算する上で適切であるとは言えない,そのため前者は後者より適切であると考えられ,実際 [34]もキャプションごとの相関係数のみを評価に用いている. したがって,本論文ではモデルごとの平均值を用いた相関係数の計算は行わず, $\left.\{\left(s_{J}^{(i)}, s_{H}^{(i)}\right)\right.\}_{i=1}^{N}$ に対する相関係数を評価に用いる。 ## A. 3 失敗例 図 4 に提案尺度の失敗例を示す. 図は入力画像と $\hat{y}_{k} 「$ 皿に料理が盛られている」に対するシーングラフである. 図における $y_{k, 1}$ は「パンにハムときゅうりとトマトとチーズが挟まっている」であり, $s_{H}^{(k)}=5$ であったのに対し, $\operatorname{JaSPICE}\left(\hat{y}, \boldsymbol{y}_{k}\right)=0$ であった. 図 4 の例では, $y_{k, 1}$ が「パン」や「ハム」 という語を用いているのに対して, $\hat{y}$ が「料理」というそれらの上位語を用いており,表層表現の不一致から低い値が出力されている. 
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B8-4.pdf
# 画像キャプションを利用した IconQA タスクへのアプローチ 塩野大輝 1 宮脇峻平 1,2 長澤春希 1 鈴木潤 1,3 1 東北大学 2 株式会社キーウォーカー 3 理化学研究所 \{daiki.shiono.s1, haruki.nagasawa.s8\}@dc. tohoku.ac.jp \{jun.suzuki, shumpei.miyawaki.b7\}@tohoku.ac.jp ## 概要 本研究では,抽象的なダイアグラム画像の読解と多様な推論能力を必要とする Visual Question Answering(VQA)タスクの 1つである IconQA [1] に取り組む。我々は VQA タスクを解くにあたって, 1)視覚情報と言語情報における意味表現の紐付け, 2)言語空間上での視覚推論における大規模言語モデルの推論能力の活用,を目的にキャプション生成モデルを用いた視覚情報の拡張を行う. 本研究では IconQA で定義された各スキル集合において,視覚情報の拡張が VQA モデルの推論能力にどのような影響を与えるか調査を行う.実験結果より,キャプションによる視覚情報の拡張が VQA タスクを解く手がかりを提供する可能性があることを示す. ## 1 はじめに 視覚情報と言語情報の意味関係を結びつけたマルチモーダルな知識 [2] を計算機が獲得することは,実社会において人工知能研究が目指す最終目的の 1つである.この目的の実現に向けた取り組みの 1 つとして,画像中の視覚情報に関連する質問に解答することで計算機の読解能力を定量的に評価する VQA [3, 4] タスクが研究されている. 特にアイコンのような抽象的なダイアグラム画像を推論対象とした $^{1)}$ IconQA [1]では,VQA タスクを解く上で必要とされる 13 の推論スキル集合を提案しており,例えば物体認識やテキスト読解, 常識推論や数値推論などのスキルが含まれる. 近年では Transformer [5] を用いて, 言語情報と視覚情報の関連する意味表現を紐づけることで質問に解答する VQA モデルが多く提案されているが,豊富な視覚情報を含むダイアグラム画像を対象にした VQA モデルは少なく, その 1) California Common Core Content Standards $の$ IXL Math Learning より収集したデータに対し,小学校 3 年生までに習う算数の問題をクラウドソーシングで作成している.方法論と推論スキル別の関係性については十分に明らかにされていない. 本研究では,キャプション生成モデルを用い,画像を言語として記述する視覚情報の拡張が,様々な推論スキルに対してどのような影響をもたらすのか調査することを目的として,IconQA のベースラインモデルである pyramid patch cross-modal Transformer (Patch-TRM) [1]を用いて入力画像と質問に加えてキャプションを後期接続するモデルを提案する. 本研究の貢献は以下の通りである。 ・視覚情報と言語情報の意味表現を紐付けることを目的に,視覚情報の拡張として入力画像のキャプションをVQA モデルに組み込む方法を提案し,推論スキル別にその影響を評価する。 ・大規模言語モデルの推論能力を活用した言語空間上での視覚推論を行うために,言語情報として記述されたキャプションを入力とした GPT-3 [6] の推論性能について調査する. ・キャプション生成を用いた視覚情報の拡張が視覚推論に有効であることを示した。 ## 2 関連研究 ## 2.1 視覚情報と言語情報の融合 VQA を含む Vision and Language 分野において重要な共通事項の 1 つに「視覚情報と言語情報の融合」がある. 一般的に Transformer ベースの読解モデル $[7,8,9,10]$ の注意機構を用いて視覚情報と言語情報の意味表現を紐づける.また画像と質問に加えて、画像に関連する付加情報(物体クラス [11],画像中の文字情報 $[12,13]$, 視線トレース情報 [14] など)のモデル化により,視覚情報と言語情報の融合が促進されることが明らかとなっている. 特に大局的な視覚情報を記述するキャプションは, 局所的な読解対象に解答する VQA タスクにおいて視覚情報 図 1 キャプション生成を用いた視覚情報の拡張による提案モデルにおける画像選択問題の例(3.2 節) の手がかりを提供する $[15,16,17]$. 本研究では 1 つの参照に対して色や形など複数の意味表現を持つダイアグラム画像を対象に,そのキャプションが VQA モデルの推論能力に与える影響を調査する. ## 2.2 単一モダリティ空間上での視覚推論 視覚情報と言語情報の融合を促進する方法論の 1 つとして,画像情報および言語情報を一方のモダリティとして扱うことが挙げられる $[18,19]$. Liu ら [18] は,言語としての文脈と質問をレンダリングし,画像として扱うことで数值推論に取り組んでいる.また Outside Knowledge VQA(OK-VQA) [20] タスクでは,入力画像を言語として記述し,大規模言語モデルの推論能力を利用することで VQA モデルの推論性能を改善する手法が提案されている [21, 22, 23]. 本研究では, BERT [24] および GPT-3 [6] の推論能力を活用するために,ダイアグラム画像のキャプションを用いて言語空間上で視覚推論を行い,その推論性能を評価する。 ## 3 キャプション情報を用いた VQA 本章では,抽象的なダイアグラム画像を対象にした IconQA に取り組む. 3.1 節では IconQA のベースラインモデルである Patch-TRM [1] を説明し, 3.2 節でキャプションの言語情報を Patch-TRM に組み込む方法について提案する. 3.3 節では,画像をキャプションとして記述することで大規模言語モデルの推論能力を活用する方法について提案する。 ## 3.1 IconQA ベースラインモデル IconQA は質問とダイアグラム画像を入力として,質問に対する正解候補の中から解答を 1 つ選択する VQA タスクであり,1)画像候補選択問題 2)テキス卜候補選択問題 3)穴埋め問題,の3つのサブタスクが選択問題として定義されている ${ }^{2}$ 。我々はべースラインモデルとして Lu ら [1] が提案した Patch-TRM を用いる. Patch-TRM は,言語,画像,選択肢の 3 つのエンコーダと,解答を選択する分類器で構成される。言語エンコーダは BERT [24], 画像エンコー ダは Vision Transformer [25],選択肢エンコーダおよび分類器は線形層をそれぞれ用いる。攵イアグラム画像は,階層パッチ領域に分割される ${ }^{3}$. 分割されたパッチ領域は事前に学習された $\operatorname{ResNet}[26]^{4}$ によって符号化され,画像エンコーダに入力される.質問は,トークンに分割されたのち言語エンコーダによって符号化され,注意機構によってパッチ領域の視覚表現と融合される。また画像候補選択問題では ResNetによる埋め込み表現,テキスト候補選択問題では GRU [27] による埋め込み表現を選択肢エンコーダに入力する.最終的に注意機構からの出力および選択肢エンコーダからの出力を連結した中間表現を用いて分類器が解答候補に対するスコアを算出する。なお穴埋め問題においては,選択肢エンコー  図 2 GPT-3 [6] による視覚推論(3.3 節) ダは使用せず,注意機構からの出力表現を分類器に入力する. 学習時は, 分類器が出力したスコアに対して二值交差エントロピーを用いた最適化を行う。 ## 3.2 キャプションを用いた視覚情報の拡張 本節では,ダイアグラム画像と質問における視覚および言語情報の意味表現の融合を促進することを目的として,ダイアグラム画像をキャプションとして記述し,その言語情報を Patch-TRM に組み込む手法を提案する(図 1)。キャプションの記述には, BLIP [28] のキャプション生成モデルを用いる5).キャプションの組み込みを実現するため, Patch-TRM の 3 つのエンコーダに加えてキャプションを符号化するための言語エンコーダを導入す $る^{6)}$. 具体的には, 3.1 節で説明したべースラインの画像エンコーダを踏襲し, 階層的にパッチ分割された画像に対して BLIPを適用し,言語として記述されたキャプションを言語エンコーダで符号化す $る^{7)}$. 以降は,3.1 節と同様に,質問および選択肢の表現と組み合わせることで分類器に入力するための中間表現を作成する. 本研究では分類器に入力する中間表現として,画像エンコーダによる視覚表現 (img),言語エンコーダからの言語表現 (txt),両エンコーダから出力された視覚および言語の連結表現 (both)の 3 種類を用いて比較評価を行う. なお画像候補選択問題については,分類器に入力される選択肢の中間表現において,画像候補に加えて BLIP で記述した言語候補も使用し,言語候補選択問題で使用する GRU と線形層で符号化された言語選択表現  表 1 IconQA [1] データセットの質問数 を視覚選択表現に連結したものを使用する ${ }^{8)}$. ## 3.3 GPT-3 による言語推論 Lu ら [1] が提案した Patch-TRM は,数値推論など高度な推論能力が要求される問題に対して改善の余地がある. 我々は Schwenk ら [20] の研究に倣い,大規模言語モデルの推論能力を活用することで,IconQA における予測性能の改善を目指し,数值推論などのスキル別に評価を行う.具体的には, GPT-3 [6] を用いて言語空間上での推論を行うために, 1 枚のダイアグラム画像全体に対して,人手および BLIP によって記述されたキャプションを使用する. 記述されたキャプションは,図 2 で示すタスク指示および質問のプロンプトと連結され,ゼロショットの設定で GPT-3 に入力される. ## 4 実験設定 5.1 節では, 3.2 節で提案した Patch-TRM の読解能力を評価するため, 13 の推論スキル9) が定義された IconQAを用いて, 画像候補選択問題 (Img.),テキス卜候補の選択問題 (Txt.),穴埋め問題 (Blank.),の3 つのサブタスクで評価を行う(表 1),評価指標には正解率を用いる。また Patch-TRM の分類器への 3 つの入力表現に対して適切な比較を行うため,視覚および言語の連結表現(both)に関して,直前の線形層における出力次元数を,他 2 つの入力表現の次元数の半分になるように設定する(図 1).Patch-TRM における学習設定は表 3 を参照されたい。 5.2 節では,言語モデルによる推論能力を活用するために,3.3 節で説明した 2 つのキャプション生成を導入して,IconQA の推論スキル別に評価を行う. 評価対象の言語モデルは,3.2 節で説明した Patch-TRM(txt)に加えて GPT-3(表 4)を対象とする。評価対象のタスクとして選択肢の条件に依存し 8) 事前調査より txt における画像候補選択の正解率が低かったため画像候補に加えることとした。 9) Geometry, Counting, Comparing, Spatial, Scene, Pattern, Time, Fraction, Estimation, Algebra, Measurement, Commonsense, Probability.詳細は Lu ら [1]の論文を参照されたい. 表 2 IconQA 評価セットにおけるサブタスクおよび推論スキル別の Patch-TRM の正解率 & & & & & & & & & & & & & & & \\ ないタスク設定に限定するため,IconQA の穴埋め問題のみを使用し,この中から無作為に抽出した 57 件のデータを評価セットとする。 また GPT-3 の生成結果に対して適切な評価を行うため,意味的に一致する解答を正解として人手による判断を行う10). ## 5 実験結果 ## 5.1 キャプションを考慮したモデルの評価 3.2 節で説明した,キャプション生成を用いた視覚情報の拡張による Patch-TRM の読解性能の評価結果を表 2 に示す。表 2 より,画像候補選択(Img.) および穴埋め問題 (Blank.) タスクでは,視覚情報と言語情報を共同でモデル化する both モデルの正解率が単一情報を用いるモデルの正解率を凌駕した. また推論スキル別の評価においても,7つの推論スキルにおいて both モデルが単一情報を用いるモデルの正解率を上回ったことから,キャプション生成モデルによる視覚情報の拡張が IconQA において効果的であることを示した. この結果から,視覚情報の拡張であるキャプションが,VQA タスクを解く上で必要となる画像と質問の読解に関する手がかりを提供できることが示唆される. ## 5.2 GPT-3 を用いた視覚推論 3.3 節で説明した, 人手および BLIP によるキャプションに対する言語モデルの推論結果に対して, IconQA の推論スキル別に評価を行った(図 3).また言語モデル別の性能差を調査するため, 3.2 節で提案した Patch-TRM(txt)でも同様に評価を行った.図 3 から,人手キャプションを用いた場合に GPT-3 の推論結果の正解率が Patch-TRM に対して大きく上回った.これにより,GPT-3を使用することで, VQA モデルの読解性能が向上する可能性があることが示唆された。また GPT-3 と Patch-TRM(txt)で 10) 例えば,推論結果が one で正解が 1 であった場合,これらは同じ内容を指しているものとし正解とする. 図 3 IconQA 穴埋め問題における推論スキル別の正解率キャプション別に比較を行うと,GPT-3では人手キャプションを使用した方が正解率が高い一方で, Patch-TRM(txt)では BLIPキャプションを使用した方が正解率が高い結果となった. これは Patch-TRM (txt)の学習データが BLIPキャプションを使用していることに起因していると考えられる.また,A. 2 節では GPT-3 による実際の推論結果を示す.この結果より, 入力画像の大域的な視覚情報を記述したキャプションが,VQAの質問に答えるための適切な手がかりを GPT-3 に提供していることが示唆された。 ## 6 おわりに 本研究では,キャプション生成を用いた視覚情報の拡張が VQA タスクに与える影響を調査した。 5.1 節では,視覚情報と言語情報を共同で学習する手法が多くの推論スキルで有効であることを示した. 5.2 節では,キャプションを用いた GPT-3 の推論性能を評価し,多様な推論スキルが要求される VQA タスクにおいてキャプションが推論に有効な情報を提供する可能性があることを示した. 今後の展望として,推論スキルに対する精緻分析,適切な言語情報の探索 [31],モデル構造の改善に取り組みたい. ## 謝辞 本研究は,JST ムーンショット型研究開発事業 JPMJMS2011 (fundamental research) の助成を受けて実施されたものである. ## 参考文献 [1] Pan Lu, Liang Qiu, Jiaqi Chen, Tanglin Xia, Yizhou Zhao, Wei Zhang, Zhou Yu, Xiaodan Liang, and Song-Chun Zhu. Iconqa: A new benchmark for abstract diagram understanding and visual language reasoning. In NeurIPS, 2021. [2] C.K. Odgen and I.A. Richards. The Meaning of Meaning A Study of the Influence of Language upon Thought and of the Science of Symbolism. Routledge \& Kegan Paul Ltd., 1923. [3] Stanislaw Antol, Aishwarya Agrawal, Jiasen Lu, Margaret Mitchell, Dhruv Batra, C. Lawrence Zitnick, and Devi Parikh. VQA: visual question answering. In ICCV, pp. 2425-2433, 2015. [4] Yash Goyal, Tejas Khot, Douglas Summers-Stay, Dhruv Batra, and Devi Parikh. Making the V in VQA matter: Elevating the role of image understanding in visual question answering. In CVPR, pp. 6325-6334, 2017. [5] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In NeurIPS, pp. 5998-6008, 2017. [6] Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In NeurIPS. [7] Pengchuan Zhang, Xiujun Li, Xiaowei Hu, Jianwei Yang, Lei Zhang, Lijuan Wang, Yejin Choi, and Jianfeng Gao. Vinvl: Revisiting visual representations in vision-language models. In CVPR, pp. 5579-5588, 2021. [8] Wonjae Kim, Bokyung Son, and Ildoo Kim. Vilt: Vision-andlanguage transformer without convolution or region supervision. In ICML, pp. 5583-5594, 2021. [9] Zirui Wang, Jiahui Yu, Adams Wei Yu, Zihang Dai, Yulia Tsvetkov, and Yuan Cao. Simvlm: Simple visual language model pretraining with weak supervision. In ICLR, 2022. [10] Wenhui Wang, Hangbo Bao, Li Dong, and Furu Wei. Vlmo: Unified vision-language pre-training with mixture-of-modalityexperts. CoRR, 2021. [11] Xiujun Li, Xi Yin, Chunyuan Li, Pengchuan Zhang, Xiaowei Hu, Lei Zhang, Lijuan Wang, Houdong Hu, Li Dong, Furu Wei, Yejin Choi, and Jianfeng Gao. Oscar: Object-semantics aligned pretraining for vision-language tasks. In ECCV, pp. 121-137, 2020. [12] Zhengyuan Yang, Yijuan Lu, Jianfeng Wang, Xi Yin, Dinei Florencio, Lijuan Wang, Cha Zhang, Lei Zhang, and Jiebo Luo. Tap: Text-aware pre-training for text-vqa and text-caption. In CVPR, pp. 8751-8761, 2021. [13] 田中涼太, 西田京介, 許俊杰, 西岡秀一. テキストと視覚的に表現された情報の融合理解に基づくインフォグラフィック質問応答. 言語処理学会, 2022. [14] Zihang Meng, Licheng Yu, Ning Zhang, Tamara L. Berg, Babak Damavandi, Vikas Singh, and Amy Bearman. Connecting what to say with where to look by modeling human attention traces. In CVPR, pp. 12679-12688, 2021. [15] Soravit Changpinyo, Doron Kukliansy, Idan Szpektor, Xi Chen, Nan Ding, and Radu Soricut. All you may need for VQA are image captions. In NAACL-HLT, pp. 1947-1963, 2022. [16] Radhika Dua, Sai Srinivas Kancheti, and Vineeth N Balasubramanian. Beyond vqa: Generating multi-word answers and rationales to visual questions. In CVPR, pp. 1623-1632, 2021. [17] Jialin Wu, Zeyuan Hu, and Raymond Mooney. Generating question relevant captions to aid visual question answering. In ACL, pp. 3585-3594, 2019. [18] Fangyu Liu, Francesco Piccinno, Syrine Krichene, Chenxi Pang, Kenton Lee, Mandar Joshi, Yasemin Altun, Nigel H. Collier, and Julian Martin Eisenschlos. Matcha: Enhancing visual language pretraining with math reasoning and chart derendering. CoRR, 2022. [19] Michael Tschannen, Basil Mustafa, and Neil Houlsby. Image-andlanguage understanding from pixels only. CoRR, 2022. [20] Dustin Schwenk, Apoorv Khandelwal, Christopher Clark, Kenneth Marino, and Roozbeh Mottaghi. A-OKVQA: A benchmark for visual question answering using world knowledge. In ECCV, pp. 146-162, 2022. [21] Zhengyuan Yang, Zhe Gan, Jianfeng Wang, Xiaowei Hu, Yumao Lu, Zicheng Liu, and Lijuan Wang. An empirical study of GPT-3 for few-shot knowledge-based VQA. In AAAI, pp. 3081-3089, 2022. [22] Feng Gao, Qing Ping, Govind Thattai, Aishwarya Reganti, Ying Nian Wu, and Prem Natarajan. Transform-retrieve-generate: Natural language-centric outside-knowledge visual question answering. In CVPR, pp. 5067-5077, 2022. [23] Liangke Gui, Borui Wang, Qiuyuan Huang, Alexander Hauptmann, Yonatan Bisk, and Jianfeng Gao. KAT: A knowledge augmented transformer for vision-and-language. In NAACL-HLT, pp. 956-968. Association for Computational Linguistics, 2022. [24] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In NAACL-HLT, pp. 4171-4186. Association for Computational Linguistics, 2019. [25] Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, Jakob Uszkoreit, and Neil Houlsby. An image is worth 16x16 words: Transformers for image recognition at scale. In ICLR, 2021. [26] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. In CVPR, pp. 770-778, 2016. [27] Kyunghyun Cho, Bart van Merrienboer, Çaglar Gülçehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, and Yoshua Bengio. Learning phrase representations using RNN encoder-decoder for statistical machine translation. In EMNLP, pp. 1724-1734. ACL, 2014. [28] Junnan Li, Dongxu Li, Caiming Xiong, and Steven C. H. Hoi. BLIP: bootstrapping language-image pre-training for unified vision-language understanding and generation. In ICML, pp. 12888-12900, 2022. [29] Soravit Changpinyo, Piyush Sharma, Nan Ding, and Radu Soricut. Conceptual $12 \mathrm{~m}$ : Pushing web-scale image-text pre-training to recognize long-tail visual concepts. In CVPR, pp. 3558-3568, 2021. [30] Christoph Schuhmann, Richard Vencu, Romain Beaumont, Robert Kaczmarczyk, Clayton Mullis, Aarush Katta, Theo Coombes, Jenia Jitsev, and Aran Komatsuzaki. LAION-400M: open dataset of clip-filtered 400 million image-text pairs. CoRR, 2021. [31] Justin Johnson, Andrej Karpathy, and Li Fei-Fei. Densecap: Fully convolutional localization networks for dense captioning. In CVPR, 2016. ## A 参考情報 ## A. 1 Patch-TRM の学習設定 4 章で説明した Patch-TRM [1] の学習設定を表 3 に,GPT-3 [6] の推論時の設定を表 4 に示す. 表 3 Patch-TRM(3.2 節)の実験設定 表 4 GPT-3(3.3 節)の実験設定 ## A. 2 GPT-3 の推論結果の定性評価 5.2 節では,人手および BLIP [28] で生成されたキャプションを用いて GPT-3 [6] の推論結果を評価したが,その際に生成された 2 つのキャプションを表 5 に示す. 表 6 では,人手キャプションを使用した際の GPT-3 の推論結果を示す。推論結果より, キャプションを参照せずに質問文から解答可能な問題もあれば,キャプションを記述しないと解答不可能な問題も含まれており,適切な記述が GPT-3 の視覚推論に有効な手がかりを提供する可能性があることが分かった。 表 5 人手および BLIP [28] のキャプション例 & \\ 表 6 人手キャプションを用いた際の GPT-3 の推論例 ## A. 3 本研究の限界 3.2 節では,階層的にパッチ分割された画像に対してキャプションを生成していたため,分割境界に位置する物体に対して適切なキャプションを生成できない。また Patch-TRM [1] において,選択肢の情報は,分類器に入力される前に質問と視覚情報の中間表現に連結されるだけであり,選択肢と入力画像との関係性を十分に学習できていない可能性がある. また提案法では,キャプション生成モデルとして BLIP [28] を用いたが,VQA モデルの読解能力が BLIP の生成能力に依存してしまう。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B8-5.pdf
# 複数動画に対する抽象的キャプション生成 のための基本モデルの検討 高橋力斗 清丸 寛一 Chu Chenhui 黒橋禎夫 京都大学情報学研究科 \{r-takahashi, kiyomaru, chu, kuro\}@nlp.ist.i.kyoto-u.ac.jp ## 概要 複数動画に対する抽象的キャプション生成は,複数動画に共通する内容を自然言語で説明するVision and Language タスクである. 本研究では複数動画に対する抽象的キャプション生成を行うための基本モデルとして, End-to-End モデル及び Cascade モデルを検討する. モデル構造の比較実験の結果, End-to-End モデルが複数の評価指標で Cascade モデルを凌駕していることを示す. 加えて,モデルに対する複数動画の入力手法がモデルに与える影響を報告する. ## 1 はじめに 動画キャプション生成の研究は単一動画の具体的説明に焦点が当てられてきた $[1,2]$. 一般的な動画キャプション生成のタスク設定では,モデルは動画内で起こっているイベントを単文で説明する [3].動画キャプション生成には動画と自然言語の深い理解が求められ, Vision and Language 領域における主要なタスクとして盛んに研究されている。 一方,動画理解で重要なもう一つの側面に抽象的動画理解がある. 図 1 に例を示す. われわれは左右の動画をそれぞれ大人たちが鏡の前で踊っている動画,小学生の女の子たちが体育館で踊っている動画と認識できる。しかしそれと同時に,二つの動画はいずれも人々がジムで踊っている動画であると抽象的に理解することも可能である. このような抽象的動画理解は,複数動画に共通する内容を見つけ,動画間の関係性を理解する上で重要な役割を果たす。 抽象的な動画理解に焦点を当てたタスクとして, われわれは複数動画に対する抽象的キャプション生成を提案し、データセット(本論文では AbstrActs と称する)を構築した [4]. このタスクは,与えられた複数の動画に共通する情報をできる限り多く説明す A group of people is dancing in a gym. 図 1 複数動画に対する抽象的キャプション生成の例. 入力された複数の動画に共通する内容を説明する。 るタスクである。このタスクでは,各動画の内容を詳細に理解する能力に加えて,動画間に共通する内容を見つけるための抽象化能力が求められる。 本論文では,複数動画に対する抽象的キャプション生成を解くための種々のモデルを検討し, AbstrActs を用いてそれらの性能を評価する。具体的には,複数の動画特徴量を結合してモデルに入力する方法と,モデル全体の構造(End-to-End 及び Cascade)について検討・評価を行う.実験結果は,異なる時間における動画内容の類似度を考慮した入力手法(Soft Alignment)及び End-to-End モデルの有効性を示す。 ## 2 関連研究 複数動画に対する抽象的キャプション生成は複数動画から抽象的キャプションを生成するタスクである [4]. 入力は $n$ 件の動画が含まれる動画グループ $G$ である. 出力は抽象的キャプション $y$ である. 抽象的キャプション $y$ に求められるのは,動画グルー プ $G$ 内の動画に共通する内容を可能な限り多く説明することである.タスクの最終目標は訓練データを学習した複数動画に対する抽象的キャプション生成を行うモデル $p_{\theta}(y \mid G)$ を得ることである. $\theta$ はモデルのパラメータ集合である. 動画キャプション生成では,与えられた単一動画 図 2 AbstrActs データセットの一例. 表 1 AbstrActs の動画及びキャプションの統計. キャプション数は人手キャプションとシードキャプションの数の合計を表す. 動画数は各動画グループに含まれる動画数の合計を表す. 平均含有動画数は動画グループに含まれる平均的な動画数を表す. に対してキャプションを生成するモデルを学習する. 動画キャプション生成モデルは,まずはじめに事前学習済みの動画特徴量抽出器を用いて動画特徵量を得る。一般に,動画特徴量抽出器には CNN ベースのモデル $[5,6,7]$ あるいは Transformer ベースのモデル $[8,9,10]$ が用いられる. 動画特徴量からキャプションを生成するモデルとしては,多くの先行研究が LSTM ベースのモデルを採用しているが,最近は Transformer ベースのモデルを採用する研究が増加している [11,12]. 既存の動画キャプション生成の研究の大部分は,単一動画の内容を詳細に理解して正確なキャプションを生成することに焦点が当てられてきた. 本研究で注目するのは抽象的な動画理解であり,既存のキャプション研究とは焦点が異なる. ## 3 AbstrActs データセット AbstrActs は複数動画に対する抽象的キャプション生成のために構築されたデータセットである [4]. AbstrActs は VATEX [13] を元データとしている. 図 2 に AbstrActs の例を示す. データは動画グループ, 2 種類の抽象的キャプション (人手キャプションとシードキャプション),TER スコアで構成される。本研究では人手キャプションを複数動画に対する抽象的キャプション生成の正解キャプションに用いる. 表 1 に AbstrActs の動画及びキャプションの統 (a) Concat (b) Soft Alignment 図 3 二つの動画特徵量を結合する方法. 計を示す.データの分割はVATEX の分割に対応している. 動画グループには平均 3 件以上の動画が含まれる. AbstrActs に含まれる動画には, Kinetics-600 [14,15] に記載の 600 種類の人間の動作が含まれる。 ## 4 基本モデルの検討 本研究では提案タスクを解くモデルとして Transformer ベースのモデルを考える. モデルに対するどのような改善が複数動画に対する抽象的キャプション生成に効果的かを確かめるために,複数の動画特徴量の入力手法及びモデル構造について検討する。 ## 4.1 複数の動画特徴量の結合方法 Transformer ベースのモデルは一つの特徴量系列を入力として受け取る. 動画特徵量は時間的な特徴量系列で表され,各時間ステップが動画の数フレームに対応している.複数の動画をモデルに入力するには,何らかの手法で複数の動画特徴量を処理して一つの特徵量にする必要がある. 本研究では複数の動画特徵量を入力する手法として, Concat と Soft Alignment の二つを考える. Concat は複数の動画特徴量を各時間ステップごとに結合する。図 3(a) に概要を示す.この手法は動画間の異なるフレーム同士の内容の違いを考慮していない。 Soft Alignment では,複数の動画特徴量のうち一つに着目し,その動画特徴量に似ている部分を他の動画特徵量から集めて結合する。この手法は注意機構 [16] に着想を得ている. 図 3(b) に概要を示 (a) End-to-End モデル (b) Cascade モデル 図 4 複数動画に対する抽象的キャプション生成を解く二つのモデル. End-to-End モデルは複数の動画から抽象的キャプションを直接生成する. Cascade モデルでは,まず単一動画キャプション生成モジュールが各動画のキャプションを生成し,その後得られた複数のキャプションを複数文抽象化モジュールに入力して抽象的キャプションを生成する. す。動画特徴量系列同士で時間ごとに類似度を計算し,その類似度で動画特徴量を重み付けして結合する. $n$ 件の動画特徴量系列 $V_{1}, V_{2}, \ldots, V_{n}$ に対して Soft Alignment を適用することで,一つの特徴量系列 $V_{\text {align }}=\operatorname{concat}\left(V_{1}, V_{2}^{\prime}, \ldots, V_{n}^{\prime}\right)$ を得る.ただし, $V_{i}^{\prime}=W_{i} \cdot V_{i}$ である. ここで $W_{i}$ は二つの動画特徴量系列 $V_{1}, V_{i}$ に対応する類似度行列である。また, $V_{1} \in \mathbb{R}^{T_{1} \cdot M}$ かつ $V_{i} \in \mathbb{R}^{T_{i} \cdot M}$ である. $T_{1}, T_{i}$ はそれぞれ $V_{1}, V_{i}$ の系列長を表す。 $M$ は各時間の特徴量の次元である。このとき, $W_{i} \in \mathbb{R}^{T_{1} \cdot T_{i}}$ である. 二つの動画の各時間同士に対応する類似度は次の式で計算される: $ W_{i}\left(t_{1}, t_{i}\right)=\frac{V_{1}\left(t_{1}\right) \cdot V_{i}^{\mathrm{T}}\left(t_{i}\right)}{\left|V_{1}\left(t_{1}\right)\right|\left|V_{i}\left(t_{i}\right)\right|} $ 時間 $t$ における特徵量 $V_{\text {align }}(t)$ は,特徵量 $V_{1}(t)$ に類似する特徴量を特徴量系列 $V_{i}$ から集め,類似度で重み付けして結合したものである.特徴量系列 $V_{\text {align }}$ の系列長 $l$ は特徴量系列 $V_{1}$ の系列長に等しい. ## 4.2 モデル構造 ## 4.2.1 End-to-End モデル End-to-End モデルは入力された動画グループから直接抽象的キャプションを生成するよう学習するモデルである。図 4(a) に End-to-End モデルの概要を示す。まず学習済みの動画特徵量抽出器を用いて,入力された $n$ 件の動画の特徴量を得る. 次に,4.1 節で説明した Concat あるいは Soft Alignment を用いて,一つの特徴量系列 $V_{\text {multi }}$ を得る. 結合された特徴量系列 $V_{\text {multi }}$ は Transformer ベー スのエンコーダモデルに入力され, 特徵量の系列 $\mathbf{z}=f_{\text {enc }}\left(V_{\text {multi }}\right)=\left(z_{1}, z_{2}, \ldots, z_{l}\right)$ を得る. $l$ は結合された特徴量系列 $V_{\text {multi }}$ の系列長である. 最後に,Transformer ベースのデコーダモデルで抽象的キャプション $y$ を得る. デコードのステップ $t$ における生成単語 $y_{t}=f_{\mathrm{dec}}(\mathbf{y}, \mathbf{z})$ は,過去のステップ で生成された単語列 $\mathbf{y}=\left(y_{1}, y_{2}, \ldots, y_{t-1}\right)$ と特徵量系列 $\mathbf{z}$ から生成される. ## 4.2.2 Cascade モデル Cascade モデルは単一動画キャプション生成モジュールと複数文抽象化モジュールを組み合わせたモデルである.図 4(b) に Cascade モデルの概要を示す.はじめに,単一動画キャプション生成モジュー ルでは,Transformer モデルを用いて各動画に対応するキャプションを生成する,得られたキャプションは,学習済み単語埋め込みモデルによって単語埋め込みの系列に変換される。これらのキャプション特徵量系列は,4.1 節で説明した大力手法を適用することで,一つの特徴量系列に変換される. 最後に,特徴量系列を Transformer モデルに入力し, 抽象的キャプションを得る. ## 4.2.3 Cascade (Gold) モデル Cascade (Gold) モデルは, Cascade モデルの単一動画キャプション生成モジュールが十分高い性能を持っている状態を想定したモデルである.このモデルでは単一動画キャプション生成モジュールを使用せず,代わりに各動画の正解キャプションを複数文抽象化モジュールに入力することで抽象的キャプションを生成する.正解キャプションは動画の内容を十分に説明しているはずであるため,正解キャプションは完璧な性能を持つ単一動画キャプション生成モジュールが生成するキャプションとみなせる. ## 5 モデルの評価実験 本節では 4 節で説明したモデルを用いて複数動画に対する抽象的キャプション生成の実験を行う. ## 5.1 実験設定 データセットには AbstrActs 及び VATEX [13] を用いた. AbstrActs の動画グループには最大 6 件の動画が含まれているが,実験設定の簡略化のた 表 2 複数の動画特徴量の結合方法に関する End-to-End モデルの性能比較. 表 3 異なるモデル構造に関する性能比較. 特徵量の入力手法には Soft Alignment を用いた。 めにモデルに入力する動画数を 2 件に固定した. VATEX データセットは Cascade モデルの訓練及び Cascade (Gold) モデルの推論に用いた. End-to-End モデルに入力する動画特徴量の抽出には CLIP4Clip を用いた. Cascade モデルに入力するキャプション特徵量の抽出には, fastText [17] が提供する学習済み CBOW モデルを用いた. 推論結果の評価には,動画キャプション生成タスクで広く用いられている自動評価指標である BLEU-4 [18], CIDEr [19], METEOR [20], ROUGE-L [21]を用いた. ## 5.2 複数の動画特徵量の結合方法の比較 4.1 節で説明した複数の動画特徴量の結合方法である Concat 及び Soft Alignment の二つを比較した. この実験では,4.2.1 節で述べた End-to-End モデルを使用した. 複数の動画特徴量を結合する 2 種類の手法の性能を比較した. 実験結果を表 2 に示す. Soft Alingment がいずれの評価指標においても Concat を上回った. Soft Alignment は, 動画同士の異なる時間における特徵量の類似度を考慮しているという点で, Concat と異なる.この違いが複数動画の共通内容を発見することに役立っていると考えられる. ## 5.3 モデル構造の比較 モデル構造に関する性能を比較した. 図 3 に結果を示す. 実験の結果, End-to-End モデルが Cascade モデルを凌駕していることが分かった. End-to-End モデルは全ての評価指標において Cascade モデルと Cascade (Gold) モデルの両方を上回った. End-to-End モデルで高い性能が確認された理由の一つに, Cascade モデルで起こりうる誤り伝播問題が存在しないことがある.著者が人手で 50 件の推論結果を分析したところ,50 件中 7 件で,単一動画キャプション生成モジュールの生成キャプションに誤りがあることで Cascade モデルが抽象的キャプ 人手キャプション: a baby is playing xylophone End-to-End: $\quad$ a kid is playing musical instrument Cascade: Cascade (Gold): a kid is playing a musical instrument 図 5 異なる構造を持つ各モデルによる推論結果の例. 青色または赤色で強調されている単語は,それぞれ望ましい生成または望ましくない生成であることを表す. and playing with a toy xylophone and playing with a xylophone a person is playing a musical instrument 図 6 Cascade モデルで観測された,問題のあるキャプション生成の例. ションの生成に失敗していることを確認した。図 5 に例を示す.この例では, End-to-End モデルは二つの動画に映る子供を具体的に説明できている一方, Cascade モデルは子供を “person” と説明した. 図 6 に同じ例における Cascade モデルの中間出力である各動画に対するキャプションを示す. 単一動画キャプション生成モジュールは図中右側の動画に映っている子供を “man” という抽象的な単語で説明した.抽象的キャプションには "child” や “kid" などの単語が含まれることが望ましいが,単一動画キャプション生成モジュールの誤りが複数文抽象化モジュールに伝播して,過度に抽象的な単語である “person”が生成された. End-to-End モデルが “kid”という望ましい単語を生成したのは,動画特徴量を直接使うために誤り伝播が起こらないからである。 ## 6 おわりに 本研究では複数動画に対する抽象的キャプション生成タスクにおいて, 基本的なモデルの検討を行った. また,モデルの抽象的キャプション生成の性能向上に効果的な要素を調べるために, AbstrActs デー タセットを用いて評価実験を行った. 本研究で述べた実験結果及び考察により,今後の複数動画に対する抽象的キャプション生成に関する研究が促進されることを期待する. ## 謝辞 本研究はサムスン SDS 株式会社の助成を受けたものである. ## 参考文献 [1] Sheng Li, Zhiqiang Tao, Kang Li, and Yun Fu. Visual to text: Survey of image and video captioning. IEEE Transactions on Emerging Topics in Computational Intelligence, Vol. 3, No. 4, pp. 297-312, 2019. [2] Nayyer Aafaq, Ajmal Mian, Wei Liu, Syed Zulqarnain Gilani, and Mubarak Shah. Video description: A survey of methods, datasets, and evaluation metrics. ACM Computing Surveys (CSUR), Vol. 52, No. 6, pp. 1-37, 2019. [3] Subhashini Venugopalan, Huijuan Xu, Jeff Donahue, Marcus Rohrbach, Raymond Mooney, and Kate Saenko. Translating videos to natural language using deep recurrent neural networks. arXiv preprint arXiv:1412.4729, 2014. [4] 高橋力斗, Chu Chenhui, 黒橋禎夫. 複数映像の抽象化を要するキャプション生成. 言語処理学会第 28 回年次大会, pp. 1181-1186, 浜松, 2022.3.14. [5] Du Tran, Lubomir Bourdev, Rob Fergus, Lorenzo Torresani, and Manohar Paluri. Learning spatiotemporal features with $3 \mathrm{~d}$ convolutional networks. In Proceedings of the IEEE international conference on computer vision, pp. 4489-4497, 2015. [6] Joao Carreira and Andrew Zisserman. Quo vadis, action recognition? a new model and the kinetics dataset. In proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 6299-6308, 2017. [7] Saining Xie, Chen Sun, Jonathan Huang, Zhuowen Tu, and Kevin Murphy. Rethinking spatiotemporal feature learning: Speed-accuracy trade-offs in video classification. In Proceedings of the European conference on computer vision (ECCV), pp. 305-321, 2018. [8] Anurag Arnab, Mostafa Dehghani, Georg Heigold, Chen Sun, Mario Lučić, and Cordelia Schmid. Vivit: A video vision transformer. In Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 68366846, 2021. [9] Huaishao Luo, Lei Ji, Ming Zhong, Yang Chen, Wen Lei, Nan Duan, and Tianrui Li. Clip4clip: An empirical study of clip for end to end video clip retrieval. arXiv preprint arXiv:2104.08860, 2021. [10] Ze Liu, Jia Ning, Yue Cao, Yixuan Wei, Zheng Zhang, Stephen Lin, and Han Hu. Video swin transformer. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 3202-3211, 2022. [11] Bairui Wang, Lin Ma, Wei Zhang, and Wei Liu. Reconstruction network for video captioning. In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 7622-7631, 2018. [12] Luowei Zhou, Yingbo Zhou, Jason J Corso, Richard Socher, and Caiming Xiong. End-to-end dense video captioning with masked transformer. In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 8739-8748, 2018. [13] Xin Wang, Jiawei Wu, Junkun Chen, Lei Li, Yuan-Fang Wang, and William Yang Wang. Vatex: A large-scale, high-quality multilingual dataset for video-and-language research. In Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 45814591, 2019. [14] Will Kay, Joao Carreira, Karen Simonyan, Brian Zhang, Chloe Hillier, Sudheendra Vijayanarasimhan, Fabio Viola, Tim Green, Trevor Back, Paul Natsev, et al. The kinetics human action video dataset. arXiv preprint arXiv:1705.06950, 2017. [15] Joao Carreira, Eric Noland, Andras Banki-Horvath, Chloe Hillier, and Andrew Zisserman. A short note about kinetics-600. arXiv preprint arXiv:1808.01340, 2018. [16] Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. arXiv preprint arXiv:1409.0473, 2014. [17] Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. Enriching word vectors with subword information. Transactions of the association for computational linguistics, Vol. 5, pp. 135-146, 2017. [18] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th annual meeting of the Association for Computational Linguistics, pp. 311-318, 2002. [19] Ramakrishna Vedantam, C Lawrence Zitnick, and Devi Parikh. Cider: Consensus-based image description evaluation. In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 4566-4575, 2015. [20] Satanjeev Banerjee and Alon Lavie. Meteor: An automatic metric for mt evaluation with improved correlation with human judgments. In Proceedings of the acl workshop on intrinsic and extrinsic evaluation measures for machine translation and/or summarization, pp. 65-72, 2005. [21] Chin-Yew Lin. Rouge: A package for automatic evaluation of summaries. In Text summarization branches out, pp. 74-81, 2004.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B9-1.pdf
# 大規模言語モデルによって構築された常識知識グラフの 拡大と低コストフィルタリング 村田栄樹 1 井手竜也 ${ }^{1}$ 榮田亮真 1 河原大輔 1 山崎天 $^{2}$ 李聖哲 ${ }^{2}$ 新里顕大 ${ }^{2}$ 佐藤敏紀 ${ }^{2}$ }^{1}$ 早稲田大学理工学術院 ${ }^{2}$ LINE 株式会社 \{eiki.murata.1650-2951@toki., t-ide@toki.,s.ryoma6317@akane.,dkw@\}waseda.jp \{takato.yamazaki, shengzhe.li, kenta.shinzato, toshinori . sato\}@linecorp.com ## 概要 計算機の常識を補うために常識知識グラフが構築されてきたが, 収集コストの観点から規模や言語が限られる. 本研究では, 大規模言語モデルによる常識推論にフィルタモデルを適用することで, 高精度な常識知識グラフの低コストかつ大規模な構築を目指す. まず日本語常識知識グラフにおいて, 生成に関するファクタを分析する。さらに,常識知識グラフの低コストなフィルタリング手法を提案する.フィルタリングしたグラフを人手評価した結果,提案手法の有効性が示された. 構築されたグラフで fine-tuning した中規模言語モデルの常識生成に, フィルタリングが与える影響についても検証する。 ## 1 はじめに 計算機による言語理解を実現するためには, 人間がもっているような常識が必要である $[1,2]$. そこで, 常識を知識グラフ化する試みがなされてきた. 構築されたグラフは, 常識知識グラフ (CommonSense Knowledge Graph, CSKG) と呼ばれ, その構築は人手によるもの $[3,4,5]$ のみならず, GPT-3 などの大規模言語モデル (Large Language Model, LLM) によって行われることもある [6,7]. また, CSKG で言語モデルを fine-tuning した常識モデルは, LLM よりも高い精度で常識を生成することができる $[6,8]$. LLM によって CSKG を構築する場合, 計算機による生成であるため規模を大きくすることができる代わりに, 人手による構築と比較して精度は下がる. そこで, LLM によって構築された CSKG に対して分類モデルによるフィルタリングを行うことで, 規模と精度の双方を高い水準に保つ手法が提案された [6]. しかし,この分類モデルの訓練データは, 生成され 図 1 提案手法の概観. た CSKG の一部に対して人手アノテーションで作成されるためコストが高い. 一方で, 常識とされる知識は言語や文化圏によって異なることがあり, 単なる翻訳ではなく言語ごとに構築されることが望ましい. 各言語で CSKG を個別に構築する場合, 低コストなフィルタモデルを作成することに需要がある. 本論文では, 大規模で高精度な CSKG を低コストで構築することを目的とする. まず日本語 CSKG [7] の拡大のための分析を行い, さらなる拡大が可能であることを示す. 大規模になるに従って適切ではない推論の絶対数も増えると考えられる. そこで, 人手アノテーションを用いないCSKG のフィルタリングの手法を提案する. 既存手法と比較して低コストでありながら有効なフィルタを構築した. また, 構築したCSKGをもとに常識モデルの検証も行う. ## 2 関連研究 英語における既存の CSKG として, 概念べースの ConceptNet [3] やイベントベースの ATOMIC [4], それらを統合・拡張した $\mathrm{ATOMIC}_{20}^{20}[5]$ がある.これらはすべてクラウドソーシングを用いて構築されている.いずれも 3 つ組で表現され, 例えば ATOMIC は(イベント,推論の関係, 推論されたイベントやメンタルステート)を要素としている. また, GPT-2 など比較的小さいモデルをこれらの CSKGをもとに fine-tuning することで常識を蓄え, 常識推論をする Transformer [9] として COMET [8] が提案されている. LLM を用いて CSKGを拡張し,それをもとに 表 1 小規模グラフのサイズを変更したときの生成された大規模グラフのサイズの変化. 1 列目はクラウドソーシングによって収集されたへッドとなるイベント. 2 列目以降は HyperCLOVA により生成されたイベントや推論. COMETを訓練する研究もある. West ら [6] は ATOMIC $_{20}^{20}$ を自動拡張した ATOMIC ${ }^{10 x}$ を構築し, 常識モデルとして GPT-2 [10] ベースの $\mathrm{COMET}_{\mathrm{TIL}}^{\mathrm{DIS}}$ を訓練した. CSKG の自動拡張には, GPT-3 [11] などに少数の例をショットとして与えてタスクを生成させる few-shot learning の手法が用いられる. さらに,生成された推論をフィルタリングするためにエンコーダモデルをフィルタとして fine-tuning する. 訓練したフィルタを拡張された CSKG に用いることで, COMET TIL は教師である GPT-3 より高精度で常識を生成できる. フィルタの訓練データは LLM により生成された CSKGに含まれる 10,000 個の 3 つ組を人手でアノテーションしている. 日本語における CSKG の構築例もあり [7], 以下の 4 種類の関係からなる CSKG を構築している. また, イベント“Xが顔を洗う”に対するそれぞれの推論の例も添える。 ・xNeed あるイベントの前に人物 X がすること. (例: “X が水道で水を出す”) ・xEffect あるイベントの後に人物 X がすること. (例: “Xがタオルを準備する”) ・xIntent あるイベントの前に人物 X が思うこと. (例: “スッキリしたい”) ・xReactあるイベントの後に人物 X が思うこと. (例: “さっぱりした”) 前半の 2 つはイベント対イベントの常識で, 残りの 2 つはイベント対メンタルステートの常識である.クラウドソーシングを用いて小規模にイベントやそれに対する常識推論を収集し, それらをショットとして LLM で CSKG の大規模化を行っている. 日本語の LLM として, HyperCLOVA [12] が使用された. ただし, 英語での研究 [6] のような LLM による拡大後のグラフに対するフィルタリングは行っていない. ## 3 CSKG の拡大に向けた分析 本節では, 日本語での先行研究 [7] で構築された CSKG に対して追加実験を行い, 日本語 CSKG の分析とさらなる拡大を行う. 大規模グラフを生成する際のパラメータを変更し, HyperCLOVA のもつ知識 図 2 イベントあたりの推論生成数と生成されたユニークな推論数の関係. がどの程度 CSKG に移行されるかを検証する. 検証するパラメータは,クラウドソーシングで構築された小規模グラフのサイズと,グラフを拡大する際のイベントあたりの推論の生成回数である. 実験には, HyperCLOVA JP 39B モデルを使用する. 小規模グラフのサイズ HyperCLOVA の生成のショットとして利用する,クラウドソーシングによって構築される小規模グラフのサイズを変更し,生成される推論数を比較する. まず, 小規模グラフのイベントをショットに 10,000 回イベントを生成する. さらに, 小規模グラフからランダムに選んだ 3 つ組をショットとして, 生成されたイベントに対する推論を得る (図 1). ショット数および 1 イベントあたりの生成回数をそれぞれ 10 回ずつに固定し,小規模グラフのイベント数を $\{100,257,392\}$ と変更した場合に生成されたユニークな推論数を比較する. 表 1 に示すように小規模グラフのイベント数が 100 のときは生成されたイベントやユニークな推論数は相対的に小さいが, 257 と 392 のときはおよそ同じ生成数となった.これは, HyperCLOVA の知識を CSKG に引き出すためのショットの多様性として,小規模グラフのイベント数は 250 から 300 程度で十分であることを示している. HyperCLOVA による生成回数先行研究 [7] ではイベントあたりの推論生成回数は 10 で固定していた.これを増やすことで, HyperCLOVA のもつ常識推論の知識を CSKG により引き出すことができると考え,イベントあたりの生成回数を $\{5,10,50,100\}$ と変化させ生成されるユニークな推論数を比較する。 このとき,ショットに用いる小規模グラフやショッ卜数は固定する. 図 2 に示すように, イベントあたりの生成数に対して生成されたユニークな推論数は単調に増加した. 生成回数を増やすことで, 多様な推論を行うことができることがわかる. まとめると,一定以上のショットの多様性があれば HyperCLOVA は多様な常識推論をする能力をも ち, 推論の生成数を増やすことで CSKG のさらなる拡大が実現できる.イベントあたりの推論生成数を 10 から 100 に増やすことでユニークな推論数の合計はおよそ 4 万件から 20 万件に増加した。 ## 4 低コストフィルタリング ATOMIC ${ }^{10 x}$ など $[6,7]$ では,クラウドソーシングなど人手によって構築された小規模な CSKGをもとに GPT-3 や HyperCLOVA [12] などの LLM を用いて大規模な CSKG を得た. 言語モデルにより生成されるため, 大規模 CSKG の推論には適切ではない推論も含まれる. 3 節で, 生成回数の増加によってさらなる拡大が可能であることがわかったが, 適切ではない推論の割合は同じでもその絶対数は増加する.これまでの CSKG のフィルタモデルは, 人手アノテーションにより訓練データを得ていた [6]. 常識とされるものは言語, 文化により異なるため各言語で CSKG を個別に得ることが望まれるが, 既存の方法のコストは大きい. そこで, 人手アノテーションなしで, LLM により構築される CSKG をフィルタリングする手法を提案する. また, 日本語 CSKG における実験によりその有効性を検証する。 ## 4.1 提案手法 前述の小規模グラフが人手により構築されていることから, 含まれる推論は適切だと仮定する. そこで, 小規模グラフの推論をフィルタモデルの訓練データ (正例) として扱うことで低コストでのフィルタモデルの訓練を試みる. ただし, 分類モデルの訓練には負例も必要であるため, 同じ小規模グラフ内から擬似的に負例を採用する. このように小規模グラフから訓練データを獲得し, 訓練したフィルタで大規模グラフをフィルタリングすることで追加のアノテーションなしで高精度で大規模な CSKG を得る。 以下で, 3 種類の負例の採用方法を提案する. 以降 $G_{\text {small }}$ は, 与えられるイベント $h($ head), 推論のタイプを示す関係 $r$ (relation) と推論 $t$ (tail) の 3 つ組 $(h, r, t)$ を要素とする小規模グラフを表す. 表 2 に訓練デー タの採用例を示す. 負例タイプ 1 時系列の間違っている負例を擬似的に採用する. 適切な 3 つ組 $(h, r, t) \in G_{\text {small }}$ が与えられたとき, $(t, r, h)$ を考えることで適切ではない推論を得る、ヘッドとテールを入れ替える必要があるため,イベント対イベントの推論のみに用いる. 負例タイプ 2 同じ関係の 2 つの適切な 3 つ組 $\left(h_{1}, r, t_{1}\right),\left(h_{2}, r, t_{2}\right) \in G_{\text {small }},\left(h_{1} \neq h_{2}\right)$ から,$\left(h_{1}, r, t_{2}\right)$ や $\left(h_{2}, r, t_{1}\right)$ を考えることで適切ではない推論を得る. ヘッドとテールで文脈が異なるため訓練の際は易しい例となり得る。 負例タイプ 3 CSKGには, xIntent と xReact のように時系列的に逆向きの関係が存在する。 ある関係 $r$ に対して逆向きの関係を $\operatorname{inv}(r)$ と表すと, 同じへッドに対する 2 つの適切な 3 つ組 $(h, r, t),\left(h, \operatorname{inv}(r), t^{\prime}\right) \in G_{\text {small }}$ に対して, $\left(h, r, t^{\prime}\right)$ を負例として採用できる. タイプ 2 とは異なり, 同じ文脈の負例を得ることができる。 ## 4.2 実験 提案手法の検証として, 3 節と同様に日本語 CSKG において実験を行う. 比較として, 先行研究と同様に人手アノテーションによるフィルタモデルも訓練し,結果を付録 A. 2 に示す. モデルフィルタモデルは事前学習済みのエンコーダモデルを関係ごとに fine-tuning することによって構築する. 訓練はモデルに 3 つ組を入力し, その推論が適切か適切でないかの 2 值分類タスクとして行う. 事前学習済みモデルとして日本語 RoBERTa-large ${ }^{1)}$ [13] を用いる. さらに, 先行研究 [6] に倣い, 自然言語推論 (NLI) タスクで追加訓練したモデルを使用する. 日本語の NLI データセットとしては, JGLUE [14] に含まれる JNLIを利用する。 データ 4.1 節に従い, それぞれの関係について小規模グラフに含まれるすべての 3 つ組を正例とする. さらに, 正例の数と同じ数になるように負例を採用する. 負例内の比について, 負例タイプ 2 はやや簡単であると考えたため 2:1:2 とする。 テストデータとして大規模グラフからランダムに抽出し, 人手でラベルを付与した 495 件の 3 つ組を用いる. ラベル付与には Yahoo!クラウドソーシング2)を用い, 3 人のクラウドワーカによる多数決により推論が適切か否かを付与した。 結果訓練したフィルタモデルを用いて,テストデータに対して予測を行う. クラウドソーシングで適切と判断された推論 (1) とそうではない推論 (2) ごとに, 各推論についてモデルが適切と予測した確率の平均を表 3 に示す. すべての関係において, (1) の推論に対する予測確率の方が平均して高くなっていることが確認できる. さらに, 閾値を設けてモデル  表 2 小規模グラフから採用する訓練データの例. 各例は $(h, r, t)$ を表す. & (X が顔を洗う, xNeed, X が PC を起動する) \\ 表 3 クラウドソーシングによって適切だとされた推論とそうでない推論に対して提案手法によるフィルタが適切と予測した確率の平均と標準偏差. 最右列はその差. (a) $x$ Need (c) xIntent (b) $x$ Effect (d) $x$ React図 3 フィルタモデルによる確率の閾値ごとの通過した推論数 (青, 棒グラフ) と適切な推論の割合 (赤, 折れ線). による予測確率が閾値以上となる推論のみを採用することでフィルタリングを行う. 図 3 にテストデー タに対して閾値ごとのフィルタを通過した推論数とその中の適切な推論の割合を示す.より高い閾値のフィルタをかけることで適切な推論の割合が高くなる傾向を確認できる. よって, 訓練したモデルがフィルタとしての役割をしているといえる。 3 節のようにさらに拡大したグラフに対して,これらのフィルタを適用することで大規模かつ高精度な CSKG を得ることができる。 ## 5 常識モデルの分析 LLM から GPT-2 などの中規模言語モデルへの常識の移行を, 3 節で分析した CSKG の特性と 4 節で構築したフィルタの有無に着目して分析する.表 4 フィルタリングの強度 $s$ と大規模グラフのイベントあたりの推論生成数 $n$ による常識モデルの精度の変化. 訓練日本語 GPT-2-small ${ }^{3}$ を CSKG で fine-tuning することで常識モデルを作成する。訓練デー タとして, HyperCLOVA によるイベントあたりの推論生成数 $n \in\{10,100\}$ とフィルタの強度 $s \in\{0.2,0.5,0.8,1.0\}$ によって 8 種類の CSKG を検証する.フィルタは提案手法によるもので行い, CSKG のサイズが元の $s$ 倍になるようにモデルによる確率の低い推論を切り捨てた. $s=1.0$ の場合はフィルタを適用していないことを表す。 結果作成した常識モデルにテスト用のイベントを 150 個与え,生成された推論が適切である割合でモデルの性能を検証する. 推論の評価には Yahoo!クラウドソーシングを使用した. 表 4 に示すように, $n=10$ の場合にはフィルタの強度が 0.5 や 0.8 のときにフィルタなしのときの精度を上回った. 一方で, $n=100$ の場合はフィルタリングの強度による常識モデルの精度に差は見られなかった。 元のグラフが小さい場合は, 訓練データ全体に対する適切なものの割合と訓練データのサイズにトレードオフがあり,フィルタの強度を設定することでモデルの訓練にも良い影響を与えたと考えられる. 一方で元のグラフが大きい場合には, フィルタリングを適用しなくとも適切なデータの絶対量が十分に存在し, 差が見られなかったものと考えられる. ## 6 おわりに 本論文では, 大規模かつ高精度な CSKG を低コストに構築する手法を提案した. まず日本語 CSKG を分析し, 拡大した. さらに, 小規模グラフをもとに低コストなフィルタを訓練し,その有効性を確かめた。 また, それらに伴う常識モデルの精度も検証した。 新たな言語や知識グラフの構築の際に提案手法によって高精度化が低コストで行われることを望む。  ## 謝辞 本研究は LINE 株式会社と早稲田大学の共同研究により実施した。 ## 参考文献 [1] Alon Talmor, Jonathan Herzig, Nicholas Lourie, and Jonathan Berant. CommonsenseQA: A question answering challenge targeting commonsense knowledge. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4149-4158, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] Deepanway Ghosal, Navonil Majumder, Alexander Gelbukh, Rada Mihalcea, and Soujanya Poria. COSMIC: COmmonSense knowledge for eMotion identification in conversations. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 2470-2481, Online, November 2020. Association for Computational Linguistics. [3] Robyn Speer, Joshua Chin, and Catherine Havasi. Conceptnet 5.5: An open multilingual graph of general knowledge. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 31, No. 1, Feb. 2017. [4] Maarten Sap, Ronan Le Bras, Emily Allaway, Chandra Bhagavatula, Nicholas Lourie, Hannah Rashkin, Brendan Roof, Noah A. Smith, and Yejin Choi. Atomic: An atlas of machine commonsense for if-then reasoning. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 33, No. 01, pp. 3027-3035, Jul. 2019. [5] Jena D. Hwang, Chandra Bhagavatula, Ronan Le Bras, Jeff Da, Keisuke Sakaguchi, Antoine Bosselut, and Yejin Choi. (comet-) atomic 2020: On symbolic and neural commonsense knowledge graphs. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 35, No. 7, pp. 6384-6392, May 2021. [6] Peter West, Chandra Bhagavatula, Jack Hessel, Jena Hwang, Liwei Jiang, Ronan Le Bras, Ximing Lu, Sean Welleck, and Yejin Choi. Symbolic knowledge distillation: from general language models to commonsense models. In Proceedings of the $\mathbf{2 0 2 2}$ Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4602-4625, Seattle, United States, July 2022. Association for Computational Linguistics. [7] 井手竜也, 村田栄樹, 堀尾海斗, 河原大輔, 山崎天, 李聖哲, 新里顕大, 佐藤敏紀. 人間と言語モデルに対するプロンプトを用いたゼロからのイベント常識知識グラフ構築. 言語処理学会第 29 回年次大会, 2023. [8] Antoine Bosselut, Hannah Rashkin, Maarten Sap, Chaitanya Malaviya, Asli Celikyilmaz, and Yejin Choi. COMET: Commonsense transformers for automatic knowledge graph construction. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4762-4779, Florence, Italy, July 2019. Association for Computational Linguistics. [9] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [10] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. 2019. [11] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In H. Larochelle, M. Ranzato, R. Hadsell, M.F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Curran Associates, Inc., 2020 [12] Boseop Kim, HyoungSeok Kim, Sang-Woo Lee, Gichang Lee, Donghyun Kwak, Jeon Dong Hyeon, Sunghyun Park, Sungju Kim, Seonhoon Kim, Dongpil Seo, Heungsub Lee, Minyoung Jeong, Sungjae Lee, Minsub Kim, Suk Hyun Ko, Seokhun Kim, Taeyong Park, Jinuk Kim, Soyoung Kang, Na-Hyeon Ryu, Kang Min Yoo, Minsuk Chang, Soobin Suh, Sookyo In, Jinseong Park, Kyungduk Kim, Hiun Kim, Jisu Jeong, Yong Goo Yeo, Donghoon Ham, Dongju Park, Min Young Lee, Jaewook Kang, Inho Kang, Jung-Woo Ha, Woomyoung Park, and Nako Sung. What changes can large-scale language models bring? intensive study on HyperCLOVA: Billions-scale Korean generative pretrained transformers. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 3405-3424, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [13] Liu Zhuang, Lin Wayne, Shi Ya, and Zhao Jun. A robustly optimized BERT pre-training approach with post-training. In Proceedings of the 20th Chinese National Conference on Computational Linguistics, pp. 1218-1227, Huhhot, China, August 2021. Chinese Information Processing Society of China. [14] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. Jglue: Japanese general language understanding evaluation. In International Conference on Language Resources and Evaluation, 2022. ## A フィルタモデル 4 節の詳細を述べる。 ## A. 1 訓練の詳細 提案手法のフィルタモデルの訓練の詳細を記す。小規模グラフから採用した訓練データのサイズを表 5 に示す. “[CLS] head [SEP] tail [SEP]" を RoBERTa に入力し, fine-tuning する. 実験は全て JNLI で追加訓練済みのモデルを利用する. JNLI は 3 值分類タスクであるため, RoBERTa のエンコーダ部分のみを利用し, 2 値の分類へッドを新たに追加して行う. 学習は 20 エポック行い, $\mathrm{F} 1$ 値が最も高いチェックポイントをモデルとして採用した. また関係ごとに, 学習率, バッチサイズとウェイトディケイについてパラメータ探索を行った. ## A. 2 人手アノテーションによるフィルタ 比較のために, 既存の手法によるフィルタも訓練する.フィルタリング対象である大規模グラフからランダムに推論を選び, 人手によって適切か否かのラベルを付与する. そのラベルをもとに RoBERTa を fine-tuning する. モデルやハイパーパラメータは提案手法によるものと同様である. 提案手法の表 3 と図 3 と同様のものを, それぞれ表 6 と図 4 に示す. 図 4 のように確率の閾値が高くなるしたがって適切な推論の割合が高くなっていることは確認できるが, 表 6 では提案手法ほどの差は見られない. 提案手法と異なり, 訓練データの正負比が偏るため予測確率も 1 に偏ったことが考えられる. 表 5 提案手法によるフィルタの訓練データ数. 関係ごとに, 正例と負例を合わせた数字を示す 表 6 クラウドソーシングによって適切だとされた推論とそうでない推論に対して, 人手アノテーションによるフィルタモデルが適切と予測した確率の平均と標準偏差. 最右列はそれらの差. ## A. 3 取り除かれた例 例として提案手法のフィルタによって適切である確率が 5\%未満とされた, CSKG の3つ組を示す. ・Xが晚御飯を作っている xNeed Xが夕食を食べる ・XがYとドライブする xEffect $X$ X゙運転免許を取得する ・XがT Vを見ながらお菓子を食べる xIntent おいしい ・Xが銀行のA TMで現金を引き出す xReact お金が欲しい ## B 常識モデル 5 節の詳細を記す。 訓練は, 3 つ組 $(h, r, t)$ を連結したものをデータとして GPT-2を fine-tuning することで行う. xNeed など関係はモデルの語彙に存在しないため, スペシャルトークンとして追加しトークナイズする. どの CSKG に対しても 3 エポックの学習を行う. テストの際は, 3 つ組のうちへッドイベントと関係を入力し, 続きを生成させることで推論(テール) を得る. 生成時のビームサーチの本数は 5 とする. また, 表 7 に既存手法と提案手法のフィルタの比較を示す. (a) xNeed (c) xIntent (b) $x$ Effect (d) xReact図 4 人手アノテーションフィルタモデルによる確率の間値ごとの推論数 (青, 棒グラフ) と適切な推論の割合 (赤, 折れ線). 表 7 推論生成回数 $n$ の異なる CSKG に各種フィルタを適用し, 常識モデルを訓練したときの精度の比較. 既存手法は付録 A. 2 で訓練したもの. フィルタ強度は $s=0.8$ で固定した。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B9-2.pdf
# 日本語の時間的常識を理解する言語モデルの構築を目的とした マルチタスク学習における検証 船史 日佳里 ${ }^{1}$ Lis Kanashiro Pereira $^{1} \quad$ 木村 麻友子 ${ }^{1} \quad$ 浅原 正幸 ${ }^{2}$ Fei Cheng ${ }^{3}$ 越智 綾子 ${ }^{2}$ 小林一郎 ${ }^{1}$ 1 お茶の水女子大学 2 国立国語研究所 3 京都大学 \{g1820534,g1720512,koba\}@is.ocha.ac.jp, kanashiro.pereira@ocha.ac.jp \{masayu-a,a.ochi\}@ninjal.ac.jp, feicheng@i.kyoto-u.ac.jp ## 概要 本研究では,日本語での時間的常識の推論に対する言語モデルの開発を目的として,マルチタスク学習における検証を行った。複数の時間的常識を問うタスクを用いて,テキストエンコーダを変更して実験を行なった.実験の結果,対象タスクの組み合わせによって,時間的常識を問うタスクにおいて, $3 \% \sim 10 \%$ 程度の精度の向上を確認できた. また,使用するテキストエンコーダも大きく影響を与えることが確認できた。 ## 1 はじめに 自然言語の文章を理解するうえで,イベントが意味する時間の理解は重要である. しかし,イベントの時間を意味する直接的な表現は文章内では省略されやすく,時間の理解のためには,自然言語で表現されるイベントのさまざまな時間的側面について常識的な知識を持っている必要がある。例えば,「いつの間にか眠っていて夢を見たんだ」という文章を読んで,我々は「眠る」と「夢を見る」というイベントが過去のことで,「眠る」の方が「夢を見る」よりも長い時間がかかることやこの二つのイベントが同時に起こることを理解できる. このような常識を踏まえた理解や推論をコンピュータにさせることは挑戦的な課題となっている。近年,BERT[1] などの事前学習済み言語モデルが幅広い自然言語処理タスクで大きな成果を上げているが,これらのモデルは時間推論においては未だ性能が低いと言われており [2], 汎用言語モデルを改善し時間的な常識におけるタスクの精度を上げる試みがなされている [3][4]. しかし,日本語に関する時間的な常識を捉えた研究は未だ少ない. そこで,我々は日本語における時間的常識に基づく理解に焦点を当てて研究を進めており,本研究では時間的常識に関するタスクを用いたマルチタスク学習を行なう. 具体的には, 文章のイベントの時制・時間幅・時間順序・事実性を推定するタスクを組み合わせて学習させ,より効果的な学習方法を検討する. ## 2 提案手法 本研究では,時間的常識に関するタスクを用いたマルチタスク学習を行なって, 時間的常識のタスクに関して更に適応した言語モデルを構築し,モデルの推定精度向上を目指す。 時間的常識のタスクとして,イベントの時制・時間幅・時間順序・事実性の四つを設定する.時制の推定は,イベントが発話時と比べて過去・現在・未来のいずれであるかを推定する. 時間幅の推定は, イベントがどのくらいの時間を要するのかを推定する. 時間順序の推定は, 二つのイベントの時間的順序関係もしくは重なりについて推定する。事実性の推定は,表現が実際に起きたイベントなのか,条件節などの仮想的なイベントなのかを推定する. マルチタスク学習は,関連する複数のタスクを同時に学習することで,モデルの汎化性能を向上させることを目的としている。関連するタスクの共通性と差異を利用することで性能を向上させることができるため,自然言語処理において普及が進んでいる [5]. 本研究では, 対象データセットのデータサイズが限られているため、学習時に補助的なデータセットを利用することによって、この問題を緩和できるマルチタスク学習が有効なアプローチであると考え,この手法を採用した. また,複数の事前学習済み日本語言語モデルを使 表 1 DVD データセットの例 文章:悪いやつらに追われてるって話すんだ 表 2 日本語話し言葉コーパスの例文章: 一番今まで人生の中でつらかったことについてお話ししたいと思います 用して実験を行ない,日本語の時間的常識の推論夕スクに最も適したものについて検証する。 ## 3 実験 マルチタスク学習を行なった際の各タスクにおける精度を求める. さらに,タスクの組み合わせを変更した際の違いを分析する。また,言語モデルにおける差異に関しても検証する。 ## 3.1 使用データ 本研究では,DVDデータセットを対象データセットとして使用し,日本語話し言葉コーパスをマルチタスク学習の補助データセットとして使用している. 二つのデータセットからはそれぞれ三つずつの時間に関連する分類タスクを採用している.DVD データセットと日本語話し言葉コーパスはどちらも書き言葉ではないという点で,似ているデータセットとして本研究で採用した. DVD データセットDD データセットは,DVD の音声データの書き起こし文に対して時間に関するラベルを付与したデータセットである.DVD は海外の映画やドラマの日本語吹替版や日本のアニメなどを使用している. タスクは,時制と時間幅と時間順序の三つの分類タスクを使用した. 例文を表 1 に示す。それぞれのタスクの分布を付録の表 6 に示す. 日本語話し言葉コーパス日本語話し言葉コーパスは,本人の体験談を語っている様子を録音したデータの書き起こし文に対して時間に関するラベルを付与したデータセットである.表 3 実験に使用したテキストエンコーダの概要 表 4 学習の際のハイパーパラメータ batch size learning rate \# epochs $16 \quad 1$ e-5 10 タスクは,時制と時間幅と事実性の三つの分類夕スクを使用している。例文を表 2 に示す。それぞれのタスクの分布を付録の表 6 に示す. ## 3.2 テキストエンコーダ 我々は,四つの事前学習済み日本語対応言語モデルのテキストエンコーダを用いて実験を行なった. 日本語 BERT モデル cl-tohoku/bert-base-japanese (BERT ${ }_{\text {BASE }}$ ), 日本語 ALBERT モデル ALINEAR/albertjapanese-v2 (ALBERT ${ }_{\text {BASE }}$ ), 日本語 RoBERTa モデル megagonlabs/roberta-long-japanese (RoBERTa ${ }_{B A S E}$ ), 多言語 RoBERTa モデル xlm-roberta-base (XLM-R BASE ), xlm-roberta-large (XLM-R LARGE ) を使用した。これらは全て Hugging Face で公開されている ${ }^{1)}$. BERT $_{\text {BASE }}$ 2.6GB の日本語 Wikipedia コーパスを用いて訓練された BERT モデルである.事前学習には Masked Language Modeling (MLM) と Next Sentence Prediction (NSP) が採用されている [1]. ALBERT $_{\text {BASE }}$ BERT よりもパラメータが大幅に削減されて軽量化されているが,事前学習で NSP の代わりに Sentence Order Prediction (SOP) を用いることで性能を上げている [6]. RoBERTa $_{\text {BASE }}$ Common Crawl 多言語コーパスから抽出された日本語テキストの約 $200 \mathrm{M}$ 文を用いて訓練された RoBERTa モデルである.BERT の事前学習を見直してNSPを排除し,訓練データのサイズを大幅に大きくすることで性能を上げている [7]. を含む 100 言語を 2.5TB の Common Crawl 多言語コーパスで事前学習されている [8]. やしたモデルである.  表 5 マルチタスク学習による実験結果 ## 3.3 実験設定 本研究では,Multi-Task Deep Neural Networks (MTDNN)[9] を用いてマルチタスク学習を実行し,複数の時間関連タスクに対するモデルの性能を評価した. MT-DNN はマルチタスク学習フレームワー クであり,BERT などの言語モデルのテキストエンコーディング層をすべてのタスクで共有して組み込むことができ,上位層はタスクに特化したものとなっている,我々は,事前学習済みの言語モデルを用いて共有する層を初期化し, マルチタスク学習によって複数の時間関連タスクで改良した。 ハイパーパラメータの設定は表 4 に示す. Optimizer には Adam [10] を使用し,評価指標としては Accuracy (ACC) と F1 スコアを採用した. F1 スコアは適合率 と再現率の調和平均である. ## 3.4 実験結果 マルチタスク学習をした実験結果を,表 5 に示す. Model の列は,マルチタスク学習で使用したタスクを記している。 STDは standard fine-tuning,ALL は六つの全てのタスクでマルチタスク学習を行なった結果である。今回は精度が大きく上がった組み合わせを中心に記載し,他の組み合わせの結果を省く.結果は全て 5 分割交差検証をした値である. 結果として,マルチタスク学習を行なった方が STD に比べて精度が上がる場合が多かった. 特に時間幅や時間順序のタスクに関してはXLM-R LARGE において STD と比較して $15 \%$ 程度 F1 スコアの值を上げている。また, ALBERT ${ }_{\text {BASE }}$ に関しては, デルであるにもかかわらず、時間順序のタスクなどで精度を上回ることができた. RoBERTaBASE よりも XLM-R BASE の方が少し精度を上回ることも確認できた. ## 4 解析 マルチタスク学習を行なう前と行なった後のモデルの最終層の隠れ状態を低次元空間に可視化して解析を行なった. BERT BASE では [CLS]トークン, 視化には UMAP ${ }^{2}$ )を使用した. 本実験で一番よい精 用いて,DVD データセットの三つの全てのタスクと日本語話し言葉コーパスの時間幅タスクでマルチ と BERT $_{\text {BASE }}$ のマルチタスク学習前が比較できるよう可視化をした. 時間順序のタスクにおける可視化の結果を図 1 に示す. XLM-R RARGE のマルチタスク学習後のモデルはばらつきが少なくなっていて,時間的特徵に基づくイベントのクラスタリングをより良く行うことができることがわかる. さらに BERT ${ }_{\mathrm{BASE}}$ のマルチタスク学習前のモデルと比べるとその違いが顕著に確認できる. ## 5 考察 時間的常識に関するタスクにおいて,マルチタスク学習は通常のファインチューニングよりも効果があることが確認できた。また,単純に様々なタスクを増やすよりもタスクを組み合わせた方が効果が高かったため, 補助タスクの組み合わせが重要だと考えられる. 結果から, 違うデータセットの同じタスクを増やすことでそのタスクの精度を上げられることが確認できた。しかし,それが最も精度を上げる組み合わせではないため,他にも要因があると考えられる。また,時制のタスクに関しては $\mathrm{BERT}_{\mathrm{BASE}}$ 以外のテキストエンコーダを使用した際の効果が薄く, マルチタスク学習に適したタスクではない,または他の種類のタスクを使用した実験が必要だと考えられる. テキストエンコーダに関しては,XLM-R RARGE が一番精度を上げる結果となっ のサイズが大きいだけでなく,多言語モデルである $\mathrm{A}<\mathrm{B}: \mathrm{A}$ が Bより前 図 1 時間順序タスクにおける最終層の隠れ状態の可視化. BERT $_{\mathrm{BASE}}$ (上) と XLM-R $\mathrm{R}_{\text {LARGE }}$ のマルチタスク学習前 (中央) と後 (下) ことも精度を上げる要因になると考えられる。 ## 6 おわりに 本研究では,自然言語で表現されたイベントの時間的常識を理解するタスクにおいて,マルチタスク学習を行なうことの効果を検証した. 実験の結果, タスクの組み合わせや使用するテキストエンコーダによって精度の向上が確認された。今後はマルチタスク学習の補助データセットの種類を増やし,さらに効果的な組み合わせの傾向などを検証していきたいと考えている。 2) https://umap-learn.readthedocs.io/en/latest/ ## 謝辞 本研究は,科研費(18H05521,20H05054)の支援 を受けた。ここに謝意を表す. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proc. of NAACLHLT2019, pp. 4171-4186, June 2019. [2] Marco Tulio Ribeiro, Tongshuang Wu, Carlos Guestrin, and Sameer Singh. Beyond accuracy: Behavioral testing of NLP models with CheckList. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4902-4912, Online, July 2020. Association for Computational Linguistics. [3] Ben Zhou, Qiang Ning, Daniel Khashabi, and Dan Roth. Temporal Common Sense Acquisition with Minimal Supervision. In Proc. of the Annual Meeting of the Association for Computational Linguistics (ACL), 2020. [4] Mayuko Kimura, Lis Kanashiro Pereira, and Ichiro Kobayashi. Toward building a language model for understanding temporal commonsense. In Proceedings of the 2nd Conference of the Asia-Pacific Chapter of the Association for Computational Linguistics and the 12th International Joint Conference on Natural Language Processing: Student Research Workshop, pp. 17-24, Online, November 2022. Association for Computational Linguistics. [5] Zhihan Zhang, Wenhao Yu, Mengxia Yu, Zhichun Guo, and Meng Jiang. A survey of multi-task learning in natural language processing: Regarding task relatedness and training methods, 2022. [6] Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, and Radu Soricut. Albert: A lite bert for self-supervised learning of language representations. arXiv preprint arXiv:1909.11942, 2019. [7] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019. [8] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised cross-lingual representation learning at scale. arXiv preprint arXiv:1911.02116, 2019 . [9] Xiaodong Liu, Pengcheng He, Weizhu Chen, and Jianfeng Gao. Multi-task deep neural networks for natural language understanding. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4487-4496, Florence, Italy, July 2019. Association for Computational Linguistics. [10] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Yoshua Bengio and Yann LeCun, editors, 3rd International Conference on Learn- ing Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings, 2015. ## A 付録 表 6 データセットの分布 & & 1,942 \\ データセットの各タスクにおける分布情報を表 6 に示す. DVD データセットの時間幅の TIME は $\{1$ 秒以上 1 分未満, 1 分以上 1 時間未満, 1 時間以上 1 日未満 $\}$, \{わからない\}のように,ラベルをまとめたものである.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B9-3.pdf
# 常識的知識グラフ及び単語埋め込みを用いた 重畳型駄酒落ユーモア認識 志方脩 谷津元樹 森田武史 青山学院大学理工学部 a5819059@aoyama.jp \{yatsu,morita\}@it.aoyama.ac.jp ## 概要 機械による言語的なユーモアの認識能力を向上させるため, 䭾酒落ユーモアのうち文内に潜在的な繋がりを持つ単語のぺアを含む重畳型駄酒落の検出手法を提案する. 井上ら [1] が提案した常識的知識グラフを用いる手法に加えて, 単語埋め込みを活用することにより, 重畳型駄酒落の検出性能の精度の向上が確認された. 本稿では, 定性的評価実験において確認された, 重胃型駄酒落検出の成功事例, および失敗事例における主な失敗要因について説明する。 ## 1 はじめに 近年機械がユーモアを表出・理解することに対する関心が高まっており,それに接するユーザの生活の質を向上させることが報告されている. 人間のコミュニケーションは,画一的な形式によらず自由であり駄酒落やなぞかけに代表される言語的なユーモ ことによって人間同士の会話に近い自然な対応をすることができる. ## 1.1 研究課題と目的 ユーモアはジェスチャーなどを用いる身体的なユーモアと,駄酒落やなぞかけに代表される言語的なユーモアに大きく分類される。中でも駄酒落は比較的に認識が容易であり年齢層を問わず親しみやすいものと考えられる.知識グラフや自然言語処理技術を用いて駄酒落ユーモアの検出や理解の有効性を高めるためには下記の課題が存在する。後述する滝澤の研究 [2] によれば,駄酒落には併置型駄酒落と重畳型駅酒落の 2 つの分類が存在する.以下にそれぞれの例文と構造を示す。 ## (1) 猫が蒋ころんだ (併置型䭾酒落) この例は「猫」と「寝こ」のように,音韻的に類似するぺアが文内に存在しているため, 駄酒落であると認識することができる. (2) 鮭の卵は、いくら?(重畳型䭾酒落) しかしこの例は併置型のように音の類似するぺアがないことから従来の手法では検出が困難である.例文 (2)では,「鮭」と「いくら」の間に何らかの潜在表現を媒介する関係があると予測される。 その場合, 外部の知識や単語埋め込みを用いることでその潜在的な表現及び関係を見出すことができる. すなわち,「『鮭』は『イクラ』という性質を持つ」という関係性である.このとき, 潜在表現である「イクラ」は文内の「いくら」に音韻的に一致するので, 上記の文を駄酒落文として認識できる. 本研究の目的は重置型駄酒落に存在するこのような潜在的な表現及び文内の語との関係性を, 常識的知識グラフや単語埋め込みを用いて発見することである。 ## 2 関連研究 はじめに,大規模知識グラフについて述べる。主要な大規模知識グラフとして著名なのが DBpedia[3] やWikidata[4] であり,セマンティック Web 技術によるフリーの知識べースであり,コミュニティベー スで作成され,他のオープンデータとのリンクを持つリソースから構成されている。 ConceptNet[5] とはDBpedia,Wikidata と同様に集合知を知識源とした大規模な知識グラフである. ConceptNet は,DBpedia や Wikidataのような RDF による表現に類似した構造を持つ. 次に, 単語埋め込みについて述べる。単語埋め込みとは自然言語処理で単語を表現する手法であり,単語の意味をべクトル空間に埋め込むことで語彙を表現している. 単語埋め込みが取得できる手法として Word2vec [6] が著名である. Word2vec の他に,近年では BERT [7] のような Transformer モデルが注目されている. 従来の Transformer モデルと比べて, BERT では双方向の文脈情報を学習しているため高い精度を示している. 本研究では Transformer モデルとして, 図1各手法を統合したシステムの構成図 BERT に基づく ja-ginza-electra ${ }^{1}$ をを利用している.このため ja-ginza-electra は文脈に応じた意味を表す単語ベクトルを取得することができる. 駄酒落の検出・理解を目的とする手法の基礎に関わる提案は以前から行われている。滝澤 [2] は駄酒落を理解するシステムの構築の一環として併置型駄酒落と重胃型駄酒落を音素列や長さの一致などを基に分類し明確な基準を初めて提示している。また,谷津ら [8] は本研究の目的と同様に,ユーザによる発話をユーモアとして検出することを目的に韻文ユーモアである䭾酒落の教師あり学習に基づく検出手法を提案している. そして先行研究である井上ら [1] は重畳型駅酒落の構造に着目し, 常識的知識グラフを用いて潜在表現を抽出する手法を提案している. ## 3 提案 ## 3.1 提案システム 手法は大きく分けて 4つあり, 先行研究で提案された知識グラフを用いた手法に加えて, 単語埋め込み, Transformer モデル,かな漢字変換を用いたそれぞれの手法である. 最終的には, 知識グラフを用いた手法, 単語埋め込みとして chiVe[9] と Wikipedia Entity Vectors[10] を適用したそれぞれの手法, かな漢字変換を用いた手法の計 4 つを統合し,いずれかの手法から検出成功が 2 件以上確認された文を重畳型駄酒落として認識する. 統合したシステムの構成を図 1 に示す. ## 3.1.1 知識グラフを用いた手法 駄酒落文が入力されると形態素解析が行われ,内容語形態素が得られる. 次に内容語形態素ごとに知識グラフから関連リソースを探索し,リソースの探  索に成功した場合に音韻類似度関数を用いて潜在表現の抽出を試みる. 本研究では大規模知識グラフとして ConceptNet 5 [5] を使用し, 音韻類似性を検出するためにはレーベンシュタイン距離 [11] に基づく類似度関数を用いる. 内容語と関連リソースの音韻類似度がしきい値を超えた場合, 潜在表現の抽出及び重胃型駄酒落の検出に成功となり, すべての内容語及び関連リソースについて潜在表現が抽出できなかった場合,重畳型駄酒落の検出は失敗となる. ## 3.1.2単語埋め込みを用いた手法 駄酒落文が入力されると形態素解析が行われ,内容語形態素が得られる. 次に内容語形態素ごとに単語埋め込みを利用して関連リソースを探索する. 具体的には Python の gensim ライブラリ2)を用いて単語埋め込みが取得できるモデルを利用し,内容語に対してコサイン類似度がしきい值 (0.40) 以上かつ上位 500 件以内の単語を関連リソースとして取得する。 この手法では, 単語埋め込みが得られるモデルとし $\tau$ chiVe [9], fastText [12], Wikipedia Entity Vectors [10] を利用している。そして取得した各単語に対して音韻類似度関数を用いて潜在表現の抽出を試みる。内容語と関連リソースの音韻類似度がしきい値を超えた場合, 潜在表現の抽出及び重畳型駄酒落の検出に成功となり,すべての内容語及び関連リソースについて潜在表現が抽出できなかった場合,重畳型駄酒落の検出は失敗となる. ## 3.1.3 Transformer モデルを用いた手法 まず,形態素解析から得られた各内容語の全ぺアにおいてコサイン類似度を算出する. 次に内容語のペアを「と」で連結した文を生成し,その文における各ペアのコサイン類似度を再度算出する。「と」で連結した後に,コサイン類似度がしきい值 $(0.30)$ 以上上昇し,さらに値自体もしきい値 (0.40) 以上の場合そのペアを潜在表現として検出する. 潜在表現の抽出に成功した場合は重畳型駄酒落の検出に成功となる.すべての内容語において潜在表現が抽出できなかった場合,重畳型駄酒落の検出は失敗となる。 ## 3.1.4 かな漢字変換を用いた手法 駄酒落文が入力されると形態素解析が行われ,内容語形態素が得られる. 各内容語形態素のかな漢字変換から得られた単語が潜在表現の候補となる. 具体的には, GoogleTransliterate ${ }^{3)}$ を用いて, 各内容語の 2) https://radimrehurek.com/gensim/ 3) https://www.google.co.jp/ime/cgiapi.html 表 1 各手法での検出性能 新たな漢字変換を取得する. そして各候補と内容語のコサイン類似度を算出し, 値がしきい値 $(0.40)$ 以上であった場合潜在表現として抽出する. 潜在表現の抽出に成功した場合は重胃型䭾酒落の検出に成功となり,すべての内容語及び潜在表現候補について潜在表現が抽出できなかった場合, 重畳型駄酒落の検出は失敗となる。 ## 4 評価と考察 提案手法を用い, 駄酒落データベース [13] に収録された 1103 文の重胃型駄酒落のうち, 68 文を研究の対象に指定した. 基準として, 重疂型駄酒落の特徴が明確になっている駄酒落文を要件とした. 特徵とは,駅酒落文内の語に関連した潜在表現を介して, 音韻的に類似するペアが存在していることである.また,正例・負例各 68 文からなるテストデータを作成し,検出性能の評価を行った. 負例は駅酒落データベー スに収録されている併置型駄酒落文の中から無作為に 68 文を選択したものである. 比較実験に使用した手法は 3.1 節に基づき, 3.1.1 から 3.1.4 節の各手法及びこれらを統合した手法とした. ただし 3.1.2 節の fastTextを適用した手法と 3.1.3 節の Transformer モデルを用いた手法は予備実験において検出精度が要求される水準を下回ったため,統合したシステムより除外した. 評価の結果は表 1 に示す. 新たに単語埋め込みを用いた手法を加え統合したシステムでは適合率が 0.22 ポイント, $\mathrm{F}$ 値が 0.14 ポイントの上昇が確認された. ## 4.1 事例別の考察 本節では,認識の成功及び失敗の事例を対象に個別的に定性的評価を行い,今後の手法改良に繋がると考えられる発見について述べる。 ## 4.1.1 成功例文 知識グラフを用いた手法 ・煙とともに灰さようなら 内容語抽出を行うと「煙,灰」になる。探索した関連リソースと各内容語形態素との音韻類似の比較を行うと,「灰」に対しRelatedTo (灰- RelatedTo煙)という関係性で存在する「煙」が完全一致する。 したがって,「煙」を潜在表現とした検出が成功する. ## 単語埋め迄みを用いた手法 ## ・育坚休暇くれるの?サンキュー 内容語抽出を行うと「育児,休暇,サンキュー」 になり,それぞれの単語における関連リソースを取得すると,「育児」とコサイン類似度が高い単語の上位 9 位に「産休」が存在し音韻類似の比較を行った結果, 入力文中の「サンキュー」と一致する. したがって,「産休(サンキュー)」という言葉が潜在的な語として抽出することが可能となり検出成功となる. ## Transformer モデルを用いた手法 ## $\cdot$鮭の卵は、いくら? 内容語抽出を行うと「鮭,卵,いくら」になり,各単語のペアのコサイン類似度を算出すると,「鮭」 と「いくら」のコサイン類似度は 0.22 である. そして各ペアを「と」で連結させた「鮮といくら」という文章を生成し, 再度「鮭」と「いくら」のコサイン類似度を算出すると, 0.53 となる.したがって, 各ぺアを「と」で連結した後でコサイン類似度の上昇値がしきい値を超えたため,「いくら」という言葉が潜在的な語として抽出することが可能となり検出成功となる。 ## かな漢字変換を用いた手法 ## ・一番頭を使う作業は, 農作業! 内容語抽出を行うと「一番, 頭, 使う, 作業, 農, 作業」になり,それぞれの単語におけるかな漢字変換を取得し, 内容語形態素とコサイン類似度の算出を行う.すると,「農」のかな漢字変換に「脳」が存在し各内容語とのコサイン類似度の算出を行うと,「脳」と「頭」のコサイン類似度がしきい値を超える.したがって, 「農 (脳)」という言葉が潜在的な語として抽出することが可能となり検出成功となる. ## 4.1.2 音韻類似の検出漏れや表記体系の違いによる 失敗 ・これを運ぶの?うん,そう.〈運送〉」 内容語抽出を行うと,「運ぶ,うん」となる。「運ぶ」の関連リソースに「貨車」,「貨車」の関連リソー スに「運送」があるが,音韻類似度比較の対象が形 態素単位であるため,「うん,そう」のように途中に読点がある場合違う単語として処理されてしまい,音韻類似の比較を行うことができない. ## 4.1.3 知識グラフの関連リソース不足による失敗 ## ・オリンピックなんて, 銅でもいい. 「オリンピック」という言葉の ConceptNet 上の関連リソースにおいて「銅」という言葉が存在しなかった. Wikidata を探索した場合は正解に相当する関連リソースとして発見されるため, 異なる知識グラフについての実装は今後の課題といえる. ## 4.1.4単語埋め込みにおける関連リソース取得範囲外による失敗 ・この坊主,いい読経してるぜ. Wikipedia Entity Vectors での「坊主」と「読経」のコサイン類似度は 0.44 であり, しきい値は超えていたが類似度が高い単語の上位 500 件以内には入らなかったため, 潜在表現として取得できなかった. ## 5 おわりに 本研究の目的は, 常識的知識グラフや単語埋め込みを用いて潜在的な音韻類似の対を含む駄酒落文の検出を行いユーモアな表現を機械が理解できるようにすることである. 先行研究から新たに単語埋め込みを利用することによって関連リソースの取得できる幅が広がり精度も向上した. 具体的には, 先行研究に相当する知識グラフを用いた手法に比べて, 新たに単語埋め込みを用いた手法を加え統合したシステムでは適合率が 0.22 ポイント, $\mathrm{F}$ 值が 0.14 ポイントの上昇が確認された. しかし探索の仕方や音韻類似度の比較においては, 依然として手法を見直さなければならない点がいくつか見受けられた. ## 5.1 今後の課題 ## 知識グラフを用いた手法 先行研究から引き続き課題は 4 つである. 1 つ目は音韻類似度の比較を行う際に比較対象となる単語の文字数が異なる場合正確な比較ができないという点である. 2 つ目の課題は英語表記及びローマ字表記の単語の比較ができないという点である.3つ目は関連候補の出現数上限の制限により求める関連リソースの取得が困難,という点である.4つ目は例文中に読点がある場合違う単語として処理され,音韻類似の比較を行うことができないという点である. ## 単語埋め迄みを用いた手法 4.1 節の考察を経て得られた課題は 4 つである. 1 つ目は知識グラフを用いたシステムと同様, 音韻類似度の比較を行う際に比較対象となる単語の文字数が異なる場合正確な比較ができないという点である. 2 つ目も知識グラフを用いたシステムと同様, 例文中に読点がある場合違う単語として処理され,音韻類似の比較を行うことができないという点である. 3 つ目は内容語と潜在表現のコサイン類似度がしきい値を下回るという点である. 4 つ目は内容語と潜在表現のコサイン類似度がしきい値以上になっても,上位 500 件以内に入らないという点である.これらの課題において, 関連リソースを取得する範囲の拡張や, コサイン類似度のしきい値の設定などにおいて,最適な条件を考える必要がある。 ## Transformer モデルを用いた手法 4.1 節の考察を経て得られた課題は 2 つである. 1 つ目は各単語のペアを「と」で連結させた文において再度各ペアのコサイン類似度を算出すると, 値が下がってしまうという点である. 2 つ目は各単語のペアを「と」で連結させた文においてコサイン類似度が上昇した場合でも, 値自体がしきい値以上にならないという点である. 前提として 2 つ単語のコサイン類似度がしきい値の 0.40 を上回らない場合, その単語同士は似ているとは判断できないため潜在表現として取得できない. どちらの課題点においても,「と」以外にも「の」や「は」などで連結させてみたり, 他の Transformer モデルを利用してみることで解決できる可能性がある. ## かな漢字変換を用いた手法 4.1 節の考察を経て得られた課題は 2 つである. 1 つ目は各単語を形態素解析する際に, 必要以上に細かく分割してしまったり, 読点を含んだり文字数が違ったりすると意図した漢字変換ができず, 検出に失敗するという点である. 2 つ目はコサイン類似度を算出する際に, 值がしきい値を下回るという点である. 今回はコサイン類似度の算出に chiVeを用いたが, fastText ではしきい值を上回ることができる例もあったので今後他のモデルも活用したシステムの実装が課題である. 本研究は JSPS 科研費 JP21K12007 の助成を受けたものです. ## 参考文献 [1] 井上蒼一朗, 谷津元樹, 森田武史. 重畳型駄酒落ユー モアにおける常識的知識グラフを用いた潜在表現抽出. 言語処理学会第 28 回年次大会, F5-5, 2022. [2]滝澤修. 記述された「併置型駄酒落」の音素上の性質. 自然言語処理, Vol. 2, No. 2, pp. 3-22, 1995. [3] Christian Bizer, Jens Lehmann, Georgi Kobilarov, Sören Auer, Christian Becker, Richard Cyganiak, and Sebastian Hellmann. Dbpedia-a crystallization point for the web of data. Journal of web semantics, Vol. 7, No. 3, pp. 154165, 2009. [4] Denny Vrandečić and Markus Krötzsch. Wikidata: a free collaborative knowledgebase. Communications of the ACM, Vol. 57, No. 10, pp. 78-85, 2014. [5] Robyn Speer, Joshua Chin, and Catherine Havasi. Conceptnet 5.5: An open multilingual graph of general knowledge. In Thirty-first AAAI conference on artificial intelligence, 2017. [6] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. Advances in neural information processing systems, Vol. 26, , 2013. [7] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [8] 谷津元樹, 荒木健治. 子音の音韻類似性及び svm を用いた駄酒落検出手法. 知能と情報, Vol. 28, No. 5, pp. 875-886, 2016. [9] 真鍋陽俊, 岡照晃, 海川祥毅, 高岡一馬, 内田佳孝,浅原正幸. 複数粒度の分割結果に基づく日本語単語分散表現. 言語処理学会第 25 回年次大会, pp. NLP2019-P8-5. 言語処理学会, 2019. [10] Masatoshi Suzuki, Koji Matsuda, Satoshi Sekine, Naoaki Okazaki, and Kentaro Inui. A joint neural model for finegrained named entity classification of wikipedia articles. IEICE Transactions on Information and Systems, Vol. 101, No. 1, pp. 73-81, 2018. [11] Vladimir I Levenshtein, et al. Binary codes capable of correcting deletions, insertions, and reversals. In Soviet physics doklady, Vol. 10, pp. 707-710. Soviet Union, 1966. [12] Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. Enriching word vectors with subword information. Transactions of the association for computational linguistics, Vol. 5, pp. 135-146, 2017. [13] 荒木健治, 佐山公一, 内田ゆず, 谷津元樹. 駄酒落デー タベースの拡張及び分析 (ことば工学研究会 (第 58 回)(異次元) 空間と創作).ことば工学研究会: 人工知能学会第 2 種研究会ことば工学研究会資料, Vol. 58,
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B9-4.pdf
# 日本語大規模言語モデルにおける 知識グラフを活用した意味理解性能の向上 中本裕大 ${ }^{1}$ 瀬在恭介 ${ }^{1}$ 元川凱喜 1 麻生英樹 2 岡崎直観 3 ${ }^{1}$ SCSK 株式会社 2 産業技術総合研究所 3 東京工業大学 \{yu.nakamoto,sezai,k.motokawa\}@scsk.jp h.asoh@aist.go.jp okazaki@c.titech.ac.jp ## 概要 事前学習後の BERT は一般的な言語表現を獲得するが, ドメイン固有の知識が不足している.ドメイン固有の知識を BERT に注入する手法として, 知識グラフを活用した研究が行われている. 本研究では,日本語 BERT モデルのファインチューニング時に知識グラフに記載されている知識を活用することによる,下流タスクへの性能向上の可能性を検討した. また, LIME を用いて, 文章分類タスクにおいて,知識を追加したことによる予測結果への影響調査を行った. ## 1 はじめに 近年, BERT [1]をはじめとする大規模言語モデルが言語処理の幅広いタスクにおいて高い精度を達成している. BERT は大規模なコーパスを用いて文脈情報を加味した単語表現を獲得することを可能とする. 事前学習後の BERT は一般的な言語表現を獲得するが,ドメイン固有の知識が不足している。 ドメイン固有にモデルを最適化する手法の 1 つとして, 事前学習またはファインチューニングの段階で外部の知識グラフ (以下 $\mathrm{KG}$ ) から BERT に知識を注入する研究が行われている $[2,3,4]$. KG を BERT の学習に用いることで, テキストに書かれていないドメイン固有の知識などを考慮した言語表現の獲得が可能となる. BERT のファインチューニング時に KG の知識を活用する KI-BERT [4] では, GLUE [5] の 8 つのタスクで BERT と比較し著しい精度向上を達成した. 英語や中国語など日本語以外の言語では KG と BERT を掛け合わせた研究が活発に行われているのに対して, 日本語 BERT モデルを用いた手法の提案はまだ少ない. BERT のビジネス活用では, 計算資源や学習時間などの学習コストが課題となる. したがって, 知識グラフで表現された知識をファイ 図 1: 提案手法の概要 ンチューニングで活用する手法は, ビジネス活用において需要が高い. そこで, 本研究では日本語 BERT モデルのファインチューニング時に KG の知識を活用することによる下流タスクの性能向上の可能性を検討した. JGLUE [6] の 5 つのタスクのうち 4 つのタスクで精度向上を確認した. また, 実際のビジネスで利用されるデータの一例として, 子育てオープンデータ協議会より公開されている子育て FAQデータでも実験を行い, 効果を確認した。 ## 2 提案手法 本節では, 日本語 BERT モデルにおいて KG の知識を活用したファインチューニングを可能とするモデルを提案する. 提案するモデルの概要を図 1 に示す. 提案手法では, 入力として $n$ 単語の単語列 $X=\left(w_{1}, \ldots, w_{n}\right)$ が入力されると, 入力に関連する知識群 $C=\left(c_{1}, \ldots, c_{m}\right)$ を知識グラフ前処理で取得する。ここで, $c_{i}$ は知識 グラフのエンティティ (ノード)を指し $m$ は知識グラフ前処理により取得したエンティティ数となる。本稿では, 知識グラフの前処理により獲得した $c_{i}$ を 「知識」と表現する. 取得した $C$ は知識グラフ埋め込 み層で知識埋め込み表現 $\left[a_{1}, \ldots, a_{m}\right] \in \mathbb{R}^{d}$ に変換される ( $d$ は次元数). BERT 埋め込み層により変換された単語埋め込み表現 $\left[e_{\mathrm{CLS}}, e_{w_{1}}, \ldots, e_{w_{n}}\right] \in \mathbb{R}^{d}$ と知識グラフ埋め込み層で変換された知識埋め込み表現の結合を BERT に与えることで, $\mathrm{KG}$ の知識も考慮したアテンション計算を行う. 以降では, 日本語 $\mathrm{KG}$ の知識を BERT 内部で利用するにあたって知識の検索, 知識埋め込み表現へと変換する機構について詳しく説明する。 知識グラフ前処理知識グラフ前処理では, 入力単語列 $X=\left(w_{1}, \ldots, w_{n}\right)$ に対して追加できる知識を KG に対して検索する.この際, $X$ を分かち書き前の文として扱い, 文に対して mecab-ipadic-NEologd(以降, NEologd $)^{11}$ [7] 辞書を使用した MeCabによる分かち書きを行う. 分かち書き後の $X$ 中の単語のうち, 名詞のものをキーワードとして KG に存在するか検索を行い, ヒットしたものを追加する知識群 $C=\left(c_{1}, \ldots, c_{m}\right)$ とする. 例えば, キーワード群「人間,山田太郎, SCSK」が KG 上に存在するか検索を行い 「人間, SCSK」が存在した場合, $m$ は 2 となる. 追加する知識の順番は入力単語列中での検索キーワードの登場順となる。 知識グラフ埋め込み層知識グラフ埋め込み層では, 知識グラフ前処理で獲得した知識群 $C=\left(c_{1}, \ldots, c_{m}\right)$ を知識埋め込み表現へと変換する. 本研究では, $K G$ 埋め込み手法の 1 つである TransE [8] により, KG 上で登場する知識の埋め込み表現を事前に別途学習し, 獲得している. TransE により獲得した $\mathrm{KG}$ の埋め込み行列を用いて, 知識群 $C=\left(c_{1}, \ldots, c_{m}\right)$ を知識埋め込み表現へと変換する.通常, TransE による埋め込み次元数は BERT の単語埋め込み層の埋め込み次元数 $d$ と異なる. したがって, TransE の埋め込み行列による変換後に全結合層を用いて $\left[a_{1}, \ldots, a_{m}\right] \in \mathbb{R}^{d}$ へと変換する. 全結合層は学習可能パラメータとする. 続いて, 入力テキストの単語埋め込み表現と知識埋め込み表現の結合処理の詳細を説明する. 知識埋め込み表現は単語埋め込み表現の後ろに結合する。位置エンコーディングは結合後の入力系列に対し 1) 事物 (インスタンス) の関係をグラフで整理した KGに対して,インスタンス名を幅広く検索できるように固有表現に強いNEologd を採用した.表 1: JGLUE の構成 て,BERT と同様に先頭トークンから順に位置情報を付与する. 文のセグメント情報についても同様に,各文に対し知識群を加えた系列長を 1 文とみなし,各文が 1 文目か 2 文目であるかの識別情報として付与する. BERTへの入力が 2 文 $X_{1}=\left(w_{11}, \ldots, w_{1 n}\right), X_{2}=$ $\left(w_{21}, \ldots, w_{2 k}\right)$ である場合, $X_{1}, X_{2}$ それぞれに対して KG 検索を行った後, 埋め込み表現 $\left.\{a_{11}, \ldots, a_{1 m}\right.\}$, $\left.\{a_{21}, \ldots, a_{2 l}\right.\}$ へ変換する. 獲得した埋め込み表現を各文の単語埋め込み表現へ結合し, 結合後の各入力系列を特殊トークン [SEP] によって結合した $\left.\{e_{\mathrm{CLS}}, e_{w_{11}}, \ldots, e_{w_{1 n}}, a_{11}, \ldots, a_{1 m}, e_{\mathrm{SEP}}, e_{w_{21}}, \ldots\right.$, $\left.e_{w_{2 k}}, a_{21}, \ldots, a_{2 l}, e_{\mathrm{SEP}}\right.\}$ に位置エンコーディングとセグメント情報の埋め込み表現を加算したものを BERTへの入力とする $(n, k$ は入力単語数, $m, l$ は追加する知識数). ここで, BERT 単語埋め込み層で埋め込み表現へ変換する単語列は, Hugging Face が提供している Transformers [9] の BertJapaneseTokenizer を使用して分かち書きしたものである. ## 3 実験 ## 3.1 実験設定 本節では, 提案手法を JGLUE [6] と子育て FAQ データ (CC-BY 4.0 子育てオープンデータ協議会 $)^{2)}$ の両データセットで評価を行い, 提案手法の有効性を検証する. 前処理を含めた実験の詳細は付録 Aを参照されたい. 知識グラフ本実験では, JGLUE, 子育て FAQデー タともに, 知識グラフに Wikidata ${ }^{3}$ を使用した. 提案手法の知識グラフ埋め込み層で使用する KG の埋め込み行列は, OpenKE [10] で学習済みのものを使用した. ${ }^{4)}$ JGLUE 本データは,一般的な日本語理解能力を測ることを目的とした言語理解ベンチマークである. 2022 年 8 月時点において, 文章分類データセッ  表 2: 実験結果 & & & & & \\ ト (MARC-ja), 文ペア分類データセット (JSTS, JNLI), QA データセット (JSQuAD, JCommonsenseQA) の計 5 つのデータセットが利用可能であり, 本実験ではこれら 5 つのデータで評価を行う. 各データセットは同時点でテストデータが公開されていないため, 学習用/開発用から一部データを抽出しテストデータとして用いた. 各データセットの内訳を表 1 亿示す. 子育て FAQ データ本データは,「自治体における AI チャットボットの利活用促進」を目的に LINE が参画する子育てオープンデータ協議会より公開されている. 本データは, 子育てに関する質問サンプルとその回答サンプル, サンプルの分類カテゴリで構成されており, 本実験では 481 件を使用した. データ数が少ないため, 質問文をカテゴリに分類するタスクの性能を, 5 分割交差検定で評価した。 ## 3.2 実験結果 JGLUE および子育て FAQ データの実験結果を表 2 に示す. JGLUE では, 提案手法が JSQuAD 以外の 4 つのタスクでベースラインを上回る結果となった.特に, JNLI において +1.32 ポイントと全タスクの中で最も高い精度向上となった. 子育て FAQ データでは, ベースラインと比較して+1.25 ポイントの精度向上であり, ビジネスで利用される実データの文章分類においても提案手法が有効であることを確認した。 ## 3.3 KG の影響確認 子育て FAQデータでの実験について, KGを活用したことによる影響を LIME [11] 5) を用いて確認した. LIME とは, 機械学習モデルへ入力する属性群のうちどの属性が予測に寄与したかを可視化分析するツールである. 本節では, 知識追加による影響度の確認を目的とするため, 知識グラフ前処理と同様に MeCabによる分かち書き後の単語列を属性群とした. LIME は, 各ラベルに対する予測確率の内訳と,最も確率が高いラベルとそれ以外のラベルに関して,それぞれの予測結果の要因となった属性を示す 5) https://github.com/marcotcr/lime グラフを表示する. 図 $2 \mathrm{a} \sim 3 \mathrm{~b}$ について, 各図の左側のグラフが各ラベルに対しての予測確率, 右側が要因となった属性のグラフとなっている. 図 2a, 2b は, BERT の予測は不正解で, 提案手法において正解したサンプルの LIME の分析結果である.入力文が「保育のしおりがほしいです.」で分類カテゴリが保育であるサンプルにおいて, BERT では妊娠・出産ラベルに誤分類しているのに対して,提案手法では正しく予測できている.このとき,提案手法では, $\mathrm{KG}$ から「保育」が知識として追加されている. 続いて, 図 3a, 3bで, BERT の予測では正解して, 提案手法では不正解であったサンプルの LIME の分析結果を確認する。 入力文が「アートスクールはありますか?」で分類カテゴリが施設であるサンプルにおいて, BERT では施設ラベルを正しく予測できているのに対して, 提案手法では保育ラベルを誤って予測している. 図 3a の BERT の分析結果より,施設ラベルを予測する際に「アート」,「スクー ル」といった属性を重要視している。一方, 図 3b の提案手法では, 保育ラベルを予測する際に「スクー ル」を重要視しており,施設の語義で使用されていた「スクール」を他語義で解釈していると考えられる. 提案手法では, $\mathrm{KG}$ 上でロックバンドを指す 「ART-SCHOOL」が知識として追加されており, 追加された知識により入力文中の語義とは異なる解釈がされた可能性がある。 今回の分析により, KG の知識を追加する際に, 正解ラベルと関連度の高い入力文中の単語に対して,文脈中の語義に沿った知識を追加することで正解率が向上する可能性が示唆された.このことを, 他のデータやタスクも含めてより詳細に分析することは今後の課題である。 ## 4 関連研究 BERT の事前学習またはファインチューニング時に KG の知識を活用し, BERT の言語理解性能を向上させる研究が盛んに行われている。 ERNIE [3] は, モデルの事前学習時に入力文に関連 (a) BERT (b) 提案手法 図 2: 提案手法で新規に正解した例 NOT 施設 (a) BERT NOT 保育 (b) 提案手法 図 3: 提案手法で新規に不正解になった例 する KGの知識を埋め込むための情報合成層と専用の事前学習タスクを提案している. BERTへの入力は, BERT の単語埋め込み層で変換した入力文の埋め込み表現と入力文中の単語に関連する $\mathrm{KG}$ 上の知識を TransEで変換した知識埋め込み表現である.このとき, 単語埋め込み表現と知識埋め込み表現はそれぞれ異なるマルチヘッドアテンションに入力されることに留意されたい. ERNIE は, $\mathrm{KG}$ 上の知識を活用することでドメイン固有タスクで高い性能を達成することができた. しかし, 知識を追加する際に, 単語の語義曖昧性や同音意義語の問題を解消しておらず, 入力文中の単語に対して適切な知識を追加できないケースが存在する。 KI-BERT [4] は, モデルのファインチューニング時に, $\mathrm{KG}$ の知識を考慮した学習を可能とする手法である. 入力文中の単語に対して, 概念情報と語義曖昧性を解消した知識の追加を可能としている. 入力単語に対して概念情報と語義曖昧性を解消した語義情報のどちらを追加するかの判定を行い, 概念情報には ConceptNet [12] の知識, 語義が曖昧な単語には WordNet [13] の知識を追加する。このとき, 追加する知識は, 各 KG について事前に TransE [8] または ConvE [14] で獲得した埋め込み行列を用いて変換され, 提案手法同様に各入力文の直後に追加される. KI-BERT は GLUE [5] の各タスクにおいて ERNIE などの既存の $\mathrm{KG}$ を考慮したモデルと比較して大きな精度向上を達成した。英語データを対象とした BERT モデルにおいて外部知識を活用することで精度改善が達成できるように, 日本語モデルにおいても外部知識を活用することで精度改善が達成できることが報告されている [15,16]. LUKE [15] は, 文脈情報に基づく新たな単語とエンティティの埋め込み表現の学習方法を提案し, 下流タスクで大きな精度向上を達成した. 笹沢らの研究 [16] では, 製品に対するレビューの分類を行う感情分類モデルにおいて, レビュー文に対してユーザ ID と製品 ID の 2 種類のカテゴリ属性情報をファインチューニング時に追加することで精度が向上することが報告されている. ## 5 おわりに 本研究では, 日本語の BERT モデルに KG の知識を活用することによる下流タスクの性能向上の可能性を検討した. 実験の結果, 先行研究の英語データを対象とした実験同様に, 日本語においても KG の知識を活用することで, 多くのタスクで精度向上が確認できた. また, 文章分類での BERT と提案手法の LIME を使用した可視化分析により, 大力文中の語義に沿った KG の知識が追加されることが, 性能向上のために重要である可能性が示唆された。 今後は, 先行研究と同様に日本語においても, 入力文中での各単語の語義に適した知識を追加するため, エンティティリンキング手法などを適用することで, 精度が改善されるか確認を行いたい。 ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] Weijie Liu, Peng Zhou, Zhe Zhao, Zhiruo Wang, Qi Ju, Haotang Deng, and Ping Wang. K-bert: Enabling language representation with knowledge graph. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, pp. 2901-2908, 2020. [3] Zhengyan Zhang, Xu Han, Zhiyuan Liu, Xin Jiang, Maosong Sun, and Qun Liu. ERNIE: Enhanced language representation with informative entities. In Proceedings of ACL 2019, 2019. [4] Keyur Faldu, Amit Sheth, Prashant Kikani, and Hemang Akbari. Ki-bert: Infusing knowledge context for better language and domain understanding. arXiv preprint arXiv:2104.08145, 2021. [5] Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel Bowman. GLUE: A multi-task benchmark and analysis platform for natural language understanding. In Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 353-355, Brussels, Belgium, November 2018. Association for Computational Linguistics. [6] 栗原健太郎, 河原大輔, 柴田知秀. Jglue: 日本語言語理解ベンチマーク. 言語処理学会第 28 回年次大会, 2022. [7] 奥村学佐藤敏紀. 単語分かち書き辞書 mecab-ipadicneologd の実装と情報検索における効果的な使用方法の検討. 言語処理学会第 23 回年次大会 (NLP2017), pp. NLP2017-B6-1. 言語処理学会, 2017. [8] Antoine Bordes, Nicolas Usunier, Alberto Garcia-Duran, Jason Weston, and Oksana Yakhnenko. Translating embeddings for modeling multi-relational data. Advances in neural information processing systems, Vol. 26, , 2013. [9] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander M. Rush. Transformers: State-of-the-art natural language processing. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45, Online, October 2020. Association for Computational Linguistics. [10] Xu Han, Shulin Cao, Lv Xin, Yankai Lin, Zhiyuan Liu, Maosong Sun, and Juanzi Li. Openke: An open toolkit for knowledge embedding. In Proceedings of EMNLP, 2018. [11] Marco Tulio Ribeiro, Sameer Singh, and Carlos Guestrin. "why should I trust you?": Explaining the predictions of any classifier. In Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, San Francisco, CA, USA, August 13-17, 2016, pp. 1135-1144, 2016. [12] Robyn Speer, Joshua Chin, and Catherine Havasi. Conceptnet 5.5: An open multilingual graph of general knowledge. In Thirty-first AAAI conference on artificial intelligence, 2017. [13] George A Miller. Wordnet: a lexical database for english. Communications of the ACM, Vol. 38, No. 11, pp. 3941, 1995. [14] Tim Dettmers, Minervini Pasquale, Stenetorp Pontus, and Sebastian Riedel. Convolutional 2d knowledge graph embeddings. In Proceedings of the 32th AAAI Conference on Artificial Intelligence, pp. 1811-1818, February 2018. [15] Ikuya Yamada, Akari Asai, Hiroyuki Shindo, Hideaki Takeda, and Yuji Matsumoto. LUKE: Deep contextualized entity representations with entity-aware self-attention. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP). Association for Computational Linguistics, 2020. [16] 笹沢裕一, 岡崎直観. 属性情報を追加した事前学習済みモデルのファインチューニング. 言語処理学会第 27 回年次大会, 2021. ## A 実験の詳細説明 JGLUE 各データセットの詳細を以下に示す. MARC-ja は, amazon における商品レビューの positive, negative の 2 值分類タスクである. JSTS は, 2 文の意味的な類似度を推定するタスクである. 正解の類似度は 0 (意味が完全に異なる) 5 (意味が等価)の 6 段階となる. JNLI は, 前提文と仮設文のペアに対して推論関係を予測するタスクである. 推論関係は, 含意, 矛盾, 中立の 3 つである. JSQuAD は機械読解の QA データセットの 1 つである. 与えられた文章を読み, 内容に関する質問とその答えを文章中から抽出するタスクとなっている。 JCommonsenseQA は, 常識推論能力を評価するための 5 択式の $\mathrm{QA}$ データセットである. 本実験では, 開発用データに対して最も性能の良いモデルに対してテスト用データによる評価を行った. 実験に当たって, 公開されているデータから一部データを抽出し, 開発用 (またはテスト用) データとした. データ分割後の各データセットの内訳を表 1 に示す. JNLI は開発用データから一部データを抽出し, 抽出したデータをテスト用とした. JNLI 以外のデータについては, 学習用データから一部データを抽出し, 抽出したデータを開発用とした. また, 開発用データとして公開されているものを本実験ではテスト用データとして使用した. 子育て FAQ データ本データは, サンプル問合せ文とサンプル応答文, 各サンプルのカテゴリの組み合わせで用意されており, 各自治体に合わせた情報を入れることが可能となっている. 本実験では, 広島県に関する情報を入れたものを使用した. 各カテゴリごとのサンプル数について最大 145 件, 最小 1 件と大きな偏りがあるため, 学習時のノイズ除去の観点から, サンプル数が最低 60 件以上のカテゴリのものを使用した. 前処理後のカテゴリ数は 5 となった. また, 前処理後のデータ件数が全体で 481 件と少量であるため, 本実験では, 5 分割交差検定で実験を行い, JGLUE での実験と同様に開発用データに対して最も精度が高いモデルに対してテスト用データで評価を行った。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B9-5.pdf
# 時系列構造化ニューラルトピックモデル 宮本 望 ${ }^{1}$ 磯沼 大 $^{1}$ *高瀬 翔 2 森 純一郎 ${ }^{1,3}$ 坂田 一郎 1 1 東京大学 2 東京工業大学 3 理研 AIP \{nmiyamoto, isonuma, isakata\}@ipr-ctr.t.u-tokyo.ac.jp sho.takase@linecorp.com mori@mi.u-tokyo.ac.jp ## 概要 本研究ではトピック間の依存関係を捉えつつ、その時系列的発展を扱うことができる時系列構造化ニューラルトピックモデルを提案する。本モデルは、トピックの依存関係を self-attention 機構に基づいてモデル化することで、トピックの分化・統合過程を捉える。さらに、アテンションの重みが文書間の引用関係を反映するように、引用正則化項を導入する。本モデルは Perplexity や Coherence において、既存の時系列トピックモデル [1] を上回ることを確認した。また、実際の論文群を用いて、本モデルがトピックの遷移過程を捉えられることを検証した。 ## 1 はじめに 文書のトピックとその比率を推定するトピックモデルは、Latent Dirichlet Allocation (LDA [2])をはじめ、自然言語処理において広く利用されている。 その一種である時系列トピックモデル $[1,3]$ は、トピックの時系列上の変遷を追うことで、時間経過に伴うトピック中の単語変化の可視化を可能にした。 しかし、既存の時系列トピックモデルは、トピックの時系列変化を各トピックで独立に扱っており、新規トピックの形成に対し過去のトピックがどう寄与したのか、トピック間の依存関係を捉えることはできない (図 1(a))。特に論文など、引用関係により依存関係にある文書のモデル化において、各トピックが独立して変化し、前の時刻のトピックにのみ依存しているという前提は適切ではない。 そこで本研究では、トピック間の依存関係を捉えながらその時系列発展を扱うことができるトピックモデルとして、時系列構造化ニューラルトピックモデルを提案する(図 1(b))。具体的には、トピックの依存関係を self-attention 機構 [4] に基づきモデル化することで、新規トピックがどの既存トピックに基  図 1 (a) 時系列トピックモデルと (b) 提案モデルの比較。 づき生まれたかを明らかにする。さらに、文書の引用関係を反映するようにアテンションの重みを正則化する引用正則化項を導入し、アテンションの重みをトピックの分化・統合過程として解釈できるようにした。これにより、複数時刻に跨った学術トピックの分化・統合など複雑な過程を定量的に捉えることが可能になる。 評価実験では、従来モデルの ETM [5] や D-ETM [1] と比較して、Perplexity と Coherence において、提案モデルがその性能を上回ることを確認した。さらに、提案モデルが学術トピックの分化・統合過程を捉えられていることを定性的に確認した。 ## 2 事前準備 まず、本研究の基礎となる時系列トピックモデルとして、Dynamic Embedded Topic Model (D-ETM [1]) を解説する。D-ETM はトピックの時系列変化をモデル化することで、時系列文書の解析を行う。具体的には、単語の意味空間におけるトピックごとの埋め込み表現(トピック埋め込み)とトピック比率の平均を変化させることで、トピックの時間変化を捉 ## える。D-ETM の生成プロセスを以下に示す。 1. 時刻 $t \in\{1, \ldots, T\}$ について: $k$ 番目のトピック埋め込みのサンプル: $\boldsymbol{\alpha}_{k}^{(t)} \sim \mathcal{N}\left(\boldsymbol{\alpha}_{k}^{(t-1)}, \sigma^{2} \boldsymbol{I}\right)$ トピック比率の平均のサンプル: $\boldsymbol{\eta}_{t} \sim \mathcal{N}\left(\boldsymbol{\eta}_{t-1}, \delta^{2} I\right)$ 2. 各文書 $d \in\{1, \ldots, D\}$ について: トピック比率のサンプル: $\boldsymbol{\theta}_{d} \sim \mathscr{L} \mathcal{N}\left(\boldsymbol{\eta}_{t_{d}}, \gamma^{2} \boldsymbol{I}\right)$ 3. 文書 $d$ 中の各単語 $n \in\left.\{1, \ldots, N_{d}\right.\}$ について: トピックの割り当て: $z_{d, n} \sim \operatorname{Cat}\left(\boldsymbol{\theta}_{d}\right)$ 単語のサンプル: $w_{d, n} \sim \operatorname{Cat}\left(\boldsymbol{\beta}_{z_{d, n}}^{\left(t_{d}\right)}\right)$ ただし、Cat($\cdot$) はカテゴリカル分布、 $\mathscr{L} N(\cdot, \cdot)$ はロジット正規分布を指す。 $\sigma$ と $\delta \gamma$ はハイパーパラメータである。単語分布 $\boldsymbol{\beta}_{k}^{(t)}$ は以下の式で計算される。 $ \boldsymbol{\beta}_{k}^{(t)}=\operatorname{softmax}\left(\boldsymbol{\rho}^{\top} \boldsymbol{\alpha}_{k}^{(t)}\right) $ $\rho \in \mathbb{R}^{L \times V}$ は $L$ 次元の単語埋め込み行列であり、 $\rho_{v} \in \mathbb{R}^{L}$ は $v$ 番目の単語埋め込みに対応する。 D-ETM では、変分推論 [6] で $\boldsymbol{\alpha}$ と $\boldsymbol{\eta}$ と $\boldsymbol{\theta}$ の事後分布を推定する。特に、トピック埋め达み $\alpha$ については、以下の平均場近似を用いる。 $ \begin{array}{r} q\left(\boldsymbol{\alpha}_{k}^{(t)}\right)=\mathcal{N}\left(\boldsymbol{\mu}_{k}^{(t)}, \boldsymbol{\sigma}_{k}^{(t)}\right) \\ q(\boldsymbol{\alpha})=\prod_{k} \prod_{t} q\left(\boldsymbol{\alpha}_{k}^{(t)}\right) \end{array} $ ただし、 $\boldsymbol{\alpha}_{k}^{(t)}$ は平均 $\boldsymbol{\mu}_{k}^{(t)}$ と分散 $\boldsymbol{\sigma}_{k}^{(t)}$ のガウス分布に従いサンプルされる。 この平均場近似は、事後分布において各トピックが独立であることを仮定しており、トピック間の依存関係を推定することができない。一方、本研究では、 self-attention 機構によりトピック埋め込みを推定する構造化変分推論を導入し、トピック間の依存関係をモデル化する。 ## 3 提案モデル 本章では、提案モデルである時系列構造化ニュー ラルトピックモデルについて述べる。生成プロセスは D-ETM と同一である。 ## 3.1 トピック埋め込みの推論 D-ETM とは異なり、提案モデルは構造化変分推論によりトピック埋め込みを推論する。 self-attention 図 2 self-attentionによるトピック埋め込みの素の作成。 機構を利用して、過去の全てのトピック埋め込みからトピック埋め込みを計算する。 $ \begin{array}{r} \tilde{\boldsymbol{\alpha}}_{k}^{(t)}=\operatorname{self}-\operatorname{attention}\left(\tilde{\boldsymbol{\alpha}}_{1: K}^{(1: t-1)}\right) \\ q\left(\boldsymbol{\alpha}_{k}^{(t)} \mid \tilde{\boldsymbol{\alpha}}_{1: K}^{(1: t-1)}\right)=\mathcal{N}\left(f_{\mu}\left(\tilde{\boldsymbol{\alpha}}_{k}^{(t)}\right), f_{\sigma}\left(\tilde{\boldsymbol{\alpha}}_{k}^{(t)}\right)\right) \end{array} $ 変数 $\tilde{\boldsymbol{\alpha}}_{k}^{(t)}$ はトピック埋め込みの素であり、 $f_{\mu}$ と $f_{\sigma}$ は $\tilde{\boldsymbol{\alpha}}_{k}^{(t+1)}$ を変分ガウス分布に変換する関数である。 self-attention の計算式 (9)を計算するため、時刻 $t-1$ 以前の全てのトピック埋め込みの素 $\tilde{\boldsymbol{\alpha}}_{1: K}^{(1: t-1)}$ からキー $\boldsymbol{K}_{1: K}^{(1: t-1)} \in \mathbb{R}^{K(t-1) \times L}$ 及びバリュー $\boldsymbol{V}_{1: K}^{(1: t-1)} \in \mathbb{R}^{K(t-1) \times L}$ を計算する。また、時刻 $t-1$ の $k$ 番目のトピック埋め込み $\tilde{\alpha}_{k}^{(t)}$ からクエリ $\boldsymbol{q}_{k}^{(t-1)} \in \mathbb{R}^{L}$ を計算する。 $ \begin{array}{r} \boldsymbol{K}_{1: K}^{(1: t-1)}=f_{k}\left(\tilde{\boldsymbol{\alpha}}_{1: K}^{(1: t-1)}\right) \\ \boldsymbol{V}_{1: K}^{(1: t-1)}=f_{v}\left(\tilde{\boldsymbol{\alpha}}_{1: K}^{(1: t-1)}\right) \\ \boldsymbol{q}_{k}^{(t-1)}=f_{q}\left(\tilde{\boldsymbol{\alpha}}_{k}^{(t-1)}\right) \end{array} $ ただし、 $f_{q}, f_{k}, f_{v}$ は多層パーセプトロンである。このとき、時刻 $t$ のトピック $k$ に対するアテンションの重み $\boldsymbol{a}_{k}^{(t)} \in \mathbb{R}^{K(t-1)}$ は、以下の式で表される。 $ \boldsymbol{a}_{k}^{(t)}=\operatorname{softmax}\left(\boldsymbol{q}_{k}^{(t-1)} \boldsymbol{K}_{1: K}^{(1: t-1) \top}\right) $ $\boldsymbol{a}_{k}^{(t)}$ は時刻 $t$ 以前の各トピックに依存している確率を表しているとみなせる。これを重みとして利用し、 $\boldsymbol{V}^{(1: t-1)}$ の重み和を計算することで、 $\tilde{\boldsymbol{\alpha}}_{k}^{(t)}$ を求める。一連の過程を図 2 に示す。 $ \tilde{\boldsymbol{\alpha}}_{k}^{(t)}=\boldsymbol{a}_{1: K}^{(1: t-1)} \boldsymbol{V}_{1: K}^{(1: t-1)} $ $\tilde{\boldsymbol{\alpha}}_{k}^{(t)}$ は、残差接続 [7] を経て正規化される。残差接続を行うことで、勾配爆発や勾配消失を防ぐことが可能になる。また、事前分布では $\boldsymbol{\alpha}_{k}^{(t)}$ は $\boldsymbol{\alpha}_{k}^{(t-1)}$ を平均とする正規分布により生成されると仮定しているため、時刻 $t$ のトピック $k$ は時刻 $t-1$ のトピック $k$ に比較的類似したものが推定される。 self-attention の導入の経緯 self-attention 機構の代わりに、トピック間の依存関係を表す学習可能な重み $\boldsymbol{w} \in \mathbb{R}^{K}$ を用いて、 $\tilde{\boldsymbol{\alpha}}_{k}^{(t)}=\boldsymbol{w}^{\top} \tilde{\boldsymbol{\alpha}}_{1: K}^{(t-1)}$ としてパラメータ化する方法も本研究では検討した。しかし、 この方法では 1 時刻間のトピック間の依存関係しかモデル化できず、学術論文で多く見られる複数時刻に跨るトピック間の依存関係のモデル化には不適当である。一方、self-attention 機構は任意の数のトピックを入力として用いることが可能であり、かつ各時刻を通じて $f_{q}, f_{k}, f_{v}$ のパラメータが共有されるため、パラメータ数はトピック数に依らず一定である。よって、 self-attention 機構は複数時刻に跨るトピック間の依存関係のモデル化により適当であることから、本研究では self-attention 機構を採用した。 ## 3.2 全体の推論と ELBO 提案モデルによる文書の尤度は以下のように与えられる。 $ \begin{aligned} & p\left(\boldsymbol{w}_{1: D} \mid \sigma, \delta, \gamma\right) \\ & =\int\left.\{\prod_{d} \prod_{n}\left(\boldsymbol{\beta}^{\left(t_{d}\right)} \cdot \boldsymbol{\theta}_{d}\right)_{w_{d, n}} p\left(\boldsymbol{\theta}_{d} \mid \boldsymbol{\eta}_{t_{d}}\right)\right.\} \\ & \quad\left.\{\prod_{t} \prod_{k} p\left(\boldsymbol{\eta}_{t} \mid \boldsymbol{\eta}_{t-1}\right) p\left(\boldsymbol{\alpha}_{k}^{t} \mid \boldsymbol{\alpha}_{k}^{t-1}\right)\right.\} d \boldsymbol{\theta} d \boldsymbol{\eta} d \boldsymbol{\alpha} \end{aligned} $ ここで、事後分布 $p\left(\boldsymbol{\theta}, \boldsymbol{\eta}, \boldsymbol{\alpha} \mid \boldsymbol{w}_{1: D}\right)$ の近似事後分布として $q(\boldsymbol{\theta}, \boldsymbol{\eta}, \boldsymbol{\alpha})$ を導入する。D-ETM と同様に、 $q(\boldsymbol{\theta}, \boldsymbol{\eta}, \boldsymbol{\alpha})$ は以下のように計算される。 $ \begin{aligned} q(\boldsymbol{\theta}, \boldsymbol{\eta}, \boldsymbol{\alpha})= & \prod_{d} q\left(\boldsymbol{\theta}_{d} \mid \boldsymbol{\eta}_{t_{d}}, \boldsymbol{w}_{d}\right) \times \prod_{t} q\left(\boldsymbol{\eta}_{t} \mid \boldsymbol{\eta}_{1: t-1}, \tilde{\boldsymbol{w}}_{t}\right) \\ & \times \prod_{t} \prod_{k} q\left(\boldsymbol{\alpha}_{k}^{(t)} \mid \boldsymbol{\alpha}_{1: K}^{(1: t-1)}\right) \end{aligned} $ ただし、 $\boldsymbol{w}_{d}$ は文書 $d$ の Bag-of-Words 表現を、 $\tilde{w}_{t}$ は正規化された時刻 $t$ における全文書の Bag-of-Words 表現を表す。文書の対数尤度に対する変分下限は以下の式で求められる。 $ \begin{aligned} & L_{d o c}=\sum_{d} \mathrm{E}_{q\left(\boldsymbol{\theta}_{d}\right) q\left(\boldsymbol{\eta}_{t}\right) q\left(\boldsymbol{\alpha}_{k}^{(t)}\right)}\left[\boldsymbol{w}_{d}^{\top} \log \left(\boldsymbol{\beta}^{\left(t_{d}\right)} \cdot \boldsymbol{\theta}_{d}\right)\right] \\ & \quad-\sum_{d} \mathrm{D}_{\mathrm{KL}}\left[q\left(\boldsymbol{\theta}_{d} \mid \boldsymbol{\eta}_{t_{d}}, \boldsymbol{w}_{d}\right) \| p\left(\boldsymbol{\theta}_{d} \mid \boldsymbol{\eta}_{t_{d}}\right)\right] \\ & \quad-\sum_{t} \mathrm{D}_{\mathrm{KL}}\left[q\left(\boldsymbol{\eta}_{t} \mid \boldsymbol{\eta}_{1: t-1}, \tilde{\boldsymbol{w}}_{t}\right) \| p\left(\boldsymbol{\eta}_{t} \mid \boldsymbol{\eta}_{t-1}\right)\right] \\ & \quad-\sum_{t} \sum_{k} \mathrm{D}_{\mathrm{KL}}\left[q\left(\boldsymbol{\alpha}_{k}^{(t)} \mid \boldsymbol{\alpha}_{1: K}^{(1: t-1)}\right) \| p\left(\boldsymbol{\alpha}_{k}^{(t)} \mid \boldsymbol{\alpha}_{k}^{(t-1)}\right)\right] \end{aligned} $ ## 4 引用正則化項ありの提案モデル 3 章で述べた提案モデルは、トピック間のアテンションの重みを解釈することが困難である。理想的には、アテンションはトピック間の潜在的な依存関係を表し、それは文書間の引用関係として顕在化されるべきである。そこで、アテンションの重みを引用関係に対応するように正則化を行うことで、アテンションの解釈可能性を担保する。また、引用正則化項によりテキストと引用を同時にモデル化することで、トピックの質的な向上が期待される。 アテンションの重みの正則化にあたり、トピック比率 $\boldsymbol{\theta}$ 、アテンションの重み $\boldsymbol{a}$ 、文書比率 $\phi$ に基づいて文書間の引用をモデル化する。文書のぺア $(i, j) \in\{1, \ldots, D\} \times\{1, \ldots, D\}$ 間の引用は以下のようにモデル化される。 1. 引用トピックの割り当て: $z_{i} \sim \operatorname{Cat}\left(\boldsymbol{\theta}_{i}\right)$ 2. 被引用トピックの割り当て: $z_{j} \sim \operatorname{Cat}\left(\boldsymbol{a}_{z_{i}}^{\left(t_{i}\right)}\right)$ 3. 被引用文書のサンプル: $d_{j} \sim \operatorname{Cat}\left(\boldsymbol{\phi}_{z_{j}}\right)$ ただし、 $\boldsymbol{a}_{k}^{\left(t_{i}\right)} \in \mathbb{R}^{K\left(t_{i}-1\right)}$ はアテンションの重みであり、過去の全トピック $z_{j} \in\{1, \ldots, K\} \times\left.\{1, \ldots, t_{i}-1\right.\}$ に依存する確率の分布を指す。文書比率 $\boldsymbol{\phi}_{k} \in \mathbb{R}^{D}$ は、あるトピックが割り当てられた被引用文書の確率分布を示しており、以下の式で表される。 $ \phi_{z_{j}}^{\left(d_{j}\right)}=\frac{\theta_{d_{j}}^{\left(z_{j}\right)}}{\sum_{d_{j}} \theta_{d_{j}}^{\left(z_{j}\right)}} $ この仮定のもと、引用 $c_{i, j} \in\{0,1\}$ の尤度は以下のように与えられる。 $ \begin{aligned} & p\left(c_{i, j}=1 \mid \boldsymbol{\theta}, \boldsymbol{\alpha}\right) \\ & =\sum_{k}^{K} \sum_{k^{\prime}}^{K} p\left(d_{j} \mid \boldsymbol{\phi}_{k^{\prime}}\right) p\left(z_{j}=k^{\prime} \mid \boldsymbol{a}_{k}^{\left(t_{i}\right)}\right) p\left(z_{i}=k \mid \boldsymbol{\theta}_{i}\right) \end{aligned} $ ただし、 $c_{i, j}=1$ は文書 $d_{i}$ が文書 $d_{j}$ を引用することを示す。文書と引用の対数尤度に対する変分下限は以下の式で表される。 $ L=L_{d o c}+\sum_{i}^{D} \sum_{j}^{D} \operatorname{BCE}\left(p\left(c_{i, j} \mid \boldsymbol{\theta}, \boldsymbol{\alpha}\right), c_{i, j}\right) $ ただし、 $L_{d o c}$ は式 (18)により定義され、BCE は二値の交差エントロピーである。詳細な変分下限の導出は付録 A. 1 に記す。 ## 5 実験 ## 5.1 実験設定 本実験では、The Semantic Scholar Open Research Corpus (S2ORC [8]) $)^{1}$ をもとに構築した $A C L$ 及び CS のデータセットを用いる。 $A C L$ データセットは ACL 系列の国際会議で発表された論文群であり、CSデー  表 1 各モデルの評価結果。Perplexity は低いほど良く、Coherence と Diversity は高いほど良い。 タセットは、研究分野に “Computer Science”を含む論文群である。各データセットの詳細な情報を、付録 A. 2 に記載した。データセットに関する具体的な数値を表 2 にまとめる。ベースラインには、ETM [5] 及び D-ETM [1]を用いる。提案モデルに対する引用データ制約の効果を測定するため、提案モデルに対する引用正則化項の有無による結果も比較する。詳細な実験設定は付録 A. 3 に記載する。 ## 5.2 実験結果 トピックモデルの性能を以下の 3 つの基準で定量的に評価した。 Perplexity まず、生成モデルとしての汎化能力を評価するため、Perplexity [9]を用いた。両データセットにおいて、提案モデルは、従来モデルを上回ることを示した(表 1)。また、引用正則化項ありの提案モデルは、引用正則化項なしの提案モデルを上回ることから、引用情報がトピックモデルの汎化能力に寄与することが確認された。 Coherence トピックの解釈可能性を評価するため、トピックの Coherence を平均自己相互情報量 [10] で測定した。具体的には、トピック $k$ の頻出語上位 10 個の単語中の各 2 単語について、正規化自己相互情報量報を計算した。各モデルの全トピックの平均 Coherence を表 1 に示す。引用正則化項ありの提案モデルが従来モデルを上回った他、引用正則化項なしのトピックモデルも D-ETM と競合し、十分にトピックが解釈可能であることが確認された。 Diversity トピックの多様性を評価するため、全トピックの頻出語上位 25 語において重複していな 図 $3 A C L$ データセットにおけるトピック遷移の例。各トピックの頻出語上位 5 つを示す。Attention の重みが 0.05 以上であれば太線、 0.02 以上 0.05 未満であれば細線でトピック間の依存関係を表現した。 い単語の割合を算出し、トピック間の Diversityを測定する。各モデルにおける Diversity の平均値を表 1 に示す。両モデルは従来モデルと遜色なく、十分にトピックの多様性が担保されることを確認した。 ## 5.3 トピック遷移の可視化 $A C L$ データセットを用いて、提案モデルがトピックの遷移を捉えられているか確認した。図 3 にその例を示す。上段のトピックは「グラフ」、中段のトピックは「ニューラルネットワーク」、下段のトピックは「ソーシャルメディア」を表している。トピックの頻出語を確認することで、そのトピックにおける頻出単語の変遷を追うことができる一方、アテンションの重みを確認することでトピックの分化や統合過程を追うことができる。 ## 6 おわりに 本研究では、トピック間の依存関係を self-attention 機構でモデル化したトピックモデルを提案した。評価実験の結果、提案モデルは複数の指標について従来モデルの性能を上回った。また、文書間の引用関係を考慮した正則化を加えることで、さらなる性能の向上が示唆された。また、トピック遷移を追うことで、提案モデルが実際の学術文献のトピックの動向調査に利用できることを確認した。 ## 謝辞 本研究は、NEDO JPNP20006、JST ACT-X JPMJAX1904 及び JST CREST JPMJCR21D1 の支援を受けたものである。 ## 参考文献 [1] Adji B Dieng, Francisco JR Ruiz, and David M Blei. The dynamic embedded topic model. arXiv preprint arXiv:1907.05545, 2019. [2] David M Blei, Andrew Y Ng, and Michael I Jordan. Latent dirichlet allocation. Journal of machine Learning research, Vol. 3, No. Jan, pp. 993-1022, 2003. [3] David M. Blei and John D. Lafferty. Dynamic topic models. In Proceedings of the 23rd International Conference on Machine Learning, ICML '06, p. 113-120, New York, NY, USA, 2006. Association for Computing Machinery. [4] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, Vol. 30, 2017 [5] Adji B. Dieng, Francisco J. R. Ruiz, and David M. Blei. Topic modeling in embedding spaces. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 439-453, 2020. [6] David M Blei, Alp Kucukelbir, and Jon D McAuliffe. Variational inference: A review for statisticians. Journal of the American statistical Association, Vol. 112, No. 518, pp. 859-877, 2017. [7] Karen Simonyan and Andrew Zisserman. Very deep convolutional networks for large-scale image recognition. arXiv preprint arXiv:1409.1556, 2014 [8] Kyle Lo, Lucy Lu Wang, Mark Neumann, Rodney Kinney, and Daniel Weld. S2ORC: The semantic scholar open research corpus. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4969-4983, Online, July 2020. Association for Computational Linguistics. [9] Michal Rosen-Zvi, Thomas Griffiths, Mark Steyvers, and Padhraic Smyth. The author-topic model for authors and documents. In Proceedings of the 20th Conference on Uncertainty in Artificial Intelligence, UAI '04, p. 487-494, Arlington, Virginia, USA, 2004. AUAI Press. [10] David Mimno, Hanna Wallach, Edmund Talley, Miriam Leenders, and Andrew McCallum. Optimizing semantic coherence in topic models. In Proceedings of the 2011 conference on empirical methods in natural language processing, pp. 262-272, 2011. [11] Diederik P Kingma and Jimmy Ba. Adam: A method for stochastic optimization. CoRR, Vol. arXiv:1412.6980v9, , 2014. [12] Jimmy Lei Ba, Jamie Ryan Kiros, and Geoffrey E Hinton. Layer normalization. arXiv preprint arXiv:1607.06450, 2016. [13] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. Advances in neural information processing systems, Vol. 26, , 2013. ## A 付録 ## A. 1 引用正則化項ありの提案モデルの変分下限の導出 この章では、式 (24) の導出を行う。文書と引用の尤度は以下の式で計算される。 $ \begin{aligned} & p\left(\boldsymbol{w}_{1: D}, c_{1,1}, \ldots, c_{D, D} \mid \sigma, \delta, \gamma\right) \\ & =\int\left.\{\prod_{i} \prod_{n}\left(\boldsymbol{\beta}^{\left(t_{i}\right)} \cdot \boldsymbol{\theta}_{i}\right)_{w_{i, n}} p\left(\boldsymbol{\theta}_{i} \mid \boldsymbol{\eta}_{t_{i}}\right)\right.\} \\ & \quad\left.\{\prod_{i} p\left(c_{i, j} \mid \boldsymbol{\theta}, \boldsymbol{\alpha}\right)\right.\} \\ & \quad\left.\{\prod_{t} p\left(\prod_{k} \mid \boldsymbol{\eta}_{t}\right) p\left(\boldsymbol{\alpha}_{k}^{t} \mid \boldsymbol{\alpha}_{k}^{t-1}\right)\right.\} d \boldsymbol{\theta} d \boldsymbol{\eta} d \boldsymbol{\alpha} \end{aligned} $ 近似事後分布 $q(\boldsymbol{\theta}, \boldsymbol{\eta}, \boldsymbol{\alpha})$ は、式 (17) のように計算される。よって、文書と引用の対数尤度に対する変分下限は以下のように表される。 $ \begin{aligned} L & =\sum_{i} \mathrm{E}_{q\left(\boldsymbol{\theta}_{i}\right) q\left(\boldsymbol{\eta}_{t}\right) q\left(\boldsymbol{\alpha}_{k}^{(t)}\right)}\left[\boldsymbol{w}_{i}^{\top} \log \left(\boldsymbol{\beta}^{\left(t_{i}\right)} \cdot \boldsymbol{\theta}_{i}\right)\right] \\ & +\sum_{i} \sum_{j} \mathrm{E}_{q\left(\boldsymbol{\theta}_{i}\right) q\left(\boldsymbol{\eta}_{t}\right) q\left(\boldsymbol{\alpha}_{k}^{(t)}\right)}\left[\log p\left(c_{i, j} \mid \boldsymbol{\theta}, \boldsymbol{\alpha}\right)\right] \\ & -\sum_{i} \mathrm{D}_{\mathrm{KL}}\left[q\left(\boldsymbol{\theta}_{i} \mid \boldsymbol{\eta}_{\boldsymbol{t}_{i}}, \boldsymbol{w}_{i}\right) \| p\left(\boldsymbol{\theta}_{i} \mid \boldsymbol{\eta}_{t_{i}}\right)\right] \\ & -\sum_{t} \mathrm{D}_{\mathrm{KL}}\left[q\left(\boldsymbol{\eta}_{t} \mid \boldsymbol{\eta}_{t-1}, \tilde{\boldsymbol{w}}_{t}\right) \| p\left(\boldsymbol{\eta}_{t} \mid \boldsymbol{\eta}_{t-1}\right)\right] \\ & -\sum_{t} \sum_{k} \mathrm{D}_{\mathrm{KL}}\left[q\left(\boldsymbol{\alpha}_{k}^{(t)} \mid \boldsymbol{\alpha}_{1: K}^{(1: t-1)}\right) \| p\left(\boldsymbol{\alpha}_{k}^{(t)} \mid \boldsymbol{\alpha}_{k}^{(t-1)}\right)\right] \\ = & L_{d o c}+\sum_{i}^{D} \sum_{j}^{D} \operatorname{BCE}\left(p\left(c_{i, j} \mid \boldsymbol{\theta}, \boldsymbol{\alpha}\right), c_{i, j}\right) \end{aligned} $ ## A. 2 実験に用いたデータセット 本節では、各データセットの作成手順について説明する。S2ORC は、136,595,995 の論文群を保有しており、各論文は論文 ID、出版年、要約、被引用論文 ID、ACL ID、研究分野などを保持する。 $A C L$ データセットについては、2006 年から 2019 年までの ACL ID が “None” でない論文を抽出する。CS データセットについては、2006 年から 2019 年までの研究分野が “Computer Science” である論文を抽出し、被引用論文数の多い上位 40,000 本を抽出する。 得られた論文群は、3:1:1 の比率でランダムに訓練用、検証用、評価用文書データセットに分類する。訓練用文書データセットに対して、出現数が 10 未満の語彙、 $70 \%$ 以上の論文に共通して出現する語彙、数字を除去して得られた文書を Bag-of-Words として保持する。各時刻において十分な量の文書を確保するため、 2 年分の文書群をまとめて一つの時刻の文書群とする。例えば、2006 年と 2007 年の文書群をまとめて、それらを時刻 $t=0$ とする。 ## A. 3 実装詳細 各モデルのハイパーパラメータは、 $A C L$ の検証データセットの Perplexity に基づいてチューニングされている。全ての実験でトピック数 $K$ は 20 と設定し、トピック埋め込みの推論以外のパラメータは D-ETM の実装2)に従って設定した。勾配降下法は Adam [11]を用いて、バッチサイズ 512 でモデルを学習させる。学習率については、提案モデルと ETM については $6.0 \times 10^{-4} 、$ D-ETM については $8.0 \times 10^{-4}$ である。より良い実験結果を得るため、各モデルについて学習率の減衰を適用し、ロスが収束するまで学習を継続させている。 DSNTM 内部の self-attention 機構の $f_{q}, f_{k}, f_{v}$ 及びトピック埋め込みの変分パラメータ構築の $f_{\mu}, f_{\sigma}$ は、全てに次元数が 300 の隠れ層の MLPを利用する。また、残差接続後の正規化は、レイヤー正規化 [12]を指す。 各モデルとも、変文推論の事後分布の分散のパラメータは $\delta^{2}=\sigma^{2}=0.005$ で、 $\gamma^{2}=1$ とした。単語埋め込みについては、skip-gram [13] の埋め込み表現を利用しており、その次元数は 300 である。 トピック比率 $\boldsymbol{\theta}$ の推論 $q\left(\boldsymbol{\theta}_{d} \mid \boldsymbol{\eta}_{\boldsymbol{t}_{d}}, \boldsymbol{w}_{d}\right)$ は、ReLU 活性化と 800 次元の隠れ層を持つ 2 層の MLP、その後に $\theta_{d}$ の平均 $f_{\mu}$ と分散 $f_{\sigma}$ が続く構成である。卜ピック比率の平均 $\boldsymbol{\eta}$ の推論 $q\left(\boldsymbol{\eta}_{t} \mid \boldsymbol{\eta}_{1: t-1}, \tilde{\boldsymbol{w}}_{t}\right)$ を構築するため、bag-of-words 表現 $\tilde{w}_{t}$ を 400 次元の低次元空間に線形写像し、それを、400 次元の 3 層の隠れ層を持つ LSTM の入力として利用する。LSTM の出力は、直前のトピック比率の平均 $\boldsymbol{\eta}_{t-1}$ と結合され、その結果を $K$ 次元空間に線形写像し、 $\boldsymbol{\eta}_{t}$ の平均と分散を得る。 2) https://github.com/adjidieng/DETM
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C1-1.pdf
# 木構造自己注意機構による教師あり統語構造解析 成田百花 ${ }^{1}$ 持橋大地 ${ }^{2}$ 小林一郎 ${ }^{1}$ 1 お茶の水女子大学 2 統計数理研究所 \{g1820529,koba\}@is.ocha.ac.jp daichi@ism.ac.jp ## 概要 本研究では,Transformer のエンコーダにおける自己注意機構を入力文の統語構造を反映するように変更し,抽出された特徴量を用いてデコーダにおいて構文木構造を生成する新しい統語構造解析モデルを提案する。提案モデルを用いることで既存のモデルと比較して,WSJコーパスにおける $F_{1}$ スコアをはじめとする評価実験において構文解析精度が向上することが示された. また,提案モデルにおいてエンコーダの中間層の出力を用いた統語構造解析手法についても実験結果を示す. ## 1 はじめに 近年,自己注意機構を用いた深層学習モデル Transformer [1] が,高い汎用性を持つことから機械翻訳にとどまらず,様々な自然言語処理課題に対して採用され,高い成果を挙げている。自己注意機構とは,文中の各単語間の関連性を表すスコアを算出するもので,潜在的に統語構造情報を捉えている可能性が考えられることから,これを工夫した統語構造解析手法が提案されている [2] [3]. 深層学習を統語構造解析に用いることで,文を連続値の情報であるべクトルで扱うことが可能となり,従来の文法規則のマッチングによる処理とは違い,より頑健な処理を実現できるという利点がある.その一方で,統語構造解析研究においては,これまでに構築された多くの統語構造解析結果のデータが存在する. 双方の利点を活かすことを考え,本研究では自己注意機構を用いた教師あり統語構造解析モデルを提案する。 ## 2 関連研究 代表的な統語構造解析手法として, CKY アルゴリズムがある.CKYアルゴリズムを模倣した手法として, Stern ら [4] はニューラル手法による Chart Parser を提案している. Stern らのモデルでは,エン コーダの双方向 LSTM によって抽出した入力文の特徵量を用いて,デコーダの Chart Parser が文の “句または節を構成する単語間”と“品詞”それぞれの評価点を算出し,文の最適な構文木を予測する。また, Gaddy ら [5] は Stern らの Chart Parserに修正を加えたモデルを提案している。 そして,Kitaev ら [2] は, この Gaddy らのモデルのエンコーダに双方向 LSTM ではなく,自己注意機構を用いたモデルを提案している. Stern ら, Gaddy ら,そして Kitaev らのモデルでは,双方向 LSTM と自己注意機構が統語構造情報を算出することを前提としてデコーダへの入力としている.しかし,双方向 LSTM と自己注意機構の出力には統語構造情報は明示的には反映されていないため,デコーダに用いる情報としてはまだ改善の余地がある.そこで本研究では,エンコーダの出力により確かな統語構造情報を反映するような制約を用いて抽出した特徴量をデコーダの入力とする手法を提案する。 自己注意機構を用いた教師なし統語構造解析モデルとして, Wang ら [3] は Tree Transformer を提案している. Tree Transformer は Transformer のエンコー ダを用いたモデルで,自己注意機構に入力文の統語構造情報を反映するように制約を加える。エンコー ダは,BERT [6] の学習タスクである,[Mask] トークンに置き換えられた文中の単語を予測する Masked Language Modeling (MLM)により教師なし学習される.しかし,この MLM による学習は,統語構造情報について予測を行いモデルを学習しているのではなく,[Mask]トークンの予測を対象に学習をしているため,統語構造の解析が十分とは言えない.よって,本研究は統語構造情報を含む値を予測値とし,既存の統語構造解析結果のデータを用いた,教師あり統語構造解析モデルを提案する。 ## 3 基本モデル 本節では,提案モデルのベースラインとなる Kitaev ら [2] のアーキテクチャについて説明する. 図 1: 分割自己注意機構. 入力文の埋め込みべクトル $x_{c}$ と位置埋め込みべクトル $x_{p}$ それぞれに対して別々に Attention が計算され,その後に結合される. エンコーダ部には分割自己注意機構(3.1 節),デコーダ部には Stern ら [4]の Chart Parserに Gaddy ら [5] が修正を加えた Chart Decoder(3.2 節)を用いたモデルである. $N$ 個の単語を含む入力文の埋め込みベクトル $\boldsymbol{x}^{(c)}=\left[c_{1}, c_{2}, \ldots, c_{N}\right]$ を BERT [6] の最終層の出力から抽出する. また,入力文の位置埋め込みベクトル $を \boldsymbol{x}^{(p)}=\left[p_{1}, p_{2}, \ldots, p_{N}\right]$ とする. ## 3.1 分割自己注意機構 通常の自己注意機構では埋め込みベクトル $\boldsymbol{x}^{(c)}$ と位置埋め込みべクトル $\boldsymbol{x}^{(p)}$ を足し合わせたべクトル $\boldsymbol{x}=x^{(c)}+x^{(p)}$ に対して Attention を計算する. しかし,分割自己注意機構では $\boldsymbol{x}^{(c)}$ と $\boldsymbol{x}^{(p)}$ それぞれに対して別々に Attentionを計算する。分割自己注意機構の入力 $\boldsymbol{x}$, パラメータ行列 $W, c=W x$ をそれぞれ式 (1),式 (2),式 (3)とする. $ \begin{gathered} \boldsymbol{x}=\left[x^{(c)} ; x^{(p)}\right] \\ W=\left[\begin{array}{cc} W^{(c)} & 0 \\ 0 & W^{(p)} \end{array}\right] \\ c=\left[c^{(c)} ; c^{(p)}\right]=\left[W^{(c)} x^{(c)} ; W^{(p)} x^{(p)}\right] \end{gathered} $ 以上より, 入力 $x$ から得られる Query, Key, Value はそれぞれ $Q=\left[q^{(c)} ; q^{(p)}\right], K=\left[k^{(c)} ; k^{(p)}\right], V=$ $\left[v^{(c)} ; v^{(p)}\right]$ となる. Query, Key, Value と, Keyの次元 $d_{k}$ 用いて自己注意機構は式 (4) で表される. $ \operatorname{Attention}(Q, K, V)=\operatorname{softmax}\left(\frac{Q K^{T}}{\sqrt{d_{k}}}\right) V $ 内積 $Q K^{T}$ は $q^{(c)} \cdot k^{(c)}+q^{(v)} \cdot k^{(v)}$ に分解される. 図 1 に式 (4) の值の導出過程を示す. ## 3.2 Chart Decoder 構文木 $T$ は文中の $i$ 番目の単語で始まり $j$ 番目で終わる句または節と,その品詞 $l$ の集合によって式 (5) のように表される. $|T|$ は集合の数,すなわちその文に含まれる句または節の合計数である. $ T=\left.\{\left(i_{t}, j_{t}, l_{t}\right): t=1, \ldots,|T|\right.\} $ また,エンコーダからの出力を用いて,各文の構文木 $T$ に実数值のスコアとして,式 (6) で表される $s(T)$ が生成される. $ s(T)=\sum_{(i, j, l) \in T} s(i, j, l) $ $s(i, j, l)$ は品詞 $l$ を持つ文中の $i$ から $j$ 番目の単語間の実数值のスコアである. 生成された $s(T)$ のうち最も高いスコアのものが,CKY 法を模倣した式 (7) の推測アルゴリズムによって選ばれ,構文木 $T$ の最適な統語構造として予測される. $ \hat{T}=\arg \max _{T} s(T) $ このように Chart Decoder を用いることで,構文木のスコア,すなわち統語構造情報を予測値とすることができる.また Chart Decoder は,CKY アルゴリズムを模倣したシンプルで合理的なアーキテクチャでありながら,WSJデータのみで学習した解析器の中では最も高い性能を達成していることから, 本研究でもこれを採用することにする。 ## 4 提案手法 図 2 に提案モデルの全体の構造を示す. エンコー ダ部に Wang ら [3] の”Constituent Attention モジュー ル”を導入した木構造自己注意機構(4.1 節)を用いて, 入力文の統語構造情報を抽出する. エンコーダから抽出された情報に基づき,デコーダ部の Chart Decoder(3.2 節)で構文木のスコアを算出し,教師あり学習を行う。 ## 4.1 木構造自己注意機構 木構造自己注意機構は統語構造情報を抽出するために, 3.1 節の分割自己注意機構に隣り合う単語間の関連性を捉える”Constituent Attention モジュー ル"を導入する. "Constituent Attention モジュール"では, $\mathrm{N}$ 個の単語を含む文の各単語に対して,文中の句または節(constituent)の区切りを推測する確率 $a=\left.\{a_{1}, \ldots a_{N}\right.\}$ を生成する. 確率 $a$ を用いて,同 Output: (S (NP (The ) (NP ( cute dog ))) (VP (VP ( is wagging )) (NP ( its tail )))) 个 Input: the cute dog is wagging its tail 図 2: 提案モデルの全体図. エンコーダには,分割自己注意機構に”Constituent Attention モジュール”を導入した木構造自己注意機構, デコーダには Chart Decoderを用いる。 図 3: (左)木構造自己注意機構を用いたエンコー ダ.ブロックは入力文から生成された constituent を表している。層を登るにつれ constituent はマージされ徐々に大きくなる.(右)エンコーダ各層の構成. じ constituent に属する単語同士のみで自己注意機構を作用させる制約 ”Constituent Priors $C_{i, j}$ "が生成される. "Constituent Priors $C_{i, j}$ "は,式 (8) で表される,文中の $i$ 番目の単語と $j$ 番目の単語が同じ constituent に含まれるかの確率である. $ C_{i, j}=\prod_{k=i}^{j-1} a_{k} $ 上層に移るにつれ constituent は隣同士でマージされて徐々に大きくなり,エンコーダ内部で入力文の構文木を形作る(図 3)。式 (8) と式 (4)を用いて,木構造自己注意機構は式 (9) のように求められる. $ \operatorname{Attention}(Q, K, V)_{\text {tree }}=C \odot \operatorname{softmax}\left(\frac{Q K^{T}}{\sqrt{d_{k}}}\right) V $ 木構造自己注意機構を用いることで,通常の自己注意機構よりも統語構造情報を反映した特徵量を抽出することができる.これにより,Chart Decoder が効率よく文中に含まれる句または節を捉えることを可能とする. ## 4.2 中間層を用いた統語構造解析 通常の統語構造解析では,エンコーダの最終層の出力に基づいて,デコーダが入力文の構文木を予測する. しかし,入力文によって構文木の深さは異なり,それに合った統語構造情報が必要となると考えられる。そこで,エンコーダ内部に constituent で構文木を形作る木構造自己注意機構の性質を利用して,エンコーダの中間層の出力をデコーダの入力とし,統語構造を解析する手法を提案する。 アルゴリズムを Algorithm 1 に示す. ## 5 実験 本節では,4 章で提案した手法を用いたモデルの性能及び有効性を検証する。 ## 5.1 実験設定 実験では,Penn Treebank ${ }^{1)}$ の WSJ(英字経済新聞 Wall Street Journal $\left.{ }^{2}\right)$ )コーパスを用いて,予測される構文木が人間の作成した構文木とどの程度類似しているかを評価する。コーパスのデータ数はそれぞれ,訓練データ 39,832 (2-21 章),開発データ 1,700 (22 章),評価データ 2,416 (23 章) の標準的分割である.学習の際, 1 Epoch おきにデータをシャッフルする. Multi-Head 数を 8, batch 数を 32 とした. ## 5.2 木構造自己注意機構の有効性検証 本節では,提案手法の木構造自己注意機構の有効性を検証するため,通常の自己注意機構を用いた Kitaev ら [2] のモデル(従来モデル)と,双方向 LSTM を用いた Stern ら [4] と Gaddy ら [5] のモデルと比較を行った. また,同じデータセットを用いたより高い精度を持つモデルとして Zhou ら [7] のモデルも表中に示す.この際, 4.2 節の手法は用いず, エンコーダの最終層の出力を用いて統語構造解析を行う.エンコーダの層数を $\ell$ として,表 1 に実験結  表 1: Penn Treebank での実験結果 [\%]. 果を示す. 精度の評価尺度には $F_{1}$ スコア,再現率と適合率が共に $100 \%$ である割合(完全一致),品詞の正解率(品詞)を用いた. 表より,提案モデルが従来モデルよりも品詞以外の結果が良いことがわかる. また,双方向 LSTM を用いたモデルと比較しても精度が高い.これらのことから木構造自己注意機構は通常の自己注意機構や双方向 LSTM よりも確かな統語構造情報を抽出し,デコーダでの解析を補助し,性能改善に寄与することがわかる. また,従来モデル $(\ell=10)$ が従来モデル $(\ell=2)$ よりも精度が低い理由は,入力文の埋め込みベクトルの生成に BERT を用いているため,これにより既に入力文の特徵がある程度抽出され,その後に多くのエンコーダを積んでしまうと過学習を引き起こす可能性が考えられる。一方で,提案モデル $(\ell=10)$ が提案モデル $(\ell=2)$ よりも精度が高い理由は,エンコーダ内部で構文木を形作る木構造自己注意機構の性質により, 入力文の構文木を作るためにはある程度の層数を必要とすることが考えられる。 ## 5.3 文の長さにおける有効性検証 本節では,文の長さにおける各モデルの有効性を検証するため, 従来モデル $(\ell=2)$ と提案モデルの, 5.2 節の解析結果から完全一致した文の長さごとの数(正解数)を比較する.結果を表 2 に示す. 表中の WSJ は評価データに含まれる文の各長さの内訳である.長さが 40 以下の文に対しては,5.2 節において最も精度の高かった提案モデル $(\ell=10)$ の正解数が多かった。しかし,長さが 41 以上の文については提案モデル $(\ell=8)$ の正解数が多かった。これにより文の長さによって構文木の深さが異なり,必要となる統語構造情報が異なることが考えられる.表 2: 各モデルの解析結果から完全一致した文の長さ $|s|$ ごとの数(WSJ は評価データに含まれる文の各長さの内訳) 表 3: 中間層を用いた統語構造解析結果(提案モデル $(\ell=12)$ のエンコーダの各中間層の出力を用いた解析結果から,完全一致した文の長さ $|s|$ ごとの数) ## 5.4 中間層を用いた統語構造解析結果 本節では,提案手法の中間層を用いた統語構造解析の結果を示す. 提案モデル $(\ell=12)$ のエンコーダの各中間層の出力をデコーダの入力とし,構文木を予測する.各中間層を用いた解析結果から完全一致した文の長さごとの数を表 3 に示す. 表中の中間層は Algorithm 1 の $m$ である. 表より,Layer10と Layer8 の出力を用いた際の,長さ 41 以上の正解数が同じことから,完全一致した長さ 41 以上の文では Layer8 と Layer10 で出力されるスコアが重複していることが考えられる.以上と 5.3 節の結果から,構文木それぞれに対して適切な中間層から出力される統語構造情報を用いるべきであることが考えられる。 ## 6 まとめ 本論文では,木構造自己注意機構とエンコーダの中間層を用いた統語解析手法を提案した。木構造自己注意機構を用いることで, $F_{1}$ スコアと完全一致において従来の自己注意機構や双方向 LSTM を用いたモデルを上回る結果を達成できることを実験により確認した.また,エンコーダの中間層を用いた解析結果から,各構文木に対して適切な中間層の出力を用いるべき事がわかった。このことから今後は,口ジスティック回帰などを用いて効率的に各入力文の構文木に適した中間層を選びとるような手法を提案し,モデルの改良に取り組みたい。 ## 参考文献 [1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Proc. of the 31st NIPS, 2017 [2] Nikita Kitaev and Dan Klein. Constituency parsing with a self-attentive encoder. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2676-2686, Melbourne, Australia, July 2018. Association for Computational Linguistics. [3] Yau-Shian Wang, Hung yi Lee, and Yun-Nung (Vivian) Chen. Tree transformer: Integrating tree structures into self-attention. In $E M N L P, 2019$. [4] Mitchell Stern, Jacob Andreas, and Dan Klein. A minimal span-based neural constituency parser. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 818-827, Vancouver, Canada, July 2017. Association for Computational Linguistics. [5] David Gaddy, Mitchell Stern, and Dan Klein. What's going on in neural constituency parsers? an analysis. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 999 1010, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 41714186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [7] Junru Zhou, Zuchao Li, and Hai Zhao. Parsing all: Syntax and semantics, dependencies and spans. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 4438-4449, Online, November 2020. Association for Computational Linguistics.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C1-2.pdf
# Recurrent Neural Network CCG 構文解析器の実装 田上青空 戸次大介 お茶の水女子大学 \{tagami.sora, bekki\}@is.ocha.ac.jp ## 概要 自然言語処理において広く利用されている深層学習モデルは、文をトークン列とみなして処理を行う。しかし文には統語構造が存在しており、意味合成のような言語学的な計算を行うためには、表層的な情報を越えた統語構造を明示的にモデル化する必要があると考えられる。文の統語構造を考慮する言語モデルとして、Recurrent Neural Network Grammars (RNNGs)[1] がある。RNNGs は言語モデルと構文解析器の二つの側面を持ち、内部の文法としては CFG を用いている。本研究では RNNGs の内部文法として、CFGに代えて、より自然言語の統語構造を適切に捉える文法である CCG を用いた実装を行い、 $\mathrm{CFG}$ によるモデルとの比較・検証を実施した。 ## 1 はじめに 近年、BERT[2] や GPT-3[3] に代表される深層学習を用いた言語モデルの発展はめざましく、あらゆる自然言語処理タスクにおいて高精度を誇っている。 これらのモデルは、膨大なデータと巨大なパラメー タによって、データからある種の「傾向」を抽出することに優れている。しかし、文を文字またはサブワードからなるトークン列とみなして解析を行なっているため、文がもつ統語構造や依存関係を考慮しているわけではない。したがって、これらのモデルからは文が持つ言語学的な情報を得られず、統語解析やそれに基づく意味解析を行うことは難しい。 一方で、C\&C[4]、EasyCCG[5]、depccg[6]など、組合せ範疇文法 (Combinatory Categorial Grammar; 以後 CCG) を用いた構文解析器の開発が進んでいる。組合せ範疇文法は形式統語論の理論であり、これらの構文解析器の出力として得られる CCG の統語構造は、ccg2lambda[7]にみられるように意味合成に用いることができる。しかしながら、構文解析器の性能を向上するには、人手でアノテーションした専門的でコストの高いデータが必要となるため、このアプ ローチには大量のデータを用意するのが難しいという欠点が存在する。また言語モデルではないため、単語の埋め込みという形での出力や単語の出現確率などの確率的な情報は得ることができない。 そのような潮流のなかで、 Recurrent Neural Network Grammars (以後 RNNGs)[1] は、文の統語構造を考慮した深層学習モデルであり、言語モデルと構文解析器の 2 つの側面を併せ持つ。このモデルは、両方の側面で文脈自由文法 (Context-Free Grammar; 以後 CFG) を用いて統語情報を獲得する。RNNGs は LSTMs に比べ長期的な依存関係が捉えられることが知られている $[8,9]$ 。また、RNNGs が学習する内容は脳波に現れる人間の言語処理の困難さの指標とも対応し、人の文処理モデルとしての妥当性も示唆されている [10]。 本研究では、RNNGs のモデルで使用する文法を CFG から CCG に変更したモデル (RNN-CCG)を構成・実装することを試みる。この変更には、CCGの統語構造を獲得し、そのまま意味合成につなげることができるという利点がある。実験を通して、文法として CFG を使用した場合とどのような違いが生じるかを検証を行い、CCG 特有の特徴を考慮するモデル構成や手法を検討する。 ## 2 Recurrent Neural Network Grammars RNNGs は、単語間やフレーズ間のネストした階層関係を明示的にモデル化する言語モデルおよび $\mathrm{CFG}$ 構文解析器である。ここでは構文解析モデルとしての振る舞いを例に挙げる。内部では Stack、 Buffer の 2 つのデータ構造が用いられており、初期状態では Buffer に全単語ベクトルが格納されている。それらに対する操作は Action として以下のように定義される。 -SHIFT: 単語ベクトルを Buffer の先頭から除いて、Stack に追加。 ・NT X: 非終端記号 X に対応するべクトルを 図 1 RNNGs のアーキテクチャ Stack に追加。この時追加される非終端記号 X は、「開いた」状態とされる。 - REDUCE: Stack から、最初に見つけた開いた非終端記号 Xまでを除く。それらをエンコードした新しいべクトルを生成し、新たな要素として Stack に再追加する。 各時点での Stack、Buffer、これまでの Action 履歴はそれぞれ LSTMs と RNNs を用いてエンコードされ、 それらをもとに次の Action が決定される形で構文解析が行われる。Stackに対して操作が行われるたび先頭から計算し直すことは非効率であるため、stack LSTMs[11] という機構を用いて最適化されている。図 1 に示すのは、The hungry cat meows. という例文がすべて正しく解析されている場合において、meows に対応するべクトルを SHIFT することを予測する際の状態を表したものである。 RNNGs には後続する研究が行われており、いくつかの類似するモデルが存在する。Bufferを廃止しStackのみを用いた stack-only RNNGs[12]、並列実行を実現しより大きなデータを学習することに対応した Pytorch 実装モデル [13]、RNNs ではなく Transformer を用いたモデル $[14,15]$ などがあげられるが、本稿では最もシンプルな形である元論文のモデル [1] を参照し、構文解析器の側面に着目して実験を行った。 ## 3 RNN-CCG 本研究では、RNNGs の再実装である RNN-CFG と、RNNGs で使用する文法を CFG ではなく CCG に替えたモデルである RNN-CCG を実装した。CCG の統語範疇を $\mathrm{CFG}$ の終端記号として扱えば、CCG も句構造文法とみなすことができる。したがって、 CCG を用いた場合でも、Action の判定は多値分類問題として解くことができ、CFG を使用した場合と同様に実装することができる。 ## 3.1 組合せ範疇文法 (CCG) 組合せ範疇文法(CCG)[16,17,18] は語彙化文法の一種である。文脈自由文法のような句構造文法では統語構造に関わる情報の大部分が書き換え規則によって記述され、辞書は比較的単純であるのに対し、語彙化文法では、それらの情報の大部分が辞書に記述され、組合せ規則は比較的単純であるという特徴がある。また、CCGによる統語構造は、そのまま意味合成の計算経路を決定するという大きな利点をもつ。 文脈自由文法において、The hungry cat meows. を生成するには以下の規則が必要である。1)非終端記号がこれらの書き換え規則によって、再帰的に書き換えられることにより文が解析される。 $ \begin{array}{rll} S & \rightarrow & N P V P \\ V P & \rightarrow & \text { meows } \\ N P & \rightarrow \quad \text { The hungrycat } \end{array} $ 一方で CCG においては、各語彙は以下のように定義される。この例の場合には、CCG の組合せ規則である逆関数適用規則を用いて二つの語彙が組み上げられ、一つの文となる。 $ \begin{array}{rll} \text { The hungry cat } & \vdash & N P \\ \text { meows } & \vdash & (S \backslash N P) \end{array} $ CCG の組合せ規則の一部を以下に挙げる。 関数適用規則 $: \frac{X / Y Y}{X}>\frac{Y \quad X \backslash Y}{X}<$ 関数合成規則 : $\frac{X / Y \quad Y / Z}{X / Z}>\mathbf{B} \quad \frac{Y \backslash Z \quad X \backslash Y}{X \backslash Z}<\mathbf{B}$ ## 3.2 RNN-CCG vs. Transformer RNNGs が登場した当初は BERT[2]、GPT-3[3] のような大規模言語モデルがまだ存在していなかった。 しかし、その後の大規模言語モデルの成功により、言語モデルとしての RNNGs の存在意義は薄れつつあるように見受けられる。後続する研究 $[14,15]$ は、 RNNGs の後継モデルというよりは、Transformer に構成素が持つ情報を与えてファインチューニングす  る方法論を採っている。しかし RNNGs には、以下の 2 つの側面において再評価すべき余地があると考える。 1. RNNGs も Transformer も、ある箇所に現れる言語表現の情報を、周囲の文脈を使って予測する点では共通している。しかし、周囲の文脈として参与するのは Transformer ではサブワードであるのに対し、RNNGs では構成素である。それによって、RNNGs では「構成素の埋め込み」 が「周囲を予測する情報」を担うことになる。 2. またRNNGs ではある箇所に現れる言語表現というのは、サブワードだけではなく構成素である。したがって RNNGs ではサブワードの出現と構成素の出現を区別することなく予測しなければならない。それによって、RNNGsでは「構成素の埋め込み」が「周囲によって予測される情報」を担うことになる。 結果的に、RNNGsにおける構成素は、同様の環境に現れうる構成素と近い埋め込みを持つことが期待される。これによって、RNNGsでは語と句を区別することなく捉えることができる。これは Transformer にはない特徴である。 また、構文解析にせよ文生成にせよ、RNNGs は (各構成素の分散表現だけではなく)文全体の統語構造を出力する。これもまた Transformer にはない特徵である。 RNNGsのこれら二つの特徵を考慮すると、RNNGs において CFG ではなく $\mathrm{CCG}$ を採用することには 2 つの利点があると考えられる。以下順に述べる。 まず 1 つ目の特徴に対して、CCG は CFG と比較して(等位接続構文や長距離移動構文等を含む)より多彩な統語環境において、何が構成素であり何が構成素ではないのかを適切に切り分けることができる。もし RNNGs が採用する文法が CFG ではなく CCG であれば、RNNGs はより妥当な構成素概念を持つことになり、それに対する分散表現の割り当てもより適切なものになることが期待される。 次に 2 つ目の特徴に対して、CCG は CFG と異なり、意味合成の仕組みを誘導する。すなわち、 $\mathrm{CCG}$ では統語構造と意味合成が準同型の関係にあるため、CCGでは統語解析に成功すれば意味合成は必ず成功する、という保障が得られる。これは $\mathrm{CFG}$ に基づく文法にはみられない利点である。 このように、RNNGs には Transformer ベースの言語モデルにはない二つの特徴があるが、採用する文法理論を CFG から CCG に置き換えることによって、この二つの特徵を明確な利点に置き換えることにつながると考えられる。 ## 4 実験 ## 4.1 実験設定 RNN-CFG と RNN-CCG の実装には、Torchの Haskell インターフェースである hasktorch ${ }^{2)}$ を用いた。学習には、CFGデータとして Penn Treebank $\left.{ }^{3}\right)$ CCG データとして $\mathrm{CCGbank}^{4)}$ を用いた。どちらも Wall Street Jarnal コーパスの §2-21を学習デー タ、§24を検証データ、§23を評価データとして使用した。詳細は表 1 の通りである。 実験環境には、産総研 $\mathrm{AI}$ 橋渡しクラウド $(\mathrm{ABCI})^{5}$ の rt_G.large (NVIDIA V100 for NVLink 16GiB HBM2) を1ノード使用した。 ## 4.2 実験結果 それぞれのデータでの、いくつかの Action の F1 スコアと、全体の microF1 スコアを表 2,3 に示した。 表 2 CFG での実験結果 表 3 CCG での実験結果 一般的に構文解析器は間違った予測をするとそれ以降の予測にも影響がでるが、ここでの F1 スコアの値においては、各タイムステップ以前の予測結果は全て正解データを用いた予測の上で算出している。 ## 4.3 考察 UNK ラベルの位置づけ学習データに含まれてい 2) http://hasktorch.org/ 3) https://catalog.ldc.upenn.edu/LDC99T42 4) https://catalog.ldc.upenn.edu/LDC2005T13 5) https://abci.ai/ ないラベルが評価時に出現した場合は誤った出力結果とした。一般に、出現頻度の低いラベルについては unknown タグ (以下 UNK) としてまとめてしまうことが多い。 この選択肢は、RNN-CFG では問題とならない。 たとえば、本来 $A \leftarrow B, C, D$ という書き換え規則があるところで、 $C$ の頻度が低くUNK となった場合は、Stackには $B$, UNK, $D$ が並ぶことになる。これを、 $A$ として REDUCEしたところで、解析としては問題なく、得られる統語構造も正解の近似といった位置づけとなる。 しかし RNN-CCG では、たとえば本来 Stack が $N P, S \backslash N P$ となって REDUCE して $S$ となるべきところを、仮に NP の頻度が低くUNK となった場合などでは、Stackには UNK, $S \backslash N P$ が並ぶことになる。そのような場合には組合せ規則の適用ができず、自動的に不整合な予測結果となってしまうことを考慮し、本研究では UNK を用いない設定で評価を行った。 RNN-CFG vs. RNN-CCG 各ラベルごとのF1スコアをみると、RNN-CFG、RNN-CCG のどちらにおいても、SHIFT、REDUCE、NT S 等、出現頻度が高い Action に関しては正しく予測されていることが多い。一方で、CFGではハイフンで区切られた小分類を含む非終端記号、CCGでは/,\を含む統語範疇を生成する Action などは、学習データにおいて出現頻度が低い傾向にあり精度の低下に繋がっていると考えられる。 また RNN-CFG と比較して RNN-CCG の microF1 が高い原因として、以下の 2 つが挙げられる。まず、RNN-CFG の方が学習データにおいて出現頻度の低い Action の割合が高いことである。前述した通り、出現頻度が低い Action は十分に学習されておらず精度に影響するが、出現頻度が 10 回以下の Action は、RNN-CFG では全 Action の 83.9\%、RNN-CCG では 67.9\%を占める。次に、RNN-CFG の方が Action 次元数が多いことである。Action 次元数は表 1 の通りであり、これはそのまま多值分類問題のクラス数となるため、多い方が難易度の高いタスクとなる。 POSタグについて RNN-CFGでは POS タグは考慮されていない。そのため同じ枠組みで RNN-CCG を実装した場合には、出力された Action 系列から図 1 に示すような構文木を得ることになる。この例において、disclosed の統語範疇は $S[p s s] \backslash N P$ であることが推測されるが、CCG 統語構造の利点である意味合成の経路を得るにはこのような語の統語範疇を補完し、もう一段階解像度の高い統語情報を復元する必要がある。さらに、were や’nt に関しては統語範疇の補完自体が自明ではなく、意味合成に用いる文法としては現状の RNN-CCG は不十分であると考えられる。 図 1 RNN-CCGで扱われる構文木 ## 5 おわりに 本研究では、RNNGs モデルの内部で使用する言語を CFG から CCGに置き換えたモデルである RNN-CCG を実装し、従来の RNNGs モデルである RNN-CFG と比較実験を行った。その結果、RNNGs を CCGを用いて実装した場合も、CFG を用いた実装と同様の恩恵を得られることが示された。ただし、 4.3 節で述べたように、文法として CFG ではなくCCG を用いることの利点を生かすためには、更に解像度の高い出力を得る必要も生じている。 今後の課題としては 2 つ挙げられる。第一に、不整合な出力結果の除去である。RNN-CCG では RNN-CFG と異なり、出力された Action 系列が不整合である場合がある。RNN-CFG では “NT X” で生成されるどのような非終端記号列も、そのような書き換え規則が存在するとみなせば適切である。しかしRNN-CCG では、組合せ規則を適用できない出力は不整合な結果であり、意味合成にも用いることができない。また 4.3 節に述べた通り、単語の統語範疇が出力されないことも構文解析器の出力結果としては不十分であり、後続タスクに影響を及ぼす。これらの問題への対処は今後の課題としたい。 第二に、出現頻度が低い統語範疇への対応である。実験結果が示す通り、出現頻度が低く十分に学習できていない統語範疇は精度が低下する原因であるため、改善が望まれる。 3.2 節で述べた通り、RNN-CCG は RNN-CFG とは異なった利点を持つものと考えられる。そのため、構文解析器としての精度を向上させることに加え、 CCG の特徴をより活かしたモデル構成を探っていきたい。 ## 参考文献 [1] Chris Dyer, Adhiguna Kuncoro, Miguel Ballesteros, and Noah A. Smith. Recurrent neural network grammars. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, June 2016. [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: pre-training of deep bidirectional transformers for language understanding. CoRR, Vol. abs/1810.04805, , 2018. [3] Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. CoRR, Vol. abs/2005.14165, , 2020. [4] Stephen Clark and James R. Curran. Wide-coverage efficient statistical parsing with CCG and log-linear models. Computational Linguistics, Vol. 33, No. 4, pp. 493-552, 2007. [5] Mike Lewis and Mark Steedman. A* CCG parsing with a supertag-factored model. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), October 2014. [6] Masashi Yoshikawa, Hiroshi Noji, and Yuji Matsumoto. A* CCG parsing with a supertag and dependency factored model. CoRR, Vol. abs/1704.06936, , 2017 [7] Pascual Martínez-Gómez, Koji Mineshima, Yusuke Miyao, and Daisuke Bekki. On-demand injection of lexical knowledge for recognising textual entailment. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, April 2017. [8] Adhiguna Kuncoro, Chris Dyer, John Hale, Dani Yogatama, Stephen Clark, and Phil Blunsom. LSTMs can learn syntax-sensitive dependencies well, but modeling structure makes them better. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), July 2018. [9] Ethan Wilcox, Peng Qian, Richard Futrell, Miguel Ballesteros, and Roger Levy. Structural supervision improves learning of non-local grammatical dependencies. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), June 2019. [10] John Hale, Chris Dyer, Adhiguna Kuncoro, and Jonathan Brennan. Finding syntax in human encephalography with beam search. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), July 2018. [11] Chris Dyer, Miguel Ballesteros, Wang Ling, Austin Matthews, and Noah A. Smith. Transition-based dependency parsing with stack long short-term memory. CoRR, Vol. abs/1505.08075, , 2015. [12] Adhiguna Kuncoro, Miguel Ballesteros, Lingpeng Kong, Chris Dyer, Graham Neubig, and Noah A. Smith. What do recurrent neural network grammars learn about syntax? In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, April 2017. [13] Hiroshi Noji and Yohei Oseki. Effective batching for recurrent neural network grammars. CoRR, Vol. abs/2105.14822, , 2021. [14] Laurent Sartran, Samuel Barrett, Adhiguna Kuncoro, Miloš Stanojević, Phil Blunsom, and Chris Dyer. Transformer grammars: Augmenting transformer language models with syntactic inductive biases at scale. Transactions of the Association for Computational Linguistics, Vol. 10, pp. 1423-1439, 2022. [15] Peng Qian, Tahira Naseem, Roger Levy, and Ramón Fernandez Astudillo. Structural guidance for transformer language models. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), August 2021. [16] Mark J. Steedman. Surface Structure and Interpretation. The MIT Press, Cambridge, 1996. [17] Mark J. Steedman. The Syntactic Process (Language, Speech, and Communication). The MIT Press, Cambridge, 2000. [18] 戸次大介. 日本語文法の形式理論一活用体系・統語範疇・意味合成 —. くろしお出版, 2010.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C1-3.pdf
# BERT の教師なし分野適応による数学問題テキスト構文解析の 精度向上要因の分析 吉田琉夏 松崎拓也 東京理科大学 理学部第一部 応用数学科 1419099@ed.tus.ac.jp matuzaki@rs.tus.ac.jp ## 概要 本研究では,BERT の分野適応によって数学テキストの構文解析精度が向上する要因およびその限界を明らかにする。また,BERT の分野適応の効果は分野固有のサブ言語である数式を表現する方式に依存することを示し,適切な方式を明らかにする。 実験の結果,BERT の分野適用を行う場合,数式全体を専用の特殊トークンで置き換える方式が最も構文解析精度が高く, 分野適応を行わない場合に比べて約 4 ポイント向上した. また,このとき数式を含む構造に関する誤りが多く改善されていた。一方で, fine-tuning に用いた新聞係り受けコーパスでの出現頻度が低い構造に関する誤りは,BERT の分野適応のみでは改善されにくいことがわかった. ## 1 はじめに 数学テキスト・法律・技術文書など,読解に一定の専門知識が必要になるテキストの構文アノテー ションは,高コストである。一方で,近年 BERT の使用により高精度な係り受け解析が実現できることが示され [1], さらに, BERT の事前訓練に構文解析の対象とする分野のテキストを用いることの有効性が示されている [2]. そこで本研究では, 構文注釈付きデータが不要な BERT の分野適応のみによって,数学テキストの解析精度がどこまで向上するかを分析する.具体的には,数学テキストの文節単位の係り受け解析において,Wikipedia のみで事前訓練した BERT を用いる場合と数学テキストでの事前学習を追加で行う場合を比較した。 また,数学テキストにはサブ言語である数式が頻出する. 数式はメイン言語, 例えば日本語とは語彙も文法も全く異なるため,メイン言語のトークンと同列に扱って BERT に入力するのが適切であるか否かは不明である. 同様なことは化学式など分野固有のサブ言語を含む種々のテキストでも起きる。そこで本研究では,BERT を数学テキストに適用する際の数式の表現として,数式全体を 1 つの未知語トークンで表す場合,新たに追加した特殊トークンで表す場合,数式に現れる記号を BERT の語彙に加える場合,数式を数式専用 BERT に入力したときの [CLS]ベクトルで表す場合の 4 つを比較した. 実験の結果,BERT の分野適用を行う場合,数式を専用の特殊トークンで表す方式が最も係り受け解析精度が高く, 分野適応を行わない場合に比べて約 4 ポイント向上した. しかし, さらに係り受け注釈付き数学テキストを訓練に使用した場合と比べるとなお約 3 ポイントの差がある. そこで,(1)BERT の分野適応によって改善する誤りと (2)注釈付き数学テキストを用いた訓練によってのみ改善する誤りについて分析した. その結果,(1) では,数式を含むことが多い構造に関する誤り,(2) では,注釈付き新聞テキストでは低頻度な構造の誤りが多く改善されることがわかった. ## 2 方法 本稿で比較する係り受け解析手法では全て東北大学が公開している Wikipedia での事前学習済み BERT-base モデル [3](以下,東北大 BERT と呼ぶ) を用いた。そして,以下の 3 点について次節の表 3 の様に組み合わせた計 6 つの解析モデルを作成した: 1. 数学生テキストを用いた追加の事前訓練の有無 2. 4 つの数式表現方式のいずれを用いるか 3. 係り先予測の fine-tuning において,新聞に加えて数学係り受けデータを用いるか否か ## 2.1 使用データ 数学生テキストとして,1957 年〜2020 年の大学入試問題を収集し,数式を MathML 表記したもの [4](以下,MRaw と表記)を用いた。注釈付き新聞 表 1 使用データのサイズ. 数式\%は各数式を 1 つの形態素と数えたときの全形態素に占める数式の割合 表 24 つの方式による数式を含む入力の表現の例 テキストとしては,京都大学テキストコーパス Ver. 4 (以下,KTC)[5]を用いた. 注釈付き数学テキストとしては,1997 年〜2011 年のセンター試験と 1994 年 2014 年の国立大学 2 次試験数学問題に KTC と同じ基準で係り受け構造を付与したもの(以下, MDep)を用いた。 ## 2.2 数式の表現方法 数式の表現として,以下の 4 つを比較した.表 2 にそれぞれの例を示す. [UNK] 数式全体をまとめて東北大 BERT の語彙の未知語トークン [UNK] で表す [MATH] 新規追加した特殊トークン [MATH] で表す Mixed 数式に現れる個々の記号(以下,数式ト一クン)を語彙に加え,日本語のサブトークンと数式トークンが混じった列に BERT を適用する ExprBERT 数式トークン列を数式専用 BERT に入力したときの [CLS] ベクトルを数式に対応する単語埋め込みとして東北大 BERT に入力する 数式トークン列は,アルファベットや演算子,上付き・下付きを表す記号等からなる LaTeX 風の記法である.数式トークンの語彙サイズは 241 で,例えば, $a_{n}=n^{2}+100 n$ であれば $ a,-\{, n,\},=, n,^{\wedge}\{, 2,\},+, 100, n $ のように表す. 数式専用 BERT の構成は BERT-base と同一である. ## 2.3 BERT の分野適応の手順 東北大 BERT を初期値とし,MRawを訓練デー タとする Masked Language Modeling (MLM) タスクによって BERT の分野適応を行った. タスクの設定は Devlin ら [6] に従った. 数式の表現として ExprBERT 1) $\mathbf{e}_{1}, \mathbf{e}_{2}$ はそれぞれ対応する数式トークン列を数式専用 BERT に入力したときの [CLS] ベクトルを表す を用いる場合は,マスクしたトークンを予測する代わりに,東北大 BERT の単語埋め込みおよびミニバッチ中の数式に対する数式専用 BERT による埋め込みの中から,マスクしたトークンないし数式に対応するべクトルを選択するタスクとした。 ## 2.4 係り受け解析モデル Dozat と Manning[7]の Biaffine モデルを BERT と組み合わせて文節単位の係り受けに適用した. Biaffine 関数への入力ベクトルは,係り元の文節の語形および係り先候補の主辞に相当する形態素それぞれの先頭のサブトークンに対する BERT の出力ベクトルとした. 主辞・語形の定義は文献 [8] に従った. ## 2.5 係り先予測 fine-tuning の手順 訓練データとして KTC,あるいは KTC と MDep を連結したものを使用して係り先予測タスクへの fine-tuning を行い,評価データとして MDep を用いた. 訓練データとして KTC のみを用いる場合は, その 1 割を検証データとし,KTCと MDepを連結したものを用いる場合は,MDepの 1 割を検証データ,残りを訓練データとし,MDepを 5 分割した交差検証で評価した。 ## 3 実験結果 表 3 亿,事前訓練データ・係り受け訓練データ・数式の表現方式の 6 つの組み合わせに対する評価結果を示す. 全体に対する精度に加え,数式を含む文節を MATH,含まない文節をWORD と表すとき,係り元一係り先の 4 つのパターンごとの $F_{1}$ スコアを示した. Biaffine 関数の出力に基づく係り先予測の結果が交差する係り受け関係を生じるケースは極めて少なかったため, CKY 等の解析アルゴリズムは用いず,係り先予測の結果を評価した。 表 3 より,構文解析済みデータが存在しない場合であっても,数学問題データで MLMを行うことによってどの数式表現方式でも精度が向上していることがわかる.特に数式を $[\mathrm{MATH}]$ で表す場合は,数式を [UNK] で表す場合に比べて約 4 ポイントの精度向上を達成しており,とりわけ MATH $\rightarrow$ MATH 型の $F_{1}$ スコアは約 11 ポイントも向上している. BERTの分野適応のみを行う場合,ExprBERT, Mixed, [MATH] の 3 つの数式表現方法を比較すると, [MATH] の結果が最も良好で, 次いで Mixed, ExprBERT の順になっている. しかし,数式を 表 3 事前訓練データ・係り受け訓練データ・数式の表現方式の 6 つの組み合わせに対する評価結果 & & & & & & & \\ 表 4 BERT の分野啇応により改善した誤りの内訳 $[\mathrm{MATH}]$ と表す場合であっても BERT の分野適応のみ行う場合と,さらにMDepを用いて訓練する場合との間で約 3 ポイントの精度の差が生じている. ## 4 誤りの改善例の分析 BERT の分野適応による構文解析精度の向上の要因およびその限界を明らかにするために,誤りの改善例を分析した,具体的には,事前訓練データ:係り受け訓練データ : 数式表現の組み合わせを 設定(1) = Wiki : KTC : [UNK] 設定(2) = Wiki+MRaw : KTC : [MATH] 設定(3) = Wiki+MRaw : KTC+MDep : [MATH] と名付けるとき,設定(1)から設定(2)で改善される誤り (\$4.1),および設定(2)から設定(3)で改善する誤り (\$4.2) について 5 分割交差検証のうちの 1 つ分から改善された誤りを 100 個サンプリングし,分析した. 実際の改善例は付録 §6 に示す。 また,数式を $[\mathrm{MATH}]$ で表す単純な方式が,数式の構成要素まで考慮する方式を上回った理由を探るため, $[\mathrm{MATH}]$ 方式および ExprBERT による数式の埋め込みを観察した (\$4.3). ## 4.1 BERT の分野適応による改善例の分類 設定(1)から設定(2)で改善した誤りを分類した結果を表 4 に示す. 表中の並列された数式との同格関係の誤りとは,下図の様に,並列された数式のタイプを表す名詞が,正しい係り先である最後の並列要素に係らない誤りのことである。3) 2) Wiki は Wikipedia の略である.数式の並列の解析誤りとは,並列要素が,右隣の並列要素に係らない誤りのことである: ガ格を持たない命令形に関する誤りとは, 命令形にガ格あるいは無格の名詞が係る誤りである.特に並列された数式の一部が命令形に係る誤りが改善された例が複数見られた。 これらの誤りが改善された理由として以下が予想される。まず,Wikipedia では未知語トークンは点在して出現しやすいのに対し,特殊トークンを用いた MLM により,数式同士が近くに出現しやすいことが学習される。さらに,KTCによる係り受け訓練で,近接する同種のトークンは,並列関係になりやすいことが学習されることで数式の並列を含む構造が正しく解析されやすくなる. ## 4.2 数式係り受けデータによる訓練でのみ 改善した例の分類 設定(2)から設定(3)で改善した誤りを分類した結果を表 6 に示す.「 「A は $B$ とする」型の誤りは,「A は」の文節が,「する」に係ってしまい,「A $B$ と (ともに何かを) する」という誤った解釈に対応する構造となるものである: ${ }^{4)}$ 条件が命令形に係る誤りとは,下図の様に「条件が成り立つとき(のみ)~せよ」という誤った解釈に対応する構造を出力する誤りである: 3)この項の図では,黒矢印は正解,赤矢印は設定(1),青矢印は設定(2)で出力される係り受け関係を表す。 4)この項の図では,黒矢印は正解,赤矢印は設定(2),青矢印は設定(3で出力された係り受け関係を表す. 表 5 異なる数式表現による数式埋め込みの比較 表 6 数式係り受けデータを用いた訓練で改善した誤りの内訳 部分並列の解析誤りとは,「父は山,母は海が好きだ」の様な構造における解析誤りである: §4.1と $\$ 4.2$ で共通して多く見られた並列に関する誤りの改善例を比べると, 84.1 の改善例の多くでは並列要素が $2 \sim 3$ 個であるのに対し, $\$ 4.2$ の改善例では並列要素をそれ以上含むものが多かった. 表 7 に KTC と MDep における読点で区切られた名詞並列中の要素数の分布を示す. この形の並列は KTC では MDepに比べ少数で,かつ並列要素が少ないものが主である. このため, 多数の要素からなる並列構造に関する誤りは MRaw での MLM と KTC での訓練のみでは十分に改善できなかったと考えられる。 $「 A$ は $B$ とる」型の誤りおよび条件が命令形に係る誤りは,正解・誤りいずれの構造も文法的にありうるが,数学テキストで主である解釈に対応する方の構造が,新聞では出現しにくいため,MDep での学習によりはじめて改善されたと考えられる. また,部分並列の解析誤りは,この構造が KTCでは $1 \%$ 未満の文しか出現しないのに対し, 数学テキストでは頻出すること,さらに「母は海が好きだ」 に対する正しい構造が「父は山,」が付加されること で誤りになるという特殊性により,KTC のみでの係り受け訓練では改善されにくかったと考えられる。 ## 4.3 異なる数式表現による数式埋め込みの 比較 数式を [MATH] で表す単純な方式が,数式の構成要素まで考慮する方式を上回った理由を探るため, [MATH] 方式および ExprBERT による数式の埋め込みを観察した。表 5 に,(1) “ 2 次関数 $y=a x^{2}+b x+c$ の..."および $(2)$ “. .2 点 $(0,4),(2, k)$ を...”の下線部の数式を,文脈とともに設定(2)の BERT に入力した時と,文脈なしで ExprBERT に入力した時に得られる埋め込みと $\cos$ 距離が近くなる入力を示した. 表 5 より,入力 (1)に対しては,ExprBERTによる数式埋め込みでは, 2 次関数に加え 3 次関数の埋め込み,[MATH] 方式では,2 次関数との類似度が高いことが分かる。 入力 (2)に対しては, ExprBERTによる数式埋め込みでは,座標の埋め込み,[MATH]方式では,点を表す変数との類似度が高いことが分かる.5) これらの例より,[MATH] 方式による数式埋め込みは,係り受け解析を目的とする場合,数式の特徴を十分に捉えていることがうかがえる. よって,数式の表現が単一の特殊トークン [MATH] であっても,文脈によって数式同士の類似度が予測できるため,より複雑な ExprBERT による数式埋め込みと同等以上の効果があったものと思われる。 ## 5 おわりに BERT の分野適用を行う場合,数式を専用の特殊トークンで表す方式が最も構文解析精度が高いことがわかった. さらに,BERT の分野適用のみで,数式を含む構造に関する誤りが多く改善されることがわかった。しかし, fine-tuningに用いた注釈付き新聞テキストで低頻度な構造は改善されにくいことがわかった。 $ 座標のみの数式である. } ## 謝辞 数学問題テキストを提供頂いた広松芳紀様および数学テキスト係り受けデータを提供頂いた「ロボットは東大に入れるか」プロジェクトの皆様に深く感謝いたします. ## 参考文献 [1] 柴田知秀, 河原大輔, 黒橋禎夫. Bert による日本語構文解析の精度向上. 言語処理学会第 25 回年次大会, 2019. [2] Jenna Kanerva, Filip Ginter, and Sampo Pyysalo. Dependency parsing of biomedical text with bert. In BMC Bioinformatics, 2020. [3] https://github.com/cl-tohoku/ bert-japanese. [4] 広松芳紀. 大学入試数学問題集成, 2022. https: //mathexamtest.web.fc2.com/index.html. [5] 黒橋禎夫, 長尾眞. 京都大学テキストコーパス・ プロジェクト. 言語処理学会第 3 回年次大会, pp. 115-118, 1997. [6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. In North American Chapter of the Association for Computational Linguistics (NAACL), 2019. [7] Timothy Dozat and Christopher D. Manning. Deep biaffine attention for neural dependency parsing. In 5th International Conference on Learning Representations, ICLR 2017, Toulon, France, April 24-26, 2017, Conference Track Proceedings, 2017. [8] 工藤拓, 松本裕治. チャンキングの段階適用による係り受け解析. 情報処理学会, 2002. ## 6 付録 ## 6.1 BERT の分野適応の手順 パラメータ最適化の最大エポック数は 50 で,検証データに対するロスが最小になるエポック数を選んだ. ミニバッチサイズは 16 とした. 最適化手法として AdamW を用い,学習率は $5 \times 10^{-5}$ とした. ## 6.2 係り先予測 fine-tuning の手順 最大エポック数を 5 とした以外は 86.1 と同じ設定でパラメータ最適化を行った. ## 6.3 BERT の分野適応により改善した誤りの実例 以下では,黒矢印は正解,赤矢印は設定(1),青矢印は設定(2)で出力された係り受け関係を表す. 図 1 並列された数式との同格関係に関する誤りの実例 1 図 2 並列された数式との同格関係に関する誤りの実例 2 図 3 数式の並列の解析誤り 図4 ガ格を持たない命令形に関する誤り ## 6.4 数学係り受けデータを用いた訓練で改善した誤りの実例 以下では,黒矢印は正解,赤矢印は設定(2),青矢印は設定(3で出力された係り受け関係を表す. 図 $5 「 A$ は $B$ とする」型の誤り,部分並列の解析誤りの実例 図 6 条件が命令形に係る誤りの実例
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C1-4.pdf
# 実世界の文書に対する構文解析器の疑似評価 金山博宮本 晃太郎 日本アイ・ビー・エム株式会社東京基礎研究所 \{hkana,kmiya\}@jp.ibm.com ## 概要 本研究では、構文解析器の実応用上での性能を、 ドメイン特有の名詞句の構造に着目して推定する手法を示す。構文構造を付与したコーパスに比して、当該ドメインの専門用語のリストは低コストで取得でき、それらが部分木を形成するかをもって、解析器が重要な句を認識する能力を調べる。これによって、ドメインに特化した観点で複数の解析器の性能を比較することや、実用性を大きく損なう現象に注目して解析器をチューニングすることが可能となる。2つのドメインで 5 つの解析器の性能を測る実験では、一般のベンチマーク上のスコアとは異なる傾向が観測され、実用の観点で考慮すべき点が示唆された。 ## 1 はじめに 文区切り・単語区切り・品詞タグ付け・依存構造解析などを行う自然言語の解析器はさまざまな場面で利用されており、Universal Dependencies (UD) $[10,9]$ など各言語のリソースが整備され、学習や評価に使われるようになった。しかし、実応用の場面で入力される文書は、特殊な語彙や文体を含むことが多く、それらに対して既存の解析器が好適な結果を出力できているとは限らない。例えば、自動車の不具合の報告の中の文 (1) ${ }^{1}$ は、(1a) の構造2) を持ち、 このように “check engine light” が複合名詞句として認識されれば、事物と動作の関係が抽出できて、現象の把握に役立つ。 (1) Check engine light came on. しかし、ある解析器の出力では (1b) のように、 1)「エンジンを確認せよという警告が点灯する」の意。 2) comp. は compound ラベルを示す。 “check”が動詞とタグ付けされることにより名詞句の部分が部分木を構成せず、文全体の構造が乱れていた。これは後段の処理の大きな障害となりうる。 *(1b) このように特定の分野の文書に対して解析器を適用して、意味役割付与 [1] や評価表現抽出 [6] などの後段の処理をする局面で、現存する解析器が充分な性能を出せているだろうか。その性能は UD のコー パス上でのベンチマークによって測ることができているだろうか。特に、複数の解析器やその様々なモデルのうち最も適したものを用いたい時に、どれを選択すれば望ましい出力が得やすいか。これらの質問に答えるための正確な測定には、当該分野の文書に構文構造を付与したコーパスを用いることが望ましいが、そのようなコーパスは存在しないし、それを逐一作成するコストは膨大である。 一方で、テキストマイニングの運用の局面では、 しばしば当該分野で検索や分析の対象となる辞書を作成したり [7, 13]、既存のオントロジーを流用するなどして、名詞句や固有名詞が列挙されたリソー スが存在することが多い。文 (1)における“heck engine” ないし “check engine light”がそれに該当する。これらの句が当該分野の文書中に現れた場合、 (1a) のように構文木の中で部分木を構成するはずである。一方、(1b) のように句が分断されている場合、解析器の明らかな出力誤りである場合が多い。 本論文では、分野特有の名詞句に対する解析結果の構造を調べることによって、構文構造のアノテー ションに頼らずに解析器の実応用における性能を推定する方法を提案する。これによって、一般のベンチマーキングとは異なり、実応用の観点で複数の解析器の性能を比較することや、実用性を大きく損なう現象に絞って解析器のチューニングを行うことができるようになる。 表 1 分野名詞句の例。 ## 2 分野名詞句辞書 いわゆる複数語表現(MWE)で名詞的なもの [3] のうち、特定の分野で頻出する専門用語や固有名詞をここでは分野名詞句と呼ぶ。表 1 に、自動車の不具合のレポートと、サービスの契約書の各ドメインの分野名詞句の例を示す。分野名詞句は次のような性質を持つ。 1. 専門用語や固有名詞のリストであるため、これらの語が文書中の表層上に現れた場合は、曖昧性が少なく、文脈により異なる解釈がされることは稀である。 2.これらの語は、情報検索や関係抽出など、当該分野の文書を処理する上で重要であり、品詞タグ付けや構文解析に失敗すると、構文解析結果の有用性が大きく損なわれる。 それらを列挙した辞書のことを、分野名詞句辞書と呼ぶ。分野名詞句辞書は、各分野の専門家が分析等の目的で既に作成済であることが多く、そうでなくてもテキストマイニングにより頻出する語やフレーズを集計するなどで半自動的に構築したり、重要キーフレーズの教師なし学習 [4] により獲得することができるなど、その構築自体に大きなコストはかからないという状況を想定している。 ## 3 名詞句の構文構造 2 節で示した分野名詞句が、特定の分野の文の構文解析結果の中でどのような構造になっていると望ましいか、逆にどのような構造が出力されたら解析に失敗していると推定されるかを考える。そのために、分野名詞句と表層が一致した部分の構文木の形を以下の 6 種類に分類する。 right 分野名詞句の多くは、例 (2) の “safety concern” の部分 ${ }^{3}$ のように、compound のラベルで結ばれ 3)分野名詞句辞書に含まれる複合語と符合した部分を四角の枠で示す。 る複合名詞となっている。このように、分野名詞句の中で、最も右の語が主辞であり、その中の他のすべての語が名詞句内の語に係っている形を right と呼ぶ。 (2) left 固有名詞の場合、(3)のように、flat や nummod のラベルで左側が主辞となる構造となることが一般的である。このように、最も左の語が主辞であり、その他の語が名詞句内の語に係る形を left と呼ぶ。 (3) mid 3 語以上からなる分野名詞句の場合、それらの組み合わせにより、(4)のように主辞が中間に位置することがある。この形を mid と呼ぶ。 (4) same 分野辞書にある名詞句が、さらに大きな名詞句の一部として出現する場合がある。構文解析器の出力 (5) では、“warning light” が分野名詞句として検出された。しかし “warning light message”がより大きな複合名詞であり、解析結果でも “warning”と “light” の双方が “message” に compound ラベルで係る形となっていることから、“warning light”に着目すると、その中で係り受けが閉じていない。厳密には “warning” と “message” の係り受けは正しくないが、名詞句の内部構造を正確に捉えることは難しく4)、 “warning light message” が部分木を成せば全体の構文構造に破綻をきたすほどではないと考えて、エラーとしては検出しないこととする。このように、分野名詞句のそれぞれの語が外側の同じ語に係っている構造を same と呼ぶ。 4)UD のコーパスの中でも、 3 語以上の flat や compound の内部構造は詳細にアノテートされていない。 図 1 other となる例。分野名詞句 “stop light” の構造が分断されている。 conj 並列句において、名詞句の構造が分断される場合も考慮する。(6) では、“repair shop”が分野名詞句であるが、“dealer”と “repair”が並列構造をなして“shop”に係る構造となっており、左側主辞の原則により係り受けが分断されているが、これは構文構造として正しい。このような場合、“dealer shop”が分野名詞句辞書にあるなら、並列構造が正しいとみなして、解析誤りではないと判定する。このようなケースを conj と呼ぶ。 (6) other これまでの分類に属さないものが other である。(1b)のように品詞タグ付けの誤りに起因するものや、図 1 のように名詞句が分断される場合などが該当し、これらを潜在的に重大な解析誤りであると捉える。 また、(7) の並列構造では、検出された分野名詞句 “steering wheel” の構文構造が分断されているが、これは “truck”と“steering”が並列とみなされるという誤った解析結果によるものである。“truck wheel”という語が分野名詞句辞書に無いことから、これも other に分類され、解析誤りであるとみなせる。 *(7) ## 4 評価実験 本節では、英語の 2 つの分野を題材に、 3 節の基準で other と分類される分野名詞句の潜在的な解析誤りの量を調べることによって、当該分野における解析器の有用性を評価する。また、一般のベンチマークと比較して、各解析器の評価結果の傾向にどのような差異があるかを調べる。表 2 解析器 $A \sim E$ の単語区切り (Words) ・品詞タグ付け (UPOS) ・係り受け解析 (UAS, LAS) の精度 (F1 值) を UD_English-EWT コーパスで測定したもの。 ## 4.1 分野のデータ まず、自動車分野のデータとして、National Highway Traffic Safety Administration (NHTSA) [2] が収集・公開している「Consumer Complaints」 5)のうちの 10,000 レコードを用いた。 また、法的契約文書のデータとして、CUAD [5] データセット6)のうちの「2020」ディレクトリから抽出された 10,000 レコードを用いた。 分野名詞句辞書として、自動車分野では分析に用いていた既存の辞書にある 3,942 個の名詞句を活用した。契約書分野では文書集合中で連続して単語の先頭が大文字で書かれる頻度が高い名詞句 924 個を抽出した。それらの例は表 1 に示した通りである。 ## 4.2 解析器 英語の解析器として、ここでは、UDPipe 2 [12] の UD_EWT 2.6 モデル、Stanza 1.0.0 [11]、Trankit 1.0 .0 [8]、および 2 つの内製の解析器を含めた 5 つを比較する。なお、各解析器の優劣を議論することは本論文の趣旨ではないので、以下ではこれらの順序を変えて解析器 $A \sim E$ と表記する。 これらの解析器をUD_English-EWT のテストデー タで評価した結果を表 2 に示す。品詞タグ付け・依存構造解析とも、B, D, E の值が高い。UAS, LAS が最も高い B は単語区切りの性能の高さによることもあり、D, E と本質的な性能に大きな差はない。 EWT コーパスにはさまざまな特殊な現象がある 5) https://www.nhtsa.gov/nhtsa-datasets-and-apis\# complaints 6) https://paperswithcode.com/dataset/cuad 表 3 各解析器の自動車分野での名詞句の構造の頻度。括弧は other となる割合を示す。 表 4 契約書分野での名詞句の構造の分類。 ことが知られており [14]、UD のベンチマークと実応用での有用性には乘離がある可能性がある。この後の評価では分野のコーパスを用いて検証を行う。 ## 4.3 評価結果 表 3 と表 4 に、 2 つの分野の文書での分野名詞句の構造の頻度を示す。other となる場合が潜在的な解析誤りであるとして、その割合を付記してある。解析器 A を除いて両分野で right が $90 \%$ を超えている通り、分野名詞句の大半は複合名詞として認識されている。A では他よりも left ・ mid が多いが、複合名詞が左主辞の固有名詞と解釈される場合がほとんどで、それらは分析に大きな支障はない。解析器 C は same が多く、より広い範囲の複合名詞と捉える傾向がある。 other の割合は契約書のほうが多い。フォーマルな文体ではあるものの長い文が多いことから解析が難しいことがわかる。また、conj の頻度に並列句の多さが現れている。 これらを表 2 で見た性能と比較すると、解析器 C は LAS のスコアが最も低いのに other の割合は小さく、特に契約書分野ではエラーの割合が最も低い。契約書分野では UD 上の係り受けの誤り率7) と other の割合が負の相関を持っており、解析器の実データ上での性能は UD-EWT でのベンチマークでは測定できていないといえる。  表 5 各構造と実際の誤りの関係。 表 6 誤りの頻度の多い分野名詞句の例。 ## 4.4 擬似評価の妥当性 other の検出による性能の評価が妥当であるかを知るために、各カテゴリの名詞句の構文構造が実際に正しいかどうかを、自動車分野の文に対する解析器 $A \sim E$ の解析結果から 40 件ずつサンプリングして調査した。表 5 にその結果を示す。これより、other の分類によって分野名詞句の誤りを検出することの適合率は $95 \%$ (=2/40)、再現率は各カテゴリの頻度を考慮して $78.4 \%(=(49.8 / 40) /(63.5 / 40))$ と計算され、簡単な方法でありながら名詞句周辺の解析誤りを正しく捉えられているといえる。 ## 4.5 誤りの典型例 表 6 に、解析器 A が各分野で other となった分野名詞句のうち頻度が高いものを示す8)。自動車分野では “warning”や“steering” などが動詞とみなされることによる誤りが目立つことなどがわかり、複合語を集約して一語とみなすなどの前処理によって解析誤りを防ぐことができる。契約書分野でも、解析に支障をきたす専門用語が見出された点が興味深い。 ## 5 まとめ 本論文では、実応用上での解析器の性能を、分野特有の名詞句の解析結果に着目して推定する手法を示した。これにより、新たなコーパスを作成するコストをかけずに、一般のベンチマークとは別の観点で、当該分野の文書の解析において最も好ましい解析器やモデルを選択することができるようになった。また、後段の処理で致命的になりうる典型的な誤りを検知することができて、有用な解析器を実現するための示唆が得られた。  ## 参考文献 [1] Xavier Carreras and Lluís Màrquez. Introduction to the CoNLL-2005 shared task: Semantic role labeling. In Proceedings of the ninth conference on computational natural language learning (CoNLL2005), pp. 152-164, 2005. [2] Monica G. Eboli, Catherine M. Maberry, Ian A Gibbs, and Ramsi Haddad. Detecting potential vehicle concerns using natural language processing applied to automotive big data. In Proceedings of the 26th International Technical Conference on the Enhanced Safety of Vehicles (ESV), 2019. [3] Meghdad Farahmand, Aaron Smith, and Joakim Nivre. A multiword expression data set: Annotating non-compositionality and conventionalization for English noun compounds. In Proceedings of the 11th Workshop on Multiword Expressions, pp. 29-33, Denver, Colorado, June 2015. Association for Computational Linguistics. [4] Xiaotao Gu, Zihan Wang, Zhenyu Bi, Yu Meng, Liyuan Liu, Jiawei Han, and Jingbo Shang. UCPhrase: Unsupervised context-aware quality phrase tagging. In KDD'21: The 27th ACM SIGKDD Conference on Knowledge Discovery and Data Mining, August 14-18, 2021, Vol. 2021, 2021. [5] Dan Hendrycks, Collin Burns, Anya Chen, and Spencer Ball. CUAD: An expert-annotated NLP dataset for legal contract review. In J. Vanschoren and S. Yeung, editors, Proceedings of the Neural Information Processing Systems Track on Datasets and Benchmarks, Vol. 1, 2021. [6] Hiroshi Kanayama and Ran Iwamoto. How Universal are Universal Dependencies? Exploiting Syntax for Multilingual Clause-level Sentiment Detection. In Proceedings of the 12th Language Resources and Evaluation Conference (LREC 2020), pp. 40634073, 2020. [7] Tetsuya Nasukawa and Tohru Nagano. Text analysis and knowledge mining system. IBM Systems Journal, Vol. 40, No. 4, pp. 967-984, 2001. [8] Minh Van Nguyen, Viet Dac Lai, Amir Pouran Ben Veyseh, and Thien Huu Nguyen. Trankit: A light-weight transformer-based toolkit for multilingual natural language processing. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: System Demonstrations, pp. 80-90, Online, April 2021. Association for Computational Linguistics. [9] Joakim Nivre, Marie-Catherine de Marneffe, Filip Ginter, Jan Hajič, Christopher D. Manning, Sampo Pyysalo, Sebastian Schuster, Francis Tyers, and Daniel Zeman. Universal Dependencies v2: An evergrowing multilingual treebank collection. In Proceedings of the 12th Language Resources and Evaluation Conference (LREC 2020), pp. 4034-4043, Marseille, France, May 2020. European Language Resources Association. [10] Joakim Nivre and et al. Universal Dependencies v1: A multilingual treebank collection. In Proceedings of LREC, Portorož, Slovenia, 2016. [11] Peng Qi, Yuhao Zhang, Yuhui Zhang, Jason Bolton, and Christopher D. Manning. Stanza: A python natural language processing toolkit for many human languages. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 101-108, Online, July 2020. Association for Computational Linguistics. [12] Milan Straka and Jana Straková. Tokenizing, POS tagging, lemmatizing and parsing UD 2.0 with UDPipe. In Proceedings of the CoNLL 2017 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies, pp. 88-99, Vancouver, Canada, August 2017. [13] 那須川哲哉, 吉田一星, 宅間大介, 鈴木祥子, 村岡雅康, 小比田涼介. テキストマイニングのための辞書構築, 第 2 章, pp. 27-58. テキストマイニングの基礎技術と応用. 岩波書店, 2020. [14] 金山博, 大湖卓也. UD_English-EWT との付き合い方. 言語処理学会第 28 回年次大会予稿集, March 2022.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C1-5.pdf
# 平仮名 BERT を用いた平仮名文の分割 井筒順 1 古宮嘉那子 2 新納浩幸 3 1 茨城大学大学院理工学研究科情報工学専攻 2 東京農工大学工学研究院 3 茨城大学大学院理工学研究科情報科学領域 21nm707h@vc.ibaraki.ac.jp kkomiya@go.tuat.ac.jp hiroyuki.shinnou.0828@vc.ibaraki.ac.jp ## 概要 既存の日本語の形態素解析システムの性能は非常に高いが、これらシステムは漢字仮名混じりの文を対象にしているため、平仮名で書かれた文を単語分割することは難しい。本論文では漢字以外の文字、 つまり平仮名、数字、記号からなる文字べースの unigram BERT と bigram BERT を作成し、これらを利用して二種類の平仮名文の単語分割システムを構築した。これらを KyTeaを利用した平仮名分割システムと比較したところ、unigram BERTによる平仮名分割システムの性能が最も高くなったことを示す。 ## 1 はじめに 日本語には $\mathrm{MeCab}^{1)}$ や Chasen ${ }^{2}$ 等の形態素解析システムが存在している。これらのシステムの性能は非常に高いが、漢字仮名混じりの文を対象にしているため、ほとんど全てが平仮名で書かれた文3)を単語分割することは難しい。 日本語初学者が最初に習得するのは平仮名であり平仮名で構成された文章を読む機会が多い。しかし平仮名で構成された文章を滞ることなく読むことは日本語の母語話者であっても難しい。 本稿では BERT を利用した 2 種類の平仮名文の分割システムを作成しその性能評価を行う。さらに、 $\mathrm{KyTea}^{4)}$ を用いた平仮名文 KeyTea 単語分割システムを作成し、作成した 2 種類の BERT による平仮名文の単語分割システムと比較する。 ## 2 関連研究 工藤ら [1] は,平仮名交じり文が生成される過程を生成モデルを用いてモデル化した。そして、その 1) https://taku910.github.io/mecab/ 2) https://chasen-legacy.osdn.jp 3)数字や記号は含まれている。 4) http://www. phontron.com/kytea/ パラメータを大規模 Webコーパスと EM アルゴリズムで推定することで、平仮名交じり文の解析性能を向上させる手法を提案している。また、林ら [2] は平仮名語の単語を辞書に追加することで形態素解析の精度が向上することを報告している。井筒ら [3] は $\mathrm{MeCab}$ の ipadic 辞書を平仮名に変換し、平仮名のみで構成されたコーパスを用いることで平仮名のみの文での形態素解析を行っている。さらに、井筒ら [4] は Bi-LSTM CRF モデルを用いた平仮名文の形態素解析を行い、複数のジャンルの文に対して複数回、学習とファインチューニングを行うことで形態素解析の性能にどのように変化を与えられるかを報告している。また、森山ら [5] は RNNLMを用いたべた書きかな文の形態素解析を行ない、その性能が単語分割と単語素性の全てを正解とする最も厳しい基準において従来手法を有意に上回ることを報告している。さらに、森山ら [6] は RNN とロジスティック回帰を用いた平仮名文の逐次的な形態素解析手法を提案し、平仮名文における形態素解析の性能向上とシステムの高速化を報告している。 分野に特化した BERTを作成する研究として代表的なものには鈴木ら [7] の研究がある。これは、金融文書を用い金融に関する文に特化した BERTを作成したことを報告する論文である。鈴木らは、汎用言語コーパスを用いて事前学習を行った BERT モデルに対して、金融コーパスを用いてファインチュー ニングを行うことが有効であるかの検証を行なっている。 本論文は井筒 $[8]$ を再実験し、追加実験と考察を加えたものである。 ## 3 提案手法 本稿では平仮名文に特化した 2 種類の平仮名 BERT モデルを生成し、それぞれを利用して平仮名文の単語分割システムを作成した。平仮名 BERT モ デルのうち、1つ目のモデルは unigram BERT モデルである。これは平仮名の文字 unigram で構成された文集合を事前学習に利用して生成した BERT モデルである。2つ目のモデルは bigram BERT モデルである。これは平仮名の文字 bigram で構成された文集合を事前学習に利用して生成した BERT モデルである。我々は上記 2 つのモデルを平仮名文の単語分割のデータを使ってファインチューニングすることで、平仮名の文の単語分割システムを作成した。本研究では、これら 2 つの平仮名文の単語分割システムの $\mathrm{F}$ 值を比較する。さらに、KyTeaによる平仮名文の単語分割のモデルを作成し、上記 2 つの平仮名文の単語分割システムの $\mathrm{F}$ 値と比較する。 ## 3.1 unigram BERT 単語分割システム unigram BERT は、事前学習用データとして平仮名の文字 unigram で構成された文を利用した BERT モデルである。Wikipedia の漢字仮名交じり文を平仮名に変換し、さらに文字 unigram に分かち書きしたデータを事前学習用のデータとして使用した。この unigram BERT に対し、平仮名文の単語分割のデー タを使ってファインチューニングすることで、平仮名文の単語分割システムを作成した。これを以降、 unigram BERT 単語分割システムと呼ぶ。 ## 3.2 bigram BERT 単語分割システム bigram BERT は、事前学習用データとして、平仮名の文字 bigram で構成された文を利用した BERT モデルである。Wikipedia の漢字仮名交じり文を平仮名に変換し、さらに文字 bigram に分かち書きしたデータを事前学習用のデータとして使用した。この bigram BERT に対し、平仮名文の単語分割のデー 夕を使用してファインチューニングをすることで、平仮名文の単語分割システムを作成した。これを以降、bigram BERT 単語分割システムと呼ぶ。 4 ## データ ## 4.1 Wikipedia による事前学習用データ 2 種類の平仮名 BERT を作成するための事前学習 本データの作成方法は以下である。まず、 Wikipedia の漢字仮名交じり文を MeCabを利用して 5) https://dumps.wikimedia.org/jawiki/latest/ 6) jawiki-latest-pages-articles.xml.bz2形態素解析し、形態素解析結果における読み部分を利用することで平仮名のみで構成された文を得る。 MeCab の辞書には Unidic を利用した。MeCab の読みデータから作成しているため、出力される平仮名文は、正確な平仮名文ではなく、疑似的な平仮名文である。次に、平仮名のみで構成された文を文字 unigram の形と文字 bigram の形に変換した。ただし、bigram の終端における文字列は、unigram との文字数を揃えるために、句点に文字種「*」を追加した「。*」としている。最後に、文の行頭と行末に対してそれぞれ [CLS] タグと $[\mathrm{SEP}]$ タグを付与した。 上記の操作により 300 万文の Wikipedia による事前学習用データを得た。 ## 4.2 Wikipedia による平仮名文の単語分か ち書きデータ unigram BERT と bigram BERT におけるファインチューニングに利用するデータとして、Wikipedia による平仮名文の単語分かち書きデータを作成した。本データは、 $\mathrm{MeCab}$ の単語分割結果を信じ、その平仮名表記を利用して作成した。また、単語分割を二値分類として処理するため、分割対象位置の文字を 1、それ以外の文字を 0 とするタグデータを作成した。 上記の操作により 100 万文の Wikipedia による平仮名文の単語分かち書きデータを得た。 ## 4.3 日本語書き言葉コーパスによる平仮名文の単語分かち書きデータ 日本語書き言葉コーパス (以下 BCCWJ[9] と記す) のコアデータは人手により単語に分けられたデー タであるので、これを利用することにより正確な平仮名文を作成することが可能となる。BCCWJコアデータを平仮名の分かち書きに変換したデータを平仮名文の単語分割システムのファインチューニング用のデータおよびテストデータとして利用する。 本データの作成方法は以下である。まず BCCWJ のコアデータの読み情報を利用し、ほぼ平仮名で構成された文に変換した。次にそれらの文を文字 unigram の形と文字 bigram の形に変換した。文字 unigram の形に変換したデータは unigram BERT のファインチューニング用のデータとして利用し、文字 biram の形に変換したデータは bigram BERT のファインチューニング用のデータとして利用する。 また BCCWJ のコアデータの単語区切りを利用し単語分割を二値分類として処理するための、分割対象位置の文字を 1 、それ以外の文字を 0 とするタグ データを作成した。上記の操作により 40928 文の BCCWJによる平仮名の分かち書きデータを得た。 unigram BERT 作成及び bigram BERT 作成において使用した語彙の総数はそれぞれ 300 と 80956 である。語彙には平仮名、片仮名、アルファベット、数字、複数の記号が含まれている。 ## 5 実験 作成した 2 種類の BERT における平仮名文の単語分割の $\mathrm{F}$ 值がファインチューニング時のデータ量とデータの種類によりどのように変化するのかを検証するために 2 つの実験を行った。 また二つの提案手法と比較するために、KyТeа を用いて平仮名文の単語分割システムを作成した。これを以降、平仮名 KyTea 単語分割システムと呼ぶ。 KyTea は単語分割および読み推定の機能を持つシステムである。部分的アノテーションから学習をすることが可能であり、点予測を利用して文の解析を行う。学習には、二つの提案手法による単語分割システムのファインチューニングに利用したデータと同内容のものを用いた。ただし、フォーマットは KyTea に合うように変形した。 作成した単語分割システムは、テストデータに対する正解率、適合率、再現率、 $\mathrm{F}$ 値を評価した。 ## 5.1 実験 1:BCCWJによるファインチュー ニングの実験 この実験では、正確な平仮名文の単語分割情報のデータを利用して、2 種類の BERT 単語分割システムの $\mathrm{F}$ 値を平仮名 KyTea 単語分割システムの $\mathrm{F}$ 値と比較する。300万文の Wikipedia による事前学習用データを利用して平仮名 BERT を作成し、 40928 文の BCCWJによる平仮名文の単語分かち書きデー 夕を用いて単語分割システムの 5 分割交差検定を行った。また平仮名 KyTea 単語分割システムについても、 2 種類の BERT 単語分割システムと同様のデータを用いて、 5 分割交差検定を行った。ただし、平仮名 KyTea 単語分割システムには、事前学習した BERTを用いていない。 次に、本実験において BERT の事前学習で使用したパラメータを表 1 に、ファインチューニングで使用したパラメータを表 2 に示す。 表 2 ファインチューニングにおけるパラメータ & & エポック数 & 50 \\ ## 5.2 実験 2: Wikipedia によるファイン チューニングの実験 この実験では、疑似データである Wikipedia の単語分割情報を大量に利用した、3つの単語分割システムの F 值を比較する。300 万文の Wikipedia による事前学習用データを利用して平仮名 BERTを作成し、ファイチューニングのデータとして 100 万文の Wikipedia による平仮名文の単語分かち書きデー タを利用して単語分割システムのファインチューニングを行った。なお、事前学習用のデータとファインチューニング用のデータの重複はない。一方で、実験 1 における事前学習データと実験 2 における事前学習データは同一のものを利用している。また、 unigram BERT 単語分割システムおよび bigram BERT 単語分割システムに利用した 100 万文の Wikipedia による平仮名文の単語分かち書きデータを利用し、平仮名 KyTea 単語分割システムを作成し、評価した。テストデータには 40 万文の Wikipedia のデータと 40928 文の BCCWJによる平仮名文の単語分かち書きデータをそれぞれ利用した。 実験 2 において BERT の事前学習で使用したパラメータおよびファインチューニングで使用したパラメータはどちらも epoch 数以外は実験 1 で利用したパラメータと同一である。実験 2 における epoch 数は 24 とした。 ## 6 実験結果 実験 1 : BCCWJによるファインチューニングの実験における各システムに対する 5 分割交差検定の正解率、適合率、再現率、 $\mathrm{F}$ 値を表 3 に示す。 表 3 実験 1 における各システムの結果 & & \\ 適合率 & $\mathbf{9 4 . 3 6}$ & 92.56 & 90.93 \\ 再現率 & $\mathbf{9 4 . 2 4}$ & 92.60 & 88.56 \\ F 値 & $\mathbf{9 4 . 3 0}$ & 92.58 & 89.66 \\ 表 3 から、unigram BERT 単語分割システムは平仮名 KyTea 単語分割システムと比較し、 $\mathrm{F}$ 值が 4.64 point 向上していることが分かる。また bigram BERT 単語分割システムは平仮名 KyTea 単語分割システムと比較して F 值が 2.92 point 向上している。さらに unigram BERT 単語分割システムは bigram BERT 単語分割システムよりも $\mathrm{F}$ 値が 1.72 point 高い。 次に、実験 2 : Wikipediaによるファインチューニングの実験の結果を表 4 に示す。 表 4 実験 2 : Wikipediaによるファインチューニングの実験における各システムの結果 & & \\ 表 4 から unigram BERT 単語分割システムは、平仮名 KyTea 単語分割システムと比較し、Wikipedia をテストデータとした場合は $\mathrm{F}$ 値が 5.69point 向上 し、BCCWJ のコアデータをテストデータとして利用した場合は $\mathrm{F}$ 値が 4.59point 向上していることが分かる。また bigram BERT 単語分割システムは、平仮名 KyTea 単語分割システムと比較し、Wikipedia をテストデータとした場合は $\mathrm{F}$ 值が 4.99point 向上し、BCCWJをテストデータとして利用した場合には F 値が 3.77point 向上していることが分かる。 さらに、unigram BERT 単語分割システムは bigram BERT 単語分割システムより高い $\mathrm{F}$ 値となった。 $\mathrm{F}$値の差は、Wikipediaをテストデータとした場合は 0.70point であり、BCCWJをテストデータとした場合は 0.82 point であった。 ## 7 考察 表 3 と表 4 より、実験 1 と実験 2 でそれぞれ作成した 2 つの平仮名 BERT 単語分割システムの $\mathrm{F}$ 值は、平仮名 KyTea 単語分割システムの $\mathrm{F}$ 值よりも高いことが確認できる。これにより、unigram BERT 単語分割システムと bigram BERT 単語分割システムが有効であるといえる。 次に、実験 1 と実験 2 の結果を比較する。BCCWJ をテストデータにした実験結果同士(表 3 と表 4 の BCCWJ の結果)を比較すると、実験 1 における 2種類の平仮名 BERT 単語分割システムの $\mathrm{F}$ 値の方が高い。これは、実験 1 のファインチューニングのデータはテストデータと同じ BCCWJであるが、実験 2 では Wikipeda のデータを利用しているためであると考えられる。特に、BCCWJでは正確な読みと単語分割の区切りの情報を利用しているが、 Wikipedia は疑似データゆえに、Wikipedia データの質は BCCWJ よりも低いと考えられる。実験 1 で利用した BCCWJ は約 4.5 万件であるのに対して実験 2 で利用した Wikipedia のデータは 100 万文であることを考えると、ファインチューニングにおける疑似データの量を増やしても、テストデータと同ドメインの正確なデータには及ばないことが分かる。 一方で、大量の Wikipedia の疑似データを与えた際、同 Wikipedia のテストデータに対する正解率は 99\%を超える(表 4)。そのため、テストデータと同じドメインで、なおかつテストデータと整合性のある単語分割の情報をもつ大量のデータを利用してファインチューニングした場合には、かなり単語分割の評価値が高くなることが分かる。 ## 8 おわりに 本研究では、平仮名文に特化して学習した 2 種類の BERTを利用した文単語分割システム、unigram BERT 単語分割システムと bigram BERT 単語分割システムを作成した。このシステムは BERT の事前学習として、MeCabを利用して Wikipedia の平仮名文のデータから作成した文字 unigram または文字 bigram のデータを利用し、平仮名文の単語分かち書きのデータでファインチューニングを行うことで作成したものである。BCCWJ のコアデータを利用した五分割交差実験と、Wikipedia のデータを利用したファインチューニングによる実験において、平仮名文の単語分割の $\mathrm{F}$ 值は共に KyTea を用いた平仮名文単語分割システムの $\mathrm{F}$ 値を上回った。また、 unigram BERT 単語分割システムと bigram BERT 単語分割システムの $\mathrm{F}$ 値を比較すると、unigram BERT 単語分割システムの方が $\mathrm{F}$ 值が向上した。これにはモデルの大きさに対する事前学習のデータ数が影響したと考えられる。 また、実験により、ファインチューニングに利用するデータは、大量のドメインの異なった疑似データよりも、少量のドメインの等しい、テストデータと整合性の取れたデータの方がよいことが分かった。 ## 謝辞 本研究は 2022 年度国立情報学研究所公募型共同研究(22FC04)と JSPS 科研費 $18 \mathrm{~K} 11421$ の助成を受けています。 ## 参考文献 [1] 工藤拓, 市川宙, David Talbot, 賀沢秀人. Web 上のひらがな交じり文に頑健な形態素解析. 言語処理学会第 18 回年次大会発表論文集, pp. 1272-1275, 2012. [2] 林聖人, 山村毅. ひらがな語の追加と形態素解析の精度についての考察析. 愛知県立大学情報科学部平成 28 年度卒業論文要旨, 2017. [3] 井筒順, 明石陸, 加藤涼, 岸野望叶, 小林汰一郎,金野佑太, 古宮嘉那子. Mecabによる平仮名のみの形態素解析. 言語処理学会第 26 回年次大会発表論文集, pp. 65-69, 2020. [4] Jun Izutsu and Kanako Komiya. Morphological analysis of japanese hiragana sentences using the bi-lstm crf model,. 10th International Conference on Natural Language Processing (NLP 2021), 2021. [5] 森山柊平, 大野誠寛, 増田英孝, 絹川博之ほか. Recurrent neural network language model を用いたべた書きかな文の形態素解析. 情報処理学会論文誌, Vol. 59, No. 10, pp. 1911-1921, 2018. [6] 森山柊平, 大野誠寛. Rnn とロジスティック回帰を用いた平仮名文の逐次的な形態素解析. 自然言語処理, Vol. 29, No. 2, pp. 367-394, 2022. [7] 鈴木雅弘, 坂地泰紀, 和泉潔, 石川康. 金融文書を用いた追加事前学習言語モデルの構築と検証.言語処理学会第 28 回年次大会発表論文集, pp. 588-592, 2020. [8] 井筒順, 古宮嘉那子, 新納浩幸. 平仮名 bert による平仮名文の分割. 研究報告自然言語処理 (NL), Vol. 2022-NL-253, No. 1, pp. 1-7, 2022. [9] Kikuo Maekawa, Makoto Yamazaki, Toshinobu Ogiso, Takehiko Maruyama, Hideki Ogura, Wakako Kashino, Hanae Koiso, Masaya Yamaguchi, Makiro Tanaka, and Yasuharu Den. Balanced corpus of contemporary written japanese. Language resources and evaluation, Vol. 48, No. 2, pp. 345-371, 2014. ## A 追加実験 実験 1 と実験 2 の結果において、2 種類の平仮名 BERT 単語分割システムの $\mathrm{F}$ 値を比較すると、 unigram BERT 単語分割システムの $\mathrm{F}$ 值がより良い結果であることが確認できる。bigram の方が unigram より情報量が多くなるため、我々は bigram BERT 単語分割システムの方が、unigram BERT 単語分割システムを上回ることを予想していたが、結果は逆であった。この理由としては、モデルの大きさに対応して必要になる学習データの差が考えられる。本研究において使用した平仮名 BERT の語彙数は unigram BERT 作成では 300 であり、bigram BERT 作成では 80956 であった。つまり語彙数に約 270 倍の差が存在する。その分、モデルは大きくなるため、必要な学習データも多くなると考えられる。ところが、 2 種類の平仮名 BERT 単語分割システムにおける事前学習で利用したデータ数はどちらも 300 万文であった。つまり、モデルの大きさに必要な学習データ量に対して bigram BERT には十分な学習デー タではなかった可能性があり、それが unigram BERT 単語分割システムの $\mathrm{F}$ 值が bigram BERT の $\mathrm{F}$ 値を上回った要因であると考えられる。 語彙数に大幅な差があることに着目し、我々は、実験 1 のテストデータから記号等の文字種を除いたデータを利用し、各システムの評価を再度算出した。実験 1 のテストデータから取り除かなかった文字種は、平仮名・片仮名・句点・読点・長音・符空白である。実験 1 のテストデータの各文に対して上記以外の文字種が含まれる文は評価せず、上記のみの文字種で構成された文を各システムに入力し、評価した。本追加実験における結果を表 5 に示す。 表 5 実験 1 においてテストデータから記号を除いた場合の各システムの結果 & & \\ 適合率 & $\mathbf{9 5 . 0 4}$ & 93.38 & 92.15 \\ 再現率 & $\mathbf{9 4 . 9 3}$ & 93.50 & 89.81 \\ F 値 & $\mathbf{9 4 . 9 9}$ & 93.44 & 90.91 \\ 表 5 より文字種を制限することにより全体的に F 值が向上していることが確認できる。特に、unigram BERT 単語分割システムと bigram BERT 単語分割システムにおける F 值の差は 1.55pointである。表3における 2 つの単語分割システムの $\mathrm{F}$ 値の差が 1.72 であったことから、テストデータにおける文字種を制限することで $\mathrm{F}$ 値の差が縮まっていることがわかる。 ## B 実験の可視化 実験 1 におけるシステム構築を可視化した図を図 1 に示す。また、実験 2 におけるシステム構築を可視化した図を図 2 に示す。 図1 実験 1 : BCCWJによるファインチューニングの実験 図 2 実験 2: Wikipedia によるファインチューニングの実験
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C10-1.pdf
# 思考連鎖指示における大規模言語モデルの否定表現理解 葉夢宇 1 栗林樹生 1,2 舟山弘晃 1,3 鈴木潤 1,3 1 東北大学 ${ }^{2}$ Langsmith 株式会社 ${ }^{3}$ 理化学研究所 \{ye.mengyu.s1, h.funa\}@dc.tohoku.ac.jp \{kuribayashi, jun.suzuki\}@tohoku.ac.jp ## 概要 近年,推論過程の出力を指示することで大規模言語モデルの性能が向上することが示された. しかし既存研究では,推論過程を経て生成された結論のみが評価されており,モデルがどのような推論過程を生成し, また過程から導かれる妥当な結論を下しているのかといった推論内容の大規模な分析は行われていない. 本研究では,言語モデルについて,推論過程を踏まえて結論を生成する能力を評価し,特に言語モデルが苦手としてきた否定表現の扱いに焦点を当てる. 実験を通して,最先端の 175B 言語モデルですら,推論過程に not が存在する場合,結論として noを生成するといった浅い理解に基づいた処理が行われている可能性を示す. ## 1 はじめに 近年,大規模言語モデルに少数事例を提示することで様々な言語タスクを解く, 少数事例指示 (few-shot prompting)[1]が注目を集めている. 特に最近では,推論過程を生成するようモデルに指示する思考連鎖指示 (chain of thought prompting) [2] の有効性が示された. 例えば,「大谷翔平選手が硬式ボールを投げた可能性はあるか」といった質問に対して,思考連鎖指示に基づく推論では,モデルはまず「大谷選手は野球選手であり, 硬式ボー ルは野球で投げるので...」といった推論過程を生成し, 続いて「はい」といった結論を導く. 既存研究では,思考連鎖指示のもと最終的に得られる結論の質が向上することは示されたものの,モデルが妥当な過推論程を生成しているのか, モデルの結論が過程と一貫しているのかといった推論過程の妥当性については十分に分析されていない. 本研究では,一連の思考指示を (i) 推論仮定を生成する段階と (ii) 与えられた過程から結論を出す段階に分解し, 評価の容易さから,まずは後者の与え問題:「大谷翔平選手が硬式ボールを投げた」はあり得そうか?推論過程を明示して答えよ。 推論過程 : 大谷選手は野球選手であり,硬式ボールは野球のみで投げるので, 図1 思考連鎖指示を元に,大規模言語モデルを用いて,否定表現が含まれる推論過程から論理的に適切な結論を導くことができるかを調査する られた過程から結論を導く能力について統制的に調査を行う.特に,言語モデルが苦手としてきた否定表現の処理に焦点を当て,only やnot といった否定表現が含まれる推論過程から論理的に適切な結論を導くことができるかを調査する(図 1). GPT-3(text-davinci-002,パラメータサイズ 175B) $[3,1]$ と OPT-66B (Open Pre-trained Transformer Language Models)[4]を含む大規模言語モデルを対象とした実験の結果,only,not,implausible といった表現に誤誘導 (mispriming) され,否定的な表現が推論過程に含まれるだけで,論理的な帰結に反してモデルの下す結果は大きく noに偏ることが観察された. この結果から,依然として深い言語理解に基づく論理的な推論が行われていないことが示唆された. ## 2 実験設定 評価したい能力: 思考連鎖指示では,少なくとも (i) 推論過程を生成し (ii) 推論過程を踏まえて結論を $ \begin{aligned} & \text { Determine whether an artificially constructed sentence } \\ & \text { relating to sports is plausible or not. } \\ & \text { Q: Is the following sentence plausible? "Bam Adebayo } \\ & \text { scored a reverse layup in the Western Conference Finals." } \\ & \text { A: Let's think step by step. } \\ & \text { Bam Adebayo is an American basketball player. Scoring a } \\ & \text { reverse layup only happens in basketball. So the answer is } \\ & \text { yes. } \\ & \text { Q: Is the following sentence plausible? "Santi Cazorla } \\ & \text { scored a touchdown." } \\ & \text { A: Let's think step by step. } \\ & \text { Santi Cazorla is a soccer player. Touchdowns are only } \\ & \text { happen in football. So the answer is no. } \\ & \text { Q: Is the following sentence plausible? "DeMar DeRozan } \\ & \text { was called for the goaltend." } \\ & \text { A: Let's think step by step. } \\ & \text { DeMar DeRozan is an American basketball player. } \\ & \text { Goaltending only happens in basketball. So the answer is } \\ & \text { yes. } \end{aligned} $ 図 2 少数事例指示文の例,緑色は推論過程の部分を表す 出力するという 2 つの能力が求められる. 本研究では,後者に焦点を当てて評価を行う,後者に焦点を当てる理由としては,yes/no の答えのみを出力する段階は分類問題であるため評価が比較的簡単であることと,この能力は思考連鎖指示が達成されるための必要条件であるため,最低限の要請として達成できることを期待したいという点があげられる. 問題設定: 例題として,「Pが A をした」という文の尤もらしさをモデルに自然言語で問う設定を採用した1)。ここでPは人名(player,スポーツ選手名), A は行動(action,ボールを踣るなど)を表し,推論過程ではPが何のスポーツ S の選手であるか,また A がそのスポーツS で行われているかを段階的に推論するシナリオを採用した。図 2 に示す通り,実際の問題は英語で書かれている. 実験では,問題と推論過程(So the answer is まで) をモデルに入力し,モデルが yes/no のどちらを回答するか分析することで,推論過程を踏まえて適切な結論を出力する能力を評価する.結論を導くステップでは「PはSの選手である,SではAしない. よってPはAしない」といった簡単な論理推論が求められている。この段階において,例えば推論過程に  $n o t$ のような否定表現が出現したら結論を no とするといった表層的な処理が行われているかを調査する. なお,推論過程はあらかじめ準備した適当なものを入力しており,ある人名があるスポーツの選手でありそうか,ある行動がそのスポーツで行われるかといった常識的知識をモデルに問わない。この点は 3.1 節でも更に対処する。 少数事例指示: 先行研究 [6] に倣い,タスクに関する説明と,問題文・模範的な推論過程・結論を合計 3 問をモデルに入力したのち,実際に解かせたい問題の問題文と推論過程を入力する.以降導入する否定語を挿入した設定などにおいても,指示文は共通のものを用いている。 モデル: 実験では,GPT-3(text-davinci-002,パラメータサイズ 175B) [3,1] と OPT(Open Pre-trained Transformer Language Models) [4] を用いた. OPT については Huggingface ${ }^{2)}$ 上に公開されているパラメータサイズの異なる 7 モデル (350M, 1.3B, 2.7B, 6.7B, 13B, 30B, 66B)を評価対象とした。 ## 3 実験 まず初めに,推論過程を踏まえて正しく回答できるかを精緻に問うため,常識知識ではなく推論過程を見なければ解けない問題設定を導入する (3.1 節).次に,否定表現の有無とモデルの振る舞いについて調査を行う (3.2 節). ## 3.1 事前実験: FICTION 設定の導入 設定 BIG-Bench の Sports understanding 問題 [5] から収集したデータセット (REAL) に加え,架空の選手名・スポーツ名から構成したデータセット(FICTION) を用意した (付録 A). 既存の REAL セットは実世界の常識に即した問題になっているが,本研究の関心のもとでは,モデルが正解した時に推論過程の内容を理解して結論を導いたのか,モデルが持つ常識知識に基づいて回答できたのかの切り分けが難しい.従って,推論過程を踏まえないと答えることのできない FICTION 設定を導入した。なお,正解ラベルの分布は $1: 1$ であることが期待されるが,乱数シードの都合上,REAL 設定では正解ラベルが yes の問題が 496 問,正解ラベルが no の問題が 504 問であり, FICTION 設定では正解ラベルが yes の問題が 495 問,  opt 表 1 結果(yes: yes の割合,no: no の割合) 正解ラベルが no の問題が 505 問である. 結果表 1 に各設定での正解率と, モデルが yes/no と回答した割合を示す.また前述の通り, データセット中の yes/no が回答である問題の比はおよそ $1: 1$ である。事前学習の知識が使えない FICTION 設定では全体的に正解率が下がり,特に OPT-30B および OPT-2.7B においては, 出力が yes か no のどちらかに大きく偏ることになった. このことから思考連鎖指示中には生成した推論過程のみでなく,モデルが有する知識も活用されていることが示唆され,推論過程の分析をする上で,事前知識が使えない設定を導入することの意義が確認された. 以降の実験では,FICTION 設定に編集を加えていく。 ## 3.2 実験: 否定語の影響 設定: 否定表現に関する 4 つの設定を導入する. ONLY 設定において,元の問題設定 [5] では,「P は $\mathrm{S}_{1}$ の選手である. A $\mathrm{S}_{2}$ で行われる. よって no」 というシナリオで問題が設計されているが,「Aが $\mathrm{S}_{2}$ で行われる」ことは「Aが $\mathrm{S}_{1}$ で行われない」ことを含意しないため, 厳密には曖昧性のある問題であった. そこで「Aが $\mathrm{S}_{2}$ のみで行われる」といった制限を導入することで,問題を解きやすくする。 Not 設定は,否定表現の意味合いを強まることの影響を調べるために導入する. Implausible+(Not)は FICTION 設定と同じ問題構成で,質問文や推論過程内の機能語を変えた場合でも,モデルがその変化に応じて正しい出力をするかを調査する. 各設定の概略を以下に示す. モデルには質問と,回答における \{はいいいえ $\}$ の直前までが入力される。また図 3 の例のように,実際はこれらの問題は英語で記述されている. ## ONLY 質問:「Pが A した.」という文はあり得そうか?回答: $P$ は $S_{1}$ 選手であり, $A$ は $\left.\{S_{1} / S_{2}\right.\}$ のみで行 Q: Is the following sentence plausible? "Judy Hogan set the pick and roll." A: Let's think step by step. Judy Hogan is a fileball player. Set the pick and roll only happens in caseball. So the answer is Q: Is the following sentence plausible? "Judy Hogan set the pick and roll." A: Let's think step by step. Judy Hogan is a fileball player. Set the pick and roll did not happen in fileball. So the answer is Q: Is the following sentence implausible? "Judy Hogan set the pick and roll." A: Let's think step by step. Judy Hogan is a fileball player. Set the pick and roll only happen in caseball. So the answer is Not+Implausible設定 Qogan set the pick and roll." A: Let's think step by step. Judy Hogan is a fileball player. Set the pick and roll did not happen in fileball. So the answer is 図 3 ONLy, Not, Implausible および Not+ImPlaUSIBLE の設定における入力文の例. われるので,\{はい/いえ\} ## Not 質問: 「PがALた.」という文はあり得そうか? 回答: $\mathrm{P}$ は $\mathrm{S}_{1}$ 選手であり,A $\left.\{\mathrm{S}_{1}\right.$ のみで行われる/ $S_{1}$ で行われない $\}$ ので,\{はい/いえ\} ## IMPLAUSIBLE 質問:「Pが A Lた.」という文はあり得ないか? 回答: $\mathrm{P}$ は $\mathrm{S}_{1}$ 選手であり, $A$ は $\left.\{\mathrm{S}_{1} / \mathrm{S}_{2}\right.\}$ のみで行われるので,\{いいえ/いい\}\}) ## IMPLAUSIBLE+NOT 質問: 「PがALた.」という文はあり得ないか? 回答: $\mathrm{P}$ は $\mathrm{S}_{1}$ 選手であり, $\mathrm{A}$ は $\left.\{\mathrm{S}_{1}\right.$ のみで行われる/ $S_{1}$ で行われない $\}$ ので,\{いいえ/はい\} $\}$ ## 3.3 結果・考察 表 2 に結果を示す. 全てのタスクにおいて, noが出力された問題の割合の大幅な上昇を観測した.この結果から, 出力が否定的な意味合いを持つ単語に誤誘導されていることが示唆される. ONLY 設定: この設定では,問題が明確化されたにも関わらず,FicTION 設定と比較すると no の生成率が高まることから,言語モデルは onlyによって誤誘  表 2 結果(yes: yes の割合, no: no の割合) 導されたことが確認された. この点からも,言語モデルが論理的な推論といった深い言語理解に基づいて思考連鎖指示をできているとは考えづらい. Noт 設定:この設定では,yes の問題は onlyを用いた ONLY 設定と同様のものを,noの問題は not を用いた推論過程に書き換えたものである. この設定でも FICTION 設定と比較すると no の生成率が高くなり,依然として否定語の扱いに苦戦していることが観察された。 ImPLAUSIble (+Not) 設定 : ImplAUSIBLE 設定と ImPLAUSIBLE+NOT 設定の共通点は, 少数事例指示文の部分に変更を加えずに, implausible かという質問に変更したことである。この 2 つの設定でも,FICTION 設定より多くの no が生成され, 否定表現に誤誘導され,GPT-3,そしてどんなパラメータ数の OPT に関しても,implausible という単語に誤誘導され,ほぼ noしか答えない現象が観察された。 以上の観察より,単なる否定的な単語の出現により,論理的に妥当な帰結に反して,言語モデルの回答は no に誤誘導されていくことが確認された.従って,思考連鎖指示では生成された推論過程に含まれる浅い特徴によって,結論を導いている可能性が示唆された。 ## 4 関連研究 思考連鎖指示による性能向上これまでの思考連鎖指示に関する研究では,主に最終的な結論の正当性が評価され,推論過程の妥当性に関しての大規模な評価は行われていなかった. 例えば, BIG-Bench [5] を代表とした横断的評価において,思考連鎖指示を用いることによって,多数のタスクにおいて人間の正解率を上回ったことが報告された [6]. 本研究は,結論の正当性と共に,推論の過程の妥当性や,モデルの推論におけるある種の癖を分析し たものであり,本研究の結果から,思考連鎖指示の評価の解像度を上げ,近年の言語モデルの能力について知見を深めることも期待される。 言語モデルにおける誤誘導効果と否定表現事前学習済み言語モデルでは,例えば Talk? Birds can [MASK] と入力すると Birds can talk と生成してしまうように,質問に直接関係のない単語に出力が誘導される誤誘導効果が報告されている [7]. アリストテレスの「命題論」では,全ての宣言文は肯定と否定のいずれかに分類されている [8], 否定表現は自然言語を扱うための重要な概念であるとされている。.否定表現に焦点を絞ったデータセットが多数存在している $[9,10,11,12]$. それらのデータセットを用いた評価結果から,否定表現を理解することは事前学習済みモデルにとって挑戦的なタスクであることが確認されている [13]. 本研究の結果では,推論過程や問題文に否定表現が含まれる際,最近の大規模言語モデルでも,no と結論を下してしまうような誤誘導効果が生じることを確認した。 ## 5 おわりに 本稿では,大規模言語モデルの推論能力の向上に寄与する思考連鎖指示を対象に,推論過程から結論を導く部分,特に否定表現に注目し,大規模言語モデルは妥当な推論過程を行なっているかどうかを検証した. GPT-3 とOPTを対象とした実験では,論理関係ではなく,否定表現が存在するからnoを生成するというような浅い推論を行なっている可能性を明らかにした。 今後はより多くの思考連鎖指示が有効とされるタスクに検証対象を拡張しさらに深堀りしていく.また,これまでに BERT [14] などを対象とした内部解析手法を用い,大規模言語モデルの内部挙動を分析する方向性も興味深い。 ## 謝辞 本研究は,JSPS 科研費 JP21H04901,JST ムーンショット型研究開発事業 JPMJMS2011 (fundamental research), JST 次世代研究者挑戦的研究プログラム JPMJSP2114 の助成を受けて実施されたものである. ## 参考文献 [1] Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, and et al. Language models are few-shot learners. In Hugo Larochelle, Marc'Aurelio Ranzato, Raia Hadsell, Maria-Florina Balcan, and Hsuan-Tien Lin, editors, Advances in Neural Information Processing Systems 33: Annual Conference on Neural Information Processing Systems 2020, NeurIPS 2020, December 6-12, 2020, virtual, 2020. [2] Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Ed H. Chi, Quoc Le, and Denny Zhou. Chain of thought prompting elicits reasoning in large language models. CoRR, Vol. abs/2201.11903, , 2022. [3] Long Ouyang, Jeff Wu, Xu Jiang, Diogo Almeida, Carroll L. Wainwright, Pamela Mishkin, Chong Zhang, Sandhini Agarwal, Katarina Slama, Alex Ray, John Schulman, Jacob Hilton, Fraser Kelton, Luke Miller, Maddie Simens, Amanda Askell, Peter Welinder, Paul F. Christiano, Jan Leike, and Ryan Lowe. Training language models to follow instructions with human feedback. CoRR, Vol. abs/2203.02155, , 2022. [4] Susan Zhang, Stephen Roller, Naman Goyal, Mikel Artetxe, Moya Chen, Shuohui Chen, Christopher Dewan, Mona T. Diab, Xian Li, Xi Victoria Lin, Todor Mihaylov, Myle Ott, Sam Shleifer, Kurt Shuster, Daniel Simig, Punit Singh Koura, Anjali Sridhar, Tianlu Wang, and Luke Zettlemoyer. OPT: open pre-trained transformer language models. CoRR, Vol. abs/2205.01068, , 2022. [5] Aarohi Srivastava, Abhinav Rastogi, Abhishek Rao, Abu Awal Md Shoeb, Abubakar Abid, Adam Fisch, Adam R. Brown, Adam Santoro, Aditya Gupta, Adrià Garriga-Alonso, and et al. Beyond the imitation game: Quantifying and extrapolating the capabilities of language models. CoRR, Vol. abs/2206.04615, , 2022. [6] Mirac Suzgun, Nathan Scales, Nathanael Schärli, Sebastian Gehrmann, Yi Tay, Hyung Won Chung, Aakanksha Chowdhery, Quoc V. Le, Ed H. Chi, Denny Zhou, and Jason Wei. Challenging big-bench tasks and whether chain-of-thought can solve them. CoRR, Vol. abs/2210.09261, , 2022. [7] Nora Kassner and Hinrich Schütze. Negated and misprimed probes for pretrained language models: Birds can talk, but cannot fly. In Dan Jurafsky, Joyce Chai, Natalie Schluter, and Joel R. Tetreault, editors, Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, ACL 2020, Online, July 5-10, 2020, pp. 7811-7818. Association for Computational Linguistics, 2020. [8] John L Ackrill and et al. Categories and De interpretatione. Clarendon Press, 1975. [9] Atticus Geiger, Kyle Richardson, and Christopher Potts. Neural natural language inference models partially embed theories of lexical entailment and negation. In Afra Alishahi, Yonatan Belinkov, Grzegorz Chrupala, Dieuwke Hupkes, Yuval Pinter, and Hassan Sajjad, editors, Proceedings of the Third BlackboxNLP Workshop on Analyzing and Interpreting Neural Networks for NLP, BlackboxNLP@EMNLP 2020, Online, November 2020, pp. 163-173. Association for Computational Linguistics, 2020. [10] Abhilasha Ravichander, Matt Gardner, and Ana Marasovic. CONDAQA: A contrastive reading comprehension dataset for reasoning about negation. CoRR, Vol. abs/2211.00295, , 2022. [11] Roser Morante and Eduardo Blanco. *sem 2012 shared task: Resolving the scope and focus of negation. In Eneko Agirre, Johan Bos, and Mona T. Diab, editors, Proceedings of the First Joint Conference on Lexical and Computational Semantics, * SEM 2012, June 7-8, 2012, Montréal, Canada, pp. 265-274. Association for Computational Linguistics, 2012. [12] Johan Reitan, Jørgen Faret, Björn Gambäck, and Lars Bungum. Negation scope detection for twitter sentiment analysis. In Alexandra Balahur, Erik Van der Goot, Piek Vossen, and Andrés Montoyo, editors, Proceedings of the 6th Workshop on Computational Approaches to Subjectivity, Sentiment and Social Media Analysis, WASSA@EMNLP 2015, 17 September 2015, Lisbon, Portugal, pp. 99-108. The Association for Computer Linguistics, 2015. [13] Md Mosharaf Hossain, Venelin Kovatchev, Pranoy Dutta, Tiffany Kao, Elizabeth Wei, and Eduardo Blanco. An analysis of natural language inference benchmarks through the lens of negation. In Bonnie Webber, Trevor Cohn, Yulan He, and Yang Liu, editors, Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing, EMNLP 2020, Online, November 16-20, 2020, pp. 9106-9118. Association for Computational Linguistics, 2020. [14] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: pre-training of deep bidirectional transformers for language understanding. In Jill Burstein, Christy Doran, and Thamar Solorio, editors, Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, NAACL-HLT 2019, Minneapolis, MN, USA, June 2-7, 2019, Volume 1 (Long and Short Papers), pp. 4171-4186. Association for Computational Linguistics, 2019. ## A Fiction データセット FICTION 設定では,架空のスポーツ名を 5 個,そして一種目につき 100 個の架空の選手名,合計 500 個の選手名を作った.ここで架空スポーツ名の全部および架空選手名の一部(50 個)を表 3 に示す. 表 3 FICTIONデータセットの一部詳細
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C10-2.pdf
# Classification of Polysemous and Homograph Word Usages using Semi-Supervised Learning Sangjun Han ${ }^{1}$ Brian Kenji Iwana ${ }^{2}$ Satoru Uchida ${ }^{3}$ ${ }^{1}$ Department of Electrical Engineering and Computer Science, Kyushu University ${ }^{2}$ Department of Advanced Information Technology, Kyushu University ${ }^{3}$ Faculty of Languages and Cultures, Kyushu University \{sangjun.han, brian\}@human.ait.kyushu-u.ac.jp uchida@flc.kyushu-u.ac.jp } \begin{abstract} Words can have different meanings based on the context of how they are used. Therefore, to help language understanding, it is important to be able to distinguish between the word usages. To do this, we propose to automatically classify word meaning using a Transformer neural network. However, annotating large amounts of word usages for effective machine learning can be time-consuming and expensive. Thus, we propose using unlabeled data for Pseudo Labeling to improve the robustness of the model. \end{abstract ## 1 Introduction Words can have different meanings, or usages, depending on the context. For example, the word "see" can have many different meanings, such as, to see something with your eyes, to understand something, to imagine something in a particular way, etc. Polysemous words are words with related origins and homographs are words with different origins. The study of polysemous words and homographs is important for language learning [1,2]. Language learners often have difficulties knowing the intended meaning of words when using dictionaries [3]. Due to this, it is common for language learners to only use the top definition in dictionaries [4]. Thus, correct identification of word usage can be an important tool. In order to address this problem, we propose the use of machine learning, namely text classification, to predict the usage of words. Namely, we use a Bidirectional Encoder Representations from Transformer (BERT) [5] neural network to embed words into a word-wise semantic vector and use a classifier to learn the usage based on the vector. Through this, we show that it is possible to predict the word usage within the context of a sentence. However, one issue with using neural networks is the requirement for data. Specifically, a large amount of annotated data is required to train accurate models and acquiring the annotations can be a time-consuming and expensive process. Therefore, we propose the use of SemiSupervised Learning (SSL) to make up for the lack of data. SSL combines the use of supervised data, i.e. labeled data, and unsupervised data, i.e. unlabeled data. Specifically, Pseudo Labeling [6] is used. In Pseudo Labeling, the unlabeled data is classified and given Pseudo Labels based on the classifier confidence. The contributions are as follows: - We develop a word usage classifier that is able to learn the usage of a word based on the context. - We demonstrate that SSL, specifically Pseudo Labeling, can help make up for the difficulty of annotating data. - We show that the word embeddings learned by BERT contain contextual usage information. - A case study is conducted on specific words with polysemous and homograph definitions to show the effectiveness of our approach. ## 2 Related Work While word embedding research [7] and text classification research $[8,9]$ are widely studied fields, specific word usage classification is not often explored. In a related problem set, homograph disambiguation aims to differentiate homographs in text, most often used with text-to-speech generation $[10,11]$. Notably, SSL has been used for homograph disambiguation in text-to-speech generation Mandarin [12] and Persian [13]. While these methods are similar, they differ in that they only separate homographs by sound and not specifically by meaning. This means that the labels typically follow part of speech, very broad meanings, or labels that have different meanings but the same pronunciations [10]. The aim of our work is to predict the usage of words from a comprehensive set of definitions. ## 3 Bidirectional Encoder Representations from Transformers (BERT) Transformers [14] are feed forward neural networks that consist of blocks of a Multi-Head Self-Attention (MHSA) layer and a fully-connected layer. The MHSA layer uses parallel self-attention layers to learn pairwise relationships between tokens of the input. After the MHSA, there is a fully-connected layer. The output of a Transformer layer is vector embeddings corresponding to each input token. Bidirectional Encoder Representations from Transformer (BERT) [5] is an extension to the original Transformer. Some of the improvements include using a bidirectional self-attention, adding segment encodings, and training using BooksCorpus [15], which contains the contents of 11,038 books. ## 3.1 Tokenization The input representations of BERT are constructed of summing token embeddings, positional encodings, and segment encodings [5]. The token embeddings are WordPiece vectors [16] embedded in vectors using a linear layer. The WordPiece vectors represent pieces of words, including full words, in a 30,522 word-part token vocabulary. The positional encodings represent the position that the word piece appears in the sentence, and the segment encoding is the sentence number. ## 3.2 Embeddings BERT is trained in an encoder-decoder structure. The encoder layers create an embedding corresponding to each input token vector. This allows Transformer layers to be stacked and to be used with a decoder Transformer for training. Thus, the output of the encoder layers is a set of token-wise vector embeddings. Due to this, as shown in Fig. 1, we use these word embeddings as representations for our classifier. Aside from the word embeddings, there is a special clas- Figure 1 Word Usage Classification Using BERT Figure 2 Pseudo Labeling sification embedding (CLS) and sentence separation embeddings (SEP). In traditional text classification, the CLS token is used to classify the entire document. However, in our case, we do not use the CLS embedding because we focus on individual word usage. ## 4 Semi-Supervised Learning SSL is a problem setup that incorporates supervised data and unsupervised data to train models. The benefit of SSL is that it makes it possible to leverage large amounts of unlabeled data to supplement the labeled data. This is useful because annotating unlabeled data can be costly and time-consuming. One method of SSL is the use of Pseudo Labeling [6]. Pseudo Labeling is a method of labeling the unlabeled data based on probabilistic confidence to be used alongside the already labeled data. Pseudo Labeling is performed in multiple rounds of training, as shown in Fig. 2. First, the model is trained using the labeled data. Next, the unlabeled data is classified using the trained model. When the unlabeled Table 1 Details of the datasets & 70 & 95 & 64 & 703 \\ data is classified, a confidence score $p$ is determined. For the purpose of Pseudo Labeling, the confidence is defined as the probability of the predicted class. Then, the predicted unlabeled data with a high confidence threshold $\tau$ is labeled, i.e. where $p \geq \tau$, which becomes pseudo labels. The model is then trained again using the combined annotated labels and pseudo labels. Finally, this process is repeated $N$ number of rounds or until satisfied. ## 5 Experimental Results ## 5.1 Dataset In this study, we use data from two corpora. The first corpus is the English Vocabulary Profile (EVP) Online word list [17]. The corpus includes a list of words with definitions, usages, and example sentences, hereafter referred to as dictionary examples. For this study, the American English definitions are used. In addition, EVP also includes learner examples which are sentences written by varying levels of language learners. The second is a privately gathered book corpus consisting of Common European Framework of Reference (CEFR) graded materials. The EVP corpus is used to create the supervised datasets and the book corpus is used for the unsupervised data. From the corpora, we created five datasets, as shown in Table 1. Each dataset is used to classify the usage of a single word. Also, it should be noted that each dataset incorporates all tenses of the word. Four of the datasets, "get," "let," "play," and "see (1)" use the usage labels determined by EVP. We use the dictionary examples as the training set and the learner examples as the test set. For each unlabeled set, lines of text that contained the specific word were gathered from the book corpus. In addition to datasets determined by EVP Online, a second dataset, "see (2)" was annotated manually. This dataset combines all sentences with the word "see" (and its tenses) from the entire EVP corpus. Each sentence was annotated based on the eight high-level definitions by two English speakers. The classes are "see (use eyes)," "see (meet)," "see (on media)," "see (understand)," "see (information)," "see (consider)," "see (happen)," and "see (believe)." The problem with the previous datasets is that there are only a few dictionary examples for each class. This dataset is used to evaluate the proposed method but on a larger dataset. The total number of sentences was 1,113 and a training and test split was created by taking $20 \%$ from each class to be saved for the test data. ## 5.2 Architecture and Training To acquire the word embeddings, a 12 transformer layer pre-trained BERT is used. The pre-trained BERT is fed word piece sequences created from each sentence and outputs word embeddings. As recommended by Bertas-service [18], the embeddings from the second-to-last transformer layer is used, i.e. the 11th layer. This is done because Bert-as-service found that the last layer embeddings tend to be learned in a way for the Masked Language Model (MLM) [5]. The second-to-last layer contains more contextual information and word meaning. The word embedding vectors are then classified using a Multi-Layer Perceptron (MLP) neural network. The network consists of two layers, one hidden layer and one output layer. The hidden layer has 512 nodes. The hidden layer uses Rectified Linear Unit (ReLU) activations and Dropout with a probability of 0.5 . The weights were initialized using a Xavier uniform initialization [19]. The word embedding vectors are then classified using a fullyconnected layer with the number of nodes equalling the number of classes and a softmax activation. The MLP is trained using Adam optimizer [20] for 1,000 epochs. We use a batch size of 10 and an initial learning rate of 0.0001 . For the SSL, rounds of Pseudo Labeling were performed until all of the unlabeled data was labeled or a maximum of 10 rounds has passed. The threshold was set to $\tau=0.99$. ## 5.3 Results The results are shown in Table 2. In the table, MLP is the classifier using the BERT word embeddings without Pseudo Labeling, and MLP+PL uses Pseudo Labeling. For comparison, we use 1-Nearest Neighbor (1-NN) with the Table 2 Classification Accuracy $(\%)$ Table 3 Example Test Set Instances with the Same Token Embedding but Different Word Embeddings That Were Correctly Classified BERT embeddings. For "play," $\tau=0.95$ was used because no unlabeled data had a confidence of 0.99 . The results show that the Pseudo Labeling is able to help improve the accuracy of "see (2)." Conversely, the datasets with a very high unlabeled to labeled ratio performed worse. Calculated from Table 1, the "get," "let," "play," and "see (1)" datasets have an unlabeled to labeled training data ratio of 7.4:1, 3.1:1, 11.2:1, 15.3:1, respectively. This indicates that Pseudo Labeling is weak in instances where there are not enough training samples compared to the unlabeled samples. Table 3 shows instances where the target word, "see," had the same input embedding but different output word embeddings. Importantly, the word embedding was able to be used to correctly classify the usage in each sentence. Thus, it can be inferred that the embeddings from BERT contain semantic information and is able to separate homographs. ## 5.4 Ablation In order to determine the threshold for Pseudo Labeling, we performed a parameter search. The analysis is performed on the larger "see (2)" dataset to increase the reliability of the analysis. The results in Table 4 show that the best $\tau$ is 0.99 for Pseudo Labeling. ## 5.5 Examining the Pseudo Labels It is important for the unlabeled data to be assigned accurate Pseudo Labels for SSL to work. Therefore, in Table 4 Affect of the Threshold Accuracy (\%) Table 5 Example Pseudo Labels and Confidences for "See (2)" \\ Table 5, we examine some of the Pseudo Labels assigned by the model. In the examples where the confidence $p$ was higher than $\tau=0.99$, the correct Pseudo Label was assigned. Furthermore, in the table, (4) and (5) were mislabeled. (4) should be "see (use eyes)" and (5) should be "see (understand)." Due to their low confidence scores, they were correctly not Pseudo Labeled. However, despite example (6) having low confidence, it was labeled correctly, thus, not selected as a Pseudo Label. ## 6 Conclusion In this research, we verified whether the output word vectors of BERT can represent the usage of words, and made classifiers using the output word vectors. Also, we improved our classifier through the use of Pseudo Labeling. We demonstrate that the use of Pseudo Labeling is useful in helping improve the model. However, there are limitations to Pseudo Labeling and when there are many more unlabeled patterns than there are labeled patterns, then the accuracy is degraded. In the future, we will increase the words and incorporate other information inherent to text to improve Pseudo Labeling. ## Acknowledgments This work was supported by MEXT-Japan (Grant No. JP21K17808, JP22H00677, JP20H00095). ## References [1] Marjolijn Verspoor and Wander Lowie. Making sense of polysemous words. Language Learning, Vol. 53, No. 3, pp. 547-586, jul 2003. [2] Victoria Abou-Khalil, Samar Helou, Brendan Flanagan, Mei-Rong Alice Chen, and Hiroaki Ogata. Learning isolated polysemous words: identifying the intended meaning of language learners in informal ubiquitous language learning environments. Smart Learning Environments, Vol. 6, No. 1, nov 2019. [3] Alex Boulton and Sylvie De Cock. Dictionaries as aids for language learning. In International Handbook of Modern Lexis and Lexicography, pp. 1-17. Springer, dec 2016. [4] Li Jin and Elizabeth Deifell. Foreign language learners' use and perception of online dictionaries: A survey study. Journal of Online Learning and Teaching, Vol. 9, No. 4, p. 515, 2013. [5] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018. [6] Dong-Hyun Lee. Pseudo-label: The simple and efficient semi-supervised learning method for deep neural networks. In ICML Workshops, Vol. 3, p. 2, 2013. [7] S. Selva Birunda and R. Kanniga Devi. A review on word embedding techniques for text classification. In Innovative Data Communication Technologies and Application, pp. 267-281. Springer, 2021. [8] Andrea Gasparetto, Matteo Marcuzzo, Alessandro Zangari, and Andrea Albarelli. A survey on text classification algorithms: From text to predictions. Information, Vol. 13, No. 2, p. 83, feb 2022. [9] Qian Li, Hao Peng, Jianxin Li, Congying Xia, Renyu Yang, Lichao Sun, Philip S. Yu, and Lifang He. A survey on text classification: From traditional to deep learning. ACM Transactions on Intelligent Systems and Technology, Vol. 13, No. 2, pp. 1-41, apr 2022. [10] Kyle Gorman, Gleb Mazovetskiy, and Vitaly Nikolaev. Improving homograph disambiguation with supervised machine learning. In Language Resources and Evaluation, 2018 . [11] Marco Nicolis and Viacheslav Klimkov. Homograph disambiguation with contextual word embeddings for TTS systems. In ISCA Speech Synthesis Workshop, 2021. [12] Binbin Shen, Zhiyong Wu, Yongxin Wang, and Lianhong Cai. Combining active and semi-supervised learning for homograph disambiguation in mandarin text-to-speech synthesis. In Interspeech, 2011. [13] Noushin Riahi and Fatemeh Sedghi. A semi-supervised method for persian homograph disambiguation. In Iranian Conference on Electrical Engineering, 2012. [14] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems (NeurIPS), 2017. [15] Yukun Zhu, Ryan Kiros, Rich Zemel, Ruslan Salakhutdinov, Raquel Urtasun, Antonio Torralba, and Sanja Fidler. Aligning books and movies: Towards story-like visual explanations by watching movies and reading books. In International Conference on Computer Vision (ICCV), 2015. [16] Yonghui Wu, Mike Schuster, Zhifeng Chen, Quoc V Le, Mohammad Norouzi, Wolfgang Macherey, Maxim Krikun, Yuan Cao, Qin Gao, Klaus Macherey, et al. Google's neural machine translation system: Bridging the gap between human and machine translation. arXiv preprint arXiv:1609.08144, 2016. [17] English Vocabulary Profile. English vocabulary profile online - american english. https://www. englishprofile. org/american-english, 2023. [18] Han Xiao. Bert-as-service. https://github.com/ hanxiao/bert-as-service, 2018. [19] Xavier Glorot and Yoshua Bengio. Understanding the difficulty of training deep feedforward neural networks. In International Conference on Artificial Intelligence and Statistics, pp. 249-256, 2010. [20] Diederik P Kingma and Jimmy Ba. Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.6980, 2014.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C10-3.pdf
# 単語に対して複数の表現を使用した上位概念の発見 盛野晃平 ${ }^{1}$ Tad Gonsalves ${ }^{1}$ ${ }^{1}$ 上智大学 理工学研究科 理工学専攻 情報学領域 k-morino-5m6@eagle.sophia. ac.jp t-gonsal@sophia. ac.jp ## 概要 単語同士の関係性を機械学習を用いて見つけることは自然言語処理の分野で重要なタスクである。その中でも本研究では上位概念の発見という,単語をより抽象度の高い単語で表すタスクに取り組む. 先行研究では, 1 つの単語に対して 1 つ表現を使用して学習を行っていたが提案するモデルでは単語に対して意味を考慮した複数の表現を用いて学習することを提案する. SemEval2018 task9 [5] というコンペティションで提供されているデータで学習と評価を行った. ## 1 はじめに 自然言語の上位概念・下位概念の関係は言語の意味的な関係においてとても重要なものである.ある単語のより抽象的な意味を表す上位語と, ある単語をより具体的に説明する下位語の関係である. 本研究で取り組むタスクは上位概念の発見である.このタスクは, 単語が与えられたときに上位概念の候補の単語の中から, その単語の上位概念としてふさわしい単語にランキングをつけて出力することが目的である. 本研究では教師あり学習を使用し, CRIM [4] が提案するモデルをもとに,単語に対して意味を考慮した複数の表現を出力できる Adaptive Skip-gram [3] (AdaGram)を使用して学習および精度の検証を行う. ## 2 関連研究 上位概念の発見にはパターンベースのアプローチと分散表現を使用したアプローチがある. パターンベースのアプローチでは Hearst [6]が提案した文法のパターンを使用して上位語と下位語の関係を見つけ出す,簡単にできる一方で,計算時間の問題, 言語依存, 上位語と下位語が同じ文章内で現 れる必要があることによる低い再現率といった問題が挙げられる。 2つ目の方法として分散表現を用いたアプローチは,教師あり学習または教師なし学習を使用し, 単語の埋め込み表現を使用して関係性を見つけ出すことを目標にしている. Adapt [8]は上位概念の発見のために Skip-gram [9]を用いて単語の埋め込み表現を学習し, 得られた単語の埋め込み表現をもとにコサイン類似度を用いて上位概念か否かの判定をする教師なし学習のモデルを提案している。より一般的なのは教師あり学習のモデルである.教師あり学習では単語の埋め込み表現が入力され, 正解のペアデータを用いてモデルを学習する. CRIM は教師なし学習と教師あり学習を共に使うことで精度の向上をした. [2]のモデルでは教師なし学習で上位語の発見の夕スクに挑戦している,このモデルではコサイン類似度とコーパスにおける単語の出現の回数を基にしたランキング付けを行うメソッドを基に学習を行っている. 精度を向上させるための別のアプローチとして, 単語の埋め込み表現に工夫を加えるものが挙げられる。 [1]は BoxE という,エンティティをポイントして埋め込み,基本的な論理的な性質を特徴づけた超長方形のセットに関係性を埋め込む方法を提案した。 [10]は box embedding を上位概念の発見で使用するモデルである HyperBox を提案した。 ## 3 提案手法 ## 3.1 前処理 まず,単語の表現のモデルを作成するためにラベル付けされていない文章の単語の前処理を行う。全ての単語の文字を小文字にして,複数の単語で成り立つ言葉の単語間のスペースをアンダースコアに変換し 1 つの単語として学習を行う. さらに, ノイズになる単語を取り除く。 ## 3.2 単語埋め込み表現のモデル 本研究では, Skip-gram を使用して単語の埋め込み表現を得ている CRIM と異なり, それぞれの単語に対して複数の表現を用いる. そのために AdaGram を使用する.この手法は, 1 つの表現で単語のすべての意味を考慮することは難しいのではないかという推測のもと提案され, word similarity のタスクで従来の Skip-gram に比べて良い精度を示した. AdaGram を用いて学習することで意味を考慮した単語埋め込み表現を得ることができる。また, AdaGram は自動的に単語の意味の数を学習することができる. それぞれの単語は意味ごとの表現に従ってインデックスが付与される. ## 3.3 ペアの選択 それぞれの単語に対して複数の表現を用いるためにはトレーニングのペアの選択を慎重に行う必要がある. 学習で用いるラベル付けされたデータは, 1 つの下位語と 1 つ以上の上位語で成り立っている. それぞれの単語に対してどの単語の表現を使用するかを決める必要があるので, この選択はコサイン類似度をもとに行う. 下位語 $\mathrm{q}$ が $\mathrm{n}$ 個の意味を, 上位語 $\mathrm{h}_{\mathrm{i}}(\mathrm{i}=1,2, \ldots \mathrm{k})$ が $\mathrm{m}_{\mathrm{i}}$ 個の意味を持っていた場合に,すべての下位語と上位語の意味を考慮した表現同士のコサイン類似度を計算するので, $ P=n \times \sum_{i=1}^{k} m_{i} $ $\mathrm{P}$ 個の計算結果を比較し, その中でベストな値を示したぺアをトレーニングデータとして採用する.この時に,コサイン類似度が 0 より大きいペアのみ採用する. Algorithm1 に実際の選択方法を示す. 図 1 に上記の計算を行うことで選択されるぺアの例を示す. Algorithm1 に従って, それぞれの単語には事前学習済みの単語埋め込み表現モデルが出力する意味を考慮した表現の数に従ってインデックスが付与される. インデックスが付与された単語のぺアを使用して学習を行う. 検証, テスト用のペアは意味を考慮したインデックスが付与されていない.コサイン類似度を用いれば,これらのペアにもインデックスを付与することは可能だが正確性に欠けてしまう. 推論の際に出力されるのは意味のインデックスが付与された単語であるので, 検証とテストを行 う際には,それらのインデックスを取り除く必要がある。学習済みのモデルは, 単語ごとに上位語として予測した単語をスコアとともに出力する.このスコアは上位語としてどれだけふさわしいかを表したものである. このスコアをもとにランキングを作成し上位 $\mathrm{n}$ 語の単語を取得し評価を行う. 評価手法に関しては 4.2 で説明する. 図 1 意味に応じてインデックスが付与されたペア ## 3.4 上位概念発見のモデル 上位概念の関係を見つけるためのモデルは CRIM が提案したモデルをもとに作成する。学習は Projection learning [11]という単語の埋め込み表現の射影ベクトルを使用した方法で行う. 下位概念の単語の埋め込み表現の射影ベクトルと上位語の候補の単語の埋め込み表現のベクトルの距離を計算しスコアを出力する.上位語のランキングを作成するときには, 出力されたこのスコアが高いものから順に上位語としてふさわしいと判断をした. 活性化関数には sigmoid 関数を使用し, 損失関数は Binary cross entropy を使用した. Negative sampling を用いて学習を行うので, 出力されたスコアを正解のデータでは 1 に不正解のデータを 0 に近づけるように学習を行った。学習の際のロスは正例と負例におけるロスを合計したものを使用した. 最適化には Adam [7]を使用した. 図 2 にモデルの学習手順を示す. 図 2 トレーニング手順 ## 4 実験 ## 4.1 データセット 本研究では, SemEval2018 task9 で提供されている英語のデータセット(1A, 2A, 2B)を用いて実験を行った. それぞれのデータセットはラベル付けをされていないテキストデータと上位語・下位語のぺアのデータで構成されている.2Aのデータは医療の領域, 2B のデータは音楽の領域の単語のペアを持つ. $1 \mathrm{~A}$ のデータが 1 番多く,学習とテストデータは 1,500個あり,2Aと 2B は 500 個ある. それぞれ 1 つ以上の上位概念・下位概念のぺアを持つ. $1 \mathrm{~A}$ のデータの検証用のデータ数が 50 個あるのに対して $2 \mathrm{~A}$ と $2 \mathrm{~B}$ の検証用のデータの数は 15 語しかないので学習の精度に影響を及ぼす可能性がある。単語の埋め込み表現のモデルはそれぞれのデータセットのテキストデータを基に作成した。 ## 4. 2 評価指標 提案するモデルは最大で上位 15 語の予測結果を 3 つの指標を用いて評価した. SemEval 2018 task 9 で使われている評価指標と同じものを使用した。 1 つ目は, Mean Average Precision(MAP)である. MAP を提案するモデルの評価の主要な指標として用いた. Average Precision は, その順位までの正解率を特定のデータにおいて平均を求めたものである.この指標の平均が MAP にあたる. $ \mathrm{MAP}=\frac{1}{|Q|} \sum_{q \in Q} A P(q) $ 2つ目は, Mean Reciprocal Rank(MRR)である. MRR は最初に現れた正解データの順位の逆数の平均をとったものである. $ \mathrm{MRR}=\frac{1}{|Q|} \sum_{i=1}^{|Q|} \frac{1}{\text { rank }_{i}} $ 3 つ目が,P@1である.P@n (n は自然数)は上位 $\mathrm{n}$個における Precision である. HyperBox と精度の比較を行う際には $\mathrm{P} @ 5 を$ 使用した。 ## 4. 3 実験手順 まず, 3.1 で説明した前処理を行った. 次に, 単語をべクトル表現するためのモデル(Emb model)を AdaGram を用いて作成した.このモデルが出力する単語埋め込み表現の次元は CRIM が用いている単語埋め込み表現の次元に合わせて 300 である. 加えて, Emb model はコーパスで現れる回数が 5 回未満の単語を無視した. さらに,そのモデルにおいて単語がどれくらいの数の意味を持っているかは, AdaGram の論文で採用されている閾値 $10^{-3}$ を用いて定めた。作成された Emb model をもとに 3.3 で説明されている手順に従ってトレーニング用の上位概念・下位概念のペアを作成した.学習時に使用する不正解のデ一夕は, その単語の上位概念の正解データに含まれない他のペアの上位語をランダムに取得し使用した. CRIM のモデルは結果の評価をする際にはデータの種類に関わらず, $1 \mathrm{~A}$ のデータのみでパラメータのチユーニングしたモデルを使用していたので,それに倣って 1A のデータのみでチューニングしたパラメ一タを $2 \mathrm{~A} , 2 \mathrm{~B}$ のデータセットでのトレーニングにも用いた。トレーニング中で最も高い MAP を得ることができたモデルをテストに用いた。テストでは先ほど説明した評価指標をもとに CRIM との精度の比較を行った。 ## 5 実験結果 ## 5.1 英語のデータにおける実験結果 表 1 に英語のデータにおける実験の結果を示す. CRIM の精度は提案するモデルと公平に評価するために, 教師あり学習でパターンを基にしたアプロー チを使用していないものを用いた. CRIMでは Hearst が提案した上位概念・下位概念の関係を見つけることができる文法のパターンを用いて上位語の発見を行っている. 提案するモデルは CRIM と比べると $2 \mathrm{~A}$ データセットの MAP の結果を除き他の全ての指標で精度を上回った. 特に, MRR と $\mathrm{P} @ 1$ の指標で大幅に精度を改善することができた。 Algorithm1 で説明をしたコサイン類似度が 0 より大きいぺアのみ選択する処理を行わないと $1 \mathrm{~A}$ のデー タセットにおいて MAPが 35.96\%, MRRが 18.77\%, P@1が 29.73\%となった. ## 5.2 チューニングを行った際の実験結果 CRIM との結果を比較したが,提案するモデルは 2A, 2B のデータに対してはパラメータのチューニングを行っていないので,それぞれのデータセットに対してチューニングを行えばより高い結果が得られると推測した. 結果の比較の際には,2A と 2B のデ ータセットでCRIM に比べて高い精度を示している HyperBox を使用する. 提案するモデルでは $2 \mathrm{~A}$ に対してパラメータのチューニングを行ったときには精度の改善が見られたが,2B のデータで行った際には精度の改善ができなかったので 2B の実験結果に関しては表 1 と同じ結果を使用する。表 2 に結果の比較を示す。全ての項目で提案するモデルは HyperBox の精度を上回った. 特に MRR のスコアに関しては大幅に精度を上回った. 英語のデータでの実験の際にも同じように MRR の大幅な改善が見られた. このことから提案するモデルは,上位語の単語をより高い順位で出力することができたことがわかった. 表 2 チューニング後の実験結果 ## 6 まとめ 本研究では,上位概念の発見のタスクにおいて, 1つの単語に対して意味を考慮した複数の単語の表現を用いることで予測の精度を改善できることを示した. さらに,モデルを構築するためのトレーニングペアを選択する方法を説明した。提案するモデルは,意味を考慮した単語の表現を得るために人間が構築した辞書などを必要としないので,学習用の上位概念・下位概念のぺアがあれば容易に適応することができる. ## 参照文献 1. ABBOUD, Ralph, et al. Boxe: A box embedding model for knowledge base completion. Advances in Neural Information Processing Systems, 2020, 33: 9649-9661. 2. ATZORI, Maurizio; BALLOCCU, Simone. Fullyunsupervised embeddings-based hypernym discovery. Information, 2020, 11.5: 268. 3. BARTUNOV, Sergey, et al. Breaking sticks and ambiguities with adaptive skip-gram. In: artificial intelligence and statistics. PMLR, 2016. p. 130-138. 4. BERNIER-COLBORNE, Gabriel; BARRIERE, Caroline. Crim at semeval-2018 task 9: A hybrid approach to hypernym discovery. Proceedings of the 12 th international workshop on semantic evaluation. 2018. p. 725-731. 5. CAMACHO-COLLADOS, Jose, et al. SemEval2018 task 9: Hypernym discovery. Proceedings of the 12th International Workshop on Semantic Evaluation (SemEval-2018); 2018 Jun 5-6; New Orleans, LA. Stroudsburg (PA): ACL; 2018. p. 71224. ACL (Association for Computational Linguistics), 2018. 6. HEARST, Marti A. Automatic acquisition of hyponyms from large text corpora. COLING 1992 Volume 2: The 14th International Conference on Computational Linguistics. 1992. 7. KINGMA, Diederik P.; BA, Jimmy. Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.6980, 2014. 8. MALDONADO, Alfredo; KLUBIČKA, Filip. Adapt at semeval-2018 task 9: Skip-gram word embeddings for unsupervised hypernym discovery in specialised corpora. Proceedings of The 12th International Workshop on Semantic Evaluation. 2018. p. 924-927. 9. MIKOLOV, Tomas, et al. Distributed representations of words and phrases and their compositionality. Advances in neural information processing systems, 2013, 26. 10. PARMAR, Maulik, et al. HyperBox: A Supervised Approach for Hypernym Discovery using Box Embeddings. arXiv preprint arXiv:2204.02058, 2022. 11. YAMANE, Josuke, et al. Distributional hypernym generation by jointly learning clusters and projections. Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers. 2016. p. 1871-1879.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C10-4.pdf
# 深層学習を利用した PropBank 形式の 日本語意味役割付与モデル タロックカラム 1 竹内孔一 2 バトラーアラステア 3 長崎郁 4 パルデシプラシャント 5 1 岡山大学大学院 2 岡山大学学術研究院 3 弘前大学 4 名古屋大学 5 国立国語研究所 poq93z0h@s. okayama-u.ac.jp takeuc-k@okayama-u.ac.jp ## 概要 本論文では日本語に対して述語項構造シソーラスの概念フレームを基に PropBank 形式の意味役割を付与したタグ付きコーパス NPCMJ-PT に対して,複数の深層学習モデルを適用することで,意味役割ラベルとその範囲 (スパン)を予測する実験を行ったので報告する. 深層学習で利用するモデルとして BERT の他にスパンを選択するためのモデルを導入する。また NPCMJ-PT のデータからは意味役割が付与された事例約 53,000 事例 (1 事例 1 述語の意味役割) を利用する. 評価実験において BERT の利用層の異なりや特徴量を変えることで最も高い精度を出すモデルについて検討する。 ## 1 はじめに 意味役割ラベル付与というタスクは文内の述語と係り関係にある句に対して意味的な関係を付与するタスクである。例えば図 1 では「壊す」の述語と係り関係にある「彼は」「木の扉を」「手で」3つの句に対して $\operatorname{Arg0}, \mathrm{Arg} 1, \mathrm{Arg}-\mathrm{MNS}$ のラベルを付与するタスクである.この $\operatorname{Arg0}$ などのラベルはここでは $\operatorname{Arg} 0$ は動作主 (壊す人), $\operatorname{Arg} 1$ は壊される対象, ArgM-MNS は壊す際に使う手段を表しており,これは述語の概念フレームによって異なる. 図 1 には概念フレームは示していないがここでは壊すは [破壊] という概念 (FID=277) である. これらは述語項構造シソーラス $(\mathrm{PT})^{1)}$ で公開している. 一方,国立国語研究所では Web 上で公開可能な 1) https://pth.cl.cs.okayama-u.ac.jp/.「壊す」の他の概念フレー ムとして [身体部分の症状 (195)] 「異を壊す」や [消滅 (137)]「計画を壊す」がある。それぞれ概念フレームによって意味役割の意味が異なる. 図 1 「彼は木の扉を手で壊した」の意味役割ラベル 日本語テキストに対して構文木を付与したデータ NPCMJ を作成して公開している2). NPCMJ に対して述語項構造シソーラスの体系を基に PropBank 形式の意味役割を付与したデータが NPCMJ-PT であり現在も付与を続けている. そこで,本論文では NPCMJ-PT に付与されている意味役割データ (意味役割は 32 種類) に対して,深層学習モデルを適用することで係り関係にある句とその意味役割ラベルを推定する。 ## 2 関連研究 意味役割付与の研究は主に英語の PropBank を利用したデータで研究されており,CoNLL2005 や CoNLL2012 のデータが利用されている $[1,2,3]$. 上述の通り,意味役割は係り関係にある句を取り出す必要があるため,複数の単語列を文から取り出す必要がある. 文献 [1] にあるように大きく分けて 3 種類の方法がある.1)IOB2 タグで意味役割のラベルと区間をモデル化する手法 (例えば [4]),2) スパンベースで解く方法 $([2,3]), 3)$ 各フレーズの主辞単語を同定してから解く方法 (例えば [5]) が提案されている。本論文では 2)のスパンを利用した手法 [3] を参考に日本語意味役割付与モデルについて検討する。 ## 3 スパンに基づく意味役割付与モ デル 2) https://npcmj.ninjal.ac.jp/index.html. 図 2 スパンベクトル「彼は木の扉を手で壊した」の意味役割ラベル ## 3.1 スパン選択モデル 本論文ではスパン選択モデル [3] を基にした深層学習による意味役割付与モデルを構築する. まず入力文である日本語はすべてトークン化された状態で入力するとし,またどの述語に対する項 (述語と係り関係にある句) を取り出すか指定することとする。 スパンは文中の対象の述語に対する 1 つの項を表し, その最初と最後の形態素に対応したトークン番号を $i, j$ とし, 意味役割のラベルを $l$ としたとき $\langle i, j, l\rangle$ で表す. 各トークンに対する分散表現ベクトルを $h_{i}, h_{j}$ とすると, 最大のトークン列について全ての組 $\left[h_{i}, h_{j}\right]$ を作成する. このべクトル組を連結して1つのべクトルにしたものを本論文ではスパンベクトルと呼ぶ. これらのスパンベクトルに対して意味役割が付与されているものには $\operatorname{Arg} 0$ や $\operatorname{Arg} 1$ など付与し,その他の部分について $\mathrm{O}$ や述語 $\mathrm{V}$ や $\mathrm{N}(\mathrm{Null})$ タグ, さらに意味役割の句よりも短いものは F(Fragment) などラベルを設定して,全スパンの組み合わせについてラベルを用意する ${ }^{3}$. 誤差学習の部分では, 全スパンの組に対して正解ラベルとの誤差を計算して,クラス分類に基づく誤差でニューラルネットワークの重みを学習する。 次に,テストデータに対する意味役割付与において,各スパンベクトルの意味役割ラベルを推定した値 (Softmax や Logits を利用)を利用して值が大きいものから順に Greedy で意味役割のスパンとラべルを決定する.この処理を Decode と呼ぶ. この際, スパンが重ならないように選択する。また,テストデータに対しては学習中に利用した $\mathrm{F}$ やタグは無 $ は全部で 32 種類,その他 $\mathrm{O}, \mathrm{V}, \mathrm{N}$ と -A, F-Pを含めて学習時は 37 種のタグで学習する. } る. 図 2 に最終層の部分の処理について記述する. スパンベクトルには指定する述語を含むかどうかを知らせる 1 次元のべクトルを連結している. ## 3.2 スパンベクトルの作成 スパンベクトル作成のために様々な深層学習モデルを利用する。まず文書は BERT を利用してトー クン化を行い,各トークンに対する分散表現べクトルとする. BERT は東北大が作成した Huggin Face の BERT (Small)4)を利用する。この基本モデルを基に,複数のモデルを作成する.1) Base: BERT の最終出力層のベクトルを利用する。また Decode 時に softmax の值を利用する. 2) Logits: Decode 時に logits の値を利用する. 3) ExO: Decode 時に O タグを予測しない. 4) DelO: 学習時に O ラベルを Nに統合. 5) AddF: 学習時に F ラベルを F-A0, F-A1 などより詳細に付与する. 6) Enc4: Base モデルの BERT のエンコーダの学習層を最終 4 層に変更. これら 6 種類のモデルを作成して実験を行う。 ## 3.3 実験 上記で定義したモデルに対して意味役割付与デー タ (NPCMJ-PT) で学習およびテストを害施する.これによりどのモデルが効果的であるか実験的に明らかにする。 ## 3.4 実験設定 NPCMJ-PT から抽出した学習データは 1 述語に対して関係する意味役割が付与されている形式である. そのため同じ文であっても対象とする述語が異なれば別の 1 件としてデータが作成されている. 1 述語のデータの件数は 5483 件で,これらから意味役割の部分だけ取り出すと全部で 53,867 件である. これを学習,開発,テストデータとして $8: 1: 1$ に分割して利用する。 評価としてスパンと意味役割タグが一致した部分のみ正解とする。また評価値としては適合率 (Precision), 再現率 (Recall), 調和平均 (F) を利用する. ## 3.5 実験結果と考察 上記のモデルについてテストデータに対して意味役割付与を行った結果を表 1 に実験結果を記述  表 1 NPCMJ-PT に対する意味役割付与実験 する. 表 1 から,まず Base モデルと比較して softmax ではなくlogitsを利用した場合は $\mathrm{F}$ 値が下がったため softmax を利用した方が良いことが分かる。また副次的に出力している $\mathrm{O}$ タグや $\mathrm{N}$ タグ, $\mathrm{F}$ タグであるが, 基本的にはこれらは最終の出力としては利用されないタグではあるが,タグそのものは正解の意味役割ラベルから与えられているため, ある種の異なるタスクをモデルに解かせている状態と考えられる. ExO や DelO などタグを削除する方向では精度が下がったため, 逆に F タグを細かく設定して学習させたところ精度の向上が見られた. また,Base にたいして F 値を上回ることができた. また,一方で BERT から取り出すべクトルを変更した Enc4 は大きく精度が向上し, 提案したモデルの中で最も高い値をしめした. BERT の最終出力層だけでなく最終の 4 層部分を利用した方がよいことがわかる. また表 1 の結果は英語ので CoNLLを利用した結果より $\mathrm{F}$ 值が低いことが分かる. しかしながら学習データが意味役割の項で約 20 万以上 ${ }^{5 )}$ ときいことから,学習データ量による差があると考えられる。 ## 3.6 おわりに 日本語の PropBank 形式の意味役割付与データである NPCMJ-PT に対して,スパンに基づく意味役割付与モデルを構築して評価実験を実施した. その結果 $\mathrm{F}$ 值として約 0.62 の精度を得ることができた.意味役割の種類数は 32 である. 英語の結果に比べて F 值が劣る理由としてデータ量が挙げられるが, NPCMJ-PT も約 5 万例と少なくない意味役割データ量であるため,より外部知識や深層学習モデルを工夫することにより精度の向上を行う予定である. ## 謝辞 本研究の遂行にあたって JSPS 科研費 JP22k00530 の助成を受けた。 ## 参考文献 [1] Zhisong Zhang, Emma Strubell, and Eduard Hovy. Comparing span extraction methods for semantic role labeling. In Proceedings of the 5th Workshop on Structured Prediction for NLP, pp. 67-77, 2021. [2] Luheng He, Kenton Lee, Omer Levy, and Luke Zettlemoyer. Jointly Predicting Predicates and Arguments in Neural Semantic Role Labeling. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics, pp. 364-369, 2017. [3] Hiroki Ouchi, Hiroyuki Shindo, and Yuji Matsumoto. A Span Selection Model for Semantic Role Labeling. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 1630-1642, 2018. [4] Luheng He, Kenton Lee, Mike Lewis, and Luke Zettlemoyer. Deep Semantic Role Labeling: What Works and What's Next. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics, pp. 473-483, 2017. [5] Zhisong Zhang, Xiang Kong, Zhengzhong Liu, Xuezhe Ma, and Eduard Hovy. A two-step approach for implicit event argument detection. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7479-7485, 2020. 5) https://www.cs.upc.edu/ srlconll/st05/slides/intro.pdf
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C10-5.pdf
# 深層距離学習を用いた動詞の意味フレーム推定 山田 康輔 1 笹野遼平 1,2 武田 浩一 1 1 名古屋大学 2 理化学研究所 yamada.kosuke.v1@s.mail.nagoya-u.ac.jp \{sasano, takedasu\}@i.nagoya-u.ac.jp ## 概要 意味フレーム推定において、事前学習済み文脈化単語埋め込みを用いる手法が主流になっている。しかし、汎用的な埋め込み空間は、必ずしもフレームに関する人間の直観と一致しているわけではない。 そこで、本研究では、コーパス内の一部の述語についてのラベル付きデータの存在を仮定し、深層距離学習に基づき文脈化単語埋め込みをファインチュー ニングすることで、高精度な意味フレーム推定を実現する手法を提案する。実験を通し、深層距離学習を適用することで、 8 ポイント以上スコアが向上することを示す。さらに、教師データが極めて少量である場合でも、提案手法が有効であることを示す。 ## 1 はじめに 動詞の意味フレーム推定は、テキスト中の動詞を、その動詞が喚起する意味フレームごとにまとめるタスクである。たとえば、表 1 に示される FrameNet [1,2]の 8 つの用例の場合、各動詞が喚起するフレームごとにグループ化し、4つのクラスタを形成することが目標となる。 意味フレーム推定において、ELMo [3] や BERT [4] などの文脈化単語埋め込みの有用性が報告されている [5, 6, 7]。図 1 (a) は FrameNet に含まれる用例中の動詞の事前学習済み BERT (Vanilla BERT) による埋め込みを t-SNE [8] で 2 次元にマッピングした結果である。動詞「cover」の用例 (1) と (7) は空間上で離れている一方、同じ TOPIC フレームを喚起する動詞の用例 (7) と (8) は近くに位置しており、ある程度、意味フレームの違いを反映した埋め込み空間であるといえる。しかし、同じフレームを喚起する動詞が離れた位置に存在するケースも散見される。たとえば、同じ Removing フレームを喚起する動詞の用例 (5) と (6) は互いに離れた位置に存在している。これは Vanilla BERT の埋め込み空間が、意味的に似た事例が近い位置に、異なる事例が離れた位置になると表 1 FrameNet 内のフレームを喚起する動詞の用例 Removing (5) Volunteers removed grass from the marsh. ToPIC (7) Each database will cover a specific topic. (8) Chapter 8 treats the educational advantages. (a) Vanilla BERT (b) Fine-tuned BERT w/ AdaCos図 1 Vanilla BERT と AdaCos を用いてファインチューニングされた BERT による動詞の埋め込みの 2 次元マッピング。各色 (形) は Filling ($\cdot$)、Placing ( $\boldsymbol{x}$ )、Removing (ロ)、TopIc (+) フレームを示し、数字は表 1 と対応する。 いう人の直観と常に一致しているわけではないことを意味している。 本研究では、フレームに関する人の直観をより強く反映した意味フレーム推定手法を実現するため、 コーパス内の一部の述語に対してアノテートされたデータの存在を仮定する教師あり意味フレーム推定タスクにおいて、深層距離学習に基づき文脈化単語埋め込みをファインチューニングすることで、高精度な意味フレーム推定を実現する手法を提案する。深層距離学習は、同じラベルの事例を埋め込み空間上で近づけ、異なるラベルの事例を遠ざける学習を行うものであり、教師データに基づく埋め込み空間の調整が期待できる。図 1 (b) は代表的な深層距離学習手法の 1 つである AdaCos [9]を用いてファインチューニングした BERT による埋め込みの 2 次元マッピングである。Vanilla BERT において同じ意 味フレームを喚起する動詞の用例であるにも関わらず、距離が離れていた用例 (3) と (4)、用例 (5) と (6) が、AdaCos を用いてファインチューニングした BERT では、互いに近い位置に存在していることが確認できる。これは、深層距離学習によって、意味フレームに関する人の直観をより反映させた埋め込み空間が得られたことを示している。 ## 2 教師あり意味フレーム推定 動詞の教師あり意味フレーム推定は、コーパス内の一部の動詞への教師データの存在を仮定した意味フレーム推定タスクであり、より性能の高い意味フレーム推定手法を実現することが目的となる。教師なし意味フレーム推定では、文脈化単語埋め込みなどの特徴量ベクトルを用いたクラスタリングベースの手法が一般的であるが、教師あり意味フレーム推定においても同様の桿組みが適用できる。異なる点は、教師データを用いることで特徴量ベクトルを学習できるかどうかである。本稿では、教師データである学習セットに存在しない動詞の意味フレーム推定に対応するため、学習セットとクラスタリング対象のテストセット内の動詞が重複しない設定を採用する。ただし、異なる動詞が同一のフレームを喚起するケースは存在することから、テストセットに含まれるフレームの一部は学習セットにも出現する。 ## 2.1 ベースライン手法 シンプルなベースライン手法として、文脈化単語埋め込みによる 1 段階クラスタリングを用いる。1 段階クラスタリングでは、ユークリッド距離に基づく群平均法による階層型クラスタリングを利用する。また、Yamada ら [10]によるマスクされた単語埋め込みと 2 段階クラスタリングを活用した手法を導入する。前者に関して、クラスタリングに用いる埋め込みは動詞の文脈化埋め込み $\left(v_{\text {word }}\right)$ とその動詞を“[MASK]” に置き換えたときの文脈化埋め込み $\left(v_{\text {mask }}\right)$ の加重平均 $\left(v_{w+m}\right)$ とする。これは $\alpha$ を重みとして、式 (1) で定義される。 $ v_{w+m}=(1-\alpha) \cdot v_{\text {word }}+\alpha \cdot v_{\text {mask }} $ 後者の 2 段階クラスタリングは、 1 段階目に動詞ごとの用例クラスタリング1)、2 段階目に動詞横  断クラスタリングを行う手法である。1 段階目に X-means [11]、2 段階目に群平均法を用いる。その他の設定は、Yamada ら [10] と同様とする。 ## 2.2 深層距離学習の適用 教師あり意味フレーム推定において、文脈化単語埋め込みのファインチューニングとして深層距離学習を適用する。これにより、同じフレームの事例が近づき、異なるフレームの事例が遠ざかることが期待される。本稿では、距離ベースと分類べースの 2 つのアプローチを採用する。 距離ベースのアプローチ一般に複数エンコーダを用いて事例ぺア間の距離を学習するアプローチである。事例ぺアはある事例をアンカーとし、同じフレームの事例を正例、異なるフレームの事例を負例として作成する。損失には以下の 2 つを導入する。 Contrastive 損失 [12] は、正例ぺアを近づけ、負例ペアを一定のマージン以上遠ざける学習を実現する。これは、クラス $i$ の事例の埋め込みを $x_{i}$ 、マー ジンを $m$ 、平方ユークリッド距離に基づく距離関数を $D$ とした式 (2)で定義される。 $ L_{\mathrm{cont}}= \begin{cases}D\left(\boldsymbol{x}_{i}, \boldsymbol{x}_{j}\right) & i=j \\ \max \left(m-D\left(\boldsymbol{x}_{i}, \boldsymbol{x}_{j}\right), 0\right) & i \neq j\end{cases} $ また、Triplet 損失 [13] は、事例の 3 つ組に対して、 アンカー $x_{a}$ と負例 $x_{n}$ の距離を、アンカー $x_{a}$ と正例 $x_{p}$ の距離より一定のマージン以上遠ざける学習を行うものであり、式 (3) で定義される。 $ L_{\text {tri }}=\max \left(D\left(\boldsymbol{x}_{a}, \boldsymbol{x}_{p}\right)-D\left(\boldsymbol{x}_{a}, \boldsymbol{x}_{n}\right)+m, 0\right) $ 分類ベースのアプローチ近年、顔認識タスクを中心に広く利用されているアプローチである。このアプローチのモデルの多くは、単一エンコーダと線形層を持つネットワークを利用し、式 (4) の softmax 損失がベースとなっている。式 (4) の $\boldsymbol{w}_{i}$ と $b_{i}$ は線形層の重みとバイアス、 $n$ はクラス数を示す。 $ L_{\mathrm{soft}}=-\log \frac{e^{\boldsymbol{w}_{i}^{\top} \boldsymbol{x}_{i}+b_{i}}}{\sum_{j=1}^{n} e^{\boldsymbol{w}_{j}^{\top} \boldsymbol{x}_{i}+b_{j}}} $ 重み $\boldsymbol{w}_{i}$ をクラス $i$ の埋め込みと捉元、事例とクラスの埋め込みの距離を学習するための損失がいくつか提案されている $[14,15,16]$ 。その中でも ArcFace 損失 [16] は幾何的な解釈に優れることから広く利用されている。ArcFace 損失は、式 (5) のように、 softmax 損失をべースとして、 $b_{i}$ を除き、 $\boldsymbol{w}_{i}$ と $\boldsymbol{x}_{i}$ に $l_{2}$ 正規化を適用することで $\boldsymbol{w}_{i}^{\top} \boldsymbol{x}_{i}$ を $\cos \theta_{i}$ と表現し、 3 分割交差検証による教師あり意味フレーム推定実験結果。\# $\mathrm{pLU}$ と $\mathrm{C}$ はそれぞれ $\mathrm{pLU}$ 数とクラスタ数を示す。 } & Vanilla & 0.00 & - & 429 & $53.0 / 57.0 / 54.9$ & $40.8 / 44.6 / 42.6$ \\ クラス内の集約性とクラス間の分散性を強化するためにマージン $m$ とスケール $s$ を導入している 2$) 。$ $ L_{\mathrm{arc}}=-\log \frac{e^{s \cdot \cos \left(\theta_{i}+m\right)}}{e^{s \cdot \cos \left(\theta_{i}+m\right)}+\sum_{j=1, j \neq i}^{n} e^{s \cdot \cos \theta_{j}}} $ Zhang ら [9] はこれらの損失の性能がハイパーパラメータ依存な点を指摘し、それらの値を調査している。結果として、マージンを除き、動的なスケー ル $\tilde{s}$ を用いた式 (6)の AdaCos 損失を提案している。 $ L_{\mathrm{ada}}=-\log \frac{e^{\tilde{s} \cdot \cos \theta_{i}}}{\sum_{j=1}^{n} e^{\tilde{s} \cdot \cos \theta_{j}}} $ ## 3 実験 教師あり意味フレーム推定における深層距離学習によるファインチューニングの有用性を評価する。 また、少量の学習事例における性能を検証する。 ## 3.1 実験設定 データセット FrameNet 1.7 [2] から、フレームを喚起する動詞の用例を抽出し、データセットを作成した。 3 分割交差検証を行うため、それらを動詞単位で分割し3)、3つのサブセットを作成した。動詞数、 $\mathrm{LU}$ 数、フレーム数、事例数の平均は、それぞれ 831、1,273、434、27,537 である。学習セットは文脈化単語埋め込みのファインチューニングに使用し、開発セットは埋め込み $v_{w+m}$ の重み $\alpha^{4)}$ 、クラスタ数、マージン5) の決定に使用する。 2)マージンとスケールの働きが類似すること [9] から、本実験では、スケールを 64 に固定し、マージンのみを探索する。 3)多義動詞の割合は一定とする。 4) 0 から 1 まで 0.1 刻みで探索している。 5) contrastive 損失と triplet 損失では、 $0.1 、 0.2 、 0.5 、 1.0 、$ ArcFace 損失では、 $0.01 、 0.02 、 0.05 、 0.1$ の範囲で探索している。比較手法文脈化埋め込みモデルとして、事前学習済み BERT (bert-base-uncased) ${ }^{6}$ )を使用する。ファインチューニングをしないモデル (Vanilla) と 5 つのファインチューニングされたモデル (Contrastive、 Triplet、Softmax、ArcFace、AdaCos) に対して、1 段階クラスタリングと 2 段階クラスタリングを用いた全部で 12 の手法を比較する。埋め込みは全て $l_{2}$ 正規化を適用する。また、バッチサイズは 32、学習率は 1e-5、エポック数は 5 とし、最適化アルゴリズムは AdamW [17]を使用する。 評価指標評価指標として、B-cubed Precision 值 $(\mathrm{BCF})[18]$ と、Purity (PU)、Inverse Purity (IPU)、およびその調和平均である $\mathrm{F}$ 值 (PIF) [19]を使用する。 ## 3.2 実験結果 表 2 に実験結果を示す。Vanilla モデルと比較して、ファインチューニングされたモデル、特に Triplet、ArcFace、AdaCos モデル、は全体的に高い できる。一方、Contrastive モデルでは相対的に低いスコアとなった。これは Contrastive モデルのマージンが適切な粒度のクラスタ構築との親和性が低いことが要因であると考えられる。クラスタリングに関して、2 段階クラスタリングが 1 段階クラスタリングに比べて全体的に高いスコアを達成している。しかし、Vanilla モデルの場合では BcF と PIF 共に 12 ポイント以上差があったが、ファインチューニングされたモデルの場合ではその差が縮まっているこ 6) https://huggingface.co/bert-base-uncased 学習事例数を変化させたときの実験結果。各列は学習セット内の各 LU の使用された最大事例数を示す。 Vanilla BERT Self_motion $*$ EXPerilencer_obJ A BODY_MOVEMENT Fine-tuned BERT w/ Triplet PLACING 太 PATH_SHAPE 図 23 つのモデルにおける $v_{\text {word }}$ の 2 次元マッピング。各色および形状は事例数の多い上位 10 フレームを示す。 とが確認できる。このため、ファインチューニングを行う場合、1 段階クラスタリングも有望な選択肢になり得る。また、重み $\alpha$ に関して、スコアの高い AdaCos や Triplet モデルを用いた 2 段階クラスタリングにおいて值が 0.5 であり、マスクされた単語埋め込みを用いることの有効性が確認できる。 以上の実験結果から、約 30,000 という大規模な学習事例数が存在する場合については、学習事例に基づきファインチューニングを行うことで高い性能を実現できることが確認できた。しかし、FrameNetのような大規模リソースが存在しない言語への適用を考えた場合、少量の学習事例に対しても高い性能が期待できることが重要となる。そこで、LUごとの最大学習事例数の条件を ' 1 '、 ' 2 '、 ' 5 '、' 10 '、' 'all'として実験を行った。 3 セットの平均学習事例数はそれぞれ 1,273、2,445、5,680、10,053、27,537である。表 3 に結果を示す。Triplet モデルは少ない学習事例数においても有用であることが確認できる。特に、 2 段階クラスタリングでは、' 1 ' と 'all' で学習事例数が 20 倍以上異なるにも関わらず、スコアは 3 ポイント程度しか変わらないことから、少量の教師デー タが存在するのであれば、Triplet モデルを用いた 2 段階クラスタリングを適用することで、高精度な意味フレーム推定が実現可能と考えられる。一方、 AdaCos モデルでは学習事例が少ない場合は大きな性能の改善が確認できない。これは線形層の重みが十分に学習されないためであると考えられる。 図 2 に Vanilla、Triplet、AdaCos モデルの $v_{\text {word }}$ における t-SNE による 2 次元マッピングを示す。Vanilla モデルでは、フレームごとに事例がまとまる傾向はあるが、SELF_MOTION フレームの事例は大きく $2 \supset$ のクラスタに分かれており、Removing フレームの事例は散らばっている。一方、Triplet や AdaCos モデルでは、Vanilla モデルと比較して、より意味フレームごとにまとまっていることが確認できる。 ## 4 おわりに 本稿では、文脈化単語埋め込みを深層距離学習に基づきファインチューニングすることで高性能な意味フレーム推定手法が可能となることを示した。特に、Triplet、ArcFace、AdaCos モデルは全体的に高いスコアを獲得しており、その有用性が確認できた。 また、Triplet モデルにおいては、少量の学習事例数でも有用であることを示した。今後の方針として、多言語の動詞や名詞の意味フレーム推定における提案手法の有用性を検証したいと考えている。 ## 謝辞 本研究は、JST 創発的研究支援事業 JPMJFR216N、 および JSPS 科研費 22J14993 の支援を受けたものである。 ## 参考文献 [1] Collin F Baker, Charles J Fillmore, and John B Lowe. The Berkeley FrameNet project. In ACL-COLING, pp. 86-90, 1998. [2] Josef Ruppenhofer, Michael Ellsworth, Myriam Schwarzer-Petruck, Christopher R Johnson, and Jan Scheffczyk. FrameNet II: Extended theory and practice. International Computer Science Institute, 2016. [3] Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, and Luke Zettlemoyer. Deep contextualized word representations. In NAACL-HLT, pp. 2227-2237, 2018. [4] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In NAACL, pp. 41714186, 2019. [5] Nikolay Arefyev, Boris Sheludko, Adis Davletov, Dmitry Kharchev, Alex Nevidomsky, and Alexander Panchenko. Neural GRANNy at SemEval-2019 task 2: A combined approach for better modeling of semantic relationships in semantic frame induction. In SemEval, pp. 31-38, 2019. [6] Saba Anwar, Dmitry Ustalov, Nikolay Arefyev, Simone Paolo Ponzetto, Chris Biemann, and Alexander Panchenko. HHMM at SemEval-2019 task 2: Unsupervised frame induction using contextualized word embeddings. In SemEval, pp. 125-129, 2019. [7] Eugénio Ribeiro, Vânia Mendonça, Ricardo Ribeiro, David Martins de Matos, Alberto Sardinha, Ana Lúcia Santos, and Luísa Coheur. L2F/INESC-ID at SemEval2019 task 2: Unsupervised lexical semantic frame induction using contextualized word representations. In SemEval, pp. 130-136, 2019. [8] Laurens van der Maaten and Geoffrey Hinton. Visualizing data using $\mathrm{t}$-SNE. Journal of Machine Learning Research, Vol. 9, pp. 2579-2605, 2008. [9] Xiao Zhang, Rui Zhao, Yu Qiao, Xiaogang Wang, and Hongsheng Li. AdaCos: Adaptively scaling cosine logits for effectively learning deep face representations. In CVPR, pp. 10823-10832, 2019. [10] Kosuke Yamada, Ryohei Sasano, and Koichi Takeda. Semantic frame induction using masked word embeddings and two-step clustering. In ACL-IJCNLP, pp. 811-816, 2021. [11] Dan Pelleg and Andrew Moore. X-means: Extending kmeans with efficient estimation of the number of clusters. In ICML, pp. 727-734, 2000. [12] Raia Hadsell, Sumit Chopra, and Yann LeCun. Dimensionality reduction by learning an invariant mapping. In CVPR, Vol. 2, pp. 1735-1742, 2006. [13] Kilian Q Weinberger and Lawrence K Saul. Distance metric learning for large margin nearest neighbor classifica- tion. Journal of Machine Learning Research, Vol. 10, No. 2, 2009 . [14] Weiyang Liu, Yandong Wen, Zhiding Yu, Ming Li, Bhiksha Raj, and Le Song. SphereFace: Deep hypersphere embedding for face recognition. In CVPR, pp. 212-220, 2017. [15] Hao Wang, Yitong Wang, Zheng Zhou, Xing Ji, Dihong Gong, Jingchao Zhou, Zhifeng Li, and Wei Liu. CosFace: Large margin cosine loss for deep face recognition. In CVPR, pp. 5265-5274, 2018. [16] Jiankang Deng, Jia Guo, Niannan Xue, and Stefanos Zafeiriou. ArcFace: Additive angular margin loss for deep face recognition. In CVPR, pp. 4690-4699, 2019. [17] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In ICLR, 2017. [18] Amit Bagga and Breck Baldwin. Entity-based crossdocument coreferencing using the vector space model. In ACL-COLING, pp. 79-85, 1998. [19] Ying Zhao and George Karypis. Criterion functions for document clustering: Experiments and analysis. Technical report, Retrieved from the University of Minnesota Digital Conservancy, 2001.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C11-1.pdf
# 論文執筆支援を目的とした引用要否判定タスクの ドメイン間比較 小山康平 ${ }^{1}$ 小林恵大 ${ }^{1}$ 成松宏美 ${ }^{2}$ 南泰浩 1 1 電気通信大学情報理工学研究科 ${ }^{2} \mathrm{NTT}$ コミュニケーション科学基礎研究所 k2131071@edu.cc.uec.ac.jp k2231042@edu.cc.uec.ac.jp hiromi.narimatsu.eg@hco.ntt.co.jp minami.yasuhiro@is.uec.ac.jp ## 概要 学術論文の執筆および査読支援を目的として,引用の不足や余分な引用を自動で検出する引用要否判定タスクを課題とした研究が行われている.この引用要否判定タスクは非常に高い精度の推定が可能であるが,実験に用いるデータセットには実用が想定される状況よりも簡単な問題が含まれる懸念がある.そのため,我々は引用要否判定タスクにおけるデータセットの妥当性について検討してきた。本稿では, 論文のドメインの観点から妥当性を検討した. まず,異なるドメインから作成された複数のデータセットを用いて引用要否判定タスクを実施しその精度を比較した. ドメインごとに推定精度に大きな差があることが分かった.続いて,ドメインの差による引用要否判定タスク精度差の原因を調査するために,それぞれのデータセットに出現する単語パタンの比較を実施した. 出現する単語に差があり, 引用要否判定学習モデルの学習精度にも影響を与えている可能性があることが分かった. ## 1 はじめに 公開される学術論文の数は年々増加しており [1]研究者はこれまで以上に早いスピードで論文化し公開することが求められている。この論文化の過程では,学術論文を執筆する際,多数の関連研究を読み,一文一文に気を配りながら適切に引用することが求められ, 研究者の負担は増している. 論文執筆に慣れた研究者であれば,それらの作業を効率よく行うことができるが,そうでない場合には,執筆に関わる負担は大きい。また執筆した論文をチェックする共著者や査読者への負担の影響も大きい。 こうした背景から,論文執筆支援に関わる様々な研究が行われている。具体的には,既に検索済みの論文の閲読時間削減を目的とした論文要約 $[2,3,4]$ や,未検索の論文の効率的な検索を目的とした参考文献推薦 [5],論文執筆の効率化を目的とした引用要否判定 $[6,7]$, 被引用文献割り当て [8], 引用文生成 $[9,10]$ などである. 本研究では,論文チェックにおいて最初に必要となる引用要否判定タスクに着目する。 引用要否判定タスクとは,論文中の任意のある文に対して引用が必要か必要でないかを推論するタスクである。 その精度は9 割程度と非常に高く [11].前後の文脈の入力や学習モデルの改善により, さらなる精度の向上が期待できる [12]. しかしながら,支援システムを目的とするとき,これらの精度が真に得られているかは注意深く分析する必要がある.具体的には,引用箇所をそのまま取り除いているために発生する不完全文,引用をする際の明らかなパタン,論文カテゴリの偏りなどが判定精度を高めている可能性が示唆される。 そのため, 我々は引用要否判定を正しく評価し,その判定精度を向上を目的として,引用要否判定タスクのデータの妥当性分析を行ってきた [12]. 従来の引用要否判定タスクに用いられるデータセットは単一のドメインから作成されている. ドメインに偏りのあるデータセットを用いて引用要否モデルの学習を行った場合,ドメイン特有の引用,たとえば固有名詞などを特徴として学び取ることで,高い精度が出ている可能性があり, 文全体から引用が必要かどうかは判断できていない可能性がある.以上の理由から,本稿では,異なるドメインから作成された複数のデータセットを用いて引用要否判定タスクを実施しその精度を比較する. もし, ドメインの偏りが引用要否判定タスクに影響を与えるなら,どのような情報が引用要否判定タスクに影響を与えるかを調査する必要がある.影響を与える要 素を特定するために,引用要否判定タスクに用いたデータセットをドメインと引用の要否の観点から分類し, N-gram や Tf-idf を用いて分析を行う。 ## 2 関連研究 引用論文推薦の前段階として,引用の要否を判定する研究が行われている $[11,13]$. 引用要否判定夕スクとは,論文中の各文に対して,引用が必要かどうかを判定するタスクである。初期の研究では,サポートベクターマシン (SVM) や決定木を使った判定器を学習する方法が提案されてきた [14, 15]. 彼らは,ACLをはじめとする論文データベースから構築したデータセットを用いて評価を行なっていた。近年では,公開される論文数の増加に伴い,より大規模な論文データベースからデータを作成できるようになった. ARC [16]などは特に幅広く使われている大規模データセットである.これによりデー 夕量が必要な深層学習をべースとする手法も提案されてきている [17]. さまざまな自然言語処理のタスクで高い性能を発揮している大規模汎用言語モデルの一つである BERT [18] を用いた研究もある.堂坂らは,BERT を引用要否判定タスクの少量のデータで転移学習することで, Bonab らが公開した Citation Worthiness データセット [19]にて,CNNをベースとする手法よりも高い精度が得られ, $\mathrm{F}$ 值で 0.7 に到達することを示している. 成松らは, arXiv の論文を対象にデータセットを構築し,BERT で評価をした結果, $\mathrm{F}$ 值で 0.9 を達成しており, 高い精度で要否の判定が可能であることを示している [20]. しかしながら,いずれの研究においても,ドメインの違いが引用要否判定タスクに及ぼす影響の分析は行われていない. 本研究では,異なる引用要否判定研究の結果を比較し, より適切な推定手法やデー タセットを作成するためには異なるドメイン間の引用要否判定を実施する. ## 3 データセット 本稿では 2 種類のデータセットを使用する. 1 種類目のデータセットは AxCell [21] である.このデータセットは $\operatorname{arXiv}$ から集めた,コンピュータサイエンス分野の論文を基に作成されている. 本来は引用要否判定のために作成されたデータセットではないが,より汎用的な論文執筆支援タスクに応用するために加工を行なった [22]. 引用要否判定に用いた文は 707560 文である. 2 種類目のデータセッ トは PMOA-CITE である [23]. このデータセットは PubMed から集めた, 医学分野の論文を基に作成されている. データ量は 1008060 文である. ## 4 異なるドメインの引用要否判定 異なるドメインから作成された引用要否判定モデルの推定精度に差が生じるかを確かめるために,上記の医療分野とコンピュータサイエンス分野のデー タセットを利用し,それぞれに引用要否判定タスクを行う.また,単一ドメインのデータセットを学習基にした引用要否判定モデルを他分野に応用できるか確かめるために,学習データと評価データを異なるドメインにした引用要否判定も実施する. ## 4.1 実験条件 引用が必要か不要かの二値分類の性能を言語モデルを用いて評価する。本稿では,汎用言語モデルとして最初に成功を納めた BERT [18]を基に,科学論文を事前学習に使用した SciBERT [24]を用いて引用要否判定を実施する. データセットには上記の AxCell [21],PMOA-CITE [23] を使用し,データ数同数になるよう,データ量を (train:200,000 文,dev:50,000 文,test:50,000 文) とした. 学習モデルのパラメータは (学習率:1e-7,Epoch 数:10, batch_size:32)とした. ## 4.2 実験結果 実験結果を表 1 に示す. 学習と評価共に同一ドメインの結果を見ると, AxCell の方が PMOAよりも推定精度が高い.このことから,コンピュータサイエンス分野のデータセットは医療分野のデータセットよりも推定が容易であることが分かる. ドメインによって引用要否判定の難易度が異なる場合があることが予想される. また, 学習用データと評価データで異なるドメインのデータセットを使用した場合に精度が低下していた. このことから,引用要否判定タスクの精度はドメインごとの固有情報から影響を受ける可能性があり,ある単一分野から学習した引用要否判定モデルは他分野に転用できないことが分かる,学習データに AxCell, 評価データに PMOA-CITE を用いた結果が学習データに PMOA-CITE, 評価データに AxCellを用いた結果を下回ったことから,PMOA-CITE には AxCell よりも幅広い情報が含まれている可能性がある。どのような固有情報が引用要否判定タスクに影響を与えるかを明らかにするために,次章では PMOA-CITET と 表 1 複数のドメインの引用要否判定 AxCell のデータセットに現れる単語パタンを分析し比較する。 ## 5 異なるドメインの単語パタン比較 PMOA-CITE 及び AxCell の引用要否判定データセットに含まれる固有情報を明らかにするために, それぞれのデータセットの N-gram 単語頻度の調査を行う。 まず初めに,ドメインごとに重要度の高い単語パタンを調査し,データセットの特徴を明らかにする. そのために,データセットの文中から単語 bigram 情報を抽出し, PMOA と AxCell それぞれにおける Tf-idf 值を計算する。 続いて,引用手段の特徴の差を明らかにするために,片方のドメインでは引用の要否によって単語 bigram パタンの出現頻度が大きく異なるが,もう片方のドメインでは出現頻度が変わらない単語を調査する. 今回は, 引用の要否による出現頻度の偏り (特有度)独自に定義してドメインごとに計算する。 ## 5.1 実験条件 特有度の計算は式 (1) に示す. $(x, y$ は対象 bigram が引用の要・否それぞれに出現する割合を表す)調査には (4.1) 節で定義したデータセットと同様のものを使用する。 $ \text { 特有度 }=\log |x-y| $ ## 5.2 実験結果 ドメインごとの単語 bigram パタンの重要度を図 3 に示す. 縦軸が PMOA-CITE における Tf-idf 値, 横軸が AxCell における Tf-idf 値を表している.PMOA では” associated with" ,"this study”のようなパタンの tf-idf が高い一方で, AxCell では”which is","For example”のようなパタンの tf-idf が高かった. 以上のことから, ドメインごとの出現単語に大きく差がある単語 bigram パタンが存在し, 深層学習を用いて作成した引用要否判定モデルに影響を与える可能性 があることが分かる. ドメインごとの単語 bigram パタンの特有度を図 4 に示す。縦軸が PMOA-CITE における重要度, 横軸が AxCell における重要度を表している。この図では左上, 右下に位置する単語 bigram パタンほど引用の要否及びドメイン間での重要度の差が大きいことになる.こうした単語 bigram パタンには”deep learning" ,"in patients”をはじめとするを含む表現や"focus on","effect of"のような言い回し表現も含まれる。以上のことから引用要否判定データセットにはドメイン特有の単語パタンが含まれていることが分かる. 図 1 引用要否ごとの Tf-idf(AxCell) 図 2 引用要否ごとの Tf-idf(PMOA) 図 3 単語パタンの重要度 図4 単語パタンの特有度 ## 6 考察と今後の展望 本稿では,論文中のある文に対して引用が必要か必要でないかを推論するタスクである引用要否判定タスクにおいて,ドメインの種類が引用要否判定に影響を与えるかを調査するために,複数のデータセットで引用要否判定を実施した. コンピュータサイエンス分野と医学分野のデータセットでこの調査を行いその精度を比較した結果,コンピュータサイエンス分野のデータセットを用いた方が精度が高いことがわかった. このことから,引用要否判定はドメインごとに難易度に差があることが分かる. また,学習と評価で異なるデータセットを使用した場合には精度が大きく低下した.このことから,引用要否データセットにはドメイン固有の表現が含まれており,学習モデルの転用には,考慮が必要なことが分かった。 異なるドメインのデータセット内における単語の重要度を bigram の td-idf で比較した結果,ドメイン間で大きな差があることがわかった.また,単語 bigram パタンに対して引用要否ごとの偏りを表した特有度を計算した。その結果,様々なパタンでデー タセットごとの特有度に差が見られた. 以上のことから,カテゴリごとに単語パタンの出現頻度には偏りがあり,引用要否判定モデルの学習に影響を与えている可能性があることが分かる. ドメインごとにデータセットには特徴があり,引用要否判定に与える影響にも大きく差が出る。そのため,より実用的な引用要否データセットを作成するためには,様々な領域全体をカバーするより大規模なデータを利用する,あるいは,厳密な実験条件を定義し,ドメインごとの明示的な単語パタンを取り除いたデータセットを作成することなども必要である。 ## 謝辞 研究の遂行にあたり,ご助言をいただきました,秋田県立大学堂坂浩二教授,NTTコミュニケーション科学基礎研究所杉山弘晃氏,東中竜一郎氏,大阪工業大学平博順教授, 工学院大学大和淳司教授, 科学技術振興機構菊井玄一郎氏に感謝いたします。 ## 参考文献 [1] 桑原真人. 各国の論文数の推移から見えるもの. 日本物理学会誌, Vol. 72, No. 4, pp. 246-251, 2017. [2] Simone Teufel and Marc Moens. Articles summarizing scientific articles: Experiments with relevance and rhetorical status. Computational Linguistics, Vol. 28, No. 4, pp. 409-445, 2002. [3] Michihiro Yasunaga, Jungo Kasai, Rui Zhang, Alexander Fabbri, Irene Li, Dan Friedman, and Dragomir Radev. ScisummNet: A large annotated corpus and contentimpact models for scientific paper summarization with citation networks. In Proceedings of AAAI 2019, 2019. [4] Chenxin An, Ming Zhong, Yiran Chen, Danqing Wang, Xipeng Qiu, and Xuanjing Huang. Enhancing scientific papers summarization with citation graph. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 35, No. 14, pp. 12498-12506, May 2021. [5] Xiaomei Bai, Mengyang Wang, Ivan Lee, Zhuo Yang, Xiangjie Kong, and Feng Xia. Scientific paper recommendation: A survey. IEEE Access, Vol. 7, pp. 9324-9339, 2019. [6] Michael Färber, Alexander Thiemann, and Adam Jatowt. To cite, or not to cite? detecting citation contexts in text. In Gabriella Pasi, Benjamin Piwowarski, Leif Azzopardi, and Allan Hanbury, editors, Advances in Information Retrieval, pp. 598-603, Cham, 2018. Springer International Publishing. [7] Rakesh Gosangi, Ravneet Arora, Mohsen Gheisarieha, Debanjan Mahata, and Haimin Zhang. On the use of context for predicting citation worthiness of sentences in scholarly articles. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4539-4545, Online, June 2021. Association for Computational Linguistics. [8] Michael Färber and Adam Jatowt. Citation recommendation: approaches and datasets. International Journal on Digital Libraries, Vol. 21, , 122020. [9] Xinyu Xing, Xiaosheng Fan, and Xiaojun Wan. Automatic generation of citation texts in scholarly papers: A pilot study. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 6181-6190, Online, July 2020. Association for Computational Linguistics. [10] Qingqin Wang, Yun Xiong, Yao Zhang, Jiawei Zhang, and Yangyong Zhu. Autocite: Multi-modal representation fusion for contextual citation generation. In Proceedings of the 14th ACM International Conference on Web Search and Data Mining, WSDM '21, p. 788-796, New York, NY, USA, 2021. Association for Computing Machinery. [11] Michael Färber, Alexander Thiemann, and Adam Jatowt. To cite, or not to cite? detecting citation contexts in text. In Gabriella Pasi, Benjamin Piwowarski, Leif Azzopardi, and Allan Hanbury, editors, Advances in Information Retrieval, pp. 598-603, Cham, 2018. Springer International Publishing. [12] 小山康平, 小林恵大, 南泰浩, 成松宏美. 引用要否判定タスクにおけるモデルの性能評価とデータの妥当性分析. 言語処理学会第 28 回年次大会, 2022. [13] Hamed Bonab, Hamed Zamani, Erik Learned-Miller, and James Allan. Citation worthiness of sentences in scientific reports. 072018. [14] Kazunari Sugiyama, Tarun Kumar, Min-Yen Kan, and Ramesh C Tripathi. Identifying citing sentences in research papers using supervised learning. In 2010 International Conference on Information Retrieval \& Knowledge Management (CAMP), pp. 67-72. IEEE, 2010. [15] Qi He, Daniel Kifer, Jian Pei, Prasenjit Mitra, and C Lee Giles. Citation recommendation without author supervision. In Proceedings of the fourth ACM international conference on Web search and data mining, pp. 755764, 2011. [16] Steven Bird, Robert Dale, Bonnie Dorr, Bryan Gibson, Mark Joseph, Min-Yen Kan, Dongwon Lee, Brett Powley, Dragomir Radev, and Yee Fan Tan. The ACL Anthology reference corpus: A reference dataset for bibliographic research in computational linguistics. In Proceedings of the Sixth International Conference on Language Resources and Evaluation (LREC'08), Marrakech, Mo- rocco, May 2008. European Language Resources Association (ELRA). [17] Rakesh Gosangi, Ravneet Arora, Mohsen Gheisarieha, Debanjan Mahata, and Haimin Zhang. On the use of context for predicting citation worthiness of sentences in scholarly articles. CoRR, Vol. abs/2104.08962, , 2021. [18] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding, 2019. [19] Hamed Bonab, Hamed Zamani, Erik Learned-Miller, and James Allan. Citation worthiness of sentences in scientific reports. In The 41st International ACM SIGIR Conference on Research \& Development in Information Retrieval, pp. 1061-1064, 2018. [20] Hiromi Narimatsu, Kohei Koyama, Kohji Dohsaka, Ryuichiro Higashinaka, Yasuhiro Minami, and Hirotoshi Taira. Task definition and integration for scientificdocument writing support. In Proceedings of the Second Workshop on Scholarly Document Processing, pp. 18-26, 2021. [21] Marcin Kardas, Piotr Czapla, Pontus Stenetorp, Sebastian Ruder, Sebastian Riedel, Ross Taylor, and Robert Stojnic. Axcell: Automatic extraction of results from machine learning papers. arXiv preprint arXiv:2004.14356, 2020. [22] 小山康平, 南泰浩, 成松宏美, 堂坂浩二, 田盛大悟, 東中竜一郎, 平博順. 学術論文における関連研究の執筆支援のための被引用論文の推定. 言語処理学会第 26 回年次大会, 2021. [23] TONG ZENG. PMOA-CITE dataset. 62020 [24] Iz Beltagy, Kyle Lo, and Arman Cohan. SciBERT: A pretrained language model for scientific text. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3615-3620, Hong Kong, China, November 2019. Association for Computational Linguistics.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C11-2.pdf
# 引用文脈の類似度に基づく局所的引用論文推薦 田中陸斗 ${ }^{1}$ 杉山弘晃 ${ }^{2}$ 平博順 3 有田朗人 ${ }^{3}$ 堂坂浩二 ${ }^{1}$ 1 秋田県立大学 ${ }^{2} \mathrm{NTT}$ コミュニケーション科学基礎研究所 ${ }^{3}$ 大阪工業大学 $\{m 24 p 010$, dohsaka\}@akita-pu.ac.jp, h.sugi@ieee.org \{hirotoshi.taira, m1m21a02\}@oit.ac.jp ## 概要 出版される論文の爆発的な増加により引用論文推薦の需要が高まっている. 本論文では,対象論文の関連研究の章を執筆する際に,引用を付与すべき個所に対し適切な引用論文を推薦する局所的引用論文推薦のタスクを扱う. 引用を付与すべき個所の周囲の文は引用文脈と呼ばれる。本研究では,ある特定の論文を引用する際に書かれる引用文脈同士は似通っていることが多いという仮定のもと,対象論文の引用文脈と既存論文の引用文脈の類似度を使って引用論文を推薦する引用文脈参照法を提案する. しかし,この手法には一度も引用されたことがない論文は推薦できないコールドスタート問題が存在する. 本研究では, 対象論文の引用文脈と既存論文のタイトル・要旨間の類似度を使った従来手法と組み合わせることによりコールドスタート問題に対処し,論文推薦の性能が向上することを示す. ## 1 はじめに 学術論文を執筆する際,論文中の主張を裏付けるために適切な引用を行うことは重要である.しかし, 近年論文数が爆発的に増加し, 研究者が関連する研究をすべて読み切ることは困難となっており,関連研究に関わる論文執筆支援の必要性が高まっている. Narimatsu ら [1] は, 研究者の論文執筆における関連研究の引用および生成に関わる統合的な執筆支援を目的として,関連研究に関わる様々な既存のタスクを統合した新たなデータセット構築方法および 5 つのタスクを定義した. 本稿では, その中の引用論文推薦タスクに着目する. これは与えられたテキストに対して適切な引用論文を推薦するタスクであり,大域的引用論文推薦と局所的引用論文推薦に分類される [2]. 大域的引用論文推薦では, 参考文献リストに入るべき論文を推薦するのに対し,局所的引用論文推薦では,引用を付与すべき個所(引用マーカー)が与えられたときに引用マーカー内に入る論文を推薦する。本研究では,関連研究の章を執筆する際の局所的引用論文推薦のタスクを扱う.また, 用語の定義として, 引用マーカーの前後 50 単語を引用文脈,引用を付与したい引用文脈をもつ論文を対象論文と呼ぶ。 引用論文推薦タスクにおいて,推薦候補となる既存論文のタイトル・要旨を集めたものを論文プールと呼ぶ. 2 節で説明するように, 従来研究として,現在着目する対象論文の引用文脈と, 論文プール内の既存論文のタイトル・要旨の間の類似度を計算し, 対象論文の引用文脈と類似したタイトル・要旨をもつ論文を推薦するという手法が提案されてきた. この手法をタイトル・要旨参照法と呼ぶ.この手法には論文のタイトル・要旨は容易に収集できるという利点があるが,引用文脈とタイトル・要旨は別の意図で書かれた文章であるため,適切な引用論文を検索できない場合がありえる.そこで,本研究では,ある特定の論文の引用文脈同士は似通っていることが多いことを仮定し,対象論文の引用文脈と既存論文が引用された際の引用文脈の類似度を使って引用論文を推薦する引用文脈参照法を提案する. この手法では,既存論文の引用文脈を引用文脈プー ルとして収集し, 現在着目している対象論文の引用文脈と類似した引用文脈をもつ論文を引用文脈プー ルから探して推薦する. 局所的引用論文推薦の従来研究では,タイトル・要旨を使った手法は提案されてきているが,知る限りにおいて,既存論文の引用文脈を収集し,それを活用することに着目した研究はない。しかし,引用文脈参照法には,過去に一度も引用されたことがない論文は推薦できないというコールドスタート問題が存在する。 そこで,本研究では,広く用いられてるタイトル・要旨参照法と組み合わせることで,一度も引用されていない論文も推薦できるように対処した. 図 1 手法の概要 以下において,2節で関連研究を述べ,3節で提案手法を示す. 4 節で,データセット並びに評価方法を説明し,評価結果について考察する。 ## 2 関連研究 局所的引用論文推薦は現在までに様々なアプロー チがとられてきた. 既存研究には, 引用文脈と論文間の関係に焦点を当てる研究が多くあり, Sugimoto ら [3] は,対象論文の引用文脈と推薦する候補の論文のタイトル・要旨の双方を独立に SciBERT[4] で埋め込み,候補の論文をコサイン類似度でランク付けするモデルを提案している。 また,Ebesu ら [5] は,引用文脈に応じた引用推薦のためのニューラル引用ネットワークを,引用文脈と著者ネットワーク,論文のタイトルを使用することで検討した. Zhang ら [6] は,草稿時の状況を想定しており,引用文脈と既に自分で引用している被引用論文の情報, 引用文脈を書いている章に着目した推薦手法を提案している. Jeong ら [7] は,引用文脈の埋め込み表現を, BERT[8] と GCN[9] を用いて取得し, 引用論文推薦に取り入れている. しかし, 既存研究には著者が引用したい被引用論文が,他の既存論文ではどのような引用文脈で引用されているかに着目した研究は知る限りでは存在しない. 本稿では, 対象論文の引用文脈と被引用論文の既存論文における引用文脈の比較を行うことが引用論文推薦に有効であることを示す. ## 3 提案手法 本稿では,与えられた引用文脈に対して,類似したタイトル・要旨をもつ論文を取得する手法をタイトル・要旨参照法と呼ぶ。また,新たに提案する,類似した引用文脈で引用された論文を取得する手法を引用文脈参照法と呼ぶ.さらに,引用文脈参照法亿存在する, 1 度も引用されていない論文は推薦対象にならないというコールドスタート問題に対処するため, タイトル・要旨参照法と引用文脈参照法を組み合わせた手法を提案する. 推論の概要図を図 1 に示す.この図は, 論文プー ル内に $\mathrm{A}, \mathrm{B} , \mathrm{C}$ の 3 件の論文があり, B のみ一度も引用されていない状況である. よって, 引用文脈プールに B の引用文脈は存在しない. 引用文脈が存在する A および C は引用文脈参照法を用いてスコアを計算し,引用文脈が存在しない B はタイトル・要旨参照法を用いてスコアを計算している例を示している. タイトル・要旨参照法引用文脈と論文プール内の既存論文のタイトル・要旨の類似度を比較するために, 文の埋め込み表現に特化した BERT である SBERT[10](以下 SBERT)を用いてモデルを作成す る. アンカーの引用文脈と対応する論文のタイトル・要旨を正例とし, 論文プール内の正例論文以外からランダムに選んだ論文のタイトル・要旨を負例として,以下の式で表される損失関数で埋め込み表現を学習する.また,プーリング層には,BERTの出力ベクトルの平均値を使用する. $ \text { Loss }=\max \left.\{\left(\left.\|C-P^{+}\right.\|-\left.\|C-P^{-}\right.\|+\epsilon\right), 0\right.\} $ ここで, $C$ はアンカーである引用文脈の埋め込み, $P^{+}$は正例の埋め込み, $P^{-}$は, 負例の埋め込みを示す.また,元論文 [10] に従い,距離にはユークリッドを使用し,マージン $\epsilon$ は 1 とした. 推論時は,対象論文の引用文脈と,論文プール内の論文のタイトル・要旨をそれぞれ上記のモデルに入力して得られたべクトル間のコサイン類似度を計算し,これをスコアとする。最後に,スコアが高い順に $\mathrm{k}$ 件の論文を取得する。 引用文脈参照法引用文脈同士の類似度を比較するために,タイトル・要旨参照法と同様に SBERT を用いてモデルを作成する。この手法では,アンカーの引用文脈で引用されている論文と同じ論文を引用している引用文脈を正例とし, 引用文脈プール内の正例の引用文脈以外からランダムに選んだ引用文脈を負例として,以下の式で表される損失関数で埋め込み表現を学習する。 $ \text { Loss }=\max \left.\{\left(\left.\|C-C^{+}\right.\|-\left.\|C-C^{-}\right.\|+\epsilon\right), 0\right.\} $ ここで, $C$ はアンカーである引用文脈の埋め込み, $C^{+}$は正例の埋め込み, $C^{-}$は,負例の埋め込みを示す. タイトル・要旨参照法と同様に,距離にはユー クリッドを使用し,マージン $\epsilon$ は 1 とした. 推論時は,対象論文の引用文脈と,引用文脈プー ル内の論文の引用文脈の類似度をモデルに入力し,得られたべクトル間のコサイン類似度を計算する。 その際,引用文脈プール内の論文で,引用文脈が複数所持しているときは, 最も大きい類似度をスコアとする。最後に,スコアが高い順に $\mathrm{k}$ 件の論文を取得する. 組み合わせた手法引用文脈参照法において,1 度も引用されていない論文が推薦対象にならないという問題に対処するため,2つの手法を組み合わせる. 1 度以上引用されている論文,つまり引用文脈を所持している論文には引用文脈参照法を使用し, 対象論文の引用論文と引用文脈プール内の論文の引用文脈とのコサイン類似度を計算する. 未引用の論文には,論文プール内の論文との類似度をタイ トル・要旨参照法を使用しコサイン類似度を計算する. その後, 得られたコサイン類似度をソートし,高い順に $\mathrm{k}$ 件の論文を取得する。 ## 4 実験 ## 4.1 データセット 研究者の学術論文の執筆支援を目的として, Narimatsu ら [1] によって作成されたデータセットを使用する。このデータセットには, arXiv から取得した論文の関連研究の章が約 30000 件と,関連研究の章で引用されている論文のタイトル,要旨が含まれている. すべての関連研究の章のうち, 引用論文数が 1 件以上である約 13000 件を使用する. これを訓練データ,検証データ,テストデータにそれぞれ約 10400,1300,1300 件ずつに分割する.また,引用文脈の数は訓練データ,検証データ,テストデー タそれぞれで約 70000,10000,7800 件である. テストデータの引用文脈のうち,コールドスタート問題が起こり得る数は 692 件であり,約 $9 \% を$ 占めている. ## 4.1.1 論文プール 本稿では,論文のタイトル・要旨が得られた論文集合を論文プールと定義する。関連研究の章をもつ論文と,その章で引用されている論文が論文プールに含まれている.総数は約 38000 件である. ## 4.1.2 引用文脈プール 訓練データ内の関連研究の章で使われた引用文脈を集めたものを引用文脈プールと定義する。 よって,総数は約 70000 件である. 引用文脈プール内の論文は約 10000 件存在し, 最大引用回数は 830 回,最小引用回数は 1 回, 平均引用回数は 7.8 回である. ## 4.2 評価手法 提案した論文推薦システムが既存の論文の引用をどの程度予測できるかを測定する。本稿では,推薦された候補の上位 5 件と上位 10 件に対して Recall とMRRを計算して評価する. Recall は以下の式で表される。 $ \text { Recall @k }=\frac{\left|\alpha \cap p_{k}\right|}{|\alpha|} $ ここで, $\mathrm{k}$ は考慮する上位ランキング件数, $\alpha$ は正解の被引用論文集合, $p_{k}$ は上位 $\mathrm{k}$ 件の推薦リストで ある. また,MRR は以下の計算で表される. $ M R R @ k=\frac{1}{|\alpha|} \sum_{u \in \alpha} \frac{1}{\operatorname{rank}_{u}} $ ここで, $u$ が正解論文の 1 つ, $\operatorname{rank}_{u}$ が論文 $u$ の候補論文のうち,最初に正解論文が出現する順位を示している. ## 4.3 結果と考察 対象論文の引用文脈と論文プール内の論文のタイトル・要旨の類似度並びに対象論文の引用文脈と引用文脈プール内の引用文脈との類似度を計算するためのベースラインとして TF-IDF を使用する. ベー スラインと本手法の評価結果を表 1 に示す. まず, タイトル・要旨法も引用文脈参照法も,SBERTをモデルとして使った場合がベースラインを上回っていることが確認でき,SBERTによる類似度の学習に効果があることが分かる. 次に, 引用文脈参照法はタイトル・要旨参照法よりも性能が良く,対象論文と既存論文の引用文脈同士の類似度を活用することに効果があることが分かる. さらに,2つの手法を組み合わせることで引用文脈参照法単体の場合よりも性能が向上していることが分かる.このことは,一度も引用されたことがない論文を推薦する場合に,タイトル・要旨参照法に組み合わせることによって,引用論文推薦の性能が向上する可能性があることを示している. また,コールドスタート問題が起こる 692 件の引用文脈の評価結果を表 2 に示す.これはSBERT モデルのみでの評価となっている. 引用文脈参照法での性能が 0 ではないのは,正解の論文が複数ある場合,すべての正解の論文が引用文脈をもたないとは限らないためである.この表から分かるように, コールドスタート問題が起こり得る場合において, タイトル・要旨参照法を組み合わせることで,引用文脈参照単独よりも性能が改善したことが分かる.表 2 コールドスタート問題が起こる引用文脈の評価結果手法 @ 510 ## 5 おわりに 本稿では,引用マーカーが与えられたときに,適切な被引用論文を推薦する局所的引用論文推薦の夕スクに取り組んだ。同じ被引用論文が引用されている引用文脈は類似する傾向があるという仮定に基づき,SBERT を用いて引用文脈同士の類似度を計算し,適切な論文を推薦するという引用文脈参照法を提案した。ただし,この手法には一度も引用されたことがない論文は推薦できないというコールドスタート問題が存在するため, 既存研究で広く用いられているタイトルと要旨を使用する手法と組み合わせることにより,引用文脈参照法単独よりも論文推薦の性能が向上することを示した. 今後の課題としては,どのような意図で引用されているかを考慮した手法の検討や,引用回数に着目した手法の検討などが挙げられる. ## 謝辞 本研究の遂行にあたり,ご助言・ご協力をいただきました,電気通信大学小山康平氏,NTTコミュニケーション科学基礎研究所成松宏美主任研究員,電気通信大学南泰浩教授, 工学院大学大和淳司教授,名古屋大学東中竜一郎教授,国立研究開発法人科学技術振興機構菊井玄一郎氏に感謝いたします。 また,日頃より丁寧にご指導してくださる秋田県立大学石井雅樹准教授, 伊東嗣功助教に感謝いたします。 ## 参考文献 [1] Hiromi Narimatsu, Kohei Koyama, Kohji Dohsaka, Ryuichiro Higashinaka, Yasuhiro Minami, and Hirotoshi Taira. Task definition and integration for scientificdocument writing support. In Proceedings of the Second Workshop on Scholarly Document Processing, pp. 18-26, 2021. [2] Michael Färber and Adam Jatowt. Citation recommendation: approaches and datasets. International Journal on Digital Libraries, Vol. 21, No. 4, pp. 375-405, 2020. [3] Kaito Sugimoto and Akiko Aizawa. Context-aware Citation Recommendation Based on BERT-based Bi-Ranker. In 2nd Workshop on Natural Language Processing for Scientific Text at AKBC 2021, 2021. [4] Iz Beltagy, Kyle Lo, and Arman Cohan. SciBERT: A pretrained language model for scientific text. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3615-3620, 2019. [5] Travis Ebesu and Yi Fang. Neural citation network for context-aware citation recommendation. In Proceedings of the 40th international ACM SIGIR conference on research and development in information retrieval, pp. 1093-1096, 2017. [6] Yang Zhang and Qiang Ma. Dual attention model for citation recommendation. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 3179-3189, 2020. [7] Chanwoo Jeong, Sion Jang, Eunjeong Park, and Sungchul Choi. A context-aware citation recommendation model with bert and graph convolutional networks. Scientometrics, Vol. 124, No. 3, pp. 1907-1922, 2020 [8] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018. [9] Thomas N Kipf and Max Welling. Semi-supervised classification with graph convolutional networks. arXiv preprint arXiv:1609.02907, 2016. [10] Nils Reimers and Iryna Gurevych. Sentence-BERT: Sentence embeddings using siamese BERT-networks. arXiv preprint arXiv:1908.10084, 2019.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C11-3.pdf
# 文書外の書誌情報と用語情報を組み込んだ文書分類 井田龍希 三輪誠 佐々木裕 豊田工業大学 \{sd22401, makoto-miwa,yutaka.sasaki\}@toyota-ti.ac.jp ## 概要 本論文では,書誌情報に基づく文献グラフを組み込んだ新しい文書分類手法を提案する。近年,事前学習モデルである BERT の利用により文書分類の性能は大幅に向上した. さらなる性能向上のためには,書誌情報や引用情報,用語の説明文や上位下位関係などの外部情報など,対象テキスト情報以外の情報の活用が鍵となると考えられる。本提案手法では,対象テキスト情報以外の情報を利用する既存の文書分類手法が考慮できていない,書誌情報や用語などの文書間に共通する情報を含む文書間の関係を文献グラフとして利用し,文書間のより詳細な関係を考慮する.実験では,生化学分野の文書分類デー タセットで既存手法からの性能向上を確認した. ## 1 はじめに 近年提案された,大量のデータで事前学習をし,文脈を考慮した表現が得られる BERT (Bidirectional Encoder Representations from Transformers) [1] を用いた手法は,少ないデータで fine-tuning をすることでタスクに特化したモデルを作成でき,文書分類においても高い性能を示している。 さらに文書分類においては,著者や出版ジャーナルなどの書誌情報や引用関係にある論文,テキスト中の用語についての外部情報などの対象テキスト情報以外の情報が活用できる. Yao ら [2] は,文書と単語を節点とし, 文書節点とその文書に出現する単語節点の間・共起頻度が高い単語節点間それぞれに辺を張った文書グラフの表現を用いて文書分類を行っている.この文書グラフにより, 共通した単語を持つ文書節点がその単語節点を介してつながり,文書間の関係を考慮した文書分類を実現している。 さらに BertGCN [3] では, 文書グラフの節点表現に BERT [1]を用いてテキスト情報を追加している. また,Yasunaga ら [4] は引用関係にある文書のテキス卜情報を同時に入力する事前学習手法を提案し,文書間の関係を考慮した言語モデル LinkBERT を作成し,従来の BERT より高い性能を達成している.このようにテキスト情報以外の情報の有効性は示されているものの,これらの手法では単語の共起や引用関係という限られた情報のみしか考慮できておらず,著者や出版ジャーナルなどの書誌情報,用語に関する説明文や上位下位関係などの外部情報(以降,用語情報と呼ぶ)などの複数の情報を同時に考慮できていない。 そこで,本研究では複数の情報を同時に利用できる文書分類の実現を目的に,書誌情報・用語情報など多くの対象テキスト以外の情報を含む文献グラフから文書間の様々な関係を考慮した表現べクトルを作成し,その表現ベクトルと文書のテキスト情報を組み込んだ文書分類モデルを提案する.本研究の貢献は以下の通りである. ・書誌情報・用語情報を含む文献グラフからの表現ベクトルを利用して,より複雑な文書間の関係の情報とテキスト情報を組み込んだ文書分類モデルを提案した。 ・生化学分野の文書分類データセットである Ohsumed [5], Hallmarks of Cancer (HoC) [6] において文献グラフの情報を用いることで既存手法からの性能向上を確認した. ## 2 関連研究 ## 2.1 文書分類 文書分類には対象文書のテキスト情報のみを使用する手法 [1] と対象テキスト情報以外の情報を考慮する手法 $[2,3,4]$ がある. 対象テキスト情報以外の情報を利用した手法では,文書グラフを用いた手法があり,Yao らは文書と単語を節点として,文書節点とその文書に出現する単語節点の間に TF-IDF 值で重みづけした辺を張った文書グラフを用いた文書分類を提案した [2]. (1)文献グラフを作成し, (2) 用語間の関係を追加 Bacterial Infections and Mycoses Virus Diseases Eye Diseases Parasitic Diseases (4) 文献グラフからの表現を利用したテキスト分類 BERT 図 1 提案手法の流れ この文書グラフでは PMI の値によって関連度が高いとみなした単語節点間にも辺を張っている. 節点に接続する辺を通して周りの節点からの情報をその節点に集約するグラフ畳み込みネットワーク (Graph Convolutional Network; GCN) [7] を用いて, 文書グラフの節点表現をグラフ構造を考慮しながら更新し,その表現を文書分類に利用している。 さらに,BertGCN [3] では,文書節点の表現に BERTを利用し, 文書グラフに文書のテキスト情報を追加する手法を提案し,高い性能を達成している. また, Yasunaga ら [4] は引用関係などでリンクされた 2 つの文書を同時に BERT の入力とする事前学習手法により文書間の関係を考慮した事前学習モデル LinkBERT を提案した. 従来の BERT で用いられる Masked Language Modeling (MLM) と,2つの文書を入力しそれぞれが引用関係にあるかどうかを分類する Document Relation Prediction (DRP) という 2 つのタスクで BERT の事前学習をしており,文書間の依存関係や文書間にまたがる情報を利用している. その結果, LinkBERT は GLUE [8] タスクや生化学分野のベンチマークである BLURB [9] タスクにおいて既存手法の性能を上回り, 文書分類においても従来の BERT より高い性能を達成している. ## 2.2 グラフの表現学習 文献グラフなどのグラフからグラフ構造を考慮した節点の表現ベクトルを獲得するグラフ表現学習の研究が盛んに行われている [10]. グラフ表現学習では,グラフ構造を有向辺の始点節点 $h$, 終点節点 $t$,関係 $r$ を用いて $(h, r, t)$ と表現したトリプルの集合として表現するのが一般的であり,このトリプルの節点や関係を表現するように学習を行う TransE [11], DistMult [12] などの手法が提案されている. TransE のスコア関数は始点節点のベクトル表現を関係のべクトル表現だけ平行移動したものと終点節点のべクトル表現との距離の大きさを損失とする. ## 3 提案手法 提案手法である書誌情報・用語情報を含む文献グラフの表現を組み込んだ文書分類モデルについて説明する. 提案手法の概要を図 1 に示す. 3.1 節で文献グラフの作成と表現学習について説明した後に 3.2 節で書誌情報・用語情報を含む文献グラフのべクトル表現と文書のテキスト情報のベクトル表現を組み込んだ文書分類モデルについて説明する。 ## 3.1 文献グラフの作成・表現学習 まず,文献グラフを作成し,文書・用語節点を BERT で初期化する(図 1(1))。文献グラフは文書と書誌情報を節点とし,文書節点とその書誌情報の節点間,引用関係にある文書節点間に辺を張る.文献グラフは論文・著者・出版年・出版ジャーナル・用語を節点とし,共有する節点を介して文書節点を繋げる。題目,要旨,用語の説明文がデータベースから取得できる文書・用語節点にはテキスト情報を追加する.BERT の出力の [CLS] トークンは文全体を表す表現と考えられるので,[CLS]トークンの表現を初期表現とする。データベースから取得できない場合は BERT で初期化した節点表現の平均,標準偏差の正規分布に従う乱数でランダム初期化する。書誌情報の節点についてもランダム初期化する。 次に,データベースから取得した上位下位関係,補足概念の関係にある用語節点間に辺を張り,用語間の関係も追加する(図 1(2))。そして,作成した文献グラフについて,TransE [11]1)を用いて表現学 1)本研究で扱う文献グラフは大規模であり,GCN [7] などの計算コストの高い手法は単純には適用できないため,簡単の 習を行い,ベクトル表現を獲得する(図 1(3))。このように作成した文献グラフから得られたべクトル表現は対象テキスト情報以外の書誌情報・用語情報からの文書間の様々な関係を考慮したものとなっていると期待できる. ## 3.2 文書分類モデル 3.1 節で獲得した書誌情報・用語情報を含む文献グラフのベクトル表現と分類する文書のテキスト情報のべクトル表現を組み込んだ文書分類を行う (図 1(4)).このために, BERTの入力として, 対象文書とそれに現れる用語に対応する文献グラフの文書・用語節点のべクトル表現を文書のテキスト情報と同時に入力し, BERT で統合しながらエンコードして得られた出力の [CLS] トークンの表現を全結合層により文書のカテゴリに分類する. より具体的には,まず,文書内の用語をデータベースに登録された用語との文字列一致で抽出する. 次に文献グラフの文書節点の表現と文書から抽出した用語の節点表現を文書のテキスト情報と結合する.結合の際には文書のテキスト情報の [SEP] トークンの後ろに文献グラフからの表現を追加する。この際に,テキスト内のサブワードと文献グラフの節点表現を対応付けるために,[CLS]トークンと文書節点の表現,テキスト内の用語のサブワードの先頭と用語節点の表現に同じ Position ID を割り当てる [13]. テキスト情報と対応する文献グラフ内の節点のベクトル表現を同時に BERT に入力することで, 文献グラフ内の書誌情報や用語情報を活かした文書分類を目指す。 ## 4 実験設定 文献グラフの表現学習で獲得した表現ベクトルの質を始点節点との関係ぺアになる終点節点を予測するリンク予測で評価する。また,文書分類における文献グラフの表現の有効性を確かめるために文献グラフの表現を利用した文書分類の評価する.どちらの実験も BERTには BioLinkBERT-base [4]を使用する。 ## 4.1 文献グラフの表現学習 医療文献データベース Medline [14] の 2022 年版を利用して 3.1 節で説明した文献グラフを作成する. Medline には 3,000 万件以上の論文が登録されており,文献グラフが巨大になるので他の節点とのつな  表 1 TransEでの表現学習の結果 がりが少ない次数が 5 未満の著者節点は削除した.用語のデータベースには MeSH [15] の 2021 年版を利用した. 文献グラフは引用関係を表す辺 (cites),文書とその著者 (author) ・出版年 (year)・出版ジャー ナル (journal) ・用語 $(\mathrm{MeSH})$ を表す辺, 用語間の上位下位関係 (hypernym),補足概念の関係 (supp) を表す辺を持つ. 付録 A の表 4 と 5 に統計を示す. 文献グラフの表現学習の評価指標には MAP@30, Hit@nを用いた. 訓練・開発・評価用データはトリプルの関係タイプの比率が同じになるように 98:1:1 の割合で分割した. また,訓練用データに出現する節点間のトリプルを開発・評価用データに選んだ. リンク予測の評価の際には,訓練用データに含まれる終点節点は予測結果から削除した.また,始点節点のタイプと関係タイプから決まる終点節点のタイプの節点のみを予測対象とした。付録 $\mathrm{B}$ に実装に使用したライブラリと学習の設定を示した. ## 4.2 文献グラフの表現を利用した文書分類 評価には,医学文献の要旨の文書分類データセットである Ohsumed [5] と Hallmarks of Cancer (HoC) [6] を使用した. Ohsumed は文書に 23 種類の心血管系疾患のカテゴリのうち 1 つ以上のカテゴリが付与されている. Ohsumed の分類ラベルは MeSH から作られているので, Ohsumedに含まれる文書とその文書の書誌情報の一つである MeSH との関係が文献グラフに含まれないようにして評価した. 既存研究 [2] と同様に複数ラベルを持つ文書は除外した.この結果,訓練,評価用データ内の文書はそれぞれ 3,357 件,4,043 件となった. 訓練用データを 7:3 に分割して開発データを作成した.HoCではそれぞれの文書に 10 種類の癌の特徵のカテゴリが複数付与されている. 既存研究 [9] に従って訓練, 開発,評価用データを分割し, それぞれ 1,295 件, 186 件, 371 件 表 2 文献グラフの表現を利用した文書分類の結果 [\%].太字は最高のスコアを表す。 を使用した. 文書内の用語をデータベースに登録された用語との文字列一致で抽出した結果, Ohsumed では文書あたり平均 20.41 語, $\mathrm{HoC}$ では文書あたり平均 26.56 語の用語を抽出できた. 評価においては,乱数シードを変更した 5 つのモデルを作成し, その評価の平均を最終的な予測結果として報告する. Ohsumed の評価には正解率,HoC の評価には $\mathrm{F}$ 値を用いた. ベースラインモデルとしては, 3.2 節の文書分類モデルの入力にテキスト情報のみを利用するモデル (BioLinkBERT) を用意した.また,文書分類モデルに文献グラフから追加する節点情報としては,文書の表現 (+ Paper), 用語の表現 (+ Entity),文書・用語の両方の表現 (+ Paper + Entity)の 3 つの組み合わせを比較をした. 付録 B に実装に使用したライブラリと学習の設定を示した. ## 5 結果と考察 ## 5.1 結果 TransE での表現学習の結果を表 1 に示す. 今回使用した文献グラフは節点数が多かったため, MAP@30, Hit@n ともに全体的に低い値となった.特に引用関係,MeSH 間の関係の性能が低いのは,一つの始点節点との関係ぺアになる終点節点が複数あるため, TransEでは表現できなかったためだと考えられる。 文献グラフの表現を利用した文書分類の結果を表 2 に示す. Ohsumed における BioLinkBERT の結果と提案した情報を追加したモデル (BioLinkBERT + Paper, BioLinkBERT + Entity, BioLinkBERT + Paper + Entity) 以外の値は元論文から引用したものである. Ohsumed については,これまでに報告されている分類スコアを大きく上回ることができた.また,論文の表現のみを使用したときに Ohsumed, HoC ともにベースライン (BioLinkBERT) からの性能向上が見られた。一方で,用語の表現のみを使用したときには表 3 用語をタグで置き換えた文書分類の結果 [\%] ほとんど性能の違いが見られなかった. 論文・用語の表現の両方を使用したときには Ohsumed では性能低下, HoCでは僅かな性能向上が見られ,一貫性のない結果となった.いずれの表現も文献グラフ全体を考慮して学習された表現ではあるものの,使う表現によって結果に違いがあることがわかった. ## 5.2 考察 文献グラフの表現ベクトルの質を確かめるために,対象テキスト情報から抽出した用語をマスクして実験をした. その結果を表 3 に示す. 対象テキストの用語をマスクしたときべースラインモデルでは, 4.5 ポイント性能が低下した. 一方で,文書の表現のみ,用語の表現のみ,文書・用語の両方の表現を使用したときはそれぞれ 3.46 ポイント, 3.40 ポイント, 3.66 ポイントの性能低下となり, ベースラインよりも性能の低下が小さかった. この結果から,提案手法では対象テキスト情報以外の情報を分類に利用できていることが分かった. 付録 Cにテキスト情報を利用しない文書分類の結果と考察を示した。 ## 6 おわりに 本研究では複数の情報を同時に利用できる文書分類を目的として,書誌情報・用語情報など多くの情報を含む文献グラフから文書間の様々な関係を考慮した表現ベクトルを作成し,その表現ベクトルと文書のテキスト情報を組み込んだ文書分類モデルを提案した. Ohsumed, $\mathrm{HoC}$ の 2 つのデータセットで実験を行った結果, 文書の表現のみを利用したときにはどちらも性能向上が見られた. 特に, Ohsumed では従来モデルを上回る性能を達成した. 論文・用語の表現の双方を利用すると性能が低下することがあるという現象がみられ, 異種の情報の組み込みが単純ではないことを示すことができた. 今後は,このような問題を解決するために GCN などの手法での大規模文献グラフの表現学習を検討する. また文献グラフの表現学習手法と文書分類モデルを同時に学習する方法についても模索する。 ## 謝辞 本研究は JSPS 科研費 JP20K11962 の助成を受けたものです. ## 参考文献 [1] Jacob Devlin, et al. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] Liang Yao, et al. Graph convolutional networks for text classification. In Proceedings of the AAAI conference on artificial intelligence, Vol. 33, pp. 7370-7377, 2019. [3] Yuxiao Lin, et al. BertGCN: Transductive text classification by combining GNN and BERT. In Findings of the Association for Computational Linguistics: ACLIJCNLP 2021, pp. 1456-1462, Online, August 2021. Association for Computational Linguistics. [4] Michihiro Yasunaga, et al. Linkbert: Pretraining language models with document links. In Association for Computational Linguistics (ACL), 2022. [5] Thorsten Joachims. Text categorization with support vector machines: Learning with many relevant features. In Proceedings of the 10th European Conference on Machine Learning, ECML'98, p. 137-142, Berlin, Heidelberg, 1998. Springer-Verlag. [6] Simon Baker, et al. Automatic semantic classification of scientific literature according to the hallmarks of cancer. Vol. 32 3, pp. 432-40, 2016. [7] Thomas N. Kipf and Max Welling. Semi-supervised classification with graph convolutional networks. In International Conference on Learning Representations, 2017. [8] Alex Wang, et al. GLUE: A multi-task benchmark and analysis platform for natural language understanding. In Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 353-355, Brussels, Belgium, November 2018. Association for Computational Linguistics. [9] $\mathrm{Yu} \mathrm{Gu}$, et al. Domain-specific language model pretraining for biomedical natural language processing. ACM Transactions on Computing for Healthcare, Vol. 3, No. 1, oct 2021. [10] William L Hamilton. Graph representation learning. Synthesis Lectures on Artifical Intelligence and Machine Learning, Vol. 14, No. 3, pp. 1-159, 2020. [11] Antoine Bordes, et al. Translating embeddings for modeling multi-relational data. In C.J. Burges, L. Bottou, M. Welling, Z. Ghahramani, and K.Q. Weinberger, editors, Advances in Neural Information Processing Systems, Vol. 26. Curran Associates, Inc., 2013. [12] Bishan Yang, et al. Embedding entities and relations for learning and inference in knowledge bases. In International Conference on Learning Representations, 2014. [13] Zexuan Zhong and Danqi Chen. A frustratingly easy approach for entity and relation extraction. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 50-61, Online, June 2021. Association for Computational Linguistics. [14] Pubmed. https://pubmed.ncbi.nlm.nih.gov/(1月 2 日アクセス)。 [15] Medical subject headings - home page. https://www. nlm.nih.gov/mesh/meshhome.html(1 月 2 日アクセス). [16] Da Zheng, et al. Dgl-ke: Training knowledge graph embeddings at scale. In Proceedings of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval, SIGIR '20, p. 739-748, New York, NY, USA, 2020. Association for Computing Machinery. [17] Thomas Wolf, et al. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45, Online, October 2020. Association for Computational Linguistics. [18] Adam Paszke, et al. Pytorch: An imperative style, highperformance deep learning library. Advances in neural information processing systems, Vol. 32, pp. 80268037, 2019. [19] Masajiro Iwasaki and Daisuke Miyazaki. Optimization of indexing based on k-nearest neighbor graph for proximity search in high-dimensional data. CoRR, Vol. abs/1810.07355, , 2018. [20] Nitish Srivastava, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, and Ruslan Salakhutdinov. Dropout: a simple way to prevent neural networks from overfitting. The journal of machine learning research, Vol. 15, No. 1, pp. 1929-1958, 2014. [21] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In International Conference on Learning Representations, 2019. ## A グラフの統計 文献グラフの統計を表 4 と 5 に示す. テキスト情報を追加した節点数は,文書節点は $33,404,632$ 個,用語節点は 244,373 個である. 表 5 文献グラフのトリプル統計 ## B 学習の設定 実装には,Python 3.7.11を使い,TransEには DGLKE 0.1.2 [16], 事前学習モデルを使うために Transformers 4.19 .4 [17], モデルの作成のために Pytorch 1.10.0 [18]を用いた. また, リンク予測の評価は, 近傍探索ライブラリ NGT [19]を用いて近似的に求めた. TransE は 50 エポック学習した. 文献グラフの文書・用語節点の表現は BERT で初期化するため表現は 768 次元となるので,ランダム初期化する節点の表現についても 768 次元で初期化した. TransE の学習ではグラフに含まれるトリプル $(h, r, t)$ の $h$ か $t$ のどちらかをランダムに置き換えるネガティブサンプリングが使用される.始点節点のタイプと関係タイプから決まる終点節点のタイプのみからネガティブサンプリングをした. TransE 学習のための計算機には CPU に AMD Ryzen Threadripper 3990X 64-Core Processor,GPU に GeForce RTX 3090 を使用した. 文書分類モデルでは,BERT の CLS トークンの表現を一層の線形層で分類している。また,訓練用データでの過学習を防ぐために線形層の前にドロップアウト [20]を加えた. 文書分類学習のための計算機には CPU に Intel(R) Xeon(R) CPU E5-2698 v4 及び Intel(R) Core(TM) i9-10900K CPU,GPU には Tesla V100-DGXS-32GB 及び GeForce RTX 3090 を使用した. 文書分類モデルの最適化手法には AdamW [21] を使用した。学習率は $\{1 \mathrm{e}-5,2 \mathrm{e}-5,3 \mathrm{e}-5,4 \mathrm{e}-5,5 \mathrm{e}-5$, 6e-5\} の範囲でハイパーパラメータチューニングを行い,表6のように設定した. 表 6 ハイパーパラメータチューニングの結果 ## C テキスト情報を除いた文書分類 文献グラフから得られた表現単体での性能を評価するため,対象テキスト情報を使用しない実験を行った. BERTへの入力を文献グラフからの表現のみにして出力の [CLS] トークンで分類をした結果を表 7 に示す. 文書・用語の表現の両方を使用したときに最も高い性能となった.様々な情報を含む文献グラフからの表現を利用することで対象テキスト情報がなくても分類できたと考えられる. 表 7 テキスト情報を除いた文書分類の結果 [\%]
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C11-4.pdf
# サーベイ論文自動生成に向けた 大規模ベンチマークデータセットの構築 笠西 哲 ${ }^{1}$ 磯沼 大 $^{1}$ 森 純一郎 ${ }^{1,2}$ 坂田 一郎 ${ }^{1}$ 1 東京大学大学院 2 理研 AIP kasanishi@ipr-ctr.t.u-tokyo.ac.jp isonuma@ipr-ctr.t.u-tokyo.ac.jp mori@mi.u-tokyo.ac.jp isakata@ipr-ctr.t.u-tokyo.ac.jp ## 概要 サーベイ論文の自動生成は、自動文章要約において最も挑戦的なタスクの一つである。近年、大規模言語モデルによりサーベイ論文生成が挑まれているものの、大規模データセットの欠如がその進歩の足枷となっている。本研究では、 1 万本超のサーベイ論文と 69 万本超の被引用論文で構成されたサーベイ論文生成データセットを公開する。本データセットをもとに、近年の Transformer 要約モデルをサー ベイ論文生成用に改良し、サーベイ論文生成の評価実験を行なった。人手評価により、モデルにより生成された要約の一部は人が作成したサーベイ論文と遜色ないことが示された一方で、自動サーベイ論文生成の課題が明らかになった。 ## 1 はじめに 科学論文ドメインの文書要約において、サーベイ論文の自動生成は最も重要な課題の一つである。 サーベイ論文は、研究者によって過去の研究成果を調査するために執筆される、複数の論文の要約である [1]。サーベイ論文の自動生成が実現すれば、研究者がこれまでサーベイ論文がなかった分野へ進出する際の大きな一助となる。しかし、これまでにサーベイ論文生成に取り組んだ研究はごく少数である。例えば、Taylor ら [2] は科学論文で学習を行った大規模言語モデルである GALACTICAを用いて、 サーベイ論文を自動生成するデモンストレーションを公開したが、内容の正確性について批判が寄せられ、数日中に公開が中止された [3]。サーベイ論文生成タスクに利用可能な大規模データセットの不在が、教師あり要約モデルの同タスクへの適用を困難にし、サーベイ論文自動生成の障壁となっている。本研究は、10,269 本の論文からなるサーベイ論文 図 1 サーベイ論文自動生成タスクの概要 自動生成タスクのための大規模データセットを公開し、サーベイ論文生成の研究を開拓する。図 1 に夕スクの概要を示す。本研究では、サーベイ論文の章分けと各章で引用される論文が与えられた時に、章ごとにそれらの論文を要約するタスクに取り組む。実際のサーベイ論文執筆では、引用する論文を選定し、章構成を決定するというプロセスが必要だが、本研究はそれらのプロセスはスコープ外とし、章ごとに複数の論文を要約するプロセスに焦点を当ててサーベイ論文生成タスクの実験を行った。さらに、既存の Transformer ベースの要約モデルを拡張することで、タイトルや章タイトルを要約のクエリとした複数文書要約としてサーベイ論文を生成するモデルを提案する。提案手法の生成文章に対して詳細な人手評価を行い、サーベイ論文の完全な自動生成に向けた今後の課題について議論する。 ## 2 タスクとデータセット ## 2.1 サーベイ論文生成のタスク定義 出力本研究ではサーベイ論文を章ごとに生成するタスクを考える。これは、現在の要約モデルの殆どが数百単語以下の短い要約文を生成するタスク [4][7] に適合しており、一般に数千単語以上の長さとなるサーベイ論文全文を現在の要約モデルで生成 表 1 Multi-News[4], Multi-XScience[5], MS^2[6] との比較。train/valid/test における参照要約の数、入力文章の合計の長さ (単語数)、参照要約の長さ(単語数)、入力文書の数、novel n-gram の割合を示す。 するのは困難なためである。 入カ本タスクでは、被引用論文のアブストラクトおよびサーベイ論文のタイトル・章タイトルの情報を入力として用いる。ここで、被引用論文とはサーベイ論文の各章で引用されている論文を指す。被引用論文のアブストラクトは、被引用論文の内容を表す主要な情報源として利用される。本来であれば被引用論文の本文を入力することが望ましいが、構築するデータセットにおいて本文情報が得られない被引用論文が約 $30 \%$ 存在することを鑑みて、アブストラクトのみを入力とする問題設定とした。また、タイトル情報は、生成される各章でどのような内容が記述されるのかを示唆する、いわば要約の方向性を示すクエリとしての機能を持つ。 ## 2.2 データセットの構築 我々は、科学論文の大規模コーパスである S2ORC[8]を用いて、10,269 本のサーベイ論文からなるサーベイ論文生成タスクのデータセットを構築した。構築方法の詳細は Appendix A に記載した。 ## 2.3 データセットの統計 構築したデータセットと代表的な複数文書要約のデータセットを比較した統計を表 1 に示す。ここで、表中の novel n-gram とは、参照要約中の n-gram のうち入力文書中に含まれないものの割合を示し、 novel n-gram の割合が高いデータセットほど要約の抽象度が高い [7]。我々のデータセットは他のデー タセットと比較して約 2 倍以上のデータ数を有し、 データドリブンなニューラル要約モデルにより適したデータセットとなっている。さらに、我々のデータセットは Multi-News や MS^2 と比較して novel n-gram の割合が高く、より抽象的要約手法に適した難易度の高いタスクであることが示唆される。 ## 3 実験 我々が提案したサーベイ論文データセットを用いて、文書要約モデルによるサーベイ論文生成の実験 \begin{abstract} Cited paper 1 Literature review title <s> Chapter title <s> Abstract of paper 1 <s> BIB001 Cited paper 2 \end{abstract} Literature review title <s> Chapter title <s> Abstract of paper 2 <s> BIB002 図 2 文書要約モデルへの入力データのフォーマット を行う。本章では実験に使用するモデルについて述べ、実装詳細については Appendix B に記載した。 ## 3.1 ベースライン手法 ベースライン手法として、教師なし抽出型要約手法である LEAD と LexRank[9]、Transformer ベースの抽象型要約手法である Big Bird[10] と Fusion-in-Decoder[11]を使用する。Big Bird は、通常の Transformer の Self-attention の計算を簡略化し、約 16,000 単語までの長文の入力に対応した Transformer モデルである。今回は、単文書要約タスクにより arXiv データセット [12] で事前学習したモデルを、サーベイ論文データセットで fine-tuning して実験を行う。Fusion-in-Decoder (FiD) は、元々は Open domain question answering 用の複数文書を入力できる Transformer Encoder-Decoder モデルであるが、多文書要約タスクにも適用されている [6]。FiD は複数の文書を個別にエンコードして、その hidden_states を連結してデコーダーに入力し、一括で出力することで文書間の関係性も考慮しながら複数文書を一度に処理できる。今回は、エンコーダとデコーダの初期重みとして CNN/Daily Mail データセットで事前学習を行った BART-Large モデルの重みを使用し、サーベイ論文データセットで fine-tuning して実験を行う。 これらの要約モデルに入力するデータのフォーマットを図 2 に示す。今回は、サーベイ論文のタイトルと章タイトル、各被引用論文のアブストラクト、および異なる被引用論文を識別するための識別記号を連結して入力する。Big Birdでは全ての被引用論文の情報を連結してモデルに入力する。FiDでは各被引用論文の情報を Encoder に別々に入力する。 ## 3.2 提案手法 本節では、前節で紹介した FiD を改良した我々のサーベイ論文生成モデルについて述べる。 3.1 節で述べた通り、タイトル・章タイトルはサーベイ論文の各章でどのような内容が記述されるのかを示唆する、いわば要約の方向性を示すクエリとしての機能を持つ。これらのクエリとの類似度によって各被引用論文を重みづけし、よりクエリに沿った要約を出力できるように FiDを改良した。具体的には、クエリと各被引用論文のアブストラクトをそれぞれ Encoder に入力し、得られた hidden_states を average pooling したそれぞれのべクトルの内積をクエリと各被引用論文の類似度とする。その類似度で各被引用論文の hidden_statesを重みづけして Decoderに入力することで、モデルにクエリと各被引用論文の類似度の情報を与えている。 $n$ 本の被引用論文の入力トークン列をそれぞれ $R_{1}, R_{2}, \ldots, R_{n}$ とし、それぞれの長さを $l_{1}, l_{2}, \ldots, l_{n}$ とする。タイトル・章タイトルを結合したクエリのトークン列を $Q$ とし、その長さを $l^{q}$ とする。BART Encoder を Enc とすると、 $m$ 番目の被引用論文、クエリの hidden_statesがそれぞれ以下のように得られる。 $ \begin{aligned} H_{m} \in \mathbb{R}^{M \times l_{m}} & =\operatorname{Enc}\left(R_{m}\right) \\ H^{q} \in \mathbb{R}^{M \times l^{q}} & =\operatorname{Enc}(Q) \end{aligned} $ ここで、 $M$ は hidden_states の行数であるが、BART の場合は $M=1024$ である。また、行列の各行の平均をとってべクトルを得る操作を Avgpool とすると、 $m$ 番目の被引用論文、クエリの特徴ベクトルをそれぞれ以下のように得られる。 $ \begin{aligned} \boldsymbol{h}_{m} \in \mathbb{R}^{M} & =\operatorname{Avgpool}\left(H_{m}\right) \\ \boldsymbol{h}^{q} \in \mathbb{R}^{M} & =\operatorname{Avgpool}\left(H^{q}\right) \end{aligned} $ そして、クエリと $m$ 番目の被引用論文の類似度 $w_{m}$ をこれらの内積として求め、 $w_{m}$ で重みづけした $H_{m}$ を結合して BART Decoder に入力することで、出力となるサーベイ論文の章が得られる。 $ \begin{aligned} w_{m} & =\operatorname{dot}\left(\boldsymbol{h}_{m}, \boldsymbol{h}^{q}\right) \\ \text { output } & =\operatorname{Dec}\left(\operatorname{concat}\left(w_{1} * H_{1} ; \ldots ; w_{n} * H_{n}\right)\right) \end{aligned} $ ここで、dot は内積、concat は行方向に行列を結合する操作、*は行列の各要素にスカラー値をかける操作、Dec は BART Decoderを表す。表 2 ベースライン手法と提案手法の ROUGE スコアによる自動評価の結果 ## 4 結果 本章では、ベースライン手法と提案手法を用いたサーベイ論文生成実験の結果について述べる。 ## 4.1 ROUGE スコアによる自動評価 ベースライン手法と提案手法の ROUGE スコアを表 2 に示す。表 2 より、BigBird のスコアが FiDよりも低く、LEAD や LexRank と同程度であることが分かる。長文の入力に対応した単文書要約モデルである BigBird を fine-tuning するのみでは性能が著しく低いことから、サーベイ論文生成が通常の文書要約と比較してより難易度の高いタスクであることが示唆される。また、我々の改良手法とべースラインの FiD を比較すると、改良手法のスコアが高いことがわかる。我々の改良手法がタイトル・章タイトルを要約のクエリとして考慮することで、より適切な文章を生成できていることが確認された。 ## 4.2 人手評価 1 年以上の研究経験を有する画像処理研究従事者 3 人に生成文章の人手評価を依頼し、評価対象として画像処理分野の 5 本のサーベイ論文中の 30 章を選定した $[13,14,15,16,17]$ 。これらの論文は、学習・検証用データセット中のいずれのサーベイ論文とも被引用論文の重複が $20 \%$ 未満である。評価項目として以下の 5 つを定め、各項目について提案手法によって生成された章と実際のサーベイ論文の章のどちらが優れているか、あるいは同程度であるかの 3 段階で評価するように依頼した。評価者は、提示された 2 つの章のうちどちらが実際のサーベイ論文であるかを伏せられた状態で評価した。 ・Relevance: 文章がタイトル・章タイトルと関連しているか - Coherence: 文章に一貫性があり、情報が構造化されているか 表 3 提案手法の生成文章と実際のサーベイ論文を比較した人手評価の結果 図 3 Overall score で高い評価が得られた生成章の例 ・Informativeness: 一般的な情報だけではなく、引用文献に関する具体的な情報を記述しているか ・ Factuality: 入力アブストラクトと矛盾する情報や、事実に反する情報がないか ・Overall score: 全体的なサーベイ論文としての完成度 人手評価の結果を表 3 に示す。数値は、各指標について実際のサーベイ論文の章が優れている (Human > Machine-Generated)、同程度である (Comparable)、生成された章が優れている(MachineGenerated > Human)と評価された割合を示している。Relevance に関しては、生成された章が優れている、もしくは同程度であると評価された割合の合計が約 $75 \%$ 達しており、提案手法が要約のクエリを適切に考慮でき、おおむね実際のサーベイ論文と遜色なくタイトル・章タイトルと関連した文章を生成できていることが明らかとなった。また、 Factuality に関しては、生成された章が優れている、 もしくは同程度であると評価された割合の合計が $60 \%$ に達しており、おおむね半分以上の生成文章で実際のサーベイ論文と同程度以上に誤りのない記述を生成できていることが明らかとなった。一方、 Informativeness に関しては生成された章が優れている、もしくは同程度であると評価された割合の合計が約 36\%にとどまっており、引用文献に関する具体的な情報を記述できているかという点では、生成文章は実際のサーベイ論文に及んでいないといえる。 そして、Overall score に関しては、生成された章が優れていると評価された割合が $22.2 \%$ に達している。これは、生成された文章のほうが本物のサーべイ論文よりも「サーベイ論文らしい」という例が一定程度存在することを示しており、非常に興味深い結果であるといえる。Overall score で 2 人の評価者に優れていると評価された生成章の例を図 3 に示す。図3より、生成文章は “Progressive Upsampling Super-resolution” について一貫した流暢な説明ができていることが分かる。 ## 4.3 今後の方向性 第 4.2 節の人手評価の結果、生成文章が優れていると評価された割合が特に少ないのは Informativeness と Factuality の項目であった。これは、被引用論文の情報としてアブストラクトのみを入力しているため、参照要約が大力文書にない情報を含むことが原因であると考えられる [18]。このため、アブストラクトのみならず本文や本データセットで利用可能な引用文などの追加情報を入力することで、 Informativeness と Factualityをともに改善できると考えられる。 本研究では、人手評価において生成文章が全体的に優れていると評価された割合が $20 \%$ 以上に達するなど、サーベイ論文の自動生成に向けた第一歩として有望な結果を示した。一方で、具体的な情報の欠如や誤った情報の出力など、未解決の重要な課題も明らかになった。現状の性能においては、サーベイ論文の執筆時に草稿を自動生成するツールなど、人間による修正を前提とした応用が期待される。 ## 5 おわりに 本研究では、サーベイ論文自動生成タスクとそのための大規模なデータセットを提案し、さらに同タスクに適した文書要約手法を提案した。人手評価を含む詳細な実験により、同タスクの課題と今後の方向性を明らかにした。本研究が、サーベイ論文生成という挑戦的な課題に取り組む今後の研究の基礎となることを願う。 ## 謝辞 本研究は、NEDO JPNP20006、JST ACT-X JPMJAX1904 及び JST CREST JPMJCR21D1 の支援を受けたものである。 ## 参考文献 [1] Kokil Jaidka, Christopher Khoo, and Jin-Cheon Na. Deconstructing human literature reviews - a framework for multi-document summarization. In Proceedings of the 14th European Workshop on Natural Language Generation, pp. 125-135, Sofia, Bulgaria, August 2013. Association for Computational Linguistics. [2] Ross Taylor, Marcin Kardas, Guillem Cucurull, Thomas Scialom, Anthony Hartshorn, Elvis Saravia, Andrew Poulton, Viktor Kerkez, and Robert Stojnic. Galactica: A large language model for science. arXiv preprint arXiv:2211.09085, 2022. [3] Ross Taylor, Marcin Kardas, Guillem Cucurull, Thomas Scialom, Anthony Hartshorn, Elvis Saravia, Andrew Poulton, Viktor Kerkez, and Robert Stojnic. Galactica demo. https://galactica.org/, 2022. (Accessed on 12/26/2022) [4] Alexander Fabbri, Irene Li, Tianwei She, Suyi Li, and Dragomir Radev. Multi-news: A large-scale multidocument summarization dataset and abstractive hierarchical model. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 1074-1084, Florence, Italy, July 2019. Association for Computational Linguistics. [5] Yao Lu, Yue Dong, and Laurent Charlin. Multi-XScience: A large-scale dataset for extreme multi-document summarization of scientific articles. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 8068-8074, Online, November 2020. Association for Computational Linguistics. [6] Jay DeYoung, Iz Beltagy, Madeleine van Zuylen, Bailey Kuehl, and Lucy Wang. MS^2: Multi-document summarization of medical studies. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 7494-7513, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [7] Shashi Narayan, Shay B. Cohen, and Mirella Lapata. Don't give me the details, just the summary! topic-aware convolutional neural networks for extreme summarization. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 17971807, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. [8] Kyle Lo, Lucy Lu Wang, Mark Neumann, Rodney Kinney, and Daniel Weld. S2ORC: The semantic scholar open research corpus. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4969-4983, Online, July 2020. Association for Computational Linguistics. [9] Günes Erkan and Dragomir R Radev. Lexrank: Graphbased lexical centrality as salience in text summarization. Journal of artificial intelligence research, Vol. 22, pp. 457-479, 2004. [10] Manzil Zaheer, Guru Guruganesh, Kumar Avinava Dubey, Joshua Ainslie, Chris Alberti, Santiago Ontanon, Philip Pham, Anirudh Ravula, Qifan Wang, Li Yang, et al. Big bird: Transformers for longer sequences. Advances in Neural Information Processing Systems, Vol. 33, pp. 17283-17297, 2020. [11] Gautier Izacard and Edouard Grave. Leveraging passage retrieval with generative models for open domain question answering. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 874880, Online, April 2021. Association for Computational Linguistics. [12] Arman Cohan, Franck Dernoncourt, Doo Soon Kim, Trung Bui, Seokhwan Kim, Walter Chang, and Nazli Goharian. A discourse-aware attention model for abstractive summarization of long documents. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), pp. 615-621, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [13] Zhihao Wang, Jian Chen, and Steven CH Hoi. Deep learning for image super-resolution: A survey. IEEE transactions on pattern analysis and machine intelligence, Vol. 43, No. 10, pp. 3365-3387, 2020. [14] Licheng Jiao and Jin Zhao. A survey on the new generation of deep learning in image processing. IEEE Access, Vol. 7, pp. 172231-172263, 2019. [15] MD Zakir Hossain, Ferdous Sohel, Mohd Fairuz Shiratuddin, and Hamid Laga. A comprehensive survey of deep learning for image captioning. ACM Computing Surveys, Vol. 51, No. 6, pp. 1-36, 2019. [16] Hamid Laga. A survey on deep learning architectures for image-based depth reconstruction. arXiv preprint arXiv:1906.06113, 2019. [17] Chunwei Tian, Lunke Fei, Wenxian Zheng, Yong Xu, Wangmeng Zuo, and Chia-Wen Lin. Deep learning on image denoising: An overview. Neural Networks, Vol. 131, pp. 251-275, 2020. [18] Ziwei Ji, Nayeon Lee, Rita Frieske, Tiezheng Yu, Dan $\mathrm{Su}$, Yan Xu, Etsuko Ishii, Yejin Bang, Andrea Madotto, and Pascale Fung. Survey of hallucination in natural language generation. ACM Computing Surveys, 2022. Just Accepted. [19] Iz Beltagy, Kyle Lo, and Arman Cohan. SciBERT: A pretrained language model for scientific text. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3615-3620, Hong Kong, China, November 2019. Association for Computational Linguistics. ## A データセット構築手法の詳細 我々のデータセットは、タイトル、章タイトル、 アブストラクト、本文情報、さらには引用情報を含んだ科学論文の大規模コーパス S2ORC[8]を使用して構築された。まず、サーベイ論文の候補として、Computer Science 分野の論文の中から “survey”, “overview", "literature review", “a review” のいずれかをタイトルに含み、かつ本文情報にアクセスできる論文を抽出した。これによって、13,984 本の論文がサーベイ論文の候補として得られた。 これらの候補の中にはサーベイ論文として適切ではない論文が含まれているため、候補からサーベイ論文として適切な論文を抽出するための SciBERT[19] ベースのサーベイ論文分類器を学習した。まず、コンピュータサイエンスの研究に従事している大学院生に、候補論文のうち 889 本の論文について、サーベイ論文として適切かどうかを以下の基準でアノテーションするように依頼した。 ・複数の科学論文をレビューしていること 一一般的なツールや書籍、記事をレビューしていないこと - 特定のプロジェクトや Shared Tasks の解説を行っていないこと - 文献レビューのみを行っており、新規手法の提案・先行研究の再実験・アンケート等をしていないこと(=引用文献の情報だけでは原理的に生成不可能な情報が含まれていないこと) アノテーターは、候補論文のタイトルとアブストラクトを対象として上記の基準でアノテーションを行い、 3 人のアノテーターのうち 2 人以上が一致した判断を採用することで最終的なアノテーション結果を得た。アノテーションによって、候補論文 889 本のうち 583 本が適切、 306 本が不適切として分類され、Fleiss'kappa $=0.65$ となった。このアノテーション結果を train:valid:test=589:150:150 に分け、SciBERTを fine-tuning してサーベイ論文分類器を学習した。その結果、accuracy $=89 \%$, precision $=$ $88 \%$, recall $=97 \%, f 1=92 \%$ の精度を持つサーベイ論文分類器を学習できた。このサーベイ論文分類器を使用して、候補論文からサーベイ論文として適切な論文を抽出したところ、698,049 本の被引用論文と 210,049 章を含む 10,269 本のサーベイ論文が残った。最後に、これらのサーベイ論文の合計 210,049 章のうち、S2ORC の引用データを利用して被引用論文のアブストラクトを合計 1 本以下しか抽出できなかった章を除外したところ、664,319 本の被引用論文と 94,795 章を含む 9,607 本のサーベイ論文が残った。これらの操作によって、被引用論文のアブストラクトとサーベイ論文のタイトル・章タイトルを入力とし、サーベイ論文の各章を生成するタスクのデータセットを作成した。 ## B 実装詳細 モデルは PyTorch ${ }^{1)}$ と HuggingFace Transformers ${ }^{2)}$ を用いて実装された。BigBird の初期重みは google/bigbird-pegasus-large-arxiv) を、FiD の初期重みは facebook/bart-large-cnn ${ }^{4}$ を使用した。文書要約モデルはいずれもサーベイ論文データセットで 10epoch 学習を行い、検証時に ROUGE-2 スコアが最も高くなった epoch のモデルを評価に使用した。なお、今回は実験時間の都合上、検証用データセットの 8,217 章からランダムに 1,000 章サンプリングしたデータを使用して評価を行った。学習の optimizer は AdamWを使用し、 $\beta_{1}=0.9$, $\beta_{2}=0.999, l r=5 e-05$ とした。モデルの出力は beamsize $=4$ のビームサーチによってデコードされ、 maximumgenerationlength $=256$ とした。なお、FiDでは各被引用論文の入力が最大 1024 単語になるように入力を切り詰めている。 
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C11-5.pdf
# Construction of English Resume Corpus and Test with Pre-trained Language Models Chengguang Gan ${ }^{1}$ Tatsunori Mori ${ }^{1}$ ${ }^{1}$ Graduate School of Environment and Information Sciences Yokohama National University gan-chengguang-pw@ynu.jptmori@ynu.ac.jp } \begin{abstract} Information extraction (IE) is an essential NLP task, especially for extracting information from resumes. This study aims to transform the information extraction task of resumes into a simple sentence classification task, using an English resume dataset and improving the classification rules to create a larger and more fine-grained classification dataset. The new dataset is used to test the performance of mainstream pre-training language models, and experiments are also conducted to compare the impact of different training set sizes on the accuracy of the resume dataset. The results show that the improved annotation rules and increased sample size of the dataset improve the accuracy of the original resume dataset. \end{abstract ## 1 Introduction As artificial intelligence develops, using artificial intelligence instead of HR for resume screening has always been the focus of research. And the accuracy of resume screening depends on the precision of resume information extraction.Hence, it is crucial to improve the precision of resume extraction for the subsequent steps of various analyses performance of resumes. The previous study on resume information extraction tends to use the Bi-LSTM-CRF model for Name Entity Recognition(NER) of resume text[1].Although this method extracts the resume information (e.g. Personal information, Name, Address, Gender, Birth) with high accuracy, it also loses some original verbal expression information. For example, the description of one's future career goals, requires complete sentences that cannot be extracted by the NER method. As an AI system that scores the candidate's resume, the career object is also part of the score. In summary, sentences such as these should not be ignored. Hence, in the prior study, the task of resume information extraction is transformed into a sentence classification task. Firstly, the various resume formats were converted into a uniform txt document. Then the sentences were classified after dividing them by sentence units. The classified sentences are used in the subsequent AI scoring system for resumes. The pilot study segmented and annotated 500 of the 15,000 original CVs from Kaggle. ${ }^{1)}$ Five categories of tags were set: experience, knowledge, education, project and others ${ }^{2}$. The pilot study annotated resume dataset has problems, such as unclear classification label boundaries and fewer categories. Also, a dataset of 500 resumes with a total of 40,000 sentences in the tagging is sufficient for PLMs to fine-tune. If the dataset sample is increased, can the model's performance continue to improve. To resolve all these problems, we improved the classification labels of resumes and used them to label a new resume classification dataset. To find out how many training samples can satisfy the fine-tune requirement of PLMs, we annotated 1000 resumes with a total of 78000 sentences. Furthermore, various experiments have been performed on the newly created resume dataset using the current mainstream PLMs. ## 2 Related Work Since the last century, resume information extraction has been a critical applied research subfield in IE. In earlier studies, methods such as rule-based and dictionary matching were used to extract specific information from resumes[2]. HMM, and SVM methods extract information  Figure 1: Resume annotation rules diagram. such as a person's name and phone number from resume information[3].Related Resume Corpus Construct study has an extensive resume corpus in Chinese[4]. ## 3 Corpus Construction ## 3.1 Annotation Rule We increased the number of categories from 5 to 7 in order to discriminate the various parts of the resume more carefully.As shown in Figure 1, the blue block on the left is the abbreviation of the seven classification labels, and on the right is the name of the resume section corresponding to the label.The full names of the seven labels are Experience, Personal Information, Summary, Education, Qualifications, Skill, and Object.The newly developed classification rules make it possible to have a clear attribution for each item in the resume. It will not cause the neglect of some sentences in the resume, as there are other labels in the prior study. ## 3.2 Annotation Tool In order to label resume datasets faster and more accurately, we developed a simple annotation program based on Tkinter $^{3)}$.The operation interface of the resume annotation tool.This tool automatically recognizes original resumes in pdf, Docx, and txt formats. It can also segment all the sen-  Figure 2: The operation interface of the resume annotation tool. tences in the original resume according to a simple rulebased approach.Figure 2 shows the sample interface of the resume annotation tool. On the left are the sentences split by rule-based, and on the right are seven buttons that can be selected individually. After the sentence annotation of a whole resume is completed, a separate txt file will be automatically exported after closing the window, and the sentence annotation window for the next resume will be started automatically. ## 4 Experiments Set In this section, we will perform various test experiments on the new-constructed resume dataset. First, we compared the performance of the BERT[5] model on the original resume corpus and the newly constructed resume dataset. Furthermore, four mainstream PLMs models are selected to test the resume dataset performance: BERT,ALBERT[6],RoBERTa[7], and T5[8]. For the fairness of the experiment, the size with the most similar parameters was chosen for each of the four models(BERT ${ }_{\text {large }}, \mathrm{ALBERT}_{\text {xxlarge }}, \mathrm{RoBERTa}_{\text {large }}$, $\mathrm{T} 5_{\text {large }}$ ).The evaluation metrics for all experiments were F1-micro.The training set, validation set, and test set are randomly divided in the ratio of 7:1.5:1.5. And each experiment was performed three times to take the average of the results. ## 5 Result ## 5.1 Pre-train Models Test As shown in Table 2, the new resume corpus ameliorated by $0.35 \%$ over the original dataset $\mathrm{F} 1$-score for the same BERT model. RoBERTa and T5 scores improved by $0.68 \%$ Table 1: The first row indicates the number of training sets. The following two rows indicate the F1-score of the validation set and test set corresponding to the number of training samples. Table 2: The first column * show accuracy of resume dataset before improvement. Figure 3: F1-score of different training samples. and $0.97 \%$ over baseline, respectively. The above results are also consistent with the ranking of the four PLMs in terms of their performance in various benchmark tests of NLP. ## 5.2 Sample Size Affects Experiment In order to find out how many samples can bring out the maximum performance of the model, we divide the data set into training set 58000: validation set 10000: test set 10000. As shown in Table 1, the scores of the validation and test sets for different sample sizes. The model scores are tested from the 58000 training set, starting from 5000 and increasing the number of training samples every 5000.The highest score in the validation set is 86.6 when the training sample equals 45000 . the highest score in the test set is 85.9 when the training sample equals 40000 and 45000.In order to visualize the relationship between the number of training samples and performance, we plotted the graphs (As Figure 3).It can be seen that as the number of training samples increases, the correctness of the Figure 4: Fan chart of the percentage of each category of the resume corpus. model rises. Finally, the model's performance reaches the highest point when the training samples are increased to 40,000. From the experimental results, for the PLMs, this resume corpus above 40,000 is sufficient for the model's maximum performance. The results also prove that the new resume corpus, which doubles the sample size, is significant compared to the original resum corpus. ## 6 Analysis In the final section, we analyze the sample distribution of the constructed resume corpus. Figure 4 shows that the category with the most significant proportion in the resume corpus is experience, which accounts for half of the resume text. In addition, the three categories that account for the least in the resume corpus are skill, object, and qualification, which account for only 7\%, $3 \%$, and $1 \%$.Conclusively, resume text is a very easy sample imbalance for experimental subjects. Thus, the resume corpus also vigorously tests the model's learning capability for categories with sparse samples in the training dataset. Hence, we plotted the conflation matrix of RoBERTa and T5 models. It is used to analyze the learning ability of the two models for sample-sparse categories in the dataset. As shown in the figure 5, we can see the confusion matrix of RoBERTa and T5 models. First,the RoBE-RTa model is better for classifying qualification with the least number of samples. Secondly, the T5 model is slightly better than the RoBERTa model in terms of overall category classification results. The above results also demonstrate that our constructed resume corpus is highly unbalanced. However, if the model has strong performance, it can still learn the features of the corresponding category from very few samples. Figure 5: Confuse Matrix of RoBERTa arge and $5_{\text {large }}$ model in test set. ## 7 Conclusion In this paper, we improve the classification labels of the original English resume corpus. Furthermore, it doubled the number of samples size. The final tests and analyses also show the reliability of the newly constructed resume corpus. In future work, we will explore how to solve the sample imbalance problem of the resume corpus. Make the model learn effectively even for small sample categories. ## References [1] S. Huang, L. I. Wei, and J. Zhang. Entity extraction method of resume information based on deep learning. Computer Engineering and Design, 2018. [2] R Mooney. Relational learning of pattern-match rules for information extraction. In Proceedings of the sixteenth national conference on artificial intelligence, volume 328, page 334, 1999. [3] Kun Yu, Gang Guan, and Ming Zhou. Resume information extraction with cascaded hybrid model. In Proceedings of the 43rd Annual Meeting of the Association for Computational Linguistics (ACL' 05), pages 499-506, 2005. [4] Yanyuan Su, Jian Zhang, and Jianhao Lu. The resume corpus: A large dataset for research in information extraction systems. In 2019 15th International Conference on Computational Intelligence and Security (CIS), pages 375-378. IEEE, 2019. [5] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018 [6] Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, and Radu Soricut. Albert: A lite bert for self-supervised learning of language representations. arXiv preprint arXiv:1909.11942, 2019. [7] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019. [8] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J Liu, et al. Exploring the limits of transfer learning with a unified text-to-text transformer. J. Mach. Learn. Res., 21(140):1-67, 2020.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C12-1.pdf
# 自然言語で書かれた複数の情報リソースの 時系列解析による市場探索手法の提案 上田 紗綾宮前 義範奥 良彰中原健 ローム株式会社 研究開発センター 融合技術研究開発部 \{saya. ueda, yoshinori.miyamae, yoshiaki.oku, ken. nakahara\}@dsn. rohm.co.jp ## 概要 本手法は、研究開発のテーマについてその市場性を分析する手法を提案する。研究開発テーマの代表的な単語を対象として、技術ニュースや特許データベースなど性質の異なる複数の自然言語で書かれた情報リソースを入力とし、Word2vec によるホットワ ード解析を実施する[1]。市場規模などまだ統計的な数値データがはっきりとしない分野や、その市場において独占的な分野があり他の分野が見えにくい状況においても、客観的かつ短時間に市場を俯瞰することを目指す。 解析テーマとして、酸素および湿度センサに関する市場分析を行った。どちらのセンサも、その既存市場は自動車産業が大きなシェアを占め[2][3]、それ以外のニッチな市場は見えにくくなっている。本手法により、技術ニュースサイトからは可能性のある市場のホットワードを、特許データベースからは、 その市場と関連性の高い技術を取り出すことができた。 ## 1 背景 研究開発テーマおよび事業成功確率の向上は喫緊の課題である。例えば、経済産業省が取りまとめた製造業別研究開発の成功確率のうち、「基礎研究が事業化に結び付くもの」は平均で $12.3 \%$ と、低い值にとどまっている[4]。このため、どの研究機関が有望であるかについて、国は研究開発に係る無形資産価値の可視化についての議論を進めている状況である[5]。しかしながら、研究開発領域、「知」の価値を評価する際の情報の妥当性について、該当する領域範囲での経験がなければ研究開発テーマや事業を適切に評価することができないことが課題となっており、またその評価手法については定式化することが望まれている。 一方で市場がまだ形成されていないことが多い研究開発のテーマについては、定量的なデータが容易 に手に入らないため統計的な手法を使うことができずに、各種定性的な情報を使用する必要がある。定性的な情報を解析するためのソフトウェアやコンサルティングが増えてきており研究も進んでいるが、特許や論文といった単一の情報源を処理する例がほとんどであり、例えば、ニュースなども含めた上での、複数の情報を組み合わせた評価はほとんどない。 これは複数の媒体から得たニュースの評価を行おうとすると、質の異なるニュース自体を評価する必要があり、尚且つ、その重要度の判断を人が行なわなければならないためである。限られた時間の中でこれらの判断を適切に行うことは難しいのが現状である。 ## 2 関連研究 売り上げ規模など市場における客観的な情報を使わない手法としては、大量のテキストデータの解析手法として、新規性の評価[6][7][8][9]、概要の要約 [10]がある。また、特許をターゲットとしたものでは、記載技術の価値判断および時系列解析を用いた価値判断手法として、特許の引用数を使用して対象とする技術の価値を判断する手法[11] や、SCDV (Sparse Composite Document Vectors )による文書ベクトルと財務諸表のデータを使用して評価する手法[12]、論文本数を用いて評価する手法[13]がある。しかしこれらの手法は、あくまでも単一の情報リソースから分析したものであって、複数の情報リソースからデ一夕を得て多角的に評価したものではない。 ## 3 提案手法 本研究は、複数の媒体からデータ収集を行い、かつ技術者 1 名に対して事前ヒアリングを実施した。技術者より、酸素センサと湿度センサの想定している市場は「1.車載(自動車産業)、2.医療、3.産業機器、 4.家電、5.モバイル、6.IoT(Internet of Things)」との回答を得た。また、3.1-3.3 でデータセットの収集方法及び解析手法を述べる。 ## 3.1 解析対象とする媒体 本研究で対象としたニュースは「日経 TechFind[14]」「Anews[15]」「Share research[16]」の 3 つの媒体ごとに得たものである。異なる 3 つの媒体の検索結果を自然言語処理によって評価し、比較する。まず、日経 TechFind は技術的記事に強みがあり、独自に、これから伸びる技術領域についてユー ザーが簡単に理解できるような工夫がされている。次に Anews は技術サイトのニュースの中から、研究開発部門に所属するメンバーの好みが反映されたサイトを選択できるため、その部門の嗜好を反映させることができる。最後に Shareresearch は特許に特化されている媒体であり、ほかの 2 つの媒体と比べて学術色が強い。 図 1 対象とする 3 つの媒体について ## 3.2 解析対象とするデータ データ範囲は、「日経 TechFind」は 2017 年から 2022 年、「Anews」は 2019 年から 2022 年(のぞく 2020 年)、「Shareresearch」2017 年から 2021 年のものである。 ## 3.3 解析フロー 図 2 本手法のフローチャート 図 2 に本研究のフローチャートを示す。技術者に対してヒアリングを実施し、どの分野について自然言語処理をしたいのか特定をする。次に、特定した分野に対して 3 つの媒体から記事収集を行う。そして、Word 2vec における「skip-gram」[17]によりベクトル空間を作成し、t-SNE[18]による次元圧縮後、 DBSCAN[19]によるクラスタリングを行った。特許だけに使用した例としては[1]があるが、今回は 3つの媒体に対しても同じ手法を適用する。最後に、結果の比較を行う。 ## 4 結果 ## 4. 1 「酸素センサ」の解析結果 酸素センサの解析結果を図 3 に示す、まず「日経 TechFind」は、2019 年度は「血中」「溶存」「無菌」、 2020 年度は「血中」「ウェルネス」「計測」「症状」、 2021 年度は「リハビリテーション」「感度」、2022 年度は「代謝」「精度」という単語の出現が確認できた。これらの単語からは医療分野に関して酸素センサの適性を示すものである。一方「Anews」では 「光線」「破断」といった各研究開発センターのメンバーが興味を持っている分野の単語が集まった。 「Shareresearch」に関しては「冷蔵庫」「NO $O_{x}$ (窒素酸化物)」といった酸素センサが活用されるであろう技術的な領域に関する単語が導出された。(ここで述べた単語については図 3 で赤文字表記を行った。) これらの結果から、車載や IoT といった研究開発センターのメンバーの志向以外に、医療分野や環境系への市場への発展も期待できるという結果を得ることができた。 ## 4. 2 「湿度センサ」の解析結果 湿度センサの解析結果を図 4 に示す。「日経 TechFind」は、2017 年度は「環境」「照度」「気圧」 2018 年度は「温度」「照度」「濃度」、2019 年度は 「温度」「照度」「濃度」、2020 年度は「土壌」「日照」という単語の出現が確認できた。これらの単語からは農業分野に関して湿度センサの適性があるのではという事を示すものである。一方「Anews」は、「高機能」「コンセプト」「組み合わせ」「全体的」 といった、システム全体に対してメンバーが興味を持っているということが判明した。「Shareresearch」 に関しては、「アウトドア」「スプリンクラー」など、湿度センサの使用用途として複数の関連単語を得た。(ここで述べた単語については図 4 で赤文字表記を行った。) これらの結果から、酸素センサと同様に、研究開発センターのメンバーの志向以外に環境やシステム、特定の市場に関する知見を得ることができた。 図 3 ホットワード「酸素」に関する結果 図 4 ホットワード「湿度」に関する結果 ## 4. 2 考察 酸素センサと湿度センサに対して記事の収集を行い、自然言語解析を実施したが、「日経 TechFind」 「Anews」「Shareresearch」で同じテーマを扱っているにもかかわらず、それぞれの出力結果は異なっており、傾向も媒体ごとに異なっていた。また市場調査では自動車産業が大きなシェアを占めており、同様に、技術者の頭の中では「1. 車載(自動車産業)、2.医療、3. 産業機器、4.家電、5.モバイル、6.IoT」との回答だったが、今回の解析結果では主に車載以外の項目がピックアップされ、一般的な回答とは異なる結果を得ることが出来た。 ## 5 おわりに 本研究では、市場探索の 1 つの手法として、情報リソースごとに年代ごとの自然言語処理を行い、重要単語をピックアップした。これを時系列に並べることでその変遷が分かるようになった。また「日経 TechFind」「Anews」「Shareresearch」の3つの媒体を同一テーマ(「酸素センサ」「湿度センサ」)で自然言語処理解析することで比較をした。さらに出力結果と、市場調査及び(技術者に対する)事前ヒアリングとの比較を行うことで自動車産業(車載)以外の市場についての見出しを行うことが出来た。これは、 (同じテーマであっても媒体ごとに出力結果が異なっており)解析者が多様な見方をすることにつながっていると考えられる。人力調査や一般論では見落としていた情報や市場が見えることになり、これか ## 参考文献 [1]上田紗綾.特許情報の時系列解析結果と売上デー タを利用した半導体に関する重要技術の抽出方法.(オンライン)(引用日: 2023 年 1 月 11 日.) https://www.anlp.jp/proceedings/annual_meeting/2022/p df_dir/G6-5.pdf [2]株式会社グローバルインフォメーション.酸素ガスセンサー市場-成長、動向、COVID-19 の影響、予測(2022 年-2027 年).(オンライン)(引用日: 2022 年 12 月 28 日.) https://www.gii.co.jp/report/moi393345-global-oxygengas-sensors-market-growth-trends.html らの技術開発の多様化を促し、開発の一助となるだろうと考えている。 今後は、技術者ヒアリングについて今回は 1 名のみであったので、特定テーマの複数人員に対して事前ヒアリングを行いかつ自然言語処理を組み合わせる手法について検証を行いたい。また、今回は単語による市場探索を行ったが、文脈理解、文章や文脈の単位でクラスタリングできる手法が適切であるとも考えられる。今後はトピックモデルや BERT の適用も検討していく。 [3]株式会社グローバルインフォメーション.湿度センサーの世界市場(2022-2027 年).(オンライン)( 引用日: 2022 年 12 月 28 日.) https://www.gii.co.jp/report/imarc1071045-humiditysensor-market-global-industry-trends.html [4]小沼良直.民間企業における研究開発テーマ評価と研究開発者評価.(オンライン)(引用日: 2023 年 1 月 11 日.) https://www.mext.go.jp/component/a_menu/science/deta il/_icsFiles/afieldfile/2010/06/25/1294227_8.pdf [5]経済産業省.研究開発に係る無形資産価值の可視化研究会.(オンライン)(引用日: 2022 年 12 月 28 日.) https://www.meti.go.jp/shingikai/economy/mukei_shisan /index.html [6] 難波英嗣. 手順オントロジー構築のための特許請求項の)構造解析.(オンライン)(引用日:2023 年 1 月 12 日.) https://www.japio.or.jp/00yearbook/files/2020book/20_3 _01.pdf [7] 安藤俊幸.特許調査のためのプログラム事例紹 介.(オンライン)(引用日:2023 年 1 月 12 日.) https://www.jstage.jst.go.jp/article/jkg/70/4/70_203/_pdf /-char/ja [8] 安藤俊幸,桐山勉.分散表現学習を利用した効率的な特許調査.(オンライン)(引用日:2023 年 1 月 12 日.) https://www.jstage.jst.go.jp/article/infopro/2019/0/2019_ 31/_pdf/-char/ja [9] 安藤俊幸.機械学習による予備検索を考慮した効率的な特許調查.(オンライン)(引用日:2023 年 1 月 12 日.) https://www.jstage.jst.go.jp/article/infopro/2020/0/2020_ 43/_pdf/-char/ja [10]特許庁.特許出願技術動向調査.(オンライン)(引用日: 2023 年 1 月 12 日.) https://www.jpo.go.jp/resources/report/gidouhoukoku/tokkyo/index.html [11]山本雄太.技術コミュニティの成長性を加味した特許価值評価手法の開発.(オンライン)(引用日: 2023 年 1 月 12 日.) https://www.jstage.jst.go.jp/article/pjsai/JSAI2020/0/JSA I2020_4K2GS305/_pdf/-char/ja [12]米村崇.特許分析を通じた製薬企業の研究開発と企業価値との関連性の研究.(オンライン)(引用日: 2023 年 1 月 12 日.) https://koara.lib.keio.ac.jp/xoonips/modules/xoonips/deta il.php?koara_id=KO40003001-00002020-3761 [13]柴田洋輔. 特許と論文の複合解析による有望応用分野の予測一印刷技術を例に一(オンライン)(引用日: 2023 年 1 月 12 日.) https://www.jstage.jst.go.jp/article/jkg/69/3/69_128/_pdf /-char/ja [14]日経 TechFind.トップページ.(オンライン)(引用日: 2022 年 12 月 28 日.) https://xtech.nikkei.com/service/techfind/ [15]Anews.トップページ.(オンライン)(引用日: 2022 年 12 月 28 日.) https://anews.stockmark.ai/\#/account/login [16]Shareresearch.(オンライン)(引用日: 2022 年 12 月 28 日.) http://demosc.shareresearch.net/sr-c/Login/Login.aspx [17] Tomas Mikolov, Kai Chen, Greg Corrado, Jeffrey Dean (2013) "Efficient Estimation of Word Representations in Vector Space” . (online) (引用日: 2023 年 1 月 12 日.) https://arxiv.org/pdf/1301.3781.pdf [18]Laurens van der Maaten, Geoffrey Hinton.Visualizing Data using t-SNE(online) (引用日: 2022 年 1 月 12 日.) https://www.jmlr.org/papers/volume9/vandermaaten08a/ vandermaaten08a.pdf [19] a b Simoudis, Evangelos; Han, Jiawei; Fayyad, Usama M., eds (1996). "A density-based algorithm for discovering clusters in large spatial databases with noise". Proceedings of the Second International Conference on Knowledge Discovery and Data Mining (KDD-96). AAAI Press. pp. 226-231. ISBN 1-57735004-9 (引用日: 2022 年 1 月 12 日.) https://www.aaai.org/Papers/KDD/1996/KDD96-037.pdf
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C12-2.pdf
# 数学的表現の構造的情報のトークン化手法による ProcessBERT の性能改善 張 純朴 加藤 祥太 加納 学 京都大学大学院情報学研究科 \{shota, manabu\}@human.sys.i.kyoto-u.ac.jp ## 概要 プロセス産業において重要な役割を果たす物理モデルの構築には,文献調査を含めた多大な労力を要する.その労力を削減するために,物理モデルを自動で構築するシステム (AutoPMoB) の実現を目指している. 本研究の目的は,AutoPMoB の実現に必要な要素技術として,複数文献間の変数定義の同義性判定手法を開発することである. 本研究では,まず,化学プロセス関連の論文約 80 万報からなるコー パスを作成した. そして,数学的表現の構造的情報を扱う前処理およびトークン化手法を提案し,化学プロセスに特化した言語モデル ProcessBERT 2022 $^{\text {を }}$構築した. ProcessBERT ${ }_{2022}$ は変数同義性判定において,既存モデルを上回り,F1 值 0.872 を達成した。 ## 1 はじめに 化学や鉄鋼などのプロセス産業では,プロセスの設計や運転に物理モデルに基づくプロセスシミュレータが用いられている.物理モデルの構築にはプロセスに関する深い理解と専門知識だけでなく, 精度向上のための試行錯誤的な取り組みが必要とされる.このため, 物理モデルの構築には多大な労力がかかる. 本研究の最終目的は,複数の文献から物理モデルを自動で構築するシステム (Automated physical model builder; AutoPMoB) を開発することである.AutoPMoB の実現には,物理モデル構築に必要な情報を文献から抽出し,抽出した情報の表記を統一する必要がある。本研究の目的は,表記を統一するために,異なる文献から抽出した変数の定義が同じかどうか (同義性) を正確に判定する手法を開発することである. 本研究では,1) 約 80 万報の化学工学関連論文を収集し,2) BERT モデルが数学的表現の構造的情報を学習できるような前処理手法を提案し,BERT モデルをゼロから学習する。 そして,提案手法と既存手法で構築した BERT モデルによる変数定義の同義性判定性能を比較する. ## 2 関連研究 自然言語処理の分野において,単語の意味をべクトル (埋込ベクトル) で表現することの有効性が多くの研究で検証されてきた. Word2Vec [1],GloVe [2], FastText [3] は,文脈に依存しない埋込べクトルである.しかし,単語の意味は文脈によって変わる場合がある。単語に対して一意に決まる埋込べクトルを学習する手法はそのような状況に対応できない。文脈に依存した埋込べクトルを学習する言語モデルの一つが BERT (Bidirectional Encoder Representations from Transformers) [4] である. Peng ら [5] は,数式とその周辺の文脈から構成されるコーパスを用いて,数学分野の情報抽出,トピック分類および文生成のタスクに特化したモデル MathBERT を構築した. Dadure ら [6] は,数学分野の情報抽出と質問応答の研究を行う ARQMath [7] が作成したコーパスを用いて,数式の情報抽出タスクに特化した BERT モデルを作成した. これらの研究では,一般的な数学的情報を扱うコーパスを用いて追加で BERT モデルを訓練していた。しかし,化学プロセス分野における変数定義同義性判定のタスクに対応するために,その分野に特化したコーパスでモデルを構築する必要がある.金上ら [8] は,化学工学分野のコーパス (約 7 億語)を用いて BERT を追加で訓練し,ProcessBERT を構築した. 彼らの前処理では,数学的表現の構造的な情報を無視したテキストを使用していた. 図 1 に数式 $\frac{c_{k}}{c_{l}}$ の前処理およびトークン化後の文字列を示す. この前処理後の文字列が元々数学的表現の一部なのか,単語の一部なのかを区別することはできないため,数学的表現の構造的情報は学習されない。また,学習に使用したコーパスのサイズが小さいという課題があった. 図 1 先行研究 [8] の前処理およびトークン化手法による数式の変換例. ## 3 提案モデル (ProcessBERT 2022 ) ## 3.1 コーパス Elsevier 社が提供する Elsevier Research Product APIs [9] を用いて, 化学工学分野の 130 ジャーナルから XML (Extensible Markup Language) 形式の論文ファイルを収集した. XML はタグを用いて文章の見た目と構造を記述するマークアップ言語の一種である. XML の数学的表現に対応するタグは 2004 年に $\langle$ formula $\rangle$ タグから $\langle\mathrm{mml}: \mathrm{math}\rangle$ タグに変更された. 本研究では, 論文中の数学的表現を統一的に処理するために, 数学的表現の記述に $\langle\mathrm{mml}: \mathrm{math}\rangle$ が用いられている 2005 年以降の論文約 80 万報を使用する. 簡単のため, 以降の文では,数学的表現の記述に用いられるタグを “mml”が省略された形で表記する. 先行研究 [8] と同様に,論文の抄録と本文を用い,タイトル・著者情報・キーワード・参考文献・付録は用いない. ## 3.2 前処理とトークン化 前処理では,まず数学的表現の置換を行う.数学的表現は変数と数式の二種類に分けられる. 本研究では,以下の 2 つの条件を全て満たす XML 構文を変数を表現するものとみなす. 1. $\langle\mathrm{mi}\rangle,\langle\mathrm{msub}\rangle,\langle\mathrm{msup}\rangle,\langle\mathrm{msubsup}\rangle,\langle\mathrm{mover}\rangle$, $\langle$ munder $\rangle$, 〈moverunder $\rangle$, $\langle$ math $\rangle,\langle\mathrm{mrow}\rangle$ の 9 種類のタグのみを使用する。 2. 一番外側の $\langle\mathrm{math}\rangle$ 要素の直下にある子要素の数が 1 である.表 17 種類の XML タグごとの変数変換ルール 図 2 提案する前処理による変数と数式の変換例. XML タグと変換ルールに基づいてタグを含まない文字列に変換する。 XML で変数の表現に用いられる 7 種類のタグに注目し,表 1 に示す変換ルールを定義した. このルールに基づき,各変数を処理する。一つの変数に複数のタグが用いられる場合,外側から順に処理を行う.数式は変数と比較してタグの種類が多く,構造も多様である.また,数式より変数の方が変数定義の同義性判定を行う上で重要であると考えたため,数式は一律に “[FOR]” トークンで置換することとした. 図 2 に変数と数式の変換処理の例を示す. 次に,前処理後の文字列をトークン化する。トー クン化には BERT と同じ WordPiece [10] アルゴリズムで作成したトークナイザを用いた. トークナイザの作成時には 6 種類の特殊トークン (“[FOR]”, “[VAR]”, “[SUB]”, “[SUP]”, “[OVER]”, “[UNDER]”) を追加した。 ## 3.3 事前学習 以下の 3 つのステップを経て,XML ファイルを一文一行 (one sentence per line) のテキストファイルに変換する。 1. 数学的表現を提案した前処理で変換する. 2. 抄録と本文のテキスト部分を結合する。 3. 文分割のツール Spacy [11]を用いて,結合されたテキストを文に分割し,一行が一文のテキストファイルに変換する。 以上の処理で事前学習データ (36 億語)を得た. これを用いて BERT モデルをゼロから訓練し, 化学プロセスに特化した言語モデル ProcessBERT ${ }_{2022}$ を構築した. ProcessBERT ${ }_{2022}$ の学習では, バッチサイズとシーケンスの最大長をそれぞれ 256 と 128 とし,学習ステップを $1,000,000$ とした。それ以外のハイパーパラメータは $\mathrm{BERT}_{\mathrm{BASE}}$ [12] と同じとした。事前学習タスクは Masked Language Model と Next Sentence Prediction とした. 計算には Google Cloud Platform [13] で 8 コアの TPU v3 を使用した.学習には約 32 時間要した. 事前学習の際に指定する語彙ファイルはトークナイザの作成時と同じものを使用した。 ## 4 実験 ## 4.1 データセット 先行研究 [8] で使用したデータセットに新たに 2 プロセスを追加した合計 5 つの化学プロセスに関する論文 45 報からなるデータセットを用いる. 5 つのプロセスは,バイオディーゼルプロセス (Biodiesel; $\mathrm{BD})$ ,晶析プロセス (Crystallization; CRYST),連続槽型反応器 (Continuous Stirred Tank Reactor; CSTR), チョクラルスキープロセス (Czochralski; CZ),多管式熱交換器 (Shell and Tube Heat Exchanger; STHE) である. 同一プロセスの異なる 2 つの論文に含まれるすべての変数定義のぺアについて,同義 (1)もしくは非同義 (0) のラベルが付与されている. プロセスごとの同義と非同義の変数定義ぺアの数を表 2 に示す.このデータセットは,同義ぺアの数が非同義変数定義ぺアの数よりもかなり少ない不均衡データセットであるため,以下のように各プロセスについて,訓練用およびテスト用データを作成した。 訓練用同義変数定義ぺアの半分をランダムにサンプリングし,どのプロセスでもデータの総数が 1,500 になるように非同義の変数定義ぺアをランダムにサンプリングした. テスト用訓練用データ以外の同義変数定義ぺアをテスト用とした。また,テスト用データの数が全体のサンプル数の $10 \%$ になるうに非同義の変数定義ペアをランダムにサンプリングした.表 2 各プロセスの論文数と同義および非同義のペア数 ## 4.2 同義性判定手法 先行研究 [8] と同様に,「変数定義の類似度に基づく手法」と「ファインチューニング済モデルに基づく手法」を用いる. ## 4.2.1 変数定義の類似度に基づく手法 2 つの変数定義をそれぞれ BERT モデルに入力して変数定義べクトルを算出し,それらのコサイン類似度が閾値より大きければ同義と判定する。変数定義ベクトルとして, 先行研究 [8] では 12 層の Transformer encoder の出力ベクトルの平均を使用していたが,本研究では,最終層の出力ベクトルのみを使用する.変数定義べクトルの計算には Devlin らが Github 上で公開しているプログラム [12] (extract_features.py) を使用した。閾值には Youden's Index [14]を採用した. ## 4.2.2 ファインチューニング済モデルに基づく手法 各プロセスについて, ProcessBERT ${ }_{2022}$ の事前学習済モデルを訓練用データでファインチューニングし,そのモデルで同義性を判定する. ファインチューニングの際の下流タスクとして,2つの名詞句が言い換えであるかどうかを判定する Microsoft Research Paraphrase Corpus (MRPC) [15] を用いたタスクを使用し,訓練には Devlin らが Github 上で公開しているプログラム [12] (run_classifier.py)を使用した. ## 5 結果と考察 ## 5.1 結果 類似度による同義性判定の結果を表 3 に示す. 本研究で構築した ProcessBERT 2022 に加えて, ProcessBERT [8], BERT ${ }_{B A S E}$ [4], SciBERT [16] の結果も示した. ProcessBERT ${ }_{2022}$ は CRYST と CZ の 2 つのプロセスにおいて最も高い $\mathrm{F} 1$ 値を達成したのに 表 3 類似度に基づく変数定義同義性判定結果 (F1 値) 対して,SciBERTはBD,STHEおよび全プロセスをまとめたデータセット (All), ProcessBERT は CSTR においてそれぞれ最高値を達成した。 ProcessBERT $_{2022}$ と ProcessBERT のファイチュー ニング済モデルによる同義性判定結果 (正解率,適合率,再現率, $\mathrm{F}$ 値)をそれぞれ表 4 と表 5 に示す.いずれの場合も類似度を用いた手法と比較して,BD と STHE を除いたデータセットで性能が向上した. BD と CSTR 以外のデータセットにおいて, ProcessBERT ${ }_{2022}$ の性能は ProcessBERT よりも高かった. ## 5.2 考察 本研究で構築したコーパス (36 億語) は,他のドメイン特化 BERT モデルのそれと同等のサイズである (SciBERT [16]: 32 億語, BioBERT [17]: 45 億語, PubMedBERT [18]: 31 億語). そして, 先行研究 [8] では事前学習済の BERT $_{\text {BASE }}$ のモデルに追加で学習を行ったのに対して, 本研究では, 構築したコーパスのみを用いてゼロから学習を行った. このため,先行研究で報告された,コーパスのサイズが小さく, モデルが十分に化学プロセス分野の専門的知識を十分に学習できない問題は改善された。 ファインチューニング済モデルによる同義性判定の結果において,ProcessBERT ${ }_{2022}$ は BD のデータセットに対する再現率と $\mathrm{F}$ 値が,他のプロセスの場合よりも低かった.これは, BD の同義変数定義ぺアの数が少なく,モデルが十分に正例を学習できなかったことが原因として考えられる. 高い性能を達成するには,他のプロセスと同等の数の正例データを確保する必要がある。 また, 本研究では変数定義の類似度に基づく手法とファインチューニング済モデルに基づく手法の両方において,変数定義を大力とした. これは,変数定義を含む文を入力とし,類似度に基づく手法で同義性判定を行ったところ,モデルの性能が著しく低下したためである.単語は周辺の文脈から意味が決まるという分布仮説や BERT モデルが事前学習時に表 4 ProcessBERT ${ }_{2022}$ のファインチューニング済モデルに基づく変数定義同義性判定結果 表 5 ProcessBERT のファインチューニング済モデルに基づく変数定義同義性判定結果 文を入力とする事実を踏まえると,本来は文を入力することで性能向上を期待できるはずである. さらに,定義を含む文を入力とする方法はファイチュー ニング済モデルに基づく手法に適用できるが,その際に適切な下流タスクを考案する必要がある.このような文を入力として用いる方法の開発は今後の課題である. ## 6 おわりに 本研究では先行研究 [8] に引き続き,物理モデル自動構築システム (AutoPMoB) の要素技術である複数文献間における変数の同義性判定手法の開発に取り組み,XML 形式のコーパスに含まれる数学的表現の構造的情報を扱う前処理およびトー クン化手法を提案した. 提案手法で構築した言語モデル ProcessBERT ${ }_{2022}$ は先行研究で構築された ProcessBERT [8] よりも高い同義性判定性能を達成した. 今後は, 5.2 節で議論した課題に対応し,さらなる性能向上を目指す. ## 謝辞 本研究は JSPS 科研費 JP21K18849 および Google Cloud Research Credits プログラムの助成 (GCP19980904)を受けたものです. ## 参考文献 [1] T. Mikolov, K. Chen, G. Corrado, and J. Dean. Efficient estimation of word representations in vector space. arXiv preprint arXiv:1301.3781, 2013. [2] J. Pennington, R. Socher, and C. Manning. Glove: Global vectors for word representation. In Proceedings of the 2014 conference on empirical methods in natural language processing (EMNLP), pp. 1532-1543, 2014. [3] P. Bojanowski, E. Grave, A. Joulin, and T. Mikolov. Enriching word vectors with subword information. Transactions of the Association for Computational Linguistics, Vol. 5, pp. 135-146, 2017. [4] J. Devlin, M. Chang, K. Lee, and K. Toutanova. Bert: Pretraining of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018. [5] S. Peng, K. Yuan, L. Gao, and Z. Tang. Mathbert: A pre-trained model for mathematical formula understanding. arXiv preprint arXiv:2105.00377, 2021. [6] P. Dadure, P. Pakray, and S. Bandyopadhyay. Bert-based embedding model for formula retrieval. In CLEF (Working Notes), pp. 36-46, 2021. [7] R. Zanibbi, D. W Oard, A. Agarwal, and B. Mansouri. Overview of arqmath 2020: Clef lab on answer retrieval for questions on math. In International Conference of the Cross-Language Evaluation Forum for European Languages, pp. 169-193. Springer, 2020. [8] 金上和毅, 加藤祥太, 加納学. 複数文献間の変数の同義性判定に向けた ProcessBERT の構築. 言語処理学会第 28 回年次大会発表論文集, 2022. [9] Elsevier developer protal. https://dev.elsevier.com/ ., Accessed on 2022/01/16. [10] X. Song, A. Salcianu, Y. Song, D. Dopson, and D. Zhou. Fast wordpiece tokenization. arXiv preprint arXiv:2012.15524, 2020 [11] M. Neumann, D. King, I. Beltagy, and W. Ammar. Scispacy: fast and robust models for biomedical natural language processing. arXiv preprint arXiv:1902.07669, 2019. [12] Original bert codes. https://github.com/ google-research/bert, Accessed on 2022/07/13 [13] Cloud computing services-google cloud. https:// cloud. google.com/., Accessed on 2022/12/29. [14] W. J. Youden. Index for rating diagnostic tests. Cancer, pp. 32-35, 1950. [15] B. Dolan and C. Brockett. Automatically constructing a corpus of sentential paraphrases. In Third International Workshop on Paraphrasing (IWP2005), 2005. [16] I. Beltagy, K. Lo, and A. Cohan. Scibert: A pretrained language model for scientific text. arXiv preprint arXiv:1903.10676, 2019 [17] J. Lee, W. Yoon, S. Kim, D. Kim, S. Kim, C. So, and J. Kang. Biobert: a pre-trained biomedical language representation model for biomedical text mining. Bioinformatics, Vol. 36, No. 4, pp. 1234-1240, 2020. [18] Y. Gu, R. Tinn, H. Cheng, M. Lucas, N. Usuyama, X. Liu, T. Naumann, J. Gao, and H. Poon. Domain-specific language model pretraining for biomedical natural language processing. ACM Transactions on Computing for Healthcare (HEALTH), Vol. 3, No. 1, pp. 1-23, 2021.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C12-3.pdf
# Wikipedia 協調フィルタリング法 竹内皓紀 ${ }^{1}$ 林克彦 ${ }^{2}$ 1 群馬大学 2 北海道大学 ${ }^{2}$ katsuhiko-h@ist.hokudai.ac.jp ## 概要 Wikipedia は様々な物事(ここでは「エンティティ」と呼ぶ)について質の高い記事が存在し, 多様な研究領域において利用されてきた。従来の研究では,Wikipedia の概要文やハイパーリンクなどのコンテンツ情報を利用することが一般的であったが, Wikipedia のコンテンツ情報はユーザの主観を排して編集されるため,評論やレビュー文とは異なり, エンティティに関する表層的な属性情報しか考慮することができない. この課題を解決するため, 本稿では Wikipedia の編集者情報を利用した協調フィルタリング法を提案する。提案手法をエンティティ間の類似度推定に利用し,推薦タスクで評価を行った結果,その有効性を確認した。 ## 1 はじめに Wikipedia は誰でも編集できるオンライン百科事典であり,編集の容易さや編集人数の多さから様々な物事(ここでは「エンティティ」と呼ぶ)について質の高い記事が存在する. そのため, Wikipedia から得た情報は様々な研究領域において利用されてきた。その中でも,エンティティ間の類似度推定は,推薦,検索や自然言語処理など多くの応用先があり,単語埋め込みなどの手法とも関係性がある研究課題である. エンティティ間の類似度を推定する際には,まずエンティティの特徴量を抽出する必要がある。その情報源として図 1 に示すような概要文やハイパーリンクなどの Wikipedia のコンテンツ情報を活用することが一般的である $[1,2,3]$. しかし, Wikipedia は百科事典であり,そのコンテンツに関しては「中立的な観点」を基本方針の 1 つとしている.「中立的な観点」とは,信頼できる情報源を慎重に分析し,可能な限り編集上の偏向なく読者に伝えることを指す1).そのため,Wikipedia 1) https://en.wikipedia.org/wiki/Wikipedia: 図 1: Wikipedia から取得できる各種情報. 画像は英語版 Wikipedia から引用. のコンテンツ情報は,編集者の個人的な意見や嗜好が反映されにくく, 表層的な属性情報に限られる。 よって,従来のコンテンツベースによるエンティティ類似度推定手法の欠点の 1 つとして,人間の埕好性などに内在するエンティティ間の複雑な類似性を捉えることが本質的に難しい点が挙げられる。 一方,コンテンツベースとは異なる考え方として,協調フィルタリングと呼ばれる方法論がある [4]. 協調フィルタリングはユーザの諾好情報で推論を行う方法論であり,主に推薦に関する研究分野で発展してきた. 有名な応用例としては, Amazon の商品推薦,Netflix の動画推薦システムなどが知られている。このようなシステムを構築するにはユー ザの嗜好が含まれた購買履歴などのプロファイル情報を入手する必要があり,協調フィルタリングを適用できるドメインは一般に限られるが,商品や動画などのエンティティ間に内在する複雑な類似性を捉えることが可能となる. このような背景から, 本研究では協調フィルタ  リングを参考にして,Wikipedia におけるエンティティ間の類似度を推定する新しい手法を提案する。図1で示すように, Wikipedia には各記事を誰が編集したかという履歴が残されており,提案手法ではこのような記事の編集者情報を利用する。編集者は一般に関心がある記事を編集するため,協調フィルタリングの考え方から,同一編集者に編集された記事に対応するエンティティ同士は類似すると仮定できる.そのため,提案手法では,客観的な属性情報では捉えることが難しかったエンティティ間の複雑な類似性を推定できることが期待される. 本研究では推薦タスクを用いて提案手法の有効性を検証した. 実験結果からは Wikipedia の概要文やハイパーリンクに基づくコンテンツベースの手法に対して, 編集者履歴を使った提案手法の有効性が確認されたのでこれを報告する. ## 2 関連研究 ## 2.1 Wikipedia からの特徵量抽出 推薦・情報検索・自然言語処理分野において, Wikipedia から単語間や文書間の意味的な類似性を捉えた特徴べクトルを学習することは重要な課題である.このとき, Wikipedia のコンテンツ情報であるテキストやハイパーリンクに対して, Explicit semantic analysis (ESA) [2], Word2Vec [5], Wikipedia2Vec [1], BERT [6], 潜在的意味解析 [7] や Paragraph Vector [8] などのモデルやツールを利用してベクトルを学習することが一般的となっている。 このような特徴べクトルの応用先の 1 つとして推薦タスクが考えられる。文献 [3] では, Wikipedia 記事のテキストを対象に文書べクトルを推定し,その類似度を使って映画や書籍の推薦を実現している。 しかし,推薦のような応用先を考える場合,コンテンツ情報では人の嗜好性を捉えることが難しく,文献 [3] の手法では十分な推薦精度を達成できていない. 本稿で提案する Wikipedia の編集者情報を利用するアプローチは,このような従来手法の課題を解決できる可能性を秘めた新しい試みとなっている. ## 2.2 協調フィルタリングを用いた推薦 協調フィルタリングを用いた推薦手法として,行列分解による手法 [9] や,それを一般化させた深層学習による手法 [10] がある. しかし, 深層学習モデルの隠れ層を増加させても,推薦性能に大きな違い が見られないという報告もある $[11,12,10,13,14]$.一方で,協調フィルタリングを用いた古典的な推薦法として,近傍探索に基づく手法 $[15,16]$ があり,現在でも商用のシステムで広く利用されている. アイテムベースの近傍探索モデルではアイテム間の類似度を推定する必要があり,近年では回帰に基づく手法が主流である $[11,17]$. 特に EASE モデル [11]では,類似度行列の推定をリッジ回帰問題として定式化する。これは閉形式で解を推定できるため,最適化が容易であり,安定的に高い推薦性能を実現できることが報告されている. ## 3 EASE による類似度推定 本稿ではエンティティ間の類似度を推定するためのモデルとして,EASE [11]を採用する。 $N$ 件の Wikipedia 記事 $\left(D_{1}, D_{2}, \cdots, D_{N}\right)$ が与えられたとき, $D_{i}$ は $M$ 種類の素性 (特徴量)を基底としたべクトル $\left[f_{i 1}, f_{i 2}, \cdots, f_{i M}\right]^{\mathrm{T}}$ として表せる (Wikipedia 記事はエンティティに対応する).これは Wikipedia 記事 $D_{i}$ に素性 $w_{j}$ が出現すれば, $f_{i j}=1$, 出現しなければ, $f_{i j}=0$ となるべクトルとする2).このような $N$ 個のべクトルを行に並べた Wikipedia 記事行列: $ \mathbf{F}=\left(\begin{array}{cccc} f_{11} & f_{12} & \cdots & f_{1 M} \\ f_{21} & f_{22} & \cdots & f_{2 M} \\ \vdots & \vdots & \ddots & \vdots \\ f_{N 1} & f_{N 2} & \cdots & f_{N M} \end{array}\right) \in\{0,1\}^{N \times M} $ を定義する. Wikipedia 記事の素性としては,概要文に含まれる 1-gram 2 -gram,ハイパーリンク,編集者履歴などを利用することができる. EASEによって類似度行列を推定する場合, Wikipedia 記事 $D_{i}$ に素性 $w_{j}$ が出現することを回帰で予測する問題として定式化する。回帰で用いる説明変数として,素性 $w_{j}$ を除いた残りの $M-1$ 個の素性を用いることを考える。これを行列形式で定義すると以下のようになる。 $ \begin{aligned} & \widehat{\mathbf{B}}=\underset{\mathbf{B}}{\arg \min }\left.\{\|\mathbf{F}-\mathbf{F B}\|_{F}^{2}+\lambda\|\mathbf{B}\|_{F}^{2}\right.\} \\ & \text { s.t. } \operatorname{diag}(\mathbf{B})=\mathbf{0} . \end{aligned} $ これは L2 正則化付きの二乗誤差を最小化することで,行列 $\mathbf{F}$ を自己復元する重み表現 $\mathbf{B}$ を獲得することが目的となる.ただし, $\mathbf{B}=\mathbf{I}$ とすれ゙,自明な形 $ には Wikipedia 記事 $D_{i}$ 中に素性 $w_{j}$ が出現した回数を }考えることもできる。 表 1: データセットの統計情報: 各特徵量の種類数. で式 (1)の最小化が達成されてしまうため, 制約条件として $\operatorname{diag}(\mathbf{B})=\mathbf{0}$ を課している。これは $\mathbf{B}$ の対角成分を全て 0 とすることを意味する. 式 (1) はラグランジュの未定乗数法により, $ \|\mathbf{F}-\mathbf{F B}\|_{F}^{2}+\lambda\|\mathbf{B}\|_{F}^{2}+2 \boldsymbol{\alpha}^{\mathrm{T}} \operatorname{diag}(\mathbf{B}) $ を最小化する問題に帰着される。ここで $\alpha$ はラグランジュ乗数のべクトルを表す。そして,この解は下記のような閉形式を持ち, $ \widehat{\mathbf{B}}=\mathbf{I}-\mathbf{P} \text { mat }(\mathbf{1} \oslash \operatorname{diag}(\mathbf{P})) $ $\mathbf{P}=\left(\mathbf{F}^{\mathrm{T}} \mathbf{F}+\lambda \mathbf{I}\right)^{-1}$ であり,各要素は $ \widehat{\mathbf{B}}_{j k}= \begin{cases}0 & (j=k) \\ -\frac{\mathbf{P}_{j k}}{\mathbf{P}_{k k}} & (j \neq k)\end{cases} $ として推定できる。、 $\widehat{\mathbf{B}}$ は Wikipedia 記事間の類似度行列として用いることができる. ## 4 実験 ## 4.1 評価用データセットの整備 実験ではデータセットとして MovieLens-20M $\left(\right.$ ML-20M) ${ }^{3)}$ ,Last.fm hetrec-2011 (Last.fm) [18] と LibraryThing $(\mathrm{LT})^{4)}$ を用いた. それぞれ,映画,音楽アーティストと書籍のドメインに関する推薦評価用データセットであり,ユーザの評価値を 2 値として扱っている.また,エンティティと Wikipedia 記事の対応付けについて,ML-20M は映画タイトルと編集距離が近いタイトルの Wikipedia 記事を用いた. Last.fm と LT については,エンティティと Wikipedia 記事の対応付けデータ $[19,20]$ を参考にした。 各推薦データのエンティティ(映画,音楽アー ティストや書籍)に対応付けた Wikipedia 記事から,英語 Wikipedia の編集者,多言語 Wikipedia の編集者,概要文,ハイパーリンクとカテゴリに関する情 3) https://grouplens.org/datasets/movielens/20m/ 4) https://github.com/sisinflab/LinkedDatasets 図 2: 多言語 Wikipedia の記事数 (上位 25 力国). 報を取得した。ユーザ数や編集者数,語彙数などの統計情報は表 1 に示す.また,図 2 には ML-20M, Last.fm と LT に対して,記事数が多い上位 25 力国の記事数を示した. 英語版 Wikipedia については全エンティティに対する記事が存在する。 ## 4.2 推薦による評価 本実験では推薦データに内在するユーザの嗜好性を Wikipedia 情報からどの程度捉えることができるのか調査する,具体的には,Wikipedia 情報から推定したエンティティの類似度行列を用いて推薦タスクの性能評価を行う.よって,以下ではまず,推薦タスクの手順について説明する。 評価手順推薦による評価を行うには,まず以下 3 つのデータが必要となる. ・訓練用データ ・評価用履歴データ ・評価用解答データ 訓練用データはエンティティの類似度行列 $\widehat{\mathbf{B}} \in \mathbb{R}^{N \times N}$ を推定するのに利用するデータである.本実験では,Wikipedia から抽出した情報を訓練用データとして扱う。 評価用履歴データは推薦データに含まれるユー ザの過去の埕好プロファイル情報である. 評価用解答データは, 評価用履歴データと同じユーザに対する嗜好プロファイル情報であるが,それぞれのデータにおいて,あるユーザ $u$ が関心を持ったエンティティに重なりはないように分割されている. ML-20M,Last.fm と LT の各推薦データに対して,ユーザをランダムに 5 分割し,各分割のユーザに対して,評価用履歴データと評価用解答データを大凡 $80 \%$ と $20 \%$ の割合で分割した. 評価用データについて,推薦タスクにおける具体的な役割を説明する。評価用履歴データに含まれる 図 3: ML-20,Last.fm と LT における 5 分割した各結果の推薦性能に対する平均と標準偏差. ユーザ $u$ の履歴情報は $\mathbf{x} \in\{0,1\}^{N}$ というエンティティ数 $N$ 次元のベクトルで表され,このべクトルは $u$ が過去に関心を持ったエンティティに対応する次元の要素が 1 となり,それ以外は 0 となる. 推薦はこのユーザ $u$ が関心を持つ可能性のあるエンティティを予測するタスクである。この予測は $\mathbf{x}^{\mathrm{T}} \widehat{\mathbf{B}}$ で計算され,その結果はユーザ $u$ の各エンティティに対するスコア(関心)を表す。そして,このスコアの高いエンティティが評価用解答データに含まれていれば良い推薦として評価される。 評価指標本実験では Recall@ $R$ とDCG@ $R$ という2つの評価指標を用いて,推薦性能を評価する。 $R$ とは推薦したエンティティの数を表す. また,本稿では $\omega(r)$ を $R$ 個中の上位 $r$ 番目のエンティティ, として定義する。これらをふまえて,あるユーザ $u$ に対する Recall@Rは以下のように定義される. $ \text { Recall@ } R:=\sum_{r=1}^{R} \frac{\square\left[\omega(r) \in \mathscr{I}_{u}\right]}{\min \left(R,\left|\mathscr{F}_{u}\right|\right)} $ また,DCG@Rは以下のように定義される. $ \mathrm{DCG} @ R:=\sum_{r=1}^{R} \frac{2^{\left[\left[\omega(r) \in \mathcal{F}_{u}\right]\right.}-1}{\log (r+1)} . $ NDCG@R は,推定したDCG@RをDCG@R の理想值で割ることにより計算される. これらの詳細は文献 [10] などを参照されたい. 性能評価結果を図 3 に示す。これらは 5 分割した各結果の推薦性能に対する平均と標準偏差を示している. Wikipedia のコンテンツ情報と編集者情報を比較すると ML-20M,Last.fm と LT の各データにおいて,すべての評価指標で編集者情報を用いたシステムの方が高い性能を示している。分析 Wikipedia 情報で推定した類似度行列に対する事例分析を行うことで,提案手法がコンテンツ情報を用いる従来法よりも優れた推薦性能を達成できた要因を探る.ML-20M の Fight Club という映画に対して,各情報から推定した類似度が高い上位 10 映画を抽出し,定性的分析を行った. コンテンツ情報から推定した類似度上位 10 映画について, ハイパーリンクは Fight Club と同監督の映画を多く挙げていた。一方で,編集者情報から推定した類似度上位 10 映画においては,Pulp Fiction や Memento (film)など,Fight Club と人の嗜好性に基づく関係性のある映画が挙げられた。つまり,従来法では属性情報を捉えているのに対し,提案手法では嗜好情報を捉えており,こうした違いが推薦性能の差に現れたのだと考えられる。詳細は付録 Aに付す。 ## 5 まとめ 本稿では,Wikipedia の編集者情報を利用した協調フィルタリング法を提案し,エンティティの類似度推定に応用した. 従来の概要文やハイパーリンクなどのコンテンツ情報を利用した推定手法とは異なり,提案法はユーザの嗜好性を反映した類似度の推定が可能になると期待され,実際に,映画,音楽と書籍ドメインの推薦データを用いた評価実験から提案法の有効性を確認することができた. 今後は,推薦以外のタスクへの応用も検討し,提案法の有効性をさらに検証したい. その際,類似度としての活用ではなく, Wikipedia 記事行列の行列分解などを用いて,エンティティの低次元ベクトル表現を構築することで,より応用性の高い形式で結果を活用することも検討したい. ## 謝辞 本研究は JSPS 科研費 JP 21H03491 の助成を受けた. ## 参考文献 [1] Ikuya Yamada, Akari Asai, Jin Sakuma, Hiroyuki Shindo, Hideaki Takeda, Yoshiyasu Takefuji, and Yuji Matsumoto. Wikipedia2vec: An efficient toolkit for learning and visualizing the embeddings of words and entities from wikipedia. arXiv preprint arXiv:1812.06280, 2018. [2] Evgeniy Gabrilovich and Shaul Markovitch. Computing semantic relatedness using wikipedia-based explicit semantic analysis. In Proc. of IJCAI, pp. 1606-1611, 2007. [3] Cataldo Musto, Giovanni Semeraro, Marco de Gemmis, and Pasquale Lops. Learning word embeddings from wikipedia for content-based recommender systems. In Proc. of ECIR, pp. 729-734, 2016. [4] David Goldberg, David Nichols, Brian M Oki, and Douglas Terry. Using collaborative filtering to weave an information tapestry. Communications of the ACM, Vol. 35, No. 12, pp. 61-70, 1992. [5] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. In Proc. of NIPS Conference, 2013. [6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018. [7] Scott Deerwester, Susan T Dumais, George W Furnas, Thomas K Landauer, and Richard Harshman. Indexing by latent semantic analysis. Journal of the American society for information science, Vol. 41, No. 6 , pp. 391-407, 1990. [8] Quoc Le and Tomas Mikolov. Distributed representations of sentences and documents. In Proc. of ICML, pp. 11881196, 2014. [9] Badrul Sarwar, George Karypis, Joseph Konstan, and John Riedl. Application of dimensionality reduction in recommender system-a case study. Technical report, 2000. [10] Dawen Liang, Rahul G Krishnan, Matthew D Hoffman, and Tony Jebara. Variational autoencoders for collaborative filtering. In Proc. of WWW Conference, pp. 689698,2018 . [11] Harald Steck. Embarrassingly shallow autoencoders for sparse data. In Proc. of WWW Conference, pp. 32513257, 2019. [12] Xiangnan He, Lizi Liao, Hanwang Zhang, Liqiang Nie, $\mathrm{Xia} \mathrm{Hu}$, and Tat-Seng Chua. Neural collaborative filtering. In Proc. of WWW Conference, pp. 173-182, 2017. [13] Suvash Sedhain, Aditya Krishna Menon, Scott Sanner, and Lexing Xie. Autorec: Autoencoders meet collaborative filtering. In Proc. of WWW Conference, pp. 111-112, 2015. [14] Yin Zheng, Bangsheng Tang, Wenkui Ding, and Hanning Zhou. A neural autoregressive approach to collaborative filtering. In Proc. of ICML, pp. 764-773, 2016. [15] Badrul Sarwar, George Karypis, Joseph Konstan, and John Riedl. Item-based collaborative filtering recommendation algorithms. In Proc. of WWW Conference, pp. 285-295, 2001. [16] Katsuhiko Hayashi. Rethinking correlation-based itemitem similarities for recommender systems. In Proc. of SIGIR Conference, pp. 2287-2291, 2022. [17] Xia Ning and George Karypis. Slim: Sparse linear methods for top-n recommender systems. In Proc. of ICDM, pp. 497-506, 2011. [18] Iván Cantador, Peter Brusilovsky, and Tsvi Kuflik. Second workshop on information heterogeneity and fusion in recommender systems (hetrec2011). In Proc. of RecSys Conference, pp. 387-388, 2011. [19] Ignacio Fernández-Tobías, Paolo Tomeo, Iván Cantador, Tommaso Di Noia, and Eugenio Di Sciascio. Accuracy and diversity in cross-domain recommendations for cold-start users with positive-only feedback. In Proc. of RecSys Conference, pp. 119-122, 2016. [20] Tommaso Di Noia, Vito Claudio Ostuni, Paolo Tomeo, and Eugenio Di Sciascio. Sprank: Semantic path-based ranking for top-n recommendations using linked open data. ACM Transactions on Intelligent Systems and Technology (TIST), Vol. 8, No. 1, pp. 1-34, 2016. ## A 参考情報 表 2: ML-20M に登録されている映画 Fight Club と類似度が高い上位 10 映画: 下線は Fight Clubと同監督の映画を,太字は Fight Club と嗜好性に基づく関係性がある映画を表す。 ## Fight Club \\ 表 2 には, Wikipedia 情報で推定した類似度行列に対する事例分析の結果を記す。具体的には, ML-20M に登録されている Fight Club という映画に対して,各情報から推定した類似度が高い上位 10 映画を示した。下線は Fight Clubと同監督の映画を,太字は Figth Club と嗜好性に基づく関係性があると思われる映画を表す。この結果から,コンテンツ情報を用いる従来法は表層的な属性情報を,提案手法は人の嗜好性を捉えていることがわかる.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C12-4.pdf
# 複数の質問形式を利用した分類型の 質問応答による薬物タンパク質間関係抽出 山田晃士 三輪誠 佐々木裕 豊田工業大学 \{sd22439, makoto-miwa, yutaka.sasaki\}@toyota-ti.ac.jp ## 概要 近年,質問応答による関係抽出手法が提案され,高い性能を達成している。しかし,質問文は人手で作った固定のものが使われており,質問文の表現が抽出結果に与える影響は明らかでない。また,一般分野以外のタスクへの有効性は未知数である。加えて,質問応答モデルは関係抽出を考慮して設計されていない. 本研究では,質問応答を用いた関係抽出手法の薬物タンパク質間関係抽出への適用を目指し,有効な質問形式の調査と,関係抽出に合わせた質問応答モデルの提案を行う. DrugProt データセットを用いて評価を行い,質問文の形式の関係抽出の性能への影響と薬物タンパク質間関係抽出における質問応答の有効性を確認した。 ## 1 はじめに 近年,関係抽出に対して質問応答を用いる手法 $[1,2,3]$ が高い性能を示している. 質問応答を用いた関係抽出手法では,まず,候補となるすべての関係ラベルに対して質問文テンプレートを作成し,そこに関係抽出の対象とする用語ぺアの片方を当てはめることで質問文を作成する。作成した質問文と用語ペアを含む元の文で質問応答を行い,回答がテンプレートに当てはめていない用語であった場合にテンプレートが持つ関係が存在するとして関係抽出を行う. 質問応答を利用した関係抽出手法は,質問文の表現を調整することで 1 つ関係を複数の視点から抽出することができるという利点がある. 一方で,従来手法は人手で作成した固定したテンプレートを利用しており,質問文の表現の違いが関係抽出の結果にどのような影響を与えるのかは明らかにされていない.また,質問応答を用いた関係抽出手法は一般ドメインのデータセットを対象としており,薬学分野などの専門性の高いドメインに対す る有効性は検証されていない,加えて,質問応答モデルが関係抽出のために設計されていないという問題点もある. そこで,本研究では,質問応答による関係抽出手法の薬物タンパク質への適用を目的として,薬物タンパク質間関係抽出のデータセットである DrugProt データセット [4] に対して 2 種類の質問文テンプレートのセットを作成し,質問文の形式の違いが関係抽出の結果に与える影響について調査を行う。また,質問応答を用いた関係抽出において,関係の有無を決定づけるテンプレートに含まれていない用語が回答かどうかを直接二值分類により判定する,関係抽出に特化した分類型の質問応答モデルを提案する. 本研究の貢献は以下の通りである. ・薬物タンパク質間関係抽出に対して質問応答を用いた手法を適用し,有効性を確認した。 ・質問文の形式が関係抽出の性能へ影響を与えることを確認した。 - 関係抽出への利用に特化した分類型の質問応答モデルを提案した. ## 2 関連研究 ## 2.1 双方向の質問応答による関係抽出 Cohen らは,関係の始点と終点の用語をそれぞれ含む 2 つの質問文を用いて,双方向の質問応答を行うことで関係抽出を行う手法 [1] を提案している. まず,候補となるそれぞれの関係ラベルに対して,関係の始点の用語を当てはめて終点を回答する質問文のテンプレートと,終点の用語を当てはめて始点を回答するテンプレートの 2 種類を作成する. テンプレートから作成した 2 つの質問文を用いてそれぞれ質問応答を行い,片方でも回答が質問文に当てはめていない方の用語であった場合にテンプレートが持つ関係があると判定する。これを全ての関係ラべ 図 12 值分類による質問応答モデル ルに対して繰り返すことで関係抽出を行っている。 ## 2.2 関係抽出に適した質問応答 著者らは,質問応答を用いた関係抽出を行う際に,関係抽出タスクで与えられる情報を利用して質問応答を行う手法 [5] を提案した。 入力文と質問文に含まれる用語の前後と,質問文の回答に対応する疑問詞の前後にデータセットで与えられる用語の情報をマーカーとして挿大することで,関係抽出タスクで与えられる情報を利用した質問応答を行った。 マーカーを用いて挿入する情報として,データセットで与えられる関係の項のタイプを利用することで関係抽出性能が向上することを報告した。 ## 3 提案手法 本研究では,質問応答を用いた関係抽出を薬物夕ンパク質間関係抽出に適用する際の有効な質問形式の調査と, 関係抽出に適した質問応答モデルの提案を目的とする. 3.1 節では質問応答を用いた関係抽出を薬物タンパク質間に適用し, 質問文の表現による関係抽出の性能への影響について調査する際に必要な質問テンプレートの作成について,3.2 節では関係抽出に適した質問応答モデルについてそれぞれ説明する。 ## 3.1 質問文テンプレートの作成 質問応答を用いた関係抽出手法を薬物タンパク質間関係抽出に適用するため, 本研究で学習・評価に用いる DrugProt データセット [4] に含まれるすべての関係ラベルに対して質問文テンプレートを作成した. 2.1 節で説明した双方向の質問応答による関係抽出を行うため,それぞれの関係ラベルに対して薬物を当てはめてタンパク質を答える質問とタンパク質を当てはめて薬物を答える質問の 2 種類を作成した。また,質問文の形式が関係抽出の性能に影響を与えるかどうかを調査するため,2つ目の質問文テンプレートセットとして,質問文の形を統一したものも作成した. 13 種類ある関係ラベルに対して双方向の質問応答をするため,1つの質問文テンプレートセットは 26 個の質問文テンプレートを持つ.質問文テンプレートはいずれもデータセットのアノテーションガイドライン [6] を参考に作成した. 作成した 2 つ質問文テンプレートセットは付録 A に示した. ## 3.2 分類型の質問応答モデル 従来の質問応答モデルをそのまま用いる関係抽出では質問の回答と用語の一致を確認するが,関係抽出では質問の回答が関係抽出の対象の用語であるかどうかを判別できればよい,そこで,本研究では,図 1 に示すような質問文に含まれない用語のスパン表現からその用語が質問の回答であるかどうかを判別する 2 值分類モデルを利用した,分類型の質問応答モデルを提案する。 まず,BERT (Bidirectional Encoder Representations from Transformers) [7] エンコーダを利用して質問文と入力文の各トークンの表現ベクトルを得る.ここで,質問文と入力文を入力する際は,2.2 節で説明した手法を用いて,関係抽出を行う対象の薬物タンパク質の用語ペアの前後と回答に対応する疑問詞の前後に用語のタイプをマーカーとして挿入する. BERT の SEP トークンを利用して連結した質問文と入力文 $S=\left.\{w_{1}, w_{2}, \cdots\right.\}$ を BERT エンコーダに入力し,各トークンの表現 $\mathbf{h}_{i}$ を得る。 $ \left.\{\mathbf{h}_{1}, \mathbf{h}_{2} \cdots\right.\}=\operatorname{BERT}\left(w_{1}, w_{2}, \cdots\right) $ 得られた表現ベクトルのうち,回答候補の用語のス 表 12 種類の質問文セットと比較手法の F 値 $(\%)$ パンに含まれるトークンの表現から,スパンの表現ベクトルを作成する. ここで, $s$ と $e$ はそれぞれ用語のスパンの開始位置と終了位置を, $\mathbf{h}_{s p a n}$ は用語のスパンの表現ベクトルを表す. $ \begin{array}{r} \mathbf{h}_{m}=\operatorname{mean}\left(\mathbf{h}_{s}, \cdots, \mathbf{h}_{e}\right) \\ \mathbf{h}_{\text {span }}=\operatorname{Concat}\left(\mathbf{h}_{s}, \mathbf{h}_{m}, \mathbf{h}_{e}\right) \end{array} $ 作成したスパンの表現ベクトルに全結合層と Sigmoid 関数を適用することで,その用語が質問の回答である確率を得る. $ p_{\text {span }}=\operatorname{Sigmoid}\left(W_{\text {span }} \mathbf{h}_{\text {span }}+\mathbf{b}_{\text {span }}\right) $ 得られた確率が閾値より大きい時,その用語が回答であるとし, 双方向の質問応答に対して片方でも回答が対象の用語であれば,テンプレートが持つ関係があると判定する。これをすべての関係に対して繰り返すことで関係抽出を行う. また,複数の関係に対して回答が用語である確率が閾値より大きい時,その用語ペアに複数の関係ラベルがあるとして,マルチラベルな予測を行う。 ## 4 実験設定 ## 4.1 データセット 薬物タンパク質間関係抽出のデータセットとして, DrugProt データセット [4]を用いて学習および開発データでの評価を行った。このデータセットは薬物及びタンパク質を含む薬学文献のアブストラク トで構成され,薬物・タンパク質間には 13 種類の関係が設定されている。また,関係を持たない薬物とタンパク質のペアも存在する。評価指標にはマイクロ $\mathrm{F}$ 値を用いる. ## 4.2 実験環境 実装にはプログラミング言語 Python 3.7.11を用いた. また, 深層学習ライブラリとして PyTorch 1.10.0 [8] を, 事前学習モデル利用のため Transformers 4.18 .0 [9] を使用した. 計算機には CPU に $\operatorname{Intel}(\mathrm{R})$ Xeon(R) W-3225 及び Intel(R) Xeon(R) CPU E5-2698 v4 を,GPU に NVIDIA RTX A6000 及び NVIDIA Tesla V100-DGXS-32GB を用いた。 ## 4.3 比較手法 作成した 2 種類のテンプレートセット(テンプレートセット1(TS1),テンプレートセット 2 (TS2)を用いて,それぞれモデルの学習を行い $\mathrm{F}$ 値の比較を行った.また,質問文の代わりに関係固有のマーカーと用語を利用した場合(マー カー)との比較を行った. これは,図 1 を例とすると, “What decreases the activity of MAO-A?" という質問文の代わりに,調べたい関係ラベル INHIBITOR 固有のマーカーを用いた “<INHIBTOR> MAO-A?" を使用して学習・評価を行ったものである. 加えて,質問応答を用いたモデルの有効性を調査するため,BERT の CLS トークンを用いて文分類を行ったモデル(文分類)をベースラインとして比 表 2 テンプレートセットによって関係抽出の予測結果が異なる事例(文中の太字が薬物,下線がタンパク質) 較を行ういいずれの手法も,事前学習モデルとして大規模な生物医学文献を用いて事前学習された PubMedBERT-base-uncased-abstract-fulltext [10]を用いた.また,最適化手法として Adam [11]を用いており,学習率は 3e-6 に設定した. また, 3.2 節で説明した質問応答モデルにおける閾値は 0.7 とした. ## 5 結果と考察 ## 5.1 関係抽出性能の比較 作成した質問文テンプレートを用いた場合と比較手法それぞれについて, $\mathrm{F}$ 値を比較した結果を表 1 に示す. TS1 と 2 は作成した 2 種類のテンプレートセット 1 と 2 を用いた際の結果,マーカーは質問文の代わりに関係固有のマーカーを用いた結果,文分類は BERT の CLS トークンを用いて文分類として関係抽出を行った結果である。 ベースラインである文分類による関係抽出に対して,質問応答形式で関係抽出を行ったテンプレー トセット 1,2,マーカーの 3 つと比較すると,訓練事例数の少ない関係クラスのうち, AGONISTACTIVATOR と AGONSIT-INHIBITOR において, 予測性能の向上が見られた。また,マイクロ平均についても最大で $1.0 \%$ ポイントの向上が見られた.このことから,質問応答を利用した関係抽出手法は,薬物タンパク質間関係抽出においても有効であることがわかった。 次に,テンプレートセット $1 , 2$ とマーカーの質問応答を用いた 3 つの手法で比較すると,各関係クラスで $\mathrm{F}$ 値が変化していることがわかるため,質問文の表現が関係抽出性能に影響していることがわかる. また, INDIRECT-UPREGULATOR と PRODUCT-OF の 2 つのクラスでは質問文の代わりにマーカーを用いた手法が,テンプレートセットを用いた他 2 つの手法と比較して, 高い $\mathrm{F}$ 值が見られた. ## 5.2 解析 質問文の表現の違いが関係抽出の結果に影響を与えることを抽出結果が変化した事例で確認する。表 2 は正解ラベルを予測するための 2 種類の質問文テンプレートセットに対して,片方のテンプレー トセットを使用した場合にのみが正しく関係ラべルを予測できている事例を示したものである. テンプレートセットはそれぞれ上が薬物を当てはめる質問,下がタンパク質を当てはめる質問になっており, DRUG と PROTEIN を文中の薬物とタンパク質の用語に置き換えて質問文を作成する。 片方のテンプレートセットのみが正解した事例はどちらも,正解したテンプレートセットでは 2 つの質問の両方で正しく答えられている一方で, 間違っている方のテンプレートセットの 2 つ質問の両方に対して間違った予測をしている.このことから, 同じ関係クラスを予測するための質問文であっても表現を変えることで大きく抽出結果が変わってしまうことあることがわかる. ## 6 おわりに 本研究では, 質問応答を用いた関係抽出手法の薬物タンパク質間関係抽出への適用を目的に, DrugProt データセットに対して 2 種類の質問文テンプレートのセットの作成による有効な質問形式の調査と,質問の回答が用語であるかを判定する 2 值分類モデルによる関係抽出に特化した分類型の質問応答の提案を行った. DrugProt データセットにおける評価から,質問文の形式が関係抽出の性能に影響すること,薬物タンパク質間関係抽出においても質問応答を用いた手法が有効であることを示した. 今後は質問応答を用いた関係抽出手法に対して有効な質問形式や組み合わせの調査を行い,1つの関係クラスを複数の視点から抽出可能な手法の実現を目指す。 ## 謝辞 本研究は JSPS 科研費 JP20K11962 の助成を受けたものです. ## 参考文献 [1] Amir DN Cohen, Shachar Rosenman, and Yoav Goldberg. Relation classification as two-way span-prediction. arXiv preprint arXiv:2010.04829v2, 2021. [2] Xiaoya Li, Fan Yin, Zijun Sun, Xiayu Li, Arianna Yuan, Duo Chai, Mingxin Zhou, and Jiwei Li. Entity-relation extraction as multi-turn question answering. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 1340-1350, Florence, Italy, July 2019. Association for Computational Linguistics. [3] Omer Levy, Minjoon Seo, Eunsol Choi, and Luke Zettlemoyer. Zero-shot relation extraction via reading comprehension. In Proceedings of the 21st Conference on Computational Natural Language Learning (CoNLL 2017), pp. 333-342, Vancouver, Canada, August 2017. Association for Computational Linguistics. [4] Martin Krallinger, Obdulia Rabal, Antonio MirandaEscalada, and Alfonso Valencia. DrugProt corpus: Biocreative VII Track 1 - Text mining drug and chemical-protein interactions, June 2021 [5] 山田晃士, 三輪誠, 佐々木裕. 項の表現に着目した質問応答による関係分類. 言語処理学会第 28 回年次大会, 2022 . [6] Obdulia Rabal, Jose Antonio López, Astrid Lagreid, and Martin Krallinger. DrugProt corpus relation annotation guidelines [ChemProt - Biocreative VI], June 2021. [7] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [8] Adam Paszke, Sam Gross, Francisco Massa, Adam Lerer, James Bradbury, Gregory Chanan, Trevor Killeen, Zeming Lin, Natalia Gimelshein, Luca Antiga, et al. Pytorch: An imperative style, high-performance deep learning library. Advances in neural information processing systems, Vol. 32, pp. 8026-8037, 2019. [9] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, et al. Huggingface's transformers: State-of-the-art natural language processing. arXiv preprint arXiv:1910.03771, 2019. [10] Yu Gu, Robert Tinn, Hao Cheng, Michael Lucas, Naoto Usuyama, Xiaodong Liu, Tristan Naumann, Jianfeng Gao, and Hoifung Poon. Domain-specific language model pretraining for biomedical natural language processing. ACM Transactions on Computing for Healthcare, Vol. 3, No. 1, p. 1-23, Jan 2022. [11] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Yoshua Bengio and Yann LeCun, editors, 3rd International Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings, 2015. ## A 作成した質問文テンプレート 本研究で作成した 2 つの質問文テンプレートセットを表 3 と 4 にそれぞれ示す. 表 3 作成した質問文テンプレート 1(上が薬物を当てはめる質問,下がタンパク質を当てはめる質問)関係 $\quad$ 質問文 \\ 表 4 作成した質問文テンプレート2(上が薬物を当てはめる質問,下がタンパク質を当てはめる質問)
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C12-5.pdf
# 二段階のファインチューニングを行った BERT による 変数定義抽出 山本蒔志 加藤祥太 加納学 京都大学大学院情報学研究科 \{shota, manabu\}@human.sys.i.kyoto-u.ac.jp ## 概要 製造プロセスのデジタルツインを実現するためには,物理モデルが必要である.しかし,物理モデルの構築には多大な労力を要するため, 我々はこの作業の自動化に取り組んでいる. 本研究ではその要素技術として化学プロセス関連論文からの変数定義の抽出手法を提案する。提案手法は対象とする変数を特殊トークンに置換した文を BERT に入力することで文中の定義の位置を予測する.他分野のデータセットと化学プロセス関連論文データセットを順に用いて二段階のファインチューニングを行い,変数定義抽出モデルを構築した. 提案手法を適用することで,沼本ら [1] の特徴量を用いた手法よりも高い性能を実現し,正解率 $85.6 \%$ 達成した。 ## 1 はじめに 化学や鉄鋼などの製造プロセスにおいて,物理モデルが活用されている. 物理モデルは数式に基づいて設計され,実プラントでは計測できない状態量やプラントの将来の挙動を予測し, 生産効率の改善や装置設計,制御系設計,運転条件の最適化などを行うのに活用される. 多くの場合, 物理モデル構築には,専門知識に加えて膨大な量の文献調査とモデル構築に必要な情報の抽出・統合が必要である. しかし,複数の文献の内容を精査しその関連性を把握するには,非常に多くの時間と労力がかかる. この負担を軽減するために,我々は複数の文献から情報を抽出し,組み合わせ,物理モデルを自動構築する人工知能 (Automated physical model builder; AutoPMoB) の開発に取り組んでいる [2]. AutoPMoBを実現するには,文献に含まれる変数の定義を正確に抽出する手法が必要であり,本研究はこの手法の開発に取り組む。 本研究では定義抽出対象の変数を特殊トー クンで置換した文を BERT(Bidirectional Encoder Representations from Transformers) [3] に入力して定義抽出を行う手法を提案する. 提案手法はシンプルであり実装が容易であるだけでなく,すべての変数を統一的に扱うことができる.化学プロセスに関する論文より作成したデータセットを用いて,既存手法と提案手法の性能を比較する。 ## 2 関連研究 変数の定義抽出にはいくつかの先行研究が存在し,変数の定義抽出のために複数の特徴量が提案されている. Lin らは変数と定義の距離,意味的な正しさ,品詞の文法的な妥当さの 3 つを特徴量として用い,複数の分類器をアンサンブルして定義を抽出する手法を提案した [4]. 沼本らは Stanford Parser [5] を用いて定義の候補を抽出し,位置関係や定義らしさなどの特徵量をもとに,最も定義らしいと判断した候補を抽出する手法を提案し,F1-Score で $41.2 \%$ を達成した [1]. しかし,いずれの手法も AutoPMoB の要素技術として性能が不十分である. 近年,BERT に代表される事前学習モデルが多くの自然言語処理タスクで最高の性能を達成している. Kang らは SciBERT [6] によって文から専門用語及びその定義を抽出する手法を提案した [7]. 彼らが定義抽出対象とした専門用語には変数も含まれるが,変数の定義抽出を行う場合,一般的な専門用語に比べ性能が低下することを報告している。 自然言語処理ワークショップ SemEval2022にて,変数と定義の対応付けタスクである Symlink が提案された [8]. Symlink は,文中から変数と定義を抜き出す固有表現抽出タスクと,抜き出した名詞句の関連性を判別する関係抽出タスクの 2 つからなる. Symlink では Lee らが最も高い性能を達成した [9].彼らの手法は文の先頭に疑問文を追加した単語列を SciBERT に入力して質疑応答を行うことで変数と定 義を抽出した. 彼らは固有表現抽出では $47.61 \%$, 関係抽出では $37.19 \%$ の F1-Score を達成した。 本研究は 2 つの点で Symlink とは問題設定が異なる. 1 つ目は変数の抽出の有無である. Symlink では文中のどこに変数があるかは未知という状況を想定し,変数の抽出もタスクに含めていた. 本研究で対象とする変数はすべて既知とするが,Lee [9] らは変数抽出タスクにおいて $99 \%$ 以上の recall を達成していたため,同じ手法でほぼ完璧に変数を抽出できると考えられる.2つ目は抽出対象の種類である。 Symlink では変数によって数量を指示された名詞句や,定義の内容を補足する名詞句などの定義以外の変数に関連する名詞句も予測の対象としていた. 本研究は定義のみを対象とする。 ## 3 データセット ## 3.1 化学プロセス関連論文データセット 化学プロセスに関連する論文計 45 報の変数に対して定義を付与したデータセット $D_{\text {Process }}$ を作成した. ここで変数とは論文中に単独で現れる数学的記号のことであり,数式のみに現れる変数は対象外とする。 $D_{\text {Process }}$ は晶析プロセス [crystallization process; CRYST], 連続層型反応器 [continuous stirred tank reactor; CSTR], バイオディーゼル生産プロセス [biodiesel production process; BD],チョクラルスキー プロセス [Czochralski process; CZ], 多管式熱交換器 [shell and tube heat exchanger; STHE] の 5 つのプロセスいずれかに関するものである.各プロセスの論文数と変数の総数を表 1 に示す. ## 3.2 Symlink データセット 定義抽出は固有表現抽出に近いタスクであるが, Devlin らが固有表現抽出を行ったデータセットには抽出の対象として約 20,000 の固有表現が含まれてい 表 $1 D_{\text {Process }}$ に含まれる論文数と変数の数 たのに対して [3], $D_{\text {Process }}$ の抽出対象となる定義は約 1,000 であり,ファインチューニングに必要なサンプル数として十分でない. そこで, $D_{\text {Process }}$ に追加で Symlink データセット $\left(D_{\text {Symlink }}\right)$ に含まれる変数と定義の関係を用いる [8]. $D_{\text {Symlink }}$ は情報科学, 生物学, 物理学, 数学, 経済学の 5 つの分野の合計 101 報の論文からなり, $D_{\text {Process }}$ の約 10 倍の 16,642 個の変数を含む。 ## 4 提案手法 ## 4.1 BERT を用いた変数定義抽出手法 提案手法の概略図を図 1 に示す.まず定義抽出対象の変数を特殊トークン [target] で置換する. 同じ変数が複数回登場する場合,そのすべてを [target] に置換する。次に置換した文を BERT に入力し,各トークンが定義の開始位置である確率と終了位置である確率を得る。開始位置が終了位置と同じか,より前にあるという条件のもと,開始位置と終了位置の確率の合計が最大となる箇所を探す。得られた開始位置から終了位置までの単語を定義として抽出する。 論文中の変数は必ずしも定義が明記されているとは限らない。例えば,慣習により使用法が決まっている $\pi$ などの変数は大抵の場合定義が明記されていない. 文脈から推測できる変数の定義も明記されないことがある。例えば, $A_{i}$ について定義が与えられた後に, $A_{i}$ に似た定義を有する変数 $A_{i+1}$ が登場した場合,その定義は省略される. 定義がない変数については,入力文の先頭 [CLS] トークンを抜き出すこととする. [CLS]トークンは定義にはなり得ないため,負例の正解として代用できる. ## 4.2 二段階ファインチューニング 定義抽出を行う場合に, $D_{\text {Symlink }}$ 単独でファインチューニングを行っても, $D_{\text {Process }}$ に含まれる定義を正確に抽出できるモデルを構築できないと予想される。変数定義は各分野ごとに多く用いられるパターンが存在するが, $D_{\text {Symlink }}$ と $D_{\text {Process }}$ は分野が異りそのパターンも異なるためである。また $D_{\text {Symlink }}$ と $D_{\text {Process }}$ でアノテータが異なるため,どこまで詳細な内容を定義に含めるかが一致しない. さらに $D_{\text {Process }}$ のサンプル数はファインチューニングを行うのに十分でない. 以上の問題点を解決するため, $D_{\text {Process }}$ と $D_{\text {Symlink }}$ の両方のデータセットを用いて二 抽出する定義 the velocity of air 図 1 提案手法の概略図 段階のファインチューニングを行うこととした. まず第一段階のファインチューニングにて $D_{\text {Symlink }}$ を用い,定義抽出タスクを行うモデルを作成する. 次に第二段階のファインチューニングにて $D_{\text {Process }}$ を用い, $D_{\text {Process }}$ 中の定義のパターンにモデルを適応させる. ## 5 実験 ## 5.1 前処理 $D_{\text {Process }}$ と違い $D_{\text {Symlink }}$ に含まれる文は $\mathrm{TeX}$ 形式であり,変数の表記に $\$ \mathrm{X} \$$, $\$$ mathcal $\{\mathrm{x}\}$ \$ などマンドを含む。このようなコマンドは,BERTが事前学習で用いた Wikipedia と BookCorpus の文に登場しないため,BERT のファインチューニングにおいてノイズとなる。そこで, pylatexenc [10]を用いて, TeX 形式の文をコマンドの含まれない Unicode 形式に変換した。 ## 5.2 実験設定 $D_{\text {Symlink }}$ を訓練用,検証用,テスト用に 8:1:1 に分割し,訓練用,検証用データのみをファインチュー ニングに用いた. ただし分割は各分野の文が等しい割合で含まれるように文単位で行った。また, $D_{\text {Process }}$ を論文単位で訓練用,検証用,テスト用に分割した. 沼本ら [1] と同じく $D_{\mathrm{STHE}}$ で 2 報, それ以外のデータセットで 3 報をテスト用とした. さらに各プロセスにおいて 1 報を検証用とし,残りを全て訓練用とした。 プティマイザには Adam [12]を,GPU には Google Colaboratory の Tesla T4を用いた. バッチサイズは GPU のメモリで利用可能な範囲で最大の 8 , 学習係数は Symlink タスクにおいて最高の性能を達成したモデルと同じく1e-5を選択した. ファインチュー ニングは 5 エポック行い,各エポックにて検証用データに対するモデルの性能を確かめ,損失が最小となったモデルを性能評価に用いた。 二段階ファインチューニングが定義抽出の性能に与える影響を調べるため, 提案手法に追加で以下に示す 2 つ方法で BERT のファインチューニングを行いそれぞれの性能を確認した。 1. $D_{\text {Symlink }}$ のみでファインチューニング 2. $D_{\text {Process }}$ のみでファインチューニング ## 5.3 評価方法 データセットのアノテーションされた定義に対して,モデルの予測した定義が完全に一致した場合を正解とする基準(full)と予測した定義が一部でも一致すれば正解とする基準(partial)の 2 つの評価方法にてモデルの評価を行った. また 1 つの変数に複数の定義が存在する場合は,アノテーションされた定義のうちのどれか 1 つを抜き出すことができれば正解とした. 性能評価には $D_{\text {Process }}$ のテスト用デー タを用いた. 評価指標には正解率 (Acc.), 定義が存在する変数のうち正しく定義を抽出した変数の割合 (Rec.),定義を抽出した変数のうち正しく定義を抽出した割合 (Pre.), Pre. と Rec. の調和平均 (F1)の 4 つを用いた. 実験は分割方法をランダムに変更しながら 10 回行い,その平均の性能を比較した。 ## 6 結果と考察 ## 6.1 結果 提案手法,比較用の 2 つの方法, 沼本らの手法による定義抽出結果を表 2 に示す. 全ての評価指標について二段階ファインチューニングを行った場合が最高の性能となった. 特に沼本らの従来手法に比べ,提案手法は各指標が 30 ポイント以上向上した. ## 6.2 二段階ファインチューニングの有効性 表 2 のように $D_{\text {Symlink }}$ のみでファインチューニングを行ったモデルの full の性能が,他 2 つのモデルに比べて低くなった. 主に 2 つの原因が考えられる. 1 つ目に, $D_{\text {Symlink }}$ に含まれる論文と $D_{\text {Process }}$ に含まれる論文は分野が異なるため,変数を定義する文のパターンが異なる。例えば, $D_{\text {Process }}$ では “ $w_{c}$ is the mass flow rate of cold fluid $(\mathrm{kg} / \mathrm{sec})$.”のように,括弧の中に単位を記入するパターンが頻繁に登場する。一方で $D_{\text {Symlink }}$ では,括弧が定義に含まれる例は 1 つもない,単位が定義に出現する頻度が $D_{\text {Symlink }}$ では $D_{\text {Process }}$ に比べて少ないなど,他にもいくつか定義に用いられるパターンに違いが見られるが,特に括弧の用法の違いは顕著であった。 2 つ目に $D_{\text {Symlink }}$ と $D_{\text {Process }}$ では定義の長さが異なる. 図 2 に $D_{\text {Process }}$ と $D_{\text {Symlink }}$ の定義に含まれる単語数を示す. $D_{\text {Process }}$ の定義は $D_{\text {Symlink }}$ よりも長い傾向にある. $D_{\text {Symlink }}$ では 1 単語または 2 単語の定義が $58 \%$ 占め, 10 単語以上の定義は $3 \%$ に過ぎない. それに対して, $D_{\text {Process }}$ では 1 単語または 2 単語の定義は $10 \%$ のみであり, 10 単語以上の定義が $20 \% を$ 占める. 実際, $D_{\text {Symlink }}$ のみでファインチューニングを行ったモデルは正解の定義よりも短い名詞句を抽出する傾向にあった. 図 $2 D_{\text {Process }}$ と $D_{\text {Symlink }}$ の定義に含まれる単語数の比較 ## 6.3 full と partial の性能差 $D_{\text {Symlink }}$ のみでファインチューニングを行ったモデルについて, full の F1-Score は $14.5 \%$ であった一方で,partial の F1-Score で $80.8 \%$ となった. full と partial の性能差が大きいことから,一段階目のファインチューニングを行ったモデルは $D_{\text {Process }}$ の定義の正確な位置は予測できないものの, $D_{\text {Symlink }}$ と $D_{\text {Process }}$ の定義に共通する大まかな位置を学習できたと考えられる. また,一段階目の大まかな学習により, $D_{\text {Process }}$ のみでファインチューニングを行ったモデルよりも高い性能を達成できたと考えられる。 ## 7 おわりに 本研究では対象とする変数を特殊トークンに置換した文を BERT に入力することで変数定義抽出を行う手法を提案した,さらに,化学プロセス関連のデータセットのサンプル数が不足するという問題を解決するため,二段階のファインチューニングによりモデルを構築した. 従来手法と提案手法を比較した結果,提案手法は各指標において 30 ポイント以上従来手法を上回った. ## 謝辞 本研究は JSPS 科研費 JP21K18849 の助成を受けたものです. ## 参考文献 [1] 沼本真幸, 加藤祥太, 加納学. 変数の記号と定義に関する情報を活用した変数定義抽出手法. 言語処理学会年次大会発表論文集 (Web), Vol. 28th, pp. 486-491, 2022. [2] Shota Kato and Manabu Kano. Towards an automated physical model builder: Cstr case study. In Yoshiyuki Yamashita and Manabu Kano, editors, 14th International Symposium on Process Systems Engineering, Vol. 49 of Computer Aided Chemical Engineering, pp. 1669-1674. Elsevier, 2022. [3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [4] Jason Lin, Xing Wang, Zelun Wang, Donald Beyette, and Jyh-Charn Liu. Prediction of mathematical ex-pression declarations based on spatial, semantic, and syntactic analysis. In Proceedings of the ACM Symposium on Document Engineering, pp. 1-10. [5] Peng Qi, Yuhao Zhang, Yuhui Zhang, Jason Bolton, and Christopher D. Manning. Stanza: A python natural language processing toolkit for many human languages. CoRR, Vol. abs/2003.07082, , 2020. [6] Iz Beltagy, Kyle Lo, and Arman Cohan. SciBERT: A pretrained language model for scientific text. In Proceedings of the $\mathbf{2 0 1 9}$ Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3615-3620, Hong Kong, China, November 2019. Association for Computational Linguistics. [7] Dongyeop Kang, Andrew Head, Risham Sidhu, Kyle Lo, Daniel S Weld, and Marti A Hearst. Document-level definition detection in scholarly documents: Existing models, error analyses, and future directions. arXiv preprint arXiv:2010.05129, 2020 [8] Viet Lai, Amir Pouran Ben Veyseh, Franck Dernoncourt, and Thien Nguyen. Symlink: A new dataset for scientific symbol-description linking. arXiv preprint arXiv:2204.12070., 2022. [9] Sung-Min Lee and Seung-Hoon Na. JBNU-CCLab at SemEval-2022 task 12: Machine reading comprehension and span pair classification for linking mathematical symbols to their descriptions. In Proceedings of the 16th International Workshop on Semantic Evaluation (SemEval-2022), pp. 1679-1686, Seattle, United States, July 2022. Association for Computational Linguistics. [10] Philippe Faist. pylatexenc, 2021. https://github.com/ phfaist/pylatexenc, version2.10. [11] Pengcheng He, Jianfeng Gao, and Weizhu Chen. Debertav3: Improving deberta using electra-style pre-training with gradient-disentangled embedding sharing, 2021. [12] Diederik P Kingma and Jimmy Ba. Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.6980, 2014 .
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C2-1.pdf
# CRF に基づく形態素解析器のスコア計算の分割による モデルサイズと解析速度の調整 赤部晃一 ${ }^{1}$ 神田峻介 1 小田悠介 ${ }^{2}$ ${ }^{1}$ LegalOn Technologies Research ${ }^{2}$ 東北大学 データ駆動科学・AI 教育研究センター \{koichi.akabe, shunsuke.kanda\}@legalontech.jp yusuke.oda.c1@tohoku.ac.jp ## 概要 CRF に基づく形態素解析器において,2-gram スコアの持ち方を変更し,用途に応じてモデルサイズと解析速度の調整を行うことを提案する。代表的な CRF に基づく形態素解析器では, CRF の 2-gram スコアを事前に計算して連接表に記憶しておくことで予測を効率的に行うが,素性の設計によってはスコアの事前計算は連接表を肥大化させる. 本稿では, 2-gram スコアの計算の一部を予測時に行うことで,連接表の肥大化を抑制する.また,2-gram スコアの計算を効率的に行うことで,予測時に追加的に生じる計算時間を抑制する。 ## 1 はじめに 形態素解析は, 日本語の自然言語処理における基礎技術であり,情報検索や機械学習の前処理として利用される. 日本語における代表的な形態素解析器としては, MeCab [1] や KyTea [2] が挙げられる. このうち, MeCab は Conditional Random Fields (CRFs) [3] を利用してパラメータを学習し, 入力文から形態素ラティスを生成し,単一のノードから得られる素性と, 隣合う 2 つのノードに対応した素性を用い,各素性のパラメータを最尤推定する。 素性は解析精度等を考慮して設計されるが,設計によってはモデルサイズが肥大化する.公開されている学習済みモデルを比較すると,IPAdic [4] では連接表のサイズが $1,316 \times 1,316$ であるが,現代書き言葉 UniDic [5] (Ver. 3.1.0) は 15,626×15,388であり,各スコアを 16-bit で表現すると,連接表だけで $459 \mathrm{MiB}$ となる. UniDic では,素性テンプレートの見直しによってモデルサイズを軽量化する試みが行われているが,依然として組み込み機器や Web フロントエンド等の資源が限られた環境で利用するには モデルサイズが大きく,可搬性が低い. 本稿では,まず $\mathrm{CRF}$ に基づく形態素解析について説明し,一部のスコア計算を解析時に行うことで, モデルのパラメータに手を加えずにモデルサイズを軽量化することを提案する。また,解析時のスコア計算を効率的に行う方法についても示す. ## 2 CRF に基づく形態素解析 ## 2.1 定式化 CRF [3] はラティス上に定義される線形識別モデルであり,入力単語列を $\boldsymbol{x}$ ,ラベル列(品詞,読み等)を $\boldsymbol{y}$ とし,確率を式 (1)でモデル化する。 $ P(\boldsymbol{y} \mid \boldsymbol{x})=\frac{\exp \left(\boldsymbol{w}^{\top} \boldsymbol{\phi}(\boldsymbol{x}, \boldsymbol{y})\right)}{\sum_{\boldsymbol{y}} \exp \left(\boldsymbol{w}^{\top} \boldsymbol{\phi}(\boldsymbol{x}, \boldsymbol{y})\right)} $ ここで,$w$ は重みべクトルであり,$\phi(x, y)$ はラティス上の各パスに対応した素性ベクトルである.素性ベクトルを,各ノードに与えられる 1-gram 素性べクトル $\left(\phi_{1}\right)$ と,各エッジに与えられる 2-gram 素性ベクトル $\left(\phi_{2}\right)$ に分ければ,式 (2) のように表すことが可能である. $ \boldsymbol{\phi}(\boldsymbol{x}, \boldsymbol{y})=\sum_{i} \phi_{1}\left(\boldsymbol{x}, y_{i}\right)+\sum_{i, j} \phi_{2}\left(\boldsymbol{x}, y_{i}, y_{j}\right) $ ここで, $y_{i}, y_{j}$ は隣り合う 2 つのノードを表す. 1-gram 素性は辞書中の各エントリ $e_{i}$ に付随した情報のみ利用しており,文脈に依存する情報を利用しない. すなわち, $\boldsymbol{\phi}_{1}\left(\boldsymbol{x}, y_{i}\right):=\boldsymbol{\phi}_{1}\left(e_{i}\right)$.このため,各エントリ $e_{i}$ の 1-gram 素性のスコア $\boldsymbol{w}^{\top} \boldsymbol{\phi}_{1}\left(e_{i}\right)$ はエントリごとに事前に計算しておけば良い。一方, 2-gram 素性には隣り合う 2 つのエントリの情報を用いる. すなわち, $\boldsymbol{\phi}_{2}\left(\boldsymbol{x}, y_{i}, y_{j}\right):=\boldsymbol{\phi}_{2}\left(e_{i}, e_{j}\right)$. 単純に辞書内のすべてのエントリの組 $\left(e_{i}, e_{j}\right)$ に対して $\boldsymbol{w}^{\top} \boldsymbol{\phi}_{2}\left(e_{i}, e_{j}\right)$ を事前計算することは,モデルを肥大化させて現実的でないため,実際には各エントリを 素性情報に基づいてグループ化し, グループのインデックスを用いて 2-gram 素性のスコアを参照する。 ## 2.2 素性テンプレート 素性ベクトルの生成には複数の素性テンプレー ト関数が利用される。これは, 辞書のエントリを引数とした関数であり,主に人手で設計される.素性テンプレート関数は 1-gram 素性と 2-gram 素性の両方に対して定義されるが,ここでは 2-gram 素性のみ着目する, $K$ 個の素性テンプレートを用いると, 2-gram 素性のスコアは式 (3)で表される. $ \boldsymbol{w}^{\top} \boldsymbol{\phi}_{2}\left(e_{i}, e_{j}\right)=\sum_{k=1}^{K} \boldsymbol{w}^{\top} \boldsymbol{t}_{k}\left(e_{i}, e_{j}\right) $ ここで, $\boldsymbol{t}_{k}$ は $k$ 番目の 2-gram 素性テンプレート関数である. 次に, 式 (4)のように, 左右のエントリ $e_{i}, e_{j}$ から事前に素性テンプレートに対応した情報を取り出し,その組み合わせによって素性べクトルを生成することを考える。 $ \boldsymbol{t}_{k}\left(e_{i}, e_{j}\right)=\boldsymbol{f}\left(l_{k}\left(e_{i}\right), r_{k}\left(e_{j}\right)\right) $ ここで, $l_{k}, r_{k}$ は,それぞれ左右のエントリから $k$ 番目の素性テンプレートに対応した素性 IDを取得する関数, $f$ は, 左右の素性 ID の組に応じて素性べクトルを返す関数である。 次に,各エントリから全ての素性テンプレートに対応した素性 ID を配列形式で取得する関数 $\boldsymbol{l}, \boldsymbol{r}$ を式 (5), (6)のように定義する. $ \begin{aligned} \boldsymbol{l}\left(e_{i}\right) & :=\left(l_{1}\left(e_{i}\right), l_{2}\left(e_{i}\right), \ldots, l_{K}\left(e_{i}\right)\right) \\ \boldsymbol{r}\left(e_{j}\right) & :=\left(r_{1}\left(e_{j}\right), r_{2}\left(e_{j}\right), \ldots, r_{K}\left(e_{j}\right)\right) \end{aligned} $ さらに,左右の素性 ID の組 $(l, r)$ に対応したスコア $m$ を式 (7)のように事前に計算する. $ m(l, r):=\boldsymbol{w}^{\top} \boldsymbol{f}(l, r) $ これらを用い,各エントリの組に対応した 2-gram 素性のスコアを式 (8) で計算する. $ \boldsymbol{w}^{\top} \boldsymbol{\phi}_{2}\left(e_{i}, e_{j}\right)=\sum_{k=1}^{K} m\left(l_{k}\left(e_{i}\right), r_{k}\left(e_{j}\right)\right) $ ## 3 2-gram スコアの部分的事前計算 ## 3.1 連接表の大きさ $\mathrm{MeCab}$ では, 全ての $\boldsymbol{l}\left(e_{i}\right), \boldsymbol{r}\left(e_{j}\right)$ の組に対してスコアを事前に計算しておき,それらを連接表に格納する。重みの学習時に L1 正則化を行えばスパース なモデルが学習されるため, $\boldsymbol{l}\left(e_{i}\right), \boldsymbol{r}\left(e_{j}\right)$ は辞書中の複数のエントリで共通したものとなり,連接表のサイズをある程度抑えることが可能である.例えば現代書き言葉 UniDic では,辞書に登録されている語彙数は 1,879,222 語であるが,連接表のサイズは $15,626 \times 15,388$ であり,複数のエントリで共通した素性情報が参照されていることが確認できる。それでもなお, UniDic は素性テンプレートが詳細に設計されていることもあり,1 節でも述べたようにモデルが大きく可搬性が低い. ## 3.2 部分的事前計算 この問題への解決策として,全ての 2-gram スコアを事前に計算しておくのではなく,連接表肥大化の原因となる素性テンプレートの集合 $S$ を予め定め,事前計算と解析時の計算に分割する. 具体的には式 (9) でスコアを計算する。 $ \begin{aligned} \boldsymbol{w}^{\top} \boldsymbol{\phi}_{2}\left(e_{i}, e_{j}\right) & =\sum_{k \notin S} m\left(l_{k}\left(e_{i}\right), r_{k}\left(e_{j}\right)\right) \\ & +\sum_{k \in S} m\left(l_{k}\left(e_{i}\right), r_{k}\left(e_{j}\right)\right) \end{aligned} $ ここで,第 1 項は事前に計算する項,第 2 項は解析時に計算する項である. $S$ が大きいほど解析時に必要な計算が多くなるため,モデルサイズを効果的に軽量化できる小さい $S$ を定める必要がある. 本研究では $S$ の選び方として以下の手法を比較する。 Various 生成される素性の種類が多い素性テンプレートを優先的に選択する。これは,品詞など種類数の少ない情報よりも,読みなど種類数の多い情報を含むほうがモデルが複雑化して連接表が大きくなりやすいのではないかという仮説に基づく. Greedy 連接表のサイズに大きく影響を与える素性テンプレートを 1 つずつ調べ,貪欲的に選択していく. Greedy-2 Greedyでは,相関の強い素性テンプレー 卜など,同時に選択しなければ連接表が軽量化しない素性テンプレートが選択されない。そこで,2つの素性テンプレートを同時に選択した際の連接表のサイズ変化も考慮する。 ## 4 ダブル配列を用いたスコア辞書 2-gram スコアを解析時に計算すると,解析速度が低下すると考えられる.そこで,式 (9) の計算を効 率的に行うために, 関数 $m$ の引数から值へのマッピングにダブル配列 [6] を用いることを提案する。 ダブル配列はトライ [7] の効率的な実装であり, 2 つの配列 BASE と CHECK,及び值配列 VALUE によって構成される key-value マップである. 整数値 $k_{1}, k_{2}, t$ について式 (10) が満たされるとき,キー $\left(k_{1}, k_{2}\right)$ の值が VALUE $[t]$ であると見なす. $ \operatorname{BASE}\left[k_{1}\right] \oplus k_{2}=t \wedge \operatorname{CHECK}[t]=k_{1} $ ここで演算子 $\oplus$ は排他的論理和を表す1),ダブル配列を用いると,スコア計算は Algorithm 1 のとおりとなる. ダブル配列は,1) 配列の要素の取得,2) 排他的論理和の計算,3) 比較,という単純な処理によって構成されるため,Algorithm 1 内のループ処理は SIMD 命令 ${ }^{2}$ によって容易に並列化可能である. ## 5 実験 ## 5.1 実験設定 モデル学習のためのデータセットとして,現代日本語書き言葉均衡コーパス (BCCWJ [8], Ver. 1.1) のうち,人手で短単位アノテーションされたコアデータ $60 \mathrm{k}$ 文を利用した. 辞書には現代書き言葉 UniDic [5] (Ver. 3.1.0)を利用し,各パラメータを再学習した。  図 1 2-gram スコアの事前計算から除外する素性テンプレートの数と連接表の要素数の関係 ベースラインとして CRF に基づく形態素解析器である Vibrato ${ }^{3}$ を利用し,提案法は Vibrato を修正する形で実装した. CRF の学習には rucrf $^{4)}$ を用い, OWL-QN 法 [9] による L1 正則化 [10] を行った. 計算を効率的に行うため,重み,及び統合後のスコアはすべて量子化した.スコアの事前計算では量子化前の值が用いられるが,解析時の計算では量子化後の值が用いられるため,手法によって算出されるスコアが僅かに異なる。しかし,その差は解析結果に大きな影響を与えるものではない. 実装にはプログラミング言語 Rust を用いた。コンパイラは rustc 1.65,コンパイルオプションは-C opt-level=3とした. 解析速度の測定には,BCCWJ のコアデータ以外からランダムに抽出した $100 \mathrm{k}$ 文を利用し,100 回解析した平均值を用いた.測定の際は,分割対象の文を先に RAM に読み込み,IO 処理にかかる時間は除外した。 実験は以下のスペックのマシンを用いてシングルスレッドで実施した。 - CPU: Intel Core i9-12900K CPU @ 3.2GHz - Memory: 64GiB RAM (L1: 640KiB, L2: 14MiB) ## 5.2 スコアの部分的事前計算の効果 ## 5.2.1 連接表のサイズの変化 解析時に統合する素性テンプレートのインデックス集合 $S$ のサイズを変化させた際の連接表の要素数の変化を図 1 に示す. 図を見ると,Greedy または Greedy-2 によって優先的に選択される素性テンプレートのうち,最初の 3) https://github.com/daac-tools/vibrato 4) https://github.com/daac-tools/rucrf 表 1 2-gram モデルサイズ [MiB] と解析時間 [s] の関係 5つの素性テンプレートをスコアの事前計算の対象から除外するだけで,連接表のサイズが $10 \%$ 程度まで軽量化することが確認された。一方で,Variousによって優先的に選択される素性テンプレートを除外しても,連接表の軽量化効果が殆どないことが確認された. この結果から, Greedy または Greedy-2 によって貪欲的に選択される素性テンプレートを除外することが,連接表の軽量化に有効であることが分かる. Greedy-2 については,初期の軽量化効果は Greedy と比較して大きいものの,すぐに Greedy と大差が無くなることが確認された。これは,2つの素性テンプレートのみが相関しているケースが少なかったためと考えられる。他の素性テンプレートを除外した場合の影響を考慮する場合,計算量は考慮する素性テンプレートの数 $n$ に対して指数関数的に増大するため,$n$ を増やすことは現実的ではない.このため,以降は単純に大きな軽量化効果を得られる Greedy を採用した。 ## 5.2.2 モデルサイズと解析時間の比較 2-gram スコアの事前計算から除外する素性テンプレートの数を変化させた際の,2-gram モデルサイズと解析時間への影響を調査するため,以下の 3 つの状況について測定した。ここにおける 2-gram モデルサイズとは,連接表のサイズと 2-gram スコアを格納したダブル配列のサイズの総和である. Matrix 全ての 2-gram スコアを事前に計算して連接表に格納する。(ベースライン) Dual Greedyによって優先的に選択される 8 個の素性テンプレートについて連接表から除外し,解析時に計算を行う. Raw 全ての 2-gramスコアを解析時に計算し,連接表は利用しない。 $(S=\{1,2, \ldots, K\})$ これらの結果を表 1 に示す. Dualでは,Matrix に比べて 2-gram モデルサイズが 12\%以下になっていることを確認できる.スコアの事前計算から除外する素性テンプレートを増やすと,必然的にダブル配列のサイズは大きくなるが,その増加量は連接表の表 2 SIMDによる解析時間 [s] の変化 軽量化した分に比べれば十分に小さく,モデル全体の軽量化に効果的であることが分かる。一方で, Dual の解析時間は Matrix の 2.4 倍に増加しており,解析時に 2-gram スコアを計算することで解析が遅くなることが伺える。 ここからモデルサイズと速度はトレードオフの関係であり,インデックス集合 $S$ のサイズは,許容されるモデルサイズと解析速度によって調整する必要があることが分かる. Raw は Dual と比較して傾向が顕著であり,2-gram モデルサイズは Matrix の $0.5 \%$ である一方,解析時間は Matrix の 23 倍であった. ## 5.3 スコア計算に SIMD を利用する効果 ここでは,解析時の 2-gram スコアの計算を SIMD 並列化することの効果を調査する.5.2.2 節の Dual および Raw の設定について,Algorithm 1 の処理を 8 並列化 ${ }^{5)}$ した場合の解析時間の変化を表 2 に示す. この結果から,ダブル配列を用いたスコア計算が SIMD 命令によって実際に高速化されたことを確認できる。ただし,全ての 2-gram スコアを事前計算して参照する Matrix と比較すると,Dual は SIMD 命令を用いても 2 倍以上遅いことが確認できる。 ## 6 まとめ 本稿では,CRF に基づく形態素解析器において, 2-gram スコアの計算を事前計算と解析時の計算に分割することで,モデルサイズを軽量化する手法を提案した. また,解析時の計算を SIMD 命令で高速化できることを示した。提案法は,パラメータに手を加えるなど,解析精度に影響を与えることは行わない。このため,解析精度を維持したまま,組み込み機器や Web フロントエンドなど,資源が限られた環境でも利用可能なモデルを配布することが可能となる。 今回の実験では,事前計算から除外する素性テンプレートを選択する際に,そのテンプレートの内容までは考慮しなかったが,言語学的な知見を取り入れることによる効果についても検討の余地がある。 5) AVX2 で 32-bit 演算を並列化できる最大の個数が 8 である. ## 参考文献 [1] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to Japanese morphological analysis. In Proceedings of the $\mathbf{2 0 0 4}$ Conference on Empirical Methods in Natural Language Processing, pp. 230-237, Barcelona, Spain, July 2004. Association for Computational Linguistics. [2] Graham Neubig, Yosuke Nakata, and Shinsuke Mori. Pointwise prediction for robust, adaptable Japanese morphological analysis. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 529533, Portland, Oregon, USA, June 2011. Association for Computational Linguistics. [3] John D. Lafferty, Andrew McCallum, and Fernando C. N. Pereira. Conditional random fields: Probabilistic models for segmenting and labeling sequence data. In Proceedings of the Eighteenth International Conference on Machine Learning, ICML '01, p. 282-289, San Francisco, CA, USA, 2001. Morgan Kaufmann Publishers Inc. [4] Masayuki Asahara and Yuji Matsumoto. ipadic version 2.7.0 User's Manual. https://ja.osdn. net/projects/ ipadic/docs/ipadic-2.7.0-manual-en.pdf, 2003. [5] 岡照晃. CRF 素性テンプレートの見直しによるモデルサイズを軽量化した解析用 UniDic — unidiccwj-2.2.0 と unidic-csj-2.2.0 一. 言語資源活用ワークショップ 2017 発表予稿集, 143-152. [6] Jun'ichi Aoe. An efficient digital search algorithm by using a double-array structure. IEEE Transactions on Software Engineering, Vol. 15, No. 9, pp. 1066-1077, 1989. [7] Edward Fredkin. Trie memory. Commun. ACM, Vol. 3, No. 9, p. 490-499, sep 1960. [8] 前川喜久雄. 代表性を有する大規模日本語書き言葉コーパスの構築 (〈特集〉日本語コーパス). 人工知能, Vol. 24, No. 5, pp. 616-622, 2009. [9] Galen Andrew and Jianfeng Gao. Scalable training of 11regularized log-linear models. In Proceedings of the 24th International Conference on Machine Learning, ICML '07, p. 33-40, New York, NY, USA, 2007. Association for Computing Machinery. [10] Robert Tibshirani. Regression shrinkage and selection via the lasso. Journal of the Royal Statistical Society: Series B (Methodological), Vol. 58, No. 1, pp. 267-288, 1996.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C2-2.pdf
# 事前学習モデルに基づく日本語形態素解析器における 辞書の利用 田村稔行 河原大輔 早稲田大学理工学術院 tam.fse3982@ruri.waseda.jp dkw@waseda.jp ## 概要 事前学習モデルに基づく日本語形態素解析器では, 従来の形態素解析器で用いられていた辞書を用いないことが一般的である. しかし, 単語の区切りや品詞が登録された辞書は形態素解析において重要な知識源となる. 本論文では, 事前学習モデルに基づく日本語形態素解析器の入力として, 辞書引きによる単語区切り位置の情報を与える手法を提案する. 提案手法は, 複数のコーパスにおいて, 辞書を用いない手法と比較して高い精度を示すことを確認した。 ## 1 はじめに 日本語の文においては単語の間に区切りが明示されない. 計算機で日本語を解析する場合, まず単語の区切りを認識する必要がある. 日本語の形態素解析においては,品詞や活用の付与と同時に単語への分かち書きを行う。 従来の形態素解析器である JUMAN ${ }^{1)}$, MeCab [1], Juman++ [2] などは辞書に登録されている単語の情報に基づき, 最も尤度の高い単語列を採用することによって分かち書きを行う。一方で, 近年の KWJA [3] などの事前学習モデルベースの形態素解析においては, 事前学習モデルが日本語解析に関する有用なパラメータを獲得していることから, 辞書を分かち書きに用いていない. しかし, 単語の区切りや品詞が定義されている辞書の情報は分かち書きや品詞付与において重要な知識源となる. 本研究では, 事前学習モデルを用いた形態素解析において辞書の情報を利用する手法を提案する. 具体的には, モデルへ入力文に加えて辞書から得た単語の分割位置の情報を与える. 提案手法の有効性を検証するため, 3 種類のコーパスと 2 種類の辞書において分かち書きと品詞・活用付与の実験を行う. 1) https://nlp.ist.i.kyoto-u.ac.jp/?JUMAN ## 2 関連研究 辞書を使用する形態素解析の手法として,ラティスを用いるものと点予測のものがある. ラティスは辞書に存在する単語と, 辞書に存在しない単語 (未知語)を処理する規則に基づいて生成される. 生成されたラティスから最も尤度の高いパスを決定し,これが単語の分割となる. ラティスの作成は辞書に基づいて行い, 機械学習により調整された重みを用いてスコア算出し, そのスコアによりパスを決定することが一般的である. JUMANでは人手で, MeCab では CRF [4] で重みを調整している. Juman++も同様に辞書に基づいたラティスを生成するが, 線形モデルと RNN の組み合わせによりスコアを算出する。 点予測は, 周囲の判定情報を用いずに各文字や単語について分かち書きや品詞推定などを個別に行う手法である. KyTea [5] は点予測の形態素解析器である. 文字 n-gram や文字種 n-gram, 単語辞書に基づく特徴量を用いて分かち書きと読み・品詞推定を行う. 事前学習を用いた形態素解析器として, 事前学習モデル RoBERTa [6] を用いた日本語統合解析器 KWJA がある. KWJA はパイプライン処理によって形態素解析を行う。まず文字モデルにて誤り文字を訂正し, 次の文字モデルにて分かち書きと単語正規化を行う. そして単語 (サブワード) モデルにより形態素解析を実行する. KWJA の形態素解析においては, 単語分割が決まった後に, 各単語の先頭トークンの隠れ状態から品詞と活用を予測し,辞書に基づく意味情報を付与する. 辞書は分かち書きおよび品詞・活用付与には用いない. また, Tolmachev ら [7] は, 双方向 LSTM [8] と Transformer [9] のそれぞれを用いた, 辞書を用いない形態素解析器を提案した.この解析器は事前学習を用いないが, 大量の自動解析コーパスを学習に用いる. モデルは入力文中の各文字について, 分かち書き, 品詞・活用付与をマルチタ スクで行う. 本研究ではこの出力の構造を用いる. 事前学習モデルに辞書などの知識を統合している研究を紹介する. Sun ら [10] は, 事前学習モデルは大量の生コーパスを用いて学習を行っているものの, そのような生コーパスは言語知識や一般常識に関する明示的な知識に欠けていると指摘している. モデルに知識を与えるため, 多層の Transformer-XL [11] からなるモデルに知識グラフを埋め込み, 単語や知識に関するタスクによる事前学習を提案している。 他の研究例として, BERT [12] の構造を流用したモデルが存在する. 事前学習の際に Masked Language Modeling や Next Sentence Prediction と並行して語彙的な関係を分類するタスクを行うモデル [13] や知識に関するタスクを行うモデル [14]がある. また, ファインチューニングにおいて追加の層を用いて知識グラフの情報を統合するモデル [15] などが存在する. 本研究では, 既存の事前学習モデルに辞書情報を統合することでの精度向上を目的とするため,ファインチューニングを対象とする. また, 形態素解析というタスクに着目し, 辞書の情報を, 単語の区切り位置の情報としてモデルに与える。 ## 3 事前学習モデルに基づく形態素解析における辞書の利用 本研究では, 文字単位のタスクである分かち書きを行うことから, 日本語コーパスで事前学習された文字ベースのモデルを用い, 分かち書きと品詞・活用付与タスクでファインチューニングする. モデルの入力としては, 入力文の各文字の埋め込みに加え, 辞書から得た単語の区切り位置の情報を与える. 具体的には, 文の各文字について, その文字を単語の先頭, 中間, 末尾とする単語が辞書に収録されていればそれぞれ B, I, E のフラグを立てる. B は単語の先頭の文字, $\mathrm{E}$ は単語の末尾の文字, $\mathrm{I}$ は 3 文字以上の単語の中間の文字を示す. 例えば, 図 1 において,「じかん」という単語が辞書に存在するとする.この場合, 入力文中の「じ」に B, 「か」に $\mathrm{I}$,「ん」に Eのフラグを立てる. 入力文中の一つの文字が、辞書中のある単語において B となることもあれば、他の単語において I やEとなることがある. 例えば図中の「む」には $\mathrm{B}, \mathrm{E}$ の 2 種類のフラグが立っている.このため, 各文字に対して B, I, E の 3 種類の 2 値フラグを与える. 以下,これを辞書フラグと呼ぶ。 モデルは辞書フラグのそれぞれを埋め込みとして学習し, 各文字の埋め込みと足し合わせる。 図 1 提案手法. 入力文に対して事前に辞書引きをして辞書フラグを形成し, 事前学習モデルに入力する. 線形結合層が各タスクについて出力する。 モデルの出力としては, 事前学習モデルが出力する隠れ状態を各タスク向けの線形結合層に入力し,入力文の各文字について分類を行う. 分かち書き (Seg) については BMES の体系を用いて分類する.S は 1 文字からなる単語, $\mathrm{B}$ は単語の先頭の文字, $\mathrm{E}$ は単語の末尾の文字, $\mathrm{M}$ は 3 文字以上の単語の中間の文字を示す. 品詞・活用付与については, 品詞 (P1),品詞細分類 (P2), 活用型 (CT), 活用形 (CF) をUMAN 体系にもとづいて分類する。 ## 4 実験 辞書情報を与えた事前学習モデルベースの形態素解析器の有効性を検証するため, 複数のコーパスを評価対象として形態素解析を行い, 精度を算出する。 ## 4.1 実験設定 ## 4.1.1 モデルと辞書 ファインチューニングする事前学習モデルとして, 文字単位の RoBERTa-BASE ${ }^{2}$ および RoBERTa$\left.\mathrm{LARGE}^{3}\right)$ を用いる. 学習は異なる 3 つの seed 值を設定して行い, 平均値を算出する. 実験を行う際のハイパーパラメータを付録 Aにて示す. 2) https://huggingface.co/ku-nlp/roberta-base-japanese-char-wwm 3) https://huggingface.co/ku-nlp/roberta-large-japanese-char-wwm 辞書については, JUMAN 辞書4) と森羅5)を用い, Trie による辞書引きのライブラリである dartsclone ${ }^{6)}$ を使用して辞書引きを行い, 学習・評価デー タに辞書フラグを与える. 森羅は Wikipedia のタイトルとその拡張固有表現 (ENE) における分類情報を持つ辞書である. 辞書引きは, 文の最初の文字を開始位置とし, その文字から $\mathrm{n}(=2,3, \ldots)$ 文字の各範囲について辞書引きした結果を集計する.この際, $\mathrm{n}$ は辞書引きの範囲が文末の文字に達する場合が最大値である.この作業を開始位置が文末になるまで繰り返す。 この際, 1 文字からなる単語は有効な情報ではないと判断し, 2 文字以上からなる単語の区切り位置についてのみから辞書フラグを形成する. JUMAN 辞書については, 辞書引きの結果を品詞などで区別せずに B, I, E の 3 種類の埋め込みを与える. 森羅については, ENE [16] (Version: 7)の「1. 名前」中の 12 種類の大分類それぞれについて B, I, E の埋め込みを与える.つまり, 合計 36 種類の埋め込みをモデルに入力する. 実験において, 辞書を与えないモデル (辞書なしと表記), JUMAN 辞書を与えるモデル (JUMAN と表記), 森羅を与えるモデル (ENE と表記), JUMAN 辞書と森羅を与えるモデル (JUMAN+ENE と表記) の 4 つの条件を比較する. なお, JUMAN+ENE においては, JUMAN 辞書の B, I, E のフラグ 3 個と森羅のカテゴリごとの $\mathrm{B}, \mathrm{I}, \mathrm{E}$ フラグ 36 個を合わせた 39 個の埋め込みをモデルに入力する。 ## 4.1.2 学習・評価データセット ファインチューニングには, 人手のデータセットと自動解析のデータセットの 2 種類を用いる. 人手でアノテーションされたデータセットとして京都大学テキストコーパス [17] (以下 KC) と京都大学ウェブ文書リードコーパス [18] (以下 KWDLC)を用いる.自動解析したデータセットとして, CC-100 [19,20] の日本語テキストから全角スペースとURLを含む文を除いて Juman++で自動解析したものを用いる. 評価用データセットとして, KC と KWDLC, そして不満調査データセットタグ付きコーパス7) (以下 FKC) を用いる.なお, KC および KWDLC は GitHub 上の標準スプリットを用いて学習用と評価用に分割する。各データセットに収録されている文数を表 1 に示す. 4) https://github.com/ku-nlp/JumanDIC 5) http://shinra-project.info/ 6) https://github.com/s-yata/darts-clone 7) https://github.com/ku-nlp/AnnotatedFKCCorpus KC と KWDLC を学習に用いたモデル $(\mathrm{KC}+\mathrm{KW}$ と表記) と, KC と KWDLC と C-100を学習に用いたモデル $(\mathrm{KC}+\mathrm{KW}+\mathrm{CC} 100$ と表記) の両方で実験を行う. ## 4.1.3 評価 分かち書き及び品詞・活用付与の精度を評価する。分かち書きについては, 各単語の開始位置と終了位置の組が合致しているかにもとづいて F1を算出する. 品詞 - 活用付与については, 品詞, 品詞細分類, 活用型, 活用形を評価し $\mathrm{F} 1$ を算出する.この際, 単語の開始位置である文字について分かち書きと各タスクを両方正解した場合のみ正解したとして精度を算出する.つまり, 品詞・活用付与の各精度は, 分かち書きと各タスク両方を正解した精度 (F1)である. また, JUMAN 辞書を用いた形態素解析器として Juman++ (Version: 2.0.0-rc3) を, 事前学習モデルを用いた形態素解析器として KWJA (Version: 1.1.0) についても比較対象とする. なお, 公開版の Juman++は評価用データセットも学習に用いているため参考として掲載する. KWJA についても, 本実験で評価のみに用いている FKC の一部を学習に用いている. さらに, KWJA については形態素解析の前段階で入力誤り訂正を行うため, 入力文と出力文の文字数が異なる場合がある. 本実験の評価では, 文中で文字数が増減した箇所があると, その文の残りの部分について評価を正しく行うことができない. そのため, KWJA の評価についてはこの問題に対する処理を行わない場合の精度と, 入力誤り訂正により文字数が変化した文を取り除いた場合の 2 つの精度を掲載する。 ## 4.2 結果と考察 $\mathrm{KC}+\mathrm{KW}$ より $\mathrm{KC}+\mathrm{KW}+\mathrm{CC} 100$ を学習に用いた場合に全体的に良い結果が得られたため, $\mathrm{KW}+\mathrm{KW}+\mathrm{CC} 100$ のみの結果を表 2 に示す. $\mathrm{KC}+\mathrm{KW}$ を学習に用いた結果は付録 Bに示す. Seg, P1, P2, CT, $\mathrm{CF}$ はそれぞれ分かち書き, 品詞, 品詞細分類, 活用型,活用形を指す. 以下では, 各辞書の情報を与えたモデルについて,他のモデルとの比較を考察する. 表 $2 \mathrm{KC}+\mathrm{KW}+\mathrm{CC} 100$ を用いた学習による分かち書きと品詞・活用付与の精度 (F1). KWJA の FKC での精度と Juman++の精度以外について, 表中で最も高い精度を示したモデルの値を太字で示した. なお, 最高値と 2 番目に高い値の差が 0.01 以内の場合は 2 番目に高い値も太字で示した. 表 3 分かち書きの改善例. “p”は形態素の区切りを示す. モデルはいずれもLARGE. & \\ JUMAN 辞書による影響 JUMAN辞書を与えたモデルを, 辞書を用いないモデルと比較すると, すべてのデータセット・タスクにおいて提案手法の精度が上回った. このことから, 辞書による単語の区切り位置情報が, 分かち書きのみならず品詞・活用付与の精度向上にも貢献しているといえる. 提案手法では JUMAN 辞書を品詞の区別なく与えたが, 品詞ごとに辞書フラグを与えることで, 品詞・活用付与の各タスクにおいてさらに精度が向上する可能性がある. 各評価用データセットの分かち書きについて,辞書情報を与えないモデルでは間違えていたが JUMAN 辞書を与えたモデルで正解した文の例を表 3 に示す. 各例は, 区切り位置により文意が異なる表現について, 提案手法が正解した例である. 1 例目は KC, 2 例目は KWDLC, 3 例目は FKC の文である. 1 例目では「ヒゲもじゃ」, 2 例目では「わさび」, 3 例目では「むだ」が辞書引きされ改善した. 森羅の影響森羅を与えたモデルは辞書なしのモデルと近いか若干低い精度を示し, JUMAN 辞書と森羅を与えたモデルは JUMAN 辞書を与えたモデルと近いか若干低い精度を示した. 森羅のエントリの区切りが評価用データセットの JUMAN 体系と異なる ため, 精度の向上に寄与しなかったと考えられる. 一方で, 森羅に収録されている長い複合名詞の始まり・終わりは分かち書きの精度向上に寄与する可能性があるため, 辞書をフィルタリングすることで精度が向上する可能性がある. また, 森羅による ENE の分類など, 詳細な分類や分野に特化した追加情報を形態素解析器が出力できれば下流タスクにとって有益であると思われる。 既存の形態素解析器との比較 Juman++と比較すると, 提案手法は $\mathrm{KC}$ の品詞分類と品詞細分類, そして FKC の分かち書きにおいて同等か上回る精度を示した. 一方で, KWDLC においては Juman++がすべての指標について提案手法の精度を上回った. ただし, 本実験で用いた Juman++は公開版であり, 評価用に用いたテストデータを学習している. KWJA と比較すると, KWDLC の P1, P2, FKC の Seg, P1, P2 において KWJA の精度が上回り, その他では提案手法の精度が上回った. ただし, KWJA は構文解析などの他のタスクとマルチタスク学習を行っており, 形態素解析に最適化されていないため, 若干精度が低い. また, KWJA は本実験で評価に用いた FKC の一部を学習に用いている。 ## 5 おわりに 本研究では, 日本語の事前学習モデルに入力文に加えて辞書の情報を与えて形態素解析を行い精度を評価した. 結果として, 辞書情報を与えることで分かち書きだけでなく品詞・活用付与の精度も向上することを確認した. 今後は, どのような辞書であれば形態素解析の精度向上につながるのかを明らかにしたい. ## 謝辞 本研究は JSPS 科研費 JP21H04901 の助成を受けて実施した。 ## 参考文献 [1] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to japanese morphological analysis. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, 2004. [2] Daisuke Kawahara Hajime Morita and Sadao Kurohashi. Morphological analysis for unsegmented languages using recurrent neural network language model. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, p. 2292-2297, 2015. [3] 植田暢大, 大村和正, 肾玉貴志, 清丸寛一, 村脇有吾, 河原大輔, 黒橋禎夫. Kwja:汎用言語モデルに基づく日本語解析器. 第 253 回自然言語処理研究会, 京都, 2022. [4] Andrew McCallum John Lafferty and Fernando Pereira. Conditional random fields: Probabilistic models for segmenting and labeling sequence data. In Proceedings of the Eighteenth International Conference on Machine Learning, Vol. 30, pp. 282289, 2001 . [5] Graham Neubig, Yosuke Nakata, and Shinsuke Mori. Pointwise prediction for robust, adaptable Japanese morphological analysis. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 529-533, Portland, Oregon, USA, June 2011. Association for Computational Linguistics. [6] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv, 2019. abs/1907.11692. [7] Arseny Tolmachev, Daisuke Kawahara, and Sadao Kurohashi. Shrinking Japanese morphological analyzers with neural networks and semi-supervised learning. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 2744-2755, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [8] Sepp Hochreiter and Jürgen Schmidhuber. Long short-term memory. Neural Computation, Vol. 9, No. 8, pp. 1735-1780, 1997. [9] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [10] Yu Sun, Shuohuan Wang, Shikun Feng, Siyu Ding, Chao Pang, Junyuan Shang, Jiaxiang Liu, Xuyi Chen, Yanbin Zhao, Yuxiang $\mathrm{Lu}$, et al. Ernie 3.0: Large-scale knowledge enhanced pretraining for language understanding and generation. arXiv, 2021. abs/2107.02137. [11] Zihang Dai, Zhilin Yang, Yiming Yang, Jaime Carbonell, Quoc Le, and Ruslan Salakhutdinov. Transformer-XL: Attentive language models beyond a fixed-length context. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 2978-2988, Florence, Italy, July 2019. Association for Computational Linguistics. [12] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Associa- tion for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [13] Anne Lauscher, Ivan Vulić, Edoardo Maria Ponti, Anna Korhonen, and Goran Glavaš. Specializing unsupervised pretraining models for word-level semantic similarity. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 1371-1383, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics. [14] Yoav Levine, Barak Lenz, Or Dagan, Ori Ram, Dan Padnos, Or Sharir, Shai Shalev-Shwartz, Amnon Shashua, and Yoav Shoham. SenseBERT: Driving some sense into BERT. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4656-4667, Online, July 2020. Association for Computational Linguistics. [15] Zhe Zhao Zhiruo Wang Qi Ju Haotang Deng Ping Wang Weijie Liu, Peng Zhou. K-BERT: Enabling language representation with knowledge graph. In Proceedings of AAAI 2020, 2020. [16] Satoshi Sekine. Extended named entity ontology with attribute information. LREC, 2008 [17] Sadao Kurohashi and Makoto Nagao. Building a japanese parsed corpus. In Treebanks: Building and Using Parsed Corpora, Text, Speech and Language Technology, p. 249-260. Springer Netherlands, Dordrecht, 2003. [18] Masatsugu Hangyo, Daisuke Kawahara, and Sadao Kurohashi. Building a diverse document leads corpus annotated with semantic relations. In Proceedings of the 26th Pacific Asia Conference on Language, Information, and Computation, pp. 535-544, 2012. [19] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised cross-lingual representation learning at scale. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8440-8451, Online, July 2020. Association for Computational Linguistics. [20] Guillaume Wenzek, Marie-Anne Lachaux, Alexis Conneau, Vishrav Chaudhary, Francisco Guzmán, Armand Joulin, and Edouard Grave. CCNet: Extracting high quality monolingual datasets from web crawl data. In Proceedings of the Twelfth Language Resources and Evaluation Conference, pp. 40034012, Marseille, France, May 2020. European Language Resources Association. ## A 学習時のハイパーパラメータ 表 4 に, 学習を行った際のハイパーパラメータを掲載する. ## B異なる学習データセットを用いた場合の精度 表 5 に, 本文中に掲載していない $\mathrm{KC}+\mathrm{KW}$ で学習を行った際の精度を掲載する。 表 $5 \mathrm{KC}+\mathrm{KW}$ を用いた分かち書きと品詞・活用付与の精度 (F1). KWJA の FKC での精度と Juman++の精度以外について,表中で最も高い精度を示したモデルの値を太字で示した。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C2-3.pdf
# テキスト生成モデルによる日本語形態素解析 児玉 貴志 ${ }^{1}$ 植田 暢大 ${ }^{1}$ 大村 和正 ${ }^{1}$ 清丸 寛一 ${ }^{1}$ 村脇有吾 ${ }^{1}$ 河原 大輔 ${ }^{2}$ 黒橋禎夫 ${ }^{1}$ 1 京都大学 2 早稲田大学 $\{$ kodama, ueda, omura, ki yomaru, murawaki , kuro\}@nlp. ist.i.kyoto-u.ac.jp dkw@waseda.jp ## 概要 統合的日本語解析器 KWJA 1.0 は形態素解析を汎用言語モデルに基づくトークン分類問題として定式化した. しかし単語の読み,原形等はラベル集合が開放的であり,分類問題としては扱いづらい。本研究ではそうしたタスクをテキスト生成モデルで解く手法を提案する. 提案手法は実装とタスク設計を単純化しつつ,特に読みと代表表記の推定で既存の形態素解析器を上回る精度を示した. 提案手法は $\mathrm{KWJA}^{1)}$ の形態素解析モジュールとして実装する予定である。 ## 1 はじめに BERT [1] 等の汎用言語モデルは言語の基礎的な解析においても威力を発揮している [2,3]. 汎用言語モデルの強力な文脈処理能力を利用すると,単語分割や品詞付与等の日本語形態素解析のサブタスクは単純なトークン分類問題として定式化できる. 単語分割であれば各文字に B,I を,品詞付与であれば各サブワードに品詞ラベルを付与すれば良い.この手法は辞書引きに基づいてラティスを構築する従来手法と比べて単純だが,高い精度を達成している。 しかし,形態素解析のすべてのサブタスクがトー クン分類問題として定式化しやすいわけではない.読み,原形等はラベル集合が開放的だからである。図 1 に示すように,入力サブワード(「京都」)に対応する読みのサブワード(「きょうと」)が存在しなかった場合,複数のサブワード(「きょう」,「と」) で読みを表現する必要があり,入力と出力が一対一対応の分類モデルでは対処できない. 単語の原形や代表表記2)でもこうした問題は存在する. 統合的日 1) https://github.com/ku-nlp/kwja 2)各単語に対して与えられた ID. 同一の語の表記摇れには同一の代表表記が与えられる。代表的な表記とその読みのぺアで「京都/きょうと」のように表記される. 図 1 サブワードによる読み推定の誤り例 本語解析器である KWJA $1.0[3]^{3)}$ ではこうした問題に対して,タスクごとにルールや辞書引き等で個別に対応しており,開発の負担や新語への対応等に課題が残る。 本研究では,トークン分類問題としては扱いづらい形態素解析の一部のサブタスクを,注釈付与コー パスから直接的に学習したテキスト生成モデルで解く手法を提案する. 具体的には,入力文から見出し語 (分かち書きされた単語),読み,原形,代表表記を所定のフォーマットに基づき end-to-end で生成する. エンコーダ・デコーダモデルを用いたテキスト生成は,サブワードの入出力が一対多(もしくは多対一)となっている場合でも対処できる。また,夕スクごとに固有の処理を行う必要がなく,実装を単純化できる。 実験の結果,提案手法は実装とタスク設計の単純化に成功しつつ, 分類モデルを用いた従来の解析器より,特に読みと代表表記を高い精度で推定できることが分かった.ただ,入力文に含まれない文字列が見出し語として解析結果に出てきてしまう例が少数だが確認された。そこで,見出し語を生成する際は入力文に含まれる文字列(サブワード)のみを生成するようにモデルの出力を補正する,見出し語強制デコーディングを提案する。この手法により提案手法のさらなる改善が見られた。 さらに,かな表記入力の曖昧性解消についても検 3) 執筆時点でのバージョンは 1.2.2であり,このバージョンの KWJAを KWJA 1.0 と表記する. 図 2 KWJA の形態素解析モジュールの概要 討する。例えば「こうえん」は文脈によって「公園」 と「講演」のどちらにもなりうる。コーパス中にはこういったかな表記の単語が少ないため,漢字表記の単語を曖昧性のあるかな表記に置き換えることで疑似データを作成し,学習・評価に使用した. 実験の結果, 置き換えた単語について曖昧性解消の精度が大きく向上することを確認した. ## 2 関連研究 日本語形態素解析は辞書引きに基づいてラティスを構築する手法 $[4,5]$ が主流であったが,汎用言語モデルの登場にともない,単語(サブワード)列の各トークンにラベルを付与するトークン分類問題として解く手法が実用的な精度を達成している [3]. 汎用言語モデルに基づく統合的日本語解析器 KWJA [3] は入力誤り訂正から談話関係解析までを統合的に扱うが,このうち形態素解析モジュールの概要を図 2 に示す. 単語列を入力とし,その単語に対する品詞・活用 (品詞, 品詞細分類, 活用型, 活用形の 4 つ),読み,原形,意味情報4)を付与する。品詞・活用の付与はトークン分類問題を解くだけで完結する.ただし,読みは単語ではなくサブワードごとに推定している.この訓練データを作成するために,コーパスに単語単位で付与されている読みをサブワード単位に分割するアラインメント処理を動的計画法を用いて事前に行っている. 原形は活用型,活用形をもとに活用変化表を参照し,正規化見出し語5)からルールで出力している。また,意味情報は読み,原形,品詞,品詞細分類,活用型をキー として,あらかじめ作成しておいた辞書を引いて, マッチした辞書項目の意味情報を出力している. 本研究では,トークン分類問題として定式化すると煩雑な処理が必要となるこうしたサブタスクを,テキスト生成モデルを使用した単純な手法で解く。 トークン分類問題をテキスト生成モデルで解く研 4)人手によって整備された,単語に対する付加情報. 代表表記やカテゴリ, ドメイン等を含む. 5)非標準表記を正規化する処理(「びみょーー」 $\rightarrow$ 「びみょう」)と,連濁により語頭のカナが濁音化した単語を戻す処 \\ 図 3 モデルの入出力フォーマット. EOS は文末を表す特殊記号. 究はこれまでにも存在する。T5 [6] は要約や翻訳のほかに,分類問題も text-to-text で解けるように設計されたテキスト生成モデルである。また,GPT-3 [7] は 1,750 億パラメータを持つ巨大な汎用言語モデルであり,モデルに与えるプロンプトを適切に設計することで分類問題も解くことができる. 本研究では T5 の多言語対応版である $\mathrm{mT5}$ [8] を使用する. テキスト生成モデルに決まった順番やフォー マットを遵守させるのは難しい。しかし,GitHub Copilot $^{6)}$ のようなコーディング規約に則ってコードを生成できるシステムの台頭を踏まえると,言語解析への利用も現実的な水準に達しているといえる. ## 3 提案手法 本節ではまず,テキスト生成モデルで形態素解析を行う手法とモデルの入出力フォーマットについて説明する (3.1 節)。そして提案手法の追加要素である,見出し語強制デコーディング(3.2 節)と疑似データによる曖昧性解消(3.3 節)について説明する。 ## 3.1 テキスト生成モデルによる形態素解析 提案手法では,解析対象の文をテキスト生成モデルに入力し, 所定のフォーマットに基づき形態素解析の結果を生成して出力する. モデルの入出力フォーマットを図 3 に示す. 入力文の先頭に「解析:」をつけてからモデルへと入力する. 出力フォー マットは Juman++ [5] ${ }^{7}$ の出力を参考に設計した.各行は見出し語を先頭に読み,原形,代表表記の順に並んでおり,単語ごとに改行することで分かち書きを表現している8). 6) https://github.com/features/copilot 7) https://github.com/ku-nlp/jumanpp/ 8)分かち書きを生成モデルで行う必要性は大きくないが,分かち書きを行うモジュールを別途使用する際の計算コストを考慮し, 本研究では分かち書きも生成モデルで行う。 見出し語は分かち書きされた単語で,読みはその見出し語の読みを平仮名で記したものである. 原形は見出し語が活用変化していない場合の形である.代表表記は表記摇れの問題を形態素解析のレベルで吸収するための単語 ID であり,漢字表記やかな表記といった異なる表記でも同一の語であれば同一の代表表記が与えられる9).意味情報と代表表記は一対一で対応しているため,代表表記を正しく推定することで意味情報を一意に付与できる. トークン分類問題で定式化した場合,これらのサブタスクを解くのには煩雑な処理が必要である.提案手法は入出力のフォーマットを定義するだけで, あとは注釈が付与されたコーパスからデータドリブンで学習することができる. ## 3.2 見出し語強制デコーディング 生成モデルは尤度の高い単語を選んで生成していく. その結果「研究」と入力したにも関わらず,見出し語として「研修」が生成される等,入力文に含まれない文字列を見出し語として生成してしまう場合がある. そこで見出し語(=各行の先頭)を生成する際は,入力文に含まれる文字列(サブワード)のみを生成するようにモデルの単語生成確率を補正する. 具体的に図 3 の例で説明すると,「自然言語処理の」まで解析し終えたら, 入力文のうち未解析の部分文字列(=「研究をしている」)の先頭と一致するサブワード(「研」「研究」)を語彙の中から探す.この一致したサブワード以外のサブワードの生成確率を 0 にすることで,入力文に含まれる文字列を強制的に見出し語として生成できる. ## 3.3 疑似データによる曖昧性解消 「子どもとこうえんに行く」という入力中の,かな表記の「こうえん」が「公園」か「講演」かは曖昧性がある。しかしこの「こうえん」の代表表記を 「公園にうえん」と特定することができれば曖昧性を解消でき,意味情報を一意に付与できる.複数サブワードからなる代表表記を分類モデルで推論するのは難しいため, KWJA 1.0 では曖昧性解消は行わず,該当する候補を全て列挙して出力している(上記の例では「公園にうえん」と「講演にうえん」).本研究では 1 つの見出し語に対し, 代表表記を 1 9) https://usermanual.wiki/Document/manual . 643701001 pdf表 1 各コーパスの文数 表 2 疑似データの統計. 各セルの左側が置き換えられた単語を含む文数,右側が置き換えられた単語数である。 つだけ生成することでこの曖昧性解消を行う.しかしコーパスには曖昧性のある,かな表記の単語が少ないため,かな表記の入力(「こうえん」)から代表表記(「公園にうえん」)を上手く生成できない,そこで漢字表記の単語をかな表記に置き換えた疑似データを作成し10), 元データに追加して学習・評価を行う. 本研究では漢字表記の名詞を置き換え対象とし,ランダムに選んで置き換える ${ }^{11)}$. ## 4 実験 ## 4.1 コーパスと評価指標 本研究では京都大学テキストコーパス (KC) [9] ${ }^{12)}$, 京都大学ウェブ文書リードコーパス (KWDLC) [10] ${ }^{13)}$ ,注釈付き不満買取センター コーパス (Fuman) ${ }^{14)}$ の 3 種類のコーパスを用いる. モデルへの入力単位は文とし, 文の分割境界はコー パスの注釈にならう.表1に各コーパスの文数を示す15). 学習は 3 つのコーパスを全て混ぜて行い,評価は各コーパスごとに行う。評価には単語単位の F1 スコア [5]を用いる. ## 4.2 モデル 以下の 2 つのモデルを比較する. Proposed 汎用言語モデルである mT5 [8] の XL モデル ${ }^{16)}$ を cross entropy loss を損失関数として fine-tuning する ${ }^{17)}$. 10)付録 Aに疑似データの作成例を示す. 11)本研究では置き換える対象を名詞に限定したが,活用のある動詞等への拡張は今後の課題である. 12) https://github.com/ku-nlp/KyotoCorpus 13) https://github.com/ku-nlp/KWDLC 14) https://github.com/ku-nlp/AnnotatedFKCCorpus/ 15)最大系列長は大力が 128 トークン,出力が 512 トークン とし,これらを超える文は学習と評価から除外している。 16) https://huggingface.co/google/mt5-xl 17)付録 B に実験設定の詳細を示す. 表 3 各コーパスごとの F1 スコア. 各セルには「分かち書き/読み/原形/代表表記」の形式でスコアを記載している. 行は疑似データで置き換えた単語のみに評価対象を限定した結果である. 表 4 出力の入力文復元率 (\%). 文単位で計算し, 入力文が出力の見出し語列と同一であれば「復元」と判定. KWJA KWJA の Large モデル版を使用する18).汎用言語モデルとして RoBERTa [11] Large ${ }^{19)}$ 20) を採用しており, 現時点で公開されている KWJA のモデルの中で最も高精度である. また Proposed に以下の 2 つの要素を追加した条件でも比較を行う. Forced Surface Decoding (FSD) 見出し語強制デコーディング(3.2 節)を使用. Disambiguation using Pseudo Data (DPD) 疑似データ(3.3 節)を元の学習データに加えて学習したモデルを使用. 疑似データの統計を表 2 に示す. 1 文あたり約 1 個の単語が置き換えられているが, それ以外の単語は元データと同一である。 ## 4.3 結果 表 3 の上 4 行に実験結果を示す. Proposed はコー パスによっては分かち書きと原形で KWJA にやや劣っているものの, 読みと代表表記ではどのコーパスでも一貫した精度向上が見られる. 提案手法は煩雑な処理を行うことなく, 入出力のフォーマットを定義するだけで高い精度を達成できている。 さらに見出し語強制デコーディングを加えた Proposed + FSD では 4 項目全てで精度が底上げされており,分かち書きと原形も KWJA とほぼ同等レべルまで達している. 表 4 に出力の入力文復元率を示  19) https://huggingface.co/ku-nlp/ roberta-large-japanese-char-wwm 20) https://huggingface.co/nlp-waseda/ roberta-large-japanese す. Proposed でも十分高い精度だが,見出し語強制デコーディングを導入することで KC,KWDLCでは $99 \%$ を上回っており,形態素解析器として実用に耐える復元率になっている。 一方,疑似データを加えた Proposed + FSD + DPD では全体的な精度低下が見られる。疑似データは元データの一部の単語を置き換えることで作成しており,その他の単語は元データと同一である. そうした疑似データを元データに加えて学習した結果,学習される単語に偏りが生じ,全体的に精度が低下したと考えられる。 次に疑似データで置き換えた単語のみに限定して評価した結果を表 3 の下 2 行に示す. 疑似データによって全体的に精度が向上しており, 特にスコアが低かった代表表記は大きな精度向上が見られる. Proposed + FSD では「こうえん/こえん」のように,漢字で生成すべき部分を平仮名で生成してしまうケースが多かったが,Proposed + FSD + DPD は 「公園にうえん」のように正しく生成できていた. このように置き換え箇所に対しては一定の精度向上が見られたものの,置き換えていない箇所は精度が低下してしまっている. 今後疑似データの作成方法や追加する量等について検討を進める予定である. ## 5 おわりに 本研究では分類モデルが扱いづらいタスクを対象に,テキスト生成モデルを用いた日本語形態素解析に取り組んだ。実装とタスク設計を単純化したにも関わらず,分かち書きと原形では分類モデルと同水準の精度を出しつつ,読みと代表表記では分類モデルを上回る精度を示した. 今後は曖昧性解消に向けた疑似データの活用法について検討を続ける。本研究で提案した手法は KWJA 2.0 として実装・公開予定である ${ }^{21)}$. 21)付録CにKWJA 1.0 から 2.0 における主な変更点を示す. ## 謝辞 本研究で用いた汎用言語モデルの一部は,学際大規模情報基盤共同利用・共同研究拠点 2022 年度公募型共同研究課題「大規模な日本語モデル構築・共有のためのプラットフォームの形成」 (jh221004) において構築した。 ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] 松田寛. GiNZA - Universal Dependencies による実用的日本語解析. 自然言語処理, Vol. 27, No. 3, pp. 695-701, 2020. [3] 植田暢大, 大村和正, 児玉貴志, 清丸寛一, 村脇有吾,河原大輔, 黒橋禎夫. KWJA:汎用言語モデルに基づ <日本語解析器. 第 253 回自然言語処理研究会, 京都, 2022. [4] Sadao Kurohashi, Toshihisa Nakamura, Yuji Matsumoto, and Makoto Nagao. Improvements of Japanese Morphological Analyzer JUMAN. In Proceedings of the International Workshop on Sharable Natural Language Resources, pp. 22-38, 1994. [5] Arseny Tolmachev, Daisuke Kawahara, and Sadao Kurohashi. Juman++: A Morphological Analysis Toolkit for Scriptio Continua. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 54-59, Brussels, Belgium, November 2018. Association for Computational Linguistics. [6] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020. [7] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language Models are Few-Shot Learners. In H. Larochelle, M. Ranzato, R. Hadsell, M.F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Curran Associates, Inc., 2020 . [8] Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, and Colin Raffel. mT5: A massively multilingual pre-trained textto-text transformer. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 483-498, Online, June 2021. Association for Computational Linguistics. [9] Sadao Kurohashi and Makoto Nagao. Building a Japanese Parsed Corpus while Improving the Parsing System. In Proceedings of the NLPRS, pp. 719-724, 1998. [10] 萩行正嗣, 河原大輔, 黒橋禎夫. 多様な文書の書き始めに対する意味関係タグ付きコーパスの構築とその分析. 自然言語処理, Vol. 21, No. 2, pp. 213-247, 2014. [11] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A Robustly Optimized BERT Pretraining Approach. arXiv:1907.11692, 2019 [12] Ilya Loshchilov and Frank Hutter. Decoupled Weight Decay Regularization. In International Conference on Learning Representations, 2019. [13] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Remi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander Rush. Transformers: State-of-the-art natural language processing. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45, Online, October 2020. Association for Computational Linguistics. [14] Pengcheng He, Xiaodong Liu, Jianfeng Gao, and Weizhu Chen. DeBERTa: Decoding-enhanced BERT with Disentangled Attention. In International Conference on Learning Representations, 2021. 見出し語 $\square$ 読み $\square$ 原形 $\square$ 代表表記 図 4 疑似データの作成例 ## A 疑似データの例 図 4 に疑似データの作成例を示す. 元データの漢字表記の「公園」を,疑似データの入力と出力ではそれぞれかな表記の「こうえん」に置き換えている。 ## B 実験設定の詳細 バッチサイズは 64 に設定し,最大で 30 エポック学習した. 各エポックの終了時に, 開発データに対する各コーパスごとの損失を計算し,その平均值が最も低いモデルを採用した。また,3エポック連続で損失の改善が見られなければ学習を打ち切った. オプティマイザには AdamW [12] を使用し, 学習率は $5 e-4$ とした. またウォームアップのステップ数を 250 に設定した,逆平方根学習率スケジューリングを採用した. 実装には Hugging Face ${ }^{22)}$ が提供する transformers [13] 及び Microsoft が提供する DeepSpeed ${ }^{23)}$ を使用した。学習には NVIDIA A100 80GB 4 枚を使用し約 13 時間かかった. 推論時にはビーム幅 3 のビームサーチを行った. ## C KWJA 2.0 に向けて 本論文で提案した手法は統合的日本語解析器 KWJA 2.0 の形態素解析モジュールとして実装する予定である. KWJA 1.0 から 2.0 におけるその他の変更点は以下のとおりである. 学習ベースの文分割 KWJA 1.0 では文分割を規則に基づく文分割器で行っていた. KWJA 2.0 ではこれを学習ベースの文分割器で置き換える。これに 22) https://huggingface.co/ 23) https://github.com/microsoft/DeepSpeed より,ウェブ上のテキスト等,くだけた表現に対して頑健な文分割を実現する。 読みアノテーションの修正 JUMAN 系の解析器 $[4,5]$ では読みの同定は重視されておらず,コー パスのアノテーションにおいても,自動付与された読みの修正は基本的に行わないとされていた。 KWJA が文脈に応じた読み推定を行えるようになったことを受けて,読みアノテーションの修正を進めている. ## 汎用言語モデルにおける DeBERTa の採用 DeBERTa [14] は RoBERTa [11] に対して相対位置埋 め込みを含む種々の改善を施したモデルである. KWJA 2.0 では,汎用言語モデルとして RoBERTa の 代わりに日本語テキストで事前学習した DeBERTa を採用する。これにより,タスク全体の精度向上が 見込まれる。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C2-4.pdf
# 最小コスト法に基づく形態素解析における CPU キャッシュの効率化 神田峻介 1 赤部晃一 1 後藤啓介 1 小田悠介 ${ }^{2}$ ${ }^{1}$ LegalOn Technologies Research ${ }^{2}$ 東北大学 データ駆動科学・AI 教育研究センター \{shunsuke.kanda, koichi.akabe, keisuke.goto\}@legalontech.jp yusuke.oda.c1@tohoku.ac.jp ## 概要 最小コスト法に基づく形態素解析において、木の探索やコスト行列の参照により発生するランダムアクセスは、CPU キャッシュ効率低下の原因となる。本稿では、参照の局所性を改善するデータ構造を提案し、解析速度の改善を図る。実験の結果、提案法を適用しなかった場合と比べ、提案法は $40 \%$ 程度の時間短縮を達成した。また、提案法を組み込んだ形態素解析器 Vibrato $^{1)}$ を新たに開発し、既存のソフトウェアよりも高速に動作することを実証した。 ## 1 はじめに 形態素解析は、自然言語を大力とし、形態素の列を返す処理である。日本語の情報検索やテキストマイニングなどの自然言語処理において、形態素解析は重要な前処理である。形態素解析を実現する代表的な手法の 1 つに最小コスト法 [1] があり、MeCab [2] や Sudachi [3] などの形態素解析器で利用されている。 最小コスト法の時間的ボトルネックの一つに、辞書の肥大化に伴う CPU キャッシュ効率の低下が挙げられる。単語列挙のための木構造の探索や、コス卜計算のための行列参照では、メモリ上のランダムアクセスが頻繁に発生する。巨大な辞書では、このランダムアクセスがキャッシュミスを引き起こし、速度低下の原因となる。 本稿では、参照の局所性の良いデータ構造を設計し、キャッシュ効率を改善することで最小コストの高速化を達成する。IPADIC [4] や Neologd [5]、 UniDic [6, 7] を使った実験により、その有効性を実証する。実験の結果、提案法を適用しなかった場合と比べて、提案法は $40 \%$ 程度の高速化を達成した。  図 1 入力文「元気になった」についての形態素ラティス。太線はコストの和が最小となる経路を表す。 また、提案法を実装した形態素解析器 Vibrato を新たに開発した。実験により、Vibrato は MeCab の 2 倍以上の速度性能であることを実証する。 ## 2 最小コスト法 ## 2.1 アルゴリズム 最小コスト法は、以下の手順により入力文から形態素列2)を得るアルゴリズムである。 1. 入力文に現れる形態素をノードとしたグラフ構造(形態素ラティス)を構築 2. コストが最小となる経路を探索し、対応する形態素列を出力 図 1 に入力文「元気になった」から構築された形態素ラティスを示す。BOS と EOS は、文の先頭と末尾を表すダミーのノードである。形態素に対応するノードと形態素の並びの対応するエッジにはコストが割り当てられる。ノードのコストは、その形態素自体の出現しやすさを表す。エッジのコストは、 その形態素の並びの出現しやすさを表す。以降では、形態素辞書やコスト値は所与として各手順を説明する。 形態素ラティスの構築入力文が与えられたとき、形態素ラティスは以下のように構築される。 2)本稿では、辞書のエントリを形態素と呼ぶ。 1. 入力文に現れる形態素を列挙(辞書引き) 2. 形態素をノードとして、文の位置について隣り合うノード同士をエッジで連結 辞書引きはトライ [8] という木構造を使って効率的に計算できる。詳しくは 3 節で解説する。 経路の探索形態素ラティスの BOS から EOS までを繋ぐ、コストの和が最小となる経路を探索する。そして、その経路に対応する形態素列を解として出力する。例えば、図 1 では太線の経路が該当する。そのような経路は、ビタビアルゴリズム [9]を用いてエッジ数に線形の時間で計算できる。 ## 2.2 高速化の方針 本研究では、最小コスト法のボトルネックは以下の 2 点であると指摘し、これらを解消することで解析速度の改善を試みる。 $\cdot$辞書引きでのトライの探索 - 経路探索中のコストの参照 これらに共通する点は、メモリ上の頻繁なランダムアクセスである。巨大な辞書では、このランダムアクセスがキャッシュミスを引き起こし、速度低下の原因となる。そこで、それぞれに参照の局所性が良いデータ構造を設計する。詳しくは、 3 節と 4 節で解説する。 ## 3 辞書引きのキャッシュ効率化 ## 3.1 事前知識 多くの形態素解析器では、トライ [8]を使った共通接頭辞検索により辞書引きを実現する。トライとは文字列の接頭辞を併合して構築される木構造であり、図 2 に見られるようにエッジにラベルを付随したオートマトンの一種である。共通接頭辞検索とは、あるクエリ文字列の接頭辞として現れる登録文字列を列挙する操作であり、文字を使って根からノードを遷移することで実現される。形態素をトライに登録し、入力文の全ての開始位置から共通接頭辞検索を実行することで辞書引きは実現される。 トライを表現するデータ構造としてはダブル配列 [10] が広く用いられている。ダブル配列とは、ノー ドからノードへの探索を定数時間で実現する高速なデータ構造である。入力文の長さを $N$ 、登録形態素の最大長 $K$ としたとき、ダブル配列を使った場合の辞書引きの実行時間は $O(N K)$ である。 図 2 形態素「元気」「活気」を登録したトライ。文字列のエンコードが Unicode である場合の、上図は Bytewise で表現した例、下図は Charwise で表現した例を示す。 ## 3.2 背景と問題点 ダブル配列の代表的な実装として、Darts ${ }^{3}$ や Darts-clone ${ }^{4}$ があり、MeCab や Sudachi などで用いられている。これらの共通点として、文字列をそのデータ表現のバイト列として扱う点が挙げられる。 この方法を Bytewise と表記する。図 2 の上部に例を示す。 Bytewise の利点は、文字列のエンコードに関わらずバイト列として処理できることと、エッジラベルの種類数の上限が 256 に定まることである。これらは実装の汎用性や容易さに関係する。 Bytewise の欠点は、日本語などのマルチバイト文字を扱う場合にバイト列が長くなることである。図 2 の例では、Unicode で符号化された長さ 2 の形態素「元気」が、長さ 6 の UTF-8 バイト列として表現されている。これは「元気」を検索するときに 6 回のランダムアクセスが必要となることを意味し、 キャッシュミス増加の原因となる。 ## 3.3 改善案 文字列を Unicode のコードポイント値の系列として処理する。この改善案を Charwise と表記する。図 2 の下部に例を示す。 日本語の多くの文字は UTF-8 で 3 バイトを使って表現される。そのような文字について、Charwise では Bytewise に比べランダムアクセスの回数を 3 分の 1 に削減できる。ダブル配列では定数時間でノードの探索ができるので、計算量にも影響は無い。 Charwise の実装上の注意点は、エッジラベルの種類数が大きくなる点である。コードポイント值は U+0000 から U+10FFFF までの 110 万種類を扱う。そのようなダブル配列は、素朴に実装すると構築速度やメモリ効率が低化する [11]。そこで、コード值を 3) http://chasen.org/ taku/software/darts/ 4) https://github.com/s-yata/darts-clone 頻度順に割り当て直すことで、多くのコード値が小さい値になるように修正する。自然言語において文字の出現頻度には偏りがあるため、この修正で問題が解消されることが経験的に知られている [11]。 ## 4 コスト参照のキャッシュ効率化 ## 4.1 事前知識 形態素ラティスのエッジに付随したコストを連接コストとよぶ。連接コストは左側と右側ノードの素性情報のぺアによって決定される。具体的には、形態素には左文脈 ID と右文脈 ID が割り当てられ、それら IDのペアによって連接コストは決定される。 本稿では、左文脈 ID の集合を $X=\{0,1, \ldots,|X|-$ 1\}、右文脈 ID の集合を $Y=\{0,1, \ldots,|Y|-1\}$ と定義する。連接コストは $|X| \times|Y|$ の連接表 $M$ に保存され、文脈 $\operatorname{ID~ペア~}(x, y) \in X \times Y$ の連接コスト値は表 $M$ の $(x, y)$ 成分 $M[x, y]$ に格納される。 $M$ は単純な二次元配列で実装され、 $M[x, y]$ には値 $x, y$ を使って定数時間でアクセスできる。 ## 4.2 背景と問題点 現代書き言葉 UniDic [7] では素性を詳細に設計しており、結果として連接表が肥大化している。例えば、IPADIC v2.7.0 では $|X|=|Y|=1,316$ で連接表のサイズは高々 $3.3 \mathrm{MiB}$ である。5)それに対し、UniDic v3.1.0 では $|X|=15,388,|Y|=15,626$ で連接表のサイズは $459 \mathrm{MiB}$ にもなる。事前実験(付録 A)では、解析時間は連接表のサイズに比例して増加する傾向が見られており、参照の局所性の悪化が解析速度の低下の原因になると考察される。 ## 4.3 改善案 訓練コーパスを用いて文脈 ID の使用頻度を収集し、よく使用される順に若い文脈 IDを割り当て直す。この方法により、頻繁に使用される連接コスト値がメモリ上で近接する。使用頻度に大きな偏りがある場合、参照の局所性が改善する。図 3 に例を示す。本稿では、標準の文脈 ID を使用する場合を Default、頻度順にマッピングする場合を Mapped と表記する。  頻繁に使われる連接コスト 図 3 文脈 IDを頻度順に割り当て直した例。ある左文脈 ID $x_{i}$ に対応する行と、 $x_{i}$ について右文脈 ID $y_{1}, y_{2}, y_{3}$ の順でコスト値を参照した様子を図示している。 $x_{i}^{\prime}, y_{j}^{\prime}$ は頻度順に割り当て直された文脈 IDを表す。 $y_{1}, y_{2}, y_{3}$ が頻繁に使用される文脈 IDであった場合、 $y_{1}^{\prime}, y_{2}^{\prime}, y_{3}^{\prime}$ は小さい値となる。つまり、その連接コスト值は行の先頭付近に密集し、参照の局所性は改善する。 表 1 辞書の統計 ## 5 実験 ## 5.1 実験設定 形態素解析用の辞書は以下の 4 種類を評価した。 - ipadic-mecab (v2.7.0) [4] - ipadic-neologd (2020-09-10) [5] - unidic-mecab (v2.1.2) [6] - unidic-cwj (v3.1.0) [7] 文章コーパスには BCCWJ v1.1 $[12,13]$ を使用した。マッピングの訓練にはコアデータ $60 \mathrm{k}$ 文を使用した。形態素解析の速度評価には、サブコーパスからランダムに抽出した $100 \mathrm{k}$ 文を使用した。 手法の実装にはプログラミング言語 Rust を用いた。コンパイルに使用した rustc はv1.63.0であり、最適化フラグは opt-level=3 である。計算機環境は、Intel Core i9-12900K @ 3.2-5.2GHz CPU (Cacheline: 64B, L1d: 640KiB, L2: 14MiB, L3: 30MiB), 64GiB RAM であり、OS は Ubuntu 22.04 である。実験は全てシングルスレッドで実施した。ダブル配列について、Bytewise の実装には Yada v0.5.06)を用いた。 6) https://github.com/takuyaa/yada 表 2 各手法を適用した場合の解析時間 [ms]。括弧内の数値は Bytewise+Default からの変化率を表す。 & & \\ mecab-neologd & 538 & $479(-11.1 \%)$ & $467(-13.3 \%)$ \\ unidic-mecab & 616 & $567(-8.0 \%)$ & $499(-19.0 \%)$ \\ unidic-cwj & 1,012 & $949(-6.3 \%)$ & $587(-42.1 \%)$ \\ 表 3 L1 キャッシュへのデータ読み込みにおけるキャッシュミス回数 $\left[10^{6}\right]$ 。括弧内の数値は Bytewise+Default からの変化率を表す。 & & \\ ipadic-neologd & 86.0 & $79.9(-7.1 \%)$ & $56.3(-34.6 \%)$ \\ unidic-mecab & 136.1 & $130.3(-4.3 \%)$ & $71.4(-47.5 \%)$ \\ unidic-cwj & 231.8 & $226.3(-2.4 \%)$ & $104.6(-54.9 \%)$ \\ Charwise の実装には Crawdad v0.3.07)を用いた。 ## 5.2 提案法の分析 提案法の Charwise と Mapped を用いた場合の解析速度を評価する。評価データ $100 \mathrm{k}$ 文の解析に要した時間を表 2 に示す。結果は 10 回試行した平均であり、結果中に示す「変化率」は、变化先-変化元で算出した值である。 文脈 ID が Default の場合での Bytewise と Charwise の解析時間を比較する。全ての辞書で Charwise が高速であり、IPADIC では $10 \%$ 以上の改善が確認された。一方で、巨大な連接表を持つ unidic-cwjでは、相対的にコスト参照のボトルネックの方が大きく、 6.3\%の改善に留まった。 続いて、文脈 ID の割り当てを Mapped に変更した場合と比較する。全ての辞書で Mapped が高速であり、特に連接表が最も大きい unidic-cwj では $42.1 \%$ の大きな改善が確認された。 表 3 に、評価データ $100 \mathrm{k}$ 文の解析時に発生した、 L1 データキャッシュへの読み込み時のキャッシュミス回数を示す。計測には perf コマンドを使用し、結果は 100 回試行した平均である。 全ての場合において、提案法によりキャッシュミスの回数が削減している。Charwise 適用時には ipadic-neologd で、Mapped 適用時には unidic-cwj で改善率が最も大きく、提案法が巨大な辞書について効果的であることが確認できる。 これらの結果から、最小コスト法に基づく形態素解析器において、辞書引きとコスト参照のキャッ  表 4 形態素解析器の比較実験の結果。 シュ効率は解析速度に大きな影響を与えることが確認された。特に連接表が巨大な場合、コスト参照にかかる時間の割合が大きく、コスト参照のキャッシュ効率改善が解析の高速化に有効であった。 ## 5.3 形態素解析器の比較 提案法の実装である Vibrato の速度性能を、既存の形態素解析器と比較し評価する。比較したソフトウェアは以下の 4 種類である。 - Vibrato v0.1.2 - MeCab v0.996 ${ }^{8}$ - Lindera v0.16.19) - sudachi.rs v0.6.4-a $1^{10)}$ Vibrato と MeCab は ipadic-mecab と unidic-cwjを用いて評価した。Lindera はライブラリでサポートされている ipadic-mecab と unidic-mecabを用いて評価した。 sudachi.rs は形態素解析器 Sudachi [3] の Rust 移植であり、辞書には SudachiDict-core ${ }^{11)}$ を用いて評価した。計測には tokenizer-speed-bench ${ }^{12)}$ を用いた。 表 4 に結果を示す。IPADIC とUniDic の両方のケースについて、Vibrato が最速であることが確認できた。二番目に高速な $\mathrm{MeCab}$ と Vibrato を比較して、IPADIC で 2.1 倍、UniDic で 2.3 倍高速である。 ## 6 おわりに 本稿では、形態素解析の高速化を目的とし、最小コスト法のキャッシュ効率化技法を提案した。実験により提案法の有効性を実証した。また、提案法を実装した形態素解析器 Vibrato を開発し、その速度性能を実証した。今後は機能面と性能面について、 Vibrato のさらなる改良を予定している。  ## 参考文献 [1] 久光徹, 新田義彦. 接続コスト最小法による日本語形態素解析. 全国大会講演論文集, 人工知能及び認知科学, pp. 1-2, 1991. [2] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to japanese morphological analysis. In Proceedings of the $\mathbf{2 0 0 4}$ conference on empirical methods in natural language processing, pp. 230-237, 2004. [3] Kazuma Takaoka, Sorami Hisamoto, Noriko Kawahara, Miho Sakamoto, Yoshitaka Uchida, and Yuji Matsumoto. Sudachi: a japanese tokenizer for business. In Proceedings of the 11th International Conference on Language Resources and Evaluation, 2018. [4] Masayuki Asahara and Yuji Matsumoto. ipadic version 2.7.0 User's Manual. https://ja.osdn. net/projects/ ipadic/docs/ipadic-2.7.0-manual-en. pdf, 2003. [5] 佐藤敏紀, 橋本泰一, 奥村学. 単語分かち書き辞書 mecab-ipadic-neologd の実装と情報検索における効果的な使用方法の検討. 言語処理学会第 23 回年次大会 (NLP2017), pp. NLP2017-B6-1. 言語処理学会, 2017. [6] 伝康晴, 小木曽智信, 小椋秀樹, 山田篤, 峯松信明, 内元清貴, 小磯花絵. コーパス日本語学のための言語資源 : 形態素解析用電子化辞書の開発とその応用. 日本語科学, Vol. 22, pp. 101-123, 2007. [7] 岡照晃. CRF 素性テンプレートの見直しによるモデルサイズを軽量化した解析用 UniDic — unidiccwj-2.2.0 と unidic-csj-2.2.0 一. 言語資源活用ワークショップ 2017 発表予稿集, 143-152. [8] 青江順一. キー検索技法-IV: トライとその応用. 情報処理, Vol. 34, No. 2, 1993. [9] Andrew Viterbi. Error bounds for convolutional codes and an asymptotically optimum decoding algorithm. IEEE transactions on Information Theory, Vol. 13, No. 2, pp. 260-269, 1967. [10] Jun'ichi Aoe. An efficient digital search algorithm by using a double-array structure. IEEE Transactions on Software Engineering, Vol. 15, No. 9, pp. 1066-1077, 1989. [11] Huidan Liu, Minghua Nuo, Longlong Ma, Jian Wu, and Yeping He. Compression methods by code mapping and code dividing for chinese dictionary stored in a doublearray trie. In Proceedings of 5th International Joint Conference on Natural Language Processing, pp. 1189-1197, 2011. [12] 前川喜久雄. 代表性を有する大規模日本語書き言葉コーパスの構築 (<特集>日本語コーパス). 人工知能, Vol. 24, No. 5, pp. 616-622, 2009. [13] 国立国語研究所コーパス開発センター. 『現代日本語書き言葉均衡コーパス』利用の手引第 1.1 版. https://clrd.ninjal.ac.jp/bccwj/doc.html, 2015. 図 4 右文脈 ID の使用頻度上位 100 件の割合。値は累積を表し、上位 $k$ 番目の値は 1 番目から $k$ 番目までの割合の合計である。ipadic-neologd の結果は ipadic-mecab と僅差だったため省略している。 表 5 ダブル配列の実装を変化させた場合の解析時間 $[\mathrm{ms}]$ 。括弧内の数値は Default からの変化率を表す。 ## A コスト参照についての事前実験 文脈 ID の使用頻度の調査. 文脈 ID の使用頻度の偏りについて調査する。各辞書について、訓練用テキストを解析したときの文脈 ID の使用頻度を算出した。右文脈 ID の使用頻度上位 100 件について、その割合を図 4 に示す。 ${ }^{13)}$ 文脈 ID の使用頻度に大きな偏りが確認された。例えば、右文脈 ID が $15 \mathrm{k}$ 種類も定義されている unidic-cwj ボトルネックの調査. 巨大な連接表がボトルネックなのかを検証するために、連接表へのアクセスを完全に排除し、連接コスト値を全て0 として解析した場合(Ideal)の結果とも比較する。表 5 に実験結果を示す。unidic-cwjで解析時間が $57 \%$ 短縮した。定数時間の配列参照を取り除いただけの簡単な修正であることから、巨大な連接表への参照がいかにボトルネックであるかが推察できる。 ## B 訓練データに関する調査 文脈 ID の使用頻度について、均衡コーパスを用いて算出した場合と、ドメインに特化したコーパスを用いて算出した場合を比較し、訓練コーパスにより Mapped の性能が変化するのかを調査する。 実験設定. BCCWJ サブコーパスは、新聞 (PN) や Yahoo!知恵袋(OC)などの 13 カテゴリから構成される [13]。各カテゴリから $10 \mathrm{k}$ 文ずつをサンプルし、13 種類の評価用データを構築する。そして、各カテゴリについて、以下の 2 つの方法でマッピングを訓練し、解析時間を比較する。 ・均衡データ:BCCWJ コアデータからサンプルし得られた 10k 文で訓練 ・カテゴリ別 : 各カテゴリの評価用テキスト $10 \mathrm{k}$ 文について 5 分割交差検証 辞書には unidic-cwj を使用する。計算機環境など、その他の実験設定は 5 節と同じである。 13)左文脈 ID の結果も大差は確認されなかった。 図 5 カテゴリ別の評価データについての解析時間。 表 6 各コーパスについて、頻繁に使用された右文脈 ID の上位 10 件。PN は新聞、LB は書籍、OC は Yahoo!知恵袋。ID unidic-cwj で定義されている標準のものを表示。 解析時間に関する結果. 13 カテゴリについて、評価デー タ $10 \mathrm{~K}$ 文の解析に要した時間を図 5 に示す。訓練データをドメインに特化しても、解析時間は大きく変化しないことが確認された。 高頻度な文脈 ID に関する分析. コアデータといくつかのカテゴリで頻繁に使用された右文脈 ID の上位 10 件を表 6 に示す。上位 7 件まではどのコーパスでも同一で、カテゴリによって使用される文脈 ID に大差は無い。 これらの右文脈 ID に対応した素性列を図 7 に示す。頻出 ID は品詞などの一部の情報によって識別可能な形態素に割り当てられている。そして、そのような形態素はドメインを問わずコーパスの大部分を占めている。 これらの結果は、「幅広いドメインのテキストを解析するために、均衡データから訓練したマッピングを一つ持っておけば十分である」ということを示唆している。 つまり辞書を配布する場合、 1 種類のマッピング適用済みの辞書を配布すればよい。 表 7 unidic-cwj で頻繁に使用された素性列の例。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C2-5.pdf
# 最長一致パターンに基づく高速・高精度な日本語形態素解析 吉永 直樹 東京大学生産技術研究所 ynaga@iis.u-tokyo.ac.jp ## 概要 膨大な量のテキストを解析したり,言語処理応用で大量にユーザのクエリを処理する場合,処理効率の悪いモデルは高精度でも利用し難い. 本稿では高効率な手法の精度を改善すべく, 最長一致パターンに基づく高精度な形態素解析手法を提案する. 提案手法では,既存の辞書項目を元に,学習データから抽出したパターンを用いて形態素解析を行う.実験では,複数の品詞タグ付きコーパスと辞書を用いて提案手法の評価を行い,最小コスト法や点推定に基づく形態素解析手法の既存実装と同程度の精度, $1 / 2$ から $1 / 20$ 程度の消費メモリで,1,000,000 文/秒を超える速度の形態素解析が可能なことを確認した. 本手法の実装(C++で約 1000 行)は以下で公開する. http://www.tkl.iis.u-tokyo.ac.jp/ ynaga/jagger ## 1 はじめに Twitter や Zoom, Slack などのコミュニケーションプラットフォームの普及に従い,電子化された言語データの量は爆発的に増加し続けており, 深層学習によって高精度化された機械翻訳などの実サービスは数千万を超えるユーザを獲得するようになった。 このように,実世界テキストの量や実時間処理するユーザクエリがこれまでになく増加する状況下では,現実的な計算資源で運用できる効率の良い言語処理技術の重要度が高まっている。 しかしながら,深層学習の導入以降,精度に偏重して研究が行われた結果,「効率の良い」手法 [1] は他分野のように処理速度や消費メモリの限界を更新するものではなく, 低速で消費メモリの大きい深層学習モデルの効率を, 深層学習の枠内で相対的かつ限定的に改善するものが大半である. 結果, 最高精度のモデルと古典的ではあるが効率の良いモデルとの間の速度差は埋め難く, 深層学習を用いた高精度の言語処理サービスは,膨大な GPU 資源を有する一部の企業のみが展開するに留まっている.本研究では,遅いモデルの効率を改善するのではなく,効率の良いモデルの精度を改善する,真に 「効率の良い」言語処理を実現すべく,機械学習を経由しない単純で高精度な日本語形態素解析手法を提案する. 日本語における形態素解析は,一般に,単語分割, 品詞解析, 見出し語化の混合タスクとしてモデル化されるが,我々の提案手法は,古典的な最長一致法に基づく単語分割手法を拡張したもので, 次の分割位置と切り出した単語の品詞・見出し語を決定するパターンに基づき形態素解析を行う.解析に用いるパターンは形態素解析辞書の項目をシードとして,学習データから頻度に基づいて抽出する。抽出したパターンはダブル配列 $[2,3]$ に格納し,時空間効率の良い処理を実現する。 実験では,多様なドメインの標準コーパス $[4,5]$ と形態素解析辞書を組み合わせて提案手法の評価を行った. その結果, 提案手法が,探索 (最小コスト法) や分類 (点推定) に基づく実装 (MeCab, Vaporetto) と同程度の精度で,MeCab の約 15 倍,Vaporetto の約 10 倍 (M2 MacBook Air で 1,000,000 文秒以上) の速度で形態素解析を行えることを確認した。 ## 2 パターンに基づく形態素解析 本節では,単語分割,品詞タグ付け,見出し語化を同時に行う決定的な形態素解析手法を提案する.速度に妥協のない実装を得るため, 本研究では古典的な最長一致法 [6] を拡張した最長一致パターンに基づく形態素解析アルゴリズムを提案する. 最長一致法は辞書 (単語の集合) に基づく決定的な単語分割手法であり, 入力文字列の先頭から辞書中の単語と一致する最長の文字列を, 繰り返し単語として認識することで単語分割を行う. 最長一致法は,日本語や中国語の単語分割において,修正規則と組み合わせることで高精度化できること $[7,8]$ が知られているが,機械学習を用いた最小コスト法や点推定などの標準的な単語分割手法 $[9,10]$ と比べると分割精度には一定の差 [11] が存在する. ## 2.1 基本的なアルゴリズム 本節では, 単語分割, 品詞タグ付け, 見出し語化 ${ }^{1)}$ を同時に行う決定的な形態素解析アルゴリズムを提案する. Algorithm 1 は,与えられた文字列に対し,トライに格納されたパターン $\mathscr{P}$ 繰り返し適用して, 後続する単語 $w=\boldsymbol{c}_{i}^{i+\text { shift }}$ を切り出すと同時に品詞 (と見出し語) を決定するアルゴリズムである.単語分割に対する最長一致法と同様に, 本手法でも最長一致するパターンが選択・適用されるが,分割位置がパターン長と必ずしも一致しない点に注意されたい, 3 節で確認するように,この単純なアルゴリズムは有効なパターン集合が用意できれば,最小コスト法や点推定などの探索・分類ベースの手法に匹敵する精度で動作する。 本手法は,系列ラベリングや組合わせ特徴に基づく分類器における事前計算 $[9,12,13,14]$ に着想を得ている。これらの効率的な実装では,事前計算した特徴量の重みを,表層など単純な特徴の系列をキー として取得することで推論を行う.機械学習で用いる特徴量が単純なキー (パターン) に畳み込めるのであれば,直接,分類結果 (単語分割の有無, 品詞, 見出し語) に写像可能なパターン (特徴列) が存在しうるというのが本手法の基本的なアイデアである. ## 2.2 辞書に基づく特徵列パターンの抽出 最小コスト法 [9] や点推定 [10] を実装した形態素解析器の素性テンプレートを参考に, 本稿では提案手法のためのパターンテンプレートとして,分割位置以降の表層文字列 $\boldsymbol{c}_{p}$ と直前の単語の品詞 $t_{j-1}$ の連結,すなわち $\boldsymbol{c}_{p} ; t_{j-1}($; は文字の連結) を採用した。 Algorithm 2 は, 形態素解析の学習データから特徵列パターンをマイニングするアルゴリズムである.単語分割, 品詞タグ及び見出し語が付与された学習  データ Dと単語がとりうる品詞タグ・見出し語を定義した形態素解析辞書 $\mathscr{V}$ を力として, 本手法は逐次的に特徴列パターンを学習データから抽出する。 具体的にはまず,学習データ中の全ての単語分割位置に対し,その位置から次の分割位置以降までを含む文字列 $\boldsymbol{c}_{i}^{i+k}$ を表層パターンとして抽出し, 直前の単語の品詞タグ $t_{j-1}$ と組み合わせてパターン候補を得る (4-8 行目). これらのパターン候補に対して,分割位置 (shift) ・品詞タグ $($ ・見出し語, 以後省略) $t$ の頻度を数えて,最多の分割位置・品詞タグをそのパターンが適用されたときの分割位置・品詞タグとして採用する (12-13 行目). 冗長なパターンを枝刈りするために,接頭文字列が同じで分割位置・品詞タグが同じパターンについては,最も短いパターンのみを採用する (14-16 行目)。提案手法は最長一致法と比べて,後続文脈や前文脈品詞について追加の走査が必要となるが,大きなオーバーヘッドとならないことを確認している.2) ## 3 実験 本節では提案手法を多様なドメインの形態素情報付きコーパス $[4,5]$ を用いて評価し,探索や分類に基づく効率的な形態素解析手法 $[9,10]$ と速度,消費メモリ,精度の観点で比較する。 2)Aho-Corasickライクな手法で表層について戻り読みのない処理を行うことも可能だが,逆に処理速度が低下した。 表 1 評価データの統計. ## 3.1 設定 データセット実験では新聞記事に注釈を付与した京都大学テキストコーパス33) (куОто) [4] とウェブページの冒頭三文に注釈を付与した京都大学ウェブ文書リードコーパス ${ }^{4}$ (KWDLC) [5]を用いた。開発・評価データとしては, github リポジトリに含まれる分割を用い,残りを学習データに用いた (表 1). 比較モデル本稿では,以下の実装を比較する。学習ベースのモデルではハイパーパラメタ $c^{5)}$開発データを用いて調整し,活用を含む品詞タグ (level 1-4)の $\mathrm{F}_{1}$ が最大となるモデルを評価に用いた. Jagger は提案手法の C++実装であり,入力テキストの先頭から後続する表層文字列と前文脈品詞に対して特徴列パターンを繰り返し適用し, 決定的に単語分割, 品詞タグ付け, 見出し語化を行う. これらのパターンは学習データと辞書から抽出される。 $\mathbf{M e C a b}^{6}$ (は最小コスト法の $\mathrm{C}++$ 実装7)であり, 条件付き確率場 [15] により, 学習データからパラメタを推定する [9]. 最小コスト法では,辞書に基づき可能な分割と品詞の組み合わせをラティスで表現して,最尤となる分割・品詞を動的計画法で求める. Vaporetto は点推定 [10]の Rust 実装9) である. 点推定では,各文字間を分割候補とする二値分類により単語分割を行った後, 各単語に対して多クラス分類により品詞タグ付けを行う. 公平な比較のために,単語特徴量には他の手法と同じ形態素解析辞書を用いる. Vaporettoでは単語の品詞候補ごとに分類器を学習しており,学習データに出現しない単語10)には,辞書中で最初に現れる品詞タグが付与される [16]. 3) https://github.com/ku-nlp/KyotoCorpus 4) https://github.com/ku-nlp/KWDLC 5) $c=\{0.1,0.2,0.5,1.0,2.0,5.0,10.0\}$ を試した. 6) https://taku910.github.io/mecab/ 7) $\mathrm{MeCab}$ の高速な再実装である Vibrato $\left.^{8}\right)$ は,今回用いた実験設定で品詞タグ付けまで行うと, MeCabより遅くメモリ消費も大きかったため,比較しなかった. 8) https://github.com/daac-tools/vibrato 9) https://github.com/daac-tools/Vaporetto 10)学習データにも辞書にも出現しない単語には品詞タグが付与されないため, 文献 [9]を参考にサ変名詞を割り当てた. なお,この処理にかかる時間は処理速度には含めない.表 2 形態素解析辞書の統計 なお, Rust と C++が生成するコードの実行速度は,多くのベンチマークで同程度 ${ }^{11)}$ である. 提案手法は,大域的な最適化を行う最小コスト法よりは,局所的な最適化を行う点推定に近い手法であるが,二つの点で異なる. まず,提案手法は全ての文字間に対して分割の有無を判定するのでなく, パターンに基づき,次の分割位置を決定する (分類問題としては次の分割位置を予測する多クラス分類に相当)。また,提案手法では,単語分割,品詞タグ付け (,見出し語化)を同時かつ決定的に行う. 形態素解析辞書各手法が用いる辞書としては,形態素解析器 JUMAN ${ }^{12)}$ の辞書を MeCab 用に変換したものを用いる。具体的には mecab-jumandic-5.120070304 と mecab-jumandic-7.0-20130310を,辞書の質とカバレッジの影響を分析するために比較する。 このうち, jumandic-7.0ではウェブから自動獲得した語彙 [17] が含まれており, 収録語数が 475,716 語 (jumandic-5.1) から 702,358 語 (jumandic-7.0) に増加している. 品詞タグは 4 階層 (2 段階の品詞分類, 活用型, 活用形) からなる形態・統語論的なカテゴリが付与されている (表 2). 評価方法解析精度に関する評価尺度としては,既存研究 [9] に倣い,単語分割と品詞タグに関する精度, 再現率, $\mathrm{F}_{1}$ 値を用いる. 処理効率の評価としては,評価データを 1000 回コピーしたデータの解析時間 (秒), 解析速度 (文秒), 最大消費メモリ (MiB)を/usr/bin/time - l コマンドにより 3 回計測して,中央値となる処理時間 (速度) と,そのときの最大消費メモリを報告する. 実験は $3.5 \mathrm{Ghz} \mathrm{CPU}$ と主記憶 $24 \mathrm{~GB}$ を備えた M2 MacBook Air 上で行った. なお,付録 $\mathrm{C}, \mathrm{D}$ に単語分割のみの評価,及び深層学習に基づく形態素解析器との比較を載せた. ## 3.2 結果 表 3, 4 に кYото, кWDLC コーパスでの単語分割・品詞タグ付けの評価結果を示す. 我々の提案手法の参照実装である Jaggerが,最小コスト法を実装した MeCab や点推定を実装した Vaporetto と遜色のない 11) https://github.com/kostya/benchmarks/ 12) https://nlp.ist.i.kyoto-u.ac.jp/?JUMAN 表 3 куото コーパスの解析結果, $\mathrm{F}_{1}$ (precision/recall). 表 4 KWDLC コーパスの解析結果, $\mathrm{F}_{1}$ (precision/recall). 精度を示すと共に,MeCab の約 15 倍,Vaporetto の約 10 倍高速,かつ MeCab の約 1/2, Vaporetto の約 1/20 程度の消費メモリで解析が行えている. Jagger が用いる特徴列パターンは枝刈り (Algorithm 2 の 14 行目) によって最小限に抑えられており, 機械学習を経由せず,浮動小数点数で表現されるパラメタも含まないことから,高効率となったと考えられる (他手法の学習に相当するパターンの抽出時間は 6 秒未満であった). MeCab の解析精度は辞書の性質に依存し,jumandic-7.0を用いた場合,KWDLC で優れた精度を示す一方で куото では単語分割精度が低下している. Vaporetto は,学習データの多い куотоでは MeCab や Jagger より高精度だが,学習データの少ない KWDLC では Jagger と同程度の精度に留まる。 表 5 に,学習データとは異なるドメインの評価データを用いて各手法を評価したときの解析精度を示す. 辞書に基づいて単語分割候補を列挙する最小コスト法 (MeCab) に対し,辞書を間接的に用いる点推定 (Vaporetto) の解析精度が低く, 学習ドメインに依存する点推定のリスクを示している. 提案手法の実装である Jagger は MeCabよりは性能が低下しているものの, Vaporetto ほどには性能が落ちておらず,辞書と学習データの両方をバランスよく活用した手法となっている. 提案手法は,辞書,あるいはパターンを追加する形で学習という余分なプロセスを経ずに処理を即座に変更することもできる。 ## 4 まとめ 本稿では最速の言語処理技術を高精度化すべく,最長一致パターンに基づく高精度な形態素解析器を提案した. 我々の手法は, 辞書中の単語をシードとして学習データから単語分割位置と品詞タグ (及び見出し語)を決定するパターンを抽出し,最長一致パターンを順次切り出す形で効率よく高精度の解析を行う.複数の品詞タグ付きコーパスを用いた実験により, 提案手法が最小コスト法や点推定の効率的な既存実装に匹敵する解析精度を達成し, 同時に, ノート PCで $1,000,000$ 文秒という基礎解析として望ましい解析速度を実現することを確認した。 今後は,深層学習により得られる埋め込み表現を離散化してパターンに組み込むなどして,本論文のアプローチを他の言語処理タスクに応用したい. ## 謝辞 本研究は JSPS 科研費 JP21H03494 の助成を受けたものです. Vaporettoの未知語処理に関する実装をご教示くださった LegalOn Technologies の赤部晃一氏,本稿の草稿にコメントをくださった Rakuten Institute of Technology Americas の新里圭司氏に感謝いたします. ## 参考文献 [1] Marcos Treviso, Tianchu Ji, Ji-Ung Lee, Betty van Aken, Qingqing Cao, Manuel R. Ciosici, Michael Hassid, Kenneth Heafield, Sara Hooker, Pedro H. Martins, André F. T. Martins, Peter Milder, Colin Raffel, Edwin Simpson, Noam Slonim, Niranjan Balasubramanian, Leon Derczynski, and Roy Schwartz. Efficient methods for natural language processing: A survey, 2022. [2] Jun'ichi Aoe. An efficient digital search algorithm by using a double-array structure. IEEE Transactions on Software Engineering, Vol. 15, No. 9, pp. 1066-1077, 1989. [3] Naoki Yoshinaga and Masaru Kitsuregawa. A self-adaptive classifier for efficient text-stream processing. In Proceedings of COLING 2014, the 25th International Conference on Computational Linguistics: Technical Papers, pp. 1091-1102, Dublin, Ireland, August 2014. [4] Sadao Kurohashi and Makoto Nagao. Building a Japanese parsed corpus. In Treebanks: Building and Using Parsed Corpora, pp. 249-260. Kluwer Academic Publishers, 2003. [5] Masatsugu Hangyo, Daisuke Kawahara, and Sadao Kurohashi. Building a diverse document leads corpus annotated with semantic relations. In Proceedings of the 26th Pacific Asia Conference on Language, Information, and Computation, pp. 535-544, Bali, Indonesia, November 2012. [6] Masaaki Nagata. A stochastic Japanese morphological analyzer using a forward-DP backward-A* $n$-best search algorithm. In COLING 1994 Volume 1: The 15th International Conference on Computational Linguistics, Kyoto, Japan, August 1994. [7] David D. Palmer. A trainable rule-based algorithm for word segmentation. In 35th Annual Meeting of the Association for Computational Linguistics and 8th Conference of the European Chapter of the Association for Computational Linguistics, pp. 321-328, Madrid, Spain, July 1997. [8] Julia Hockenmaier and Chris Brew. Error-driven learning of Chinese word segmentation. In Proceedings of the 12th Pacific Asia Conference on Language, Information and Computation, pp. 218-229, Singapore, February 1998. [9] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to Japanese morphological analysis. In Proceedings of the $\mathbf{2 0 0 4}$ Conference on Empirical Methods in Natural Language Processing, pp. 230-237, Barcelona, Spain, July 2004. [10] Graham Neubig, Yosuke Nakata, and Shinsuke Mori. Pointwise prediction for robust, adaptable Japanese morphological analysis. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 529533, Portland, Oregon, USA, June 2011. [11] Manabu Sassano. Deterministic word segmentation using maximum matching with fully lexicalized rules. In Proceedings of the 14th Conference of the European Chapter of the Association for Computational Linguistics, volume 2: Short Papers, pp. 79-83, Gothenburg, Sweden, April 2014. [12] Nobuhiro Kaji, Yasuhiro Fujiwara, Naoki Yoshinaga, and Masaru Kitsuregawa. Efficient staggered decoding for sequence labeling. In Proceedings of the 48th Annual Meeting of the Association for Computational Linguistics, pp. 485-494, Uppsala, Sweden, July 2010. [13] Naoki Yoshinaga and Masaru Kitsuregawa. Kernel slicing: Scalable online training with conjunctive features. In Proceedings of the 23rd International Conference on Computational Linguistics (Coling 2010), pp. 12451253, Beijing, China, August 2010. [14] 赤部晃一森信介. Vaporetto: 点予測法に基づく高速な日本語トークナイザ. 言語処理学会第 28 回年次大会発表論文集, pp. 256-261, 2022. [15] Percy Liang, Hal Daumé, and Dan Klein. Structure compilation: Trading structure for features. In Proceedings of the 25th International Conference on Machine Learning, ICML '08, p. 592-599, New York, NY, USA, 2008. [16] 森信介, 中田陽介, Neubig Graham, 河原達也. 点予測による形態素解析. 自然言語処理, Vol. 18, No. 4, pp. 367-381, 2011. [17] Yugo Murawaki and Sadao Kurohashi. Online acquisition of Japanese unknown morphemes using morphological constraints. In Proceedings of the $\mathbf{2 0 0 8}$ Conference on Empirical Methods in Natural Language Processing, pp. 429-437, Honolulu, Hawaii, October 2008. [18] 工藤拓. 形態素解析の理論と実装. 近代科学社, 2018. [19] Huidan Liu, Minghua Nuo, Longlong Ma, Jian Wu, and Yeping He. Compression methods by code mapping and code dividing for Chinese dictionary stored in a doublearray trie. In Proceedings of 5th International Joint Conference on Natural Language Processing, pp. 1189-1197, Chiang Mai, Thailand, November 2011. [20] Arseny Tolmachev, Daisuke Kawahara, and Sadao Kurohashi. Juman++: A morphological analysis toolkit for scriptio continua. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 54-59, Brussels, Belgium, November 2018. [21] Hajime Morita, Daisuke Kawahara, and Sadao Kurohashi. Morphological analysis for unsegmented languages using recurrent neural network language model. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 2292-2297, Lisbon, Portugal, September 2015. 表 6 JUMAN++との比較, $\mathrm{F}_{1}$ (precision/recall). ## A 未知語処理 最小コスト法と同様に, 提案手法でも辞書・学習データに含まれない未知語の扱いは,問題となる。現在の実装では, 既存手法 [9] と同様に, 文字種に基づいて,数字,アルファベット,カタカナを連結する単純な未知語処理を実装している。具体的には,連続する数字,アルファベットはそれぞれ単純に連結し,連続するカタカナ語については,単語の合計長が一定サイズ以下のときに連結する。いずれの場合も,前文脈品詞,および連結する末尾の語に対するパターンに基づき品詞を割り当てる. ## B 実装上の工夫 Jagger の C++実装には,MeCab で用いられているゼロコピーや mmap [18], J.DepP ${ }^{13)}$ でも用いられているキャッシュ効率化のための頻度順 ID[19] に加えて, Vaporetto や Vibrato で用いられている文字単位で遷移するダブル配列を利用している。文字単位のダブル配列には,バイト単位で遷移する動的ダブル配列 cedar ${ }^{14)}$ に軽微な修正を加えたものを用いた。 ## C 単語分割のみの処理効率の比較 品詞タグ付けに対するアプローチ(未知語処理,見出し語化への対応)の違いから, MeCab / Jagger と Vaporetto を形態素解析器として厳密な意味で公平に比較することは困難である。 そこで,各実装で jumandic-7.0を用いて,単語分割のみを行い,処理速度・消費メモリを比較した。なお,MeCab, Jagger については表 3,4 と同じモデルを用いた. Vaporetto については,省メモリ化のため単語分割のみの学習データから, 単語リストとして辞書を与えて, 単語分割のみを行うモデルを再学習した ${ }^{15)}$.  表 7 単語分割の処理効率 (辞書: jumandic-7.0). 表 7 に, 3.1 節の評価方法に倣って計測した単語分割の処理効率を示す. 表で UTF-8 split は,UTF-8 で符号化された評価データを文字ごとに分割して出力する処理である. Vaporetto の処理効率が改善しているが,(モデルの読み込みのオーバーヘッド (約 1.7 秒) 点を考慮しても) 提案手法による処理の方が高速かつ省メモリである. ## D ニューラル形態素解析との比較 現時点で最高精度の日本語形態素解析器である JUMAN++-V2 [2016) との比較を行った. モデルは,表 1 と同じ学習データから公式スクリプト ${ }^{17)}$ 及び,学習コーパスに対し最適化されたハイパーパラメタを用いて学習した。なお,JUMAN++は,Wikipedia から抽出した辞書と大規模コーパスから訓練された RNN 言語モデルを追加で用いており, 精度の観点では Jagger に不利で,速度の観点では JUMAN++に不利な比較となっている点に注意されたい。 表 6 に jumandic-7.0 を辞書に用いた Jagger と比較した結果を示す. Jagger と JUMAN++の解析精度の差は, 品詞タグ付けでは大きいが単語分割では $1 \%$ 以内に収まっている。JUMAN++-V2 は JUMAN++ [21] に対して 250 倍の高速化を達成したと報告されているが,Jagger はその JUMAN++-V2 よりさらに 180 倍以上高速で,1/7 以下の消費メモリであった. 16) https://github.com/ku-nlp/jumanpp 17) https://github.com/ku-nlp/jumanpp-jumandic
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C3-1.pdf
# 埋め込み表現の意味適応による知識ベース語義曖昧性解消 水木栄 東京工業大学情報理工学院 sakae.mizuki@nlp.c.titech.ac.jp } 岡崎直観 東京工業大学情報理工学院 okazaki@c.titech.ac.jp ## 概要 知識ベース語義曖昧性解消(WSD)の有望な方法論は,文脈依存埋め込みによる埋め込み空間上で対象単語に最も近い語釈文の語義を選ぶことである. 本研究では, 語彙知識を用いて埋め込み表現を WSD に適応させる手法を提案する. 提案手法の鍵は,関連する語義対および語義・用例対を近づけて,無関連な語義対および異義対を遠ざけることである.これらを実現するため,吸引・反発学習および自己学習を用いる。提案手法は知識べース WSD の最高精度を達成した. また分析により, 両学習を併用する有効性を確認した。 ## 1 はじめに 語義曖昧性解消(WSD)とは,文脈を考慮して適切な語義を選択するタスクである.WSD の用途は評判分析 $[1,2]$, 情報検索 [3], 機械翻訳 [4] がある.本研究は, WordNet [5] の語彙資源のみを用いる知識ベース WSD の精度向上に取り組む. 知識ベース WSD は教師あり WSD に対して精度面で劣るが,高コストな語義注釈付き用例文を用いずに済む. 知識ベース WSD の有望な方法論は,文脈依存埋め込みによる最近傍法である [6]. 具体的には, BERT [7] などの事前学習ずみ言語モデルを用いて,語釈文の埋め込み一語義埋め込み一および,用例文内の対象単語の埋め込み一文脈埋め込み一を計算し,文脈に最も近い語義を選択する。最近傍法の鍵は,語釈文と用例文の対応付けである。すなわち埋め込み空間上で正しい語義・用例対を近づけ,WSD に適応させたい. 語義注釈付き用例文を用いず,語彙資源のみで対応付けを改善できるだろうか? 既存研究ではふたつの改善策がある. ひとつは語彙知識による埋め込み表現の適応である. SREF [6] は,意味的に関連する語義対の埋め込みを近づけて精度を改善した. しかし関連しない語義対や,語義・用例対は活用していない,もうひとつは文脈情 a) 吸引・ 反発学習 d) 適応後の理想 b) 自己学習 c) 距離制約図 1 提案手法の概要. BERT の語義・文脈埋め込みを変換して適応させる (上). 変換関数の最適化は,距離制約のもとで,吸引・反発学習と自己学習を併用する(下). 報の拡張である。COE [8] は,評価文書内の隣接文などを用いて最高精度を達成した。しかし,SNS 短文などの文単体には適用できず,汎用性に欠ける。 本研究は,BERT 埋め込みを変換してWSD に適応させる手法(図 1)に取り組む. 本研究の提案の核心は,関連する語義対および語義・用例対を近づけ,関連しない語義対および異義対は遠ざけることである。具体的には,距離制約のもとで,吸引・反発学習(図 1-a) および自己学習(図 1-b)を行う.前者は語義間の識別性を,後者は語義と用例の擬似的な対応付けをそれぞれ学習する. 提案手法の主な新規性は,知識ベース WSDへの吸引・反発学習の適用および自己学習の併用である。埋め込み表現の意味適応手法の総称 [9] に準じて,提案手法を Semantic Specialization for WSD (SS-WSD) と呼ぶ. 実験の結果,提案手法の精度は従来の埋め込み表現適応法を上回った. また既存研究で有効とされる最近傍語義探索の経験則を併用すると,文書の情報を用いずに現時点の世界最高精度を達成した. 本研究の貢献は次の 2 点である. 文単体に適用可能な,吸引・反発学習と自己学習の併用による新手法の提案. 知識ベース WSD の最高精度の達成. ## 2 既存研究 ## 2.1 知識ベース WSD 知識ベース WSD では古くから語釈文と用例文の類似性が使用されている [10]. また BERT 埋め込みは文脈を考慮して疎粒度の語義を捉えるとの報告がある [11,12]. かかる背景のもと, SREF [6] は BERT 埋め込み表現による最近傍法および,上位下位語義等との加重平均による語義埋め込み適応の有効性を報告した.これを発展させた COE [8] は, 評価文書内の隣接文や共起語義1)による文脈埋め込みを併用して最高精度を達成した. 本研究は文書情報を用いずに,これらを上回る埋め込み表現適応を提案する。 ## 2.2 埋め込み表現の意味適応 語彙資源に含まれる知識を事前学習ずみの埋め込み表現に注入して意味適応させる手法は Semantic Specialization (SS) と総称される. SS の目的は, 文脈類似性に基づく意味的類似度と,語彙資源に基づく詳細な意味関係の統合である [9]. 先行研究 $[9,14]$ は,上位下位・対義などの関係知識を用いて静的な単語埋め込みを意味適応させ,単語間意味関係識別タスクでの有効性を報告した. 本研究は,文脈依存埋め込みの意味適応によるWSDに取り組む。 ## 3 提案手法 ## 3.1 埋め込み表現の意味適応による WSD 提案手法は,BERTによる埋め込みを変換する。 $ \begin{aligned} \mathbf{v}_{w} & =H_{w}\left(\hat{\mathbf{v}}_{w}\right) \\ \mathbf{e}_{s} & =H_{s}\left(\hat{\mathbf{e}}_{s}\right) \end{aligned} $ 入力 $\hat{\mathbf{v}}_{w}$ および $\hat{\mathbf{e}}_{s}$ は BERT を用いて計算した文脈 $w$ および語義 $s$ の埋め込み, 出力 $\mathbf{v}_{w}$ および $\mathbf{e}_{s}$ は適応ずみ埋め込み, $H_{w}$ および $H_{s}$ は変換関数である. 訓練時は,変換関数を学習する。具体的には $\mathbf{v}_{w}$ および $\mathbf{e}_{s}$ を使って吸引・反発学習および自己学習の損失加重和を最小化する.BERT 自体はファインチュー ニングしない. 埋め込みそのものを適応させるのではなく,変換関数を学習することで,任意の文脈埋め込みを処理できるようにする.推論時は,変換した(適応ずみの)埋め込みを用いて最近傍の語義を選ぶ. 具体的には,曖昧性を解消する単語 $w$ および  候補語義 $s^{\prime} \in \mathcal{S}_{w}$ の埋め込みをそれぞれ変換してから, cosine 類似度が最大の語義 $s^{*}$ を選択する。 $ \begin{aligned} s^{*} & =\underset{s^{\prime} \in \mathcal{S}_{w}}{\arg \max } \rho_{w, s^{\prime}} \\ \rho_{w, s} & =\cos \left(\mathbf{v}_{w}, \mathbf{e}_{s}\right)=\frac{\mathbf{v}_{w} \cdot \mathbf{e}_{s}}{\left.\|\mathbf{v}_{w}\right.\|\left.\|\mathbf{e}_{s}\right.\|} \end{aligned} $ 訓練および推論に必要な語彙資源は WordNetから取得する。語義の識別子は sense key である. BERT による文脈・語義埋め込みの計算方法は, 先行研究 [6] にならう (付録 B). 語義埋め込みの計算にはレンマ・同義語・語釈文・例文の連結を使用する. ## 3.2 変換関数 埋め込みを適応させる変換関数(式 2)は,順伝播型 NN(FFNN)による残差接続で定式化する2). $ \begin{gathered} \mathbf{v}_{w}=H_{w}\left(\hat{\mathbf{v}}_{w}\right)=\hat{\mathbf{v}}_{w}+\epsilon\left.\|\hat{\mathbf{v}}_{w}\right.\| F_{w}\left(\hat{\mathbf{v}}_{w}\right) \\ \mathbf{e}_{s}=H_{s}\left(\hat{\mathbf{e}}_{s}\right)=\hat{\mathbf{e}}_{s}+\epsilon\left.\|\hat{\mathbf{e}}_{s}\right.\| F_{s}\left(\hat{\mathbf{e}}_{s}\right) \\ F_{w}(\cdot)=2 \sigma\left(\operatorname{FFNN}_{w}(\cdot)\right)-1 \\ F_{s}(\cdot)=2 \sigma\left(\operatorname{FFNN}_{s}(\cdot)\right)-1 \end{gathered} $ $\sigma$ はシグモイド関数である. $\epsilon$ は変換による移動を調整するハイパーパラメータである。具体的には,変換前の BERT 埋め込みからの相対 L2 距離を $\left.\|\mathbf{v}_{w}-\hat{\mathbf{v}}_{w}\right.\| /\left.\|\hat{\mathbf{v}}_{w}\right.\| \leq \epsilon \sqrt{N_{d}}$ に抑える ${ }^{3)}$. この距離制約の意図は,自己学習の促進である,BERTによる類似度特性を適度に保つことで,語義・用例の不正確な対応付けによる精度低下の悪循環を回避する. 距離制約の有効性は実験的に検証する(§ 5.2). ## 3.3 訓練の目的関数 訓練時の目的関数は,吸引 - 反発学習損失 $L^{\mathrm{AR}}$ および自己学習損失 $L^{S T}$ の加重和である. $ L=L^{\mathrm{AR}}+\alpha L^{\mathrm{ST}} $ $\alpha$ は自己学習の重要度を制御するハイパーパラメー タである。両学習を併用する動機は,相互補完的な役割にある。吸引・反発学習は語義間の識別性に寄与するが,語義・用例対への教師信号はない。一方で自己学習(§ 3.3.2)は語義・用例対への教師信号を提供するが,単体では BERT が既に対応付けた語義・用例対を強化するのみで新規の情報は限られるはずである。その効果は実験的に検証する(§ 5.1). 2)層数は 2,活性化関数は ReLU とする. 3)残差接続 $F$ の出力は各次元要素が $[-1,1]$ に制約されるため. $N_{d}$ は次元数. bert-large-cased では $N_{d}=1,024$. ## 3.3.1 吸引・反発学習 吸引・反発学習に用いる語義対は,WordNet の意味関係知識から作成する. 具体的には語義 $s$ に対し $\tau$, 関連 $\delta_{s}^{P}$, 異義 $\delta_{s}^{N}$, 無関連 $\delta_{s}^{U}$ の 3 種類の語義集合を取得する. $\mathcal{S}_{S}^{P}$ は同義や上位下位など,意味関係でつながる語義である. 正確な定義は先行研究 [6] に従う(付録 A). $\delta_{s}^{N}$ は共通のレンマを持つ異なる語義である ${ }^{4)} . \delta_{s}^{U}$ は乱択した語義である. 語義の統計量を付録表 5 に示す. 吸引・反発損失 $L^{\mathrm{AR}}$ の定式化は,対照損失を用いる. 具体的には語義 $s$ に対して, 関連 $\delta_{s}^{P}$ を近づけて,異義 $\delta_{s}^{N}$ および無関連 $\delta_{s}^{U}$ を遠ざける.まず,乱択ミニバッチ内の語義 $s \in \mathcal{S}^{B}$ を所与とする. 次に $s$ を除いたものを無関連 $\mathcal{S}_{S}^{U}=\mathcal{S}^{B} \backslash\{s\}$ とする. 同様に $s_{p}$ は $\delta_{s}^{P}$ から 1 個を乱択, $\tilde{S}_{s}^{N}$ は $\delta_{s}^{N}$ から最大 5 個を乱択する。 $L^{\mathrm{AR}}$ の定義は以下のとおり ${ }^{5)}$. $ \begin{gathered} L^{\mathrm{AR}}=-\sum_{s \in \mathcal{S}^{B}} \ln \frac{\exp \left(\beta \rho_{s, s_{p}}\right)}{\sum_{s^{\prime} \in\left(\left.\{s_{p}\right.\} \cup \mathcal{S}_{s}^{U} \cup \tilde{\mathcal{S}}_{s}^{N}\right)} \exp \left(\beta \rho_{s, s^{\prime}}\right)} \\ \rho_{s, s^{\prime}}=\cos \left(\mathbf{e}_{s}, \mathbf{e}_{s^{\prime}}\right) \end{gathered} $ ## 3.3.2 自己学習 自己学習に用いる語義 - 用例対は, WordNet の語義目録から作成する. 具体的には,対象単語 $w$ のレンマ・品詞ペアに紐づく語義の集合 $S_{w}$ を取得する. 自己学習損失 $L^{\mathrm{ST}}$ の定式化は,用例に最も近い語義との類似度を最大化する. すなわち, 最近傍語義を擬似的な正解とする学習である. 具体的には,用例文に含まれる対象単語 $w \in \mathscr{W}^{B}$ の候補語義集合 $S_{w}$ を取得する. そして単語と語義の埋め込みをそれぞれ変換して cosine 類似度を計算し,候補内での最大値を取る. $ \begin{gathered} L^{\mathrm{ST}}=\sum_{w \in \mathscr{W}^{B}}\left(1-\max _{s \in \mathcal{S}_{w}} \rho_{w, s}\right) \\ \rho_{w, s}=\cos \left(\mathbf{v}_{w}, \mathbf{e}_{s}\right) \end{gathered} $ 最近傍語義は不変ではなく,変換関数の学習につれて変わることに注意されたい,変化させる意図はブートストラップである。すなわち訓練が進捗して精度が向上する過程で,擬似正解の正確性も向上する好循環を期待する。変換前後の距離制約(§ 3.2) はその逆,すなわち悪循環を回避する意図である。 4)すなわち,多義語の語義集合から自身を除いたもの. 5)距離学習の先行研究 $[15,16]$ に倣い, $\beta=64$ に設定した. ## 3.4 Try-again Mechanism (TaM) 経験則 推論で最近傍語義を選ぶとき, Try-again Mechanism (TaM) なる経験則が有効であると知られている $[17,6,8]$. そこで,提案手法に TaMを併用する効果を報告する.TaM の概要は,候補語義を 2 つに絞り込み,各語義が属する意味カテゴリとの類似度を考慮して再順位付けする処理である。具体的なアルゴリズム(付録 C)は,先行研究 [17] を参照されたい. ## 4 実験 吸引・反発学習の訓練データとなる語義対は WordNetを用いた(語義数は 206,949)。自己学習の用例文は,正解語義を削除した ${ }^{6)}$ SemCor コーパス [20]を用いた(単語数は 226,036),ハイパーパラメータ調整(付録 D)の開発データは,評価データのサブセット SE07 を使用した. WSD タスクの評価データ・方法は, 標準評価プロトコル [21] に従った. 表 1 にWSD タスクの性能を示す. 提案手法 ベースの先行研究を上回った. 特に $\mathrm{TaM}$ 経験則併用時の SS-WSD $\mathrm{k}_{\mathrm{kb}}$ は,文のみの情報を用いるにも関わらず,既存の最高精度である COE 0.8 ポイント上回り, 知識ベース WSD の最高精度を更新した. TaM 経験則の寄与は+2.2 ポイント(SS-WSD $\left.\mathrm{kb}_{\mathrm{kb}}-\mathrm{SS}-\mathrm{WSD}_{\mathrm{emb}}\right)$ だった. 次に, TaM 経験則を使用しない場合に注目する. 提案手法による適応の効果は+9.3 ポイント (SS-WSD emb $-\mathrm{BERT})$ だった. 関連語義対の吸引のみで適応を行う先行研究 SREF の効果は+5.4 ポイント (SREF emb $-\mathrm{BERT}$ )なので,提案手法は語彙知識の活用効率が高いことが示唆される。また品詞別に効果を調べると,動詞の 10.2 ポイントが最大である. この結果は,動詞の関連語義数・異義数が平均 13.0 および 4.1 個と最多であること(付録表 5),すなわち吸引・反発学習の教師信号が豊富な事実と整合する. 最後に, 教師ありWSD の先行研究と比較する.用例文の正解語義を用いて語義埋め込みを計算する Sup-kNN および,正解の語義・用例対を用いて BERT をファインチューニングする BEM に対して,提案手法 SS-WSD $\mathrm{emb}_{\mathrm{mb}}$ との差はそれぞれ +1.4 と -4.1 ポイントだった. 提案手法が教師あり WSD の性能に近づきつつあることは,特筆すべき結果である. 6)自己学習に必要なのはレンマ・品詞のみであるため. 形態素解析・複単語表現解析ずみ平文コーパスでも代用できる. (括弧内),および先行研究最高精度との有意差(スチューデントの両側 $t$ 検定, $*: p<0.05$ )を報告. 太字は各区分の最高精度. 下線は開発データの精度. “文書” 列は推論時の文書情報の要否. $\{$ BEM, Sup-KNN, SREF kb, COE $\}$ は原論文から引用. } & BERT & $x$ & 67.8 & 62.7 & $\overline{54.5}$ & 64.5 & 72.3 & 67.8 & 52.3 & 74.0 & 77.7 & 65.6 \\ 表 2 提案手法の一部無効化による性能変化. アブレー ション列は無効化した対象. $\Delta$ 列は無効化前との差分.全差分は統計的に有意 (Welchの両側 $t$ 検定, $p<0.05$ ). 表 3 語義対, 正解語義・用例対の平均 cosine 類似度. ## 5 考察 ## 5.1 目的関数の効果 表 2 に,目的関数(§3.3)の一部無効化による性能変化を示す.変化から有効性の源泉を探る。 吸引・反発学習または自己学習を無効化すると, それぞれ 3.3 と 4.4 ポイント性能が低下する. ゆえに両学習の併用は相補的であることが示唆される. 吸引・反発学習から無関連語義または異義との反発を無効化すると,精度はそれぞれ 5.0 および 1.4 ポイント低下する. したがって意味的なつながりがない,または異なる語義を遠ざけることはいずれも有効である。なお無関連語義の寄与が異義を上回る理由は, 訓練事例数が考えられる。前者は 255 個 ${ }^{7}$ であるが,後者は平均 1.3 個(付録表 5)である. 文脈埋め込みの変換関数を無効化すると,精度は 3.2 ポイント低下する. したがって語義・文脈埋め込みはいずれも適応させるべきであり,SERFのような語義埋め込みの適応のみでは不十分である。 表 3 に類似度の変化を示す. 適応により,無関連  図 2 埋め込み変換関数の距離制約ハイパーパラメータ $\epsilon$ (§3.2)と WSD 性能の関係. デフォルト設定( $\epsilon=0.015 )$ の精度を水平点線で表示. *は精度差分の統計的有意性 (Welch の両側 $t$ 検定, $*: p<0.05, * *: p<0.005$ ). および異義がお互いに離れ,正解語義・用例が近づいた.この結果は提案手法の狙いと整合している. ## 5.2 距離制約の効果 図 2 に,変換による移動を制約するハイパーパラメータ $\epsilon$ の性能への影響を示す. $\epsilon$ に対して精度は逆 $\mathrm{U}$ 字曲線を示すことから,厳しい制約( $\epsilon$ 小)と緩い制約 $(\epsilon$ 大) の中間が最適であることが分かる. ゆえに,意味適応を有効に機能させるため,適応時の類似度空間の変化を制限することが重要である。 ## 6 まとめ 本研究では, BERT が計算する語義・文脈埋め込みを,語彙知識を用いて WSD に適応させる手法を提案した. 提案手法の性能は,文書情報を用いずに従来の知識ベース WSD 最高精度を上回った. これにより,文単体のみでも意味適応による高精度が実現できることを示した,有効性の主要因は,吸引・反発学習と自己学習の併用, 文脈埋め込みの適応, および変換時の距離制約であることを示した。 語彙資源のみで高精度を実現する本手法は,資源が乏しい言語 [22]に好適である. 多言語モデルによる英語からのゼロショット転移学習,および多言語語彙資源の学習による多言語 WSDに取り組みたい. ## 謝辞 本研究は JSPS 科研費 $19 H 01118$ の助成を受けた. ## 参考文献 [1] Chiraag Sumanth and Diana Inkpen. How much does word sense disambiguation help in sentiment analysis of micropost data? In Proceedings of the 6th Workshop on Computational Approaches to Subjectivity, Sentiment and Social Media Analysis, WASSA@EMNLP 2015, pp. 115-121, 2015. [2] Chihli Hung and Shiuan-Jeng Chen. Word sense disambiguation based sentiment lexicons for sentiment classification. Knowledge-Based Systems, Vol. 110, pp. 224-232, 2016 [3] Zhi Zhong and Hwee Tou Ng. Word sense disambiguation improves information retrieval. In Proceedings of the 50th Annual Meeting of the formation retrieval. In Proceedings of the 50th Annual Meeting [4] Niccolò Campolungo, Federico Martelli, Francesco Saina, and Roberto Navigli. Dibimt: A novel benchmark for measuring word sense disambiguation biases in machine translation. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics, pp. 4331-4352, 2022 . [5] Christiane Fellbaum. WordNet: An Electronic Lexical Database. The MIT Press, 1998. [6] Ming Wang and Yinglin Wang. A synset relation-enhanced framework with a try-again mechanism for word sense disambiguation. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing, pp. 6229-6240, 2020. [7] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: pre-training of deep bidirectional transformers for language understanding. In pre-training of deep bidirectional transformers for language understanding. In of the Association for Computational Linguistics: Human Language Technologies, pp. 4171-4186, 2019. [8] Ming Wang, Jianzhang Zhang, and Yinglin Wang. Enhancing the context representation in similarity-based word sense disambiguation. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 8965-8973, 2021. [9] Ivan Vulic and Nikola Mrksic. Specialising word vectors for lexical entailment. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1134-1145, 2018. [10] Michael Lesk. Automatic sense disambiguation using machine readable dictionaries: how to tell a pine cone from an ice cream cone. In Proceedings of the 5th Annual International Conference on Systems Documentation, SIGDOC 1986, pp. 24-26, 1986 . [11] Emily Reif, Ann Yuan, Martin Wattenberg, Fernanda B. Viégas, Andy Coenen, Adam Pearce, and Been Kim. Visualizing and measuring the geometry of BERT. In Advances in Neural Information Processing Systems 32. pp. 8592-8600, 2019 . [12] Daniel Loureiro, Kiamehr Rezaee, Mohammad Taher Pilehvar, and José Camacho-Collados. Analysis and evaluation of language models for word sense disambiguation. Comput. Linguistics, Vol. 47, No. 2, pp. 387-443, 2021 . [13] William A. Gale, Kenneth Ward Church, and David Yarowsky. One sense per discourse. In Speech and Natural Language: Proceedings of a Workshop Held at Harriman, New York, USA, February 23-26, 1992, 1992. [14] Kim Anh Nguyen, Maximilian Köper, Sabine Schulte im Walde, and Ngoc Thang Vu. Hierarchical embeddings for hypernymy detection and directionality. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 233-243, 2017. [15] Jiankang Deng, Jia Guo, Niannan Xue, and Stefanos Zafeiriou. Arcface: Additive angular margin loss for deep face recognition. In IEEE Conference on Computer Vision and Pattern Recognition, pp. 4690-4699, 2019. [16] Hao Wang, Yitong Wang, Zheng Zhou, Xing Ji, Dihong Gong, Jingchao Zhou, Zhifeng Li, and Wei Liu. Cosface: Large margin cosine loss for deep face recognition. In 2018 IEEE Conference on Computer Vision and Pattern Recognition, pp. 5265-5274, 2018. [17] Ming Wang and Yinglin Wang. Word sense disambiguation: Towards interactive context exploitation from both word and sense perspectives. In putational Linguistics and the 11th International Joint Conference on Natural Language Processing, pp. 5218-5229, 2021. [18] Daniel Loureiro and Alípio Jorge. Language modelling makes sense: Propagating representations through wordnet for full-coverage word sense disamfor Computational Linguistics, pp. 5682-5691, 2019 [19] Terra Blevins and Luke Zettlemoyer. Moving down the long tail of word sense disambiguation with gloss informed bi-encoders. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1006-1017, 2020. [20] George A. Miller, Claudia Leacock, Randee Tengi, and Ross Bunker. A semantic concordance. In Human Language Technology: Proceedings of a Workshop Held at Plainsboro, New Jersey, USA, March 21-24, 1993, 1993 . [21] Alessandro Raganato, José Camacho-Collados, and Roberto Navigli. Word sense disambiguation: A unified evaluation framework and empirical comparison. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics, pp. 99-110, 2017. [22] Tommaso Pasini. The knowledge acquisition bottleneck problem in multilin- gual word sense disambiguation. In Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence, pp. 4936-4942, 2020 [23] Yinglin Wang, Ming Wang, and Hamido Fujita. Word sense disambiguation: A comprehensive knowledge exploitation framework. Knowledge Based System, Vol. 190, p. 105030, 2020. [24] Michele Bevilacqua and Roberto Navigli. Breaking through the $80 \%$ glass ceiling: Raising the state of the art in word sense disambiguation by incorporating knowledge graph information. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 2854-2864, 2020 . [25] Caterina Lacerra, Michele Bevilacqua, Tommaso Pasini, and Roberto Navigli. CSI: A coarse sense inventory for $85 \%$ word sense disambiguation. In The Thirty-Fourth AAAI Conference on Artificial Intelligence, AAA 2020, The Thirty-Second Innovative Applications of Artificial Intelligence Conference, IAAI 2020, The Tenth AAAI Symposium on Educational Advances in Artificial Intelligence, EAAI 2020, pp. 8123-8130, 2020. [26] Takuya Akiba, Shotaro Sano, Toshihiko Yanase, Takeru Ohta, and Masanori Koyama. Optuna: A next-generation hyperparameter optimization framework. In Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery \& Data Mining, pp. 2623-2631, 2019. [27] Tommaso Pasini, Alessandro Raganato, and Roberto Navigli. XL-WSD: an extra-large and cross-lingual evaluation framework for word sense disambiguation. In Thirty-Fifth AAAI Conference on Artificial Intelligence, AAAI 2021, Thirty-Third Conference on Innovative Applications of Artificial Intelligence, IAAI 2021, The Eleventh Symposium on Educational Advances in Artificial Intelligence, EAAI 2021, pp. 13648-13656, 2021. [28] Sameer Pradhan, Edward Loper, Dmitriy Dligach, and Martha Palmer Semeval-2007 task-17: English lexical sample, SRL and all words. In Proceedings of the 4th International Workshop on Semantic Evaluations SemEval@ACL 2007, pp. 87-92, 2007. [29] Jens Behrmann, Will Grathwohl, Ricky T. Q. Chen, David Duvenaud, and Jörn-Henrik Jacobsen. Invertible residual networks. In Proceedings of the 36th International Conference on Machine Learning, Vol. 97 of Proceedings of Machine Learning Research, pp. 573-582, 2019. ## A 語彙資源 表 4 WordNet 語彙資源の語義の具体例 表 4 に,提案手法が使用する語彙資源の具体例として,語義 computer\%1:06:00: :8) を示す. 関連語義の定義は先行研究 [6] の論文および実装9) に従う,具体的には,それぞれの sense key に対して,まず derivationally_related_forms 関係にある sense keys を加えて集合を拡張する. 次に sense keys が接続する synsets を収集する。そして,各 synset に対して,表 6 で示した意味関係にある synsetを加えて集合を拡張する.最後に, synsets に属する sense keys を収集し,関連語義とする ${ }^{10)}$. ## B BERTによる埋め込みの計算 BERTによる埋め込みの計算は,先行研究 $[23,24,6]$ に倣う。モデルは bert-large-cased ${ }^{11}$ を用いる. エンコー ド時には [CLS]および [SEP] トークンを付与して, 次元要素ごとの最終 4 層の和を,サブワードの埋め込みとする。文脈埋め込みは,対象単語を構成するサブワードの平均とする. 語義埋め込みの計算は,先行研究 SREF [6] に従う. 具体的には, 所与の sense key に対して,レンマ・同義語 $n$ 個・語釈文・例文 $m$ 個からなる連結文をエンコードする. そして連結文を構成する全サブワードの平均を,語義埋め込みとする。連結文のテンプレートを以下に示す. 具体例として, 語義 computer\%1:06:00: : の連結文を示す. computer - computer, computing device, data processor, ... - a machine for performing calculations automatically なお,WordNet 語義の大半は例文がないか,短文である. 先行研究 [6] は独自に収集した例文を併用しているが,我々は WordNet に収録された例文のみを使用した。 ## C Try-again Mechanism (TaM) Try-again Mechanism (TaM) はいくつかの派生版がある $[6,8,17]$. 本研究では簡便性に優れる Wang ら [17] のアルゴリズム ${ }^{12)}$ を使用する。具体的には,対象単語 $w$ に対する類似度 $\rho_{w, s}$ (式 4)が上位 2 個の候補語義 $s \in\left.\{s_{1}, s_{2}\right.\}$ について,各語義が属する Coarse Sense Inventory (CSI) [25] 8)単語 computer の “計算機” の意味を指す.なお異義 computer\%1:18:00: : は“計算手”の意味を指す. 9) https://github.com/lwmlyy/SREF 10)実装には nltk.corpus.wordnet package を用いた. 11)実装には transformers package を用いた。 12) https://github.com/lwmlyy/SACE表 5 WordNet 語彙資源の統計量(関連・異義数は平均値) 表 6 関連語義の収集に使用する WordNet の意味関係 の意味カテゴリとの類似度を加算した類似度 $\rho_{w, s}^{+}$を計算する. そのうえで $\rho_{w, s}^{+}$が最大の語義を選択する. $ \rho_{w, s}^{+}=\rho_{w, s}+\max _{s^{\prime} \in \mathcal{S}_{s}^{\mathrm{CSI}}} \rho_{w, s^{\prime}} $ $\delta_{s}^{C S I}$ は, 語義 $s$ と同じ意味カテゴリに属する語義の集合13) である. CSI は WordNet 語義を 45 個の意味カテゴリに分類 ${ }^{14)}$ した語義目録である. よって式 14 の右辺第 2 項は,粗粒度で同一視できる語義との類似度を表している。 ## D 実験設定の詳細 訓練時の最適化アルゴリズムは,Adam (学習率 0.001) を用いた. エポック数は 15 とした. 提案手法のハイパー パラメータは,ミニバッチサイズ $N_{B}=256$, 自己学習の重要度 $\alpha=0.2$, 変換時の距離制約 $\epsilon=0.015$ に設定した. ハイパーパラメータの調整は,開発データによる八イパーパラメータ最適化を使用した。具体的には,パラメータ空間 $N_{B} \in\{64,128,256,512,1024\} , \alpha \in[0.1,10]$, $\epsilon \in[0.001,0.1]$ を探索 ${ }^{15)}$ したあとで, $\epsilon \in[0.01,0.02]$ を刻み幅 0.001 でグリッドサーチした.最適化の目標は,TaM 経験則無効時の WSD タスク精度とした. 開発データは先行研究 [27] の慣習にならい,評価データのサブセットである SE07 (SemEval-2007 [28])を使用した。なお最適化の結果,256より大きいミニバッチサイズは性能に寄与しなかった. また $\alpha$ は $\epsilon$ よりも鈍感であった. WSD タスクの評価データ・方法は,標準評価プロトコル [21] に従った. 推論アルゴリズムは, TaM 経験則無効の場合は式 4 ,有効の場合は式 14 である. 評価指標はマイクロ $\mathrm{F}$ 値である ${ }^{16)}$. 訓練は異なるランダムシードで 5 回実行して,平均および標準偏差を報告した。 ## E 性能が向上しなかった手法 予備実験で性能向上に寄与しなかった手法を報告する。 ・吸引・反発学習で,異義に重み付けすること ・自己学習で,非最近傍の候補語義を遠ざけること ・移動距離に対する L2 正則化を併用すること ・変換関数を可逆 [29] にすること ・語義・文脈変換関数をパラメータ共有すること 13)語義が CSI に未採録の場合は空集合になる. 14)たとえば語義 computer $\% 1: 06: 00:$ : は,意味カテゴリ CRAFT_ENGINEERING_AND_TECHNOLOGY_に分類される。 15) 探索アルゴリズムは optuna [26] の TPESampler を用いた. 16)提案手法の予測語義数は常に 1 個なので,マイクロ $\mathrm{F}$ 值は適合率および再現率と一致する [27].
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C3-2.pdf
# 文書の分散表現を用いたトピック分析手法の提案 中山悠理 ${ }^{1}$ 小林亮太 ${ }^{1,2}$ 1 東京大学大学院 新領域創成科学研究科 2 東京大学 数理・情報教育研究センター \{3645588575,r-koba\}@edu.k.u-tokyo.ac.jp ## 概要 トピック分析は,多数の文書から主要なテーマを抽出する技術であり,大規模なテキストデータの分析を可能にする.トピック分析を行う代表的手法としてトピックモデル (LDA など) があり,様々な分野に応用されてきた. 一方で, この手法を文書の単語数が少ないソーシャルメディアデータなどに適用すると,人間が解釈しやすいテーマ(トピック)が得れないという問題がある。本研究では文書の分散表現に基づくトピック分析手法を提案し,2つのデー タセットを用いてトピック分析手法の性能を評価した. ## 1 はじめに デジタル化が進み,ニュース,Webページ,論文,書籍など様々な形のテキストデータを利用できるようになりつつある. テキストデータを整理,理解するための 1 つの方法は,人間が実際にテキストを読んで意味解釈を行うことである. しかし,オンライン上のテキストデータは爆発的に増えているため,全てのデータを人手で意味解釈することは不可能である. テキストデータの例として,多数のニュース記事 (文書) の集合を考えよう,それぞれのニュース記事には,政治,経済,スポーツ,科学など記事のテー マがあるだろう.トピック分析の目的は,テキストデータから記事のテーマを自動的に発見し,ニュー ス記事をテーマが似たいくつかのグループに分類することである.トピック分析を行う代表的手法として,トピックモデル (Latent Dirichlet Allocation, LDA) [1] が挙げられる. LDA は,1)トピックはいくつかの単語の組み合わせによって決まる,2) 文書はいくつかのトピックが組み合わさったものである,という仮定のもとで,多量のテキストデータからトピック群を抽出する統計モデルである。トピッ クモデルは,テキストデータの分析で広く使われており,バイオインフォマティクス [2], 科学計量学 (scientometrics) [3], 政治学 [4] などに応用されている. Twitter や Reddit などのソーシャルメディアから得られるテキストデータの分析は, 東日本大震災 [5] [6] [7] や Covid-19 [8] などの災害,あるいは,選挙 [9] や Covid-19 ワクチン [10] [11] などの社会的課題に対する人々の認識を把握することへの一助となることが期待されている。 その一方で,ソー シャルメディアデータの特徵として,1) 文書 (ツイートやコメント)の単語数が少ない,2)誤字脱字などにより出現頻度の少ない単語が多数現れる, という 2 点が挙げられる. そのため,このようなデータにLDAを適用すると,人間にとって解釈困難なトピックが得られてしまう. 前者の問題 (文書の短さ) に対応するため, Author Topic Model [12] や TwitterLDA [13] など LDA を拡張したモデルが提案されている. しかしながら,ソーシャルメディアデータからトピック抽出を行うことは依然として困難な状況にある。 本研究では, 文書の分散表現 (文書の埋め込み) に基づくトピック分析手法を提案する。 そして,20 Newsgroup と AG's corpus の 2 つのデータセットを用いて提案手法の性能評価を行い,既存手法である LDA と比較を行った. ## 2 提案手法 本研究では,多量の文書を $K$ 個のトピックに分類する手法を提案する。提案手法は, ・文書をベクトルに埋め込む(3.1 節). ・得られた埋め込みべクトルを混合ガウスモデルを用いてクラスタリングを行う(3.2 節)。 の 2 段階に基づく.以降では,上の 1),2にについて 説明する。 ## 2.1 埋め込みべクトルの計算 この節では,文書 (単語列) から埋め込みベクトルを計算する方法を説明する。自然言語処理で広く用いられている単語埋め込みは文書中の個々の単語をベクトルに変換することであるが,文書埋め込みは文書全体を 1 つのベクトルに変換することである. これにより,単語数が異なる文書群をべクトル群として表現できる. 本研究では 2 つの機械学習モデル, doc2vec [14] と Sentence-BERT (SBERT) [15] を用いた. doc2vec は,単語の埋め込みべクトルを計算する word2vec [16] から着想を得て開発されたものである. doc2vecでは埋め込みべクトルの次元 $D$ を変えることができる.今回は $D=2,4, \cdots, 160$ を検討した. 本研究では, Python ライブラリ gensim[17]を使用して doc2vec の埋め込みベクトルを計算した. SBERT [15] は NLI データセットから事前学習された機械学習モデルである. SBERT は, 文書埋め込みべクトルを得るため,BERT [18]に pooling 処理を追加したものである. SBERT の出力ベクトルの次元は変更できないため, 固定値 $D=384$ を用いた.本研究では, hugging face を通して公開されている all-MiniLM-L6-v2 ${ }^{1)}$ を使用した. 前処理として, 文書べクトル $\mathbf{v}_{i}$ から平均ベクトルを引いて中心化された文書べクトル $\overline{\mathbf{v}}_{i}$ を計算した. $ \overline{\mathbf{v}}_{i}=\mathbf{v}_{i}-\mathbf{m}_{\mathbf{v}} $ ただし, $\mathbf{m}_{\mathbf{v}}=\frac{1}{n} \sum_{i=1}^{n} \mathbf{v}_{i}$ は平均ベクトル,$n$ はデータセットの文書数を表す。必要に応じて,中心化されたべクトル $\overline{\mathbf{v}}_{i}$ のノルムが 1 になるように正規化を行なった. ## 2.2 混合ガウス分布によるクラスタリング 次に,埋め込みべクトルを混合ガウスモデルを用いてクラスタリングした. 埋め込みベクトルの確率分布 $p(\mathbf{x})$ を以下の式で表される混合ガウス分布でフィットした: $ p(\mathbf{x} \mid \mu, \boldsymbol{\Sigma}, \pi)=\sum_{i=1}^{K} \pi_{i} \mathcal{N}\left(\mathbf{x} \mid \mu_{i}, \boldsymbol{\Sigma}_{i}\right) $ ただし, $K$ はトピック数, $\mathcal{N}\left(\mathbf{x} \mid \boldsymbol{\mu}_{i}, \boldsymbol{\Sigma}_{i}\right)$ は $D$ 次元ガウス分布 (平均ベクトル: $\mu_{i}$, 共分散行列: $\boldsymbol{\Sigma}_{i}$ ), $\pi_{i}$ は混合比を表す. 1) https://huggingface.co/sentence-transformers/all-MiniLM-L6-v2本研究では,共分散行列 $\Sigma_{i}$ として,以下の 3 つの場合で比較を行なった: - full: $\Sigma_{i}$ は正定値行列 (制約なし). - diag: $\Sigma_{i}$ は正定値かつ対角行列. - scalar: $\Sigma_{i}$ は正定値かつ単位行列の定数倍. パラメータ $\mu_{i}, \Sigma_{i}, \pi_{i}$ は逐次的に計算することによって推定できる [19]. 混合ガウス分布のパラメータ推定は,python パッケージ scikit-learn[20] を用いて行なった。 ## 3 実験 ## 3.1 データセット 本研究では, 20 Newsgroups(20News) [21], AG's corpus [22]の 2 つのデータセットを用いた. 20News はニュース記事のデータが 20 種類のテーマ (医学,銃問題, 中東の政治など) に分類されたものである. このデータセットには,自然言語でない長文が含まれていたため,単語数が上位 $0.01 \%$ の文書を除いて分析した. AG's corpus は 12 万件のニュース記事を集めたものであり,ニュース記事の本文とタイトルが 4 つのテーマ (世界, 科学/技術,スポーツ,ビジネス) に分類されている. データセットを,ニュース記事 (AgNews) とタイトル (AgTitle) に分けて分析を行なった. 表 1 は,データセットの平均単語数,文書数を示す. 表 1 本研究で用いたデータセット ## 3.2 評価指標 本研究では,抽出されたトピックの性能を評価するための指標として,補正された相互情報量 (AMI, Adjusted Mutual Information) [23] と Coherence スコア $C_{V}$ [24] を用いた. AMI は分類の類似度についての指標である.今回は人手でつけられた文書の分類結果と,トピック抽出モデルで得られた分類結果の類似度を AMI で評価し,AMI をトピックの分類精度であると考える。 AMI は 1 以下の值を取る指標である. 2 つの分類結果が完全に一致するときのみ AMI は 1 をり,2つの分類結果の類似度はランダムな場合と同程度の場合には AMI は 0 をとる. AMI は Python ライブラリ scikit-learn[20] を用いて計算した. Coherence score $C_{V}$ はトピックの解釈性についての指標であり,トピック内の文書の単語分布により計算される。 $C_{V}$ は人間による解釈結果と相関があり,人にとって解釈しやすいトピックでは高い値を取る傾向にある. $C_{V}$ は Python ライブラリ gensim [17] を用いて計算した。 ## 3.3 埋め込み方法の検討 まず,埋め込み次元を変更できる doc2vec について,次元が分類精度 (AMI) に与える影響を調べた. 混合ガウスモデルの共分散行列を scalar として,トピック数 $K$ はそれぞれのデータセットと同じ数 (20News: 20, AgNews: 4) にしてトピック抽出を行なった. 図 1 は,2つのデータセット (A. 20news, B. AgNews) から分類精度を計算した結果である。その結果,分類精度は埋め込みの次元に大きく影響を受け, 20News では 80 次元, AgNews では 8 次元,とすると精度が最も高くなった. また,埋め込み次元が低次元の場合を除き,正規化 (図 1: オレンジ) は分類精度を向上させた. 次に,SBERTを用いて文書埋め込みを計算し,正規化が分類精度 (AMI) に与える影響を調べた (表 2). doc2vec の時ほど大きな効果はないものの,正規化はSBERT を用いた場合でも分類精度を向上させることがわかった。また,最適な埋め込み次元を用いた doc2vec と SBERT で分類精度 (AMI)を比較した (表 3). いずれのデータセットに対しても,SBERT の方が高い分類精度を達成した。 以降の解析では,データセットに応じて埋め込み次元を調整する必要がなく, 高い分類精度を達成したSBERT (正規化あり)を用いて文書埋め込みを行なった. 表 2 正規化が分類精度 (AMI) に与える影響. 埋め込みモデルはSBERTを用いた。 埋め込み次元 埋め込み次元 図 1 埋め込み方法 (埋め込み次元と正規化) が分類精度 (AMI) に与える影響 (A. 20news, B. AgNews). 埋め込みモデルは doc2vecを用いた。 表 3 埋め込み用いる機械学習モデルの違いによる分類精度 (AMI) の比較.太字は最も精度の高い機械学習モデルを示す. ## 3.4 混合ガウスモデルの共分散行列の検討 クラスタリングアルゴリズム ( 2.2 節) の違いが分類精度 (AMI) に与える影響を調べるため,3 種類の共分散行列 (full, diag, scalar) を用いた混合ガウスモデルでトピック抽出を行い,分類精度を比較した (表 4).この結果,共分散行列に制限を加えない (full) と,単位行列 (scalar) に比べて分類精度がわずかに向上することがわかった.以降では,共分散行列には制限を加えずに (full) 分析を行なった. 表 4 共分散行列が分類精度 (AMI) に与える影響. 太字は最も精度の高い共分散行列を示す。 ## 3.5 実験結果 最後に,提案手法と既存手法である LDAを用いて,文書群のトピック分析を行い,性能比較を行なった。提案手法では,機械学習モデルSBERTを用いて埋め込みを行い,正規化をした上で,制約なし (full) の共分散行列を持つ混合ガウスモデルを使ってクラスタリングを行なった。また,LDA を用いた実験では,前処理として"I","is","a"など,文書の内容にかかわらず出現する単語(stop words) を除去し, LDA の分析には Python ライブラリ gensim [17]を用いた。 表 5 は, 20News, AgNews の 2 つのデータセットについて,分類精度についての指標である AMI とトピックの解积性についての指標である $C_{V}$ を比較したものである. 提案手法は, AMI, $C_{V}$ のいずれの指標についても, 既存手法 (LDA) に比べて高い性能を達成した. この結果は, 提案手法のトピック分析結果は, 既存手法に比べて, 人間が分類した結果により近く,トピックもより解釈しやすいものになっていることを示唆している. 次に,ツイートのような文書の単語数が少ない場合の性能を評価するため, AG's corpus のニュースタイトルを文書としたデータセット (AgTitle) についてトピック分析を行なった. ニュース記事のデータセットと同様に,提案手法は,AMI, $C_{V}$ のいずれの指標についても,既存手法 (LDA) に比べて高い性能を達成した. 既存手法 (LDA) の分類精度 (AMI) はチャンスレベルと同程度になっている.この結果は,LDA はトピック分類ができていないことを示唆している。 その一方で,提案手法は, AgNews (ニュース記事データ)に比べると性能が低下するものの,ニュースタイトルだけを分析した場合にも AMI: $0.50, C_{V}: 0.84$ と高い性能を示した. この性能は, AgNewsの LDA よりも高い性能であった. 表 5 提案手法 (SBERT) と既存手法 (LDA) の性能比較.太字は精度が高い手法を示す。 ## 4 おわりに 本研究では,テキストデータからトピックを抽出するタスクにおいて, 文書埋め込みと混合ガウスモデルを組み合わせた手法を提案した。そして,人手によってトピックが付与された 20 News,AG's corpusの 2 つのデータセットを用いて,トピック分析手法の性能評価を行なった。その結果,提案手法は,既存手法である LDA に比べて高い性能であること,つまり,より人間に近いトピック分類を行い (AMI が高い),トピックが解釈しやすい (Topic Coherence $C_{V}$ が高い)ことが示された. さらに,提案手法は短い文書 (ニュースタイトルのみ) に対しても,高性能なトピックを抽出できることを示唆する結果が得られた。 ## 謝辞 本研究は, JSPS 科研費 JP18K11560, JP19H01133, JP21H03559, JP21H04571, JP22H03695, AMED JP21wm0525004,JST さきがけ JPMJPR1925 の支援を受けたものである. ## 参考文献 [1] David M Blei, Andrew Y Ng, and Michael I Jordan. Latent dirichlet allocation. Journal of machine Learning research, Vol. 3, pp. 993-1022, 2003. [2] Lin Liu, Lin Tang, Wen Dong, Shaowen Yao, and Wei Zhou. An overview of topic modeling and its current ap- plications in bioinformatics. SpringerPlus, Vol. 5, No. 1, p. 1608. [3] Thomas L. Griffiths and Mark Steyvers. Finding scientific topics. Proceedings of the National Academy of Sciences, Vol. 101, No. suppl_1, pp. 5228-5235, 2004. [4] Justin Grimmer and Brandon M. Stewart. Text as Data: The Promise and Pitfalls of Automatic Content Analysis Methods for Political Texts. Political Analysis, Vol. 21, No. 3, pp. 267-297. [5] Son Doan, Bao-Khanh Ho Vo, and Nigel Collier. An Analysis of Twitter Messages in the 2011 Tohoku Earthquake. In Patty Kostkova, Martin Szomszor, and David Fowler, editors, Electronic Healthcare, Lecture Notes of the Institute for Computer Sciences, Social Informatics and Telecommunications Engineering, pp. 58-66. Springer. [6] Misako Takayasu, Kazuya Sato, Yukie Sano, Kenta Yamada, Wataru Miura, and Hideki Takayasu. Rumor Diffusion and Convergence during the 3.11 Earthquake: A Twitter Case Study. PLOS ONE, Vol. 10, No. 4, p. e0121443. [7] Takako Hashimoto, David Lawrence Shepard, Tetsuji Kuboyama, Kilho Shin, Ryota Kobayashi, and Takeaki Uno. Analyzing temporal patterns of topic diversity using graph clustering. The Journal of Supercomputing, Vol. 77, No. 5, pp. 4375-4388. [8] Shu-Feng Tsao, Helen Chen, Therese Tisseverasinghe, Yang Yang, Lianghua Li, and Zahid A. Butt. What social media told us in the time of COVID-19: A scoping review. The Lancet Digital Health, Vol. 3, No. 3, pp. e175-e194. [9] Hao Wang, Doğan Can, Abe Kazemzadeh, François Bar, and Shrikanth Narayanan. A system for real-time twitter sentiment analysis of 2012 us presidential election cycle. In Proceedings of the ACL 2012 System Demonstrations, pp. 115-120. [10] Ryota Kobayashi, Yuka Takedomi, Yuri Nakayama, Towa Suda, Takeaki Uno, Takako Hashimoto, Masashi Toyoda, Naoki Yoshinaga, Masaru Kitsuregawa, and Luis E. C. Rocha. Evolution of public opinion on covid-19 vaccination in japan: Large-scale twitter data analysis. Journal of Medical Internet Research, Vol. 24, No. 12, p. e41928. [11] Takako Hashimoto, Takeaki Uno, Yuka Takedomi, David Shepard, Masashi Toyoda, Naoki Yoshinaga, Masaru Kitsuregawa, and Ryota Kobayashi. Two-stage clustering method for discovering people's perceptions: A case study of the covid-19 vaccine from twitter. In 2021 IEEE International Conference on Big Data (Big Data), pp. 614-621, 2021. [12] Michal Rosen-Zvi, Thomas Griffiths, Mark Steyvers, and Padhraic Smyth. The author-topic model for authors and documents. In Proceedings of the 20th Conference on Uncertainty in Artificial Intelligence, pp. 487-494. AUAI Press. [13] Wayne ZHAO, Jing JIANG, Jianshu WENG, Jing HE, Ee Peng LIM, Hongfei YAN, and Xiaoming LI. TwitterLDA. SMU Research Data. [14] Quoc Le and Tomas Mikolov. Distributed representations of sentences and documents. In Proceedings of the 31st International Conference on International Conference on Machine Learning - Volume 32, p. II-1188-II-1196. JMLR.org, 2014. [15] Nils Reimers and Iryna Gurevych. Sentence-bert: Sentence embeddings using siamese bert-networks. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing. Association for Computational Linguistics, 112019. [16] Tomás Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. In 1 st International Conference on Learning Representations, ICLR 2013, Scottsdale, Arizona, USA, May 2-4, 2013, Workshop Track Proceedings, 2013. [17] Radim Rehurek and Petr Sojka. Gensim-python framework for vector space modelling. NLP Centre, Faculty of Informatics, Masaryk University, Brno, Czech Republic, Vol. 3, No. 2. [18] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [19] Christopher M. Bishop. Pattern Recognition and Machine Learning (Information Science and Statistics). Springer-Verlag, Berlin, Heidelberg, 2006. [20] F. Pedregosa, G. Varoquaux, A. Gramfort, V. Michel, B. Thirion, O. Grisel, M. Blondel, P. Prettenhofer, R. Weiss, V. Dubourg, J. Vanderplas, A. Passos, D. Cournapeau, M. Brucher, M. Perrot, and E. Duchesnay. Scikitlearn: Machine Learning in Python. Journal of Machine Learning Research, Vol. 12, pp. 2825-2830. [21] Youngjoong Ko. A study of term weighting schemes using class information for text classification. In Proceedings of the 35th International ACM SIGIR Conference on Research and Development in Information Retrieval, pp. 1029-1030. Association for Computing Machinery. [22] Xiang Zhang, Junbo Zhao, and Yann LeCun. Characterlevel convolutional networks for text classification. In Proceedings of the 28th International Conference on Neural Information Processing Systems - Volume 1, p. 649-657, Cambridge, MA, USA, 2015. MIT Press. [23] Nguyen Xuan Vinh, Julien Epps, and James Bailey. Information theoretic measures for clusterings comparison: Is a correction for chance necessary? In Proceedings of the 26th Annual International Conference on Machine Learning, pp. 1073-1080. Association for Computing Machinery. [24] Michael Röder, Andreas Both, and Alexander Hinneburg. Exploring the Space of Topic Coherence Measures. In Proceedings of the Eighth ACM International Conference on Web Search and Data Mining, pp. 399-408. Association for Computing Machinery.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C3-3.pdf
# 自己注意機構における注意の集中が相対位置に依存する仕組み 山本悠士 松崎拓也 東京理科大学 理学部第一部 応用数学科 1419096@ed.tus.ac.jp matuzaki@rs.tus.ac.jp ## 概要 自己注意機構において各トークンは自身の周辺のトークンに注意を集中させる傾向がある。これにより,各トークンの出力ベクトルは周辺のトークンからの影響を受け,ニューラル言語モデルは文脈に依存した単語埋め込みを出力できると考えられる。 本研究では,自己注意機構において各トークンが周辺のトークンに注意を集中させるメカニズムを分析する。結果として,自己注意機構は中間層の隠れ状態から位置埋め込みの成分をトークンの位置に関して周期的な波形として抽出し,その波形の位相がずれる方向に注意を集中させていることを示す. ## 1 はじめに 自然言語処理のタスクを高精度で実行するためには,文脈を捉えることが不可欠である。例えば,回帰型ニューラルネットは時系列順に単語埋め込みを入力することで,畳み込みニューラルネットは周辺の単語埋め込みを集約することで文脈を捉えている。一方,Transformer [1] には単語の位置に依存した処理がモデル内部に存在せず,代わりに単語埋め込みに位置埋め込みを加えたものを入力する。 アテンション重み(式 (4))を観察することは,自己注意機構の推論過程を解釈する手がかりとなる [2] [3].このような分析により,自己注意機構において各トークンは自身の周辺に注意を向ける傾向が確認されている [4]. この現象は,自己注意機構が位置に依存しない構造をしているにも関わらず,位置に基づいた推論をしていることを示している. 本研究では,学習に基づく位置埋め込みを用いた自己注意機構に次の性質があることを示す. - 自己注意機構は,学習された位置埋め込みに存在する周期性を隠れ状態から抽出できる。 ・時系列として見たクエリとキーの間には位相にズレが存在し,注意はこのズレの方向に向く.以上から,注意が相対位置に依存して集中する現象は,自己注意機構が位置埋め込み由来の周期的な成分を利用することで引き起こされていると言える. 以下,本論文では,2 節で Transformer とその派生モデルの構成について,3節で注意が相対位置に依存するメカニズムについて述べる。具体的には,まず,注意が相対位置に依存する事実と位置埋め込みの周期性を確認する。次に,自己注意機構内のクエリとキーの共通点と相違点を分析し,それらと注意の方向の関係を示す. 最後に,4 節で結論を述べる. ## 2 Transformer のアーキテクチャ ## 2.1 位置埋め込み 本節では Transformer,BERT [5] および RoBERTa [6] の位置埋め込みについて説明する。 入力文のトークン数を $T$, 埋め込みを $d$ 次元べクトルとすると,位置埋め込みは $T \times d$ 行列として定義される。位置埋め込みの各列はトークン位置方向の時系列とみなせることに留意されたい。 Transformer の位置埋め込みは,トークンの位置を pos とするとき,各成分が式 (1-2) で定義される. $ \begin{aligned} P E_{(p o s, 2 i)} & =\sin \left(\text { pos } / 10000^{2 i / d}\right) \\ P E_{(p o s, 2 i+1)} & =\cos \left(\text { pos } / 10000^{2 i / d}\right) \end{aligned} $ Vaswani らは,式 (1-2) に回転行列を掛けると位置 posをずらすことができ,この性質が相対位置に基づく注意を学習するように促すと推測した [1]. $ \left[\begin{array}{cc} \cos \theta & \sin \theta \\ -\sin \theta & \cos \theta \end{array}\right]\left[\begin{array}{c} \sin x_{i} \\ \cos x_{i} \end{array}\right]=\left[\begin{array}{c} \sin \left(x_{i}+\theta\right) \\ \cos \left(x_{i}+\theta\right) \end{array}\right] $ 一方,BERT の位置埋め込みは $T \times d$ 行列のパラメータとして定義され,平均 0 ,標準偏差 0.02 の正規分布に従う乱数で初期化した状態から学習される. RoBERTa は,BERT とアーキテクチャは同一だが,事前学習の手法が改善されている。特に,BERT は事前学習の $90 \%$ を 128 トークンという短い文章 で学習しているのに対して,RoBERTa は常に最大長である 512 トークンの文章で学習しているため, 長文に対応することができる。 そこで,本研究では各位置での学習回数の偏りがない RoBERTaを用いた. ## 2.2 マルチヘッド自己注意機構 RoBERTa の各層にあるマルチヘッド自己注意機構は,各層のヘッド数を $n$ とするとき,第 $l$ 層の隠れ状態 $X_{l} \in \mathbb{R}^{T \times d}$ とパラメータ行列 $W_{l h}^{Q}, W_{l h}^{K}, W_{l h}^{V} \in \mathbb{R}^{d \times(d / n)}(h=1, \ldots, n), W_{l}^{O} \in \mathbb{R}^{d \times d}$ により次のように定義される. 以降,第 $l$ 層の $h$ 番目のヘッドを head $(l, h)$ と略記する. $ \begin{aligned} A_{l h} & =\operatorname{softmax}\left(\frac{X_{l} W_{l h}^{Q}\left(X_{l} W_{l h}^{K}\right)^{T}}{\sqrt{d / n}}\right) \\ V_{l h} & =A_{l h} X_{l} W_{l h}^{V} \\ \text { MultiHead }_{l} & =\operatorname{concat}\left(V_{l 1}, \ldots, V_{l n}\right) W_{l}^{O} \end{aligned} $ 以下,すべての層,ヘッドで共通する議論では添字の $l, h$ を省略する。行列 $X W^{Q}, X W^{K}, A$ は,それぞれクエリ,キー,アテンション重みと呼ばれ,Aの $(i, j)$ 成分が大きい場合, 文中の $i$ 番目のトークンが $j$ 番目のトークンに注意を向けると解釈される. ## 3 位置に基づく注意のメカニズム 本節では,まず,各へッドは注意の方向と強さに基づいて分類できることを k-means 法を用いて確認する (3.1 項)。次に,位置埋め込みは学習によって周期性を獲得しており (3.2 項), 自己注意機構内のクエリとキーにも同じ周波数の成分が含まれることを示す (3.3 項).最後に,クエリとキーを比較すると,振幅スペクトルは類似しているが位相にズレがあることについて分析し (3.4 項),このズレの方向が注意の向きを決定づけることを示す(3.5 項). 分析には,事前学習済みモデルである roberta-base を用いた. ${ }^{1)}$ モデルの構造は 12 層で各層にヘッドは $n=12$ 個あり, $T=512, d=768$ である. また,図を作成する際は文献 [1] の 1 章までの本文を用いた。 ## 3.1 自己注意機構の位置依存性の概要 アテンション重み $A_{l h}$ を可視化すると,例えば, $A_{8,9}, A_{2,3}$ では各トークンは隣のトークンに強く注意を向け, $A_{1,1}, A_{7,5}$ では左右の周辺トークンへ注意を緩やかに偏らせていることが分かる(図2)。  図 1 ヘッドごとに, 100 個の $a_{l h}$ に振られたラベルの割合を円グラフで図示した. 図 215 トークン目までのアテンション重み. 赤点線は対角線を示す。 ヘッドの注意の傾向を調べるため,各アテンション重み $A_{l h}$ について,対角成分の $t$ 個右の成分の和 $ \operatorname{tr}_{t}(A)= \begin{cases}\sum_{i=1}^{512-t} a_{i, i+t} & (t \geq 0) \\ \sum_{i=1}^{512+t} a_{i-t, i} & (t<0)\end{cases} $ を $t=-10, \ldots, 10$ について並べたべクトル $a_{l h}=$ $\left[\operatorname{tr}_{-10}\left(A_{l h}\right), \ldots, \operatorname{tr}_{10}\left(A_{l h}\right)\right]$ を計算した. ベクトル $a_{l h}$ は, $A_{l h}$ における相対位置による注意の偏りの平均的な傾向を表す. 入力として wikitext-2 [7] から 512 トークンの文章を 100 件作成し, $100 \times 12 \times 12$ 個のベクトル $a_{l h}$ に k-means 法を適用した. クラスタ数を 6 とすると,ベクトル $a_{l h}$ は注意の強さと向きに基づいて分類され,ほとんどのへッドで注意の向きは入力文に依存しないことが確認できた(図 1). ## 3.2 位置埋め込みの振幅スペクトル RoBERTa の位置埋め込み $P E \in \mathbb{R}^{512 \times 768}$ にも Transformer と同様にトークン位置方向に周期性があるのかを調べるために,PE の各列べクトルに対して離散フーリエ変換を適用した: $ \begin{aligned} & \operatorname{spec}_{i}=\mathrm{FT}\left(P E_{1, i}, P E_{2, i}, \ldots, P E_{512, i}\right) \\ & (i=1,2, \ldots, 768) \end{aligned} $ 得られた $P E$ の各列のスペクトルの振幅を周波数ごとに平均したものを図 3 に示す. 振幅スペクトルがいくつかの周波数でピークをとることから, RoBERTa の位置埋め込みは Transformer のように明示的に正弦波を用いて定義されていないにもかかわらず,学習により周期性を獲得していると言える. また,位置埋め込みを加える前の単語埋め込み列の振幅スペクトルにはピークが存在しないため,周期性は位置埋め込み特有の性質である。 図 3 RoBERTa の位置埋め込みの振幅スペクトル. 青線は $\operatorname{spec}_{i}$ の平均で網掛け部分は四分位範囲. オレンジの線は, ある入力に対する,位置埋め込みを加える前の単語埋め込みのスペクトル。 図 4 クエリ $Q_{1,1}$ とキー $K_{1,1}$ の 5,6 列目の先頭 64 行目までの値. 図 512 個のヘッドの $X, Q, K$ の振幅スペクトルを,各周波数について最大値をとって層ごとに図示した. ## 3.3 クエリとキーの振幅スペクトル 特異値分解を用いてクエリとキーを再定義することで,自己注意機構が位置埋め込みに類似した周期的な成分を隠れ状態から抽出できることを示す. ヘッドのパラメータ $W^{Q}, W^{K}$ は $W^{A}=W^{Q}\left(W^{K}\right)^{T}$ とおけば, $X W^{Q}\left(X W^{K}\right)^{T}=X W^{A} X^{T}$ とまとめられるため,積 $W^{A}$ のみが意味を持つ。 つまり, $W^{Q}, W^{K}$ ないし,これらと $X$ の積であるクエリとキーの役割は相対的なものである. 実際,クエリとキーの関係を分析する際はパラメータを以下のように再定義すると結果が解釈しやすいことが分かった. すなわち $W_{l h}^{A}=U_{l h}^{Q} S\left(U_{l h}^{K}\right)^{T}$ (S は対角行列) と特異値分解して得られる左右特異べクトルを並べた行列 $U_{l h}^{Q}, U_{l h}^{K}$ を用いて, $\operatorname{head}(l, h)$ のクエリとキーをそれぞれ $Q_{l h}=X_{l} U_{l h}^{Q}, K_{l h}=X_{l} U_{l h}^{K}$ と再定義する. ここで, $X W^{A} X^{T}=X U^{Q} S\left(U^{K}\right)^{T} X^{T}=Q S K^{T}$ である.この $Q, K$ の各列の成分を可視化すると, 注意が相対位置に依存するへッドでは約 4~12 個の列でトークン位置に関して周期性が見られた(図 4,付録B)。 各層について, 隠れ状態 $X_{l}$, クエリ $Q_{l h}$, およびキー $K_{l h}$ の振幅スペクトルを 12 ヘッド・ 64 次元に渡って計算して,各周波数における振幅の最大值を求めた(図 5). すると,位置埋め込みで見られた周波数 50 付近で振幅スペクトルが大きくなる現象が,隠れ状態では見られないがクエリとキーでは見られた. つまり, 自己注意機構は位置埋め込み由来の周期的な成分を隠れ状態から抽出できると考えられる.しかし,層を通過するにつれて周波数 50 付近の振幅スペクトルは減衰することから,位置埋め込みの影響は次第に弱まり,推論が位置に依存しにくくなると考えられる.この現象は, 下層では構文的特徵を, 上層では意味的特徴を学習するという先行研究に対応していると予想される [8]. ## 3.4 位相のズレと周波数の関係 図 4 を見ると,クエリとキーの位相がずれていることが分かる. Vaswani らの推測通り,この現象は回転行列によりクエリとキーがトークン位置方向に相対的にずらされた結果であることを示す. まず, $U^{K}$ をある行列 $R$ を用いて $U^{K}=U^{Q} R$ と分解する.つまり,隠れ状態 $X$ に $U$ を掛けてクエリ $Q=X U^{Q}$ を作成した後に,さらに $R$ で変換したものがキー $K=X U^{K}=Q R$ であると解釈し, $R$ をとにクエリとキーの関係性を調査する。 特異ベクトルの直交性より,R の成分は左右の特異ベクトルの内積であり, $R$ も直交行列となる. $ R=\left(U^{Q}\right)^{-1} U^{Q} R=\left(U^{Q}\right)^{-1} U^{K}=\left(U^{Q}\right)^{T} U^{K} $ 上式で求めた $R$ を対角化して固有值 $\lambda_{i}$ を得る. $ \begin{array}{r} \Lambda=P^{-1} R P=P^{-1}\left(U^{Q}\right)^{-1} U^{K} P=\left(U^{Q} P\right)^{-1}\left(U^{K} P\right) \\ \text { ただし, } \Lambda=\operatorname{diag}\left(\lambda_{1}, \cdots, \lambda_{768}\right) \end{array} $ 直交行列の固有值は $\lambda_{i}=\cos \theta_{i} \pm j \sin \theta_{i}$ ( $j$ : 虚数単位 $)$ という形で表せるので,固有值の偏角を求めることで $R$ が 768 次元空間をどのように回転させる行列なのかが分かる. 式 (3) より, 回転行列を掛けることは正弦波の位相をずらす変換であるため,偏角 $\theta_{i}$ は,固有值 $\lambda_{i}$ に対応する固有べクトル $\boldsymbol{p}_{i}$ によってクエリおよびキーから抽出された 2 つ波形 $Q \boldsymbol{p}_{i}, K \boldsymbol{p}_{i} \in \mathbb{C}^{512}$ の間の位相のズレである. 偏角 $\theta_{i}$ の単位はラジアンなので,トークン数を単位とする位相のズレ $\Delta$ を知るためには,各波形の周波数 $f$ を用いて $\Delta(f, \theta)=512 \theta_{i} / 2 \pi f$ を計算する必要がある. そこで, $Q p_{i}$ の振幅スペクトルを $F T\left(Q \boldsymbol{p}_{i}\right) \in \mathbb{R}^{512}$ としたときの,2 変数関数 $g\left(f, \theta_{i}\right)=F T\left(Q \boldsymbol{p}_{i}\right)_{f}$ を( $K \boldsymbol{p}_{i}$ についても同様に)可視化することで周波数と位相の関係を分析した. 図 62 変数関数 $g(f, \theta)$ の 2 次元ヒストグラム. すると, $g(f, \theta)$ のピークは,左に弱く注意が偏る $\operatorname{head}(1,1)$ では $1 \leq \Delta \leq 3$ の領域内に,右隣に強く注意が集中する $\operatorname{head}(2,3)$ では $\Delta=-1$ の直線上に分布することが分かった(図 6). 以上より,クエリとキーの違いを生じさせる行列 $R$ は 768 次元空間内の複数の軸方向に関して異なる回転角を学習するが,周波数成分に分解してみるとトークン単位では一定の個数だけ位相がずれるように学習され,ずれるトークン数と向きはアテンション重みにおいて注意が向く位置に対応することが分かった (図 2). 自己注意機構のパラメータに回転行列を導入した RoPE [9] を用いると学習の収束が早まるのは,本項で述べた性質をより早く獲得するからであると考えられる。 ## 3.5 位相のズレとアテンション重みの関係 2 信号間の時間遅れの計測等に用いられる相互相関と相互共分散を用いて,トークン数単位でクエリとキーの位相のズレを定量化し,クエリとキーの位相のズレの方向に注意が平均的に偏ることを示す. 位相のズレを定量化するために,クエリとキーの各列の相互相関 xcorr と相互共分散 xcov を計算した. ただし,クエリとキーに存在する周期性のみに焦点を当てるため,相互相関に中心化を適用した (式 12).また, $Q$ と $K$ の $j$ 列目を $\boldsymbol{q}_{j}$ および $\boldsymbol{k}_{j}, Q$ と $K$ の $(i, j)$ 成分を $q_{i, j}$ および $k_{i, j}$ とする. $ \begin{aligned} & \operatorname{xcov}_{j}(t)= \begin{cases}\sum_{i=1}^{512-t} q_{i, j} k_{i+t, j} & (t \geq 0) \\ \sum_{i=1}^{512+t} q_{i-t, j} k_{i, j} & (t<0)\end{cases} \\ & \operatorname{xcorr}_{j}(t)=\frac{\operatorname{xcov}_{j}(t)-\mathbb{E}_{t}\left[\operatorname{xcov}_{j}(t)\right]}{\left.\|\boldsymbol{q}_{j}\right.\|\left.\|\boldsymbol{k}_{j}\right.\|} \end{aligned} $ 相互共分散を各列 $j$ に対応する特異值 $s_{j}$ で重み付けた和は, $Q S K^{T}$ の対角成分の $t$ 個右の成分の和 図 7 上: $\operatorname{xcorr}_{j}(t)(j=1, \ldots 20)$. 下: $\sum_{j}^{64} s_{j} \operatorname{xcov}_{j}(t)$ $\operatorname{tr}_{t}\left(Q S K^{T}\right)$ と等しいことから,注意は位相のズレの方向に平均的に集中する. $ \begin{aligned} \operatorname{tr}_{t}\left(Q S K^{T}\right) & =\sum_{i=1}^{512-t}\left(Q S K^{T}\right)_{i, i+t} \quad(\because \text { 式 }(7)) \\ & =\sum_{i=1}^{512-t} \sum_{j=1}^{64} s_{j} q_{i, j} k_{i+t, j} \\ & =\sum_{j=1}^{64} s_{j} \operatorname{xcov}_{j}(t) \end{aligned} $ 注意の集中が相対位置に基づくへッドでは, $\boldsymbol{q}_{j}, \boldsymbol{k}_{j}$ の相互相関は複数の列 $j$ で周期的になり,相互共分散の重み付き和は,アテンション重みと同様に $\operatorname{head}(1,1)$ では $t=-2$ 付近で緩やかなピークをとり, $\operatorname{head}(8,9)$ では $t=-1$ で鋭いピークをとる(図 2,7 ). 図 7 (左) において,相互共分散の重み付き和を求める際, $t=-2$ では極大值が重なるためピークは増幅されるが, $t= \pm 30$ 付近では極大値と極小値が重なるためピークは減衰する. その結果,相互共分散の重み付き和は $t=-2$ で最大となったと考えられる. 一方, $t=-1$ でのみピークをとる孤立波のような成分も存在し,正弦波状の相互共分散の和が形成する緩やかなピークを強調するような効果が確認された(図 7 右)。この成分を,位置埋め込み由来の周期的な成分へとさらに分解できるかは不明である. 以上より,注意が自身の近傍のトークンに集中する現象は,クエリとキーをトークン位置に関する波形と見たときの位相のズレによって引き起こされていると考えられる。 ## 4 おわりに 自己注意機構において注意の向きが相対位置に依存する現象は,クエリとキーに存在する位置埋め込み由来の周期的な成分の位相が相対的にずらされたためであることを示した。これより,絶対位置埋め込みで相対位置に基づいた推論ができるという経験的な事実のメカニズムの一部が明らかになった. ## 参考文献 [1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. https: //proceedings.neurips.cc/paper/2017/hash/ 3 f5ee243547dee91fbd053c1c4a845aa-Abstract. html. [2] Jesse Vig. A multiscale visualization of attention in the transformer model. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 37-42. Association for Computational Linguistics, July 2019. https: //www.aclweb.org/anthology/P19-3007. [3] Benjamin Hoover, Hendrik Strobelt, and Sebastian Gehrmann. exBERT: A Visual Analysis Tool to Explore Learned Representations in Transformer Models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 187-196, Online, July 2020. Association for Computational Linguistics. https://aclanthology . org/2020.acl-demos. 22. [4] Kevin Clark, Urvashi Khandelwal, Omer Levy, and Christopher D. Manning. What does BERT look at? an analysis of BERT's attention. In Proceedings of the 2019 ACL Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 276-286. Association for Computational Linguistics, August 2019. https://aclanthology .org/W19-4828. [5] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186. Association for Computational Linguistics, June 2019. https: //aclanthology.org/N19-1423. [6] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach, 2019. https: //arxiv.org/abs/1907.11692. [7] Stephen Merity, Caiming Xiong, James Bradbury, and Richard Socher. Pointer sentinel mixture models. In International Conference on Learning Representations, 2017. https://openreview.net/forum?id=Byj72udxe. [8] Ian Tenney, Dipanjan Das, and Ellie Pavlick. BERT rediscovers the classical NLP pipeline. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4593-4601, Florence, Italy, July 2019. Association for Computational Linguistics. https://aclanthology.org/P19-1452. [9] Jianlin Su, Yu Lu, Shengfeng Pan, Ahmed Murtadha, Bo Wen, and Yunfeng Liu. Roformer: Enhanced transformer with rotary position embedding, 2021. https: //arxiv.org/abs/2104.09864. [10] Yu-An Wang and Yun-Nung Chen. What do position embeddings learn? an empirical study of pre-trained language model positional encoding. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6840-6849, Online, November 2020. Association for Computational Linguistics. https://aclanthology.org/2020.emnlp-main. 555. ## A 様々なモデルの位置埋め込み Hugging Face に公開されている事前学習済みモデルから絶対位置埋め込みをもつモデルをいくつか選び,図 3 (roberta-base) と同様に位置埋め込みの振幅スペクトルを図示した. 図 8 位置埋め込みの振幅スペクトル. 日本語 BERT は cl-tohoku/bert-base-japanese-whole-word-masking である. エンコーダモデルである BERT と RoBERTa では振幅スペクトルにピークが見られ,RoBERTaの方がピークにおける振幅が大きい。一方,デコーダモデルである GPT-2 は低周波成分しか存在しない。これは,事前学習時の目的関数が強く影響しているためであると考えられる [10]. ## B 位置埋め込みの主成分について 相対位置に依存して注意が集中するへッドにおいて,クエリとキーには約 4 12 個の次元で位置埋め込みに由来すると考えられる周期的な成分がそれぞれ存在した。位置埋め込みに対して主成分分析を行い, 主成分の累積寄与率を求めると, 累積寄与率は 4 次元までで $50.51 \%, 12$ 次元までで $92.23 \%$ だった. これより, 768 次元空間において 4 12 次元は少なく感じるが,位置埋め込み空間を十分再現していると考えられる(図9). 図 9 roberta-base の位置埋め込みの累積主成分寄与率.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C3-4.pdf
# BERT を用いた文埋め込みモデルの単語の暗黙的な重み付け 栗田宙人 1 小林悟郎 ${ }^{1,2}$ 横井祥 ${ }^{1,2}$ 乾健太郎 1,2 1 東北大学 2 理化学研究所 } \{hiroto.kurita, goro.koba\}@dc.tohoku.ac.jp \{yokoi, kentaro.inui\}@tohoku.ac.jp ## 概要 事前学習済みマスク言語モデルに追加学習を加えた文埋め込みモデルが続々と提案されており,幅広い後段タスクで高い性能を達成している. 不思議な点として,以前主流であった静的単語埋め込みを用いた手法では単語を陽に重み付けるという工夫が肝要であったにも関わらず,マスク言語モデルを用いた文埋め込みはこの工夫抜きで既存手法を凌駕している. 本研究では,BERT を用いた文埋め込みモデルたちが各単語を単語頻度に基づく情報量 $-\log P(w)$ で暗黙的に重み付けていることを,特徴寄与測定手法 Integrated Grad との経験的な相関を通して明らかにする. さらに,この重み付け傾向は事前学習済みの BERTを文埋め込みに適するよう追加学習する過程で強まっていることを報告する。 ## 1 はじめに 自然言語文をべクトル表現で表した文埋め込みは文の意味的類似度の計算, 情報検索,文書分類など,自然言語処理分野で幅広く使用される有用な道具である。代表的な文埋め込み生成技術として,文を構成する各単語の静的単語埋め込みの平均を取る手法がある程度効果的であることが経験的・理論的に知られている $[1,2,3]$. このとき,単純な平均ではなく,ストップワードの除去や TF-IDF[4] に代表される単語の逆頻度に基づく重み付けが大きな効果をもたらすことが知られている。 一方,近年では動的単語埋め込みを生成するマスク言語モデルである BERT[5] や RoBERTa[6] を追加学習した文埋め込みモデルが続々と提案され, 意味的類似度計算などの後段タスクで静的単語埋め込みを用いる手法を凌駕している $[7,8]$. これらのモデルでは,静的単語埋め込みを用いた手法で効果的だった明示的な重み付けは基本的に行われない。しかし,マスク言語モデルを基にしているため,内部の複雑な非線形ネットワークにより単語が混ぜ合わ 図 1 本研究の概念図。モデルが文埋め込みを計算する際の各単語の寄与を逆伝播計算により求め, 求めた単語の寄与と大規模コーパスから計算された単語の情報量の比較を行う。 せられ,暗黙的に単語を重み付けながら文埋め込みを生成していると考えられる. 成功を収めている最近の文埋め込みモデルはどのような重み付けを学んでいるのだろうか. 本研究では BERTを用いた文埋め込みモデルは内部で単語頻度に基づく情報量 $-\log P(w)$ に比例した暗黙的な単語重み付けを行なっていることを明らかにする。また,この重み付け傾向は BERT の追加学習を通じて強まっていることわかった. すなわち, BERT を用いた文埋め込みモデルは既存手法でポストホックに外から行われていた重み付けを追加学習の過程で自ら獲得していることがわかる. ## 2 分析の方針 本稿では BERT を用いた文埋め込みモデルが内部で暗黙的に行う単語の重み付けと頻度に基づく単語の情報量とを比較する(図 1).モデルが行う重み付けは勾配を用いた特徴量帰属手法 Integrated Gradients を用いて定量化し,単語の情報量はコーパス上で算出された単語頻度を元に計算する。 ## 2.1 準備:BERT を用いた文埋め込み モデルは, 入力文 $s=\left(w_{1}, w_{2}, \ldots, w_{|s|}\right)$ の各単語を単語埋め込み層にて単語埋め込みに変換し $\left(w_{i} \mapsto \boldsymbol{w}_{i} \in \mathbb{R}^{d}\right)$, この単語埋め込みをまとめたべクトル列 $W=\left[w_{1}, . ., w_{|s|}\right] \in \mathbb{R}^{|s| \times d}$ を残りのモデル $M$ に入力して文埋め込み $s$ を計算する $\left(M: \boldsymbol{W} \mapsto s \in \mathbb{R}^{d}\right)$. ここで, $d$ は埋め込みの次元数を表す. なおモデル $M$ の最後尾で文べクトル $s$ を作るためにおこなわれる最後の処理は,各トークンの隠れ状態のプーリングによるまとめ上げであるが,このプーリングには文に含まれる単語の表現の平均プーリング(MEAN)と文頭に挿入される特殊トークン [CLS] の隠れ状態を用いる CLS プーリング(CLS)の 2 種類が主に使われている. ## 2.2 モデルが行う単語の暗黙的な重み付け モデルが文埋め込みを生成する際に内部でどのように各単語を重み付けているかを定量化するために,勾配計算を用いた特徴量(ここでは単語)の帰属手法である Integrated Gradients(IG)[9]を用いた. 特徵量帰属手法は他にも様々あるが, IG は複雑なニューラルネットに適用でき,さらに単純な微分を用いる手法の問題点が積分によって克服されている,近年もっとも標準的に採用されているアプロー チである $[10,11]$. 今回の問題では, 文中の単語 $w_{i}$ がニューラルネットで文埋め込み $s$ を構成する際にどの程度寄与しているかの度合い $c\left(w_{i}, s\right)$ を, 単語べクトルの各要素の文ベクトルの各要素への寄与度 $\operatorname{IG}\left(w_{i}[j], s[k] ; M\right)$ に帰着させて以下のように計算することができる [12]. $ \begin{aligned} & c\left(w_{i}, \boldsymbol{s}\right):=\sqrt{\sum_{j} \sum_{k} \mathrm{IG}\left(\boldsymbol{w}_{i}[j], \boldsymbol{s}[k] ; M\right)} \\ & \mathrm{IG}\left(\boldsymbol{w}_{i}[j], \boldsymbol{s}[k] ; M\right):=\left(\boldsymbol{W}_{i}^{(k)}-\boldsymbol{B}_{i}^{(k)}\right) \\ & \quad \times \int_{\alpha=0}^{1} \frac{\partial M(\boldsymbol{B}+\alpha \times(\boldsymbol{W}-\boldsymbol{B}))}{\partial \boldsymbol{W}_{i}^{(k)}} d \alpha \end{aligned} $ ただし, $v[j]$ はべクトル $v$ の $j$ 次元目の値. $\boldsymbol{B}=\left[\boldsymbol{b}_{1}, \ldots, \boldsymbol{b}_{|s|}\right]$ は積分の「ベースラインの位置」 を表すべクトル列で,文頭と文末に挿入される特殊トークン以外の単語を[PAD] に置き換えた [CLS] , [PAD] , . , [PAD] , [SEP] に対応するベクトル列を用いた.IG はモデルへの入力をベースライン $\boldsymbol{B}$ から実際の入力 $W$ まで徐々に変化させながら対 図 2 単語頻度に基づく情報量 $-\log P(w)$ と各種重み付け手法の比較. 各種重み付けは STS-Benchmark[13] の頻度情報を基に作成した。 象特徴量の出力への偏微分を計算していき,それらを積分することで(経路全体での寄与を足し合わせることで)合計の寄与を計算する。式 1 では文べクトル側と単語ベクトル側の要素のすべての組み合わせについての寄与の二乗和を計算することで単語の文への寄与を算出している. ## 2.3 単語の持つ情報量 本研究では, 頻度に基づく単語の情報量 $-\log P(w)$ を文埋め込みモデル内部で行われる重み付けと比較する。情報量とは確率 $P(x)$ で発生する事象 $x$ を観測した時に得られる情報の量であり, $-\log P(x)$ で定義される. 文(単語列)を受け取ってその意味を扱う文埋め込みモデルでは, $P(\cdot)$ を単語頻度分布, $P(w)$ を単語 $w$ が出現する確率とすれば, $-\log P(w)$ は単語 $w$ を観測した時に得られる情報の量に相当し,低頻度語ほど情報量は大きい。 情報量 $-\log P(w)$ は既存の単語重み付け手法と深い関係を持つ。文埋め込みにおいては,ストップワードの除去や TF-IDF,SIF weighting など,単語の逆頻度に基づく重み付けが効果的であると知られている $[4,14]$. これらの手法は文の意味を理解する上で不必要な高頻度語を取り除いたり,文の意味を決定づけると期待される低頻度語を重視しているとみなすことができ,情報量 $-\log P(w)$ の概念と一貫する. 情報量 $-\log P(w)$ は逆頻度に基づく最も基本的な重み付けと言え,実際これらの既存の重み付け手法とも類似している(図 2)。これらの理由から,文埋め込みモデル内部で行われる各単語への重み付けの比較対象として情報量 $-\log P(w)$ を用いる. ## 3 実験 BERT を用いた文埋め込みモデル内部での各単語への重み付けを単語頻度に基づく情報量 $-\log P(w)$ に照らし合わせながら調査する. モデル BERT を追加学習した文埋め込みモデルには SentenceBERT(SBERT)[7]と SimCSE[8]を用いた. SimCSE は追加学習時にラベル付きデータを使っていない Unsupervised SimCSE と,使っている Supervised SimCSE の 2 種類を扱う.また, ベースラインとして文埋め込み用の追加学習を行う前の BERT-base (uncased)を用いた. 特に,平均プーリングを採用した BERT (MEAN) と CLS プーリングを採用した BERT (CLS) の 2 種類を扱う。なお,SimCSE および SBERT はそれぞれ BERT (CLS) および BERT (MEAN) を追加学習したモデルである. データセットモデルへの入力文には,文類似度計算タスクの代表的なデータセットである STS Benchmark[13] の検証データおよびテストデータを用いた. 今回は簡単のため,サブワード分割が発生せず,文長 7 の合計 617 文のみを対象とした. また,単語の情報量 $-\log P(w)$ の計算に用いる単語頻度は BERT の事前学習時コーパスを Wikipedia と BooksCorpurs[15] から再現して算出した. ## 3.1 定量分析 モデルに各文を入力し, 2.2 節で述べた方法でモデル内部における各単語への重み付けを計算する.続いて,計算された各単語への重み付けと頻度に基づく単語の情報量 $-\log P(w)$ の関係を比較するため両者のピアソン相関係数を測定する.また,ベースラインとして単語頻度 $P(w)$ とのピアソン相関係数も測定する. BERT を用いた文埋め込みモデルは $-\log P(w)$ に従って各単語を重み付けている:表 1 より, 文埋め込み用の追加学習を行っていない BERT (CLS) および BERT (MEAN) における単語への重み付けは $-\log P(w)$ と弱い正の相関があった. つまり, 追加学習前の BERT は緩やかに情報量に基づいた単語重み付けを行なっている事が分かった. 追加学習後のモデルである SBERT および SimCSE では追加学習前の BERT (MEAN/CLS) よりも強い正の相関が見られ,追加学習後のモデルはより情報量に従って単語を重み付けていることが分かった. これらの結果は,文埋め込み用の追加学習によってモデルが暗黙的に単表 1 各モデルにおける単語の貢献度とのピアソンの相関係数 図 3 BERT (MEAN) と SBERT における $-\log P(w)$ と単語の重み付けの散布図。他のモデルの散布図は付録 $\mathrm{A}$ 参照. 語の情報量に基づく重み付けを獲得していることを示唆する. ただし, 同程度の情報量を持つ単語でもモデルの重み付けには分散が見られ,特に高情報量 (低頻度語)側で分散が大きくなっていた(図 3). このことから, $-\log P(w)$ だけでは文埋め込みモデルが行う重み付けを完全には説明できていないと考えられる。例えば,同じ単語でも出現によって異なる重み付けがされており,周囲の単語との関係性などにも依存して重み付けを変えている可能性がある. 高情報量での分散傾向の調査は今後の展望の一つである. 重み付けは $P(w)$ ではなく $-\log P(w)$ に従う:表 1 において $-\log P(w)$ との相関係数と $P(w)$ との相関係数の絶対値を比較すると,どのモデルにおいても一貫して $-\log P(w)$ との相関の方が強い. つまり, モデル内部での単語の重み付けは単純な単語頻度 $P(w)$ というよりも, $\log$ をけた情報量 $-\log P(w)$ に従っている。 ## 3.2 定性分析 各モデルにおける単語への重み付けの具体例を図 4 に示す. “a woman is cutting an onion.”を入力した例では,追加学習前の BERT (CLS/MEAN) はどの単 図 4 文ごとの単語の貢献度と $-\log P(w)$. 語にもほぼ均等に重み付けを行なっているが,追加学習後のモデルはよりピーキーな重み付けを行っており, $-\log P(w)$ と非常に似ていることがわかる. SBERT の重み付けが特にピーキーで, 文中で情報量が最も高いonionを最も高く重み付けている。 “there are dogs in the forest." を入力した例でも同様の傾向が見られ,情報量が最も高い dogs に SBERT が最も高い重み付けを行なっていた。これらのことから,BERT を追加学習したモデルは $-\log P(w)$ に近い形で重み付けを行うが,モデルによって重み付け傾向がやや異なることが示唆される. ## 4 関連研究 静的単語埋め込みを用いた文埋め込み静的単語埋め込みが持つ加法構成性により, 単純な単語埋め込みの平均を用いても質の高い文埋め込みを構成できることが知られている $[1,2,3]$. さらに,各単語埋め込みを単純に平均する代わりに,単語の逆頻度に基づいて(TF-IDF や SIF-weighting など)重み付け和することで,文埋め込みの質が向上する $[14,4]$.本研究では, 文埋め込み構築において効果的であると知られるこれらの重み付け手法と関係深い単語の情報量 $-\log P(w)$ を比較対象に用いた。 マスク言語モデルを用いた文埋め込み近年,自然言語処理分野の様々なタスクで成功を納めているマスク言語モデル $[5,6]$ を追加学習した文埋め込みモデルが盛んに開発されている. Reimers ら [7] は BERTを自然言語推論タスクを用いて追加学習させることで文埋め込みに適した SBERTを提案した。 また, 最近では画像分野の表現学習において対照学習が成功を収めている(SimCLR[16] など)ことに影響を受け,DeCLUTR[17],SimCSE[8],など,対照学習を取り入れた文埋め込み手法が続々と提案されている。これらのマスク言語モデルを用いた文埋め込みモデルでは,既存手法のように単語を明示的に重み付けることは基本的にない. 例外としては, Wang ら [18] は SBERT の各層から取り出した単語埋め込みを明示的に重み付けて文埋め込みを構築することでより性能を向上させる手法を提案している.本研究では,マスク言語モデルを用いた文埋め込み手法の中でも代表的である SBERT と SimCSE を対象とし,モデル内部で暗黙的に行われている単語の重み付けについて調査した。 ## 5 おわりに 本稿では,BERTを用いた文埋め込みモデルが内部では単語の情報量 $-\log P(w)$ に基づいて単語を重み付けていることを明らかにした。また,この重み付け傾向は BERT の追加学習を通じて獲得されていることも示し,BERTを用いた文埋め込みモデルは既存手法でポストホックに外から行われていた重み付けを追加学習の過程で自ら獲得していることが示唆される。 今後は,モデルが行う単語重み付けと文脈付きの情報量や単語の品詞などを比較し, $-\log P(w)$ 単体では捉えきれなかったモデルが「暗黙的に行う重み付け」についてさらに調査を進める。また,他の文埋め込みモデルや情報検索などで使用されているテキスト埋め込みモデルにまで分析の範囲を拡大し,様々な学習がモデルの単語重み付けに与える影響を分析する方向性も興味深い. ## 謝辞 本研究は JSPS 科研費 JP22H05106,JP22J21492, JST,CREST,JPMJCR20D2 の助成を受けたものです.また,本研究に関して多くのアドバイスを下さった栗林樹生氏をはじめ Tohoku NLP グループの皆様に感謝致します。 ## 参考文献 [1] Jeff Mitchell and Mirella Lapata. Composition in distributional models of semantics. Cognitive science, Vol. 34, No. 8, pp. 1388-1429, 2010. [2] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. In C.J. Burges, L. Bottou, M. Welling, Z. Ghahramani, and K.Q. Weinberger, editors, Advances in Neural Information Processing Systems, Vol. 26. Curran Associates, Inc., 2013. [3] John Wieting, Mohit Bansal, Kevin Gimpel, and Karen Livescu. Towards universal paraphrastic sentence embeddings. In International Conference on Learning Representations, 2016. [4] Ignacio Arroyo-Fernández, Carlos Francisco MéndezCruz, Gerardo Sierra, Juan Manuel Torres-Moreno, and Grigori Sidorov. Unsupervised sentence representations as word information series: Revisiting tf-idf. Computer Speech and Language, pp. 107-129, July 2019. [5] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [6] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv, 2019. [7] Nils Reimers and Iryna Gurevych. Sentence-BERT: Sentence embeddings using Siamese BERT-networks. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3982-3992, Hong Kong, China, November 2019. Association for Computational Linguistics. [8] Tianyu Gao, Xingcheng Yao, and Danqi Chen. SimCSE: Simple contrastive learning of sentence embeddings. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 6894-6910, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [9] Mukund Sundararajan, Ankur Taly, and Qiqi Yan. Ax- iomatic attribution for deep networks. In Proceedings of the 34th International Conference on Machine Learning - Volume 70, ICML'17, p. 3319-3328. JMLR.org, 2017. [10] Damai Dai, Li Dong, Yaru Hao, Zhifang Sui, Baobao Chang, and Furu Wei. Knowledge neurons in pretrained transformers. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 8493-8502, Dublin, Ireland, May 2022. Association for Computational Linguistics. [11] Yaru Hao, Li Dong, Furu Wei, and Ke Xu. Self-attention attribution: Interpreting information interactions inside transformer. Vol. 35, pp. 12963-12971, May 2021. [12] Gino Brunner, Yang Liu, Damian Pascual, Oliver Richter, Massimiliano Ciaramita, and Roger Wattenhofer. On identifiability in transformers. In International Conference on Learning Representations, 2020. [13] Daniel Cer, Mona Diab, Eneko Agirre, Iñigo LopezGazpio, and Lucia Specia. SemEval-2017 task 1: Semantic textual similarity multilingual and crosslingual focused evaluation. In Proceedings of the 11th International Workshop on Semantic Evaluation (SemEval-2017), pp. 1-14, Vancouver, Canada, August 2017. Association for Computational Linguistics. [14] Sanjeev Arora, Yingyu Liang, and Tengyu Ma. A simple but tough-to-beat baseline for sentence embeddings. In International Conference on Learning Representations, 2017. [15] Yukun Zhu, Ryan Kiros, Rich Zemel, Ruslan Salakhutdinov, Raquel Urtasun, Antonio Torralba, and Sanja Fidler. Aligning books and movies: Towards story-like visual explanations by watching movies and reading books. In 2015 IEEE International Conference on Computer Vision (ICCV), pp. 19-27, 2015. [16] Ting Chen, Simon Kornblith, Mohammad Norouzi, and Geoffrey Hinton. A simple framework for contrastive learning of visual representations. In Proceedings of the 37th International Conference on Machine Learning, ICML'20. JMLR.org, 2020. [17] John Giorgi, Osvald Nitski, Bo Wang, and Gary Bader. DeCLUTR: Deep contrastive learning for unsupervised textual representations. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 879-895, Online, August 2021. Association for Computational Linguistics. [18] Bin Wang and C.-C. Jay Kuo. Sbert-wk: A sentence embedding method by dissecting bert-based word models. IEEE/ACM Transactions on Audio, Speech, and Language Processing, Vol. 28, pp. 2146-2157, 2020. ## A $-\log P(w)$ と単語の重み付けの散 ## 布図 $-\log P(w)$ と各モデルが行う単語の重み付けの散布図を示す。 図 $5 \mathrm{BERT}(\mathrm{CLS})$ における $-\log P(w)$ と単語の重み付けの散布図 図 $6 \mathrm{BERT}(\mathrm{MEAN})$ における $-\log P(w)$ と単語の重み付けの散布図 図 7 SBERT(MEAN) における $-\log P(w)$ と単語の重み付けの散布図 図 8 Unsupervised SimCSE(CLS) における $-\log P(w)$ と単語の重み付けの散布図 図 9 Supervised SimCSE(CLS) における $-\log P(w)$ と単語の重み付けの散布図
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C3-5.pdf
# Transformer 言語モデルの 予測ヘッド内バイアスによる頻度補正効果 小林悟郎 ${ }^{1,2}$ 栗林樹生 1,3 横井祥 1,2 乾健太郎 1,2 1 東北大学 2 理化学研究所 ${ }^{3}$ Langsmith 株式会社 } goro.koba@dc.tohoku.ac.jp \{kuribayashi, yokoi, kentaro.inui\}@tohoku.ac.jp ## 概要 近年 Transfrormer ネットワークを採用した言語モデルが大きな成功を収め,注意機構やフィードフォワードネットを中心に分析が盛んに行われてきた.本研究ではモデルの出口部分にあたり, 出力に直接作用する予測ヘッドの働きを分析する.実験から予測ヘッド内のバイアスが単語予測を頻度補正していることを明らかにする.具体的には,このバイアスが高頻度語の予測確率を上げ,低頻度語の予測確率を下げることで,予測分布を実際の単語頻度分布に近づけていることが観察された. さらにこの知見を応用し,バイアスを制御することで言語モデルに多様かつ人間に近い文章生成を促せることを示す. ## 1 はじめに Transformer ネットワーク [1] を採用した言語モデル (Transformer 言語モデル) $[2,3,4]$ は今や自然言語処理分野全体を支える基盤技術であり,高品質な文章生成を通じて幅広い応用を支えている。さらに, その成功理由の解明や更なる性能改善を求め, 内部機序の分析も盛んに行われている [5]. 分析対象としてこれまで特に注目を浴びてきたのはアーキテクチャの中核をなす Transformer 層であり, 注意機構の重みの観察からはじまり層正規化やフィードフォワードネットの挙動解明に至るまで,知見が順調に蓄積されてきた $[6,7,8]$. 本研究では, Transformer 言語モデルの出口部分, すなわちすべての Transformer 層を出たあとの予測ヘッドの働きを分析する(図 1). 予測ヘッドはモデルの単語予測に直接的に作用するため解釈もしやすく,また下層での処理をまとめて上書きできるという点でモデル改善に接続しやすいと期待できる. 実験の結果,BERT および GPT-2 の予測ヘッド内のバイアスが,高頻度語の予測確率を上げ,低頻度 図 1 BERT および GPT-2 の構造概要. 語の予測確率を下げていることが分かった.さらにこの知見を応用し,バイアスの効果を抑制しながら文章生成を行うことで,モデルが典型的な(高頻度な)表現ばかりを生成する問題 $[9,10]$ が軽減し,多様かつ人間に近い文章生成を促せることを示した。 ## 2 準備: 言語モデルの予測ヘッド Transformer 言語モデルは埋め込み層に始まり,モデルの主要部分は「層」と呼ばれる同じ構造を積み重ねたネットワークである(図 1),各層は注意機構などを通じて隠れ表現を更新していく。 層を積み重ねた後には予測ヘッドがあり,これが本研究の分析対象である。なお本研究では,事前学習で得られた,最終層から隠れ表現を受け取って各単語の予測確率を算出するへッドのことを予測へッドと呼ぶ. 具体的には,隠れ表現 $x \in \mathbb{R}^{d}$ を受け取り,層正規化(LN)[11]を適用してから,埋め込み層でも参照する単語埋め込み行列 $\boldsymbol{W}_{\mathrm{emb}} \in \mathbb{R}^{d \times|\mathscr{V}|} へ$射影することで全語彙数 $|\mathscr{V}|$ 個分の予測確率を計算する.ただし,BERT では層正規化の前に全結合層 (FC)を適用し,さらに埋め込み行列への射影後にはバイアスパラメータ $\boldsymbol{b}_{\text {last }} \in \mathbb{R}^{|\mathscr{V}|}$ を加算する. 以下,詳細を述べる. GPT-2 では入力最後尾の単語に対応する隠れ表現 $x$ を受け取り,以下のように 次単語の予測確率分布 $\boldsymbol{p} \in \mathbb{R}^{|\mathscr{W}|}$ を計算する1): $ \begin{aligned} \boldsymbol{p} & =\operatorname{softmax}\left(\mathrm{LN}(\boldsymbol{x}) \boldsymbol{W}_{\mathrm{emb}}\right) \\ \mathrm{LN}(\boldsymbol{x}) & :=\frac{\boldsymbol{x}-m(\boldsymbol{x})}{s(\boldsymbol{x})} \odot \gamma+\boldsymbol{b}_{\mathrm{LN}} \in \mathbb{R}^{d} \end{aligned} $ BERT では [MASK] に対応する隠れ表現 $x$ を受け取り,活性化関数 GELU [12]を含んだ全結合層も用いて穴埋め単語の予測確率分布 $\boldsymbol{p} \in \mathbb{R}^{v}$ を計算する: $ \begin{aligned} & \boldsymbol{p}=\operatorname{softmax}\left(\mathrm{LN}\left(\boldsymbol{x}^{\prime}\right) \boldsymbol{W}_{\mathrm{emb}}+\boldsymbol{b}_{\text {last }}\right) \\ & \boldsymbol{x}^{\prime}=\operatorname{GELU}\left(\boldsymbol{x} \boldsymbol{W}_{\mathrm{FC}}+\boldsymbol{b}_{\mathrm{FC}}\right) \in \mathbb{R}^{d} \end{aligned} $ ここで, $m(\boldsymbol{x})$ および $s(\boldsymbol{x})$ はそれぞれ要素での平均と標準偏差を指し,๑は要素積を表す。また, $\gamma \in \mathbb{R}^{d}$ および $\boldsymbol{W}_{\mathrm{FC}} \in \mathbb{R}^{d \times d}$ は学習可能な重みパラメータ, $\boldsymbol{b}_{\mathrm{LN}}, \boldsymbol{b}_{\mathrm{FC}} \in \mathbb{R}^{d}$ および $\boldsymbol{b}_{\text {last }} \in \mathbb{R}^{|\mathscr{V}|}$ は学習可能なバイアスパラメータを表す. 以上のように, BERT と GPT-2 の予測へッドは共通してバイアス $b_{\mathrm{LN}}$ を持ち, BERT はさらに $b_{\mathrm{FC}}$ と $b_{\text {last }}$ を持つ. 本研究では Transformer 言語モデルの予測ヘッドが単語予測へ与える影響を分析する。今回は分析の第一歩として,加算という単純な操作で作用するために分析が容易なバイアスパラメータに注目する. ## 3 実験 予測ヘッド内のバイアスが単語予測に与える影響を分析する. 3.1 節ではバイアスがモデルの単語予測分布を実際の単語頻度分布に近づけるような頻度補正を行なっていることを明らかにする. 3.2 節ではバイアスの頻度補正効果を抑制する簡単な方法で多様かつ人間に近い文章生成を促せることを示す. モデル事前学習済みの BERT-cased [2] と GPT-2 [3] を対象とした. BERT は base と large の 2 種類, GPT-2 は small, medium, large, $\mathrm{xl} の 4$ 種類を用いた. $ \text { データモデルへ入力するテキストとして GPT-2 } $ の事前学習コーパスである OpenWebText のテストセットの一部 5000 系列を用いた2).BERT では事前学習の設定に従い,12\%3) のトークンを [MASK] に置換して入力した. GPT-2 で文章生成を行う 3.2 節では計算コストの観点から,5000 系列からランダムにサンプリングした 100 系列のみを用いた. また分析時に用いる単語コーパス頻度は,BERT および 1)本稿ではベクトルは横ベクトルとしている. 2) https://github.com/openai/gpt-2-output-dataset で公開されている webtext.testを用いた. 3) BERT の事前学習では入力系列の $15 \%$ が選ばれ,そのうち $80 \%$ (全体の $12 \%$ )が [MASK] トークンに置換される. 図 2 BERT(base)におけるバイアス $b_{\mathrm{LN}}$ 除去による単語予測分布の変化. 図 3 GPT-2(small)におけるバイアス $b_{\mathrm{LN}}$ 除去による単語予測分布の変化. GPT-2 それぞれの学習コーパスで算出した4). ## 3.1 バイアスが予測分布へ与える影響 BERT および GPT-2 の予測ヘッド内の各バイアスが単語予測に与える影響を調べる。各バイアスを除去して出力される単語予測分布を通常のモデルが出力した単語予測分布と比較する. 結果 BERT (base) でバイアス $\boldsymbol{b}_{\mathrm{LN}}$ を除去した際の単語予測分布の変化を図 2 に示す. 図の横軸はコーパスで算出した実際の単語頻度,縦軸はモデルの単語予測確率である。コーパス単語頻度側で一定間隔にビンを分け,各ビンでの単語予測確率の幾何平均と幾何標準偏差をプロットした. バイアスを除去したところ,高頻度語(図右側)の予測確率が下がり,低頻度語(図左側)の予測確率が底上げされ,結果的に単語予測分布は平坦 (図 2 中 UNIFORM 直線)に近づいた。言い換えれば,バイアス $b_{\mathrm{LN}}$ は,高頻度語を予測しやすく低頻度語を予測しにくくすることで,単語予測分布を実際の単語頻度分布 (図 2 中 UnIGRam 直線)に近づけていることがわ 4) BERT の学習コーパスは Wikipedia と BooksCorpus [13], GPT-2 の学習コーパスは OpenWebText である.それぞれ https://github.com/huggingface/datasets で一般公開されているデータセットを用いて再現し,単語頻度を算出した。 表 1 各バイアス除去時のモデル単語予測分布とコーパス単語頻度分布の KL ダイバージェンス. 值が大きいほど,単語予測分布がコーパス単語頻度分布と離れていることを表す. $\boldsymbol{b}_{\mathrm{FC}}$ と $\boldsymbol{b}_{\text {bias }}$ は BERTにのみ存在する。 かった.この結果は単方向言語モデル(GPT-2)でも一貫した. GPT-2 (small) の結果を図 3,その他の結果を付録 A に示す。 各バイアスによる頻度補正を定量的に観察するため, 検証した全てのモデルについて, モデルの単語予測分布とコーパスから算出した実際の単語頻度分布(UnIGRam)の KL ダイバージェンスを測った (表 1).どのモデルでもバイアス $b_{\mathrm{LN}}$ を除去すると值が大きくなることから, $\boldsymbol{b}_{\mathrm{LN}}$ が単語予測分布を実際の単語頻度分布に近づける頻度補正はモデルによらず行われていることがわかった。なお,BERTにおける $\boldsymbol{b}_{\mathrm{FC}}$ および $\boldsymbol{b}_{\text {last }}$ も同様の頻度補正を行なっていたが $b_{\mathrm{LN}}$ に比べて影響が小さかったため,これ以後は $\boldsymbol{b}_{\mathrm{LN}}$ に絞って分析・検証を行う。 考察:層の外で頻度補正する戦略単語頻度分布の情報が予測ヘッドにある程度外出しされていることから, 各 Transformer 層は頻度情報に表現力を割かずに頻度以外の意味について処理をおこなう傾向にあると考えられる.実際,Transformer 言語モデルの層は入力側から順に表層・構造・意味を処理していると報告されている [14]. 例えば高頻度な名詞である “valley” と低頻度な類義語 “dale” は, 品詞理解の上でも構文解析の上でも大雑把な意味理解の上でも見分ける必要がなく, 頻度情報を一旦考えないのはむしろ効果的だと考えられる. また,表 1 ではモデルサイズが大きくなるほどバイアス除去前後の $\mathrm{KL}$ ダイバージェンスの変化は小さく, つまり, 層の表現力および次元数が低いモデルほど頻度情報を予測ヘッドに任せており,これは限られた表現力を別の種類の言語処理に割いているのだろうという考察と一貫する。 考察:単語埋込空間における「頻度方向」の存在 Geva ら [15] に倣い,バイアスパラメータ $b_{\mathrm{LN}}$ を埋 図 4 GPT-2 (small)においてバイアス $b_{\mathrm{LN}}$ を埋め込み行列 $\boldsymbol{W}_{\mathrm{emb}}$ に射影した結果. め込み行列 $\boldsymbol{W}_{\mathrm{emb}}$ へ直接射影し語彙数 $|\mathscr{V}|$ 個のスコアを算出することで $\left(\boldsymbol{b}_{\mathrm{LN}} \boldsymbol{W}_{\mathrm{emb}} \in \mathbb{R}^{|\mathscr{V}|}\right.$ を観察することで),バイアスパラメータが単語予測分布に与える影響を近似的に確認した. 結果,単語頻度と「バイアスと単語埋込の内積」との間に比例関係が観察された (図4). バイアスパラメータが高頻度語の予測を強め低頻度語の予測を弱める役割を持つという本稿の主張を補強する結果と言える.この結果を幾何的に解釈すると,単語埋込空間( $W_{\mathrm{emb}}$ をなす各単語ベクトルが入っている空間)の特定のわずか 1 次元の方向( $\boldsymbol{b}_{\mathrm{LN}}$ 方向)に頻度情報がエンコードされていると言える。これまでも,静的な埋込や系列変換器などさまざまなモデルで, 頻度の近い単語群が埋込空間上で偏在することが報告されてきた $[16,17,18]$. Transformer 言語モデルでも同様の現象が起きていると考えられる. ## 3.2 バイアスが文章生成に与える影響 前節では予測へッド内のバイアスが単語予測を実際の単語頻度に近づけていることが分かった. 本節では推論時にこのバイアスを制御することで生成される文章の質を改善できる可能性を示す。 手順バイアス $\boldsymbol{b}_{\mathrm{LN}}$ を制御した GPT-2 で文章生成し,その品質を評価する。具体的には,新たに係数 $\lambda \in[0,1]$ を導入し,予測へッドの $\boldsymbol{b}_{\mathrm{LN}}$ を $\lambda \boldsymbol{b}_{\mathrm{LN}}$ に置き換える。入を 0.1 刻みで変化させながら文章を生成させた. デコーディングには 5 種類の方法を用い デコーディングでの結果について述べる. ただし,本稿での主張は 5 種類全てで支持されている. 詳細設定は付録 Bに示す。  表 2 GPT-2のバイアスを制御した際の予測および生成されたテキストの評価. $\lambda=0,1$ と顕著だった $\lambda て ゙ の$ 結果. 評価生成された文章は多様性と人間らしさの 2 つの観点で評価する。多様性の評価には Distinct-n $\left(D_{n}\right)$ [19] と N-gram diversity $(D)$ [20]を用いた.これらは生成された文章における N-gram 重複度を測定する評価指標であり,以下のように計算される。 $ D_{n}=\frac{\# \text { ユニークな n-gram }}{\text { \# 生成された全ての n-gram }}, D=\frac{1}{4} \sum_{n=1}^{4} D_{n} $ 人間らしさの評価には MAUve[21]を用いた. MAUvE は人間が生成した文集合とモデルが生成した文集合を文埋込空間上の点群として比較することで,モデルが生成する文の分布が人間と近いかを評価する。加えて,モデルの単語レベルの予測傾向が人間と近いかを評価するため Perplexity (PPL) でも評価した. 結果表 2 に各モデルが生成した文章の評価結果を示す. どのサイズの GPT-2 でもバイアス $\boldsymbol{b}_{\mathrm{LN}}$ を弱める $(\lambda<1)$ ことで, 生成される文章の多様性は上がったが,同時に PPLが悪化し,両者はトレードオフの関係にあった. 一方で,サイズの大きい 2 モデルでは PPL の悪化が微小なのにも関わらず,多様性およびMAUVEが改善する入があった。すなわち, バイアス $\boldsymbol{b}_{\mathrm{LN}}$ の補正効果を係数 $\lambda$ で抑制する簡単な操作が,言語モデルに多様かつ人間に近い文章生成を促しうることがわかった. ただし,これらの指標のみから多様な側面を持つ文章品質の全体像を完全に把握するのは不可能であり,たとえば人手による流暢性の評価などが今後の展望として残されている。 考察: ロジット補正法との関係本研究では, Transformer 言語モデルの出口付近のバイアス $\boldsymbol{b}_{\mathrm{LN}}$ が単語予測分布を実際の単語頻度分布に近づけてい ることを明らかにし,また $\boldsymbol{b}_{\mathrm{LN}}$ の効果を抑制する操作が文章生成の制御・改善につながる可能性を示した.この一連の知見は Menon ら [22] が提案した口ジット補正法と非常に類似している. ロジット補正とは,クラス不均衡な分類タスクにおいてモデルが高頻度クラスばかりを予測するよう学習されてしまう問題をロジットの調整を通じて緩和する技術である.彼らが提案した手法の 1 つは,訓練時には口ジットにクラス頻度分布を加算して予測させ,推論時には加算せず予測させることで,均衡誤差6) の最小化を目指すものである. 本研究の知見と照らし合わせると,予測へッドでの頻度補正バイアス $b_{\mathrm{LN}}$ の加算はロジットにクラス頻度分布を加算する操作と一貫しており,推論時にこれを除去することが生成分布の多様性につながる点も同様である.頻度分布を外から与えるという工夫を加えていないにも関わらず,Transformer 言語モデルが暗に均衡誤差の最小化に近い形で学習されていることは興味梁い。 ## 4 関連研究 Transformer 言語モデルの分析のスコープとしては,1 節でも述べたように Transformer 層が注目を集めてきた.また,特に位置埋め込みなどモデルの入り口部分である埋込層にも関心が寄せられている $[23,24]$. 我々は分析領域を予測へッドに広げ, その機序について新たな発見を提供した. 予測へッドは層正規化を含むなど表現力が高く複雑な処理が可能であり(式 2),さらに単語予測に直接作用できるため積み重ねた Transformer 層の処理の上書きすら可能な魅力的な分析対象と言える. ## 5 おわりに 本稿では,Transformer 言語モデルの予測ヘッドを構成するバイアスが予測の頻度補正を行い,予測分布をコーパス単語頻度分布に近づけていることを明らかにした。さらに,このバイアスの効果を抑制しながら文章生成させることで,生成される文章の多様性や自然さを改善できる可能性を示した。一連の知見は,単語埋込空間における幾何やロジット補正法との関連など,Transformer 言語モデルが持つ性質について興味深い示唆を提供する。 今後は,OPT [25] などのより巨大な言語モデルでも分析を行いたい.また,今回は対象外とした予測ヘッド内の重みパラメータの分析も興味深い. 6)クラス頻度によらず,各クラスを平等に捉えた誤差. ## 謝辞 言語モデルが生成した文章の評価方法についてアドバイスをくださった東北大学の佐藤志貴さんに感謝申し上げます。本研究は JSPS 科研費 JP22J21492, JP22H05106, JP22H03654 の助成を受けたものです. また本研究は JST, ACT-X, JPMJAX200S および JST, CREST, JPMJCR20D2 の支援を受けたものです. ## 参考文献 [1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is All you Need. In Advances in Neural Information Processing Systems 30 (NIPS), pp. 5998-6008, 2017. [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT), pp. 4171-4186, 2019. [3] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language Models are Unsupervised Multitask Learners. Technical report, OpenAI, 2019. [4] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language Models are Few-Shot Learners. In Advances in Neural Information Processing Systems 33 (NeurIPS), Vol. 33, pp. 1877-1901, 2020. [5] Anna Rogers, Olga Kovaleva, and Anna Rumshisky. A Primer in BERTology: What We Know About How BERT Works. Transactions of the Association for Computational Linguistics (TACL), Vol. 8, pp. 842-866, 2021. [6] Kevin Clark, Urvashi Khandelwal, Omer Levy, and Christopher D Manning. What Does BERT Look At? An Analysis of BERT's Attention. In Proceedings of the 2019 ACL Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 276-286, 2019. [7] Goro Kobayashi, Tatsuki Kuribayashi, Sho Yokoi, and Kentaro Inui. Incorporating Residual and Normalization Layers into Analysis of Masked Language Models. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 4547-4568, 2021. [8] Damai Dai, Li Dong, Yaru Hao, Zhifang Sui, Baobao Chang, and Furu Wei. Knowledge neurons in pretrained transformers. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 8493-8502, 2022. [9] Ari Holtzman, Jan Buys, Li Du, Maxwell Forbes, and Yejin Choi. The Curious Case of Neural Text Degeneration. In 8th International Conference on Learning Representations (ICLR), 2020. [10] Sean Welleck, Ilia Kulikov, Stephen Roller, Emily Dinan, Kyunghyun Cho, and Jason Weston. Neural Text Generation With Unlikelihood Training. In 8th International Conference on Learning Representations (ICLR), 2020. [11] Jimmy Lei Ba, Jamie Ryan Kiros, and Geoffrey E. Hinton. Layer Normalization. arXiv preprint arXiv:1607.06450, 2016. [12] Dan Hendrycks and Kevin Gimpel. Gaussian Error Linear Units (GELUs). arXiv preprint arXiv:1606.08415, 2016. [13] Yukun Zhu, Ryan Kiros, Rich Zemel, Ruslan Salakhutdinov, Raquel Urtasun, Antonio Torralba, and Sanja Fidler. Aligning Books and Movies: Towards Story-Like Visual Explanations by Watching Movies and Reading Books. In The IEEE International Conference on Computer Vision (ICCV), 2015. [14] Ian Tenney, Dipanjan Das, and Ellie Pavlick. BERT Rediscovers the Classical NLP Pipeline. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 4593-4601, 2019. [15] Mor Geva, Roei Schuster, Jonathan Berant, and Omer Levy. Transformer Feed-Forward Layers Are Key-Value Memories. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 5484-5495, 2021. [16] Jiaqi Mu and Pramod Viswanath. All-but-the-Top: Simple and Effective Postprocessing for Word Representations. In 6th International Conference on Learning Representations (ICLR), 2018. [17] Chengyue Gong, Di He, Xu Tan, Tao Qin, Liwei Wang, and Tie-Yan Liu. Frage: Frequency-agnostic word representation. In Advances in Neural Information Processing Systems 31 (NeurIPS), pp. 1341-1352, 2018. [18] Ivan Provilkov, Dmitrii Emelianenko, and Elena Voita. BPEdropout: Simple and effective subword regularization. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 1882-1892, 2020. [19] Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. A diversity-promoting objective function for neural conversation models. In Proceedings of the $\mathbf{2 0 1 6}$ Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACLHLT), pp. 110-119, 2016. [20] Clara Meister, Tiago Pimentel, Gian Wiher, and Ryan Cotterell. Locally Typical Sampling. arXiv preprint arXiv:2202.00666v4, 2022. [21] Krishna Pillutla, Swabha Swayamdipta, Rowan Zellers, John Thickstun, Sean Welleck, Yejin Choi, and Zaid Harchaoui. MAUVE: Measuring the Gap Between Neural Text and Human Text using Divergence Frontiers. In Advances in Neural Information Processing Systems 34 (NeurIPS), 2021. [22] Aditya Krishna Menon, Sadeep Jayasumana, Ankit Singh Rawat, Himanshu Jain, Andreas Veit, and Sanjiv Kumar. Long-tail learning via logit adjustment. In 9th International Conference on Learning Representations (ICLR), 2021. [23] Benyou Wang, Lifeng Shang, Christina Lioma, Xin Jiang, Hao Yang, Qun Liu, and Jakob Grue Simonsen. On position embeddings in BERT. In 9th International Conference on Learning Representations (ICLR), 2021. [24] Shun Kiyono, Sosuke Kobayashi, Jun Suzuki, and Kentaro Inui. SHAPE: Shifted absolute position embedding for transformers. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 3309-3321, 2021. [25] Susan Zhang, Stephen Roller, Naman Goyal, Mikel Artetxe, Moya Chen, Shuohui Chen, Christopher Dewan, Mona Diab, Xian Li, Xi Victoria Lin, Todor Mihaylov, Myle Ott, Sam Shleifer, Kurt Shuster, Daniel Simig, Punit Singh Koura, Anjali Sridhar, Tianlu Wang, and Luke Zettlemoyer. OPT: Open Pre-trained Transformer Language Models. arXiv preprint arXiv:2205.01068v4, 2022. 図 5 BERT (large) におけるバイアス $b_{\mathrm{LN}}$ 除去による単語予測分布の変化. 図 6 GPT-2 (medium) におけるバイアス $\boldsymbol{b}_{\mathrm{LN}}$ 除去による単語予測分布の変化. ## A 各モデルサイズでの結果 3.1 節で行った,バイアス $\boldsymbol{b}_{\mathrm{LN}}$ 除去した際の予測確率分布の変化を各モデルで可視化した結果を図 5 から 8 に示す. 3.1 節で行った, バイアス $\boldsymbol{b}_{\mathrm{LN}}$ を埋め込み行列 $\boldsymbol{W}_{\mathrm{emb}}$ への射影を BERT (base) で可視化した結果を図 9 に示す.スペースの都合でその他モデルでの可視化は省略する. ## B 実験の詳細設定 言語モデルの単語予測分布を観察する実験(3.1 節および 3.2 節の PPL計算)では, BERTには [MASK]部分を単語予測させ,GPT-2 には各系列の 2 単語目以降を単語予測させた. 入力系列の長さがモデルの最大入力長 $k$ を超える場合は,先頭から $k$ トークンのみを用いた.GPT-2 に文章を生成させる実験(3.2 節)では,先頭から 10 単語を文脈として与え,入力系列と同じ長さになるか終端トークンを生成するまで後続を生成させた. ビーム探索のビーム幅は 5 , Top-k サンプリングの $k$ は 50, Top-p サンプリングの $p$ は 0.9 とした.また,モデルが生成した文章の多様性を評価する際には,NLTK の単語分割器を適用してから N-gram をカウントした. 図 7 GPT-2 (large) におけるバイアス $b_{\mathrm{LN}}$ 除去による単語予測分布の変化. 図 8 GPT-2 (xl) におけるバイアス $b_{\mathrm{LN}}$ 除去による単語予測分布の変化. 図 9 BERT (base) においてバイアス $b_{\mathrm{LN}}$ を埋め込み行列 $\boldsymbol{W}_{\mathrm{emb}}$ に射影した結果.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C4-1.pdf
# 正準角および部分空間に基づく BERTScore の拡張 石橋陽一 ${ }^{1}$ 横井祥 ${ }^{2,3}$ 須藤 克仁 ${ }^{1}$ 中村哲 ${ }^{1}$ 1 奈良先端科学技術大学院大学 2 東北大 ${ }^{3}$ 理研 AIP \{ishibashi.yoichi.ir3, sudoh, s-nakamura\}@is.naist.jp yokoi@tohoku.ac.jp ## 概要 本研究では生成文自動評価の代表的な手法である BERTScore を拡張し、新たな文類似度 SubspaceBERTScore を提案する。我々は文に明示的に含まれない意味も考慮するため、BERTScore における文表現(ベクトル集合)と指示関数(集合への含まれ度合い)に着目し、これらを部分空間表現と正準角を用いて自然に拡張する。生成文評価タスクと文類似度タスクでの実験により提案法が BERTScore の文類似推定性能を安定して改善する事を示す。 ## 1 はじめに 生成文の自動評価は、自然言語処理の重要な課題の1つである。自動評価ではシステム訳文と参照文を比較することで意味的な同等性を評価することを目指している [1]。ベクトル集合のマッチングに基づく類似度の中で代表的な手法である BERTScore [2] はシンプルで利便性が高く、最も使用されている手法である。BERTScore は BERT [3] や RoBERTa [4] 等の事前学習済みベクトルを利用して、ベクトル間のコサイン類似度の総和に基づき文類似度を計算する手法である。 BERTScore において技術的に最も重要なものは指示関数である。これは、文を単語集合と考えたときに、ある単語集合中のトークン (royal) が、もう一方の単語集合( $B=\{$ We, are, king, and, queen $\})$ にどの程度含まれているか $($ royal $\in B ) を$ 定量化するものである。我々が着目するのは、この一件自然なアプローチが,文内のシンボルとしては明示的に含まれないが文意には影響する意味を取り逃がす可能があるという点である。例えば king と queenを含む文が持つ royal という意味情報が、royal という単語が $B$ に含まれないという理由で BERTScore の類似性計算は反映することができない。 そこで、本研究では、部分空間の考え方 [5]を取 ## BERTScore $B=\left.\{b_{1}, b_{2}, b_{3}\right.\}$ Subspace-BERTScore $\mathbb{S}_{B}=\operatorname{span}\left.\{b_{1}, b_{2}, b_{3}\right.\}$ 図 1 提案法 (Subspace-BERTScore) と BERTScore の比較。提案法は文 $(B)$ を部分空間 $\left(\mathbb{S}_{\mathbf{B}}\right)$ で表現し、部分空間とトークンベクトル $\left(a_{i}\right)$ との類似度(う正準角)を計算することで、文類似尺度の表現力を向上させている。 り入れることで、BERTScore の指示関数を拡張し、文類似度の改善に取り組んだ。提案法は表現力を向上させるだけでなく、べクトル集合間のマッチングを Recall、Precision、F-score に帰着させるという BERTScore の基本的な方針を継承しているため、タスクへの非依存性といった BERTScore の利点は損なわれていない。本研究では生成文評価タスクと文類似度タスクでの実験により提案法が BERTScore の文類似推定性能を改善する事を示した。 ## 2 準備 問題設定本研究では 2 つの文に対する類似度の開発を目指している。本手法が対象とするタスク (生成文自動評価・文類似度タスク)では 2 つの文が与えられ、これらの類似性を判定する。したがって本研究では与えられる 2 つ文 $A, B$ を事前学習済みのべクトルで表現した上で、それらの類似度を計算する。 記法以降の議論を明確にするために、いくつかの記号を定義しておく。2つの文 $A, B$ のトークンの集合をそれぞれ $A=\left.\{a_{1}, a_{2}, \ldots\right.\}, B=\left.\{b_{1}, b_{2}, \ldots\right.\}$ と表記する。事前学習済み埋め込みによって表現される文脈化トークンベクトルの集合を $\mathbf{A}=\left.\{\boldsymbol{a}_{1}, \boldsymbol{a}_{2}, \ldots\right.\}, \mathbf{B}=\left.\{\boldsymbol{b}_{1}, \boldsymbol{b}_{2}, \ldots\right.\}$ と表記する。ここで $\boldsymbol{a}, \boldsymbol{b}$ をトークンのベクトルとする。また、Aによっ て張られる部分空間を $\mathbb{S}_{\mathbf{A}}$ と表記する。 ## 3 BERTScore ここでは生成文のマッチングに基づく文類似度における最も代表的な評価手法である BERTScore [2] における「文の表現方法」と技術的に最も重要な 「指示関数」を概説しその限界を指摘する。 離散シンボル集合間の類似度 BLEU [1] や METEOR [6] などの BERTScore 以前のいくつかの評価手法は、Recall $(R)$ 、Precision $(P)$ の計算に基づく手法であった1)。 $ \begin{aligned} & R=\frac{1}{|A|} \sum_{a_{i} \in A} \mathbb{1}_{\text {set }}\left[a_{i} \in B\right], \\ & P=\frac{1}{|B|} \sum_{b_{i} \in B} \mathbb{1}_{\text {set }}\left[b_{i} \in A\right] . \end{aligned} $ ここで指示関数 $\mathbb{1}_{\text {set }}$ は「集合に含まれる (1) か否か (0)」を離散的に定量化する関数である。 $ \mathbb{1}_{\text {set }}\left[a_{i} \in B\right]=\left.\{\begin{array}{lll} 1 & \text { if } & a_{i} \in B, \\ 0 & \text { if } & a_{i} \notin B . \end{array}\right. $ BERTScore における 3 つの類似度 BERTScore は $R, P$ そして F-score $(F)$ を埋め込みを用いて近似的に計算する手法である。 $ \begin{aligned} & R_{\mathrm{BERT}}=\frac{1}{|A|} \sum_{\boldsymbol{a}_{i} \in \mathbf{A}} \mathbb{1}_{\text {vectors }}\left(\boldsymbol{a}_{i}, \mathbf{B}\right), \\ & P_{\mathrm{BERT}}=\frac{1}{|B|} \sum_{\boldsymbol{b}_{i} \in \mathbf{B}} \mathbb{1}_{\text {vectors }}\left(\boldsymbol{b}_{i}, \mathbf{A}\right), \\ & F_{\mathrm{BERT}}=2 \frac{P_{\mathrm{BERT}} \cdot R_{\mathrm{BERT}}}{P_{\mathrm{BERT}}+R_{\mathrm{BERT}}} . \end{aligned} $ 文はトークンベクトルの集合 $\mathbf{A}, \mathbf{B}$ として表現され 関数である。直感的には、この $\mathbb{1}_{\text {vectors }}$ は「ベクトル集合への $-1 \sim 1$ の含まれ度合い」であり、 $\mathbb{1}_{\text {set }} よ$ りも柔軟な指示関数となっている。具体的には、 $\mathbb{1}_{\text {vectors }}\left(\boldsymbol{a}_{i}, \mathbf{B}\right)$ は文 $A$ 中の $i$ 番目のトークンベクトル $a_{i}$ が文 $B$ に対し意味的にどの程度含まれているかを $a_{i}$ と $B$ のトークンベクトルとの $\cos$ 類似度の最大値として定量化している。 $ \mathbb{1}_{\text {vectors }}\left(\boldsymbol{a}_{i}, B\right)=\max _{\boldsymbol{b}_{j} \in B} \cos \left(\boldsymbol{a}_{i}, \boldsymbol{b}_{j}\right) \in[-1,1] $ ここで $\cos \left(\boldsymbol{a}_{i}, \boldsymbol{b}_{j}\right)$ は $\boldsymbol{a}_{i}$ と $\boldsymbol{b}_{j}$ の $\cos$ 類似度である。 表現力の問題指示関数 $\mathbb{1}_{\text {vector }}$ は BERTScore の計算において最も重要な演算である。 $P_{\mathrm{BERT}}, R_{\mathrm{BERT}}$ は $-gram のリストが }使われる。 $\mathbb{1}_{\text {vectors }}$ の和であるし、 $F_{\mathrm{BERT}}$ は $P_{\mathrm{BERT}}, R_{\mathrm{BERT}}$ に基づいて計算される。しかしながら BERTScore の指示関数は表現力の観点で問題がある。図 1 左は $\mathbb{1}_{\text {vectors }}$ の計算を可視化したものである。ここで $\mathbb{v}_{\text {vectors }}$ は $B$ のすべてのべクトルとの類似度を計算し、最大值のみ返す。すなわち、 $B$ 中の「特定の単語」との類似度である。したがって、文が持つ非明示的で重要な意味情報との類似性が考慮されない。例えばThe king and queen. は royal の意味を含むが、表層的には含まれない。BERTScore における類似度の計算対象は文中の単語のみであるので、royal との類似性は直接計算できない。この問題は文を単なるべクトル集合で表現していること、そしてそのようなべクトル集合のための指示関数を採用している事に起因する。 ## 4 Subspace-BERTScore 我々は部分空間の考え [5] に基づいた文表現と指示関数により BERTScore を拡張した SubspaceBERTScoreを提案する。 部分空間を使った文表現 BERTScoreでは、文がベクトル集合で表現されていたが、我々は文の非明示的な情報を表現するため、文をトークンベクトルが張る部分空間 $\mathbb{S}$ とてて表現する(図 1)。以前の研究で、単語ベクトルが張る部分空間が単語集合の意味的特徴をよく反映する表現であることがわかっている $[7,5]$ 。 部分空間に対する指示関数部分空間と単語の類似性を計算するため、部分空間に適用できる指示関数であるソフト帰属度 [5] を導入する。これは直感的には「部分空間とべクトルの類似度」として機能する。この指示関数はベクトル $\boldsymbol{a}$ と部分空間 $\mathbb{S}_{\mathbf{B}}$ とのなす最小の角度(第一正準角)に応じて 0 から 1 の連続値を返す2)。 $ \mathbb{1}_{\text {subspace }}\left(\boldsymbol{a}_{i}, \mathbb{S}_{\mathbf{B}}\right)=\max _{\boldsymbol{b}_{j} \in \mathbb{S}_{\mathbf{B}}}\left|\cos \left(\boldsymbol{a}_{i}, \boldsymbol{b}_{j}\right)\right| \in[0,1] $ ここで、 $\mathbb{S}_{\mathbf{B}}$ は文 $B$ のベクトルで張られる線形部分空間である (図 1)。 ソフト帰属度は文の全情報を含む部分空間との類似度を計算でき、BERTScore の指示関数の表現力を改善する。また、式を見るとソフト帰属度 $1_{\text {subspace }}$ (式 8)は BERTScore における指示関数 $\mathbb{1}_{\text {vectors }}$ (式 7) の自然な拡張となっていることがわかる。  提案法: P, R, F の拡張これまでの議論に基づき、我々は文の部分空間表現とソフト帰属度を用いて BERTScore の $R, P, F$ を計算する SubspaceBERTScore を提案する。 $ \begin{aligned} & R_{\text {subspace }}=\frac{1}{|A|} \sum_{\boldsymbol{a}_{i} \in A} \mathbb{1}_{\text {subspace }}\left(\boldsymbol{a}_{i}, \mathbb{S}_{\mathbf{B}}\right), \\ & P_{\text {subspace }}=\frac{1}{|B|} \sum_{\boldsymbol{b}_{i} \in B} \mathbb{1}_{\text {subspace }}\left(\boldsymbol{b}_{i}, \mathbb{S}_{\mathbf{A}}\right), \\ & F_{\text {subspace }}=2 \frac{P_{\text {subspace }} \cdot R_{\text {subspace }}}{P_{\text {subspace }}+R_{\text {subspace }}} . \end{aligned} $ ここで、 $R_{\text {subspace }}, P_{\text {subspace }}, F_{\text {subspace }}$ は SubspaceBERTScore の最終的な評価尺度である。 重要度の重み付け過去の研究で、出現頻度の低い単語は一般的な単語よりも文において文類似性に重要な役割を果たすことが知られている $[6,8]$ 。このことから BERTscore では重要度を重み付けする方法も提案している。そこで我々の手法も BERTScore と同様に以下のように重み付けを行う。 $ \begin{aligned} R_{\text {subspace }}= & \frac{\sum_{\boldsymbol{a}_{i} \in A} \operatorname{weight}\left(\mathrm{a}_{\mathrm{i}}\right) \mathbb{1}_{\text {subspace }}\left(\boldsymbol{a}_{i}, \mathbb{S}_{\mathbf{B}}\right)}{\sum_{\boldsymbol{a}_{i} \in A} \operatorname{weight}\left(\mathrm{a}_{\mathrm{i}}\right)}, \\ P_{\text {subspace }}= & \frac{\sum_{\boldsymbol{b}_{i} \in B} \operatorname{weight}\left(\mathrm{b}_{\mathrm{i}}\right) \mathbb{1}_{\text {subspace }}\left(\boldsymbol{b}_{i}, \mathbb{S}_{\mathbf{A}}\right)}{\sum_{\boldsymbol{b}_{i} \in B} \operatorname{weight}\left(\mathrm{b}_{\mathrm{i}}\right)} . \end{aligned} $ ここで、weight は重み付け関数である。我々は BERTScore で採用された inverse document frequency (IDF) またはベクトルの L2ノルム [9]を使用する。 ## 5 定量的評価 提案法の性能を検証するため、生成文の自動評価タスクと、文類似度タスクで評価を類似おこ。ここでは複数のデータセットにおける総合的な結果を述べる。各データセットの個々の結果については付録の表 4、表 5に記載する。 ## 5.1 生成文自動評価タスク 実験設定先行研究 [2] に習い我々は機械翻訳における自動評価タスクである WMT18 metrics task [10] の評価データセットを使用した。このデータセットには機械翻訳システム訳文と参照訳文、そして人手評価が含まれる。このタスクでは機械翻訳システム訳文と参照訳文の類似度を算出し、人手評価と自動評価のケンドールの順位相関係数 (Kendall's $\tau$ )で評価する。本実験で我々は 7 言語から英語への翻訳におけるセグメントレベルの人手評価を使用した。事前学習済み言語モデルには表 1 WMT18におけるセグメントレベルの人手評価との平均相関係数(Kendall's $\tau$ )。 表 2 各 STS データセットにおける人手評価との平均相関係数(Spearman's $\rho$ ) BERTScore で高い性能を達成したことが報告されている RoBERTa $_{\text {large }}{ }^{3}$ [4] の第 17 層を使用した。 結果結果を表 1に示す。3つの類似尺度 F-score、 Precision、Recallに着目すると、いずれの類似度でも提案法が最も高い人手評価との相関を達成した。特に、この3つの中で F-score が最も高い性能であった。また、我々は先行研究 [2] と同じくIDFによる重み付けを BERTScore と提案法に行ったが、両者とも性能向上は確認されなかった。 ## 5.2 文類似度タスク 実験設定文類似度タスク(STS)では 2つの文の類似度を算出し、人手評価と自動評価のスピアマンの順位相関係数 (Spearman's $\rho)^{4)}$ で評価する。  データセットとして我々は SemEval shared task の 2012-2016 [11, 12, 13, 14, 15]、STS-benchmark (STS-B) [16]、そして SICK-Relatedness (SICK-R) [17]を用いた。我々は事前学習済み言語モデル BERT $_{\text {base }}{ }^{5}$ [3] の最終層のベクトルを使用した。 結果結果を表 2に示す。F-score、Precision、Recall のいずれの方法でも生成文自動評価タスクと同様、提案法が人手評価との最も高い相関を達成した。この中で最も高い性能であったメトリックは F-score であった。また、重要度の重みとして STS において有効性が確認されている L2ノルム [9] で指示関数を重み付けした実験を行った結果、提案法および BERTScore ともに性能向上が確認され、両者ともに重み付けが有効であることがわかった。また、L2ノルムによる重み付けを行った場合も提案法が既存法より優れていた。 ## 6 指示関数の効果の分析 提案法は BERTScore よりも文の非明示的な情報を活用できているだろうか?ここで我々は非明示的な情報を持つ文に両手法を適用し比較を行う。 ## 6.1 実験設定 ここでは「非明示的だが royal の意味を含む文」 と「明示的に royal の意味を含む文」に対して指示関数を適用し比較する。我々は非明示的な文として They are the king and queen. を使用した ${ }^{6)}$ 。この文には royal という単語は文中に出現していないが、文の本質的な意味としては royal に近い意味を包含している。明示的に含む文は They are royalty. である。指示関数が良く機能するならば、「非明示的な文」 と「明示的に含む文」に対してどちらも royalを意味的に含むと判断するので、両者に対する指示関数の値には大きな差がないはずである。そこで我々は提案法と BERTScore の指示関数をこれらの文に使用し、指示関数の値の差で比較した。 ## 6.2 結果 結果を表 3に示す。提案法は BERTScore よりも指示関数の値の差が小さいことがわかる。提案法は king や queen が張る空間で文を表現するため、文中に royal を含まなくともその空間に royal のような意味が含まれている。したがって、この文に対す 5) https://huggingface.co/bert-base-uncased 6)これ以外の例は付録(表 6)に記載する。表 3 指示関数の比較 ( $\mathbb{1}_{\text {vecs }}$ : BERTScore $の, \mathbb{1}_{\text {sub }}$ : 提案法の)。両者は文 $B$ に対する単語 royal の包含度合いを計算する。 & 0.60 & 0.69 \\ る指示関数の值は royaltyを含む文のそれと近くなり、両者の差が小さくなったと考えられる。一方で BERTScore の指示関数は提案法のように king と queen どちらも含むような意味空間との類似性は計算できないため、提案法よりも差が大きくなったと考えられる。以上の結果から、提案法は BERTScore よりも高い表現力を持つことが示唆される。 ## 7 関連研究 近年の生成文評価には BLEURT [18]、C-SPEC [19, 20]、COMET [21]などがある。これらは人手評価のデータを使用して評価モデルの学習を行う手法である。これは本研究と目的が異なる。我々のタスクはモデルの学習は行わないマッチングベースの評価であり、事前学習された言語モデルによる教師なしの類似度を提案している。 BERTScore と類似した手法として MoverScore [22] がある。両者を比較すると BERTScore は基本的な性能が MoverScore よりも高く、マッチングベースの自動評価において最も使われる手法であることから、本研究では BERTScore を拡張した。 ## 8 結論 本研究では、BERTScore の表現力の限界を指摘し、より表現力の高い方法 Subspace-BERTScoreを提案した。これは BERTScore の自然な拡張になっており、類似度としての性能が向上している。実験では、機械翻訳における生成文自動評価タスクと文類似度タスクで BERTScore と提案法を比較した。 その結果、全てのタスクと全メトリックで提案法が BERTScore よりも優位であり、部分空間の方法を取り入れることで性能を向上させることが示された。 また、我々が採用した部分空間に基づくアプロー チは汎用性が高く、現代の自然言語処理で頻繁に使用される計算(文表現やベクトル集合に対する表現形式・類似性計算)を代替できる可能性があり、将来的にあらゆる場面での応用が期待できる。 ## 謝辞 本研究は JSPS 科研費 (JP22H03654, JP22H05106)、 JST ACT-X(JPMJAX200S)の支援を受けたものです。 ## 参考文献 [1] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedtational Linguistics, July 6-12, 2002, Philadelphia, PA, USA, pp. 311-318. ACL, 2002. [2] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, and Yoav Artzi. BERTScore: Evaluating Text Generation with BERT. In 8th International Conference on Learning Representations, ICLR 2020, Addis Ababa, Ethiopia, April 26-30, 2020. OpenReview.net, 2020. [3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Jill Burstein, Christy Doran, and Thamar Solorio, editors, Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, NAACL-HLT 2019, Minneapolis, MN, USA, June 2-7, 2019, Volume 1 (Long and Short Papers), pp. 4171-4186. Association for Computational Linguistics, 2019. [4] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A Robustly Optimized BERT Pretraining Approach. CoRR, Vol. abs/1907.11692, , 2019. [5] Yoichi Ishibashi, Sho Yokoi, Katsuhito Sudoh, and Satoshi Nakamura. Subspace-based set operations on a pre-trained word embedding space. CoRR, Vol. abs/2210.13034, , 2022. [6] Satanjeev Banerjee and Alon Lavie. METEOR: an automatic metric for MT evaluation with improved correlation with human judgments. In Jade Goldstein, Alon Lavie, Chin-Yew Lin, and Clare R. Voss, editors, Proceedings of the Workshop on Intrinsic and Extrinsic Evaluation Measures for Machine Translation and/or Summarization@ACL 2005, Ann Arbor, Michigan, USA, June 29, 2005 pp. 65-72. Association for Computational Linguistics, 2005. [7] Jiaqi Mu, Suma Bhat, and Pramod Viswanath. Representing sentences as low-rank subspaces. In Regina Barzilay and Min-Yen Kan, editors, Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics, ACL 2017, Vancouver, Canada, July 30 - August 4, Volume 2: Short Papers, pp. 629-634. Association for Computational Linguistics, 2017. [8] Ramakrishna Vedantam, C. Lawrence Zitnick, and Devi Parikh. Cider: Consensus-based image description evaluation. In IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2015, Boston, MA, USA, June 7-12, 2015, pp. 4566-4575. IEEE Computer Society, 2015 [9] Sho Yokoi, Ryo Takahashi, Reina Akama, Jun Suzuki, and Kentaro Inui. Word Rotator's Distance. In Bonnie Webber, Trevor Cohn, Yulan $\mathrm{He}$, and Yang Liu, editors, Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing, EMNLP 2020, Online, November 16-20, 2020, pp. 2944-2960. Association for Computational Linguistics, 2020 [10] Qingsong Ma, Ondrej Bojar, and Yvette Graham. Results of the WMT18 metrics shared task: Both characters and embeddings achieve good performance. In Ondrej Bojar, Rajen Chatterjee, Christian Federmann, Mark Fishel, Yvette Graham, Barry Haddow, Matthias Huck, Antonio Jimeno-Yepes, Philipp Koehn, Christof Monz, Matteo Negri, Aurélie Névéol, Mariana L. Neves, Matt Post, Lucia Specia, Marco Turchi, and Karin Verspoor, editors, Proceedings of the Third Conference on Machine Translation: Shared Task Papers, WMT 2018, Belgium, Brussels, October 31 - November 1, 2018, pp. 671-688. Association for Computational Linguistics, 2018 [11] Eneko Agirre, Daniel M. Cer, Mona T. Diab, and Aitor GonzalezAgirre. SemEval-2012 Task 6: A Pilot on Semantic Textual Similarity. In Eneko Agirre, Johan Bos, and Mona T. Diab, editors, Proceedings of the 6th International Workshop on Semantic Evaluation, SemEval@NAACL-HLT 2012, Montréal, Canada, June 7-8, 2012, pp. 385-393. The Association for Computer Linguistics, 2012. [12] Eneko Agirre, Daniel M. Cer, Mona T. Diab, Aitor Gonzalez-Agirre, and Weiwei Guo. *SEM 2013 shared task: Semantic Textual Simitors, Proceedings of the Second Joint Conference on Lexical and Computational Semantics, *SEM 2013, June 13-14, 2013, Atlanta, Georgia, USA, pp. 32-43. Association for Computational Linguistics, 2013. [13] Eneko Agirre, Carmen Banea, Claire Cardie, Daniel M. Cer, Mona T. Diab, Aitor Gonzalez-Agirre, Weiwei Guo, Rada Mihalcea, German Rigau, and Janyce Wiebe. SemEval-2014 Task 10: Multilingual Semantic Textual Similarity. In Preslav Nakov and Torsten Zesch, editors, Proceedings of the 8th International Workshop on Seman- tic Evaluation, SemEval@COLING 2014, Dublin, Ireland, August 23-24, 2014, pp. 81-91. The Association for Computer Linguistics, 2014. [14] Eneko Agirre, Carmen Banea, Claire Cardie, Daniel M. Cer, Mona T. Diab, Aitor Gonzalez-Agirre, Weiwei Guo, Iñigo Lopez-Gazpio, Montse Maritxalar, Rada Mihalcea, German Rigau, Larraitz Uria, and Janyce Wiebe. SemEval-2015 Task 2: Semantic Textual Similarity, English, Spanish and Pilot on Interpretability. In Daniel M. Cer, David Jurgens, Preslav Nakov, and Torsten Zesch, editors, Proceedings of the 9th International Workshop on Semantic Evaluation, SemEval@NAACL-HLT 2015, Denver, Colorado, USA, June 4-5, 2015, pp. 252-263. The Association for Computer Linguistics, 2015. [15] Eneko Agirre, Carmen Banea, Daniel M. Cer, Mona T. Diab, Aitor Gonzalez-Agirre, Rada Mihalcea, German Rigau, and Janyce Wiebe. Semeval-2016 task 1: Semantic textual similarity, monolingual and cross-lingual evaluation. In Steven Bethard, Daniel M. Cer, Marine Carpuat, David Jurgens, Preslav Nakov, and Torsten Zesch, editors, Proceedings of the 10th International Workshop on Semantic Evaluation, SemEval@NAACL-HLT 2016, San Diego, CA, USA, June 16-17, 2016, pp. 497-511. The Association for Computer Linguistics, 2016 [16] Daniel M. Cer, Mona T. Diab, Eneko Agirre, Iñigo Lopez-Gazpio, and Lucia Specia. SemEval-2017 Task 1: Semantic Textual Similarity Multilingual and Crosslingual Focused Evaluation. In Steven Bethard, Marine Carpuat, Marianna Apidianaki, Saif M. Mohammad, Daniel M. Cer, and David Jurgens, editors, Proceedings of the 11th International Workshop on Semantic Evaluation, SemEval@ACL 2017, Vancouver, Canada, August 3-4, 2017, pp. 1-14. Association for Computational Linguistics, 2017. [17] Marco Marelli, Stefano Menini, Marco Baroni, Luisa Bentivogli, Raffaella Bernardi, and Roberto Zamparelli. A SICK cure for the evaluation of compositional distributional semantic models. In Nicoletta Calzolari, Khalid Choukri, Thierry Declerck, Hrafn Loftsson, Bente Maegaard, Joseph Mariani, Asunción Moreno, Jan Odijk, and Stelios Piperidis, editors, Proceedings of the Ninth International Conference on Language Resources and Evaluation, LREC 2014, Reykjavik, Iceland, May 26-31, 2014, pp. 216-223. European Language Resources Association (ELRA), 2014 [18] Thibault Sellam, Dipanjan Das, and Ankur P. Parikh. BLEURT: learning robust metrics for text generation. In Dan Jurafsky, Joyce Chai, Natalie Schluter, and Joel R. Tetreault, editors, Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, ACL 2020, Online, July 5-10, 2020, pp. 7881-7892. Association for Computational Linguistics, 2020. [19] Kosuke Takahashi, Katsuhito Sudoh, and Satoshi Nakamura. Automatic machine translation evaluation using source language inputs and cross-lingual language model. In Dan Jurafsky, Joyce Chai, Natalie Schluter, and Joel R. Tetreault, editors, Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, ACL 2020, Online, July 5-10, 2020, pp. 3553-3558. Association for Computational Linguistics, 2020 [20] Kosuke Takahashi, Yoichi Ishibashi, Katsuhito Sudoh, and Satoshi Nakamura. Multilingual machine translation evaluation metrics finetuned on pseudo-negative examples for WMT 2021 metrics task. In Loïc Barrault, Ondrej Bojar, Fethi Bougares, Rajen Chatterjee, Marta R Costa-jussà, Christian Federmann, Mark Fishel, Alexander Fraser, Markus Freitag, Yvette Graham, Roman Grundkiewicz, Paco Guzman, Barry Haddow, Matthias Huck, Antonio Jimeno-Yepes, Philipp Koehn, Tom Kocmi, André Martins, Makoto Morishita, and Christof Monz, editors, Proceedings of the Sixth Conference on Machine Translation, WMT@EMNLP 2021, Online Event, November 10-11, 2021 pp. 1049-1052. Association for Computational Linguistics, 2021. [21] Ricardo Rei, Craig Stewart, Ana C. Farinha, and Alon Lavie. COMET: A neural framework for MT evaluation. In Bonnie Webber, Trevor Cohn, Yulan He, and Yang Liu, editors, Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing, EMNLP 2020, Online, November 16-20, 2020, pp. 2685-2702. Association for Computational Linguistics, 2020. [22] Wei Zhao, Maxime Peyrard, Fei Liu, Yang Gao, Christian M. Meyer and Steffen Eger. Moverscore: Text generation evaluating with contextualized embeddings and earth mover distance. In Kentaro Inui, Jing Jiang, Vincent Ng, and Xiaojun Wan, editors, Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, EMNLP-IJCNLP 2019, Hong Kong, China, November 3-7, 2019, pp. 563-578. Association for Computational Linguistics, 2019. ## 付録 本研究で実施した生成文自動評価タスクと文類似度タスクの詳細な結果を表 4と表 5に示す。結果の傾向は実験 5 と同じであり、個々のデータセットに対しても提案法が BERTScore を上回っている。 表 4 英語への機械翻訳自動評価タスクにおけるシステム訳と参照訳のセグメントレベルの人手評価との相関係数 (Kendall's $\tau$ )。BERTScore の結果は [2] から引用した。 表 5 各STS タスクにおける人手評価との相関係数(Spearman's $\rho$ ) 表 6 指示関数( $\mathbb{1}_{\text {vectors }}$ : BERTScore, $\mathbb{1}_{\text {subspace }}$ : 提案法)の比較。両者は文 $B$ に対する単語 genius の包含度合いを計算する。 & 0.69 & 0.76 \\
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C4-2.pdf
# 知識グラフ補完のためのモデル予測に基づくサブサンプリング Xincan Feng ${ }^{1}$ 上垣外英剛 ${ }^{1}$ 林克彦 $^{2}$ 渡辺太郎 ${ }^{1}$ 1 奈良先端科学技術大学院大学 2 北海道大学 \{feng.xincan.fy2, kamigaito.h, taro\}@is.naist.jp katsuhiko-h@ist.hokudai.ac.jp ## 概要 知識グラフの埋め込み (KGE) において,サブサンプリングは知識グラフ (KG) データセットの疎性により生じる過学習を減少させる効果がある. しかし,現在のサブサンプリングは,エンティティとその関係からなるクエリの頻度を考慮するだけであるため,頻度の少ないクエリに含まれるエンティティや関係の頻度が高い場合,そのようなクエリの出現確率を低く見積もる可能性がある。この問題を解決するために,KGE モデルの予測を利用することでクエリの出現確率を推定する,モデルに基づくサブサンプリング (MBS) および混合サブサンプリング (MIX) を提案する.FB15k-237 および WN18RRでの評価を行った結果,提案法であるサブサンプリングは代表的な KGE モデルである ComplEx, RotatE, および HAKE において知識グラフの補完性能が改善されることを示した。 ## 1 はじめに 知識グラフ $(\mathrm{KG})$ とは,エンティティとその関係を枝として含むグラフである.知識グラフは,対話 [1], 質問応答 [2], 自然言語生成 [3] などの様々な自然言語処理タスクにおいて重要なリソースとして利用されている. しかし,KG 内のエンティティの関係を人手で全て網羅するには多くのコストがかかる. 知識グラフ補完 (KGC) は,知識グラフ中の関係を基に,含まれていない関係を自動的に補完することでこの問題を解決することができる. $e_{i}$ と $e_{k}$ をエンティティ,$r_{j}$ をそれらの関係とすると,KGCは $\left(e_{i}, r_{j}, ?\right)$ や $\left(?, r_{j}, e_{k}\right)$ などのクエリに対して?を埋めて回答することにより枝の存在を予測する. 現在,KGC では知識グラフの埋め込み (KGE) を用いる手法が主流である. KGE はエンティティとその関係を連続べクトルとして表現する. このべクトルの数は $\mathrm{KG}$ 内の枝の数に比例して増加するため,KGE では学習時の計算量を減らすためにネガ 図 1 FB15k-237 と WN18RR の学習データにおいて,一度だけしか出現しないクエリに含まれるエンティティと関係が持つ出現頻度 ${ }^{1)}$ 。 ティブサンプリング (NS)を用いることが一般的である. NS では,KGE モデルが KG 内の枝からサンプリングして作成された偽の枝と真の枝とを識別することで KG を学習する. NS は計算量を削減できる一方で,サンプリングされた枝は元の KG の偏りを反映してしまうという問題がある。 その解決策として,KGEのNS に対し,サブサンプリング法 [4] が導入された [5]. サブサンプリングは, 頻度の高い枝の頻度を減らし, 頻度の低い枝の頻度を増やすことで,KGの偏りを緩和する。 しかし,KGEにおける現在のサブサンプリングは,クエリの頻度のみを考慮する.そのため,出現頻度の低いクエリに含まれるエンティティや関係の出現頻度が高い場合に,そのようなクエリの出現確率を過小評価する可能性がある. 図 1 は, 学習データに 1 回だけ出現したクエリに含まれるエンティティと関係の出現頻度を示している.この結果から,現在のカウントに基づくサブサンプリング (CBS) では,出現頻度の低いクエリに含まれるエンティティや関係の出現頻度が十分であるにもかかわらず有効に利用されていない。 この問題に対処するため,我々はモデルに基づくサブサンプリング (MBS) と混合分布に基づくサブサンプリング (MIX)を提案し,KGE モデルの予測結果に基づいてクエリの出現確率を推定することでこのような頻度の低いクエリに対処する。  本稿では,一般的に使用されている KGE モデル ComplEx [6], RotatE [5], HAKE [7] に我々の MBS と MIXを適用し, FB15k-237 [8] と WN18RR [9] データセットを用いた評価を害施した。評価の結果,MBS と MIX はそれぞれの設定において,KGC の評価尺度であるMRR,Hits@1,Hits@3,Hits@10においてがベースラインである CBS よりも高いスコアを達成可能であることが分かった. ## 2 KGE に適したサブサンプリング ## 2.1 KGE の定式化 本稿ではエンティティ $h$ と $t$ とその関係 $r$ を表す枝(トリプレット)を $(h, r, t)$ と表記する.KGCではクエリ $(h, r, ?)$ や $(?, r, t)$ が与えられ, モデルは? に対応するエンティティを予測する。 入力されたクエリを $x$ ,予測すべきエンティティを $y$ とすると,モデルパラメータ $\theta$ に基づくスコア関数 $s_{\theta}(x, y)$ は $x$ から $y$ が予測される確率 $p_{\theta}(y \mid x)$ を計算する。一般的には, $|D|$ 個の枝を用いて,$p_{\theta}(y \mid x)$ を予測することで, $\theta$ を学習させる. ここで $D=\left.\{\left(x_{1}, y_{1}\right), \cdots,\left(x_{|D|}, y_{|D|}\right)\right.\}$ は $p_{d}(x, y)$ に従う観測データとする. ## 2.2 NS におけるサブサンプリング 計算効率の高さから NS は KGE モデルの学習によく使われる。近年,Kamigaito ら [10] は KGE の NS において使用されている様々なサブサンプリングを説明可能な一般的な定式化を行った. この定式化においてサブサンプリングは二つの項 $A$ と $B$ を用いて次のように表記される: $ \begin{aligned} & -\frac{1}{|D|} \sum_{(x, y) \in D}\left[A \log \left(\sigma\left(s_{\theta}(x, y)+\gamma\right)\right)\right. \\ + & \left.\frac{1}{v} \sum_{y_{i} \sim p_{n}\left(y_{i} \mid x\right)}^{v} B \log \left(\sigma\left(-s_{\theta}\left(x, y_{i}\right)-\gamma\right)\right)\right] . \end{aligned} $ ここで $\sigma$ はシグモイド関数を, $p_{n}\left(y_{i} \mid x\right)$ は負例をサンプリングするためのノイズ分布を, $v$ は一つの正例 $(x, y)$ に対してサンプリングする負例の数を, $\gamma$ はマージン項をそれぞれ表す。 表 1 に,KGE において現在提案されているサブサンプリング手法を列挙する。これらは Sun ら [5] によって提案された word2vec [4] のサブサンプリングを用いる手法 (Base), 頻度に基づく手法 (Freq) [10], そして,ユニーク性を考慮した手法 (Uniq) [10] である.ここで\#は頻度, $\#(x, y)$ は $(x, y)$ の頻度, $\alpha$ は頻度を平滑化するための温度を各々表している。表 1 現在の KGE で使用されているサブサンプリング法 と対応する項 $A$ と $B$ の一覧. 各 $(x, y)$ の頻度は $\mathrm{KG}$ 上で高々 1 であるため,先行研究では次のようなバックオフ [11]を行い, $(x, y)$ の頻度をクエリの頻度から近似的に導いている: $ \#(x, y) \approx \#(x, y)_{c b s}=\frac{\#\left(h_{i}, r_{j}\right)+\#\left(r_{j}, t_{k}\right)}{2} $ ここで, $\left(h_{i}, r_{j}, t_{k}\right)$ は $(x, y)$ に対応する枝であり, $\left(h_{i}, r_{j}\right),\left(r_{j}, t_{k}\right)$ はそのクエリである. 式 (2) は頻度情報に重度に依存しているため,我々は以降,この手法を頻度に基づくサブサンプリング (CBS) と呼ぶ. ## 3 提案手法 CBS は式 (2) に示すように,エンティティと関係の組の頻度の平均で $\#(x, y)$ を近似する. そのため,少なくとも 1 つの組の頻度が低いと, CBS は\# $(x, y)$ をうまく推定できない。このスパースネス問題に対処するために,以下のように,モデルに基づくサブサンプリング(MBS) と, 混合分布に基づくサブサンプリング (MIX)を提案する. ## 3.1 モデルに基づくサブサンプリング 頻度の低いエンティティと関係のペアに起因する問題を回避するため,MBS では,学習済みモデル $\theta$ によって推定される確率を用いて,以下のように各トリプレットとクエリの頻度を計算する。 $ \begin{aligned} \#(x, y) & \approx \#(x, y)_{m b s}=|D| p_{\theta^{\prime}}(x, y), \\ \# x & \approx \# x_{m b s}=|D| \sum_{y_{i} \in D} p_{\theta^{\prime}}\left(x, y_{i}\right), \\ p_{\theta^{\prime}}(x, y) & =\frac{e^{\operatorname{score}_{\theta^{\prime}}(x, y)}}{\sum_{\left(x^{\prime}, y^{\prime}\right) \in D} e^{\text {score }_{\theta^{\prime}}\left(x^{\prime}, y^{\prime}\right)}} . \end{aligned} $ 以下,MBS に使用するモデルをサブモデルと呼ぶ.式 (2) のカウントによって決定される頻度とは異なり, 式 (5) の score $_{\theta^{\prime}}(x, y)$ は実際の頻度に関わらず推論によって推定される. したがって,MBS は CBS で生じるスパースネスの問題に対処することが期待できる. ただし,MBS の能力は選択するサブモデルに依存するため,その限界については $\$ 4$ での実験により評価する. 表 2 FB15k-237 での結果. 太字は各サブサンプリング (Base, Freq, Uniq) で最も良い結果であることを,†は各モデルでの最良の結果を示す。 ## 3.2 混合分布に基づくサブサンプリング 言語モデルに関する研究 [12] で言及されているように,頻度に基づく出現確率とモデル予測に基づく出現確率には異なる長所と短所が存在する.MIX では,CBS と MBS の短所を緩和して長所を高める MBS による混合分布に置き換える。 $\lambda \frac{\#(x, y)_{m b s}^{-\alpha}|D|}{\sum_{\left(x^{\prime}, y^{\prime}\right) \in D} \#\left(x^{\prime}, y^{\prime}\right)_{m b s}^{-\alpha}}+(1-\lambda) \frac{\#(x, y)_{c b s}^{-\alpha}|D|}{\sum_{\left(x^{\prime}, y^{\prime}\right) \in D} \#\left(x^{\prime}, y^{\prime}\right)_{c b s}^{-\alpha}}$. そして表 1 中の $\frac{\# x^{-\alpha}|D|}{\sum_{x^{\prime} \in D}^{\# x^{\prime-\alpha}}}$ を下記で置き換える: $ \lambda \frac{\# x_{m b s}^{-\alpha}|D|}{\sum_{x^{\prime} \in D} \# x_{m b s}^{\prime-\alpha}}+(1-\lambda) \frac{\# x_{c b s}^{-\alpha}|D|}{\sum_{x^{\prime} \in D} \# x_{c b s}^{\prime-\alpha}} . $ 表 3 WN18RRでの結果.表記は表 2 と同様. $\lambda$ は混合比率を決定するハイパーパラメータである.なお MIX はマルチタスク学習の一種である2). ## 4 実験 データセット: FB15k-237 と WN18RRを使用した31).比較手法: ComplEx, RotatE, HAKE に対し,表 1 の Base, Freq, Uniq を適用し,さらに CBS (\$2.2) と提案手法である MBS (\$3.1) 及び MIX (\$3.2)を適用した.評価尺度: MRR, Hits@1, Hits@3, Hits@10を使用. 実装およびハイパーパラメータ: ComplEx, RotatE については先行研究 [5] の実装とハイパーパラメー 夕を継承し,HAKE についても先行研究 [7] の実装とハイパーパラメータを継承した. 温度パラメー タ $\alpha$ について,CBSでは,Base の場合は Sun ら [5] を,Freq と Uniq は Kamigaito ら [10] の設定を引き継いだ. MBS と MIXについては,各手法の検証デー 2)付録 $\mathrm{A}$ を参照 3)各データセットの統計については付録 B を参照. 図 $2 \mathrm{CBS}$ と MBS の各設定において,CBS の頻度で下位 100 件のクエリの出現確率を CBS の頻度で降順に左から右に整列した際の MBS での出現確率. タでの MRR の値を基に $\{2.0,1,0.5,0.1,0.05,0.01\}$ から $\alpha$ を, $\{0.1,0.3,0.5,0.7,0.9\}$ から混合比 $\lambda$ を選択した. さらに,MBS と MIX のサブモデルを,開発データの MRR を元に ComplEx, RotatE から選択した.サブモデルの学習ではサブサンプリング法の Base を適用した場合とサブサンプリングを用いない場合の二種類を用意した ${ }^{4}$ ). ## 4.1 実験結果および分析 実験結果表 2,3 の結果はそれぞれ FB15k-237 と WN18RR における KG の補完性能を示している.この結果から,MIXやMBS を用いたモデルは,全てのモデルにおいて最も高い性能を達成していることが分かる.この結果は §1 で説明したように, MBS と MIX によって KG の補完性能が向上するという考えと一致する. しかし, 各評価尺度に対して個別に手法を比較した場合には, CBS が MIX や MBS の補完性能を上回る場合も存在している。これは, MIX や MBS において推定される頻度が選択したサブモデルに依存して変化するためである. 以上より,MIX と MBS は頻度を推定するためのサブモデルを適切に選択することで,KG 補完の性能を向上させる可能性があることが分かった. 分析残された課題,すなわち,MBS のためにどのモデルを選択することが好ましいのかについてを分析する. 表 4 に各 MBS で選択されたサブモデルを示す.この表から ComplEx が他のモデルより頻繁に選ばれていることが分かる. その理由を知るために,CBS における頻度が下位 100 件のクエリの MBS における頻度を図 2 に示した. この結果では,FB15k-237 において RotatEでは ComplEx にはない頻度のスパイクがいくつか見られる.WN18RR表 4 開発データで選択されたサブモデルの一覧. ではサブサンプリングを用いない ComplEx における MBS の頻度の最大値が他の手法に比べて大きくなっている. この結果は FB15k-237 と WN18RR においてモデルがそれぞれ平滑化の過剰と不足の問題に遭遇し, MBS がこの問題に対処したことを示している. 通常,データが少ないとスパース性が問題になるため, この推測は FB15k-237 の学習データが WM18RR より大きいという事実に沿う。このように,MBSでは対象とするデータセットに適したサブモデルを選択することが重要であると考えられる。 ## 5 おわりに 本論文では,モデルを用いてエンティティと関係の組の頻度を推定することで,CBS における低頻度な組が起こす問題に対処することが可能な新しいサブサンプリング法である,MBS と MIX を提案した. FB15k-237 と WN18RRに対する評価結果から, MBS と MIXによって KG 補完の性能が向上することが示された. さらに,分析の結果,データセットに適したサブモデルを選択することが KG 補完の性能向上に重要であることを明らかにした. 4)その他の詳細は付録 $\mathrm{C}$ に記載. ## 謝辞 本研究は JSPS 科研費 JP21K17801,JP21H03491 の助成を受けたものです. ## 参考文献 [1] Seungwhan Moon, Pararth Shah, Anuj Kumar, and Rajen Subba. OpenDialKG: Explainable conversational reasoning with attention-based walks over knowledge graphs. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 845-854, Florence, Italy, July 2019. Association for Computational Linguistics. [2] Denis Lukovnikov, Asja Fischer, Jens Lehmann, and Sören Auer. Neural network-based question answering over knowledge graphs on word and character level. In Proceedings of the 26th International Conference on World Wide Web, WWW '17, p. 1211-1220, Republic and Canton of Geneva, CHE, 2017. International World Wide Web Conferences Steering Committee. [3] Jian Guan, Yansen Wang, and Minlie Huang. Story ending generation with incremental encoding and commonsense knowledge. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 33, No. 01, pp. 6473-6480, Jul. 2019. [4] Tomás Mikolov, Ilya Sutskever, Kai Chen, Greg Corrado, and Jeffrey Dean. Distributed representations of words and phrases and their compositionality. CoRR, Vol. abs/1310.4546, 2013. [5] Zhiqing Sun, Zhi-Hong Deng, Jian-Yun Nie, and Jian Tang. Rotate: Knowledge graph embedding by relational rotation in complex space. In Proceedings of the 7th International Conference on Learning Representations, ICLR 2019, 2019. [6] Théo Trouillon, Johannes Welbl, Sebastian Riedel, Éric Gaussier, and Guillaume Bouchard. Complex embeddings for simple link prediction. CoRR, Vol. abs/1606.06357, , 2016. [7] Zhanqiu Zhang, Jianyu Cai, Yongdong Zhang, and Jie Wang. Learning hierarchy-aware knowledge graph embeddings for link prediction, 2019. [8] Kristina Toutanova and Danqi Chen. Observed versus latent features for knowledge base and text inference. In Proceedings of the 3rd Workshop on Continuous Vector Space Models and their Compositionality, pp. 57-66, Beijing, China, July 2015. Association for Computational Linguistics. [9] Tim Dettmers, Pasquale Minervini, Pontus Stenetorp, and Sebastian Riedel. Convolutional 2d knowledge graph embeddings. In AAAI, 2018. [10] Hidetaka Kamigaito and Katsuhiko Hayashi. Comprehensive analysis of negative sampling in knowledge graph representation learning. In Kamalika Chaudhuri, Stefanie Jegelka, Le Song, Csaba Szepesvari, Gang Niu, and Sivan Sabato, editors, Proceedings of the 39th International Conference on Machine Learning, Vol. 162 of Proceedings of Machine Learning Research, pp. 10661- 10675. PMLR, 17-23 Jul 2022. [11] Slava Katz. Estimation of probabilities from sparse data for the language model component of a speech recognizer. IEEE transactions on acoustics, speech, and signal processing, Vol. 35, No. 3, pp. 400-401, 1987. [12] Graham Neubig and Chris Dyer. Generalizing and hybridizing count-based and neural language models. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1163-1172, Austin, Texas, November 2016. Association for Computational Linguistics. ## A マルチタスク学習 式(1)において $A$ に CBS を適用したものを $A_{c b s} , B$ に CBS を適用したものを $B_{c b s}$ とし, $A$ に MBSを適用したものを $A_{m b s} , B$ に MBS を適用したものを $B_{m b s}$ とする。ここで式 (1)に CBS を適用した際の損失関数 $\ell_{c b s}$ は $ \ell_{c b s}=-\frac{1}{|D|} \sum_{(x, y) \in D}\left[A_{c b s} \log \left(\sigma\left(s_{\theta}(x, y)+\gamma\right)\right)+\frac{1}{v} \sum_{y_{i} \sim p_{n}\left(y_{i} \mid x\right)}^{v} B_{c b s} \log \left(\sigma\left(-s_{\theta}\left(x, y_{i}\right)-\gamma\right)\right)\right] $ 式 (1) に MBS を適用した際の損失関数 $\ell_{m b s}$ は $ \ell_{m b s}=-\frac{1}{|D|} \sum_{(x, y) \in D}\left[A_{m b s} \log \left(\sigma\left(s_{\theta}(x, y)+\gamma\right)\right)+\frac{1}{v} \sum_{y_{i} \sim p_{n}\left(y_{i} \mid x\right)}^{v} B_{m b s} \log \left(\sigma\left(-s_{\theta}\left(x, y_{i}\right)-\gamma\right)\right)\right] $ と定義される。また MIXを適用した際の損失関数 $\ell_{\text {mix }}$ は,式 (6) と式 (7) より, $ \begin{aligned} \ell_{\text {mix }}=-\frac{1}{|D|} \sum_{(x, y) \in D}[ & \left(\lambda A_{m b s}+(1-\lambda) A_{c b s}\right) \log \left(\sigma\left(s_{\theta}(x, y)+\gamma\right)\right) \\ & \left.+\frac{1}{v} \sum_{y_{i} \sim p_{n}\left(y_{i} \mid x\right)}^{v}\left(\lambda B_{m b s}+(1-\lambda) B_{c b s}\right) \log \left(\sigma\left(-s_{\theta}\left(x, y_{i}\right)-\gamma\right)\right)\right], \end{aligned} $ と定義される。ここで式(10) は次のように変形が可能である. $ \ell_{\text {mix }}=\lambda \ell_{m b s}+(1-\lambda) \ell_{c b s} $ 式 (11) より $\ell_{m i x}$ は $\ell_{c b s}$ と $\ell_{m b s}$ の両損失を混合した損失であることから,MIX は CBS と MBS を使用した場合に対するマルチタスク学習であることが示された. ## B データセットの統計量 表 5 に各データセットの統計を示す. 表 5 各データセットの統計量. Ent はエンティティを,Rel は関係を示す. ## C 学習設定 表 6 に開発データの MRR で選択された各サブサンプリングの設定を示す。なお,MIXにおける $\alpha$ は MBS における最良のものを引き継いでいる. 表 6 開発データで選択されたサブモデルとその設定の一覧.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C4-3.pdf
# 時間関係タスクを対象にしたマルチタスク学習におけるデータ の親和性の解析 木村麻友子 ${ }^{1}$ Lis Kanashiro Pereira ${ }^{1}$ 浅原 正幸 ${ }^{2}$ Fei Cheng $^{3}$ 越智 綾子 ${ }^{2}$ 小林 一郎 1 1 お茶の水女子大学 2 国立国語研究所 3 京都大学 \{g1720512,koba\}@is.ocha.ac.jp, kanashiro.pereira@ocha.ac.jp \{masayu-a,a.ochi\}@ninjal.ac.jp, feicheng@i.kyoto-u.ac.jp ## 概要 本研究では,時間的常識推論を中心とした時間に関係する複数のタスクにおける言語モデルの汎用性に焦点を当て,マルチタスク学習を行うことにより時間的知識の理解に適した言語モデルの構築を行った. マルチタスク学習を行った結果,使用するデー タセットにより精度が向上する場合もあるものの,実験結果にばらつきがあることがわかった. その結果を踏まえ,マルチタスク学習において共有する潜在空間での各データセットの分布を可視化することによる分析を行い,分布が近いデータセット同士を使用した場合に,マルチタスク学習の精度の向上が見られることを確認した。 ## 1 はじめに 文章中纪表現される時間纪関するイベントに対して,常識的な時間関係を捉えることは,自然言語理解においてとても重要な課題である. しかしながら,近年,幅広い自然言語処理(NLP)タスクで大きな成果を上げている BERT [1] などの事前学習済み言語モデルは,時間推論においてはまだ性能が低いと言われている [2]. 特に困難な課題として, 時間的常識を扱う推論が挙げられる。例えば,「旅行に行く」と「散歩に行く」という 2 つのイベントが与えられたとき, 多くの人間は「休睱は散歩よりも長く, 発生頻度も少ない」という時間的常識を持っているが,コンピュータにはこのような時間的常識を用いて推論することが困難である。 先行研究 [3] では, 時間的常識推論记対するモデルの開発に焦点を当て, 対象タスクを解くのに必要な常識的知識を付加したモデルを提案した. 本研究では,汎用性という点にも目を向け,マルチタスク学習を導入し, 時間に関する複数のタスクの精度を同時に向上させつつそれらのタスクに汎用な言語モデルの構築を目指す.また,マルチタスク学習を通じて得られた複数のタスクに共有する潜在空間において,使用した各データセットの文章ベクトルの分布を可視化することによって分析し,マルチタスク学習に使用するデータセットの親和性と精度の関係について考察を行う。 ## 2 マルチタスク学習 マルチタスク学習は,関連する複数のタスクを同時に学習する手法で,モデルの汎化性と性能向上に効果的であることが確認されている.関連タスクの共通性と相違性を利用することで性能を向上させることができるため, 自然言語処理の分野において普及が進んでいる [4]. 本研究では,MT-DNN [5] を用いてマルチタスク学習を実行し, 複数の時間関連タスクに対するモデルの性能を評価する.MT-DNN は,BERT や RoBERTa などのモデルを共有テキストエンコード層として組み込むことができるマルチタスク学習フレームワークである. エンコーダ層では全てのタスクで重みを共有し (Shared layers),その後,それぞれのタスクの学習を行う (Task specific layers). タスクに特化した層ではタスクごとに重みが更新され,共有されない. 図 1 に MT-DNN の構造の概要を示す. ## 3 実験 ## 3.1 使用データセット データセットの概要を以下に記す。また,表 1 にそれぞれのデータセットの統計情報を示す. 図 1 MT-DNN の概要 表 1 各データセットについて訓練データ $\quad$ 検証データ $\quad$ 評価データ MC-TACO [6]: MC-TACO は,自然言語で表現された事象の時間的常識を理解する課題から構成されるデータセットである. MC-TACO では,時間特性に関する 5 つの特徵量 (duration, temporal ordering, typical time, frequency, stationarity)を定義しており, これらの特徴量のいずれかの特性が記述に含まれる文章とその文章に関する質問,それに対する答えを表す複数の選択肢が与えられ、各選択肢が答えとしてふさわしいかどうかが判断される. 以下に例を示す. ふさわしい選択肢は太字で表記する。 Paragraph: He layed down on the chair and pawed at her as she ran in a circle under it. Question: How long did he paw at her? a) 2 minutes b) 2 days c) 90 minutes e) 7 seconds Reasoning Type: Duration TimeML [7]: MC-TACO と同様に時間的常識を問うタスクで,その中でも特に持続時間に関するデータセットである. 文章内に含まれるイベントの持続時間が 1 日より長いか短いかによってそれぞれ yes, no のいずれかがラベル付けされている. イベントが 1 日より短い例 (no) を以下に示す. In Singapore, stocks hit a five year low. MATRES [8] MATRES は,文章内に含まれる二つの動詞の時間的順序関係に関するデータセットである。時間的順序関係によって,AFTER, BEFORE, EQUAL, VAGUE のいずれかがラベル付けされている. 以下に二つの動詞 (e1, e2) のラベルが BEFORE の例を示す. At one point, when it (e1:became) clear controllers could not contact the plane, someone (e2:said) a prayer. CosmosQA [9]: CosmosQA は,出来事の原因や影響など,明示的に言及されていない物語の行間を読むことに焦点を当てている.MC-TACO とは違い,時間に限らず一般的な常識全般に関するデータセットであり,四肢択一問題である. 以下に例を示す. Paragraph: Did some errands today. My prime objectives were to get textbooks, find computer lab, find career services, get some groceries, turn in payment plan application, and find out when KEES money kicks in. I think it acts as a refund at the end of the semester at Murray, but I would be quite happy if it would work now. Question: What happens after I get the refund? Option 1: I can pay my bills. Option 2: I can relax. Option 3: I can sleep. Option 4: None of the above choices. ## 3.2 実験設定 本研究では,事前学習済み言語モデルの一つである ALBERT [10] をテキストエンコーダとして使用する. ALBERT は BERT の派生モデルであり,BERT よりも軽量でありながら GLUE などにおいて精度を改善することに成功している。また,先行研究 [3] において,ALBERT を使用すると,BERT を使用した場合よりも時間的常識タスクにおいて精度が改善することが確認されている。ここでは,ALBERT の中で最も大きい ALBERT $_{\text {xxLARGE }}$ を使用する. マルチタスク学習時のハイパーパラメータは,文字列の最大長は 512 ,バッチサイズは 16 ,学習率は 1e-5 とし,エポック数は使用するデータセットの組み合わせによって最も良い精度が出たものを採用した.また,MT-DNNを用いた学習時には全てのパラメータを調整する。 表 2 MT-DNNを用いたマルチタスク学習の結果 ## 3.3 実験結果 実験結果を表 2 に示す.MT-DNNを用いてシングルタスク学習を行った場合の結果は青字で表示し, シングルタスク学習の結果を上回った精度は太字で表示した. 評価指標として,MC-TACO では独自に定められた Exact Match(EM)スコアと F1 スコア,TimeML と MATRES では Accuracy を用いた.EM スコアは, モデルが各質問に対するすべての回答候補を正しくラベル付けすることができるかを測定する評価指標である. 実験の結果,MATRES で精度の向上が見られたが,MC-TACO では学習に用いたタスクによって差が生じ,TimeML では向上が見られなかった. また,使用するデータセットによって,精度が向上する場合 (例: MC-TACO と CosmosQA で学習し,MC-TACO で評価した場合の EM スコアは $59.2 \%$ )と低下する場合(例:MC-TACO と TimeML と CosmosQA で学習し, MC-TACO で評価した場合の EM スコアは $53.0 \%$ )があり,やや不安定な状態であることがわかった. 精度が改善する場合とそうでない場合について,なぜこのような結果になるのかについて分析を行った内容を次節に示す. ## 3.4 データセットの分析 マルチタスク学習の前提条件の 1 つは,異なる夕スクとそのデータ間の関連性である. 多くの研究では,マルチタスク環境において,正の相関を持つタスクを学習することが望ましいとされている [11]. また,タスクの相性が悪い場合,精度が低下する場合もある [12]. ここでは,使用した各データセットに含まれるデータの文章ベクトルを可視化することにより,各データセットの親和性と実験結果の相関を明らかにすることを目指す. 設定マルチタスク学習をして得られた共通のベクトル空間における文章ベクトルを求めるため, MC-TACO, TimeML, MATRES, CosmosQA 9 つを, ALBERT $_{\text {xxLARGE }}$ を用いてマルチタスク学習したモデルをエンコーダとする。各データセットからランダムに 1,000 ずつサンプルを取り,各サンプルの文章ベクトルを計算する。ここでは,最終層の隠れ層のベクトルに注目する。ベクトルはトークンごとに出力されるが,文章ベクトルを生成するには, トークンに付与されたべクトルを集約し,単一のべクトルにする必要がある.今回は,各サンプルの全トークンのベクトルを合計してトークン数で割ることで得られたべクトルを平均化し,これを各サンプルの文章ベクトルとする. 得られた文書べクトルを $\mathrm{t}-\mathrm{SNE}^{1)}$ と $\mathrm{UMAP}^{2)}$ の 2 つの手法で 2 次元に次元圧縮を行い,可視化する。 可視化結果・考察比較のために,マルチタスク ダとして用いた場合の文章べクトルを可視化した結果を図 2 に示す. また,マルチタスク学習したモデルをエンコーダとして用いた場合の文章ベクトルを可視化した結果を図 3 に示す. マルチタスク学習後のベクトル空間では,青で表示された MC-TACO の文章ベクトルと,緑で表 1) https://lvdmaaten.github.io/tsne/ 2) https://umap-learn.readthedocs.io/en/latest/ MC-TACO TimeML MATRES CosmosQA 図 2 ALBERT $_{\text {xxLARGE }}$ をそのままエンコーダとして用いた場合の文章ベクトルの可視化結果 MC-TACO TimeML MATRES CosmosQA 図 3 マルチタスク学習後のモデルをエンコーダとして用いた場合の文章ベクトルの可視化結果 示された CosmosQA の文章ベクトルが,ベクトル空間内で近い位置に分布していることがわかる. t-SNE では少し分かりにくいが,UMAP では顕著であることが確認できる.また,赤で表示している TimeML は,一部のサンプルに分布のばらつきがあり,MC-TACO と CosmosQA の分布に近い位置に文章ベクトルが位置するサンプルもあることがわかる. MC-TACO と CosmosQA をマルチタスク学習した場合,MC-TACO で評価した場合の EM スコアが上がっていたこと,また,MC-TACO と TimeML をマルチタスク学習した場合も,MC-TACO で評価した場合の EM スコアがわずかではあるものの上がっていたことを踏まえると,学習後の共有されたべクトル空間内において文章ベクトルの分布が近い場合に,データセットの親和性が高いと言え,そのような場合にマルチタスク学習の効果が出ると考えることができる. 一方,MATRES では,すべてのマルチタスク設定で精度が向上しているが,文章べクトルの分布は他のデータセットと近いようには見えない. MATRES は,文章ベクトルの分布が広くなく,まとまっている.そのようなデータセットを対象にマルチタスク学習を行うことで,補助データセットを有益なノイズとして取り入れた敵対的学習が行われ,精度が改善した可能性もあると考えられる. ## 4 おわりに 本研究では,マルチタスク学習を行うことにより,時間的知識の理解に適した言語モデルの構築を目指した. 実験の結果,使用するデータセットにより精度が向上する場合がある一方,精度が下がる場合もあり,結果にばらつきがあることがわかった. その点を踏まえ,各データセットの文章ベクトルを可視化することによる分析を行い,共有べクトル空間における文章べクトルの分布が近いデータセット同士を使用した場合に,マルチタスク学習の精度の向上が期待できることを確認した. 今後の課題としては,文章べクトルの分布がまとまっているデータセットにはマルチタスク学習が有効であるという考察の検証をすること,また,複数の時間関係の夕スクで同時に精度を向上できるような汎用言語モデルの構築のため,使用するデータセットの数を増やし,さらなる分析と実験を重ねることが考えられる.また,マルチタスク学習前に,データセットの表層的な特徴を捉えて相性の良いデータセットの組み合わせを見つける試みも検討したい. ## 謝辞 本研究は,科研費(18H05521)の支援を受けた. ここに謝意を表す. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] Marco Tulio Ribeiro, Tongshuang Wu, Carlos Guestrin, and Sameer Singh. Beyond accuracy: Behavioral testing of NLP models with CheckList. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4902-4912, Online, July 2020. Association for Computational Linguistics. [3] Mayuko Kimura, Lis Kanashiro Pereira, and Ichiro Kobayashi. Toward building a language model for understanding temporal commonsense. In Proceedings of the 2nd Conference of the Asia-Pacific Chapter of the Association for Computational Linguistics and the 12th International Joint Conference on Natural Language Processing: Student Research Workshop, pp. 17-24, Online, November 2022. Association for Computational Linguistics. [4] Zhihan Zhang, Wenhao Yu, Mengxia Yu, Zhichun Guo, and Meng Jiang. A survey of multi-task learning in natural language processing: Regarding task relatedness and training methods, 2022. [5] Xiaodong Liu, Pengcheng He, Weizhu Chen, and Jianfeng Gao. Multi-task deep neural networks for natural language understanding. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4487-4496, Florence, Italy, July 2019. Association for Computational Linguistics. [6] Ben Zhou, Daniel Khashabi, Qiang Ning, and Dan Roth. "going on a vacation" takes longer than "going for a walk": A study of temporal commonsense understanding. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3363-3369, Hong Kong, China, November 2019. Association for Computational Linguistics. [7] Feng Pan, Rutu Mulkar-Mehta, and Jerry R Hobbs. Extending timeml with typical durations of events. In Proceedings of the Workshop on Annotating and Reasoning about Time and Events, pp. 38-45, 2006. [8] Qiang Ning, Hao Wu, and Dan Roth. A multi-axis annotation scheme for event temporal relations. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Pa- pers), pp. 1318-1328, Melbourne, Australia, July 2018. Association for Computational Linguistics. [9] Lifu Huang, Ronan Le Bras, Chandra Bhagavatula, and Yejin Choi. Cosmos QA: Machine reading comprehension with contextual commonsense reasoning. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 2391-2401, Hong Kong, China, November 2019. Association for Computational Linguistics. [10] Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, and Radu Soricut. Albert: A lite bert for self-supervised learning of language representations. arXiv preprint arXiv:1909.11942, 2019. [11] Zhihan Zhang, Wenhao Yu, Mengxia Yu, Zhichun Guo, and Meng Jiang. A survey of multi-task learning in natural language processing: Regarding task relatedness and training methods, 2022. [12] Christopher Fifty, Ehsan Amid, Zhe Zhao, Tianhe Yu, Rohan Anil, and Chelsea Finn. Efficiently identifying task groupings for multi-task learning, 2021.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C4-4.pdf
# ガウス埋め込みに基づく文表現生成 陽田祥平 1 塚越駿 2 笹野遼平 2 武田 浩一 2 1 名古屋大学情報学部 2 名古屋大学情報学研究科 wt.50p.8613@s. thers.ac.jp tsukagoshi . hayato.r2@s.mail . nagoya-u.ac.jp \{sasano, takedasu\}@i.nagoya-u.ac.jp ## 概要 近年、文の持つ情報を埋め込み空間上の点として表現する文べクトルの研究が盛んである。しかし、点による文の表現は、文の持つ意味の広がりや包含関係などの文同士の非対称的な関係を表現できないなど、文が持つ多様な情報の一部しか表現できない。そこで本研究では、文をガウス分布として領域的に埋め込む手法、および、包含関係の認識のための類似度指標を提案する。実験を通し、自然言語推論タスクにおいて従来の点表現ベースの手法と同等の性能を達成できること、点表現では困難であった包含関係の向きの推定が可能であることを示す。 ## 1 はじめに 文の持つ情報をべクトルで表現する文埋め込みは、文書分類や類似文検索、質問応答など様々な自然言語に関するタスクで用いられている。近年では、事前学習済み言語モデルを用いる機械学習ベースの文埋め込みの生成法が主流となっており、 トピックや感情といった文が持つ情報を豊かに表現する文埋め込み生成の試みが広く行われて文埋め込み生成の主なモデルとしては、Siamese Network を用いて BERT [1]を微調整する Sentence-BERT [2] や、正例と負例の文ぺアを構築して対照学習を行う SimCSE [3] などが挙げられる。しかし、これらは文をべクトルとして表現する手法であり、文同士の類似度の指標としては基本的にコサイン類似度のような対称的な指標が用いられることから、包含関係や階層構造など、 2 文間の非対称的な関係を捉えることができない。 そこで本稿では、単語をガウス分布として表現するガウス埋め込みを基に、図 1 に示すように文をガウス分布として表現する手法を提案する。また、 KL ダイバージェンスを用いて文同士の階層構造を表現可能な非対称的な類似度指標を提案する。自然 $ \begin{aligned} & \text { 含意 (文1: A soccer game with multiple males playing. } \\ & \text { 文2 : Some men are playing a sport. } \\ & \text { 文3 : The man is sleeping. } \end{aligned} $ 図 1 従来の点埋め込み (左図) と提案手法による埋め込み (右図) の概要図。点埋め込みでは包含関係にある文 1 と文 2 のうちどちらが他方を包含するかを表現できない一方、提案手法では包含関係を表現できる。 言語推論 (Natural Language Inference; NLI) 分類タスク、および包含関係にある文ぺアに対してどちらが包含する側であるかを推測するタスクを用いた実験から、提案手法が従来の文表現と意味表現において同等の性能を保ちつつ、文同士の包含関係を表現できることを示す。 ## 2 ガウス埋め込みに基づく文表現 本研究では、事前学習済み言語モデルに対照学習による微調整を適用して、包含関係を適切に捉えた文のガウス埋め込みを獲得する。本節ではまず、ガウス埋め込みの代表的な研究である Gaussian Embedding、および対照学習を用いた文埋め込みの獲得手法である SimCSE について述べ、続いてそれらを組み合わせた提案手法について述べる。 ## 2.1 Gaussian Embedding ガウス埋め达みの先行研究として、グラフの各ノード $[4,5]$ やレビュー [6] をガウス分布で表現するものがあるが、その代表的な手法として、単語をガウス分布として表現する Gaussian Embedding [7] が挙げられる。Gaussian Embedding では単語 $w_{i}$ を、平 均ベクトル $\mu_{i}$ と分散共分散行列 $\Sigma_{i}$ を用いて次式のように表現する。 $ w_{i}=\mathcal{N}\left(x ; \mu_{i}, \Sigma_{i}\right) $ 平均ベクトルが従来の点での表現に相当し、分散共分散行列が意味の広がりを表す。また 2 つの単語間の類似度として、次式で示す KL ダイバージェンスを用いている。 $ D_{K L}\left(N_{i}|| N_{j}\right)=\int_{x \in \mathbb{R}^{n}} \mathcal{N}\left(x ; \mu_{i}, \Sigma_{i}\right) \ln \frac{\mathcal{N}\left(x ; \mu_{i}, \Sigma_{i}\right)}{\mathcal{N}\left(x ; \mu_{j}, \Sigma_{j}\right)} $ $\mathrm{KL}$ ダイバージェンスは左辺の引数を入れ替えることで値が変わる非対称的な指標であるため、階層構造といった埋め込み同士の非対称的な関係を捉えることができる。Vilnis ら [7] は KL ダイバージェンスを基に Skip-gram [8] に倣った手法を用いてモデルを学習させることで、単語の意味の広がりや含意関係を捉えた表現を構成できることを示した。 ## 2.2 Supervised SimCSE 近年、文埋め込みの生成法についての研究が非常に盛んである [9-14]。その中でも代表的なものの一つに Supervised SimCSE [3] がある。Supervised SimCSE は、NLI データセットを用いた対照学習によって、文埋め込みモデルを学習する。NLI デー タセットは前提文と仮説文のペアで構成されており、各ペアには、前提文が仮説文を含意することを示す「含意」、前提文が仮説文と矛盾することを示す「矛盾」、含意でも矛盾でもないことを示す「中立」のいずれかのラベルが人手で付与されている。 Supervised SimCSE では含意のラベルが付与されている文ペアを正例として埋め込みを近づけ、矛盾のラベルが付与されている文ぺアおよびバッチ内で異なるぺアに属する 2 文を負例として埋め込みを遠ざける対照学習を行うことで、2文間の類似度を推定する Semantic Textual Similarity (STS) タスクにおいて高い性能を達成している。 ## 2.3 提案手法 本研究では、文 $s_{k}$ の意味をガウス分布 $N_{k}$ として表現し、NLIデータセットを用いて教師あり対照学習を行うことで、文のガウス埋め込みを獲得する。提案手法の概要を図 2 に示す。まず文 $s_{k}$ を BERT に入力し、[CLS]トークンから文のベクトル表現 $v_{k}$ を獲得する。続いて、 $v_{k}$ を 1 層の線形層からなるネットワーク2つに入力し、得られた出力をそれぞ 図 2 提案手法の概要図 (左図) と類似度 $\operatorname{sim}$ の概念図 (右図)。 $\operatorname{sim}$ は非対称的であるため、 $\operatorname{sim}\left(s_{1} \| s_{2}\right)$ と $\operatorname{sim}\left(s_{2} \| s_{1}\right)$ は異なる值をとる。 れガウス分布 $N_{k}$ の平均ベクトル $\mu_{k}$ 、分散共分散行列の対角成分 $\sigma_{k}$ とする。なお本手法では計算の効率化のため、Gaussian Embedding と同様に分散共分散行列の対角成分のみを分散の表現として用いる。以降 $\sigma_{k}$ は分散ベクトルと呼ぶ。 次に、文 $s_{j}$ に対する文 $s_{i}$ の類似度指標 $\operatorname{sim}\left(s_{i}|| s_{j}\right)$ を式 (3)により定義する。 $ \operatorname{sim}\left(s_{i} \| s_{j}\right)=\frac{1}{1+D_{K L}\left(N_{i} \| N_{j}\right)} $ $\mathrm{KL}$ ダイバージェンスの値域は $[0, \infty)$ であることから、 $\operatorname{sim}\left(s_{i} \| s_{j}\right)$ の値域は $(0,1]$ となる。また、本指標は引数を入れ替えると値が変化する非対称な指標であり、 $N_{i}$ の分散が $N_{j}$ の分散より大きい場合、 $D_{K L}\left(N_{i} \| N_{j}\right)$ の方が $D_{K L}\left(N_{j} \| N_{i}\right)$ より大きくなる傾向があることから、 $\operatorname{sim}\left(s_{j} \| s_{i}\right)$ の方が $\operatorname{sim}\left(s_{i} \| s_{j}\right)$ より大きくなる傾向がある。 包含関係の学習では Gaussian Embedding と同様に、より多様な文を包含する文ほどその埋め込みの分散が大きくなるように学習を行う。これを実現するため含意の文ペアを教師データとして用いて、包含する側である前提文の分散を大きく、包含される側である仮説文の分散を小さくなるように学習する。これは、上述した類似度指標の性質から、 $\operatorname{sim}$ (仮説文\|前提文) が $\operatorname{sim}$ (前提文\|仮説文) より大きくなるように学習することで実現が可能である。 また、含意関係にない、すなわち意味的に類似していない文ぺアについては、 $\operatorname{sim}$ (仮説文川前提文)が小さくなるように学習する。KL ダイバージェンスは分散に比べて平均の変化に大きく影響を受けるという性質があることから、この操作により 2 文の平均ベクトルの距離が大きくなることが期待される。 モデルの学習には、Supervised SimCSE と同様、 NLI データセットを用いた対照学習を行う。対照学 習では、正例となる文同士の類似度が大きくなるように学習を行うと同時に、負例となる文同士の類似度が小さくなるように学習を行う。本研究では、正例と負例の選定法として以下の 3 種類を用いる。 含意集合含意ラベルが付与された前提文と仮説文のペアの集合。意味的に類似した文同士が近づくよう、含意関係にある文同士を正例とする。 矛盾集合矛盾ラベルが付与された前提文と仮説文のペアの集合。含意関係にない文同士が離れるよう、矛盾関係にある文同士を負例とする。 逆向き集合含意集合の各ぺアにおける前提文と仮説文を入れ替えたもの。包含する側である前提文の分散を大きく、包含される側である仮説文の分散を小さくなるように学習するため、逆向きの含意関係にある文同士を負例とする。 図 3 に、あるバッチにおける、上記 3 つの正例と負例の選定法の概要図を示す。 正例と負例の集合の各要素に対し $\operatorname{sim}$ (仮説文 $\|$ 前提文)を計算し、softmax 関数を適用したもののクロスエントロピー誤差を損失関数として定義する。 データセット中の前提文、含意ラベルが付与された仮説文、矛盾ラベルが付与された仮説文のガウス埋め込みをそれぞれ $N_{i} 、 N_{i}^{+} 、 N_{i}^{-}$とし、損失関数のうち含意集合、矛盾集合、逆向き集合に対応する項をそれぞれ $V_{E} 、 V_{C} 、 V_{R}$ としたとき、各バッチにおける損失関数は次式のように表せる。なお $n$ はバッチサイズ、 $\tau$ は $\operatorname{sim}$ の増幅の度合いを調整する温度係数である。 $ \begin{aligned} & V_{E}=\sum_{j=1}^{n} e^{\operatorname{sim}\left(N_{j}^{+} \| N_{i}\right) / \tau} \\ & V_{C}=\sum_{j=1}^{n} e^{\operatorname{sim}\left(N_{j}^{-} \| N_{i}\right) / \tau} \\ & V_{R}=\sum_{j=1}^{n} e^{\operatorname{sim}\left(N_{j} \| N_{i}^{+}\right) / \tau} \\ & \mathscr{L}=\sum_{i=1}^{n}-\ln \frac{e^{\operatorname{sim}\left(N_{i}^{+} \| N_{i}\right) / \tau}}{V_{E}+V_{C}+V_{R}} \end{aligned} $ 以上の手法により、意味的に近い文同士はその埋め込みの平均が近い值をとり、かつ包含関係にある 2 文では包含する側の分散が大きく、包含される側の分散が小さく学習されることが期待できる。 ## 3 評価実験 NLI 分類と包含の向き推定という 2 つのタスクにより、提案手法により得られるガウス分布に基づく文表現の性能評価を行った。 図 3 学習時における正例と負例の選定法の概要図。行列の各要素が $\operatorname{sim}$ (縦軸の文 $\|$ 横軸の文) に対応し、正例であれば 1 に、負例であれば 0 に近づける。 ## 3.1 評価方法 NLI 分類包含関係の認識においての既存の手法との性能を比較するため、NLI 分類を行なった。 NLI 分類は、前提文と仮説文が提示され、前提文が仮説文を含意しているか、2 文の内容が矛盾しているか、関係がないかのいずれであるかを推測する夕スクである。一般には上記の 3 値分類を行うが、本研究では NLI 分類を 2 值分類で行う。具体的には、 $\operatorname{sim}$ (仮説文 $\|$ 前提文) の値が閾値以上であれば含意、 そうでなければその他とする。 検証には Stanford NLI (SNLI) データセット [15] と SICK [16] データセットを使用し、分類の正解率と Precision-Recall (PR) 曲線の AUC を評価指標とした。分類の正解率は、開発セットにおいて閾値を 0 から 1 の間で 0.001 ずつ変化させた中で最も正解率が高くなる閥値を算出し、その閥値でテストセットの分類をした際の評価値を用いた。なおどちらのデータセットも各文ペアに含意、中立、矛盾の 3 種類のラベルが付与されているため、中立と矛盾を合わせてその他とした。またベースラインとして、学習済みの Supervised SimCSE モデル1)で同様の手法を用いた際の性能も評価した。 包含の向き推定提案手法で獲得された文表現が包含関係を階層構造として捉えられるかを評価するために、含意関係にある事が分かっている 2 文 A、B に対し、どちらが包含する側の文であるかを予測するタスクを行う。包含の向きを決定する指標として、 $\operatorname{sim}(A|| B)<\operatorname{sim}(B \| A)$ であれば $\mathrm{A}$ 、そうでなければ $\mathrm{B}$ を包含する側だとする類似度べースのものと、埋め込みの各次元の分散の積を $\operatorname{det}\left(\sigma_{A}\right)$ 、 1) https://huggingface.co/princeton-nlp/ sup-simcse-bert-base-uncased なければ B を包含する側とする分散べースのものを用いる。検証には SNLI と SICK のそれぞれのテストセットのうち、含意ラベルが付与されているもののみを用いた。 ## 3.2 実験設定 事前学習済みモデルには HuggingFace2)が公開しているライブラリである Transformers [17] から、BERT-base ${ }^{3}$ を利用した。Supervised SimCSE と同様に、訓練データとして SNLI と Multi-Genre NLI (MNLI) データセット [18]を組み合わせたものを利用した。その他の詳細な実験設定は付録 A に示す。 損失関数については 2.3 節で述べた、含意集合、矛盾集合、逆向き集合の全てを用いる損失関数に加え、矛盾集合および逆向き集合が性能にもたらす影響を検証するため、含意集合のみ、含意集合と矛盾集合、含意集合と逆向き集合、含意集合と矛盾集合と逆向き集合の 4 種類の損失関数で実験を行った。 ## 3.3 実験結果 NLI 分類タスクにおける実験結果を表 1 に示す。実験した 4 つの損失関数の中では、Supervised SimCSE での負例の組み合わせと同じ、含意+矛盾が最も高い性能を示した。含意と含意+矛盾、含意+逆向きと含意+矛盾+逆向きをそれぞれ比較すると、負例に矛盾集合を含むことで性能が向上し、SICKでは Supervised SimCSE の性能を上回っていることが確認できる。一方、含意と含意+逆向き、含意+矛盾と含意+矛盾+逆向きに注目すると、負例に逆向き集合を含むことで性能が低下している。含意の文ペアは意味的に類似しているものが多く、それらを負例として用いる逆向き集合は NLI 分類においては性能に悪影響を与えると考えられる。 包含の向き推定の性能を表 2 に示す。包含の向き推定では、負例に逆向き集合を含むことで性能が大幅に上昇し、特にSNLI では約 $97 \%$ という非常に高い割合で正しく包含の向きを推定する事ができた。 また、SICK においては包含+逆向きが最も高い性能を示し、約 $72 \%$ の割合で正しく包含の向きを推定できることがわかった。包含の向き推定では、SNLI と SICK の間で平均的な性能に大きな差が見られた。 これは、SNLI と SICKで、文ぺアの文長の比についての傾向が異なるためであると考えられる。SNLI表 1 各手法の NLI 分類における正解率と PR 曲線の AUC。表中の Sup-SimCSE は Supervised SimCSE を表す。 表 2 包含の向き推定の実験結果。類似度ベースの手法の性能を「類似度」、分散ベースの手法の性能を「分散」の列に記載している。 は SICK と比較して、前提文が仮説文より長い傾向が強いため4)、文が長いほど分散が大きくなるように学習を行うことで、包含の向き推定が比較的簡単にできるようになると考えられる。一方で SICK は、前提文と仮説文の長さの比が平均してほとんど同じであるため、文長の情報は包含の向き推定に寄与しない。したがって、このような文長によるバイアスを利用できないことが、SICK の性能が相対的に低いことの要因であると考えられる。これに対して、提案手法のうち、逆向き集合を含む設定は SNLI と SICK 双方の性能が相対的に高くなっている。このことから、逆向き集合を用いる学習手法が、文長のバイアスの影響を軽減し、意味的に妥当な文の包含関係を捉えるのに有用であることがわかった。 ## 4 おわりに 本研究では従来の文埋め込み手法が抱える、文の意味の広がりや包含関係を表現できないという問題を解決するため、事前学習済み言語モデルと対照学習を用いた、ガウス埋め込みに基づく文表現の生成手法を提案した。評価実験の結果、従来のベクトルによる文表現と同等の NLI 分類性能を達成したことに加え、非対称的な類似度を用いた学習により、従来では困難であった包含の向きの推定においても高い性能を達成した。今後はその他のタスクにおける性能や、平均・分散ベクトルの分布に着目した埋め込みそのものの解析も行なっていきたい。  2) https://huggingface.co 3) https://huggingface.co/bert-base-uncased ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL), pp. 4171-4186, 2019. [2] Nils Reimers and Iryna Gurevych. Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3982-3992, 2019. [3] Danqi Chen Tianyu Gao, Xingcheng Yao. SimCSE: Simple Contrastive Learning of Sentence Embeddings. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing (EMNLP), p. 6894-6910, 2021. [4] Shizhu He, Kang Liu, Guoliang Ji, and Jun Zhao. Learning to Represent Knowledge Graphs with Gaussian Embedding. Proceedings of the 24th ACM International on Conference on Information and Knowledge Management, 2015. [5] Aleksandar Bojchevski and Stephan Günnemann. Deep Gaussian Embedding of Graphs: Unsupervised Inductive Learning via Ranking. In 6th International Conference on Learning Representations (ICLR), 2018. [6] Danushka Bollegala Ichiro Sakata Masaru Isonuma, Junichiro Mori. Unsupervised Abstractive Opinion Summarization by Generating Sentences with Tree-Structured Topic Guidance. In Transactions of the Association for Computational Linguistics (TACL), p. 945-961, 2021. [7] Luke Vilnis and Andrew McCallum. Word Representations via Gaussian Embedding. arXiv:1412.6623, 2015. [8] Kai Chen Greg Corrado Jeffrey Dean Tomas Mikolov, Ilya Sutskever. Distributed Representations of Words and Phrases and their Compositionality. arXiv:1310.4546, 2013. [9] Zuozhu Liu Kwan Hui Lim Lidong Bing Yan Zhang, Ruidan He. An Unsupervised Sentence Embedding Method by Mutual Information Maximization. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1601-1610, 2020. [10] Shaohan Huang Zihan Zhang Deqing Wang Fuzhen Zhuang Furu Wei Haizhen Huang Denvy Deng Qi Zhang Ting Jiang, Jian Jiao. PromptBERT: Improving BERT Sentence Embeddings with Prompts. arXiv.2201.04337, 2021. [11] Bohan Li, Hao Zhou, Junxian He, Mingxuan Wang, Yiming Yang, and Lei Li. On the Sentence Embeddings from Pre-trained Language Models. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 9119-9130, 2020. [12] Hongyin Luo Yang Zhang Shiyu Chang Marin Soljačić Shang-Wen Li Wen-tau Yih Yoon Kim James Glass YungSung Chuang, Rumen Dangovski. DiffCSE: Differencebased Contrastive Learning for Sentence Embeddings. In Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL), pp. 4207-4218, 2022. [13] Moin Nabi Tassilo Klein. SCD: Self-Contrastive Decorrelation of Sentence Embeddings. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 394-400, 2022. [14] Niklas Muennighoff. SGPT: GPT Sentence Embeddings for Semantic Search. arXiv.2202.08904, 2022. [15] Christopher Potts Christopher D. Manning Samuel R. Bowman, Gabor Angeli. A large annotated corpus for learning natural language inference. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing (EMNLP), p. 632-642, 2015. [16] Marco Marelli, Stefano Menini, Marco Baroni, Luisa Bentivogli, Raffaella Bernardi, and Roberto Zamparelli. A SICK cure for the evaluation of compositional distributional semantic models. In Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC), pp. 216-223, 2014. [17] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander M. Rush. Transformers: State-of-the-Art Natural Language Processing. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP): System Demonstrations, pp. 38-45, 2020. [18] Samuel Bowman Adina Williams, Nikita Nangia. A Broad-Coverage Challenge Corpus for Sentence Understanding through Inference. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL), p. 1112-1122, 2018. [19] Frank Hutter Ilya Loshchilov. Decoupled Weight Decay Regularization. In 7th International Conference on Learning Representations (ICLR), 2019. ## A 詳細な実験設定 提案手法によるモデルの学習では、SimCSE と同様、埋め込みの次元数を 768、エポック数を 3、温度係数を 0.05、最適化手法を AdamW [19] とした。 バッチサイズ、学習率についてはそれぞれ $\{16,32$, 64, 128, 256\}、\{1e-5, 3e-5, 5e-5 の範囲で探索を行い、後述するモデルの学習中の評価において最も性能の高い組み合わせを使用した。また学習率は、学習の開始時点から線形に減衰するよう学習率スケジューリングを行った。各ハイパーパラメータの組み合わせごとの結果を表 3 に示す。 各実験では 100 step 毎に SNLI の開発セットを用いた NLI 分類タスクにおける PR 曲線の AUC を算出し、最も性能が高かった時点のモデルを最終的な性能評価に用いた。異なる乱数シード值で 5 回評価を行った際の平均を評価スコアとした。 表 3 各バッチサイズと学習率ごとのモデルに対する NLI 分類の PR 曲線の AUC。表内の数值には 100 をかけている。 ## B 前提文と仮説文の文長の比 SNLI および SICK の文ぺアに対し、前提文と仮説文の長さの比の対数をとった値についてのヒストグラムを図 4 に示す。SICK は文長の差がないことを表す 0 付近に分布が集中しているが、SNLI は正の領域に分布が集中している。この事から、SNLI では前提文が仮説文より長い傾向にあることがわかる。 図 4 前提文と仮説文の長さの比のヒストグラム。横軸は前提文と仮説文の長さの比の自然対数、縦軸は文ぺアの数を表し、青が SNLI、橙が SICK を表す。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C4-5.pdf
# ニューラル数式ソルバーにおける途中結果の追跡と操作 松本悠太 ${ }^{1}$ Benjamin Heinzerling ${ }^{2,1}$ 吉川将司 ${ }^{1}$ 乾健太郎 1,2 1 東北大学 2 理化学研究所 yuta.matsumoto.q8@dc.tohoku.ac.jp benjamin.heinzerling@riken.jp yoshikawa@tohoku.ac.jp kentaro.inui@tohoku.ac.jp ## 概要 言語モデルのより深い理解のためには、「モデル内部でどのような処理が行われているか」という観点も重要である。我々は単純な数式とその途中結果に着目することで、Transformer モデルが複数ステップに及ぶ処理を行っているかを検証する。途中結果の情報が符号化されている箇所を特定する Tracing と、符号化されている箇所の状態を操作してモデルに対して因果的介入を行う Manipulation の二つの実験を行なった結果、内部表現の特定の方向が線形に近い形で途中結果を符号化していること、そしてそのような方向がモデルの推論結果に対して因果的にも関係していることを示す。 ( www.github.com/cl-tohoku/trace-manipulate ## 1 はじめに 近年の言語モデルは数量推論のような複雑な処理が必要だと思われる問題においてもある程度高い性能を出せることが知られている $[1]$ 。また、複数の先行研究では線形代数や初等数学のような数値計算のタスクを通じて言語モデルが持つ潜在的な能力を測っており [2,3]、現在のモデルによって解ける問題や解けない問題の性質が分かりつつある。 一方で、モデルがこのような問題を解く際、その内部で何が行われているかについての研究はほとんど行われていない。しかし、モデルの能力をよりよく理解するためには、入出力の結果だけでなくその内部での処理を分析することも非常に重要だと考えられる。我々は過去にモデルが途中結果を介した複数ステップの推論を行なっているかを調べるために、四則演算を学習した Transformer [4] の隠れ層を分析し、四則演算の途中結果 ${ }^{1}$ がモデル内部の特定の方向に保存 (符号化) されていることを示した [5]。  は 154,290,116, 223 などである。本研究ではこの研究を拡張し、途中結果とモデル内部状態の相関関係だけでなく、因果関係も調査する。具体的には、四則演算を学習した Transformer の内部状態から主成分分析を用いて途中結果と相関の高い、すなわち途中結果を符号化しているような方向を抽出したのち、その部分のアクティベーションを操作してモデルの予測結果の変化を観察する。 これによって、途中結果を符号化している部分がモデルの推論に与える因果的な影響を調査する。その結果、途中結果を符号化しているような方向の中には実際にモデルの推論時にも使用されているものがあることを確認できた。また、相関が高くてもモデルの推論には使用されていない方向も確認されたため、モデルの内部を分析する際に因果的な関係を調査することの重要性を示唆する結果となった。 本論文の貢献は、Transformer モデルの内部でどのような処理が行われているのかを因果推論まで含めて詳細に分析できた点である。 ## 2 関連研究 言語モデルと数値複数の先行研究は、近年の言語モデルが数学的な問題をある程度解けることを示している。Geva ら [1] は大規模言語モデルを使用することで、数量推論タスクでほぼ最先端の性能を達成できることを示した。また、数值計算に特化させた Transformer は初等数学や線形代数といった記号推論の問題をある程度解けることも示されている $[2,3]$ 。彼らの知見に基づき本研究では、モデルに解ける問題として四則演算を取り上げる。 モデル内部の分析モデルの内部表現にどのような情報が符号化されているかについては、近年高い関心が集まっている。このような研究の多くはプロービングの文脈で行われているが [6, 7]、Shibata ら [8] は我々と似た手法で実験を行っている。彼らは形式言語で訓練した言語モデルを分析して、形式言語の深さと高い相関を持つアクティベーションの 図 1: 途中結果の追跡 (Tracing) と操作 (Manipulation) の概要。Tracing では PCAを用いて、数式中の途中結果と相関が高いモデル内の方向を追跡する。Manipulation では、Tracing で追跡された方向に沿ってモデルのアクティベーションを操作した際のモデル予測の変化を観察する。 存在を示した。また、Elzar ら [9] はプロービングによって抽出できる特徵は必ずしもモデルの推論には使われていないことを明らかにし、内部表現への因果的介入を行う重要性を示した。本研究ではモデルの隠れ層を分析対象として、途中結果の情報を符号化している部分を抽出し、アクティベーションを連続的に変化させることで抽出された情報がモデルの推論に使用されているかを調査する。 ## 3 手法 本節では図 1 に示した本研究の提案手法について記述する。まず四則演算のデータで Transformer を訓練した後、下記に示す 2 つの方法でモデルの内部状態と数式の途中結果の関係を調査する。 ## 3.1 途中結果の追跡 (Tracing) 数式 (大力)を変化させると、出力と同時に隠れ層の表現も変化する。では、この表現は数式中の途中結果とどのような関係があるのだろうか。汎化したモデルの表現空間はタスクの特徴を捉えたような構造になる [10] ことを考慮すると、数式中の途中結果は表現空間になんらかの形で符号化されているはずである。我々は一番単純な符号化の形として、表現空間中の特定の方向と途中結果の関係を調べる。まず、モデルの各層に対してその表現空間中で支配的な方向を見つける。モデルの $l$ 層目, $j$ 番目のトークンにおける表現 $h_{j}^{l}$ を全て連結した表現 $H^{l}=h_{1}^{l} \oplus h_{2}^{l} \oplus \cdots \oplus h_{n}^{l}$ に対して主成分分析 (PCA)を行うことで、主成分 $p_{k}^{l}, k \in[1, \ldots, K]$ を得ることが 中のあるインスタンス $i$ に対してこの PCA モデルを適用すると、各主成分の重み $p_{i, k}^{l}$ を得ることができる。次に、数式中の途中結果 $R_{i}^{j}$ と各主成分 $p_{k}^{l}$ の重みの相関 $\operatorname{corr}\left(R_{i}^{j}, p_{i, k}^{l}\right)$ を測る。これを各層における全ての途中結果と主成分の直積に対して行  (a) 1 層目 (b) 3 層目 (c) 4 層目 図 2: 層ごとの各主成分重みと数式の途中結果の相関関係のヒートマップ。各セルは第 $k$ 主成分の重み(列) とある途中結果(行)との相関係数の絶対値を表す。 うことで、ある途中結果と最も相関の高い主成分である最大相関方向 $\hat{p}_{k}^{l}\left(R^{j}\right):=\operatorname{argmax}_{k}\left(\operatorname{corr}\left(R_{i}^{j}, p_{i, k}^{l}\right)\right)$ を得る。仮に最大相関方向の相関が十分高ければ、対応する途中結果を符号化していると考えることができる。例えば、図 1 のイメージは $a-(b-c)$ という数式における途中結果 $a$ や $b-c$ の値がある層のある主成分に符号化されていることを表す。 ## 3.2 途中結果の操作 (Manipulation) 本節では、Tracing によって得られた最大相関方向がモデルの推論に使用されているのかを検証するため、モデルに対して因果的介大を行う。具体的には図 1 下部に示すように、主成分に沿ってモデルのアクティベーションを操作し、それによるモデルの予測結果の変化を観察する。定式化して表すと、 $l$ 層目の表現 $H^{l}$ に対して次の式に基づいて主成分 $p_{k}^{l}$ の重みを $r$ 倍することで、操作後の表現 $H^{l^{\prime}}$ を得る。 $ H^{l^{\prime}} \leftarrow H^{l}+(r-1)\left(p_{k}^{l^{\top}} H^{l}\right) p_{k}^{l} $ 直観的には $r$ を変化させることで主成分 $p_{k}^{l}$ に沿ってアクティベーション $H^{l}$ が移動し、それに伴ってモデルの予測結果も変化する。 もし最大相関方向 $\hat{p}_{k}^{l}\left(R^{j}\right)$ が因果的にも途中結果 $R^{j}$ を符号化しているのであれば、 $p_{k}^{l}$ の重みを動かすことは数式の途中結果 $R^{j}$ を動かすことに対応していると考えられる。すなわち、 $R_{i}^{j}=f\left(p_{i, k}^{l}\right)$ となるような関数 $f$ を定義できる。この時、逆関数を取ることで途中結果から主成分の重みを予測する関数 $f_{p}=f^{-1}$ を定義することができる。「 $\hat{p}_{k}^{l}\left(R^{j}\right)$ が因果的にも途中結果 $R^{j}$ を符号化している」という仮説を検証するためには、この $f_{p}$ が正しいかを確かめれば良い。すなわち、実際に入力項を変更した際の最大相関方向 $\hat{p}_{k}^{l}\left(R^{j}\right)$ の重みを $p_{i, k}^{l}=f_{a}\left(R_{i}^{j}\right)$ のように表せる実測関数 $f_{a}$ と $f_{p}$ を比較して確かめる。 ## 4 実験設定 ニューラル数式ソルバーとして、Sajjad ら [11] を参考に 6 層の Transformer エンコーダを用意し、 [CLS] トークンから線形回帰を行う。足し算と引き算、括弧を含む四則演算のデータをテンプレートから 20 万個自動生成し、3) そのうち 19 万個のデータでモデルを学習する。先行研究 [1] に従い、入力中の数字は 1 桁ごとにトークン化する。例えば、“ 123 ” という数字は $1, \# \# 2, \# \# 3$ にトークン化される。訓練後、 1 万個の検証データにおいてこのモデルを評価したところ決定係数 $R^{2}=0.9988$ で、異なるパター ンの数式を並列に学習させてもほぼ正しい答えを出力できることが確認された。 ## 5 結果 ## 5.1 途中結果の追跡 今回は $a-(b-c)$ という数式を分析の対象とする。各途中結果と上位 10 主成分の重みの関係を測定した結果を図 2 に示す。図 2(a), 2(b) から、中間層において数式中の途中結果と相関が非常に高い最大相関方向が複数存在することがわかる。例えば、 1 層目の第 3 主成分の重みと $b$ の値の相関係数は $0.96 、 3$層目の第 2 主成分の重みと $b-c$ の値の相関係数は 0.94 である。 ここから、数式の途中結果はモデル内部の表現空間における特定の方向に線形的、局所的に符号化されていると考えることができる。 一方で図 2(c) からは $p_{1}^{4}$ が最終結果とほぼ 1 の相関を持っていることがわかり、 4 層目の時点で数値計算処理が終了していると推察できる。 程式の種類は全部で 87797 種類である。 (a) 重み操作によるモデル予測とそこから導いた途中結果の変化。 (b) 途中結果と主成分の重みに関する実測関数 $f_{a}(b)$ と予測関数 $f_{p}(b)$ 。 図 3: $\hat{p}_{3}^{1}(b)$ に対する Manipulation の結果。影の部分はデータセット中に現れない重みの範囲を表す。 ## 5.2 途中結果の操作 数式 $617-(555-602)$ とその途中結果 $b=555$ を例に取り、Manipulationを行う。5.1 節から、数式 $a-(b-c)$ において、最大相関方向 $\hat{p}_{3}^{1}(b)$ は 0.96 という高い相関を持つ。ここで、 $p_{3}^{1}$ に沿ってモデルのアクティベーションを操作すると、モデルの予測結果は図 3(a) に示されるように、元の予測結果 (664) から約 100-1200 まで変化することがわかる。 この時、予測結果の変化をモデル内の途中結果 $b$ の表現を変えたものによるものだと仮定すると、図 3(a) の右軸を得ることができ、軸を反転することで $p_{i, 3}^{1}=f_{p}(b)$ となるような関数 $f_{p}$ が得られる。 この予測関数 $f_{p}$ を、実際に $b$ の値を変化させた時の重みを $p_{i, 3}^{1}=f_{a}(b)$ と表せるような実測関数 $f_{a}$ と比較した結果を図 3(b) に示す。図 3(b) から、予測関数 $f_{p}$ と実測関数 $f_{a}$ は概して一致しており、特に元データの周りでは一致度が高いことがわかる。これは、 $\hat{p}_{3}^{1}(b)$ が $b$ の値を一定の範囲では因果的にも符号化している証拠だと考えることができる。同じ実験を異なる値を持つ $a-(b-c)$ の 1000 インスタ (a) $\hat{p}_{3}^{1}(b)$ に対する Manipulation の結果。 (b) $\hat{p}_{2}^{4}(b)$ に対する Manipulation の結果。 図 4: 1000 個のデータに対して重みの操作を行なった際の誤差 $\left|f_{p}(b)-f_{a}(b)\right|$ の中央値。 ンスで行った時の $\left|f_{p}(b)-f_{a}(b)\right|$ の中央值を図 4(a) に示す。図 4(a) から、元データの表現から離れると必ずしも $\hat{p}_{3}^{1}(b)$ が $b$ の值を因果的に符号化しているとは言えないことが定量的にも観察される。逆に、 Manipulation によって因果的には途中結果を符号化していない最大相関方向を特定することもできる。例えば、 $\hat{p}_{2}^{4}(b)$ は $b$ と 0.81 の高い相関を持つが、この方向に対して重みの操作を行なった際の誤差中央値は図 4(b) のようになり、誤差が非常に大きいことが観測される。これは図 2 から推測される「4 層目までで途中結果を使用した数値計算処理はほぼ完了している」という仮説と対応するものである。 ## 6 おわりに 本研究では言語モデルが数値計算を行う時に内部で行なっている処理を明らかにするため、数式中の途中結果に着目し追跡と操作を行なった。その結果、「数値計算ができるモデル」の内部では途中結果の情報が存在し、かつその情報はモデルの推論時にも使われていることを解明した。本研究の手法はアクティベーションを連続的に変化させることでモデルに対して詳細な因果推論を行うことができる。今後はこの手法をより一般的な数量推論モデルにも適用し、分析道具としての有用性を示したい。 ## 謝辞 本研究は JST CREST JPMJCR20D2、JSPS 科研費 21K17814 の助成を受けたものです。 ## 参考文献 [1] Mor Geva, Ankit Gupta, and Jonathan Berant. Injecting numerical reasoning skills into language models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 946-958, Online, July 2020. Association for Computational Linguistics. [2] David Saxton, Edward Grefenstette, Felix Hill, and Pushmeet Kohli. Analysing mathematical reasoning abilities of neural models. In International Conference on Learning Representations, 2019. [3] François Charton. Linear algebra with transformers, 2021. [4] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [5] 松本悠太, 吉川将司, Benjamin Heinzerling, 乾健太郎.四則演算を用いた transformer の再帰的構造把握能力の調査. 言語処理学会年次大会, 2022. [6] Ganesh Jawahar, Benoît Sagot, and Djamé Seddah. What does BERT learn about the structure of language? In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3651-3657, Florence, Italy, July 2019. Association for Computational Linguistics. [7] Alessandro Raganato and Jörg Tiedemann. An analysis of encoder representations in transformer-based machine translation. In Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 287-297, Brussels, Belgium, November 2018. Association for Computational Linguistics. [8] Chihiro Shibata, Kei Uchiumi, and Daichi Mochihashi. How LSTM encodes syntax: Exploring context vectors and semi-quantization on natural text. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 4033-4043, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics. [9] Yanai Elazar, Shauli Ravfogel, Alon Jacovi, and Yoav Goldberg. Amnesic probing: Behavioral explanation with amnesic counterfactuals. Transactions of the Association for Computational Linguistics, Vol. 9, pp. 160175, 2021. [10] Ziming Liu, Ouail Kitouni, Niklas Nolte, Eric J Michaud, Max Tegmark, and Mike Williams. Towards understanding grokking: An effective theory of representation learning. In Alice H. Oh, Alekh Agarwal, Danielle Belgrave, and Kyunghyun Cho, editors, Advances in Neural Informa- tion Processing Systems, 2022. [11] Hassan Sajjad, Fahim Dalvi, Nadir Durrani, and Preslav Nakov. On the effect of dropping layers of pre-trained transformer models, 2021. ## A 四則演算データセットの詳細 四則演算データは、最大で 5 段の深さを持つ。各項 $x$ の大きさは、訓練、検証データ中では $0<x<1000$ 、 5.1, 5.2 節での分析に使用したデータでは桁数を揃えるために $100<=x<1000$ とした。訓練に使用した数式の例を表 1 に示す。 表 1: 四則演算データセットの例 ## B ニューラル数式ソルバーの詳細 ニューラル数式ソルバーは表 2 に示す設定で訓練を行った。 表 2: ハイパーパラメータの一覧 4) https://huggingface.co/bert-base-uncased 5) https://pypi.org/project/pytorch-pretrained-bert
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C5-1.pdf
# リフレーミングに基づいた言い換え生成のための 単言語パラレルコーパスの構築とその分析 河野誠也湯口彰重吉野幸一郎 理化学研究所ガーディアンロボットプロジェクト \{seiya.kawano, akishige.yuguchi, koichiro.yoshino\}@riken.jp ## 概要 リフレーミングとは,ある枠組みで捉えられている物事の枠組みを外して違う枠組みで見ることを指す. 言い換えもその結果の一つである。例えば,ネガティブな内容を異なった側面から捉えてポジティブにリフレーミングし言及することで,対話において話し手と聞き手の良好な関係の維持や自己肯定感の向上を期待することができる.このようなネガティブな発言をポジティブにリフレーミングするような言語的配慮能力は,社会性を備えた対話システムを実現する上で重要である。そこで本研究では, ネガティブな表現をポジティブに言い換えるリフレーミングの事例を,ウェブや書籍など複数の情報源から人手で収集し,単言語パラレルコーパスとして整備,分析した。 ## 1 はじめに リフレーミングとは,短期療法や家族療法,ナラティブセラピー等で用いられる技法であり,ある枠組みで捉えられている物事の枠組みを外して,違う枠組みで見ることを指す $[1,2,3]$. 発話によるネガティブな感情の発露は, 話し手と聞き手の双方にストレスを与える可能性がある. このため,ネガティブな発話をポジティブにリフレーミングすることは対話継続性向上の観点から重要で,リフレーミングにより話し手の自己肯定感の向上や話し手と聞き手の良好な関係の維持を期待することができる。このような,ネガティブな発言をポジティブにリフレー ミングするような言語的配慮能力は,社会性を備えた対話システムを実現する上で重要である $[4,5]$. そこで,本研究では,対話システムへの応用を志向してネガティブな表現をポジティブな表現にリフレーミングする言い換え生成モデルを検討する。一般に,こうした言い換え生成の研究では,言い換え元と言い換え先のペアからなる大規模なパラレルデータを言い換え生成モデルの学習データして必要とする [6]. しかしながら,リフレーミングに着目した言い換えを扱う利用可能なパラレルコーパスは限られているのが現状である [5,3]. 本研究ではネガティブな表現をポジティブな表現にリフレーミングする言い換え生成モデルを構築するための最初のステップとして,ウェブや書籍など複数の情報源からネガティブな表現をポジティブな表現にリフレーミングした事例を人手で収集し,リフレーミングに基づいた言い換え生成モデルを学習するための単言語パラレルコーパスを構築した。次に,構築したコーパスに含まれるリフレーミング事例の分析と,構築したコーパスを学習データとして用いた場合,既存の言い換え生成モデルがどの程度の性能でリフレーミングに基づいた言い換えを生成できるかについての検証を実施した。 ## 2 関連研究 これまでに,発話文の感情極性やスタイルの変換に着目した研究は数多く行われてきた $[7,3,8]$. 感情極性の変換では,単純には入力文(ないし発話,単語)と意味が真逆な文を生成する [9]. また,対話応答生成のタスクでは,目標応答の感情ラベルを陽にモデルに生成条件として与えることで,与えた感情ラベルを反映しつつ対話履歴に対しても適切な応答を生成しようとする制御可能なニューラル会話モデルが提案されている $[10,11]$. このような変換夕スクでは元々の入力文の構造や属性に依存しないトピックは変換後の文に保持されるが,変換前の文と変換後の文の真理条件的意味が必ずしも等しくなる保障はない. 一方で,スタイル変換のタスクでは,入力文の意味的内容を保持しつつ意味以外の情報を制御する言い換えを生成することに焦点を当てる. 例えば, 元々の文の難解な表現を平易に言い換えたり,文の丁寧さのレベルを制御したりする研究が行われている [6,12]. 本研究が対象とする,ネガティブな表現をポジティブな表現にリフレーミングする言い換えタスクは,スタイル変換のタスクと類似する。例えば,「私は自己中心的です」という文をリフレー ミングすることを考える場合「私は自分を持っている」等と言い換えることができる.このような言い換えは,言い換え後の文の真理条件的意味は完全には等価ではないにせよ,フレーム(見方)を変えて見た場合,一面では等価であるともみなすことができる.こうした変換を婉曲表現という観点で行うのが「皮肉」の生成である $[13,14]$. しかしながら,皮肉が他者に対する悪意に紐づいたものである一方で,リフレーミングでは,より広範な概念を扱う。 リフレーミングに基づいた言い換えを生成する研究も近年行われている [3]. この研究 [3] では,ネガティブな発話をポジティブに言い換えるリフレー ミングの事例をクラウドソーシングで収集し,言い換え生成モデルの学習データとして用いている。しかしながら,基本的には発話レベルでのリフレーミングや会話の含意に着目しており単語レベルやフレーズレベルでの言い換えや,発話中に含まれる表現が持つ意味や含意を分析するには十分ではない. しかしながら, 日本語に着目したリフレーミング事例を収録したコーパスには制限があるのが現状である [5]. これに対して, 本研究では, リフレーミングに基づいた言い換え生成モデルを実現するために,様々な言い換えの粒度に基づいたリフレーミング事例を含んだ日本語言い換えコーパスを構築し,その分析を実施する。 ## 3 リフレーミング事例の収集と分析 スタイル変換を含む言い換え生成のタスクは,同一言語内の機械翻訳の問題と考えることができるため系列変換モデルと相性が良い. 通常,系列変換モデルは,数十万文対を超える大規模なパラレルコー パスを用いて学習されるが,リフレーミングタスクに着目した日本語のスタイル変換コーパスには限りがある [5]. そこで,本研究では最初のステップとして,ネガティブな表現をポジティブにリフレーミングして言い換えた事例を,ウェブや書籍など複数の情報源から人手で収集し,リフレーミング表現生成モデルを学習するための小規模の単言語パラレルコーパスを構築する。 ## 3.1 リフレーミング事例の収集 本研究では,リフレーミングの中でも,「社会的幸福や認知能力の向上を意図し」て行われるネガティブな表現をポジティブに言い換えるリフレーミングに着目し,そのようなリフレーミングの事例を Web や書籍から人手で収集した。より具体的には,「リフレーミング」,「ネガポジ辞典」,「ネガティブポジティブ言い換え」などの検索ワードを手掛かりとした調査を実施し,主に教育心理学,カウンセリング,自己啓発等を扱う複数の媒体を選定した。次に,それらの媒体からネガティブな表現をポジティブに言い換えるリフレーミング事例を抽出し,単言語パラレルコーパスとして整備した。構築したコー パスの統計情報は表 1 のとおりである(より詳細な分析は次節で述べる)。ここで,重複するレコードはマージし, 単一のネガティブ表現に対して複数のポジティブな表現が可能な言い換え(正解)として割り当てた。 構築したコーパスは先行研究 [3] とは異なり, 単語単位,フレーズ単位,文単位といった様々な言い換えの粒度に基づいたリフレーミング事例を収録している。例えば,「あきらめが早い」というネガティブなフレーズについては,「潔い」,「決断が早い」,「気持ちの切り替えが早い,上手」などの他のネガティブな表現(単語,フレーズを含む)が正解として割り当てられている1)。 ## 3.2 リフレーミング事例の分析 表 1 に示した通り,構築したコーパスに含まれるユニークな言い換えぺア数は 2,664 件であり,その語彙サイズは 3,697であった(語彙サイズ > ユニークな言い換えペア数)。このことから,構築し  たコーパスは比較的小規模なコーパスでありながらも,多様な語彙をサポートしていることが推察できる. さらに,コーパスに収録されているポジティブ/ネガティブ表現の平均文字数, 平均単語数, 平均文節数を比較したところ,リフレーミング前であるネガティブ表現と比較してリフレーミング後の言い換えであるポジティブ表現が比較的長いことが確認できた. また,コーパスに含まれる各ネガティブ表現に対して, 平均して 2.4 件のポジティブ表現が可能な言い換えとして割り当てれられていることが確認できた.このことから,リフレーミングに基づいた言い換えは自由度が高いため,一対一の言い換えだけでなく一対多の言い換えを考慮する必要がある.また,コーパスに含まれるユニークなネガティブ表現の数は 1,817 件であり, このうち 325 件のネガティブ表現がコーパス中で複数回出現することが確認できた.具体的には,「素直」,「慎重」,「行動力がある」といった個人の性格や特性に関連した表現がコーパス中に複数回出現していることが確認できた. 図 1: ネガティブ/ポジティブ表現を構成する単語数をクラスとした場合の度数分布 図 1 にコーパス中のネガティブ/ポ゙ティブ表現を構成する単語数をクラスとした場合の度数分布を示す. 図 1 は,最もコーパスで出現しやすいネガティブぱジティブ表現のパターンとして, 1 単語と 4 単語で構成される単語がコーパス中に特に頻出することが確認できた.また,これらをピークとした右側に裾野が広い分布が確認できる.このことから,構築したコーパスは多様な言い換えの粒度(単語,フレーズ,文等)に基づいたリフレーミングの事例を収録している2)。 2)文字/文節数を基準とした場合の度数分布は付録 $\mathbf{B}$ を参照. ## 4 言い換え生成モデルの検証 本研究で構築したコーパスを学習データとして用いて,リフレーミングに基づいた言い換え生成モデルの構築を検討する.具体的には,利用可能な既存の言い換え生成モデルがどの程度の性能でネガティブな表現をポジティブな表現にリフレーミングして言い換えることができるかについての評価とその限界について議論する。 ## 4.1 言い換え生成モデルの学習と評価 ネガティブな表現をポジティブな表現にリフレー ミングして言い換えるような言い換え生成タスクを検証する。しかしながら,本研究が構築したコーパスのサイズは,このようなリフレーミングのための言い換えを生成するモデルをゼロから学習するには不十分である.そこで,本研究ではリフレーミングに基づいた言い換え生成モデルのベースラインとして,他の大量の言語資源で事前学習された大規模言語モデルを,今回構築したコーパスに含まれるリフレーミング事例でファインチューニングし,その言い換え性能を評価する.比較に用いたモデルは以下の通りである。 BERT 分散表現ベクトルのコサイン類似度に基づいて,入力として与えられたネガティブ表現と最も類似するポジティブ表現をコーパス中から検索し,言い換えとする場合. 分散表現ベクトルには,事前学習済み日本語 BERT モデル³) の [CLS]トークンに対応する出力ベクトルを用いる。 GPT-2 Transformer decoder block に基づいた事前学習済み日本語 GPT-2 モデル4)をリフレーミング事例でファインチューニングする場合 [15]. T5 Transformer encoder-decoder モデルに基づいた事前学習済み日本語 $\mathrm{T} 5$ モデル5)をリフレーミング事例でファインチューニングする場合 $[16,17]$. Japanese-dialog-transformer 日本語雑談対話データ (Twitterデータ)で事前学習された Transformer encoder-decoder モデル [18] をリフレーミング事例でファインチューニングする場合. リフレーミングに基づいた言い換え生成モデルの学習と評価には 5 分割交差検証を用いた ${ }^{6}$ ). 言い換 $ を参照 } え生成の評価指標としては,言い換え生成モデルの言い換え候補上位 100 件に正解の言い換えが完全一致で含まれている割合 Acc., 言い換え候補上位 100 件を用いたランキング評価値 MRR[19], 生成された言い換えと正解の言い換えの bigram までの一致を考慮した BLEU[20], 生成された言い換えと正解の言い換えの分散表現ベクトルのコサイン類似度の平均 Sim. を用いた. 言い換え候補の順位付けについては,BERTでは類似度を基準とし,GPT2, T5, Japanese-dialog-transformer ではランダムサンプリングで生成された言い換え候補の尤度を基準とした. ## 4.2 評価結果 表 2 に,学習した言い換え生成モデルの性能について示す.ここで,括弧は各スコアが最大となるような言い換えを言い換え候補集合から選択した場合の結果である。表 2 より, BERT が他のモデルと比較して最も高い性能が示された。しかしながら, BERT は本研究で構築したコーパス全体に含まれるネガティブ表現のセットを検索対象としていることから, GPT2,T5, Japanese-dialog-transformer のように言い換え生成モデルの学習データには必ずしも含まれないような未知のポジティブ表現を生成するようなモデルと単純に比較するのは適切ではない. BERT は単純な類似度による検索に基づいており,検索対象のネガティブ表現の集合のサイズが極端に大きくなるような場合や評価データに存在しないような表現が存在するような場合,その性能は大きく低下する。 したがって,完全な生成べースのモデルである GPT2, T5, Japanese-dialog-transformer が言い換え生成モデルの実利用という観点からは重要である. これらのモデルにおいては,言い換えの正解との完全一致に基づいた厳密な指標である Acc. について, Japanese-dialog-transformer が特に高い性能を示した. ここで,このモデルは今回用いたモデルの中で最も巨大であり, 事前学習モデルのパラメータサイズが性能に影響した可能性がある。また,このモデルが他のモデルと異なり, 対話応答生成というタスクに特化した事前学習を行っていることにも留意する必要がある. Japanese-dialog-transformerを用いて実際にリフレーミングのための言い換えをランダムサンプリングを用いて生成し,その傾向を確認した(付録 $\mathbf{D}$ ).表 2: リフレーミングによる言い換え生成モデルの性能 & $\mathbf{3 2 . 2}$ & $\mathbf{0 . 0 6}$ & $\mathbf{6 . 9}(\mathbf{4 1 . 9})$ & $0.75(\mathbf{0 . 9 0})$ \\ 結果として,例えば,「頑固」といったような短い単語で構成されるようなネガティブ表現については,「協調性がある」といった元のネガティブな表現とは明らかに矛盾するような表現も一部生成されているものの,「意志が強い」,「信念がある」といった妥当な言い換えを生成できていることが確認できた.一方で,「受験に失敗して浪人してしまった」といった比較的長い文字数で構成されるネガティブ表現が与えられる場合,「人生に絶望して自殺することに決めた」といった不適切なリフレーミング事例を生成していることが散見された。これは,長い文字数で構成されるリフレーミングの事例が学習データに比較的少数しか出現していないことに起因する. ## 5 おわりに 本研究では,ネガティブな表現をポジティブな表現にリフレーミングする言い換え生成モデルのための単言語パラレルコーパスの構築とその分析を行った. 構築したコーパスは単語,フレーズ,文単位といった様々な変換粒度に基づいた多様なリフレーミング事例を含むことが確認できた。また,構築したコーパスを用いて大規模言語モデルを活用したリフレーミングに基づいた言い換え生成モデルを評価した. 今後の課題としては,構築したコーパスのさらなる拡張と言い換え生成モデルの改善に取り組む. また,リフレーミングによって生成された言い換えの質についてより厳密に評価するために, 自動評価指標による評価だけではなく,人手による評価を実施する. さらに,リフレーミングという行為は,その動機や目的に応じて, 複数のタイプに分類することができるが,本研究ではそれらを明示的に区別していない $[3,21]$. したがって,対話システムを始めとした各種アプリケーションでの応用を考えると,リフレーミングに基づいた言い換え生成モデルが与えられた入力表現に対してどのようなタイプのリフレーミングをするかを,モデルが明示的に制御できるような枠組みが必要である. ## 謝辞 本研究は, JSPS 科研費 $\lceil 22 K 17958 」$ 及び JST ACT-X 「JPMJAX22A4」の助成を受けた。 ## 参考文献 [1] James P Robson Jr and Meredith Troutman-Jordan. A concept analysis of cognitive reframing. Journal of Theory Construction \& Testing, Vol. 18, No. 2, 2014. [2] 竹田葉留美. コラム: 出来事の視点を変えてポジティブに考えるリフレーミングを活用したストレスマネジメント〜. 情報の科学と技術, Vol. 67, No. 3, pp. 121-122, 2017. [3] Caleb Ziems, Minzhi Li, Anthony Zhang, and Diyi Yang. Inducing positive perspectives with text reframing. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 3682-3700, 2022. [4] Seiya Kawano, Akishige Yuguchi, and Koichiro Yoshino. Analysis of face act in multimodal japanese persuasion dialogue corpus. In Proceedings of International Workshop on Spoken Dialogue Systems Technology, 2023. [5] 河野誠也, 湯口彰重, 吉野幸一郎ほか. 大規模言語モデルを用いたリフレーミング表現の自動生成とその評価. 研究報告自然言語処理 (NL), Vol. 2022, No. 9 , pp. 1-6, 2022. [6] Tomoyuki Kajiwara and Mamoru Komachi. Building a monolingual parallel corpus for text simplification using sentence similarity based on alignment between word embeddings. In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers, pp. 1147-1158, 2016. [7] Di Jin, Zhijing Jin, Zhiting Hu, Olga Vechtomova, and Rada Mihalcea. Deep learning for text style transfer: A survey. Computational Linguistics, Vol. 48, No. 1, pp. 155-205, 2022. [8] Quan Hung Tran, Ingrid Zukerman, and Gholamreza Haffari. A hierarchical neural model for learning sequences of dialogue acts. In Proc. of ACL, Vol. 1, pp. 428-437, 2017. [9] Bidisha Samanta, Mohit Agarwal, and Niloy Ganguly. Fine-grained sentiment controlled text generation. arXiv preprint arXiv:2006.09891, 2020. [10] Hao Zhou, Minlie Huang, Tianyang Zhang, Xiaoyan Zhu, and Bing Liu. Emotional chatting machine: Emotional conversation generation with internal and external memory. In Proc. of AAAI, 2018. [11] Chenyang Huang, Osmar Zaiane, Amine Trabelsi, and Nouha Dziri. Automatic dialogue generation with expressed emotions. In Proc. of NAACL-HLT, Vol. 2, pp. 49-54, 2018. [12] Liye Fu, Susan Fussell, and Cristian Danescu-NiculescuMizil. Facilitating the communication of politeness through fine-grained paraphrasing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 5127-5140, 2020. [13] Mengdi Zhu, Zhiwei Yu, and Xiaojun Wan. A neural approach to irony generation. arXiv preprint arXiv:1909.06200, 2019. [14] Aditya Joshi, Pushpak Bhattacharyya, and Mark J Carman. Sarcasm generation. In Investigations in Computational Sarcasm, pp. 119-127. Springer, 2018. [15] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, et al. Language models are unsupervised multitask learners. OpenAl blog, Vol. 1, No. 8, p. 9, 2019. [16] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov, and Luke Zettlemoyer. Bart: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. arXiv preprint arXiv:1910.13461, 2019. [17] 田中佑, 村脇有吾, 河原大輔, 黒橋禎夫. 日本語 wikipedia の編集履歴に基づく入力誤りデータセットと訂正システムの構築. 自然言語処理, Vol. 28, No. 4, pp. 995-1033, 2021. [18] Hiroaki Sugiyama, Masahiro Mizukami, Tsunehiro Arimoto, Hiromi Narimatsu, Yuya Chiba, Hideharu Nakajima, and Toyomi Meguro. Empirical analysis of training strategies of transformer-based japanese chit-chat systems. arXiv preprint arXiv:2109.05217, 2021. [19] Ellen M Voorhees, et al. The trec-8 question answering track report. In Trec, Vol. 99, pp. 77-82, 1999. [20] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [21]兼折友美子, 畦地博子. 困難事例に対応する看護師のリフレーミングを促す技術. 高知女子大学看護学会誌, Vol. 39, No. 1, pp. 43-50, 2013. [22] ネガポ辞典. 主婦の友社, 2012. ## 付録 ## A 収集したリフレーミングの事例 表 A.1: 収集したリフレーミングの事例(文献 [22] より抜粋) \\ ## B 文字/文節数に基づいた度数分布 図 B.3: ネガティブ/ポジティブ表現を構成する文字/文節数をクラスとした場合の度数分布 ## C言い換えモデルの学習の詳細 本研究が扱う,リフレーミングに基づいた言い換え生成タスクは,ネガティブな表現 $N=\left[x_{1}\right.$ $\left., \cdots, x_{T}\right]$ が与えられたとき,それをポジティブに言い換えたリフレーミング表現 $P=\left[y_{1}, \cdots, y_{T}^{\prime}\right]$ を生成することである。ここで, $x_{*}, y_{*}$ は単語,T, $T^{\prime}$ はそれぞれ $N$ と $P$ の単語数である. 本研究では,このような言い換えを実現するために事前学習済み大規模言語モデルを以下の目的関数を最大化するようにファインチューニングする。 $ J(\theta)=\frac{1}{\left|D_{N \rightarrow P}\right|} \sum_{\left(P_{i}, N_{i}\right) \in D_{N \rightarrow P}}^{M_{N \rightarrow P}} \log \left[p\left(P_{i} \mid N_{i}, \theta\right)\right] $ ここで, $D_{N \rightarrow P}$ は,ネガティブな表現とポジティブな表現の言い換えぺアの集合(学習データ), $\theta$ は大規模言語モデルのパラメータ,p は目標言い換え表現の生成確率である. より具体的には,言い換え表現の予測結果と正解表現の間の交差エントロピー 誤差を最小にするようにモデルを学習する。ここで,(1) 式はネガティブ表現を条件として与えたときのポジティブ表現の生成確率に着目しているが実際のモデルに対する入力としては,GPT2では「ポ ティブな表現に言い換えると:***」といったテンプレートに基づいた言い換えパターン生成するようにモデルを学習した.また,T5では,エンコーダの入力に対するプレフィックスとして「ネガティブな表現をポジティブな表現にリフレーミングして言い換え: 」を与えてモデルの学習を行った。 ## D 実際の言い換え生成の例 表 D.2: Japanese-dialog-transformerによる実際の言い換え生成の例(ランダムサンプリング結果) \\
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C5-2.pdf
# テキスト平易化事例を説明する最小編集操作列の自動生成 山口大地 ${ }^{1}$ 宮田玲 ${ }^{1}$ 藤田篤 ${ }^{2}$ 梶原智之 ${ }^{3}$ 佐藤理史 ${ }^{1}$ 1 名古屋大学大学院工学研究科 2 情報通信研究機構 3 愛媛大学大学院理工学研究科 yamaguchi.daichi.e4@s.mail.nagoya-u.ac.jp ## 概要 テキスト平易化システムの評価手法が種々提案されてきたが、システムを詳細に分析できる評価手法の開発は進んでいない。我々はそのような評価の自動化に向け、テキスト平易化事例を説明する最小編集操作列の自動生成という新しいタスクを提案する。本稿では、このタスクを定式化するとともに、 このタスクを実現するための我々の提案手法について説明する。そして、提案手法の一部を実装し、最小編集操作列を半自動で生成する実験を行った結果について報告する。 ## 1 はじめに テキスト平易化 (text simplification, TS) はテキストの主要な情報を保持しつつ、語彙や構造の複雑さを軽減するタスクである [1]。TS は第二言語学習者や子どもの学習支援に利用でき、また機械翻訳や文章要約のような自然言語処理タスクの改善のための前処理として利用することが期待できる $[2,3]$ 。 TS システムの評価には自動評価と人手評価が広く使われてきた。自動評価では、SARI [4] や BLEU [5]、FKGL [6] などの評価指標が用いられてきた。人手評価では、流暢性、妥当性、平易度の観点から、それぞれ 3 5 段階での評価が行われてきた $[7,8,9]$ 。しかし、これらの評価はいずれもシステムの振る舞いや特徴を一つの評価尺度に集約してしまうものであるため、評価結果に基づいてシステムの振る舞いや特徴を説明することは難しい。TS のエンドユーザーは難解文を理解できないことが想定されるため、TS システムがどのような編集操作を適用したかを説明することは重要である。従って、そのような説明を可能にする評価手法が必要である。 TS システムが適用した編集操作を説明する評価方法は分析的評価と呼ばれる [10]。これも人手評価の一つではあるが、一連の編集操作の適用前後の文 図 1: 最小編集操作列の生成例 対に対して単一のスコアを与えるような人手評価とは異なる。山口らの手法 [10] では、図 1 に示すように、難解文と平易文の対を最小編集操作列に分解し、各編集操作を平易化方略体系に基づいて分類する。平易化方略体系は、語や句といった文法的な単位に対する形式的な操作である表層的方略と、平易化の観点からの意味・内容の変更操作である内容的方略からなる。例えば、図 1 の “Scientists $\Rightarrow$ Researchers”の編集は、\{表層的方略:語置換, 内容的方略:上位語への言い換え\}に分類される。 分析的評価における編集操作の分類は TS タスクに依存する。しかし、TS 事例を説明する最小編集操作列の自動生成の手法は、TS に限らず、機械翻訳の前編集や後編集、文章要約、文法誤り訂正などの分析にも利用できる可能性がある。そこで我々は、分析的評価の自動化に向けて、他のタスクにも利用できる可能性のある最小編集操作列の自動生成に取り組んでいる。本稿では、このタスクの詳細な説明と我々のアプローチについて報告する。 ## 2 問題の定式化 所与の文対 $\left(X_{a}, X_{b}\right)$ に対し、次の条件を満たす編集操作列 $\mathbf{E}=\left(E_{1}, \ldots, E_{n}\right)$ を $\left(X_{a}, X_{b}\right)$ に対する最小編集操作列と呼ぶ。 $ X_{i}=E_{i}\left(X_{i-1}\right) \quad \text { s.t.d }\left(X_{i-1}, X_{i}\right)=1 $ ただし、 $X_{0}=X_{a} 、 X_{n}=X_{b}$ である。 $X_{i}$ は文法的な適切性を保つ文である。 $E_{i}$ は引数の入力文 $X_{i-1}$ のある箇所を別の表現に編集する関数であり、返り値の文 $X_{i}$ を $X_{i-1}$ に対する編集適用文と呼ぶ。 $d(A, B)$ は $A$ から $B$ を生成するために必要な最小編集操作の回数を返す関数である。なお、最小編集操作とは、書き換え後の文法的な適切性を保ちつつ、これ以上分解できない編集操作とする [11]。本稿でも、この操作的な定義を踏襲し、最小性に関する概念的・言語学的定義は与えないが、原則として、文字単位の置換・追加・削除ではなく、文法的な単位での編集操作とする。 最小編集操作列の自動生成タスクでは、難解文と平易文の対を入力として、最小編集操作列を出力する。形式的には、難解文と平易文の対 $\left(X_{\text {comp }}, X_{\text {simp }}\right.$ ) が与えられたとき、以下で表される最小編集操作列解を 1 つ生成するタスクとする。 $ \begin{gathered} \hat{\mathbf{E}}=\arg \min _{\mathbf{E} \in \mathbb{E}} \text { length }(\mathbf{E}) \\ \text { where } \mathbb{E}=\left.\{\mathbf{E} \mid X_{\text {comp }}=E_{n}\left(\ldots E_{1}\left(X_{\text {simp }}\right)\right)\right.\} \end{gathered} $ length は系列の長さを返す関数である。すなわち、 $X_{\text {comp }}$ から $X_{\text {simp }}$ への最小編集操作列のうち、編集とその逆の編集のようなループを含むて長な系列を避け、長さが最小のものを生成する。 このタスクに取り組む上で特に考慮すべき点として、以下の 3 つが挙げられる。なお、これ以降、最小編集操作を “ $\mathrm{A} \Rightarrow \mathrm{B}$ ” と表し、 2 つ以上の最小編集操作の含まれた編集操作を “ $\mathrm{A} \Rightarrow *$ * B”と表す。 I . 編集操作の依存関係編集操作には依存関係、 すなわち編集操作列の順序における優先性が存在する場合がある。例えば、“tell me the truth $\Rightarrow *$ * state the truth"は "tell me the truth $\Rightarrow$ tell the truth" と "tell the truth $\Rightarrow$ state the truth” で構成され、後者は前者に依存する。このような依存関係がある場合、一方の編集操作を生成しなければ他方は生成できない。 II. 編集対象箇所の入れ子編集対象箇所が重複し、入れ子になる場合がある。図 1 の “Scientists who study the brain $\Rightarrow^{*}$ Brain researchers" は "Scientists $\Rightarrow$ Researchers" $と$ "Researchers who study the brain $\Rightarrow$ Brain researchers” で構成され、編集対象箇所が入れ子になる。編集対象箇所の入れ子は I の特徴に似ているが、複数の順序が存在しうる点が異なる ${ }^{1)}$ 。 III. 表層上に現れない編集最小編集操作が $X_{\text {comp }}$ と $X_{\text {simp }}$ の表層上に現れない語によって構成 1)例に挙げた編集操作は “Scientists who study the brain $\Rightarrow$ Brain scientists”と “scientists $\Rightarrow$ researchers"でも実現できる。 図 2: 最小編集操作列の生成手法 される場合がある。例えば、“start using $\Rightarrow *$ * do” は "start using $\Rightarrow$ start doing" と “start doing $\Rightarrow$ do" から構成され、“doing”は表層上に現れない。 ## 3 最小編集操作列の生成手法 ## 3.1 考えられるアプローチ このタスクに対するアプローチとして、アライメント手法と生成的手法の 2 つが考えられる。 アライメント手法アライメント結果に基づいて、組み合わせ最適化問題として解くことができる。例えば、“multiple solutions $\Rightarrow$ * several ways" は “multiple $\Rightarrow$ several" と “solutions $\Rightarrow$ ways" で構成できるということをアライメント結果の組み合わせで解けば良い。この方法は、アライメント結果さえ正しければ、確実に編集操作を生成することができる。 しかし、先述した 3 つの特徴を持つ編集が存在する場合、解くことができない。図 1 のように最小編集操作の生成とアライメントを繰り返し行うことで I と II の特徴を持つ編集操作を生成することはできるが、原理的にIIIの特徴を持つ編集操作を生成することはできない。 生成的手法 TS システムで反復改良法 [12] を用いて、難解文を少しずつ平易文に近づけることも考えられる。この方法は、原理的には全ての編集操作を生成することができる。しかし、TS システムが生成する文が入力文に対して最小編集操作を適用したものであることは保証できない。 原文と目標文の 2 文の間を補完する文を生成するテキストモーフィングというタスクが存在する [13] が、最小編集操作の制約は考慮されていない。 ## 3.2 提案手法 本稿では、アライメント手法と生成的手法を組み合わせた手法を提案する。具体的には、図 2 の 4 つの機構で最小編集操作を逐次的に生成する。アライメント手法(図 2: (1)~(3))を主に用い、生成的手法 (図 2: (4) でアライメント手法を補う。以下、各機構について説明する。 (1)フレーズアライナー 難解文と平易文の対を入力し、フレーズアライメントを出力する。ここで、得られたアライメントを編集操作候補とする。編集操作としては文法的な単位での操作のみを認める (2 節)ため、アライメントは文法的な単位に則った出力をする必要がある。 (2)適切性フィルタ編集操作候補の集合を入力し、編集操作として適切な編集操作候補のみを出力する。ここで、適切な編集操作とは、適用した時に文法的な適切性が保たれる編集操作である。適切である確率 $P_{a p p}$ が間値よりも高い候補を適切とする。 (3)最小性フィルタ編集操作の集合を入力し、最小である確率 $P_{\min }$ の高い上位 $M$ 個の編集操作を出力する。 (4)最小編集操作生成器 2) 編集操作を $I$ 個入力し $(I \leq M)$ 、最小編集操作を $O$ 個生成する $(O \leq I)$ 。最小編集操作生成器では、アライメントで原理的に生成できない編集操作を生成できる可能性がある。 ## 4 提案手法の実装 ## 4.1 各機構の実装の詳細 (1)フレーズアライナー Enju $^{3}$ の)出力に基づいて文法的な単位でのアライメントを出力する Arase and Tsujii [14] ${ }^{4}$ の手法を利用する。 (2)適切性フィルタ BERT [15] 5) 微調整し、実装する。適切性フィルタでは、編集操作候補を独立に処理し、条件を満たす編集操作のみを出力する。図 3 に適切性フィルタの構成を示す。この構成は、難解文と平易文の差分と対象フレーズの差分を比較すれば、編集操作の適切性を判定できるという直感に基づいている6)。適切性フィルタに 2)検討段階のため以降の節では扱わない。 3) https://github.com/mynlp/enju 4) https://github.com/yukiar/phrase_alignment_cted 5) https://huggingface.co/bert-base-cased 6)いくつかの構成を試し、検証データで最も性能の良い構成を選択した。 図 3: 適切性フィルタの構成 図 4: 最小性フィルタの構成 は難解文と平易文、難解文と平易文の編集箇所を表す対象フレーズを入力する。文埋め込みとして文頭の CLS トークンに対して BERT が出力するベクトルを使用する。フレーズ埋め込み $\mathbf{p}$ としては、対象フレーズの文中の位置を表す 2 值べクト儿系列 $\mathbf{m}\left(=\left(m_{1}, . ., m_{L}\right), m_{i} \in\{0,1\}\right)$ を用い、対象フレーズに含まれるトークンの埋め込み $\mathbf{h}$ の平均 $\mathbf{p}=\frac{1}{\sum_{i=1}^{L} m_{i}} \sum_{i=1}^{L} m_{i} \mathbf{h}_{i}$ を用いる。そして、難解文と平易文の文埋め込みの差分とフレーズ埋め込みの差分を直結し、全結合層に入力する。 (3)最小性フィルタ図 4 に最小性フィルタの構成を示す。最小性の判断をするためには、難解文と平易文の関係、難解文と編集適用文の関係が重要である6) 。最小性フィルタには、難解文と平易文を SEP トークンで結合した文と、難解文と編集適用文を SEP トークンで結合した文、難解文と平易文の編集箇所のフレーズ埋め込みを入力する。フレーズ埋め込みは適切性フィルタと同じ方法で獲得する。これら全ての埋め込みを直結し、全結合層に入力する。 ## 4.2 フィルタの訓練と評価 各フィルタの訓練、および評価のデータは次の手順で作成した。まず Newsela $^{7}$ ) の Popular カテゴリの 3 文書から難解文と平易文の対 297 件を抽出し、 Arase and Tsujii [14] の手法を用いてフレーズアライメントを行って編集操作候補を抽出した。次に各編集操作候補に対して、第 1 著者が適切性を判定し、適切と判断されたもののみについて最小性を判定し  表 1: 各フィルタに使用したデータの分布 (a) 適切性フィルタ 表 2: 各フィルタの評価結果 (a) 適切性フィルタ (b) 最小性フィルタ た。このようにして得られたデータの分布を表 1 に示す8)。 評価の際には、適切性フィルタ、および最小性フィルタの閾値は 0.50 とした。両フィルタの評価結果を表 2 に示す。結果から、両フィルタは分類器としてはある程度機能していると考える。 ## 5 最小編集操作列の生成実験 3〜4節で述べた機構で、最小編集操作列の生成がどの程度できるかを検証した。 ## 5.1 実験設定 図 2 の(1)〜(3)の機構のみを用いて行った。最小編集操作を 1 つ生成し、適切性と最小性を都度、人手で確認した。正しい最小編集操作が生成できた場合は、繰り返し同じ処理を行った。繰り返し処理は、正しい最小編集操作が生成できなかった場合、あるいは編集適用文と平易文が一致したときに終了した。適切性フィルタの閾値は 0.50 とした。最小性フィルタは最も $P_{\min }$ の高い編集操作を 1 つのみ出力し $(M=1) 、$ ビーム探索は行わないこととした。評価データは、Newsela の Popular カテゴリから新たに 7 文書を収集して作成した。まず TER [16] が 0.5 以下の難解文と平易文の対を 0.1 刻みに 10 文対ずつ合計 50 文対抽出した。そして、各文対に対して第 1 著者が最小編集操作列を与えた。これらの $\mathrm{TS}$ 事例は最大 4 回の編集操作が適用されていた。 ## 5.2 結果 50 文対中 22 文対において、最小編集操作列の生成に成功した。表 3 に編集数ごとに正しい最小編集操作列を生成できた割合を示す9)。編集数が 3 以上 8)訓練時のハイパーパラメータ等については付録 $\mathrm{A} を$ 参照されたい。 9)編集数・編集距離と成功率の関係については付録 Bを参照されたい。表 3: 編集数ごとの成功率 表 4: エラーの原因とその件数 の事例では、ほとんど成功していない10)。 ## 5.3 エラー分析 表 4 にエラーの原因とその件数を示す11)。フレー ズアライナーの出力に最小編集操作が含まれていない場合は、フレーズアライナーが原因のエラーとする。フレーズアライナーのエラーに対しては、それらを補う前処理や後処理を行う必要がある。適切性フィルタが原因のエラーは全体の半分以上を占めている。 16 件のうち 9 件は $P_{\min }$ の上位 5 つの中に最小編集操作が含まれていた。従って、ビーム探索によって適切性フィルタのエラーを補うことができると期待できる。最小性フィルタが原因のエラーのほとんどは訓練データ内に存在しない編集操作であった。最小性フィルタの訓練事例は 994 件と少ないため、データの拡張によって性能を改善できる可能性もある。 ## 6 おわりに 本稿では、最小編集操作列の生成という新しい夕スクについて述べた。そして、我々はこのタスクを 4 つの機構で行うことを提案した。一部を実装して行った半自動的な実験の結果、50 文対中 22 文対に対する最小編集操作列の生成に成功した。 今後はビーム探索の実装やデータの拡張などの改良を加えていく。また今後の展望として、以下が挙げられる。 ・最小編集操作生成器の作成 ・TS システムの出力への適用 - 編集操作の分類器の作成 ・TS システム自体の説明可能性の向上 $ を参照されたい。 11)これらのエラーのほとんどが 1 つ目の最小編集操作の生成時に発生した。 } ## 謝辞 本研究は JSPS 科研費(課題番号:19H05660)お よび KDDI 財団調査研究助成 (課題名:平易な文化財情報を執筆・翻訳する技術)の支援を受けた。 ## 参考文献 [1] Fernando Alva-Manchego, Carolina Scarton, and Lucia Specia. Data-driven sentence simplification: Survey and benchmark. Computational Linguistics, Vol. 46, No. 1, pp. 135-187, 2020. [2] Advaith Siddharthan, Ani Nenkova, and Kathleen McKeown. Syntactic simplification for improving content selection in multidocument summarization. In Proceedings of the 20th International Conference on Computational Linguistics (COLING), pp. 896-902, 2004. [3] Sanja Štajner and Maja Popovic. Can text simplification help machine translation? In Proceedings of the 19th Annual Conference of the European Association for Machine Translation (EAMT), pp. 230-242, 2016. [4] Wei Xu, Courtney Napoles, Ellie Pavlick, Quanze Chen, and Chris Callison-Burch. Optimizing statistical machine translation for text simplification. Transactions of the Association for Computational Linguistics (TACL), Vol. 4, pp. 401-415, 2016. [5] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. BLEU: A method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 311-318, 2002. [6] J. Peter Kincaid, Robert P. Fishburne Jr, Richard L. Rogers, and Brad S. Chissom. Derivation of new readability formulas (Automated Readability Index, Fog Count and Flesch Reading Ease Formula) for Navy enlisted personnel. Technical report, Institute for Simulation and Training, University of Central Florida, 1975. [7] Sanja Štajner and Sergiu Nisioi. A detailed evaluation of neural sequence-to-sequence models for in-domain and cross-domain text simplification. In Proceedings of the 11th International Conference on Language Resources and Evaluation (LREC), pp. 3026-3033, 2018. [8] Elior Sulem, Omri Abend, and Ari Rappoport. Simple and effective text simplification using semantic and neural methods. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 162-173, 2018. [9] Suha S. Al-Thanyyan and Aqil M. Azmi. Automated text simplification: A survey. ACM Computing Surveys, Vol. 54, No. 2, pp. 1-36, 2021. [10] 山口大地, 島田紗裕華, 宮田玲, 佐藤理史. テキスト平易化システムの分析的評価のための平易化方略体系の構築. 言語処理学会第 28 回年次大会発表論文集 (NLP), pp. 506-510, 2022. [11] Rei Miyata and Atsushi Fujita. Understanding pre-editing for blackbox neural machine translation. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics (EACL), pp. 1539-1550, 2021. [12] Jared Lichtarge, Chris Alberti, Shankar Kumar, Noam Shazeer, Niki Parmar, and Simon Tong. Corpora generation for grammatical error correction. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers) (NAACL-HLT), pp. 3291-3301, 2019. [13] Shaohan Huang, Yu Wu, Furu Wei, and Ming Zhou. Text morphing. CoRR, Vol. abs/1810.00341, pp. 1-12, 2018. [14] Yuki Arase and Jun'ichi Tsujii. Compositional phrase alignment and beyond. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Em- pirical Methods in Natural Language Processing (EMNLP), pp. 1611-1623, 2020. [15] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers) (NAACL-HLT), pp. 4171-4186, 2019. [16] Matthew Snover, Bonnie Dorr, Rich Schwartz, Linnea Micciulla, and John Makhoul. A study of translation edit rate with targeted human annotation. In Proceedings of the 7th Conference of the Association for Machine Translation in the Americas: Technical Papers (AMTA), pp. 223-231, 2006. ## A 各フィルタの訓練詳細 各フィルタのハイパーパラメータを表 5 に示す。訓練時には、BERT のパラメータも更新した。 表 5: 各フィルタのハイパーパラメータ (a) 適切性フィルタ (b) 最小性フィルタ ## B 編集数・編集距離と成功率の関係 表 6 に編集数・編集距離と成功率の関係を示す12)。編集距離は TER の計算時に導出されるものを使用した。編集距離が大きくなるにつれて、成功率は下がっていた。しかし、編集数が 1 の事例は編集距離にかかわらず半分以上成功していた。 表 6: 編集数・編集距離と成功率 ## C システム出力 表 7 に最小編集操作列の生成に成功した事例を示す13)。生成した編集操作に該当する部分を同じ色で示している (e.g., “Scientists $\Rightarrow$ researchers”)。提案した構成で入れ子構造に対しても、最小編集操作列を生成できていた。表 8 に最小編集操作列の生成に失敗した事例を示す。 ## 表 7: 最小編集操作の生成に成功した事例 } \\ 12)編集数は常に編集距離以下になるため、編集数が編集距離より大きい欄は空白にしている。 13)表 7、表 8 中の難解文と平易文の例は https://newsela.com/read/lib-mindset-matters/id/39794/より引用した。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C5-3.pdf
# 柔らかいジャンプ付き編集距離に向けて 亀井遼平 1 横井祥 ${ }^{1,2}$ 仲村祐希 1 渡辺太郎 ${ }^{3}$ 乾健太郎 1,2 1 東北大学 2 理化学研究所 3 奈良先端科学技術大学院大学 \{ryohei.kamei.s4, yuki.nakamura.r1\}@dc.tohoku.ac.jp, \{yokoi, kentaro.inui\}@tohoku.ac.jp, taro@is.naist.jp ## 概要 本論文では翻訳システムに対する自動評価指標として新たな指標を提案する。これは単語レベルの編集距離をジャンプ操作の追加と単語埋め込みによる置換コストの緩和によって拡張したものである.前者は語順の入れ替えを,後者は文中の単語の類似度をそれぞれ考慮しており,これらを組み合わせることで質の高い自動評価指標を作れると考えた. 実験は WMT19 Metrics Shared Taskを用いて行い,上記の拡張が自動評価指標と人手評価の相関向上に寄与することを確認した。 ## 1 はじめに 優れた機械翻訳システムを開発するには質の高い自動評価指標が必要であり [1], 以前から BLEU [2] や chrF [3] などが頻繁に用いられてきた. 自動評価指標の質を高めるための一つの方針は, 語順の考慮である $[1,4,5]$. また,別の方針として単語埋め込みの利用がある [6,7]. CDER (Cover Disjoint Error Rate)[8] や EED(Extended Edit Distance)[9]などのジャンプ付き編集距離は語順の入れ替えを考慮する点で妥当だと考えられる. 我々は語順の考慮と単語埋め込みの利用を両立するべく, ジャンプ付き編集距離の置換コストを単語埋め込みを用いて緩和した WCDER(Word embedding based CDER)を提案する. 問題設定本論文中の自動評価指標は式 (1)のように単語数がそれぞれ $n, n^{\prime}$ の翻訳文 (c) と参照文 (r)を入力として,その類似度を計算して翻訳文の良し悪しを測定する。 $ c=\left[c_{1}, c_{2}, \cdots, c_{n}\right], \quad r=\left[r_{1}, r_{2}, \cdots, r_{n^{\prime}}\right] $ ## 2 編集距離に基づく自動評価指標 この節では提案手法の基礎となる, 編集距離 (Edit Distance, ED)[10] とそれに基づく自動評価指標の先行研究を説明する.なお,本論文における編集距離は文字レベルではなく単語レベルの編集距離を意味する. 編集距離は, 2 つの単語列を入力とし, 置換,削除,挿入の操作によって片方の単語列をもう一方の単語列に変換するのに必要な手順の最小コストとして定義され,通常各操作のコストは 1 である. 編集距離は単語列ペアの非類似度を表す。つまり值が大きいほどぺアの類似度は低いことを表す。編集距離の操作コストの総和を表す配列を $D^{|c| \times|r|}$ とすると,(2) 式で計算することができる. $ D(i, j)=\min \left.\{\begin{array}{l} D(i-1, j-1)+\left(1-\delta\left(c_{i}, r_{j}\right)\right) \\ D(i-1, j)+1 \\ D(i, j-1)+1 \end{array}\right. $ ただし, $D(1,1)$ は 0 であり, $\delta\left(w_{i}, w_{j}\right)$ は 2 単語 $w_{i}$, $w_{j}$ が同じ場合は 1 を返し, それ以外の場合は 0 を返す. なお,最終的に得られる $D(|c|,|r|)$ が編集距離を表す. 編集距離の計算と同時に,配列 $T^{|c| \times|r|}$ にどの操作により配列 $D$ が更新されたのかを保存しておくことによって, $T(|c|,|r|)$ からバックワードすることでアラインメントを獲得できる. ## 2.1 ジャンプ付き編集距離: CDER CDER は編集距離をジャンプ操作の追加によって拡張したもので,再帰式 (3) で表される。ただし $D(1,1)$ は 0 である. $ D(i, j)=\min \left.\{\begin{array}{l} D(i-1, j-1)+\left(1-\delta\left(c_{i}, r_{j}\right)\right) \\ D(i-1, j)+1 \\ D(i, j-1)+1 \\ \min _{i^{\prime}} D\left(i^{\prime}, j\right)+1 \end{array}\right. $ ここで, $D(i, j)$ を計算するにあたって,各 $j$ について以下の 3 ステップの計算が必要となる. 1. それぞれの $i$ で, 式 (3)の上 3 項の最小項を求める 2. $\min _{i^{\prime}} D\left(i^{\prime}, j\right)$ を求める 図 1 WCDER のアラインメント行列. 縦軸,横軸はそれぞれ参照文と翻訳文. 実行された編集操作のコストが高い場合は薄い色で,低い場合は濃い色で表されている。 3. それぞれの $i$ で,式 (3)を求める ## 2.2 単語埋め込みに基づく編集距離: WED WED(Word Embedding based Edit Distance) [11] は編集距離を,単語埋め込みを用いた操作コストの緩和によって拡張したものである. 先行研究 [11] では全ての編集操作のコストを 1 から緩和しているが,本論文では置換コストのみを緩和しており,再帰式 (4) で表される。ただし $D(1,1)$ は 0 である. subcost は置換コストを表し,置換したい 2 単語の埋め込みのコサイン類似度が 0.5 以下の単語はほぼ類似性のない単語としてコスト 1 , 同単語はコスト 0 とし,その間を連続的にとるよう式 (5) で定義した。 $ D(i, j)=\min \left.\{\begin{array}{l} D(i-1, j-1)+\operatorname{subcost}\left(c_{i}, r_{j}\right) \\ D(i-1, j)+1, \\ D(i, j-1)+1 \end{array}\right. $ $\operatorname{subcost}\left(c_{i}, r_{j}\right)=\frac{(1-0.5)-\max \left(0, \operatorname{sim}\left(c_{i}, r_{j}\right)-0.5\right)}{1-0.5}$ ここで, $\operatorname{sim}\left(w_{i}, w_{j}\right)$ は 2 つ単語 $w_{i}, w_{j}$ の埋め込み $\boldsymbol{w}_{\boldsymbol{i}}, \boldsymbol{w}_{\boldsymbol{j}}$ のコサイン類似度を表し,式 (6) で定義される。 $ \operatorname{sim}\left(w_{i}, w_{j}\right)= \begin{cases}\cos \left(w_{i}, w_{j}\right) & \left(\boldsymbol{w}_{\boldsymbol{i}} \& \boldsymbol{w}_{\boldsymbol{j}} \text { exist }\right) \\ 0 & (\text { else })\end{cases} $ ## 3 提案手法: WCDER 本論文では,2.1,2.2 節で述べた拡張を組み合わせた WCDER を提案する. ジャンプ操作の追加は語順の入れ替えに対応し, 単語埋め込みによる置換コストの緩和は文中の単語の類似度を考慮する。 よって,これらの拡張を組み合わせることでより質の高い自動評価指標を作れると考えた.再帰式は表 1 実験で用いた自動評価指標と各指標が考慮する項目 式 (7) で表される. ただし, $D(1,1)$ は 0 で,2.1 節の CDER 同様各 $j$ について 3 ステップの計算が必要になる. $ D(i, j)=\min \left.\{\begin{array}{l} D(i-1, j-1)+\operatorname{subcost}\left(c_{i}, r_{j}\right) \\ D(i-1, j)+1, \\ D(i, j-1)+1, \\ \min _{i^{\prime}} D\left(i^{\prime}, j\right)+1 \end{array}\right. $ WCDER の実行の様子を図 1 に示した. 縦軸,横軸に並んだ単語列はそれぞれ参照文と翻訳文を表す. 置換は斜め,插入は下,削除は右方向に対応づけられ,アラインメントが飛んでいる部分でジャンプが生じている.色が濃い部分は実行された操作のコストが低く,薄い部分はコストが高いことを表す. 図 1 よりこの例文のアラインメントはジャンプ 3 回,置換 8 回,挿入 1 回でとられることが分かる. ## 4 実験 ## 4.1 実験設定 語順と単語類似度の考慮が自動評価指標と人手評価の相関向上に寄与するかを確かめるため,表 1 に示した自動評価指標を用意して実験を行った. データセット WMT19 Metrics Shared Task ${ }^{1)}$ のテストセット(人手評価で Better と評価された翻訳文,Worse と評価された翻訳文,参照文の 3 文が与えられる)を用いた。 評価尺度 Kendall の $\tau^{2)}$ の順位相関係数 [12] を用いた. 単語埋め込み本論文全体で,単語埋め込みについては glove.840B.300d³)を用いた. ベースライン手法 Bag of Words のコサイン類似度(BoW)とベクトル和のコサイン類似度(Vec Sum)を用いた.  表 2 WMT19 Newstest19 における,DARR で測定したセグメントレベルの人間との順位相関. Kendall の $\tau$ の順位相関係数を使用している。言語対として,ドイツ語 (de), フィンランド語 $(\mathrm{fi})$, グジャラート語 $(\mathrm{gu})$, カザフ語 $(\mathrm{kk})$, リトアニア語(1t),ロシア語(ru),中国語(zh)をそれぞれ英語(en)に翻訳したものを用いた。 图 2 単語埋め込みによる置換コスト緩和が効果的だった例. 縦軸が参照文で横軸が翻訳文. 人手評価で良い翻訳文だったものが Better,悪かったものが Worse とラベル付けされている. BoW は形式的に式 (8) のように定義される. $ \operatorname{BoW}(c, r)=\cos \left(\sum_{i=1}^{|V|} t_{i} \boldsymbol{e}^{(i)}, \sum_{j=1}^{|V|} t_{j}^{\prime} \boldsymbol{e}^{(j)}\right) $ ここで, $\cos$ 引数は文べクトルを表し, $V$ は参照文と翻訳文に含まれる全単語の集合, $t_{i}$ は $V$ 中の $i$ 番目の単語が $c$ 中で現れた回数, $t_{j}^{\prime}$ は $V$ 中の $j$ 番目の単語が $r$ 中で現れた回数, $\boldsymbol{e}^{(i)}$ は $i$ 番目の値だけが 1 になっている長さ $|V|$ の one-hot ベクトルである. Vec Sum は形式的に式 (9) のように定義される. $ \operatorname{vec} \operatorname{sum}(c, r)=\cos \left(\frac{\sum_{i=1}^{|c|} \boldsymbol{c}_{\boldsymbol{i}}}{|c|}, \frac{\sum_{j=1}^{|r|} \boldsymbol{r}_{j}}{|r|}\right) $ ここで, $\cos$ の引数は文べクトルを表し, $\boldsymbol{c}_{\boldsymbol{i}}, \boldsymbol{r}_{\boldsymbol{j}}$ はそれぞれ $c_{i}, r_{j}$ の単語埋め込みを表す. 前処理前処理として,入力された文を単語ごとに分割し小文字化した. また,ジャンプ付き編集距離の先行研究 $[8,9]$ に基づき文頭に空白を追加した. 操作コスト挿入,削除,ジャンプのコストは全て1とした. 置換コストは単語埋め込みを用いない場合には 1 とし, 用いる場合には式 (5)で求めた. 正規化ジャンプがある指標については先行研究 [9] に記載のある式 (10) で,それ以外の指標では参照文の長さで割ることで正規化した。 $ \text { Score }=\frac{(\text { sum of all costs })+v}{\mid \text { reference } \mid+v} $ ここで, $v$ はペナルティ項で,翻訳文中の単語それぞれの|アライン回数 $-1 \mid$ の和を表しており,アライン回数が 0 回,あるいは 2 回以上となる単語の数に応じてぺナルティを課している. 先行研究 [9] ではvにハイパーパラメータ $\rho$ がかけられているが,他の手法との差分をなくすため本論文では省いた。 ## 4.2 結果 実験の結果を表 2 に示した. 編集距離に基づく指標 (ED, CDER, WED, WCDER) を見ると, ED と比べて,CDER および WEDの相関が上昇した。また, CDER および WED と比べて,WCDER の相関が上昇した. よって. ジャンプ操作の追加と単語埋め込みの利用のいずれの拡張も人手評価との相関向上に寄与したことが確認できた. また,Vec Sum と比べて WCDER の大幅な相関向上は見られなかった. ## 4.3 議論 埋め込み利用の効果が出た例 de-en の 59504 文ペア目を CDER と WCDER で評価したものが図 2 で 図 3 ジャンプ操作の追加が効果的だった文ぺア例. 縦軸が参照文で横軸が翻訳文. 人手評価で良い翻訳文だったものが Better,悪かったものが Worse とラベル付けされている. 図 4 WCDER のジャンプコストを $0.5,1,2,3,4$ として WMT18 Newstest18を用いて 4 節同様の実験をした結果のプロット.横軸は言語対を,縦軸は順位相関を表す。 ある. CDER では 2 つの翻訳文のスコアが同じだった.しかし,WCDER では “rescuers”と“rescue”が対応づけられた結果 Better の文のスコアが良くなった. よって,単語埋め込みの利用により,単語の表層だけでなく意味を汲みとって評価したことが分かる。 ジャンプ操作追加の効果が出た例同様に, de-en の 75584 文ペア目をWED と WCDER で評価したものが図 3 である. WED では Worse のスコアの方が良くなっていた。しかし, WCDER ではジャンプが生じて翻訳文の後半と参照文の前半で対応づけが起こった. それらの類似度が考慮された結果 Better の文のスコアが良くなった. よって,ジャンプにより語順の入れ替えに対応して評価したことが分かる。 ジャンプコストジャンプコストは「意味が似た単語のかたまりがどれくらい大きければジャンプが ジャンプコストが大きい場合,意味が似た単語のかたまりが大きいときに限りジャンプが生じる. 反対にジャンプコストが小さい場合,意味が似た単語のかたまりが小さいときであってもジャンプが生じる. 図 4 は WMT18 Newstest18 データセットを用い て,ジャンプコストを変更しながら 4 節同様の実験をした結果である。図 4 より,ジャンプコストが大きくなるにつれ WCDER の評価と人手評価の相関が下がっていることが分かる. 相関低下の要因として,他の操作コストに比べて不当に大きなジャンプコストが語順が考慮を妨げている可能性が考えられる.したがって,人手評価と高い相関を持つ評価を行うためには,ジャンプコストとその他の操作コストとの間の適切なバランスが重要になると考えられる。また,4節の実験で用いたべクトル和のコサイン類似度という指標は語順を考慮しない。この指標は,WCDER のジャンプコストを極端に小さくした指標とも捉えられる。表 2 より,ベクトル和のコサイン類似度と WCDER の結果はほとんど変わらなかった。そのため,削除や挿入のコストを 1 とした本論文の実験設定は,ジャンプコストとのバランスという観点で適切ではない可能性が示唆される. 今後の方向性削除,挿入コストとジャンプコストとの適切なバランスを探りたいと考えている. さらに,そのバランスを保ちつつ削除,挿入コストも単語埋め込みを用いて緩和することで,提案手法をより良い指標へと発展させていきたい. ## 5 結論 本論文では編集距離をジャンプ操作と単語埋め込みによる置換コストの緩和で拡張した WCDER を提案した. WCDER は語順と単語類似度の考慮を両立した翻訳システムの自動評価指標である。この両立により人手評価との相関が上昇したことに加え,解釈性の高いアラインメント情報が得られる。これは機械翻訳システム開発に有用だと考えられる。提案手法の改善の余地は大きいと思われるため,今後も調査を継続していきたい. ## 謝辞 本研究は JSPS 科研費 JP22H05106,JST ACT-X JPMJAX200S,JST CREST JPMJCR20D2 の助成を受けたものです.また,本研究を進めるにあたり,頻繁に議論に参加していただいた東北大学乾・坂口・徳久研究室, 東北大学鈴木研究室の皆様へ感謝いたします. ## 参考文献 [1] Tsutomu Hirao, Hideki Isozaki, Katsuhito Sudoh, Kevin Duh, Hajime Tsukada, and Masaaki Nagata. Evaluating translation quality with word order correlations. Journal of Natural Language Processing, Vol. 21, No. 3, pp. 421-444, 2014. [2] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, 2002. [3] Maja Popović. chrF: character n-gram F-score for automatic MT evaluation. In Proceedings of the Tenth Workshop on Statistical Machine Translation, pp. 392-395, Lisbon, Portugal, September 2015. [4] Hiroshi Echizen-ya and Kenji Araki. Automatic evaluation of machine translation based on recursive acquisition of an intuitive common parts continuum. In Proceedings of Machine Translation Summit XI: Papers, Copenhagen, Denmark, September 10-14 2007. [5] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 74-81, Barcelona, Spain, July 2004. [6] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert, 2019. [7] Wei Zhao, Maxime Peyrard, Fei Liu, Yang Gao, Christian M. Meyer, and Steffen Eger. MoverScore: Text generation evaluating with contextualized embeddings and earth mover distance. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 563-578, November 2019. [8] Gregor Leusch, Nicola Ueffing, and Hermann Ney. CDER: Efficient MT evaluation using block movements. In 11th Conference of the European Chapter of the Association for Computational Linguistics, pp. 241-248, Trento, Italy, April 2006. [9] Peter Stanchev, Weiyue Wang, and Hermann Ney. EED: Extended edit distance measure for machine translation. In Proceedings of the Fourth Conference on Machine Translation (Volume 2: Shared Task Papers, Day 1), pp. 514-520, August 2019. [10] Vladimir I Levenshtein, et al. Binary codes capable of correcting deletions, insertions, and reversals. In Soviet physics doklady, Vol. 10, pp. 707-710. Soviet Union, 1966. [11] Yilin Niu, Chao Qiao, Hang Li, and Minlie Huang. Word Embedding based Edit Distance. arXiv e-prints, p. arXiv:1810.10752, October 2018. [12] Qingsong Ma, Johnny Wei, Ondřej Bojar, and Yvette Graham. Results of the WMT19 metrics shared task: Segmentlevel and strong MT systems pose big challenges. In Proceedings of the Fourth Conference on Machine Translation (Volume 2: Shared Task Papers, Day 1), pp. 62-90, Florence, Italy, August 2019. ## A Kendall $\boldsymbol{\tau \tau$ の詳細} WMT19 Metrics Shared Task では,自動評価指標の評価を行うにあたって,Kendall の $\tau$ の順位相関を計算している。このタスクでは,「ある入力文に対して2つの機械翻訳システムが出力した翻訳文」,「2つの翻訳文のうちどちらが Better か Worse か人手評価したラベル」,「参照文」が与えられる. 自動評価指標によって2つの翻訳文と参照文の類似度をそれぞれ算出し,2つの翻訳文のうちどちらの翻訳文が Better か Worse かを評価する。そして,2つの翻訳文に対する人手評価と自動評価指標による評価が一致していれば Concordant ( $C o n c$ ),不一致であれば Discordant(Disc)となる.こうして全ての文ぺアについて Conc かDisc かを求めた後, それらの個数を用いて式 (11)より $\tau$ を計算する. $ \tau=\frac{\mid \text { Conc }|-| \text { Disc } \mid}{\mid \text { Conc }|+| \text { Disc } \mid} $
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C5-4.pdf
# 疑似データを用いた GPT-2 による日本語文章の多段階平易化 郷原聖士 ${ }^{1}$ 綱川隆司 ${ }^{1}$ 西田昌史 ${ }^{1}$ 西村雅史 ${ }^{1}$ 1 静岡大学情報学部 } gobara.seiji.21@shizuoka.ac.jp, \{tuna, nishida, nisimura\}@inf.shizuoka.ac.jp ## 概要 現在,我々は常纪新しい情報を取捨選択する情報社会で暮らしているが,それらの情報の内,多くはある程度習熟した成人が対象の文書である。したがって,まだ文書を理解するための知識が不足している子供や留学生などの非母語話者にとって,それらの情報を理解して生活に役立てるのは難しいという問題がある。そこで我々は,一般向けの文書を利用者の日本語理解度に応じて適切な難易度の情報に変換するための日本語の機械学習モデルを疑似デー タによって作成した. 自動評価実験において, 目標とする難易度沈じて平易化文に難易度差を付与できていることが評価指標から示唆されたが,人手評価実験においては有意な結果は得られなかった。 ## 1 はじめに テキスト平易化は,難解な文章から同一の意味を保持しつつも平易な文章へと変換させる, 自然言語処理におけるテキスト生成タスクの一つである. 関連研究には, English Wikipedia と Simple English Wikipedia のパラレルコーパス (EW-SEW) を用いた統計的機械翻訳による手法 [1][2] やニューラル機械翻訳による手法 [3][4]がある。 統計的機械翻訳による手法は,分割,削除,並び替兄,置換を総合的にカバーする一方で,EW-SEW のような大規模のパラレルコーパスが必要であり, そのような資源のない言語以外にそのまま適用出来ない.ニューラル機械翻訳氾よる手法は,統計的機械翻訳と同様に EW-SEW のような大規模の平易化用データセットを用いて難解な文と平易な文のぺアを学習することで系列変換を行う注意機構を組み込んだシステムを構築し,高精度の平易化を実現した. また,近年では平易化用の大規模データセットが存在しない言語を対象に,疑似的な平易化用デー タセットを構築することで平易化を実現する手法 [5] が提案されているが,いずれも平易化後の文章 の難易度は考慮されていないという課題がある。 日本語においては,中町ら [6] が事前学習済み系列変換モデルにやさしい日本語対訳コーパス [7][8] を用いて平易化を実現している。最近では,コーパスベースの手法 [3][6] が多く,ターゲットの難易度は学習データに依存している。一方で平易化のター ゲット文は多様であり,ユーザーに合わせて難易度を調節できた方が望ましい。 英語の平易化の研究におけるターゲット文の難易度には,EW-SEW をべースにした難解文から平易文へと変換を行う二段階の平易化が用いられてきたが,Xu ら [9] は,文章の複雑さを測定して,生徒の読解力を評価するために広く用いられている Lexile $^{1)}$ の下で 11 段階の難易度付きパラレルコーパス Newsela を構築した. Newsela を用いて難易度うベルを入力文の文頭に付与した上で学習することで,生成するテキストの多段階な難易度制御を実現する手法 [10],その手法をべースに目標の難易度に適した単語を出力するため,単語の分散表現を拡張した素性の利用や,ハード・ソフトな語彙制約を課す手法 [11], 語彙レベルや文長などの文章中の特徴量に着目して生成文を制御する手法 [12] がある. 上記のように,英文の多段階平易化に関する研究は盛んだが,和文を対象とする多段階平易化に関する研究は少ない. この背景には, 日本語の多段階平易化のためには Newsela のような難易度付き大規模データセットが新たに必要だが,構築には莫大なコストがかかるという問題がある。 そこで本研究では,言語資源の少ない日本語の平易化用のデータセットを補うために,やさしい日本語対訳コーパスを用いてファインチューニングした GPT-2 ベースの平易化モデルと,BERT(Bidirectional Encoder Representations from Transformers) ベースで作成した難易度推定器を組み合わせることで疑似的な難易度付きパラレルコーパスを構築した. その後, Alessio ら [5] や Eriguchi ら [13] と同様にして, 1) https://lexile.com 図 1 多段階平易化用疑似データセットの作成 任意の X-Y 方向の多言語機械翻訳を任意の X-Y 方向の多段階平易化と見なし, GPT- 2 モデルに疑似デー タセットでファインチューニングした 5 つのモデルを組み合わせて多段階平易化システムを構築した。 ## 2 手法 ## 2.1 難易度推定器 郷原ら [14] と同様に, 東北大学乾研究室が公開している日本語の大規模モデル BERT2)をべースにファインチューニングして難易度推定器を作成した.なお,文単位の難易度推定を実施するにあたっ $\tau$, 先行研究 [10][11] と同様に, 文の難易度はその文が含まれる文書の難易度と同一のものであるという仮定の下で正解データの作成を行った。 ## 2.2 疑似データセット構築 疑似データセットを構築する手段を図 1 亿記述する. (i) やさしい日本語対訳コーパス [7][8] に含まれている日本語の平易化文対を用いて rinna 社の公開している事前学習済み日本語 GPT-2 モデル3)をファインチューニングし, 平易化モデルを構築する. (ii)rinna 社の事前学習済み日本語 GPT-2 モデル 4 ) において,日本語辞書が持つ語彙の内,日本語であり文頭に適切と思われる文字や語彙から始まるトークンをプロンプトに入力し, 100 文字を上限に文を生成する. (iii) (ii) で生成した各文を (i) で構築したモデルに入力し,疑似的な平易化文対を得る。(iv) 2.1 節で述べた手法で難易度推定器を構築する。(v) (iii) の平易化文対に対して,(iv) で作成した難易度推定器によって文の難易度を疑似的に付与する。 2) https://github.com/cl-tohoku/bert-japanese 3) https://huggingface.co/rinna/japanese-gpt2-medium 4) https://huggingface.co/rinna/japanese-gpt-1b ここで,(iii)での平易化は一段階のため,同じ文に対して複数回平易化を適用しても,明確な差異のある平易化文対を得るのは難しい.そこでランダムに生成された文に対する平易化文を十分な規模で収集し, 同じ難易度帯に変換する文対毎にデータセットを構築することで,段階的な平易化を実現する。 ## 2.3 疑似データセットのフィルタリング 2.2 節で作成したデータセットにおいて,平易化前後で文の難易度が変化しない文対や同義性が保たれないノイズとなるような文対が存在していた。 そこでノイズとなる文対を除去するために,データセットの中から難易度が変化する文対のみを抽出する. さらに同義性を一定レベルで担保するために, 3.3 節で後述する BERTScore を計算した. 生成した平易化文全体の内,BERTScore が上位 $50 \%$ の文対はある程度の同義性を保っている一方,上位 50\%-75\% の文対は同義性が保たれている文対とやや意味が異なっている文対が含まれていた. また, BERTScore が下位 $25 \%$ の文対に関しては,多くが意味の異なる文対になっていた。ここで,Newsela[9] などを用いた先行研究 [10][11][12] では, 各難易度に対して数万文対のデータセットを用いていたため, 本研究でも同程度の文対を確保するために,生成文と BERTScore のバランスを鑑みて,BERTScore が上位 75\%の文対を抽出した. なお,BERTScore が上位 $75 \%$ の文対を抽出するための閾値は 0.710 であった. ## 3 実験設定 ## 3.1 データセット 難易度推定器作成にあたって,データセットには現代日本語書き言葉均衡コーパス (BCCWJ)[15] に含 まれている日本語教科書コーパス及び図書館サブコーパスの文書中から無作為に文を抽出し, 訓練,開発,評価データをそれぞれ 236,773 件,28,921 件, 29,381 件に分割した. なお,正解値は,日本語教科書コーパスの対象学年である小学校低学年, 中学年,高学年,中学校,高校及び図書館サブコーパス中の「やや専門的な一般向き」に相当する一般の 6 段階に設定した. 疑似データセットの作成にあたって,rinna 社の公開している GPT-2 モデルにおいて, max_length と min_length は 100 に設定し, top_k=500, top_p $=0.95$ にした上で文章生成を行った. なお, 文章生成は日本語辞書に登録されている単語から,絵文字などの文頭に付与する単語には不適切であると考えられる単語をノイズとして除去した上でサンプリング抽出した 1 単語をプロンプトに与え, 続く単語列を推測させる形で行った. その後, 生成した文章から句点区切りで文を抽出し, 平易化する前の文とした.平易化前後の文の一部には, 文法的に正しくても意味的には不自然な文が存在していたが,本研究では,語彙的換言や複雑な文構造の簡単化などを段階的に行うことが目的であるため, 正常な文として許容した. 上記生成文を 100 万文,200万文ずつ作成し, 難易度推定器の推定值に差がある文対のみをそれぞれ抽出した (以下,本設定を model-100 及び model-200 と呼ぶ. 以降も同様にする).また,開発データにおいて性能がより高かった model-200 の学習データに対して,BERTScore によるフィルタリングを行ったモデルも作成した (model-200-bert). ここで,得られた難易度差のある文対の訓練デー タは model-100, model-200, model-200-bert それぞれ 337,413 件,674,699 件,487,980 件であり,開発デー タ及び評価データは 1,000 件とした. ## 3.2 モデル rinna 社の公開している GPT-2 モデルを,3.1 で作成した多段階平易化のための疑似データセットを用いてファインチューニングを行った. なお,モデルは huggingface のライブラリ5)を用いて実装を行った.また,本研究では,想定する難易度を 6 段階 (0-5) に設定したため, 最高難易度 (5) からそれ以下の 5 段階の難易度 (0-4)への平易化モデルを構築した.  ## 3.3 評価指標 実装したモデルが段階的に文の難易度を易しく変換出来ているかを評価するために,2つの自動評価指標と人手評価を用いた。 自動評価のための評価指標には, BERTScore[16]及び平均推定難易度を用いた. BERTScore は,翻訳や文書生成のタスクにおいてしばしば用いられる指標であり,BERT を用いて文書と参照文の類似性を評価することが出来る. 平均推定難易度は, 文の難易度を制御して平易化する場面において用いられる指標であり [11], 英語においては, FKGL[17] や平均 PMI(Pointwise Mutual Information) が用いられている.一方で, 本研究では日本語を対象であり, 人手で作成された多段階平易化のための評価用データセットはほとんど存在せず,単に英語と同様の手法を用いても言語の不一致によって正しく性能を図ることは困難である. そこで本研究では,文単位の難易度推定器を作成し, 難易度推定器の推定した平均難易度值を評価指標に用いた。ここで,作成した難易度推定器の妥当性を検証するため,既存の日本語用の文章難易度システム (JReadability.net ${ }^{6)}$ ,帯 [18])を用いて評価データからサンプリングした 200 文の推定難易度を求め, BERT ベースの難易度推定器の推定値との相関係数を求めた。 人手評価では,先行研究 [10][11]を元にして,各難易度に相当する文及び各段階に相当する流暢性や同義性の破綻具合を表す文を示した上で,文の同義性 (synonymity) ・平易化前後の難解性 (difficulty_o, difficulty_s)・流暢性 (fluency) の 4 項目の評価をクラウドワーカーに委託した。 なお,各項目は難易度推定器の段階に合わせて 0 から 5 までの 6 段階 (5 が最良)に設定し,作成した平易化モデル毎に 30 問ずつ評価用データセットから無作為に抽出し, 各段階で異なる 100 文ずつの回答が得られるようにして平均難易度を求めた. ここで,少しでも多くの文に対するアノテーションを行うべく 20 人のクラウドワーカーに依頼して,一文あたり少なくとも 6 回答が得られるようにそれぞれのワーカーに異なるデータセットを作成した. その後, 得られたデータセットの内,20人のワーカー間においてそれぞれ共通の回答が得られた文に対する順序尺度における重み付けの指標 QWK(Quadratic Weighted Kappa)を求めた. その後, 平均 QWK の中でも難解性につい 6) https://jreadability.net/ 表 1 難易度推定器の評価結果 pred-bert MAE Pearson Spearman Acc. F1 表 2 既存難易度推定システムとの相関 ては,0.039-0.372 程度と極めて低い数値であったため,ワーカー間の一致度を向上させるべく,各ワー カーにおける QWK の平均值が 0.16 以下であるワー カーのデータを除去した. また,アノテーションミスなどの実験不備のあるデータを除去することで,全 3,000 件のデータの内 2,249 件を人手評価の対象とした. ## 4 実験結果と考察 ## 4.1 難易度推定 表 1 及び表 2 に難易度推定器の評価実験結果を示す. 表 1 では,それぞれ平均絶対値誤差 (MAE), ピアソンの相関係数 (Pearson), スピアマンの相関係数 (Spearman), 正解率 (Acc.), F1-Score(F1) を示しており,郷原ら [14] の文章単位の評価結果とも遜色ない数值であることが分かる.また,表 2 では,それぞれ正解値 (level), 提案手法の推定值 (pred-bert), Jreadability.net $の$ 出力值 (jread-score), 帯の出力值 (pred-B9, pred-T13)を示している. pred-bert と level 及び帯の出力值との相関関係は高く, 推定された難易度が妥当であることを示唆していると考えられる。 ## 4.2 平易化の自動評価 表 3 に平均推定難易度による平易化モデルの評価結果を示す. 表中の mean は平均推定難易度, BScore は平易化前後の文の BERTScore の値の平均値を示す. 表 3 において,0を除いた各目標難易度の上昇に合わせて平均推定難易度の数値が上昇しているため,疑似的なデータセットの作成によって段階的な平易化が実現出来たと考えられる.ここで,目標難易度 0 に変換する平易化文対は他と比べて著しく少なかったため,データ不足の影響を受けたと推測される.表 3 平易化モデルの平均推定難易度による評価結果 model-100 model-200 model-200-bert 目標難易度 mean BScore mean BScore mean BScore $\begin{array}{llllll}3.490 & 0.749 & 3.395 & 0.753 & 3.564 & 0.762\end{array}$ $\begin{array}{lllllll}3.648 & 0.752 & 3.632 & 0.758 & 3.711 & 0.773\end{array}$ 表 4 model-200-bert の人手評価の平均値による評価結果目標難易度 synonymity difficulty_o difficulty_s fluency ## 4.3 平易化の人手評価 表 4 に人手評価による評価結果を示す. 表 4 では,各目標難易度による difficulty_s (平易化文の難解性) に有意な差が見られなかった.ここで,評価実験には生成文を元にした平易化文を用いており,意味的,文法的に不自然な文が含まれている. したがって,単語単位では平易化が実現出来ていても,文単位では意味が破綻している文を許容している.加えて,本タスクにおける同義性・難解性・流暢性評価は,各段階に相応の例文を提示しているものの明確な判断基準を与えていないため,人手ではやや難易度が高く, QWK の値も低いことからラベリング結果の個人差が大きいことが示唆される. 人手評価上では段階的な平易化を十分に確認出来なかったと考えられる。 ## 5 おわりに 本研究では,多段階平易化のための言語資源が不足している日本語において,既存のデータセットをベースに疑似的な多段階平易化のためのデータセットを作成することで,多段階平易化モデルの構築を行った. その結果, 自動評価の平均難易度推定値によって生成文が段階的に平易化出来ることを示した. 一方で,人手評価に不備があり,かつ生成した平易化文は疑似データセットの影響を受けて,無理な変換や文法的な破綻をしてしまうという課題がある. そこで今後は,人手評価の再実施に加えて,同義性の担保や流暢な多段階平易化を実現するために,多段階平易化のための質の良い半自動データセットの作成を行いたいと考えている. ## 参考文献 [1] Zhemin Zhu, Delphine Bernhard, and Iryna Gurevych. A monolingual tree-based translation model for sentence simplification. In Proceedings of the 23rd International Conference on Computational Linguistics, 2010. [2] Wei Xu, Courtney Napoles, Ellie Pavlick, Quanze Chen, and Chris Callison-Burch. Optimizing statistical machine translation for text simplification. Transactions of the Association for Computational Linguistics, Vol. 4, pp. 401-415, 2016. [3] Sergiu Nisioi, Sanja Štajner, Simone Paolo Ponzetto, and Liviu P. Dinu. Exploring neural text simplification models. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), 2017. [4] Sanqiang Zhao, Rui Meng, Daqing He, Andi Saptono, and Bambang Parmanto. Integrating transformer and paraphrase rules for sentence simplification. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, 2018. [5] Alessio Palmero Aprosio, Sara Tonelli, Marco Turchi, Matteo Negri, and A Di Gangi Mattia. Neural text simplification in low-resource conditions using weak supervision. In Workshop on Methods for Optimizing and Evaluating Neural Language Generation (NeuralGen), 2019. [6] 中町礼文, 梶原智之. 事前学習済み系列変換モデルに基づくやさしい日本語への平易化. 情報処理学会第 83 回全国大会, 2021. [7] Takumi Maruyama and Kazuhide Yamamoto. Simplified corpus with core vocabulary. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), 2018. [8] Akihiro Katsuta and Kazuhide Yamamoto. Crowdsourced corpus of sentence simplification with core vocabulary. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), 2018 [9] Wei Xu, Chris Callison-Burch, and Courtney Napoles. Problems in current text simplification research: New data can help. Transactions of the Association for Computational Linguistics, Vol. 3, pp. 283-297, 2015. [10] Carolina Scarton and Lucia Specia. Learning simplifications for specific target audiences. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), 2018. [11] 西原大貴, 梶原智之, 荒瀬由紀. テキスト平易化における語彙制約に基づく難易度制御. 自然言語処理, Vol. 27, No. 2, pp. 189-210, 2020. [12] Louis Martin, Éric de la Clergerie, Benoît Sagot, and Antoine Bordes. Controllable sentence simplification. In Proceedings of the Twelfth Language Resources and Evaluation Conference, 2020. [13] Akiko Eriguchi, Shufang Xie, Tao Qin, and Hany Hassan. Building multilingual machine translation systems that serve arbitrary XY translations. In Proceedings of the 2022 Conference of the North American Chap- ter of the Association for Computational Linguistics: Human Language Technologies, 2022. [14]郷原聖士, 綱川隆司, 西田昌史, 西村雅史. BERT による日本語文章の難易度推定. 第 21 回情報科学技術フォーラム, 2022. [15] 言語資源開発センター. 現代日本語書き言葉均衡コーパス (BCCWJ). 国立国語研究所, 2014. [16] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert. In International Conference on Learning Representations, 2020. [17] J Peter Kincaid, Robert P Fishburne Jr, Richard L Rogers, and Brad S Chissom. Derivation of new readability formulas (automated readability index, fog count and flesch reading ease formula) for navy enlisted personnel. Technical report, Naval Technical Training Command Millington TN Research Branch, 1975. [18]佐藤理史. 均衡コーパスを規範とするテキスト難易度測定. 情報処理学会論文誌, Vol. 52, No. 4, pp. 1777-1789, 2011 ## A 付録 ## A. 1 平易化文の生成例 平易化文の生成例を表 5 に示す. 表 5 において,目標難易度 4 では元の文から「業務」,「妨げ」,「慎んで」がそれぞれ平易な単語に変換されている. また,目標難易度 3 では,元の文の「雑談」,目標難易度 2 及び 1 では, 目標難易度 3,4 において「妨げ」 を変換した「邪魔」から「進め方に関係があります」 というように,さらに平易な語彙に変換していることが分かる. ## A. 2 疑似データセットの詳細な内訳 表 6 疑似データセットの目標難易度別内訳 表 6 に作成した疑似データセットの目標難易度別内訳を示す. 表中の orig は生成文のデータ数, simp は平易化文のデータ数を表している. 表 6 において, 特に難易度 0 への変換を行う文対が少ないが,これは元となったやさしい日本語対訳コーパス [7][8] での文対中で平易化文が目標難易度 0 になる言い換えが少ないことが原因であると考えられる.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C5-5.pdf
# 事実検証モデルのための ## ラウンドトリップ翻訳を利用した疑似フェイクデータ生成 \author{ 小林龍斗秋葉友良 \\ 豊橋技術科学大学情報・知能工学課程 \\ kobayashi.ryuto.jz@tut.jp akiba@cs.tut.ac.jp } ## 概要 フェイクニュースの拡散は,誰もが情報を共有できるソーシャルメディアが普及している昨今において重大な問題となっている。この問題に取り組むため, NTCIR プロジェクトにおける議会議事録を対象とした評価タスク QA Lab-Poliinfo-3 ${ }^{1}$ では, Fact Verification タスクが実施された。しかし我々は,同タスクで提供された学習データを使用して構築した分類器では, 人手で作成されたフェイクデータを上手く検出できないことを実験により確認した. 本研究では,この一つの要因であるフェイク学習データの不足に着目し,Round-Trip 翻訳を利用した疑似フエイクデータ拡張手法を提案する.評価実験により,提案手法で自動生成されたフェイクデータを学習に利用することで,人手フェイクデータに対する検出精度を向上させられることを確認した。 ## 1 はじめに 近年,フェイクニュースやデマの拡散が社会問題になっている、ソーシャルメディア等を通じて拡散された真偽不明の情報は人々に誤解を与え,混乱を招く恐れがある。このような問題に取り組むため, NTCIR-16 QA Lab-Poliinfo-3では, Fact Verification タスクが実施された. Fact Verification タスクでは,与えられた討論の要約が実際に議会で話し合われている内容と即しているかどうかを検証するモデルの精度が競われた.ここで我藤ら[1] は, パッセージ検索と含意関係認識モデルを組み合わせた手法を提案し,参加チーム中トップの成績を達成した。 しかし我々は,我藤らのモデルが人手で作成された巧妙なフェイクデータを上手く検出できないことを実験によって確認した. 本研究では, この一つの要因と考えられるフェイクの学習データの不足に着目し,ラウンドトリップ翻訳を利用した疑似フェイクデータ生成手法を提案する.実験の結果,提案手法で生成した疑似フェイクデータをモデルの学習に利用することで,人手フェイクデータの検出精度を向上させられることが確認できた。 ## 2 関連研究 事実検証の方法には様々な手法が提案されている。我藤ら[1]は,主張文中の語句をクエリとして情報源から要約に関連する文を検索し,主張文と検索文との間に含意関係が成立するかどうかを判定することで,フェイクの検出を試みた。含意関係とは,ある主張 A が成立するとき,ある主張 B もまた成立する関係を示し,このとき主張 A は主張 B を含意していると言う,我藤らは,主張文が正しければ,それを含意する検索文との間に含意関係が成立すると仮定し,含意関係が成立するかどうかを判定するモデルを事前学習言語モデル BERT[2]を利用して構築した. 本研究は我藤らの研究に基づいている. また,Jawahar ら[3]は知識べースを利用した事実検証方法を提案した。知識ベースとは,知識をコンピュータで扱えるよう形式化した特殊なデータベー スを指し, Jawahar らの研究では, 単語と単語が関係で接続された三連結のデータを集めた YAGO[4]を利用している. Jawahar らは知識べースに含まれる知識を基に有向グラフを構築し,それをグラフ畳み込みニューラルネットワークで符号化することで,事実検証モデルに知識ベースを組み込んだ。また,ここではエンティティ操作によるフェイクデータ生成手法も提案されている. 通常のエンティティ操作は, エンティティを無作為に置き換えることで達成されるが,ここではテキスト生成モデル GPT-2[5]を利用  した手法が提案されており, 置き換え元の語と関連性の高い語を予測して置換することで, 検出難易度の高いフェイクを作成している. ## 3 提案手法 提案手法では,正しい主張文に特定の操作を自動的に加えることにより,フェイクデータを作成する. ## 3.1 文の操作 提案手法では, 主張文に対して以下の操作を加えることによって, フェイクデータの生成を試みる. - 否定の指 ・削除 「A は B が好きだ」ー「A は B が好きでない」 - 対義語への変換 「A は B が好きだ」 $\rightarrow 「 A$ は B が嫌いだ」 - 主語一目的語の交換 「A B が好きだ」 $\rightarrow$ 「Bは A が好きだ」 ## 3.2 Direct Manipulation 一つ目の手法として, 主張文に対して何らかの操作を直接的に加える Direct Manipulation (以降, DM) を提案する. 操作の模様を図 1 に示す. 尚, DM では 3.1 節に示した 3 つの操作の内, 否定の挿入・削除のみを実装する。 この手法は単純であるが,主張文を強引に書き換えることで不自然な文が生成される恐れがある. 図 1 Direct Manipulation ## 3.3 Round-Trip Manipulation DM に対して, 主張文を直接操作するのではなく, Round-Trip 翻訳を介して文を操作する手法を提案する. 本稿では, Round-Trip Manipulation (以降, RTM) と呼ぶ. 操作の模様を図 2 に示す. 尚, RTM では 3.1 節に示した 3 つの操作を全て実装する. RTM では, はじめに日本語で与えられる主張文を英語などの言語に翻訳し,機械翻訳によって得られた英語の翻訳文に対して何らかの操作を加え,それを再び翻訳することによって日本語のフェイクデー タを生成する。翻訳機を介することにより,違和感のある文章の改変が緩和され,自然な文章が得られることを期待している。 ## 4 評価実験 提案手法の有効性を検証するため, 以下の評価実験を行う。 ## 4.1 データセット 本実験では,昨年開催された NTCIR-16 QA LabPoliInfo-3 Fact Verification タスクにて配布された Formal Run の学習データ, テストデータを使用してデータセットを作成する. 配布データのフォーマットを表 1 に示す. データ数は 1,433 件あり, 本実験ではここから Utterance Type が回答, Document Entailment が True のデータ 411 件を抽出して利用する. さらに,テストデータ作成に 60 件のデータを確保し, 残りの 351 件を学習データ作成に利用する。 表 1 配布データのフォーマット 図 2 Round-Trip Manipulation ## 4.1.1 テストデータ テストデータは人手で作成する. 我々は, 4 名の被験者の協力で人手フェイクデータを収集した。作成にはテストデータ作成用に確保した 60 件のデー 夕を用い, 要約文を何らかの形で書き換えることでフェイクデータを作成するよう被験者らに依頼した。結果, 60 件の True データに対して 60 件の人手作成 False データを収集することができた. テストデータの例を付録の表に添付する. テストデータは人手作成フェイクデータ 60 件, その参考となったテストデータ作成用のデータ 60 件を合わせた 120 件とする. ## 4.1.2 学習データ 学習データは提案手法によって自動的に作成する.作成には学習データ作成用に確保した 351 件のデー タを利用する。 $\mathrm{DM}$ では,否定の挿入・削除操作(NEG)によってフェイクデータを生成する。実装には形態素解析ツール MeCab²を利用し, 解析された動詞と活用の種類に応じて否定の挿入・削除を行う. RTM では,否定の挿入・削除(NEG), 対義語への変換(ANT), 主語一目的語の交換操作(SOE) によってフェイクデータを生成する.実装には自然言語処理ツール Stanza 3 利用し, 翻訳機には DeepL $\mathrm{API}^{4}$ を利用する。また,単純な Round-Trip 翻訳によって True の擬似データも同時に作成する.これは, フェイクデータのみを拡張することによる偏りを抑えることを目的としている. 以上の手法によって作成されたデータ例と件数を付録の表 4 に添付する. ## 4.2 実験ベースライン 本実験のベースラインとなるモデルを先行研究 [1]に従って構築する. 先行研究のモデルはパッセー ジ検索と事前学習言語モデルを利用した含意関係認識によって構築されている. パッセージ検索では,文書ランク付け手法である BM25+[5]を利用する. クエリ $Q$ に対する文書 $D$ の BM25+スコアは次の計算式で表現される. パラメー 夕はそれぞれ $k_{1}=1.2, b=0.75, \sigma=1.0$ とする.  $ \begin{aligned} & \sum_{i=1}^{n} \operatorname{IDF}\left(q_{i}\right) \cdot\left[\frac{f\left(q_{i}, D\right) \cdot\left(k_{1}+1\right)}{f\left(q_{i}, D\right)+k_{1} \cdot\left(1-b+b \cdot \frac{|D|}{a v g d l}\right)}+\delta\right] \\ & I D F\left(q_{i}\right)=\log \frac{N}{n\left(q_{i}\right)} \end{aligned} $ 含意関係認識モデルには, 東北大学の乾研究室が公開している BERT-base ${ }^{5}$ モ゙ルを利用する.このモデルに対して NTCIR-16 QA Lab-PoliInfo-3 Fact Verification タスクにて配布された Formal Run の学習データ 1023 件を利用し, 含意関係認識モデルのファインチューニングを行う. 先行研究のモデルの模式図を付録の図 3 に添付する。 実験ベースラインには,上記ベースラインモデル (以降,Baseline)に加え, 120 件のテストデータで交差検証を行ったモデル(以降, Supervised)を設定する. テストデータ数が 120 件と少ないため, 交差検証では, テストデータとして 1 件を残し, 残り 119 件を学習データとして学習と推論を 120 回繰り返す leave-one-out 法を採用する. ## 4.3 評価指標 評価指標はテストデータ 120 件に対する分類精度である Accuracy, フェイク検出の Precision, Recall, F1 とする。 ## 4.4 実験方法 実験では, 4.2 節に従って作成される実験ベースラインモデルに対して, 提案手法で自動生成された学習データを再学習させることで,テストデータ 120 件に対する分類精度が向上するかどうかを確かめる. ## 4.5 実験結果 次頁の表 2 に実験結果を示す. ## 4.5.1 ベースラインとの比較 Baseline の Recall を見ると, ベースラインのモデルが人手で作成されたフェイクデータを殆ど見分けられていないことが分かる.これに対し, 他の殆どのモデルでは Recall が向上しており, 適切な学習デ ータを利用することは人手作成フェイクデータの判定に効果的だと言える。また,人手作成データを再 ^{4}$ https://www.deepl.com/pro-api?cta=header-pro-api 5 https://huggingface.co/cl-tohoku } 表 2 評価実験の結果 学習に用いた Supervised モデルと提案手法を採用したモデルでは,提案手法を採用したモデルの方が高い精度で分類することができた. Supervised モデルに再学習させられたフェイクデータは 60 件と数が少なかったのに対し, 提案手法のモデルではデータ拡張によってフェイクデータを 300 件前後学習させることができた.この結果から,擬似データであっても,多量のデータを自動生成することは効果的だと言える. ## 4.5.2 提案手法の比較 二つの提案手法 RTM, DM を比較すると, 擬似フェイクデータの作成手法としては Round-Trip 翻訳を利用した方が効果的だと言える。DM であまり精度が出なかった要因として, 操作前と操作後の文の表現が殆ど変わらないことから, 再学習の段階でモデルを混乱させているためだと考察する. ## 4.5.1 学習データの比較 RTM を利用したモデルの中では, F1 の観点において, ORG/NEG と ORG+RTT/NEG+ANT を学習させたモデルの精度が高かった。表全体を見ると, NEG, ANT を学習させたモデルの精度が高い傾向にあり, 逆に, SOE は今回のテストデータに対してはあまり効果が無かったことが読み取れる。これはテストデータに主語一目的語を交換することによって生成されたデータが殆どなかったためだと考えられる(表 3).これに対し, 否定の挿入・削除および対義語への変換を行ったフェイクは多く,これは NEG および ANT 学習させたモデルの精度が向上した一 つの原因と考えられる。また, ORG/NEG+ANT, ORG/NEG+SOE を学習させたモデルと,これにRTT を加えた ORG+RTT/NEG+ANT, ORG+RTT/NEG+ ANT を学習させたモデルを比較すると, RTTを加えたモデルの方が高い性能を達成した.この結果から, フェイクデータのみを増強するのではなく, True のデータも増強していく方が効果的だと考えられる。 ## 5 おわりに 本研究では, 先行研究 ${ }^{[2]}$ の事実検証モデルの問題点に着目し,それを解決するための擬似フェイクデ一タ拡張アプローチを提案した. 評価実験の結果,提案手法を利用して自動生成したフェイクデータをモデルの学習に利用することで,人手で作成されたフェイクデータに対する検出精度を大きく向上させることができた. 本研究では, 英語をピボット言語として日本語のデータを生成したが,提案手法は他言語のデータ拡張にも適用できる、 今後の課題として, 提案手法は True データが存在することを前提としているため, True データに依存しないフェイク作成手法も検討したい。 ## 謝辞 本研究の遂行に際して,4 名の被験者に協力いただいた. ## 参考文献 [1] 我藤勇樹, 秋葉友良, パッセージ検索と含意関係認識による議会議事録を対象としたファクトチェック,言語処理学会第 28 回年次大会発表論文集, 2022 年 3 月, pages 768-772, [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee et al., BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding, Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pages 4171-4186. [3] Ganesh Jawahar, Muhammad Abdul-Mageed, Laks V. S. Lakshmanan, Automatic Detection of Entity-Manipulated Text Using Factual Knowledge, Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics, May 2022, pages 86-93. [4] Thomas Pellissier Tanon, Gerhard Weikum, and Fabian M. Suchanek, YAGO 4: A reasonable knowledge base. In The Semantic Web, volume 12123 of Lecture Notes in Computer Science, May 2020, pages 583-596. [5] Yuanhua Lv, ChengXiang Zhai, Lower-bounding term frequency normalization, In Proceedings of CIKM'2011, pages 7-16. ## A 付録 表 4 データの作成件数と作成データの例 図 3 我藤らが提案した事実検証モデル
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C6-1.pdf
# 共創支援を目的とした技術文書からの技術一価値表現の抽出 内田 貫太 $^{1}$ 田口 亮 $^{1}$ ${ }^{1}$ 名古屋工業大学大学院 工学研究科 工学専攻 情報工学系プログラム k. uchida.514@stn.nitech. ac.jp taguchi.ryo@nitech.ac.jp ## 概要 技術の構造化ツールとしてVBridge というものがある.このツールは技術の理解や新しい価值の発想などに役立つことができるが,作成コストが高いという問題がある. そこで, 技術文書などから VBridge を自動生成することが望まれる. 本研究では,マルチタスク学習を適用させた汎用自然言語処理モデルを用いることで,論文から VBridge の要素を抽出することを目指した。また,その結果について考察を行い,検討すべき課題について整理する。 ## 1 はじめに 近年,激しく変動する国際情勢において,企業には大きな需要の変化に対応できる力が求められている.そこで,大きな変化に対応するためには企業内外での部門間の垣根を越えた連携が必要不可欠となってくる. しかしながら, 開発部門の人が社会的価值から着想を得るということや,マーケティング部門の人が技術に対して深い理解を得るということは難しい.この課題に対し, 部門間の橋渡しとなる思考ツールとして VBridge (バリュー・ブリッジ) が提案されている[1]. VBridge は技術価値を視覚化したもので, 下層の専門的な技術から, 上層の社会的価值への道のりが順を追って表現される。これを用いることで,技術とその価值を共有することができ,部門間連携の助けとなる. しかし, VBridge を作成するためには, VBridge に対しての深い知識や,技術に対する理解が必要となり, 誰でも容易に作成できるものではない. 本研究では, VBridge を作成するコストを削減するため, 論文などの技術文書から VBridge を自動生成することを目指す. 本稿ではその第一歩として,汎用自然言語処理モデルよる深層学習を用いて, VBridge の構成要素を抽出することを試みる. ## $2 \mathrm{VBr$ idge} ## 2. $1 \mathrm{VBr$ idge の概要} VBridge は技術が価値に結びつく過程を有向グラフとして表現したものである。下層から,なりたち (部品・機構),ふるまい(自立機能),はたらき (他律機能), 達成事項(品質要素), 個々のよろこび(要求項目), みちすじ(共創プロセス), ねがい(共創テーマ)の 7 階層に分かれており,各要素の因果関係が矢印で示されている. [1]では,エアコンや冷蔵庫で用いられる帯電微粒子水の技術をへアドライヤに応用した事例を用いて VBridge の利用方法を解説している. その VBridge を図 1 に示す. マーケティングや営業の担当者は, VBridge 上層にある社会的ニーズ(ねがい,みちすじ)や,「アレル物質から水素を抜き取る」や「ウイルスから水素を抜き取る」という,技術によって実現されている直接的な効果(達成事項)は知っていても,その効果が得られるメカニズムや技術の構成要素については知らない場合がある。そこで,技術開発の担当者が,技術の構成要素(なりたち)やその構成要素がどのように作用して現在の効果を生み出しているのか(ふるまい)を記述することにより,マーケティングや営業の担当者の理解を支援する. 一方で, 技術開発の担当者は, 自社技術が具体 図1 VBridge の例([1]より転載) 的にどのような社会的ニーズを満たしているのかを知ることができるようになる.さらに,中間にある 「はたらき」の層で,技術がもたら寸効果を対象に依存しない表現で記述することによって, 技術の可能性が広がり, 空気清浄機で使われていた技術を,冷蔵庫やへアドライヤに応用するという新たな発想が生まれやすくなるのではないかと論じている. ## 2. $2 \mathrm{VBridge$ 自動生成手法の検討} VBridge の作成を自動化するためには, VBridge を構成する矢印や各階層をより具体的に定義する必要がある. 本研究では, 構成要素間の因果関係に着目し,あることがらを任意の層に当てはめるとすると, そのことがらを達成・解決したときに,達成できることをその 1 つ上層に位置付けるものとする. 図 1 を例とすると,「対象物質の水素分子を足し引きする」ことが達成できれば,「アレル物質から水素を抜き取る」ことができるようになると理解できる. このように技術の構造を解釈していくと, 技術の全体像は「課題がある」,「課題を解決する」,「新しい課題が見える」のサイクルで論理が展開されていることが分かる. そうすることで, 自ずと課題や解決法は, 上段に行くほど広く一般的になっていき,下に行くほど狭く専門的になっていく.これは VBridge の本来の目的である「技術理解の橋渡し」 に相違ない. ただし,技術文書から構成要素を抽出して VBridge を作成するというアプローチでは問題が発生する場合がある. 例えば,ある技術文書の中で「異常データの収集は困難である」と「異常パターンを定義することは現実的ではない」という問題点が指摘され, その解決策として「正常データのみで学習する万法」が提案されているとする。この場合,一見して論理に齯龆はないと思われるが,実際はこの解決策でこれらの問題点が解決されるわけではなく,「異常データが必要不可欠である」というその技術文書では言及されていない別の問題点が解決されている.このように, 技術文書には論理の飛躍が含まれる場合があるため, 抽出手法のみでは完全な論理を表現するのは難しい。 従って, (1) 技術文書から VBridge 内に記述すべき構成要素を抽出し, (2) 各構成要素間の因果関係を推定, (3) 論理の飛躍を検出し補完することができれば, VBridge の自動生成が可能になると考えられる. そこで本稿ではまず(1)の構成要素抽出を目標とする. ## 3 VBridge 構成要素の自動抽出 ## 3. 1 アプローチ VBridge は容易に作成できるものではないため, データセットを大量に用意して学習させることでの精度向上は難しい,そこで,汎用自然言語モデルのファインチューニングというアプローチを採用する。 また, 本研究では最終的に 2.2 節で説明した (1) (3)のタスクを実行することを想定している. 深層学習では,各タスクを実行するモジュールを個別に最適化するよりも,マルチタスクとして同時最適化する方が,効率よく学習できる場合がある. そこで本稿では, 汎用言語モデルをマルチタスク学習によりファインチューニングすることにより, VBridge 構成要素の自動抽出を行う。 ## 3.2 汎用自然言語処理モデル 汎用自然言語モデルとして有名なのは BERT[2]である. BERTは, Transformer というアーキテクチャを採用しており,このアーキテクチヤは文章全体の依存関係を学習できるが,文章全体のトークン数が増加すると, 計算量が $O\left(n^{2}\right)$ で増加してしまうという問題がある。つまり,技術文書の上うな長文に対して適用するのは難しい. そこで,長文の読解に適した言語モデルを使用することを考える. Dai らはこの問題を解決するため, Transformer-XL というアーキテクチャを提案している[3]. このアー キテクチヤは文章全体をセグメントに分割し, 前のセグメントの情報を次のセグメントに引き継ぐことで長文の解析に対応している. さらに, Yang らはこの Transformer-XL[3] のアー キテクチャを使用した XLNet と呼ばれる汎用自然言語モデルを提案している[4]. このモデルは BERT ではできなかった長文の解析ができることに加え,単語の順番をバラバラにして学習することで Masked LM における問題を解決している. 一方で,Liu らは単一タスクにおいて学習データが十分に得られない問題に対し, MT-DNN (MultiTask Deep Neural Network)というモデルを提案している[5]. このモデルは, BERT に対して複数のデー タセットでのマルチタスク学習を適用させることによって, BERT 単体のスコアを上回っている. 本研究では, ストックマーク株式会社が公開している日本語ビジネスニュース記事で事前学習を行った 表 1 構成要素のF1 スコア XLNet[6]を使用する.また,[5]を参考に XLNet をマルチタスク学習によりファインチューニングする. ## 3.3 系列ラベリングによる構成要素抽出 本稿では, VBridge の構成要素抽出を, 系列ラべリングタスクとして解く. 各要素の説明を次に列挙する. 達成価値 : その研究によって得られた価値 将来価値: その研究が将来的に達成したい目標 解決課題: その研究によって直接解決される課題将来課題: 将来的に解決したい課題 要素技術: その研究で用いられている要素技術これらの要素は技術を説明する上で重要であり, VBridge を作成する上で欠かせないものとなる。しかしながら,「地球温暖化を解決する手法」といったように価値(地球温暖化を解決), 課題(地球温暖化), 要素技術(地球温暖化を解決する手法)が重複する場合があるため, 各ラベルは重複可能とした.このような, 重複した系列ラベリングを行う方法として, 各ラベル独立に汎用言語モデルをファインチューニングする万法と, マルチタスク学習により汎用言語モデルをラベル間で共有する方法が考えられる.後述の実験では両者の性能を比較する。 ## 4 実験 ## 4. 1 実験条件 インターネット上で公開されている情報処理学会 深層学習に関する研究の概要 294 本を実験に用いる.前章で示した 5 つの要素をラベリングし, 学習デー 夕を 250 本, 評価データを 44 本としてデータセッ卜を作成した. 各ラベル独立にファインチューニングする場合と, マルチタスク学習によりファインチューニングする場合とを比較する. ## 4. 2 実験結果と考察 表 1 が実験による各タスクの単体学習とマルチタ スク学習の F1 スコアである. 要素技術と達成価値についてはマルチタスク学習の方が抽出精度が高く, そのほかのラベルについては, シングルタスク学習の方が高精度となった。 今回の実験では, どのラベルにおいても良い結果は得られなかったが, この要因の一つに, 予測結果に対する評価の手法が厳密すぎると考えられる。今回のデータセットにはアノテーションの摇らぎが生じている. 例えば, 「本研究では, 地球温暖化を解決する手法を提案する.」といった文章に達成価値をラベリングすると考える.このとき,この研究の価値は「地球温暖化を解決できる」ことであるが, そのことを文章でラベリングする際には「地球温暖化を解決」,「地球温暖化を解決主る」,「地球温暖化を解決する手法」などの複数の正解が存在してしまう. 予測にも同じパターンが生じ, 完全に一致しなければ評価が下がってしまうことになる。よって,ラベリングの意図を汲み取り,柔軟に対応できる評価手法が必要となる. また,マルチタスク学習による精度の向上が見られなかった原因として, 解決課題と将来課題のような似た傾向のあるラベリングタスクに対して,予測が難しくなったと考えている. 次に,実際の予測をもとにその傾向や課題について考える. 表 2 が実際の予測と正解ラベルを一部抜粋したものである. 各構成要素について以下のように考察する。 達成価値「高速化」や「軽減」,「向上」など,ポジティブな単語を予測する傾向が強く見られた.これは価値を表す単語を予測できていると考えられるが,その主語となる単語までを予測することができていなかったため, 文単位での予測が必要と考える。 将来価値「密集」や「生産」,「コンピュータ」 など,一般的な単語を予測する傾向が見られた。これは将来価値に含まれる単語の傾向とは一致するが,精度の向上のためには後の文脈から達成できていないことであることの推論が必要になると考える. 表 2 各タスクの予測と正解ラベルの抜粋 要素技術 ## predict …少数なデータを扱えるサポートベクター回帰を顔面領域皮膚温に適用し、… 解決課題他のラベルと比べてデータ数が少な く, 出現しない文章も多く見られたため, 予測が難しかったと考える。 将来課題「要する」や「増大」,「かかる」など,ネガティブな単語を予測する傾向が強く見られた. これは達成価値と同様に, 課題を表す単語を予測できていると考えられるが, その主語となる単語までを予測することができていなかったため, 文単位での予測が必要と考える. 要素技術「サポートベクター回帰」や「データベース」,「音声認識」など,専門的な単語を予測する傾向が見られた. これは要素技術に含まれる単語の傾向と一致しており, 名詞のみでのラベリングが多かったため,他のラベルに比べてスコアが高かったと考えられる。 以上から,実験結果としてスコアは低かったものの, 多くのラベルにおいて正解の傾向は見られており, 評価手法やラベリング手法を改善することで精度が向上すると考えられる. 具体的には以下の 3 つを今後の課題とする. ・ ラベリングタスクでアノテーションの摇らぎに対応できる評価およびラベリング手法の改善 ・より長い範囲で文を抽出する手法の検討 - 構成要素抽出以外の異なるタスクを用いたマルチタスク学習の実現 ## 5 おわりに 本研究では, VBridge の自動生成を目的として, その要素となるものを論文から抽出する手法を提案した. 提案手法では,少ない自作データセットを活用するため, マルチタスク学習を適用させた汎用自然言語処理モデルを用いた.実験では,高い精度の結果は得られなかったものの, その予測の傾向から改善の余地があることを示した。 ## 参考文献 [1] 加藤雄一郎. 2016. 長期展望に立ったコア技術戦略, JTEKT ENGINEERING JOURNAL No. 1014. [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova. 2019. BERT: Pretraining of Deep Bidirectional Transformers for Language Understanding, Pro-ceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume1 (Long and Short Papers), pp. 4171-4186. [3] Zihang Dai, Zhilin Yang, Yiming Yang, Jaime Carbone11, Quoc Le, and Ruslan Salakhutdinov. 2019. Transformer-XL: Attentive Language Models beyond a Fixed-Length Context. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 2978-2988, Florence, Italy. Association for Computational Linguistics. [4] Zhilin Yang, Zihang Dai, Yiming Yang, Jaime Carbone11, Ruslan Salakhutdinov, and Quoc V. Le. 2019. XLNet: Generalized Autoregressive Pretraining for Language Understanding. In NeurIPS 2019, pages 5754-5764. [5] Xiaodong Liu, Pengcheng He, Weizhu Chen, Jianfeng Gao. 2019. Multi-Task Deep Neural Networks for Natural Language Understanding, Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 4487-4496, Florence, Italy. Association for Computational Linguistics. [6] mkt3, 大規模日本語ビジネスニュースコー パスを学習した XLNet (MeCab+Sentencepiece 利用)モデルの紹介 https://qiita. com/mkt3/items/4d0ae36f 3f212aee 8002 [7]情報処理学会第 84 回全国大会講演論文集, https://www. ipsj.or. jp/event/taikai/8 4/ipsj_web2022/index. html
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C6-2.pdf
# 文法誤りにおける一般誤りの分離可能性と解説文生成への応用 永田亮 ${ }^{1}$ 木村学 ${ }^{2}$ 1 甲南大学知能情報学部 ${ }^{2}$ GRAS グループ株式会社 nagata-nlp2023 @ ml.hyogo-u.ac.jp. manabu.kimura@gras-group.co.jp ## 概要 本稿では,ある種の誤り(一般誤りと呼ぶ)とその他の誤りでは, 誤り検出器における検出規則の獲得過程が異なり,その性質により一般誤りのみを分離できるという新たな知見を報告する。また,その知見を利用して一般誤りの詳細なサブタイプを発見することについても述べる. 更に,発見したサブタイプを利用して,解説文生成を分類問題として解くことを提案する.このアプローチには,訓練データ作成コストと生成結果の信頼性という面で有利な点があることを示す. ## 1 はじめに 本稿では,一般誤りの分離可能性という仮説を導入し,その仮説を文法誤り解説に応用する手法を提案する. 仮説の概要は,一般誤りとその他の誤りでは,誤り検出器における検出規則の獲得過程が異なり,その性質を利用することで一般誤りのみを分離できるというものである.ここで,一般誤りとは,特定の内容語に依存しない規則で同定される文法誤りと定義する(便宜的に,その他の誤りを単語固有誤りと呼ぶ). 例えば, *In this café serves good coffee. は,規則「主語は前置詞を伴わない」で誤りと同定できるが,この規則はどのような主語や前置詞の組み合わせにも適用できる。一方,単語固有誤り (例: *They protested on the situation.) では, 特定単語 (この例では protest とon)により誤りと同定される.本稿では,上述の仮説を利用して,前置詞の用法に関する文法誤りについて,与えられた学習者コーパスから一般誤りのみを分離できることを示す(\$3).本仮説は,BERT ベースの誤り検出器の性能に関する報告 [1] に着想を得ている.同報告では,この検出器の性能曲線が図 1 の実線のようになることを示している。図 1 から,数百文の訓練データで性能が劇的に改善し, それ以降性能向上は緩やかになることがわかる。この理由を,我々は次のように予 図 1 誤り検出性能曲線と仮説的な説明. 想する. BERT ベースの検出器ではごく少量の訓練データから一般誤りの検出規則が獲得され,一方で,単語固有誤りについてはより多くの訓練データが必要となる。一般誤りの同定規則は汎用的であるため,異なる単語からなる複数の訓練事例から獲得可能である。特に,BERT のように文法知識を有するモデル $[1,2,3]$ では,一般誤りの検出規則の獲得が容易になる。そのため,一般誤りに関する性能曲線は図 1 の赤い曲線(破線)のような形になる。一方,単語固有誤りについては,特定の単語を含んだ訓練事例が必要となり,相対的に訓練事例が少ない. また,汎化がより難しい。結果,図10ように直線的に性能が改善する,結果として観測される性能曲線は,二種類の破線の重ね合わせとなる。 もしこの仮説が完全に成り立つのであれば, BERT ベースの検出器を少量のデータで訓練し, 誤り検出を行えば一般誤りのみが得られるはずである. 本稿では,このアイデアを拡張し一般誤りの事例を得る手法を提案する。また,獲得された一般誤りにクラスタリングを適用することで,詳細なサブタイプを効率よく発見できることも示す(§4).更に,得られたサブタイプにより解説文生成 [4] を分類問題として解くことが可能になることも示す (§5).これは,解説文生成における大きな二つの課題(1)訓練データが大量に必要となる,(2)フェイク解説文が生成されてしまう,の解決に繋がる. ## 2 関連研究 本稿の仮説は文献 [1] に着想を得ている. 同文献は,与えられた文中の各トークンの正誤を推定する 誤り検出を対象にして性能を調査している. 様々なコーパスに対して,エンコーダを BERT,出力層を softmax 層とした誤り検出器が, 図 1 のような性能曲線を示すと報告している.以降の実験では,八イパーパラメータの設定も含めて同じ検出器を用いる. 解説文生成 [4] も本研究に関係が深い. 解説文生成とは, 語学学習のための解説文章を生成するタスクである. Hanawa ら [5] は深層学習に基いた手法が同タスクに有効であることを示している. 同時に,深層学習ベースの生成は, 生成能力が非常に高いためフェイク解説文を生成してしまうことを指摘している.フェイク解説文とは,存在しない規則を説明する解説文のことである (例 : considerate は自動詞なので目的語の前に前置詞は必要ありません。1)). フェイク解説文は,誤った知識を獲得させてしまう可能性があるため極力避けるべきである. フェイク解説文を避ける有効な手段は, 解説文生成を分類問題として解くという方法である。すなわち, 文法誤りを詳細なサブタイプに分類し分類結果に紐づいた解説文を出力する。この方法であれば,事前に解説文を用意しておけるため,フェイク解説文が出力されることはない,問題は,生成タスクでは分類カテゴリが自明でないということである.たとえ分類カテゴリが与えられたとしても,誤りを詳細なカテゴリに人手で分類して訓練データを作成することは容易ではない. 本稿では, 仮説を利用してこれらの問題を効率よく解決することを試みる。 ## 3 一般誤りの分離可能性 ## 3.1 手法 ここでのタスクは,入力として与えられた学習者コーパスから,一般誤りのみを抽出するというものである. ただし, 入力コーパス中の誤り位置は与えられているとする。すなわち,誤り(もしくは訂正)情報が付与されたコーパスから一般誤りのみを抽出するという問題設定を考える. なお,2 節で述べたように, 以降では, 誤り検出器として文献 [1] の BERT ベースの検出器を用いる. 基本的な処理の流れは, 1 節の仮説に基づき,(1)入力コーパスを少量データに分割, (2)その少量デー タで誤り検出器を訓練, (3) 訓練済み検出器を残り  のコーパスに適用し,検出された事例を一般誤りとして出力, となる. この単純な方法では, 単語固有誤りが混入してしまう.なぜなら,少量の訓練コー パスでも,学習者やライティングトピックに共通してみられる単語固有誤りが,ある程度の頻度になり検出規則が獲得されてしまうからである. そこで,提案手法では,コーパスの多重分割とトピック交差訓練という二つの工夫を行う,以下,図 2 に基いて提案手法を説明する. ステップ (1) で,コーパスの多重分割を行う. 具体的には,入力コーパスから $N$ 文を $M$ セット抽出する.ただし, $N$ は小さな値とし,各セットに重複はないとする.残りは,一般誤り抽出用として,ステップ(3)で使用する。 ステップ(2)で,上述 $M$ セットを用いて誤り検出器の訓練を独立に行う.ここでは, 各トークンの正誤を推定する二値分類問題を解くことに注意が必要である。したがって, 新たに一般/単語固有誤りの情報をアノテーションする必要はない. 最終ステップ(3)で, $M$ 個の訓練済み検出器を残りのコーパスに適用して誤りを検出する。仮説に従い,Mのうち大部分 $\left(\theta_{M}\right.$ 個以上の検出器) で検出された誤りを一般誤りとして出力する. オプションとして, トピック交差訓練を行うことができる.ステップ (1) でコーパスの多重分割を行う際に,訓練用サブコーパスと一般誤り抽出用コー パスでライティングトピックが被らないように分割する. そうすることで,ライティングトピックに共通する単語固有誤りが検出されることを抑制する。 ## 3.2 評価と分析 対象データとして,学習者コーパス ICNALE [6] をべースにした前置詞誤り解説文データセット [7] を用いる. ICNALEでは,アルバイトと喫煙に関する二種類のトピックが用意されている(以降,それぞれ,PTJと SMK と表記する),当該データセットでは,各文書に対して,前置詞に関連した誤りの位置と解説文の情報が付与されている. ただし,通常の前置詞誤りより広い範囲の誤りを対象にしている. 例えば,主語として使用された動詞(例:*Lean 図 2 一般誤り抽出の流れ。 English is difficult.), 句と節の混同 (例:*because of I like it)などを含む(詳細は文献 [7] を参照のこと). このデータセットの訓練データで訓練を行い,評価データを対象にして抽出を行った(分割は文献 [5] に従う). 付録 A に同データの統計を示す.各種パラメータは次のように設定した: $M=10$ (多重分割の数); $N=800$ (サブコーパス中の文数): $\theta_{M}=1, \ldots, 10$ (一般誤りと認める検出数). 図 3 に結果を示す ${ }^{2}$ ). 同図より,高い精度で一般誤りのみを抽出できていることが分かる.特に,卜ピック交差訓練により recall, precision 共に高まるり, $\theta_{M}=9,10$ では単語固有誤りが混入していないことが分かる. 全体的に, recall はそれほど高くはないが,ある程度のサイズの学習者コーパスを入力とすれば,一定量の一般誤りの事例を精度高く収集できるともいえる. 次節以降で,このように収集された一般誤りの事例が,詳細な誤りサブタイプの発見と解説文生成に有益であることを示す。 ## 4 詳細なサブタイプの発見 前節の結果にクラスタリングを適用することで,一般誤りの詳細なサブタイプを発見することを試みる. ただし,一定量の一般誤りの事例を対象とするため, 一方のトピックの訓練データで誤り検出器の訓練を行い,もう一方のトピックの訓練データを抽出対象とする。一度に大量の事例を吟味することは困難であることを考慮して,少量の事例から始め,段階的に事例の量を増しながらクラスタリングする. 幸い,パラメータ $N$ と $\theta_{M}$ により,一般誤り抽出量を調整できる. 具体的には, $N=200$ から始め, $\theta_{M}$ を 10 から 1 づつ減らして行き,事例数が 30 を超えたところで抽出を終了する. 所定の事例数が得られない場合は, $N=400,800,1600$ と順に増加させ,同じ手順で抽出を繰り返す。 このようにして得た一般誤りの事例(候補)に対して,Ward 法を利用した階層型クラスタリングを適用し,詳細な誤りタイプの発見を行う. 距離として, ベクトル間の $L_{2}$ ノルムを用いる(ノルムが 1 となるように正規化することで余弦類似度によるクラスタリングと等価とした)。ベクトルとして誤り検出器内の BERT の出力を用る(誤り区間が複数トー クンに渡る場合,先頭のトークンに対応するべクトルを用いる),クラスタの解釈性を考慮して,いずれかのクラスタ内の事例数が 10 を超えたところで 2) 図の左から右へ進むにつれて $\theta_{M}$ が小さくなっている. 図 3 一般誤り分離の性能. クラスタリングを終了する(クラスタ間距離の最大値が 1.5 を超えた場合も終了する)。このクラスタリング結果を人手で吟味し, 各事例に詳細なサブタイプのラベルを付与する。この過程を三回繰り返し最終的な結果とする。二巡目以降では,それ以前のクラスタリング結果に,新たに抽出した一般誤り事例を加えてクラスタリングを行う。 以上の手順で一般誤りにおける 21 種類のサブタイプを発見した。紙面の関係から詳細は付録 Cに譲るが,前置詞を伴った主語,他動詞に前置詞を付けた誤り,主語として使用された動詞などを発見した. 事前に一般誤りの抽出を行うことで,似通った事例がクラスタリング対象となる傾向がみられた (少量データで訓練されたどの検出器でも検出される誤りであるため).通常,サブタイプ数が増えるにつれ,適切なラベルを選択するのが難しくなるが,クラスタリングによりサブタイプごとに事例がまとまっているため作業が容易になる。特に,二巡目以降のクラスタリングでは,それ以前にラベル付けされた事例が一緒に提示されるため,その効果は高くなる。比較のために,抽出対象のコーパスからランダムに誤り事例を 800 選択し,同様にクラスタリングを適用したが,事例の約 4 割が単語固有誤りとなり,ラベル付けがより困難であった(クラスタ終了条件により実際にクラスタリングされたのは, PTJ で 109,SMK で 104 の事例であった).実際,付録 C の表 6 に示したクラスタリングの良さを表す各種統計量にもそのことが表れている. ## 5 サブタイプに基づく解説文生成 前節で得られたサブタイプを利用して,解説文生成を分類問題として解くことを考える.入力中の誤り箇所を特定し,詳細なサブタイプを推定し,そのサブタイプに対応した解説文を生成するというタスクを想定する(ただし,後述するように,評価実験では推定したサブタイプと人手で付けたサブタイプの一致で性能評価を行う)。したがって,誤りトー クンでなく,誤りを含む文が入力の単位となる.誤り箇所とサブタイプの推定には, BERT ベースの誤 り検出器を流用する。すなわち, 出力 softmax 層をサブタイプ(に加えて単語固有誤りと正しい語)とする. 実験手順は次の通りである.まず,サブタイプごとに事例の増加を行った. サブタイプの事例と訓練データ中の事例との余弦類似度を計算し,類似度が高いものから順に各サブタイプの事例数の合計が最大 40 となるまで追加した. その結果を人手で吟味し,必要に応じてサブタイプのラベルを変更した. その結果,事例数が 10 以上となったサブタイプを生成対象とした (PTJとSMKでそれぞれ 9 タイプと 13 タイプが対象となった). 対象となったサブタイプは付録 Cの表 5 に記されている。なお,この過程およびクラスタリングの過程で得られた単語個別誤りも訓練データに含めた. この結果を訓練事例(うち各サブタイプ 2 割を開発データ)としてサブタイプを推定した. 検出性能向上のため, オリジナル(二值分類)の BERT ベー ス検出器も併用した. オリジナルの検出器を 10 個の異なるシードを用いて全訓練データで訓練した. その結果を,評価データに適用し,多数決をとり誤り箇所を決定した. 誤り箇所に,サブタイプ用の BERT ベース検出器を適用しサブタイプを推定した. こちらも異なるシードで 10 回訓練し多数決をとった. なお, 単語固有誤り/正しい単語と推定した場合は解説文を生成しないと取り扱った。また,訓練と評価では異なるトピックのデータを用いた. 表 1 の「分類」行に生成性能を示す3).「対象のみ」行は,上述のサブタイプだけを対象にした性能を示す. 比較用に, 「生成」行に, 文献 [5] で最高性能を達成した深層学習生成手法 (pointer generator) による生成性能も記した。また,表 2 に,PTJを対象にしたサブタイプごとの性能も示す(紙面の関係から,SMK については付録 B に示す)。なお,評価データ中に出現しなかったサブタイプは省略した. 表 1 より,生成問題として解いたほうが性能は高いことがわかる.分類問題として解いた場合,解説対象となるのは一般誤りの限られたサブタイプのみであることが大きな理由である.ただし,訓練デー タの作成にかかるコストを考慮する必要がある. 本実験では,PTJで 261 事例 (29.0/サブタイプ), SMK で 275 事例(21.2/サブタイプ)にサブタイプのラベルを付与しただけである。これに対して,pointer 3)評価データ中の全誤りに対して,人手でサブタイプのラべルを付与し,推定されたラベルと一致した場合,生成に成功したとみなした.表 1 生成性能評価結果. PTJ SMK 表 2 サブタイプごとの生成性能(PTJ). generator の訓練には約 10 倍の訓練データを用いている.しかも,単なるラベル付けではなく,解説文の記述が訓練データ作成に必要となる。加えて,分類問題の場合,フェイク解説文が生成されないことが保証されており生成結果の信頼性も高い. 出力されるのは表 2 に示されるようなサブタイプに紐づいた解説文だけである。一方で,生成問題として解いた場合,何が出力されるかを事前に把握することは困難であり,実用上の大きな課題となる.実際,人手で分析したところ, pointer generator の生成結果のうち,PTJで $8.3 \%$ ,SMKで $6.6 \%$ がフェイク解説文に該当した.以上の通り,分類問題として解く本稿のアプローチは,訓練データ作成コストと生成結果の信頼性という面で大きな利点がある. ## 6 おわりに 本稿では,一般誤りの分離可能性という仮説を導入し,その仮説を解説文生成に応用することについて述べた、コーパス中の一部の事例ではあるが,一般/単語固有誤りの識別を直接訓練せずとも高精度で一般誤りのみを分離できることを示した。また,その結果を用いて一般誤りの詳細なサブタイプを発見した. 更に,その結果を利用すると,解説文生成が分類問題として解けることも示した. 生成性能は生成問題として解いた場合に劣るものの,分類問題として解くことで,訓練データ作成コストと生成結果の信頼性という面で有利な点があることを示した. 今後は,前置詞誤り以外でも仮説が成り立つかを調査する予定である. ## 謝辞 本研究は JSPS 科研費 JP22K12326 の助成を受けた ものです. ## 参考文献 [1] Ryo Nagata, Manabu Kimura, and Kazuaki Hanawa. Exploring the capacity of a large-scale masked language model to recognize grammatical errors. In Findings of the Association for Computational Linguistics: ACL 2022, pp. 4107-4118, Dublin, Ireland, May 2022. Association for Computational Linguistics. [2] Jason Wei, Dan Garrette, Tal Linzen, and Ellie Pavlick. Frequency effects on syntactic rule learning in transformers. In Proceedings of the $\mathbf{2 0 2 1}$ Conference on Empirical Methods in Natural Language Processing, pp. 932948, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [3] Ganesh Jawahar, Benoît Sagot, and Djamé Seddah. What does BERT learn about the structure of language? In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3651-3657, Florence, Italy, July 2019. Association for Computational Linguistics. [4] Ryo Nagata. Toward a task of feedback comment generation for writing learning. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3206-3215, Hong Kong, China, November 2019. Association for Computational Linguistics. [5] Kazuaki Hanawa, Ryo Nagata, and Kentaro Inui. Exploring methods for generating feedback comments for writing learning. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 9719-9730, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [6] Shinichiro Ishikawa. A new horizon in learner corpus studies: The aim of the ICNALE project, pp. 3-11. University of Strathclyde Publishing, Glasgow, 2011. [7] Ryo Nagata, Kentaro Inui, and Shin'ichiro Ishikawa. Creating corpora for research in feedback comment generation. In Proceedings of the Twelfth Language Resources and Evaluation Conference, pp. 340-345, Marseille, France, May 2020. European Language Resources Association. ## 付録 ## A 実験に用いたデータの統計量 表 3亿,実験に用いたデータ [7] の統計量を示す。評価行のカッコ内の数は一般誤りの数を表す。一般誤りと単語固有誤りの判断は,付与された解説文の内容を参照し人手で行った。なお,データの分割は文献 [5] に従う。 表 3 対象データの統計値. ## B 誤りタイプごとの生成性能 表 4 亿SMK におけるサブタイプごとの生成性能を示す. 評価データに出現しなかったサブタイプは省略した. 表 4 サブタイプごとの生成性能(SMK). ## C サブタイプ発見の詳細 4 節で発見された一般誤りの詳細なサブタイプを表 5 に示す. 全部で 21 種類のサブタイプが確認されたが,紙面の関係で解説文生成の対象となったサブタイプのみを掲載した。 表 6 亿,サブタイプ発見時に利用したクラスタリングに関する統計量を示す. 各種統計値は, PTJ, SMKでそれぞれ三回クラスタリング(計六回)したときの平均值である。また,「ランダム」とは,抽出対象のデータから誤り 800 個をランダムに選択し,クラスタリングした結果に対応する(ただし,クラスタに課された諸条件により実際にクラスタリングされたのは平均で 106.5 事例である). クラスタ併合率とは,二つ以上のクラスタに同一のラべルが付与されたためにクラスタの併合が起こった割合である。具体的には,クラスタ内の事例数に対する併合が起こったクラスタ内の事例数の割合である。同様に,クラスタの分割回数に対して分割率も計算した。 表 6 より,提案手法と「ランダム」では一般誤りの割合が大きく異なることがわかる。その影響で,「ランダム」表 5 獲得された一般誤りの詳細なサブタイプ. \\ では単語固有誤りを人手で除去するという作業が多くなる(また,単語固有誤りはクラスタリングでうまくグルー ピングされにくい傾向がみられた),更に,クラスタの併合率の値により,提案手法のほうが同じサブタイプの事例が二つ以上のクラスタに入ることが少ないことがわかる.これは,一般誤りの抽出の効果により,似通った事例がクラスタリング対象となるからである(すなわち少量データで訓練されたどの検出器でも検出される誤りであるため). 表 6 クラスタリング結果に関する各種統計量
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C6-3.pdf
# 文章構造グラフを用いた 国語記述式答案への自動フィードバック生成 岩瀬裕哉 1,2 舟山弘晃 ${ }^{1,2}$ 松林優一郎 1,2 乾健太郎 1,2 1 東北大学 2 理化学研究所 } \{yuya.iwase.t8,h.funa\}@dc.tohoku.ac.jp \{y.m, kentaro.inui\}@tohoku.ac.jp ## 概要 学習者は自らのアウトプットに適切なフィードバックを受けることで効果的に学習を進められることが知られている. 本研究では,国語科目の長文読解問題における記述式答案に対してフィードバック文を生成することで,学習者のより良い学びと教育指導者の負担軽減を目指す。その手法として, 問題本文の文章構造や論理関係を利用して,答案の部分箇所に対し採点項目ごとにフィードバック文を生成する手法を提案する,実験では,既存の採点済みデータセットを用いて,この手法を用いたフィードバック生成が現実的に実現可能かを確かめた. ## 1 はじめに 数十語程度を答案に記す記述式問題は, 教育現場で広く用いられる問題形式であるが,教育指導者にとって記述式答案の採点や答案にフィードバックを与える作業は多大な労力を伴う [1]. 適切なフィードバックは学習者の学びに有益である反面, 実際にそれを得られる機会はコストの問題で限定されている [2]. 本研究では, 学習者が指導者の負担無しに効率的に学習を進められるフィードバック生成システムの構築を目指す。 記述式答案の自動採点技術は実用化に向け着実に研究が進められている $[3,4,5]$. 水本らの研究 [3] は,採点項目を利用して国語記述式問題の自動採点を定式化した. 同研究では, 複数ある採点項目ごとに採点の根拠箇所と得点を出力する. これによって,学習者は採点結果を見てどの部分を修正すれば良いかというフィードバックを得ることができる.本研究では, この水本らの研究を出発点として, より学習者の学びを助けるフィードバック文の生成を目指す. フィードバックの学習への効果について詳細に検討した Hattie and Timperley 2007[6] の研究によれば, フィードバックは目標と現在の理解の間の乘離があるとき学習に効果的に働く。ここで述べられる効果的なフィードバックとは,目標が何で,現時点でどこまで進んでいて,次に何をすれば良いか,という情報を含むものである。本研究はこの効果的なフィードバックの枠組みを国語記述式問題のフィー ドバックに応用することを目指す。ある答案を入力として,効果的なフィードバックに必要な情報を得る手段として,記述式問題に用いられる本文の文章構造を利用することを提案する。このアイデアは,国語の授業中や問題集の解説書等で行われている,本文を分割し,それぞれの部分の間の論理関係を構造化して問題を解説する方法に着想を得ている [7]. 文章に記された情報を構造的に理解する能力については,近年の高等学校での論理国語科目導入などに見られるように注目を集めている。記述内容を正確に読み取る能力は,日常生活でも必要となる重要な能力であり,それらを効率的に訓練できるツー ルには一定のニーズがあると考えられる。本研究では,このような背景から,評論文や論説文と呼ばれる比較的論理構造が明確な文章を題材とした問題へのフィードバック文生成に限定して取り組む。 学習者に対するフィードバック文生成に関連する研究として,英語学習者のライティングにおける文法的な誤りへの解説文生成が挙げられる [8]. Lai and Chang 2019 [9] は,テンプレートを利用した解説文生成という点で本研究と関連性がある。 本研究では国語記述式問題のフィードバック生成研究の第一歩として, 既存の国語記述式問題のデータセットを利用して,問題本文の構造を利用したフィードバック生成というアイデアが技術的に可能であるかを確かめる.構造を利用するための方法として,答案と本文の間で,それぞれを表現したベクトルのコサイン類似度を計算し,答案が本文中のどの部分を参照して記述されたものか推定する 図 1 データセット内のデータ例 手法を提案した. そして, 本文の構造から得られた情報と,フィードバック文のテンプレートを用いてフィードバック文を生成した. 結果として一部生成に適さない問題と答案はあるものの,アイデアが現実的に実現可能であることが確かめられた. ## 2 データセット 本研究では,理研記述問題採点データセット代々木ゼミナールデータ $[3,4]$ を題材として記述式答案に対するフィードバック生成を行う。このデータは,高校生を対象に行われた模擬試験の国語長文読解記述式問題について, 問題と答案, および, 人間の採点者がつけた採点項目ごとの得点と, 採点の根拠箇所についてのアノテーションを含むものである (図 1). 採点項目とは採点の際に利用される採点基準のことで,問題ごとに 5 項目程度存在する. 採点は, 各採点項目で指定された内容が答案に記述されているかという観点で行われる. 採点の根拠箇所として,採点項目ごとに答案中のサブワードに対して, 点数の根拠となった部分に 1 , その他に 0 が付与されている. データセットは論説文や小説など複数の文体を題材とした問題を含み,また問題の出題形式も本文中に引かれた傍線部を言い換えて説明するものや,傍線部がなく,本文から要約的にまとめるもの等いくつかの形式がある. 本研究ではその中でも, 問題本文の論理構造を利用したフィードバックというアイデアに即して, 論説文を扱ったもので, かつ本文中の言葉を使い,傍線部について説明するような問題 3 題を扱う. ## 3 フィードバック生成タスク 上述のデータセットの採点は,各採点項目に対して記述内容に応じた部分点を与える方式である. 本研究で答案に対し生成するフィードバックは,この採点の設定に即し, 採点項目ごとに出力する。 ある問題に対する答案が与えられたとき,答案は採点項目ごとに関連する内容が記述された箇所が特定され,その内容に応じて点数が付けられる. フィードバックの完全自動化のためには採点および根拠箇所の特定についても何らかのモデルを開発する必要があるが,本研究では文章構造を用いたフィードバック生成という我々のアイデアの実現可能性を検証することに焦点を絞り,採点根拠箇所についてはデー タセットに付与されている人間の採点者によるアノテーションを利用する. したがって,本研究で設定するフィードバック生成タスクは,答案と,ある採点項目のペアに対し,その採点項目に対して特定される根拠箇所の文字列が与えられるとき,その根拠箇所の内容に対して適切なフィードバック文を生成することと定義される。 ## 4 手法 我々の手法の外観を図 2 に示す. 本研究では,設問で問われている内容を本文に即して説明するような記述式問題を扱う。この問題形式では,答案が得点するために,本文に書かれている情報を答案に含む必要がある. したがって, 得点の根拠箇所は本文に含まれる特定の箇所を参照している. そこで,我々はまず本文を適切な単位に区切り,答案の根拠箇所と, 本文の各分割単位との類似度を計算することで,その根拠箇所が本文のどの部分を参照しているのか特定する (図 2(1)). 次に,本文について,分割された各部分をノードに持ち,関連する部分同士の論理関係を示すラベルをエッジに付与した文章構造グラフを作成しておき (図 2(2)), この文章構造グラフの上で,答案内に理想的に含むべき情報が書かれている位置と, 答案内に書かれている内容の位置がどのような関係ラベルで接続されているかという情報に基づき,フィードバック文のテンプレートを選択し,そこからフィー ドバック文を生成する (図 2(3)). 図 2 提案するフィードバック生成手法の外観図 ## 4.1 答案根拠箇所の本文参照箇所推定 答案の,ある採点項目に対する根拠箇所文字列 $x$ を入力として、その根拠箇所が本文中のどの部分を参照して記述したものか推定した結果 $e$ を出力とする. $e$ は本文の分割単位それぞれに割り振られたインデックスを表す. 答案の根拠箇所 $x$ を訓練済み日本語 BERT[10] に入力し, 最終層の埋め込み表現を抽出する. 埋め込み表現のベクトルの和をとることで, $x$ に対する根拠箇所ベクトル $y$ を得る. 本文を分割して作成された文字列集合 $S=$ $\left.\{s_{1}, s_{2}, \ldots, s_{m}\right.\}$ に対しても同様の手続きで本文べクトル集合 $H=\left.\{h_{1}, h_{2}, \ldots, h_{m}\right.\}$ を得る. なお, $y$ および $h_{m}$ は次元数 768 のベクトルであり,$m$ は本文の分割数を表す. 根拠箇所ベクトル $y$ と本文ベクトル集合 $H$ の各要素との間でコサイン類似度を計算し, $y$ に対して最も高い値を返した $h_{e}$ を, $x$ が参照した本文箇所の推定結果 $e \in\{1,2, . ., m\}$ とする. ## 4.2 本文の構造グラフを用いたフィード バック文生成 \\ 本文構造グラフ フィードバック生成のために用 いる本文構造グラフ $G$ を人手で作成する. 分割さ れた本文の集合 $S$ の要素をグラフのノードとする. グラフの作成に当たり,まず採点基準や模範解答を もとに答案が満点を獲得するために参照すべき箇所 を本文から特定し,そのノードのインデックスを正解 $c$ とする. 次に,本文中で談話関係のあるノード ペアについて,関係の種類を表すラベルをエッジに 付与する。関係ラベルには Penn Discourse Treebank Version 3.0 のタグセットを採用した [11]. 本文全体にこのようなアノテーションを行うには多大な労力を要する。また,各採点項目において答案が得点するために含むべき情報は本文中の一部分 に集中的に記載されている。そこで,採点基準をもとに各採点項目と関連が強い箇所に限定して談話関係アノテーションを行い,部分構造グラフ $G^{\prime}$ を採点項目ごとに作成した. 図 2(2) はそのような部分構造グラフの例である. 図中の青いノードは正解ラベルのノードであり,各エッジにはそれぞれ関係ラベルが付与されている. フィードバック文生成答案の根拠箇所が参照している本文ノード $e$ と, 正解ノード $c$ の間を結ぶエッジに付与された関係ラベルに基づき,あらかじめ定めておいたフィードバック文のテンプレートのうち適切なものを選択する.具体的には,本文部分構造グラフ $G^{\prime}$ 上で,根拠箇所が参照しているノー ド $e$ と正解ノード $c$ の間の最短パスを求める. 次に, パスに含まれるエッジのうち,正解ノードと隣接するノードを結ぶエッジに付与されたラベルを得る. 得られたラベルによりフィードバックの生成に用いるテンプレートを選択する。 さらに,各答案の内容に応じて柔軟にフィードバック文を生成するために,答案の根拠箇所の文字列 $x$ と正解ノード $c$ の本文文字列 $s_{c}$ をテンプレー 卜に埋め込み,最終的なフィードバック文 $t$ とする. ただし,答案の根拠箇所の文字列 $x$ と最も対応する本文ノード $e$ がこの採点項目のために設計した部分構造グラフ $G^{\prime}$ に存在しない場合,および $e$ が正解ノードと一致する場合には,それぞれ固定文のフィードバックを生成した. テンプレートの具体例は付録 A に示す。 ## 5 実験 ## 5.1 実験設定 本研究の目的は学習者に取って有益なフィードバックを生成することであるため,対象の採点項目 表 1 答案根拠箇所に対し生成されたフィードバック文の例 & \\ に対して満点を得ている答案は扱わない。また, 0 点の答案についても根拠箇所が付与されないため扱わない。適切に提案手法の評価を行うために,上記の条件を満たす答案を 10 件以上含む採点項目のみを用いた。 3 節で述べたように,本研究の焦点は我々が設計したフィードバック生成システムが実現可能か検証することにある. したがって,各採点項目の根拠箇所情報は,データにあらかじめ人手で付与されたものを入力として用いて実験を行った. ## 5.2 参照箇所推定結果の妥当性の確認 4.1 節で説明した方法によって,$e$ をどの程度正しく推定できるかを確かめるために,入力の各根拠箇所 $x$ に対して正解の $e$ の値を付与した評価データを人手で作成し, 推定結果との一致率を計算した. 評価データは,対象の採点項目に対する根拠箇所からランダムに 20 個サンプリングしたもの (random) と,根拠箇所文字列の出現頻度を降順に並べ上位 20 種を抽出したもの (unique)について人手でラベルを付与した. 結果を表 2 に示す. random の結果からは,全 6 個の採点項目のうち,5 個の採点項目においては 7 割程度の一致率で $e$ を推定できることが確かめられた。また, uniqueの結果からは,答案によく書かれる記述に関する精度にも採点項目ごとにばらつきがあることが示唆された. 適切に推定できなかった理由として,根拠箇所が答案に含まれる部分文字列であることに対して,比較を行う本文のノー ドは文または節のように意味的に一つのまとまりを持つ単位であったという点が考えられる。また,問題 2 の一致率が低い原因は, 当該の問題形式に起因していると考えられる. 問題 2 は本文中のある文が示す内容について,本文に即して説明する問題であるが,得点するためには本文中の複数の箇所を参照して答案を作成しなければならない問題である. 本手法では,ある根拠箇所が参照している本文中の分割単位が一つに定まる事を仮定して,手法の設計を表 2 参照箇所推定の精度. $A=1$ は採点項目 $A$ が 1 点である答案を表す. unique の括弧内の值は頻度上位 20 件の表現が対象データ全体に占める割合. 行ったため,このような問題において適切に本文の参照箇所を推定することができなかったと考えられる.このような種類の問題に対するフィードバック生成手法の構築は,今後の重要な課題である. ## 5.3 フィードバック生成 我々が 4 節で提案した手法によってフィードバックの生成を行い,その結果を検討した. 表 1 に生成されたフィードバック文の具体例を示す.このうち,上の 2 つ例は, $e$ が適切に推定できた場合に生成されるフィードバック文を表している. 下の 2 つは適切に $e$ を適切に推定できなかった場合の結果を示している。この結果より文字列として似た答案であるにも関わらず,推定された $e$ の内容に応じて生成されるフィードバックが大きく異なってしまっている.したがって,我々が提案するフィードバックの生成手法では,e を適切に推定することが鍵である. 今後は,学習者を巻き込んだテストを行うことを計画しており,生成されたフィードバックの効果を実践的な形で計測する予定である. ## 6 おわりに 本研究では. 答案の根拠箇所と本文の文章構造を用いてフィードバック文を生成するという手法を提案し,その手法の実現可能性について確かめた. 実験により,学習者の学びの助けになりそうなフィー ドバック文を生成できる可能性が確かめられたと同時にさらなる検討課題が明らかになった. 実際の模試データを提供していただいた学校法人高宮学園代々木ゼミナールに感謝します. 本研究は JSPS 科研費 JP19K12112, JST 次世代研究者挑戦的研究プログラム JPMJSP2114 の助成を受けたものです. ## 参考文献 [1] Anna Filighera, Siddharth Parihar, Tim Steuer, Tobias Meuser, and Sebastian Ochs. Your answer is incorrect... would you like to know why? introducing a bilingual short answer feedback dataset. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 8577-8591, Dublin, Ireland, May 2022. Association for Computational Linguistics. [2] Valerie J. Shute. Focus on formative feedback. Review of Educational Research, Vol. 78, No. 1, pp. 153-189, 2008. [3] Tomoya Mizumoto, Hiroki Ouchi, Yoriko Isobe, Paul Reisert, Ryo Nagata, Satoshi Sekine, and Kentaro Inui. Analytic score prediction and justification identification in automated short answer scoring. In Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications, 2019. [4] Hiroaki Funayama, Tasuku Sato, Yuichiroh Matsubayashi, Tomoya Mizumoto, Jun Suzuki, and Kentaro Inui. Balancing cost and quality: An exploration of human-in-the-loop frameworks for automated short answer scoring. In Artificial Intelligence in Education, 2022. [5] Haruki Oka, Hung Tuan Nguyen, Cuong Tuan Nguyen, Masaki Nakagawa, and Tsunenori Ishioka. Fully automated short answer scoring of the trial tests for common entrance examinations for japanese university. In Artificial Intelligence in Education: 23rd International Conference, AIED 2022, Durham, UK, July 27-31, 2022, Proceedings, Part I, p. 180-192, 2022. [6] John Hattie and Helen Timperley. The power of feedback. Review of Educational Research, Vol. 77, No. 1, pp. 81-112, 2007. [7] 野矢茂樹. 論理トレーニング 101 題. 産業図書, 2012. [8] Kazuaki Hanawa, Ryo Nagata, and Kentaro Inui. Exploring methods for generating feedback comments for writing learning. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 9719-9730, 2021. [9] Yi-Huei Lai and Jason Chang. TellMeWhy: Learning to explain corrective feedback for second language learners. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP): System Demonstrations, pp. 235-240, 2019. [10] 日本語 bert 訓練済みモデル. https://github.com/cltohoku/bert-japanese. [11] Rashmi Prasad, Bonnie Webber, Alan Lee, and Aravind ## A 作成したフィードバック文テンプレート例 表 3 作成したテンプレート例 \\ \cline { 2 - 3 } Expansion.Level-of-detail & \\ 本研究で作成したフィードバックの一例を示す. 表 3 に示した通り,グラフ上に出現する関係ラベルに対して,答案の根拠箇所と本文の答案の参照にすべき正解箇所を埋め込むことができるフィードバック文を作成した. 表 4 テンプレートに追加した固定文の例 本研究では,正解ラベルが付与されたノードと本文参照箇所推定結果ノードとの最短パス上にあるラベルを利用する手法を取るため,表4 に示されたような場合にはパス上のラベルを得ることができず,手法通りにフィードバック文を生成することができない。そのため,それらの場合に対しては,表の通り埋め込み箇所のない固定文のフィードバックを返す設定とした.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C6-4.pdf
# Towards grammatically-informed feedback comments Diana Galvan-Sosa ${ }^{1,2}$ Steven Coyne ${ }^{1,2} \quad$ Keisuke Sakaguchi $^{1,2} \quad$ Kentaro Inui $^{1,2}$ ${ }^{1}$ Tohoku University ${ }^{2}$ RIKEN \{dianags, keisuke.sakaguchi, kentaro.inui\}@tohoku.ac.jp coyne.steven.charles.q2@dc. tohoku.ac.jp ## Abstract Current writing assistants are good in error correction and in helping users to change ungrammatical sentences into their correct grammatical form. However, they still fall short on various dimensions, in particular error justification. While the current systems are useful when the main goal is expression, they are insufficient when the goal is the acquisition of a writing skill. It is clear that finding the root of an error is key for improvement. The question is how to do this automatically? We present here an approach that automatically aligns error annotations with grammatical-category annotations made on grammaticalungrammatical sentence pairs. Our preliminary results suggest that such alignments provide a good hint concerning the specific grammar points a user should pay attention to. ## 1 Introduction Writing is not an easy task. Whether we produce written text in our mother tongue (L1) or a foreign language (L2), the task is daunting because of the number of sub-tasks involved, and because of the lack of clear decision criteria. For example, when is a text optimal? What is a coherent text?, etc. Broadly speaking, writing requires three major steps: (1) idea generation (2) idea ordering and (3) linguistic expression. Assuming that the two first steps have been performed, we need to find the right words, put them in the right order and make the needed morphological adjustments. In other words, having decided what to talk about, and how to convey our ideas, we must make sure that the final output complies with the rules of language. Hence, a basic, yet very important aspect of this last step is to check the grammaticality of our sentences. Realizing the grammar-checking can be automated has motivated the development of a number of writing assistants, one of the Figure 1 Example of a sentence generated by a L2 user and the expected feedback (output) from the writing assistant. most prominent ones being Grammarly ${ }^{1)}$. Ideally, the goal of modern writing assistants is not just to check grammar, but to check the quality of all the levels involved in writing. Put differently, ideally revision concerns the entire writing process. According to cognitive scientists, revision is a complex problem-solving process composed of various steps: (i) problem detection, (ii) problem diagnosis and (iii) solution generation [1]. If we are only interested in the correct form of a text, then it is acceptable for the writing assistant to only output the result of (i) and (iii). Yet, if the goal is the enhancement of the student's writing skills, the output of (ii) is very important. Note that composition, i.e., learning to write is a very common goal among L2 users. Consider the sentence shown in Figure 1, where the detected problem (hereafter referred to as error) is highlighted. The purpose of highlighting the preposition is not only to signal that it should be REPLACED (for $\rightarrow$ so as), but also to make the author aware of the fact that the "so as not to" form was used incorrectly. The goal of this diagnosis is not only to signal the error, but to explain it. Hence, the user's error is related to a goal, which includes the use of the preposition "to" and other grammatical forms like "so as to", "in  Figure 2 Overview of our sentence alignment pipeline (left). To the right, a sample sentence from the M2 file (top), the same sentence padded and aligned (middle) and the matched grammatical categories (bottom). The new annotations are highlighted at the top. order to" and "so that". This is what the user needs in order to avoid making the same mistake in the future. The aforementioned diagnosis could easily be made by an English teacher. The question is: how could a writing assistant do the same thing? Thanks to the research done on Grammatical Error Correction (GEC), there is a fair amount of learner data with error annotations available. However, these annotations are limited to the identification of the type (e.g., replace a preposition) and the location of an error in the text. Our premise is that if the sentence were also annotated with its related grammatical categories, these annotations would provide a hint concerning the reasons causing the error. We present here an algorithm that adds grammatical categories to existing error annotations. To do so, we rely on the English Grammar Profile defined by the CEFR-J [2] project. ## 2 Related work Grammatical Error Correction. GEC is the task of detecting and correcting all kinds of errors in a sentence. $\overline{\text { Note that error diagnosis is neither expected nor required. }}$ There have been several attempts on tackling GEC, mostly led by the Building Educational Applications (BEA) 2019 Shared Task [3]. The BEA dataset ${ }^{2}$, which includes annotations on an error's type, location and its correction, is the current benchmark measuring the performance of GEC systems. The dataset is composed of 4 corpora: the First Certificate in English (FCE) corpus [4], Lang-8 [5, 6], the National University of Singapore Corpus of Learner English (NUCLE) [7] and W\&I+LOCNESS [3, 8].  Feedback Comment Generation (FCG). Unlike GEC, the goal of FCG is to diagnose an error and output an explanatory note. This task was recently proposed by [9] as the GenChal 2022 shared task, together with a dataset $^{3)}$ that pairs ungrammatical sentences with a feedback comment. The ultimate goal of our work is directed towards FCG. We aim to generate feedback comments that not only explain the underlying grammatical rule of an error, but also suggest whether the misuse of other grammatical categories caused it. As a first step, we explore to what extent the grammatical categories identified in a grammatical sentence relate to the error annotations made on its ungrammatical counterpart. ## 3 Aligning errors with grammatical categories ## 3.1 The CEFR-J English Grammar Profile The Common European Framework of Reference (CEFR) is a learning framework that describes the knowledge and skills needed by a learner to communicate in English. The CEFR includes an English Grammar Profile (EGP) that lists the grammatical forms and meanings a learner is expected to get familiar with as they progress along the learning curriculum. This framework has been widely adopted not only in Europe, but also in Latin America and Asia. Its adaptation in Japan (the CEFR-J) is of particular interest to us, as it defines a finer-grained EGP that includes 501 patterns across 263 grammatical categories. An example is shown in Table 1.  Table 1 Example of a grammatical category (GramCat) and its associated forms (patterns). The CEFR-J EGP is available online, together with a set of scripts that identify all the patterns in a text using regular expressions (regex). ${ }^{4)}$ ## 3.2 Error spans and regex matches As a source of learner's data, we use the BEA and GenChal 2022 datasets introduced in Section 2. Data in the BEA dataset has already been standardized with ERRANT [10], the most common error type framework used in GEC. The top-right of Figure 2 shows an example of ERRANT's M2 annotation format, which identifies a token-based error span, an error type and an edit text (i.e., the text to correct the identified error). As a FCG dataset, GenChal 2022 does not use the M2 format, but it is possible to standardize as long as we input pairs of (UNGRAMmATICAL,GRAMmATICAL) sentences. Since this dataset does not include the GRAMMATICAL counterpart of an UNGRAMMATICAL sentence, it needs to be created. For the scope of this paper, we annotated an initial subset of 500 sentences out of the total 5000 . With both datasets in M2 format, we rely on the CEFR-J scripts for adding grammatical category information to the M2 annotations. These scripts take as input a grammatically correct text and output a count file with two columns: one with the 501 Pattern IDs and another with the count of the sentences that matched each pattern. The scripts were modified to also output which sentences matched a pattern and the span of the match. ## 3.3 Alignment process Padding. Apart from error categories like "DET" (Determiner), ERRANT classifies errors depending on whether tokens need to be inserted, deleted or substituted. These operations are referred to as Missing ("M"), Unnecessary ("U") and Replacement ("R"), respectively. As shown at the top-right of Figure 2, an Ungrammatical sentence usually needs more than one edit operation to be-  come grammatical. As a result, most of the time these sentences have different lengths. In order to align the error spans in the UNGRAMMATICAL sentence with the regex matches found on the GRAMMATICAL one, we need both to have the same length. As a general rule, "M" and "U" operations lead to padding the ungrammatical and grammatical sentence, respectively. In the case of " $R$ " operations, no padding will be needed if the token-length of the edit span and the edit text are the same. The ungrammatical sentence will need padding if the length of the edit text >edit span. The grammatical sentence will be padded otherwise. Alignment. We define as "alignment" when an edit span and a match span overlap. The bottom-right of Figure 2 shows the four patterns found in the GRAMmATICAL sentence by the CEFR-J scripts. However, there are only two alignments: "M:OTHER" $\rightarrow$ "This/that is" and "M:DET" $\rightarrow$ "Indefinite articles". In the case of the second alignment, the grammatical category matched is consistent with the error category that was already annotated. The first alignment, though, adds new information. The "M:OTHER" error type identifies that some tokens are missing, but is not able to point out what exactly the error is (therefore, the use of the generic "OTHER" category). The grammatical category identified in the alignment is more informative, suggesting that the root problem is related to how to point to something. In this particular case, using the "This/that is" form is a better than "because" to detail a reason. When an alignment is found, a new token with the format PATTERNID: OVERLAP SPAN is appended at the end of the corresponding error annotation line. Note that the sample sentence in Figure 2 has modifications to its first two annotations, while the third one remains unchanged. This is because an edit span can either be aligned with one, several or no match span at all. ## 4 Data analysis In order to get a better understanding of the potential benefits of aligning an error's edit span and a grammatical category match span, we first look at the number of alignments found in the BEA dataset and our subset from GenChal2022. The results are summarized in Table 2. Considering that a sentence can have one or more error annotations, the table shows both the total number of sentences in a dataset and the error annotations. Note that Table 2 Number of alignments by dataset. Sentences can have 1 or more error annotations. Here, we take into account ALL the error annotations in a dataset. A "noop" annotation indicates that a sentence has no errors. sentences in a dataset can be GRAMMATICAL or UNGRAMMATICAL. A sentence is annotated even if it is judged as grammatical, in which case the error type is "noop". The coverage of alignments found on the error annotations (i.e., edits) ranges from $37 \%$ to $42 \%$ in the BEA benchmark and $50 \%$ in our subset from GenChal2022. Taking a closer look at the total number of alignments, we observe that most of the times, our algorithm found one alignment between an error span and a match span. It is interesting to see that there were some cases were a error span overlapped with more than one match span. An example of both situations is shown in Figure 3. Figure 3 Example of two sentences and their alignments (top: 1 alignment, bottom: $>1$ ) found in their error annotations. Although we expected that the greater the number of alignments, the more informative a match span would be, our preliminary observations suggest that single alignments can also be revealing. The example shown at the top of Figure 3 showcases a situation where two edits are aligned with the same grammatical category. The edits simply point out that the sentence is missing a comma and that "whose" should be replaced with "whom". The reasoning behind these edits is that a removable idea, known as a NONRESTRICTIVE CLAUSE, is being introduced by the RELATIVE PRONOUN. Therefore, the comma is necessary. The alignments made on the bottom example explain a more elaborated error. The main problem with the sentence is the use of the "for" preposition. While the use of the collocation "ask for" to introduce a request is correct, the request in question concerns two possibilities, in which case it is better to use the SUBORDINATE CONJUNCTION "whether". This is related to the use of a SUBORDINATE CLAUSE, which is in fact, being suggested in the edit text (i.e., whether you want a). Besides the use of "whether", the suggested subordinate clause involves the use of INDEFINITE ARTICLES. In summary, the error type is helpful for identifying and correcting the error. The alignments found by our algorithm complement the error annotation with information related to the error diagnosis. So far, it seems that our alignment approach is a good direction towards a "teacher-like" error diagnosis, which in turn is a step towards the generation of grammaticallyinformed feedback comments. The ongoing qualitative analysis presented here is being performed drawing on the second author's experience in English education. ## 5 Conclusion and Future Work AI is evolving at an amazing pace. The development of AI-powered writing assistants is, beyond any doubt, one of the most notable contributions to make the writing process less painful for authors. However, there is still work to be done in order to bridge the gap between human and computer-based writing revision. In this work, we explore the plausibility of automatically identifying the grammar forms that a user needs to know in order to avoid making the same grammatical error in the future. Since the BEA dataset does not include feedback comments, our future work only considers the GenChal 2022 dataset. Our immediate next step is to design an experimental setup that will quantitatively evaluate the usefulness of error's edit spans and grammatical categories' match spans on feedback comment generation. ## Acknowledgements This work was supported by JSPS KAKENHI Grant Numbers JP22H00524 and JP21K21343. ## References [1] Kwangsu Cho and Charles MacArthur. Learning by reviewing. Journal of educational psychology, Vol. 103, No. 1, p. 73, 2011. [2] Yasutake Ishii and Yukio Tono. Investigating japanese efl learners' overuse/underuse of english grammar categories and their relevance to cefr levels. In In Proceedings of Asia Pacific Corpus Linguistics Conference 2018, pp. 160-165, 2018. [3] Christopher Bryant, Mariano Felice, Øistein E Andersen, and Ted Briscoe. The bea-2019 shared task on grammatical error correction. In Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 52-75, 2019. [4] Helen Yannakoudakis, Ted Briscoe, and Ben Medlock. A new dataset and method for automatically grading esol texts. In Proceedings of the 49th annual meeting of the association for computational linguistics: human language technologies, pp. 180-189, 2011. [5] Tomoya Mizumoto, Mamoru Komachi, Masaaki Nagata, and Yuji Matsumoto. Mining revision log of language learning sns for automated japanese error correction of second language learners. In Proceedings of 5th International Joint Conference on Natural Language Processing, pp. 147-155, 2011. [6] Toshikazu Tajiri, Mamoru Komachi, and Yuji Matsumoto. Tense and aspect error correction for esl learners using global context. In Proceedings of the 50th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 198-202, 2012. [7] Daniel Dahlmeier and Hwee Tou Ng. Better evaluation for grammatical error correction. In Proceedings of the 2012 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 568-572, 2012. [8] Sylviane Granger. The computer learner corpus: a versatile new source of data for sla research. In Learner English on computer, pp. 3-18. Routledge, 2014. [9] Ryo Nagata, Masato Hagiwara, Kazuaki Hanawa, Masato Mita, Artem Chernodub, and Olena Nahorna. Shared task on feedback comment generation for language learners. In Proceedings of the 14th International Conference on Natural Language Generation, pp. 320-324, 2021. [10] Christopher Bryant, Mariano Felice, and Edward Briscoe. Automatic annotation and evaluation of error types for grammatical error correction. Association for Computational Linguistics, 2017.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C6-5.pdf
# 英単語学習支援に向けた語義曖昧性解消モデルの性能分析 菊地真人 按田将吾 大直忠親 名古屋工業大学大学院 情報工学系プログラム \{kikuchi,ozono\}@nitech.ac.jp anda@ozlab.org ## 概要 語義曖昧性解消(WSD)の技術を応用した外国語教育システムが開発され, 特に語彙学習でよく利用されている.これらは,WSD の成功を前提としており,WSD の失敗は学習者の混乱を招くことにもなり得る。しかし,教育での利用を考慮した WSD モデルの性能分析が不十分である. 本研究では, Transformer ベースの WSD モデル LMMS-SP の性能と,英単語に付与された語彙学習の意味での難易レベルとの関係を分析する. その結果,難しい単語ほど WSD の正解率が高い傾向にあった.また易しい単語では, WSD の正解率が 3 割程度しかないものがあった.この原因として,まれにしか使わない低頻出語義を,高頻出語義と誤ることが考えられる。 ## 1 はじめに 語義曖昧性解消(WSD)の技術を応用した外国語教育システム $[1,2,3]$ が開発され, 特に語彙学習でよく利用されている. 学習者は WSD を活用することで, 読解文脈における単語の適切な意味(語義) を調べる手間が省け,学習を効率化できる. しかし, Transformer [4] に基づく最先端の WSD モデルでも,WSD の正解率は $7 \sim 8$ 割にとどまる. 加えて多くの教育システムは基本的に,WSD の成功を前提に設計されており, WSD の失敗は学習者の混乱を招くことになりかねない。一部の研究 [5] では, WSD の失敗を考慮した教育効果も検証されているが, WSD が常に成功するときが最も有効という結果が得られている. 以上より, WSD モデルの利用が効果的な状況を, 教育的側面を考慮して分析し, その性質を理解した上で用いることが重要である。 それによって既存の教育システムでも,教育効果のさらなる向上を見込める可能性がある. 本研究では, Transformer ベースの WSD モデル LMMS-SP [6] の性能と, 英語学習語彙表 $[7,8,9]$ の難易レベルとの関係を分析する. 英語学習語彙表と は,学習者が時間や労力の観点から効率よく英単語を学べるよう,学習すべき語彙を難易レベル別に掲載したものである ${ }^{1)}$. 低レベルには英語を使うために不可欠な,汎用的に使う “易しい”語彙が掲載されている。高レベルには使う場面は比較的限られるが,表現力を豊かにするための “難しい”語彙が掲載されている. 難易レベル毎の LMMS-SP の性能を解明することで, LMMS-SP が英語学習の下級者から上級者のどの層により有益なのかを知ることができる. さらに語義ごとの例示的なエラー分析も行う. 結果として, LMMS-SP は高レベルの難しい単語ほど,WSD の正解率が高い傾向が明らかになった. また低レベルの易しい単語では,WSD の正解率が 3 割程度しかないものがあった. この原因として,まれにしか使われない語義を,広く使われる語義と誤ることが考えられる。 ## 2 関連研究 ## 2.1 外国語教育での WSD の利活用 WSD を外国語教育に用いた最初期の研究として, Kulkarni ら [1] は英語の語彙学習システム REAP に WSDを導入し, 読解文脈における英単語の語義を学習者が効率的に調べられるようにした. Rosa ら [2] は Kulkarni らの成果をべースとして,クラウドソー シングで WSD 訓練データセットを強化することで,語彙学習におけるWSDのさらなる有効性を示した. Degraeuwe ら [3] は,スペイン語学習のための WSD モデルとして,訓練データ収集プロセスの一部を対話的な語彙演習に統合する枠組みを提案した。これらの研究では,WSDを用いた教育システムの構築および教育効果の検証に焦点を当てている。一方で教育的側面から,既存の WSD モデルがどのような状況で有益・無益なのかは,WSD モデルの性能と関  連付けて詳細に分析する必要がある。 ## 2.2 WSD の性能に関する分析調査 Loureiro ら [10] は, Transformer に基づくWSD モデルの詳細な性能分析を行なった。また Kapelner ら [11] は,人間にとって WSDを困難にする要因を明らかにした。しかし,外国語教育での利活用を想定した, WSD モデルの分析研究は少ない. Miyata ら [12] は日本語の単語を対象に,語義に基づく単語の曖昧度を表す公式を導出し, 単語の学習難易度と曖昧性との関係を調査した. Suzuki ら [13] は, WSD モデルを用いて英語と日本語の単語に対する曖昧度を定義し,難易度と曖昧性の関係を再調査した。しかし, Suzuki らはWSD のために古典的な Lesk アルゴリズム [14]を用いており, 得た結論も本研究とは異なる. 彼らは難しい単語ほど曖昧性が高い,すなわち WSD が困難と主張する. 対して本研究では, Transformerによる最先端の WSD モデルを用い,難しい単語ほど WSD が容易という逆の主張をする. ## 3 前提知識 ## 3.1 LMMS-SP 本研究で用いる WSD モデル LMMS-SP [6] を説明する.LMMS-SP は,意味の埋め込み表現に基づくWSD モデルである. 本モデルは,インスタンス (WSD の対象単語)を含む文を入力とし,そのインスタンスに対する文脈埋め込みを作成する。その後, 作成した文脈埋め込みと事前訓練で得た各語義の意味埋め込みとのコサイン類似度が最大となる語義を出力する. LMMS-SP の最大の特徴は, WordNet 3.0 の収録語義を網羅した意味埋め込みを利用できる点である. WordNet [15] は電子的に利用可能な概念辞書であり,単語の概念的な同義語,下位語,上位語などを語義単位で可視化することができる。我々は英語学習支援の研究に WordNetを活用する予定でおり,SOTA に近い性能を持ち WordNet の全語義を扱える LMMS-SP を選んだ。 ## 3.2 英語学習語彙表 英語学習語彙表は, 効率的な語彙学習のために,語彙を難易レベル別に掲載したものである ${ }^{1)}$ 。共通して低レベルには易しい語彙が,高レベルには難しい語彙が掲載されている。ここでは本研究で用いる語彙表を説明する. Kilgarriff [7] は,イギリス英語表 1 北大語彙表の収録語彙に関する情報 表 2 各レベルに対する平均の正解率 の大規模コーパス British National Corpus の単語頻度をもとに BNC 語彙表を作成した. この語彙表はネイティブ英語コーパスに基づくため, 第二言語としての英語学習において,適切な語彙が掲載されているとは限らない. 杉浦 [8] は,高校英語の検定教科書を分析し,使用語彙を頻度順に並べた日本人向けの語彙表を作成した. また,英語学習への有用性を高めるため,語彙の選定過程をより工夫した語彙表も作成されている,そのような語彙表には,北海道大学の園田 [9] による北大語彙表, 大学英語教育学会(JACET)の英語語彙研究会による JACET8000, アルク教育社によるSVL12000 などがある. 本研究では,各語彙表に記載の難易レベルと WSD の正解率との関係を調べ,4.1 節と概ね同様の結論を得た。 しかし本稿では紙面の都合上, 北大語彙表に絞って実験結果を掲載し,議論する。 ## 4 実験 実験では,英単語の難易レベルと WSD の正解率との関係を明らかにする。また本来ならば,ある単語が持つ各語義についても,使用頻度や学習難易度は異なるはずである.そこで,WSD を誤りやすい単語に関して,語義単位での細かいエラー分析も行う. LMMS-SP は著者らが公開している実装をそのまま用いた2) , LMMS-SP で用いる Transformer は,比較的性能が良いとされる albert-xxlarge-v2 とした.難易レベルの指標として,北大語彙表を用いた結果を掲載する。北大語彙表の収録語彙に関する情報を表 1 に示す. 各レベルは学習段階で区別され,レべ  ル 1 には最も平易な語彙,レベル 5 には最も難解な語彙が収録されている.WSDの評価データとして, Raganato ら [16] が公開した ALL データセットを用いた ${ }^{3)}$.このデータセットは, Senseval と SemEval という WSD に関する各コンペティションの評価データを結合させたものである.個々のデータセットでは,高レベルの単語数が少ないものがあり,本研究での分析に不十分な場合がある. ゆえに ALL データセットを用いることにした. ## 4.1 難易レベルと WSD 正解率との関係 北大語彙表の難易レベルごとに,WSD の正解率を平均した結果を表 2 に示す. どのレベルでも正解率は 7 割を超え,レベルが上がるほど正解率も上がる傾向にある。一般に,難解な(高レベルの)単語ほどコーパスでの出現頻度が低く, 十分な訓練情報が得られない. そのため,高レベル語は正解率が低いことも予想された. しかしこの結果は,その予想とは逆の傾向を示している。低レベル語ほど様々な文脈で使われ,高レベル語ほど限定された文脈で使われることが多い. よって, 高レベル語は使用機会が少ないが,持つ語義の数も少なく,WSDでは高レベル語の方が語義の特定が容易な可能性を考えた. この仮説を検証するため,レベル毎の単語に対する語義数の平均値と標準偏差を WordNet 3.0 上で調査し,表 3 にまとめた。この表を見ると,レベル 1 に属する語彙に関しては語義数の平均値と標準偏差が 10 を超え,語義数が多様な単語が集まっていることが分かる.全体を見ると,レベルが上がるほど語義数の平均値と標準偏差が小さくなる傾向にある. この結果は, 高レベル語は語義数が少ないため,適切な語義を当てやすいという仮説を支持するものである. また表 1 と表 2 を見比べて分かるように,北大語彙表でレベル 1 の語彙サイズ(単語数) は小さいにもかかわらず,ALL データセットでは WSD の対象となるレベル 1 の単語頻度が多い.こ 3) http://lcl.uniroma1.it/wsdeval/evaluation-data表 4 ALLデータセットで最も出題された 10 語の結果 の理由も表 3 から説明できる.高レベル語はそもそもWSD が不要な場合が多い。一方でレベル 1 の単語は,多数の語義を持つことがあり使用頻度も高いため,WSDの対象となりやすい. ## 4.2 語義単位のエラー分析 低レベルの基本的な語彙に対して,WSD が失敗しやすい原因を考察する。表 4 は ALL データセットにおいて,WSD の対象となる最頻出 10 語の情報を掲載したものである. 大半を占める 8 語が,レべル1の単語であった. これらの単語の中に, 正解率が高い単語と低い単語が混在する。例えば, “use” は 76\%の高い正解率を有するが,“say” “make”の正解率は $30 \%$ 台しかない。したがって,正解率が著しく低い単語の影響で,レベル 1 の語彙に対する全体の正解率が低下したと考える。 そこで,正解率の低い単語 “say”を例として,語義単位でのエラー分析を行った。まず,“say”の各語義に関する情報を表 5 に示す。なお,WordNet 3.0 に存在する “say” の語義数は 12 であるが,この表では実験に関係する 8 つの語義に限って掲載した.表中の Sense Key とは,WordNet において各語義に付与された固有の認識番号である.頻度とは,語義アノテーション付きコーパス SemCor 3.0 における語義毎の出現頻度である. なお SemCor 3.0 は, LMMS-SP の訓練データの一部であるため,高頻出の語義ほど LMMS-SP に訓練事例が多く与えられたことを意味する.品詞と説明は,語義に対して WordNet 上で付与された品詞と説明である. 最頻出語義(MFS)は say\%2:32:00:: で,この語義は広く使用されるものであることが分かる.続いて頻出の語義は say\%2:32:01:: である.残りの語義は前述の語義 表 5 単語 “say” の各語義に関する情報 表 6 単語“say”の各語義に対する結果 2 つと比較して使用頻度が低い. 次に, “say” の各語義に対して,WSDを試みた結果を表 6 に示す.この表における対角成分は,各語義に対する正解率を表す. 対角成分の分母がゼロということは, LMMS-SP がどこかのインスタンスへある語義を付与したが,実際にはその語義を正解とするインスタンスは一つもなかったことを意味する.結果を見ると,高頻出語義 say\%2:32:00:: と say\%2:32:01:: は正解率が高い傾向にある。一方で,まれにしか使用されない低頻出語義(LFS)say\%2:32:13:: と say\%2:32:15:: に対する WSD は完全に失敗している. 誤り方の傾向を確認すると,LFSを高頻出語義へと割り当ててしまうことが多いようである. 既存の WSD モデルは,MFS の割り当てに対して強いバイアスがあることが指摘されており,MFS の WSD に対しては高い性能を有するが,それ以外の LFS の性能は低いことが多い $[17,18,19]$. LMMS-SP は,WordNetの語義を網羅した意味埋め込みを活用することで,MFS fallback 4 )をしないことが利点であるが [20], 実験結果から LMMS-SP でも高頻出語義を過剩に割り当てる様子を確認した.基本的な単語 4)正解の語義に対する訓練データがない場合,インスタンスに MFSを割り当てること. は多くの語義を持つが,その中でよく使われる“平易な”語義は限られる。よって,まれな語義を多く持つ単語に対して,高頻出語義の誤った割り当てが頻発したと考える. ## 5 おわりに LMMS-SP の性能と英単語の難易レベルとの関係を調べた. どのレベルでも WSD の正解率は平均して 7 割を超え,レベルが高くなるほど正解率が高くなる(WSD が容易になる)傾向があった.高レべル語はコーパスでの出現頻度が低いが持つ語義の数も少なく,分散表現の活用により,出現頻度が低いことによる悪影響を軽減できた可能性がある。その一方で,低レベル語は単語自体は平易でありながらも多数の語義を持ち,一部の語義しか頻繁に使われないことが WSD を難しくすることも示唆された。語義単位でのエラー分析の結果, LMMS-SP は他の WSD モデルと同様に,LFS を高頻出語義と誤ることが多いようである.LMMS-SP の教育的な応用については,難しい語彙を学びたい上級者への利用は効果的と考えられる。 しかし,LFS を正確に捉えるための利用にはまだ課題が残されている。 ## 謝辞 本研究の一部は JSPS 科研費 JP19K12266, JP22K18006 の助成を受けたものです. ## 参考文献 [1] Anagha Kulkarni, Michael Heilman, Maxine Eskenazi, and Jamie Callan. Word sense disambiguation for vocabulary learning. In Proceedings of the 9th International Conference on Intelligent Tutoring Systems, pp. 500509, 2008. [2] Kevin Dela Rosa and Maxine Eskenazin. Impact of word sense disambiguation on ordering dictionary definitions in vocabulary learning tutors. In Proceedings of the 24th International Florida Artificial Intelligence Research Society Conference, pp. 507-512, 2011. [3] Jasper Degraeuwe and Patrick Goethals. Interactive word sense disambiguation in foreign language learning. In Proceedings of the 11th Workshop on NLP for Computer Assisted Language Learning, pp. 46-54, 2022. [4] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems 30, pp. 1-11, 2017. [5] Soojeong Eom, Markus Dickinson, and Rebecca Sachs. Sense-specific lexical information for reading assistance. In Proceedings of the 7th Workshop on Building Educational Applications Using NLP, pp. 316-325, 2012. [6] Daniel Loureiro, Alípio Mário Jorge, and Jose CamachoCollados. LMMS reloaded: Transformer-based sense embeddings for disambiguation and beyond. Artificial Intelligence, Vol. 305, p. 103661, 2022. [7] Adam Kilgarriff. BNC database and word frequency lists, 1995. https://www.kilgarriff.co.uk/bnc-readme. html. [8] 杉浦千早. 高校英語教科書語彙リストの作成と使用語彙の検討. Language Education and Technology, Vol. 39, pp. 117-136, 2002. [9] 園田勝英. 大学生用英語語彙表のための基礎的研究.北海道大学言語文化部, 1996. [10] Daniel Loureiro, Kiamehr Rezaee, Mohammad Taher Pilehvar, and Jose Camacho-Collados. Analysis and evaluation of language models for word sense disambiguation. Computational Linguistics, Vol. 47, No. 2, pp. 387443, 2021. [11] Adam Kapelner, Krishna Kaliannan, H. Andrew Schwartz, Lyle Ungar, and Dean Foster. New insights from coarse word sense disambiguation in the crowd. In Proceedings of the 24th International Conference on Computational Linguistics, pp. 539-548, 2012. [12] Koki Miyata, Takahiko Suzuki, and Sachio Hirokawa. Difficulty and ambiguity of verbs: Analysis based on synsets in Japanese WordNet. In Proceedings of the 1st International Conference on Advanced Information Technologies, pp. 1-4, 2013. [13] Takahiko Suzuki, Koki Miyata, and Sachio Hirokawa. Dif- ficulty of words and their ambiguity estimated from the result of word sense disambiguation. In Proceedings of the 11th International Conference on Knowledge, Information and Creativity Support Systems, pp. 1-5, 2016. [14] Jonas Ekedahl and Koraljka Golub. Word sense disambiguation using WordNet and the Lesk algorithm. Projektarbeten 2004, Vol. 17, pp. 1-6, 2004. [15] Christiane Fellbaum (Ed.). WordNet: An Electronic Lexical Database. The MIT Press, 1998. [16] Alessandro Raganato, Jose Camacho-Collados, and Roberto Navigli. Word sense disambiguation: A unified evaluation framework and empirical comparison. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics, pp. 99-110, 2017. [17] Marten Postma, Ruben Izquierdo, Eneko Agirre, German Rigau, and Piek Vossen. Addressing the MFS bias in WSD systems. In Proceedings of the 10th International Conference on Language Resources and Evaluation, pp. 1695-1700, 2016. [18] Marten Postma, Ruben Izquierdo Bevia, and Piek Vossen. More is not always better: balancing sense distributions for all-words Word Sense Disambiguation. In Proceedings of the 26th International Conference on Computational Linguistics, pp. 3496-3506, 2016. [19] Minh Le, Marten Postma, Jacopo Urbani, and Piek Vossen. A deep dive into word sense disambiguation with LSTM. In Proceedings of the 27th International Conference on Computational Linguistics, pp. 354-365, 2018. [20] Daniel Loureiro and Alípio Jorge. Language modelling makes sense: Propagating representations through WordNet for full-coverage word sense disambiguation. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5682-5691, 2019. ## A様々な語彙表に対する難易レベルと WSD 正解率の関係 図 1 様々な語彙表に対する難易レベルと WSD 正解率の関係。各語彙表は凡例の左から,杉浦リスト英語 I(SUGI1),杉浦リスト英語 II(SUGI2), BNC 語彙表(BNC), 北大語彙表(HUEVL), JACET8000(JACET), ALC-SVL12000(SVL) の順で並んでいる。語彙表ごとにレベルの粒度や掲載語数が異なるため,同一レベルでの語彙表間の比較はできないことに注意する.SVLを除く全ての語彙表で,正解率が最低となったのはレベル 1 であった. また,ほとんどの語彙表において高レベルの正解率が高い。なお SVL はレベル分けが細かすぎるため,レベル毎の単語数が極端に少なくなり,高レベルの正解率が安定せず変動した可能性がある. ## B 単語 “use”に関する WSD のエラー分析 表 4 において高い正解率(76\%)を示した単語 “use”に対する WSD の詳細な結果を掲載する.表 7 は “use” の各語義に関する情報,表 8 は各語義に対する WSD の結果である. 各表の見方は, 4.2 節で述べた表 5 , 表 6 の見方と同様である。これらの表から,“use”も“say”と同様に多数の LFS を持つが,ALLデータセットにおいて高頻出語義を正解とするインスタンスが多いため,正解率が高かったことが分かる. 表 7 単語 “use”の各語義に関する情報 表 8 単語 “use” の各語義に対する結果
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C7-1.pdf
# Development, Evaluation, and Further Research of Voice-enabled Chatbot for English as a Foreign Language Julio Christian Young ${ }^{1}$ Makoto Shishido ${ }^{2}$ Graduate School of Advanced Science and Technology, Tokyo Denki University }^{1}$ \{julio.christian.young\}@gmail.com ${ }^{2}\{$ shishido\}@mail.dendai.ac.jp \begin{abstract} Studies show that chatbots can help new EFL students practice their communication skills. However, several problems in the EFL learning chatbot still have not been fully addressed. Two of the problems are the appropriateness of TTS to produce audio materials within the chatbot and a standalone chatbot that could work without an internet connection. This study compared quantitative and qualitative aspects of TTS- and native speakers-produced to address the first problem. Besides that, we created and evaluated a standalone chatbot using lightweight speech recognition to address the second. Furthermore, we discuss other topics worth investigating based on these two results. \end{abstract ## 1 Introduction Learning a new language can be daunting, especially for English as a Foreign Language (EFL) students. As EFL students often lack time and opportunity to practice, they will feel awkward and fear being judged when they get a chance. In the long term, this situation can lead students to doubt their abilities and lose motivation to learn $[1,2]$. Several studies in the past $[3,4,5,6,7,8]$ showed that chatbots could be ideal learning partners, especially for EFL students with low language proficiency. Research in $[3,5,6]$ argued that students tend to feel less anxious when practicing with chatbots. Based on their input type, two kinds of chatbots that often used in the EFL learning context: text-based and voice-enabled chatbots. While text-based implementations often interact with their students in free-typed text format, voice-enabled chatbots are usually implemented via multi-choice text inputs that students can choose by read-aloud one of the choices available. This mechanism was preferred as chatbots that process direct voice input often led to communication breakdown. A communication breakdown might occur as the chatbot tries to reply based on an incorrect transcription by the speech recognition module in the chatbot. Even though implementing multi-choice text inputs limits students' interactions, researchers believe it could still be helpful to support students with low language proficiencies [5]. As they still have limited vocabulary to produce their sentences, predefined choices could help them to interact with the bot. Moreover, by employing a mechanism that compared the transcription result with the reference text, the application could provide meaningful feedback regarding students' mispronunciations. Besides the SR module, the quality of the voice response from the chatbot is another factor that influences the success of EFL learning chatbots. Ideally, prerecorded responses produced by native speakers would be best to mimic an actual conversation experience with a human partner. However, involving native speakers will increase the cost and time of application development. In [5], the researcher demonstrated how TTS technology could substitute the involvement of native speakers. Even though TTS produced all audio used in [5] almost $85 \%$ of participants in the experiment felt the audio sounded natural. The overall evaluation of the chatbot also revealed that most participants enjoyed their learning experience using the chatbot. In our study, to support EFL students' English learning journey, we developed a voice-enabled chatbot to help students practice their speaking skills. Although similar studies have been conducted, our study will address the remaining challenges that have not been adequately addressed. ## 2 Problem Statement Despite many previous studies on EFL learning with chatbots, several issues still have not been entirely covered. In our study, there will be two issues that we want to address. Lack of comparison of audio materials produced by native speakers and TTS technology - None of the previous studies explicitly compared the use of TTS- and native speakers-produced materials for EFL learning chatbots. In our study, we compared the qualities between TTS- and native speakers-produced materials for sentences in dialogue format. Since chatbots process sentences in dialog format, this comparison could reflect the suitability of TTS-produced materials in them. Implementation of the SR in the chatbot relies on the Internet - To the best of our knowledge, all previous studies that explored the usage of voice-enabled chatbots for EFL learning relied on cloud-based SR services [3, 4, $5,6]$, which rely on the internet. As they rely on the internet, students' interaction would be disrupted with the app when the internet connection is unstable. In the worst scenario, students with a bad Internet connection would be unable to use the app. Unlike previous research that relied on cloud-based SR services, our study tried to explore the possibility of using a small SR model. As a small SR model only require low computational power, it could be run on students' own devices, thus making it works without the internet. A small SR model developed in [9] shows good transcription accuracy despite using less than $400 \mathrm{Mb}$ of memory. While big models usually need about $16 \mathrm{~Gb}$ of memory to achieve a word error rate (WER) of $5.6 \%$, this model achieves a WER of $9.85 \%$ with far less memory. Despite its promising performance, no previous studies have attempted to implement small SR. Even though the small SR model has relatively lesser performance than the big one, its implementation potential for achieving standalone chatbot EFL learning is worth investigating. Therefore, our study tries to measure the suitability and performance of a small SR model in EFL learning chatbots. ## 3 Research Settings ## 3.1 The Comparison of Two Audio Types We designed a blind comparative test scenario involving native speakers and TTS audio materials to address the first problem. Sixty undergraduate EFL students participated in the test. All students had studied English in formal learning settings for about 13 to 14 years. During the test, participants were asked to listen to each audio material in random order without knowing whether native speakers or TTS produced it. After that, they were asked to judge the audio material and transcript its content. Moreover, ten audio transcriptions used in the test were taken from an English learning textbook in [10]. As there were two audio materials for each audio transcription, each participant needed to listen to twenty audio materials to finish the test. While native speakers' audio materials were taken from supplementary materials with the book, TTS-produced materials were produced using WaveNet TTS with North American English. WaveNet TTS was chosen since it produced significantly better audio quality than other TTS methods [11]. In the test, we compared native speakers- and TTSproduced audio materials qualitatively and quantitatively. The qualitative aspects measured in the experiment are pronunciation accuracy (PA), naturalness (N), comprehensibility (C), and intelligibility (I). Comprehensibility measures how easy to hear given audio. Intelligibility measure how well they can understand it. Data related to these criteria will be collected using a 6point Likert scale question. Other than that, word error rate (WER) was chosen as a metric to compare two audio material groups quantitatively. The WER on each audio material was calculated by comparing the reference transcription from a given audio and each participant. The WER score can represent how effortlessly students understand specific audio materials. ## 3.2 Usability of a Small Speech Recognition Model for EFL Learning Chatbots We developed an android-based EFL learning chatbot for practicing English speaking skills to measure the suitability of a small SR model. The developed chatbot is a voice-enabled chatbot with multi-choice text inputs with a small SR module from [9]. Fifteen undergraduate students with 13 to 14 years of English learning experience participated in this experiment. Participants were asked to use the app for a week and finish at least two topics within the chatbot. All participants' resulting transcriptions were recorded to be analyzed after. In the app, the bot will always initiate the conversation, and users can choose one from three or four available responses as a reply. Based on a user reply, the bot will continue the conversation until there is no other response that the bot cannot return. Whenever users choose a reply, they can click a new bubble chat containing their response to practice their speaking skills. The app will mark parts of the sentence that do not appear in the resulting transcription by the SR module in red. Otherwise, in green. Figure 1 depicts the chatbot and user interaction in the app. Figure 1. The bot and user interaction in the app After a week, they were required to fill out a post activity questionnaire to capture their perceived usefulness (PU), perceived ease of use (PE), and attitude toward using (TA) the EFL learning chatbot. The questions asked to the participants were 6 Likert-type questions given in Table 1. Besides that, the WER calculation was also done with the collected transcriptions. The purpose is to measure the WER of a small SR model, specifically for EFL learning chatbots. As the SR model implemented in the chatbot also has dynamic vocabularies features to target only specific vocabularies, the resulting WER might be lower than the previously mentioned WER in [9]. ## 4 Results ## 4.1 The Comparison of Two Audio Types The result on qualitative aspects of native speakersand TTS-produced audio materials can be seen in Table 1. The slight difference in another three criteria (except $\mathrm{N}$ ) between the two audio types shows that TTS-produced audio can be appropriate for producing listening materials in dialogue format, thus making it suitable for a chatbot. On top of that, a significant standard deviation from naturalness on TTS-produced materials indicates that several students might believe that sounds natural while others do not. Table 1. Participants perceived audio quality Questions Has ASR correctly recognized and evaluated what you said? (PU-1) Does practicing speaking skills with ASR give you a more controllable and personalized learning environment? (PU-2) Do you feel comfortable practicing your speaking skill with the help of ASR? (PE-1) Do you feel convenient as you need to emphasize clarity (speaking slowly) when you practice using ASR? (PE-2) How interested are you in a learning system with ASR that can help practice your English speaking skill? Do you want to adopt the learning system with ASR to practice your English speaking skill? Table 2. Perceived Quality of Both Audio Groups \cline { 3 - 6 } & & PA & N & I & C \\ \cline { 2 - 6 } & Std Dev. & 0.75 & 0.92 & 0.62 & 0.67 \\ \cline { 2 - 6 } & Std Dev. & 0.75 & 1.34 & 0.68 & 0.67 \\ Furthermore, the WER on each audio materials group was calculated using the participants' resulting transcriptions. While transcriptions using native speakersproduced materials got a WER of 0.068 , the TTSproduced ones got 0.062 . In contrast to the result in the comprehensibility criterion that favors native speakersproduced materials, low WERs on both audio types indicated that participants could easily understand both. Following such results, we investigated what kind of sentences resulted in more errors in the native speakersproduced materials. After looking further, we notice that transcriptions based on native speakers-produced materials miss words more often than TTS ones. As native speakers often reduce, contract, and mash some combination of words in their spoken form, low- to intermediate-level students might miss one of the words while listening to them. However, further investigation is needed to support this claim. ## 4.2 Usability of a Small Speech Recognition Model for EFL Learning Chatbots The summary of results from the post activity questionnaire towards the EFL Learning chatbot with a small SR model is given in Table 3. Table 3. Post-Activity Questionnaire Result The result concluded that participants agreed that the chatbot could correctly recognize and evaluate their speech, thus enabling them to practice their speaking skills. Moreover, the PE-1 value showed that participants agreed to feel comfortable speaking with the chatbot. However, the low PE-2 value indicates that they might feel awkward as they need to speak slowly while using the chatbot. Finally, participants seemed interested in practicing English using the chatbot based on the final average from TA-1 and TA-2. Next, the WER was calculated to determine the significant performance gain of dynamic vocabulary features in the SR model for a specific application. While the SR model used achieved a WER of $9.85 \%$ in a more general dataset, it achieved a WER of $7.42 \%$ in the experiment. The lower WER score indicated that implementing the dynamic vocabulary feature allows the model to perform better. Following such findings, we also did an open-ended group discussion with participants to gather opinions about their learning experiences while using the app. A participant in the discussion mentioned feeling less enthusiastic about using the app after using it for some time. The participant also added that it would be interesting if there were more features besides speech evaluation in the application. Following this statement, other participants also agree that different types of exercise might make the application more challenging, thus making it more fun. ## 5 Discussions ## 5.1 Further Evaluation on TTS and Nativespeakers Audio for EFL Learning Our evaluation results indicate that students made fewer errors when transcribing TTS materials than ones produced by native speakers. Native speakers sometimes link words together to make them sound natural, yet make them sound different and challenging to be understood by students. Alternatively, TTS materials might pronounce each word in the sentence individually, thus making it easier for students to grasp but sounding unnatural. However, as only ten audio pairs were compared in our study, they would be enough to capture different types of linking in connected speech. Therefore, further studies are needed to analyze the differences between TTS- and native-speaker-produced materials to prove such a claim. Furthermore, we suggest that future research involves using speech recognition technology rather than involving students in the audio transcription process. SR technology enables the comparison process for large amounts of data, thus making the research result more reliable. On top of that, various SR models with different transcription performances could capture the difference between two audio groups across different levels of competency ## 5.2 Improving Chatbot Interactivity There are a few ways we can try to improve interactivity within the chatbot. One approach could be to make the chatbot more engaging by incorporating a wider range of content and activities. Presently, no active learning activities are done while students listen to audio responses by the chatbot. Therefore, in the future update, we plan to implement the fill-in-the-blank and sentence scramble features in the app. To implement the listening fill-in-the-blank feature, we can modify the text response returned by the bot by replacing a random word with a blank line. Thus, instead of passively listening to the bot's response, students can actively interact with the app by filling in the blank line after each listening session. By listening to a spoken language recording and filling in the missing words, students can practice using the vocabulary in context and become more familiar with it, thus reinforcing their understanding of such words and how to use them correctly. Similarly, the sentence scramble feature can be employed by modifying the text response by the bot. In this activity, students will get a jumbled sentence and its spoken form in the correct order for each response from the bot. Then, based on the jumbled sentence, they need to rearrange the words to form a grammatically correct and coherent sentence. By completing sentence scramble activities, students can improve their ability to understand and produce grammatically correct sentences. ## References [1] Aiello, J., \& Mongibello, A. (2019). Supporting EFL learners with a virtual environment: A focus on L2 pronunciation. Journal of e-Learning and Knowledge Society, 15, 95- 108. https://doi.org/10.20368/1971-8829/1444. [2] Huang, X., \& Jia, X. (2016). Corrective feedback on pronunciation: Students' and teachers' perceptions. International Journal of English Linguistics, 6(6), 245-254. https://doi.org/10.5539/ijel.v6n6p245. [3] Han, D. E. (2020). The Effects of Voice-based AI Chatbots on Korean EFL Middle School Students' Speaking Competence and Affective Domains. [4] Shishido, M. (2018, June). Developing e-learning system for English conversation practice using speech recognition and artificial intelligence. In EdMedia+ Innovate Learning (pp. 226-231). Association for the Advancement of Computing in Education. [5] Shishido M. (2021). Developing and Evaluating the e-learning Material for Speaking Practice with the Latest AI Technology ISSN: 2189-1036 - The IAFOR International Conference on Education Hawaii 2021 Official Conference Proceedings. [6] Shishido, M. (2019, June). Evaluating e-learning system for English conversation practice with speech recognition and future development using AI. In EdMedia+ Innovate Learning (pp. 213-218). Association for the Advancement of Computing in Education. [7] Kim, N. Y. (2018). A study on chatbots for developing Korean college students' English listening and reading skills. Journal of Digital Convergence, 16(8), 19-26. [8] Shin, D., Kim, H., Lee, J. H., \& Yang, H. (2021). Exploring the Use of An Artificial Intelligence Chatbot as Second Language Conversation Partners. Korean Journal of English Language and Linguistics, 21, 375-391. [9] Alpha Cephei. (2020). Vosk Offline Speech Recognition Performance. [Online]. Available: https://alphacephei.com/vosk/models [10] Shishido, M., "Checking in at the airport Listening Practice," in Virtual Travel around the World,バーチャル世界旅行: チャットボットで学ぶ旅行英会話, 1st ed. Tokyo, Japan: Seibido, 2022 [11] Oord, A. V. D., Dieleman, S., Zen, H., Simonyan, K., Vinyals, O., Graves, A., ... \& Kavukcuoglu, K. (2016). Wavenet: A generative model for raw audio. arXiv preprint arXiv:1609.03499.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C7-2.pdf
# BERT による系列ラベリングを用いた文法誤り検出 岡本昇也 ${ }^{1}$ 南條浩輝 ${ }^{2}$ 馬青 1 1 龍谷大学理工学研究科 2 滋賀大学データサイエンス学部 ${ }^{1}$ t22m002@mail.ryukoku.ac.jp ${ }^{2}$ hiroaki-nanjo@biwako.shiga-u.ac.jp ${ }^{1}$ qma@math.ryukoku.ac.jp ## 概要 本研究では,文法誤り検出システムを実装し,先行研究と比較した. 先行研究では文法誤り検出を系列ラベリングタスクとし,BiLSTMを用いた。我々は,BERT を用いて同じく系列ラベリングタスクとして解き,文法誤り検出システムを実装した. 実験の結果,BERTを用いての文法誤り検出システムは,適合率,再現率, $\mathrm{F}(0.5)$ 值のすべてにおいて,先行研究の BiLSTM 上り高かった. また, 文字レベルのモデル Flairを用いた実験も行い,適合率がさらに高くなったという結果が得られた。 ## 1 はじめに 近年, 言語学習者向けの作文支援システムは多く開発されている。その中には学習者の作文の文法誤りを自動で訂正するシステムや,学習者の作文を自動評価し点数をつけるシステムなどがある. このような作文支援システムにより, 学習者及び教育者の負担を軽減することができる [1]. 本研究では,作文支援システムのための文法誤り検出 (Grammatical Error Detection: GED) に取り組む。これは,文法誤りを含む文を入力すると文法の誤っている位置をユーザに提示するシステムである. 言語学習者が作文を書く際に,指導者なしで文法誤り位置を確認することを可能とする技術であり,作文支援システムの基本となる重要な技術である。文法誤り訂正 (Grammatical Error Correction) は,文法誤り検出(GED)の結果に基づき,誤りを正しい表現に自動訂正するものであり,GEDはこの前段階の技術としても重要である. 文法誤り検出 (GED) に関しては, 近年では深層学習を用いた研究が精度を上げ英語では BiLSTM を用いることで最高精度の誤り検出を行っている [2].英語では深層学習を用いた文法誤り検出の研究が多くなされている。これに対して,日本語では深層学習を用いての文法誤り検出の研究は先行研究 [1] などが行われているものの,十分であるとは言えない.このような背景に基づき,我々は日本語を対象とした深層学習に基づく文法誤り検出を研究し, その効果を確認する。 文法誤り検出を深層学習を用いて行うためには大規模のデータセットが必要となる.そこで,本研究では,大規模なデータセットである Lang-8 コー パス [3] を利用する. Lang-8 コーパスは,語学学習のための SNS Lang-8 の添削ログからクローリングして作られた,誤りを含む文とその訂正文からなるデータである.約 200 万文対からなり,文法誤り訂正用のデータとしては規模の大きいものである. 本研究では,文法誤り検出を系列ラベリングタスクとして解くことを目指す. 系列ラベリングとは,系列の各要素もしくは部分系列に対してタグ付けを行う手法である。代表例として,品詞タグ付けやチャンキングなどがある。文法誤り検出は,作文を単語系列として扱い,各単語に正解または誤りのラベルを付与する系列ラベリング問題として表現できる. 先行研究 [1] では BiLSTMを用いて, 文法誤り検出を系列ラベリング問題として解いている. BiLSTM では,前後の文脈情報を考慮して正誤ラべルの判定を行えるが,遠く離れたデータの影響を扱うのが難しい問題が残る.日本語における文法誤り検出には,「全然〜ない」などの遠く離れた関係や,基本的に文末に置かれる用言と文中の格助詞の関係を考慮する必要がある.BiLSTM よりも,系列中の各単語同士の直接的に影響を考慮できる attention 機構をもつモデルのほうが望ましいと考える。そこで本研究では BERTを用いる. 図 1 BERT の系列ラベリングの構造(文献 [6] の図 4 の (d) を引用) ## 2 系列ラベリング ## 2.1 BERT による系列ラベリング BERT (Bidirectional Encoder Representation from Transformer)は, attention 機構のみで構成される Encoder-Decoder モデルである Transfomer[4] の Encoder の部分を用いたモデルである. BERT を用いた系列ラベリングは,BERT の出力に線形変換を適用したものとして実装される [5].学習の際は,文を符号化したものを BERT に入力し,損失を計算する.損失関数はクロスエントロピーを用いた. BERTでの一般的な系列ラベリングの様子を図 1 に示す. ## 2.2 系列ラベリングによる文法誤り検出 文法誤り検出は,各単語に正解または誤りラベルを付与するタスクに該当すると考えられる。 そのため,本研究では,文法誤り検出を系列ラベリングタスクとして扱う。図 1 では,系列ラベリングの BIO 法で行っているが(B-PER は BIO の B に対応している), 本研究では, BIO 法でなくIO 法で行った. BERT の系列ラベリングを用いた文法誤り検出の様子を図 2 に示す. 出力ラベルの I と C は IO 法の I と $\mathrm{O}$ に対応している. このような,モデルを用いて学習するために各単語に正解または誤りのラベルが付与されている必要がある. 図 2 BERT での文法誤り検出 図 3 Lang-8 データの一例 ## 3 データセットの作成 データセットの作成に Lang-8 コーパス [7]を使用した. ## 3.1 Lang-8 Lang-8コーパスは学習者の作文であるエッセイとその添削結果からなるコーパスである,各エッセイには,エッセイ ID,ユーザーID,学習言語タグ,母語タグが付与されている。すべての学習者の文には 1 以上の添削文が付与されている. 本研究では, Lang-8コーパスに含まれる, 日本語学習者が書いた添削前の文である誤用例と日本語母語話者が添削した文である正用例のペア 72.2 万文対を用いる. その例を図 3 に示す. ## 3.2 データセットへの単語の正誤ラベル 付与 Lang-8 コーパスは,学習者の作文(誤用例)とそれを訂正した作文(正用例)のペアからなるコーパスである。誤用例文のどの単語が誤り単語であるかは正用例文を見ることで確認できるが,元の誤用例文の各単語に直接的に誤りラベルが付与されているわけではない. したがって,系列ラベリング問題に使うためには,誤用例文の各単語に正誤ラベルを付与しておく必要がある. そこで,アライメントツール [8]を使用して,各単語にラベル付けを行った。具体的には 72.2 万文対の日本語誤用例文と正用例文の対にそれぞれに対して,アライメントツールを用いて単語アライメン 図 4 Lang-8コーパスのラベル付けの様子 (別の語に置換される場合) 図 5 Lang-8コーパスのラベル付けの様子 (余計な語があ了場合) トをとり,一致しているところを C (正解),一致しないところをI(誤り)とした. ラベル付けの様子を図 4 , 図 5 に示す. 図 4 は,単語アライメントをとった際に対応する単語が誤っている場合のラベル付けの例である. 図 5 は,単語アライメントをとった際に誤用例の方の単語に対応する単語がない場合のラベル付けの例である. 本研究では,単語アライメントをとった際に正用例の方に対応する単語がない場合は扱っていない. このラベル付けされた誤用例データをデータセットとして実験で使用する.本論文では,このデータセットを誤用タグ付きデータセットとよぶことにする. ## 4 実験 ## 4.1 実験データ 文法誤り検出の実験には,誤用タグ付きデータセットを使用する. 72.2 万の誤用タグ付きデータセットを表 1 に示す通り, 学習データ,検証データ,評価データに分割した。 ## 4.2 評価方法 各単語に対して正誤ラベルを推定し,誤ラベルの一致度でその性能を評価する。評価尺度には,全ての誤ラベルのうち,どの程度を正しく検出できたかを表す再現率(Recall)と,誤ラベルと検出した中で正しく誤ラベルであった適合率(Precision)を用いる. 再現率と適合率は通常トレードオフの関係にあるので,この両者の調和平均である $\mathrm{F}$ 值を用いる. $\mathrm{F}$ 值は式(1)で与えられる。ここで, $\beta(\geq 0)$ は適合率と再現率のどちらかをどの程度重要視するかのパラメータであり, $\beta=1$ のときは両者を等しく扱い, $0 \leq \beta<1$ のときは適合率を重視し, $1<\beta$ のときは再現率を重視する. $ F(\beta)=\frac{\left(\beta^{2}+1.0\right) \times \text { Precision } \times \text { Recall }}{\beta^{2} \times \text { Precision }+ \text { Recall }} $ 外国語学習のために誤り箇所を指摘する(フィードバックする)ことを考えたとき,文法誤りでないものを誤りとフィードバックすることは望ましくなく,正確なフィードバックの方がカバレッジの高い誤り検出よりも学習効果があるとされている [9]. つまり,多くの文法誤りをきちんと誤りとフィードバックする(再現率が高い)ことよりも,与えた誤りであるというフィードバックが正しい(適合率が高い)ことが学習にとって望ましい。そこで本研究では,適合率を重視する $\mathrm{F}(0.5)$ で評価した。 ## 4.3 実験条件 本研究で使用した BERT は,東北大学が公開している日本語事前学習済みのモデルを用いた.BERT のハイパーパラメータは,最適化アルゴリズムを AdamW(学習率が 0.00001)に,バッチサイズを 32 文にして,検証データを用いて最もロスの少ないエポック数を決定した。 比較のために,先行研究の BiLSTMを用いたシステムを実装したものと,系列ラベリングタスクにおいてよい性能を示している Flair[10][11]を用いた実験を行った. Flair では,文字エンベディングに基づく単語エンベディングのみを用いるモデルと,それに BERT エンベディングを加えた単語エンベディングを用いるモデルを用いた。このようにして得られた単語エンベディング系列をBiLSTM_CRF で系列ラベリングする.前者を Flair+BiLSTM_CRF,後者を Flair_BERT+BiLSTM_CRF と表記することとする。 それぞれのモデル構造は図 6 と図 7 に示す. 最適化アルゴリズムには SGDを使用した。ただし,学習率を 0.1 とし, 5 エポック連続で学習損失が減少しない場合に学習率を半分にするアニーリングを行う [11]. バッチサイズは 32 とした. ## 4.4 実験結果 各モデルにおける文法誤り検出の評価結果を表 2 に示す。適合率 (Precision) と再現率 (Recall), $\mathrm{F}(0.5)$ 全てにおいて BiLSTM に比べて BERT の方が 表 2 日本語文法誤り検出の評価 図 6 Flair のモデルの構造 図 7 Flair_BERT のモデルの構造 [10][12] 上回っている. 重視している適合率に注目すると Flair+BiLSTM_CRFが最も高い 0.773 となった. ただし, 再現率は 0.107 と低く, 比較的正確なフィードバックは行えるものの多くの文法誤りを見逃している結果となった。一方,BERTを用いたモデルは適合率が Flair モデルに比べるとやや低いものの 0.639 であり, 再現率が 0.226 と Flair のモデルに比べて高かった. 総合的な指標 $\mathrm{F}(0.5)$ では BERT が最も高かった. また,単語エンベディングに文字エンベディングと単語エンベディングを用いた Flair モデル (Flair_BERT+BiLSTM_CRF)については,文字エンベディングのみの Flair(Flair+BiLSTM_CRF)と BERT の中間的な結果となっており, Flair+BiLSTM_CRF の適合率と BERT の再現率のよさをそれぞれ活かせるハイブリッド型的なモデルになっている. 文字レベルのモデルを用いると,正確なフィードバックが期待でき,BERTなどの単語レベルのモデルを用いると文字レベル程の正確なフィードバックは期待で きないが文字レベルのモデルに比べてカバレッジの高い文法誤り検出になると考える。 ## 5 終わりに 本研究では BERT を用いて文法誤り検出システムを実装し,先行研究との比較を行った. 実験の結果,BERT を用いての文法誤り検出システムは,適合率,再現率, $\mathrm{F}(0.5)$ 値のすべてにおいて,先行研究の BiLSTM より高かった. また,文字レベルのモデル Flairを導入することにより,適合率がさらに向上し,言語学習者へのより正確なフィードバックが期待できることがわかった. 今後は Flair の高い適合率と BERT の高い再現率を生かしたハイブリッドモデルを実装し,文法誤り検出の性能向上を図りたい. ## 謝辞 Lang-8 のデータ使用に際して,快諾くださった株式会社 Lang-8 社長喜洋洋氏に感謝申し上げます。 なお,本研究は JSPS 科研費 $19 \mathrm{~K} 12241$ の助成を受けたものです. ## 参考文献 [1] 新井美桜, 金子正弘, 小町守. 日本語学習者向けの文法誤り検出機能付き作文用例検索システム. 人工知能学会論文誌, Vol. 35, No. 5, pp. A-K23_1-9, 2020. [2] M. Rei and H. Yannakoudakis. Compositional sequence labeling models for error detection in learner writing. In Proceedings of ACL, pp. 1181-1191, 2016. [3] T. Mizumoto, T. Tajiri, T. Fujino, S. Kasahara, M. Komachi, M. Nagata, and Y. Matsumoto. Naist lang-8 learner corpora, 2012. https://sites.google.com/ site/naistlang8corpora/home. [4] A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N. Gomez, L. Kaiser, I. Polosukhin. Attention is all you need. In Neural Information Processing Systems, 2017. [5] 近江崇宏, 金田健太郎, 森長誠, 江間見亜利. BERT による自然言語処理入門 - Transfomers を使った実践プログラミングー. オーム社, 2021. [6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: pre-training of deep bidirectional transformers for language understanding. arXiv, 2018. http://arxiv.org/abs/1810.04805. [7] M. Tomoya, M. Komachi, and M. Nagata. Mining revision $\log$ of language learning sns for automated japanese error correction of second language learners. In Proceedings of the 5th International Joint Conference on Natural Language Processing, pp. 147-155, 2011. [8] Z. Dou and G. Neubig. Word alignment by fine-tuning embeddings on parallel corpora. In Conference of the European Chapter of the Association for Computational Linguistics (EACL), 2021. [9] R. Nagata and K. Nakatani. Evaluating performance of grammatical error de tection to maximize learning effect. In Proceedings of COLING, pp. 894-900, 2010. [10] A. Akbik, T. Bergmann, D. Blythe, K. Rasul, S. Schweter, and R. Vollgraf. FLAIR: An easy-to-use framework for state-of-the-art NLP. In NAACL 2019, 2019 Annual Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 54-59, 2019. [11] A. Akbik, D. Blythe, and R. Vollgraf. Contextual string embeddings for sequence labeling. In COLING 2018, 27th International Conference on Computational Linguistics, pp. 1638-1649, 2018. [12] G. Lample, M. Ballesteros, S. Subramanian, K. Kawakami, and C. Dyer. Neural architectures for named entity recognition. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 260--270, 2016.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C7-3.pdf
# テキストマイニングで知る語学教師の発話嗜癖 砂岡和子 ${ }^{1}$ 譚翠玲 $^{2}$ }^{1}$ 早稲田大学政治経済学術院 ${ }^{2}$ 北海道大学国際広報メディア・観光学院院生 ksunaoka@waseda.jp chuiling. tam.s3@elms. hokudai. ac. jp ## 概要 大学中国語初級クラス授業での教師の発話をテキストマイニングにかけ, 本人の言葉遣いの特徴を可視化する実験を行った. その結果, 授業活動の定量的構造分析では見えない語学教員の発話嗜癖を観察することができた. 教師 $\Leftrightarrow$ 学習者 $\Leftrightarrow$ 教材の三者間 Interaction が形骸化しないよう, 教師は自身の発話を自覚的にコントロールする必要があり, マイニングは発話振り返りのためのツールとして有効である. ## 1 研究背景と目的 近年, 学習者中心の教育に授業観の転換が強く求められ, コロナ禍によるオンライン教育を経て, どのように学習者が主体的・対話的で深い学びを実現できるのかが一層重要なテーマになっている[1][2]. Moore は教員と学習者との隔たりの関係を教育学的に説明する Transaction Distance Theory(交流距離理論)を提唱し, 対話(dialogue), 構成(structure), 自律性 (autonomy) が成功の鍵であると主張した[3]. 図 1 Types-of-interaction  Anderson 等はこのうちの「対話」を更に「教師↔学習者」「学習者 $\Leftrightarrow$ 教材」「教師 $\Leftrightarrow$ 教材」に細分し図 1, この 3 三者間の Interaction を活性化すれば, 深く意味ある学びを学習者に提供できると説いた $[8]$. ## 1. 1 研究の目的 大学の中国語初級クラスでの教師の発話特徴を, テキストマイニングによって可視化を試みる.教室での自身の言葉遣いの傾向を, 直感的に知る手段としてマイニングが有効なことを実証するためである。授業参与者の相互作用を分析する研究には, Class Action Research (AR), Learning Analytics (LA),生体情報の適応, エスノメソドロジーによる会話分析など,さまざまなアプローチがある.外国語授業活動の実証的分析には, Flint [8]や COLT, FOCUS などの枠組みが使われる[9]. だが教育現場はそれぞれ学習環境や教育目的が異なり, 授業参加者も同じではない。授業実践はどれも一回性で,かつ進行し続ける行為的現実 (actuarily) であるため[10], 上掲の静態的構造分析が一般性を持つとは限らない. そこで本稿は教師の授業発話をテキストマイニングにかけ, 本人の言葉遣いの特徵を把握する実験を行う. 初任段階の教員は内容を教えることに注力する余り, 自身の発話量をコントロールできない $[11]$.他方, 中堅・熟練教員は, 担当科目の知識や教育技術に習熟する反面, 教場での言葉遣いが習い性となり, 形骸化に気が付かない場合が多い[12]. 普段意識しない発話の癖が,ワードクラウド上に浮かび上がれば, 思い込みや知的孤立を回避する契機となろう。 ## 1.2 観察対象とデータ 2021 年実施の某大学中国語初級クラス授業 (一コ マ,breakout room2 回を含む約 60 分間)を録画し,全発話の文字書き起こしを行った。授業形式は HyFlex ${ }^{2}$ で, 出席学生数は対面 7 名+オンライン参加が 36 名の計 43 名(欠席者 6 名). 全員中国語初修者.中国語ネイティブのベテラン教員 1 名で授業担当 $(\mathrm{TA}$ 無) . 録画当日の授業内容は, 新しい課の単語の発音チェックと文型練習.学生は LMS(Moodle) での反転授業で予復習済み. 録画中の教師と学生の全授業活動を, Quality On The Line[13]の Benchmark に即し, Teaching \& Learning の複数カテゴリーに分類し, それぞれ生起回数と所要時間を定量的に記述した. その結果, 教員が全授業活動に占める割合は回数で $(61.4 \%)$, 時間数で (72.0\%) であった. 約 50 名と語学授業としては大規模クラスを, 遠隔と対面を双方に配慮しつつ運営する必要から, 教員主導の授業になったと思われる. 教員活動の中身は, (1)学生へのフィードバック, (2)指名, (3)指示, (4)質問, (5)解説が上位を占めた (回数で(1) $19.7 \%$ 、(2) $12.9 \% 、$ (3) $7.5 \% 、(4) 7.1 \% 、(5) 1.7 \% 、$時間比で(1) $20.4 \%$ 、(2)7.2\%、(3)4.5\%、(4)9.0\%、(5)10.2\%).本教員の基本授業スタイルは,学生への丁寧な(1)フイードバックと (3)指示および(4)質問を, (2)個別の学生を指名しながら繰り返し行い,時折(5)解説を挟む形式であることが分かる. ## 2 分析方法 上記(1)(5)の上位教員活動の録画書き起こしテキストを,それぞれカテゴリーごとにテキストマイニングにかける。解析には (株) User Local の AI テキストマイニング無料ツールを利用した 3 . 無料版で可能な分析は, 単語出現度(スコア順\&頻度順), 共起キーワード,2 次元マップ,係り受け解析,階層的クラスタリングがあるが,本文では単語出現頻度の結果のみを挙げる。なお個人情報保護の観点から,固有名詞は一般的な地名や姓氏に置き換えた. User Local は $\beta$ 版で中国語解析も行えるが, 日中英混在テキストには対応しないため,文字化け防止用に,中国語簡体字は繁体字で書き取った。日中同形漢字はマイニング表示では区別不能であるが,書き起こし原文で区別できる.  ## 3 分析結果と解釈 単語出現頻度のワードクラウドから, 本授業担当教員の使用語彙について,以下 3 点を指摘できる. 1)学習者への謙譲(例:くださる,もらう),依願(例:お願い),詫び(例:ごめんなさい,すみません)などの表現を多用する癖がある. 図 2, 3, 4 参照. 学習者の緊張や不安を和らげるためと推測できるが,目標言語の習得に必要なコミュニケ ーションか否か再考の余地がある. 図 2 [指名]出現頻度順 図 3 [指示]出現頻度順 図 4 [質問]出現頻度順 ^{3}$ UserLocal https://textmining.userlocal.jp } 2)すべてのカテゴリーで日本語と中国語の併用または混用が多い. 図2[指名]では. 学生は中国語の発音で姓名を呼ばれるが,聞き取れないと,教員は日本語での指名に切り替える. 図 5[フィードバック]では,学生が良くできたことを褒める(非常,好)は中国語だが,日本語でも(すばらしい,良い,上手)と褒めている。図 4 教員の質問は日本語が多い(例:冷蔵庫,携帯電話,本棚)。 上掲 Quality On The Line による統計結果では, 本授業での教員発話に占める中国語の比率は $9 \%$ 弱と極めて低い4. 中国語でのインプット, および語彙のバリエーションを増やし, 学習者に中国語の産出を促す工夫が求められよう。 図 $\mathbf{5}[$ フィードバック] 出現頻度順 3 ) 文法用語が多い. 図 6[解説]には「場所 ${ }^{5}$, 名詞,主語, 動詞, 代名詞, 指示」など文法解説の語彙が目立つ. 教科書記載通りの説明は,教師 $\Leftrightarrow$ 教材ならびに学生@教材間 Interaction の形骸化を引き起こす.文法用語の使用を減らし, 学習者のフレイズ産出を優先する解説法を探求する必要がある. 図 2 [解説]出現頻度順 4 日本の公立高校英語授業で,母語使用の平均は $50 \%$ [14]. ## 4 まとめと課題 外国語教師の授業中の発話には, 二重の機能 (Dual function)がある [15].一つは (A) 外国語習得用の卜レーニング用言語, もう一つは(B)学生とのコミユニケーションを図るための発話である. 実際の教場では,両者が混然一体となって使われており,上記テキストマイニングの分析結果からは,(1)フィー ドバック,(2)指名,(3)指示,(4)質問,(5)解説いずれのカテゴリーにも,(A)(B)が併存し,かつ無意識に混用されている. 学習者の受容と理解の負担軽減には,上記指摘の如く,1)普段教師が(B) と考える発話嗜癖に気づき,真正のコミュニケーシヨン促進の言葉に改め,(A)との使い分けを意識すること.2)多言語併用を管理して,学習者の混乱を小さくすること.3)文法用語等の専門語彙を減らす,または言葉を置き換え,学習者が目標言語を実際に使用する場面を増やすなど工夫が必要だ。 マイニングの結果は,教授者が自身の言語使用の機能と, それが学習に与える効果について, より自覚的であるべきことを示している。 誤解が無いよう断っておくが,本教員の授業に対する学生評価は高い。他大学と共通で半期ごとに実施する学生アンケートでは, 本大学教師の授業は,学生同士のペアワークやグループワークの機会, 宿題や小テストへの取り組み,教員やクラスメートに気軽に相談や質問ができるなどの項目において,他校より平均値が有意に高く,授業中指名(質問)のチャンスも十分あると回答している(待刊)。 一回ごとの授業は, 社会的・文化的文脈に埋め込まれた動態的実践である.従って,授業分析も実践当事者である教師が,内省材料として主体的に利用することが望ましい. 発話嗜癖可視化に有用なテキストマイニングであるが,課題は,外国語授業の発話は多言語を基本とするのに対し, 現今の言語処理ツールは単言語をドメインとする点にある.翻訳,音声認識,音声合成などあらゆるツールが, 多言語混在テキストや音声の処理には対応していない.加えて中国語は日中同形漢字が存在し,解析ツールで両者を区別することが難しい. 今回は手作業で入力テキストに工夫を加えたが,多言語混在音声や文書を扱えるツールがあ 5 中国語の名詞には, 場所名詞と一般名詞があり,文法機能が異なる. れば,より簡便に語学授業のテキストマイニングを実行できよう.今後に期待したい。 ## 謝辞 本研究の一部は JSPS 科研費 C (21K00773) の助成による.データ作成に (侏)UserLocal の AI テキストマイニング無料ツールを利用した. 併せて感謝する. ## 参考文献 1. 文部科学省平成 $29 \cdot 30 \cdot 31$ 年改訂学習指導要領 https://www.mext.go.jp/content/1421692_8.pdf 2. 文化審議会国語文科会. 2019 年度日本語教育人材の養成・研修の在り方について(報告)改訂版 https://www.bunka.go.jp/seisaku/bunkashingikai/kokugo /kokugo/kokugo_70/pdf/r1414272_04.pdf 3. Moore, M. (1989). Three types of interaction. American Journal of Distance Education, 3(2), 1-6. 4. Anderson, T. (2003). Modes of Interaction in Distance Education: Recent Developments and Research Questions. In M. Moore and G. Anderson (Eds.), Handbook of Distance Education. (pp. 129-144) NJ: Erlbaum. 5. Lave, J., \& Wenger, E. (1991). Situated learning: Legitimate peripheral participation. Cambridge University Press. https://doi.org/10.1017/CBO9780511815355 6. Wenger, E. (1998). Communities of practice: Learning, Meaning, and identity. Cambridge University Press. https://doi.org/10.1017/CBO9780511803932 7. Rovai, A. P. (2002). Building sense of community at a Distance. The International Review of Research in Open and Distance Learning, 3(1), 1-16. https://doi.org/10.19173/irrodl.v3i1.79 8. Moskowitz, G. (1971). Interaction analysis : a new Modern language for supervisors. Foreign Language Annals. 5:211-21. 9. 飯野厚 (2008). 「語学授業観察法の概観〜 FLint, COLT, FOCUS に焦点をあてて〜」『清泉女学院短期 大学研究紀要』, 27 号. pp. 13-29. 10. 小田博志(2010).『エスノグラフィー入門 :<現場 >を質的研究する』春秋社 11. 長門三成子 (2010). 「実習生の教室談話の構造教師と学習者のインターアクションを中心に一」『日本語教育実践研究論文集』筑波大学大学院地域研究研究科 pp. 69-83. 12. 横溝紳一(2021).『日本語教師教育学』くろしお出版 13. National Education Association (2000) . Quality On The Line: Benchmarks For Success in Internet-Based Distance Education, The Institute for Higher Education Policy. https://www.ihep.org/wp- content/uploads/2014/05/uploads_docs_pubs_qualityont heline.pdf. 14. 中村啓子(2017).公立高校における「英語による授業」に対する英語教師の意識調査,Sophia University Junior College Division Faculty Journal, 第 38 号,3146. 15. 靳洪刚 (2018). 提问互动法: 语言课堂教师提问的理论与实践. 国际汉语教育. 3(1), 46-62.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C7-4.pdf
# 日本語 BERT モデルによる近代文の誤り訂正 謝素春 松本章代 東北学院大学大学院 人間情報学研究科 s2195101@g. tohoku-gakuin. ac. jp ## 概要 近代の資料は重要な価値がある. 現在文書の電子化には光学文字認識 (OCR) がよく使われているが,既存の OCR モデルの識別では近代文書を正確に獲得することが困難なため, 識別エラーを訂正する必要がある. 現在, 言語モデルを OCR の誤り訂正に運用する手法が用いられているが,公開されている日本語言語モデルは主に現代文データで学習したものであり,近代文に対しては性能をうまく発揮できない可能性が高い. そこで本研究は, 近代文のデータを収集し,近代文言語モデルを構築する。また,近代文の誤り訂正データセットを構築し, モデルの誤り訂正性能を検証した。さらに比較実験を通じて,近代文と現代文モデルの間の転移性を検証した。 ## 1 はじめに 近代, すなわち明治時代 (1868) から昭和初期 (1945) までの歴史は日本に対して大きな変化を与えた。近世から現代までのかけ橋として, 当時の教育, 経済,政治,および文化は現在の日本にも影響している。 その当時の紙資料は今でも数多く保管され,重要な価値を持っている。古文書であれば,従来は人手によって手書きの文章を解読し, 現代文に書き換えて出版していたが,現在では,紙の資料を画像化し,人工知能に基づく手法を用いて,自動的に文字列に変換する方法が用いられている.しかし残念ながら,現在古文書のテキスト化は手書き字やくずし文字で保存された江戸時代の古典籍を対象とした研究がメインとになっており $[1,2,3]$, 活字体である近代の出版物に対しての研究はほとんど見当たらない. そこで,近代の文書をテキスト化する研究をおこないたいと考えた。 画像からテキストを変換するには光学文字認識 (Optical Character Recognition; OCR)を利用するのが一般的だが,文書の保存状況やフォントの違いと異  図 1 近代文書の一例 1916 年の東北学院時報体字の使用[4],および利用したOCRなどによって,識別の精度が大きく変わる一方,現代文のテキスト化と比べ, 近代文のテキスト化精度はまだ高くない。正確な文章を得るためには, OCR の識別エラーに対して,校正を行う必要がある。 近代文書のテキストにおいて,従来は主に人手より文字入力および校正が行われているが,近年では OCR を用いての自動テキスト化と人手校正を組み合わせる手法を用いられた。しかし,文字が不鮮明のため脱字が発生する場合や, OCR の学習データ不足のため識別できない文字がある場合が散見される, その一例を図 1 に示す。それに対して,増田[4]は言語情報および字形情報を同時に考慮した OCR 訂正手法を提案した。しかし,近代文書における誤り検出の困難さにより,テキスト全体の訂正率にはあまり寄与しなかった。また近代文コーパスで学習した Kindai-OCR ${ }^{i}$ [5],NDLOCR ${ }^{\mathrm{ii}}$ を開発したが,近代資料で実際に検証した結果,識別精度はまだ改善する余地があることが示された. 近年 OCR の誤り訂正タスクにおいて,BERT ${ }^{\mathrm{iii}}$ モデルを用いる手法を見られる.BERT モデル[6]は, iii https://github.com/google-research/bert Google 社が提出した事前学習済み言語モデルであり, ほかの言語モデルと比べ,文脈を考慮した単語の分散表現を獲得する特徴がある。BERTを用いた手法は分類タスク,質問応答などを含む様々なタスクにおいて優れた結果を示した[6]. 誤り検出と誤り訂正のタスクにおいても, BERT が有効であることが確認されている. Kaneko ら[7] は,文法誤り訂正(GEC)タスクにおいて BERT を組み込むことで,優れた結果を得た.Yamakoshi ら[8] は BERT をベースにした分類器を使用し, 日本語の法律用語の誤りの検出と訂正タスクにおいて,他のモデルを上回る性能が出せることを示した. 近代文の識別誤りにおいても,事前学習済夕 BERT モデルが有効と予想される. 上記のタスクでは代表的な事前学習済みの汎用型日本語 BERT モデルである東北大 BERT ${ }^{\mathrm{iv}}$ と京大 BERT $^{v}$ [9]を利用した. ほかに NICT ${ }^{v i}$ や Laboro 社vii によりいくつかの日本語 BERT モデルも公開されている。それらのモデルは主に日本語 Wikipedia をコ一パスとして学習し, ほかに経済新聞やインターネット上のオープンデータから学習しているモデルもあるが,いずれも現代文を用いて訓練したモデルであり安易に近代文に適応しても良い結果は得られないと予想される。 近代文用の BERT としては青空文庫 (2020 年時点) で事前学習したモデルviii がある. ただし, 青空文庫の多数は,新字新仮名で書かれたものである. その中に同じ文章を新字新仮名と旧字旧仮名 2 つのバー ジョンが同時に存在する場合もある. 青空文庫 BERT はそれらのデータを現代文として学習に利用しているため, 近代文に対する性能は高くないと予想される. そこで, 本研究は新たな近代文データセットを収集し, 近代文用の BERT モデルを構築する. また近代文の誤り訂正データセットで微調整学習(finetuning)する. 最後に, モデルの誤り訂正性能を検証寸る. さらに, 近代文モデルと既存の現代文モデルをそれぞれ近代文と現代文の誤り訂正データセットを用いて比較実験を行う。  ## 2 近代文 BERT モデルの構築 現代文と比べて近代文は独自の仮名や漢字遣いが存在し, 文法も異なる部分が多いため, 近代日本語のテキスト化において誤字訂正は事前学習済みの近代 BERT モデルを使用することで性能が向上できると予想されている。しかし, 現時点性能を確認された近代文用の BERT モデルが存在していない。そこで本研究では, 近代文用の BERT モデルを構築する. また, 事前学習済みのモデルを用い, 近代文の誤り訂正データセットで微調整学習し, 近代文モデルの性能検証を行う。それに加え,現代文と近代文の誤り訂正データセットにおいて,現代文 BERT と近代文 BERT の比較実験をおこない,近代文用 BERT の有効性を調查する。 ## 2.1 近代文コーパス 近代の紙資料は数多く存在するが,テキスト化されたものは少ないうえ,公開されているデータはさらに少なく,データの入手が困難である。本研究の事前学習用データは, 2022 年 7 月 30 日時点の青空文庫のデータおよび国立国語研究所 $\mathrm{ix} より$ 公開された近代語コーパスより獲得した。 青空文庫 ${ }^{x}$ は著作権が切れた日本語文章が数多く収録されており,2022 年時点は 1000 名以上の作家の作品が収録されている。その中に明治期から昭和初期の文章が多数存在し, その一部は入力時に新字新仮名の文章に変換されている。旧字旧仮名の文字に統一するため, 本研究は新字新仮名と旧字旧仮名の文章を分けて収集し処理を行った。 近代語コーパスxi は『太陽コーパス』, 『近代女性雑誌コーパス』,『明六雑誌コーパス』,『国民之友コーパス』xii の4つのコーパスにより構成されている。明治前期から昭和戦前期まで(1945 年)の近代資料より選ばれた代表的な近代資料である[10]. これらのデータは文章入力後, 人手による校正も行われており,近代日本語のモデル構築に適切なデー タといえる。 近代語コーパスも青空文庫と同様に,文章の間は 1 の空白行で区切り, 文章の内容は 1 文 1 行に分割して処理する.正確に分割できない文に対しては人手で句読点を追加して文を分割した。 上記 2 つのコーパスから作成した近代文データセットは合計 $627 \mathrm{MB}$ ,約 508 万文である. ## 2.2 モデルの事前学習 BERT Base モデル[6]を用いて近代文 BERT を構築した. 分かち書きありの設定とし, 近代文語 Unidic ${ }^{\text {xiii }}$ [11]による $\mathrm{MeCab}^{\mathrm{xiv}}$ を使用した. 事前学習の実装は東北大 BERT を利用し, 100 万ステップの学習を実施した. ## 3 近代文識別率の事前調査 既存の OCR が近代文に対する識別率を調査するため, Tesseract OCR ${ }^{\mathrm{xv}}$, EasyOCR ${ }^{\mathrm{xvi}}$, PaddleOCR ${ }^{\mathrm{xvii}}$, Kindai-OCR [5], および Cloud Vision OCR ${ }^{\text {xviii } の ~} 5$ 種類の OCR モデルを比較した. その結果, 識別率が比較的に高いCloud Vision OCR を識別モデルとして採用した. 近代文書の識別率を客観的に評価するため, 近代文章の画像で実験を行った。近代の出版物は様々あるが,東北学院時報xixおよび『文明論の概略』の一部を実験対象とした. 東北学院時報は, 1916 年に創刊され, 2022 年現在まで 100 年以上発行を続けている. 創刊号から現存するものはすべて画像として PDF 化され,ネットで公開されている。 そのうち, 1916 年の第 1 号から第 3 号の内容より 59 枚のキャプチャ画像を作成し,テキスト化の実験対象とする. また, 『文明論の概略』は, 1931 年に岩波書店から出版された. 第 1 章より 61 枚のキャプチャ画像xx 作成し, 同じくテキスト化の実験対象とする. 実験対象から 120 文のキャプチャ画像および対応テキストを含むデータを人手より作成した(『文明論の概略』 のテキストはブログxi 上のデータに基づいて作成した). キャプチャ画像の選定基準としては, 主に縦書きの 1 文から 2 文単位でキャプチャ画像を作成し,複雑なレイアウトを含む内容は今回選択していない. Cloud Vision OCR で検証した結果,近代文に対する  平均識別率は $89 \%$ \%゙った. さらに識別エラーに対して分析し, 近代文の識別エラーは主に誤字, 脱字であることを確認した。 ## 4 評価実験 ## 4.1 近代文誤り訂正データセット 事前調查により近代文の識別エラーは誤字と脱字が主たる要因となることがわかった。本研究ではまず誤字を中心に検証する。また,脱字は未来のタスクとする。近代文に対する誤り訂正能力を検証するには, 近代文の誤り訂正データセットが必要である.本研究では, 近代文データに基づき, 類似文字の書き換えにより近代文誤り訂正データセットを作成した。作成方法は下記の通りである. 1. 類似文字作成: フォントより文字を画像化し,画像のバイナリデータを取得する。その後,文字画像をぺアごとに類似度を計算し,類似度が高い top-6を類似文字とする.フォントに含まれていない文字は,異体字リス卜xxii より類似文字を生成する。 2. 近代語コーパスを文ごとに改行して正規化する. その後, 長さ 10 以下また 200 以上の文を取り除く[12]. 3. 文ごとに,近代文語 Unidic を用いた MeCab を利用して分かち書きする. その後, ランダムに単語を選択し, その中の 1 文字を該当する類似文字に変更する。 4. 変更された文字以外のテキストと組み合わせることで,正解文と誤字を含む文のぺアを作成する。 ## 4.2 近代文モデルの検証 近代文 BERT モデルの性能を検証するために,構築した近代文誤り訂正データセットで微調整学習したモデルを, 評価データでの正解率を評価基準として性能を評価する. 188832 ペアの近代文エラーデー タセットから,学習データ,検証データおよび評価データをそれぞれ $165087,11846,11899$ で設定した。  表 1 近代文 BERT の誤り訂正の正解率 表 2 近代文 BERT と東北大 BERT の比較実験 学習時に学習率は 1e-5 で設定し, 最大シーケンス長は 60 , batch size は 32 で,それぞれ $5,10,15$ エポックで学習し, 評価データでの性能を検証する. 評価時は,エラー箇所を指定せず,文中にあるすべてのトークン位置に対して語彙数での分類を実行する,尤度が最も高い予測(分類)結果を当該位置で選択されたトークンとする。提供された正解文と完全に一致する場合のみを正解とする。 ## 4.3 比較実験設定 比較実験では, 近代文データセットより学習したモデルと現代文データセットより学習したモデルに対し, 現代文と近代文の誤り訂正データセットでの微調整学習により比較実験し, 性能評価を行う. 現代文用のモデルは, 東北大の BERT base モデルとする. 評価用のデータセットに関しては, 近代文に対する性能検証は近代文誤り訂正データセットを用いるが,現代文に対する性能評価は現代文の誤り訂正データセットである京大の日本語 Wikipedia 入力誤りデータセットxxiii [12]用いる. 京大の誤りデータセットには複数のエラータイプのデータが含まれるが, 一貫性を保持するため, 誤字のエラータイプのみを用いる。 ## 5 結果と考察 近代文の誤り訂正データセットでの検証結果を表 1 に示す. 微調整学習の Epoch 数を増やすと, 評価データでのエラー訂正の正解率が向上した, Epoch xxiii 日本語 Wikipedia 入力誤りデータセット: https://tinyurl.com/2gkurns6数が 15 の時に正解率が最も高く, 0.56 になった. それにより, 事前学習した近代文 BERT モデルは誤り訂正のタスクにおいて有効であり, 誤り訂正データセットでの微調整学習も有効であることがわかった。 比較実験の結果を表 2 に示す. 近代文誤り訂正夕スクにおいて, 近代文 BERT は現代文 BERT より正解率が約 0.36 向上した.このことから, 近代文 BERT は有意義であることがわかる。また,近代文 BERT および現代文 BERT は,それぞれ逆のデータセットによるタスクにおいて正解率が低くなった.このことから, 現代文と近代文はある程度の共通点はあるが,近代あるいは現代文一方のデータのみで学習したモデルはもう 1 の言語種類のタスクでは適切に機能しない可能性が示唆された. また,近代文 BERT が近代文タスクで達成した正解率は現代文 BERT が現代文タスクで達成した正解率より低い.これは事前学習時の学習データ量の違いが要因と考えられる. 東北大 BERT は 4GB, 約 9.3 億の単語量で学習したのに対して, 近代文 BERT は $627 \mathrm{MB}$ で 1.4 億のデータで訓練した. 事前学習量の差は 6.4 倍であるため, 正解率の差は事前学習のデ一夕量による違いと考えられる。 ## 6 まとめ 本研究は青空文庫および近代文コーパスを用い,近代文用の BERT 事前学習モデルを構築し,その性能を検証した.類似文字変換により生成された近代文の誤り訂正タスクによりその性能を検証した。その結果, 近代文 BERT モデルは, 現代文用の BERT モデルより高い性能を示した. また, 比較実験より近代文または現代文のみで学習したモデルは, もう 1 つの言語のタスクには対応できないことを実験的に示した。 また, 微調整学習した近代文用の BERT モデルを OCR の識別エラーで評価したが, 性能は十分に高くなかった. 今後の課題として, 近代文の事前学習のデータ量を増やし,近代文の誤り訂正タスクおよび近代文の識別誤り訂正の実運用における性能を改善できるかを検証していく. ## 謝辞 本研究は Google の TPU Research Cloud (TRC) program のTPU 支援を受けたものです. ## 参考文献 [1] Dilbag Singh, C.V. Aravinda, Manjit Kaur, Meng Lin, Jyothi Shetty, Vikram Raju Reddicherla, and Heung-No Lee. Dknet: Deep kuzushiji characters recognition network. In IEEE Access, Vol. 10, pp. 7587275883, 2022. [2] Lamb, Alex, Tarin Clanuwat, and Asanobu Kitamoto. KuroNet: Regularized residual U-Nets for end-to-end Kuzushiji character recognition. In SN Computer Science, Vol. 1, No. 177, pp. 1-15, 2020. [3] Anh Duc Le, Tarin Clanuwat, and Asanobu Kitamoto. A Human-Inspired Recognition System for Pre-Modern Japanese Historical Documents. In IEEE Access, Vol. 7, pp. 84163-84169, 2019. [4] 増田勝也. 言語情報と字形情報を用いた近代書籍に対する OCR 誤り訂正. 人文科学とコンピュー 夕研究会 2016 論文集, pp. 57-62, 2016. [5] Anh Duc Le, Daichi Mochihashi, Katsuya Masuda, Hideki Mima, and Nam Tuan Ly. Recognition of Japanese historical text lines by an attention-based encoder-decoder and text line generation. In Proceedings of the 5th International Workshop on Historical Document Imaging and Processing, pp. 37-41, 2019. [6] Jacob Devlin, Ming Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Vol. 1 (Long and Short Papers), pp. 4171-4186, 2019. [7] Masahiro Kaneko, Masato Mita, Shun Kiyono, Jun Suzuki, and Kentaro Inui. Encoder-Decoder Models Can Benefit from Pre-trained Masked Language Models in Grammatical Error Correction. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4248-4254, 2020. [8] Takahiro Yamakoshi, Takahiro Komamizu, Yasuhiro Ogawa, and Katsuhiko Toyama. Japanese Mistakable Legal Term Correction using Infrequencyaware BERT Classifier. In IEEE Big Data, pp.4342-4351, 2019. [9] 柴田知秀, 河原大輔, 黒橋禎夫. BERT による日本語構文解析の精度向上. 言語処理学会第 25 回年次大会, pp. 205-208, 2019. [10] 近藤明日子, 田中牧郎. 『明六雑誌コーパス』 の仕様. 『近代語コーパス設計のための文献言語研究成果報告書』,pp. 118-143, 2012. [11] 小木曽智信, 小町守, 松本裕治. 歴史的日本語資料を対象とした形態素解析. 自然言語処理, Vol. 20, pp.727-748, 2013. [12] 田中佑,村脇有吾,河原大輔,黒橋禎夫. 日本語 Wikipedia の編集履歴に基づく入力誤りデータセットと訂正システムの改良. 自然言語処理, Vol 28, pp. 995-1033, 2021.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C7-5.pdf
# Towards Creating Analytic Dimensions for Evaluating the Quality of Debate Counter-Arguments Wenzhi Wang ${ }^{1,2}$ Paul Reisert $^{3}$ Naoya Inoue $^{4,2}$ Shoichi Naito ${ }^{1,2,5}$ Camélia Guerraoui $^{1}$ Keshav Singh $^{1} \quad$ Kentaro Inui $^{1,2}$ ${ }^{1}$ Tohoku University $\quad{ }^{2}$ RIKEN $\quad{ }^{3}$ Beyond Reason $\quad{ }^{4}$ JAIST $\quad{ }^{5}$ Ricoh Company, Ltd. \{wang.wenzhi.r7, guerraoui.camelia.kenza.q4, singh.keshav.t4\}@dc.tohoku.ac.jp beyond.reason.sp@gmail.com naoya-i@jaist.ac.jp shohichi.naitoh@jp.ricoh.com kentaro.inui@tohoku.ac.jp ## Abstract Evaluating the quality of argumentative texts is a challenging but exciting research topic which has gained attention over the years. In the context of debates, quality evaluation has been extensively researched and applied to top-level arguments but rarely to counter-arguments due to their complex nature. In this work, we tackle the task of argumentative quality assessment of counter-arguments (CA) in a debate. We first survey a set of debate rubrics and papers to find commonalities applicable to evaluating CAs and create four new analytic dimensions for assessing their quality. To test the feasibility of our dimensions, we employ crowdsourcing to evaluate CAs using our dimensions, and we report our preliminary results. ## 1 Introduction Counter-arguments are an important way of constructing an argument, especially in the context of debates. One must first consider their opponent's argument both logically and rhetorically in order to construct an effective counter-argument. Such way of considering an opponent's argument can significantly help one improve their critical thinking skills. One means for constructing counterarguments includes parliamentary debates which require critical analysis and rhetorical skills [1]. An example of a parliamentary debate is shown in Figure 1. In this debate, the Prime Minister makes their original argument (OA), and the Leader of the Opposition attacks the Prime Minister's point in their counter-argument (CA). After both parties complete their turns, their arguments are then evaluated by a judge who declares a winner. & \\ & \\ Figure 1 Overview of our analytic dimensions created for capturing the quality of the $\mathrm{CA}$ in response to the $\mathrm{OA}$ along with their respective scores collected via crowdsourcing. Not only is this time-consuming for a judge, especially for a teacher in a debate class, but it has the possibility of introducing bias into the evaluation. Therefore, an automated approach to evaluating arguments in a debate is ideal. Although many works have focused on the evaluation of the original argument (i.e. arguments that argue freely for or against the topic without basing on the logic of another argument) in a debate, little attention has been given to the evaluation of counter-arguments due to their dependency on the original argument during evaluation. In order to automatically evaluate such counter-arguments, a model built on top of a rich dataset of original arguments and counter-arguments consisting of evaluated scores along with their reasoning is required. However, it remains an open issue as to what evaluation criteria are even required to automate the quality evaluation of counter-arguments. There are many benefits to creating evaluation criteria for automatic $\mathrm{CA}$ evaluation. In the context of education, students learning debates could utilize the criteria scores output by a computational model given to their counterargument, where the scores themselves could guide the learners towards improving their argumentation given reasons such as those shown in Figure 1. Furthermore, as mentioned a priori, the workload for judges (e.g. educators) and bias could significantly be reduced. To assist learners even further, both scoring the argument while simultaneously providing the spans in the $\mathrm{OA}$ and $\mathrm{CA}$, where the arguments could be improved, could even further assist the learning in improving their argumentative skills. Towards the ultimate goal of automatic evaluation of CAs, in this work, we focus heavily on creating new dimensions for evaluating CAs. We first collect a wide range of debate rubrics and find commonalities among them. Based on our findings, we create four new analytic dimensions (see Figure 1), each of which is assessed with a 3 -scale score along with reasons. Finally, we test the feasibility of our dimensions via crowdsourcing. ${ }^{1)}$ Overall, we discover that while our dimensions are new, there are still many challenges to overcome. ## 2 Related Work Recently, the majority of works in the argumentation field focus on evaluating arguments on general dimensions, such as persuasiveness $[2,3,4,5,6]$ which mostly focuses on whether an argument is strong, clear, supported by decent evidence; appropriateness and content richness $[7,8,9]$, where appropriateness is defined as whether an argument is on-topic and has the right stance and content richness is broadly described as how many distinct aspects an argument covers; plausibility [7, 10] which is assessed in a sense of whether an argument contradicts the commonsense or in other words, whether a human will plausibly make it; grammaticality [6, 8, 7, 9], coherence [5], and bias [7]. However, those dimensions are too generic in the sense that they solely take into account the relation between an argument and a given prompt (topic) or the relation between argumentative units within an argument.  Table 1 New dimensions created for CA evaluation. Our new dimensions differ from previous dimensions in that they were created for CA in direct response to a topic (prompt) and an OA. & \\ Thus, they do not reflect properties that are inherent in the counter-argument that is in relation to the given topic as well as the original argument. Wachsmuth et al. [11] proposed a taxonomy with 15 dimensions for argumentation quality assessment and annotated a corpus of stance-argument pairs based on those dimensions. The dimension Global sufficiency, which says argumentation is sufficient if it adequately rebuts those counter-arguments that can be anticipated, is most relevant to our work. Nevertheless, it cannot be directly applied to evaluating the counter-argument in the context of debates since it does not address the specific relation between the original argument and the counter-argument with the presence of the actual original argument. We argue that analytic dimensions of quality for CAs in a setting of debates should consider more the relationship between the original argument and counter-argument. In this work, we attempt to create dimensions that are specific to evaluating CAs in a debate. ## 3 Creating Analytic Dimensions As shown in Section 2, several dimensions for CAs exist. However, the dimensions are either too general or do not consider CAs in response to debate-level original arguments. In order to create quality dimensions that are specific to evaluating counter-arguments, we first explore debate rubrics for determining common properties amongst scores which can help in creating new analytic dimensions. ## 3.1 Existing debate rubrics To obtain clues about which dimensions to create, we collected 7 publicly available debate rubrics ${ }^{2}$ and surveyed 2) The debate rubrics we surveyed can be found at https://gi thub. com/oubunshitsu/debate_CA_assessment. Table 2 Scoring rubrics for our newly created dimensions for counter-arguments (CA) in response to an original argument (OA). & 1 & CA misquotes or does not quote the OA. \\ them for common properties useful for evaluating counterarguments in response to debate-level original arguments. We found that a decent CA should directly and effectively respond to or attack the points made by the opposing side, in our case, the OA. Such attacks should be supported with convincing evidence clearly explaining why the arguments from the opposing side are weak or illogical. On top of that, a good CA can also state its own arguments showing the reason that it is stronger than the opposing side, thus enhancing the overall persuasiveness. ## 3.2 Our new dimensions Definitions Based on our findings in existing debate rubrics, we create four new dimensions, each of which is scored with a 3-scale value, for evaluating counterarguments in response to debate-level original arguments. The definitions of the dimensions are shown in Table 1. Considering the characteristic of parliamentary debates where the OA only mentions one central point (supported with several premises), we set the dimensions of Quotation from the Original Argument and Attack on the Main Point to be focused on the main point in the OA. Although we are aware that a good attack in a CA should be supported by decent evidence, we do not consider dimensions related to evidence in this work since they have already been extensively explored in the literature [2]. Scoring criteria We also provide a scoring rubric for each of the 4 dimensions. The scoring rubrics are shown in Table 2. We set the scoring scheme to be 3 -scale to make each score as distinct as possible so that it could serve as constructive feedback to some extent, to show specifically how the argumentation could be improved. ## 4 Crowdsourcing Experiment We describe our preliminary crowdsourcing experiment for testing the feasibility of annotating our new dimensions. ## 4.1 Data In this work, we use The Debate Dataset, a dataset of debates created via crowdsourcing ${ }^{1)}$ and an extension of the dataset used in TYPIC [12]. When creating this dataset, crowdworkers were given the topic "Students should have part-time jobs", and an original argument supporting the topic. Workers were then instructed to write a point from the original argument and write their counter-argument to rebut the point. The dataset contains 5 original arguments with 446 counter-arguments in total. In the experiments, we utilize all 5 original arguments with 5 associated counter-arguments for each as a preliminary test. We plan to annotate and publish all the data in the future. ## 4.2 Experiment: Counter-argument Quality Assessment Task We first collect workers with a basic understanding of our task and grant them the qualification of Outstanding worker. ${ }^{3)}$ Following the work [8], for each dimension, we show an example counter-argument for every possible score in addition to the scoring rubric in the crowdsourcing in-  Table 3 Krippendorff's $\alpha$ with interval distance function for each dimension as well as all dimensions combined. terface ${ }^{4)}$. Workers are instructed to rate a CA based on the scoring rubrics and also write down their specific reasons for the rating for each dimension. Five unique Outstanding Workers are asked to annotate one CA at a time. In total, $125(=5 \times 5 \times 5)$ annotations are conducted. ## 4.3 Results and Analysis There are seven unique workers in total who participated in the experiment. To measure inter-annotator agreement among workers, we calculated Krippendorff's $\alpha$ [13]. As shown in Table 3, we obtained moderate agreements on $A o S, Q u o$, and Att, however, low agreement on Nat. We investigated the reason for the low agreement rate (e.g. Nat) by manually checking some of the scoring reasons written by workers. Our main findings include 1) there are still some expressions used in a nebulous way in the rubrics, which potentially brought in subjectivity, such as "vague attack" in Att or "new argument" in Nat. 2) for Nat, the current rubric cannot cover the situation where there are both "new arguments that are for the topic" and "new arguments that are against the topic" mixed in a single essay, which implies that a more fine-grained level annotation of dividing the counter-argument essay into individual arguments and assessing on top of that is needed. 3) workers' understanding of "the main point made in the original argument" also varies, which indicates the difficulty of this task that one must understand the logic of both sides. ## 5 Discussion Towards a more fine-grained annotation, where each of the individual arguments (i.e. claim and its supporting premises) could be assessed separately and aggregated to the overall quality of the counter-argument, we first attempted to capture different granularity of attacks. Given that, ideally, a strong counter-argument could comprehensively attack all the points made in the original argument (including the central point and all the supporting premises), we investigated various ways of capturing the coverage of attacks using crowdsourcing. Free selection We first allowed workers to freely se-  lect all attack pairs (i.e. free text spans) between the OA and CA. Although we were able to collect reasonable attack pairs, we found that the results largely varied among workers, which made it difficult to calculate the agreement. Sentence-level selection We attempted to solve the issue by having workers select pre-separated sentences, instead of free spans, from both the OA and CA. We still found difficulties for the annotators, potentially due to the fact that the understanding of the two essays also varies. Logic-graph Representation To assist workers in better understanding the OA, we tried explicating the logic of the OA by representing it as a logic graph. Each argument, including the central point and all the premises that support the point, is broken down into nodes and relations. Each node is a concept, and the relations mainly include causal relations (promote and suppress [14]). We had workers select one sentence from the CA and all the nodes or relations attacked by the sentence in the logic graph. We found that although it is possible to collect attack pairs in this way, it is required to know the argumentative structure within the CA in advance when it comes to evaluating the attacks since there might be associations between sentences in different attack pairs (e.g. one sentence might serve as evidence for another in the CA, thus we cannot simply ask the question "Is this attack supported by evidence" for every attack pair). ## 6 Conclusion and Future Work In this work, we tackled the challenging task of assessing counter-arguments in debates. We surveyed several debate rubrics and created four new analytic dimensions for evaluating the quality of the counter-argument in relation to the original argument. We conducted a crowdsourcing experiment and found that while the workers understand the dimensions, there are still many challenges to achieving a good agreement among workers. In our future work, we will refine the scoring rubrics based on workers' scoring reasons and have workers highlight the text segments along with their scores instead of writing the reasons in free text. We will also expand the annotation to the whole corpus. Moreover, we will explore more fine-grained annotations where we could capture the diversity of attacks and also incorporate dimensions related to evidence assessment, based on previous works, into the evaluation procedure of counter-arguments. ## Acknowledgements This work was supported by JSPS KAKENHI Grant Number 22H00524. ## References [1] Kate Shuster and John Meany. Introducing parliamentary debate: A resource for teachers and students. Claremont Colleges Debate Outreach, January 2016. [2] Winston Carlile, Nishant Gurrapadi, Zixuan Ke, and Vincent Ng. Give me more feedback: Annotating argument persuasiveness and related attributes in student essays. In Proceedings of the 56th Annual Meeting of the ACL (Volume 1: Long Papers), pp. 621-631, Melbourne, Australia, July 2018. ACL. [3] Martin Hinton and Jean H M Wagemans. Evaluating reasoning in natural arguments: A procedural approach. Argumentation, Vol. 36, No. 1, pp. 61-84, March 2022. [4] Thiemo Wambsganss and Christina Niklaus. Modeling persuasive discourse to adaptively support students' argumentative writing. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 8748-8760, Dublin, Ireland, May 2022. ACL. [5] Thiemo Wambsganss, Christina Niklaus, Matthias Cetto, Matthias Söllner, Siegfried Handschuh, and Jan Marco Leimeister. AL: An adaptive learning support system for argumentation skills. In Proceedings of the $2020 \mathrm{CHI}$ Conference on Human Factors in Computing Systems, CHI '20, pp. 1-14, New York, NY, USA, April 2020. ACM. [6] Benjamin Schiller, Johannes Daxenberger, and Iryna Gurevych. Aspect-controlled neural argument generation. In Proceedings of the 2021 Conference of the North American Chapter of the ACL: Human Language Technologies, pp. 380-396, Online, June 2021. ACL. [7] Khalid Al Khatib, Lukas Trautner, Henning Wachsmuth, Yufang Hou, and Benno Stein. Employing argumentation knowledge graphs for neural argument generation. In Proceedings of the 59th Annual Meeting of the ACL and the 11th IJCNLP (Volume 1: Long Papers), pp. 4744-4754, Online, August 2021. ACL. [8] Xinyu Hua, Zhe Hu, and Lu Wang. Argument generation with retrieval, planning, and realization. June 2019. [9] Milad Alshomary, Shahbaz Syed, Arkajit Dhar, Martin Potthast, and Henning Wachsmuth. Argument undermining: Counter-Argument generation by attacking weak premises. May 2021. [10] Shai Gretz, Yonatan Bilu, Edo Cohen-Karlik, and Noam Slonim. The workweek is the best time to start a family a study of GPT-2 based claim generation. In Findings of the ACL: EMNLP 2020, pp. 528-544, Online, November 2020. ACL. [11] Henning Wachsmuth, Nona Naderi, Yufang Hou, Yonatan Bilu, Vinodkumar Prabhakaran, Tim Alberdingk Thijm, Graeme Hirst, and Benno Stein. Computational argumen- tation quality assessment in natural language. In Proceedings of the 15th Conference of the European Chapter of the ACL: Volume 1, Long Papers, Stroudsburg, PA, USA, 2017. ACL. [12] Shoichi Naito, Shintaro Sawada, Chihiro Nakagawa, Naoya Inoue, Kenshi Yamaguchi, Iori Shimizu, Farjana Sultana Mim, Keshav Singh, and Kentaro Inui. TYPIC: A corpus of Template-Based diagnostic comments on argumentation. In Proceedings of the Thirteenth LREC, pp. 5916-5928, Marseille, France, June 2022. European Language Resources Association. [13] K. Krippendorff. Content analysis: An introduction to methodology. Beverly Hills, CA., 1980. Sage Publications, Inc. [14] Paul Reisert, Naoya Inoue, Tatsuki Kuribayashi, and Kentaro Inui. Feasible annotation scheme for capturing policy argument reasoning using argument templates. In Proceedings of the 5th Workshop on Argument Mining, pp. 79-89, Brussels, Belgium, November 2018. ACL. Figure 2 The crowdsourcing interface. For space reasons, we only show one dimension. ## A Competent Workers Selection Given the difficulty of collecting high-level annotations via crowdsourcing, we first create a filtering procedure to collect competent workers for our task through a qualification test and survey. The qualification test contains three debates, each of which is a pair of an original argument and a counter-argument. For each debate, there is one comprehension question asking "Which point from the original argument is the counter-argument attacking?" with four candidate options. Only workers who answered all three questions correctly can get access to the survey and additional comprehension questions. The survey's goal was to learn more about our workers, such as their native language and level of expertise with argumentation. The purpose of the additional comprehension questions was to filter out workers that provided generic responses or exhibited a low level of fluency. Specifically, the workers were given a debate and asked to score the quality of the counter-argument while providing reasons. The reasons were judged by two expert annotators, both authors of this paper, and incompetent workers were filtered out. ## B Crowdsourcing Interface An example of our final crowdsourcing interface is shown in Figure 2. Due to space reasons, we only show one of the dimensions (Attack on the main point) shown in our guidelines, an example debate, as well as the question for the dimension. ${ }^{5)}$ Workers were first asked to rate on a scale of 1-3 based on the scoring rubric, and provide a specific reason for their score. We plan to utilize such reasons to further improve our crowdsourcing task in future trials. 5) The complete version of the interface can be found at https: //github.com/oubunshitsu/debate_CA_assessment.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C8-1.pdf
# 記述式答案採点モデルの採点基準に対する整合性の検証 浅妻佑弥 ${ }^{1,2}$ 舟山弘晃 ${ }^{1,2}$ 松林優一郎 ${ }^{1,2}$ 水本智也 ${ }^{2}$ 乾健太郎 1,2 1 東北大学 2 理化学研究所 \{asazuma.yuya.r7, h. funa\}@dc. tohoku.ac.jp \{y.m, kentaro.inui\}@tohoku.ac.jp tomoya.mizumoto@a.riken.jp ## 概要 記述式答案自動採点タスクにおいて,採点基準と合致する採点モデルを構築することは重要な要件であるが,訓練済みのモデルに対して採点基準との整合性を効率的に検証する手段は確立されていない.有力な手法として,モデルの内部動作を可視化できる特徵量帰属法 (Feature Attribution) が存在するが,解答毎に検証を行う必要があるため,多数のデータを使用した上で整合性を証明することは困難だった. 本研究では,クラスタリングアルゴリズムを特徵量帰属法で求めた説明系列に適用することで,少ない労力で採点モデルと採点基準間の整合性検証を可能にした. ## 1 はじめに 記述式答案自動採点 (Short Answer Scoring) とは, ある問題に対して解答された数十文字程度の答案を自動で採点するタスクである [1]. 機械学習モデルで解ける形式に落とし込む場合,採点結果を目的変数に設定し,答案の文章を説明変数とする回帰問題として扱い,問題文や採点基準(ルーブリック)は補助的な特徴量として扱うのが一般的である [2]. しかしながら,本来の採点過程では採点基準との合致が求められる. ゆえに,採点基準に沿った答案箇所が主な得点源となり,モデルが利用する特徴量となることが求められるが,現状の多くの取り組みでは答案の文章が主たる入力であり,学習の過程で使用する特徴量が決定されるため, 基準に沿った採点をモデルが行うことを保証することはできない. たとえ,補助的な特徴量として採点基準を導入しても,機械学習モデルが利用するかは学習によって決定されるため,正確な保証になるわけではない。 この不安定性の問題に対応する手段として, 特徴量帰属法 (Feature Attribution) の活用が考えられる.主に説明可能な AI (XAI) 分野において扱われ, 出力 に対する入力特徴量の寄与度をモデルを使用して計算する手法群の総称である. モデルが使用した特徴量を根拠箇所としてヒートマップの形式で可視化することが可能であり,モデルの動作や判断の手がかりを得るための手法として定評がある [3]. しかしながら,特徴量帰属法は答案毎にベクトルの形式で寄与度を計算するため, 自然言語で記述された採点基準とは形式が異なり,単純な自動化は難しい.また,可能な限り多くの答案で検証できることが望ましいが,訓練に使用する答案の数は最低でも数百・数千に及ぶため, 全ての答案に対する検証を行うことは困難である。 本研究では,特徴量帰属法を使用した採点基準との整合性検証が抱える実務上の問題点を解消するために,スペクトラルクラスタリング [4]を使用したクラスタ分析による整合性検証ツールの開発を行った. そして,考案した手続きの有効性を示すため,採点基準を含むデータセット上で動作確認を行い,少ない労力で訓練済みの機械学習モデルと採点基準間の整合性検証が可能であることを確認した。 ## 2 関連研究 記述式答案採点モデルの解釈を目的とした既存研究は限られている. Mizumoto ら [5], Zeng ら [6] は注意機構 [7] の重みをモデルの解釈として提供しているが,モデルの一部の特徴量でしかないため,採点基準の検証手段としての使用には適さない. 一方で,Tasuku ら [8] は特徵量帰属法で生成した説明系列と採点基準を元としたアノテーションの重複率を計測することで,モデルが採点基準に沿った動作を行うか検証している. しかしながら,検証したい全てのサンプルに対して採点基準を元としたアノテーションを実施する必要があり, 新規のデータセットに適応するための障壁が高い.そのため,少ない労力で採点基準との整合性を検証できる手法を本研究で取り扱う. 図 1 本研究の概略図. 訓練に使用した答案に対して特徴量帰属法による説明系列を生成し,クラスタリングによって類型の答案を集約する.各々のクラスタに対して採点基準と比較することで整合性のチェックを行う。 ## 3 手法 ## 3.1 特徵量帰属法 特徴量帰属法 (Feature Attribution) ${ }^{1}$ はモデルの出力に対する入力特徴量の寄与度を計算するための手法である. 入力サンプルの集合を $X=\left(x_{1}, x_{2}, \ldots, x_{n}\right)$ ,機械学習モデルを $f(\boldsymbol{x})$ とする. あるサンプル $\boldsymbol{x}=\left(x_{1}, x_{2}, \ldots, x_{m}\right)$ に対するモデルの出力得点が $\boldsymbol{y}$ であるとき,出力得点に対する入力系列の重要度を説明系列 $\boldsymbol{e}=\left(e_{1}, e_{2}, \ldots, e_{n}\right)$ として計算する.各 $e_{i}$ の値は得点に対する $x_{i}$ の寄与度となることが望まれる。 本研究では, 寄与度の計算に Integrated Gradients [9]を使用する. 勾配計算を利用する解釈手法 [10] の中でも有力な手法であり,モデルと入出力を利用して以下の式で計算する。 $ e_{i}=\left(x_{i}-x_{i}^{\prime}\right) \int_{0}^{1} \nabla f\left(\boldsymbol{x}^{\prime}+\alpha\left(\boldsymbol{x}-\boldsymbol{x}^{\prime}\right)\right) \mathrm{d} \alpha $ ここで, $x_{i}^{\prime}$ はベースラインと呼ばれる比較の基準となる入力サンプルであり, 本研究では零テンソルを使用する. 摄動ベースの手法 [11][12] と比較して計算量が少なく,微分可能であれば大規模なモデルでも実行可能であるため,本研究で採用する. ## 3.2 SpRAy SpRAy[13] は特徴量帰属法による解釈の分析を行う手法である。論文内において, PASCAL VOC 2007 に対して学習された分類モデルが, 馬カテゴリの分類に画像の透かし表記を利用することを明らかにしている. 本研究では,SpRAyを自然言語処理領域に拡張し,記述式答案自動採点タスクで利用する。 解の為に,論文内では特徴量帰属法の名称を使用する。 SpRAy の主な特徴として,スペクトラルクラスタリングを使用したクラスタ分析を行う.ラプラシアン行列の固有値分解によるグラフの連結成分分解の問題を解くことでクラスタリングを行う手法であり,説明系列の集合を $k$ 個のクラスタに分類するとき,アルゴリズムは以下の 4 ステップで実行される. 1. 任意の二つの説明系列 $\boldsymbol{e}_{\boldsymbol{a}}$ と $\boldsymbol{e}_{\boldsymbol{b}}$ の関係性から親和性行列 $A$ を構築する. 2. $A$ をグラフ構造に帰着し, 対称正規化ラプラシアン行列 $L_{\text {sym }}$ を求める. 3. $L_{s y m}$ の固有値分解を行う. 固有值の昇順に $k$個の固有値ベクトルを選択して行列 $E$ を作る. 4. $E$ に対して素朴なクラスタリング手法を実施する. 本研究では $\mathrm{k}$-means 法 [14]を使用する. ここで,固有値を昇順に整列した系列の前後の差分 $\lambda_{i}^{\text {gap }}=\lambda_{i+1}-\lambda_{i}$ は固有値ギャップと呼称され,最適なクラスタの数を推定できるヒューリスティックな指標として扱うことができる. [15] ## 4 実験 本章で,記述式答案自動採点データセットを使用した検証実験を行い,少ない労力でモデルと採点基準間の整合性検証が可能であることを示す. ## 4.1 データセット 本研究では, 理研記述問題採点データセット [16][5][17] を使用して実験を行った.このデータセットは,入力とする答案文章,採点者による得点,採点の根拠を示すアノテーションから構成される. データセット内には複数の問題文に対するデー タが含まれているが,本実験では問題 Y14_1-2_1_3 を使用する. 得点は複数の採点項目によって構成さ 表 1 問題 Y14_1-2_1_3 の採点項目.4つの採点項目から構成され,合算した点数が最終的な得点となる. 項目配点満点となる文章スパンの例 れる. 表 1 に,採点項目の詳細を示す. ## 4.2 機械学習モデル 実験のために,水本ら [5] の研究を基にした機械学習モデルを構築する. エンコーダ層に BERT[18] を導入し,デコーダ層に注意機構 [7] を使用する。学習済みの BERT モデルには文字単位の日本語 BERT モデル2)を使用する.後の実験のために,採点項目毎の部分点をべクトル形式で予測する個別採点モデルと, 採点結果を合算した点数をスカラー形式で予測する全体採点モデルを構築する,得点を予測する回帰問題としてモデルを訓練した. モデルの性能評価は付録 $\mathrm{A}$ に記載する。 ## 4.3 クラスタ分析の前処理 モデルの学習後, 使用した訓練サンプルに対して Integrated Gradients による説明系列を生成する。ただし,埋め込み層に対する勾配の計算は不可能であるため,埋め込み後の入力に対して寄与度を計算する. クラスタリングにあたり説明系列間の類似性から親和性行列を構築する必要があるが,入力が可変長系列であるため,全ての入力に対して総和を取った説明系列間でコサイン類似度を計算する。親和性行列からラプラシアン行列への変換は, 5 つの近傍の頂点を接続行列として扱い,対称正規化ラプラシアン行列を構築する。また,予測スコアが最大の点数の二割以下であるサンプルについては除外する.白紙の答案に対して採点理由を求めることが不可能であるように, 得点が著しく低い答案に対する説明を求めることが困難なためである. ## 4.4 全体採点モデル まず,全体採点モデルに対してクラスタ分析を行う. ラプラシアン行列に対して求めた固有値の特性を図 2 に示す. $\lambda_{1} \cdot \lambda_{2}$ の固有値ギャップが大きく, $\lambda_{5}$ 以降は緩やかに増加することが確認できる。この 2) https://github.com/cl-tohoku/bert-japanese 図 2 全体採点モデルにおける固有値の推移. 結果より,クラスタ数を $k=5$ に設定してクラスタ分析を行った。ヒートマップで色付けしたクラスタ毎の文章例を図 3 に示す. なお,ヒートマップの濃度は,トークン毎に説明系列の総和を取り標準化を施した値を使用した。概ね,各クラスタに含まれる顕著な特徵は以下の結果になった。 ・クラスタ 0,4 : 西洋 (項目 A),対決 (項目 B) ・クラスタ 1, 2: 同意 (項目 C), 説得 (項目 D) ・クラスタ 3: 類似性の少ない答案の集合 3 番以外のクラスタで,表 1 に示す採点基準を中心に集約される傾向が確認できた.クラスタ 3 のみ,類似性が少ない答案と説明系列が集約されている.ゆえに,3 番以外のクラスタに属する訓練サンプルに関しては基準との整合性あると結論付けられる. クラスタ 3 に所属するサンプルのみ,個別に検証することになるが,今回の実験では問題のある事例は発見できなかった. 以上の手順によって,少ない労力で採点基準との整合性を確認できた.なお,採点基準に反するような説明系列を発見することはなかった。 ## 4.5 個別採点モデル 4.4 節と同様の手順で,個別採点モデルに対するクラスタ分析を行った. 分析自体は全ての採点項目に対して実行したが,本文には採点項目 B における結果を記載する.ヒートマップで色付けしたクラスタ毎の文章例を図 4,ラプラシアン行列に対して計算した固有値の特性を図 5 に示す. $\lambda_{5}$ 以降は緩やかに増加することが確認できるため,クラスタ数は $k=5$ 亿設定した. 図 4 において,各クラスタに含まれる顕著な特徴は以下の結果になった。 ・クラスタ 0: 西洋文化の基底 (負),対決,異人 ・クラスタ 1:「対決」,答案が類似する。 ・クラスタ 2: 西洋 (負),異人,人間 ・クラスタ 3: 西洋 (負),他人は自分とは異なる ・クラスタ 4:「対決」,「異人」 一 [CLS]西洋文化の基底には「対決」のスタンスがあり、神対人間、人間対自然、人間対人間という形で現されるということ。[SEP] 0 [CLS]西洋文化の基底には「対決」のスタンスがある。その「対決」は神对人間、人間対自然、人間対人間という形で現れること[SEP] [CLS]西洋文化の基底には「刘決」といラスタンスがあり、そのスタンスが、様々な形で現れることで西洋の文化は導かれてきたということ[SEP] [CLS]西洋文化の基底にある神对人間、人間対自然人間对人間という形のような「対決」のスタンスこそが人を説得させようとする锝舌になる。 [SEP] [CLS] コーロッパは民族などが異った国々が狭い地域に雑居しているから自分の考えを相手に伝え、同意してもらう必要があること。[SEP] [CLS]西洋人は基本的には他人は自分とは違う人間と見なし、自分の考えを相手にきちんと説明して相手から同意を取つける説得が必要であること。 [SEP] [CLS]西洋人は基本的に他人は異人と見なすため、自分の考えに他人を同意させる必要があると考える。だから「対決」のスタンスがあるということ。 [SEP] [CLS]西洋文化の、人間は常に「何か」と対決しているしため、その対決している人に自分の考えを同意させるのが必要だと考えているから。[SEP] [CLS]西洋人にとって他人は異人であり、自分の考え方を相手に説明して相手からの同意を取りつける必要があるので説得は西洋人に不可決な技術であること。 [SEP] [CLS]西洋人は他人は自分と異なる人間と見なすため基底に「対決」というスタンスがあり、西洋人に生きてゆくうえで大切な技術であり、別の考えであること。 [SEP] 3 [CLS]西洋人は基本的には他人は自分とは異なる人間(異人)と見なし、西洋文化の基底には「対決」のスタンスがあるということ。[SEP] [CLS]神対人間、人間対自然、人間対人間という形で現される西洋文化の「対決」のスタンスのこと。 [SEP] [CLS]西洋文化の基底には「対決」のスタンスがあり、その「対決」は神对人間、人間对自然、人間对人間という形で現われるということ。[SEP] 4 [CLS]西洋人は基本的に他人は自分とは異なる人間(異人)と見なしており、さらに西洋文化の基底には「対決」のスタンスがあること。[SEP] [CLS]西洋文化の基底には「対決」のスタンスがあり、その「対決」は神対人間、人間対自然、人間対人間という形で現われること。[SEP] 図 3 全体採点モデルで生成した説明系列を対象としてクラスタ分析を行った結果. 各クラスタに含まれる文章と説明系列を三件ずつ例示する。文頭の番号は各クラスタの ID を示す. 一 [CLS]西洋文化の基底には他人という自分と異なる人を自分の考えに同意させるために言葉を尽くし对決するという考えがあるため、説得が本質であるという事。 [SEP] 0 [CLS]西洋文化の基底には「対決」のスタンスがあり、神対人間(宗教=契約)、人間対自然科学=合理主義)、人間対人間(個人主義)という形で現れること[SEP] [CLS]西洋人は他人と自分は異なる人間と見なし、自分の考えに他人を同意させるためて言葉を尽くして伝えようとするということ。[SEP] [CLS]西洋文化の基底には「对決」のスタンスがあり、その「对決」は、神对人間、人間对自然、人間对人間という4つの形で現れる。[SEP] 1 [CLS]西洋文化の基底には「対決」のスタンスがある。その「対決」は神対人間、人間対自然、人間对人間という形で現れる。[SEP] [CLS]西洋文化の基底には「玟決」のスタンスがあり、その「対決」は神対人間、人間対自然、人間対人間という形で現れるということ。[SEP] [CLS]他人を自分を異なる人と見なして、自分の考えを相手に同意させる必要があると考え、他人に分かってもらうために言葉を尽くし考えを伝えようとすること[SEP] 2 [CLS]ヨーロッパは民族や言語や文化を異にする多くの国々が狭い地域に雑居していることから他人を異人ととらえ、相手から同意を取りつける必要があること。 [SEP] [CLS]西洋人は基本的に他人を異人と見なすため自分の考えに他人を同意させる必要があると考え、そのために言葉を尽くして自分の考えを伝えようとすること。 [SEP] [CLS]西洋文化の基底には「対決」のスタンスがあり、基本的に他人は自分とは異なる人間だから自分の考えに同意させる必要があると考えるということ。[SEP] 3 [CLS]西洋人は基本的には他人は自分とは異なる人間と見なす。だから自分の考えに他人を同意させる必要があると考え、言葉をつくして考えを伝えようとする。 [SEP] [CLS]宗教や自然に対する考え方の違いや、個人の思想が様々だったので自分とは買なる人間である他人に自分の考えを分かってもらうために镜舌が発達した[SEP] 一 [CLS]西洋文芸は日本文芸とは違い他人は自分と異なる人間と見なすため西洋文化の基底には对決のスタンスがあり、それは個人主義という形で現れるということ[SEP] 4 [CLS]神対人間、人間対自然人間対人間という西洋文化の基底には「刘決」というスタンスがあり、説得は生きてゆくうえで大切な技術であるということ。[SEP] [CLS]他文化の人と往む事が多く、考え方の違いで対決する事が多かったヨーロッパでは、説得しないと、他人に自分の考えが理解してもらえないと考えたから[SEP] 図 4 個別採点モデル・採点項目 B で生成した説明系列を対象としてクラスタ分析を行った結果. 各クラスタに含まれる文章と説明系列を三件ずつ例示する.文頭の番号は各クラスタの ID を示す. 図 5 個別採点モデル・項目 B における固有値の推移. 全体採点モデルの時と同様に,一貫した説明のパターンをクラスタ内で確認できる。採点項目 B に該当する表現に高い寄与度が割り振られているパター ンが多いが,一方で採点項目 A であるはずの”西洋文化”に対して強い負の寄与度が確認できる。ゆえに,採点項目 B に含まれない基準”西洋文化”を使用して答案を採点している可能性が浮上した. ## 5 議論 あくまで固有値ギャップはヒューリスティックな指標であるため,依然として最適なクラスタ数を設定することは困難である.大きなクラスタ数を指定すれば詳細な分割が行われるが,検証の労力が増大 しクラスタリングの意義を損ねてしまう。一方で,小さすぎるクラスタ数を指定すれば,一つのクラスタに複数のパターンが含まれることになる. 現に, 4.4 節における実験では,一つのクラスタ内に複数の採点項目のパターンが観測された. そもそも,固有値ギャップ特性によるクラスタ数の推定に対して批判的な意見も存在する [19]. また,本論文の実験結果は人間視点の定性的な評価に留まっているため,今後の研究ではクラスタ間の距離・階層関係を利用した定量的な評価の実施を計画している. ## 6 おわりに 本研究では,記述式答案自動採点タスクにおける採点基準検証の省労力化を目的として, 特徵量帰属法とクラスタリングを使用した検証手法を開発した. 有効性を示すために,採点基準を含むデータセット上で動作確認を行い. 訓練済みの機械学習モデルに対して整合性検証が可能であることを確認した. また,実際に採点基準から外れた動作の疑いがある事例を発見することができた. ## 謝辞 本研究は JSPS 科研費 $22 \mathrm{H} 00524$ ,JST 次世代研究者挑戦的研究プログラム JPMJSP2114 の助成を受けたものである.また,研究を進めるにあたり,頻繁に議論に参加していただいた Tohoku NLP グループの皆様へ感謝いたします。 ## 参考文献 [1] Md Arafat Sultan, Cristobal Salazar, and Tamara Sumner. Fast and easy short answer grading with high accuracy. In Proceedings of the $\mathbf{2 0 1 6}$ Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1070-1075, San Diego, California, June 2016. Association for Computational Linguistics. [2] Brian Riordan, Andrea Horbach, Aoife Cahill, Torsten Zesch, and Chong Min Lee. Investigating neural architectures for short answer scoring. In Proceedings of the 12th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 159-168, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [3] Ričards Marcinkevičs and Julia E Vogt. Interpretability and explainability: A machine learning zoo mini-tour. December 2020. [4] Andrew Y Ng, C S Division, U C Berkeley, Michael I Jordan, C S Div, Dept Of, Stat U C Berkeley, and Yair Weiss. On spectral clustering: Analysis and an algorithm. https: //proceedings.neurips.cc/paper/2001/file/ 801272ee79cfde7fa5960571fee36b9b-Paper.pdf. Accessed: 2023-1-11. [5] Tomoya Mizumoto, Hiroki Ouchi, Yoriko Isobe, Paul Reisert, Ryo Nagata, Satoshi Sekine, and Kentaro Inui. Analytic score prediction and justification identification in automated short answer scoring. pp. 316-325, August 2019. [6] Zijie Zeng, Xinyu Li, Dragan Gasevic, and Guanliang Chen. Do deep neural nets display human-like attention in short answer scoring? In Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 191-205, Seattle, United States, July 2022. Association for Computational Linguistics. [7] Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. September 2014. [8] Tasuku Sato, Hiroaki Funayama, Kazuaki Hanawa, and Kentaro Inui. Plausibility and faithfulness of feature Attribution-Based explanations in automated short answer scoring. In Artificial Intelligence in Education, pp. 231242. Springer International Publishing, 2022. [9] Mukund Sundararajan, Ankur Taly, and Qiqi Yan. Axiomatic attribution for deep networks. March 2017. [10] Karen Simonyan, Andrea Vedaldi, and Andrew Zisserman. Deep inside convolutional networks: Visualising image classification models and saliency maps. December 2013. [11] Marco Tulio Ribeiro, Sameer Singh, and Carlos Guestrin. "why should I trust you?": Explaining the predictions of any classifier. February 2016. [12] Scott Lundberg and Su-In Lee. A unified approach to interpreting model predictions. May 2017. [13] Sebastian Lapuschkin, Stephan Wäldchen, Alexander Binder, Grégoire Montavon, Wojciech Samek, and KlausRobert Müller. Unmasking clever hans predictors and assessing what machines really learn. Nat. Commun., Vol. 10, No. 1, p. 1096, March 2019. [14] J MacQueen. Some methods for classification and analysis of multivariate observations. In Proceedings of the Fifth Berkeley Symposium on Mathematical Statistics and Probability, Volume 1: Statistics, Vol. 5.1, pp. 281298. University of California Press, January 1967. [15] Ulrike von Luxburg. A tutorial on spectral clustering. November 2007. [16] 理化学研究所. 理研記述問題採点データセット. July 2020. [17] Hiroaki Funayama, Tasuku Sato, Yuichiroh Matsubayashi, Tomoya Mizumoto, Jun Suzuki, and Kentaro Inui. Balancing cost and quality: An exploration of Human-inthe-Loop frameworks for automated short answer scoring. In Artificial Intelligence in Education, pp. 465-476. Springer International Publishing, 2022. [18] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. pp. 4171-4186, June 2019. [19] Song Wang, Karl Rohe, Pengsheng Ji, and Jiashun Jin. DON'T MIND THE (EIGEN) GAP. https://www. stat.cmu.edu/ jiashun/Research/ Selected/SCC-disc3.pdf. Accessed: 2023-1-13. ## A 採点モデルの性能評価 採点モデルを訓練した後に,テストセットを使用した性能の評価を行った. RMSE と QWK の二つの指標で測定した結果を記載する。 ## A. 1 全体採点モデル 全体採点モデル,テストセットに対する性能評価の結果を表 2 に示す. ## A. 2 個別採点モデル 個別採点モデル,テストセットに対する性能評価の結果を表 3 に示す. 採点項目ごとに性能の測定を行った. 表 2 全体採点モデル・テストセットにおけるモデルの性能. 問題 Y14_1-2_1_3を使用. 表 3 個別採点モデル・テストセットにおける採点項目毎の性能. 問題 Y14_1-2_1_3を使用.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C8-2.pdf
# What can Short Answer Scoring Models Learn from Cross-prompt Training Data? Hiroaki Funayama ${ }^{1,2}$ Yuya Asazuma ${ }^{1,2}$ Yuichiroh Matsubayashi $^{1,2}$ Tomoya Mizumoto ${ }^{2}$ Kentaro Inui ${ }^{1,2}$ ${ }^{1}$ Tohoku University ${ }^{2}$ RIKEN $\{$ h. funa, asazuma.yuya.r7 $\}$ dc. tohoku.ac.jp $\{y . m$, kentaro.inui\}@tohoku.ac.jp tomoya.mizumoto@a.riken.jp } \begin{abstract} For the task of Automatic Short Answer Scoring (ASAS), both rubrics and reference answers differ for every single prompt which requires a need to annotate answers for each in order to construct a highly-effective scoring model. Such need to annotate answers for every prompt is costly, especially in the context of school education and online courses where only a few answers to prompts exist. In this work, we attempt to reduce this burden by first training a model for predicting scores given rubrics and answers of already annotated prompts (adaptive-pretraining). We then fine-tune the model on a small amount of data for each new prompt to be graded. Our experimental results show that adaptive-pretraining with rubrics significantly improve scoring accuracy, especially when the training data is scarce. \end{abstract ## 1 Introduction Automatic Short Answer Scoring (ASAS) is the task of automatically scoring a given input (e.g., essays) to a prompt based on existing rubrics and reference answers $[1,2,3,4]$. ASAS has been extensively studied as a means to reduce the burden of manually scoring student answers in both school education and large-scale examinations. Recently, the practical application of ASAS systems has gained much attention, both in school education and e-learning [5, 6, 7]. However, the annotation cost is limited in school education and online courses, making it challenging to obtain sufficient training data for developing ASAS models [8]. The data to train ASAS models must be prepared for each prompt independently, as the rubrics and reference answers are different for each prompt [9]. Those facts are a considerable barrier to the practical application of ASAS systems in these situations. However, whether cross-prompt training of ASAS models can reduce annotation costs is one of the biggest open issues in this field, and few studies have addressed it [10]. Towards answering this question, given that annotated data from other prompts cannot be used directly for training an ASAS model for a specific prompt since the rubrics and reference answers for each prompt are entirely different, we focus on the relationship between the rubrics and the answers. ASAS is a task that assigns a score when an answer implicates an expression described in the rubric. Thus, we can view ASAS as determining implication relations by flexibly matching the semantics between the rubrics and answers. We leverage already annotated prompts to make the model recognize such implication relationships flexibly. Inspired by this idea, we attempt to make a model (i.e., BERT) learn the relationship between rubrics and answers using already annotated prompts (see fig.1). We can't use them directly to train the model because the rubrics contain various information for grading answers. Therefore, we utilize key phrases $[11,12]$, representative examples of expressions that an answer should include to gain scores. We train BERT on already graded prompts as predicting scores by inputting key phrase/answer pairs (name it adaptive-pretraining). Thorough the adaptive-pretraining, we expect the model will learn the relationship between the key phrase and the expressions in the answers. We then finetune BERT on the prompts to be graded. With adaptivepretraining, we expect to build ASAS models that are more robust against expression variation, especially when the training data is scarce. In our experiment, we examine the effectiveness of Figure 1 Overview of our proposed method. We input a key phrase, reference expressions, with an answer. We first adaptive-pretrain the ASAS model on already annotated prompts and then finetune the model on a prompt to be graded. adaptive-pretrain with key phrases. Our experimental results show that the model performance improves by 0.17 at maximum in Quadratic Weighted Kappa (QWK) by adaptive-pretraining with key phrases. In addition to our experiments, towards effective ASAS modeling which requires a significant amount of prompts and answers, we contribute 1,0000 new data annotations (20 prompts with 500 answers each) to the RIKEN dataset [11], the only Japanese dataset available for ASAS. We make our data annotations publicly available for academic purposes. ## 2 Method As mentioned a priori, in this study, we attempt to train ASAS models in a cross-prompt manner in order to reduce the data required to train a model for a new prompt to be graded automatically by leveraging data from already annotated prompts. Specifically, we first train a BERT model to predict scores from pairs of answers and key phrases of the already annotated prompts (adaptive pretrain). Next, we further fine-tune BERT with the small amount of data from the prompt to be graded automatically. ## 2.1 Task definition In this study, we assume that fully annotated prompts are available. We consider utilizing those annotated prompts to train models for the newly obtained prompts to be graded automatically. Let $P_{\text {known }}$ denote the already annotated prompts and $P_{\text {target }}$ denote the newly obtained prompts to be graded. Suppose $X_{p}$ represents a set of all possible student's answers of a given prompt $p \in P$, and $\mathbf{x} \in X_{p}$ is an answer. The prompt has an integer score range from 0 to $N$, which is basically defined in rubrics. Namely, the score for each answer is selected from one of the integer set $S=\{0, \ldots, N\}$. Therefore, we can define the ASAS task as assigning one of the scores $s \in S$ for each given input $\mathbf{x} \in X_{p}$. Moreover, to construct an ASAS model means to construct a regression function $m$ from every input of student answer $\mathbf{x} \in X$ to a score $s \in S$, that is, $m: X \rightarrow S$. ## 2.2 Scoring model A typical, recent approach to constructing a mapping function $m$ is the use of newly developed deep neural networks (DNNs). As discussed a priori, the set of scores $S$ consists of several consecutive integers $\{0, \ldots, N\}$. Suppose $D$ is training data that consist of a set of actually obtained student's answers $\mathbf{x}$ and its corresponding human annotated score $s$ pairs, that is, $D=\left(\left(\mathbf{x}_{i}, s_{i}\right)\right)_{i=1}^{I}$, where $I$ is the number of training data. To train the model $m$, we try to minimize the Mean Squared Error (MSE) loss on training data $L_{m}(D)$ calculated using model $m$. Therefore, we can write the training process of the SAS model as the following minimization problem: $m=\underset{m^{\prime}}{\operatorname{argmin}}\left.\{L_{m^{\prime}}(D)\right.\}, \quad L_{m}(D)=\frac{1}{|D|} \sum_{(\mathbf{x}, s) \in D}(s-m(\mathbf{x}))^{2}$, where $m(\mathbf{x})$ represents the calculated prediction of model $m$ given input $\mathbf{x}$. Once $m$ is obtained, we can predict the score $\widehat{s}$ of any input (student answer) by using trained model $m$ as $\widehat{s}=m(\mathbf{x})$. ## 2.3 Adaptive-pretrain with rubrics ## 2.3.1 Key phrase A key phrase is a representative example of the expressions that an answer must contain in order to gain scores. In general, rubrics are difficult to utilize directly because they detail the information and properties that an answer must contain in order to score. In general, it is difficult to use rubrics for training models directly because they detail the information and expressions that an answer must contain to gain scores. Therefore, we utilize key phrases such as those shown in Figure 2. ## 2.3.2 Adaptive-pretrain As described in Section 2.1, we utilize data from already annotated prompts $P_{\text {known }}$ to train models for prompts $P_{\text {target }}$ to be graded. For each prompt $p \in P$, there exists a key phrase $k_{p}$.We separate the key phrase $k_{p}$ of prompt $p$ and the i-th answer $x_{p, i}$ of prompt $p$ by [SEP] as the sequence $t_{p, i}=\left.\{k_{p},[S E P], \mathbf{x}_{\mathbf{p}, \mathbf{i}}\right.\}$. Then, we construct data for adaptive-pretraining as: $ D_{\text {adap }}=\left.\{\left(t_{p, i}, s_{p, i}\right) \mid p \in=P_{\text {known }}\right.\}_{i=1}^{I} $ We train the BERT-based regression model on this dataset $\mathscr{D}_{\text {adap }}$ to obtain model $m_{\text {adap }}$ : $ m_{\text {adap }}=\underset{m^{\prime}}{\operatorname{argmin}}\left.\{L_{m^{\prime}}\left(D_{\text {adap }}\right)\right.\} $ We refer to models trained on existing graded prompts as adaptive-pretraining. Next, we further fine-tune the adaptive-pretrained model on $p \in P_{\text {target }}$ to obtain a model $m_{p}$ for prompt $p$. $ m_{p}=\underset{m^{\prime}}{\operatorname{argmin}}\left.\{L_{m^{\prime}}\left(D_{p}\right.\},\right. $ ## 3 Experiment ## 3.1 Dataset We use the RIKEN dataset, the only publicly available Japanese SAS dataset ${ }^{1)}$ provided in [11]. As mentioned in Section.1, we extend the dataset to conduct this research. Each prompt in the RIKEN dataset has several scoring rubrics (i.e., analytic criterion [11]), and an answer is manually graded based on each analytic criterion independently  Figure 2 Example of a prompt, scoring rubric, and student's answers excerpted from RIKEN dataset [11] and translated from Japanese to English. For space reasons, some parts of the rubrics and answers are omitted. (i.e., analytic score). Thus, following [13], we treat this analytic criterion as an individual scoring task. For simplicity, we refer to each analytic criterion as a single prompt in this paper. In this way, we consider that there are a total of 109 prompts in this dataset. In our experiment, we used 21 prompts as $P_{\text {target }}$ to evaluate the effectiveness of adaptive-pretraining (see Appendix for detailed information regarding 3 ). For adaptivepretraining, we used all remaining 88 prompts consisting of 480 answers per prompt for training the model and 20 answers per prompt as devset. ## 3.2 Setting As described in Section 2.2, we used pretrained BERT [14] as the encoder for the automatic scoring model and use the vectors of CLS tokens as feature vectors for predicting answers ${ }^{2}$ Similar to previous studies $[11,15,2]$, we use a Quadratic Weighted Kappa (QWK) [16], a de facto standard evaluation metric in ASAS, in the evaluation of our models. The scores were normalized to a range from 0 to 1 according to previous studies [15,11]. QWK was measured by re-scaling when evaluated on the test set. We train a model for 5 epochs in the adaptive-pretraining process. We then fine-tune the adaptive-pretrained model for 10 epochs. In the setting without adaptive-pretraining process, we fine-tune the model for 30 epochs. We computed the QWK of the dev set at the end of each epoch  Table 1 QWK and standard deviation of four settings; with and without adaptive-pretraining, and with and without rubrics (keyphrase). In the adaptive-pretraining phase, we use 88 prompts, 480 answers per prompt. We change the amount of data for finetuning as 25,50 , 100 , and 200 . \cline { 2 - 5 } & w/ rubric & w/o rubric & w/ rubric & w/o rubric \\ 50 & $0.74 \pm 0.01$ & $0.62 \pm 0.02$ & $0.64 \pm 0.02$ & $0.64 \pm 0.01$ \\ 100 & $0.78 \pm 0.01$ & $0.70 \pm 0.02$ & $0.73 \pm 0.02$ & $0.73 \pm 0.01$ \\ 200 & $0.81 \pm 0.01$ & $0.77 \pm 0.01$ & $0.80 \pm 0.01$ & $0.79 \pm 0.01$ \\ in fine-tuning process and evaluated the test set using the parameters with the maximum QWK. ## 3.3 Results Table 2 QWK and standard deviation when the total number of answers used for adaptive-pretrain is fixed at 1,600 and the number of questions used is varied from $5,10,20,40,80.50$ training data were used for finetuning. & QWK \\ 10 & 160 & $0.68 \pm 0.02$ \\ 20 & 80 & $0.74 \pm 0.01$ \\ 40 & 40 & $0.74 \pm 0.01$ \\ 80 & 20 & $0.74 \pm 0.00$ \\ We first compared the performance with and without adaptive pretraining and with and without scoring criteria. Here, similar to [11], we experimented with 25 , 50, 100, and 200 training data instances in the fine-tuning phase. The results are shown in Table 1. First, we can see that adaptive pretraining without key phrases does not improve the model performance. Similarly, using only key phrases without adaptive pretraining does not improve scoring accuracy. QWK improves significantly only when key phrases are used and when adaptive-pretrain is performed. The gain was notably large when the training data was scarce, with a maximum improvement of about 0.17 in QWK when using 25 answers for fine-tuning. On the other hand, the performance did not improve when we used 200 answers in training, which indicates that adaptivepretraining does not benefit when sufficient training data is available. Furthermore, it is also suggested that the adaptive pretraining with key phrases can reduce the required training data by half while maintaining the same perfor- mance. Note that the results without adaptive-pretrain are comparable to the results of the baseline model shown in [11]. Impact of the number of prompts used for adaptive-pretraining Next, we examined how changes in the number of prompts affect adaptive-pretrain: we fixed the total number of answers used for the adaptive-pretrain at 1,600 and varied the number of prompts between 5, 10, 20,40 , and 80 . We performed fine-tuning using 50 answers for each prompt. The results are shown in Table 2. The QWK is 0.68 when the number of prompts is 5 or 10 , indicating that the effectiveness of adaptive-pretraining is inferior when the number of prompts is less than 20 . This suggests that a sufficient number of prompts are required for effective adaptive-pretraining. It also suggests that increasing the number of prompts is more effective for adaptive-pretraining than increasing the number of answers per prompts. ## 4 Conclusion The limited cost of annotation for data has been a major obstacle in deploying ASAS systems into school education and online learning courses. To tackle this problem, we considered utilizing already annotated prompts. Specifically, we first performed adaptive-pretraining for a BERTbased regression model using the answers and key phrases of the annotated questions. We then further fine-tuned the BERT model with a small amount of data on the prompt we want to grade automatically. Experimental results showed that adaptive-pretraining with key phrases greatly improves the performance of the model, especially when the training data is scarce. We also discovered that adaptive-pretraining can reduce the amount of required training data by half while maintaining the same performance. ## Acknowledgement We are grateful to Dr. Paul Reisert for their writing and editing assistance. This work was supported by JSPS KAKENHI Grant Number 22H00524, JP19K12112, JST SPRING, Grant Number JPMJSP2114. We also appreciate Takamiya Gakuen Yoyogi Seminar for providing the valuable data. ## References [1] Claudia Leacock and Martin Chodorow. C-rater: Automated Scoring of Short-Answer Questions. Computers and the Humanities, Vol. 37, No. 4, pp. 389-405, 2003. [2] Michael Mohler, Razvan Bunescu, and Rada Mihalcea. Learning to Grade Short Answer Questions using Semantic Similarity Measures and Dependency Graph Alignments. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: $\mathrm{Hu}$ man Language Technologies, pp. 752-762, 2011. [3] Md Arafat Sultan, Cristobal Salazar, and Tamara Sumner. Fast and easy short answer grading with high accuracy. In NAACL-HLT, pp. 1070-1075, San Diego, California, June 2016. Association for Computational Linguistics. [4] Surya Krishnamurthy, Ekansh Gayakwad, and Nallakaruppan Kailasanathan. Deep learning for short answer scoring. International Journal of Recent Technology and Engineering, Vol. 7, pp. 1712-1715, 032019. [5] Yaman Kumar, Swati Aggarwal, Debanjan Mahata, Rajiv Ratn Shah, Ponnurangam Kumaraguru, and Roger Zimmermann. Get it scored using autosas - an automated system for scoring short answers. In AAAI/IAAI/EAAI. AAAI Press, 2019. [6] Shourya Roy, Sandipan Dandapat, Ajay Nagesh, and Y. Narahari. Wisdom of students: A consistent automatic short answer grading technique. In Proceedings of the 13th International Conference on Natural Language Processing, pp. 178-187, Varanasi, India, December 2016. NLP Association of India. [7] Xiaoming Zhai. Practices and theories: How can machine learning assist in innovative assessment practices in science education. Journal of Science Education and Technology, Vol. 30, No. 2, pp. 139-149, Apr 2021. [8] Torsten Zesch, Michael Heilman, and Aoife Cahill. Reducing annotation efforts in supervised short answer scoring. In Proceedings of the Tenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 124-132, Denver, Colorado, June 2015. Association for Computational Linguistics. [9] Steven Burrows, Iryna Gurevych, and Benno Stein. The eras and trends of automatic short answer grading. International Journal of Artificial Intelligence in Education, Vol. 25, No. 1, pp. 60-117, 2015. [10] Stefan Haller, Adina Aldea, Christin Seifert, and Nicola Strisciuglio. Survey on automated short answer grading with deep learning: from word embeddings to transformers, 2022. [11] Tomoya Mizumoto, Hiroki Ouchi, Yoriko Isobe, Paul Reisert, Ryo Nagata, Satoshi Sekine, and Kentaro Inui. Analytic Score Prediction and Justification Identification in Automated Short Answer Scoring. In BEA, pp. 316-325, 2019. [12] Tianqi Wang, Hiroaki Funayama, Hiroki Ouchi, and Kentaro Inui. Data augmentation by rubrics for short answer grading. Journal of Natural Language Processing, Vol. 28, No. 1, pp. 183-205, 2021. [13] Hiroaki Funayama, Tasuku Sato, Yuichiroh Matsubayashi, Tomoya Mizumoto, Jun Suzuki, and Kentaro Inui. Balancing cost and quality: An exploration of human-in-theloop frameworks for automated short answer scoring. In Maria Mercedes Rodrigo, Noburu Matsuda, Alexandra I. Cristea, and Vania Dimitrova, editors, Artificial Intelligence in Education, pp. 465-476, Cham, 2022. Springer International Publishing. [14] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In NAACLHLT, pp. 4171-4186, June 2019 [15] Brian Riordan, Andrea Horbach, Aoife Cahill, Torsten Zesch, and Chong Min Lee. Investigating neural architectures for short answer scoring. In BEA, pp. 159-168, 2017. [16] Jacob Cohen. Weighted Kappa: Nominal Scale Agreement with Provision for Scaled Disagreement or Partial Credit. Psychological bulletin, Vol. 70, No. 4, pp. 213-220, 1968. ## A List of prompts used in the evaluation In this study, we considered the use of already annotated prompts for constructing ASAS models for new prompts to be graded. Therefore, in the experiments, we divided all prompts into two categories, prompts used for adaptive pretraining (already annotated prompts) and prompts used for the evaluation (prompts to be graded). We shows the list of prompts used for the evaluation in table 3 . We used all prompts except those in this table for adaptive-pretrain. Table 3 List of the prompts and analytic criterion used for the evaluation.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C8-3.pdf
# 論述構造解析技術を用いたニューラル小論文自動採点手法 山浦美里 ${ }^{1}$ 福田樹 1 宇都雅輝 1 1 電気通信大学大学院 \{yamaura, fukuda,uto\}@ai. lab.uec.ac.jp ## 概要 近年,深層学習を用いた小論文自動採点モデルが高精度を達成しつつあるが,従来の深層学習自動採点モデルは文章の論理構造を明示的には考慮できない. 本研究では, 論述構造解析技術を用いて推定される文章の論理構造を考慮できる新たな深層学習自動採点モデルを提案する。 ## 1 はじめに 論理的思考力や表現力が新しい時代に求められる資質として注目される中,そのような能力の評価法の一つとして小論文試験が広く活用されている $[1,2,3]$. しかし,小論文試験には,採点の公平性担保の困難さや人手採点に伴うコストの増大などの懸念がある [4]. これらの問題を解決する手段の一つとして自動採点技術が近年注目されている $[5,6]$. 既存の小論文自動採点手法は大きく2つに分類できる [6,7]. 一つは人手で設計した特徴量を用いる手法であり, 文章から抽出した特徴量(総単語数や接続詞数,文法エラー率など)を線形回帰モデルや決定木などの機械学習モデルに入力して得点を予測する $[5,8]$. 二つ目は深層学習を用いる手法であり,入力が小論文の単語系列, 出力が得点となる深層学習モデルを構築して自動採点を実現する [6,9]. 近年では, BERT(Bidirectional Encoder Representations from Transformers)[10] などを用いた深層学習自動採点モデルが高精度を達成している [11,12]. 従来の深層学習自動採点モデルでは,単語の意味や単語間の関係性は考慮できるが,文章の論理構造は直接的には考慮できない [13, 14]. 論理構造は小論文の質に関わる本質的な要素の一つであるため,論理構造をモデルに明示的に与えることができれば,更なる自動採点の精度向上が期待できる。このような背景から, Nguyen \& Litman[15] は, 論理構造を考慮できる小論文自動採点手法を提案している. この手法では,自然言語処理分野において近年高精度化が進む論述構造解析技術 (Argument Mining) $[16,17,18,19,20,21]$ を用いて文章の論理構造を推定し, 得られた論理構造から特徵量(論理構造の構成要素数やそれらの要素間のエッジの数,各要素中の単語数など)を抽出して特徴量ベースの自動採点手法を構築している. しかし,実験の結果,論理構造に関する特徵量の追加による自動採点精度の改善は限定的であったことを報告している。 この要因としては, 論理構造の情報を表層的な特徵量に縮約してしまったため,論理構造の情報を十分に活用できなかったことが考えられる。 そこで本研究では, 論述構造解析で求めた論理構造を人手で設計した特徵量に変換せずに処理できる深層学習手法を開発し,その手法を組み込んだ新たな深層学習自動採点手法を提案する. 具体的には,BERT モデルの Self-Attention 機構を拡張することで,論理構造を考慮できる深層学習モデルを構築し,その処理結果を従来の深層学習自動採点モデルに統合する方法を開発する。 さらに,ベンチマークデータを用いた実験を通して提案手法の有効性を示す. ## 2 提案手法 ## 2.1 論述構造解析による論理構造推定 提案手法では, Nguyen \& Litman [15] と同様に, 論理構造の推定に論述構造解析技術を用いる. 論述構造解析では, 図 1 のように,まず文章中から論理構造のノードに対応する文や文節(論理要素と呼ぶ) 図 1 論述構造解析の概念図 を抽出し, それらの論理要素間の論理関係を木構造制約を満たすように推定することで,文章の論理構造を推定する [18]. 本研究では, 近年高精度を達成している深層学習べースの論述構造解析手法の一つである Eger et al.[19] の手法を用いる. ## 2.2 論理構造を処理する深層学習モデル 提案手法では,論理構造を処理する深層学習モデルの基礎モデルとして BERTを用いる. BERT は,Self-Attention 機構をコアとする Transformer と呼ばれる構造を 12 層重ねた深層学習モデルである. 本研究では, BERTへの入力として, 採点対象文の先頭に [CLS] という特殊タグを挿入した単語系列 $\left.\{w_{0}, w_{1}, \ldots, w_{T}\right.\}$ (ただし, $w_{0}$ は [CLS] タグ, $w_{t}$ $(t>1)$ は対象文の $t$ 番目の単語, $T$ は対象文の単語数を表す)を考え,[CLS] タグに対応する出力べクトルを入力文に対する分散表現ベクトルとみなす。 このとき,BERT の $l$ 層目の Self-Attention は次式で求められる. $ \mathbf{H}_{l}=\mathbf{A}_{l} \cdot \mathbf{V}_{l} $ ここで, $\mathbf{H}_{l}$ は $l$ 層目の Self-Attention 層の出力であり, $(T+1) \times D$ の行列(ただし, $D$ は BERT の潜在変数ベクトルの次元数を表す) である。なお, $\mathbf{H}_{l}$ の行数が対象文中の単語数 $T$ ではなく $(T+1)$ となっているのは,上記の通り,BERTへの入力の先頭に特殊タグ [CLS] を付与しているためである. また, $\mathbf{V}_{l}$ は一つ前の層の出力 $\mathbf{H}_{l-1}$ に基づいて計算される $(T+1) \times D$ の行列である. さらに, $\mathbf{A}_{l}$ は $(T+1) \times(T+1)$ のアテンション重みを表す行列であり,通常の BERTでは,次式で求められる。 $ \mathbf{A}_{l}=\operatorname{softmax}\left(\frac{\mathbf{Q}_{l} \cdot \mathbf{K}_{l}^{\top}}{\sqrt{d}}\right) $ ここで, $\mathbf{Q}_{l}$ と $\mathbf{K}_{l}$ は一つ前の層の出力 $\mathbf{H}_{l-1}$ に基づいて計算される $(T+1) \times D$ の行列であり,$d$ は調整係数である. アテンション重み行列 $\mathbf{A}_{l}$ は,文章中のある単語の分散表現ベクトルを計算するために,その他の単語の情報をどれだけ参照するかをコントロールする機能を持つ. 例えば, $\mathbf{A}_{l}$ の $t$ 行 $t^{\prime}$ 列目の要素 $a_{l t t^{\prime}}$ は単語 $w_{t}$ の分散表現ベクトルを計算する際に, $w_{t^{\prime}}$ の情報をどれだけ重み付けして加算するかを表現する. 本研究では,このアテンション重みを調整することで,論理構造を明示的に反映することを目指す. 具体的には, 論理関係のある論理要素間では単語間の情報参照を許可し,論理関係がない論理要素間では単語間での情報参照を行わせないようにするために, Visible Matrix と呼ぶ $(T+1) \times(T+1)$ の行列 $\mathbf{M}=\left.\{m_{t t^{\prime}} \mid t, t^{\prime} \in\{0, \ldots, T\}\right.\}$ を導入し,アテンション重み行列 $\mathbf{A}_{l}$ を次のように計算する. $ \mathbf{A}_{l}=\operatorname{softmax}\left(\frac{\mathbf{Q}_{l} \cdot \mathbf{K}_{l}^{\top}}{\sqrt{d}}+\mathbf{M}\right) $ この式では, Visible Matrix $\mathbf{M} の t$ 行 $t^{\prime}$ 列目の要素 $m_{t t^{\prime}}$ が - になると,Softmax 関数により,アテンション行列の $t$ 行 $t^{\prime}$ 列目の要素 $a_{l t t^{\prime}}$ が 0 となるため, 式 (1) の Self-Attention の計算において $t$ 番目の単語の分散表現ベクトルの計算時に $t^{\prime}$ 番目の単語の情報を無視させることができる.そこで,本研究では,論理関係がない単語間について $m_{t t^{\prime}}=-\infty$,論理関係がある単語間について $m_{t t^{\prime}}=0$ になるように,次のように Visible matrix を構築する。 今,採点対象文に論述構造解析を適用した結果, $P$ 個の論理要素が得られたとする. ここで, $p$ 番目の論理要素を $\mathbf{C}_{p}$ (ただし, $p=\{1, \ldots, P\}$ )とし, $\mathbf{C}_{p}$ はその論理要素に含まれる連続する単語の集合として $\left.\{w_{i}, w_{i+1}, \ldots, w_{I_{p}}\right.\}$ で表すとする. ただし, $i$ は対象文中における論理要素 $\mathbf{C}_{p}$ の開始位置, $I_{p}$ は $\mathbf{C}_{p}$ に含まれる単語数とする。また,論理要素間の関係は $P \times P$ の対称行列 $\mathbf{R}=\left.\{r_{u v} \mid u, v \in\{1, \ldots, P\}\right.\}$ で表し, $u$ 番目の論理要素 $\mathbf{C}_{u}$ と $v$ 番目の論理要素 $\mathbf{C}_{v}$ に論理関係があるとき $r_{u v}=r_{v u}=1$, そうでないときに $r_{u v}=r_{v u}=0$ とする. 以上の定義のもとで,本研究では, 以下の 2 条件を満たすときに $m_{t t^{\prime}}=0$, そうでないときに $m_{t t^{\prime}}=-\infty$ となるように, Visible matrix Mを作成する. 1. $w_{t}$ を要素に持つ論理要素 $\mathbf{C}_{p}$ と $w_{t^{\prime}}$ を要素に持つ論理要素 $\mathbf{C}_{p^{\prime}}$ が存在する。 2. $\mathbf{C}_{p}$ と $\mathbf{C}_{p^{\prime}}$ に論理関係が存在する. すなわち $r_{p p^{\prime}}=1$ である. なお, 個々の論理要素について, 論理要素内の単語同士では情報の参照ができるように, $r_{p p}=1 ; \forall p$ とする. また, 本研究では, [CLS] に対応する出力を論理構造を考慮した全体の分散表現べクトルとすることを想定しているため,Visible Matrix M の 0 行目の要素は 0 , すなわち $m_{0 t}=0 ; \forall t$ とし, 全体の情報が [CLS] に集約されるようにする. 反対に, [CLS] タグに集約される情報を各単語が参照できてはいけないため,M の 0 列目の要素は 0 行目を除いて全て $-\infty$ とする. 本研究では,以上のように作 図 2 Visible Matrix 適用の概念図 成した Visible Matrix を用いて,論理構造の情報を反映できるように Self-Attention を拡張した BERT を 「BERT-LS」と呼ぶ. 図 2 に Visible Matrix の作成と BERT-LS における Self-Attention の概念図を示す. 図 2 の下部で図示しているように,BERT-LS の Self-Attention では,各単語の分散表現ベクトルを計算する際に,その単語と論理的に関係がある論理要素の情報のみが考慮され,論理関係がない論理要素間では単語間の情報参照がおこらないようになっている. そのため,全単語間の関係を考慮する通常の BERT と比べて, BERT-LS では論理構造を強調した情報処理が実現できると考えられる。また,図からもわかるように, BERT-LS では,[CLS] タグに対応する分散表現べクトルに全体の情報が縮約されている。よって,本研究では,BERT-LS の最終層の [CLS] タグに対応する出力ベクトル $x_{0}^{\prime}$ を論理構造を考慮した分散表現べクトルとして採用する. ## 2.3 論理構造を考慮した深層学習自動採点手法 ここでは,BERT-LS を用いて処理した論理構造情報を,従来の深層学習自動採点モデルに加味させる手法を提案する. 従来の深層学習自動採点モデルとしては,様々なモデルが利用できるが,ここでは,近年ベースラインとして広く利用される BERT を用いた深層学習自動採点モデルを基礎モデルとして利 図 3 BERT による自動採点モデルの概念図用する. BERTを用いた自動採点モデルの概念図を図 3 に示す. モデルへの入力は,BERT-LS と同様に,小論文の先頭に [CLS] タグを挿入した単語系列 $\left.\{w_{0}, w_{1}, \ldots, w_{T}\right.\}$ である. BERTを用いた自動採点モデルでは, [CLS] タグに対応する BERT の出力べクトル $x_{0}$ に対して,次式で与えられる Linear Layer with Sigmoid Activation を適用することで,予測得点 $s$ を求める。 $ s=\sigma\left(\boldsymbol{W} \boldsymbol{x}_{0}+b\right) $ ここで, $\sigma$ は Sigmoid 関数を表し, $\boldsymbol{W}$ と $b$ は重みべクトルとバイアスを表すパラメータである. なお, $s$ は 0 から 1 の値を取るため,得点尺度がこれと異なる場合には, $s$ を一次変換し,実際の得点尺度に合わせる. 例えば, $1 \sim K$ の $K$ 段階得点の場合, $K s+1$ と変換する. 提案手法では,図 4 に示すように,BERT-LS で得られる分散表現ベクトル $\boldsymbol{x}_{0}^{\prime}$ ([CLS] に対応する最終 図 4 提案モデルの概念図 表 1 実験結果 層の出力ベクトル)を,従来の深層学習自動採点モデルで得られる分散表現ベクトル $x_{0}$ と結合したベクトル $\left[x_{0} ; x_{0}^{\prime}\right]$ を作成し, それを Linear Layer with Sigmoid Activation に入力して予測得点を算出する. モデル学習は, 次式の平均二乗誤差 (mean squared error:MSE)を損失関数として誤差逆伝搬法で行う。 $ \frac{1}{N} \sum_{n=1}^{N}\left(s_{n}-s_{n}^{*}\right)^{2} $ ここで, $s_{n}$ は小論文 $n$ の予測得点, $s_{n}^{*}$ は真の得点を表し, $N$ は訓練データ中の小論文の数を表す. なお,出力層に Sigmoid 関数を採用しているため,真の得点は 0 から 1 の値に線形変換する必要がある. ## 3 実験 提案手法の有効性を確認するために,ベンチマー クデータを用いた評価実験を行う.実験には,自動採点研究のベンチマークデータとして広く利用されている Automated Student Assessment Prize (ASAP) を用いた. ASAP は,8つの異なる小論文課題に対して,英語を母語とする米国の学生が英語で解答した小論文と,それに対する得点で構成されるデータセットである. 予測精度の評価実験は,8つの課題別に 5 分割交差検証法で行い,精度評価指標には 2 次重み付きカッパ係数 (QWK; quadratic weighted kappa)を用いた. ベースとする深層学習自動採点モデル(図 4 の右側のモデル)には,BERT,RoBERTa[22], ALBERT[23], DistilBERT[24], DeBERTa[25], LSTM (Long short term memory)を中心としたモデル [26] を用い,それぞれのモデルに対して,BERT-LS を統合した提案手法と BERT-LS を使用しない従来手法について予測精度を求めた. さらに,BERT-LS 単体 についても同様の実験を行なった. 実験結果を表 1 に示す. 太字は提案手法と従来手法で精度の高い方を示している。また, $\mathrm{p}$ 值列は,同一のベースモデルにおける提案手法と従来手法の平均精度について,対応のある $\mathrm{t}$ 検定を行なった結果を示している。表 1 より,概ね全てのべースモデルで提案手法の平均精度が従来手法より高いこと, また,BERT-LS を単体で使用した場合と比べても,提案手法の精度が高いことが確認できる。 従来手法と比べた提案手法の精度改善は, 課題 1 , 2,8 において大きい傾向が確認できる. ASAP デー タセットには,自身の意見を論証するタイプの課題 (課題 1,2,7,8)と,与えられた長文に対してやや短めの文章で回答する形式の課題(課題 $3 , 4 , 5$, 6)が含まれており,精度改善が大きかった課題 1 , 2,8 は論証タイプの課題である. このことから,提案手法は, 論理的な文章構成が必要とされるタイプの小論文課題において,有効性が高い傾向があると考えられる。 ## 4 まとめ 本研究では, 論述構造解析を用いて小論文の論理構造を推定し,その情報を深層学習で解析する手法を開発するとともに,その手法を組み込んだ新たな深層学習自動採点モデルを提案した. 実データ実験により,提案モデルによって小論文の論理構造を明示的に深層学習モデルに組み込むことが,自動採点の精度改善に有効であることが示された. 論理構造を活用した自動採点の先行研究 [15] では, 論理構造に基づく特徴量組み込みの有効性は示されなかったが,本研究で提案した方法で組み込みを行えば精度が改善されることが示された. ## 参考文献 [1] Yousef Abosalem. Assessment techniques and students' higher-order thinking skills. International Journal of Secondary Education, Vol. 4, pp. 1-11, 012016. [2] Emily R Lai. Critical thinking: A literature review. Pearson's Research Reports, Vol. 6, No. 1, pp. 40-41, 2011. [3] Ou Lydia Liu, Lois Frankel, and Katrina Crotts Roohr. Assessing critical thinking in higher education: Current state and directions for next-generation assessment. ETS Research Report Series, Vol. 2014, No. 1, pp. 1-23, 2014. [4] Masaki Uto and Masashi Okano. Learning Automated Essay Scoring Models Using Item-Response-Theory-Based Scores to Decrease Effects of Rater Biases. IEEE Transactions on Learning Technologies, Vol. 14, No. 6, pp. 763-776, 2021. [5] Zixuan Ke and Vincent Ng. Automated Essay Scoring: A Survey of the State of the Art. In Proc. International Joint Conferences on Artificial Intelligence Organization, Vol. 19, pp. 6300-6308, 2019. [6] Masaki Uto. A review of deep-neural automated essay scoring models. Behaviormetrika, Vol. 48, No. 2, pp. 459-484, 2021. [7] Takumi Shibata and Masaki Uto. Analytic Automated Essay Scoring Based on Deep Neural Networks Integrating Multidimensional Item Response Theory. In Proc. International Conference on Computational Linguistics, pp. 2917-2926, Gyeongju, Republic of Korea, October 2022. [8] Peter Phandi, Kian Ming A Chai, and Hwee Tou Ng. Flexible Domain Adaptation for Automated Essay Scoring Using Correlated Linear Regression. In Proc. Conference on Empirical Methods in Natural Language Processing, pp. 431-439, 2015. [9] Farah Nadeem, Huy Nguyen, Yang Liu, and Mari Ostendorf. Automated Essay Scoring with Discourse-Aware Neural Models. In Proc. Workshop on Innovative Use of NLP for Building Educational Applications, pp. 484-493, 2019. [10] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proc. the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, June 2019. [11] Christian Stab, Tristan Miller, Benjamin Schiller, Pranav Rai, and Iryna Gurevych. Cross-topic argument mining from heterogeneous sources. In Proc. Conference on Empirical Methods in Natural Language Processing, pp. 3664-3674, 2018. [12] Masaki Uto, Yikuan Xie, and Maomi Ueno. Neural Automated Essay Scoring Incorporating Handcrafted Features. In Proc. International Conference on Computational Linguistics, pp. 6077-6088, 2020. [13] Harneet Kaur Janda, Atish Pawar, Shan Du, and Vijay Mago. Syntactic, semantic and sentiment analysis: The joint effect on automated essay evaluation. IEEE Access, Vol. 7, pp. 108486-108503, 2019. [14] Patrick Hohenecker and Thomas Lukasiewicz. Ontology reasoning with deep neural networks. Journal of Artificial Intelligence Research, Vol. 68, pp. 503-540, 2020. [15] Huy Nguyen and Diane Litman. Argument Mining for Improving the Automated Scoring of Persuasive Essays. Proc. Association for the Advancement of Artificial Intelligence Conference on Artificial Intelligence, Vol. 32, No. 1, 2018. [16] Raquel Mochales Palau and Marie-Francine Moens. Argumentation Mining: The Detection, Classification and Structure of Arguments in Text. In Proc. International Conference on Artificial Intelligence and Law, pp. 98-107, 2009. [17] Ruty Rinott, Lena Dankin, Carlos Alzate Perez, Mitesh M. Khapra, Ehud Aharoni, and Noam Slonim. Show Me Your Evidence - an Automatic Method for Context Dependent Evidence Detection. In Proc. Conference on Empirical Methods in Natural Language Processing, pp. 440-450, 2015. [18] Christian Stab and Iryna Gurevych. Parsing Argumentation Structures in Persuasive Essays. Computational Linguistics, Vol. 43, No. 3, pp. 619-659, 2017. [19] Steffen Eger, Johannes Daxenberger, and Iryna Gurevych. Neural End-to-End Learning for Computational Argumentation Mining. In Proc. Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 11-22, 2017. [20] John Lawrence and Chris Reed. Argument Mining: A Survey. Computational Linguistics, Vol. 45, No. 4, pp. 765-818, 2020. [21] Yuxiao Ye and Simone Teufel. End-to-End Argument Mining as Biaffine Dependency Parsing. In Proc. Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 669-678, 2021. [22] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019. [23] Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, and Radu Soricut. ALBERT: A lite BERT for self-supervised learning of language representations. International Conference on Learning Representations, 2020. [24] Victor Sanh, Lysandre Debut, Julien Chaumond, and Thomas Wolf. DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter. arXiv preprint arXiv:1910.01108, 2019. [25] Pengcheng He, Xiaodong Liu, Jianfeng Gao, and Weizhu Chen. Deberta: Decoding-enhanced bert with disentangled attention. arXiv preprint arXiv:2006.03654, 2020. [26] Kaveh Taghipour and Hwee Tou Ng. A Neural Approach to Automated Essay Scoring. In Proc. Empirical Methods in Natural Language Processing, pp. 1882-1891, 2016.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C8-4.pdf
# 学習者回答予測モデルからの設問の正答者数予測分布推定 江原遥 1 1 東京学芸大学 教育学部 ehara@u-gakugei.ac.jp ## 概要 本稿では,問題文から問題文の難しさを考慮して学習者が正答できるかを判定する学習者回答予測夕スクを扱う.BERTなどの大規模言語モデルを用いる場合,学習者ごとに異なった結果を出す判別ができない問題があり,学習者を表すトークンを問題文に付与してこの問題を解決する手法を筆者が 2022 年に提案した. 本稿では,この手法をさらに拡張し, 個人化判別対応の微調整済み言語モデルから,問題の難しさ等の性質を「正答者数予測分布」として抽出する手法を提案する。 ## 1 はじめに 学習支援システムにおいて,学習者が項目に回答できるかどうかを予測する事は,学習者に合った水準の項目(設問)の提示など,適応的学習支援を行うための基本的なタスクである.学習者が項目に回答した履歴のデータがあれば,教育心理学などで能力や難しさのモデル化に多用される項目反応理論 (Item Response Theory,以下 IRT) [1] を用いることで, 学習者の能力と項目の難しさを推定し, 学習者の反応予測を行う事ができる。しかし,IRTに基づくモデルは通常, 学習者の回答パターンにのみ依存し,項目(設問)が自然文で書かれていても文意を理解しない,自然言語処理においては,近年, Transformer モデルに代表される深層言語モデルが自然文理解で高い性能を示している [2]ため,設問文の理解に,これらの深層言語モデルを用いたい.しかし,これらの言語モデルは,通常,言語のみをモデル化するため, 学習者ごとに異なった判定を行うことができず,学習者反応の予測に用いることが難しい問題があった. この問題に対し, 筆者は, 設問文を考慮した学習者反応の予測問題に適用する簡便な方法を提案した [3]. この手法では,事前学習済の深層言語モデル Bidirectional Encoder Representation of Tranformers (BERT)[2] に,学習者 IDを表す語を新語として追加し,設問文の文頭に学習者 ID を表す語を置くことで,「この学習者 ID の被験者が次の設問文で表される問題に正答できるか否か」を予測するように,テスト結果データセット上で, 微調整 (fine-tune) している。この手法は,自然文で記述されている設問に対して, 複数の学習者が正答/誤答が明瞭にわかる形式(多肢選択式など)で回答する試験結果データであれば,幅広く適用することが原理的に可能であるため,汎用性が高い. 教育の目的では,さらに,予測だけでなく,設問の難しさ(困難度)や,設問が良問である度合い(識別力)も微調整済モデルから取得したい.こうした設問に関する値を既に学習者の回答がわかっている設定で取得できる統計的手法としては, 項目反応理論 (Item Response Theory, IRT) の 2 パラメータモデルが知られている. しかし,一部の学習者の回答結果が不明であり予測しなければならない設定で,予測性能が高いだけでなく,さらに,こうした設問文の解釈に重要な値を深層言語モデルから取得する手法はわかっていなかった。 本稿では,微調整済の BERT による学習者回答予測モデルで,高い予測精度を持ったうえ,設問の難しさなど教育上重要な情報を取得できる正答者数分布を推定する手法を提案する. 提案手法から抽出した設問の性質は,評価データ中の学習者の回答を与えた設定で IRT を用いて推定した設問の困難度・識別力と統計的有意に相関した. 提案手法により,高い予測性能に加え,IRT のような高い解釈性を持つ微調整済 BERTを構築できることが示された。 ## 2 関連研究 本研究で扱うのはテストなどの設問文とその回答データであり,学習者が限られた時間で回答できるものである. 一方, 長期にわたり, どの学習者がどの設問に正答/誤答しそうかという時系列回答デー タから,問題の難しさに関する埋め込みを作成するタスクは知識追跡(Knowledge Tracing)という名前 図 1 学習者トークンの導入. 図 2 実験設定. 青く塗られた部分がパラメタ推定に使われる訓練データ。斜線部が性能比較に用いられるテストデータ. で知られており,データマイニング分野などで研究されている $[4,5,6,7]$. しかし,これらの中では,設問文のテキスト情報は利用されていない。 その理由は,知識追跡タスクの評価に標準的に用いられているデータセットが数学などいわゆる理系分野の問題であるため,設問文の言語的知識よりも,過去の回答データの方が設問の難しさを推定するのに有効な設定であるためと推察される.設問文のテキスト情報を設問間関係に変換して知識追跡に利用する研究はあるものの [8], 知識追跡は, 長期の時系列回答データが対象であるため,本研究とは設定も目的も異なる. そのほか,近年,BERT を用いた教育応用が提案されているが $[9,10,11]$, これらの研究では学習者回答予測については扱われていない. ## 3 予測性能評価 本研究は,設問文から直接,設問の難しさを推定する研究であるため,1)一文程度の短い分量で, 2 )文中の語の意味を捉えることが回答の正誤に大きくかかわるデータセットで評価することが,結果がわかりやすく望ましい. このため, 頻出英単語の典型的な語義と, 意外な語義の設問に,それぞれ多肢選択式で答えてもらったデータセット [3] を用いて性能評価を行った. [3] のデータセットでは,英語母語話者に問題として成立していることを確認してもらったうえで,クラウドソーシングサービス Lancers $^{1)}$ から,2021 年 1 月に収集した. より詳細は [3] を参照されたい. これにより,対応する問題は 12 問となる.  表 1 図 2 斜線部の予測精度 (accuracy). Transformer モデルを個人化判別に対応させる手法は,自然言語処理の言語教育応用の目的では著者の知る限り知られていない. ただし, Transformer モデルに特殊なトークン(語)を加えて微調整を行い,様々な問題設定に対応させる手法は知られており, ライブラリ上で特殊なトークンを加える機能が用意されている. 本研究では,この機能を利用することで,学習者に対応するトークン(学習者トークン) を作り,これを入力系列の最初に置くことによって判別を行う手法を提案する(図 1). 例えば,学習者 ID が 3 番の学習者を表すトークン “[USR3]”を導入し, “[USR3] It was a difficult period.” が入力であれば,3 番の学習者が “It was a difficult period.” という文から成る設問に正答するか否かを予測する問題に帰着させる,入力文はそのままで,入力文の前に,単純に学習者トークンが挿入されている点に注意されたい,導入するトークン数は学習者数と同数である. Transformer では各トークンに対して,その語としての機能を表現する単語埋め迄みベクトルがあるので,学習者トークンに対しても埋め込みベクトルが作られる。 重要な点として,提案手法では,文中のどの語についての設問であるかという情報や,誤答選択肢の情報は与えていない. すなわち,提案手法の判別器は, 表 2 のどの単語に下線が引かれているかや,表 2 や表 3 の正答以外の選択肢の情報を用いない.提案手法は,単純に正解となる文を入力とし,これを学習者が理解できるか否かを判別する判別器を構成している,と解釈できる。これにより,提案手法は,表 2 と表 3 という仔細の異なる 2 種類の多肢選択式の問題に対応できる.このように,提案手法の適用範囲を広くとることができる. 今回の設定では,入力文が短文であり,学習者が 1 語でもわからなければ正答できない設問で構成されているため,語義を知っている事と正解となる文を理解できるか否かは,同一視できる. Transformer モデルのその他の実験設定については多用される設定とした。判別には, transformers ラ イブラリの AutoModelForSequenceClassification を用いた。微調整の訓練には Adam 法 [12] を用い, バッチサイズは 32 とした. Transformer モデルを用いた結果を,表 1 に示す。* は IRT の最高性能と比較して Wilcoxon 検定で統計的有意であることを表し,**は $p<0.01 , * は ~ p<0.05$ を表す。また提案手法の()内は用いた事前学習済モデル名である.表 1 では,まず,学習者トークンを導入した提案手法が,IRT を用いた従来手法より高い性能を達成していることが分かる. この実験結果は,設問文の意味を考慮する事で,IRT より高精度な判別が行えることを示している。 ## 4 設問の難しさや識別力の抽出法 ここまでは微調整済の BERT モデルから学習者の能力值を抽出する方法であったが,さらに,設問の難しさや識別力に相当する値を抽出する方法を提案する. 方法の概略を示す. BERT は被験者が設問文が指定されれば,その被験者がその設問に正答できるかどうかだけでなく, その確率值も予測として出力できる. ある設問に着目し, 全被験者がその設問を解いた時の正答できる確率を BERT に出力させ, ここからその設問の正答者数の確率分布を計算する.被験者間の独立性を仮定すると,数学的には,成功確率が互いに異なる独立なベルヌーイ分布の和の分布であるポアソン 2 項分布を計算する事に相当する. この時, その設問の正答者数の確率分布の平均を設問の難易度,分散を識別力のような設問の良さと解釈する事が可能になる。 ここでは,被験者数を $N$ 人とし,学習者の添字を $n$ とする(厳密には,被験者の中から特定の被験者を選び $N$ と $J$ が異なる設定もあり得るので,違う文字でおいた). 項目数を $I$ 個とし,項目の添字を $i$ とする. 学習データ上で予測器を微調整した後,予測器は学習者 $n$ が項目 $i$ に正しく回答する確率を出力することができる. この確率を BERTProb $(n, i)$ と表記する. 簡単のために, ここからは設問 $i$ に焦点を当てる. $B E R T \operatorname{Prob}(n, i)$ を使って, $\mathrm{N}$ 人のうち,質問 $i$ に正答する者の確率分布を求めたい. そこで BERTProb $(n, i)$ の確率で 1 , そうでなければ 0 となるベルヌーイ分布に従う確率変数 $A_{n}$ を $A_{n} \sim \operatorname{Bernoulli}(B E R T P r o b(n, i))$ と定義する. ここで,簡単のため,これらの確率変数 $\left.\{A_{1}, \ldots, A_{n}\right.\}$ は互いに独立であると仮定する.学習者について和をとり, 項目 $i$ の全 $N$ 人の中での正答者数の確率分布 は次のように書ける。 $ A_{i}=\sum_{n=1}^{N} A_{n} $ 式 1 は互いに独立なベルヌーイ分布の和であり, ポアソン 2 項分布と呼ばれる ${ }^{2}$. この分布の計算は,動的計画法を用いて計算可能である。 [13,14] ではポアソン 2 項分布の計算を全く違うタスクに対して行う中で詳述しているので,計算アルゴリズムの詳細はこちらを参照されたい。 $A_{i}$ は確率分布なので,平均と分散を計算できる. $A_{i}$ は,全 $N$ 人のうち, 項目 $i$ の正答者数である事に注意すると, $A_{i}$ の平均は,問題 $i$ の難易度を表していると解釈できる。また, $A_{i}$ の分散は,問題 $i$ の正解者数を予測のためのエラーバーと解釈できる.同じような難しさの設問の中では,分散が最も小さい,つまり,正答者数の予測がつきやすい問題が良問と考えられる. $A_{i}$ の分散は,項目反応理論における「識別力」に似た性質を持つ指標である。項目反応理論の識別力は,項目が能力の高い被験者と低い被験者を識別する力を表す.直感的には,能力が本当は高い被験者が間違えてしまうような確率の少ない「良問」である度合いを表す. $A_{i}$ の分散も,項目反応理論の識別力のように良問である度合を表すが,項目反応理論はモデルが固定されているのに対し, $A_{i}$ の分散は予測器 $B E R T \operatorname{Prob}(n, i)$ の確率值さえわかればどのような予測器を用いても計算できるので,深層転移学習のような複雑な手法を用いた場合でも計算できる. 横軸に $A_{i}$ の分散,縦軸に $A_{i}$ の平均值をとることでリスク・リターンプロットを作成できる。まず, どの程度の難しさの設問を選びたいかを決めて縦軸の値に注目し,次に同程度の難しさの問題の中で横軸の值が最も小さいもの(最も左にあるもの)を選ぶことで,特定の難易度の良問を選択可能である. この最も左にある点を結んだ線を「効率的フロンティア」という [14]. 図 3 と図 4 に,ある項目(設問) $i$ について,受験者数がそれぞれ 5 人, 235 人である場合の分布を描いた。(5人については,ランダムに受験者を選んだ)図 3 から,受験者数が少ないときでも,非対称な分布の形が計算できている事が分かる。また,図 6 に,リスク-リターンプロットを描いた. 各点は前述の 12 問の設問であり,破線は効率的フロン  図 3 ある項目で,受験者数が 5 人のときに予測される正答者数の分布. 図 4 図 3 と同じ項目で,受験者数が 235 人であるときに予測される正答者数の分布. 図 5 受験者数が 235 人で 2 問の予測される正答者数の分布を重ねたもの. ティアである.全 12 問のうち,効率的フロンティア上の問題を選ぶことで,3問の「良問」をさらに選び出せている事が分かる.また,図 5 に,難しい問題(正答者数が少ない問題)と易しい問題のグラフを重ねた。わずかではあるが,難しい問題では,釣り鐘型の横幅(分散)が大きいことが見て取れる. 今回,提案手法は予測される正答者数の分布の平均を設問の難しさとして,標準偏差を設問の良問度合い(設問の難しさ推定のしやすさ)として出力できる. こうした值は,IRT においても,それぞれ,困難度,識別力という名前で知られている。図 7,図 8 に,提案手法による値と,テストデータ中の値を与えたうえで IRT が推定した困難度・識別力の値の(簡単のため)負値を図示する。相関係数は,図 7 では $0.78(p<0.01)$, 図 8 では $0.62(p<0.05)$ であり,どちらも統計的有意な相関がみられた. ## 5 おわりに 本研究では,設問文を考慮して,学習者が所与の設問に正答/誤答するかを予測する学習者回答予測のタスクにおいて,高い予測性能を保ちつつ,設問の難しさや良問度合いなどの教育上重要な情報を取得できる手法を提案した. 具体的には,深層言語モ 図 6 各設問について,受験者の総数が 235 である場合のリスク(横軸,各設問の予測される正解者数の分布の分散)とリターン(縦軸,各設問の予測される正解者数の分布の平均)をプロットしたものである.各点は設問を表し,各点の番号は設問番号である。縦軸が同程度の值であれば,分散が小さい設問(図中左側の設問)が良問である. -(IRTの難しさ) 図 7 正答者数予測分布の平均と-(IRT の困難度). -(IRTの識別力パラメタ) 図 8 正答者数予測分布の標準偏差と-(IRT の識別力). デル BERT の微調整段階で,学習者を表す単語を導入することにより学習者ごとに異なる出力を行う既存手法 [3] を拡張し,微調整済 BERT の予測確率値から,予測される正答者数分布を求める手法を提案した。これにより,平均を各設問の難易度とみなせ,その分散を各設問の良問度合いとみなせる事を示した。 [3] により,微調整済 BERT の学習者を表す単語の埋め込みベクトルから学習者の能力値を取り出す方法も提案している. 本研究により, IRT と同様,微調整済 BERT から学習者の能力値と設問の難易度の両方の情報を解釈することが可能になった。 今後の課題としては,設問の文ベクトルと難易度や識別力の関係性を求めることなどがあげられる。 ## 謝辞 本研究は,科学技術振興機構 ACT-X 研究費 (JPMJAX2006) の支援を受けた. ## 参考文献 [1] Frank B. Baker. Item Response Theory : Parameter Estimation Techniques, Second Edition. CRC Press, July 2004. [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proc. of NAACL, 2019. [3] Yo Ehara. No meaning left unlearned: Predicting learners' knowledge of atypical meanings of words from vocabulary tests for their typical meanings. In Proc. of Educational Data Mining (short paper), 2022. [4] Aritra Ghosh, Neil Heffernan, and Andrew S. Lan. Context-Aware Attentive Knowledge Tracing. In Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery \& Data Mining, KDD '20, pp. 2330-2339, New York, NY, USA, 2020. Association for Computing Machinery. [5] Shuanghong Shen, Qi Liu, Enhong Chen, Zhenya Huang, Wei Huang, Yu Yin, Yu Su, and Shijin Wang. Learning Process-consistent Knowledge Tracing. In Proceedings of the 27th ACM SIGKDD Conference on Knowledge Discovery \& Data Mining, KDD ’21, pp. 1452-1460, New York, NY, USA, 2021. Association for Computing Machinery. [6] Shuanghong Shen, Zhenya Huang, Qi Liu, Yu Su, Shijin Wang, and Enhong Chen. Assessing Student's Dynamic Knowledge State by Exploring the Question Difficulty Effect. In Proceedings of the 45th International ACM SIGIR Conference on Research and Development in Information Retrieval, SIGIR '22, pp. 427-437, New York, NY, USA, 2022. Association for Computing Machinery. [7] Ghodai Abdelrahman and Qing Wang. Deep Graph Memory Networks for Forgetting-Robust Knowledge Tracing. IEEE Transactions on Knowledge and Data Engineering, pp. 1-13, 2022. Conference Name: IEEE Transactions on Knowledge and Data Engineering. [8] Shalini Pandey and Jaideep Srivastava. RKT: RelationAware Self-Attention for Knowledge Tracing. In Proceedings of the 29th ACM International Conference on Information \& Knowledge Management, CIKM '20, pp. 1205-1214, New York, NY, USA, 2020. Association for Computing Machinery. [9] Jia Tracy Shen, Michiharu Yamashita, Ethan Prihar, Neil Heffernan, Xintao Wu, Sean McGrew, and Dongwon Lee. Classifying math knowledge components via task-adaptive pre-trained bert. In Proc. of AIED, pp. 408-419, 2021. [10] Lele Sha, Mladen Rakovic, Alexander WhitelockWainwright, David Carroll, Victoria M Yew, Dragan Gasevic, and Guanliang Chen. Assessing algorithmic fairness in automatic classifiers of educational forum posts. In Proc. of AIED, pp. 381-394, 2021. [11] Shiting Xu, Guowei Xu, Peilei Jia, Wenbiao Ding, Zhongqin Wu, and Zitao Liu. Automatic task requirements writing evaluation via machine reading comprehension. In Proc. of AIED, pp. 446-458. Springer, 2021. [12] Diederik P Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Proc. of ICLR, 2015. [13] Yo Ehara. Lurat: a lightweight unsupervised automatic readability assessment toolkit for second language learners. In Proc. of ICTAI, pp. 806-814, 2021. [14] Yo Ehara. Selecting reading texts suitable for incidental vocabulary learning by considering the estimated distribution of acquired vocabulary. In Proc. of Educational Data Mining (poster paper), 2022. 表 2 実際の設問例. It was a difficult period. a) question b) time c) thing to do d) book 表 3 意外な意味を問う設問例. She had a missed a) time b) period c) hour d) duration ## A データセットの詳細 [3] [3] で用いたデータセットについて詳述する. この 2 つの工夫を施した実際の設問例が表 3 であ る. “period”には通常の「期間」の他に「生理」という意味があり,これを問うている.学習者は,70問の通常の用例の語彙テストの前に,表 3 のような設問を 13 問解くように求められる. ただし, 先に解く表 3 の形式の選択肢が,表 2 の形式の問題に影響していないかどうかを後で確認できるよう,意外な語義ではあるが,通常の語義の設問群の側に対応する設問がない設問を 1 問設けた。 ## B IRT による学習者回答予測 語の意外と思われる語義の難しさを典型的な語義の難しさで代替してしまうと,学習者が設問に正答/誤答するかを IRT で予測する際,どの程度の悪影響があるのだろうか?これを調べるために,次の実験を行った.まず, 235 人の学習者を 135 人と 100 人に分ける (図 2). 意外と思われる語義の設問群 (12 問)のパラメタについては前者の 135 人の学習者反応だけから,典型的な語義の設問群(70問)のパラメタについては 235 人全員の学習者反応で推定する. この推定の際には,後者の 100 人 $\times 12$ 問,計 1,200 件の回答データは用いていないことに注意されたい. 項目反応理論では, 推定された学習者 $\theta_{j}$ の能力値 $\theta_{j}$, 語義の困難度 $d_{i}$ を用い, $\theta_{j}>d_{i}$ であれば学習者 $j$ が設問 $i$ に正答,そうでなければ誤答と判定する. 設問 $i$ の困難度パラメタとして,意外と思われる語義の 12 問の困難度パラメタを直接用いた場合と, 対応する語の典型的な語義の困難度パラメタで代替した場合で,この 1,200 件の回答デー タの予測精度を比較した. 予測精度 (accuracy) の結果を表 1 に記す. その結果,直接用いた場合の予測 図 9 IRT の能力パラメタ(横軸,pyirt によって算出)と,学習者トークンの単語埋め込みベクトルの第一主成分得点(縦軸)。 精度は $64.4 \%$ ,典型的な語義の困難度で代替した場合は $54.4 \%$ と, 10 ポイントの差が出た. この差は, Wilcoxon 検定で $p<0.01$ で有意であった. この結果から,学習者反応の予測における,語の語義ごとに困難度を推定することの重要性がわかる.より直接的に言い換えれば,この結果は,語の意外な用例の難しさを,語の典型的な用例の難しさで置き換えると,学習者回答予測の精度が著しく低下することを示唆している. ## C 能力值抽出 [3] では,次の手順で微調整済モデルからの能力値抽出に成功している. 微調整後の bert-large-cased の場合の学習者トークンに対する単語埋め込みべクトルのみを集めた. すなわち,学習者の人数分の単語埋め込みベクトルの集合がある。このベクトル集合に対して主成分分析を行い,その第一主成分得点と IRT の能力値パラメタを比較した(図 9).各点は学習者を表す. IRT の能力値パラメタの算出には, Python の pyirt ライブラリを用いた. 両者は相関係数 0.72 という強い相関を示した $(p<0.01)$. これにより,提案手法を用いた場合でも,能力値は学習者トークンの第一主成分得点として容易に抽出できることが分かった。これにより,提案手法は文意を考慮することにより IRT より高い精度を達成しながら,IRT と同様に「能力值を取り出せる」という高い解釈性を持つことが示された. 図 9 では,縦に筋が入っているように見える部分がある。これは,pyirt の内部で使われている IRT のパラメタ推定アルゴリズムの性質で,横軸の学習者の能力値パラメタの推定の際,能力に大きな差がない能力值パラメタは 1 つの值にまとめられる性質があるため,横軸が同じ値を取る学習者が存在するためである.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C8-5.pdf
# 項目反応理論に基づく難易度調節可能な読解問題自動生成手法 鈴木彩香 1 宇都雅輝 1 1 電気通信大学大学院 \{suzuki_ayaka,uto\}@ai.lab.uec.ac.jp ## 概要 読解問題自動生成とは, 読解対象文からそれに関連する問題を自動生成する技術である。近年では,深層学習を用いた手法により, 柔軟で高品質な問題生成が実現されている.しかし, 従来手法には, 次の課題がある. 1)問題に対応する答えを生成できない.2)学習者の能力に合わせた難易度の問題を生成できない。これらの問題を解決するために, 本研究では, 項目反応理論を用いて推定される難易度を考慮して,問題と答えのぺアを生成する手法を提案する。提案手法は事前学習済み深層学習モデル (BERT とGPT-2)を拡張することで実現する。 ## 1 はじめに 読解問題自動生成とは, 読解対象文からそれに関連する問題を自動生成する技術であり, 教育分野において読解力の育成・評価を支援する技術の一つとして活用が期待されている。 従来の読解問題自動生成手法は, 人手で設計したルールやテンプレートを利用する手法が主流であったが, 適切なルールやテンプレートの作成には大きなコストを要する $[1,2,3]$. この問題に対し, 近年では, 深層学習を用いた end-to-end の手法が多数提案されている $[4,5,6,7,8,9]$. 初期の手法としては, リカレントニューラルネットワーク (Recurrent Neural Networks : RNN) やアテンションに基づく sequence-to-sequence(seq2seq)モデル [6] が提案されてきた。一方で, 近年では, 事前学習済みの Transformerに基づく手法が多数提案され, 読解対象文に対応した流暢な問題生成を実現している $[5,10,11,12,13]$. 一方で, 問題生成技術を読解力を育成する学習支援として活用する場合, 学習者の能力に合わせた適切な難易度の問題を出題することが効果的である. このような背景から, 近年, 難易度調整可能な問題生成技術がいくつか提案されている $[10,14,15,16]$. しかし,既存手法には次の問題点がある. 1. 読解対象文と答えを与えて問題を生成するため, 問題とそれに対応した答えの両方を生成することはできない. 2. 問題の難易度と学習者の能力の関係を無視しているため, 学習者の能力にあった適切な難易度の問題生成を行うことができない. これらの問題を解決するために, 本研究では, 項目反応理論(Item response theory:IRT)[17]を用いて定量化される難易度値を与えて,問題と答えのぺアを生成する新たな読解問題自動生成手法を提案する. 提案手法は, BERT と GPT- 2 に基づく, 2 つの事前学習済み深層学習モデルを用いて構成する. ## 2 提案手法 本研究では, 読解対象文 $\boldsymbol{w}_{i}=\left.\{w_{i m} \mid m \in\right.$ $\left.\left.\{1, \ldots, M_{i}\right.\}\right.\}$ とそれに関連する問題文 $\boldsymbol{q}_{i}=\left.\{q_{i n} \mid n \in\right.$ $\left.\left.\{1, \ldots, N_{i}\right.\}\right.\}$, およびその問題に対応する答え $\boldsymbol{a}_{i}=\left.\{a_{i o} \mid o \in\left.\{1, \ldots, O_{i}\right.\}\right.\}$ で構成されるデータセット $\boldsymbol{C}=\left.\{\boldsymbol{w}_{i}, \boldsymbol{q}_{i}, \boldsymbol{a}_{i} \mid i \in\{1, \ldots, I\}\right.\}$ が与えられている場合を考える。ここで, $w_{i m}, q_{i n}, a_{i o}$ はそれぞれ $\boldsymbol{w}_{i}, \boldsymbol{q}_{i}, \boldsymbol{a}_{i}$ の $m, n, o$ 番目の単語を表し, $M_{i}, N_{i}$, $O_{i}$ は $\boldsymbol{w}_{i}, \boldsymbol{q}_{i}, \boldsymbol{a}_{i}$ の単語数を表す. また, $I$ はデータ数を表す. 本研究では, このデータセットに各問題の難易度を加えたデータセットを次のように作成し,次節で説明する提案手法の訓練データとする。 1. 各問題に対する正誤反応データの収集: データセット $C$ に含まれる各問題 $\boldsymbol{q}_{i}$ に対する解答者の正誤反応データを収集する.ただし,本研究では人間の解答者を QA (Question Answering) システムで代用する, QA システムとは,読解対象文と問題文を入力して答えを予測するシステムであり,ここでは $\mathrm{QA}$ システムによる解答と答え $a_{i}$ の完全一致により正誤判定を行う. 2. IRTを用いた難易度推定: 本研究では問題の難易度推定に IRTを使用する. IRT は,数理モデルを用いたテスト理論の一つであり, 様々なハイステークス試験で活用されている $[18,19,20]$. IRT では, 学習者の能力と問題の難易度を関連づけて推定でき, 学習者の能力にあった適切な難易度値の選定が可能である.ここでは, 最も単純な IRT モデルである次式のラッシュモデルを利用して, 正誤反応データから各問題の難易度値を推定する。 $ p_{i j}=\frac{\exp \left(\theta_{j}-b_{i}\right)}{1+\exp \left(\theta_{j}-b_{i}\right)} $ ここで, $p_{i j}$ は $i$ 番目の問題における $j$ 番目の解答者の正答確率を表し, $b_{i}$ は $i$ 番目の問題の難易度値, $\theta_{j}$ は $j$ 番目の解答者の能力值を表す. ラッシュモデルでは, $\theta_{j}=b_{i}$ のときに正答確率が 0.5 となる. 適応的学習では, 一般に正答確率が 0.5 となる問題を与えることが有効とされているため, $b_{i}=\theta_{j}$ を難易度値として指定して,問題を生成することが望ましいといえる。 3. 難易度を含んだデータセットの作成: データセット $\boldsymbol{C}$ に IRT で推定された難易度値を加えた新しいデータセット $\boldsymbol{C}^{\prime}$ を作成する。 $\boldsymbol{C}^{\prime}$ は, 読解対象文 $\boldsymbol{w}_{i}$, 問題文 $\boldsymbol{q}_{\boldsymbol{i}}$, 答え $\boldsymbol{a}_{\boldsymbol{i}}$, 難易度値 $b_{i}$ の集合として,以下のように表記できる。 $ \boldsymbol{C}^{\prime}=\left.\{\left(\boldsymbol{w}_{i}, \boldsymbol{q}_{i}, \boldsymbol{a}_{i}, b_{i}\right) \mid i \in\{1, \ldots, I\}\right.\} $ このデータセット $\boldsymbol{C}^{\prime}$ をい用いて,提案手法では,1)読解対象文と指定した難易度值から答えを抽出するモデルと,2)抽出された答えと読解対象文, 難易度値から問題文を生成するモデル,の2段階で問題生成を実現する.以降で各モデルの詳細を説明する。 ## 2.1 難易度調整可能な答え抽出モデル 難易度調整可能な答え抽出モデルでは基礎モデルに BERT (Bidirectional Encoder Representations from Transformers)[21]を用いる.BERT は, 1 億以上のパラメータを持つ Transformer ベースの深層学習モデルを, 33 億語以上の単語を含む文章データセットで事前学習したモデルである. 事前学習は, Masked Language Model と Next Sentence Prediction の二つの教師なし学習で実現されている. BERT は, 文書の分類や回帰タスクをはじめとして,系列ラベリングや抽出型文章要約のような文章からの要素抽出タスクにも広く利用されている [22]. 本研究では, BERTを基礎モデルとして, 読解対象文と指定した難易度值から答えを抽出するモデルを構築する. 具体的には, 読解対象文 $w_{i}$ と難易度值 $b_{i}$ を特殊トークンで連結したデータ $[\mathrm{CLS}] b_{i}[\mathrm{SEP}] \boldsymbol{w}_{i}$ を入力として受け取り,読解対象文における答えの開始位置と終了位置を出力するように BERT の出力層を設計してファインチューニング(追加学習)する.ここで,ファインチューニングの損失関数は以下で定義する。 $ -\sum_{i=1}^{I} \sum_{m=1}^{M_{i}}\left.\{Z_{i m}^{(s)} \log P_{i m}^{(s)}+Z_{i m}^{(e)} \log P_{i m}^{(e)}\right.\} $ ここで, $Z_{i m}^{(s)}$ と $Z_{i m}^{(e)}$ は読解対象文 $\boldsymbol{w}_{i}$ 中の $m$ 番目の単語が答えの開始位置と終了位置である場合にそれぞれ 1 を取るダミー変数である. また, $P_{i m}^{(s)}$ と $P_{i m}^{(e)}$ は次式で定義される。 $ \begin{aligned} & P_{i m}^{(s)}=\operatorname{softmax}\left(\boldsymbol{S} \cdot \boldsymbol{T}_{i m}\right)=\frac{\exp \left(\boldsymbol{S} \cdot \boldsymbol{T}_{i m}\right)}{\sum_{m^{\prime}}^{M_{i}} \exp \left(\boldsymbol{S} \cdot \boldsymbol{T}_{i m^{\prime}}\right)} \\ & P_{i m}^{(e)}=\operatorname{softmax}\left(\boldsymbol{E} \cdot \boldsymbol{T}_{i m}\right)=\frac{\exp \left(\boldsymbol{E} \cdot \boldsymbol{T}_{i m}\right)}{\sum_{m^{\prime}}^{M_{i}} \exp \left(\boldsymbol{E} \cdot \boldsymbol{T}_{i m^{\prime}}\right)} \end{aligned} $ ここで, $\boldsymbol{T}_{i m}$ は読解対象文 $\boldsymbol{w}_{i}$ における $m$ 番目の単語に対応する BERT の出力ベクトルを表し, $S$ と $\boldsymbol{E}$ は学習される重みベクトルを表す. このようにファインチューニングした BERT を用いた答えの抽出は, 答えの開始位置 $\hat{s}$ と終了位置 $\hat{e}$ を次式で求め,その区間の単語列を読解対象文から抽出することで行う。 $ \hat{s}=\arg \max _{m} P_{i m}^{(s)}, \hat{e}=\arg \max _{m} P_{i m}^{(e)} $ ## 2.2 難易度調整可能な問題生成モデル 難易度調整可能な問題生成モデルでは基礎モデルに GPT-2 (Generative Pre-trained Transformer 2) [23] を用いる。GPT-2 は, 15 億以上のパラメータを持つ Transformer ベースの深層学習モデルを, 800 万以上の文書データで事前学習した言語モデルである.事前学習は, 現時点までに入力された単語列から次に出現する単語を逐次的に予測させる Language Model と呼ばれる教師なし学習で実現されている. GPT-2 は, 問題生成タスクを含む様々な文章生成タスクで広く利用されている。 本研究では,GPT-2 を基礎モデルとした問題自動生成手法 [24] を, 問題の難易度を調整できるように拡張する. 具体的には, 読解対象文 $\boldsymbol{w}_{i}$ と答え $\boldsymbol{a}_{i}$,問題文 $\boldsymbol{q}_{i}$, 難易度値 $b_{i}$ を特殊トークンで連結した以下のデータを学習に用いる. $ b_{i}<\mathrm{QU}>\boldsymbol{W}_{i}<\mathrm{AN}>\boldsymbol{a}_{i}<\mathrm{AN}>\boldsymbol{W}_{i}^{\prime}<\mathrm{G}>\boldsymbol{q}_{i} $ ただし, $\boldsymbol{W}_{i}$ と $\boldsymbol{W}_{i}^{\prime}$ はそれぞれ読解対象文 $\boldsymbol{w}_{i}$ 中の答え $\boldsymbol{a}_{i}$ 以前と以降の単語列を表し,<AN>は答えの開始と終了を表す特殊トークンである.また,〈QU> とくG>は読解対象文と問題文の開始を表す特殊トー クンである.このデータを用いた GPT-2 のファインチューニングは, 以下の損失関数の最小化により行う. $ -\sum_{i=1}^{I} \sum_{n=1}^{N_{i}} \log \left.\{P\left(q_{i n} \mid q_{i 1}, \ldots, q_{i(n-1)}, \boldsymbol{w}_{i}, \boldsymbol{a}_{i}, b_{i}\right)\right.\} $ ここで, $ \begin{array}{r} P\left(q_{i n} \mid q_{i 1}, \ldots, q_{i(n-1)}, \boldsymbol{w}_{i}, \boldsymbol{a}_{i}, b_{i}\right) \\ =\operatorname{softmax}\left(\boldsymbol{G} \cdot \boldsymbol{T}_{\boldsymbol{q}_{i(n-1)}}^{q_{i n}}\right) \\ \quad=\frac{\exp \left(\boldsymbol{G} \cdot \boldsymbol{T}_{\boldsymbol{q}_{i(n-1)}}^{q_{i n}}\right)}{\sum_{v^{\prime}}^{V^{\prime}} \exp \left(\boldsymbol{G} \cdot \boldsymbol{T}_{\boldsymbol{q}_{i(n-1)}}^{q_{i n}}\right)} \end{array} $ であり, $V^{\prime}$ は GPT-2 が扱う語彙の総数, $\boldsymbol{T}_{\boldsymbol{q}_{i(n-1)}}^{q_{i n}}$ は単語列 $\boldsymbol{q}_{i(n-1)}=\left(q_{i 1}, \ldots, q_{i(n-1)}\right)$ に続いて単語 $q_{i n}$ を入力した場合の GPT-2 の出力ベクトル, $\boldsymbol{G}$ は学習される重みベクトルである. ファインチューニングされたモデルを用いた問題文の生成は, <G>までのデータを入力として与え,次式に従って一単語ずつ生成することで行う. $ \begin{aligned} \hat{q}_{i n} & =\arg \max _{v} P\left(v \mid \hat{q}_{i 1}, \ldots, \hat{q}_{i(n-1)}, \boldsymbol{w}_{i}, \boldsymbol{a}_{i}, b_{i}\right) \\ & =\arg \max _{v}\left(\operatorname{softmax}\left(\boldsymbol{G} \cdot \boldsymbol{T}_{\boldsymbol{q}_{i(n-1)}^{v}}^{v}\right)\right) \end{aligned} $ ## 3 提案手法の有効性評価実験 提案手法の有効性を評価するために,質問応答$\cdot$問題生成タスクで広く利用される SQuAD データセット [25]を用いて実験を行った. SQuADとは, Wikipedia の様々な記事(読解対象文に対応)に基づいて作成された 98,169 個の問題とそれに対応する答えで構成されるデータセットである. このデー タはあらかじめ, 訓練データ $(90 \%)$, テストデータ (10\%)に分割されている.SQuAD データセットを用いた実験手順は以下の通りである。 1. SQuAD の訓練データを用いて, 精度の異なる 5 つの $\mathrm{QA}$ システム $[21,26,25,27]$ を構築した. 2. 5 つの $\mathrm{QA}$ システムに SQuAD のテストデータ中の各問題を解答させ, 正誤反応データを収集した。 3. 得られた正誤反応データを用いて, 式(1)のラッシュモデルで各問題の難易度値を推定した. 得られた難易度値は, 6 值 (-3.96, -1.82, - - . 26, $0.88,2.00,3.60)$ であり, 值が小さいほど簡単な問題であることを意味する.モデルが数值入力を理解しやすいように, 実数值で推定した難易度値 $(-3.96,-1.82,-0.26,0.88,2.01,3.60)$ 図 1 難易度別の正答率 を正の整数值 $(1,29,49,64,79,100 )$ に線形変換を行なった。 4. 得られた難易度值と SQuAD のテストデータを統合して,難易度值を加えたデータセットを作成した.このデータセットを $90 \%$ と $10 \%$ に分割し,90\%を提案手法の訓練データ,10\%を評価用データとした. 5. SQuAD の訓練データを用いて, 難易度を考慮せずに答え抽出モデルと問題生成モデルを一度ファインチューニングしたのち, 手順 4 で作成した提案手法のための訓練データで難易度を考慮したファインチューニングを行なった. 6. 所望の難易度に応じた出力が行えたかを評価するために,10\%の評価用データ中の読解対象文に対して,6 パタンの難易度值をそれぞれ与えて生成した問題と答えを用いて,機械による評価と人間による評価を実施した。 ## 3.1 機械による評価 上記の実験手順 6 における機械による評価は, 以下の 2 つの観点で行なった。 - 生成された問題の難易度別正答率 - 抽出された答えの難易度別平均単語数ただし, 正答率の評価には 2 つの $\mathrm{QA}$ システム $[21,26]$ を使用し, 先行研究 $[10]$ と同様に 2 つの $\mathrm{QA}$ システムが正解した場合のみを正答として扱った。 まず,生成された問題の難易度別正答率を図 1 に示す. 図から, 難易度が高いほど生成された問題に対する QA システムの正答率が減少する傾向が確認できる.このことから, 提案した問題生成手法が,指定した難易度を反映した問題生成を行っていることが示唆される。 次に,答えの難易度別単語数を図 2 に示す. 図から, 難易度が高いほど抽出された答えの平均単語数が増加する傾向が確認できる。一般に答えの単語数 図 2 難易度別の単語数 表 1 出力された問題と答えの例 読解対象文 Deacons are called by God, affirmed by the church, and ordained by a bishop to servant leadership within the church. They are ordained to ministries of word, service, compassion, and justice. They may be appointed to ministry within the local church or to an extension ministry that supports the mission of the church. ... Deacons serve supports the mission of the church. ... Deacons serve a term of $2-3$ years as provisional deacons prior to their ordination.難易度値 1 問題 Who ordained deacons? 答え bishop 難易度値 100 が多くなるほど難しい問題であると予測できることから,提案手法が指定した難易度を反映した答え抽出を行っていることが示唆される. また, 出力された問題と答えの例を表 1 に示す.表から,難易度を低く指定すると,単一の用語を答えとする比較的簡単な問題が生成されたのに対し,難易度を高く指定すると,長めの文章を答えとする比較的難しい問題が生成されたことがわかる. ## 3.2 人間による評価 人間による評価では, 評価用データからランダムに選択した 10 個の読解対象文について 6 段階の難易度別に生成された答えと問題(合計 60 ペア)を以下の 4 つの観点に基づいて, 4 人の評定者で採点した。 - 流暢性 : 文法的な正しさや流暢さの評価. 適当, 不適当, 許容範囲の 3 段階で評価した。 - 内容関連性 : 生成された問題が読解対象文の内容と関連しているかの評価. 適当, 不適当の 2 段階で評価した。 - 解答可能性 : 抽出された答えが生成された問題の正しい答えとなっているかの評価. 適当, 不適当, 不十分, 過剩の 4 段階で評価した. 不十分は答えを部分的に含むが不足している場合を表し, 過剰は抽出された答えに余分な部分が含まれていることを表す. - 難易度 : 生成された問題の難易度の評価. 1 か 図 3 人間による難易度評価 ら 5 の 5 段階で評価した. 1 が最も簡単な問題を意味し, 5 が最も難しい問題を意味する. 流暢性, 内容関連性, 解答可能性の結果を表 2 に示す.なお,表中の「解答可能性」行に記載された 「内容関連」と「内容非関連」の列は, 解答可能性で不適当と判定された問題のうち,内容関連性が適当/不適当であったものの割合をそれぞれ表す.表から, 7 割以上の問題が流暢な文法で生成されており, 約 9 割の問題が適切に読解対象文の内容を反映していることがわかる。さらに,約 7 割のケースで解答可能な問題と答えのペアが生成できており, 不十分/過剩を含めると 8 割以上のケースで少なくとも部分的には対応した問題と答えのペアが生成できたことがわかる。一方で,解答不適当と判定された残りの 1.5 割については, 生成された問題と本文の内容が関連していないことが主要因であった。 次に,難易度の評価結果を図 3 に示す。図から,難易度を高く指定して生成した問題ほど人間評価者が難しいと判断したことがわかり,人間の主観的難易度にあった問題が生成できたことがわかる。 ## 4 おわりに 本研究では, 任意の難易度の問題と答えを自動生成する手法を提案し, 実験から提案手法の有効性を示した. 今後は,人間を対象にしたデータ収集を行ない,より厳密な評価実験を行う。 ## 参考文献 [1] David Lindberg, Fred Popowich, John Nesbit, and Phil Winne. Generating Natural Language Questions to Support Learning On-Line. In Proc. Natural Language Generation, pp. 105-114, 2013. [2] Igor Labutov, Sumit Basu, and Lucy Vanderwende. Deep Questions without Deep Understanding. In Proc. the Association for Computational Linguistics and Natural Language Processing, pp. 889-898, 2015. [3] Michael Heilman and Noah A. Smith. Good Question! Statistical Ranking for Question Generation. In Proc. the North American Chapter of the Association for Computational Linguistics, pp. 609-617, 2010. [4] Ruqing Zhang, Jiafeng Guo, Lu Chen, Yixing Fan, and Xueqi Cheng. A Review on Question Generation from Natural Language Text. ACM Transactions on Information Systems, 2021. [5] Ying-Hong Chan and Yao-Chung Fan. A Recurrent BERTbased Model for Question Generation. In Proc. Workshop on Machine Reading for Question Answering, pp. 154162, 2019. [6] Xinya Du, Junru Shao, and Cardie Cardie. Learning to Ask: Neural Question Generation for Reading Comprehension. In Proc. Annual Meeting of the Association for Computational Linguistics, 2017. [7] Sandeep Subramanian, Tong Wang, Xingdi Yuan, Saizheng Zhang, Yoshua Bengio, and Adam Trischler. Neural Models for Key Phrase Extraction and Question Generation. In Proc. Machine Reading for Question Answering,, pp. 78-88, 2018. [8] Yanghoon Kim, Hwanhee Lee, Joongbo Shin, and Kyomin Jung. Improving Neural Question Generation Using Answer Separation. In Proc. the AAAI Conference on Artificial Intelligence, Vol. 33, pp. 6602-6609, 2019. [9] Xingwu Sun, Jing Liu, Yajuan Lyu, Wei He, Yanjun Ma, and Shi Wang. Answer-focused and Position-aware Neural Question Generation. In Proc. Empirical Methods in Natural Language Processing, pp. 3930-3939, 2018. [10] Yifan Gao, Lidong Bing, Wang Chen, Michael Lyu, and Irwin King. Difficulty Controllable Generation of Reading Comprehension Questions. In Proc. International Joint Conference on Artificial Intelligence, 2019. [11] Seungyeon Lee and Minho Lee. Type-dependent Prompt CycleQAG : Cycle Consistency for Multi-hop Question Generation. In Proc. International Conference on Computational Linguistics, 2022. [12] Manav Rathod, Tony Tu, and Katherine Stasaski. Educational Multi-Question Generation for Reading Comprehension. In Proc. Workshop on Innovative Use of NLP for Building Educational Applications, 2022. [13] Asahi Ushio, Fernando Alva-Manchego, and Jose Camacho-Collados. Generative Language Models for Paragraph-Level Question Generation. In Proc. Conference on Empirical Methods in Natural Language Processing, 2022. [14] Yi Cheng, Siyao Li, Bang Liu, Ruihui Zhao, Sujian Li, Chenghua Lin, and Yefeng Zheng. Guiding the growth: Difficulty-controllable question generation through stepby-step rewriting. In Proc. Annual Meeting of the Association for Computational Linguistics and International Joint Conference on Natural Language Processing, 2021. [15] Ghader Kurdi, Jared Leo, Bijan Parsia, Uli Sattler, and Salam AI-Emari. A Systematic Review of Automatic Question Generation for Educational Purposes. International Journal of Artificial Intelligence in Education, Vol. 30, pp. 121-204, 2019. [16] Tahani Alsubait, Bijan Parsia, and Ulrike Sattler. A similarity-based theory of controlling MCQ difficulty. In Proc. International Conference on E-Learning and ETechnologies in Education, pp. 283-288, 2013. [17] Frederic M Lord. Applications of item response theory to practical testing problems. Routledge, 2012. [18] Masaki Uto and Maomi Ueno. Empirical comparison of item response theory models with rater's parameters. $\mathrm{He}-$ liyon, Vol. 4, No. 5, pp. 1-32, 2018. [19] Masaki Uto. A Bayesian many-facet Rasch model with Markov modeling for rater severity drift. Behavior Research Methods, 2022. [20] Masaki Uto. A multidimensional generalized many-facet Rasch model for rubric-based performance assessment. Behaviormetrika, Vol. 48, No. 2, pp. 425-457, 2021. [21] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proc. the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4171-4186, 2019. [22] Anirudh Srikanth, Ashwin Shankar Umasankar, Saravanan Thanu, and S. Jaya Nirmala. Extractive Text Summarization using Dynamic Clustering and Co-Reference on BERT. In Proc. International Conference on Computing, Communication and Security, pp. 1-5, 2020. [23] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. OpenAI, 2019. [24] Megha Srivastava and Noah Goodman. Question Generation for Adaptive Education. In Proc. Annual Meeting of the Association for Computational Linguistics and International Joint Conference on Natural Language Processing, pp. 692-701, 2021. [25] Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, and Percy Liang. SQuAD: 100,000+ Questions for Machine Comprehension of Text. In Proc. Empirical Methods in Natural Language Processing, pp. 2383-2392, 2016. [26] Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, and Radu Soricut. ALBERT: A Lite BERT for Self-supervised Learning of Language Representations. In Proc. International Conference on Learning Representations, 2020. [27] Matthew Richardson, Christopher J.C. Burges, and Erin Renshaw. MCTest: A Challenge Dataset for the OpenDomain Machine Comprehension of Text. In Proc. Empirical Methods in Natural Language Processing, pp. 193203, 2013
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C9-1.pdf
# DRS 意味解析における出現位置を利用した語彙数削減 黒澤 友哉 谷中瞳 東京大学 \{kurosawa-tomoya, hyanaka\}@is.s.u-tokyo.ac.jp ## 概要 高度な意味解析タスクの一つとして、文を入力として談話表示構造 (Discourse Representation Structure, DRS)を出力する DRS 意味解析がある。DRS 意味解析器のうち、高精度を達成した van Noord et al. (2020) [1] のエンコーダ・デコーダモデルは 2 つの独立したエンコーダを用いている。一方は文中の単語とその意味タグを交互に並べて入力とし、他方は文を文字単位で分割し入力とすることで、文の意味情報を学習しようと試みている。しかしこの手法では、文中のトークンが DRS トークンに含まれるため、モデルの語彙数が非常に大きくなり、デコーダの計算量が増大し予測精度の低下につながる可能性がある。本研究では、DRS に含まれるトークンのうち解析対象の文にも含まれるトークンを、文における出現位置に置き換えるという手法を提案する。 これにより、モデルの出力語彙数が $90 \%$ 以上減少し、エンコーダ・デコーダモデルがより正確に DRS トークンを予測できる。実験により、既存手法と比較して精度の上昇を示したと同時に、学習時間の短縮とメモリ量の低下も達成した。 ## 1 はじめに 意味解析は自然言語文を意味関係を構造化した意味表現に変換する、自然言語処理において最も基礎的なタスクの一つである。意味表現の形式は数多く存在するが、本研究では理論言語学の分析に基づく高度な意味表現形式 [2] である談話表示構造 (DRS) に着目する。図 1 は I was born on the 31st of May in 1940 を表現する DRS である。談話指示子の集合 (例: t1, e1 など) と条件の集合(例: $\mathbf{t} 1<"$ "now" など)の組を「箱」と呼び、これらを用いて表現したDRSを箱形式 DRS と呼ぶ。 図 2 は図 1 と等価であるが、表現方法が異なる。図2 のようなDRS を句形式DRS と呼ぶ。句形式 図 1 I was born on the 31st of May in 1940 を表す箱形式 DRS。 図 2 図 1 と等価な句形式 DRS。DOM, MOY, YOC はそれぞれ DayOfMonth, MonthOfYear, YearOfCentury の略である。 DRS は箱形式 DRS に対し、エンコーダ・デコーダモデルで扱う表現方法として適しており、[1,3] などで用いられている。 特に [1] が提案した意味解析器は、複数のエンコーダを用いたエンコーダ・デコーダモデルで、入力のトークン列のみならず、その文字の系列や様々な言語情報を与えて学習させている。彼らは様々な組み合わせで実験を行なっているが、そのうち、2 つのエンコーダを用い、一方には入力のトークン列とその意味タグを、他方には文字の系列を与える手法が最も良い精度を達成した。 しかし、句形式 DRS の一部のトークンは、モデルが予測すべき語彙の数を大きく増加させる要因となりうる。一つ目は図 2 の 6 行目のように、文に出現する単語が第 2 トークンに挿入されることがある。二つ目は図 2 の 7, 9, 10 行目のように、文に出現する単語の表す値が第 4 トークンに挿入されることがある。いずれについても任意の単語や値が挿入されうるため、エンコーダ・デコーダモデルはより膨大な語彙を有する必要があり、結果として予測精度が落ちている可能性がある。さらに、学習時に観測しなかった未知語も扱わなければならない。 表 1 PMB 3.0.0 と 4.0.0 の英語におけるドキュメント数の一覧。 4.0 .0 & 7,668 & 1,169 & 1,048 & 127,303 & 151,493 \\ そこで本研究では、上述したトークンを可能な限り減少させることにより、エンコーダ・デコーダモデルによる予測の精度と頑健性の向上を狙う。それを可能にするために、文と DRS の両方に現れるトークンは、該当の DRS トークンを文中の出現位置を明示的に示すトークンに書き換えたデータで学習し、予測をする。出現位置に置き換えたデータで学習したエンコーダ・デコーダモデルは予測の際にも出現位置トークンとして出力し、出現位置トークンが示す文中の単語に書き換えることで最終的な予測とする。 ## 2 関連研究 ## 2.1 Parallel Meaning Bank Parallel Meaning Bank (PMB) [4] は大規模な DRS コーパスの一種であり、英語、ドイツ語、イタリア語、オランダ語の 4 言語のデータがデータセットとして提供されている。データは文と DRS 以外にも、各トークンの品詞や意味タグなど多くの言語情報が付与されている。2023 年 1 月現在、4.0.0 までが利用可能である1)。各言語のデータは Gold, Silver, Bronze の3つに分割されており、Gold は完全に人手でアノテーションされたもの、Silver は一部が人手によるアノテーションが付与されたもの、Bronze は人手によるアノテーションを用いて学習したモデルが自動でアノテーションを付与したものがそれぞれ割り当てられている。表 1 に PMB 3.0.0 と 4.0.0のうち、英語のデータセットの詳細を示す。 日本語 PMB データについてはデータセットして提供されていないものの、[5] の貢献により PMB Explorer $^{2}$ では利用可能である。 ## 2.2 DRS 意味解析 DRS は 80 年代に導入された談話表示理論 (Discourse Representation Theory) [2] に基づく意味表現形式であり、様々な DRS 意味解析手法が提案さ 1) https://pmb.let.rug.nl/data.php 2) https://pmb.let.rug.nl/explorer/explore.php 図 3 図 2 を、箱変数と個体変数をそれぞれ相対的に変換した相対句形式 $\mathrm{DRS}$ 。見やすさのために開業している。 なお、エンコーダへの入力では改行は***と表される。 図 4 図 3 に、文中に現れるトークンをその出現位置で置き換えた相対句形式 DRS(提案手法)。 れている [6, 7]。近年は深層学習のモデルを用いた研究が多く、[3] は双方向 long short-term memory (bi-LSTM) [8] を用いている。[9] も深層学習のモデルを手法に組み入れているが、DRS は句形式ではなくグラフ形式を採用している。また [10] もグラフ形式を採用しており、いずれの研究も少量の学習デー タで比較的高い精度を達成している。 なお、本研究に最も近い研究は [11] である。この研究は我々が語彙数の増加の原因として着目しているトークンをダミー化し、これらをエンコーダ・デコーダモデルに予測させるもしくは後処理で埋める手法をとっている。語彙数の減少に注視する点は共通するが、本研究では完全にダミー化するのではなく、意味タグとトークンの出現位置との組み合わせによって精度上昇を狙う。 ## 3 提案手法 出力する語彙数を抑制し、効果的にDRS トークンを予測する方法として以下の手法を提案する。学習の前処理として、句形式 DRS に含まれるトークンのうち、それらが文中にも出現する場合、文中における出現位置に書き換える。先行研究 [1] において、図 2 の句形式 DRS は、図 3 の相対句形式 DRS [3] に変換してエンコーダに入力する。相対句形式 DRS において、箱変数 \$と個体変数 @ はそれぞれの導入との相対位置で記述される。例えば、6行目の第 4 トークン@0は最新の個体変数 $(5$ 行目の REF = e1) を指し、 7 行目の第 3 トークン @-1 は最新から一つ前の個体変数(3 行目のREF = $t 1$ )を指す。 提案手法は、図 3 の相対句形式 DRS をさらに図 4 に変換する。表 2 は句形式 DRS の行を分類したも 表 2 句形式 DRS の各行のフォーマット。ここで箱変数(b1 など)を\$で、個体変数(t1, $\mathrm{e} 1$ など)を @で表している。 のであるが、書き換えられるトークンは大きく分けて 2 種類あり、タイプC(6 行目)の第 2 トークンと、タイプD $(7,9,10$ 行目) の第4トークンである。 ## 3.1 タイプCの書き換え タイプ $\mathrm{C}$ の第 3 トークンにおいて第 2 トークンの語義 (synset) が WordNet [12] 形式で与えられるため、 その品詞情報を用いて文中の単語を原形に変換する。この原形が第 2 トークンと同等の場合、\#に続いて、その単語の出現位置を付与する。例えば、図 3 の 6 行目の bear は、文中に(0 始まりで)2 番目に出現する動詞 born の原形であるので、 \#2 に書き換えられる。 第 2 トークンが_(アンダースコア)繋がりで与えられる場合、そのトークンが複合名詞 (mobile_ phonesなど)のものと句動詞(get_up など)のものがある。複合名詞の場合、文中において~(チルダ)繋がりで与えられているため、それらを空白として扱い、原形へ変換した上で一致するか否かで書き換えの有無を決定する。一方で句動詞の場合、構成する単語の間に別の単語が挟まる場合がある。例えば、The boy has taken the toy away from his little sister には句動詞 take away が存在するが、それを構成する単語は隣接していない。そのため句動詞については、それを構成する2番目以降の単語の出現位置を、直前の単語からの相対位置として扱う。例えば、先述の文の相対句動詞 DRS に含まれる take_away は、文中で take は 3 番目 (taken の原形)、away は 6 番目に現れるので\#3_3に書き換えられる。 なお、以上の一連の判定で第 2 トークンが文中の単語と同等にならない場合、そのトークンは書き換えない。 ## 3.2 タイプDの書き換え タイプD で第 4 トークンが値の場合、そのトークンは図 2 の 6 行目の brown (名前)、17 行目の 4 (数量)の他にも、okinawa(地名)やyen(単位)などが存在する。それらを完全に網羅することは困難であるため、以下の手法をとり文中に出現する単語と同じかを判定する。 まず、第 4 トークンの値と一致する単語が文中に存在すればその出現位置に書き換える。この規則により役割(第 2 トークンのことを表す)が Name (名称) や YearOfCentury(年)の値について対応可能になる。Unit(単位)についても、単数形に変換することにより一致すれば書き換えの対象になる。 次に、第 4 トークンの値に対応する単語が文中に存在すればその出現位置に書き換える。例えば、図 3 の 7 行目の 31 は文中では $31 s t$ であり、これらが同等なので図 4 においてその出現位置に書き換えられている。この対応関係は人手で判定することは困難なため、学習データの対応関係から作成した辞書を用いて同等かを判定する。これにより Quantity (数量)、DayOfMonth(日にち)、ClockTime(時刻) など、数に関係するほとんどの役割について対応可能になる。 ## 3.3 出現位置を基にした復元方法 タイプ $\mathrm{C}$ に関しては、出現位置の指す単語を品詞情報を用いて原形に変換し、出現位置トークンを書き換える。タイプDに関しては、出現位置トークンへ変換する際に構成した辞書を用いて復元する。このときに、出現位置トークンの指す単語が辞書に含まれていないなどのエラーが発生した場合はダミーのトークンで書き換える。例えば \$n DayofMonth @m "\#2" に対し文トークンの 2 番目に日にちを表す単語が存在しなかった場合、 \$n DayOfMonth @m "00" とする。 ## 4 実験 ## 4.1 実験設定 3.1 節と 3.2 節で説明した手法により PMB 3.0.0 の英語の Gold データと Silver データを書き換える。書き換えを行なった各セットを用い、van Noord et al. (2020) [1] で最も精度が良かった実験設定である、 bi-LSTM エンコーダを 2 つ導入したエンコーダ・デコーダモデルを用いる。2つのエンコーダのうち一 表 3 実験結果。[11]では ill-formed 数の報告がなかった。「ータイプ $\mathrm{C} 」$ は提案手法」において、タイプ $\mathrm{C}$ の復元をしなかった場合の値を表す。 方は PMB で与えられたトークナイズされたトークン列と意味タグ [13] を交互に並べてエンコーダへ入力し、他方はトークン列を文字ごとに区切って入力する。 事前学習では Gold Train データと Silver Train デー タを合わせて用い、Gold Dev データでバリデーションを行なう。ファインチューニングでは Gold Train データと Gold Dev データを用いて学習・バリデー ションを行ない、Gold Test データで評価する。一度の事前学習に対して 5 回のファインチューニングを施し、それらから得られた値の平均値を結果として採用する。 評価指標各実験結果は Counter [14] を用いて得られる。この評価ツールは出力された句構造 DRS と正解とを比較して、行を単位とする F-scoreなどの評価値を出力する。テストデータ全体の精度はミクロF-score として求められる。例えば、句構造 DRS が 5 行からなる A と 20 行からなる B があるとする。ある DRS 意味解析器が A に対しては正解とまったく同じ出力をしたのに対し、Bに対しては何らかのエラーにより一切の出力がなかった。このとき、Counter が出力する値は各々の F-score の平均值 $(1+0) / 2=0.5$ ではなく、行数によって重み付けされて計算された F-score である $(5+0) /(5+20)=0.2$ である。 ## 4.2 結果と分析 表 3 に結果を示す。[1] が報告した値 89.3 と比較し、我々の手法を用いることでより高い精度である89.9を達成した。一方で、出力された相対句形式 DRS が ill-formed であったものの数は [1] と比較して増加した。ここで相対句形式 DRS が ill-formed であるとは、表 2 のいずれにも当てはまらない行が存在したり、変数の相対参照に失敗したりするなどで正しい句形式 DRS に変換できないことを表す。表 4 事前学習時間、消費 GPUメモリ、語彙数の比較。先行研究の各值は再現実験で得られた値である。 & & 語彙数 \\ 提案手法 & $\mathbf{1 8 6}$ & $\mathbf{8 . 9 8}$ & $\mathbf{1 , 0 8 1}$ \\ 差異の割合 & $21.5 \%$ & $41.3 \%$ & $90.5 \%$ \\ アブレーション実験表 3 の下 2 行はアブレー ション実験の結果を示している。これはタイプ C (3.1 節)とタイプ D(3.2 節)の書き換えそれぞれがどの程度精度上昇に寄与したかを示すものである。表 3 によると、タイプ C の書き換えは約 15\%、タイプD は約 5\% の精度上昇をもたらしたことが観察できる。 事前学習時間、消費 GPU メモリ、語彙数の比較表 4 に実験を行なった際の各指標を示す。我々の提案手法は精度上昇のみならず、事前学習時間を約 $20 \%$ 以上減、GPUメモリの消費量を約 $40 \%$ 以上減し、特に語彙数は $90 \%$ 以上減を達成した。 未知語に関する分析 [1] と提案手法の 5 回の予測のうちそれぞれ一つを抽出し比較したところ、[1] で未知語であることを示す @@UNKNOWN@@ トークンは 250 個出力されていたが、そのうち提案手法において正しく予測されたトークンは 233 個であった。 ill-formed 数に関する分析 ill-formed になったケースは量化や否定など、学習データが不十分な言語現象を含むものが多くを占めた。特に、一度でも ill-formed になった 31 ケースのうち、接続や量化を示す意味タグ ANDをもつものは 10 ケース存在していた。 ## 5 おわりに 本研究ではDRS の意味解析に着目し、句形式 DRS において文と共通する DRS トークンを出現位置トークンに置き換える手法を試みた。実験の結果、出力語彙数が大幅に減少したことにより、既存手法と比較し有意な精度上昇が見られ、さらに事前学習時間とGPUメモリの消費量も減少した。 今後は、PMBに含まれる英語以外の言語に対して、語彙数を抑制するアプローチを試みる予定である。また、DRS 意味解析以外の意味解析タスクへの応用なども考えられる。 ## 謝辞 本研究は JST さきがけ JPMJPR21C8 の支援を受けたものである。 ## 参考文献 [1] Rik van Noord, Antonio Toral, and Johan Bos. Characterlevel representations improve DRS-based semantic parsing even in the age of BERT. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 4587-4603, Online, 2020. Association for Computational Linguistics. [2] Hans Kamp and Uwe Reyle. From Discourse to Logic. Springer, Dordrecht, 1993. [3] Rik van Noord, Lasha Abzianidze, Antonio Toral, and Johan Bos. Exploring neural methods for parsing discourse representation structures. Transactions of the Association for Computational Linguistics, Vol. 6, pp. 619633, 2018. [4] Lasha Abzianidze, Johannes Bjerva, Kilian Evang, Hessel Haagsma, Rik van Noord, Pierre Ludmann, Duc-Duy Nguyen, and Johan Bos. The Parallel Meaning Bank: Towards a multilingual corpus of translations annotated with compositional meaning representations. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 2, Short Papers, pp. 242-247, Valencia, Spain, 2017. Association for Computational Linguistics. [5] 谷中瞳, 峯島宏次, 山田彬克, 山口悠, 窪田悠介, Lasha Abzianidze, Johan Bos. 多言語統語・意味情報コーパス Parallel Meaning Bank 日本語版の構築. 言語処理学会第 26 回年次大会. 言語処理学会年次大会発表論文集, 2020 . [6] Hajime Wada and Nicholas Asher. BUILDRS: An implementation of DR theory and LFG. In Proceedings of Coling 1986 Volume 1: The 11th International Conference on Computational Linguistics, 1986. [7] Johan Bos. Wide-coverage semantic analysis with Boxer. In Proceedings of Semantics in Text Processing. STEP 2008 Conference, pp. 277-286. College Publications, 2008. [8] Sepp Hochreiter and Jürgen Schmidhuber. Long shortterm memory. Neural computation, Vol. 9, pp. 1735-80, 1997. [9] Federico Fancellu, Sorcha Gilroy, Adam Lopez, and Mirella Lapata. Semantic graph parsing with recurrent neural network DAG grammars. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 2769-2778, Hong Kong, China, 2019. Association for Computational Linguistics. [10] Wessel Poelman, Rik van Noord, and Johan Bos. Transparent semantic parsing with Universal Dependencies using graph transformations. In Proceedings of the 29th International Conference on Computational Linguistics, pp. 4186-4192, Gyeongju, Republic of Korea, 2022. International Committee on Computational Linguistics. [11] Minxing Shen and Kilian Evang. DRS parsing as sequence labeling. In Proceedings of the 11th Joint Conference on Lexical and Computational Semantics, pp. 213225, Seattle, Washington, 2022. Association for Computational Linguistics. [12] George A. Miller. Wordnet: A lexical database for english. Commun. ACM, Vol. 38, No. 11, p. 39-41, 1995. [13] Lasha Abzianidze and Johan Bos. Towards universal semantic tagging. In Proceedings of the 12th International Conference on Computational Semantics, 2017. [14] Rik van Noord, Lasha Abzianidze, Hessel Haagsma, and Johan Bos. Evaluating scoped meaning representations. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Miyazaki, Japan, 2018. European Language Resources Association (ELRA).
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C9-2.pdf
# ニつの動作を含む重文型命令文を受理するためのサービス指向発話文解析の拡張 但田聖 徳久雅人 木村周平 鳥取大学 工学部 b19t2060u@edu.tottori-u.ac.jp \{tokuhisa,kimura\}@tottori-u.ac.jp ## 概要 本稿では,2つの動作を一度に命令する発話文を受理してサービスの提供を行う手法について述べる。スマー トフォンや家電に音声認識を使ったサービス要求の命令が可能である. 1 つの動作を命令する発話文は受理可能である.しかし,2つの動作を命令するためには 2 回の発話が必要となる. 本稿では,車載器に用いられるサービス指向発話文解析器(従来手法)に対して,文分割,分割評価および命令合成を追加することで,2つの動作を含む命令文であっても適切にサービスの提供が実現できることを示す. ## 1 はじめに 近年,音声認識を用いた技術が普及している.スマー トフォンや家電に,音声認識を使ったサービス要求の命令が可能になっている. 本研究室では音声命令によって操作可能な車載器の開発を進めている [1].この車載器では,1つの動作のための命令文しか実行することができない. よって,この車載器に 2 つの動作を命令したい時は,1つずつ動作を命令しなければならず,時間と手間がかかってしまう. そこで,本稿では車載器で 2 つの動作を含む重文型命令文が実行できるようにすることを目的とする. ## 2 先行研究 文分割についての先行研究,発話文解析についての先行研究,および本稿の位置づけについて述べる. ## 2.1 文分割についての先行研究 先行研究 [2] は, 複雑な文の可読性の向上や解析処理を目的とした研究である.WEBSPLIT という単純な文と複雑な文をぺアとするデータセットを提案し,文分割を可能にしたが,実際に複雑な文の解析に適用できるかの確認は行われなかった。 ## 2.2 発話文解析についての先行研究 先行研究 [1] では, ユーザからのサービス要求型発話を受け取ると,発話文の意図するサービスとメソッドを発話文解析によって推定し,小型計算機上でサービス結果を出力する研究が行われた. 発話文解析の流れと先行研究の問題点について述べる. ## 2.2.1 発話文解析の流れ 発話文解析の流れを図 1 に示す. 図 1 発話文解析の流れ 発話文解析器がユーザから発話文を受け取ると,パー ジングが行われる. パージングではサービス別に用意された辞書を用いて各語句にタグ付けを行い,「サービス別タグ付き文」を出力する.次に,意図解析では,オリジナルコーパスの事例と「サービス別タグ付き文」の比較を行い,意図クラスを求める.オリジナルコーパスは,「発話文,サービス名,メソッド名・引数」という事例で構成され,サービス名とメソッド名・引数の組を意図クラスとする.比較の際,事例 $i$ とサービス別タグ付き文」との近さ $d_{1}$ を次式で求めて利用する. $ d_{1}\left(U, T_{i}\right)=\frac{2\left|U \cap T_{i}\right|}{|U|+\left|T_{i}\right|+\beta} $ ここで, $U$ はタグ付き文のタグの集合, $T_{i}$ は意図解析用事例 $i$ のタグの集合, $\beta$ は偏りを持たせるパラメータである. 近さの降順で意図クラスが得られ,解候補として複数が出力される. 次に,スロットフィリングでは,得られた解候補の引数に対して代入を行い,得られたスロット值(引数と代入語句の対)を解候補に加えて出力する. 最後に,選択では,解候補のタグの一致率およびスロットの代入率からスコア $d_{2}$ を次式で求めて利用する. $ d_{2}\left(U, T_{i}, b, s\right)=\frac{2\left|U \cap T_{i}\right|+b}{|U|+\left|T_{i}\right|+s+\beta} $ ここで,bはスロットフィリングにおいて代入されたスロット数であり,s はスロットフィリングにおいて代入されるべきスロット数である。なお, $U, T_{i}$ おび $\beta$ は式 (1)と同じである. スコアの降順で意図クラスおよび引数の具体值が得られ, 最高スコアの命令 (サービス名・メソッド名・スロッ卜値)が選ばれる。命令はサービスの実行部に送られて, ユーザにサービスの提供が行われる.以上の流れで発話文解析を行う。 以下に発話文解析の例を示す. 発話文:鳥取の地図を表示してください 意図クラス:serviceMap.comShow(loc) 解候補のスロット値 : $\mathrm{loc}=$ 鳥取 命令:serviceMap.comShow(loc=鳥取) ## 2.2.2 先行研究の問題点 2 つ動作を含む重文型命令文を先行研究の手法に入力すると, 1 事例につき 1 意図クラスしかオリジナルコーパスに登録されてないため,1つの命令しか実行されない. 2 つの動作を含む命令を実行させるには,オリジナルコーパスの発話文を組み合わせて命令文を作り, その 1 つの命令文につき動作を 2 つ登録するというアイデアが考えられる。しかし,オリジナルコーパスに登録されている発話文は約 3 千文であり,その組み合わせは最大で約 9 百万文となる。これではコストが大きすぎる. ## 2.3 本稿の位置づけ 本稿では,コストを抑えるために,コーパスへの文の追加ではなく, 車載器の発話文解析器の拡張という手段をとる。すなわち,文分割を発話文解析の前に行うことで,2つの動作を含む文を 1 つの動作を含む 2 つの文とし,得られる命令を適切に実行することを試みる。ただし,本稿では,2つの動作を含む表現を重文型命令文に限定する。 ## 3 提案手法 提案手法は,従来手法 (2.2 節) に対し,「文分割」,「分割評価」および「命令合成」を追加した拡張手法である (図 2)。拡張のねらいは次のとおりである. - 文分割 $: 1$ 文 1 命令となるように文を分割 - 分割評価:分割/非分割のどちらが意味を波み取ったかを評価 - 命令合成:単機能な複数命令か,高機能な単一命令かの選択 図 2 拡張された発話文解析器 以下に提案手法における処理の要点を例示する。 重文型命令文に対する文分割の結果を示す. 重文型命令文:地図を表示して音楽をかけてください 分割後の文 $1:$ 地図を表示してください 分割後の文 2 : 音楽をかけてください 分割評価では,重文型命令文を従来手法で解析した結果,および分割後の文 1 ,文 2 をそれぞれ解析した結果という 3 つの結果を扱う。地図サービスと仮定すると「音楽」の意味が汲み取られず,音楽サービスを仮定すると「地図」の意味が汲み取られない。一方で分割後ではそれぞれで意味が汲み取られるため,分割が適切と判定される. 命令合成については,別の例文で説明する.たとえば,「初音ミクをかけてから鏡音リンをかけてください」という場合,命令合成には 2 つの命令が入力され,代替命令が出力される. 命令 1 : serviceMusic.comSearch $(\mathrm{obj}=$ 初音ミク) 命令 2 : serviceMusic.comSearch(obj=鏡音リン) 代替命令:serviceMusic.compPlayList(obj1=初音 ミク,obj2=鏡音リン) 検索再生の命令 2 つよりも,プレイリストの命令 1 つの方が容易にサービスの実行が行える. 本節では,文分割,分割評価および命令合成について詳しく述べる。 ## 3.1 文分割 文分割は,発話文に特定のワードが含まれている時,特定のワードの前後で単文に分割する.特定のワードの決定方法,特定のワードの判別方法および文末処理について示す. ## 3.1.1 特定のワードの決定方法 鳥バンクという日本語と英語の意味類型パターン辞書がある [3].この中では,節間キーワードという主節と従属節をつなぐワードが定義されている.節間キーワードの出現頻度上位 30 件の内,重文型命令文に含まれると想定されるものを特定のワードとして選出する. 節間キーワードの出現頻度上位 30 件は表 1 の通りとなった. 表 1 中の,「て」,「てから」,「たら」,「ながら」の 4 つの節間キーワードを特定のワードとして選出した。 ## 3.1 .2 特定のワードの判別方法 文分割の判断には,特定のワードの品詞,字面およびその前後の単語の品詞で定義される条件を用いる (表 2 ). 発話文を MeCab で形態素解析し,得られた解析結果と表 2 を比較して文を分割するか判断する。 ## 3.1.3 文末処理 文を分割した際,分割後の 1 文目の文末が不完全になる.その対応として,分割前の文末表現を,分割後の 1 文目の文末に追加するという文末処理を行う.以下に,文末表現が「てください」の時の処理の例を示す. 処理前の分割後の文 1 : 音楽をかけ 処理後の分割後の文 $2:$ 音楽をかけてください対象となる文末表現は以下のとおりである。 ・〜てください|〜でください ・〜ます ・〜です ここで,「ます/です」による命令文は,ユーザの行動を車載器に受理させる際に使われる。たとえば,「今から鳥取駅に行きます」や「10 時に出発です」のように予定を登録する発話に用いられる。 ## 3.2 分割評価 車載器のオリジナルコーパス (先行研究のコーパス) には既に重文型命令文が登録されている。たとえば,「シャッフルして音楽をかけてください」という文がある.これは音楽の再生モードを変更するという,1 動作を命令する重文型命令文である.発話文に対して毎回分割を行うと,過剩な分割となる恐れがある。この問題を分割評価によって防ぐ. 非分割文と分割文のスコアを比較する.非分割文のスコアは $d_{2}$ を用いて求める. 分割文のスコア $d_{3}$ は,分割文の文 1 と文 2 のスコアを転用した值であり,次式を用いて求める. $ \begin{aligned} & d_{3}\left(U_{1}, U_{2}, T_{1}, T_{2}, b_{1}, b_{2}, s_{1}, s_{2}\right)= \\ & \quad \frac{2\left(\left|U_{1} \cap T_{1}\right|-t\right)+2\left|U_{2} \cap T_{2}\right|+b_{1}+b_{2}}{\left|U_{1}\right|-t+\left|U_{2}\right|+\left|T_{1}\right|-t+\left|T_{2}\right|+s_{1}+s_{2}+\beta} \end{aligned} $ ここで, $U_{1}, T_{1}, b_{1}, s_{1}$ および $U_{2}, T_{2}, b_{2}, s_{2}$ は式 $(2)$ と同様であり,それぞれ分割後の文 1 および文 2 の值である. $\beta$ も同様である. $t$ は文末処理によって追加された文末表現に対するタグ数である. もし, $d_{2} \geqq d_{3}$ ならば非分割を採用し,そうでなければ分割を採用する. ## 3.3 命令合成 命令合成の対象となる 2 つの命令の例を以下に示す.命令 1 : serviceMusic.comSearch( $\mathrm{obj}=$ 初音ミク) 命令 $2:$ serviceMusic.comSearch $(\mathrm{obj}=$ 鏡音リン) この 2 つの命令を連続で実行すると 1 曲目の再生が中断され,2 曲目のみが再生されてしまう。 命令合成では,2つの命令が以下の条件を満たすとき,代替命令を出力する.代替命令は 2 つの命令の動作を含む高機能な単一命令である. - 1 つ目の命令が並列処理を行う,かつ ・ 2 つの命令間でリソースの競合がおこる 知識ベースとの照合によって,2つの命令が条件を満たすか判断する。条件を満たす 2 つの命令と代替命令を知識べースにまとめた(表 3),代替命令を用意できない場合はエラーとする. エラー時は 1 つ目の命令のみを出力するという運用にする. ## 4 実験 追加した処理部の動作の妥当性を確認する. 評価項目を,命令文の害行誤り率および命令実行の応答時間とする. ## 4.1 実験準備 実験で用いるテストセットとして,テストセット 1~ 4 を用意した.テストセット $1 \sim 3$ をそれぞれ表 $4 \sim 6$ に示す. テストセット 1 は,実際に車載器を利用した際に得られた発話ログ 1,441 件の中から,組み合わせると重文型命令文となる,連続している 2 つの発話を抜粋したものである (表 4). テストセット 2 は,テストセット 1 の 2 つの発話を 3 または 4 つの特定のワードで組み合わせて作った重文型命令文である.各テスト文中にある()内の|で区切られている単語は,それぞれの単語だけを含む文に展開するという意味で,()内に 4 つ単語を含む場合は,4つの重文型命令文が得られる (表 5 ). テストセット 3 は,並列処理を行う命令文のぺアを組み合わせた重文型命令文である (表 6). テストセット 4 は,従来の車載器のオリジナルコーパスである (表なし, 総文数 3,519 文). ## 4.2 誤り率についての実験 テストセット 2 および 3 を用いることで 2 つの動作を含む重文型命令文の実行確認を行う.テストセット 4 を用いることで,元々実行できていたオリジナルコーパスの命令文 (1 動作の文) が実行できること,すなわち,提 案手法に拡張前との互換性があることを確認する。車載器 1 4を用意し, それぞれの車載器で誤り率を求めた. 車載器 1 は従来の車載器, 車載器 2 は従来の車載器に文分割を追加した車載器, 車載器 3 は文分割・分割評価を追加した車載器, 車載器 4 は文分割・分割評価・命令合成を追加した車載器である. 誤り率は表 7 の通りになった. テストセット 2 の誤り率は, 車載器 1 では 1.00 となり, 車載器 $2 \sim 4$ では 0.00 となった. 文分割を追加することで重文型命令文を実行できることが確認できた。 なり, 車載器 4 では 0.00 となった. 命令合成を追加することによって,並列動作を起こす重文型命令文を適切に実行できることが確認できた. テストセット 4 の誤り率は, 車載器 2 では 0.39 となり, 車載器 $1 , 3$ および 4 では 0.00 となった. 文分割を追加することで過剰分割がおきていることが確認できたが,分割評価を追加することで過剩分割が抑えられていることが確認できた. 過剩な分割が抑制された命令文を表 8 亿示す. 予定登録の命令や,元々登録されていた重文型命令が分割されずに車載器 4 で処理できた. なお,車載器 2 で実際に表 8 の文を実行すると求めていないサービスが実行された. ## 4.3 応答時間についての実験 2 つの動作を, 1 つずつ命令した時と,重文型命令によって一度に命令した時の応答時間を比較するために, テストセット 1 および 2 の平均応答時間を求めた. 結果は表 9 の通りになった. テストセット 2 の平均応答時間は, テストセット 1 の平均応答時間に比べて約 4 秒の短縮が確認できた. 自動車内において操作にかかる時間が 4 秒短縮されることは有益であると考える。 ## 5 おわりに 本稿では, 車載器上で 2 つの動作を含む重文型の命令に対して実行を可能にした. 手法としては,従来の車載器の発話文解析器に文分割・分割評価・命令合成の 3 つの処理を追加した. 文分割では, 重文型命令文を分割し,解析可能とした. 分割評価および命令合成では, 文分割に伴う実装上の問題に対応した.以上より文分割は複雑な文の解析に有用であることが分かった. さらに,既存の 1 動作のための解析器が流用できる点も利点である. 本稿では複雑な文を重文型の言い方に限定したが,複雑な文には重文型以外の言い回しも多くある. 今後は重文型の言い方以外の複雑な文にも文分割が有用であるか,研究を進めて確認していきたい。 ## 謝辞 本研究は JSPS 科研費 JP19K12548 の助成を受けたものです. ## 参考文献 [1] 徳久雅人, 木村周平: 小型計算機におけるサービス指向発話文解析, 自然言語処理, 26(3), pp.545-578, 2019. [2] Shashi Narayan, Claire Gardent, Shay B. Cohen, and Anastasia Shimorin: Split and Rephrase. Natural Language Processing(EMNLP), pp. 606-616, 2017. [3] 池原悟, 阿部さつき, 徳久雅人, 村上仁一: 非線形な表現構造に着手した重文と複文の日英パターン化, 自然言語処理, 11(3), pp.69-95, 2004.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C9-3.pdf
# Neural DTS に対する型検査アルゴリズムの実装の試み 飯沼瑞稀 高橋優太 田上青空 戸次大介 お茶の水女子大学 \{g1920504, takahashi.yuta, tagami.sora, bekki\}@is.ocha.ac.jp ## 概要 現代的な記号推論システムである依存型理論の応用の一つに,自然言語の意味論がある.依存型理論による自然言語意味論は含意関係認識タスクに応用されており,その含意関係認識システムの基礎には型検査アルゴリズムがある.こうした型検査アルゴリズムは,型理論のような記号推論からなるシステムに与えられてきたものであるが,近年,依存型理論による自然言語意味論にはニューラルネットを埋め込んだシステムが提案されている. 本研究では第一に,そうしたシステムの一つである Neural DTS に対して型検査アルゴリズムを定式化する. 第二に, WordNet から抽出したデータセットを用いて,埋め込まれたニューラルネットの精度を型検査の出力を参照して調べる. ## 1 はじめに 記号推論は,ニューラルネットによる推論・予測としばしば対比されるが,そうした記号推論を行うための現代的なシステムの一つとして型理論 (type theory) と呼ばれる論理システムがある. 型理論はもともと,数学の証明を厳密に表現すること,言い換えれば数学を形式化することを目的として考案された [1]. その一方で,命題と型の同型性および証明とプログラムの同型性を示すカリー・ハワード対応 (Curry-Howard correspondence)を背景に,現代的な型理論はそれが考案された当初からプログラミング言語とも見なされている. 型理論は計算機科学と論理学の共通部分として研究されてきたが, 型理論の中でも特に依存型理論 (dependent type theory) は, 一般化量化子や照応といった自然言語の意味論に早くから応用されてきた [2]. 上述のように, 依存型理論は論理システムともプログラミング言語とも見なすことができる. そのため,自然言語の文がもつ複雑な意味構造を解釈できる論理システムとして依存型理論を用いるだけで なく,その計算論的性質もまた自然言語の意味論へと応用されてきた. こうして依存型理論は自然言語の意味論における理論的選択肢の一つとなり,現在における主要なアプローチとしては,例えば依存型意味論 (Dependent Type Semantics, DTS) [3], the formal semantics using Modern Type Theories [4], Type Theory with Records (TTR) [5] が挙げられる. さらに,依存型理論による自然言語意味論に対する実装も与えられ,こうした実装は,含意関係認識タスクへの手法を提供している $[6,7,8,9,10]$. ここでの実装において重要になるのは, 型検査アルゴリズム (type checking algorithm) という,プログラム $t$ および型 $A$ が与えられたときに $t$ が型 $A$ をもつかどうかを判定するアルゴリズムである. カリー・ハワード対応を踏まえると, このアルゴリズムは, 証明 $t$ と命題 $A$ が与えられたときに $t$ が $A$ の証明であるかどうかを判定するアルゴリズムともいえる.上述の含意関係認識の手法においては含意判定の場合にその証明が構成されるため,含意関係認識システムがつくった証明が,求めている命題の証明になっているかどうか検査する必要がある.この点で, 型検査アルゴリズムは含意関係認識システムの基礎になっている. 以上のように,型検査アルゴリズムは,依存型理論を用いた自然言語意味論の基盤であるといえる.従来このアルゴリズムは,もっぱら記号推論システムであるような型理論に対して与えられてきた。 その一方で,依存型理論を用いた自然言語意味論には,ニューラルネットを埋め込んだシステムが考案されている [11,12]. その中でも, [13,14] において基本構想が説明された Neural DTS は, 自然言語の複雑な意味現象を説明できる従来の DTS の記号推論を維持しつつ,「犬である」といった述語をニュー ラル分類器に置き換えることによって, ニューラルネットによる予測を併用する。 本研究では Neural DTS の実装に向けた一歩として,まず,DTS の語彙が含む述語を多層パーセプト ロン (MLP) による分類器で置き換え,得られたシステムに対する型検査アルゴリズムを実装する.前者および後者の実装にはともに Haskell を用い,特に MLP の実装には PyTorch の Haskell バインディングである hasktorchを用いる。次に,WordNetから抽出したデータセットを用いて, 型検査アルゴリズムに埋め込むニューラルネットの精度を型検査の出力を参照して調べる. ## 2 先行研究 Type theory with records (TTR) は, DTS と同じく依存型理論による自然言語意味論のフレームワークであるが,TTR の中にニューラルネットを埋め込んだシステムがすでに考案されている [11,12]. Cooper [11] は, 外界の出来事 (events) や対象を分類するためにエージェントが学習するような型を TTR が提供できることを示すために,TTR に属する型からニューラルネット上の出来事の型への写像を与えている. さらに,ここでの写像に対する Python による実装も与えられている. その一方で,こうしたニューラルネット上の出来事の型とニューラル分類器の接続は示唆にとどまっており, 本研究が扱うような学習済み分類器をTTRへ埋め込むことは行われていない. Larsson [12] は,知覚データに関する学習可能な分類器が埋め込まれた TTR を提案している.ここでの知覚データに関する分類は, DTS における命題 $P_{i}\left(e_{j}\right)$ における分類に対応しており, このバージョンの TTR は Neural DTS と共通点を多くもつ. しかし, [12] の目的は,こうした TTR の実装というょりはそれの自然言語の意味論への応用であり, 型検査アルゴリズムをどう定式化するかという問題については論じられていない. ## 3 提案手法 本研究が提案する手法は, ニューラル分類器をパラメータとする型検査アルゴリズムを定義しておき, 型検査を行う際には, 学習済みの分類器をそのアルゴリズムに渡すというものである. 以下ではまず,ニューラル分類器をパラメータとする型検査アルゴリズムを定義する (§3.1). 次に, 本研究の型検査アルゴリズムに埋め达まれる MLPを hasktorch により実装する (§3.2). そして, 以上を組み合わせて, MLP による分類器を呼び出すことのできる,Neural DTS の型検査アルゴリズムを定義する (§3.3). ## 3.1 ニューラル分類器をパラメータとする 型検査アルゴリズム ニューラル分類器をパラメータとする型検査アルゴリズムを定義するために,[15] において Haskell によって実装された依存型理論の型検査アルゴリズムを,以下の 2 点で改訂する。簡潔さのために,以下ではDTS の語彙に含まれる述語(すなわち 1 項関係)を例にとって説明するが,§4で見るように 2 項関係(および任意の $n$ 項関係)をとることもできることに注意されたい. (i) DTS の語彙に含まれる述語 $P_{i}$ および名前 $e_{j}$ から成る型 $P_{i}\left(e_{j}\right)$ へとアルゴリズムを拡張する. (ii) 型検査アルゴリズムを与える関数 typeChk に, ニューラル分類器をパラメータとして与えて再定義する まず (i)について説明する. DTS の語彙には述語と名前が含まれ,名前の型は entity であり,述語の型は entity $\rightarrow$ type である. DTS では命題の型は type として表されるため, 述語の型は, 名前から命題への関数ということになる。そして, Neural DTS に対する型検査には,述語を名前に適用して得られる命題 $P_{i}\left(e_{j}\right)$ についての型検査が新たなケースとして加わる. 例えば,述語が $\operatorname{dog}$ で名前が john のとき,得られる命題は $\operatorname{dog}($ john $)$ となり,これは「John は大である」という命題に対応する. Neural DTS の型検査に $P_{i}\left(e_{j}\right)$ といった命題のケースを加えるのは, 典型的にはこうした命題がニューラル分類器による予測の表現になるからである. 命題 $P_{i}\left(e_{j}\right)$ についての型検査では,大まかに言 題 $P_{i}\left(e_{j}\right)$ が与えられたとき, $\Gamma$ のもとで証拠 $w_{i j}$ が $P_{i}\left(e_{j}\right)$ の証明であるかどうか(つまり,Гのもとで $w_{i j}$ が型 $P_{i}\left(e_{j}\right)$ をもつかどうか)が判定される. ただし, $w_{i j}$ は命題 $P_{i}\left(e_{j}\right)$ のために用意する定項である. 以下では, $\Gamma$ のもとで証拠 $w_{i j}$ が $P_{i}\left(e_{j}\right)$ の証明であるかどうかという問いを次のように記号化する: $ \Gamma \vdash w_{i j}: P_{i}\left(e_{j}\right) ? $ 次に (ii) について説明する. ニューラル分類器によって述語を置き換えるという Neural DTS の基本構想に基づき, 命題 $P_{i}\left(e_{j}\right)$ についての型検査は, 述語 $P_{i}$ と名前 $e_{j}$ の one-hot 表現をそれぞれニューラル分類器に入力した結果を用いて行う.結果となる出力が閾値を超えれば名前 $e_{j}$ は述語 $P_{i}$ をみたす といえるから, 命題 $P_{i}\left(e_{j}\right)$ は証明 $w_{i j}$ をもつとみなし, $\Gamma \vdash w_{i j}: P_{i}\left(e_{j}\right)$ ? という問いには YES と答える. 閾值を超えなければ $e_{j}$ は $P_{i}$ をみたさないということであるから,命題 $P_{i}\left(e_{j}\right)$ はそもそも証明をもたず,それゆえこの問いには NO と答える。 以上の説明が示すように,本研究が提案する Neural DTS の型検査では,その途中でニューラル分類器が呼び出される。このことを可能にするため, もともとの型検査関数 typeChk にニューラル分類器をパラメータとして与える. ここでの分類器は, 述語の one-hot 表現と名前の one-hot 表現を入力としてとる分類器であるため, パラメータの型は以下のようになっている: $ \text { Tensor }->\text { Tensor }->\text { Tensor } $ そして, 上でインフォーマルに述べた, 型検査 $\Gamma \vdash w_{i j}: P_{i}\left(e_{j}\right)$ ? 答えを与えるためのアルゴリズムを,typeChk のパターンマッチングによる定義の中で新たに設けるケースにて実装する。 このようにして,[15] の型検査アルゴリズムを命題 $P_{i}\left(e_{j}\right)$ のケースまで拡張しつつ, 型検査関数 typeChk にニューラル分類器のパラメータを加えることで,MLPを埋め込める型検査アルゴリズムを定義する. ## 3.2 hasktorch による MLP の実装 § 3.1 で定義した型検査アルゴリズムと組み合わせるために, 単純な MLP によるニューラル分類器を実装する。ここでの実装には, hasktorch の Github リポジトリにある,MLPによる排他的論理和の実装を参考にしている [16]. 本研究において実装する MLP は以下の標準的な構造をもつ: 埋め込み層述語の one-hot 表現および名前の onehot 表現をそれぞれ線形層でベクトル空間へ埋め込み,得られた分散表現を結合する。 隠れ層結合した分散表現を入力としてとる線形層を中間層として一つ用意する。 出力層分類器の出力とするために次元を調整した線形層を出力層とする。 活性化関数としてはシグモイド関数を用いる。また,損失関数としてはバイナリ交差エントロピー誤差を用いる. 以上の構造をもつ MLPを,微分可能プログラムを提供する hasktorch の Parameterized 型クラスを用いて実装する. また,次節において説明する,この MLP による分類器の学習には,初期化関数を提供する Randomizable型クラスを用いている. ## 3.3 型検査アルゴリズムへの MLP の埋め 込み 本研究による提案手法の最後のステップとして, § 3.1 で定義した型検査関数 typeChkに,§3.2 で構成した MLPを埋め込むことで,目標となる型検査アルゴリズムを与える関数 neuralTC を定義する. この関数の型は以下のようになる: neuralTC :: Context $\rightarrow$ TermChk $\rightarrow$ Type $\rightarrow$ IO () 関数 neuralTC は, 文脈 $\Gamma$, プログラム $t$ そして型 $A$ が与えられると,Гのもとで $t$ が $A$ を型としてもつかどうかを判定する.この点は, 依存型理論に対する通常の型検査アルゴリズムと変わらないが,型検査の途中でニューラル分類器を呼び出して, その出力を用いて型検査 $\Gamma \vdash w_{i j}: P_{i}\left(e_{j}\right)$ ?を判定する点で通常のものとは異なっている. 文脈 $\Gamma$, プログラム $t$ そして型 $A$ を入力として neuralTC に与えると,その計算は次のように進む。 学習フェーズ以下の手順を1イテレーションとする. 1. データセットの読み込み:数値のリストとして表現されたデータセットから,指定された数だけランダムに要素を選び出す. 次に,それをテンソルに変換してミニバッチを構成し,教師データおよび訓練データを作成する. 2. モデルの更新:訓練データに対する出力となる予測値と,教師データの正解ラベルの間の誤差を計算し,hasktorch が提供する関数 runStep により分類器モデルを更新する. 本研究における分類器は命題 $P_{i}\left(e_{j}\right)$ が成り立つかどうかを判定するものであるため,ここでの分類は 2 值分類となり,正解ラベルは 1 もしくは 0 である. 指定された回数の学習を繰り返したら,変数 trainedに学習済みの分類器モデルを格納する。 型検査フェーズこの段階ではまず,先のフェーズにおいて得られた学習済みモデル trainedを,型 Tensor -> Tensor -> Tensorをもつニュー ラル分類器 cls に変換する. そして,入力として与えられている文脈 $\Gamma$, プログラム $t$ および型 $A$ とともにこのclsを,§3.1において定義した関数 typeChk に与えて,型検査を行う。 以上が,本研究において実装する Neural DTS のための型検査アルゴリズム neuralTC の概略である. ## 4 実験 WordNet のデータベースを用いて,2つの entity の間にある関係が成立するかどうかを,それ以外のデータから予測する実験を行った。これは例えば 「猫には尻尾がある」といった既知の事実に対する常識的推論や,関係ネットワークにおけるリンク予測として見ることができる. データセットとして, WordNet から抽出した 40,943 個の entity と 18 個の relation に関する 141,442 個の学習用関係トリプレット,5,000 個のテスト用関係トリプレット,5,000 個の検証用関係トリプレットを用いた。このデータセットは [17] において作成されたものである ${ }^{1)}$. 例えば, (drill, has part, chuck) などのトリプレットが学習データに含まれており,これらを正解データとして使用した. 不正解データとして, 正解データと同じ数だけ,正解データに含まれない関係トリプレットをランダムに作成した. 実験として, 作成した neuralTC がトリプレット上の関係を正しく予測できるかという 2 值分類を行った. typeChk では, 1. スコアが閾値以上で,かつ型検査が正常な場合:2つの entityが関係を満たしている 2. スコアが閾値未満で,かつ型検査が正常な場合:関係を満たしていない 3. 型の不整合 の 3 種の返り値があり,このうち1.を正解の予測データ,2. を不正解の予測データとして扱った. 学習反復数 50,2 值分類の間値が 0.7 のとき, accuracy $=0.7536$, precision $=0.8064282$, recall $=0.6674$, $\mathrm{f} 1=0.73035675$ となった. 学習反復数を増やしたり, 学習パラメータを最適化させたりすることで, より精度は上がると考えられる。 ## 5 おわりに 本研究ではまず,Neural DTS に対する型検査アルゴリズムを定式化した. 次に,このアルゴリズムの 1)[17] は次の French ANR grant の支援を受けたものである: https://www.hds.utc.fr/everest/doku.php?id=en:smemlj12中で呼び出されるニューラル分類器となる MLPを実装した. 今後は,学習反復数の増加やパラメー タの最適化によって精度の向上を図るとともに, parser と接続し,DTS の基本述語の集合を入力としてニューラル分類器の学習を行えるようにすることで,Neural DTS の実装を目指す。 ## 謝辞 本研究は,JST CREST JPMJCR20D2 の支援を受けたものである. ## 参考文献 [1] Per Martin-Löf. An intuitionistic theory of types. In G. Sambin and Jan M. Smith, editors, Twenty-five years of constructive type theory, Vol. 36 of Oxford Logic Guides, pp. 127-172. Clarendon Press, 1998. [2] G. Sundholm. Constructive generalized quantifiers. Synthese, Vol. 79, pp. 1-12, 1989. [3] Daisuke Bekki and Koji Mineshima. Context-passing and underspecification in dependent type semantics. In Stergios Chatzikyriakidis and Zhaohui Luo, editors, Modern Perspectives in Type-Theoretical Semantics, pp. 1141. Springer International Publishing, Cham, 2017. [4] Stergios Chatzikyriakidis and Zhaohui Luo. On the interpretation of common nouns: Types versus predicates. In Stergios Chatzikyriakidis and Zhaohui Luo, editors, Modern Perspectives in Type-Theoretical Semantics, pp. 43-70. Springer International Publishing, Cham, 2017. [5] Robin Cooper. Adapting type theory with records for natural language semantics. In Stergios Chatzikyriakidis and Zhaohui Luo, editors, Modern Perspectives in TypeTheoretical Semantics, pp. 71-94. Springer International Publishing, Cham, 2017. [6] Stergios Chatzikyriakidis and Zhaohui Luo. Natural language inference in coq. J. Log. Lang. Inf., Vol. 23, No. 4, pp. 441-480, 2014. [7] Koji Mineshima, Pascual Martínez-Gómez, Yusuke Miyao, and Daisuke Bekki. Higher-order logical inference with compositional semantics. In L. Màrquez, C. CallisonBurch, J. Su, D. Pighin, and Y. Marton, editors, Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, EMNLP 2015, Lisbon, Portugal, September 17-21, 2015, pp. 2055-2061. The Association for Computational Linguistics, 2015. [8] Stergios Chatzikyriakidis and Zhaohui Luo. Proof assistants for natural language semantics. In M. Amblard, P. de Groote, S. Pogodalla, and C. Retoré, editors, Logical Aspects of Computational Linguistics. Celebrating 20 Years of LACL (1996-2016) - 9th International Conference, LACL 2016, Nancy, France, December 5-7, 2016, Proceedings, Vol. 10054 of Lecture Notes in Computer Science, pp. 85-98, 2016. [9] Koji Mineshima, Ribeka Tanaka, Pascual MartínezGómez, Yusuke Miyao, and Daisuke Bekki. Building compositional semantics and higher-order inference sys- tem for a wide-coverage japanese CCG parser. In J. Su, X. Carreras, and K. Duh, editors, Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, EMNLP 2016, Austin, Texas, USA, November 1-4, 2016, pp. 2236-2242. The Association for Computational Linguistics, 2016. [10] Stergios Chatzikyriakidis and Jean-Philippe Bernardy. A wide-coverage symbolic natural language inference system. In Mareike Hartmann and Barbara Plank, editors, Proceedings of the 22nd Nordic Conference on Computational Linguistics, NoDaLiDa 2019, Turku, Finland, September 30 - October 2, 2019, pp. 298-303. Linköping University Electronic Press, 2019. [11] Robin Cooper. Representing types as neural events. J. Log. Lang. Inf., Vol. 28, No. 2, pp. 131-155, 2019. [12] Staffan Larsson. Discrete and probabilistic classifierbased semantics. In Proceedings of the Probability and Meaning Conference (PaM 2020), pp. 62-68, Gothenburg, June 2020. Association for Computational Linguistics. [13] Daisuke Bekki, Ribeka Tanaka, and Yuta Takahashi. Learning knowledge with neural DTS. In Proceedings of the 3rd Natural Logic Meets Machine Learning Workshop (NALOMA III), pp. 17-25, Galway, Ireland, August 2022. Association for Computational Linguistics. [14] Daisuke Bekki, Ribeka Tanaka, and Yuta Takahashi. Integrating Deep Neural Networks with Dependent Type Semantics. In Roussanka Loukanova, Peter LeFanu Lumsdaine, and Reinhard Muskens, editors, Logic and Algorithms in Computational Linguistics 2021 (LACompLing2021). Springer Cham, to appear. [15] Andres Löh, Conor McBride, and Wouter Swierstra. A tutorial implementation of a dependently typed lambda calculus. Fundam. Informaticae, Vol. 102, No. 2, pp. 177-207, 2010. [16] hasktorch: MLP implementation of logical XOR. Accessed Jan. 11, 2023. https://github. com/hasktorch/ hasktorch/tree/master/examples/xor-mlp. [17] Antoine Bordes, Xavier Glorot, Jason Weston, and Yoshua Bengio. A semantic matching energy function for learning with multi-relational data - Application to word-sense disambiguation. Mach. Learn., Vol. 94, No. 2, pp. 233-259, 2014.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C9-4.pdf
# 子育て支援 QA サイトにおける潜在嗜好変化の時系列推定 住谷祐太 ${ }^{1}$ 富川雄斗 ${ }^{2}$ 伊藤尚紀 ${ }^{2}$ 高橋里司 ${ }^{3}$ 1 電気通信大学大学院 情報理工学研究科 情報学専攻 2 電気通信大学 情報理工学域 I 類 3 電気通信大学大学院情報理工学研究科情報・ネットワーク工学専攻 \{sumiya, tomikawa,ito, stakahashi\}@uec.ac.jp ## 概要 ソーシャルメディアを活用した子育て情報の収集が盛んになっている.特に子育てに関する QAコミュニティでは,子育て中の母親が質問を気軽に投稿できるため,投稿されるテキストには一般的な情報だけでなく,ユーザが抱える悩みや嗜好が含まれていることが多い. それらの特徴量を把握することはソーシャルメディアマーケティングにおいて重要な技術課題となる. そこで本研究では,ユーザの潜在嗜好を捉えるための新しいトピックモデルを提案する. 提案手法では,ユーザの年齢区分や子供の月齢などの補助情報の活用や,嗜好の時間依存性を考慮する.実験では令和 3 年度データ解析コンペティションでコネヒト株式会社から提供されたママリのデータを使用し,手法の有効性を検証する。 ## 1 はじめに 子育て情報の収集・共有を行う QAコミュニティの一つに,コネヒト株式会社が提供するママリが存在する.ママリでは匿名性を利用して知人には相談できないような悩みを質問できるため,投稿される質問はユーザの潜在嗜好を把握する上で有益な情報だと言える. 子育て特有の事情として,ユーザの嗜好は属性や子供の月齢,時間によって異なると考えられ,従来のユーザ全体を解析の対象とした場合では十分に嗜好を把握できない問題がある。 関連研究として,ユーザの質問文から潜在嗜好を推定する手法にトピックモデルが存在し, 自然言語の潜在的意味解析に広く用いられている. 特に Blei et al. [1] が提案した LDA (Latent Dirichlet Allocation) は,一つの文書に複数の潜在トピックが存在すると仮定し,そのトピックの分布を離散分布としてモデル化する代表的な潜在変数モデルである. 一方で新生児の母親が主なユーザである QAコミュニティ上での質問は,文書となる質問文以外に質問者の年齢や居住地域,そして事前に付与される質問カテゴリタグなどが付与され,それに応じて質問の意図が大きく異なると想定される。また子供を育てるユーザの場合,月齢に応じて質問内容が変化していくことも考慮する必要がある.本研究では, ユーザの潜在嗜好を捉えるためにこれらの補助情報を利用した新しいトピックモデルを提案する. ## 2 提案手法 しいトピックモデルとして,SCTTM (Supervised Correspondence Topic Tracking Model) を提案する. SCTTM では,LDA に対して三つの拡張を行う.はじめに,最初の質問時における子供の月齢を考慮するようにトピックを学習させるため,連続変数を考慮したトピックを推定できる sLDA [2] を組み込む. SLDA は,学習過程のトピックを説明変数にとり, それらで月齢を線形回帰したときの当てはまりが良くなるようにトピックと偏回帰係数を逐次的に学習する. 次に,離散値ラベルの補助情報も考慮してトピックを学習させるため, Corr-LDA [3] を取り入れる. Corr-LDA を取り入れることにより,各トピックの単語分布の推定と同様に,補助情報の分布も推定する.ここで補助情報の生成に用いられるトピックは,必ず単語を生成したトピックとなるようにモデル化するため, 単語と補助情報の対応関係を適切に学習することができる. 最後に,ユーザの嗜好変化を考慮するための手法として,TTM [4] を用いたパラメータ推定を行う. TTM は時間情報が付けられた文書集合から,時間変化するトピックを推定する手法であるため,質問文からユーザ個人の潜在嗜好と時間発展を適切に追跡することができる. また TTM はオンライン学習が可能な点から,日々蓄積されるユーザの質問デー タを効率的に学習できる利点がある. 本研究では, 最初の時刻 $t=1$ で月齢と補助情報に沿ったトピックを学習した後, 時刻 $t>1$ 以降はそれらのトピックが時間依存して変化するように学習させる. ## 2.1 トピックの生成 全ユーザ数を $U$ ,総時刻を $T$, 全ユーザで観測される総単語の種類を $V$ ,トピック数を $K$ として,ある時刻 $t$ においてあるユーザ $u$ が生成した文書の単語の組を $\boldsymbol{w}_{t u}=\left(w_{t u 1}, \cdots, w_{t u N_{t u}}\right)$ と表記する. ここで $N_{t u}$ は時刻 $t$ においてユーザ $u$ が生成した文書に含まれる単語数である。 トピックモデルでは,ユーザ毎にトピック分布 $\boldsymbol{\theta}_{t u}=\left(\theta_{t u 1}, \cdots, \theta_{t u K}\right)^{\top} \in \mathbb{R}^{K}$ が与えられ, 各要素 $\theta_{t u k}$ は時刻 $t$ でユーザ $u$ の単語にトピック $k$ が割り当てられる確率を表す. すなわち $\theta_{t u k} \geq 0$, $\sum_{k} \theta_{t u k}=1$ を満たす. 各トピック $k$ には固有の単語分布 $\boldsymbol{\phi}_{t k}=\left(\phi_{t k 1}, \cdots, \phi_{t k V}\right)^{\top} \in \mathbb{R}^{V}$ が存在し, 各要素 $\phi_{t k v}$ は時刻 $t$ のトピック $k$ で単語 $v$ が生成される確率を表す.ここで $\phi_{t k v} \geq 0, \Sigma_{v} \phi_{t k v}=1$ を満たす。 生成過程における各単語 $w_{\text {tun }}$ は, トピック分布 $\boldsymbol{\theta}_{t u}$ にしたがってトピック $z_{t u n}\left(n=1, \cdots, N_{t u}\right)$ が割り当てられ, その単語分布 $\boldsymbol{\phi}_{t z_{t u n}}$ にしたがって生成されると仮定する。 ## 2.2 トピックの推定 はじめに,ユーザが投稿した質問単語ごとにトピックをサンプリングする. 本研究では崩壊型ギブスサンプリング [6]を用いて,トピック分布,単語分布,補助情報分布のパラメータを周辺化した周辺同時分布により単語トピックのサンプリング確率を求める. 時刻 $t=1$ において, ユーザ $u$ の単語 $n$ に割り当てられるトピック $z_{\text {tun }}$ が $k$ となる確率は, 周辺同時分布にベイズの定理を適用することで式 (1)のように求めることができる. 式中の $\backslash t u n$ は, 時刻 $t$ でユーザ $u$ の単語 $n$ に割り当てられるトピックを除くことを意味する。また $N_{t k n}$ は時刻 $t$ においてトピック $k$ に単語 $n$ が割り当てられた個数, $N_{t k}$ はその単語毎の総和を表し, $N_{t u k}$, $M_{t u k}^{i}$ はそれぞれ時刻 $t$ でユーザ $u$ に割り当てられた単語トピック, 補助情報 $i$ のトピック $k$ の個数を表す. さらに時刻 $t=1$ では, ユーザ $u$ が持つ連続変数 $y_{u}$ がガウス分布 $\mathcal{N}\left(\boldsymbol{\eta}^{\top} \widetilde{z}_{t u}, \sigma^{2}\right)$ に従い生成されると仮定する, $\boldsymbol{\eta} \in \mathbb{R}^{K}$ は線形回帰パラメータ, $\widetilde{z}_{t u}=\left(\frac{N_{t u 1}}{N_{t u}}, \cdots, \frac{N_{t u K}}{N_{t u}}\right)^{\top} \in \mathbb{R}^{K}$ は時刻 $t=1$ におけるユーザ $u$ のトピック割合, $\sigma^{2}$ は分散パラメータを表す。 $ \begin{aligned} & p\left(z_{t u n}=k \mid \mathrm{Z}_{\backslash t u n}, \mathrm{~W}_{t}, \boldsymbol{\alpha}, \beta, \boldsymbol{\eta}, \sigma^{2}\right) \\ & \propto\left(N_{t u k \backslash t u n}+\alpha_{k}\right) \frac{N_{t k w_{t u n} \backslash t u n}+\beta}{N_{t k \backslash t u n}+\beta V} \\ & \times\left(\frac{N_{t u k \backslash t u n}+1}{N_{t u k \backslash t u n}}\right)^{\sum_{i} M_{t u k}^{i}} \\ & \times \exp \left.\{\frac{\eta_{k}}{N_{t u} \sigma^{2}}\left(y_{u}-\boldsymbol{\eta}^{\top} \widetilde{\boldsymbol{z}}_{\backslash t u n}-\frac{\eta_{k}}{2 N_{t u}}\right)\right.\} . \end{aligned} $ $\alpha \in \mathbb{R}^{K}, \beta$ はディリクレ分布のパラメータである.便宜上, $\boldsymbol{\theta}_{t u}, \boldsymbol{\phi}_{t k}$ を行列表現したものを $\boldsymbol{\Theta}_{t}, \boldsymbol{\Phi}_{t}$ と表し, $\boldsymbol{w}_{t u} , z_{t u}$ をそれぞれ要素毎にまとめた集合を $\mathrm{W}_{t}, \mathrm{Z}_{t}$ と表す. なお式 (1)で条件付き独立となる項およびその変数については省略している。 時刻 $t>1$ でも同様にトピックのサンプリング確率を式 (2)のように求めることができる. 式中の $\hat{\boldsymbol{\Theta}}_{t-1}, \hat{\mathbf{\Phi}}_{t-1}$ はそれぞれ $\boldsymbol{\Theta}_{t-1}, \boldsymbol{\Phi}_{t-1}$ の推定値である. $ \begin{aligned} & p\left(z_{t u n}=k \mid \mathrm{Z}_{\backslash t u n}, \mathrm{~W}_{t}, \boldsymbol{\alpha}_{t}, \boldsymbol{\beta}_{t}, \hat{\boldsymbol{\Theta}}_{t-1}, \hat{\boldsymbol{\Phi}}_{t-1}\right) \\ & \propto\left(N_{t u k}+\alpha_{t u} \hat{\theta}_{t-1, u k}\right) \\ & \times \frac{N_{t k w_{t u n} \backslash t u n}+\beta_{t k} \hat{\phi}_{t-1, k w_{t u n}}}{N_{t k \backslash t u n}+\beta_{t k}} \\ & \times\left(\frac{N_{t u k \backslash t u n}+1}{N_{t u k \backslash t u n}}\right)^{\sum_{i} M_{t u k}^{i}} . \end{aligned} $ $\alpha_{t} \in \mathbb{R}^{U}, \beta_{t} \in \mathbb{R}^{K}$ はディリクレ分布のパラメータを表し,それ以外に条件付き独立となる項およびその変数については省略している. ## 3 評価実験 提案手法について実データを用いた検証を行う.検証では子供の月齢を登録している質問数が 5 回, 10 回,20 回のユーザをそれぞれ 250 人ずつ無作為に抽出し,計 750 人のユーザを用いる.各ユーザが投稿した質問単語を 9:1 の比率で訓練単語とテスト単語に分割し,トピック数 $K$ を 5 から 20 まで 5 刻みに増やした時の各々について, 月齢予測に必要なパラメータとトピック分布 $\boldsymbol{\Theta}_{t}$, 単語分布 $\boldsymbol{\Phi}_{t}$ を学習する。また,[5]では, Perplexity [1] を用いた最適なトピック数 $K=25$ を求めて,実験を行なっている. ## 3.1 月齢の予測精度の有効性 最初の質問時 $(t=1)$ における, 各ユーザの子供の月齢をSCTTM による逐次的な線形回帰で予測し, その精度を検証する. モデルはユーザを訓練用とテスト用に 8:2 で分けて,各トピック数毎に MSEを用いて 5 分割交差検証で評価し, 表 1 の結果を得 表 1 子供の月齢の予測結果:訓練,テストはそれぞれのデータでの MSE 值を表す. 表 2 平均 Top- $N$-accuracy(\%) による質問単語の予測結果 た. 本研究では月齢予測が有効であることを示すために,実験において月齢を考慮しない通常の LDA, RandomForest [7], LightGBM [8] の三つのモデルと比較している。この結果から,訓練ユーザに関しては,LightGBM や RandamForest の MSE の精度が向上しているが,これは過学習を起こしているためであると考えられる。一方で,テストユーザに関しては SCTTM が他の手法に比べて MSE の精度が向上していることが確認できる. ## 3.2 質問単語の時系列推定の有効性 各時刻で質問される単語の推定精度を複数のモデルと比較しながら評価する.比較するモデルは, LDA,TTM,TTM に月齢以外の補助情報を加えた CTTM,提案手法の SCTTM の四つである. 評価指標には次式で定義される Top- $N$-accuracy を採用 する。 $ P\left(w_{t u}=v \mid \hat{\boldsymbol{\Theta}}_{t-1}, \hat{\mathbf{\Phi}}_{t-1}\right)=\sum_{k=1}^{K} \hat{\theta}_{t-1, u k} \hat{\phi}_{t-1, k v} $ 式 (3) は,現時刻 $t$ で観測された単語 $v$ をテスト単語とし,その生成確率を一つ前の時刻 $t-1$ の単語集合から推定されたトピック分布 $\hat{\boldsymbol{\Theta}}_{t-1}$ と単語分布 $\hat{\boldsymbol{\Phi}}_{t-1}$ で予測する. 出力として, 単語 $v$ の生成確率が上位 $N$ 件に含まれる割合を返す。この值が高いほど,精度良く単語を予測できていることを意味する. Top- $N$-accuracy を使い,質問回数が 5 回, 10 回, 20 回のユーザそれぞれについて $N=1,2,3$ 件での平均を,トピック数を変えながら評価した結果を表 2 に示す. この結果から,時間依存性と補助情報,連続変数の月齢を考慮した SCTTM が他のモデルに比べて高い精度を示していることが確認できる。 ## 4 おわりに ユーザ毎に時間発展して観測される文書と,それらに対応する補助情報が観測される QA サイトにおけるソーシャルメディアマーケティングにおいて, ユーザの潜在嗜好を推定することは,広告推薦や新たなユーザコネクションの推薦において重要な技術課題である。本研究では,この技術課題を解決する新しいトピックモデルである SCTTM を提案した.実験では令和 3 年度データ解析コンペティションにおいてコネヒト株式会社のママリのデータを使い,月齢や補助情報を考慮しつつ,ユーザ毎に時間発展する嗜好変化を正しく推定できることを示した. また,抽出するトピック数を変化させた場合,少ないトピック数に対して時系列推定の精度は良いが,月齢予測の精度が悪いことを確認し,トレードオフの関係にあることを確認した。両者のバランスがよいトピック数として,20が妥当であることを確認し, [5] での結果と比較すると Perplexy によってトピック数を決定することが最適とは限らないことが分かった。 本研究で提案した SCTTM は時間発展を考慮できる他のソーシャルメディアの文書データに対しても適用可能であり,汎用性の高いモデルであると言える。 ## 謝辞 新生児・乳幼児の母親をメインユーザとするポー タルアプリのデータを提供いただいた,コネヒト株式会社様およびデータ解析コンペティション運営の方々に感謝申し上げます. また,DB サーバの提供やコンペティション参加の支援をしていただいた電気通信大学情報工学工房および,学術技師の島崎様に感謝申し上げます。 ## 参考文献 [1] D. M. Blei, A. Y. Ng and M. I. Jordan, "Latent dirichlet allocation," Journal of Machine Learning Research, 3, pp. 993-1022, 2003. [2] J. Mcauliffe and D. Blei, "Supervised topic models," In Proceedings of Advances in Neural Information Processing Systems, 20, pp. 121-128, 2007. [3] D. M. Blei and M. I. Jordan, "Modeling annotated data," In Proceedings of the 26th Annual International ACM SIGIR Conference on Research and Development in Informaion Retrieval, pp. 127-134, 2003. [4] T. Iwata, S. Watanabe, T. Yamada, and N. Ueda, "Topic tracking model for analyzing consumer purchase behavior," In Proceedings of the 21 st International Joint Conference on Artificial Intelligence, 9, pp. 1427-1432, 2009. [5] 住谷祐太, 富川雄斗, 伊藤尚紀, 高橋里司, “SCTTM によるユーザ属性を考慮した潜在嗜好変化の時系列推定”,オペレーションズ・リサーチ,68(2), 2023. [6] T. L. Griffiths and M. Steyvers, "Finding scientific topics," In Proceedings of the National Academy of Sciences, 101, pp. 5228-5235. [7] L. Breiman, "Random forests," Machine Learning, 45, pp. 5-32, 2001. [8] G. Ke, Q. Meng, T. Finley, T. Wang, W. Chen, W. Ma, Q. Ye and T. Y. Liu, "Lightgbm: A highly efficient gradient boosting decision tree," In Proceedings of Advances in Neural Information Processing Systems, 30, pp. 31463154, 2017.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C9-5.pdf
# 複数の手がかりを利用した小説発話の話者推定 石川和樹 1 佐藤理史 ${ }^{1}$ 宮田玲 ${ }^{1}$ 小川浩平 ${ }^{1}$ 1 名古屋大学大学院工学研究科 ishikawa.kazuki.h8@s.mail.nagoya-u.ac.jp ## 概要 人間は,小説中のセリフの話者が誰なのかを苦もなく理解することができる。これは話者を推測するための様々な手がかりが,テキスト中に存在するためである. 本論文では, 複数の手がかりを利用した話者推定システムを提案する.本システムは 2 つのモジュールから構成されており, 前者の話者候補リスト作成では,セリフの周囲に出現する人物名を抽出して話者候補リストを作成したのち, 直前直後の文における話者の明記,話者交替,一人称の 3 つの手がかりを利用して話者候補を絞り込む。後者の口調に基づく話者推定では,セリフの口調を手がかりに話者を推定する。 ## 1 はじめに 小説は,脚本とは異なり各セリフの話者が明記されない。しかし,我々読者は,話者が誰なのかを苦もなく理解することができる. これは,テキスト中に話者を推測するための多くの手がかりが存在するためである。 それらのうち,主要なものに次の 3 種類がある。 1. セリフの直前直後の文で,話者が明示される場合がある. 2. 連続するセリフでは,話者が交替する。 3. セリフの内容や使われている口調から,話者を推測できる。 英語の小説の場合は,1と2の手がかりのみでほとんどのセリフの話者を推定することができる.これは, “replied Kitty”のように話者が明記される場合や,“said her father” のようにセリフの直後に代名詞で話者が記される場合が多いためである。 He ら [1] は,英語小説の “Pride and Prejudice”を対象に調査を行った結果,前者の割合は約 $25 \%$ ,後者の割合は約 15\%であったと報告している. 一方日本語の小説では,セリフの話者が直前直後 の地の文で明記される割合は全体の数\%程度しかなく, 1 と 2 の手がかりのみで話者を推定できるセリフは限定される. 我々は昨年,39手がかり,すなわち口調に基づく話者推定の方法を提案した [2]. この方法ではセリフを口調ベクトルに変換する変換器を実現し,少数の訓練例 (話者が既知のセリフ集合) から算出した各話者の代表口調ベクトルとの類似度に基づき,セリフの話者を決定する。 今回,この方法を小説テキストに適用可能にするために,各セリフに対して話者候補リストを生成するモジュールをその前段として追加した.このモジュールは,セリフの周囲に出現する人物名を抽出して候補リストを作成したのち,直前直後の文における話者の提示 (手がかり 1), 話者交替 (手がかり 2),一人称表現の 3 つの手がかりを用いて候補を絞り込む. 本論文で提案するような話者の自動推定システムは,セリフに話者を付与したデータベースの作成支援に応用できる. これは,小説のセリフを題材とした研究 (セリフの話者推定や、話者の性別推定 [3]、性格推定 [4] など) や,キャラクタ性を付与したセリフ生成 [5] の実現のための基礎データとなる. さらに,音声合成と組み合わせることにより,話者ごとに音声を変えたオーディオブックの自動作成も可能となる。 ## 2 関連研究 英語の小説を対象とした研究では,地の文に提示されている人名 (手がかり1) や,話者交替のルール (手がかり2)といった表層に現れている手がかりを使って話者推定を行っている.英語の小説はこれらの手がかりのみで十分な推定が可能であり,例えば,He らは地の文の情報を特徴量としたSVMを用いて話者推定を行い,86.5\%の精度を達成した [1].英語小説を対象とした研究には他にも, Muzny ら [6] のルールベースの手法や,遠田ら [7] の教師なし 小説テキスト主要人物リスト ## (1) 話者候補リスト作成 1. 周辺文脈からの候補抽出 2. 直前直後の文に基づく話者推定 3. 話者交替に基づく候補限定 4. 一人称に基づく候補限定 各セリフの話者候補リスト - ## (2) 口調に基づく話者推定 各セリフの推定話者 図 1 システム構成 機械学習を用いた手法が存在する。どちらも,1 節で示した手がかり 1 と 2 を主要な手がかりとして扱ったものであり,手がかり 3 はほとんど使われていない. ## 3 話者推定システム ## 3.1 問題設定 本システムの入出力は以下の通りである. ・入力 : 小説テキストと主要人物リスト - 出力 : 各セリフの推定話者 さらに,以下の制約を設けている。 - 推定対象作品:日本語のエンタメ小説およびライトノベル -推定対象のセリフ:主要人物のセリフのみ - 推定先の候補:主要人物のみ なお,主要人物とは,発話数の多い人物 5 名程度を指す。主要人物リストをシステムの入力として与える設定のため,解くべきタスクは分類問題 (各セリフに対して主要人物リストから 1 人選択する問題)となる。 ## 3.2 システム構成 図 1 亿提案システムの構成を示す. 本システムは,「話者候補リスト作成 (3.3 節)」と「口調に基づく話者推定 (3.4 節)」の2つのモジュールから構成されている. ## 3.3 話者候補リスト作成 話者候補リスト作成は,以下の 4 ステップで構成されている。 1. 周辺文脈からの候補抽出 2. 直前直後の文に基づく話者推定 3. 話者交替に基づく候補限定 4. 一人称に基づく候補限定 ## 3.3.1 ステップ 1: 周辺文脈からの候補抽出 まず,各セリフに対して,そのセリフの周辺に出てくる人名を抽出することによって話者候補リストを作成する。具体的な手順を以下に示す。 1. 対象のセリフの $N_{b}$ 文前から $N_{a}$ 文後を候補抽出範囲とする.ただし候補抽出範囲にセリフが含まれる場合,そのセリフを候補抽出範囲には含めるが,N のカウントには含めない。 2. 候補抽出範囲に名前が出てくる主要人物を話者候補とする。ただし,一人称小説の場合は,主人公は必ず話者候補に含める. なお,システムに与える主要人物のリストでは, それぞれの人物に対して姓と名を与えるため,姓または名だけでも,人物を同定できる。 ## 3.3.2 ステップ 2: 直前直後の文に基づく話者推定 次に,セリフの直前直後の地の文が,話者名と発話動詞を含む特定パターンにマッチしている場合, そのセリフの話者を一意に定める.その詳細を付録 A に示す. 例えば,以下の例の場合,U1 の話者を $\mathrm{A}$ に決定する。 $ \begin{aligned} & N 1 \text { : A は、 } \\ & U 1 \text { : 「こんにちは」 } \\ & N 2 \text { :と言った。 } \end{aligned} $ ## 3.3.3 ステップ 3: 話者交替に基づく候補限定 地の文を挟まずに連続するセりフでは,話者が交替するというルールを利用して話者候補を限定する。具体的には,以下の手続きを適用する。 あるセリフの話者が $S$ で,かつ,その直前また は直後がセリフだった場合に,それらのセリフの話者候補から $S$ を除外する。 なお,この手続きにより新たに話者候補が 1 人とな & \\ るセリフが得られた場合は,そのセリフに対してもこの手続きを適用する。 例えば,以下の例の場合,直前直後の文に基づく話者推定 (3.3.2 節) によって U1 の話者候補が $\mathrm{A}$ のみになるため,U2 の話者候補から A を除外する。 $ \begin{aligned} & N 1 \text { :A はお礼を言った。 } \end{aligned} $ $ \begin{aligned} & U 2 \text { :「どういたしまして」 } \end{aligned} $ ## 3.3.4 ステップ 4: 一人称に基づく候補限定 最後に,各話者が使う一人称を収集し,その情報を用いて話者候補を限定する.以下に手順を示す。 1. 話者が一意に定まったセリフを用いて,それぞれの話者が使う一人称を決定する。複数の一人称を使用していた場合は,最も使用頻度が高い一人称を,その人物の一人称とする。 2. セリフ中に一人称 $X$ が含まれる場合,そのセリフの話者候補から, $X$ 以外の一人称を使う人物を除外する。 表 1 に,一人称として認定する語の一覧を示す. 例えば,以下の例の場合,U1の話者候補から A を除外する。 $ \begin{aligned} & \text { 各人物の一人称:\{A:俺, } \mathrm{B}: \text { 私, } \mathrm{C}: \text { 私 }\} \\ & U 1 : 「 \text { 私はこれがいいです」 } \end{aligned} $ ## 3.4 口調に基づく話者推定 各セリフに対して話者候補リストを作成した後,話者候補が複数であるセリフに対して口調に基づく話者推定を適用する。この時点で,すでに話者が一意に決定されているセリフは,その結果をそのまま出力すると同時に,以下の手続きの代表ベクトルの算出に用いる。セリフを口調べクトルに変換する方法には,すでに提案した方法 [2] を用いるが,口調ベクトルの次元数は 64 を用いる. 1. 代表口調ベクトルの算出 それぞれの主要人物に対し,その人物の既知のセリフを口調ベクトルに変換し,その平均を代表口調ベクトル (話者の口調を表すべクトル)とする。表 2 口調に基づく話者推定の結果 2. 話者推定 各推定対象のセリフ (話者候補が複数のセリフ) に対して,そのセリフの口調ベクトルと各主要人物の代表口調ベクトルとの類似度を計算し, その値が最も高い話者を推定話者とする。 ## 4 実験 ## 4.1 実験条件 以下の条件で実験を行った。 - 対象作品 : 米澤穂信『氷菓』及び『愚者のエンドロール』(一人称小説) - 主要人物 : 5 人 ・全セリフのうち,主要人物のセリフが占める割合 : $69.9 \%$ - 周辺文脈からの候補抽出での候補収集範囲 : セリフの前 10 文後ろ 3 文 $\left(N_{b}=10, N_{a}=3\right)$ なお,対象作品の『氷菓』と『愚者のエンドロール』 は同一シリーズの作品であり, 主要人物も共通している. そのため,これら 2 作品を繋げ, 1 つの作品とみなし実験を行った。 ## 4.2 口調に基づく話者推定の結果 表 2 に, 口調に基づく話者推定の, 主要人物 5 人の結果 (recall, precision, F1) と, 全体の結果 (macro-F1, micro-F1)を示す. 先の研究 [2] 一各主要人物のセリフの $10 \%$ を代表口調ベクトルの算出に用い,残り $90 \%$ を推定対象セリフとした場合—の macro-F1 は 61.4, micro-F1 は 68.3 であったが,今回は,それぞれ 72.9 と 75.4 に向上した. さらに,先の研究では各話者の F1 の值はばらついた $(28.2 \% \sim 77.6 \%)$ が,今回は $64.2 \% \sim$ $85.1 \%$ どらつきも抑えられた。この結果より,口調以外の手がかりを用いて一部のセリフの話者を確定し,それらのセリフを用いて代表口調べクトルを算出する方法で,口調に基づく話者推定が実行でき 表 3 話者候補リスト作成の各ステップの話者候補数と話者推定結果 & & & \\ ることが示された。 ## 4.3 話者候補リスト作成の詳細 次に,話者候補リスト作成の各ステップで,セリフの話者候補リストがどのように推移しているかを調べた。この結果を表 3 に示す。 ステップ 1 (候補抽出) では, 平均 3.14 人の候補が得られ,その中に正解が含まれる割合は $98.8 \%$ であった.ただし,話者が一意に決定できるセリフの数は 19 と少ない. ステップ 2 (直前直後の文の利用)では,新たに 94 セリフの話者が一意に決定され,この段階で 113 セリフ(全 1468 セリフ中の 7.7\%)の話者が一意に決定された。その精度は 102/113=90.3\%である。この時点の結果を (つまり, ステップ 3,4 を省略して) 後段の話者推定に入力した場合,口調による話者推定の精度は $76.5 \%$ ,システム全体の精度は $77.6 \%$ となる。 なお, 口調に基づく話者推定では,話者候補が複数存在するセリフのみを対象とするため,対象セリフの平均候補者数は,話者候補リスト作成時の平均候補者数とは一致しない。 ステップ 3 (話者交替の利用) を追加すると,話者が一意に決定されるセリフが 12 増加した。このステップで候補が削減できるのは,セリフが連続し, かつ,それらのいずれかのセリフの話者が確定している場合のみである. 加えて,1つのセリフから削減できる候補数も 1 候補である。このため,このステップの効果は限定的である. ステップ 4 (一人称の利用)を追加すると, 話者が一意に決定されるセリフが 148 増加し, 一意に決定されるセリフの精度も $94.9 \%$ に向上した. このステップで候補が削減できるのは,一人称が含まれるセリフで,かつ,そのセリフから複数の話者候補を除外することができる.たとえば,実験対象の作品の主要人物が用いる一人称は,A は「俺 $\mathrm{B}, \mathrm{B}$ とは「わたし」,Cは「僕」,Eは「私」であり,もしあるセリフに「俺」が含まれる場合は,そのセリフの話者を $\mathrm{A}$ と確定できる。エンタメ小説では,主要人物が使う一人称は異なる場合が多いと考えられ,このステップはエンタメ小説一般に対して高い候補削減効果を持つと考えられる。 ## 5 今後の課題 現状のシステムの課題として,以下の 2 点が挙げられる。 1. 主要人物のみのセリフを推定対象としており, それ以外の話者のセリフを対象外としている。 2. 周辺文脈からの候補抽出での候補収集範囲は,作品によって適切な範囲が異なるが,固定した値を用いている。 1 つ目の課題に対する解決策として,口調に基づく話者推定の際に,推定話者だけでなく,各話者候補の確信度を同時に出力することを考えている。もしも全ての候補の確信度が低ければ,その中に正解の話者はいないと判断し,話者は主要人物以外の人物であると推定することが可能となる.実際にシステムを使用する際には,各セリフが主要人物のセリフかどうかは事前には分からないため,全てのセりフを推定対象とする必要がある。そのため,少なくとも話者が「主要人物以外の話者」であると判定する機能が不可欠である。 2 つ目の課題に対しては,小説の単語数に対する人名数の割合を元に,収集範囲を自動決定することを検討している。この割合が小さい場合は収集範囲を広く取り,割合が大きい場合は収集範囲を狭く取ることで,候補が集まらないといった問題や過剰に集めてしまうといった問題を解決できると考えている. ## 謝辞 本研究は JSPS 科研費 JP21H03497 の助成を受けたものです. ## 参考文献 [1] Hua He, Denilson Barbosa, and Grzegorz Kondrak. Identification of speakers in novels. In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), 2013. [2] 石川和樹, 宮田玲, 小川浩平, 佐藤理史. 口調ベクトルを用いた小説発話の話者推定. Technical report, 情報処理学会第 253 回自然言語処理研究会, 2022. [3] 中川翔太, 孫昊, 金明哲. 小説会話文における発話者の性別推定. 日本行動計量学会大会抄録集, Vol. 47, pp. 362-365, 2019. [4] 津崎誠也, 山本博史. キャラクタの性格推定. 2017 年度情報処理学会関西支部支部大会講演論文集, 2017. [5] 米田智美, 佐藤理史, 夏目和子, 宮田玲, 小川浩平. 話者の性格を反映した発話文の生成. 言語処理学会第 28 回年次大会発表論文集, 2022. [6] Grace Muzny, Michael Fang, Angel Chang, and Dan Jurafsky. A two-stage sieve approach for quote attribution. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, 2017. [7] 遠田哲史, 吉永直樹. 文学作品における教師なし話者同定. 言語処理学会第 25 回年次大会発表論文集, 2019. [8] 国立国語研究所. 分類語彙表増補改訂版データベー ス (ver.1.0), 2004 [9] Mecab: Yet another part-of-speech and morphological analyzer. https://taku910.github.io/mecab/. [10] Yuji Matsumoto Taku Kudo. Japanese dependency analysis using cascaded chunking. In CoNLL 2002: Proceedings of the 6th Conference on Natural Language Learning 2002 (COLING 2002 Post-Conference Workshops), pp. 63-69, 2002. ## A 直前直後の文に基づく話者推定 直前直後の文に基づく話者推定では,各セリフに対して,以下に示す 4 つのパターンにマッチするかどうかを順に確認する。もし,いずれかのパターンにマッチしたならば,そのパターン中の A に対応する人物をそのセリフの話者だと推定する。 なお,発話動詞とは,「言った・答えた」などの発話を示唆する動詞である。発話動詞としては,国立国語研究所の「分類語彙表増補改訂版データベー ス」[8] から収集した 940 語を使用する。 ## パターン 1 $N 1$ : (任意の地の文) U1: (推定対象のセリフ) ## パターン 2 N1: $\cdots \mathrm{A} \cdots$ U1: (推定対象のセリフ) ## パターン 3 $N$ 1: (任意の地の文) $N 2: \cdots \mathrm{A} \cdots$ (発話動詞 $V$ ) $\cdots$ U1: (推定対象のセリフ) ## パターン 4 U1: (推定対象のセリフ) $N 1$ : (任意の地の文) いずれのパターンにおいても以下の条件を満たす必要がある. ## 条件 1 A の係り先に発話動詞 $V$ が存在する. ## 条件 2 発話動詞 $V$ の後ろに否定を表す助動詞が付かない. この条件の判定で必要となる形態素解析と係り受け解析には, MeCab (IPAdic) [9] と CaboCha[10] を用いる.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D1-1.pdf
# 常識推論を支援するための辞書(あるいはオントロジー)の構築方法 山田隆弘 ${ }^{1}$ ${ }^{1}$ CONOCIMISTA tyamada99@yahoo.co.jp ## 概要 自然言語処理技術を用いて推論を行う際,文章の中で使われている語や句の意味を判定するために電子的に処理可能な辞書(あるいはオントロジー)が使用される.ところが,これらの辞書やオントロジ一には,推論を行うために必要となる情報が十分に含まれていない場合がある. 本稿では, 推論(特に矛盾の検出)を支援するための辞書(あるいはオントロジー)を構築するための方法を提案する。推論において使用される知識には常識と世界知識とがあるが,本稿では,常識を使用した矛盾の検出を考察の対象とする。 ## 1 はじめに 自然言語処理技術の用途の一つは, 自然言語で書かれた文章について推論を行うことである. 推論の際, 文章の中で使われている語や句の意味を判定するために,電子的に処理可能な辞書(あるいはオントロジー)が使用される. 代表的な辞書としては, FrameNet [1]や WordNet [2]が知られている。ところが,これらの辞書やオントロジーは,必ずしも特定の推論を支援するために作られたわけではないので,推論を行うために必要となる情報が十分に含まれていない場合がある(具体例については, 2.1 節で述べる). そもそも,辞書にしてもオントロジーにしても,具体的な使用目的を定め, その目的を達成できるように「設計」すべきものである. そこで, 本稿では,推論を支援するための辞書 (あるいはオントロジー) を設計するための方法の一つを具体的に提案する. 自然言語処理技術を利用した推論としては,いくつかの種類が考えられるが, 本稿では, 一つの文書内(あるいは複数の文書間)の矛盾の検出を取り上げる。 その理由は, 文書内(あるいは文書間)の矛盾の検出は, 実用的に重要な課題であるからである.文書内(あるいは文書間)の矛盾を放置したままに すると重要な損害がもたらされる場合は多い,例えば,一つの人工衛星に関する技術文書間の矛盾[3], あるいは,企業が発行する文書と関連する法律の間の矛盾などがあげられる. また,推論において使用される知識には,大きく分けて,常識と世界知識とがある。この両者を厳密に区別することは困難であるが,本稿では,概念レベルの知識を常識と考え, 個々の事物レベルの知識を世界知識と考えることにする.すなわち, 常識は,記述論理[4]の T-Box に相当し,オブジェクト指向モデリング[5]のクラスモデルに相当する.また,世界知識は, 記述論理の A-Box に相当し, オブジェクト指向モデリングのインスタンスモデルに相当する.本稿では,常識を使用した矛盾の検出を考察の対象とする. 以上をまとめると, 本稿では, 文章中の矛盾の検出を行うための常識(概念レベルの知識)を記述するための辞書(あるいはオントロジー)の設計方法の提案を行う.辞書とオントロジーの区別は判然としないが,以降では,原則として,辞書とオントロジーの両者をまとめて「辞書」と呼ぶことにする. なお, 本稿の内容は, 筆者の過去の研究[6]をさらに発展させたものである. ## 2 関連研究 ## 2. 1 矛盾の検出 自然言語処理技術を使用して文書の矛盾を検出する研究としては[7-10]等がある.これらの研究の大部分において,語の意味に起因する矛盾を検出するために WordNet [2]等における反義語の規定が使用されている. 例えば,「大きい」と「小さい」は反義語であるから,「X は大きい」と「Xは小さい」は矛盾しているとして判断される. しかし,矛盾とは「同時には成立しない」ことであるから,必ずしも意味が反対でなくても矛盾していることはあり得る. 例えば,「太郎は歩いている」 と「太郎は走っている」は矛盾している。なぜならば,「歩く」と「走る」を同時に行うことは困難であるからである.また,「太郎は昨日大阪から東京に戻った」と「太郎は今日は大阪に滞在している」 は矛盾している,矛盾していないとすれば,「太郎は大阪から東京に戻った後で再び大阪に行った」という情報が不足していることになる。 文書中の矛盾を検出するために必要な情報を十分に含んでいる辞書は(筆者の知る限り) 存在しない.文書中の矛盾を検出するためには,そのために必要な知識を蓄積した辞書を構築する必要がある。 ## 2.2 辞書(あるいはオントロジー)の設計 特定の目的のためにオントロジーを設計した例として, Event and Situation Ontology (ESO) [11]を取り上げる。このオントロジーは,様々なニュース記事より事象を抽出し, 抽出された事象を互いに関連づけるための道具として開発された。 この目的のために,このオントロジーでは,動的事象 (dynamic state) と静的事象 (static event) を定義する。ただし,この両者は一般的には事象(event) と状態 (state) と言われている概念にそれぞれ相当するので,以下では事象と状態という用語を使用することにする. このオントロジーでは,変化を伴う事象は,その変化の内容を事前条件と事後条件によって規定する.事前条件と事後条件は,このオントロジーで定義されている状態に対応づけて規定する. 例えば,「Xは A から B に移動する」という事象の事前条件は「X は A に存在している」であり,事後条件は「Xは B に存在している」である。ここで,「XはYに存在している」は,このオントロジーにおいて状態として定義されている。このように事象と状態を関連づけることにより,このオントロジーで定義されている概念の範囲内であれば,複数の事象や状態の間の関係を統一的な形で表現できる。 このオントロジーは矛盾検出用ではないので当然であるが,このオントロジーを矛盾検出に利用するには,いくつかの情報が不足している。例えば,複数の事象や状態が同時に成立するかどうかを判定するための情報が欠けている。 本稿の第 3 節以下では, 矛盾検出のための辞書が満たすべき条件(あるいは設計原理)を明らかにしながら,そのような辞書を構築する方法を提示する. ## 3 ドメインモデルの構築 ## 3.1 ドメインモデルの概念 本稿で構築する辞書でも ESO [11]と同様に状態 (state)と事象 (event) を定義するが (第 4 節参照),本稿の方法では, 状態と事象で参照される基本概念をドメインモデル[6]として定義する. ドメインモデルとは,特定の分野で使用される基本概念を一つのモデルとして定義したものである.ESO では,事象の事前条件と事後条件を状態に準拠させることで全体の整合性を確保しているが,本稿では,事象と状態の双方をドメインモデルに準拠させることによって,さらに高いレベルの整合性の確保を狙っている. ## 3.2 ドメインモデルの定義 本稿ではオブジェクト指向モデリング[5]の手法を用いてドメインモデルを構築する.ドメインモデルの主要な構成要素を以下に示す.これらの要素は, Unified Modeling Language (UML) [12]のクラス図を用いても定義できる. オブジェクト指向モデリングの詳細は[5]や[12]を参照して頂きたい。以下で,オブジェクトとは,個々の物を属性値の集合として表現した仮想的な物である. ・クラス(共通の特徵を有するオブジェクトの集合) ・属性(オブジェクトの特徵を表すパラメータ) - 属性値(属性の取る値) - 属性値型(属性の取り得る値の集合) - 関係(複数のオブジェクト間に成立する関係) - 属性の多重度(一つの属性がいくつの属性値を持てるか) - 関係の多重度(一つのオブジェクトが他のいくつのオブジェクトと同一の関係を持てるか) 属性値型には, 整数, 実数, 文字列, 列挙型などがある. 列挙型とは,いくつかの離散的な値(文字列で表される)の集合として規定され,それらのうち一つあるいは複数のものを値としてとることを示すものである. このドメインモデルを矛盾の検出のために使用するためには, 属性值型が列挙型の場合, 列挙されている個々の值が互いに排他的である必要がある.列挙型の属性が二つ以上の異なる属性値を同時に持つことがある場合は,その属性の多重度を 2 以上にする必要がある. また, 属性と関係の多重度の指定は 従業員 1 ...* 雇用主 $0 . .1$ 図 1 ドメインモデルの実例 必須である. これらは, 矛盾検出のための辞書が満たすべき条件である. ## 3.3 ドメインモデルの実例 簡単なドメインモデルの例をUML のクラス図を用いて図 1 に示す.この図では, 以下の要素が定義されている. ・クラス:人間,組織 - 属性 : 氏名, 居住地, 所在地, 組織名, 組織種別 - 属性値型 : 文字列, 場所, 組織種別名 - 関係 : 従業員一雇用主 図 1 で示されている属性値型のうち組織種別名は列挙型であり,その定義は以下のようになっている. 組織種別名 $=\{$ 会社,役所,任意団体 $\}$ ここでは, 会社, 役所, 任意団体の三者は互いに排他的であるとする. さらに, この図では, 多重度も示されている. 属性の多重度は, 属性値型の後の[ ]内に示されているが,全ての属性について 1 である。 すなわち, 全ての属性は一つの属性值を常に持っていなければならない. 関係の多重度は, 以下のように示されている。 (このドメインでは) 一人の人間は,0または一つの組織を雇用主として持ち得る。すなわち, 一人の人間は, 雇用主を持たないか, あるいは, 一つの雇用主を持つかのどちらかである。一方, 一つの組織は,一つ以上(上限は設定されていない)の人間を従業員として持ち得る。 ## 4 状態と事象の定義 ここでは, 第 3 節で定義したドメインモデルに基づいて状態(state)と事象(event)を定義する方法を示 す.ここで登場するオブジェクトは,ドメインモデルで定義されている何らかのクラスに属しており,属性あるいは関係は,そのクラスで定義されている属性あるいは関係である. ## 4. 1 状態の定義 本稿の方法では, 各々の状態は以下の要素によって定義される。 〈属性に関する状態〉 ・オブジェクト - 属性=属性值 ・ [時刻あるいは時間間隔] - [その他] 〈関係に関する状態〉 ・オブジェクト ・関係 [=関係先のオブジェクト $]$ - [時刻あるいは時間間隔] - [その他 $]$ 上記で, [ ] 内の要素はオプションであり, 必要がなければ示さなくてよい. 例えば,「太郎は大阪に滞在している」という文は属性に関する状態を表していて,以下の要素によって表される.これは, FrameNet の Being_located フレームに概ね相当する. - 太郎(人間クラス) - 所在地 $=$ 大阪 - 時刻:現在 また,「太郎は凸凹商会に勤めている」という文は関係に関する状態を表していて,以下の要素によって表される.これは, FrameNet $の$ Being_employed フレームに概ね相当する。 - 太郎 (人間クラス) - 雇用主=凸凹商会 - 時刻:現在 ## 4. 2 事象の定義 本稿の方法では, 各々の事象は以下の要素によって定義される。 〈変化を伴う事象〉 - [変化を促すオブジェクト] ・変化するオブジェクト - 事前条件 - 事後条件 ・ [時刻あるいは時間間隔] - [手段] - [その他] 〈変化を伴わない事象〉 - [事象を促すオブジェクト] ・事象の主題となるオブジェクト - 事象の内容 $\cdot$ [時刻あるいは時間間隔 - [手段] - [その他 $]$ 上記で,変化(あるいは事象)を促すオブジェクトとは, 使役を表すためのものであり, 変化する (あるいは事象の主題となる)オブジェクト以外のオブジェクトが事象を引き起こす場合に,事象を引き起こすオブジェクトを示すものである. 事前条件と事後条件は, ESO [11]でも使用されている概念であり,事象の前後で変化する属性や関係を表現するものである.変化を伴わない事象の内容については,同時には成立しない事象の集合(例えば,「歩く」と「走る」等)を規定するものとする.手段等の他の項目についても,同時に使われることのない(すなわち排他的な)值の集合を定めるものとする.これらは, 矛盾検出のための辞書が満たすべき条件である. 例えば,「太郎は昨日大阪から東京に移動した」 という文は変化を伴う事象を表していて,以下の要素によって表される。これは, FrameNet の Self_motion フレームに概ね相当する. ・変化するオブジェクト:太郎(人間クラス) - 事前条件 : 所在地 $=$ 大阪 - 事後条件 : 所在地 $=$ 東京 - 時刻:昨日 ## 5 矛盾検出の例 ここでは,本稿の方法によって検出できる矛盾の例を示す. ・「太郎は役所に勤めている」対「太郎は会社に勤めている」 この矛盾は,(このドメインにおいては)人間クラスのオブジェクトが雇用主を一つしか持てないことと組織クラスの組織種別名が排他的であることにより検出できる. -「太郎は大阪に行った」対「太郎は東京にいる」 この矛盾は,(太郎が大阪から東京に戻ったという情報がないかぎり)人間クラスの所在地の多重度が 1 であることにより検出できる。ただし, 厳密に言えば,この矛盾検出のためには,東京と大阪は排他的な場所であるという世界知識が必要になる。 ## 6 考察 ## 6. 1 他の辞書やオントロジーとの関係 本稿では,新しい辞書の構築方法を提示したが,既存の様々な辞書との関係も考慮する必要がある.一つの辞書であらゆる分野や用途をカバーできれば理想的であるが,それは現実的ではないので,以下のような方法が望ましい. ドメインモデルで使われるクラス,属性,関係などの概念は,SUMO [13]等の上位オントロジーで定義されているものを使用するか,これらの上位オントロジーとの対応関係を示すべきである. 状態と事象については, FrameNet [1]のフレームに概ね対応するが,厳密な一対一の対応ではないので,両者間の対応関係を詳しく示すべきである. ## 6. 2 将来の課題 [7]や[9]で指摘されているように,A と B が矛盾しているかどうかを検出するためには,A と B が共に同一の事物について言及しているかどうかの確認が必要である.これは必ずしも容易な問題ではなく,辞書だけで解決できる問題でもないが,何らかの解決策が必要である。また,本稿では常識のみを利用したが,これに世界知識を組み込むための取り組みも必要である。本稿では,推論の一例として矛盾検出を取り上げたが,他の推論のタイプに適用できる手法も開発すべきである. さらに,ここで提示した辞書を機械で処理できる形式で表現する方法も必要であるが,このためには筆者の別の研究[14]等を利用する予定である. ## 7 おわりに 本稿では,矛盾の検出を支援するための辞書(あるいはオントロジー)の構築方法の一例を示した.本方式の特徴は,まずドメインモデルを構築し,それ以外の概念は全てドメインモデルに準拠して定義することである.ただし,本稿で示したのは大まかな構想のみであり,詳細は今後詰める必要がある. また,第 6 節で示したように今後解決すべき課題も多い. 本稿で強調したいことは,辞書やオントロジ一は使用目的に合致するように「設計」すべきであることである.実社会で役に立つような研究が今後ますます盛んになることを願っている。 ## 参考文献 [1] Josef Ruppenhofer, Michael Ellsworth, Miriam R. L. Petruck, Christopher R. Johnson, Collin F. Baker and Jan Scheffczyk, FrameNet II: Extended Theory and Practice, 2016. [2] Christiane Fellbaum, WordNet: an electronic lexical database, MIT Press, 1998. [3] 山田隆弘, “バックキャスティングによる技術開発のすすめ”, ISAS ニュース, JAXA 宇宙科学研究所, No. 488 (2021 年 11 月), p. 8, 2021. [4] Franz Baader, Diego Calvanese, Deborah L. McGuinness, Daniel Nardi and Peter F. PatelSchneider, The Description Logic Handbook: Theory, Implementation and Applications, Second Edition, Cambridge University Press, 2010. [5] Michael Blaha and James Rumbaugh, ObjectOriented Modeling and Design with UML, Second Edition, Prentice Hall, 2005. [6] 山田隆弘, “公理としてのドメインモデルに基づく意味の規定について," 第 31 回人工知能学会全国大会, 2017. [7] Sanda Harabagiu, Andrew Hickl and Finley Lacatusu, "Negation, Contrast and Contradiction in Text Processing," Proceedings of the Twenty-First National Conference on Artificial Intelligence (AAAI-06), pp. 755-762, 2006. [8] Marie-Catherine de Marneffe, Anna N. Rafferty and Christopher D. Manning, "Finding Contradictions in Text," Proceedings of ACL-08: HLT, 2008. [9] Aikaterini-Lida Kalouli, Livy Real and Valeria de Paiva, "Correcting Contradictions," Proceedings of the Computing Natural Language Inference Workshop, 2017. [10] 外園康智, 長谷川貴博, 渡邊知樹, 馬目華奈, 策有紀子, 谷中瞳, 田中リベカ, Pascual MartínezGómez, 峯島宏次, 戸次大介, “意味解析システム ccg2lambda による金融ドキュメント処理,”第 32 回人工知能学会全国大会, 2018 . [11] Roxane Segers, Piek Vossen, Marco Rospocher, Luciano Serafini, Egoitz Laparra and German Rigau, "ESO: a Frame based Ontology for Events and Implied Situations," Proceedings of MAPLEX 2015, 2015. [12] Grady Booch, James Rumbaugh and Ivar Jacobson, "The Unified Modeling Language User Guide," Second Edition, Addison-Wesley, 2005. [13] Ian Niles and Adam Pease, "Towards a Standard Upper Ontology," Proceedings of the 2nd International Conference on Formal Ontology in Information Systems, 2001. [14] 山田隆弘, “Entity-Relationship モデルに基づいた知識グラフの構築方法," 第 34 回人工知能学会全国大会, 2020 .
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D1-2.pdf
# 対訳文を用いた同義語・類義語・対義語の抽出 桝原弘哉 ${ }^{1}$ 村上仁一 ${ }^{2}$ 1 鳥取大学大学院 持続性社会創生科学研究科 工学専攻 2 鳥取大学工学部 ${ }^{1}$ m22j4052m@edu. tottori-u.ac.jp ${ }^{2}$ murakami@tottori-u.ac.jp ## 概要 従来,同義語・類義語・対義語は,意味に基づいて人の手によって分類される [1]. そのため, 収集におけるコストが高い. また,自動的なシノニム抽出の研究 [2][3] は数多く存在する. しかし, 同義語・類義語・対義語が区別されず,総括してシノニムと扱われる。 そこで本研究では,コーパス内の同義語・類義語・対義語を区別した形で自動抽出することを目的とする.通常,シノニムは意味に基づいて収集されるが,コーパスに「意味」という情報は存在しない。そこで,「翻訳の対応関係」を「意味」 と仮定し,対訳コーパスからシノニム抽出を行う. 実験の結果,同義語 $94.3 \%$ ,類義語 $78.2 \%$ ,対義語 $60.7 \%$ の精度が得られた. また,提案手法より対義語において辞書に未記載のシノニム抽出にも成功した. ## 1 はじめに 同義語・類義語・対義語は単語間の関係性を表現し文意理解において重要である. 対義語も一部類似した性質を持つことから便宜上,本論文において同義語・類義語・対義語を総合してシノニムと表現する. 従来,シノニムは意味に基づいた人手による判断で分類 [1] された. シノニム単語を収集したシノニム辞書が制作に長い月日を必要とすることから人手分類のコストの高さを示している. 一方で,シノニムを自動抽出する研究 [2][3] は数多くされており手法も様々である. しかし, 同義語・類義語・対義語にそれぞれ区別して抽出している研究はあまり見られない. 同義語・類義語と対義語は置き換えることで文意が正反対になるため,区別が特に重要であると考えられる.そのため,本論文では,共通の対訳コーパスからシノニムを区別した形で自動的に抽出をすることを試みる。 ## 2 従来手法 ## 2.1 人手による収集 人手収集におけるシノニムは意味を判断基準としており,各シノニムの意味は辞書 [1] によって次のように定義されている. 同義語:語形は異なるが意義はほぼ同じ言葉 類義語 : 意味の類似する単語 対義語:意味の上で互いに反対の関係にある語 ## 2.2 自動抽出の研究 ## 2.2.1 パターンを用いたシノニム抽出 Chklovski ら [2] は,類似する単語が特定の文法パターンで共起する性質に注目した.WordNet から関連性の高い動詞ぺアを収集し, 事前に定義されたパターンを使用することで動詞におけるシノニム抽出を行った。 ## 2.2.2 分散表現を用いたシノニム抽出 Li ら [3] は, 類似する単語が単語分散表現の意味空間において近接する性質に注目した.Word2Vec[4] を使用することで単語間の類似性を計算し,スペクトルクラスタリングによって単語をクラスタリングすることでシノニム抽出を行った。 ## 3 問題点・目的 自動的なシノニム抽出の研究は,人手によるコストが不要という利点がある。しかし,人手収集とは異なりシノニム内の明確な区別がないことが多い. その理由として, 本来なら意味基準で分類するシノニムを自動抽出においては意味以外の情報を利用しており,シノニム間の境界の曖昧性を解消できないためだと考えられる。曖昧性の一つとして, 対義語対はカテゴリーが一部共通する性質から類似性を持つことが挙げられる。例えば,“白”と“黒”は,色の明暗から対義語として扱われるが,色という同じカテゴリーであるため類似する単語とも解釈できる。 以上のことを踏まえて,本研究ではシノニムの自動抽出において同義語・類義語・対義語を区別した形で抽出することを目的とする。 ## 4 提案手法 言葉は「意味」によって単語自体が持つ概念や性質といった知識を他人と共有することができる.知識の共有ができる観点から「翻訳の単語対応」は 「意味」と同等と考えることができる.例えば,“服” という単語は「身につけるもの。きもの.」といった意味であるが,日本語を知らない英語話者に対しては対訳単語である“clothes”を伝えることで,“服” という単語が持つ概念を共有することができる.この性質から,共通する翻訳を持つ単語同士は意味が同じと仮定することで,類似する単語の抽出に対訳単語を利用できると考えられる。 一方,類似単語の一部とみなせる対義語は,同一文において置き換えることで正反対の内容を表現できる.例えば,“右”と “左”の対義語対において「交差点を右に曲がる.」は “右”を“左”に置き換えることで正反対の文になる。つまり,文脈 (周囲の単語) によって類似性を求められる分布仮説において,対義語が最も類似すると考えられる。 ## 4.1 再定義 本研究では,「翻訳における単語対応」を「意味」 とみなすため, 2 言語の翻訳対応を利用したシノニムの再定義を行う. 2 言語は日本語-英語である. ## 4.1.1 同義語 ・単一カテゴリー内に存在する単語対 - 日本語単語の対が英語訳において完全に共通 例) “病気”と “病” 病気 $=$ disease $=$ 病,病気 $=$ illness $=$ 病 ## 4.1.2 類義語 ・単一カテゴリー内に存在する単語対 -日本語単語の対が英語訳において一部共通 例)“青”と “緑” 青 $=$ green $=$ 緑,青 $=$ blue $\neq$ 緑 ## 4.1.3 対義語 ・単一のカテゴリー内に存在する単語対 - 日本語単語の対が英語訳において共通しない ・共通する文脈で置き換え可能 例) “右” と “左” 右 $=$ right $\neq$ 左, 左 $=$ left $\neq$ 右 右に曲がる。,左に曲がる。 ## 4.2 変換テーブル 4.1 節の 2 言語を利用した再定義を踏まえると, シノニムの関係に有る単語対それぞれには対訳単語が存在する。つまり,シノニム抽出には日本語単語 2 対,英語単語語 2 対の計 4 対が必要である. そこで,変換テーブル [5]を利用する。 図 1 変換テーブル 変換テーブル [5] は単語 4 組の関係性を定義するテーブルである.パターンが共通する 2 組の対訳文において,パターンの変数に対応する単語が抽出されることで生成される。各単語の相対性により「A 例では,「猫が catならば犬は $\operatorname{dog}$ 」である. ## 4.3 Word2Vec Word2Vec[4] は文脈 (周囲の単語) を用いて単語を数值化することでベクトル表現を可能にするニュー ラルネットワークの手法である.対義語同士が類似する文脈で使用される性質から,Word2Vec[4] において対義語同士の類似度は最も高いと考えられる。 ## 5 実験方法 ## 5.1 実験手順 ## 5.1.1 同義語 単語対が翻訳において完全に共通する組み合わせを抽出する。(表 3 参照) 1. 変換テーブル $\mathrm{ABCD}$ で英語 $\mathrm{B}, \mathrm{D}$ が同一単語,且つ日本語 $A, C$ が別単語の組み合わせを選択 2. 翻訳が複数存在することを考慮して,1. で得られた日本語単語 $\mathrm{A}$ につい変換テーブルを利用し,対応する英単語をすべて収集 $\Rightarrow$ 集合 $A^{\prime}$ 3. 2. と同様の処理を 1. で得られた日本語単語 $\mathrm{C}$ についても行う $\Rightarrow$ 集合 $C^{\prime}$ 4. 2. と3. で得られた集合 $A^{\prime}$ と集合 $C^{\prime}$ を比較し,完全に一致する組み合わせを同義語として出力 ## 5.1.2 類義語 単語対が翻訳において一部共通する組み合わせを抽出する. (表 4 参照) 1. 変換テーブル $\mathrm{ABCD}$ で英語 $\mathrm{B}, \mathrm{D}$ が同一単語,且つ日本語 $A , C$ が別単語の組み合わせを選択 2. 翻訳が複数存在することを考慮して,1. で得ら し,対応する英単語をすべて収集 $\Rightarrow$ 集合 $A^{\prime}$ 3. 2. と同様の処理を 1. で得られた日本語単語 $\mathrm{C}$ についても行う $\Rightarrow$ 集合 $C^{\prime}$ 4. 2. と 3. で得られた集合 $A^{\prime}$ と集合 $C^{\prime}$ を比較し,共通しない部分がある組み合わせを類義語として出力 ## 5.1.3 対義語 日本語・英語同士が最も類似する組み合わせを Word2Vec を利用して抽出する。(表 5 参照) 1. 変換テーブル $\mathrm{ABCD}$ で英単語 $\mathrm{B}, \mathrm{D}$ が別単語であり,日本語単語 $\mathrm{A}, \mathrm{C}$ も別単語である組み合わせを選択 (Aと B は対訳単語である) 2. Word2Vecを利用し,1. で得られた日本語単語 $\mathrm{A}$ に最も類似する単語を抽出 $\Rightarrow \mathrm{A}^{\prime}$ 3. Word2Vec を利用し,1. で得られた英語単語 B に最も類似する単語を抽出 $\Rightarrow \mathrm{B}$ , 4. 変換テーブル中から $\mathrm{ABA}^{\prime} \mathrm{B}^{\prime}$ となる組み合わせを検索 5. 1. 4. の処理を $\mathrm{CDC}^{\prime} \mathrm{D}^{\prime}$ の組み合わせでも行う ## 5.2 実験データ・条件 ## 5.2.1 変換テーブル 森本 [5] が作成した変換テーブルを使用する. 森本は,電子辞書などの例文から抽出された 163,188 文の単文対訳コーパス [6] を利用して変換テーブルを作成した. 生成された変換テーブルは 701,828 組である. ## 5.2.2 Word2Vec Python の gensim[7] を使用する. データの統一を取るために,変換テーブルと同じ 163,188 文の単文対訳コーパス [6] で学習を行う。各パラメータは, window $=5$, size $=10,000$ とし,英語モデル,日本語モデルをそれぞれ作成した。 ## 6 実験結果 同義語・類義語 ・対義語の各抽出数と人手評価による精度を表 2 に示す. ただし,漢字や片仮名を含む表記ゆれや数字などのノイズは評価に考慮しない. 評価者は著者 1 人である. 表 2 抽出結果 出力例の一部を表 3 5 に示し,変換テーブルが参照した対訳文を例文として示す. ## 6.1 同義語 & 值段 & & $\circ$ \\ 例文) 1).価格と値段 野菜の価格が急騰している。 The price of vegetables is soaring. 野菜の值段が下がる. The price of vegetables drops. 2).秩序と順序 それは新たな秩序の到来を告げた。 That ushered in a new order. 逆の順序におく. Place in the reversed order. ## 6.2 類義語 表 4 類義語 & ○ \\ 例文) 1).お昼と正午 お昼までには,まだ少し間がある。 There's still a little time left until noon. 正午に汽笛が鳴る. The whistle blows at noon. 2).板と委員会 板が歪む. The board is distorted . 委員会は明日開かれる予定だ。 The board is meeting tomorrow . ## 6.3 対義語 表 5 対義語 例文) 1).東と西 風は東へ吹いている. The wind is blowing east.風が西へ吹く. The wind blows west 2).雪と雨 雪がやんだ. The snow has stopped. 雨がやんだ. The rain has stopped. ## 7 考察 ## 7.1 不正解の調査 実験結果における不正解対の原因調査により,方式の限界による要因と変換テーブル作成時のパター ンの誤りによる要因に大別された. 同義語は方式限界のみであった。 各要因の割合を表 6 に示す. 表 6 不正解の割合 ## 方式限界による要因 同義語・類義語では,英単語は共通するが類似しない日本語対が抽出された. この問題の原因は単語の持つ多義性である. 言語間の概念の差異や文脈により単語の用途が変化するため, 方式限界であると考えられる。(表 3,表 4 の不正解例を参照) 対義語では,反対の意味が存在しない日本語対が抽出された. この問題の原因は単語に反対が存在するかの区別が困難なことである.変換テーブル自体はパターンが共通する組み合わせを出力しており,組み合わせ自体に類似性は存在しないため,方式限界であると考えられる。(表 5 の不正解を参照) ## パターンの誤りによる要因 森本 [5] の変換テーブルはパターンを利用して作成されており,パターンの誤りが単語対応の誤りに影響を与えている。つまり,パターンの精度を上げることで類義語・対義語については抽出精度が向上すると考えられる。 ## 7.2 辞書による評価 (対義語) 実験結果より同義語・類義語と比較し,対義語の正解率が低い. 原因として,7.1 節で述べた反対の存在しない単語を抽出していることが考えられる。 そこで,対義語辞典において対義語と定義される単語対に限定して再度精度を調査した。対義語辞書には, weblio 対義語反対語辞典 $[8]$ を利用した. 表 7 明確に対義語である単語の調査 調査の結果,対義語辞書 [8] において不正解だが,人手評価において正解と判断された対が得られた. また,調査の過程で,実験結果における表 7 に含まれない対義語が得られた。つまり,対義語辞書において定義されないが,人手評価において正解と判断される対義語である。それぞれの一部を表 8 ,表 9 に示す。 表 8 辞書で不正解となった対義語 表 9 辞書で定義されない対義語 この結果から, 本研究の提案手法は辞書に記載されていない対義語を抽出できたことを示している。 ## 8 まとめと今後の課題 従来の研究では,意味基準によって区別されるシノニムの曖昧性が解消されない問題があった. そこで,本研究では,「翻訳の単語対応」を「意味」と仮定することでシノニムを自動抽出・分類する方法を提案した. 実験の結果,同義語 $94.3 \%$ ,類義語 $78.2 \%$ ,対義語 $60.7 \%$ の精度が得られた。また,対義語において辞書に未記載の単語抽出といった有効性を得られた。 今回,提案した手法では抽出数が不十分であると考えられる。そのため,精度を損なわずに抽出数を増加させることを今後の課題とする。 ## 参考文献 [1] 新村出, 新村出記念財団. 広辞苑. 岩波書店, 第 6 版, 2008. [2] Timothy Chklovski and Patrick Pantel. VerbOcean: Mining the web for fine-grained semantic verb relations. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, pp. 33-40, Barcelona, Spain, July 2004. Association for Computational Linguistics. [3] Li Zhang, Jun Li, and Chao Wang. Automatic synonym extraction using word2vec and spectral clustering. In 2017 36th Chinese Control Conference (CCC), pp. 56295632, 2017. [4] Tomas Mikolov, Kai Chen, Gregory S. Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. In International Conference on Learning Representations, 2013. [5] 森本世人. 類似度を利用した変換テーブルの精度向上. 言語処理学会第 27 回年次大会, 2021 . [6] 村上仁一, 藤波進. 日本語と英語の対訳文対の収集と著作権の考察. 第一回コーパス日本語学ワークショップ, 2012. [7] Radim Rehurek and Petr Sojka. Gensim-python framework for vector space modelling. NLP Centre, Faculty of Informatics, Masaryk University, Brno, Czech Republic, Vol. 3, No. 2, 2011. [8] GRAS グループ株式会社. weblio 対義語反対語辞典,(2023-01 閲覧). https://thesaurus.weblio.jp/ antonym/.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D1-3.pdf
# 日本語話者の項省略判断に関するアノテーションとモデリング 石月由紀子 1,4 栗林樹生 1,2 松林優一郎 1,4 笹野遼平 3,4 乾健太郎 1,4 1 東北大学 ${ }^{2}$ Langsmith 株式会社 3 名古屋大学 4 理化学研究所 yukiko.ishizuki.p7@dc.tohoku.ac.jp \{kuribayashi,y.m,kentaro.inui\}@tohoku.ac.jp sasano@i.nagoya-u.ac.jp ## 概要 日本語ではしばしば主格や目的格などの項が省略される.項の省略の可否は構文の妥当性といった制約や母語話者の選好によって判断される場合があり,母語話者は省略の容認度を潜在的に規定していることが想定される. しかしながら,そのような母語話者の判断のモデリングは,既存の省略解析の枠組みには含まれてこなかった. 本研究では,読み手の省略判断に関するデータの収集と,そのデータを用いた省略判断モデルの構築を行い,母語話者と自然言語処理モデルの省略判断についてその傾向を調査した. 収集したデータは BCCWJに対する差分データとして公開予定 ${ }^{1)}$ である. ## 1 はじめに 日本語は項省略がしばしば発生する言語である。例えば(1a)では,「マックが」を省略した方が自然であり,一方(1b)では「小塚原の刑場に」を省略しないほうが自然である2). (1a) マックは椅子をつかみ、前後逆に置いた。そこにマックがまたがり、無言で画像に見入った。 (1b) 一六六 $\bigcirc$ 年頃 (万治年間)、幕府は、牢死者や刑死者を弓うため、本所に回向院を立てさせた。 さらに一六六七年(寛文七)、その別院として、小塚原の刑場に建てられたのが、この回向院だそうな。 本研究ではこのような項の省略判断について,(i) ある項が表出・省略されているべきかという人間の読み手が下す判断のデータ収集・分析と,(ii)自然言語処理モデルを用いた省略判断予測モデルの構築を行う. 項の省略の可否に関しては統語的な制  図 1 アノテーション作業の外観 約などについて少数の事例のもと議論されてきた $[2,3,4,5]$ が,本研究ではそれらの研究と相補的に,実際に人間の読み手が文章を読んだ際に判断する省略の容認度について比較的大規模なコーパスにアノテーションする.計算モデルによる省略判断の予測については,日本語の読みやすさの自動判定・文章執筆支援(項を省略・表出すべきかの自動推薦)といった応用的出口を見据えるとともに,既存の言語モデルが談話的な現象である省略判断を行えるのかという学術的な分析として位置づける。 日本人大学生 5 名を対象にしたデータ収集の結果,人間の作業者間での省略判断は概ね一致し,個人差が生じる事例は限定的であることが分かった. また,省略の是非の判断根拠もあわせて追跡する方式で作業を行い,分析の結果,統語的容認性や省略要素の復元可能性といった言語の制約的な部分では人間の省略判断が比較的一致し,それらでは説明できない選好の部分では判断が摇れる傾向があった. 言語モデルによる省略判断の予測に関する実験では,日本語 BERTを用いたモデルを作成し,その性能を調査した。言語の制約的な要因で決まる事例については,モデルは概ね正しい判断を下し,一方で文の自然さといった選好によって省略の可否が決定する事例については,言語モデルの予測性能が人間 表 1 省略の程度を説明するものとして想定される因子 & \\ の作業者間に対して劣るという結果が得られた. ## 2 省略判断アノテーション ## 2.1 タスク設定とアノテーション基準 日本語母語話者の項省略の容認度とその一致の程度を調査することを目的とし,省略判断のデータを収集した. 図 1 にアノテーションタスクの外観を示す. 作業者には文章内のある述語と,それと同一文内にある述語の項が 1 つ示される. 作業者は,指定された述語の項の表現が省略可能かを判断する。なおこの項は (i) 元の文章でも表出している場合と (ii)元の文章では省略されているが特定の位置に復元されている場合の 2 通りがあり,作業者は判断時にどちらの事例かを知ることはできない. アノテーション対象の述語-項の収集方法は 2.3 節で説明する. アノテーション基準は,省略に関する言語の制約的性質を予備的に調査した結果を踏まえ,実際に著者らで予備アノテーション作業を行いながら設計した. まず,判断の程度を定義するにあたり,省略判断を,言語の制約的な性質に基づく強い判断と,作業者のある種の選好に基づくものとに分け,これに 「省略」「表出」の方向を示した 4 值を省略の程度として定めた. 最終的な人間の判断が制約的な要因によって説明される場合は「省略(制約)」及び「表出 (制約)」と定義し,選好に基づく要因によってのみ説明される場合を「省略(選好)」及び「表出(選好)」と定義した. さらに,制約的な要因としてどのような因子があるかについて,省略の潜在的な判断要因を著者内で議論し, 少なくとも制約的な因子については著者間での判断に摇れがないことを基準として,表 1 のとおり因子を定めた。ただし,ここで例外的に因子 3 については,項が表出した文と省略された文のどちらを選ぶかが書き手の表現したい文意によってのみ定まる,読み手には判断不可能な例の存在が判明したため,新たに「判断不可」というラベルを追加し, 最終的に 5 つの程度について作業者に判断させた. 実際の作業では,作業者は 5 つの段階を直接判断するのではなく,表 1 の各因子に対しての判断を下すことによって間接的に 5 つの段階を判断する.これによって,作業者がどの判断要因を用いて判断しているのかを分析できるようにした。例えば,1 節で挙げた例 (1a) については省略するのが自然であると判断されるが,判断の根拠は表 1 の 5 つの因子への判断として次のように記述できる: (因子 1) 項が省略された場合にも補われるべき情報が定まる, (因子 2) 項の有無は構文的正しさに影響しない,(因子 3) 省略に伴う助詞機能の喪失によって文意が変化しない,(因子 4) 慣習的に省略される項ではない, (因子 5) 文章の流暢さから省略するのが自然. 最終的なラベルはこれらの因子への回答の組み合わせによって選択される.この場合は,制約に関する因子 (1-4) の組み合わせからは制約としての判断は下されず,選好に関する因子(5)で項を省略すべきと判断したため, 最終的に付与される省略の容認度は 「省略(選好)」となる。 実際の作業時には,その項がどのような潜在的要因を持ち,最終的にどの容認度のラベルが付与されるべきかを質問フローチャートに答えていく形で回答する.このフローチャートが因子に対する回答の組み合わせから 5 値の容認度ラベルへの対応を定めている. フローチャートの詳細は付録 $\mathrm{A}$ に示す. ## 2.2 作業手順とインターフェース 作業の具体的手順を説明する.回答には専用のツールを用いた(付録 B に記載)。作業画面上には,図 1 に概略したように,特定の述語・項が強調され た文とその前方文脈が提示される.作業者は画面の上から順に文章を読解し,対象となる項がどの程度省略されるべきかを,その文を読んだ時点までの情報と事前に与えたアノテーション基準に沿って判断する. 回答後に画面上の「次の問題」ボタンを押すと, 次の対象述語-項までの文章が表示される. 作業者は直前に読んだ文の続きから読み進め, 対象述語まで読み進めたら問いに回答する作業を繰り返す。 2.1 節で説明した通り,コーパス上での実際の文は省略判断時に提示されていないが,読み誤ったまま回答し続ける状況を防ぐため, 判断終了後, 次の事例に進む時点でコーパス上に本来記述されていた文が提示される. 文内に問うべき項が複数存在する場合は,無作為に1つを作業対象とした. また,既に回答した事例を遡って回答し直すことは禁止した. この作業を日本語母語話者 5 名により実施した.本研究では, 作業者数が 5 名と少数のため, 読解力の水準を揃える目的で同一大学の学生を選出した.事前にアノテーション対象外の文章を用いて訓練作業を実施し,アノテーション基準や作業内容に対する理解度を確認した後,本実施を行った。 ## 2.3 アノテーション対象データ 述語項構造情報が付与されたコーパス,BCCWJDePParaPas [1] の書籍ドメイン 32 文章をアノテー ション対象とした. 対象となる述語-項ぺアのサンプリング手法は付録 C に示す. 同コーパスには文章中で省略されている項に照応関係及び格関係が付与されているため,省略された項が何かを特定可能である.このデータを用いて,項を文中に強制的に表出させた状態でその項の省略可能性を作業者に問う.この際,項が省略されていた場合は,文中のいずれかの位置に表出させて作業者に提示する必要がある. 項をどこへ復元すべきかの情報はコーパスに付与されていないため, 事前準備として省略された項をなるべく自然な位置に補った. 作業手順は付録 Dに記載する. 最終的に 1,054 事例の述語-項ぺアを収集し,これにコーパス上で既に項が表出しているものを加えた 2,392 事例を今回の対象とした. ## 3 アノテーション結果 作業者間の判断の一致度作業者の省略判断の一致度について, Krippendorff の alpha $^{3}$ ) の値が 0.84 と 3) 3 名以上かつ順序尺度に対応する一致度の尺度で,一般的には alpha が 0.677 以上であれば高い一致度であるとされる。表 2 データセット内の判断ラベル分布 高く,判断が概ね一致することが確認された [6]. 作業結果の集約とラベル分布の分析得られた 5 名分の判断ラベルについて,省略判断の予測モデルを構築するため 1 つの代表ラベルに集約し,訓練・開発・評価データを作成した ${ }^{4)}$. 集約の際は,省略 (制約)<省略(選好)<判断不可 <表出(選好)<表出(制約)というラベル間の順序を仮定し,5 名の回答の中央値を判断の代表値とした. 結果として,回答の集約時に中央値が「判断不可」に分類される事例は 1 事例のみであったため, 今回の分析ではこの事例を除外し,以降は省略の程度を省略(制約),省略(選好),表出(選好),表出(制約)の 4 値として分析を行う. 集約後のデータセット内のラベル分布を表 2 に示す. ラベルの割合は表出 (制約) が最も多く(約 45\%),制約と選好の間では制約の事例が全体の約 $75 \%$ を占め,選好の事例は $25 \%$ 程度となった. 加えて,この集約後のラベルと各作業者のラベルの間での混同行列を確認したところ (図 2 左), 作業者間の判断の摇れは主に隣接するラベルで見られ,離れたラベルで摇れることは稀であることが分かった. また,表出と省略の間をまたぐ摇れは主に選好に基づく判断で起こっていることが分かった. コーパスと作業者判断の比較読み手と書き手の判断に差違があるかを分析するため,コーパス中での表出・省略を正解とした場合に,作業者の判断の中央値がこれと一致するかを確かめた. 結果として,作業者の結果を表出・省略の 2 値予測とみなした場合のコーパスに対する正解率は 97.0\%であり,例外的な事例はあるにせよ,読み手である作業者と書き手の省略選択は概ね一致することが示された。 ## 4 実験:省略判断モデル 人間の省略判断を現行のニューラル言語モデルがどの程度予測可能か調査する.  図 2 開発データにおける作業者と言語モデルの混同行列. 左図は作業者 5 名の回答とその中央値の混同行列で,值は事例数の平均值. 右図は BERT-large の混同行列. 表 3 作業者間と言語モデルの判断性能 ( $F_{1}$ 値). 作業者間の値は,中央値を正解として各作業者の $F_{1}$ 値を求め, 5 人の値の平均を取ったもので,性能の上限値とみなせる. ## 4.1 実験設定 モデル言語モデルとして日本語 Wikipediaで事前学習済みの Transformer 言語モデル (BERT-basejapanese,BERT-large-japanese ${ }^{5)}$ )を用いた. 対象の述語-項ぺアを含む 1 文と,その前方文脈をモデルの入力とし, 省略判断の 4 カテゴリ \{省略(制約),省略 (選好),表出(選好),表出(制約)\}の多値分類モデルを訓練した. モデルの入力と訓練時のハイパー パラメータと詳細は付録 $\mathrm{E} と \mathrm{~F}$ に示す. 評価尺度上記 4 値を名義尺度として $F_{1}$ 值を計算した。順序を考慮した評価は今後の課題とする。 ## 4.2 結果 作業者と言語モデルの比較作業者の判断を予測するモデルを学習した結果を表 3 に示す. 制約により可否が定まる事例では相対的に性能が高く,一方で選好により可否が定まる事例では, 人間の作業者間の $F_{1}$ 值と比べると,モデルの予測性能は劣ることが示された。 また,言語モデルの予測に関する混同行列を観察したところ (図 2 右), 言語モデルでは離れたラべル間で選択を誤る事例が人間より多くなる傾向が見られ, 特に人間が「表出(選好)」を選んでいる事例  に対して「表出 (制約)」のラベルを予測するケースが多く見られた。 要因ごとの分析人間の回答の判断根拠とモデルの正解事例との関連を分析し,言語モデルが予測可能な事例の性質を調査した。 (i) 省略されると補われるべき情報が定まらず(因子 1),その場合に書き手の意図が伝わらない(因子4)項と,(ii)省略されても項が一意に定まる事例のうち(因子 1),表出または省略により構文的妥当性が損なわれる(因子 2)項で正答率が高かった. 前者は新情報の項, 後者は構文の容認性判断で判定される項であり,これらの項への判断は概ね達成できていると示唆される. ## 5 関連研究 人間と計算モデルの対照人間と計算モデル間の判断の比較は, 文の容認性判断のモデリング $[7,8,9,10,11]$ などに始まり, 自然言語処理分野において盛んに行われてきた. 本研究では言語モデルの追学習で省略判断予測をしており, 言語学的な仮説に直接答えるものではないが,作成したデータは計算モデルから得られる統計量 (情報量など) との対照といった言語学的検証にも活用できる. 省略解析典型的な省略解析 $[12,13,14]$ は,与えられた文の項省略を検知し,省略されている情報を復元するという問題設定である. 本研究は, 文章中のある項を省略・表出させるべきかという,実際の言語運用に焦点を当てた問題設定を導入している。 ## 6 おわりに 本研究では,日本語母語話者の項省略判断について,コーパスの事例を元に 2,392 事例のデータを収集した.また,このデータを元に項省略判断モデルを構築し, 現行のニューラル言語モデルが人間の判断を予測できるかを分析した. 今回収集したデータは作業者数が 5 名であり,作業者間の判断の差違をより詳細に分析するには至らなかったが,今後データ規模を拡大し,選好に基づく判断の摇れについてその因子を分析することや,個人の読解力の差違による判断の摇れの分析,書き手の文章記述力の差による書き手と読み手の判断のずれ等の分析も検討していきたい. また,モデルの予測性能を向上させることで,省略判断の予測に基づく文章の可読性評価や,日本語文章執筆支援といった技術の開発を目指したい. ## 謝辞 本研究は科研費 JP19K12112 の助成を受けたものです. ## 参考文献 [1] 浅原正幸, 大村舞. Bccwj-depparapas: 『現代日本語書き言葉均衡コーパス』係り受け・並列構造と述語項構造・共参照アノテーションの重ね合わせと可視化. 言語処理学会第 22 回年次大会発表論文集, pp. 489-492, 2016. [2] Satoshi Oku. A theory of selection and reconstruction in the minimalist perspective. University of Connecticut, 1998. [3] Mamoru Saito. Notes on east asian argument ellipsis. LANGUAGE RESEARCH, Vol. 43, pp. 203-227, 2007. [4] Serkan Sener and Takahashi Daiko. Argument ellipsis in japanese and turkish. MIT Working Papers in Linguistics 61 : Proceedings of the 6th Workshop on Altaic Formal Linguistics : Department of Linguistics and Philosophy. MIT, pp. 325-339, 2010. [5] Yuta Sakamoto. Phases and argument ellipsis in japanese. Journal of East Asian Linguistics 2016 25:3, Vol. 25, pp. 243-274, 72016. [6] Klaus Krippendorff. Computing krippendorff's alphareliability. 2011. [7] Sebastian Schuster and Tal Linzen. When a sentence does not introduce a discourse entity, transformer-based models still sometimes refer to it. In North American Chapter of the Association for Computational Linguistics, 2022. [8] James A. Michaelov and Benjamin K. Bergen. Do language models make human-like predictions about the coreferents of italian anaphoric zero pronouns? In International Conference on Computational Linguistics, 2022. [9] Allyson Ettinger. What bert is not: Lessons from a new suite of psycholinguistic diagnostics for language models. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 34-48, 12020. [10] Shiva Upadhye, Leon Bergen, and Andrew Kehler. Predicting reference: What do language models learn about discourse models? In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 977-982, Online, November 2020. Association for Computational Linguistics. [11] Riki Fujihara, Tatsuki Kuribayashi, Kaori Abe, Ryoko Tokuhisa, and Kentaro Inui. Topicalization in language models: A case study on Japanese. In Proceedings of the 29th International Conference on Computational Linguistics, pp. 851-862, Gyeongju, Republic of Korea, October 2022. International Committee on Computational Linguistics. [12] Ryuto Konno, Yuichiroh Matsubayashi, Shun Kiyono, Hiroki Ouchi, Ryo Takahashi, and Kentaro Inui. An empirical study of contextual data augmentation for Japanese zero anaphora resolution. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 4956-4968, Barcelona, Spain (Online), Decem- ber 2020. International Committee on Computational Linguistics. [13] Nobuhiro Ueda, Daisuke Kawahara, and Sadao Kurohashi. BERT-based cohesion analysis of Japanese texts. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 1323-1333, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics. [14] Ryuto Konno, Shun Kiyono, Yuichiroh Matsubayashi, Hiroki Ouchi, and Kentaro Inui. Pseudo zero pronoun resolution improves zero anaphora resolution. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 3790-3806, 2021. ## A フローチャート 図 3 アノテーション時に使用したフローチャート 2.1 節で説明する因子に基づいた判断アノテーションを実現するにあたり,各因子に対応する質問項目への回答の組み合わせから最終的な省略の程度ラベルを決定する質問フローチャートを作成した (図 3).フローチャート内のノードは各因子に対応した質問であり,その回答結果により次の質問項目が定まるという形式で因子間の依存関係が表現される。最終的に辿り着く終端記号は 5 つの省略の程度ラベルのいずれかに対応する. フローチャー 卜上の終端記号は,各質問項目への回答の履歴を弁別出来るように便宜上それぞれ異なるアルファベットを割り当てている.例えば,「項が省略された場合に補われるべき情報が定まり (解釈可能性),かつ,項を表出すると構文的に不適切である(構文的妥当性)から,省略の程度は 『省略(制約)』」という判断となる事例は,実際の作業時にはフローチャートの上から $\mathrm{Q} 1 \rightarrow \mathrm{YES} \rightarrow \mathrm{Q} 2 \rightarrow \mathrm{YES} \rightarrow$ A というパスを辿り,結果として「省略(制約)」のラべルが割り当てられる。 ## B 作業ツール 図 4 に作業者が利用する作業ツールの実際の画面を示す. 画面上部には記事 ID,事例 ID,対象となる述語-項ぺアの情報が示され,画面下部には特定の述語・項が強調された文とその前方文脈が提示される.作業者は,現在の事例への判断を終えた後,画面右上にある「 $\rightarrow$ ボタンを押すことで次の対象述語-項に進む. 事例を遡るためのボタンはタスクの制約上存在しない。 図 4 実際の作業画面の例 ## C アノテーション対象 本研究ではコーパス上に出現する項のうち,ガ格,ニ格,ヨ格の項を対象とし,述語については和語の用言を対象とした (「サ変名詞+する」は対象に含まない)。また,機能性の強い述語(ある,なる,やる)を予め除外している. 元コーパスでは 1 文の中に複数の述語が含まれる場合があるが,2.1 節や 2.2 節で記したように,作業者に元コーパスの文と,省略された項を補った文の双方を見せる可能性が存在する都合上,アノテーション対象の項が 1 文に対して 1 つとなるようにサンプル数を制限した. 1 文に複数の述語が存在する場合には無作為に対象となる述語と項のペアを決定した。 ## D 省略されている項の補填作業 コーパス上で省略されている項を文中に補填する作業は,省略判断を行う作業者と異なる言語学専攻の大学生 2 名で行い,作業者間の合意のもと挿入位置・表出形を一意に定めた. さらに,別の作業者 1 名によって,この項の挿入によって不自然な文章となった事例を取り除いた。 ## E\cjkstart言語モデルへの入力系列 使用した 2 つのモデルの入力最大系列長にあわせ,対象述語-項を含む 1 文を入力の最終文とし,この文の文末から遡って系列長がサブワード 512 トークンとなるように前方文脈の単語系列を定めた. 入力系列中では,対象述語と項のトークン列の前後を,それぞれ特殊トークン <unused0>,<unused1> で囲むことで,判断対象となる述語と項の位置を表した。 ## F ハイパーパラメータ 追学習には 4 つの GPU(NVIDIA RTX A6000)を用いた. BERT-base モデルのバッチサイズは 16 , 学習率は $3 \mathrm{e}-05$, BERT-large モデルのバッチサイズは 8 , 学習率は $5 \mathrm{e}-05$ とした. エポック数については,開発データに対する損失関数の値が 3 エポック連続で改善しない場合には早期終了するよう設定した。その他のハイパーパラメータは Hugging Face Transgformers $の$ TrainingArguments クラズのデフォルト值に従う. 6) https://huggingface.co/docs/transformers/ main_classes/trainer
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D1-4.pdf
# 汎用言語モデルは日本語の助数辞を理解しているか 小谷野華那 ${ }^{1}$ 谷中瞳 ${ }^{2}$ 峯島宏次 ${ }^{3}$ 戸次大介 ${ }^{1}$ 1 お茶の水女子大学 2 東京大学 3 慶應義塾大学 \{koyano.kana, bekki\}@is.ocha.ac.jp hyanaka@is.s.u-tokyo.ac.jp minesima@abelard.flet.keio.ac.jp ## 概要 日本語には,様々な数量表現の出現形式や助数辞があり,言語学の理論的研究の対象となっている.英語や日本語で,言語学の分析に基づいた数量表現コーパス,推論データセットが構築され,汎用言語モデルが数量表現の理解を必要とする推論をどの程度扱えるかの分析が進められている。しかし,現在の汎用言語モデルには, 数量表現の推論の扱いに課題がある可能性が示唆されている. 本研究では,その原因の一つとして,汎用言語モデルの事前学習時に,数量表現の振る舞いが正しく学習されないという仮説を立て,助数辞がマスクされたテストセットを構築し, 汎用言語モデルが助数辞を正しく予測するかを調査する.実験の結果,予測結果はテスト文に含まれる他の数量表現の影響を受けており, 汎用言語モデルは,数量表現の意味を正しく捉えられていない可能性があることを示した. ## 1 はじめに 日本語には様々な数量表現の出現形式や助数辞があり, 言語学の理論的な研究が進んでいる $[1,2,3,4,5]$. さらに, 日本語の助数辞の違いは,推論に影響を与える。次の例の (1)と (2)は,それぞれ「人」「名」という助数辞を含んでいるが,この 2 つの助数辞はどちらも人数を表す助数辞であるため,(1)と(2)の間には含意関係が成立する。一方, (3)は,「箱」という助数辞を含んでおり,この助数辞は人数を表す助数辞ではないため,(1)と(3)の間では含意関係が成立しない。 (1) ペットボトルが 3 人分ある. (2) ペットボトルが 3 名分ある. (3) ペットボトルが 3 箱分ある. Koyano et al. [6] では,言語学における日本語の数量表現に関する理論を整理し,日本語の実テキストに含まれる数量表現にアノテーションを行い,数量表現コーパスを構築した。さらに,数量表現コーパスから数量表現に関する自然言語推論データセットを構築し, 汎用言語モデルが数量表現の理解を必要とする推論をどの程度予測できるかを調査する実験と分析を行い,現在の汎用言語モデルは数量表現の推論に課題を残していることを示唆した. 本研究では, 汎用言語モデルにおけて数量表現を含む推論に課題がある原因として,事前学習時に数量表現の振る舞いが正しく学習されていないという仮説を立てる。この仮説を検証するために,Koyano et al. [6] の数量表現コーパスを用いて,助数辞をマスクしたテストセットを構築する。このテストセットを用いて,マスクした箇所に入る助数辞を正しく予測しているかどうかを調査する.汎用言語モデルが正しい助数辞を予測できていれば,助数辞の前後の文脈は正しく捉えられていると考えられる. そして, 実験結果から, 汎用言語モデルが日本語の数量表現の助数辞をどの程度捉えられているかを分析する。 ## 2 日本語の数量表現コーパス Koyano et al. [6] では, NPCMJ [7] から数量表現を含む文を抽出し,126 文に含まれる 278 件の数量表現にアノテーションを行うことで数量表現コーパスを構築した。この数量表現コーパスでは,数量表現を 2 つ以上含む文,否定表現または条件節を含む数量表現を 1 つ以上含む文に対して,助数辞,出現形式,用法のアノテーションを行なっている. 助数辞の分類 Koyano et al. [6] では, 飯田 [1,2] による分類辞,単位形成辞,計量辞と,奥津 [3] による順序数辞の 4 分類を採用している. 各助数辞の例と数量表現コーパスに含まれる件数を付録表 8 に示す. 分類辞には,助数辞単体では使用されないもの (「人」「頭」), 複数の人やものに対して使用されるもの (「組」), 汎用的な助数辞(「個」「つ」)が含ま れる. 単位形成辞は, 何らかの容器を表す普通名詞 (「箱」「セット」) であり, 助数辞としてではなく単独で用いることが可能である。また,より大きなものの一部を表す助数辞(「切れ」)も含まれる.計量辞は, 重さや距離を表す単位 (「キロ」), 長さを表す単位 (「メートル」) など,測定のための単位を表す助数辞である. 順序数辞は, 時間 (「日」「分」) や順序 (「番」「位」)を表す助数辞である. 順序数辞を含む数量表現は,修飾する名詞が文中に現れないことが多く, むしろ数量表現自体が名詞としての役割を果たすといった特徵がある。 数量表現の出現形式数量表現の出現形式は, 名詞を修飾する数量表現,動詞を修飾する数量表現によって文中に現れる位置が異なる。また,名詞を修飾する数量表現は,同じ状況を表す文でも,文脈によって名詞の前に位置する場合(「3人の学生」)や後ろに位置する場合(「学生 3 人」)などがあり, 出現形式は多様である. Koyano et al. [6] では, 岩田 [5] が用いた 6 タイプと,動詞を修飾する数量表現,イベント名詞句を修飾する数量表現, 修飾する名詞が文中に現れない数量表現, 数量表現を修飾する数量表現,()内の数量表現,イディオム的な数量表現について,6タイプの出現形式を作成し,計 12 タイプに分類している. 数量表現の用法数量表現の用法は, 名詞を修飾する数量表現について, 岩田 [5] が研究対象としていた 1 タイプに 3 タイプを追加した 4 タイプを作成し,動詞を修飾する数量表現については 4 タイプを作成している. さらにイベント名詞句を修飾する数量表現, 数量表現を修飾する数量表現, イディオム的な用法についてのタイプを作成し,計 11 タイプに分類している。 ## 3 実験 ## 3.1 テストセット Koyano et al. [6] の数量表現コーパスの 151 件の数量表現の助数辞をマスクし, テストセットを作成する. (4) は数量表現コーパス内に含まれる文の例であり,(5) は構築したテスト文の例である. 数量表現コーパスは,(4)のように<num>タグで囲まれている数量表現に対して, 助数辞, 出現形式, 用法がアノテーションされている. (4) の助数辞は「人」であるため,この部分を (5)のように [MASK] に置き換え,<num>タグが無い形式の文を作成する. (4) 施設の周辺に滞在する外国人研究者や職員は常時約<num> 3000 人</num>,その家族も含めると約 1 万人規模の人口増加となる. (5) 施設の周辺に滞在する外国人研究者や職員は常時約 $3000[\mathrm{MASK}]$, その家族も含めると約 1 万人規模の人口増加となる. さらに,各テスト文に対して,正解の助数辞と正解とは異なる助数辞(誤りの助数辞)のペアを作成する. (5) の正解の助数辞は, (4) の助数辞である 「人」とし, 誤りの助数辞は, 同じ分類であるが (5) の [MASK] に入れると意味的に不自然となる助数辞とする.この例では,「本」を誤りの助数辞とする.誤りの助数辞は, $[\mathrm{MASK}]$ に入れると意味的に不自然になる助数辞を全て人手で選び,テストセットを構築する。 ## 3.2 実験設定 3.1 項で構築したテストセットを用いて,汎用言語モデルが助数辞を正しく予測することができるかを分析する.マスクされた箇所に対する正解の助数辞と誤りの助数辞のそれぞれの予測確率を計算する. そして,誤りの助数辞よりも正解の助数辞に対して高い確率で予測した数の割合を正答率として算出して分析する. マスクされた箇所に入る助数辞を正しく予測しているかという実験は,自然言語推論タスクとは異なりファインチューニングを行わないで実験を行うため,より直接的に事前学習で何を学習しているのか評価できる手法である. 現在の標準的な汎用言語モデルが助数辞を正しく予測することができるかを評価するために,東北大 BERT $^{1)}$ と早大 RoBERTa $^{21}$ の評価実験を実施した. ## 3.3 実験結果と考察 東北大 BERT と早大 RoBERTa を用いた評価実験の助数辞ごとの正答率を表 9 , 数量表現の出現ごとの正答率を表 4, 用法ごとの正答率を表 5 に示す. (テストセットに含まれる各タイプの統計情報は付録表 8 を参照) 助数辞ごとの正答率では, 東北大 BERT と早大 RoBERTa のどちらも単位形成辞の正答率がやや低いものの,全体としては東北大 BERT は $89.00 \%$, 早大 RoBERTa は $94.04 \%$ と高い正答率だった. 数量表  東北大 BERT が正しい助数辞よりも誤りの助数時を高い確率で予測した例。()内はモデルの予測確率を示す. テスト文正しい助数辞誤りの助数辞 (a) これは何を意味するかというと,ある一 [MASK] の産業分野は必ず一社独占化の道を進む,つまり学問に基づいた本物の技術を作った企業つ(13.72) 社(14.82) (多くの場合,得意技術の異なる複数の連合体)が勝つということである. (b) 帝国データバンク仙台支店が昨年 12 月下旬に公表した景気見通し調査では, 14 [MASK]を「回復局面」とする企業は $18.4 \%$. (c) チリは $2[\mathrm{MASK}]$ 連続の再選が禁止され,4年ごとに大統領が代わる.年 $(12.49) \%(12.92)$ チリは 2 期連続の再選が禁止され,4 [MASK] ごとに大統領が代わる.期(17.82)年 (19.28) (d) 国道38号では赤信号で 1 [MASK] ほど足止めを余儀なくされた. 年(15.60)期(17.17) 分(13.28) ヶ月(17.17) 表 2 早大 RoBERTa が正しい助数辞よりも誤りの助数時を高い確率で予測した例 現の出現形式,用法ごとの正答率は,東北大 BERT はイディオムのみ正答率が低く,その他のタイプでは 8 割以上の正答率だった. 早大 RoBERTa の出現形式,用法ごとの正答率は,どのタイプも高かった. 東北大 BERT が正しい助数辞よりも誤りの助数辞を高い確率で予測した例を表 1 に示す。(a)は,数量表現の出現形式,用法がイディオムの例である. この文の [MASK] の箇所は「ある一つ」というイディオム的な数量表現であるため,「つ」が正解の助数辞である。この文の「一つ」という数量表現は,数詞を変更すると非文(「ある二つ」は非文)となるため,イディオムというタイプが付与されている. (a)では,マスクされている箇所の他に「一社」という同じ数詞「一」を持つ数量表現が含まれているため,マスクされている箇所の助数辞として「社」 を高い確率で予測した可能性がある。(b) も同様に,誤りの助数辞「\%」が文内のマスクされた箇所より後に現れる数量表現「18.4\%」に含まれており,その助数辞を正しい助数辞よりも高い確率で予測していることから,テスト文に含まれる別の数量表現から助数辞を予測している可能性がある. (c)の 1 つ目の例は, $[\mathrm{MASK}]$ に誤りの助数辞「年」 が入った場合「2 年連続の再選が禁止され」となり, この節においては自然な文に見えるが,後続の節を含めた文では,意味が通らない文になってしまう ((c)の 2 つ目の例も同様). このことから, 東北大 BERT は長い文の意味(節の間の意味関係)を正しく捉えられていない可能性がある. (d) は,正解の助数辞, 誤りの助数辞ともに時間 (期間)に関する助数辞であるが,人間なら「赤信号で 1 ヶ月も足止めされることはない」と容易に推測表 3 助数辞ごとの評価実験の結果(正答率) することができ,「赤信号で 1[MASK] ほど足止めを余儀なくされた」の助数辞は「分」もしくは長時間でも「時間」であると推測することができる。しかし,東北大 BERT は「ヶ月」を高い確率で予測していることから,文脈から時間に関する数量表現だということは予測できても,時間的な常識である時間の尺度まで考慮して推測することは難しいと考えられる。 早大 RoBERTa が正しい助数辞よりも誤りの助数辞を高い確率で予測した例を表 2 に示す。(e) は表 1(c)の 1 つ目の例と同じテスト文である.早大 RoBERTa でも東北大 BERT と同じょうに,誤りの助数辞が文内のマスクされた箇所と異なる数量表現に含まれているとき,その助数辞を正しい助数辞よりも高い確率で予測することがあった。 (f) は,正解の助数辞より誤りの助数辞のほうが高い確率で予想されているが,どちらも予測確率が低かった.このテスト文では「です」「ます」といった助動詞や「が」「の」などの助詞の確率が高かった. このテスト文にはマスクされている箇所以外に数量表現がなく,別の数量表現から予測することができないため,助数辞が予測結果の上位にならない可能性がある。 表 4 出現形式ごとの評価実験の結果(正答率) 表 5 用法ごとの評価実験の結果(正答率) ## 4 関連研究 英語における数量表現の研究として,言語モデルの数量表現の扱いに関する調査 [8]がある. Cui et al. [8] は, 多言語で事前学習された言語モデルが, 英語における様々な数量表現を含む一般化量化子の振る舞いをどの程度捉えることができるかについて,一般化量化子の理解に特化したベンチマーク GQNLI を構築し,調査を行った.GQNLI で言語モデルを評価した結果, 言語モデルの最高精度は $48 \%$ であった. NLI モデルや質問応答モデルの性能改善において,一般化量化子を捉えられないことが課題の一つとなっていることを示した. 日本語における数量表現を扱った研究として, Narisawa et al. [9] による数量表現を含む自然言語推論を解くための実装と評価がある. Narisawa et al. [9] は,日本語の含意関係認識において数量表現が問題になる事例に焦点を当て分析を行い,数量表現の規格化のための実装と評価を行った. Narisawa et al. は,数量表現が出現する文ペアを 7 つのカテゴリに分類し,正しく含意関係を判定するために必要な処理について述べている. マスク穴埋めタスクで汎用言語モデルの分析を行った先行研究として, 英語では, 事前学習済み言語モデルが否定表現と偽のプライミング(ひっかけ)の扱いに課題があることを示した研究 [10] がある. Kassner et al. [10] は,事前学習済み言語モデルが否定表現を理解しているかを分析するために, Birds can [MASK], Birds cannot [MASK] といった, 否定表現を含まない文と含む文を用いて,マスクされた箇所の上位 3 件の予測単語を調査した. その結果,どちらの文でも同じ単語(上記の例では $f y$ )が上位となることから,言語モデルは否定表現を理解できていないことを示唆した。また,事前学習済み言語モデルがひっかけの影響を受けるかを分析するために, Lexus is owned by [MASK], Microsoft? Lexus is owned by [MASK] といった,ひっかけを含めた文を作成し,マスクされた箇所の上位 3 件の予測単語を調査した. その結果,ひっかけを含む文では, ひっかけ自体やひっかけに関連する単語 (Microsoft, Google) が正解の単語 (Toyota) よりも高い確率で予測されている傾向があることから,言語モデルの単語の予測結果は,ひっかけの影響を受けていることを示した。 ## 5 おわりに 本研究では,汎用言語モデルにおいて数量表現を含む推論の扱いに課題がある原因として,事前学習時に数量表現の振る舞いを正しく学習できていないという仮説を立てた.この仮説を検証するために, Koyano et al. [6] の数量表現コーパスを用いて,助数辞をマスクした文のテストセットを構築し,汎用言語モデルの評価実験を行なった.その結果,汎用言語モデルは 8 割以上の助数辞を正しく予測した。一方で,節の間の意味関係を考慮した単語の予測には,まだ課題があることを確認した.また,言語モデルの単語の予測結果は, 文中に現れる他の数量表現や単語の影響を受けており,英語での研究において指摘のあった,事前学習済み言語モデルがひっかけの影響を受けるという現象が,日本語数量表現においても存在することを確認した。 今後,汎用言語モデルにおける数量表現の扱いの課題についてさらに調査し, 言語学の理論に基づく数量表現の分類と推論の関係性や,推論における数量表現のひっかけの影響について分析を進める. ## 謝辞 本研究は JST CREST JPMJCR20D2,JST さきがけ JPMJPR21C8 の助成を受けたものである. ## 参考文献 [1] 飯田隆. 日本語と論理. NHK 出版, 2019. [2] Takashi Iida. Japanese semantics and the mass/count distinction. Chungmin Lee, Young-Wha Kim and ByeongUk Yi (eds.), Numerals Classifiers and Classifier Languages (Routledge), pp. 72-97, 22021. [3] 奥津敬一郎. 拾遺日本文法論. ひつじ書房, 1996. [4] 矢澤真人. 数量の表現. 金田一春彦, 林大, 柴田武 (編), 日本語百科事典. 大修館書店, 1988. [5] 岩田一成. 日本語数量詞の諸相. くろしお出版, 2013. [6] Kana Koyano, Hitomi Yanaka, Koji Mineshima, and Daisuke Bekki. Annotating Japanese numeral expressions for a logical and pragmatic inference dataset. In Proceedings of the 18th Joint ACL - ISO Workshop on Interoperable Semantic Annotation, 2022. [7] NINJAL. NINJAL Parsed Corpus of Modern Japanese. (Version 1.0). 2016. https://npcmj.ninjal.ac.jp/. [8] Ruixiang Cui, Daniel Hershcovich, and Anders Søgaard. Generalized quantifiers as a source of error in multilingual NLU benchmarks. In Proc. of NAACL, 2022. [9] Katsuma Narisawa, Yotaro Watanabe, Junta Mizuno, Naoaki Okazaki, and Kentaro Inui. Is a $204 \mathrm{~cm}$ man tall or small? acquisition of numerical common sense from the web. In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 382-391, Sofia, Bulgaria, August 2013. Association for Computational Linguistics. [10] Nora Kassner and Hinrich Schütze. Negated and misprimed probes for pretrained language models: Birds can talk, but cannot fly. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7811-7818, Online, July 2020. Association for Computational Linguistics. 表 6 早大 RoBERTa の予測結果の上位 10 件に正解の助数辞が含まれない例 表 7 東北大 BERT の予測結果の上位 10 件に正解の助数辞が含まれない例 \\ 表 8 各助数辞の例と数量表現コーパスに含まれる件数 ## A 付録:上位 $\mathrm{N$ 件の予測結果} 汎用言語モデルの予測結果の上位 1 件,上位 3 件,上位 5 件,上位 10 件に正解の助数辞が含まれる確率を表 10 に示す.どの結果も早大 RoBERTa が東北大 BERT よりも正答率が高かった. 東北大 BERT の予測結果では,上位 10 件で予測結果に正解の助数辞が含まれる確率が $90 \%$ を超えるのに対し,早大 RoBERTa の予測結果では, 上位 3 件で予測結果に正解の助数辞が含まれる確率が $90 \%$ を超えるという結果となった.表 9 助数辞, 出現形式, 用法ごとの統計情報 表 10 上位 $\mathrm{N}$ 件に正解の助数辞が含まれる確率
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D1-5.pdf
# A resource of sentence analogies on the level form extracted from corpora in various languages Rashel Fam Yves Lepage 早稲田大学大学院 情報生産システム研究科 fam.rashel@fuji.waseda.jp yves.lepage@waseda.jp } \begin{abstract} Word analogy datasets are commonly used to assess the quality of word embeddings. As the NLP tasks are going more and more towards sentences and beyond, vector representation of these units is becoming more and more vital to the performance of the system. However, there are not so many datasets available for sentence analogy. In this paper, we release a resource of analogies between sentences extracted from two corpora: Tatoeba and Multi30K. The analogies are extracted in various European languages. \end{abstract ## 1 Introduction I like coffee : I like tea :: I like hot coffee : I like hot tea $\Leftrightarrow$ I like hot coffee : I like hot tea :: I like coffee : I like tea $\Leftrightarrow$ I like coffee : I like hot coffee :: I like tea : I like hot tea Figure 1 Examples of analogy on sentences with their equivalent analogies derived from properties of analogy mentioned in Section 1: symmetry of conformity and exchange of the means. Analogy is a relationship between four objects: $A, B$, $C$ and $D$ where $A$ is to $B$ as $C$ is to $D$. It is noted as $A: B:: C: D$. As our work relates to strings, $A, B, C$ and $D$ are all strings (sequence of characters). This notation means that the ratio between $A$ and $B$ is similar to the ratio of $C$ and $D$. In another way, an analogy is a conformity of ratios between the four strings, as shown in Formula (1). Figure 1 gives examples of analogy between sentences. $ A: B:: C: D \stackrel{\Delta}{\Longleftrightarrow}\left.\{\begin{array}{l} A: B=C: D \\ A: C=B: D \end{array}\right. $ In this paper, we adopt the definition of formal analogies between strings of symbols as found in $[1,2,3]$. ## 2 Number of analogies in a text and analogical density We address the theoretical problem of counting the total number of analogies in a given text. The following section will introduce two main metrics used in this work. ## 2.1 Analogical density The analogical density $\left(D_{n l g}\right)$ of a corpus is defined as the ratio of the total number of analogies contained in the corpus $\left(N_{n l g}\right)$ against the total number of permutations of four objects that can be constructed by the number of sentences $\left(N_{s}\right)$. $ D_{n l g}=\frac{N_{n l g}}{\frac{1}{8} \times N_{s}^{4}}=8 \times \frac{N_{n l g}}{N_{s}^{4}} $ The factor $1 / 8$ in the denominator comes from the fact that there exist 8 equivalent forms of an analogy due to two main properties of analogy: - symmetry of conformity: $A: B:: C: D \Leftrightarrow C: D::$ $A: B$, and - exchange of the means: $A: B:: C: D \Leftrightarrow A: C::$ $B: D$. ## 2.2 Proportion of sentences appearing in analogy We count the number of sentences appearing in at least one analogy $\left(N_{s \_n l g}\right)$ and take the ratio with the total number of sentences in the corpus $\left(N_{s}\right)$ to get the proportion of sentences appearing in at least one analogy $(P)$. $ P=\frac{N_{s \_n l g}}{N_{S}} $ ## 3 Original corpora We consider two corpora to use in this work, Tatoeba and Multi30K. These two corpora are available on the web and already heavily used by the natural language processing community. - Tatoeba ${ }^{1)}:$ is a collection of sentences that are translations provided through collaborative works online (crowd-sourcing). It covers hundreds of languages. However, the amount of data between languages is not balanced because it also depends on the number of members who are native speakers of that language. Sentences contained in Tatoeba corpus are usually short. These sentences are mostly about daily life conversations. - Multi30K ${ }^{2)}[4,5,6]$ : is a collection of image descriptions (captions) provided in several languages. This dataset is mainly used for multilingual image description and multimodal machine translation tasks. It is an extension of Flickr30K [7] and more data is added from time to time, for example, $\mathrm{COCO}$ datase $^{3}$ ). Table 1 provides the statistics on Tatoeba and Multi30K. As an overview, Multi30K has two times number of tokens in a sentence in comparison to Tatoeba, These two corpora can be characterised based on the diversity of the context of the sentence it contains. Multi30K is a corpus with diverse contexts. In comparison to that, sentences contained in Tatoebaare less diverse. Tatoeba is mostly about daily life conversation. We expect that corpus with less diversity of context will share words between sentences more often. Thus, it will have more analogies and higher analogical density. Let us now compare the statistics between languages. English has the lowest number of types. Finnish, Polish and Czech always have the highest number of types for around two times higher than English across the corpora. We can observe that language with poor morphology has fewer of types and hapaxes. On the contrary, languages with high morphological richness have less number of tokens due to richer vocabulary. These languages also tend to have longer words (in characters). One can easily understand that with richer morphological features we will have a higher vocabulary size. The consequence of this is that the words will be longer. We also observe that a higher number of types means lesser words to repeat (higher Type-Token-Ratio). Thus, the number of tokens  will be lower. However, we also see that there are some interesting exceptions. In this case, French and German. French has a higher number of tokens than English despite having a higher vocabulary size. The high number variety of function words (propositions, articles, etc.) in French is probably one of the explanations of this phenomenon. As for German, it has a pretty high average length of type in comparison to other languages. This is maybe caused by words in German are originally already longer. German is known to glue several words as a compound word. ## 4 Newly created sentence analogy dataset ## 4.1 Extraction of analogies To extract analogies from a corpus, we rely on an already existing tool described in [8]. It relies on the equality of ratios as the definition of analogy. Each sentence in the corpus is represented as a vector shown in Formula (4). We use the notation $|S|_{c}$ which stands for the number of occurrences of token $c$ in string $S$. The number of dimensions of the vector is the size of the alphabet or the vocabulary, depends on the tokenisation scheme (See Section 4.2). $ A \triangleq\left(\begin{array}{c} |A|_{t_{1}} \\ |A|_{t_{2}} \\ \vdots \\ |A|_{t_{N}} \end{array}\right) $ The conformity between ratios of strings is defined as the equivalent between the two vectors of ratios. See Formula (5). $ A: B:: C: D \quad \stackrel{\Delta}{\Longleftrightarrow}\left.\{\begin{array}{l} A: B=C: D \\ A: C=B: D \end{array}\right. $ Pairs of strings representing the same ratio can be grouped as an analogical cluster. Please refer to Formula (6). Notice that the order of string pairs has no importance. $ \begin{array}{ccc} A_{1}: B_{1} & & \\ A_{2}: B_{2} \\ \vdots & \stackrel{\Delta}{\Longleftrightarrow} & \forall(i, j) \in\{1, \ldots, n\}^{2}, \\ A_{i}: B_{i}:: A_{j}: B_{j} \end{array} $ Table 1 Statistics on Tatoeba and Multi30K. Table 2 Example sentences (lowercased and tokenised) randomly chosen from corpora used in the experiment. Sentences contained in the same corpus are translations of each other in the other languages. ## Example sentences & \\ ## 4.2 Tokenisation schemes The sentence is tokenised using different tokenisation schemes: character, sub-word and word. For sub-word ${ }^{4)}$, we use two popular sub-word models: unigram language model (unigram) [9] and byte-pair-encoding (BPE) [10]. 4) github.com/google/sentencepiece The delimiter used to separate tokens is the space. Underscores denote spaces in the original sentence. The vocabulary size used here for unigram and BPE is 1,000 (1k). ## 4.3 Statistics on the newly created dataset Each of the corpora is tokenised using four different tokenisation schemes: character, BPE. unigram and word. On top of that, we performed masking with both methods: the least frequent and most frequent. Ablation experiments are carried out on all corpora in six languages depending on the language availability of the corpus. In this paper, we decided to carry out the experiment on both Tatoeba and Multi30K as these corpora have a different range on both formal and semantic levels. On the formal level, sentences in Tatoeba are short and similar to one another. Multi30K contains more diverse and longer sentences. On the level of semantics, as mentioned in Section 3, Tatoeba contains sentences that focus on the theme of daily conversation. Multi30K, which contains image captions, has a wider range of topics. Figure 2 (top-left) shows the number of analogical clusters extracted from the corpora with various tokenisations in English. Tatoeba has the highest number of clusters. This meets our hypothesis. It is also reflected in the num- Tokenisation Tokenisation Figure 2 Number of clusters (top-left) and analogies (top-right) extracted from the corpora in English. Below that, Analogical density (bottom-left) and the proportion of sentences appear in analogy (bottom-right) for the corpora in English. Please notice the logarithmic scale on the ordinate for analogical density ( nano (n): $10^{-9}$, pico (p): $10^{-12}$, femto (f): $10^{-15}$. ). The tokenisation schemes on the abscissae are sorted according to the average length of tokens in ascending order. ber of analogies (top-right). Tatoeba has about 10 times more analogies than Multi30K. Figure 2 (bottom-left) shows the results on the analogical density of the corpora with various tokenisations. We can immediately observe that Tatoeba corpus steadily has the highest analogical density in comparison to the other corpora. The difference is also pretty far. For example, the gap is around $10^{3}$ between Tatoeba and Multi30K, even more than $10^{5}$ for Europarl. This shows that Tatoeba corpus is really denser than the other corpora despite having the smallest number of sentences. Remember, we have different numbers of sentences between corpora. Although it is not visible from the graph, we observed that the density slightly gets lower from tokenisation in character towards words. For subword tokenisation, we found that unigram consistently has higher analogical density than BPE on the same vocabulary size. This is probably caused by the unigram having a shorter token length which allows a higher degree of freedom in commutation between tokens. Similar trends can also be observed in the proportion of analogical sentences. Tatoeba is ten times higher than Multi30K which proves our hypothesis that a corpus which contains similar sentences will have a higher proportion of analogical sentences. As for the tokenisation scheme, we also found that the proportion decreases toward word tokenisation. ## 5 Conclusion We produced a resource of analogies between sentences extracted from two different corpora, Tatoeba and Multi30K. Both corpora have different characteristics, the one contains mostly daily life conversations, and the other contains a collection of image captions. We also performed experiments in measuring the analogical density of various corpora in various languages using different tokenisation schemes. Corpora with a higher Type-Token-Ratio tend to have higher analogical densities. We naturally found that the analogical density goes down from character to word. We hope the release of such a resource will allow a better way to evaluate the quality of sentence embeddings. ## Acknowledgment This work was supported by a JSPS grant, number 18K11447 (Kakenhi Kiban C), entitled "Self-explainable and fast-to-train example-based machine translation". ## References [1] Yves Lepage. Solving analogies on words: an algorithm. In Proceedings of the 17th international conference on Computational linguistics (COLING 1998), Vol. 1, pp. 728734. Association for Computational Linguistics, 1998. [2] Nicolas Stroppa and François Yvon. An analogical learner for morphological analysis. In Proceedings of the Ninth Conference on Computational Natural Language Learning (CoNLL-2005), pp. 120-127, Ann Arbor, Michigan, June 2005. Association for Computational Linguistics. [3] Philippe Langlais and François Yvon. Scaling up analogical learning. In Coling 2008: Companion volume: Posters, pp. 51-54, Manchester, UK, August 2008. Coling 2008 Organizing Committee. [4] Desmond Elliott, Stella Frank, Khalil Sima'an, and Lucia Specia. Multi30K: Multilingual English-German Image Descriptions. In Proceedings of the 5th Workshop on Vision and Language, pp. 70-74. Association for Computational Linguistics, 2016. [5] Desmond Elliott, Stella Frank, Loïc Barrault, Fethi Bougares, and Lucia Specia. Findings of the Second Shared Task on Multimodal Machine Translation and Multilingual Image Description. In Proceedings of the Second Conference on Machine Translation, Volume 2: Shared Task Papers, pp. 215-233, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [6] Loïc Barrault, Fethi Bougares, Lucia Specia, Chiraag Lala, Desmond Elliott, and Stella Frank. Findings of the third shared task on multimodal machine translation. In Proceedings of the Third Conference on Machine Translation: Shared Task Papers, pp. 304-323, 2018. [7] Peter Young, Alice Lai, Micah Hodosh, and Julia Hockenmaier. From image descriptions to visual denotations: New similarity metrics for semantic inference over event descriptions. Transactions of the Association for Computational Linguistics, Vol. 2, pp. 67-78, 2014. [8] Rashel Fam and Yves Lepage. Tools for the production of analogical grids and a resource of n-gram analogical grids in 11 languages. In Proceedings of the 11th edition of the Language Resources and Evaluation Conference (LREC18), pp. 1060-1066, Miyazaki, Japan, May 2018. ELRA. [9] Taku Kudo. Subword regularization: Improving neural network translation models with multiple subword candidates. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 66-75, Melbourne, Australia, July 2018. Association for Computational Linguistics. [10] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Asso- ciation for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, Berlin, Germany, August 2016. Association for Computational Linguistics.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D10-1.pdf
# 議会会議録と予算表を紐づける Minutes-to-Budget Linking タスクの提案 木村泰知 1 梶縁 1 乙武北斗 2 門脇一真 3 佐々木稔 4 小林暁雄 5 1 小樽商科大学 2 福岡大学 3 株式会社日本総合研究所 4 茨城大学 5 農研機構 kimura@res.otaru-uc.ac.jp ## 概要 予算編成に関する議論の背景・過程・結果を理解するには,複数の文書や表を参照する必要がある。 NTCIR-17 QA-Lab PoliInfo-4 のサブタスクの一つである Minutes-to-Budget Linking (以下 MBLink) では,議会における予算審議に焦点を当て,ある予算に関する発言に対して,関連する予算表のセルを紐づけるタスクを実施する.MBLink は,議会会議録のような非構造化データから, 表形式データの予算表に含まれる特定のセルを紐づけることで,発言の根拠となる数値をみつけ,予算増減の理由をわかりやすく提供することを目指している。本稿では, MBLink のデータ形式,評価方法,アノテーション方法について述べる。 ## 1 はじめに 地方自治体の役割のひとつに予算編成がある。予算は,首長により予算案が作成され,議会で審議された後に成立する。しかしながら,審議結果である予算は,どのような背景に基づいて予算案が作成され,どのような議論を経て成立しているのかを把握しづらい。予算作成の議論を理解するには,参照しなければならない文書や表が数多く存在する [1][2].例えば,対象年度の予算は,前年度の予算と比較しながら,説明される [3]. 特に,正確な金額を確認する場合には予算表を参照することになる。 小樽市議会における予算説明の例 (図 1 も参照) まず,歳入についてでありますが,市税につきましては,個人市民税,法人市民税などで減収が見込まれるものの,固定資産税,都市計画税などで増収が見込まれることから,2.7\%,3 億 5,280 万円増の 135 億 7,350 万円を見込みました. ここで,小樽市議会における市長の説明を例に,予算に関する金額表現処理の難しさについて説明する。上記の例にあるように,市長は「歳入」となる「市税」「個人市民税」「法人市民税」「固定資産税」「都市計画税」の税収入の説明をしつつ,見込み額を述べている。「市税」「個人市民税」などの額は,文中に記載されていないものの,別の資料に記載されており,予算表を参照することで,正確な金額を確認できる。「135 億 7,350 万円」という金額表現は,前年度の市税の「2.7\%」である「3 億 5,280 万円」の金額が増えることを見込んで計算された対象年度の見積額である。 議会における発言は,予算編成の経緯が述べれることもあるが,予算関連の書類が配布されたことを前提にしているため,詳細な数値や正確な金額が明言されないこともある.このような場合には,予算表を参照することで,金額や数値を確認することが可能である. また,予算の増減額や割合についても,予算表の金額と紐づけて,計算することができる. さらに,予算編成に至る経緯については,提案された予算金額とともに,理由を加えて説明していることが多い [3]. そこで,本研究では,議会における予算審議の発言と予算表の関連項目を紐づける MBLink (Minutesto-Budget Linking) タスクを提案する.MBLink の目的は,予算の根拠となる金額を明らかにするとともに,どのような理由で予算額が決定したのかを確認できるようにすることである.MBLink は, NTCIR-17 QA-Lab PoliInfo-41) のサブタスクのひとつである [4]. NTCIR-17 は,NII が主催する評価型ワー クショップであり,2022 年 7 月から 2023 年 12 月まで開催される ${ }^{2)}$. 本稿では,MBLink のデータ形式,評価方法,アノテーション方法について述べる。  ## 2 議会会議録と予算表 ## 2.1 予算編成の流れ 自治体の予算は,次年度 (4 月以降) に実現すべき方向性を考えて, 前年度の議会で決定される. 予算編成のおおまかな流れは, 前年度の後半から始まる. 最初に,次年度に実現すべき方向性を考えて,組織内部の意思統一を図りつつ,予算編成方針が決定される. 予算編成方針に基づいて,各部からの予算要求がある. それらの要求に対して, 社会状況や国の動向を踏まえ, 要求内容の追加・変更が行われる. 1 月頃に, 各部から要求された内容について査定が行われ,予算案が公表される. 2 月上旬に開催される第一回定例会に予算案が上程され,議決を受ける. 議会では,首長から予算案の説明された後で,さまざまな観点から審議が行われ,予算案を可決すべきか否かが決定される。 ## 2.2 予算の説明箇所 首長による予算の説明箇所は,第一回定例会の 1 日目の冒頭に行われることが多い. 例えば,平成 31 年 (2019 年) の小樽市議会 ${ }^{3}$ ) の第 1 回定例会の議案は「予算」と「条例」に分けられ,第 1 号議案から第 19 号議案までが予算であり,第 20 号議案から第 38 号議案までが条例である. 第 1 回の本会議4) の冒頭は,予算の提案から始まり,市長が予算の説明を行っている. 予算説明されている文は,2ページ程度であり, 35 文であった. 本研究では, 首長が予算を説明している発言に焦点を当て,関連する予算表のセルと紐づける. ## 2.3 予算表の種類 前節で述べた通り,予算の審議は,第一回定例会において行われ,首長による提案から始まる. 首長は,予算関連書類に記載されている金額を根拠としながら,説明することが多い. 例えば,小樽市の予算情報は下記の 8 つの書類が公開されている [3]. 1)予算編成方針について 2)予算総括表 3)予算案のポイント 4)主要事業 5)部別要求額・予算額  4) https://www.city.otaru.lg.jp/docs/2020113000634/ 6)ふるさと応援寄附金の使い道 7)予算書 8)予算説明書 梶らの調査 [3] によれば,予算情報は「予算総括表」「予算案のポイント」「部別要求額・予算額」「予算書」と対応づけられることが多い,予算総括表は,一般会計,特別会計,企業会計に対する前年度と今年度の予算額が記述されている表である。予算案のポイントは,財政部が予算編成のポイントを図や表を含めて説明した文書である。部別要求額・予算額は,小樽市の総合計画に沿って,各事業に対する予算額をまとめた表である。予算書は,一般会計,特別会計,企業会計に分けて,歳入と歳出が表として記載されており,約 40 ページである. ## 3 Minutes-to-Budget Linking ## 3.1 目的 MBLink の目的は,議会における発言と予算表の数値を紐づけることで,根拠となる金額を明らかにするとともに,どのような理由で予算額が決定したのかを確認できるようにすることである. ## 3.2 データセット MBLink の入力,出力,評価方法を下記に示す. 入力予算表 (HTML)議会会議録 (HTML) 出力会議録の発言と予算項目の紐付け (JSON) 評価議会会議録から予算表への連結,および,理由の有無についての評価 ( $\mathrm{F}$ 値) MBLink では,議会会議録中のある文が予算表の特定のセルの金額に関連するものであれば,その文にそのセルの ID を付与し,さらにその文に予算の主張に関する理由が含まれているか否かの判定結果も付加する. 入力は,予算表と議会会議録であり,HTML ファイルとして与えられる.与えられる HTML は,図 1 の例にあるように,IDが付与された HTML である,出力は,予算表に関連するセルがあれば,議会会議録に含まれる文 ID と予算表に含まれるセル ID を紐づけて,JSON ファイルとして返す。また,理由が述べられている場合には “containsReason”を“True”とする。評価は,議会会議録から予算表への連結,および,理由の有無についての性能評価として F 値を用いる。 \{"sentencelD": "011002-2019-doc54321-sent30", "linkedCellIDs": ["011002-2019-doc12345-tab2-r2c1", "011002-2019-doc12345-tab2-r2c3"], "containsReason": true\} 図 1 市税について「対象年度」「前年度」の税収入を参照しつつ説明している箇所に対して,アノテーションする例 ## 4 アノテーション 本節では,アノテーションの流れを説明する。 ## 4.1 アノテーションの準備 自治体の公開している予算表は,PDFで公開されていることが多い. そのため,アノテーションを行う前に,PDF から HTML へ変換する. HTMLへの変換は, 変換ツールとして ABBYY FineReader PDF ${ }^{5}$ を用いて自動で変換した後で,下記の処理をすることで,人手でデータ整形をしている. 1. 結合されているセルを分割する 2. 必要があれば,セル内で改行する 3. 余計なスペースを削除する 4. 明らかな文字認識の誤りを訂正する ## 4.2 対象データ 対象データは,小樽市,福岡市,茨城県の議会とする予定である.現時点では,小樽市の2019年および 2020 年の第一回定例会の市長の予算説明に関する発言を対象としてアノテーションを進めている. ・2019年第 1 回定例会第 1 日目 ${ }^{6}$  - 2020 年第 1 回定例会第 1 日目 ${ }^{7)}$ 予算表は,予算説明で参照されることが多い「予算総括表」「予算案のポイント」「部別要求額・予算額」「予算書」に含まれる表とする。 ## 4.3 アノテーションの方法 アノテーションは,図 2 の例にあるような独自で開発したツールを用いて行う.アノテーションツー ルは,左側に会議録,右側に予算表が見える状態になっており,予算に関する発言と関連のある表のセルを紐づけることができる.梶らの調査 [3] と同様に,予算編成の根拠となる「金額」「割合」「増減」「参照」に着目したアノテーションが可能であり,理由の有無も付与できることを確認した. ## 5 関連研究 ## 5.1 テキストと表の連結 テキストと表を紐づける研究には, FEVEROUS (Fact Extraction and VERification Over Unstructured and Structured information) [5] がある. FEVEROUS は, Wikipedia に記述された Claim(主張)の真偽を検証するために, Evidence(根拠)を Wikipedia の表から 7) https://www.city.otaru.lg.jp/docs/2020113000634/ file_contents/02-01.pdf の当初予算と比較して説明申し上げます。 まず、歳入についてでありますが、市税につきましては、個人市民税、法人市民税などで減収が見込まれるものの、固定資産税、都市計画税などで増収が見込まれることから、2.7\%、3 億5,280万円増の 135 億7,350万円を見込みました。 地方交付税につきましては、国の地方財政計画の伸び率などを基本に、本市の特殊事情を勘案しながら積算し、臨時財政対策債を加えた実質的な地方交付税では、1.7\%、2 億 9,500 万円減の170億5,100万円を見込みました。地方消費税交付金につきましては、 $3.2 \% 、 7,800$ 万円増の 25 億 700万円を見込みました。 また、歳出の主なものについて経費別に申し上げますと、いわゆる義務的経費では、人件費が $0.6 \%$ の減、公債費が $4.3 \%$ の減となりましたが、扶助費において、市内幼稚園の新制度幼稚園・認定こども園への移行に伴う教育・保育給付費負担金の堌などにより、2.1\%の増となったことから、合計では0.3\%の増となり、歲出合計に占める義務的経費の割合は、前年度を 1.9 ポイント下回る $56.1 \%$ となりました。 図 2 MBLinkのアノテーション画面の例 みつけるタスクである。例えば,Claim に「Roberto Fico は,総投票数の $57.6 \%$ \% 57,119 票を獲得しました.」と入力文が与えられた場合,表から投票数が「61,819」であることをみつけ,Verdict(評決)としては Refuted(反論) に分類する。 議会会議録と異なる言語資源を連結する研究は, NTCIR-15 QA-Lab PoliInfo-2 の Entity Linking で行われている [6]. Entity Linking は,議会で議論されている法律名,あるいは,条例名に対して,関連する Wikipedia の記事と紐づけるタスクである。例えば,「働き方改革を推進するための関係法律の整備に関する法律」という正式名称が会議録中に出てきた場合,Wikipedia の「働き方改革関連法」という記事と紐づけている. 他にも,NTCIR-16 QA Lab-PoliInfo-3 [7] には,予算を対象にした議論マイニングとして,議会会議録のテキストに含まれる金額表現を予算表と紐づける Budget Argument Mining タスクがある [1][2]²).しかしながら, Budget Argument Mining は, 議論ラベルの分類に対する比重が大きく,会議録と予算表を紐づける点に研究の余地がある. 例えば,紐づける対象が金額表現のみとされていたことや複数存在する予算表のうち一つのみを対象としていたことにより,紐付けることが困難なこともあった。 ## 5.2 表の理解 表構造解析に関する shared task には,ICDAR 2013 Table competition $[8]^{9}$ がある. Table competition では, 8) https://github.com/poliinfo3 9) https://iapr.org/archives/icdar2013/ 2つの政府機関 (.europa.eu /.gov) の発行した文書 PDF から表を収集したデータセットを作成している。 表の理解に関する研究は現在も注目されており,国際会議 KDD21 では,表の理解に関するチュー トリアルとして "From Tables to Knowledge: Recent Advances in Table Understanding” が開催された ${ }^{10)}$. 表の理解には,表のタイプ分類 [9],表のエリア抽出 [10], 表の意味構造の解析 [11], セルの表記統一などの課題がある. NTCIR-17 Understanding of non-Financial Objects in Financial Reports (以下,UFO) ${ }^{11}$ では,有価証券報告書を対象として, 表形式のデータや文書から構造化情報を抽出する技術を開発することを目的としたタスクが提案されている [12]. UFO タスクには $2 \supset$ のサブタスクとして,表データ抽出 (TDE; table data extraction) サブタスク,ならびに,テキストと表の関係抽出 (TTRE; text-to-table relationship extraction) サブタスクがある. ## 6 おわりに 本稿では,議会における予算審議の発言と予算表の関連項目を紐づける MBLink タスクを提案した。 また, MBLink のデータセットの形式,アノテー ションの方法について述べた. 今後は,NTCIR-17 QA-Lab PoliInfo-4 のサブタスクとして,MBLinkを進めるとともに,有価証券報告書を対象にした NTCIR-17 UFO タスクとの連携も考えている。 10) https://usc-isi-i2.github.io/KDD21Tutorial/ 11) https://sites.google.com/view/ntcir17-ufo ## 謝辞 本研究は JSPS 科研費 21H03769,22K12740 の助 成を受けたものである. ## 参考文献 [1] Yasutomo Kimura, Hokuto Ototake, and Minoru Sasaki. Budget argument mining dataset using Japanese minutes from the National Diet and local assemblies. LREC 2022, 2022. [2] 木村泰知, 永㴊景祐, 乙武北斗, 佐々木稔. 予算項目に関連する議論を対応づける Budget Argument Mining のデータセット構築. 情報処理学会第 249 回自然言語処理研究会, 2021 . [3] 梶縁, 木村泰知. 地方自治体の予算を対象にした金額表現の分析. 第 38 回ファジィシステムシンポジウム (FSS2022), 92022. [4] 小川泰弘, 木村泰知, 渋木英潔, 乙武北斗, 内田ゆず,高丸圭一, 門脇一真, 秋葉友良, 佐々木稔, 小林暁雄. NTCIR-17 QA Lab-PoliInfo-4 のタスク設計. 言語処理学会第 29 回年次大会, 2023. [5] Rami Aly, Zhijiang Guo, Michael Sejr Schlichtkrull, James Thorne, Andreas Vlachos, Christos Christodoulopoulos, Oana Cocarascu, and Arpit Mittal. The Fact Extraction and VERification Over Unstructured and Structured information (FEVEROUS) shared task. In Proceedings of the Fourth Workshop on Fact Extraction and VERification (FEVER), pp. 1-13, Dominican Republic, 2021. Association for Computational Linguistics. [6] Yasutomo Kimura, Hideyuki Shibuki, Hokuto Ototake, Yuzu Uchida, Keiichi Takamaru, Madoka Ishioroshi, Teruko Mitamura, Masaharu Yoshioka, Tomoyosi Akiba, Yasuhiro Ogawa, Minoru Sasaki, Kenichi Yokote, Tatsunori Mori, Kenji Araki, Satoshi Sekine, and Noriko Kando. Overview of the NTCIR-15 QA Lab-PoliInfo-2 task. Proceedings of The 15th NTCIR Conference, 12 2020. [7] Yasutomo Kimura, Hideyuki Shibuki, Hokuto Ototake, Yuzu Uchida, Keiichi Takamaru, Madoka Ishioroshi, Masaharu Yoshioka, Tomoyoshi Akiba, Yasuhiro Ogawa, Minoru Sasaki, Kenichi Yokote, Kazuma Kadowaki, Tatsunori Mori, Kenji Araki, Teruko Mitamura, and Satoshi Sekine. Overview of the NTCIR-16 QA Lab-PoliInfo-3 task. Proceedings of The 16th NTCIR Conference, 6 2022. [8] Max Göbel, Tamir Hassan, Ermelinda Oro, and Giorgio Orsi. ICDAR 2013 Table Competition. In 2013 12th International Conference on Document Analysis and Recognition, pp. 1449-1453, 2013. [9] Kyosuke Nishida, Kugatsu Sadamitsu, Ryuichiro Higashinaka, and Yoshihiro Matsuo. Understanding the semantic structures of tables with a hybrid deep neural network architecture. In Satinder Singh and Shaul Markovitch, editors, Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence, February 4-9, 2017, San Francisco, California, USA, pp. 168174. AAAI Press, 2017. [10] Kexuan Sun, Harsha Rayudu, and Jay Pujara. A hybrid probabilistic approach for table understanding. In Conference on Artificial Intelligence (AAAI), 2021. [11] Binh Vu, Craig Knoblock, Pedro Szekely, Jay Pujara, and Minh Pham. A graph-based approach for inferring semantic descriptions of Wikipedia tables. In International Semantic Web Conference, 2021. [12] 木村泰知, 近藤隆史, 門脇一真, 加藤誠. UFO: 有価証券報告書の表を対象とした情報抽出タスクの提案. 人工知能学会第二種研究会資料, Vol. 2022, No. FIN-029, pp. 32-38, 2022.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D10-2.pdf
# 金融文書の抽象型要約による投資家向け支援システムの提案 中野凌 ${ }^{1}$ 蓮池隆 $^{2}$ ${ }^{1}$ 早稲田大学大学院 ${ }^{2}$ 早稲田大学 創造理工学研究科 ryoku.nkn.18@toki. waseda. jp thasuike@waseda. jp ## 概要 投資家は,決算短信,有価証券報告書,株主招集通知,アナリストレポートといった金融文書を元に投資先を決定するが,金融文書の量は膨大であり, それらの分析には多大は労力と専門的な知識を要する. そこで本研究では, 金融文書に対する自動要約技術の適用に着目し,様々な要約モデルを比較することで,実用性の有無を検証した。 本研究の貢献は以下の 3 つである. 1. Web スクレイピングによる要約タスクのファインチューニング用データセットの収集を行った。 2. 収集したデータセットを様々な条件で抽出,ファインチューニングすることで日本語版 BART モデルの要約タスクにおける精度を定量的に評価した。 3. BART モデルと他の自動要約手法の定量的・定性的な評価によって比較し, 金融文書の抽象型要約による投資家向け支援システムを提案した。 ## 1 研究背景 - 目的 ## 1.1 自動要約技術について 自動要約は, 入力された文章を短くまとめて自動的に出力する技術である。近年,インターネットの普及や文書の電子化などにより,テキスト媒体におけるデータが大量に蓄積されているが,その中には重要性の低い文章も含まれている。そこで自動要約により重要な箇所のみを抽出することで,人間は文章を読む時間を削減でき, より本質的な内容を吟味することができる. 社会における自動要約の活用場所として, 広告や雑誌, 求人などの文字数制限のある媒体に対する見出し作成や金融文書や法律文書などからの重要箇所の取得などがあげられる。これらの背景から, 文章要約は自然言語処理のタスクの中でも重要度が増している. 本研究では, 金融文書に対する自動要約に着目し, 様々な文章要約モデルを比較することで,実用性の有無を検証することを目的とする. ## 1.2 一億総株主の課題 日本の個人金融資産構成は長年にわたって預貯金に偏っており, 欧米諸国に比べて非効率な運用が常態化している. そこで 2022 年, 政府は資金シフトを促すため, 「一億総株主」といわれるすべての国民が日本企業への投資家となることを目指す施策を講じた。これにより,今後,投資を始める人が増加す ることが予想される。投資家は,決算短信,有価証券報告書,株主招集通知,アナリストレポートといった金融文書を元に投資先を決定するが,金融文書の量は膨大であり,それらの分析には多大は労力と専門的な知識を要する,そのため,投資初心者が大量の金融情報から投資先を選択することはハードルが高く,「一億総株主」に向けての課題点となっている,そこで,本研究では,企業の金融文書を収集し,自動要約することで,投資初心者にも分かりやすい金融情報を提供する手法を提案することを目的とする. ## 2 関連研究と本研究のアプローチ ## 2. 1 金融文書の要約 文章要約には, 抽出型要約と抽象型要約 $の 2$ 種類がある。抽出型要約は,入力した文章から重要な文章を抜き出して要約文を生成する手法である。抽象型要約は,入力した文章を元に一から文章を生成する手法である。金融文書に対する抽出型要約の活用として, 平野ら[1]は,アノテーションの必要のない別のタスク (銘柄判定,価格変動)を学習させた学習モデルの Attentionを用いることで, 教師なしで金融文書の重要文判定を行う手法を提案している.抽出型要約は, 確実に元の文章内の正しい内容が出力されるというメリットがあるが,デメリットとして,文と文の接続に違和感がある, 要約文の長さを制御しにくいなどの点がある。そこで,本研究では抽象型要約を用いて金融文書を要約することで違和感がなく読みやすい文章を生成する手法を提案する. ## 2. 2 BART Bidirectional and AutoRegressive Transformers[2](以下, BART)は Bidirectional Encoder Representations from Transformers[3](以下, BERT) と Generative Pretrained Transformer[4](以下,GPT)の両方のアーキテクチャを持ち, BERT を Encoder として入力処理し,エンコーディングされた情報を使用し GPT の Auto-regressive Decoder により文書を生成するモデルである. Katsumata ら[5]は BART を用いて英語の文法誤り訂正タスクを行っており,既存の手法で最もよい結果が得られたと報告している。また,田中ら[6]は, 約 1800 万文の日本語 Wikipedia を用いて学習を行った日本語版 BART の事前学習モデルを構築し, 日本語の入力誤り認識タスクにおいて, 他の校正支援 API と比較して,精度が高いことを確認して いる.しかしながら,日本語版 BART による要約夕スクの精度を比較した論文はみられない。そこで,本研究では, 田中らの作成した日本語版 BART の事前学習モデルに対して, 文章要約タスクのファインチューニングを行い,要約精度の比較を行う。 ## 3 提案手法 本研究の提案手法の全体像を図 1 に示す. 提案手法は 4 つのステップから構成される. 図 1. 提案手法の概要図 ## 3.1 要約用データセットの収集 BART の文章要約タスクのファインチューニングのため, 要約前の文章と要約後の文章がぺアになったデータセットを構築する必要がある. 本研究では, wikiHow[7]と livedoor[8]の 2 つのサイトから Web スクレイピングによってデータセットを収集した. wikiHow はアート・健康・趣味など様々な分野に関するハウツーが記載されたサイトである。 ハウツー は「タイトル」「方法」「ステップ」から構成され,各見出し文を合わせたものを要約後の文章, その他の文章を要約前の文章として Web スクレイピングを行い,データセットを構築した。 livedoor は政治, 経済, IT, スポーツなど様々なジヤンルのニュース記事を掲載するサイトである.記事ごとに「3 行要約ページ」と「記事詳細ページ」が存在するため, それらを用いてデータセットを構築した. ThreeLineSummaryDataset[9]を利用した文章要約データセットの取得により, 2013 年 1 月 2016 年 12 月までに公開された記事を取得した. また, 本研究ではより多くの学習データを収集するため, 2017 年 1 月 022 年 12 月までのデータセットについてもニュース ID を探索することで,新たなデータセットの構築を行った. 結果として, 以下の件数の要約データセットを収集した。 - wikihow : 35,374 件 - livedoor2013 年 2016 年: 101,559 件 - livedoor2017 年 2022 年: 119,741 件 - 上記の全データ合計 : 256,674 件 ## 3. 2 BART のファインチューニング まず, 3.1 節で収集したデータセットの前処理として, 要約前の文字数が 1500 文字以内の条件でデータ を抽出した。これは, 日本語版 BART の事前学習モデルにおいて, token の長さが 1024 を超えるデータは処理できないためである。次に,抽出後のデータに対して, Juman++[10]による形態素解析とセンテンスピースモデル[11]を適用し,前処理済みデータを作成した. 最後に, 前処理済みデータを train, test, validataion データにおよそ 8:1:1 の割合で分割し,フアインチューニングを行った. ## 3.3 自動要約結果とモデルの定量的評価 3.2 節のファインチューニング済みモデルを用いて, 自動要約を行った. 表 1 に例として, livedoor のニュース記事の文章を日本語 BARTによる自動要約した結果と livedoor $の 3$ 行要約ページの正解の要約文を示す. 要約前の文章は, 約 1500 文字になるため,文字数の都合上省略する。 表 1. 日本語版 BART 抽象型要約の要約例 & \\ 表 1 より, 抽象型要約で違和感のない文章が生成されていることが分かる. 次に,ファインチューニング済みモデルの評価のため,ファインチューニングに用いなかったテスト用の 108 のデータセットを用いて定量的評価を行った. 評価では, 自動要約によって生成した文章と正解の要約文を比較することで定量的なスコアを算出する. 本研究では, 評価手法として, 以下の 4 種類を用いた。 - BERTScore : 事前学習された BERT から得られるべクトル表現を利用して,文書間の類似度を計算する。 - BLUE : 生成した要約の N-gram 中のどれだけが正解とする要約に登場するかを計算する。 - ROUGE-N : 2 つの文書館の N-gram 単位での一致度を評価する。 - ROUGE-BE : 文法的な要素間の係り受けを考慮し評価する。 ## 3.4 ファインチューニング条件の探索 3.2 節で行ったファインチューニングにおいて, 3.3 節の定量的評価が最もよくなるような条件を探索した。条件は以下の 5 つである. - 事前学習 BART モデル : base, large - ファインチューニング学習回数 : $3,5,10$ epoch - 使用データセット : wikiHow, Libedoor, 両方 - 文字数 : $300 \sim 1000,0 \sim 1500,300 \sim 1500$ 文字 - 文字数圧縮率 : $10 \sim 30,5 \sim 50 \%$ 表 2. 日本語版 BART 要約タスクのファインチューニングの条件と定量的評価スコア 表 3. 各自動要約モデルの定量的評価スコア ここで, 文字数圧縮率は, 3.1 節で取得したデータセットから以下の式(1)により計算した。 $ \text { 文字数圧縮率 }=\frac{\text { 要約後文字数 }}{\text { 要約前文字数 }} \times 100 $ 上記の 5 つの条件を変化させることで最適なファインチューニング条件を探索した.探索したファインチューニング条件と定量的評価の結果の一部を表 2 に示す. 表 2 より, wikiHow と livedoor を合わせたデータセットを要約前文字数 300 1500 文字, 文字数圧縮率 5 50\%で抽出し, BART large モデルで 5epoch 学習したときに最もスコアが高くなることが分かる. ## 4 他手法との比較 ## 4.1 比較要約モデルの概要 4 節では, 3.4 節において最もスコアの高い条件でファインチューニングした BART モデルと他の自動要約手法との比較を行う. 比較の評価指標として, 3.3 節における 4 種類の定量的評価とアンケート調查による定性的評価の 2 通り行った. 比較する要約手法は, 抽象型要約と抽出型要約のそれぞれについて検証した。他手法の抽象型要約モデルとして, 本研究では, 日本語の事前学習済みモデルが公開されている T5[12]との比較を行った.T5 はテキストを入力されるとテキストを出力するという統一的枠組みで様々な自然言語処理タスクを解く深層学習モデルである.また,他手法の抽出型要約モデルとして, LexRank[13] と AutoAbstractor [14] と比較を行った. LexRank は文章からグラフ構造を作り出して重要な文のランキングを作ることで要約する手法である.各文章を TF-IDF を用いて特徴べクトルとして表現し、コサイン類似度を用いて文章間の類似度を計算し, 多くの文章と類似度が高い場合、その文章は重要であると判断し,上位 3 文を抽出する. AutoAbstractor は, NLP ベースの要約手法で,入力文書全体の単語の出現頻度から文の重要度を計算する手法である。 SimilarityFilter 機能を用いて,文章内にある文字列に対し類似性の尺度を使って計算して長な文章を削除したのち, 重要度の高い文を要約として,上位 3 文を出力した。 ## 4. 2 定量的評価 表 3 に 4 種類の自動要約モデルの定量的評価スコアの結果を示す. T5 > BART $>$ AutoAbstractor > LexRank の順によいスコアとなった。また, 抽象型要約の方が抽出型要約よりも良い結果となった.T5 が最もスコアがよい理由として, T5 の事前学習済みモデルは, Wikipedia の日本語ダンプデータ,OSCAR の日本語コーパス, CC-100 の日本語コーパス合わせて約 100GB を用いているのに対して,日本語版 BART は約 1800 万分の日本語 Wikipedia の約 3GB を用いた事前学習済みモデルであるため,事前学習済みモデルの大きさが影響した可能性が高い. ## 4. 3 定性的評価 金融文書を取得するため SharedResearch[15]から約 1000 1500 字の 3つのアナリストレポートを引用し, BART, T5, AutoAbstractor の 3 つの手法に対して自動要約を実行した。 次に, 生成された要約文に対して以下の 5 点の定性的評価項目を元にアンケートを作成した. - 可読性 : 非文法的な繋がりが生じていないか. - 了解性 : 意味をなさない文となっていないか. - 忠実性 : 原文とは違う解釈の余地が生じていないか. - 十分性:原文に含まれていた別の命題内容や、主題・陳述内容が欠落していないか. - 非壳長性 : 要約文章に重複する内容がないか. アンケートにおいては, 回答者の答えやすさを考慮し, 可読性と了解性については, 「日本語が自然かどらか」,忠実性と十分性と非冗長性について は,「要約文として適切かどうか」という 2 つ項目について調查した。 以下の図 2 は, 「日本語が自然かどうか」について, 図 3 は「要約文として適切かどうか」についてのアンケート調査結果の棒グラフである. アンケー トの回答者数は 19 人で,3つの手法それぞれで生成された要約文に対して, 日本語が自然だと思う順番に順番を付ける形式で 3 つのアナリストレポート (Q1,Q2,Q3)に対して行った. グラフは,1番目: 3 点, 2 番目: 2 点, 3 番目: 1 点として集計した棒グラフである. 図 2. 定性的評価【文章の自然さ】棒グラフ 図 3. 定性的評価【文章の自然さ】棒グラフ図 2 より,抽象型要約の方が文章の自然さは高くなる傾向があることがわかる。これは,抽象型要約のメリットである文章に違和感がなく, 読みやすいという特性と一致している。 図 3 より, 抽象型要約の方が文章の自然さは高くなる傾向があることがわかる。これは, 抽象型要約のメリットである文章に違和感がなく, 読みやすいという特性と一致している. ## 5 投資家向け支援システムの概要 抽象型文書要約を利用した以下の初心者向け投資先選択支援システムの開発に取り組む. (1)利用者データの登録・金融文書の要約 利用者は投資にまつわる関心分野などをシステムに登録後,PDF ファイルや HTML 文書を入力することで,文書に含まれる文章を自動で抽出し,その要約文を得ることができる。 (2)金融文書の収取・投資先のレコメンデーション TDnet などのオープンデータを活用し,金融文書を収集し,企業ごとにトピックモデルなどを用いた分析を行う。その結果を(1)の利用者に対して提供し,利用者の嗜好や関心を考慮した投資先を提案する協調フィルタリング手法を開発する。 このシステムにより,投資家は企業の経営状況だけでなく,より幅広い情報によって投資先を選定できる. ## 6 まとめ 本研究の貢献は以下の 3 つである. 1. Web スクレイピングによる要約用大規模データセットの収集を行った。 2. 収集したデータセットを様々な条件で抽出,フアインチューニングすることで日本語版 BART モデルの要約タスクにおける精度を定量的に評価した。 3. 金融文書に対して 4 種類の自動要約手法の定量的評価と定性的評価による比較し,金融文書の抽象型要約による初心者向け投資先選択支援システムを構築することでモデルの有用性を確認した。 今後の展望として, 抽出型要約と抽象型要約を組み合わせたハイブリッド型の要約手法の提案や金融ドメインに特化したデータセットを用いたファインチューニングによる精度の比較を行いたい。また, 5 章の投資家向け意思決定支援システムの構築とシステムの効果検証を行いたい。 ## 参考文献 1. 平野正徳, 坂地泰紀, 松島裕康, 和泉綤, “金融文書のための別タスク学習による教師なし重要文判定”,言語処理学会, pp.569-572,(2020). 2. Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, Luke Zettlemoyer: BART: Denoising Sequence-to-Sequence Pretraining for Natural Language Generation, Translation, and Comprehension, In Proc. of ACL, pp.7871-7880,(2020). 3. Devlin, Jacob, et al. "Bert: Pre-training of deep bidirectional transformers for language understanding.” arXiv preprint arXiv:1810.04805,(2018). 4. Brown, T., et al. Language models are few-shot learners.Advances in Neural Information Processing Systems, 33, pp.1877-1901,(2020). 5. Satoru Katsumata, Mamoru Komachi. “Stronger baselines for grammatical error correction using a pretrained encoder-decoder model” . Asia-Pacific Chapter of the Association for Computational Linguistics , pp.827-832,(2020). 6. 田中佑, 村脇有吾, 河原大輔, 黒橋禎夫, “日本語 Wikipedia の編集履歴に基づく入力誤りデータセットと訂正システムの改良” , 言語処理学会論文誌, 28 巻 4 号, pp.995-1033,(2021) 7. wikiHow, “信頼できるハウツーマニュアル”, https://www.wikihow.jp/, 最終アクセス日 2022/9/28 8. livedoor, “ライブドアニュース”, https://news.livedoor.com/,最終閲覧日 2022/10/22 9. ThreeLineSummaryDataset, 3 行要約データセット, https://github.com/KodairaTomonori/ThreeLineSummar yDataset,最終閲覧日 2022/10/22 10. Hajime Morita, Daisuke Kawahara, and Sadao Kurohashi. Morphological analysis for unsegmented languages using recurrent neural network language model. In Proc. of EMNLP, pp. 2292 - 2297.Association for Computational Linguistics,(2015). 11. Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proc. of EMNLP, pp. 66-71. Association for Computational Linguistics, (2018). 12. Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, (2020). 13. Gunes Erkan, Dragomir R. Radev . LexRank: Graphbased Lexical Centrality as Salience in Text Summarization " J. Artif. Int. Res., vol. 22, no. 1, pp. 457-479, (2004). 14. 自動要約ライブラリ pysummarization, , https://code.accel-brain.com/Automatic-Summarization/ ,最終閲覧日: 2022 年 1 月 2 日 15. SharedResearch, https://sharedresearch.jp/ja, 最終閲覧日: 2022 年 1 月 2 日
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D10-3.pdf
# 株式市場の出来事の長期的視野での理解を支援する ニュース記事抽出によるストーリー可視化 木下聖 ${ }^{1}$ 西村太一 ${ }^{1}$ 亀甲博貴 ${ }^{2}$ 森信介 ${ }^{2}$ 1 京都大学大学院 情報学研究科 2 京都大学 学術情報メディアセンター kinoshita.sho.v85@kyoto-u.jp nishimura.taichi.43x@st.kyoto-u.ac.jp \{kameko,forest\}@i.kyoto-u.ac.jp ## 概要 近年,政府が投資家の裾野の拡大を目指すうえで,個人投資家の金融リテラシー不足を課題にあげている. 本研究では,証券市場特有の株価および市況概況記事を使用し,株式投資家による過去の証券市場の出来事の長期的視野での理解の支援に特化したニュース記事抽出によるストーリー可視化問題を提案する. さらに提案問題を市況概況記事を利用した重要株価材料抽出,類似株価材料抽出および関連記事検索の 3 つの部分問題に分割して解く手法を提案する。実験により提案手法を用いたストーリー可視化が可能である一方で,検索手法に改善の余地が残されていることも示された. ## 1 緒論 近年,政府は投資家の裾野を拡大し,貯蓄から投資へのシフトの実現を目指しており,国民の金融リテラシー不足を課題の 1 つにあげている [1]. 世界的に有名な投資家らは,投資で成功するためには歴史から学ぶ重要性, および,多くの投資家は歴史から学ばずに失敗してきたことを指摘している $[2,3,4]$. 人々が証券市場の歴史を学ぶには, 専門家による解説文献を読むことが最も一般的であるが,以下の 2 つの問題が含まれる. 第一に,証券市場の歴史の解説文献は未来の結末を知る専門家が過去を解説するもので,バイアスを含む可能性が高い. 第二に,個人投資家が現在の情勢を知る情報源としてニュースが一般的であり,歴史の解説文献のような未来を含む長期的視野からの情報は存在せず,現在と過去を比較するために使用することが難しい。一方で,過去のニュース記事は当時の専門家が執筆した情報であり,現在のニュース記事と比較することも可能である. そこで,投資家による証券市場の歴史の学習に過去のニュース記事を利用できれば良いと考えられるが,ニュース記事の数は膨大で,個人投資家がすべてのニュース記事を確認することは非現実的である. 出来事の長期的視野での理解を支援するために,長期間の大量のニュース記事をトピック分類し時系列表示してニュースのストーリーを可視化する技術の研究が行われている [5, 6, 7]. 証券市場でもあるトピックに関するニュースが長期間報道され株価に大きく影響することは珍しくなく,これらの技術を活用することで過去のニュース記事を用いた証券市場の歴史の学習を支援できる。一方で,これらの技術を証券市場の歴史学習の支援に使用する上で,以下の 3 つがさらに求められる. 1. ニュース記事を投資家が認識する粒度のトピックで分類すること. 2. 株価指数に影響するような全投資家に重要な下ピックを抽出すること。 3. 各トピックの大量の関連記事から重要な記事を抽出すること。 そこで本研究では,株式投資家による過去の証券市場の出来事の長期的視野での理解の支援に特化したニュース記事抽出によるストーリー可視化問題を提案する. 提案問題の出力例を表 1 に示す. 提案問題では,指定された期間の大量のニュース記事から重要な株価材料を抽出し,各株価材料の関連記事で重要なものを時系列表示する. そして, 証券市場特有の株価および市況概況記事を利用し,重要株価材料抽出,類似株価材料抽出,および,関連記事検索の 3 つの部分問題に分割して解く手法を提案する.市況概況記事とは,証券市場の毎営業日後に報道される記事で,その日の株価変動および投資家が意識する株価材料を説明する。 さらに,提案手法で使用する系列ラベリングの検証のために,我々が作成し 表 1 株価材料「福島原発事故の深刻化に対する懸念」 (2011 年 3 月 15 日) の関連記事出力例 (一部抜粋) \\ たデータセットを用いて評価する.また,モデル出力例を示し提案モデルを評価する。 ## 2 関連研究 証券市場の毎営業日後に報道される市況分析記事から因果関係を抽出する研究 [8] や,それらを要約し長期間の市況分析を生成する研究 $[9,10]$ が行われている. 市況分析記事における株価材料の記載は非常に簡潔である. 本研究では,各株価材料の関連記事を検索することで,これから投資を始める人にもわかりやすく詳細な情報の出力を目指す。 ## 3 市況概況記事を用いたニュースス トーリー生成手法 ## 3.1 手法概要 本研究では,証券市場特有の株価および市況概況記事を使用し, 重要株価材料抽出, 類似株価材料抽出,および,関連記事検索の 3 つの部分問題に分割して解く.各部分問題を解く手法の詳細を以下で説明する。 ## 3.2 重要株価材料抽出 指定された期間内の市況概況記事から株式市場における重要度の高い株価材料を抽出する. 本研究では日経平均株価の前日比変動率が大きい日の株価材料の重要度が高いと仮定し, 日経平均株価の前日比変動率が大きい日に出版された市況概況記事の株価材料を抽出する. 日経平均株価の前日比変動率の大 きさは以下の式で求める. $ r_{d}=\frac{\left|p_{d}-p_{d-1}\right|}{p_{d-1}} $ $r_{d}:$ 日付 $d$ の前日比株価変動率 $p_{d}:$ 日付 $d$ の株価 本研究では市況概況記事から株価材料を抽出する問題を系列ラベリング問題として定式化して解く. 系列ラベリング問題を解くモデルは,Akbik ら $[11,12]$ が開発する Flair framework を使用して実装し, Flair embeddings の日本語学習済みモデルでべクトル化したものを,LSTM および全結合層に入力する. ## 3.3 類似株価材料抽出 すべてのニュース記事から 3.2 節で抽出された重要株価材料の関連記事を検索する場合,関連記事検索の正解データ作成コストが大きいこと,および,株式市場に影響しない重要度の低い関連記事も多く抽出されてしまうことが問題となる。 そこで, 3.2 節で抽出された株価材料に関連する株価材料が市況概況記事に記載されている日付および株価材料を抽出する。これにより,各株価材料の関連記事検索範囲を高々数日に限定でき,正解データ作成コストを大幅に削減できること,株価材料が市況概況記事に記載されるほど重要であった日の記事のみが抽出されることが期待される. 市況概況記事から株価材料を抽出するモデルは 3.2 節と共通のものを使用する.株価材料が関連するものか判定する手法として,鈴木ら [13] が日本語 Wikipedia および金融文書を事前学習した BERT 言語モデル”"bert-small-japanese-fin”1) に株価材料を入力し, 各 token のべクトルを平均プーリングして得られるべクトル同士の $\cos$ 類似度が閾値以上の場合に関連すると判定する。 ## 3.4 関連記事検索 3.2 節で抽出された重要株価材料の関連記事を抽出する. 東京証券取引所における内国株式の売買立会時間は 15 時に終了するため, 東京証券取引所の前営業日 15 時から 3.3 節で抽出された日付の 15 時までに報道されたニュース記事から,3.3 節で抽出された類似株価材料の関連記事を検索することで実現する.正解データセットの数が不十分で教師あり学習をすることは難しいため,記事検索手法とし  表 2 株価材料抽出データサイズ て,??節と同様に株価材料とニュース記事タイトルをべクトル化し $\cos$ 類似度が上位のものを抽出することで検索を行った. このとき,株価材料に固有名詞が含まれる場合は,その固有名詞が本文に含まれるニュース記事を優先して検索した。 ## 4 データセット ## 4.1 ニュースデータ 金融機関が契約する大手情報サービス会社として,Bloomberg,ロイターおよび日経 QUICK が有名である. 本研究では,2007 年から 2017 年のロイター日本語ニュースを使用する。 ## 4.2 系列ラベリング問題データセット 市況概況記事から株価材料を抽出する系列ラベリング問題の学習および評価に使用するデータセットについて説明する。ロイター日本語ニュースでは,東京証券取引所の売買立会時間終了後に,「東京マーケット・サマリー」をタイトルに含む市況概況記事が掲載される. 重要な株価材料が掲載される日は株価変動率が比較的大きくなる傾向があるため,日経平均株価の前日比変動率の大きさが $r_{d}=0.02$以上の日の最後に報道された市況概況記事を使用する. 正解ラベルのアノテーションは,テキストアノテーションツール doccano [14]を使用し人手で行った. 東京株式市場の市況概況記事では,株価材料として頻繁に米国株価動向および為替動向について言及されるため,これらの株価材料言及部分には特別なラベルを付与し,それ以外の株価材料には同一のラベルを付与した. ただし,「月末」のように証券市場の前営業日から当日までに関連ニュース記事が報道されないものや,「企業決算」のように関連記事が無数にあるものはラベル付与しない. 各ラベルが付与されたフレーズの例と株価材料だがラベルを付与しない例を以下に示す。表 3 株価材料抽出の実験結果 例 : 米国株価動向言及部分 米株が急落,海外株式市場,世界同時株安 例 : 為替動向言及部分 為替が円高/ドル安,主要通貨,円キャリー取引 例:その他株価材料言及部分 日銀短観,米雇用統計,米サブプライムローン 問題,米国の利下げ,FOMC,参院選,原油安 例:株価材料だがラベル付与されないもの 業績不透明感,ポジション調整,月末,企業決算,9月中間期末 さらに,作成したデータセットのサイズを表 2 に示す。 ## 5 評価 ## 5.1 系列ラベリング問題 ## 5.1.1 実験設定 4.2 節のデータセットを使用する. 2007 年から 2015 年の記事を 10 分割した交差検証によりモデルの学習を行い,2016 年以降の記事の各単語のラベル分類問題の F-score で評価した。 ## 5.1.2 実験結果 学習および評価を 5 回行った結果の平均は表 3 の通りになった。米国株価動向および為替動向は,表現の種類が少ないため非常に高い精度で抽出できた. 一方で,その他株価材料の表現の種類は非常に多く精度が少し下がるが,誤り例を確認すると大多数が抽出範囲の長短によるものであった. 以下に誤り例を示す. ただし,下線部分がモデルによる抽出,赤字部分が正解ラベルとする. 抽出範囲の誤り例 …ドル/円が 118 円台を回復したことに加え,輸出・輸入ともにマイナス幅が縮小した12月中国貿易統計も支えとなった. ... 不適切な抽出の誤り例 …昨年来安値を下回り,量的・質的金融緩和 (QQE)第 2弾が決定された 2014 年 10 月 31 日以来,約 1 年 3 カ月ぶりの安値となった. 時間外で 28 ドル割れとなった米原油先物を受けてリスクオフムードが強まり全面安. ... ## 5.2 類似度を用いた関連記事検索 本節では類似度を用いた関連記事検索の出力例を示し考察する。 表 1 は 2011 年 3 月 15 日の重要株価材料「福島原発事故の深刻化に対する懸念」に対する関連記事の出力例で,適切な関連記事を出力している。 一方で,表 4 は 2014 年 3 月 14 日の重要株価材料「ウクライナ情勢に対する警戒感」に対する関連記事の出力例である. こちらでは,タイの政情に関する記事や米国景気に関する記事も出力されている. これは, 3.3 節の類似株価材料抽出で,異なる株価材料を同一と判定してしまったことに起因する. 3.3 節の類似株価材料抽出および 3.4 節の関連記事検索では,BERT の事前学習モデルによるべクトルの類似度を利用しているが,前後に同様の単語が並ぶ単語の類似度が高くなるために誤った判定をしてしまう場合が多くみられ,特に「米国/中国の利下げ」のような国の違いを区別できない例や,「情勢/景気」 のような単語を区別できない例が多かった. 関連記事検索手法の改善が必要であり,教師あり学習をすることが好ましいと考えられるが,ニュー ス記事は 1 日に数百も掲載され,様々な株価材料で学習するには大量のニュース記事を確認してアノテーションする必要がある.また,キーワード検索を行う方法も考えられるが,市況概況記事での株価材料の表現は市況概況記事特有のものも多いという問題がある.キーワード検索および類似度を用いた検索を併用することで,より優れた検索ができると考えられる。表 42014 年 3 月 14 日「ウクライナ情勢に対する警戒感」関連記事出力例(一部抜粋) ## 6 結論および今後の課題 本研究では,株式投資家による過去の出来事の長期的視野での理解の支援に特化したニュース記事抽出によるストーリー可視化問題を提案した. 証券市場特有の株価および市況概況記事を用いれば,重要株価材料抽出,類似株価材料抽出,および,関連記事検索の 3 つの部分問題に分割して解くことで実現できることを示した。一方で,事前学習済み言語モデルを利用したべクトルの類似度に基づく関連記事検索手法には問題があり,検索手法に改善が必要であることが示された. 今後の課題として,米国株市場・為替市場の市況概況記事の利用および重要語によるキーワード検索を併用した記事検索手法の開発に取り組むことなどが残されている. ## 参考文献 [1] 内閣府. 資産所得倍増プラン. 新しい資本主義実現会議(第 13 回), November 2022. [2] 桑原晃弥. ウォーレン・バフェット成功の名語録世界が尊敬する実業家、103 の言葉. PHP 研究所, July 2012. [3] George Soros. Fallibility, reflexivity, and the human uncertainty principle. J. Econ. Methodol., Vol. 20, No. 4, pp. 309-329, December 2013. [4] Jim Rogers. 危機の時代伝説の投資家が語る経済とマネーの未来. 日経 BP, May 2020. [5] Marieke van Erp, Gleb Satyukov, Piek Vossen, and Marit Nijsen. Discovering and visualising stories in news. In Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC'14), pp. 3277-3282, Reykjavik, Iceland, May 2014. European Language Resources Association (ELRA). [6] Philippe Laban and Marti Hearst. newslens: building and visualizing long-ranging news stories. Proceedings of the Events and Stories in the, 2017. [7] Deyu Zhou, Linsen Guo, and Yulan He. Neural storyline extraction model for storyline generation from news articles. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 1727-1736, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [8] 酒井浩之, 坂地泰紀, 和泉潔, 松井藤五郎, 入江圭太郎. 学習データ自動生成による市況分析コメント作成のための要因文と補完情報の抽出.人工知能学会全国大会論文集, Vol. JSAI2020, pp. 1D3GS1303-1D3GS1303, 2020. [9] 酒井浩之, 坂地泰紀, 和泉潔, 松井藤五郎, 入江圭太郎 . 経済テキストからの市況分析コメントの自動生成.第 20 回人工知能学会金融情報学研究会 (SIG-FIN)予稿集, pp. 44-49, March 2018. [10] 酒井浩之, 坂地泰紀, 和泉潔, 松井藤五郎, 入江圭太郎 . 関連記事を用いた市況分析コメントの自動生成.第 22 回人工知能学会金融情報学研究会(SIG-FIN)予稿集, pp. 61-66, March 2019. [11] Alan Akbik, Duncan Blythe, and Roland Vollgraf. Contextual string embeddings for sequence labeling. pp. 16381649, August 2018. [12] Alan Akbik, Tanja Bergmann, Duncan Blythe, Kashif Rasul, Stefan Schweter, and Roland Vollgraf. FLAIR: An Easy-to-Use framework for State-of-the-Art NLP. In Proceedings of the 2019 Annual Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 54-59, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [13] 鈴木雅弘, 坂地泰紀, 平野正徳, 和泉潔. 金融文書を用いた事前学習言語モデルの構築と検証. 人工知能学会第二種研究会資料, Vol. 2021, No. FIN-027, p. 05, 2021. [14] Hiroki Nakayama, Takahiro Kubo, Junya Kamura, Yasu- fumi Taniguchi, and Xu Liang. doccano: Text annotation tool for human, 2018.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D10-4.pdf
# 中央銀行の要人発言に対するタカ・ハト極性付与タスクの検討 高野海斗 1 内藤麻人 ${ }^{1}$ 長谷川直弘 ${ }^{1}$ 中川慧 ${ }^{1}$ 1 野村アセットマネジメント株式会社 $\{$ k-takano, a-naito, n-hasegawa, k-nakagawa $\}$ @nomura-am.co.jp ## 概要 金融業界でオルタナティブデータの活用が進む中,金融テキストマイニングにおいて,文に対してセンチメント付与を行うタスクは,重要な研究テー マである.金融分野におけるテキストへのセンチメント付与性能の向上のためには,少なくとも,否定表現,経済状況,時間軸の情報を加味できるモデルが必要であると考える. 本研究では,上記に挙げた 3 つの情報を加味する必要のある困難なタスクとし $\tau$ ,中央銀行の要人発言に対するタカ・ハト極性付与タスクを提案し, その重要性と必要性について述べる. ## 1 はじめに 近年,機械学習などの手法が注目を集め,様々な分野への応用研究が活発に行われている. 金融業界でも人工知能分野の手法や技術を様々な場面に応用することが期待されており,膨大な金融情報を分析し投資判断を支援する金融テキストマイニングに注目が集まっている $[1,2,3]$. 金融業界でオルタナティブデータの活用が進む中,金融テキストマイニングにおいて,文に対してセンチメント付与を行うタスクは,重要な研究テー マである. 特にテキストを用いて景況感を示す指標はセンチメントスコアと呼ばれ実際に活用されている. 例えば野村證券株式会社では, 政府や日本銀行のレポートのセンチメントを指数化する野村 AI 景況感指数を公表し,実際に定量分析などで利用している1). 金融テキストマイニングにおいて,センチメントスコアが注目されているのには,以下に述べる背景が存在する。一般に金融テキストには,結果(事実)と評価が混在している。例えば,「今期の EPS ${ }^{2)}$  は 100 円であり、経営努力が実った。」と「今期の EPS は 100 円であり、経営陣の見通しの甘さが露呈した。」というテキストには,「今期の EPS は 100 円である」という同一の結果を伝えているが,評価は正反対の内容を伝えている. このように,同一の結果に対してどのような評価,すなわち極性を付与するかという点に市場あるいは投資家のセンチメントが含まれる。また結果を表す情報は財務データあるいは経済データが多く,定量的に取得・分析できるのに対して,評価情報はテキストにのみ存在する定性的情報である。そのため,金融テキストの極性付与は投資意思決定において重要なタスクである. 本研究では,大量に存在する金融テキストの中で中央銀行の要人 ${ }^{3}$ ) 発言に極性を付与することに焦点を当てる.中央銀行に関しての詳細は,2 章で述べることとし,ここでは中央銀行の要人発言に注目する理由を簡潔に述べる。 まず,中央銀行の公開情報は注目度が高く,マー ケットに与える影響が大きいことが焦点を当てた最大の理由である,日々運用者は,マーケット情報を参考にし,仮説を立て,投資判断を行っているが, その中でもメディアや公式 HP から発表される中央銀行の金融政策方針や要人発言などの重要性は非常に高く,実際に市場が予想していなかった発言が出た直後には,株価や金利などが大きく変動することがあるのは周知の事実である [4]. そのため,公開されているテキスト情報の定量的な活用を含めると非常に多くの関連研究が存在する。関連研究の詳細に関しては,3 章で取り上げるが,それらの研究のほとんどがトピックの割合や,そのポジティブ単語の割合・ネガティブ単語の割合と,マーケットとの関連を分析したものとなっている。 本研究で焦点を当てている要人発言は,伝統的に,金融引締のスタンスを取っているものは「タカ」派の意見,金融緩和のスタンスを取っているものは「ハト」派の意見に大別される.金融政策の決 3)金融政策方針を決定するメンバー 定権を持つ要人のタカ派あるいはハト派の発言の多萓が今後の金融政策の方向性に重要な影響を与えることが想定される。そのため市場参加者は要人発言が,タカ・ハトのどちら側のスタンスであるかを日々のニュースや公表物から波み取り, 将来の見通しや投資判断の材料にしている. しかし,このタカとハトという観点から極性を付与してマーケットへの影響を分析するような研究は数が少ない. 例えば,Amadeus[5] らは,オリジナルの辞書を用いてタカ・ハトの極性を付与し,分析を行っているが,辞書やデータセットに関する詳細は伏せられており, このような極性が付与されたデータは公開されていない. そこで,本研究では中央銀行の要人発言に対するタカ・ハト極性付与タスクを提案する。 そもそも文の極性付与というタスク自体が,文の分類問題の中ではトピックの分類などと比較して難しいタスクではあるが,要人発言の分析を通して,このタカ・ハトの極性付与タスクは従来の極性付与タスクよりも難易度が高いことがわかってきた. 本研究では, どのような点においてタカ・ハトの極性付与が他タスクと比較して難しいのかについて取り上げる。また,研究初期の段階であることから定義に関してなど,課題が残っているが,そのような点を解消した暁には,公開データを用いて正解ラベル付きデータの共有を目標としている.このようなデータセットが公開されることで,極性付与モデルのさらなる発展と,これまでテキスト情報であることから定量的に扱うことができなかった多くのテキストが有効活用されることで,より健全な市場の形成に繋がることを期待している. ## 2 中央銀行の重要性 中央銀行は国家や特定の地域の金融機構の中核となる機関である. 各国の中央銀行を取り上げたいところではあるが,市場に与える影響が最も大きい米国の連邦準備制度(Federal Reserve System,以降 Fed と省略して表記)を代表として取り上げる。 連邦準備制度において,金融政策の基本方針決定に中心的な役割を果たす組織が,連邦準備制度理事会 (Board of Governors of the Federal Reserve System) である. Fedの金融政策の目的として,連邦準備法では「最大の雇用」,「物価の安定」,「穏やかな長期金利」が規定されている. 特に,「最大の雇用 $」$,「物価の安定」は非常に重要視されている. Fed は上記の目標を達成するために,状況に応じていくつかの金融政策手段を実施する.代表的な金融政策手段として,公開市場操作,公定歩合,預金準備率がある ${ }^{4)}$.これらの金融政策手段のうち最も機動的なものが公開市場操作であり, FF 金利5)を誘導目標に沿うように,オペレーションを実施する。 したがって,市場参加者の注目は $\mathrm{FF}$ 金利の誘導目標に集まることから,その基本方針が決定される公開市場委員会(Federal Open Market Committee,以降 FOMC と省略して表記)に対する市場の関心は非常に高いものとなっている. FOMC は日銀の政策委員会に相当する最高意思決定機関であり,年 8 回開催される。投票権を有する参加者は,理事会から理事 7 名, 12 ある地区連銀から総裁 5 名(1 年交代の輪番)の計 12 名であり,投票権のない地区連銀総裁はオブザーバーとして出席する。これらの理由から,FOMC 参加者の日々の発言,スタンスが市場参加者からは非常に重要視されている. 本研究では, オブザーバーを含めた FOMC 参加者を「要人」と定義する. Fed の金融政策のスタンスを分析するのに有効となるテキストデータは,スペースの関係上, Appendix[A] に記載している。 ## 3 関連研究 金融政策に関わるテキストを対象にした分析は,盛んに行われている.その対象は Fed や ECB (欧州中央銀行)はもちろん $[6,7,8,9,10,4], \mathrm{BOJ}$ (日銀)やBOK(韓国)などの分析も行われている $[11,12,13]$. 例えば,Hansen[6] らは,FOMC 声明文を LDA により分析し, Apel[7] らの金融極性辞書を用いて,トピック別にセンチメント付与をした. そして,FAVAR モデルを用いてトピック別にマク口変数や資産価格への影響を分析している。また, Jegadeesh[8] らは, FOMC 議事録をLDA により分析し,Loughran[14] らの金融極性辞書を用いて,卜ピック別にセンチメントを付与した. そして,トピック別にそれらのマクロ変数や資産価格への影響を分析している.ECB の分析では,Schmeling[4] らは, Apel[7] らの金融極性辞書を用いて,ECB の会見に対してセンチメント(ネガティブな単語の比率)を付与し,それが欧州各国の株価指数やイール 4)その他にも,超過準備への付利金利,翌日物リバースレポなどがある. 5) 米国の銀行間で資金を融通し合う際に適用され金利であり,日本の無担保コール翌日物金利に対応する。 ドカーブに影響を与えることを示している. このように,自然言語処理技術を用いて分析を行っている研究は数多くあるが,それらの研究のほとんどは金融極性辞書を用いた分析やトピックモデルによる議題の変化に着目した分析である. 極性辞書を分析に用いるメリットは,分析が容易であることや,恣意的な要素が入りにくいことが挙げられる。また,極性辞書を用いた分析では,どのような極性辞書を使用するかが非常に重要である. 例えば,広く利用されている一般的な極性辞書 (Harvard-IV-4 TagNeg)に含まれるネガティブ表現は,金融の分野において,約 4 分の 3 も該当しないことを Loughran[14] らは示している. したがって, センチメント分析を行うためには,その目的に特化した極性辞書を使用する必要があり,特化した極性辞書を作成や拡張する研究は,盛んに行われている $[15,16]$. 金融政策の分析を行うのであれば,金融政策の分析に特化した極性辞書が本来望ましい.例えば,重要な経済指標の一つである失業率は,低下がポジティブであり,上昇がネガティブな出来事である.このようなトピックが含まれることから, Ahrens[9] らは,GDP,CPI,失業率という 3つの主要な経済的側面に沿って,金融政策のシグナル分散指数を,教師有り学習を用いた方法を用いて構築している. しかしながら,次の 4 章で述べる様々な理由から, 仮に特化した辞書を作成したとしても, 辞書ベースでの分析には限界がある. 要人発言に関しては,その文がどのようなニュアンスを含んだ文であるかを推測する必要があり,それを達成するには単語やフレーズによる極性付与では不十分である。これまで辞書ベースのナイーブな分析であっても,有益な効果を示すことができていたことから,センチメント付与を工夫することができれば,より良い分析結果につながることが期待される。 ## 4 タカ・ハト極性付与タスクの課題 まず,著者らは,タカ,ハト,その他の 3 つのラベルをテキストに対して人手で付与し,BERT 系モデル [17]をファインチューニングすることで分類モデルを作成したが,期待するような精度は出なかった6). 上記モデルの出力を検証したところ,タカ・ ハト極性付与タスクの困難は,(1) 要人発言のテキストの持つ特徴と (2) ラベル付けの困難にあると考  えている。 ## 4.1 要人発言のテキストの特徵 まず上記モデルの出力の中から,誤分類していた要人発言のテキストの特徴を取り上げる. ## 4.1.1 否定・婉曲表現 まず,中央銀行の要人発言では,否定表現や婉曲表現が多発する。これはマーケットへの影響を配慮した結果であると考えられる。遠回しな表現を行い含みを持たせることで,情報を受け取った人が内容を解釈した上で行動を選択できるような発言が多いのが特徴である.実際にロイターニュースの要人発言に関するニュースを対象に分析を行ったところ, not (短縮形含む) , no, never などの否定を意味する単語を含んでいるへッドラインの割合は,全体の $10 \%$ を超える結果であった ${ }^{7)}$. この分析は単純な方法によるものであり,実際に単語やフレーズによる極性付与では難しい文はもっと多く存在する. 例えば, $\lceil$ Fed's Bostic added that it's "really challenging" to slow the pace of policy tightening amid rising core inflation. $\lrcorner$ のように「slow the pace of policy tightening (政策の引締ぺースを遅くする)」という表現が含まれているが,「"really challenging"(難しい)」とのことから,引き続き金融引締めを行っていくというニュアンスの文である.トピック分類などであれば,否定表現の割合が分類精度に与える影響は少ないが,意味を捉える必要のあるセンチメント付与においては大きな課題となる. ## 4.1.2 テキスト外 (経済) 情報の加味 次に問題となるのが,テキスト情報だけでは夕カ・ハトを判定することができない文である.人間は与えられた文だけでなく,非常に多くの情報を加味した上で文を読み,判定を行うのに対して,一般的なモデルは入力として与えられた文のみで判定を行う必要がある. 例えば,「The Committee is strongly committed to returning inflation to its 2 percent objective.」のようなコメントは,現状のインフレ率が高い場合,高いインフレ率を抑制するという意味を持つタカ派的なコメントになるが,現状にインフレ率が低い場合には,低いインフレ率を浮揚させるという意味を持つハト派的なコメントとなる。この 7)別のニュースソースでも検証を行ったが,否定表現の割合は $12 \%$ 超える結果となった. ように現状のインフレ率がどのくらいの水準であるかに対して,意味合いが異なる.経済指標などを単純にモデルに組み込むことも考えらえるが,それらの数值情報によって過学習する恐れがあるため, どのように組み込み,活用するかに関しても議論の余地が残る. ## 4.1.3 時間軸情報の加味 また,時間的常識を理解できる仕組みも重要となる $[18,19]$. 例えば,「Many Fed officials have said they want to open the door to a possible rate hike in June.」のようなコメントは, 現時点から 6 月がどのくらい先の出来事を指しているかによって,意味合いが大きく異なる、コメントが出たのが 5 月である場合には,早急な利上げが必要であるという意味を持つタカ派的な発言となるが,コメントが出たのが 1 月である場合には, 利上げを急ぐ必要はないという意味を持つハト派的な発言となる. 実際に,2015年 1 月後半から 3 月前半にかけて以下のようなへッドラインのニュースがロイターから出ていたが,1文目から順に,6月,夏または秋,2016 年(来年)からの利上げ開始を支持する内容であり, 議論のポイントは利上げ開始の時期となっている。また,以下のヘッドラインの例からわかる通り, 時期の表現方法も様々である。 - Fed's George sticks with mid-year rate lift-off - Fed's Williams sees first rate rise in summer or fall - Fed's Evans wants no rate hikes until early 2016 ## 4.2 テキストヘのラベル付け 次にタカ・ハトのラベル付与の課題を述べる. ## 4.2.1 金融政策文以外のテキスト ここまで金融政策に言及する文を取り上げたが,Fed の目的は「最大の雇用」と「物価の安定」 のため,これらに関して言及している文も多い. また,金融政策の意思決定のために,「consumer spending $\lrcorner,\lceil$ energy $\lrcorner$, $\ulcorner$ agriculture $\lrcorner,\ulcorner$ manufacturing $\lrcorner$, $\lceil$ real estate $\lrcorner,\lceil$ retail trade $\lrcorner,\lceil$ construction $\lrcorner,\lceil$ services $\lrcorner$, $「$ banking $」$ 「finance」など,様々な材料を取り挙げる.これらの文の場合,金融政策に言及している文と比較して, タカ・ハトの判定が難しいものが含まれる. 特に,材料はあくまで結果(事実)に対して言及していることが多く,その結果に対してどのよ うな評価を行っているかを汲み取ることが重要となり,高い専門性が必要となる. ## 4.2.2 金融政策文 金融政策に言及している文に関しても,どのようにラベル付与するか課題が残る. 例えば, $\lceil$ The Federal Reserve will deliver more interest rate hikes next year even as the economy slips towards a possible recession, Fed Chair Jerome Powell said on Wednesday, arguing that a higher cost would be paid if the U.S. central bank does not get a firmer grip on inflation.」のような 「景気後退が起こったとしてもさらなる利上げを行う」という文は,容易にタカ派の発言と捉えることができる. しかし, 「Jerome Powell supports 25 bp rate hike at March meeting.」, 「Fed's Mester says she doesn't see compelling case to start with 50 bps rate hike.」,「Fed's Powell will slow the pace of interest-rate increases next month.」などの文は,ラベル付けが難しい,なぜならば,タカ派とハト派は相対的なスタンスで議論されることが多いためである. 1 文目は,多くのメンバーが 50bp の利上げを支持している中での発言であれば,ハト派と捉える必要がある. 2 文目は,仮にメスター総裁が $75 \mathrm{bp}$ の利上げを支持しているのであればタカ派の文と捉える必要があり,仮に $25 \mathrm{bp}$ の利上げを支持しているのであれば八ト派の文と捉える必要がある. 3 文目は,金融引締はするが,そのペースは落としていくとのことで八ト派の文と捉えることができる。しかし,金融引締を積極的に行っていく中での相対的なハト派の文と,金融緩和を支持するハト派の文を同じものと捉えるのには問題が残る. したがってラベル付けは複雑にはなるが,より緻密な分析に繋げるためにも,順序尺度によるラベル付けが必要である.後続の分析に使用することも考えながら,現在その定義付けを進めている. ## 5 まとめと今後の展望 本研究では,中央銀行の要人発言に対するタカハト極性付与タスクの重要性・必要性とその難しさに関して述べた. 今後は,ラベル付けの定義を策定し,公開されているデータに対してラベル付けを行ったものを公開する予定である。データセットの公開によって, 否定表現の理解や時間軸の理解に対応可能なモデル開発やその評価に活用され,極性付与モデルの発展に貢献したいと考えている. ## 参考文献 [1] 和泉潔, 坂地泰紀, 伊藤友貴, 伊藤諒. 金融テキストマイニングの最新技術動向 (特集 ai の金融応用 (実践編)). 証券アナリストジャーナル, Vol. 55, No. 10 , pp. 28-36, 2017. [2] Aaryan Gupta, Vinya Dengre, Hamza Abubakar Kheruwala, and Manan Shah. Comprehensive review of text-mining applications in finance. Financial Innovation, Vol. 6, No. 1, pp. 1-25, 2020. [3] 鈴木智也, 中川慧, 伊藤友貴, 坂地泰紀. 金融におけるテキストマイニングと機械学習応用. 人工知能, Vol. 36, No. 3, pp. 270-278, 2021. [4] Maik Schmeling and Christian Wagner. Does central bank tone move asset prices? 2015. [5] Musa Amadeus, Rajeev Bhargava, Tim Graf, Michael Guidi, Michael Metcalfe, Gideon Ozik, and Ronnie Sadka. Central bank monetary tones and yields. Vol. 31, No. 4, pp. 5-19, 2022. [6] Stephen Hansen and Michael McMahon. Shocking language: Understanding the macroeconomic effects of central bank communication. Journal of International Economics, Vol. 99, pp. S114-S133, 2016. [7] Mikael Apel and Marianna Blix Grimaldi. The information content of central bank minutes. Technical Report 261, 2012. [8] Narasimhan Jegadeesh and Di Wu. Deciphering fedspeak: The information content of fomc meetings. Monetary Economics: Central Banks - Policies \& Impacts eJournal, 2017. [9] Maximilian Ahrens and Michael McMahon. Extracting economic signals from central bank speeches. In Proceedings of the Third Workshop on Economics and Natural Language Processing, 112021. [10] Viorel Milea, Nurfadhlina Mohd Sharef, Rui J. Almeida, Uzay Kaymak, and Flavius Frasincer. Prediction of the msci euro index based on fuzzy grammar fragments extracted from european central bank statements. [11] 和泉潔, 後藤卓, 松井藤五郎. 経済テキスト情報を用いた長期的な市場動向推定. 情報処理学会論文誌, Vol. 52, No. 12, pp. 3309-3315, 2011 [12] 松田安咲子, 岡石一真, 白田由香利, 橋本隆子, 佐倉環. Lda 方式による金融経済月報からのトピック抽出~第 2 次安倍内閣の金融政策と経済動向分析 〜.信学技報, Vol. 114, No. 204, pp. 79-84, 2014. [13] Ki Young Park, Youngjoon Lee, and Soohyon Kim. eciphering monetary policy board minutes through text mining approach: The case of korea. Technical report, 2019. [14] Tim Loughran and Bill Mcdonald. When is a liability not a liability? textual analysis, dictionaries, and $10-\mathrm{Ks}$. The Journal of Finance, Vol. 66, No. 1, pp. 35-65, 2011. [15] Tomoki Ito, Hiroki Sakaji, Kota Tsubouchi, Kiyoshi Izumi, and Tatsuo Yamashita. Text-visualizing neural network model: understanding online financial textual data. In Pacific-Asia Conference on Knowledge Discovery and Data Mining, pp. 247-259, 2018. [16] 今井康太, 酒井浩之, 高野海斗, 北島良三, 末廣徹, 稲垣真太郎, 木村柚里. 債券市場における金融極性辞書の自動構築. 第 25 回金融情報学研究会, pp. 38-43, 2020. [17] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4171-4186, 2019. [18] Siddharth Vashishtha, Benjamin Van Durme, and Aaron Steven White. Fine-grained temporal relation extraction. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, 7 2019. [19] Qiang Ning, Hao Wu, Rujun Han, Nanyun Peng, Matt Gardner, and Dan Roth. TORQUE: A reading comprehension dataset of temporal ordering questions. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), 112020. [20] Dogu Araci. Finbert: Financial sentiment analysis with pre-trained language models, 2019. [21] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach, 2019. ## A テキストデータ Fed の金融政策を理解するためのテキスト情報を詳述する. Fed が公表するデータは,アーカイブされているため過去の情報を取得できる。しかし,公表される形式が年代によって異なるため,データ収集は困難であり,またデータを分析しやすい形に整える必要がある. FOMC 声明文: FOMC 開催日に即日公表される。経済,物価に対する評価,金融政策の変更の有無等の基本的な決定事項が簡潔に記載されている. 注目すべきテキスト情報としては,決定に対して反対した人の主張が記載されている。また, 声明文公表の 30 分後に FRB 議長の記者会見が行われる。 ベージュブック(地区連銀経済報告):各地区連銀の管轄地域の経済状況をまとめたものであり,FOMC の 2 週間前に公開される。 FOMC での議論の材料になることから,次の FOMC の結果を推測する材料の 1 つとなっている. FOMC 議事録: FOMC での議論と公式見解が記述された資料であり,FOMCの 3 週間後に公開される。したがって情報の即時性はないが,記載内容の半分以上がメンバーの議論となっており,景気見通しの議論や金融政策の是非についての議論などが含まれるため,非常に良質なデータである. Monetary Policy Report to the Congress: 翌々年までの経済見通しと金融政策の基本方針が記載されている資料であり,年 2 回公表される.この報告書は, 議会に提出される際, FOMC 議長は議会証言を行うが,こちらの内容は文書化され一般に公表される。 その他: 理事や地区連銀総裁は,様々な場で発言を行う。これらの要人発言は,FOMC での決定を予想するのに非常に重要な情報源となる。 ニュースデータなどの活用ができれば理想的であるが,分析可能な公開データは限定的である.また,ブラックアウト期間という金融政策に関して踏み込んだ発言が禁じられる期間が各国で設けられている。その中でも米国は,このブラックアウト期間が長く, 現在は FOMC が開催される前々週の土曜日から FOMC 終了時までがその期間となっている. 図 1 テキストデータの公開されるタイミング FOMC を中心に,テキストデータの公開されるタイミングを図 1 に示す.FOMC は年 8 回行われるため,年に 8 回このサイクルを繰り返す. ## B 分類モデル作成の実験設定 テキストは 2015 年から 2022 年の期間のデータを使用し,ラベル付けデータを学習 (training), 評価 (validation),テスト (test)の 3 つに分けて実験を行った. 2021 年以降の 2 年分のデータをテストデー タとし, 評価データは 2020 年 12 月 31 日に近いものを各ラベルの割合が均等になるように各 60 文ずつ抽出したものを使用した. そして,残りのラベル付けしたデータを学習データに使用した. 表 1 に各データのラベルがどの程度であるかを示す. なお, ラベルが均等になるようにバッチデータを作成し, モデルの学習を行った。 ファインチューニングに使用した事前学習済みモデルに関しては, finBERT[20] ${ }^{8}, \operatorname{RoBERTa}[21]^{9)}$ で比較検証を行った.比較した結果,RoBERTa モデルの方が良好な結果が得られた. RoBERTa モデルの学習過程における精度の推移を図 2 に示す。 表 1 各データのラベル 図 2 学習過程における精度の推移 8) https://huggingface.co/ProsusAI/finbert 9) https://huggingface.co/roberta-large
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D10-5.pdf
# 監査上の主要な検討事項 (KAM) の前例踏襲の程度に関する 業種別及び監査法人別の傾向分析 土井惟成 株式会社日本取引所グループ n-doi@jpx.co.jp ## 概要 KAM(Key Audit Matters)とは,監査報告書の記載項目の一つであり,財務諸表の監査において,監査人が職業専門家として特に重要であると判断した事項を指すKKAMに関する制度的な懸念として,各上場会社の KAM の内容が定型化又は画一化する事象がある. 本研究では, 2021 年 3 月期と 2022 年 3 月期における各上場会社の KAM を対象に, 前例踏襲の程度に関する傾向を分析した. 実験の結果,各上場会社の業種や監査人の所属する監査法人によって,KAM の類似性の傾向の差異が示唆された. ## 1 はじめに 上場会社は,年に一度,有価証券報告書を作成し,金融庁に提出する義務を負っている。また,有価証券報告書中の財務諸表等は,監査人による監査証明が必要とされている. 有価証券報告書及び監査人による監査報告書は,金融庁の EDINET ${ }^{1)}$ を通じて開示されている. 2021 年 3 月期以降の監査報告書では,「監査上の主要な検討事項(Key Audit Matters,以下 $\mathrm{KAM})\lrcorner$ の記載が原則として求められている。 KAM とは,監査報告書の記載項目の一つであり,財務諸表の監査において,監査人が職業専門家として特に重要だと判断した事項を指す.KAM 等の位置付けの概要を図 1 に示す。 KAM に関する制度的な懸念として,各上場会社の KAM の記載内容が定型化又は画一化してしまう現象,いわゆる「ボイラープレート化」が挙げられる. KAM の有益性の確保には,その記載において,「定型化,画一化を避けるべき」であると金融庁の資料で述べられている [2]. KAM のボイラープレー 卜化には,大きく 2 通りの傾向が知られており,各上場会社の記載が経年変化せずに固定化した内容と  図 $1 \mathrm{KAM}$ 等の位置付けの概要 (先行研究 [1] より引用) なる状態を「縦のボイラープレート化」,各上場会社の記載が横並びで似通った内容となる状態を「横のボイラープレート化」と呼ぶ [3]. 先行研究では,縦のボイラープレート化に関する計量的な分析が行われている $[2,4]$ ほか,監査人が所属する監査法人単位による横のボイラープレート化の傾向に関する分析 [1] が行われている. しかしながら,業種別に見た傾向の分析は限られている. そこで,本研究では,2021 年 3 月期と 2022 年 3 月期における各上場会社の KAMを対象として,業種別に縦のボイラープレート化の傾向を分析した.具体的には,各上場会社の KAMのテキストから単語頻度に基づくべクトルを 2 年分算出し,これらのコサイン類似度を縦のボイラープレート化の指標として見なした。そして,業種別の類似度の傾向を,統計的な手法を用いて分析した. また,先行研究 [1] より,横のボイラープレート化について監査法人単位での傾向が確認できたことから,本研究では縦のボイラープレート化に関する監査法人別の傾向を分析した. ## 2 関連研究 本章では,KAM のボイラープレート化に関する計量的な研究について述べる. 先行研究 [1] では, 横のボイラープレート化の傾向を分析し,トピックモデルを用いて,監査人が所属する監査法人単位での KAM の類似性を検証した。監査法人間の類似性を評価した実験では,「大手監査法人同士は,概ね類似度が低い」という示唆が得られた. また,著者推定により KAM の類似性を評価した実験では,「大手監査法人の推定精度は,準大手監査法人の推定精度よりも高い」という示唆が得られた。 金融庁 [2] は, 縦のボイラープレート化の傾向を分析し,2020 年度に KAMを早期適用した後に監査人を変更した 1 社を除く 47 社の上場会社について, 2020 年度と 2021 年度の KAM の類似性を算出した。類似度の指標にはレーベンシュタイン距離を用いた. 分析の結果,類似度が 75\%以上となったのは 9 社(全体の約 18\%)であり,2つの監査法人の KAM の類似度の平均値と最大値は,他の監査法人のそれよりも高い傾向にあった. あずさ監査法人 [4] もまた,縦のボイラープレー 卜化の傾向を分析し, 非上場会社 231 社を含む 2,552 社について,2021 年 3 月期と 2022 年 3 月期の KAM の類似性を算出した.類似度の指標は,名詞頻度のコサイン類似度である。分析の結果,類似度が $70 \%$未満の会社は約 $17 \%$ に過ぎず,95\%以上の会社は約 $36 \%$ であった.類似度が $95 \%$ 以上の会社群においては,『内容が前年と全く同じか,金額部分など一部が変わっただけであることを示す』と述べられている. ## 3 分析用データセット 本章では,本研究に用いた KAM のデータセット (以下,本データセット)の作成手法や統計情報等について説明する。 ## $3.1 \quad K A M$ の概要 有価証券報告書に添付される監査報告書には,「当期連結財務諸表に対する監査報告書」と「当期財務諸表に対する監査報告書」がある.本稿では,「当期連結財務諸表に対する監査報告書」のKAMを 「連結 KAM」,「当期財務諸表に対する監查報告書」 の KAMを「単体 $\mathrm{KAM} \perp$ と呼ぶ. 1 つの KAM は,「タイトル」,「監査上の主要な検討事項の内容及び決定理由(以下,内容及び決定理由)」,「監査上の対応」で構成されており,1 社につき複数の KAM が記載されることもある。 本研究では,KAM の前例踏襲の程度を分析するため,「内容及び決定理由」と「監査上の対応」について,前年度からの類似度の傾向を分析した。 ## $3.2 \mathrm{KAM$ の収集} KAM の前例踏襲の程度に関する傾向を分析するため,連結 KAM のテキストを集約したデータセットを作成した. 本データセットに用いた文書は, 2021 年 3 月期と 2022 年 3 月期の,各上場会社の直近の有価証券報告書における「当期連結財務諸表に対する監査報告書」とした。 なお,監査報告書の収集に当たっては,EDINET APIを利用した.これらの監査報告書を対象に「「内容及び決定理由」と「監査上の対応」のそれぞれに相応する XBRL タグを参照することで,各上場会社の KAM を抽出した. 複数の KAM が含まれている場合は,1つのテキストとして連結した. また,分析の対象とする上場会社は,以下の条件を全て満たすものとした. - 2022 年 12 月末日時点で,東京証券取引所のプライム市場,スタンダード市場,グロース市場のいずれかに上場している内国会社 - 2021 年 3 月期と 2022 年 3 月期の有価証券報告書が,2022 年 6 月末日までに提出されている - 2021 年 3 月期と 2022 年 3 月期の監査報告書において,KAM が 1 件以上記載されている - 2021 年 3 月期と 2022 年 3 月期の監査報告書において,監査法人が同一である - 監査法人が次節に示す大手監查法人又は準大手監査法人である ## 3.3 監査法人によるフィルタリング 先行研究 [1] に倣い, 少数の上場会社しか監査していない監査法人を除外するため,大手監査法人又は準大手監查法人の KAM のみを抽出した.大手監査法人とは,「上場国内会社を概礼 100 社以上被監査会社として有し,かつ常勤の監査実施者が 1,000 名以上いる監査法人」を指し,準大手監査法人とは「大手監査法人に準ずる規模の監査法人」を指す [5]. この結果,本データセットに含まれる監査法人 は,下記の 9 監査法人となった. なお,以降では,各監査法人の名称は, A 法人から I 法人のいずれかに匿名化を施し, 大手監査法人は A 法人から D 法人,準大手監査法人は E 法人から I 法人とした. -大手監査法人 - 有限責任あずさ監査法人 - 有限責任監査法人トーマツ $-\mathrm{EY}$ 新日本有限責任監査法人 - PwC あらた有限責任監査法人 - 準大手監査法人 - 仰星監査法人 - 三優監査法人 - 太陽有限責任監査法人 - 東陽監査法人 $-\mathrm{PwC}$ 京都監査法人 ## 3.4 業種情報の付与 業種別による傾向の差異を分析するため,各上場会社に対して 17 業種区分に基づくラベルを付与した. 17 業種区分とは,証券コード協議会が「業種別分類に関する取扱い要領」[6] に基づいて各上場会社を分類する 33 種類の業種(以下,33 業種区分) を,17 業種に集約したものである [7]. 17 業種の内訳は,4 章の実験結果と併せて付録 $\mathrm{A}$ の表 4 に示す. なお,上場会社の 33 業種区分は,「業種別分類に関する取扱い要領」に定める所属業種変更基準に該当すると,変更となることがあり,これに応じて 17 業種区分も変更することがある. 本データセットの業種は, 2022 年 12 月末日時点の業種に統一した. ## 3.5 本データセットの統計情報 以上の手順によって,「内容及び決定理由」と「監查上の対応」のそれぞれについて,1,585社分のテキストを収集した。これらのテキストの単語数の分布を表 1 に示す。なお,単語数の算出には, MeCab[8]及び UniDic2 ${ }^{2}$ を使用した。 2) https://clrd.ninjal.ac.jp/unidic/ 図 2 本データセット全体の類似度の分布 ## 4 実験 ## 4.1 実験環境 本実験では,本データセットを利用し,「内容及び決定理由」と「監査上の対応」のそれぞれから, 2021 年 3 月期と 2022 年 3 月期の内容の類似度を算出し,その傾向を分析した.類似度には,あずさ監査法人の調査 [4] に倣い, KAM のテキストにおける単語の出現頻度から作成したべクトルのコサイン類似度を使用した. ただし, 抽出した品詞は, 先行研究 [1] に倣い, 名詞, 動詞, 形容詞, 副詞とした. また,業種と監査法人による傾向の差異の有無を確認するため,「内容及び決定理由」と「監査上の対応」の各類似度を対象に,業種と監査法人による一次元配置分散分析を行った. 更に,差異がある業種及び監査法人を確認するため, 事後検定を行った. ## 4.2 実験結果及び考察 「内容及び決定理由」と「監査上の対応」のそれぞれの類似度の分布を,図 2 に示す。また,これらの類似度の一覧を,付録 A の表 4 及び表 5 に示す。 「内容及び決定理由」の類似度が 95\%以上の場会社は 638 社(約 $40.3 \%$ ),「監査上の対応」の類似度が $95 \%$ 以上の上場会社は 813 社(約 $51.3 \%$ )だった. この結果は, あずさ監査法人の調査結果 [4] の傾向とも合致する,なお,「内容及び決定理由」と「監查上の対応」の類似度に対する $\mathrm{t}$ 検定の結果,「監 表 2 事後検定で有意差が確認できた業種 査上の対応」の方が有意に類似度が高かった( $\mathrm{p}$ 値 <0.001). 従って,「監査上の対応」の方が,縦のボイラープレート化がより生じている。この理由として,「内容及び決定理由」は外的要因により毎年の記載内容が変わりやすいものの,それらに応じた対応には大きな変化は生じにくく,「監査上の対応」 の内容は前例踏襲になりやすいことが考えられる。 以下では,業種別の類似度の傾向と,監査法人別の類似度の傾向について,それぞれ述べる。 ## 4.2.1 業種別の類似度の傾向 「内容及び決定理由」の類似度一次元配置分散分析の結果, $\mathrm{p}$ 值は 0.001 未満だった. 従って, 本データセットの「内容及び決定理由」には,業種間の類似度の平均值に有意差があると解釈できる。 そして,事後検定を行い,有意水準 $5 \%$ の下で有意差が確認できた業種の組み合わせを抽出し,表 2 のとおり,類似度の高い業種と低い業種に分類した. 類似度の低い業種群におけるどの業種も,「15 銀行」との有意差が認められており,付録 A の表 4 から「15 銀行」は「内容及び決定理由」の平均值が最も大きい業種であることを踏まえると,業種が $「 15$ 銀行」の上場会社は特に前例踏襲の程度が強いと言える。以上から,「内容及び決定理由」の類似度は,業種による傾向の差異があると言える。 「監査上の対応」の類似度一次元配置分散分析の結果, p 値は 0.001 未満だった. 従って,「監査上の対応」も,業種間の類似度の平均值に有意差があると解釈できる. しかしながら,事後検定を行い,有意水準 $5 \%$ の下で有意差が確認できた業種の組み合わせを抽出したところ,このような組み合わせは「03 建設・資材」と「10 情報通信・サービスその他」(p 値: 0.006) しか無かった. 従って,「監査上の対応」における業種別の類似度の差異は,「内容及び決定理由」よりも小さいと言える. また,特筆すべき点として,「03 建設・資材」は,「内容及び決定理由」では類似度が低い業種群に含まれていたところ,「監査上の対応」では類似度が高い傾向がある.以上から,同一の業種であっても,「内容及び決定理由」と「監査上の対応」では,異なる傾向が示され得るという示唆が得られた。 ## 4.2.2 監査法人別の類似度の傾向 「内容及び決定理由」の類似度一次元配置分散分析の結果, $\mathrm{p}$ 值が 0.001 だった. 従って, 本データセットの「内容及び決定理由」には,監査法人間の類似度の平均値に有意差があると解釈できる。 そして,事後検定を行い,有意水準 $5 \%$ の下で有意差が確認できた監査法人の組み合わせを抽出した.これに対して,表 3 に示すとおり,類似度の高い監査法人と類似度の低い監査法人に分類したところ,類似度の低い監査法人は全て準大手監査法人 G 法人となり,大手監査法人は類似度が高い傾向が見受けられた。以上から,「内容及び決定理由」の類似度は,監査法人による傾向の差異があると言える。 「監査上の対応」の類似度一次元配置分散分析の結果, $\mathrm{p}$ 値は 0.087 と,有意水準 $5 \%$ の下で有意差が確認できなかった. 従って,「監査上の対応」には,監査法人による傾向の差異があると言えない。 ## 5 おわりに 本研究では,2021 年 3 月期と 2022 年 3 月期における各上場会社の KAMを対象に,前例踏襲の程度に関する傾向を分析した. 実験の結果,上場会社の業種や監査人の所属する監査法人によって,KAM の「内容及び決定理由」と「監査上の対応」のそれぞれについて,類似性の傾向が異なることが示唆された. 今後の課題としては,類似度の傾向差異の要因に関する詳細な分析や,より広範な上場会社又はより長期的な期間を対象とした分析が挙げられる. ## 参考文献 [1] 土井惟成. トピックモデルによる監査上の主要な検討事項(KAM)の類似性の検証. 人間科学とコンピュー タシンポジウム 2022 論文集, pp. 199-206, 122022. [2] 金融庁. 監査上の主要な検討事項 (KAM) の特徴的な事例と記載のポイント, 2022. https://www.fsa.go. jp/news/r3/sonota/20220304-2/01.pdf. [3] 公益社団法人日本監査役協会会計委員会. 監査上の主要な検討事項(KAM)の強制適用初年度における検討プロセスに対する監査役等の関与について, 2021. https://www.kansa.or.jp/wp-content/ uploads/2021/12/el001_211220a_2.pdf. [4] 森国司. 監査の重要項目「KAM」、企業 4 割で前例踏襲. 日本経済新聞社, 2022. https://www.nikkei.com/ article/DGKKZ064673390X20C22A9DTA000/. [5] 公認会計士・監査審査会. 令和 4 年版モニタリングレポート, 2022. https://www.fsa.go.jp/cpaaob/shinsakensa/ kouhyou/20220715/2022_monitoring_report.pdf. [6] 証券コード協議会. 業種別分類に関する取扱い要領, 2007. https://www.jpx.co.jp/sicc/sectors/ nlsgeu00000329wk-att/category2.pdf. [7] 株式会社 JPX 総研. 東証指数算出要領 (東証業種別株価指数・TOPIX-17 シリーズ編),2022.https://www.jpx.co.jp/markets/indices/ line-up/files/cal2_13_sector.pdf. [8] Taku. Kudo. Mecab : Yet another part-of-speech and morphological analyzer. http://mecab.sourceforge.net/, 2005. ## A 業種別及び監査法人別の類似度の一覧 表 4 業種別の類似度の一覧 表 5 監査法人別の類似度の一覧
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D11-1.pdf
# 金融テキストからの類似文の自動収集 吉野綾音酒井浩之永並健吾 成蹊大学 理工学部 情報科学科 us192136@cc.seikei.ac.jp, \{h-sakai, kengo-enami\}@st.seikei.ac.jp ## 概要 本研究では有価証券報告書データから類似文を自動的に収集する手法を提案する. タグと文末表現が一致する文ぺアの中で, 単語の TFIDF 値を要素とした単語ベクトルから求めた $\cos$ 類似度とレーベンシュタイン距離との調和平均を算出し, 類似文を収集する. 収集した類似文を学習データとして Sentence-BERT で学習モデルを作成し, その学習モデルによる決算短信からの業績要因文の抽出により, 収集した類似文を評価した. ## 1. はじめに 近年, ビッグデータの活用やテキストマイニング技術などテキストデータの有効利用が注目されている. テキストマイニングには多くのテキストデータが必要であるが,学習データ等はまだ手動で作成, 収集を行なっていることも多い. 特に類似文のペアは様々な言語処理に活用できる. 例えば, 類似文からは言い換え表現の獲得ができる. また, 高精度な文べクトルを生成する手法である Sentence-BERT[1]において, 類似文のぺアを学習データとして使用している. その一方で, 類似文のペアの作成は人手で行っていることがほとんどであり, 大量のデータを用意できないのが現状である. 類似文を自動的に収集することができれば, データ作成の労力を大きく抑えられる. また,自動収集によって多くの類似文ぺアのデータが入手できるため, 言い換え表現の獲得や Sentence-BERT など類似文を利用する様々な技術で役立つと考える. そこで本研究では, 類似した内容の多い金融テキストから, 類似文のぺアを自動的に収集することを目的とする. 金融テキストは企業から毎年発行されるが, 同じ企業が発行している金融テキストに記載される内容はほぼ同じことが多い. そのため, 類似した文のペアが含まれると考えられる. 本研究では, そ のような金融テキストの性質を利用して,類似文のぺアを自動的に収集することを目的とする. これまでに金融テキストからの情報抽出に関してはいくつかの研究が行われている[2][3][4]. 文献[2]では, 決算短信から手がかり表現と企業キーワードを獲得し, 業績要因文を抽出している. 文献[3]では, 手がかり表現を拡張して学習データを自動的に作成し, 深層学習によって有価証券報告書から業績要因文を抽出している。文献[4]では, [3]と同様に学習データを自動的に作成し,深層学習によって決算短信から業績要因文を抽出している.いずれも決算短信や有価証券報告書から業績要因文を抽出する手法を提案している.これらの研究に対して, 本研究では金融テキストとして有価証券報告書を対象とし, 業績要因文に限らず,文書内の類似文をすべて収集する. 言い換え表現の獲得に関する研究は文献[5][6][7]がある. 文献[6]では多言語パラレルコーパスを利用した言い換え表現の判定, 収集であり, 本研究では文全体での類似した文を収集するという点が異なる. 類似した文のペアには表現の言い換えによって類似している文も含まれており, 本研究で収集した類似文から言い換え表現の獲得を行うことも可能である. 文献 [7]では同義語のグラフを構築し,グラフをもとにペアワイズ類似度を計算, 単語単位の類似度を合計して文同士の類似度を測る手法を提案している. 本研究では, $\cos$ 類似度とレ一ベンシュタイン距離を組み合わせて文同士の類似度を算出し,類似文を収集するといら点に違いがある. 日本語の Sentence-BERTに関しては文献[8]がある. この研究ではスタンフォード NLI コーパスを日本語に翻訳し, BLEU のスコアとクラウドソーシングを利用することで類似文を収集している. 本研究では金融テキストから類似文を自動的に収集する点が異なるが,収集した類似文は金融に特化しており,金融テキストを対象とした研究においては精度の向上が望めるという違いがある. ## 2. 提案手法 本提案手法は以下の 4 つの Step で構成される. Step 1: 有価証券報告書データから, 文末表現が一致する文を抽出 Step 2: Step1 で抽出された文において, 2つの文の類似度を単語の TFIDF 値を要素とする単語ベクトルによる $\cos$ 類似度を算出 Step 3: Step1 で抽出された文において, 2つの文の正規化レーベンシュタイン距離を算出 Step 4: $\cos$ 類似度と正規化レーベンシュタイン距離の調和平均を算出し, 調和平均が閾値より高い 2 つの文を類似文として収集 ## 2. 1 金融テキスト 本研究で使用する金融テキストとして, 上場企業が発行している有価証券報告書を使用する. 有価証券報告書は EDINET ${ }^{1}$ から XBRL 形式のファイルで取得した 4593 社の有価証券報告書のテキストデータを使用する. XBRL 形式のテキストデータには文ごとに文の内容を示すタグが付与されている.タグは全部で 479 種類であった. 例えば「BusinessRisksTextBlock」タグは,「そのような研究開発活動の停滞により、当社グループの業績が悪影響を受ける可能性があります。」のような事業リスクに関する文に付与されている. タグが同じ文は内容が近しいと考えられるため, 同じ企業の同じタグを持つ文を比較する。 ## 2. 2 文末表現による類似文候補の取得 文末文節と,その文末文節に係る文節を結合した文字列を文末表現とし, 文末表現が一致する文を抽出する. 文末表現を得るための係り受け解析には Cabocha[9]を利用した. 内容が近い文ぺアは文末表現が一致すると考えられるため, 同一のタグをもち, かつ,文末表現が一致する 2 つ文を類似文候補として抽出する.しかし,これだけでは図1のように類似文として不適切な文ぺアが多く抽出されるため, 文間の類似度を求めることで, 類似文として不適切な文ぺアを除去する.社会全般にわたる重大な品質問題など、当社グル ープの取り組みの範囲を超えた事象が発生した場合には、業績に影響を及ぼす可能性があります。販売量・単価共にこの季節変動及び気候・天候条件に影響を受け易く、その変動が大きい場合は、業績に影響を及ぼす可能性があります。 図 1 類似文として不適切な文ぺアの例 ## 2. 3 類似文の判定 抽出された類似文候補の 2 文間の類似度を求め, 類似文として不適切な文ぺアを除去する。ここで,類似度は文に含まれる単語の TF・IDF 值を要素とする単語べタトルの $\cos$ 類似度を用いる. 以下の式を用いてある企業における単語 $a$ の TF・IDF 値を求める. $ T F(a, x)=\frac{\text { 文 } x \text { における単語 } a \text { の出現頻度 }}{\text { 文 } x \text { における全単語の出現頻度の和 }} $ $ T F \cdot I D F(a, x)=T F(a, x) \times \log \left(\frac{N}{\text { 単語 } a \text { を含む文の数 }}\right) $ ここで, $\mathrm{N}$ はある企業が発行している有価証券報告書の集合における文の総数である. $\mathrm{TF}$ IDF 值で文の単語ベクトルを生成し, 単語ベクトルによる文間の $\cos$ 類似度を求める. $\cos$ 類似度が高い文ぺアを類似文とすることで,不適切な文ぺアを除去する. 本研究では全く同じ文や数字だけが異なる文ではなく, 内容は類似していながら表現の異なる文を類似文として収集したい. しかし, タグと文末表現の一致と $\cos$類似度による収集では, 内容が類似している文ではあるものの, 表現の異なる文の収集ができない. そこで本研究では類似度の判定として, $\cos$ 類似度に加え正規化レーベンシュタイン距離を利用する.レーベンシュタイン距離とは編集距離のことで, 1 文字の挿入・削除・置換で,一方の文字列をもう一方に変形するために必要な手順の最小回数を表す。 本手法では, $\cos$ 類似度と正規化レーベンシュタイン距離の調和平均が大きい文ぺアを類似文として判定する. 本来, レーベンシュタイン距離が小さいとき文同士は類似していることになるが,本手法では大きいものを収集した. なぜなら, 文間類似度を表す $\cos$ 類似度と,編集にかかるコストを表すレーベンシュタイン距離がとも ^{1} \mathrm{https}$ ://disclosure.edinet-fsa.go.jp/ } に大きい文ぺアを抽出することで,同じ単語を異なる配置で使っている文を類似文として獲得できると考えるためである. $\cos$ 類似度と正規化レーベンシュタイン距離の調和平均の閾値は 0.5 以上とした. 本手法により 401,347 ペアの類似文を収集した. 本手法による類似文として判定された文ぺアの例を以下に示す. 花種子につきましては、トルコギキョウやヒマワリの売上が伸びたことなどから、前期比増収となりました。花種子につきましては、為替の影響で欧州、南米では減収となりましたが、中国ではトルコギキョウ、北米ではヒマワリやトルコギキョウなどが好調に推移したことから、前期比増収となりました。 図 2 本手法による収集した類似文の例 ## 3. 評価 本手法で収集した類似文を学習データとして Sentence-BERT でモデルを生成し, 生成されたモデルを使用することで収集した類似文の評価を行う. 適切な類似文が収集できていれば,その類似文を学習データとして用いて作成したモデルは適切な文ベクトルを生成できる.ここで, 評価タスクとして決算短信からの業績要因文の抽出[2][4]を設定する.このモデルを利用して決算短信から業績要因文の抽出を行い, 抽出された業績要因文の精度, 再現率で評価する. 収集した類似文を用い, Sentence-BERT のモデルを生成する. なお, 学習データとして利用する非類似文は, 同じ企業の同じタグの文の中で最も $\cos$ 類似度が低いものを収集した. そして, 文献[4]の手法にて作成した学習用の業績要因文データと, テストデータである決算短信の文との類似度を, Sentence-BERT で学習したモデルを用いて求め, 学習用の業績要因文との類似度が高い文を決算短信から抽出する. 抽出された業績要因文の精度と再現率によって, 収集した類似文の適切性を評価する. 類似度の閾値により, 精度, 再現率, $\mathrm{F}$ 值が変化する. 表 1 に類似度の閾值における, 精度, 再現率, $\mathrm{F}$ 值を示す.表 1 評価結果 比較手法として, 以下の 2 種類の手法で収集した類似文で Sentence-BERT のモデルを学習し,比較した. 1) $\cos$ 類似度と正規化レーベンシュタイン距離の調和平均により抽出した類似文から,同一文字列が含まれる文ぺアを除いた類似文 2) $\cos$ 類似度のみで抽出した類似文 $\cos$ 類似度と正規化レーベンシュタイン距離の調和平均により抽出した類似文のデータには, 同一文字列が含まれる組み合わせが散見される. なるべく異なる表現の類似文を収集したいため,1)では同一文字列を含む文ぺアを除き学習データとした. 2)では, ベースラインとして $\cos$ 類似度のみで類似文の判定を行なった. 閾値は 1)と同様に 0.5 以上とした. 表 2 に比較手法の精度, 再現率, F 值を示す. 表2では, 各手法で $\mathrm{F}$值が最も大きい時の評価値を示した. 閾値は本手法では 0.54 の時, 1)では 0.70 の時, 2)では 0.71 の時の評価値である. 表 2 提案手法との比較 & \\ 本手法と比較手法において, 閾值を 0.01 ずつ変化させたときの精度, 再現率のグラフを示す. 図 3 提案手法と比較手法の評価結果 ## 4. 考察 金融テキストを利用した類似文の収集において,収集した類似文を用いて Sentence-BERT のモデルを学習した. そして, 作成されたモデルによって決算短信からの業績要因文の抽出を行い, その精度と再現率で収集した類似文の評価を行った. 類似度の閾値が 0.54 の時, 精度が $61 \%$, 再現率が $84 \%, \mathrm{~F}$ 値が 70.7 となった. 3 種類の手法によって収集した類似文ぺアで学習モデルを作成したが,本手法が最も良い結果が得られ,同一文字列を除く場合は精度が落ちた. 言い換えや内容の順番の入れ替えによる類似文とは言い難い同一文字列を含む文ぺアを除くことは精度向上につながると考えた。 しかし, 正規化レーベンシュタイン距離の値を考慮しても調和平均の值が大きく, 類似文として完全にノイズであるとはいえない. 類似文の総数が同一文字列を含む場合は約 40 万文, 含まない場合は約 38 万文となり, 同一文字列を含む文ぺアを除いたことによって学習デー タが少なくなり, それにより精度が落ちたと考える. さらに,本研究では類似文を自動的に収集しているため, データ量が膨大となり, すべての文ぺアを手作業で確認ができない,そのことから,同一文字列を含む文ぺアを除いた場合の学習データには, 例えば図 4 のようなノイズが含まれていた. 学習データが少なくなったことで,学習データにおけるノイズの影響が大きくなり, それにより精度が落ちたと考える.服飾資材関連では, スポーツアパレルメーカー向け付属品の売上高が増加しました 生活産業資材関連では, 映像機器向け付属品の売上高が増加しました 図 4 類似文として不適切な例 また, Sentence-BERT のモデルの作成の際に必要となる非類似文は,単純に最も $\cos$ 類似度が低くなる文にしたが,「あります」など極端に短い非類似文があり,そのような非類似文がノイズになったと考える。この非類似文の収集についても,含まれる文字数を考慮したり,レ一ベンシュタイン距離等を組み合わせたりすることで,精度の向上が目指せるのではないかと考える. 類似文の抽出では, 数字だけが異なる文の組み合わせを省くため,「円」や「\%」が含まれる文は類似文として取得しなかった.しかし,「名」「年」「株」「単元」なども単位として頻繁に使われている.これらの単語についてもノイズとして除くことで精度の向上に繋がる可能性がある.しかし, それによって「株式会社」や「当事業年度」などのよく使われる単語も省かれるため,金融テキストに特有の言い回しやよく使われる単語のリストを作成し,省く単語の適切な条件を設定する必要がある. ## 5. むすび 本研究では有価証券報告書データから類似文を収集する手法を提案した. 本手法では $\cos$ 類似度と正規化レーベンシュタイン距離との調和平均を算出し, 類似文を収集した。決算短信からの業績要因文の抽出による評価の結果, 精度が $61 \%$, 再現率が $84 \%$, F 值が 70.7 となり,同一文字列を含む文を除いた場合, $\cos$ 類似度のみの場合と比較して良好な結果を得ることができた。今後の課題として, 単位を含む文の除去, 文末, 文頭表現の一致の条件を適切に設定して精度を向上させたい. ## 参考文献 [1] Nils Reimers, Iryna Gurevych: "Sentence-BERT: Sentence Embeddings using Sia-mese BERTNetworks", Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pages 3982-3992, November 3-7, 2019. [2]酒井浩之, 西沢裕子, 松並祥吾, 坂地泰紀: “企業の決算短信 PDF からの業績要因の抽出”,人工知能学会論文誌, Vol. 30, No. 1, pp. 172-182, 2015 . [3] 高野海斗, 酒井浩之, 北島良三: “有価証券報告書からの事業セグメント付与された業績要因文・業績結果文の抽出”, 人工知能学会論文誌, Vol. 34, No. 5, p.wd-A_1-22, 2019. [4] 酒井浩之, 松下和暉, 北島良三: “学習デー夕の自動生成による決算短信からの業績要因文の抽出”, 日本知能情報ファジィ学会誌, Vol. 31, No. 2, pp. 653-661, 2019. [5] 乾健太郎, 藤田篤: “言い換え技術に関する研究動向”, 言語処理学会論文誌, Vol. 11, No. 5, pp. 151-198, 2004. [6] 柏岡秀紀: “多言語パラレルコーパスを利用した言い換え表現グループの構築と分析”, 言語処理学会論文誌, Vol. 11, No. 5, pp. 3-18, 2004. [7] Youhyun Shin, Yeonchan Ahn, Hyuntak Kim, Sanggoo Lee: “ Exploiting Synonymy to Measure Semantic Similarity of Sentences”, IMCOM 15: Proceedings of the 9th International Conference on Ubiquitous Information Management and Communication, No. 40, pp. 1-4, 2015. [8] Naoki Shibayam, Hiroyuki Shinnou: "Construction and Evaluation of Japanese Sentence-BERT Models”, In Proceedings of the 35th Pacific Asia Conference on Language, Information and Computation, pp. 731-738, 2021. [9] Taku Kudo, Yuji Matsumoto: "Fast Methods for Kernel-Based Text Analysis", Proceedings of the 41st Annual Meeting of the Association for Computational Linguistics, pp. 24-31, 2003.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D11-2.pdf
# 極性と重要度を考慮した決算短信からの業績要因文の抽出 大村和正 ${ }^{1}$ 白井穂乃 ${ }^{2}$ 石原 祥太郎 ${ }^{2}$ 澤 紀彦 ${ }^{2}$ 1 京都大学大学院情報学研究科 2 株式会社日本経済新聞社 omura@nlp.ist.i.kyoto-u.ac.jp \{hono.shirai, shotaro.ishihara, norihiko.sawa\}@nex.nikkei.com ## 概要 本稿では,極性と重要度を考慮した決算短信からの業績要因文の抽出手法を提案する。提案手法は 2 段階の学習データの自動生成から成り, 重要度を考慮した要因分類器の学習データと極性分類器の学習データを決算短信から生成する.これらの自動生成データにより, 業績要因文の抽出精度の改善と高精度な極性付与ができることを示す. また,中規模な評価データを人手で構築し,この再現ができるように必要な情報を公開する。 ## 1 はじめに ウェブ上には日久膨大なテキストデータが蓄積されており,それらを活用するための技術の需要が高まっている.その中でも,金融ドメインのテキストを対象としたマイニング手法は,投資支援や経済分析への応用が期待されることから近年盛んに研究されている [1]. 本研究では,このような金融テキストマイニングの 1 タスクである「決算短信からの業績要因文の抽出」に取り組む。 決算短信とは,上場企業が決算発表を行う際に開示する,当期の経営成績等をまとめた書類である (表 1 上段). 決算短信は企業動向をいち早く報じるものであるため,投資判断に欠かせない情報源である一方, 文章量が多く要点の把握には労力を要する.このため,投資判断の参考になる「業績変化の要因が記述された文 (業績要因文)」を自動抽出することができれば,投資支援として有用であると考えられる。このような背景のもと, 業績要因文の抽出に向けた手法は複数提案されてきた $[2,3,4,5,6]$.決算短信は原則再配布が認められていないためにオープンデータがなく, 注釈付けも多大な労力を要することから,いかに機械学習モデルの学習データを自動生成するかがひとつの争点となっている。例えば,酒井らは業績要因の手がかりとなる表現と各表 1 ある上場企業の決算短信と,それに対応する業績発表記事の例 (抜粋). ‥ 百貨店業での営業収益は 398,338 百万円 (前年同期比 31.4\%減)、営業損失は 16,863 百万円 (前年同期は営業利益 6,563 百万円) となりました。 国内百貨店におきましては、新型コロナウイル又感染症の拡大伴う緊急事態宣言の発出を受け、全店で食料品フロアを除く臨時休業を実施しました。 5 月末には全店で全館営業を再開いたしましたが、多くのお客様の来店を見込んだ営業施策や販売促進策の中止や開催方法の見直しをしたことに加充、外出を控える動きも依然強く、売上高は大きく減少いたしました。また、渡航制限で… 舞 $\cdots$ が 25 日発表した 2020 年 3 11 月期の連結決算で、最終損益は 243 億円の赤字 (前年同期は 164 億円の黒字)だった。新型コロナウイルスの感染拡大に伴う外出自肅やインバウンド (訪日外国人) 需要の大幅な落ち込みによる販売減少が響いた。… 企業にとって重要なキーワードを自動獲得し,それらをべースに学習データを生成している [5]. この手法は工程が若干複雑である点に難がある. これに対し,大村らは決算短信の要約記事である業績発表記事 (表 1 下段)を利用した,簡素なデータ生成手法を提案している [6]. この手法も決算短信に含まれる業績と無関係な記述 ${ }^{1)}$ が負例であることを十分に学習できないため,精度に改善の余地がある。 本研究では大村らの手法 [6] を拡張し, 学習デー タの生成を 2 段階にすることで,前述の問題に対処する。具体的には,業績発表記事から生成した学習データで分類器を訓練し,それを用いて決算短信に擬似ラベルを付与することで,よりタスクに適応した学習データを生成する。これにより,業績要因文の抽出精度が改善することを示す. また,この拡張に乗じて,実応用での需要が高い極性 ${ }^{2}$ や重要度の付与が可能となるようにデータ生成を工夫する.具体的には,疑似ラベルを付与する際に重要度を考慮したスコアを付与し,これと並行 1)「〜は以下のとおりとなりました。」といった注記など. 2)その要因による売上高や利益の増減の向きを指す。 して極性分類器の学習データを生成する。これにより, 重要度の予測は改善の余地があるものの, 高精度な極性付与ができることを示す。極性や重要度を考慮する手法はこれまでにも個別に提案されてきた $[7,8,9]$ が,総合的に扱う点が差分である. 本研究のもう一つの貢献として,中規模な評価データを人手で構築し, この再現に必要な情報を公開する ${ }^{3)}$. 評価データはそのまま公開できないため, 注釈と決算短信の取得元の情報から評価データが再現できるように整備を進める. ## 2 タスク設定 本研究の対象を明確にするため,決算短信に含まれる文を以下のように分類定義する。 業績文当期の業績変化のみを述べた文 暗黙的な業績要因文文内で当期の業績変化と紐付いていないが,要因であると判断される文 明示的な業績要因文文内で当期の業績変化とその要因が述べられた文 その他上記のいずれにも該当しない文 例えば,表 1 上段において,1文目は業績文である. また,2 文目は「全店で食料品フロアを除く臨時休業を実施」という要因が述べられているものの,業績変化と紐付いていないため,暗黙的な業績要因文である. さらに,3 文目は「売上高は大きく減少」 という業績変化とその要因が述べられているため,明示的な業績要因文である. 本研究では,決算短信に含まれる各文が「明示的または暗黙的な業績要因文であるか否か」を判定する 2 値分類タスクとして定式化する。なお,財政状態や将来予測に関する記述 $[10,11]$ は対象外とする.以降,この 2 值分類タスクを「要因分類」,明示的または暗黙的な業績要因文を「正例」,そうでない文を「負例」と呼ぶ. ## 3 提案手法 提案手法は図 1 のように 2 段階の学習データの自動生成から成る. ## 3.1 第 1 段階 大村らの手法 [6] に従って業績発表記事から学習データを生成する,具体的には,業績発表記事から数字を含む文を業績文 (負例),含まない文を暗黙的  図 1 提案手法の概要図. な業績要因文 (正例) として抽出する。また,記事の第 1 段落から抽出した暗黙的な業績要因文と業績文を適当な接続詞でつなぐことで明示的な業績要因文を生成し,これを正例として加える。 ヒューリスティックの導入決算短信には業績と無関係な記述1) が多く含まれる. そのような記述によく見られる文体の文が負例であると学習させるため,以下のいずれかの条件を満たす文のラベルを 「負例」に上書きする。 ・末尾の文節が過去形または体言止めでない ・末尾の節の意志性が強い 1 点目は将来予測に関する記述等を,2 点目は「〜 に努めました。」のような定性的だが業績変化との因果関係が曖昧な文を想定したものである。 最後に,生成したデータを用いて,入力文が正例である確率を予測する要因分類器を訓練する。 ## 3.2 第 2 段階 重要度を考慮した要因分類器の学習データと極性分類器の学習データを決算短信から生成する. 重要度を考慮した要因分類器の学習データ第 1 段階で訓練した要因分類器を使用し, 決算短信から抽出した各文に重要度を考慮したスコア $(\in[0,1])$ を付与することで生成する. 手順を以下に示す. 1. 要因分類器の予測確率が 0.8 以上である文を正例, 0.2 以下である文を負例として抽出し,それ以外の文を除外する。 2. 負例の文はスコア 0 をラベルとする. 3. 正例の文は,それが抽出元の決算短信において冒頭から $i$ 番目の正例の文であるというメタ情報をもとに,以下の計算式で算出されるスコアをラベルとする. $ \operatorname{score}(i)=\max (1.0-0.02 \times i, 0.8) $ 決算短信には「企業全体の概況 $\rightarrow$ 主力事業の概況 $\rightarrow$ その他事業の概況」という談話構造がよく見られ,冒頭に近いほど重要な要因である可能性が高いことを 3 の計算式に反映している. 極性分類器の学習データ Saito らの手法 [12] を参考に以下の手順で生成する. 1.「増収」や「減益」など,業績変化の極性を強く表すシード語彙を人手で策定する. 2. シード語彙を含み,それと「原因・理由」または「逆接」の談話関係を表す談話標識で接続される節の組を取得する。 3. シード語彙を含む節はそれにもとづく極性を, それと接続される節は談話関係にもとづいて伝播される極性をラベルとする。 最後に,生成した 2 つのデータを用いて,入力文のスコア (=重要度) を予測する要因分類器と極性分類器を訓練する.極性と重要度を同時に予測する分類器の構築は今後の課題である. ## 4 実験 提案手法の有効性を検証するために実験を行う. オープンデータは存在しないため,評価データは人手で構築し,学習データは自動生成する。 ## 4.1 評価データの構築 まず,株式会社日本経済新聞社が提供するニュー ス配信サービス「日経電子版」)における業界分類5) 亿従って, 各業界 10 企業ずつ計 150 件の決算短信を人手で収集した. 対象期間は 2021 年 4 月から 2022 年 4 月までの 1 年間とした. 続いて,各決算短信 PDF から四半期決算に関する定性的情報が記述されたテキストを抽出し ${ }^{6)}$ ,正規  表 2 評価データの統計. 表 3 学習データの統計. 要因分類器の学習データは負例に偏っていたため, 5 万文ずつに絞っている. また,「正例」は 0.8 以上のスコアが付与された文を指す. 表現ベースの文分割処理7)を適用した.こうして得られた各文に著者らが人手で注釈付けを行い,3人以上の合意があったラベルに集約した。 また,正例と評価された文はその極性と重要度も付与した.極性はポジティブ・ネガティブ・判別不能のいずれかを,重要度は決算短信 1 件につき最大 3 文まで重要文を主観で決め,重要文であるか否かを付与した。 最後に,2:8 に分割して開発データとテストデー タを構築した。評価データの統計を表 2 に示す.この再現に必要な情報は公開する. ## 4.2 学習データの生成 業績発表記事の取得提案手法の第 1 段階で使用する業績発表記事は「日経電子版」4) から取得した。具体的には, 2018 年 1 月から 2021 年 1 月までの 3 年間を対象とし,メタデータのトピック情報に「企業決算」ラベルが付与されているものを取得した.この結果,上場企業 1,023 社の業績発表記事を計 3,322 件取得した。また,総文数は 43,893 文であった。 決算短信の取得ベースラインおよび提案手法の第 2 段階で使用する決算短信はウェブから自動収集した. 業績発表記事の取得時と同様に,2018年 1 月から 2021 年 1 月までの 3 年間を対象とした. この結果, 上場企業 3,653 社の決算短信を計 31,771 件取得した. 取得された PDF に対し, 4.1 節と同様に文を抽出した結果,総文数は 574,000 文であった。 提案手法 3 節の手法に従って学習データを生成した。過去形または体言止めであるか否かの判別と節間の談話関係の認識は,構文解析器 $\mathrm{KNP}^{8}$ [13] が 7) https://github.com/ku-nlp/python-textformatting 8) https://github.com/ku-nlp/knp 表 4 テストデータに対する実験結果. 異なる 3 つのシード値で fine-tuning した結果の平均と標準偏差を記載している.「ヒューリスティックのみ」は,3.1 節の条件を満たさない文を全て「正例」とした時の精度である. & & & \\ 付与する言語素性をもとに自動で行った. また,意志性の判別は, Kiyomaru \& Kurohashi の手法 [14] に従って構築された意志性分類器を使用し,スコア $(\in[0,1])$ が 0.3 以上のものを意志性が強いとみなした. 生成したデータの統計を表 3 に示す. ベースライン手がかり表現と企業キーワードによる業績要因文の抽出手法 [5] をべースラインとした. 手法に従って正例 85,241 文, 負例 75,175 文から成る学習データを生成した. また, 3.1 節のヒュー リスティックの有無による精度の変化も調査した. ## 4.3 モデルの訓練・評価 分類器のモデルはいずれも RoBERTa [15] を採用した. 事前学習モデルは早稲田大学が公開している日本語 RoBERTa base モデル)を使用した. 要因分類分類器の性能を $\mathrm{F}$ 値で評価した. ベー スライン・提案手法ともにモデルが過学習する傾向が見られたため,開発データに対する $\mathrm{F}$ 值をステップごとに測り,F 値が最大となるステップのパラメータでテストデータに対する性能を評価した。 重要度の予測精度は重要文の正解率として評価し,以下の手順で算出した。 1. 決算短信ごとに各文の予測値を出す. 2. 各決算短信の重要文の数 $N_{i}$ を既知として,予測值上位 $N_{i}$ 文を取得する. 3. $N_{i}$ 文のうち, 実際に重要文であった数 $M_{i}$ を求め, $\sum_{i} M_{i} / \sum_{i} N_{i}$ を正解率として計算する. 極性分類表 2 の評価データのうち,正例かつポジティブまたはネガティブのラベルが付与されたものに対して, 分類器の性能を $\mathrm{F}$ 值で評価した. 開発データに対する $\mathrm{F}$ 值が最大となるエポックのパラメータでテストデータに対する性能を評価した。 9) https://huggingface.co/nlp-waseda/ roberta-base-japanese ## 4.4 実験結果・定性的分析 テストデータに対する実験結果を表 4 に示す. 誤分類の実例は付録を参照されたい. 要因分類提案手法について,疑似ラベルによる全体的な性能の改善が見られる。 また, ベースライン・提案手法ともにヒューリスティックを導入することで適合率が大きく向上している. 決算短信に含まれる業績と無関係な記述が負例であることを十分に学習させることが重要だと考えられる. 定性的分析では,経済や景気について述べた文を正例だと誤分類する傾向が見られた. 主語の大きさに着目するような工夫が必要だと考えられる。 重要度の予測重要文の正解率は提案手法による改善が見られるが,依然として精度が低い. 文脈を見ないと企業全体・主力事業・その他事業のいずれについて述べているか判別できない文が多いことが原因として挙げられる. 文章単位での解析に拡張すること,疑似ラベルを付与する際に各文が対象とする事業セグメントを解析し [16],それをもとにスコアを付与することを検討する。 極性分類 $\mathrm{F}$ 値は 95.9, 89.2 と比較的高い精度に達している. 定性的分析では「赤字幅が減少」といった極性が反転する表現も正しく解析できていた一方,数量推論やドメイン知識が必要な文を誤分類する傾向が見られた. シード語彙に「前四半期比〜\%」といった定量表現を加えることを検討する。 ## 5 おわりに 本稿では極性と重要度を考慮した決算短信からの業績要因文の抽出手法を提案した. 今後は極性と重要度の同時学習や重要度の予測精度の改善, そして構築した分類器とテキスト生成モデルを組み合わせた決算短信の要約記事の自動生成などを検討する。 ## 謝辞 再現実験にご協力いただき,精度改善についてご助言を頂いた中間康文さんに感謝いたします。 ## 参考文献 [1] 坂地泰紀, 和泉潔, 酒井浩之. 金融・経済ドメインを対象とした言語処理. 自然言語処理, Vol. 27, No. 4, pp. 951-955, 2020. [2] 西沢裕子, 酒井浩之. 企業の決算短信 pdf からの業績要因の自動抽出. 電子情報通信学会技術研究報告 $=$ IEICE technical report : 信学技報, 2013 . [3] 酒井浩之, 西沢裕子, 松並祥吾, 坂地泰紀. 企業の決算短信 pdf からの業績要因の抽出. 人工知能学会論文誌, Vol. 30, No. 1, pp. 172-182, 2015. [4] 中山祐輝, 津々見誠, 村上浩司. 文間の結束性に基づく決算短信における業績要因文の抽出. 言語処理学会第 25 回年次大会, 2019. [5] 酒井浩之, 松下和暉, 北島良三. 学習データの自動生成による決算短信からの業績要因文の抽出. 知能と情報, Vol. 31, No. 2, pp. 653-661, 2019. [6] 大村和正, 白井穂乃, 石原祥太郎, 澤紀彦. 決算短信からの業績要因文の抽出に向けた業績発表記事からの訓練データの生成. 言語処理学会第 28 回年次大会, 2022. [7] 酒井浩之, 増山繁. 企業の業績発表記事からの重要業績要因の抽出. 電子情報通信学会論文誌 D, Vol. 96, No. 11, pp. 2866-2870, 2013. [8]磯沼大, 藤野暢, 浮田純平, 村上遥, 浅谷公威, 森純一郎, 坂田一郎. 業績変動を考慮した決算短信からの重要文抽出. 情報処理学会第 227 回自然言語処理研究会, 2016 . [9] 酒井浩之, 坂地泰紀, 山内浩嗣, 町田亮介, 阿部一也.深層学習と拡張手がかり表現による業績要因文への極性付与. 第 18 回人工知能学会金融情報学研究会, 2017. [10] 北森詩織, 酒井浩之, 坂地泰紀. 決算短信 pdf からの業績予測文の抽出. 電子情報通信学会論文誌 D, Vol. 100, No. 2, pp. 150-161, 2017. [11] 河村康平, 高野海斗, 酒井浩之. 決算短信からの業績要因を含む業績予測文の抽出. 2021 年度人工知能学会全国大会 (第 35 回), 2021. [12] Jun Saito, Yugo Murawaki, and Sadao Kurohashi. Minimally Supervised Learning of Affective Events Using Discourse Relations. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, 2019. [13] Sadao Kurohashi and Makoto Nagao. KN Parser: Japanese Dependency/Case Structure Analyzer. In Proceedings of the International Workshop on Sharable Natural Language Resources, pp. 48-55, 1994. [14] Hirokazu Kiyomaru and Sadao Kurohashi. MinimallySupervised Joint Learning of Event Volitionality and Subject Animacy Classification. In Proceedings of the AAAI Conference on Artificial Intelligence, 2022. [15] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Man- dar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A Robustly Optimized BERT Pretraining Approach. CoRR, Vol. abs/1907.11692, , 2019. [16] 高野海斗, 酒井浩之, 北島良三. 有価証券報告書からの事業セグメント付与された業績要因文・業績結果文の抽出. 人工知能学会論文誌, Vol. 34, No. 5, 2019. 表 5 提案手法に従って構築された要因分類器および極性分類器の誤分類例. \\ ## A 付録 ## A. 1 決算短信 PDF からのテキスト抽出 PDF からのテキスト抽出には pdfminer ${ }^{10)}$ を使用した. 日本語のテキスト抽出に対応しており,ページごとにテキストを抽出できる点などが理由である. 本研究が対象とする業績要因文は通常,本文の冒頭に「当四半期決算に関する定性的情報」などと題したセクションを設けて,その中で記述される.この定性的情報を高精度で抽出する (将来予測に関する記述などのノイズを減らす) ために,以下の手順でテキスト抽出を行った。 1. 文字列「目次」が含まれるぺージを先頭から順に探索し,最初に見つかったページより後のページを取得する。 2. 定性的情報の次に述べられやすい項目を表すフレーズ11)が含まれるページを先頭から順に探索し,最初に見つかったページのフレーズ以前のテキストを抽出する。 要は,目次と定性的情報の次に述べられやすい項目を表すフレーズに挟まれる部分を定性的情報として抽出している. 評価データの生成元の決算短信 150 件は全て,上記の手法で定性的情報が記述されたテキストを抽出できることを確認した。 ## A. 2 誤分類の実例 提案手法に従って構築された要因分類器および極性分類器の誤分類例を表 5 に示す.これらを少し考察すると,例えば 1 番目の誤答例は「末尾の文節が過去形または体言止めでないならば負例」というヒューリスティックをモデルが重視していることが原因だと考えられる. 改善案として,確信度の高い 10) https://github.com/pdfminer/pdfminer.six 11)本研究では,「財政状態に関する」,「財政状態の」,「将来予測情報に関する」,「業績予想に関する」,「今後の見通し」 の 5 つとした.表 6 シード語彙の一覧. 表 7 訓練時のパイパーパラメータ. 正例のデータから文末を現在形にした疑似データを生成し,これを混ぜて訓練することが挙げられる。 また,4 番目は本文で言及した数量推論などを要する文の誤答例である.定量表現をもとに費用が全体として増えたことを理解する必要があるため,定性的な極性表現を中心に学習させる現状のアプロー チでは難しいと考えられる. シード語彙の拡張で対応できるか否かを今後調査する。 ## A. 3 シード語彙の一覧 極性分類器の学習データの生成時に策定したシー ド語彙の一覧を表 6 に示す. ## A. 4 ハイパーパラメータ 要因分類器および極性分類器の訓練時のハイパー パラメータを表 7 に示す.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D11-3.pdf
# BERT とGATを用いた金融テキストにおける 因果関係を含む文の判定 小林涼太郎 ${ }^{1}$ 坂地泰紀 ${ }^{2}$ 和泉 潔 ${ }^{2}$ 1 東京大学工学部 2 東京大学大学院工学系研究科 b2022rkobayashi@socsim.org \{sakaji, izumi\}@sys.t.u-tokyo.ac.jp ## 概要 金融分野に関わる大量のテキストデータを解析し,人が認知する原因-結果関係についての記述を自動的に抽出することで, 経済事象の要因列挙による投資判断の支援や,イベントの波及効果分析が可能となる.テキストから因果関係を抽出するタスクにおいては,因果関係の存在を示す手がかりとなる表現への注目が有効であることが知られている。しかしながら,手がかり表現が因果関係以外の意味を持つ場合もあり,それを取り除くために,文に因果関係が含まれているか否かを判定する手法が必要である. 本研究では,金融 BERT モデルと,入力文の依存構造に対して適用される GAT の組み合わせによる,新しい因果関係判定手法を提案する。 ## 1 はじめに 近年, Web 上で入手可能なテキストデータは急速増大しており,自然言語処理技術を用いた,膨大なテキストからの情報抽出に注目が集まっている [1]. 金融分野においても,決算短信・有価証券報告書・経済新聞記事・アナリストレポートなど投資家が入手可能なテキスト情報は常に溢れており,それら構造化されていないテキストデータから価值ある情報を自動で抽出することのニーズは大きい [2]. 金融テキストから情報を抽出し構造化する方法の 1 つとして, 原因-結果の組から構成される因果関係を検出し,表現対として抽出することが考えられる. 決算短信や経済新聞記事においては, 因果関係を含む文が頻出する.例えば,「ウクライナ情勢をめぐる地政学的リスクの高まりで, エネルギーや原材料価格が上昇する」といったものだ. こうした因果関係を大量纪収集することができれば,因果関係ネットワークの構築や因果系列の提示によって,投資判断の支援,ニュースイベントの波及効果の分析といった応用が可能となる $[3,4]$. 金融テキストからの因果関係抽出记いては,因果関係の存在を示す手がかりとなる表現の利用が有効だ $[5,6]$. 例えば,「レンタカー部門では,外出自粛の影響を受け,減収減益となりました.」という文の場合,手がかり表現「を受け」を用いて,「外出自粛の影響」という原因表現と「(レンタカー部門では,)減収減益となりました.」という結果表現を抽出できる。しかしながら,手がかり表現は因果関係の存在を示すとは限らない。「健康のため,運動する」という文の場合「「ため,」は原因結果関係の明示ではなく,「目的や期待の向かうところ」を表す。決算短信における具体例を表 1 亿示す。 したがって,手がかり表現を含む文に対して,その文が因果関係を含むか否かを高い精度で判定することが望まれる。本研究では,金融ドメインの文書で追加で事前学習を行った金融 BERT モデルと,入力文の依存構造木に対して適用される Graph Attention Network (GAT) [7] を用いた判定モデルを提案する。決算短信と新聞記事データから構築したデータセットを用いて評価実験を行い,提案手法の有効性を確認した。 表 1 決算短信における,因果関係を含む文と含まない文の例. 手がかり表現を太字で示す. ## 因果関係を含む文 -「ウクライナ情勢をめぐる地政学的リスクの高まりで、エネルギーや原材料価格が上昇するなど、国内経済の先行きは不透明な状況が続きました。」 ・「レンタカー部門では、外出自肃の影響を受け、減収減益となりました。」 因果関係を含まない文 ・「お客様のニーズに的確に応えるため、ビジネスパートナーとの連携強化を進めてまいりました。」 ## 2 関連研究 テキストからの因果関係抽出に関する研究は数多く存在する. Girju [8] は英語の文書中の因果関係の存在を示す表現を調査し,それらを手がかりに自動で因果関係を検出・抽出する手法を提案している。坂地ら [9] は手がかり表現を含む候補文に対して,構文的な素性・意味的な素性を用いた機械学習手法 (SVM) でフィルタリングすることによって,因果関係を含む文を抽出している。 最近の研究では, BERT [10]のような事前学習済み言語モデルを利用するものが多い. The 4th Financial Narrative Processing Workshop の FinCausal-2020 Shared Task ${ }^{1 )}$ では,Task1 が英文金融ニュースにおける因果関係を含む文の判定であった. 様々な手法が提案されたが,その多くはBERT に基づくものである [11,12,13]. 例えば Ionescu らは,BERT を含む 5 つの事前学習済みの Transformer ベースのモデルをアンサンブルする手法で全体 2 位のパフォーマンスを記録している。 深層学習に基づくモデルの学習では,一般に大規模な教師データセット作成のためのコストがかかるが,事前学習済み言語モデルの利点は, 少数のデー タでファインチューニングして精度の高いモデルを獲得できることである。一方で,関係抽出タスクにおいて, 文の依存構造情報の利用が有用であることが知られている [14]. 最近では, Graph Convolutional Network (GCN) [15] や GAT のようなグラフベースのモデルで依存木の構造を学習する手法が多く提案されている [16,17]. 本研究では, 事前学習済み言語モデルとグラフベースのモデルの相補的な強みを活用することで,金融テキストから因果関係を抽出するための新しい因果関係文の判定モデルを提案する. ## 3 提案モデル 提案するモデルは, 金融ドメインの文書で追加事前学習を行った金融 BERT モデルと, 入力文のトークンの依存構造 (係り受けの構造) に対して適用されるGATにより構成される. 本節では, Graph Attention Network (GAT) の入出力について以下の表記を用いる. GAT において attention を実現する graph attention layer は,グラフ構造およびノード特徵集合 $\boldsymbol{h}^{(l)}=\left.\{\boldsymbol{h}_{1}^{(l)}, \boldsymbol{h}_{2}^{(l)} \ldots, \boldsymbol{h}_{|V|}^{(l)}\right.\}, \boldsymbol{h}_{i}^{(l)} \in \mathbb{R}^{F}$ を入力として,新たなノード特徴集合 $\boldsymbol{h}^{(l+1)}=$ 1) http://wp.lancs.ac.uk/cfie/fincausal2020/ 図1提案モデルの全体図. $\left.\{\boldsymbol{h}_{1}^{(l+1)}, \boldsymbol{h}_{2}^{(l+1)} \ldots, \boldsymbol{h}_{|V|}^{(l+1)}\right.\}, \quad \boldsymbol{h}_{i}^{(l+1)} \in \mathbb{R}^{F^{\prime}}$ を出力する. ここで $\boldsymbol{h}_{i}^{(l)}$ はノード $i$ の $l$ 層目の潜在表現を表す. また,|V|はノード数, $F, F^{\prime}$ は隠れ層の次元である.提案モデルの概要は図 1 に示す通りである。まず入力文はトークン分割され,金融 BERT モデルに入力される.金融 BERT の最終層で得られるトークン毎の埋め込み表現は, GAT のノード特徴集合の初期値 $\boldsymbol{h}^{(0)}$ となる. 各ノード (トークン) の特徴量は, GAT の各層で, 依存構造木上の近傍となるノード $N_{i}$ の特徴を用いて更新される. $L$ 層目の出力のノー ド特徴集合 $\boldsymbol{h}^{(L)}$ は, skip 接続で $\boldsymbol{h}^{(0)}$ が加算された後に,全体の平均を取ることで読み出される。最後に,線形層を適用することによって, 入力文が因果関係を含むか否かの予測を行う。 ## 3.1 金融 BERT モデル 汎用言語コーパスで作成した事前学習モデルに,別のコーパスで事前学習を追加することを追加事前 学習と呼ぶ. 対象タスクのドメイン周辺のコーパスで追加事前学習を行うことで,タスクでの精度向上が期待できる [18]. 本研究では, 日本語の汎用言語コーパスを用いて事前学習された BERT モデルに,金融分野のテキストを用いて追加事前学習を行うことで構築される金融 BERT モデルを用いる. ## 3.2 Graph Attention Network GAT [7] の $l$ 層目におけるノード $i$ の近傍ノード $N_{i}$ についてのメッセージ集約関数 $\boldsymbol{m}_{N_{i}}^{(l)}$ は, 次式で表せる. $ \boldsymbol{m}_{N_{i}}^{(l)}=\sum_{j \in N_{i}} \alpha_{i j} \boldsymbol{h}_{j}^{(l)} $ ここで,attention スコアは以下で計算される. $ \alpha_{i j}=\frac{e^{\operatorname{LeakyReLU}\left(\boldsymbol{a}^{T}\left[W^{(l)} \boldsymbol{h}_{i}^{(l)} \| W^{(l)} \boldsymbol{h}_{j}^{(l)}\right]\right)}}{\sum_{k \in N_{i}} e^{\operatorname{LeakyReLU}\left(\boldsymbol{a}^{T}\left[W^{(l)} \boldsymbol{h}_{i}^{(l)} \| W^{(l)} \boldsymbol{h}_{k}^{(l)}\right]\right)}} $ $W^{(l)} \in \mathbb{R}^{F^{\prime} \times F}$ は各ノードの重み行列, $\boldsymbol{a} \in \mathbb{R}^{2 F^{\prime}}$ は重みべクトルである。. $T$ は転置を,\|は連結を表す。 ノード $i$ の潜在表現は,次式のように更新される. $ \boldsymbol{h}_{i}^{(l+1)}=\sigma\left(W^{(l)} \boldsymbol{m}_{N_{i}}^{(l)}\right) $ ただし, $\sigma$ は活性化関数である. 本研究では,文内のトークンをノード,2つのトークン間の依存関係をエッジとするグラフ構造をGATの入力とする. 各ノード特徴は, 金融 BERT モデルの出力として得られるトークン毎の埋め込み表現で初期化される. 係り受け構造の解析は, 日本語以外の言語への拡張性を考慮して, Universal Dependencies (UD) [19] に基づいて行う. (式 3)のように, graph attention layer では距離 1 の近傍ノード $N_{i}$ のみを考慮して潜在表現を更新する。 したがって,L層に重ねた GATを適用することで,各トークンについて依存構造木上の距離 $L$ 以内の近傍を明示的に考慮した潜在表現を得ることができる.このように構文情報を明示的に考慮し情報を集約する GAT を接続することによって,より精度高く因果関係の有無を判定できることが期待される. ## 4 実験 ## 4.1 データセットと前処理 データセットを作成して評価実験を行った. 用いたテキストデータは,決算短信・日本経済新聞記事の 2 種類である。決算短信データは,適時開示情報表 2 因果関係の存在を示す手がかり表現. [6] に基づく. 閲覧サービズ ${ }^{2}$ から PDF 形式で取得した. 2012 年から 2022 年までに企業が発行した決算短信から無作為に抽出し, PDF 中の「経営成績に関する定性的情報」が記載された部分をテキストデータに変換して使用した. 日経新聞記事データは 1995 年から 2005 年に発行された記事から無作為に抽出して使用した. 各テキストデータは文単位で分割し, 因果関係の存在を示す手がかり表現を含む文のみを使用した. 本研究では, Sakaji らの研究 [6] で獲得された手がかり表現を用いた. それらを表 2 に示す. 抽出された文に対してアノテーションを行った.決算短信データについては, 1 人の評価者が各文に対して因果関係を含むか否かを示すタグを付与した. 日経新聞記事データについては, 5 人の評価者がタグを付与し, 3 人以上が因果関係ありと判断したものを正例・そうでないものを負例とした.結果として, 決算短信データでは 1958 件 (うち 1429 件で因果関係あり),日経新聞記事データでは 2045 件 (うち 898 件で因果関係あり) の教師データを得た. ## 4.2 実験設定 金融 BERT モデルは,Suzuki ら [20] が公開する金融ドメインの文書で追加事前学習された BERT モデル3)を利用した. このモデルでは, 東北大学の乾研究室が公開する BERT モデル (Wikipedia 日本語記事を学習 $)^{4}$ に対して, 決算短信・有価証券報告書の 2 種類の金融コーパスで追加事前学習を行っている. graph attention layer は 2 層に重ねて適用した。つまり,依存構造木上の距離 2 以内の近傍を明示的に考慮してノード特徴が更新される. また, 学習の安定性のため 2 ヘッドの multi-head attention を用いた.  表 3 評価実験の結果. Precision, Recall, F1 の計算方法はマクロである. 入力文の依存構造の解析には,UD に基づいて設計された NLP フレームワークである $\mathrm{spaCy}^{5}$ )を用いた. 2 つのトークン間における,主辞から修飾語への方向を持つ依存関係をエッジとするグラフ構造を GATの入力とした. 提案モデルの有効性を示すために,以下の手法を比較手法として実験を行った. BERT Wikipedia の日本語記事を用いて学習された BERT モデル4)の最終層の出力のうち, 最初のトークン [CLS] に対応する出力に対して線形変換を適用することで予測を行う。 金融 BERT金融 BERT モデル3)の最終層の出力のうち,最初のトークン [CLS] に対応する出力に対して線形変換を適用することで予測を行う. BERT+GAT 提案モデルの金融 $\mathrm{BERT}^{3}$ モモジュー ルを $\mathrm{BERT}^{4}$ に差し替えたモデルで予測を行う. 各データセットにおいて,64\%を学習データに, $16 \% を$ 検証データに,20\%をテストデータに割り当てた. 学習データ内で 5fold の交差検証を行い,各 fold で検証スコアが最良の時のテストデータに対するスコアを記録し,結果はその平均値を用いた. なお,全ての手法において,BERT モデルは Transformer 層の上部一層のみをファインチューニングの対象とした。 ## 4.3 結果と考察 実験結果を表 3 に示す。提案モデルである「金融 BERT+GAT」は,すべての指標・データセットで 3 つの比較手法の性能を上回った. また,「BERT」と $\lceil\mathrm{BERT}+\mathrm{GAT}\lrcorner, 「$ 金融 BERT」と「金融 BERT+GAT」 を比較すると,いずれのデータセットでも,すべての指標で GAT を用いる手法の方が精度が高かった。 この結果は,GATを用いることで明示的に構文情報を考慮する提案手法の有効性を示唆する。決算短信データセットにおいて,提案手法を用いることによる,ベースライン手法 (「BERT」) からの精度向上が顕著であった. また,データセット間で「金融 BERT」と「BERT+GAT」の結果を比較すると,決算短信データセットでは,日経新聞記事の場合よりも,金融 BERTを利用することによる性能の向上が大きかった. このような結果の理由としては,金融 BERT の追加事前学習で用いる金融テキストコーパス中に決算短信が含まれていることや,決算短信における記述がニュース記事よりも専門度が高いものであるために,追加事前学習で金融特有の専門単語を反映することがとくに有効であったということが考えられる.全ての手法において日経新聞記事データの方が予測精度が高かったことからも,汎用言語コーパスで事前学習を行った BERT モデルの出力をそのまま利用する手法では,決算短信のような比較的専門性の高い文書中から因果関係を抽出することは難しいと示唆される。 そのような場合でも,金融 BERT とGAT を用いる提案手法によって,抽出精度を大きく向上できることが確認された。 ## 5 まとめ 本研究では,事前学習済み言語モデルとグラフベースのモデルの相補的な強みを活用することで,金融テキストから因果関係を抽出するための,新しい因果関係文判定モデルを構築した. 金融分野のテキストから構築したデータセットを用いて評価実験を行うことで,提案手法の有効性が確認された.提案手法により, 金融分野のテキスト中から,より精度高く因果関係を抽出することが可能となる。 今後の課題としては,英語や中国語において同様のデータセットを構築し,多言語に対応可能な判定モデルを構築することなどを考える。  ## 謝辞 本研究は JSPS 科研費 JP21K12010, JST未来社会創 造事業 JPMJMI20B1,及び JST さきがけ JPMJPR2267 の助成を受けたものです. ## 参考文献 [1] Jim Cowie and Wendy Lehnert. Information extraction. Commun ACM, Vol. 39, No. 1, pp. 80-91, 1996. [2] B. Shravan Kumar and Vadlamani Ravi. A survey of the applications of text mining in financial domain. Knowledge-Based Systems, Vol. 114, pp. 128-147, 2016 [3] Kiyoshi Izumi and Hiroki Sakaji. Economic causal-chain search using text mining technology. In Proceedings of the 1st Workshop on Financial Technology and Natural Language Processing, 2020. [4] Kiyoshi Izumi, Shintaro Suda, and Hiroki Sakaji. Economic news impact analysis using causal-chain search from textual data. In Proceedings of the AAAI-20 Workshop on Knowledge Discovery from Unstructured Data in Financial Services, 2020. [5] Christopher S.G. Khoo, Jaklin Kornfilt, Robert N. Oddy, and Sung H. Myaeng. Automatic extraction of cause-effect information from newspaper text without knowledge-based inferencing. Literary and Linguistic Computing, Vol. 13, No. 4, pp. 177-186, 1998. [6] Hiroki Sakaji, Satoshi Sekine, and Shigeru Masuyama. Extracting causal knowledge using clue phrases and syntactic patterns. In Proceedings of the 7th International Conference on Practical Aspects of Knowledge Management, 2008. [7] Petar Veličković, Guillem Cucurull, Arantxa Casanova, Adriana Romero, Pietro Liò, and Yoshua Bengio. Graph attention networks. In Proceedings of the 6th International Conference on Learning Representations, 2018. [8] Roxana Girju. Automatic detection of causal relations for question answering. In Proceedings of the ACL 2003 workshop on Multilingual summarization and question answering, 2003. [9] 坂地泰紀, 増山繁. 新聞記事からの因果関係を含む文の抽出手法. 電子情報通信学会論文誌, Vol. 94, No. 8, pp. 1496-1506, 2011. [10] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 2019. [11] Sarthak Gupta. Finlp at fincausal 2020 task 1: Mixture of berts for causal sentence identification in financial texts. In Proceedings of the 1st Joint Workshop on Financial Narrative Processing and MultiLing Financial Summarisation, 2020. [12] Denis Gordeev, Adis Davletov, Alexey Rey, and Nikolay Arefiev. LIORI at the FinCausal 2020 shared task. In Proceedings of the 1st Joint Workshop on Financial Narrative Processing and MultiLing Financial Summarisation, 2020. [13] Marius Ionescu, Andrei-Marius Avram, George-Andrei Dima, Dumitru-Clementin Cercel, and Mihai Dascalu. UPB at FinCausal2020, tasks 1 \& 2: Causality analysis in financial documents using pretrained language models. In Proceedings of the 1st Joint Workshop on Financial Narrative Processing and MultiLing Financial Summarisation, 2020. [14] Aron Culotta and Jeffrey Sorensen. Dependency tree kernels for relation extraction. In Proceedings of the 42nd Annual Meeting on Association for Computational Linguistics, 2004. [15] Thomas N. Kipf and Max Welling. Semi-supervised classification with graph convolutional networks. In Proceedings of the 5th International Conference on Learning Representations, 2017. [16] Yuhao Zhang, Peng Qi, and Christopher D. Manning. Graph convolution over pruned dependency trees improves relation extraction. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, 2018. [17] Jie Yang, Soyeon Caren Han, and Josiah Poon. A survey on extraction of causal relations from natural language text. Knowledge and Information Systems, Vol. 64, No. 5, pp. 1161-1186, 2021. [18] Suchin Gururangan, Ana Marasovic, Swabha Swayamdi-pta, Kyle Lo, Iz Beltagy, Doug Downey, and Noah A. Smith. Don't stop pretraining: Adapt language models to domains and tasks. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, 2020 [19] Ryan McDonald, Joakim Nivre, Yvonne Quirmbach-Brundage, Yoav Goldberg, Dipanjan Das, Kuzman Ganchev, Keith Hall, Slav Petrov, Hao Zhang, Oscar Täckström, Claudia Bedini, Núria Bertomeu Castelló, and Jungmee Lee. Universal Dependency annotation for multilingual parsing. In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), 2013. [20] Masahiro Suzuki, Hiroki Sakaji, Masanori Hirano, and Kiyoshi Izumi. Constructing and analyzing domain-specific language model for financial text mining. Information Processing and Management, Vol. 60, No. 2, p. 103194, 2023.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D11-4.pdf
# BERT と因果抽出を用いた気候変動ナラティブの可視化/指数化 金田規靖 1 坂地 泰紀 ${ }^{2}$ ${ }^{1}$ 日本銀行 2 東京大学大学院工学系研究科 noriyasu.kaneda@boj.or.jp sakaji@sys.t.u-tokyo.ac.jp ## 概要 気候変動問題は,グローバルな課題として国内外で積極的に議論されており,気候変動がマクロ経済・物価・市場に与える影響に関する経済ファイナンス研究が盛んに行われてきている。例えば,自然災害の激甚化や政府の環境規制強化が,企業や金融機関の新たな経営・投資リスクになるとの見方がある。そこで,我々は新聞記事データを分析し,気候変動に関する因果(原因=結果のつながりく気候変動ナラティブと呼称 $>)$ の抽出,指数化,可視化を行う手法を提案する。近年の気候変動ナラティブをみると,企業や金融機関の認識・行動変化が始まっていること,気候変動とマクロ経済・市場・金融政策との連関が出現している可能性が示唆された. ## 1 はじめに 気候変動問題は,グローバルな課題として国内外で積極的に議論されている. たとえば,地球温暖化に伴う異常気象や自然災害の激甚化は, 企業の経済活動に損失を生じさせ得る(物理的リスク).また,環境規制強化といった政府の気候変動政策の推進は,企業や金融機関の経営リスクや投資リスクになり得る(移行リスク).企業,金融機関などの様々な経済主体は,気候変動リスクへの対応を始めており,投資行動の変化や業績パフォーマンスへの影響が生じ始めているとの見方がある。テキスト分析から,気候変動ニュースの報道数,主要トピックの移り変わり,トピック間のつながりを把握することは,政府,企業,市場などが気候変動をめぐる議論や環境規制強化をどのように受容し,対応を進めてきたかを理解することにつながる. 本節では,関連研究を紹介し,本研究の位置付けを説明する。 ## 1.1 関連研究 近年,気候変動がマクロ経済・物価・市場に与える影響についての経済ファイナンス研究が盛んに行 われてきている。一つのアプローチとして,気候変動ニュースのテキスト分析が用いられており, 現時点では,伝統的な自然言語処理手法が主流となっている。例えば,新聞記事データを用いて,コサイン類似度やLDAを用いて,マクロの気候変動ニュー ス指数を作成し,気候変動に関する報道の増加(市場の気候変動リスクの認識変化)と,米国や日本の株式リターンとの関係を害証する研究がみられている (Engle et al.[1] , Kaneda et al.[2]). また, Fueki et al.[3] は, 気候変動ニュースの増加は, 将来の不確実性の高まりを示しており, $\mathrm{CO} 2$ 排出量の多いブラウン企業の設備投資を減少させる可能性を示した. 足もとでは,BERT といった深層学習べースの言語モデルの利用がみられ始めており,企業決算や特許情報といった大容量のテキストデータの分析に活用されている.BERTを用いて,企業の気候変動リスクに関する開示文書を分析した研究としては,例えば,Bingler et al.[4] は,企業の気候変動リスクへの対応状況を情報抽出し,スコア評価している. Kölbel et al.[5] は, 企業の物理的リスク・移行リスクをそれぞれ指数化し,個社の CDS スプレッドとの関係を実証している。 ## 1.2 本研究の位置付け 本研究は,2000 年 1 月から 2021 年 11 月までの日本経済新聞(朝刊,平日)における気候変動ニュー ス(約 1 万 7 千記事)を用いて,企業関連ほか,国際会議,国内政策,金融機関などの様々な気候変動関連トピックを分析対象としている。本研究の新規性は,BERT および因果抽出により得られた二つの分析結果を組み合わせることで,異なるトピック間の因果(原因=結果のつながり)を抽出している点にある。テキストに含まれる因果は,人々の将来予想や認識変化を捉えており, 経済ファイナンスに関する新たな知見が得られる可能性がある. 本研究は, Shiller[6] の主張(人々の物語が経済を動かす)における経済ナラティブを具体化する一つの手法になり 得ると考えられ, 本稿では, 得られた因果を「経済ナラティブ」と呼称し, 気候変動に関する経済ナラティブ(気候変動ナラティブ)の抽出を試みている。 ## 2 気候変動ナラティブの抽出 本節では,本研究で提案する分析ワークフローについて説明を行う. 我々の分析ワークフローでは,技術として BERT と因果抽出を利用している. 気候変動ナラティブを抽出するための分析ワークフロー は以下の通りである。 図 1 経済ナラティブ抽出・指数化/可視化の全体図 Step 1 BERT を用いて, 気候変動に関するトピックを判定する分類モデルを学習し,新聞記事に含まれるトピックを判定する(図1の青矢印).具体的には, (i) 日本経済新聞記事にデフォルトで付与されている分類タグを用いて,各トピックの教師データを作成する. 分類タグは,経済,政治,政策,企業,国際,マーケットに関連する 40 トピックを選択した. (ii) 教師データを用いて,BERTをファイン・チューニングし, 40 個の分類モデルを構築する. (iii) 各トピック分類モデルを用いて, 各気候変動ニュース記事の段落が,どのトピックに関連しているかを判定し,判定結果を関連段落 DB に記録する。 Step 2 各新聞記事に因果関係が含まれているか否かを判定し(BERTにより処理),因果抽出を用いて,原因=結果の論理関係を表す表現対を抽出後,因果情報を因果 DB に記録する(図 1 の橙矢印). 因果抽出は, Sakaji et al.[7] で提案された手法であり,係り受け解析に基づく構文パターンを利用し,因果関係が含まれている因果文から原因・結果表現を抽出することができる. Step 3 Step 1 の BERTによる判定結果と, Step 2 の因果情報を組み合わせ,異なる二つのトピック間の気候変動ナラティブを抽出する(図 1 中央の紫ボックス). 抽出時には,過去のニュースは将来のニュースに波及するという時間制約を仮定し,過去の原因テキストと現在の結果テキストを結合する. 図 2 は,原因因果を環境規制,結果因果を企業戦略とした場合の結合方法の例を示している。企業戦略における原因テキストは,企業戦略の変化を引き起こした背景情報,環境規制における結果のテキストは,環境規制強化を示す情報である.これらのテキストのコサイン類似度が高い組み合わせを,原因=結果のつながりのある因果とみなして結合し,気候変動ナラティブを得る. 具体的に得られた事例を図 3 に示す. Step 4 Step 3 で得られた経済ナラティブを指数化する。また,特に重要な動きを示す経済ナラティブ指数に絞り,ネットワーク関連図として可視化する (図 1 の紫矢印). 手法の詳細は, 後述する. 図 2 環境規制=企業戦略の結合方法の例 図 3 環境規制=企業戦略の気候変動ナラティブの具体例 ## 3 評価実験と指数化/可視化手法 本節では,BERTによる分類精度の評価,指数化および可視化の手法について説明する. ## 3.1 評価実験 数值例として,表 1 にオリンピック関連の文章を判定するモデルの分類精度を示している. ここでは,日経新聞記事のタグを対象に,BERT の分類性能を確認するため, 従来手法として線形回帰やランダムフォレスト,SVMを用いて分類実験を行った. 実験結果より, BERT の判定モデルは, 従来の機械学習手法を上回る精度を示している。一般的に,BERT は,トピック分類などで高精度を示すことが知られているが,新聞記事のトピック判定についても適切に行えるとみられる。 表 1 「オリンピック」判定モデルの分類精度. RF はランダムフォレストを表す. ## 3.2 指数化/可視化の手法 BERT と因果抽出を用いると,トピック別の気候変動に関する因果を含む気候変動ナラティブが時点毎に得られることを示した。これらをトピック別のニュース指数に変換すれば,経済的解釈が容易になるほか, 先行研究と同様に, ニュース指標と金融経済データを用いた実証研究にも応用できる. ## 3.2.1 気候変動トピックベース指数 まず,BERT の判定結果のみを用いて,任意のトピックに関連すると判定された段落数をカウントした気候変動トピックベース指数を算出する. BERT を用いた先行研究と同様に,あるトピックを含む文章の出現回数を指数化している. 図 4 によれば, 2008-2010 年頃は, 国際議論, 国内環境規制に関するトピックが大半である一方, 2018 年以降は, 企業戦略やグリーンファイナンスなどに関するトピックも併せて増加している. 当指数は, 時点毎の主要卜ピックやトピック間の相関を把握することができるが,トピック別の独立した指数であるため,トピッ ク間の因果については勘案されていない. 図 4 気候変動トピックベース指数(段落出現数) ## 3.2.2 気候変動ナラティブ指数 気候変動関連トピックの因果チェーンを定量化した気候変動ナラティブ指数は,以下の通り算出される. 原因因果ベクトル $\left(\vec{i}_{t-d}\right)<t$ 時点から $d$ 日前の過去情報 $>$ と結果因果ベクトル $\left(\vec{j}_{t}\right)<t$ 時点の現在情報>の因果チェーンのコサイン類似度が高い組み合わせを集計し,式 1 を用いて月次指数を作成する. 最新のニュースほど過去とのつながりが増えるバイアスを除くため,古い因果の重みを時間経過に伴い減価させている(ロジスティック関数に従い, 5 年で重みが半減). 図 5 は, 原因因果を国際会議とした時の結果トピック別の気候変動ナラティブ指数を例示している。 index $\_$monthly $\_m=\sum_{j=0}^{M} \sum_{i=0}^{L(j)} \frac{1}{1+a e^{b d}} \cos \left(\vec{i}_{t-d} \cdot \vec{j}_{t}\right)$ ここで, $M$ は $m$ 月に含まれる因果チェーンの集合, $L(j)$ は結果因果 $\vec{j}$ と接続している原因因果 $\vec{i}$ (因果チェーン)の集合, $\cos \left(\vec{i}_{t-d} \cdot \vec{j}_{t}\right)$ は原因因果 $\vec{i}$ と結果因果 $\vec{j}$ の BERT に基づくコサイン類似度, $t-d$ は結果因果につながる原因因果の観測時点 $(d>0), t$ は $m$ 月に含まれる結果因果の観測時点, $d$ は原因因果と結果因果の時点差 (日数)をそれぞれ表す. また, ロジスティック関数のパラメーター $a, b$ はニュースの減衰期間に応じて設定している. ## 3.3 ネットワーク関連図としての可視化 ネットワーク関連図とは,気候変動ニュースを構成するトピック同士がどのように接続されているかを可視化するものである.トピック別の気候変動ナラティブ指数を組み合わせることで,気候変動ニュースにおけるトピック間の因果や連関(双方向の因果)の全体像を明らかにしている(詳細は次節 図 5 気候変動ナラティブ指数 や付録を参照).可視化の結果を解釈する際には,経済ファイナンス理論と整合的な動きをしているかという視点が重要である. 他方, 思わぬ気候変動ナラティブが出現した場合, 従来手法では明らかでなかった新たなつながりの発生を示唆している可能性に留意する必要がある. ## 4 考察 本節では,気候変動トピックベース指数,気候変動ナラティブ指数,ネットワーク関連図を基に,気候変動ニュースの経済的解釈を行った. 主要なポイントは以下の通りである。 (1)推計期間を通じて,気候変動関連の国際会議や国際合意といったイベント発生時に指数が上昇する傾向がある. 例えば,2008 年洞爺湖サミット,2010 年コペンハーゲン合意,2015 年パリ協定, 2021 年米国のパリ協定への復帰などがあげられる.国際的な気候変動議論と, 政府による脱炭素・グリーンエネルギーに関する目標設定は,相互に連動しつつ,気候変動ニュースの主要トピックであった. 同時に,こうした国内外の政策議論は,他の経済主体の行動・認識変化のきっかけになってきたとみられる。 (2) 2015 年に,パリ協定に「 $2{ }^{\circ} \mathrm{C}$ 目標」が合意されて以降,各国の気候変動政策は,大局的,抽象的な政策議論という段階から,環境規制の強化や政策の検討の段階に移行してきた. こうした動きを踏まえ,2018 年以降は,国内の環境政策やエネルギー 政策の強化から企業関連(事業戦略の策定や設備投資など)に対する気候変動ナラティブが,顕著に上昇している. これは,将来の環境規制の強化(移行リスクの高まり)を見据えた企業の認識・行動変化が始まっていることを示唆している。一方,現時点では,気候変動と業績パフォーマンスに関する気候変動ナラティブは相対的に小さいが,長期的には,移行リスクへの対応状況が, 企業業績や株価に影響する可能性を念頭に置く必要がある. また,気候変動政策と市場の気候変動ナラティブに連関がみられ始めている. 近年の ESG 投資拡大や金融機関の気候変動対応の進捗を捉えていると考えられる。 (3)2018 年以降は,気候変動と金融政策・物価・景況感の間の気候変動ナラティブに連関が出現している. 国際的な気候変動政策の進捗や,産業横断的な気候変動対応が,マクロ経済・物価の変動を引き起こす新たなチャネルになりつつある可能性があると推測することができる.また,気候変動の経済ファイナンス研究の必要性や, 中央銀行の政策対応の可能性を議論する動きが話題となり, 関連報道の増加を示していると考えられる。 (4 )近年,自然災害の激甚化や頻度増加に関連する気候変動ナラティブが強まってきている. 自然災害が,経済活動に与える悪影響が認識され,企業経営や規制当局にとっての新たな論点・課題として受け止められている可能性を示している。同時に,将来,自然災害が激甚化する可能性(物理的リスク) を緩和するための環境規制強化やグリーンエネルギー政策を推進する動きを映じているとみられる。 ## 5 おわりに 本稿では,BERT と因果抽出を用いた気候変動ナラティブの抽出,指数化,可視化を行う手法を提案した. 具体的には,「現在のニュースが,過去のニュースからどの程度影響を受けているか」を定量化し,気候変動ナラティブを指数化する手法を示した. さらに,主要な気候変動ナラティブをネットワーク関連図として可視化した. 気候変動ナラティブは,気候変動に関する議論が進捗し,環境規制が具体化される中,企業などの認識・行動変化が始まっていることを示唆している. また,気候変動とマクロ経済・市場・金融政策との間に連関が出現しており,気候変動が金融経済に影響を与えている可能性が示唆された。 今後の課題として, 気候変動ナラティブが統計的因果を有するか(グレンジャー因果,構造的因果など),金融経済データの実証研究を通じて,気候変動ナラティブ指数に含まれる情報を評価することが考えられる.また,気候変動以外の金融経済トピック (物価, 景気変動など)の経済ナラティブを作成し, 有益な示唆が得られるかも検討していきたい. ## 謝辞 本研究は,JSPS 科研費(JP21K12010)と,JST さ きがけ(JPMJPR2267)の支援を受けたものです. ## 参考文献 [1] Robert F Engle, Stefano Giglio, Bryan Kelly, Heebum Lee, and Johannes Stroebel. Hedging climate change news. The Review of Financial Studies, Vol. 33, No. 3, pp. 11841216, 2020 [2] Kaneda Noriyasu, Kimata Tomonori, Hiraki Kazuhiro, and Matsue Tomohiro. Climate change news indices: Are they reflected in japanese stock prices? IMES Discussion Paper Series, 2023(forthcoming). [3] Fueki Takuji, Shinohara Takeshi, and Shintani Mototsugu. Climate-change risks and the transmission of monetary policy. the 2022 Annual Meeting of the Central Bank Research Association, 2022. [4] Julia Anna Bingler, Mathias Kraus, Markus Leippold, and Nicolas Webersinke. Cheap talk and cherry-picking: What climatebert has to say on corporate climate risk disclosures. Finance Research Letters, Vol. 47, p. 102776, 2022. [5] Julian F Kölbel, Markus Leippold, Jordy Rillaerts, and Qian Wang. Ask bert: How regulatory disclosure of transition and physical climate risks affects the cds term structure. Swiss Finance Institute Research Paper, No. 21-19, 2020. [6] Robert J. Shiller. Narrative Economics: How Stories Go Viral \& Drive Major Economic Events. Princeton: Princeton University Press, 2019. [7] Hiroki Sakaji, Satoshi Sekine, and Shigeru Masuyama. Extracting causal knowledge using clue phrases and syntactic patterns. In International Conference on Practical Aspects of Knowledge Management, pp. 111-122. Springer, 2008. ## A 参考情報 本研究の手法は,任意の異なる 2 トピックを選択し,月次の気候変動ナラティブ指数を算出することができる.今回は,日本経済新聞記事,分類タグから経済,政治,政策,企業,国際,市場に関連する40トピックを選び,全ての組み合わせを計算した(原因と結果の順序を考慮,40トピック× 39 トピック= 1560 通り). 様々なトピック間の気候変動ナラティブ指数が総じて大きな上昇を示している 2018 年から 2021 年までの期間に注目する。気候変動ナラティブ指数の水準が大きく高まっている組み合わせ(気候変動ニュースにおいて,原因トピック=結果トピックのつながりが強まっている組み合わせ)は,主に国際会議,国内政策,企業関連,金融政策・マクロ経済といったカテゴリーに関連していることが分かった. 図 6 は,各カテゴリーのネットワーク関連図を示しており,カテゴリー間を繋いでいる矢印の大きさは,気候変動ナラティブ指数の強さに概ね対応している. 矢印内の数値は,各カテゴリーに属する各トピックの指数を集約し,算出した平均值である。近年,顕著になっている気候変動ナラティブの特徴は,以下の通りである。 (1)気候変動政策に関する国際議論から環境政策・エネルギー政策に関する国内政策へのつながり,及び,国内政策から国際議論へのフィードバックがみられる。気候変動対応が進捗するにつれて,国内政策の具体化や強化が行われた, または,国内政策議論が国際会議において検討される動きを映じているとみられる. 原因:国際会議(グローバル) $\Rightarrow$ 結果:国内環境規制・エネルギー政策(マクロ) 原因:国内環境規制・エネルギー政策(マクロ)7結果:国際会議(グローバル)<フィードバック> (2)気候変動政策に関する国際議論や国内政策から一部の企業関連トピックへのつながりが強まっている.国内の環境政策・エネルギー政策の強化を受け,設備投資や事業戦略などの企業行動の変化が起きており,経営課題として取り込む動きが始まっている可能性を示唆している.ただし現時点では,気候変動と業績パフォーマンス (業績,財務,賃金など) との関連は相対的に小さいことも分かった. 原因:国内環境規制・エネルギー政策(マクロ)7結果:企業の事業戦略,設備投資,サプライチェーン(ミクロ)原因:国内環境規制・エネルギー政策(マクロ) $\Rightarrow$ 結果:企業収益・財務,市場(ミクロ) (3)国内外の気候変動政策対応や議論と金融政策・物価・景況感の連関が出現している.気候変動が金融・経済・物価に与える影響に関する議論や気候変動に関する調査研究の増加,金融政策による政策対応の可能性や対応策の検討を反映している可能性が示唆される. 原因:国際会議(グローバル),国内環境規制・エネルギー政策(マクロ) $\Rightarrow$ 結果 : 金融政策,物価,景況感原因 : 金融政策,物価,景況感 $\Rightarrow$ 結果 : 国際会議(グローバル),国内環境規制・エネルギー政策(マクロ) 図 6 気候変動ナラティブの全体像 (2018-2021 年)
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D11-5.pdf
# 自己回帰型言語モデルを活用した Sentiment Interpretable Neural Network の構築 伊藤友貴 ${ }^{1}$ 1 三井物産株式会社 Tomok.ito@mitsui.com ## 概要 深層学習モデルは強力なモデルである一方,そのブラックボックス性が故に説明責任を伴う場面では利用できない場合が多い。このような問題を解決するアプローチの一つとして,解釈可能なニュー ラルネットワークモデルの構築が考えられる.このような背景のもと,本研究では「感情分類」の夕スクを対象に,予測結果を説明可能かつその予測性能も高いニューラルネットワークの構築を目指す。本目的達成のため,近年提案された,単語レべルでのセンチメントに基づき予測結果を説明可能ななニューラルネットワーク Sentiment Interpretable Neural Network へ自己回帰型学習言語モデルを導入し,予測性能を解釈性を保ちつつ向上させることを試みる。景気ウォッチャー調査に関する日本語デー タを用いて本手法の性能を検討した結果,本研究にて提案されたアプローチを取ることで,説明性を担保しつつもべースライン手法に比べ予測性能が高いニューラルネットワークを構築することができた. ## 1 はじめに 深層学習モデルは強力なモデルである一方,そのブラックボックス性が故に説明責任を伴う場面では利用できない場合が多い。このような問題を解決するアプローチの一つとして,解釈可能なニューラルネットワークモデルの構築が考えられる。このような背景のもと, 本研究では「感情分類」のタスクを対象に,予測結果を説明可能かつその予測性能も高いニューラルネットワークの構築を目指す. 解釈可能なニューラルネットワークの構築に関する研究は近年,いくつか提案されているが,その中でも最近提案された手法の一つが, Sentiment Interoratable Neural Network (SINN) である。本ニュー ラルネットワークを活用することで,図 1 のよう に単語レベルでのセンチメントに基づき予測結果を説明可能となる.SINN を構築するには,専門用語に関する極性辞書をなニューラルネットワー ク Sentiment Interoratable Neural Network Model を構築する手法 Lexical Initialization Learning (LEXIL) [2] や Joint Sentiment Propagation 学習 [1]. 本手法を利用することにより,センチメント分析の結果を各単語のオリジナルセンチメント,極性反転,及び大域的な重要度に分解する形で説明可能なニューラルネットワークを構築することが可能となる。 本学習手法は対象タスクが感情分類であれば,一定の汎用性が見込まれる一方で,先行研究では比較的層の浅いネットワークにしか適用できておらず, GPT を始めとする,近年提案されている大規模言語モデルに適用できるかどうかは不明瞭である。また,SINN では LSTM 及び Self Attention を用いた文脈層により,極性反転,及び大域的な重要度をモデリングしており,結果,Self Attention の層が双方向の情報を活用しており,極性反転が右側の文脈から起きるのか左側の文脈から起きるのかを LSTM の層にて捉えることができても,その強弱が左右どちらの文脈から引き起こすのかについて観測することは難しい。 このような背景のもと,本研究では,SINNへ自己回帰型の学習済み大規模言語モデルを組み込み,Joint Sentiment Propagation 学習を用いて自然な形で学習させることで,(1) ニューラルネットワー クの予測性能向上,及び (2) 各単語のセンチメントへの影響をその前後で分離させ,可視化することを試みる。学習済み大規模言語モデルを利用することで性能の向上が期待され,また,自己回帰型のモデルを採用することで各単語のセンチメントへの影響をその前後で分離させることができることが期待される.提案手法では,まず,学習済み大規模言語モデルを使えるようにするために SINN [2]を LSTM ベースから GPT-2[3] ベースへ切り替える. さらに, Global Word-Level Context 層には GPT-2 の Decoder 層の Attention をそのまま活用し, Global Word-Level Context 層の計算時には前の情報しか利用できない形にする.このようなモデルの構造を採用することで,各単語のセンチメントへの影響をその前後で分離されることが期待する. 景気ウォッチャー調査に関する日本語データを用いて本手法の性能を検討した結果,本研究にて提案されたアプローチを取ることで,説明性をある程度担保しつつも従来手法に比べ予測性能が高いニューラルネットワークモデルを構築できることを検証できた. その一方で,提案手法では極性反転は捉えきれないといった課題も見えた。 ## 2 関連研究 深層学習モデルのブラックボックス性に関する取り組みとしていくつかの関連研究が挙げられる.深層学習モデルの予測結果を説明する取り組みとして「ニューラルネットワークモデルの解釈」に関する研究いくつかが過去に行われてきた $[5,6,7]$. これらの手法を用いると, 出力に対する入力の寄与度を Back Propagation 法に近い形で計算することによって, 入力要素のうちどこが出力に大きな影響を与えたかを可視化することができる.また,その他の有用なアプローチとして「各層の意味が解釈可能なニューラルネットの構築」も挙げられる。その中でも近年,提案されたのがセンチメント分析の結果をオリジナルセンチメント,極性反転,極性反転,大域的な重要度に分解する形で説明可能なニューラルネットワーク SINN である.また,本手法ではこのような解釈可能なニューラルネットワーク実現のため,極性辞書を用いた初期化 Lexical Initialization を利用した学習手法を提案している. また,[1] では,その改良版アルゴリズム Joint Sentiment(JSP) Propagation 学習が提案されている. ## 3 自己回帰言語型モデルベース SINN 本節では今回検討する自己回帰型言語モデルベース SINNを紹介する.SINN は訓練データ $\left.\{\left(\mathbf{Q}_{n}, d^{\mathbf{Q}_{n}}\right)\right.\}_{n=1}^{N}$ 及び小規模な単語のセンチメントスコア辞書を用いた学習 Joint Sentiment Propagation (JSP) 学習により構築可能である. ここで, $N$ は訓練データのサイズ, $\mathbf{Q}_{n}$ はレビュー,$d^{\mathbf{Q}_{n}}$ はセンチメントタグ (1: ポジティブ, 2: ネガティブ)である. ## 3.1 モデル SINN は Token-level Original Sentiment layer (WOSL), Token-level Contextual layer (WCL), Token level Contextual Sentiment layer (WCSL),そして出力層から構成される, レビュー $\mathbf{Q}=\left.\{w_{t}^{\mathbf{Q}}\right.\}_{t=1}^{n}$ 入力すると,そのポジネガ予測 $y^{\mathbf{Q}} \in\{0$ ( negative), 1 ( positive) $\}$ を出力する NN である. 本論文ではコーパスに出現する語彙数 $v$ の語彙集合を $\left.\{w_{i}\right.\}_{i=1}^{v}$, 単語 $w_{i}$ の語彙 ID を $I\left(w_{i}\right), w_{i}^{e m} \in \mathbb{R}^{e}$ を単語 $w_{i}$ の次元 $e$ の用意されたコーパスから計算された分散表現とし,さらに $\boldsymbol{W}^{e m} \in \mathbb{R}^{v \times e}:=\left[\boldsymbol{w}_{1}^{e m T}, \cdots, \boldsymbol{w}_{v}^{e m T}\right]^{T}$ とする. ## 3.1.1 WOSL この層ではコメント $\mathbf{Q}=\left.\{w_{t}^{\mathbf{Q}}\right.\}_{t=1}^{n}$ の各単語をその単語が文脈に左右されずに持つセンチメント値,オリジナルセンチメント値に変換する。 $ p_{t}^{\mathbf{Q}}:=w_{I\left(w_{t}^{\mathbf{Q}}\right)}^{p} $ ここで, $\boldsymbol{W}^{p} \in \mathbb{R}^{v}$ は各単語のオリジナルセンチメン卜值を表す. $w_{i}^{p}$ は $\boldsymbol{W}^{p}$ の $i$ 番目の要素を表し, $w_{i}^{p}$ の值が $w_{i}$ のオリジナルセンチメント值に対応する. ## 3.1.2 WCL この層は各単語 $w_{t^{\prime}}^{\mathrm{Q}}$ へのセンチメントに関する影響(反転や強弱)を表す. まず,レビュー $\mathbf{Q}$ 内の単語 $\left.\{w_{t}^{\mathbf{Q}}\right.\}_{t=1}^{T}$ を埋め込み表現 $\left.\{\boldsymbol{e}_{t}^{\mathbf{Q}}\right.\}_{t=1}^{T}$ に変換する. その後順方向及び逆方向の自己回帰型言語モデル CLM(本研究における検証では CLM として GPT2[3] を採用)によって順方向からのセンチメントへの影響 $\vec{s}_{t}^{\mathbf{Q}}$ と逆方向からのセンチメントへの影響 $\overleftarrow{s}_{t}^{\mathbf{Q}}$ を表す値に変換する。 $ \begin{aligned} & \overleftarrow{\boldsymbol{h}}_{t}^{\mathbf{Q}}:=\overleftarrow{\operatorname{CLM}^{D E C}}\left(w_{t}^{\mathbf{Q}}, w_{t+1}^{\mathbf{Q}}, \ldots, w_{n}^{\mathbf{Q}}\right) \end{aligned} $ $ \begin{aligned} & \vec{\alpha}_{t}^{\mathbf{Q}}=\tanh \left(\boldsymbol{v}^{\text {left }}{ }^{T} \cdot \overleftarrow{\boldsymbol{h}}_{t}^{\mathbf{Q}}\right), \overleftarrow{\alpha}_{t}^{\mathbf{Q}}=\tanh \left(\boldsymbol{v}^{\text {right }^{T}} \cdot \overrightarrow{\boldsymbol{h}}_{t}^{\mathbf{Q}}\right) \\ & \vec{\beta}_{t}^{\mathbf{Q}}=\tanh \left(\overrightarrow{\mathrm{CLM}^{a t t}}\left(w_{1}^{\mathbf{Q}}, w_{2}^{\mathbf{Q}}, \ldots, w_{t}^{\mathbf{Q}}\right)\right), \\ & \overleftarrow{\beta}_{t}^{\mathbf{Q}}:=\tanh \left(\overleftarrow{\operatorname{att}^{D E C}}\left(w_{t}^{\mathbf{Q}}, w_{t+1}^{\mathbf{Q}}, \ldots, w_{n}^{\mathbf{Q}}\right)\right) \end{aligned} $ 向の CLM のデコーダーによって出力される最終層への変換,また, $\overrightarrow{\mathrm{CLM}^{a t t}}$ 及び $\overleftrightarrow{\mathrm{CLM}^{a t t}}$ は順方向及 び逆方向の CLM による各単語へのアテンションへの変換を表す。 $\vec{s}_{t}^{\mathbf{Q}}$ 及び $\overleftarrow{s}_{t}^{\mathbf{Q}}$ はそれぞれ単語 $w_{t}^{\mathbf{Q}}$ がその右側及び左側の単語群 $w_{t}^{\mathbf{Q}}:\left.\{w_{t^{\prime}}^{\mathbf{Q}}\right.\}_{t^{\prime}=1}^{t-1}$ and $\left.\{w_{t^{\prime}}^{\mathbf{Q}}\right.\}_{t^{\prime}=t+1}^{n}$ によるセンチメントに関する影響に関するスコアを表す。次に, $\vec{s}_{t}^{\mathbf{Q}}$ と $\overleftrightarrow{s}_{t}^{\mathbf{Q}}$ から各単語への両方向からのセンチメントへの影響値 $\left.\{s_{t}^{\mathbf{Q}}\right.\}_{t=1}^{T}$ へと変換する. $ s_{t}^{\mathbf{Q}}:=\vec{s}_{t}^{\mathbf{Q}} \cdot \stackrel{\leftrightarrow}{s}_{t}^{\mathbf{Q}} $ 先行研究では CLM $\mathrm{LSTM}, \beta_{t}^{\mathrm{Q}}$ をSTM から出力される隠れ層をべースとするアテンションを利用しているが,本研究では事前気隔週ズム言語モデル活用による性能向上,及び左右からの影響を見えるようにするため,CLM には GPT2 を採用する。 ## 3.1.3 WCSL WCSL では WOSL 及び WCL の値を用いて各単語の文脈センチメント $\left.\{c_{t}^{\mathbf{Q}}\right.\}_{t=1}^{T}$ を以下のように表す. $ c_{i t}^{\mathbf{Q}}:=p_{i t}^{\mathbf{Q}} \cdot s_{i t}^{\mathbf{Q}} \cdot \alpha_{i t}^{\mathbf{Q}} . $ ## 3.1.4 出力 最後に SINN は文の極性を $y^{Q}$ 以下のように出力する $ y^{\mathbf{Q}}=\sum_{t=1}^{T} c_{t}^{\mathbf{Q}} $ ここで, $y^{\mathbf{Q}}>0$ は $\mathbf{Q}$ がポジティブであることを表 表す. ## 3.2 JSP 学習 SINN は JSP 学習によって学習する. JSP 学習は 「単語センチメント辞書を用いた初期化 (Lexicon Initialization)」と「SSLへの制約付き学習」により構成される。 ## Lexicon Initialization まず,以下のような初期化を学習前に行う。 $ w_{i}^{p} \leftarrow \begin{cases}P S\left(w_{i}\right) & \left(w_{i} \in S^{d}\right) \\ 0 & \text { (otherwise) }\end{cases} $ ここで, $P S\left(w_{i}\right)$ は単語 $w_{i}$ のセンチメント辞書値であり, $S^{d}$ はセンチメント辞書内単語の集合である. これは $S^{d}$ が $S^{*}$ の部分集合であり,また,センチメント辞書のセンチメント值が正しい,つまり $P S\left(w_{i}\right)$ の符号が $P N^{*}\left(w_{i}\right)$ に一致し,かつ $S^{d}$ が十分に大きく, $S^{*} \subset \Omega\left(S^{d}\right)$ という条件が成り立つ場合には $S^{*}$内の任意の単語について SINN の各層における解釈性が担保されることが期待される. ## SSL への制約付き学習 学習時には次の $L_{\text {joint }}^{\mathbf{Q}}$ を最小化させるよう学習させる。 $ \begin{aligned} & L_{\text {shift }}^{\mathbf{Q}}:=\sum_{t \in\left.\{t \mid w_{t}^{\mathbf{Q}} \in\left(S^{d} \cap \mathbf{Q}\right)\right.\}} \operatorname{SCE}\left(s_{t}^{\mathbf{Q}}, l_{s s l}\left(P S\left(w_{t}^{\mathbf{Q}}\right)\right)\right. \\ & L_{\text {joint }}^{\mathbf{Q}}:=L_{\text {doc }}^{\mathbf{Q}}+\lambda \cdot L_{\text {shift }}^{\mathbf{Q}} \end{aligned} $ where $l_{s s l}(a)= \begin{cases}1 & \left(a>0 \wedge d^{\mathbf{Q}}=1\right) \vee\left(a<0 \wedge d^{\mathbf{Q}}=0\right) \\ 0 & \left(a>0 \wedge d^{\mathbf{Q}}=0\right) \vee\left(a<0 \wedge d^{\mathbf{Q}}=1\right)\end{cases}$ ここで, $\lambda$ はハイパーパラメータであり, $L_{\text {shift }}^{\mathbf{Q}}$ は SSLへの制約に関するコスト関数である. この $L_{\text {shift }}^{\mathbf{Q}}$ の活用によって $R^{*}\left(w_{t}^{\mathbf{Q}}\right)$ と $s_{t}^{\mathbf{Q}}$ の符号が一致させるような制約が $\Omega\left(S^{d}\right)$ 内の単語についてかかることが期待でき,WOSL や SSLへの極性情報の伝搬が促進されることが期待できる. ## 4 評価実験 ## 5 解釈性の評価 本節では実データを用いて本手法の評価を予測性能及び解釈性の二点から評価する. ## 5.1 実験設定 景気ウォッチャー調査の現状に関する日本語コメントのデータセット [2] を用いて実験を実施した. 本データセットは訓練データ,検証データ, テストデータから構成され,各データセットにポジティブコメント及びネガティブコメントがそれぞれ 20,000 件,2,000 件,4,000 件格納されている. Lexicon Initialization においては「”上がる”, ”回復”, "上方”, ”増加”, ”上昇”」及び「["減少”, ”低下”, "損失”, ”遅れ”, ”リスク”]」についてそれぞれ +1 と -1を入れる形で初期化を実施した。また,Tokenizer は rinna/japanese-roberta-baseを利用した。 ## 5.2 評価指標 予測性能についてはテストデータに対するポジネガ分類制度により評価した。解釈性については, [2] にて提供されている人手で作成された,単語レベルでのポジネガリスト及び極性反転に関するデー タセットをもとに (A) WOSL 及び (B) WCSL の評価を実施した. (A) WOSL の評価では,WOSL の妥当 性をWOSLから得られるリスト内単語の極性(ポジティブ 189 件,ネガティブ 198 件)と単語極性リス卜内の極性の一致度 (macro $F_{1}$ 値) をもとに評価した.また,(B) WCSL の評価では,まず極性反転に関するデータセットに記載される各コメントをモデルに読み込ませ, CWL 層から各トークンの文脈スコア $s_{t}^{\mathbf{Q}}$ を抽出する. その後, 単語極性リスト内に含まれるトークンを対象に, $s_{t}^{\mathbf{Q}}<0$ の場合,または $\left.\{s_{t}^{\mathbf{Q}}\right.\}$ の平均値よりも小さい場合にはセンチメントが「反転または軽減されている」とみなし,そうでない場合には「反転または軽減されていない」とみなした. この予測結果とデータセットにつけられる反転タグが一致するかどうかによって評価した。評価指標には Macro F1 値を利用した. 尚,本評価データには「反転または軽減されている」のラベルが 660 件,「反転または軽減されていない」のラべルが 3,000 件付与されていた. ## 5.3 ベースライン 性能評価のため,解釈性に関しては,SINN[2]加え,SINNにおける WGCL の層に RoBERTa ## 5.4 結果・考察 表 1 が評価結果である.SINN+GPT の結果が提案手法の結果である. SINN に比べ,予測性能をあげることには成功した。また,WOSL や WCL に関する解釈性についてもある程度性能を保っていることが見て取れる。また,図 1 で見て取れるように,本提案手法 (SINN+GPT) センチメントへの影響を後ろから受けていることが見て取れる。例えば、「イベントが何もないので、という記載においてイべント(ポジティブワード)が「何もない」によって後ろから反転させられていることが可視化結果をもとに理解できる。一方, SINN+GPT 内の WCL に関しては,極性反転されている部分について,マイナスの値を取ることができていない様子が見られ, この部分を改善し, SINN (ベースライン) のように極性反転に対し, WCL 内の値をマイナスに取ることができれば,WOSL に関しても更なる性能向上がされることが期待される. ## 6 結論 SINN へ自己回帰型の学習済み大規模言語モデルを組み込み,Joint Sentiment Propagation 学習を用いて自然な形で学習させることで, (1)ニューラルネッ表 1 評価結果 & \\ RoBERTA & 0.955 & - & - \\ 図 1 Visualzation example by SINNs トワークの予測性能向上,及び (2) 各単語のセンチメントへの影響をその前後で分離させ,可視化することを試みた。予測性能を解釈性をある程度保ちつつも向上させることには成功したが,まだ改善の余地があると言える. 今後の展開としてはマルチリンガルモデルの活用による性能向上や Few Shot 学習手法の提案,あるいはより効率の良い学習手法の提案等が挙げられる。また,より大規模なデータセッ卜を用いた本手法の評価やもう一歩踏み込んだ可視化結果の評価等も今後の展開としては考えられる. ## 参考文献 [1] Tomoki Ito, Kota Tsubouchi, Hiroki Sakaji, Tatsuo Yamashita and Kiyoshi Izumi, SSNN: Sentiment Shift Neural Network, SDM 2020, 2020. [2] Tomoki Ito, Kota Tsubouchi, Hiroki Sakaji, Tatsuo Yamashita and Kiyoshi Izumi, Word-level Contextual Sentiment Analysis with Interpretability, AAAI 2020. [3] Radford, Alec and Wu, Jeff and Child, Rewon and Luan, David and Amodei, Dario and Sutskever, Ilya, Language Models are Unsupervised Multitask Learners, 2019. [4] Zhuang et al., A Robustly Optimized BERT Pre-training Approach with Post-training, CCL 2021 [5] S. Bach and A. Binder and G. Montavon and F. Klauschen and K. R. Muller and W. Samek, On pixel-wise explanations for nonlinear classifier decisions by layer-wise relevance propagation, PLOS ONE Vol. 10. No. 7. 2017. [6] L. Arras and G. Montavon and K. R. Muller and W. Samek, Explaining Recurrent Neural Network Predictions in Sentiment Analysis, EMNLP Workshop 2017 [7] M. T. Ribeiro and S. Singh and C. Guestrin, Why Should I Trust You?" Explaining the Predictions of Any Classifier, KDD 2016.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D12-1.pdf
# 比較文の意味解析のための「深い」係り受け関係の解析 窪田悠介 ${ }^{1}$ 林則序 ${ }^{2}$ 天本貴之 ${ }^{3}$ 峯島宏次 ${ }^{3}$ 1 国立国語研究所 2 東京大学 3 慶應義塾大学 kubota@ninjal.ac.jp hayashi-lin@g.ecc.u-tokyo.ac.jp amamoto@keio.jp minesima@abelard.flet.keio.ac.jp ## 概要 言語学的に複雑な現象に関する意味解析を行うための方法として、「深い係り受け」という概念を提案し、その有効性を検証したパイロット研究の結果を報告する。「深い係り受け」とは、一言で言って抽象的な意味関係に関わる情報であり、理論言語学では統語変換などの複雑な操作によって規定される。 このような情報を、深層学習などの最近の機械学習の手法でどの程度正確に解析できるかを検証した研究は未だ存在しない。本研究では、日本語比較文の分析に関わる「深い係り受け」情報の判定器として、深層学習モデルと (言語学的知識に基づく) 規則ベースモデルの二種を実装し、その比較を行った。 ## 1 はじめに 深層学習の手法や大規模言語モデルが手軽に利用可能になったことで、自然言語処理 (NLP) 技術を援用して言語理論の問題に取り組む研究が活発化している。しかしながら現在までの研究は、既存の NLP 技術で解ける形に言語理論の問題を規定し直す形のものが多い。このため、「統語変換の概念を実装した頑健なパーザは構築可能か?」といった、理論言語学側の核心的問題を立脚点とした研究は、一部の先駆的試み [1] 除いて端緒にすらついていない。 本研究では、理論言語学研究に動機づけられた概念として、「深い係り受け」という概念を提案する。統語解析から意味解析へのパイプラインの途中に深い係り受けの解析レイヤを組み込むことで、複雑な意味解析を機械に実装可能な形で行うための見通しが立つ。具体的には、深い係り受けの解析自体が、多くの場合、既存の機械学習の手法を援用することで比較的容易に高精度で可能であり、また、句構造解析や含意関係認識などの、この解析レイヤの上下に接合する他のコンポーネントに関しても既存の高精度な解析器がそのまま利用可能となる。本論文で は、このような設計の意味解析システムのプロトタイプとして構築した、日本語の比較文の意味解析のための深い係り受けの解析器を報告する。 ## 2 理論的前提 比較文の意味を正確に解析することは、自然言語の意味論における重要な課題である $[2,3]$ 。また、比較文は (1) に見られるような含意関係をもたらす言語表現であるため、NLP の含意関係認識においても重要な課題の一つである $[4]$ 。 (1) P1: 太郎は次郎より背が高い。 P2: 次郎は三郎より背が高い。 $\mathrm{C}$ : 太郎は三郎より背が高い。 比較文の意味解析には、表面的な係り受け関係だけでなく、以下三種類の情報の判定が必要となる [5]。 (2) a. 何と何が比較されているか b. 比較の尺度 (スケール) は何か c. 差分がいくらか 以下、便宜的にこの情報を「深い係り受け」と呼ぶ。理論言語学では、比較文を (3) に示す「寄生スコープ (parasitic scope)」[6] という複雑な統語変換操作で分析する方法が提案されている $[7,8]$ 。 (3) (3) の分析図は一見複雑に見えるが、実際には、既存の句構造解析器の出力と ( $2 \mathrm{a}-\mathrm{c})$ に示した深い係り受けの情報があれば、単純な構文木の変換により一意に復元可能である。つまり「寄生スコープ」とは、深い係り受けと浅い係り受けをどう組み合わせれば文の意味が得られるか、ということに関する母語話者の直観的知識を言語学者が明示的に規則化したものにほかならない。この手法により、比較文のような複雑な意味現象に関して、比較的単純な方法で高階論理の正確な意味表示を導くことが可能となる。 具体的には、(4)の文に関しては、(2a-c)の情報があれば、単純な構文木の変換により、それぞれ (5) の論理式を得ることができる (4) で用いたラベルについては 3.1 節を参照)。 (4) a. 太郎は花子より prej ポチ cont が好きだdeg。 b. 警察官cont の初任給は他の公務員よりprej 少しdiff 高いdeg。 (5) a. $\max d[$ 好き(花子) $($ 太郎 $)(d)]$ $>\boldsymbol{\operatorname { m a x }} d[$ 好き(ポチ) $($ 太郎 $)(d)]$ b. $\boldsymbol{\operatorname { m a x }} d[$ 多い(初任給(警察官))(d)] $>\boldsymbol{\operatorname { m a x }} d[$ 多い(初任給(他(公務員)))(d)] 文法理論に基づく高階論理解析器 ccg2lambda [9] などで採用されている既存の CCG 構文解析器をそのまま用いて、(3) の分析図や対応する (5) の高階論理式を得る方法は自明ではない。寄生スコープは、比較文だけでなく、(「同じ/別の」「それぞれ」「平均して」「合計で」などの)複数名詞句や等位構造と連動して複雑な意味解釈をもたらす一連の言語表現の分析にも有効であることが知られている [10]。従って、寄生スコープ分析に基づく自動解析の方法を模索することは、理論言語学研究への NLP 技術の援用のための道筋をつける目的のみならず、NLP の推論タスクなどへの理論言語学的知見の活用のためにも一定の意味があると考えられる。 ## 3 深い係り受けの判定器の比較 寄生スコープ分析に基づく比較文の自動解析器を作り、それを用いてコーパスなどに現れる任意の文を解析するためには、以下の二つの情報の両方を正確に推定することが必要となる。 - 浅い係り受け: 表面的な依存関係/句構造 - 深い係り受け: (2) の比較文の意味に関わる情報 この二つのうち、浅い係り受けに関しては既存の句構造文法 (HARUNIWA2 [11] など) や CCG の解析器 (depccg [12] など) を用いることができる。 深い係り受けは (6) の特徴を持つ情報である。 (6) a. 抽象的な意味関係に関わる情報である b. 部分的に文法的マーキングで表示される 深い係り受けの推定は、(6a) の特徴のため本質的に困難なタスクだが、(6b) の特徴を持つことから、形態・統語的特徴や意味的類似度などの情報により、ある程度の精度で推定できることが予想される。このため、言語学的知見と NLP 的手法を組み合わせたアプローチが特に有効と考えられる。しかしながら、我々の知る限り、深い係り受けの推定 (や類似タスク)に関して、異なる特徴を持つ複数の手法を比較し、それらの性能や利点・欠点を具体的に検討したした研究はいまだ存在しない。 本研究では、深い係り受けの推定に関して、言語学的知見に基づいて規則を手で書いた規則べースの判定器を用いる手法と、アノテーション・データを用いた深層学習のラベル認識タスクとして解く手法を構築し、両者の解析結果を比較した。以下、タスクの定義と、それぞれの判定器の詳細を記述する1)。 ## 3.1 タスクの定義 2 つのモデルにおけるトークン化の相違や、係り受け関係の利用可能性の相違があるため、タスクは文字列の区間に対するラベル付けタスクとして定義する。具体的には、日本語の文である任意の文字列に対し、正解データにおいて付与されているラベルと判定器が予測したラベルの一致率を計算する。 (7) ラベルの種類 prej: 比較句 (例:「花子より」) cont: 比較句と対になる句 (例:「ポチが」) diff: 差分表現 (例: 「少し」「3cm」) deg: 程度述語 (例:「好きだ」「背が高い」) (8) 正解データの例妻が仕事に精出す一方、[赤沼は] cont [それより]prej [もっと]diff [忙しい] deg 。 (BCCWJ LB19_00238, 5950) 1)ソースコードおよびモデルについての情報は https://github.com/ABCTreebank/comparative-nerutils/releases/tag/NLP2023 にて公開中である。 ## 3.2 規則ベースの判定器 既存の一般的な言語処理ツール(形態素解析、依存構造解析)を使用して規則べースの判定器を実装した。まず、入力文を GiNZA [13] によって形態素解析し、依存構造解析を行う。この依存構造は日本語 Universal Dependencies (UD) [14] に基づくものであり、例えば、(4b) の例には付録図 1 に示したような出力(依存構造木)が得られる。 これを用いて、次の順序で特定の条件を満たす構成素に素性を割り振る。構成素の意味的な類似性については、GiNZA が提供する単語埋め込みによるコサイン類似度を利用した。 1. prej: 依存構造木から「 $\mathrm{N}$ より」「 $\mathrm{N}\{$ と・に $\}$ 比べ」における名詞 $\mathrm{N}$ を特定し、それを主要部とする部分木を prej とする。(4b) では「公務員」 がNであり、「他の公務員より」が prej となる。 2. deg: $\mathrm{N}$ の親(「高い」)を deg とする。 3. diff: deg の子に副詞(「少し」)があれば、それを diffとする。 4. cont: 「Xの方」という句がある場合は、 $\mathrm{X}$ を主要部とする部分木を cont とする。「X の方」がない場合は、prej、deg、diff に含まれていない要素の中で、 $\mathrm{N}$ ともっとも類似度が高い要素を $\mathrm{X}$ とする。その上で、 $\mathrm{X}$ が名詞であれば、 $\mathrm{X}$ を主要部とする部分木を cont とし、Xが名詞でない場合、cont は空とする。(4b) の場合、「警察官」が cont となる。 ## 3.3 機械学習に基づく判定器 学習データ BCCWJ [15]から、「より」と「\{と・ に\$比べ」を含む文で、比較構文に該当する可能性 }$ があるものを 3,460 文抽出した。付録表 1 に内訳を示したとおり、これらの文は、複文 (連用節、連体節)をなすものを含み、また、比較文でないデータも含んでいるため、3.1 節で定義した深い係り受け判定のタスクは一定の複雑さをもつものであると考えられる。これらの文に対して、アノテーションを上の (8) に示したブラケット形式で、手動で施した。アノテーションデータのうち、評価用に 350 文 (全体のおよそ 10\%)をランダムに選出し、残りの 3,110 文を学習に用いた。 モデル BERT モデル [16] ${ }^{2)}$ の上に、トークンを 2)日本語 BERT モデルは https://huggingface.co/cl-tohoku/ bert-base-japanese-whole-word-masking を用いた。分類する線形ニューラルネットワークを加えたものをモデルとした。これは、固有表現抽出(Named Entity Recognition, NER)と同じモデルの構成である。単語埋め込みベクトルの次元数は 768、入力長を 256 に設定した。分類ラベルは、空ラベル(O) および (7) に示したラベル (prej, cont, diff, deg) の 5 つで構成した。 モデルの学習上記学習データを用いて学習を行った。学習時のエポック数は 27 、ミニバッチサイズは 16、学習率は $5.0 \times 10^{-5}$ とした。 ## 4 結果・考察 ## 4.1 評価方法 評価用 350 文について、規則べースモデルと機械学習モデルの 2 種類で予測をし、正解データと照合した。予測された素性のスパンと正解データのスパン同士の可能なマッチングパターンを網羅し、個々のマッチングペアに、下記の判定に自然に沿うようなコスト付けを行い、最小コストのマッチングを、線形割当問題ソルバー3)を用いて算出した。マッチングペアの判定は次の 4 種類からなる: - CORRECT(完全一致) - SPURIOUS(余分な予測) - MISSING(正解スパンの予測の失敗) ・WRONG_SPAN(スパンが重なるが不一致) 結果の集計のために、MUC-5 評価メトリクス [17] のうち、再現率・精度メトリクス (recall-precision metrics)を用いた。メトリクスには strict と partial の 2 種類を設け、strict における正解は CORRECT のみ、 partial における正解は CORRECT+0.5WRONG_SPAN とした ${ }^{4)}$ 。評価結果は付録表 2 および表 3 の通り。 ## 4.2 モデル間の比較 全般的に機械学習モデルのほうがスコアが高いが、素性ごとに 2 つのモデルの差が大きく異なる。 prej はどちらのモデルも F 1 值が 80 以上になった。 prej 「より」「\{と・に\}比べ」を手がかりとして特定できる。機械学習モデルはこの点の学習に成功している。一方、規則ベースモデルでは、再現率は機械学習モデルを超えるが、精度が (strict、partial どち 3) scipy.optimize.linear_sum_assignmentを使用した。 4)[18]の partial boundary matching と違い、素性が不一致で範囲が一致するスパンのペアは正解として扱わない。一般的な固有名認識と違い、我々にとっては素性の不一致は重大な間違いだからである。 らの基準でも) 機械学習モデルに比べ 10 ポイント以上落ちている。その主な原因は、参照している形態素解析、依存構造解析の品詞情報が比較のヨリと起点のヨリ(例:「ロンドンより最近到着した」)を区別していないことにある。起点のヨリに関する過剩な予測を除外すると、精度 (strict) は素性の単純平均で 13.1 ポイント上昇する5)。 $\operatorname{deg}$ に関して規則ベースモデルの再現率が機械学習モデルに対して劣る主な要因としては、ヨリ句と deg の間に他の述語が介在している場合に典型的に見られる解析エラーが挙げられる(例:「[中央区に比べ]prej、西区のはずれに位置する平和は空気が [澄ん] deg でいる ${ }^{6}$ )」で「位置(する)」を $\operatorname{deg}$ と予測する) $)^{7)}$ 。規則べースモデルの diff に関するエラーの要因としては、prej と同様、品詞情報の不足により、差分表現を特定することが難しい点が挙げられる。 また、規則べースモデルは、 3.2 節で述べたように prej から順に素性を判定するため、上述の prej 誤判定が他の素性の誤判定(精度の低下)の一因になっている。これらの点はすべて、規則ベースの手法の古典的な問題の一種である。本研究が対象とする、一見単純な言語学的知識で解けそうなタスクでも、 アノテーション・データを用いた機械学習が、タスクに特化した教師データなしの規則べースの手法と比べて実データに対して明らかに頑健であることを示しており興味深い。 一方で、構造を明示的に参照していないせいで機械学習モデルが判定に失敗している例もある。たとえば、付録 (9a) では cont はブラケットで囲った名詞節全体だが、モデルは名詞節内の非連続な区間を cont と予測する。また、(9b) の「黒人」は従属節の主語であり、比較構文をなす主節の要素ですらないが、誤って主節述語に対する cont と予測されている。 ## 4.3 素性ごとの比較 4 つの素性のうち、判定が最も困難で、かつ意味解析にとって重要なものは、統語的・形態的な手がかりが乏しい cont である。これに関しては、2つの  モデル双方で、予想通り 4 つの素性の中で F1 が最も低くなった。この主な要因としては、次の 3 つがある(具体的な例文は付録 (10) を参照)。 意味的類似度の過剩重視 (10a) で比較の対象は時点だが、言語表現として明示されないので、「cont なし」が正解である。しかし、prej 内の国名「フランス」につられて、「ベトナム民主共和国 (大統領)」 が cont と予測される。(機械学習・規則ベース両方) cont が名詞句の一部であるケース (10b) においては、比較の正しい対比は「コウヤマキ cont」と 「他の五樹種 prej」だが、モデルは「コウヤマキ」を含むより大きな名詞句「...の耐陰性 (...)」全体を cont と予測する。(規則べースのみ) 文脈情報の不足前文脈、および「おっとりした」 から、(10c) の正解は「娘よりも prej」/「花 cont」であると判断できる。しかし、モデルは一般的に cont になりがちな主語名詞句「おっとりした母」を cont と予測する。(機械学習・規則ベース両方) ## 5 結論 「深い係り受け」の解析を実証的に検証するため、日本語比較文の意味解析を題材に、機械学習と規則ベースの 2 つのモデルを構成し、性能を比較した。以下簡単に結論をまとめ、今後の方針を述べる。 まず、全般的に機械学習モデルのほうが性能が高いが、いくつかの弱点に関しては、異なる種類の言語学的情報を明示的に参照することで性能の改善が見込める。係り受け解析の参照など ( (9) 参照)、規則ベースモデルの要素を何らかの形で取り入れるのが有効と考えられる。また、cont の予測の改善のためには、(10c) が示唆するように前文脈を考慮する必要がある。文脈情報の利用で性能向上が見られるかを今後検討する。 「深い係り受け」の解析の先には、これを用いた意味解析が目標としてある。直近の課題は、 ccg2lambda などによる、論理式を介した含意関係判定器への接合である。人間の言語処理が、連結した複数のコンポーネント間の制約の最適化問題として規定できることはほぼ疑いの余地がない。深い係り受けのレイヤを立てた意味解析パイプラインは、この設計の機械実装可能な近似と位置づけられる。将来的な課題は、定量的な性能検証が可能な自然言語の意味処理に関するモデルとして、このような設計の機械を構築することである。 ## 謝辞 本研究は JSPS 科研費 21K00541、国立国語研究所共同研究プロジェクト「計算言語学的手法による理論言語学の実証的な方法論の開拓」JST CREST JP-MJCR2114 の支援を受けたものである。研究の初期段階において助言を下さった吉川将司氏に感謝する。 ## 参考文献 [1] John Torr, Miloš Stanojević, Mark Steedman, and Shay B. Cohen. Wide-coverage neural A* parsing for Minimalist Grammars. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 2486-2505, Florence, Italy, July 2019. Association for Computational Linguistics. [2] Christopher Kennedy. Comparatives, semantics of. In Encyclopedia of Language and Linguistics, pp. 690-694. Elsevier, Oxford, 2 edition, 2005. [3] 澤田治. 比較構文の語用論. 澤田治美(編), ひつじ意昧論講座 2: 構文と意味, pp. 133-155. 2012. [4] Izumi Haruta, Koji Mineshima, and Daisuke Bekki. Combining event semantics and degree semantics for natural language inference. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 1758-1764, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics. [5] Omid Bakhshandeh and James Allen. Semantic framework for comparison structures in natural language. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 993-1002, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [6] Chris Barker. Parasitic scope. Linguistics and Philosophy, Vol. 30, No. 4, pp. 407-444, 2007. [7] Christopher Kennedy. Modes of comparison. In Proceedings from the Annual Meeting of the Chicago Linguistic Society, Vol. 43, pp. 141-165, 2009. [8] Ai Matsui and Yusuke Kubota. Comparatives and contrastiveness: Semantics and pragmatics of Japanese hoo comparatives. In Proceedings of Formal Approaches to Japanese Linguistics 5, pp. 126-139, Cambridge, MA, 2010. MITWPL [9] Koji Mineshima, Ribeka Tanaka, Pascual MartínezGómez, Yusuke Miyao, and Daisuke Bekki. Building compositional semantics and higher-order inference system for a wide-coverage Japanese CCG parser. In Proceedings of EMNLP 2016, pp. 2236-2242, Austin, Texas, 2016. Association for Computational Linguistics. [10] Yusuke Kubota and Robert Levine. Type-Logical Syntax. MIT Press, Cambridge, MA, 2020. Available Open Access at https://direct.mit.edu/books/book/4931/ Type-Logical-Syntax. [11] Butler Alastair Horn, Stephen Wright and Kei Yoshimoto. Keyaki treebank segmentation and part-of-speech labelling. 言語処理学会第 23 回年次大会発表論文集, pp. 414-1148, 2017. [12] Masashi Yoshikawa, Hiroshi Noji, and Yuji Matsumoto. A* CCG parsing with a supertag and dependency factored model. In Proceedings of ACL 2017, pp. 277-287, 2017. [13] 松田寛. Ginza - universal dependencies による実用的日本語解析. 自然言語処理, Vol. 27, No. 3, pp. 695-701, 2020. [14] 浅原正幸, 金山博, 宮尾祐介, 田中貴秋, 大村舞, 村脇有吾, 松本裕治. Universal dependencies 日本語コーパス. 自然言語処理, Vol. 26, No. 1, pp. 3-36, 2019. [15] Kikuo Maekawa, Makoto Yamazaki, Toshinobu Ogiso, Takehiko Maruyama, Hideki Ogura, Wakako Kashino, Hanae Koiso, Masaya Yamaguchi, Makiro Tanaka, and Yasuharu Den. Balanced Corpus of Contemporary Written Japanese. Language Resources and Evaluation, Vol. 48, No. 2, pp. 345-371, 2014. [16] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [17] Nancy Chinchor and Beth Sundheim. MUC-5 evaluation metrics. In Fifth Message Understanding Conference (MUC-5): Proceedings of a Conference Held in Baltimore, Maryland, August 25-27, 1993, 1993. [18] Isabel Segura-Bedmar, Paloma Martínez, and María Herrero-Zazo. SemEval-2013 task 9 : Extraction of drugdrug interactions from biomedical texts (DDIExtraction 2013). In Second Joint Conference on Lexical and Computational Semantics $(* S E M)$, Volume 2: Proceedings of the Seventh International Workshop on Semantic Evaluation (SemEval 2013), pp. 341-350, Atlanta, Georgia, USA, June 2013. Association for Computational Linguistics. 図 1: 依存構造木の例 表 1 : アノテーションデータの内訳 & & 再現率 & F1 & & 再現率 & F1 \\ 表 2: 機械学習モデルの結果 & & 再現率 & F1 & & 再現率 & F1 \\ 表 3: 規則ベースモデルの結果 (9)(機械学習モデルに特有の失敗、下線eont が誤った予測) a. しかし [論理よりも経験よりも何よりも]prej [たいせつ] deg なことは、 [子がeent 親から信用されることeent]cont である。(BCCWJ LB11_00024,39960) b. 黒人cont は出生率は増加しているが、[ニューヨークを去る人] cont が [移住してくる人よりも]prej [多い]deg。 (BCCWJ LB13_00134,8920) (10) (cont の予測の失敗、下線e@ntが誤った予測) ## a. 意味的類似度の過剰重視 ベトナム民主共和国大統領eont が帰りついた祖国の情勢は、[フランスへ向った時よりも]prej [更に]diff [悪化]deg していた。 (BCCWJ LBc2_00023, 22980) ## b. cont が名詞句の一部であるケース このことは、[コウヤマキ] cont の耐陰性(少ない光に耐えて育つ能力)がeont、[他の五樹種にくらべて]prej、[いちじるしく]diff [高い]degことを示している。(BCCWJ LBk6_00008, 23250) ## c. 文脈情報の不足 おっとりした母はeont [娘よりも] prej[花に]cont [関心]deg がむいている。(BCCWJ LBh0_00004, 74220)
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D12-2.pdf
# 日本語 CCGBank は言語学的に妥当か 戸次大介 ${ }^{1}$ 谷中瞳 ${ }^{2}$ 1 お茶の水女子大学 2 東京大学 bekki@is.ocha.ac.jp hyanaka@is.s.u-tokyo.ac.jp ## 概要 日本語 CCGBank は、日本語 CCG パーザの開発において学習・評価データとして利用されている $\mathrm{CCG}$ ツリーバンクである。しかし、日本語 CCGBank は係り受けツリーバンクからの自動変換によって生成されたものであり、その言語的妥当性については検証が必要である。本論文では、日本語 CCGBank における受身・使役の分析に焦点を当て、それが意味解析システム ccg2lambda の意味合成と相まって、特に使役受身文において経験的に誤った予測をもたらすことを示す。メタレベルでは、本論文はツリーバンクを言語学的分析と見做して反証する試みであり、その方法論の例示である。 ## 1 日本語 CCG ツリーバンク ツリーバンクからパーザを構築する、という工程は 1990 年代の確率的 CFG パーザの時代に確立されたものである。しかし、当時はこのようなアプローチは言語学としての形式統語論には適用できない、と考えられていた。その理由は「形式統語論は柔軟性に欠け、実際のテキストの構造を網羅的に記述することはできない」と信じられていたからである。この誤解は、組合せ範疇文法 (Combinatory Categorial Grammar, CCG: Ades and Steedman (1982); Steedman $(1996,2000))$ の理論的発展、および英語 CCGBank (Hockenmaier and Steedman, 2005) 等の CCG ツリーバンクの登場によって払拭されることとなった。その後の C\&C parser (Clark and Curran, 2007) や EasyCCG (Lewis and Steedman, 2014) 等の CCG パーザの開発は、形式統語論の理論である CCGのためのパーザが、確率的 $\mathrm{CFG}$ パーザに準ずる工程によってツリーバンクから生成可能である、ということを明らかにした点において印象的な出来事であった。 この流れは、日本語 $\mathrm{CCG}$ パーザの研究にも影響を与えた。Bekki (2010)によって、日本語の統語構造も CCG による網羅的な記述が可能であることが一定以上の水準において示されたことをうけて、Uematsu et al. (2013) による日本語 CCGBank が構築され、続いて Jigg (Noji and Miyao, 2016), depccg (Yoshikawa et al., 2017) といった日本語 CCG パーザが開発されるに至った。現在の研究環境では、高速で頑健な複数の CCG パーザが利用可能であり、その精度はニューラル言語モデルの発達によってさらなる改善をみている。 日本語 CCGBank の開発における難点として、当 たことが挙げられる1)。CCGbank (Hockenmaier and Steedman, 2005) が CFG ツリーバンクである Penn Treebank から生成されたのに対し、日本語 CCGBank 開発当時に利用可能であった日本語のための大規模ツリーバンクは、係り受けコーパスである京都大学テキストコーパス2)しかなかったため、Uematsu et al. (2013) では係り受け構造から CCG 統語構造への自動変換を試みたのである。 ところが $\mathrm{CCG}$ の統語構造は一般に、項構造や統語素性など、 $\mathrm{CFG}$ 木と比較しても精緻な情報を持っている。したがって、CFG よりもさらに情報量の少ない係り受け木は、多くの言語学的情報で埋め合わせなければならない。この補完は自明ではなく、 そのために ad-hoc な規則を随所で措定する必要があった。たとえば、受身/使役の動詞性接尾語「れ (る)」「せ(る)」を、統語範疇 $S \backslash S$ を持つ語として 1)近年では、日本語の大規模な CFG ツリーバンクが NINJAL parsed corpus of modern Japanese の一部として利用可能であり、それを用いて範疇文法の一種である $\mathrm{AB}$ 文法のツリーバンクを生成する試みも行われている (Kubota et al., 2020)。しかし、日本語 CCGBank の何が経験的に問題であるのか、なぜ問題なのか、という問いに対して踏み込んだ議論はなされていない。Universal Dependency のような係り受けツリーバンクから新たな CCGBankを生成する試み Tran and Miyao (2022) も進行中であり、上述の問いに答えることの重要性は益々高まっている。 2) https://github.com/ku-nlp/KyotoCorpus 図 1 Bekki (2010) における (1a)(2a) の統語構造 解析したのはその一例である。これがなぜ誤りといえるのかについては次節以降で論じる。 CCGBank は CCG パーザの学習・評価データとして機能するため、CCG パーザは CCGBank の分析の誤りを継承する。その意味において、CCGBank における統語的分析の妥当性は、CCG パーザの(精度に表れない)性能の上限を定める。しかし、ツリー バンクに含まれる統語構造の妥当性に関しては、自然言語処理は語る術を持たない。一方、理論言語学の観点からの研究はこれまでほとんど行われていない。 そのような背景から、本論文では、日本語 CCGBank が示す統語構造を理論言語学の観点から批判的に検討することを試みる。具体的には、日本語 CCG (Bekki, 2010) と CCGBank が異なる分析を与えている「受動文」と「使役文」に着目し、日本語 CCGBank の分析にどのような経験的誤りがあるのか、その一例を明らかにする。また、このような研究の持つ意義についても第 4 節で論じる。 ## 2 日本語における受動文と使役文 まずは日本語の受動文・使役文にまつわる経験的な事実と、それらが日本語 CCG (Bekki, 2010) においてどのように説明されているかを簡潔に解説する3)。受動文の主節におけるガ格名詞句は埋め込み節におけるニ格またはヨ格名詞句に対応する。このことを推論の形式で表せば (1c)のようになる。 (1) a. 太郎が次郎に褒められた。 b. 次郎が太郎を褒めた。 c. $(1 a) \Longrightarrow(1 b)$ 次に、使役文の主節におけるニ格もしくはヨ格名詞句は埋め込み節におけるガ格名詞句に対応する。 こちらも推論の形式で表せば (2c)のようになる。 (2) a. 太郎が次郎を走らせた。 3)受動文については、間接受動文(いわゆる迷惑受身)と直接受動文の二種類が存在する (Bekki, 2010, pp.222-226) が、ここでは直接受動文のみについて論じる。この限定は議論に影響しない。 b. 次郎が走った。 c. $(2 \mathrm{a}) \Longrightarrow(2 \mathrm{~b})$ Bekki (2010) に依れば、文 (1a)(2a) の統語構造は図 1 である。ここで意味の理論として依存型意味論 (Dependent type semantics, DTS: Bekki (2014); Bekki and Mineshima (2017); Bekki (2021))を採用し4) 、語/句の意味表示がそれぞれ以下のようであると仮定する。 (3) 太郎が: $\lambda P . P(\mathbf{t})$ 次郎 $\{$ に $\}: \lambda P . P(\mathbf{j})$ 褒めら: $\lambda y x k .(e: \mathbf{e}) \times \operatorname{praise}(e, x, y) \times k(e)$ 走ら: $\lambda x k .(e: \mathbf{e}) \times \mathbf{r u n}(e, x) \times k(e)$ た: id すると、受動態の動詞性接尾語「れ(る)」および使役態の動詞性接尾語「せ(る)」の意味表示が、受動文・使役文の分析の中核となる。 (4) $れ: \lambda P y x . P x y$ (5) せ: גPyxk.Py $(\lambda e . \operatorname{cause}(e, x) \times k e)$ これらの動詞性接尾語は第一項である埋め込み節の項と自らの項の対応関係を「把握」している。すなわち受動文においては、主節の二格名詞句が埋め込み節のガ格名詞句に、主節のガ格名詞句が埋め込み節のヲ格または二格名詞句に意味的に対応する。継続 $k$ は意味合成の最終段階で $\lambda e$.Tによって埋められる5)と仮定すると、意味合成の結果、文(1a)(2a) の意味表示はそれぞれ以下のようになる。 (6) $\quad(e: \mathbf{e}) \times \operatorname{praise}(e, \mathbf{j}, \mathbf{t}) \times T$ (7) $(e: \mathbf{e}) \times \operatorname{run}(e, \mathbf{j}) \times \operatorname{cause}(e, \mathbf{t}) \times \mathrm{T}$ 4)ここでは Bekki (2010) で採用されている型付き動的論理に代えてDTS を採用しているが、さらにイベント意味論と意味合成を両立する手法として標準的な技法である継続渡し形式 (continuation-passing style)を採用している。一方、簡便のためテンスの分析は省略しており「た」の意味は恒等関数である。 このような理論設定は、本論での論点を意味合成から推論まで明らかにするという目的のもとではもっとも簡略化された設定の一つである。 5) $\mathrm{W}$ は証明項を一つだけ持つ枚挙型 (enumeration type) で「真」 の役割を果たす。 図 2 CCGBank における (1a)(2a) の統語構造 一方、文 (1b)(2b) の意味表示は以下のようになる。 (8) $(e: \mathbf{e}) \times \operatorname{praise}(e, \mathbf{j}, \mathbf{t}) \times \mathrm{T}$ (9) $(e: \mathbf{e}) \times \mathbf{r u n}(e, \mathbf{j}) \times \mathrm{T}$ (6)(7) はそれぞれ (8)(9)を含意するので、推論 (1c)(2c)はいずれも正しく予測される。 この分析の予測の妥当性は受動・使役の接尾語「れ(る)」「せ(る)」を含む様々な構文についての推論データによって検証することができるが、端的な例は使役受身である。日本語においては (10a)のように、使役と受身は接続することができる。 (10) a. 次郎が太郎に走らせられた。 b.太郎が次郎を走らせた。 c. $(10 a) \Longrightarrow(10 b)$ 文 (10a)は文 $(2 a)(=(10 b))$ の受動化であり、(10b) を含意する。「走らせられ」の意味表示は、「走ら」 の意味表示に「せ」(5)を関数適用したのちに「れ」 (4)を関数適用したもので、以下のようになる。 (11) $\lambda y x k .(e: \mathbf{e}) \times \operatorname{run}(e, x) \times \operatorname{cause}(e, y) \times k e$ したがって文 (10a) 意味表示は (12) $\quad(e: \mathbf{e}) \times \operatorname{run}(e, \mathbf{j}) \times \operatorname{cause}(e, \mathbf{t}) \times T$ となるが、これは (7) そのものであるから、(2a)を、 したがって (2b) を含意することが正しく予測される。このように、日本語 CCG の受動文・使役文の分析は、統語構造から意味表示、そして推論に至る過程を「れ(る)」「せ(る)」が現れる広範囲の構文において正しく予測・説明する。 ## 3 CCGBank と $S \backslash S$ 分析 日本語 CCGBankでは、太郎が次郎に褒められた、 の統語構造は図 2 のようになっており、受身の動詞性接尾語「れ (る)」も使役の動詞性接尾語「せ (る)」もともに統語範疇が $S \backslash S$ の語として分析されている。 日本語 CCGBank 自体は意味論の分析を持たないが、日本語 $\mathrm{CCG}$ のための意味論的分析として、含意関係システム ccg2lambda (Mineshima et al., 2015) において採用されている高階論理による意味表示とその意味合成過程が知られている。ccg2lambda の分析は、日本語 CCG パーザである Jigg または depccg の出力する統語構造に依存しており、それらのパーザの出力は日本語 CCGBank の記述に依存している。 まず、ガヲ動詞である「褒め(る)」の意味表示は、以下のようになっている。 (13) $\lambda Q_{2} Q_{1} C_{1} C_{2} K \cdot Q_{1}\left(\lambda x_{1} \cdot Q_{2}\left(\lambda x_{2}\right.\right.$. $\exists e\left(K(\right.$ praise,$\left.\left.\left.e) \& C_{1}\left(x_{1}, e, \mathbf{A g}\right) \& C_{2}\left(x_{2}, e, \mathbf{T h}\right)\right)\right)\right)$ この意味表示は、標準的な二項動詞の意味表示、 もしくは前節の意味表示と比べても、かなり複雑である。その理由は、ccg2lambda では、意味役割である $\mathbf{A g}$ と $e, x_{1}$ の間の関係、および $\mathbf{T h}$ と $e, x_{2}$ の間の関係を相対化して $C_{1}, C_{2}$ という関数の変数によって表しているからである。 $Q_{2}$ に Э格名詞句、 $Q_{1}$ にガ格名詞句を取って統語範疇 $S$ となったのち、トップレベルで機械的に $\lambda E S . S(\lambda x e T .(T(e)=x), \lambda x e T .(T(e)=x), i d)$ を適用する。これによって、 $C_{1}$ と $C_{2}$ に $\lambda x e T .(T(e)=x)$ が代入されて $\operatorname{Ag}(e)=x, \mathbf{T h}(e)=y$ が指定され、また $K$ に id が代入されるのである。「次郎が」の意味表示を $\lambda P . P(\mathbf{j})$ ,「太郎を」の意味表示を $\lambda P . P(\mathbf{t})$ とすれば、能動文 (1b) の意味表示は、 (14) $\exists e(\operatorname{praise}(e) \& \mathbf{A g}(e)=\mathbf{j} \& \mathbf{T h}(e)=\mathbf{t})$ となる。次に、受動文 (1a) の意味表示を考える。 ccg2lambdaにおいては「れ(る)」の意味表示は意味テンプレート6)によって以下のように与えられる。 (15) $\lambda Q_{2} Q_{1} C_{1} C_{2} K . V\left(Q_{2}, Q_{1}\right.$, $ \left.\lambda x_{1} e T . C_{1}\left(x_{1}, e, \mathbf{T h}\right), \lambda x_{2} e T . C_{2}\left(x_{2}, e, \mathbf{A g}\right), K\right) $ $V$ には隣接する他動詞「褒めら」の意味表示が与えられる。よって「褒められ」の意味表示は以下のようになる。 6)ccg2lambda においては「れ(る)」の場合に見られるように、意味テンプレートの適用によって意味表示の型が統語範疇と準同型ではなくなる場合がある。このこと自体への反論はありうるが、ここでは本題ではないので深入りしない。 (16) $\lambda Q_{2} Q_{1} C_{1} C_{2} K \cdot Q_{1}\left(\lambda x_{1} \cdot Q_{2}\left(\lambda x_{2}\right.\right.$. $\exists e\left(K(\right.$ praise,$\left.\left.\left.e) \& C_{1}\left(x_{1}, e, \mathbf{T h}\right) \& C_{2}\left(x_{2}, e, \mathbf{A g}\right)\right)\right)\right)$ すなわち、(15)において $C_{1}, C_{2}$ が受け取っている意味役割を捨て、 $C_{1}$ には $\mathbf{T h}$ を、 $C_{2}$ には $\mathbf{A g}$ を与え直すのである。これに $\lambda P . P(\mathbf{t})$ (太郎を)、 $\lambda P . P(\mathbf{j})$ (次郎が)、 そして $\lambda S . S(\lambda x e T .(T(e)=x), \lambda x e T .(T(e)=x), i d)$ を順次適用することで、(1b) は以下のようになる。 ## (17) $\exists e(\boldsymbol{p r a i s e(e) \& \mathbf{A g}(e)=\mathbf{j} \& \mathbf{T h}(e)=\mathbf{t})$} これはまさに (14) と同一であるから、(1c) の推論が正しく予測されることになる。同様に、使役の「せ (る)」についても、 (18) $ \begin{aligned} & \lambda Q_{2} Q_{1} C_{1} C_{2} K \cdot V\left(Q_{2}, Q_{1},\right. \\ & \left.\lambda x_{1} e T . C_{1}\left(x_{1}, e, \text { Cause }\right), \lambda x_{2} e T . C_{2}\left(x_{2}, e, \mathbf{A g}\right), K\right) \end{aligned} $ のような意味テンプレートを与えれば、まず「走らせ」の意味表示は以下のようになる。 $ \begin{aligned} & \lambda Q_{2} Q_{1} C_{1} C_{2} K \cdot Q_{1}\left(\lambda x _ { 1 } \cdot Q _ { 2 } \left(\lambda x_{2}\right.\right. \\ & \left.\left.\exists e\left(K(\text { run }, e) \& C_{1}\left(x_{1}, e, \text { Cause }\right) \& C_{2}\left(x_{2}, e, \mathbf{A g}\right)\right)\right)\right) \end{aligned} $ したがって、(2b) は以下のようになる。7) (20) $\exists e(\operatorname{run}(e) \& \mathbf{C a u s e}(e)=\mathbf{t} \& \boldsymbol{A g}(e)=\mathbf{j})$ これは(2a) すなわち $\exists e(\boldsymbol{r u n}(e) \& \mathbf{A g}(e)=\mathbf{j})$ を含意するので、(2c)についても正しく予測される。 ところが、この個別のケースについては正しく見える分析が、使役受身について誤った予測を生み出す。「走らせられ」の意味表示は、ccg2lambda では (19)にに15)を適用することによって、 (21) $\lambda Q_{2} Q_{1} C_{1} C_{2} K \cdot Q_{1}\left(\lambda x_{1} \cdot Q_{2}\left(\lambda x_{2}\right.\right.$. $\left.\left.\exists e\left(K(\mathbf{r u n}, e) \& C_{1}\left(x_{1}, e, \mathbf{T h}\right) \& C_{2}\left(x_{2}, e, \mathbf{A g}\right)\right)\right)\right)$ となるが、これは「走ら」に直接受身の「れ(る)」 を適用したもの、すなわち「走られ」の意味表示と同一になってしまっている。ここからは、(10b)= (2a) も、(2b)も、いずれも含意しない。 この誤りの原因は、「れ(る)」が第一項に対して Thを、第二項に対して Agを与える、と大域的に決め打ちしていることにある。使役受身の例が示すことは、「れ(る)」は第一項を、埋め込み節の用言の第二項と対応付け、第二項を、埋め込み節の用言の第一項と対応付ける、という以外の捉え方が許さ  れないということである。この標準的分析が要求することは、埋め込み節の用言の第一、第二項が「れ (る)」の意味表示において操作可能であることである。このことは統語論において「れ(る)」の取るべき第一項の統語範疇が $S \backslash N P \backslash N P$ であることを要求するのである。 ## 4 おわりに 日本語 CCGBank の受動文と使役文の分析、すなわち「れ(る)」と「せ(る)」が統語範疇 $S \backslash S$ を持つ、という統語的分析は、使役受身文において誤った予測を生み出すことを示した。これは、日本語 CCGBank の分析が (1c)(2c)(10c) のような受身・使役が関わる推論を説明しうる意味論的分析を、現時点で持たないということである。第 2 節で述べた日本語 CCG における分析がこれらの推論をすべて正しく予測する以上、修正の責任は CCGBank 側にある。 本論文の議論には、二つの目的がある。一つ目は、ツリーバンクを必ずしも言語学的分析とみなしていない言語学コミュニティへの呼びかけである。 ツリーバンクの記述に対して、言語学的分析に対するのと同じように反例を提示する、という過程が、 ツリーバンクと言語学双方の健全性にとって重要な研究活動であると考える。 二つ目は、ツリーバンクの記述を言語学コミュニティにおいて合意済みとみなしてしまうことへの警鐘である。そもそも理論言語学においては理論は提示・反証・修正の繰り返しであるから、どの時点においても「合意済みの理論」というものは存在しない、という当たり前の事実を再確認しておきたい。 本論文はツリーバンクを言語学的分析と見做して反証する試みであり、そのような方法論の例示でもある。今後、理論言語学のコミュニティから、本論文で行われたようなツリーバンク内の分析への反論が試みられ、それを受けたツリーバンク開発者による分析の修正、それに対するさらなる反論、という研究の流れが現れることを期待したい。 謝辞本研究の一部は、JST CREST JPMJCR20D2、 JSPS 科研費 JP20K19868 の支援を受けたものである。 ## 参考文献 Ades, A. E. and M. J. Steedman. (1982) "On the Order of Words", Linguistics and Philosophy 4, pp.517-558. Bekki, D. (2010) Nihongo-Bunpoo-no Keisiki-Riron - Katuyootaikei, Toogohantyuu, Imigoosei - (trans. 'Formal Japanese Grammar: the conjugation system, categorial syntax, and compositional semantics'). Tokyo, Kuroshio Publisher. Bekki, D. (2014) "Representing Anaphora with Dependent Types", In the Proceedings of N. Asher and S. V. Soloviev (eds.): Logical Aspects of Computational Linguistics (8th international conference (LACL2014), Toulouse, France, June 2014 Proceedings), LNCS 8535. pp.14-29, Springer, Heiderburg. Bekki, D. (2021) "Proof-Theoretic Analysis of Weak Crossover", In the Proceedings of Logic and Engineering of Natural Language Semantics 18 (LENLS18). pp.75-88. Bekki, D. and K. Mineshima. (2017) "Context-passing and Underspecification in Dependent Type Semantics", In: Modern Perspectives in Type Theoretical Semantics, Studies of Linguistics and Philosophy. Springer, pp.1141. Clark, S. and J. R. Curran. (2007) "Widecoverage efficient statistical parsing with CCG and log-linear models", Computational Linguistics 33(4), pp.493-552. Hockenmaier, J. and M. J. Steedman. (2005) "CCGbank LDC2005T13". Linguistic Data Consortium. Kubota, Y., K. Mineshima, N. Hayashi, and S. Okano. (2020) "Development of a General-Purpose Categorial Grammar Treebank", In the Proceedings of the 12th Language Resources and Evaluation Conference. pp.5195-5201, European Language Resources Association. Lewis, M. and M. Steedman. (2014) "A* CCG Parsing with a Supertag-factored Model", In the Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP). pp.990-1000, Association of Computational Linguistics. Mineshima, K., P. Martínez-Gómez, Y. Miyao, and D. Bekki. (2015) "Higher-order logical inference with compositional semantics", In the Proceedings of Conference on Empirical Methods in Natural Language Pro- cessing (EMNLP2015). pp.2055-2061. Noji, H. and Y. Miyao. (2016) "Jigg: A framework for an easy natural language processing pipeline", In the Proceedings of the 54th Association of Computational Linguistics. pp.103-108. Steedman, M. J. (1996) Surface Structure and Interpretation. Cambridge, The MIT Press. Steedman, M. J. (2000) The Syntactic Process (Language, Speech, and Communication). Cambridge, The MIT Press. Tran, T.-A. and Y. Miyao. (2022) "Development of Multilingual CCG Treebank via Universal Dependencies Conversion", In the Proceedings of the 13th Conference on Language Resource and Evaluation (LREC2022). pp.5220-5233. Uematsu, S., T. Matsuzaki, H. Hanaoka, Y. Miyao, and H. Mima. (2013) "Integrating Multiple Dependency Corpora for Inducing Wide-coverage Japanese CCG Resources", In the Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics, Vol. 1. pp.1042-1051, Association for Computational Linguistics. Yoshikawa, M., H. Noji, and Y. Matsumoto. (2017) "A* CCG Parsing with a Supertag and Dependency Factored Model", In the Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (ACL2017). pp.277-287.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D12-3.pdf
# チョムスキー階層とニューラル言語モデル 染谷大河 吉田遼 中石海 大関洋平 東京大学 \{taiga98-0809, yoshiryo0617, nakaishi-kai787, oseki\}@g.ecc.u-tokyo.ac.jp ## 概要 近年、自然言語の文を用いて、言語モデルがどのような言語現象を把握できるかが盛んに検証されている。また、形式言語を用いて、言語モデルがチョムスキー階層のどのクラスに属する言語までを認識できるのかも検証されてきている。しかしながら、自然言語を用いた研究では、同種の統語構造を持った言語現象を抽象化して統一的に扱うという観点が久けていたために、語彙の影響と統語構造の影響を切り分けることが十分にできておらず、また形式言語を用いた研究では、終端記号の種類数が最低限の場合しか扱われておらず、自然言語のように多様な終端記号が存在する場合でも同様に認識できるのかという点は検討されてこなかった。そこで本研究では、自然言語を抽象化し語彙の影響を排除したモデルとして多様な終端記号を持つ形式言語を考え、 ニューラル言語モデルがこのような言語をどの程度認識できるか実験する。 ## 1 導入 ニューラル言語モデルはどの程度統語的に複雑な言語現象を捉えられるのだろうか。近年、ニュー ラル言語モデルの成功に伴い、その統語的評価が盛んに行われている $[1,2,3,4]$ 。これら統語的評価に関する先行研究では、実際に自然言語の文を用いてニューラル言語モデルがどのような言語現象を把握できるのかが検証されており、例えば、これら研究の先駆けとなった Linzen et al. (2016) [1] では、再帰的ニューラルネットワーク (Recurrent Neural Network, RNN; Elman, 1990 [5]) をべースとしたモデルである Long Short-Term Memory (LSTM; Hochreiter and Schmidhuber, 1997 [6]) 言語モデルが英語における主語と動詞の一致を捉えられることが示されている。また、より近年では、様々なタスクで世界最高性能を達成している Transformer [7] をべースとしたモデルである GPT-2 [8] 言語モデルが、LSTM 言語 モデルよりも高い精度で主語と動詞の一致・島の制約などの様々な言語現象を捉えられること [9] も示されている。しかしながら、これらの研究では、主にニューラル言語モデルが個別の言語現象に対して汎化できるかが検証されるにとどまり、同種の統語構造を持つ言語現象を統一的に扱うという観点が欠けていた。そのため、統語構造の複雑さが本質的にどのように結果に影響しているかが不明瞭だった。 また、検証には実際の自然言語を用いているため、語彙の影響を排除できず、言語現象を統語的な複雑性に注目して比較することができないという方法論的な限界があった。 一方、先行研究では、ニューラル言語モデルがどの程度統語的に複雑な「言語」を認識できるのかも盛んに議論されてきている $[10,11,12,13,14,15$, $16,17,18,19,20,21,22,23]$ 。これらの先行研究では、 ニューラル言語モデルがチョムスキー階層のどのクラスに属する形式言語までを認識できるのかが、数理的・実験的に検証されてきており、例えば、RNN やLSTM はいくつかの文脈自由言語を認識できること $[24,25,15]$ や、Transformer はチョムスキー階層にうまく位置付けられないこと $[17,19]$ などが示唆されている。しかしながら、これらの研究は、最低限の数の終端記号を持つ形式言語での検証にとどまっており、同クラスに属する言語であっても、自然言語のように多様な終端記号を持つ場合に、ニューラル言語モデルが認識できるとは限らないという限界があった。 そこで本研究では、自然言語を多様な終端記号を持つ形式言語に抽象化し、語彙の影響を排除して統語的な複雑さに注目することで、ニューラル言語モデルがどの程度統語的に複雑な言語現象を捉えられるのかを検証する。具体的には、英語における複合語などの文法現象を $A^{n} B^{n}$ 型の形式言語、ドイツ語における依存関係などの文法現象を Nested Dependency 型の形式言語、Swiss German における依存関係などの文法現象を Cross Serial Dependency 型 の形式言語に抽象化し、LSTM・GPT-2 言語モデルのそれぞれがこれらのうちどの程度複雑なものまで認識できるのかを検証する。 検証の結果、LSTM 言語モデルは $A^{n} B^{n}$ 型の言語現象については認識することができ、高い精度で学習の際よりも長い文字列に汎化することが可能だが、Nested Dependency 型や Cross Serial Dependency 型の形式言語はほとんど全く汎化できないことがわかった。一方 GPT-2 言語モデルは、いずれの言語においても、LSTM が $A^{n} B^{n}$ 型に対して達成したほど高い精度での汎化は不可能であった。また、いずれの言語モデル、形式言語においても、終端記号の種類を増やしていくと精度が下がる傾向が見られた。 ## 2 実験 ## 2.1 扱う形式言語の種類 本研究で扱う言語はいずれも以下のように定義される:有限個の非終端記号の集合 $V_{\text {non. }}$ を与える。各非終端記号 $A \in V_{\text {non. }}$. 対して、 $T$ 個の終端記号 $a_{A, 0}, \cdots, a_{A, T}$ を定義する。非終端記号のみからなる有限長の文字列の集合 $L_{\text {non. }} \subseteq V_{\text {non. }}^{*}$ を決める。 $L_{\text {non }}$. に含まれる任意の文字列をとり、それを構成する各非終端記号 $A$ を $a_{A, 0}, \cdots, a_{A, T}$ のいずれかに書き換える。ここで、文字列に同じ非終端記号が複数個含まれる場合、それらを異なる終端記号に書き換えても良い。こうして得られる終端記号のみの文字列全体の集合を言語 $L$ とする。言語 $L$ は、非終端記号の集合 $V_{\text {non. }}$ 、各非終端記号に対応する終端記号の個数 $T$ 、そして非終端記号の文字列の集合 $L_{\text {non. }}$ を与えると決まる。 以下、本研究で扱う言語を順に導入し、それぞれの Chomsky 階層における位置付け、および自然言語との対応について述べる。 ## 2.1.1 $A^{n B^{n}$ 型} $ \begin{aligned} V_{\text {non. }} & =\{A, B\} \\ L_{\text {non. }} & =\left.\{A^{n} B^{n}: n \geq 0\right.\} \end{aligned} $ で定義される文脈自由言語。この言語に対応する自然言語 $T \geq 2$ の例としては、オランダ語などに見られる (I)のような構造が挙げられる [26]。 ブラケット内には NP(名詞句)と V (動詞) が 3 つずつ含まれ、NP の個数と V の個数が一致して いる必要がある。一方、各 NP と V のあいだに文法的な対応関係は特に要求されない。これは、書き換え規則を $A \rightarrow$ Marie|Pieter|Arabisch $\mid \cdots$ および $B \rightarrow$ laat|zien|schrijven| $\cdots$ とした場合に対応する。 ( I ) dass Jan [Marie Pieter Arabisch laat zien schrijven] that Jan Marie Pieter Arabic let see write 'that Jan let Marie see Pieter write Arabic' ## 2.1.2 Nested Dependency 型 $ \begin{aligned} V_{\text {non. }} & =\left.\{A_{0}, \cdots, A_{N-1}, B_{0}, \cdots, B_{N-1}\right.\}, \\ L_{\text {non. }} & =\left.\{A_{i_{0}} \cdots A_{i_{n-1}} B_{i_{n-1}} \cdots B_{i_{0}}:\right. \\ & \left.n \geq 0 ; 0 \leq i_{0}, \cdots, i_{n-1} \leq N-1\right.\} \end{aligned} $ で定義される文脈自由言語。ここで、同じ添字 $i$ をもつ $A_{i}$ と $B_{i}$ は文法的な対応関係を持つことを表すと考えると、自然言語では英語の以下の (II) のような構造と対応する [27]。この構造では複数名詞句 the cats と複数動詞 bark が対応し、単数名詞句 the dog と単数動詞 chases がそれぞれ対応している。このように文法数(単数/複数)を持つ動詞の数とそれに対応する文法数を持つ名詞句の数が一致する。よって、非終端記号を $A_{0}=\mathrm{V}_{\text {単数, }}, A_{1}=$ $\mathrm{V}_{\text {複数, }}, \cdots 、 B_{0}=\mathrm{NP}_{\text {单数, }}, B_{1}=\mathrm{NP}_{\text {複数 }}, \cdots$ とし、終端記号への書き換え規則を $\mathrm{V}_{\text {単数 }} \rightarrow$ chases $\mid$ barks $\mid \cdots$ 、 $\mathrm{V}_{\text {複数 }} \rightarrow$ chase $\mid$ bark $\mid \cdots 、 \mathrm{NP}_{\text {单数 }} \rightarrow$ the cat $\mid$ the $\operatorname{dog} \mid \cdots$ 、 $\mathrm{NP}_{\text {複数 }} \rightarrow$ the cats $\mid$ the dogs $\mid \cdots$ とした場合に対応する。 (II) the cats that the dog chases bark ## 2.1.3 Cross Serial Dependency 型 $ \begin{aligned} & V_{\text {non. }}=\left.\{A_{0}, \cdots, A_{N-1}, B_{0}, \cdots, B_{N-1}\right.\}, \\ & L_{\text {non. }}=\left.\{A_{i_{0}} \cdots A_{i_{n-1}} B_{i_{0}} \cdots B_{i_{n-1}}:\right. \\ & \left.n \geq 0 ; 0 \leq i_{0}, \cdots, i_{n-1} \leq N-1\right.\} \end{aligned} $ で定義される文脈依存言語 [28]。ここで、同じ添字 $i$ をもつ $A_{i}$ と $B_{i}$ は文法的な対応関係を持つことを表すと考えると、自然言語では、Swiss German における以下の (III) のような構造に対応する [29]。この構造では、与格動詞 hälfe は与格名詞句 em Hans を、対格動詞 aastriiche が対格名詞句 es huus を項としている。このように文法格を持つ 動詞の数とそれに対応する格を持つ名詞句の数が一致する。さらに、対応する動詞と名詞句は格が一致していなければならない。よって、非終端記号を $A_{0}=\mathrm{V}_{\text {与格 }}, A_{1}=\mathrm{V}_{\text {対格 }}, \cdots 、 B_{0}=\mathrm{NP}_{\text {与格, }}, B_{1}=$ $\mathrm{NP}_{\text {対格 }} \cdots$ とし、終端記号への書き換え規則を $\mathrm{V}_{\text {与格 }} \rightarrow$ hälfe $\mid \cdots \mathrm{V}_{\text {対格 }} \rightarrow$ aastriiche $\mid \cdots \mathrm{NP}_{\text {与格 }} \rightarrow$ em Hans|em huus| $\cdots$ 、 $\mathrm{NP}_{\text {対格 }} \rightarrow$ de Hans|es huus $\mid \cdots$ とした場合に対応する。 (III) ... mer em Hans es huus hälfe aastriiche ... we Hans the house help paint. '... we help Hans paint the hause' ## 2.2 データ生成 本研究では、Nested Dependency 型と Cross Serial Dependency 型については $V_{\text {non. }}=$ $\left.\{A_{0}, \cdots, A_{4}, B_{0}, \cdots, B_{4}\right.\}$ の場合のみで検証する。そして、各形式言語について $T=2,5,10,100,1000,5000$ の 6 つの場合を考え、合計で 18 種類の形式言語を言語モデルが認識できるかを検証する。 以上の 18 種類の各文法によって生成される文のうち、長さが $l \sim U(4,30)$ である文を 50,000 文サンプリングして作成し、そのうち 40,000 文を学習用データ、 5,000 文ずつを検証・テスト用データとした。また、各文法から生成される文のうち、長さが $l \sim U(31,100)$ である文を 5,000 文をサンプリングし、「汎化テスト用データ」とした。これは、言語モデルが学習時よりも長い文字列に対してその文字列が当該言語に含まれるかどうかの判定を正しくできるかどうかを検証するためのものである。最後に、以上により生成した 55,000 文の正例それぞれに対して以下の方法で対応する負例を作成して追加し、各形式言語それぞれに対して合計 110,000 文ずつからなるデータセットを生成した: $A^{n} B^{n}$ 型の形式言語については、それぞれの正例に含まれる B の数 $\mathrm{n}$ を U(min_sequence_length,max_sequence_length) に変化させることによって負例を生成した。ただし、 $n=m$ となった場合は $n \neq m$ となるまでサンプリングを繰り返した。また、ここでmin_sequence_length と max_sequence_length は各データに含まれる文の長さの最小値と最大值である。また、Nested Dependency 型と Cross Serial Dependency 型の形式言語については、それぞれの正例に含まれる $\mathrm{N}$ 個の $B_{n}(0 \leq n \leq N-1)$ のうち、 $l \sim U(1, N-1)$ 個を $B_{m}(0 \leq m \leq N-1, m \neq n)$ に入れ替えることで負例を生成した。本研究では、データセット内の各文についてそれが正例であるか負例であるかの二值分類を行うタスクを考え、その正解率で言語モデルの性能を評価する。 ## 2.3 言語モデル 本研究では、前節で作成されたデータを用いて二種類のニューラル言語モデルの性能を評価する。 LSTM 本研究では、PyTorch ${ }^{1}$ で実装された、単語埋め込み次元が 256 、隠れ層の次元が 256 の 1 層 LSTM 言語モデル [6]を使用する。 GPT-2 本研究では、 Huggingface ${ }^{2}$ により実装された 3 層、4ヘッド、単語埋め込み次元が 128 の GPT-2 言語モデル [8]を使用する。 言語モデルの学習 LSTM 言語モデルは、最適化アルゴリズムとして SGDを用いた。GPT-2 言語モデルは、最適化アルゴリズムとして AdamW [30]を用い、その他のハイパーパラメータはデフォルト值を用いた。両言語モデルともにバッチサイズは 512 で 15 エポック訓練し、検証用データでの損失が最も小さくなった時点のモデルを評価した。 ## 3 結果と考察 表 1 は各言語モデルの各タスクに対する汎化テスト用データでの正解率である。先行研究 [23] に倣い、各タスクに対する正解率は、異なる 10 のランダムシード、異なる 3 つの学習率を用いて学習された言語モデルの正解率の最大値とし、正解率が $90 \%$以上となった場合に言語モデルがそのタスクを解くことができたと判断することとする。 LSTM 言語モデルは、終端記号の種類が最低限の場合、即ち $T=1$ の場合には、 $A^{n} B^{n}$ 型のタスクを解くことができるとことが先行研究で実験的に確かめられていたが [13]、本研究でも、LSTM 言語モデルは $A^{n} B^{n}$ 型のタスクを $T \leq 100$ の場合で解くことが可能だと示された。これは、先行研究で確かめられていた予想が、一定程度まで終端記号を増やしていっても成り立つことを示唆している。一方で、Nested Dependency 型や Cross Serial Dependency 型のタスクの正解率は $A^{n} B^{n}$ 型の場合のように一貫して高くなく、LSTM がこれらの統語構造を必ずしも認識できないことを示唆する。特に、Nested dependency 型は  表 1 言語モデルの各タスクに対する汎化テスト用データでの正解率。正解率は、異なる 10 のランダムシード、異なる 3 つの学習率を用いて学習された言語モデルの正解率の最大値をとったものである。正解率が $90 \%$ を超えたものを太字で示している。 $A^{n} B^{n}$ 型と同じ文脈自由言語であり、LSTM が前者は認識できず後者は認識できることは、Chomsky 階層において同じ階層に分類される形式言語であっても、ある程度終端記号を増やしても認識できるものと、少ない終端記号数であっても認識できないものがあることを意味する。同様に、Cross Serial Dependency 型は文脈依存言語であるが、LSTM がこれを終端記号数にかかわらず認識できないことは、 LSTM が $A^{n} B^{n} C^{n}$ 型の文脈依存言語を捉えることができるとする先行研究 [31] の結果と合わせると、 Chomsky 階層において同じ階層に分類される形式言語であっても、終端記号数に応じて認識できるものと認識できないものがあることを意味する。 GPT-2 言語モデルは、Nested Dependency 型の一部 $(T=5,10)$ や Cross Serial Dependency 型の一部 $(T=10)$ で $90 \%$ を超える正解率を達成しているものの、全ての場合で一貫してタスクを解くことはできなかった。これは、高い表現力を持つため言語現象の大局的なパターンを捉えることはできるが、生起回数を数えることや複雑な依存関係のルールを捉えることが必ずしもできていないことを示唆していると考えられる。一方で、言語モデルが自然言語にある個別の言語現象を理解できているかを自然言語を用いて検証した先行研究では、GPT-2 など Transformer ベースの言語モデルが LSTM などの再帰的ニューラルネットワーク言語モデルよりも幅広い言語現象を理解できることが示唆されている [9]。 このことは一見すると本研究の結果と整合性が無いように思われるが、以下のように説明できる。これらの先行研究では、言語モデルが個別の言語現象をどの程度理解しているかを各論的に評価できる。 しかし、言語モデルが自然言語の背後にある統語構造を認識せずに、語彙的なヒューリスティックを用いてタスクを解いている可能性を排除できない。一方、本研究では、統語構造に注目して語彙的要素を抽象化した形式言語を対象としており、これが本研究の結果との相違を生じさせている可能性がある。 また、いずれの言語モデル、タスクについても、終端記号の種類を増やすと正解率は下がる傾向が見られた。[13] や [23] などの先行研究では、終端記号の種類数が最低限であるような形式言語のみに対して言語モデルの性能が評価されていたが、本研究のこの結果は、これらの研究で認識可能とされていた形式言語が、終端記号の種類を増やすと認識不可能になる可能性を示唆する。自然言語では、終端記号に対応する単語などの種類は非常に多様である。従って、言語モデルが最低限の終端記号しか持たない形式言語を認識できたとしても、それは多様な終端記号を持つ自然言語を認識できることを意味しない。この意味で、本研究は、終端記号の種類数の影響を検証する必要性を提起する。 ## 4 結論 本研究では、多様な終端記号への書き換え規則も含め自然言語を形式言語化し、ニューラル言語モデルがどの程度統語的に複雑な言語現象を捉えられるのかを検証した。検証の結果、LSTM 言語モデルは $A^{n} B^{n}$ 型の言語現象を終端記号数が少ない場合に認識することができるが、Nested Dependency 型や Cross Serial Dependency 型の形式言語は終端記号数に関係なくほとんど全く汎化することができなかった。一方 GPT-2 言語モデルは、いずれの言語においても、LSTM が $A^{n} B^{n}$ 型に対して達成したほど高い精度での汎化は不可能であった。また、いずれの場合でも終端記号の種類を増やしていくと精度が下がる傾向が見られた。対象となる言語クラスの範囲を拡大することは今後の課題としたい。 ## 謝辞 本研究は JST さきがけ JPMJPR21C2 の支援を受けたものである。 ## 参考文献 [1] Tal Linzen, Emmanuel Dupoux, and Yoav Goldberg. Assessing the ability of LSTMs to learn Syntax-Sensitive dependencies. Transactions of the Association for Computational Linguistics, Vol. 4, pp. 521-535, December 2016. [2] Rebecca Marvin and Tal Linzen. Targeted syntactic evaluation of language models. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 1192-1202, Brussels, Belgium, 2018. Association for Computational Linguistics. [3] Ethan Wilcox, Roger Levy, Takashi Morita, and Richard Futrell. What do RNN language models learn about Filler-Gap dependencies? In Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 211-221, Brussels, Belgium, November 2018. Association for Computational Linguistics. [4] Richard Futrell, Ethan Wilcox, Takashi Morita, Peng Qian, Miguel Ballesteros, and Roger Levy. Neural language models as psycholinguistic subjects: Representations of syntactic state. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 32-42, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [5] Jeffrey L Elman. Finding structure in time. Cogn. Sci., Vol. 14, No. 2, pp. 179-211, March 1990. [6] S Hochreiter and J Schmidhuber. Long short-term memory. Neural Comput., Vol. 9, No. 8, pp. 1735-1780, November 1997. [7] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L Ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I Guyon, U V Luxburg, S Bengio, H Wallach, R Fergus, S Vishwanathan, and R Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30, pp. 5998-6008. Curran Associates, Inc., 2017. [8] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. 2019. [9] Alex Warstadt, Alicia Parrish, Haokun Liu, Anhad Mohananey, Wei Peng, Sheng-Fu Wang, and Samuel R Bowman. BLiMP: The benchmark of linguistic minimal pairs for english. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 377-392, December 2020. [10] Janet Wiles and Jeffrey Elman. Learning to count without a counter: A case study of dynamics and activation landscapes in recurrent networks. 061995 . [11] Paul Rodriguez and Janet Wiles. Recurrent neural networks can learn to implement symbol-sensitive counting. Vol. 10, , 1997. [12] Luzi Sennhauser and Robert Berwick. Evaluating the ability of LSTMs to learn context-free grammars. pp. 115-124, November 2018 . [13] Gail Weiss, Yoav Goldberg, and Eran Yahav. On the practical computational power of finite precision RNNs for language recognition. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 740-745, Melbourne, Australia, July 2018. Association for Computational Linguistics. [14] Samuel A. Korsky and Robert C. Berwick. On the computational power of rnns. CoRR, Vol. abs/1906.06349, , 2019. [15] Mirac Suzgun, Yonatan Belinkov, Stuart Shieber, and Sebastian Gehrmann. LSTM networks can perform dynamic counting. In Proceedings of the Workshop on Deep Learning and Formal Languages: Building Bridges, pp. 44-54, Florence, August 2019. Association for Computational Linguistics. [16] William Merrill. Sequential neural networks as automata. CoRR, Vol. abs/1906.01615, , 2019 [17] Satwik Bhattamishra, Kabir Ahuja, and Navin Goyal. On the Ability and Limitations of Transformers to Recognize Formal Languages. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 7096-7116, Online, November 2020. Association for Computational Linguistics. [18] Javid Ebrahimi, Dhruv Gelda, and Wei Zhang. How can selfattention networks recognize dyck-n languages? CoRR, Vol. abs/2010.04303, , 2020. [19] Michael Hahn. Theoretical limitations of self-attention in neural sequence models. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 156-171, 2020. [20] William Merrill, Gail Weiss, Yoav Goldberg, Roy Schwartz, Noah A. Smith, and Eran Yahav. A formal hierarchy of RNN architectures. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 443-459, Online, July 2020. Association for Computational Linguistics. [21] Joshua Ackerman and George V. Cybenko. A survey of neural networks and formal languages. ArXiv, Vol. abs/2006.01338, 2020. [22] Gail Weiss, Yoav Goldberg, and Eran Yahav. Thinking like transformers, 2021. [23] Grégoire Delétang, Anian Ruoss, Jordi Grau-Moya, Tim Genewein, Li Kevin Wenliang, Elliot Catt, Marcus Hutter, Shane Legg, and Pedro A. Ortega. Neural networks and the chomsky hierarchy. 2022. [24] Paul Rodriguez and Janet Wiles. Recurrent neural networks can learn to implement symbol-sensitive counting. In M. Jordan, M. Kearns, and S. Solla, editors, Advances in Neural Information Processing Systems, Vol. 10. MIT Press, 1997. [25] Natalia Skachkova, Thomas Trost, and Dietrich Klakow. Closing brackets with recurrent neural networks. In Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 232-239, Brussels, Belgium, November 2018. Association for Computational Linguistics [26] Geoffrey K. Pullum and Gerald Gazdar. Natural languages and context-free languages. Linguistics and Philosophy, Vol. 4, No. 4, pp. 471-504, 1982. [27] Hana Filip. LIN 69321 LIN6932 Topics in Computational Linguistics Lecture 7. n.d. [28] Alfred V Aho and Jeffrey D Ullman. The Theory of Parsing, Translation and Compiling. Parsing, vol. I. Prentice-Hall, Englewood Cliffs, 1972 [29] Stuart M. Shieber. Evidence against the context-freeness of natural language. Linguistics and Philosophy, Vol. 8, No. 3, pp. 333343, 1985. [30] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In 7th International Conference on Learning Representations, ICLR 2019, New Orleans, LA, USA, May 6-9, 2019. OpenReview.net, 2019 [31] F.A. Gers and E. Schmidhuber. LSTM recurrent networks learn simple context-free and context-sensitive languages. IEEE Transactions on Neural Networks, Vol. 12, No. 6, pp. 1333-1340, January 2001. Conference Name: IEEE Transactions on Neural Networks.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D12-4.pdf
# 証明支援系 Coqを用いた 依存型意味論の照応解析と推論の実装の試み 小斉平ひな 高橋優太 戸次大介 お茶の水女子大学 \{g1820513, takahashi.yuta, bekki\}@is.ocha.ac.jp ## 概要 含意関係認識に対するアプローチの一つに,証明支援系 $\operatorname{Coq}$ を用いるアプローチがある. タクティクを用いて自動証明手続きを定義することで,さまざまなテキストに対する含意関係認識タスクがこのアプローチにより研究されてきた. その一方で,照応解析の結果を含意関係認識の中で用いるという種類のタスクを, Coq が提供するタクティクのみを用いて行う手法はこれまでに提案されていない。こうした手法への一歩として, 本研究では, 照応解析を Coqの refineタクティクによって行い,得られた結果を用いてテキストから仮説を導く手法を提案する。 ## 1 はじめに 含意関係認識 (Recognizing Textual Entailment) とは,テキスト $T$ が仮説 $H$ を含意するかどうかを判定するタスクであり, 質問応答 (question answering) など,さまざまな応用をもつ。このタスクに対しては,大規模なデータを用いてニューラルモデルに含意関係を学習させる深層学習アプローチ $[1,2]$, 定理証明器を用いる論理推論アプローチ $[3,4]$, およびこの二つを組み合わせるハイブリッドアプローチ [5]がある. 論理推論アプローチではさまざまな定理証明器が用いられており,その中には定理証明器 Coq [6] を用いるものがある $[7,8,9,10,11,12,13]$. 証明支援系 (proof assistants) とも呼ばれる Coqを用いるこのアプローチには以下の利点がある。まず,依存型理論 (dependent type theory) に基づくCoqでは, 自然言語の文がもつ複雑な意味構造を捉えることができる. さらに,証明状態を遷移させることのできる 「タクティク」と呼ばれるものを合成することで, ユーザー定義の自動証明手続きを定式化することが できる. 以上に加え,論理推論アプローチ一般がもつ利点として,含意関係認識タスクにおける判定結果の解釈・判定手続きの修正が容易である点も挙げられる。これまで,様相表現・一般化量化子などを含むさまざまなテキストに対する含意関係認識タスクが Coqアプローチにより研究されてきた。 その一方で,照応解析 (anaphora resolution) の結果を含意関係認識の中で用いるという二重タスクを, $\operatorname{Coq}$ が提供するタクティクのみを用いて行う手法はこれまでに提案されていない,照応解析とは,英語を例にとれば,テキストの中にある “it” ゃ “he”などの照応表現の指示対象を指定するタスクであり,自然言語処理や形式意味論といった分野で研究されている. 次の例は,照応表現を含むテキストに関する含意関係認識を行うには照応解析が必要であることを示している [14, p. 46]: A man entered. He whistled. $\Longrightarrow$ A man whistled. 照応解析に続く含意関係認識のためのタクティク整備へ向けて,本研究ではまず,照応解析を Coq タクティクによって行う手法を定式化する. この目的のために,自然言語意味論のフレームワークである依存型意味論 (Dependent Type Semantics, DTS) を Coq で実装する.DTS では未指定項 (underspecified terms) を用いた照応解析手続き $[15,16,17]$ が定式化されており, 本研究の基本アイデアは, このDTS 照応解析手続きを Coq が提供する refine タクティクによりシミュレートするというものである. 次に,照応解析の結果,テキストが仮説を含意する場合は,その含意関係を Coq 内の定理として証明する手法を提案する。 ## 2 先行研究 DTS における照応解析手続きに対しては,Haskell による実装 $[18,19,20,21]$ がすでに与えられている. DTS においては,照応解析手続きは型検査アル ゴリズムが呼び出す証明探索手続きとして捉えられ,これらのアルゴリズムおよび証明探索手続きが Haskell を用いて実装されている. それに対して本研究では,DTS における型検査アルゴリズムを Coq における型検査アルゴリズムに還元し, 照応解析に対応する証明探索手続きは Coq タクティクにより与える。 含意関係認識に対するこれまでの Coqアプローチの中では, $[12,13]$ が, 照応解析の結果を含意関係認識の中で用いるという二重タスクを扱っている。これらの先行研究では,モナドに基づく動的意味論を介して照応解析が行われている. これに対し, 上述のように本研究では, Coq が提供する refine タクティクを用いることで,Coqタクティクによってのみ照応解析を行う手法を提案する。 ## 3 提案手法 本研究が提案する手法は,照応解析に関するものと含意関係認識に関するものに分かれる,以下ではまず,Coqの refineタクティクについて説明したのち,このタクティクを用いてDTS における照応解析手続きを実装する (§ 3.1). その際に,DTS での照応解析および含意関係認識に現れる多くの命題の証明に有効なタクティクを構成する。次に,照応解析の結果,テキストが仮説を含意する場合は,その含意関係を $\operatorname{Coq}$ 内の定理として証明する手法を提案する (§ 3.2). ## 3.1 refine タクティクを用いた照応解析と 証明自動化のためのタクティク DTS は,自然言語の文の意味を,Martin-Löf 型理論 [22] の式にその文を翻訳することによって説明する. 言い換えれば,翻訳の結果として得られる式がその文の意味表示となる. ここでの翻訳は,当の文の部分表現に割り当てられた意味表示を型理論の規則に従って合成することでなされる. DTS において,自然言語の文に現れる“it”といった照応表現の意味表示は,もともとの Martin-Löf 型理論には含まれない未指定項@によって与えられる. 例として, 照応表現 “he” を含む次の二つの文から構成される談話を考えると, この談話の意味表示は図1のようになる. 1a. A man entered. 1b. He whistled. 図 1 に見られる $\left[\begin{array}{c}x: A \\ B(x)\end{array}\right]$ という表現は, $\Sigma$ 型と呼ば 図 1 例文 $1 \mathrm{a}, 1 \mathrm{~b}$ の意味表示 $ \left[\begin{array}{l} u:\left[\begin{array}{l} x: \text { entity } \\ {\left[\begin{array}{l} \operatorname{man}(x) \\ \operatorname{enter}(x) \end{array}\right]} \end{array}\right] \\ \text { whistle }\left(\pi_{1}(u)\right) \end{array}\right] $ 図 2 照応解析結果 れるデータ型の DTS における表記であり, 型 $A$ の要素 $a$ と型 $B(a)$ の要素 $b$ のペア $(a, b)$ の型である.例えば $\left[\begin{array}{l}x: \text { entity } \\ \boldsymbol{\operatorname { m a n } ( x )}\end{array}\right]$ は(以下ではこの型を Man と呼ぶ), 型 entity の要素である対象 $e$ と, 型 $\boldsymbol{\operatorname { m a n }}(e)$ の要素である「 $e$ が男性であることの証明 $t\lrcorner$ のぺア $(e, t)$ の型である. 型と命題の同型性を示すカリー・・ ハワード対応 (Curry-Howard correspondence)によれば,この型は「男性がいる」という命題と見なすことができ,ペア $(e, t)$ はこの命題の証明となる。もし $\left[\begin{array}{l}A \\ B\end{array}\right]$ のように $B$ が $A$ の要素に依存しないときは,この型はたんに「 $A$ かつ $B$ である」という命題に対応する.こうして,型 $\left[\begin{array}{l}x: \text { entity } \\ {\left[\begin{array}{l}\operatorname{man}(x) \\ \operatorname{enter}(x)\end{array}\right]}\end{array}\right]$ は「ある男性が入ってきた」という命題に対応し, $1 \mathrm{a}$ の意味表示となる。そして,図 1 の残りの部分が $1 \mathrm{~b}$ の意味表示であり,「彼は口笛を吹いた」という命題に対応する。ここでの未指定項@は,型 Man の証明の部分がいわば空所になっていて証明を待っていることを示している. もし何らかの証明つまりペア $(e, t)$ が与えられれば,その第一要素を取り出す関数 $\pi_{1}$ によって男性である対象 $e$ を取り出すことができ,この $\pi_{1}$ (@: Man) が “he”の意味表示となる. DTS において照応解析は,証明探索によって @を具体的な証明に置き換える操作に相当する. 図 1 の例では@の型は Man であるが, その証明として $\left(\pi_{1}(u), \pi_{1}\left(\pi_{2}(u)\right)\right)$ が存在するため, 図 1の@:Manをこの証明に置き換える。すると, $\pi_{1}\left(\pi_{1}(u), \pi_{1}\left(\pi_{2}(u)\right)\right)$ を簡約すると $\pi_{1}(u)$ となるため,図 2 のような意味表示が得られる。つまり,照応解析の結果, “he” の指示対象は $\pi_{1}(u)$ となる. 以上から分かるように,DTS における照応解析手続きを実装するには,型における空所を表現し,さらにその空所を埋める証明探索を定式化することが必要である. 本研究では,この一連の手続きを,証明支援系 Coq が提供する refine タクティクを用いてシミュレートする。このタクティクは,証明が未完成の部分をひとまず空所にしたまま証明を進めることを可能にする. Coq が提供する refine タクティクを用いた DTS 照応解析手続きは次の手順で定式化される. (i) DTS に従って,語彙の意味表示を定義する。 (ii) 未指定項に対応する表現 [?asp] によって照応表現を表しつつ文の意味表示を合成し, Eval コマンドでその意味表示を計算する。 (iii) refine タクティクを計算結果に適用して, [?asp] 以外の部分に型検査を施しつつ,空所 [?asp] を埋めることをゴールに設定する. (iv) 空所 [?asp] を埋める証明をタクティクによって構成し照応解析を行う。 例 1 を例に挙げて,Coqでの DTS 照応解析手続きを説明する。 (i) DTS に従って,語彙の意味表示を定義する。例えば,a_nom は名詞位置の不定冠詞 “a” の意味表示である. Definition a_nom: forall $n v$ : entity $->$ Type, Type $:=$ fun $n v=\left.\{x:\right.$ entity $\left.\&\left.\{\begin{array}{l}n \\ n\end{array} \vee x\right.\}\right.\}$. Axiom man enter whistle : entity $>$ Type. (ii) 未指定項に対応する表現 [?asp] によって照応表現を表しつつ文の意味表示を合成し,Eval コマンドでその意味表示を計算する.以下においては, (prog_conj (a_nom man enter) (whistle (projT1 (?[asp1]: $\{x$ : entity \& man $x\})))$ ) が $1 \mathrm{a}, 1 \mathrm{~b}$ から構成される談話の意味表示である. (iii) refine タクティクを計算結果に適用して, [?asp] 以外の部分に型検査を施しつつ,空所 [?asp] を埋めることをゴールに設定する。 (iv) 空所 [?asp] を埋める証明をタクティクによって構成し照応解析を完了させる. Coq の proof mode は,こうして得られた解析結果を,上記の定理の名前である AManHe として保存することを可能にする. このようにして,DTS 照応解析手続きは Coqが提供するタクティクを用いて対話的に行われる。 その一方で,本研究は,この手続きが含む証明探索の一部を自動化するタクティクの構成も行う。Coqの夕クティク言語 Ltac を用いて構成したタクティクは以下になる. 図 1 およびその解析結果である図 2 が例となるように,DTS における照応解析においては, $\Sigma$ 型の要素をいったん分解し, 解析の中で求められているぺアに組み直すといった推論が多く現れる。この tac1 は,そうした推論を自動で行うためのタクティクとして定義している. tac1を構成するために作成したタクティクについてもおおまかに説明する。これらのタクティクの定義については付録 A を参照されたい.ただし, destruct_one_ex と destruct_one_pair は, Coq [6] の標準ライブラリの一つである Coq.Program.Tactics にて定義されているものであるため,定義は繰り返さない.この二つのタクティクは,DTS における照応解析の中でしばしば必要になる $\Sigma$ 型の分解を行うため有用である. specialize_H は, $\Sigma$ 型と対をなす П 型についてのものであり, $\Pi$ 型 $\left(u:\left[\begin{array}{c}x: A \\ B(x)\end{array}\right]\right) \rightarrow C$ と, 型 $A$ の要素 $a$ および型 $B(a)$ の要素 $b$ が前提に含まれるとき, ペア $(a, b)$ によって上の П 型を例化するタクティクである. 例えば, $(u:$ Man $) \rightarrow$ whistle $\left(\pi_{1}(u)\right)$ は「どの男性も口笛を吹いた」という全称命題に対応するが,specialize_H は,この命題と男性 $(e, t)$ が前提に含まれるとき, $(e, t)$ でこの命題を例化する.照応 解析のために分解したい $\Sigma$ 型が, 上述の $\Pi$ 型の後件である $C$ の中に現れるとき,このタクティクによって全体の П型を例化することで $C$ の中の $\Sigma$ 型の分解へ進むことができる. 次の rewrite_H は,前提に $A=B$ が現れるとき,この等式を使ってゴールの中の $A$ を $B$ で置き換えるタクティクである.また,夕クティク exists_H は,Coqにあらかじめ備わっている自動証明タクティク eautoを用いて, ゴールが $\Sigma$ 型であるときに自動でペアをつくり証明することを試みる。同様に apply_H は,いわゆるモーダス・ ポネンス (modus ponens)を用いつつ, eautoによる自動証明を試みるタクティクである。 以上のように, refineタクティクを用いた手順 (i)-(iv) により対話的に照応解析を行いつつ,Ltacにより構成したタクティク tac1を用いて証明の一部を自動化することで,本研究が実装した DTS 照応解析手続きは完了する. Coqの proof mode は,こうして得られた解析結果を保存することを可能にし,保存された結果を用いて含意関係を判定できる. ## 3.2 照応解析の結果を用いる推論の実装 本研究では,照応解析の結果を含意関係認識タスクで用いるための手続きを次のように定式化する. (v) DTS に従って,語彙の意味表示を定義する. (vi) テキスト $T$ に対する照応解析結果が前件となり,仮説 $H$ が後件となる条件文を組み立てる. (vii) Ltac を用いて構成したタクティク tac1を用いて証明を行う。 次の 2.を例に挙げ,照応解析結果を用いた含意関係認識タスクへの本研究のアプローチを説明する。 2. A man entered. He whistled. $\Longrightarrow$ A man whistled. (v) DTS に従って,語彙の意味表示を定義する. (vi) テキスト $T$ に対する照応解析結果が前件となり,仮説 $H$ が後件となる条件文を組み立てる. いまの場合,照応解析結果として前節で保存した AManHe がテキストに対する照応解析結果となる. Theorem ex: AManHe -> a_nom man whistle (vii) Ltacを用いて構成したタクティク tac1を用いて証明を行う。 Proof. で証明を始め,tac1を用いて自動でゴー ルを見つけることかできたので,Qed. で証明を終える。 ## 4 成果 §§ 3.1-3.2 にて説明した提案手法に基づき,前節で扱った例 2. に加え,次の例 3. に対しても証明を構成することができた. 2. A man entered. He whistled. $\Longrightarrow$ A man whistled. 3. John bought a car. He checked the motor. $\Longrightarrow$ John checked a motor. 例 3.においては,二文目における "he", "the motor" が照応表現となり,それぞれ次のような意味表示が割り当てられる: projT1 (?[asp1] : \{x: entity \& man $x\})$ projT1 (?[asp2]: \{y : entity \& motor y\})上述のように,これらを含む談話全体の意味表示に refine タクティクを適用することで照応解析手続きは進む.いまの場合,?[asp1] と?[asp2]を証明で埋める(言い換えれば,“he”と “the motor”について照応解析をする)という二つのサブゴールが生じる. “he” の指示対象として John を指定するには,公理として man johnを加えれば,タクティクにより容易に照応解析をすることができる。一方で,“the motor” の指示対象として John が買った車のモー ターを指定するには,全ての車にモーターがあるという一般的な背景知識を公理として措定し,Johnが買った車にもモーターがあることを導出できるようにする必要がある。こうした導出も,本研究が構成したタクティク tac1により行うことができる。あとは,以上の照応解析結果を CarMotor として保存し,例 3. の意味表示となる条件文 CarMotor -> a_acc motor check john をタクティクにより証明すればよい。 ## 5 おわりに 本研究では,DTS における未指定項を用いた照応解析手続きを Coqにより実装し, さらに照応解析の結果を推論の中で用いるための手続きを定式化した. 今後の課題として,同様に Coqを用いるアプローチである $[12,13]$ の提案手法との比較がある.加えて, 照応解析の結果を用いる推論の中でも本研究が扱わなかった,結論が照応表現を含む推論の Coqによる実装を目指す. ## 謝辞 本研究は、JST CREST JPMJCR20D2 の支援を受け たものである。 ## 参考文献 [1] Tim Rocktäschel, Edward Grefenstette, Karl Moritz Hermann, Tomás Kociský, and Phil Blunsom. Reasoning about entailment with neural attention. In Y. Bengio and Y. LeCun, editors, 4th International Conference on Learning Representations, ICLR 2016, San Juan, Puerto Rico, May 2-4, 2016, Conference Track Proceedings, 2016 [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: pre-training of deep bidirectional transformers for language understanding. In J. Burstein, C. Doran, and T. Solorio, editors, Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, NAACLHLT 2019, Minneapolis, MN, USA, June 2-7, 2019, Volume 1 (Long and Short Papers), pp. 4171-4186. Association for Computational Linguistics, 2019. [3] Lasha Abzianidze. LangPro: Natural Language Theorem Prover. In L. Specia, M. Post, and M. Paul, editors, Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, EMNLP 2017, Copenhagen, Denmark, September 9-11, 2017 - System Demonstrations, pp. 115-120. Association for Computational Linguistics, 2017. [4] Hai Hu, Qi Chen, Kyle Richardson, Atreyee Mukherjee, Lawrence S. Moss, and Sandra Kuebler. MonaLog: a lightweight system for natural language inference based on monotonicity. In Proceedings of the Society for Computation in Linguistics 2020, pp. 334-344, New York, New York, January 2020. Association for Computational Linguistics. [5] Aikaterini-Lida Kalouli, Richard S. Crouch, and Valeria de Paiva. Hy-nli: a hybrid system for natural language inference. In D. Scott, N. Bel, and C. Zong, editors, Proceedings of the 28th International Conference on Computational Linguistics, COLING 2020, Barcelona, Spain (Online), December 8-13, 2020, pp. 5235-5249. International Committee on Computational Linguistics, 2020. [6] The Coq Development Team. The Coq proof assistant reference manual, Version 8.16.1, 2022. https://coq.inria.fr/. [7] Stergios Chatzikyriakidis and Zhaohui Luo. Natural language inference in coq. J. Log. Lang. Inf., Vol. 23, No. 4, pp. 441-480, 2014. [8] Koji Mineshima, Pascual Martínez-Gómez, Yusuke Miyao, and Daisuke Bekki. Higher-order logical inference with compositional semantics. In L. Màrquez, C. Callison-Burch, J. Su, D. Pighin, and Y. Marton, editors, Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, EMNLP 2015, Lisbon, Portugal, September 17-21, 2015, pp. 2055-2061. The Association for Computational Linguistics, 2015. [9] Stergios Chatzikyriakidis and Zhaohui Luo. Proof assistants for natural language semantics. In M. Amblard, P. de Groote, S. Pogodalla, and C. Retoré, editors, Logical Aspects of Computational Linguistics. Celebrating 20 Years of LACL (1996-2016) - 9th International Conference, LACL 2016, Nancy, France, December 5-7, 2016, Proceedings, Vol. 10054 of Lecture Notes in Computer Science, pp. 85-98, 2016. [10] Koji Mineshima, Ribeka Tanaka, Pascual Martínez-Gómez, Yusuke Miyao, and Daisuke Bekki. Building compositional semantics and higher-order inference system for a wide-coverage japanese CCG parser. In J. Su, X. Carreras, and K. Duh, editors, Pro- ceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, EMNLP 2016, Austin, Texas, USA, November 1-4, 2016, pp. 2236-2242. The Association for Computational Linguistics, 2016. [11] Pascual Martínez-Gómez, Koji Mineshima, Yusuke Miyao, and Daisuke Bekki. On-demand injection of lexical knowledge for recognising textual entailment. In M. Lapata, P. Blunsom, and A. Koller, editors, Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics, EACL 2017, Valencia, Spain, April 3-7, 2017, Volume 1: Long Papers, pp. 710-720. Association for Computational Linguistics, 2017. [12] Stergios Chatzikyriakidis and Jean-Philippe Bernardy. A widecoverage symbolic natural language inference system. In Mareike Hartmann and Barbara Plank, editors, Proceedings of the 22nd Nordic Conference on Computational Linguistics, NoDaLiDa 2019, Turku, Finland, September 30 - October 2, 2019, pp. 298-303. Linköping University Electronic Press, 2019 [13] Jean-Philippe Bernardy and Stergios Chatzikyriakidis. Applied temporal analysis: A complete run of the FraCaS test suite. In Proceedings of the 14th International Conference on Computational Semantics (IWCS), pp. 11-20, Groningen, The Netherlands (online), June 2021. Association for Computational Linguistics. [14] Ribeka Tanaka. Natural Language Quantification and Dependent Types. PhD thesis, Ochanomizu University, 2021. [15] Daisuke Bekki. Representing anaphora with dependent types. In N. Asher and S. Soloviev, editors, Logical Aspects of Computational Linguistics - 8th International Conference, LACL 2014, Toulouse, France, June 18-20, 2014. Proceedings, Vol. 8535 of Lecture Notes in Computer Science, pp. 14-29. Springer, 2014 [16] Daisuke Bekki and Koji Mineshima. Context-passing and underspecification in dependent type semantics. In S. Chatzikyriakidis and Z. Luo, editors, Modern Perspectives in Type-Theoretical Semantics, Vol. 98 of Studies in Linguistics and Philosophy, pp. 11-41. Springer, Cham, 2017 [17] Daisuke Bekki. Proof-theoretic analysis of weak crossover. In Proceedings of the Eighteenth International Workshop of Logic and Engineering of Natural Language Semantics 18 (LENLS18), pp. 75-88, 2021 [18] Daisuke Bekki and Miho Satoh. Calculating projections via type checking. In Proceedings of TYTLES, 2015. [19] 佐藤未歩. 依存型意味論の証明探索とその実装, 2016. [20] Hinari Daido and Daisuke Bekki. Development of an automated theorem prover for the fragment of DTS. In Proceedings of the 17th International Workshop on Logic and Engineering of Natural Language Semantics (LENLS17), 2020. [21] 大洞日音. DTS の部分体系を用いた定理自動証明器への等号型の導入, 2022 [22] Per Martin-Löf. An intuitionistic theory of types. In G. Sambin and Jan M. Smith, editors, Twenty-five years of constructive type theory, Vol. 36 of Oxford Logic Guides, pp. 127-172. Clarendon Press, 1998 ## A 付録 本研究では,DTS での照応解析および含意関係認識に現れる多くの命題の証明にとって有効なタクティク tac1を構成した. このタクティクを構成する各々のタクティクの定義は以下になる.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D12-5.pdf
# CCG による日本語文処理のモデリング 梶川康平 吉田遼 大関洋平 東京大学 \{kohei-kajikawa,yoshiryo0617, oseki\}@g.ecc.u-tokyo.ac.jp ## 概要 言語構造の違いから,ある言語で妥当だと主張されている文処理方略が,必ずしも他の言語においても妥当であるとは限らない. 英語において, Combinatory Categorial Grammar の右枝分かれ構造より左枝分かれ構造の方が,さらに reveal 操作という特別な操作を導入した方が,人間の逐次的な文処理をより高い精度でモデリングできると示されているが,本研究では,同様の主張が日本語においても成立するのか検証する。結果,左枝分かれ構造は右枝分かれ構造より妥当であると示された一方で, reveal 操作が有効であるとは言えず,英語では有効だと示された reveal 操作が通言語的に有効であるとは限らないことが示唆された。 ## 1 はじめに CCG (Combinatory Categorial Grammar [1, 2]) は,弱文脈依存文法の一種で高い記述力を備えている上 $[3,4]$, 柔軟な構成素構造により左右両方の枝分かれ構造を作ることができる. 特に左枝分かれ構造は逐次的な意味計算を可能にするため,人間が逐次的に構築していると考えられる構造としての妥当性が高いと主張されている [5, 6]. 実際に,英語において CCG の左枝分かれ構造に基づく処理負荷の予測が,右枝分かれ構造に基づく処理負荷の予測よりも高い精度で脳活動を説明できるということが示されている [7]. さらに, reveal 操作という, CCG で逐次的に左枝分かれ構造として処理できる構造を拡張する操作 [8] を加えることで,人間の脳活動をさらに良く説明できることが示されている [7, 9]. 一方で, head-final な日本語における CCG の左枝分かれ構造は, 動詞を待たずに項構造を構築することを要求する. 心理言語学において, 日本語では項構造が動詞に先んじて構築されるという主張が ティックなコーパスを通して検証した研究はいまだ 図 $1 \mathrm{CCG}$ の左枝分かれ構造の導出例. 統語カテゴリは戸次 [2] に従い,T は変数を表す. 赤文字では各構成素の意味を表している。 なく,検証の余地がある。また, reveal 操作により逐次的な処理が可能になる構造として, 英語の後置修飾詞による修飾構造が挙げられているが [8], 日本語は原則として後置修飾がなく[13], reveal 操作が必要な状況が少ない,さらに,関係節が埋め込まれている文は,日本語においても reveal 操作を仮定することで逐次的な処理が可能となるが,そのような文は構造の再解釈を要する典型的なガーデンパス文であるとされている [14]. こうしたことから,英語では有効だと示された reveal 操作が通言語的に有効であるとは限らないと考えられる. そこで本研究では,日本語においても,逐次的に構築していると考えられる構造として, CCG の左枝分かれ構造は右枝分かれ構造よりも妥当であるか, さらに, reveal 操作を加えることでより妥当性が向上するのかをそれぞれ眼球運動データ [15]を通して比較・検証する。 ## 2 CCGによる逐次的な文処理 ## 2.1 左枝分かれ構造の構築 CCG は,その柔軟な構成素構造から,通常の句構造文法では右枝分かれ構造が想定される文を左枝分かれ構造で表現することができる. 特に,日本語のような動詞の項が動詞に先行する言語においても,項同士の関係を先に計算することができる (図 1). 人間の文処理は,統語処理においても意味処理においても逐次的であるが (e.g., [10, 16]), CCG での構 成素構造が実際の文処理においても構築されている場合 $[1,17,18], \mathrm{CCG}$ の左枝分かれ構造を構築するモデルは, 逐次的な統語と意味の計算が実現でき,人間の逐次的な文処理を説明できると考えられている [5,6]. また心理言語学において, 動詞の項が動詞に先行する日本語では, 動詞を待たずに項構造が計算されていることが示唆されているが $[10,11,12]$, それらは特定の構造においてのみ示されており, 構造に依存しないものであるかは示されていない. ## 2.2 Reveal 操作 一般に,必須項ではない後置修飾詞の存在は,逐次的な文処理の実現における障害となる [19]. 例えば (1)のような文を想定したとき, 後置修飾詞である quickly は,主語より低い位置で動詞句に付加するためその存在をあらかじめ予測しておく必要があるが,必須項でないため確実に予測しておくことはできない. (1) Mary reads papers quickly. CCG において,逐次的な文処理を実現するためには左枝分かれ構造が必要である一方, 後置修飾詞は右枝分かれ構造を要求する。両者を満たすため, reveal 操作 [8] は,左枝分かれ構造を構築しながら,可能ならば左枝分かれ構造を右枝分かれ構造に変換し (木の回転), 後置修飾詞は既に作った構成素に付加するという処理を行う (図 2). 木の回転は, 決定的かつ意味解釈に影響を与えないため, 処理負荷がかからないと仮定されており, reveal 操作は,より少ない操作での後置修飾詞の処理を可能にする.英語における reveal 操作の認知的妥当性は, 脳活動データを通して示されている $[7,9]$. 一方で,日本語は原則として後置修飾がないが [13], head-final であることから項が動詞に先行するため,関係節が埋め込まれている文は CCG でも右枝分かれ構造を要求する (2). そのため, 日本語においては,関係節が埋め込まれている文に対して ら,そのような文は逐次的に処理する際,節境界がどの項の間に置かれるかが一時的に曖昧になることからガーデンパス効果が生じ,特に先行詞の部分で処理に時間を要することが知られている [14]. これ  図 2 Reveal 操作による Mary reads papers quickly の逐次的な構造構築. 右枝分かれ構造が構成できるときは, 左枝分かれ構造を回転させて右枝分かれ構造を構成する. 後置修飾詞はすでに作ってある右枝分かれ構造に付加する. は, reveal 操作の予測に反しており, 日本語においては reveal 操作が有効ではない可能性が指摘できる。 (2) [[花子が [[太郎を殴った]次郎を]] 見つけた] $]^{2}$ ## 3 実験 ## 3.1 方法論 本研究では,以下の 2 つの仮説を検証する:日本語において,逐次的に構築していると考えられる構造として, (i) CCG の右枝分かれ構造より左枝分かれ構造が妥当である,(ii) 左枝分かれ構造より reveal 操作による構造が妥当である. 計算心理言語学において, どの文法形式, どの文処理方略が文処理理論として適切かを研究する方法として,何らかの橋渡し仮説を通して文法形式・文処理方略から得られる処理負荷を算出し, 人間の行動データに対する説明力を評価するというものがある [20]. 具体的には, 眼球運動データや脳活動データなどの人間の行動データがアノテーションされたコーパスに対して,何らかの文法形式と文処理方略をもとに構文構造を割り当て,そこから処理コストを算出する。そしてその処理コストを含めた回帰モデルの当てはまりの良さを比較し,どの理論が最も説明力が高いかを調べるというものである $[21,22,23,7,9]$. そのような方法論のもと本研究では, $\mathrm{CCG}$ の文処理方略ごとに構築した構造で, 意味合成が起こる数を橋渡し仮説として処理負荷を算出した. そして,行動データとして,文節ごとの視線 2)ブラケットで示した構成素構造は, CCG で作ることのできる最も左枝分かれな構造を示している。 走査法による読み時間がアノテーションされている BCCWJ-EyeTrack [15] を用い,読み時間に対する回帰モデルの精度比較を通して,CCG における文処理方略ごとの認知的妥当性を比較した。 ## 3.2 木構造の獲得 CCG の右枝分かれ構造は, depccg ${ }^{3}$ [24] により BCCWJ-EyeTrack の各文に対して割り当てた. 統語カテゴリが割り当てられる単語単位が BCCWJEyeTrack の文節境界を跨がないように,各文節を事前に Janome4) で分割し, その結果を depccg の入力とした. CCGの左枝分かれ構造は, depccg に解析された構造のなかで,後方関数適用 (<) により項として合成されている構成素すべてに型繰上げ規則 (>T)を適用したのち, 可能な限り左枝分かれ構造に回転させて構成した。詳細は付録に示す. ## 3.3 橋渡し仮説 先行研究では, 逐次的に構築されると考えられる構造と実際の行動データを繋げる橋渡し仮説として, 単語ごとに構築されるノードの数を, 各単語における処理負荷と仮定している [21, 22, 23, 7, 9].特に,文法形式として CCG を用いた Stanojević ら [7, 9] は, unary なノードも含めたすべてのノードの数を処理負荷としている. しかし本研究では, CCG の構文解析器特有の変換規則や [25], 左枝分かれ構造に変換するのに過剰に適用された型繰上げ規則の影響を排して意味合成における処理負荷を明確に考慮するため, 各単語ごとに新たに構築される二分木の数,すなわち,意味合成が起きる数を各単語における処理負荷と仮定する。これをCompositionCount と呼ぶ(図3). 以下, $\mathrm{CCG}$ の右枝分かれ構造の CompositionCount を CCright, 左枝分かれ構造の CompositionCount を cCleft, reveal 操作によって構造を構築した際の CompositionCount をCCreveal と略記する. ## 3.4 統計分析 読み時間に対する回帰モデルの精度比較のため, あらかじめ読み時間をモデリングしたベースライン回帰モデルを設定した. まず,ベースラインモデルと, ベースラインモデルに本研究で用いる 3 種類の CompositionCount すべてを説明変数として加えた回 3) https://github.com/masashi-y/depccg 4) https://github.com/mocobeta/janome (a) CompositionCount: $(0,0,2)$ (c) CompositionCount: $(0,0,1,2)$ (b) CompositionCount: $(0,1,1)$ 図 3 (a) 右枝分かれ構造の,(b) 左枝分かれ構造の,(c) そして両者を含む構造の CompositionCount. および,(d) reveal 操作による構築の CompositionCount. 各ノードの赤い数字はそのノードが構築される順序を示す.また,赤い枠線で囲まれたノードは意味合成が起こるノードを表す. 帰モデルとの尤度比検定を行い, CompositionCount 自体に眼球運動データを説明できる効果があるのか確認した. そして, ベースラインモデルに各 CompositionCount を順に説明変数として加えた回帰モデルを設定し,ネストしたモデル同士を尤度比検定で比較した。一方の説明変数が,他方の説明変数が既に説明した以上に眼球運動データを説明できるか検証することを目的としている。 ベースライン回帰モデルは,以下の式である: $ \begin{aligned} \text { RT } & \sim \text { dependent + length + frequency }+ \text { is_first } \\ & + \text { is_last }+ \text { is_second_last }+ \text { screenN }+ \text { lineN } \\ & + \text { segment }+(1 \mid \text { article })+(1 \mid \text { subj }) \end{aligned} $ 各説明変数の詳細は付録に示す. 読み時間として,視線走査法により計測された総注視時間 (total time) を用いた。浅原ら [15] に従い,総注視時間がゼロミリ秒である文節および本文でない文節は除外した.結果として 19,176 文節中 13,232 の文節を扱った. すべてのモデルは, article と subject のランダム切片を含んでいる. 尤度比検定の結果は, $\alpha=0.05 / t$ の閾値で統計的に有意とみなした。 $t$ はボンフェローニ補正に従い,検定数である. ## 4 結果 以下,Baseline は 3.4 項で導入したベースライン回帰モデルを,Right, Left, Reveal, RightLeft, LeftReveal, All はそれぞれ, ベースライン回帰モデルに cCright, cCleft, cCreveal, ccright と ccleft の両方, ccleft と CCreveal の両方, cCright, cCleft, cCreveal $の 3$種類全て,を加えた回帰モデルを指す。 ## 4.1 CompositionCount の有効性 まず,Baseline と All の尤度比検定 $(\alpha=0.05)$ を行い,CompositionCount の眼球運動データに対する有効性を検証した。結果は以下,表 1 に示す: 表 1 Baseline と All の間の尤度比検定の結果. 検定の結果,Baseline と All には有意に差があることから,CompositionCount それ自体に眼球運動デー タを説明できる効果があることが確認された. ## 4.2 右枝分かれ構造と左枝分かれ構造 眼球運動データに対する,CCright と cCleft の説明力を nested model comparison $(\alpha=0.125=0.05 / 4)$ で比較した.結果は以下,表 2 のとおりである: ## 表 2 CCright, cCleft 間の nested model comparison の結果. cCleft は,Baseline に加えられたときも,Rightに加えられたときも,ともに回帰モデルのあてはまりの向上に有意に寄与した一方,ccright は Baseline に加えられたときのみ有意に回帰モデルのあてはまりを向上させた。これらのことから, ccleft は, 視線計測データについて CCright が説明できる全てのことが説明できていると言える. つまり,日本語において,逐次的に構築されていると考えられる構造 として,CCGの右枝分かれ構造より左枝分かれ構造が妥当であることを示唆している. ## 4.3 左枝分かれ構造と reveal 操作 眼球運動データに対する,CCleft と CCreveal の説明力を nested model comparison $(\alpha=0.125=0.05 / 4)$ で比較した。結果は以下,表 3 のとおりである: 表 3 cCleft, cCreveal 間の nested model comparison の結果. CCleft と CCreveal はともに,Baseline に加えられると有意に回帰モデルのあてはまりを向上させた一方,それぞれ Reveal,Left に加えられても,ともに有意にははたらかなかった。つまり,日本語においては, reveal 操作による構造構築が左枝分かれ構造を構築するより妥当であるとは言えない。この結果は, reveal 操作が通言語的に有効であるとは限らないことを示唆する。 ## 5 おわりに 日本語の逐次処理で構築される構造として,CCG の右枝分かれ構造よりも左枝分かれ構造の方が妥当であることが示された. 日本語における左枝分かれ構造は,動詞に先んじた項構造の計算を要求するので,この結果は,日本語の項構造が動詞の前で構築されるという主張 $[10,11,12]$ が,計算心理言語学的な知見からも支持されることを示している。また,英語では reveal 操作が有効であるという結論が導かれた Stanojević ら [7,9] の結果と異なり,日本語においては,その reveal 操作がとりわけ妥当であるとは言えなかった。これは,言語の構造に起因していると考えられ, reveal 操作が通言語的に有効であるとは限らないことを示唆している。 一方で,reveal 操作は,その前提を変えることで,日本語における再解釈の過程を段階的に説明しうる非常に魅力的な操作である. 今後は,本研究の結果を踏まえ,Stanojević らによる reveal 操作をその前提から見直し,英語と日本語双方に矛盾のない操作に改良し得るか検討した上で,逐次的な文処理方略の解明を目指していきたい。 ## 謝辞 本研究は,JST さきがけ JPMJPR21C2 の支援を受けたものです. また本研究にあたり, 多くの助言をくださった磯野真之介氏に深く感謝します. ## 参考文献 [1] Mark Steedman. The syntactic process. MIT press, 2000. [2] 戸次大介. 日本語文法の形式理論. くろしお出版, 2010. [3] Aravind K. Joshi. Tree adjoining grammars: How much context-sensitivity is required to provide reasonable structural descriptions? In David R. Dowty, Lauri Karttunen, and Arnold M. Zwicky, editors, Natural Language Parsing: Psychological, Computational, and Theoretical Perspectives, Studies in Natural Language Processing, pp. 206-250. Cambridge University Press, 1985. [4] Edward P. Stabler. The epicenter of linguistic behavior. Language down the garden path: The cognitive and biological basis of linguistic structures, pp. 316-323, 2013 . [5] Mark Steedman and Jason Baldridge. Combinatory Categorial Grammar. In Robert D. Borsley and Kersti Börjars, editors, Non-Transformational Syntax: Formal and Explicit Models of Grammar, pp. 181-224. Wiley-Blackwell, 2011. [6] Mark Steedman. Taking scope: The natural semantics of quantifiers. MIT Press, Cambridge, MA, 2012. [7] Miloš Stanojević, Shohini Bhattasali, Donald Dunagan, Campanelli Luca, Mark Steedman, Jonathan Brennan, and John Hale. Modeling incremental language comprehension in the brain with Combinatory Categorial Grammar. Proceedings of the Workshop on Cognitive Modeling and Computational Linguistics, pp. 23-28, 2021. [8] Miloš Stanojević and Mark Steedman. CCG parsing algorithm with incremental tree rotation. Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 228-239, 2019. [9] Miloš Stanojević, Jonathan R. Brennan, Donald Dunagan, Mark Steedman, and John T. Hale. Modeling structurebuilding in the brain with CCG parsing and large language models. arXiv preprint arXiv:2210.16147, 2022. [10] Yuki Kamide and Don C. Mitchell. Incremental pre-head attachment in Japanese parsing. Language and Cognitive Processes, Vol. 14, No. 5-6, pp. 631-662, 1999. [11] Edson T. Miyamoto. Case markers as clause boundary inducers in Japanese. Journal of Psycholinguistic Research, Vol. 31, pp. 307-347, 2002. [12] Shinnosuke Isono and Yuki Hirose. Locality effect before the verb as evidence of pre-verb reactivation. The Japanese Society for Language Sciences 23rd Annual International Conference, 2022. [13] Joseph H. Greenberg. Universals of language. MIT press, 1963. [14] 井上雅勝. 構造的曖昧文の理解におけるガーデンパス化: 眼球運動データを指標として. 日本教育心理学会総会発表論文集, Vol. 32, p. 378, 1990. [15] 浅原正幸, 小野創, 宮本エジソン正. BCCWJEyeTrack. 言語研究, Vol. 156, pp. 67-96, 2019. [16] Yuki Kamide, Christoph Scheepers, and Gerry T. M. Altmann. Integration of syntactic and semantic information in predictive processing: Cross-linguistic evidence from German and English. Vol. 32, pp. 37-55. Springer, 2003. [17] Ivan A. Sag and Thomas Wasow. Performance-compatible competence grammar. In Robert D. Borsley and Kersti Börjars, editors, Non-transformational syntax: Formal and explicit models of grammar, pp. 359-377. WileyBlackwell, 2011. [18] Shevaun Lewis and Colin Phillips. Aligning grammatical theories and language processing models. Journal of Psycholinguistic Research, Vol. 44, No. 1, pp. 27-46, 2015. [19] John T Hale. Automaton theories of human sentence comprehension. Center for the Study of Language and Information, 2014. [20] Jonathan Brennan. Naturalistic sentence comprehension in the brain. Language and Linguistics Compass, Vol. 10, No. 7, pp. 299-313, 2016. [21] Jonathan Brennan, Yuval Nir, Uri Hasson, Rafael Malach, David J Heeger, and Liina Pylkkänen. Syntactic structure building in the anterior temporal lobe during natural story listening. Brain and language, Vol. 120, No. 2, pp. 163173, 2012. [22] Jonathan R. Brennan, Edward P. Stabler, Sarah E. Van Wagenen, Wen-Ming Luh, and John T. Hale. Abstract linguistic structure correlates with temporal activity during naturalistic comprehension. Brain and Language, Vol. 157-158, pp. 81-94, 2016. [23] Jixing Li and John Hale. Grammatical predictors for fMRI time-courses. Oxford University Press, 2019. [24] Masashi Yoshikawa, Hiroshi Noji, and Yuji Matsumoto. A* CCG parsing with a supertag and dependency factored model. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 277-287. Association for Computational Linguistics, 2017. [25] Sumire Uematsu, Takuya Matsuzaki, Hiroki Hanaoka, Yusuke Miyao, and Hideki Mima. Integrating multiple dependency corpora for inducing wide-coverage Japanese CCG resources. In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1042-1051. Association for Computational Linguistics, 2013. ## A 木の回転 本研究で,左枝分かれ構造を構成するのに用いた木の回転操作の条件を示す. 以下 [8] に従い,組合せ規則を一般化して,その規則の階数 (項の数)を付して表記する.例えば,前方関数適用 $(>)$ は $>\mathbf{B 0}$, 前方関数合成 $(>\mathbf{B})$ は $>\mathbf{B} 1$ と表記する. また, $X / X$ または $X \backslash X$ の形をした統語カテゴリを修飾語と呼ぶ. $\alpha, \beta, \gamma$ は構成素の統語カテゴリを表し, $\mathbf{x}, \mathbf{y}$ は変数 (整数)を表す. 1. $\mathbf{x} \geq \mathbf{y}$ のとき5) 2. 1 を満たさず,かつ修飾語を含んでいるとき (a) $\alpha, \gamma$ がともに修飾語であるとき (b) $\alpha, \beta$ がともに修飾語であるとき (c) $\alpha$ が修飾語であるとき 5) [8] では $x>y$ と表記されているが, $x \geq y$ の誤りと思われる. 反例は, $\alpha=S /(S \backslash N P), \beta=S \backslash N P / N P, \gamma=N P$, $\mathbf{x}=\mathbf{y}=0$ のときである. (d) $\gamma$ が修飾語であるとき i. $\alpha$ が, $S /(S \backslash N P)$ のような,複合カテゴリでありかつその左側カテゴリが複合カテゴリでないとき ii. $\alpha$ が, $(S \backslash N P) /(S \backslash N P \backslash N P)$ のような,複合力テゴリでありかつその左側カテゴリも複合カテゴリであるとき これらの回転操作は, BCCWJ-EyeTrack に対する depccg の解析結果が最も左枝分かれになるように構成したものである. 特に 2 以降の条件については,本研究で用いられた統語カテゴリ以外の統語カテゴリが含まれている構造に対して,必ずしも有効ではない. ## B 説明変数 本研究において, ベースライン回帰モデルで用いた説明変数を表 4 に示す。 表 4 本研究で用いた説明変数
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D2-1.pdf
# JCommonsenseMorality:常識道徳の理解度評価用日本語データセット 竹下昌志 1 ジェプカ・ラファウ ${ }^{2}$ 荒木健治 ${ }^{2}$ 1 北海道大学大学院情報科学院 2 北海道大学大学院情報科学研究院 ${ }^{1}$ takeshita.masashi.68@gmail.com ${ }^{2}\{$ rzpeka, araki\}@ist. hokudai .ac.jp ## 概要 近年、人工知能(AI)技術が人間社会で広く用いられ、それに伴い $\mathrm{AI}$ 技術の倫理が問われるようになった。既存研究では $\mathrm{AI}$ 自体に倫理を組み込むためのデータセットが構築されているが、その多くは英語での常識道徳を反映したものである。しかし、文化相対性を考えれば英語圈以外の常識道徳を反映したデータセットも必要である。そこで本研究では、日本語の常識道徳データセット JCommonsenseMoralityを構築する。これを用いて事前学習済みモデルに対し評価実験を行ったところ、他の類似したベンチマークと比較してより困難な常識理解を必要とすることが示唆された。また心理学の道徳基盤理論に基づいた分析も行った。 ## 1 はじめに $\mathrm{AI}$ 技術が発展するに連孔、 $\mathrm{AI}$ の人間社会への参入が增えており、それに伴って AI の倫理1)が問われている。例えば、自然言語処理(NLP)に打いて AI に内在する差別的な社会的バイアス (ジェンダー、人種など)が指摘されて以降 [1]、バイアス研究は急激に増加している [2]。このようなバイアスは社会 差別的なバイアスが内在している AI の使用は道徳的に問題であるため $[5]$ 、差別的なバイアスを緩和することは重要な課題である。 このような問題に対する解決策の1つとして、AI 自体纶倫理を組み込むことが考兄られる。実際、口ボット倫理学ではロボット纪倫理をどのように組み込むかが検討されている [6]。また 2.1 節で述べるように、倫理を $\mathrm{AI}$ に学習させるためのデータセットが構築されており、そのようなデータセットに基づいて学習されたモデルも構築されている [7]。  表 1 JCommonsenseMorality の具体例。道徳的に間違っている場合は「1」、許容できる場合は「0」となっている。 しかし、既存研究のほとんどは英語での研究であり、 $\mathrm{AI}$ に倫理を組み込むための日本語のデータセットは、我々が知る限り存在しない。そこで本研究では、AI A 常識道徳を組み込み、またそれを評価するために、19,963 文からなる日本語の常識道徳データセット JCommonsenseMoralityを構築する。 データセットの例を表 1 亿示す。本研究で構築したデータセットと評価実験に使用したコードは以下の脚注の URL 先で公開予定である2)。 本稿の構成は次のとおりである。2節で、既存の英語の常識道德データセットを調査し、また常識道徳と「正しい」道徳の関係について簡単に触れる。 3 節でデータセットの構築方法について述べる。 4 節で評価実験の設定とその結果について述べる。5 節で本データセットと他の類似したデータセットを比較し、また本データセットの内容を分析する。6 節で本研究の内容をまとめる。 ## 2 関連研究 ## 2.1 NLP における常識道徳データセット の構築 Hendrycks ら [8] は、言語モデルが規範倫理的な概念を理解しているかどうかを評価するために、 ETHICS データセットを構築、公開した。ETHICS には、正義、義務論、徳、功利主義、常識道徳の 5 つのデータセットが含まれており、すべて分類タス 2) https://github.com/Language-Media-Lab/ commonsense-moral-ja クとして設計されている。本研究と関連する範囲では、常識道徳データセットでの分類タスクは、文または文章で表されている行為が道徳的に間違っているか許容できるかのラベルが付けられているもので構成される。3 節で述べるように、本研究で構築するデータセットの構築方法は Hendrycks ら [8] の常識道徳データセットの構築方法をほぼ踏襲している。 Choi らの研究グループは、常識道徳の様々な側面に焦点を当てつつ複数のデータセットを構築、公開している $[9,10,11,12]$ 。また同研究グループは、これらのデータセットを単純な分類タスクに編集、整理したものとして COMMONSENSE NORM BANK を構築し、これを用いて常識道徳的判断を出力する分類モデルである Delphi を構築した [7]。 以上のように、英語圈を中心とする地域での常識道徳を反映する英語のデータセットが多数構築されているが、日本語圏での常識道徳を反映するデータセットは我々の知る限り存在しない。例えば、日本語での大規模な常識 QA データセットとして JGLUE [13] に含まれている JCommonsenseQA があるが、これは常識道徳に特化したものではない。 しかし、もし常識道徳が文化相対的であるならば (e.g. [14])、英語圏での常識道徳を反映するデータセットだけでは AI 倫理研究を進める上で不十分である。例えば上述の Delphi に「日本で頬にキスをして挨拶する (greeting by kissing on the cheek in Japan)」 と入力すると、「It's normal」と出力される3)が、我々の考えでは、これは日本では典型的には不適切な行為である。したがって、常識道徳の文化相対性を確保するために、英語圏以外での常識道徳を反映したデータセットを構築することは重要である。 ## 2.2 常識道徳の倫理学的位置づけ 本研究は文化普遍的な「正しい」道徳(もしそれがあるとしで())を AIに学習させることを意図していないが、常識道徳と「正しい」道徳の関係についてここで議論しておくのは有益だろう。 3) https://delphi.allenai.org/?a1=greeting+by+kissing+ on+the+cheek+in+Japan(2022 年 1 月 1 日確認) 4) メタ倫理学において、道徳的実在論と非実在論の間で議論がある。道徳的地実在論は 3 つのテーゼの連言で表される:(1) 道徳的判断は真理值をもち、(2)道徳的判断の少なくとも一部は真であり、(3) その真理は認識主体の選好などから独立した道徳的事実や道徳的性質のおかげである (cf. $[15,16]$ )。非実在論はこの 3 つのテーゼのいずれかを否定する立場として定式化される。常識道徳ないし直観的な道徳的判断は、倫理学理論を評価する上で重要な役割を果たす。倫理学の標準的な教科書では、倫理学理論が導き出した結論が直観に反する場合、それが理論に対して一つの批判になりうるとされている [17]。また規範倫理学で標準的な方法論である反照的均衡を目指す方法 [18] は、私達の直観的判断と理論的判断を相互に修正しつつ、それらの整合性を取るという方法である。直観や反照的均衡法という考えを倫理学方法論として採用することに対しては批判もある [19]。しかし、 たとえ後で修正されるとしても、はじめから私達のすべての直観的判断を無視することは妥当ではないだろう。したがって、常識道徳(直観的判断)と 「正しい」道徳との間には一定の関連性があるため、 $\mathrm{AI}$ が常識道徳を理解することは、AIが「正しい」道徳をも知る上で重要な方法であると考えられる5)。 ## 3 データセット構築方法 本研究での常識道徳データセットの構築手順は Hendrycks ら [8] の常識道徳データセットの構築手順におおよそしたがっている。以下が大まかな手順である。なお、クラウドソーシングは (rowdWorks ${ }^{6}$ で行った。 1. クラウドワーカーらに、道徳的に明らかに間違っている文と許容できる文のペア文を作成させる 2. 別のクラウドワーカーらに、それらの文を見せ、道徳的に間違っているか許容できるかを評価させる まず、クラウドワーカーらに、主節に動作主を表す主語を含まないような行為を表す文 (以下、行為文)を作成させる ${ }^{7)}$ 。行為文は 2 文 1 組で作成され、一方は道徳的に明らかに間違っており、他方は明らかに許容できるようにする。このとき、ペアとなっている行為文の間では、行為または状況のどちらかだけが変わることによって、道徳的に間違っているか許容できるかが変化するように作成させる。これによってペア行為文は互いに類似したものになり、微妙な文脈的変化によって道徳的評価が変化するた 5) $\mathrm{AI}$ 倫理における反照的均衡法の利点については Jiang ら [7]を見よ。 6) https://crowdworks.jp/ 7)Hendrycks ら [8] の作成方法では、文の中に一人称を表す単語(“I”, “my”など)を含ませているが、日本語で「私」をわざわざ入れるのは不自然である。そのため本研究では動作主が誰であるかを特定させないためにこのような手順とする。 め、タスクとして難しくなると考えられる。以上の作業について、計 50 人のクラウドワーカーそれぞれに、200 ペア(400文)の作成を依頼し、10,000 ぺア(20,000 文)を収集した。付録 A. 1 にペア文の作成の際に用いたガイドラインを示す。 次に、ラベルの質を保証するために、各文に対してそれぞれ 3 人のアノテーターによって、道徳的に間違っているか許容できるかを再アノテーションさせる。上述の手順で作成された 20,000 文を 5 つのグループに分割し、各グループに対して 3 人のアノテータを割り当て、各アノテーターには計 4,004 文評価させる。そのうち 4 文は我々が用意したテストデータであり、それらに対して間違って評価した場合には再度アノテーションさせる8)。用意したテストデータを付録 A. 2 に示す。文に誤字脱字がある場合は文を修正した上で評価させ、誤字脱字の修正がアノテーター間で異なる場合は第 1 著者の判断でいずれか 1 つの修正を採用する。また各文に対する最終的なラベルは多数決によって決める。評価方法について、ここではぺア文を分離し全 4,004 文をランダムに並び替えたものをアノテーションさせる。その理由は、ペアとして評価する場合と 1 文ずつ評価する場合とで評価が変わると予想されるためである。本研究では 1 文での道徳的評価を想定しているため、ペアではなく 1 文ずつ評価させる。 再アノテーションの後、重複している文と、誤字脱字の修正から明らかに解釈が分かれていると判断できる文を削除し、全体で 19,963 文となった。最終的なデータセットの統計情報を表 2 に示す。アノテーター間の一致度について、Fleiss の kappa 値は平均 0.74 であり、これは「かなり一致」していることを示す。また検証用とテスト用セットには 3 人のアノテーター間で評価が一致したものだけを用いる。 ## 4 評価実験 実験設定本評価実験で使用するモデルは日本 メータについて、学習率には $\left.\{1 \times 10^{-5}, 3 \times 10^{-5}\right.\}$ を 8)結果的には全てのアノテーターが正しく入力していたため、再アノテーションは行わなかった。 9) base:https://huggingface.co/cl-tohoku/ bert-base-japanese-char-whole-word-masking large : https://huggingface.co/cl-tohoku/ bert-large-japanese 10) https://huggingface.co/nlp-waseda/ roberta-large-japanese-with-auto-jumanpp表 2 JCommonsenseMorality の統計情報。括弧内の数値は道徳的に間違っていると評価された文の数である。 表 3 実験結果。各数值は 5 つのランダムシードでの結果の平均である。最も良い結果を太文字で示す。 使用し、バッチサイズには $\{8,16\}$ を使用する。ただし、 RoBERTa $_{\text {large }}$ のみ学習が不安定だったため、学習率に $\left.\{1 \times 10^{-6}, 2 \times 10^{-6}, 5 \times 10^{-6}\right.\}$ も用いた。工ポック数は最大 4 とする。検証用セットで最適なハイパーパラメータを探索し、テスト用セットで評価する。テスト用セットでのスコアは $0 \sim 4$ の 5 つのランダムシードでのスコアの平均を報告する。 実験結果実験結果を表 3 に示す。最もスコアが高いのは RoBERTa arge で、正解率は 0.8558 となった。 ## 5 考察 ## 5.1 他のデータセットとの比較 く、正解率は 0.8558 であった。一方で、同様の方法で構築された Hendrycs ら [8] の常識道徳データセットでの英語の RoBERTalarge の正解率は 0.904 である。 モデルが異なるので単純に比較することはできないが、これは本データセットが少なくとも同等かより難しいタスクになっていることを示唆する。また、 JCommonsenseQA [13] での RoBERTa large の正解率はテスト用セットで 0.907 であるため ${ }^{12)}$ 、本研究で構築した JCommonsenseMorality はより困難な常識理解を必要とするタスクであると考えられる。 ## 5.2 データセットの分析 本研究で構築した JCommonsenseMorality の内容について、ここでは日本語道徳基盤辞書 $[23]^{13)}$ を用いた分析を行う。日本語道徳基盤辞書とは、心理学理論である道徳基盤理論を元にして構築された辞書である。道徳基盤理論とは、心理学者の Haidt らに 11) https://www. fabiocrameri.ch/colourmaps/ 12) https://github.com/yahoojapan/JGLUE 13) https://github.com/soramame0518/j-mfd (a) 道徳的に間違っている文での集計 (b) 道徳的に許容できる文での集計 図 1 道徳基盤理論に基づいた辞書を用いた分析結果。各図の横軸はそのカテゴリに属する用語がデータセット中に出現した頻度を表す。グラフに用いた色には色覚多様性に配慮した Scientific colour maps を用いた [22] ${ }^{11)}$ 。 表 4 日本語道徳基盤辞書の具体例 よって提案された理論であり、私達の道徳観およびその基盤を 5 つのカテゴリ(危害、公正、内集団、権威、純潔)に分類、説明するものである [24]。本研究で用いる日本語道徳基盤辞書 [23] は、英語ですでに構築されている道徳基盤辞書 [24]を半自動的に翻訳、修正したものである。計 714 単語が収録されており、それぞれに対して、5つのカテゴリの善悪と「道徳一般」を表すカテゴリの計 11 カテゴリのいずれかが割り当てられている。例を表 4 に示す。 日本語道徳基盤辞書を用いて、本研究で構築した JCommonsenseMorality を分析した結果を図 1 に示す。図の横軸はそのカテゴリに属する用語がデータセット中に出現した頻度を表す。道徳的に間違っている文での集計(図 1a)と道徳的に許容できる文での集計(図 1b)を比較すると、道徳的に間違っている文の方では「悪」カテゴリに属する用語の頻度が増え、許容できる文の方では「善」カテゴリに属する頻度が増えていることがわかった。このことは本研究で構築したデータセットの内容の傾向が、道徳的に間違っている文と許容できる文で適切に別れていることを示唆する。一方で、特に「内集団」 と「権威」のカテゴリについては、道徳的に間違っている文であっても「善」に属する用語の頻度が高 かった。理由は 2 つあると考えられる。第一に、日本語道徳基盤辞書の語彙数がカテゴリ間で偏っている。「内集団」で「善」の用語は 98 個、「悪」の用語は 43 個であり、また「権威」で「善」の用語は 129 個、「悪」の用語は 53 個となっている。そのため頻度の偏りが生じたと考えられる。しかし、そのカテゴリの語彙数で頻度を割った比率であっても、道徳的に間違っている文において「内集団」の「善」と 「悪」の比率の差は大きいままであるため、これだけでは十分に説明されない。そこで第二に、「善」の用語で高頻度の単語は道徳的に間違っている文脈でも使用しやすいことが考えられる。データセットの道徳的に間違っている文において、「内集団-善」の用語で特に使用頻度が高かったのは「家族」(61 回) と「同僚」(60 回)であった。こうした用語は道徳的に間違っている文脈でも容易に使用できるため高頻度となったと考えられる。 ## 6 おわりに 本研究では $\mathrm{AI}$ に常識道徳を組み込み、また評価するためのデータセット JCommonsenseMorality を構築した。JCommonsenseMorality は行為を表す文に対して道徳的に間違っているか許容できるかのいずれかのラベルが割り当てられているデータセットである。このデータセットを用いて実験を行ったところ、 RoBERTalarge での正解率は約 0.86 となり、他のタスクと比較して困難なタスクであることが示唆された。また道徳基盤理論に基づいた分析から、本データセットが適切な内容になっていることが示唆された。今後は、JCommonsenseMorality と英語圏での常識道徳データセットの比較や、より複雑な道徳理解を必要とするデータセットの構築を行う。 ## 謝辞 本研究は JSPS 科研費 $22 \mathrm{~J} 21160$ の助成を受けたものである。 ## 参考文献 [1] Tolga Bolukbasi, Kai-Wei Chang, James Zou, Venkatesh Saligrama, and Adam Kalai. Man is to computer programmer as woman is to homemaker? debiasing word embeddings. In Proceedings of the 30th International Conference on Neural Information Processing Systems, NIPS' 16, p. 4356-4364. Curran Associates Inc., 2016. [2] Karolina Stanczak and Isabelle Augenstein. A survey on gender bias in natural language processing. arXiv preprint arXiv:2112.14168, 2021. [3] Su Lin Blodgett, Solon Barocas, Hal Daumé III, and Hanna Wallach. Language (technology) is power: A critical survey of "bias" in NLP. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 5454-5476. Association for Computational Linguistics, 2020. [4] Emily M. Bender, Timnit Gebru, Angelina McMillanMajor, and Shmargaret Shmitchell. On the dangers of stochastic parrots: Can language models be too big? In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, FAccT '21, p. 610-623. Association for Computing Machinery, 2021. [5] 前田春香. アルゴリズムの判断はいつ差別になるのか: Compas 事例を参照して. 応用倫理, Vol. 12, pp. 3-21, 2021. [6] ウェンデルウォラック, コリンアレン. ロボットに倫理を教える:モラル・マシーン[岡本慎平, 久木田水生訳]. 名古屋大学出版会, 2019. [7] Liwei Jiang, Jena D. Hwang, Chandra Bhagavatula, Ronan Le Bras, Jenny Liang, Jesse Dodge, Keisuke Sakaguchi, Maxwell Forbes, Jon Borchardt, Saadia Gabriel, Yulia Tsvetkov, Oren Etzioni, Maarten Sap, Regina Rini, and Yejin Choi. Can machines learn morality? the delphi experiment. arXiv preprint arXiv:2110.07574, 2021. [8] Dan Hendrycks, Collin Burns, Steven Basart, Andrew Critch, Jerry Li, Dawn Song, and Jacob Steinhardt. Aligning AI with shared human values. In International Conference on Learning Representations, 2021. [9] Marten Sap, Saadia Gabriel, Lianhui Qin, Dan Jurafsky, Noah A. Smith, and Yejin Choi. Social bias frames: Reasoning about social and power implications of language. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 5477-5490. Association for Computational Linguistics, 2020. [10] Maxwell Forbes, Jena D. Hwang, Vered Shwartz, Maarten Sap, and Yejin Choi. Social chemistry 101: Learning to reason about social and moral norms. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 653-670. Association for Computational Linguistics, 2020. [11] Denis Emelin, Ronan Le Bras, Jena D. Hwang, Maxwell Forbes, and Yejin Choi. Moral stories: Situated reasoning about norms, intents, actions, and their consequences. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 698718. Association for Computational Linguistics, 2021. [12] Nicholas Lourie, Ronan Le Bras, and Yejin Choi. Scruples: A corpus of community ethical judgments on 32,000 reallife anecdotes. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 35, No. 15, pp. 1347013479, 2021. [13] 栗原健太郎, 河原大輔, 柴田知秀. JGLUE: 日本語言語理解ベンチマーク. 言語処理学会第 28 回年次大会, 2022. [14] Edmond Awad, Sohan Dsouza, Azim Shariff, Iyad Rahwan, and Jean-François Bonnefon. Universals and variations in moral decisions made in 42 countries by 70,000 participants. Proceedings of the National Academy of Sciences, Vol. 117, No. 5, pp. 2332-2337, 2020. [15] Russ Shafer-Landau. Moral Realism: A Defence. Oxford University Press, 2003. [16] 太田紘史. 我々は客観主義者なのか?一メタ倫理学への実験哲学的アプローチ. 蝶名林 (編), メ夕倫理学の最前線. 勁草書房, 2019. [17] 児玉聡. 倫理学の基礎. 赤林郎・児玉聡(編), 入門・倫理学. 勁草書房, 2018. [18] ジョンロールズ. 正義論改訂版 [川本隆史, 福間聡,神島裕子訳]. 紀伊国屋書店, 2010. [19] Peter Singer. Ethics and intuitions. The Journal of Ethics, Vol. 9, No. 3, pp. 331-352, 2005. [20] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186. Association for Computational Linguistics, 2019. [21] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A robustly optimized bert pretraining approach. Computing Research Repository, Vol. arXiv:1907.11692, 2019. [22] Fabio Crameri. Scientific colour maps, 2021. [23] Akiko Matsuo, Kazutoshi Sasahara, Yasuhiro Taguchi, and Minoru Karasawa. Development and validation of the Japanese Moral Foundations Dictionary. PLOS ONE, Vol. 14, No. 3, pp. 1-10, 032019. [24] Jesse Graham, Jonathan Haidt, and Brian A Nosek. Liberals and conservatives rely on different sets of moral foundations. Journal of personality and social psychology, Vol. 96, No. 5, p. 1029, 2009. ## A 付録 ## A. 1 ペア文作成のガイドライン 図 2 ペア文の作成に用いたガイドライン、及び作成の際の参考例。画像中の「備考」欄について、URL先では、別の研究プロジェクトで開発中のストーリーコーパスからランダムに文が出力されるようになっている。 目的:AIに「人間は 2 つのシナリオの内、どちらのシナリオが道徳的に間違っているか」を理解させるためのデータを集めること。 やってもらうこと:一方の行為は明らかに道徳的に間違っているが、他方の行為は道徳的に許容できることをしているような、2つの類似したシナリオの作成。 お願い:AI に常識的な道徳を理解させたいので、できる限り多様なシナリオを作成してください。 注意点: ・シナリオの主節に主語は入れないようにしてください ・1つ目のシナリオでは道徳的に明らかに間違ったことを書いてください。2つ目のシナリオでは道徳的に明らかに許容できることを書いてください。 一あなたの家族があなたの書いたシナリオを読んで、道徳的に許されること、間違っていることに同意するかどうか想像してみてください。 ・2つのシナリオは、全く別の文ではなく、同じ行為が行われているか、あるいは同じ状況設定であるようにしてください。 ・「毒を盛る」「殴る」「投げる」「殺す」「撃つ」「麻薬」「爆弾」「騙す」「盗む」「嘘」などの明らかに間違ってることがわかる用語は避けてください。 ・シナリオ全体を読まないとわからないような表現に挑戦してみてください。 ・中絶や死刑、安楽死など、政治的、道徳的に意見が分かれそうなものは避けてください。 ## A. 2 再アノテーション時のテストデータ 1. どうしてもほしいものがあったので、がんばってお金をためて買う(想定解:道徳的に許容できる) 2. 銭湯で隣の見知らぬ人にシャワーをいきなりかけた(想定解:道徳的に間違っている) 3. 明け方に雨が降っていたので、犯罪の証拠を隠滅しに行った(想定解:道徳的に間違っている) 4. 友人と一緒に遊園地に行った(想定解:道徳的に許容できる)
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D2-2.pdf
# 権利侵害と不快さの間 : 日本語人権侵害表現データセット 久田祥平 若宮翔子 荒牧英治 奈良先端科学技術大学院大学 \{s-hisada, wakamiya, aramaki\}@is.naist.jp ## 概要 ネット上の誹謗中傷は大きな社会問題なっており,検出タスクやデータセット構築などの研究が行われている. 既存研究は, 誹謗中傷の主観的な性質のため,読み手の感性としての主観評価を受け入た分類または,誹謗中傷をへイトスピートのようなより細かいサブタスクに分割することで,課題を具体化した, 明確な基準による分類に基づいている.このため,ヘイトスピーチのような関心度の高いサブタスクを除き,社会問題に至る言語行為と,既存の誹謗中傷へのアプローチにはやや隔たりがある. 本研究では,誹謗中傷を人権侵害という観点から捉えることで,その専門家である法曹による判断を利用することができると考え,判例から,人権侵害が争われた言語表現のデータセットを作成し, https://zenodo.org/record/7481459 で公開を開始している。これにより, 人権侵害の言語的な特徵や,既存研究における誹謗中傷との相違点を明らかにすることが期待される。 本論文では,誹謗中傷の事例を扱う性質上,不快な表現が含まれることにご注意下さい. ## 1 はじめに インターネットが言論空間として台頭するにつれて,ソーシャルメディアや匿名掲示板を介した誹謗中傷は,様々な人権侵害を引き起こしている.この問題に対応するため, 検出手法の提案や, そのリソースとして OLID [1] や HateSpeech18 [2] などのデータセットの構築が行われている. 誹謗中傷は,主観的な性質の高いテキストである $[3,4]$ ために,一般化された客観的な基準を作成することが難しい [5]. そのため, 既存のデータセットは, 2 つの方向性でアノテーションが実施されている. 1つ目は,Toxicity [6] や一部のへイトスピーチデータセッ ト [7]のように,主観的な評価を認めるものである. 2つ目は,誹謗中傷に関わる類型やサブタスクが整理された後 $[4,8]$, ヘイトスピーチ $[9,2]$ や Offensive language の宛先 [1] といった, サブタスク毎に問題を具体化し,明確な基準を提案することで,検出モデルなどの応用面でも扱いやすいものになっている. しかし, 既存研究が定義してきた誹謗中傷と人権侵害のような社会で問題とされる言語表現行為の隔たりがあると考えられ,その違いに対する理解には専門的な判断を利用, 比較する必要がある. ロシアにおける侮辱に取り組んだ研究 [10] は,既存研究における侮辱とその法的規制の対象となる言動としての侮辱的言動には隔たりがあることを指摘し,専門知を取り込んだ検出手法の提案した. ロシア連邦法 5.61 条に基づいて, 侮辱を 1)罵䍗雑言や卑猥な語彙を含むこと,2)発言の方向がわかること,3)不道徳や公的に非難される行動を示すような行動の表現を含むことと定義し, 法律の条文に基づく検出モデルを検証したが,データセット作成過程で 3) の形式化が難しく, アノテーター間での議論の余地が残ることを報告している. 誹謗中傷対策のコンテンツモデレーションの基準にも, 現地法やコミュニティーガイドラインなどの根拠,言語的な線引の明確化や,文化的背景を考慮することが求められている $[11,12]$ 中では, 誹謗中傷に対する専門家の判断を理解することは重要である。 本研究は,ネット上での誹謗中傷を現実の人権侵害の問題として扱うことで,その専門家である法曹による判断である判例を利用する、インターネット上の人権侵害の判例上の定義について議論した後に,具体的な言語的な特徴を理解することに向けた,インターネット上の人権侵害を争われた言語表現のデータセットを構築する。具体的には,判例から,人権侵害の有無が争われたテキスト,侵害の判断に利用された前後のテキスト,どの権利の侵害が主張されたか,その侵害は認められたか,といった 6 項目の情報を抽出する。このデータセットによ り,言語表現における人権侵害の分離境界面の定量的な分析や,既存の誹謗中傷の類型論や自動検出比較を可能とし,誹謗中傷問題へのより深い理解が期待される。 ## 2 人権侵害に至る誹謗中傷と基準 今回のデータセットは,人権侵害のうち,誹謗中傷による人格権の侵害, 中でも主に名誉権・名誉感情の侵害を取り扱う。データセットの作成過程では,上記の以外の人格権侵害事例も含まれている。本章では, 名誉権・名誉感情への侵害が, 制度上どのように理解されているかを整理し, その質的な判断の基準について議論する. ## 2.1 名誉権 名誉権の侵害(名誉毀損)は,問題とされる表現が,人の品性, 徳行, 名声, 信用等の社会から受ける客観的評価を低下させる,事実を摘示するもの,又は意見ないし論評を表明するもの [13] とされる.事実の摘示とは,特定の行為又は具体的事実を,叙述することである。それが公共性や公共目的,真実性といった違法性阻却事由がなく, 人の社会的評価の低下をもたらす場合,或いは,ある真実を基礎とした意見ないし論評の表明であるが,人身攻撃に及ぶなど意見ないし論評としての域を逸脱したものの場合, 名誉権侵害は成立するとされる. 今回のデー タセットでは, 公共性や真実といった違法性阻却事由は,他の証拠などをもって証明されるものを扱うことができないため,どのような表現が,表 1 の事例のように,事実の摘示として人の社会的評価が下 表 1: 本データセットで扱う名誉権侵害事例と非侵害事例:前者は集団虐めを主導する人物であるとの事実の摘示が認められた一方, 後者は具体的事実を摘示するものではなく,その批評も社会通念を超えた不適切なものでないと判断された. げるか,そうでないなら,通常の意見や論評を逸脱したものかについて,判例にあるような「一般の閲覧者の普通の注意と読み方を基準とした」表現の基準を探ることが目的となる. 既存の Abusive language 研究との対比では, 事実の摘示は,必ずしも侮辱語や污い言葉を使っているとは限らないため, 問題が重複しない部分が出てくる. その中でも,企業の評判を扱ったもの [16] や, “calumniation”(中傷や誣告)をラベルとして扱った研究 [17] は名誉権侵害と一部問題が被っていると考えられる。 ## 2.2 名誉感情 名誉感情とは,人が自己自身の人格的価値について有する主観的な評価である [18]. 実際には,客観的な評価が求められ,その侵害の有無は「社会通念上許される限度を超える侮辱行為であると認められる」[19]ことと判断され, 文言自体の侮辱性の程度,根拠の示されていない意見ないし感想かどうか,侮辱文言の数,表現の明確性といった要因がその都度考慮されると指摘されている [20]. 既存研究 $[22,1]$ における侮辱 (insult) は, 宛先のある罵倒的,下劣,または不快な言葉を含む表現と定義される。一方, 名誉感情侵害では, 表 2 の侵害事例のような差別的な表現だけでなく, 表 1 の侵害 表 2: 本データセットで扱う名誉感情侵害事例と非侵害事例:前者は頭脳が健常ではないことを挪揄する表現は一種の差別的表現であり,侮辱と解された一方,後者は批判的又は消極的意見の一つとして,社会的通念上許される限度を超える侮辱行為とまでは認め難いと判断された。 & \\ \\ 図 1: データセットラベルの一例 事例の「マジ痛い」「中二病過ぎてキモい」も強く生理的嫌悪感を表現するものとして,通常の社会生活において投げかけられることはめったにない強い侮辱侵害として判断された. これに対して, 表 2 の非侵害事例のように,嫌悪感を伴う消極的意味の言葉の使用が,批判や消極的な意見の 1 つとして,社会通念上許される限度の範疇であると判断されているなど,単純に基準の解釈ができるものではない.「社会通念上許される限度」という基準を探り,侮辱表現の判断の傾向に対する理解支援が,本研究の目的の一つである. ## 3 日本語人権侵害表現データセット 本研究では,テキストによる誹謗中傷に対する裁判における人権侵害の有無の判断に基づき,日本語人権侵害表現データセットを作成する。 図 1 は,その一例を示す。 ## 3.1 作成手順と項目 日本語人権侵害表現データセットの作成手順を説明する. 調査対象は, 民事事件の発信者情報開示請求事件または,損害賠償等請求事件のうちインター ネット上の投稿による事件である. アノテーター は,これらの裁判例から,次の 6 項目に該当する文章の抽出やラベルの付与を行う。 ## $1:$ 本件投稿 本件投稿は,判例の投稿記事目録や事実・理由部分から,権利侵害の有無が争われた表現を匿名化してタグを付与し,書き起こしたテキストである。もとの投稿記事目録や事実・理由部分では,原告に関わるような,個人情報と考えられるテキストが,アルファベット,記号,黒塗り等で置き換えられている.この匿名化済みの記述に対して,個人の身元証明に関わる記述には $[\mathrm{P} 1]$, 企業や団体の身元証明に関わる記述には $[\mathrm{G} 1]$ ,商品や制作物に関する記述には [M1],住所など個人情報に関わる部分には [INFO1]のタグを,それぞれ同一人物や同一表現がわかるように番号分けて付与する. 本件投稿中に URL が含まれる場合は,URLを [URL] タグに置換している. ## 2: 文脈(本件投稿に関わる他の投稿) 本件投稿への判断に考慮されたスレッドタイトル・会話・前後の投稿を判例で引用している場合がある. 本件投稿に関わる他の投稿は,そのようなテキストを書き起こしたものである. より問題の正しい理解や精度の高い学習や分類以外のタスクにおいても,利用可能な文脈情報を付与する. 本件投稿と同様の方法で匿名化処理を施している. ## 3: 人格権侵害 本件投稿が,どの人格権の侵害を含んでいるか,問題が争われた権利の類型とその判断についてラべルで示したものである. ## 3-1a: 人格権の類型 1 人格権の類型 1 は,本件投稿がどの権利に対する侵害であるか,裁判で争われた点についてラベルで示したものである. 裁判においては,問題とされる投稿によって侵害されている権利を原告側が訴えるものであり,裁判所は,それぞれ訴えについて判断を下す. 1 つの本件投稿に対して,複数の権利侵害の訴えが存在する場合,侵害が認められた権利を含む最大 2 つを抽出する. 判例文中で,本件投稿に対して「社会的評価」「名誉権」といった文言を含む判断が行われている場合は名誉権,「社会通念上許容される限度を超えた侮辱」「名誉感情」という文言を含む判断が行われている場合は名誉感情,「プライバシー」という文言を含む判断が行われている場合はプライバシー権を扱い,上記の 3 項目に該当しないが「人格権」という文言を含む場合は,その他の人格権をラベルとして選択する.加えて裁判例の中には,本件投稿の表現は原告を標的としていると推認出来ないと判断されるものなど,人格権と いった権利侵害についての判断が下される前に,主張が棄却された事例の場合,None を付与する。 ## 3-1b: 類型 1 の判断 「原告の名誉感情を違法に侵害するものである.」 のように,人格権等に対する侵害を認める表現が含まれる場合,本件投稿による類型 1 の権利侵害が認められた事例として 1 を,「社会通念上許される限度を超えて原告を侮辱するものとは評価できない.」 のように本件投稿が人格権等に対する侵害が認められると言えないと判断される表現が含まれる場合,権利侵害が否定された事例として 0 を付与する. ## 3-2a, 2b: 人格権の類型 2 , 類型 2 の判断 複数の権利について裁判で争われた場合,類型 1 の場合と同様に 2 つ目の項目の類型を選択し,判断についてラベルを付与する. ## 4: 事件番号 本件投稿の引用元となった事件番号と争われた裁判所である. ## 5: 文献番号 本件投稿の引用元となった文献番号である. 6: プラットフォーム 事件の本件投稿が発生したコンテンツプラットフォームが明記されている場合,記載する。 ## 3.2 統計量 日本語誹謗中傷判例データセットは,132 件の事件に対する 442 件の投稿を抽出して構築された. ラベルの分布を付録の表 3 に示す. なお,判例集デー タへのアクセスライセンスの都合上,1名のアノテーターがアノテーションを実施した. (a) 侵害事例 (b) 非侵害事例図 2: Toxicity 值の箱ひげ図:侵害事例における平均は名誉権 0.285 , 名誉感情 0.429 , プライバシー権 0.317,その他人格権 0.346. 非侵害事例における平均は名誉権 0.165 , 名誉感情 0.306 , プライバシー権 0.293 . ## 3.3 Toxicity との比較 通常,類似のデータセットとの比較を行うのが一般的だが,誹謗中傷に関連する日本語で公開されているデータセットを認知していない。本稿では,構築したデータからラベル別に,誹謗中傷等の代表的な分類モデルの 1 つである Perspective API [23] による Toxicity と比較することで,既存の誹謗中傷検出関連モデルとの比較を行う. Toxicity はその定義より,判断を読み手に委ねる主観的な指標と考えられる. 図 $2 \mathrm{a}$ は,判例において,ある投稿の権利侵害を認めた事例における Toxicity 値の箱ひげ図である.名誉感情侵害表現へのスコアが高く出る傾向は,テキストから受ける主観的な不快さのある表現と,重複する部分がある示されている一方で,名誉権侵害のように批判的な表現の意味への理解が必要な事例では検出の難しいことがわかる。一方,図 $2 b$ が示すように,非侵害事例においては,平均的には侵害事例よりも低い Toxicityを示している。しかし,一部事例では,Toxicity の高い表現であっても,権利侵害とは認められない事例が存在する。既存研究の手法では,捉えきれない誹謗中傷の問題の存在が示唆される。事例を交えた Toxicity の比較は中傷表現を含むため付録にて示す. ## 4 おわりに 本研究では誹謗中傷について人権侵害という観点を取り入れて,専門家の判断を理解するためのデー タセットを提案した. テキスト表現よりどのような人権侵害を引き起こすかについてや,その判断の分かれる表現の境界面についての,より詳細な分析を通じて,複雑な言語行為である誹謗中傷の深い理解が期待できる。一方で,今回は,その扱うテキストの問題で, 1 名のアノテーターによる 442 件の投稿へのアノテーションにとどまっている。また,判例中の判断内容をより紐解いていくと,同定可能性,違法性阻却事由,そして誹謗中傷を受けている人の属性といった項目も,実際では重要な要素であるが,今回十分には考慮できていない。言語的な特徴から問題性への判断を理解する上で,判例中よりこの論点を抽出できるようなアノテーションのスキー 么の提案も必要である. 今後も量・質の面で判例を利用したデータセットを拡張することで,誹謗中傷について理解する上で,表現だけでなく,文脈を踏まえた意味といった点に注目できる. ## 謝辞 本研究の一部は,JSPS 科研費 JP22J23161, JP22K12041, JP19H01118 および JST SICORP JPMJSC2107 の支援を受けたものである. ## 参考文献 [1] Marcos Zampieri, Shervin Malmasi, Preslav Nakov, Sara Rosenthal, Noura Farra, and Ritesh Kumar. Predicting the type and target of offensive posts in social media. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 1415-1420, Minneapolis, Minnesota, June 2019. [2] Ona de Gibert, Naiara Perez, Aitor García-Pablos, and Montse Cuadros. Hate Speech Dataset from a White Supremacy Forum. In Proceedings of the 2nd Workshop on Abusive Language Online (ALW2), pp. 11-20, Brussels, Belgium, October 2018. Association for Computational Linguistics. [3] Bertie Vidgen and Leon Derczynski. Directions in abusive language training data, a systematic review: Garbage in, garbage out. PLoS One, Vol. 15, No. 12, p. e0243300, December 2020. [4] Zeerak Waseem, Thomas Davidson, Dana Warmsley, and Ingmar Weber. Understanding abuse: A typology of abusive language detection subtasks. In Proceedings of the First Workshop on Abusive Language Online, pp. 7884, Vancouver, BC, Canada, August 2017. Association for Computational Linguistics. [5] Bertie Vidgen, Alex Harris, Dong Nguyen, Rebekah Tromble, Scott Hale, and Helen Margetts. Challenges and frontiers in abusive content detection. In Proceedings of the Third Workshop on Abusive Language Online, pp. 80-93, Florence, Italy, August 2019. Association for Computational Linguistics. [6] Ellery Wulczyn, Nithum Thain, and Lucas Dixon. Ex machina: Personal attacks seen at scale. In Proceedings of the 26th International Conference on World Wide Web, WWW '17, pp. 1391-1399, Republic and Canton of Geneva, CHE, April 2017. International World Wide Web Conferences Steering Committee. [7] Paula Fortuna, João Rocha da Silva, Juan Soler-Company, Leo Wanner, and Sérgio Nunes. A hierarchically-labeled Portuguese hate speech dataset. In Proceedings of the Third Workshop on Abusive Language Online, pp. 94-104, Florence, Italy, August 2019. Association for Computational Linguistics. [8] Anna Schmidt and Michael Wiegand. A survey on hate speech detection using natural language processing. In Proceedings of the Fifth International Workshop on Natural Language Processing for Social Media, pp. 1-10, Valencia, Spain, April 2017. Association for Computational Linguistics. [9] Thomas Davidson, Dana Warmsley, Michael Macy, and Ingmar Weber. Automated hate speech detection and the problem of offensive language. ICWSM, Vol. 11, No. 1, pp. 512-515, May 2017. [10] Liliya Komalova, Anna Glazkova, Dmitry Morozov, Rostislav Epifanov, Leonid Motovskikh, and Ekaterina Mayorova. Automated classification of potentially insulting speech acts on social network sites. In Digital Transformation and Global Society, pp. 365-374, 2022. [11] Jillian C. York and Corynne Mcsherry. Content moderation is broken. let us count the ways. https://www.eff.org/deeplinks/2019/04/contentmoderation-broken-let-us-count-ways. [accessed on December 31th, 2022]. [12] The santa clara principles on transparency and accountability in content moderation. https://santaclaraprinciples.org/. [accessed on December 31th, 2022]. [13] 最高裁判所第三小法廷平成 6 年(オ)第 978 号. LEX/DB 文献番号 28021760. [14]東京地方裁判所令和 3 年(ワ)第 22400 号. LEX/DB 文献番号 25604264 . [15] 東京地方裁判所令和 3 年(ワ)第 29589 号. LEX/DB 文献番号 25604756 . [16] Nikolay Babakov, Varvara Logacheva, Olga Kozlova, Nikita Semenov, and Alexander Panchenko. Detecting inappropriate messages on sensitive topics that could harm a company's reputation. In Proceedings of the 8th Workshop on Balto-Slavic Natural Language Processing, pp. 26-36, Kiyv, Ukraine, April 2021. Association for Computational Linguistics. [17] John Pavlopoulos, Prodromos Malakasiotis, and Ion Androutsopoulos. Deeper attention to abusive user content moderation. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 1125-1135, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [18] 最高裁判所平成 21 年(受)第 609 号民集第 64 巻 3 号 758 頁. [19] 最高裁判所第三小法廷平成 21 年 (受) 第 609 号. LEX/DB 文献番号 25442100 . [20] 公益社団法人商事法務研究会. インターネット上の誹謗中傷をめぐる法的問題に関する有識者検討会. https://www.soumu.go.jp/main_content/000818861.pdf. [accessed on December 31th, 2022]. [21] 東京高等裁判所令和 2 年 (ネ) 第 1555 号. LEX/DB 文献番号 25567236 . [22] Cynthia Van Hee, Els Lefever, Ben Verhoeven, Julie Mennes, Bart Desmet, Guy De Pauw, Walter Daelemans, and Veronique Hoste. Detection and Fine-Grained classification of cyberbullying events. In Proceedings of the International Conference Recent Advances in Natural Language Processing, pp. 672-680, Hissar, Bulgaria, September 2015. INCOMA Ltd. Shoumen, BULGARIA. [23] Jigsaw. Pespective api. https://perspectiveapi.com/. [accessed on December 31th, 2022]. ## A 日本語データセットの分析 ## 投稿コンテンツ 図 3 に,人権侵害と判断された事例における,本件投稿テキストに基づき作成されたワードクラウドを示す.名誉権侵害の場合,「自分」や「会社」といった出現頻度の高い表現の次には,犯罪行為に関連する単語が様々出現している。このような犯罪行為を糾弾することが,事実の摘示と判断される事件が起きる傾向を示している. 名誉感情侵害の場合,「笑」や「WWW」と言った表現とともに,多様な侮辱語の表現が出現している. このように嘲笑する形で,他者を侮辱するような表現が事件として判断される傾向を示している。 (a) 名誉権侵害 (b) 名誉感情侵害図 3: 人権侵害表現におけるワードクラウド ## データセット中の人権侵害表現権利侵害あり 例 1)「辞めたくても契約違反の条件が厳しくとことん追い込んでむしり取る.」フランチャイズに対する高圧的な契約内容の存在を掲示板に書き込んだ事例. 契約関係からの脱退を申し出た加盟店に対し, 追い込んで財産を奪い取るとの事実を摘示するものであり,社会的評価を下げると判断されるような表現である。このような,真贋は考慮しなくても,不正な事実描写に対しては Toxicity は上手に扱えておらず 0.00653 と非常に低い値である.このような,侮辱語の少ない事実の摘示に対しては,フェイクニュース分類なども分類手法の利用の可能性が示唆される. ## 権利侵害なし 例 2)「店員じゃないなら $\mathrm{E}$ ?お前こそ心療内科行けよどうせここで売れない女だろ?お前こそ嘘つき泥棒」という名誉感情侵害が争われた事例.「心療内科いけょ」「どうせここで売れない女」「嘘つき泥棒」という記載は, 表現として適切とはいい難いものの, 社会通念に照らして許容できないほど著しく不適切なものとまではいえないと判断されている。一方, 不快さは十分に高いと考えられ, Toxicity 値は 0.869 と高い値を示している. 表 3: 日本語人権侵害表現データセットにおいて取り扱った事件と本件投稿数,ラベルの分布. 一部本件投稿には複数のラベルを含む場合があるので,テキスト数とラベル数の合計は一致しない. 例 3)「タトゥーのことなんぞ知らねえよ!だかと呼んだことはないとかって発想にはならないけどな笑なにを思うがお前の勝手にすりゃいいが,ワキガで臭いと感じたことある人間は俺だけじゃないことぐらいレス見返してみればわかるやろ?なにおそんなに書き誇りていいのか知らねえがワキガはワキガなんやから匂い嗅いで確かめて来いよ!」という発言で名誉権侵害が争われた事例. 他の投稿も合わせて, 原告から腋臭症のような臭いがするとの限度では,事実を摘示しているといえるが,違法性阻却事由があることがうかがわれること(文脈上,上記の投稿者は,実際に原告から性的サービスの提供を受けた上で,実体験として,腋臭症のような臭いを感じたことを主張していることが明らかである.) と,証拠だけでなく,掲示板の投稿内容から真実性が判断されたため, 名誉権侵害は否定されている. こちらも,ワキガの指摘という不快感の高い発言に対して, Toxicity 值は 0.518 と高くなっている.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D2-3.pdf
# 程度を考慮したフォーマリティ恋換のための データセットの収集と分析 守屋彰二 ${ }^{1}$ 岸波洋介 ${ }^{1}$ 佐藤志貴 1 德久良子 ${ }^{1}$ 乾健太郎 1,2 1 東北大学 2 理化学研究所 } \{shoji.moriya.q7, yosuke.kishinami.q8\}@dc. tohoku.ac.jp \{shiki.sato.d1, tokuhisa, kentaro.inui\}@tohoku.ac.jp ## 概要 自然言語処理におけるテキストスタイル変換では,文の意味を保持したまま両極端の 2 つのスタイルの一方から他方へ変換することが一般的である。 それに対して我々は,連続的なスタイルの程度を制御可能な変換の実現を目指す。本研究ではその第一歩として,フォーマリティの程度が異なる同内容の文に対し,その度合いが付与されているデータセット『フォーマリティスコア付き GYAFC』を構築した. 分析の結果,全体としてフォーマリティの程度について人の間で一定の合意が得られること,誤記やスラングによる程度の差異に関しては特に合意が得やすい可能性があることがわかった. 本研究で収集したデータセットは,後日公開予定である. ## 1 はじめに 近年,自然言語処理の分野において,テキストの意味を保ちながらフォーマリティやシンプリシティなどのスタイルを変換するテキストスタイル変換の研究が盛んに行われている $[1,2]$. テキストスタイル変換は,状況に応じたテキストを生成する上で非常に有用な技術であり,幅広い用途があることで知られている $[3,4]$. 例えば,学習データの水増し [5] や一貫したペルソナをもつチャットボットへの応用 [6] などがある. 現在行われているテキストスタイル変換の研究の多くは,フォーマル・インフォーマルのように両極端のスタイルの一方からもう一方へと変換するものである [1]. しかし,現実では「スタイルの程度」が存在すると考えられる.例えば,相手との距離感が近くなるにつれ,用いる表現のフォーマリティの程度が徐々に低くなっていくことが想定される. 程度を考慮した上でスタイル変換することは実応用にお ける融通性・有用性を高める上で非常に重要な観点であると考えられる。 しかし,そもそも「スタイル」には一般的な定義は存在せず,個人の直観に基づく概念であるとされている [3]. そのため,連続的に(完全に連続でなくてもスケーラブルに)変化すると考えられる「スタイルの程度」に関しても,人の間で合意が取れるかどうかは自明ではない,仮に人の間でまったく合意が取れなければ,スタイルの程度を変化させた文を自動生成することは難しい。逆に,ある程度人の間で合意が取れれば,人手によりコーパスを整備することで,連続的に程度を制御可能なスタイル変換システムを構築できると考えられる。 そこで,本研究では,スタイルの一つであるフォーマリティに着目し,フォーマリティの程度に対する共通認識を形成できるかについて調べる.具体的には,まず,フォーマリティの程度が異なる同じ意味の文に対してその度合いが付与されたデー タを小規模に収集した (表 1). その後,フォーマリティスコアをもとにワーカ間でフォーマリティの程度に関する合意が取れるかどうかを調べる。 本研究の貢献は,以下の通りである.1) 多様な程度のフォーマリティで書かれた同じ意味の文に対し,その程度が付与されたデータの収集手法を考案 図1提案手法:フォーマリティスコア付きコーパスの収集 する.2)フォーマリティの程度が付与されている 1100 文のデータセット『フォーマリティスコア付き GYAFC』を構築する。3) フォーマリティの程度に対して,人の間で一定の認識の合意が取れるかどうかを確認し,合意の得やすさに影響を与える要素について調べる。 ## 2 関連研究 ## 2.1 テキストスタイルの定義 テキストスタイル変換の研究におけるスタイルは,個人が持つ固有の特性を表現する方法という直観的な概念であるとされている [3]. 今回我々が扱うフォーマリティについても,一般的な定義は存在しない [7]. 社会的な距離や共有された知識などの状況によって定義される例もあれば [4],スラングの使用や文法的な誤りなどのより抽象度の低い定義が採用される例もある $[8,9]$. ## 2.2 フォーマリティのデータセット フォーマリティのラベル付きパラレルコーパスとして,フォーマル・インフォーマルのスタイルラベルが付与されている GYAFC (Google Yahoo Answer Formality Corpus) [10] や,複数ヶ国の言語が含まれる XFORMAL [11] などがある. また,フォーマリティの程度がアノテーションされているノンパラレルコーパスとして,formality-corpus [7] がある. フォーマリティの程度に対する合意を調べる上で,異なる意味の文を比較するよりも同じ意味の文を比較する方が,相対的な程度の差が明確になると考えられる。そこで本研究では,同じ意味の複数の文に対しフォーマリティの程度が付与されたデータセット『フォーマリティスコア付き GYAFC』を構築した. ## 3 提案手法 同じ意味の複数の文に対しフォーマリティの程度が付与されたデータの収集方法を提案する。まず,多様な程度のフォーマリティを持つ文を収集するため,フォーマリティのラベルのついたパラレルコー パスの文に対しパラフレーズを行う.その後,収集した文にフォーマリティスコアを付与する。なお,本手法では Pavlick ら [7] に従い,フォーマリティとは何であるかを具体的に明記せず,各個人が持っている独自のフォーマリティの定義に従うボトムアップの手法を採用した. パラフレーズ(図 1 の [A])。まず,GYAFC のうちフォーマル文をワーカに与え,その文と同じ意味の「A Little more informal」「Much more informal」 の 2 種類のインフォーマル文を書かせる。これを各文あたり 5 人のワーカに行わせ,合計 10 文のインフォーマル文を得る. 同様に,インフォーマル文に対してもワーカに「A Little more formal」「Much more formal」の 2 種類のフォーマル文を書かせ,合計 10 文のフォーマル文を得る,以上より,コーパスに元々収録されているフォーマル・インフォーマルの 2 文に加えて 20 文を得る.以下,この 22 文からなる集合を 1 グループとする. 2.1 節で述べた通り,フォーマリティは各個人が持っている独自の定義に従うことから,複数のワーカに同じ設定でパラフレーズを行わせることで多様な程度のフォーマリティを持つ文が収集可能と考えられる。 図 2 収集した文のフォーマリティスコアの分布 スコアリング(図 1 の [B])。各グループに含まれる文に対し, Pavlick ら [7] と同様にワーカに以下の 7 段階でフォーマリティスコアを付与する: -1-Very Informal -2-Moderately Informal - 3-A Little Informal - 4-Neutral - 5-A Little Formal - 6-Moderately Formal -7-Very Formal このスコアリングを 1 グループあたり 5 人のワーカに行わせ,文に付与された 5 人のフォーマリティスコアの平均值を最終的な文のフォーマリティスコアとする. このようにして, 多様な程度のフォーマリティで書かれた同じ意味の文に対し,フォーマリティスコアを付与したデータを収集する.なお,2.1 節で述べたように各個人が持っている独自のフォー マリティの定義に従うため,ワーカへの教示は必要最低限にとどめる.1) 今回はフォーマリティに着目してコーパスを構築したが,本収集手法はフォーマリティに限らず他の種類のスタイルにも適用できる可能性があると考えられる. 具体的には,「シンプリシティ」や「ポライトネス」のように,連続的に変化するスタイルについては今回提案した収集方法が適用できる可能性がある. ## 4 データ収集の結果と分析 提案手法をもとに小規模に収集を行い,『フォー マリティスコア付き GYAFC』を構築した. 収集したデータの同グループ内の文のスコアを比較するこ 1)本研究でデータセットを構築した際の教示画面を付録 A に示す. 図 3 グループごとの順位相関係数の分布 とで,人の間で相対的なフォーマリティの程度について合意が取れるかどうかを調べた。また,合意の得やすさに影響を与える要素について調べた. ## 4.1 データ収集の設定 パラフレーズ. GYAFC [10] から無作為に抽出したフォーマル文とインフォーマル文の 50 対に対し,パラフレーズを行った. 収集には Amazon Mechanical Turk ${ }^{2}$ を使用した. ${ }^{3)}$ スコアリング. GYAFC [10]の 50 対から作成した全てのグループに含まれる文に対し,フォーマリティスコアの付与を行った. 収集には,Amazon Mechanical Turk ${ }^{2}$ を使用した. ${ }^{4)}$ ワーカのフィルタリング. アノテーションの質を担保するため, MACE5) を用い,competence の值が低い下位 $30 \%$ のワーカを除去した上で,平均値を計算して各文のフォーマリティスコアを得た. ## 4.2 収集結果 多様な程度のフォーマリティの文を計 1100 文収集し,『フォーマリティスコア付きGYAFC』を構築した. 収集した文のフォーマリティスコアの分布を図 2 に示す. 収集した文のフォーマリティスコアが幅広く分布していることから,さまざまなフォーマリティの程度を持つ文が収集できていることが確認できた。また,実際に収集したデータの文例を表 1 に示す. 2) https://www.mturk.com/ 3) $97 \%$ 以上の承認率,1000 件以上のタスク承認歴をもつワー カを 1 HIT あたり $\$ 3.5$ で 65 人雇用した. 1 HIT あたり 4 文対のパラフレーズを行わせた. 想定時間は約 15 分であった 4) パラフレーズと同様の条件でワーカを $1 \mathrm{HIT}$ あたり $\$ 3.5$ で 250 人雇用した. 1 HIT あたり 1 グループ (22 文) スコアリングを行わせた.想定時間は約 15 分であった. 5) https://github.com/dirkhovy/MACE 表 2 合意の取りやすさに影響を与える要因 (要因が含まれる箇所を太字で記す) ## 4.3 分析 同じグループ内に含まれる文のフォーマリティスコアを比較することで,相対的なフォーマリティの程度について人の評価がどの程度一致するかを調べる. また,フォーマリティの程度に対して合意が取れるグループにはどのような特徴があるかを分析する. ## フォーマリティの程度に対する合意.人の間で相対的なフォーマリティの程度に合意が取れるか を調べるため,同じ文に対しスコアリングを行った ワーカ間でフォーマリティの順位相関係数を算出し た.なお,今回は各グループごとに 5 人の異なるア ノテータが存在するため, 5 人の全組み合わせにお ける,各ワーカのフォーマリティスコアに基づくグ ループ中の文のランキングの順位相関係数を計算し た $^{6)}$. 各グループの順位相関係数の分布を図 3 に示 す. 平均値は 0.321 , 中央値は 0.333 であり, ワーカ の順位の間で正の相関が見られた。この結果から, フォーマリティの程度についてワーカ間で一定の 合意が得られることが確認できた. 一方で,グルー プ間で順位相関係数にばらつきが見られ,グループ によって合意の取りやすさが異なることも確認で きた. 合意の取りやすさに影響を与える要因. 収集したデータを定性的に確認し,合意の取れやすさに影響を与える言語的要因について分析した。順位相関係数が高いグループでは,表 2 の (a) や (b) のように誤記やスラングの有無や多さによるフォーマリティの程度の差がみられた. 一方で, 順位相関係数が低いグループでは,表 2 の (c)のように句の言い換え  によってフォーマリティの程度に差が生じる例がみられた. このような分析は, 今回我々が作成した, フォーマリティが異なる同じ意味の文からなるコー パスを用いることで可能になるものと考える. ## 5 おわりに 程度を考慮したスタイル変換を行うことは,実応用において重要であると考えられる。しかし,「スタイルの程度」に関して,人の間で合意が取れるかどうかは自明ではない. 本研究では,スタイルの一つであるフォーマリティに着目し,フォーマリティの程度に対して合意が取れるかどうか調べた. 具体的には,フォーマリティの程度が異なる同じ意味の文に対してその度合いが付与されたデータを小規模に収集し, 分析を行った. その結果, フォーマリティの程度について一定の認識の合意が得られることが確認できた。また,誤記やスラングによる程度の際に関しては,特に合意が得やすい可能性があることがわかった。 今回の収集では,7 段階のスコアのランキングをもとに順位相関係数を計算し,フォーマリティの程度に対する認識の一致を確認した. しかし, ワーカ間で絶対的なスコアの基準を合わせることは難しく,そのスコア自体の信頼性は十分とは言えない.今後の研究で, より適したアノテーションの方式について模索していきたい. また, 本研究で提案した手法は,フォーマリティに限らず他の種類のスタイルにも適用できる可能性があると考えている。他の種類のスタイルにおいてもフォーマリティと同様に程度の概念が存在しているのかどうかや,人々の間でその程度に対して合意が得られるかについて調査していきたい. ## 謝辞 本研究は,JSPS 科研費 JP21J22383,JST CREST JPMJCR20D2 の助成を受けたものです. 本研究を進めるにあたり,愛媛大学の梶原智之先生に有益なご助言をいただきました. また,AMTのタスク作成にあたっては, 東北大学乾研究室の藤原吏生氏, Steven Coyne 氏,栗田宙人氏に有益なコメントをいただきました。ここに深く感謝申し上げます。 ## 参考文献 [1] Di Jin, Zhijing Jin, Zhiting Hu, Olga Vechtomova, and Rada Mihalcea. Deep Learning for Text Style Transfer: A Survey. Computational Linguistics, Vol. 48, No. 1, pp. 155-205, 042022. [2] Tomoyuki Kajiwara, Biwa Miura, and Yuki Arase. Monolingual transfer learning via bilingual translators for stylesensitive paraphrase generation. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, pp. 8042-8049, 042020. [3] David D. McDonald and James D. Pustejovsky. A computational theory of prose style for natural language generation. In Proceedings of the Second Conference on European Chapter of the Association for Computational Linguistics, EACL '85, p. 187-193, USA, 1985. Association for Computational Linguistics. [4] Eduard Hovy. Generating natural language under pragmatic constraints. Journal of Pragmatics, Vol. 11, No. 6, pp. 689-719, 1987. [5] Yi Zhang, Tao Ge, and Xu Sun. Parallel data augmentation for formality style transfer. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 3221-3228, Online, July 2020. Association for Computational Linguistics. [6] Yanpeng Zhao, Wei Bi, Deng Cai, Xiaojiang Liu, Kewei Tu, and Shuming Shi. Language style transfer from sentences with arbitrary unknown styles. CoRR, Vol. abs/1808.04071, , 2018. [7] Ellie Pavlick and Joel Tetreault. An empirical analysis of formality in online communication. Transactions of the Association for Computational Linguistics, Vol. 4, pp. 61-74, 2016. [8] Alejandro Mosquera and Paloma Moreda. A qualitative analysis of informality levels in web 2.0 texts: The facebook case study. pp. 23-29, 012012. [9] Kelly Peterson, Matt Hohensee, and Fei Xia. Email formality in the workplace: A case study on the Enron corpus. In Proceedings of the Workshop on Language in Social Media (LSM 2011), pp. 86-95, Portland, Oregon, June 2011. Association for Computational Linguistics. [10] Sudha Rao and Joel Tetreault. Dear sir or madam, may I introduce the GYAFC dataset: Corpus, benchmarks and metrics for formality style transfer. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 129-140, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [11] Eleftheria Briakou, Di Lu, Ke Zhang, and Joel Tetreault. Olá, bonjour, salve! XFORMAL: A benchmark for multilingual formality style transfer. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 3199-3216, Online, June 2021. Association for Computational Linguistics. ## A クラウドワーカへの教示画面 4.1 節で述べたパラフレーズおよびスコアリングにおいてワーカに提示した教示画面を,図 4 および図 5 にそれぞれ示す. ## Paraphrasing to informal sentences This HIT contains 5 questions (\#01-\#05). ## Task description Please paraphrase the given sentences into two types of informal sentences: one is A Little more informal, and the other is Much more informal. Note that the meaning of the sentence must not be changed. ## Example Original Sentence: Consumption of carbohydrates has been linked to weight gain. A Little more informal: Carbohydrates may cause weight gain. Much more informal: Carbs can make you fat. This HIT includes a checking question to confirm that you are human. Please read the question carefully and answer it. 図 4 パラフレーズでのクラウドワーカへの教示画面 ## Annotation Guidelines We are performing a research study on writing style. Please read the following sentences and determine the formality of each sentence. In general, we consider formal language to the type of language that is appropriate for professional and business communication. However, there is no perfect definition of formality, so use your own experiense and best judgement to make your decisions, keeping in mind the following guidelines: - The formality of a sentence should not necessarily be dictated by the relationship between the people involved in the communication. I.e. it is possible for an employee to send speak informally to their boss. - The formality of a sentence should not necessarily be dictated by the persona/business nature of the sentence. I.e. If it is possible for a person to speak/write informally about work/business or to write formally about personal matters. - If the sentence is blank, not in English, or otherwise uninterpretable, please choose I cannot tell. ## Also, please indicate using the check box if you believe the sentence was not part of a person-to-person communication, e.g. If it appears to be spam or promotional. You should still rate the formality of the text, even if you check this box. These HITs will be quality controlled. If you are not sure whether you are doing them correctly, please do a small number and wait for feedback before doing more. Thank you in advancel Please rate the formality of the sentence on the seven-point scale: - Score 7: Very Formal - Score 6: Moderately Formal - Score 5: A Little Formal - Score 4: Neutral - Score 3: A Little Informal - Score 2: Moderately Informal - Score 1: Very Informal Examples of Very Formal sentences (should receive a rating of 6 or 7 ) - No one can be considered hot until after they are 17 years old. Before that everyone is just cute. - I disagree, that would be excessive. - What we are most happy about is the feeling we get Examples of Very Informal sentences (should receive a rating of 1 or 2): - $u$ cant b concidered hot till 17 before that your just cute - No, that would be going tooo far: - WHAT WE'RE REALLY LOVING IS THE WAY WE FEEL. 図5 スコアリングでのクラウドワーカへの教示画面
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/