filename
stringlengths
1
10
text
stringlengths
33
111k
category
stringclasses
9 values
license
stringclasses
1 value
credit
stringclasses
5 values
Q3-10.pdf
# 対訳データを使わないマルチリンガル表現学習に 必要な分布構造とは何か 李凌寒 1 鶴岡慶雅 1 1 東京大学大学院 情報理工学系研究科 \{li0123,tsuruoka@logos.t.u-tokyo.ac.jp ## 概要 複数の言語にまたがって意味を表現したべクトルを獲得するマルチリンガル表現学習アルゴリズムには、対訳データを用いないものがある。これらのアルゴリズムが言語間の対応を発見するために利用しているのは、自然言語の分布構造の類似性である。この分布構造とは具体的にどのようなものだろうか? 本稿では、代表的なマルチリンガル表現学習アルゴリズムとして、Skip-gram + VecMap と Masked Language Modeling (MLM)を取り上げ、それらが利用している分布構造を、局所的/大局的なものという観点から区別して分析する。 ## 1 はじめに 人間が異なる言語間の対応関係を理解するためには、2つの言語を明示的に結びつける情報が必要である。第二言語学習者にとっては、対訳辞書や教科書の対訳文が、その役目を担うだろう。また、多言語環境で生活する人々は、現実世界の物事との対応を通して、2つの言語の対応関係を発見することができる。一方で、ニューラルネットワーク (NN) は、人間とは異なる方法で言語間の対応を発見できることが知られている。 Skip-gram などのアルゴリズムで学習した異なる言語の単語ベクトル空間は、線形変換によって対応づけられることが知られており [1]、その変換は対訳データを使わずに発見することができる $[2,3]$ 。また、Transformer と Masked Language Modeling (MLM) を用いて文脈化単語べクトルを学習する際に、異なる言語のコーパスを混ぜて使うだけで、各言語の対応するフレーズのベクトル表現が近づく現象が報告されており[4]、この効果は各言語に共通の語彙が存在しない場合でも観察される $[4,5]$ 。これらの表現学習アルゴリズムが、言語間対応発見のための手 図 1 実験フレームワークの概略図。 がかりにできるのは、単語の分布構造の類似性である。異なる言語圏であっても、人間は共通の認知基盤を持ち [6]、またいくつかの話題を共有しているため、そうした共通性が言語の分布構造に反映されていると考えることができる。 それでは、具体的にどのような分布構造が、アルゴリズムの言語間対応発見の手がかりに使われているのだろうか。この問いを明らかにすることで、 NN の自然言語の捉え方に関する理解を深め、未だに謎の多い $\mathrm{NN}$ という技術を上手く扱えるようになることに繋がる。本研究では、調査するアルゴリズムとして、Skip-gram + VecMap [3] および、Masked Language Modeling (MLM)を用いた手法を取り上げる。分析では、学習データとして、分布構造を改変したソース言語とターゲット言語のテキストを使い、得られたマルチリンガルベクトルを言語横断テキスト検索のタスクで評価する(図 1)。ここから、学習データの持つ分布構造の、アルゴリズムの言語間対応発見における必要性を調べることができる。 本稿では分析の観点として、ある単語の周囲数単語だけを含む局所的な分布と、周囲の文を含めた大局的な分布の、2つの分布の対比に注目する。実験の結果、Skip-gram + VecMap は、自然言語の局所的/大局的な分布のいずれかだけを手がかりにして言語間対応関係を学習できる一方で、MLM は、大局的な分布のみでは言語間対応を捉えられず、局所的な分布が必要であることが示唆された。 ## 2 対訳データを使わないマルチリン ガル表現学習 本論文の分析対象となるマルチリンガル表現学習手法は、入力として、ソース言語 $S$ のテキストコーパス、ターゲット言語 $T$ のコーパスを受け取り、それら言語のマルチリンガルベクトル表現モデルを得るアルゴリズムとして定式化できる。ここでは、Skip-gram + VecMap と Masked Language Modeling (MLM)の2つの手法を取り上げる。 ## 2.1 Skip-gram + VecMap Skip-gram [7] で学習されるモデルは、語彙 $V$中の 1 単語に 1 つのベクトルを割り当てる静的単語ベクトルである。学習時には、コーパス中の単語列 $\left[w_{1}, \ldots, w_{L}\right]$ から、ターゲット単語 $w_{t}$ と、その周囲 $l$ 単語の範囲に存在する文脈語 $\left.\{w_{t-l}, . ., w_{t-1}, w_{t+1}, \ldots, w_{l}\right.\}$ の組が取り出され、ター ゲット単語のベクトルから、文脈語を予測するタスクでモデルを最適化する。本実験では、文脈空のサイズを $l=5$ 、学習するべクトルの次元を $d=300$ と設定し、学習は gensim¹) のデフォルトハイパーパラメータで 15 エポック行った。 それぞれの言語のコーパスから別々に、Skip-gram による単語ベクトルを学習した後に、ソース言語の単語ベクトルをターゲット空間上に写像することで、マルチリンガルなベクトル空間を得る。このとき、ソース言語とターゲット言語のベクトル空間は構造が類似していることが多く、線形変換によって揃えることができることが分かっている [1]。対訳辞書 $D=\left.\{\left(w_{1}^{S}, w_{1}^{T}\right), \ldots,\left(w_{N}^{S}, w_{N}^{T}\right)\right.\}$ が存在する場合は、変換行列を $\boldsymbol{Z} \in \mathbb{R}^{d \times d}$ を、以下の最小二乗問題を解くことで得られる。 $ \underset{\boldsymbol{Z}}{\arg \min } \sum_{i=1}^{N}\left.\|\boldsymbol{Z} \boldsymbol{w}_{i}^{S}-\boldsymbol{w}_{i}^{T}\right.\|^{2} $ ここで、 $\boldsymbol{w}_{i}^{S}, \boldsymbol{w}_{i}^{T}$ は、ソース言語とターゲット言語の、対応する単語のベクトルである。加えて、変換の品質を向上させるために, 学習後のベクトルにはノルム正規化 $[8,9]$ を施し、 $\boldsymbol{Z}$ には直交行列となるような制約 $\boldsymbol{Z}^{\top} \boldsymbol{Z}=\boldsymbol{I}$ を課している。 VecMap [3] は、このような変換行列 $\boldsymbol{Z}$ を、対訳データなしで獲得する手法である。まず、 $\boldsymbol{W}^{S}, \boldsymbol{W}^{T}$ の統計情報から単語対訳辞書 $D_{0}$ を自動で構築する。ここで利用する統計情報は、単語ベクトル同 1) https://radimrehurek.com/gensim/士の類似度の分布であり、これは言語に関わらず似ていることが観察されている。単語べクトルを集めた行列 $\boldsymbol{W} \in \mathbb{R}^{|V| \times d}$ の、類似度分布べクトルは $\operatorname{sorted}\left(\sqrt{\boldsymbol{W} \boldsymbol{W}^{\top}}\right)$ として計算される。ここで、sorted は、行ごとにベクトルの成分をソートする操作を表す。同様に、類似度分布べクトルをソース言語とターゲット言語について求め、ソースとターゲット間で最近傍探索を行い、最も近い単語同士で単語対訳辞書 $D_{0}$ を構築する。 以後、自動で構築した対訳辞書 $D_{t}$ を用いて式 1 を解き、写像行列 $Z_{t}$ を獲得するステップと、写像後のソース単語ベクトル $\boldsymbol{Z}_{t} \boldsymbol{W}^{S}$ とターゲット単語ベクトル $\boldsymbol{W}^{T}$ 同士で最近傍探索を行い、新たな対訳辞書 $D_{t+1}$ を構築するステップを繰り返し、写像行列の精度を高めて最終的な写像行列 $\boldsymbol{Z}$ を獲得する。 ## 2.2 Masked Language Modeling MLM [10] で学習されるモデルは、単語列 $\left[w_{1}, \ldots, w_{L}\right]$ を受け取り、それぞれの単語に対応する文脈化べクトル $\left[\boldsymbol{h}_{w_{1}}, \ldots, \boldsymbol{h}_{w_{L}}\right]$ を出力するエンコーダである。学習時には、入力単語列にランダムにノイズを適用し、ノイズを適用された単語の出力ベクトルから、元の単語を予測するタスクを解く。 マスク付き言語モデリング自体には、言語間の対応を発見するような明示的な処理は存在しないにも関わらず、学習データに複数の言語を用いるだけで、各言語のフレーズの対応が取れるようなべクトルが学習され、これは言語間で語彙が共有されなくても起こる $[4,5]$ 。本実験のエンコーダには、隠れ層の次元が 512、層の数が 6 の Transformerを用い、MLM の学習は Adam を学習率 $1 e-4$ で用いて、バッチサイズ 128 で 3 エポック行った。 ## 2.3 言語間対応が学習される条件とは何か これらのアルゴリズムが、言語間の対応を発見するために使用しているのは、単語の分布構造の類似性だと考えられる。したがって、ソース言語とター ゲット言語の分布構造にずれが生じる場合、言語間対応の学習精度は悪化する場合がある。たとえば、 ソース言語とターゲット言語の言語学的な隔たりが大きい場合や、コーパスのドメインが異なる場合である [11]。この傾向は学習アルゴリズムによって異なり、MLM は静的単語べクトルベースの手法に比べて、コーパスのドメインの違いには比較的頑健であることが知られている [4]。これは学習アルゴリ ズムによって、対応関係発見に用いている分布構造が異なることが示唆しているが、その具体的な構造は明らかになっていない。本研究では、各アルゴリズムが、どのような分布構造を手がかりにして言語間の対応関係を発見しているのかを調査する。 ## 3 分析実験 本実験では、テキストの分布構造を改変することで、アルゴリズムの構造への依存性を調べる。 ## 3.1 学習データ 本実験は、ソース言語とターゲット言語の分布構造の差に注目するものではなく、両言語の分布構造が一致しているという前提の元で、言語間対応発見の必要条件となる分布構造を調べることが目的である。そこで、ここでは分布構造が一致しているが、共通の語彙を持たない別々の言語として、英語と、英語の語彙 IDをずらしたものを採用する。英単語の語彙を $V$ 、トークン $w \in V$ のソース言語における IDを $\operatorname{id}(w)$ としたとき、ターゲット言語における ID は $\operatorname{id}(w)+|V|$ が割り当てられる。 学習データとして、英語 Wikipedia のダンプファイルからランダムにサンプルした 100M 記事を用いた。前処理として、まず記事中のテキストに文分割・単語分割を施した後、記事をまたがずに、完全な文のみを含む 128 トークン以内のセグメントに分割する。単語分割には事前訓練済みの bert-base-uncased2 ${ }^{2}$ のサブワードレベルのトークナイザを用いた。Skip-gramを訓練する際は、セグメントを分割前に戻し、moses のトークナイザ3)を用いて単語レベルに再分割した。このセグメントが、表現学習アルゴリズムに与える系列データの 1 単位となる。この処理によって、合計約 548 万のテキストセグメントを得た。これらのデータをランダムに半分ずつに分割し、ソース言語とターゲット言語のコーパスとする。実験では、このデータをそのまま使用した学習と、分布構造を改変して学習を行った場合の結果を比較する。 ## 3.2 言語間対応の評価 学習したマルチリンガルなベクトル表現モデルが、どれくらい正確にソース言語とターゲット言語の対応関係を発見しているかを評価するために、言 2) https://huggingface.co/bert-base-uncased 3) https://github.com/moses-smt/mosesdecoder/blob/ master/scripts/tokenizer/tokenizer.perl語横断テキスト検索タスクを用いる。このタスクは、対訳テキストデータ $\left.\{\left(s_{1}^{(S)}, s_{1}^{(T)}\right), \ldots,\left(s_{N}^{(S)}, s_{N}^{(T)}\right)\right.\}$ が与えられ、モデルは、ソース言語のテキスト $s_{i}^{(S)}$ から、対応するターゲット言語のデータ $s_{i}^{(T)}$ を全ターゲットテキスト中から探し当てるものである。 今回のベクトル表現モデルは、それぞれのテキスト $s$ をべクトル表現 $s$ にエンコードして、コサイン類似度に基づく最近傍探索によって検索する。 Skip-gram + VecMap から獲得したモデルは、テキスト中の単語 $s=\left[w_{1}, \ldots, w_{L}\right]$ をそれぞれべクトルに変換し、それらを平均して得たべクトル $\frac{1}{L} \sum_{i}^{L} \boldsymbol{w}_{i}$ を用いて検索を行う。マスク付き言語モデリングで学習したエンコーダからも同様に、テキスト中の単語の文脈化べクトルを平均したべクトルを用いる。マルチリンガルエンコーダのベクトル表現の対応は、最終層よりも中間層の方が良いため、結果ではエンコーダの第 4 層から抽出した結果を示す。評価スコアには平均逆順位を用いた。 ## 3.3 大局的な分布と局所的な分布 テキスト中の単語分布は、文書のトピックや文法といった複数の要因で決まる。ここでは、大局的な分布と、局所的な分布の 2 つの区別に注目する。ここでいう大局的な分布とは、それぞれの単語が、文または周辺の文といった広い範囲を見たときに、どのような単語と共起するかの分布である。大局的な分布は、その単語がよく現れる話題を反映していると考えることができる [12]。一方で、局所的な分布は、より狭い数単語近傍にどのような単語が現れるかを指す。これは単語の話題的な意味に加えて、文法的な性質にも関連して決定される。 こうした分布に関する情報を除去する処理として、以下のデータ改変操作を導入する。 Corpus Shuffle は、コーパス中のトークンを、 セグメントの境界を無視してランダムにシャッフルする。シャッフル後は、セグメントの長さと数がシャッフル前と同じになるようにコーパスを分割する。この操作により、コーパスは大局的な分布および局所的な分布のどちらも失い、アルゴリズムがアクセスできる意味のある統計情報は、トークンの頻度情報だけになる。 Sentence Shuffle はトークンを、セグメント内でランダムにシャッフルする。この操作により、 データは局所的な分布を失うが、セグメント内での共起情報という大局的な分布は残る。 N-gram Shuffle はコーパス中のトークンを Ngram ごとのブロックに分け、そのブロックを保ったままセグメントの境界を無視してランダムにシャッフルする。シャッフル後は、セグメントの長さと数がシャッフル前と同じになるようにコーパスを分割する。この操作により、コーパスは大局的な分布を失うが、 $N$-gram の局所的な分布は残る。本実験では、 $N$ の大きさを 3 に設定した際の結果を示す。 以上の改変を加えたコーパスで学習した結果と、 もともとのコーパスからの結果を表 1 に示す。 表 1 分布構造を改変したコーパスで訓練したマルチリンガルベクトルモデルを、言語横断テキスト検索タスクで評価した際の平均逆順位を 100 倍にして示している。 まず、これらのアルゴリズムは、明示されずとも言語の対応関係を発見でき、それには一定の分布構造が必要であることを確認する。改変を加えていないデータを用いた場合 (Original) は、各アルゴリズムともに 80 ポイントを上回るスコアを示しており、テキスト分布のみから高い精度で対応関係が発見されていることが分かる。一方で、コーパス全体をシャッフルして分布構造を無くした場合 (Corpus Shuffle)は、ほぼゼロに近いスコアを示し、頻度情報だけでは言語間対応を発見できないことが分かる。 次に、大局的/局所的な構造のどちらかだけでも、各アルゴリズムが対応関係を発見できるかを見ていく。大局的な構造を除去し、局所的な構造だけを残した場合 (3-gram Shuffle) は Skipgram + VecMap と MLM ともに、改変前 (Original) に近いスコアを示している。つまり、これらのアルゴリズムには言語の局所構造さえあれば、言語の対応関係が発見できるということである。セグメント中のトークンをシャッフルして、大局的な構造だけを残した場合 (Sentence Shuffle)は、Skipgram + VecMap は94.1 ポイントと、改変前 (Original) とほぼ変わらないスコアを示している一方で、MLM は 0.4 とほぼゼロに近い值を示している。つまり、大局的な分布構造だけが与えられた場合、Skip-gram + VecMap は対応関係を発見できるが、MLM はできない。 原理的には、局所的/大局的な分布構造のいずれかの情報があれば、言語間の対応関係は発見可能であることを Skip-gram + VecMap の結果は示している。 しかしなぜ MLM は、大局的な分布構造だけでは対応関係をべクトル空間上に反映しないのだろうか。明示的な訓練信号なしで異なる言語のべクトル空間の共有が起こるメカニズムとして、タスクの学習の際にパラメータの効率的な活用をするインセンティブが働いているとする説がある。この説の根拠は、モデルのパラメータを大きくすると、モデルの発見する対応関係の精度が悪化するという観察である [13]。もしかしたら、大局的な構造だけを持つデータでの MLM は、パラメータ使用を効率化するインセンティブが働かないほどに、タスクが単純である可能性が考えられる。大局的な分布構造のみに基づいてマスクのついた単語を予測するタスクは、局所的な構造が保存されている場合に比べて、正解を絞り込むことが原理的に難しくなっている。実際に、MLM の 3-gram Shuffle と Sentence Shuffle の収束時の訓練損失の値を比べると、それぞれ 2.3 と 5.4 ポイント前後を示している。後者の収束時の損失が高いことは、タスクを解くための学習できる知識の上限が限られていることを示しており、これがべクトル空間の共有が起こらないことにつながっていると推測される。4) ## 4 おわりに 本研究では、対訳データを使わないマルチリンガル表現学習アルゴリズムが、どのような単語の分布情報を用いて、異なる 2 つ言語の対応関係を発見しているかを調査した。結果として、Skip-gram + VecMap は、大局的な分布構造さえあれば言語の対応関係を発見できるのに対して、MLM は局所的な分布構造がなければ、言語の対応関係を発見できないことが明らかとなった。 今後の研究では、暗黙的な言語の対応関係を発見するメカニズムを明らかにする必要がある。このためには多言語データ、Transformer、MLM に限る必要はなく、より広い視点から、潜在構造が類似する異なるデータで学習する際に、ニューラルネットワークの中間表現共有がどのように起こるかを考えることも有用であると思われる。 4) MLM に用いる Transformer のエンコーダのパラメータ数を減らし、隠れ層サイズ 128、層の数 3 とした設定で評価を行ったが、対応関係発見の精度改善は見られなかった。また位置埋め込みがノイズとなり、対応関係の発見を妨げている可能性を考え、位置埋め込みを使用しないエンコーダで学習した場合も、結果は同じであった。大局的な分布のみでも、 MLM で言語の対応関係が発見される条件が存在するかどうかを明らかにすることは、今後の課題としたい。 ## 参考文献 [1] Tomas Mikolov, Quoc V. Le, and Ilya Sutskever. Exploiting similarities among languages for machine translation. ArXiv, Vol. abs/1309.4168, , 2013. [2] Guillaume Lample, Alexis Conneau, Marc Aurelio Ranzato, Ludovic Denoyer, and Herve Jegou. Word Translation without Parallel Data. In Proceedings of the 6th International Conference on Learning Representations, Vancouver, Canada, 2018. [3] Mikel Artetxe, Gorka Labaka, and Eneko Agirre. A robust self-learning method for fully unsupervised crosslingual mappings of word embeddings. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 789-798, Melbourne, Australia, 2018. [4] Alexis Conneau, Shijie Wu, Haoran Li, Luke Zettlemoyer, and Veselin Stoyanov. Emerging Cross-lingual Structure in Pretrained Language Models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 6022-6034, Online, 2020. [5] Stephen Mayhew Karthikeyan K, Zihan Wang and Dan Roth. Cross-Lingual Ability of Multilingual BERT: An Empirical Study. In Proceedings of the 8th International Conference on Learning Representations, Addis Ababa, Ethiopia, 2020. [6] Hyejin Youn, Logan Sutton, Eric Smith, Cristopher Moore, Jon F. Wilkins, Ian Maddieson, W. Bruce Croft, and Tanmoy Bhattacharya. On the universal structure of human lexical semantics. Proceedings of the National Academy of Sciences, Vol. 113, pp. 1766 - 1771, 2015. [7] Tomas Mikolov, Kai Chen, G. Corrado, and J. Dean. Efficient Estimation of Word Representations in Vector Space. In International Conference on Learning Representations, 2013 [8] Mikel Artetxe, Gorka Labaka, and Eneko Agirre. Learning principled bilingual mappings of word embeddings while preserving monolingual invariance. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2289-2294, Austin, Texas, 2016. [9] Chao Xing, Dong Wang, Chao Liu, and Yiye Lin. Normalized Word Embedding and Orthogonal Transform for Bilingual Word Translation. In Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1006-1011, Denver, Colorado, 2015 . [10] Jacob Devlin, Mingwei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1, pp. 4171-4186, Minneapolis, Minnesota, 2019. [11] Anders Søgaard, Sebastian Ruder, and Ivan Vulić. On the limitations of unsupervised bilingual dictionary induction. In Proceedings of the 56th Annual Meeting of the As- sociation for Computational Linguistics (Volume 1: Long Papers), pp. 778-788, Melbourne, Australia, July 2018. Association for Computational Linguistics. [12] Omer Levy and Yoav Goldberg. Dependency-based word embeddings. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 302-308, Baltimore, Maryland, June 2014. Association for Computational Linguistics. [13] Philipp Dufter and Hinrich Schütze. Identifying elements essential for BERT's multilinguality. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 4423-4437, Online, November 2020. Association for Computational Linguistics.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q3-11.pdf
# マルチラベル分類のための重みつき非対称損失関数 安田有希 宮墒太郎 後藤淳 日本放送協会 放送技術研究所 \{yasuda.y-hk, miyazaki.t-jw, goto-j. fw\}@nhk.or.jp ## 概要 単一のテキストに複数のラベルを付与するマルチラベルテキスト分類は、自然言語処理で重要なタスクの一つであるが、大きな課題としてラベルの出現頻度が不均衡であることが挙げられる。学習データ中にあまり出現しない低頻度ラベルは、ポジティブサンプル数が極端に少なく、ほとんどの入力がネガティブサンプルである。そのため、モデルは低頻度ラベルをほとんどネガティブサンプル由来の損失から学習することになる。本研究では、ラベルの共起重みと出現頻度重み、ネガティブサンプル由来の損失値を抑制する重みを組み合わせる手法を提案する。実験の結果、Reuters-21578 では、micro-F1 で 0.911 と SOTAを上回る性能を達成した。 ## 1 はじめに マルチラベルテキスト分類 (MLTC) は、自然言語処理の中でも重要な課題の一つであり、今日実世界の様々な場面で適用されている。たとえば、法律文書の分類 [1]、カルテによる自動診断 [2] が挙げられる。MLTC では文書 $x_{i} \in X$ に対して、事前に定義されたラベルから適切なラベルのサブセット $y_{i} \in\{0,1\}^{C}$ を付与するタスクである $[3,4]$ 。なお、 ここで $X$ は文書の集合であり、 $C$ は事前に定義されたラベルの総数である。MLTC においてべンチマークとして広く利用されている Reuters-21578[5] のデータのサンプルを図 1 に示す。 \\ Labels 1 & cocoa \\ Labels 2 & sorghum, oat, barley, corn, wheat, grain \\ 図 1 Reuters-21578 のデータ例 図 2 Reuters-21578 におけるラベル分布 MLTC の特徴として、ラベルの頻度がロングテー ル分布に従う不均衡データセットが挙げられる。一例として、図 2 に Reuters-21578 の各ラベルの頻度分布を示す。図 2 が示すとおり、低頻度ラベルはポジティブサンプルから学習することは稀であり、殆どの場合ネガティブのサンプルから学習する。これは、Imbalanced learning と呼ばれ、機械学習の分類問題における大きな課題の一つである [6,7]。 この課題を解決するために、画像分類分野では損失値に重み付けを行うような様々な損失関数手法が提案されている $[8,9,10]$ 。さらに、これらの手法は自然言語処理分野にも流用され、効果を発揮している [11]。本研究では、ラベルの共起情報をもとにした重みとラベルの頻度から構成された重み、ネガティブサンプルの影響を軽減する重みを組み合わせ、不均衡データセットの影響を抑制するような損失関数を提案する。 ## 2 関連研究 Class-Balanced Loss (CBL)[8] は、データセット内の各ラベルの出現数に反比例する重みを構築して損失値に重み付けする手法である。つまり、出現数の多いラベルの損失值ほど抑制されるような重みを構築するため、各ラベル間での損失值のバランスが調整される。しかしながら、CBLでは同一のラベルにおけるポジティブサンプル由来の損失とネガティブサンプル由来の損失のバランスは考慮されない。マ ルチラベル分類では、ラベル空間が大きいタスクを取り扱うことも多いため、学習サンプルにおいてモデルが計算する損失值のほとんどが、ネガティブラベル由来の損失値である。つまり、ラベル間の重み調整だけでは偏ったネガティブサンプルの影響を取り除けず、ポジティブサンプルに対しても意味のある学習が難しくなってしまう。 この課題を解決するために Distribution-Balanced Loss (DBL)[9] が提案されている。DBL は、損失值を調整する重みと Negative-Tolerant Regularization (NTR) 手法を統合して構成される。重みはバッチ内のラベル出現数の逆数とデータ全体のラベル出現数の逆数の比を求めることで算出される。また、NTR はモデルの出力からその逆数とハイパーパラメータによって算出される値を引くことによってネガティブサンプルの学習を抑制することを実現している。 すなわち、モデルの出力が一定の値を下回ると急激に損失値を低下させることができる。ただし、DBL では学習のために事前定義しなければならないハイパーパラメータが非常に多く、データ量が多い傾向にある MLTC では探索のコストが非常に高い。 学習中のネガティブサンプルの影響を緩和するための別の手法として、非対称的な形を持った重みを損失值に適用する Asymmetric Loss (ASL)[10] が提案されている。ASL のコンセプトとして、以下の 2 点が挙げられる。それは Focal Loss (FOC)[12] における減衰率 $\gamma$ を正負のサンプルで分離する Asymmetric Focusing 手法と学習が十分に進んだネガティブサンプルの損失値を完全に破棄する Asymmetric Probability Shifting 手法である。つまり、ラベルの正負をもとにした損失値への重み付けと意味のあるサンプルからの学習の選択を同時に行う。ASLでは、 ネガティブサンプルに適用される $\gamma_{-}$をポジティブサンプルに適用される $\gamma_{+} よりも$ 高く設定することで、ネガティブサンプルに対するモデルの出力が小さい場合に損失值を抑制する一方で、ポジティブサンプルの損失値は不当に抑制されないような学習を実現している。ただし、ASL はネガティブサンプルの影響の抑制に高い効果を発揮する一方で、データセット内で多く出現する高頻度ラベルの影響を抑制できない。 ## 3 提案手法 近年の多くの損失関数の提案は MLTC で多大な成果を収めているが、頻度もしくはラベルの正負とい 図 3 本研究における提案手法の概要図 う一面的な観点でしか重みが構築されていない。そこで、本研究ではラベル間の頻度の差を緩和する重みとネガティブサンプルの影響を抑制する重み、低頻度ラベルのサンプル数の少なさを緩和する重みを統合した手法を提案する。データの中で多数派である低頻度でネガティブなサンプルに対しては $\gamma$ の値を上げることで損失値を抑制する。一方で、少数派である高頻度ラベルでネガティブなサンプルに対しては $\gamma$ の値を下げることで損失値の抑制を緩和する。さらに、トレーニングデータから抽出されたラベルの共起表現をもとにした Label Smoothing を行うことによって低頻度ラベルのサンプル数の少なさを補い、モデルの過学習を抑制することを狙う。本提案手法の概要図を図 3 に示す。 ## 3.1 Class Balancing モジュール Class Balancing モジュールではトレーニングデー タ全体のラベル分布から各ラベルに適用する重みを計算する。本提案手法では、CBL で提唱されているラベルの出現数をもとにした重み $r^{c b}$ から重み $\hat{r}^{c b}$ を構築する。 $\hat{r}^{c b}$ は、CBL と同様に損失値全体の重み付けを行うと同時に、後に説明する Asymmetric Focusing モジュールにおいて $\gamma$ を調整する役割も持 つ。 $\hat{r}^{c b}$ は以下のように定義される。 $ \begin{aligned} r^{c b} & =\frac{(1-\beta)}{1-\beta^{n_{y}}}, \\ \hat{r}^{c b} & =\frac{r^{c b} n_{y}}{\sum^{i} r^{c b}} . \end{aligned} $ ここで、 $n_{y}$ は各ラベルの出現数、 $0 \leq \beta<1$ は重みの強度を調整するハイパーパラメータである。 ## 3.2 Asymmetric Focusing モジュール Asymmetric Focusing モジュールでは ASL と同様に、ポジティブサンプルとネガティブサンプルのそれぞれに適用する重み $(1-p)^{\gamma_{+}},\left(p_{m}\right)^{\gamma_{-}}$を計算する。このうち、ネガティブラベルに適用される $\gamma_{-}$と Class Balancing モジュールで構築された重み $\hat{r}_{c b}$ を掛け合わせる。提案手法 Asymmetric Loss with Weight Combination (ASLWC) における損失は以下のように定義される。 $ \begin{aligned} \text { Loss } & =\hat{r}^{c b}\left[-y L_{+}-(1-y) L_{-}\right] \\ L_{+} & =(1-p)^{\gamma_{+}} \log (p), \\ L_{-} & =\left(p_{m}\right)^{\gamma_{-} r_{-}^{c b}} \log \left(1-p_{m}\right), \\ p_{m} & =\max (p-m, 0) . \end{aligned} $ ここで、 $0 \leq \gamma_{+}<\gamma_{-}$はハイパーパラメータである。 また、式 6 は Asymmetric Probability Shifting 手法であり、モデルの出力確率が非常に低い場合、ネガティブサンプルによる影響を完全に破棄するための処理である。 ## 3.3 Label Smoothing モジュール Class Balancing と Asymmetric Focusing による重み調整では、低頻度ラベルに対応する入力サンプルの少なさは本質的に解決されない。本提案手法では Label Smoothing 手法 [13]をもとに、事前確率としてラベルの共起情報を設定した Label Smoothing を行う。本提案手法における Label Smoothing は以下のように定義される。 $ \begin{aligned} y^{\prime} & =(1-\alpha) y+\alpha u(y) \\ u(y) & =\operatorname{norm}\left(\sum_{i=1, y_{i}=1}^{C} P P M I_{i j}\right) \end{aligned} $ ここで、 $0<\alpha<1$ は Smoothing の度合いを決定するハイパーパラメータである。さらに、norm は正規化関数であり、Min-Max Normalization 手法を用いる。また、PPMI はトレーニングデータの各ラベルの共起回数から計算された正の自己相互情報量行列 を示す。通常の Label Smoothing では式 7 の項 $u(y)$ は一様分布 $\frac{1}{C}$ が定義されるが、本提案手法の Label Smoothing では、ポジティブラベルとデータセット内で共起するラベルを関連ラベルとみなし、関連ラベルにのみ Ground Truth Value を分配する。これによって、本来は正負の判定をするためだけの式 3 内の項 $y 、(1-y)$ を共起情報が加味された重みとして扱うことができる。 ## 4 実験 提案手法の有効性を検証するために、ベースライン手法との比較実験を行った。ベースライン手法の損失関数として Binary Cross-Entropy (BCE)、 FOC[12]、CBL[8]、CBL-NTR[11]、DBL[9]、ASL[10] を用いた。このうち、CBL-NTR と DBL は Reuters21578 において State-of-the-art である。 ## 4.1 データセット 本実験では、ベンチマークとして Reuters-21578[5] と AAPD[14]、20 Newsgroups[15] を用いた。それぞれのデータセットの統計情報を表 1 に示す。なお、 Reuters-21578 に関して、本実験では modApté 分割 [16]を使用して、トレーニングデータとテストデー タに分割した。また、Reuters-21578、20 Newsgroups はともに検証データが事前に定義されていないため、学習データを 9:1の比率でランダムに分割し、検証データを構築した。 表 1 データセット概要 Reuters-21578 は、1987 年にロイターのニュースワイヤーに揭載された経済分野のニュース記事から構成されており、ラベルの分布が非常に不均衡という特徵がある。AAPD は、科学論文のリポジトリである arXiv に公開された論文のアブストラクトから構成されており、実験に利用されたデータセットの中で中程度の不均衡さを持つ。20 Newsgroups は複数のドメインから構成されるニュース記事を集めたデータセットで、ラベル分布が均衡のとれたデータセットである。 表 2 実験結果 ## 4.2 実験設定 本実験では、分類モデルとしてニューラルネットワークを用いた。RoBERTa[17] で大力サンプルを文章の特徴量に変換するエンコーダ部分と、文章の特徵量から各ラベルのスコアを出力する 2 層の Feed Forward Networks (FFNN) から構成されるモデルを使用した。モデルは Pytorch[18] と Transformers[19] を用いて実装し、最適化手法として RoBERTaには AdamW[20]を適用し、FFNNにはRAdam[21]を適用した。各比較手法で共通のハイパーパラメータの学習エポックは 50 エポック、ドロップアウト率は 0.1、RoBERTa の学習率は $2 \times 10^{-5}$ 、FFNN の学習率は $2 \times 10^{-3}$ 、出力閾値は 0.5 であった。また、各手法の固有のハイパーパラメータに、それぞれ FOC は $\gamma=2 、 \operatorname{CBL}$ は $\beta=0.9 、$ DBL は $\beta=10.0$、map $-\gamma=0.9 、$ ASL $\gamma_{+}=1 、 \gamma_{-}=4 、$ ASLWC は $\alpha=0.3 、 \beta=0.3 、 \gamma_{+}=1 、 \gamma_{-}=4$ と設定した。本実験では、各手法の実験は異なるランダムシードで 5 回評価を行い、表 2、表 3 には評価値の平均を記載した。 ## 4.3 評価指標 本実験では、評価指標として Macro-f1、Micro-F1 を用いた。なお、出現頻度が下位三分の一であるラベルを低頻度ラベルとして定義し性能を比較した。 ## 4.4 結果 本実験の結果を表 2 に示す。Reuters-21578と AAPD において、すべてのラベルを用いた指標で本提案手法が比較手法を上回ったことが確認された。なお、Reuters-21578 においては SOTA である CBL-NTR と DBLを超える精度が確認された。一方で、20 Newsgroups において提案手法を含む重み調整の手法が BCE の精度を超えなかったことが認め られた。なお、すべてのデータセットにおける各ラベルグループごとの結果は付録 A に記載した。 ## 4.5 議論 Reuters-21578 と AAPD はどちらもラベルの頻度に偏りがあり、その影響をモデルに与えやすいデー タセットである。一方で、20 Newsgroups はラベルの不均衡の度合いが弱く、相対的には低頻度ラベルであっても 1000 件程度のサンプル数が確保されている。このことから、表 2 を鑑みると本提案手法はラベルの不均衡の度合いがある程度強いデータに有効である可能性がある。 表 2 の低頻度ラベルの結果から、Reuters-21578 と AAPD において本提案手法が低頻度ラベルの精度を向上させている。このことから、本提案手法において低頻度ラベルの精度向上が全体のラベルの分類精度の向上につながったのではないかと推察できる。 つまり、本提案手法によってラベルの不均衡による影響を他の提案手法に比べて緩和できている可能性がある。 ## 5 おわりに マルチラベルテキスト分類では、ラベルの出現頻度に偏りがあるデータにおいて、低頻度ラベルの精度が低いという課題が存在する。そこで、本研究ではラベルの共起情報をもとにした重みと出現頻度の重み、ネガティブサンプルの損失を抑制する重みとを組み合わせる手法を提案した。実験結果より、提案手法がラベル分布の偏りが強いデータセットにおいてべースラインを上回ることが確認された。また、提案手法が低頻度ラベルの精度を改善していることから Imbalanced learning の問題を緩和できる可能性がある。今後の展望として、より幅広いベンチマークデータセットでの検証と既存の大規模モデルへの適用による手法の頑健性の検証が挙げられる。 ## 参考文献 [1] Ilias Chalkidis, Emmanouil Fergadiotis, Prodromos Malakasiotis, Nikolaos Aletras, and Ion Androutsopoulos. Extreme multi-label legal text classification: A case study in EU legislation. In Proceedings of the Natural Legal Language Processing Workshop 2019, pp. 7887, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] Clare Amanda and King D. Ross. Knowledge discovery in multi-label phenotype data. In Principles of Data Mining and Knowledge Discovery, pp. 42-53, Berlin, Heidelberg, 2001. Springer Berlin Heidelberg. [3] Min-Ling Zhang and Zhi-Hua Zhou. A review on multilabel learning algorithms. IEEE Transactions on Knowledge and Data Engineering, Vol. 26, No. 8, pp. 18191837, 2014. [4] Tsoumakas Grigorios and Katakis Ioannis. Multi-label classification: An overview. International Journal of Data Warehousing and Mining, Vol. 3, No. 3, pp. 1-13, 2007. [5] Philip J. Hayes and Steven P. Weinstein. CONSTRUE/TIS: a system for content-based indexing of a database of news stories. In Proceedings of the The Second Conference on Innovative Applications of Artificial Intelligence, IAAI '90, pp. 49-64. AAAI Press, 1990. [6] Haibo He and Edwardo A. Garcia. Learning from imbalanced data. IEEE Transactions on Knowledge and Data Engineering, Vol. 21, No. 9, pp. 1263-1284, 2009. [7] Wang Yaqing, Yao Quanming, Kwok T. James, and Ni M. Lionel. Generalizing from a few examples: A survey on few-shot learning. ACM compututing Ssrveys, Vol. 53, No. 3, pp. 1-34, 2020. [8] Cui Yin, Jia Menglin, Lin Tsung-Yi, Song Yang, and Belongie Serge. Class-balanced loss based on effective number of samples. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 9268-9277, June 2019. [9] Wu Tong, Huang Qingqiu, Liu Ziwei, Wang Yu, and Lin Dahua. Distribution-balanced loss for multi-label classification in long-tailed datasets. In Andrea Vedaldi, Horst Bischof, Thomas Brox, and Jan-Michael Frahm, editors, Proceedings of the European Conference on Computer Vision, pp. 162-178, Cham, 2020. Springer International Publishing. [10] Ridnik Tal, Ben-Baruch Emanuel, Zamir Nadav, Noy Asaf, Friedman Itamar, Protter Matan, and Zelnik-Manor Lihi. Asymmetric loss for multi-label classification. In Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 82-91, October 2021. [11] Yi Huang, Buse Giledereli, Abdullatif Köksal, Arzucan Özgür, and Elif Ozkirimli. Balancing methods for multilabel text classification with long-tailed class distribution. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 8153-8161, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [12] Lin Tsung-Yi, Goyal Priya, Girshick Ross, He Kaiming, and Dollár Piotr. Focal loss for dense object detection. In Proceedings of the IEEE International Conference on Computer Vision, pp. 2999-3007, 2017. [13] Szegedy Christian, Vanhoucke Vincent, Ioffe Sergey, Shlens Jon, and Wojna Zbigniew. Rethinking the inception architecture for computer vision. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 2818-2826, 2016. [14] Yang Pengcheng, Sun Xu, Li Wei, Ma Shuming, Wu Wei, and Wang Houfeng. SGM: Sequence generation model for multi-label classification. In Proceedings of the 27th International Conference on Computational Linguistics, pp. 3915-3926, Santa Fe, New Mexico, USA, August 2018. Association for Computational Linguistics. [15] Ken Lang. Newsweeder: Learning to filter netnews. In Proceedings of the Twelfth International Conference on Machine Learning, pp. 331-339, 1995. [16] Chidanand Apté, Fred Damerau, and Sholom M. Weiss. Automated learning of decision rules for text categorization. ACM Trans. Inf. Syst., Vol. 12, No. 3, pp. 233-251, July 1994. [17] Zhuang Liu, Wayne Lin, Ya Shi, and Jun Zhao. A robustly optimized BERT pre-training approach with post-training. In Proceedings of the 20th Chinese National Conference on Computational Linguistics, pp. 1218-1227, Huhhot, China, August 2021. Chinese Information Processing Society of China. [18] Paszke Adam, Gross Sam, Massa Francisco, Lerer Adam, Bradbury James, Chanan Gregory, Killeen Trevor, Lin Zeming, Gimelshein Natalia, Antiga Luca, Desmaison Alban, Kopf Andreas, Yang Edward, DeVito Zachary, Raison Martin, Tejani Alykhan, Chilamkurthy Sasank, Steiner Benoit, Fang Lu, Bai Junjie, and Chintala Soumith. Pytorch: An imperative style, high-performance deep learning library. In H. Wallach, H. Larochelle, A. Beygelzimer, F. d'Alché-Buc, E. Fox, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 32. Curran Associates, Inc., 2019. [19] Wolf Thomas, Debut Lysandre, Sanh Victor, Chaumond Julien, Delangue Clement, Moi Anthony, Cistac Pierric, Rault Tim, Louf Remi, Funtowicz Morgan, Davison Joe, Shleifer Sam, von Platen Patrick, Ma Clara, Jernite Yacine, Plu Julien, Xu Canwen, Le Scao Teven, Gugger Sylvain, Drame Mariama, Lhoest Quentin, and Rush Alexander. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45, Online, October 2020. Association for Computational Linguistics. [20] Loshchilov Ilya and Hutter Frank. Decoupled weight decay regularization. In International Conference on Learning Representations, 2019. [21] Liyuan Liu, Haoming Jiang, Pengcheng He, Weizhu Chen, Xiaodong Liu, Jianfeng Gao, and Jiawei Han. On the variance of the adaptive learning rate and beyond. In International Conference on Learning Representations, 2020 . ## A ラベル頻度グループ別の結果 実験に使用したデータの頻度グループ別の結果を表 3、表 4、表 5 にそれぞれ示す。データセット中のラベルを出現頻度順に並べたときの上位を High、中位を Middle、下位をLow に分割し、性能を比較した。なお、各グループのラベル数は均等になるように分割し、Reuters-21578 と AAPD、20 Newsgroups の各グループはそれぞれ 30 件、 18 件、 11 件のラベルから構成されている。 表 3 頻度グループごとのラベルにおける実験結果 (Reuters-21578) 表 4 頻度グループごとのラベルにおける実験結果 (AAPD) 表 5 頻度グループごとのラベルにおける実験結果 (20 Newsgroups) 20 Newsgroups
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q3-12.pdf
# スケール不変な木構造棒折り過程に基づく 無限階層トピックモデル 江島舟星 ${ }^{1}$ 1 ハーバード大学大学院 政治学科 shuseieshima@g. harvard.edu } 持橋大地 2 2 統計数理研究所 daichi@ism.ac.jp ## 概要 階層的トピックモデルは、多様なトピックを木構造で整理するために活用されてきた。しかし既存手法では、木が深くなるにつれて各トピックの平均確率が指数的に小さくなり、似通ったトピックが多数推定されてしまう。本研究ではこの課題に対し、スケール不変木構造棒折り過程を用いた階層的トピックモデル (ihLDA) を提案する。提案手法はトピック生成時にその親を考慮することで、トピック平均確率の減衰を抑え、深い木構造の推定を可能にする。 また、提案手法は木構造棒折り過程の階層化でもある。提案手法が、ニューラルモデルを含む既存手法より 2 つの指標で優れることを実験的に確認した。 ## 1 はじめに トピックモデルは文章の要約、注釈、分類のために幅広く用いられているが $[1,2,3,4]$ 、大規模コー パスから数千ものトピックを推定できるモデルが登場したことで $[5,6,7,8]$ 、大量のトピックを解釈する必要性が高まった。 階層的トピックモデルは、トピックの階層的構造もコーパスから学習することで、トピックの整理と解釈を助けるものである $[9,10,11,12,13,14,15]$ 。 しかし既存手法では、用いられる確率が小さく、似通ったトピックー単語分布を持つ多数のトピックが推定される。これは確率的モデルだけでなく、近年のニューラルモデルにおいても共通の現象である。 トピックの平均確率が減衰する原因は、階層モデルで用いられる棒折り過程 [16] が、各トピックの平均確率を木が深くなるにつれ指数的に小さくすることにある。既存手法では推定される木構造を一定の深さで打ち切るなどのヒューリスティックに基づき、トピックの減衰を防いできた。 これに対し本研究は、スケール不変な木構造棒折 り過程と、それに基づく無限階層トピックモデル (ihLDA) を提案し、以下の 3 点を実現する。 1.トピック生成時にその親を考慮し、トピック平均確率の減衰を抑えた深い木構造の推定 2. 木構造棒折り過程 (TSSB) [11] の階層ベイズ化 3. 木構造に属する全てのトピックを数え上げる必要のない、効率的なサンプリング 棒折り過程を用いる既存手法に提案手法を取り入れることは容易であり、本研究は確率的モデル、 ニューラルモデル双方の改善に資するものである。 ## 2 木構造棒折り過程 木構造棒折り過程 (TSSB)[11] は、2つの棒折り過程を [16] を組み合わせ、理論的には無限の深さと幅を持つトピック木を図 1 のように実現する。 階層的トピックモデルは潜在トピック $\boldsymbol{\epsilon}=\boldsymbol{\epsilon}_{1} \epsilon_{2} \ldots$ を各文書の各単語に割り当てる。深さ $|\epsilon|$ のトピック $\boldsymbol{\epsilon}$ は先祖と子を持ち、 $\{\boldsymbol{\kappa}: \boldsymbol{\kappa}<\boldsymbol{\epsilon}\}$ が先祖集合を表す。また、 $\boldsymbol{\epsilon}$ の親は $\boldsymbol{\epsilon}^{\prime} て ゙ 、 \boldsymbol{\epsilon}$ の子は $\{\boldsymbol{\epsilon} k: k \in 1,2,3, \ldots\}$ で示す。 TSSB におけるトピック $\boldsymbol{\epsilon}$ の確率 $\pi_{\epsilon}$ は、 $ \pi_{\epsilon}=v_{\epsilon} \prod_{\kappa<\epsilon}\left(1-v_{\kappa}\right) \cdot \prod_{\kappa \leq \epsilon} \phi_{\kappa}, \phi_{\epsilon k}=\psi_{\epsilon k} \prod_{j=1}^{k-1}\left(1-\psi_{\epsilon j}\right) $ で表される。式 (1) の第 1 項はトピック $\epsilon$ が縦方向に止まる確率であり、続く積は $\boldsymbol{\epsilon}$ の先祖を縦方向には通過しつつ、横方向では $\epsilon$ とその先祖に止まる確率である。縦横方向に止まる確率は、ベータ分布に従うとする。 $ v_{\boldsymbol{\epsilon}} \sim \operatorname{Be}\left(1, \alpha_{0}\right), \psi_{\boldsymbol{\epsilon}} \sim \operatorname{Be}\left(1, \gamma_{0}\right) . $ $\alpha_{\epsilon}=\alpha_{|\epsilon|} \cdot \lambda^{|\epsilon|-1}, 0 \leq \lambda \leq 1$ と定め、深いほど単語が止まりやすくする。以下、 $\alpha_{\epsilon}$ を $\alpha$ と記す。 図1 木構造棒折り過程 [11]。青の区間はその幅に比例した確率 $\pi$ のトピックを、角括弧は各トピックの経路を、黒線は親子関係を、 $\psi$ は横方向の棒折り過程を示す。右図はトピックのみを抜き出したものである。 (a) TSSB [11] (b) スケール不変 TSSB (提案手法) $\alpha_{0}=3.5, \gamma_{0}=2, \lambda=0.25$ 図 2 TSSB [11] (a) とスケール不変 TSSB (b)。青の区間はその幅に比例したトピックを示す。(a)(b) は同じハイパー パラメータから生成された木構造であるが、(b) の提案手法は確率 $\pi_{\epsilon}$ が小さすぎるトピックを生成しない。 Level $\ell$ 図 3 深さ $\ell$ における横方向の平均分割確率。 3 つの異なる確率を持つ木の根を提案手法では示した。提案手法の減衰は、TSSB よりも遅い。 $\gamma_{0}$ の値は 0.8 に固定した。 ## 3 スケール不変木構造棒折り過程 TSSB は階層的トピックモデルに用いられるが $[14,15] 、 木$ 構造が深くなるほどトピックの平均確率が指数的に小さくなるという問題を抱えている。図 2(a) に示されるように、 3 段目、 4 段目のトピックの確率はより上部のトピックと比べて小さい。 このような TSSB の性質は、横方向パラメータ $\psi_{\epsilon}$ が深さに関わらず同じ平均確率を持つために生じる。付録 A が示す通り、深さ $\ell$ における横方向の平均分割確率は $\mathbb{E}[\phi \mid \ell] \approx 1 /(2 \gamma+1)^{\ell}$ であり、深さ $\ell$ が分母の指数にある。このため、図 3 の点線が示すような指数的な減衰が生じてしまう。 そこで本研究では、式 (2)の $\gamma_{0}$ を親ノード $\boldsymbol{\epsilon}^{\prime}$ から $ \psi_{\boldsymbol{\epsilon}} \sim \operatorname{Be}\left(1, \phi_{\boldsymbol{\epsilon}^{\prime}} \gamma_{0}\right) $ としてスケールを修正する。ここで根ノードにおい ては $\phi_{\boldsymbol{\epsilon}^{\prime}}=1$ である。以下 $\gamma=\phi_{\boldsymbol{\epsilon}^{\prime}} \gamma_{0}$ と表記する。 式 (3) で鍵となるのは、親トピック $\boldsymbol{\epsilon}^{\prime}$ における横方向の分割確率 $\phi_{\epsilon^{\prime}}$ を用いて、その子トピックの相対的な棒の長さ $\psi_{\epsilon}$ を求めている点である。これによって、付録 $\mathrm{A}$ に示した通り、深さ $\ell$ での平均的な棒の長さを $\mathbb{E}[\phi \mid \ell] \approx 1 /(2 \gamma+1 / \mathbb{E}[\phi \mid \ell-1])(\ell \geq 2)$ とし、深さ $\ell$ に対してスケール不変となる分割を実現した。図 3 の実線が提案手法であるスケール不変木構造棒折り過程 (スケール不変 TSSB) を表している。 図 2(b) にこのスケール不変 TSSB からのサンプルを、(a)と同じハイパーパラメータを用いて示した。提案手法を用いると、木構造が深くなってもトピックの確率が小さくなりにくいことがわかる。 ## 4 スケール不変木構造棒折り過程に 基づく無限階層トピックモデル トピックモデルは、文書-トピック分布とトピック一単語分布の組み合わせであり、本論文が提案するihLDA は、スケール不変 TSSB を前者に、階層 Pitman-Yor 過程 [17]を後者に用いる。 文書-トピック分布それぞれのトピックが用いられる確率は文書ごとに異なるが、トピック自体は全ての文書で共有されなければならない。このため本研究は、スケール不変 TSSB を階層木構造棒折り過程 (HTSSB) [18] に適用する。図 4 の通り、HTSSB は親 TSSB から子 TSSB を各文書に対して階層的に生成する。 図 4 HTSSB は親 TSSB から子 TSSB を階層的に生成する。子TSSB は各文書の文書-トピック分布である。 HTSSB は階層ディリクレ過程 (HDP)[19]を式 (2) と (3) の縦横方向のパラメータに適用する。HTSSB での親子関係を示すために、チルダ記号を用いて子 TSSB のトピック $\boldsymbol{\epsilon}$ に対応する親 TSSB のト $v_{\epsilon} \sim \operatorname{Be}\left(a \tau_{\tilde{\epsilon}}, a\left(1-\sum_{\kappa \leq \tilde{\epsilon}} \tau_{\kappa}\right)\right) 、 \tau_{\epsilon}=v_{\epsilon} \prod_{\kappa<\epsilon}\left(1-v_{\kappa}\right)$ 、横方向の確率は $\psi_{\boldsymbol{\epsilon} k} \sim \operatorname{Be}\left(b \phi_{\tilde{\boldsymbol{\epsilon}} k}, b\left(1-\sum_{j=1}^{k} \phi_{\tilde{\boldsymbol{\epsilon}} j}\right)\right)$ となり、各文書の木構造は式 (1) から求まる。子 TSSB でのトピックの割り当てが、HTSSB によって親 TSSB にも影響することに留意しなければならない。 トピックー単語分布階層 Pitman-Yor 過程 (HPY)[17] によって、深さに応じてトピックの専門性を高めつつ、親子トピックに意味的な関連性を持たせることができる。 $H_{\boldsymbol{\epsilon}}$ をトピック $\boldsymbol{\epsilon}$ のトピックー単語分布とすると、この事前分布が Pitman-Yor 過程に従い $H_{\epsilon} \sim P Y\left(d_{|\epsilon|}, \theta_{|\epsilon|}, H_{\epsilon^{\prime}}\right)$ となる。 これを根ノード $H_{[1]} \sim \mathrm{PY}\left(d_{0}, \theta_{0}, H_{0}\right)$ に至るまで繰り返し、 $H_{0}=1 / V$ と単語数 $V$ を用いて一様分布を考える。トピックー単語分布の木構造は文書-トピック分布の親 TSSB と同じであり、各文書の各トピックで対応するトピックー単語分布が保証されている。 生成過程 ihLDA の生成過程は、次の通りである。 1. 親 TSSB $\tilde{\pi}$ の生成。 $\pi$ は TSSB とする。 2. トピック一単語分布 $H_{\epsilon}$ を HPYを使って $\widetilde{\pi} の$ 各トピックに対して生成。 3. 各文書 $d$ に対して文書分布 $\boldsymbol{\pi}^{(d)} \sim \operatorname{HTSSB}(\widetilde{\pi})$ を生成。 4. 文書 $d$ の $i$ 番目の単語に対し、トピックを $z_{d i} \sim \pi^{(d)}$ と生成し、次に単語 $w_{d i} \sim H_{z d i}$ を生成する。 ## 5 モデルの推論 トピック木構造に関わる式 (2)と (3) の縦横パラメータを推定するために、ディリクレ過程表現の一つである中華料理街過程 [20]を用いる。トピック $\boldsymbol{\epsilon}$ において、 $n_{0}(\boldsymbol{\epsilon})$ が縦方向の停止数を、 $m_{0}(\boldsymbol{\epsilon})$ が横方向の停止数を、 $n_{1}(\boldsymbol{\epsilon})$ が縦方向の通過数を、 $m_{1}(\boldsymbol{\epsilon})$ が横方向の通過数を表すとする。また $n(\boldsymbol{\epsilon})=n_{0}(\boldsymbol{\epsilon})+n_{1}(\boldsymbol{\epsilon})$ 、 $m(\boldsymbol{\epsilon})=m_{0}(\boldsymbol{\epsilon})+m_{1}(\boldsymbol{\epsilon})$ と定義する。するとデータと他のパラメータで条件づけたパラメータの期待値がそれぞれ $\widehat{v}_{\boldsymbol{\epsilon}}=\mathbb{E}\left[v_{\boldsymbol{\epsilon}} \mid\right.$ rest $]=\left(1+n_{0}(\boldsymbol{\epsilon})\right) /(1+\alpha+n(\boldsymbol{\epsilon}))$ と $\widehat{\psi}_{\boldsymbol{\epsilon}}=\mathbb{E}\left[\psi_{\boldsymbol{\epsilon}} \mid\right.$ rest $]=\left(1+m_{0}(\boldsymbol{\epsilon})\right) /(1+\gamma+m(\boldsymbol{\epsilon}))$ となる。 ここで式 (1)を用いることで、 $\pi_{\epsilon}$ の事後確率の期待值が求まる。さらに HTSSB においても同様に、文書 $d$ における縦横パラメータの事後確率の期待値が $ \begin{aligned} \mathbb{E}\left[v_{\boldsymbol{\epsilon}}^{(d)} \mid \mathrm{rest}\right] & =\frac{a \tau_{\tilde{\boldsymbol{\epsilon}}}+n_{0}(\boldsymbol{\epsilon})}{a\left(1-\sum_{\kappa<\tilde{\boldsymbol{\epsilon}}} \tau_{\kappa}\right)+n(\boldsymbol{\epsilon})}, \\ \mathbb{E}\left[\psi_{\boldsymbol{\epsilon} k}^{(d)} \mid \mathrm{rest}\right] & =\frac{b \phi_{\tilde{\boldsymbol{\epsilon}}}+m_{0}(\boldsymbol{\epsilon} k)}{b\left(1-\sum_{j=1}^{k-1} \phi_{\tilde{\boldsymbol{\epsilon}}^{\prime} j}\right)+m(\boldsymbol{\epsilon} k)} \end{aligned} $ であることがわかる。親 TSSB の停止・通過回数の更新については、付録 B に詳述した。 次に、トピックの割り当てについてはレトロスぺクティブサンプリング [21] と二分探索を組み合わせたギブスサンプリングを用いた。スライスサンプリングは現在のトピックと、ランダムに選ばれたトピックを比較するため、任意の $u \sim \operatorname{Unif}[0,1)$ に対応するトピックを見つけることさえできれば、全てのトピックを数え上げる必要がなく効率的である。付録 C に具体的なアルゴリズムを示した。 HPY のパラメータ推定は原論文 [17] に従い、その他はスライスサンプリング $[22,23]$ を用いた。 ## 6 実験 設定実験には BBC News [24]、20News [25]、独自のWikipedia コーパスを用いた。文書数はそれぞれ 2,225、18,828、50,513であり、ランダムに選んだ $80 \%$ 訓練データとした。 比較対象は nCRP [9]、rCRP [12]、TSNTM [14]、 nTSNTM [15] で、それぞれ既定值を用いたが、10,000 イテレーションに 2 週間以上かかったモデルは結果から除外した。全てのモデルを同一基準で比較するために、各トピックは少なくとも 100 語に割り当てられているものとした。 量的比較既存研究で用いられているトピック固有性 (TU)[26, 27, 15]、平均重複 (AO)[15] に加えて、新しく木構造多様性 (TD) を提案する。TU は大きいほどトピックが平均的に固有の単語を上位語に持ち、AO は小さいほど親子の上位語の重複が少ない。 ただし親子トピックは意味的な重なりを持つはずなので、上位語の重複が低いとき解釈性が高いかは慎重に検討せねばならない。TD は子トピックの固有性を親トピックの重要性で重み付けしたもので、以下のように定義する。 $ \mathrm{TD}=\sum_{\boldsymbol{\epsilon} \in \mathscr{T}} w_{\boldsymbol{\epsilon}} \frac{\left|\mathscr{V}_{\mathscr{C}(\boldsymbol{\epsilon})}\right|}{u|\mathscr{C}(\boldsymbol{\epsilon})|} ; w_{\boldsymbol{\epsilon}}=\frac{|\mathscr{D}(\boldsymbol{\epsilon})|}{\sum_{\boldsymbol{\kappa} \in \mathscr{T}}|\mathscr{D}(\boldsymbol{\kappa})|} $ ここで、 $\mathscr{C}(\boldsymbol{\epsilon})$ は $\boldsymbol{\epsilon}$ の子トピックの集合、 $\mathscr{D}(\boldsymbol{\epsilon})$ は $\boldsymbol{\epsilon}$ の子孫の集合、 $\mathscr{V}_{\mathcal{N}}$ はトピック集合 $\mathcal{N}$ の上位 $u$ 語から重複を除いた単語集合である。TDが大きいほど、子トピックが固有の単語を含む。 表 1 に各指標を $5,10,15$ の上位語数で計算した平均をまとめた。提案手法は TD と TU で既存手法を上回り、割り当てが 100 語未満のトピックを含めても高い性能を示している (括弧内の値)。既存の確率的手法 (nCRP と rCRP) は、木が深さ 3 で打ち切られ 表 1 量的比較結果。比較のため 100 語未満にしか割り当てられなかったトピックを除外したが、提案手法については除外前の值を括弧内に示した。 図 $5 \mathrm{BBC}$ コーパスを用いた深さ 6 の木の上位語。色付きの枝を図 6 でさらに説明している。 ているにも関わらず大量のトピックを推定した。 図 6 図 5 の左から 1 番目(赤)、3番目(青)、4番目(緑)の枝のトピックー単語確率。固有名詞の確率はノードが深いほど高く、一般的な単語はノードが浅いほど高い。 木構造と上位語図 5 に推定された深さ 6 の木と上位語を、図 6 にいくつかのトピックー単語確率を示した。固有名詞の確率はノードが深いほど高く、一般的な単語の確率はノードが浅いほど高い。またそれぞれの枝が固有のテーマを表していることが読みとれる。 ## 7 関連研究 既存研究では確率の小さなトピックが作られることを防ぐために、深さ 3 の浅い木のみの推定や $[9,12,13]$ 、経験則に基づくトピック生成の制約 $[14,15]$ がなされてきた。これに対し提案手法は、深い木構造でも打ち切りなしに妥当なトピック数を推定できる (表 1 の括弧内)。また提案手法はTSSB の階層モデルであるから、単語を生成するトピックが既存のモデルのように文書ごとに制約されることがない $[9,10,13]$ 。 階層的トピックモデルは様々なモデルに拡張されており [28, 29, 30, 31, 32]、棒折り過程を使う既存手法に提案手法を容易に反映させることができる。 ## 8 結語 既存の階層的トピックモデルには深くなるにつれてトピックの確率が指数的に減衰する問題があった。親トピックを考慮することでこの問題を解消する提案手法は、棒折り過程を用いる既存モデルにも広く応用可能である。実験は 2 つの指標で提案手法がニューラルを含む既存手法を上回ることを示し、定性的な検証でも $\ell \geq 4$ の深い木の推定が行えることがわかった。 一方、本研究で用いたギブスサンプリングは近似を伴う既存手法 [33] よりも遅いことがわかっている。将来的には分散アルゴリズムや変分推論を組み合わせ、より大規模なコーパスを処理できるようにしたい。また、本研究の教師なし学習で推定される木構造を利用者の考える分類と一致させるため、非階層的トピックモデルで提案されている半教師あり学習 $[34,35]$ を取り入れることも今後の課題である。 ## 参考文献 [1] David M. Blei, Andrew Y. Ng, and Michael I. Jordan. Latent Dirichlet allocation. Journal of Machine Learning Research, Vol. 3, pp. 993-1022, 2003. [2] David M. Blei and John D. Lafferty. Dynamic topic models. In Proceedings of the 23rd International Conference on Machine Learning, 2006. [3] Jonathan Chang and David M Blei. Hierarchical relational models for document networks. The Annals of Applied Statistics, Vol. 4, pp. 124-150, 2010. [4] Margaret E. Roberts, Brandon M. Stewart, and Edoardo M. Airoldi. A model of text for experimentation in the social sciences. Journal of the American Statistical Association, Vol. 111, pp. 988-1003, 2016. [5] Aaron Q Li, Amr Ahmed, Sujith Ravi, and Alexander J Smola. Reducing the sampling complexity of topic models. In Proceedings of the 20th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, pp. 891-900, 2014. [6] Hsiang-Fu Yu, Cho-Jui Hsieh, Hyokun Yun, S V N Vishwanathan, and Inderjit $S$ Dhillon. A scalable asynchronous distributed algorithm for topic modeling. In Proceedings of the 24th International Conference on World Wide Web, pp. 1340-1350, 2015. [7] Jinhui Yuan, Fei Gao, Qirong Ho, Wei Dai, Jinliang Wei, Xun Zheng, Eric P. Xing, Tie Yan Liu, and Wei Ying Ma. LightLDA: Big topic models on modest computer clusters. In Proceedings of the 24th International Conference on World Wide Web, pp. 13511361, may 2015. [8] Jianfei Chen, Kaiwei Li, Jun Zhu, and Wenguang Chen. WarpLDA: A cache efficient $\mathrm{O}(1)$ algorithm for latent Dirichlet allocation. Proceedings of the VLDB Endowment, Vol. 9, , 2016. [9] David M. Blei, Thomas L. Griffiths, Michael I. Jordan, and Joshua B. Tenenbaum. Hierarchical topic models and the nested Chinese restaurant process. In Proceedings of the 16th International Conference on Neural Information Processing Systems, pp. 17-24, 2003 [10] David M. Blei, Thomas L. Griffiths, and Michael I. Jordan. The nested Chinese restaurant process and bayesian nonparametric inference of topic hierarchies. Journal of the ACM, Vol. 57, No. 2, pp. 1-30, feb 2010. [11] Ryan P. Adams, Zoubin Ghahramani, and Michael I. Jordan. Treestructured stick breaking for hierarchical data. In Proceedings of the 23rd International Conference on Neural Information Processing Systems, pp. 19-27, 2010. [12] Joon Hee Kim, Dongwoo Kim, Suin Kim, and Alice Oh. Modeling topic hierarchies with the recursive Chinese restaurant process. In Proceedings of the 21 st ACM international conference on Information and knowledge management, pp. 783-792. ACM Press, 2012. [13] John Paisley, Chong Wang, David M. Blei, and Michael I. Jordan. Nested hierarchical Dirichlet processes. IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 37, No. 2, pp. 256-270, feb 2015. [14] Masaru Isonuma, Junichiro Mori, Danushka Bollegala, and Ichiro Sakata. Tree-structured neural topic model. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 800-806, 2020. [15] Ziye Chen, Cheng Ding, Zusheng Zhang, Yanghui Rao, and Haoran Xie. Tree-structured topic modeling with nonparametric neural variational inference. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing, pp. 2343-2353, 2021. [16] Jayaram Sethuraman. A constructive definition of dirichlet priors. Statistica Sinica, Vol. 4, No. 2, pp. 639-650, 1994. [17] Yee Whye Teh. A Bayesian interpretation of interpolated Kneser- Ney. Technical report, National University of Singapore School of Computing, 2006 [18] 持橋大地, 能地宏. 無限木構造隠れ Markov モデルによる階層的品詞の教師なし学習. 情報処理学会研究報告 2016-NL-226, 2016. [19] Yee Whye Teh, Michael I Jordan, Matthew J Beal, and David M Blei. Hierarchical dirichlet processes. Journal of the American Statistical Association, Vol. 101, No. 476, pp. 1566-1581, 2006. [20] John Paisley and Lawrence Carin. Hidden markov models with stick-breaking priors. IEEE Transactions on Signal Processing, Vol. 57, No. 10, pp. 3905-3917, 2009. [21] Omiros Papaspiliopoulos and Gareth O. Roberts. Retrospective Markov chain Monte Carlo methods for Dirichlet process hierarchical models. Biometrika, Vol. 95, No. 1, pp. 169-186, 2008. [22] Radford M Neal. Slice sampling. The Annals of Statistics, Vol. 31, pp. 705-767, 2003 . [23] Daichi Mochihashi. Unbounded slice sampling. ISM Research Memorandum No. 1209, 2020. [24] Derek Greene and Pádraig Cunningham. Practical solutions to the problem of diagonal dominance in kernel document clustering. In Proceedings of the 23rd International Conference on Machine learning, pp. 377-384. ACM Press, 2006. [25] Ken Lang. NewsWeeder: Learning to filter Netnews. In Proceedings of the Twelfth International Conference on Machine Learning, pp. 331-339, 1995. [26] Feng Nan, Ran Ding, Ramesh Nallapati, and Bing Xiang. Topic modeling with Wasserstein autoencoders. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, 2019. [27] Corentin Masson and Syrielle Montariol. Detecting omissions of risk factors in company annual reports. In Proceedings of the Second Workshop on Financial Technology and Natural Language Processing, pp. 15-21, 2020. [28] Su Jin Shin and Il Chul Moon. Guided HTM: Hierarchical topic model with dirichlet forest priors. IEEE Transactions on Knowledge and Data Engineering, Vol. 29, No. 2, pp. 330-343, feb 2017. [29] Yueshen Xu, Jianwei Yin, Jianbin Huang, and Yuyu Yin. Hierarchical topic modeling with automatic knowledge mining. Expert Systems with Applications, Vol. 103, pp. 106-117, aug 2018. [30] Ming Yang and William H. Hsu. HDPauthor: A new hybrid author-topic model using latent Dirichlet allocation and hierarchical Dirichlet processes. In Proceedings of the 25th International Conference Companion on World Wide Web, pp. 619-624, 2016. [31] Xi Zou, Yuelong Zhu, Jun Feng, Jiamin Lu, and Xiaodong Li. A novel hierarchical topic model for horizontal topic expansion with observed label information. IEEE Access, Vol. 7, pp. 184242184253, 2019. [32] Masaru Isonuma, Junichiro Mori, Danushka Bollegala, and Ichiro Sakata. Unsupervised abstractive opinion summarization by generating sentences with tree-structured topic guidance. Transactions of the Association for Computational Linguistics, Vol. 9, pp. 945961, 2021. [33] Diederik P Kingma and Max Welling. Stochastic gradient vb and the variational auto-encoder. In Proceedings of the 2nd International Conference on Learning Representations, Vol. 19, p. 121, 2014. [34] Jagadeesh Jagarlamudi, Hal Daumé III, and Raghavendra Udupa. Incorporating lexical priors into topic models. In Proceedings of the 13th Conference of the European Chapter of the Association for Computational Linguistics, pp. 204-213, 2012. [35] Shusei Eshima, Kosuke Imai, and Tomoya Sasaki. Keyword assisted topic models. arXiv 2004.05964, 2020. ## A 階層 TSSB でのトピック平均確率 棒降り過程 $\phi_{k}=v_{k} \prod_{j=1}^{k-1}\left(1-v_{j}\right), v_{k} \sim \operatorname{Be}(1, \gamma)$ において、 $v_{k}$ の平均確率は $\mathbb{E}\left[v_{k}\right]=1 /(1+\gamma)$ であるから、 $k$ 番目に折られた棒の平均確率は以下となる、 $ \mathbb{E}\left[\phi_{k}\right]=\frac{1}{1+\gamma}\left(\frac{\gamma}{1+\gamma}\right)^{k-1}=\frac{1}{\gamma}\left(\frac{\gamma}{1+\gamma}\right)^{k} . $ 次に棒折り過程におけるトピックの平均確率は、 $ \begin{aligned} \mathbb{E}[\phi] & =\sum_{k=1}^{\infty} \mathbb{E}\left[\phi_{k}\right] \cdot \phi_{k} \\ & \approx \sum_{k=1}^{\infty} \mathbb{E}\left[\phi_{k}\right]^{2} \\ & =\sum_{k=1}^{\infty}\left(\frac{\gamma}{\gamma+1} \cdot \frac{1}{\gamma}\right)^{2} \\ & =\frac{1}{\gamma^{2}} \sum_{k=1}^{\infty}\left(\frac{1}{\left(1+\frac{1}{\gamma}\right)^{2}}\right)^{k} \\ & =\frac{1}{2 \gamma+1} \end{aligned} $ となる。ここでは $\phi_{k}$ の平均を近似として用いた。棒折り過程を用いると、深さ $\ell$ におけるトピックの平均確率は $ \mathbb{E}[\phi \mid \ell]=\mathbb{E}[\phi \mid \ell-1] \cdot \mathbb{E}[\phi] \approx \frac{1}{(2 \gamma+1)^{\ell}}, $ となる。最初の等号は深さ $\ell-1$ での棒が更に深さ $\ell$ において折られることを示している。 3 節に示した提案手法では、平均確率が $ \begin{aligned} \mathbb{E}[\phi \mid \ell] & =\mathbb{E}[\phi \mid \ell-1] \cdot \mathbb{E}[\phi] \\ & \approx \mathbb{E}[\phi \mid \ell-1] \cdot \frac{1}{2(\gamma \cdot \mathbb{E}[\phi \mid \ell-1])+1} \\ & =\frac{1}{2 \gamma+1 / \mathbb{E}[\phi \mid \ell-1]} \text { for } \ell \geq 2 . \end{aligned} $ となる。木構造の根 $(\ell=1)$ においては $\mathbb{E}[\phi \mid \ell=1]=$ $1 /(2 \gamma+1)$ である。木構造が深くなっても、トピックの平均確率が指数的に小さくなることはない。 ## B HTSSB での停止・通過回数 単語 $w$ が子 TSSB のトピック $\epsilon$ で縦方向の停止をした場合、 $a v_{\tilde{\boldsymbol{\epsilon}}} /(a+n(\boldsymbol{\epsilon}))$ に比例する確率で親 TSSB の対応ノード $\tilde{\boldsymbol{\epsilon}}$ を更新し、 $n(\boldsymbol{\epsilon}) /(a+n(\boldsymbol{\epsilon}))$ に比例する確率で子 TSSB の $\boldsymbol{\epsilon}$ のみを更新する。横方向についても同様に $b \psi_{\tilde{\boldsymbol{\epsilon}}} /(b+m(\boldsymbol{\epsilon}))$ に比例する確率で親 TSSB の対応ノード $\tilde{\boldsymbol{\epsilon}}$ を更新し、 $m(\boldsymbol{\epsilon}) /(b+m(\boldsymbol{\epsilon}))$ に比例する確率で子 TSSB の $\boldsymbol{\epsilon}$ のみを更新する。 ## C 推論アルゴリズム トピックの探索と割り当ては以下の通りである。 ## D 評価指標の詳細 トピック固有性 (TU) 定義は $\mathrm{TU}=$ $|\mathcal{T}|^{-1} \sum_{\boldsymbol{\epsilon} \in \mathscr{T}}\left(u^{-1} \sum_{u^{\prime}=1}^{u} n\left(u^{\prime}, \boldsymbol{\epsilon}\right)^{-1}\right)$ である。ここで $\mathscr{T}$ は推定されたトピック集合、 $n\left(u^{\prime}, \boldsymbol{\epsilon}\right)$ は $\boldsymbol{\epsilon}$ の $u^{\prime}$ 番目の上位単語が、全てのトピックでの上位 $u$ 語に登場した回数である。TU が大きいほどトピックの固有性が高い。 平均重複 (AO) $\mathrm{AO}$ は親子トピック間で上位 $u$ 語の重複を平均し、 $\mathrm{AO}=|\mathscr{T}|^{-1} \sum_{\epsilon \in \mathscr{T}}\left|\mathscr{V}_{\epsilon} \cap \mathscr{V}_{\epsilon^{\prime}}\right| \cdot u^{-1}$ と定義される。ここで $\mathscr{V}_{\epsilon}$ は $\epsilon$ の上位 $u$ 語である。低い $\mathrm{AO}$ は親子関係の単語の重複が少ないことを示す。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q3-13.pdf
# 日本語の分類タスクにおけるカリキュラム学習と マルチタスク学習の効果検証 植松拓也 河原大輔 早稲田大学理工学術院 takuya1009@akane.waseda.jp dkw@waseda.jp ## 概要 複数の言語処理タスクを順番もしくは同時に学習する方法として,カリキュラム学習やマルチタスク学習がある。これらは英語のベンチマークにおいて包括的に調査されており有効性が報告されているが,日本語では調査されていない。本研究では,日本語言語理解ベンチマーク JGLUE に含まれる分類タスクにおいて,カリキュラム学習およびマルチタスク学習を適用し, 有効性を検証する。結果として,親和性のあるタスク同士でカリキュラム学習, マルチタスク学習を行うことで精度が向上することを確認した。 ## 1 はじめに 機械学習に基づく自然言語処理においてよく用いられる手法の一つに転移学習がある。転移学習の一手法として,事前学習をしてから対象のタスクごとにファインチューニングをするという 2 段階で行うことが多い。転移学習のモデルとしては BERT [1] など様々なモデルが開発されている.BERT は,言語理解ベンチマーク GLUE [2] において当時の最高スコアを達成しており,広く利用されている。 事前学習やファインチューニングを行う際に,それぞれにおいてどのようなタスクをどのような順番で解くかが重要である.この点に着目した手法にカリキュラム学習があり一定の成果が出ている $[3,4,5,6,7]$. 人間が学習する際,まず難しいことから学ぶのではなく簡単なことから学んだ方が良い. それと同様に,学ぶ順番が大切なことは機械学習にも同じことが言える. 機械学習におけるカリキュラム学習は, 学習データを最も効果的な順番に並び替え段階的に学習する手法で,簡単な学習データから学習して徐々に難易度を上げていくことが多い。 また,近年はマルチタスク学習も注目されている [8, 9, 10,11]. マルチタスク学習は一度に 2 つ以上のタスクで学習する手法であり,あるタスクから得られた知識を他のタスクにも適用することで精度が向上する場合がある.ただし,タスク同士に親和性がない場合は精度が低下する可能性があるため,親和性のあるタスク同士でマルチタスク学習を行うことが重要である [12]. このような研究は英語などで活発に行われている一方,これまで日本語では包括的な調査が行われていない. 本研究では,日本語におけるタスク同士の親和性や効果的な学習方法を調査することを目的とし,日本語データセットを用いてカリキュラム学習およびマルチタスク学習を行う。事前学習モデルには日本語 BERTを用い,タスクには日本語言語理解ベンチマーク JGLUE [13] に含まれる自然言語推論 (JNLI), 意味的類似度計算 (JSTS), 評価極性分類 (MARC-ja) の 3 種類の分類タスクを用いる.カリキュラム学習では,あるタスクでファインチューニングした後,さらに対象タスクでファインチューニングすることで対象タスクの精度が向上するかを評価する。マルチタスク学習では,上記 3 種類のタスクから 2 つを選び同時に学習し,有効性を評価する。 ## 2 関連研究 ## 2.1 カリキュラム学習 カリキュラム学習については,まず簡単な事例から学習し,徐々に難しい事例を学習する場合が多い. 例えば,画像分類タスクにおいてカリキュラム学習の有効性を示した実験結果がある [3].この実験では,自動的に生成された三角形や楕円,長方形の図形を分類するタスクを解く際に,まず正三角形や円,正方形などの簡単な図形から学び,徐々に色の種類を増やしたり難しい図形について学ぶこと により,カリキュラム無しの学習よりも精度が高くなっている. カリキュラム学習は自然言語処理でも活用されているが,難易度の定義が研究ごとに異なる.難易度の指標としては語彙サイズや入力された単語列の長さがある. Bengio らは,言語モデルにおいて次の単語を予測する際に,はじめに小さな語彙サイズのモデルを学習して徐々に語彙サイズを増やしながら学習した方がカリキュラム無しよりも精度が高くなることを報告している [3]. Cirik らは,入力文の評価極性を 5 つのクラスに分類する際に,文長の短い事例から学習して徐々に長い事例を学習するカリキュラム学習を提案した [4]. その結果,精度が向上し,特に学習データ数が少ないときに効果があることを示している. 難易度の定義の方法は他にもある.Guo らは,非自己回帰機械翻訳においてファインチューニングする際にカリキュラム学習を導入した [5]. 非自己回帰機械翻訳モデルは自己回帰機械翻訳モデルと比較して,トークンを並列に生成できるため推論の速度は向上するが,精度は低下する. この問題に対処するために,まず自己回帰訓練を行い,徐々に非自己回帰訓練に変更していくようなカリキュラム学習を提案し,有効性を示している.Xu らは,GLUEべンチマークでカリキュラム学習する実験を行った [6]. まず,対象のデータセットを分割して交差検証を行い,精度を難易度とみなす。次に,分割されたデータセットを難易度順に並び替え,簡単な事例からファインチューニングする。結果としては GLUE における9つのタスクのうち8つでベースラインよりも優れていた. カリキュラム学習において,難易度順に並び替えるのではなく,学習するタスクの順序を入れ替えて他のタスクに与える効果を検証した実験がある。 Yogatama らは,あるタスクを BERT などで学習して得られた知識を他のタスクを解く際に有効活用できないかを検証した [7]. どのようなカリキュラムで学習をするのが最適で, 破滅的忘却を起こさないかを実験しており,学習の高速化を達成したタスクの組合せやそのときの精度について述べている. ## 2.2 マルチタスク学習 マルチタスク学習に基づく方法は多数提案されている. Collobert らは, 品詞タグ付けやチャンキングなど関連性のあるタスクを同時に学習するマルチタ スク学習を提案し,有効性を示した [8]. Liu らは,映画のレビューについてのテキスト分類タスクを複数用意してマルチタスク学習を行った [9]. その結果,対象タスクの精度が他のタスクの助けを借りて向上することを示した. また,マルチタスク学習を BERT などの事前学習モデルに適用した研究も行われている. 事前学習モデルのファインチューニングの際にマルチタスク学習を適用したモデルに MT-DNN がある [10]. このモデルは,GLUE ベンチマークにおける9つの夕スクのうち8つのタスクと,自然言語推論のコーパスである SNLI [14] や SciTail [15] で BERT の性能を上回った. Zhou らは, 品詞タグ付け, 構文解析, 意味役割付与などの言語解析タスクを事前学習時にマルチタスクで行う LIMIT-BERT を提案した [11]. LIMIT-BERT は言語解析タスクの精度を向上させ, GLUE ベンチマークや SNLI において BERT ベースラインよりも優れていることが報告されている. ## 2.3 本研究の位置づけ 上記の研究のように,これまでは英語での実験は行われているが日本語における包括的な調査は行われていない. 本研究では,日本語のデータセットにおけるカリキュラム学習とマルチタスク学習の有効性を調査する。 ## 3 対象タスクと学習方法 本節では,本研究において対象とするタスク,および,カリキュラム学習とマルチタスク学習の方法について述べる。 ## 3.1 対象タスク 対象のタスクとして,日本語言語理解ベンチマー クJGLUE に含まれる自然言語推論 (JNLI), 意味的類似度計算 (JSTS), 評価極性分類 (MARC-ja) の 3 種類の分類タスクを用いる. JNLI と JSTS は文ぺア分類タスクであり,MARC-ja は文章分類タスクである. 各タスクのデータセットの事例数,評価指標を表 1 に示す. combined score は, Pearson と Spearman 相関係数の平均をとったスコアである.事前学習モデルを train セットでファインチューイングし,valid セットで評価を行う. 表 1 データセットの事例数と評価指標 ## 3.2 学習方法 ## 3.2.1 カリキュラム学習 本研究では,3種類のタスクの組合せを変えて,2 段階のファインチューニングを行う. 具体的には, まず JNLI,JSTS,MARC-ja のぞれぞれについてファインチューニングを行い,その結果得られたモデルを用いて再度ファインチューニングを行う。異なるタスクで再びファインチューニングを行うことの有効性を調査するため,同じタスクで再びファインチューニングした場合とも比較する。 事前学習モデルには東北大 BERT-base ${ }^{11}$ を用いる。 ファインチューニングの際,CLS トークンに対して JSTS は回帰問題,JNLI と MARC-ja は分類問題を解く.いずれもエポック数は 4 で固定し,4 エポック終了時点の評価値を比較する。 ハイパーパラメータについてはいくつかの設定から最適な組合せを選ぶ. ハイパーパラメータの詳細な設定は付録 A に示す. ## 3.2.2 マルチタスク学習 ファインチューニングする際,JSTS,JNLI, MARC-ja の 3つのタスクの中から 2 つを選びマルチタスク学習を行う. マルチタスク学習が終わった後に,JSTS,JNLI,MARC-ja を別々に評価する。 事前学習モデルにはカリキュラム学習と同様に東北大 BERT-base を用い,マルチタスク学習のモデルに分類ヘッドを 2 つ用意する. その概要を図 1 に示す.ハイパーパラメータについては最適な組合せを選択する。 ## 4 実験結果と議論 ## 4.1 カリキュラム学習の実験結果 カリキュラム学習の結果を表 2 に示す。ここで, 1 段階目のタスクはファインチューニングの 1 段階目で使用したタスク,列名のタスクは 2 段階目の  図1 マルチタスク学習のモデル 表 2 カリキュラム学習の実験結果 ファインチューニングで使用したタスクを示す.また,評価は全て 2 段階目のファインチューニング後の精度である。 JNLI における評価JNLI で評価したときの結果を比較する. JSTS でファインチューニングしてから,そのモデルを用いて JNLI で再びファインチューニングをしたときに精度が最も高いことが確認できる。この結果は 2 段階とも JNLI でファインチューニングしたときと比較して $1.0 \%$ 高い. 一方, MARC-ja でファインチューニングしてから JNLI でファインチューニングすると精度が下がっている。 JSTS における評価 JSTS で評価したときの結果を比較する. JNLI でファインチューニングしたモデルを用いて JSTS をファインチューニングをすると, JSTS で 1 回ファインチューニングしたときより約 $0.3 \%$ 精度が上がっている. ただし,JSTS でファインチューニングした後, さらにJSTS でファインチューニングしたときと精度は同じであった。 MARC-ja でファインチューニングしてから JSTS でファインチューニングすると精度は下がった. MARC-ja における評価 MARC-ja で評価したときの結果を比較する.MARC-ja を解く際は,事前に JNLI,JSTS,MARC-ja でファインチューニングしてから MARC-ja でファインチューニングしても, MARC-ja で 1 回ファインチューニングをしたときと精度はほとんど変化がない。 表 3 カリキュラム学習による各ラベルの予測数 表 4 マルチタスク学習の実験結果 カリキュラム学習についての考察以上の結果より,JNLI と JSTS は親和性が高いと言える. JNLI と JSTS はともに文ぺア分類タスクであり, 構成する文ペアのほとんどが重複していることが 1 つの要因と考えられる. 特に,JSTS でファインチューニングしてから JNLIを解いたとき精度がかなり向上した。 JNLIをファインチューニングしたときと,1 段階目をJSTS,2 段階目を JNLI でファインチューニングしたときの各ラベルの予測数について表 3 にまとめる. ただし, 1 行目は JNLI の valid データにおける正解ラベルの分布を示す. 事前に JSTS でファインチューニングすると,含意の予測数が減少し,矛盾の予測数が増加した. また,ラベルごとの正解数については, 矛盾の正解数が他のラベルに比べて増えていた. 特にカリキュラム学習を行うことで予測ラベルが変化した文ぺアの中で,中立の予測が矛盾に変化したときの正答率が高くなっていた. 含意,矛盾は中立と比較して類似度が高く, 先に JSTS で学習することで類似度の弁別性能が上がり中立とそれ以外のラベルの分類が得意になる可能性がある. 一方, MARC-ja の結果から MARC-ja と JSTS, MARC-ja と JNLI の親和性は高くないと言うことができる。 MARC-ja は文章分類タスクであり,JNLI やJSTS とは異なるタスクであり,データセットの構成も異なる.カリキュラム学習を行う際は, 事前に親和性のないタスクでファインチューニングをすると逆効果になる可能性を示唆している。 ## 4.2 マルチタスク学習の実験結果 マルチタスク学習の結果を表 4 に示す。タスクの列は,マルチタスク学習を行ったタスクのぺアを示す. 1 行目はシングルタスク学習の精度を示す.各タスクペアにおける比較 1 行目のシングルタスク学習の精度と比較すると,JNLI と JSTS のマルチタスク学習を行うとそれぞれ精度が $1.2 \% , 0.8 \%$上がっている。一方,JNLI と MARC-ja のマルチタスク学習をしたときは JNLI の精度が約 10\%下がっている.また,JSTS と MARC-ja のマルチタスク学習をしたときは,JSTS,MARC-ja それぞれ $0.9 \%$ , $0.4 \%$ 精度が下がっている。 マルチタスク学習についての考察上記の結果から,親和性のあるタスク同士でマルチタスク学習すると各タスクにおいて精度が上がると考えられる。一方,あまり親和性のないデータセット同士でマルチタスク学習すると両方の精度が落ちる,もしくは片方のタスクの精度が下がる可能性があり,マルチタスク学習の効果はほとんどないと考えられる。また,マルチタスク学習では,タスク同士の競合が発生する可能性がある [16]. MARC-ja と他のタスクが競合し,学習データのサイズが大きい MARC-ja はあまり影響を受けず,学習データのサイズが小さい JNLI と JSTS は精度がかなり低下したといえる。 カリキュラム学習との比較上記の結果を比較すると,JNLI で評価する際は事前に JSTS でファインチューニングをするカリキュラム学習の方が適している。一方,JSTS で評価する際は,JNLI と同時に学習するマルチタスクの方が適している. カリキュラム学習とマルチタスク学習についてはタスクによって適している学習方法を採用する必要がある. ## 5 おわりに 本研究では,JGLUEベンチマークにおける JNLI, JSTS,MARC-ja の 3 つの分類タスクを組合せてカリキュラム学習やマルチタスク学習を実行した。その結果により,タスク同士の親和性やどの順序でファインチューニングをすると精度が向上するのかを確かめた. 本研究の結果は,学習する際に用意できるデータセットが少ない場合でも,親和性のある他のデータセットと組合せてカリキュラム学習やマルチタスク学習を行うことで精度が改善する可能性があることを示している。 今後は,タスク間の親和性について,QA タスクなど他のタスクを含めて調査したい。また,BERT 以外にも RoBERTa [17] など高性能な事前学習モデルでも実験して効果を確かめたい。また,カリキュラム学習とマルチタスク学習を組合せて学習することで精度が向上するかを確認する予定である. ## 謝辞 本研究は JSPS 科研費 JP21H04901 の助成を受けて実施した. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel Bowman. GLUE: A multi-task benchmark and analysis platform for natural language understanding. In Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 353-355, Brussels, Belgium, November 2018. Association for Computational Linguistics. [3] Yoshua Bengio, Jérôme Louradour, Ronan Collobert, and Jason Weston. Curriculum learning. In Proceedings of the 26th Annual International Conference on Machine Learning, ICML '09, p. 41-48, New York, NY, USA, 2009. Association for Computing Machinery. [4] Volkan Cirik, Eduard H. Hovy, and Louis-Philippe Morency. Visualizing and understanding curriculum learning for long short-term memory networks. arXiv, 2016. abs/1611.06204. [5] Junliang Guo, Xu Tan, Linli Xu, Tao Qin, Enhong Chen, and Tie-Yan Liu. Fine-tuning by curriculum learning for non-autoregressive neural machine translation. In Proceedings of the aaai conference on artificial intelligence, Vol. 34, pp. 7839-7846, 2020. [6] Benfeng Xu, Licheng Zhang, Zhendong Mao, Quan Wang, Hongtao Xie, and Yongdong Zhang. Curriculum learning for natural language understanding. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 6095-6104, Online, July 2020. Association for Computational Linguistics. [7] Dani Yogatama, Cyprien de Masson d'Autume, Jerome Connor, Tomas Kocisky, Mike Chrzanowski, Lingpeng Kong, Angeliki Lazaridou, Wang Ling, Lei Yu, Chris Dyer, and Phil Blunsom. Learning and evaluating general linguistic intelligence. arXiv, 2019. abs/1901.11373. [8] Ronan Collobert and Jason Weston. A unified architecture for natural language processing: Deep neural networks with multitask learning. In Proceedings of the 25th international conference on Machine learning, pp. 160-167, 2008. [9] Pengfei Liu, Xipeng Qiu, and Xuanjing Huang. Recurrent neural network for text classification with multi-task learning. arXiv, 2016. abs/1605.05101. [10] Xiaodong Liu, Pengcheng He, Weizhu Chen, and Jianfeng Gao. Multi-task deep neural networks for natural language understanding. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4487-4496, Florence, Italy, July 2019. Association for Computational Linguistics. [11] Junru Zhou, Zhuosheng Zhang, Hai Zhao, and Shuailiang Zhang. LIMIT-BERT : Linguistics informed multi-task BERT. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 4450-4461, Online, November 2020. Association for Computational Linguistics. [12] Michael Crawshaw. Multi-task learning with deep neural networks: A survey. arXiv, 2020. abs/2009.09796. [13] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese general language understanding evaluation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 2957-2966, Marseille, France, June 2022. European Language Resources Association. [14] Samuel R. Bowman, Gabor Angeli, Christopher Potts, and Christopher D. Manning. A large annotated corpus for learning natural language inference. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 632-642, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [15] Tushar Khot, Ashish Sabharwal, and Peter Clark. Scitail: A textual entailment dataset from science question answering. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 32, 2018. [16] Ozan Sener and Vladlen Koltun. Multi-task learning as multi-objective optimization. In S. Bengio, H. Wallach, H. Larochelle, K. Grauman, N. Cesa-Bianchi, and R. Garnett, editors, Advances in Neural Information Processing Systems 31, pp. 525-536. Curran Associates, Inc., 2018. [17] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv, 2019. abs/1907.11692. ## A 参考情報 ## A. 1 実験時のハイパーパラメータ 実験を行う際のハイパーパラメータの一覧を表 5 にて示す.この中から最適なハイパーパラメータを選ぶ. 表 5 ファインチューニングを行う際のハイパーパラ Name Value(s) learning rate epoch 5e-5, 2e-5, 1e-5 warmup ratio 4 max seq lengt 0.1 batch size $8,16,32$
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q3-1.pdf
# 事前学習済み Transformer モデルのための 注意教師付き Few-shot データの蒸留 前川在 小林尚輝 船越孝太郎 奥村学 東京工業大学 \{maekawa, kobayasi, funakoshi, oku\}@lr.pi.titech.ac.jp ## 概要 本稿では,データセットに含まれる知識を蒸留することで,ニューラルネットワークを効率的に学習可能な少量の合成サンプルを構築するデータセット蒸留に取り組む. 我々は,事前学習済み Transformer モデルを効果的にファインチューニング可能な Few-shot データの獲得のために,Transformer の注意機構における注意確率の教師ラベルを導入する.実験では,4つの異なる言語処理タスクのデータセットに対して,BERT を高い性能でファインチューニングする注意教師付き Few-shot データが構築可能であることを示した. ## 1 はじめに 深層学習モデルは,大規模なニューラルネットワークを大量のデータで学習することで, 自然言語処理を含む様々な分野で高い性能を達成している。 しかし, 深層学習モデルの学習には,学習時間,計算資源,消費エネルギーなどを含む膨大なコストがかかる.そこで,この学習コストを削減するために,学習後のモデルの性能を維持したまま,学習用データセットを縮小する試みが行われている. それらの従来研究の多くは,データ選択に基づく手法を用いている。データ選択では,クラスタ中心 [1], 多様性 [2],モデルの尤度 [3] などのヒュー リスティックスに基づいて,学習効果の高いサンプルの部分集合を抽出する。データ選択は,効率的かつ安定した高い学習性能を実現しており,能動学習 [1] や継続学習 [2] などにも応用されている. しかし, データ選択による手法は, 元のデータセットに学習効果の高い代表的なサンプルが存在するという仮定に基づいているため,その性能は明らかに制限される。 近年,学習用データセットを縮小するための新し いアプローチとして,データセット蒸留 [4] が提案されている。データセット蒸留は,モデルを効率的に学習するように最適化された合成サンプルからなる蒸留データの獲得を目的とする。データセット蒸留は,学習サンプルを直接最適化することで,デー タ選択よりもはるかに少量のデータに圧縮する。 データセット蒸留は,特に画像分野を中心に近年関心が高まっており $[4,5,6,7,8,9]$, それらは理論的な興味からだけでなく,ニューラルアーキテクチャハハイパーパラメータ探索 [10], 継続学習 [11,12], 連合学習 $[13,14]$, データのプライバシー保護 $[15,16]$ など,応用の観点でも注目されている。 一方で,データセット蒸留に関する既存研究のほとんどが画像データセットを対象としており,言語処理タスクを扱った研究はごくわずかである. Sucholutsky ら [6] と Li ら [17] は,テキストの代わりに単語埋め込みのレベルで蒸留データを構築することで,データセット蒸留を離散データであるテキストデータセットに適用した。しかし,これらの研究は, CNN $\mathrm{RNN}$ ベースのニューラルネットワークを対象としており,近年の言語処理タスクにおいて標準となっている事前学習済み Transformer モデルを対象とした研究は,我々が知る限りまだない。そこで本稿では,言語処理タスクに対して,事前学習済み Transformer モデルを効果的にファインチュー ニング可能な Few-shot データの獲得に取り組む. この目的のために,我々は Transformer の核である注意機構に着目する [18]. 従来研究 [19, 20, 21] では,注意確率の教師を利用することで,モデルを効果的に学習する手法が提案されている。本稿では, これらの手法に着想を得て, 蒸留データの各サンプルに対して注意教師ラベルを付与することで,蒸留データによる Transformer の学習効果の向上を図る. 実験では,AGNews,SST-2,QNLI,MRPCの $4 \supset$ のテキスト分類タスクに対して,BERT [22]をファ インチューニングするための注意教師付き Few-shot データセットを構築した. その結果, 注意教師ラべルの利用による大幅な性能改善が見られ,BERTを高い性能でファインチューニング可能であることを示した. 具体例として,4クラスのニュース記事分類タスクである AGNews において,我々が構築した各クラス 1 サンプルのみで構成される蒸留データは,BERTを 1 回の勾配更新のみでファインチュー ニングし, 元の学習データセット全体で学習した場合の $98.5 \%$ の性能である最大 $93.2 \%$ の分類精度を達成した. ## 2 提案手法 ## 2.1 データセット蒸留 データセット蒸留のアルゴリズムとして,Wang ら [4] が提案した最適化手法を適用する. この手法は,メタ学習 [23] で用いられている手法と同様に, 2 次勾配を計算することで蒸留データを勾配法により直接最適化する。 元の学習データセットを $D=\left.\{\left(x_{i}, y_{i}\right)\right.\}_{i=1}^{N}$ とする. ただし $\left(x_{i}, y_{i}\right)$ は入力と出力ラベルのぺアである. このとき,データセット蒸留の目標は,はじめにランダムに初期化される蒸留データ $\tilde{D}=\left.\{\left(\tilde{x}_{i}, \tilde{y}_{i}\right)\right.\}_{i=1}^{M}$ $(M \ll N)$ を最適化することである. モデルパラメータ $\theta$ は,蒸留データのミニバッチ $\left(\tilde{x}_{t}, \tilde{y}_{t}\right)$ を用いて以下の式で更新される. $ \begin{aligned} & \theta_{t+1}=\theta_{t}-\tilde{\eta} \nabla_{\theta_{t}} L_{\mathrm{task}} \\ & \text { s.t. } \quad L_{\text {task }}=l\left(\tilde{\boldsymbol{x}}_{t}, \tilde{\boldsymbol{y}}_{t}, \theta_{t}\right) \end{aligned} $ ただし, $l()$ は二階微分可能な損失関数であり, $\tilde{\eta}$ は $\tilde{D}$ ともに最適化されるモデルの学習率である。 $\theta$ の初期値を $\theta_{0}$ とすると, 蒸留データによる学習後のモデルは以下のように書ける. $ \theta_{T}=F\left(\theta_{0} ; \tilde{D}, \tilde{\eta}, T\right) $ ただし, $F($ ) は $T$ ステップの勾配更新 (式 1 ) からなるモデルの学習過程を表す。 データセット蒸留の目的は,蒸留データで学習したこの $\theta_{T}$ が真のデータに対して高い性能を発揮することであると考えられるので, 蒸留データ $\tilde{D}$ の最適化における目的関数 $L_{\mathrm{distill}}$ は以下のように計算できる. $ \begin{aligned} L_{\mathrm{distill}}\left(\tilde{D}, \tilde{\eta} ; \theta_{0}\right) & :=l\left(\boldsymbol{x}_{s}, \boldsymbol{y}_{s}, \theta_{T}\right) \\ & =l\left(\boldsymbol{x}_{s}, \boldsymbol{y}_{s}, F\left(\theta_{0} ; \tilde{D}, \tilde{\eta}, T\right)\right) \end{aligned} $ ただし,$\left(\boldsymbol{x}_{s}, \boldsymbol{y}_{s}\right)$ は元の学習データセットのミニバッチである. したがって,データセット蒸留における最適化は以下のように定式化できる. $ \tilde{D}^{*}, \tilde{\eta}^{*}=\underset{\tilde{D}, \tilde{\eta}}{\arg \min } \mathbb{E}_{\theta_{0} \sim p\left(\theta_{0}\right)}\left[L_{\text {distill }}\left(\tilde{D}, \tilde{\eta} ; \theta_{0}\right)\right] $ ただし, $p\left(\theta_{0}\right)$ はモデルパラメータ $\theta$ の初期値の分布である. この目的関数 $L_{\text {distill }}$ に対して,勾配降下法を用いて蒸留データ $\tilde{D}$ を最適化する。しかし,テキストデータは離散的であるため,勾配降下法による最適化アルゴリズムを直接適用することは困難である. そこで本研究では,従来研究 $[6,17]$ に着想を得て, テキストの代わりに,単語埋め込みべクトルの系列を蒸留データの入力として利用する。単語埋め込みベクトルを利用することで, $L_{\text {distill }}$ は蒸留データに関して微分可能となり,勾配降下法を用いた最適化が適用できる。 ## 2.2 ソフトラベル 一般的に真のデータセットの出力ラベルには,単一クラスを示す one-hot ベクトルで表される,離散的なハードラベルが用いられる。 しかし,蒸留デー タでは,出力ラベルをソフトなラベルとして,入力とともに最適化することが可能である.ソフトラべルを利用することで,ハードラベルを用いる場合よりも,蒸留データの各サンプルに多くの情報を持たせることが可能となる。本研究では,従来研究 $[6,7]$ に従い,ソフトラベルを one-hot ベクトルの値で初期化し,任意の実数値を取れるようにすることで,入力の単語埋め込みベクトルとともに勾配法を用いて最適化する。 ## 2.3 注意教師ラベル 蒸留データによる Transformer の効果的な学習のために,本研究では,注意教師ラベルを導入する. 注意教師ラベルは,データセットの知識を入力系列の各単語に対する注意確率として蒸留し, Transformer の自己注意機構を直接誘導することで効率的なモデルの学習を実現する。 従来研究 [21] に着想を得て, 蒸留データの各サンプルに対して,Transformer の各層の注意機構の各ヘッドに対応する注意教師ラベルを付与し,モデルの注意確率との間の Kullback-Leibler (KL) ダイバー ジェンス $\left(D_{\mathrm{KL}}\right)$ を計算する。これより,注意確率に 表 1 データセットの概要. $C$ はクラス数を示す. 関する損失 $L_{\text {attn }}$ は次のように計算される. $ L_{\mathrm{attn}}=\frac{1}{K} \sum_{k=1}^{K} \frac{1}{H} \sum_{h=1}^{H} D_{\mathrm{KL}}\left(\tilde{A}_{k, h} \| A_{k, h}(\theta)\right) $ ただし, $\tilde{A}_{k, h}$ と $A_{k, h}(\theta)$ は $k$ 層目の注意機構の $h$ 番目のヘッドに対応する,注意教師ラベルとモデルの注意確率をそれぞれ表す。本研究では,蒸留データのデータサイズの観点から,注意教師ラベルを文頭の [CLS]トークンにのみ適用した. モデルは,タスクの損失 $L_{\mathrm{task}}$ と注意確率に関する損失 $L_{\mathrm{attn}}$ を同時に最小化するように学習される。 これより,モデルパラメータ $\theta$ の勾配更新は, 式 1 から次のようになる。 $ \theta_{t+1}=\theta_{t}-\tilde{\eta} \nabla_{\theta_{t}}\left(L_{\text {task }}+\lambda L_{\text {attn }}\right) $ パーパラメータである. 注意教師ラベル $\tilde{A}$ は,任意の実数値を取るべクトルとして,単語埋め込みベクトルとソフトラベルとともに最適化され,Softmax 関数を適用することで確率分布に変換して KL ダイバージェンスを計算する. ## 3 実験 ## 3.1 実験設定 データセットデータセット蒸留の性能を評価するために,ニュース記事分類タスクである AGNews [24] と, GLUE [25] から 3 つの多様な分類タスク (SST-2,QNLI,MRPC)を用いた。各データセットにおける評価指標については, AGNews は accuracy,その他のデータセットは GLUE の設定に従った. GLUEのデータセットについては, test セットが利用できないため development セットで評価を行った. 各データセットの概要は表 1 に示す. モデル各データセットに対して, BERT BASE $^{\text {[22] }}$ をファインチューニングするための蒸留データセットを構築した. [22] の設定に従い,文頭の [CLS] の埋め込みに対して,埋め込み次元からクラス数次元表 2 1-shot / 1-step の設定における実験結果. 'HL', 'SL', 'AL'はそれぞれハードラベル,ソフトラベル,注意教師ラベルを示す. 'Majority' は最頻クラスを予測するベースラインである.*のついたデータセット全体で学習したモデルの性能は, [22] から引用した. に線形変換するための分類層と Softmax 関数を適用することで,各クラスの確率を計算する.Wang ら [4] に従い,蒸留データセットの学習時と評価時の両方においてモデルの Dropout は無効化した. これはモデルの学習における不確実性を避けることで学習の安定化を図るためである. ハイパーパラメータ全ての蒸留データセットを,学習率 $\alpha \in\left.\{1 e^{-3}, 1 e^{-2}, 1 e^{-1}\right.\}$ の Adam [26] を用いて 30 epoch ずつ学習した. 蒸留データとともに最適化されるモデルの学習率 $\tilde{\eta}$ は $\left.\{1 e^{-2}, 1 e^{-1}\right.\}$ のいずれかの值で初期化した。 $\alpha$ と $\tilde{\eta}$ の組み合わせのうち最も良い性能の結果を報告する。ただし,探索する $\alpha$ と $\tilde{\eta}$ の值の粒度は粗く, 評価データに対する過適合の心配はない,式 7 における $\lambda$ につては,事前実験により 1.0 に設定した. 評価方法蒸留した Few-shot データセットを用いて,BERTを 100 回ファインチューニングし,その性能の平均と標準偏差を報告する.ただし,追加した最後の分類層の重みパラメータは毎回異なる值で初期化した。 ## 3.2 実験結果 ## 3.2.1 1-shot / 1-step の実験結果 まず,各クラス 1 サンプルのみかつ 1 回の勾配更新のみで BERT をファインチューニングする設定において,ハードラベルとソフトラベル,及び注意教師ラベルの有無について蒸留データセットの性能を比較した結果を表 2 に示す。ハードラベルのみ, すなわち単語埋め込みべクトルのみを最適化した蒸留データセットでも,AGNews,SST-2,QNLIにおいて,元のデータセット全体で学習した場合のそれぞれ $92.4 \% , 88.0 \% , 74.7 \%$ の性能を達成した。ま た,これらの性能はソフトラベルを利用することでさらに改善され,特に QNLI では 8 ポイント近い性能向上を示した。一方,MRPC については,ソフトラベルの適用に関わらず,蒸留データセットは最頻クラスを予測した場合と同等の性能しか得られなかった. 注意教師ラベルを適用した場合,蒸留データセットの性能は 4 つの全てのタスクにおいて大幅に向上し, その効果はソフトラベルょりもはるかに大きいことが確認された. 注意教師ラベルを適用した我々の蒸留データセットは, AGNews, SST-2, QNLI,MRPC のそれぞれに対して,元の学習データセット全体で学習した場合の最大 98.5, 97.2, 94.1, 88.9\%の性能を達成した. これより, 注意教師ラべルを用いて元のデータセットの知識を注意確率として抽出することで,それらを Transformer モデルに効率的に伝達させることが可能であると考えられる。 また,今回使用した 4 つのデータセット間で性能を比較すると, データセット蒸留は, AGNews や SST-2 のような比較的単純な分類タスクでは非常に良好な性能を発揮する一方で,QNLI や MRPC のような 2 文間の関係の理解を必要とするようなタスクでは,性能がある程度制限された。特に MRPC では,注意教師ラベルを適用することである程度性能改善が見られるものの, その他の 3 つのタスクと比較して, 元のデータセット全体で学習した場合との性能差が見られた. この原因として, MRPC データセットにおけるクラス間のサンプル数の不均衡が蒸留データセットの最適化を困難にしている可能性が考えられる. 従って,アップサンプリングやダウンサンプリングなどにより, 元のデータの不均衡に対処することで,性能改善の余地があると考える。 ## 3.2.2 Multiple-step の実験結果 次に,複数回の勾配更新を用いて BERTをファインチューニングする設定において,蒸留データセットの性能を比較した. 我々は, 全ての勾配更新で同じ蒸留データを使用する場合と,各勾配更新ごとに異なる蒸留データを使用する場合のそれぞれの設定について実験を行った. ただし,いずれの設定においても,各勾配更新には各クラス 1 サンプルずつの蒸留データを用いる. 本実験では,全ての蒸留デー タセットにおいてソフトラベルと注意教師ラベルを適用した。 実験結果を表 3 に示す。まず全ての勾配更新で同表 3 Multiple-step の実験結果. “\# shot” は蒸留データに含まれる各クラスのサンプル数, “\# step” は勾配更新回数を示す.ただし,すべての設定において,各勾配更新には各クラス 1 サンプルずつの蒸留データが使用される. じ蒸留データを用いた場合,勾配更新 1 回のみでファインチューニングする場合よりも性能が劣化した. 一方で,各勾配更新ごとに異なる蒸留データを用いることでその性能は改善され,勾配更新 1 回のみの設定における性能も上回った. これは, 複数回の勾配更新において,各勾配更新ごとに蒸留データに求められる役割が異なっており,全ての勾配更新に対して有効であるような汎用的なデータを獲得することが困難であることを示唆している. 本研究で利用したデータセット蒸留のための最適化手法では,全ての勾配更新を通した誤差逆伝播によって 2 次勾配を計算する必要があるため, 勾配更新回数 $T$ に応じて必要となるメモリや計算コストが線形に増加する. そのため, 我々の実験では勾配更新回数を 5 以上に増加させることが困難であった. これはデータセット蒸留における明らかな課題であり,より複雑で困難なタスクのデータセットや, ファインチューニングではなくゼロからのモデルの学習に対してデータセット蒸留を適用するためには解決する必要がある. ## 4 おわりに 本稿では,事前学習済み Transformer モデルを効果的に学習するための, 言語処理タスクのデータセットの蒸留に取り組んだ。我々は, Transformer の注意機構における注意確率の教師ラベルを蒸留デー タに適用することで, Transformer モデルに対する蒸留データセットの性能向上を図った. 複数の言語処理タスクのデータセットを対象とした実験の結果,我々の蒸留データセットは各クラス 1 サンプルのみでも良好な性能を達成した. さらに我々が提案した注意教師ラベルを利用することで,その性能は全てのタスクにおいて大幅な性能改善を示した. ## 参考文献 [1] Ozan Sener and Silvio Savarese. Active learning for convolutional neural networks: A core-set approach. In 6th International Conference on Learning Representations, ICLR 2018, Vancouver, BC, Canada, April 30 - May 3, 2018, Conference Track Proceedings. OpenReview.net, 2018. [2] Rahaf Aljundi, Min Lin, Baptiste Goujaud, and Yoshua Bengio. Gradient based sample selection for online continual learning. In H. Wallach, H. Larochelle, A. Beygelzimer, F. d'Alché-Buc, E. Fox, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 32. Curran Associates, Inc., 2019. [3] Robert C. Moore and William Lewis. Intelligent selection of language model training data. In Proceedings of the ACL 2010 Conference Short Papers, pp. 220-224, Uppsala, Sweden, July 2010. Association for Computational Linguistics. [4] Tongzhou Wang, Jun-Yan Zhu, Antonio Torralba, and Alexei A. Efros. Dataset distillation. CoRR, Vol. abs/1811.10959, , 2018. [5] Bo Zhao, Konda Reddy Mopuri, and Hakan Bilen. Dataset condensation with gradient matching. In 9th International Conference on Learning Representations, ICLR 2021, Virtual Event, Austria, May 3-7, 2021. OpenReview.net, 2021. [6] Ilia Sucholutsky and Matthias Schonlau. Soft-label dataset distillation and text dataset distillation. In 2021 International Joint Conference on Neural Networks (IJCNN), pp. 1-8, 2021. [7] Ondrej Bohdal, Yongxin Yang, and Timothy M. Hospedales. Flexible dataset distillation: Learn labels instead of images. CoRR, Vol. abs/2006.08572, , 2020. [8] Kai Wang, Bo Zhao, Xiangyu Peng, Zheng Zhu, Shuo Yang, Shuo Wang, Guan Huang, Hakan Bilen, Xinchao Wang, and Yang You. Cafe: Learning to condense dataset by aligning features. In 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pp. 12186-12195, 2022. [9] George Cazenavette, Tongzhou Wang, Antonio Torralba, Alexei A. Efros, and Jun-Yan Zhu. Dataset distillation by matching training trajectories. In IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops, CVPR Workshops 2022, New Orleans, LA, USA, June 19-20, 2022, pp. 4749-4758. IEEE, 2022. [10] Felipe Petroski Such, Aditya Rawal, Joel Lehman, Kenneth Stanley, and Jeffrey Clune. Generative teaching networks: Accelerating neural architecture search by learning to generate synthetic training data. In Hal Daumé III and Aarti Singh, editors, Proceedings of the 37th International Conference on Machine Learning, Vol. 119 of Proceedings of Machine Learning Research, pp. 9206-9216. PMLR, 13-18 Jul 2020. [11] Wojciech Masarczyk and Ivona Tautkute. Reducing catastrophic forgetting with learning on synthetic data. In 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition, CVPR Workshops 2020, Seattle, WA, USA, June 14-19, 2020 , pp. 1019-1024. Computer Vision Foundation / IEEE, 2020. [12] Andrea Rosasco, Antonio Carta, Andrea Cossu, Vincenzo Lomonaco, and Davide Bacciu. Distilled replay: Overcoming forgetting through synthetic samples. In Fabio Cuzzolin, Kevin Cannons, and Vincenzo Lomonaco, editors, Continual SemiSupervised Learning, pp. 104-117, Cham, 2022. Springer International Publishing. [13] Jack Goetz and Ambuj Tewari. Federated learning via synthetic data. CoRR, Vol. abs/2008.04489, , 2020. [14] Yanlin Zhou, George Pu, Xiyao Ma, Xiaolin Li, and Dapeng Wu. Distilled one-shot federated learning. CoRR, Vol. abs/2009.07999, , 2020. [15] Guang Li, Ren Togo, Takahiro Ogawa, and Miki Haseyama. Softlabel anonymous gastric x-ray image distillation. In 2020 IEEE International Conference on Image Processing (ICIP), pp. 305309, 2020. [16] Tian Dong, Bo Zhao, and Lingjuan Lyu. Privacy for free: How does dataset condensation help privacy? In Kamalika Chaudhuri, Stefanie Jegelka, Le Song, Csaba Szepesvari, Gang Niu, and Sivan Sabato, editors, Proceedings of the 39th International Conference on Machine Learning, Vol. 162 of Proceedings of Machine Learning Research, pp. 5378-5396. PMLR, 17-23 Jul 2022. [17] Yongqi Li and Wenjie Li. Data distillation for text classification. CoRR, Vol. abs/2104.08448, , 2021. [18] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [19] Lemao Liu, Masao Utiyama, Andrew Finch, and Eiichiro Sumita. Neural machine translation with supervised attention. In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers, pp. 3093-3102, Osaka, Japan, December 2016. The COLING 2016 Organizing Committee. [20] Haitao Mi, Zhiguo Wang, and Abe Ittycheriah. Supervised attentions for neural machine translation. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2283-2288, Austin, Texas, November 2016. Association for Computational Linguistics. [21] Gustavo Aguilar, Yuan Ling, Yu Zhang, Benjamin Yao, Xing Fan, and Chenlei Guo. Knowledge distillation from internal representations. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, No. 05, pp. 7350-7357, Apr. 2020. [22] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [23] Chelsea Finn, Pieter Abbeel, and Sergey Levine. Model-agnostic meta-learning for fast adaptation of deep networks. In Doina Precup and Yee Whye Teh, editors, Proceedings of the 34th International Conference on Machine Learning, Vol. 70 of Proceedings of Machine Learning Research, pp. 1126-1135. PMLR, 06-11 Aug 2017. [24] Xiang Zhang, Junbo Jake Zhao, and Yann LeCun. Characterlevel convolutional networks for text classification. In Corinna Cortes, Neil D. Lawrence, Daniel D. Lee, Masashi Sugiyama, and Roman Garnett, editors, Advances in Neural Information Processing Systems 28: Annual Conference on Neural Information Processing Systems 2015, December 7-12, 2015, Montreal, Quebec, Canada, pp. 649-657, 2015. [25] Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel Bowman. GLUE: A multi-task benchmark and analysis platform for natural language understanding. In Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 353-355, Brussels, Belgium, November 2018. Association for Computational Linguistics. [26] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Yoshua Bengio and Yann LeCun, editors, 3rd International Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings, 2015 .
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q3-2.pdf
# 敵対的学習を用いた知識蒸留への中間層蒸留と対照学習の導入 鈴木 偉士 山田寛章 徳永 健伸 東京工業大学 情報理工学院 \{suzuki.t.dp@m, yamada@c, take@c\}.titech.ac.jp ## 概要 知識蒸留 (KD) とは,大規模なニューラルネットワークを圧縮する手法の一つである。言語モデル向け KD の中で最高性能の手法は,敵対的学習に中間層出力と対照学習を導入した CILDA と呼ばれる手法である. CILDA の学習は最大化ステップと最小化ステップに分かれているが,中間層出力と対照学習は最大化ステップでのみ活用されている. 本研究では,最小化ステップに中間層蒸留と対照学習を導入し,性能を向上させることを目指した.しかし, 既存手法に対して有意な差は確認できなかったため,原因分析のために CILDA 単体の再現実験を行ったところ, 先行研究の主張とは異なり, GLUE における複数のタスクで CILDA がそれ以前の手法の性能を上回らないという結果を得た。 ## 1 はじめに BERT[1] やRoBERTa[2] のような事前学習済み言語モデルは, 様々な言語処理タスクにおいて, 高い性能を発揮しているが,近年では,GPT-3[3] や, PaLM[4] に見られるように, パラメータ数が大幅に増加し,通常のデバイスでは扱えなくなっている。 知識蒸留 (KD)[5] は,ニューラルネットワークを圧縮する手法の一つである。 パラメータ数の大きい教師モデルの出力と, パラメータ数の小さい生徒モデルの出力の KL ダイバージェンスを小さくする学習をすることで,生徒モデルが教師モデルと同様の出力が出来るようにする. 先行研究により, 知識蒸留は, 教師モデルと生徒モデルの最終的な出力間だけでなく, 中間層の出力間の誤差の利用 $[6,7,8]$, データ抳張と敵対的学習の導入 [9], 対照学習の導入 [10] により,性能が向上することが報告されている. Haidar ら [11] は知識蒸留に中間層の利用, 敵対的学習, 対照学習を導入した CILDA と呼ばれる手法を提案し,GLUE タスクにおいて SOTAを達成した. しかし, Haidar らの研究 [11]では, データ拡張と敵対的学習に用いられる Generator の学習にのみ中間層の利用と対照学習の導入を行っており, 生徒モデルの学習については通常の KD から改良されていない. 本研究では CILDA の生徒モデルの学習時に中間層の利用と対照学習を導入し,さらに性能を向上させることを目指す. 本研究のソースコードは $\mathrm{GitHub}^{11}$ にて公開している. ## 2 関連研究 ## 2.1 知識蒸留 (Vanilla KD) 知識蒸留 [5] とは,モデル圧縮の手法の 1 つである.この手法では, パラメータ数が小さい生徒モデルがタスクの正解ラベルとの誤差のほかに, パラメータ数が大きく性能の高い教師モデルの出力との誤差を用いて学習する。損失関数は以下のとおりである。 $ \begin{array}{r} L=\lambda L_{C E}+(1-\lambda) L_{K D} \\ L_{K D}=K L(\text { Teacher }(X), \operatorname{Student}(X)) \end{array} $ ただし, $L_{C E}$ は交差エントロピー誤差, $K L($,$) は$ KL ダイバージェンス, Teacher $(X)$, Student $(X)$ はそれぞれ,教師モデル,生徒モデルにデータ $X$ を入力した際の出力する確率分布とする。学習対象は生徒モデルのみであり,教師モデルのパラメータは固定される. ## 2.2 RAIL-KD RAIL-KD[8] は通常の知識蒸留に加えて中間層の出力の情報も用いる中間層蒸留の一種である. RAIL-KD では,各エポックごとに教師モデルから生徒モデルの中間層の数だけ前から順にランダムに中間層を選び,生徒モデルの中間層との誤差を計算  する.誤差の計算の方法には以下の 2 通りがある. $ \begin{gathered} L_{R A I L-K D^{l}}=\sum_{x \in X} \sum_{k=0}^{m}\left.\|\frac{\hat{h}_{a_{\kappa}, x}^{T}}{\left.\|\hat{h}_{x}^{T}\right.\|_{2}}-\frac{\hat{h}_{\kappa, x}^{S_{\theta}}}{\left.\|\hat{h}_{x}^{S_{\theta}}\right.\|_{2}}\right.\|_{2}^{2} \\ L_{R A I L-K D^{c}}=\sum_{x \in X}\left.\|\frac{\hat{h}_{x}^{T}}{\left.\|\hat{h}_{x}^{T}\right.\|_{2}}-\frac{\hat{h}_{x}^{S_{\theta}}}{\left.\|\hat{h}_{x}^{S_{\theta}}\right.\|_{2}}\right.\|_{2}^{2} \end{gathered} $ $\hat{h}_{*}^{*}, X, \kappa, a$ はそれぞれモデルの中間層の出力, 訓練データ, 生徒モデルの中間層の数, 選択した中間層のインデックスの配列である. $T$ は教師モデル, $S_{\theta}$ は生徒モデルを表す. $L_{R A I L-K D^{l}}$ では, 1 層ずつの中間層同士の誤差の和をとり, $L_{R A I L-K D^{c}}$ では,選択した層を連結してから誤差をとる.教師モデルと生徒モデルの中間層の出力の次元数が異なる場合は損失関数の計算前に $h$ に対して線形変換を行い,次元数を揃える. 最終的な損失関数は以下のようになる. $ L=\lambda_{1} L_{C E}+\lambda_{2} L_{K D}+\lambda_{3} L_{R A I L-K D} $ ## 2.3 MATE-KD MATE-KD[9] は知識蒸留に敵対的学習を導入した手法である. この手法では学習は最大化ステップと最小化ステップの 2 つのステップに分かれている. 最大化ステップでは,まず訓練データに一定の確率でマスクをかける。 その後 Generator と呼ばれる事前学習済みマスク型言語モデルを用いてマスクされた部分を埋めることでデータ拡張を行う. 拡張されたデータを用いて以下の損失関数を最大化するように Generatorを学習する。 $ L_{A D V}=K L\left(\text { Teacher }\left(X^{\prime}\right), \text { Student }\left(X^{\prime}\right)\right) $ ただし, $X^{\prime}$ は拡張されたデータである. 最大化ステップでは生徒モデルのパラメータは固定される. 最小化ステップでは以下の損失関数を最小化するように生徒モデルを学習する. 最小化ステップの間は Generator のパラメータは固定される. $ L=\lambda_{1} L_{C E}+\lambda_{2} L_{K D}+\lambda_{3} L_{A D V} $ 学習時は最大化ステップを $n_{G}$ ステップ行ってから最小化ステップを $n_{S}$ ステップ行うことを繰り返す。 ## 2.4 CILDA CILDA[11] は知識蒸留に中間層出力の利用,敵対的学習, 対照学習を導入した手法である. MATE-KD と同様に最大化ステップと最小化ステップに分かれている.最大化ステップでは以下の損失関数を最大化する。 $ \begin{array}{r} L_{G}=\alpha_{1} L_{A D V}+\alpha_{2} L_{C R D} \\ L_{C R D}=-\log \frac{\exp \left(<\bar{h}_{k}^{T}, \bar{h}_{k}^{S_{\theta}}>/ \tau_{2}\right)}{\sum_{j=0}^{K} \exp \left(<\bar{h}_{j}^{T}, \bar{h}_{k}^{S_{\theta}}>/ \tau_{2}\right)} \end{array} $ ただし, $\bar{h}_{*}^{*}$ はデルの全ての中間層の出力を連結し線形変換を施したもの, $k$ はミニバッチの中のデー タのインデックス,K はバッチサイズ,<,>はコサイン類似度とする。 最小化ステップでは以下の損失関数に拡張されたデータと元データを入力して最小化する. $ L=\lambda_{1} L_{C E}+\lambda_{2} L_{K D} $ ## 3 提案手法 提案手法を本論文では CILDA+minILD と呼ぶ. CILDA+minILDでは, CILDA の最小化ステップに中間層出力の利用と対照学習を導入する。そのために損失関数に $L_{C R D}$ を追加する.損失関数は以下のようになる。 $ L=\lambda_{1} L_{C E}+\lambda_{2} L_{K D}+\lambda_{3} \frac{1}{\log K} L_{C R D} $ $K$ はバッチサイズである. $L_{C R D}$ の値はバッチサイズの対数に依存し,バッチサイズが大きいほど值が大きくなる.そのため $L_{C R D}$ の係数に $\frac{1}{\log K}$ をかける. 最大化ステップにおいても同様に $L_{C R D}$ の係数に $\frac{1}{\log K}$ をいる。 ## 4 実験 ## 4.1 実験設定 ## 4.1.1 データセット 蒸留対象のタスクは GLUE[12] の中から,学習に要する時間の短い CoLA,MRPC,RTE,STS-B の 4 タスクを利用する。評価指標は先行研究 [11] に倣い,それぞれマシューズ相関係数,f1 スコア,正解率,ピアソンの相関係数とする. ## 4.1.2 モデル 教師モデルには, RoBERTa-large[2] を元に, 各タスク毎に教師モデルをファインチューニングし, dev set において各評価指標で最高性能を示したモデルを用いた. ファインチューニングは,バッチサイズ $128 , 3$ エポックとして,異なる 4 つの学 習率 1e-05,2e-05,5e-05,1e-04 について各 5 回行った. 生徒モデルには DistilRoBERTa[13]を使用した. MATE-KD, CILDA, CILDA+minILDで用いる Generator には RoBERTa-large[2]を用いた. ## 4.1.3 比較手法 提案手法と比較する手法は生徒モデルのみを用いた学習 (w/o KD), 通常の知識蒸留 (Vanilla KD), RAIL-KD,MATE-KD,CILDAを用いた. RAIL-KD の $L_{R A I L-K D}$ には $L_{R A I L-K D^{c}}$ を用いた。 ## 4.1.4 ハイパーパラメータ 学習率を 1e-05,2e-05,5e-05,1e-04 の 4 通りからハイパーパラメータ探索で選択し,バッチサイズはw/o KD,Vanilla KD,RAIL-KD,MATE-KDでは 128, CILDA, CILDA+minILDでは 64 とした. 損失関数の係数は, Vanilla KDでは $\lambda$ は $1 / 2$, RAIL-KD と MATE-KD の $\lambda_{1}, \lambda_{2}, \lambda_{3}$ はすべて $1 / 3$ とした. CILDA の $\lambda_{1}, \lambda_{2}$ は元データを入力する際にはともに $1 / 3$ とし,拡張されたデータに対してはそれぞれ $2 / 9$, $1 / 9$ とした. $\alpha_{1}, \alpha_{2}$ はともに $1 / 2, \tau_{2}$ は 2 とした. CILDA+minILD では元データに対しては $\lambda_{1}=2 / 9$ , $\lambda_{2}=2 / 9, \lambda_{3}=2 / 9$, 拡張されたデータに対しては $\lambda_{1}=1 / 6, \lambda_{2}=1 / 12, \lambda_{3}=1 / 12$ とした. RAIL-KD, CILDA,CILDA+minILDでの中間層の線形変換後の次元数は 128 とした。 ハイパーパラメータ探索では 5 エポックの実験を 1 回行い,5 エポックの時点で dev set でもっとも性能の高いハイパーパラメータを選択した. MATE-KD, CILDA, CILDA+minILD では $n_{G}=10, n_{S}=100$ とした. ## 4.1.5 動作環境 本研究では PyTorch フレームワークを使用し,モデルは Huggingface Transformers のものを使用した. また,GPUには 4 枚の Nvidia 社製 RTX A6000を使用した。節 4.1.4 に記載したバッチサイズは 4 枚の GPU の合計であり, GPU1 枚あたりのバッチサイズは上記の 4 分の 1 である. ## 4.1.6 本実験 本実験ではハイパーパラメータ探索で選んだ学習率を用いて 20 エポックの実験を 5 回行う. 1 エポックごとにチェックポイントを保存し, 各実験で最も評価指標の高いモデルを使用する. その後, 有意水準を 0.05 として並べ替え検定を片側検定で行う. ## 4.2 結果 表 1 に各実験の GLUE の dev set における平均を示す. 括弧内の数字は標準偏差である. タスクごとに最良のものを太字としており,下線が引かれているものよりも統計的に有意に評価指標が高い. 教師モデルの行は, 平均的に最も性能が高い学習率における結果である. 提案手法である CILDA+minILD は使用したタスクでは MRPC 以外で MATE-KDを超える結果にならなかった. また,先行研究では MATE-KDを超える結果を示した CILDA も MRPC 以外で MATE-KD を超えることはなかった。 ## 5 CILDA の有効性の再検証 本研究では,CILDA のスコアが MATE-KDを超えず先行研究とは異なる結果となった. そのことが CILDA+minILD が有効でなかった理由であるという仮説をたて,CILDA の有効性を検証した。 CILDA のスコアが低かった原因としてハイパー パラメータが適切でなかったからである可能性がある. 先行研究では,バッチサイズは $8,16,32$ から, 学習率は 1e-05, 2e-05, 4e-06 から選択しており本研究で使用したハイパーパラメータとは異なる. ## 5.1 再検証の実験設定 この仮説を検証するため,CILDAを実験を先行研究のハイパーパラメータに合わせて実験を行った. $n_{G}$ は CoLA, MRPC,RTE では 20,STS-B では 10 とした. $n_{S}$ はすべてのタスクにおいて 100 とした. ハイパーパラメータ探索は 5 エポックの 表 2 RoBERTa の dev set における結果 表 3 BERT の dev set における結果 実験を 5 回行い,5 エポック時点での評価指標の平均が最も高いバッチサイズ,学習率の組を探索する. その後本実験を行う. 本実験の手順は節 4.1.6 に示したものと同じである. 実験では GPU に RTX A6000を 1 枚使用した。追加検証のため RoBERTa,BERT[1], BART[14]の 3 通りのモデルを用いて実験を行った. BERT の実験では教師モデルと Generator を BERT-large (cased), 生徒モデルを DistilBERT[13], BART の実験では教師モデルと Generator を BART-large, 生徒モデルを BART-base とした. BART の実験では教師モデルのファインチューニングを 10 エポックとし,各エポックでチェックポイントを保存し, 最良のチェックポイントを用いた。 ## 5.2 再検証実験結果 表 2,3,4 亿結果を示す. RoBERTa の実験では,節 4.2 と比較して CILDA のスコアは向上したが,傾向は変わらず MARC のみ MATE-KD を上回る結果となった. BERT の実験でも RoBERTa の実験と表 4 BART の dev set における結果 同様の傾向となった. BART の実験では RoBERTa, BERT の場合と異なり,タスク毎に最高性能の手法が異なっているため,知識蒸留に中間層蒸留,敵対的学習,対照学習を導入することが BARTにおいては有効であるとは確認できなかった. ただし, Vanilla KD は w/o KD と比較して高いスコアが得られた。そのため知識蒸留自体は BARTにおいても有効である可能性がある.表 4 には記載していないが CoLA,RTE,STS-B では w/o KD と Vanilla KD の間に有意差は確認できず,MRPC のみ Vanila KD の方が有意に高いという結果であった. 先行研究では CILDA が MATE-KD を超える性能を示したと報告されているが,どのモデルを使った実験でも,そのような結果を再現できなかった. そのため, MATE-KD と CILDA の違いである $L_{C R D}$ の利用は有効でなかったと考えられる。提案手法の CILDA+minILD は $L_{C R D}$ を CILDA の最小化ステップでも用いるという手法であるため, $L_{C R D}$ が有効な損失関数でなかったことが CILDA+minILD の性能が低かった原因と考えられる。 ## 6 終わりに 本研究では, CILDA の最小化ステップに中間層出力の利用と対照学習を適用した CILDA+minILDを提案した.しかし, 従来の手法である MATE-KD よりも低い性能となり,その原因が CILDA の性能が低いことにあると結論づけた.今後は,本研究で扱わなかった GLUE の他のタスクでも同様の結果が得られるかの検証,CILDA の性能が MATE-KD よりも低かった原因の究明,本研究で最も高い性能を発揮した MATE-KD を改良することによる知識蒸留の性能の向上などを行っていきたい. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized BERT pretraining approach. arXiv, Vol. abs/1907.11692, , 2019. [3] Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. arXiv, Vol. abs/2005.14165, , 2020. [4] Aakanksha Chowdhery, Sharan Narang, Jacob Devlin, Maarten Bosma, Gaurav Mishra, Adam Roberts, Paul Barham, Hyung Won Chung, Charles Sutton, Sebastian Gehrmann, Parker Schuh, Kensen Shi, Sasha Tsvyashchenko, Joshua Maynez, Abhishek Rao, Parker Barnes, Yi Tay, Noam Shazeer, Vinodkumar Prabhakaran, Emily Reif, Nan Du, Ben Hutchinson, Reiner Pope, James Bradbury, Jacob Austin, Michael Isard, Guy Gur-Ari, Pengcheng Yin, Toju Duke, Anselm Levskaya, Sanjay Ghemawat, Sunipa Dev, Henryk Michalewski, Xavier Garcia, Vedant Misra, Kevin Robinson, Liam Fedus, Denny Zhou, Daphne Ippolito, David Luan, Hyeontaek Lim, Barret Zoph, Alexander Spiridonov, Ryan Sepassi, David Dohan, Shivani Agrawal, Mark Omernick, Andrew M. Dai, Thanumalayan Sankaranarayana Pillai, Marie Pellat, Aitor Lewkowycz, Erica Moreira, Rewon Child, Oleksandr Polozov, Katherine Lee, Zongwei Zhou, Xuezhi Wang, Brennan Saeta, Mark Diaz, Orhan Firat, Michele Catasta, Jason Wei, Kathy Meier-Hellstern, Douglas Eck, Jeff Dean, Slav Petrov, and Noah Fiedel. Palm: Scaling language modeling with pathways. arXiv, Vol. abs/2204.02311, , 2022. [5] Geoffrey E. Hinton, Oriol Vinyals, and Jeffrey Dean. Distilling the knowledge in a neural network. arXiv, Vol. abs/1503.02531, , 2015 . [6] Siqi Sun, Yu Cheng, Zhe Gan, and Jingjing Liu. Patient knowledge distillation for BERT model compression. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 4323-4332, Hong Kong, China, November 2019. Association for Com- putational Linguistics. [7] Peyman Passban, Yimeng Wu, Mehdi Rezagholizadeh, and Qun Liu. Alp-kd: Attention-based layer projection for knowledge distillation. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 35, No. 15, pp. 13657-13665, May 2021. [8] Md Akmal Haidar, Nithin Anchuri, Mehdi Rezagholizadeh, Abbas Ghaddar, Philippe Langlais, and Pascal Poupart. RAIL-KD: RAndom intermediate layer mapping for knowledge distillation. In Findings of the Association for Computational Linguistics: NAACL 2022, pp. 1389-1400, Seattle, United States, July 2022. Association for Computational Linguistics. [9] Ahmad Rashid, Vasileios Lioutas, and Mehdi Rezagholizadeh. MATE-KD: Masked adversarial TExt, a companion to knowledge distillation. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 1062-1071, Online, August 2021. Association for Computational Linguistics. [10] Siqi Sun, Zhe Gan, Yuwei Fang, Yu Cheng, Shuohang Wang, and Jingjing Liu. Contrastive distillation on intermediate representations for language model compression. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 498-508, Online, November 2020. Association for Computational Linguistics. [11] Md Akmal Haidar, Mehdi Rezagholizadeh, Abbas Ghaddar, Khalil Bibi, Phillippe Langlais, and Pascal Poupart. CILDA: Contrastive data augmentation using intermediate layer knowledge distillation. In Proceedings of the 29th International Conference on Computational Linguistics, pp. 4707-4713, Gyeongju, Republic of Korea, October 2022. International Committee on Computational Linguistics. [12] Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel Bowman. GLUE: A multi-task benchmark and analysis platform for natural language understanding. In Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 353-355, Brussels, Belgium, November 2018. Association for Computational Linguistics. [13] Victor Sanh, Lysandre Debut, Julien Chaumond, and Thomas Wolf. Distilbert, a distilled version of bert: smaller, faster, cheaper and lighter. arXiv, Vol. abs/1910.01108, , 2019. [14] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, Online, July 2020. Association for Computational Linguistics. ## A ハイパーパラメータ ハイパーパラメータ探索の結果,採用したハイパーパラメータを表 $5 , 6 , 7$ に示す. 数字が 1 つの場合は学習率,2つある場合は上が学習率,下がバッチサイズである. CILDA 検証の行は 5 章の実験のものを表す. 表 5 RoBERTa の実験 表 6 BERT の実験 表 7 BART の実験 ## B 教師モデルの性能 RoBERTa,BERT,BART の実験において,実際に使用した教師モデルの性能を表 8 に示す. 表 8 教師モデルの性能
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q3-3.pdf
# 入力の分割単位について頑健な言語モデルの構築 清野舜 高瀬翔 李聖哲 佐藤敏紀 LINE 株式会社 \{shun.kiyono, sho.takase, shengzhe.li, toshinori.sato\}@linecorp.com ## 概要 本研究では,事前訓練に必要な計算資源の削減を目的として,文字とサブワード単位の両方を利用可能な言語モデルの構築に取り組む. 既存のサブワー ド正則化技術を応用することで,文字とサブワードを同時に用いた言語モデルの事前訓練を実現する。実験では,BERT の事前訓練を題材として手法の効果を検証する。 ## 1 はじめに 事前訓練済み言語モデルは NLP の各種タスクにおいて大きな成功を収めている [1].これらのモデルにおいては,入力文をトークン列に分割する方法 (以降,分割方法と言及する)がモデルに紐付いた形で規定されており,モデルのユーザは規定された分割方法に従う必要がある. しかし,あらかじめ規定された分割方法が,ユー ザが目的とするタスクの要求する分割方法と一致しない場合がある. 例えば,サブワード単位で事前訓練されたモデルを,文字単位の分割を要求する夕スクに適用する場合にこの問題は生じる。いま,日本語における句読点復元タスクを考える. 句読点復元タスクとは,書き起こし文の読みやすさを向上させることを目的として,音声認識システムにおける後処理として用いられるタスクである [2]. ここで,句読点を挿大するべき箇所は,必ずしもサブワード分割の単位と一致しないため,文字単位での分割が必要となる. 分割方法の不一致を解決する方法として,単純には,サブワード単位と文字単位のそれぞれについて独立に事前訓練済み言語モデルを構築することが考えられる. 実際,これは日本語の事前訓練済み言語モデルにおける標準的な慣習である。例えば,日本語用 BERT において,サブワード単位のもの ${ }^{1)}$ と文  図 1 本研究の概要図:これまで,サブワード単位と文字単位の言語モデルが独立に作成されてきた (左). 本研究ではサブワード正則化(BPE-dropout)を応用することで,各分割単位を同時に利用可能なモデルを構築する(右). 字単位のもの2) がそれぞれ配布され,活発に用いられている. 同様に,著者らも社内向けにサブワード単位・文字単位のモデルの訓練と配布を継続的におこなってきた ${ }^{3)}$.しかし,事前訓練は大量の計算資源を必要とする. そのため我々は,サブワード単位と文字単位の両方を利用可能な単一の言語モデルを訓練するための方法論を構築し,事前訓練に必要な計算資源を削減したい。 この目的を達成するために,本研究ではサブワー ド正則化 [3] を言語モデルの事前訓練に応用する (図 1).本来,サブワード正則化は,入力文から複数の分割候補を獲得し,モデルの頑健性と汎化性能を向上させるための手法である.その代わり,本研究ではサブワード正則化をサブワード単位と文字単位を同時に言語モデルの事前訓練に取り入れるための方法論として応用する. 手法そのものは非常に単純で,追加のモデルパラメータを必要としないほか,ファインチューニング時の計算コストにも全く影響しない. 我々の手法の効果を示すため, BERT の事前訓練を題材として実験をおこなう.実 2) https://huggingface.co/cl-tohoku/ bert-base-japanese-char-v2 3)時事情報を言語モデルに反映するため,クローリングで収集したテキストデータ等を用いた言語モデルの再学習が定期的记必要となる. 験では,サブワード正則化を用いて事前訓練された BERT は,サブワード単位や文字単位について独立に訓練された BERT と同等の性能を示した。 ## 2 背景 第 1 節で述べたように,我々の手法はサブワード正則化技術に基づく. 本研究では, サブワード分割の手法としてバイト対符号化(Byte Pair Encoding; BPE)[4],またサブワード正則化の手法として BPE-dropout[5] を用いる4). 本節では,これらの手法の詳細を述べる。 ## 2.1 バイト対符号化(BPE) BPE[4] はサブワード分割手法の一種であり,入力された単語について, 結合規則を繰り返し適用することで,サブワード単位の分割をおこなう。まず,入力は文字単位の系列として表現される. 次に,隣接する 2 つのトークンは,結合規則表(図 2 左)に定義された規則とその優先度に応じて繰り返し結合される,例えば,図 2 において,結合規則(1)の優先度が最も高いため, この規則が最初に適用される. 適用可能な結合規則を全て適用した結果が,最終的なサブワード単位の分割に相当する. BPE における結合規則表はコーパス中の頻度情報を用いて構築される。具体的には,隣接するトークンのうち,最も頻度の大きいものが新しい結合規則として追加されていく. 例えば,図 2 左の場合,表の先頭に登場する結合規則ほど優先度が高い.この過程は, 結合規則の総数があらかじめ指定した数に達するまで繰り返される。 ## 2.2 BPE-dropout BPE-dropout[5] は BPE 用のサブワード正則化手法である. サブワード正則化 [3] とは,入力文を複数の候補に分割し,訓練に取り入れることで,モデルをノイズに対して頑健にするための技術である. 通常の BPE と BPE-dropout の比較を図 2 に示す. BPE-dropout は, 結合規則の適用過程において, 結合規則を確率 $p$ で棄却する. そのため, 同じ入力単語であっても BPE-dropoutを適用するたびに異なる分割結果が得られる. ここで, 確率 $p$ が高いほど結合規則は棄却されやすい. 例えば, $p=1.0$ のとき, 4)我々の手法はサブワード正則化を活用するものであるため,同技術が利用可能であるような任意のサブワー ド分割手法が適用可能である. 例えば,BPE の他にも, WordPiece[6, 7, 8] やユニグラム言語モデル [3] が適用できる. (1) $s t \rightarrow s t$ (2) e st $\rightarrow$ est (3) $1 \circ \rightarrow 10$ (4) w est $\rightarrow$ west (5) $\mathrm{ne} \rightarrow$ ne (6) lo w $\rightarrow$ low 結合規則 (a) BPE (b) BPE-dropout 図 2 バイト対符号化 (BPE) と BPE-dropout の比較:最初,トークン newest は文字単位の系列として表現され,結合規則表に従って結合が繰り返される. (a) BPE の場合,この処理は適用可能な結合が無くなるまで繰り返される。一方で,(b) BPE-dropoutにおいては,結合規則が確率 $p$ で棄却される. そのため, 最終的な分割結果 ne w e st (a) BPEから得られる分割結果 ne west と異なる. 全ての結合規則が棄却されるため,分割結果は常に文字単位の分割に一致する. 同様に $p=0.0$ のとき, BPE-dropout は通常の BPE に一致する. ## 3 手法 元々, BPE-dropout のようなサブワード正則化技術は,モデルの正則化を目的として提案されたものである. 一方で本研究では, 同技術を応用し, サブワード単位と文字単位の両方を利用可能な言語モデルの訓練に用いる.このアイデアは, BPE-dropout による分割結果の性質に基づいている. 具体的には, 図 2 右において,分割結果は文字とサブワードを混合したものとなっている. このような分割を用いて訓練された言語モデルは,サブワード単位と文字単位の両方を利用可能であることが期待される. このとき,サブワードと文字単位について独立に言語モデルを訓練する必要が無くなるため, 事前訓練に必要な計算資源の削減が達成できる. 我々の手法は,言語モデルの事前訓練において入力文に既存の BPE-dropoutを適用するだけという非常に単純なものである. そのほか, 事前訓練の目的関数やモデルのアーキテクチャの変更,モデルパラメータの追加等は一切おこなわない. 事前訓練後は,所望の分割単位に合わせて BPE-dropout のパラメータ(棄却確率 $p$ )を設定し,ファインチューニングをおこなう.例えば,文字単位の分割を必要とするタスクについては, $p=1.0$ を用いる. ## 4 実験 実験では,我々の手法の効果を日本語の BERT[1] の訓練を通して検証する。具体的には,提案手法を用いて訓練した BERTが,サブワード単位の BERT・文字単位の BERT のそれぞれとほぼ同等の性能を発揮することを示す. ## 4.1 データセット 事前訓練用データセット BERT の事前訓練には,日本語 Wikipedia から作成したコーパズ年を用いた. 前処理として,Unidic 辞書を用いて $\left.\mathrm{MeCab}^{6}\right)$ で分かち書きをした後,BPEを用いて分割をおこなった.BPE の実装として sentencepiece[9]を用いた. 語彙の大きさと文字の被覆率はそれぞれ 32,000 と 0.9995 とした. JGLUE データセット事前訓練した BERT の性能評価を目的として,JGLUE データセット [10] 上でファインチューニングを行う. JGLUE は英語圏で広く用いられているべンチマークデータである GLUE[11]の日本語版である.JGLUEのうち,JNLI, MARC-ja と JSTS の性能を報告する. JGLUE は評価セットを公開していないため,公開されている開発セットを2つに等分割したものを開発セットと評価セットとして用いた. 句読点復元データセット文字単位での分割が必要となるタスク上での評価を目的として, 句読点復元タスクにも取り組む. 句読点復元タスクは, 入力文に対して句読点を付与するもので,音声認識システムの後処理として用いられる [2]. 本研究では,日本語の生コーパスを用いてデータセットの自動構築をおこなった。まず,CC-100コーパス $[12,13]$ の日本語部分からランダムに 10 万文をサンプルし,句読点を除去した. 次に,文中の各文字について,句点挿入,読点挿入とそれ以外の 3 種類のラベルを付与した. このタスクを系列ラベリング問題として定式化し, 先行研究 [1] と同様に BERT のファインチューニングをおこなった. ## 4.2 比較手法 実験には,以下の 3 つの分割手法を用いて BERT の事前訓練とファインチューニングをおこなった. ・Subword: 入力文をサブワード単位で分割する 5) 2020 年 10 月に取得したダンプデータより作成した. 6) https://taku910.github.io/mecab/手法 - Character: 入力文を文字単位で分割する手法 ・BPE-dropout: 入力文を BPE-dropout を用いて分割する手法 そのほか,一般に公開されている BERTをファインチューニングした結果も報告する.事前訓練に用いるデータセット,実装やアーキテクチャの違い7) から,我々の BERT と一般の BERT の値の大小を直接比較することはできないが,我々の BERT の性能が十分に高いことを確認する目的で用いる. サブワード単位と文字単位の BERTとして,それぞれ東北大学の公開している bert-base-japanese-v2 $2^{8)}$ と bert-base-japanese-char-v2 $2^{9}$ を用いた。事前訓練中の BPE-dropout $の$ 棄却確率 $p$ は先行研究 [5] に従って 0.1 とした. その他のハイパーパラメータの詳細については付録 $\mathrm{A} を$ 参照されたい. ## 4.3 JGLUE での結果 BPE-dropout の効果について実験結果を表 1 に示した.まず,サブワード単位での性能を比較する. 事前訓練に BPE-dropoutを用いたモデル (c) とサブワード単位だけで事前訓練したモデル (a) の評価セット上の性能を比較すると,JNLI においては僅かに性能の劣化が見られたものの, MARC-ja と JSTS において両者はほとんど同等の性能を示した. また,文字単位での性能に着目すると,BPE-dropout を用いたモデル (d) が文字単位だけで事前訓練したモデル (b)をほぼ一貫して上回る結果となった.この結果から,BPE-dropout を BERT の事前訓練に活用することで,サブワード単位と文字単位のモデルを独立に訓練する必要がなくなるため,事前訓練に必要な計算資源を半分にできることが示唆される. サブワード単位を用いるモデルの性能が JNLI 上で僅かに悪化した原因として,今回用いたモデル (BERT-base)が,サブワード単位と文字単位の両方について汎化するだけの表現力を持っていない可能性が考えられる。そのため,今後はより表現力を高めた大きなモデル(例:BERT-large)上での検証を 7)最も大きな違いは Layer Normalization の適用位置である. Google による BERT の元実装が Post Layer Normalization 構造を用いているのに対して,我々の実装(Megatron-LM)はPre Layer Normazliation 構造を用いている. この差分がモデルに及ぼす影響については Takase らの研究を参照されたい [14]. 8) https://huggingface.co/cl-tohoku/ bert-base-japanese-v2 9) https://huggingface.co/cl-tohoku/ bert-base-japanese-char-v2 表 1 JGLUE データセット上での性能:JNLI と MARC-ja については正解率を報告する.また,JSTS についてはスピアマンの相関係数 $\rho$ を報告する.各値はそれぞれ 3 つの乱数シードの平均値である. 表 2 句読点復元タスク上での性能: マイクロ $F_{1}$ 值を報告する.各値はそれぞれ 3 つの乱数シードの平均値である. ## おこなう予定である. 既存の BERT との比較表 1 において,我々の BERT(a)・(b) と既存の BERT(f) ・(g) を比較すると,全体の傾向としてほとんど同等の性能が出せていることがわかる. この結果は, 我々の訓練した BERT の性能が十分に高いこと,つまり,モデル (a)・(b) が我々の手法 (c)・(d) に対する強力なベースライン手法とみなせることを示している. ## 4.4 句読点復元タスクでの結果 表 2 に句読点復元タスクの結果を示した. 表 1 と同様に,BPE-dropoutを用いたモデル (d) が文字単位のモデル (b) の性能を上回った. また,サブワード単位で事前学習したモデルを文字単位でファインチューニングしたモデル (e) の性能は, 最も低い結果となった. このことから, 文字単位のタスクで高い性能を発揮するためには,サブワード単位のモデルを文字単位モデルとしてファインチューニング時に転用するだけでは不十分であり,文字単位を含めた事前訓練が必要であることが示唆される. ## 5 分析 ## BPE-dropout は事前訓練の時間を増加させるか第 2.2 節で述べた通り, BPE-dropout はモデルの正則化のための技術である.そのため,BPE-dropout を 用いることで,事前訓練におけるモデルの収束速度 が悪化し,事前訓練の時間が増加する懸念がある。 BPE-dropout を用いるねらいの一つは計算資源の節 図 3 訓練損失の変化の比較 : 事前訓練時,各モデルはほぼ同じ速度で収束するとわかる.ここで,訓練データの分割方法が異なることから,損失の值の大小は直接比較できないことに注意されたい. 約であるため,事前訓練の時間は増加しないことが望ましい. 図 3 に更新回数に対する訓練損失の変化を Subword モデルと BPE-dropout モデルのそれぞれについて示した. 図より, 収束速度はほぼ同じであり,事前訓練に必要な時間に大きな悪影響はないと考えられる。 ## 6 おわりに 本研究では,サブワード単位と文字単位の両方を利用可能な言語モデルの構築を目的として,サブワード正則化を事前訓練に取り入れる効果を検証した. BERT 上での実験結果より,サブワード正則化を既存の分割方法の代替として適用可能であることが示された. そのため,サブワードと文字単位の BERT を独立に訓練する場合と比べて, 必要な計算資源を半分にできる.今後は,本手法を他の言語モデル(エンコーダ・デコーダモデル [15] やデコーダのみのモデル [16])へ適用するための方法論の構築に取り組む予定である。 ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] Ottokar Tilk and Tanel Alumäe. Bidirectional recurrent neural network with attention mechanism for punctuation restoration. In Interspeech, pp. 3047-3051, 2016. [3] Taku Kudo. Subword regularization: Improving neural network translation models with multiple subword candidates. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 66-75, Melbourne, Australia, July 2018. Association for Computational Linguistics. [4] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 17151725, Berlin, Germany, August 2016. Association for Computational Linguistics. [5] Ivan Provilkov, Dmitrii Emelianenko, and Elena Voita. BPEdropout: Simple and effective subword regularization. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1882-1892, Online, July 2020. Association for Computational Linguistics. [6] Yonghui Wu, Mike Schuster, Zhifeng Chen, Quoc V Le, Mohammad Norouzi, Wolfgang Macherey, Maxim Krikun, Yuan Cao, Qin Gao, Klaus Macherey, et al. Google's neural machine translation system: Bridging the gap between human and machine translation. arXiv preprint arXiv:1609.08144, 2016. [7] Xinying Song, Alex Salcianu, Yang Song, Dave Dopson, and Denny Zhou. Fast WordPiece tokenization. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 2089-2103, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [8] Tatsuya Hiraoka. MaxMatch-dropout: Subword regularization for WordPiece. In Proceedings of the 29th International Conference on Computational Linguistics, pp. 4864-4872, Gyeongju, Republic of Korea, October 2022. International Committee on Computational Linguistics. [9] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics. [10] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese general language understanding evaluation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 2957-2966, Marseille, France, June 2022. European Language Resources Association. [11] Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel Bowman. GLUE: A multi-task benchmark and analysis platform for natural language understanding. In Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 353-355, Brussels, Belgium, November 2018. Association for Computational Linguistics. [12] Guillaume Wenzek, Marie-Anne Lachaux, Alexis Conneau, Vishrav Chaudhary, Francisco Guzmán, Armand Joulin, and Edouard Grave. CCNet: Extracting high quality monolingual datasets from web crawl data. In Proceedings of the Twelfth Language Resources and Evaluation Conference, pp. 40034012, Marseille, France, May 2020. European Language Resources Association. [13] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised cross-lingual representation learning at scale. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8440-8451, Online, July 2020. Association for Computational Linguistics. [14] Sho Takase, Shun Kiyono, Sosuke Kobayashi, and Jun Suzuki. On layer normalizations and residual connections in transformers. arXiv preprint arXiv:2206.00330, 2022. [15] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020. [16] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. 2019 [17] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019. [18] Mohammad Shoeybi, Mostofa Patwary, Raul Puri, Patrick LeGresley, Jared Casper, and Bryan Catanzaro. Megatron-LM: Training multi-billion parameter language models using model parallelism. arXiv preprint arXiv:1909.08053, 2019. [19] Marius Mosbach, Maksym Andriushchenko, and Dietrich Klakow. On the stability of fine-tuning BERT: misconceptions, explanations, and strong baselines. In 9th International Conference on Learning Representations, ICLR 2021, Virtual Event, Austria, May 3-7, 2021. OpenReview.net, 2021. [20] Tianyi Zhang, Felix Wu, Arzoo Katiyar, Kilian Q. Weinberger, and Yoav Artzi. Revisiting few-sample BERT fine-tuning. In 9th International Conference on Learning Representations, ICLR 2021, Virtual Event, Austria, May 3-7, 2021. OpenReview.net, 2021 . ## A ハイパーパラメータ 実験(第 4 節)で用いたハイパーパラメータの一覧を表 3 に示す. それぞれの值は先行研究 $[17,18,19,20]$ による推奨値を参考にして設定した. 表 3 ハイパーパラメータの一覧
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q3-4.pdf
# Learning Representations of Natural Language Edits via Levenshtein Prediction Edison Marrese-Taylor ${ }^{1,3}$, Machel Reid ${ }^{2,3}$, Alfredo Solano ${ }^{3}$ ${ }^{1}$ AIST, ${ }^{2}$ Google Research, ${ }^{3}$ The University of Tokyo edison.marrese@aist.go.jp machelreid@google.com asolano@weblab.t.u-tokyo.ac.jp ## 概要 In this paper, we propose a novel approach that employs token-level Levenshtein operations to learn a continuous latent space of vector representations to capture the underlying semantic information with regard to the document editing process. We find that, our proposed method trained on the adversarial paraphrase dataset, PAWS, outperforms a strong RoBERTa baseline, retaining the language understanding performance of its base model. ## 1 Introduction Editing documents has become a pervasive component of many human activities [1]. This is, to some extent, explained by the advent of the electronic storage of documents, which has greatly increased the ease with which we can edit them. From source code to text files, specially over an extended period of time, users often perform edits that reflect a similar underlying change. For example, software programmers often have to deal with the task of performing repetitive code edits to add new features, refactor, and fix bugs during development. On the other hand, right before a conference deadline technical papers worldwide are finalized and polished, often involving common fixes for grammar, clarity, and style [2]. In light of this, it is reasonable to wonder if it would be possible to automatically extract rules from these common edits. This has led researchers to recently propose the task of learning distributed representations of edits [2] using an auto-encoding approach. Auto-encoding approaches have been used previously in the context of representation learning initially in the visual domain, but more recently have been extended to the natural language and video modalities. These approaches largely form the foundation of "self-supervised learning" which enables the learning of representations via objectives which solely require a source datum. An instance of this relevant to NLP is that of the pre-trained masked language model, BERT [3], in which a source text is initially corrupted with a mask token $[\mathrm{MASK}]$ and then reconstructed into the original form with a Transformer encoder. As an alternative to this approach, other works have instead produced representations of edits in an indirect manner, by instead focusing directly on edit-centric downstream tasks such as edit-based article quality estimation on Wikipedia [4, 5], English grammatical error correction (GEC), and machine translation post-editing. Machine translation post-editing, where humans amend machine-generated translations to achieve a better final product [6], has more directly addressed the problem of modelling different editing agents [7] Finally, edits are also relevant for GEC, which has attracted recent interest from the research community with several shared tasks being organized in the last years [8]. In this paper, differently from existing prior work, we propose a continued pre-training task, not based on autoencoding, which aims directly at learning distributed representations of natural language edits. In particular, we look at using the Levenshtein algorithm as a form of supervision to encourage a model to learn to convert a given input sequence into a desired output sequence, namely an edit. In particular, we look to answer the question of whether creating a "neural Levenshtein algorithm" is conducive to improved downstream performance on edit-based tasks, given the edit-centricity of the algorithm. Our results show that our proposed pre-training technique leads to better performance on the adversarial para- phrase dataset PAWS, outperforming a strong baseline based on RoBERTa [9] while also retaining the language understanding performance of its base model (RoBERTa). ## 2 Related Work [2] was the seminal work in proposing to directly learn edit representations by means of a task specifically designed for this purpose, based on auto-encoding. While their ideas were tested on both source code and natural language edits, the work of [10] proposed a similar approach that is specifically tailored at source code. After that, [11] proposed a variation of this model where a latent variable is introduced as a means to capture properties of Natural Language Edits. Additionally, the authors used the obtained latent vectors to represent edits and tested on a selection or edit-centric tasks. Different from the above, other works have instead produced representations of edits in an indirect manner, by directly focusing on specific edit-centric downstream tasks. For example, [4] proposed obtaining edit representations that are useful to predict changes in the quality of articles by tackling this task as an edit-level classification problem. Similarly, [5] proposed to improve quality assessment of Wikipedia articles by introducing a model that jointly predicts the quality of a given Wikipedia edit and generates a description of it in natural language. Another related task is machine translation post-editing, where humans amend machine-generated translations to achieve a better final product, where recent work has more directly addressed the problem of modelling different editing agents [7]. Finally, edits are also relevant for English grammatical error correction (GEC), which has attracted recent interest from the research community with several shared tasks being organized in the last years [8]. ## 3 Proposed Approach We propose a new pre-training task based on selfsupervision. In particular, we look at using the Levenshtein algorithm as a means of pushing a model to learn to convert a given input sequence into a desired output sequence. The Levenshtein algorithm has been used in previous work on learning edit-based generative models [12,13] thanks to its objective of finding the shortest edit path from a given source sequence to a target sequence. However, instead of purposing the algorithm for generation, in this work we look to see if we can include this objective from a natural language understanding (NLU) perspective. In particular, we look to assess whether Transformer encoder representations can be trained to contain information relevant to an edit, which we hypothesize can be achieved by directly predicting relevant operations and their associated tokens - as produced by an oracle Levenshtein algorithm. Let $x_{-}$be the original version of an object, and $x_{+}$its form after a change/edit has been applied. We assume that both $x_{-}$and $x_{+}$are sequences of tokens such that $x_{-}=\left[x_{-}^{1}, \ldots, x_{-}^{n}\right]$ and $x_{+}=\left[x_{+}^{1}, \ldots, x_{+}^{m}\right]$. We use a fast implementation of the Levenshtein algorithm to identify spans of tokens that have been replaced, inserted or deleted as a result of the edit, and define token-level edit operation labels to indicate how each token was changed. Concretely, we first tokenize the pair $\left(x_{-}, x_{+}\right)$, then use the Levenshtein algorithm to identify the text spans that have changed, and finally further process this output to assign token-level labels capturing the transformations required to convert $x_{-}$into $x_{+}$. Let $x_{-}^{i: j}$ be the sub-span on $x_{-}$ that goes from positions $i$ to $j$, our post-processing works as follows. - When a span has been inserted between positions $x_{-}^{i: j}$, such that it appears in $x_{-}^{k: j}$, we label the tokens in the latter as INSERTER, and also label token $x_{-}^{k-1}$, as INSERT. We do this to provide the model with context of where the insertion was performed, in terms of the $x_{-}$. - Similarly, if the token $x_{-}^{i: j}$ has been replaced by the $\operatorname{span} x_{-}^{k: l}$, we label the tokens on the respective spans as REPLACE and REPLACER. - If the span $x_{-}^{i: j}$ has been removed from the sequence as a result of the edit, we label each token as DELETE. - Tokens that have not been directly involved in the edit are not labeled (we represent this using the empty label denoted as $\mathrm{O}$ ). As a result of our post-processing, each token in both $x_{-}$ and $x_{+}$is mapped to a single Levenshtein operation label: REPLACE, REPLACER, INSERT or INSERTER, as shown in Figure 1. The end goal of our proposed pretraining task is to predict these token-level Levenshtein operations, which, as explained, encode the operations relevant to transform $x_{-}$into $x_{+}$. The input to our model is constructed by first prepending 図 1 Example of model input-output for the edit defined by the sequences "My name is John" and " My last name is Wayne", where the label $\mathrm{O}$ denotes tokens that have not been directly involved in the edit. the [CLS] token to $x_{-}$and $x_{+}$, which are separated using the [SEP] token, whose total length we denote as $l=m+n+2$. This input is embedded and then fed to an L-layer Transformer encoder, which can be initialized with a pre-trained model, that returns a sequence of hidden representations $\boldsymbol{h}_{0}, \ldots \boldsymbol{h}_{l}$. We add a classification head (a simple linear classifier) and require the model to predict the corresponding label for each token, ignoring tokens that have not been directly involved in the edit (label O), using a cross entropy loss $\left(\mathscr{L}_{\text {Lev }}\right)$. We also consider an additional mechanism to enrich the quality of the learned representations, which is based on techniques that have proven useful in previous work [11]. Concretely, we note that the vector associated to the [CLS] token $\left(\boldsymbol{h}_{0}\right)$ is frequently used to represent the complete model input when using Transformer models such as ours. Since there is no specific token-level Levenshtein label associated to this token, we propose to encourage its representation to contain information about the overall edit. We do this by requiring our model to predict the set of tokens that have been changed in the edit in an unordered fashion, using a separate model head (again, simple linear projection) which receives this representation as input. $ f=\operatorname{MLP}\left(\boldsymbol{h}_{0}\right) \in \mathbb{R}^{|\mathbb{V}|} $ As shown in Equation 1 above, we use this additional head to project $\boldsymbol{h}_{0}$, the hidden representation for the [CLS] token, to $|\mathbb{V}|$, the vocabulary size. We then let our model minimize the loss function defined in Equation 2, where $x_{\Delta}$ is the set of tokens that has been changed (inserted, replaced or removed). Finally, the total loss used to train our model is the simple summation of the above introduced losses, $\mathscr{L}=\mathscr{L}_{\text {Lev }}+\mathscr{L}_{x_{\Delta}}$. $ \mathscr{L}_{x_{\Delta}}:=\log p\left(x_{\Delta} \mid \boldsymbol{h}_{0}\right)=\log \prod_{t=1}^{\left|x_{\Delta}\right|} \frac{\exp \left(f_{x_{t}}\right)}{\sum_{j}^{V} \exp \left(f_{j}\right)} $ ## 4 Experimental Setup Pre-training Datasets To pre-train our model, we utilize large available corpora containing natural language edits in a variety of topics and domains. We specifically rely on two datasets of edits extracted from Wikipedia, WikiAtomicEdits [14] and WikiEditsMix [11]. As shown in Table 1, we specifically work with two sub-portions of the WikiAtomicEdits, WikiInsertions and WikiDeleTIONS, which respectively contain examples where only additions or deletions are present. These two portions are concatenated and used as a whole. Since pre-training is computationally very expensive, we first use WIKIEDITSMIX, which is much smaller, as a test-bed for ablation experiments regarding the $x_{\Delta}$ loss. 表 1 Details of the data utilized for pre-training. Downstream Tasks Our pre-training approach aims at generating a generic edit encoder that is useful in a broad variety of situations involving edits. To that end, we select specific datasets to probe the ability of the model to solve edit-related tasks, and also to make sure that our training procedure does not lead to catastrophic forgetting, making the model lose the utility of the representations acquired during the original masked language model's pre-training. For the former, we propose to use PAWS [15], an adversarial dataset for paraphrasing detection, which is strongly correlated to edits, as paraphrases are defined as sentences that are semantically similar to each other. We test both fine-tuning and zero-shot abilities on this model. For the latter, we look at the widely-used GLUE benchmark [16] and select the MNLI dataset to test that language entailment capabilities remain. Evaluation For evaluation of our pre-training phase, we utilize the per-token classification F1-Score, and also compute the overall F1-Score. Regarding the downstream tasks, we use accuracy, which is the de facto metric for both MNLI and PAWS. Implementation Details Our model is initialized with RoBERTa [9], which we adopt as our baselines for all of our downstream experiments. We use fairseq [17] to implement our model and perform distributed pre-training 表 2 Performance of our model on our pre-training Levenshtein Prediction task. using 16 NVIDIA V100-16G GPUs, and fine-tuning with a single GPU. We access these by means of nodes on a large cluster, where each node has four GPUs. We use the Adam optimizer with a learning rate of 1e-4 for pre-training, and 1e-3 for fine-tuning on the downstream tasks. ## 5 Experiments and Results As can be seen in Table 2, all of our models attain an excellent performance on the pre-training task, with an overall F1-Score of more than $90 \%$ across edit labels. We believe this shows our the encoder is capable of successfully predicting the relevant operations generated by our oracle Levenshtein editor, suggesting that the learned representations may indeed contain information relevant to the changes that are introduced. Regarding the impact of our proposed $x_{\Delta}$ loss during pre-training, as seen on our ablation results performance in Table 2, we see that $x_{\Delta}$ as a positive impact on the overall performance of the model in the WIKIEDITSMIX dataset increasing the F1-Score my more than 0.5 points. This result is consistent with previous work, validating the contribution of this loss applied to our setting. In light of this finding, our final model includes both of our proposed losses and is pre-trained on WIKIINSERTIONS. Table 3 summarizes our results on the downstream tasks. As can be seen, when fine-tuned, our model is able to outperform our strong RoBERTa baseline in the adversarial paraphrase dataset, PAWS, suggesting that the representations induced by our Levenshtein prediction loss indeed help the model learn relevant information about edits. Moreover, we also observe that the model is able to attain such increased performance while still retaining the language understanding capabilities of its base model, as suggested by the performance on the MNLP dataset, which remains constant.表 3 Performance of our model and baseline based on RoBERTa on our selected fine-tuning tasks, where ZS stands for Zero Shot. ## 6 Conclusions and Future Work This paper proposes a novel approach for training a general-purpose edit representation model, which is not based on auto-encoding. Concretely, we propose a predictive task based on token-level Levenshtein operations where the token-level labels encode the set of operations necessary to transform a given input sentence into an output sentence. We find that a model initialized with RoBERTa and trained with our proposed loss, is able to outperform the baseline on the task of adversarial paraphrasing detection on PAWS, while retaining the language understanding performance of its base model. We think this evidence supports the idea that creating a neural model that implements the Levenshtein algorithm is conducive to improved downstream performance on edit-based tasks, suggesting a potential new path for the future of pre-training. For future work, we are interested in further testing our pre-trained model on more downstream tasks relevant to edits, and in combining our proposed loss with the masked language modelling task for more efficient and effective training. ## Acknowlegments Computational resource of AI Bridging Cloud Infrastructure (ABCI) provided by National Institute of Advanced Industrial Science and Technology (AIST) was used for the experiments in this paper. ## 参考文献 [1] Anders Miltner, Sumit Gulwani, Vu Le, Alan Leung, Arjun Radhakrishna, Gustavo Soares, Ashish Tiwari, and Abhishek Udupa. On the fly synthesis of edit suggestions. Proceedings of the ACM on Programming Languages, Vol. 3, No. OOPSLA, pp. 143:1-143:29, October 2019. [2] Pengcheng Yin, Graham Neubig, Miltiadis Allamanis, Marc Brockschmidt, and Alexander L. Gaunt. Learning to Represent Edits. In Proceedings of the 7th International Conference on Learning Representations, 2019. [3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [4] Soumya Sarkar, Bhanu Prakash Reddy, Sandipan Sikdar, and Animesh Mukherjee. StRE: Self Attentive Edit Quality Prediction in Wikipedia. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3962-3972, Florence, Italy, July 2019. Association for Computational Linguistics. [5] Edison Marrese-Taylor, Pablo Loyola, and Yutaka Matsuo. An Edit-centric Approach for Wikipedia Article Quality Assessment. In Proceedings of the 5th Workshop on Noisy User-generated Text (W-NUT 2019), pp. 381-386, Hong Kong, China, November 2019. Association for Computational Linguistics. [6] L. Specia, K. Harris, A. Burchardt, M. Turchi, M. Negri, and I. Skadina. Translation Quality and Productivity: A Study on Rich Morphology Languages. pp. 55-71, 2017. [7] António Góis and André F. T. Martins. Translator2Vec: Understanding and Representing Human Post-Editors. In Proceedings of Machine Translation Summit XVII Volume 1: Research Track, pp. 43-54, Dublin, Ireland, August 2019. European Association for Machine Translation. [8] Christopher Bryant, Mariano Felice, Øistein E. Andersen, and Ted Briscoe. The BEA-2019 Shared Task on Grammatical Error Correction. In Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 52-75, Florence, Italy, August 2019. Association for Computational Linguistics. [9] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A Robustly Optimized BERT Pretraining Approach. arXiv:1907.11692 [cs], July 2019. [10] Rui Zhao, David Bieber, Kevin Swersky, and Daniel Tarlow. Neural Networks for Modeling Source Code Edits. In Proceedings of the 7th International Conference on Learning Representations, 2019. [11] Edison Marrese-Taylor, Machel Reid, and Yutaka Matsuo. Variational Inference for Learning Representations of Natural Language Edits. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 35, No. 15, pp. 13552-13560, May 2021. [12] Machel Reid and Victor Zhong. LEWIS: Levenshtein Editing for Unsupervised Text Style Transfer. In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 3932-3944, Online, August 2021. Association for Computational Linguistics. [13] Nabil Hossain, Marjan Ghazvininejad, and Luke Zettlemoyer. Simple and Effective Retrieve-Edit-Rerank Text Generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 2532-2538, Online, July 2020. Association for Computational Linguistics [14] Manaal Faruqui, Ellie Pavlick, Ian Tenney, and Dipanjan Das. WikiAtomicEdits: A multilingual corpus of Wikipedia edits for modeling language and discourse. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 305-315, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. [15] Yinfei Yang, Yuan Zhang, Chris Tar, and Jason Baldridge. PAWS-X: A cross-lingual adversarial dataset for paraphrase identification. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP), pp. 3687-3692, Hong Kong, China, November 2019. Association for Computational Linguistics. [16] Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel Bowman. GLUE: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding. In Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 353-355, Brussels, Belgium, November 2018. Association for Computational Linguistics. [17] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. Fairseq: A Fast, Extensible Toolkit for Sequence Modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 48-53, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q3-5.pdf
# ByT5 の Attention を用いたトークン結合 田中康紀 須藤克仁 中村哲 奈良先端科学技術大学院大学 \{tanaka.koki.tk9, sudoh, s-nakamura\}@is.naist.jp ## 概要 ニューラルネットを用いた自然言語処理では,事前学習済みモデルを fine-tuning することでタスクを高精度に解ける. 自然言語の入力は多くのモデルにおいて単語やサブワード等トークンへの分割を前提としている.この手法は誤分割や, 語彙の修正後にモデルの再学習が必要な欠点を持つ. これらは文字レベルのトークン分割により緩和できるが, 長系列化と, トークンと意味の不一致を起こす. 本研究では,バイトレベルに分割するモデル ByT5 を文字レベル分割とみなし, Attentionを元にトークンを結合し,両者の解決を試みた。テキスト分類実験においてランダムに結合する手法に比べ 1.8 ポイントの分類精度向上, ByT5 に比べ 1.78 倍の高速化を示した. ## 1 はじめに ニューラルネットを用いた自然言語処理では,事前学習済みモデルを用いて下流タスクに fine-tuning させることで,生成タスクや分類タスクを高精度に解くことができる. 現在ある多くのモデルは入力文字列を単語やサブワード等のトークンに分割するトークン化を行う手法が主流となっている. しかし,トークン化は語彙に無いトークンに対する過剩分割や,未知語に起因する精度低下,トークナイザを更新するとモデルの再学習が必要であり技術的負債を生むという欠点を持つ. 文字列を全て文字に分解する文字レベルトークン化を用いると,これらの問題を緩和できる。一方で,文字レベルトークン化は文字トークンと意味が対応しない,シーケンス長も単語やサブワードを用いた場合と比べて長くなる問題が起こる. 本研究では,バイトレベルにトークン化する ByT5 のトークンを,英語データセットに対して文字レベル分割とみなし, Attention 情報を利用しモデル内部でトークン結合を行う方法を提案する.これにより, 処理速度の向上と意味のまとまりを持ったトークンの保持による精度の向上を目指 す. 英語のテキスト分類タスクでランダムに結合する手法と比べ分類精度の向上, ByT5 と比べ単位時間あたりの処理数の向上を実験により確認した. ## 2 関連研究 Sutskever ら [1] はニューラルネットを用いた翻訳で,文字レベル入力を導入した. Peter ら [2] は文字レベルの入力を結合する $\mathrm{CNN}$ 層を導入したモデルを提案した. Radford ら [3] は,入力文字列をトークン化する際に,語彙にバイトレベルの文字を含めて細分化するバイトレベル Byte Pair Encoding を導入することでことで未知語を極めて少なくした.明示的にトークナイザを用いない Transformer ベースのアーキテクチャとして charfomer [4], CANINE [5], characterBERT [6] がある。これらは入力を文字レべルにし, 語彙用の層を事前学習で獲得する手法である. ByT5 [7] では,基本構成は $\mathrm{T} 5$ [8] と変えず,その層数を変えることで,語彙用の特別な層を持たずして,サブワードレベルのモデルである mT5 [9] と一部タスクで近い性能を出すことを示した。一方で,文字レベルのモデルとサブワードレベルのモデルが同程度の性能を達成した際の各々の獲得した隠れ層や,位置埋め込み, Attention 行列の具体的な差異に関しては議論がまだ活発ではない。 Transformer モデルの長文入力への対応方法として, Zaheer ら [10] は, Attention を疎な行列計算とみなし, 計算量を減らした. Kitaev ら [11] は近傍のトークンに注目することで Attention の計算量をシー ケンス長 $L$ に対して $O\left(L^{2}\right)$ から $O(L \log L)$ に削減した. Beltagy ら [12] は複数サイズのウィンドウにより Attention の見る位置を絞ることで,長文であっても Attention の計算量を減らすことを可能にした。 Goyal ら [13] は, BERT [14] の Attention が強いもののみを抽出することで,トークンを削除し,処理の高速化を実現した. ByT5 は計算量の削減をシー ケンス長を減らすのではなく, Deocderを浅くすることで実現している. 本研究では, ByT5に対して, 語彙に依存しない点を残したまま,シーケンス長の削減を導入する。 ## 3 提案手法 本研究ではバイトレベルにトークン化するモデルである ByT5 のトークンをモデル内部で Attention に基づいて結合する手法を提案する。提案手法の概要を図 1 に示す. 英語のみ扱うタスクへ fine-tuning することから,ByT5 が取り扱う UTF-8 形式では,概ね 1 文字 1 バイトに対応すると仮定できる. 長さ $L$ の文字列 $\boldsymbol{c}=\left(c_{1}, \ldots, c_{i}, \ldots, c_{L}\right)$ が与えられ,各 $c$ に対応する隠れ層出力を $\boldsymbol{v}$ とすると,以下のような処理により新たなべクトル $v^{\prime} を$ 得る。 はじめに,局所的な Attention 情報を利用したいことから,浅い層である Encoder ブロック 2 層目の Attention 行列を参照し, Head 方向へ平均をとる. $ \bar{A}=\frac{1}{H} \sum_{h}^{H} A_{h} $ 次に, Attention 行列を query 方向へ平均をとり, これを Significance Score とする. $ \operatorname{Sig}(c)=\frac{1}{L} \sum_{l}^{L} \bar{A}\left[c_{l}, c\right] $ 続いて,各文字ごとの Significance Score を並べ, その中から上位 $\mathrm{k}$ 個を抽出し, $\boldsymbol{c}^{\prime}$ とする. $ \begin{aligned} & \operatorname{Sig}(\boldsymbol{c})=\left(\operatorname{Sig}\left(c_{1}\right), \ldots, \operatorname{Sig}\left(c_{L}\right)\right) \\ & \boldsymbol{c}^{\prime}=\operatorname{topk}(\operatorname{Sig}(\boldsymbol{c}))=\left(c_{1}^{\prime}, \ldots, c_{k}^{\prime}\right) \end{aligned} $ $c_{i}^{\prime}$ から $c_{i+1}^{\prime}$ の一つ前までの $c$ に対応する文字列を segment と呼び, $s_{i}$ とおく. 各 $s_{i}$ の含む文字 $c$ に対応する隠れ層出力の平均をとり,新たに $\boldsymbol{v}_{i}$ とする。 $ v_{i}^{\prime}=\frac{1}{\left|s_{i}\right|} \sum_{c \in s_{i}} v_{c} $ 先頭文字トークン $c_{1}$ が上位 $\mathrm{k}$ 個に選択されなかった場合, $c_{1}$ から $c_{1}^{\prime}$ の前までの $c$ に対応する文字列を $s_{0}$ とし,その文字に対応するべクトルの平均を先頭に追加する。 $ v_{0}^{\prime}=\frac{1}{\left|s_{0}\right|} \sum_{c \in s_{0}} v_{c} $ また,終端トークン</s> は special token であることから,常に一つのトークンとして扱う.よって上 query方向に平均をとる(式(1)) $\mathbf{v}_{\text {Kubernetes }}^{\prime}=\frac{1}{\left|s_{1}\right|}\left(\mathbf{v}_{\mathrm{K}}+\mathbf{v}_{\mathrm{u}}+\mathbf{v}_{\mathrm{b}}+\cdots+\mathbf{v}_{\mathrm{t}}+\mathbf{v}_{\mathrm{e}}+\mathbf{v}_{\mathrm{s}}\right)$ 各segmentに対して同様の操作を行う $\begin{array}{lllll}\mathbf{v}_{\text {Kubernetes }}^{\prime} & \mathbf{v}_{\text {is }}^{\prime} & \mathbf{v}_{\text {abberviated }}^{\prime} & \mathbf{v}_{\text {as }}^{\prime} & \mathbf{v}_{\text {k8s. }}^{\prime} . \\ \text {. }\end{array}$ 図 1 文字トークン結合の流れ 位 $\mathrm{k}$ 個に選択されなかった場合,以下のようにべクトルを追加する。 $ \boldsymbol{v}_{k+1}^{\prime}=\boldsymbol{v}_{</ \mathrm{s}>} $ 以上の操作で得られたべクトル $\boldsymbol{v}^{\prime}$ E Encoder ブロックの 3 層目に入力し, 以降の層へ伝播させる. パラメータは事前学習済みモデルから再利用し,下流タスクへ fine-tuningする。 ## 4 実験 ByT5 の Attention 情報を利用したモデル内部での文字トークン結合が,トークンの意味の獲得による精度の向上と速度の改善に効果があるかを実験により検証した。提案手法は,"e"と"ee"といった連続文字列を式 (4) で平均化後に再度生成することは難しいことから,分類タスクで実験を行った。 ## 4.1 実験タスク 英語のテキスト分類タスクとして SST-2 [15]を用いた.これはテキストに含まれる感情を 2 値分類するタスクである.実験はランダムに $k$ 個のトークンを指定して結合する手法をべースラインとし,強い Attention を先頭に結合する提案手法に意味があるの かを調べた. 加えて, 空白で区切って結合する単語レベルトークン化, Goyal ら [13] の手法に基づいて実装した Attention の強いトークンのみを抽出する手法,ByT5の fine-tuning により実験した.ByT5では,全ての Encoder 層で文字トークンに対して同じ相対位置埋め込みのパラメータを共有している。一方提案手法では, 文字レベルの位置情報と, 結合後のトークン位置情報が異なると考えられることから, トークン獲得後の層である 3 層目以降の Attention で 1 層目とは異なる位置埋め込みのパラメータを用いた. なお,予備実験でこれらの手法で大きな差は確認できなかったため,その比較は省略する。 いずれの実験も、バッチサイズ 12, 学習率 4e-5 で 40 エポック学習させたのちに、validation データに対して最も accurary が高いものを用いて、test デー タで accuracyを算出した. シーケンス長は、 $\mathrm{mT5}$ が ByT5 の平均トークン長の $1 / 4.1$ 倍であることから、 それよりも平均で短くなる $1 / 5$ 倍の長さになるように式 (3) の $k$ を設定した. 実験は異なるランダムシードで 5 回行い,その平均により算出した. 処理速度は,testデータの単位時間あたりのイテレーション数を比較した. 実験は CPU AMD EPYC 7742 64-Core, メモリ 1TB, GPU NVIDIA A100-SXM $40 \mathrm{~GB}$ ,バッチサイズ 12 で行った. なお,提案手法は文字トークンの結合処理を CPU 上で行うことから,処理速度は GPU 以外の条件にも依存する。 ## 4.2 実験結果 表 1 は,文字トークンの選択手法を変更した際の実験結果である. 提案手法はベースラインであるランダムに文字トークンを選択し結合した場合に比ベ, 1.8 ポイント高い結果となった. また, Attention の強いトークンを抽出する手法に比べ, 3.2 ポイント高く, 空白で区切る単語レベルトークン化を行う場合よりも 0.8 ポイント高くなった. 提案手法は ByT5-base と比較して 6\%ほど精度を落とすが,表 2 に示すように,単位時間あたり 1.78 倍のイテレー ションを実行する事が可能になった。 5 回の実験結果における混同行列の平均を表 4 に示す. 学習データには Positive/Negative いずれも同数含まれている. ByT5-base では若干 Positive 判定が大きかったが,提案手法では Positive と Negative いずれもほぼ同数の判定となった.表 1 SST-2 における $\operatorname{accuracy}(\%)$ ランダムに選択し結合 (ベースライン) 83.5 Attention から選択し結合 (提案手法) 85.3 空白を選択し結合 84.5 Attention から選択し抽出 82.1 ByT5-base 90.6 表 2 各モデルの処理速度の比較 ## 5 考察 ## 5.1 トークンの獲得 表 1 より,ランダムに文字トークンを結合する手法と比較して, Attention の上位 $\mathrm{k}$ 個を用いて文字トークンを結合する方法は accuracy が 1.8 ポイント高い.これより Attentionのまとまりは,意味のまとまりを示す情報を持っていると考えられる。 また,表 1 より提案手法は accuracy では ByT5 に及ばなかった. Transformerアーキテクチャは, 全体から自身のべクトルを再構成しているため,周りの文字トークンの結合による意味を持ったトークン獲得は, Attention の計算で既に行われていたと考えられる. accuracy が ByT5 より下回った原因として,提案手法は式 (4) で文字トークンを平均化していることから,分類タスクを選択したが,本手法は分類タスクでも必要な情報が消えたと考えられる.表 3 は,結合する層を変更した際の実験結果である。より上位の層で結合するほど, accuracy は高い結果となっており, 処理速度と精度はトレードオフの関係にある。提案手法は低い層で結合したことから,事前学習と大きく異なる情報を結合以降の層に伝えたことも精度低下の原因であると考えられる.より事前学習を再利用できるトークンの結合方法が存在すれば,この低下は緩和できると考えられる。 図 1 中のスペース区切りの実験結果と比較して,提案手法の方が精度が高い. ニューラルネットによる自然言語処理では,単語モデルよりサブワードモデルの方がタスクを解くのに適していることは, Sennrich ら [16] や Kudo ら [17] も示しており, 本実験結果もニューラルネットワークで分類タスクを解 表 3 異なる層で結合した実験結果 2 層目 (提案手法) 85.2 6 層目 87.1 12 層目 89.6 表 45 回の実験における混同行列の平均 (a)ByT5 (b) 提案手法 Predicted Predicted く際には,必ずしも単語レベルのトークン化が適しているわけではなく,単語とは異なるより適した最小単位が存在することを示しているとわかる. ## 5.2 トークンの文字列としての意味 validation データに対するトークン化の例を表 5 に示す. 入力のプレフィックスである, "sst2 sentence:" がいずれのパターンも先頭トークンとして文字列に結合されていることがわかる。これは, fine-tuning の際に全てのタスクに付属していることから,細分化の必要がないと学習したため獲得できたと考えられる。表 5 の 1 例目で” affecting”という単語が確認できるように,一部は単語としての意味を持ったトークンの結合ができている。 一方で,サブワードにトークン化する際,一般的に 1 つのトークンとされる"and"や"ing"のような,複数文で共通の部分文字列が結合されている様子は確認できない. 本研究では fine-tuning では,2 值分類タスクを行ったため, スペースを区切りとした簡易的な結合は獲得できたものの,サブワードのように,共通部分の結合を獲得するにはタスクが簡素であったと考えられる。 ## 5.3 Attention 行列の差異 表 2 は, validation データのうちの一つである, "sst2 sentence: i had to look away - this was god awful ."を ByT5-base と提案手法の両者に入力した画像である. それぞれ,2,3,12 層目の Attention 行列をそれぞれ Head 方向に平均をとった. 提案手法の Attention 行列は,ByT5-base と同様に,Encoder 最終層では query 方向の強い値が連続していることが見てとれる. 従って,文字トークン結合後も,各トークンに対して Attention が機能していると考えられる。一方で,ByT5 の Attention 行列の対角成分は,残差ネッ表 5 validation データに対する結合例 入力文 sst 2 sentence: it 's a charming and often affecting journey . 結合結果 sst2_sentence:_it's_ / a_ / cha / r / ming_and_o / fte / n_ / affecting_ / jo / urne / y_ / . / <s> 入力文 sst2 sentence: unflinchingly bleak and desperate 結合結果 sst2_sentence:_ / unf / linc / hingly_ble / a / k_and_ / / des / pe / r / ate / <s> トワークにより,自身を再構成が容易なことから,小さい值となっているが,提案手法である結合後の Attention 対角成分にそのような様子は見られない. これは,トークンの結合を残差ネットワークの後に設定したため学習されなかったと考えられる. 図 2 Attention 行列の様子 ## 6 おわりに 本研究では,バイトレベルにトークン化するモデルである ByT5 に,語彙に依存しない利点を維持したままシーケンス長を削減する手法を提案した. テキスト分類実験において,ランダムに文字トークンを選択し結合する手法と比較して精度の向上を確認し,ByT5-base と比較して精度の下落を小さく抑え,処理速度の向上を確認できた。表現能力の担保を調べるためには,今後生成タスクでも検証する必要がある.文字トークン結合時に情報を脱落させないためには,文字レベルのトークンがサブワードトークンと比較して,具体的にどのような情報を保持しているかを解明し,それらを維持したまま事前学習済みの層へ伝播させる方法の研究が必要である. ## 7 謝辞 本研究の一部は科研費 $21 \mathrm{H} 03500$ と $21 \mathrm{H} 05054$ の助成を受けたものである. ## 参考文献 [1] Ilya Sutskever, James Martens, and Geoffrey Hinton. Generating text with recurrent neural networks. In Proceedings of the 28th International Conference on International Conference on Machine Learning, ICML'11, p. 1017-1024, Madison, WI, USA, 2011. Omnipress. [2] Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, and Luke Zettlemoyer. Deep contextualized word representations. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 2227-2237, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [3] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. 2019. [4] Yi Tay, Vinh Q. Tran, Sebastian Ruder, Jai Gupta, Hyung Won Chung, Dara Bahri, Zhen Qin, Simon Baumgartner, Cong Yu, and Donald Metzler. Charformer: Fast character transformers via gradient-based subword tokenization, 2021. [5] Jonathan H. Clark, Dan Garrette, Iulia Turc, and John Wieting. Canine: Pre-training an efficient tokenization-free encoder for language representation. Transactions of the Association for Computational Linguistics, Vol. 10, pp. 73-91, 2022. [6] Hicham El Boukkouri, Olivier Ferret, Thomas Lavergne, Hiroshi Noji, Pierre Zweigenbaum, and Jun'ichi Tsujii. CharacterBERT: Reconciling ELMo and BERT for wordlevel open-vocabulary representations from characters. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 6903-6915, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics. [7] Linting Xue, Aditya Barua, Noah Constant, Rami Al-Rfou, Sharan Narang, Mihir Kale, Adam Roberts, and Colin Raffel. ByT5: Towards a Token-Free future with pre-trained Byte-to-Byte models. Transactions of the Association for Computational Linguistics, Vol. 10, pp. 291-306, 2022. [8] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020. [9] Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, and Colin Raffel. mT5: A massively multilingual pre-trained textto-text transformer. In Proceedings of the 2021 Con- ference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 483-498, Online, June 2021. Association for Computational Linguistics. [10] Manzil Zaheer, Guru Guruganesh, Kumar Avinava Dubey, Joshua Ainslie, Chris Alberti, Santiago Ontanon, Philip Pham, Anirudh Ravula, Qifan Wang, Li Yang, et al. Big bird: Transformers for longer sequences. Advances in Neural Information Processing Systems, Vol. 33, , 2020. [11] Nikita Kitaev, Lukasz Kaiser, and Anselm Levskaya. Reformer: The efficient transformer. January 2020. [12] Iz Beltagy, Matthew E Peters, and Arman Cohan. Longformer: The Long-Document transformer. April 2020. [13] Saurabh Goyal, Anamitra R Choudhury, Saurabh Raje, Venkatesan T Chakaravarthy, Yogish Sabharwal, and Ashish Verma. PoWER-BERT: Accelerating BERT inference via progressive word-vector elimination. In International Conference on Machine Learning. International Machine Learning Society (IMLS), February 2021. [14] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [15] Richard Socher, Alex Perelygin, Jean Y Wu, Jason Chuang, Christopher D Manning, Andrew Y Ng, and Christopher Potts. Recursive deep models for semantic compositionality over a sentiment treebank. https://nlp.stanford. edu/ socherr/EMNLP2013_RNTN. pdf. Accessed: 202212-12. [16] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, Berlin, Germany, August 2016. Association for Computational Linguistics. [17] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q3-6.pdf
# SentencePiece の重複語入れ替えによる 日本語 T5 への言語モデル追加 高野 志歩 1 相馬 菜生 ${ }^{2}$ 田村 みゆ ${ }^{1}$ 梶浦 照乃 ${ }^{1}$ 倉光 君郎 ${ }^{2}$ 1 日本女子大学大学院 理学研究科 2 日本女子大学 理学部 m1816053ts@ug.jwu.ac.jp kuramitsuk@fc.jwu.ac.jp ## 概要 SentencePiece は、テキストから教師なし学習によって語彙モデルを構築し、ニューラルネットワークに適した字句解析を提供する。現在の多くの大規模言語モデルの事前学習で採用され、 SentencePiece は標準のひとつとなっている。本研究では、SentencePiece の語彙モデルから形態素に基づいて重複語を抽出し、新しい語彙と入れ替えることによる語彙の追加手法を提案する。これにより、大規模言語モデルに対して、数千語単位の語彙を追加する余地ができ、事前に学習されていない言語やドメインの語彙を含めた追加学習が可能になる。本論文では、2つの日本語 $\mathrm{T} 5$ に対し、6000 語程度の Python 言語の語彙 (予約語/識別子)を追加した事前追加学習モデルを構築し、重複語入れ替えによる下流タスクの精度向上について論じる。 ## 1 はじめに 大規模言語モデルは、事前に大量なテキストを学習することにより、機械翻訳や文書要約、感情分析など様々な下流タスクに適用できるモデルである。近年は、基盤モデルとも呼ばれ、自然言語処理タスクのみならず、様々な分野のニューラルネットワー クに広く採用されている。 大規模言語モデルを下流タスクに適応させる際には、適応させたい下流タスクの少量のデータをモデルに与える。しかし、事前学習時に用いたデータのドメインと、下流タスクのドメインが大きく異なるとき、下流タスクにおいてモデルが十分な性能を発揮できない領域適応に課題がある。そこで、特定のドメインに特化した語彙を追加することにより、特定ドメインにおける下流タスクの精度が向上すると期待される。 しかし、大規模言語モデルは一般的に語彙数が固定である。そのため、語彙を追加するためには工夫が必要となる。 本研究では、大規模言語モデルの語彙を構築するとき、標準的に採用されている SentencePiece[1] に着目する。SentencePiece は、テキストから教師なし学習によって語彙モデルを構築し、構築された語彙が語彙数を減らし、学習時間を短縮する効果が知られている。一方、SentencePiece の語彙は、文字列の出現頻度に基づいて字句の区切りが決まるため、形態素的に重複した語彙が含まれる。我々は、このような重複語を新しい語彙と入れ替えることによる語彙の追加手法を提案する。 本論文では、提案手法を検証するため、SentencePiece の語彙モデルを採用した日本語 T5 に対し、 3000 語程度の Python 言語の語彙 (予約語/識別子)を追加した。Python 言語の語彙は、日本語 T5には含まれないため、このような語彙追加が可能になる。 さらに、重複語の語彙入れ替えの下流タスクへの影響を調べるため、コード翻訳、コード要約という 2 種類の下流タスクの精度を比較した。 本論文では、大規模言語モデルにおける語彙の追加手法を提案し、実験結果とともに報告する。本論文の残りの構成は以下の通りである。2 節では、本研究で着目した重複語の予備調査について述べる。 3 節では、提案する語彙の追加手法についてまとめる。4節では、実験についてまとめる。5 節では、関連研究を概観し、6 節で本論文をまとめる。 ## 2 SentencePiece と重複語 SentencePiece は、ニューラル言語処理向けのトー クナイザである。本節では、SentencePiece について概説したのち、本研究で着目した SentencePiece の作成する語彙モデルに対し、どの程度重複語が含まれているか確認した予備調査の結果を述べる。 ## 2.1 SentencePiece とは SentencePiece は、言語モデルの学習データである生のテキストから最適な分割点を学習する教師なし単語分割システムである。 $\mathrm{MeCab}^{1)}$ や janome ${ }^{2)}$ のような形態素に分割するトークナイザと異なり、サブワードを用いて分割を行う点が特徴的である。 サブワードは、その語が出現する頻度によって単語を分割する手法である。高頻度の単語は 1 単語として扱われ、低頻度の単語はより短い文字や文字列に分割される。日本語や中国語のように分かち書きをしない言語では、 1 文を 1 単語として学習が行われる。 ## 2.2 重複語とは SentencePiece では、出現頻度によって語彙が決まるため、言語文法の語彙とは切れ目が異なることが生じる。例えば、「日本語は」「日本語」「は」の 3 語が語彙モデルに存在するとき、名詞の「日本語」と助詞の「は」から構成される「日本語は」が重複した存在だと捉えることができる。 このように、ある語を形態素に基づいて分割したとき、形態素が既に語彙モデルの中に存在し、重複して存在すると捉えられる場合には、ある語を重複語と考える。 ## 2.3 重複語の調査 我々は予備調査として、3つの大規模言語モデルにおける各語彙モデルの作成した語彙を分析した。調査したモデルは、mT5[2]と、2つの日本語 T5 である。まず、Google 社が公開する mT5 は、マルチタスクモデル T5 がベースであり、日本語と英語を含む 101 言語に対応する。次に、日本語 T5 の 1 つは、Megagon Labs 社が公開する t5-base-japanese-web 3)(以下、日本語 $\mathrm{T} 5(\mathrm{Meg})$ )である。日本語の Web テキストで事前学習された T5 モデルであり、日本語の語彙に特化している。最後に、日本語 $\mathrm{T} 5$ の 2 つ目は、園部勲氏が公開する t5-base-japanese-adapt 4) (以下、日本語 $\mathrm{T} 5(\mathrm{Sno})$ ) である。複数パターンから見た各モデルにおける語彙数  表 13 3つのモデルにおける各パターンの語彙数 & \\ 漢字を含む & 21,485 & 21,587 & 20,007 \\ ひらがなを含む & 6,443 & 10,549 & 9,718 \\ カタカナを含む & 2,843 & 5,223 & 5,293 \\ 数字を含む & 16,473 & 829 & 465 \\ 記号を含む & 10,679 & 559 & 635 \\ 図 1 記号として判定する字句 の違いを表 1 に示す。漢字を含む語、ひらがなを含む語、カタカナを含む語の 3 パターンを日本語語彙とし結果に着目すると、101 言語に対応するマルチリンガルなモデルである mT5 よりも、2つの日本語 T5 のほうが多い語彙を持つことがわかる。また、日本語語彙以外の重複語として数字を含む語、記号を含む語の各語彙数を確認した。このとき記号を含む語には、図 1 に示すような約 70 種類の記号が該当する。例として、 $\mathrm{mT5}$ に含まれる日本語語彙と、数字を含む語、記号を含む語を表 2 に示す。 さらに、各語彙モデルの日本語語彙に対し、形態素解析器 janomeを用いた品詞パターンの分析を行った。品詞パターンとは、その語を構成する品詞の組み合わせを指し、1つの品詞から成る語と、2 つ以上の品詞から成る語の大きく 2 種類に分けられる。このとき、1つの品詞パターンに含まれるのは、名詞や動詞といった基盤 10 個の品詞とフィラーを含めた 11 個の品詞である。 本研究のアイディアは、予備調査の結果から考えられる重複語を削除し、代わりに別の語彙を追加することである。 ## 3 重複語と語彙入れ替え 我々は、SentecePiece の作成した語彙モデルに含まれる重複語を取り除いて、別の言語の語彙を追加する。本節は、Python 語彙(予約語/識別子)などを実例として述べるが、Python 語彙の依存する部分は 図 22 つ以上の品詞パターンのうち、重複語であっても語彙モデルに残す品詞パターン ないため、置き換え対象の語彙は別言語の語彙に置き換えて適用可能である。 ## 3.1 重複語の判定 2.3 節の予備調査の結果をもとに、品詞パターンによる重複語の判定を行った。本研究では、全ての重複語を削除するのではなく、品詞の構成から決定した語彙モデルに残す品詞パターン以外の重複語のみを削除する。 語彙モデルに残す品詞パターンは、計 23 個である。1つの品詞パターンに含まれるのは、名詞や動詞といった基盤 10 個の品詞とフィラーを含めた 11 個の品詞と、図 2 に示す 12 パターンである。 23 個の品詞パターンに該当しない語のうち、形態素的に重複した語彙が含まれるとき、該当の語を無意味な文字列に置き換えた。 ## 3.2 数字や記号の重複除去 SentencePiece の作成する語彙モデルには、2.3 節の表 1 に示した通り、数字や記号を含む語彙が多く含まれている。 我々は、日本語語彙の重複語とは別に数値や記号の重複も取り除いた。例えば、数字は全て 1 文字を字句の単位として、2021のような字句は、2021というように4つの字句からみなすようにした。記号も 1文字も字句の単位とした。 なお、数字の扱いに関しては、議論の余地があるが、最新の大規模言語モデル PaLM [3] の語彙構成に準じている。 ## 3.3 Python 語彙の追加 最後に、語彙モデルへの語彙追加について簡単に述べる。 追加する語彙は、原理的には、ドメイン特化辞書などの任意の語彙を追加することができる。ただし、SentencePiece の語彙モデルは、出現頻度を持っているので、出現頻度に関する情報を持っているこ とが望ましい。 我々は、Python 言語の語彙(予約語識別子)の追加を行う際は、Pythonソースコードに対し、 SentencePiece を使って語彙モデルを構築し、そこから追加する語彙を選定した。追加の先語彙モデルと新しい語彙の間では出現頻度の調整は行わず、それぞれの語彙が独立して出現すると仮定して、それぞれの出現頻度順序だけが保証されるように追加を行った。 ## 4 実験 ## 4.1 概要 我々は、重複語入れ替え手法の影響と効果を確かめるため、次の手順で実験を行う。 まず、異なる種類の SentencePiece の語彙モデルから構築された事前学習済み言語モデルを用意してベースラインとする。用意した言語モデルは、以下の通りである。 ・Sno: 園部勲氏が公開する日本語 T5 モデル - Meg: Megagon Lab 社が公開する日本語 T5 モデル ・mT5: Google 社が公開する多言語 T5 モデル [2](small) これらのモデルから前節で述べた手法で重複語のみを削除したモデルを作る。続いて、重複語を削除して、その代わりにドメイン語彙を追加したモデルを作る。本実験では、前節で述べた通り、Python 語彙をドメイン語彙として追加した。最後に、下流タスクのドメインに合わせた追加学習 [4] を行ったモデルも用意した。追加学習で学習させたデータは、CodeSearchNet などの公開データセットから収集した Python コード (1GB) である。学習時のハイパーパラメータは、学習時のハイパーパラメータは、ピーク学習率 3e-4、エポック数を 5 回とした。 以上、我々の用意したモデルは次の 4 モデルとなる。 ・ベースライン - 重複語削除 ・ドメイン語彙追加 ・ドメイン追加学習 表 3 各タスクごとの実験結果 ## 4.2 下流タスクへの影響 我々は、下流タスクとして、Python コードのコー ド生成、コード修正、エラー診断を用意した。 ・コード生成: プログラム意図を表す自然言語文を入力として受け取り、対応するコードを生成するタスク [5] である。 ・コード修正: バグのあるコードを入力として、出力に正常なコードを生成するタスク [6] である。入出力はともにコードである。 ・エラー診断: 英文のエラーメッセージとソースコードから日本語のエラー解決策 [7] を提示するタスクである。 これらのタスクを用意したモデルにおいて、学習させた結果を表 3 に示す。 ## 5 関連研究 近年、Transformerをベースとした事前学習済みモデルが数多く提案され,転移学習やファインチュー ニングによって下流タスクに応用したときに優れた精度の向上を見せている。事前学習済みモデルは、大規模データセットを用いて事前学習され、下流タスクを定めず汎用的なモデルとして構築されることが多い。しかし、下流タスクのドメインが事前学習に用いたデータのドメインと大きく異なる場合、下流タスクでモデルが十分な性能を発揮できない領域適応の問題がある。 事前学習に用いるデータセットをドメインデータに絞った、専門領域に特化した言語モデルが提案され、汎用モデルと比較した時により高い精度でドメ インタスクが解けることが確認された [8]。 Gururangan ら [9] は、事前学習済みモデルを特定ドメインに適応させるために、下流タスクドメインのデータで追加学習することで高い精度でドメインタスクを解くDAPT 手法を提案している。ここで、事前学習済みモデルが保持する語彙の中に、専門用語などドメインの語彙が含まれないため、語彙を拡張する必要がある。Yao ら [10] は、語彙を拡張しながらドメイン特化モデルを構築する手法として Adapt-and-Distill 手法を提案している。 ## 6 むすびに 本研究は、大規模言語モデルの語彙に含まれる重複語を新しい語彙と入れ替えることによる語彙の追加を提案する。提案手法を検証するため、複数のモデルに対して (1) 不要語除去 (2) 不要語を Python 語彙に入れ替え (3)Python 語彙に入れ替え+追加学習と、3つの条件を変えて比較による評価をおこなった。モデルに Python 語彙を追加することで、入出力で Pythonを用いるコードタスクで精度が上がるのではないかと考えていたが、実験結果として語彙の追加による精度向上は見られなかった。 ## 謝辞 本研究を進めるにあたり,有意義なコメントをいただきました秋信有花氏 (NTT) と小原百々雅氏 (日本女子大学) と佐藤美唯氏 (日本女子大学) と高橋舞衣氏 (日本女子大学)に感謝いたします. ## 参考文献 [1] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pages 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics. [2] Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, and Colin Raffel. mT5: A massively multilingual pre-trained textto-text transformer. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 483-498, Online, June 2021. Association for Computational Linguistics. [3] Aakanksha Chowdhery et. al. Palm: Scaling language modeling with pathways. CoRR, abs/2204.02311, 2022. [4] 梶浦照乃, 小原百々雅, 秋信有花, and 倉光君郎. 多言語 5 への追加事前学習による python 言語モデルの構築. In The 6th cross-disciplinary Workshop on Computing Systems, Infrastructures, and Programming (xSIG2022), 2022. [5] Momoka Obara, Yuka Akinobu, Teruno Kajiura, Shiho Takano, and Kimio Kuramitsu. A preliminary report on novice programming with natural language translation. In IFIP WCCE 2022: World Conference on Computers in Education, 2022. [6] 相馬菜生, 梶浦照乃, 高橋舞衣, and 倉光君郎. 大規模言語モデルへの事前追加学習による誤り訂正モデルのコードへの適用. In 第 21 回日本データベース学会年次大会 (DEIM2023), 2023. [7] 高橋舞衣, 小原百々雅, 相馬菜生, and 倉光君郎. 大規模言語モデルを応用した初学者に親切なエラー メッセージの実現. In 第 21 回日本データベース学会年次大会(DEIM2023), 2023. [8] Jinhyuk Lee, Wonjin Yoon, Sungdong Kim, Donghyeon Kim, Sunkyu Kim, Chan Ho So, and Jaewoo Kang. Biobert: a pre-trained biomedical language representation model for biomedical text mining. Bioinformatics, 36(4):1234-1240, 2020. [9] Suchin Gururangan, Ana Marasović, Swabha Swayamdipta, Kyle Lo, Iz Beltagy, Doug Downey, and Noah A. Smith. Don't stop pretraining: Adapt language models to domains and tasks. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pages 8342-8360, Online, July 2020. Association for Computational Linguistics. [10] Yunzhi Yao, Shaohan Huang, Wenhui Wang, Li Dong, and Furu Wei. Adapt-and-distill: Developing small, fast and effective pretrained language models for domains. arXiv preprint arXiv:2106.13474, 2021.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q3-7.pdf
# Large Pre-trained Language Models with Multilingual Prompt for Japanese Natural Language Tasks Haiyue Song ${ }^{1,2}$ Raj Dabre $^{2}$ Chenhui Chu $^{1}$ Sadao Kurohashi ${ }^{1}$ ${ }^{1}$ Kyoto University ${ }^{2}$ NICT \{song, chu,kuro\}@nlp.ist.i.kyoto-u.ac.jp raj.dabre@nict.go.jp } \begin{abstract} Pre-trained Language Models (PLMs) with in-context learning have achieved impressive performance on various English Natural Language Understanding (NLU) and generation tasks. However, applying PLMs to languages other than English is still a challenge. This is because the training data used for pre-training contains a huge percentage of English data and a significantly lower percentage of data in other languages. To alleviate this problem, we propose a multilingual prompt approach, where we provide the input in the target language as well as in English, the latter of which is obtained by Neural Machine Translation (NMT). We experimented on six Japanese datasets and achieved SOTA performance in two of them. \end{abstract ## 1 Introduction In recent years, the world knowledge from the huge-scale training data and the generalization ability from the hugescale model have enabled the PLMs to show promising performance on a wide range of Natural Language Processing (NLP) tasks [1, 2, 3]. This data-driven approach has especially shown promising results on English tasks [4]. It even shows better than the fine-tuning methods with a few-shot in-context learning setting [5]. Although the high generalization ability enables the PLMs to deal with NLP tasks in other languages, a performance gap exists between them and the same tasks in English. This phenomenon is largely due to the lack of training data in the target language $[3,6]$. To alleviate the data distribution mismatch problem between the training data and testing data, increasing the percentage of non-English data in the training set is a trivial yet efficient approach. However, the disadvantages include the high cost of data collection and cleaning, the data scarcity for low-resource languages, and the drop in performance of Figure 1: Overview of the proposed method. English tasks [6]. Having English play the role of the intermediary is another effective way. This includes translating the non-English inputs into English [7], translating the English training data to the target language [8], or showing a few English examples as context to adjust the domain [4]. In this work, we solve the data distribution mismatch problem in PLMs with a novel multilingual prompt approach (See Figure 1). We first translate the input in the target language into English and feed them into PLMs. In this way, the prompt provides both accurate information in the original input and information in English that can be processed by the model without language mismatch. We conducted experiments on the JGLUE benchmark that contains 5 language understanding tasks [9] and on the KWDLC dataset [10] for the Japanese word segmentation task. Compared with fine-tuning methods based on BERT variants, the proposed multilingual prompt approach based on a GPT-3 model achieves SOTA performance on the sentiment classification and Japanese word segmentation datasets and comparable performance on most of the rest datasets. Ablation studies show the importance of using multilingual rather than Japanese only or English only inputs. Analysis with examples further reveals how the English references help. Figure 2: Prompt format with multilingual examples and the query. ## 2 Related Works As the scales of PLMs increase (e.g., BERT series [1, 11], T5 model [2], and the GPT series [12, 4]), few-shot in-context learning without back-propagation to update the model parameters becomes possible [13]. The in-context learning approach makes it extremely practical, where the model can be applied to entirely new tasks requiring only a minimal amount of annotation. To solve the non-English NLP tasks, multilingual PLMs approaches (e.g., mBERT [1], mT5 [14], and XGLM [6]) attempt to collect more balanced data from more than one hundrad languages and solve tasks in language other than English directly. Other attempts to alleviate the data distribution mismatch problem of PLMs pre-trained on unbalanced data include fine-tuning based methods [15, 16], translation-based methods [7, 8], and zero-shot methods [4], which require less computation. Multilingual input is also a common method in multilingual MT [17, 18]. ## 3 Methods We first briefly define the notations of the task, prompt, and output. We then explain the proposed multilingual prompt with a few-shot in-context learning method. ## 3.1 Notations We define the parameter in the PLM as $\theta$. For each task $T$, we define the dataset as $D$. The prompt of the PLM is defined as $P$, where $P=\left[P_{\text {task }}, P_{\text {examples }}, P_{\text {query }}\right]$ is a concatenation of three parts as presented in Figure 2. - The task explanation part $P_{\text {task }}$ provides the information of the task and the format of input and output of each data examples. It varies with the task. - The example part $P_{\text {examples }}$ provides $N$ examples. Each example $E_{i}$ consists of two parts, the question part $Q_{i}$ and the correct answer $A_{i}$. - The query part $P_{\text {quer }}$ provides the question $q$ at the inference time without the answer. We call a setting zero-shot if the $P_{\text {examples }}$ is empty ( $N=$ $0)$, few-shot if $N$ is a small number. We keep $N<10$ in all few-shot experiments. The output is defined as $y$; for different tasks $T$, the set of possible output values differs. ## 3.2 Multilingual Prompt We keep the target language Japanese across the experiments. For all the texts $t_{J a}$ in $P_{\text {examples }}$ and $P_{\text {query }}$, we apply a high-quality machine translation tool Textra ${ }^{1)}$ to translate it into a English text $t_{E n}$. We then combine $t_{J a}$ and $t_{E n}$ to form a multilingual text $t_{M i x}$. We then replace $t_{J a}$ with $t_{M i x}$ to generate the multilingual $P_{\text {examples }}$ and $P_{\text {query }}$ as shown in Figure 2. In the zero-shot multilingual prompt setting, the output of the PLM $y=f(P \mid \theta)$ tends to be multilingual, and we only keep the Japanese part as a prediction. In the few-shot setting, the output will be in the correct format following the $P_{\text {examples }}$. Note that we use English for $P_{\text {task }}$ across all the experiments.  Table 1: Results on the JGLUE benchmark. Bold represents the best performance except for Human. Blue represents the best setting among the proposed methods. Table 2: Results on the KWDLC dataset for the Japanese word segmentation task. Bold means the best performance. ## 4 Experimental Settings ## 4.1 Datasets We use five datasets from the JGLUE benchmark [9], including 1) MARC-ja, a text classification dataset, 2) JSTS, the Japanese version of the semantic textual similarity dataset, 3) JNLI, the Japanese version of the natural language inference dataset, 4) JSQuAD, the Japanese version of reading comprehension dataset, and 5) JCommonsenseQA, the Japanese version multiple-choice commonsense Question Answering (QA) dataset. Additionally, we add a Japanese word segmentation task to verify whether the English translation will still help for  the task that requires Japanese syntax information processing ability. We test on the KWDLC dataset [10], which is segmented by Jumanpp [22] and revised by experts. The evaluation metrics keep the same with the previous work $[9,19]$, using accuracy for multi-choice tasks, Pearson and Spearman for the ranking task, Exact Match (EM) and F1 for the QA task, precision, recall, and F1 for the word segmentation task. ## 4.2 Model Settings PLM We run experiments on a publicly available pretrained language model GPT-3 Codex (175B) $)^{3)}$ with temperature as 0, top $p$ as 1 , frequency penalty as 0 , presence penalty as 0 , and max tokens as 200. MT Model We use a publicly available MT tool Tex$\mathrm{Tra}^{4)}$ with the general Japanese to English model. Few-shot We manually select $N<10$ examples from the train set that cover all types of output labels. For the MARC-Ja dataset, we use 2 examples with positive labels and 2 with negative labels. For the JSTS dataset, we use 10 examples with labels from 0.0 to 5.0 in a roughly uniform distribution. We use 6 examples for JNLI, 5 examples for JSQuAD, 5 for JCommonsenseQA, and 7 for KWDLC. For the JSQuAD dataset, in the case that there are multiple correct labels, we show the first one in $P_{\text {examples }}$.  & \\ Figure 3: An example from the MARC-Ja dataset where multilingual prompt helps. & \\ Figure 4: An example from the KWDLC dataset where multilingual prompt helps. Baselines For the JGLUE benchmark, we compare with the fully supervised methods fine-tuned on Tohoku BERT, ${ }^{5)}$ NICT BERT base, ${ }^{6)}$ Waseda RoBERTa, ${ }^{7)}$ and XLM RoBERTa models [23]. For the KWDLC dataset, we compare it with a previous unsupervised method based on BERT [19]. We added existing tools MeCab [20] with ipadic dictionary and KyTea [21] as references. Note that the KWDLC is originally segmented by Jumanpp [22] therefore the F1 score using Jumanpp is near 1.0. ## 5 Experimental Results ## 5.1 Main Results Tables 1 and 2 show the results of the JGLUE benchmark and KWDLC dataset correspondingly. The proposed methods show SOTA performance on the text classification dataset and Japanese word segmentation dataset. The performance is also comparable to the fine-tuned methods on two QA datasets. However, we found that the performance is worse on the tasks JNLI and JSTS that require reasoning ability. We can observe that the fine-tuned methods outperform humans on these two tasks. The few-shot methods gave higher scores than the zeroshot ones on all the tasks, showing the effectiveness of in-context learning. We found the improvement from both better output format and adaptation to the task domain. 5) huggingface.co/cl-tohoku/bert-base-japanese-v2 6) alaginrc.nict.go.jp/nict-bert/index.html 7) huggingface.co/nlp-waseda/roberta-base-japanese The multilingual prompt outperforms the Japanese or English only prompt on most tasks. We assume that it is due to less distribution mismatch between the testing and training data. ## 5.2 Case Analysis We gave two cases where the multilingual prompt leads to correct prediction. Figure 3 provides a text classification example, where the object is implicit and omitted in the Japanese text. However, in the translated text, the phrase but I liked it is completed, and the object information becomes explicit, which helps the model to give the correct prediction. Figure 4 illustrates another case from the word segmentation task. The names of the province (Anhui, Shandong. . .) are given as separate English words in the translation, which provides word boundary information and helps to segment Japanese words correctly. ## 6 Conclusion and Future Work In this work, we proposed a multilingual prompt approach to better apply the PLMs to non-English tasks. The prompt contains the original input in Japanese and the translated input in English, which alleviates the data distribution mismatch problem. We experimented on six Japanese datasets and achieved SOTA performance on two of them. Future work includes adding Chain-of-though (CoT) [5], a cross-lingual version of the few-shot retrieval method [24], and a web-searching method [25]. ## Acknowledgement This work was supported by JSPS KAKENHI Grant Number JP21J23124. Part of the work was done during an internship at NICT. ## References [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020. [3] Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners, 2020. [4] Genta Indra Winata, Andrea Madotto, Zhaojiang Lin, Rosanne Liu, Jason Yosinski, and Pascale Fung. Language models are few-shot multilingual learners. In Proceedings of the 1st Workshop on Multilingual Representation Learning, pp. 1-15, Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [5] Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Brian Ichter, Fei Xia, Ed Chi, Quoc Le, and Denny Zhou. Chain of thought prompting elicits reasoning in large language models, 2022. [6] Xi Victoria Lin, Todor Mihaylov, Mikel Artetxe, Tianlu Wang, Shuohui Chen, Daniel Simig, Myle Ott, Naman Goyal, Shruti Bhosale, Jingfei Du, Ramakanth Pasunuru, Sam Shleifer, Punit Singh Koura, Vishrav Chaudhary, Brian O'Horo, Jeff Wang, Luke Zettlemoyer, Zornitsa Kozareva, Mona Diab, Veselin Stoyanov, and Xian Li. Few-shot learning with multilingual language models, 2021. [7] Tim Isbister, Fredrik Carlsson, and Magnus Sahlgren. Should we stop training more monolingual models, and simply use machine translation instead?, 2021. [8] 吉越卓見,河原大輔, 黒橋禎夫. 機械翻訳を用いた自然言語推論データセットの多言語化. 第 244 回自然言語処理研究会, 2020.7.3 [9] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese general language understanding evaluation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 2957-2966, Marseille, France, June 2022. European Language Resources Association. [10] 萩行正嗣, 河原大輔, 黒橋禎夫. 多様な文書の書き始めに対する意味関係タグ付きコーパスの構築とその分析. 自然言語処理, Vol. 21, No. 2, pp. 213-247, 2014. [11] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach, 2019. [12] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. 2019 [13] Damai Dai, Yutao Sun, Li Dong, Yaru Hao, Zhifang Sui, and Furu Wei. Why can gpt learn in-context? language models secretly perform gradient descent as meta-optimizers, 2022. [14] Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, and Colin Raffel. mT5: A massively multilingual pre-trained text-to-text transformer. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 483-498, Online, June 2021. Association for Computational Linguistics. [15] Bo Zheng, Li Dong, Shaohan Huang, Wenhui Wang, Zewen Chi, Saksham Singhal, Wanxiang Che, Ting Liu, Xia Song, and Furu Wei. Consistency regularization for cross-lingual fine-tuning. In Proceedings of the 59th Annual Meeting of the ACL and the 11th IJCNLP (Volume 1: Long Papers), pp. 3403-3417, Online, August 2021. Association for Computational Linguistics. [16] Zhaojiang Lin, Andrea Madotto, Genta Indra Winata, Peng Xu, Feijun Jiang, Yuxiang Hu, Chen Shi, and Pascale Fung. Bitod: A bilingual multi-domain dataset for task-oriented dialogue modeling, 2021. [17] Raj Dabre, Fabien Cromieres, and Sadao Kurohashi. Enabling multi-source neural machine translation by concatenating source sentences in multiple languages. In Proceedings of Machine Translation Summit XVI: Research Track, pp. 96-107, Nagoya Japan, September 18 - September 222017. [18] Barret Zoph and Kevin Knight. Multi-source neural translation. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 30-34, San Diego, California, June 2016. Association for Computational Linguistics. [19] 和田有輝也, 村脇有吾, 黒橋禎夫. セミマルコフ crf 自己符号化器による教師なし単語分割. 言語処理学会第 28 回年次大会, 浜松, 2022.3.16. [20] Takumitsu Kudo. Mecab : Yet another part-of-speech and morphological analyzer. 2005. [21] Graham Neubig, Yosuke Nakata, and Shinsuke Mori. Pointwise prediction for robust, adaptable Japanese morphological analysis. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 529-533, Portland, Oregon, USA, June 2011. Association for Computational Linguistics. [22] Arseny Tolmachev, Daisuke Kawahara, and Sadao Kurohashi. Juman++: A morphological analysis toolkit for scriptio continua. In Proceedings of the 2018 Conference on EMNLP: System Demonstrations, pp. 54-59, Brussels, Belgium, November 2018. Association for Computational Linguistics. [23] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised cross-lingual representation learning at scale. CoRR, Vol. abs/1911.02116, , 2019 [24] Ohad Rubin, Jonathan Herzig, and Jonathan Berant. Learning to retrieve prompts for in-context learning. In Proceedings of the 2022 Conference of the NAACL:HLT, pp. 2655-2671, Seattle, United States, July 2022. Association for Computational Linguistics. [25] Reiichiro Nakano, Jacob Hilton, Suchir Balaji, Jeff Wu, Long Ouyang, Christina Kim, Christopher Hesse, Shantanu Jain, Vineet Kosaraju, William Saunders, Xu Jiang, Karl Cobbe, Tyna Eloundou, Gretchen Krueger, Kevin Button, Matthew Knight, Benjamin Chess, and John Schulman. Webgpt: Browser-assisted questionanswering with human feedback, 2021
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q3-8.pdf
# ヒト脳における時間認識時の脳内状態の推定 1 須藤百香 4 小出(間島)直子 ${ }^{3}$ 浅原 正幸 2,4 山口裕人 4 久保 理恵子 2,4 西本伸志 1 小林一郎 1 お茶の水女子大学 ${ }^{2}$ 大阪大学 3 国立国語研究所 4 情報通信研究機構 [g1720523@is.ocha.ac.jp], [naoko-ko@nict.go.jp] [masayu-a@ninjal.ac.jp], [hyamaguchi@nict.go.jp], [rkubo@fbs.osaka-u.ac.jp] [nishimoto.shinji.fbs@osaka-u.ac.jp], [koba@is.ocha.ac.jp] ## 概要 近年, 脳神経活動の多点計測技術の発展や深層学習に代表される機械学習技術の高度化により,観測したヒト脳内情報に対する解析や定量的理解を行う研究が盛んになっている.このような背景を踏まえて,本研究では被験者が DVDを視聴している際の脳活動状態を計測し,動画の発話によって与えられる言語刺激からヒト脳内における時間認識時の脳内状態を調査することを目的とする。 ## 1 はじめに "時間”という概念が,ヒト脳内にどのように存在するのか,またはどの部位で処理されているのかという疑問に対する明確な解は未だに存在しない. 時間は物理現象として捉えられ, 我々が感覚的に感じるものであったり,文章中に記述されている事象の生起の順序関係から論理的に考えられたりと, 様々な捉え方がある。近年, 深層学習や汎用言語モデルといった革新的な技術の発展により, 脳神経科学において脳内情報処理を解明するためにそれらの技術が頻繁に利用されるようになっている. とくに, Yamins ら [1] によって視覚情報を処理する深層学習モデルの層と脳内の視覚情報処理の階層的処理の層の間に相同性があることが示されて以来,深層学習モデルを脳の機能を理解するための作業モデルとして利用するようになっている,とくに,脳に与えられる言語刺激を表現する際に,言語の特徴量を word2vec [2] や BERT [3], GPT-2 [4] などの汎用言語モデルを用いて表現し利用されるようになっている. Schrimpf ら [5] は脳活動データから単語の推定を行う課題において,43 の汎用言語モデルを用いてその精度を検証し,該当タスクにおいてどの言語モデルが脳活動を表現するのに適しているのかなどを調査している。このように汎用言語モデルと脳活動データの対応関係をとることによりヒト脳内の様々な特徵を解析することが可能になってきている。 このような背景を踏まえて,本研究では,自然言語文章中に表されている時間的概念がヒト脳内において認識されている状態はどのようなものであるかを調査することを目的とする.自然言語文章から時間を識別する深層学習モデルを構築し,ヒト脳に与えられる言語刺激から時間識別のための特徵量を抽出し,それを持って脳内状態を予測する。これにより,時間識別の脳内状態の調査を試みる。 ## 2 時間認識時の脳活動状態推定 ## 2.1 研究概要 図 1 に研究の概要を示す. 図 1: 言語刺激による脳活動状態推定の概要 DVD 動画視聴時の脳活動データを fMRI を用いて計測する.動画中の発話を文章に書き起こし,文の意味を汎用言語モデル BERT [3] を用いてべクトルとして表現し,それを言語の特徴量とみなす。言語の特徵量から脳活動データを予測する符号化モデル (2.2 節参照)を構築し,言語刺激下の脳内状態を推定可能とし,その結果を可視化する。 ## 2.2 符号化モデル 本研究における符号化モデル (Encoding model) の構築手法は,Naselaris ら [6] によるものを採用した. 符号化モデルの構築方法として,ヒト脳への刺激となるデータから抽出した特徴量と刺激下の脳活動状態を線形回帰し, 計測脳活動パターンと予測脳活動パターンが近づくように重みを学習する。 ## 2.3 被験者実験 被験者は日本人 4 名で,5 本の映画やドラマの DVDを自由視の指示のもと視聴した.映画やドラマの内訳は 4 本が海外の映画またはドラマであり,残り 1 本は日本のアニメーションである. 海外映画およびドラマとも日本語に吹き替えされたものであり,被験者は日本語によって動画を理解している. 実験は,情報通信研究機構脳情報通信融合センターにおいて実施され,上記 DVD データに関して, 約 9 時間の動画視聴時の脳活動を磁気共鳴機能画像法 (functional magnetic resonance imaging:fMRI) を用いて脳内の血中酸素濃度依存型(BOLD:blood oxygenation level dependent)信号を観測したものである. 脳活動データは, 1 秒間隔で計測され, 時点毎の観測ボリュームは $96 \times 96 \times 72(=663,552)$ ボクセルである. ## 2.4 時間識別深層学習モデル DVD 視聴時に発話内に現れる時間概念を識別するための深層学習モデルを構築する. これは,その識別モデルの中間層に表される特徴量(表現ベクトル)は,時間概念を識別するための表現になっていると考えることができるため,その特徴量から符号化モデルにより推定した脳活動状態によって,時間概念を捉えるための脳内の特性を解明するためである.時間識別深層学習モデルが識別する時制は,「過去」「現在」「未来」「その他」の4つとなっている. 使用したデータの具体例を表 1 に示す. 表 1: 書き起こし文と時制の対応 発話内容の特徵量は, 日本語用の NWJC-BERT [7] を使用し,発話を構成する 1 文ごとに BERT の潜在トークンである CLS の埋込べクトルを利用した. モデルの概要図を図 2 に示す. 図 2: 時間識別モデル概要図 ## 3 実験 ## 3.1 符号化モデル作成 2.4 節で説明した時間識別深層学習モデルを用いて,その中間層から時間識別のための特徴量を抽出し,実際に観測された脳活動データとの回帰モデルを構築する. 図 3 にその概要を示す. 図 3: 符号化モデル作成の概要図 BERTにより表現した発話内容の特徴量から fMRI にて取得された脳活動データにより表現される脳内状態を推定するための符号化モデルとして, Ridge 線形回帰を採用する.また,訓練データと評価デー タは観測した脳活動データの連続性を考慮して分割し,訓練データに対する 5 分割交差検証を行うことにより,脳活動データのボクセル毎に最適な正則化項を決定した. 回帰モデルにより予測されたデータと,実際に観測された脳活動データ (正解データ)をピアソンの積率相関係数により評価を行う. またこの際,帰無仮説「推定値と評価値には相関関係が存在しない」を仮定のうえ,各ボクセルごとに推定した値に対し、 $p=0.05$ の下で両側検定,この仮説を棄却した信用できるボクセルのみ使用している. ## 多段階ファインチューニング 本研究では,時間識別モデルの推定精度向上のため,類似のタスクを学習したモデルを多段に転移してモデルを洗練させていく転移学習手法である,多段階ファインチューニング(Multi-step fine-tuning) を適用した.今回は,目標タスクを DVD 視聴時の発話内の時間概念の識別とし, 1 段階目に類似した時間関係タスクとして, 日本語話し言葉コーパス内の時間概念を識別するタスクで学習させたモデルを採用し,2 段目にDVD 視聴時の時間概念識別のタスクを解いた。概要を図 4 に示す。 図 4: 多段階ファインチューニング ## 時間識別特徵量のみに基づく脳内状態予測 作成した時間識別モデルの最終層に近い上位層の特徴量から事前学習済み BERT の埋め込みべクトルが入力される低層の純粋な言語特徴量を取り除くと, 純粋に時間識別のための特徵量が得られるとの考えから,それぞれの特徴量から推定された脳活動状態の差異を観測した. この際, それぞれの特徵量から個別に脳内状態を推定してしまうと,それぞれを共通の空間における比較にはならないため,双方の特徴量を合わせて回帰を行う, Banded Ridge Regression [8] を用い,それぞれの特徴量から予測された脳内状態の差異をとれるようにした. 図 5 にその概要を示す. 図 5: 時間識別特徵量のみに基づく脳内状態推定 ## 3.2 実験設定 ## 使用データ 2.3 節での被験者実験によって取得された DVD 視聴時の脳活動データとその発話の書き起こしデー タ,および,日本語話言葉コーパスを傾聴した際の脳活動データとその発話の書き起こしデータを用いる. 日本語話し言葉コーパスは,国立国語研究所・情報通信研究機構 (旧通信総合研究所) - 東京工業大学が共同開発した, 日本語の自発音声を大量にあつめて多くの研究用情報を付加した話し言葉研究用のデータベースである. 本研究では,ある一つの話題について一人が 600 700 秒ほどスピーチしているものを使用している. ## 時間識別深層学習モデル構築 2.4 節で説明した時間識別深層学習モデルを構築する. モデルのパラメータを表 2 に示す。学習率や最適化アルゴリズムは先行研究 [9]を参考に採用している. 表 2: 時間識別深層学習モデルのパラメータ モデル構築に使用したデータは,5本の DVD 視聴データの内,4本の動画を訓練データとして使用し,残りの 1 本を評価データとして構築した. 同じ動画を訓練と評価データに分けないようにすることにより,構築するモデルが過学習を起こさないように配慮した。 Mentalist (a) DVD 発話からの脳内状態推定 Mentalist (c) BERT 低層の純粋な言語特徴量からの脳内状態推定 GIS2 (b) 多段階ファインチューニング Mentalist GIS2 (d) 言語特徴量を除去した時間認識の脳内状態推定 (上位 500 ボクセル) 図 6: 実験結果 ## 3.3 実験結果 図 6(a) にDVD の発話を時間識別モデルの入力とした際の時間識別特徴量からの予測脳活動状態を示す. 図 6(b) に多段階ファインチューニングを行い脳内状態推定精度を向上させた際の予測脳活動状態を示す. さらに,より詳細に時間識別領域についてみるため,時間に関する特徴量から純粋な言語特徴量を引いた際の予測脳活動状態を図 6(d) に示す. ## 3.4 考察 図 6(a)のDVD 発話データのみを用いて時間識別モデル構築を行なった際には,予測脳活動で特徴的な反応を見ることができなかったが,図 6(b) においては予測された領域の局在性が見えるようになり,後頭葉の部分に強い反応が見られた. この部分は主に言語を司る部分だと言われており,反応としては妥当であると言えるであろう。この結果から多段階ファインチューニングを行うことで,モデルの精度がより良くなり,予測脳活動の精度がよくなったことがわかった。また,時間識別モデルから得た特徴量から図 6(c) に示した BERT 低層の言語特徴量を引いた図 6(d) においては, 全被験者を通して前頭前野の反応がよく残る傾向となった. このことからこの部分で何かしらの時間処理が行われている可能性が考えられる。 ## 4 まとめ 本研究は,ヒト脳内において自然言語文中に表される時制がどの部位において処理がなされているかを解明することを目的とし,DVD 視聴時の時制を伴う発話文を刺激として用い,予測した脳活動状態から時間認識に特化した脳内部位を調査した。脳内状態を推定するためには,予測精度の高い符号化モデルを作成する必要があり,深層学習モデル学習時の多段階ファインチューニングにより予測精度が向上することが確認できた。これにより,時間識別深層学習モデルを通じて得られた時間識別のための特徴量から脳内状態を推定することで,時間認識をしている部位の特定に努めた。実験を通じて判定された脳内時間処理の部位については,映画内容や被験者により多少の違いがでたものの,前頭前野の位置で反応がよく見らる傾向にあった. しかし,未だその部位が特定できたとは言い難い,今後は,脳内における時間処理の部位を詳細に解明するため,符号化モデルの改良や,実験データをより増やすことなどし,引き続き調査を進めていくつもりである. ## 謝辞 本研究は科学研究費補助金 (18H05521) の支援を受けて実施されたものである. ここに謝意を表す. ## 参考文献 [1] D. L. K. Yamins, H. Hong, C. F. Cadieu, E. A. Solomon, D. Seibert, and J. J. DiCarlo. Performance-optimized hierarchical models predict neural responses in higher visual cortex. Proceedings of the National Academy of Sciences, pp. 8619 - 8624, 10/2014 2014. [2] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. In C. J. C. Burges, L. Bottou, M. Welling, Z. Ghahramani, and K. Q. Weinberger, editors, Advances in Neural Information Processing Systems, Vol. 26, pp. 3111-3119, 2013. [3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proc. of NAACL2019, pp. 4171-4186, June 2019. [4] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In H. Larochelle, M. Ranzato, R. Hadsell, M. F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Curran Associates, Inc., 2020. [5] Martin Schrimpf, Idan Blank, Greta Tuckute, Carina Kauf, Eghbal A. Hosseini, Nancy Kanwisher, Joshua Tenenbaum, and Evelina Fedorenko. The neural architecture of language: Integrative reverse-engineering converges on a model for predictive processing. bioRxiv, 2020. [6] Thomas Naselaris, Kendrick N. Kay, Shinji Nishimoto, and Jack L. Gallant. Encoding and decoding in fmri. Neurolmage, Vol. 56, No. 2, pp. 400-410, May 2011. [7] 浅原正幸, 西内沙恵, 加藤祥. Nwjc-bert: 多義語に対するヒトと文脈化単語埋め込みの類似性判断の対照分析. 言語処理学会第 26 回年次大会発表論文集, pp. 961-964, 32020 . [8] Tom Dupré la Tour, Michael Eickenberg, Anwar O NunezElizalde, and Jack L Gallant. Feature-space selection with banded ridge regression. bioRxiv, 2022. [9] 耿晨婧, 程飛, KANASHIRO Pereira Lis, 浅原正幸, 小林一郎. 依存関係と文脈表現を用いた日本語時間関係識別. 人工知能学会全国大会論文集, Vol. JSAI2020, pp. 4Rin115-4Rin115, 2020.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q3-9.pdf
# 一般性を考慮した言語処理モデルの Shortcut Reasoning $の$ 自動検出 原口大地 ${ }^{1}$ 白井清昭 1 井之上直也 ${ }^{1,2}$ 1 北陸先端科学技術大学院大学 2 理化学研究所 \{s2110137,kshirai,naoya-i\}@jaist.ac.jp ## 概要 Shortcut Reasoning は言語処理モデルの非合理的な推論であり,頑健性を損ねる主な原因とされている. 先行研究では,Shortcut Reasoningを発見し,低減させる試みが行われているが,それらの手法は様々な問題点を抱えている。本研究では,推論パターンとその一般性をモデルから抽出・計算し, Shortcut Reasoning を自動的に検出する手法を提案する. 実験の結果,提案手法は既に明らかになっている Shortcut Reasoning を検出できたことに加え,未知のものを発見することにも成功した. ## 1 はじめに 近年,事前学習モデルをはじめとした自然言語処理モデルがあらゆるタスクで精度の向上を見せている。一方で,学習データ内の交絡あるいは疑似相関 (Spurious Features) [1, 2, 3] にモデルが依存することで発生する,推論プロセスにおける非合理的な推論 (Shortcut Reasoning) が指摘されている $[4,5,6]$. Shortcut Reasoning は,学習データと同じ分布を持つデータ (Independent and Identically Distributed: IID) と比べて,異なる分布を持つデータ (Out of Distribution: OOD) の解析性能を下げる,すなわち頑健性を低下させることが懸念されている。 Shortcut Reasoningを発見・解消させようとする試みは既に行われているが $[7,8,9]$, そこで提案された手法は,(i) Shortcut Reasoning の形態について事前に想定している,(ii) モデルの内部情報を考慮していない,(iii)人手による判定を必要としているという制約を持っている。(i) は事前に想定した Shortcut Reasoning に対してのみ検証をするため,モデルに潜在する未知のものを明らかにできない可能性がある。(ii)については,内部情報を使わない手法の多くが何らかの編集や特徴を加えた入力を作成 し,それに対する出力を分析することで,Shortcut Reasoning の存在を明らかにしようとしているが, この手法によって我々が知り得るのはモデルの出力のみであり,得られる情報には限度がある。(iii) に関しては,単純にコストがかかるのに加え,一見 Shortcut Reasoning に見えないような事例を見逃す可能性がある等の課題を抱えている. 以上の 3 つの課題の解決に取り組んだ研究 [10] はいまだ少数であり,十分な研究成果が得られていないのが現状である。本論文は,最小限の仮定で,内部情報を利用しながら,人手での判定を必要とせずに自動的に Shortcut Reasoning を検出する手法を提案する.具体的には,モデルの推論プロセスにおける規則性 (推論パターン) を抽出し,IID と OOD の入力に対する有効性を比較することで,Shortcut Reasoning の存在とその形態を明らかにする. ## 2 Shortcut Reasoning の検出 本節では,Shortcut Reasoning の検出に先立ち,推論パターン (2.1 項) とその抽出方法 (2.2 項), 一般性 (2.3 項),Shortcut Reasoning の判定手法 (2.4 項)を定義し,これを踏まえて Shortcut Reasoning 検出の具体的な手順を説明する (2.5 項). ## 2.1 推論パターン 本研究では,ある入力に対するモデル $f$ の推論プロセスにおいて,何らかのトリガー (Trigger) が特定のラベル (Label) の予測をもたらす規則を推論パターンと定義する。推論パターン $p$ は形式的に次のように定義できる. $ p \stackrel{\text { def }}{=} \text { Trigger } \xrightarrow{f} \text { Label } $ 以降,簡易な記法として $p=(t, l)$ と表す。 $t$ はトリガー, $l$ はラベルを表す. ## 2.1.1 推論パターンの分類 Shortcut Reasoning は学習データの Spurious Features によりもたらされるが,それらが推論パターンにおけるトリガーとラベルであることは,その推論パターンが Shortcut Reasoning であることの必要条件といえる. したがって,推論パターンの定義において, Spurious Features の特徴を十分に考慮する必要がある. Pezeshkpour らは, Spurious Features には Granular feature (語彙的素性) と Abstract feature (抽象的素性) の 2 種類があると分類している [8]. 前者は, “Spielberg”のような予測と無関係な個別の単語である. 後者は,単語の重複 (Lexical overlap) のように表層的に現れない高次なパターンのことを指す. この分類を推論パターンにも適用し, Granular featureをトリガーとする推論パターンを語彙的推論パターン, Abstract feature をトリガーとする推論パターンを抽象的推論パターンとする.なお,抽象的推論パターンについては,この論文では扱わず,今後の課題とする. 以後,特に断りがない限り,「推論パターン」あるいは「p」は語彙的推論パターンを指すものとする。 ## 2.1.2 語彙的推論パターンの定義 2.1.1 の分類より, 語彙的推論パターンのトリガー $t$ を単語の系列 $\mathbf{w}=\left.\{w_{1}, w_{2}, \ldots, w_{n}\right.\}$ で表す (式 (2)). $ p_{\text {granular }} \stackrel{\text { def }}{=} \mathbf{w} \xrightarrow{f} \text { Label } $ 単語の系列である理由は,語彙的素性はある特定の一単語ではなく, 複数単語の組み合わせ等の多様な形態を持っていると想定し, それに対応するためである。 ## 2.2 推論パターンの候補の抽出 推論パターンを抽出する手法として,新たに Input Reduction (IR)を導入する.IR では,式 (2)におけるトリガー $\mathbf{w}$ につて,ラベルの予測に必要となる最低限の単語の系列と考える。 また, Label はそれを入力としたときの出力ラベルとする. これは,トリガーがある予測ラベルを引き起こすためだけに用いられた情報であることを保証するためである. IR の大きな流れは以下の通りである。あるデー タセットすを入力として受け取った後,データセットの各インスタンス $(x, y)$ について,推論パターンの候補 $w=(\mathbf{w}, l)$ を抽出し, その集合 $C$ を出力する. 候補の抽出では,入力系列 $x$ が与えられたとき, $x$ に含まれる各単語に対して一つずつマスクをかける ([MASK] に置換する). マスクの数を増やしていき, それを入力をしたときの予測が変化するまで繰り返す. 予測が変われば,その直前の系列をトリガーとする推論パターンの候補を得る。 しかしながら,ナイーブな実装ではマスクの組み合わせが膨大になり計算量が負担となる。したがって,Integrated Gradient (IG)[11]を利用して,予測に対する重要度の低い単語順にマスクをかける (Algorithm 1). ## 2.3 一般性の計算 推論パターンを,推論における「パターン」と呼ぶためには,一定の規則性が認められなければならない. そこで,推論パターンの一般性を計算する。 $C$ の $i$ 番目の推論パターン候補 $p_{i}=\left(\mathbf{w}_{i}, l_{i}\right)$ の一般性 $g_{i}$ を次のように計算する。Dとは別のデータセット $D^{\prime}$ を用意し,トリガーの単語の系列 $\mathbf{w}_{i}$ を含む事例の集合 $\left(x_{j}^{\prime}, y_{j}^{\prime}\right) \in E\left(\mathbf{w}_{i}\right)$ を $D^{\prime}$ から取得する. このとき,それぞれの事例に対する予測 $f\left(x_{j}^{\prime}\right)$ がラベル $l_{i}$ と一致する割合をその推論パターンの候補の一般性とする。形式的には次のように定義する ${ }^{1)}$ : $ g_{i} \stackrel{\text { def }}{=} \frac{\sum_{x_{j}^{\prime} \in E\left(\mathbf{w}_{i}\right)}\left[f\left(x_{j}^{\prime}\right)=l_{i}\right]}{\left|E\left(\mathbf{w}_{i}\right)\right|} \times 100 $ ## 2.4 Shortcut Reasoning の判定 1 節より,推論パターンが Shortcut Reasoning であることの条件として,(i) IID の入力に対しては有効  に機能するが,(ii) OOD の入力に対しては有効ではないことの両方を満たしていることが挙げられる。 条件 (i) は,IID のデータセット $D_{\text {IID より抽出さ }}$ れた推論パターンが正しく正解ラベルを予測できていれば,その条件を満たすことになる。条件 (ii) は, OOD のデータセット DOOD からトリガー $\mathbf{w}$ に合致する事例の集合 $\left(x^{\prime}, y^{\prime}\right) \in E(\mathbf{w})$ を取得し,その予測の多くが誤りであればその条件を満たすといえる. そこで, $E(\mathbf{w})$ と $D_{\mathrm{OOD}}$ における予測の F1 スコアの差 $\Delta$ を計算し(式(4)), その差を推論パターンがどれだけ OODでの予測に失敗しているかの指標とする。 $ \Delta \stackrel{\text { def }}{=} \mathrm{F} 1(E(\mathbf{w}), f)-\mathrm{F} 1\left(\mathscr{D O O D}_{\mathrm{OD}}, f\right) $ したがって,ある推論パターン $p_{i}=\left(\mathbf{w}_{i}, l_{i}\right)$ が Shortcut Reasoning であるとは,そのトリガー $\mathbf{w}_{i}$ に合致する $E\left(\mathbf{w}_{i}\right)$ について $\Delta_{i}$ が小さく, かつラベル $l_{i}$ に関する条件 (i)を満たすことと定義する. 形式的には, Shortcut Reasoning の集合 $\tilde{P}$ は式 (5) のように書ける。 $ \tilde{P} \stackrel{\text { def }}{=}\left.\{p_{i}=\left(\mathbf{w}_{i}, l_{i}\right) \in C \mid l_{i}=y_{i}, \Delta_{i}<0\right.\} $ ここで, $y_{i}$ は推論パターン $p_{i}$ の抽出に用いた IID のデータの正解ラベルである. ## 2.5 Shortcut Reasoning 検出の手順 手順は大きく分けて 3 つのステップから成る.ステップ 1 では, D 補 $p_{i}=\left(\mathbf{w}_{i}, l_{i}\right) \in C$ を抽出する.ステップ2では,抽出された候補の一般性 $g_{i}$ を $D_{\mathrm{OOD}}$ を用いて計算し,一般性の高いものを推論パターンとして定義する。最後に,ステップ 3 では,推論パターンのうち,条件 (i, ii) に当てはまるものを Shortcut Reasoning と判定する(式 (5)). ## 3 実験 ## 3.1 設定 Sentiment Analysis (SA) と Natural Language Inference (NLI)の2つのタスクを対象に,提案手法の実験を行う. 提案手法が適切に Shortcut Reasoning を検出できているかの検証に既知の情報を必要とするが,これらのタスクは先行研究によって Shortcut Reasoning の形態が報告されていることが採用の背景にある. 今回の実験では,Shortcut Reasoning の基準を $\Delta<-5$ と設定する.また,一般性の低い推論パター ンをより正確に排除するために, $|E| \geq 100$ である推論パターンのみを分析の対象とする。 ## 3.1.1 データセットと予測モデル SA TweetEval [12] は Twitter に投稿されたツイー トにいくつかの情報がアノテーションされた英語のデータセットである. sentiment はそのサブセットであり,positive/neutral/negative の 3 つの極性クラスがラベル付けされている。 MARC [13] は Amazon における多言語の商品レビューと 5 段階の星の数による評価がアノテーションされたデータセットである.今回は英語を使う.前処理として,5 段階の評価に関して,星の数が 4 以上のレビューを positive, 3 を neutral,2 以下を negative とした. NLI MNLI [14] は, premise と hypothesis の 2 つの文に対し entailment/neutral/contradiction の 3 つのラベルがアノテーションされた NLI のデータセットである. contradiction がラベル付けされている事例の hypothesis の多くに negation が含まれるという Spurious Feature が明らかになっている [1]. ANLI [15] は MNLI 同様に 3 種類のラベルがアノテーションされており,MNLIよりも複雑で難易度の高い NLI のデータセットである. 本実験では,IID として TweetEval と MNLI,OOD として,MARC と ANLIを使用する。実験に使用したデータセットの詳細を付録 A に示す. 予測モデルは, Huggingface で公開されている RoBERTa [16] ベースの fine-tuned モデルを使用する.詳細は付録 B に示す。 ## 3.1.2 Input reduction の適用先 Input reduction の入力として, train (学習データ) と test (テストデータ)の 2 通りを用いる. 前者はモデルの傾向 (内部状態)を捉えた推論パターンが得られることを期待する。後者は,推論パターンを得るための最も直観的な手法である.本実験では,ランダムに選んだ 1,000 件のデータに IRを適用する. ## 3.2 結果 検出された Shortcut Reasoning に該当する推論パターンを表 1 に示す. train/test は,推論パターンがそれぞれ train, test に対して IRを適用して抽出されたかを表し,パターンが得られた場合は $\mathrm{T}$ ,なければ $\mathrm{F}$ と記す. $\mathbf{S A}$ 得られた推論パターン全体を見てみると,そ 表 1 検出された Shortcut Reasoning の例 の多くが [“love”] $\rightarrow$ positive や [“awful”] $\rightarrow$ negative 等の感情語に関連したものであった. このことから, SA においてモデルは感情語を予測の重要な手がかりとしていることがわかる. Shortcut Reasoning であるものについても,感情語を含む推論パターンが多かった.したがって,Shortcut Reasoning は必ずしも先行研究で報告されている [“Spielberg”] $\rightarrow$ poitive のような予測と無関係な単語のみに反応しているのではないことがわかる。一方,そのような予測と無関係な単語がトリガーとなる推論パターンは得られなかったが,IID と OODを逆にした設定では異なる結果が得られる可能性がある. MARC に関して, neutral とラベル付けされたレビュー(星3つ)においては positiveな表現と negative が大きい推論パターンを観察してみると,総じて neutral を誤って予測していることから,本来であればレビューを総合的に評価しなければならないにも関わらず,レビュー中のどちらか一方の極性の感情語だけに依存して推論していることがわかった. NLI“s”は入力の premise と hypothesis を隔てる目印である. 得られた推論パターンを概観してみると, hypothesis に含まれる単語がトリガーの大半を占め, premise の中の単語を含む推論パターンは数件しかなかった. この結果はモデルが hypothesis に依存して文間関係を予測している2)ということを意味し, 同様の結果が Poliak 等によって報告されている [2]. さらに,否定表現が hypothesis に含まれている推論パターンが多く Shortcut Reasoning として判定されたが,これについても先行研究 [1] で指摘されている Shortcut Reasoning である. 以上から,提案手法が多様な Shortcut Reasoning を適切に検出できていることがわかった. train or test Input reduction の適用先について, train と testから得られた推論パターンには大きな差は見られなかった. 具体的なパターンは異なるが, 特徴はおおむね同じであった。 論パターンに分類されるものである. ## 未知の Shortcut Reasoning と考えられるもの NLI では hypothesis に含まれる [“popular”] $\rightarrow$ neutral や, [“as", "well"] $\rightarrow$ neutral が新しい Shortcut Reasoning と して得られた. どちらも一般性,スコア差ともに 十分に Shortcut Reasoning と判断できる水準にある.一方,SA については特に見つけることができな かった。 ## 4 関連研究 Wang らは, 事前の定義なしに自動的に Shortcut Reasoning を検知する手法を提案している [10]. この研究では出力ラベルの予測に有効な特徴 ([“good”] $\rightarrow$ positive, [“bad"] $\rightarrow$ negative 等) は Shortcut Reasoning になりえないとし,それらを排除した上で明らかに予測に関係のない特徴 ([“Spielberg”] $\rightarrow$ positive 等)のみを検知しょうとしている. しかしながら, Joshi らによると, 自然言語処理のタスクにおいて Shortcut Reasoning の原因となる特徵(Spurious Features)は,大半が予測のための有力な情報であることを示しており [17],このような特徴を排除することは適切とは言えない. さらに, 2.3 項で述べた推論パターンの一般性を考慮していないため,検出された Shortcut Reasoning が実際にどの程度予測に影響を与えているのかわからないという問題点を持っている. ## 5 おわりに 本研究では,モデルの推論パターンを新たに定義し, Shortcut Reasoning を検知する手法を提案した。実験結果では, Shortcut Reasoning の形態についての最小限の定義で, 先行研究で明らかになっていた Shortcut Reasoning に加え,少量ながら未知な新しいものを自動的に検知することに成功した. 今回設定した推論パターンは語彙的推論パターンにのみ対応しており,抽象的推論パターンへの対応は今後の課題である. さらに, 抽出型の機械読解等のより複雑なタスクへの対応や,この手法で得られた Shortcut Reasoning の情報を応用し,モデルの頑健性を向上させることにも取り組みたい。 ## 謝辞 本研究は JSPS 科研費 19K20332 の助成を受けたものです. ## 参考文献 [1] Suchin Gururangan, Swabha Swayamdipta, Omer Levy, Roy Schwartz, Samuel Bowman, and Noah A. Smith. Annotation Artifacts in Natural Language Inference Data. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), pp. 107-112, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [2] Adam Poliak, Jason Naradowsky, Aparajita Haldar, Rachel Rudinger, and Benjamin Van Durme. Hypothesis Only Baselines in Natural Language Inference. In Proceedings of the Seventh Joint Conference on Lexical and Computational Semantics, pp. 180-191, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [3] Tom McCoy, Ellie Pavlick, and Tal Linzen. Right for the Wrong Reasons: Diagnosing Syntactic Heuristics in Natural Language Inference. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3428-3448, Florence, Italy, July 2019. Association for Computational Linguistics. [4] Viktor Schlegel, Goran Nenadic, and Riza Batista-Navarro. Beyond Leaderboards: A survey of methods for revealing weaknesses in Natural Language Inference data and models, May 2020. arXiv:2005.14709 [cs]. [5] Xuezhi Wang, Haohan Wang, and Diyi Yang. Measure and Improve Robustness in NLP Models: A Survey. In Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4569-4586, Seattle, United States, July 2022. Association for Computational Linguistics. [6] Xanh Ho, Johannes Mario Meissner, Saku Sugawara, and Akiko Aizawa. A Survey on Measuring and Mitigating Reasoning Shortcuts in Machine Reading Comprehension, September 2022. arXiv:2209.01824 [cs]. [7] Marco Tulio Ribeiro, Tongshuang Wu, Carlos Guestrin, and Sameer Singh. Beyond Accuracy: Behavioral Testing of NLP Models with CheckList. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4902-4912, Online, July 2020. Association for Computational Linguistics. [8] Pouya Pezeshkpour, Sarthak Jain, Sameer Singh, and Byron Wallace. Combining Feature and Instance Attribution to Detect Artifacts. In Findings of the Association for Computational Linguistics: ACL 2022, pp. 1934-1946, Dublin, Ireland, May 2022. Association for Computational Linguistics. [9] Xiaochuang Han, Byron C. Wallace, and Yulia Tsvetkov. Explaining Black Box Predictions and Unveiling Data Arti- facts through Influence Functions. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 5553-5563, Online, July 2020. Association for Computational Linguistics. [10] Tianlu Wang, Rohit Sridhar, Diyi Yang, and Xuezhi Wang. Identifying and Mitigating Spurious Correlations for Improving Robustness in NLP Models, May 2022. arXiv:2110.07736 [cs]. [11] Mukund Sundararajan, Ankur Taly, and Qiqi Yan. Axiomatic Attribution for Deep Networks, June 2017. arXiv:1703.01365 [cs]. [12] Francesco Barbieri, Jose Camacho-Collados, Luis Espinosa Anke, and Leonardo Neves. TweetEval: Unified benchmark and comparative evaluation for tweet classification. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 1644-1650, Online, November 2020. Association for Computational Linguistics. [13] Phillip Keung, Yichao Lu, György Szarvas, and Noah A. Smith. The multilingual Amazon reviews corpus. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 4563-4568, Online, November 2020. Association for Computational Linguistics. [14] Adina Williams, Nikita Nangia, and Samuel Bowman. A broad-coverage challenge corpus for sentence understanding through inference. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 1112-1122, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [15] Yixin Nie, Adina Williams, Emily Dinan, Mohit Bansal, Jason Weston, and Douwe Kiela. Adversarial NLI: A new benchmark for natural language understanding. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4885-4901, Online, July 2020. Association for Computational Linguistics. [16] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach, 2019. [17] Nitish Joshi, Xiang Pan, and He He. Are All Spurious Features in Natural Language Alike? An Analysis through a Causal Lens, October 2022. arXiv:2210.14011 [cs]. [18] Twitter-roBERTa-base for sentiment analysis, 20231 閲覧. https://huggingface.co/cardiffnlp/ twitter-roberta-base-sentiment. [19] roberta-large-mnli, 2023-1 閲覧. https: //huggingface.co/roberta-large-mnli. ## A データセットの詳細 ## B 使用したモデルの詳細
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q4-10.pdf
# 社会的状況に基づいた日本語ビジネスメールコーパスの構築 Muxuan $\operatorname{Liu}^{1}$ 石垣達也 ${ }^{2}$ 上原由衣 ${ }^{2}$ 宮尾祐介 ${ }^{3,2}$ 高村大也 ${ }^{2}$ 小林一郎 1,2 1 お茶の水女子大学大学院 ${ }^{2}$ 産業技術総合研究所 ${ }^{3}$ 東京大学 \{liu.muxuan, koba\}@is.ocha.ac.jp yusuke@is.s.u-tokyo.ac.jp \{ishigaki.tatsuya, yui.uehara, takamura.hiroya\}@aist.go.jp ## 概要 日本語の使用は,話者間の社会的地位の差異や親疎など多くの社会的状況に影響されるため,日本語のテキストを処理するモデルを構築する際に,これらの社会的状況を考慮する必要がある. 本稿では,言語を社会記号体系として捉える選択体系機能言語学における社会的状況の記述方法を用いて,機械学習モデルの訓練のための社会的状況に関する情報を含むコーパスの構築を試みる。 ## 1 はじめに 社会的状況には,聞き手の年齢・性別、話し手と聞き手の上下関係・親疎, 談話の目的・内容, 流れ,話の進行, 談話状況の違い(電話か対面か), 話しの様子(雑談的か討論的かという話のタイプ、好意的・対立的、気楽・緊張感), 地域差などが含まれている [1]. 日本語における言語使用は, これらの社会的状況を強く反映しているとされる [2]. そのため,様々な自然言語処理タスクにおいて日本語テキストを処理する際,より正確なモデルを構築するためには,テキストを取り巻く社会的状況を考慮することが必要になる. 例えば,メールを修正対象とする日本語誤り訂正タスクを考えた場合,文法的な間違いを訂正対象とするだけでなく,上司に休㗇を申請する状況においては「明日は休みます。 ありがとう.」と書いてしまうなど,社会的状況を踏まえていないために不適切な表現を使ってしまう誤りも存在する [3]. 機械学習モデルが個々の社会的状況を適切に捉え,利用するためには,それら社会的状況に関する属性情報を含むコーパスが必要である.そこで,本稿では, 送信者と受信者の社会的状況に基づいた書面でのコミュニケーションと位置づけられる電子メール [4] というジャンルを選択し,社会集団における言語使用の観点から言語分析を行う選択体系機 図 1: SFLによる言語体系(図は [5] から引用) 能言語学に基づき,より詳細な社会的状況に関する分析情報を含む日本語コーパスの構築を試みる. ## 2 社会的状況の表現 ## 2.1 選択体系機能言語学 (SFL) 選択体系機能言語学 (Systemic Functional Linguistics, SFL)は,Hallidayによって確立された機能言語学の一分野であり,とくに言語体系を社会記号体系とみなしている,言語体系は,意味層、語彙・文法層、表現層という 3 つの異なる種類の記号体系が階層になっており,それらの記号体系はコンテクストによって包括されている. その体系は, 社会状況下での言語使用を表すための選択肢からなるネットワーク(‘選択体系網’と呼ぶ, 2.2 節で詳述)で記述されており,状況の選択が意味の選択を制約し,意味が語彙・文法の選択を制約するなど,選択の体系が,意味,語彙・文法,表現と異なる記号体系が連携して形作られている. SFLによる言語体系の概観を図 1 に示す。 Halliday は,対話が発生する状況のコンテクスト (Context of Situation)を「何が起きているか(フィー ルド・活動領域)」「誰が参加しているか(テナー・ 役割関係)」「言語が使用される手段(モード・伝達様式)」という 3 つの枠組みで説明している [6]. 本稿で取り上げた「電子メール」というジャンルにおけるコミュニケーションを想定した場合, フィールドは「電子メールによるコミュニケーション」という社会活動となり,コミュニケーションの内容は,様々な言語使用域として捉えられる. テナーは電子メールをやり取りをする関与者らの社会的役割となる. モードはテキストの形態を規定する伝達様式となるため「電子文書」となる。 ## 2.2 選択体系網と選択肢 SFL の特徴の一つは,具現化される言語資源を選択肢(「特徴(feature)」と呼ばれる)の体系として表現することである.これらの体系は「選択体系網(system network)」と呼ばれ,言語体系を包括するコンテクスト層, 言語体系を構成する意味層, 語彙・文法層, 表現層の各層の異なる記号体系の言語資源が選択体系網で表現され,コンテクスト層から順番に上位の層から選択された言語資源に基づき下位の資源が選択されるという選択の体系を構成している. 例えば,「医療現場」という状況だと,「診査」「治療」のような出来事が存在し, それに対して 「手術」「この薬を飲んでしばらく様子を見て」など語彙や文法が選択される。このように,選択体系網はテキストが具現される過程を表しており,テキストの具現過程を構成する各資源(特徴)が,どのような選択の関係にあるかを表す。また,「選択」においては,各特徴のどれか一つを選択する場合,'[' を,同時に複数の特徴を選択する場合,“'ののそれぞれの表記を使用して選択体系網を記述する。 ## 3 SFL に基づいたコーパスの構築 本研究では,上述したSFLによって捉えられる社会的状況を考慮した電子メール(とくに,ビジネスメール)のコーパスを構築する.構築の流れを以下に示す. 1. 選択体系網の構築 SFLに基づきメールを対象とした社会的状況の選択体系網を構築する。 2. 場面の設定と収集クラウドソーシングを用いて,1 において構築した選択体系網の選択肢を反映する多様な場面を収集する。これにより,様々な状況を設定する。この際,選択体系網から選択肢を選んで場面を設定する作業は,3 おいて収集するメールに社会的状況をアノテー ションすることに相当する. 3.メールの収集 2 で収集した場面を使い,クラウ ドソーシングでメール本文を収集する。 4. SFL に基づくアノテーション3で収集したメー ルに対して,SFLに基づくアノテーションを行う. 以下,それぞれについて詳細を説明する。 ## 3.1 選択体系網の構築 図 2:「テナー (役割関係)」の選択体系網 テナー(役割関係) テナー(役割関係)とは,言語表現のやり取りにおける話し手と聞き手,あるいはメールの送信者と受信者の関係である. テナー には,一般的なビジネスメールに見られる対話参加者の社会的立場を想定し,図 2 に示すような選択体系網を構築した.「内」と「外」は,対話参加者の所属に関しての内外の立場関係を表す属性である。一般的に「「」は,「家族や自分の会社の人,自分が属するグループなど」を意味し,「外」は,「親しくない人や他人,他会社の人,他グループの人など」 と説明されている [7]. また,話者の立場を表すため, ビジネスメールによく登場する人物と組織を,目上・同輩・目下の 3 つの属性に分けている. 発話機能 SFLでは,テナー(役割関係)が,意味層における「発話機能」に影響を与える。 発話機能について,照屋 [8] は,SFLを用いて人間関係と対人的な意味を分析し,発話機能における対人的役割をまとめている(付録 3 参照)。 本稿はその対人的関係と発話機能を参照し, ビジネスメールにおいてよくある発話動機に基づき,図 3 の選択体系網を構築した。 図 3:「発話機能」の選択体系網 ## 3.2 場面の設定と収集 ビジネスメールによるコミュニケーションという社会的状況を表すために,前節で示した選択体系網の選択肢を元に,コーパスの属性を設定する。 「ビジネスメールによるコミュニケーション」というフィールドの下,多用な言語使用域のコーパスを収集するために,メールでのコミュニケーション場面もクラウドソーシングで作成依頼をかけ,場面の収集を行なった。具体的には,図 2 で示されている役割関係を元に,ビジネスメールによくある送信者と受信者の関係を 20 ペア設定した(付録:表 4 参照)。また,図 3で示されている「送信者の動き」 について,ビジネスメールによくある送信者の目的を「挨拶」「感謝」「謝罪」「断り」「問い合わせ」「依頼」「お知らせ」「催促」の 8 種類で設定している。 クラウドソーシングで 52 名の作業者を集め,1人あたり約 20 場面を作成してもらい,合計 1040 種類の場面を集めた. また,クラウドソーシングのデー タの質を高めるために,発注時に付録の表 5 で示されているような例を大量に提示した. また,今後のデータ分析等で受信者の特定を容易にするため,発注の際には受信者の称呼を「Aさん・A 様・A 社長など」と表記することを求めた。 ## 3.3 メールの収集 前ステップで得られた場面の中から,有効な 770 の場面を選び,クラウドソーシングで各場面毎に 5 通のメールを取得した. データの質を担保するために,発注時に,付録の表 6 で示されているような例を提示し,「上司には敬語を使う」、「友人にはため口でも大丈夫」など、常識的な範囲で、対人関係や社会的上下関係を考慮して作成することを求めた。 また,形態素解析などで利用しやすいように,件名と宛名の記入, また, 「XX 大学 $\mathrm{XX}$ 学部の $\mathrm{XX}$ さんは私の友達です」のように,場所や自分の名前などの固有名詞を「XX」で記入することを求めた. ## 3.4 SFL に基づくアノテーション 表 1 に,コーパスの全体像の例を示す. 機械学習での活用を容易にするため,3.1 節で列挙した選択体系網の選択肢の名称をコーパスのアノテーション名としてそのまま踏襲するのでなく,一定の構造を簡略化している. 表 1 に例示したメール本文にあるように,これは従業員から顧客へのお知らせのメールである. 図 2 で示されている対話参加者の選択体系網の「目上」「同輩」「目下」という上下関係を,「目下(送信者)] と「目上 (受信者)」というアノテーションで表現している。また,送信者と受信者のそれぞれの具体的な身分および話者間の所属に関する内と外の関係も 「内外関係」で表現する。 発話機能を表すアノテーションに関しては,図 3 で示されている選択体系体系網を元に設定している。今回,送信者目線でメール本文を収集したため,アノテーションを設定する際に「受信者の動き」 を除外した。「送信者の動き」は「陳述・質問・提供・命令」の 4 項目があり,それぞれの詳細を「送信者の動き (詳細)」というアノテーションで表現する。「やりとりにおける役割」に関して,送信者がやりとりしたいものやことを「与える」か「求める」かで選択され,対話参加者によってやりとりされるのは,「情報」か「モノとサービス」のいずれかである [8]. 例示のメール本文の場合,従業員が情報を顧客に与えている。「モノとサービス」のやりとりの場合,例えば,「本を返して」という要求で開始されるやりとりは,本を送信者に返せば目的を達成されるため,言語の果たす役割において「情報」 のやりとりと「モノとサービス」とでは異なっている [8]. ## 4 コーパスの分析 コーパスの場面数やメール数などの統計量を表 2 に示す. 延べ語数および異なり語数の計算につい $\tau$ ,国立国語研究所の形態素解析ツール「Web 茶ま 表 1:コーパスの概要 : 従業員が顧客に対してお知らせする場面の例 & & & & & & & & & & \\ 表 2: コーパスの特徴を示す統計量 & メール数 & 平均文長 & 延べ語数 & 異なり語数 \\ 依頼 & 100 & 0.13 & 500 & 17.60 & 35961 & 1561 \\ 謝罪 & 100 & 0.13 & 500 & 17.14 & 42326 & 1576 \\ 催促 & 100 & 0.13 & 500 & 20.57 & 42758 & 1130 \\ 感謝 & 100 & 0.13 & 500 & 15.82 & 37232 & 1499 \\ 挨拶 & 100 & 0.13 & 500 & 15.62 & 38370 & 1641 \\ お知らせ & 100 & 0.13 & 500 & 18.31 & 44822 & 1903 \\ 問い合わせ & 100 & 0.13 & 500 & 19.07 & 40734 & 1614 \\ め」1)を用いて,メール本文のテキストを解析し,記号を含めて計算を行った。また,送信者の動きにある「断り」について,「依頼主体」と「断り主体」の人間関係の調査 [9]によると,一般的に「断る」という行為は個人の送信者と個人の受信者の間で起こるものだと考えられる. 1 人の送信者が複数人の受信者全体を断ること(例えば、ある学生がサークルのメンバー全員を断ること)は稀であるため,コー パス構築の際には,そのような一対多の対人関係のペアを除外した.そのため,他の項目と比べ,「断り」の場面は 70 個しかない. ## 5 おわりに 本研究は,選択体系機能言語学に基づき,ビジネスメールに具現される社会的役割関係の情報をアノテーションした日本語コーパスを作成した. アノテーションとして用いられたタグの集合として, SFLにおける状況のコンテクストの要素および言語体系の一部(発話機能)の選択体系網における選択肢を採用した. 今回は,とくに社会的役割,とりわけ社会的上下関係の立場が明確なビジネスメールを対象にコーパスを作成した。作成されたコーパスは,アノテーションのタグとして用いられるSFL の選択体系網の選択肢をすべて使っているわけではなく,社会的役割関係を重視したものとなっている. 今後の課題として, 作成したコーパスの機械学習課題における利用と性能評価を行うとともに,SFL での状況のコンテクストからテキストが具現される過程を捉えたアノテーション手法の確立を目指す。 1) https://chamame.ninjal.ac.jp ## 謝辞 この成果は, 国立研究開発法人新エネルギー・産業技術総合開発機構 (NEDO) の助成事業 (JPNP20006) およびアバナード研究奨励金による支援の結果得られたものである. ## 参考文献 [1] 李舜昫. 談話分析からみた日本語学習者と母語話者の聞き手言語行動の実証的研究. 首都大学東京大学院人文科学研究科・人間科学専攻日本語教育学教室 - 博士学位論文, 2016. [2]松村瑞子・因京子. 日本語談話におけるスタイル交替の実態とその効果. 『言語科学』, No. 33, pp. 109-118, 1998. [3] 藤原安佐・阿部仁美 $\cdot$ 大井裕子・椿原博子・吉田則子.日本語教育における配慮に関わる表現の指導. 『北海道大学大学院教育学研究院紀要』, No. 108, pp. 85-98, 2009. [4] 文化審議会国語分科会. 分かり合うための言語コミュニケーション (報告). 国語分科会(第 67 回), 2018. [5] 小林一郎. 意味へのアプローチ: ハリデー言語学の観点から, 2017. [6] M.A.K. Halliday. Language as Social Semiotic: The Social Interpretation of Language and Meaning. Open University set book. Edward Arnold, 1978. [7] 平林周祐, 浜由美子. 外国人のための日本語例文・問題シリーズ 10 敬語. 荒竹出版, 1988 . [8] 照屋一博 (編),クリスチャン・マティスン,ジョン・ ベイトマン, ハイジ・バーンズ, M.A.K. ハリデー, 奥泉香, 水澤祐美子. 意味がよくわかるようになるための言語学一体系機能言語学への招待. くろしお出版, 2022. [9] 蔡胤柱. 日本語母語話者のEメールにおける「断り」ー—「待遇コミュニケーション」の観点から.『早稲田大学日本語教育研究』, No. 7, pp. 95-108, 2005. ## A 付録 表 3: 発話機能と応答([8] より引用し一部改変) 表 4: 送信者と受信者の関係に関する設定 表 5: 場面の設定例 【従業員が『自社のある部門全員』にメールで催促する必要がある場面】の解答例 「あなたは経理部に所属しています。あなたは最近、旅費の払い戻し期限が 12 月 10 日 17:00であることを、全社員に電子メールで送りました。しかし、期限を過ぎても、まだ提出していない社員がいます。全員に対してできるだけ早く提出するよう促すメールを書いてください。」表 6: メール収集の回答例 \\
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q4-11.pdf
# ニュースのライティングスタイルの差分を考慮した 日英機械翻訳のテストセットの開発 衣川和克 美野秀弥 後藤功雄 山田一郎 NHK 放送技術研究所 \{kinugawa.k-jg, mino.h-gq, goto.i-es, yamada.i-hy\}@nhk.or.jp ## 概要 英語ニュースでは一般に一文内に同一の表現を繰り返し使うことを避け, 言い換えや省略によって簡潔な文にすることが推奨される。一方で, 日本語ニュースではこうした簡潔性が英語ニュースほどは考慮されず,一文内に同一の表現が複数回出てくることも珍しくない. この差分により, 日本語ニュースから機械翻訳で生成した文が英語ニュースのライティングスタイルに沿わないものになってしまうことがある. 本稿では,こうしたライティングスタイルを考慮した機械翻訳の実現に向けて, 時事通信社の日英ニュース記事対からテストセットを構築する。日英ニュース記事の分析およびベースラインの機械翻訳モデルの性能評価を通じて, 本タスクの重要性および課題について議論する. ## 1 はじめに ニューラルモデルの発展とともに機械翻訳の性能は大きく向上している. 機械翻訳の重要な応用先の一つがニュースであるが, 機械翻訳をニュース制作に活用する上での課題の一つとして, 言語間でのニュースのライティングスタイルの差分が挙げられる. 例えば放送用の英語ニュース原稿では一般に, 説明や主張を簡潔なものにするため, 同じ表現の繰り返しを避ける, 受動態よりも能動態が好まれる, 否定形よりも肯定形が好まれるといった特徴がある [1]. 図 1 に [1] から引用した, 同じ表現の繰り返しを避ける例を示す. 例示した 2 つの文はいずれも「週末にハドソン百貨店で全米自動車労組がピケを行い,双方が勝利を宣言している.」という意味の文である. 1 つ目の文は「ハドソン百貨店」と「全米自動車労組」が複数回ずつ現れているが, 2 つ目の文はこれらの単語を一回ずつのみ記述している. 前者のように同一の名前や情報を繰り返す文 (REPETITIVE) は ## (REPETITIVE) Both Hudson's and the United Auto Workers Union are declaring victory after a weekend of U-A-W pickets at Hudson's Department Stores. ## (TIGHTER) Both sides are declaring victory after a weekend of picketing by the United Auto Workers Union at Hudson's Department Stores. 図 1 ライティングスタイルにそぐわない英文の例 冗長に感じられるため回避することが推奨され,より簡潔な文 (TIGHTER)が好ましい。 一方で, 日本語ニュースではこうした簡潔性が英語ニュースほどは考慮されず,一文内に同一の表現が複数回出てくることも珍しくない. その結果, 日本語のニュース記事を機械翻訳で英訳すると英語ニュースのライティングスタイルにそぐわない文が生成されてしまうことがある. 図 2 に時事通信社の日本語ニュース文, 対応する英語ニュース文, 機械翻訳による英訳の例を示す.この例では日本語文内で「入学」という単語が 3 回出てくるが, 前述のライティングスタイルに則るとこれらを全て同一表現で訳出することは避けることが望ましい. 実際, 英語ニュース文では 1 つ目と 3 つ目の「入学」を 1 つにまとめ, 2つ目の「入学」については “enter”ではなく“join”と表現している.しかし, 機械翻訳の出力では2つ目の「入学」については別表現を用いているものの, 1 つ目と 3 つ目の「入学」をいずれも同一に訳出してしまい, 尽長な文になってしまっている. ニュースでは速報性が重要なため, 機械翻訳を制作ワークフローに導入するためには, なるべく人手の修正が少なくなるよう, 単に翻訳文の意味が合っているだけでなく上記のようなライティングスタイルの要件を満たす文を生成することが望ましい. ## (SRC) 区によると, 同校がアルマーニの採用を決めた後, 大学予定者 7 人が教育方針や私立小への入学などを理由に入学を辞退した。 (REF) After the school decided to recommend Armani items as desirable clothing, seven children dropped plans to enter the school, with parents citing disagreements with its education policy, decisions to join private schools or other reasons, according to the office of Chuo Ward, where the school is located. (NMT) According to the ward office, after the school decided to hire Armani, seven students who plan to enroll in the school declined to enroll in the school due to their educational policy and entrance to private primary schools. 図 2 ライティングスタイルにそぐわない翻訳の例 本稿ではニュースのライティングスタイルに沿った文の生成の実現に向けて, まず評価用のテストセットを構築する. 上述した「同一表現の繰り返しの抑制」を制御の対象として, 時事通信社の日英対訳記事から人手で事例を収集する。(以降, 本稿で単に「ライティングスタイル」と記述した際には, 同一表現の繰り返しの抑制のことを言及しているものとする. )ニュースドメインの日英対訳コーパスで学習したベースライン機械翻訳モデルが, 上記のテストデータでどれくらいライティングスタイルに沿った出力を生成できているかを評価する. 日英ニュース記事の分析および評価実験を通じて, 本夕スクの重要性および課題について議論する. ## 2 日英ニュース記事の分析 本研究では, 時事通信社の 2018 年の日英ニュース記事アーカイブを利用する.このアーカイブでは日英いずれの記事にも ID が付与されており,まずこの ID 照合して日英のニュース記事対を作る. 次に,内山・井佐原の手法 [2]を用いて各記事対内で対訳文のペアを作る. 各日本語文を mecab [3] でトークナイズし, ストップワードを除き,一文内でトークンが重複している文を列挙する。この中から, 日本語文を見て,(図 2 に示したような)同一の表現が繰り返されていて訳出時に言い換えや省略が起きうる ものを手作業で 514 文収集した. これは「一文内でトークンが重複している文」のうちのおよそ 5,6 文に 1 文程度に該当し, また, 記事単位でみるとおよそ 4 記事に 1 記事がこのような文を含んでおり,これはニュース制作に機械翻訳を応用する上では無視できない分量である. 抽出した 514 の対訳ペアの中には文レベルの自動対応付けがうまくいかず, 日本語側で繰り返されている表現が英文側でどのように訳出されているか判断できないものもあったため,この中で対応付けの精度が比較的良く, 対象の表現が英語側でどのように訳されているか判断できるものを人手で 100 文取り出し, 訳出の傾向を分析した 省略訳出時に省略が起きているもので単純なものとしては, “A and B” の形で書けるような, 文法構造上並列な名詞や動詞が挙げられる。 仮校舎と再開した校舎をテレビ会議システムで結び, 遠隔合同授業も行う予定だ. Joint class activities using teleconference equipment are planned between the reopened and provisional schools. また,もう1つ分かりやすいケースとして, 数量の後ろに単位として付く名詞が繰り返されている場合にもこれを省略する傾向にあった。 17 年 4 月現在, 福祉事務所がある 902 自治体の 56\% に当たる 504 自治体が取り組んでいるが,中学生の勉強をサポートする事業が大半となっている. As of April 2017, 504 of 902 municipalities with welfare offices had implemented the program. それ以外の事例は, 文法構造からは単純には判断できない複雑なものが多い. 民間調査機関インテージによると, 2017 年のアルコール度数 7 9\% の缶酎ハイ市場は 7 年前の 2.5 倍に拡大し, 缶酎ハイ市場全体の 5 割強を占めた But the share of products with 7-9 pct alcohol in the Japanese canned chuhai market grew 2.5 -fold in seven years to stand at over 50 pct in 2017, according to private research firm Intage Inc. これは日本語側で意味が重複しているため, 訳出し てしまうと英語側が冗長になってしまうと考えられる例で, 2 つ目の「市場全体の 5 割」が「缶酎八イ市場」であることは自明であるため省略されている。 言い換え言い換えは積極的に用いられる傾向があり, 特に文内の近い位置で繰り返されているものについては言い換えが起きやすい。 昨年 3 月の声明は「戦争・軍事目的の科学研究を行わない」とする過去 2 回の声明を継承。 In the March 2017 statement, the council pledged to follow its two previous documents highlighting its determination not to conduct scientific research for military purposes. 固有名詞の繰り返しについても, 言い換えが起きる. 以下の例では 2 つ目の「ソメイヨシノ」を "Someiyoshino"ではなく, "the cultivated variety" と言い換えている。 クマノザクラの花は栽培品種のソメイヨシノ (染井吉野)に似た淡紅色などだが, 開花時期がソメイヨシノより早い. The petals of Kumanozakura are mainly a light shade of red, similar to those of "Someiyoshino," and bloom earlier than those of the cultivated variety. また, 表層が同じであってもニュアンスの異なる場合には訳出時に違う表現になる. 例として以下に示すような項の異なる述語が挙げられる。 さらに,いずれのケースでもブレーキが作動する 0.8 秒前までに, 運転者に衝突回避操作を促す警報が作動することも認定の要件となっている. Another planned requirement for the ministry's certification is that the equipment warns the driver at least 0.8 second before the brakes are activated, long enough for ordinary drivers to respond and apply brakes manually. その他日本語側で繰り返されている表現に対して, 英語側で必ずしも言い換え, あるいは省略が行われているわけではなく, 全て同一に訳出するものも存在する.これについては, 翻訳者が同一に訳してもさほど簡潔性を損なわないと判断した, その表現の訳語にバリエーションがなく同一に訳さざるを得な かったなどの理由が考えられる。 入居対象は市に定住する意思があり, 夫婦とも 35 歳以下か, 未就学児のみがいる夫婦. The city rents the apartments for up to five years to couples both aged 35 or less, or couples with only children of preschool age, who are willing to eventually settle in Hadano. ## 3 テストセットと評価方法 本稿では 2 節で収集した 100 組の対訳ペア(日本語入力文および参照訳)をテストセットとして用いる. テストセットの日本語文の中には 1 文内で複数種類の表現で繰り返しが起きているものもあり, 訳出の分類を合計すると省略が 45 事例, 言い換えが 39 事例, 全て同一に訳出していたものが 23 事例で合計 107 事例であった. また, テストセットの日本語文の平均文長は 60.52 文字であった. 次節で述べる実験では, 簡単のため参照訳と機械翻訳の出力を下記の 3 タイプに人手で分類し,これらがどれくらい一致しているかを評価する。 1. 対象の訳語が全て同一の場合は REPETITIVE 2. 対象の訳語が言い換えたり省略されている場合は TIGHTER 3. 対象の訳語が訳抜けや誤訳などによりうまく生成できていない場合は ERROR ${ }^{1)}$ 参照訳の 107 事例については, 23 事例が REPETITIVE, 84 事例が TIGHTER となる. 本稿の実験では参照訳を正解として評価を行うが, 参照訳と機械翻訳の出力のタイプが一致していなかったからといって,それが必ずしも誤りであるとは限らない. ライティングスタイルは属人的なものであり,言い換え・省略を行うか行わないかは作業者によって異なりうるからである. 現在, 複数人の翻訳者によるテストセットの日本語文の翻訳を進めており, 結果を収集してそのばらつきを調査する予定である。 ## 4 実験 ベースラインの実験として, 日英ニュースドメインの対訳データで学習した機械翻訳モデルがどれほどライティングスタイルに沿った出力を生成できるかを評価する。 1) 2 項目の省略と 3 項目の訳抜けを真に見分けることは難しいが,ここでは原言語文の後半の節が丸ごと訳出できていないなど, 久落の範囲が大きなものを訳抜けとして判定する。 表 1 実験結果 読売新聞 (Yomiuri_Editorial) ${ }^{2}$ の 2007 年から 2017 年の日英対訳記事コーパスから類似度 0.4 以上の対訳ペアを抽出し,このうち 596,679 ゚゚アを学習デー タ, 1,583 ペアを開発データとして用いる.いずれの言語もトークナイズに sentencepiece [4]を用い, 語彙サイズを 8000 とした. 翻訳モデルは Transformer [5] とし, fairseq [6] で実装した. optimizer は Adam [7] を用い, 学習率は 0.001 とした. 翻訳時のビームサーチはビーム幅を 5 とした. 表 1 に実験結果を示す. 全体で参照訳と一致していたのは 107 事例中 41 事例にとどまった. TIGHTER について一致したのは 28 事例で, さらにそのうち繰り返すか省略するかについても一致していたのは 19 事例であった. ベースラインモデルは全体の半数程度が REPETITIVE な出力となっており, 言い換えや省略の制御機能を学習データからうまく獲得する工夫が必要であることを示している. また, ERROR の数も $1 / 5$ 程度となっており, 無視できない問題であることが分かる. ERROR の内訳はほとんどが訳抜けであった. テストデータの中には比較的長い文が多く,これらをうまく処理できていない. 日本語ニュースは他ドメインと比べて文長が長い傾向があるが, 文長が長くて類似度も高い訓練事例は多くないため, 文長にロバストな翻訳性能をいかにして獲得するかも課題である. ## 5 関連研究 機械翻訳における訳語の統一については多く研究がなされてきた一方で $[8,9,10]$, 訳語の言い換えについての研究が限られている. 同一の単語はなるべく同一に訳したほうが可読性は高まるが, あまりに同一表現を使いすぎるとかえって読み物としての質が下がってしまう恐れもあるため,一概にどちらにすべきとは言えない.こうした背景を受けて, Guillou [11] は実世界の色々なドメインの翻訳において,どのような単語が言い換えられやすい(あるいは統一されやすい)傾向にあるのかを統計的に調査した. 単語の頻度や品詞, 文書のドメインによって傾向は異なるものの, 訳語を適宜言い換えることの重要性を提起している. Guillou [11] の研究は分析を主としたものだが, 本研究はニュースドメインにおける訳語の言い換えを実際のタスクに落とし込むことをねらいとしている。 翻訳のスタイルの制御についても,近年注目を集めている. Wang ら [12] は翻訳者の翻訳スタイルをニューラルモデルに学習させる研究を行った. 森下ら [13] はミニバッチに一文書を丸ごと入れることで文脈を考慮しながら学習・推論を行う手法を提案し, その効果の 1 つとして,「です・ます」調や「だ・である」調など, 翻訳対象のドメインのライティングスタイルに沿った出力が得られたことを報告している. 本研究では翻訳スタイルの 1 つとして,ニュースのライティングスタイルの一項目を対象に取り上げこの制御を評価することを目的としている. ## 6 おわりに 本稿では日英間のニューススタイルの差分に着目し,このギャップを埋めるための翻訳制御の実現に向けて,テストセットを構築した. 日英のニュース記事対についてそのライティングスタイルの差分を分析し, 本タスクの重要性とベースラインモデルの課題について議論した。 今後の予定として, 本稿で実施した評価方法についての検討を進める. 言い換えと省略を 1 つに混ぜて評価を行なったが, どのような場面でどちらかが求められているかについても調査を行う. また, 現在複数名の翻訳者により, 収集した 514 の日本語文の翻訳を進めており,その結果を受けてライティングスタイルのばらつきなどについての分析も進める予定である. どのような誤りがニュース制作者にとってインパクトの大きなものかについても定性的に分析したい. さらに、実際にこうしたライティングスタイルを文生成に組み込むための効果的な手法についても検討する. 本稿の実験では翻訳モデルの出力を評価したが, 本タスクは翻訳モデルの前後の処理でも効果的な制御を行える可能性がある. 例えば, 日本語側を pre-edit する [14, 15], あるいは, 英語側を post-edit するなどの手法も考えられる。 2) https://www.nichigai.co.jp/dcs/index5.html ## 謝辞 本研究成果は, 国立研究開発法人情報通信研究機構の委託研究(課題 225)により得られたものです. また,データをご提供頂きました株式会社時事通信社の朝賀英裕氏・川上貴之氏に厚く御礼申し上げます. ## 参考文献 [1] Robert A. Papper. BROADCAST NEWS AND WRITING STYLEBOOK. Routeledge, seventh edition, 2021. [2] Masao Utiyama and Hitoshi Isahara. A Japanese-English patent parallel corpus. In Proceedings of Machine Translation Summit XI: Papers, Copenhagen, Denmark, September 10-14 2007. [3] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to Japanese morphological analysis. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, pp. 230-237, Barcelona, Spain, jul 2004. Association for Computational Linguistics. [4] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics. [5] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [6] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 48-53, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [7] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Yoshua Bengio and Yann LeCun, editors, 3rd International Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings, 2015. [8] Shaohui Kuang, Deyi Xiong, Weihua Luo, and Guodong Zhou. Modeling coherence for neural machine translation with dynamic and topic caches. In Proceedings of the 27th International Conference on Computational Linguistics, pp. 596-606, Santa Fe, New Mexico, USA, August 2018. Association for Computational Linguistics. [9] Zhaopeng Tu, Yang Liu, Shuming Shi, and Tong Zhang. Learning to remember translation history with a continu- ous cache. Transactions of the Association for Computational Linguistics, Vol. 6, pp. 407-420, 2018. [10] Xinglin Lyu, Junhui Li, Zhengxian Gong, and Min Zhang. Encouraging lexical translation consistency for documentlevel neural machine translation. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 3265-3277, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [11] Liane Guillou. Analysing lexical consistency in translation. In Proceedings of the Workshop on Discourse in Machine Translation, pp. 10-18, Sofia, Bulgaria, August 2013. Association for Computational Linguistics. [12] Yue Wang, Cuong Hoang, and Marcello Federico. Towards modeling the style of translators in neural machine translation. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1193-1199, Online, June 2021. Association for Computational Linguistics. [13] Makoto Morishita, Jun Suzuki, Tomoharu Iwata, and Masaaki Nagata. Context-aware neural machine translation with mini-batch embedding. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 2513-2521, Online, April 2021. Association for Computational Linguistics. [14] Rei Miyata, Anthony Hartley, Cécile Paris, Midori Tatsumi, and Kyo Kageura. Japanese controlled language rules to improve machine translatability of municipal documents. In Proceedings of Machine Translation Summit XV: Papers, Miami, USA, October 30 - November 32015. [15] Yusuke Hiraoka and Masaru Yamada. Pre-editing plus neural machine translation for subtitling: Effective preediting rules for subtitling of TED talks. In Proceedings of Machine Translation Summit XVII: Translator, Project and User Tracks, pp. 64-72, Dublin, Ireland, August 2019. European Association for Machine Translation.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q4-12.pdf
# 広告データセットに内在する幻覚の分析 加藤明彦 1 大田和宽 ${ }^{1}$ 村上 聡一朗 1 三田雅人 ${ }^{1}$ 本多右京 ${ }^{1}$ 張培楠 ${ }^{1}$ 1 株式会社 サイバーエージェント \{kato_akihiko, ota_kazuhiro, murakami_soichiro, mita_masato, honda_ukyo, zhang_peinan\}@cyberagent.co.jp ## 概要 Encoder-decoder 型の抽象型要約に基づく広告文生成モデルは, テスト時に入力情報と矛盾する, 事実でない広告文を生成することがある. その要因として,入力に含意されない情報 (幻覚)を持つ広告文がデー タセット中に含まれることが挙げられる. 広告文の事実性を向上させるためには, データセット中の幻覚を考慮したデータ編集やモデル学習上の工夫を行う必要がある. 高性能な幻覚検出器を構築するためには, 広告データセット中の幻覚の傾向を把握しておくことが望ましいが, 検索連動型広告データセット中の幻覚の分析はほとんど行われていない.このため本研究では, 検索連動型広告のデータセットについて幻覚の有無とタイプのアノテーションを付与し, 分析を行った. ## 1 はじめに 広告文は, 広告対象の商品やサービスについて述べた入力情報をもとに作成される. 広告文が満たすべき重要な性質として, 入力情報に矛盾していない, という点が挙げられる. 広告文が入力情報に含意される場合, 入力に忠実な広告文である (忠実性 [1,2])(図 1). また, 入力情報に含意されない情報を含むが, それらが世界知識や常識的知識などの外部知識に基づいている場合, 事実である広告文である (事実性 $[1,3]$ ). 広告文の自動生成モデルには, 事実性に優れた広告文生成が求められるが, 現在, 広範に用いられている encoder-decoder 型の抽象型要約モデル [5] で広告データセットを学習すると, テスト時に入力情報と矛盾する, 事実でない広告文が生成されることがある.このように, 入力に含意されない情報が出力側に現れる現象を幻覚 [1] と呼ぶ. モデルが幻覚を含 図 1 広告文の忠実性と事実性に関するベン図 ( [4] 中の図を元に改変). む広告文を生成する 1 つの要因は, 入力に忠実ではないが事実である広告文 (事実である幻覚 (図 1) [4]) を広告データセットがしばしば含むことにある. その理由としては, 例えば以下が挙げられる: (1) ライターが外部知識に基づいて入力にない訴求表現を追加することがある 1)2,(2) 検索連動型広告をクリックした際に表示されるウェブページ, 即ちランディングページ (以下 LP) のスクリーンショットの OCR エラーのために, 入力の一部欠損やノイズ混入が発生し得る. 事実でない広告文の生成頻度を低減するためには, (A) 広告データセット中の幻覚を検出し, (B) 検出した幻覚を考慮したデータ編集やモデル学習上の工夫を行う必要がある. (A) の検出器を構築する上では, 広告データセット中にどのような幻覚がどの程度, 存在しているのかを把握しておくことが望ましい. 一般の文書要約タスク [1] やスローガン生成タ 1)ここで訴求表現とは, 消費者の注意を惹き,広告対象商品の購入を促すために用いられる表現を指す。 2)上記 (1) の例を挙げると,「メガネの UV カット率が向上」 と記載されているランディングページに対して,「UVカッ卜率が向上! 長時間の PC 作業に」という広告文をライター が作成した場合,「UVカット機能を持つメガネは PC 作業に利用され得る」という外部知識を利用して商品の有用性に関する訴求表現を追加している, と解釈することができる. 表 1 入出力フォーマットと各フィールドの例. 表中の [NE] は, 固有表現の秘匿化処理を行なっていることを表す. スク [6] ではデータセットに含まれる幻覚の分析が行われているが, 検索連動型広告のデータセットに含まれる幻覚の分析は,ほとんど行われていないのが現状である. そこで本研究では (A) に向けた準備段階として, 日本語の検索連動型広告データセットに含まれる幻覚の分析に取り組む. 具体的には, 株式会社サイバーエージェントで扱っている日本語の広告データセットから抽出した 360 事例について, 幻覚の有無とタイプに関するアノテーションと分析を行った. その結果, 入力には出現しない広告文中のフレーズの内, 少なくとも 8 割は入力を単に要約しただけでは出現し得ないフレー ズ, 即ち幻覚であることが明らかとなった. また,幻覚の $70 \%$ 以上が訴求表現に該当するという結果が得られた。 ## 2 データ分析手法 本節ではデータ分析の手法について述べる. 詳細は各小節に譲るが, 主な狙いとしては, データセット全体の幻覚の傾向を把握するために, できるだけ多様な広告文をサンプルし (2.1), 各広告文から網羅的にフレーズを抽出して (2.2), 幻覚の有無とタイプをアノテーションした (2.3). ## 2.1 事例抽出 事例のフォーマット本研究では表 1 の入出力フォーマットに従う 22,728 事例に対して, 後述の开ンプリングを行った. 広告文生成における一般的な入出力フォーマットは表 1 に示すように, (1) 入力情報と (2) 広告文からなる. (1) は (a) キーワードリスト, (b) LP, (c) LP の説明文, から構成される. 上記 (b) はLP のスクリーンショットに対する OCRによって取得し ${ }^{3)}$, (c) は LP の HTML 中の meta タグの要素 description から取得している. 一方, (2) は広告  の見出しを構成するフレーズ (見出しアセット ${ }^{4)}$; headline) と広告の説明文を構成するフレーズ (説明文アセット; description) から構成される. 見出しアセットは各入力に対して 3~15 個, 説明文アセットは $2 \sim 4$ 個存在する. 本研究では見出しアセット (半角 30 文字) を対象に分析を行う.これは説明文アセット (半角 90 文字) に比べて表示領域が狭いため,略語や言い換えなどがより多く用いられ,幻覚が発生し易いと考えられるためである. 事例のサンプリング各クライアントからバランス良く事例をサンプルするために,1クライアントあたり 5 種の広告キャンペーンを, そして各広告キャンペーンについて 5 つの LPをサンプルした. また,文長が短すぎる広告文を取り除くために, 各入力に紐づく見出しアセットの内, 7 文字以上のものだけを残した。 広告データセットには類似した広告文が多く含まれるため, ランダムサンプリングを行うと, 分析対象の事例集合の多様性が確保できないという問題がある. そこで本研究では, データセット全体としての幻覚の傾向を把握するために, できるだけ多様な広告文を分析対象とすることを狙い, 文べクトルを用いたサンプリングを行った. 文べクトル生成手法としては, 日本語を含む多言語モデルであり, 下流タスクで高い性能が報告されている LaBSE ${ }^{5)}$ [7] を採用し,候補集合を 1 文ずつ拡張する方式を採用した. 具体的には, 最初の 1 文をランダムに選択し, その後は候補集合中のいずれの文との cosine 類似度も閾値 $(0.5)$以下であるという条件を満たす 1 文を候補集合に加えるという手順とした. この結果得られた 360 種の広告文と, 対応する入力情報を対象に分析を行った. 4) Responsive Search ads (RSA) においてはこの様に呼称される. 詳細は以下を参照されたい: https://support.google. com/google-ads/answer/7684791?hl=en\&ref_topic=10284269 5) https://huggingface.co/sentence-transformers/LaBSE 表 2 幻覚有無アノテーションの例. 広告文側にのみ出現する 574 フレーズに対し,「この語句は入力情報 (キーワード, LP) の要約に含まれ得るか?」という質問に対する回答を選択する形式で幻覚有無のアノテーションを行った。 ## 2.2 広告文からのフレーズ抽出 以下の手順により, 各事例中の広告文から網羅的にフレーズを抽出し, 1,173 フレーズを得た. (1) Spacy ${ }^{6)}$ をして提供されている GiNZA v5.1 [8] によって,広告文に対して基礎解析を行った.これにより単語分割, 品詞タグ付け, 依存構造解析, 固有表現抽出が行われる。 (2) 上記 (1) の基礎解析結果を利用して各文から名詞句以外のフレーズ (動詞句など) を抽出した. 具体的には主辞の品詞が NOUN, PROPN, PRON 以外である文節を抽出している。 (3)上記 (1) の基礎解析結果を利用して各文から名詞句を抽出した. 具体的には (a) 固有表現, (b) 複合語, (c) 上記 (a)(b) に含まれない単一トークンの名詞, の和集合を名詞句とした. (a) については, GiNZA で抽出した固有表現を候補として, 人手で固有表現の範囲エラーを修正した ${ }^{7)}$. (b) については, 最終トー クンがフレーズに属する他のトークンの dependency head になっていて, 依存関係ラベルが compound または flatであるフレーズを抽出した. ただし上記手順で得られたフレーズが固有表現・数量表現を内包する場合には, 固有表現・数量表現とその前後でフレーズを分割した. 抽出したフレーズの具体例を付録 A の表 5 に示す. ## 2.3 アノテーション 2.2 節で抽出した 1,173 フレーズの内, 出力側にだけ出現する 574 フレーズに対し, 「この語句は入力情報 (キーワード, LP) の要約に含まれ得るか?」という質問に対して, 表 2 に示す 5 つの選択肢から回答を選択する形式で幻覚有無のアノテーションを行った.  また, 2.2 節で抽出した各フレーズについて, 以下の 2 つの観点で分類を行った. ここでは各タイプのフレーズが幻覚になる割合を算出するために, 入出力の双方に出現するフレーズに対してもアノテー ションを行っている. ## (1) 広告訴求に関する分類 訴求フレーズ, 商材フレーズ, その他の 3 つの選択肢から回答を選択する形式とした.ここで訴求フレーズは, 広告対象の商品やサービスの魅力や, 比較対象に対する優位性を述べたフレー ズと定義し, [9] で規定されているいずれかの訴求タイプ ( [9] の Table.1) に該当するかどうか, を基準としたアノテーションを行った。 ## (2) 一般的な観点での分類 固有表現, ジャンル特有の用語 ${ }^{8)}$, 時間表現, 数量表現, その他の 5 つの選択肢から回答を選択する形式とした. 固有表現, 時間表現, 数量表現の定義については関根の拡張固有表現階層 Ver アノテーションは株式会社サイバーエージェント内の広告アノテーション経験者 3 名により行った.アノテーションを実施する前に, 分析対象のデー タとは異なる 50 事例についてパイロットアノテー ションを実施し, 第 1 著者の想定回答とずれがある場合はフィードバックを行った。 上述した, 各フレーズの各分類タスク (幻覚の有無, 広告訴求,一般的な観点) に対し, アノテータ 3 名によるアノテーションを得た. ラベルは多数決によって決定し, 3 名のアノテーションが全て異なる選択肢に分かれた場合には, 第一著者が 3 名のアノテーションを考慮して, どのアノテーションを採用するかを決定した.いずれの分類タスクにおいても, 8)ここでジャンル特有の用語とは,そのフレーズによって, どの業種の広告文かが明確になるという性質を持つものと定義する ([例] ホールインワン). 9) https://sites.google.com/site/ 多数決でラベルが決定できなかったのは全体の $2 \%$以下であった. 最後にアノテータ間一致率について述べる. 幻覚有無と一般的な観点についての分類タスクについてはそれぞれ 0.78, 0.69 という高い Fleiss' kappa 值 [10] が得られた (Substantial agreement [11]). 広告訴求に関する分類タスクの一致率は前 2 者に比べれば低い値だがそれでも 0.33 (Fair agreement [11]) となった. ## 3 結果 幻覚有無アノテーションの結果を表 2 に示す.表 2 の「はい」は, 当該のフレーズは大力情報 (キー ワード, LP) の要約に含まれ得る, 即ち幻覚ではない, というケースに対応する。「はい」以外の 4 つの選択肢は幻覚に対応する. 574 フレーズ中, $82.8 \%$ (475/574) が幻覚としてアノテーションされていることが分かる. 幻覚の内訳を見ると,「いいえ(入力側に類似語句は存在しない)」が 430 / 475 と全体の $90.5 \%$ 占めるが,「いいえ (入力側に類似語句が存在するが意味は異なる)」も $7.6 \%$ 存在する. 後者の例としては, LP 側の「カップル」が, 広告文側では「2人」に言い換えられている事例などが挙げられる。 表 3 幻覚の内訳. 表 4 各フレーズが幻覚になる割合. 幻覚を持つフレーズを各観点で分類したアノテー ションの結果 (表 3) から, 幻覚フレーズの 70\%以上が訴求としてアノテーションされていることが分かる (例] 業界最大級, 全国). 商材に関する幻覚も $1.7 \%$, 存在する. ジャンル特有の用語 ([例] くすみ, 最大減量) が少なくとも約 $10 \%$, 数量表現も約 $7 \%$ 含まれる. 品詞について見ると, 約 $75 \%$ が名詞句だが,用言 (動詞句, 副詞句, 形容詞句) も約 $25 \%$ 存在する. また, 各フレーズを訴求に関して分類し, 種別ごとの幻覚率を算出した表 4 から, 広告文中の商材フレー ズは $7 \%$ 程度しか幻覚にならないが, 訴求フレー ズは約 $42 \%$, その他のフレーズは約 $51 \%$ が幻覚になっていることが分かる. ## 4 議論 本分析の結果, 広告文側にのみ出現するフレーズの内, 少なくとも 8 割は入力を単に要約しただけでは出現し得ないフレーズ, 即ち幻覚であることが明らかになった. 1 節でも述べたように, 事実でない広告文の生成頻度を低減するためには, (A) 広告データセット中の幻覚を検出し, (B) 検出した幻覚を考慮したデータ編集やモデル学習上の工夫を行う必要がある. 上記 (A) に関する見通しを以下に述べる. (a) 数量表現, (b) 商材フレーズに関する幻覚は, 事実性の観点で広告品質に与える悪影響が大きいことから, また (c) 訴求フレーズ, (d) ジャンル特有の用語は高い出現頻度を持つことから, それぞれ検出が必要である. 従って, 入出力双方から上記 (a)-(d) の表現を検出し, 出力側にしか現れない表現を特定するアプロー チが有効であると考えられる.これらの幻覚の検出は, 事前に各業種で辞書を作成し, ルールベースまたは distant supervision [12] で実現できると考えられる。検出器の構築と性能評価は今後の課題とする. 一方, 上記 (B) には大別して (1) データ側での対処 $[13,14]$, (2) モデル側での対処 $[15,16,17]$ という 2 つのアプローチが考えられる. (1) では, データセット中の広告文に幻覚が含まれる場合, 事例自体を廃棄するか [14], 広告文中の幻覚の削除や置換を行う必要がある [13]. 一方 (2) の例としては, 幻覚の低減に関する報酬関数を用いた強化学習 [15] や, 幻覚の度合いを制御コード (追加入力) として用いた制御可能な生成 [17] などが挙げられる。 ## 5 おわりに 日本語の検索連動型広告のデータセットから抽出した事例に対して,幻覚に関するアノテーションと分析を行った結果, 広告文側にのみ出現するフレー ズは 8 割以上,幻覚であることを確認した. また分析結果を踏まえ,広告データセット中の幻覚への対処の見通しを述べた。 ## 謝辞 本研究のアノテーションを実施して頂いた, 宇地原麻子氏, 宮城那南氏, 宮里竜士氏, 山城葵氏に感謝します。 ## 参考文献 [1] Joshua Maynez, Shashi Narayan, Bernd Bohnet, and Ryan McDonald. On faithfulness and factuality in abstractive summarization. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1906-1919, Online, July 2020. Association for Computational Linguistics. [2] Esin Durmus, He He, and Mona Diab. FEQA: A question answering evaluation framework for faithfulness assessment in abstractive summarization. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 5055-5070, Online, July 2020. Association for Computational Linguistics. [3] Artidoro Pagnoni, Vidhisha Balachandran, and Yulia Tsvetkov. Understanding factuality in abstractive summarization with FRANK: A benchmark for factuality metrics. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4812-4829, Online, June 2021. Association for Computational Linguistics. [4] Meng Cao, Yue Dong, and Jackie Cheung. Hallucinated but factual! inspecting the factuality of hallucinations in abstractive summarization. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 3340-3354, Dublin, Ireland, May 2022. Association for Computational Linguistics. [5] Shaunak Mishra, Manisha Verma, Yichao Zhou, Kapil Thadani, and Wei Wang. Learning to create better ads: Generation and ranking approaches for ad creative refinement. In Proceedings of the 29th ACM International Conference on Information \& Knowledge Management, pp. 2653-2660, 2020. [6] Yiping Jin, Akshay Bhatia, Dittaya Wanvarie, and Phu T. V. Le. Generating coherent and diverse slogans with sequence-to-sequence transformer. CoRR, Vol. abs/2102.05924, , 2021. [7] Fangxiaoyu Feng, Yinfei Yang, Daniel Cer, Naveen Arivazhagan, and Wei Wang. Language-agnostic BERT sentence embedding. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 878-891, Dublin, Ireland, May 2022. Association for Computational Linguistics. [8] 松田宽. Ginza-universal dependencies による実用的日本語解析. 自然言語処理, Vol. 27, No. 3, pp. 695-701, 2020. [9] Soichiro Murakami, Peinan Zhang, Sho Hoshino, Hidetaka Kamigaito, Hiroya Takamura, and Manabu Okumura. Aspect-based analysis of advertising appeals for search engine advertising. In Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies: Industry Track, pp. 69-78, Hybrid: Seattle, Washington + Online, July 2022. Association for Computational Linguistics. [10] Joseph L Fleiss, Bruce Levin, Myunghee Cho Paik, et al. The measurement of interrater agreement. Statistical methods for rates and proportions, Vol. 2, No. 212236, pp. 22-23, 1981. [11] J Richard Landis and Gary G Koch. The measurement of observer agreement for categorical data. biometrics, pp. 159-174, 1977. [12] Jingbo Shang, Liyuan Liu, Xiaotao Gu, Xiang Ren, Teng Ren, and Jiawei Han. Learning named entity tagger using domain-specific dictionary. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 2054-2064, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. [13] David Wan and Mohit Bansal. FactPEGASUS: Factualityaware pre-training and fine-tuning for abstractive summarization. In Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1010-1028, Seattle, United States, July 2022. Association for Computational Linguistics. [14] Kazuki Matsumaru, Sho Takase, and Naoaki Okazaki. Improving truthfulness of headline generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1335-1346, Online, July 2020. Association for Computational Linguistics. [15] Yixuan Su, David Vandyke, Sihui Wang, Yimai Fang, and Nigel Collier. Plan-then-generate: Controlled data-to-text generation via planning. In Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 895-909, Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [16] Haoran Li, Junnan Zhu, Jiajun Zhang, and Chengqing Zong. Ensure the correctness of the summary: Incorporate entailment knowledge into abstractive sentence summarization. In Proceedings of the 27th International Conference on Computational Linguistics, pp. 14301441, Santa Fe, New Mexico, USA, August 2018. Association for Computational Linguistics. [17] Katja Filippova. Controlled hallucinations: Learning to generate faithfully from noisy data. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 864-870, Online, November 2020. Association for Computational Linguistics. ## A 広告文から抽出したフレーズ 2.2 節で広告文から抽出したフレーズの具体例を表 5 に示す. 表 5 抽出したフレーズの具体例.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q4-13.pdf
# 文書単位の日本語テキスト平易化コーパスの構築に向けて 長井慶成 岡照晃 小町守 東京都立大学 nagai-yoshinari@ed.tmu.ac.jp \{teruaki-oka, komachi\}@tmu.ac.jp ## 概要 日本語の平易化の研究は,英語など第二言語学習者の多い言語に比べ言語資源に乏しく, 研究も盛んでない現状である。その打開に向け,我々は新たな文書単位の日本語テキスト平易化コーパスの構築を目指している。本稿ではまず毎日新聞と毎日小学生新聞を対象に,同じ内容を扱った記事同士を比較する予備調査を行った. その結果から,5つの平易化操作を定義し, 平易化前後の文アライメント評価データを作成した. さらにテキスト平易化に向けて作られた既存の文アライナーでの評価分析に取り組んだ. ## 1 はじめに テキスト平易化とは,理解が困難な文書である 「難解文書」の持つ意味を保ちながら,語彙や文法的な複雑さの抑えられた解釈のしやすい「平易文書」へと換言するタスクである. 平易化の利点として,テキストの読解レベルを下げることで子供や第二言語学習者などの非ネイティブスピーカーの読解支援 [1] が可能な点がある. 英語には「Wikipedia と Simple English Wikipedia」 や,「ニュース記事とそれを平易に書き換えたもの」 など大規模なコンパラブルテキストが既に存在しており,これらを対応付けたテキスト平易化コーパスは英語の平易化の研究促進に貢献している。一方,日本語の平易化のための言語資源は,英語に比べて乏しいのが現状である. 既存の日本語の平易化コー パスの多くは, 語彙平易化や文法平易化といった特定の平易化に焦点を当て,また文単位の平易化のみを考慮したものとなっている. 英語のような大規模なテキスト平易化コーパスが存在しないため, 日本語では文書単位の平易化がどのような操作により実現されているかの調査は十分に行われておらず,未だ不透明な部分が多い. このような課題に対処すべく,我々は日本語の文書単位で,かつ平易化の操作を網羅した新たな日本語テキスト平易化コーパスの構築に取り組んでいる. 本稿ではその前段階としてコンパラブルテキストである毎日新聞と毎日小学生新聞の記事データの同じ内容を扱った記事同士を比較する予備調査を行う. 調査の結果から日本語の文書単位の平易化に必要な平易化操作を定義し,それに基づきアノテー ションを行なって「文アライメント評価データ」を作成した。最後に作成したデータを用いて,既存の自動文アライナーの評価を行なった。 本稿の主な貢献は, 以下の 3 点である. - 予備調査から,日本語の文書単位の平易化における 5 つの平易化操作を新たに定義した. ・定義した平易化操作や文の対応が付与された 「文アライメント評価データ」を作成した。 $\cdot$文アライナーでの評価分析により, 平易化操作や文の対応の自動付与の可能性を示した. ## 2 関連研究 ## 2.1 英語の平易化コーパス 英語の代表的な平易化コーパスには, Wikipediaとニュース記事をドメインとした 2 種類が存在する。 Wikipediaをドメインとした平易化コーパス [2][3] は, Simple English Wikipedia と English Wikipedia を対応付けることで構築されている. Simple English Wikipedia ${ }^{1}$ は,一部の English Wikipedia ${ }^{2}$ の記事を平易化したテキストである。平易化はユーザーが行っており,基本的な語彙や文法に限定した書き換え,詳細追加などで記事を作成している。 ニュースドメインの平易化コーパスとして, $\mathrm{Newsela}^{3)}$ コーパス [4] がある. この平易化コーパスは,ニュース記事を人手により 4 段階のレベルで書き換えることで構築されたコーパスである。  日本語の Wikipedia には Simple English Wikipedia にあたるような平易化された記事は存在しない. また Newsela のような複数の難易度を考慮したコーパスも存在しないため, 日本語の平易化のための言語資源は乏しい現状にある。 ## 2.2 日本語の平易化コーパス 『SNOW T15: やさしい日本語コーパス』[5] は, 語彙平易化に焦点を当てたコーパスである. 日本語の基本的な語として 2,000 語を選定し,難解な文をその語彙のみを用いた表現に書き換えて構築された。 他にこのコーパスを参考にした『SNOW T23: やさしい日本語拡張コーパス』[6] や文法平易化に焦点を当てた『日本語文法平易化コーパス』[7]などもあるが,いずれも特定の平易化に特化し,また文単位の平易化のみを考慮したものである. 我々は日本語の文書単位での平易化を見据えている。それに向けて,以上のような文単位の日本語平易化コーパスとは異なり,特定の平易化に限定せず,平易化の操作を網羅した文書単位の日本語テキスト平易化コーパスの構築に取り組んでいる. ## 3 予備調査 この章では,文書単位での平易化に必要となる平易化操作を新たに定義するための予備調査を行う.次の 4 章で,定義した平易化操作や対応する平易文書の文 IDを難解文書の各文にアノテーションして文アライメント評価データを作成する. ## 3.1 データセット 難解文書と平易文書の関係があると期待される日本語のコンパラブルテキストとして,毎日新聞と毎日小学生新聞の記事がある. 毎日小学生新聞は小学生向けの日刊紙であり,公式からの言及はないが,毎日新聞の記事を小学生が理解できるような平易な表現に書き換えたと思われる記事が散見される。そのため本稿では毎日新聞記事を「難解文書」,毎日小学生新聞記事を「平易文書」として扱う. 予備調査では,まず毎日新聞と毎日小学生新聞の記事集合に対して記事アライメントを行い,同じ内容を扱った記事ぺアを抽出する。次に目視で記事ぺアの文の対応付けを行い,どのような操作により平易な表現への書き換えが行われているかを調査する.その結果から日本語の文書単位の平易化に必要な平易化操作を新たに定義する。表 1 平易化操作の種類と操作 予備調査には毎日新聞,および毎日小学生新聞の一年分の掲載記事を収録した 2014 年版の『CD-毎日新聞データ集』, 『CD-毎日小学生新聞記事データ集』を使用する。 ## 3.2 記事の対応付け 毎日新聞と毎日小学生新聞の記事集合から同じ内容を扱った記事ぺアを抽出する.毎日小学生新聞の特徴として,漢字の後に括弧でふりがなを振る傾向がある。これを取り除くため,両方のデータセッ卜で前処理として丸括弧とその中の文字列は削除する.前処理を加えた記事に対し,ユーザー辞書に 「令和」を登録した mecab ipadic-NEologd で形態素解析を行い,2 文字以上の動詞,形容詞,名詞を抽出する.ただし数字,ストップワード(一部の非自立語動詞),基本形が「*」のものなどは除く.毎日小学生新聞の掲載日ごとの記事を形態素解析して抽出した単語の頻度ベクトルを作成, tf-idf で重み付けした. 掲載日の前後 7 日の毎日新聞記事と余弦類似度をとることで記事を自動抽出した。 bag-of-words での記事アライメントでは,掲載時間のずれにより詳細まで完全に一致したものを得る事はできない(例:被害状況が更新されるなど). また毎日小学生新聞への書き換えでは不要な句や節を削除する平易化の操作が行われており,記事の類似度が高いからといって必ずしも良い対応の取れた記事のペアとは限らない。そのため目視で確認し,内容が一致した類似度が 0.70 以上の記事ぺアから類似度 0.05 刻みに 3 件ずつ計 18 件を抽出した。 ## 3.3 結果 抽出した各記事を鍵括弧外の「。」,「?」,「!」」で文分割し,文の対応を目視で確認した.対応が付いていると判断した文同士を比較して平易化のために行われている操作を調査した。操作の種類ごとに分類した結果,表 1 に示す計 5 つの平易化操作を新たに定義した.各平易化操作の例は,付録 $\mathrm{A}$ 参照. 表 2 毎日新聞記事へのアノテーション(一部抜粋) & 3 & 0 & 囲碁:10歳・仲邑初段、悔しい船出【大阪】 \\ スプリット & 1,2 & 1 & \\ 表 3 対応する毎日小学生新聞記事(一部抜粋) 4月 1 日付で囲基の史上最年少棋士になった仲邑董初段が 22 日、大阪市で公式戦の初めての対局に臨みました。第 29 期竜星戦予選 B 1 回戦で、同期の大森らん初段に敗れ、ほろ苦いプロデビューとなりました。序盤は互角の戦いだったものの、大森初段が中盤で優勢を築きました。 表 4 平易化操作ラベルの割合と平均文長 ## 4 評価データの作成 ## 4.1 データセット 文アライメント評価データの作成には,2019 年版の『CD-毎日新聞データ集』, 『CD-毎日小学生新聞記事データ集』のデータセットを使用する.記事が対応付いていると判断する閾値を類似度 0.75 以上として,3.2 節と同様に記事アライメントを行う. その結果, 毎日新聞 66,858 件と毎日小学生新聞 3,529 件から 442 件の記事ペアを抽出した. そのうちの 287 件がすべて文が「。」,「?」,「!!ののいずれかで終わる記事であった. 見出しなどではなく文に加えられる平易化操作に関心があるので,この 287 件の中から目視で対応がとれていることを確認した 50 件の記事ペアを抽出した。 ## 4.2 アノテーション 抽出した記事ぺアの毎日新聞と毎日小学生新聞の記事を読み比べ,毎日新聞記事の各文に対して表 1 の平易化操作,毎日小学生新聞記事の対応する文の ID を付与するようにアノテーションを 1 名の作業者に依頼した. 依頼時, 毎日小学生新聞で插入された文 ID を記録するため文 ID が 0 の行を用意し,文のカラムには記事の見出しを入れた。毎日新聞記事への人手アノテーションの結果の例と, その記事に対応付く毎日小学生新聞記事を表 2 と表 3 に示す. ## 5 分析 ## 5.1 平易化操作ラベルの割合 毎日新聞と毎日小学生新聞の間で行われる平易化操作の傾向をつかむために,毎日新聞記事の各文に対して付与された表 1 の 5 つの平易化操作の総数と割合, 付与された文の平均文長を調査した。その結果を表 4 に示す. ただし,付録 B のように毎日新聞と毎日小学生新聞には文書の性質に違いがある. そのため毎日小学生新聞の文に付与される「文の挿入」は,毎日新聞の文に付与する他の平易化操作の平均文長とは単純な比較はできない. 最も多く行われた平易化操作は「文の削除」であった.これは難解な文を平易な文へと変換することを前提とした「文単位の平易化」にはない「文書単位の平易化」特有の操作である. すべての難解な文を平易なものにするのではなく,ときには削除して文書全体を要約する形で毎日新聞記事から毎日小学生新聞記事へ書き換えていることが伺える. スプリットのラベルの付いた文の対応 IDをみると文の対応は $1 \mathrm{n}$ となっており, $\mathrm{n}: \mathrm{m}$ のような複数文が対応するような複雑な平易化操作は抽出した 50 件ではみられなかった. スプリットで連続する文に分割されるのは 32 回のうち 30 回であり,また付与された文の平均文長は他の操作よりも長いことから,文書の構造を変化させるのではなく,文長を短くすることで理解しやすいものに書き換える傾向があるといえる. マージはスプリットと同数だが,マージは $\mathrm{n}: 1$ の関係をとる平易化操作であり,毎日新聞の各文にアノテーションを行っているため実際の操作回数よりも多くなっている。連続するマージを 1 回とカウントした場合の総数は 24 回であり, 平易化操作としてはスプリットの方が多用されている. 表 5 平易化操作ラベルの条件 ## 5.2 アライナーによる文の対応付けと分類 既存の文アライナーで作成した評価データの文アライメントを行い,その結果をもとに「平易化操作」 と「対応 ID」を自動付与する。これを評価データの人手アノテーションと比較して一致率を調査する. ## 5.2.1 アライナー $\mathrm{CATS}^{4)}$ [8][9] は,段落や文を $\log$ tf-idf で重み付けした文字 3-gram で表現し, 文書間で最大類似度のものと対応付けるアライナーである. 本稿では文アライナーとして使用し,対応元文書の各文の「対応 ID(対応する文の ID)」と「余弦類似度」を求める。 1:n の対応をとるスプリットやマージの検出のために「毎日新聞-毎日小学生新聞」の両方向で行う. ## 5.2.2 平易化操作ラベルの自動付与 作成した評価データの 50 記事から抽出した 15 記事をもとに以下の 4 つの条件を設定し,表 5 のように満たすかで平易化操作を自動付与する. ラベルを付与する毎日新聞の文を $\left.「 S_{m a i}\right.\lrcorner$, CATS での毎日新聞から毎日小学生新聞への対応付けで $S_{m a i}$ と最大類似度をとる毎日小学生新聞の文を $\left.「 S_{s h o}\right.\lrcorner$ とする。 条件 1 毎日小学生新聞から毎日新聞への対応付けで $S_{s h o}$ の最大類似文は $S_{m a i}$ で, 類似度は 0.20 以上 条件 2 毎日小学生新聞の文に $S_{s h o}$ 以外に $S_{m a i}$ が最大類似文, かつ類似度が 0.20 以上の文がある 条件 3 毎日新聞の文に $S_{m a i}$ 以外に $S_{s h o}$ が最大類似文, かつ類似度が 0.20 以上の文がある 条件 4 毎日小学生新聞の文で, 毎日新聞のすべての文との類似度が 0.13 以下 ## 5.2.3 評価 各平易化操作ラベルの総数と, それが人手アノテー ションしたラベルと対応 ID のどちらとも一致する 4) https://github.com/neosyon/SimpTextAlign表 6 平易化操作ラベルの一致率 表 7 自動付与と人手によるアノテーションの比較人手自動毎日新聞 ものの総数と割合を表 6 に示す.「なし」は自動付与では文の挿入は行われていないとされたが, 人手アノテーションではあると判断されたものを表す. マージを除く平易化操作は人手アノテーションと高い一致率であった. マージの一致率が低い要因として 2 点考えられる. 1 点目として文字 3-gram での対応付けにより内容は異なるが出現単語が類似した文とも高い類似度となり,誤った対応付けをすることがある. 2 点目としてマージの判断は人手でも困難なことが挙げられる。毎日小学生新聞の『「N 7 00S」は来年の東京オリンピック直前にデビュー する予定で, アメリカの高速鉄道や台湾新幹線などへの売り込みを目指しています。』という文に対応する毎日新聞の文に人手と自動では表 7 のように異なるラベルを付与した. この場合は自動付与の方が適切なラベルといえる. 文アライナーの活用することで人手付与の誤りを検知でき, より高い精度で平易化操作ラベルを付与することが期待される. ## 6 おわりに 本稿では,毎日新聞と毎日小学生新聞の記事ペアから平易化の予備調査を行った。「調査により新たに設計した 5 つの平易化操作」と「対応する文 ID」 が付与された文アライメントの評価データを作成した. また,文アライナーにより自動での平易化操作を分類した結果,人手アノテーションと高い一致率であった. このことから, 文アライナーを活用して自動で平易化操作ラベルや対応する文 IDを付与することで,十分なコンパラブルテキストさえ用意すれば,大規模な文書単位の平易化コーパスを構築できる可能性を示した。 ## 謝辞 本研究成果は, 国立研究開発法人情報通信研究機 構(NICT)の委託研究「自動翻訳の精度向上のためのマルチモーダル情報の外部制御可能なモデリングの研究開発」により得られたものである. ## 参考文献 [1] Jan De Belder and Marie-Francine Moens. Text simplification for children. In SIGIR Workshop on Accessible Search Systems, pp. 19-26, 2010. [2] Zhemin Zhu, Delphine Bernhard, and Iryna Gurevych. A monolingual tree-based translation model for sentence simplification. In International Conference on Computational Linguistics, 2010. [3] William Coster and David Kauchak. Simple English Wikipedia: A new text simplification task. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 665-669, Portland, Oregon, USA, June 2011. Association for Computational Linguistics. [4] Wei Xu, Chris Callison-Burch, and Courtney Napoles. Problems in current text simplification research: New data can help. Transactions of the Association for Computational Linguistics, Vol. 3, pp. 283-297, 2015. [5] Takumi Maruyama and Kazuhide Yamamoto. Simplified Corpus with Core Vocabulary. In Nicoletta Calzolari (Conference chair), Khalid Choukri, Christopher Cieri, Thierry Declerck, Sara Goggi, Koiti Hasida, Hitoshi Isahara, Bente Maegaard, Joseph Mariani, Hélène Mazo, Asuncion Moreno, Jan Odijk, Stelios Piperidis, and Takenobu Tokunaga, editors, Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Miyazaki, Japan, May 7-12 2018. European Language Resources Association (ELRA). [6] Akihiro Katsuta and Kazuhide Yamamoto. Crowdsourced Corpus of Sentence Simplification with Core Vocabulary. In Nicoletta Calzolari (Conference chair), Khalid Choukri, Christopher Cieri, Thierry Declerck, Sara Goggi, Koiti Hasida, Hitoshi Isahara, Bente Maegaard, Joseph Mariani, Hélène Mazo, Asuncion Moreno, Jan Odijk, Stelios Piperidis, and Takenobu Tokunaga, editors, Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Miyazaki, Japan, May 7-12 2018. European Language Resources Association (ELRA). [7] 稲岡夢人, 山本和英. 日本語文法平易化コーパスの構築. 言語処理学会第 25 回年次大会, pp.375-378, March 2019. [8] Sanja Stajner, Marc Franco-Salvador, Simone Paolo Ponzetto, Paolo Rosso, and Heiner Stuckenschmidt. Sentence alignment methods for improving text simplification systems. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics, ACL 2017, Vancouver, Canada, July 30 - August 4, Volume 2: Short Papers, pp. 97-102, 2017. [9] Sanja Štajner, Marc Franco-Salvador, Paolo Rosso, and Simone Paolo Ponzetto. CATS: A tool for customized alignment of text simplification corpora. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Miyazaki, Japan, May 2018. European Language Resources Association (ELRA). ## A 平易化操作ごとの例 & \\ ## B 作成した文アライメントの評価データの統計量 図1評価データの文字数のヒストグラム 図 2 評価データの文数のヒストグラム
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q4-14.pdf
# 漫才対話の収集及び自動アノテーションのパイプラインの検討 佐々木裕多 1 張建偉 1 1 岩手大学 理工学部 \{s0619027,zhang\}@iwate-u.ac.jp ## 概要 笑いは健康を促進することができ,誰かと一緒のときに起こることが多いため,対話システムへのユーモアの実装によりユーザの心身の満足度が向上すると考えられる。また,日本人の笑いは「会話型」コミュニケーションの笑いが多く,一般的にコミュニケーションにおいて非言語コミュニケーションの割合が高い.このことから,漫才対話に着目し,マルチモダリティを用いて,会話形式のユーモアを学習するためのデータセットの構築を行う。このデータセット構築におけるアノテーションは負荷が高く,再現性が低くなりやすい. アノテーションの負荷軽減と再現性向上のため,漫才対話の収集から自動アノテーションまでのパイプラインの構築を試みる。 ## 1 はじめに 笑いは健康に良い影響を及ぼしている。漫才動画鑑賞を用いた実験から,笑うことによる認知機能改善とストレス応答抑制の有効性や [1], 他者と笑うことによる高齢期での機能不全のリスクの軽減など [2], いくつもの医学研究が健康に対する笑いの影響を示している [3]. また,笑いは大抵誰かと一緒にいるときに起こると報告されており [4],コミュニケーションの中で笑いが起きやすいと考えられる。 これらのことから,対話システムに笑いを引き起こすユーモアを実装することで,ユーザの心身の満足度向上が期待される。 対話システムへのユーモアの実装を目的として,会話におけるユーモアの理解や生成を学習するためのデータセットの構築を試みる。荒木ら [5] は, ユーモアの面白さを評価する標準的なデータセットの構築の第一段階として, 駄酒落データベースの構築を行なった. 日本人の笑いは 2 人以上の時に多く成立し,「合いの手」が入ることで笑いが起こる 「会話型」コミュニケーションにおける笑いが多い [6]. しかし, 駄酒落はジョークの一種であり, 対話へのユーモアの応用を考慮すると,文脈を必要とするユーモアに着目する必要がある。また,コミュニケーションにおける笑いを発話のみから判断するのは適切ではない. Mehrabian は 2 つの研究を基に, $7 \%$ の言葉,38\%の音声,55\%の表情から感情を伝えると導いた $[7,8]$. 笑い声や笑い顔が人類に共通し,強い共鳴性を持つことからも,コミュニケーションにおける笑いに対して非言語コミュニケーションの要素を考慮することが重要だと考えられる。そこで,マルチモーダル漫才対話ユーモアデータセットの構築を試みる. Patro ら [9] は TV シリーズのシットコムを用いてラフトラックを予測するマルチモー ダルデータセットを構築した.これを参考とし,話者情報,発話テキスト,発話開始/終了時間,面白さ,笑い声区間のアノテーションを行う.しかし, これら全てのアノテーションは負荷の高い作業であり,アノテータ毎に時間のずれや表記ゆれ等による不一致が起こりやすいため,再現性が低いと考えられる. アノテータが自動アノテーションの結果を修正することで,アノテーションの再現性を向上できると考え,本研究では発話テキスト,発話開始/終了時間,笑い声区間を対象とした自動アノテーション手法を検討し,データセット作成のためのパイプライン構築を試みる。 ## 2 パイプライン構築 データセット構築のパイプラインを図 1 に示す.本研究では,漫才対話データ収集と自動アノテー ションについて取り組む. ## 2.1 漫才対話データ収集 マルチモダリティを扱うことができ,漫才対話生成やユーモア検出,ラフトラック予測などの複数のタスクに対応できる抽象度の高いデータセットの構築を目指す。そこで,多くのモダリティ情報を獲得 図 1 データセット構築のパイプライン でき,漫才対話データも多い YouTube ${ }^{1)}$ 対象としてデータの収集を行う。 ## 2.1.1 収集方法 収集するデータの決定のため,YouTube Data API ${ }^{2)}$ を用いて,動画のメタデータを収集する。メタデータには動画 ID やタイトル,チャンネル ID などが含まれる。メタデータの収集には次の 2 つの方法を採用する。 - M-1 グランプリ公式チャンネルを対象として,「M1 グランプリ」のクエリを用いて検索 ・芸能事務所公式チャンネルが公開しているプレイリストを対象として検索 近年では,一般の人も簡単に動画をアップロードすることができ,違法アップロードされた動画も多い.そのため,人手で API のパラメータを慎重に決定することで,確かに公式に公開された動画の义タデータを収集する。また,漫才師が公式に公開している動画も存在するが,漫才師の偏りを防ぐため,芸能事務所や大会が公開する漫才のみを対象とした. ## 2.1.2 フィルタリングによる後処理 コントはセットを用いた寸劇形式であり,会話形式のデータ収集には不適切である. したがって,コントやインタビューの動画を除くため,以下のルー ルに基づくフィルタリングを行う. 1) https://www.youtube.com/ 2) https://developers.google.com/youtube/v3 図 2 アノテーションデータ形式例 ・ M-1 グランプリ公式チャンネルを対象として,タイトルに「【決勝ネタ】」「【敗者復活戦ネタ】」「【ナイスアマチュア賞】」のいずれかを含む ・プレイリストを対象として,タイトルに「漫才」を含む このフィルタリングによって残ったメタデータを基に動画データを収集する。 ## 2.2 自動アノテーション 漫才対話データのアノテーション結果のデータ形式を図 2 に示す.この形式を満たすためには,漫才を観た上で,発話テキストや発話時間,話者情報,面白さ,笑い声区間の全てのアノテーションを行う必要がある.これらのアノテーションは負荷が高く,テキストの表記ゆれや時間のずれ等が起こりうる. そこで,アノテータの負担を減らし,アノテー ションの再現性を向上するため, 次の自動アノテー ションを行う。 ## 2.2.1 漫才対話自動書き起こし 音声の書き起こしとテキストに対応する発話時間の推定を行う Whisper large-v $2^{3}$ [10] を用いて,漫才対話の自動書き起こしと発話時間推定を行う. 同 small モデルを用いた書き起こしも行なったが,漫才に対する音声認識性能が低く, 誤字も多いことから, large-v2 モデルを採用する。 ## 2.2.2 笑い声区間の自動検出 各発話の面白さの評価は,アノテータ毎にずれがあると考えられる.観客の笑い声をラフトラックとして扱うことで,各発話に対するユーモアのラベル付けが可能になると考え,笑い声区間の自動検出を行う. 検出モデルには AudioSet-YouTube corpus [11] で訓練された MobileNet ${ }^{4}$ [12]を用いて,521 個の音声クラスのうち Laughter クラスの予測確率が $5 \%$ 以上の区間を笑い声区間として検出する。このモデルは音声を 960ms のフレーム毎に分割し, 各フレームに対してクラスを予測する。連続するフレームは $480 \mathrm{~ms}$ の重複を持つため, 笑い声区間と予測されたフレームが連続した場合,それらに対応する時間を結合する後処理を加える. ## 3 分析 収集されたデータと自動アノテーションの分析を行うことで,目的とした漫才対話が収集できているか, 自動アノテーションが実用に足る精度であるかを調査し,課題を考察する。 ## 3.1 収集データの分析 収集されたデータの統計情報を表 1 ,収集データ内における漫才師の被り数の分布を図 3 に示す. データ件数 280 件に対して漫才師が 201 組であった 3) https://github.com/openai/whisper 4) YAMNet とも言われる. https://tfhub.dev/google/yamnet/1表 1 収集データの統計情報 図 3 漫才師の被り数の分布 ことや同じ漫才師の出現頻度が小さいことから,漫才師の偏りを防いでデータ収集できていることがわかる. 今回収集された YouTube チャンネル数は 3 件であり,これらは大会か芸能事務所の公式チャンネルであった. したがって,違法アップロードされた動画は収集されていないことがわかる。しかし,いくつかの動画を確認した際,コントと思われるデー タが確認された。メタデータを収集する API のパラメータの設定やフィルタリングによってコント動画を自動的に除くことは難しく,人手によるフィルタリングも行う必要性がある. ## 3.2 自動アノテーションの分析 自動アノテーションの分析のため, Web アプリケーションの構築を行なった.漫才動画,笑い声区間,書き起こし,発話時間をシングルページで参照でき,図4のようになっている.画面左では動画鑑賞と笑い声区間検出の確認を行い,画面右では書き起こしや発話時間の確認を行うことができる.このアプリケーションを用いて,20 件程度の漫才動画を鑑賞し,自動アノテーションの傾向の観察と課題の考察を行った。 ## 3.2.1 漫才対話自動書き起こし Whisper による自動書き起こしは,人手で修正することでアノテーションができるほど高い精度であったが,課題が多くあった.人名やコンビ名のよ 図4 アプリケーション画面 うな固有名詞や言い間違えボケ,テンポの速すぎる会話などはうまく書き起こしができていなかった. 例えば,「竹内豊」という俳優の名前に対して 「竹ルーツ居たかったら」,「かわいい」を「ハワイ」 と言い間違えるボケに対して「かわいい」と書き起こす誤りがあった.また,出囃子が流れている言葉の無い時間に発話時間を割り当て,ネタ前半部分の発話推定時間が大きくずれる現象も見られた. Whisper は同時に起こる発話の時間を適切に推定できず,重なった発話の片方のみを書き起こすケースも多かった. 自動書き起こしと発話時間推定は,発話の重なりのない音声において高い精度であったが,テンポが速く発話の重なった音声において工夫すべき点が多く見られた。 ## 3.2.2 笑い声区間の自動検出 笑い声区間の自動検出精度は,漫才動画の性質に大きく依存していた.観客の笑い声が鮮明に聞き取れる動画に対しては高精度で笑い声区間を検出できていたが,観客のリアクションが小さく収録された動画に対しては笑い声区間を検出できないケースが多かった. さらに,漫才師自身が笑う場合や漫才師が甲高い声または叫ぶような声で発声する場合において,笑い声区間の誤検出が多かった。観客だけのリアクションを考慮するため,観客のリアクションの抽出や増幅のような工夫が必要である.また,検出モデルが予測するフレームは $960 \mathrm{~ms}$ と長いため,観客の笑い声が長く続くケースや笑いが起こるテンポが速いケースにおいて,検出される笑い声区間が極端に長くなってしまい,不適切であった.より短い時間のフレームに対する予測や音声イベント検出の組み合わせによって,笑い声区間の自動検出精度 が向上すると考えられる。 ## 4 まとめと今後の展望 笑いは健康を促進でき,日本人の笑いは「会話型」コミュニケーションの中で起こることが多いため,対話システムへの会話形式のユーモアの実装によりユーザの心身の満足度を向上できると考えられる. 本研究では,マルチモーダル漫才対話ユーモアデータセットの構築のため,データ収集とアノテー ションの負荷軽減と再現性向上を目的とした自動アノテーションのパイプラインを検討した. 今回使用したデータ収集のロジックにより,人手でコントを除く処理は必要であるが,適切にアップロードされた動画を対象に収集できた. しかし,今回行った自動アノテーションの方法には多くの課題が見られ,工夫の余地があることがわかった. すでに検証した自動アノテーションの精度改善実験やデータ収集方法改善の結果を付録 A,B に示している。 今後はアノテーションのルールの細かな設定を決定し,自動アノテーションの手法を改善する.漫才は「会話型」コミュニケーションの形式でネタが行われており,意味のある言葉を含み笑いを狙ったツッコミだけでなく,相槌や合いの手も頻繁に行われている。相槌や合いの手をどの程度テキストに起こすかを決定する必要がある.また,笑い声はピー クを持つが一定時間持続するものであり,笑い声が短時間に連続して発生した場合, 笑い声区間のアノテーションは不適切になりうる。 そのため, 笑い声のピークや音声イベントを用いたルールの設定が必要である。これらの細かな設定をした上で,精度と再現性の高い自動アノテーション手法をさらに検討し,データセットの構築と公開を目指す。 ## 参考文献 [1] 山越達矢, 阪本亮, 西垣翔梧, 田中爽太, 福田隆文, 金留理奈, 鈴木久仁厚, 梁弘一, 小山敦子, 阿野泰久. 笑いによるストレス応答抑制と認知機能改善効果. 日本健康心理学会大会発表論文集, Vol. 34, p. 87, 2021. [2] Yudai Tamada, Chikae Yamaguchi, Masashige Saito, Tetsuya Ohira, Kokoro Shirai, Katsunori Kondo, and Kenji Takeuchi. Does laughing with others lower the risk of functional disability among older japanese adults? the jages prospective cohort study. Preventive Medicine, 2022. [3] Rosemary Cogan, Dennis Cogan, William Waltz, and Melissa McCue. Effects of laughter and relaxation on discomfort thresholds. Journal of behavioral medicine, Vol. 10, No. 2, pp. 139-144, 1987. [4] Rod A Martin and Nicholas A Kuiper. Daily occurrence of laughter: Relationships with age, gender, and type a personality. 1999. [5] 荒木健治, 内田ゆず, 佐山公一, 谷津元樹, 北海道大学, 小樽商科大学. 駅酒落データベースの構築及び分析. 人工知能学会第 2 種研究会ことば工学研究会資料, SIG-LSE-B702-3, pp. 13-24, 2017. [6] 大島希巳江. 日本の笑いと世界のユーモア:異文化コミュニケーションの観点から. 世界思想社, 2006. [7] Albert Mehrabian and Morton Wiener. Decoding of inconsistent communications. Journal of personality and social psychology, Vol. 6, No. 1, p. 109, 1967. [8] Albert Mehrabian and Susan R Ferris. Inference of attitudes from nonverbal communication in two channels. Journal of consulting psychology, Vol. 31, No. 3, p. 248, 1967. [9] Badri N. Patro, Mayank Lunayach, Deepankar Srivastava, Sarvesh Sarvesh, Hunar Singh, and Vinay P. Namboodiri. Multimodal humor dataset: Predicting laughter tracks for sitcoms. In 2021 IEEE Winter Conference on Applications of Computer Vision (WACV), pp. 576-585, 2021. [10] Alec Radford, Jong Wook Kim, Tao Xu, Greg Brockman, Christine McLeavey, and Ilya Sutskever. Robust speech recognition via large-scale weak supervision. arXiv preprint arXiv:2212.04356, 2022. [11] Jort F. Gemmeke, Daniel P. W. Ellis, Dylan Freedman, Aren Jansen, Wade Lawrence, R. Channing Moore, Manoj Plakal, and Marvin Ritter. Audio set: An ontology and human-labeled dataset for audio events. In Proc. IEEE ICASSP 2017, New Orleans, LA, 2017. [12] Andrew G Howard, Menglong Zhu, Bo Chen, Dmitry Kalenichenko, Weijun Wang, Tobias Weyand, Marco Andreetto, and Hartwig Adam. Mobilenets: Efficient convolutional neural networks for mobile vision applications. arXiv preprint arXiv:1704.04861, 2017. [13] M Iftekhar Tanveer, Diego Casabuena, Jussi Karlgren, and Rosie Jones. Unsupervised speaker diarization that is agnostic to language, overlap-aware, and tuning free. arXiv preprint arXiv:2207.12504, 2022. [14] Cem Subakan, Mirco Ravanelli, Samuele Cornell, Frédéric Lepoutre, and François Grondin. Resourceefficient separation transformer. arXiv preprint arXiv:2206.09507, 2022. [15] R. Ardila, M. Branson, K. Davis, M. Henretty, M. Kohler, J. Meyer, R. Morais, L. Saunders, F. M. Tyers, and G. Weber. Common voice: A massively-multilingual speech corpus. In Proceedings of the 12th Conference on Language Resources and Evaluation (LREC 2020), pp. 4211-4215, 2020 . ## A 自動アノテーションの精度を改善できなかった手法 ## A. 1 ボケとツッコミの発話者推定 漫才では,ボケとツッコミの役割が重要であるため,発話者のアノテーションが必要である. Whisper は複数の話者をある程度分離して書き起こしを行うことができていたが,発話者を割り振ることはできないため,以下の発話者推定の手法を検討した. 1. PyAnnote ${ }^{5)}$ を用いた話者ダイアリゼーション 2. 事前学習済みモデルを用いた教師なしによる話者ダイアリゼーション [13] 3. RE-SepFormer ${ }^{6)}[14]$ を用いた話者分離 1 と 2 の手法は話者を適切に割り振ることができず,オーバラップした部分の検出もできていなかった. 3 の手法において, 話者ごとに分離された音声を自動書き起こしすることを目標としていたが,全く分離することができず,実用に足る精度が得られなかった. 要因として, 日本語の音声に対応したモデルを用いていないことが考えられる.日本語と英語は音声学的特徵が異なり, 音声のスペクトログラムの傾向が異なる可能性が推測され,これが英語に対応したモデルが日本語の音声に対してうまく機能していない要因であると考えられる. 3 において用いた RE-SepFormer を Common Voice ${ }^{7)}$ [15] の日本語データセットを用いてファインチューニングし,話者分離を試みたがうまく分離できなかった. しかし,日本語対応モデルの構築は一つの改善策である可能性があるため,引き続き検討していく. ## A. 2 発話開始/終了時間の推定精度向上 Whisper が推定するテキストに対応した発話時間には誤差があるため,その精度向上を試みた. A. 1 で説明した 1 の手法を用いて,話者ダイアリゼー ションの結果を発話開始/終了時間の誤差の軽減に使用する実験を行ったが,話者ダイアリゼーションの精度も高くないことから,良い結果が得られなかった. また,出囃子などの影響により Whisper が推定する発話時間が不適切な場合もあったため,ネタの前後の情報のない時間を削除することでノイズ を軽减することが最優先の取り組みであると考えられる。まずはこの処理を今後行った上で追加実験を行っていく. ## B データ収集手法の改善 本研究においてデータ収集を行なった際(2022 年 11 月時点), M-1 グランプリ 2022 が終了していなかったが,2023 年 1 月 13 日(論文投稿締切)時点において M-1 グランプリ 2022 が終了していたため, データ収集とフィルタリングのパラメータの変更を行い,データ収集を試みた。主な変更点は以下である. - M-1 グランプリ公式チャンネルを対象として,「 M-1」のクエリを用いて検索( M1 グランプリを M-1 に変更) ・ M-1 グランプリ公式チャンネルを対象として, タイトルに【決勝ネタ】」,「【敗者復活戦ネタ】」,「【ナイスアマチュア賞】」,「準々決勝ネタ】」, 「【3 回戦全ネタ】」,「【1 回戦 TOP3】」のいずれかを含む(【準々決勝ネタ】」、「3 回戦全ネタ】」, $\lceil$ 「1 回戦 TOP3】」を追加) これにより,合計 326 件の動画に関するメタデータを収集できた。また,「【3 回戦全ネタ】」か「【1 回戦 TOP3】」をタイトルに含む動画には,動画 1 本あたり 2 または 3 組の漫才師による漫才が収録されているため,収集できる漫才がさらに増加すると考えられる。 5) https://huggingface.co/pyannote/speaker-diarization 6) https://huggingface.co/speechbrain/ resepformer-wsj02mix 7) https://commonvoice.mozilla.org/en
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q4-1.pdf
# 地方議会議事録を対象としたスタンス分類データセットの自動構築と ベースライン分類器の評価 我藤勇樹 ${ }^{1}$ 秋葉友良 ${ }^{1}$ 内田ゆず ${ }^{2}$ 木村泰知 ${ }^{3}$ 高丸圭一 ${ }^{4}$ ${ }^{1}$ 豊橋技術科学大学 ${ }^{2}$ 北海学園大学 ${ }^{3}$ 小樽商科大学 ${ }^{4}$ 宇都宮共和大学 gato.yuki.am@tut.jp akiba@cs. tut.ac.jp yuzu@hgu.jp kimura@res.otaru-uc.ac.jp takamaru@kyowa-u. ac. jp ## 概要 スタンス分類は、特定のトピックに関して述べられた意見が賛成なのか反対なのかを分類することを目的としている。本研究では、複数の地方議会議事録から自動でスタンス分類データセットを構築する手法を提案する。愛知県の種々の規模の議会を対象に本手法を適用し、6,254 サンプルのデータセットを構築することができた。構築したデータセットを人手で評価したところ、抽出漏れは約 $10 \%$ あっものの賛否ラベルの付け誤りは $0 \%$ であった。また、構築したデータセットを基にベースライン分類器を作成し、分類性能の評価を行った。 ## 1 はじめに スタンス分類は、特定のトピックに関して述べられた意見が賛成なのか反対なのかを分類することを目的としている。例えば、「マスク着用」というトピックに対する意見「周囲の人を守るためにマスクを着用します。」は、賛成のスタンスを表明していることになる。スタンス分類が自動で行われることで、ソーシャルメディアに流れる大量のテキストを分析し、世論の把握やファクトチェックに活用することができる。 2019 年後半から 2020 年にかけて開催された NTCIR15 QA Lab-PoliInfo2 では、東京都議会を対象とした Stance Classification (SC) タスク [1]が実施された。これは、会議議事録全体を参照し各会派の議案に対するスタンス(賛成/反対)を推定するタスクであった。議会議事録中には、討論の冒頭に議案に対する賛否を明示的に表明する発言があり、この部分から賛否表現を抽出するだけで 90\%以上の精度を達成することができた。一方、純粋に発言の内容からスタンスを分類するという本来のスタンス分類 に対する性能は明らかになっていない。 図 1 実際の討論発言(愛知県大府市議会) 本研究では、明示的な賛否表現に頼ることなく発言のスタンス (賛否)を推定する問題に取り組むために、地方議会議事録から自動的にスタンス分類デー タセットを構築する手法を開発し、データ構築を行った。PoliInfo-2 の対象であった東京都以外の、県議会、市議会、町議会を含む様々な規模の地方議会を対象としている点が特徴である。また、英語を対象とした Stance Classification データセットは SNS などの短い発言を対象としたものが多いが、議会議事録を対象とした本データセットは、平均 578 単語と比較的長い発言を対象とすることも特徴である。図 1 に実際の議事録の発言を示す。 愛知県の種々の規模の議会を対象に本手法を適用 したところ、6,256 サンプルの賛否ラベル付きデー タを自動構築することができた。構築したデータの品質を評価するため、人手で構築したデータとの比較を行った。人手データと比べて抽出漏れが約 $10 \%$ あったものの、余計な発言が抽出されることはなく、 また自動ラベル付した結果に誤りは無く、高精度なデータを自動構築できることを確認した。また、構築したデータセットを基にベースライン賛否分類器を作成し、分類性能の評価を行った。 ## 2 関連研究 スタンス分類のデータセットを構築する研究に Glandt らの研究[2]がある。この研究では、COVID-19 に関するツイートを収集し、クラウドソーシングを活用し人手でラベリングすることでデータセットを構築している。他にも、Allaway と McKeown の研究 [3]では、非常にターゲットの種類が多いVAST というデータセットを構築している。この研究でも、ラベリングにはクラウドソーシングが活用されている。 クラウドソーシングの問題点として、ラベルのつけ間違いや個人差、コストがかかることが挙げられる。本研究では、明示的な賛否表現にマスクを施すことにより自動でデータセットを構築した。 ## 3 自動データセット構築 データセットを構築する手法について述べる。まず、提出議案の討論が主に行われる会議最終日の議事録のみを用いる。地方議会の討論の進行には、議長が個々の議案を一つずつ取り上げて発言者(議員) を指名し発言を認める形式(個別討論)と、議長が発言者のみを指名した後、指名された議員が複数の議案について一括で発言を行う形式 (一括討論) の 2 種類があり、議会毎に採用する討論形式が異なる。今回は発言とその対象となる議案の対応関係が明確である、個別討論形式の議会を対象とした。 愛知県の 33 の県議会、市議会、町議会を対象に調べたところ、15 の議会が条件を満たしていた。表 1 に個別議案の討論形式を持つ議会とデータセット構築に用いた議事録の対象年度を示す。表 1 データセット構築に用いた議事録 ## 3.1 討論の抽出 本研究で構築するスタンス分類データセットは、議事録の討論を対象とする。討論の開始・終了は議長によって指定され、討論は議長に指名された議員が行う。そのため、討論の開始表現と終了表現の間の議員の発言を討論候補として抽出する。討論候補の抽出に使用した正規表現を表 2 に示す。 スタンス分類では、特定のトピック (ターゲット) に対する意見を分類する。そのため、討論候補のうち、表 2 のトピック表現を含むものをスタンス分類のテキストとして扱い、トピック表現を含まない候補は破棄する。 得られたテキストは、冒頭や末尾付近に明確にスタンスを表明する文(賛否表明文)が現れることが多い。実際の分類タスクでは、この賛否表明文を用いるだけで簡単にスタンスが特定できてしまう。そのため、表明文は除去することが望ましいが、出現位置や表現は様々であり難しい。そこで本研究では、賛否を表明するために典型的に使用される単語集合を予め列挙しておき、それらの単語を一つの特殊なトークンに置き換える(マスクする)ことで、発言に明示的な賛否表現が含まれないようにした。今回は、 「賛成」と「反対」の 2 単語を対象にマスクを行った。 表 2 本研究で使用した正規表現 \\ ## 3.2 賛否ラベリング スタンス分類のデータセットには、サンプル(発言)毎にスタンス(賛成または反対)の教師ラベルを付与する必要がある。しかし、人手でラベル付けするコストは高い。本研究では、マスクした「賛成」「反対」を利用しヒューリスティクスを用いて自動でラベル付けを行った。ラベル付け手法は以下の通りである。 1. マスクした「賛成」および「反対」が発言を通してどちらか一方のみであった場合、マスクした単語が表すスタンスのラベルを付与する。 2.「賛成」「反対」どちらも出現する場合、発言中に表 2 の「賛成表現」または「反対表現」が出現するかチェックする。出現する場合は、対応するラベルを付与する。 3. 上記に当てはまらない発言は、ラベル付けせずに破棄する。 表 3 に表 1 で示した議事録から構築されたデータセットの統計情報を示す。表 3 より、賛否ラベルの割合がほぼ等しいデータセットであるといえる。また、図 2 に作成したデータの例を示す。表 3 データセットの統計情報 テキスト:議案第38号「大府市空家等対策の推進に関する条例の制定について」、自民クラブを代表し、[STANCE]の立場で討論をさせていただきます。近年、人口減少や少子高齢化等を背景に、全国的に空き家等の増加が社会問題となっている中、本市においても、今後、空き家等の増加により、生活環境の保全に支障が生じるのではないかと懸念されているところであり、本市議会建設消防委員会においても、これまで、空き家、空き地、空き店舗について調査研究を進めてきた経緯もございます本市では、平成 30 年 3 月に、大府市空家等対策計画を策定し、本計画に基づき、これまでも積極的に空家等対策を推進してきたところでございますが、法の枠組みだけでは対処できない課題が顕在化している状況がうかがえます。そのような状況の中で、今回、本条例を制定し、類似空家と特定類似空家等への対応を始め、市、所有者、市民、事業者などに責務又は役割を定めていること、人の生命、身体又は財産に重大な損害を及ぼすことを回避するために、緊急安全措置について規定していることは、法律を補完するとともに、空家等対策を総合的かつ計画的に推進し、公共福祉と地域振興につながるものと高く評価するものでございます。今後、法及び本条例に基づいて、引き続き空家等対策に継続的に取り組み、市民が安心安全に暮らすことができる「健康都市おおぶ」として、持続可能な社会が実現されることを期待し、[STANCE] 討論とさせていただきます。 ターゲット : 議案第38号「大府市空家等対策の推進に関する条例の制定について」 ラベル : 賛成 図 2 作成したデータの例 ## 3.3 データセット構築手法の評価 構築したデータセットについて、人手で評価を行った。大府市の議事録を対象とし、議員の発言を 100 件抽出し、人手で討論発言かどうか分類した。討論発言である場合は、ターゲットとラベルも人手で付与し、同じ 100 件の発言に対して自動で構築したデ一タセットと比較した。比較結果を表 4 に示す。 表 4 より、自動抽出では、本来抽出すべき討論の約 10\%を取りこぼしていることがわかる。しかし、間違えて討論でないものを抽出していないため、デ一夕の数は少なくなるが質は高いと言える。自動で抽出した討論に対するターゲットとラベルは人手と完全に一致し、ミスなく付与できている。 表 4 人手評価の結果 & & \\ ## 4 ベースライン分類器の構築と評価 ## 4.1 ベースライン分類器 構築したデータセットを学習データに用いて分類器を構築した。分類モデルには、Transformer エンコ ーダベースの事前学習モデルである BERT[4]を用いた。BERT モデルには、東北大学乾研究室が公開している学習済みモデルiを使用した。[CLS]トークンを対象に、MLP 層を加えた二值分類器を学習した。入力形式は、対象となる議案名と、発言テキストを、 [SEP]トークンで連携したものとした。ただし、BERT の最大入力長である 512 トークンを超えた場合は、後を切り捨てた。 ## 4. 2 分類器の評価実験 構築したデータセットから 3.3 節で人手評価した 67 件を除いた 6,187 件を学習データとして、 4.1 節のモデルを 6 エポック学習し、テストデータ 67 件を評価した。分類結果を表 5 に示す。 表 5 ベースライン分類器での評価結果 ## 5 おわりに 議会議事録を活用して、スタンス分類のデータセットを自動で構築した。人手評価の結果、取りこぼしているデータは多少あるが、ラベリングやターゲットの付与は非常に高い精度であることがわかった。今後の研究としては、今回対象としなかった、複 ^{i}$ https://huggingface.co/cl-tohoku } 数の議案を含む発言からもデータセットを構築することを目標とする。そのためには、発言を議案ごとにセグメンテーションする手法を研究する必要がある。 本研究で構築したデータセットは、NTCIR-17 QA Lab-PoliInfo-4[5] のサブタスク Stance Classification-2[6] のデータセットとして使用する予定である。 ## 参考文献 1. Yasutomo Kimura, Hideyuki Shibuki, Hokuto Ototake, Yuzu Uchida, Keiichi Takamaru, Madoka Ishioroshi, Teruko Mi- tamura, Masaharu Yoshioka, Tomoyoshi Akiba, Yasuhiro Ogawa, Minoru Sasaki, Kenichi Yokote, Tatsunori Mori, Kenji Araki, Satoshi Sekine, and Noriko Kando. Overview of the ntcir-15 qa lab-poliinfo-2 task. Proceedings of The 15th NTCIR Conference, 122020. 2. Kyle Glandt, Sarthak Khanal, Yingjie Li, Doina Caragea, and Cornelia Caragea. 2021. Stance Detection in COVID-19 Tweets. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pages 1596-1611, Online. Association for Computational Linguistics. 3. Emily Allaway and Kathleen McKeown. 2020. Zero-Shot Stance Detection: A Dataset and Model using Generalized Topic Representations. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 8913-8931, Online. Association for Computational Linguistics. 4. Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. 2019. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pages 4171-4186, Minneapolis, Minnesota. Association for Computational Linguistics. 5. 小川泰弘, 木村泰知, 渋木英潔, 乙武北斗, 内田ゆず,高丸圭一,門脇一真,秋葉友良,佐々木稔,小林暁雄. NTCIR-17 QA Lab-PoliInfo-4 のタスク設計.言語処理学会第 29 回年次大会. 2023. 6. 高丸圭一, 内田ゆず, 木村泰知, 秋葉友良. 地方議会における議案への賛否に関する発言の分析一 NTCIR-17 QA Lab-PoliInfo-4 Stance Classification-2 タスクに向けて一. 言語処理学会第 29 回年次大会. 2023
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q4-2.pdf
# NTCIR-17 QA Lab-Polilnfo-4 Answer Verification における GDADC の利用に向けての考察 渋木英潔 ${ }^{1}$ 内田ゆず 2 小川泰弘 ${ }^{3}$ 門脇一真 ${ }^{4}$ 木村泰知 ${ }^{5}$ 1 株式会社 BESNA 研究所 2 北海学園大学 3 名古屋大学 4 株式会社日本総合研究所 5 小樽商科大学 shib@besna.institute yuzu@hgu.jp yasuhiro@is.nagoya-u.ac.jp kadowaki.kazuma@jri.co.jp kimura@res.otaru-uc.ac.jp ## 概要 我々は,フェイクニュースなどの社会問題を質問応答や自動要約などの自然言語処理技術を用いて解決するためのシェアードタスクとして NTCIR-17 QA Lab-PoliInfo-4 (以下,PoliInfo-4)を開催している.本稿では,システムの改善に有効とされる敵対的データを継続的に収集するために,ゲーミフィケー ションによるモチベーションで不特定多数のユー ザに敵対的データを作成させる GDADC を説明する。また,GDADC のゲームとしての面白さを考察しながら,PoliInfo-4 のサブタスクである Answer Verification (以下,AV) での利用について述べる. ## 1 はじめに 政治にまつわるフェイクニュースが社会問題となって久しい,我々はフェイクニュースなどの社会問題を,質問応答や自動要約などの自然言語処理技術を用いて解決する取り組みとして,QA Lab-PoliInfo タスク $[1,2,3]$ を評価型ワー クショップ $\mathrm{NTCIR}^{1)}$ において開催している。今年も NTCIR-17 QA Lab-PoliInfo-4 [4] (以下,PoliInfo-4) として, Question Answering-2 (以下,QA-2), Answer Verification (以下, AV), Stance Classification-2, Minutesto-Budget Linking の4つのシェアードタスクを開催している. 前回の QA Lab-PoliInfo-3 [3] で開催した Question Answering (以下,QA) では,例えば「○○について知事はどんな見解を持っているのか?」といった質問 2 を入力として,一次情報となる知識源 ${ }^{3}$ から  図 1 Question Answering における誤った解答例 質問の回答を提示した。参加者から提出されたシステムの回答を四つの観点から人手で評価した結果, 800 点満点中 499 点 $(62 \%)$ が最高スコアとなり,適切な回答も多く出力されていた.しかしながら, Gold Standard ${ }^{4)}$ を手評価した結果の 598 点 $(75 \%)$ には及ばなかった.システムによる誤った回答の例を図 1 に示す. 図 1 の上部に示す年号の誤りなど一見正しそうに見えるものもあるが,ファクトチェックの支援材料としてそのまま提示するには問題がある. それゆえ,PoliInfo-4では,QA-2 として引き続き同じ設計のタスクを実施するとともに,質問応答システムの出力が質問に対して適切であるか否かを判断する $\mathrm{AV}$ を実施することとした。 $\mathrm{AV}$ は, $\mathrm{QA}$ などで生成された回答が知識源と照らし合わせてフェイクになっていないかをチェックするタスクである.QAと AV のイメージを図 2 にそれぞれ示す. AV は図 2 に示すように二値分類問題に帰結させることができる。したがって,近年の機械学習の進歩もあり,フェイクか否かのアノテー ションが付与された十分な量の訓練データがあれば,適切な判断可能なモデルの生成が期待できる. しかしながら,QA の人手評価の対象は延べ 200 問 4)『都議会だより』の回答を用いた。 ## Answer Verification 図 2 Question Answering (上) と Answer Verification (下) の概念図 程度であり, 訓練データとして利用するには決して十分な量とは言えない. また,日本の政治または議員発言に関するフェイク情報という特殊性から,一般のタグ付きコーパス等を利用することも困難である。 この問題を解決するために,我々は,ゲーミフィケーション的にアノテーションデータを拡充する Gamified Dynamic Adversarial Data Collection (GDADC) を提案した [5]. 本稿では,GDADC を説明した後, ゲームとしての面白さを考察しながら $\mathrm{AV}$ での利用に向けての取り組みを説明する. ## 2 ゲーミフィケーションに基づく動的な敵対的データ収集 (GDAGC) 近年,機械学習ライブラリの充実により,アノテーションデータさえあれば誰でも比較的容易に文書分類などのシステムを実装することが可能となった.アノテーション付きの言語資源は,言語資源協会5)や ALAGIN $\left.{ }^{6}\right)$ などから入手することができるが, その数量は限られており,目的とするドメインの言語資源がないこともある. 質問応答 (QA) における機械読解を対象としたデータセットに SQuAD [6] があるが, Jia and Liang [7] はこれに人手で「システムが混乱するような敵対的な文 (adversarial distracting sentence)」を加えることでシステムの性能が低下することを示した. QA システムの精度改善のためにはシステムが間違いやすい部分に焦点を当てたデー 5) https://www.gsk.or.jp/ 6) https://alaginrc.nict.go.jp/ タが必要であるが,実世界の問題においてはそのようなデータが十分にあるとは限らず,特に専門性や特殊性が高い分野の場合,適格なアノテータを集めて新たにアノテーションすることも容易ではない. 専門知を補うために集合知を利用するという考え方は昔からあり [8], クラウドソーシングを利用してコーパスを構築する研究も多く行われている [9]. Kiela et al. [10] は,クラウドソーシングを通して敵対的な事例を収集するために,アノテータが作成した事例に対してシステムが予測し,予測が誤った事例のみを収集する敵対的データ収集 (Adversarial Data Collection, ADC) を提案した,ADCにより収集された事例は,予測システムが苦手とするタイプの事例に集中するのではないかという頑健性の問題が Kaushik et al. [11] により示されたが,Wallace et al. [12] は,敵対的データを元に予測システムを改善し, 改善された予測システムを対象に新たな敵対的事例を収集するというサイクルを継続的に繰り返す「動的な敵対的データ収集 (Dynamic ADC, DADC)」により頑健なシステムが構築されることを示した.しかしながら,ADC に関する研究はクラウドソーシングが前提であり, Sugawara et al. [13]が示すようにアノテータの費用やインセンティブといった面で問題がある.従って,継続的にアノテー ションを行うためには,インセンティブの問題を解決する必要がある. ユーザに自発的・持続的な行動を促すための研究として,ゲームに見られる様々な仕組みや要素をゲーム以外に適用するゲーミフィケーションと呼ばれるアプローチを適用したものがある $[14,15]$. 我々は,ゲーミフィケーションによりインセンティブを高めることで,不特定多数のユーザを対象として継続的にデータセットを拡充できると考えた。 以上の背景から,我々はゲーミフィケーションに基づく動的な敵対的データ収集 (Gamified DADC, GDADC) を提案した [5]. GDADC は,アノテーションの動機付けをゲームとしての面白さに頼っている.しかしながら,提案時にはその部分に関する議論が不十分であったため, 本稿の 4 節で議論する. ## 3 Answer Verification での利用 $\mathrm{AV}$ では敵対的データ収集のために『AI 城から財宝を奪おう!』7) というブラウザゲームを公開予定である.AVにおける GDADC を利用した敵対的デー 7) https://sites.google.com/view/poliinfo4/game Web UI リーダーボード (3) 分類システム Polilnfo-4 関係者 図 3 GDADC を利用した Answer Verification における敵対的データの収集 図 4 WebUI 上の敵対的データ作成画面 (予定) タ収集の全体像を図 3 に示す。また,開発中の敵対的データの作成画面を図 4 に示す. GDADC のプレイヤは,敵対的データを作成する攻略と,予測システムを改良する防衛の一方または両方のアクションをとることができる.図 3 では,左側の Web 上にいる不特定多数が攻略側プレイヤ,右側の $\mathrm{AV}$ 参加者やタスクオーガナイザなどの PoliInfo-4 関係者が防衛側プレイヤに該当する。 ゲームストーリーとしては,攻略側プレイヤが 「詐欺師」となり,防衛側プレイヤが作成した「AI 城主」から尋ねられた政治的質問に対して回答する (詐欺を働く) という形で,AI 城主が納得しつつも内容的には決して真実ではないテキストを入力する。 その結果,AI 城主が真実だと予測すれば (すなわち,AI 城主が騙された場合)「そなたの意見はもっともだ。褒美をとらそう」となり,プレイヤの「財宝」スコアが増加する.スコアはリアルタイムで反映され,リーダーボードという形で順位が公開される.また,AI 城主を騙せたかどうかに関わらず,入力されたテキストはデータベースに収集される. 防衛側と攻略側のデータ構造を表 1 と表 2 にそれぞれ \\ 示す. 収集された敵対的データは,防衛側プレイヤに参照され予測システムの改良に用いられることになる, AI 城主が賢くなれば,同様の詐欺を働くことができなくなり,新たな種類のテキストを入力しなければならなくなる。このように攻略側プレイヤと防衛側プレイヤが互いに切䃴玩磨することでゲームとしての駆け引きが生じることになる. ## 4 ゲームの面白さと利用動機の考察 $\mathrm{AV}$ 参加者やタスクオーガナイザといった防衛側プレイヤには,予測システムを改良するという目的が敵対的データ作成の動機となりうるが,攻略側プレイヤには,そのような動機はないため,ゲームとしての面白さをインセンティブにする必要がある. ## 4.1 ゲームの面白さ ゲームの面白さとは何かを扱った研究として,藤江ら [16] や馬場 [17] の研究がある. 彼らは,ゲー 表 2 攻略側のデータ構造 & \\ ムの面白さを Csikszentmihalyi のフロー理論 [18] で言うところの最適覚醒と結び付け, ゲームの基本構成要素であるプレイヤ・ルール・ツール(インター フェイス)の三者のバランスが最適となったときにゲームの面白さが発生するとしている. 完全には予測不可能なプレイヤという要素を含むとしつつも,最適覚醒につながる刺激として, 新奇性と, 不確定性や複雑性による情報負荷を挙げている。また,新奇性が失われた後も環境に対する統制感と能力を証明することによる効能感が繰り返し遊び続ける動機となりうるとしている. 敵対的データを作成するという作業は一般的なアノテーションに比べて新奇性が高いものであり,「AIを騙せたら攻略成功」という攻略指標はそれなりの不確定性や複雑性が存在する. また,リアルタイムでスコアが反映される枠組みは統制感や効能感を与えてくれるだろう。 ## 4.2 ゲーム利用動機 現代日本の大学生におけるゲーム利用動機を扱った研究には, 井口 [19] がある. 現代日本の大学生におけるゲーム利用動機には「空想」「承認」「趣向」「達成」「友達」「学習」「気晴らし」の7つの要因があり,「気晴らし」以外の動機が高いほどゲームへの没入度が高くなることが報告されている。「空想」 は「現実とは違う世界で楽しむことができる」や 「現実にはできないようなことができる」といった要素である。本稿の「詐欺師としてフェイクニュー スを作成する」という設定は現実には行ってはいけないものであり,「空想」の動機付けにつながると考えられる。「承認」には「他人よりも上手なプレイヤになりたい」や「相手を負かすのが楽しい」 といった競争の要素が含まれており,GDADCではリーダーボードによるランキングがこの動機付けにあたる。「達成」は「課題を達成することが嬉しいから」や「遊んでいるうちに上達するのが楽しいから」といった要素であり,「学習」は「難しいことが理解できることがあるから」や「新しい知識を得ることができるから」といった要素であるが,AIを騙すことができるフェイクニュースを作成するという課題は,専門性や特殊性が求められる難しい課題と言ってよく,知識源となる議会での討論の内容を理解する過程は,多くの攻略側プレイヤにとって新しい知識を得ることになるだろう.残りの「趣向」 は「絵や映像がきれいだから」や「音や音楽に惹かれるから」といった要素,「友達」は「友人と一緒に遊ぶのが楽しいから」や「友人との話題になるから」といった要素である. 我々は「趣向」や「友達」 に関する面白さにはあまり焦点を当てていないが, Web UI の演出や SNS などでの宣伝などを通して動機付けすることができればよいと考えている. ## 5 おわりに 本稿では,機械学習システムの改善に有効とされる敵対的データを継続的に収集するために, ゲーミフィケーションによるモチベーションで不特定多数のユーザに敵対的データを作成させるGDADC を説明した。また,GDADC のゲームとしての面白さを考察しながら, PoliInfo-4 の AV での利用について述べた. PoliInfo-4 の AV の開催とあわせて,今後『AI 城から財宝を奪おう!』を https://sites.google.com/view/poliinfo4/gameで公開する予定である。また,ゲーム進行によりデー タが蓄積されていく中で,GDADC の効果を検証する予定である. ## 謝辞 本研究は JSPS 科研費 21H03769,22H03901 の助成を受けたものである. ## 参考文献 [1] Yasutomo Kimura, Hideyuki Shibuki, Hokuto Ototake, Yuzu Uchida, Keiichi Takamaru, Kotaro Sakamoto, Madoka Ishioroshi, Teruko Mitamura, Noriko Kando, Tatsunori Mori, Harumichi Yuasa, Satoshi Sekine, and Kentaro Inui. Overview of the NTCIR-14 QA Lab-PoliInfo task. In Proceedings of the 14th NTCIR Conference, 2019. [2] Yasutomo Kimura, Hideyuki Shibuki, Hokuto Ototake, Yuzu Uchida, Keiichi Takamaru, Madoka Ishioroshi, Teruko Mitamura, Masaharu Yoshioka, Tomoyoshi Akiba, Yasuhiro Ogawa, Minoru Sasaki, Kenichi Yokote, Tatsunori Mori, Kenji Araki, Satoshi Sekine, and Noriko Kando. Overview of the NTCIR-15 QA Lab-PoliInfo-2 task. In Proceedings of The 15th NTCIR Conference, 2020. [3] Yasutomo Kimura, Hideyuki Shibuki, Hokuto Ototake, Yuzu Uchida, Keiichi Takamaru, Madoka Ishioroshi, Masaharu Yoshioka, Tomoyoshi Akiba, Yasuhiro Ogawa, Minoru Sasaki, Kenichi Yokote, Kazuma Kadowaki, Tatsunori Mori, Kenji Araki, Teruko Mitamura, and Satoshi Sekine. Overview of the NTCIR-16 QA Lab-PoliInfo-3 task. In Proceedings of The 16th NTCIR Conference, 2022. [4] 小川泰弘, 木村泰知, 渋木英潔, 乙武北斗, 内田ゆず,高丸圭一, 門脇一真, 秋葉友良, 佐々木稔, 小林暁雄. NTCIR-17 QA Lab-PoliInfo-4 のタスク設計. 言語処理学会第 29 回年次大会, 2023. [5] 渋木英潔, 内田ゆず, 小川泰弘, 門脇一真, 木村泰知. ゲーミフィケーションに基づく QA データセット拡充手法の提案: QA Lab-PoliInfo-4 Answer Verification タスクに向けて. 第 18 回 Web インテリジェンスとインタラクション研究会, 2022. [6] Pranav Rajpurkar, Robin Jia, and Percy Liang. Know what you don't know: Unanswerable questions for SQuAD. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 784-789, Melbourne, Australia, July 2018. Association for Computational Linguistics. [7] Robin Jia and Percy Liang. Adversarial examples for evaluating reading comprehension systems. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 2021-2031, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [8] Thatsanee Charoenporn, Virach Sornlertlamvanich, Hitoshi Isahara, and Kergrit Robkop. KUI: an ubiquitous tool for collective intelligence development. In Proceedings of the IJCNLP-08 Workshop on NLP for Less Privileged Languages, 2008. [9] 河原大輔, 町田雄一郎, 柴田知秀, 黒橋禎夫, 小林隼人, 颯々野学. 2 段階のクラウドソーシングによる談話関係タグ付きコーパスの構築. 情報処理学会研究報告. 自然言語処理研究会報告, Vol. 2014, No. 12, pp. 1-7, 062014. [10] Douwe Kiela, Max Bartolo, Yixin Nie, Divyansh Kaushik, Atticus Geiger, Zhengxuan Wu, Bertie Vidgen, Grusha Prasad, Amanpreet Singh, Pratik Ringshia, Zhiyi Ma, Tristan Thrush, Sebastian Riedel, Zeerak Waseem, Pontus Stenetorp, Robin Jia, Mohit Bansal, Christopher Potts, and Adina Williams. Dynabench: Rethinking benchmarking in NLP. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4110-4124, Online, June 2021. Association for Computational Linguistics. [11] Divyansh Kaushik, Douwe Kiela, Zachary C. Lipton, and Wen-tau Yih. On the efficacy of adversarial data collection for question answering: Results from a large-scale randomized study. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 6618-6633, Online, August 2021. Association for Computational Linguistics. [12] Eric Wallace, Adina Williams, Robin Jia, and Douwe Kiela. Analyzing dynamic adversarial training data in the limit. In Findings of the Association for Computational Linguistics: ACL 2022, pp. 202-217, Dublin, Ireland, May 2022. Association for Computational Linguistics. [13] Saku Sugawara, Nikita Nangia, Alex Warstadt, and Samuel Bowman. What makes reading comprehension questions difficult? In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 6951-6971, Dublin, Ireland, May 2022. Association for Computational Linguistics. [14] 根本啓一, 高橋正道, 林直樹, 水谷美由起, 堀田竜士,井上明人. ゲーミフィケーションを活用した自発的・持続的行動支援プラットフォームの試作と実践.情報処理学会論文誌, Vol. 55, No. 6, pp. 1600-1613, 06 2014. [15] 小河晴菜, 西川仁, 徳永健伸, 横野光. ゲーミフィケー ションを用いたアノテーション付き対話データの収集基盤. 言語処理学会第 26 回年次大会, 2020. [16] 藤江清隆, 馬場章. ゲームの面白さとは何か:テレビゲームのプレジャラビリティをめぐって.日本バーチャルリアリティ学会誌 $=$ Journal of the Virtual Reality Society of Japan, Vol. 9, No. 1, pp. 15-19, 032004. [17] 馬場章. 2. ゲーム学の国際的動向. 映像情報メディア学会誌, Vol. 60, No. 4, pp. 491-494, 2006. [18] Mihaly Csikszentmihalyi, 今村浩明. フロー体験喜びの現象学. Sekaishiso seminar. 世界思想社, 1996. [19] 井口貴紀. 現代日本の大学生におけるゲームの利用と満足. 情報通信学会誌, Vol. 31, No. 2, pp. 67-76, 2013.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q4-3.pdf
# オノマトペの語義決定に寄与するコロケーションの分析 藤田実智斗 ${ }^{1}$ 内田泡ず 2 荒木健治 ${ }^{3}$ 1 北海道大学 大学院情報科学院 ${ }^{2}$ 北海学園大学 工学部 3 北海道大学 大学院情報科学研究院 ${ }^{1}$ fujita.michito.u9@elms.hokudai.ac.jp ${ }^{2}$ yuzuehgu.jp ${ }^{3}$ araki@ist. hokudai.ac.jp ## 概要 日本語学習者が日本語オノマトペの使い方を理解するためには,定義文や用例だけでなく,そのオノマトペの語義に関係するコロケーションを知っておくことが有効である. そこで本研究では,オノマトペの語義決定に寄与している文節についてアノテーションを行い,その結果に基づいた分析を行った. 分析により, いくつかの語義で定義文からだけでは読み取れない特徴がみられた. また,人手で抽出されたコロケーションについて Word2Vec と k-means++によるクラスタリングを行い,クラスタと語義の関係を分析した。 ## 1 はじめに オノマトペ(擬音語および擬態語)は,音や物事の様子,動作の状態を表現する語であり,微細なニュアンスを表現する目的で日常的によく用いられている. 特に日本語のオノマトペは他言語に比べて種類が多く,またその多くは複数の語義を持つ. 日本語母語話者は, 周辺文脈から感覚的に語義を判別することでこれらの語義曖昧性を解消しているが,日本語学習者にとってはその判別基準を学ぶことが難しい,そこで我々は,オノマトぺの語義決定に寄与していると考えられるコロケーション(以下,寄与コロケーションと呼ぶ)を収集し,オノマトペの使い分けが分かりやすくなるようなオノマトペコロケーションデータベースの構築を目指している. オノマトペコロケーションデータベースを構築するには,多義のオノマトペについて語義ごとに用例を集め,どのコロケーションが寄与コロケーションであるかを判別する作業を要する。こうした作業を人手で行うことは時間的コストが高く, 大量にデー タを集めるためには自動化することが望ましい。そのためには, 多義オノマトペの自動語義分類と寄与 コロケーションの自動抽出を実現する必要がある. これまで自動語義分類については,事前学習済みの BERT[1] から得られる単語分散表現を用いた手法や,辞書中の用法情報から生成されたルールに基づく手法が先行研究で提案されている [2][3]. 一方, オノマトペのコロケーションについては,オノマトぺの係り先動詞に着目し,係り先動詞および係り先動詞の係り元文節の表層格を対象として分析が行われてきた [4][5]. しかし,これまで分析対象とされてきたコロケーションを日本語母語話者が実際に寄与コロケーションとして認識しているかについては,分析が不足している.そこで本研究では,寄与コロケーション抽出の自動化に向けて,実際に日本語母語話者がどのコロケーションを基に語義を決めているかをアノテーションし, 人手で抽出した寄与コロケーションについて分析を行う.また,寄与コロケーションについてクラスタリングを行い,語義との関係を分析する。 ## 2 使用するデータ ## 2.1 分析対象オノマトペ 本研究では『擬音語擬態語使い方辞典』[6](以下,オノマトペ辞書と呼ぶ)で語義が 3 つ以上定義されているもので,かつ『現代日本語書き言葉均衡コーパス』[7](以下,BCCWJ と呼ぶ)上で頻度が高い 10 種類のオノマトペ『あっさり,きっちり, ぎりぎり,くるくる,ごろごろ,さっぱり,ばたばた,ぴったり,ぶつぶつ,ぶらぶら』を分析対象として選定した. 各オノマトペについて BCCWJ から各 400 文,合計 4,000 文を取得し,分析対象のテキストとした. 表 1 アノテーション例 図 1 寄与コロケーションの一致数(品詞別) ## 2.2 寄与コロケーションを含む文節のアノ テーション 本研究では文中のオノマトぺの語義を決定する語について分析を行う.そこでまず 3 名の評価者による寄与コロケーションを含む文節のアノテーションを行う. アノテーションの具体例を表 1 に示す. まず, $\mathrm{KNP}^{1)}$ を用いて分析対象のデータを文節単位に分割する。そして,評価者は語義を決める際に手がかりとなる文節に 1 をマークする。表 1 の例では 「している。」という文節に対しては評価者 3 名が共通して寄与語を含む文節としてマークしているのに対し, 「大石が」という文節では評価者 2 名がマー クしている。このように評価者間で意見が分かれるケースについても,3章で分析を行う。 ## 3 寄与コロケーションの特徴分析 ## 3.1 アノテーションの一致 アノテーションした結果について, 品詞別に評価者間でどの程度寄与コロケーションが一致するかを確認する. 1 名以上が語義決定に寄与する単語が含まれるとした文節について,文節先頭の形態素を寄与コロケーションとして集計し, 品詞別に一致数を調べた結果を図 1 に示す. 動詞の寄与コロケーションは全体総数が 2,615 個と多く,そのうち評価者 3 名全員が一致する割合は $60 \%$ であった. 評価者 2 名  図 2 「さっぱり」の語義別品詞比率 が一致した割合も含めると $77 \%$ あり,動詞はアノテーションにばらつきが少ないことがわかった. 一方,名詞の寄与コロケーションは全体総数 3,019 個のうち,評価者 1 名のみがアノテーションした寄与コロケーションが $42 \%$ と高く, ばらつきが多かった. 要因としては,一般に文の構成要素として動詞よりも名詞の割合が高いため,選択肢が増えたことが挙げられる.またオノマトぺは副詞として用いられることが多く [8], 直後の動詞の文節に係ることが多いため,評価者間で動詞の選択が一致したことも考えられる。 ## 3.2 品詞比率 収集した寄与コロケーションについて,品詞の比率を確認する. 3.1 節の結果から,評価者によって寄与コロケーションにばらつきがあることが確認されたため,本研究における以降の分析では,2名以上が寄与コロケーションだと判断した単語を対象とする。また,品詞は名詞,動詞,形容詞,副詞の 4 種類を対象とする. 寄与コロケーションとして抽出された単語の品詞比率は名詞:44\%, 動詞:50\%,形容詞:4\%, 副詞:2\%であり,名詞と動詞が大半を占めていた. そのため, 今後寄与コロケーションの分析は名詞と動詞を中心に行う.具体例として「さっぱり」について語義ごとに比較した結果を図 2 に示す.「さっぱり」では「味が濃厚でなく、口当たりがさわやかであるようす。」と定義される語義 2 において,名詞の比率が $73 \%$ と高くなっている。これは,語義 2 の用法では食べ物について表現する際に 「さっぽり」が用いられることが多く, 寄与コロケー ションとして食べ物に関連した語が多く抽出されたためであると考えられる。実際に抽出された語には 「スープ」「味わい」「サラダ」「梅干し」などがある. 表 2 「ごろごろ」の寄与コロケーション(一部抜粋) ## 3.3 寄与コロケーションの具体例 アノテーションにより収集した寄与コロケーションの特徴を分析する. 3.1 節で述べたように,寄与コロケーションの大半は名詞と動詞であったため,本節では名詞と動詞に限定して分析を行う. 例として「ごろごろ」の寄与コロケーションの一部を表 2 に示す. 語義 1 は擬音用法であるため,名詞および動詞共に音に関わる語が多く出現した。また,「猫の声」や「雷」を表現する場面で多く用いられていたため,「猫」や「天候」に関する名詞が多く出現したと考えられる.これらのことはオノマトペ辞書の定義や用法・用例から読み取ることができるが,一方で語義 3 ではオノマトペ辞書の情報からだけでは読み取れない「休日」や「家」に関する名詞が散見された.これは語義 3 の定義で示されている「働かないで時を過ごすようす。何もしないで時を過ごすようす。」という状態が,基本的に「休日」や「家の中」のシチュエーションで起こり得ることを示唆している.このように,定義文などの辞書情報からだけではオノマトぺの使い方が十分に読み取れない場合でも,大量のテキストからコロケーションを抽出して分析することで, 日本語学習者にとってより理解しやすいデータベースを構築できると考えられる。 図 3 文節位置 ## 3.4 寄与コロケーションの文節位置 先行研究では,オノマトぺの係り先動詞を含む文節を基準として,その文節に係る文節を対象としたコロケーションの分析を行っている [4][5]. しかし,文の構造が複雑である場合や,文の長さが長い場合には,オノマトペを含む文節から離れた位置にある単語から語義決定に必要な文脈を読み取る可能性がある.そこで,寄与コロケーションの出現位置についての実態を知るために,寄与コロケーションを含む文節について,係り受け関係に基づく距離を調べる. 分析結果を図 3 に示す. 多くの場合は文節距離が 1 または 2 であった。一方で,文節距離 3 以上の例もいくつか見受けられた. 例えば表 3 の例では,「バッグ」が「それ」という指示代名詞の先行詞であることが原因で,文節距離が 4 となっている.このほか,主語が省略されることで寄与コロケーションが離れて出現するケースや,係り受け解析のミスにより距離が離れるケースがある。これらのことから,寄与コロケーションの抽出において,係り受け解析による文節距離は寄与コロケーションの探索条 表 4 寄与コロケーション例(あっさり,名詞)語義寄与コロケーション語義 1 味,奨油,スープ,味わい,ハンバーグ 語義 2 顔,メール,供述,切れ,表現 語義 3 別れ,承諾,同意,放棄,スルー 語義 4 解決, 敗退, 確定, 実現, 接続 件の重みづけとしては適しているが,探索範囲を限定することには適していないと考えられる。 ## 4 寄与コロケーションのクラスタリ ング 「ぶつぶつ」の語義 2 「蒸気やガスが液体の表面に連続して噴出したりわき立ったりする音。のように,オノマトペ辞書で定義された語義にはドメインを限定するものがあり,こうしたドメインの特徴が寄与コロケーションに反映されると想定される. オノマトペコロケーションデータベースの構築にあたっては,各語義ごとの特徴が解釈できるように寄与コロケーションをまとめあげることが理想的である. そこで本章では,各オノマトぺの寄与コロケー ションについて,Word2Vec を用いて単語分散表現を取得し, k-means++によるクラスタリングを行うことで,クラスタと語義の関係を分析する。 ## 4.1 単語分散表現 3.1 節と同様に,オノマトペの語義決定に寄与しているとされた文節の先頭の形態素を寄与コロケーションとする. これらの寄与コロケーションについて,Word2Vec の学習済みモデルである日本語 Wikipedia エンティティベクトル [9]を用いて単語分散表現を取得する。 ## 4.2 k-means++によるクラスタリング結果 各オノマトペの寄与コロケーションについて, $\mathrm{k}$ を語義数として k-means++を用いてクラスタリングを行い分析する。ここでは具体例として「あっさり」の名詞の寄与コロケーションおよび「ごろごろ」の動詞の寄与コロケーションについて,分析結果の一部を表 $4,5,6,7$ に示す. 表 4 と表 5 を比較すると,語義 1 「色、味などの濃度が薄いようす。」の寄与コロケーション群とク表 6 寄与コロケーション例(ごろごろ,動詞) 語義 $\quad$ 寄与コロケーション 語義 2 転がる,ころがる,転がす,あてる,寝返る 語義 3 する,過ごす,寝る,休む,〈つろぐ 語義 4 する,いる,転がる,ある,出る 語義 5 する,痛む 表 7 クラスタリング結果(ごろごろ,動詞) クラスタ 2 鳴る, ひびく, 聞こえる, 鳴り響く クラスタ 3 転がる,ころがる,転がす,浮く クラスタ 4 休む,くつろぐ,過ごす,眠る,寝る クラスタ 5 寝返る ラスタ 4 が対応していることがわかる. 語義 1 およびクラスタ 4 には,抜粋した語以外にも食べ物や味に関する語が多く含まれているため,こうした特徴に基づいたクラスタが形成できたと考えられる。 一方,そのほかのクラスタは各語義と対応せず,複数の語義の語が混在していた。 表 6 と表 7 を比較すると, 語義 1 「雷が鳴る音。 また、雷が鳴るような音。」の寄与コロケーション群とクラスタ 2 が対応していることがわかる.語義 1 は擬音語用法であり,音を伴う動詞が多く用いられるため,単語分散表現によりクラスタを形成できたと考えられる。一方,そのほかのクラスタは各語義と対応せず,複数の語義の語が混在していた. 特に語義 $3,4,5$ においては「ごろごろ」が「する」を伴って動詞として機能する点で共通しているため,周囲の文脈を考慮できない静的な単語分散表現ではクラスタリングが難しい。 これらの結果から,一部の語義については,本手法によって寄与コロケーションをまとめあげることで語義の特徴が解釈できることが明らかになった.今後は,文脈を考慮した単語分散表現を用いた手法を導入し,有効性を検証したい。 ## 5 おわりに 本研究では,オノマトぺの語義決定に寄与するコロケーションについてのアノテーションを行い, アノテーション結果について分析を行った. また, Word2Vec と k-means++によるクラスタリングを行い,クラスタと語義の関係を分析した. 今後は文脈を考慮した単語分散表現の活用を目指す。また,こうした各語義の特徴に基づいた寄与コロケーションのクラスタリングは,自動語義分類にも有用であると考えられるため,適用方法を検討する。 ## 謝辞 本研究は JSPS 科研費 21K12584 および 17K12791 の助成を受けたものである. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186. Association for Computational Linguistics, 2019. [2] 乙武北斗, 内田ゆず, 高丸圭一, 木村泰知. BERT による周辺文脈を考慮したオノマトぺの語義分類手法の提案. 知能と情報, Vol. 32, No. 1, pp. 518-522, 2020. [3] 藤田実智斗, 内田ゆず, 荒木健治. オノマトペ辞書に基づいたルールによるオノマトぺ語義分類手法の提案.日本知能情報ファジィ学会ファジィシステムシンポジウム講演論文集, Vol. 38, pp. 580-584, 2022. [4] 乙武北斗, 内田ゆず, 高丸圭一, 木村泰知. 表層格に着目したオノマトペ共起語の抽出と分析. 言語処理学会第 22 回年次大会予稿集, pp. 195-198, 2016. [5] 高丸圭一, 内田ゆず, 乙武北斗, 木村泰知. 係り先動詞に着目したオノマトぺの語義分類に関する検討. 知能と情報, Vol. 28, No. 4, pp. 693-699, 2016. [6] 阿刀田稔子, 星野和子. 擬音語 - 擬態語使い方辞典. 創拓社, 第 2 版, 1996. [7] Kikuo Maekawa, Makoto Yamazaki, Toshinobu Ogiso, Takehiko Maruyama, Hideki Ogura, Wakako Kashino, Hanae Koiso, Masaya Yamaguchi, Makiro Tanaka, and Yasuharu Den. Balanced corpus of contemporary written japanese. Language resources and evaluation, Vol. 48, No. 2, pp. 345-371, 2014. [8] 内田ゆず. 現代日本語書き言葉均衡コーパスコアデー タにおけるオノマトペ出現実態に基づくオノマトペ自動抽出手法. 工学研究 (北海学園大学大学院工学研究科紀要), Vol. 17, pp. 15-20, 2017. [9] 鈴木正敏, 松田耕史, 関根聡, 岡崎直観, 乾健太郎. Wikipedia 記事に対する拡張固有表現ラベルの多重付与. 言語処理学会第 22 回年次大会発表論文集, pp. 797-800, 2016.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q4-4.pdf
# 駄酒落を含む対話における可読性と面白さの相関分析 花房竜馬 ${ }^{1}$ 荒木健治 ${ }^{2}$ ${ }^{1}$ 北海道大学大学院情報科学院 ${ }^{2}$ 北海道大学大学院情報科学研究院 (hanabusa, araki)@ist. hokudai. ac. jp ## 概要 スマートスピーカーなどのデバイスに搭載されている対話エージェントとの対話は人間同士の対話と同等の面白さを感じることができない。この問題を解決するためには,対話中の文脈情報を考慮した高度なユーモア処理を実現する必要がある。これまで対話の文脈情報を含むユーモアの面白さについて,評価及び分析はなされていない。本稿では対話文脈を考慮した駄酒落の面白さを評価する標準データべ一スを構築するために, 駄酒落を含む対話を収集し, 12, 000 件の駄酒落が含まれる対話に対して対話の面白さを複数人で評価し,さらに,対話の可読性が面白さに与える影響について,相関係数を用いて分析した結果について述べる。 ## 1 はじめに 新型コロナウイルス感染症の蔓延による生活様式の大きな変化に伴い, 精神的ストレスを感じる人が急増している[1]. このような社会的問題に対処するために,新たな生活様式に沿った孤独や不安を緩和するためのメンタルケアの確立が必要となる. 孤独や不安を緩和するためのメンタルケアとして,友人や家族との対話が挙げられる。しかし, 対話相手の心理状態によって笑いを生むことが困難なことも少なくない.これらのことから,対話相手を担う存在として,対話によって面白さや楽しさを与える対話システムの実現が緊急の課題となっている. 現在,スマートフォンやスマートスピーカーの普及によって,人間と対話エージェントとの対話が日常的に行われている. これらのデバイスに搭載される対話エージェントは対話によって何らかのタスクを実行することを目的としたシステムである。そのため,対話によって面白さや楽しさを与えることができない.この点を踏まえ, 対話による面白さや楽 しさを与えることを目的とした非タスク指向型システム(雑談システム)の研究が行われている $[2,3]$. かし,これらの研究では人間同士の対話と同等以上の面白さや楽しさを与えるというレベルに達していない。この問題を解決するためには,人間と同等の応答精度に加えて,対話中の文脈情報からユーモア表現を理解して笑い,適切なタイミングで対話相手を飽きさせないようにユーモアを発話するといった高度なユーモア処理が必要となる。 これまでのユーモアに関する研究として,我々は 67,000 件の駄酒落を収録した大規模なデータベースの構築 $[4,5]$ を行った. 駄酒落の面白さを評価するための手法を確立するために,複数人による駄酒落の面白さの評価及び分析[6]も行った。 しかし, これらの研究において, 文脈情報は 1 文内の文内文脈に限定されている。そのため,対話の文脈情報を含むユーモアの面白さについて,評価及び分析はなされていない. 本稿では,対話文脈を考慮した駄酒落の面白さを評価する標準データベースの構築のために, 駄酒落を含む対話の収集を行い,複数人によって対話の面白さを評価し,さらに,対話の可読性が面白さに与える影響について,対話の面白さと表層情報との相関を用いて分析した結果について述べる. ## 2 駄酒落を含む対話の収集 人間同士の雑談対話を収録したコーパスとして,日本語日常会話コーパス[7]や名大会話コーパス[8] が挙げられる,しかし,これらのコーパスは一般的な会話文章を収録しているため,コーパス中に含まれる駄酒落は非常に少ないと考えられる.このことから,既存のコーパスから駄酒落を含む対話を大量に収集することは困難である。 ユーザ同士の対話が Web 上で公開されたソーシヤル・ネットワーキング・サービスとして, Twitter ${ }^{i}$  表 1 収集結果の件数及び割合 が挙げられる. 日本において, Twitter は 2021 年時点で約 5,310 万人が利用している. そのため, 既存のコーパスと比べて, Twitter には駄酒落を含む対話が比較的多いと考えられる. このことから, 本稿では Twitterを用いて,駄酒落を含む対話を収集する。一般的に, Twitter 上に存在する駄酒落を含む対話の構成は以下の 3 種類が挙げられる. (1) 最初に駄酒落を含むツイートが出現する対話 (2) 中間に駄酒落を含むツイートが出現する対話 (3) 最後に駄酒落を含むツイートが出現する対話 駄酒落を含む対話の面白さは駄酒落を含むツイー トの前後のツイートによって変化すると考えられる。 また,駄酒落を含むツイートから前後 5 件以上のツイートは駄酒落とは関連性のない話題が進行すると考えられる.これらのことから, 駄酒落を含む対話の範囲は駄酒落を含むツイートを基準とした前後それぞれ 0 から 5 つのツイートとする. 本稿において, 駄酒落を含むツイートの前後のツイートの数が 0 となるものは駄酒落を含むツイート単体とする. ## 2.1 収集方法 駄酒落を含む対話を収集するために,10,000 件の駄酒落を用いて, Twitter 上で完全一致検索を行い,検索結果をクローリングする. 駄酒落を含む対話の範囲の基準となるツイートは完全一致検索に用いた駄酒落を含むツイートとする.完全一致検索に用いる駄酒落は駄酒落データベー スに収録されている番号 $1 \sim 10,000$ の駄酒落を使用する. 駄酒落データベースは 67,000 件の駄酒落が収録された大規模なデータベースであり, Web サイト上吕で一般公開されている. 収録された駄酒落には面  白さの度合いを 5 段階で示す面白さのスコアが付与されている.駄酒落データベースにおける面白さのスコアの評価はクラウドソーシングによって雇用した3名の評価者によって行われている. クローリングには Twitter から提供されている学術研究向け API である Twitter API for Academic Researchiiを使用する. ## 2.2 収集結果 表 1 に収集結果の件数及び割合を示す.ここで,本稿における対話は 2 者による言葉の掛け合い, 会話は 3 者以上による言葉の掛け合いとする。表 1 に示すように, 駄酒落を含む対話は26,739件となった。 また,駄酒落を含むツイート単体の件数は 341,902 件となった。このことから, Twitter 上で行われる駄酒落を含む対話は駄酒落を含むツイート単体よりも比較的少ないことが確認された。 また, 収集されたものには駄酒落を含む会話が 81,454 件(18.0\%), 1 者による連続発話が 1,758 件 (0.4\%), が含まれている. 完全一致検索に用いた駄酒落 10,000 件のうち, 収集された駄酒落は 1,147 件(11.5\%)となった。 ## 3 駄酒落を含む対話の面白さの評価 これまでの研究において,駄酒落を含む対話の面白さの指標は存在しない。このことから,駄酒落を含む対話に対して, クラウドソーシングで雇用した 16 名の評価者に面白さを評価していただいた。 ## 3.1 評価方法 評価対象は駄酒落を含む対話 26,739 件から無作為に抽出した 12,000 件とする. 駄酒落を含む対話の面白さの評価には 200 件あたり 1 時間前後が必要である. そのため, 12,000 件の作業には膨大な時間的コストがかかる. それに加えて, 駄酒落単体の面白さの評価[6]において, 膨大な量の評価を行うと駄酒落に対する飽きが生じ,面白さが低く評価されることも確認されている。このことから,12,000 件の駄酒落を含む対話を 1,000 件単位で分割した. その後, 3 名による評価が付与されるように評価者を割り当てた。 図 1, 表 2 に駄酒落を含む対話の面白さの評価の  図 1 駄酒落を含む対話の面白さの評価の例 表 2 面白さのスコア \\ 例と面白さのスコアを示す. 図 1 における太字は収集時の完全一致検索に用いた駄酒落の種表現と変形表現を示す. また, 対話番号は $1 \sim 12,000$ 件の駄酒落を含む対話の番号を示す. U1,U2 はそれぞれ対話中の話者を示す記号である.対話の面白さの評価は評価者によって表 2 に示す面白さのスコアが付与される. 面白さのスコアは面白さの度合いを示す $1 \sim 5$ の整数値である。 ## 3.2 評価結果 図 2 に評価者全員のスコアの分布を示す. 図 2 に示すように 1 点から 3 点が全体の $91.3 \%$ を占めている. 一方, 4 点は $7.2 \%, 5$ 点は $1.5 \%$ と極端に少ない結果となった. そのため, 評価者全員のスコアの平均は 1.89 ポイントとなった. 1 点から 3 点の割合が $91.3 \%$ と比較的多い要因として, Twitter 上の対話には第三者から面白さを評価される前提がないことが挙げられる. Twitter における対話はユーザ同士のコミュニケーションとして行われる。そのため, 一般的なユーザは第三者から面白いと感じられるような対話をするという意図がない.このことから, 駄酒落を含む対話に対して第三者が対話の面白さを評価した場合, 面白くないまたは普通と感じるものが比較的多いと考えられる。表 3 平均スコアと表層情報の相関 ## 図 2 評価者全員のスコアの分布 ## 4 可読性の面白さへの影響 駄酒落を含む対話の面白さを変化させる要因として,対話内容の可読性が挙げられる.駄酒落を含む対話の可読性を表す表層情報として(A)対話の長さ, (B)発話の平均文字数, (C)駄酒落の出現位置の 3 種類が考えられる.この点を踏まえ,本稿では駄酒落を含む対話の面白さの指標と(A), (B), (C)の表層情報との相関係数を算出する. これにより,対話の可読性が面白さに与える影響を分析する。 ## 4.1 可読性と面白さの相関分析 駄酒落を含む対話の面白さの指標として,3 名の評価者のスコアの平均を用いる. 本稿において, 3 名の評価者のスコアの平均を平均スコアと呼ぶ. 2 章で述べたように,本稿における対話の範囲は駄酒落を含むツイートを基準とした前後それぞれ 0 から 5 つのツイートとした. このことから, 駄酒落を含む対話の長さは 2 から 11 の整数値である. 駄酒落の出現位置は 1 から 3 の整数値で表す. そのため, 対話の 1 ツイート目に駅酒落が出現したものは 1 , 対話の最後のツイートに駄酒落が出現したものは 3,それら以外は 2 となる。 12,000 件の駄酒落を含む対話 1 件ごとの平均スコアと 3 種類の表層情報の相関をピアソンの相関係数を用いて算出する。 図 3 評価者全員のスコアが高い対話の例 U1: そうか、北海道はでっかいどう!でした...北海道といえども簡単には手に入らないんですねす物産展やらないかな一! 図 4 評価者全員のスコアが低い対話の例 表 3 に平均スコアと表層情報の相関係数を示す.表 3 に示すように, 平均スコアと発話の平均文字数,駄酒落の出現位置の相関係数は-0.31, -0.23 となり,弱い負の相関があることが確認された. また, 平均スコアと対話の長さの相関係数は-0.18 となった.このことから, 対話の長さが平均スコアに及ぼす影響は他 2 つの表層情報と比べて小さいと考えられる。 ## 4.2 考察 図 3 に評価者全員のスコアが高い対話の例を示す.図 3 における U1,U2 はそれぞれ対話中の話者を示寸記号である. 3 名の面白さの評価は $5 , 5 , 4$ となっている,そのため,平均スコアは 4.67 となる. 図 3 の例では U1 の「明日は筑波山に行こう」という発話に対して,U2 が「筑波山にかみつくばあさ ## ん」という駄酒落を返している. 図 3 のような対話は文章量が少なく,内容を理解することが容易である。また,この対話は駄酒落に関する話題によって進行している。 そのため, 第三者から駄酒落をユーモアとして認識することも容易であると考えられる。 図 4 に評価者全員のスコアが低い対話の例を示す。図 4 においても U1,U2 はそれぞれ対話中の話者を示寸記号である. 3 名の面白さの評価は 2,1,2 となっている。 そのため, 平均スコアは 1.67 となる. 図 4 の例では北海道の洋菓子屋に関する話題から U1 が「北海道はでっかいどう」という駄酒落を含む発話を行うことで,対話が終了している。 図 4 のような対話は発話の平均文字数が 62 文字であるため, 図 3 のような対話と比べて文章量が多い. さらに,対話の最後に駄酒落を含む発話が出現しており, 対話者のリアクションがない, そのため,第三者から駄酒落をユーモアとして認識することが困難であると考えられる。 これらのことから, 可読性が高い対話は駄酒落をユーモアとして認識することが容易であり,面白さが高い傾向があると考えられる. ## 5 おわりに 本稿では,対話文脈を考慮した駄酒落の面白さを評価する標準データベースを構築するために,はじめに, Twitter 上に存在する 26,739 件の駄酒落を含む対話を収集し,12,000 件の対話に対して面白さの評価を行った。評価の結果として, 評価者全員のスコアの 91.3\%は 1 点から 3 点であることが確認された。 次に,対話の面白さがどのような要因によって変化するのかについて,対話の可読性に着目した分析を行った。ここで, 12,000 件の駄酒落を含む対話 1 件ごとの面白さのスコアの平均と対話の表層情報の相関をピアソンの相関係数を用いて算出した.その結果, 対話の面白さと発話の平均文字数及び駄酒落の出現位置には弱い負の相関があることが示された。今後の課題として,まず駄酒落データベース中の 10,001 番以降の駄酒落を用いた駄酒落を含む対話の追加収集を行うことが挙げられる。次に,第三者から面白いと感じられる対話をより多く収集するために,人手で駄酒落を含む対話を作成することが挙げられる。最後に,収集及び作成した対話を用いて対話文脈を含む駄酒落の面白さを評価する標準データベースを構築する予定である. ## 謝辞 本研究は JSPS 科研費 21 K12007 の助成を受けた ものである. ## 参考文献 [1] 厚生労働省, “新型コロナウイルス感染症に係るメンタルヘルスに関する調查結果の概要について” https://www.mhlw.go.jp/stf/newpage_15766.html, ( 参照 2020-08-01). [2] Rafal Rzepka, Shinsuke Higuchi, Michal Ptaszynski, Pawel Dybala and Kenji Araki: When Your Users Are Not Serious,人工知能学会論文誌, Vol.25, No. 1, pp.114-121, 2010. [3] Arnaud Jordan and Kenji Araki, Real-time LanguageIndependent Algorithm for Dialogue Agents, 知能 $と$ 情報 (日本知能情報ファジィ学会誌), Vol.28, No.1, pp.535-555, 2016. [4] 荒木健治, 内田ゆず, 佐山公一, 谷津元樹, 駄酒落データベ一スの構築及び分析, 人工知能学会第 2 種研究会, ことば工学研究会資料, SIG-LSE-B702-3, pp.13-24, 2017. [5] 荒木健治, 佐山公一, 内田ゆず, 谷津元樹, 駄酒落データベ一スの拡張及び分析, 人工知能学会第 2 種研究会, ことば工学研究会資料, SIG-LSE-B803-1, pp.1-15, 2018. [6] 荒木健治, 内田ゆず, 佐山公一, 谷津元樹, 駄酒落データベ一スを用いた面白さの評価及び分析, 人工知能学会第 2 種研究会ことば工学研究会資料, SIG-LSE-B902-4, pp.63-76, 2019. [7] Fujimura,Itsuko, Shoju Chiba and Mieko Ohso, Lexical and Grammatical Features of Spoken and written Japanese in Contrast: Exploring a lexical profiling approach to comparing spoken and Written corpora, Proceedings of the VIIth GSCP International Conference. Speech and Corpora, pp.393-398, 2012. [8] Hanae Koiso, Haruka Amatani, Yasuharu Den, Yuriko Iseki, Yuichi Ishimoto, Wakako Kashino, Yoshiko Kawabata, Ken'ya Nishikawa, Yayoi Tanaka, Yuka Watanabe and Yasuyuki Usuda, Design and Evaluation of the Corpus of Everyday Japanese Conversation, Proceedings of LREC2022, pp.5587-5594, 2022. ## A 面白さの評価の詳細 ## A. 1 評価者の属性及び作業件数 本稿では, 評価にかかる時間的コストの高さと評価者の駄酒落を含む対話に対する飽きを考慮し, クラウドソーシングを用いて 16 名の評価者を雇用した.また, 評価者 16 名には 1 件の対話に対して, 3 名の評価が付与されるように $1,000 \sim 3,000$ 件の作業を割り当てた.ここで, 1,000 件単位の対話に対する評価者の割り当ては雇用順に沿って行った. 表 4 に評価者の属性及び評価を実施した作業番号を示す. クラウドソーシングの Web サイト上には業務の依頼者から作業者に対して返信速度・納品実績などを 5 段階で評価した数値が与えられている.今回の評価者は全員評価値が 5.0 であるため, 一定レベルの能力を満たしているものと考えられる. ## A. 2 駄酒落を含む対話に対する飽き 駄酒落単体の面白さの評価[6]において, 膨大な量の評価を行うと駄洒落に対する飽きが生じ,面白さが低く評価されることが確認されている.このことから, 作業番号 1 から 3,000 の各評価者のスコアと平均スコアの 500 件ごとの平均值を算出し, 駄酒落を含む対話に対する飽きを分析する。 図 5 にスコアの平均値の推移を示す. 図 5 に示すようにいずれの評価者も 500 件ごとにスコアが低下している. しかし, 500 件時点と 3,000 件時点の平均スコアの差は-0.2 ポイントとなった.このことから,駄酒落を含む対話に対する飽きの影響は小さいと考えられる。 ## A. 3 評価者間の一致度 面白さの評価における一致度の算出にはコーヘンの $\kappa$ 係数を用いる.ここで, 分析する一致度は駄酒落を含む対話に対して 5 段階の面白さの度合いを付与するという順位尺度に基づいた評価に対する一致度である. 12,000 件の面白さの評価に対する一致度を算出するために, はじめに 1,000 件ごとの 2 者間の一致度を算出する. ここで, 1,000 件ごとの評価者の組み合わせは 3 通りであるため,3つの一致度が算出される. その後, 36 個の一致度の平均を全体の一致度として算出する.表 4 評価者の属性及び評価を実施した作業番号 図 5 平均値の推移 12,000 件の面白さの評価に対する一致度は 0.29 となり,おおむね一致という結果となった. 駄酒落単体の面白さの評価[6]における評価者間の一致度は 0.10 未満となっている. そのため, 駄酒落を含む対話の面白さの評価は駄洒落単体の評価に比べて評価者間で一致する割合が高い結果となった。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q4-5.pdf
# 類似データセット発見課題における詳細なデータセット分類に 基づいた有効性の評価 作本猛 ${ }^{1}$ 早矢仕晃章 ${ }^{2}$ 坂地泰紀 ${ }^{2}$ 野中尋史 3,4 ${ }^{1}$ 長岡技術科学大学 2 東京大学 3 愛知工業大学 ${ }^{4}$ 株式会社マヨラボ s183353@stn.nagaokaut.ac.jp \{hayashi,sakaji\}@sys.t.u-tokyo.ac.jp hnonaka@aitech.ac.jp ## 概要 近年のコンピュータ技術の発展に伴い,互いに類似するデータセットを発見するための方法が盛んに研究されているが,従来研究ではデータセットを探索する個々のユーザのニーズを反映するような評価項目が用いられてこなかった. そこで,本研究では,類似データセット発見手法の評価において, データプラットフォームで実際に用いられている分類基準に基づいた 4 種類の詳細な項目を評価に適用した. その結果,変数ラベル間の Dice 係数を用いた手法が,課題やメイントピックが完全に一致するデータセットの探索に有用であることが示された. ## 1 背景 コンピュータ技術の発展とデータプラットフォー ムの台頭により,データの市場取引や Web 上でのデータ公開・共有が盛んになっている $[1,2]$. また,機械学習・人工知能分野の技術発展によってこうした需要はより高まり, 企業や行政組織においてもデータドリブンな分析や意思決定を重視する動きが増加している。市場に流通するデータセットが多様かつ膨大になる中で,データセット発見,特に, データセット間の類似性に基づく検索に注目が集まっている $[3,4,5]$. これは, ユーザの全てが求めるデータセットに関する知識を持っているという前提は現実的ではなく [6],また,データセットのメタデータには品質のばらつきの問題があること [7] から,データセット検索において従来の Web 文書を対象とした検索技術が必ずしも適切とは言えないことが要因として挙げられる。 また, Degbelo ら [8]が指摘するように,「自身の課題に関係しているが,想定・知識の外にある,まだ見ぬデータセットが存在 するのか否かを知りたい」という重要なニーズの存在も類似性に基づくデータセット検索への注目を裏付けている. こうした背景から,一部のプラットフォームでは,データセットの発見可能性を向上させるために独自のタグオントロジーを定義している. 例えば, Kaggle では「新型コロナウィルス感染症」や「暗号通貨」といった,データセットのメイントピック的な要素を意味する subject や,テキスト,画像といったデータ型を意味する data type,データセットに関連する課題や収集目的を意味する task といったタグが存在する.データセットの分類として広く使用されている上記のような類似性の観点を評価に用いることで,類似データセットを探索する個々のユー ザのニーズに適した発見手法を提示できると考えられる。しかしながら,従来の類似データセット発見の研究において,上記のような詳細なデータセッ卜分類に基づいた評価には焦点が向けられてこなかった. 我々は,各手法によって得られたデータセットペア間に見られる類似性の種類や,具体的・抽象的といった類似性の段階を個別に評価するために,デー タプラットフォームで実際に用いられているデータセット分類を評価に適用した.その結果として,変数ラベル間の Dice 係数に基づく類似度が中〜高のデータセットペア間では,データセットに関連する学術的分野や課題については類似するが,それぞれの具体的なメイントピックは異なるといった,比較的抽象的な類似が多く見られることを確認した. また,類似度の数值に比例して,メイントピックについても類似したデータセットペアが増加するという傾向が見られたことから,変数ラベル間の Dice 係数に基づく類似度はデータセット間の内容的な類似 性を適切に反映していると考えられる。 本研究の主な貢献として,どのような種類の類似がデータセットペア間で見られやすいかを類似度の階級ごとに整理することによって,特定のデータセット探索のニーズに沿った手法選択に有用な知見を提供した点が挙げられる. ## 2 関連研究 類似データセット発見における評価は,データセット構造の類似性に焦点を当てたものと,データセットに関連するトピックの類似性に焦点を当てたものの 2 種類が存在する. データセット本体の構造を用いた評価の例として,ランダム分割されたデー タセットにおける再現可能性を評価する方法 $[9,10]$ や,下流タスクの評価指標に基づいて評価を行う方法 $[11,12]$ などが挙げられる.これらの取り組みは,同じデータ形式や課題に関連するデータセットの集合,あるいは同じデータスキーマを持つテーブルの集合から,構造的に類似する部分集合を発見する性能の評価に焦点を当てており,より雑多なデータセットの集合を対象とする我々の取り組みとは相互補完的な立ち位置にある。 データセットに関連するトピックの類似性に基づいて評価を行った取り組みとしては, Sakaji ら [13] の取り組みが挙げられる. Sakaji ら [13] は内容的側面と地理的側面の 2 種類の項目に基づいて,各データセットペアがどの程度類似しているかを定量的に評価した. しかし, データセットの内容的な類似性を評価するための尺度は一つではない。例えば, Kaggle データプラットフォームでは, subject や task, data typeのような,共通項目を持つデータセットへのアクセシビリティを高めるための数種類の分類が存在している. 加えて,いくつかの分類には階層構造が定義されている. 得られたデータセットペアがどの分類で類似しているのか, どの段階で類似しているのかについて定量評価が可能となれば,データセットを探索するユーザのニーズに合わせた手法の選択がより容易になると考えられる. そこで,我々の研究では, Kaggle や Papers with code といったプラットフォームで用いられているデータセット分類を適用することで,各データセットペアがどのような項目で類似しているか,具体的に類似しているか抽象的に類似しているかをそれぞれ定量的に評価している. ## 3 実験 図 1 に示すとおり, 以下の手順に沿って実験を行う.(1)データセット集合から全ての可能なぺアを作成する. (2) 全てのデータセットペアについて,後述する手法 (3.2 節) に従ってデータセット間の類似度を計算する。(3)類似度を 10 段階の階級(0〜 $0.1 , \ldots, 0.9 \sim 1.0$ )に区分し,各階級に対して対応する類似度を持つデータセットペアを割り当てる。 (4)各階級に含まれるデータセットペアから最大で 10 件のペアをランダムにサンプリングし, 各評価項目(3.3 節)で共通するぺアの割合(適合率)を計算する. (1) (2) (3) (4) Dice係数 Cos類似度 図 1 評価実験の概要 ## 3.1 データセット 本研究ではデータプラットフォーム Kaggle ${ }^{1)}$ から 2020 年 1 月 20 日時点で収集されたデータセットのうち,少なくとも 1 件のタグを含み,かつ少なくとも 100 単語以上で構成される説明文を含んだデータセット 4041 件を対象に実験を行う.各データセッ卜に含まれるメタデータは以下の表 1 に示すとおりである. 1) https://www.kaggle.com/ 表 1 データセットに含まれるメタデータの概要説明文データセットの内容を詳述した文章変数ラベルデータ属性の論理集合 図 2 メタデータと実データとの対応関係 ## 3.2 類似データセットペアの発見 今回の実験では, Sakaji ら [13] が提案した手法のうち,変数ラベル間の Dice 係数(以後,変数),説明文の BERT 埋め込みベクトル間のコサイン類似度 (以後,BERT)の 2 種類の類似データセットペアの発見手法を用いる. ## 3.2.1 変数 変数を用いた類似度については, 先行研究の方法 [13] に従い,Dice 係数を用いて以下のように計算する。 $ \operatorname{Dice}\left(d_{i}, d_{j}\right)=\frac{2\left|\operatorname{vars}\left(d_{i}\right) \cap \operatorname{vars}\left(d_{j}\right)\right|}{\left|\operatorname{vars}\left(d_{i}\right)\right|+\left|\operatorname{vars}\left(d_{j}\right)\right|} $ ここで, $d_{i}, d_{j}$ はそれぞれ異なるデータセットを指し, $\operatorname{vars}(\mathrm{d})$ はデータセット $d$ が保有する変数の集合を意味する。 ## 3.2.2 BERT データセットの内容が類似している場合,それぞれの説明文の埋め込みべクトル間のコサイン類似度は高くなると考えられる。 そこで,先行研究 [13] で最も良い結果を示した,説明文の名詞を対象とした BERT 埋め込みに基づく手法を使用する。 $ T_{W}=\operatorname{BERT}(W) $ ここで, $W=\left.\{w_{1}, w_{2}, \ldots, w_{N}\right.\}$ は長さ $\mathrm{N}$ の系列である. BERT $(s e q)$ は系列 $s e q$ を入力として受け取り,最終隠れ層のベクトル $T_{W}$ を返す事前学習済みの BERT モデルである. 最後に,入力系列長に関わらず比較可能なべクトル表現 $V_{B E R T}(W)$ を得るために,以下のように平均化を行う。 $ V_{B E R T}(W)=\frac{1}{\left|T_{W}\right|} \sum_{t \in T_{W}} t $ BERT の事前学習済みモデルには,英語版 Wikipedia で学習された bert-base-uncased[14]2)を使用する。 ## 3.3 データセット分類に基づく評価項目 Kaggle では,データセットのメイントピックを意味する subject,収集目的や関連する課題を意味する task,データ形式を意味する data type といった分類が存在する。また, Papers with code には Modality や Task といった分類が存在しており, Modality は Kaggle における data type と同様の分類である。そこで,我々はこれらの分類を基に,以下の表に示す 4 種類の分類を定義し,各分類に基づいてより詳細な有効性の検証を行う。 表 2 の 1,2 行目に示す主題(大分類),主題(細分類)は,いずれも Kaggle における subject と対応している. 主題(細分類)はデータセットが主に対象とする事物(メイントピック)そのものを指しており,主題(大分類)はそれらが属する学術的,あるいは技術的な分野・領域を指している。表の 3 行目に示す目的・課題は,Kaggle の task や Papers with codeの Task と対応する項目であり,主にそのデー タセットを用いて解決したい課題を意味している.表の最下部に示すデータ形式は,Kaggleの data type や Papers with code の Modality と対応しており,テー ブルや時系列といった項目が存在する。これらの項目に基づいたデータセット間類似性評価の一例として,特定の企業における株価の推移を日毎に記録したデータセットと,暗号通貨の価格変動を日毎に記録したデータセットの 2 種類を挙げる. 両データセットは共に経済の分野に属しており,目的・課題やデータセットの形式も共通したものであると考えられるが,それぞれのメイントピックは株価と暗号通貨のように異なっている。これらのことから,両データセットは主題 (大分類), 目的・課題,データ形式において類似しているが,主題(細分類)については異なるとみなされる。  ## 4 実験結果 図 3,4 に,それぞれの手法 (変数,BERT) によって発見された類似データセットペアに対する,各類似度階級における各評価項目の適合率を示す。まず, どちらの結果においても,データ形式に関する適合率は全ての類似度の階級において高い値を示していることがわかるが,これは今回の実験で使用したデータセットの多くがテーブルデータセットであることに起因すると考えられる. 図 3 より, 変数に基づく類似データセットペアにおいて,類似度の数値に比例して, 主題 (大分類), 主題 (細分類), 目的・課題の 3 項目の適合率が高くなる傾向が見られた. 特に,類似度が $0.4 \sim 0.6$ の階級では,主題(大分類), 目的・課題に対して, 主題(細分類)の適合率が 2 分の 1 程度と低い值を示しているが,0.6 以上の階級ではこれらの差が縮小していき, 0.8 以上の階級では全ての項目において適合率が最大の値を示している. これは,変数ラベルに基づくデータセット間類似度の数値は,データセット間の類似性の粒度の細かさ,言い換えると,データセット間で共通する項目の多さを適切に反映していると言える. 以下の表 3 に, 各階級において得られたデータセットペアの具体例を示す. 表 3 変数ラベル間の類似度に基づいて得られたデータセットペアの例. なお,主題(大),主題(細)はそれぞれ主題(大分類)と主題(細分類)を意味している。 対して,図 4 に示すように,BERT に基づく類似データセットペアは,データ形式以外の 3 項目における適合率が,全ての類似度階級において低い值を示した. 類似度の高い領域 (0.7 ) では, 主題(細分類)や目的・課題に沿った類似データセットのペアが増加するという傾向が見られたが,いずれも適合率が 0.1 0.2 程度と低い值を示している.これは,説明文を持つ Kaggle データセットにおいて,テンプレート文章をそのまま説明文として流用したものが多く存在すること,また,教師なしのテキスト間意味的類似度 (Semantic Textual Similarity) の測定に 図 3 各評価項目におけるデータセットペア間の適合率 (変数) おいて,BERT は必ずしも有効ではないこと [15] などが要因として考えられる。 図4 各評価項目におけるデータセットペア間の適合率 (BERT) ## 5 結論 本研究では,類似データセット発見手法の有効性評価において,データプラットフォームで用いられている詳細なデータセット分類に基づいた 4 種類の評価項目を適用した.結果として,変数ラベル間の Dice 係数に基づく類似度はその数值に比例してデー タセットペア間で類似する項目の種類が増加するという傾向が見られた. 特に,類似度が非常に高い (0.8~) 領域では,メイントピックなど具体的な項目についての類似が増加することから,この類似度はデータセット間の類似性を適切に反映していると考えられる。 そのため, この手法は関連課題や具体的なメイントピックが完全に一致するデータセットを探索するといった状況に特に適していると考えられる。 今後の方針としては,他のデータプラットフォー ムでの分析や,異なる類似データセット発見手法の評価への適用が考えられる。 ## 参考文献 [1]Magdalena Balazinska, Bill Howe, and Dan Suciu. Data Markets in the Cloud: An Opportunity for the Database Community. PVLDB, Vol. 4, pp. 1482-1485, August 2011. [2]Florian Stahl, Fabian Schomm, and Gottfried Vossen. Data Marketplaces: An Emerging Species. Databases and Information Systems VIII, pp. 145-158, 2014. [3]Kathleen Gregory, Paul Groth, Helena Cousijn, Andrea Scharnhorst, and Sally Wyatt. Searching Data: A Review of Observational Data Retrieval Practices in Selected Disciplines. Journal of the Association for Information Science and Technology, Vol. 70, No. 5, pp. 419-432, 2019. [4]Kathleen Gregory, Andrea Scharnhorst, and Sally Wyatt. Lost or Found? Discovering Data Needed for Research. Harvard Data Science Review, Vol. 2, No. 2, April 2020. [5]Laura M. Koesten, Emilia Kacprzak, Jenifer F. A. Tennison, and Elena Simperl. The Trials and Tribulations of Working with Structured Data: -a Study on Information Seeking Behaviour. In Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems, pp. 1277-1289, Denver Colorado USA, May 2017. ACM. [6]Martin Nečaský, Petr Škoda, David Bernhauer, Jakub Klímek, and Tomáš Skopal. Modular framework for similarity-based dataset discovery using external knowledge. Data Technologies and Applications, Vol. 56, No. 4, pp. 506535, January 2022. [7]Ulrich Atz. The tau of data: A new metric to assess the timeliness of data in catalogues. In CeDEM14 Conference for E-Democracy and Open Government, Vol. 22, pp. 147162, 2014. [8]Auriol Degbelo. Open Data User Needs: A Preliminary Synthesis. In Companion Proceedings of the Web Conference 2020, WWW '20, pp. 834-839, New York, NY, USA, April 2020. Association for Computing Machinery. [9]Srinivasan Parthasarathy and Mitsunori Ogihara. Clustering Distributed Homogeneous Datasets. In Principles of Data Mining and Knowledge Discovery, Vol. 1910, pp. 566-574, Berlin, Heidelberg, 2000. Springer Berlin Heidelberg. [10]Srinivasan Parthasarathy and Mitsunori Ogihara. Exploiting Dataset Similarity for Distributed Mining. In José Rolim, editor, Parallel and Distributed Processing, Lecture Notes in Computer Science, pp. 399-406, Berlin, Heidelberg, 2000. Springer. [11]Ingo Siegert, Ronald Böck, and Andreas Wendemuth. Using a PCA-based dataset similarity measure to improve crosscorpus emotion recognition. Computer Speech \& Language, Vol. 51, pp. 1-23, September 2018. [12]Tatiana Tommasi, Novi Patricia, Barbara Caputo, and Tinne Tuytelaars. A Deeper Look at Dataset Bias. In Domain Adaptation in Computer Vision Applications, Advances in Computer Vision and Pattern Recognition, pp. 37-55. Springer International Publishing, Cham, 2017. [13]Hiroki Sakaji, Teruaki Hayashi, Kiyoshi Izumi, and Yukio Ohsawa. Verification of Data Similarity using Metadata on a Data Exchange Platform. In 2020 IEEE International Conference on Big Data (Big Data), pp. 4467-4474, December 2020 . [14]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, 2019. [15]Sho Yokoi, Ryo Takahashi, Reina Akama, Jun Suzuki, and Kentaro Inui. Word Rotator's Distance. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 2944-2960. Association for Computational Linguistics, 2020.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q4-6.pdf
# 事故事例構造化コーパスの構築 東明幸太 ${ }^{1}$ 福岡康大 ${ }^{2}$ 森辰則 ${ }^{1}$ 伊藤拓海 ${ }^{3}$ 1 横浜国立大学大学院 ${ }^{2}$ 横浜国立大学 3 株式会社 IHI tomei-kota-pc@ynu.jp fukuoka-kodai-hr@ynu.jp tmori@ynu.ac.jp ito9762@ihi-g.com ## 概要 製造業の企業では現場からの問い合わせに対する回答を生成する際に過去の事故事例の活用が求められている。しかし、企業に蓄積されているものは構造化されていないプレインテキストであるため活用が難しい。本稿では、現場利用者の情報要求に応じて検索・要約をし、事故の流れを可視化して提示することで原因等をわかりやすく示すシステムを作成するために過去の事故事例を構造化することを目的とする。そのために、事故の流れを示すことができる注釈付け手法を提案し、実際にコーパスの作成を行った。また、事故事例に付与された注釈に基づいて、事故事例中の事象の系列を可視化するためのシステムの試作を行った。 ## 1 はじめに 製造現場や建築現場などにおいて、現場で技術的な問題や事故・装置の不具合が発生した場合、現場作業員から担当部署に対してそれら技術的要素や事故・装置の不具合への対処方法について問い合わせが行われ、担当部署が過去の類似事例を参考にして回答を返し、その回答内容に従って問題解決を図る、というプロセスが取られることが多い。しかしそういった問い合わせへの返答に際して、現状では部署の担当者が問い合わせ文の読解・過去の事故不具合事例データベースからの前例の検索・回答文の作成といった作業を人手で行っており、非効率的だという現状がある。そのため、事故・不具合問い合わせ文書の解析・データベースからの類似事例の検索・回答文の生成といった作業を自動で行うことのできるシステムに対して需要が大きい。また、現場では発生した事故や不具合について記録を保存している場合も多く、そうして蓄積された過去の事故・不具合事例集を効果的に活用可能なシステムに対し ても需要が大きい。本研究では事故・不具合問い合わせ文書の解析 - 類似事例の検索 - 回答文の生成といった作業を自動で行うシステムの実現を目標としている。特に、利用者の情報要求に応じて検索・要約をし、事故の流れを可視化して提示することで原因等をわかりやすく示すことを目指している。 しかし、企業に蓄積されているものは構造化されていないプレインテキストであるため、そのままでは上記システムの実現は難しい。上記の目標の実現には、原因を含む事故につながる事象の流れを表すことができるテキストの構造化と構造化テキストに基づく、事故内容の可視化が必要である。そのために、本稿では、どのように構造化を行えば良いかについて、事故事例のテキストを分析し、構造化のための注釈付けの枠組みを検討した。同枠組みを用いて、後述の『失敗知識データベース』の一部の事例に対し注釈付けを行い構造化されたテキストコー パスを整備した。さらに、その構造化されたテキス卜を入力として、可視化を行うシステムを試作することにより、提案する構造化手法の妥当性を検証した。テキスト構造化の自動化は今後の課題とする。 ## 2 関連研究 これまで事象の流れを抽出する研究の一つとして、原因と結果の組を抽出する因果関係抽出が盛んに行われてきた。坂地ら [1] や佐藤ら [2] の研究では、決算短信、有価証券報告書などの金融情報テキストに関して因果関係抽出を行っている。手がかり表現を用いることで原因・結果を含む文を抽出し、原因・結果を含んでいると判定された文から原因と結果の対を抽出している。これらは金融分野のテキストに対して有効であることが確認されているが、我々が対象としている事故事例に対しての有効性は不明である。また、原因・結果のみの抽出であり、情報から得られる事象の流れを網羅していない。 既存の、事故・不具合事例文書の活用を目的とした先行研究として、大森らの研究 [3] がある。大森らは、事例文の中心となる部品や製品の情報提示を行うという観点でこの課題を捉え、事例文からの事故・不具合に関与する製品の記述の抽出、および因果関係抽出を通した事故・不具合の原因に関する記述の抽出というアプローチを通した事故・不具合事例集の活用を検討している。この手法では事例文から中核となる製品やその製品と因果関係を持つ出来事を表す「単語そのもの」を抽出することを目指しており、事故全体の流れに注目して文章を構造化しているわけではないため、事故全体の流れを把握することはできていない。 事故全体の構造化を目指している研究として、畑村らが作成した『失敗知識データベース』[4][5]がある。失敗知識データベースとは、失敗知識のデー 夕化・容易な伝達を目的として、失敗事例を分析して知識として活用できるデータベースを目指し開発されたものである。失敗知識データベースの事例は原因、対策などの項目に分けて記述されており、知識として活用できる形になっている。そのため構造化に大いに参考になる。その一方で、このデータベースと同じ知識を自動的に整備するためには、自動化を意識した分析や手法の提案が必要である。さらに、失敗知識データベースでは事故の詳しい流れが構造化されている項目は存在しない。 我々の研究では、事故・不具合問い合わせ文書の解析 - 類似事例の検索 - 回答文の生成といった作業を自動で行うことのできるシステムの実現を目標としている。その目標の達成に向けて、本論文では、事故事例の流れを構造化し、今後の事故事例の活用に貢献するための正解となるコーパスを作成する。 ## 3 コーパスの設計 ## 3.1 事故事例の構造分析と構造化の方針 まず一般的に、事故などの事象の流れは、ある 「状態」において、ある「動作」が行われた結果、新しい「状態」が生じるということの繰り返しで表現できる。「状態」に注目すると「動作」は「状態変化」 を起こすものとして位置付けられる。それらの前提から、本稿では事故などの事象の流れの記述は、ある時点での対象物群の有り様を記述した「状態」とその状態を変化させる動作を記述した「状態変化」 の二種類の要素によって記述されているとする。状態ある時点での対象物群の有り様 例)「低圧タービンの外側から 3 段目の動翼 1 本が、車軸への取付部が折れて脱落していた」 状態変化状態を変化させる事象 例)「タービン本体の設計時に想定されなかった異常振動が起きた」 これらは基本的に時系列順で記述されているが、そうではないものも多く、事故の流れを簡単に把握することは困難である。そのため、我々のコーパスでは、時系列に沿った順序関係を「状態」や「状態変化」の間の関係として付与することで、事故の流れを表現できるようにしている。また、事故事例文書は実際の事故の流れを表す記述である「客観的な記述」と事例文書の書き手が原因などを推測、判断して記述した「主観的な記述」で構成されている。そこで、我々のコーパスでは主観的な記述を「思考・判断」として注釈付けをし、これらを客観的な記述と区別する。そうすることで、書かれている記述が実際に起こったことであるのか、書き手の思考・判断の記述であるのかを分けて理解することができる。区別を明示するために、主観的な記述であるということがわかる「思考・判断」を基本要素に追加した。書き手が行う「思考・判断」の対象として 「状態」(例えば、「〜となっていると考えらえる」) や、「状態変化」(例えば、「〜が起こったと推測される」)が現れる場合がある。 思考・判断書き手の事故に対する主観的な思考や判断 例)「バランス調整不良に起因した振れ回りによる共振が原因であった」 「思考・判断」とみなす基準は、明示的に現れる判断表現に基づいて判断する。明示的に現れる判断表現としては、「原因であった」、「考えられる」、「原因は〜のためであった」などがある。 上の例では、「振れ回りによる共振が原因であった」の「原因であった」という記述が「原因の認定」 という判断表現であるため、「思考・判断」であるとみなす。もし、「振れ回りによる共振が起こった」 という記述であれば客観的な記述とする。 ## 3.2 注釈付けのための規則の検討 以上で設計したコーパスを作成するために、テキストに注釈をつける。そのための注釈付けの規則を検討した。その結果を以下に示す。 ・「状態」「状態変化」「思考・判断」を基本要素として注釈付けするため、それぞれに対応するテキストを $\langle\mathrm{s}>$ (state), $\langle\mathrm{t}>$ (transition), $\langle\mathrm{j}>$ (judgement) タグで囲む。 - 時系列に沿った順序関係を「状態」や「状態変化」の基本要素間の関係として付与する。文書から順序関係が明確にわからないものは並列に扱う。時系列上で隣接していると判断される二つの基本要素において、時間的に前である基本要素を「始点」、後である基本要素を「終点」と呼ぶ。基本要素の時間方向を明示するため、時系列でつながる基本要素の「始点」の注釈に $\mathrm{d}$属性 (direction) を付与し、值”1”を与える。対応する「始点」と「終点」が組であることを明らかにするために、それぞれの id 属性に同じ值を与える。id 属性の値は、「始点」と「終点」の組が文書内で出現する順番により值”1”からはじまる通し番号とする。 - 同一の事象を表現している「状態」「状態変化」 の記述部を共参照関係とし、その関係にある両注釈に、c_id 属性 (coreference id) を付与し、同じ属性値を与える (入れ子の場合は一番外側のみ)。事故事例文書では、異なる場所で同一の事象を表現するテキストが出現しうる。事象の流れを正確に把握するためには、それらが共参照関係にあることを記述する必要がある。 ・「状態変化」には人が意志を持って起こしたものとそうでないものがある。両者を区別するため、人が意志を持って起こした「状態変化」 を「有意志」そうでないものを「無意志」とし、「有意志」である「状態変化」には i 属性 (intention)を付与し、值”1”を与える。 -「思考・判断」か否かは、明示的に現れる判断表現の有無に基づいて判断する。明示的に現れる判断表現としては、「原因であった」、「考えられる」、「原因は〜のためであった」などがある。 ・「思考・判断」に内包されている「状態」、状態変化」が確実に起こったものではないと読み取れる表現のものがあるため、それらを区別する。「思考・判断」記述部が不確実と読み取れる記述がされているなら uncer 属性 (uncertainty) を付与し、値”1”を与える。 ・タグで囲う範囲は述語までとする。 ## 4 コーパス作成 「失敗知識データベース」の「事例概要(事故の内容・原因・対処がまとめて記述してある)」を用いてコーパス作成を行った。機械カテゴリの 210 件、失敗知識百選 (失敗事例の中から国内外の典型的な事例を 100 例程度取り上げ、読みやすく記述)の 106 件を対象とした (両者で 4 件の重複があるため) 合計 312 件の事故の事例概要を対象とし、注釈付けを行い、コーパスを作成した。 ## 4.1 注釈付け 注釈付けは第一著者、第二著者の二名で行った。 ルールに従い人手で各事例の事例概要に注釈をつけた。その結果をもとに注釈が一致する場所は正解、一致しなかった箇所に関しては、議論を行い、注釈の付け直しを行った。図 1 の原文章に対する注釈付けの例として、結果を図 2 に示す。 図 1 原文章(機械カテゴリ:5 番目のデータ) 図 2 提案するタグセットで注釈付けを行った文章(機械カテゴリ $: 5$ 番目のデータ) ## 4.2 構造化されたテキストからダイヤグラ ムを生成するシステム 我々の研究の目的の一つが、事例文書の要約・可視化である。そこで 4.1 節で注釈付けされたテキストを適切に可視化できるかどうかを検証するために、テキストから図による可視化表現(以下、ダイヤグラム)を生成するシステムを試作した。注釈の種類とそれに付与される属性の組に応じて図 3 に示す通り色付けを行い、区別を容易にした。 事例の流れを把握するため、「思考・判断」に対しては、内包する「状態」、「状態変化」がある要素のみを図に表示した。「思考・判断」が内包する「状態」、状態変化」のノードをさらに枠で囲み一つのノードとした。注釈付けの段階では、不確実とされたか否かは「思考・判断」の属性であったが、図では「思考・判断」の内包する「状態」「状態変化」にも継承されるものとした。 ## 状態 状態 (不確実) 状態変化(有意志) 状態変化(不確実、有意志) ## 状態変化(無意志) 状態変化 (不確実、無意志) 図 3 ノードの色と意味 実際に図 2 の注釈付けを行った事例に対して、テキストからダイヤグラムを生成するシステムを利用すると図 4 が出力される。ノードが有向エッジで結合され、時系列となるように配置されている。 図4 図2 の事例からシステムが生成した図 ## 5 考察 4 節で「失敗知識データベース」の「事例概要」 316 件に対して、流れを把握できるような構造化の ルールを作成し注釈付けを行った。注釈付け前後のテキストや生成されたダイヤグラムを第一著者、第二著者の二名が観察し、議論をした。図4のような可視化の結果により「動翼 1 本が、車軸への取付部が折れて脱落していた」という状態が「鍵となる状態」であることがわかりやすくなった。それに対する「試験運転による想定外の異常振動が起き、金属疲労状態になったであろう」という書き手の推論から「動翼 1 本が、車軸への取付部が折れて脱落していた」という原因状態に至る過程の推測もわかった。注釈付けを行っていく中で注釈の位置やどの注釈にするかを修正をしながらコーパスを作成した。特にタグセット作成後、どのタグを振るかという検討する際に判断基準を明確にするべきものがあったため以下に示す。 「状態」「状態変化」の違い「エア吸気口に水滴となって残り」の部分に「状態」「状態変化」どちらのタグを振るかについての検討の余地があった。検討の結果「残り」は動作そのものなので「状態変化」であり、「残っている」であれば進行を表す相表現が付加されているので「状態」と判断する。具体的には、「〜ている」、「〜 ていた」といった進行を表す相表現があれば、 その文を「状態」と判断する。 動作性名詞の扱い動作性名詞とは、例えば、「レー ルの熱膨張で...」における、「熱膨張」のように、 サ変名詞や動詞由来の名詞である。動作を名詞化したものであるから、「状態変化」とする。 ## 6 まとめ 本稿では、プレインテキストの活用のための事故事例の構造化のために事故事例テキストを分析し、構造化のための注釈付けの枠組みを検討した。構造化ルールを作成し、注釈付けコーパス作成を行った。さらに、構造化されたテキストを入力として、可視化を行うシステムを試作することにより、提案する構造化手法の妥当性を検証した。正解データとして 312 件は多くないと考えられるため、他の事例に対しても注釈付けを続けていく必要があると考えられる。その後、今回人手で行った構造化を自動化することで、事故事例を把握する時間が短縮されることに貢献できることや、事故の真の原因特定や回答文生成にも役立つと考えられる。 ## 参考文献 [1] 坂地泰紀, 酒井浩之, 増山繁. 決算短信 pdf からの原因・結果表現の抽出. 電子情報通信学会論文誌 D, Vol. 98, No. 5, pp. 811-822, 2015. [2] 佐藤史仁, 佐久間洋明, 小寺俊哉, 田中良典, 坂地泰紀, 和泉潔. 有価証券報告書からの因果関係文の抽出. 人工知能学会全国大会論文集第 32 回 (2018), pp. 2O404-2O404. 一般社団法人人工知能学会, 2018. [3] 大森信行, 森辰則. 不具合事例文からの製品・部品を示す語の抽出一語の実体性による分類一. 電子情報通信学会論文誌 D, Vol. 95, No. 3, pp. 697-706, 2012. [4] 畑村洋太郎, 中尾政之, 飯野謙次ほか. 失敗知識デー タベース構築の試み. 情報処理, Vol. 44, No. 7, pp. 733-739, 2003. [5] 失敗知識データベース,(2022-10 閲覧). http: //www.shippai.org/fkd/index.php.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q4-7.pdf
# 英語初学者エッセイの議論マイニングコーパスの作成と分析 川原田将之† 平尾努§内田涉†永田昌明 § †株式会社 NTT ドコモ $\S_{\text {NTT }}$ Nミュニケーション科学基礎研究所 \{masayuki.kawarada.vw, uchidaw\}@nttdocomo.com \{tsutomu.hirao.kp, masaaki.nagata.et\}@hco.ntt.co.jp ## 概要 議論マイニングとは,筆者の主張や根拠を特定し,それらの論理構造を明らかにするタスクである。学生の書いたエッセイを対象とした議論マイニングのコーパスとしては,Persuasive Essay Corpus (PEC) [1]が存在する。しかし,PEC は,留学生や英語を母国語とした高校生が書いたエッセイを基に作成されており,英語を外国語として学び始めた学習者 (初学者) が書く英文とは,記述されている英語の習熟度に差が存在する. 本稿では,初学者が書いたエッセイに対して,PEC と同様のアノテー ションを行い,新たに議論マイニングコーパスを作成した. 複数名で作成したコーパスに対して一致率を算出し,PEC との比較分析を行った結果を報告する。 ## 1 はじめに 英語を外国語として学ぶ者にとって,論理構造が明確な英文が書けることは,重要なスキルの一つである.学習者が書いた英文に対して,自動で論理構造の明確さに対する採点や修正箇所のフィードバックを行うようなシステムがあれば,英語学習に役立てることができ,有用である。このようなシステムを実現するためには,学習者が書いた英文を解析し,論理構造を明らかにする必要がある。 議論マイニングとは,筆者の主張や根拠を特定し,それらの論理構造を明らかにするタスクである. 教育分野における議論マイニングのコーパスとしては, Persuasive Essay Corpus (PEC) [1]が存在する.PEC の英文は,留学生や英語を母国語とした高校生によって書かれたものであり,英語を外国語として学習する中学生や高校生が書くような英文は含まれていない. PECにおけるアノテーションのガイドラインも,意味上の段落であるパラグラフに分けて書かれているエッセイを前提としている。一方で,初学者が書くエッセイは,パラグラフを意識して書かれていないといった特徴が存在する。 このような特徵を持つ文書を対象にした議論マイニングの研究は少なく [2], 英語の習熟度が高い筆者が書いたエッセイと比較する研究は,今まで行われてこなかった. そこで本稿では,PEC 作成におけるアノテーションガイドラインを用いて,初学者が書いたエッセイの議論マイニングコーパスを作成し,PEC との比較分析を行った結果を報告する.複数名で作成した議論マイニングコーパスに対して,アノテーション一致率を算出したところ,PEC と比較して,一致率は著しく低下した。一致率を上げるためのアノテー ション方法の改善に向けて詳細な分析を行った. ごく少数のエッセイにおいては,筆者が意識してパラグラフを設けて作成されており,そのようなエッセイに限れば,アノテーション一致率は比較的高く,初学者によるエッセイに対するアノテーション方法の変更の方向性が示唆された。 ## 2 関連研究 議論マイニングに関する研究は,ニュース記事を対象としたもの [3] や生物学の論文を対象としたもの $[4,5]$ など,様々な分野で行われている.教育分野における議論マイニングのコーパスを作成した研究としては,Stab ら [6] の研究がある. 彼らは, エッセイ投稿用の web サイトから収集した 90 エッセイに対して,Component と呼ばれる筆者の主張が含まれる部分の抽出を行った後,Component 同士の関係を表す Relation の抽出を行っている. これに引き続き,Stab [1] らは,Stab ら [6] のアノテーション方法に修正を加えた方法で,PECを作成した.PEC には,80 のテストデータと 322 の学習データが含まれており,テストデータに対してアノテーション一致率を計算している。 本研究では, Stab [1] らの研究を基に初学者のエッ セイに対する議論マイニングコーパスを作成する. ## 3 議論マイニングコーパスの作成 先行研究 [1] との比較を行うために,初学者の書いたエッセイに対して,同じ方法でアノテーションされた,議論マイニングコーパスの作成行う. ## 3.1 エッセイの作成 エッセイの作成を行うために,筆者によって意見が分かれるような 250 のトピックを用意した. 初学者1)に,これらのトピックから. 100 語から 150 語程度のエッセイを作成してもらった。各トピックに対して,10 エッセイを作成し2),合計で 2,500 エッセイを作成した. 指定語数が 100 語から 150 語と短く,依頼を行う際に,パラグラフに分けて書くように指示はしていないため,パラグラフ区切りが含まれているエッセイは 102 例のみであった. 作成した 2,500 エッセイから,ランダムに 100 エッセイを抽出し, これらのエッセイに対してアノテーション作業を行った. 抽出した 100 エッセイの中でパラグラフが存在しているものは 5 例だった. 抽出したエッセイの統計情報と PEC の統計情報を比較したものを付録 $\mathrm{A}$ の表 3 に示す. ## 3.2 アノテーション方法 Stab ら [1] のアノテーション方法では,3 段階に分けてアノテーションが行われる。 まず,アノテー タにトピックとエッセイを渡し,エッセイに書かれている内容を把握してもらう,次に,筆者の主張が含まれる要素である Component の抽出を行う. Component は, MajorClaim, Claim, Premise の 3 種類が存在し, Component の抽出は,文よりも小さい単位でで行われるため,抽出する境界の決定も必要である. Component の抽出は, MajorClaim, Claim, Premise の順に行う. 最後に, 抽出した Component 同士の関係を表す Relation の抽出を行う.Relation は,互いに同じ立場の関係にある Support と対立した立場の関係にある Attack が存在する. Stab ら [1] の方法では,エッセイにパラグラフが存在することを前提に,各パラグラフ内で相対的に Component と Relation の抽出を行っている。一方で,初学者のエッセイでは,パラグラフが存在しない場 1)本研究で初学者とは,TOEIC ® Listening \& Reading Test で 500 点以下の点数かつ,英語を母国語としない者とした. 2)ただし, 1 人の初学者が同一のトピックについて複数のエッセイを書くことがないように調整した。合が多く,エッセイ全体を見ながら抽出を行う必要がある. ## 3.3 アノテーション作業 アノテーション作業は. 英語を母国語とする 3 名のアノテータで行った. まず, 3 名には,先行研究 [1] のアノテーションガイドライン3)を用いて, アノテーション方法の習得をしてもらった. その後,各アノテータは,それぞれ 100 エッセイに対してアノテーションを行った. 今回作成したエッセイは,PEC と比べて,エッセイ作成者の英語の習熟度が高くないため,アノテー タが理解できない場合や,そもそもトピックに対応した主張が含まれていない場合が想定される.これらに対応するため,アノテータには,どこまでの作業ができるのかを判断してもらい,作業を完了できなかった場合は,その理由を記述してもらった。 表 1 に作成したエッセイに対して行ったアノテーションの例を示す. また,作成した議論マイニングコーパスについて,各アノテータが抽出した Component の数と付与した Relation の数, 作業不可と判断されたエッセイの数を付録 $\mathrm{A}$ の表 4 に示す. ## 4 アノテーション一致率の算出方法 アノテータが可能だと判断した作業についての一致率を算出した後, Stab ら [1] と同様の方法で,Component の一致率と Relation の一致率をそれぞれ算出する. ## 4.1 作業判断についての一致率 本研究では,先行研究 [1] とは異なり,アノテー タが作業不可と判断することも可能である. 各エッセイに対して,3名のアノテータが作業可能と判断したか $(t=1)$, または, 作業不可と判断したか $(t=0)$ を Fleiss [7]の $\kappa$ を用いて,アノテーション一致率を計算する。 ## 4.2 Component $の 一$ 致率 まず,文単位でアノテーション一致率を計算する.この方法では,アノテータ間で Component を抽出する境界が異なっていたとしても,抽出した Component が同一の種類であれば,一致していると評価される. 文単位のアノテーション一致率の計  図1作成したエッセイに対して行った,Component(左)とRelation(右)のアノテーションの例 表 1 Component(上)と Relation(下)の抽出に関する先行研究 [1] と本研究のアノテーション一致率の比較. OA は, Observed Agreement を表す. MC,C,P,S,A は,それぞれ, MajorClaim, Claim, Premise, Support, Attackを表す. 算には,観察された一致度 (Observed Agreement) と Fleiss [7]の $\kappa$ を用いた. 観察された一致度は,単純に全体の中で 3 名の作業者の一致した割合を測る指標であり,кは,観察された一致度から偶然の一致を除いた時の一致率を測る指標である。 次に, Component の境界も考慮した評価を行うために, Krippendorff $[8,9]$ の $\alpha_{U}$ の算出を行う.この算出方法では,各エッセイを単語に分割し, ${ }^{4}$ エッセイ全体を単語列と見なした上で,アノテータが抽出した Component の境界とその種類の一致率を計算する. そして, 算出した各エッセイの一致率の平均値を取ることでアノテーション一致率とする。 ## 4.3 Relation の一致率 先行研究 [1] に従い, Componentを含んだ 2 文間の Relation の一致率を算出する.あるパラグラフ内に含まれる文の総数を $n$ とすると,パラブラフ内の文はそれぞれ, $s_{1}, \ldots, s_{n}$ と表され,その中の任意のぺアは, $p=\left(s_{i}, s_{j}\right)$ と表される. ここで, $0 \leq i, j \leq n$ かつ $i \neq j$ である. 全エッセイに含まれるぺアの総数 $N$ うち,アノテータ間で Relation の種類が一致している割合からアノテーション一致率を計算する. ただし,パラグラフの区切りが存在しない  表 23 名のアノテータが各作業段階において, 作業不可と判断したエッセイの数. MC,C,P は,それぞれ, MajorClaim, Claim,Premiseを表す。 エッセイでは, $n$ はそのエッセイに含まれる文の数と一致する. アノテーション一致率には, Observed Agreement と Fleiss [7]の $\kappa を$ 用いた. ## 5 分析結果 3 名のアノテータによるアノテーション一致率を算出するため,1 人でも作業が不可と判断したエッセイは除外した. アノテーションが完了した 81 エッセイに対して,前節の方法でアノテーション一致率を算出し, 先行研究 [1] との比較結果を示す. ## 5.1 作業不可と判断されたエッセイに対す る分析 100 エッセイのうち,除外されたエッセイは, 19 エッセイであり,3 人のアノテータ全員が作業不可と判断したエッセイは存在しなかった. アノテータ 3 名の作業判断についての一致率を計算したところ, $\kappa=0.087$ が得られた. また,除外した 19 エッセイのうち,13エッセイは,アノテータ B のみが作業不可と判断したエッセイであったため,アノテー タ A とアノテータ C の一致率を算出したところ, $\kappa=0.2647$ であった. これらの結果を見ると, 作業判断についての一致率は低く, 作業判断はアノテー タによって異なることがわかる。 次に,除外されたエッセイがどの作業段階で作業不可と判断されたのかについて考察する. アノテー ション作業において,Relation を抽出する段階で作業不可と判断された例は存在しなかった. これは, Component の抽出の際には,他の Component との対 応を考えながら行う必要があるため, Component の抽出ができれば,Relation の抽出も行えるからだと考えられる。3名のアノテータが各作業段階において, 作業不可と判断したエッセイの数を表 2 に示す. MajorClaim の抽出を行う段階で,作業不可判断されたエッセイは,10 例であった. 作業不可と判断した理由としては,「トピックに対応した主張が含まれていない」や「エッセイ自体が不明瞭で主張が理解できない」が多かった. また, Premise の抽出において,10 例が作業不可と判断されていた. その理由としては,「Premise に該当する箇所がエッセイ中に存在しない」がほとんどであった。これは,初学者のエッセイは, 主張を書くことができたとしても,それらの因果関係が読者に伝わりづらい英文であるためだと考えられる。 ## 5.2 アノテーション一致率に関する分析 Component と Relation のそれぞれにおいて,先行研究と本研究のアノテーション一致率を比較したものを表 1 に示す.まず,Component について見てみると, $\kappa , \alpha_{U}$ の值は,MajorClaim で $\kappa=0.530 ,$ $\alpha=0.497$ であった. MajorClaim の一致率が比較的高くなった理由としては,一般的に MajorClaim は文書の最初と最後に出てくる場合が多く, エッセイ作成者の意図が分かりづらくても,文の位置からある程度は予測できるからだと考えられる. 先行研究では, Premiseの一致率は $\kappa, \alpha_{U}$ 共に高いが, 本研究では低く, $\kappa=0.247$ と $\alpha_{U}=0.497$ だった. これは, 初学者のエッセイには, 接続詞の誤りが多く含まれ,主張と理由の判別が難しいためだと考えられる. 次に,Relation について比較を行う. Support についての $\kappa$ の值は, $\kappa=0.350$ であり, 先行研究と比べると高くないものの, ある程度の一致率が得られた。一方で,Attackについての一致率は低く, $\kappa=0.072$ であった. この理由として,初学者のエッセイは主張の立場がわかりづらく,アノテータが判別するのが難しかったためだと考えられる. ## 5.3 パラグラフの影響に関する分析 パラグラフの有無がアノテーション一致率に与える影響について調べるために,これらを 2 つの群に分けた後, Component の一致率を比較する. 比較には, $\alpha_{U}$ を用いた. パラグラフが存在するエッセイと存在しないエッセイに対して $\alpha_{U}$ を比較したものを図 2 に示す. MajorClaim, Claim, Premiseの全 図 2 パラグラフが存在するエッセイ (w/ paragraph) と存在しないエッセイ (w/o paragraph) に対する $\alpha_{U}$ の比較 てにおいて,パラグラフがある場合の方がエッセイのアノテーション一致率が高いことがわかる。これは,パラグラフが存在することにより,エッセイ作成者が意図した,意味上の区切りをアノテータが理解しやすくなるためであると考えられる.特に,本研究のような短いエッセイの場合, MajorClaim の含まれるパラグラフは 1 文であることが多く,パラグラフがないものに比べて作業が容易であったと考えられる。ただし,パラグラフが存在するエッセイと存在しないエッセイの間には,サンプル数に大きな偏りがあるため,同程度のサンプル数における比較は,今後の課題である. これらの結果から, 初学者のアノテーション作業を行う際には,パラグラフに分割可能かを判断する作業を追加するなど,作業工程の検討を行う必要があると考えられる。 ## 6 おわりに 本研究では,初学者が書いたエッセイに対して,議論マイニングのアノテーションを行った. 複数のアノテータで作成した議論マイニングコーパスについて,アノテーション一致率を算出したところ,先行研究 [1] よりも一致率が低い結果が得られた. そこで, パラグラフの区切りが存在するエッセイと存在しないエッセイについて,アノテーション一致率の比較を行ったところ,パラグラフが存在するエッセイの方が一致率が高い結果が得られた. 今後は, アノテーション作業におけるパラグラフの影響について,より詳細な分析を行った後,初学者のエッセイに対するアノテーション方法の検討を行いたい. ## 参考文献 [1] Christian Stab and Iryna Gurevych. Parsing argumentation structures in persuasive essays. Computational Linguistics, Vol. 43, No. 3, pp. 619-659, September 2017. [2] Jan Wira Gotama Putra, Simone Teufel, and Takenobu Tokunaga. Parsing argumentative structure in Englishas-foreign-language essays. In Proceedings of the 16th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 97-109, Online, April 2021. Association for Computational Linguistics. [3] Khalid Al-Khatib, Henning Wachsmuth, Johannes Kiesel, Matthias Hagen, and Benno Stein. A news editorial corpus for mining argumentation strategies. In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers, pp. 3433-3443, Osaka, Japan, December 2016. The COLING 2016 Organizing Committee. [4] Nancy Green. Towards creation of a corpus for argumentation mining the biomedical genetics research literature. In Proceedings of the First Workshop on Argumentation Mining, pp. 11-18, Baltimore, Maryland, June 2014. Association for Computational Linguistics. [5] Nancy Green. Identifying argumentation schemes in genetics research articles. In Proceedings of the 2nd Workshop on Argumentation Mining, pp. 12-21, Denver, CO, June 2015. Association for Computational Linguistics. [6] Christian Stab and Iryna Gurevych. Annotating argument components and relations in persuasive essays. In Proceedings of COLING 2014, the 25th International Conference on Computational Linguistics: Technical Papers, pp. 1501-1510, Dublin, Ireland, August 2014. Dublin City University and Association for Computational Linguistics. [7] J.L. Fleiss, et al. Measuring nominal scale agreement among many raters. Psychological Bulletin, Vol. 76, No. 5, pp. 378-382, 1971. [8] Klaus Krippendorff. Content Analysis: An Introduction to Its Methodology (second edition). Sage Publications, 2004. [9] Klaus Krippendorff. Computing krippendorff's alphareliability. 2011. ## A データ作成時の統計情報 表 3 先行研究 [1] と本研究でアノテーションを行うエッセイの統計情報の比較. 括弧内の值は, パラグラフが存在した 5 例のエッセイのみの平均値を表す. 表 4 各アノテータか抽出した Component の数と Relation の数,および,作業不可と判断したエッセイの数 (作業不可の数).
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q4-8.pdf
# Wikipedia における文の品質推定のための大規模データセット 安道健一郎 ${ }^{1}$ 関根聡 ${ }^{2}$ 小町守 1 1 東京都立大学 2 理研 AIP ando-kenichiro@ed.tmu.ac.jp ## 概要 Wikipedia は誰でも編集できるという特性上,客観的な百科事典の記述として適切ではない文が大量に含まれており,それらは日々編集者によりマー クアップされている. 本研究では, その作業支援を目的に Wikipedia 内の文の品質推定を行うためのデータセットを構築し、その自動検出タスクを実施した. 作成したデータセットは英語版 Wikipedia の全編集履歴から抽出された約 341 万文に、大きく 5 種類に分類された 153 の品質ラベルが付与され、ノイズなどの処理をしたものである.このデータを使った分類ラベルの自動検出実験は、編集者をアノテーターとした文品質検出実験と見ることができ, 73-85 程度の $\mathrm{F}$ 值が得られ、有用性が示された. ## 1 はじめに Wikipedia は誰でも編集できることで有名な巨大なオンライン百科事典である。しかし, Wikipedia の質は長い間論争の的となっており, それは自然言語処理(NLP)にとって非常に重要な問題である $[1,2,3,4]$. Wikipedia のテキストは NLP のデータセットに広く利用され,主要なリソースとなっているため, Wikipedia の品質が NLP に与える影響は大きい $[5,6,7,8]$. 実際,いたずらなどによる質の悪い編集も存在する.そのような編集はしばしば他の編集者によって Wikipedia テンプレート ${ }^{1)}$ でマークアップされ, 修正される. そのような,ユーザーの編集が繰り返されることで Wikipedia の質は信頼性面も含めて向上し続けているが,全ての質の悪い編集文を限られた編集者でチェックし修正することは非現害的である. そのため,この問題を機械でサポートする試みが過去にいくつかなされている. 代表的なもの  は Wikipedia の Bot ${ }^{2)}$ で,自動で間違った Wikipedia マークアップ書式を修正したり,廃止された機能を新しいものに置換したり,特に,荒らし的な編集を元に戻すというものもある。しかし,これらは素朴で表層的なエラーを対象としており,対象外のエラーに対する多次元的で詳細な評価は人間がチェックしている. その他のサポートの試みとしては,記事全体の品質を推定する研究や,ある特定の品質ラベルを識別しようとする研究も行われている $[9,10]$. 前者の bot は文単位でのきめ細かい評価ができず,後者は限られた質の悪い点のみに着目している. そこで,我々はきめ細かく様々な側面から文の品質を推定するための大規模データセットを構築した. 文の品質ラベルとして,編集者が各文に対して付与した Wikipedia インラインテンプレート 3)を利用している. 対象ラベルをトークページに関するものなどを除いて人手で厳選し,ノイズの多い文をフィルタリングした結果, 品質推定ラベルは合計 153 個,総文数は約 341 万文になった. 事前学習モデルを用いた自動検出の実験では,引用を必要とする文,構文や意味の修正を必要とする文,命題に関する問題を持つ文は検出が困難であることがわかった.このデータセットは Wikipedia の編集者をアノテーターとして大規模に文品質評価を行なったと見ることもでき,NLP の他タスクにおいても有用であると思われる。構築されたデータセットは一般公開されており利用可能である ${ }^{4)}$. ## 2 品質推定データセット ## 2.1 ソーステキスト Wikipedia は Wiki markup というマークアップ言語で書かれており,それが MediaWiki というパーサー 2) https://en.wikipedia.org/wiki/Wikipedia:Bots 3) https://en.wikipedia.org/wiki/Wikipedia: WikiProject_Inline_Templates 4) https://github.com/ken-ando/WikiSQE_dataset 表 15 種類に分類した Wikipedia の品質評価ラベル. それぞれ頻度上位 5 ラベルの中から特徴的な 4 ラベルを選び,その総数と説明を示している. により HTML に変換されている. 本研究は英語版の全編集履歴をターゲットにしているため,この HTML 化処理は非常に計算量が多く,計算リソースと時間を必要とする. そのため,先行研究 [11] ですでに HTML 化されているものを活用する.このデータは 2019 年 3 月 1 日以前の英語版 Wikipedia の全記事の全編集履歴を含んでいる. ## 2.2 対象ラベル 収集対象の品質評価ラベルは Wikipedia inline cleanup template ${ }^{5)}$ に含まれるものをべースとして使用する.このインラインテンプレート集は編集者に向けて,Wikipediaにおける文の品質の指摘をするための Wiki markup をまとめたものである. 我々が持つソーステキストは HTML であるため,このインラインテンプレートを Wikipedia サンドボックスを用いて HTML 表記に変換し, 品質評価ラベルリストを獲得した。 しかし,この状態ではまだラベルリストのカバ 5) https://en.wikipedia.org/wiki/Category:Inline_ cleanup_templates レッジに問題がある。第一にベースとして使用した Wikipedia inline cleanup template は 2022 年のものであり,ソーステキストで用いられた 2019 年の Wiki markup とは相違がある. そのため, 各インラインテンプレートのページにリダイレクトしている,既に廃止された Wiki markup ページを再帰的に取得し, サンドボックスを通すことで過去に遡った HTML 表記の品質評価ラベルを獲得した。第二の問題は MediaWiki パーサーの時間的相違である. ソースの HTML 表記は 2019 年時点の MediaWiki によって生成されたものであり,現在の MediaWiki の出力する HTML ラベルとは相違がある.つまり,サンドボックスで変換した HTML ラベルがソーステキスト内に存在しない可能性がある。この問題に対処するために,ソーステキストに含まれる高頻度の品質評価ラベルを人手でチェックし,リストにないものは新たに収集リストに追加した。 結果, 153 種類の品質評価ラベルが得られた. その一部を表 1 に示す. 全取得ラベルとその説明はデータセットの Webページにて公開されている. 表 2 Wikipedia の品質評価ラベルと文例. ## 2.3 品質カテゴリ 分析のために 153 の品質評価ラベルをさらに抽象化し 5 種類に分類した。(表 1,3) Citation には引用に関するラベルが 59 個属する. このラベルは Citation needed という文に引用が必要であるということを示すラベルが大多数であり, データセット全体に渡ってみても $68 \%$ 占める。 Syntactic or semantic revision は文法や意味的な改善が必要ということを示すグループであり,26 個のラベルが属する. Clarification needed という曖昧でわかりにくい文意を明確にするべきというラベルが多数存在する. Information addition は文に何かしらの追加の情報が必要であることを示すグループである.最も多いラベルは Who?であり,特定の人物名が明記されていないことを示すラベルである. Disputed claim は文の形態に問題はないが,その命題に問題があることを示すグループである. 最も多いラベルは Dubious であり,編集者から見て,不自然な,真偽が怪しい情報が含まれていることを示す. 最後に Other はどのグループにも属さないラべルの集合である.最も多いラベルは Disambiguation needed であり,文内の Wikilink が曖昧さ回避ページにリンクされていて改善が必要な際にマークアップされる. 次いで多いラベルは Sicである。これはソースに忠実なものの,一般的にみれば文法的に誤りである事例が含まれている。 このカテゴリはさらに, Wikipedia に依存する表 35 種類の文品質カテゴリの統計量. \# L はラベル数 #T は単語数,PPL はパープレキシティを示している。 ものとそうでないもので分けられる. Syntactic or semantic revision, Information addition, Disputed claim (SID) の 3 カテゴリは一般の文品質にも共通する特性を備えているため,後の実験で分離して扱う. SID には約半数の 78 種類のラベルが含まれている. ## 2.4 文抽出とフィルタリング 文抽出はソーステキストを pySBD [12]を用いて文分割し,2.2 節で取得された品質評価ラベルリストを持つ文を抽出することで行った. しかし,ソー ステキストはこのままではセクションタイトルや非文などが含まれており,ノイジーである. そのため,極端に短い文,Wiki markup がそのまま残っている文,頭文字が小文字である文などをフィルタリングした. 各文は引用マーカーが取り除かれて重複が削除され,最終的に $3,417,909$ 文が取得された. ## 2.5 データセットの分析 取得できた文例を表 2 に示す. ラベルによって,文,単語,節に付加されるものがある. 例えば, Citation needed や Clarification needed, Dubious, Neutrality disputed などはその性質上,文や節など対象のスパンに付加されやすい。一方で,Who?, When?,Sicなどは単語に付加されることが多い. 表 3 に GPT-2を用いて算出した各カテゴリのパー プレキシティを示した. パープレキシティはカテゴリの特性をよく反映しており,Syntactic or semantic revision は文法,意味的に一般とは外れた用法が多いため,パープレキシティが高くなっている. Other は Sic が多く含まれているため, 特にパープレキシティが高い. また, Disputed claim は命題的に特異的ではあるものの,パープレキシティは低く,表層にその特徴が現れない,判定が難しいグループであることが予想できる. Information addition は追加の情報が必要だが,文自体に問題はない性質があるため,パープレキシティは低かった. ## 3 実験 Wikipedia の問題のある文の自動検出を行うために,作成したデータセットを用いて実験を行う. ## 3.1 セットアップ 実験は開発データ,テストデータに十分なサイズを用意するため,カテゴリごとに実行した(十分サイズが大きい頻度上位 20 個のラベルの実験結果については Appendix B を参照). 実験のためのデータセットとして, 前節までに作成したデータの品質ラベルを除去したものを正例とし,新しくラベルの付与されていない文をランダムで同じサイズにサンプルしたデータを負例とする. 開発データとテストデータのために,正例と負例をそれぞれ 500 文ずつランダムに抽出し, 結合して 1000 文としたものを 2 つ用意する. 残りのデータを訓練データとして使用した. また, Citation needed については突出してラベル数が多いため,カテゴリの評価をなるべく公平に行うために 200,000 文までにダウンサンプルして使用した,加えて,SIDとすべてのラベルを含む All を用意する。それらは単なる加重平均ではなく, 属するカテゴリのラベルを全て連結し,シャッフルした単独のデータセットである.検出に用いるモデルは DeBERTa [13] と BERT [14], RoBERTa [15] をファインチューニングしたものであり,全ての設定について 2 值分類である. ## 3.2 実験結果 自動検出の実験結果を表 4 に示す. 全体的には平均的に 7-8 割程度の検出精度であったが, 引用の問題,構文や意味の修正を必要とする文,命題に関す表 4 自動検出の実験結果(F1 スコア). る問題を持つ文は検出が比較的困難であることが分かった. 引用の問題については引用元の文献を勘案しなければならないため,Wikipedia 本文だけでは特定が難しいものと思われる。構文や意味の修正を必要とする文と命題に関する問題を持つ文については,高次に意味的な要素を捉えなければならないため難しい. また,何らかの情報の付加が必要な文は付加する対象の表現に特徴があるため, 高精度に検出できたものと思われる(When?は時間表現を対象とするなど). モデル間の比較では, 総合的に BERT が最も良いスコアを示したものの,モデル間の性能に顕著な違いは見られなかった. 最後に,すべてのデータを用いた All がどのモデルにおいても最低の精度であった。一方 SID は精度が高く, その差を勘案すると,カテゴリのまとまりを無視した横断的なデータを用いて学習した弊害であると思われる. SID は AII と比べて似た文をうまくクラスタリングできているので,うまく学習できた. ## 4 関連研究 過去の Wikipedia の編集者支援のための品質推定研究は主に記事単位で行われている [16]. 一方で,文単位に着目した品質推定の研究も存在する. それらは引用が必要ということを示す Citation needed [9], 誇張した表現を示す Puffery や Peacock [10], 曖昧な言い回しを示す Weasel words [17] ラベルを対象に文を集めて分析している。本研究との詳細な比較を Appendix A に示す. 先行研究は一般に公開されていないものも多く, Wikipedia の一部の品質ラべルを対象としており, 全体を含んだものではない. ## 5 おわりに 本研究では Wikipedia のための文品質推定データセットを構築し,ラベルの目的ごとにカテゴリを作成した. 自動検出実験では平均的に 7-8 割程度の精度で検出できることが分かった。 ## 謝辞 本研究は国立研究開発法人情報通信研究機構委託研究「自動翻訳の精度向上のためのマルチモー ダル情報の外部制御可能なモデリングの研究開発」及び JSPS 科研費 JP20269633 の助成を受けて行われた. 研究の遂行にあたり, ご議論いただいた東京大学の渡邊晃一郎氏に深く感謝いたします。 ## 参考文献 [1] Jim Giles. Internet Encyclopaedias Go Head to Head. Nature, Vol. 438, pp. 900-901, 2005. [2] Encyclopaedia Britannica. Fatally Flawed: Refuting the Recent Study on Encyclopedic Accuracy by the Journal Nature. Chicago, Estados Unidos: Encyclopaedia Britannica, 2006. [3] Editorial. Britannica Attacks. Nature, Vol. 440, p. 582, 2006. [4] Thomas Chesney. An Empirical Examination of Wikipedia' s Credibility. First Monday, Vol. 11, No. 11, Nov. 2006. [5] Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, and Percy Liang. SQuAD: 100,000+ Questions for Machine Comprehension of Text. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2383-2392, November 2016. [6] James Thorne, Andreas Vlachos, Christos Christodoulopoulos, and Arpit Mittal. FEVER: a Large-scale Dataset for Fact Extraction and Verification. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 809-819, June 2018. [7] Mahnaz Koupaee and William Yang Wang. WikiHow: A Large Scale Text Summarization Dataset, 2018. [8] Marta Bañón, Pinzhen Chen, Barry Haddow, Kenneth Heafield, Hieu Hoang, Miquel Esplà-Gomis, Mikel L. Forcada, Amir Kamran, Faheem Kirefu, Philipp Koehn, Sergio Ortiz Rojas, Leopoldo Pla Sempere, Gema RamírezSánchez, Elsa Sarrías, Marek Strelec, Brian Thompson, William Waites, Dion Wiggins, and Jaume Zaragoza. ParaCrawl: Web-Scale Acquisition of Parallel Corpora. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4555-4567, 2020. [9] Miriam Redi, Besnik Fetahu, Jonathan Morgan, and Dario Taraborelli. Citation Needed: A Taxonomy and Algorithmic Assessment of Wikipedia's Verifiability. In Proceedings of the 28th International Conference on World Wide Web Companion, pp. 1567-1578, 2019. [10] Amanda Bertsch and Steven Bethard. Detection of Puffery on the English Wikipedia. In Proceedings of the Seventh Workshop on Noisy User-generated Text, pp. 329-333, November 2021. [11] Blagoj Mitrevski, Tiziano Piccardi, and Robert West. WikiHist. html: English Wikipedia's Full Revision History in HTML Format. In Proceedings of the International AAAI Conference on Web and Social Media, Vol. 14, pp. 878-884, 2020. [12] Nipun Sadvilkar and Mark Neumann. PySBD: Pragmatic Sentence Boundary Disambiguation. In Proceedings of Second Workshop for NLP Open Source Software, pp. 110-114, Online, November 2020. [13] Pengcheng He, Xiaodong Liu, Jianfeng Gao, and Weizhu Chen. DeBERTa: Decoding-enhanced BERT with Disentangled Attention. In Proceedings of The 8th International Conference on Learning Representations, 2020. [14] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 41714186, June 2019. [15] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A Robustly Optimized BERT Pretraining Approach, 2019. [16] KayYen Wong, Miriam Redi, and Diego Saez-Trumper. Wiki-Reliability: A Large Scale Dataset for Content Reliability on Wikipedia. In Proceedings of the 44th International ACM SIGIR Conference on Research and Development in Information Retrieval, pp. 2437-2442, 2021. [17] Viola Ganter and Michael Strube. Finding Hedges by Chasing Weasels: Hedge Detection Using Wikipedia Tags and Shallow Linguistic Features. In Proceedings of the ACL-IJCNLP 2009 Conference Short Papers, pp. 173176, Suntec, Singapore, August 2009. 表 5 先行研究との比較表. “Public?” はデータの公開状況を表す。 表 6 頻度上位 20 品質ラベルの結果. 各ハイライトは Citaion, Syntactic or semantic revision, Information addition, Other, Disputed claim $の$ 上位力テゴリを表す. ## A 先行研究との比較 Wikipedia の inline cleanup template を使用し,文の品質推定を行った先行研究との詳細な比較を表 5 に示す. ## B 個別ラベルの自動検出結果 品質ラベルの頻度上位 20 ラベルについて DeBERTa で自動分類した結果を表 6 に示す. ## C 実験の詳細 DeBERTa, BERT, RoBERTa はすべて Base_uncased モデルを用いた. エポックは最大 20 に設定し,F1 が最大であるべストエポックモデルをテストに使用した. 最大入力系列長は 256 , バッチサイズは 64 、学習率は 1e-5 である.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q4-9.pdf
# 化学工学分野の論文に含まれる命名法に基づく 変数記号および定義の解析 加藤 祥太 加納 学 京都大学大学院情報学研究科 \{shota, manabu\}@human.sys.i.kyoto-u.ac.jp ## 概要 プロセス産業においてデジタルツインを実現するために対象プロセスの挙動を正確に模倣できる物理モデルが必要であるが,精緻な物理モデルの構築には膨大な労力を要する.著者らは,物理モデル構築工程を効率化するために,物理モデルを自動で構築する人工知能 (AutoPMoB) の実現を目指している. AutoPMoB の実現には文献からの変数定義抽出技術の開発が必要である. 本研究ではその一環として,化学工学分野の 42,323 報の論文に含まれる命名法から 549,840 個の変数記号-変数定義ぺアを抽出し,解析した. 本解析により, 化学工学分野では変数記号に $\rho, \mu, \alpha$ ,変数定義には Reynolds number が最もよく用いられることと, 変数定義の単語数が他分野と化学工学分野とでは異なることを明らかにした。 ## 1 はじめに プロセス産業のデジタルトランスフォーメーション(DX)の実現に向けた最も重要な技術であるデジタルツインを実現するためには,対象プロセスの挙動を正確に再現できる物理モデルが不可欠である.しかし,高精度な物理モデルを構築するには,対象プロセスに関する専門知識を有する技術者や研究者が膨大な文献を調査し,モデル構築に必要な情報を収集し,それらを組み合わせて試行錯誤的に精度向上を行うことが必要とされている.著者らは, この物理モデル構築工程を効率化するために物理モデル自動構築 AI (Automated physical model builder; AutoPMoB)の実現を目指している [1]. 物理モデルの表記では数式が重要な役割を果たしており,数式を理解するためには数式を構成する変数の意味を正しく認識する必要がある。しかし,論文中の変数の意味を正しく把握するためには,文中から変数定義を抽出したり別の情報源をもとに 図 1 Nomenclature の例 [2] 定義を予測したりする必要がある.論文には図 1 に示すような Nomenclature が記載されていることがある. Nomenclature とは用語に対する定義の一覧のことであり,一般に命名法と訳される. Nomenclature が記載されている場合には変数記号に対する変数定義の意味を容易かつ正確に抽出できる。本研究は,AutoPMoB の実現に必要な要素技術の 1 つである変数定義抽出手法の開発の一環として,この Nomenclature を複数の論文から抽出して解析する。 ## 2 関連研究 変数定義抽出を目的とした最近の自然言語処理タスクに SymeEval2022 Task 12: Symlink がある [3]. Symlink タスクでは,論文中に存在する変数記号と変数定義を抽出し,さらにそれらの関係も抽出することを目指す. Symlink データセットでは,計算機科学・生物学・物理学・数学・経済学の 5 つの分野の TeX 形式の論文に含まれる変数記号と変数定義が対応付けられている. Symlink データセットには 102 報の論文が用いられ,21,915 個の変数記号に対して 9,556 個の変数定義がアノテーションされた. 同様に変数記号に対する変数定義を抽出する手法の開発を目的としたタスクとして,NTCIR-10の Math understanding subtask がある [4]. このタスクでは 45 報の論文に含まれる 4,323 個の変数記号に変数定義が付与された [5]. 分野によって変数定義の記述の仕方は異なるため,我々の最終目的である AutoPMoB の実現に有力な手法を開発するには化学工学関連の文献に含まれる変数記号と変数定義を含 むデータセットが必須である. 上述の既存研究ではいずれも arXiv [6] 上の論文を対象としているが,化学工学関連の論文が arXiv に投稿されることは稀である.そのため, これまでに化学工学関連の論文を対象としたデータセットは存在しない. ## 3 データセット Elsevier Research Product APIs [7] を用いて,110の化学工学関連論文誌から XML (Extensible Markup Language)形式の論文を収集した. Elsevier 社が公開している XML 形式の論文では,現在,2001 年と 2002 年に開発された XML DTD (Document Type Definitions) 5 が用いられている [2]. API で収集した論文を確認したところ,2003 年以前の論文には XML DTD 5 に基づくものとそれ以前の XML DTD に基づくものが存在していた. そこで,本研究では 2004 年以降の論文を対象とした.XML DTD 5 において,Nomenclature は ce:nomenclature 要素で表され,文書で使用される用語と定義のリストを含む [2]. 用語と定義はそれぞれ def-term 要素と def-dsc 要素で表される [2]. Nomenclature の中には略語(Abbreviation)が含まれることもあるが,本研究では変数のみを対象とする. 本稿では,数学的表現を表す $\mathrm{mml}$ : math 要素が 1 つのみ含まれる def-term 要素を変数記号,それと対応する def-dsc 要素を変数定義とみなす. 2004 年 1 月から 2022 年 3 月までに出版された,変数を含む Nomenclature が存在する論文を収集したところ,42,323 報を得た。 さらに各論文の Nomenclature から合計 549,840 個の変数記号-変数定義ペアを抽出した. ## 4 解析結果 ## 4.1 変数 論文に含まれる変数記号-変数定義ぺアの数の度数分布を図 2 に示す. 図ではぺアの数の最大値を 100 としたが,1つの論文に含まれる変数記号-変数定義ぺアの数の最大値は 168 , 最小値は 1 , 平均值は 13,中央値は 5 だった. 図 2 において,変数の数が 1, 2, 3 個の論文は $8,173,5,293,3,463$ 報であった. これらの論文のうち多くは,変数を $\mathrm{mml}$ : math 要素ではなく, ce:italic 要素(斜体表記)としていた。 そのため,図 2 に示す変数の数は実際に論文で用いられているよりも少ない. ce:italic 要素の変数は他の専門用語や略語との区別が難しいと判断したた The number of variables in one paper 図 2 論文に含まれる変数の数の度数分布 表 1 変数記号の頻度上位 30 個 め,今回の解析では対象としなかった。 ## 4.2 変数記号 変数記号は 143,722 種類であった. 変数記号の頻度の上位 30 個を表 1 にまとるる. 頻度が最大の変数記号は $\rho$ であり,その数は 7,752 報 $(5.4 \%)$ であった。 論文間で変数定義が異なるかを確認するため,上位 3 つの変数記号 $\rho, \mu, \alpha$ のそれぞれについて,その定義の主辞の頻度(Frequency; Freq.) を表 2 に示す.本稿では,主辞の抽出に ScispaCy [8] を用いた。 $\rho$ と $\mu$ ではそれぞれ $94.8 \%, 83.1 \%$ の定義の主辞が density, viscosity であった. 一方, $\alpha$ の定義の主辞は $19.3 \%$ が diffusivity, $11.1 \%$ が fraction, $10.5 \%$ が coefficient であった。表 1 に示した各変数について,最も頻度が高い定義が全定義に占める割合を計算したところ,最小值は $\phi$ の $17 \%$ ,最大値は $\rho$ の $86 \%$ であり,この割合が $50 \%$ 以上である変数は 9 個だった. 化学工学関連の論文では, $T_{\mathrm{R}}$ や $T^{\mathrm{e}}$ のように,変数記号に下付き文字や上付き文字などの修飾が付与されることが多い. 本稿では,このように修飾さ 表 2 変数記号に対する定義の主辞の頻度 表 3 主変数記号の頻度上位 30 個 れる変数記号を主変数記号と呼び,数学的表現を表す mml: $m$ ath 要素に含まれる最初の $\mathrm{mml}: \mathrm{mi}$ 要素を主変数記号として抽出した. 主変数記号の頻度の上位 30 個を表 3 に示す. 表 1 と表 3 を比べると, $C$ や $Q$ などの変数は単独で用いられることが少ないが修飾を付与して用いられる割合が他の変数よりも高いことがわかる. 主変数記号についても表 2 と同様に,3つの主変数記号 $T, C, m$ に対応する変数定義の主辞の頻度を表 4 に示す. 主変数記号も変数記号と同様に,最も頻度が高い定義が全体に占める割合が変数記号の種類によって 30 ポイント程度異なる. 以上の結果より,変数記号に対応する変数定義を正確に予測するには,変数記号のみに着目するのではなく, 文献のその他の情報を参照する必要があるといえる。 ## 4.3 変数定義 変数定義を構成する単語数の度数分布を図 3 に示す. 一部の変数定義には ce:math 要素で表される数学的表現も含まれていたが,今回は ce: math 要素 1 つを 1 単語として数えた. 図 3 より,単語数が 3 の変数定義が最も多い 111,732 個(20.3\%)であった. また,変数定義の単語数の最大値は 79 , 平均值は 5, 中央值は 4, であった. Lai らが作成した Symlink データセットでは,変数定義の長さは最大 47 で, 1-3 の長さの変数定義が大部分を占めていた [3]. 化表 4 主変数記号に対する定義の主辞の頻度 The number words in each variable definition 図 3 変数定義に含まれる単語数の度数分布 学工学分野の論文では, Lai らが用いた 5 つの分野よりも変数定義の長さが長く, 分野によって長さに差があることが明らかになった。 変数定義と変数定義の主辞の頻度の上位 30 個をそれぞれ表 5 と表 6 に示す. 表 5 に示すように,今回対象とした変数定義のいくつかには単位が含まれる. 変数定義に単位が含まれるために, temperature (K) と temperature, $\mathrm{K}$ のように,単位表記の仕方は異なるが意味が同じ変数定義を複数確認できる。これは数学や情報学の分野に無い工学分野に特有の傾向である. 表 6 において, number, rate, coefficient $の$ 順に主辞の頻度が高い. 表 5 を見ると, number は数の表記に加えて,レイノルズ数(Reynolds number)やプラントル数(Prandtl number)のような専門用語の表記に用いられるために頻度が高いことがわかる。 頻度が高い順に 3 つの変数定義と変数定義の主辞に対する主変数記号を表 7 と表 8 に示す. 表 7 より,変数記号に対する変数定義の場合と比べて,変数定義に対する変数記号の使い方は多くの論文で同じであることがわかる。一方で,表 8 が示すように,変数定義の主辞に対する変数記号の頻度はいずれも $30 \%$ 以下であった. したがって,変数定義から変数記号を予測する場合, 本稿で作成したデータ 表 5 変数定義の頻度上位 30 個 表 6 変数定義の主辞の頻度上位 30 個 セットをそのままが活用できる可能性がある. ## 5 おわりに 本研究では,変数定義抽出手法開発のために,化学工学関連論文に含まれる 549,840 個の変数記号と変数定義のペアを解析した. 解析の結果,変数記号に対応する変数定義を正しく抽出するには変数記号と変数定義以外の文献の情報が必要であることが示唆された. 今後は特徵量作成や言語モデルのチュー ニングに本データセットを活用し,正確に変数定義を抽出できる手法の開発に取り組む. ## 謝辞 本研究は JSPS 科研費 JP21K18849 の助成を受けたものです. ## 参考文献 [1] Shota Kato and Manabu Kano. Towards an automated physical model builder: Cstr case study. In Yoshiyuki Yamashita and Manabu Kano, editors, 14th International表 7 変数定義に対する主記号の頻度 Reynolds number mass flow rate (kg/s) Prandtl number Symbol Freq.|Symbol $\quad$ Freq.|Symbol Freq. 表 8 変数定義の主辞に対する主記号の頻度 number rate coefficient Symposium on Process Systems Engineering, Vol. 49 of Computer Aided Chemical Engineering, pp. 16691674. Elsevier, 2022. [2] Tag by Tag, The Elsevier DTD 5 Family of XML DTDs Version 1.9.5.9. https://www.elsevier.com/_data/ assets/pdf_file/0003/58872/ja5_tagbytag5_v1.9.5. pdf, 2016. (Accessed on 01/03/2023). [3] Viet Lai, Amir Pouran Ben Veyseh, Franck Dernoncourt, and Thien Nguyen. SemEval 2022 task 12: Symlink linking mathematical symbols to their descriptions. In Proceedings of the 16th International Workshop on Semantic Evaluation (SemEval-2022), pp. 1671-1678, Seattle, United States, July 2022. Association for Computational Linguistics. [4] Akiko Aizawa, Michael Kohlhase, and Iadh Ounis. NTCIR10 math pilot task overview. In Proceedings of the 10th NTCIR Conference, pp. 654-661, 2013. [5] Giovanni Yoko Kristianto, Goran Topić, and Akiko Aizawa. Extracting textual descriptions of mathematical expressions in scientific papers. In D-Lib Magazine, Vol. 20. Corporation for National Research Initiatives, 2014. [6] arxiv.org e-print archive. https://arxiv.org/. (Accessed on $01 / 13 / 2023$ ). [7] Elsevier developer portal. https://dev.elsevier.com/. (Accessed on 01/12/2023). [8] Mark Neumann, Daniel King, Iz Beltagy, and Waleed Ammar. ScispaCy: Fast and Robust Models for Biomedical Natural Language Processing. In Proceedings of the 18th BioNLP Workshop and Shared Task, pp. 319-327, Florence, Italy, August 2019. Association for Computational Linguistics.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q6-10.pdf
# 検索クエリにおける共起情報を活用した 非曖昧ドメイン固有語辞書の構築: ランドマークの事例 西川荘介 山城颯太 浅野広樹 佐野峻平 竬々野学 ヤフー株式会社 \{sonishik, soyamash, hiroasan, shsano, msassano\}@yahoo-corp.jp ## 概要 特定ドメインにおける曖昧性のない固有名詞群 (非曖昧ドメイン固有語)は固有表現抽出を中心に有用である. 本稿では非曖昧ドメイン固有語辞書構築の一例として, 地図上の一点を表す拠点名称以外の意味ではほぼ出現しない語 (非曖昧ランドマーク語) の辞書の自動構築に取り組む. 提案手法ではこの問題を,エンティティ名が非曖昧ランドマーク語であるか否かの二値分類タスクとして扱い, 検索クエリにおける共起語情報を考慮したモデルを提案する. 実験では提案モデルで 0.907 の F1 值を達成し, ルールベースやその他の機械学習モデルよりも高い性能を示した. さらに, 提案モデルを用いた辞書自動構築により, 固有表現抽出システムの改善を確認した. ## 1 はじめに 非曖昧ドメイン固有語とは特定のドメインを特徴づけるドメイン固有語 $[1,2,3]$ のうち, そのドメイン内のエンティティを指し示す以外の意図で使われることがほぼない語を指す. 非曖昧ドメイン固有語辞書は固有表現抽出器構築において, あるドメインで適合率重視の高速な抽出器を手早く実現したい場合 $[4,5,6]$ や,ツイートや検索クエリなどの対象語の文脈が乏しく曖昧性の解消が難しい場合 $[7,8]$ などに有用である. ${ }^{1)}$ しかし, 非曖昧ドメイン固有語は潜在的に大量に存在し, 常に新語が登場するため, 人手により辞書を拡張し続けることは困難である. 一方で非曖昧ドメイン固有語を含むエンティティリストは知識べースを始めとする言語資源から容易に手に入る. そこで本稿ではこれらの資源を活用し, 拠点名称  図 1 拠点名称ドメインでの非曖昧ドメイン固有語構築 ドメインを対象とした非曖昧ドメイン固有語(非曖昧ランドマーク語)辞書の自動拡張に取り組む。 本研究ではこの自動拡張を行うため, 知識べースなどから取得されたエンティティ名が非曖昧ランドマーク語か否かの二値分類タスクを考える(図 1). この分類設定では例えば実在する施設名だが一般語でも利用される語(“だるま”,“チューリップ”)や拠点名称かつ固有名詞だがランドマーク意図以外でも利用される語(“甲子園”)などが混在する中で, 真の非曖昧ランドマーク語(“紀尾井タワー”)を判定する必要がある. そのため, 既存の一般名詞か固有名詞かを区別する設定 $[9,10,11]$ やドメイン固有語を分類する設定 $[1,2]$ とは分類対象が異なり,非常に曖昧性が高い. また, 非曖昧ランドマーク語に関する知識は一部の著名なランドマークを除いて利用可能でない場合が多く[12], 分類の手がかりとして使用するのは難しい. そこで本研究では非曖昧ランドマー ク語が拠点名称ドメインに関連する語と検索クエリ上で共起しやすい点に着目し, 検索クエリの共起語特徴量を考慮した二値分類モデルの提案を行う.こ のモデルを用いて,エンティティ名リストから非曖昧ランドマーク語を自動的に抽出し, 辞書拡張を行うことを想定する. なお, 本手法は学習データとエンティティ名リストを目的ドメインのものに差し替えることで, 拠点名称以外のドメインにも適用可能だと考えられる. 関連研究については付録 A で述べる。 実験では人手で構築したデータセットを用いて複数のベースライン手法との比較を行い, 提案手法の有効性を確認する. さらに提案した二値分類器により実際に非曖昧ランドマーク語辞書の拡張を行い,固有表現抽出システムへの効果を調査する。 ## 2 提案手法 本章ではエンティティ名が非曖昧ランドマーク語か否かを判定する二值分類器の構築法を記す. ## 2.1 データセット構築 本節では, 非曖昧ランドマーク語か否かの二値分類データセットを構築した手順について説明する。我々はヤフーの固有表現抽出システムで補助的に用いられてる既存の非曖昧ランドマーク辞書や場所名リストから正例・負例のデータセットを構築した. 具体的には, 非曖昧ランドマーク辞書の語は正例データとし, 場所名リストの語は人目で非曖昧ランドマーク語ではないと判定された語を負例データとした.この負例データには県名・市名などの一般的な地名や, 地図上で一点に定まらないチェーン店名などが含まれる. また,“甲子園”, “だるま” などの必ずしもランドマーク意図があるとは限らない曖昧性の高い語を負例に含めるために, ウェブ検索クエリコーパスに対して形態素解析で前処理後, ある頻度以上出現する語を負例データに追加した。 ## 2.2 検索クエリの共起語情報の導入 本節ではより正確な分類を目指し, 検索クエリを活用した手法について説明する. 分類対象のエンティティ名にランドマーク語の手がかりとなるような部分語(“タワー”,“郵便局”)が含まれない場合,対象語の表記情報のみから非瞹昧ランドマーク語の判定を行うことは困難である. また, 多くの非曖昧ランドマーク語は Wikipediaのような自然文コーパスを始めとする大規模コーパス中には出現しないため [12], これらの文書の周辺文脈から曖昧性判定を行う のは難しい. ${ }^{2)}$ そこで本研究では検索クエリの活用に着目した.例えば曖昧性の高いランドマーク語である “甲子園” は検索クエリ上で “優勝”, “結果”, “球場”などのその曖昧性を解消しうる複数ドメインの語と共起する. 一方, 非瞹昧ランドマーク語は検索クエリ上で拠点名称ドメインの語とよく共起する傾向があり, 例えば“紀尾井タワー”は “アクセス”,“行き方”,“レストラン”とよく共起する. そこで提案手法では分類モデルとして BERT[14]を用い, (1) 事前学習時, (2) fine-tuning 時の二つの設定で検索クエリ上の共起語情報を導入する. (1) の設定では BERT の事前学習 (Masked LM[14])時のデータセットにウェブ検索クエリコーパスを用いる.これにより, 対象語についての検索クエリ上の共起語情報が暗黙的にモデルに取り込まれる. また,(2)の設定では対象語に対して, その語と共起するウェブ検索クエリ上の語を全て [SEP] トークンで連結することでクエリ共起語付きデータを生成する (例: “紀尾井タワー [SEP] アクセス $[\mathrm{SEP}]$ 行き方 [SEP] レストラン”).これにより, モデルは対象語とクエリ共起語を区別でき,一つの対象語に対して複数のクエリ共起語を付与できる。3)このデータセットを用いた fine-tuning により検索クエリの共起語情報が明示的にモデルに取り込まれる。 ## 3 実験 本章では構築したデータセットを用いて二値分類モデルの学習・評価を行う.さらに, 実際に非曖昧ランドマーク辞書の拡張を行い, 固有表現抽出システムへ導入した場合の影響を報告する。 ## 3.1 実験設定 2.1 節で構築したデータセットからランダムにサンプリングを行い, 正例 13,443 件, 負例 62,902 件を得た.これを層化分割し, 学習データ 56,345 件, 検証データ 10,000 件, テストデータ 10,000 件を得た. 評価指標としては Recall,Precision,F1 値を用いた. また,以下では構築した各モデルの設定について述べる。 2)仮に出現する場合も,その周辺文脈のうちどの範囲を分類の手がかりとするかは自明ではない. 仮に出現文書全体を手がかりとする場合は分類モデルの不要な複雑化を招く [13]. 3)ユーザーの入力した生の検索クエリ (例: “アクセス紀尾井タワー”,“紀尾井タワー”)を直接分類対象とする設定も考えられるが, (1) 対象語とクエリ共起語の区別,(2) 検索クエリの出現頻度の偏りの調整など,いくつかの課題を解消する必要があり煩雑となる。 表 1 各モデルの二值分類タスクにおける評価結果 BERT ベースラインモデルとして日本語 Wikipedia で事前学習された BERT(以下東北大 BERT) を用いる.4)また, ウェブ検索クエリコーパスで事前学習された BERT(以下クエリ BERT)としてはヤフー社内製のものを用いる.5)両モデルともに最終層の [CLS] トークンに対応する表現を線形分類器に入力することで分類する. 次に, 2.2 節で述べたクエリ共起語付きデータの構築法について説明する. 直近のヤフー検索 ${ }^{6}$ のクエリから 300 万件標本抽出し, それらをスペース区切りで分割し, 各語に対する異なる共起語を最大 10 件までランダムに収集する。 ${ }^{7)}$ この共起語辞書を用いて分類対象の語に対応する共起語を取得し,[SEP] トークンで連結させることで, クエリ共起語付きデータセットを構築する. 実験では(1)対象語のみの場合(2)得られた共起語を全て(最大 10 件)付与した場合の 2 つの設定で提案モデルを比較した.8) fastText 深層学習を活用して文書分類を解く強力なモデルとして fastText 分散表現の平均ベクトルを入力として線形層で分類する手法 [15] が知られており, 本研究のベースラインとして採用した. このモデルでも BERT での処理 3.1 と同様に学習データに共起語を付与した設定を検証する. この際, 対象語と共起語は単にスペース区切りで連結し, 前処理として MeCab[16] による単語分割を行った. 頻度フィルタ非曖昧ランドマーク語は一般名詞群やランドマーク以外の意図を持つ語と比較し, ウェブ検索クエリ上での出現頻度が低いことが経験的にわかっている. そこでウェブ検索クエリコーパスでの頻度が一定以下である語を非曖昧ランドマー 4) huggingface.co/cl-tohoku/bert-base-japanese-v2 5)検索クエリは短いため,Masked LM のみで事前学習している. techblog.yahoo.co.jp/entry/2021122030233811/ 6) https://search.yahoo.co.jp/ 7)出現頻度が高い共起語を優先する方法も考えられるが,ランダムに収集する場合とほぼ性能が変わらないことが予備実験で確認されている。 8)なお, 入力共起語数の増加に伴い, 分類性能が向上することが実験で確認されている (付録 B). 図 2 データサイズの影響. 横軸は対数スケール. クとするルールを作成した. なお,この閾値としては学習データで最も $\mathrm{F} 1$ 値が高くなる値を採用した. 接尾辞一致非曖昧ランドマーク語となり得る語には “○○病院”, “○○郵便局” など特定の接尾辞を持つ語が多い. そこで事前に既存の非曖昧ランドマーク辞書語に頻出する接尾辞を収集し,その接尾辞リストに対象語の接尾辞がマッチした場合に非曖昧ランドマークとするルールを作成した. なお, 付録 Cにその他の詳細設定を記載した。 ## 3.2 実験結果 表 1 に実験結果を示す. 結果から,ルールベースの手法と比較すると機械学習モデルの特に BERT モデルの性能が高いことが分かる. また, 入力共起語を用いない BERT モデルでは東北大 BERT より,クエリ BERT の性能が高い. また, 両 BERT モデルで入力共起語を付加した場合, さらに性能が向上しており, $\left.{ }^{9}\right)$特にクエリ BERT + 入力共起語モデルでは 0.907 の F1 值を達成している. これらの結果は, ウェブ検索クエリによる共起語情報を事前学習時,fine-tuning 時のそれぞれで導入する有効性を示している。 ## 3.3 データサイズの影響 非曖昧ランドマーク判定に用いる二値分類モデルを構築する際, 今回のように必ずしも数万件単位の学習データが用意できるとは限らない. 従って, 本節では学習データ数ごとの各モデルの性能を比較することで, 少量の初期データしか手に入らない実践的な設定での提案手法の効果を確認する (図 2). その結果, $1,000 \sim 5,000$ 程度のデータ数10) でも各 BERT モデルで $\mathrm{F} 1$ 値 0.8 前後のスコアが確認されたが, この 9) fastText モデルでは大力共起語の付加により性能が低下した.このモデルでは対象語と付加共起語の区別がつかず,付加共起語がノイズとして働いてしまったためだと考えられる。 10) 正例 (非曖昧ランドマーク語) 数は 180 9 900 程度である。 範囲のデータ数ではクエリ BERT より東北大 BERT に基づくモデルの性能が高いことが確認された.これはクエリ BERT では一般的な語の知識が欠けており, その獲得のために一定の学習データが必要であることが理由として考えられる. また,クエリの共起情報を保持していない東北大 BERT では, データ数 3, 000 ほどから fine-tuning 時にクエリ共起語を付加する効果が現れ始めた. 以上から学習データが少ない場合は東北大 BERT+入力共起語モデルを活用することで効率良く辞書を拡張できることがわかる。 ## 3.4 固有表現抽出でのオフライン評価 本節では構築した二値分類モデルを用いて非曖昧ランドマーク辞書の拡張を行い, 非曖昧ランドマー ク辞書を補助的に利用する固有表現抽出システム ${ }^{11)}$ に実際に導入した際の効果を報告する. 分類対象のエンティティ名リストは拠点名称とそのメタ情報を含む拠点名称データベースから取得する.このデー タベースでは図 1 の例のように, 曖昧なランドマー ク名が混在している. このデータベースの拠点名称群に対して前処理 ${ }^{12)} を$ 行い,3.1 節で構築したクエリ BERT モデルによる非曖昧ランドマーク語の抽出を行うことで, 既存の非曖昧ランドマーク辞書を $10.9 \%$ 拡張した. その結果, 直近一週間のウェブ検索クエリに対するランドマーク認識率は $7.5 \%$ 増加した. この増加分を人手で評価した結果, $98.7 \%$ が改善, $1.3 \%$ が改悪と判断された.この結果から, 提案手法の分類モデルによる非曖昧ランドマーク辞書拡張が固有表現抽出システムに有用であることが確認された. また改悪例ではチェーン店を誤認識している例が散見されたため,この改善が今後の課題として考えられる。 ## 4 定性分析 本章では 3.1 節のテストデータを用いて定性分析を行う.まず,ルールベースと機械学習ベースのモデル群の差分について述べる. 頻度フィルタによる分類では「検索されやすい高頻度ランドマーク語」を誤って負例と判定する場合があった. また, 接尾辞一致では “大学病院” などの「拠点名称になり得る接尾辞を持つ一般的な語」も正例判定してしまう場合  があった.これらの語について, 提案手法で構築した機械学習モデルは正確に分類できており, 単なる頻度情報や対象語の表記情報のみに依存しない分類が可能であることが確認された. 次に, 検索クエリによる事前学習の効果を確かめるため, 東北大 BERT とクエリ BERTを比較する. その結果,“大社” “亭”などの「低頻度だがランドマークに用いられやすいサブワードを含む語」をクエリ BERT で正例判定可能となった例が確認された. さらにクエリ BERT では “甲子園”などの「様々な意図で用いられる曖昧語」を負例判定可能となった例がいくつか確認された.これらの結果はクエリ事前学習により, 検索クエリ上における共起語情報が埋め込まれたことが原因と考えられる。 最後に, 入力データに検索クエリを付加する効果を確かめるため,クエリ BERT とクエリ BERT+入力共起語を比較する.クエリ BERT 単体では例えば“ カケーメセレゼ”13)のような「対象語の表記情報にランドマークに関連するサブワードが一切なく, かつウェブ検索クエリ上で低頻度な語」に対して誤分類する例が散見された. 一方で, 入力共起語を用いたモデルではこれらの語において“BBQ”,“食事”,“道の駅” などの拠点名称を想像できる入力共起語により正例判定が可能となった例や“ツイッター”,“本名”,“アルバイト”など様々なドメインの入力共起語により負例判定が可能となった例が確認された.これらの結果はウェブ検索クエリ事前学習時に共起情報がモデルに十分に埋め込まれなかった語に対して, 明示的に入力データに共起語を付加することで,fine-tuning 時にモデルが共起情報を考慮できるようになったためだと考えられる。 ## 5 おわりに 本稿ではエンティティ名リストからの非曖昧ランドマーク語自動抽出を目指し, 検索クエリの共起語情報を考慮した分類モデルを提案した. 実験では提案手法の有効性が確認され, さらに実際に提案モデルにより既存の非曖昧ランドマーク辞書を拡張することで, 固有表現抽出システムの改善を実現した. 本研究では拠点名称ドメインを対象としたが,レシピやショッピング, 医療などの他の異なるドメインにおいても非曖昧ドメイン固有語辞書の需要がある. 従って本研究のアイデアを他のドメインに適用することが今後の発展として考えられる。 13)説明のために作成した架空のランドマーク名である. ## 参考文献 [1] Su Nam Kim and Lawrence Cavedon. Classifying domain-specific terms using a dictionary. In Proceedings of the Australasian Language Technology Association Workshop 2011, pp. 5765, December 2011. [2] Lucas Hilgert, Lucelene Lopes, Artur Freitas, Renata Vieira, Denise Hogetop, and Aline Vanin. Building domain specific bilingual dictionaries. In Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC'14), pp. 2772-2777, May 2014. [3] Su Nam Kim, Timothy Baldwin, and Min-Yen Kan. Extracting domain-specific words - a statistical approach. In Proceedings of the Australasian Language Technology Association Workshop 2009, pp. 94-98, December 2009. [4] Alexandra Pomares Quimbaya, Alejandro Sierra Múnera, Rafael Andrés González Rivera, Julián Camilo Daza Rodríguez, Oscar Mauricio Muñoz Velandia, Angel Alberto Garcia Peña, and Cyril Labbé. Named entity recognition over electronic health records through a combined dictionary-based approach. Procedia Computer Science, Vol. 100, pp. 55-61, 2016. [5] Reiko Hamada, Ichiro Ide, Shuichi Sakai, and Hidehiko Tanaka. Structural analysis of cooking preparation steps in japanese. In Proceedings of the Fifth International Workshop on on Information Retrieval with Asian Languages, IRAL '00, p. 157-164, 2000. [6] Shaodian Zhang and Noémie Elhadad. Unsupervised biomedical named entity recognition: Experiments with clinical and biological texts. Journal of Biomedical Informatics, Vol. 46, No. 6, pp. 1088-1098, 2013. Special Section: Social Media Environments. [7] Alan Ritter, Sam Clark, Mausam, and Oren Etzioni. Named entity recognition in tweets: An experimental study. In Proceedings of the 2011 Conference on Empirical Methods in Natural Language Processing, pp. 1524-1534, July 2011. [8] Woojin Paik, Elizabeth Liddy, Edmund Yu, and Mary McKenna. Categorization and standardizing proper nouns for efficient information retrieval. In Acquisition of Lexical Knowledge from Text, 1993. [9] Massimiliano Ciaramita and Mark Johnson. Supersense tagging of unknown nouns in WordNet. In Proceedings of the 2003 Conference on Empirical Methods in Natural Language Processing, pp. 168-175, 2003 [10] 村脇有吾, 黒橋禎夫. テキストから自動獲得した名詞の分類.言語処理学会年次大会発表論文集, pp. 716-719, Mar 2010. [11] Judita Preiss and Mark Stevenson. Distinguishing common and proper nouns. In Second Joint Conference on Lexical and Computational Semantics (*SEM), Volume 1: Proceedings of the Main Conference and the Shared Task: Semantic Textual Similarity, pp. 80-84, June 2013. [12]松田耕史, 佐々木彬, 岡崎直観, 乾健太郎. 場所参照表現タグ付きコーパスの構築と評価. 情報処理学会研究報告. 自然言語処理研究会報告, Vol. 2015, No. 12, pp. 1-10, 012015. [13] Iz Beltagy, Matthew E. Peters, and Arman Cohan. Longformer: The long-document transformer. arXiv:2004.05150, 2020. [14] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, June 2019 [15] Armand Joulin, Edouard Grave, Piotr Bojanowski, and Tomas Mikolov. Bag of tricks for efficient text classification. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 2, Short Papers, pp. 427-431, April 2017. [16] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to Japanese morphological analysis. In Proceedings of the $\mathbf{2 0 0 4}$ Conference on Empirical Methods in Natural Language Processing, pp. 230-237, July 2004. [17] Michele Bevilacqua, Tommaso Pasini, Alessandro Raganato, and Roberto Navigli. Recent trends in word sense disambiguation: A survey. In Zhi-Hua Zhou, editor, Proceedings of the Thirtieth International Joint Conference on Artificial Intelligence, IJCAI-21, pp. 4330-4338, 8 2021. Survey Track. [18] David Nadeau and Satoshi Sekine. A survey of named entity recognition and classification. Lingvisticae Investigationes, Vol. 30, No. 1, pp. 3-26, 2007. [19] Qing Liu, Hongyu Lin, Xinyan Xiao, Xianpei Han, Le Sun, and Hua Wu. Fine-grained entity typing via label reasoning. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 4611-4622, November 2021. [20] Davi Reis, Felipe Goldstein, and Frederico Quintao. Extracting unambiguous keywords from microposts using web and query logs data. In Making sense of Microposts (at WWW 2012), 2012. [21] Aixin Sun. Short text classification using very few words. In Proceedings of the 35th International ACM SIGIR Conference on Research and Development in Information Retrieval, SIGIR '12, p. 1145-1146, 2012. [22] Andrei Z. Broder, Marcus Fontoura, Evgeniy Gabrilovich, Amruta Joshi, Vanja Josifovski, and Tong Zhang. Robust classification of rare queries using web knowledge. In Proceedings of the 30th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval, SIGIR '07, p. 231-238, 2007. [23] Xuan-Hieu Phan, Le-Minh Nguyen, and Susumu Horiguchi. Learning to classify short and sparse text and web with hidden topics from large-scale data collections. In Proceedings of the 17th International Conference on World Wide Web, WWW '08, p. 91-100, 2008. [24] Zheng Yu, Haixun Wang, Xuemin Lin, and Min Wang. Understanding short texts through semantic enrichment and hashing. IEEE Transactions on Knowledge and Data Engineering, Vol. 28, No. 2, pp. 566-579, 2016. [25] Chi Sun, Luyao Huang, and Xipeng Qiu. Utilizing BERT for aspect-based sentiment analysis via constructing auxiliary sentence. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 380-385, June 2019 [26] U. Lee, Z. Liu, and J. Cho. Automatic identification of user goals in web search. In WWW '05: Proceedings of the 14th International World Wide Web Conference, pp. 391-400. ACM Press, 2005. [27] Dou Shen, Jian-Tao Sun, Qiang Yang, and Zheng Chen. Building bridges for web query classification. In Proceedings of the 29th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval, SIGIR '06, p. 131-138, 2006. [28]佐々木彬, 五十嵐祐貴, 渡邊陽太郎, 乾健太郎. 場所参照表現のグラウンディングに向けて. 言語処理学会年次大会発表論文集, pp. 177-180, Mar 2014. [29] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In 7th International Conference on Learning Representations, ICLR 2019, New Orleans, LA, USA, May 6-9, 2019, 2019 . ## A 関連研究 本研究で行う非曖昧な語の抽出は,語義曖昧性解消 [17] や固有表現抽出 [18],Entity Typing[19] のように与えられた文脈に基づき対象語の曖昧性を解消するのではなく, 元来語義曖昧性のない(低い)語を選別する. 最も類似した研究として,Reis らの研究がある [20]. Reis らは英語の SNS テキストを対象とする非曖昧キーワード抽出器の構築に取り組んだ. 彼らはウェブクエリやウェブコーパスから得られる逆文書頻度を始めとした様々な統計的特性を用いたヒューリスティックなフィルタリングルールと, そのルールによる分類結果を用いて学習した SVM 分類器を提案した. 本研究では日本語の拠点名称ドメイン固有語の抽出に対象を絞り, 人手による学習データとウェブ検索クエリを用いた比較的シンプルな設定で汎用言語モデルを学習することで, 実用的な性能を持つ二値分類モデルを構築する. また, 抽出された非曖昧ランドマーク語を固有表現抽出システムに取り込み,システムの性能改善を試みる。 本研究と関連する名詞辞書構築の研究としては, 特定 ドメインを特徴づけるドメイン固有語辞書 $[1,2,3]$ の構築を目指した研究や一般名詞と固有名詞を分類する研究 $[9,10,11]$ などがある. これらの研究と比較すると主に (1)“非曖昧” ドメイン固有語か否かの分類を行う点,(2) 分類の素性にウェブ検索クエリを活用する点で本研究は異なる. (1) について例えば Kim らの研究では石油ドメイン固有語として“gulf”を紹介しているが,これは石油に関係ない文脈で “湾”として登場したり,一般的に“(意見の)隔たり” という意味でも利用されるため, 本研究では収集対象外の語となる. さらに複数のドメイン意図を持つ固有名詞 (“甲子園”) が存在するため, 単に固有名詞を収集するわけでもない.このように名詞辞書構築という観点で特定ドメインの意図以外でほぼ登場しない非曖昧ドメイン固有語を自動収集する方向性は, 我々の知る限り着目されてこなかった. また,(2) について例えば村脇らは対象語のウェブコーパス中の振る舞いを素性として用いることで固有名詞群の分類を行っている.しかし,一部の有名なランドマークを除いて多くの非曖昧ランドマーク語は自然文コーパスに登場しないため [12], 本研究では分類の素性にウェブ検索クエリを活用する。 また, 本研究は比較的短い文書の分類を行う短文書分類タスクと関連がある.このタスクの有力な解決手段として特徴量拡張による手法が提案されており, 検索エンジンの結果 $[21,22]$ や大規模知識ベース $[23,24]$ などの何らかの外部言語資源から得た特徴量を追加で考慮することで分類性能を向上させている. 本研究では非曖昧ドメイン固有語の抽出を短文書分類タスクとして扱い, 汎用言語モデル BERT の Masked LM[14] の事前学習データや fine-tuning 時の付加データ [25] としてウェブ検索クエリのテキスト情報を直接活用することで分類性能の向上を試みる. また,ユーザーの入力した検索クエリ自体に対してカテゴリ分類もしくは意図推定を行う研究がいくつか報告されている [26, 27]. 本研究の分類対象はあくまでエンティティ名であり, 分類性能を向上させるために検索クエリにおける共起語情報を補助的に用いる。 また, 文書中から場所参照表現を抽出し位置情報と紐付ける研究がいくつか行われている $[12,28]$. 本研究は固有表現抽出タスクではなくエンティティ名を分類するタスクである. 本研究の成果により構築された非曖昧ランドマーク語辞書を活用することで, ランドマーク意図を持つ 図 3 入力共起語数の影響 語をどのような文脈でも高い適合率で固有表現抽出することが可能となる. ## B 入力共起語数の影響 本節では入力共起語数の影響を調査するため, 入力共起語数ごとの性能推移を BERT モデルで観測した(図 3). その結果, 両 BERT モデルで入力共起数の増加に伴い, 性能が向上することが確認された. また, 性能の向上幅は東北大 BERT の方が大きく, 入力共起語 10 個を利用した場合はクエリ BERT の性能とほぼ同等の性能を達成していることが確認された. この結果は, ウェブ検索クエリ事前学習を行わなくても, 共起語を fine-tuning 時に付加することで検索クエリの共起情報を BERT に導入できることを示している. ## C 実験設定詳細 本節では本文から省略した実験設定の詳細について説明する. BERT モデルの学習では学習率を $2 \times 10^{-5}$, バッチサイズを 64 にし, パラメータ更新の最適化アルゴリズムは AdamW[29] を用いた. また, 検証データにおける F1 值が改善されなくなるまで学習を行った. また,BERT モデルの実装には transformer ${ }^{14)}$, fastText 文書分類モデルの実装には fastText ${ }^{15)}$ を用いた. 機械学習べースのモデルでは異なるシード値で 3 回実験を行い, その結果の平均を示した. 14) https://huggingface.co/ 15) https://fasttext.cc/
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q6-11.pdf
# 逆翻訳を利用したデータ拡張による文間の修辞構造解析の改善 前川在 1 小林 尚輝 1 平尾 努 2 上垣外 英剛 1 奥村 学 1 1 東京工業大学 ${ }^{2} \mathrm{NTT}$ コミュニケーション科学基礎研究所 \{maekawa, kobayasi, kamigaito, oku\}@lr.pi.titech.ac.jp tsutomu.hirao.kp@hco.ntt.co.jp ## 概要 十分な量の学習データを確保できないことによ り,文間の修辞構造解析の性能は文内と比較して大幅に低く,下流タスクにとって大きな問題となっている。これを解決するため,本稿では,学習データを逆翻訳することで得た擬似正解データを用いて解析器を事前学習し, 正解データを用いて追加学習する手法を提案する. シフト還元法による上向き解析器, スパン分割による下向き解析器に提案法を適用し,標準的ベンチマークデータセットである RST-DT,Instr-DT を用いて評価した結果,疑似正解データを用いることで Standard-ParsEval のスコアが約 1-2 ポイント向上することを確認した. ## 1 はじめに 修辞構造理論 [1] では, Elementary Discourse Unit (EDU) と呼ばれる,節に相当する単位を葉ノードとする構成素木として文書の構造を表す. 木は完全 2 分木として表され,中間ノードには 1 つ以上の EDU からなるテキストスパンの役割である核 (Nucleus: N) あるいは衛星 (Satellite: S) と,S から $\mathrm{N} への$ 修飾関係を表す修辞関係ラベルが与えられる. 基本的に核と衛星は対 (S-N,N-S のどちらか) となるが,並列構造を表す場合に例外的に核と核が対 (N-N) となる. 図 1 の左の木は 3 文,6つの EDU からなる文書の構造を表した修辞構造木である. 通常, 修辞構造解析は与えられた文書を,EDUを葉とした修辞構造木へ変換するが,修辞構造木を要約や翻訳などの下流タスクで利用する場合には, 図 1 の右の木のように文を葉とした木が用いられることが多く $[2,3]$,文を葉とした解析の性能向上が望まれる. 一般的に修辞構造解析は隣接するテキストスパンを結合するか否か,あるいはどこで分割するかという一種の分類問題を解くことで実現される. よって,学習データの個々の事例は,テキストスパンと 図 1 RST-DT [4] における修辞構造木の例 (WSJ_1100): $s_{1}$ :[ $e_{1}$ :(Westinghouse Electric Corp. said), $e_{2}$ :(it will buy Shaw-Walker Co.)], $s_{2}$ :[ $e_{3}$ :(Terms weren't disclosed.)], $s_{3}$ :[ $e_{4}$ :(Shaw-Walker,), $e_{5}$ :(based in Muskegon, Mich.,), $e_{6}$ :(makes metal files and desks, and seating and office systems furniture.)]図中 $e$ は EDU, $s$ は文を表す. その正解/不正解の分割位置,結合される/されないテキストスパンの対のように,テキストスパンを基本単位とする。文を葉とした修辞構造木を構築する解析器を学習するには,EDUを葉とした木を,文を葉とした木へと変換する必要がある。すると,図 1 の右の木からも明らかなように 1 つの修辞構造木から得られるテキストスパンの数が大きく減るため学習データも大きく減ることとなる。修辞構造解析器の学習, 評価に標準的に利用される最大規模のデー タセットである RST Discourse Treebank (RST-DT) [4] ですら 385 文書しかなく, 文間の修辞構造解析のための学習データ不足はより深刻な問題となる. この問題を解決するため,本稿では,正解データの文書に対し逆翻訳を適用することで得た文書を擬似正解データとして活用する手法を提案する。逆翻訳で大量の擬似正解データを作成し, 解析器の事前学習に用いることで汎化性能の向上を図る. 現在の最高性能の解析器である Kobayashi ら [5] の上向き,下向き解析器に基づき,RST-DT,Instr-DT [6] の二つの異なる領域のデータセットを用いて提案法を評価したところ,擬似正解データを用いることで, RST-DT の場合には Standard-ParsEval で約 1 ポイント,Instr-DT の場合には約 2 ポイント性能が向上することを確認した。 図 2 提案手法の概要 ## 2 関連研究 本来の修辞構造解析は EDU を葉とした木を構築する.EDU は文よりも小さな単位であるため文書内の EDU の数は文の数よりも多く,RST-DT では 1 文書あたりの平均 EDU 数は約 57 である. いわゆる構文解析と比較すると木のサイズが非常に大きい。よって,解析中のエラーの伝搬が問題となる.これを抑制するため, 文内の修辞構造と文間の修辞構造を独立に解析する手法が提案されている [7, 8, 9, 10]. Feng ら [7] は, CRFに基づく上向き解析法を提案し, Joty ら $[8,9]$ は Dynamic CRF に基づく上向き解析法を提案している. Lin ら [10] は, Feng らの手法に対しLSTM を導入することで人手の規則による特徴抽出を廃した。また,Kobayashi ら [11] は,EDU,文,段落という 3 つの粒度の単位を葉とする修辞構造を解析する手法を提案した。 修辞構造解析の最大規模のデータセットである RST-DT ですら文書数は 385 しかなく,十分な量があるとは言えない。よって,学習データとテストデータとの間で語彙が違う場合には解析器の性能が劣化する. これを解決するため擬似正解データを利用する手法が盛んに研究されている. Braud ら [12] はスペイン語,ドイツ語の修辞構造アノテーション済みデータセットを英語へと翻訳することで擬似正解データを作成した. しかし,英語以外のデータセットも十分な量があるとは言えず,大量の擬似正解データを用意することはできない。一方, Huber ら [13] は, distant supervision を用いてラベルなしデータから大規模な擬似正解データ MEGA-DT を作成した。そして,Guz ら [14] は,MEGA-DTを用いて解析器を事前学習, 正解データを用いて追加学習することで修辞構造解析の性能が向上することを示した.ただし, Huber らの方法は,大規模な擬似正解データを作成可能であるが,修辞関係ラベルを与えることができない. 一方, Kobayashi ら [15]は,複数の解析器の間で結果が一致する合意部分木を擬似正解データとする手法を提案した. MEGA-DT と同様,大量の擬似正解データを作成可能であるが,擬似正解データの信頼性を担保するためには解析器の性能がある程度高くなければならない。しかし,後述するように現在のトップレベルの解析器でも文間の修辞構造解析の性能は非常に低く解析結果の信頼性が低い.よって,複数の解析器の間で合意がとりにくく,それがとれたとしても非常に小さな部分木となってしまい擬似正解データとして役に立たない可能性がある。また,ラベルなしデータを用いる手法は全般に,正解データと同じ領域のラベルなしデータを利用できるとは限らないという限界もある。 ## 3 提案手法 文間の修辞構造解析を改善するには,当然文間の修辞構造のアノテーション済みデータセットが必要となる。人手作成データをこれ以上集めることが困難であることを勘案すれば従来研究と同様に擬似正解データに頼ることが妥当であろう。ここで,我々が欲するデータが文を単位としていることに注目すると,逆翻訳を用いることにより,文書の領域にとらわれることなく語彙や構文の多様性を高めた擬似正解データを作成できる。そして,これを用いて解析器を事前学習することで頑健性の向上を図る (図 2 参照). ## 3.1 逆翻訳を用いた擬似正解データ作成 逆翻訳を単純に適用すると元のデータセットと同じサイズの擬似正解データしか得ることができない。これを解決するため,本稿では,以下のように,原文書から逆翻訳対象とする文をサンプリングし, 逆翻訳時に累積確率を基にした top- $p$ サンプリング [16]を利用して原文に対して複数の逆翻訳結果を用意する。 1. 文書 $d$ から, $n \%$ の文を選択する。具体的には, $s_{d}$ を文書 $d$ に含まれる文の数として, $\operatorname{int}\left(s_{d} \times n / 100\right)$ 文をランダムに選択する. 2. 1 で選択した文を逆翻訳する。逆翻訳時には top- $p$ サンプリングを用いて $k$ 個の翻訳を獲得し,その中から 1 つの翻訳をランダムに選択する. 1,2 を $M$ 回繰り返すことで正解データの $M$ 倍の擬似正解データを獲得する。なお,1 で選択されなかった文には逆翻訳を適用せずそのまま擬似正解データとして用いることに注意されたい. ## 3.2 修辞構造解析器 修辞構造解析器としては,現時点で世界最高性能の, Kobayashi ら [5] で用いられた, 上向き, 下向きのものを利用する. 両方の手法ともテキストスパン (文の系列) に対するべクトル表現は事前学習済み言語モデルを経て得たスパンの左端の単語ベクトルと右端の単語ベクトルの平均ベクトルで表す. 本稿では文献 [5] に従い事前学習済み言語モデルとして DeBERTa [17] を採用する。 ## 上向き解析 Guz ら [18] のシフト還元法による上向き解析法を単純化した手法である. スタック $S$ に解析済み部分木を格納し,キュー $Q$ に未解析の文を格納し,以下のシフトと還元操作を繰り返すことで下から修辞構造木を構築する。 シフト $Q$ の先頭の文を取り出し, $S$ に積む, 還元 $S$ の上 2 つの部分木をとりだし併合した後,再度 $S$ に積む。 なお,還元操作の後,左右の部分木の核性 (N-S,S$\mathrm{N}, \mathrm{N}-\mathrm{N})$ と修辞関係ラベルの推定を独立に行う. それぞれの推定は以下の順伝播型ニューラルネットワーク $\mathrm{FFN}_{\mathrm{act}}, \mathrm{FFN}_{\mathrm{nuc}} , \mathrm{FFN}_{\mathrm{rel}}$ を用いて行う. $ S *=\operatorname{FFN} *\left(\operatorname{Concat}\left(\mathbf{u}_{\mathrm{s}_{0}}, \mathbf{u}_{\mathrm{s}_{1}}, \mathbf{u}_{\mathrm{q}_{0}}\right)\right) $ ここで, $\mathbf{u}_{\mathrm{s}_{0}}, \mathbf{u}_{\mathrm{s}_{1}}$ はそれぞれ $S$ の上 2 つの部分木が支配するスパンのベクトル表現, $\mathbf{u}_{\mathrm{q}_{0}}$ は $Q$ の先頭の文のベクトル表現である. ## 下向き解析 Kobayashi ら [11] の再帰的スパン分割による下向き解析法を単純化した手法である. 文書全体を表すスパンを貪欲に 2 分割することで下向きに修辞構造木を構築する。 $i$ 番目から $j$ 番目の文からなるスパンを $k$ 番目の文で分割するスコアは以下の式で定義 表 12 つのデータセットの統計データ される. $ s_{\text {split }}(i, j, k)=\mathbf{h}_{i: k} \mathbf{W} \mathbf{h}_{k+1: j}+\mathbf{v}_{\text {left }} \mathbf{h}_{i: k}+\mathbf{v}_{\text {right }} \mathbf{h}_{k+1: j} $ ここで, $\mathbf{W}$ は重み行列, $\mathbf{v}_{\text {left }}, \mathbf{v}_{\text {right }}$ は重みべクトル, $\mathbf{h}_{i: k}, \mathbf{h}_{k+1: j}$ は以下の式で定義される. $ \begin{aligned} \mathbf{h}_{i: k} & =\mathrm{FFN}_{\text {left }}\left(\mathbf{u}_{i: k}\right), \\ \mathbf{h}_{k+1: j} & =\mathrm{FFN}_{\text {right }}\left(\mathbf{u}_{k+1: j}\right) \end{aligned} $ なお, $\mathbf{u}$ はスパンのベクトル表現である。そして,以下の式でスパンの分割を決定する。 $ \hat{k}=\underset{i \leq k<j}{\operatorname{argmax}} s_{\text {split }}(i, j, k) $ 上向き解析と同様,核性と修辞ラベル推定は独立に,上のスパン分割と同様に行う. ## 4 実験 ## 4.1 実験設定 評価実験には,標準的ベンチマークデータセットである RST-DT [4] と Instr-DT [6] を用いた. RST-DT は新聞記事 (Wall Street Journal) に対して修辞構造のアノテーションを与えたものであり,学習データ 347 文書,テストデータ 38 文書からなる. 開発デー タは与えられていないので Heilman ら [19] に従い,学習データから 40 文書を選択した. Instr-DT は家の修理に関するマニュアルに対してアノテーションを与えたものであり,176文書ある.RST-DT とは異なり,テストデータ,開発データの分割は与えられていない. 本稿では Kobayashi ら [5] の設定に従った. それぞれのデータセットの統計データを表 1 に示す. 文区切りについては文献 [5] に従った。評価には文献 [20] に従い Standard-ParsEval を用いた。木構造のみを評価する Span,核性,修辞関係ラベルを含めて評価する Nuc., Rel., すべてのラベルを含めて評価する Full の計 4 通りの指標を用いた。 なお,各文書に対して $n=25,50,75,100$ として文をランダムに選択し,各文に対し $p=0.95$ の top- $p$ サンプリングで 4 件の逆翻訳を作成した. そ 表 2 Standard-ParsEval を用いた評価結果. Baseline は正解データのみを用いた解析器. して, $M=10$ として原文書の文数の 10 倍の擬似正解データを得た. 翻訳器としては,Marian-NMT [21]を用いて 1.5 億文のパラレルコーパス1)で学習された OPUS-MT [22] を用いた。また,逆翻訳を行うためには,原言語を一旦任意の目標言語へと翻訳しなければならない.目標言語として,スペイン語,イタリア語,ドイツ語,フランス語,ベトナム語を用い,RST-DT の学習データを逆翻訳した文と逆翻訳前の文との間の BLEU 値 [23] を計算したところ,スペイン語が 42.7 と最も高かったため, 以降の実験の逆翻訳にはスペイン語を利用した. なお, Instr-DT の学習データに対して同様に BLEU 值を計算したところ 40.3 であった。 ## 4.2 結果と考察 表 2 に評価結果を示す. スコアは異なるシードを用いた 5 回の試行の平均值であり,カッコ内はその標準偏差を表す。表より,RST-DT のスコアは全般に Instr-DT よりも低い. RST-DT は,1 文書あたりの文の数が多く, 正解の修辞構造木の多様性も高い. よって,学習がより困難であったと考える。 逆翻訳による擬似正解データを用いることで, RST-DT において Span で 0.3, Nuc., Rel. で 0.9, Full で 1.3 ポイントの性能向上が得られている. 上向きと下向きを比較するとやや下向きが良く, 逆翻訳対象として選択する文のパラメタ $n$ については,上向きでは $n=50$, 下向きでは $n=100$ が良い. 一方,Instr-DT においては,すべての指標において RST-DT よりも大きく性能向上しており, その値は約 2 ポイントである. 特に上向き解析ではすべての性能向上が 2 ポイントを上回っている. これは, Instr-DT が RST-DT よりもデータサイズが小さいこ  とから,疑似正解データがより効果を発揮したものと考える。垧きと下向きを比較すると明らかに上向きが良い。逆翻訳のパラメタ $n$ については $n=50$ が良い. 両方のデータセットで最適な $n$ は異なるものの擬似正解データを利用する効果は明らかである. 解析器の性能を左右するスパンのベクトル表現が単語のベクトル表現に依存することに注意すると,学習データの語彙とテストデータの語彙に乘離がないことが望ましい,そこで,テストデータに対する学習データ, 擬似正解データの語彙の被覆率を調べたところ,RST-DTでは,学習データのみで $76.2 \%$ ,擬似正解データを加えると $80.9 \%$ ,Instr-DT では,学習データのみで $83.2 \%$ ,擬似正解データを加えると $89.6 \%$ であった. 両方ともに語彙の被覆率が向上しており,これが解析性能の向上に寄与したと考える。また,逆翻訳の BLEU にほぼ差がないにもかかわらず,Instr-DT の方が被覆率のゲインが大きいことから,逆翻訳の効果は Instr-DT の方がより顕著であったと考える。 ## 5 おわりに 本稿では,文間の修辞構造解析の性能を改善するため,学習データに対して逆翻訳を適用することで大量の擬似正解データを作成し,これを用いて解析器を事前学習,正解データを用いて追加学習する手法を提案した. Kobayashi ら [5] の世界最高性能の上向き,下向き解析器に基づき, ベンチマークデー タセット RST-DT,Instr-DT を用い,擬似正解データを用いないべースラインと提案法を比較したところ,RST-DT では最大で 1.3 ポイント,Instr-DT では最大で 2.8 ポイント, Standard-ParsEval スコアが向上し,逆翻訳による擬似正解データの有効性を確認できた。 ## 謝辞 本研究の一部は JSPS 科研費 JP21H03505 の助成を受けている。 ## 参考文献 [1] W.C. Mann and S.A Thompson. Rhetorical structure theory: A theory of text organization. Technical Report ISI/RS-87-190, USC/ISI, 1987. [2] Yuta Kikuchi, Tsutomu Hirao, Hiroya Takamura, Manabu Okumura, and Masaaki Nagata. Single document summarization based on nested tree structure. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 315-320, Baltimore, Maryland, June 2014. Association for Computational Linguistics. [3] Jingun Kwon, Naoki Kobayashi, Hidetaka Kamigaito, and Manabu Okumura. Considering nested tree structure in sentence extractive summarization with pre-trained transformer. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 4039-4044, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [4] Mary Ellen Okurowski Lynn Carlson, Daniel Marcu. RST Discourse Treebank. Philadelphia: Linguistic Data Consortium, 2002. [5] Naoki Kobayashi, Tsutomu Hirao, Hidetaka Kamigaito, Manabu Okumura, and Masaaki Nagata. A simple and strong baseline for end-to-end neural rst-style discourse parsing. In Findings of the Association for Computational Linguistics: EMNLP 2022, pp. 6754-6766, 2022. [6] Rajen Subba and Barbara Di Eugenio. An effective discourse parser that uses rich linguistic information. In Proceedings of Human Language Technologies: The 2009 Annual Conference of the North American Chapter of the Association for Computational Linguistics, pp. 566-574, Boulder, Colorado, June 2009. Association for Computational Linguistics. [7] Vanessa Wei Feng and Graeme Hirst. Text-level discourse parsing with rich linguistic features. In Proceedings of the 50th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 60-68, Jeju Island, Korea, July 2012. Association for Computational Linguistics. [8] Shafiq Joty, Giuseppe Carenini, Raymond Ng, and Yashar Mehdad. Combining intra- and multi-sentential rhetorical parsing for document-level discourse analysis. In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 486-496, Sofia, Bulgaria, August 2013. Association for Computational Linguistics. [9] Shafiq Joty, Giuseppe Carenini, and Raymond T. Ng. CODRA: A Novel Discriminative Framework for Rhetorical Analysis. Computational Linguistics, Vol. 41, No. 3, pp. 385-435, 092015. [10] Xiang Lin, Shafiq Joty, Prathyusha Jwalapuram, and M Saiful Bari. A unified linear-time framework for sentence-level discourse parsing. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4190-4200, Florence, Italy, July 2019. Association for Computational Linguistics. [11] Naoki Kobayashi, Tsutomu Hirao, Hidetaka Kamigaito, Manabu Okumura, and Masaaki Nagata. Top-down rst parsing utilizing granularity levels in documents. In Proceedings of the AAAI Conference on Artificial Intelligence, pp. 8099-8106, Apr. 2020. [12] Chloé Braud, Barbara Plank, and Anders Søgaard. Multi-view and multi-task training of RST discourse parsers. In Proceedings of COLING 2016, the 26th International Conference on Compu- tational Linguistics: Technical Papers, pp. 1903-1913, Osaka, Japan, December 2016. The COLING 2016 Organizing Committee. [13] Patrick Huber and Giuseppe Carenini. MEGA RST discourse treebanks with structure and nuclearity from scalable distant sentiment supervision. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 7442-7457, Online, November 2020. Association for Computational Linguistics. [14] Grigorii Guz, Patrick Huber, and Giuseppe Carenini. Unleashing the power of neural discourse parsers - a context and structure aware approach using large scale pretraining. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 3794-3805, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics. [15] Naoki Kobayashi, Tsutomu Hirao, Hidetaka Kamigaito, Manabu Okumura, and Masaaki Nagata. Improving neural RST parsing model with silver agreement subtrees. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1600-1612, Online, June 2021. Association for Computational Linguistics. [16] Ari Holtzman, Jan Buys, Li Du, Maxwell Forbes, and Yejin Choi. The curious case of neural text degeneration. In 8th International Conference on Learning Representations, ICLR 2020, Addis Ababa, Ethiopia, April 26-30, 2020. OpenReview.net, 2020. [17] Pengcheng He, Jianfeng Gao, and Weizhu Chen. Debertav3: Improving deberta using electra-style pre-training with gradientdisentangled embedding sharing. CoRR, Vol. abs/2111.09543, , 2021. [18] Grigorii Guz and Giuseppe Carenini. Coreference for discourse parsing: A neural approach. In Proceedings of the First Workshop on Computational Approaches to Discourse, pp. 160167, Online, November 2020. Association for Computational Linguistics. [19] Michael Heilman and Kenji Sagae. Fast rhetorical structure theory discourse parsing. CoRR, Vol. abs/1505.02425, , 2015. [20] Mathieu Morey, Philippe Muller, and Nicholas Asher. How much progress have we made on RST discourse parsing? a replication study of recent results on the RST-DT. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 1319-1324, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [21] Marcin Junczys-Dowmunt, Roman Grundkiewicz, Tomasz Dwojak, Hieu Hoang, Kenneth Heafield, Tom Neckermann, Frank Seide, Ulrich Germann, Alham Fikri Aji, Nikolay Bogoychev, André F. T. Martins, and Alexandra Birch. Marian: Fast neural machine translation in C++. In Proceedings of ACL 2018, System Demonstrations, pp. 116-121, Melbourne, Australia, July 2018. Association for Computational Linguistics. [22] Jörg Tiedemann and Santhosh Thottingal. OPUS-MT - building open translation services for the world. In Proceedings of the 22nd Annual Conference of the European Association for Machine Translation, pp. 479-480, Lisboa, Portugal, November 2020. European Association for Machine Translation. [23] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Brussels, Belgium, October 2018. Association for Computational Linguistics.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q6-12.pdf
# 含意関係と感情極性は対立的談話関係を捉えられるか 佐藤 拓真 ${ }^{1}$ 窪田 愛 1 峯島 宏次 ${ }^{1}$ 1 慶應義塾大学 takuma.sato.keio@gmail.com ai .kubota.m@gmail.com minesima@abelard.flet.keio.ac.jp ## 概要 本稿では、含意関係と感情極性が対立的談話関係をどれだけ捉えられるかについて、解析と考察を行った。具体的には、節ぺアに対して判定器を用いて含意関係ラベルと感情極性のスコアをそれぞれ算出し、それらの結果と談話関係コーパスにおける談話関係ラベルを変換して対応付けたうえで、一致率を求めることで各要素の関連を分析した。 解析の結果、含意関係は逆接の談話関係を検出する上で、十分ではないものの一定程度注目に値する要素であることが示唆された。また、感情極性については、極性の判定と逆接の談話関係が同時に発生するという仮説に反して、逆接の談話関係の検出において必須の要素ではないことが分析された。 ## 1 はじめに 談話関係 (discourse relation) は人間がどのようにして文を理解・構成しているかを分析するために重要な言語要素である。しかしながら、この談話関係が他の言語要素との間にもつ関係、すなわち、どのような言語要素が談話関係を決定するかについての日本語の研究は、言語処理や言語学の領域において必ずしも十分になされているとはいえない。 本稿においては、上述の談話関係のなかで、とりわけ対立的談話関係について、これが含意関係および感情極性との間にもつ関係について、実験・解析を行った。具体的には、対立的談話関係の代表例として、逆接の談話関係を対象とした。逆接の談話関係がもつ特質として、それが推論 (inference)を含む点がある。たとえば、 (1) 小学生でありながら、哲学書を読む。 という逆接の文においては、「小学生であるならば、哲学書(のような難しい本)は読まない」と いう非明示的な推論が隠れて存在している。そのほかにも、文中に明示的に現れない対立や不一致 (disagreement)、矛盾の関係を内包するなど、逆接の談話関係は言語的な情報に富んだものである。 窪田ら [1] は、文中に潜む推論の存在に着目して、 とりわけ「ながら」「つつ」という接続詞によって結ばれる文に対して、逆接の談話関係アノテーションを行った。本稿においては、このコーパス(以下単に「談話関係コーパス」と呼ぶ)を用いて、逆接の談話関係を付与された節ぺアを抽出し、多様な対立的関係を含むデータセットを構築した。このデー タセットを用いて、含意関係および感情極性がどの程度逆接の対立的談話関係を捉えているかを解析した。 逆接の談話関係にある文においては、接続詞以前と以降の間になんらかの対立があることが多い。たとえば、 (2)心中悲しみに打ちのめされながら、表情では平然を装っていた。 という文においては、前述したような推論的対立のみならず、「悲しい」と「平然な表情」という感情極性の対立など、さまざまな観点からの対立が発見される。このように、逆接はさまざまな対立関係を含む。 ここで、この逆接の談話関係と含意関係および感情極性について、以下のような仮説を立てる。 仮説 1 「P ながら(つつ) $\mathrm{Q} 」$ が逆接を表すのは、 $P$ と $Q$ が矛盾するとき、つまり、 $P \Rightarrow \neg Q$ という含意関係における矛盾が成立するときである。 仮説 $2 「 \mathrm{P}$ ながら(つつ) $\mathrm{Q} 」$ が逆接を表すのは、 $P$ の感情極性と $Q$ の感情極性が反転しているときである。 これらの仮説を立てられるのは、矛盾 (contradiction)の含意関係や感情極性の反転が、implicit でありながらも定量的に観察される言語的な対立といえるためである。 このような言語学的仮説をコーパスと言語処理のツール(解析器)を用いて検証することで、言語学と言語処理の双方に新たな知見がもたらされることが期待される。理論言語学の領域では、逆接の談話関係と感情極性との関係は十分に注目されていないが、本研究は両者の関係に光を当てるものである。自然言語処理の領域では依然として困難な課題として存在している論理や矛盾の問題における進展に寄与することができる。これらの領域における進展によって、たとえば、テキスト生成等における生成文中の論理的な矛盾や hallucination [2] といった課題への貢献が期待できる。 ## 2 関連研究 言語学では、英語の “A but B” が表すいわゆる逆接・譲歩の関係の分析として、条件文 (“If A, B”) や連言文 (“A and B")、選言文 (“A or B”) との比較のもと、多くの研究が蓄積されている $[3,4,5,6]$ 。日本語の「A、しかし、B」を典型とする逆接・譲歩の関係についても、条件文や理由文と比較して様々な分析が提案されている $[7,8,9]$ 。これら日本語・英語の逆接関係の分析に共通するのは、“A but B” や「A、 しかし、B」の典型的用法では、Aと B の間にある種の論理的な矛盾があり、「Aならば(通常は)B ではない」といった対立的推論が前提されている、という観点である ${ }^{1)}$ 。 1 節の仮説 1 はこの分析に基づくものである。 同時に次の例が示すように、A と B の間には必ずしも「Aならば(通常は)Bではない」という推論が前提されず、単に意味的な対比 $[3,5,4,6]$ を表すケースもある。 (3) John is rich but Bill is poor. (ジョンは金持ちだが、ビルは貧乏だ) 感情極性に着目した仮説 2 はこの種の用法に適合していると予想される。計算言語学・自然言語処理で 1)「Aならば(通常は)Bではない」といった対立的推論を前提するのは「直接型 (Direct consessive)」と呼ばれるタイプの逆接で、それに対して、「Aならば(通常は)C、かつ、B ならば(通常は)Cではない」といった対立的推論を前提する「間接型 (Indirect consessive)」と呼ばれるものも存在する ([1] 参照)。「直接型」「間接型」の下位分類の詳細については今後の課題とする。 は、Socher et al. [10] は、仮説 2 を英語で検証した試みとみなせる。 英語では、談話関係コーパス [11]から含意関係ぺアを抽出するという試み [12]があるが、逆接・譲歩の矛盾関係は扱われていない。他方で、既存の含意関係認識データセット $[13,14,15]$ は、含意関係に加えて矛盾関係を含むが、“not”や「ない」のような否定語を伴うケースなど、比較的単純なパターンに限られる傾向がある [16]。コーパス上で逆接・譲歩が付与された談話関係に着目することで、より多様で複雑な対立的推論関係を取り出すことが可能になると考えられる。 ## 3 実験設定 ## 3.1 データセットの構築手法 使用した文はすべて Kainoki Treebank [17] から抽出した。抽出対象としては、「ながら」「つつ」のそれぞれ(以下、「対象接続詞」と呼ぶ)が前後の節を結ぶ接続詞として機能している文を対象とした。 対象接続詞によって接続される文として、「文前半・文後半」と「 $\operatorname{Arg} 1 \cdot \operatorname{Arg} 2 」 の$ 二種類を抽出した。「文前半・文後半」については、該当する文の文頭から対象接続詞以前を「文前半」、対象接続詞以降から文末までを「文後半」とした。「Arg1・Arg2」については、Kainoki Treebankにおいてそれぞれ「つつ」直上の IPノード、「つつ」節を直接支配する IP ノー ドに支配される部分が該当する。 こうして抽出された「文前半・文後半」「Arg1・ $\operatorname{Arg} 2 」$ 対して、文頭および文末の処理を行った。文頭の処理としては、「話しつつ、私は」「思いながらも、やはり」といった接続部から適切に後半部分を文として抽出するために、「も」「、」を取り除く処理を行った。文末の処理としては、対象となる文の末尾が動詞・助動詞となる場合に、末尾を終止形に変換する処理を行った。処理には MeCab [18] を使用した。 構築されたデータセットの具体例を表 1 に示す。 また、対象接続詞の談話関係コーパスにおける各ラベルの件数を表 2 に示す 2$)$ 。本コーパスにおいては、陽性に相当する逆接ラベルが少ない不均衡なラベル分布がみられる点が特徴的である。  表 1 構築されたデータセットの例 & 逆接 \\ 表 2 談話関係コーパスの各ラベル件数 ## 3.2 含意関係と談話関係 含意関係と談話関係の関連を明らかにするため、既存の含意関係データセットを用いて構築した含意関係判定器の出力と、談話関係コーパスから機械的に変換した含意関係ラベルの一致率を、各種評価指標を用いて算出した。 含意関係判定器構築のための学習データには、 JSICK [19]、JNLI(JGLUE [20]に含まれる)、JSNLI [21] を使用した。これらはそれぞれ、文ぺアに対する含意関係ラベルが 3 值 (entailment, contradiction, neutral)で付与された含意関係データセットである。これらの含意関係データセットに対して処理を行い、学習に使用した。各含意関係データセットのサイズを表 3 に示す。 判定器の構築にあたっては、事前学習済み言語モデル BERT [22]をベースラインモデルとした。実装においては、python フレームワーク transformers $^{3}$ における cl-tohoku/bert-base-japanese モデルを使用した $^{4)}$ 。epoch 数は 5 に設定し、最適化アルゴリズムには AdamW を使用した。学習率は 2e-5 に設定した。 上記含意関係データセットのうち JSICK を用いて構築した判定器については、ほとんど全ての入力に対して neutral ラベルを出力する挙動が見られ、有意味な実験結果が獲得されなかったため、以下では JNLI と JSNLI によって構築された判定器を用いた実験結果のみを記載する。 含意関係ラベルへの変換は、談話関係コーパスにおいて、アノテーターが一人でも逆接ラベルと判 3) https://huggingface.co/docs/transformers/index 4) https://huggingface.co/cl-tohoku/bert-base-japanese表 3 各含意関係データセットのサイズ 定した文を contradiction、それ以外を neutral と変換した。 ## 3.3 感情極性と談話関係 感情極性 (sentiment polarity) と談話関係の関係を明らかにするために、節ペアのそれぞれに対する感情極性の一致・不一致を用いて、ルールベースで談話関係ラベルに変換した。感情極性の算出モデルには、 huggingface において公開されている事前学習済みモデルである daigo/bert-base-japanese-sentiment ${ }^{5}$ を使用した。 節ペアに対する上記モデルの出力において、label (極性を指す)が異なる場合、談話関係ラベルを逆接ラベルとする変換を行った。この変換手法は、逆接の談話関係においては節ぺア間でのなんらかの対立が発生しているという予想から、感情極性の反転がおこる場合には逆接ラベルの談話関係が発生しやすいという仮説を立てたことによる。 ## 4 実験結果 ## 4.1 含意関係 含意関係と談話関係の関係についての、「つつ」「ながら」のデータセットに対する実験結果を表 4 に示す。評価においては、逆接ラベルに対応する contradiction ラベルに対する各種スコアを観察した。 ## 4.2 感情極性 感情極性と談話関係の関係についての、「つつ」「ながら」のデータセットに対する実験結果を表 4 5) https://huggingface.co/daigo/bert-base-japanese-sentiment 表 4 含意関係に関する実験結果 表 5 感情極性に関する実験結果 に示す。評価においては、逆接ラベルに対する各種スコアを観察した。 ## 5 考察 ## 5.1 含意関係 多くの実験設定において、Recall が高く Precision が低い傾向がみられた。このことから、「つつ」「ながら」で接続される節ペアにおいては、含意関係として contradiction と予測されるものであっても、逆接の談話関係を示さない場合が多いことが読み取れる。一方で、逆接ラベルの出現は contradiction の判定によってある程度網羅的に予測される。 以上のことから、含意関係において contradiction のラベルが付与されることは、逆接の談話関係の出現を予期させるものの、含意関係ラベルのみで逆接の談話関係の予測に十分とはいえないことが示唆される。 F1-score に注目すると、「文前半・文後半」を用いた実験よりも「Arg1・Arg2」を用いた実験のほうが高いスコアが観察された。このことから、複雑な推論や論理的関係を内包する節ぺアにおいては、使用する文を長くして情報量を増大するよりもむしろ、統語構造的に文のトリミングを行って情報量を絞るほうが含意関係の認識がしやすくなることが示唆された。 ## 5.2 感情極性 多くの実験設定において、Recall よりも Precision が高い傾向がみられた。このことから、感情極性において反転のある節ぺアは談話関係としても逆接ラベルを示しやすいが、極性の反転がない節ぺアであっても逆接の談話関係をもつ場合は多いことが読み取れる。つまり、逆接の談話関係を検出するにあたって、感情極性の反転は必ずしもクリティカルな判断要素ではないことが示唆される。 ## 6 おわりに 本稿においては、含意関係と感情極性が対立的談話関係、とりわけ逆接の談話関係を検出するうえでどの程度有効かについて、実験と解析を行った。その結果、まず、contradiction の含意関係の出現は逆接の談話関係の出現を予期することに一定程度有効であるが、それだけで逆接の談話関係の出現を断定するには十分でないことが示された。また、感情極性の反転は、逆接の談話関係を捉えるにあたって必ずしも決定的な要素でないことが示された。 今後の課題としては、モーダルや直接・間接性に着目した逆接の談話関係における下位分類に解析の対象を広げることや、Penn Discourse Treebank (PDTB) [23] を使用した英語データでの実験の実施、「ながら」「つつ」以外の接続詞における同様な実験・解析を行うことが存在する。 ## 謝辞 本研究は、JST CREST、JP-MJCR2114 の支援を受けたものである。 ## 参考文献 [1] 窪田愛, 佐藤拓真, 天本貴之, 秋吉亮太, 峯島宏次. 逆接の推論関係に着目した日本語談話関係アノテー ション. 言語処理学会第 29 回年次大会発表論文集, 2023. [2] Kurt Shuster, Spencer Poff, Moya Chen, Douwe Kiela, and Jason Weston. Retrieval augmentation reduces hallucination in conversation. In Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 37843803, Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [3] Robin Lakoff. If's, and's and but's about conjunction. In Charles J. Fillmore and D. Terence Langèndoen, editors, Studies in Linguistic Semantics, pp. 3-114. Irvington, 1971. [4] Eve Sweetser. From Etymology to Pragmatics: Metaphorical and Cultural Aspects of Semantic Structure. Cambridge University Press, 1990. [5] Mitsuko Narita Izutsu. Contrast, concessive, and corrective: Toward a comprehensive study of opposition relations. Journal of Pragmatics, Vol. 40, pp. 646-675, 2008. [6] Grégoire Winterstein. What but-sentences argue for: An argumentative analysis of but. Lingua, Vol. 122, No. 15, pp. 1864-1885, 2012 [7] 小泉保. 譲歩文について. 言語研究, Vol. 91, pp. 1-14, 1987. [8] 坂原茂. 日常言語の推論. 東京大学出版会, 1985. [9] 衣畑智秀. 日本語の「逆接」の接続助詞について: 情報の質と処理単位を軸に. 日本語科学, Vol. 17, pp. 47-64, 2005 . [10] Richard Socher, Alex Perelygin, Jean Wu, Jason Chuang, Christopher D. Manning, Andrew Ng, and Christopher Potts. Recursive deep models for semantic compositionality over a sentiment treebank. In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, pp. 1631-1642, Seattle, Washington, USA, October 2013. Association for Computational Linguistics. [11] Rashmi Prasad, Bonnie Webber, and Aravind Joshi. Reflections on the Penn Discourse Treebank, comparable corpora, and complementary annotation. Computational Linguistics, Vol. 40, No. 4, pp. 921-950, 2014. [12] Sara Tonelli and Elena Cabrio. Hunting for entailing pairs in the penn discourse treebank. In Proceedings of COLING 2012, pp. 2653-2668, 2012. [13] Samuel R. Bowman, Gabor Angeli, Christopher Potts, and Christopher D. Manning. A large annotated corpus for learning natural language inference. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing (EMNLP). Association for Computational Linguistics, 2015. [14] Adina Williams, Nikita Nangia, and Samuel Bowman. A broad-coverage challenge corpus for sentence understanding through inference. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 1112-1122, New Orleans, Louisiana, 2018. Association for Computational Linguistics. [15] Hitomi Yanaka and Koji Mineshima. Compositional Evaluation on Japanese Textual Entailment and Similarity. Transactions of the Association for Computational Linguistics, Vol. 10, pp. 1266-1284, 112022. [16] Suchin Gururangan, Swabha Swayamdipta, Omer Levy, Roy Schwartz, Samuel Bowman, and Noah A. Smith. Annotation artifacts in natural language inference data. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), pp. 107-112, New Orleans, Louisiana, 2018. Association for Computational Linguistics. [17] Ed Kainoki. The Kainoki Treebank - a parsed corpus of contemporary Japanese, 2022. https://kainoki. github. io (accessed September 2022). [18] Taiichi Hashimoto Toshinori Sato and Manabu Okumura. Implementation of a word segmentation dictionary called mecab-ipadic-neologd and study on how to use it effectively for information retrieval (in japanese). In Proceedings of the Twenty-three Annual Meeting of the Association for Natural Language Processing, pp. NLP2017-B6-1. The Association for Natural Language Processing, 2017. [19] Hitomi Yanaka and Koji Mineshima. Compositional evaluation on Japanese textual entailment and similarity. Transactions of the Association for Computational Lin- guistics, Vol. 10, pp. 1266-1284, 2022. [20] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese general language understanding evaluation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 2957-2966, Marseille, France, June 2022. European Language Resources Association. [21] 吉越卓見, 河原大輔, 黒橋禎夫. 機械翻訳を用いた自然言語推論データセットの多言語化. 情報処理学会第 244 回自然言語処理研究会, 72020. [22] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [23] Rashmi Prasad, Nikhil Dinesh, Alan Lee, Eleni Miltsakaki, Livio Robaldo, Aravind Joshi, and Bonnie Webber. The Penn Discourse TreeBank 2.0. In Proceedings of the Sixth International Conference on Language Resources and Evaluation (LREC'08), Marrakech, Morocco, May 2008. European Language Resources Association (ELRA).
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q6-13.pdf
# Building a Name Masking System: From Dataset to Model Tianqi Wang ${ }^{1}$ Yoichiro Ogawa $^{1} \quad$ Kazumasa Saito $^{1}$ ${ }^{1}$ Classi Corp. \{tianqi.wang, youichiro.ogawa\}@classi.jp kazumasa.saitoh@gmail.com } \begin{abstract} Data is becoming a more and more crucial resource nowadays. Machine learning techniques are rapidly developed based on the analysis and leverage of Big Data. Data is collected, stored, and processed in research and product environments. However, there is a downside that the data may contain privacy information, making it a risk to process the raw data. In this paper, we are trying to extract and mask persons' names from a dataset before any further processing. We create our dataset based on KWDLC dataset and propose a simple but efficient model to match names in texts. The model trained with Japanese name dataset is able to match names in the forms of Kanji, Katakana, Hiragana and Romaji from sentences and phrases. \end{abstract ## 1 Introduction Data is becoming a more and more important resource, especially for machine learning techniques and artificial intelligence. However, the privacy information potentially contained by the dataset is becoming a challenging risk $[1,2]$. For Classi, we provide assistance systems to schools to help supervisors with daily work, including online education and student management. Analysis of data produced by users such as answers submitted by students is essential to monitor the quality of our services. However, the privacy information(such as addresses, names, student numbers, etc.) potentially contained by the data make it a risky task. Thus, a system to mask privacy information is necessary. There are generally two challenges making this task difficult. Firstly, the dataset for privacy information, especially in Japanese, is scarce. Thus it is difficult to train or fine-tune a model. Secondly, the existing model does not meet the request, especially for name masking. In this paper, we create a dataset containing Japanese names based on an existing dataset. We then build a model Table 1 Some examples of collected names. The katakana is omitted for the limited space. to detect names from natural language text and train the model with the proposal dataset. The experimental results indicate that our proposed model outperforms the existing NER model, and is able to process names in various forms. ## 2 Related Work The research on privacy-preserving has been widely studied by the community. Generally speaking, there are two approaches, naming anonymization and randomization. Anonymization is a practical solution for preserving users' privacy in data publishing[3]. Data owners such as hospitals, banks, social network (SN) service providers, and insurance companies anonymize their user' $s$ data before publishing it to protect the privacy of users whereas anonymous data remains useful for legitimate information consumers. Randomization refers to methods that perturb data by multiplicative and addive noise or other randomized processes[4]. In our case, the most important privacy information is names, which is possible to be detected by NER models. Named entity recognition (NER) is the task to identify mentions of rigid designators from text belonging to predefined semantic types such as person, location, organization etc[5]. In this paper, we take the pre-trained GiNZA v5[6] as the baseline. GiNZA is a Japanese NLP library based on Universal Dependencies[7], pre-trained with several datasets for different tasks. The named entity recognition model of GiNZA is trained on a part of GSK2014-A (2019) BCCWJ edition[8]. Figure 1 The architecture of proposal model. ## 3 Proposal ## 3.1 Dataset There is not a dataset for name-masking task according to our knowledge, thus we build the dataset by inserting names into an existing public dataset. Collect names We collect Japanese names from a website ${ }^{1)}$ providing dummy data of privacy information. There are other types of privacy information such as addresses, credit card numbers, etc. available, but we only use the data of names in this research. The data is provided as full names. Consider the different diversity of family names and given names, the difficulty may also change. Thus we split the names to family names and given names, and organize the data in forms of Kanji, $\mathrm{Hi}-$ ragana, Katakana and Romaji respectively. Some examples of collected names are shown in Table 1 As a result, we have three dataset for full names, family names and given names respectively, and 300 data for each of them. Insert names We build the dataset by inserting names into the KWDLC corpus[9]. The KWDLC corpus contains documents with various genres and styles, such as news articles, encyclopedic articles, blogs and commercial pages. The linguistic annotations consist of annotations of mor-  phology, named entities, dependencies, etc. We make use of the named entities' annotation in our research. We extract only the data with names from KWDLS corpus, and remove data where the names do not refer to persons such as 薄竹善道事務所 (Office of Usutake Yoshimiti). Besides, there are texts that are the same after removing name tokens. We remove these data as well to avoid repeated data. As a result, we extracted 798 texts containing names in total. We then insert the names we obtained earlier to the corresponding position of the texts based on the annotations of named entities provided by the KWDLC corpus. All of the names are inserted into the text equally. We assign binary labels to each character and token as the ground truth. Labels to characters and tokens contained by names are set to 1 while labels to others are set to 0 . The labels are used for training and evaluating models in the following experiments. ## 3.2 Proposed Model We name our proposed model as NameTagger(NT) in this paper. As illustrated in Figure 1, the model consists of four layers. First, the embedding layer converts tokens to word embeddings $\mathbf{e}_{i} \in \mathbb{R}^{d}$. Then we feed the word embeddings to a Bi-LSTM layer to produce contextualized hidden states $\mathbf{h}_{i}=\left[\overrightarrow{\mathbf{h}_{i}} ; \overleftarrow{\mathbf{h}_{i}}\right]$ for each words. Note that the forward $\left(\overrightarrow{\mathbf{h}_{i}}\right)$ and backward $\left(\overleftarrow{\mathbf{h}_{i}}\right)$ hidden states are concatenated as the output of Bi-LSTM layer. We set the dropout rate of Bi-LSTM layer to 0.5 . The attention layer assign attention values to tokens as probability that the token belongs to a name. The attention values $\alpha_{i}$ to the $i^{t h}$ token are calculated as follows: $ \alpha_{i}=\frac{1}{1+e^{\mathbf{h}_{i} \mathbf{M}+\beta}}, 0 \leq \alpha_{i} \leq 1 $ where $\mathbf{h} \in \mathbb{R}^{r}$ is the hidden state of the $i^{t h}$ token, $\mathbf{M} \in \mathbb{R}^{r \times 1}$ and $\beta \in \mathbb{R}$ are parameters to learn. Finally, we filter out tokens that are clearly non-names, such as numbers and punctuation. ## 4 Experiments and Discussion We divide the dataset to training data $(80 \%)$, dev data $(10 \%)$ and test data $(10 \%)$, and make sure that both the text and names are different between each subset of the dataset, so that all of the input data is new to the model in the test phase. We tokenize the input data to tokens by MeCab[10] with IPA dictionary. We use the word2vec model pre-trained with Japanese Wikipedia, distributed by the Inui Lab at Tohoku University ${ }^{2}$, to initialize the embedding layer. The word embedding dimension is $d=100$. Considering the limited size of training data, we freeze the embedding layer during training phase. The dimension of Bi-LSTM is set to 250 , so the dimension of hidden states is $r=500$ after concatenation. The performance is evaluated on character level. To evaluate the performance, We first binarize the predicts of our model based on a threshold value: $ p_{i}= \begin{cases}1, & \alpha_{i}>T \\ 0, & \text { otherwise }\end{cases} $ where $p_{i}$ is the predicted label to the $i^{t h}$ token, and $T=0.7$ is a hyper-parameter. We then calculate recall, precision and F1 scores between the predicted labels and correct labels. We train the model for 20 epochs with a learning rate of 0.001, and take Cross-Entropy as the objective function. We save the learned parameters when the model achieves the best performance on dev data, and the final performance is evaluated with the test data. We explore the following topics in our experiments. We first test the performance of the pre-trained GiNZA model on our dataset, and discuss the possible reason limiting the performance. We then test the performance of our proposed model. Furthermore, We explore various settings to train our model, and discuss the effect on processing different name forms. ## 4.1 Performance of GiNZA We evaluate the performance of GiNZA in detecting names from our dataset in forms of Kanji, Katakana, Hiragana and RomaJi respectively. Table 2 shows the results. It is easy to tell that the performance of GiNZA is highly related to the names forms. GiNZA performs pretty well on names in Kanji, but almost does not work for names in Katakana and RomaJi. It is reasonable because Japanese names are in the forms of Kanji and Hiragana in most cases, and is more possible contained in the training data used by GiNZA. Considering the performance irrelevant  Table 2 The performance of GiNZA on full names (FLN), family names (FN) and given names (GN) respectively. to the frequency of name forms, we assume that the pretrained model relies on vocabulary of names. ## 4.2 Performance of Proposed Model We train our model with the dataset introduced in Section 3.1. The model is trained for different name forms independently. The comparison between F1 scores produced by GiNZA and our proposed model(NT) is shown in Table 4. Note that because the pre-trained GiNZA model is not finetuned with the dataset, the comparison is only for reference. Our model outperforms the pre-trained GiNZA model on all name forms, especially on non-Kanji forms. The performance on names in Romaji is even better than names in Hiragana and Katakana. It indicates that the model can be overfitted. Because names in Romaji are unknown tokens to the pre-trained word embeddings, the model may prefer to detect all of the unknown tokens as names. To inspect the hypothesis, we train the model with names in Kanji, and apply it to names in other forms. The results are shown as NT(Kanji) at Table 4. The performance on different name forms supports our hypothesis. Because the non-Kanji name tokens are unseen by the model during the training phase, the model barely matches the names correctly. Especially when the names in Romaji are unknown to the model, namely no semantic information is available, the model can not detect the names totally. In order to train one model and apply it to various name forms, we explore two approaches to solve this issue. ## 4.3 Training with Mixed Name Forms To obtain a model capable of matching various name forms, it is natural to train the model with multiple name forms instead of single ones. To achieve this goal, we build the data set with mixed name forms. When inserting names into texts, we insert all four forms Table 3 Example of names extracted by NT and NT(Mix) settings. Table 4 Performance of proposed model trained with various settings. NT is trained on and applied to datasets of each name forms independently. NT(Kanji) is trained with names in Kanji and applied to each name forms. NT(Mix) is trained with mixed name forms and applied to each name forms. NT(Random) is trained with randomly selected name tokens and applied to each name forms.. to generate the dataset. Namely we created four data for each text. The performance of the model trained with mixed name forms is shown as NT(Mix) in Table 4. The F1 score is close to models trained for each name forms independently, and much better than the setting of NT(Kanji). That indicates that training with mixed name forms clearly improves the performance. We noticed that the NT(Mix) performs even better than NT on Katakana and Romaji, which is out of our expectations, because for the NT setting the name forms are the same in training and test data, while the name forms are different for the NT(Mix) setting. Some further analysis shows that the improvement is from precision, meaning the NT(Mix) produces fewer false-positive results. Table 3 shows some examples of names extracted by the model. The first two examples show that compared to NT(Mix), NT is easier to incorrectly detect full-width numbers as names. As we mentioned above, the model may be overfitted when trained with names in Romaji, tending to predict unknown tokens as names. However, trained with mixed name forms, the model process unknown tokens better. At the same time, the 3rd and 4th examples in Table 3 show that the mixed name forms do not contribute to the processing on known tokens. ## 4.4 Training with Random Name Tokens As we discussed in Section 4.1, one of the reason limiting the performance of GiNZA may be the dependence on name vocabulary. To train a model independent to name vocabulary, we insert random tokens instead of collected names to the texts to build the dataset. Given a text containing names, we randomly select a token from the text, and replace the name token with the random token. In this way, the selected token appears at least twice in one sentence, one as name, and the another one as non-name. By training the model with this dataset, we expect the model to learn the difference between name tokens and non-name tokens depending on the context instead of the token itself. NT(Random) in Table 4 shows that the performance is limited overall. Considering the name tokens are randomly selected from the text, there are almost no name data in Katakana and Romaji, but the model works well on names in these two forms, especially compared to the performance of NT(Kanji) and GiNZA. We notice that the performance is limited by precision $(0.343-0.709)$, while the recall scores are still high enough (0.718 - 0.905). It may caused by the semantic features of the pre-trained word embeddings. We consider to fine-tune the word embedding layer with larger dataset in the future. ## 5 Conclusion With the popular technique based on Big Data, masking privacy information is becoming a crucial challenge task. In this paper, we build a system to detect names in Japanese from texts. We first build a dataset for the name masking task by inserting Japanese names into an existing dataset. The dataset covers names in various forms. We train a simple but efficient model with the dataset to detect Japanese names. The model outperforms the pre-trained NER model on the name-masking task. We also discuss various settings to train and apply the model. However, because of the scarcity of data, we could not evaluate the model with data in the real product context. After applying the model to the product environment, masked data in the real world will be available. Then the model can be better trained and evaluated in the future. We shall also train the model to mask privacy information other than names such as addresses etc. in the future. ## References [1] W Nicholson Price and I Glenn Cohen. Privacy in the age of medical big data. Nature medicine, Vol. 25, No. 1, pp. 37-43, 2019 . [2] Sangchul Park, Gina Jeehyun Choi, and Haksoo Ko. Information technology-based tracing strategy in response to covid-19 in south korea - privacy controversies. Jama, Vol. 323, No. 21, pp. 2129-2130, 2020. [3] Abdul Majeed and Sungchang Lee. Anonymization techniques for privacy preserving data publishing: A comprehensive survey. IEEE access, Vol. 9, pp. 8512-8545, 2020. [4] Rasim M Alguliyev, Ramiz M Aliguliyev, and Fargana J Abdullayeva. Privacy-preserving deep learning algorithm for big personal data analysis. Journal of Industrial Information Integration, Vol. 15, pp. 1-14, 2019. [5] Jing Li, Aixin Sun, Jianglei Han, and Chenliang Li. A survey on deep learning for named entity recognition. IEEE Transactions on Knowledge and Data Engineering, Vol. 34, No. 1, pp. 50-70, 2020. [6] 松田寛. Ginza-universal dependencies による実用的日本語解析. 自然言語処理, Vol. 27, No. 3, pp. 695-701, 2020 [7] Marie-Catherine De Marneffe, Christopher D Manning, Joakim Nivre, and Daniel Zeman. Universal dependencies. Computational linguistics, Vol. 47, No. 2, pp. 255-308, 2021. [8] 橋本泰一, 乾孝司, 村上浩司ほか. 拡張固有表現タグ付きコーパスの構築. 情報処理学会研究報告自然言語処理 (NL), Vol. 2008, No. 113 (2008-NL-188), pp. 113-120, 2008. [9] Masatsugu Hangyo, Daisuke Kawahara, and Sadao Kurohashi. Building a diverse document leads corpus annotated with semantic relations. In Proceedings of the 26th Pacific Asia Conference on Language, Information, and Computation, pp. 535-544, 2012. [10] Taku Kudo. Mecab: Yet another part-of-speech and morphological analyzer. http://mecab. sourceforge. net/, 2005 .
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q6-1.pdf
# 日本語 Tokenizer の違いは下流タスク性能に影響を与えるか? 藤井 巧朗 1* 柴田 幸輝 2* 山口 篤季 3 十河 泰弘 ${ }^{3}$ 1 横浜国立大学 2 筑波大学 3 株式会社日立製作所研究開発グループ ${ }^{1}$ tkr.fujii.ynuegmail.com ${ }^{2}$ s1811496@klis.tsukuba.ac.jp ${ }^{3}$ \{atsuki.yamaguchi.xn, yasuhiro.sogawa.tp\}@hitachi.com ## 概要 本研究では、形態素解析器やサブワード分割手法の違いが大規模言語モデルに与える影響を調査した。種々の形態素解析器とサブワード分割手法を考慮した全 18 種のトークナイザについて、トークナイザの学習と BERT モデルの事前学習、 7 個の下流タスクでのファインチューニングを行い、下流タスクの性能を比較した。また、形態素解析器の有無やその違い、サブワード分割手法の違い、単語分かち書き辞書の違い、トークナイザ辞書の類似性の観点から各種トークナイザの与える影響を評価した。 ## 1 はじめに 近年、BERT [1]をはじめとした大規模言語モデルの登場により、自然言語処理における様々なタスクの性能が飛躍的に向上した。現在に至るまで、様々な日本語事前学習済み言語モデルが公開されている。例えば、東北大学の乾研究室は事前学習済み BERT モデル1)を公開しているほか、早稲田大学の河原研究室は事前学習済み RoBERTa モデル2)を公開している。 こうした日本語の事前学習済み言語モデルが用いるトークナイザは、モデルにより異なる。前述の東北大 BERT モデルは、形態素解析器に MeCab [2]、サブワード分割手法に WordPiece [3] を用いたトークナイザを活用している。一方で、早稲田大学 RoBERTa モデルは、形態素解析器に Juman++ [4]、サブワード分割手法に Unigram [5] を用いたトークナイザを活用している。 トークナイザが異なると、大力文の分割粒度が異なるため、言語モデルの学習する潜在表現に何らかの影響を与えると考えられる。このため、トークナ  イザの違いは下流タスクの性能に影響する可能性がある。実際にトークナイザの下流タスクに与える影響については、築地ら [6] や井上ら [7]が調査している。しかし、前者は事前学習時とファインチューニング時で異なるトークナイザを用いている点、後者はサブワード分割手法に BPE のみ考慮している点や 1 個の下流タスクでのみ分析を行っている点から、先行研究はトークナイザの下流タスクの性能に与える影響について十分な検討を行えていない。 そこで本研究では、形態素解析器を使わない場合も考慮した 6 種の形態素解析器と 3 種のサブワー ド分割手法の組合せに対して、同一のデータによりトークナイザの学習および BERT の事前学習を行い、JGLUE [8] や固有表現抽出 [9]、構文解析 [10] 夕スクにおけるファインチューニング時の性能を測定することで、形態素解析器やサブワード分割手法の違いが与える影響を網羅的に分析した。 本論文の貢献は次の 2 点である。(1) 複数の日本語形態素解析器とサブワード分割手法の組合せについて、統一的な実験設定で事前学習、およびファインチューニングを実施し、様々な下流タスクにおける性能評価を行った。(2) 各種形態素解析器、およびサブワード分割手法が下流タスク性能に与える影響を 5 つの観点から解析した。 ## 2 日本語トークナイザ 日本語の事前学習済み言語モデルが用いるトークナイザは、形態素解析器とサブワード分割手法により構成される。トークナイズ手順は、まず形態素解析器により入力文を単語単位に分割する。次に、分割された各単語に対して、サブワード分割手法を用いてサブワード単位に分割する。言語モデルへの入力は、サブワード単位に分割された文を用いる。 以下、本章では本稿において考慮する形態素解析器とサブワード分割手法について解説する。 ## 2.1 形態素解析器 MeCab MeCab [2] は辞書をもとにラティスを構築し、ビタビアルゴリズムにより累積コストが最小となる組合せを選択することでトークナイズを行う。コストの計算は、CRFによる系列ラベリングの際に素性関数を用いて行われる。また、辞書には IPAdic や NEologd $[11]^{3)}$ な゙があり、NEologd は新語・固有表現が追加され、語彙数が多い辞書である。 Juman++ Juman++ [4] は人手で調整された基本語彙辞書と Wikipedia や Webコーパスから自動作成した辞書をもとにラティスを構築し、ビームサーチによりシーケンススコアが最大となる組合せを選択することでトークナイズを行う。シーケンススコアの計算は、RNN 言語モデルを用いて行われる。 Sudachi Sudachi [12] は、UniDic [13] と NEologd をべースに人手で調整された辞書に基づいてトークナイズを行う。また、Sudachi は分割粒度の異なる 3 つのトークナイズが可能であり、目的に応じて使い分けられる。使用できる辞書としては Small、Core (Sudachi のデフォルト辞書)、Full の 3 種類の辞書が存在する。本研究では、基本的な語彙を収録した Core を辞書に用いた。 Vaporetto Vaporetto [14] は一定幅の窓を設定し、窓内の文字列から素性を取り出し、各文字間の単語境界の有無を線形分類モデルにより判別することでトークナイズを行う。辞書には UniDic を用いる。 ## 2.2 サブワード分割手法 Byte-Pair-Encoding BPE (Byte-Pair-Encoding) [15] は、文字ぺアの出現頻度が高いものから結合リストに追加し、結合した文字列を辞書に追加することで学習される。トークナイズは、文字分割後に結合リストを参照し、出現頻度の高い文字ペアから順に結合することで行われる。 WordPiece WordPiece $[3]^{4}$ は、文字ぺアの頻度が高く、個々のパーツの出現頻度が低いものから結合した文字列を辞書に追加することで学習される。 トークナイズは、先頭の文字から順に、辞書にある最長のサブワードにより分割することで行われる。 Unigram Unigram [5] は、出現した全文字パター ンを辞書に追加し、Unigram 言語モデルによりその語彙を失ったときの損失を計算し、損失の小さい語  4)本研究での WordPiece は BERT の最長一致の実装に基づく。彙を削除することで学習される。トークナイズは、全文字パターンを列挙し、トークンの出現確率が高い語彙の組み合わせを選択することで行われる。 ## 3 実験設定 比較対象形態素解析器には 2.1 で示した MeCab、MeCab+NEologd、Juman++、Sudachi、Vaporetto の 5 種、サブワード分割手法には $\$ 2.2$ で示した BPE、WordPiece、Unigram の 3 種を用いた計 15 種、 および、形態素解析器を用いずサブワード分割手法のみを用いた 3 種の計 18 種のトークナイザを比較する。また、参考値として、bert-base-japanese ${ }^{1)}$ の性能も測定する。 評価観点本稿では、トークナイザが言語モデルに与える影響を以下の 5 観点から調査する。 ・形態素解析器を用いるべきか ・形態素解析器の違いが与える影響 ・どのサブワード分割手法を用いるべきか ・形態素解析器の辞書の違いが与える影響 ・トークナイザ辞書の類似性が与える影響 実験データトークナイザの学習は、Wikipedia ${ }^{5)}$ からランダムに 1000 万文を抽出し、実行した。 ただし、"Category"および表が入っている文と 30 文字未満の文を除いた。事前学習は Wikipedia と CC-1006) を用い、それぞれ 512 トークンに近づくように文を結合してから、220万、110万個のデータを抽出し、マスク言語モデリング [1] により実行した。ファインチューニングには、JGLUE、ストックマーク株式会社による日本語 NER データセット、 UD-Japanese-GSD を用いた。”7) ただし、JGLUE は test セットが公開されていないため、train セットにより 5 分割交差検証を行い、dev セットで評価を行った。 が存在しないため、train セットを 9:1 に分割し、前者で 5 分割交差検証を行い、後者で評価を行った。 ハイパーパラメータ $\quad$ トークナイザは語彙数を 3 万として学習した。モデルには、BERT-base ( $\mathrm{L}=12$ 、 $\mathrm{H}=768 、 \mathrm{~A}=12)$ を採用した。事前学習では、オプティマイザに AdamWを用い、学習率を 1e-4、バッチサイズを 128、ステップ数を 50 万ステップとした。 ファインチューニングでは、学習率を3e-5、バッ  & & & & & & & Avg. \\ 表 1 JGLUE、NER、UD データセット上での評価結果。各数値は、JGLUE と NER では 5 分割交差検証の平均值 (標準偏差) を、UD では 5 シードの平均值 (標準偏差) を示している。JCQA は JCommonsenseQA データセットの略である。 表 2 形態素解析器ありの場合となしの場合の性能比較。数値は各サブワード分割手法における各タスクでの性能の平均值であり、\{形態素解析器ありの性能平均\}/\{形態素解析器なしの性能\}を示している。また、全タスク、Token-level タスク、Sequence-level タスクの平均値も示している。ただし Avg*は形態素解析器なしの WordPiece を計算から除外した。 大シーケンス長に関しては、MARC-ja と UDでは 512、JSTS、JNLI と NER では 128、JSQuAD では 348、 JCommonsenseQA では 64 とした。8) ## 4 実験結果 各トークナイザの下流タスク性能を表 1 に示す。 形態素解析器を用いるべきかまず、形態素解析器の有無が与える影響について分析する。具体的には、形態素解析器ありの場合となしの場合で、サブワード分割手法ごとに下流タスクの性能を比較する。また、形態素解析器の有無による影響は、タスクの粒度やサブワード分割手法によって異なる可能性があるため、これらの観点からも性能を比較する。表 2 は、形態素解析器ありの場合となしの場合において、サブワード分割手法ごとのタスク別平均值および、全タスク (Avg. / Overall)、Token-level タスク、Sequence-level タスクの平均値を示してい 8) ハイパーパラメータの詳細は付録 $\S$ A. 2 に記載。 る。ただし、形態素解析器なしの場合の WordPiece は明らかに性能が低いため、平均值 (Avg.*)の計算から除外した。Token-level タスクとは各トークンに対応する出力を用いて解くタスクであり、JSQuAD、 NER、UD が該当する。Sequence-level タスクとは [CLS] や [SEP]トークンを用いて解くタスクであり、 MARC-ja、JSTS、JNLI、JCQA が該当する。 表 2 より、全タスク平均 (Avg. / Overall, Avg.*)において、形態素解析器ありの方がなしよりも 2.0 ポイント上回り、各タスクでの平均 (Avg.*)においても、7 タスク中 5 タスクで形態素解析器ありの方が性能が高い結果となった。さらに、サブワー ド分割手法別で比較した場合、どのサブワード分割手法においても形態素解析器ありの方が性能が高く(Avg. / Overall)、タスク粒度単位で比較した場合、Token-level タスクでは形態素解析器ありの方が平均で 4.9 ポイント上回っており (Avg. / Token)、 Sequence-level タスクでは形態素解析器ありの方が 平均で 0.2 ポイント上回った (Avg. / Sequence)。以上から、サブワード分割手法によらず形態素解析器を用いた方が良く、特に Token-level タスクで形態素解析器を用いた方が良いと考えられる。 形態素解析器の違いが与える影響表 1 の形態素解析器ありの手法について比較する。形態素解析器の違いが与える影響を調査するため、単語辞書だけが MeCab と異なる、MeCab+NEologd を除いて比較を行った。比較の結果、MARC-ja、JSTS、JNLI、 JSQuAD および JCQA の計 5 タスクの性能に有意差はなかった ( $p \geq .05$, Kruskal-Wallis test) が、NER と UD の 2 タスクでは有意差が確認された $(p<.05$, Kruskal-Wallis test)。これらの結果から、少なくとも Sequence-level タスクでは形態素解析器の違いが与える影響は小さいと考えられる。 どのサブワード分割手法を用いるべきか表 2 の各サブワード分割手法における全タスク平均 (Avg. / Overall)より、形態素解析器ありの場合に関して、 Unigram と BPE の性能は 87.3 で等しく、WordPiece の性能は 86.3 と 1.0 ポイント悪化している。特に、 Sequence-level タスク (Avg. / Sequence) においては、 WordPiece の性能が低くなる傾向がある。9)この結果は、英語データセット上でのサブワード分割手法の比較 [16] における結果と同様の傾向である。したがって、サブワード分割手法には BPE かUnigram を用いるべきと考える。 単語分かち書き辞書の違いが与える影響佐藤ら [17] は、形態素解析器に豊富な語句を含む単語分かち書き辞書を活用することで、文書分類タスクの一部の性能が向上することを示している。そこで、より豊富な語を含んだ単語分かち書き辞書(NEologd) を考慮することで、下流タスク性能に差異が生じるかを分析した。表 1 の MeCabと MeCab+NEologd を比較すると、タスクごとの性能に有意差があるとは言えず ( $p \geq .05$, Mann-Whitney U test)、NEologd による明確な性能向上は見られなかった。NEologd は新語・固有表現に強いとされており、本研究では特に NER や JSQuAD タスクの性能に影響を与えると想定されたが、性能差は見られなかった。 ## トークナイザ辞書の類似性が与える影響 トーク ナイズ結果はサブワード分割手法のトークナイザ辞書に大きく影響するため、辞書の類似度が高いもの はそのアルゴリズムによらずトークナイズ結果も類似し、下流タスクの性能も類似するのではないかと 9)考察を A. 3 に記す。 図 1 トークナイザ辞書の類似度と性能の関係。横軸はトークナイザ辞書の類似度、縦軸は各トークナイザの性能の差を表している。 考えた。そこで、トークナイザ辞書の類似度と下流タスクの関係について調査する。トークナイザ辞書の類似度と下流タスクの関係を図 1 に示す。横軸はトークナイザ辞書の類似度を示しており、トークナイザ辞書に出現する単語の重複率により算出した。 また、縦軸は各トークナイザの性能の差を示しており、表 1 の各トークナイザの全タスク平均 (Avg.) の差により算出した。つまり、ある 1 点は 2 つのトー クナイザの (辞書の類似度, 性能の差) を示している。図 1 より、下流タスクの性能の差とトークナイザ辞書の類似度の間には強い負の相関(-0.821)があり、 トークナイザ辞書の類似度が高ければ高いほど下流タスクの性能差は小さくなる傾向がある。したがって、トークナイザ辞書の類似度が高いと下流タスクの性能も類似すると考えられる。 ## 5 結論 本稿では、全 18 種のトークナイザについて BERT モデルを事前学習し、様々な下流タスクでファインチューニングを行うことで、日本語トークナイザの違いが下流タスクの性能に与える影響について調査した。実験の結果、形態素解析器ありの方がなしよりも、全タスクの性能の平均值において 2.0 ポイント向上することが確認されたが、形態素解析器の違いや単語分かち書き辞書の違いによる性能の向上は見られなかった。また、サブワード分割手法に WordPiece を用いた場合、BPE および Unigram と比較して、性能が 1.0 ポイント低下することが確認された。最後に、トークナイザ辞書の類似性が下流夕スクの性能の差と相関があることを示した。今後は、エンコーダ・デコーダモデルやデコーダモデルにおけるトークナイザが与える影響を調査したい。 ## 謝辞 株式会社日立製作所の清水正明氏には、本研究での実験に活用した大規模計算機資源の維持管理をしていただきました。ここに御礼申し上げます。 ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] T. KUDO. Mecab : Yet another part-of-speech and morphological analyzer. http://mecab.sourceforge.jp, 2006. [3] Yonghui Wu, Mike Schuster, Zhifeng Chen, Quoc V Le, Mohammad Norouzi, Wolfgang Macherey, Maxim Krikun, Yuan Cao, Qin Gao, Klaus Macherey, et al. Google's neural machine translation system: Bridging the gap between human and machine translation. arXiv preprint arXiv:1609.08144, 2016. [4] Arseny Tolmachev, Daisuke Kawahara, and Sadao Kurohashi. Juman++: A morphological analysis toolkit for scriptio continua. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 54-59, Brussels, Belgium, November 2018. Association for Computational Linguistics. [5] Taku Kudo. Subword regularization: Improving neural network translation models with multiple subword candidates. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 66-75, Melbourne, Australia, July 2018. Association for Computational Linguistics. [6] 築地俊平, 新納浩幸. Tokenizer の違いによる日本語 bert モデルの性能評価. 言語処理学会第 27 回年次大会, 2021. [7] 井上誠一, Nguyen Tung, 中町礼文, 李聖哲, 佐藤敏紀.日本語 gpt を用いたトークナイザの影響の調査. 言語処理学会第 28 回年次大会, 2022. [8] 栗原健太郎, 河原大輔, 柴田知秀. Jglue: 日本語言語理解ベンチマーク. 言語処理学会第 28 回年次大会, 2022. [9] 近崇宏江. Wikipediaを用いた日本語の固有表現抽出のデータセットの構築. 言語処理学会第 27 回年次大会, 2021. [10] Takaaki Tanaka, Yusuke Miyao, Masayuki Asahara, Sumire Uematsu, Hiroshi Kanayama, Shinsuke Mori, and Yuji Matsumoto. Universal dependencies for japanese. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC'16), pp. 1651-1658. European Language Resources Association (ELRA), May 2016. [11] 佐藤敏紀, 橋本泰一, 奥村学. 単語分かち書き辞書 mecab-ipadic-neologd の実装と情報検索における効果的な使用方法の検討. 言語処理学会第 23 回年次大会, 2017. [12] Sakamoto Miho, Kawahara Noriko, Hisamoto Sorami, Takaoka Kazuma, and Uchida Yoshitaka. Large scale dictionary development for sudachi. 言語資源活用ワークショップ発表論文集. [13] コーパス日本語学のための言語資源 : 形態素解析用電子化辞書の開発とその応用. 伝康晴 and 小木曽智信 and 小椋秀樹 and 山田篤 and 峯松信明 and 内元清貴 and 小磯花絵. 日本語科学, 第 22 巻, pp. 101-123. [14] 赤部晃一, 神田峻介, 小田悠介, 森信介. Vaporetto: 点予測法に基づく高速な日本語トークナイザ. 言語処理学会第 28 回年次大会, 2022. [15] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, Berlin, Germany, August 2016. Association for Computational Linguistics. [16] Rastislav Hronsky and Emmanuel Keuleers. Does the Choice of a Segmentation Algorithm Affect the Performance of Text Classifiers? Masterpieces of Swiss Entrepreneurship, Swiss SMEs Competing in Global Markets. [17] 佐藤敏紀, 橋本泰一, 奥村学ほか. 単語分かち書き用辞書生成システム neologd の運用-文書分類を例にし乙. 研究報告自然言語処理 (NL), Vol. 2016, No. 15, pp. $1-14,2016$. [18] Timothy Dozat and Christopher D. Manning. Deep biaffine attention for neural dependency parsing. In International Conference on Learning Representations, 2017. [19] Chengyue Gong, Di He, Xu Tan, Tao Qin, Liwei Wang, and Tie-Yan Liu. Frage: Frequency-agnostic word representation. In S. Bengio, H. Wallach, H. Larochelle, K. Grauman, N. Cesa-Bianchi, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 31. Curran Associates, Inc., 2018. [20] Kaj Bostrom and Greg Durrett. Byte pair encoding is suboptimal for language model pretraining. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 4617-4624, Online, November 2020. Association for Computational Linguistics. ## A 付録 ## A. 1 下流タスク 下記に、下流タスクに用いた 7 種類のタスクの説明をする。MARC-ja、JSTS、JNLI、JSQuAD、 JCommonsenseQA は JGLUE ${ }^{10)}$ に含まれており、NER は日本語の固有表現抽出データセット ${ }^{11)} 、$ UD は UD-Japanese-GSD ${ }^{12}$ を用いた。また、各データセットの統計情報を付録の表 3 に示す。 MARC-ja商品レビューを入力としてポジティブ/ネガティブをを推定する 2 值分類タスク。 JSTS 2 文を入力として 5 から 0 の範囲で類似度を推定するタスク。 JNLI 2 文を入力として含意関係を推定する 3 値分類タスク。 JSQuAD コンテキストの中から質問文の回答となる部分を抽出する質問応答タスク。 JCommonsenseQA 質問文に対して 5つの選択肢の中かから 1つを選択する質問応答タスク。 NER (Named Entity Recognition) 1 文の各トークンに対して固有表現タグを割り当てるタスク。 UD (Universal Dependencies) 各トークンに対して主辞となるトークンを当てる構文解析タスク。 表 3 データセット統計情報 ## A. 2 実装 トークナイザの実装には、tokenizers ${ }^{13)}$ を用いた。モデルの実装には、PyTorch ${ }^{14)}$ と transformers ${ }^{15)}$ を用いた。UDは、Deep Biaffine Attention Parser (BAP) [18]を事前学習済みモデルの出力層上に構築し、学習を行った。BAP の実装には、SuPar ${ }^{16)}$ を用いた。実験は NVIDIA Tesla V100 GPU (SXM2 - 32GB)を用い、事前学習では 4 個、ファインチューニングでは 1 個で行った。また、すべての学習を $\mathrm{fp} 16$ でおこなった。AdamW のパラメータは事前学習、ファインチューニング共に Adam $\beta 1$ を 0.9、Adam $\beta 2$ を 0.999、Adam $\epsilon$ を 1e-08 とした。 ## A. 3 サブワード分割手法に WordPiece を用いると性能が低下する原因 サブワード分割手法に WordPiece を用いた場合に性能が低下する理由を考察する。まず、"\#\#"による区別の影響が考えられる。例えば、MeCab・WordPiece の辞書に「田」と「\#\#田」が存在するように、同じ文字でも"\#\#"の有無により 2 回出現する場合があり、辞書に採録できるトークン数が実質的に減るため、[UNK] が増加してしまう。次に、出現頻度による影響が考えられる。「田」と「\#\#田」は出現頻度に差がある。出現頻度の異なるトークンは、言語的意味が類似していても、埋め込み表現の類似度は低くなる [19]。最後に、 デッドゾーンが影響すると考えられる。デッドゾーンとは、辞書内の他の語彙より出現頻度の低いトークンである。これは中国語や日本語の漢字を含む出現頻度の稀な文字 (鰕、魼など) が多数含まれることで生じる [20]。デッドゾーンが多いと、[UNK] が増加してしまう。実際に、MeCabを用いた場合、WordPiece、BPE、 Unigram の順でデッドゾーンが多いことが観測された。上記の統計的解析については、今後の課題としたい。 10) https://github.com/yahoojapan/JGLUE 11) https://github.com/stockmarkteam/ner-wikipedia-dataset 12) https://github.com/UniversalDependencies/UD_Japanese-GSD 13) https://github.com/huggingface/tokenizers 14) https://pytorch.org/ 15) https://github.com/huggingface/transformers 16) https://github.com/yzhangcs/parser
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q6-2.pdf
# 空所化情報を考慮した句構造から依存構造への変換 小林 幹輝 1 加藤 芳秀 2 松原茂樹 1,2 1 名古屋大学大学院 情報学研究科 2 名古屋大学情報連携推進本部 kobayashi.mikiteru.i1@s.mail.nagoya-u.ac.jp ## 概要 構文構造の変換は,異なる表現形式に基づく構文解析器間の性能比較に有用である。しかし,その多くは空所化構文を考慮していない,本論文では,空所化構文を考慮した句構造から依存構造への変換手法を提案する。提案手法では, 相関要素を残余要素で置き換えることにより, 空所化構文において省略された要素の同定, 及び省略された要素と残余要素の間の依存関係を生成する.提案手法を用いて,空所化構文を解析する句構造解析器と依存構造解析器の性能比較実験を行い,本変換手法の有効性を確認した. ## 1 はじめに 構文構造を表現する文法,あるいはアノテーション体系は句構造や依存構造, Combinatory Categorial Grammar(CCG)[1]など様々存在しており,構文解析器の出力結果もそれが基づく文法やアノテーションに応じて異なる. 異なる表現形式を採用する構文解析器間の性能を比較する一つの方法として, 構文構造を変換するアプローチが考えられる.また,ある文法に基づきアノテーションされたコーパスに対して,変換を施すことにより別のアノテーションのコーパスが容易に得られるという観点からも構文構造の変換は有用である. これまでに様々な構文構造変換手法が提案されている $[2,3,4,5,6,7]$. 代表的な句構造コーパスの一つとして Penn Treebank(PTB)[8]が挙げられる. PTB のアノテー ションには句の情報だけでなく, 空所化 (gapping) [9] の情報も含まれている. 空所化とは, 等位構造の等位項において,共通する要素が省略される現象である。例えば, “Stock prices closed higher in Stockholm and lower in Zurich." は, "closed higher in Stockholm" と “lower in Zurich”を等位項とする等位構造であり,後者の等位項は “closed lower in Zurich” から “closed” が省略されたものである.PTBにおいて空所化は,文中における句の対応関係の情報を用いて表現されるが,現在の構文構造変換手法の多くは,この情報を考慮していない. その一因として,PTBに基づく句構造解析器の多くは,空所化の情報を含まない句構造しか出力しないことが挙げられる. しかし近年,空所化の情報を含んだ解析結果を生成する句構造解析器も開発されており, その解析精度も高くなっている [10]. 本論文では,句構造から依存構造への変換において,空所化の情報を考慮した変換手法を提案する.提案手法では,空所化の情報が付与されている PTB の句構造を依存構造へと変換する. 変換後の依存構造は,空所化の情報を反映したものとなっている.提案手法の応用例として, 句構造解析器と依存構造解析器の性能比較実験を行った。 ## 2 PTB から Enhanced UD への変換 本節では,Penn Treebank(PTB)[8] に基づく句構造を, Enhanced Universal Dependencies (EUD) [11] に基づく依存構造へと変換する従来の手法について概説する。まず,PTB 及び EUD において空所化構文がどのように表現されるかについて説明し,次に変換手法について説明する。 ## 2.1 空所化構文 空所化とは,等位接続された句(等位項)に共通する要素が片方の句から省略される現象である.空所化を含む文を空所化構文と呼ぶ. 空所化構文において, 省略の起きている等位項に残された要素を残余要素(remnant)と呼び,もう片方の等位項において残余要素に対応している要素を相関要素 (correlate)と呼ぶ. 空所化構文の例として下記のような文が挙げられる (1) Stock prices closed higher in Stockholm and 図 1 PTBにおける空所化構文の例 図 2 EUDにおける空所化構文の例 $\varnothing$ lower in Zurich. ここで “Ø”は,要素が省略された位置を示している. "closed higher in Stockholm” と "Ø lower in Zurich" が等位項である.右の等位項は,もともと“closed lower in Zurich” であったものが,動詞 “closed” が等位構造内で共通していることから,それが省略されたものとみなすことができる。文(1)において, “lower”と “in Zurich” が残余要素であり,“higher”と “in Stockholm”がそれぞれに対応する相関要素である. ## 2.2 PTB における空所化構文 Penn Treebank(PTB)は句構造に関する代表的なコーパスの一つである. PTB に基づく句構造解析器は多数開発されている. PTBのアノテーション規則に従ったコーパスとして GENIA コーパス [12] や English Web Treebank[13] などがある.以下では,本論文において焦点となる空所化構文について例を用いて説明する。 PTB における句構造の例を図 1 に挙げる。PTB のアノテーションでは,空所化の情報も付与されている. “=”で番号付けられたラベルが残余要素を表す。図 1 の構文木では,“ADVP=1”,及び “PP=2” とラべル付けされているノードをルートとする部分木が残余要素である。対応する相関要素は,“-”で番号づけられている. 図 1 では,“ADVP-1”,及び “PP-2” とラベル付けされているノードをルートとする部分木が相関要素である。“ADVP=1”と “ADVP-1”が, “PP=2”と“PP-2”がそれぞれ対応関係にある。相関要素を残余要素で置き換えることで,“closed lower in Zurich” に対する構文木が得られる。これは,2 番目の等位項 “lower in Zurich” では “closed” が省略されていることを示している. ## 2.3 EUD における空所化構文 Enhanced Universal Dependencies(EUD)[11]は,現在広く用いられている依存構造のアノテーションである Universal Dependencies(UD)[14]を拡張したものである.EUD の依存構造は UD の依存構造への新たな依存関係の追加,及び依存関係の詳細化によって得られ,UD に比べてより詳細に構文構造を表現できる. 文(1)に対する EUD の依存構造を図 2 に示す. EUDでは,残余要素や相関要素をアノテーションするのではなく,空所化により省略された要素を補って依存構造を構成する。例えば文(1)の場合は, “lower in Zurich”に対して省略された“closed”を補う。これにより,等位項 “lower in Zurich” を “closed lower in Zurich”という省略のない句のように扱うことができるため,“prices”を“closed””の主語, “lower”を“closed”” の修飾語といった依存構造として捉えられる。 ## 2.4 PTB から EUD への変換 PTB の句構造から EUD の依存構造への変換手法としては,Schuster らの手法 [11] が存在する。この手法では,PTB から EUDへの変換をパターンマッ Stock prices VBD ADVP-1 PP-2 and $A D V P=1 \quad \mathrm{PP}=2$ Stock prices closed higher in Stockholm and lower in Zurich 残余要素の依存関係の削除(手順2) conj:and Stock prices closed higher in Stockholm and lower in Zurich ## 省略された単語のコピーの作成(手順4)残余要素との依存関係の同定(手順5) Stock prices closed lower in Zurich and lower in Zurich ## 等位構造を表現する 依存関係の削除(手順6 Stock prices closed higher in Stockholm and lower in Zurich 図 3 PTB からEUDへの変換例 チングに基づき実行する.この変換では,空所化の情報については考慮されておらず,空所化構文について正しい EUD の依存構造を得ることはできない. ## 3 提案手法 本節では,空所化情報を考慮した PTB から EUD への変換手法を提案する. 本手法では, 各相関要素をそれに対応する残余要素で置き換えることにより,空所化構文の等位項における省略された単語を同定し,依存構造を構成する. 提案手法では,句構造 $P$ を以下の手順により EUD の依存構造 $E$ へと変換する. 以下では,従来手法 [11]による PTB の句構造から EUD の依存構造への変換を,PTB2EUDと表記する. 1. 句構造 $P$ を PTB2EUDにより依存構造 $E_{\text {-gapping }}$ に変換する。 2. E-gapping から残余要素に関連する依存関係を取り除く。 3. 各相関要素を対応する残余要素で置き換え,結果として得られた句構造を PTB2EUD により依存構造 $E^{\prime}$ に変換する 4. $E^{\prime}$ 及び残余要素の情報に基づき省略された単語を同定し,それらの単語のコピーを作成する。 5. $E^{\prime}$ の情報に基づき,コピーした単語と残余要素間の依存関係を同定する.その結果を $E_{\text {gapping }}$ とする。 6. $E_{\text {-gapping }}$ から空所化構文の等位構造を表現する依存関係を削除する。E Eapping の依存構造から等位項の head を決定し直し,その情報に基づき,削除した等位構造を表現する依存関係を 7. コピー元にのみ nsubj が存在する場合,それをコピー元の nsubj とする. nsubj 以外の core 表 1 実験結果 argument についても同様の処理を行う. 8. $E=E_{\text {gapping }} \cup E_{\text {-gapping }}$ 図 3 に変換の例を示す. 手順 1 では, 句構造 $P$ から EUD の依存構造を従来の手法により求める。これにより,残余要素に関連しない依存関係については,従来手法に従うことになる. 従来手法は空所化の情報を考慮していないので,手順 2 で残余要素に関連する依存関係を取り除く。手順 3 で得られる依存構造 $E^{\prime}$ は元の文の依存構造ではないが,これを元に,省略された単語や残余要素に関連する依存関係が同定される,手順 4 は,空所化構文における省略された単語を,PTB の空所化の情報に従って求める処理である. 手順 5 によって,相関要素を含む等位項の head が変わる場合があるので,手順 6 において,変更された head に基づき等位構造の依存関係を付け直す. 手順 7 は項が共有されている場合のための処理である. 以上の手順によって,PTB から EUDへ変換する際,PTB の空所化の情報に従って変換することができる. ## 4 評価実験 提案手法の応用例として,空所化構文を解析できる PTB に基づく句構造解析器と, 依存構造解析器の性能比較実験を行った. PTB に基づく句構造解析器の解析結果を提案手法によって依存構造へ変換し,解析精度を依存構造ベースの評価尺度で評価した。依存構造解析器についても同じ評価尺度で評価し, それらを比較した. 本実験は Schuster ら [15] の空所化構文の解析実験を参考とした. データセットには,Schuster らと同様のものを用いた。これは,(1) UD English Web Treebank v2.1 の 16,622 文と, (2) PTB や GENIA コーパス, Wikipedia の Gapping のページから集めた空所化を含むデータ 322 文に人手でアノテーション1)を付与したデータ2) からなる. 実験における句構造解析には Kato らの手法 [10] を,依存構造解析には Schuster らの手法 [15] を用いる。句  構造解析器の学習には, Schuster らの論文に対応する EWT のデータを用いた。提案手法における PTB から EUDへの変換には,Stanford CoreNLP4.4.03)を使用した。解析性能の評価では,コピーした単語を head とする依存関係を評価する. テストデータを用いて,依存関係の head 及び dependent の位置を組としたときの適合率・再現率(UP,UR),それに加えて,その依存関係の種類が正しいかどうか(LP, LR)を評価する。 表 1 に実験結果を示す. Kato らの手法は全ての指標において Schuster らの手法を上回る結果となった.このことから,Kato らの手法の方が空所化構文に対する解析性能が高いことがわかる. このように提案手法を用いて変換を行うことで,句構造解析結果と依存構造解析結果を比較し, 性能比較を行うことが可能となることが確認できた。 ## 5 おわりに 本論文では,句構造から依存構造への変換において,空所化の情報を考慮した変換手法を提案した。空所化の情報を用いることで,PTB から EUDへの変換において,省略された要素の同定,及び省略された要素と残余要素の間の依存関係を生成した。また,提案手法を用いて,空所化構文を解析する句構造解析器と依存構造解析器の性能比較実験を行い,空所化情報を考慮した性能比較が可能であることを確認した。  ## 謝辞 本研究は,一部,科学研究費補助金基盤研究(C) (No. 22K12148)により実施したものである. ## 参考文献 [1] Mark Steedman. The Syntactic Process. The MIT press, 2001. [2] Marie-Catherine de Marneffe, Bill MacCartney, and Christopher D. Manning. Generating typed dependency parses from phrase structure parses. In Proceedings of the 5th International Conference on Language Resources and Evaluation (LREC 2006), 2006. [3] Jinho Choi and Martha Palmer. Guidelines for the clear style constituent to dependency conversion. Technical report, Technical report 01-12: Institute of Cognitive Science, University of Colorado Boulder, 2012. [4] Xiaotian Zhang, Hai Zhao, and Cong Hui. A machine learning approach to convert CCGbank to Penn Treebank. In Proceedings of the 24th International Conference on Computational Linguistics: Demonstration Papers (COLING 2012), pp. 535-542, 2012. [5] Jonathan K. Kummerfeld, Dan Klein, and James R. Curran. Robust conversion of CCG derivations to phrase structure trees. In Proceedings of the 50th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers) (ACL 2012), pp. 105-109, 2012. [6] Lingpeng Kong, Alexander M. Rush, and Noah A. Smith. Transforming dependencies into phrase structures. In Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT 2015), pp. 788-798, 2015. [7] Young-Suk Lee and Zhiguo Wang. Language independent dependency to constituent tree conversion. In Proceedings of the 26th International Conference on Computational Linguistics: Technical Papers (COLING 2016), pp. 421-428, 2016. [8] Mitchell P. Marcus, Beatrice Santorini, and Mary Ann Marcinkiewicz. Building a large annotated corpus of English: The Penn Treebank. Computational Linguistics, Vol. 19, No. 2, pp. 313-330, 1993. [9] John Robert Ross. GAPPING AND THE ORDER OF CONSTITUENTS, pp. 249-259. De Gruyter Mouton, 1970. [10] Yoshihide Kato and Shigeki Matsubara. Parsing gapping constructions based on grammatical and semantic roles. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP 2020), pp. 2747-2752. Association for Computational Linguistics, 2020. [11] Sebastian Schuster and Christopher D. Manning. Enhanced English Universal Dependencies: An improved representation for natural language understanding tasks. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC 2016), pp. 2371-2378, 2016. [12] Jin-Dong Kim, Tomoko Ohta, Yuka Tateisi, and Jun'ichi Tsujii. Genia corpus-a semantically annotated corpus for bio-textmining. Bioinformatics, Vol. 19 Suppl 1, pp. i180-182, 2003 . [13] Ann Bies, Justin Mott, Colin Warner, and Seth Kulick. English web treebank. Technical report, LDC2012T13, Linguistic Data Consortium, 2012. [14] Joakim Nivre, Marie-Catherine de Marneffe, Filip Ginter, Jan Hajič, Christopher D. Manning, Sampo Pyysalo, Sebastian Schuster, Francis Tyers, and Daniel Zeman. Universal Dependencies v2: An evergrowing multilingual treebank collection. In Proceedings of the 12th Language Resources and Evaluation Conference (LREC 2020), pp. 4034-4043, 2020. [15] Sebastian Schuster, Joakim Nivre, and Christopher D. Manning. Sentences with gapping: Parsing and reconstructing elided predicates. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT 2018), pp. 11561168, 2018.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q6-3.pdf
# 対称的な系列集合を用いた教師なし構文解析モデルの 分岐バイアスの検証 石井太河 1 宮尾祐介 ${ }^{1}$ 1 東京大学 \{taigarana,yusuke\}@is.s.u-tokyo.ac.jp ## 概要 本研究は,教師なし構文解析モデルの潜在的な分岐バイアスを分析することを目的とする.分岐バイアスとは,構文解析モデルが学習・出力しやすい木構造の偏りであり,分析する上では,まず学習デー タの分岐情報の偏りを明確にすることが重要である.しかしながら,教師なし学習の設定では,学習データは系列の集合のみであり,木構造は直接与えられないため,分岐情報の制御が困難である. そこで,本研究では,分岐情報の偏りの無い対称的な系列集合を用いて学習を行い,モデルの出力木構造の偏りを分析する。人工データを用いた実験の結果, モデルによって異なる分岐バイアスが確認された。 ## 1 はじめに 本研究は,教師なし構文解析モデルが「潜在的な分岐バイアスを持たない」ための必要条件を検証することを目的とする。 教師なし構文解析とは,テキスト(系列の集合) のみから,その背後にある木構造を出力するというタスクであり,低資源言語への対応や認知的・言語学的な視点から研究されてきた $[1,2,3,4,5]$. 分岐バイアスとは,構文解析モデルが学習・出力しやすい木構造に偏りがあることを指す.特に,木構造が右に深いときを右分岐,左に深いときを左分岐と言う (図1下部)。ときに,構文解析モデルが分岐バイアスを持つことは望ましくない。というのも,モデルがある種の構造のみを学習しやすいということは,他の構造を持つ言語への適用性が下がることを意味するからである.例えば,英語は右分岐な言語として知られるが,日本語は左分岐とされる. 右分岐バイアスを持つモデルは英語に対する精度が高くなりやすい一方で,日本語に関しては精度が低くなりやすい。実際に,Li ら [6] は,言語によ ## 対称的な系列集合 "a b c" "b c d" 教師なし構文解析モデルを学習 ## 導出する木構造 左右の分岐の偏りは生じるか ? 図 1 本研究の概要図 り高精度となるモデルが異なることを報告しており,モデルが分岐バイアスを持つことが示唆されている.以上のように,潜在的な分岐バイアスはモデルのある種の「アドホックさ」として考えられ,モデルの分岐バイアスを分析することは重要である. そこで,本研究では,分岐の偏りの無い対称的な系列集合を学習データに用いる分析手法を提案する (図1)。これにより,学習の結果,モデルの導出する構造に偏りが生じる場合は,モデルそのものに分岐バイアスが内在することを示すことが可能となる。また,データセット中の系列の頻度を調整することで,対称性がくずれた場合のモデルの挙動についても分析を行う. ## 2 既存の分岐バイアス分析の問題点 教師なし構文解析において,モデルの潜在的な分岐バイアスを分析することは簡単ではない.というのも,分析を行う上では,「モデルそのもののバイアス」と「モデルがデータから学習したバイアス」 の2つを分離する必要があり,このためには学習データに含まれる情報を制御することが重要である. しかし, 教師なし構文解析において学習データは系列の集合のみであり,木構造を明示的に制御することができない. 既存のバイアス分析は 3 つのアプローチに大別されるが,それぞれに問題点がある。 ## 2.1 アーキテクチャ固有の分析 例えば,Dyer ら [7]により,PRPN [8] というモデルが右分岐バイアスを持つことが数学的に証明されている.しかしながら, Dyer ら [7] の手法は PRPN モデルに特化したものであり,任意のモデルに対して理論的分析を行うことは困難である. ## 2.2 自然言語を用いた分析 構文解析においては,モデルを評価する際に複数の異なる言語のコーパス $[9,10]$ を用いることが一般的であるが,言語間の差異は木構造の分岐の偏りに限らないため,分岐バイアスのみを評価することは難しい.そこで, $\mathrm{Li}$ ら [11] は,自然言語コーパス $D$ と $D$ 中の各系列を反転させたコーパス $D^{-1}$ のそれぞれでモデルを学習させ,その精度の差を見ることで分岐バイアスの分析を行った. これにより, 語順のみが異なり木構造の分岐が逆であるデータセットによる評価が可能となる。しかし, 依然として, 自然言語データは意味的にも複雑であり, 語順の異なる元の系列と反転した系列の差が厳密に木構造の差だけであるかは明らかではない. ## 2.3 形式言語を用いた分析 Jin 5 [12] は,左・右分岐な文脈自由文法で生成された言語を用いて分岐バイアスを分析している. しかし,左分岐な文法で生成される言語を右分岐の異なる文法で生成することも可能であるため, 文法そのものの分岐によって系列の集合の分岐情報を制御することが可能かどうかは自明ではない. ${ }^{1)}$ ## 3 対称的な系列集合を用いた分析 上述の問題点に対応するため, 本研究では,分岐情報の偏りのない対称的な系列集合を人工的に構成し, それを学習データとすることを提案する.これにより,「モデルがデータから学習するバイアス」 を制御し,「モデルそのものの分岐バイアス」のみ $ に具体例を付す。 } を分析できることが期待される. データセットを構成するにあたり,本研究では, コーパスレベルと系列レベルの 2 つのレベルの対称性について着目する。 $V$ を有限な語彙として,これらは以下のように定義される。 定義 1 系列集合 $D \subseteq V^{*}$ がコーパスレベル対称であるとは, 語彙上の全単射 $\phi: V \rightarrow V$ が存在して, $\phi\left(D^{-1}\right)=D$ を満たすことを言う. ここで, $D^{-1}$ は系列集合 $D$ 中の系列を全て反転させたものであり, $\phi\left(D^{-1}\right)$ は系列集合中の語彙を全て $\phi$ によって置換したものを表す。 定義 2 系列集合 $D \subseteq V^{*}$ が系列レベル対称であるとは, $\forall s \in D . s=s^{-1}$ を満たすことである.ここで, $s^{-1}$ は系列 $s$ の反転である. 系列レベル対称性は文字通りコーパス中の各系列が逆から読んでも同一であることを意味する.一方で,コーパスレベル対称性はコーパス中の語彙が反転に対して対称的であることを意味する. また,系列レベル対称性よりも条件が緩く,コー パス中の各系列が対称である必要はない. ${ }^{2}$ 例えば,以下の 3 つの系列集合 $x_{0} \equiv\{“ a b b a ", " b c c b "\}$, $x_{1} \equiv\{" a b c ", " b c d "\}, x_{2} \equiv\{“ a b ", " a c "\}$ に関して, $x_{0}$ は系列レベル対称である, $x_{1}$ は系列レベル対称ではないが, $\phi: a \mapsto d, b \mapsto c, c \mapsto b, d \mapsto a$ の対応によりコーパスレベル対称である。一方, $x_{2}$ はコーパスレベル対称でもない. ## 4 実験設定 ## 4.1 データセットの構成 本研究では,実験にあたり 2 種の対称的な系列集合を構成する. さらに,系列の出現頻度による影響も分析するため,頻度分布の異なるデータセットも生成する. ## 4.1.1コーパスレベル対称なデータセット まず,系列レベルでは対称でないがコーパスレべルで対称なデータセット $D_{\text {corpus }}$ を構成する. できるだけシンプルな構成にするために,テストデータは $L$ 個の異なる要素からなる 1 つの系列 $s^{\text {test }}$ とし, 2)例えば, $D^{-1}=D や \phi\left(s^{-1}\right)=s$ のように,今回扱った 2 つのレベルの対称性の間に中間的な強さの対称性を考えることもできるが,今回は簡単のため扱わないこととする. 学習データはテストデータの $M$-gram 系列の集合とする.具体的には,以下のように定式化される: $ \begin{aligned} s^{\text {test }} & \equiv “ v_{0} v_{1} \ldots v_{L-1} "\left(\forall i, j \cdot v_{i} \neq v_{j}\right) \\ S_{M} & \equiv\left.\{s_{i: i+M}^{\text {test }} \mid i=0, \ldots, L-M\right.\} \\ D_{\text {corpus }} & \equiv \operatorname{upsample}\left(S_{M}, N, w\right) \end{aligned} $ ここで, $S_{M}$ は置換 $\phi\left(v_{i}\right)=v_{L-1-i}$ により対称であり, upsample は全体が $N$ 個のデータになるように重み $w$ を元にアップサンプルする処理である. 学習データセット中の系列の頻度制御のため, アップサンプルの際に各 $M$-gram 系列 $s_{i: i+M}^{\text {test }}$ に対し,以下のように $i$ に関して線型な重み付けを行う :3) $ w_{i} \equiv 1+\alpha \cdot\left(i-\frac{L-M}{2}\right) $ 例えば, $\alpha=0$ のときは頻度分布は一様であるが, $\alpha$ が大きくなると, 右側の $M$-gram 系列は増加し, 左側のものは減少する。 実験においては, $N=3000$ とし, $L \in\{10,20\}$, $M \in\{2,5,8\}$, 右端の $M$-gram の重みが $w_{L-M} \in$ $\{0.2,0.6,1.0,1.4,1.8\}$ となるような $\alpha$ の全ての組み合わせについて実験を行った。 ## 4.1.2 系列レベル対称なデータセット 次に系列対称なデータセット $D_{\mathrm{seq}}$ を構成する. 具体的には,上で定義した $D_{\text {corpus }}$ の各系列 $s$ に反転 $s^{-1}$ を結合することによって生成する: $D_{\text {seq }} \equiv\left.\{s \cdot s^{-1} \mid s \in D_{\text {corpus }}\right.\} \cdot{ }^{4)}$ なお, $D_{\text {seq }}$ は元となる $D_{\text {corpus }}$ に対して系列長が 2 倍になるため, 実験においては $L \in\{5,10\}$, $M \in\{1,2,4\}$ として元の $D_{\text {corpus }}$ を生成することで系列長を同程度にした。 ## 4.2 分析対象のモデル 本研究では,教師なし構文解析において代表的である,DIORA [13],PRPN [8], URNNG [14]の 3 つのモデルを分析対象とする. DIORA はチャートベー スの再帰的なオートエンコーダであり,PRPN はゲート機構を用いることで言語モデリングの際に構造を明示的に学習するモデルである. URNNG は遷移型のモデルであり,言語モデリングの際に明示的に再帰的な木構造をモデル化する RNNG [15] の教師なし版である。なお,これら 3 つのモデルの出力は二分木となっている. 3)頻度分布が一様でない場合, $D_{\text {corpus }}$ の対称性は崩れる. 4) $D_{\text {corpus }}$ と異なり, $D_{\mathrm{seq}}$ は頻度分布に偏りがあっても対称性は崩れない.本研究で使用するデータセットの語彙が小さいことと計算量の問題から,学習にあたりモデルのハイパーパラメータはデフォルトのものより次元数を小さいものを使用した. ${ }^{5}$ 実験においては,各モデルを 30 個の異なるランダムシードで最大 30 エポックずつ学習を行い,平均的な振る舞いを分析する. ## 4.3 評価指標 本研究では,モデルの精度ではなく分岐バイアスの分析を目的とするため,系列の正解構造を仮定せずにモデルの導出する木構造の形を直接評価する.木構造の評価指標は様々あるが [16], 既存の指標である Corrected Colles index に加え,本研究で提案する Left leaf proportion の 2 つの指標を用いる. Colles index Corrected Colles index [17] は, 左右の部分木の葉数の差で二分木の均衡さを表す指標であり,以下のように定義される: $ \operatorname{Colles}(T) \equiv \frac{2}{(n-1)(n-2)} \sum_{v \in T}\left|n_{v_{\mathrm{L}}}-n_{v_{\mathrm{R}}}\right| $ ここで, $v \in T$ は $T$ のノードであり $, n_{v_{\mathrm{L}}}, n_{v_{\mathrm{R}}}$ はそれぞれ $v$ の左右の部分木の葉数である. Colles $(T)$ は木が不均衡であるほど 0 から 1 に近づく. Left leaf proportion $\operatorname{Colles}(T)$ では,木が具体的に左右のどちらに分岐しているのかは明らかでない. そこで,本研究では,「左の子となる葉が多いほど,木は右に分岐が深い」という直感の元,以下のような指標 Left leaf proportion(LLP)を用いる: $ \operatorname{LLP}(T) \equiv \frac{l_{T}-1}{n_{T}-2} . $ ここで, $n_{T}$ は $T$ 葉数, $l_{T}$ は葉のうち左の子になっているものの数であり,LLP $(T)$ は右分岐であるほど 0 から 1 に近づく.また,系列の両端はかならず左・右の子になるためカウントから除外している. ## 5 結果と議論 データセットによってやや異なる結果が観察されたが,ここでは代表的な傾向の分かる $D_{\text {corpus }}$ ( $L=20, M=8)$ と $D_{\text {seq }}(L=5, M=2)$ の結果をそれぞれ図 2と図 3に示す. ${ }^{6}$ ## 5.1 分岐バイアスの検出 まず, $w_{L-M}=1$ の頻度分布の偏りの無い設定での結果を分析する。 5)詳細は付録 B に記載した。 6)その他の結果の抜粋を付録 C に記載する. 図 2 コーパスレベル対象なデータセット $D_{\text {corpus }}$ ( $L=20, M=8 )$ での結果. エラーバーは標準誤差を示す. LLPPRPN はどの設定でもLLP $>0.5$ となり,右分岐バイアスが確認される. DIORAに関しては,どの設定でも LLP $\approx 0.5$ であり,分岐バイアスを持たない必要条件を概ね満たしていると言える。一方, URNNG はデータセットによって異なる傾向が観察された。例えば,図 2上部にあるように, $D_{\text {corpus }}$ ではどの設定でも右分岐な傾向が見られるが,一部の $D_{\mathrm{seq}}$ ではバイアス無し,あるいは左分岐(図 3下部) な傾向も見られ, URNNG が分岐バイアスを持つものの,左右の偏りはデータセットによって変化しうるということが明らかになった。 Colles index Colles index 関しては, URNNG は他のモデルに比べ,どのデータセットでも相対的に高く木構造の偏りが強いことが確認される。一方で,DIORA と PRPNに関しては,相対的な差がデー タセットによって異なることが観察された. LLP での相対的な差と異なっているのは,LLP と違い Colles index は木の根に近い部分の分岐ほど強い影響を受ける [18] ことが関係していると考えられる。 ## 5.2 頻度分布の影響 PRPN と DIORA は頻度分布の偏りによって対称性が崩れる $D_{\text {corpus }}$ においても,結果に大きな影響が見られない(図 2)。一方で,URNNG は系列の頻度に強く影響されることがわかる.例えば,図 2では LLP,Colles index ともに右肩下がりになっている. ただし,同じ $D_{\text {corpus }}$ であっても,設定によっては,右肩上がりな傾向も見られ,変化の方向性に関しては統一的な結論を下せない。また,頻度分布に偏りがあっても対称性が保持される $D_{\mathrm{seq}}$ であっても,URNNG の挙動が大きく変わること(図 3)は, 図 3 系列レベル対象なデータセット $D_{\mathrm{seq}}(L=5, M=2)$ での結果. エラーバーは標準誤差を示す. URNNG がデータセットの分岐情報の偏りではない要素に対して不安定なのではないかと推測される. ## 5.3 先行研究の結果との比較 PRPN の右分岐バイアスは Dyer ら [7] によって数学的に証明されており,今回の実験ではこれと無矛盾な結果が得られたため,本研究の分析法の妥当性が支持される。また,Li ら [6] は,URNNG,PRPN は英語データセットで高精度である一方,日本語データセットでは DIORA が高精度であることが報告している.多くの設定で右分岐バイアスを持つ URNNG や PRPN と比較して, DIORA は分岐バイアスを持たない傾向があることが精度の差の要因ではないかと推測される。 ## 6 結論と今後の展望 本研究では,分岐情報の偏りの無い対称的な系列集合を構成することで,PRPN や URNNG といったモデルが分岐バイアスを持つことを検証できた。そして,いずれのデータセットでも目立った分岐バイアスを示さなかった DIORA は「分岐バイアスを持たない」ことの必要条件を満たしていると言える。 より詳細に分岐バイアスを分析するには,性質の異なる系列集合を網羅的に構成したり,分析をモデル固有のものへまで拡張することが必要になる。 また,本研究では,頻度分布の偏りによって対称性を崩した場合の実験も行ったが,この操作により分岐情報にどの程度偏りが生じたのかは明らかではない,今後,教師なし構文解析モデルを分析する上では,系列集合そのものに対して分岐の偏りを定義・測定することが重要な課題になる. ## 謝辞 本研究は,JST,CREST,JPMJCR2114 の支援を受 けたものです. ## 参考文献 [1] Menno van Zaanen. ABL: Alignment-Based Learning. In COLING 2000 Volume 2: The 18th International Conference on Computational Linguistics, 2000. [2] Yoav Seginer. Fast Unsupervised Incremental Parsing. In Proceedings of the 45th Annual Meeting of the Association of Computational Linguistics, pp. 384-391, Prague, Czech Republic, June 2007. Association for Computational Linguistics. [3] Dan Klein and Christopher D. Manning. A Generative Constituent-Context Model for Improved Grammar Induction. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 128-135, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [4] Steven Cao, Nikita Kitaev, and Dan Klein. Unsupervised Parsing via Constituency Tests. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 4798-4808, Online, November 2020. Association for Computational Linguistics. [5] Kewei Tu, Yong Jiang, Wenjuan Han, and Yanpeng Zhao. Unsupervised Natural Language Parsing (Introductory Tutorial). In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Tutorial Abstracts, pp. 1-5, online, April 2021. Association for Computational Linguistics. [6] Jun Li, Yifan Cao, Jiong Cai, Yong Jiang, and Kewei Tu. An Empirical Comparison of Unsupervised Constituency Parsing Methods. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 3278-3283, Online, July 2020. Association for Computational Linguistics. [7] Chris Dyer, Gábor Melis, and Phil Blunsom. A Critical Analysis of Biased Parsers in Unsupervised Parsing. arXiv:1909.09428 [cs], September 2019. [8] Yikang Shen, Zhouhan Lin, Chin-wei Huang, and Aaron Courville. Neural Language Modeling by Jointly Learning Syntax and Lexicon. In International Conference on Learning Representations, February 2018. [9] Mitchell P. Marcus, Beatrice Santorini, and Mary Ann Marcinkiewicz. Building a Large Annotated Corpus of English: The Penn Treebank. Computational Linguistics, Vol. 19, No. 2, pp. 313-330, 1993. [10] Alastair Butler, Zhu Hong, Tomoko Hotta, Ruriko Otomo, Kei Yoshimoto, and Zhen Zhou. Keyaki treebank: phrase structure with functional information for japanese. In Proceedings of Text Annotation Workshop, p. 41, 2012. [11] Huayang Li, Lemao Liu, Guoping Huang, and Shuming Shi. On the Branching Bias of Syntax Extracted from Pre-trained Language Models. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 4473-4478, Online, November 2020. Association for Computational Linguistics. [12] Lifeng Jin, Finale Doshi-Velez, Timothy Miller, William Schuler, and Lane Schwartz. Unsupervised Grammar Induction with Depth-bounded PCFG. Transactions of the Association for Computational Linguistics, Vol. 6, pp. 211-224, 2018. [13] Andrew Drozdov, Patrick Verga, Mohit Yadav, Mohit Iyyer, and Andrew McCallum. Unsupervised Latent Tree Induction with Deep Inside-Outside Recursive AutoEncoders. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 1129-1141, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [14] Yoon Kim, Alexander Rush, Lei Yu, Adhiguna Kuncoro, Chris Dyer, and Gábor Melis. Unsupervised Recurrent Neural Network Grammars. In Proceedings of the $\mathbf{2 0 1 9}$ Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 1105-1117, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [15] Chris Dyer, Adhiguna Kuncoro, Miguel Ballesteros, and Noah A. Smith. Recurrent Neural Network Grammars. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 199-209, San Diego, California, June 2016. Association for Computational Linguistics. [16] Mareike Fischer, Lina Herbst, Sophie Kersting, Luise Kühn, and Kristina Wicke. Tree balance indices: A comprehensive survey, September 2021. [17] Stephen B. Heard. Patterns in Tree Balance Among Cladistic, Phenetic, and Randomly Generated Phylogenetic Trees. Evolution, Vol. 46, No. 6, pp. 1818-1826, 1992. [18] Mark Kirxpatrick and Montgomery Slatkin. Searching for Evolutionary Patterns in the Shape of a Phylogenetic Tree. Evolution, Vol. 47, No. 4, pp. 1171-1181, 1993. ## A 文脈自由文法による系列の構造 の特徵づけの難しさ ここでは,Jin ら [12] が分岐バイアスを分析するのに使用した左分岐な文脈自由文法で定まる言語が右分岐な文脈自由文法で表現できることを示す. Jin ら [12] の例は以下のような左分岐の確率文脈自由文法で記述される: $ S \xrightarrow{1} X, X \xrightarrow{p} X Y, X \xrightarrow{1-p} a, Y \xrightarrow{1} b . $ これに対し,以下のような右分岐の確率文脈自由文法を考える: $ S \xrightarrow{1} X, X \xrightarrow{q} a Y, X \xrightarrow{1-q} a, Y \xrightarrow{r} b Y, Y \xrightarrow{1-r} b . $ これらは両者とも言語 $\left.\{a \cdot b^{n} \mid n \in \mathbb{N}\right.\}$ を表現する. さらに, $q=r=p$ とすると,系列 $a \cdot b^{n}$ を生成する確率は両者とも $(1-p) \cdot p^{n}$ となる. ## B モデルの学習設定 ここでは,本研究の分析対象となるモデルのハイパーパラメータや学習設定について述べる. DIORA max_epoch $=30$, hidden_dim $=50$ とし,それ以外は著者実装7)のデフォルト値のままである。 また, DIORAはデフォルトで事前学習済み単語埋め込みを使用する設定であるので,本研究で人工デー タで実験する際には one-hot 埋め込みを使用した. PRPN epochs $=30$, emsize $=25$, nhid $=50$ とし,それ以外は著者実装8) の教師なし構文解析用のデフォルト值のままである. URNNG num_epochs $=30$, w_dim $=50$, h_dim $=$ 50, q_dim $=50$ とし, それ以外は著者実装9) の教師なし構文解析用のデフォルト値のままである. また,著者実装において URNNG は validation データセットを使用しているが,本研究では学習データの情報をコントロールするため,validation データセットを使用しないように修正を加えた. さらに,上記のモデルのいずれにも, backpropagationを行う際の損失のエポック間の差が $1.0 \times 10^{-5}$以下になった時点で収束したと判定し,学習を停止した. ## C その他の実験結果 ここでは,本文に記載していない他の設定での結果を抜粋して掲載する。 7) https://github.com/iesl/diora 8) https://github.com/yikangshen/PRPN 9) https://github.com/harvardnlp/urnng 図4コーパスレベル対象なデータセット $D_{\text {corpus }}$ $(L=10, M=8)$ での結果. エラーバーは標準誤差を示す. 図 5 コーパスレベル対象なデータセット $D_{\text {corpus }}$ $(L=20, M=2)$ での結果. エラーバーは標準誤差を示す. 図6 系列レベル対象なデータセット $D_{\mathrm{seq}}(L=10, M=4)$ での結果. エラーバーは標準誤差を示す.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q6-4.pdf
# 転移学習における強化学習を用いた 効率的なトークナイザとモデルの同時学習 平子潤 1 柴田知秀 2 1 名古屋大学大学院 2 ヤフー株式会社 hirako.jun@g.mbox.nagoya-u.ac.jp tomshiba@yahoo-corp.jp ## 概要 文をトークンの系列に分割するトークナイズは、言語処理の最初で行われる重要なステップである。本研究では、転移学習において、より計算コストの増加が小さい、効率的なトークナイザとモデルの同時学習手法を提案する。提案手法は、トークナイズ確率を方策、負のモデルロスを報酬とした強化学習によりトークナイザを学習する。実験の結果、提案手法は既存手法よりも高い性能を達成し、また、計算時間を削減できたことを確認した。 ## 1 はじめに 文をトークンの系列に分割するトークナイズは、言語処理の最初で行われる重要なステップである。特に日本語のような単語が空白で区切られていない言語では、適切な単位にトークナイズすることが重要となっている。一般に、トークナイザはモデルとは独立に事前に定義して、モデルの学習・推論時は固定することが一般的であり、タスクに最適なトー クナイザである保証はない。 この問題に対して、平岡らはモデルの学習と同時にトークナイザの学習も行う手法を提案している [1]。この手法の基本的な考えは、いくつかのトー クナイズ結果を出力し、タスクがうまく解けるようなトークナイズ結果の確率が高くなるように、トー クナイザを学習することである。モデルを学習するための入力に加えて、トークナイザを学習するために $N$ 回 ${ }^{1)}$ モデルにトークナイズ結果を通す必要があり、比較的計算コストが大きい手法となっている。 この手法は転移学習以前の手法において有効性が検証されており、BERT [2]などの転移学習モデルに適用する、というのは自然な考えであるが、事前学習時からトークナイザを同時学習することは計算コス トの観点から難しい。 この問題を解決するため、本研究では、転移学習にも適用できるように、より計算コストの増加が小さい、効率的なトークナイザとモデルの同時学習手法を提案する。提案手法は、強化学習における方策勾配法を用い、トークナイズ確率を方策、負のモデルロスを報酬とし、報酬を最大化、つまりモデルのロスを最小化するようにトークナイザの学習を行う。具体的には、1-best tokenize した結果と、 sampling tokenize した結果を比較し、前者をモデルに入力した時のモデルのロスに比べ、後者をモデルに入力した時のモデルのロスが小さければ、後者のトークナイズ確率が大きくなるようにトークナイザを学習する。先に述べた平岡ら手法と提案手法の概要を図 1 に示す。どちらの手法もモデルの学習には sampling tokenize の結果を用いる点では同一である (それぞれの手法の図における右側) が、トークナイザの学習に用いるトークナイズが、平岡ら手法では N-best であるのに対し、提案手法では 1-best一つのみであるため、平岡ら手法に比べて計算量を大きく削減することができる。 日本語言語理解ベンチマークで評価を行い、提案手法が比較手法よりも精度が高いことを示し、また、平岡ら手法を事前学習にも適用した手法よりも計算時間を 50\%以下に改善できることを確認した。 ## 2 提案手法 提案手法では、事前学習を行ってからファインチューニングを行う転移学習において、モデルとトークナイザを同時に学習する。計算コストが大きい事前学習に対して適用するために、強化学習を用いた定式化を行う。 1) 実験では $\mathrm{N}=3$ などの值が用いられている。 平岡ら (2021) 提案手法 図 1 提案手法 (右) と平岡ら手法 (左) の概要 (実線は計算グラフを構築し、誤差逆伝播を行うパスであることを示す) ## 2.1 トークナイザ 学習可能なトークナイザとして、平岡らと同様にニューラルユニグラム言語モデルを用いたトークナイザを利用する。このトークナイザでは、まず、語彙中の各トークンにスコア score $_{t}$ を割り当てにの値を学習する)、単語横断的に softmax をとることでユニグラム確率 $p(t)$ を計算する。 文 $S$ が $s=\left(t_{1}, \ldots, t_{k}, \ldots, t_{K}\right)(K$ はトークン数) に分割されるとき、このように分割される確率 $p(s)$ はトークン列 $s$ に含まれるトークン $t_{k}$ のユニグラム確率の積で計算する。 本研究では、このユニグラム言語モデルを用いたトークナイザで、1-best tokenize と sampling tokenize の 2 つのトークナイズ結果を使用し、これらの 2 つのトークナイズ結果それぞれをモデルに入力した時のロスを比較しながらトークナイザを学習する。1-best tokenize と sampling tokenize を行うための、n-best tokenize は文 $S$ に含まれる、あらゆるユニグラム確率 $p(t)$ に対して Forward-DP Backward-A*アルゴリズム [3] を適用することで計算する。 ## 2.2 モデルとトークナイザの同時学習 モデルの学習では、直接的な教師が存在する一方で、トークナイザには直接的な教師が存在せず、適切に教師を設定する必要がある。そこで、タスクにおけるモデルのロスをトークナイザの間接的な教師とし、モデルのロスが小さくなるような単語分割を おこなうようにトークナイザを学習する。トークナイザからモデルへのパスは微分不可能であるため、強化学習を用いてトークナイザを学習する。 ## 2.2.1 強化学習の枠組み 強化学習の枠組みとして、文生成タスクに使われている強化学習アルゴリズム Self-critical Sequence Training for Image Captioning (SCST) [4] をべースとする。SCST は REINFORCE アルゴリズム [5]をベースとし、単語生成確率を方策、生成された文に対するスコアを報酬とする。greedy に生成した文の報酬と sampling して生成した文の報酬を比べ、後者の方が高ければ sampling した単語の生成確率を高めるように学習される。 提案手法では SCST における greedy に生成した文の代わりに 1-best tokenize した文 $s_{*}$ s sampling で生成した文の代わりに sampling tokenize した文 $s_{s}$ を利用し、報酬としては負のモデルのロスを利用する2)。 $s_{*}$ ならびに $s_{s}$ をモデルに入力した時のロスの大きさを比較し、 $s_{*}$ のモデルロスに比べて $s_{s}$ のモデルロスが小さければ、sampling tokenize で得られたトークナイズ結果の方がモデルがタスクを解きやすいということになるので、サンプリング系列のトークナイズ確率を上げるように、トークナイザを学習する。ここでモデルとは事前学習時はマスク言 2) 提案手法では SCST のように時系列にそって行動 (単語の生成)を選択するわけではなく、一度行動(トークナイズ)を選択するのみである。 図 2 マスク言語モデルによって事前学習を行う際のマスクするトークンの候補の選択方法 語モデル、ファインチューニング時は下流タスクのモデル (文分類タスクの場合のモデルなど) を指す。 トークナイザのロス関数 $L^{t}$ は以下のように与えられる。 $ L^{t}=-\left(r\left(s_{S}\right)-r\left(s_{*}\right)\right) \log p_{\theta}\left(s_{S}\right) $ ここで、 $\theta$ はトークナイザのパラメータ、報酬 $r$ は負のモデルロス $-L^{m}$ を表わす。モデルのパラメー タの更新は、 $s_{s}$ をモデルに入力した時のロスを用いて行い、このモデルロスをトークナイザの更新 (式 (1) の $r\left(s_{s}\right)$ が負のモデルロスに相当) にも利用する。 $s_{s}$ でモデルのパラメータを更新することによって、 サブワード正則化 [6] を行うことができ、性能向上が期待される。 ## 2.2.2 事前学習とファインチューニング 事前学習マスク言語モデルによって事前学習を行う場合、通常、入力トークン列からマスクするトークンをランダムに選択するが、提案手法の場合、1-best tokenize と sampling tokenize ではトークナイズ結果が異なり得ることから、注意が必要となる。これらの 2 つのトークナイズ結果において、 マスク言語モデルのロスを平等に比較できるように、マスクするトークンの候補は、1-best tokenize と sampling tokenize で同様に分割されたトークンに限定する。図 2 の例ではマスクするトークンの候補は 「楽しい」「を」「送る」となり、この例では「送る」 がマスクするトークンとして選ばれている。 ファインチューニングファインチューニングでも同様に、1-best tokenize と sampling tokenize でのモデルロスを比較し、sampling tokenizeを用いた場合のモデルロスが小さければ、そのサンプリングのトークナイズ確率を上げるようにトークナイズを学習する。推論時は 1-best tokenize の結果を用いる。 ## 2.3 既存手法との計算コストの比較 図 1 に示すように、提案手法と平岡ら手法では、 トークナイザを学習するためにモデルに入力する トークナイズ結果の数が異なっており、計算コストに差が生まれている。まず、図の左に示す平岡ら手法では、トークナイザを学習するために、モデルの学習に用いるトークナイズ結果とは別に $\mathrm{N}$ 個のトー クナイズ結果をモデルに入力する必要がある3)。 一方で、図の右に示す提案手法ではトークナイザを学習するために追加でモデルに入力するのは、 $s_{*}$ のみである。さらに、トークナイズの段階で $s_{s}$ と $S_{*}$ が一致した場合は、トークナイザの学習を行なわず、 $s_{*}$ をモデルに入力する必要がないため、さらに計算コストを減らすことができる。以上より、提案手法を用いることで、既存の平岡ら手法よりも、小さい計算コストでモデルとトークナイザの同時学習を行うことが可能となる。 ## 3 実験 複数の分類タスクを用いて提案手法の有効性を検証した。 ## 3.1 設定 ## 3.1.1 データセット 日本語言語理解ベンチマークである JGLUE [7] を用いて評価を行った。JGLUE のうち、文章分類、文ペア分類のタスクである MARC-ja、JSTS、JNLIを利用した ${ }^{4)}$ 。各種データセットの詳細は付録 Bに示す。 ## 3.1.2 比較手法 以下の 4 つのモデルと提案手法を比較した。 UniLM ユニグラム言語モデルを用いたトークナイザを利用して、BERT の事前学習とファインチューニングを行う手法。ソフトウェアとしては SentencePiece [8] を用いた。このモデルは、事前学習、ファインチューニングともにトークナイザは学習されない。 平岡ら手法 1 節で述べたとおり、平岡ら手法は転移学習以前のモデルで評価されているが、提案手法との比較のために、BERT のファインチューニングにおいて、N-best トークナイズを用いてモデルとトークナイザを同時に最適化する手法をここでは平 3) N-best の入力間でロスの大きさを比較するため、 $\mathrm{N}$ は 2 以上である必要がある。 4)JGLUE に含まれるタスクのうち、JSQuAD は形態素区切と Sentencepiece での区切が一致しないため、また、 JCommonsenseQA は質問ならびに選択肢の文長が非常に短くトークナイズの影響が小さいため、これらのタスクは提案手法での評価からは除いた。 表 1 JGLUE の文章分類・文ペア分類タスクを用いた評価実験の結果 岡ら手法と呼ぶ。この手法は再現実装した。 提案手法 (N-best tokenize) 平岡ら手法で採用されている N-best トークナイズを用いて、事前学習時にもトークナイザを学習する手法5)。 提案手法 (強化学習; FT のみ) BERT の事前学習時はトークナイザを固定し、ファインチューニング時のみ、強化学習を利用する提案手法でモデルとトークナイザを同時に学習する手法。 提案手法 BERT の事前学習時とファインチュー ニング時のどちらも、強化学習でモデルとトークナイザを同時に学習する手法。 ## 3.1.3 モデル学習の設定 提案手法を含む全ての比較モデルで、日本語 Wikipediaを用いて、BERT の事前学習を行った ${ }^{6)}$ 。 トークナイザのハイパーパラメータについては付録 Cに示す。ファインチューニングでは、損失関数として、分類タスクである MARC-ja と JNLI では交差エントロピー損失、回帰タスクである JSTS では平均二乗誤差を利用した。ファインチューニングはシードを変えて 3 回実行し、各評価尺度の平均と標準偏差を報告する。また全体的な性能を比較するために、3つのタスクの性能の平均も算出した ${ }^{7)}$ 。 ## 3.2 実験結果と考察 実験結果を表 1 に示す。全体的な性能は比較手法と比べ、提案手法が最も高いことを確認した。(2) もしくは (4)と (5)を比べることによって、事前学習もトークナイズ学習を行った方がよいことがわかり、(3)と (5) を比べることによって、平岡らが採用している N-best tokenize よりも提案手法の強化学習を用いた方がよいことがわかる。 次に、提案手法を用いることで、平岡ら手法を用いて事前学習を行った場合に比べて、どれくらい事 5)事前学習でトークナイズ学習を行っているという意味で、提案手法の亜種とみなしている。 6)ただし、next sentence prediction は文献 [9] で有効でないとされていることから行っていない。 7) JSTS の Peason と Sperman の値を平均してから、MARC-ja、 JSTS、JNLI の性能の平均をとっている。表 2 MARC-ja における改善例 (正解ラベルは P) & トークナイズ結果 \\ 平岡ら手法 & $\mathrm{P}$ & 今はこれがないとものたりないですね。 \\ 提案手法 & $\mathrm{P}$ & 今はこれがないとものたりないですね。 \\ 前学習の時間を軽減することができるかについて述べる。提案手法 (N-best tokenize) にかかる時間を 100\%とすると、提案手法が $48.8 \%$ 、UniLM が $22.8 \%$ となった。この結果から、提案手法 (N-best tokenize)、すなわち、平岡ら手法をそのまま事前学習に適用した場合と比べ、提案手法は 2 倍以上計算時間が改善できることを確認できた。 MARC-ja における改善例を表 2 に示す。MARC-ja の例に含まれる「これがないとものたりない」は 「これがあると満足ができる」というポジティブなフレーズであるが、そのことを理解するためには、「これが」、「ないと」「ものたりない」をそれぞれ理解する必要がある。しかしながら、UniLM では、「これ」、「がない」、「とも」、「の」、「たり」、「ない」 のように、意味を汲むためのトークンの境界と一致しておらず、適切に意味を捉えることができていない。一方で、提案手法では、「これが」、「ないと」、「もの」、「たり」、「ない」のように、トークンの境界が一致しており、モデルが適切に意味を捉えることができるようになっていると考えられる。 ## 4 おわりに 本論文では転移学習において、トークナイザとモデルの同時学習する手法を提案した。強化学習を用いて定式化することにより、計算量を抑えられ、かつ、精度が高いことを示した。今後の課題としては、本研究で採用したトークナイザは各サブワードの生成確率のみを学習するものであり、提案手法が比較手法に比べて大幅な精度向上を達成できなかったのは、このトークナイザの表現力がそれほど高くないことが考えられ、より表現力の高いトークナイザを検討する予定である。 ## 参考文献 [1] Tatsuya Hiraoka, Sho Takase, Kei Uchiumi, Atsushi Keyaki, and Naoaki Okazaki. Joint optimization of tokenization and downstream model. In Findings of the Association for Computational Linguistics: ACLIJCNLP 2021, pp. 244-255, Online, August 2021. Association for Computational Linguistics. [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [3] Masaaki Nagata. A stochastic Japanese morphological analyzer using a forward-DP backward-A* n-best search algorithm. In COLING 1994 Volume 1: The 15th International Conference on Computational Linguistics, Kyoto, Japan, August 1994. [4] Steven J. Rennie, Etienne Marcheret, Youssef Mroueh, Jerret Ross, and Vaibhava Goel. Self-critical sequence training for image captioning. In The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 2017. [5] R. J. Williams. Simple statistical gradient-following algorithms for connectionist reinforcement learning. Machine Learning, Vol. 8, pp. 229-256, 1992. [6] Taku Kudo. Subword regularization: Improving neural network translation models with multiple subword candidates. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 66-75, Melbourne, Australia, July 2018. Association for Computational Linguistics. [7] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese general language understanding evaluation. In Proceedings of the 13th Language Resources and Evaluation Conference, Marseille, France, 2022. European Language Resources Association. [8] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics. [9] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A robustly optimized BERT pretraining approach, 2019. [10] Phillip Keung, Yichao Lu, György Szarvas, and Noah A. Smith. The multilingual Amazon reviews corpus. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 4563-4568, Online, November 2020. Association for Computational Linguistics [11] Takashi Miyazaki and Nobuyuki Shimizu. Cross-lingual image caption generation. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 17801790, Berlin, Germany, August 2016. Association for Computational Linguistics. 表 3 JSTS・JNLIにおける改善例 ## A JSTS・JNLIにおける改善例 JSTS と JNLI における改善例を表 3 に示す。 UniLM ではタスクを解くために重要なトークンが助詞とくっついてしまっている。JSTS の例では「子供が」のように「子供」と助詞「が」がくっついており、前提文の「子供」と仮説文の「女の子」の関係を捉えるのが難しい。一方、提案手法ではそれらのトークンが、助詞と離れており、より意味を適切に捉えることができるようになっていると考えられる。 ## B JGLUE のデータセットの詳細 MARC-ja は、Multilingual Amazon Reviews Corpus [10] の、日本語レビューで構築したデータセットであり、各レビューをポジティブとネガティブの 2 値で分類するタスクを解く。JSTS は、YJ Captions Dataset [11] を基に構築された、意味的類似度計算データセットであり、文ぺア間の意味的な類似度を 0 (意味が完全に異なる) から 5 (意味が等価) で回帰予測するタスクを解く。JNLI は、JSTS で同じテキストで構築された自然言語推論データセットであり、文ペアに対して、前提文が仮説文に対して持つ推論関係を含意、矛盾、中立の 3 值で分類するタスクを解く。評価指標としては、MARC-ja、 JNLI では accuracy を用い、JSTS では Pearson および Spearman の相関係数を用いる。また、各データセットのデータ数を表 4 に示す。 ## Cメトークナイザのハイパーパラ 提案手法で用いているトークナイザには、N-best の N と、sampling tokenize の確率分布を制御するた めの $\alpha$ の 2 つのハイパーパラメータがある。この 2 つのパラメータを変化することで、提案手法の性能がどのように変化するかを調査した。 $\mathrm{N} ~\{4,16\} 、$ $\alpha$ を $\{0.2,1.0\}$ でそれぞれ変化させた。計算コストの観点から、広範囲に探索することはできなかった。結果を表 5 に示す。 $\mathrm{N}=4, \alpha=1.0$ のときが最も性能が高いという結果となった。このハイパーパラメータは、sampling tokenize するときに、確率がより上位のトークナイズ結果をサンプリングするという設定である。この結果から、提案手法において、確率が上位であるトークナイズ結果同士でロスの比較を行うことがより良いトークナイザの構築に重要であり、確率が下位のトークナイズ結果をサンプリングして比較することの有用性は低いことが示唆される。 表 5 ハイパーパラメータ探索の結果 & & \\ 4 & 1.0 & $95.79_{ \pm 0.06}$ & $\mathbf{8 9 . 2 8}_{ \pm 0.38} / \mathbf{8 4 . 8 0}_{ \pm 0.47}$ & $\mathbf{8 9 . 0 9}_{ \pm 0.19}$ \\ 16 & 0.2 & $95.55_{ \pm 0.07}$ & $88.64_{ \pm 0.24} / 84.38_{ \pm 0.30}$ & $87.63_{ \pm 0.21}$ \\ 16 & 1.0 & $\mathbf{9 5 . 8 4}_{ \pm 0.04}$ & $88.27_{ \pm 0.17} / 83.94_{ \pm 0.12}$ & $87.85_{ \pm 0.35}$ \\
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q6-5.pdf
# 語彙制約付きニューラル単語分割器を用いた 後処理としての単語分割の後段タスクへの最適化 平岡達也 岩倉友哉 富士通株式会社 \{hiraoka.tatsuya, iwakura.tomoya\}@fujitsu.com ## 概要 本稿では,後段タスクのモデルを改変することなく,単語分割器をモデルに最適化することで,精度改善を行う手法を提案する. 本手法は, 精度を改善したいタスクのモデルが与えられた際に,モデルが扱える単語に出力を制限しつつ,モデルにおける損失関数を最小化する単語列を生成するような単語分割器を学習する。また,文脈情報をよりよく捉えるために,LSTM 上で語彙制約付きの単語分割手法を提案する. 本手法を, 日本語, 中国語, 英語の文書分類タスクで評価した結果,ユニグラム言語モデルによる単語分割の最適化手法, 単語の限定を行わないニューラル単語分割器と比較し,提案手法が性能の向上に寄与することが示された. ## 1 はじめに 単語分割は,さまざまな自然言語処理に共通する前処理の一つである. 文書分類や機械翻訳などの後段タスクでは,それぞれのタスクやドメイン、モデル構造に応じて適切な単語分割を用いることで性能の向上が得られることが知られている $[1,2,3]$. 近年では後段タスクで学習済みのモデルに対して適切な単語分割を求める手法が提案されている $[4,5]$. これらの手法は,すでに学習されている後段モデルのパラメータを固定し,より性能が向上するような単語分割を後処理として求めることができる。 従来の後処理としての単語分割の最適化手法には,2つの課題が残されている. 1 つ目の課題は,従来手法 [5] では文脈に応じた単語分割がされにくいという点である。これは従来手法が単語分割器としてユニグラム言語モデル採用しているためである. タスクの性能が向上するような単語分割を探索した時,ある文脈でタスクの性能向上に貢献する単語が,別の文脈でもタスク向上に繫がるとは限らな 図 1 本手法で用いる語彙の制約(式 (4))をテーブルとして表現した図.網掛けセルは未知語を表す。 い.この問題は,例えば BI タグ付けによる文字レベルでのニューラル単語分割モデル $[6,7]$ を用いれば,解決されるように思われる。しかしながら,文字レベルのタグ付けによる単語分割では,実際に後段モデルで利用できる語彙には含まれていない未知語が出力されてしまう可能性がある [8]. 2 つ目の課題は, 単語分割の最適化のために後段モデルの構造を修正する必要があるという点である $[4,5]$. 広く利用されているモデルをそのまま使うことが出来ないため,後処理としての単語分割の最適化技術の利用の障壁となっている。 本研究では 1 つ目の課題への対処として, 出力可能な語彙を制限したニューラル単語分割器による,後処理としての単語分割の最適化手法を提案する. これにより,従来のユニグラム言語モデルを用いた手法よりも高い表現力を持った単語分割器を用いて, 後処理としての単語分割の最適化を行うことができる. さらに 2 つ目の課題への対処として,後段モデルの処理と単語分割の最適化処理の独立性を高めた学習方法を提案する,日本語,中国語,英語での文書分類の実験より,提案手法が後処理としての単語分割の最適化として妥当であることを示す。 ## 2 後処理としての単語分割の最適化 本研究で対象とするタスクは, 後処理としての単語分割の最適化である. 本タスクでは文書分類などの後段タスクの学習データ $D$ と単語分割器 $T$, 単語分割済みのデータ $D^{\prime}$ で学習を行なった後段モデル $\theta$ 前提とする.また, $s \in D$ は学習データに含まれる入力テキスト, $s^{\prime} \in D^{\prime}$ は単語分割器 $T$ で分割を行ったテキストで, $s^{\prime}=T(s)$ である. 様々な単語分割器を $T$ として利用できるが、本研究ではユニグラム言語モデルによる単語分割器 [9] を使用する. $s$ の可能な単語分割は $N$ 種類あり,$s_{1}^{\prime} \ldots s_{N}^{\prime}$ と表す. ここで, $N$ の最大数は $s$ の文字数 $|s|$ について $N=2^{|s|-1}$ である. 実際には,後段モデルで使用できる語彙 $V_{\theta}$ が限られているため, $N$ はある程度の大きさに収まる. 後処理としての単語分割の最適化の目的は,後段タスクで後段モデルの性能が高くなる単語分割を出力する $\hat{T}$ を求めることである. ## 3 提案手法 ## 3.1 学習の概要 本手法では,後段モデルの構造を変更せずに後処理としての単語分割の最適化を行えるように,後段モデルとは別に新しく単語分割器を学習する. 具体的には以下に説明する通り, 学習データでの性能が高くなるような単語分割の収集と, 単語分割器の学習の 2 ステップに分けることで,後段モデルと単語分割器の独立性を高める. ## 学習データにおいて損失が小さい単語分割の収集 はじめに, $s \in D$ の可能な $N$ 種類の単語分割 $s_{1}^{\prime} \ldots s_{N}^{\prime}$ のうち,学習データでの損失が最も小さくなるよう な単語分割のみを収集した学習データ $\hat{s} \in \hat{D}$ を構築する. 各テキストの $N$ 種類の単語分割について は,例えば $N$-best の単語分割 [10] を用いたり,サブ ワード正則などで利用される単語分割のサンプリン グ $[11,12,13]$ によって収集する方法を用いたりする ことができる. 本研究では, $N=100$ とし, $N$-best 単語分割を用いた. $\hat{D}$ の構築には,学習済みの後段 モデル $\theta$ に $N$ 種類の単語分割を入力し, それぞれの 正解ラベルに対する損失を計算すれば良い. そのた め $\hat{D}$ から学習することで、後段モデルの構造を変え ずに後処理としての単語分割の最適化を行える. $\hat{D}$ を再現する単語分割器 $\hat{T}$ の学習次に, $\hat{D}$ の単語分割を再現するような新たな単語分割器 $\hat{T}$ を学習 する. 学習データにおいて後段モデルの損失が小さくなるような単語分割を学習した単語分割器 $\hat{T}$ は,検証データやテストデータにおいても正解ラベルとの損失が低い単語分割を出力すると期待される. ## 3.2 語彙制約付きニューラル単語分割器 $\hat{D}$ の単語分割を学習するための単語分割器 $\hat{T} に$ は,様々な手法を用いることができる.この単語分割器の表現力が高いほど,損失が低くなるような単語分割の再現性能が高くなると考えられる。 表現力の高い単語分割器の例として,単語分割を BI タグで表現してニューラルネットワークを学習する手法 $[6,7]$ がある. しかし,この方法では後段モデル $\theta$ が使うことができる語彙,すなわちオリジナルの単語分割器 $T$ で用いている語彙 $V_{\theta}$ には含まれない未知語を出力してしまう場合がある.このような未知語は,後段モデルにおいて適切に単語埋め込みへと変換できないため,後段タスクにおける性能低下につながると考えられる。 そこで本研究では出力可能な単語を考慮し [14],利用できる語彙を制限したニューラル単語分割器を作成する. $K$ 文字のテキスト $s=c_{1} \ldots c_{K}$ について, $i$文字目で始まり $j$ 文字目で終わる単語 $w_{i, j}$ の出現確率 $p\left(w_{i, j} \mid s\right)$ を,次のように計算する。 $ \begin{aligned} \mathbf{h}_{k} & =\operatorname{BiLSTM}\left(\mathbf{v}_{c_{1}} \ldots \mathbf{v}_{c_{K}}\right)_{k}, \\ \mathbf{h}_{k}^{(\text {begin })} & =\operatorname{MLP}_{\text {begin }}\left(\mathbf{h}_{k}\right), \\ \mathbf{h}_{k}^{(\text {end })} & =\operatorname{MLP}_{\text {end }}\left(\mathbf{h}_{k}\right), \\ p\left(w_{i, j} \mid s\right) & =\left.\{\begin{array}{ll} \sigma\left(\mathbf{h}_{i}^{(\text {begin })^{\top}} \mathbf{h}_{j}^{(\text {end })}\right) & \text { if } w_{i, j} \in V_{\theta} \\ 0 & \text { otherwise } \end{array} .\right. \end{aligned} $ ここで $\operatorname{BiLSTM}(\cdot)_{\mathrm{k}}$ は, $k$ 番目の入力 $\mathbf{v}_{c_{k}}$ に対応する BiLSTM [15, 16] の出力を得る操作である. また $\mathbf{v}_{c_{k}}$ は, $c_{k}$ に対応する文字埋め込み表現である. $\mathrm{MLP}_{\text {begin }}$ と $\mathrm{MLP}_{\text {end }}$ はそれぞれ異なる多層パーセプトロン, $\sigma(\cdot)$ はシグモイド関数である. $p\left(w_{i, j} \mid s\right)$ は $s$ ごとにまとめて計算することができ,その処理は図 1 に示すような上三角行列として表せる. 図と式 4 に示すように,後段モデルの語彙 $V_{\theta}$ に含まれない単語は確率が 0 になるようにマスクされる。これにより, 単語分割器が利用できる語彙にハードな制約を与え,未知語の出力を防ぐ. 単語分割器の学習時は, 各学習サンプル $\hat{s}$ につい 表 1 文書分類での性能(F1 值,テストデータ).太字は単語分割の最適化を行う手法のうち,オリジナルの後段モデル (最適化なし)の値を超えるもの,下線は比較手法間での最大値を示す. て以下の損失を最小化するように最適化する. $ \mathscr{L}_{\hat{s}}=-\sum_{w \in \hat{s}} \log p(w \mid s) . $ 推論時は, $\sum_{w \in s^{\prime}} \log (p(w \mid s))$ が最も大きくなるような系列 $s^{\prime}$ を゙タビアルゴリズム [17]で求める. ## 4 実験 ## 4.1 設定 データセット実験では,後段タスクとして文書分類を用いた。単語分割の後段タスクへの影響が大きいと考えられる言語として, 日本語と中国語のデータセットを利用した. Twitter [18] と WRIME [19] は, 日本語の SNSへの投稿から作成された感情分類データセットである. Weibo は中国語のSNSへの投稿から作成された感情分類データセット ${ }^{1)}$, Genre と Rate はEコマースサイトに投稿された中国語のレビューから作成した商品のジャンル予測とレート予測のためのデータセット [20] である. さらに,スペース区切りで単語境界を明示する言語での実験のために,英語の Twitterへの投稿から作成した感情分類データセット22)用いた. 後段モデル後段モデル $\theta$ は, 各文書分類の学習データで事前に学習を行う. 本研究では,BiLSTM で単語分散表現の系列をエンコードし,線形層でラベルのスコアを予測するモデルを採用した. 単語分散表現の次元数は 64 ,BiLSTM のレイヤ数は 1 ,隠れ層の次元数は前向き・後ろ向きそれぞれ 256 とした. 各データセットで 20 エポックの学習を行い,検証データでの性能が最大となるモデルを $\theta$ として利用する. 後段モデルの学習のための単語分割器 $T$ には,SentencePieceの Unigram モードを用いた。語 1) https://github.com/wansho/senti-weibo 2) https://www.kaggle.com/c/twitter-sentiment-analysis2彙 $V_{\theta}$ の大きさは 16,000 とし, 後段モデルの学習には $\alpha=0.2$ でサブワード正則化 [11]を用いた. 比較手法本実験では, $\hat{D}$ を学習する単語分割器として 2 種類の比較対象を用いる. ユニグラムは, $\hat{D}$ に含まれる単語の頻度を数え上げることでユニグラム言語モデルを作成し,単語分割に利用する最も単純な手法である.BI タグ付けは,BiLSTM-CRFによる系列ラベリング手法を用いて,単語分割を表す BI タグの系列を予測する手法 [7] である ${ }^{3}$. さらに,後段モデル $\theta$ を学習に組み込んで単語分割を最適化する従来手法として OpTok [5]を用いた。 ## 4.2 後段タスクでの性能 各データセットでの実験結果を表 1 にまとめた。「最適化なし」の列には,オリジナルの単語分割で学習した後段モデル $\theta$ の性能を示した.「最適化あり」の各列には,学習済みの後段モデルに対して後処理として単語分割を最適化した結果4)を示した。 実験結果より, OpTok と提案手法はすべてのデー タセットで,単語分割の最適化による性能の向上が得られた. また,提案手法は複数のデータセットで OpTok の性能を上回ることが確認された. 一方で,最も単純なユニグラム言語モデルによる手法や,広く使われるニューラル単語分割器である BI タグ付による手法では,オリジナルのモデルよりも性能が下がる場合が多いことが分かった. 「オラクル」の列には,テストデータの 100-best 分割を学習済みの後段モデルに入力し,損失が最も小さくなるような単語分割だけを選択したときの性能を示した.すなわちこの値は,単語分割のみを修正して到達可能な性能の上限である. 実際にはテスト 3)https://github.com/jidasheng/bi-lstm-crf の実装を用いた. 文字分散表現の次元数は 128 ,BiLSTM の隠れ層の次元数は 256 とし, 200 エポックの学習を行った. 4)BI タグ付け, OpTok,提案手法については 3 回試行の平均. 検証データでの性能が最大となる単語分割器で評価. 表 2 各手法による学習データの単語分割の再現性能 (正解率) と, 検証データでの未知語出現割合. データの正解ラベルは未知であるため、この値への到達は困難だが,後処理としての単語分割による性能向上の余地は大いに残されていると言える。 ## 4.3 単語分割の再現性能と未知語割合 本手法では,学習データでの損失が低くなるような単語分割 $\hat{D}$ を再現するように,ニューラル単語分割器の学習を行った. 表現力の低い単語分割器では, $\hat{D}$ を再現することも難しいと考えられる。そこで各単語分割手法が,それぞれどの程度単語分割の学習データを再現できているかを調べた。 表 2 の「学習データの正解率」として,ユニグラム言語モデル,BI タグ付け,提案手法のそれぞれについて,学習データでの単語分割の正解率を示し $た^{5)}$. ユニグラム言語モデルは単語の頻度数え上げで作成したモデル,BI タグ付けと提案手法はそれぞれ 200 エポックの学習を行ったモデルで評価した. また正解率は,単語分割を BI ラベルに変換した上で,ラベルの一致率として計算した。 学習データの単語分割の正解率より, ユニグラム言語モデルよりもニューラルネットワークを用いた BI タグ付けや,提案手法の再現性能が高いことが分かる. 提案手法に比べて BI タグ付けの手法は, 文字レベルで単語境界を予測できる点で表現力が高く,学習データの正解率も高くなっている. 提案手法の表現力は,語彙をハードに制約する点で BI タグ付けの手法に劣り,正解率もやや低くなっている. しかし, 単語分割最適化の従来手法 OpTok が採用しているユニグラム言語モデルよりも,提案手法は学習データの単語分割を再現できている。このため 4.2 節の実験においては,単語分割の最適化にニューラル単語分割器を用いる提案手法が,OpTok よりも高い性能の向上幅を得られていると考えられる.  表 2 の「検証データでの未知語割合」では,ユニグラム言語モデル,BI タグ付け,提案手法のそれぞれが検証データで後段モデルの語彙 $V_{\theta}$ に含まれない単語を出力した割合を示している。 ユニグラムと提案手法は,その性質として未知文字以外の未知語を出力することが出来ないため,検証データでの未知語割合はほぼゼロになっている.一方で BI タグ付けの手法は, 出力できる単語についての制約がないため,最大で $11.5 \%$ も未知語を出力している。これらの未知語が,4.2 節の実験における後段モデルの性能低下につながったと考えられる。実際に表 1 にまとめた BI タグ付けによる手法の性能は,多くのデータセットで「最適化なし」 のモデルよりも低い値になっている。 これらの結果より, 後処理としての単語分割の最適化においては,提案手法のように語彙の制約を設けたニューラル単語分割器を用いることが妥当であると結論付けることができる。 ## 5 おわりに 本稿では,後処理としての単語分割の最適化の手法にニューラル単語分割器を用いる方法を提案した. 本手法では後段タスクの学習データのうち,学習済みモデルの損失が小さくなるような単語分割を収集し,単語分割器の学習に用いる。また,後段モデルが利用できる語彙は限られているため,出力できる単語を制限するようなニューラル単語分割器を作成した.文書分類タスクでの実験結果より,提案手法は従来手法による後処理としての単語分割の最適化よりも性能が高くなるような単語分割を獲得できることが分かった。また,一般的に用いられる BI タグ付けによる単語分割器とは異なり,未知語の発生を防ぐことができることが示された.今後は機械翻訳などのタスクでの実験や,後段モデルと単語分割の同時最適化にも本手法を応用していく. ## 謝辞 本研究は,JST,ACT-X,JPMJAX21AM の支援を受けたものです. ## 参考文献 [1] Tatsuya Hiraoka, Hiroyuki Shindo, and Yuji Matsumoto. Stochastic tokenization with a language model for neural text classification. In Proceedings of the 57th Annual Meeting of ACL, pp. 1620-1629, 2019. [2] Kaj Bostrom and Greg Durrett. Byte pair encoding is suboptimal for language model pretraining. In Findings of ACL: EMNLP 2020, pp. 4617-4624, 2020. [3] Hoo-Chang Shin, Yang Zhang, Evelina Bakhturina, Raul Puri, Mostofa Patwary, Mohammad Shoeybi, and Raghav Mani. BioMegatron: Larger biomedical domain language model. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on EMNLP, pp. 4700-4706, Online, November 2020. Association for Computational Linguistics. [4] Tatsuya Hiraoka, Sho Takase, Kei Uchiumi, Atsushi Keyaki, and Naoaki Okazaki. Optimizing word segmentation for downstream task. In Findings of ACL: EMNLP 2020, pp. 1341-1351, Online, November 2020. Association for Computational Linguistics. [5] Tatsuya Hiraoka, Sho Takase, Kei Uchiumi, Atsushi Keyaki, and Naoaki Okazaki. Joint optimization of tokenization and downstream model. In Findings of ACL: ACL-IJCNLP 2021, pp. 244-255, 2021. [6] Xinchi Chen, Xipeng Qiu, Chenxi Zhu, Pengfei Liu, and Xuan-Jing Huang. Long short-term memory neural networks for chinese word segmentation. In Proceedings of the 2015 conference on EMNLP, pp. 1197-1206, 2015. [7] Tom Young, Devamanyu Hazarika, Soujanya Poria, and Erik Cambria. Recent trends in deep learning based natural language processing. IEEE Computational intelligence magazine, Vol. 13, No. 3, pp. 55-75, 2018. [8] Hiroyuki Deguchi, Masao Utiyama, Akihiro Tamura, Takashi Ninomiya, and Eiichiro Sumita. Bilingual subword segmentation for neural machine translation. In Proceedings of the 28th COLING, pp. 4287-4297, 2020. [9] Taku Kudo and John Richardson. Sentencepiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on EMNLP: System Demonstrations, pp. 66-71, 2018. [10] Masaaki Nagata. A stochastic japanese morphological analyzer using a forward-dp backward-a* n-best search algorithm. In Proceedings of the 15th conference on COLING, pp. 201-207. Association for Computational Linguistics, 1994. [11] Taku Kudo. Subword regularization: Improving neural network translation models with multiple subword candidates. In Proceedings of the 56th Annual Meeting of ACL, pp. 66-75, 2018. [12] Ivan Provilkov, Dmitrii Emelianenko, and Elena Voita. BPE-dropout: Simple and effective subword regularization. In Proceedings of the 58th Annual Meeting of ACL, pp. 1882-1892, Online, July 2020. Association for Computational Linguistics. [13] Tatsuya Hiraoka. Maxmatch-dropout: Subword regularization for wordpiece. In Proceedings of the 29th COLING, pp. 4864-4872, 2022. [14] Shohei Higashiyama, Masao Utiyama, Eiichiro Sumita, Masao Ideuchi, Yoshiaki Oida, Yohei Sakamoto, and Isaac Okada. Incorporating word attention into character-based word segmentation. In Proceedings of the 2019 Conference of NAACL: HLT, pp. 2699-2709, 2019. [15] Sepp Hochreiter and Jürgen Schmidhuber. Long shortterm memory. Neural computation, Vol. 9, No. 8, pp. 1735-1780, 1997. [16] Alex Graves and Jürgen Schmidhuber. Framewise phoneme classification with bidirectional lstm networks. In Proceedings. 2005 IEEE International Joint Conference on Neural Networks, 2005., Vol. 4, pp. 20472052. IEEE, 2005. [17] Andrew Viterbi. Error bounds for convolutional codes and an asymptotically optimum decoding algorithm. IEEE transactions on Information Theory, Vol. 13, No. 2, pp. 260-269, 1967. [18] Yu Suzuki. Filtering method for twitter streaming data using human-in-the-loop machine learning. Journal of Information Processing, Vol. 27, pp. 404-410, 2019. [19] Tomoyuki Kajiwara, Chenhui Chu, Noriko Takemura, Yuta Nakashima, and Hajime Nagahara. WRIME: A new dataset for emotional intensity estimation with subjective and objective annotations. In Proceedings of the 2021 Conference of NAACL: HLT, pp. 2095-2104, Online, June 2021. Association for Computational Linguistics. [20] Yongfeng Zhang, Min Zhang, Yi Zhang, Guokun Lai, Yiqun Liu, Honghui Zhang, and Shaoping Ma. Dailyaware personalized recommendation based on feature-level time series analysis. In Proceedings of the 24th international conference on WWW, pp. 1373-1383, 2015.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q6-6.pdf
# 条件記述の解釈に基づく確率・期待値問題の自動解答 岩間 純輝佐藤理史 宮田玲 小川浩平 名古屋大学大学院工学研究科 iwama.junki.i0@s.mail.nagoya-u.ac.jp ## 概要 本稿では、高校数学レベルの確率・期待值問題に自動解答するための方法を提示する。確率・期待値問題を解く上では、文章題の中で普遍的に現れる条件記述を解釈することが重要であり、それを実行可能なコード列に変換することが、中心的課題となる。オンラインソースから広く集めた問題で作成したデータセットを用いて、正答率を評価する実験を行ったところ、約 $87 \%$ の問題を解くことができた。 ## 1 はじめに 確率の文章題を自動解答する取り組みは、1971 年の Gelb の研究 [1] まで遡る。この研究では、事前に用意した木構造のパターンリストを使用して動詞や試行回数などの解答に必要な情報を抽出し、自動解答を実現した。Dries ら [2] は、限量子によりモデル化した問題文を、ベイジアンネットワークに変換して条件付き確率問題として解く end-to-end の確率問題ソルバを開発した。 日本語で書かれた問題文に自動解答する取り組みとしては「ロボットは東大に入れるか」プロジェ クト [3]がある。この中で、数学の問題に対しては、論理式で記述した数式から、限量子を $\mathrm{QE}$ 法で取り除くことによって解を求める手法が主に採用されたが、この手法が通用しない確率・期待值問題の自動解答の研究 $[4,5]$ は、あまり進まなかった。 確率・期待値問題には、条件記述(事象を規定する条件の記述)が広く登場する。条件記述は、次のような特徵を持つ。 1. 試行結果である標本空間が得られて、初めて解釈できる。(それ単体では解釈できない。) 2. 記述の内容は、かなり複雑になり得る。 本稿では、条件記述の解釈に焦点を当て、高校数学レベルの確率・期待値問題に自動解答するための方法を提示する。この方法の特徴は、条件記述の構文 & $(s 41)$ \\ 図 1 確率・期待値の文章題の典型例 解析を、組み立てるべきコード(関数)の型情報に基づいて行う点にある。 ## 2 確率・期待値問題の構造 図 1 に、確率・期待値の文章題の典型例を示す。 確率・期待値の文章題では、まず冒頭で、標本空間(起こりうる全ての結果を要素とする集合)の定義が示される。サイコロの問題では、次のような試行文と試行繰り返し文によって、標本空間が定義される。 試行文 〈個数〉のサイコロを (同時に) 振る 試行文サイコロを〈回数〉振る 試行繰り返し文これを〈回数〉繰り返す 図 1 では、試行文 $(s 0)$ のみが示されているので、個数は 2 個、回数は 1 回となり、標本空間は $(1,1),(1$, 2), , (6, 6) の 36 個の結果から構成される集合となる。 確率の計算は、次のような形式の確率計算指示文で指示される。 確率計算指示文 〈条件記述〉確率を求めよ この文は、ある特定の事象(=標本空間の部分集合) が生起する確率の計算を要求する文で、その事象は〈条件記述〉によって規定される。文 $(s 1)$ における〈条件記述〉は「出た目の和が 10 以上となる」である。 求める確率 $P(A)$ は、以下の式により計算できる。 $ P(A)=\frac{|A|}{|\Omega|} $ ここで、 $\Omega$ は標本空間、 $A$ は事象、|$\cdot$|は集合の要素数を表す。すなわち、標本空間の全要素に対して、〈条件記述〉の成否を判定できれば、確率を求めることができる。 一方、期待値の計算は、次のような形式の期待値計算指示文で指示される。 期待値計算指示文 〈演算記述〉の期待値を求めよ この文の〈演算記述〉は、標本空間を定義域とする関数の計算法に対応する。文 $(s 2)$ における〈演算記述〉 は「出た目の和」である。 求める期待値 $E$ は、以下の式により計算できる。 $ E=\frac{1}{|\Omega|} \sum_{r_{i} \in \Omega} s\left(r_{i}\right) $ ここで、 $r$ は標本空間の要素 (結果)、 $s$ は数値を返す関数を表す。すなわち、標本空間の全要素に対して関数 $s$ の值が計算できれば、期待値を求めることができる。〈演算記述〉は、この関数 $s$ の記述である。 確率・期待値問題は、上で述べたような文以外に、名付けを含む文 (s31) や場合分けの記述 $(s 41, s 42, s 43)$ を含む場合がある。これらの要素も、〈条件記述〉と〈演算記述〉から構成されるため、この 2 種類の記述を正しく解釈して計算可能とすることが、問題を解くための中心的課題となる。 ## 3 確率・期待値問題ソルバ 作成した確率・期待値の文章題を解くソルバの入力は、確率・期待值の文章題(テキスト)であり、出力は、解答となる確率または期待值である。 文章題テキストの冒頭部の試行文に対しては、簡単なパターンマッチングを用いて、その問題の標本空間を表すインスタンスを生成する。確率・期待値計算指示文に対しては、その文に含まれる 〈条件記述〉および〈演算記述〉を抽出し、それらを実行可能なコード列に変換し、そのコードを標本空間インスタンスの各要素(結果インスタンス) に適用することによって答を得る。〈演算記述〉は 〈条件記述〉の一部として含まれるため、以下では、〈条件記述〉をコード列に変換する方法と、そのコー ド列を実行する方法を説明する。 図 2 条件記述をコード列に変換する手順 ## 3.1 データ構造 標本空間の要素である結果や、条件記述を解釈する過程で発生する演算結果を表現するために、次のような計 8 種類のデータ構造を用意する。 1. 基本的(プリミティブ)なデータを保持する一 Int(整数), Str(文字列), Bool(真偽値)の3 種 2. 確率問題を解くためのドメイン固有なデータを保持する—Object, List, Sequence の 3 種 [6] 3. 特殊なデータを保持する一Or, And の 2 種 これらのうち、次の 4 種類は、子要素として複数のデータ構造を保持する。 ・List一順序なしリスト - Sequence 一順序ありリスト(列) $\cdot$ Or 一複数の候補を OR として保持する - And —複数の候補を AND として保持する これらのデータ構造 X が、データ構造 $\mathrm{Y}$ を要素として持つとき、そのデータ構造を、単に ' $\mathrm{X}$ 'ではなく、'XOfY' と区別して表す。たとえば、試行文 $(s 0) 「 2$ つサイコロを同時に振る」から得られる結果のデータ構造は、ListOfInt である。 ## 3.2 条件記述のコード列への変換 〈条件記述〉をコード列に変換する手順を、図 2 に示す。この変換は、以下の 3 ステップで構成される。 ## 3.2.1 セグメンテーション まず、日本語で書かれた条件記述を、基本要素に基づいて分解する。この基本要素の一覧を、付録に 示す。たとえば、文 $(s 1)$ の 〈条件記述〉は、次のようなセグメントの列に分解される。 (1) [出た目の, 和が, 10 以上と,なる] それぞれの基本要素(ただし、属性値と属性名を除く)には、その内容に対応するコード列(組み込み関数名)が定義されている。この組み込み関数には、具体的な計算法以外に、入力のデータ構造と出力のデータ構造が定義されている。たとえば、コー ド「偶数」は、Int(整数)を受け取って、それが偶数であるかどうかを判定し、その結果を Bool(真偽値)として出力する。 基本要素は、 6 種類の大分類、 16 種類の中分類に分類されている。この分類は、組み込み関数の、入力 (引数) のデータ構造の種類と数、出力のデータ構造の種類の 3 つに基づいて区分されている。たとえば、大分類「数値演算」はIntを受け取って Int を出力するコードを持つ基本要素の集まりであり、引数が 1 個であれば calc 1 、 2 個以上であれば calc $2 \mathrm{p}$ に下位分類される。 ## 3.2.2 構文解析 (1) - 辞書規則の適用 次に、分割された各セグメントを終端記号と見なし、それぞれに辞書規則を適用して前終端記号とそれが保持するコード列を得る。この前終端記号は、 そのセグメントが含まれる基本要素の中分類名である。ただし、中分類が「属性名」である場合は、結果を表すデータ構造とする。保持するコード列は、終端記号のコードを要素とするコード列である。 たとえば、セグメントの列 (1) に辞書規則を適用すると、次のような前終端記号の列が得られる。 (2) [ListOfInt, calc2p, pred1, predB] 「出た目」は中分類「属性名」に属するため、このセグメントに対する前終端記号は、結果のデータ構造である ListOfInt(複数の Intを要素に持つ List)となる。この仕組みにより、標本空間の結果の型を考慮した解析を実現する1)。 ## 3.2.3 構文解析 (2) - 構文規則の適用 その後、構文規則を順次適用して、開始記号まで組み上げる。開始記号は、〈条件記述〉の場合は Bool、〈演算記述〉の場合は Int である。 たとえば、次の構文規則は、「ListOfInt(出た目)」 1)「2 個のサイコロを同時に振る」場合の「出た目」は複数の目 (ListOfInt)を意味するが、「1 個のサイコロを振る」場合の「出た目」は単一の目 (Int)を意味する。 と「 calc2p(和が)」をまとめて、「Int(出た目の和が)」を構成する際に使われる。 Int $\rightarrow$ ListOfInt calc2p この規則は、複数の整数 (ListOfInt) に対して 2 個以上の整数を引数とする関数 (calc2p) を適用すると、その結果として整数 (Int) が得られることを意味している。構文規則は全部で 120 件ほど存在する。 同時に、構文規則は、コード列を組み上げる機能を持つ。上記の規則の場合、右辺の第 1 要素のコー ド列 [RESULT] と第 2 要素のコード列 [和] を連結したものが、左辺のコード列 [RESULT, 和] となる。 このような構文規則の適用により、入力が開始記号まで組み上がると、入力に対するコード列が得られる。「出た目の和が 10 以上となる」に対しては、最終的に次のようなコード列が得られる。 (3) [RESULT, 和, [以上, 10], 肯定] ## 3.3 コード列の実行 得られたコード列の各要素は、データ構造に対して定義されている関数呼び出しに対応する。そのため、このコード列を結果インスタンスに対して適用すれば、求める値が得られる。 たとえば、上記のコード列では、まず、結果インスタンス $r$ (ListOfInt)に対して RESULT が呼ばれ、 それ自身 $r$ が得られる。次に、 $r$ に対して関数「和」 が呼ばれ、Intインスタンス $i$ が得られる。さらに、 $i$ に対して関数「以上 (10)」が呼ばれ、Bool インスタンス $b_{1}$ が得られる。最後に、 $b_{1}$ に対して関数「肯定—true かどうかを調べる」が呼ばれ、Boolインスタンス $b_{2}$ が得られる。こうして得られた最終的な $b_{2}$ が trueであれば、その結果インスタンス $r$ は条件を満たすと判定される。 ## 3.4 特殊なデータ構造の使用 特殊なデータ構造である Or や And は、次のような問題を解く際に必要となる。 (4) a. サイコロを 3 個振る b. いずれか 2 つ目の和が偶数となる(確率) 〈条件記述〉 (4b) には、以下の構文規則が順に適用され、その結果、コード列 (5) が得られる。 OrOfListOfInt $\rightarrow$ anyN ListOfInt OrOfInt $\rightarrow$ OrOfListOfInt calc $2 p$ Bool $\rightarrow$ OrOfInt pred1 表 1 実験結果(正答数) Bool $\rightarrow$ Bool predB (5) [RESULT, [いずれか, 2], 和, 偶数, 肯定] 考え方は、次の通りである一「いずれか $2 \supset の$ 目」という表現は、 3 つ目 $a, b, c$ のうち、任意の $2 \supset(a, b),(b, c),(c, a)$ のいずれかを指し示す表現であり、これを OrOfListOfInt というデータ構造で表現する。これに「和が (calc2p)」を適用すると、 $a+b$, $b+c, c+a$ を計算し、それを OrOfInt というデータ構造でまとめて出力する。これに「偶数と (pred1)」 を適用すると、Or の子要素それぞれが偶数であるかどうかを調べ、1つでも偶数であれば true、すべて奇数であれば false(つまり Bool)を返す。 このような仕組みを導入することにより、複数の候補を指し示す表現を解釈可能としている。 ## 4 実験 3 節で述べたソルバを用いて、確率・期待値文章題の正答率を評価した。 ## 4.1 実験設定 実験では、Q\&A サイトなどのオンラインソースから広く収集して構築した、確率・期待値文章題 820 問から構成されるデータセットを用いた。このデータセットは、ソルバ開発で参照しなかった。 収集した問題は、次の条件を満たす問題である。 1. 題材が、サイコロもしくは玉であるもの。 2. 図表の絡まないもの。 3. 標本空間が有限であるもの。 なお、データセットの作成に当たっては、数字表記の統一、句読点の統一、明らかな誤りの修正を行うとともに、枝問が存在する問題は、枝問毎に分割して独立した問題とした。 ## 4.2 実験結果と分析 実験結果を、表 1 に示す。用意したデータセットの約 $87 \%$ の問題を解くことができた。なお、玉を題材とした問題は、標本空間の定義をテキストから自動抽出せず、手入力で与えた。 ## 4.2.1 正解できた問題 正解できた問題の具体例を示す。 (6) a. 少なくとも1つは素数の目が出る(確率) b. 出た目の積または和が 3 の倍数となる (確率) c. 1 回目に偶数の目が出て、2 回目に 6 の約数の目が出る(確率) 事前に用意した基本要素の範疇を超えない範囲で記述されたものであれば、上で示したような複雑な 〈条件記述〉であっても、正しく解釈し、問題に正解することができた。 ## 4.2.2 正解できなかった問題とその原因 正解できなかった問題の原因は、そのすべてが、〈条件記述〉または〈演算記述〉を適切に解釈(コード列に変換)できなかったことによるものであった。 その原因は、おおよそ、以下の 3 種類に大別できる。 a. 共参照を含む場合作成したソルバは、共参照を解析する機能を持たないため、共参照を含む 〈条件記述〉を解釈できない。 (7) 1 または 2 の目が 4 回、それ以外の目が 2 回出る (確率) ただし、「それ(以外)」を「1または 2 (以外)」と明記すれば解釈可能で、正解を出力する。 b. 複雑な状況を端的に表す表現を含む場合問題文では、「交互に」や「この順に」のように、複雑な状況を端的に表す表現が用いられることがある。 (8) 偶数の目と奇数の目が交互に出る(確率) 「交互に」は、「1 回目に偶数の目が出て、2 回目に奇数の目が出て、3 回目に偶数の目が出て、4 回目に奇数の…」という状況を表す。このような表現を一般的に扱うのは難しく、個別に組み込み関数を用意する必要がある。 c. 対象外の問題現在のソルバが対象とする問題は、同一のサイコロを複数個振る(ひとつの袋から玉をいくつか取り出す)ことを繰り返す問題である。形状が異なる複数個のサイコロを振る(複数の袋からそれぞれ玉を取り出す)問題は対象外であるため、次のような〈条件記述〉は解釈できない。 (9) 大きいサイコロの目が偶数で、小さいサイコ口の目が 1 である(確率) このような問題は、積事象の問題として扱う必要がある。 ## 謝辞 本研究は JSPS 科研費 JP22K19811 の助成を受けたものです. ## 参考文献 [1] Jack P Gelb. Experiments with a natural language problemsolving system. 1971. [2] Anton Dries, Angelika Kimmig, Jesse Davis, Vaishak Belle, and Luc De Raedt. Solving probability problems in natural language. 2017. [3] 新井紀子, 東中竜一郎 (編). 人工知能プロジェクト 「ロボットは東大に入れるか」. 東京大学出版会, 2018. [4] 神谷翼, 松崎拓也, 佐藤理史. 数学確率文章題の自動解答システムの開発. 言語処理学会第 21 回年次大会発表論文集, pp. 365-368, 2015. [5] 神谷翼, 松崎拓也, 佐藤理史. 題材となるオブジェクトの抽象化による確率文章題の自動解答. 人工知能学会第 30 回全国大会論文集, pp. 4B1-2, 2016. [6] 岩間純輝, 佐藤理史, 小川浩平, 宮田玲. 数学・確率問題を対象とした条件記述の自動解釈. 言語処理学会第 27 回年次大会発表論文集, pp. 947-951, 2021. ## 付録:基本要素の一覧 } & \multirow[t]{2}{*}{ 基本要素(主要な日本語表現例) } \\ 表中において、 $R$ は試行により得られた結果を表すデータ構造、 $X$ は子要素を保持できる任意のデータ構造、 $D$ は任意のデータ構造を意味する。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q6-7.pdf
# エンティティの階層的分類体系を用いた 遠距離教師あり固有表現抽出 芝原 隆善 1 山田 育矢 ${ }^{1,2}$ 西田 典起 ${ }^{1}$ 寺西 裕紀 ${ }^{1}$ } 大内 啓樹 1,3 古崎 晃司 1,4 渡辺 太郎 ${ }^{3}$ 松本 裕治 ${ }^{1}$ ${ }^{1}$ 理化学研究所 ${ }^{2}$ Studio Ousia ${ }^{3}$ 奈良先端科学技術大学院大学 4 大阪電気通信大学 takayoshi.shibahara@a.riken.jp \{ikuya.yamada, noriki.nishida, hiroki.teranishi, hiroki.ouchi, kouji.kozaki, yuji.matsumoto\}@riken.jp \{hiroki.ouchi, taro\}@is.naist.jp ikuya@ousia.jp kozaki@osakac.ac.jp ## 概要 本論文では辞書を疑似データの作成に活用した固有表現抽出(遠距離教師あり固有表現抽出: Distant Supervision Named Entity Recognition)に取り組む. 本論文では取得したいカテゴリの辞書のみを活用してきた従来研究とは異なり,分類体系全体を考慮する手法を提案する.具体的には分類体系に含まれる全てのカテゴリを含んだ疑似データを作成し,モデルの学習に利用する. 実際に生物医学系のエンティティ・リンキング及び固有表現抽出のデー タセット:MedMentions とリンキング対象の知識ベース:UMLS を活用して遠距離教師あり固有表現抽出を行ったところ, ベースラインに比べて F1 值において $4.19 \mathrm{pt}$ の改善を達成し階層的な分類体系全体を考慮する重要性を明らかにすることができた。 ## 1 導入 文章に記述されているエンティティの位置とクラスを特定する固有表現抽出 (Named Entity Recognition:NER)は自然言語処理における基本的なタスクである。,応用例として,情報抽出 [1] や情報検索 [2] などをあげることができる。一方で多様な情報抽出・検索のニーズに応じた教師ありデータを準備するには多大なアノテーションコストがかかってしまう。 このため本論文では教師データがない状況における固有表現抽出に取り組む.その中でも特に遠距離教師あり学習(Distant Supervision)に基づく固有表現抽出 (Distant Supervision Named Entity Recognition: DS NER) $[3,4,5]$ に取り組む. 遠距離教師あり学習では取得したいカテゴリに応じた辞書を用いて疑似 図 1 既存の Distant Supervision NER(DS NER) との比較.通常の DS NER では疑似データ作成時に対象となるカテゴリ(哺乳類・爬虫類)に含まれる語句のみを活用する. 一方で提案手法では全てのエンティティと全てのカテゴリを利用する.例えば「マグロ」や「ミカン」などのエンティティや魚類・植物などのカテゴリも疑似デー タに活用する. データを作成することで学習データの不在に対処する. 遠距離教師あり学習は DBpedia [6], UMLS [7] などの大規模知識べースの発達により,これらの知識ベースに含まれる様々なカテゴリに対して教師デー タの不在を補うことができる. DS NER の先行研究 $[3,4,5]$ ではエンティティ全体の属する分類体系を利用せず,関心のあるクラス(以下対象カテゴリと呼ぶ)の情報しか利用してこなかった. 例えば図 1 のように,哺乳類・爬虫類のみを検出する固有表現抽出器を作成する場合を考えてみるとわかりやすい,疑似データ作成の際に哺乳類・爬虫類という分類体系の一部のみを利用し生物全体の分類体系に含まれる他のカテゴリの情報を利用してこなかったのである.より具体的には哺乳類・爬虫類に所属する「人間」や 「スッポン」などの語句しか利用せず,知識ベース 内に存在しているが対象カテゴリでないクラス (e.g.動物・魚類) や語句 (e.g. 「マグロ」・「ミカン」) を活用してこなかったのである。 そこで本論文では「分類体系全体の情報を使う」 というアイデアを提案・実装する.具体的には分類体系の全クラスを含んだ疑似データを作成し,活用する手法を提案する. 実際に生物医学系のエンティティ・リンキング及び固有表現抽出のデータセット:MedMentions [8] とリンキング対象の知識ベース:UMLS [7]を活用して検証を行った. ベースラインに比べて $\mathrm{F} 1$ 値において $4.19 \mathrm{pt}$ の改善を達成し分類体系全体を考慮する重要性を明らかにすることができた。 ## 2 手法 提案手法では「分類体系の全カテゴリを認識するモデル」によって「対象カテゴリの抽出」を行う. ただし教師データのない状況を考えているので「分類体系の全カテゴリを抽出するモデル」は「分類体系の全カテゴリを含んだ疑似データ」で訓練することによって実現する. そこで「分類体系の全カテゴリを含んだ疑似データ」をどのように作成したか,「分類体系の全カテゴリを含んだ疑似データ」によって「分類体系の全カテゴリを認識するモデル」 をどのように訓練し実現したか,「分類体系の全力テゴリを認識するモデル」によってどのように「対象カテゴリの抽出」をしたかを述べていく. ## 2.1 分類体系の全カテゴリを含んだ疑似 データ作成 「分類体系の各カテゴリに所属する語句」に対して辞書マッチを行うことで「分類体系の全カテゴリを含んだ疑似データ」を作成する。「分類体系の各カテゴリに所属する語句」は「各カテゴリに所属する語句の情報」と「各カテゴリ間の階層構造」を用いて取得する。 具体例として図 1 の「人間」という語句を考える.「人間」という語句は哺乳類に直接所属している. さらに哺乳類は動物・生物の下位概念でもある.このことから「人間」という語句は哺乳類・動物・生物の3つのカテゴリに所属していることがわかる。この情報から,「人間はスッポン,マグロ,ミカン,イチゴ,ワカメなど様々な生物を食してきた」という文の「人間」の部分に哺乳類・動物・生物という 3 つのラベルを文字列マッチ によって付与する1). 同文に出現する「スッポン」・「マグロ」・「ミカン」・「イチゴ」・「ワカメ」などの他の語句についても同様に複数のラベルを付与する。 ## 2.2 疑似データに基づく全カテゴリを認識 するモデルの学習 2.1 で作成された疑似データ上でモデルを学習させ,「分類体系の全カテゴリを認識するモデル」の取得を目指す. 本研究では先行研究 [9] と同じ BERT ベースのスパン分類モデルを学習させる. このスパン分類モデルは BERT により文を符号化し,スパンの始端・終端のべクトルを連結して線形分類を行うものである(図 2). まず前処理として 2.1 で作成された NER 疑似デー タをスパン分類のデータに変換した.具体的にはスパン最大長を決め文中のスパンを列挙する。その後ラベルのあるスパンはそのままのラベルを利用し, ラベルの付与されていないスパンは “O”ラベルを持つスパンとした. また, 複数の正解に対処できるように負の対数尤度の正解クラスに対する平均を口ス関数として学習を行った。 単純に学習を行うと,スパン分類モデルが既知の(辞書に含まれている)語句は抽出できる一方で未知の(辞書に含まれていない)語句を抽出しにくくなってしまう.例えば文:「新種の哺乳類オリンギートがアンデス山脈で人間に発見された.」の 「人間」は抽出できる一方で,分類体系に含まれない新種の「オリンギート」は抽出しにくくなってしまう.そこで Li らの手法 [10] を使い,ラベル付与されていないスパンの影響を“O”スパンのアンダーサンプリングによって割り引く。 ## 2.3 対象カテゴリの抽出 2.1 の疑似データ上で学習した「分類体系の全力テゴリを認識するモデル」を用いて「対象カテゴリの抽出」を行う,具体的にはi) スパン最大長を決め文中の候補スパンを列挙する。次に ii) 予測対象のカテゴリを絞って分類する。最後に iii)これらスパン分類の出力を固有表現抽出の出力に変換する.ii) において予測対象のカテゴリは対象カテゴリとそれを補完し分類体系全体を被覆するような最小限のカテゴリ(以下補完カテゴリと呼ぶ)及び“O”ラベルに限定した(図 2)。 iii) の際には,Yamada ら [11] と同様にスパンを予測確率の高いものから重複の 1)ただし修飾語も含んだ文字列も取得するために名詞句チャンカーを利用し,名詞句の末端に語句がある場合にラベルを付与した。 図 2 訓練時と予測時のスパン分類モデルの挙動の違い.訓練時には分類体系の全カテゴリ+ “O”ラベルを対象にスパン分類確率を計算するが,予測時には対象カテゴリ十補完カテゴリ(対象カテゴリを補完し分類体系全体を被覆するような最小限のカテゴリ)+“O”ラベルの予測スコアからスパン分類確率を計算する。 ないように選んでいくという方法で変換する。(ただしこの際に“O”ラベルが予測されたスパンは除いた.) ## 3 実験設定 本論文では UMLS(2021AA 版) [7] という知識べー スの分類体系の一部のカテゴリ2)を対象カテゴリとして,UMLS [7]を対象としたエンティティ・リンキング及び固有表現抽出データセットである MedMentions データセット [8] を用いて提案手法の評価を行った. UMLS は生物医学分野の知識ベー スで, 127 のクラス (Semantic Types) と 16,132,274 の用語を持つ. MedMentions は,4,392 の生物医学論文抄録に 352,496 のスパンが UMLS の概念に対応付けられるようにアノテーションされているデー タセットである. train/dev/test の文書数はそれぞれ 2,635/878/879 である. train 部分のデータセットは Distant Supervision の擬似アノテーションの対象として, dev/test の分割は正解アノテーションまま利用する. 本論文では提案手法をいくつかのベースラインと比較する. まず疑似データ作成手法と教師あり設定との比較を行うことで,遠距離教師あり学習としての妥当性を確認する。つまり,提案手法が辞書マッチよりも改善し, 教師あり学習と同等の精度を達成するという理想にどこまで近づけているかを確認する. 次に「分類体系の持つカテゴリの一部ではなく全体を活用する」という本論文のアイデアの是非を 2)具体的には MedMentions[8] で固有表現抽出タスクの対象として指定されている 21 個のカテゴリ確認するために(通常の DS NER と同様に)対象力テゴリのみを疑似データ作成に活用した BERT ベー ススパン分類モデルとの比較を行う.最後に「分類体系の持つカテゴリの一部ではなく全体を活用する」というアイデアが提案手法においてよりうまく実現できているかを確かめるために,類似した目的意識を持つ先行研究 [9] の手法と比較する. この先行研究は対象カテゴリに追加して補完カテゴリを疑似アノテーションに活用する研究である. また補足実験として,「分類体系の全カテゴリを活用する」というアイデアが教師あり設定でも有用であるかどうかを確かめた. ただし, 本論文の主題から外れるため付録 A に結果を示す。 ## 4 結果 実験結果は表 1 のようになった. 結果の評価尺度としては通常固有表現抽出に利用されるスパン・クラス完全一致によって予測・正解スパンの一致を測った Strict Precision/Recall/F1 スコアとスパン部分一致に条件を緩和した Lenient Precision/Recall/F1 スコアを利用した。ここで部分一致を許容した尺度を利用した理由は,辞書とマッチするエンティティに修飾語が掛かってエンティティ全体のスパンの曖昧性が生じてしまうためである.例えば,辞書に 「水」が含まれる際に「純水」の「純」が正解スパンに含まれるかどうかはアノテーション基準に依存し統一的な判断をすることが難しい. ## 4.1 遠距離教師あり学習としての妥当性 辞書マッチ手法の結果(表 1 行目)と提案手法の結果(表 4 行目)を比較すると,Strict F./Lenient F.のの両方において改善を達成していることがわかる。また,提案手法(表 4 行目)を教師あり学習(表 5 行目)と比較すると Strict F./Lenient F. スコアにおいて $31.8 \mathrm{pt} / 18.73 \mathrm{pt}$ も差があることがわかる. 以上から,辞書マッチと比べれば妥当なスコアである一方で,まだまだ教師あり設定と同等の精度という理想には大きく及ばないことがわかる. ## 4.2 論文のアイデアの成否 分類体系全体を利用する提案手法(表 4 行目)は分類体系の一部にしか着目しないべースライン(表 2 行目)に比べて Strict F./Lenient F. スコアにおいて $4.19 \mathrm{pt} / 3.7 \mathrm{pt}$ の改善を示している.この結果は分類体系の一部しか評価対象でない場合であっても分類 表 1 実験結果:疑似データ作成に利用した辞書マッチ,遠距離教師あり設定,教師あり設定における固有表現抽出のスコアを表示している。遠距離教師あり設定ではスパン分類モデルを利用し,通常の DS NER と同様に対象カテゴリのみを利用する方法・先行研究 [9] と同様に補完カテゴリを追加して利用する方法・分類体系の残りのカテゴリを追加して利用する提案手法の結果を示している. Strict P./R./F. はスパン・クラス完全一致によって予測・正解スパンの一致を測った Precision/Recall/F1 スコアである. Lenient P./R./F. はスパン部分一致を許容するようにしたスコアである. 太字は教師デー タを必要としない手法の中で最も高いスコアである. 体系全体を利用することが有用であると示しているといえる。 この理由について次のような仮説で説明することができる.まず対象カテゴリに対して子クラスはクラス内の多様性の理解につながり,精度の増大につながる(例えば対象カテゴリが動物の際に, その下位カテゴリである魚類を利用することで,動物には泳ぐものがいることを理解できる)。また,対象カテゴリの親クラスは子クラスに対する制限として働き Precision を増加させていると考えられる(例えば対象カテゴリが哺乳類の際に,動物でないものは哺乳類と分類されにくくなる). 同様に補完カテゴリに対しても Precision/Recall が増大することで,さらに対象カテゴリの Recall/Precision の増大に寄与していると考えることができる. ## 4.3 補完カテゴリの追加と階層構造 対象カテゴリに追加して補完カテゴリを利用する先行研究 [9](表 3 行目)では対象カテゴリのみを利用するベースライン(表 2 行目)に比べて Strict(Lenient) P. では改善が見られるものの Strict(Lenient) R. においては減少してしまっている. このことは補完カテゴリの追加により補完カテゴリの予測を増やすことで,対象カテゴリの Recall を犠牲に Precision を増加せているのだと解釈できる. 例えば,対象カテゴリ哺乳類に対する補完カテゴリ魚類の追加によって, 泳ぐなら魚類であって哺乳類ではないとしてしまっているようなことが起きてしまっていると考えられる. 一方で分類体系の全カテゴリを活用する提案手法(表 2 行目)ではこの Strict(Lenient) R. の減少を補っている.このことは補完カテゴリに近い特徴 をもつ対象カテゴリの下位クラスによって,本来対象カテゴリであるエンティティを補完カテゴリとして予測する失敗が減っているためであると考えられる. 例えば,対象カテゴリ哺乳類の下位カテゴリクジラ目の追加によって,「哺乳類の中にも泳ぐものが存在することをモデルが理解し,本来哺乳類クラスである事例への魚類クラスの過剰な予測を防いでいるというようなことが起きていると考えることができる。,他にもラベル不均衡により対象カテゴリがうまく学習できていないのが原因であると考えることもできる。なぜなら,補完カテゴリは対象カテゴリより階層の浅く学習事例の多いクラスになりやすい(例:哺乳類に対する植物) と考えられるからである. ## 5 結論 本研究では遠距離教師あり学習および教師あり学習(付録 A)においてたとえ分類体系の一部のカテゴリに興味がある場合であっても,分類体系全体に含まれる全カテゴリを活用することは有用であることを明らかにした。一方で今回の手法が一般ドメインでも有用かどうか,同じく教師データがない状態で利用可能な Few-Shot 設定と比べてどれほどの優位性があるかを検証しきれていない。 本研究の発展としてラベル定義などラベル階層構造以外の様々な情報の Distant Supervision NER への活用や Fine-Grained NER データセットの Distant Supervision NER 事前学習データとしての活用などが考えられる。 ## 参考文献 [1] Tianyi Liu, Xinsong Zhang, Wanhao Zhou, and Weijia Jia. Neural relation extraction via Inner-Sentence noise reduction and transfer learning. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 2195-2204, Brussels, Belgium, 2018. Association for Computational Linguistics. [2] Ahmed Aliwy, Ayad Abbas, and Ahmed Alkhayyat. NERWS: Towards improving information retrieval of digital library management system using named entity recognition and word sense. Big Data and Cognitive Computing, Vol. 5, No. 4, p. 59, October 2021. [3] Zhanming Jie, Pengjun Xie, Wei Lu, Ruixue Ding, and Linlin Li. Better modeling of incomplete annotations for named entity recognition. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 729-734, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [4] Minlong Peng, Xiaoyu Xing, Qi Zhang, Jinlan Fu, and Xuanjing Huang. Distantly supervised named entity recognition using Positive-Unlabeled learning. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 2409-2419, Florence, Italy, July 2019. Association for Computational Linguistics. [5] Chen Liang, Yue Yu, Haoming Jiang, Siawpeng Er, Ruijia Wang, Tuo Zhao, and Chao Zhang. BOND: BERT-Assisted Open-Domain named entity recognition with distant supervision. In Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery \& Data Mining, KDD '20, pp. 1054-1064, New York, NY, USA, August 2020. Association for Computing Machinery. [6] Jens Lehmann, Robert Isele, Max Jakob, Anja Jentzsch, Dimitris Kontokostas, Pablo N Mendes, Sebastian Hellmann, Mohamed Morsey, Patrick Van Kleef, Sören Auer, and Others. Dbpedia-a large-scale, multilingual knowledge base extracted from wikipedia. Semantic web, Vol. 6, No. 2, pp. 167-195, 2015. [7] Olivier Bodenreider. The unified medical language system (UMLS): integrating biomedical terminology. Nucleic Acids Res., Vol. 32, No. Database issue, pp. D267-270, January 2004. [8] Sunil Mohan and Donghui Li. MedMentions: A large biomedical corpus annotated with UMLS concepts. p. 13, 2018. [9] 芝原隆善, 大内啓樹, 山田育矢, 西田典起, 寺西裕紀, 古崎晃司, 渡辺太郎, 松本裕治. ユーザの興味があるカテゴリに応じた NER システム構築フレームワーク. 言語処理学会年次大会, 2022. [10] Yangming Li, Lemao Liu, and Shuming Shi. Empirical analysis of unlabeled entity problem in named entity recognition. September 2020. [11] Ikuya Yamada, Akari Asai, Hiroyuki Shindo, Hideaki Takeda, and Yuji Matsumoto. LUKE: Deep contextual- ized entity representations with entity-aware self-attention. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6442-6454, Online, November 2020. Association for Computational Linguistics. [12] Jiaxin Huang, Chunyuan Li, Krishan Subudhi, Damien Jose, Shobana Balakrishnan, Weizhu Chen, Baolin Peng, Jianfeng Gao, and Jiawei Han. Few-Shot named entity recognition: An empirical baseline study. pp. 1040810423, November 2021. [13] Alexander Fritzler, Varvara Logacheva, and Maksim Kretov. Few-shot classification in named entity recognition task. In Proceedings of the 34th ACM/SIGAPP Symposium on Applied Computing, New York, NY, USA, April 2019. ACM. [14] Xiao Ling and Daniel S Weld. Fine-Grained entity recognition. In AAAI, 2012. [15] Satoshi Sekine and Chikashi Nobata. Definition, dictionaries and tagger for extended named entity hierarchy. In LREC, 2004. ## A 教師あり設定における提案手法 のアイデアの有効性 表 2 教師あり設定において利用するカテゴリを変更した際の Strict P./R./F. 教師あり設定においても通常の固有表現抽出と同じように対象カテゴリのみを活用する方法, 先行研究 [9] と同様に補完カテゴリを追加し活用する方法,提案手法のように分類体系に含まれる全カテゴリを活用する方法の三種類を比較した. 表 2 では実験によって得られた Strict P./R./F. が表示されている. 実験結果からは 4.3 と同様に, 補完カテゴリの追加によって Recall が減少するが Precision が上がること,また分類体系の残りのカテゴリを追加するとこの Recall の減少を補い, Precision/Recall の両方が対象カテゴリのみの活用より改善するという結果が得られた. 以上のことから分類体系全体の階層構造を活用することはたとえ教師あり設定であっても有用であると言える. ## B 関連研究 本研究ではアノテーションデータが存在しない状況において利用可能な固有表現抽出技術に取り組む.このような状況に対応しうる実験設定として2つのものが挙げられる。一つは辞書(語句をカテゴリごとにまとめたもの)に基づいた文字列マッチによって疑似データを作成し活用する方法 (Distant Supervision NER [3, 4, 5])であり,もう一つはごく少量のアノテーションデータを利用する方法 (Few-Shot NER [12,13])である. 本研究は Distant Supervision NER に分類されるものである. 通常の Distant Supervision NER が疑似データ作成時に対象カテゴリのみを活用するのに対して, 本研究は分類体系の持つカテゴリ全てを活用する (図 1). この点において今回の研究は分類体系に含まれるカテゴリ階層全体を考える Fine-Grained NER[14] や Extended Named Entity [15] の観点を Distant Supervision NER に導入した研究であると言える. また,この研究は類似した問題意識を持つ先行研究 [9] を発展させたものである.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q6-8.pdf
# CrossWeigh の日本語 NER データセットへの適用と ラベルノイズの調査 西村柾人 1 新納浩幸 ${ }^{2}$ 1 茨城大学工学部情報工学科 ${ }^{2}$ 茨城大学大学院理工学研究科情報科学領域 19t4054a@vc.ibaraki.ac.jp hiroyuki.shinnou.0828@vc.ibaraki.ac.jp ## 概要 通常, 教師あり学習は訓練データに誤りがないという前提で学習が行われるが, 実際には誤りを含む場合も多い. 特に NER のデータセットはラベルの定義に曖昧なものがあるため, タグ付けには誤りが生じやすい. このような背景から Wang らは誤ったラベルの付いたデータセットから NER のモデルを学習する CrossWeigh を提案した. 本論文では CrossWeigh を日本語 NER データセットに適用し, CrossWeigh の効果を確認する. 同時に, CrossWeigh によって生成される重み付きデータを調査することでデータセット内にある誤りの発見を試みた. ## 1 はじめに 固有表現認識 (NER) とはテキストから固有表現 (NE; Named Entity) となる単語を特定し, 光の単語に対する NE のラベルを推定するタスクである. 近年では, 学習データを大量に用意し, モデルを学習させる手法 [1] が多い. しかし, この学習データ内のラベルにノイズが含まれている場合, 深層学習を利用した手法では,これらのノイズに対して過学習してしまい, 性能劣化につながる問題が指摘されている [2]. Wang らもこのラベルノイズの影響について指摘している [3].Wang らによると NER ベンチマークの 1 つである CoNLL03 データセットにおいて, 約 5.38\%のラベル付けミスが確認されている. さらに, これらのラベルノイズを修正したデータを用いることによって, 性能向上が確認されている. Wang らは同論文内で, ラベルミスを処理するための汎用的なフレームワークとして CrossWeigh を提案している. このフレームワークを利用することで, データ内の光れ光れの文章に対して再重み付けが行われ, 生成された重み付けデータを利用することによってラベルノイズの影響を軽減することができる.このような,より正確なデータを使って学習することでモデルの性能向上を図るアプローチは Data-Centric $\mathrm{AI}(\mathrm{DCAI})$ と呼ばれ,注目を集めている [4][5]. 本研究では, CrossWeigh をストックマーク株式会社が提供している, Wikipedia の日本語 NER デー タセット [6] に適用し, 重み付けデータの生成を行う.さらに,この重み付きデータを用いて, NER モデルの Flair[7] を学習することによって, 日本語での CrossWeigh の効果を確認する. また, 先行研究 [8] では, データセット内のラベルノイズの調査を, CrossWeigh によって生成された重み付きデータの中で最も低い重みが付けられたデー タから, 無作為に抽出した 100 件のデータのみ調査を行った. 本研究では, 最も低い重みが付けられたデータ全てに対して調査を行った. 加えて, 発見したラベルノイズと NER モデルの予測スコアとの関連度に応じてタイプ分類を行い, 光れら 2 つの相関性についても調査を行った。 ## 2 関連研究 CrossWeigh のように, ラベルの誤りを自動的に検出する試みは以前から研究されている [9] が, この研究では品詞の間違いに対して修正を行うため, 今回のようにNER に対して適用することができない. 他にも [10][11][12] ではラベルノイズが含まれる学習データを利用した NER の研究がされているが, これらでは NE がO ラベルとなる誤りに対してのみを対象としている. また, CrossWeigh はモデルを改良するのではなく, 使用する学習データに対して処理を行い, モデルの性能向上を図る手法であるため DCAI の研究 [4] とも関連がある.ただし, 今回の実験では 図 1 ラベルノイズの推定 DeepLearning.AI が行う Data-Centric AI Competition ${ }^{1)}$ に取り組むのではなく, CrossWeigh が日本語 NER データセットにおいても有効であるかについて検証を行う。 日本語データセットにおけるラベルの誤り問題に取り組んだ研究として [13] が挙げられる. この研究では, アノテーション漏れを推定し觉のエンティティを学習データに追加することによって, 系列ラベリングを用いたエンティティ抽出の再現率の向上を行っている. また, [14] では Teacher-Student 学習を利用することでラベル誤りを含むデータにおける NER の性能向上について研究を行い, CrossWeigh と同樣にラベルノイズの影響を緩和し性能向上が確認されている. ## 3 CrossWeigh CrossWeigh は 2 つのモジュールから構成されている. 1 つ目はラベルノイズの推定, 2 つ目は推定したラベルノイズが含まれているデータに再重み付けを行うモジュールである. 1 つ目のラベルノイズの推定は $\mathrm{k}$-分割交差検証をもとにした考えで実装されている. 実行手順を図 1 に示す. まず学習データを $\mathrm{k}$ 個に分割することで $D_{1}, D_{2}, \ldots, D_{k}$ を作成する. 光して, NER モデル $M_{i}(1 \leq i \leq k)$ を学習データの中から $D_{i}$ を除いたデータによって学習させる. 作成した各モデル $M_{i}$ を使って $D_{i}$ の文のラベルに対して予測させ, モデ 1) https://https-deeplearning-ai.github.io/data-centric-comp/ ルの出力と異なるラベルを持つ文は, ラベルノイズである可能性が高いものとしてマークする. この図 1 の処理を,光れ光れ異なるランダムな分割で行い, $\mathrm{t}$ 回実行する. ここまでを実行することで, データセットのラベルノイズの推定が行われる. 本実験では $k=10, t=3$ と設定して行われた. 2 つ目の再重み付けは, ラベルノイズの推定でマー クされた文 $x_{i}$ に対して重み $w_{i}$ を調整することで実装されている. 最初に, 全ての文の重みを $w_{i}=1$ として設定する. 次に, ラベルノイズとしてマークされた文の重みを式 (1) で計算する. $ w_{i}=\epsilon^{c_{i}} $ 式 (1) の $\epsilon$ はパラメータであり, ラベルノイズ推定モジュールの精度に応じて設定する. 本実験では $\epsilon=0.7$ とした. $c_{i}$ は $\mathrm{t}$ 回実行されたラベルノイズの推定で, 何回モデルの出力と異なるラベルが推定されたかによって決まる.つまり $c_{i}$ の取りうる値は $1 \leq c_{i} \leq t$ のいずれかの整数値である. CrossWeigh はこれら 2 つのモジュールを使って, ラベルノイズの影響を緩和する重み付きデータを作成する. ## 4 実験 ## 4.1 実験設定 本研究では, データセットとして, ストックマーク株式会社が提供している, Wikipedia の日本語 NER データセット [6] を用いた. このデータセットに対して, CrossWeigh および固有表現認識のタスク適用するために,トークンごとに分割し, ラベル付けを行った. 固有表現認識のラベルのフォーマットとしてはIOB2フォーマットを利用した. また, 整形したデータを学習データ, 検証用データ,テストデータの比率が 8:1:1 になるように分割した. NER モデルとしては, Flair を用いた. ここで用いる Flair とは Akbik らの Contextual String Embeddings for Sequence Labeling[7] で提案された NER モデルを,日本語データを用いて事前学習を行ったものである. さらに, CrossWeighによって付与された重みを考慮して学習できるようにモデルを調整した. ## 4.2 評価方法 評価指標として F1-score( $\mathrm{F}$ 値)を用いた. CrossWeigh を適用していないデータ (Original data) と CrossWeigh を適用したデータ (Weighed data) 光れぞれに対して学習を行い, モデルがトークン列に対して適切なラベルを付与できたか否かをもとに算出を行った. ## 4.3 結果 Flair の結果を表 1 と付録の図 3 に示す. F1score に関しては micro, macro のどちらにおいても CrossWeigh を適用したものが良い性能を示している. 光れ光れのラベルに対する結果では, 最大で 0.1 ポイント程のスコア向上がみられた. これらのことから日本語においても CrossWeigh の有効性がわかる. しかし, ラベルによってはポイントが減少しているものもあるため, これらに対しては今後の課題として分析が必要であると考えられる. ## 5 データセット内のラベルノイズの 検出 ここでは CrossWeigh によって作成された重み付けデータを利用して,データセット内のラベルノイズを発見する手法を試みる. ## 5.1 ラベルノイズ 今回使用した Wikipedia の日本語 NER データセッ卜におけるラベルノイズの例として図 2 が挙げられる. (a)では文中の「旭川」と「小樽」に対して地名のラベルが付与されるべきであるが, ラベルが付与されていないためOタグとして処理が行われてしまう.また, (b) では「水夏希は」に人名のラベルが付与されてしまっているが, スパンが正しくないために「は」もI-人名タグとして処理が行われてしまう. これらのラベルノイズは CrossWeigh の再重み付けの際に,より小さい重みが付与されていると考えられる. (b) スパンがずれているデータ 図 2 ラベルノイズ例 ## 5.2 手法 CrossWeigh を適用することで重み付きデータが作成される.この重み付きデータは各文ごとにラベルミスに応じた重みがつけられているため,この重みが最小のものがラベルノイズが含まれている可能性が高いデータであると考え,光れらの重みが最小のデータを全て調査した. また同時に, ラベルノイズとなるトークンは, モデルがとのトークンのラベルを予測する際に, ラベルごとの分類スコアも小さいものになると考えたため, ラベルノイズと予測結果に関係があるかどうかも調査する. ラベルノイズであるか否かの判定は, Wikipedia の日本語 NER データセットを構築する際に使われた関根の拡張固有表現階層 [15]を参考にした。 ## 5.3 結果 CrossWeighによって生成された重み付きデータを調査したところ, データセットの全 5343 個のデータ の内, 1484 個のデータに重みが最小のものが付与されていることがわかった. これらの 1484 個のデータを,トークンごとのラベルの分類スコアに着目して調査した結果, 大きく分けてのような 4 つのタイプに分類できた。 1. 分類スコアが最も低いトークンがラベルノイズであるもの 2. モデルの予測結果が間違っており, 元のデータがあっているもの 3. 分類スコアが最も低いトークン以外のものがラベルノイズであるもの 4. 予測結果と元のデータどちらもあっているもの 以上 4 つのタイプは以下の表 2 にまとめたデータ数であることがわかった. このタイプ分類からラベルノイズとなるものは Type1, 3 となる. つまり, 最小の重みが付与された 1484 個のデータの内, 73 個のデータがラベル付けに誤りがあるデータであることがわかった. ## 6 考察 ## 6.1 CrossWeigh の日本語 NE データへの 適用 Flair の結果である表 1 から, Original data で学習した Flairよりも, Weighed data で学習した Flair の方が $\mathrm{NE}$ の識別精度が向上していることがわかる. このことから CrossWeigh の手法は日本語 NE データにおいても有効であることがわかった しかし, 付録の図 3 に示したラベルごとの結果を見ると, 全てのラベルに対して識別精度が向上しているのではなく, 大きく精度が向上しているものから減少しているものもあるため, これらを分析, 改善することによってより良い重み付きデータを生成できると考えられる。 ## 6.2 ラベルノイズの特定 5.3 節より, 使用した Wikipedia の日本語 NER デー タセット内のラベルノイズの探索範囲を狭めることに成功した. CrossWeigh の重み付きデータを利用す ることで効率的にデータセット内のラベルノイズを発見することができることがわかった. ラベルノイズと予測の際の分類スコアの関係としては,あまり大きな相関は見られなかった.これには, 予測に使うモデルがラベルノイズを含むデータセットを学習に使用してしまっているため, ラベルノイズとなるトークンに対して実際に正しいラベルを予測させるのが難しいためと考えられる. 今回の実験で発見したラベルノイズが, 元のデー タではどのラベルが付けられていて, 実際にはどのラベルが付くべきであったかを付録の表 3 にまとめた.ここから, 調査したWikipedia の日本語 NER デー タセット内のラベルノイズでは, 元のラベルが O ラベルであるものが最も多いことがわかった.ここからラベルノイズの発生原因としては, 固有表現となる単語を見落としてしまうというものが最も多いことがわかった. CrossWeigh の有効性から考えられるように, ラベルノイズがモデルに与える影響は大きいため, どのようにしてデータセットのラベルノイズの発生を抑えることが今後の課題であることがわかった. ## 7 おわりに 本研究では日本語 NER データセットにおける CrossWeigh の有効性について検証を行った. CrossWeigh によって生成された重み付きデータを利用することでNER モデルの性能向上を確認することができた. 今後の課題は精度が下がったラベルに対しての分析である. また, データセット内のラベルノイズの調査に関しては, CrossWeigh が生成する重み付きデータを利用することで, 実際にデータセット内のラベルノイズを発見することに成功した. ラベルノイズとなるトークンはモデルの予測結果がよい数値ではないと考え, 2 つの関係について調べてみたが, 相関性は見られなかった. ラベルノイズの内訳についても調査したが, 最も多いラベルノイズの発生原因はラベルの付け忘れであることがわかり, データセットを構築する際に,このようなミスの発生を抑制することが今後の課題である. ## 謝辞 本研究は 2022 年度国立情報学研究所公募型共同研究 (22FC04) の助成を受けています. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. arXiv preprint arXiv:1810.04805, 2018 . [2] Chiyuan Zhang, Samy Bengio, Moritz Hardt, Benjamin Recht, and Oriol Vinyals. Understanding deep learning requires rethinking generalization, 2016. [3] Zihan Wang, Jingbo Shang, Liyuan Liu, Lihao Lu, Jiacheng Liu, and Jiawei Han. CrossWeigh: Training named entity tagger from imperfect annotations. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 5154-5163, Hong Kong, China, November 2019. Association for Computational Linguistics. [4] Mark Mazumder, Colby Banbury, Xiaozhe Yao, Bojan Karlaš, William Gaviria Rojas, Sudnya Diamos, Greg Diamos, Lynn He, Douwe Kiela, David Jurado, David Kanter, Rafael Mosquera, Juan Ciro, Lora Aroyo, Bilge Acun, Sabri Eyuboglu, Amirata Ghorbani, Emmett Goodman, Tariq Kane, Christine R. Kirkpatrick, Tzu-Sheng Kuo, Jonas Mueller, Tristan Thrush, Joaquin Vanschoren, Margaret Warren, Adina Williams, Serena Yeung, Newsha Ardalani, Praveen Paritosh, Ce Zhang, James Zou, Carole-Jean Wu, Cody Coleman, Andrew Ng, Peter Mattson, and Vijay Janapa Reddi. Dataperf: Benchmarks for data-centric ai development, 2022. [5] 古田拓毅. データ中心の視点から捉える深層強化学習. 人工知能, Vol. 37, No. 4, pp. 507-515, 2022. [6] 近江崇宏. Wikipedia を用いた日本語の固有表現抽出のデータセットの構築. 言語処理学会第 27 回年次大会発表論文集 (NLP2021), 2021. [7] Alan Akbik, Duncan Blythe, and Roland Vollgraf. Contextual string embeddings for sequence labeling. In COLING 2018, 27th International Conference on Computational Linguistics, pp. 1638-1649, 2018. [8] 西村柾人, 新納浩幸. Crossweigh の日本語 ner データセットへの適用. Technical Report 21, 茨城大学工学部情報工学科, 茨城大学大学院理工学研究科情報科学領域, sep 2022. [9] 中川哲司, 松本雄二. サポートベクターマシンを用いた誤り検出. 言語処理学会年次大会発表論文集, Vol. 8, pp. 563-566, 2002. [10] Kun Liu, Yao Fu, Chuanqi Tan, Mosha Chen, Ningyu Zhang, Songfang Huang, and Sheng Gao. Noisy-labeled ner with confidence estimation, 2021. [11] Zhanming Jie, Pengjun Xie, Wei Lu, Ruixue Ding, and Linlin Li. Better modeling of incomplete annotations for named entity recognition. In Proceedings of the $\mathbf{2 0 1 9}$ Conference of the North American Chapter of the As- sociation for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 729-734, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [12] Stephen Mayhew, Snigdha Chaturvedi, Chen-Tse Tsai, and Dan Roth. Named entity recognition with partially annotated training data, 2019. [13] 伊藤雅弘, 山崎智弘. アノテーション漏れ推定を用いたエンティティ抽出. 言語処理学会第 27 回年次大会発表論文集 (NLP2021), 2021. [14]田川裕輝, 中野騰久, 尾崎良太, 谷口友紀, 大熊智子,鈴木裕紀, 木戶尚治, 富山憲幸. Teacher-student 学習を利用したラベル誤りを含むデータにおける固有表現認識の性能向上. 言語処理学会第 28 回年次大会発表論文集 (NLP2022), 2022. [15] Satoshi Sekine, Kiyoshi Sudo, and Chikashi Nobata. Extended named entity hierarchy. In Proceedings of the Third International Conference on Language Resources and Evaluation (LREC'02), Las Palmas, Canary Islands - Spain, May 2002. European Language Resources Association (ELRA). ## A 付録 ## A. 1 ラベルごとの F 值の比較 図 3 ラベルごとの $\mathrm{F}$ 値 ## A. 2 発見したラベルノイズの内訳 & 光の他の組織名 & イベント名 & 人名 & 地名 & 政治的組織名 & 施設名 & 法人名 & 製品名 & $\mathrm{O}$ \\
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q6-9.pdf
# Majority or Minority: 固有表現抽出における データの不均衡性に着目した損失関数の提案 根本颯汰 ${ }^{1}$ 北田俊輔 ${ }^{2}$ 彌冨仁 ${ }^{1}$ 1 法政大学理工学部 2 法政大学大学院 理工学研究科 \{sota.nemoto.5s, shunsuke.kitada.8y\}@stu.hosei.ac.jp iyatomi@hosei.ac.jp ## 概要 多くの自然言語処理タスクはデータの不均衡の問題に直面しており,実用的な応用がなされている固有表現抽出もその一つである. 固有表現抽出は抽出対象の固有表現以外のトークンすべてがのククラスとなるため,クラスが大多数を占める不均衡なデータとなっている. 本論文では,固有表現抽出における不均衡性に着目した新たな損失関数 majority or minority loss (MoM loss) を提案する. 提案手法の核となるアイディアは多数派のクラスであるのクラスのトークンのみを計算対象した loss を従来のモデルの損失関数に追加するものである. 実験を通じて MoM loss がマルチクラス,2クラス分類問わず,言語非依存で性能向上に寄与することを確認した. ## 1 はじめに 多くの自然言語処理 (natural language processing; NLP) タスクはデータの不均衡性の問題に直面しており, 固有表現認識 (named entity recognition; NER) もその一つである. 具体的に,非固有表現である 0 クラスのサンプル数は CoNLL2003 データセット [1] においては, それ以外の固有表現クラスのサンプル数の合計の 4.6 倍, OntoNotes 5.0 データセット [2] においては 7.6 倍である. そのため結果として一般的な機械学習モデルを適用した場合,多数を占める 0 クラスへの適合が優先され,他の少数の固有表現クラスの予測性能が低下する恐れがある。したがってこの不均衡な問題に対策することは NER の予測性能の向上において普遍的で重要な課題である. NER は細かく flat-NER [3] と nested-NER [4] に分けられる. flat-NER はテキスト内の各トークンに 1 つのラベルを割り当てるように訓練する系列ラベリングタスクとして定式化され,各トークンの固有表現ラベルを予測するマルチ分類問題に帰着され る. 一方で nested-NER は固有表現の範囲が入れ子になっているタスクで,各トークンに対する質問応答タスクとしてみなして学習する機械読解 (machine reading comprehension; MRC) タスクとして定式化されている. 例えば「[大谷翔平] はメジャーリーグで二刀流として活躍している.」に人名を抽出する場合は「本文中に含まれる人名は誰だ」という質問文に対して「大谷翔平」が抽出される。そのため,MRC タスクは質問文に対応したテキスト中の各トークンが抽出対象かどうかの 2 クラス分類問題に帰着される。系列ラベリングタスクで○クララスが多数派であったように,MRC タスクでも非固有表現のトークンが非常に多いため,こちらも不均衡な問題である。 不均衡性に対する手段として深層学習技術の親和性や導入の手軽さから,機械学習モデルの損失関数を設計する cost sensitive learning が現在の主流の一つである [5, 6, 7]. その中でも focal loss (FL) [5] や dice loss (DL) [7] は既存の有効的な手法として広く知られている. FL はコンピュータビジョン分野で効果が確認された損失関数で,物体検出タスクの背景と検出対象の前景との不均衡性に着目して設計された. NLP タスクにも応用され一定の成果を上げている [8]. また DL は NLP 分野のいくつかのタスクで効果が確認され,評価指標である F1 スコアに近いダイス係数を使用することで不均衡性に対処する損失関数である [7]. しかし 2 クラス分類に基づいて設計された FLやDL は2クラス分類問題として扱う MRC タスクには適用可能だがマルチクラス分類である系列ラベリングタスクに適用することは困難である.従って NER を系列ラベリングタスクとして解く際にも適用可能な不均衡性に対処できる損失関数が必要である. 本論文では, 圧倒的多数である○クラスおよび,少数の各固有表現クラスの識別精度の両立を実現 する majority or minority loss (MoM loss) を提案する. MoM loss は元の機械学習モデルの損失に追加するシンプルかつ汎用的な手法で,多数派のクラスデー タのみに対する任意の損失関数として定義される。本論文で扱う NER の系列ラベリングタスクにおいて MoM loss は正解ラベルが ○ クラスのトークンに対する損失として定義される. 少数派クラスから多数派クラスへの誤識別は,当該少数派クラスの precision の大幅な低下をもたらす。提案する MoM loss は各クラスのデータ数に応じて学習係数や損失関数を調整するような従来の手法と異なり, 多数派クラスの誤識別に対して直接ペナルティを課してそれを減らすように学習することで結果として少数派クラスの予測性能を大きく向上させ,全体の識別率の向上に繋げる。また提案する MoM loss は任意の損失関数に適用可能であるため,MRC タスクにおいても適用可能である. ## 2 MoM Loss 我々は表記方法を紹介した後に一般的な cross entropy (CE) について説明し, 次にシンプルでありながら非常に効果的な提案手法 MoM loss について説明する。ここでの説明は我々の提案の主である系列ラベリングタスクとして解くことを想定する. まず,入力テキスト $X$ は $W=\left[W_{1}, W_{2}, \cdots, W_{M}\right]$ の長さ $M$ のトークンに分割される. トークン $W_{i}$ に対してラベル $T_{i} \in \mathbb{R}^{|\mathscr{F}|}$ を持つ. これは学習時のラベル $T=\left[T_{1}, T_{2}, \cdots, T_{M}\right] \in \mathscr{R}^{M \times|\mathscr{F}|}$ の集合 $\mathcal{T}$ (e.g., B-LOC, I-LOC, B-ORG, ...) として与えられる. 各トークンのラベル付けには一般的によく使われる BIO 形式を採用する [9]. この形式を定義する文字はクラスの接頭辞である,先頭の固有表現を表す $(\mathscr{R})$ 、それ以外の固有表現の $(\mathscr{J})$ 、非固有表現の (O) から成る. モデルは,各トークンについて予測される確率 $P_{i} \in \mathbb{R}^{|\mathscr{T}|}$ を出力するように学習される.つまり系列ラベリングタスクは,教師タグの系列 $T \in \mathbb{R}^{M \times|\mathcal{F}|}$ に近い確率の系列 $P \in \mathbb{R}^{M \times|\mathscr{I}|}$ を推定する. ## 2.1 Cross Entropy Loss $\mathscr{L_{\mathrm{CE}}$} $\mathrm{CE} \ell_{\mathrm{CE}}\left(T_{i j}, P_{i j}\right)=T_{i j} \log \left(P_{i j}\right)$ はトークン $W_{i}$ の one-hot に表現のラベル $T_{i}$ と予測確率 $P_{i}$ 間の損失関数 $\mathscr{L}_{\mathrm{CE}}(\cdot, \cdot)$ であり,以下のように定義される: $ \mathscr{L}_{\mathrm{CE}}(T, P)=-\frac{1}{M} \sum_{i=1}^{M} \sum_{j=1}^{|\mathscr{F}|} \ell\left(T_{i j}, P_{i j}\right) $ $T_{i j}$ と $P_{i j}$ は $T_{i}, P_{i}$ ベクトルの $j$ 番目の要素である. ## 2.2 MoM Loss $\mathscr{L_{\text {MoM }}$} NER では多数派の○クラスのサンプルが学習を圧迫し, 他の固有表現クラスのサンプルの学習が十分にされず,固有表現クラスの識別精度の低下を招く. 従来のデータ数に応じた損失関数の重み付けは一定の成果を上げているが,重みの最適化を正確に行わないと精度が低下する可能性があるため改善の余地が残されていた $[5,7]$. MoM loss の基本的な考え方は,○クラスの正解ラベル (i.e., $T_{i j}=0$ ) に対してのみ損失を計算することである。そのため,非固有表現トークンを 0 クラスとみなすことで MRC タスクでも導入が可能となる. 我々の MoM loss を以下のように定義する: $ \mathscr{L}_{\mathrm{MoM}}(T, P)=-\frac{1}{M} \sum_{i=1}^{M} \sum_{j=1 ; T_{i j}=\mathscr{G}}^{|\mathcal{T}|} \ell\left(T_{i j}, P_{i j}\right) $ の MoM loss を従来のモデルの損失関数 $\mathscr{L}(\cdot, \cdot)$ に追加する. これによって MoM lossが ○ クラスのみの loss を計算するため, 固有表現クラスとのクラスに対する疑似的な 2 段階分類を実現させた. モデルの訓練時には、従来の CE に加えて MoM loss を加えた以下の損失を最小化する: $ \mathscr{L}_{\text {total }}(T, P)=\lambda \cdot \mathscr{L}(T, P)+(1-\lambda) \cdot \mathscr{L}_{\mathrm{MoM}}(T, P), $ ここでパラメータ $\lambda$ は $\mathscr{L}(\cdot, \cdot)$ と $\mathscr{L}_{\mathrm{MoM}}(\cdot, \cdot)$ の間のトレードオフを制御するハイパーパラメータである. この $\mathscr{L}_{\text {total }}$ は様々な分野でデータの不均衡に対して有効なマルチタスク学習 [10] の一種として考えることができる $[11,12]$. ## 3 実験 本節では提案する損失関数である MoM Loss の効果を, flat-NER として系列ラベリングタスクと MRC タスクの 2 通りの方法でモデルを学習した. 系列ラベリングタスクでマルチクラス分類における提案手法の有効性を示し,MRC タスクで2 クラス分類に親和性のある先行研究と比較した. ## 3.1 データセット 我々は日英含む以下の 4 つのデータセットを使用した: CoNLL2003 [1], OntoNotes5.0 [2], 京大ウェブ文書リードコーパス [13], Stockmark-NER-wiki [14]. 表 1 各損失関数の Sequence labeling タスクにおける実験結果 & 87.62 & 89.15 & & 71.88 & 74.27 & & 77.79 & 81.53 & \\ これらのデータセットの統計量をまとめたものを付録 Aにて議論する。 NER データセットの不均衡性を示すため,Oクラスのサンプル数 $N_{\odot}$ と固有表現クラスのサンプル数 $N_{\text {nonO }}$ から不均衡率 $\rho$ を以下のように計算する: $ \rho_{\odot}=N_{\odot} /\left(N_{\odot}+N_{\text {non๑ }}\right) . $ すべてのデータセットで 0 クラスの占める割合が 8 割を超える非常に不均衡なデータセットであることが確認できる。また,英語のデータセットでは一般的な訓練/開発/評価データの分割を採用し,一方で日本語のデータセットではランダムに 8:1:1 にデー タを分割した. さらに詳細なデータセットの内容については付録 Aに記載した。 ## 3.2 ベースラインモデル 我々は系列ラベリングタスクには BERT [3] MRC タスクには BERT-MRC [15] を使用した. BERT [3] は,大規模なテキストコーパスから事前学習された Transformer [16] ベースの言語モデルであり,現在 NLP タスクのベースラインモデルとして幅広く利用されている. テキストを入力することで各トークンに対応したマルチクラスの固有表現ラベルを出力する. 系列ラベリングタスクを解く際にこのモデルを使用し, 日英 4 つのデータセットにて FL [5] を適用したモデルと比較した. BERT-MRC [15] は BERT を元に NER を MRC タスクとして解くモデルで,当時英語と中国語のベンチマークで当時最先端の記録を更新した. 入力テキストから 2 クラスの各固有表現に対応したトークンの場所を出力する.英語のデータセットを用いて FL [5] やDL [7] を適用したモデルと比較した. ## 3.3 比較対象の損失関数 Focal loss (FL) [5] は2クラス分類に有効な損失関数であり,物体検出における検出対象の前景と背表 2 各損失関数の MRC タスクにおける実験結果 \\ 景の不均衡性に着目した損失関数である. また,マルチクラス分類への拡張も可能であるが,適切なハイパーパラメータの調整が必須となる. Dice loss (DL) [7] は偽陽性と偽陰性を等しく重要視する損失関数で,重み付き $\mathrm{F}$ 值に近い損失関数である.しかし、2クラス分類タスクである MRC タスクでの使用を前提としており,系列ラベリングタスクでは使用できない。ここではDL の論文内で予測性能の向上に最も貢献した dice coefficient (DSC) をDLとして使用した。 今回提案する損失関数をとその他の損失関数である CE や FL, DLを用いた場合の予測性能の比較結果を報告する。 ## 4 実験結果 系列ラベリングタスクにおいて 4 つのデータセットに対する各損失関数を適用した際の予測性能の結果を表 1 に示す. MoM loss は CoNLL2003, OntoNotes 5.0, KWDLC,そして Stockmark-NER-Wiki の 4 つのデータセットに対して既存の CE によって訓練した BERT より F1 スコアが $0.33 \%, 0.37 \%, 0.91 \% , 0.70 \%$高い結果となった. 提案手法である ○クラスと固有 表現クラスを学習する MoM loss が CE や先行研究のFLよりも優れていることを観測した。 上記の結果を受けて,提案手法と CEのF1 スコアの有意差について,対応ありの $\mathrm{t}$ 検定を実施した. 各データセットにおける $\mathrm{p}$ 值は CoNLL2003 が $6.36 e^{-6}$, OntoNotes 5.0 が $3.99 e^{-6}$, KWDLC が $1.36 e^{-3}$, Stockmark-NER-wiki が $1.06 e^{-3}$ となった. 有意水準が 0.01 の時,対立仮説が支持されるため提案手法と CEのF1 スコアの有意差が確認された. 表 2 に,MRC タスクにおける CoNLL2003 デー タセットに対する各モデルの予測性能の結果を示す. MoM loss は既存の binary CE (BCE) によって訓練した BERT-MRC より F1 スコアが $0.50 \%$ 高い結果となった.また, MoM loss は FL と DL より $0.34 \%$, $0.30 \%$ 高い結果となった. 有効性が示されている DL に更に我々のアイディアを追加することで,さらなる予測性能向上を実現した. 我々は不均衡性に対処する DL の性質を保ちながら MoM loss が更に予測性能を向上させたことを観測した. 表 3 に,系列ラベリングタスクにおける CoNLL2003 データセットに対する各固有表現ごとの予測性能の結果を示す. MoM loss は地名,その他の固有表現,組織名,Oクラスにおいて $0.04 \%$ , $0.67 \%, 0.11 \%, 0.01 \%$ の予測性能の向上が観測された. 一方,人名クラスにおいては $0.14 \%$ 低下した. この点について以下のセクションで説明する. ## 5 議論 CoNLL2003 データセットにおける全 3,453 件のテストケースのうち損失関数を CE から MoM loss に変更して正解した例は 35 件確認された. そのうち固有表現クラスと○クラス間の正例は 10 件で,固有表現間での正例は 25 件であった. またその 25 件中,サンプル数の少ない固有表現クラスからサンプル数の多い固有表現クラスに予測ラベルが変わったことで正解となった例は 22 件であった. この 35 件中 22 件もサンプル数の少ない固有表現クラスからサンプル数の多い固有表現クラスに予測ラベルが変わった理由として,MoM loss がクラスに対する不均衡性を考慮することで,モデルがOクラス以外の固有表現クラスのみの分布に従ったためだと考えられる.従って,表 3 において人名クラスのみ精度が下がったのはクラスを除いた固有表現クラスの中で最もサンプル数の多い人名クラスに過学習したためだと推測する。 ## 6 おわりに 我々は固有表現抽出のデータセットの不均衡性に着目した新しい損失関数 MoM loss を提案した. この提案手法は多数派のクラスのトークンのみを計算する loss を従来のモデルの損失関数に追加する手法で,言語非依存なシンプルかつ系列ラベリングや MRC タスクなどの解き方に左右されない効果的な損失関数である。評価結果から以下の 2 つが確認できた. 1) BERT において日英 4 つのデータセットを使用して系列ラベリングタスクとして解いた際に言語に依存しない予測性能の向上を確認した.2) BERT-MRC において英語のデータセットを使用して MRC タスクとして解いた際,先行研究の損失関数である FL DLを上回る予測性能の向上を確認した. ## 参考文献 [1] Erik Tjong Kim Sang and Fien De Meulder. Introduction to the conll-2003 shared task: Language-independent named entity recognition. In Proceedings of the Seventh Conference on Natural Language Learning at HLT-NAACL 2003, pp. 142-147, 2003. [2] Sameer Pradhan, Alessandro Moschitti, Nianwen Xue, Hwee Tou Ng, Anders Björkelund, Olga Uryupina, Yuchen Zhang, and Zhi Zhong. Towards robust linguistic analysis using ontonotes. In Proceedings of the Seventeenth Conference on Computational Natural Language Learning, pp. 143-152, 2013. [3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, 2019. [4] Xiaoya Li, Jingrong Feng, Yuxian Meng, Qinghong Han, Fei Wu, and Jiwei Li. A unified mrc framework for named entity recognition. arXiv preprint arXiv:1910.11476, 2019. [5] Tsung-Yi Lin, Priya Goyal, Ross Girshick, Kaiming He, and Piotr Dollár. Focal loss for dense object detection. In Proceedings of the IEEE international conference on computer vision, pp. 2980-2988, 2017. [6] Yin Cui, Menglin Jia, Tsung-Yi Lin, Yang Song, and Serge Belongie. Class-balanced loss based on effective number of samples. In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition, $\mathrm{pp}$. 9268-9277, 2019. [7] Xiaoya Li, Xiaofei Sun, Yuxian Meng, Junjun Liang, Fei $\mathrm{Wu}$, and Jiwei Li. Dice loss for data-imbalanced NLP tasks. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 465-476, Online, July 2020. Association for Computational Linguistics. [8] Tu Dinh Tran, Minh Nhat Ha, Long Hong Buu Nguyen, and Dien Dinh. Improving multi-grained named entity recognition with bert and focal loss. ICIC Express Letters, Part B: Applications, Vol. 12, No. 3, pp. 291-299, 2021. [9] Lance A Ramshaw and Mitchell P Marcus. Text chunking using transformation-based learning. In Natural language processing using very large corpora, pp. 157176. Springer, 1999. [10] Rich Caruana. Multitask learning. Machine learning, Vol. 28, No. 1, pp. 41-75, 1997. [11] Yu Zhang, Ying Wei, and Qiang Yang. Learning to multitask. Advances in Neural Information Processing Systems, Vol. 31, , 2018. [12] Alexander Spangher, Jonathan May, Sz-Rung Shiang, and Lingjia Deng. Multitask semi-supervised learning for class-imbalanced discourse classification. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 498-517, 2021. [13] Masatsugu Hangyo, Daisuke Kawahara, and Sadao Kurohashi. Building a diverse document leads corpus annotated with semantic relations. In Proceedings of the 26 th $\mathrm{Pa}-$ cific Asia Conference on Language, Information, and Computation, pp. 535-544, 2012. [14] Takahiro Omi. stockmarkteam/ner-wikipedia-dataset: Japanese named entity extraction dataset using wikipedia, 2021. [15] Xiaoya Li, Jingrong Feng, Yuxian Meng, Qinghong Han, Fei Wu, and Jiwei Li. A unified MRC framework for named entity recognition. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 5849-5859, Online, July 2020. Association for Computational Linguistics. [16] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, Vol. 30, 2017. [17] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, et al. Transformers: State-of-the-art natural language processing. In Proceedings of the $\mathbf{2 0 2 0}$ conference on empirical methods in natural language processing: system demonstrations, pp. 38-45, 2020. [18] Diederik P Kingma and Jimmy Ba. Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.6980, 2014. 表 4 各データセットの統計量. 全てのデータセットを,文書ごとに分割し件数と Eq. 4 で実施した不均衡性を示す 0 クラスの割合である $\rho_{0}$ を示す. ## A データセット English CoNLL2003[1] は1996年 8 月から 1997 年 8 月までのロイター通信のニュース記事からなるデータセットである. また,学習データと評価デー タは,1996 年 8 月末のファイルから 10 日分のデータで,テストデータは1996年 12 月のテキストである.固有表現は人名や地名の他に組織名などがある. さらに,総トークン数が 302,811 に対し非固有表現のトークンが $82.17 \%$ である. English OntoNotes5.0 [2]は 18 個の固有表現からなる,ニュース,電話での会話,ウェブサイト,放送,トークショーなどの様々なソースから構成されている大規模コーパスである. 固有表現は人名や地名の他に日時や金額,法律名などがある. さらに,総トークン数が 1631,995 に対し非固有表現のトークンが $88.34 \%$ である. 京大ウェブ文書リードコーパス [13] はニュー X記事,百科事典記事,ブログ,商用ページなどのウェブ文書の冒頭 3 文に対してアノテーションしたテキストコーパスである.コーパスの規模は約 5,000 文書で 15,000 文に相当する. 固有表現は人名や地名の他に組織名や日付,時間,金額などがある. さらに,総トークン数が 252,984 に対し非固有 Stockmark-NER-wiki [14] は日本語版 Wikipedia から抜き出した文に対して,アノテーションをした,全体で約 4,000 件ほどのデータセットである.固有表現は人名や地名の他に施設名や製品名,法人名などがある. さらに,総トークン数が 98,496 に対乙非固有表現のトークンが $82.18 \%$ である. ## B 実装の詳細 BERT は Huggingface の Transformers [17]を使用した. 事前学習済みモデルにおいて英語は bertbase,日本語は東北大 BERT を使用した. モデルは Adam [18] を用い, 学習率は $2 e^{-5}$, バッチサイズは 64 で各データセット 10 エポックの微調整をした. focal loss [5] と MoM loss の各パラメータは機械学習モデルにおけるべイズ最適化のパッケージである optuna により最適化をした. 最適なモデルのチェックポイントは評価データでの $\mathrm{F} 1$ スコアに基づく. 我々は、異なるランダムシードを用いた 10 回の実行の F1 スコアの平均値を報告する. BERT-MRC は論文 [15] 中で公開されている実装を使用した. Adam [18]を用い,学習率は $3 e^{-5}$,バッチサイズは 32 で各データセット 10 エポックの微調整をした. その他の focal loss [5] や dice loss [7] などの各パラメータは dice loss [7] の実装に従った. 最適なモデルのチェックポイントは評価データでの F1 スコアに基づく. 我々は、異なるランダムシー ドを用いた 5 回の実行の F1 スコアの平均値を報告する。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q7-10.pdf
# 妊娠・出産・育児に関する情報サイトにおける 母親の検索行動の予備的分析 内田ゆず 1 高丸圭一 ${ }^{2}$ 乙武北斗 3 木村泰知 4 1 北海学園大学 2 宇都宮共和大学 3 福岡大学 4 小樽商科大学 yuzuehgu.jp takamarualkyowa-u.ac.jp ototake@fukuoka-u.ac.jp kimura@res.otaru-uc.ac.jp ## 概要 妊娠中の女性や子育て中の女性はメンタルへルスに不調をきたしやすい。深刻な事態に発展する前に不安やストレスの原因を発見し,対応することが必要である. 近年,女性が奸娠・出産・育児に関する情報収集をしたり,交流をするためのオンラインサービスが普及している。そのようなサービスを利用するユーザの検索行動を分析すると,母親が抱える不安や疑問を明らかにできると考えられる。本稿では,妊活・妊娠・出産・育児に関する情報サイトにおける実際の検索履歴データを分析し,検索キー ワードの時間変化や,感情表現の様相を概観する。 ## 1 はじめに 出産を控えた母親や乳幼坚をもつ母親は,身体的変化に加え,家庭内での役割や人間関係の変化,心理社会的変化も大きく,精神的な不調をきたしやすい. 母親にとって相談相手がいるという情緒的サポートは育児不安の緩和において重要であるが [1],核家族化や地緑の希薄化,少子化にともない,気軽に相談できる人が身近にいない場合も多い,母親のメンタルヘルスの不調は, 産後うつなどの母親自身の問題のみならず,養育行動や子どもの発達,家族にも影響を及ぼす。最悪の場合,子どもへの虐待, ネグレクト,母親の自死などの事態に発展する可能性もあり,母親の持つ不安やストレスを軽減する方略を見出すために,ストレスの原因を明らかにすることが重要である. 近年,母親を対象としたオンラインサービスが発展しており,スマートフォンアプリを利用して情報を取得したり,母親同士が育児について相談する場になっている.ここでは, 周辺に相談できる相手がいないためオンライン上で相談したい,専門家の意見が知りたい,親族や知人には聞きにくいことを匿名で相談したいといった需要を満たすことができる.また,不安が高く対人関係で消極的な母親については,インターネット利用が育児不安の緩和と関連していると報告されている [2]. 一方で,「インターネット」を相談相手として選ぶ母親は,育児不安が高いという報告もある [3]. このように,育児不安の緩和に対するインター ネット利用の効果については評価が定まっていないものの,母親たちはインターネット上で質問や検索をすることで情報を収集し,不安を解消しょうとしていることは明らかである. そこで,本研究ではインターネット上での母親の行動から妊娠・出産・育児の各時点で典型的に生じる不安や疑問を明らかにし,適切なタイミングで情報提供を行うことで母親の不安を低減することを目指す. 本稿では研究の端緒として,妊娠・出産・育児に関する情報サイトにおける実際の検索履歴データを分析し,検索行動の傾向を概観する。 ## 2 使用するデータ 本研究では,「ママの一歩を支える,女性向け Q\&A アプリ」としてコネヒト株式会社 ${ }^{1}$ が運営するサービス「ママリ」の検索データを分析する.利用可能なデータは 2019 年度〜2020 年度に検索された履歴(99,271,031 件)である. 検索データから, ユーザ ID,検索クエリとその検索日がわかる2).また,各ユーザに紐づく子供の属性情報として,誕生日(出産日)や性別の情報も利用可能である. 検索データの一部を表 1 に示す。検索クエリは 1 つ以上の文字列で構成され,複数の文字列が含まれる場合,文字列の境界はスペースで記される.以降の分析では形態素解析器を用いた単語分割は行わ 1) https://connehito.com/ 2)個人を識別する情報は一切含まれない 図 1 各期の検索件数(単位:100万回) ず,スペースで分割した文字列を「検索キーワー ド」と呼ぶこととする ${ }^{3}$ .検索キーワードには,母子の健康状態,育児全般,家族や日常生活,行政の子育て支援などにかかわる表現が含まれる. ユーザの検索行動を時系列で分析するために, ユーザの属性情報を利用して検索データの前処理を行う。具体的には検索日と出産日の差を計算し,出産日を起点として何日後(前)に何を検索したかを解析できるように検索履歴を加工する。そのうえで,出産回数が 1 回のユーザ4) が出産の 1 年前から出産の 1 年後までの期間に検索した履歴 $(33,885,687$件)を分析対象として抽出する。対象となるユーザは 887,055 人である。なお,本稿では 2 年間を 30 日単位に分割し, 図 2 のようにそれぞれ- 12 期 12 期と呼ぶこととする. 図 2 データ期間の分割  検索件数を期ごとに集計した結果を図 1 に示す. -8 期〜 4 期の間は検索件数に大きな変化はなく,出産日が近づくと急激に増加してピークの-1 期 (出産直前の 30 日間)には約 300 万件になる. 出産後は,徐々に減少するが,高い水準を維持する。 ## 3 検索キーワードの出現傾向 検索クエリの内容を概括的に把握するために,検索キーワードの出現頻度を集計した(頻出するキーワードは付録 $\mathrm{A}$ 参照)その結果,妊娠期間中は「妊娠(中)」「妊娠 $\mathrm{n}$ 週」「つわり」,出産直前の-1 期は「臨月」「陣痛」が高頻度であった. 出産後は 「生後 n ケ月」の出現頻度が圧倒的に高く, 出産直後の 1 期のみ「新生児」の頻度が高い. 2 期(産後 30 日~59 日)では「生後 1 か月」が最頻というように, 2 期以降は検索時期と子供の月齢が一致していることから,ユーザは今現在の状況についての情報を求めていることがわかる. 「生後 $\mathrm{n}$ ケ月」は「生後 1 ヶ月授乳間隔」「生後 3 ヶ月体重」「生後 7 ヶ月離乳食量」のように,複数のキーワードと組み合わせて検索クエリを構成することが多い. したがって,「生後 $\mathrm{n}$ ケ月」と共起する検索キーワードを分析することで,母親が育児のどのタイミングでどのような疑問・不安をもつのかを明らかにできる可能性がある。そこで,検索クエリ内で「生後 n ケ月」と共起するキーワードを集計し,その内容を分析する. なお,「生後 4 ヶ月ミルク量」のように 3 つ以上のキーワードが共起する場合,「ミルク量」で一つの意味を成していると解釈し,分割せずにカウントする。 まず,頻度の高い 100 例について,第一著者が内容によって分類を行ったところ,概ね「授乳」「ミル 図 3 「生後 $\mathrm{n}$ 力月」と共起するキーワードの出現頻度 ク」「離乳食」「生活リズム」「睡眠」「健康」「発育」「動作」「その他」の9 カテゴリに分類された(具体的なキーワードは付録 B 参照). 特に頻度が高い力テゴリは,睡眠(17 例/172,220 回),授乳(14 例 /166,926 回), 離乳食 (6 例/127,701 回),ミルク (11 例/115,940 回)であった.「動作」や「発育」 のカテゴリには「寝返りしない」「ハイハイしない」「体重増えない」など,否定形を用いた表現がみら きるようになる」などの平均的な発達段階と比較して, 我が子の発育・発達状態に不安が生じたときの検索行動だと推測される。 次に,抽出したキーワードの中で,「生後 $\mathrm{n} ヶ月 」$ の $\mathrm{n}$ によって出現頻度が大きく異なる 5 例について, 図 3 に $\mathrm{n}$ と共起頻度の関係を示す. 生後 3 ヶ月ごろまでは「授乳間隔」「ミルク量」との共起が多いが,生後 4 5 ヶ月で「離乳食」に逆転される.一般的に,離乳食の開始時期は生後 6 ヶ月と言われているため,この傾向は妥当であろう.「予防接種」 は生後 2 ケ月との共起が突出している. これは主な予防接種が生後 2 ヶ月頃から始まる 5 ) ことを反映していると考えられる。「夜泣き」は生後 6 ケ月から増減を繰り返しながらも継続して検索されている。赤ちゃんの夜泣きは生後 3 ケ月から生後 1 年半前後に起きやすいとされているが個人差も大きく, 夜泣きが始まる時期が分散していることと関連している可能性がある. 今回の分析では「生後 $\mathrm{n}$ ヶ月」と高頻度で共起するキーワードのみを対象としたため,意外性のある 5)国立感染症研究所「日本の予防接種スケジュー ル」:https://www.niid.go.jp/niid/ja/component/content/article/320infectious-diseases/vaccine/2525-v-schedule.html 結果は得られなかったが, 育児にかかわる様々な事象と検索時期が密接に関連していることは明らかになった. 今後,母親の隠れたニーズやこれまで意識されてこなかった悩みを発見するために,対象を広げて分析を行う予定である. ## 4 検索キーワード中の感情分析 検索クエリの中には,ユーザの感情を示すキー ワードが含まれているものもある. ネガティブな感情やその原因を抽出できれば,ユーザの精神的な不調の発見につながる可能性がある. そこで, ML-Ask[4]を用いて検索クエリから感情情報を抽出する. ML-Ask は辞書 [5] とのパターンマッチングをべースに 喜,怒,哀, 怖, 恥, 好, 厭, 昂, 安, 驚 の 10 カテゴリの感情を推定するもので,本研究で対象とする単語単位の感情分析に適している.産後うつは, 出産後 2 週間以内に発症することが報告さ 表 3 ネガティブな感情を示すキーワード れている [6] ため, 分析対象のデータは 1 期の検索クエリとする. ML-Ask によっていずれかの感情を含んでいると推定された検索クエリは28,552 件存在した. 感情力テゴリごとの頻度を表 2 に示す6). 哀,厭,昂の頻度が高く,ユーザがネガティブな感情を含むクエリで検索を行う傾向が明らかになった. 今回は全ユー ザを一括して分析したが,個人に着目することで,短期間にネガティブな感情を含む検索を何度も行っているユーザや,時間の経過とともにネガティブな検索が増加しているユーザなど, 高リスクなユーザを抽出できる可能性がある. 表 3 には,ネガティブな感情カテゴリ(怒,哀,怖,厭,昂)と推定される要因となった語を頻度順にまとめた。表中の”*CVS”は”Contextual Valence Shifters”を意味し,否定表現を示す. 例えば,「落着き*CVS」はデータ中では「落着きがない」などの形で現れる. 最頻の語は「泣く」であるが,本研究のドメインにおいては「赤ちゃんが泣く」文脈での使われ方であると予想され,必ずしも哀の感情を意味するものではない.「痛い」や「痛み」は母子の健康状態に直結するキーワードであり,共起するキー ワードと併せて分析することで適切な医療情報を提供する際に役立つ可能性がある. その他の特徴として,「いらいら」「ぶるぶる」「びくびく」「がくがく」「ぶつぶつ」「もぞもぞ」「むず むず」「ぴくぴく」といったオノマトペが散見される点が挙げられる.オノマトペは感情を表す際にも多用される上,もやもやした身体感覚や精神的症状を簡便に説明できる表現方法でもある [7]. 多義性をもつオノマトペであれば,その両方を表すこともある.たとえば,「ぶつぶつ」は「不平・不満や小言をいうさま」の意味で用いられている場合は厭の感情を表し,「表面にたくさん出た粒状の物」の意味の場合は湿疹等の皮膚の状態を表す.このように, オノマトぺは感情や健康状態を抽出する際に有効な手掛かりになり得る. ## 5 おわりに 妊娠・出産・育児に関して適切なタイミングで情報提供を行うことで母親の不安を低減することを目指し,情報サイトにおける検索履歴データを分析した. 検索キーワードの時間変化から,母親は日々の生活の中で生まれる疑問や不安を即時的に検索していることが示唆された。また,ネガティブな感情を含む検索キーワードも多く存在することが明らかになった. 今後はさらに分析を進め,母親の困りごとを抽出したり, 医療ドメインの単語やオノマトペなどを糸口に母親の心身の健康状態を把握することを目指す.また,データを行政の施策と結びつけることも視野に入れている. 6)複数の感情カテゴリをもつ検索クエリも存在する ## 謝辞 本研究の遂行にあたり,貴重なデータを提供していただいたコネヒト株式会社様に感謝の意を表する.また,本研究は JSPS 科研費 $21 \mathrm{~K} 12584$ および 17K12791 の助成を受けたものである. ## 参考文献 [1] 藤田大輔, 金岡緑. 乳幼児を持つ母親の精神的健康度に及ぼすソーシャルサポートの影響. 日本公衆衛生雑誌, Vol. 49, No. 4, pp. 305-313, 2002. [2] 小林真. インターネットの利用が母親の育児ストレスに及ぼす緩和効果. 富山大学教育学部紀要, Vol. 58, pp. 85-92, 022004. [3] 山﨑さやか, 篠原亮次, 秋山有佳, 市川香織, 尾島俊之,玉腰浩司, 松浦賢長, 山崎嘉久, 山縣然太朗. 乳幼児を持つ母親の育児不安と日常の育児相談相手との関連:健やか親子 21 最終評価の全国調査より. 日本公衆衛生雑誌, Vol. 65, No. 7, pp. 334-346, 072018. [4] Michal Ptaszynski, Pawel Dybala, Rafal Rzepka, Kenji Araki, and Fumito Masui. Ml-ask: Open source affect analysis software for textual input in japanese. Journal of Open Research Software, Vol. 5, No. 1, p. 16, 2017. [5] 中村明. 感情表現辞典. 東京堂出版, 1993. [6] H Yamashita, K Yoshida, H Nakano, and N Tashiro. Postnatal depression in japanese women: Detecting the early onset of postnatal depression by closely monitoring the postpartum mood. Journal of Affective Disorders, Vol. 58, No. 2 , pp. 145-154, 2000 . [7] 植田栄子. 診療コミュニケーションにおける擬音語・擬態語の使用傾向と効果的運用について. 日本へルスコミュニケーション学会, Vol. 6, No. 1, pp. 53-67, 2015. ## A 各期における高頻度な検索キーワード ## B「生後 $\mathrm{n$ ヶ月」と共起する検索キーワード} \\
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q7-11.pdf
# ユーザ意図を考慮したE コマースにおける 商品検索クエリの調査と分析 浅野孝平 稲田和明 張信鵬 株式会社 MonotaRO \{kohei.asano,kazuaki.inada,xinpeng_zhang\}@monotaro.com ## 概要 Eコマースの商品検索において,クエリに含まれるユーザの意図を正しく解釈することは重要あり,検索結果にその意図を適切に反映することで,さらなるユーザ体験の向上につながると考えられる. 本研究では,Eコマースの商品検索におけるログデー タを用いて検索されたクエリをクラスタリングし, その結果に対して詳細な分析を行うことで,クエリに含まれるユーザ意図についての理解を深める. さらに,類似した意図を持つクエリのひとつのバリエーションである表記ゆれの問題に着目し,ユー ザーの意図を正しく反映できるクエリ集合が作成できたことを示す. ## 1 はじめに 近年 Eコマースが活発に利用されることに伴い,日々膨大なログデータが蓄積されている。蓄積されたログデータは,各 $\mathrm{E}$ コマースの商品検索や推薦といったサービスにおけるユーザ体験の向上に活用されている. 商品検索では,ユーザが入力したクエリにマッチする検索結果を提示することが重要であるが,入力されるクエリにはユーザの意図が反映されることで多くの曖昧性が含まれているため,クエリからユーザの意図を正しく読み取って検索結果に反映することは難しい,さらに,クエリに含まれる意図の推定精度が十分に高くない商品検索サービスを提供すると,ユーザへ悪い印象を与える可能性があり,コマースサービスの全体的な信頼度の低下や Custer Lifetime Value の低下を招くと恐れがある.そのため,実際の商品検索のサービスとして提供するためには,非常に高精度なクエリの意図推定が必要となると考えられる。 商品検索におけるクエリの分析として,様々な研究が実施されている. Guo らは,クエリに適切な分割を与えたり,逆に結合したりすることで,検索精度を向上させるクエリ整形の手法を提案している 索のクエリに対して,商品の詳細を示す属性値の抽出・活用したクエリ整形を実施しているが,その調査規模は限定的である [2]. このように,特に日本語を対象とした Eコマースの商品検索におけるクエリの理解に関する研究は少なく,クエリに生じる曖昧性に関する分析も十分であるとは言えない。またクエリの分析には,ユーザ意図の類似したクエリをクラスタリングするアプローチが有用であることが知られており [3],Cao ら [4] のクラスタリングをベース手法として採用した。 そこで本論文では,Eコマースの商品検索におけるクエリと商品クリックなどのログデータの関係に着目してクエリをクラスタリングすることで,意図が類似したクエリの集合を抽出し,その特徴を分析してクエリの理解を深める. 目視の観察によって,同じ商品を求めているクエリには,表記ゆれや言い換えによる曖昧性によって異なる表現や,絞り込みを目的とした属性値,意味的な含意が生じているクエリペアが存在することを確認した。さらに,分析によって発見した表記ゆれの問題に対して,高い精度の同義関係の判定ルールを提案し,検証を行った. ## 2 クエリのクラスタリング ## 2.1 クエリクラスタリングのベース手法 本研究では, Cao ら [4] のクエリクラスタリング手法をべースとする. Algorithm 1 に Cao らのクエリクラスタリング手法を示す. Cao らは,クエリと結びつきのある商品ページの URLを重み付き 2 部グラフとみなし, 2 部グラフが類似しているクエリ間をクラスタ化している。 以下に,Algorithm 1 で用いる表記について記す. クエリの集合を $Q=\left.\{q_{1}, \ldots, q_{n}\right.\}$, 商品の集合を $P=\left.\{p_{1}, \ldots, p_{m}\right.\}$ とする. $n, m$ はそれぞれクエリ数と商品数である. クエリ $q_{i}$ による商品検索によってクリックされた商品 $p_{j}$ の間にはパス $e_{i, j}$ が発生し,そのパスのクリック数を $w_{i, j}$ とする. また,クエリの集合であるクラスタを $C_{k} \in \Theta$ を $C_{k}=\left.\{q_{1}, \ldots, q_{l}\right.\}$ とする. $k, l$ はそれぞれクラスタ ID とクラスタに含まれるクエリ数である. 各クエリ $q_{i}$ のベクトル表現 $\vec{q}_{i} \in \mathbb{R}^{m}$ の $j$ 番目の要素は,式 (1)で定義される. $ \vec{q}_{i}[j]= \begin{cases}\frac{w_{i, j}}{\sqrt{\sum_{\forall j} w_{i, j}^{2}}} & \left(e_{i, j} \text { が存在する場合 }\right) \\ 0 & (\text { 上記以外 })\end{cases} $ クラスタ $C_{k}$ のセントロイドベクトル $\overrightarrow{c_{k}} \in \mathbb{R}^{m}$ は, クラスタ $C_{k}$ に属するクエリベクトル $\left.\{\vec{q}_{1}, \ldots, \vec{q}_{l}\right.\}$ の $L_{2}$正規化された平均べクトルで求められる. $\operatorname{dist}(q, C)$ と diameter $(C)$ はそれぞれ式 (2), (3) で定義される. $ \begin{aligned} \operatorname{dist}(q, C) & =\sqrt{\sum_{p_{j} \in P}(\vec{q}[j]-\vec{c}[j])^{2}} \\ \operatorname{diameter}(C) & =\sqrt{\frac{\sum_{q \in C} \sum_{q^{\prime} \in C}\left.\|\vec{q}-\vec{q}^{\prime}\right.\|^{2}}{|C|(|C|-1)}} \end{aligned} $ また, $D_{\max }$ はクラスタサイズを調整するためのハイパーパラメータである.表 1 クラスタリング結果 ## 2.2 クラスタの拡張 Algorithm 1 によるクラスタリングでは,ひとつクラスタに含まれるクエリがひとつのみあるシングルトンクラスタが多数生成される [4] が,シングルトンクラスタに属するクエリは,比較対象のクエリが存在しないため意図分析が困難である.そこで本研究では,類似したクラスタをさらにグループ化してシングルトンクラスタの数を減らすことで,解析対象のクラスタ数の拡大を行う. 各クラスタのセントロイドベクトル $\overrightarrow{c_{k}}$ において $\overrightarrow{c_{k}}[j] \neq 0$ を満たす次元を 1 ,それ以外の次元を 0 とするバイナリベクトル $b_{k}$ を作成する. ある二つのクラスタ $C_{x}, C_{y}$ について, $\overrightarrow{b_{x}}=\vec{b}_{x} \odot \overrightarrow{b_{y}} \neq \overrightarrow{0}$ を満たすとき, $C_{x}$ と $C_{y}$ が関連しているとみなす. さらに $\vec{b}_{k}$ に対して $\vec{b}_{k} \odot \vec{b}_{k^{\prime}}=\vec{b}_{k}$ を満たす $C_{k^{\prime}}$ が $\Theta$ に存在しない場合, $C_{k}$ を極大クラスタと定義する. ある極大クラスタ $C_{k}$ を基準として,式 (4)で得られるクラスタの和集合を,類似したクラスタをグループ化した拡張クラスタ $\mathscr{C}_{k}$ を獲得する。 $ \mathscr{C}_{k}=\bigcup_{i \in\left.\{i: \vec{b}_{k} \odot \vec{b}_{i}=\vec{b}_{i}\right.\}} C_{i} $ 同様に極小なクラスタを基準とした拡張クラスタも獲得する。 ## 2.3 クラスタリング結果 クラスタリング対象のクエリとして, monotaro.com¹)の 2022 年 1 月〜12 月における検索頻度の高いクエリ約 17 万 5 千件を採用した. なお前処理として,公序良俗に反する表現などを含むクエリ,信頼性の低いと考えられるクリック数の少ないクエリ-商品間のパス,各クエリにおいて他の商品よりも相対的に重みの小さいクエリ-商品間のパスを削除している. 表 1 に Algorithm 1 のクラスタリング結果と, 2.2 節のクラスタ拡張を適用した結果を示す.なお, $D_{\text {max }}=0.75$ とした. 導出された拡張クエリクラスタの例を表 2 に示  表 2 拡張クエリクラスタの例 す. 例 1 と例 2 から,ひとつの商品を指す言葉に様々なクエリが存在していることがわかる。 また例 3 と例 4 では,俗称や固有商品名を用いて,ひとつの商品を異なる表現で表現で検索されていることが確認できる。 さらに例 5 では,クエリに商品名の 「ボルト/六角ボルト」に加え材質である「sus」や寸法を指す「男8」などの属性值が使用されていること る寸法を指す属性値であるが, monotaro.com では属性值のみが異なる同一商品を,まとめてひとつの商品ページで取り扱っていることが原因である.以上の観察結果から,ユーザ意図が類似したクエリをグループ化できていることが確認できた. なお以降の分析では, $\mid$ ஜ $\mid>1$ を満たす拡張クエリクラスタに含まれるクエリのみを用いた。 ## 3 クエリクラスタの分析 類似した意図を示すクエリにどのような事例があるかを調査するために,拡張クラスタからランダムサンプルした 200 個のクラスタに対して目視チェックを実施した。本研究では,類似した意図を示すクエリに表れる事例を,表記ゆれ,言い換え,絞り込み,含意,その他の 5 種類に分類し, 各事例の観察結果を表 3 に示す. ただし, ひとつのクラスタに複数の事例が混在しているため, 表 3 のクラスタ数の合計は 200 を超える点に注意されたい. 表記ゆれ表記ゆれとは,文字の変換の有無,誤字,長音や促音の有無,濁音・半濁音の差異によって,同じ単語を指す表現が異なる文字列となっていることを指す. テキストベースの TFIDF や BM25 を用いた一般的な全文検索では,表記ゆれの生じたクエリ間の検索結果がそれぞれ異なる $[5,6]$. また,表 3 類似した意図を持つクエリの観察結果 \\ 表記ゆれの差異による意図の差はほぼなく,基本的にあるひとつの意図を示していると考えられる. そのため表記ゆれにより,十分な検索件数が得られない場合や,ユーザが意図しない検索結果を提示してしまうことは,ユーザ体験の大きな悪化に繋がると考えられるため, 4 章で表記ゆれに焦点を当てた同一意図のクエリ抽出について詳しく分析する. 言い換え言い換えとは,あるひとつの商品を指す表現が複数存在することを指す. たとえば,商品の一般的な名称と固有商品名による検索,業界固有の商品呼称による検索,型番による検索などによって発生する. 特に業界固有の商品呼称に関しては,商品説明文などに明示的に記述されていたり, 言語資源が存在したりしないため,言い換えの中でも特に困難な問題であるといえる。 絞り込み絞り込みとは,商品の絞り込みを目的としたブランドや大きさ・色などの属性値の有無によって,クエリとしての表現が異なる物を指す. 2.3 節で説明したとおり, monotaro.com では属性値のみが異なる商品をまとめてひとつの商品ぺージで取り扱っていることで,類似した意図を持つクエリとして複数の事例が観測された。 含意含意とは, クエリ内のある表現がすでに他の表現を含意していることで,異なるクエリでも同じ意図を示す事例を指す.たとえば「雨傘/ジャンプ傘」では,ジャンプ傘は雨傘の一種であるため, 雨傘がジャンプ傘を含意しているといえる.意味的含意の判断には, ドメイン知識を反映させた WordNet [7]のような意味関係を持つ言語資源の作成が必要であり,対応が困難な問題であると言える。 その他また上記以外にも,スペースの有無や単語の並び順が異なるだけの軽微な差異である事例が 18 件,分類自体が困難な事例が 13 件存在した. 分類が困難な事例は,2 部グラフでユーザの意図を適切に捉えられていないようなクリックログや商品検索結果を持つクエリであり,本手法で抽出した類似していない意図を持つクエリ集合,すなわち負例といえる. ## 4 同じ意図の表記ゆれクエリの獲得 ## 4.1 表記ゆれの判定 まず,表記ゆれによって表層が異なるが同じ意図を指すクエリ郡を獲得する基本的な対応方法として,クエリのカナ読みに着目する。しかし,「さらさ」という読みを持つ商品には以下の三つ異なる商品が存在するため, 同じ読みの意図が異なるクエリを同じ意図として判定してしまう危険性がある. ・さらさ(P\&G 社の洗剤) ・サラサ (ゼブラ社のボールペン) - SARASA(ファロス社の鍼) そこで表記ゆれによる同じ意図のクエリ獲得では, 2.2 節で獲得した拡張クラスタ内 $\mathscr{C}$ で行う. 拡張クラスタ内のクエリはユーザーの意図が類似してるため,上述の三つのクエリをひとつにまとめた不適切なクエリ集合の抽出を防ぐことができると考えられる. 本研究では,クエリをスペース区切りで分割 $q=\left[t_{1}, \ldots, t_{L}\right]$ した上で,拡張クラスタ内の全てのクエリの構成要素のペア $\left(t_{i}, t_{j}\right)$ に対して,カナ読みの完全一致と編集操作 [8](挿入・削除・置換) を用いた比較を適用する.編集操作として,「エアチューブ」と「エアーチュウブ」間のような表記ゆれを吸収できるように,ふたつの文字列間における長音の挿入・削除・置換,かな読みの大文字小文字の置換,濁音・半濁音への置換といった特定の文字の操作を許容した. なお,カナ読みの付与には SudachiPy ${ }^{2}$ を用い, $t$ が英数字のみの文字列である場合, $t$ の訓令式ローマ字とみなしてカナ読みを求める.表 4 表記ゆれの解消 \\ ## 4.2 分析結果 2.3 節のクエリに対して,提案した「表記ゆれ」による類似した意図を示すクエリ集合の抽出手法を適用したところ,5,468 ペア,12,892クエリが抽出された。表 4 に抽出された表記ゆれ表現のペアの例を示す. 表 4 の例 1 では,「オイルフィルター」の意図を持つ表記ゆれのクエリ郡をひとつのグループとして集約できていることが確認できた。一方例 2 では,「タフレッド」はアトム社が販売するゴム手袋の商品名,「タフレット」は NACHI (不二越) 社が販売するロールタップの商品名であるため,異なる意図のクエリを集約してしまった. クエリ「タフレッ卜」における商品検索結果で,ユーザーが「タフレッド」の商品をクリックすることが多数あったことが,クラスタの誤判定の原因であるとわかった. ## 5 おわりに 本論文では,ユーザ行動に基づいたクラスタリング手法を用いて,Eコマースの商品検索におけるクエリの分析を行った. クエリクラスタリングによってユーザ意図が類似したクエリをグループ化することができ,類似したクエリとして表記ゆれや商品名の言い換えなどが含まれていることと,それぞれの課題について確認した。さらに,表記ゆれが生じている単語の同義関係の判定方法を提案した. 今後の課題として,より多くのクエリの意味関係を捉えるためには,本研究の分析で発見した言い換えや含意についても考慮する必要がある。そのためにも,言い換えや含意,業界固有の商品呼称に関する言語資源の作成が長期的な課題であると言える. また,クエリに含まれる絞り込みを目的とした属性値について正しく同定し,検索結果に反映することで,より良い検索体験の提供につながることが期待できる.  ## 参考文献 [1] Jiafeng Guo, Gu Xu, Hang Li, and Xueqi Cheng. A unified and discriminative model for query refinement. In Proceedings of the 31st annual international ACM SIGIR conference on Research and development in information retrieval, pp. 379-386, 2008. [2] 中山祐輝, Chen Zhao, Erick Mendieta, 村上浩司, 新里圭司. Eコマースにおける検索クエリの整形と属性值抽出への適用. 言語処理学会第 28 回年次大会発表論文集, pp. 1578-1582, 2022. [3] Claudio Carpineto and Giovanni Romano. A survey of automatic query expansion in information retrieval. Acm Computing Surveys (CSUR), Vol. 44, No. 1, pp. 1-50, 2012. [4] Huanhuan Cao, Daxin Jiang, Jian Pei, Qi He, Zhen Liao, Enhong Chen, and Hang Li. Context-aware query suggestion by mining click-through and session data. In Proceedings of the 14th ACM SIGKDD international conference on Knowledge discovery and data mining, pp. 875-883, 2008. [5] Yuki Amemiya, Tomohiro Manabe, Sumio Fujita, and Tetsuya Sakai. How do users revise zero-hit product search queries? In Advances in Information Retrieval, pp. 185192. Springer International Publishing, 2021. [6] Gyanit Singh, Nish Parikh, and Neel Sundaresan. Rewriting null e-commerce queries to recommend products. In Proceedings of the 21st International Conference on World Wide Web, pp. 73-82, 2012. [7] George A Miller. Wordnet: a lexical database for english. Communications of the ACM, Vol. 38, No. 11, pp.39-41, 1995. [8] Dan Gusfield. Algorithms on Strings, Trees, and Sequences - Computer Science and Computational Biology. Cambridge University Press, 1997.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q7-12.pdf
# E コマースにおける商品用途表現の抽出とグルーピング 梶原奨井上翔太 岡林遥平 稲田和明 張信鵬 株式会社 MonotaRO } \{sho.kajihara, shota.inoue, yohei .okabayashi, kazuaki .inada,xinpeng_zhang\}@monotaro.com ## 概要 商品の利用用途などを説明した文は、商品検索などの特定のサービスへの利用を前提として作成された構造化データとは異なり、Eコマースのサービスでの活用が難しい。しかし構造化されていないデー タ内にも、ユーザーが商品を探す際に有用な商品の使い道を記した表現が多数含まれているため、そのような表現を抽出・利用することで商品検索の質を向上させることができると考えられる。そこで本稿では、ユーザの商品検索に有用な 8 種の商品用途表現ラベルを定義し、実際の商品情報に含まれる構造化されていない文にアノテーションした上で、系列ラベリングモデルを作成することで、商品検索に有用な商品の用途表現を抽出する。さらに実際の Eコマースのサービスで活用することを想定し、類似する商品用途表現のグループ化を実施する。 ## 1 はじめに Eコマースに利用されるデータは、商品検索などの特定のサービスに応じて事前定義されたスキー マに沿って、意味の通じる最小単位に分割された構造化データで表現されることが多い。しかし、中には商品の説明文のような構造化されていないデー タも存在する。たとえば「剪定ハサミ」の商品には、(材質, ステンレス)、(大きさ, 20 インチ)のような key-value 形式の構造化された商品情報だけでなく、「庭木の剪定作業、ガーデニング・盆栽・植木のお手入れに。のような構造化されていない商品情報も存在する。 上述のような構造化されていない商品情報の中には、「庭木の剪定作業」といった使い道、「ガーデニング」といった環境、「盆栽」「植木」といった商品の使用対象などの、商品検索に有用な情報が記述されていることがある。これらの有用な情報を抽出することができれば、構造化されたデータと同様に検 表 1 商品用途表現ラベル に活用でき、ユーザーの利便性を高められると考えられる。 Alicoco[1] では、ユーザーのニーズとして Time, Location, Object, Function, Incident, Cate/Brand, Style, Intellectual Property $の 8$ 種類の関係を定義・活用することで、商品間の知識グラフを作成した。この知識グラフは Alibaba グループの商品検索や推薦に応 層的なカテゴリによる商品分類よりも、ユーザーのニーズをより深く汲み取ることに成功している。 そこで本稿では、商品に記述されている文から、意味の通じる最小粒度の表現 (以降、商品用途表現と呼ぶ)を抽出し、商品と商品用途表現間の関係を整理する。まず、商品用途表現の役割として 8 種のラベルを定義し、実際の Eコマースの商品情報として記述される文に対してアノテーションする。次にラベル付きデータを用いて教師ありの系列ラベリングモデルを作成し、ラベル付けしていないデータから商品用途表現を抽出する。最後に、実際の商品検索サービスへの活用を想定し、類似する商品用途表現のグループ化を実施する。 ## 2 商品用途表現のラベリング Alicoco[1] におけるニーズを参考に、商品用途表現を分類するラベルを表 1 に定める。 表 1 で定めたラベルのアノテーションの例を図 1 に示す。アノテーション対象として、monotaro.com¹) の商品の中で「用途」として定義された属性に含まれる約 10 万文の内、商品に付与されているカテゴリを網羅できるように層化抽出した $10 \%$ 利用した。アノテーションは 2 人の作業者によって実施し、作業中のアノテーション対象の文だけでなく掲載元の web ページの閲覧や Google などの検索エンジンの利用を可能とした。またアノテーションの精度を確保するため、 100 件のデータに対して正しくラベル付けできるようトレーニングした。さらにアノテータ 2 人で相互にレビューする体制を取ることで、ラベリング結果の一貫性とアノテーションの精度を高めた。 アノテーションしていない残りの $90 \%$ のデータに対する商品用途表現ラベルの同定には、図 2 に示す BERT のネットワークの最終層に CRF 層を追加した BERT+CRF モデルを用いる [2]。まず、入力された文を WordPiece トークナイザでトークンに分割した後、各トークンに対して BERT モデルで表 1 に定めた各ラベルの予測確率を計算する。その後、CRF 層で入力全体のラベル遷移を考慮して最終的なラベルを予測する。なお予測対象のラベルには、各商品用途表現ラベルに $B$ および $I$ を組み合わせたラベルと $O$ の 17 種類が存在し、 $B$ は各商品用途表現ラベルが付与された表現の先頭、 $I$ は各商品用途表現ラべルが付与された表現の先頭以外、 $O$ は商品用途表現ラベルが付与されていないトークンを意味する。 また本稿ではモデルの精度改善のために、Least Confidence を用いた能動学習を導入する [3]。アノテーションの半分が終わった時点で学習したモデルを用いて、アノテーション対象外のデータをラベル付けし、各トークンの予測確率に対して Least Confidence を計算する。そして、文内の最も小さな Least Confidence をその文のスコアとし、スコアの低い 2000 文をアノテーション対象として追加する。 ## 3 商品用途表現のグルーピング 商品用途表現には異なる表記で同じ意味を持つものが多数存在する。商品検索における絞り込み条件などの実際の Eコマースのサービスを想定すると、 たとえば、「穴や破損個所を修復」と「つなぎ合わせ」のような表現が大きく異なる商品用途表現も、同じ意味として 1 つにグループ化しておく必要がある。  単語やフレーズなどの意味的な類似度を計算する手法の 1 つとして、計算対象の表現をそれぞれべクトル化しそれらの距離を比較する手法が近年よく利用されるが、その類似度は主に含まれる文字列や単語の種類が大きく影響することが報告されている $[4]$ 。 そこで本稿では、以下に示す 3 段階のルールベー スのグルーピングを適用する。1 段階目として、文字列の部分一致により商品用途表現をグループ化する。次に 1 段階目で形成されたグループを、商品用途表現に紐づいている商品のカテゴリ情報によって分割する。最後に日本語 WordNet[5] の概念と部分関係の情報を用いて細分化する。 ## 3.1 部分一致と同義語によるグルーピング 1 段階目のグルーピングとして、文字列情報に着目した以下に示す手順を適用する。 1. 他の商品用途表現と文字列が部分一致しない商品用途表現を抽出する。 2. (1) で抽出した商品用途表現と文字列が部分一致する商品用途表現でグループを形成する。 3. 同義語辞書を用いて (1) で抽出された商品用途表現同士をマージする。 たとえば、(1)で「研磨」「研ぐ」のような商品用途表現が抽出され、(2)で「研磨」と部分一致する 「金属研磨」「プラスチック研磨」「研ぐ」と「彫刻刀を研ぐ, 整えて研ぐ」などを集約してグループを形成し、(3)で「研磨」と「研ぐ」が同義語として判定されて、「研磨、研ぐ、金属研磨、プラスチック研磨、彫刻刀を研ぐ, 整えて研ぐ」というグループが出力される。ただし (1)では、使用目的・機能・使用イベントの 3 つのラベルに属する商品用途表現が述語によって構成されることを考慮し、用言の有無を確認することでグルーピングの精度を高める。たとえば、「切断」と「切断を防ぐ」は部分一致しているが、用言を比較すると「切断」と「防ぐ」と異なるため、グループ化させない。 ## 3.2 商品カテゴリによるグルーピング 商品カテゴリは末端ほど細分化された意味を持つ木構造で表現されており、たとえば「鋏」のカテゴリでは、親に「農具」、子に「剪定鋏」「収穫鋏」「替え刃」などを持つ。このとき商品カテゴリの根はすべてのカテゴリの祖先に相当するが、2 段階目のグ 図 1 brat によるアノテーションの様子 図 2 BERT+CRF モデルによるラベル付け ルーピングとして、商品用途表現の抽出元である商品と商品カテゴリの根の子に相当するカテゴリ (以降、モールカテゴリと呼ぶ) の関係を用いる。 まず、各商品用途表現に対応するモールカテゴリを決める。商品用途表現は複数の商品から同じ表現が獲得されるため、 1 つの商品用途表現は複数の商品カテゴリとそれらのモールカテゴリを持つが、最多のモールカテゴリを各商品用途表現の代表とする。その後、3.1 で形成された各グループの中の商品用途表現をモールカテゴリごとに分割する。たとえば、「金属研磨」「プラスチック研磨」が「切削工具・研磨材」、「電解研磨」が「スプレー・オイル・ グリス/塗料/接着・補修/溶接」のモールカテゴリに属し、3.1 節で「金属研磨、プラスチック研磨、電解研磨」というグループが形成されていた場合、「金属研磨、プラスチック研磨」と「電解研磨」の 2 つのグループに分割される。 ## 3.3 日本語 WordNet によるグルーピング 3 段階目のグルーピングに使用するスコアとして、日本語 WordNet 内の 2 つの単語 $w_{i}, w_{j}$ 間の意味の距離を以下のように定義する。 1. $w_{i}$ と $w_{j}$ が同じ概念 $\Rightarrow 0$ 2. $w_{i}$ と $w_{j}$ が部分関係 $\Rightarrow 0.5$ 3. $w_{i}$ の 1 つ上の上位概念と $w_{j}$ の概念が同じ $\Rightarrow 1$ 4. $w_{i}$ と $w_{j}$ それぞれ 1 つ上の上位概念が同じ $\Rightarrow$ 1.5 5. 上記以外 $\Rightarrow \infty$ しかしながら、商品用途表現は複数の単語で構成されていることがあるため、構成単語の中から最もその意味を表す単語を抽出したい。一方で、日本語 WordNet に登録されている概念の中には「熱」と 「柔軟性」の 2 つの単語が 1 つ上の概念で紐づくような、グルーピングに活用しにくい抽象度の高い概念が存在する。そこで、式 1 で概念 $i$ の抽象度 $\alpha$ を定義し、商品用途表現を構成する単語の中である抽象度以下かつ最も抽象度の高い単語を用いて、日本語 WordNet による商品用途表現間のスコアを求める。 $ \alpha=\frac{1}{|l(i)|} \sum_{j \in l(i)} d_{i, j} $ なお、 $l(i)$ は概念 $i$ が持つ下位概念のうち末端にある概念を、 $d_{i, j}$ はツリー上で概念 $i$ から $j$ までに辿る概念数である。2 段階目で作成した各グループ内で上述の商品用途表現間のスコアを求め、最長距離法による階層的クラスタリングを適用し、閾值 $T$ 以下の商品用途表現間を最終的なグループとした。 ## 4 評価 ## 4.1 商品用途表現の抽出 表 2 に、表 1 のラベルを付与した商品用途表現数、図 2 のモデルによる各ラベルの $F_{1}$ 值、およびラベル付けしていないデータから取得できた商品用途表現数を示す。モデルの訓練および評価には層化グループ付き 5 分割交差検定を用い、各商品用途表現に対して予測された $B$ と $I$ のラベルがアノテーション結果と完全に一致しているかで正誤判定をした。 なお、 $O$ ラベルの $F_{1}$ 值は 0.91 であった。 表 2 より、すべてのラベルにおいて $F_{1}$ 値が 0.8 未 表 2 商品用途表現ラベルのアノテーション数と予測精度 表 3 商品用途表現のグルーピング結果 P1 チタニウム部品研磨, 金属面研磨, アルミ製品研磨 P2 攵テンレス鋼研磨, 工具鋼研磨, ステンレス研磨 P3 プラスチック面研磨, プラスチック研磨, 合成樹脂研磨 4 切刃研磨, 刃研磨, 刃物研磨 P5 難削材研磨, 硬い素材研磨, ステンレス材研磨コンテナ運搬, 計測器運搬, 低温容器運搬 満であり $O$ ラベルの $F_{1}$ 值が 0.91 であることから、商品用途表現の位置は同定できているが、その種類を特定できていないことがわかる。この問題点の 1 つとして、同じ単語でも文脈によって正解ラベルが変わることが挙げられる。学習データとして使用した約 13,000 種類の商品用途表現のうち、同じ文字列かつ複数のラベルを持つものが約 36\%存在した。たとえば、「研磨」という商品用途表現では、サンドペーパーのような商品の場合には「使用目的」のラベルが、研磨液のような商品であれば「使用イベント」のラベルが付与されていた。すなわち、1つの同じ文字列の商品用途表現内に複数の意味が存在する可能性を考慮しなければならないと言える。 ## 4.2 同義語のグルーピング 表 3 に、3 章で提案した手法で商品用途表現をグルーピングした結果の例を示す。P1 から P5 は「研磨」に関するグループ、Tは「運搬」に関するグルー プである。なお、3.3 節における抽象度 $\alpha$ と階層的クラスタリングの閾値 $T$ はそれぞれ 1.75、1.51とした。 表 3 より、「研磨」の文字列が含まれる商品用途表現が「金属」や「プラスチック」など使用対象の素材に応じて分割できていることが分かる。各グルー プの商品用途表現がどのタイミングでグループピングされているかを詳しく分析すると、P1 から P3 は 3.2 節の商品カテゴリによるグルーピングが、P4 は 3.3 節の日本語 Wordnet の概念がそれぞれ貢献していた。一方、P5 の「ステンレス材研磨」は P2 に所属することが望ましい。この原因は、 3.3 節の日本語 Wordnet によるスコア付与時に「材」という抽象度の高い単語が選択されていたためであった。また T1 は、それぞれ異なる意味を持つ 3 つの商品用途表現が同じグループに割り当てられた例である。これは、日本語 Wordnetを参照する単語がそれぞれ 「コンテナ」、「器」、「容器」であり、これらが同じ概念に属していることが原因である。改善策として、「計測器」や「低温容器」のような句単位の情報を利用することで、 3 つの表現が同じグループになることを防ぐことができると期待される。 ## 5 おわりに 本稿では、商品の使い道などを説明した文などの構造化されていないデータから有用な商品用途表現を抽出して活用するための方法として、商品用途表現を分類する 8 種類のラベルを提案し、そのラベルを用いた商品用途表現の推定とグルーピングについて示した。今後の課題として、提案したグルーピング手法の精度の改善や、今回作成したデータやモデルを実際の Eコマースサービスに適用しての検証が求められる。 ## 参考文献 [1] Xusheng Luo, Yonghua Yang, Kenny Qili Zhu, Yu Gong, and Keping Yang. Conceptualize and Infer User Needs in E-Commerce. In Proceedings of the 28th ACM International Conference on Information and Knowledge Management, 2019. [2] Fábio Souza, Rodrigo Frassetto Nogueira, and Roberto de Alencar Lotufo. Portuguese Named Entity Recognition using BERT-CRF. CoRR, 2019. [3] David D. Lewis and Jason Catlett. Heterogeneous uncertainty sampling for supervised learning. In Machine Learning Proceedings 1994, 1994. [4] Shufan Wang, Laure Thompson, and Mohit Iyyer. PhraseBERT: Improved Phrase Embeddings from BERT with an Application to Corpus Exploration. CoRR, 2021. [5] Hitoshi Isahara, Francis Bond, Kiyotaka Uchimoto, Masao Utiyama, and Kyoko Kanzaki. Development of the Japanese WordNet. In Proceedings of the Sixth International Conference on Language Resources and Evaluation, 2008.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q7-1.pdf
# テキストマイニングによる PubMed・PubMed Central からの 遺伝子ネットワークの抽出 荒金究 1 井元宏明 ${ }^{1}$ 岡田眞里子 ${ }^{2}$ 1 大阪大学大学院理学研究科 2 大阪大学蛋白質研究所 $\{k$. arakane, himoto, mokada\}@protein.osaka-u.ac.jp ## 概要 生物学においては,細胞内のタンパク質の生化学反応ネットワークを数理モデルとして記述し,計算機を用いてその時空間動態を再現することでその系に関する洞察を得るシステム生物学という分野がある.しかしモデルを作るには再現したい現象に対する知識を得るために文献情報を大量に収集する必要があり,また知識の偏りによって重要な因子を見落とす可能性があるなどの問題点がある. これらを解決するために,我々は公開されている論文データベースからデータ駆動的にモデルを構築することを目指している。本稿では,論文中に出現する生物学的な固有表現の出現頻度や共起頻度情報を用いて疾患など特定の生命現象に関連するタンパク質ネットワークを抽出する手法と,既存の知識データベースから数理モデルを自動生成する手法を紹介する. ## 1 はじめに システム生物学の分野では,シグナル伝達経路というタンパク質の生化学反応系を連立常微分方程式 (ODE)を用いて数理モデル化し,計算機を用いてその動態を再現するという手法が用いられている [1]. そのようなシミュレーション解析を通じて,その経路の中で重要な働きをする因子を特定したり, それまで知られていなかった制御機構を予測したりすることで新たな知見を得ることが可能である. しかしながら,注目する現象を計算機上で再現できるモデルを構築するためには数多くの文献に当たり,シグナル伝達経路を構成するタンパク質やそれらの相互作用についての情報を収集することが必要である.このような人の手によるキュレーションをベースとした従来のモデル構築手法は多大な時間を要し,なおかつバイアスを排し切ることができない.そのため自然言語処理を活用し,データ駆動的 に論文データベースからシグナル伝達経路の数理モデルを自動的に構築する手法が確立すれば,バイアスを取り除きつつ,モデル構築からシミュレーション解析,仮説生成というサイクルを高速化し,より多くの発見をもたらす事ができる. 本稿では,そのようなデータ駆動型の数理モデル構築を目的として,論文中の遺伝子や疾患名などの固有表現の出現頻度や共起頻度を用いたタンパク質間相互作用(Protein-Protein Interaction; PPI)ネットワークの抽出と,それを用いて特定の疾患に関連するネットワークを効率よく抽出する手法,そして最後に知識データベースを用いた自動的な数理モデルの構築手法を紹介する。 ## 2 研究手法 以下より,本稿で紹介する研究手法の各ステップの詳細について記す。 ## 2.1 固有表現抽出と共起頻度解析 まず最初に,遺伝子や疾患名といった生物学的な固有表現同士の共起頻度解析を行うため, PubTator central[2](以降 PubTator)データベースを利用した. PubTator では,機械学習モデルを用いて PubMed, PubMed Central に登録されている生物医学系の論文中に存在する生物学的な固有表現を標識し,なおかつそれらを適切なデータベースの項目に紐づけたデータが公開されている。またこのデータの大きな特徴として標識された各固有表現が,例えばタンパク質名であればタンパク質のデータベースなど,適切なデータベースの項目と紐づけられていることが挙げられる。 そのため,(後述する PPI データベー スのような)異なるデータベースの情報と組み合わせることも容易である。よって,今回はそれを利用した共起頻度解析を行った。 共起頻度解析は, PubTator から得たデータセット 中に出現する全ての固有表現に対し行なった.この時,同一の文中に二つ以上の固有表現が出現した場合を一度の共起と見做した。 ## 2.2 PPI ネットワークの構築と重みづけ ある細胞で発現するタンパク質間の相互作用を網羅的に含んだ PPI ネットワークの中には,その細胞内で働くシグナル伝達経路の情報が含まれていることが期待される。そのため,PPI ネットワークから,共起頻度など自然言語処理により得られた情報を用いて,疾患などの特定の現象との関連性が高いサブネットワークを抽出するタスクを考えた。 まず,ネットワークの構築のために OmniPath[3] という PPI データベースを用いる. OmniPath は,夕ンパク質だけでなくDNA やRNAなどの様々な生体分子間の相互作用のデータベースを統合したデータベースである. 最終的なネットワークの大きさを制限するために,OmniPath に登録されている PPIのうちいくつかの条件1)を満たすものを抜き出し,それらを組み合わせたネットワークを重みづけを行う対象とした. 最終的に 1142 のノードと 1993 のエッジからなるネットワークが構築された。 ここで,特定の生命現象との関連性をネットワー クのノードやエッジの重みとして表現したい. そのため,まず注目する現象を表すキーワードを与えた. キーワードは共起頻度解析中に出現した(遺伝子名や病名などの)固有表現に紐づけられる。その後 PubTator の中の論文のうち,与えられたキーワー ドを含む論文を抜き出し, 再度共起頻度解析を行う.ノードにはそれが表すタンパク質の出現頻度, エッジにはそれが結ぶタンパク質同士の共起頻度が,それぞれに関してネットワーク全体で正規化された値を紐づける. 同様の操作を PubTator データセット全体から算出した出現頻度や共起頻度の値を用いて行い,論文にフィルタをかける前後で対応するノードとエッジ同士の重みを比較する。これらの操作を通じて,与えられたキーワードの文脈において強調されるノード(固有表現)とエッジ(共起) の值が大きくなるように重みづけることができる. ## 2.3 重みに応じたサブネットワーク抽出 前節で特定の生命現象に重みづけられたネットワークにおいては,前述の通り注目する現象との関 1)ソースとして KEGG が記載されている (1) 方向性がある (有向エッジで表される)(2)全てのソースで情報が一致している (3)など.連性が高いタンパク質や相互作用により大きい重みが紐づけられていることが期待される。単純に重みに関して閾値を設定し抽出するネットワークに含めるノードやエッジを選択することも可能だが,シグナル伝達経路の中に間値に満たない重みを持つノー ド・エッジが多数混在する可能性があるため,この手法ではシミュレーション解析が行えるような適切なサイズの連続した経路情報を取り出すことができない. そこで,この問題を解決するために,グラフ理論における Prize-Collecting Steiner Tree (PCST) 問題 [4] の応用を考える.PCSTは,ノードの重み(prize)を最大化しつつ,エッジの重み(cost)を最小化する木を求める組合せ最適化問題である. そこでこの PCST 問題を解くアルゴリズムを自分たちのネットワークに適用した. サイズが大きくなりがちな生物ネットワークに PCST アルゴリズムを適用するという考えは新しいものではない $[5,6,7,8]$. しかしながら,PCST 問題を解くことで得られたネットワー クをシミュレーション解析に用いる試みは初めてと思われる。そこで,本研究では巨大なネットワークに対しても高速に解を計算できるヒューリスティックアルゴリズム [9]を利用した。 また,問題を解く際にはノードとエッジに紐づけられた重みを変換した値を用いた。 ## 2.4 数理モデルへの変換 次に,PPI ネットワークを数理モデルに変換しシミュレーション解析を行うために, 本研究室で開発した生化学シミュレーション解析ソフト BioMASS[10] を利用した. BioMASS は,シグナル伝達経路における生化学反応を自然言語に近い形式(中間言語)で記述することで,これを自動的に ODE モデルに変換する Text2Model と呼ばれる機能を有する(図 1 ). ここで見られるように,シグナル伝達経路においてはタンパク質同士が結合し複合体を形成したり,化学修飾を通じてタンパク質を活性化・不活性化したりといった制御関係の方向性を有する反応が起こる. 数理モデル化にはこのような反応の連鎖の方向性を記述することが必要になる。 しかしながら,前節までに得られた PPI ネットワークから,シグナル伝達経路の数理モデルを得ることは難しい。これは,図 1 におけるEGF_ErbB1 やRafPなどに相当するような,シグナルを下流に 図 1 BioMASS の Text2Model の概要図. [11]より改変. 伝達する因子が明示されておらず,また無向と有向のエッジが混在し,かつ閉路が存在するような PPI ネットワークのみから上流・下流の情報を得ることが困難であるためである. そこで,次に,このような反応の方向性が既にわかっているシグナル伝達経路に対してシステマティックな処理を行うことで,このネットワークを実行可能な数理モデルに変換可能かを試行した. ここでは,シグナル伝達経路の知識データベー スである KEGG PATHWAY[12] に登録されている Human ErbB Pathway を元に作成したネットワークを用いた. KEGGから得られたネットワークに対する事前処理として,まず明示されていない逆反応や, リン酸化や活性化状態を表す中間的なノードを自動的に追加し, その後一部のタンパク質の分解反応を手動で加えることを行った.動的なモデル生成には,公開されている時系列の実験データ [11]を用いてパラメータ推定とシミュレーション解析を行った. パラメータ推定とは, 数理モデルの中の反応定数などのパラメータに関して,再現したい現象とのずれが最も小さくなもの遺伝的アルゴリズムなどを用いて推定する手法である. また,実験データには乳がんの異なるサブタイプ由来の細胞株(MCF-7, MDA-MB-231)に対して 2 種類の成長因子(EGF, HRG)で処理したデータが含まれている。最終的に, 生成したモデルで細胞内のタンパク質の時空間動態をある程度再現可能であることを害証した。 ## 3 結果と考察 構築した PPI ネットワークから抽出されたサブネットワークの例を図 2 に示す. このネットワークを抽出する際に用いたキーワードは “Breast Cancer” である。この結果から,本手法により,与えられた キーワードの文脈において強調されたノードやエッジを中心的に抽出することができ,なおかつ少数の重みの小さいものも抽出できていることがわかった. また,抽出されてくるネットワークの大きさは重みの変換のパラメータを変えることで大まかに調節することできた. 図 2 PPI ネットワークから抽出されたサブネットワークの例. 各ノードやエッジに紐づけられている重みが色で表現されている. また,抽出された遺伝子からそれぞれのコンテキストにおいて生物学的に意味のあるネットワー クが抽出できていることが確認できた. 例えば図 2 で示した “Breast Cancer” のサブネットワークにおいては,がん化と関わりがあることが知られているERBB2[13] やそれと同一のタンパク質ファミリーに属する遺伝子 EGFR が含まれていた。また “Inflammation”をキーワードとして抽出した場合では,細胞の炎症反応において中心的役割を果たすと考えられている NF-кB シグナル伝達経路 [14] の遺伝子が連なって抽出できていることが確認された。 また,与えられた文脈において強調されていなかったノードも注目に値する。すなわち,キーワー ドに関連するものとして抽出できた遺伝子は,換言すればその働きもよく研究されている有名な遺伝子だと言える。一方で,この手法で抽出されてきた関連性の低いと思われるノードやエッジは,この後の解析で注目する現象を再現するために重要な働きをする可能性がある。本稿で紹介した手法では,このように細胞内の遺伝子のシステムの全体像を抽出できる利点があると考えている. しかしながら,今回の結果として得られた PPI のサブネットワークは,この後に想定している数理モデリングによるシミュレーション解析に用いることはできない,これは,2.4 節で述べたような理由の他に,今回用いた PCST アルゴリズムが無向グラフ を解くものであったことがより大きな要因として挙げられる. シグナル伝達経路のモデリング解析では,しばしば入力と出力ノードが定義される. しかし, 無向グラフを解いた場合,想定される入力と出力ノードの間に路が存在するネットワークが得られるとは限らない,その上,生物ネットワークにおいては閉路のような特殊な構造が重要な働きをする場合が多い. そのような特徴を有したネットワークは PCST 問題を解くことでは得られない. そのため,本研究の目的を達成するためには異なる手法が必要だと考えられた。 次に, KEGG PATHWAY 上の Human ErbB pathway を元に作成したネットワークをシステマティックに数理モデルに変換し,それを用いて実際にシミュレーション解析を行った結果を述べる. KEGG から得られたネットワークに対しては, 2.4 で述べたような処理を通して BioMASS において Text2Model で対応する形式に変換することができた. このようにして得られた数理モデルに対し,過去に得られた 2 種類の細胞株の 2 条件の実験データ [11]を用いてシミュレーションを行った結果,本手法で得られたモデルはこれらの細胞の応答をある程度表現できることがわかった(図 3). KEGG から得られるような公共のネットワーク情報から,ほぼ自動的に実行可能な数理モデルを生成できた点は成果として大きい. 同モデルが異なる細胞株由来のデー タを説明することができたという結果は, 自動的な ODE モデル生成が実現可能であることと,今後論文データベース等から抽出した情報をどのように構造化すれば良いかを示唆するものである. MCF-7 (ルミナルA型乳がん細胞株) MDA-MB-231(トリプルネガティブ型乳がん細胞株) 図 3 ErbB pathway のシミュレーション結果. 実線がシミュレーション結果,エラーバー付きの点が実験データを表す。 ## 4 おわりに 本稿では,(1) 論文中の固有表現の出現頻度や共起頻度情報を用いて特定の生命現象に関連するネットワークを疾患名などのコンテキスト依存的に抽出する手法と,(2) 知識データベース KEGG PATHWAY に登録されている情報を元に実行可能なモデルをシステマティックに構築する手法を紹介した。 今回示した (1) の結果では論文情報からデータ駆動的にシミュレーション解析を行えるようなシグナル伝達経路を抽出することは困難であった. これは抽出されたネットワークとシミュレーション解析が行える数理モデルとの間にまだ隔たりが存在するためであった. (2) の手法に関しては,公共データベースにある有向ネットワーク情報から,人の手による調整をほとんど介さずに実行可能な数理モデルに変換できた. また,同モデルは実験データをある程度再現することが可能であった. まだ完全に自動的にシステマティックにモデルを生成するには至っていないが,今回の結果は自動的なモデル生成に向かうための足がかりとなると考えている. 今後の課題として,(1)と (2) の間をつなぐような手法を開発する必要がある. 今回は,(1)でグラフ理論で発展した PCST 問題の応用を扱ったが,この問題の解を求めるだけでは十分ではない可能性があることを述べた。ここで,より目的に沿うネットワークを抽出するために,PCST 問題を解くアルゴリズムの代わりに深層学習モデルを導入することも考えられる. グラフを扱うことに長けたグラフニューラルネットワークモデルと強化学習モデルを組み合わせた手法などが適用できると考えている. またそのほかの改善点としては,よりデータ駆動型の研究に近づくために,PPI ネットワークを得るために OmniPath のようなデータベースを参照するのではなく,直接 PubMed 等の論文データベースから抽出することが考えられる。これは自然言語処理の分野では関係性抽出に該当するタスクであり,深層学習モデルを導入することで達成できると思われる。 このように,今回導入することに能わなかった手法を今後取り入れることで,当初の目的であったシグナル伝達経路のモデルの自動抽出を実現できるのではないかと考えている. ## 謝辞 本研究は,JST,CREST バイオ DX(JPMJCR21N3) (研究代表者岡田眞里子) の支援を受けた. 本研究の議論に関して, 京都大学下平英寿研究室, 理化学研究所泰地真弘人研究室に感謝いたします. ## 参考文献 [1] Uri Alon. An Introduction to Systems Biology: Design Principles of Biological Circuits. CRC Press, July 2006. [2] Chih-Hsuan Wei, Alexis Allot, Robert Leaman, and Zhiyong Lu. PubTator central: Automated concept annotation for biomedical full text articles. Nucleic Acids Research, 47(W1):W587-W593, July 2019. [3] Dénes Türei, Tamás Korcsmáros, and Julio SaezRodriguez. OmniPath: Guidelines and gateway for literature-curated signaling pathway resources. Nature Methods, 13(12):966-967, December 2016. [4] Maria Minkoff. The Prize Collecting Steiner Tree Problem. PhD thesis, Massachusetts Institute of Technology, 2000. [5] Shao Shan Carol Huang and Ernest Fraenkel. Integrating proteomic, transcriptional, and interactome data reveals hidden components of signaling and regulatory networks. Science Signaling, 2(81):1-11, 2009. [6] M. Bailly-Bechet, C. Borgs, A. Braunstein, J. Chayes, A. Dagkessamanskaia, J. M. François, and R. Zecchina. Finding undetected protein associations in cell signaling by belief propagation. Proceedings of the National Academy of Sciences of the United States of America, 108(2):882-887, 2011. [7] Nurcan Tuncbag, Pamela Milani, Jenny L. Pokorny, Hannah Johnson, Terence T. Sio, Simona Dalin, Dennis O. Iyekegbe, Forest M. White, Jann N. Sarkaria, and Ernest Fraenkel. Network Modeling Identifies Patient-specific Pathways in Glioblastoma. Scientific Reports, 6:1-12, 2016. [8] Jiajie Peng, Linjiao Zhu, Yadong Wang, and Jin Chen. Mining Relationships among Multiple Entities in Biological Networks. IEEE/ACM Transactions on Computational Biology and Bioinformatics, 17(3):769-776, May 2020 . [9] Yahui Sun, Chenkai Ma, and Saman Halgamuge. The node-weighted Steiner tree approach to identify elements of cancer-related signaling pathways. BMC Bioinformatics, 18(Suppl 16), 2017. [10] Hiroaki Imoto, Suxiang Zhang, and Mariko Okada. A Computational Framework for Prediction and Analysis of Cancer Signaling Dynamics from RNA Sequencing Data-Application to the ErbB Receptor Signaling Pathway. Cancers, 12(10):2878, October 2020. [11] Hiroaki Imoto, Sawa Yamashiro, and Mariko Okada. A text-based computational framework for patient specific modeling for classification of cancers. iScience, 25(3):103944, March 2022. [12] Minoru Kanehisa and Susumu Goto. KEGG: Kyoto Encyclopedia of Genes and Genomes. Nucleic Acids Research, 28(1):27-30, January 2000. [13] Dihua Yu and Mien-Chie Hung. Overexpression of ErbB2 in cancer and ErbB2-targeting strategies. Oncogene, 19(53):6115-6121, December 2000. [14] Ting Liu, Lingyun Zhang, Donghyun Joo, and Shao-Cong Sun. NF- $\kappa B$ signaling in inflammation. Signal Transduction and Targeted Therapy, 2(1):1-9, July 2017.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q7-2.pdf
# ソーシャルメディアを用いた 一般用医薬品のファーマコビジランス 西山智弘 ${ }^{1}$ 矢田竣太郎 ${ }^{1}$ 若宮翔子 ${ }^{1}$ 堀里子 ${ }^{2}$ 荒牧英治 ${ }^{1}$ 1 奈良先端科学技術大学院大学 2 慶應義塾大学 ${ }^{1}$ \{nishiyama. tomohiro.ns5,s-yada, wakamiya, aramaki\}@is.naist.jp ${ }^{2}$ hori-st $@$ pha.keio.ac.jp ## 概要 近年,OTC 医薬品の誤用・乱用が増加しており,社会問題となっているが,自由に購入できるOTC 医薬品の乱用状況を把握することは難しい. そこで,我々はユーザが日常を投稿することが盛んに行われるソーシャルメディアを用いることで,OTC 医薬品の誤用乱用を把握できると考え,OTC 医薬品の使用状況に関してラベル付けを行ったコーパスを構築した. 用いたコーパスに含まれる医薬品名をマスクしたテキストを用いて学習させたモデルで分類精度を確認したところ, 医薬品名が含まれるものと同程度の精度で分類できることがわかった。 ## 1 はじめに 近年,高齢化による医療費の増大が社会問題となっている. この解決策の一つとして, 薬局で購入することのできる over-the-counter 医薬品(以降, OTC 医薬品とする)が推奨されている.しかし,これらの医薬品は手軽に手に入れられることから同時にその乱用が増加している。こうした乱用事例は特に若い世代に多く, OTC 医薬品のインターネット売買の普及で消費者がより簡便に OTC 医薬品を購入できるようになった影響等が考えられる [1]. 2021 年 12 月には薬物乱用に関するソーシャルメディア上のコミュニティを通じて知り合ったグループで OTC 医薬品の乱用による死亡事故も起きており,これらの医薬品が不適切に扱われることは社会上の問題である [2]. そのような状況下ではあるが,OTC 医薬品の乱用の現状などを把握する手法は乏しく,その方法としてはアンケートや医療機関への受診などに限られる [3]. こうした手法では, 情報の収集に時間やコストがかかり, 非効率であるだけでなく, 依存症な 図 1 医薬品誤用乱用関連のツイートの抽出 どの問題が発生した後でしか,その事象を捉えることができないため,より簡便に迅速に OTC 医薬品の使用状況を捉える手法が求められている. 特に医薬品の乱用を含めた誤用などの医薬品の使用状況を迅速に取得することができれば,当局自身が医療政策,製薬会社が乱用問題への対策をより効果的に打ち出せる可能性がある. これらを可能とする情報リソースとしてソーシャルメディアが挙げられる。中でも,Twitter は日本国内では LINE, YouTube についで多くのユーザを有しており [4], 匿名発信による手軽さから,ユーザが日常を投稿することが盛んに行われており,ユーザ自身による医薬品使用状況に関する投稿も多い.著者らはこの情報を医薬品安全性監視といったレギュラトリーサイエンスに役立てると考えており,既に誤用乱用などを含めた服薬コンプライアンスに関するコーパスの構築に取り組んでいる [5]. しかし, OTC 医薬品に向けたテキストの分類体系は存在していない. そこで, 本研究では OTC 医薬品のための誤用乱 用に関するテキスト分類体系を提案し,その自動分類を実施する。 ## 2 関連研究 ソーシャルメディアを用いて,医薬品の使用状況を捉える研究は盛んに行われており,患者の薬物乱用や服薬コンプライアンスを検出する試みがなされている [6-14]. Abdellaoui らは,エスシタロプラムとアリピプラゾールという 2 の薬物について,卜ピックモデルを用いたツイート分類を行った [13]. Weinssenbacher らは,コンプライアンス違反を検出するために医薬品投与に関する変更イベントを分類する方法を提案した [6]. また,著者らはこれまで服薬コンプライアンス違反に関するテキストの自動分類の精度を検証している [5]. しかしながら, この研究での服薬コンプライアンス違反の分類精度は 59.7 と低く,改善の余地があると考えられた. この研究において,服薬コンプライアンスの中でも,細かい分類が分類精度の向上に寄与することが示唆されたことから, 本研究ではラベルに大分類と細分類を設けることで,精度向上を試みた。 ## 3 データセット 我々は “MediA OTC section” という OTC 用の医薬品コーパスを構築した. 本コーパスは「ブロン」,「パブロン」,「ウット」,「イブ」,「ナロン」,「レスタミン」,「ルル」,「トニン」,「コンタック」,「ドリエル」,「ベンザブロック」,「アネトン」,「エスタロンモカ」からなる 14 種類の医薬品クエリで取得されたツイートについて,誤用乱用に関するラベルが付与された全 22036 件のデータである. 14 種類のクエリは薬剤師資格保有者によって,2020 年の全国の精神科医療施設における薬物関連精神疾患の実態調査に登場する OTC 医薬品の商品名を含むものを全て選択した [15]. ## 3.1 前処理 2021 年 1 月 1 日から 2021 年 12 月 31 日の期間で twitterAPIを用いて,14 種類の医薬品クエリで収集したツイートに対して,前処理を行なった。「イブ」,「ルル」,「ナロン」の3クエリについては,「クリスマス」,「ルルル」,「ナロンちゃん」などの明らかに医薬品に関連しないツイートを多く含んでいたため,これらのクエリについては,上述のようなワードを含むツイートを除外した.残ったツイートデータに対して,URL,ハッシュタグ,RT の除去処理や重複ツイートの除去を行なった後,テキスト本文が 10 文以上のツイートを各クエリ 1500 件ずつランダムサンプリングした. ただし,ノイズが多く医薬品関連ツイートの割合が少ない「イブ」,「ルル」については 10000 件ずつ行った。このデータセットに対し,各医薬品の医薬品関連ツイートが 500 件に達するまでアノテーションを実施した。 ## 3.2 アノテーション アノテータはツイートが医薬品に関して書かれたものかどうかを判断する. 第 2 段階として,アノテータは医薬品に関して書かれたツイートについて使用 (Use),誤用乱用 (Misuse),言及 (Mention) を判断する。最終段階として,誤用乱用(Misuse) と判断されたツイートについて,細分類を判断する. 細分類は,投与量間違い (dosage error), 過少服用 (underuse),過剰服用 (overuse),用法に反する (against usage),精神的効果(psychotropic effect),ダイエット(weight loss),自殺企図 (suicide attempt),鎮静効果 (sedation),依存 (addiction),不適切管理 (stock), 誤認識 (misunderstand), その他誤用乱用 (other)の 12 種類である.これらの分類は,Bigeard らのソーシャルメディアテキストの解析を参考に作成した [8]. 彼らの解析例をもとに,我々は OTC 用のマルチラベルの分類体系を構築した. また,アノテータは各クエリについて,医薬品関連ツイートが 500 件に達するまでラベル付けを行った. 最終的にラベル付けされたのは,全 20036 件のツイートである. 本データセットは二人のアノテータによって行われた。各医薬品クエリについて,アノテータがそれぞれ 100 件ずつ,合計で 1400 件のツイートに関してラベル付けを行い,アノテータ一致度を計算した. 各ラベルのカッパ係数の平均は 0.891 であり,相当程度一貫しているとみなせる. ## 4 提案手法 分類モデルには Bidirectional Encoder Representations from Transformers (BERT) [16] を用いた。日本語コーパスで事前学習したモデル1)を採用し,デー タセットを用いてファインチューニングを行なっ  図 2 医薬品分類モデルにおける Original と Masked の F1 スコア た. 学習条件として最適化手法は AdamW,学習率は $1.0 \times 10^{-5}$ ,バッチサイズは 512 であり,バリデーションロスが最小の時点におけるモデルを利用した. 本研究では 3 種類のモデルを作成した.ツイートが医薬品に関するものかどうかを分類するモデル (医薬品分類モデル),医薬品に関わるツイートを使用 (Use),誤用乱用 (Misuse),言及 (Mention) のいずれかに分類するモデル(誤用乱用大分類モデル),誤用乱用に関わるツイートが誤用乱用のうち,どの細分類と判断されるかを分類するモデル(誤用乱用細分類モデル)である. また,医薬品名がテキスト分類に影響をもたらすことが予想されたため,それぞれのモデルに対して,訓練データとして該当クエリの医薬品名をマスクしないテキスト (Original) とマスクしたテキスト (Masked)を適用したモデルで結果を検討した. ## 5 結果 データセットを 9 (訓練データ) $: 1$ (評価データ) の割合で分割し,3つのモデルによるツイートの分類精度を評価した。 医薬品分類モデルの Original と Masked の分類結果の F1 スコアを比較した結果を図 2 に示す. 全体を見ると,ほとんどの医薬品で Masked の方が F1 スコアが下がっていることがわかる. その中でもイブとルルについては,それぞれ 0.138 と 0.209 と大きな低下を示した。 図 3 は誤用乱用大分類モデルの Original と Masked の分類結果のF1 スコアの差である. Useに関しては医薬品名をマスクしても F1 スコアに差はほとんどでなかった. 一方で, Misuse や Mention では Masked の方が $\mathrm{F} 1$ スコアが上がっていることがわかる. 誤用乱用大分類モデルの Masked の Original の医薬品ごとの F1 スコアについては, appendix に示した. 図 4 は誤用乱用細分類モデルの Original と Masked の分類結果の F1 スコアの差である. 医薬品名をマスクしても,“overuse” や“against usage”では F1 スコアには大きく差はなかった. ## 6 考察 図 2 において,イブとルルの Masked の F1 スコアの大幅な低下には,データの不均衡性が寄与していると考えられる,イブやルルは医薬品関連ツイート以外のツイートも多く含まれ,イブやルルが含まれると医薬品関連でないとツイートが判断されやすくなっていると考えられる。ルルやイブでは医薬品名がマスクされたツイートでは Recall が上昇する代わりに Precision が低下していることから,上述の影響が寄与していることが推測される。例えば,“もうやだルルしかないけど OD しょ”, “ユンケルと、ルルを、ダブルで、飲んだとこなんよ”といった医薬品関連ツイートが Original では医薬品関連ツイートではないと判断されているが, Masked では医薬品関連ツイートであると判断されている. 医薬品名をマスクした方が不必要なツイートを分類してしまう可能性が高くなるが,誤用や乱用をキャッチしていくという意味では医薬品名をマスクした方が漏れの少ない分類モデルを作成できると考えられる。 図 3 において,全体的に Mention が高くなっており,医薬品名をマスクした方が分類精度が改善している.これは, 医薬品名が分類結果に影響を及ぼしていることが理由と考えられる。例えば,“エスタロンモカ?"や“ルルアタック APEX?” といったような医薬品名だけで, Use と分類される例があった.医薬品名をマスクすることで,医薬品名自身が分類 図 3 誤用乱用大分類モデルにおける Original と Masked の F1 スコアの差 Fl score 図 4 誤用乱用細分類モデルにおける Original と Masked の F1 スコア に与える影響を減じることができる。 図 4 において,一部のカテゴリで Original と Masked に大きな差があった. この理由としては, これらのカテゴリはほぼ全てがラベル数が 100 以下であり,データが不十分であったことが原因であると考えられる。 一方で,ラベル数が 500 以上と十分に確保できた “overuse”においては,医薬品名の有無にかかわらず,精度良く分類することができることがわかった. 既存研究では,コンプライアンス不良を分類した精度は 59.7 であり, 20 ポイント程度の改善が確認できた [5]. 細分類が精度の向上に寄与していると考えられる. OTC 医薬品において,最も問題となっているのは過剰投与であり,本モデルはこうした発言を精度良く分類することができることが示唆された. ## 7 おわりに 本研究では,OTC 医薬品の使用状況を自動で分類するための方法について検討した. OTC 医薬品に関するクエリでツイートを収集し,医薬品について発言されたツイートについて,アノテーションを実施しコーパスを作成した。続いて,作成したコーパスについて,医薬品分類モデル,誤用乱用大分類モデル,誤用乱用細分類モデルの 3 種類のモデルについて, Original と Masked の結果を比較した. その結果,医薬品名をマスクしたとしても,マスクしていないものと比較して, 遜色ない精度で分類できることが示唆された。一方で,ラベル数を確保できない場合には分類精度が低くなるということもわかった. 細分類においてはラベル数を確保することが難しいものがあり,少量データや不均衡データでも検出できることが求められる. 本研究は,捕捉が難しい OTC 医薬品に関する使用状況をソーシャルメディアを通じて捉えるという初の試みであり, OTC 医薬品の使用状況を把握するための新規のテキスト分類体系を構築した. 情報を効率的に収集することで,当局や製薬企業がその対応を適切に行えるようになるものと期待する. ## 謝辞 本研究の一部は, JST AIP 日独仏 AI 研究 JPMJCR20G9,JST CREST JPMJCR22N1,国立情報学研究所 (NII) CRIS,JSPS 科研費 JP21H03170, AMED の課題番号 JP22mk0101229 の支援を受けたものである. ## 参考文献 [1] Reiko Yano Nobuyuki Goto Fumiko Ohtsu Hiroko Niwa, Kouich Tanabe. Association between the Current Situation of Adverse Reactions Caused by Non-prescription Drug Abuse and Patient Backgrounds. Jpn. J. Drug Inform., Vol. 20, pp. 145-155, 2018. [2] The Japan Times. Abuse of over-the-counter drugs surges among young people in Japan, 2022. https://www. japantimes.co.jp/news/2022/01/17/ national/drugs-mental-suffering/. [3] Aluri Mourya, Chippy Mary, Chithu James, Josepheena Jose, and R Srinivasan. A Survey on Over The Counter Drug usage in the Community. Journal of Drug Delivery and Therapeutics, Vol. 9, No. 2-s, April 2019. Section: Research. [4] comnico.【2023 年 1 月版】人気ソーシャルメディアのユーザー数まとめ, 2023. https://www. comnico. jp/we-love-social/sns-users. [5] 西山智弘, 矢田竣太郎, 若宮翔子, 堀里子, 荒牧英治. ソーシャルメディアにおける服薬ノンコンプライアンス発言の分類と医薬品構造類似度を用いたコーパス可搬性の検討. 言語処理学会第 28 回年次大会発表論文集, pp. 1956-1960, 2022. [6] Davy Weissenbacher, Suyu Ge, Ari Klein, Karen O'Connor, Robert Gross, Sean Hennessy, and Graciela Gonzalez-Hernandez. Active neural networks to detect mentions of changes to medication treatment in social media. Journal of the American Medical Informatics Association, Vol. 28, No. 12, pp. 2551-2561, 2021. Publisher: Oxford University Press (OUP). [7] Abeed Sarker and Graciela Gonzalez. Portable automatic text classification for adverse drug reaction detection via multi-corpus training. Journal of Biomedical Informatics, Vol. 53, pp. 196-207, February 2015. [8] Elise Bigeard, Natalia Grabar, and Frantz Thiessard. Detection and Analysis of Drug Misuses. A Study Based on Social Media Messages. Frontiers in Pharmacology, Vol. 9, p. 791, July 2018. [9] Nhathai Phan, Soon Ae Chun, Manasi Bhole, and James Geller. Enabling Real-Time Drug Abuse Detection in Tweets. In 2017 IEEE 33rd International Conference on Data Engineering (ICDE), pp. 1510-1514, San Diego, CA, USA, April 2017. IEEE. [10] Antonio A. Ginart, Sanmay Das, Jenine K. Harris, Roger Wong, Hao Yan, Melissa Krauss, and Patricia A. CavazosRehg. Drugs or Dancing? Using Real-Time Machine Learning to Classify Streamed "Dabbing" Homograph Tweets. In 2016 IEEE International Conference on Healthcare Informatics (ICHI), pp. 10-13, Chicago, IL, USA, October 2016. IEEE. [11] Tim K. Mackey, Janani Kalyanam, Takeo Katsuki, and Gert Lanckriet. Twitter-Based Detection of Illegal Online Sale of Prescription Opioid. American Journal of Public Health, Vol. 107, No. 12, pp. 1910-1915, December 2017. [12] Michael Chary, Nicholas Genes, Christophe GiraudCarrier, Carl Hanson, Lewis S. Nelson, and Alex F. Manini. Epidemiology from Tweets: Estimating Misuse of Prescription Opioids in the USA from Social Media. Journal of Medical Toxicology, Vol. 13, No. 4, pp. 278-286, December 2017. [13] Redhouane Abdellaoui, Pierre Foulquié, Nathalie Texier, Carole Faviez, Anita Burgun, and Stéphane Schück. Detection of Cases of Noncompliance to Drug Treatment in Patient Forum Posts: Topic Model Approach. Journal of Medical Internet Research, Vol. 20, No. 3, p. e85, March 2018 [14] Miguel A. Alvarez-Mon, Carolina Donat-Vargas, Javier Santoma-Vilaclara, Laura de Anta, Javier Goena, Rodrigo Sanchez-Bayona, Fernando Mora, Miguel A. Ortega, Guillermo Lahera, Roberto Rodriguez-Jimenez, Javier Quintero, and Melchor Álvarez Mon. Assessment of Antipsychotic Medications on Social Media: Machine Learning Study. Frontiers in Psychiatry, Vol. 12, p. 737684, November 2021 [15] 松本俊彦, 宇佐美貴士, 船田大輔, 村上真紀, 沖田恭治, 谷沍由布子, 山本泰輔, 山口重樹. 全国の精神科医療施設における薬物関連精神疾患の実態調査. 医薬品・医療機器等レギュラトリーサイエンス政策研究事業, pp. 41-104, 2020. [16] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding". In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186. Association for Computational Linguistics, 2019. ## A 参考情報 図 5,6 は誤用乱用大分類モデルの Masked の Original の医薬品ごとの F1 スコアである. Use に関してはラベルを医薬品名をマスクしてもF1 スコアに差はほとんどでなかった. 一方で, Misuse や Mention では Masked の方が F1 スコアが上がっていることがわかる. F1 score 図 5 誤用乱用大分類モデルにおける Original の F1 スコア F1 score 図 6 誤用乱用大分類モデルにおける Masked の F1 スコア
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q7-3.pdf
# 災害ツイートを対象とした場所参照表現の抽出における 過去事例の利用とその災害種が及ほす影響調査 六瀬聡宏 ${ }^{1}$ 内田理 ${ }^{1}$ ${ }^{1}$ 東海大学情報理工学部情報メディア学科 \{trokuse, o-uchida\}@tokai. ac. jp ## 概要 本研究では災害時に流通するツイートから場所を参照する表現の抽出について検討する. 今回は機械学習モデルによる固有表現抽出(NER)の問題として解決を試みる上で 1 つの条件を設け, 学習に過去の災害時に流通したツイートを利用することを考える。災害という状況下では, 迅速かつ的確な対応が求められる一方で, 多くの NER モデルは, 性能の担保には正確にアノテーションされたデータが必要である. 本研究では日本で発生した地震, 豪雨, 台風の 3 つの災害に焦点を当て, 同じ種類の災害で学習した場合, 異なる種類の災害で学習した場合の 2 つの観点から過去の災害時に流通したツイートの利用可能性を検証した。 ## 1 はじめに 大規模災害時の被害を最小限に抑えるためには,迅速かつ的確な情報の収集と伝達が重要である. そのため, Twitter を始めとする即時性が高く利用者の多いソーシャルメディアの利活用に関心が寄せられている。災害時には Twitter 上で被災状況の発信や収集が盛んに行われており [1], 流通する情報は初動対応において重要な情報を含むことが報告されている[2].このような背景から, 災害対応にあたる政府や自治体でも Twitter $の$ 利活用が進められている[3]. しかし, Twitter の災害時利用には解決すべき課題も残されている. そのひとつが流通する情報量の急激な増加である. 例えば, 2018 年に発生した大阪府北部を震源とする地震の際には, 発生直後の 10 分間で「地震」という単語を含むツイートが少なくとも 27 万件以上投稿されたとの報告がある[4].以上より, 膨大なツイート群から, 災害対応の意思決定に有益な情報のみを選別する必要がある. 選別の観点として, 信憑性や緊急性の他, 各ツイートの内容がどの場所を対象としたものであるかを特定 することも重要である.ツイートには言及している地点の特定に有益な場所を参照するような表現(場所参照表現)を含む場合がある(表 1)。場所参照表現が適切に抽出できれば,ツイートを地図にマッピングすることができ[5], 災害対応等により活用することが可能となる. 本研究ではツイート本文を対象に固有表現認識 (NER)による場所参照表現の抽出を試みる。ただし,災害発生時にリアルタイムに適用することを想定し,現在発生している災害に対して,過去の災害時に流通したツイートで学習することを考える(図 1).多くの場合, NER は機械学習モデルによって実現され, 対象のドメインのデータで学習されている. しかし,災害の発生と同時に学習に必要なデータの収集や選別などの一連の作業には多くの時間を要する。一方で,被害を最小限に抑えるという観点からは迅速な対応が必要不可欠である。これらの問題を解決する第一歩として, 国内で発生した, 豪雨, 台風,地震の 3 種類の災害時のツイートからデータセットを構築し,過去の災害ツイートの利用可能性について検証する,今回は同じ種類の災害を利用した場合,異なる種類の災害を利用した場合で,モデルの性能にどのような影響を与えるかを調查した。 表 1 場所参照表現を含む災害ツイートの例 \\ 図 1 過去の災害データを利用した学習の例 ## 2 関連研究 災害時における Twitter 利用に関しては,対応の緊急度推定[6]や, キーフレーズ抽出[7]など幅広い分野で研究が進んでいる. これらの研究の多くは英語のツイートを対象としている場合が多いことから,他の言語でデータセットを構築し検証を進める動きもある[8][9]. また,これらのデータセットを統合して多言語に対応したモデルを構築する研究[10]も進められているが, 多言語モデルは特定の言語に特化しているとの報告[11]もあることから英語以外の言語での検証の余地は残されている. また,災害時におけるツイートの位置情報についても先行研究でいくつかの結果が示されている. 例えば,ツイートが言及している地点の特定には,ツイートに付与されたジオタグと呼ばれる緯度経度情報が利用できる. しかし, ジオタグが付与されたツイート数は決めて少ないことが報告されているため [12], 他の方法と併用することが望ましい. このような背景からツイート本文を対象とした NER によるアプローチは数多く存在し, 洪水 [13]や地震[14] といった状況下での研究がある. 特に, Suwailehら [15]はラベル付きのツイートが利用できない場合に,直近で発生した災害のツイートの有効性について検証している. このSuwailehらの研究は本研究と立ち位置が非常に近いが, 日本国内の災害時ツイートを対象とした場合, 考慮すべき点が存在する. まず,災害の発生頻度や規模, その種類は地域によって異なる。例えば,日本国外では砂嵐 [16]や山火事[17] に関する研究などが進められているが, 日本国内ではこれらの発生頻度や規模は小さい. その一方, 日本では地震が発生する頻度や規模が他国に比べて大きく, 東日本大震災や熊本地震など, 甚大な被害をもたらしたケースが少なくない. 次に, 英語と日本語による言語の性質の違いが挙げられる. 日本語は単語間の境界が曖昧であり, 単語への分割方法が性能に影響を与えることが指摘されている[18]. また,文法の違いも考慮すべき要素である [19]. 従って, 日本国内で発生した災害に対し, 日本語で記述されたツイートに対する検証の余地はいまだ大きいと考える. 図 2 問題設定の概要 ## 3 問題設定 本研究における場所参照表現の抽出とは, ツイー トに含まれる全ての場所参照表現を特定することである. 問題設定の概要を図 2 に示す. $L$ 個の単語 $w_{i}(i=1, \cdots, L)$ から構成されるツイート $t=\left.\{w_{1}, w_{2}, \cdots, w_{L}\right.\}$ が与えられたとき, $t$ に含まれる場所を参照している単語 $w_{i}$ をすべて特定することを考える。場所参照表現は複数の単語にまたがる可能性があるため, ツイートを単語の系列とみなし,各単語のクラスを予測する系列ラベリング問題として定義する.クラスの定義は Yang ら[20]を参考に BILOU の 5 クラスを利用する。“B”は場所参照表現の先頭となる単語を示し, 次の単語も場所参照表現の場合は“I”を割り当てる.末端まで到達した場合に“L”を割り当てることにより,“B”から“L”までが場所参照表現であることを表現する.場所参照表現ではない単語は“O”を割り当て, 1 単語からなる場所参照表現は“U”を割り当てることで表現する。本研究ではこの定義に従い, ツイートを構成する単語列に対してマルチクラス分類を試みる. ## 4 データセット ## 4. 1 ツイートの収集 日本国内で発生した豪雨, 台風, 地震の 3 種類の災害に焦点を当て,検証に利用するツイートを収集する. 今回は Twitter Search API を利用し付録 A に示す災害時に流通したツイートを収集した。本研究では,以下の時間を起点として,24 時間以内に流通したツイートを対象とした。 - 地震 : 地震発生時刻 - 豪雨 : 気象庁から最初に大雨特別警報が発表された時刻から 6 時間前 - 台風: 気象庁から日本国内に上陸の発表があった時刻から 6 時間前 災害に関係ないツイートを除外するため, Paul ら [21]などを参考に, 事前の予備実験に基づいて決定したクエリを指定する。詳細は付録Aに示す. ## 4.2 災害に言及したツイートの絞り込み Paul ら[21]の調査によると,災害に関係するクエリを含むツイートでも実際に災害について言及しているツイートは非常に少ないことが知られている.本研究では更に以下の条件をすべて満たすオリジナ ルツイート(リツイート以外のツイート)のみに絞り込みを行う。 (1) 日本語で記述されている (2) 1 回以上リツイートされている (3) Twitter 公式クライアントから投稿されている (4) 1 つ以上の場所参照表現を含んでいる これらの条件は,一度でも拡散されたツイートは有益な情報を含み,かつ,現地からの投稿は機械的に投稿する BOT とは異なり, 特別な Twitter クライアントを利用していないことがほとんどであろうという仮説に基づいて設定した。 条件(4)に関しては関連研究[13]などを参考にしてオープンデータを利用した辞書を構築し, 最長一致で文字列マッチングを行うことにより条件の充足を判断した. それ以外の条件に関してはツイートのメタデータを参照して機械的に判定を行った. ## 4.3 アノテーション 前節の処理で絞り込まれたツイート群に対して,含まれる場所参照表現にアノテーションを行う.今回は Matsuda ら[22]の研究で提案されているアノテ ーションスキームを参考に実施した. 対象となった場所参照表現の例を付録 $\mathrm{C}$ に示す. 作業の過程で “球磨川” の様な場所ではなく人名を指している場合や, 実際の被害状況ではなく被災地の状況を心配するようなツイートを除外し,各災害で必要なツイ一ト数が得られるまで作業を繰り返す. 以上の手順を踏んで,豪雨,地震,台風の 3 種類の災害に対し, それぞれ 3 つの事例を準備した. 今回は災害ごとに 1,000 ツイートを用意し,合計 9,000 ツイートのデー タセットを構築した。 なお, データの偏りといった観点からアノテーション対象のツイートはランダムサンプリングによる選択が望ましい. しかし, 今回は災害に関連したクエリを含むツイートだけでも膨大な数のツイートが流通しているため,前述の条件で絞り込みを行った。詳細を付録 $\mathrm{A}$ に示す. また,作成したデータセットは再現性や研究コミュニティの活性化の観点から公開されることが望ましい。しかし, 災害ツイートに含まれる場所参照表現は Twitter ユーザの居住地や所属組織などプライバシーと密接に関係しているため,慎重になるべきであると考える。その一例として, 救助を求めるツイートに個人の住所が記載され ているケース[23]を複数確認している。このような背景から今回はデータセットの公開を見送り, 構築方法のみを示すこととした. ## 5 実験 ## 5. 1 実験設定 本研究では場所参照表現の抽出に BERT[24]を採用した. BERT は系列ラベリング問題のベースラインとして広く利用されており, 比較的少量の学習でも良好な結果を得られることが知られている。また, BERT のような大量のデータで事前に学習を行う基盤モデルには ALBERT[25]や RoBERTa[26]が存在するが, Suwaileh ら[15]の研究との整合性を考慮した。前述のような基盤モデルがより高い性能を発揮するためには,対象のドメインのコーパスから学習することが望ましい[27][28]. しかし, 学習に必要なコストが高いため, 事前学習済みの BERT モデルを利用しデータセットで微調整する。 また, 学習の効率化のため, ツイート中の URL やユーザ名は<URL>と<USERNAME>にそれぞれ置換した。学習時のハイパーパラメータはオリジナルの論文[24]を参考に optimizer として AdamW を選択し, learning rate を $2 \mathrm{e}-5$, batch size を 8 に設定した上で epochを 5 として学習を行った。 以上の設定に基づき,過去の災害ツイートの利用を 2 つ観点から検証する。まずは,同じ種類の災害で検証した場合を考える。例えば,令和 3 年 8 月豪雨での利用を考えた場合,それ以前に発生した 2 つの豪雨災害で学習し, 令和 3 年 8 月豪雨のツイー トで検証する。また, 令和 3 年 8 月豪雨のツイートで学習した場合も検証する.この検証の目的は, 発生中の災害で即時に学習データが利用可能な場合を性能の上限値とみなし, 過去の災害で学習した場合と比較することである.さらに,災害の種類を変えて検証した場合の影響を検証する。同じく令和 3 年 8 月豪雨の利用を考えた場合, 地震や台風で学習する場合を考える,比較として,同じ種類の過去の豪雨災害を利用した場合,発生中の災害で即時に学習データが利用可能な場合場合も併せて検証する.以上の実験にあたり,各災害のアノテーション済みツイートを Train $(80 \%), \operatorname{Dev}(10 \%)$, Test $(10 \%)$ の 3 つの用途別に分割する. Train で学習し Test を推論し た場合の性能を検証し, データの観察が必要な場合は Devを利用する。 ## 5.2 実験結果(同じ種類の災害) 同じ種類の災害で検証した場合の検証結果を付録 $\mathrm{D}$ に示す. 同じ種類の災害で学習した場合(実験 ID $2,3,6,7,10,11$ ) でも, $\mathrm{F}$ 值で最大 6 ポイント以上の差を確認した. Dev で推論した結果の傾向を調查したところ,ピーク時の時間帯が影響を与えている可能性があることがわかった。例えば,日中に大雨特別警報が発令された平成 30 年台風 21 号の場合は, 現地から具体的な災害の状況を確認できる有益なツイートを多く確認できた。一方で, 令和元年房総台風の場合は, 明け方の午前 3 時に接近し, 午前 5 時に日本へ上陸したため, 災害に言及するツイー トは少ない. 場所参照表現のバリエーションも限定されており,汎化性能に影響を与えたと考えられる。 以上の結果からデータの偏りを抑えるため, 2 つの災害時に流通したツイートを混ぜ合わせた設定でも検証した(実験 ID 4, 8, 12). 学習データの数を合わせるため, 2 つの災害から半分ずつランダムサンプリングし, 学習と開発用のデータセットを構築した. 実験の結果, 豪雨と台風の場合で性能の向上を確認できた一方で,地震の場合は大きく性能が低下した,地震の場合は被害が広範囲に発生するため, ツイートに含まれる場所参照表現の粒度が大きい. そのため, 含まれる場所参照表現が特定の都道府県名に偏っており,影響を及ぼしたと考えられる(実験 ID 8). 一方で, 地震の場合は過去の地震を引き合いに出して注意喚起や被災報告するようなツイー 卜も多く, 場所参照表現が重複している傾向がある. この性質はプラスの影響を与える場合もあると考えられる(実験 ID 5)。 最後に, 発生中の災害で即時に学習データが利用可能な場合も検討した(実験 ID $1,5,9$ ). 地震は比較的小さいが, 豪雨と台風の場合, 性能には $\mathrm{F}$ 値で 3 ポイント程度の開きがあることもわかった。 ## 5.3 実験結果(異なる種類の災害) 前節の検証結果から,複数の災害データを混合させることによって,汎化性能の向上が期待できる。 その一方で,妆害種によって組み合わせには検討の余地があることを示唆している. 発生中の災害で即時に学習データが利用可能な場合と同等かそれ以上の性能を獲得するため, さらなる検証を行った. 結果を付録 Eに示す. 5.2 での検証を踏まえ, 災害の種類ごとに過去に発生した 2 つの災害を半分ずつ混ぜたツイートデー タで学習を行った。付録 Eに示す通り,豪雨に対し台風で学習した場合は, 地震で学習した場合と比べると性能が高い.これは, 台風は豪雨と同じく土砂災害や水害による被害が多く, ツイート内容の傾向が類似しているからであると考えられる。一方, 台風に対して豪雨と地震で学習した場合を比較すると,地震の方が高い性能を示している。このことから,災害の傾向が似ている場合は性能向上が期待できるといった仮説には慎重になるべきであると考える。加えて, 地震の場合は地震で学習するよりも, 台風で学習した場合の方が良い性能を示している. 交通インフラへのダメージなど, 被害については共通する部分も少なからずあるが,風水害が被害の中心であり災害の性質が異なる場合でも良好な結果が得られたことは興味深い.これは災害の種類が異なるデ一夕も学習に利用することが可能であることを示唆している。また,地震は単独での学習が適しているなど豪雨や台風とは異なる傾向を示しており, 今後さらなる検証が必要である. ## 5.4 考察 これらの結果から, 過去の災害ツイートと, 発生中の災害ツイートを利用する場合では性能に開きがある. 性能の向上にはマルチタスク学習や, CRFの利用が採用されることが多い。ただし, Wikipedia で学習された BERT はツイートの埋め込みに対して効果が低いといった報告もあり [29], ツイートで学習したモデル[30]への変更は検討の価值がある. 最後に, 先行研究である Suwaileh ら[15]との比較について述べる。台風と豪雨のような傾向の似た災害同士で学習が効果的であることなど, 定量的な検証結果は概敳一致している。しかし,今回は定性的な分析まで踏み込んでいない. 性能向上の観点からもエラーの傾向などが一致するかは, 重要かつ興味深い疑問であり, 今後の検討課題である. ## 6 まとめ 本研究では, 災害時に流通したツイートからの場所参照表現抽出における,過去の災害ツイートの利用可能性を災害種の観点から検証した. 今後は大雪などの災害種の拡張や, 考察での検討事項の他, 定性的な分析を進めることで性能の向上を試みる. ## 謝辞 本研究は,科研費基盤研究(C) 22K12277 の助成を受けて実施した。 ## 参考文献 [1] Saleem, H., Zamal, F., Ruths, D.: Tackling the Challenges of Situational Awareness Extraction in Twitter with an Adaptive Approach. Procedia Engineering. 107, pp. 301-311 (2015). [2] Meier, P.: Digital Humanitarians: How Big Data Is Changing the Face of Humanitarian Response. (2015). [3] Uchida, O., Utsu, K.: Utilization of Social Media at the Time of Disaster. IEICE ESS Fundamentals Rev. pp. 13, 301-311 (2020). [4] Yamada, S., Utsu, K., Uchida, O.: An Analysis of Tweets During the 2018 Osaka North Earthquake in Japan -A Brief Report. In: Proc. 2018 5th International Conference on Information and Communication Technologies for Disaster Management (ICTDM). pp. 1-5 (2018) [5] Uchida, O., Rokuse, T., Tomita, Kajita, Y., Yamamoto, Y., Toriumi, F., Semaan, B., Robertson, S., Miller, M.: Classification and Mapping of Disaster Relevant Tweets for Providing Useful Information for Victims During Disasters. IIEEJ Trans. Image Electronics and Visual Computing, 3, pp. 224-232 (2015). [6] Sarioglu Kayi, E., Nan, L., Qu, B., Diab, M., McKeown, K.: Detecting Urgency Status of Crisis Tweets: A Transfer Learning Approach for Low Resource Languages. In: Proc. 28th International Conference on Computational Linguistics. pp. 4693-4703. International Committee on Computational Linguistics, Barcelona, Spain (Online) (2020). [7] Ray Chowdhury, J., Caragea, C., Caragea, D.: Keyphrase Extraction from Disaster-related Tweets. In: The World Wide Web Conference. pp. 1555-1566. Association for Computing Machinery, New York, NY, USA (2019). [8] Alharbi, A., Lee, M.: Kawarith: An Arabic Twitter Corpus for Crisis Events. In: Proc. 6th Arabic Natural Language Processing Workshop. pp. 42-52. Association for Computational Linguistics, Kyiv, Ukraine (Virtual) (2021). [9] Cobo, A., Parra, D., Navón, J.: Identifying Relevant Messages in a Twitter-based Citizen Channel for Natural Disaster Situations. In: Proc. 24th International Conference on World Wide Web. pp. 1189-1194. Association for Computing Machinery, New York, NY, USA (2015). [10] Ray Chowdhury, J., Caragea, C., Caragea, D.: Cross-Lingual Disaster-related Multi-label Tweet Classification with Manifold Mixup. In: Proc. 58th Annual Meeting of the Association for Computational Linguistics: Student Research Work-shop. pp. 292298. Association for Computational Linguistics, Online (2020) [11] Martínez-García, A., Badia, T., Barnes, J.: Evaluating Morphological Typology in Zero-shot Cross-lingual Transfer. In: Proc. 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers). pp. 3136-3153. Association for Computational Linguistics, Online (2021). [12] Cheng, Z., Caverlee, J., Lee, K.: You are Where You Tweet: A Content-based Approach to Geo-locating Twitter Users. In: Proc. 19th ACM international conference on Information and knowledge management. pp. 759-768. Association for Computing Machinery, New York, NY, USA (2010). [13] Al-Olimat, H., Thirunarayan, K., Shalin, V., Sheth, A.: Location Name Extraction from Targeted Text Streams using Gazetteerbased Statistical Language Models. In: Proc. 27th International Conference on Computational Linguistics. pp. 1986-1997. Association for Computational Linguistics, Santa Fe, New Mexico, USA (2018) [14] Middleton, S.E., Middleton, L., Modafferi, S.: Real-Time Crisis Mapping of Natural Disasters Using Social Media. IEEE Intelligent Systems. 29, 9-17 (2014). [15] Suwaileh, R., Imran, M., Elsayed, T., Sajjad, H.: Are We Ready for this Disaster? Towards Location Mention Recognition from Crisis Tweets. In: Proc. 28th International Conference on Computational Linguistics. pp. 6252-6263. International Committee on Computational Linguistics, Barcelona, Spain (Online) (2020). [16] Hamoui, B., Mars, M., Almotairi, K.: FloDusTA: Saudi Tweets Dataset for Flood, Dust Storm, and Traffic Accident Events. In: Proc. 2th Language Resources and Evaluation Conference. pp. 1391-1396. European Language Resources Association, Marseille, France (2020). [17] Waqas, H., Imran, M.: \#CampFireMissing: An Analysis of Tweets About Missing and Found People from California Wildfires. Proc. ISCRAM 2019 (2019). [18] Rust, P., Pfeiffer, J., Vulić, I., Ruder, S., Gurevych, I.: How Good is Your Tokenizer? On the Monolingual Performance of Multilingual Language Models. In: Proc. 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers). pp. 3118-3135. Association for Computational Linguistics, Online (2021). [19] Hu, J., Ruder, S., Siddhant, A., Neubig, G., Firat, O., Johnson, M.: XTREME: A Massively Multilingual Multi-task Benchmark for Evaluating Cross-lingual Generalisation. In: Proc. 37th International Conference on Machine Learning. pp. 4411-4421. PMLR (2020). [20] Yang, J., Liang, S., Zhang, Y.: Design Challenges and Misconceptions in Neural Sequence Labeling. In: Proc. 27th International Conference on Computational Linguistics. pp. 3879-3889. Association for Computational Linguistics, Santa Fe, New Mexico, USA (2018) [21] Paul, U., Ermakov, A., Nekrasov, M., Adarsh, V., Belding, E.: \#Outage: Detecting Power and Communication Outages from Social Networks. In: Proc. The Web Conference 2020. pp. 18191829. ACM, Taipei Taiwan (2020). [22] Matsuda, K., Sasaki, A., Okazaki, N., Inui, K.: Annotating Geographical Entities on Microblog Text. In: Proc. 9th Linguistic Annotation Workshop. pp. 85-94. Association for Computational Linguistics, Denver, Colorado, USA (2015). [23] Utsu, K. Uchida, O.: Analysis of Rescue Request and Damage Report Tweets Posted During 2019 Typhoon Hagibis. IEICE Transactions on Fundamentals, E103-A, pp.1319-1323, (2020). [24] Devlin, J., Chang, M.-W., Lee, K., Toutanova, K.: BERT: Pretraining of Deep Bidirectional Transformers for Language Understanding. In: Proc. 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers). pp. 4171-4186. Association for Computational Linguistics, Minneapolis, Minnesota (2019). [25] Lan, Z., Chen, M., Goodman, S., Gimpel, K., Sharma, P., Soricut, R.: ALBERT: A Lite BERT for Self-supervised Learning of Language Representations. Arxiv. (2020). [26] Liu, Y., Ott, M., Goyal, N., Du, J., Joshi, M., Chen, D., Levy, O., Lewis, M., Zettlemoyer, L., Stoyanov, V.: RoBERTa: A Robustly Optimized BERT Pretraining Approach. ArXiv. (2019). [27] Chalkidis, I., Fergadiotis, M., Malakasiotis, P., Aletras, N., Androutsopoulos, I.: LEGAL-BERT: The Muppets straight out of Law School. In: Findings of the Association for Computational Linguistics: EMNLP 2020. pp. 2898-2904. Association for Computational Linguistics, Online (2020) [28] Alsentzer, E., Murphy, J., Boag, W., Weng, W.-H., Jindi, D., Naumann, T., McDermott, M.: Publicly Available Clinical BERT Embeddings. In: Proc. 2nd Clinical Natural Language Processing Workshop. pp. 72-78. Association for Computational Linguistics, Minneapolis, Minnesota, USA (2019). [29] Wang, L., Gao, C., Wei, J., Ma, W., Liu, R., Vosoughi, S.: An Empirical Survey of Unsupervised Text Representation Methods on Twitter Data. In: Proc. 6th Workshop on Noisy User-generated Text (W-NUT 2020). pp. 209-214. Association for Computational Linguistics, Online (2020). [30] Nguyen, D.Q., Vu, T., Tuan Nguyen, A.: BERTweet: A Pretrained Language Model for English Tweets. In: Proc. 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations. pp. 9-14. Association for Computational Linguistics, Online (2020). ## A ツイートの収集 ## B ッイート収集時のクェリ 地震 $O R$ 大雨 $O R$ 火災 $O R$ 国道 OR 津波 $O R$ 突風 $O R$ 強風 $O R$ 暴風 OR 横転 $O R$ 高潮 $O R$ 高波 $O R($ 運転 (取りやめ $O R$ 取り止め OR 見合わせ OR 見合せ OR 見あわせ)) OR 運休 OR 通行止 OR 通行不 OR 通行規制 OR 渋滞 OR 避難 OR 救助 OR 通信障害 OR 停電 OR 帰宅困難 OR 帰宅難民 OR 足止め OR 帰れない OR 帰れなくなった OR 地滑り OR 山崩れ OR 土砂崩れ OR 倒木 OR 落石 OR 落木 OR 崖崩れ OR がけ崩れ OR 土砂流入 OR 地崩れ OR 冠水 OR 氾濫 OR 水没 OR 増水 OR 浸水 OR 洪水 OR 断水 OR 倒壊 OR 全壊 OR 被害状況 OR 崩壊 OR 崩落 OR 半壊 ## C アノテーションした場所参照表現の例 ## D 同じ種類の災害で学習と推論を行った場合の実験結果 ## E 異なる種類の災害で学習と推論を行った場合の実験結果
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q7-4.pdf
# クラウドソーシングと自然言語処理による安価な UX 評価の実現 小川健太郎 奥川真理子 加藤晃子 ヤフー株式会社 \{keogawa, mokugawa, akkato\}@yahoo-corp. jp ## 概要 自然言語処理の技術革新が加速している一方で,自然言語処理技術のサービス適用には,専門知識を持った技術者と, 高い処理能力を有する計算機資源が必要になる.そのため「導入したくても導入できない」,「導入しても自分たちで運用できない」という企業や組織も多いのが実情である. 我々はこの問題をクラウドソーシングと既存ツー ルのシンプルな組み合わせで解決した.本稿では「AI リテラシの高くない組織が簡便かつ安価に自然言語処理技術を導入し業務効率化を達成」した事例とその実現プロセスを紹介する。 ## 1 背景 100 以上のサービスをもつヤフーでは,サービス品質の維持・向上への取り組みが必要となるため,品質評価部門が自社の「Yahoo!クラウドソーシング」 [1]を利用してUX (User Experience) 評価のスキ ームを構築した. 本章では, このUX 評価の概要と,運用上の課題について述べる. ## 1. $1 \mathrm{UX$ 評価とは} UX 評価は Yahoo!クラウドソーシングで実施するアンケートがベースとなる.実施の流れは,クラウドソーシングに UX 評価のアンケートを入稿するところから始まる. アンケートはサービスの使い勝手や,信頼性などを選択肢から選ぶ選択式の設問と, サービスの良い点や改善すべき点を自由にコメントする自由記述式の設問(図 1)の大きく2つある。 図 1 自由記述式の設問 アンケートは評価対象となるサービスを実際に利用しているユーザーにメールで配信される。 アンケート終了後, 品質評価部門において結果を集計し,考察とともにサービス担当者にフィードバックされる。なお,自由記述式の回答については,後述寸る「UXピラミッド」を用いて評価する. ## 1. 2 UX ピラミッドとは UX ピラミッドは 1940 年に提唱されたアブラハム・マズローの欲求階層説を基にアーロン・ウォルターがヒエラルキーを厳密に反映したユーザーニー ズのヒエラルキーについて説明したものである[2]. 図 $2 \mathbf{U X}$ ピラミッドと UX の定義 UX ピラミッドでは, より基本的なニーズ(機能性や使いやすさなど)が満たされた後にのみ,優れたニーズ(ピラミッドの最上部にある喜びや価値など)を達成できるとしている(図 2). ピラミッドのレベル 1 から 3 は, 目的のタスクを達成するユーザーの能力, レベル 4 から 6 では, サービスを使用する際のユーザーエクスペリエンスに焦点を当ており,一般的にユーザー体験のクオリティを測る方法として用いられている. 品質評価部門ではこのレベルをさらに 11 個の項目に細分化し,クラウドソーシングで収集したコメントと紐づけて傾向を分析. これにより, サービスの強みと課題を明らかにし, サービス品質向上のために役立てられている。 ## 1.3 現状の課題 UX 評価の運用において,品質評価部門では大きく以下 2 つ課題を抱えていた. 課題 1 : 人手でコメントを分類するのに多大な工数が掛かっている 課題 2 :自動化には自然言語処理に対する専門知識と高スペックな開発環境が必要 「課題 1 」に関しては,現状,品質評価部門が手作業でコメントを分類しているため 1 サービスにつき 2 日(約 16 時間)の作業工数が掛かっている. 「課題 2 」に関しては, 記載の通り, 品質評価部門に専門知識を有する技術者はおらず,分類を自動化するツールの開発は困難な状況であった。 そこで, 品質評価部門は, ヤフー社内でデータサイエンスの導入支援を担う我々のチームと連携し,解決策を検討していくことになった. 解決策の策定にあたり, あらかじめ両者で以下の要件を満たすことを条件とした。 要件 1 : 現状より分類に掛かる工数が減ること 要件 2 : 素人でも機械学習モデルの利用がしやすいライトな枠組みであること ## 2 提案手法 まず,我々が着目したのは,これまでのUX 評価の運用で既に「手作業で分類したデータ」が蓄積されていたこと. 我々はこれを学習データとしてコメント分類モデルの構築を試みた。 ## 2.1 学習データの特徴 クラウドソーシングで得られるコメントは「端的なコメントが多い」といった特徴があげられる. 例えば,Yahoo!ニュースの場合は以下のようなコメントが寄せられることが多い. 例)・見出しがわかりやすい ・ニュースの更新頻度が高くて良い ・ユーザーが投稿するコメントが楽しい 図 3 は各アプリマーケットとクラウドソーシングに投稿された Yahoo!ニュースアプリに対するレビユーコメントの中から直近の投稿 200 件を抽出し文字数の分布を可視化した結果である. コメントの平均文字数は App Store(Apple)は 54 文字, Google Play は 47 文字であるのに対し,クラウドソーシングは 20 文字と全体的に少ない傾向であった. なお, 集計するうえで「不真面目な回答」[3] は除外している. 図 3 レビューの文字数(Yahoo!ニュース) ## 2.2 fastText $の$ 利用 コメント分類モデル構築においては,「ライトな枠組み」という要件を鑑み,主に導入容易性の観点から自然言語処理ライブラリ「fastText」[4]を使用した. ## 2.3 コメント分類の流れ 今回は図 4 で示す 5 つのプロセスでコメント分類モデルを構築した。以下,順を追って説明する。 図 4 コメント分類モデルの構築の流れ ## (1) 手作業でのコメント分類 前述の通り,既に「手作業で分類したデータ」が手元にある状態であったが,内容を見るとかなり不均衡なデータであった(図 5). 特に「08. 継続利用」 や「11.ないと困る」に分類されるコメントが少なかった。これらを補うため, 品質評価部門とともに新たなコメントを作成し, 学習データに追加した. 最終的に 5, 426 件の「手作業で分類したデータ」が準備できた。 図 5 コメント分類ごとの分布 ## (2) 学習データの形式に置換 「手作業で分類したデータ」を fastText の学習デ一夕の形式に置換する。具体的には項目名を先頭に配置し「_label_」というプレフィックスを付与寸るのみであるため, 専門知識を持たない品質評価部門も容易に学習データを作成することができた。 ## (3) 素性抽出 形態素解析エンジン「 $\mathrm{MeCab} 」[5]$ を利用して, コメントから素性を抽出. 当初「動詞」「形容詞」「名詞」の 3 品詞の形態素のみを対象としていたが, 「使いやすい」で「使い」のみが,「○○できない」で 「○○」と「でき」のみが抽出されてしまうなど, ユーザーの感じ方が得られにくい状況となっていた。解決策として「接尾辞」も対象とし, 「使いやすい」「○○ できない」といったニュアンスを抜き出せるよう工夫した. ## (4) モデリングと評価 上述の通り,自然言語処理ライブラリ「fastText」 と手作業で分類した 5,426 件のデータを用いてコメント分類モデルを作成. データのうち 8 割 $(4,340$件)を学習に,2 割(1,086 件)を評価に利用した。今回はクロスバリデーションを実施せず,不均衡な学習データと同等の構成比率となる評価データを用意し, できるだけ全項目の分類を過不足なく精度評価できるよう考慮した。 図 6 Confusion matrix と各種指標値 モデルの評価には Confusion_matrix を用いて, 俯瞰的に分類項目ごとの精度を把握したうえで, accuracy や precision, recall といった機械学習モデルの一般的な評価指標値を確認した(図 6). Confusion matrix の縦と横の軸に付与された数字は項目番号を示し,「1」であれば「01.目的達成」 というように対応付けている。「縦 0 : 横 0 」, 「縦 1 : 横 1」というように,対角線上の数字が大きな值になる傾向であり,つまりは全体として概ね分類に成功している事がうかがえる. また,指標値を見ると,項目ごとに分類の得意不得意はあるものの, 全体的な accuracy, precision, recall の值はいずれも 0.7 程度と, ランダムに分類分けした場合の正解率 $1 / 12=0.08$ と照らせば,まずまずの分類精度を示しているといえる。 次に, 文書ベクトルを T-SNE で次元削減し散布図としてプロット。機械学習モデルが各項目を切り分けやすい状況かを可視化した(図 7). 図 $7 \mathrm{t}$-SNE での可視化 図 7 より, どの項目にも該当しない「除外」を含めた全 12 項目が概ね分離できていることから,クラウドソーシングで得られたテキスト群は, 機械学習モデルが分類しやすい傾向にあると考えられる。 ## (5) 本番データへの適用 今回のモデルは分類精度が 7 割程度であったことから, 改めて関係者間で「分類モデルの出力は完璧ではなく,あくまで予測値である」ことを共有. 予測が外れているものは担当者が手作業で修正するというハイブリットな運用となるが,分類モデルのアウトプットに分類結果とあわせて予測確率を出力す ることで, どの分類が誤っている可能性が高く, 重点的に目視でチェックしなければならないか,担当者が示唆を得られるように工夫した。 図 8 分類結果のアウトプット形式 ## 4 効果 構築した分類モデルの評価は良好であったため, それを UX 評価の運用へ導入. 品質評価部門の担当者の手作業による運用と,分類モデルを用いた運用を並走させ,導入効果を検証することとした。 効果検証は主に以下 2 つの観点で行われた。 検証 1 : 担当者の分類と本モデルの分類がどれだけ一致しているか 検証 2 : 本モデルを導入することでどれだけ作業工数を減らせるか ## 4.1 効果検証結果 効果検証の結果は表 1 の示す通りとなった. 表 1 モデル導入の効果検証結果 分類精度, 削減工数ともに良好であり, さらに定性評価では担当者より長所として以下の点が挙げられた。 モデルを品質評価部門が自ら運用できそう 「予測確率」を使うと分類の補正が捗る 「人手で補正したデータ」を使ってモデルを再学習することで精度向上も見込めるなお,一致率 $71 \%$ の内訳は「付録 $\mathrm{A}$ にに掲載する。 ## 4.2 費用対効果 今回のコメント分類モデルの開発に掛かった工数は約 20 時間である. 分類モデルを通じて 1 回あたりの作業工数を 11 時間削減できた事から, 単純計算で本モデルを 2 回稼働させれば,開発工数はペイできることになるため,コストパフォーマンスの観点で見ても優れた施策であると言える. 一方で,機械学習モデルを導入せずともクラウド ソーシングを使って分類した方が低コストかつ高精度に分類できるのではないかという疑問がわく。 そこで我々は,機械学習モデルで分類したコメントとまったく同じコメントをクラウドソーシングでワーカーに分類を依頼することとした(図9)。 コメント 1 件につき優良なワーカー 10 人に分類させ,多数決で正解を 1 つに決定する方針とした. ## 下記はコメントの分類表と「Yahoo!ニュース」の良い点に関するコメントです。 コメントを読んで、分類表のどの項目に一番当てはまるかを判定してくださり & \\ コメント |タイムリーなニュースを見る事が出来る 図 9 クラウドソーシングのコメント分類タスク結論から述べると,担当者の分類とクラウドソ ーシングの分類の一致率は $56 \%$ と, 機械学習モデルの分類よりも劣る結果となった(表 2). 表 2 担当者の分類との一致率 そもそも,この分類作業は UX の知見を有する担当者でも正確な分類は難しく, 今回のクラウドソー シングの作業結果を見ても,ワーカーの分類が分散し多数決が成立しないケースが散見された。 このような専門的な観点でのコメント分類はエキスパートの作業を機械学習モデルに学習させるアプローチをとった方が効果を得られやすいと言える。 ## 5 おわりに fastText は「学習が速い・精度が良い・導入がしやすい」といった特長があるが,今回の取り組みを通じて「関係者との意思疎通も高速化できる」という特長があると実感した。関係者への説明がしやすいことから,学習データ作成を分担する等の協力体制も築きやすく,推論や再学習方法の引継ぎも比較的容易であった. fastText は高精度な自然言語処理を安価かつスピーディーに業務に導入したいというケースに適した手段であると言えよう。 ## 参考文献 1. Yahoo!クラウドソーシング. https://crowdsourcing.yahoo.co.jp/ 2. Aarron Walter. Designing for Emotion. 2011. 3. 山﨑郁未, 伊藤理紗, 中村聡史, 小松孝徳. Webアンケートにおける不真面目回答予防システム実現に向けた自由記述配置の基礎検討, 情報処理学会研究報告ヒューマンコンピュータインタラクション(HCI), Vol.2021-HCI-195, No.34, pp.1-8, 2021. 4. fastText. https://fastText.cc/ 5. MeCab. Yet Another Part-of-Speech and Morphological Analyzer. https://taku910.github.io/mecab/ ## 付録 $\mathrm{A$. 効果検証の一致率の内訳} 本文「4.1 効果検証結果」で述べた「担当者の分類と本モデルの分類の一致率 : $71 \% 」 の$ 内訳は以下「表 3」の通りであった。全体的に「図 6」と同じ傾向であり,本番データにおいてもモデル開発時と同等の分類精度であった。 表 3 担当者の分類と本モデルの分類の一致率 & & & \\ ## 付録 B. 安価な施策 ## 付録 B. 1 Yahoo!クララウドソーシング クラウドソーシングとは「crowd=群衆」と 「sourcing=委託」からなる造語であり,インターネットを通じて企業が不特定多数の人々に仕事を依頼できるプラットフォームの事を言う. Yahoo!クラウドソーシングはアンケートや簡易なアノテーションなど誰でも実施可能な「マイクロタスク」に特化したサービスとなっており,ユーザー はタスクを実施することで, PayPay ポイントが獲得できる(図 10). 図 12 Yahoo!クララウドソーシングの概要 1 サンプル当たりの費用は 10 円ほどであり,例えば 1,000 人に対してアンケートを実施した際に掛かる費用は 1 万円となり「安価なリサーチツール」と言えるだろう。 ## 付録 B. 2 機械学習モデルの開発環境 $ \text { ヤフーには「AI プラットフォーム」と呼ばれる } \mathrm{AI} ・ $ 機械学習の開発環境がある。これは, Google Cloud Platform の AI Platform Notebooks のような, マネー ジド型の JupyterLab 環境であり,ヤフーの社員であれば誰でも簡単にブラウザから python のコーディングと実行が行える。一般的に, AI や機械学習モデルの開発には, サーバーのリソース管理,環境構築, サーバメンテナンス, データアクセスのための準備等に時間と手間がかかるが, AI プラットフォームは利用者がこれらを意識することなく, 本来注力するべき AI や機械学習モデルの精度向上やサービス改善業務に注力できる. GPU の利用も可能であるが,今回は GPU を利用せずに fastText の学習を完了. 学習は 1 分足らずで完了したことからも「安価な開発環境」で開発できたソリューションであると言えるだろう。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q7-5.pdf
# BERT を用いた孤独体験テキストからの孤独感推定 岩井律子 ${ }^{1}$ 熊田孝恒 ${ }^{1,2}$ ${ }^{1}$ 理化学研究所ガーディアンロボットプロジェクト ${ }^{2}$ 京都大学大学院情報学研究科 ritsuko.iwai@riken.jp kumada. takatsune.7w@kyoto-u. ac.jp ## 概要 本研究では,記憶された過去の体験等を想起し,記述したテキストには,書き手の孤独感が反映されると考え, BERT を用いてテキストから書き手の自己評価孤独感が推定できるか検討する. ウェブ調查を実施し, 2,947 名分(女性 $=1,507$ 名, $M_{\text {age }}=50.3$, $S D=16.1,20$ 歳 78 歳)の寂しさや孤独についての記述(孤独体験テキスト)を収集し,同時に書き手自身の自己評価孤独感を収集した。また, 孤独体験テキストについて, クラウドソーシングを通じて読み手が評価した他者評価孤独感も収集した. それぞれのデータ(孤独体験テキスト・自己評価孤独感・他者評価孤独感)についての解析や BERT の正解率,分類結果に基づく孤独感スコアについて報告する. ## 1 はじめに 孤独感は心理学研究において古くから重要なテー マの一つである. 孤独感とは, 孤立等によって社会的つながりに関する期待と現実の間に質的,または量的に乘離が認知され, またその認知された乘離に満足できないことにより生じるネガティブな情動と定義される(Cacioppo \& Patrick, 2008). 従って, 友人が多い(量的に満足している)が質的にはもつと満たされるべきだと認識し, それが満たされないことに孤独を感じる人もいるが,一方,友人は少ないが本人はその量と質に満足しており,孤独を感じない人もいる.このように孤独感は, 同じような状況でも, その個人が有する心理特性によって, その感じる程度は異なる。 心理特性は, 個人の中では比較的一貫しており,さまざまな行動や認知に反映される。心理学では, 自らの過去の体験を想起し, 記述する過程で個人の心理特性が反映されるという理論が提案されている.この理論では, 記憶された過去の体験等を想起し記述したテキストには,書き手の心理特性が反映されると考える.このことを検証するために,本研究では,孤独感を取り上げ,書き手の孤独体験に関わる記述から,書き手の自己評価孤独感が推定可能か検証する,具体的には,自らの孤独体験を記述したテキストから,BERT (Bidirectional Encoder Representations from Transformers; Delvin et al.,2019)を用いて孤独感が推定できるかを検証する。 また, 同じテキストに対して他者が評価した孤独感の BERT による推定も行う.BERT が,他者が評価するのと同じような文脈を学習しているのであれば,他者評価についても推定可能であると考えられる. そこで,孤独体験テキストと書き手の自己評価孤独感と,そのテキストを読んだ他者(クラウドワーカ一)による他者評価孤独感を収集し,検討を行う. ## 2 関連研究 孤独感に関わる自然言語処理に関連した先行研究は, 英語によるものではいくつか存在する. Guntuku et al. (2019)は, alone または loneliness の語を含むツイートを収集してその出現頻度によって群分けを行い,言語的特徴などの比較を行った。また, Kiritchenko et al. (2020)は, 1 人でいることのポジテイブな側面(solitude)とネガティブな側面(loneliness) とにツイートを区別し,言語に表れるその特徴の違いについて検討した. Andy et al. (2022)は, 年齢群・性別群ごとにツイートを分析し, 自己評価孤独感に基づいて群分けされた高孤独感群の特徴を検討した。 Liu et al. (2022)は, Facebookへの投稿について類似の分析を行った。これらはいずれも, Twitter・ Facebook などのソーシャルネットワークサービスの言語データを使用したものである.これらはに必ずしも自己評価孤独感が付与されておらず, 他者評価孤独感はいずれにも付与されていない。 孤独感に関わる自然言語処理に関する日本語の研究としては, Nakai et al. (2022)の食事体験に関する研究が唯一である. Nakai et al. は, クラウドソーシングを通じて食事体験に関するテキストと同時に自己評価孤独感スコアを収集し, 解析した。一方, 他者評価については, テストデータの BERT の自己評価 分類結果と比較するために, テストデータのみに対して書き手の孤独感評価を行っているが,他者評価に関する実験は行なっていない。 同じテキストに対して, 自己評価と他者評価を付与して解析する試みは宮内ら(2022)が行っている. クラウドソーシングを通じて募集した注釈者が,自身の過去の投稿に対して感情とその強度, また感情極性を付与している. 加えて, 別途募集した注釈者が同様の評価を行った. しかし, 孤独感に関する自己評価と他者評価と比較した研究は英語にも日本語にも存在しない。 ## 3 孤独体験テキストと評価の収集 ## 3.1 孤独体験テキストと自己評価の収集 2020 年 3 月に 2,947 名(女性 $=1,507$ 名, Mage $=50.3$, $S D=16.1,20$ 歳 78 歳)に対してウェブ調查 (クロスマーケティング社)を実施し,孤独体験に関するテキストと自己評価孤独感を収集した。 孤独体験テキスト以下のような教示をもとに,自らの孤独体験に関する自由記述を求めた。 『女なたが,この3ヶ月で「さみしさ」や「孤独」を最近感じたのはどんな状況ですか. いつ, 誰と, または一人で, 何をしているとき, どんなきっかけで感じましたか. また,そのときの心の状態はどうでしたか. できるだけ詳しく具体的にその時の状況や気持ち,心情などを記述してください.』 自己評価孤独感日頃の孤独感について日本語版 UCLA 孤独感尺度(第 3 版)(外田ら, 2012)の 20 項目について,「まれに,あるいは,なかった(1 日未満)」「いくらか (1 2 日)」「たまに, あるいは, ある程度の時間(3 4 日)」「ほとんど, あるいは, 全ての時間(5 7 日)」の 4 件法で回答した. 収集した孤独体験テキストの例として,「いつもさみしさがまとわりついて仕方がない。」「1 人で部屋にいて面白くもないテレビを見ているとき。」 「離れて住んでいる母の自律神経がおかしくなり,何を言っても話が通じなくなった時. 姉が面倒をみてくれていたが,姉の体調も心配だったし,なぜこういうことになるのかという憤りもあった. 」などがある,なお,「過去 3 か月で孤独感を実感したことはない.」という孤独体験を否定する回答や, 「特にないけど・・・強いて言えば仕事が早く終わつ ^{i}$ https://github.com/ku-nlp/jumanpp } ちやって一人で帰る時くらい。」という否定しながらも何かしらの体験が追記されている回答など,孤独体験であるかの判別が難しいものも含まれている.本研究の目的は記憶から想起され記述されたテキス卜に本人の孤独感が反映されるかを検証することであり, 孤独体験の内容に限定するものではない. そのため,記述内容によってデータを排除することは行わなかった。 ## 3.2 他者評価の収集 クラウドソーシング(Yahoo!クラウドソーシング社)を実施し, ウェブ調查で収集した各孤独体験テキストについて, クラウドワーカーが書き手の孤独感の評価を行った $(N=1,075) .1$ タスクは, 14 名分の孤独体験テキスト(一部のテキストは重複)から成り,1タスクあたり 5 名のクラウドワーカーが 4 件法で評価を行った. クラウドワーカーが孤独体験テキストを評価する際に提示された教示は以下のものである. 『以下の「孤独やさみしさを感じた経験」 についての文章を記述している人が, どの程度普段孤独感を感じているのか推定して, 4 つの選択肢(高い・どちらかといえば高い・どちらかといえば低い。低い)から最も適切だと思うものを選んでください.』 他者評価孤独感収集したクラウドワーカーの回答をテキストごとに合計し, 他者評価孤独感スコアとした. ## 4 孤独体験テキストの分析 ## 4. 1 孤独感評価の分析 自己評価孤独感と他者評価孤独感のピアソンの積率相関係数を計算したところ, $r=.23(\mathrm{p}<.001)$ であった。高い相関であるとは言い難いが,テキストからその書き手の自己評価孤独感をある程度は推定できると言える。この結果は,書き手に対する情報が各テキストのみに限定されていることを鑑みると,かなり高いと考えられる。 ## 4.2 孤独体験テキストの記述統計 孤独体験テキストを形態素解析器 JUMAN++i及び構文・格解析器 KNPiiを用いて分析した(表 1). ii https://github.com/ku-nlp/knp/ 表 1 孤独体験テキストの記述統計 ## 4. 3 孤独体験テキストの特徴 孤独体験テキストの単語頻度の特徴を検証すべく,自己評価孤独感スコアの平均值に基づき高孤独感群・低孤独感群に群分けし, 単語出現頻度の差分を計算し, 図示した (図 $1 \cdot 2$ ). 高孤独感群では, 日本語では省略されやすい「自分」「私」などの自己に関する表現が多く, 低孤独感群では,「子供」「友達」「夫」「仲間」など人間関係を示す表現が多い, 加えて, 「孤独だ」や「孤独感」は高孤独感群でより用いられており, 「寂しい」は低孤独感群でより用いられていた。このことから,高群と低群の間で記述に用いられる単語に違いがあることが確認できた。 図 1 高孤独感群のワードクラウド 図 2 低孤独感群のワードクラウド  ## 5 孤独感分類の実験 孤独体験テキストを用いて,BERTにより自己評価孤独感,他者評価孤独感それぞれの高低の 2 值分類を推定する評価実験を行う。 ## 5. 1 ラベル付与 自己評価孤独感,他者評価孤独感ともに,中央値以上を高,未満を低とラベル付けした(自己評価孤独感:中央値 48 ,他者評価孤独感:中央値 14) ## 5.2 実験設定 孤独体験テキストは,2,356 名分の訓練用デー タ,295 名分の検証用データ,296 名分のテストデ一夕に重複なしで分割して実験を行い,正解率によって比較を行う,表 2 に,各データの自己評価孤独感・他者評価孤独感の高低ラベルの分布を示す. 表 2 データ分割の内訳 } & 高 & 1,148 & 144 & 144 & 1,436 \\ 本実験では,Wikipediaを用いて事前訓練された日本語 BERTiiiを本タスク用にファインチューニングする.BERTの実装には,Transformersivを使用する. 最終 4 層の隠れ層からそれぞれ[CLS]トークンのベクトルを結合し,全結合層を最終層に追加してクラス分類を行う. 損失関数には負の対数尤度損失を使用し, 事前学習済みの箇所における学習率は 5e-5, 最後の全結合層における学習率は 1e-4 とした. 最適化は Adam として 20 エポックの earlydropping を適用する。 ## 5.3 実験結果と考察 ## 5.3. 1 正解率と混同行列 実験の正解率は自己評価孤独感が.56, 他者評価孤独感が. 72 であり, 他者評価孤独感のモデルの方が性能が高かった。 iv https://github.com/huggingface/transformers 図 3 自己評価推定実験結果の混同行列 図 4 他者評価推定実験結果の混同行列 正規化した混同行列(図 3-4)によると, 低群内の推定については, 自己評価孤独感, 他者評価孤独感の分類結果はそれぞれ.70,.82といずれも高い性能を示した。一方, 高群の推定については, 自己評価孤独感の分類結果は. 41 , 他者評価孤独感の正解率は. 59 と反転していた。つまり, 両方のモデル共に, 低群の孤独感はある程度の精度で推定できるものの,高群の孤独感を推定するのが困難であつた. 自己評価孤独感が高い書き手を高いと判断するのと,低い書き手を低いと判断するのは異なる特徴が用いられていることを示唆する. 特に, 孤独感の高い書き手を推定することを可能とする特徴を見つけるのは, BERTにも, 人間の評価者にも難しい課題であると考えられる。 ## 5.3.2 分類結果と孤独感スコアの比較 モデルの分類と, 実際の評価スコアがどの程度反映されているのか検討を行った。 まず, 各分類結果に基づく群ごとの自己評価孤独感のスコアを比較した(図 5).自己評価に基づく高群・低群の自己評価孤独感スコアの平均は, 当然のことながら明確に異なる。一方で, 他者評価群分けに基づく平均値を比較したところ, 高群の自己評価スコアの平均がやや高かった. しかし, 自己評価推定に基づく分類の場合は低群の平均値スコアの方が高い結果であった. 次に,各分類結果に基づく群ごとの他者評価孤独感のスコアを比較した(図6). 他者評価に基づく高群・低群の他者評価孤独感スコアの平均は, 図 5 分類結果と自己評価スコア 図 6 分類結果と他者評価スコア 当然のことながら明確に異なる。また,他者評価群分けに基づく平均值を比較したところ, 高群の他者評価スコアの平均が高かった。これらの結果は, BERT が孤独感を推定するのに十分な言語的な特徴を学習できていない可能性を示す. ## 6 おわりに 本研究では,記憶された過去の体験等を想起し,記述する際に書かれたテキストに,書き手の孤独感が反映されているのであれば,BERT による自己評価孤独感が推定可能だと考え検討を行った. 自己評価モデルの正解率と分類結果に基づく自己評価孤独感スコアの比較を詳細に検討したところ, 自己評価孤独感の推定は依然として困難であった。一方で,他者評価については, 正解率と分類結果に基づく他者評価孤独感スコアの結果ともに精度がよいことが示された. また, 本研究では, 日本語で自己評価・他者評価孤独感の両方を検討できる初めてデータセットを収集した. 今後は, 心理学的な観点からの詳細な分析を進める予定である. 本研究は, 心理学的な問題に BERT を利用した初めての研究である. 今後, 心理学分野への自然言語処理手法の適用が拡大していくことが期待される. ## 参考文献 Andy, A., Sherman, G., \& Guntuku, S. C. (2022). Understanding the expression of loneliness on Twitter across age groups and genders. PLOS ONE 17(9): e0273636. doi:10.1371/journal.pone. 0273636 Cacioppo, J. T., \& Patrick, W. (2008). Loneliness: Human Nature and the Need for Social Connection. W W Norton \& Co. Devlin, J., Chang, M., Lee, K. et al. (2019). BERT: Pretraining of deep bidirectional transformers for language understanding. In the Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1, pp. 4171-4186. doi: 10.18653/v1/N19-1423 Guntuku SC, Schneider R, Pelullo A, et al. (2019). Studying expressions of loneliness in individuals using twitter: an observational study. BMJ Open, 9:e030355. doi: 10.1136/bmjopen-2019-030355 Kiritchenko, S., Hipson, W., Coplan, R. et al. (2020). SOLO: A Corpus of Tweets for Examining the State of Being Alone. In the Proceedings of the Twelfth Language Resources and Evaluation Conference, pp. 1567-1577. Liu, T., Ungar, L.H., Curtis, B. et al. (2022). Head versus heart: social media reveals differential language of loneliness from depression. Npj Mental Health Research, 1, 16. doi: 10.1038/s44184-022-00014-7 多田ゆづり・田高悦子・臺桂. (2012). 高齢者における日本語版 UCLA 孤独感尺度(第 3 版)の開発とその信頼性・妥当性の検討. 日本地域看護学会誌, 15(1), 25-32. 宮内裕人・鈴木陽也・秋山和輝他. (2022). 主観と客観の感情極性分類のための日本語データセッ卜. 言語処理学会第 28 回年次大会発表論文集, pp. 1495-1499. Nakai, K., Iwai, R., \& Kumada, T. (2022). An examination of eating experiences in relation to psychological states, loneliness, and depression using BERT. In the Proceedings of the $36^{\text {th }}$ Annual Conference of the Japanese Society for Artificial Intelligence, 1S1-IS-3-05.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q7-6.pdf
# 新たな価値観ラベルの発見に対する支援方法の検討 福田悟志 ${ }^{1}$ 石田栄美 ${ }^{2}$ ${ }^{1}$ 中央大学理 工学部 ${ }^{2}$ 九州大学 データ駆動イノベーション推進本部 fukuda. satoshi.3238@kc. chuo-u. ac. jp ishita. emi.982@m. kyushu-u. ac. jp ## 概要 先行研究では,東日本大震災による原子力発電所の事故を取り上げている新聞社説の一文ずつに,事前に定義した価值観ラベルの付与を行った. 本研究では,ある特定のトピックに対する人々の価値観は時間の経過とともに変容していくと仮定し,新たな価値観ラベルの発見を支援するための方法を検討した. 具体的には, 先行研究で構築したデータセットを用いて分類器を構築し,ラベル付けされていない文集合に価値観ラベルを付与した。いずれのラベルも付与されなかった文集合に対して,Bertopic を用いてトピック分析を行った. そして, 先行研究でラベル付け対象とした年以降の社説集合に対して上記のアプローチを適用し, 獲得した分析結果が,新たな価値観ラベルの発見に有効かどうか検討した. ## 1 はじめに 特定の事象や政策に対する意見文に表孔ている人々の価値観を明らかにすることで,個々人が何を重要と考えているのか, または何を受容しているのか等を分析することができる。これらは, 世論の理解や政策決定に役立てることができる。本研究ではこれまでに, 東日本大震災による原子力発電所の事故に起因する議論を扱っている新聞社の社説を対象に,人々の価値観に関する内容分析を行ってきた [1][2]. 2011年 3 月 11 日に発生した東日本大震災は,福島第一原子力発電所を損傷させ, 現代における最も重大な原子力災害の一つとなった. 震災後, 原子力発電所の事故対応,政府や企業の対応,住民の対応, 原子力発電所の再稼働や廃炉, 原子力発電所の検査などについて,様々な議論が行われてきた。 そして, 議論の過程で明らかになったことや時代背景の変遷に伴って, 原子力発電に対する人々の価値観も変容していくと考えられる. そのため, ある時点において普遍的なものとして価値観を定義しても,時間が経過するにつれて新たな分析対象となる価値観が生まれている可能性が有る. 本研究では, このような新たな価値観ラベルの発見を支援するためのアプローチを提案し, 先行研究で構築した価値観デ ータを用いた実験により,その有用性を調查する。 ## 2 価值観ラベルデータセットの構築 先行研究では, まず, 2011 年から 2016 年の毎日新聞の CD-ROM[3]に収録されている社説記事から 「原発 OR 原子力」というクエリで検索を行い,2 人のコーダーにより,原子力発電を中心とした議論かどうかの判定を行った[1]. クエリ検索で得た 750 件のうち, 411 件が正例, 339 件が負例と判定された. その後, 正例の社説からランダムに 190 件を選択し, 2 人のコーダーにより, 社説の各文に対して,価値観を持つ文か,事実文かを判定した。さらに,価値観を持つ文の場合は,以下の価値観ラベルの中からラベルを付与した[2]. Consequence 将来の展望 (成果, 目的, 目標など) やマクロ・長期的な視点など,結果に基づく判断や評価に基づく価値観. Intention 印象, 態度, 共感, 誠意など感情や気持ちに関する価値観. Social Order ルール, 規範, 常識, 期待, 社会的責任など社会構造に関する価値観,政府や国家が関与する制度,法律,政治的判断. Safety 安全・安心の価伹観, 危険 - 怪我・脅威・恐怖から解放された状態,事故や危険を防止するための対策. Wealth 事業活動を含む金銭, 物質的所有物, 資源,利益など,あらゆる経済的目標を追求することに対する価値観. Human Welfare 人類に共通する利益や社会全体に関わる利益を実現するための価値観,公共に対する明確な利益. 上記は,人の価値観は「人々が人生において何を重要視しているかという指針」という定義[4]に基づき,危機的な状況下で人々が重視すると考えられる 4 つの広範な要素に基づいて, 8 つの人間の価値を定義することから始めた. まず,「結果」と「感情・気持ち・誠実さ」のどちらを重視するかという「責任」に関わる問題である. 2 つ目は「秩序」である. 3つ目は「安全」と「豊かさ」のどちらを重視するかという「利益」,4つ目は「福祉」である。これらの価値観ラベルを持っている文を正例とした場合に,価値観文データセットにおける文の数を表 1 に示す. ## 3 新たな価值観ラベルの発見支援 特定のトピックに対する新たな価値観は,時間の経過とともに生まれてくると仮定した。本研究においては,先行研究で価値観ラベルの付与を行っていない 2017 年以降の社説内に,新たな価値観ラベルが潜んでいる可能性が有ると想定した。一方で, これらの社説においても, 2 節で述べた価值観ラベルを持つ文も多く含まれているといえる。また,新しい価値観ラベルを持つと考えられる文集合が数多くある場合,それらを一文ずつ確認していくことはコストがかかる。これに対して, 特定の指標に基づいた文間の関係性に基づいてグループ化された結果を提示することは,その集合に新たな価値観ラベルが存在する可能性もあり, 新たなラベルの発見のための作業の支援につながると考えられる。 本研究では, 新たな価値観ラベルを効率的に発見するためのアプローチとして, 2 節で述べた価値観文データセットを用いて, 新しい価値観ラベルを持つ可能性の有る文の自動的な抽出, および抽出した文集合に対する自動的なグループ化を行う. 以下で詳細を述べる. ## 3.1 分析手順 分析手順は,以下のようになる。1) 価値観ラベルの付与が行われていない社説に対して, 2 節で述べたクエリを用いて, 原発・原子力発電に関する記事を収集する. 2) 2 節で述べた 750 件のラベル付き記事集合を用いて構築した分類器により, 原子力発電を中心に議論が展開されている記事かどうかを判定する.3)表 1 で示した価値観文データセットを用いて構築したラベルごとの分類器を用いて, 正例と判定された社説の各文に対して, 各価値観ラベルを持っているかどうかの判定を行う.4) いずれのラベルも持たないと判定された文集合に対してトピック分表 1 価値観文データセット 析を行い,その分析結果を出力する。 ## 3.2 分類モデル 3.1 節の 2)と 3)で用いた分類器の構築について述べる. 分類モデルには, fasttext[5]を用いた. エポック数は 100 とし, 形態素解析には MeCabを用いた. 4)で用いるデータは, 分類器が付与したデータを用いるため, ここで, 10 分割交差検定による各分類器の基本的な性能を表 2 に示す. なお,各価値観ラベルの判定では, 2 值分類による判定のため, 1 つの文に対して複数の価値観に分類される場合がある. ## 3.3 トピック分析 3.1 節で述べた 4)のトピック分析には Bertopic[6] ${ }^{1}$ を用い,クラスタリングモデルには HDBSCAN[7]を用いた。なお,外れ値として割り当てられた文は,分析から除外した。 また, c-tfidf により,各トピックを表す上位 10 件の名詞または名詞句を抽出した。 ## 4 実験 ## 4. 1 実験方法 3 節で述べたアプローチの有用性を調查するために, 2 種類の実験を行った. まず,表 1 の各価値観文データセットにおいて, 1 種の価值観ラベルのみが付与された文集合を用いて,各ラベルがどのように分類されるのかを分析し, その分類傾向と新しいラベルの発見にどのように影響するのかを調査した。実験に用いた文は合計で 1,659 文であり, Consequence, Intention, Social Order, Safety, Wealth, Human Welfare が付与された文の数はそれぞれ 260 文, 57 文, 936 文, 274 文, 78 文, 54 文であった. ^{1}$ https://maartengr.github.io/BERTopic/api/bertopic.html } 表 2 分類性能 次に, 2017 年から 2020 年における毎日新聞の社説記事[8]老対象に, 実際に 3.3 節で述べた手順に従って, いずれの価値観ラベルにも分類されなかった文集合のトピック分析を行い,その結果を調べた。分類対象となった社説記事の数は 143 件であり, 表 2 で示した社説記事の分類器により, 74 件が正解と判定された. また, それらの社説における 1,937 文に対して分類を行い,203 文がいずれの価値観ラべルにも分類されなかった. ## 4. 2 実験結果 まず,価値観ラベルが付与された 1,659 件の文集合に対するトピック分析の結果を調べた. Bertopic によるトピック分類では, 30 種類のトピックが生成された. 各トピックの分布を 2 次元平面上にマッピングすると, 図 1 のように, 5 種類の領域に分類されていることが分かる 2 . そこで, 30 種類のトピックを図 1 に従って 5 種類のカテゴリに統合した. 各力テゴリに属するトピック, c-tfidf による各カテゴリを表す名詞または名詞句,各価値観ラベルを持つ文数を表 3 に示す。 表 3 において,カテゴリ 1 では,原発における日本のエネルギー政策に関する話題が中心となっており, 最も多くの文が分類されていた. カテゴリ 2 では, 原発における污染水や放射性物質に関する話題が中心となっており, カテゴリ 3 では, 原発に対する政府対応に関する話題が見られた. また, カテゴリ 4 では震災による原発事故の話題が現れており, カテゴリ 5 では,原発に関する規制や検証に関する話題が見られた。 ^{2}$ Bertopic の機能の一つである visualize_topics()を用いて描画した。 } 図 1 特定の価値観ラベルのみを持つ文集合に対するトピック分析結果 価値観ラベルに基づいて各カテゴリを調べると, カテゴリ 2 は, Safety が付与されている文を中心に構成されていた。カテゴリ 3 では, Social order および Human Welfare を持つ文が多く出現しており,このカテゴリにおけるすべての Human Welfare の文は, トピック 13 に出現していた.これらのことから,一部のカテゴリまたはトピックは,特定の価値観ラベルと関連していることが分かる.しかし全体的には,各ラベルはカテゴリを横断して出現しており, 必ずしもラベルに基づいてトピックが生成されるとは限らないといえる. 次に, 分類器により, いずれの価値観ラベルも付与されなかった 203 件の文集合に対する分析結果を調べた. 各トピックの分布を 2 次元平面上にマッピングしたときの結果を図 2 に示す. 図 2 において,生成されたトピックは 4 種類であり,各トピックは独立している傾向にあると考えられる. また, c-tfidf による各トピックを表す名詞または名詞句および各トピックの文数を表 4 に示す. 表 4 と表 3 を比較したとき, 表 4 における原発の運転差し止めに関する話題を表しているトピック 2 や, 町や地域における震災後の策定に関する話題を示しているトピック 3 ,太陽光発電を含むエネルギー計画に関する話題を表しているトピック 4 は, 表 3 のいずれのカテゴリと独立したものである.このように,いずれの価値観も付与されなかった文に対してトピック分析を実行 表 3 各カテゴリに属するトピック, 各カテゴリを表す名詞(名詞句), 各価値筧ラベルを持つ文数. A は Consequence, B は Intention, C は Social order, D は Safety, E は Wealth, F は Human Welfare を表す. カッコ内の数値は,特定の価値観ラベルを持つ文の総数に対する割合を示す. & $0,1,3,5,29$ & & & & & & & \\ 図 2 いずれの価値観ラベルに分類されなかった文集合に対するトピック分析結果 することで,何らかのグループ化が行われ,また, そのトピックを表す語を確認することができる.新しい価値観ラベルを発見したい場合には,これらの語を参考にできる可能性がある.今後は,具体的にどのような価値観ラベルが各トピックに表れているのかを調査していく。表 4 各トピックを表す名詞または名詞句および各トピックに分類された文数 & & 73 \\ ## 5 おわりに 本研究では,新たな価値観ラベルの発見支援のための方法を検討した.Bertopic を用いた分析において,特定の価値観ラベルと一部のトピックに関連性があることが確認された.今後は,分析結果に基づいて,より効率的に新しい価値観ラベルを発見するための提示方法を検討するとともに,実際に内容分析を行う社会科学者の意見も反映する。 ## 謝辞 本研究は JSPS 科研費 JP18H03495 の助成を受けたものである. ## 参考文献 1. CD-毎日新聞データ集 2011 年版, 2012 年版, 2013 年版, 2014 年版, 2015 年版, 2016 年版. 2. Ishita, E., Fukuda, S., Oga, T., Oard, D.W., Fleischmann, K.R., Tomiura, Y., and Cheng, A-S.: Toward Three-stage Automation of Annotation for Human Values. Proc. of iConference, pp. 188-199 2019. 3. Ishita, E., Fukuda, S., Oga, T., Tomiura, Y., Oard, D.W., and Fleischmann, K.R.: Cost-Effective Learning for Classifying Human Values. Proc. of iConference, 2020. 4. Cheng, A.-S., Fleischmann, K.R., Wang, P., Ishita, E., and Oard, D.W.: The Role of Innovation and Wealth in the Net Neutrality Debate: A Content Analysis of Human Values in Congressional and FCC Hearings. Journal of the American society for information science and technology, pp. 1360-1373, 2012. 5. Mikolov, T., Grave, E., Bojanowski, P., Puhrsch, C., and Joulin, A.: Advances in Pre-training Distributed Word Representations. arXiv preprint arXiv:1712.09405, 2017. 6. Grootendorst, M.: BERTopic: Neural Topic Modeling with a Class-based TF-IDF Procedure. arXiv preprint arXiv:2203.05794, 2022. 7. McInnes, L. and Healy, J.: Accelerated Hierarchical Density based Clustering. Proc. of ICDMW, pp. 3342, 2017. 8. CD-毎日新聞データ集 2017 年版, 2018 年版, 2019 年版, 2020 年版.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q7-7.pdf
# 不完全情報ゲーム Codenames におけるプレイヤ一間の親密度 とゲームへの習熟度がゲームパフォーマンスに与える影響の 分析 早苗 昭尚 ${ }^{1}$ 加藤 勇護 ${ }^{2}$ 坪倉 和哉 1 小林 邦和 ${ }^{2}$ 1 愛知県立大学大学院 情報科学研究科 2 愛知県立大学 情報科学部 \{im222009, is211021,im212008\}@cis.aichi-pu.ac.jp kobayashi@ist.aichi-pu.ac.jp ## 概要 Codenames とは相手から与えられたヒントをもとに意図を推測し単語が書かれた 25 枚のカードから正解のカードを探し出す不完全情報ゲームの一つである. Codenames ではルール上, 1 つの単語を用いて複数のカードを取らせる必要がある. そのため, Codenames の分析は人間が与えられた条件下でどのように意図を伝えるかの分析と言うことができ,ゲーム AI の実装だけでなく人間の思考のモデル化にも役に立つと考えられる. そこで, 本研究ではプレイヤー間の親密度とゲームへの習熟度に着目し勝率との関係を分析した. その結果, 親密度が高いほど勝率が上がることが示唆された。また,プレイヤーのゲームに対する習熟度による影響は親密度よりもさらに勝率に大きな影響を与えることを確認した. ## 1 はじめに 人工知能技術の発展により, 将棋や囲基といった完全情報ゲームでは,すでに人間のチャンピオンに勝利するほどの能力を獲得している.そこで,より高度な知能を獲得することを目指し, 完全情報ゲー ムより複雑かつ解決が困難なタスクである不完全情報ゲームを対象とした研究が進められている. 不完全情報ゲームの 1 つである不完全情報コミュニケーションゲームは, 他のプレイヤーとコミュニケーションを取りながら進めるゲームであり,例えば人狼ゲームを対象とした研究が進められている [1]. 不完全情報コミュニケーションゲームの中でも, Codenames は自然言語理解に焦点を当てたゲー ムであり, 場は単語が書かれた 25 枚のカードから構成される. 各カードにはそれぞれ色が割り当てられている.プレイヤーはスパイマスターと諜報員に分かれ,スパイマスターのみがカードの色の割り当てを確認できる、スパイマスターは諜報員に自チー ムの色のカードを選択してもらえるようにヒントを与え,諜報員はヒントをもとに単語が書かれたカードを選択するため,ヒントを通してスパイマスターと諜報員が意図を伝達/推測する設計のゲームとなっている. 2019 年には Codenames の AI の実装を目的とした「Codenames AI Competition」が開催されており,関連した研究が行われている $[2,3]$. 文献 [2] では, word2vec [4] や GloVe[5], 文献 [3] では, GPT-2[6] を用いた実装を提案しているが,実装において人間のゲームログは活用されていない,坪倉らは,日本語を対象とした Codenames の研究の第一歩としてゲー ムログの収集を行いヒント行為を「汎化」や「言い換え」などに分類した [7] が, ヒント行為の分類を行ったのみでゲームのパフォーマンスや人間の特性といったことについての研究は行われていない. しかし, Codenamesでは単語によって与えられるヒントから別の単語を推測するというゲームの性質上, パフォーマンスがプレイヤーの前提知識に影響を受けると考えられる。 そこで,本研究ではプレイヤー 間の親密度とゲームへの習熟度に着目し, ヒントの出し手とヒントから推測する人の関係が親密であるほど前提知識の共有部分が多くなるためにゲームのパフォーマンスが向上する,ゲームに習熟しているプレイヤーほど効果的な行動を学ぶためにゲームのパフォーマンスが向上するという仮説のもと,ゲー ムログの収集およびパフォーマンスとの関係の分析を行った。 ## 2 Codenames 本章では, Codenamesのルールについて説明する. Codenames では,スパイマスター 1 人と諜報員 1 人以上からなる 2 チームに分かれて行うものと, 2 人で交互にヒントを出し合いカードを取っていくものがある. 本研究ではプレイヤー間の関係性を見るため 2 人で行うルールを用いた。場には 25 枚の単語が書かれたカードがあり,それらのカードにはそれぞれのプレイヤーで異なる配色で取らせるべきカー ド (緑色), 暗殺者カード(黒)どちらでもないカー ド(灰色)が割り当てられている. 2 人で交互にヒントを出し合い計 9 つのヒントで緑色のカードを全て取得できたらプレイヤー側の勝利となる. 暗殺者のカードを取らせてしまった場合や 9 つのヒントの後に緑色以外のカードを取った場合にはプレイヤー 側の負けとなる. 2 人のプレイヤーにはそれぞれ異なる色が見えているが,緑色のカードのうち 3 つは共有しているため取らなければならないカードは 15 枚となる. また, 自分側の暗殺者のカード 3 枚のうち一枚は必ず相手側から見た緑色のカードとなっている.(図 1, 図 2). プレイヤーが提示するヒントは正解の単語を連想させ, ヒントとカードの単語が意味的に関係する一語の単語(品詞は問わない)である必要がある.ただし, 連想が容易なヒントを出させないためにいくつかルールが設けられている.例えば,場にある単語や言語を変えただけの単語 (例 : 猫 $\rightarrow$ cat), 場にある単語を含む単語はヒントとして使用不可である.なお,すでに取られた単語はヒントとして使用可能である. また, プレイヤーはヒントのほかに相手プレイヤーに取ってほしいカードの枚数を指定できる.ヒントを出されたプレイヤーはカードを取るがこの際に指定した枚数よりも多く取ることが可能である.これは前のヒントをとり逃した場合に役に立つ. ヒントを出されたプレイヤーは相手のヒントを元に, 正解だと思うカードを選ぶ. 選んだカードが緑色のカードであった場合, さらにもう一枚とるか否か選ぶことができる. 選んだカードが灰色のカー ドであった場合, 相手にターンを渡す。選んだカー ドが暗殺者のカードの場合, 選んだチームはその時点で負けとなるため, 暗殺者のカードを選ぶことは絶対に避けなければならない,プレイヤーは9つまでしかヒントを出すことができないために 15 枚の カードを取るためには,一つのヒントでなるべく多くのカードを連想させるヒントを出すことが重要である. 以上のようにヒントを出すプレイヤーは単語の意味や関係性などからカードの推測に効果的なヒントを提示し,ヒントを受けたプレイヤーはヒントとなる単語からカードを推測する必要がある。そのため, Codenames は高度な自然言語理解を必要とするボードゲームであり,ゲーム AI の実装は挑戦的な自然言語処理タスクと言える. ## 3 Codenames のデータ収集 Codenames の分析を行うため,ゲームのログを収集した。ゲームはオンラインで Codenames をプレイすることが可能な「CODENAMES ONLINE $\rfloor^{1)}$ で行い, 本学の大学生と大学院生 9 名が参加し, 一つの組み合わせごとに 3 ゲームずつ行い合計 16 通りの組み合わせで 48 ゲーム分のログを取得した. また, プレイヤー間の親密度については「1: 知らない, 5 : 仲が良い」として 1 から 5 の 5 段階で各プレイヤーが相手に対する親密度を主観で評価した。 ゲームごとのログは以下のデータから構成される。 ・経過ターン数 ・与えたヒント - 指定枚数 ・場に残っているカード ・そのターンで取った緑色のカード ・取ったカード また, ゲームごとのデータの他にも組み合わせごとのログについて以下のデータを取得した. - 人名 1 - 人名 2 - game1 の勝敗 - game2 の勝敗 - game3 の勝敗 ・勝利数 ・敗北数 - game1 の合計ターン数 - game2 の合計ターン数 - game3 の合計ターン数 ・1 から 2 への親密度 ・2 から 1 への親密度 1) https://codenames.game/ 図 1 プレイヤー 1 のゲーム画面 図 3 プレイヤーの親密度と勝利数 なお,ヒントを 9 つ出した後サドンデスというヒントなしで緑色のカードをとり続けるモードとなるがこの場合にはターン数に 101 と記録し,このデー タの他に備考欄に暗殺者のカードを取ったことなどの情報が記載されている。また,それぞれのゲームの実施日も記録されている. ## 4 ログの分析 ## 4.1 親密度と勝率の相関分析 この節では収集したログを用いて関係性が親密であるほどゲームのパフォーマンスが向上するという仮説を検証する. 相手との親密度は客観的な厳密な定義が難しく知り合ってからの時間だけでも会う頻度だけでも十分とは言えない. そのため, 本研究では相手との関係性を 5 段階の主観で評価してもらい双方向からの親密度の平均を両者間の親密度の值として用いることとした。 図 3 に親密度と 3 ゲーム中の勝利回数をプロットしたものを示す.この図より, 勝利した組み合わせは親密度 2.5 以上のものしかなかったため相関があるように見えるが,相関係数としては 0.21 とごく弱い正の相関であった。この結果は親密度と勝率の間には明確な関係性はないことを示唆している。この 図 2 プレイヤー 2 のゲーム画面 ような結果が得られた原因の 1 つとして両者間の親密度の認識の違いがあるのではないかと考えた。そこで,双方の親密度の絶対差を用いた親密度差と勝利数,親密度の値を各組み合わせにおいて低く答えたプレイヤーの親密度を用いた低親密度,高く答えたプレイヤーの親密度を用いた高親密度とした際の勝利数の相関関係を分析した。 この分析の結果得られた相関係数を表 1 に示す. また,高親密度と勝利数を散布図としてプロットしたものを図 4 に示す.この結果より親密度差を用いた場合と高親密度を用いた場合に相関係数が増加することが確認できる。 親密度差について大きいほど勝利数が大きくなるという結果であるが,これは親密度差について值が $0,1,2$ の 3 つであるのに対してデータ数が $5,10,1$ と偏っていることに原因があると考えられる.低親密度および高親密度を用いた分析においては,低親密度を用いた分析がほぼ無相関であったのに対して,高親密度を用いた分析において弱い正の相関を示したことからどちらか一方が親密だと判断できるような関係性であることが勝率に関係する可能性が示唆されたが,関係性が親密なほど勝率が高くなるという仮説を肯定するほどの強い相関を得ることはできなかった。 これは個人の認知能力や語彙,ゲームへの習熟度など様々な要因が関係しているからであると考えられる. 表 1 親密度の違いと勝利数との相関係数 図 4 高親密度と勝利数 ## 4.2 プレイ回数と勝率の相関分析 この節ではゲームに対する習熟度が勝率に影響をおよぼすのではないかという仮説のについて分析を行う。 本研究におけるデータ収集では全員が Codenames 経験者ではあったが,ルール確認のため数回行う程度であった. そのため, 時系列的にそのプレイヤー において何回目に実施したゲームであったのかがプレイの習熟度に関係し勝率に影響を与えるのではないかと仮定し, プレイ回数と勝利数についての分析を行う。 プレイ回数について,データを取得した日時を用いてそのゲームがプレイヤーにとって何回目のゲー ムであったのかを記録した. 2 人 1 組で行う関係上, 2 人で異なるプレイ回数となるためそのゲームにおけるプレイ回数を 2 人の平均, プレイ回数の絶対差, 低頻度, 高頻度の 4 通りで分析を行った. ここで, 本研究ではプレイ回数が多い方を高頻度, 少ない方を低頻度と表記する。 3 通りのプレイ回数を用いた勝利数との相関係数を表 2 に示す. また, 最も強い相関が得られた低頻度をプレイ回数として用いた際の勝利数との散布図を図 5 に示す.この結果より, プレイ回数による習熟は関係性によるパフォーマンスの向上よりも影響が大きいという結果が得られた. また, プレイ回数について低頻度のプレイヤーのプレイ回数が相関係数 0.54 とこれまでの分析で最も大きい正の相関を示すことがわかった。これは Codenames が二人の認識を共有し協力しなければいけないタスクであるために,一方のみの習熟ではゲーム自体の勝率にあまり影響を与えなかったのではないかと考える.表 2 プレイ回数と勝利数との相関係数 図 5 低頻度のプレイ回数と勝利数 ## 5 おわりに 本研究では,不完全情報ゲームである Codenames におけるプレイヤーの親密度に着目しゲームログの収集および勝率の関係の分析とその考察を行った。 データ収集においてはプレイヤー9 名の 16 通りの組み合わせ 48 ゲーム分のデータを収集し, 親密度の分析ではより親密度を高く答えたプレイヤーのデータを用いた際に勝率と弱い正の相関が得られた.しかし,仮説を肯定するほどの強い相関ではなかった。さらに,勝率に影響を与える他の要因の一つとしてプレイ回数についての分析も行った。その結果, 低頻度のプレイヤーのプレイ回数と勝率の間には比較的強い正の相関があり親密度よりも大きな影響があることを示した。今後は, Codenamesのゲームログを追加収集するとともに,他の要因についても分析を進めていき将来的には AIによる実装を行う予定である. ## 参考文献 [1] 片上大輔, 鳥海不二夫, 大澤博隆, 稲葉通将, 篠田孝祐, 松原仁. 人狼知能プロジェクト. 人工知能学会誌, Vol. 30, No. 1, pp. 65-73, 2015. [2] Kim, A., Ruzmaykin, M., Truong, A., and Summerville, A. Cooperation and code-names: Understanding natural language processing via codenames. AAAI Conference on Artificial Intelligence and Interactive Digital Entertainment, Vol.15, No.1, pp. 160-166, 2019 [3] Jaramillo, C., Charity, M., Canaan, R., and Togelius, J.Word Autobots: Usingtransformers for word association in the game codenames. AAAIConference on Artificial In- telligence and Interactive Digital Entertainment, Vol. 16, No. 1, pp. 231-237, 2020. [4] Mikolov, T., Chen, K., Corrado, G., and Dean, J. Efficientestimation of word representations in vector space. arXiv preprintarXiv:1301.3781, 2013 [5] J.Pennington, R. Socher, and C. D. Manning. Glove: Global vectors for word representation. In EMNLP2014. pp. 1532-1543, 2014 [6] Radford, A., Wu, J., Child, R., Luan, D., Amodei, D., and Sutskever, I. Language models are unsupervised multitasklearners.OpenAI Blog1(8):9, 2019 [7] 坪倉和哉, 久保谷空史, 早苗昭尚, 大橋玲音, 小林邦和, Codenames のゲーム AI 実装に向けたヒント行為の分類, 人工知能学会全国大会論文集, JSAI2022, 第 36 回, 2022
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q7-8.pdf
# 医療文書における数値表現のトークン化による ICD コード予測 と医療タスクへの応用検証 福本拓也 ${ }^{1}$ 五十嵐正尚 ${ }^{2}$ 奥村貴史 ${ }^{3}$ 村松俊平 ${ }^{1}$ 坂根亜美 ${ }^{1}$ 堀口裕正 ${ }^{3}$ 狩野芳伸 ${ }^{1}$ 1 静岡大学 2 国立病院機構 3 北見工業大学 ${ }^{1}\{$ tfukumoto,smuramatsu,asakane,kano\}@kanolab.net ${ }^{2}\{$ igarashi.masanao.th,horiguchi.hiromasa.nz $\} @$ mail.hosp.go.jp ${ }^{3}$ taka@wide.ad.jp ## 概要 国立病院機構が構築する大規模匿名化電子カルテデータ NCDAを用いて,自由記述テキスト部から主診断 ICD-10 コードを予測するシステムを構築した.予測には Wikipedia と医療テキストとでそれぞれ事前学習された BERT モデルを fine-tuning して比較した. 電子カルテには既存の言語モデルで扱いづらい数值を用いたテキスト表現が多く含まれている. それらの表現を特殊トークンとしてまとめて扱う手法を提案し,予測性能の向上を確認した. このICD-10 コード予測で学習されたモデルを別の医療タスクに応用し, ICD-10コード予測による学習が医療言語処理全般に性能を向上させ得るか調査した. ## 1 はじめに 近年,多くの医療現場で診療記録が電子化されており,情報の集積や管理のし易い環境が整備されている.カルテに記載された病名には ICD-10[1] の分類コードが付与されるが,コーディングと呼ばれる付与作業は診療情報管理士が人手で行っている. ICD-10コードとは,「疾病及び関連保健問題の国際統計分類」というWHO によって定められた国際的に用いられる病名コードのことであり(本研究では常に ICD-10を対象とし, 以下 ICDコードと記述する),階層的に分類された病名が記載されている. ICD コードは先頭のアルファベットに何杕かの数字が続き,桁で分類階層を表す記法になっているが, ICD コードは病名と 1 対 1 に対応するわけではない.こうしたICDコードの付与作業は, 高度な専門性が必要なうえ曖昧性のある,難易度の高い作業である. 基本的にすべてのカルテにコードが付されているため,ICDコードをラベルとみなせば潜在的に膨大な学習データが利用できる. ICD ではコードが近い疾病は疾病の性質も近くなるように定義されており, 少ない桁数に疾病の特徵が圧縮されている.ICDコードの上位桁予測を言語モデルによって解くことができれば,その言語モデルは疾病の特徵を取り込んだモデルになり,医療テキスト処理全般の性能向上が期待できる. そこで本研究では,まず異なる事前学習済み BERT モデル [2] fine-tuning して複数の手法で ICD コード分類を行い,ICD コードの予測性能を比較し分析した。電子カルテの自由記載テキストには,日付や時刻, 検査数値など数値表現が数多く出現する.しかし, 既存の言語処理モデルは数値表現に弱い. 特に医療文書に出てくる検查数値は, 医師であれば専門知識によって解釈し適切な診断を下しているが,性別や年齢,身長,体重などの文脈によって数値の示す意味が変わってしまい言語処理タスクとしては難易度が高い. 医師がカルテを記載する際には検査結果を具体的な症状などの言葉に変換していることが期待できるため,電子カルテテキストにある数值を特殊トークンに置き換えることで, ICD コード予測の精度が上がるのではないかと考えた. この特殊トークン置換を 3 パターン用意し, ICD コード推測の性能比較に用いた。 さらに,ICDコード予測の fine-tuning によって追加的に学習されたモデルを用いて,別の医療タスクに応用し,ICDコード予測による学習が医療言語モデルに与える影響を調査した。 ## 2 関連研究 これまでに,ICDコードを予測する取り組みはいくつか行われてきている. 日本語カルテを対象としたものでは,2016 年に開催された NTCIR-12 の MedNLPDoc Task[3] がある. 552 種類の ICD コードを付与した 200 件の模擬カルテを,訓練データとテ ストデータに分割したうえでテストデータのコードを推測させるものであった.MedNLPDoc では機械学習を用いたチームを抑え,ルールベースを用いたチームが最高性能を達成した [4]. 英語カルテでの取り組みでは,Bagheri ら [5] が HA-GRU[6] を用いたICDコードの 1 标予測と 3 桁予測に取り組んでおり,1 桴予測について Accuracy で 72.5, F1 スコアで 43.5, 3 桁予測については Accuracy で 23.7 の最高性能を達成,F1 スコアで 19.8 を報告している. 特定の種類の疾病に限定した ICD コー ド予測として, Sammani ら [7] が BiGRU[8]を用いて, 出現頻度上位 10 種類の 3 标分類に限定し予測を行った。その結果,F1 スコアで76-99を達成し,上位 10 種類のさらに小分類にあたる 4 析分類 16 種でも,F1 スコア87-98を達成した。 数値表現のトークン化に関して,Loukas ら [9] は,上場企業の定期報告書に対する固有表現抽出タスクにおいて,数値表現を単一のトークンに置き換えることで BERT モデルの性能向上を達成している. 数值をくNUM>トークンに置き換える手法と,1,234.5 のような数値表現を X,XXX.Xに置き換える手法の 2 種類を試しており,後者がより高い性能を示した。 ## 3 提案手法 本研究では,いくつかの異なる事前学習を行った BERT モデルを用いて,電子カルテテキストから ICD コードを予測する多クラス分類を行う.具体的には,ICDコードの先頭のアルファベットを予測する 1 析分類と, 先頭のアルファベットとそれに続く数字 2 桁を予測する 3 桁分類の二種類を行う. ICD-10 の分類詳細は付録の表 4 を参照されたい. 電子カルテでは主診断と副診断それぞれに ICD コードが割り振られているが,今回は主診断のみを分類する. システムの概要を図 2 に示す. ## 3.1 数値表現のトークン化 電子カルテのテキストには数値に関する表現が大きく3つある.1つ目はカルテを記載するときや過去の診察について記載するときに現れる日付表現, 2 つ目は検査時刻や経過時間などを表す時間表現,3 つ目は検査数値である. 前処理として,正規表現を用いて日付表現を<DATE>, 時間表現をくTIME>トー クンに変換し, その後残りの数値表現を全て<NUM> トークンに変換する。123.45 のような数值は整数部と小数部をまとめて 1 トークンとする. 変換された テキストの例を図 1 に示す. 図 1 数值表現トークン化の例 ## 3.2 BERT モデルによる分類 事前学習済み BERT モデルを fine-tuning することによって多クラス分類を行う. 東北大学が公開している日本語 Wikipedia で事前学習された bertbase-japanese-whole-word-masking ${ }^{1 \text { ) (以下 cl- }}$ tohoku)と,東京大学が公開している 1.2 億行の日本語大規模カルテ記録で事前学習された UTHBERT $^{2}$ (以下 UTH)とを用い比較する。cl-tohoku のトークナイザは MeCab-Unidic+WordPiece,UTH は MeCab(ipadic-NEologd+万病辞書) + WordPiece を用いる. fine-tuning には,これら事前学習済みモデルの最終層に全結合層を加え,クラス数分の出力ノードを用意して学習した。 図 2 システム概要図 ## 3.3 データセット 国立病院機構の電子カルテ集積基盤 NCDA[10] の 2022 年 10 月末時点での匿名化データのうち, 21 病院,58,397 人の患者を対象とする.そのうち,ICD コードが主診断として記録されていて疑い診断ではない患者を抽出したところ,主診断の総数は 105,817 個となった。「紹介状参照」など他の文書を参照する記述 1 行のみのデータは除去した. 患者に主診断の ICD コードが複数紐づくことがある. 対象患者に紐づけられたすべての主診断 ICD コードについて, 1 枌分類では最初のアルファベットが,3枌分類では 3 桁すべてが一致する場合に限定することで,推測対象の ICD コードが一意に定まる患者のみとした. 1 文書の各行を <NL>トークンで連結して 1 文とし,患者 1 人分をまとめて 1 つの文書として扱った。  ## 4 実験と結果 ## 4.1ICD-10 コードの 1 桁分類 対象データICDコードの先頭アルファベット 1 标を分類する. 先頭アルファベットが傷病及び死亡の外因に属する患者数は少なかった(V,W,Y が 0 人, $\mathrm{X}$ が 1 人)ためこれら 4 クラスを除外し,ICD コードの種類は 22 種類,患者数は 29,566 人,約 368 万行のテキストとなった. 最もサンプル数が多いクラスは $\mathrm{J}$ で 2,927 人,最も少ないクラスは O で 270 人であった. 1 析分類の分布を付録の図 3 に示す. 実験設定と評価結果学習時の Epoch 数は 10 , 中間層は 768 次元, optimizer には Adam を使用し,学習率は 1e-5, 最大系列長は 200 トークン, 損失関数には交差エントロピーを用いた。性能の評価には Micro-Precision, Micro-Recall, Micro-F1,Macro-F1を使用した.訓練データとテストデータを $8: 2$ とする 5 分割交差検証を行い,それぞれの評価値の平均を最終的な評価とした.実験では,数値表現の置き換えを以下の 3 パターン比較した. ・なし数値表現置き換えなし -日時 <DATE>,<TIME>のみ置き換え - 日時数 <DATE>,<TIME>,<NUM> の置き換え 実験の評価結果を表 1 に示す.土の後に続く値は, クラス毎の最大最少スコアのレンジを示す. 1 桁分類では,数値表現をそのまま用いた UTH-なしが最も高い性能であった。 考察 cl-tohoku では <DATE>,<TIME>,<NUM>を使うことによる影響がほとんどなかったことから,一般的なテキストで事前学習した言語モデルは,推測に数値表現を利用していないと考えられる。UTH に関しては<DATE>,<TIME>による影響はほとんどなかったものの,<NUM>を用いると明確に性能が低下した. その原因として,電子カルテで事前学習した UTH が検査数値として出現した数値表現の意味をある程度学習できていたところ,特殊トークンに置き換えたせいでその情報が利用できなくなった可能性がある. 別の原因として, 薬品名と共起する 消えてしまい,薬品名の認識に悪影響を及ぼした可能性がある. この場合は,薬品名に隣接する数値表現を NUM トークンに置き換えないようにすれば,悪影響を抑えることができるかもしれない. 1 桁分類は疾患の部位や系統に関する分類であるため,数値表現が手掛かりになりづらく,全体的に置き換えによる差分が小さくなったと考えらえる. 表 1 ICDコード 1 桁分類の評価結果 Micro-Pre. Micro-Rec Micro-F1 Macro-F1 ## 4.2ICD-10 コードの 3 桁分類 対象データICD-10コードの先頭から 3 文字にあたる,アルファベット 1 桁+数字 2 桁からなる 3 桁分類を対象とする。学習データが十分に見込めるよう,サンプル数が 100 以上のクラスを用い,コードの種類は 67 種類,患者数は 16,731 人, 約 197 万行のテキストとなった. クラス当たりサンプル数は $\mathrm{T} 78$ が最大の 2,254 人,M17 と L72 で共に最小の 101 人であった。付録の図 4 に分布を示す. 実験設定と評価結果 1 桁分類と同様の条件で,cl-tohokuとUTHを用いて実験を行った。評価結果を表 2 に示す. Micro-Presicionと MicroRecall については,DATE,TIME,NUM トークンを全て用いた cl-tohoku の性能が最も高かった。 また,Micro-Recall,Micro-F1,Macro-F1 については DATE,TIME トークンを用いた UTH の性能が最も高くなった. 両モデルに共通して,日付表現と時間表現を特殊トークンに置き換えたときに Micro-Precision 以外の指標が改善した。 表 2 ICD コード 3 桁分類の評価結果 Micro-Pre. Micro-Rec Micro-F1 Macro-F1 考察 cl-tohokuでは,NUMトークン置き換えによって性能がさらに向上した.これは,一般テキス卜で事前学習した BERT モデルが扱えなかった数値表現を置き換えることによる効果と考えられる。 UTH では NUM トークン置き換えで性能が下がってしまった. これは前述の 1 桁分類と同様の理由だと考える。 また,cl-tohoku はクラスごとの性能ばらつきが大きい. クラスによっては,一般テキストに表れづら い表現があるためではないかと考えられる。医療系の語彙セットを持たない cl-tohoku-日時数が,UTH日時の性能かなり近いことから,ICD コード予測は具体的な数值表現がなくても適切な語彙セットを持っていれば対応できる可能性がある. そのため,日本語 Wikipedia と電子カルテの両方で事前学習を行ったモデルを作ることで,より良い ICD コード予測を行えると期待できる. ## 4.3ICD コード追加学習の応用検証 前節の ICD コード予測を追加的な学習と考え,この学習により疾病の類似度に関する知識を獲得できたと期待する. その応用検証として,8つの病気,症状に罹患しているかを Twitter 投稿から推測するマルチラベル分類を行う,NTCIR-13 の MedWeb[11] タスクを実行し評価する。 ## 4.4 データセット MedWeb タスクは,ツイートに 8 つの病気または症状(インフルエンザ,下痢/腹痛,花粉症,咳 /喉の痛み,頭痛,熱,鼻水/鼻づまり,風邪) の罹患の有無を割り当てたマルチラベル分類タスクである.データセットは日本語,英語,中国語の 3 言語が用意されており,各言語につき学習データ 1,920 ツイート,テストデータ 640 ツイートで構成される。本研究では日本語データのみを用いる. ## 4.5 実験 前述の 3 析分類で fine-tuning したモデルの最終層を除去し,新たに最終層を追加して MedWeb データで fine-tuning する. ベースラインは ICD コード予測を行っていないオリジナルの cl-tohoku と UTH とした. ICDコード予測の学習を行ったモデルとして,特殊トークン置き換えをしていない cl-tohokuなしおよび UTH-なしと, 3 桁分類の性能が高かった cl-tohoku-日時数 (DATE,TIME,NUM トークンを置き換え)および UTH-日時(DATE,TIMEを置き換え)の計 6 のモデルを用いて比較実験する。 ## 4.6 結果 MedWeb 実験の評価結果を表 3 に示す. 考察 cl-tohokuでは,ICDコード予測で学習したモデルのほうが,学習してないモデルよりも性能が高くなった.これはICDコード予測によって医学知識をある程度学習できたことが要因と考えられる。表 3 マルチラベル分類の結果 Micro-Pre. Micro-Rec. Micro-F1 Macro-F1 UTH では,ICDコード予測で学習してもしなくてもほとんど変化が無かった. ICDコード予測で学習したモデルの疾病の類似度に関する知識は増えていない可能性が高い. ICD コード予測をしたモデルを用いて MedWebで学習しなおした場合, cl-tohoku でも UTH でも数値表現の特殊トークン置き換えを取り入れると性能が下がってしまった。これは,MedWeb タスクのデー タに数値に関する情報が少なかったことから数値トークンが活用されずかえって悪影響を及ぼしたのではないかと考えられる。 ## 5 結論 数値表現を 3 種類の特殊トークンに置き換えることによる ICD-10コード予測の性能向上を試みた.時間と日付に関する数値表現の置き換えは ICD コー ドの上位 3 析分類において, Wikipedia で事前学習した言語モデルと医療テキストで事前学習した言語モデルのどちらでも性能向上に寄与した. 全数値表現を置き換えると,Wikipedia で事前学習した言語モデルでは性能向上が見られたが,医療テキストで事前学習したモデルでは性能が低下した。 また,ICD-10コード予測によって fine-tuning したモデルを他の医療タスクに適用する実験を行った。医療テキストで事前学習した言語モデルでは性能に変化が見られなかったが,Wikipedia で事前学習した言語モデルでは事前に ICD-10コード予測による追加的な学習を約 197 万行の医療テキストで行うことで,約 1.2 億行の医療テキストで事前学習した言語モデルを超える精度を出すことができた。 今後の課題として,数値表現の置き換え条件を詳細にすることで ICD-10 コード予測精度の向上を目指す。さらに,ICD-10コード予測をシングルラベルからマルチラベル分類に変えることによる後段タスクへの影響や,日本語 Wikipedia と電子カルテテキストの両方で事前学習したモデルの性能調査などを行いたい. ## 謝辞 本研究は厚生労働科学研究費補助金 21HA2015, JSPS 科研費 JP22H00804, JP21K18115, JST AIP 加速課題 JPMJCR22U4, およびセコム科学技術財団特定領域研究助成の支援をうけた。 ## 参考文献 [1] World Health Organization. ICD-10 : international statistical classification of diseases and related health problems : tenth revision, 2nd ed. 2004. https://apps.who.int/ iris/handle/10665/42980. [2] Devlin Jacob, Chang Ming-Wei, Lee Kenton, and Toutanova Kristina. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, 2019. [3] Eiji Aramaki, Mizuki Morita, Yoshinobu Kano, and Tomoko Ohkuma. Overview of the NTCIR-12 MedNLPDoc Task. In Proceedings of the 12th NTCIR Conference on Evaluation of Information Access Technologies (NTCIR-12), pp. 71-75, 2016. [4] Masahito Sakishita and Yoshinobu Kano. Inference of ICD Codes by Rule-Based Method from Medical Record in NTCIR-12 MedNLPDoc. In Proceedings of the 12th NTCIR Conference on Evaluation of Information Access Technologies (NTCIR-12), pp. 80-84, 2016. [5] Ayoub Bagheri., Arjan Sammani., Peter G. M. Van Der Heijden., Folkert W. Asselbergs., and Daniel L. Oberski. Automatic ICD-10 Classification of Diseases from Dutch Discharge Letters. In conjunction with the 13th International Joint Conference on Biomedical Engineering Systems and Technologies-BIOSTEC 2020, pp. 281289, 2020. [6] Du Yong, Wang Wei, and Wang Liang. Hierarchical recurrent neural network for skeleton based action recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 1110-1118, 2015. [7] Arjan Sammani, Ayoub Bagheri, Peter G. M. van der Heijden, Anneline S. J. M. te Riele, Annette F. Baas, C. A. J. Oosters, Daniel Oberski, and Folkert W. Asselbergs. Automatic multilabel detection of ICD10 codes in Dutch cardiology discharge letters using neural networks. npj Digital Medicine, Vol. 5, No. 37, 2021. [8] Deng Yaping, Lu Wang, Jia Hao, Tong Xiangqian, and Feng Li. A Sequence-to-Sequence Deep Learning Architecture Based on Bidirectional GRU for Type Recognition and Time Location of Combined Power Quality Disturbance. IEEE Transactions on Industrial Informatics, Vol. 15, No. 8, pp. 4481-4493, 2019. [9] Lefteris Loukas, Manos Fergadiotis, Ilias Chalkidis, Eirini Spyropoulou, Prodromos Malakasiotis, Ion Androutsopoulos, and Georgios Paliouras. FiNER: Finan- cial Numeric Entity Recognition for XBRL Tagging. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 4419-4431, 2022. [10] Natsuko Kanazawa1, Takuaki Tani, Shinobu Imai, Hiromasa Horiguchi, Kiyohide Fushimi, and Norihiko Inoue. Existing Data Sources for Clinical Epidemiology: Database of the National Hospital Organization in Japan. In Clinical Epidemiology, Vol. 2022:14, pp. 689-698, 2022. [11] Shoko Wakamiya, Mizuki Morita, Yoshinobu Kano, Tomoko Ohkuma, and Eiji Aramaki. Overview of the NTCIR-13 MedWeb Task. In Proceedings of the 13th NTCIR Conference on Evaluation of Information Access Technologies (NTCIR-13), pp. 40-49, 2017. ## A 付録 (Appendix) 表 4 ICD-10コードの章レベルの分類体系 図 31 桁分類に用いるデータの分布 図 43 桁分類に用いるデータの分布
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q7-9.pdf
# 地方自治体の子育て支援事業比較表作成ツールの開発 金田 大海 多田 紘佳 中村 誠 新潟工科大学 工学部 mnakamur@niit.ac.jp ## 概要 近年, 少子高齢化が深刻化しており, それに伴い総人口が減少傾向にある. 本研究の目的は, 地方自治体(以降,自治体という.)の子育て支援事業の類似事業をまとめ、比較が行なえる表を出力するツー ルの開発である.これにより, 自治体の独自事業の発見が期待できる. そのために本研究では, 子育て支援事業の内容を自治体のウェブサイトから取得し, TF-IDF を用いた SVM による文書分類により, 必要項目と不要項目を分類した後, 必要項目についてクラスタリングを行い,類似する事業をまとめ表を作成し出力するツールを開発する。 ## 1 はじめに 近年, 少子高齢化が深刻化しており, 2015 年には 65 歳以上が約 $26.6 \%$ 、 15 歳未満が約 $12.5 \%$ であったのが、2045 年には 65 歳以上が約 $36.8 \%$ に増加、 15 歳未満が約 $10.7 \%$ と減少するとされている。それに伴い総人口が減少傾向にある [1]. 特に, 少子高齢化による人口減少は小規模な自治体ほど顕著に表れている. また, 少子高齢化により「社会保障分野の負担の増大と手取り収入の減少」や「生産年齢人口減少による経済成長の低下」などの問題が発生している [2]. これらの問題に共通する原因は, 生産年齢人口の減少である. このことから, 少子高齢化社会を改善していくには、人口減少の多い自治体で生産年齢人口の減少を止めていかなければならない. そこで現在, 少子高齢化対策としてそれぞれ子育て支援事業などを用意して出生率増加を図っており, ウェブサイトで確認できる. ところが, 子育て支援事業は各自治体のウェブサイトで独立して提示されているため, 自治体間の比較が難しい. そこで, 子育て支援事業を 1 つの表にまとめることで比較しやすくなると考えられる。 類似している事業の対応付けを行う手法の研究はすでに行われている [3]. この研究では, 自治体のウェブサイトの HTML 内にあるアンカーテキストに着目し,編集距離を用いて対応付けを行っている. ここから, 比較結果として精度は高くないが類似事業の対応付けは有効であると分かる. したがって,本研究の目的は,各自治体の子育て支援事業の類似事業の比較表(以降,「比較表」という。)を出力するツールの開発である. 利用者は, このツールを開発することで,各自治体が子育て支援事業にどれだけ力を入れているか可視化ができ,他の自治体にはない独自の事業を発見できる.また,各自治体は自身の自治体に足りない事業を発見できることから,事業の充実が期待できる。 本研究では,子育て支援事業の内容を自治体のウエブサイトの HTML から取得し, TF-IDF ベクトルを用いた SVM による文書分類で必要事業と不要事業を分類し,必要事業についてクラスタリングを行った結果を表にして出力するツールの開発を行う. ## 2 背景 ここでは, 本研究の目的である比較表を出力するツールの必要性について示す. また, 本研究で使用しているクローリングと web スクレイピング, SVM,クラスタリングについて説明する。 ## 2.1 子育て支援事業 本研究で対象としている子育て支援事業とは, 子育てに関係する行政事業の一群を指す。これらについて,全国の自治体でウェブサイトを用意し提示している。図 1 は,柏崎市のウェブサイトである.図 1 のように, 多くの自治体では事業ごとにウェブペ ージを用意しており,そのウェブページに事業の内容などが掲載されている。図 2 は,柏崎市の览童手当のウェブページである. 中には,1つのウェブペ ージに複数の事業をまとめて掲載している自治体もある.このように,ウェブページに記載されているため, クローリングを用いることで事業の内容を収集することが可能である. 図 1 柏崎市の事業が提示されているウェブサイト 図 2 柏崎市の児童手当のウェブページ ## 2.2 比較表 本システムにおける比較用の例を表 1 に示す.新潟県新潟市の「安産教室」や岡山県奈義町の「出産祝金」は独自の事業であることと, 岡山県奈義町には里親制度の事業が足りないことが一目で分かる.比較表作成における問題の本質は,自治体間において類似事業を発見することにある。 表 1 子育て支援事業比較表の例 & & \\ ## 2.3 クローリングと web スクレイピング クローリングとは, ウェブサイトから HTML などの情報を収集することであり,web スクレイピングとは,クローリングにより web サイトから取得した HTML データを解析し, 特定のデータを抽出することである. 本研究では,新潟県内の 23 の自治体と岡山県奈義町を対象に,子育て支援事業に関係すると思われる「妊娠出産」と「子育て」の 2 つのカテゴリーの事業を対象にそれらが書かれているウェブページのクローリングを行う。また,内容が書かれているウェブページをスクレイピングによってテキストファイルに書き出す. ## 2.4 SVM SVM は, 2 クラスのパターン識別器を構成する手法である。学習モデルから,「マージン最大化」という基準で線形しきい素子のパラメータを学習し,計算によって 2 值のクラスをつくる [4]。本研究では分類方法として「ソフトマージン」を用いる. 本研究では, SVM により子育て支援事業に関係している事業としていない事業に分類するために用いている. スクレイピングにより取得したテキストには,給付金や支援などの事業のみならず,図 3 のようにイベント等の一覧しか書かれていないものや表彰関係,おたよりや報告などと子育て支援のための情報提供には不要な, ウェブページが含まれている. 図 3 不要なウェブページの例 ## 2.5 クラスタリング手法 本実験では階層的手法を用いる. 階層的手法とは,最も類似度の高い組み合わせからまとめる手法である. 階層的手法には,クラスタ間における距離の求め方が複数存在する。主な手法は,「群平均法」, 「重心法」,「完全リンク法」,「メジアン法」,「単リンク法」,「ウォード法」,「重み付き平均法」である. 本研究では,各自治体におけるさまざまな子育て支援事業を対象に, TF-IDF でベクトル化し, それからコサイン類似度を計算する。その計算結果を用いてメジアン法でクラスタリングを行う。メジアン法とは,それぞれの重心にクラスタ内の個数に応じた重み付けを行い、それぞれのクラスタの重み付けした重心間距離の 2 乗をクラスタ間の距離とする手法である。 ## 2.3 評価手法 比較表の精度については, purity と inverse purity の 2 つから求められる $\mathrm{F}$ 值で評価することが出来る [5]. 図4 に正解クラスタとクラスタリング結果の関係を示す. 同じ図形は類似事業を示している。 図 4 正解クラスタとクラスタリング結果の関係 Purity とは, 図 4 下部の各クラスタにおいて最もよく現れるカテゴリーの出現頻度に注目し, クラス夕内においてそのカテゴリーが占める割合が大きいものを高く評価する評価尺度であり, 式 (2) で求まる. $ \text { Purity }=\sum_{i} \frac{\left|C_{i}\right|}{n} \text { maxPrecision }\left(C_{i}, L_{j}\right) $ このとき, C は評価対象とするクラスタ集合, L は人手で作成したカテゴリー集合, $\mathrm{n}$ はクラスタリング対象の文書数である. また, あるカテゴリー $L_{j}$ に対するクラスタ $C_{i}$ の適合率は式 (3) によって求められる。 $ \operatorname{Precision}\left(C_{i}, L_{j}\right)=\frac{\left|C_{I} \cap L_{j}\right|}{\left|C_{i}\right|} $ Inverse purity とは, 図 4 上部の各カテゴリーに対して最大の再現率となるクラスタに注目し, クラス夕内において各カテゴリーで定められた要素を多く含むクラスタを高く評価する評価尺度であり, 式(4) で求まる. $ \text { InversePurity }=\sum_{j} \frac{\left|L_{j}\right|}{n} \operatorname{maxRecall}\left(C_{i}, L_{j}\right) $ このとき,あるカテゴリーに対するクラスタの再現率は式(5)によって求められる. $ \operatorname{Recall}\left(C_{i}, L_{J}\right)=\frac{\left|C_{i} \cap L_{j}\right|}{\left|L_{j}\right|} $ また, purity と inverse purity の調和平均 $\mathrm{F}$ は式(6) により定義される。 $ F=\frac{1}{\alpha \frac{1}{\text { Purity }}+(1-\alpha) \frac{1}{\text { InversePurity }}} $ 本研究では $\alpha=0.5$ として評価を行った. なお、図 4 における purity は 0.6 , inverse purity は 0.65,F 値は 0.62 となる ## 3 提案手法 本研究の各自治体の子育て支援事業の比較表を作成するツールの流れは以下の通りである. 1. あらかじめ各自治体のウェブサイトから,事業内容が書かれている本文を抽出し,テキストフアイルにする. 2. チェックボックスを用いたユーザーインターフエースで比較する自治体を選択する 3. 選択した自治体のテキストファイルを参照する 4. 参照したテキストファイルから, 子育て支援事業に必要な項目と不要な項目をSVM を用いて分類する. 5. 必要項目に分類した方を, TF-IDF でベクトル化し, $\cos$ 類似度を用いたメジアン法のクラスタリングによって比較表を出力する. このときの、チェックボックスを用いたユーザーインターフェースを図 5 に, 出力結果を図 6 に示す. 類似している事業の対応付けを行う手法の研究 [3]では,「編集距離」を用いているが比較表の精度は高くなかった. そこで, 本研究では TF-IDFベクトルを用いた $\cos$ 類似度によりクラスタリングを行うことで精度の向上を目指す. 図 5 ユーザーインターフェース 図 6 出力結果の一部 ## 4 実験 ## 4.1 実験の目的 文書分類を用いない比較表作成ツールにより,クラスタリングにメジアン法を用いて比較表を作成したところ, $\mathrm{F}$ 值は 0.371 となった. しかし, この比較表には子育て支援事業と関係のないものも含まれていた。そのため, 不要項目を含むか否かで精度は変わると考えた. また,この比較表は異なる分野の事業が一緒になっていたため, 分野別で比較表を作成することで見やすい表となり, 精度も向上すると考えた。そこで,本実験の目的は,文書分類を用いて不要項目を分類し必要項目のみで比較表を作成することと, 分野別で作成することで, クラスタリングの精度が向上するのか検証する.正解データは,不要な項目も考えたデータを新しく用いる. ## 4.2 実験方法 本実験では,新潟県柏崎市,新潟県新潟市,岡山県奈義町の 3 つの自治体を対象とし, 不要項目の分類を行うか否かでモデルの性能を比較する. 分野別については, 「妊娠出産」と「子育て」の2つの分野を対象とし,それぞれで分類を行ったモデルの性能と文書分類を行ったモデルの性能で比較を行う.性能の比較には, 評価手法を用いた精度の評価を行う.このとき,カテゴリー集合である正解データは,人手によって 3 の自治体の子育て支援事業のみを対象に類似事業を対応付け,それ以外を不要な事業としてまとめた表を用いた。 ## 4.3 実験結果 分類の有無について,3つの自治体で作成した比較表の評価結果を表 2 に示す. 1 行目は不要項目の分類を行っていない場合, 2 行目は行った後のクラスタリングの結果を表している。 表 3 分野別による評価結果 また, 分野別で作成した比較表の精度の評価結果を表 3 に示す。 比較表の精度について不要項目の分類を行うか否かで比較すると, $\mathrm{F}$ 值が約 0.144 向上した. これらにより, 不要な項目がなくなることで, 比較表の精度が向上したと考えられる。また,このとき作成した表は,不要な項目がなくなったため類似事業が分かりやすい表となった.参考までに,クローリングやスクレイピングが完全で, 不要項目が存在しない場合の性能を表 2 の 3 行目に示す. 分野別の精度について,表 2 と表 3 の $\mathrm{F}$ 値から,分野別にすることで約 0.029 向上した.この値より,分野別にすることで SVM とクラスタリングの精度が向上したのではないかと考える.このとき作成された表は, 分野別になっているため, 分野ごとの事業が分かりやすい表となった。 ## 5 おわりに 実験から,SVM を用いて分野別に作成することで,不要な項目を無くし,比較表の精度を向上させることが出来た. また, 分野別にしたことで見やすい表となった。これらにより, 子育て支援事業の比較表作成ツールを開発することが出来た。 今後は,SVM の教師データを増やすことや,比較表の精度のさらなる向上を目指す. ## 謝辞 本研究は, 科学研究費補助金 (19H04427, 代表 : 中村誠)の助成を受けたものである. ## 参考文献 [1] 河合雅司, 未来の年表人口減少日本でこれから起きること, 講談社現代新書, 2017 [2] 厚生労働省, 少子化の影響と主な対策に関する整理, (引用日: 2023 年 1 月 5 日.)https://www.mhlw.go. jp/shingi/2002/06/s0614-3a.html [3] 多田紘佳, 中村誠, 地方自治体ウェブサイトから得られる子育て支援に関する行政サービスの比較,電子情報通信学会信越支部大会, P-30 (2019) [4]サポートベクターマシン入門, 栗田多喜夫, 産業技術総合研究所脳神経情報研究部門, 2002 [5] 杉山一成, 奥村学, 半教師有りクラスタリングを用いた Web 検索結果における人名の曖昧性解消, 自然言語処理, 16 巻(2009) 5 号
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q8-10.pdf
# 大規模言語モデルに基づく 複数の外部ツールを利用した推論フレームワーク 稲葉達郎清丸寛一 Fei Cheng 黒橋 禎夫 京都大学 \{inaba,kiyomaru, feicheng, kuro\}@nlp.ist.i.kyoto-u.ac.jp ## 概要 大規模言語モデルは広範な世界知識に加えて数値計算といった記号処理の能力も一定程度有しており、種々の推論タスクで驚異的なスコアを達成している。しかし、言語モデルが保持できる知識の量と実行できる記号処理の複雑さには限界がある。大規模言語モデルによる推論のさらなる高度化を目指して、本研究では大規模言語モデルによる推論時に検索器や電卓など複数の外部ツールの利用を可能にするフレームワークを提案する。提案手法を知識を要する数値推論タスク NumGLUE(Task 2)に適用し、強力なべースラインの性能を大幅に上回る、現時点での最高性能を達成することを確認した。 ## 1 はじめに 推論は既知の事柄を手がかりに未知の事柄を推し量る論理的なプロセスである。推論では、言語理解の能力はもちろん、実世界に関する知識、数値計算をはじめとする記号処理の能力も必要となる。計算機による推論の実現は人工知能研究の古くからの目標であり、現在まで中心的な関心であり続けている $[1,2]$ 。 昨今、大規模言語モデル(Large Language Model; LLM) $[3,4,5,6]$ が種々の推論タスクで驚異的なスコアを達成している。これは大規模言語モデルが事前学習を通じて基本的な言語理解の能力に加え、広範な世界知識、そして数値計算を含む記号推論の能力までもを一定程度獲得していることを示している。 しかし、大規模言語モデルであっても保持できる世界知識の量と実行可能な記号処理の複雑さには限界がある。この問題を解決するため、大規模言語モデルによる推論時に検索器や電卓などの外部ツールを呼び出し、その結果を利用する手法が提案されて いる $[7,8]$ 。しかし、先行研究はいずれも単一の外部ツールの利用に留まっており、推論を実行する上で課題となる知識の問題や記号処理の問題を同時に解決する枠組みにはなっていない。 本研究では、大規模言語モデルによる推論において、検索器や電卓といった複数の外部ツールの利用を可能にするフレームワークを提案する。図 1 に提案手法の概要を示す。提案手法では、大規模言語モデルが推論過程を含めて解答を生成するように入力のテキスト(プロンプト)を設計する [9]。提案手法の鍵は、プロンプトの工夫によって、推論過程の一部として外部ツールを呼び出す文字列を生成させることにある。実行時は、大規模言語モデルが外部ツールを呼び出す文字列を生成したら推論過程の生成を中断し、生成中の推論過程から利用する外部ツールの名前とそれに与える入力を取り出し、外部ツールの実行結果を推論過程に追記する。その後大規模言語モデルに推論過程の生成を再開させ、外部ツールを呼び出す文字列が生成されたらまた上記の手続きを行う。 提案手法の有効性を確認するため、専門知識を要する数値推論タスク NumGLUE(Task 2) [10] のもとで実験を行った。実験の結果、提案手法が強力なベースライン手法の性能を大幅に上回り、現時点での最高性能を達成することを確認した。 ## 2 関連研究 大規模言語モデルによる推論は、入力のテキスト (プロンプト)を適当に設計し、大規模言語モデルから推論の解答を引き出すこと(プロンプティング [11])で解かれる。特に、大規模言語モデルが解答を推論過程付きで生成するようにプロンプトを設計する Chain of Thought プロンプティング [9, 12] はその有効性が広く知られている。 大規模言語モデルによる推論時に外部ツールを利 図 1 提案手法の全体像。出力中のハイライトは、黄緑色が GPT-3、黄色が電卓 (Calculator; CAL)、橙色が化学反応予測器(Chemical reaction predictor; $\mathrm{CRP}_{\mathrm{RP}}$ )、紫色がモル質量検索器(Molar mass list; $\mathrm{MML}_{\mathrm{ML}}$ )の出力であることを表す。 用する先行研究としては、推論過程の中に現れた数式を電卓で処理して計算結果を推論過程に埋め込むことで計算間違いの問題を緩和する取り組み $[8]$ や、推論過程の生成中に知識検索を実行することで多段の推論を要する質問応答を実行する取り組み [7] がある。これらの先行研究はそれぞれ未熟な計算能力と不完全な世界知識という大規模言語モデルが抱える単一の問題に着目し、それに単一の外部ツールを利用することで対処している。本研究の特徴は、大規模言語モデルによる推論時に複数の外部ツールの利用を可能にすることで複数の問題に同時に対処することにある。 ## 3 提案手法 本研究では、大規模言語モデルによる推論において、複数の外部ツールの利用を可能にする枠組みを提案する。図 1 に提案手法の概要を示す。提案手法では大規模言語モデルとして GPT-3 [3] を使用し、外部ツールを呼び出す文字列を含む推論過程が生成されるように Chain of Thought プロンプティング [9] を行う。 プロンプトは、利用可能な外部ツールを明示した説明文、いくつかの問題文と推論過程付きの解答のペア (Few-Shot 事例)、解かせる問題文を結合し て構成する。Few-Shot 事例として与える推論過程には外部ツールの呼び出し方をアノテーションする。具体的には、<<外部ツール名 >> の文字列を外部ツールを呼び出す文字列としてアノテーションし、 その直前に外部ツールへの入力を特定のフォーマットでアノテーションする。例えば、外部ツールとして電卓(Calculator)を利用する場合、Few-Shot 事例として与える推論過程の中で電卓を利用すべき箇所に <<Calculator>> の文字列をアノテーションし、その直前に電卓に与える数式をアノテーションする。 推論時は GPT-3 がプロンプトに従い、与えられた問題文に対する解答を外部ツールを呼び出す文字列を含む推論過程と一緒に生成する。その時、>>の文字列が生成されたら生成を中断し、その直前の文字列から使用する外部ツールの名前とそのツールへの入力を抽出、外部ツールを実行した後、その結果を生成中の推論過程の末尾に追記する。これを新たな入力とし、GPT-3による推論過程の生成を再開する。未知の外部ツール名が生成されたり、外部ツー ルの実行時エラーが発生したりすると外部ツールが実行結果が得られない。その場合は外部ツールの出力結果に相当する部分も GPT-3 自身に出力させる。 GPT-3 が生成した推論過程付きの解答から最終的 な解答を抜き出す処理もプロンプティングで行う。具体的には、推論過程とその中に含まれる最終的な解答のペアを Few-Shot 事例とするプロンプトを使用して、GPT-3 に推論過程から解答を抽出させる1)。 ## 4 知識を要する数値推論への適用 提案手法の適用例として、本研究では専門知識を要する数值推論に取り組む。具体的には、数值推論データセット NumGLUE [10] の Task 2 に取り組む。問題例を例 (1) に示す。 (1) Find the amount of Calcium hydroxide that is required to react with 2 moles of Carbon dioxide to form 2 moles of Calcium carbonate along with 2 moles of Water. NumGLUE の Task 2 は例 (1)のような化学の専門知識を要する数値推論の問題で大部分が構成される。 これを解くには、言語理解能力、計算能力に加え、化学反応式の作成能力と物質のモル質量の知識が要求される。 本研究では以下の外部ツールを実装し、提案手法の枠組みで推論の実行時に利用することで本タスクを解く。 -電卓 (Calculator; CAL):四則演算を中心とする数式を大力として、その計算結果を出力する。計算結果は数式を Python の eval 関数 ${ }^{2}$ にに入力して得る。数式中の演算子は Python の文法に合わせて入力前に置換する。電卓を呼び出す際は、<<Calculator>> の文字列を出力させる。入力の数式は同じ行に生成させる。 - 化学反応式予測器 (Chemical reaction predictor; CRP) : 反応物と生成物の化学式を入力として、化学反応式を出力する。化学反応式は、反応物と生成物で各原子の数が同じになるように係数を調整して得る。化学反応式予測器を呼び出す際は、<<Chemical reaction predictor>>の文字列を生成させる。入力の反応物と生成物の化学式は直前の 2 行に出力させる。 - モル質量検索器 (Molar mass list; MML) : 化学式を入力として、そのモル質量を出力する。化学 1)本研究の実験では、ほぼ常に最終的な解答が推論過程の最終行に含まれることが実験的に確認されたため、計算コスト削減のため、推論過程の最終行を抜き出した上でこの手法を適用した。 2) https://docs.python.org/3/library/functions.html\# eval表 1 NumGLUE の Task2 における性能。最良の結果を太字で示す。(†) は NumGLUE の論文 [10] からの引用。 式のモル質量は、各原子の質量に関する知識ベースに基づき、化学式に含まれる原子とその数から計算する。モル質量検索器を呼び出す際は、<<Molar mass list>> の文字列を生成させる。大力の化学式は同じ行に出力させる。 図1 推論を実行する際に用いるプロンプトを示す。説明文として、上記の 3 種類の外部ツールが利用可能なことが明示されたテキストを与える。 Few-Shot 事例には、問題文と推論過程付きの解答のペアの例を与え、推論過程には上記の外部ツールを利用するためのアノテーションを付与する。 ## 5 実験 提案手法の有効性を確認するため、知識を要する数值推論に提案手法を適用する。 ## 5.1 データセット 数値推論データセット NumGLUE [10] の Task 2 を使用する。4 節で説明した通り、主に化学に関する専門知識を要する数値推論の問題で構成されている。問題の解答は全て数値である。評価にはテストデータの 325 問を使用する。評価指標は正解率である。 ## 5.2 比較手法 本研究では GPT-3 (text-davinci-003; 175B パラメー タ3))を使用し、以下の手法を比較する。 Zero-Shot 問題文のみをプロンプトとしてテキスト生成を行い、その出力を予測とする。 Zero-Shot+CoT [12] 問題文に “Let's think step by step."を付け加えたものをプロンプトとしてテキス  図 2 手法ごとの出力の具体例。赤色のハイライトは誤った知識や誤った計算結果が生成された箇所を示す。緑色のハイライトは外部ツールの利用によってそれらが改善した箇所を示す。 卜生成を行い、推論過程を伴う解答を得る。最終的な予測は、生成された推論過程の末尾に“Therefore, the answer (arabic numerals) is”を追加し、それをプロンプトとしてテキスト生成を実行して得る。 Few-Shot 問題文の前に Few-Shot 事例として数例の問題文と解答のペアを結合したものをプロンプトとしてテキスト生成を行い、その出力を予測として得る。 Few-Shot+CoT 提案手法と同じプロンプトを使用してテキスト生成を実行し、その出力を予測として得る。ただし外部ツールは使用せず、推論過程は全て GPT-3 に生成させる。 Few-Shot+CoT+\{CAL|CRP|MmL $\}$ 提案手法と同じプロンプトを使用してテキスト生成を実行し、その出力を予測とする。推論時、電卓 $(\mathrm{CAL})$ 、化学反応式予測器 ( $\mathrm{CRP})$ 、モル質量検索器 ( $\mathrm{M} \mathrm{ML})$ のいずれか一つの外部ツールを利用する。利用しない外部ツールの実行結果は GPT-3 自身に生成させる。 Few-Shot+CoT+ALL 提案手法。電卓、化学反応式予測器、モル質量検索器の全ての外部ツールを使用して推論を実行する。 Few-Shot 事例として、学習データ中の 20 問を使用した。Few-Shot 事例は、外部ツールのアノテー ション数に偏りが出ないように人手で問題を選択し、推論過程のアノテーションも人手で行った。 Few-Shot 事例の数が性能に与える影響については付録 Aを参照されたい。 ## 5.3 結果 表 1 に結果を示す。提案手法は 85.85 ポイントの正解率であり、現時点での最高性能を達成した。外部ツールを利用しない手法はもちろん、単一の外部ツールを利用する手法と比べても、推論性能の大きな改善が確認された。 ## 6 ケーススタディ 図 2 に提案手法による改善例を示す。CoT プロンプティングを使用しない Zero-Shot と FewShot は推論に失敗している。CoT プロンプティングに基づく Zero-Shot+CoT と Few-Shot+CoT は $\mathrm{Al} 2(\mathrm{CO} 3) 3$ のモル質量に誤りがあり、Few-Shot+CoT は $12 \times 3 / 342 \times 100$ の計算も間違っている。提案手法の Few-Shot+CoT+ALL は外部ツールに頼ることで正しいモル質量と数値計算に基づき正答できている。 ## 7 おわりに 本研究では大規模言語モデルによる推論において、検索器や電卓等の複数の外部ツールの利用を可能にする枠組みを提案した。本論文ではその枠組みを化学の専門知識を要する数值推論タスクに適用し、その高い有効性を確認した。提案の枠組みは汎用的であり、外部ツールを変更・拡張することで様々なタスクに応用可能である。今後、異なるタスクにおいても提案手法の有効性を検証したい。 ## 謝辞 この研究は JST、CREST、JPMJCR20D2 と厚生労 働科学研究費補助金 AC 事業 JPMW21AC5001 の支 援を受けたものである。 ## 参考文献 [1] Andrew Gordon, Zornitsa Kozareva, and Melissa Roemmele. SemEval-2012 task 7: Choice of plausible alternatives: An evaluation of commonsense causal reasoning. In *SEM 2012: The First Joint Conference on Lexical and Computational Semantics - Volume 1: Proceedings of the main conference and the shared task, and Volume 2: Proceedings of the Sixth International Workshop on Semantic Evaluation (SemEval 2012), pp. 394-398, Montréal, Canada, 7-8 June 2012. Association for Computational Linguistics. [2] Maarten Sap, Vered Shwartz, Antoine Bosselut, Yejin Choi, and Dan Roth. Commonsense reasoning for natural language processing. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: Tutorial Abstracts, pp. 27-33, Online, July 2020. Association for Computational Linguistics. [3] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Curran Associates, Inc., 2020. [4] Aitor Lewkowycz, Anders Johan Andreassen, David Dohan, Ethan Dyer, Henryk Michalewski, Vinay Venkatesh Ramasesh, Ambrose Slone, Cem Anil, Imanol Schlag, Theo Gutman-Solo, Yuhuai Wu, Behnam Neyshabur, Guy Gur-Ari, and Vedant Misra. Solving quantitative reasoning problems with language models. In Advances in Neural Information Processing Systems, 2022. [5] Susan Zhang, Stephen Roller, Naman Goyal, Mikel Artetxe, Moya Chen, Shuohui Chen, Christopher Dewan, Mona Diab, Xian Li, Xi Victoria Lin, Todor Mihaylov, Myle Ott, Sam Shleifer, Kurt Shuster, Daniel Simig, Punit Singh Koura, Anjali Sridhar, Tianlu Wang, and Luke Zettlemoyer. OPT: Open Pre-trained Transformer Language Models. arXiv preprint arXiv:2205.01068, 2022. [6] Aakanksha Chowdhery, Sharan Narang, Jacob Devlin, Maarten Bosma, Gaurav Mishra, Adam Roberts, Paul Barham, Hyung Won Chung, Charles Sutton, Sebastian Gehrmann, Parker Schuh, Kensen Shi, Sasha Tsvyashchenko, Joshua Maynez, Abhishek Rao, Parker Barnes, Yi Tay, Noam Shazeer, Vinodkumar Prabhakaran, Emily Reif, Nan Du, Ben Hutchinson, Reiner Pope, James Bradbury, Jacob Austin, Michael Isard, Guy Gur-Ari, Pengcheng Yin, Toju Duke, Anselm Levskaya, Sanjay Ghemawat, Sunipa Dev, Henryk Michalewski, Xavier Garcia, Vedant Misra, Kevin Robinson, Liam Fedus, Denny Zhou, Daphne Ippolito, David Luan, Hyeontaek Lim, Barret Zoph, Alexander Spiridonov, Ryan Sepassi, David Dohan, Shivani Agrawal, Mark Omernick, Andrew M. Dai, Thanumalayan Sankaranarayana Pillai, Marie Pellat, Aitor Lewkowycz, Erica Moreira, Rewon Child, Oleksandr Polozov, Katherine Lee, Zongwei Zhou, Xuezhi Wang, Brennan Saeta, Mark Diaz, Orhan Firat, Michele Catasta, Jason Wei, Kathy Meier-Hellstern, Douglas Eck, Jeff Dean, Slav Petrov, and Noah Fiedel. PaLM: Scaling Language Modeling with Pathways. arXiv preprint arXiv:2204.02311, 2022. [7] Shunyu Yao, Jeffrey Zhao, Dian Yu, Nan Du, Izhak Shafran, Karthik Narasimhan, and Yuan Cao. React: Synergizing reasoning and acting in language models. arXiv preprint arXiv:2210.03629, 2022. [8] Karl Cobbe, Vineet Kosaraju, Mohammad Bavarian, Mark Chen, Heewoo Jun, Lukasz Kaiser, Matthias Plappert, Jerry Tworek, Jacob Hilton, Reiichiro Nakano, Christopher Hesse, and John Schulman. Training verifiers to solve math word problems. arXiv preprint arXiv:2110.14168, 2021. [9] Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, brian ichter, Fei Xia, Ed H. Chi, Quoc V Le, and Denny Zhou. Chain of thought prompting elicits reasoning in large language models. In Advances in Neural Information Processing Systems, 2022. [10] Swaroop Mishra, Arindam Mitra, Neeraj Varshney, Bhavdeep Sachdeva, Peter Clark, Chitta Baral, and Ashwin Kalyan. NumGLUE: A suite of fundamental yet challenging mathematical reasoning tasks. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 3505-3523, Dublin, Ireland, May 2022. Association for Computational Linguistics. [11] Pengfei Liu, Weizhe Yuan, Jinlan Fu, Zhengbao Jiang, Hiroaki Hayashi, and Graham Neubig. Pre-train, prompt, and predict: A systematic survey of prompting methods in natural language processing. ACM Computing Surveys, 2022. [12] Takeshi Kojima, Shixiang Shane Gu, Machel Reid, Yutaka Matsuo, and Yusuke Iwasawa. Large language models are zero-shot reasoners. In Advances in Neural Information Processing Systems, 2022. 表 2 NumGLUE の Task 2 における Few-Shot 事例の数を変えたときの性能。最良の結果を太字で示す。 ## A Few-Shot 事例の数が性能に与え る影響 Few-Shot 事例の数が性能に与える影響を調べた。表 2 に結果を示す。Few-Shot 事例の数を増やすことで、外部ツールの利用の有無に関わらず、精度が向上することが確認された。なお、Few-Shot 事例は 20 例の時点で合計のトークン数が 3,000 近くあり、大規模言語モデルが処理可能なトークン長の制約から、Few-Shot 事例を増やすことによるこれ以上の性能改善は困難である。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q8-11.pdf
# オープンドメイン質問応答における 文集合と位置情報を用いた抽出精度向上に関する検証 初鹿憂柴田千尋 法政大学 理工学部創生科学科 yu.hatsushika.2r@stu.hosei.ac.jp,chiro@hosei.ac.jp ## 概要 近年,BERT や Transformer を用いた深層学習モデルが様々な自然言語処理のタスクで高い精度を上げているが,質問応答もその例外には当たらない. 特に,最近,鈴木ら [1] によって作成された日本語版質問応答データセットが公開されたことにより,日本語でも質問応答に関する研究を進めることが容易になった. 本研究では,日本語版質問応答データセットを用いて Retriever-Reader とよばれる質問応答のためのモデルに対して,精度改善に向けた手法を 2 つ提案し,その結果を検討する. Retriever 側は,質問文に対する関連度が高い記事候補を関連度の高い順に抽出する。一方,Reader が正解の解答を出力できる場合は,候補となる記事中に正解が含まれている場合がほとんどであることが,上記データセットを用いた実験の結果わかっている. したがって, Reader が出力する候補に正解が含まれる確率を,なるべく上げることが重要となる。記事は通常多数の文を含むが,そのすべての文が質問文に関連しているわけではない。そのため,同じ数のトークンを Reader に入力する場合,記事よりも文のほうがより多数の候補を入力することができる.本稿では,提案手法の 1 つとして,Retriverに,記事の代わりに文ごとに候補を抽出させることを提案する。 ## 1 はじめに 近年,ニューラルネットワークを用いたモデルがクイズ形式の質問に対して高精度に解答する研究が盛んに行われている [2]. これらの研究が進むことで従来の検索システムに比べて,より自然な言葉での質問応答が可能になると考えられている. 出題範囲に制限のない広範囲な一般常識が必要となるようなクイズに対して,高精度で解答するためには,なるべくたくさんの知識を利用することが必要である。そのため,正解するためには膨大な記事の中から,答えを含む可能性の高いものを抽出するプロセス,及び,抽出された記事のなかから,文脈を考慮して答えとなる短いフレーズを導くためのプロセスが必要となる。 与えられた質問に対して答えを正しく導き出すために用いられる主な手法としては, Retriever-Reader モデルが挙げられる [3]. Retriever とはある記事集合から質問文の情報を用いて関連する記事を抽出することが行われ Reader では Transformerを元にした言語モデルを用いて抽出した関連する記事から答えを導き出すことが行われる.正答数を上げるためには Retriever と Reader 両方の精度を上げる必要がある. Retriever の精度は抽出した $N$ 件の記事の中に答えを含んだ記事が含まれるかで測られ,Reader の精度は答えが出力できるかで測られる。今回の実験では Retrieverに Dense Passage Retriever [4]を,Reader に Fusion-in-Decoder [5] を採用する。本研究では 2 つの手法を提案する. 1 つ目は Retriever に従来用いていた記事集合を文ごとに分割した文集合を用いる. 2 つ目は抽出された記事に対して位置情報を用いる. ## 2 関連研究 ## 2.1 Retriever-Reader モデル Retriever-Reader モデルは文を抽出する役割である Retriever と答えを生成する役割である Reader という 2 つの部分から構成されている. Retriever では記事集合と質問文の類似度を計算することによって全ての記事に対して質問文との関連度スコアを付け,スコア上位から順番に抽出する。 Reader では抽出した記事集合から, 答えとなるフレーズを Transformer モデルにより生成する. 今回は埋め込み表現に変換し連結させることにより言語モデルの入力として解答 を生成する。 図 1 Retriever-Reader モデル ## 2.2 DPR (Dense Passage Retriever) DPR[4] は質問に対して関連する記事を大規模な記事集合から意味的に抽出するモデルである. まず質問文 $q$ と記事集合 $p$ に対して,BERT [6] を用いて密なべクトル表現 $E(q), E(p)$ にエンコードする.次に式 1 のように内積を計算し関連性の高い記事を順番に出力する. $ \operatorname{sim}(q, p)=E_{Q}(q)^{T} E_{P}(p) $ DPR の学習データセットは,Elasticsearch ${ }^{1)}$ を用いて作られ, $\left(q_{i}, p_{i}^{+}, p_{i 1}^{-}, p_{i 2}^{-}, \cdots, p_{i N}^{-}\right)$で定義される. $q$ は質問文, $p^{+}$はポシティブパッセージ, $p^{-}$はネガティブパッセージを表す. モデルは式 1 の損失関数が最小になるように 2 つの BERT エンコーダを学習する. ポジティブパッセージとの類似度が高く, ネガティブパッセージとの類似度が低いほど損失関数は小さくなる. $ \begin{aligned} & \mathrm{L}\left(q_{i}, p_{i}^{+}, p_{i 1}^{-}, p_{i 2}^{-}, \cdots, p_{i N}^{-}\right) \\ & =-\log \frac{e^{\operatorname{sim}\left(q_{i}, p_{i}^{+}\right)}}{e^{\operatorname{sim}\left(q_{i}, p_{i}^{+}\right)}+\sum_{j=1}^{n} e^{\operatorname{sim}\left(q_{i} p_{i j}^{-}\right)}} \end{aligned} $ ## 2.3 FiD (Fusion-in-Decoder) Fusion-in-Decoder[5] は Retriever-Reader モデルの Readerとして用いられている。言語モデルをべースに作られており,質問文と記事から答えを生成できる. Retriever 側で抽出された複数の記事をエンコー ドした後に連結することで複数の記事を大力可能にしていることが特徴である。モデルとしては,一般  的な翻訳モデルと同じように, 次トークンの予測するデコーダを用いている. ## 3 提案手法 提案手法としては,以下に述べるように,Retriever と Reader に対してそれぞれ 1 つずつ工夫を行なう. ## 3.1 文集合 記事集合として wikipedia などのクイズとは直接関連のない一般的な文書セットを用いた場合,記事の中に多数の文が含まれ,さらに質問文の解答には必要のない文も多数含まれている。例えば表 1 の例に示すように, 質問「ゴルフボールの表面につけられているくぼみのことをなんと言うでしょう」に対し,正答が「ティンプル」であるような問題に対して,「乱流」というタイトルの記事が抽出されている。記事には,3文含まれているが,回答には赤く色付けした 2 文目のみが関係していると考えらえる。 本研究では,関連する文をより多く正確に抽出するために,分け方を記事ごとから文ごとにすることを提案する。具体的には Retrieverに用いる記事集合を文集合に変更して,事前学習を行なう。文集合で \\ 学習をした Retrieverを用いて文章抽出を行なう。 表 1 抽出した記事に含まれる文章の例 ## 3.2 位置情報 もう一つの提案は,Readerの入力に関するものである.前述のように,Retriver は関連度の高い順に記事を列挙する. Retriver が関連度が高いと推定したとしても,必ずしも正答となるフレーズがその記事の中に含まれているわけでは当然ないが,実際に,実験結果から,図 2 に示すように,Retriever で抽出した記事を分析した結果,解答を含んだ記事が検索順位上位に集まる傾向が高いということがわかる.そこで,情報の重要度を記事位置ごと与えることで,精度が向上する可能性があるため, Reader に入力する際に位置情報を加える手法を提案する. 方法としては記事の埋め込み表現に位置エンコーディングを加算する.位置エンコーディングは Transformer Encoder [7] の位置エンコーディングと同じものを用いる. 図 2 解答が含まれる記事の分布 ## 4 データセット ## 4.1 コンテキスト 記事集合や文集合といった DPR で抽出する際の検索元のデータセットをコンテキストと呼ぶ. ## 4.1.1 記事集合 $\mathrm{AI}$ 王クイズ日本一決定戦に公開されていたウィキペディアを用いて作られた記事集合を利用した。記事数としては 4,288,199 件のものを利用する. 実際, 1 件の記事サイズは大きいため, 段落ごとに区切ったデータを記事集合として, 記事に段落があった場合同タイトルの別の記事として保存されている。 ## 4.1.2 文集合 今回記事ごとではなく,文ごとのインデックスを作成するために,AI王クイズ日本一決定戦に公開されていたウィキペディアのデータとコードを用いて集められていた記事集合を句点で区切り, 再度ラべルを付け直す。その結果,表 2 に示したようにラべルの総数が約 430 万件から約 2,000 万件に増加した. このため記事または文べクトルを作成する際に約 5 倍の時間がかかった。 表 2 検索インデックスの総数 ## 4.2 訓練データ 本研究では $\mathrm{AI}$ 王クイズ日本一決定戦で公開されていた質問応答タスクの日本語データセットを用いる. JAQKET [1]をもとにして作られている. 訓練データセットとして 22,335 件の質問文と解答が含まれている。また,質問文に対して Elasticsearch を用いることで正解が含まれている記事であるポジティブパッセージを抽出する. さらにネガティブパッセージとして回答が含まれていない記事を付与する. Retrieverの訓練データは質問文, $p^{+}$はポシティブパッセージ, $p^{-}$はネガティブパッセージを用いて $\left(q_{i}, p_{i}^{+}, p_{i 1}^{-}, p_{i 2}^{-}, \cdots, p_{i N}^{-}\right)$で定義される. Readerにおける訓練データは,質問文を Retriever に入力し検索をかけて得られる記事, 記事タイトルと質問文を上位 $\mathrm{N}$ 件まで組み合わせて作る. 評価データは JAQKET から訓練データに含まれない 1,000 件の問題を利用して,同様にして作られる. ## 5 実験 ## 5.1 実験設定 表 3 亿示したハイパーパラメータを基準としてコンテキストと Reader の入力情報に対して変更を加えて提案手法の有効性を検証する. Retriever に事前学習済みの日本語 BERT ${ }^{2}$ を用いた Dense Passage Retriever, Readerに事前学習済みの日本語 $\left.\mathrm{T} 5^{3}\right)$ を用いた Fusion-in-Decoder を採用する。また, Fusion-in-Decoder に入力するコンテキスト数は 50 と 100 で実験を行う. ## 5.2 抽出精度の比較 記事ごとのインデックスを使用した基準モデルと文ごとのインデックスを使用したモデルに関して比較実験を行なった,結果は表 4 のようになり,数値は,上位 $N$ 件までの記事または文を抽出した際に,  表 3 ハイパーパラメーター 答えが含まれた記事が抽出された割合を示す.インデックスのサイズは表 2 より文集合は記事集合の 4 から 5 倍であるため,コンテキスト 1 つ当たりのサイズは小さいと推測される. 文ごとで精度が約 0.85 になるのは上位 100 件の時であるのに対して記事ごとでは上位 50 件の時であるため, 抽出精度が同等に達するために必要なコンテキストの差は 2 倍である.そのため,少ない量の文で解答を抽出できていることが分かる. ## 5.3 解答生成精度の比較 次に記事集合を用いて学習させた FiD と文集合を用いて 60,000 ステップ学習させた FiD に対して評価を行う. 結果は表 5 のようになった. 記事集合でテキスト数 50 の時と, 文集合でテキスト数 100 の時を比較すると表 4 より解答を含んだコンテキストの数は同等であったが精度は記事集合の方が高いが,実際に Reader 入力されている文数やトークン数は,文集合のほうが少ないため,入力する文数やトークン数を揃えて,精度を比較をする必要がある. 表 5 FiD の結果 ## 5.4 位置情報を入力した結果 DPRを用いて抽出した記事 50 件に対して Transformer の位置エンコーディング [7] を参考に位置情報を追加する. 位置情報を加えたモデルと基準モデルに対して 90,000 ステップ学習する. 位置情報を加えて学習された FiDに対して行なった評価を表 6 に示す。 次に DPR を用いて抽出した文 50 件, 100 件に対して位置エンコーディングを加えて 60,000 ステップ学習する. 位置情報を加えて学習された FiD に対して行なった評価を表 7 に示す. 表よりわかるように,少なくとも本稿で述べた位置情報の入力の手法では,精度向上に寄与しないことがわかる. 表 7 文集合と位置情報を用いた結果 ## 6 結論 本稿では,コンテキストとして用いていた記事集合を文集合に変えたることにより,DPR での抽出精度がどのように変化するかを検討した.その結果,少ない文章数で解答を含めることができていると言える。一方で,FiD で記事集合と文集合で解答を含むコンテキストを抽出する精度が同等であった場合は, Reader の精度は記事集合の方が高くなっている事がわかる.これは,記事集合の場合は,入力の文数が少なくなっているためであり,入力の文数やトークン数を揃えた上で比較する必要があるため,フューチャーワークとする.位置情報の入力に関しては, 精度の改善は認められなかったが,問題それぞれで分布が少しずつ変わっている可能性があるため,今後は広い範囲に対して位置情報を取る改善が必要である. 今後の展望として,コンテキストを増やして記事集合と文集合の比較実験を行うことを考えている.位置情報に関しては抽出データに対して更に分析を行う必要がある. また Retriever-Reader モデルにおいて FiD の出力精度を向上させるために DPR で抽出する情報の性質を検証する必要がある. ## 謝辞 今回研究するにあたり,町田秀輔氏には実験の準備やコードのエラーの解消に助言を頂いたこと深く感謝申し上げます。本研究の一部は JSPS 科研費 JP18K11449 の助成を受けたものです. ## 参考文献 [1] 鈴木正敏, 鈴木潤, 松田耕史, 西田京介, 井之上直也. Jaqket: クイズを題材にした日本語 qa データセットの構築. 言語処理学会第 26 回年次大会発表論文集, pp. 237-240, 2020. [2] Ai王クイズ日本一決定戦,(2022-9 閲覧).https:// sites.google.com/view/project-aio/competition3. [3] Fengbin Zhu, Wenqiang Lei, Chao Wang, Jianming Zheng, Soujanya Poria, and Tat-Seng Chua. Retrieving and reading: A comprehensive survey on open-domain question answering, 2021. [4] 加藤拓真, 宮脇峻平, 西田京介, 鈴木潤. オープンドメイン qa における dpr の有効性検証. 言語処理学会第 27 回年次大会発表論文集, pp. 1403-1407, 2021. [5] Gautier Izacard and Edouard Grave. Leveraging passage retrieval with generative models for open domain question answering. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics, pp. 874-880, 2021. [6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert:pre-training of deep bidirectional transformers for language understanding. In In NAACL-HLT, 2019. [7] Denis Rothman, 黒川利明 (訳). Transformer による自然言語処理. 朝倉書店, 2022.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q8-12.pdf
# 答弁の種類に着目した抽象型要約に基づく議会会議録質問応答 河合輝也 ${ }^{1}$ 秋葉友良 ${ }^{1}$ 増山繁 ${ }^{2}$ 1 豊橋技術科学大学大学 2 東京理科大学 kawai.teruya.ic@tut.jp akiba@cs.tut.ac.jp masuyama@rs.tut.ac.jp ## 概要 地方議会がウェブで公開している議会会議録は、長く複雑な構造をしているため読みづらく十分に活用されているとは言い難い。本研究では,住民が議事録を読まずに行政の疑問を解決できる質問応答手法を提案する。特に、対話、ニュース記事を複数の側面から要約する研究を、本タスクに適用する。 まず、答弁要約のクラスを 4 種類定義し、サンプルから分布を調べた。その結果、ある議案に関して既に行った対策・措置である「進捗」これから行う対策・措置である「計画」が全体の $92 \%$ 占めていることを確認した。質問に対する回答を「進捗」と 「計画」に着目して要約するモデルを実装し、ベー スラインを大幅に上回る性能を示した。 ## 1 はじめに 近年、地方議会が情報を一般公開し行政の透明化を進めている。すべての都道府県議会が独自に情報公開の条例を新たに制定・改定し、現在は本会議の会議録がインターネットで閲覧できる。本会議では委員会の審議を通過した議案について質疑討論が行われる。住民は会議の概要を「〜だより」のような刊行物や各種報道を通じて知る。これらのメディアを通じて得られる情報は、多くの住民に影響があるものや話題性が高いものが中心で議論すべてを網羅していない。ごく少数の住民に関係のある細かい内容は報道されない場合も多く、詳細を知りたい住民は最終的に公開されている会議録を読む必要がある。 議会会議録は複雑な構造で長く読みづらいという問題がある。例えば、東京都議会の会議録は一括質問一括答弁形式になっている。ある場合には議員が約 2 万 2 千文字で 7 つ質問した後に、知事が約 2 万 3 千文字で 7 つ答弁している。このように、挨拶や議論とは直接関係ない話を含み長くなることと、一括質問・一括答弁で質問と答弁の対応関係が複雑な ため、読みづらい。 本研究では、議会会議録を基に行政に関する質問の回答を出力する質問応答を提案する。提案手法では質問に関連する答弁を抽出・要約する際、特に答弁の種類に着目して設計した。東京都の職員が作成した会議録の人手要約を分析し、4 種類にクラス定義、分類した。4クラス中の「進捗」と「計画」が要約生成において重要な要素であるという仮説を立て、モデルを実装した。 ## 2 関連研究 質問応答 $(\mathrm{QA})$ システムは、一般的に質問分析、情報検索、回答抽出、回答選択の各要素から構成される。初期の研究では、ルールベースや統計的手法が用いられていたが、現在ではほとんどの研究がニューラルネットワークを使用している。 $[1,2,3]$ $\mathrm{QA}$ システムが扱う質問は、ファクトイド質問とノンファクトイド質問に分けることができる。ファクトイド質問とは、名前、番号、場所など、事実に基づいた答えを必要とする質問である。非ファクトイド質問とは、理由や事象の説明に基づく回答を求める質問である。QA システムの研究では、ファクトイド型質問が主流だが、この研究ではより難易度の高いノンファクトイド型に取り組む。 テキストの要約は、ニュース記事、論文、書籍など、様々な分野で研究されている。要約には、抽出型と抽象型の 2 種類がある。前者はテキストから単語を選択して文章を生成するものであり、後者は単語の意味情報を捉えて文章を生成するものである。抽出的要約の研究として、Kevin Knight と Daniel Marcu [4] は、文章を構造的に分析し、木構造にして重要な情報を圧縮する方法を提案した。TextRank[5] は文章をグラフ構造で表し、各ノード間の関係から要約を作成する。Latent Semantic Analysis[6] を用いたテキスト要約は、文の行列の特異値分解によりトピックを計算し、文を選択するトピックベースの手法である。 最近の研究で注目されているのが抽象的要約である。Encoder-Decoder モデルを用いて、入力に存在しない単語を出力することが可能になった [7]。これは、Encoderが文を潜在的な表現に圧縮し、Decoder が圧縮された表現から文を生成するモデルである。抽象型要約は文の潜在的な意味を捉えた表現を可能にするが、しばしば冗長な情報や矛盾した情報を生成してしまうという問題がある。Pointer-Generator Networks は、原文から単語をコピーできるアーキテクチャを提案した [8]。また、Transformer は、RNN や CNNを用いず、Attention のみを用いた高速かつ高精度な Encoder-Decoder モデルである [9]。 対話要約タスクをChen らはマルチビュー Sequence-to-Sequeuence モデルで取り組んだ [10]。分類モデルで会話構造を明確にし、対話要約の複数のビューで生成した。ニュース記事のテキストをドメインに合わせた複数の側面 (アスペクト) から要約する研究がある [11]。クエリベースの要約は文書固有の質問に答えるが、実際のユーザーのニーズは多くの場合、抽象的な疑問の解決であると著者らは考えている。ニュース記事の属するドメインにあらかじめ定義された複数の側面から要約を生成する。例えば、地震ドメインのニュースは震源地、震度などの地理的側面と被災者の状況、政府の対応などの被害・復興的側面から要約するように多様なニーズに危える要約生成を著者らは提案した。 ## 3 提案手法 提案手法を図 1 に示す。提案手法は抽出・要約フローをコンテンツ選択器と要約モデルで実装している。コンテンツ選択で答弁の「進捗」と「計画」を抽出する。それぞれを要約モデルに入力し、進捗要約と計画要約を生成する。 東京都議会は会議録を職員が要約し「都議会だより」でウェブで公開している。人が要約を作成する際どのような側面に着目するか調べるため、都議会だよりの答弁要約を分類した。人手答弁要約は基本的に 1 2 文で構成されている。119 件の答弁要約を文集合に分割し、答弁要約を分類した。答弁要約のクラス定義とクラス分類結果を表 1,2 に示す。進捗・計画と分類されたものが全体の約 $92 \%$ 占める。よって、その 2 つ側面から要約を生成することを今回の方針とした。 ## 3.1 コンテンツ選択器 都議会会議録は一括質問一括答弁形式で記述されているため、 1 発言が複数のトピック (話題) で構成されている。質問に関する答弁部分を抽出するため、答弁をトピック毎のセグメントに分割する。Kanasaki ら [12] の研究を参考に、接続詞、開始表現、終了表現の辞書を作成、マッチしたテキストの前後で分割する。答弁をセグメント集合 $S=\left.\{s_{1}, s_{2}, \ldots, s_{n}\right.\}$ (n: トピック数) と表す。 次に、クエリ (質問とトピック)に基づいてセグメント集合から 1 つのセグメントを選択する。セグメントの検索には統計的手法である Okapi BM25[13] を用いる。提案手法におけるクエリは、質問とそれに関するトピックである。セグメントを検索する際に、質問とトピックは重要性が異なると考えた。質問 $q$ とトピック $t$ のスコアをそれぞれ BM25 で計算し、重み $\alpha$ でバランスをとる、式 1 のように設計した。 $ \bar{s}=\underset{s_{i} \in S}{\arg \max }\left(\alpha \operatorname{score}\left(s_{i}, q\right)+(1-\alpha) \operatorname{score}\left(s_{i}, t\right)\right) $ 予備実験により、 $\alpha=0.4$ のときセグメント選択のパフォーマンスが最大になることが分かった。また、セグメント選択手法は、Okapi BM25 と Sentence BERT[14]を比較した結果、今回のタスクでは前者の手法が優れていたためこちらを採用した。 ## 3.2 要約モデル 選択したセグメントからニューラルネット要約モデルで要約を生成する。進捗・計画要約を 2 モデルで行う「進捗/計画要約 2 モデル」と 1 モデルで行う 「進捗/計画要約 1 モデル」の 2 つの手法を試した。図 2 に 2 つの要約手法を示す。2 モデルは進捗要約モデルと計画要約モデルが独立して存在する。それぞれにセグメントを入力すると進捗要約、計画要約 図 1 提案手法 ## ・進捗/計画要約2モデル ## $\cdot$進捗/計画要約1モデル 図 22 つの要約手法 が出力される。1 モデルは共通の進捗/計画要約モデルで進捗要約、計画要約を生成する。入力セグメントにタグ付けすることで両者を区別し、進捗タグには進捗要約、計画タグには計画要約が出力される。 1 モデルは共通のモデルによってデータセットが互いに共有され、要約の性能向上に寄与することを期待した。進捗/計画要約 2 モデル、進捗/計画要約 1 モデルのいずれもセグメントを進捗・計画の側面から要約する進捗要約、計画要約を生成する。最終的に進捗要約と計画要約を結合したテキストを質問に関する回答 (要約)とする。 どちらの手法も、モデル学習のために答弁セグメント-進捗要約、答弁セグメント-計画要約のソー ス・ターゲットペアが必要である。都議会だよりの人手要約には進捗、要約の区別がない。ターゲット側のデータ構築のため、人手要約を進捗要約・計画要約に分けるニューラルネット分類モデルを使用した。人手要約は文単位に分割し、学習済みクラス分類モデルによって進捗、計画、その他に分けられる。進捗と計画に分類された文をそれぞれ進捗要約モデル、計画要約モデルのターゲットとして学習に利用する。分類モデルは、表 1 のクラス定義に従って 478 件の人出要約のラベル付けデータを作成し、学習させた。 ## 4 実験 表 3 会議録のデータ構造 Volume(年月), Number(号), Date(日付), Title(会議録の表題), SpeakerPosition(発言者の役職), SpeakerName(発言者の氏名), QuuestionSpeaker (発言に対応する質問者の氏名と役職), Speaker (発言者の氏名と役職), Utterance(発言) 表 4 都議会だよりのデータ構造 ID(識別番号), MeetingName(会議名), Date(日付), Headlines (質問者の発言全体の要旨), SubTopic (サブトピック), QuestionSpeaker(質問者), QuestionSummary(質問の要約), AnswerSpeaker (答弁者), AnswerSummary(答弁の要約) ## 4.1 データセット 東京都議会の会議録とその人手要約「都議会だより」は Web で公開されている。NTCIR-16 QA Lab-PoliInfo-3[15] が提供する JSON 形式で構造化した会議録、都議会だよりデータを使用した。会議録と都議会だよりのデータ構造をそれぞれ表 3,4 に示す。会議録データは発言 (Utterance) が 1 文が 1 フィールドで、その他の項目と共に構成されている。都議会だよりデータは質問要約 (QuestionSummary) や答弁要約 (AnswerSummary) などの項目が含まれる。テストでは都議会だよりの AnswerSummary が空欄で、会議録を基に推論を行う。 ## 4.2 学習データ構築 要約モデルを学習するためには答弁セグメント進捗要約、答弁セグメント-計画要約のソース・ター ゲットペアが必要である。ソース側のセグメントは式2のように選択した。 $ \bar{s}_{\text {train }}=\underset{s_{i} \in S}{\arg \max }\left(\beta \operatorname{score}\left(s_{i}, a\right)+(1-\beta) \operatorname{score}\left(s_{i}, t\right)\right) $ 答弁要約 $\mathrm{a}$ とトピック $\mathrm{t}$ から、beta $=0.95$ で BM25 によって各セグメントの類似度を計算、最も高いセ グメントが $\bar{s}_{\text {train }}$ に代入される。 ターゲット側のデータ構築に利用した分類モデルは日本語 Wikipedia 学習済み BERT モデルをベースに転移学習を行った。以上より、進捗要約モデル、計画要約モデルのソース、ターゲットを作成し学習を行った。 ## 4.3 実装の詳細 要約モデルは日本語 Wikipedia 学習済み $\mathrm{T} 5$ モデルをべースに実装した。前処理として、Juman++[16] による単語セグメンテーションと、SentencePiece[17] によるサブワードセグメンテーションを行なった。 ## 4.4 比較手法 LAST-1 最終文を抽出し要約とする最も単純な手法。ニュース記事要約タスクでは先頭文を抽出する LEAD-1 が一般に用いられるが、会議録の場合、最後に総括されることが多いため LAST-1 で行う。 要約 1 モデル答弁の種類 (進捗、計画)を考慮しない手法。選択したセグメントを要約モデルのソース、答弁要約をターゲットとする。 NTCIR SOTA モデル同様のタスクに取り組んだ他チームの手法 [15]。セグメント選択時に質問と答弁の 1 対 1 の対応関係を明確にしている。 ## 4.5 評価結果 要約の評価は、NTCIR の評価方法に準拠し、リファレンスとの N-gram の重なりを図る指標である ROUGE を使用した。評価結果を表 5 に示す。F-1を見ると、答弁の種類を他の考慮するモデルが比較手法のスコア上回っていることが分かる。答弁の「進捗」「計画」に着目した要約の有効性があったと言える。また、進捗/計画要約 2 モデルと進捗/計画要約 1 モデルを比べると進捗・計画要約モデルは分けて実装した方が高いスコアを示した。1 モデルは要約そのものと進捗・計画要約の特徴を混在してしまい、区別して学習できなかった可能性がある。 表 6 に進捗/計画要約 2 モデルの出力例を示す。進捗要約を緑色、計画要約を青色で表した。フォー マットの観点から見ると、正解要約よりも生成された要約は統一されている。生成要約はすべて進捗要約、計画要約の 2 文だが、正解要約は 3 例が計画要約のみ、 2 例が両方となっている。正解要約は人が重要だと思った部分を可能な限り短い要約に収めているため、要約者の主観で内容が変化する。一方表 5 ROUGE 評価結果 表 6 進捗/計画要約 2 モデルの出力例 \\ 水辺空間を生かした魅力ある都市の顔づくりを進めるため、未来の東京戦略ビジョンに外堀浄化プロジェクトを位置づけた。水源・水量の確保や導水路の整備方法など検討を進め、水の都にふさわしい東京を実現。 都立産業技術研究センターにハイオ技術を活用したへルスケア産業への支援を開始。専門部署を設置し、更なる発展を図る。正解要約 経済的支援策を着実に実施するとともに 3 年度からの次期支援計画の改定を進める。 コールセンター回線増設や聴覚障害の方のファクシミリ受け付け等、体制を充実。 導水の水源、水量の確保や導水路の整備方法等を検討し、着実に進める。 都立産業技術研究センターで支援開始。 2 年度は専門部署を設置し取組を更に発展。 感染症対策本部を中心に課題を検証。課題の検証を行い、今後懸念される感染拡大への備えに万全を期す。 $ \begin{aligned} & \text { 課題を検証しなが } \\ & \text { ら見直しを図ったき } \\ & \text { た。後とも感染拡 } \\ & \text { 大の備えに万全を期 } \\ & \text { す。 } \end{aligned} $ で、生成要約は統一されたフォーマットで要約が構成されているため、何を採用するのかという主観的判断が減少している。 ## 5 おわりに 本研究では、議会会議録を基に行政に関する質問の回答を出力する質問応答システムを構築した。人手要約の分析により本稿で定義した「進捗」と「計画」が答弁要約の重要な要素であると仮定した。実際に「進捗」と「計画」の側面から要約する提案システムは性能の向上させることを確認した。特定の側面から要約を生成する提案手法は要約システムの頑健性を高めることにも貢献すると考える。 ## 参考文献 [1] Di Wang and Eric Nyberg. A long short-term memory model for answer sentence selection in question answering. In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pp. 707-712, Beijing, China, July 2015. Association for Computational Linguistics. [2] Danqi Chen, Adam Fisch, Jason Weston, and Antoine Bordes. Reading Wikipedia to answer open-domain questions. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1870-1879, Vancouver, Canada, July 2017. Association for Computational Linguistics. [3] Siva Reddy, Danqi Chen, and Christopher D. Manning. CoQA: A conversational question answering challenge. Transactions of the Association for Computational Linguistics, Vol. 7, pp. 249-266, 2019. [4] Kevin Knight and Daniel Marcu. Statistics-based summarization - step one: Sentence compression. 052000. [5] Rada Mihalcea and Paul Tarau. TextRank: Bringing order into text. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, pp. 404-411, Barcelona, Spain, July 2004. Association for Computational Linguistics. [6] Makbule Gulcin Ozsoy, Ferda Nur Alpaslan, and Ilyas Cicekli. Text summarization using latent semantic analysis. Journal of Information Science, Vol. 37, No. 4, pp. 405-417, 2011. [7] Ilya Sutskever, Oriol Vinyals, and Quoc V Le. Sequence to sequence learning with neural networks. In Z. Ghahramani, M. Welling, C. Cortes, N. Lawrence, and K.Q. Weinberger, editors, Advances in Neural Information Processing Systems, Vol. 27. Curran Associates, Inc., 2014. [8] Abigail See, Peter J. Liu, and Christopher D. Manning. Get to the point: Summarization with pointer-generator networks. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1073-1083, Vancouver, Canada, July 2017. Association for Computational Linguistics. [9] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [10] Jiaao Chen and Diyi Yang. Multi-view sequence-tosequence models with conversational structure for abstractive dialogue summarization. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 4106-4118, Online, November 2020. Association for Computational Linguistics. [11] Ojas Ahuja, Jiacheng Xu, Akshay Gupta, Kevin Horecka, and Greg Durrett. ASPECTNEWS: Aspect-oriented summarization of news documents. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 6494-6506, Dublin, Ireland, May 2022. Association for Computational Linguistics. [12] Katsumi Kanasaki, Jiawei Yong, Shintaro Kawamura, Shoichi Naitoh, and Kiyohiko Shinomiya. Cue-PhraseBased Text Segmentation and Optimal Segment Concatenation for the NTCIR-14 QA Lab-Polilnfo Task, pp. 85-96. 112019. [13] Giambattista Amati. BM25, pp. 257-260. Springer US, Boston, MA, 2009. [14] Nils Reimers and Iryna Gurevych. Sentence-bert: Sentence embeddings using siamese bert-networks. CoRR, Vol. abs/1908.10084, , 2019. [15] Hideyuki Shibuki Yasutomo Kimura. Overview of the ntcir-16 qa lab-poliinfo-3 task. In Proceedings of The 16th NTCIR Conference, 2022. [16] Arseny Tolmachev, Daisuke Kawahara, and Sadao Kurohashi. Juman++: A morphological analysis toolkit for scriptio continua. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 54-59, Brussels, Belgium, November 2018. Association for Computational Linguistics. [17] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q8-13.pdf
# 算術問題におけるニューラルモデルの構成的推論能力 工藤慧音 1 青木洋一 1 栗林樹生 ${ }^{1,2}$ Ana Brassard ${ }^{3,1}$ 吉川将司 1 坂口慶祐 1,3 乾健太郎 1,3 1 東北大学 ${ }^{2}$ Langsmith 株式会社 ${ }^{3}$ 理化学研究所 \{keito.kudo.q4, youichi.aoki.p2 \}@dc.tohoku.ac.jp \{kuribayashi, yoshikawa, keisuke.sakaguchi, kentaro.inui\}@tohoku.ac.jp ana.brassard@riken.jp ## 概要 未知の問題への汎化を達成する上で,問題の構成要素を捉え既知の知識を組み合わせる能力が重要となる.しかし,近年の言語モデルがどの程度構成性を捉えられているかは記号推論の文脈ではまだ明らかでない. そこで本研究は, 多段算術記号推論デー タセットを用いた実験を行い,構成的推論能力の検証を行なう,具体的には,問題の複雑さを整理したスキルツリーを定義し統制的に分析する. 実験の結果,言語モデルは体系性の習得が最も困難であり,単純な数式の組み合わせに対する汎化でさえ難しかった. また追加の分析から, 入力系列に書かれない知識へのアクセスが必要な問題で, 体系性に対する汎化が特に困難である明らかとなった。 ## 1 はじめに 近年,ニューラルモデルに関する技術の発展により機械による自然言語理解は大きく進歩し, 多くのタスクがニューラルモデルによって解決されるようになってきた. しかし, 言語処理を行う上で必要な要素の 1 つである記号推論能力のニューラルモデルとの融合については,重要な目標の 1 つとして $[1,2]$調査が進行中である [3]. 現状,ニューラルモデルがどの程記号推論を実現については相反する結果が報告されている.例えば,ニューラルモデルが多段推論をある程度解くことができると報告する研究もある一方 [4], 単純な記号演算を行うことさえ困難であるとするものも存在し [5], どのような観点・条件において, どの程度の推論が実現可能なのかといった統制的な分析が必要とされている. 本研究では,多段算術記号推論データセットを用い,問題の複雑さを制御しながらニューラルモデルの多段推論能力を評価する. 特に,未知の問題への 図 1 算術記号推論における構成性の種類 汎化の際に重要となる構成性に焦点を当てて分析を行う. 具体的には, 図 1 に示すように,(i) 体系性, (ii) 生産性,(iii) 代入可能性という3 3つ構成性を軸として調査を行い, 単純な問題設定で学習したモデルが,そこで学習した要素を組み合わせ一段複雑な問題を解けるかという,言語モデルの構成的な汎化性能を評価する。 モデルの能力を系統的に調査するために, 図 2 に示すように, 算術記号推論の複雑さを階層的に定義した構成性に関するスキルツリーを導入する. (スキルツリーは教育学の分野において,段階的な学習過程を可視化するための手法を示す用語である [6]. )この階層を足がかりに,ニューラル言語モデルの構成的なの限界を明らかにする。主な実験結果は以下の通りである. - 3 種類の構成性の中で体系性への汎化が最も困難であり, 比較的単純な組み合わせであっても汎化を達成することが困難である。 - 特に, 入力系列中に明示されていない知識を要する問題において体系性に対する汎化への困難度が増す。 ・本実験の範囲では,途中の推論過程をモデルに学習させた場合であっても, モデルが体系性を捉えることは困難であった. ## 2 問題設定 典型的な記号推論(手続き型プログラミング言語,アセンブリ言語など)は,少なくとも3つの基本的な記号操作,代入 $(\mathrm{a}=2)$, 算術演算 $(1+2)$, 参照 (a=?) で構成される. そこで,これら 3 つの基本演算を組み合わせた以下のような多段算術推論問題を解くことを目標とする。 問題: $A=1, B=2, C=A+2, C=$ ? 答え: 3 最後に特定の変数に代入されている値を問われる. 答えは必ず一意に定まり,問題設定によっては,最後の問いに直接関わらない数式が含まれる. また,問題は以下の 5 種類の基本的な数式を並べ合わせることで生成される:(i) $A=1$ (代入),(ii) $A=B$ (参照\&代入), (iii) $A=1+2$ (演算\&代入), (iv) $A=B+2$ (演算\&代入\&参照,参照),(v) $A=$ ? (参照). このような算術推論データセットでは,問題文中の数や推論の複雑さを自由に制御することが可能であり,統制した実験を行うために適している。自然言語でのモデルの推論能力評価という視点からは,自然言語の表現の多様さといった難しさとは切り分けて,純粋な算術推論能力を調査する試みと見ることができる. また, 本研究で考える算術推論の問題は,DROP [7] に見られるような自然言語の算術推論問題に自然に変換することが可能である. ## 3 算術推論におけるスキルツリー ## 3.1 多段記号推論における構成性 構成的な汎化を体系性,生産性,代入可能性の 3 つの軸に分解する [8]. これらの軸を基準として, ニューラル言語モデルがどの程度構成に対する汎化を達成できているかを評価する。 体系性 (systematicity) は,既知の異なる概念を組み合わせてより複雑な概念を理解する能力である.この能力を評価するため, 初めに,数種類の基本的な処理 (例: 加算 $A=1+2, A=$ ? や選択参照 $A=1, B=2, B=$ ?) の学習を行う. その後, 学習した基本的な処理の組み合わによって構成される問題(例 : $A=1+2, B=2+3, B=$ ?) における性能を測定する. 生産性 (productivity) とは既知の短い問題の解き方をもとにして,より長い問題や複雑な問題を理解する能力のことである。この能力を評価するため,初めに, 短い数式 (例: $A=1+2, B=2+3, B=$ ?) でモデルの学習を行う. その後, 同様の問題形式のより長い問題 図 2 構成的な汎化能力を評価するためのスキルツリー.事前学習に利用した基本演算は灰色,WA を計算するためのファインチューニング用いたデータは水色で示している. 各辺に示した“sys” (=体系性) “prod” (=生産性) はそれぞれ,増加する複雑さの種類を表している。 (例: $A=1+2, B=2+3, C=3+4, C=$ ?) を解いたときの性能を測定する。 代入可能性 (substitutivity) は,問題中の特定の構成要素が他の (見たことがない) 構成要素に置き換わった場合であっても,変わらず推論を行うことができる能力である.この能力を評価するため,学習時に見たことがない語彙が問題文中に現れた時に,ニューラルモデルは推論することができるかどうかを測定する.具体的には,学習時とテスト時で問題文に用いる変数名を変えて実験を行う(例: $A=1+2, A=$ ? で学習を行い,その後 $\alpha=1+2, \alpha=$ ? を解くことができるかを評価する). ## 3.2 スキルツリー 記号推論の複雑さを(階層的に)整理した構成性に関するスキルツリーを導入し,組み合わせの複雑さが異なる問題を用いて段階的にモデルを評価することで,多段記号推論におけるニューラル言語モデルの弱点を正確に明らかにする。 具体的には,10 種類の記号推論タスクを設計する. 各設定の概要と設定間の階層的な関係を図 2 のスキルツリーに示す. 各頂点が複雑さの異なるタスク設定に対応し,各辺が階層的な複雑さの増加を表す. 各設定のデータについては,図 2 に記述された例題と同じ式の形式で問題を作成しており,変数 (A,B など) と数字 (1,2など) のみ無作為に変更してデータセットを作成する(詳細は Appendix C を 表 1 それぞれの設定における正解率を示している. “task” の行は各設定におけるドメイン (学習 $\rightarrow$ 評価)を表している。それぞれのタスク設定はスキルツリー (図 2) の値に対応している. “type” の行はそれぞれの設定において評価の対象としている構成性の種類 (“sys.” = 体系性 “prod." = 生産性, “subst." = 代入可能性) を表している. 参照)。いずれも,一連の記号推論の後に問われた変数に格納された数值を出力する問題である. ## 4 実験 ## 4.1 実験設定 学習とテストの設定の組み合わせを適切に選択することにより(例えば,図 2 のタスク $1 , 2$ を学習ドメイン,4を評価ドメイン),モデルの構成的な汎化能力を多面的に評価した。例えば,タスク 1 $(A=1+2, A=?)$ と $2(A=1, B=2, B=$ ? )を学習データ, タスク $4(A=1+2, B=2+3, B=$ ? を評価データとして, 演算操作 $(a+b)$ と参照操作 ( $A=c, B=d, B=$ ?) に対してモデルがどれだけ汎化しているのかを評価できる。 形式的には, $\mathscr{D}_{\text {train }}=\left.\{d_{\text {train1 }}, \cdots d_{\text {traink }}\right.\}$ と $d_{\text {test }}$ がそれぞれ学習ドメイン集合と評価ドメインを表すものとする.ここで,「ドメイン」とは,スキルツリー (図 2) の特定の頂点に相当する. 学習設定: 学習用ドメイン $d_{\text {train }}$ の学習データと, 各学習ドメインの問題を解くのに要する基本演算 (代入, 算術演算, 参照) によって構成された学習デー タの和集合を用いてモデルを学習する. 5 エポック続けて検証データセットにおける正解率が上がらない,または正解率が $100 \%$ に到達した時点で学習を停止する. 評価設定: テストドメイン $d_{\mathrm{test}}$ のテストデータに対する正解率を計算する.ここでは,学習の効率を測るために, (i) ゼロショット正解率 (ZA) と (ii) 加重平均正解率 (WA) という 2 つの指標を用いた [9]. WA の測定では,テストドメイン $d_{\text {test }}$ の学習データを用いてモデルを追加で学習し,モデルのパラメータを更新する度に検証データにおける正解率を測定し加重平均を算出した(詳細は Appendix A を参照のこと). モデルと事前学習: 事前学習済みの系列変換モデルとして広く使われている T5 [10] の 3 種類のサイズ (base,large,xl)を使用した. 実験は事前学習したパラメータを初期値として行った。これは,最終的な目標は自然言語上での数量推移論 (記号推論) 問題を解くことにあるためである. ## 4.2 実験結果 表 1 の 1 列目に示した 9 つの学習ドメインと評価ドメインの組み合わせについて実験を行った(学習ドメイン $\rightarrow$ 評価ドメイン).6つの設定については体系性に対して,残り 3 つの設定は生産性に対する汎化性能を評価した. さらに,各設定において,訓練ドメインで用いた変数名とは異なる変数名(例えば,Aの代わりに)を用いた評価データを用いて,代入可能性に対する汎化性能の評価を行った. 表 1 に実験結果を示した. 実験の結果以下の 4 つの傾向が見らた. ・体系性に対する汎化は生産性に対する汎化に比べて困難であった。 - 単純な基本演算の組み合わせ (例: $1,2 \rightarrow 4$ ) であっても,少数の学習データからの汎化は困難であった. ・代入可能性に対する汎化は達成できた. ・モデルサイズによって性能に (特に ZA について) 大きな差は見られなかった. また,意味解析の文脈でニューラルモデルが体系性に対する汎化能力を欠くことが示唆されていた [11]. 今回の結果は算術多段推論の文脈における, この知見を裏付けるものでもある。ここで,体系性に対する汎化を検証する設定 $(2,3 \rightarrow 5)$ に着目し, “String” は算術演算の代わりに文字列演算を用いた場合の結果である. “Step” は途中の推論過程を生成させた場合の結果である. ニューラルモデルがなぜこの設定において苦戦するのかを理解するため,この設定における複雑さを分解し,追加のモデルの性能の分析を行った. 体系性に対する汎化の難しさは算術演算に起因するのか? 四則演算を文字列演算 (詳細は Appendix C を参照のこと) に置き換え,その他は同様の設定で実験を行った. 算術演算と文字列演算の違いは,文字列演算は入力系列の要素をコピーするだけで実現できるのに対し(例:12+34=1234),算術演算(例:1+2=3) はモデルの内部に格納されている算術知識にアクセスする必要がある点である. 実験の結果,モデルサイズが大きい場合には,文字列演算では体系性の弱点を克服する傾向が見られた. (例:x-large モデルでのゼロショット精度で $86.9 \%$ ).このことから,入力には示されていない推論中に生成される中間情報へのアクセスが,体系性に対する汎化の難しさの要因となっていると考えられる。 ## 途中の推論過程を見せることに効果はあるのか?先行研究において, 途中の推論過程をモデルに出力 させることで,ニューラルモデルの多段推論能力が 向上することが示唆されている $[12,13]$. 同様に途中の推論過程を明示的に生成させることで,先の分析で明らかとなった体系性に対する汎化の難しさが 緩和されるかを検証した. 具体的には,学習 (事前学習とWAを測定するための学習)時に途中の推論過程 $(A=1+2, B=2+3, C=4+5, B=? ; B=2+3, B=5)$ を出力す るようにモデルを学習させた. 正解率は,途中の推論過程を含む出力が完全に一致する割合とした. 実験の結果,途中の推論過程の生成による大きな性能向上は見られなかった(表 2). このことから,少 なくともこのような統制された実験環境において は,途中の推論過程を生成させる手法の効果は限定的であることが明らかとなった。 ## 5 関連研究 ニューラルモデルの構成的な汎化能力の解析と算術多段推論問題については,個別に研究がなされてきた. 本研究はこれら 2 つの研究の方向性を統合したものである. ニューラルモデルの構成的な汎化能力については, SCAN [3], COGS [11], CFQ [14] などのデータセットを用いて分析が行われてきた。これらは主に意味解析の文脈での構成性に着目しており,記号推論における構成的な汎化能力には着目していない。算術推論に関しては,DROP [7]などのべンチマークを用いてニューラルモデルの能力を分析することが一般的である。しかし,最近このようなデータセットにはタスクを解くための表面的な手がかりがあることが報告されている [15]. そのため, ニューラルモデルが実際にどの程度の算術推論を実現しているか不明であった.統制されたデータセッ卜を用いた本研究は,算術推論でのニューラルモデルの弱点を正確に把握することに寄与している. ## 6 おわりに 本研究では,構成的な汎化能力という切り口で,近年のニューラル言語モデルの算術多段推論能力の分析を行った. ニューラルモデルの能力を体系的に分析するため,多段記号推論データセットの複雑さを整理したスキルツリーを定義した. 実験の結果, ニューラルモデルは体系性に対する汎化が弱点であり,単純な構成要素を組み合わせに対する汎化であっても達成できないことが明らかとなった。また,追加の実験を通して,入力系列に書かれていないモデルに格納された知識にアクセスする際に,体系性に対する汎化が特に困難となることが明らかとなった. さらに,途中の推論過程も生成させるように学習したモデルであっても,体系性を捉えることは困難であった。 今後は,自然言語上での記号推論実現を目指す。 そのために,本研究で明らかとなったような言語モデルに不足した記号推論能力を,自由に設計できる特徴がある形式言語で事前学習を行うことで獲得させることを目指す. その後,獲得した能力を後段の自然言語タスクを解くために転移させるという枠組みを想定している. ## 謝辞 本研究は JST CREST JPMJCR20D2 及び JSPS 科研 費 JP22H00524,21K21343 の助成を受けたものです. また,本研究を進めるにあたり多くの協力を賜りました Tohoku NLP グループの皆様に感謝申し上げます。 ## 参考文献 [1] Gary F Marcus. The algebraic mind: Integrating connectionism and cognitive science. MIT press, 2003. [2] A Garcez and L Lamb. Neurosymbolic AI: The 3rd wave. CoRR, 2020. [3] Brenden M. Lake and Marco Baroni. Generalization without systematicity: On the compositional skills of sequenceto-sequence recurrent networks. In ICML, 2018. [4] Peter Clark, Oyvind Tafjord, and Kyle Richardson. Transformers as soft reasoners over language. In Christian Bessiere, editor, IJCAI, pp. 3882-3890. International Joint Conferences on Artificial Intelligence Organization, 7 2020. Main track. [5] Jing Qian, Hong Wang, Zekun Li, Shiyang Li, and Xifeng Yan. Limitations of language models in arithmetic and symbolic induction. CoRR, Vol. abs/2208.05051, , 2022. [6] Gustavo Tondello and Lennart Nacke. A pilot study of a digital skill tree in gameful education. 102019. [7] Dheeru Dua, Yizhong Wang, Pradeep Dasigi, Gabriel Stanovsky, Sameer Singh, and Matt Gardner. DROP: A reading comprehension benchmark requiring discrete reasoning over paragraphs. In NAACL, pp. 2368-2378, Minneapolis, Minnesota, June 2019. ACL. [8] Dieuwke Hupkes, Verna Dankers, Mathijs Mul, and Elia Bruni. Compositionality decomposed: How do neural networks generalise? (extended abstract). In Christian Bessiere, editor, IJCAI, pp. 5065-5069. IJCAI, 72020. Journal track. [9] Alon Talmor, Yanai Elazar, Yoav Goldberg, and Jonathan Berant. oLMpics-On What Language Model Pre-training Captures. TACL, Vol. 8, pp. 743-758, 122020. [10] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. JMLR, Vol. 21, No. 140, pp. 1-67, 2020. [11] Najoung Kim and Tal Linzen. COGS: A compositional generalization challenge based on semantic interpretation. In EMNLP, pp. 9087-9105, Online, November 2020. Association for Computational Linguistics. [12] Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Ed H. Chi, Quoc Le, and Denny Zhou. Chain of thought prompting elicits reasoning in large language models. CoRR, Vol. abs/2201.11903, , 2022. [13] Maxwell Nye, Anders Johan Andreassen, Guy Gur-Ari, Henryk Michalewski, Jacob Austin, David Bieber, David Dohan, Aitor Lewkowycz, Maarten Bosma, David Luan, Charles Sutton, and Augustus Odena. Show your work: Scratchpads for intermediate computation with language models. In DL4C, 2022. [14] Daniel Keysers, Nathanael Schärli, Nathan Scales, Hylke Buisman, Daniel Furrer, Sergii Kashubin, Nikola Momchev, Danila Sinopalnikov, Lukasz Stafiniak, Tibor Tihon, Dmitry Tsarkov, Xiao Wang, Marc van Zee, and Olivier Bousquet. Measuring compositional generalization: A comprehensive method on realistic data. In ICLR, 2020. [15] Hadeel Al-Negheimish, Pranava Madhyastha, and Alessandra Russo. Numerical reasoning in machine reading comprehension tasks: are we there yet? In EMNLP, pp. 9643-9649, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [16] Noam Shazeer and Mitchell Stern. Adafactor: Adaptive learning rates with sublinear memory cost. CoRR, Vol. abs/1804.04235, , 2018. 表 3 文字列演算の詳細. & $7873-73=87$ \\ ## A WA の計算方法 4 章で述べたように,学習曲線を定量的に評価するために, 加重平均精度 (WA)を導入した. この指標は, 初期の学習ステップにおける正解率に高い重みを与えることで,汎化の効率(容易さ)を定量的に評価するものである. 具体的には, 以下の式で重み $w_{i}$ (i はモデルの更新回数)を算出した. $ \begin{aligned} w_{i} & =-a i+w_{\max } \\ a & =\frac{\left(w_{\max }-w_{\min }\right)}{N} \\ w_{\min } & =\frac{2}{(N+1)(\alpha+1)} \\ w_{\max } & =\alpha w_{\min } \end{aligned} $ ここで, $N$ はモデルの更新回数, $\alpha$ は初期の正解率にどれだけ重み付けするかを決めるハイパーパラメータである.この時, $\sum_{i=0}^{N} w_{i}=1$ となる. 本論文における,全ての実験では $\alpha=1000, N=100$ とした. ## B 学習設定 事前学習済みモデルとして T5 [10] (v1.1)を使用した ${ }^{1)}$. モデルのパラメータ数は base, large, x-large それぞれ, 2.5 億, 8 億, 30 億である. T5 のファインチューニングの設定に従い,最適化器には Adafactor [16] を使用し, 学習率のスケジューラは利用していない. 学習率は事前学習時は $1.0 \times 10^{-5}$, ファインチューニング時はで $5.0 \times 10^{-5}$, バッチサイズは 32 とした. 各モデルの学習は, NVIDIA A6000(48GB), A100(80GB) で行った. 事前学習: 事前学習を行うため, 各ドメイン (基本演算) ごとに 100,000 事例のデータを用意し, それらを結合したデータによってモデルの学習を行った。ただし, 生産性に対する汎化能力の評価の際には評価ドメインの数式よりも短い (構成要素が 1 つ 1) https://huggingface.co/docs/transformers/model_doc/ t5v1. 1少ない) データも含めて事前学習を行った.事前学習は検証データセットにおける正解率が $100 \%$ となるか, 5 epoch の間正解率の改善が見られなくなるまで続けた。 事前学習の結果,全ての設定において事前学習に用いたデータセットと同じドメインの評価データセット (2,000 事例) において,少なくとも $99.5 \%$ の正解率に達した. ファインチューニング: ファインチューニング時には,各ドメインごとに 3,200 事例のデータを用意した.これは WAを計算するために,モデルを 100 回更新する時に要するデータ数である. (バッチサイズ $32 \times$ モデルのアップデート回数 100) ## C データセットの詳細 各設定において,数式に登場する数値は 0 から 99 までである. また,式の順番は任意である(必ずしも最初の式が先に計算されるべきとは限らない) ことに注意されたい. 算術演算の演算子としては, 算術の加算 + , 減算-, 右の数のうち大きい方を返す max,左右の数のうち小さい方を返す $\min の 4$ 種類としている. また, 文字列演算の詳細については表 3 に示す.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q8-14.pdf
# 根拠を説明可能な質問応答システムのための 日本語マルチホップ QA データセット構築 石井愛 ${ }^{1}$ 井之上直也 ${ }^{1,2}$ 関根聡 ${ }^{1}$ ${ }^{1}$ 理化学研究所 AIP ${ }^{2}$ 北陸先端科学技術大学院大学 \{ai. ishii, satoshi. sekine\}@riken.jp naoya-i@jaist. ac.jp ## 概要 推論の根拠を説明可能な質問応答システムの実現のためには,知識データを適切に活用するスキルを開発するための根拠情報を含むデータセットが必要だと考える. 本稿では,クラウドソーシングにより新たに生成する 3 つ組を用いた日本語のマルチホップ QA データセット構築の枠組みを提案し, 初期版のデータセットを公開する。調查分析結果から, 多様な表現の質問に応じて, 知識データの連鎖や数值比較等の様々なスキルが要求されることが示された. ## 1 はじめに 答えを導き出すために複数の情報や知識を用いて推論し, その推論の根拠を説明できる質問応答システムの実現には,構造化された知識を連鎖させながら適切に活用するスキルが重要となると考える. そのようなスキルに関連する既存のデータセットとしては, HotPotQA[1], R4C[2], 2WikiMultiHopQA[3]等の推論の根拠となる情報を含むマルチホップ $\mathrm{QA}$ タスクがある. R4C は HotPotQA をベースとして,推論過程を 3 つ組の組み合わせで付与したデータセットである.R4C の3つ組は HotPotQA の文単位の根拠から単純に 3 つ組を抽出することでは得られず,推論に関連した箇所を適切に出力することで高い評価を得られることが示されている[2]. 構造化された知識としては, Wikidata[4], 森羅プロジェクト[5]の Wikipedia 構造化データ[6]等, 3 短組形式で利用可能な知識データがある. これらの知識を活用するスキルを開発するためのデータセットとしては, 2WikiMultiHopQA のように知識データの 3 つ組を用いて質問を生成することが考えられる. 図 1 構成質問の例 ただし,その質問を解く際に用いる知識データが質問作成時に用いたものと同一の場合, その知識デー タを活用するスキルはうまく開発されない可能性がある. また, 既存の知識データでは計算機が利用しやすいよう,3つ組の関係の記述は統一されている. そのため,作成された質問にバリエーションが生まれにくいと考える. そこで本稿では, クラウドソーシングにより新たな 3 つ組を生成し,それをべースに質問,回答,および根拠の 3 つ組のセットを作成するデータセット構築の枠組みを提案する. クラウドソーシングによる新たな 3 つ組を用いることで,用いる知識データに依らず知識データの活用スキルを開発でき,かつ,多様で自然な表現が含まれるデータセットを生成することを狙う。本稿の貢献は以下のとおりである. ・クラウドソーシングに基づく3つ組を用いたマルチホップ QA データセット構築の枠組みを提案する。 ・ データセットの初期版および, データセット構築の枠組みを公開するi. - 生成したデータセットの定量的・定性的な分析結果を示す.  ## 2 データセットの概要 ## 2.1 データセットの目的 本データセットでは,マルチホップ推論が必要な質問 $\mathrm{Q}$ と回答 $\mathrm{A}$ および,その根拠を 3 つ組のセッ卜として提供する. 質問 $\mathrm{Q}$ から回答 $\mathrm{A}$ までの推論経路を導出するタスクにより, 知識データを適切に活用するスキルが開発されることを目的とする. ## 2.2 問題の種類 2 つの 3 つ組を前提として,根拠の説明を求める質問は,3つ組のどこか 1 つが共通しているか,並行しているかの 2 パターンと考えられる. 本データセットでは,共通するエンティティをブリッジエンティティとする(1)構成問題, 2 つの 3 つ組を比較する(2)比較問題の 2 種類の問題を作成する. (1) 構成問題 2 つのページから生成された 2 つの 3 つ組 $(e, r 1, e 1)$ と $(e 1, r 2, e 2)$ を中心, $e 1$ をブリッジエンティティとして $, e, r 1$, および 2 を用いて質問, $e 2$ を用いて回答を作成する. ブリッジェンティティは, 図 1 の “ルーブル美術館”に相当する. (2) 比較問題 2 つのページに内在する 3 つ組 $(e 1, r 1, e 2)$ と $(e 3, r 2, e 4)$ の $e 2$ と $e 4$ を比較する質問を作成する. 生年月日(例 $: e 1$ と $e 3$ どちらが先に生まれたか? )や設立年, 所在地や出身国(例 : $e 1$ と $e 3$ の出身国は同じか?)等の情報から質問を作成する. ## 3 データセットの構築 本データセットは,(1)構成問題のための 3 つ組の生成, (2)3つ組を用いた構成問題の生成, (3)比較問題の生成の 3 つのクラウドソーシングタスクにより生成する. 対象とするぺージが人物や企業に関するページに偏らないよう,拡張固有表現[7](ENE) が Wikipedia ページに付与された分類データ[8]を使用し分布を調整する. ## 3.1 クラウドソーシングタスク (1)構成問題のための 3 つ組の生成まず, 人気 体とほぼ同等となるように対象とするぺージ群を選定する。その際, 固有表現のハイパーリンクが含まれにくい概念の説明のページや,データセットにふさわしくないと考えられるぺージが含まれるカテゴリを手作業で確認し除外した. クラウドソーシングでは,ページ右側の表(Infobox)および冒頭部分 (Abstract) のハイパーリンクを対象に,ページタイトルを Subject, リンク先を Object とする 3 つ組の関係を記述するタスクを実施する。関係記述用画面(図 2)では,クラウドワーカーが関係を記述するボックスを選択すると, 右側の Web ページ部分の対象箇所がハイライトされる. 図 23 つ組の関係記述画面 (2) 3 つ組を用いた構成問題の生成起点とするページの 3 つ組に含まれるブリッジェンティティの候補について, ENE の分布が調整されるよう重みづけしてランダムに選定し,ブリッジェンティティでつながる 2 つの 3 つ組のぺアを生成する。その際, Infobox に含まれる情報のほうが問題生成に使われやすいという事前の調査結果から,Abstract に含まれブリッジェンティティが 6 割以上選択されるよう 図 3 構成質問生成時の根拠選択画面  調整する.クラウトトソーシングタスクでは,ブリッジエンティティでつながる 2 つのページの 3 つ組をぞれぞれ表で表示し(図 3),クラウドワーカーは 2 つの表の情報を用いて問題を作成し, 使用した 3 つ組を各表から選択して根拠のセットとする. (3)比較問題の生成まず, 対象のページ群を Wikipedia ページに付与されているカテゴリ情報でグルーピングし, ランダムにグループを選定する。 そのグループ内からランダムに 2 ページのぺアを作成する。 その際,ENE の分布が調整されるよう重みづけをする. クラウドソーシングタスクでは,クラウドワーカーは左右に表示された 2 つぺージ(図 4)を見て,質問と答えを作成し,その際使用した情報を 3 つ組の形となるよう入力する. なお, 左右に 2 つのページを表示する画面では, Infoboxを表示するかどうかを制御し,ランダムに 4 割程度 Infobox が表示されるようにする. 図 42 2のページの比較画面 ## 3.2 データセットの統計 以下に作成したデータセットの統計を示す. クラウドソーシングは Lancersiiiのタスク形式で実施し,問題として成立しないセットを簡易的な自動チェックおよび手作業にて構成問題 127 件, 比較問題 378 件除外した。 表 1 データセットの統計 ## 3.3 データセットのサンプル データセットのサンプルとして, 付録表 4 に構成問題の例,付録表 5 に比較問題の例を示す. ## 4 分析 作成したデータセットについての調査, 分析結果を示す. ## 4. 1 問題の分野の多様性 問題作成時に対象とする Wikipedia ページの ENE カテゴリが Wikipedia 全体の分布に近くなるよう調整した結果, 表 4 の分布となった. 分布は多少前後するものの,人気の高いページに非常に多く含まれる人名カテゴリへの偏りはある程度避けられている. 構成問題の起点ページ,ブリッジェンティティのページ,比較問題のページの ENE カテゴリの種類数はそれぞれ,46,56,58 と幅広い分野の質問が作成されたといえる. 表 4 の CONCEPT 等, 事前調查によりブリッジエンティティとなるような固有名詞が含まれにくいカテゴリや,「○○の一覧」等のまとめぺージが多く含まれる IGNORED, R18 の制限に相当するようなページが含まれるカテゴリはあらかじめ除外したため $0 \%$ となっている. 表 2 ENE カテゴリの分布(上位 10 カテゴリ) \cline { 3 - 4 } & ia 全体 & 起点 & ブリッジ & 題 \\  ## 4. 2 問題を解くために要求されるスキル 付録表 4 に示した構成問題は,クラウドソーシングで作成した 3 つ組を用いるため, その 3 つ組の関係がどのように表現されているかに質問の自然さが左右されている. 付録表 5 に示した比較問題は $1 \sim 4$ が数値を比較する問題である. 数値の意味をとらえた上で比較や計算するスキルが要求される。 3 は生年月日を用いて初土俵時の年齢を計算した上で比較する必要がある. 4 は個数を数える問題であり,「豊富なのはどちら」という質問に対し, 個数が多いほうを答える必要がある. 5, 6 は数値以外を比較する問題であり,5 のように片方が持つ属性値について質問し, それを持つのはどちらかを問う問題,または 6 のように両方の属性値が合致しているかどうかを問う問題がある. 6 のように属性によらず「石川県」が含まれているかを問う,「ゆかりのある」という表現の意味をとらえるスキルを要求する問題も作成された. 数値を比較する問題の割合は $34 \%$ であった. これは作成開始当初生年月日を比較する問題が多く作成されたため, 数値の比較以外の問題を作成するインストラクションをしたことによる. ## 4. 3 根拠の 3 つ組の特徴 Wikidata と比較した特徵クラウドソーシングで作成された 3 つ組の一部を Wikidata と比較した結果, 本研究の 3 つ組のほうが関係の数は多い傾向があった. Wikipedia は関係の記述が統一されているため, 汎用的である. 対して本研究の 3 つ組は, 表記ゆれが多く質問のバリエーションを高める用途には適していると考える. ただし, 低品質な記述も散見されるため, 改善方法の検討が必要である. 3 つ組抽出元のページ内位置表 3 に問題の根拠として使用された 3 つ組のページ内での出現位置を示す. 構成質問のブリッジェンティティはほぼ設定どおりの割合であり, 比較問題ではクラウドワーカー に見せる画面で比較問題に使用しやすいInfobox を表示するかどうかをランダムにしている効果から, Abstract とそれ以外の本文をあわせた割合と比較して Infobox が 5\%程度少ない結果となった. Both は Infobox と Abstract 両方に含まれる場合の割合であり, other は 3 つ組の Object がページ内の表現と完全一致しない割合である。比較問題の3つ組はクラウドワーカーがページ内の該当箇所をコピーして Object エンティティとし, 関係を自由記述するようインストラクションに記載しているが, ゚゚ージ内の不要な情報を削除したケースや表 5 の 5 例のように,ページ内で存在しない情報を3つ組にしたケー スが含まれる。 表 3 使用された 3 つ組の出現箇所 ## 5 おわりに 知識データを適切に活用するスキルの開発を目的とした,推論の根拠を 3 つ組のセットで含む日本語のマルチホップ QA データセット構築の枠組みを提案した. 調査分析結果から, 幅広いカテゴリの多様な表現の質問が含まれること, その多様な表現の意味を捉えた上での知識データの連鎖や数値比較等,様々なスキルが要求されることを示した。構築は継続中であるがこれまで構築した初期版となるデータセット,および構築のための枠組みとなるスクリプ卜等を https://github.com/aiishii/jpn_explainable_qa_dataset にて公開予定である。 今後の課題として, 2WikiMultiHopQA にて提案されているような構成問題と比較問題を組み合わせたバリエーションや,2つの 3つ組から新たな関係を導いて用いる問題の追加があげられる。また,デ一タセットの規模を大きくしていく上で品質を確保する手段についても今後検討する予定である. ## 謝辞 本研究は JSPS 科研費 JP20269633 および 19K20332 の助成を受けたものです. ## 参考文献 [1] Z. Yang et al., "HotpotQA: A Dataset for Diverse, Explainable Multi-hop Question Answering," EMNLP 2018, pp. 2369-2380, 2018, doi: 10.18653/V1/D181259 . [2] N. Inoue, P. Stenetorp, and K. Inui, "R4C: A Benchmark for Evaluating RC Systems to Get the Right Answer for the Right Reason," ACL 2020, pp. 6740- 6750, Jul. 2020, doi: 10. 18653/V1/2020. ACL-MAIN. 602. [8]関根聡,安藤まや,小林暁雄, and 隅田飛鳥,“拡張固有表現定義の更新と日本語 Wikipedia 分類データ 2019,” 言語処理学会第26回年次大会, 2020. ## A 付録 表 4 構成問題の例 & 長野県 & \\ ## 表 5 比較問題の例 & NO & (奈良市, 人口, 約 35 万 2000 人),(ドバイ, 人口, 約 331 万人) \\
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q8-1.pdf
# 記憶装置付きニューラルネットワークモデルによる構造化知識 と演算処理を用いた質問応答 村山友理 小林一郎 お茶の水女子大学 \{murayama.yuri,koba\}@is.ocha.ac.jp ## 概要 3 つの DNC モデル,vanilla DNC, rsDNC, DNC-DMS に知識と演算のためのアーキテクチャを新たに組み入れ,構造化知識に対する演算処理を含んだ質問文について正しい答えを生成する能力を向上させることを目指す。rsDNC, DNC-DMS をべースとした提案モデルはそれぞれ GEO データセットにおいて平均 top-1 accuracy,平均 top-10 accuracy で最も良い結果を達成した。さらに,rsDNCをべースとした提案手法は拡張した GEO データセットにおいて平均 top-1 accuracy と平均 top-10 accuracy の両方で他のモデルを上回った。 ## 1 はじめに 近年, Transformer [1] などのディープニューラルネットワークはコンピュータビジョンや自然言語処理といったさまざまなタスクの複雑なパターンマッチングにおいて顕著な発展を遂げてきた. しかし, Transformer には長い文脈情報を固定長の系列に工ンコードするせいで context fragmentation problem [2] があり,この問題を解くために過去の情報をメモリ内にキャッシュしておくさまざまな手法 $[2,3,4]$ が提案されてきたが,Transformer をべースとしたモデルは,グラフや木などのデータ構造の表現や変数の使用,長い系列に対する表現の操作といった抽象的な処理を行う能力には限界があるとされてきた. Neural Turing Machine [5] や Differentiable Neural Computer (DNC) [6] は外部に読み書き可能なメモリを持つことで,構造化データ上のアルゴリズムタスクを解き,変数の表現や,長い系列の学習を可能にした. 本研究では,DNC と,さらにDNC を改良した rsDNC [7] と DNC-DMS [8] に対して,質問応答夕スクにおいて重要な要素である知識利用と演算処理を新たに組み入れることを試み,構造化知識に対す る演算処理を含んだ質問文について正しい答えを生成する能力を向上させることを目指す. ## 2 関連研究 Differentiable Neural Computer (DNC) [6] は外部にメモリ行列 $M \in \mathbb{R}^{N \times W}$ を持つニューラルネットワー クである. メモリ行列 $M$ の $N$ 個の番地に対し,どの番地について主に読み出す,または書き込むかを表す重みを定義するのに attention mechanism が用いられる。 読み出し操作では, read vector $\boldsymbol{r}$ はメモリ $M$ に read weighting $\boldsymbol{w}^{r}$ をかけた,メモリ番地に対する重み付き和として計算される: $ \boldsymbol{r}=\sum_{i=1}^{N} M[i, \cdot] \boldsymbol{w}^{r}[i] $ ここで, ‘’は $j=1, \ldots, W$ を表す。 書き込み操作では,メモリ $M$ は write weighting $\boldsymbol{w}^{w}$ を用いてまず erase vector $\boldsymbol{e}$ により不要な番地が消去され,write vector $v$ を足すことで更新される: $ M[i, j] \leftarrow M[i, j]\left(1-\boldsymbol{w}^{w}[i] \boldsymbol{e}[j]\right)+\boldsymbol{w}^{w}[i] \boldsymbol{v}[j] $ 重みは内容に基づく番地付け,一時的なメモリのリンク付け,動的メモリ割り当て,の 3 つの attention mechanism によって定義される。DNC を改良したモデルとして,QA タスクに特化した robust and scalable DNC (rsDNC) [7] や DNC に対して 3 つの改良 (i.e. de-allocation mechanisms, masked content based addressing, sharpness enhancement)を行なった DNC-DMS [8] などが提案されている. ## 3 提案手法 3 つのモデル,DNC [6], rsDNC [7], DNC-DMS [8] に新たに構造化知識を保存するためのメモリアー キテクチャと,単純な算術演算と論理演算を行うためのプロセッサアーキテクチャを追加する. 図 1 は 図 1 知識メモリとプロセッサを持つ提案モデルの全体図. DNC に基づく知識メモリとプロセッサを持つ提案モデルの全体図を示す. 各タイムステップ $\mathrm{t}$ で行う処理は以下の通りである: 1. コントローラ $(\mathrm{RNN})$ は大力 $\boldsymbol{x}_{t}$ と, 前タイムステップで文脈メモリ $M_{t-1}^{c} \in \mathbb{R}^{N \times W}$ から読み出した R 個のベクトルのセット $\boldsymbol{r}_{t-1}^{c}=$ $\left[\boldsymbol{r}_{t-1}^{c, 1} ; \ldots ; \boldsymbol{r}_{t-1}^{c, R}\right]\left(\boldsymbol{r}_{t-1}^{c}\right.$ は $\boldsymbol{r}_{t-1}^{c, 1}, \ldots, \boldsymbol{r}_{t-1}^{c, R}$ の結合) に加えて,前タイムステップで知識メモリ $M_{t-1}^{k} \in \mathbb{R}^{N \times W}$ から読み出した $\mathrm{R}$ 個のベクトルのセット $\boldsymbol{r}_{t-1}^{k}=\left[\boldsymbol{r}_{t-1}^{k, 1} ; \ldots ; \boldsymbol{r}_{t-1}^{k, R}\right]$, そして前タイムステップのプロセッサの演算結果のベクトル $v_{t-1}$ を受け取る。それから隠れべクトル $h_{t}$ を出力する. 2. $\boldsymbol{h}_{t}$ の線形変換により, 出力 $\boldsymbol{v}_{t}=W_{y} \boldsymbol{h}_{t}$ と, 現夕イムステップにおける文脈メモリを制御するためのパラメータを格納したベクトル $\xi_{t}=W_{\xi} \boldsymbol{h}_{t}$,現タイムステップにおける知識メモリを制御するためのベクトル $\zeta_{t}=W_{\zeta} \boldsymbol{h}_{t}$, そして現タイムステップのプロセッサに用いられるゲートベクトル $\boldsymbol{g}_{t}=W_{g} \boldsymbol{h}_{t}$ を得る. 3. $\xi_{t}$ によって文脈メモリへの書き込みが行われ, メモリの状態が更新される. 知識メモリへの書き込みは行われない。 4. プロセッサでの演算処理は $g_{t}$ と, 現タイムステップで文脈メモリから読み出したべクトルを結合した $\boldsymbol{r}_{t}^{c}$, 現タイムステップで知識メモリから読み出したべクトルを結合した $\boldsymbol{r}_{t}^{k}$ を用いて行われる。 5. 最後に, $\boldsymbol{r}_{t}^{c}$ と $W_{r}^{c}$ をかけて得られるべクトルと, $\boldsymbol{r}_{t}^{k}$ と $W_{r}^{k}$ をかけて得られるべクトル,及び現タイムステップのプロセッサからのベクトル $\boldsymbol{v}_{t}$ と $W_{v}$ をかけて得られるべクトルに $\boldsymbol{v}_{t}$ を足し,出力 $\boldsymbol{y}_{t}$ を計算する. $ \boldsymbol{y}_{t}=\boldsymbol{v}_{t}+W_{r}^{c} \boldsymbol{r}_{t}^{c}+W_{r}^{k} \boldsymbol{r}_{t}^{k}+W_{v} \boldsymbol{v}_{t} $ read vector $\boldsymbol{r}_{t}^{c}$ と $\boldsymbol{r}_{t}^{k}$, value vector $\boldsymbol{v}_{t}$ は次タイムステップの RNNへの入力に追加される. 以上の処理を繰り返すことにより,二つのメモリへの読み書き操作とプロセッサ操作を行う. ## 3.1 知識メモリ構築 知識メモリは知識ベース $(\mathrm{KB})$ を用いて構築される. KB のファクトは Resource Description Framework $(R D F)^{1)}$ 形式の三つ組 (主語, 述語, 目的語) で表現される。例えば,「日本の首都は東京である.」は三つ組 (日本,首都,東京) で表される.DNC のモデルに三つ組の内どれか 2 つを与え,残りの 1 つを返すように学習させることで KB ファクトを学習する.例えば,入力が “日本”,“首都” のとき,出力は “東京”である.モデルは KB のすべてのトリプルを用いて学習し,KB 全体を保存したメモリユニットを作成する。そして,事前学習したメモリユニットを提案モデルの知識メモリユニットとして利用する。 ## 3.2 プロセッサ処理 プロセッサユニットにおいて単純な算術演算と論理演算を行うために,13 の演算を設定 ᄂ た:Max, Min, More, Less, Major_city, Major_river, Major_lake, Not, Count, Density, Sum, Context, Knowledge. 文脈义モリからの read vector $\boldsymbol{r}^{c}$ と知識メモリからの read vector $\boldsymbol{r}^{k}$ はオリジナルの語彙トークンのリスト,「文脈リスト」と「知識リスト」にそれぞれ変換される。 Superlatives : Max 演算は知識リストを受け取り,その最大値を返す. Min 演算は同様に知識リストを受け取り,その最小値を返す。 Comparatives : More 演算は文脈リストと知識リストの両方を受け取り, 知識リストの最初の数より大きい数を文脈リスト中から返す. Less 演算は同様に文脈リストと知識リストの両方を受け取り,知識リストの最初の数より小さい数を文脈リスト中から返す. Major_city,Major_river, Major_lake 演算は知識リストを受け取り,それぞれ“150,000”, “750”, “5,000”より大きい数を返す.  表 1 知識ベースの一部. type alabama state capital alabama montgomery population alabama $3894.0 \mathrm{e}+3$ Negation : Not 演算は文脈リストと知識リストの両方を受け取り,文脈リストから知識リストを引いた差を返す。 Calculation : Count 演算は知識リストを受け取り,その要素数を返す. Density 演算は文脈リストと知識リストの両方を受け取り, 要素毎に知識リストで割られた文脈リストを返す. Sum 演算は知識リストを受け取り,その要素の和を返す。 No operation : Context 演算は文脈リストを受け取り,それ自身を返し,Knowledge 演算は知識リストを受け取り,同様にそれ自身を返す。これらの 2 つの演算は上記の演算がどれも適当でない場合のために用意した。 13 の演算の出力は gate vector $\boldsymbol{g}$ のソフトマックス出力と結合し, value vector $\boldsymbol{v}$ を構築する。 ## 4 実験 ## 4.1 データセット GEO データセット $[9]^{2}$ はアメリカの地理に関する 880 の質問文と Prolog 形式のファクトのデータベースを含む,質問文の語彙サイズは 280 である.質問文は superlatives, comparatives, negation や count, density, sum といった calculation を含む. GEO データセットには質問文に対する答えが含まれていなかったため,答えを人手でアノテーションを行った. 答えはデータベースからの地理エンティティのリストであり,長さは 0 から 386 エンティティである. 例えば,“Which rivers flow through Alaska?” という質問は答えがなく,別の質問 “Give me the cities in the U.S. ?"は 386 エンティティというかなり多くの答えを持つ. 600 サンプルを学習に, 280 サンプルをテストに用いた. GEO のデータベースから RDF 形式の三つ組を作成し, 表 1 に示す. 三つ組 (type, alabama, state) はalabama のtype は stateであると意味する. type リレーションに対するオブジェクトエンティティとして,5つのエンティティ:state, city, river, mountain, lakeを我々のKBに 2) https://cs.stanford.edu/ pliang/software/表 2 GEO データセットと GEO 1380 における平均 Acc@k. 追加した.この KB は地理ドメイン内の 11 リレー ション, 1,275 エンティティ, 2,250トリプルを含む. さらに, 新たな $500 \mathrm{QA}$ ペアを人手で作成し $\mathrm{GEO}$ データセットを拡張した.この拡張したデータセットを“GEO 1380” と呼ぶ. 1,000 サンプルを学習に, 380 サンプルをテストに用いた. ## 4.2 結果 表 2 に GEO データセットと GEO 1380 における全てのモデルのテスト 3 実行分の平均 top-1 accuracy (Acc@1) と top-10 accuracy (Acc@10)を示す.“+KM” と“+P” はそれぞれ提案手法である知識メモリユニット (KM) の追加,プロセッサユニット (P) の追加を表す. GEO データセットにおいて, rsDNC+KM+P は Acc@1 で最も良い結果を達成し,DNC-DMS+KM は Acc@10で最も高いスコアを得た. GEO 1380 デー タセットでは, rsDNC+KM は他のモデルを上回った. QA タスクに特化した $\mathrm{rsDNC}$ を基にしたモデルは良い結果になる傾向がある. 提案モデルのほとんどはオリジナルのモデルより低いが,提案手法のポイントは異なるハイパーパラメータだと上回ることがあるため,アーキテクチャによるものだとは考えていない. すべてのスコアが GEO 1380 で上がったため,より大きなデータセットはモデルの精度向上に有効である. 表 3 に,GEO 1380 データセットにおける全てのモデルの各質問タイプのテスト 3 実行分の平均 Acc@10を示す. Simple : 1Hop は “What states border Texas?” のように質問文が 1 つのリレーションを含むことを意味する. 例えば, “What states border states that border states that border states that border Texas?” は 4 つのリ 表 3 GEO 1380 データセットにおける各質問タイプの平均 Acc@10. レーションを含むため,この例は4Hop である. 1 Hop は GEO と GEO 1380 の両方の $30 \%$ 以上を占めるため,このタイプで高いスコアを得ることが全体の良い結果につながる. 4Hop のポイントが 2Hop のポイントより高いのは,4Hop の方が 2 Hop より難しいにも関わらず奇妙に思えるかもしれないが,これは 4Hop のサンプル数が少ないせいだと考えられ, multi-hop のサンプルを拡張する必要がある. Superlatives : Argmax は "What is the largest state?”のように質問文が “largest”, "highest”, "longest” などといった単語を含むことを意味する. Argmax と Argminにおいて, rsDNC+KM+Pが最も高いスコアを得た. superlativesの他のタイプでは, rsDNC+KM+P はトップスコアに届かなかったが,それでもべストなモデルと比べて遜色ない. Comparatives : このタイプは “What states high point are higher than that of Colorado?” のように 3 つの表現:More, Less, Major を扱う. ホップ数が増えると,スコアは下がった. Negation : Not は “What state has no rivers?” のように質問文が否定表現を含むことを意味する. 我々の rsDNC+KM は他のモデルを上回った. Calculation : このタイプは "How many states are in the USA?” のように 3 つの演算: Count, Density, Sumを扱う. Count とSumのポイントは他のタイプ と比べて比較的高い一方で,Density の結果はとても低い。 ## 4.3 課題 質問タイプ数のバランスを取るためにデータセットをより拡張する必要がある。また,GEO データセットのサイズは僅か 880 であり,拡張を行なってもまだ 1380 であり,ニューラルネットワークの学習には小さすぎるため,WikiTableQuestions [10]のような大規模データセットを用いて学習することが望まれる。 ## 5 おわりに 3 つの DNC モデル,vanilla DNC, rsDNC, DNC-DMS に知識メモリとプロセッサを追加し,実験を行い,背景知識や単純な算術演算と論理演算を必要とする質問応答タスクに対して効果を分析した. 提案した rsDNC+KM+P と DNC-DMS+KM はそれぞれ GEO データセットにおいて平均 Acc@1 と平均 Acc@10 で最も良い結果を達成した. さらに,提案モデル rsDNC+KM は GEO 1380 データセットにおいて平均 Acc@1 と平均 Acc@10 の両方で他のモデルを上回った. 今後の課題では,提案モデルに順次実行,条件分岐,反復といった制御命令を処理するアーキテクチャを加えて改良したい。 ## 謝辞 本研究は JSPS 科研費 JP20J23182 の助成を受けたものです. ## 参考文献 [1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [2] Zihang Dai, Zhilin Yang, Yiming Yang, Jaime Carbonell, Quoc Le, and Ruslan Salakhutdinov. Transformer-XL: Attentive language models beyond a fixed-length context. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 2978-2988, Florence, Italy, July 2019. Association for Computational Linguistics. [3] Jack W. Rae, Anna Potapenko, Siddhant M. Jayakumar, and Timothy P. Lillicrap. Compressive transformers for long-range sequence modelling. CoRR, Vol. abs/1911.05507, , 2019. [4] Pedro Henrique Martins, Zita Marinho, and Andre Martins. $\infty$-former: Infinite memory transformer. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 5468-5485, Dublin, Ireland, May 2022. Association for Computational Linguistics. [5] Alex Graves, Greg Wayne, and Ivo Danihelka. Neural turing machines, 2014. cite arxiv:1410.5401. [6] Alex Graves, Greg Wayne, Malcolm Reynolds, Tim Harley, Ivo Danihelka, Agnieszka Grabska-Barwińska, Sergio Gómez Colmenarejo, Edward Grefenstette, Tiago Ramalho, John Agapiou, Adrià Puigdomènech Badia, Karl Moritz Hermann, Yori Zwols, Georg Ostrovski, Adam Cain, Helen King, Christopher Summerfield, Phil Blunsom, Koray Kavukcuoglu, and Demis Hassabis. Hybrid computing using a neural network with dynamic external memory. Nature, Vol. 538, No. 7626, pp. 471-476, October 2016. [7] Jörg Franke, Jan Niehues, and Alex Waibel. Robust and scalable differentiable neural computer for question answering. CoRR, Vol. abs/1807.02658, , 2018. [8] Róbert Csordás and Jürgen Schmidhuber. Improving differentiable neural computers through memory masking, de-allocation, and link distribution sharpness control. CoRR, Vol. abs/1904.10278, , 2019. [9] John M. Zelle and Raymond J. Mooney. Learning to parse database queries using inductive logic programming. In Proceedings of the Thirteenth National Conference on Artificial Intelligence - Volume 2, AAAI'96, p. 1050-1055. AAAI Press, 1996. [10] Panupong Pasupat and Percy Liang. Compositional semantic parsing on semi-structured tables. In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 14701480, Beijing, China, July 2015. Association for Computational Linguistics. [11] Sepp Hochreiter and Jürgen Schmidhuber. Long shortterm memory. Neural computation, Vol. 9, No. 8, pp. 1735-1780, 1997. [12] T Tieleman and G Hinton. Lecture 6.5-rmsprop: Divide the gradient by a running average of its recent magnitude. 2012. [13] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 41714186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [14] Mor Geva, Ankit Gupta, and Jonathan Berant. Injecting numerical reasoning skills into language models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 946-958, Online, July 2020. Association for Computational Linguistics. [15] M. Stone. Cross-validatory choice and assessment of statistical predictions. Roy. Stat. Soc., Vol. 36, pp. 111-147, 1974. ## A 実験設定 すべてのモデルのハイパーパラメータは主に [6] に基づく;隠れ層サイズ 256 の 1 層 LSTM [11],バッチサイズ 2 , 学習率 $1 \times 10^{-4}$, メモリ次元 $256 \times 64$,読み出しへッド数 4 , 書き込みへッド数 1 , モメンタム 0.9 の RMSProp オプティマイザ [12]. [7] に従い rsDNC [7] のドロップアウト率は $10 \%$ とした. HuggingFace ${ }^{3)}$ bert-base-uncased model を隠れ次元 768 の BERT [13] encoder に使用した。数字は [14] を参考に 1 标ずつ分割した. 5 分割交差検証 [15] で 5 エポックずつモデルを学習させた. ランダムな初期化の下で各モデルを 3 回実行し, 平均の結果を報告する. 知識ベースを用いて知識メモリを構築するために,3つのオリジナルモデルをメモリ次元 $256 \times 64$ で, 5 分割交差検証で 10 エポックずつ学習させた.他の設定は前述の通りである. DNC, rsDNC, DNCDMS の top-10 accuracy はそれぞれ 78.90\%, 78.39\%, $79.63 \%$ だった. 知識メモリ構築に用いる事前学習モデルと提案手法に用いる学習モデルは同じ種類である。つまり,DNCを用いて学習した知識メモリが,DNCをべースとした提案モデルで使用される。 ## B データセット GEO データセット [9] と GEO 1380 の各質問タイプ数を表 4 に示す. Compound タイプは “How many states have a higher point than the highest point of the state with the largest capital city in the U.S.?”のように 4 つのタイプ: Superlatives, Comparatives, Negation, Calculationを複合した質問文を扱っており,さまざまな組み合わせが用意されている。 
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q8-2.pdf
# FAQ チャットボットの誤りタイプの類型化と自動分類の検討 山岸駿秀 貞光九月 北岸郁雄 株式会社マネーフォワード } \{yamagishi.hayahide, sadamitsu.kugatsu, kitagishi.ikuo\}@moneyforward.co.jp ## 概要 FAQチャットボットを導入した組織では、回答に用いる FAQ 集を継続的に改善する必要がある。FAQ 集の改善では、FAQ 集の内容等を網羅的に把握し、正しく回答できなかった事例に対して適切な改善策を選ぶ。本研究では、このような事例の誤りタイプを類型化し、誤りタイプ別に改善策をまとめる。 また、誤りタイプの自動分類に必要な特徴量をまとめ、分類の可能性を議論する。 ## 1 はじめに 企業等において、提供サービスに関するユーザの質問に自動で回答するFAQチャットボットが普及している。従来からある Web 上の静的なサポートページはサービスの詳細な理解に役立つのに対し、 チャットボットは高頻度な質問に簡潔かつ動的に返答できる。これらを図 1 のように併用することで、 ユーザ自己解決率の向上などに繋げられる。 本研究で扱うチャットボットは、想定質問文と回答文からなる $\mathrm{QA}$ ペアを事前に登録した $\mathrm{FAQ}$ 集に対し、ユーザ質問文(クエリ)の関連 $\mathrm{QA}$ ペアを検索して回答する。本研究では、各クエリにつき一問一答で回答し、文脈等は考慮しないものとする。回答文ではクエリに直接関連する説明のみを行い、詳細は文中にリンクを張ったサポートサイトの記事内で説明することもある。回答後にはクエリ 1 つと回答文 1 つのペア (応対) が応対履歴として蓄積される。 チャットボットの運用担当者は、日常的には FAQ 集の整備による応対内容の改善を行う。例えば、新機能の情報が FAQ 集にないことが原因で誤答になる事例は、新機能に関する $\mathrm{QA}$ ペアを追加すれば改善できる。FAQ 集の改善は、FAQ 検索エンジンやチャットボットのUI 等の改良と比べて、運用担当者が速やかに実施しやすいことが利点となる。 チャットボットの運用担当者が FAQ 集を改善するためには、既存の FAQ 集の内容やサービスの機 図1チャットボットとサポートサイトのイメージ図能等を網羅的に把握している必要がある。しかし、 サービスの機能が増加すると FAQ 集の内容も増加するため、全体の把握も困難になると考えられる。 本研究では、FAQチャットボットの改善活動において、各応対事例の誤りタイプを類型化し、各誤りタイプに必要な改善策をまとめる。また、誤りタイプの自動分類に必要な特徵量を整理して分類器を構築し、自動分類の実現可能性を議論する。 ## 2 誤りタイプの整理 FAQ 集を拡充する技術は盛んに研究されている。例えば、過去のクエリを「印刷関連」のようにジャンル別に整理し、拡充すべきジャンルを特定する手法 $[1,2]$ や、外部情報源から新規 QA ペアを抽出する方法 $[3,4]$ などがある。本研究では、 $\mathrm{FAQ}$ 集の拡充で改善する応対事例は全体の一部であると考元、拡充が必要または不要な事例の特徴をまとめる。 チャットボットの改善方法を整理するため、応対履歴を分析して誤りタイプを調べる。チャットボットは、実験用として、BM25による FAQ 検索をもとに構築した。FAQ 検索では、クエリと、FAQ 集の $\mathrm{QA}$ ペアに含まれる想定質問のみとの類似度を測り、類似質問に対応する回答文を得る。FAQ 集は、当社のカスタマーサポートがマネーフォワードクラウド会計・確定申告1)の質問に回答できるように整備したものを使う。FAQ 集の回答文には、同サービスのサポートサイト2) の関連記事 (引用記事) のリンクを付与した。このチャットボットに、あらかじめ 1) https://biz.moneyforward.com/ 2) https://biz.moneyforward.com/support/ 表 1 FAQチャットボットの回答誤りタイプ \right. & & & & \\ 収集したユーザクエリ 1574 件を入力して応対履歴を得た。これらを目視で分析し、正解ではないと思われる応対 1030 件の誤りタイプを分析した。 分析を通して、各応対事例を、FAQ 集の改善により課題が解決できる改善可能系と、FAQ 集を改善しても課題が解決されない改善困難系の 2 つに大別した。さらに、改善可能系を 4 つ、改善困難系を 3 つの誤りタイプにそれぞれ細分類した。表 1 に、本研究で整理した計 7 つの誤りタイプを示す。 改善可能系: QA ペア検索失敗ユーザの課題解決に直結する $\mathrm{QA}$ ペアが $\mathrm{FAQ}$ 集内にあるが、 $\mathrm{FAQ}$ 検索の精度不足で誤答となった場合が該当する。FAQ 検索の対象となる想定質問の拡充により、類似質問 改善可能系: 引用記事のみ正解回答文には「詳細は以下の記事をご覧ください」といった形でサポートサイトの記事 (引用記事) へのリンクを含む場合がある。こうした回答文の一部では、課題解決につながる内容が回答文自体にはなく、引用記事にのみ存在する状態が発生する。表 1 の例では、メンバー追加方法に関する質問に対してメンバー追加にかかる料金を説明している。この例の引用記事の夕イトルは「「メンバー追加・管理」の使い方」であり、課題解決につながる内容を含む。しかし、ユー ザは回答文を誤りと判断するため、引用記事に解決手段の記述があっても記事が読まれにくく、課題解決に繋がらない。回答文を読むだけで課題解決につながる QA ペアを追加することが改善策となる。 改善可能系: あいまいな質問クエリに、関連 QA ペアを絞るために必要な情報が不足している場合が該当する。こうしたクエリでは、チャットボットの運用担当者でも、ユーザが望んでいる回答内容を判断できない。表 1 の例では、どの取得状態に関する質問かわからないため、電子証明書に関する回答が正しいかどうかもわからない。改善策には、限られた情報でも答えられる QA ペアの追加がある。前述 追加すればよい。またUIを改良し、ユーザから追加情報を得る手段を実装することも改善策となる。 改善可能系: 回答手段なし課題解決につながる $\mathrm{QA}$ ペアが FAQ 集になく、サポートサイトにも関連記事がないことから、チャットボットやサポートサイトに回答手段がない場合が該当する。FAQ 集は高頻度な質問への回答をまとめたものであるため、低頻度な質問や、ユーザの利用状況特有の質問などには対応できない。サポートサイトは FAQ 集よりも詳細な情報を持つ傾向にあるが、全てを網羅することは難しいため、対応できない内容もある。改善には、回答手段なしの中で高頻度な質問に関する $\mathrm{QA}$ ペアやサポートサイト記事を追加する必要がある。 改善困難系: サービス機能なし提供するサービスに、ユーザの課題解決につながる機能がない場合が該当する。表 1 の例のように、回答としては現在非対応である旨を説明することが正しい。しかし、 この回答ではユーザの課題は解決しない。根本的な改善には、サービスの改善が必要である。 改善困難系: 回答対象外 FAQ 集が対象外としている質問が該当する。表 1 の例はマネーフォワードクラウド請求書に関する質問であるが、今回用いた FAQ 集はクラウド会計・年末調整が回答対象である 表 2 各誤りタイプへの分類に必要な特徴量(検索ヒット数には各誤りタイプにおける平均を記載) 図 2 誤りタイプ分類器の概要図 ため、回答できない。対象外の質問であることを検知し、適切な窓口へ誘導することが改善策となる。 改善困難系: 質問の誤字脱字質問文に誤字脱字があることにより、適切な $\mathrm{QA}$ ペアを発見できない場合が該当する。改善策としては、応対時に誤字脱字を検出して再大力を促すことが考えられる。 ## 3 誤りタイプの自動分類の検討 本節では誤りタイプ分類の自動化を検討する。本研究では FAQ 集の改善で解決する誤りタイプを優先し、改善可能系 (QAペア検索失敗、引用記事のみ正解、あいまいな質問、回答手段なし)の検出に必要な特徴量と分類器を設計する。改善困難系も実運用上は検出すべきであるが、今回は対象外とする。 ## 3.1 分類に必要な特徵量 分類に必要な特徵量の整理結果を表 2 に示す。 検索記事の有無による分類 2 節の類型化から、誤りタイプの特定にはサポートサイトの記事が有用であると考え、4つの誤りタイプをユーザ課題の解決につながる記事(正解記事)の有無により 2 群に分ける。QA ペア検索失敗と引用記事のみ正解は、 どちらも正解記事を持つため、記事特定可能群とする。また、回答手段なしは正解記事がなく、あいまいな質問は正解記事を絞れないことから、どちらも正解記事がないとみなし、記事不定群とする。サポートサイトから正解記事を探索するため、質問文 を用いたサイト内検索を導入する。サイト内検索で得られた、ヒットした記事の件数 (検索ヒット数) と、内容(検索記事)を特徴量に用いる。2 群の区別には、クエリと検索記事の整合性を調べ、検索記事が正解記事かどうか確認することが重要となる。 記事特定可能群内の分類この群はクエリと引用記事の整合性を用いて分類を試みる。QA ペア検索失敗の回答文は誤りであるので、引用記事はクエリと関連しない。引用記事のみ正解は回答文自体は誤りに見えるが、引用記事はクエリと関連する。 記事不定群内の分類この群は、クエリと検索ヒット数を用いて分類を試みる。あいまいな質問はクエリに含まれる情報が少なく、正解記事を絞れないため、検索ヒット数が多くなる。回答手段なしはクエリに含まれる情報が多く、全てに該当する記事が見つかりにくいため、検索ヒット数が少なくなる。また、クエリに含まれる情報を直接抽出し、検索ヒット数の妥当性を確認することも重要である。 以上の議論から、クエリ、引用記事、検索記事、検索ヒット数の 4 つの特徴量を使うことで分類できると考えられる。なお、4つすべての誤りタイプでクエリと回答文との整合性は低いことが前提となるため、これらの分類に回答文は不要である。 ## 3.2 分類器の概要 図 2 に誤りタイプ分類器の概要を示す。分類器は、BERT [5] と 1 層の全結合層で構築する [6]。 BERT はクエリとサポートサイトの記事との整合性、または記事間の整合性を判定するために用いる。クエリと記事は特殊記号 [SEP] で繋いで入力する。複数の記事を用いる場合も、記事間を同じ特殊記号で繋ぐ。BERT の出力として、最終層の文頭記号 [CLS] に対応するべクトルを得る。 全結合層は、BERT から得られた整合性情報や検索ヒット数から最適な誤りタイプを推論する。入力は、検索ヒット数を BERT の出力ベクトルと結合させたものとする。学習時は、BERT と合わせて全体の fine-tuning を実施する。 表 3 誤りタイプ分類の実験結果 ## 4 実験 ## 4.1 実験設定 本節では、3節で述べた誤りタイプ分類の検証実験を行う。2 節で用いた応対履歴から、各誤りタイプのデータ量を揃えるために各 100 件ずつサンプリングし、学習用、検証用、評価用データとして、 320 件、 40 件、 40 件に分けた。BERT の事前学習済みモデルには bert-base-japanese-v23)を使用した。 この BERT は入力文長に 512 単語の制限がある。記事特定可能群と記事不定群の分類には、クエリと検索記事の整合性を評価し、検索記事が正解記事かを判断することが重要となる。しかし、正解記事が得られるかはサイト内検索の検索エンジンの性能に大きく依存する。本実験では、検索で必ず正解記事が得られる状況を作り、検索エンジンの性能が極めて高い場合に整合性評価が機能することを確認する。記事特定可能群は、検索記事に正解記事を用いる。記事不定群は正解記事を持たないため、検索結果のうちヒット順 1 位の記事を検索記事とする。記事の検索には Wordpress の検索機能を用いた4)。 多くの記事は長文であるため、文長制限に収めるために検索結果のスニペットを検索記事とする。本実験では、各記事のクエリ関連箇所を目視で抜き出してスニペットとした。引用記事の取得には検索が不要のため、引用記事は記事の先頭 5 文を与える。 ## 4.2 結果 表 3 に分類実験の結果を示す。 3.1 節で述べた特徵量を加えることで、分類精度が向上した。実験パタン 1 では、多くの分類結果が $\mathbf{Q A}$ ペア検索失敗に集まっていた。一方、引用記事を用いた実験パタン 2 では記事特定可能群内の分類精度が向上し、検索 3) https://huggingface.co/cl-tohoku/bert-base-japanese-v2 4)クエリには、質問文を $\mathrm{MeCab}$ (辞書: mecab-ipadic-neologd[7] 2020-09-14 Ver.) で形態素解析し、名詞・形容詞・動詞を抽出した結果を用いた。記事を用いた実験パタン 3 では記事特定可能群と記事不定群を区別する精度が向上した。また、全ての特徴量を用いた実験パタン 4 では、各群内の分類精度の向上が見られた。例えば、表 1 の引用記事のみ正解のクエリ例「メンバーの追加ができません」は、 パタン 1 では誤っているが、検索記事やヒット数を用いた実験パタン $3,4,5$ では正しく分類できた。各実験結果の混同行列は付録 5 を参照されたい。 また、実験パタン 5 では、整合性評価が正しく行われた場合の精度を確認するため、記事特定可能群の検索記事の文頭に正解フラグ [TRUE] を付与し、整合性評価の正解を直接与えた。この実験で、整合性評価の精度を高めることで分類精度を高められることを確認した。実験パタン 5 でも誤分類となった事例は、あいまいな質問で多く見られた。例えば、表 1 のあいまいな質問のクエリ例「取得状態が設定エラーとなります」は、回答手段なしに分類された。 あいまいな質問は検索ヒット数が他の誤りタイプより多い傾向にあるが、この例のヒット数は 7 と平均的であった。ヒット数が数十件の事例は正しく分類できていたため、平均的なヒット数では分類根拠としては不十分であったと思われる。したがって、記事不定群内の分類精度を高めるためには、クエリ文面から内容を抽出する精度向上と、記事検索の精度向上の双方が必要であると考えられる。 ## 5 おわりに 本研究では、FAQチャットボットの応対の誤りタイプを類型化し、各誤りタイプに必要な改善策をまとめた。また、FAQ 改善の効率化に向けて誤りタイプ自動分類を検討し、分類器の特徴量としてサポー トサイトの検索結果が有用であることを示した。 今回の実験では、サポートサイトの記事検索精度が極めて高い状況を仮定したが、実運用に向けては、記事検索や、クエリと記事の整合性判定の精度向上を進める必要がある。また、今回議論の対象外とした誤りタイプも考慮した分類も進める。 ## 謝辞 誤りタイプの体系の整理方法について繰り返し議論いただいた、株式会社マネーフォワードビジネスカンパニー CS 本部の竹下晴基氏、古山三紗子氏に謝意を表します。 ## 参考文献 [1] 土居誉生, 森克利, 嘉門勇輝, 稲田徹. 応対ログからの FAQ 自動抽出システム NANQ. 人工知能学会研究会資料言語・音声理解と対話処理研究会, Vol. 93, pp. 167-168, 2021. [2] 戸田隆道, 友松祐太, 杉山雅和. 提示候補とクエリの差分を用いたチャットボットの新規問い合わせ抽出手法. 言語処理学会第 27 回年次大会, pp. 1550-1553, 2021. [3] Wataru Sakata, Tomohide Shibata, Ribeka Tanaka, and Sadao Kurohashi. FAQ retrieval using query-question similarity and bert-based query-answer relevance. In Proceedings of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval, SIGIR'19, p. 1113-1116, New York, NY, USA, 2019. Association for Computing Machinery. [4] 坂田亘, 田中リベカ, 黒橋禎夫. 公式ウェブサイトをベースにした QA チャットボットの自動構築. 言語処理学会第 26 回年次大会, pp. 327-330, 2020. [5] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [6] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander M. Rush. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45, Online, October 2020. Association for Computational Linguistics. [7] 佐藤敏紀, 橋本泰一, 奥村学. 単語分かち書き辞書 mecab-ipadic-NEologd の実装と情報検索における効果的な使用方法の検討. 言語処理学会第 23 回年次大会 (NLP2017), pp. NLP2017-B6-1. 言語処理学会, 2017. 表 4 各実験の混同行列の抜粋 ## A 付録 ## A. 1 実験の混同行列 表 4 に、 4.2 節の表 3 で示した各分類実験の混同行列をまとめた。 引用記事は、引用記事のみ正解とそれ以外を区別するために導入した。実験パタン 1 と 2 を比較すると、実験パタン 2 において引用記事のみ正解の分類精度が向上していることがわかる。また、回答手段なしは関連する記事がサポートサイトに存在しないため、引用記事が不正解となることから、こちらの分類精度も向上した。したがって引用記事は、引用記事のみ正解や回答手段なしを特定するために有用である。 検索記事は、正解記事が存在する記事特定可能群と、正解記事が絞り込めないまたは存在しない記事不定群を区別するために導入した。実験パタン 1 と 3 を比較すると、実験パタン 3 では両群を区別する精度が向上している。また、検索ヒット数は、記事不定群内を分類する目的で導入した。実験パタン 3 の各群を見ると、記事特定可能群内と比較して、記事不定群内の分類精度が高い。したがって、検索記事と検索ヒット数は、両群の区別や、記事不定群内の分類をする上で有用である。 実験パタン 5 は、クエリと検索記事の整合性評価が完全に機能した場合の分類精度を確認するため、整合性評価の正解を外部から与えた。整合性評価の正解を与えなかった実験パタン 4 と比較すると、他群へ誤って分類する例がなくなったことがわかる。したがって、検索記事の整合性評価の精度を高めることで、両群の区別の精度を高められる。一方、記事不定群では、あいまいな質問の多くが回答手段なしに分類された。 これは、 4.2 節で述べたとおり、あいまいな質問であっても検索ヒット数が少ない事例があったことが原因である。今後は、記事検索の精度を高めることで検索ヒット数の妥当性を高めるとともに、クエリの内容理解の精度を高めることで、検索ヒット数に過度に依存しないような分類器の構築が必要である。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q8-3.pdf
# 技術ナレッジ活用に向けた Retriever-Reader モデルの検証 蓬田綾香 ${ }^{1}$ 村瀬文彦 ${ }^{1}$ 平野徹 ${ }^{2}$ 三郤陽 ${ }^{1}$ 坂一忠 ${ }^{1}$ 飯田哲也 ${ }^{1}$ 岩堀恵介 ${ }^{1}$ 竹野貴法 ${ }^{1}$ ${ }^{1}$ 株式会社デンソー ${ }^{2}$ DENSO INTERNATIONAL AMERICA, INC. \{ayaka. yomogida. j6n, fumihiko. murase. j6b, akira. mitani. j5g, kazutada. ban. j4x, tetsuya. iida. j6e, keisuke. iwahori. j7p, takanori. takeno. j5x\}@jp. denso. com \{toru. hirano\}@na. denso.com ## 概要 社内に蓄積された技術ナレッジを効率的に活用することを目指して,膨大な文書からユーザが必要な回答を簡易に得られるように,質問応答タスクで用いられている Retriever-Reader モデルの検証を実施した. デンソー社内で実際に蓄えられた材料開発業務の文書を対象とした. Retriever では, BERT と Sentence BERT の各々のベクトルに基づくランキング上位の文書に, 必要な回答が含まれる文書があるか否かを評価した. Readerでは, 文書から回答位置を抽出する手法と文書中の各文が回答か否かのラべルを判定する 2 つの手法を評価した. Retriever では Sentence BERT の正解率が高く, Reader ではラベルを判定する手法の方がユーザの質問に対する回答を適切に判断できることが分かった. ## 1 はじめに 日々の業務活動を通して社内には様々な文書が蓄積されており,これらの大規模テキストデータに含まれるのナレッジの効率的な活用によるデジタルトランスフォーメーションの需要が高まっている. 適用事例の一つとして,材料開発業務におけるナレッジ活用を想定している. 自動車部品は様々な材料で構成されており, どの部品に使用されるか, その自動車がどの地域で使用されるかによっても求められる特性が異なるため, 多種多様な材料開発が必要である.材料開発を統括する部署では, 開発から製品量産までの材料に関するデータベースを保有している. 事業部から材料開発に関する問い合わせがくると, 担当者は各種データベースにアクセスし, 検索ワードをもとに文書を絞り込み, 文書の中から得たい技術ナレッジを取得し, 事業部へ回答する. 具体的な事例を図 1 に示す. 質問は材料開発業務関連で はあるが、材料や製品は多岐に渡る.検索された文書の中からナレッジ記載箇所を特定するために多くの文章に目を通す必要があり, 従来の検索方法では欲しいナレッジにたどり着くまでの負荷が大きいことが問題点であった. そこで,膨大な文書からユー ザの知りたいナレッジを直接特定できるように,質問応答タスクで活用されている Retriever-Reader モデルの検証を実施した. Retriever-Reader モデルとは, 大量の文書から質問に関連する文書を検索する Retriever と検索された文書から回答を抽出または生成する Reader で構成されているモデルである[1][2]. Retriever として, TFIDF や BM25[3]のように質問文中に存在する単語を用いたマッチングや,質問文や文書を密なベクトルに変換し,類似度を用いて検索する方法が挙げられる.今回は,対象とするデータベースに表記ゆれが多く含まれていたため, 表記ゆれに強いベクトルによる検索方法を用いた。ベクトルへの変換には BERT[4]を用いた. Reader は抽出型と生成型に大別される. 生成型では複数の文書を基に要約した文章や,新たな文章を生成できるが,事実とは異なる意味・内容の誤った回答となる可能性がある. 今回対象とする技術ナレッジの特定において,ユーザに誤った情報を提示することは避けたいため, 情報の正 質問 : [材料名]を使うときの注意点は何?回答 : [材料名]は水分、腐食環境下で著しく劣化が進行する。 質問 : [不良名]が発生した原因と対策は?回答 : キズが入った[部品名]を使用し, 内面にキズを付けた。[部品名]に異常がないか目視検查。 図 1 材料開発業務における具体的事例 確性を重視して抽出型を用いた。 ## 2 手法 本研究では,製品開発時の材料に関する懸念事項をまとめたデータベースを対象に実験を行った。 ## 2. 1 モデル 汎用の事前学習済みモデルに対して,タスクのドメインに特化したデータで追加学習を行うとタスク精度が向上したとの報告[5]があることから, BERT base Japanese (unidic-lite with whole word masking, jawiki-20200831) iに対して, 対象データベースのテキスト(約 $7 \mathrm{MB})$ で追加学習を行った. 追加学習では Masked Language Model のみで学習を行った. 追加学習したモデルを基に、Retriever および Readerへのフアインチューニングを行った. Retriever 2 つのベクトル変換手法を比較した. 1 つ目は追加学習済みの BERTに質問文を入力し, BERT の出力ベクトルの平均を用いて Pooling し, 質問文のベクトルとした.データベースの各文書も同様に,出力ベクトルの平均を用いて Pooling し, 各文書のベクトルとした. 2 つ目は効率的に精度の高いべクトル化が行えると報告された Sentence BERT[6] ${ }^{\mathrm{ii}}$用いて質問文および文書のベクトルを得た. ファインチューニングの目的関数には triplet Objective Function を用いた. 基準(anchor)となる文章aに対し,似ている(positive)文章 p または似ていない(negative)文章 $\mathrm{n}$ との埋め込みベクトル $\mathrm{s}$ の差を取り, 式 1 を最小化する目的関数である. anchor-positive, anchornegative の差は文書ベクトル間のコサイン類似度を用いた. Pooling 手法は出力ベクトルの平均を使用した. $ \max \left(\left(s_{a}-s_{p}\right)-\left(s_{a}-s_{n}\right)+\varepsilon, 0\right) $ Reader 2 つの抽出手法を比較した. 図 2 にそれぞれのモデルを示す. 1 つ目は位置抽出で, SQuAD 2.0 [7]に対する BERT の既存手法[4]を用いた. 質問文と抽出対象の文書を連結させた入力に対して, 回答可能な文書では回答の開始と終了の位置を, 回答不可能な文書では, 開始と終了が文頭[CLS]の位置を出力するよう学習した. 2 つ目はラベル判定で, 質問文とともに抽出対象の文書の各文をモデルに入力し,質問文に対する回答か否か[CLS]を用いてラベルを  判定させた.各文は,文章を句点で区切った. ## 2. 2 学習データ 表 1 に学習に使用したデータ数を示す. データベ一ス内の文章が回答となるような質問文を人手で作成した.今回はデータベースの中でも特定の材料に関する QA セットを作成した.QA セットの 2 割を評価用として使用した。 Retriever 質問文を anchor、質問に対する回答を含む文書を positive,回答を含まない文書を negative として, 1 件の質問につき, 10 件の triplet データを作成した. negative データは回答を含まない文書の中からランダムに 10 件抽出した. ## Reader 位置抽出では,質問文,回答を含む文書,回答の開始位置および終了位置を 1 セットとしたデータを作成した. ラベル判定では, 質問文, 句点で句切った後の文およびその文が回答か否かのラベルを 1 セットとしたデータを作成した. (a) (b) 図 2 Reader モデル(a)開始/終了位置を出力 (b)回答か否かのラベルを出力 ii https://www.sbert.net/ 表 1 文書数, QA セットおよび Retriever, Reader の訓練データ数 ## 3 評価方法 ## 3. 1 Retriever 評価用の質問文に対して,データベースから関連する文書を検索した.質問文のベクトルとデータベ ースの各文書の文書ベクトルとのコサイン類似度を用いて,類似度が高い順に文書をランキングした。上位 1 件または 10 件以内に質問に対する回答を含む文書があるか判定し,正解率で精度を評価した。 1 件の質問につき複数件の正解文書が存在する場合もあるが, 10 位以内の正解文書数やどの文書が上位に来ても評価は変わらないこととした. ## 3. 2 Reader 評価用の質問文に対して, 3.1 の Retriever で類似度上位 10 件以内の回答を含む文書を用いた. 位置抽出では,質問文と回答を含む文書を入力し,回答の開始/終了位置を得た. 抽出部分に回答が含まれているかを判定し, 正解率で精度を評価した. ラベル判定では,回答を含む文書を句読点で句切り,質問文と分割後の各文を入力し, 回答か否かのラベルおよびその確率を得た. 回答である確率が最も高い文書中の 1 文が実際の回答と合っているかを判定し,正解率で精度を評価した。 ## 4 結果と考察 ## 4. 1 Retriever Retriever の結果を表 2 に示す. 上位 1 件, 10 件以内の正解率ともに Sentence BERT の精度が高くなった. BERT を用いた検索結果では, 質問文中の重要な単語(材料名, 加工方法など)を見逃している例も多かった. 一方 Sentence BERT では, BERT での検索結果ほど見逃している例は少なく, 質問文と文書で異なる表記で記載されていても類似度上位になる文書も確認された. BERT で得た文書ベクトルは,追加学習後の各トークンの出力ベクトルの平均を取ったものであり, 各トークンのベクトルは Masked Language Model に適したベクトルであるが,Pooling した場合に文書の特徴が得られるようなべクトルではないことが推測される. そのため, Sentence BERT でファインチューニングをした方が,似ている文書同士の Pooling したベクトルが類似するように各ト一クンのベクトルが出力されるため, 正解率が向上したと考えられる。 表 3 に Sentence BERT のランキング上位 10 件以内で,質問への回答を含まない文書例を示す. 質問ではつェノール樹脂りに対する留意点を尋衩ているが,異なる樹脂である'PBT'の留意点が文書には記載されていた。樹脂材料の留意点という観点では類似文書であるが,今回の質問応答においては,不適切な文書となる。人手で QA セットを作成した関係から訓練データが非常に少なく, 樹脂の留意点としての類似文書の傾向は学習できたが,材料種の違いは学習できなかったと推測される. 回答として不適切な文書を triplet $の$ negative として加え訓練データを拡充することで,類似文書の中でも回答として適切な文書の傾向を学習でき, 精度向上できると考えられる。 表 2 Retriever の結果 & \\ 表 3 Sentence BERT の類似度上位 10 件以内で回答を含まない文書例 表 4 Reader の結果 ## 4. 2 Reader Reader の結果を表 4 に示す. 4.1 の Sentence BERT のランキング上位 10 件以内で回答を含む文書 50 件に対して評価を行った。位置抽出およびラベル判定どちらも正解率はほぼ同等であった。しかし, 位置抽出では入力した文書がそのまま出力されていた例が多く,必要な部分のみを抽出することができていなかった. ラベル判定による文単位での抽出では,正解した文書で回答でない部分を確実に除外することができており.平均して 50\%以上の文を削減することができた. 回答として抽出した文は,文書からそのまま抽出しているため, 質問には含まれていない製品, 部品, 工程などの固有名詞が含まれている例が見られた. 質問応答の回答として提示する場合,該当箇所の抽出後に固有名詞を取り除くなどの後処理が必要になると考えられる. さらに, 質問への回答として自然な形に文を成形する処理を加えることで,正確性を保った情報かつ適切な回答を提示できると考えられる。 ## 5 おわりに 本稿では,技術ナレッジ活用に向けた RetrieverReader モデルの検証を行った. 対象とするデータベースに表記ゆれが多いことから BERTを用いて Retriever および Reader のファインチューニングを実施した.Retrieverでは,質問文と質問への回答を含む文書のベクトルの類似度が高くなるよう Sentence BERT でファインチューニングすることで,正確率が向上した.Readerでは,回答を含む文書を句点で各文に分割し,回答か否かのラベルの判定を行うことで質問に対する回答を適切に判断できることが分かった. 今後, Retriever では質問中の材料種の違いも考慮できるような訓練データセットの拡充,Reader では, 質問への回答として不要な固有名詞の除外, 回答として自然な語尾への変換という取り組みが必要である. ## 参考文献 1. Kenton Lee, Ming-Wei Chang and Kristina Toutanova. Latent Retrieval for Weakly Supervised Open Domain Question Answering, In ACL, 6086-6096, 2019. 2. Vladimir Karpukhin, Barlas Oguz, Sewon Min, Patrick Lewis, Ledell Wu, Sergey Edunov, Danqi Chen and Wen-tau Yih. Dense Passage Retrieval for OpenDomain Question Answering, In EMNLP, 6769-6781. 2020. 3. S. Robertson and H. Zaragoza. The probabilistic relevance framework: Bm25 and beyond. Found. Trends Inf. Retr., Vol. 3, 333-389 2009. 4. Jacob Devlin, Ming-Wei Chang, Kenton Lee and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding, In NAACL, 4171-4186, 2019. 5. Suchin Gururangan, Ana Marasović, Swabha Swayamdipta, Kyle Lo, Iz Beltagy, Doug Downey and Noah A. Smith. Don't Stop Pretraining: Adapt Language Models to Domains and Tasks, In ACL, 8342-8360. 2020. 6. Nils Reimers and Iryna Gurevych. Sentence-BERT: Sentence embeddings using Siamese BERT-networks, In EMNLP-IJCNLP, Association for Computational Linguistics, 3982-3992. 2019. 7. Pranav Rajpurkar, Robin Jia, and Percy Liang. Know what you don't know: Unanswerable questions for SQuAD, In ACL, 784-789 2018.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q8-4.pdf
# コンテキストの量が質問応答モデルのショートカット推論に与 える影響について 秋元康佑 竹岡邦紘 小山田昌史 NEC データサイエンス研究所 $\{$ kosuke_a,k_takeoka, oyamada\}@nec.com ## 概要 質問応答は近年活発に研究が進められている言語理解タスクであるが, 近年の深層学習を利用した質問応答モデルは訓練データセット中のバイアスを利用したショートカット推論に陥りやすいことが知られている.一方この問題に関する既存研究の分析はショートカット推論を促す情報源文章の特徴に関するものがほとんどであり, 情報源文章の数(長さ) が変化した場合のショートカット推論の挙動については詳しくわかっていない. 本研究ではオープンドメイン質問応答の設定に注目し, 特に検索によって得られた情報源文章を利用する retrieve-then-read 方式の質問応答モデルが持つショートカット推論の挙動が情報源文章の数によってどのように変化するかを調べた. 実験の結果, そのような質問応答モデルは回答に必要ない不要な情報源文章の数が増えるほどショートカット推論を引き起こしやすくなり,この問題が主にモデルに悪影響を及ぼす一部の文章によって引き起こされていることがわかった. ## 1 はじめに 質問応答 (question answering) とは, 利用可能な情報源文章(コンテキスト)を基にユーザーから与えられた質問文に対する回答を自動的に作成するタスクである. 近年では大規模なベンチマークデータセッ卜[1]が公開されるなど活発に研究が行われており,大規模言語モデルの利用などによって一部のベンチマークデータセットに対する性能が人間を超えるなど性能面での進歩も著しい [2]. 一方で質問応答モデルが本来意図されていた言語理解能力ではなく, 訓練に利用したデータセットに含まれるバイアスなどを利用したショートカット推論 [3] を学習してしまう事例も報告されており,ベンチマークデータセット以外への実応用に向けた課題 となっている. 例えば [4]では質問応答モデルが質問と単語の重複が大きいコンテキスト文に依存しており,そうした文に正答が含まれない場合に誤答が増える結果が報告されている。 本研究では特にコンテキストが明示的にシステムに与えられないオープンドメイン質問応答の設定に注目し,そのような設定で近年よく用いられる retrieve-then-read 方式 [5] と呼ばれるシステムが持つショートカット推論への脆弱性について研究する. retrieve-then-read 方式のシステムは質問文をクエリとしてコンテキストを外部コーパスから検索して得る. そのため質問文とコンテキストとの単語的・意味的な類似度が大きくなりやすい特徴があり, 前述した従来研究において指摘されているショートカッ卜推論に対する脆弱性が大きな課題となりうる.さらにこうしたシステムでは検索の recall を確保するため比較的多くの文章 (100 個程度まで) を利用することが一般的 [6] であるため, モデルにショートカッ卜推論を促す文が複数含まれる可能性がある。 しかしショートカット推論に関する従来研究はコンテキストに含まれる文章の内容(意味や単語)を対象に分析を行っており,コンテキストに含まれる文章の量に関連するショートカット推論の挙動は著者らの知る限り [7] における限定的な実験があるのみである. さらにコンテキストの量は推論時だけでなく, retrieve-then-read 方式の質問応答モデルを訓練する際にも性能に影響を与えていることが示されている $[6,8]$. しかし特に質問応答に不要なコンテキストの量が性能に与える影響が明らかになっていないなど, 訓練時のコンテキストの量に関する研究もまだ十分行われているとは言えない。 そこで本研究では retrieve-then-read 方式の質問応答システムの訓練および推論の挙動が,コンテキスト中の必要な文章 (positive passage) と必要ない文章 (negative passage)の量にどのように影響を受けるかを分析する.この研究は現在進行中であるが, 本稿では執筆時点で完了している推論時の挙動に関する実験の結果について報告する。 ## 2 関連研究 与えられた自然言語文のコンテキストを利用して質問応答を行う機械読解の分野は近年 SQuAD デー タセット [1] などの大規模なべンチマークが公開されるなど活発に研究が行われており, 大規模言語モデルを利用した手法 [9] などが提案されている.またコンテキストが明に与えられないオープンドメイン質問応答の分野の研究も盛んに行われており, Wikipedia などの外部知識源から質問に関連する文章を検索してコンテキストとして利用する retrieve-then-read 方式 [5] が現在主流となっている. retrieve-then-read 方式ではコンテキストに含まれる情報の recallを増やすため比較的多くの文章をコンテキストとして利用することがあり, 効率的に複数の文章の情報を利用するために RAG[10] や FiD[6] などのモデルが提案されている. 一方で学習された質問応答モデルがデータセットに含まれるバイアスに頼ったショートカット推論 [3]を学習してしまっていることを示唆する事例も多数報告されている $[11,4,12,13,14,15,16,17,7,18]$.例えば $[11,4,7]$ ではモデルが質問文と単語的な重複が大きい文に注目して誤答してしまう傾向があることを示す結果が報告されており, [16] では特にモデルが注目している質問文中の単語が重複している場合にこの傾向が強いことが示されている. また質問応答モデルはエンティティの型情報も利用しており,エンティティの型のみを考慮して正答が得られるバイアス [14]を利用したショートカット推論を学習してしまいうることが示されている [15]. これらの既存研究では主にモデルにショートカット推論を促しやすいコンテキストの内容に関する分析を行っているが,一方でそのようなコンテキストの量に関連した分析も行っている研究は著者らの知る限り [7] のみで比較的少ない. ショートカット推論以外の分野では, コンテキストに含まれる矛盾した情報の量による質問応答モデルの挙動を分析した論文がつい最近発表されている $[19,20]$. ## 3 実験 本章ではまず retrieve-then-read 方式の質問応答モデルの推論時の性能が, コンテキスト1) 中の回答に必要な情報を含む文章 (positive passage) と必要ない文章 (negative passage) の量に依存することを示し (§3.3), この性能低下が特に質問応答モデルに性能低下を促す一部の文章 (hard negative passage) によって引き起こされていることを示す. ## 3.1 データ 本稿における実験では, オープンドメイン質問応答のベンチマークデータセットである Natural Question[21]を利用した. 本実験では retrieve-thenread 方式の検索部分については分析の対象外とし, Wikipedia から DPR[22] によって検索された文章が各質問に対するコンテキストとして予め付与されている, [6] における前処理済みデータを利用した.これらのデータセットにおける各質問のコンテキストについて,アノテーションされている正答を文字列的に完全一致で含む文章を positive passage, 含んでいない文章を negative passage として取り扱った. 後述するモデルの学習には train サブセットを利用することとし ${ }^{2)}$, モデルの性能評価には $\operatorname{dev}$ サブセットを利用した ${ }^{3)}$. ## 3.2 質問応答モデル 本稿における実験では, 質問応答モデル (reader) として近年高い性能を示している FiD[6] と呼ばれる encoder-decoder モデルを対象とした.FiD は text-to-text タスクで利用される T5[23] を拡張したモデルであり,より効率的な推論を実現するため複数の入力文 $\left.\{s_{1}, \ldots, s_{n}\right.\}$ をそれぞれ独立に encoder $f_{\text {enc }}$ によってエンコードする ${ }^{4}$ ことが特徴である. 各入力文 $s_{i}$ のエンコード結果 $f_{\mathrm{enc}}\left(s_{i}\right)$ は結合されて decoder $f_{\mathrm{dec}}$ に入力され, 自己回帰的に出力文 $o$ が生成される ${ }^{\text {) }}$.(すなわち $[x ; y]$ をべクトル列 $x$ と $y$ の 1)本稿では個々の情報源文章 (passage) と,それらの集合としてのコンテキストを用語として区別する。 2)実際に訓練データとして利用されるデータと early stopping のための検証用データの 2 つにさらに分割した. 3)全ての実験で同じ質問集合が評価に利用されるよう,このうち positive passage を 8 個以上, negative passage を 64 個以上持つような質問のみを利用した。 4) T5 と同様に, 大力文中の各トークンごとにベクトルが計算される. 5) FiD は与える入力文の順序の並べ替えによって出力がほとんど変化しないことが報告されており [8], 著者らの予備実験 結合として, $o=f_{\mathrm{dec}}\left(\left[f_{\text {enc }}\left(s_{i}\right) ; \ldots ; f_{\mathrm{enc}}\left(s_{n}\right)\right]\right)$ である. $)$質問応答モデルとして利用される際は,一般的に質問文 $q$ とコンテキスト中の $i$ 番目の文章 $p_{i}$ を用いて $s_{i}=$ "question: $q$ context: $p_{i}$ "のようなテンプレー 卜に従い入力文 $s_{i}$ を作成し, 出力文 $o$ として正答を出力させるように学習する ${ }^{6}$. また FiD を初期化するための T5 モデルとしては, transformers ライブラリ [24] の t5-base を利用した。 ## 3.3 positive, negative passage の量による 性能変化 本節では質問応答モデルの性能がコンテキスト中の positive passage と negative passage の個数によってどのように変化するかを調べる. まず実応用に近い自然なコンテキストが入力された際の挙動を調べるため, 各質問毎に positive passage と negative passage をそれぞれ重複なしで指定した個数サンプルフ)した場合の正答率を測った. 結果は表 1 の上部のようになっており ${ }^{8}$, 以下のような傾向が観察された。 (1) 同じ positive passage の集合を与えられていても, negative passage の個数が増えると正答率が低下する。 (2) (1) の傾向は, positive passage の個数が少なくなるとより顕著となる。 より個数変化のみによる影響を評価するため, ある 1 つの negative passage を指定した個数だけコピー してコンテキストに加えた場合の正答率も評価した (以後この設定を「重複コピー設定」と呼ぶ $)^{9}$. 結果は表 1 の下部のように前述した (1)と同様の結果が得られた. このことから (1) の結果は含まれる情報の内容に一切の変化が無く個数のみが変化する場合でも起こることが確認できた. さらに (1) の結果がどの程度 negative passage 中の矛盾する情報10) や正答の表記ゆれ由来の効果による でも同様の結果が確認できたことから, 本実験ではコンテキスト中の文章の順序については学習時, 推論時共に特に意識しないこととした 6)本実験ではコンテキスト中の各文章 $p_{i}$ のタイトル $t_{i}$ も用いて $s_{i}=$ "question: $q$ title: $t_{i}$ context: $p_{i}$ "とした. 7)各質問に対しランダムに 5 通りサンプルして結果を平均した. 8)各行, 各列はそれぞれ同じ positive, negative passage の集合に対する実験結果である。 9)各質問ごとに, 全ての negative passage に対して正答率を評価し結果を平均した。 10)例えば正答以外の別解が存在することを示す情報が挙げられる.このような矛盾を含むコンテキストに対する分析も行われているが $[19,20]$, そのようなコンテキスト中の矛盾に対するモデルの望ましい挙動は応用次第で変わりうる. その表 1 positive および negative passage の個数の変化による質問応答モデルの正答率 (exact match)の変化. all は各質問毎に利用できる positive または negative passage を全て利用したことを示す. 図 1 negative passage が持つ相対スコアのヒストグラム. ものなのかを明らかにするため, negative passage の追加によって回答が変化した事例 ${ }^{11} を 100$ 個サンプルして人手評価を行った. その結果, positive passage のみ与えられていた場合にモデルが正解できていた事例は 87 個存在し, そのうち変化後の回答が正答の表記ゆれだった事例は 16 個 (18\%), negative passage 中に正答に矛盾する情報が含まれていた事例は 20 個 $(22 \%)$ であった. この結果から, 残りのおよそ半数の事例については negative passage に矛盾する情報が含まれないにも関わらずモデルが誤答を出力してしまっていることが確認された. ## 3.4 negative passage ごとの性能変化に及 ぼす程度の違い 本節では 83.3 で確認された negative passage の悪影響が, 個々の negative passage によってどのように異なるかについて調べる. ## 3.4.1 hard negative passage ある negative passage がモデルに悪影響を及ぼしている度合いの指標として,ここでは $\$ 3.3$ の重複コピー設定でその negative passage を 64 個コピーして  図 2 ある閾値以下の相対スコアを持つ negative passage のみをコンテキストに追加した際の正答率の変化 (赤実線). 青破線は各閾值について同数の negative passage をランダムに選んで追加した場合の正答率の変化を示す. コンテキストに追加した場合に正答が出力される対数尤度 ${ }^{12)}$ がどれだけ変化したかの「相対スコア」13) を利用する. negative passage の相対スコア分布は図 1 のヒストグラムのようになっており,ほとんどの negative passage が 0 に近い相対スコアを持っている. 一方で一部の negative passage は大きな負の相対スコアを持っており, モデルが正答を生成することを強く阻害していることがわかる (以後このような negative passage を hard negative passage と呼ぶ). そこで $\$ 3.3$ で確認された negative passage が及ぼす悪影響が実際にはこの一部の hard negative passage の影響で引き起こされたのではないかという仮説を検証するため, 相対スコアの昇順に negative passage を追加した際に正答率がどのように変化するかを調べた (図 2). その結果, 相対スコアが昇順になるように negative passage を追加した場合, 20 個程度しか追加していない状態で全 negative passage を追加した場合と同程度の正答率低下を再現できることがわかった. このことから, 相対スコアが 0 に近い大部分の文章はモデルの推論に大きな影響を与えず、主に hard negative passage が性能低下の原因であると考えられる。 ## 3.4.2 hard negative passage の識別可能性 最後に \$3.4.1 でモデルの推論に対する悪影響が明らかになった hard negative passage を, その文章の内  表 2 各文章特徴量と相対スコアの間の相関係数. 容から識別可能かどうかを調べた. §2 で述べたように既存研究においていくつかの文章特徴量にショー トカット推論との関連性が指摘されている.ここではそれらのうち, 質問と文章の間の最長一致 $n$-gram 長 [11], 共通単語数 [4], および文べクトル間のコサイン類似度 [14], そして retrieve-then-read システムの検索システムによる文章の検索順位,の 4 つの特徴量を計算し相対スコアとの間のケンドールの順位相関係数 $\tau_{b}$ [25] によって相関の程度を評価した. 結果は表 2 のようになっており, 弱い相関の存在は確認できたものの hard negative passage かどうかの識別が可能なほどの強い相関は確認できなかった ${ }^{14)}$. ## 4 結言 本稿では retrieve-then-read 方式の質問応答モデルが,コンテキストとして与えられる文章の量によってどのような影響を受けるかを調べた. その結果質問応答モデルは質問への回答に不要な文章が多くなるほど正答率が低下すること, そしてこの影響が主にモデルの推論に悪影響を与えやすい一部の hard negative passage によって引き起こされていることがわかった. さらにある 1 つの不要な文章に注目したとき,コンテキスト中に何度も重複して出現させることで正答率を下げることができることも確認された. 今後の課題としては, 本稿における実験結果を踏まえて hard negative passage に対してよりロバストな質問応答モデルを学習する方法を検討することが挙げられる。 ## 参考文献 [1] Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, and Percy Liang. Squad: $100,000+$ questions for machine comprehension of text. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2383-2392, 2016. [2] Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, and Radu Soricut. Albert: 14)特徴量による相対スコアの分布の変化は付録の図も参照されたい. A lite bert for self-supervised learning of language representations. In International Conference on Learning Representations, 2019. [3] Robert Geirhos, Jörn-Henrik Jacobsen, Claudio Michaelis, Richard Zemel, Wieland Brendel, Matthias Bethge, and Felix A Wichmann. Shortcut learning in deep neural networks. Nature Machine Intelligence, Vol. 2, No. 11, pp. 665-673, 2020. [4] Saku Sugawara, Kentaro Inui, Satoshi Sekine, and Akiko Aizawa. What makes reading comprehension questions easier? In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 4208-4219, 2018. [5] Danqi Chen, Adam Fisch, Jason Weston, and Antoine Bordes. Reading wikipedia to answer open-domain questions. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1870-1879, 2017. [6] Gautier Izacard and Édouard Grave. Leveraging passage retrieval with generative models for open domain question answering. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 874-880, 2021. [7] Yichen Jiang and Mohit Bansal. Avoiding reasoning shortcuts: Adversarial evaluation, training, and model development for multi-hop qa. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 2726-2736, 2019. [8] Shujian Zhang, Chengyue Gong, and Xingchao Liu. Passage-mask: A learnable regularization strategy for retriever-reader models. In Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing, pp. 3931-3943, 2022. [9] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [10] Patrick Lewis, Ethan Perez, Aleksandra Piktus, Fabio Petroni, Vladimir Karpukhin, Naman Goyal, Heinrich Küttler, Mike Lewis, Wen-tau Yih, Tim Rocktäschel, et al. Retrieval-augmented generation for knowledge-intensive nlp tasks. Advances in Neural Information Processing Systems, Vol. 33, pp. 9459-9474, 2020. [11] Robin Jia and Percy Liang. Adversarial examples for evaluating reading comprehension systems. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 2021-2031, 2017. [12] Miyoung Ko, Jinhyuk Lee, Hyunjae Kim, Gangwoo Kim, and Jaewoo Kang. Look at the first sentence: Position bias in question answering. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1109-1121, 2020. [13] Wee Chung Gan and Hwee Tou Ng. Improving the robustness of question answering systems to question para- phrasing. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 6065-6075, 2019. [14] Mingzhu Wu, Nafise Sadat Moosavi, Andreas Rücklé, and Iryna Gurevych. Improving qa generalization by concurrent modeling of multiple biases. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 839-853, 2020. [15] Yuxuan Lai, Chen Zhang, Yansong Feng, Quzhe Huang, and Dongyan Zhao. Why machine reading comprehension models learn shortcuts? In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 989-1002, 2021 [16] Pramod Kaushik Mudrakarta, Ankur Taly, Mukund Sundararajan, and Kedar Dhamdhere. Did the model understand the question? In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1896-1906, 2018. [17] Kazutoshi Shinoda, Saku Sugawara, and Akiko Aizawa. Which shortcut solution do question answering models prefer to learn? arXiv preprint arXiv:2211.16220, 2022. [18] Kazutoshi Shinoda, Saku Sugawara, and Akiko Aizawa. Look to the right: Mitigating relative position bias in extractive question answering. arXiv preprint arXiv:2210.14541, 2022. [19] Hung-Ting Chen, Michael JQ Zhang, and Eunsol Choi. Rich knowledge sources bring complex knowledge conflicts: Recalibrating models to reflect conflicting evidence. arXiv preprint arXiv:2210.13701, 2022. [20] Orion Weller, Aleem Khan, Nathaniel Weir, Dawn Lawrie, and Benjamin Van Durme. Defending against poisoning attacks in open-domain question answering. arXiv preprint arXiv:2212.10002, 2022. [21] Tom Kwiatkowski, Jennimaria Palomaki, Olivia Redfield, Michael Collins, Ankur Parikh, Chris Alberti, Danielle Epstein, Illia Polosukhin, Jacob Devlin, Kenton Lee, et al. Natural questions: a benchmark for question answering research. Transactions of the Association for Computational Linguistics, Vol. 7, pp. 453-466, 2019. [22] Vladimir Karpukhin, Barlas Oguz, Sewon Min, Patrick Lewis, Ledell Wu, Sergey Edunov, Danqi Chen, and Wentau Yih. Dense passage retrieval for open-domain question answering. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6769-6781, 2020. [23] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei $\mathrm{Li}$, and Peter J Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, pp. 1-67, 2020. [24] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, et al. Huggingface's transformers: State-of-the-art natural language processing. arXiv preprint arXiv:1910.03771, 2019. [25] Maurice G Kendall. The treatment of ties in ranking problems. Biometrika, Vol. 33, No. 3, pp. 239-251, 1945. ## A 実験設定に関する詳細情報 モデルの学習には transformers ライブラリの Seq2SeqTrainer クラスを利用し, 学習率は $5 \times 10^{-5}$, ステップ数は 15000 , バッチサイズは 64 , weight decay の係数は 0.01 , warmup のステップ数は 1000 とした.開発データでの評価は 500 ステップごとに行い, 評価指標としては開発データでの正答率を利用した。学習および評価に利用したデータセットのサイズは表 3 の通りである. ## B hard negative passage $の$ 普遍性 について ある相対スコアの negative passage を持つ質問の割合を調べた結果は図 3 のようになっており, hard negative passage が一部の質問に限らず多くの質問について存在していることがわかる. また異なるシー ド值で学習した 5 つのモデルの相対スコアのばらつきは図4のようになっており, モデルによってばらつきがあるもののおおむね相関していることが確認された. 図 3 ある相対スコアの negative passage を持つ質問の割合. ## C negative passage の特徵量によ る相対スコア分布変化 §3.4.2 の実験における negative passage の各特徴量による相対スコアの分布の変化は図 5,6のようになっている.ここで青点線, 黒線, 赤破線, 赤点線はそれぞれ $95,50,20,5 \%$ 分位点である. 図4 異なる seed で学習したモデルによる相対スコア分布. 赤, 青破線はそれぞれ $5,95 \%$ 分位点. 図 5 最長一致 $n$-gram 長および共通単語数による相対スコア分布変化. 図 6 コサイン類似度および検索順位による相対スコア分布変化.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q8-5.pdf
# 意味的類似度計算システムによる チャットボット FAQ システムの性能向上 栗原健太郎 ${ }^{1,2}$ 二宮大空 ${ }^{2}$ 友松祐太 ${ }^{2}$ 1 早稲田大学理工学術院 2 株式会社 AI Shift kkurihara@akane.waseda.jp \{kurihara_kentaro, ninomiya_hirotaka, tomomatsu_yuta\}@cyberagent.co.jp ## 概要 カスタマーサポートや社内ヘルプデスクなどにおける問い合わせ対応に、チャットボットが適用されつつある。AI Shift では、各種サービスにおけるユーザの質問に自動回答するシステムとして Dense Retriever [1]を活用したチャットボット FAQ システムの構築を検討している。Dense Retriever の学習に自社の事業で収集している対話ぺアを用いているが、正例と見做している対話ぺアの中には、2 文間の内容が大きく異なる品質の悪い対話ぺアが存在する。しかし、顧客の多様さとデータ量の多さ故に人手によるそれらの除去は非常に手間がかかる作業となっている。本研究では、意味的類似度計算システムを用いた学習データの自動フィルタリング手法を提案する。実験の結果、提案手法による FAQ システムの性能向上を確認することができた。 ## 1 はじめに 多くの企業や団体が提供するサービスにおけるカスタマーサポートなどにおいて、チャットボットが適用されつつある。チャットボットが提供する機能の一つに、各種サービスにおける「よくある質問」などと呼ばれる Frequently Asked Questions (FAQ)検索を用いたユーザ質問への回答機能が存在する。 FAQ 検索では、企業が保持する FAQ のデータベー スに基づき、ユーザ質問に対して最もマッチする回答を得ることができる。 我々は現在構築を検討中のチャットボットの FAQ システムにおける検索手法として、Open-Domain QA で有効とされている Dense Retriever [1] を採用する。 Dense Retriever の学習には、自社のチャットボット事業で収集しているくユーザ質問, FAQ 質問 >を対 話ペアと見做した対話データを用いる1)。本対話データにおいて、ユーザ質問とユーザが選択した FAQ 質問の対話ぺアを正例として学習に用いる。 しかし、プロダクトで収集される対話データには、ユーザが選ぶ FAQ 質問の内容が質問内容とマッチしていない品質の悪い対話ぺアが含まれているという問題がある。これらを正例と見做して学習することで、Dense Retriever の学習の際にノイズとなる恐れがある。品質の悪い正例の例を表 1 に示す。いずれもユーザ質問と $\mathrm{FAQ}$ 質問の内容が大きく異なるため品質の悪い正例と言える。また、複数顧客のデータからランダムサンプリングした対話ぺアに対して、筆者による品質の良い正例であるか否かについてのアノテーションを実施した結果、品質の \{良い正例: 455 件, 悪い正例: 328 件 \} となっており、品質の悪い正例が多く含まれている。 一方で、多様な顧客から多数の対話ぺアを収集していることから、人手での品質の悪い正例の除去は大変手間がかかる作業となっている。人手フィルタリング以外の品質の悪い正例を除去する手段として、FAQ 質問選択後にユーザがさらに選択するフィードバック質問の活用が考えられる。フィー ドバック質問とは、FAQ 選択後に表示される回答によって課題を解決することができたかを「はい」「いいえ」の 2 択でユーザが回答する質問である。 ここで「はい」が選択されたデータのみを収集することで、品質の悪い正例を除去することが可能である。しかし、フィードバック質問に回答するユーザ 1)対話データの収集方法の詳細については二宮ら [2]の 4 章に原則従う。 は少なく、収集できるデータ量も著しく減少してしまう。そのため、学習データのフィルタリング方法としてはふさわしくない。 そこで本研究では、意味的類似度計算システムを用いた対話ぺアの類似度付与による品質の悪い正例の自動フィルタリング手法を提案する。実験の結果、提案手法によるフィルタリングを適用したデー タで学習した FAQ システムは、フィルタリング未適用のデータで学習した FAQ システムと比較して性能が向上することを確認することができた。 ## 2 関連研究 Open-Domain QA タスクにおける文書検索では、表層情報による文書検索手法として TF-IDF や BM25 [3] が用いられていた。昨今では密なべクトル表現に基づいた文書検索を行う Dense Retriever が採用されつつあり、 $\mathrm{QA}$ 分野への適用の流れも生じている。加藤ら [4] は日本語の Open-Domain QA データセット JAQKET [5] を用いた DPR における Retriever の性能評価を実施しており、一定の性能の発揮を報告している。また、言語理解モデルの学習におけるデータの拡張による性能向上の試みも、要約タスク [6] や FAQ タスク [2] などで行われている。 Talukdar ら [7] は学習に用いるデータのフィルタリングが言語理解モデルの性能向上に寄与すると報告しているが、その調査は主に SST などの分類タスクを対象としている。 本研究では、 2 文間の類似度が低い対話ぺアを品質の悪い対話ぺアと見做し、回帰タスクである意味的類似度計算 (Sentence Textual Similarity: STS) タスクに帰着させることによるデータの自動フィルタリングを提案する。英語の STS-b [8] や日本語の JSTS [9] などはベンチマークに含まれているデータセットとして言語理解モデルの性能評価に用いられている。2つのSTS データセットの正解類似度は 0 (意味が完全に異なる)から 5 (意味が等価)の実数值で定義されており、一般的にSTS タスク全般で同様に定義される。 ## 3 意味的類似度計算システムを用い た低品質対話ペアのフィルタリング 検討中のチャットボット FAQ システムにおける Dense Retriever の学習に用いる対話データには、2文間の内容が大きく異なる品質の悪い正例が多く存在している。これらのデータを学習に用いることで、 図 1 意味的類似度計算システムを用いた学習データの自動フィルタリングのフロー モデルの学習の際にノイズとなる恐れがある。しかし、顧客の多様さとデータの多さ故に人手フィルタリングは非常に手間がかかる作業となっている。 本研究では、意味的類似度計算システムを用いた学習データの自動フィルタリング手法を提案する。提案手法のフローを図 1 に示す。意味的類似度計算システムを用いて類似度(以下 $\delta$ と呼ぶ)を獲得し、 $\delta$ が一定の値以下である対話ぺアを除去することによって自動フィルタリングを実施する。その後フィルタリングしたデータを用いて FAQ システムに用いられている Dense Retriever を訓練する。意味的類似度計算システムの構築には、言語理解モデル BERT [10] を用いる。具体的には、日本語のSTS データセットである JSTS で BERT の事前学習済みモデルをファインチューニングすることで意味的類似度計算システムを構築する。システムが算出する類似度 $\delta$ は、JSTS の正解類似度と同様に 0 から 5 の間の実数値となる。 ## 4 FAQ システムの評価実験 ## 4.1 実験設定 自社のチャットボット事業で収集した対話ぺアを用いて、チャットボット FAQ システムにおける Dense Retriever の学習・評価を行う。意味的類似度計算システムを用いたデータセットの自動フィルタリングの有効性検証のため、フィルタリングを適用した対話データと適用していない対話データそれぞれで Dense Retrieverの学習を行う。評価には Macro Average Top $\{1,3,5\}$ Accuracy を使用し、各顧客デー タ毎に Top $\{1,3,5\}$ Accuracyを算出した後、全体顧 表 2 学習データのサンプルサイズ 客数で平均することで最終的なスコアを得る。 ベースライン手法提案手法における JSTS 活用の妥当性検証のため、ベースラインとして事前学習済みモデル BERT をファインチューニングせずに意味的類似度計算システムを構築する。本システムは、対話ぺアの各文を独立にモデルに入力し、最終層の出力の [CLS] トークンのベクトルのコサイン類似度を算出して類似度を獲得する。ただしコサイン類似度は 0 から 1 の実数値で算出される一方、提案手法の類似度計算システムは 0 から 5 の実数値で類似度を算出する。そこで、ベースライン手法では、 コサイン類似度を 5 倍した値を類似度とする。 フィルタリング未適用の Dense Retriever の学習データ(以下 Raw Data と呼ぶ)と、ベースライン、及び提案手法それぞれによるフィルタリング後の学習データ(それぞれ vanilla-BERT Data, JSTS Data と呼ぶ)のサンプルサイズを表 2 に示す。 評価データの設計ドメインに依らない汎化性能を評価するため、Dense Retriever の学習に用いた顧客データで構成した既知ドメイン(以下 KnownDomain と呼ぶ)と、学習に用いていない顧客デー タで構成した未知ドメイン (以下 Unknown-Domain と呼ぶ)の 2 種類の評価データを用意する。評価データも、学習データと同様にユーザ質問とユーザが選択した $\mathrm{FAQ}$ 質問の対話ペアを正例として収集したデータを用いる。しかし、この収集方法では学習データと同様に評価データにも品質の悪い対話ぺアを含んでしまう。そのため、1節で述べたフィー ドバック質問でユーザが「はい」と回答した対話ペアのみを抽出したデータでも評価を行う。学習データと同様に収集した評価データを Normal-Data、 フィードバック質問を用いてフィルタリングを実施している評価データを Feedback-Data と呼ぶ。各評価データのサンプルサイズを表 3 に示す。 図 2 ランダムサンプリングした対話ぺアの類似度の分布を示す箱ひげ図 (valid: 品質の良い正例データ, invalid: 品質の悪い正例データに対応している) 除去する対話ぺアの類似度の閥値本実験では、除去する対話ぺアの類似度 $\delta$ の閾値による FAQ システムの性能差を比較するため、各フィルタリング手法で複数の閾値を設定する。効果的な閾値設定のため、1 節で述べた人手アノテーションした対話データの意味的類似度を、ベースライン、提案手法それぞれで獲得した。アノテーション済みデータの類似度分布を図 2 に示す。提案手法について、 $\delta$ の閾値を品質の良い正例 (valid データ) の類似度分布の第一四分位、および品質の悪い正例 (invalid デー タ) の類似度分布の第三四分位に相当する 1.5 程度に設定することで、アノテーション済みデータにおいて、valid データを $1 / 4$ 程除去しつつも、invalid データを $3 / 4$ 程除去することができる。以上より、提案手法において $\delta<1.5$ を除去する対話ぺアの類似度の閾值の1つに設定する。しかし、validデータを除去しすぎることによる意味的類似度計算システムの性能低下が懸念される。そこで、validデータを極力除去することなくinvalid データを除去するために $\delta<1.0$ も閾值に設定する。べースライン手法については valid, invalid データの類似度分布の重なりが大きく、効果的な間値設定が困難である。本実験では、提案手法における閾值設定と同様に、valid データの第一四分位および invalid データの第三四分位に相当する $\delta<3.2, \delta<3.9$ をべースライン手法の間値に設定する。 その他のハイパーパラメータ意味的類似度計算システムの構築に用いる BERT、および FAQ システムの構築に用いる Dense Retriever のファインチュー ニングにおけるハイパーパラメータを表 4 に示す。 表 4 意味的類似度計算システム、および FAQ システムの fine-tuning 時のハイパーパラメータ 各評価手法による FAQ システムの性能評価結果 (3つのスコアは左から順に $\operatorname{Top}\{1,3,5\}$ Accuracy を表す) Normal-Data ## 4.2 結果・考察 Dense Retreiver の推論性能の評価結果を表 5 に示す。全般的に JSTS Data で学習した Dense Retriever が、Raw Data で学習した場合や、vanilla-BERT Data で学習した場合のモデルの結果と比較して Accuracyが高くなっている。JSTS Data $(\mathcal{S}<1.0)$ と Raw Data それぞれで学習した結果を比較した場合、Normal-Data, Known-Domain, test において Top $\{1,3,5\}$ Accuracy はそれぞれ $1.5 \%, 2.7 \%, 2.5 \%$ 上回っており、NormalData, Unknown-Domain, test では $3.2 \%, 10.1 \%, 5.1 \%$ 上回っている。一方で、Known-Domain における性能について、vanilla-BERT Data で学習した場合の Accuracy は、Raw Data で学習した場合と同等またはそれ以下の値という結果になっている。この結果は、JSTS によるファインチューニングを行なっていない vanilla-BERT を用いた invalid データの効果的な除去は困難であること、及び JSTS を用いたファインチューニングによる文ペアの意味的類似度の学習の有用性を示している。 Normal-Data の Known-Domain における評価において、JSTS Data $(\mathcal{S}<1.5)$ で学習したモデルの Top 1 Accuracy が Raw Data で学習したモデルと比べて低い。これは、Raw Data で学習したモデルの Accuracy を上回っている JSTS $\operatorname{Data}(\mathcal{S}<1.0)$ や vanilla-BERT Data $(\mathcal{S}<3.2)$ と比較して、JSTS Data $(\mathcal{S}<1.5)$ はデー タ数が少なく、validデータが比較的多く除去されたことが原因と考えられる。 一方で、Feedback-Data の Known-Domain における評価では、JSTS Data $(\delta<1.5)$ で学習したモデルの Top 1 Accuracy が Raw Data で学習したモデルと比べ高い。この結果は、Normal-Data に含まれていてモデルが正解できなかった invalid データが、 Feedback-Data ではフィルタリングされていることが原因と考えられる。 ## 5 おわりに 本論文では、Dense Retriever ベースの FAQ システムの学習データの自動フィルタリング手法として、 JSTS でファインチューニングした BERT ベースの意味的類似度計算システムの活用を提案した。実験結果は、提案手法による FAQ システムの性能向上を確認することができたことで、人手フィルタリングによる負担の削減に貢献できる可能性を示した。 今後は、T5 [11] や BART [12], などの生成モデルを用いて、FAQに紐づいた回答文章と答えから質問文を生成することなどによって、データセットの拡張をすることを検討する。さらに、データセット拡張とフィルタリングを相互に実施することで FAQ システムの更なる性能向上を目指す。 ## 参考文献 [1] Vladimir Karpukhin, Barlas Oguz, Sewon Min, Patrick Lewis, Ledell Wu, Sergey Edunov, Danqi Chen, and Wentau Yih. Dense passage retrieval for open-domain question answering. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6769-6781, Online, November 2020. Association for Computational Linguistics. [2] 二宮大空, 邊土名朝飛, 杉山雅和, 戸田隆道, 友松祐太. チャットボット事業における dense retriever を用いた zero-shot faq 検索. 第 96 回言語・音声理解と対話処理研究会 (第 13 回対話システムシンポジウム), 2022. [3] Stephen E. Robertson, Steve Walker, Susan Jones, Micheline Hancock-Beaulieu, and Mike Gatford. Okapi at trec-3. In TREC, 1994. [4] 加藤拓真, 宮脇峻平, 西田京介, 鈴木潤. オープンドメイン qa における dpr の有効性検証. 言語処理学会第 26 回年次大会, pp. $1403-1407,2021$. [5] 鈴木正敏, 鈴木潤, 松田耕史, 西田京介, 井之上直也. Jaqket: クイズを題材にした日本語 qa データセットの構築. 言語処理学会第 26 回年次大会, pp. 1403 1407, 2020. [6] Bharath Chintagunta, Namit Katariya, Xavier Amatriain, and Anitha Kannan. Medically aware GPT-3 as a data generator for medical dialogue summarization. In Proceedings of the Second Workshop on Natural Language Processing for Medical Conversations, pp. 66-76, Online, June 2021. Association for Computational Linguistics. [7] Arka Talukdar, Monika Dagar, Prachi Gupta, and Varun Menon. Training dynamic based data filtering may not work for NLP datasets. In Proceedings of the Fourth BlackboxNLP Workshop on Analyzing and Interpreting Neural Networks for NLP, pp. 296-302, Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [8] Daniel Cer, Mona Diab, Eneko Agirre, Iñigo LopezGazpio, and Lucia Specia. SemEval-2017 task 1: Semantic textual similarity multilingual and crosslingual focused evaluation. In Proceedings of the 11th International Workshop on Semantic Evaluation (SemEval-2017), pp. 1-14, Vancouver, Canada, August 2017. Association for Computational Linguistics. [9] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese general language understanding evaluation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 2957-2966, Marseille, France, June 2022. European Language Resources Association. [10] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapo- lis, Minnesota, June 2019. Association for Computational Linguistics. [11] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer, 2019. [12] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, Online, July 2020. Association for Computational Linguistics.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q8-6.pdf
# 視覚的質問応答における視線情報を利用した 曖昧性解消に向けて 稲積 駿 1,2 河野誠也 ${ }^{2}$ 湯口 彰重 ${ }^{2,1}$ 川西康友 ${ }^{2,1}$ 吉野 幸一郎 ${ }^{2,1}$ 1 奈良先端科学技術大学院大学 2 理化学研究所ガーディアンロボットプロジェクト inazumi.shun.in6@is.naist.jp \{seiya.kawano, akishige.yuguchi,yasutomo.kawanishi,koichiro.yoshino\}@riken.jp ## 概要 視覚的質問応答 (VQA: Visual Question Answering) は,画像に関する質問が与えられた時に回答を導くタスクであり,質問と画像中の情報から回答が一意に決定する状況を仮定する。しかし,VQAを人間と実世界対話を行うロボットに応用する場合,主語の省略や指示語が,視線などのマルチモーダルな補完情報(文脈情報)と共に利用される場合がある. 本研究では画像中の人物が見ている対象の情報を利用した VQA データセットを構築し, 視線の先の物体名を VQA の曖昧性解消に利用した結果を報告する. ## 1 はじめに 実世界での事物を考慮した人間とロボットの自然なインタラクションを実現することは,Vision and Langauge 研究の到達点の一つである. この際,ロボットは自身が見ている視覚情報と人間が発する言語情報を統合・理解して,適切な応答を返す能力を備える必要がある.視覚的質問応答 (VQA: Visual Question Answering) は,画像に関する質問が与えられた際に質問に対する回答を導くタスクであり,視覚・言語情報の統合に関する重要なべンチマークが公開されている $[1,2,3]$. 既存の VQA に含まれる質問は,その意図が明確であり回答が一意に決まることが多い.しかし,人間同士のインタラクションに見られるように,実際に人間が行う質問は,指示語や主語の省略によって曖昧さが生じその回答が一意に決まらない場合がある [4]. 図 1 上は既存の VQA データセットに含まれる質問の例であり, 図 1 下は指示語や主語の省略により曖昧性が生じる質問の例である。 本研究では,VQAにおける質問の曖昧性を解消するために,視線 [5] に代表されるマルチモーダル 図 1 日本語 VQA データセット [3](図上)と視線情報付き VQA データセット (図下) の例. 図下は,画像,質問,回答に加え視線の視点と終点が付与されている。 な文脈情報を用いることを想定し,視線情報付き VQA データセットおよびタスクを提案する. 視線情報付き VQA タスクは画像内の人物が発するであろう曖昧な質問に対して,その人物の視線情報を考慮して回答する.例えば,図 1 の図下に示された曖昧な質問は,「傘を差している女性」が「赤いジャケッ卜を着た男性」に注視していることを追加情報として用いれば,回答を一意に定めることができる.本研究ではさらに,視線の先の物体が扱えるように既存の VQA モデルの入力を拡張し,視線付き VQA タスクによるモデルの評価を行った。 ## 2 関連研究 視覚的質問応答 VQA は画像処理と自然言語処理の融合分野である Vision and Language のタスクの一つに位置する $[1,2,3,6]$. VQA のタスク設定は,用意された回答群から回答を選択する設定 (選択型) と回答を生成する設定 (生成型) の二つが存在する.本研究では,生成型の設定を想定して質問と回答を収集した。VQA では基本的に画像と質問の情報から一意に定まる質問・応答ペアが用意されるが,本研究は視線情報を持たない場合に回答が曖昧になるようなデータセットを構築した。 表 1 日本語 VQA データセット [3] と視線情報付き VQA データセットの統計情報. 注視対象推定注視対象推定とは,画像に映る人物を選択し,その人物が注視しているオブジェクトを推定するタスクである。代表的なデータセットとして, Gazefollowがある [7]. Gazefollow は, MSCOCO [8] を含む様々な画像データセットから収集した人物を含む画像に対し, 人物の視線元と視線先のアノテーションを付与したものである. 視線付きVQA データセットの構築は, Gazefollow の画像と視線情報を利用した。 質問応答における曖昧性言語に生じる曖昧さの問題は質問応答システムで活発に取り組まれており,質問の曖昧性は言い換え $[9,10]$ や質問生成 [11,12] により解消するアプローチが検討されている. VQA においても,曖昧さの議論はなされている [13,14]. 選択型の VQA では, 同じ内容に対する言い換えに対応するべく, 自動評価のために 10 件程度の回答が付与される. しかし, 画像が不鮮明な場合や質問が曖昧である場合, 全ての回答が一致するとは限らない [13]. 既存研究では回答が一意になるように問い返しの質問を生成する [15] ことで選択型 VQA の問題は解消できることが示唆されている [14]. 本研究ではこのようなユーザから追加情報を引き出そうとするアプローチとは異なり, 画像の状況から得られる追加の文脈情報を利用することで曖昧性の解消を試みる。 ## 3 視線情報付き視覚的質問応答 ## 3.1 タスク設定 実験では注視対象推定のタスクを扱わず,視線の先の物体名が既に与えられていると仮定し, 視線情報付きVQAのタスクを次のように定義する. 視線情報付き VQA 画像, 質問, 視線情報先の物体名が与えられた時,モデルは回答を生成する。 ## 3.2 データ収集方法 視線情報付き VQA データセットは,クラウドソーシング1)によって構築した. Gazefollow [7] に含  まれる画像に対して,人物が見ている対象に関する質問を作成し,質問に対する回答を与える。視線の先が物体を差していない場合や画像が不鮮明である場合は質問・回答作成の対象から除いている. ワーカに対する教示を以下に示す. ・質問の文字数は 10 文字以上とする. ・視線の先に存在する物体名を直接質問に含めない. ・画像内の情報のみで回答できる質問を作成する. 一つ目の項目は,多様な語彙の質問を用意する目的で設定した。二つ目の項目は,視線情報を持たない場合に曖昧となる質問を作成する目的で設定した。三つ目の項目は,画像の内容以外で曖昧になる質問をデータセットに含めない目的で設定した. ## 3.3 統計と分析 既存の日本語 VQA データセット [3] と今回収集した視線情報付き VQA データセットを比較する。図 2 と図 3 はそれぞれ質問と回答に関する名詞の分布であり,各データセットから質問・回答ペアを 25,000 件ランダムサンプリングした. 表 1 はそれぞれの統計情報である. 質問表 1 より,ユニークな質問の割合は視線情報付き VQA $(39.2 \%)$ より日本語 VQA $(45.2 \%)$ が多く, 質問の文字長は同程度である. 図 2 より, 視線付き VQA は日本語 VQA より分布がロングテールであり,質問タイプは偏っている.とくに「what」 タイプの質問が多くを占めている。これは,視線の先の物体を質問作成の対象としたことに起因する。 回答表 1 より,ユニークな回答の割合は日本語 VQA (17.1\%) より視線情報付き VQA $(29.8 \%)$ が多く, 回答の文字長は視線情報付き VQA が長い.これは,「人物の行動」などを問う質問が多くみられたことに起因する.結果として一意なフレーズで表現できない回答が収集された. 図 3 より回答の分布に大きな差は無い. しかし, クラウドソーシング対象とした Gazefollow の画像セットが限定的であるため,視線付き VQA の回答分布の上位は,「テニス」 など特定のドメインに偏っている。 図 2 質問セットの単語数に関する分布 図4画像エンコーダと言語デコーダによるモデル. ## 4 評価実験 ## 4.1 実験設定 事前学習済みの画像エンコーダ・言語デコーダモデル [16] をベースラインとして視線情報付き VQA の評価実験を行う。モデルの詳細は 4.2 節で述べる. VQAを扱う場合のモデルの性能評価,モデルの入力を変更した場合の ablation 評価を行う. ## 4.2 モデル 図 4 にモデルの概要を示す. モデルは $\mathrm{CNN}$ ベー スの画像エンコーダ,エンコーダの埋め込み系列を低次元のベクトルへ圧縮する Mapping Network,自己回帰的に回答生成を行う言語デコーダで構成される。 画像エンコーダ画像エンコーダにより,全体画像を 640 次元の画像特徴量に変換する. Shen ら [17] にならって画像エンコーダは CLIP [18] の RN $\times 4$ を使用し, Mokady ら [16] にならって画像エンコーダのパラメータを凍結する. Mapping Network Mapping Networkを用いて,画像エンコーダから得た画像特徴量を言語デコーダへ入力可能なべクトルに圧縮する.ここで,Mapping Network は 1 層の MLP 層と 8 層の Transformer 層 図 3 回答セットの単語数に関する分布 で構成されており, 圧縮後のベクトルをPrefix Embeddings (PEs) と呼ぶ. 言語デコーダ初めに,VQA の質問を含むプロンプトから embedding 系列を取得する。この embedding 系列を Prompt Tokens (PTs) と呼ぶ. ここで,[Q] は質問を示し, $[\mathrm{A}]$ は回答生成の開始位置を示すラベルである.PEs と PTs を連結したべクトルを言語デコーダ2)に渡す。連結したべクトルの次に出現するトークン系列を VQA の回答とみなして,学習と評価を進める。なお,今回は VQA の質問に視線の先の物体名を [objs] として prompting で与えることで視線の先の物体が認識できている状況のモデルを構築しようとした. ## 4.3 データセットと評価手法 データセット日本語 VQA データセットに加え,日本語画像キャプションデータセット [19]を言語デコーダの事前学習に使用した. VQA に対するモデルの精度を評価するため,日本語 $\mathrm{VQA}$ デー タセットからテストセットを 4,000 件確保した。また,視線付きVQA データセットの訓練・開発・テストセットは 20,899 件,1,400 件,4,000 件とした. 評価手法抽出型 $\mathrm{QA}$ タスクの評価指標である Exact Match スコア (EM) と F1 スコア (F1) [20] をテストデータ全体の評価に用いる。加えて,同義な回答を正しく評価するため,正解トークンと予測トー クンが完全一致していないぺアに対しては,BERT スコア ${ }^{3)}(\mathrm{Bs})[21]$ によって回答フレーズの類似を考慮した評価を行う。 ## 4.4 評価結果 VQA によるモデル評価事前学習したモデルを日本語 VQA と視線付き VQA のテストセットで評 2)事前学習済み GPT-2 モデルを言語デコーダの初期值とする. https://huggingface.co/rinna/japanese-gpt2-medium 3)多言語 BERT の文ベクトルを評価に用いた. https: //huggingface.co/bert-base-multilingual-cased 表 2 各データセットの評価結果. 表 3 モデルの ablation 評価. PEs は Prefix Embedding, PTs は Prompt Tokens, [objs] は視線の先の物体名を表す. 価した結果を表 2 に示す. 表 2 より,日本語 VQA データセットで学習したモデルは,視線情報付き VQA データセットで fine-tuning せずとも,Bs で一定の性能が保証されることが判明した. 質問または画像の欠落が結果に与える影響視線付き VQA の訓練セットで fine-tuning したモデルの ablation 評価結果を表 3 に示す. 日本語 VQA データセットによる事前学習では言語デコーダの入力を,画像情報がエンコードされた PEs, 質問 ([Q]) と回答の開始位置ラベル $([\mathrm{A}]$ )がエンコードされた PTs で構成した. 表 3 より, 言語デコーダの入力から, [Q] または PEs を除いた場合,モデルの性能は著しく低下することが判明した。 視線の先の物体名が結果に与える影響視線付き VQA データセットに含まれる質問は意図的に視線の先の物体名 ([objs]) を欠落させているため,PTsへ [objs] を補完して fine-tuning と評価を行った.なお, [objs] は MSCOCO の物体ラベルを使用した. 図 5 はモデルの入出力例であり,「それ」という指示語が含まれた曖昧な質問の先頭に, [objs] である「ケー キ」の補完を行う. 表 3 より, [objs] を考慮することによる精度向上は見られなかった。 ## 5 分析 図 6 は,質問に対する CLIP の画像エンコーダの画像特徴を Grad-CAM [22] により可視化したヒートマップである。画像右上は視線付き VQA にみられる曖昧な質問であり,画像左下・右下は曖昧さの原因となる指示語を MSCOCO の物体ラベルで補完した質問である. 図 6 で示した全ての質問において,「motorcycle」の画像特徴と比べて「bicycle」の画像特徴は強調されていない。モデルの性能は CLIP の画像エンコーダに依存しているため, [objs] の補完による言語情報の補正は視線付き VQA の精度に影 Prompt Tokens ([obj] + [Q] + [A]) 物体: ケーキ 質問: それの材料は何が入っていますか?回答: チョコレート Prompt Tokens $([\mathrm{Q}]+[\mathrm{A}])$ 質問: それの材料は何が入っていますか? 回答: チーズソーセージトマト 正解ラベル: チョコレート 図 5 モデルの入出力例. 視線の先の物体名を赤字で,生成した回答を青字で示す. What color is it? What color is the bicycle? What color is the motorcycle? 図 6 質問ごとの画像エンコーダ(CLIP の RN $\times 4$ )の特徴量を Grad-CAM により可視化したヒートマップ. RN $\times 4$ の学習設定に合わせて質問を英訳した。 響を与えなかったと考える. 視線が指す領域や物体の矩形などを用いて画像情報を補正することや,画像エンコーダを言語情報と画像情報を同時に扱うクロスエンコーダへ変更することで,この問題は解消できる可能性がある. ## 6 おわりに 本研究では,人間と円滑なインタラクションを行う対話ロボットの実現を志向し,視線情報で補完される曖昧な質問を含む VQA データセットをクラウドソーシングで構築した. 視線の先の物体名をプロンプトへ補完した上で視線付きVQA の評価を行ったが,回答精度の向上は見られなかった. この問題へ対処すること,および注視対象推定から回答生成までを end-to-end で処理するシステムを開発することは今後の課題としたい. ## 謝辞 本研究は JSPS 科研費 JP22H04873 の助成を受けた. ## 参考文献 [1] Stanislaw Antol, Aishwarya Agrawal, Jiasen Lu, Margaret Mitchell, Dhruv Batra, C. Lawrence Zitnick, and Devi Parikh. VQA: Visual Question Answering. In ICCV, pp. 2425-2433, 2015. [2] Ranjay Krishna, Yuke Zhu, Oliver Groth, Justin Johnson, Kenji Hata, Joshua Kravitz, Stephanie Chen, Yannis Kalantidis, Li-Jia Li, David A. Shamma, Michael S. Bernstein, and Li Fei-Fei. Visual genome: Connecting language and vision using crowdsourced dense image annotations. International Journal of Computer Vision, Vol. 123, No. 1, pp. 32-73, 2017. [3] Nobuyuki Shimizu, Na Rong, and Takashi Miyazaki. Visual question answering dataset for bilingual image understanding: A study of cross-lingual transfer using attention maps. In COLING, pp. 1918-1928, 2018. [4] Satwik Kottur, José M. F. Moura, Devi Parikh, Dhruv Batra, and Marcus Rohrbach. Visual coreference resolution in visual dialog using neural module networks. In ECCV, pp. 160-178, 2018. [5] Nathan J. Emery. The eyes have it: the neuroethology, function and evolution of social gaze. Neuroscience \& Biobehavioral Reviews, Vol. 24, No. 6, pp. 581-604, 2000. [6] Danna Gurari, Qing Li, Chi Lin, Yinan Zhao, Anhong Guo, Abigale Stangl, and Jeffrey P. Bigham. VizWiz-Priv: A dataset for recognizing the presence and purpose of private visual information in images taken by blind people. In CVPR, pp. 939-948, 2019. [7] Adria Recasens*, Aditya Khosla*, Carl Vondrick, and Antonio Torralba. Where are they looking? In NIPS, Vol. 1, pp. 199-207, 2015. [8] Tsung-Yi Lin, Michael Maire, Serge Belongie, James Hays, Pietro Perona, Deva Ramanan, Piotr Dollár, and C. Lawrence Zitnick. Microsoft coco: Common objects in context. In ECCV, pp. 740-755, 2014. [9] Sewon Min, Julian Michael, Hannaneh Hajishirzi, and Luke Zettlemoyer. AmbigQA: Answering ambiguous open-domain questions. In EMNLP, pp. 5783-5797, 2020. [10] Svitlana Vakulenko, Shayne Longpre, Zhucheng Tu, and Raviteja Anantha. Question rewriting for conversational question answering. In WSDM, pp. 355-363, 2021 [11] Vaibhav Kumar and Alan W Black. ClarQ: A large-scale and diverse dataset for clarification question generation. In ACL, pp. 7296-7301, 2020. [12] Yuya Nakano, Seiya Kawano, Koichiro Yoshino, Katsuhito Sudoh, and Satoshi Nakamura. Pseudo ambiguous and clarifying questions based on sentence structures toward clarifying question answering system. In DialDoc, pp. 31-40, 2022 . [13] Danna Gurari and Kristen Grauman. Crowdverge: Predicting if people will agree on the answer to a visual question. In CHI, pp. 3511-3522, 2017. [14] Nilavra Bhattacharya, Qing Li, and Danna Gurari. Why does a visual question have different answers? In ICCV, pp. 4271-4280, 2019. [15] Yining Li, Chen Huang, Xiaoou Tang, and Chen Change Loy. Learning to disambiguate by asking discriminative questions. In ICCV, pp. 3419-3428, 2017. [16] Ron Mokady, Amir Hertz, and Amit H Bermano. ClipCap: CLIP prefix for image captioning. arXiv:2111.09734, 2021. [17] Sheng Shen, Liunian Harold Li, Hao Tan, Mohit Bansal, Anna Rohrbach, Kai-Wei Chang, Zhewei Yao, and Kurt Keutzer. How Much Can CLIP benefit vision-andlanguage tasks? In ICLR, 2022. [18] Radford, Alec and Kim, Jong Wook and Hallacy, Chris and Ramesh, Aditya and Goh, Gabriel and Agarwal, Sandhini and Sastry, Girish and Askell, Amanda and Mishkin, Pamela and Clark, Jack and Krueger, Gretchen and Sutskever, Ilya. Learning transferable visual models from natural language supervision. In ICML, Vol. 139, pp. 8748-8763, 2021. [19] Yuya Yoshikawa, Yutaro Shigeto, and Akikazu Takeuchi. STAIR captions: Constructing a large-scale Japanese image caption dataset. In ACL, pp. 417-421, 2017. [20] Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, and Percy Liang. SQuAD: 100,000+ questions for machine comprehension of text. In EMNLP, pp. 2383-2392, 2016. [21] Tianyi Zhang* and Varsha Kishore* and Felix Wu* and Kilian Q. Weinberger and Yoav Artzi. BERTScore: Evaluating text generation with BERT. In ICLR, 2020. [22] Ramprasaath R. Selvaraju, Michael Cogswell, Abhishek Das, Ramakrishna Vedantam, Devi Parikh, and Dhruv Batra. Grad-CAM: Visual Explanations from Deep Networks via Gradient-Based Localization. In ICCV, pp. 618-626, 2017.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q8-7.pdf
# 頑健な $\mathrm{FAQ$ 検索に向けた Prompt-Tuning を用いた関連知識の生成 } 1 株式会社 AI Shift 2 株式会社サイバーエージェント \{ninomiya_hirotaka, hentona_asahi, tomomatsu_yuta\}@cyberagent.co.jp ## 概要 チャットボットが提供する機能の一つに,よくある質問集(FAQ: Frequently Asked Questions)を用いてユーザの質問に回答する FAQ 検索がある.FAQ 検索では,目的語が欠落しているなど,与えられる質問が不明瞭なことが多く,検索精度の低下の要因となり得る。そこで,我々は言語生成モデルを用いて質問の明確化を行い,FAQ 検索に活用する手法を提案する。質問の明確化のためにモデルが獲得すべき知識がドメインごとに異なることから,言語生成モデルの学習コストを抑えることができる Prompt-Tuning を用いた. チャットボット事業で収集したデータを用いた実験では 3 ドメインにおいて提案手法の有効性を検証した。 ## 1 はじめに カスタマーサポートの分野において注目を集めているチャットボットは,現在多くの企業においてユーザの課題解決を促すツールとして導入されている.そして,チャットボットが提供する機能の一つである FAQ 検索は現在盛んに研究が行われている [1][2]. FAQ 検索では,事前に定義した FAQ の中からユー ザ質問との類似度が高い FAQ を選択する。この時, ユーザ質問と FAQ の間で表記が異なることが多く,質問の意味を考慮する必要があることから,我々は事前学習済み言語モデルを用いた検索モデルを構築している.特に,オープンドメイン質問応答や日本語クイズタスク JAQKET[3][4] において有効性が確認された Dense Passage Retrieval[5] の検索器 (Retriever)を利用している. FAQ 検索はオープンドメイン質問応答と異なり,検索対象となるテキスト集合が数十件から数百件程度の小規模な FAQ のデータベース(FAQDB)であ るが,与えられるユーザ質問は比較的短く不明瞭な傾向にあり,回答が困難なタスクと考えられる。例えば,「入りたいのに入れません」というユーザ質問は「入りたい」に対する目的語が欠落しているため一般的には回答不能であるが,FAQ 検索の場合は検索対象が FAQDB に絞られるため,「マイページに入れません」といった質問とマッチすれば良いと推察できる。このことから,ユーザ質問を明確化するテキストを補足することができれば,より正確に回答を提示できる可能性がある.そこで,本研究では与えられたユーザ質問からそれを明確化するテキストを生成するモデルの学習を目指す。 ただし,FAQ 検索は複数のドメインで導入されることが多く,大規模な言語生成モデルをドメインごとに学習すると学習コストが膨大になる。そこで言語生成モデルの学習には Prompt-Tuning[6] を用いる. Prompt-Tuning では,質問の明確化に必要な情報を固定長の単語列としてモデルへの入力単語列の前方に付与し,その埋め込みべクトルを学習によって最適化する。これにより,それらの埋め込みべクトルを変更するだけで単一の言語生成モデルを複数のドメインに適応可能となるので,学習コストが抑えられる。 言語モデルの発展に伴い,多くのタスクにおいて事前学習済みモデルの Fine-Tuning が効果的であることが確認される一方で,事前学習済みモデルの大規模化により Fine-Tuning が困難な場合がある。そこで,GPT-3[7] では Prompt と呼ばれるテキストを与えることで,事前学習済みモデルの重みを更新せずに,広範囲のタスクを解くことが可能であることが確認された。さらに,Prompt に関する従来研究 [8][9] によると, Prompt を適切に設定することによって事前学習済みモデルを用いて事実や常識に関するテキストを生成することが可能であることが確認されたことから,Prompt が重要な役割を果 たすことがわかる.ただし,タスクの説明等に関する Prompt は人手で作成する必要があるため, 事前学習済みモデルにとって最適な単語列であるとは限らない. そこで,先頭に固定長の単語列を付与し, それらに対する埋め込みべクトルを学習パラメタとして自動的に最適化する Prompt-Tuning が提案された [6][10]. これより, 我々は質問の明確化に必要なドメインごとの知識を Prompt に埋め込むように学習できる可能性を考慮し, 言語生成モデルを Prompt-Tuning する. ## 2 FAQ 検索 本研究で扱う FAQ 検索の処理を図 1 に示す. FAQ 検索とは,事前に定義された FAQDB から,ユーザ質問に最も適する FAQを選択するタスクである。例えば図 1 のように,「銀行振り込みの自動更新について教えて欲しい」といったユーザ質問が入力された場合,システムはFAQDB を検索する。ここで FAQDB は (1) 拡張質問 $Q^{\prime}$, (2)FAQ 質問 $Q$, (3)FAQ 回答 $A$ を 1 組とする FAQ の集合である。通常,FAQ は質問と回答のペアで表されるが,質問の複数の言い換え表現として拡張質問 $Q^{\prime}$ を設定することで検索精度が向上することが知られている [11]. 最終的に検索結果上位 1 件の拡張質問に対応する FAQ 回答をユーザに提示する。 検索モデルは Retriever と Reranker で構成される. Retriever は与えられたユーザ質問と検索対象となる拡張質問を個別にベクトルに変換する Bi-Encoder である. さらに,ユーザ質問と FAQ の単語間の Attention 計算が有効であると考え, Retriever の検索結果上位 $K ($ 実験では $K=5 )$ 件を BERT[12]をべー スとする Rerankerに与え,出力スコアを元にリランキングを行う. 実験では, Retriever の検索結果と Rerankerによるリランキングの結果を比較する. 学習時, Retriever はユーザ質問 $q$ に対する Encoder の出力ベクトルと FAQ 質問 $Q$ に対する Encoder の出力ベクトルの類似度を式 (1)により算出する. $ \operatorname{sim}(q, Q)=E_{q}(q)^{T} E_{Q}(Q) $ ここで $E_{q}, E_{Q}$ はそれぞれユーザ質問 $q$ と $\mathrm{FAQ}$ 質問 $Q$ に対する Encoderを, ${ }^{T}$ は転置を表す。 $i$ 番目の事例において $q_{i}$ をユーザ質問, $Q_{i}^{+}$を正例の $\mathrm{FAQ}$ 質問, $Q_{i, j}^{-}$を $j$ 番目の負例の FAQ 質問, $n$ を負例の FAQ 質問の総数, 訓練データの件数を $m$ とすると,訓練データは $D=\left.\{\left.\langle q_{i}, Q_{i}^{+}, Q_{i, 1}^{-}, \ldots, Q_{i, n}^{-}\right.\rangle\right.\}_{i=1}^{m}$ と表さ 図 $1 \mathrm{FAQ}$ 検索の処理 れる. Retriever は式 (2)の損失関数が最小になるように学習される. ユーザ質問と正例の FAQ 質問が類似しているほど損失が小さくなり,負例の FAQ 質問との類似度が高いほど,式 (2) の損失は大きくなる。 $ \begin{aligned} & L\left(q_{i}, Q_{i}^{+}, Q_{i, 1}^{-}, \ldots, Q_{i, n}^{-}\right) \\ & \quad=-\log \left(\frac{e^{\operatorname{sim}\left(q, Q_{i}^{+}\right)}}{e^{\operatorname{sim}\left(q, Q_{i}^{+}\right)}+\sum_{j=1}^{n} e^{\operatorname{sim}\left(q, Q_{i, j}^{-}\right)}}\right) \end{aligned} $ 推論時はユーザの多様な言い回しに対応するために,FAQ 質問ではなく拡張質問を用いて検索を行う. つまり,拡張質問を $Q^{\prime}$ とすると式 (3)により類似度を計算し,最も類似度が高い拡張質問に対応する FAQ 回答を選択する。 $ \operatorname{sim}\left(q, Q^{\prime}\right)=E_{q}(q)^{T} E_{Q}\left(Q^{\prime}\right) $ Rerankerを用いる場合,Retriever の検索結果の上位 $K$ 件から “[CLS](ユーザ質問 $q$ )[SEP](拡張質問 $Q^{\prime}$ )[SEP]”という単語列を $K$ 件作成し,それぞれ Reranker に与えてリランキングスコアを算出する. Reranker は BERT と全結合層 1 層からなり,ユーザ質問 $q$ と拡張質問 $Q^{\prime}$ が正例のペアかどうかの二値分類を行い,softmax 関数の正例に対する出力値をリランキングスコアとする. 訓練データは Retriever と同様の訓練データを用いて正例を作成し,さらに FAQDB から答え以外の拡 張質問をランダムサンプリングすることで各事例に対して負例を 2 件作成する。 ## 3 提案手法 不明膫なことが多いユーザ質問に対して質問を明確化するようなテキスト(以降,関連知識)を付与することができれば検索精度が向上する可能性がある.そこで,我々は言語生成モデルを用いた関連知識の生成を提案する. 生成されたテキストはユーザ質問に付与して Retriever もしくは Reranker に入力し,学習と推論に用いる。 ## 3.1 Prompt-Tuning 図 2 Prompt-Tuning の概要図 Prompt-Tuning では,入力単語列の前に固定長の単語列を付与し,そのドメインにおける関連知識を埋め込むこととする.学習時,言語生成モデルの重みは固定され, 付与される単語列の埋め込みベクトルは学習によって最適化される. Prompt-Tuning に関する概要図を図 2 に示す. Prompt-Tuning の学習方法として 2 通りを実験する. まず,FAQ 検索に関する従来研究 [11] では拡張質問と FAQ 質問の対応関係をモデルに学習させることで $\mathrm{FAQ}$ 検索システムを構築していることから, これを参考に拡張質問から $\mathrm{FAQ}$ 質問を生成するように言語生成モデルを学習させる $(G L M w / F A Q D B)$. ただし,拡張質問と FAQ 質問は事前に定義されるテキストである一方で,ユーザ質問はチャットボット内でユーザが記述したテキストであるため,それらの間には表記や質問内容の粒度の違いが存在し,言語生成モデルがユーザ質問から関連知識を上手く生成できない可能性がある。そこで 2 つ目に,訓練データのユーザ質問からそれに対する正例の FAQ 質問を生成するように学習させる(GLM w/TRAIN)。言語生成モデルとしては,公開されている日本語版の $\mathrm{GPT}-2^{1)}$ と GPT(1b) $)^{2}$ を用いる. 1) https://huggingface.co/rinna/japanese-gpt2-medium 2) https://huggingface.co/rinna/japanese-gpt-1b表 1 ドメイン別のデータセットの事例数 生成されたテキストはユーザ質問に付与する. Retriever の場合,ユーザ質問に対する $\operatorname{Encoder} E_{q}$ の入力単語列は,“[CLS](ユーザ質問 $q$ )[SEP](生成されたテキスト)[SEP]”となる。一方で Reranker の場合,入力単語列は “[CLS](ユーザ質問 $q$ )[SEP] (拡張質問 $Q^{\prime}$ ) [SEP](生成されたテキスト)[SEP]" となる。 実験では,同様のデータで GPT-2を Fine-Tuning した場合 [13] と比較する。 ## 4 実験 チャットボット3)で収集したデータセットを用いて提案手法の有効性を検証する。データセットは 3 つのドメインからなり,ドメイン $\mathrm{A}, \mathrm{B}, \mathrm{C}$ と表記する.これらは互いに異なる事業で導入されたチャットボットから収集されたデータである. ドメインごとのデータセットの作成方法は従来研究 [14] に倣い,事例数は表 1 に示す. ## 4.1 実験設定 Retrieverを構成する 2 つの Encoder と Reranker の重みの初期値には, 公開されている日本語事前学習済み $\mathrm{BERT}^{4}$ の重みを用いる。学習時のパラメタは付録 A に記載する. 以降, Fine-Tuning された GPT-2, Prompt-Tuning された GPT-2, Prompt-Tuning された GPT(1b) をそれぞれ ftGPT-2, ptGPT-2, ptGPT(1b) と表記する。また,ベースラインとして利用する BM25 [15] では,FAQDB の拡張質問の集合から IDF 值をドメインごとに計算し,名詞と動詞原型のみ用いて算出する. Reranker の推論時は,言語生成モデルを用いずに Retrieverによる検索を行い,その検索結果の上位 $K$ 件に対して Rerankerによるリランキングを行う.評価指標には,検索結果の上位 1 件の精度である Top1 Accuracy を用いる. ## 4.2 実験結果 実験結果を表 2 に示す. Retriever と Rerankerを比較すると,ドメイン A とドメイン B においては 3) https://www.ai-messenger.jp 4) https://huggingface.co/cl-tohoku/bert-base-japanese Reranker の検索精度が高い値となった. これはユー ザ質問と拡張質問を連結して Rerankerで単語間の Attention 計算を行っており,この点がリランキングに効果的であったと考えられる。 言語生成モデルで生成されたテキストを付与したことに対する実験結果によると,ドメイン B では Reranker w/ptGPT(1b) が最も高いことから, Prompt-Tuning によって学習させた言語生成モデルが効果的な関連知識を生成することができたと考えられる。一方で,ドメイン A とドメイン Cではそれぞれ Reranker,BM25が最も高い結果となった. したがって,言語生成モデルによる質問の明確化は全てのドメインにおいて有効であるとは限らないといえる。 次に言語生成モデルの学習手法 2 つそれぞれについて述べる. まず $G L M w / F A Q D B$ の場合,ドメイン B で ftGPT-2, ptGPT-2, ptGPT(1b) 全てにおいて検索精度が向上した一方で, Reranker の検索精度と比較するといずれも低い。したがって,今回の手法では質問の明確化よりも,単純に Reranker を利用することの方が効果的であるといえる。ただし,ドメイン B において Reranker は ptGPT(1b) のみ検索精度が向上した. これより, モデルサイズが生成される関連知識の質に影響する可能性があることがわかる。次に,GLM w/TRAIN の場合,ドメイン B で Retriever では ftGPT-2, ptGPT-2, ptGPT(1b)の全てで検索精度が向上した一方で,Reranker では全て検索精度が低下した。これは Reranker と言語生成モデルの訓練データが同じであり,生成した関連知識が Reranker にとって不要であったと考えられる。 ## 4.3 今後の展望 実験結果によると,ドメイン Cでは BM25 が Retriever と Rerankerを上回った. FAQ 検索ではドメイン次第で効果的な手法が異なることが経験的にわかっているため,BM25 のような表層形を用いた検索と Retriever や Reranker のような機械学習モデルを用いた検索を上手く組み合わせることが重要である. さらに,今回扱った FAQ 検索特有の問題である質問の不明瞭さへの対処として質問の明確化を行うことで頑健な手法を検討したい. また, 実験結果から ftGPT-2 と ptGPT-2 による学習手法の比較と, ptGPT-2 と ptGPT(1b) によるモデルサイズの比較を行った場合でも一貫した傾向は確認されなかった.モデルサイズと関連知識の質に関して今後の調査を検討中である。 生成されたテキストを確認すると,いずれのモデルの場合においても入力単語列がそのまま出力される場合や意味の通らない単語列が生成される場合が確認された。言語生成モデルによる安定した関連知識の生成が今後の課題である. ## 5 おわりに 本研究では,FAQ 検索におけるユーザ質問の不明瞭さへの対処として,言語生成モデルで質問の明確化を行い,特定のドメインにおいては検索精度が向上することを示した.今回実験したドメインにおいては Fine-Tuning が困難である大規模な言語生成モデルを Prompt-Tuning することで関連知識の生成が可能であることがわかった. しかし,実験中の全てのドメインにおける一貫した検索精度の向上は確認されなかった. 今後は安定した関連知識の生成を検討しつつ,より頑健な FAQ 検索手法の構築を目指す. ## 謝辞 本論文の作成にあたりご協力いただきました,株式会社 AI Shift の杉山雅和氏,戸田隆道氏,東佑樹氏,下山翔氏にこの場を借りて厚く御礼申し上げます。 ## 参考文献 [1] Wataru Sakata, Tomohide Shibata, Ribeka Tanaka, and Sadao Kurohashi. Faq retrieval using query-question similarity and bert-based query-answer relevance. In Proceedings of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval, pp. 1113-1116, 2019. [2] Yosi Mass, Boaz Carmeli, Haggai Roitman, and David Konopnicki. Unsupervised FAQ retrieval with question generation and BERT. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 807-812, Online, July 2020. Association for Computational Linguistics. [3] 鈴木正敏, 鈴木潤, 松田耕史, 西田京介, 井之上直也. Jaqket: クイズを題材にした日本語 qa データセットの構築. 言語処理学会第 26 回年次大会, pp. 237-240, 2020. [4] 加藤拓真, 宮脇峻平, 西田京介, 鈴木潤. オープンドメインqaにおける dpr の有効性検証. 言語処理学会第 26 回年次大会, pp. 237-240, 2020. [5] Vladimir Karpukhin, Barlas Oguz, Sewon Min, Patrick Lewis, Ledell Wu, Sergey Edunov, Danqi Chen, and Wentau Yih. Dense passage retrieval for open-domain question answering. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6769-6781, Online, November 2020. Association for Computational Linguistics. [6] Guanghui Qin and Jason Eisner. Learning how to ask: Querying LMs with mixtures of soft prompts. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 52035212, Online, June 2021. Association for Computational Linguistics. [7] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, et al. Language models are few-shot learners. Advances in neural information processing systems, Vol. 33, pp. 1877-1901, 2020. [8] Fabio Petroni, Tim Rocktäschel, Patrick S. H. Lewis, Anton Bakhtin, Yuxiang Wu, Alexander H. Miller, and Sebastian Riedel. Language models as knowledge bases? CoRR, Vol. abs/1909.01066, , 2019. [9] Joshua Feldman, Joe Davison, and Alexander M. Rush. Commonsense knowledge mining from pretrained models. CoRR, Vol. abs/1909.00505, , 2019. [10] Brian Lester, Rami Al-Rfou, and Noah Constant. The power of scale for parameter-efficient prompt tuning. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 3045-3059, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [11] Haytham Assem, Sourav Dutta, and Edward Burgin. DTAFA: Decoupled training architecture for efficient FAQ retrieval. In Proceedings of the 22nd Annual Meeting of the Special Interest Group on Discourse and Dialogue, pp. 423-430, Singapore and Online, July 2021. Association for Computational Linguistics. [12] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [13] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, et al. Language models are unsupervised multitask learners. OpenAI blog, Vol. 1, No. 8, p. 9, 2019. [14] 二宮大空, 邊土名朝飛, 杉山雅和, 戸田隆道, 友松祐太. チャットボット事業における dense retriever を用いた zero-shot faq 検索. 第 96 回言語・音声理解と対話処理研究会 (第 13 回対話システムシンポジウム), 2022. [15] Stephen Robertson, Hugo Zaragoza, et al. The probabilistic relevance framework: Bm 25 and beyond. Foundations and Trends ${ }^{\circledR}$ in Information Retrieval, Vol. 3, No. 4, pp. 333-389, 2009. ## A 学習時のパラメタ Retriever と Reranker の Fine-Tuning 時の学習率は $1 \times 10^{-5}$ (warmup rate=10\%)とし, Optimizer は Adam を用いる. Retriever の Fine-Tuning 時の Epoch は 10, バッチサイズは 64 とする. Rerankerの Fine-Tuning 時の Epochは2,バッチサイズは 32 とし, Cross Entropy Loss を最小化するように学習させる. Retrieverと Reranker の入力最大長はそれぞれ 50 トークン, 100 トークンであり,超過する単語列は削除される。 言語生成モデルである GPT-2 と GPT(1b) は, Prompt-Tuning と Fine-Tuning 両方において学習率は $1 \times 10^{-5}$, バッチサイズは 8 , Dropout 率は 0.1 , Optimizer は Adam を用いる. 学習時の Epoch はドメインによって異なり,ドメイン $\{\mathrm{A}, \mathrm{B}, \mathrm{C}\}$ はそれぞれ GLM w/FAQDB の場合 $\{30,30,100\}$ とし, GLM $w / T R A I N$ の場合 $\{3,5,10\}$ とする. Prompt-Tuning に関しては Prompt に対する埋め込みベクトルのみ更新され,事前学習済みの言語生成モデルの重みは固定する. Prompt-Tuning 時の付与される単語列は 20 トークンとする.実装には huggingface を用いており, Prompt に対する正解ラベルは-100を設定することで関連知識と無関係な損失が計算されないように設定している.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q8-8.pdf
# 日本語の Math Word Problems に対する深層学習モデルの適用 とデータ拡張の検証 村田夏樹柴田千尋 法政大学 理工学部 創生科学科 natsuki.murata.4d@stu.hosei.ac.jp, chihiro@hosei.ac.jp ## 概要 Transformer などの近年の深層学習モデルは,多くの自然言語理解を必要とするタスクで高い性能を記録している.しかし,数学や物理の文章題などの定量的な推論が必要なタスクでは,近年の言語モデルでも十分な結果を残せていない [1]. 本稿では, Math23Kというデータセットを利用して,日本語 MWP タスクに対して,既存の深層ニューラルネットモデルを組み合わせたモデルを適用し,検証を行う.なお,Math23K データセットの問題文は,中国語で書かれているため,機械翻訳を用いて問題文を日本語に翻訳しデータとして用いる. モデルの組み合わせとしては, Goal-driven Tree Structured (GTS) ネットワーク, BERT, および Graph2Tree の 3つを組み合わせたものを用いる. 特に,BERT - GTS の組み合わせと, BERT - Graph2Tree - GTS の組み合わせの比較を行う. 後者は, 問題文中のトークンの BERT の埋め込み表現をノードとして持つ特定のグラフを,中間表現として用いて,その後グラフ畳み込みを行う手法であり,実際に後者のほうが精度が高くなることを示す. さらに,解答となる数式を表現する木構造の可換ノードの置換や, 問題文中の単語の置き換えによるデータ拡張により,精度の向上が見込めるかについて,検証を行う。 ## 1 はじめに Transformer に代表される最近のニューラル言語モデルは,一般的に言って,自然言語理解を必要とするような多くのタスクにおいて, 高い精度を達成しているものの, 例えば,数学や物理の文章問題などの定量的な推論が必要なタスクでは,近年の言語モデルを用いても解答が難しいケースがおおく,未だ改善の余地が多く残されていることが知られている [1]. その中でも, Math Word Problems (MWP) は,文章問題から適切な数式を生成して,数式の演算を通して解答を求めるタスクである。このタスクでは,文章中にはないが,数式の木構造の中に必要となる 1 や $\pi, e$ といった推論が必要な問題などがあるため, 現在も発展中のタスクである。既存の手法の例として,事前学習済みモデルを使用した手法や,木構造を取り入れた手法などがある。このタスクが抱える問題の一つに,データ数が十分でなく,推論が必要な問題について,十分に学習できない. Zhang ら [2] は, Math23K という数学に関する文章題のデータセットで, $77.4 \%$ の正解率 (出力された計算式の計算結果の一致率) を得ている. しかし, Math23K は,中国語の問題文と解答となる式からなるデータセットであり,問題文が日本語の場合において,同様の精度が得られるかについては,検証が求められる. そこで,本研究では,Math23Kを機械翻訳サービスを用いて,中国語を日本語に翻訳してデータとして用い,BERT 及び Graph-to-Tree (Graph2Tree) を用いて,日本語の数学の問題を解答するタスクを学習させる. さらに, Graph2Tree に含まれる Graph Convolution Network (GCN) [3] がどのようなグラフを生成するのかを検証するため,中間表現として構築されるグラフを可視化して検討を行う. 最後に, データ拡張を行うことで,本タスクにおける式の精度と答えの精度に対し,効果があるのかを検証する。 ## 2 関連研究 ## 2.1 BERT BERT [4] は, Transformer モデルであり, 事前学習済みの BERT モデルを活用することにより,多くの自然言語処理のタスクで高い精度を期待することができる.BERT の事前学習では,Masked Language Model と Next Sentence Prediction の 2 つの事前学習を行う,それぞれ行うタスクは,入力したトークンの一部にマスクをし,前後の情報から,マスクした箇所の内容を予想するタスクと,2つの文章を大力して,連続した文章かどうかを判定させるタスクである. 事前学習を行なった BERT は,入力の文章やトークンに対する,文脈を考慮した一般的な知識が何らかの形で内部に獲得されていると考えられるため, fine-tuneを行うことで,特定のタスクに対して,高い精度を出すことが可能である. ## 2.2 Goal-driven Tree Structured Network Goal-driven Tree Structured Netowrk (GTS) [5] は,表現木を生成するためのエンド to エンドの手法で,数式を表現する木構造の生成するニューラルネットワークである. 生成する数式の木は, 2 分木であり, ルートノードから順に,演算記号が入り,左右の子ノードには,数字あるいは記号が入る構造が再帰的に取られている. 即ち, 数字または変数が入るノ一ドは,葉ノードに対応し,演算記号が入るノードは,節ノードに対応する。 GTS のネットワーク構造について概要を説明する.まず,入力問題文を単語トークンに変換し,各トークンごとの埋め込み表現にしたのち,双方向 Gated Recurrent Unit (GRU) [6] に入力する. その後, GRU の出力結果から,数式の木を再帰型ニューラルネットワークを用いて生成する。 あるノードに対して,アテンションを用いて文脈ベクトルを得たのち,そのノードのラベルの確率,つまり,変数または演算子(+ や×等)の確率を,文脈ベクトルを用いて計算する. その後, 子ノードの文脈ベクトルを,順伝播型ネットワーク $(\mathrm{FCN})$ に通した結果および GRU の出力結果から再帰的に計算することを繰り返すことで, 最終的に, 正解となる数式全体を生成するように学習する。 ## 2.3 Graph-to-Tree Graph2Tree [2] は, GCN [3] を含むモデルであり, 2 種類のグラフから構成され,数量間の関係や,文章の情報をグラフ構造で捉えることができる. グラフ内のノードの内,ある量に関連する部分集合を数量セルと定義する. 数量セルが作るグラフは,数量セルグラフと数量比較グラフを作る. 数量セルグラフは,情報量の多い単語を数と関連付け,表現を豊かにすることができる.また,数量比較グ ラフは,数の数值的性質を保持し,数量間の関係を保持し,数量間の関係の表現を改善することができる. 2 つのグラフを隣接行列で表し,この隣接行列と特徴を表す行列(事前にLSTM などで得られた表現)を GCNに入力し,その後,得られた表現を連結した結果に対して,正規化と残差接続,また FCN 等を行うことで,問題文が最終的にエンコードされた表現を得る。 ## 3 提案手法 ## 3.1 BERT と Graph2Tree を用いたモデル 本研究で用いるモデルの概要を図 1 に示す.まず,事前学習済みの BERTを使用して,文章題を入力し, 得られた埋め込み表現を得る. 次に,その埋め込み表現から,前章で述べた Graph2Tree を使っ $\tau$ ,中間の埋め込み表現を得る. 最後に,得られた中間表現から数式の木を生成する. 図 1: 使用するモデルの概要図 ## 3.2 データセットの日本語化 ## 3.2.1 Math23K 本研究では,Wang らの研究 [7] で提案されたデー タセット,Math $23 \mathrm{~K}^{11}$ を日本語に翻訳したものを使用する。この Math $23 \mathrm{~K}$ は, 中国語で書かれた問題文,式及び答えから構成され,データ数は,23,162 件ある. ## 3.2.2 前処理 まず,日本語のデータセットを作成するため, DeepL ${ }^{2)}$ という機械翻訳サービスを使用して,日本語に翻訳した。翻訳前(中国語)の文章と翻訳後 (日本語)の文章に含まれる数の集合(以後、「数集 1) https://ai.tencent.com/ailab/nlp/dialogue/ 2) https://www.deepl.com/translator.html 合」と呼ぶ)を比較して,翻訳後の数集合が不足しているデータは,削除した.使用したデータと削除したデータの例をそれぞれ図 2 と図 3 に示す. 図 2: 使用したデータの例 & \\ 図 3: 削除したデータの例 図 2 では,翻訳前では, 2 及び 11 があり,翻訳後でもこれらの数字があるため,このデータセットは使用する。一方,図 3では,翻訳前では,5,25,45 及び 450 があるが,翻訳後では,5,25 及び 45 がないため,削除する.削除したことにより,データセットは,20,260 件になった. ## 3.3 データ拡張 本研究では,以下の二つのデータ拡張を行い,結果にどのような影響を与えるかを検討する。 一つ目は,正解の数式木に対するデータ拡張である. Math23Kで与えられる式は, 各問題分に対し, 1 つの式しか用意されていない. そこで,加法交換法則と乗法交換法則に着目し,交換可能な部分木をランダムに交換することでデータ拡張を行う.拡張前後で,別の木構造について学習させる. ただし,や:だけで構成された式は,データ拡張できない. 表 1: 数式のデータ拡張の例 二つ目は,文章題の単語に一定の割合でマスクをかけるデータ拡張を用いて実験を行う.ただし,マスクをかける際,数字にはマスクがかからないようにする。 表 2: マスクの例 ## 4 実験 ## 4.1 実装 本実験では,BERT の事前学習済みモデルとして,東北大学のもの3)を用いた. また,節 3.1 で述べたモデルを学習する際に用いたハイパーパラメータを,表 3 に示す。 表 3: 使用した関数及びハイパーパラメータ \\ ## 4.2 Graph2Tree の有無による精度の比較 まず,Graph2Tree が与える影響を検証するために,Graph2Treeを用いた場合と用いていない場合の精度を比較を行う. 式の精度については, 生成した式 (木構造) と模範解答が一致していない限り不正解として取り扱う。 表 4: Graph2Tree 有無による精度の比較 表 4 より,BERT - Graph2Tree - GTS では,式の精度は向上しないが,答えの精度については,8\%ほど上昇することがわかる. Graph2Treeを用いることで,式の形が違っていても答えに辿り着く可能性が上がることが分かる. 3) https://huggingface.co/cl-tohoku/bert-large-japanese ## 4.3 GCN のグラフの検討 前節の実験結果から,Graph2Tree を入れることで,精度が上がることが確かめられた。一方で, Math23K 中国語のデータセットに対して報告されている精度 (77.4\%) [2] に比較すると精度が低いことがわかる.そこで,この節では,その原因を検証するために, Graph2Tree に含まれる GCNが,どの程度,意図したグラフを正しく生成できているのかを確認するために,数量セルグラフと数量比較グラフを可視化を行う. 入力した文章は, 「2 台の車 $\mathrm{A}, \mathrm{B}$ が同時に A, B から反対方向に走り, 2 時間半後に途中で出会う. 車 $\mathrm{A}$ の速度は $90 \mathrm{~km} / \mathrm{h}$, 車 B の速度は車 A の速度の (4/5) であることが分かっている. A と B の間の距離は何キロメートルくらいか聞いてみてください.」を入力した. ただし,どちらの図についても,エッジがないノードや自己ループは可視化していない. (a) 数量セルグラフ (b) 数量比較グラフ図 4: 例文より得られる Graph2Tree によるグラフ表現 図 $4 \mathrm{a}$ と図 $4 \mathrm{~b}$ は同一の文章から生成している. 図 4a は,単語毎のノードがあり,それを結び,ノードの $0 , 1$ は,問題文の「2」と「台」に相当する. また,表示はしていないが,図 $4 \mathrm{a}$ では,エッジが結べていないノードが 92 個ある。つまり,数量セルグラフが,日本語における単語間の情報を結ぶエッジを十分に結べていないことが分かる。 図 $4 \mathrm{~b}$ は,文章中にある数字を使って,数の関係性について学習をし,ノードの $0,23 , 42$ と 60 は,問題文の $2 , 2 , 90 ,(4 / 5)$ に相当する. 図 $4 \mathrm{~b}$ では,数が小さい方から大きい方へ矢印を引いて,数量の関係性について表現している。 ## 4.4 データ拡張 式の精度は,前述の通り,Math23K に用意されている正答の木と完全一致を見るため,データ拡張を行う際,使用するモデルは,BERT - Graph2Tree GTS を使用して実験を行う.まず,数式をデータ拡表 5: 数式のデータ抳張 表 6: 単語のマスク 張した実験結果を表 5 に示す. データ拡張後では,式の精度は下がっているものの,答えの精度としては同程度となっている事がわかる。 次に,問題文にマスクをかけた実験では,50\%の確率で maskをかけた. maskをかける単語については,エポック毎にランダムで選択させた。単語にマスクをかけた実験結果を表 6 に示す。単語にマスクをかけた場合も,同様に,式及び答えの精度に大きな差は見られていない. どちらのデータ拡張の方法についても,本稿で用いたモデルに対して有効かどうかは,差が僅かであるため,さらなる検証が必要である. ## 5 おわりに 本研究では,他の言語のデータセットを日本語化し,BERT や Graph2Tree を用いて,実験を行った. また, 日本語データ入力時における Graph2Tree で得られるグラフ表現について,検討を行った. 二種類のデータ拡張を用いた実験では,少なくとも現在のネットワーク構成においては,式と答えの精度の観点から見て,効果は限定的であるという結果になった. 今後の展望として,より数式生成にふさわしいと考えられるグラフ表現の抽出方法,および,グラフ構造を大きく変えるようなデータ拡張方法を探求してゆく予定である. ## 謝辞 法政大学大学院理工学研究科システム理工学専攻の辺見一成氏には,実験を行う際のプログラムの修正などご助言を頂きましたことを深く感謝申し上げます. 本研究の一部は JSPS 科研費 JP18K11449 の助成を受けたものです。 ## 参考文献 [1] Aitor Lewkowycz, Anders Andreassen, David Dohan, Ethan Dyer, Henryk Michalewski, Vinay Ramasesh, Ambrose Slone, Cem Anil, Imanol Schlag, Theo Gutman-Solo, Yuhuai Wu, Behnam Neyshabur, Guy Gur-Ari, and Vedant Misra. Solving quantitative reasoning problems with language models, 2022. [2] Jipeng Zhang, Lei Wang, Roy Ka-Wei Lee, Yi Bin, Yan Wang, Jie Shao, and Ee-Peng Lim. Graph-to-tree learning for solving math word problems. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 3928-3937, Online, July 2020. Association for Computational Linguistics. [3] Thomas N. Kipf and Max Welling. Semi-supervised classification with graph convolutional networks. In International Conference on Learning Representations, 2017. [4] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [5] Zhipeng Xie and Shichao Sun. A goal-driven tree-structured neural model for math word problems. In Proceedings of the Twenty-Eighth International Joint Conference on Artificial Intelligence, IJCAI-19, pp. 5299-5305. International Joint Conferences on Artificial Intelligence Organization, 72019. [6] Kyunghyun Cho, Bart van Merriënboer, Caglar Gulcehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, and Yoshua Bengio. Learning phrase representations using RNN encoder-decoder for statistical machine translation. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1724-1734, Doha, Qatar, October 2014. Association for Computational Linguistics. [7] Yan Wang, Xiaojiang Liu, and Shuming Shi. Deep neural solver for math word problems. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 845-854, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [8] Liyuan Liu, Haoming Jiang, Pengcheng He, Weizhu Chen, Xiaodong Liu, Jianfeng Gao, and Jiawei Han. On the variance of the adaptive learning rate and beyond. In International Conference on Learning Representations, 2020.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q8-9.pdf
# MixLinkBERT: A Language Model pretrained with Multiple Types of Linked Documents for Multi-hop Question Answering Dongming $\mathrm{Wu}^{1,2}$ Ryu Iida ${ }^{1,2}$ Jong-Hoon $\mathrm{Oh}^{2}$ Kentaro Torisawa ${ }^{1,2}$ ${ }^{1}$ Nara Institute of Science and Technology, Graduate School of Science and Technology ${ }^{2}$ National Institute of Information and Communications Technology, Data-driven Intelligent System Research Center wu. dongming. wa9@is. naist. jp \{ryu. iida, rovellia, torisawa\}@nict. go.jp ## Abstract Multi-hop question answering is the question answering that requires understanding and reasoning over multiple documents to find answers. In this work, we focus on improving language model pretraining to achieve better performance on downstream multi-hop question answering. We develop MixLinkBERT, a language model pretrained with multiple types of linked documents. We show that MixLinkBERT outperforms BERT and LinkBERT on HotpotQA. ## 1 Introduction Multi-hop question answering (QA) is the question answering that requires finding, understanding and reasoning over multiple documents to find answers. Table 1 shows an example of multi-hop question in HotpotQA [1], a multi-hop QA dataset. To answer the question in this example, we need information of "the auto manufacturer headquarted in Minato, Tokyo, Japan" and "the auto manufacturer that Nissan acquired controlling interest in". These two pieces of information may exist in two different documents separately, such as the two Wikipedia articles shown in Table 1. In this case, finding, understanding and reasoning over these documents are necessary to answer this question. The prevailing structure of QA systems for both conventional single-hop QA and multi-hop QA in these years mainly consists of two components, a retriever and a reader $[2,3,4]$. Given a question, a retriever first retrieves several candidate documents from a large set of documents, such as all Wikipedia articles, or documents Table 1: An example of multi-hop question in HotpotQA [1]. collected from the internet. Then a reader extracts the answer from these candidate documents. Like many other NLP tasks, recent works of multi-hop QA [3, 4] fine-tuned pretrained language models (LMs), such as BERT [5], RoBERTa [6], ELECTRA [7], to use them as a retriever and a reader in their QA methods. For example, Xiong et al. [4] fine-tuned a pretrained RoBERTa as their retriever and fine-tuned a pretrained ELECTRA as their reader. To improve performance of multi-hop QA, new QA system structures or new fine-tuning methods have also been explored [3, 4]. In addition, pretraining LMs suitable for multi-hop reasoning on downstream tasks has been attempted. For example, Yasunaga et al. [8] developed LinkBERT, a LM that learned multi-hop knowledge (the knowledge that spans across multiple documents) by leveraging hyperlinks in documents. The experimental results showed that LinkBERT achieved a better performance on multi-hop QA than BERT, which was pretrained without hyperlinks and cannot learn multi-hop knowledge. In this work we develop a new language model pretrained with multiple types of linked documents, called MixLinkBERT. Along with the hyperlinks in the main texts in Wikipedia articles, which were used by LinkBERT, MixLinkBERT additionally uses hyperlinks in infoboxes in Wikipedia. An infobox in Wikipedia is a table often shown in upper right of a Wikipedia article and represents a summary of important information about the subject of an article by a set of attribute-value pairs. For example, Figure 1 shows part of the infobox of "Slam Dunk (manga)". The infobox contains attribute-value pairs like "genre-comedy", "author-Takehiko Inoue", "publisher-Shueisha". An important point here is that infoboxes sometimes contain useful hyperlinks that do not appear in the main texts of Wikipedia articles. Therefore, the text that is reachable via hyperlinks in infoboxes can introduce potentially useful knowledge that cannot be leveraged in LinkBERT. We compare MixLinkBERT with BERT and LinkBERT on HotpotQA. MixLinkBERT outperforms BERT by $+1.5 \%$ in answer $\mathrm{F} 1$ and $+1.1 \%$ in joint $\mathrm{F} 1$, and outperforms LinkBERT by $+0.8 \%$ in answer $\mathrm{F} 1$ and joint F1. These results suggest that a wider range of hyperlinks helps LMs learn a wider range of multi-hop knowledge. Figure 1: Part of the infobox of "Slam Dunk (manga)" ## 2 Related Work ## 2.1 LinkBERT Figure 2: The overview of pretraining of LinkBERT [8]. (We drew this figure based on [8].) Levine et al. [9] showed that in training of neural LMs, it is desirable to put a pair of text segments in the same training instance for learning strong dependencies between the pair of text. According to this observation, Yasunaga et al. [8] proposed LinkBERT, a LM that can learn multi-hop knowledge by leveraging hyperlinks in documents. Yasunaga et al. [8] placed text of hyperlinked documents in the same training instances, in addition to text of a single document or random documents as training instances of BERT [5]. Figure 2 shows the pretraining method of LinkBERT. LinkBERT has two training objectives, masked language modeling (MLM) and Document Relation Prediction (DRP). MLM objective is same as the MLM objective in BERT [5]. DRP classifies the relation of the two segments of an input sequence (segment A and segment B in Figure 2) into three classes: contiguous, random and linked. Corresponding to these three classes, there were three types of training instances in LinkBERT. In the following, we call these three types of training instances (1) contiguous-relation instances, (2) random-relation instances and (3) hyperlinked-from-text relation instances. Yasunaga et al. [8] created training instances for LinkBERT from Wikipedia as follows. To create each of their training instances, they first sampled an article from Wikipedia as document A, and a segment from document $\mathrm{A}$ as segment $\mathrm{A}$. Then for each of (1) contiguous-relation instances, they sampled a contiguous segment of segment A from the same document as segment B. For each of (2) random-relation instances, they randomly sampled another article from Wikipedia as document $B$ and sampled a segment from document $B$ as segment B. For each of (3) hyperlinked-from-text relation instances, they sampled an article that is hyperlinked from the main text of document $A$ as document $B$ and sampled a segment from document $B$ as segment $B$. Then they concatenated segment $A$ and segment $B$ via special tokens to create a training instance: [CLS] Segment A [SEP] Segment B [SEP]. From Wikipedia, they created a set of training instances consists of $33 \%$ contiguous-relation instances, $33 \%$ random-relation instances and $33 \%$ hyperlinked-from-text relation instances. ## 2.2 Previous works using Wikipedia infoboxes Information inside Wikipedia infoboxes is summarized by human and can be utilized for NLP tasks. Morales et al. [10] created INFOBOXQA, a question answering dataset, utilizing attribute and value information in infoboxes. Herzig et al. [11] used text in infoboxes directly as inputs for LM pretraining and improved the ability of QA over tables. Unlike Herzig et al. [11] using text in infoboxes directly as inputs for LM pretraining, we use text in articles that are hyperlinked via infoboxes as inputs for our LM pretraining since text in infoboxes usually only includes titles of articles or names of objects. ## 3 MixLinkBERT ## 3.1 Pretraining instances To explore multi-hop knowledge that can be obtained from multiple types of linked documents, we utilize hyperlinks in Wikipedia infoboxes in addition to hyperlinks in the main texts of Wikipedia articles. More precisely, in addition to the three types of training instances used by LinkBERT, we add the fourth type of training instance: hyperlinked-from-infobox relation instance. To create each of hyperlinked-from-infobox relation instances, we first sample an article from Wikipedia as document A and a segment from document $\mathrm{A}$ as segment $\mathrm{A}$. Then we sample an article that is hyperlinked from the infobox of document $\mathrm{A}$ as document $B$ and sample a segment from document B as segment B. The proportion of each kind of training instances of MixLinkBERT is $33 \%$ for contiguous-relation instances, $33 \%$ for random-relation instances, $16.5 \%$ for hyperlinked-from-text relation instances, and $16.5 \%$ for hyperlinked-from-infobox relation instances. ## 3.2 Training objectives We use the same training objectives of LinkBERT, masked language modeling (MLM) and Document Relation Prediction (DRP), to pretrain MixLinkBERT. For DRP objective, we set that both hyperlinked-fromtext relation instances and hyperlinked-from-infobox relation instances belong to the same linked class. ## 4 Experiments ## 4.1 Setup for pretraining MixLinkBERT We created pretraining data from English Wikipedia (20220820 version dump). Our pretraining data contains totally $40,960,000$ training instances. We initialized the parameters of our LM with pretrained BERT-base-cased checkpoint released by Devlin et al. [5] and then started pretraining from the parameters. ## 4.2 Baselines For a fair comparison between MixLinkBERT and other baseline models (BERT and LinkBERT), we also pretrained two baseline models by ourselves with same size of pretraining data of MixLinkBERT. For baseline BERT, we continued pretraining from pretrained BERTbase-cased checkpoint released by Devlin et al. [5] with original BERT's pretraining objectives. The pretraining data consists of $50 \%$ contiguous-relation instances and $50 \%$ random-relation instances. For baseline LinkBERT, we also started pretraining from pretrained BERT-basecased checkpoint released by Devlin et al. [5] but with LinkBERT's [8] pretraining objectives. The only difference from pretraining of MixLinkBERT is that pretraining data of baseline LinkBERT doesn't contain hyperlinked-from-infobox relation instances. Pretraining data of baseline LinkBERT consists of 33\% contiguousrelation instances, $33 \%$ random-relation instances, and $33 \%$ hyperlinked-from-text relation instances. Table 2 shows the difference of pretraining data of MixLinkBERT and the two baselines. We followed hyperparameter settings in Yasunaga et al. [8]. Training steps was 40,000, peak learning rate was $3 \mathrm{e}-4$, batch size was 2,048 , maximum sequence length was 512 tokens. We warmed up the learning rate for the first 5,000 steps and linearly decayed it. Each pretraining took about 4 days on $832 \mathrm{~GB}$ V100 GPUs with fp16. Table 2: Pretraining data of MixLinkBERT and the & \\ ## 4.3 Evaluation on HotpotQA We fine-tuned and evaluated MixLinkBERT and the two baselines on HotpotQA [1], a famous multi-hop QA dataset. Since ground-truth answers of test data of HotpotQA are not available, we instead split the development data of HotpotQA into two data sets and use one of the sets (3,702 instances) as our development data and another set (3,703 instances) as our test data. We finetuned with the method and the code ${ }^{i}$ of a recent published multi-hop QA system [4]. We did hyperparameter search using our development data as follows. For retriever, we tried learning rate $=\{2 \mathrm{e}-5,4 \mathrm{e}-5\}$ and batch size $=\{75$, $150,300\}$ and chose the best parameters that achieved the best Recall on top-2 retrieved documents on our development data. For reader, we tried learning rate $=$ $\{3 e-5,5 e-5,1 e-4\}$ and batch size $=\{64,128,256\}$ and chose the best parameters that achieved the best answer exact match on our development data. For rest of the finetuning hyperparameters, we followed the settings in Xiong et al. [4]. Table 3: Performance on our test data. & & & & & & \\ ## 4.4 Results Table 3 shows the performance on our test data. MixLinkBERT outperforms baseline BERT notably, especially $+1.5 \%$ on answer F1 and $+1.1 \%$ on Joint F1. MixLinkBERT also outperforms baseline LinkBERT, with $+0.8 \%$ on answer F1 and Joint F1. As shown in the experimental results, pretraining with both hyperlinked-from-text relation instances and hyperlinked-from-infobox relation instances (MixLinkBERT) achieves better performance than pretraining without hyperlinked-from-infobox relation instances (baseline LinkBERT). This suggests that infoboxes contain useful hyperlinked articles that do not exist in the main texts of Wikipedia articles. In this work, we used $33 \%, 33 \%, 16.5 \%, 16.5 \%$ for contiguous-relation, random-relation, hyperlinked-from-text relation and hyperlinked-from-infobox relation instances respectively, but there is still room for exploring the optimal ratio of the training instance types. So, one of our next challenges is to find the best ratio of the four types of training instances to improve the performance on HotpotQA. ## 5 Conclusion In this work, we focused on improving language model pretraining to achieve better performance on downstream multi-hop question answering. We developed MixLinkBERT, a language model pretrained with multiple types of linked documents to improve multi-hop reasoning ability on downstream multi-hop QA. We show that MixLinkBERT outperforms BERT and LinkBERT on HotpotQA. As future work, we also plan to incorporate attribute information in infoboxes into LM pretraining to further improve the performance on downstream multihop QA. ## References [1] Zhilin Yang, Peng Qi, Saizheng Zhang, Yoshua Bengio, William Cohen, Ruslan Salakhutdinov, Christopher D. Manning. HotpotQA: A Dataset for Diverse, Explainable Multi-hop Question Answering. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 2369-2380, 2018. [2] Danqi Chen, Adam Fisch, Jason Weston, Antoine Bordes. Reading Wikipedia to Answer OpenDomain Questions. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics, pp. 1870-1879, 2017. [3] Akari Asai, Kazuma Hashimoto, Hannaneh Hajishirzi, Richard Socher, Caiming Xiong. Learning to Retrieve Reasoning Paths over Wikipedia Graph for Question Answering. The International Conference on Learning Representations, 2020. [4] Wenhan Xiong, Xiang Lorraine Li, Srini Iyer, Jingfei Du, Patrick Lewis, William Yang Wang, Yashar Mehdad, Wen-tau Yih, Sebastian Riedel, Douwe Kiela, Barlas Oğuz. Answering Complex Open-Domain Questions with Multi-Hop Dense Retrieval. The International Conference on Learning Representations, 2021. [5] Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics, pp. 4171-4186, 2019. [6] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, Veselin Stoyanov. RoBERTa: A Robustly Optimized BERT Pretraining Approach. arXiv preprint arXiv:1907.11692, 2019. [7] Kevin Clark, Minh-Thang Luong, Quoc V. Le, Christopher D. Manning. ELECTRA: Pre-training Text Encoders as Discriminators Rather Than Generators. The International Conference on Learning Representations, 2020. [8] Michihiro Yasunaga, Jure Leskovec, Percy Liang. LinkBERT: Pretraining Language Models with Document Links. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics, pp. 8003-8016, 2022. [9] Yoav Levine, Noam Wies, Daniel Jannai, Dan Navon, Yedid Hoshen, Amnon Shashua. The Inductive Bias of In-Context Learning: Rethinking Pretraining Example Design. The International Conference on Learning Representations, 2022. [10] Alvaro Morales, Varot Premtoon, Cordelia Avery, Sue Felshin, Boris Katz. Learning to Answer Questions from Wikipedia Infoboxes. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1930-1935, 2016. [11] Jonathan Herzig, Paweł Krzysztof Nowak, Thomas Müller, Francesco Piccinno, Julian Martin Eisenschlos. TAPAS: Weakly Supervised Table Parsing via Pre-training. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4320-4333, 2020.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q9-10.pdf
# 確率生成モデルに基づく連続音声からの 教師なし音素・単語・文法獲得 落合翔馬 ${ }^{1}$ 長野匡隼 ${ }^{1}$ 中村友昭 ${ }^{1}$ 1 電気通信大学 o1910151@edu.cc.uec.ac.jp ## 概要 人間は,二重分節構造を持つ連続音声信号を教師なしで音素や単語に分割し,文法を学習することができる。ロボットが人間のように言語を獲得するには,そのような二重分節構造の学習が可能なモデルが必要となる. 本稿では連続音声から音素・単語・文法を学習可能な確率的生成モデルを提案する。このモデルは,音素を学習する Gaussian Process Hidden Semi Markov Model (GP-HSMM) と, 単語・文法を学習する Hidden Semi Markov Model (HSMM) で構成された二階層のモデルである. 実験では,提案手法によって連続音声から音素・単語・文法を学習できることを示す. ## 1 はじめに 人間の幼児は正解を与えられなくとも,教師なしで連続音声信号から言語を学習している。言語は二重の分節構造を持っており,連続音声を分節化することで音素を,音素を分節化することで単語・文法を学習することができる. そのような人間の言語学習能力を持つロボットを実現するためには,二重分節構造を持つ時系列デー タを教師なしで分節化可能なモデルが必要である。音声認識の分野では,大量の音声データやラベル付けされたコーパスを用いた教師あり学習によって,音声を分割して認識する手法が主に用いられている [1][2][3][4]. しかし,人間は音声信号から音素・単語・文法を学習するために大量のラベル付きデータセットやコーパスを用いておらず,このような手法は人間の言語学習とは異なっている。一方, 教師なしで連続音声から音素と単語を学習するモデルとして, Nonparametric Bayesian Double Articulation Analyzer (NPB-DAA) が提案されている [5].また,我々は Gaussian Process Hidden 図 1 提案手法のグラフィカルモデル Semi Markov Model (GP-HSMM)[6][7] と Hidden Semi Markov Model (HSMM) を組み合わせることで,二重の分節構造を持つ連続音声から音素と単語の学習が可能な確率的生成モデル GP-HSMM-based Double Articulation Analyzer(GP-HSMM-DAA)を提案した [8]. しかしこれらの手法では, 音素と単語の学習に留まっており文法の学習までは実現できていない. そこで本稿では二重分節構造を持つ連続音声から音素と単語だけでなく,文法も教師なしで学習可能な確率的生成モデルを提案する.提案するモデルは GP-HSMM-DAA と同様に GP-HSMM と HSMM から構成されている階層的なモデルである.この階層構造により,教師なしで音声信号の二重分節構造を学習することが可能である. 実験では日本語の音声データから,教師なしで音素,単語そして文法を学習可能であることを示す. ## 2 提案手法 図 1 が提案手法のグラフィカルモデルであり,下位の層が GP-HSMM,上位の層が HSMM で構成された確率的生成モデルである.GP-HSMMを用いて音声信号から音素列を学習し, HSMMを用いて音素 列から単語と文法を学習する。 ## 2.1 生成過程 品詞に相当する単語クラス $v_{i}$ は直前のクラス $v_{i-1}$ によって生成される。 $ v_{i} \sim P\left(v \mid v_{i-1}\right) $ この単語クラスの遷移規則が文法であり, 従来の GP-HSMM-DAA[8] とは異なる部分である. 次に,単語クラス $v_{i}$ に従い単語 $w_{i}$ が生成される. $ w_{i} \sim P\left(w \mid v_{i}\right) $ また,単語 $w_{i}$ を構成している音素クラス $c_{j}$ は直前の音素クラス $c_{j-1}$ と遷移確率 $\pi_{c}$ によって生成される。 $ c_{j} \sim P\left(c \mid c_{j-1}, \pi_{c_{j-1}}, w_{i}\right) $ 遷移確率 $\pi_{c}$ の生成には階層ディリクレ過程 (HDP) を用い,以下のように Stick-breaking Process によって生成された $\beta$ を基底測度とした Dirichlet process(DP) によって生成される。 $ \begin{array}{r} \beta \sim \operatorname{GEM}(\gamma) \\ \pi_{c} \sim \operatorname{DP}(\eta, \beta) \end{array} $ これによりデータの複雑さに応じて, 自動的に音素クラスの数を推定することが可能となる. 音素クラ Х $c$ の音声信号 $\boldsymbol{x}_{j}$ はガウス過程から生成される. $ x_{j} \sim \mathscr{G} P\left(x \mid X_{c}\right) $ ただし, $\boldsymbol{X}_{c}$ は音素クラス $c$ のガウス過程のパラメー タである. このように生成された各音素の音声信号を連結することで連続音声信号 $\boldsymbol{S}=\left.\{\boldsymbol{x}_{1}, \cdots \boldsymbol{x}_{J}\right.\}$ は生成される。 ## 2.2 ガウス過程 提案手法の下位層では,単位系列 $\boldsymbol{x}$ 内のタイムステップ $t$ における出力 $x_{t}$ を連続的な軌道として表現するためにガウス過程回帰を用いる. ガウス過程回帰では同じクラスに属するタイムステップ $t$ における出力 $x_{t}$ の複数のぺア $(\boldsymbol{t}, \boldsymbol{X})$ が得られた時, タイムステップ $\hat{t}$ おける出力 $\hat{x}$ の予測分布は以下のガウス分布となる. $ p(\hat{x} \mid \hat{t}, \boldsymbol{X}, \boldsymbol{t}) \propto \mathcal{N}\left(\boldsymbol{k}^{T} \boldsymbol{C}^{-1} \boldsymbol{X}, k(\hat{t}, \hat{t})-\boldsymbol{k}^{T} \boldsymbol{C}^{-1} \boldsymbol{k}\right) $ ただし, $k(\cdot, \cdot)$ はカーネル関数である. $C$ は, $\boldsymbol{t}$ の $p$番目と $q$ 番目の要素を $t_{p}, t_{q}$ とした時, $p$ 行 $q$ 列の值が $ C\left(t_{p}, t_{q}\right)=k\left(t_{p}, t_{q}\right)+\phi^{-1} \delta_{p q}, $ となる行列である。 $\phi$ は観測値に含まれるノイズの表すハイパーパラメータである。また, $\boldsymbol{k}$ は $k\left(t_{p}, \hat{t}\right)$ を $p$ 番目の要素に持つべクトルである. 本稿ではカーネル関数として以下の式を用いる。 $ k\left(t_{p}, t_{q}\right)=\theta_{0} \exp \left(-\frac{1}{2} \theta_{1}\left.\|t_{p}-t_{q}\right.\|^{2}\right)+\theta_{2}+\theta_{3} t_{p} t_{q} $ $\theta_{*}$ はカーネルのハイパーパラメータである. 出力値が多次元のべクトル $\boldsymbol{x}_{t}=\left(x_{t}^{(1)}, \cdots, x_{t}^{(d)}, \cdots\right)$ の場合は各次元が独立に生成されると仮定し, 時刻 $t$ の観測値 $\boldsymbol{x}$ がクラス $c$ に対応するガウス過程から生成される確率 $\mathscr{P}\left(\boldsymbol{x} \mid \boldsymbol{X}_{c}\right)$ を以下のように計算する. $ \mathscr{S} P\left(\boldsymbol{x} \mid \boldsymbol{X}_{c}\right)=\prod_{d}^{D} p\left(x_{t}^{(d)} \mid t, \boldsymbol{X}_{c}^{(d)}\right) $ ## 2.3 パラメータの推論 提案モデルは二階層のモデルであり,単純にはパラメータを推論することが困難である.そこで,各階層を交互に推論することで,モデル全体のパラメータを最適化する. Algorithm 1 が相互学習を用いたパラメータ推定のアルゴリズムである. まず下位層において,観測された音声信号 $S$ を GP-HSMM により分節化し音素クラス系列 $C$ をサンプリングする.次に,得られた音素クラス系列を,上位層の HSMM によって分節化することで,単語系列 $W$ と単語クラス系列 $V$ をサンプリングする. 上位層では分節化された単語 $w$ から音素クラス $c$ が生成される条件付確率 $P(c \mid w)$ を計算し, 下位層 (GP-HSMM) に送る. GP-HSMM では受け取った $P(c \mid w)$ を音素の事前分布として用い,再度音素クラスのサンプリングを行う. この相互更新を $M$ 回繰り返すことによってパラメータの最適化をする。 GP-HSMM と HSMM では分節長とクラスを効率的にサンプリングするために Forward Filtering - Backward Sampling アルゴリズムを用いる. GPHSMM の Frward Filtering では,音声信号のタイムステップ $t$ を終端とする長さ $k$ の部分系列が音素クラス $c$ となる前向き確率は次式のようになる. $ \begin{array}{r} \alpha_{p}[t][k][c]=\mathscr{P} P\left(\boldsymbol{x}_{t-k: t} \mid \boldsymbol{X}_{c}\right) P\left(c \mid w_{i}\right) P_{\text {len }}\left(k \mid \lambda_{p}\right) \\ \times \sum_{k^{\prime}=1} \sum_{c^{\prime}=1} P\left(c \mid c^{\prime}, \pi_{c^{\prime}}\right) \alpha_{p}[t-k]\left[k^{\prime}\right]\left[c^{\prime}\right] \end{array} $ ただし, $P_{\text {len }}\left(k \mid \lambda_{p}\right)$ は分節長を決める $\lambda_{p}$ をパラメータとするポアソン分布であり, 遷移確率の計算には Product of Experts (PoE) 近似を用いて, $P\left(c \mid c^{\prime}, \pi_{c^{\prime}}, w_{i}\right) \approx P\left(c \mid c^{\prime}, \pi_{c^{\prime}}\right) P\left(c \mid w_{i}\right)$ とした. $P\left(c \mid w_{i}\right)$ は,上位層で計算された単語から音素クラス $c$ が発生する確率であり,この確率により単語の持つ言語的な制約を,音素の学習に与えることができる。この前向き確率から音素クラス系列 $C$ をサンプリングする。 次に上位層では,音素クラス系列 $C$ を分節化することで,単語と単語クラスをサンプリングする。 Foward Filtering では, 音素のタイムステップ $j$ を終端として,長さ $k$ の部分系列が単語となり,そのクラスが $v$ となる確率は次式のようになる。 $ \begin{aligned} & \alpha_{w}[j][k][v]=P\left(C_{j-k: j} \mid v\right) P_{\text {len }}\left(k \mid \lambda_{w}\right) \\ & \quad \times \sum_{k^{\prime}=1} \sum_{v^{\prime}=1} P\left(v \mid v^{\prime}\right) \alpha_{w}[j-k]\left[k^{\prime}\right]\left[v^{\prime}\right] \end{aligned} $ この前向き確率から単語系列 $W$ と単語クラス系列 Vをサンプリングすることができる. サンプリングされた $W$ から $P\left(c \mid w_{i}\right)$ を更新し, GP-HSMM の計算に利用する。 以上のように,以下の手順を繰り返すことで,下位層と上位層が相互に影響しあい,音素・単語・文法を学習することができる. 1. 音声信号 $S$ から音素クラス系列 $C$ のサンプリング 2. 音素クラス系列 $C$ から単語系列 $W$ と単語クラス系列 $V$ のサンプリング 3. 各単語から音素が発生する確率 $P\left(c \mid w_{i}\right)$ の更新 ## 3 実験 提案手法の有効性を確認するために AIOI-dataset ${ }^{1)}$ を改変したデータを用いて実験を行った.  図 2 音素と単語の精度の推移 ## 3.1 実験設定 AIOI-dataset は日本語の母音 $\{\mathrm{a}, \mathrm{i}, \mathrm{u}, \mathrm{e}, \mathrm{o}\}$ で構成された単語 $\{$ aioi,aue,ao,ie,uo $\}$ を組み合わせて作られた文を発話した音声データである。本実験では AIOI-datasetを単語毎に分割し,規則に従って 2 単語を組み合わせた 2 語文を新規に作成した。想定した文法規則は以下の通りである。 -一単語目の出現単語: ao, uo, ie -二単語目の出現単語: aioi, aue, ie すなわち,文は 9 種類 \{ “ao aioi”, “ao aue”, “ao ie”, "uo aioi" , "uo aue" , "uo ie" , "ie aioi" , "ie aue", “ie ie” \} である.これらを読み上げた音声データの数は 60 となった. 観測系列として音声信号のメル周波数ケプストラム係数を Deep Sparse Auto encoder によって 3 次元に圧縮した特徴量を使用した. 単語のクラス数を 2, 相互更新の繰り返し回数 $M=20$ として,特徴量を分節化し文字・単語・文法の学習を行った。また,提案モデルは初期値の依存性があるため,学習を初期値を変えて 10 回試行し,単語の尤度が最も高い試行の結果を評価に用いた. 評価指標には,正解と音素・単語の分類結果の Adjusted Rand Index (ARI) を用いた. ARI は,分類結果が正解に近いほど,1 に近い値となる指標である. ## 3.2 実験結果 図 2 の横軸が相互更新の繰り返し回数, 縦軸が ARI である.また,赤線が単語の ARIであり,緑線が音素の ARIである. この図からパラメータの相互更新を行うごとに ARI が上昇しており,提案アルゴリズムが有効に働いていることが分かる. 表 1 各単語クラスに分類された単語. 数字は音素クラスのインデックス,括弧内の文字は対応する音素である. 表 1 は,HSMM で各単語クラス $v$ に分類された単語(音素の部分系列)である. この結果と想定した文法規則を比べると,単語クラス 1 に一単語目に出現する単語, 単語クラス 2 に二単語に出現する単語が分類されており,想定した文法規則が学習されている. ## 4 結論と今後の課題 本稿では,二重分節構造を持つ連続音声データから,教師なしで音素・単語・文法を学習するモデルを提案した. 提案手法は,GP-HSMM と HSMM を組み合わせた二階層のモデルである.実験では AIOI-dataset から作成した文法の規則が存在するデータを用いて,音素・単語・文法が学習可能であることを示した. 現状の提案手法ではあらかじめ単語のクラス数を設定する必要があったため,今後は GP-HSMM と同様にクラス数を自動的に決定可能な,階層ディリクレ過程を導入する予定である. また,今回用いたデータは非常にシンプルな文法規則を想定した二語文であったため,今後はより複雑な文法規則の学習が可能か検証する予定である. ## 参考文献 [1] Tatsuya Kawahara, Akinobu Lee, Tetsunori Kobayashi, Kazuya Takeda, Nobuaki Minematsu, Shigeki Sagayama, Katsunobu Itou, Akinori Ito, Mikio Yamamoto, Atsushi Yamada, Takehito Utsuro, and Kiyohiro Shikano."Free software toolkit for Japanese large vocabulary continuous speech recognition", 6th International Conference on Spoken Language Processing, ICSLP 2000, 2000. [2] George E. Dahl, Dong Yu, Li Deng, and Alex Acero. "Context-dependent pre-trained deep neural networks for large-vocabulary speech recognition”, IEEE Transactions on Audio, Speech, and Language Processing, Vol. 20, No. 1 pp. 30-42, 2011. [3] Hiroshi Seki, Kazumasa Yamamoto, and Seiichi Nakagawa. "Comparison of syllable-based and phoneme-based dnn-hmm in japanese speech recognition”. 2014 International Conference of Advanced Informatics: Concept, Theory and Application (ICAICTA). pp. 249-254. 2014. [4] Sei Ueno, Hirofumi Inaguma, Masato Mimura, and Tatsuya Kawahara. "Acoustic-to-word attention-based model complemented with character-level ctc-based model". 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). pp. 5804-5808. 2018. [5] Tadahiro Taniguchi, Ryo Nakashima, Hailong Liu, and Shogo Nagasaka."Double articulation analyzer with deep sparse autoencoder for unsupervised word discovery from speech signals".Advanced Robotics. Vol. 30, No.11-12, pp. 770-783. 2016. [6] Tomoaki Nakamura, Takayuki Nagai, Daichi Mochihashi, Ichiro Kobayashi, Hideki Asoh, and Masahide Kaneko. "Segmenting continuous motions with hidden semi-markov models and gaussian processes", Frontiers in neurorobotics, Vol. 11, p. 67, 2017. [7] Masatoshi Nagano, Tomoaki Nakamura, Takayuki Nagai, Daichi Mochihashi, Ichiro Kobayashi, and Masahide Kaneko. "Sequence pattern extraction by segmenting time series data using gp-hsmm with hierarchical dirichlet process", 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), p. 4067-4074, 2018. [8] 長野匡隼,中村友昭,“GP-HSMM に基づく二重分節化モデルによる連続音声の教師なし構造学習”,日本ロボット学会誌,2023
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q9-11.pdf
# モバイルマニピュレーションタスクにおける 曖昧な指示文からの対象物体選択 森下雅晴 1 長野匡隼 1 中村友昭 ${ }^{1}$ 1 電気通信大学 m1910655@edu.cc.uec.ac.jp ## 概要 ロボットが行う基本的なタスクの一つであるモバイルマニピュレーションタスクは,移動ロボットがユーザが指示した物体を把持し,別の場所へと持っていくタスクである. その際に,ユーザが必ずしも対象物体を明示的に発話しない場合があり,そのような曖昧な指示発話の理解が必要となる. 本稿では曖昧なユーザ発話文に加えて環境に存在する物体の情報を入力とした言語モデル BERT に基づく系列ラベリングにより,ユーザの意図に沿った物体を選択する手法を提案する.実験では,小規模なデータセットを作成しモデルの学習を行い,提案手法が学習データに含まれない未知の曖昧なユーザ発話に対応できることを示す. ## 1 はじめに 近年,日常生活を支援する家庭用サービスロボットへの期待が高まっている。 そのようなロボットの基本的なタスクの一つがモバイルマニピュレーションタスクである. モバイルマニピュレーションタスクは,移動ロボットがユーザが指示した対象物体を把持し, 別の場所へと持っていくタスクである。このようなタスクにおいて,ユーザの指示発話はロボットが理解しやすい定型文ではなく,日常的に使用している自然言語を用いる方がユーザにとっては望ましい。しかしそのような指示発話では,ユー ザが必ずしも対象物体を明示的に発話しない場合があり,そのような曖昧な指示発話の理解が必要となる。 そこで,本稿では物体名が明示的に含まれないユーザの発話から,環境に存在する物体の情報を利用することで,対象物体を特定する手法を提案する. 図 1 が想定するタスクであり,ユーザが環境の中にある物体を持ってくることをロボットに要求 図1想定しているタスクの例 し,ロボットはその発話と環境にある物体から対象物体を特定しユーザに届ける。このようなタスクにおいて,対象物体を選択するためには,ユーザの発話と要求される物体の関係を正しく理解する必要がある. 提案手法では物体のリストを文字列として学習済み言語モデル BERT (Bidirectional Encoder Representations from Transformers)[1] に入力し,リス卜内の各物体が対象物体であるか否かを表すラベル列を予測する系列ラベリング問題として扱う。これにより,ユーザが対象物体を明示的に発話しない場合や,学習データには含まれない新規の物体が存在する場合であっても対象物体を特定することができる. 関連研究としてユーザが明示的に対象物体を発話することを想定したモバイルマニピュレーションタスク [2] があるが,本手法のように曖昧な指示文を想定していない.また,学習済み言語モデルを用いて,行動や物体を特定する手法 [3][4] も提案されているが,これらの手法では新規物体を扱うためには,再学習(ファインチューニング)が必要となる.一方,本手法では,物体選択を系列ラベリング問題 図 2 提案手法の概要 とすることで,新規物体に対しても再学習することなく,対応することができる。 ## 2 提案手法 提案手法の概要を図 2 に示す. 物体リストと発話文を BERTへの入力とし,BERT からの出力を線形変換,softmax 関数を通して,各物体が対象物体であるかどうかを表す確率を出力する。 BERT[1] は Transformers の encoderを使用した言語モデルであり,本稿では事前学習済みの BERTをファインチューニングして使用した. 事前学習済みのモデルを利用することで,言語モデル内で学習されている常識的な知識により,指示文と対象物体の関係を捉えることが期待できる. 提案手法では BERT の出力を利用した系列ラベリングにより物体を選択する。一方,分類タスクにより物体の選択をすることも可能であるが,対象物体が複数になった場合への対応が難しいといった問題がある. また分類タスクでは,分類対象の物体数だけの出力ノードを用いて学習するため, 事前に決めた物体のみにしか対応できず,新規物体へ対応するためには出力ノード数を変え再学習する必要があるといった問題がある. これに対し, 系列ラベリングではリスト内の各物体に対して対象物体か否かのラベルを出力するため,複数の物体を選択することができ,言語モデルに含まれる単語であれば新規物体であっても対応することができる.モデルは,IO 法に基づいた対象物体を表すラベル(“I”)と非対象物体を表すラベル (“O”) を出力するよう学習する. これにより,「オレンジジュース」のように「オレンジ」と「ジュース」という 2 つのトークンに分かれ表 1 発話文の種類 てしまう単語であっても,それぞれ “I”が出力されるため,トークンを結合して「オレンジジュース」 という単語を選択することができる.なお,物体リストは「、」で区切ることで,BIO 法を使わずとも異なる単語を結合してしまうことはない. 学習時には, 出力された対象物体/非対称物体である確率と正解ラベルとのクロスエントロピーを損失関数として用い学習する.テスト時には,それぞれのラベルの確率を出力し, 確率が高いラベルを予測ラベルとする. 本稿では東北大学で作成された事前学習済みモデル [5] をファインチューニングして使用した. このモデルでは日本語版ウィキペディアを用いて事前学習されている. ファインチューニングに使用したデータセットについては 3.1 節で述べる. ## 3 実験 本実験では,食べ物・飲み物・遊具・筆記用具・書物,また食べ物と飲み物で構成される食事,に関連する物体を選択することを想定し,小規模なデー タセットを作成してファインチューニングを行い,提案手法の有効性を確認した。また,より曖昧な表現を含む発話文を用いた場合の結果も確認した. ## 3.1 データセット モデルのファインチューニングに用いるデータセットとして,ユーザの発話文と物体のリストの組を作成した. まずユーザの発話文として具体的な物体名を含まない「食べ物を持ってきて」,「食事を用意して」といったロボットにユーザの要求に沿った物体を持ってくることを指示する文を 50 個用意した. 今回想定した,発話文の種類と正解となる対象物体の例を表 1 に示す.この 50 文を学習用 40 文, テスト用 10 文に分割した. すなわち,テスト用の文は学習用とは異なる文で構成されている。 次に,学習用物体リストとテスト用物体リストの 表 2 「食べ物」に対応した物体リスト 表 3 テストデータによる物体選択の評価 中から 6〜7 個の物体をランダムに取り出し,入力物体リストとした. この入力物体リストはユーザ発話文に合わせて正解となる物体を 1 つ以上含み,その他は正解ではない物体で構成されている。この時, リスト中の単語の位置は物体選択に関係ないため,単語の並びがランダムになるよう留意した. また,学習用物体リストとテスト用物体リストはそれぞれ異なる物体で構成されている. 表 2 が,食べ物に対応した学習用とテスト用の物体リストである. また同時に,IO 法によって入力物体リスト内の各物体に対応した正解ラベルを作成した. この手順を学習用とテスト用それぞれのユーザ発話文に対して 200 回行い,合計で学習用 8000 個,テスト用 2000 個のデータセットを作成した. このように,テストデータには学習データには含まれない物体,発話文を使用した。すなわち,テストデータで正しく物体を選択するためには,発話文と物体の関係を正しく学習する必要がある。 ## 3.2 テストデータによる評価 表 3 が,テストデータを用いた物体選択の Precision, Recall, F-measure である. テストデータは学習データに含まれていない物体と発話文で構成されていたが,各指標で 0.7 を超えるスコアを得られた. すなわち,提案手法は学習していない未知の表現・物体に対しても,ある程度対応できると考えられる。 ## 3.3 より曖昧な発話文による物体選択 学習データは「○○を持ってきて」,「○○が欲しい」などの物を要求する文で構成されている. 本実験では,直接的に物を要求しない,より抽象的な表現から物体を選択できるか確認した。学習に使用した表現と比べてより曖昧で抽象的な表現を含む発話表 4 より曖昧な発話文からの物体選択 & 何か飲みたいな & オレンジジュース, \\ & ちょっとメモしたいな & 水 \\ 文を入力としたときの結果が,表 4 である.1つ目では曖昧な表現として「何か飲みたいな」という発話から,2つ目の例では「ちょっとメモしたいな」 という発話から物体を選択した。どちらの場合も物体リスト内の太字で示した正解となる対象物体を正しく選択できている。この結果は,事前学習済みの言語モデルにより,ファインチューニング時にはない「飲む」や「メモ」といった単語と各物体の関連性を捉えられているためだと考えられる. ## 4 おわりに 本稿では,家庭用サービスロボットがユーザの曖昧な発話から,環境内にある物体をユーザの意図に合わせて選択する手法を提案した.実験では,小規模なデータセットを用いた予備的な実験であったにも関わらず,未知の表現・物体であっても正しく物体選択できることを確認した.データセットを拡張することで,より曖昧な指示から物体を選択できるようになると考えられる.そこで今後,クラウドソーシングを利用してデータセットを拡充し,より曖昧な指示やより広いドメインへの対応を考えている. また,現時点では複数の正解が物体リストにあるとき,それら全てが抽出されるようになっている. そのような場合には,ユーザとの対話を通して物体を選択するような方法を導入することを考えている. ## 謝辞 本研究は, JST ムーンショット型研究開発事業 JPMJMS2011 の支援を受けたものである. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova, "BERT: Pre-training of Deep Bidirectional Transformers for Language" arXiv:1810.04805, 2019 [2] Takahiro Kobori, Tomoaki Nakamura, Mikio Nakano, Takayuki Nagai, Naoto Iwahashi, Kotaro Funakoshi, and Masahide Kaneko, "Robust Comprehension of Natural Language Instructions by a Domestic Service Robot", Advanced Robotics, Vol. 30, Issue 24, pp. 1530-1543, 2016 [3] 田中翔平,湯口彰重,河野誠也,中村哲,吉野幸一 郎,“気の利いた家庭内ロボット開発のための曖昧なユーザ要求と周囲の状況の収集”,情報処理学会研究報告, NL-253, 2022 [4] Michael Ahn, et al., "Do as I can, not as I say: Grounding language in robotic affordances." arXiv preprint arXiv:2204.01691, 2022 [5] "Pretrained Japanese BERT models", https://github. com/cl-tohoku/bert-japanese
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q9-12.pdf
# Masked Image Modeling を利用した情景画像中のテキスト認識 三ツ井悠翔 宮崎智 大町真一郎 東北大学大学院 yuto.mitsui.s1@dc.tohoku.ac.jp tomo@tohoku.ac.jp shinichiro.omachi.b5@tohoku.ac.jp ## 概要 既存のテキスト認識手法は実世界におけるデータセットのサンプル数が少ないため,合成データセットを用いて学習がされているが、実世界で発生する問題に対応できない。そこで,ラベルがない実画像の利用によってテキスト認識モデルの可能性を引き出すことが考えられており,テキスト認識に対する自己教師あり学習手法が検討されている。本研究では、Masked Image Modeling を利用し、文脈情報を考慮した新たなマスキング戦略を提案した。実験の結果,提案するマスキング戦略の有効性が実証された。 ## 1 はじめに 情景画像中のテキスト認識は自然なシーンにおけるテキストの読み取りを目標としており,幅広い応用が存在するため重要なタスクとなっている. 光学式文字認識 (OCR) の分野は大きく発展したが,実世界で発生するフォントや文字の形,撮影環境による問題によって,情景画像中のテキスト認識は現在も難しいタスクとなっている.既存のテキスト認識手法の多くは実世界におけるデータセットのサンプル数が少ないため,大規模な合成データセットを用いて学習がされている。しかし,実データと合成デー タのドメインギャップにより,実世界で発生する問題に対応できない.そこで,アノテーションされていない実画像の利用によってテキスト認識モデルの可能性を引き出すことが考えられており,テキスト認識に対する自己教師あり学習手法が検討されている. これまでの研究では, Contrastive Learning (対照学習)の導入が試みられている. SeqCLR[1]は,テキスト認識のための sequence-to-sequence 対照学習手法を提案した. PerSec[2] はテキスト認識のための階層的な対照学習手法を提案した。自然言語処理では,BERT[3] が Masked Language Modeling (MLM) による大きな成功を収めている.画像分野では BERT に触発され,データの一部を削除し,削除した部分を復元する考え方を画像に適用した Masked Image Modeling (MIM) が提案されている. 2 つの手法は類似しており,PIXEL[4] は文をテキスト画像に変換し,MIM を用いることで BERT と同程度の結果を出している。 本研究では,MIM をテキスト認識に適用し,単語の文脈情報を反映した自己教師あり事前学習を行うことを目的としている. 特に,MIM 手法として Masked AutoEncoder (MAE)[5] を利用し,マスキング戦略に対して変更を行った。具体的には,横方向には,ランダムなスパンに対してマスキングを行い,縦方向には一様なマスキングを行う.ランダムマスキングよりも,意味のある単位(文字や複数文字) をマスクすることで,抽象度の高いモデルを作るような効果があると考えられる.提案するスパンマスキングで事前学習を行うとランダムマスキングよりも $0.8 \%$ 以上高い正解率が得られた。本論文の貢献は以下の 3 点である. 1. テキスト認識に対して初めて MAEを利用した事前学習を行った。 2. 文脈情報を考慮した新たなマスキング戦略を提案した。 3. 提案手法によって事前学習し,テキスト認識でのファインチューニングを行ったところ,事前学習無しの場合よりも $2.7 \%$, 他のマスキング戦略よりも $0.8 \%$ 高い正解率を達成した。 ## 2 関連研究 ## 2.1 Masked Image Modeling(MIM) MIM は自然言語処理における MLM の発展とともに,近年発展している.MIM 手法の一つである MAE はマスクされていない画像パッチに対してのみ動作するエンコーダと潜在表現とマスクトークンから元の画像を構成する軽量なデコーダを用いて,入力画像の $75 \%$ という高い割合でマスクを行うことで有効な事前学習ができることを可能にした. 本研究では,自己教師あり学習手法である MIM に着目し, 計算効率と有効性の観点から MAEを事前学習に用いる. ## 2.2 自己教師ありテキスト認識 提案されている自己教師ありテキスト認識手法は, Sequence-to-Sequence モデルに基づいている. SeqCLR[1] は, テキスト認識のための対照学習手法を提案した。この手法では,順序に関する情報を維持したまま,シーケンスの個々の要素に対照学習を適用することができる. PerSec[2] もテキスト認識のための対照学習を提案している. 提案された手法は, 特徴量の各要素を高レベルと低レベルで比較する階層的な対照学習を行っている. このようなテキスト認識における対照学習手法の成功に対して、本研究では MIM 手法を活用し, その有効性について検討している。 ## 3 方法 ## 3.1 Masked Autoencoder 本研究では,自己教師あり事前学習として MIM 手法である Masked Autoencoder(MAE)[5]を利用しており, 以下の 4 つの主要な要素から構成されている. スパンマスキング画像を非重複パッチに分割し,一部のパッチをマスクする (除去). マスキングの方法として本研究で提案するスパンマスキングと MAE で用いられているランダムマスキングを用いた. ランダムマスキングは一様分布に従ってランダムなマスクを生成する。一方,スパンマスキングはテキスト画像が水平方向に対してのみ文脈情報を保持していると仮定し, 文脈情報を考慮して垂直方向と水平方向で異なるマスキングを行う. 垂直方向に関しては文脈情報を持たないため,一様なマスクを生成する. 水平方向は文脈情報を持つため, PIXEL[4] のマスキング戦略を利用し, 意味のある単位でマスクを生成する,具体的には,スパン間にいくつかのマスクされていないパッチを残しながら,最大 $S=6$ パッチの連続画像スパンに対してマスキングを行う,マスクの割合に関しては,それぞれの戦略について 25,50,75\%の值を適用して実験を行った. マスク画像の例を図 1 に示す. (a)Random Masking (b)Span Masking図 1 マスク画像の例 エンコーダ ViT[6] を利用し,マスクされていないパッチのみを処理する。これによって必要メモリを削減して学習速度を上げることに加え, 事前学習とファインチューニング間のミスマッチを減少させている. デコーダデコーダには,エンコーダの出力とマスクトークンが入力され,画像の再構成タスクが実行される. デコーダは,6層のトランスフォーマー ブロックと全結合層によって構成され, 計算量はエンコーダに対して小さくなるように設計されている. 再構成ターゲットデコーダの出力は再構成された画像に再形成され, 再構成画像と元画像の平均二乗誤差(MSE)が損失関数として利用される. 再構成の対象としてマスクされたパッチの画素値を正規化したものを用いることで性能が向上することがわかっているため [5], この方法を利用する. また,テキスト認識時には RGB 画像ではなく白黒画像を利用するため,再構成の対象として白黒画像を用いる. ## 3.2 テキスト認識 テキスト認識モデルとして Transformer Encoder と予測ヘッドで構成されるViTSTR[7]を用いる. Transformer Encoder 部分で, MAE によって事前学習されたパラメータを継承し,ファインチューニングを行う。その際,予測へッドは初期化する。 ## 4 実験 ## 4.1 データセット 合成データセット代表的な合成データセットである MJSynth(MJ)[8] と SynthText(ST)[9]を組み合わせて使用した. MJは9M 個のテキスト画像で構成されている. ST は 800k の画像から $8 \mathrm{M}$ のテキスト 表 1 学習設定 画像を切り出したものである. 情景画像中のテキスト認識ベンチマーク情景画像中テキスト認識ベンチマークで評価した. ベンチマークはテキストの難易度やテキストのレイアウトによって regular データセットと irregular データセッ卜に区別することができる. まず,regular データセットは,文字の感覚が均等で,水平にレイアウトされた比較的容易なテキスト画像が含まれる. IIIT5K-Words(IIIT)[10], Street View Text(SVT)[11], ICDAR2013(IC13)[12] が該当する. 次に, irregular データセットには曲がったテキストや回転, 歪んだテキストなど難しいケースが含まれている. ICDAR2015(IC15)[13], SVT Perspective(SP)[14], CUTE80(CT)[15] が該当する. ## 4.2 実験詳細 自己教師あり事前学習 MAE のエンコーダとして ViT-Tinyを用いた. ViT-Tiny は Patch Size が 16, Embedding Size が 192, Head の数が 3 の ViT であり, 基本的な ViT と比較してパラメータ数が小さいモデルである. 事前学習には合成データセット (MJSynth と SynthText)の両方を用いた. 計算資源の都合上,データ量は $50 \%$ とした. MAE の論文と同様に学習を行い,ハイパーパラメータについても論文に従った。 テキスト認識でのファインチューニング ViTSTR で用いられていた学習設定をそのまま使用した. (表 1) 学習データとして合成データセット(MJSynthと SynthText)の両方を用いた. テストデータには, 4.1 節で紹介した情景画像中テキスト認識ベンチマークを用いた。 ## 4.3 事前学習におけるマスク画像の再構成 事前学習において一枚のマスク画像を再構成した際の結果を図 2 に示す. ランダムマスキングの場合,マスクの割合が $75 \%$ という不鮮明な場合でも, ほとんどの場合で文字列を再構成できていた.ここから,モデルが優れた特徴表現を学習していると考えられる。一方で,スパンマスキングでは,マスク (a)Random Mask (75\%) (b)Span Mask (25\%) (c)Span Mask (50\%) (d)Span Mask (75\%) 図 2 マスク画像の再構成結果(左から原画像,マスク画像,出力画像,マスク+出力画像) の割合が高くなるにつれて成功率が低くなっていた. マスクの割合が $25 \%$ の時はマスク部分の文字を予測できていることが多かった.ここから,見えなくなっている文字を予測しており,文脈情報を事前学習で獲得していることがわかる. $75 \%$ になると,例のようにマスク部分の文字が不鮮明になってしまっている例が多かった. 隠される文字が多すぎると,正しい文脈情報を獲得することはできていないと考えられる。 ## 4.4 テキスト認識 事前学習したモデルをテキスト認識タスクでファインチューニングし, 評価を行った. 表 2 に学習データのすべて(100\%)を使用した結果,表 3 に学習データの $1 \%$ 使用した結果を示す. 評価指標には Top1 Accuracyを用いた。 学習データ全てによる学習では,スパンマスキングで 75\%の割合をマスクした時,他の場合よりも $0.8 \%$ 以上高い正解率が得られた. ランダムマスキングに着目すると,50\%の時に最も良い正解率が得られており,MAE による ImageNet での結果 $(75 \%)$ とは異なっていた。通常の画像とテキスト画像では情報の密度が異なっていることが原因と考えられる。 スパンマスキングでは,マスクの割合が高くなるに 表 2 テキスト認識の結果(学習データ $100 \%$ ) 表 3 テキスト認識の結果(学習データ $1 \%$ ) つれて正解率が上がっている. マスク部分のスパンの長さが長くなり,より意味のある単位でマスクされたことによりこの結果になったと考えられる. しかし, 事前学習で復元された画像の品質とは結果が異なっており,2つの結果に相関がないと考えられる。 学習データの $1 \%$ で学習では,スパンマスキングで 50\%の割合をマスクした時にスクラッチやランダムマスキングよりも 10\%以上高い正解率が得られた. スパンマスキングが,MAE で利用されているランダムマスキングよりも平均 $10 \%$ 以上正解率が高くなっており,提案手法の有効性が実証された。学習データ全てを用いた時とは傾向が異なっており, マスクの割合が $50 \%$ の時に正解率が最も高くなった. 事前学習時に,75\%では文字をはっきりと予測できていないことが関係していると考えられる. ## 5 結論 本論文ではテキスト認識のための自己教師あり学習として Masked Image Modeling に着目し, 新たなマスキング戦略を提案した. 提案したマスキング戦略は,MAEに用いられているマスキング戦略よりも有効であるということが分かった. 今後は事前学習での実世界データセットの利用やモデルサイズの変更,既存手法との比較実験を行いたいと考えている. ## 参考文献 [1] Aviad Aberdam, Ron Litman, Shahar Tsiper, Oron Anschel, Ron Slossberg, Shai Mazor, R Manmatha, and Pietro Perona. Sequenceto-sequence contrastive learning for text recognition. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 15302-15312, 2021. [2] Hao Liu, Bin Wang, Zhimin Bao, Mobai Xue, Sheng Kang, Deqiang Jiang, Yinsong Liu, and Bo Ren. Perceiving stroke-semantic context: Hierarchical contrastive learning for robust scene text recognition. AAAI, 2022. [3] Zhimin Bao Mobai Xue Sheng Kang Deqiang Jiang Yinsong Liu Hao Liu, Bin Wang and Bo Ren. Bert: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the $\mathbf{2 0 1 9}$ Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, NAACL-HLT 2019, Minneapolis, MN, USA, June 2-7, 2019, p. 4171-4186. [4] Phillip Rust, Jonas F Lotz, Emanuele Bugliarello, Elizabeth Salesky, Miryam de Lhoneux, and Desmond Elliott. Language modelling with pixels. arXiv preprint arXiv:2207.06991, 2022. [5] Kaiming He, Xinlei Chen, Saining Xie, Yanghao Li, Piotr Dollár, and Ross Girshick. Masked autoencoders are scalable vision learners. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 16000-16009, 2022. [6] Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, et al. An image is worth $16 \times 16$ words: Transformers for image recognition at scale. arXiv preprint arXiv:2010.11929, 2020. [7] Rowel Atienza. Vision transformer for fast and efficient scene text recognition. In International Conference on Document Analysis and Recognition, pp. 319-334. Springer, 2021. [8] Max Jaderberg, Karen Simonyan, Andrea Vedaldi, and Andrew Zisserman. Synthetic data and artificial neural networks for natural scene text recognition. arXiv preprint arXiv:1406.2227, 2014. [9] Ankush Gupta, Andrea Vedaldi, and Andrew Zisserman. Synthetic data for text localisation in natural images. In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 2315-2324, 2016. [10] Anand Mishra, Karteek Alahari, and CV Jawahar. Scene text recognition using higher order language priors. In BMVC-British machine vision conference. BMVA, 2012. [11] Kai Wang, Boris Babenko, and Serge Belongie. End-to-end scene text recognition. In 2011 International conference on computer vision, pp. 1457-1464. IEEE, 2011. [12] Dimosthenis Karatzas, Faisal Shafait, Seiichi Uchida, Masakazu Iwamura, Lluis Gomez i Bigorda, Sergi Robles Mestre, Joan Mas, David Fernandez Mota, Jon Almazan Almazan, and Lluis Pere De Las Heras. Icdar 2013 robust reading competition. In 2013 12th international conference on document analysis and recognition, pp. 1484-1493. IEEE, 2013. [13] Dimosthenis Karatzas, Lluis Gomez-Bigorda, Anguelos Nicolaou, Suman Ghosh, Andrew Bagdanov, Masakazu Iwamura, Jiri Matas, Lukas Neumann, Vijay Ramaseshan Chandrasekhar, Shijian Lu, et al. Icdar 2015 competition on robust reading. In 2015 13th international conference on document analysis and recognition (ICDAR), pp. 1156-1160. IEEE, 2015. [14] Trung Quy Phan, Palaiahnakote Shivakumara, Shangxuan Tian, and Chew Lim Tan. Recognizing text with perspective distortion in natural scenes. In Proceedings of the IEEE International Conference on Computer Vision, pp. 569-576, 2013. [15] Anhar Risnumawan, Palaiahankote Shivakumara, Chee Seng Chan, and Chew Lim Tan. A robust arbitrary text detection system for natural scene images. Expert Systems with Applications, Vol. 41, No. 18, pp. 8027-8048, 2014.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q9-13.pdf
# コードネームピクチャーズにおける ヒント決定アルゴリズムの提案と実装 大橋玲音 1 坪倉和哉 2 鈴木丈慈 1 坪井辰馬 1 小林邦和 ${ }^{1}$ 1 愛知県立大学情報科学部 2 愛知県立大学大学院 情報科学研究科 \{is211014, im212008, is211046, is211053\}@cis.aichi-pu.ac.jp kobayashi@ist.aichi-pu.ac.jp ## 概要 本研究では,不完全情報ゲームの一つであるコー ドネームピクチャーズをプレイするアルゴリズムの実装を行った.コードネームピクチャーズは, 画像理解と自然言語理解を介した意図の伝達を行うゲー ムである.そのため,アルゴリズムの実装は,挑戦的なタスクであり, 人間の認知行動の理解にも繋がる. 提案手法では, イメージキャプショニングと翻訳により画像を文章に変換する方法を検討した。その結果は, 提案手法では人間のプレイ能力に及ばないことがわかったが,一部人間と同様のプレイ能力を発揮した. 本成果は, 今後のコードネームピクチャーズの研究に役立ち, 画像と自然言語の融合的理解を進めるものである. ## 1 はじめに 人工知能技術の発展により, 将棋や囲碁といった完全情報ゲームでは,すでに人間の能力を凌駕する力を獲得している. そこで, より高度な知能を獲得することを目指し,より複雑なタスクである不完全情報ゲームを対象とした研究 $[1,2]$ が進められている. 完全情報ゲームとは異なり, 不完全情報ゲームでは,ゲームを行う上で必要な情報全てが明らかになっているわけではない. 不完全情報ゲームの中には,他プレイヤとコミュニケーションを行い,自身の持つ情報を伝えたり, 他プレイヤから必要な情報を引き出すようなゲームもある。例えば,人狼ゲー ムでは, 他プレイヤとの会話に基づき, 交涉や欺瞞を行う必要がある。 また, Hibana のように, 会話ではなく, ルールに基づく行動によりタスク成功に必要なヒントを伝えるゲームもある。これらのゲームは,限られた行動の範囲の中で,自身の意図を他プ レイヤに伝える能力が必要となる.そのため,このようなコミュニケーションを伴う不完全情報ゲームの研究を行うことで, 高度なコミュニケーションの理解につながる. 本研究では, 不完全情報ゲームの中でも, コー ドネームピクチャーズを扱う。コードネームピクチャーズのルールについては 2 章で詳述するが, 絵が描かれたカードにヒントとなる単語を付与する“ スパイマスター”と,スパイマスターから与えられた単語からスパイマスターの意図するカードを選択する “諜報員”に分かれて行うゲームである。そのため,スパイマスターは,カードに描かれた絵から適切な言葉を抽出し, 意図するカードを諜報員に適切に選択してもらう必要がある。一方で, 諜報員は,スパイマスターの意図を波み取り,適切にカー ドを選択する必要がある。このように,コードネー ムピクチャーズでは, 画像理解と自然言語理解を介した意図の伝達を行うことが求められる. コードネームピクチャーズと類似したゲームとして,コードネームと Dixit が挙げられる。コードネームピクチャーズはコードネームから派生したゲームである.コードネームピクチャーズはカードに絵が描かれているのに対して,コードネームは, カードに単語が描かれている.コードネームを扱った先行研究はいくつか存在するが $[3,4]$, コードネー ムピクチャーズでは, 自然言語理解だけなく, 画像理解も必要となる. また, Dixit はイラストが描かれたカードと言葉によるヒントを用いてゲームを行うため, Dixit の先行研究 [5] はコードネームピクチャーズの研究にも役立つ. しかし, Dixitにおけるヒントは,推測者全員にカードを当てられず,一部の推測者のみに当てもらう必要があるため,コー ドネームピクチャーズとはヒントの出し方が異な 図 1 コードネームピクチャーズの場の例 図 2 コードネームピクチャーズの色の割り当ての例 (4 × 5 の各タイルに色が割り当てられており, 各タイルは図1の各カードに対応している) る1).コードネームピクチャーズでは, 味方プレイヤと協力する必要があるため, 味方のプレイヤに単語を用いて意図を伝える能力が求められる。 これまで,コードネームピクチャーズを扱った研究は存在しない. そのため, 本研究では, コードネームピクチャーズの研究の第一歩として,スパイマスターのヒントに着目し,ヒントを決定するアルゴリズムのベースライン実装と人間のスパイマスターにより作成されたヒントとの比較を行う. 以降,2 章では,コードネームピクチャーズのルールを説明する. 3 章では,スパイマスターのヒント決定アルゴリズムについて述べ, 4 章で評価を行う。最後に本稿をまとめる. ## 2 コードネームピクチャーズの ルール 本章では,コードネームピクチャーズのルールについて説明する。コードネームピクチャーズでは, スパイマスター一人と諜報員一人以上からなる 2 チームに分かれる.場には 20 枚の絵(図 1)が書か  れたカードがあり,それらのカードには先攻チームのカード 8 枚 (青色), 後攻チームのカード 7 枚(赤色), 暗殺者のカード 1 枚 (黒色),一般人のカード 4 枚(肌色)が割り当てられている (図2). スパイマスターは上記のカードの色の割り当てを知っているが,諜報員は色の割り当てを知ることはできない. また,カードに描かれた絵はスパイマスターと諜報員の両方から見ることができる.スパイマスターは自分のチームの諜報員へ向けてヒントを提示,諜報員はスパイマスターから提示されたヒントをもとに自分のチームのカードを推測して選択する。これをそれぞれのチームで交互に繰り返し,先に自分のチームのカードをすべて取ったチームが勝ちとなる. スパイマスターが提示するヒントは正解の絵を連想させ,ヒントとカードの絵柄が意味的に関係する一語の単語(品詞は問わない)である必要がある.例えば,「あ」から始まる物の絵柄 3 枚のヒントとして「あ」は使用することができない。また,スパイマスターはヒントのほかに諜報員に取ってほしいカードの枚数を指定できる。諜報員はスパイマスターが指定した枚数よりもさらに一枚まで多くとることができる.これは前のヒントのカードをとり逃した場合に役に立つ. 諜報員はスパイマスターのヒントを元に,同じチームの諜報員と相談しながら正解だと思うカードを選ぶ。選んだカードが自分のチームのカードの場合, さらにもう一枚とるか否か選ぶことができる.選んだカードが一般人または相手のチームのカードであった場合,相手にターンを渡す。選んだカードが暗殺者のカードの場合,選んだチームはその時点で負けとなるため,暗殺者のカードを選ぶことは絶対に避けなければならない、スパイマスターは相手チームより先に自分のチームの諜報員に自分のチー ムのカードをすべてとらせるために,一つのヒントでなるべく多くのカードを連想させるヒントを出すことが重要である. 以上のように,スパイマスターはカードに描かれた絵から関連する語を抽出し, 他のカードとの関係も考慮した上でカードの推測に効果的なヒントを提示する。また,諜報員はヒントとなる単語をもとに,単語が示している絵の描かれたカードを選択する必要がある.そのため,コードネームピクチャー ズは,高度な画像理解と自然言語理解を必要とするボードゲームであり,ゲーム AI の実装は挑戦的な 画像(イラスト) (1)イメージキャプショニング “a picture of a bus”英語のキャプション (2)翻訳 (英語 $\rightarrow$ 日本語) “バスの写真” 日本語のキャプション (3)翻訳文章から単語を選択 “バス” 単語 図 3 ヒント決定アルゴリズムの概要 画像処理と自然言語処理の両方が必要な融合タスクと言える。 ## 3 ヒント決定アルゴリズム この章では,ヒント決定アルゴリズムについて説明する.アルゴリズムの概要を図 3 に示す。はじめに,コードネームピクチャーズで用いられるカードに対してイメージキャプショニングを行い,そのカードを説明する文章を得る,イメージキャプショニングとは,画像に対して文章の説明を生成する技術であり,イメージキャプショニングを行う際に用いたモデルは OFA [6] である. その後, 得られた文章を英語から日本語へ翻訳する。翻訳には Python ライブラリ googletrans ${ }^{2}$ を用いた. コードネームピクチャーズではヒントとして用いれるのは一語の単語である.そのため, 翻訳された文章から単語を選択する。まず,日本語形態素解析エンジンである $\mathrm{MeCab}^{3)}$ を用いて,翻訳文章を単語に分割する。言語のみを用いるコードネームの研究において, ヒントとして用いられる単語は名詞が最も高い (名詞: $74.7 \%$, 動詞: $13.1 \%$, 形容詞: $12.1 \%$ )ことが報告されている [4]. そのため, 翻訳文章の単語のうち, 名詞をヒントの候補単語とした。ここで,代名詞はカードを推測するための情報を持たないと考えられるため, 代名詞は除いている。また,翻訳 2) https://pypi.org/project/googletrans/ 3) https://taku910.github.io/mecab/文章を人手で確認したところ,「○○の絵」,「○○ のイラスト」,「○○の写真」といった文章が多かった.「絵」,「イラスト」,「写真」の 3 単語は, カードの推測に役立たない $(\bigcirc \bigcirc$ 部分に情報が含まれる)ため, これらの 3 単語もヒント候補から取り除いた.このように選択したヒントとなる単語の候補群から単語を無作為に選択することでヒント単語を決定した.ここで, 上記の方法でヒントの候補群が空となる場合には,動詞または形容詞から単語を無作為に選択した。動詞または形容詞も含まれない場合は,全単語から 1 つ単語を無作為に選択する。 ## 4 評価 本章では, 人間が作成したヒントと前章で述べた手法で選択されたヒントの比較を行うことで,提案手法の評価を行う。 ## 4.1 評価方法 コードネームピクチャーズのカード全 280 枚から無作為に 50 枚選択し, それらのカードに対して評価を行う.まず,前章で述べた手法により各カードに対してヒント単語を決定する。また, 複数名のヒント作成者(大学生 2 名)により, 各カードに対して, カードの絵を表現するヒント単語を決定した。 その後, 作成者とは別の評価者(大学生 2 名)が, カードとヒント単語を見て,ヒントが適切かを 1 (不適切)から 5 (適切)の 5 段階で評価を行った. ## 4.2 評価結果 人間と提案手法により作成したヒントの両方に対して,そのヒントがどの程度適切かを 1 (不適切) から 5 (適切) の 5 段階で評価した。その結果, 人間と提案手法が作成したヒントの評価値の平均は, それぞれ 4.90 と 2.22 であった. 度数分布表を図 4 に示す. 図から, 人間によるヒントは大半が適切,提案手法は半数が不適切と評価された。また,人間と提案手法によるヒントの評価をウィルコクソンの符号付順位検定を用いて比較すると, $p$ 值は $1.28 \times 10^{-8}$ であった. このことから, 人間が作ったヒントの評価と提案手法によるヒントの評価との間には,平均值に有意な差があるといえる.したがって, 人間が作ったヒントは提案手法によるヒントより適切であるといえる. しかしながら, 人間と提案手法が同じ単語である場合も確認されたことから,部分的には提案手法は人間と同様のヒントを作成す 図 4 人間が作成したヒントと提案手法により作成したヒントの適切性(1 が不適切, 5 が適切) 図 5 イメージキャプショニング,および翻訳の適切性の評価 (1 が不適切, 5 が適切) る能力があることが確認された。提案手法によるヒントが人間によるヒントと比較して点数が著しく低い結果となった理由としては, イメージキャプショニング,または翻訳が適切に行われなかったことが原因だと考えられる。 この原因を調査するため,コードネームピクチャーズの 280 枚のカードに対して,イメージキャプショニングと翻訳を行って得た説明文章に対して, 評価者 1 名が説明文の妥当性を 5 段階 (1 が不適切, 5 が適切) で評価した。その結果(図 5), 約 $1 / 4$ の説明文章は適切(5 点)と判断されているが,約半数のカードが不適切(1 点)と判断された.この結果から,イメージキャプショニングまたは,翻訳の精度が十分でないことがわかった. ## 5 おわりに 本研究では,コードネームピクチャーズの研究の第一歩として, スパイマスターのヒントに着目し, ヒントを決定するアルゴリズムを提案した。人間と提案手法により作成したヒントを人手で評価した結果, 人間のヒントの方が適切であることがわかった. 提案手法が劣る結果となった原因として,イメージキャプショニング,または翻訳の精度が悪いことが考えられるため, 今後は,イメージキャプショニングと翻訳の精度を向上させる. 具体的には,コードネームピクチャーズの多義的なイラス卜に対して, 適切に説明文章を生成できるように, キャプショニングモデルのハイパーパラメータの調整を行うことが挙げられる. また, 本研究ではタスクの単純化のため, 1 枚のカードのみに対してヒントを作成したが,コードネームピクチャーズでは複数枚のカードに対して 1 つのヒントを作成することが可能である.そのため, 複数枚の絵に共通する要素を抽出し, それをヒントとして提示する能力が求められる。今後は複数枚の絵に対してヒントを作成する手法の検討も行う. 将来的には, ヒントからカードを推測するプレイヤー(諜報員)の実装も行い,人間とゲームをプレイできる人工知能システムを作成する. ## 参考文献 [1] 片上大輔, 烏海不二夫, 大澤博隆, 稲葉通将, 篠田孝祐,松原仁. 人狼知能プロジェクト (<特集>エンターテイメントにおける ai). 人工知能, Vol. 30, No. 1, pp. 65-73, 2015. [2] 大澤博隆. Hanabi コンペティション一不完全情報下における相互協力一. 人工知能, Vol. 35, No. 3, pp. $385-389,2020$. [3] Catalina Jaramillo, Megan Charity, Rodrigo Canaan, and Julian Togelius. Word Autobots: Using Transformers for Word Association in the Game Codenames. Proceedings of the AAAI Conference on Artificial Intelligence and Interactive Digital Entertainment, Vol. 16, No. 1, pp. 231-237, October 2020. Number: 1. [4] 坪倉和哉, 久保谷空史, 早苗昭尚, 大橋玲音, 堀川裕真,小林邦和. コードネームのゲーム ai 実装に向けたヒント行為の分類. 人工知能学会全国大会論文集, Vol. JSAI2022, 2022. [5] 岩田航季, 鈴木麗需, 有田隆也. 連想カードゲーム Dixit の AI プレイヤー作成による人間の認知へのアプローチ. 人工知能学会全国大会論文集, Vol. JSAI2020, 2020. [6] Peng Wang, An Yang, Rui Men, Junyang Lin, Shuai Bai, Zhikang Li, Jianxin Ma, Chang Zhou, Jingren Zhou, and Hongxia Yang. Ofa: Unifying architectures, tasks, and modalities through a simple sequence-to-sequence learning framework, 2022.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q9-1.pdf
# ホッピングマスクを利用した Stable Diffusion Model による連続画像生成 趙 開顔 ${ }^{1}$ Qiyu Wu ${ }^{1}$ 村田 秀樹 2 石川隆一 ${ }^{2}$ 根之木堸亮 ${ }^{2}$ 山本 覚 ${ }^{2}$ 鶴岡 慶雅 ${ }^{1}$ 1 東京大学大学院 ${ }^{2}$ 株式会社電通デジタル \{zhaokaiyan1006, qiyuw, yoshimasa-tsuruoka\}@g.ecc.u-tokyo.ac.jp \{murata.h, ishikawa.r, nenoki.s, yamamoto.sato\}@dentsudigital.co.jp ## 概要 Stable Diffusion Model (SDM) のオープンソース化に伴い,大規模画像生成モデル,特に text-to-image モデルが話題になっている. 既存研究では拡散モデルを改善し,制御可能な画像生成や画像編集を目指している。これらの方法はいずれも有効だが,使われるプロンプトに対する制約が大きく,編集した画像の構成を変えられないなどの欠点が存在する. それに加え,従来のSDM は,生成した画像の表現力が足りず,しばしば品質の低い画像が出力されるなどの問題点を抱えている.これらを踏まえて, 本研究では再学習を必要とせず,連続的に生成される画像間の相関性を改善し,画質や表現力を向上させる手法を提案する ${ }^{1)}$. ## 1 はじめに 近年,拡散モデル(DDPM)[1] の幅広い応用や CLIP [2] などのクロスモーダルモデルの発展に伴い, Stable Diffusion Model [3], DALLE2 [4], Imagen [5] などの大規模画像生成モデルが話題になっている.これらのモデルにより,専門知識の有無を問わず,誰でも高品質な画像を生成することができるようになった. 図 1 に示すように,プロンプト(生成する画像の内容を示すテキスト)さえあれば,モデルが自動的にプロンプトが表す内容を画像で出力することが可能である. このようなテキストから画像を生成する技術は txt2img(text-to-image) と呼ばれている. 2022 年の 8 月,SDM のオープンソース化を機に,画像生成への関心はさらに高まった. 画像生成を改善する方向の一つとして,制御可能性を高める方法  maskで公開されている. 図 1 txt2img の例 が挙げられる. Hertz ら [6] の prompt-to-prompt という手法により,プロンプトのテキスト編集だけで画像を編集することが可能になった。一方,Kawar ら [7] は一枚の画像と一つのプロンプトだけで,複雑な画像編集を可能にする手法を提案した. Stable Diffusion Model (SDM) への関心を踏まえ,本研究においても SDM である txt2img モデルを使用した. しかし, Yang ら [8] によると, 従来の SDM にはまだ多くの問題が残っている. まず,SDM は高品質な画像を生成することができるものの,時には学習がうまくいかず,崩れた画像を生成してしまうことがよくある [9]. また,図2 に示したように,入力したプロンプトは「ジョンがバットを振っている」 であるのに,出力された画像は「バットを振っている」という動きをうまく把握していない場合が存在する。これは,生成画像がプロンプトに忠実でないという問題である。そのほかにも,複数の入力(幾つかのプロンプトを同時に入力する場合)に対しては,プロンプト数を認識する機能がなく,叙事的な画像生成 (narrative image generation) は不可能である.これらの問題を踏まえ,私たちはホッピングマスクを提案し,CLIP のエンコーダー側で上記の問題点を改善した。 Wu ら [10] と Huang ら [11] は文間の情報 (crosssentence information)を利用し,入力文のセマンティック情報を強化することで,言語モデルとビデオローカライゼーションの精度を向上させた. こう Prompt: John is waving a baseball bat. 図 2 SDM が生成した画像がプロンプトに忠実でない例 した手法から着想を得て、我々の提案手法においても文間の情報を利用することで,高品質,高表現力の画像連続生成を実現した. 実験では,同じプロンプト,シードで提案手法により生成した画像と従来の SDM で生成された画像を比較したところ,文節間情報の重要性が示された. 本研究での貢献は以下の通りである: - 分離符 $<S E P>$ の使用により, 複数のプロンプトを同時にSDM に入力しても,プロンプト数を認識することが可能になった。 ・ホッピングマスクを提案し,文間の情報を使用することにより,画像の表現力が向上. - 提案したホッピングマスクにより,一定の一貫性がある画像を生成することができた。 ## 2 関連研究 ## 2.1 txt2img 画像生成 テキストから画像の生成という分野は,2016 年の Reed ら [12] の研究から始まった. テキスト記述に基づいた画像を生成するために従来の GAN [13] を拡張し, 小規模なデータセットと小さな画像解像度で動作することが示された. 以来数年間,主な txt2img モデルは GANのネットワーク構造 (Generator と Discriminator 二つのネットワークを互いに競争させるような形で学習する) に従い, 生成画像の品質と解像度の両方を向上させたが, 近年話題になっているものは拡散モデルである. 拡散モデル [14] が提唱されたのは数年前に遡ることができるが,2020 年,Ho ら [1]が初めて何故拡散モデルは GANよりも性能が良いのかに関し数値的 な分析を行った. 拡散モデルの仕組みは非常にシンプルで,まず画像にノイズを付与し,テキストなどの他のモダリティからの情報を通し,ノイズを除去するものである. しかし,画像をピクセルの配列として直接扱う場合,変数の次元が多くなり,計算量が増加してしまうという問題が存在する。ここで,SDM [3] が提案された. SDM は,ノイズから画像を生成する代わりに,ノイズから潜在表現 (latent)をまず生成し,それを画像へと戻すという 2 段階のプロセスを経て画像を生成するモデルである。 ## 2.2 拡散モデルによる画像編集 従来のSDM はすでに高品質な画像を生成することができるが,画像生成を改善する方向の一つとして, 制御可能な画像生成と画像編集が挙げられる. Hertz ら [6] からの prompt-to-prompt 手法により, プロンプトのテキスト編集だけで画像を編集することが可能になった. Prompt-to-prompt のキーポイントは,ピクセルとトークンの関係を利用し,クロスアテンションマップを拡散過程に埋め込み,生成を制御することである。他の手法と異なり,学習,微調整,追加データや最適化を必要とせず,単に入力プロンプトを変更するだけで,画像の背景を変更せずに小さな部分を変更することや,画像のスタイルを全体に変更することが可能になった.また,新しい情報を追加することも可能になった. しかし, この方法での入力プロンプトに対する制約は大きく, プロンプト間のギャップは数語または数フレーズでなければならない. 一方, Kawar ら [7] は Imagic を提案した. Imagic は,初めて 1 枚の実画像を,テキストのみを用いて複雑な編集をすることを可能にした. 鮮明な画像さえあれば,Imagic は犬を座らせ,又は,ジャンプさせる,また,鳥を羽ばたかせることができる.だが,この方法による編集にも限界があり,編集した画像の構成を変えることはできない. これらの方法はいずれも有効だが,画像の表現力が不十分な点や,画像編集が制約される等の問題は解決されていない. 本研究において, 私たちは学習を必要とせず,連続的に生成される画像間の相関性を改善し,画質や表現力を向上させる手法を提案する。 ## 3 提案手法 ## 3.1 SDM による画像生成 提案手法を紹介する前に,従来のSDM によるプロンプトから画像への変換の流れについて説明する. 図 3 左側のように,一つのプロンプトを,まず CLIP [2]のトークナイザー (tokenizer) に入力し,トー クン, $T_{1}, T_{2}, T_{3}, \ldots \mathrm{~ への変換を行う . ~ 次に , 式 ~(1) の ~}$通り,CLIPエンコーダーを使用し,トークンを埋め込みに変換する。 $ e_{i}=\operatorname{Attn}\left(w_{i}\right) $ ここで, $w_{i}$ は $i$ 個目のトークンの単語埋め込み (word embedding)を示し, $e_{i}$ がアテンションの計算を行ったトークンの埋め込みである。この変換の中で、コーザルマスク (causal mask) [15] が SDM に使用されている. 図 4 の左側に示すように,第一列と第一行は各トークンで,第一列から見ると,青い部分はアテンションを計算する際,計算に含まれることを示す. 例えば, $T_{1}$ は,自分のみを考慮し, $T_{2}$ は, $T_{1}$ と自身に基づき,アテンションを計算する。 つまり,トークンがアテンションを計算する際,その前のトークンと自身のみを認識できるようにしている.このような仕組みを使用した原因としては, トークンの後に, 意味のないパディング (padding) がついているので,意味のあるトークンをパディングを見えないように設定にしている. 続いて,埋め込み $e$ をイズを加えられた潜在表現 (latent) と一緒に U-Net[16] に入力し,埋边みを基にノイズを除去する: $ \hat{l}=U N e t(l, e) $ $l$ はノイズを加えられた潜在表現であり,îはノイズを除去した潜在表現である。最後に,ノイズが除去された潜在表現を用い,VAE [17]を通し,ベクトルから画像へ戻す.以下の式で表すことができる。 $ \text { image }=\operatorname{vae}(\hat{l}) $ ## 3.2 ホッピングマスクを用いた SDM 文間の情報を利用するために,まず,入力をいくつかの連続プロンプトにする必要がある. モデルが一連の文を明示的にエンコードできるように、セパレータ $<S E P>$ を文に埋め込む. この際,提案した 図 3 SDM 及び提案手法の流れ 手法の入力は以下の式で表すことができる: $ \begin{aligned} & x=\text { Prompt }_{1}<S E P>\text { Prompt }_{2}<S E P>\ldots, \\ & \text { Prompt }_{1}=T_{1}, \ldots, T_{n} \end{aligned} $ トークン化後,複数のプロンプトが存在するため,トークンが所属するプロンプトの IDを返す関数 $P_{i d}(\cdot)$ を使う.例えば, $T_{8}$ が第三個目のプロンプ卜 (Prompt ( $_{3}$ ) に属する場合, $P_{i d}(8)$ の値は 3 となる.続いて,我々が提案するホッピングマスクについて説明する. Prompt $t_{2}$ の埋め込み (embedding)を計算する際,Prompt $t_{1}$ の情報を踏まえて,アテンションを計算していく. そして, Prompt 3 の埋め込みを計算する際,今回の場合 Prompt $_{2}$ の情報を考慮し, アテンションの計算を行う. 図 4 の右側に示す通り,例えば, Prompt 3 に所属している $T_{8}$ を考えると, $T_{8}$ のアテンションの計算には, Prompt ${ }_{2}$ のトー クンと Prompt $_{3}$ の中で, $T_{9}$ 自分と自分より前のトー クンを考慮し,Prompt ${ }_{1}$ のトークンは含まれていない. 定式化すると,以下のように表される: $ M_{i, j}= \begin{cases}1 & i \leq j, P_{i d}(i)-P_{i d}(j) \leq 1 \\ 0 & \text { ほか }\end{cases} $ $M_{i, j}$ は,提案したアテンション行列の $i$ 行目, $j$ 列目のマスク値のことであり,青い部分の値は 1 である. 分離符として使われた $\langle S E P>$ も計算時に考慮する必要がないため, ゼロに設定している. 次に,式 (1)に従い,CLIP エンコーダーでのアテンションの計算結果は以下のようになる: $ \operatorname{Attn}=\operatorname{Attn}\left(w_{i}\right) * M $ Causal Attention Mask Proposed Hopping Attention Mask 図 4 左側はSDM に使われているコーザルマスクで,右側は提案したホッピングマスクである. ## Prompt: John is waving a baseball bat. SDM Proposed method 図 5 SDM が生成した画像と提案手法による生成画像の比較 このようなアテンション計算がエンコーダーの各層で行われ,最終的に得られるのは複数のプロンプトからホッピングマスクを使用した埋め込みである.SDM の手順に従い,次にU-Netを使用し,ノイズを除去する際には,入力の各自プロンプトの埋め込みを抽出し,入力プロンプト数と対応している数の潜在表現から,別々で画像を生成する: $ \hat{l}_{i}=\operatorname{vae}\left(l, e_{i}\right), i \in P_{i d}(\cdot) $ 提案手法により,豊富な文脈情報の取得に成功し,SDM に基づいた生成画像の品質と表現力の向上だけでなく,連続画像生成が可能になった。 ## 3.3 分析 $\mathrm{Wu}$ ら [10] と Huang ら [11]によると,文間の情報は,モデルがトークンとプロンプトの意味を正しく理解することに非常に役に立っているとされる. 私たちもホッピングマスクを使用することで,文間の情報を利用し,プロンプトの埋め込みを改善した。 図 5 の右の画像は,「John throws out a baseball」の後に生成された 2 番目の画像である. 右の画像は左の画像と比較し,遥かに表現力があることがわかる. これは,2つ目のプロンプトの埋め込みを計算する際に,1つ目のプロンプトの情報も考慮することで, より入力プロンプトに適合した画像を生成する可能性を高めているためである。つまり,「John throws out a baseball」と「John is waving a baseball bat」は,関連する或いは同じ活動を記述しているため,画像 2 を生成する際に,ジョンが野球をしているという事実が描写される保証が高くなると考えられる。 さらに,提案手法を用いることにより,連続的に生成される画像間の一貫性も向上にも繋がる。これは,異なるプロンプトで同じ名前の人物が現れる場合,後者の名前のトークンは前者のものを参照ことができるため,類似した人物が生成されやすくなったと解釈できる。 その他実験結果については付録を参照していただきたい. ## 4 まとめ 本研究では再学習を必要とせず,連続的に生成される画像間の相関性を改善し,画質や表現力を向上させる手法を提案した. 既存の画像編集方法と比較し,プロンプトの制約が減少し,連続生成した画像の一貫性の向上に成功した。 ## 謝辞 この研究は東京大学 $\mathrm{AI}$ センターと株式会社電通デジタルが推進する共同研究の助成を受けています。 ## 参考文献 [1] Jonathan Ho, Ajay Jain, and Pieter Abbeel. Denoising diffusion probabilistic models. In Advances in Neural Information Processing Systems, Vol. 33, pp. 68406851. Curran Associates, Inc., 2020. [2] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, et al. Learning transferable visual models from natural language supervision. In International Conference on Machine Learning, pp. 8748-8763. PMLR, 2021. [3] Robin Rombach, Andreas Blattmann, Dominik Lorenz, Patrick Esser, and Björn Ommer. High-resolution image synthesis with latent diffusion models. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 10684-10695, 2022. [4] Aditya Ramesh, Prafulla Dhariwal, Alex Nichol, Casey Chu, and Mark Chen. Hierarchical text-conditional image generation with clip latents. arXiv preprint arXiv:2204.06125, 2022 [5] Chitwan Saharia, William Chan, Saurabh Saxena, Lala Li, Jay Whang, Emily Denton, Seyed Kamyar Seyed Ghasemipour, Burcu Karagol Ayan, S Sara Mahdavi, Rapha Gontijo Lopes, et al. Photorealistic text-to-image diffusion models with deep language understanding, 2022. URL https://arxiv. org/abs/2205.11487, Vol. 4, . [6] Amir Hertz, Ron Mokady, Jay Tenenbaum, Kfir Aberman, Yael Pritch, and Daniel Cohen-Or. Prompt-to-prompt image editing with cross attention control. arXiv preprint arXiv:2208.01626, 2022. [7] Bahjat Kawar, Shiran Zada, Oran Lang, Omer Tov, Huiwen Chang, Tali Dekel, Inbar Mosseri, and Michal Irani. Imagic: Text-based real image editing with diffusion models. arXiv preprint arXiv:2210.09276, 2022. [8] Ling Yang, Zhilong Zhang, Yang Song, Shenda Hong, Runsheng Xu, Yue Zhao, Yingxia Shao, Wentao Zhang, Bin Cui, and Ming-Hsuan Yang. Diffusion models: A comprehensive survey of methods and applications. arXiv preprint arXiv:2209.00796, 2022. [9] Rinon Gal, Yuval Alaluf, Yuval Atzmon, Or Patashnik, Amit H Bermano, Gal Chechik, and Daniel CohenOr. An image is worth one word: Personalizing text-toimage generation using textual inversion. arXiv preprint arXiv:2208.01618, 2022 . [10] Qiyu Wu, Chen Xing, Yatao Li, Guolin Ke, Di He, and Tie-Yan Liu. Taking notes on the fly helps language pre-training. In International Conference on Learning Representations, 2020. [11] Jiabo Huang, Yang Liu, Shaogang Gong, and Hailin Jin. Cross-sentence temporal and semantic relations in video activity localisation. In Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 7199-7208, 2021. [12] Scott Reed, Zeynep Akata, Xinchen Yan, Lajanugen Logeswaran, Bernt Schiele, and Honglak Lee. Generative adversarial text to image synthesis. In International conference on machine learning, pp. 1060-1069. PMLR, 2016. [13] Mehdi Mirza and Simon Osindero. Conditional generative adversarial nets. arXiv preprint arXiv:1411.1784, 2014. [14] Jascha Sohl-Dickstein, Eric Weiss, Niru Maheswaranathan, and Surya Ganguli. Deep unsupervised learning using nonequilibrium thermodynamics. In International Conference on Machine Learning, pp. 22562265. PMLR, 2015 [15] Xu Yang, Hanwang Zhang, Guojun Qi, and Jianfei Cai. Causal attention for vision-language tasks. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 9847-9857, 2021. [16] Olaf Ronneberger, Philipp Fischer, and Thomas Brox. Unet: Convolutional networks for biomedical image segmentation. In International Conference on Medical image computing and computer-assisted intervention, pp. 234-241. Springer, 2015. [17] Diederik P Kingma and Max Welling. Auto-encoding variational bayes. arXiv preprint arXiv:1312.6114, 2013. ## A 付録 (Appendix) ## A. 1 アテンションマスクの可視化 図 6 提案マスクの可視化表示 ## A. 2 実験設定 今回使用した SDM モデルは, stable-diffsuion-v1$4^{2)}$ である. 生成された画像の解像度は 512*512で, U-Net のステップ数は 50 に設定されている. ## A. 3 他の実験結果 実験結果に関しては,比較を行った対象は同じシードを使った生成結果である. ## A.3.1 表現力向上の例 図 7 の中で,左側のほうは従来の SDM が生成した画像であり,右側のは提案手法の生成結果である.上から一組目は John is working in his farm. の次に生成された二番目の画像だ。二組目は John throws out a baseball. $<S E P>$ John is waving a baseball bat. $<S E P>$ John hits a ball with his bat. の次の結果である. 三組目は A mountain is tall and steep. の次に生成された二番目の画像. Prompt: John is spreading seeds in his farm. Prompt: John wins a baseball game. Prompt: Sophie is climbing the mountain. 図 7 表現力向上の例 ## A.3.2 一貫性向上の例 図 8 一貫性向上の例 図 8 の上列は提案手法により生成した画像であり,犬の様子は下の SDM が生成した画像より同じふうに見える. 2) https://huggingface.co/CompVis/ stable-diffusion-v1-4
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q9-2.pdf
# 個々の役割を指示可能な 入力言語に応じた 2 人のインタラクションの動作生成の検討 田中幹大近藤雅芳藤原 研人 LINE 株式会社 \{mikihiro.tanaka, masayoshi.kondo, kent.fujiwara\}@linecorp.com ## 1 概要 本研究では言語を入力とした, 2 人のインタラクションを伴う動作生成に取り組む. 既存研究では言語と動作の関係を学習し動作生成を行なってきた. よって,インタラクションを生成する際には 2 人分の動作を単一の記述で表現する必要がある. しかし,一部動作においてこの記述には一方は能動態,他方は受動態で表現される非対称な関係性を内包している.この見識に基づき本研究では,インタラクションの記述を受動態・能動態の言語に変換することによって,主体と受け手双方の動作を生成する手法を提案する。また,両者の位置や動作の関係性の考慮のために,動作間のクロスアテンションも導入する.更に,非対称な動作の場合に,一般に 2 人の動作の学習データ全てに主体・受け手のラベリングが必要となる. 本研究では少数のアノテーションを用いて学習データ全体にこのラベリングを行う手法も提案する. 既存手法を拡張する方法と比較し, 文章を解釈し主体と受け手に分けて動作生成を行う提案手法の有効性を実験により示した. ## 2 はじめに 人間の動作のモデリングは,3 次元アバターやキャラクターを利用した高品質な動画像の制作において重要な要素になりつつある.このような動画制作では 2 人以上の人物を登場させる場合, 1 人の時と比べて,個々の動作のモデリングに加えて,両者の位置関係やインタラクションを考慮した,より複雑なモデリングが必要となる. この複数人の動作を自在に作ることができれば,より多様な登場人物からなる映像制作を容易にできる. そこで本研究では,最も直感的なインターフェースの一つである言語に注目し,入力言語に応じた 2 人のインタラクションの動作生成という課題に取り組む. 図 1: 言語入力で提案手法により生成されたインタラクション例を示す。上は非対称な動作例であり,話す側と聞く側が存在する。下は対称な動作例であり,両者共通の握手という動作をしている. 近年言語入力による 1 人の動作生成の研究が進展してきている $[1,2]$. 特に最近では拡散モデル $[3,4,5]$ の発展に伴って, より言語に忠実かつ多様な動作生成が可能になってきた [6,7]. ここで,2人のインタラクションについて考えると,図 1 のように主体と受け手が存在する非対称な動作,また両者共に主体となって共通の行為を行う対称な動作が存在する. 図 1 上の非対称な例では, 2 人のインタラクションを描写した文章は,一方は能動態の囁くという表現,もう一方は受動態の囁かれるという表現で描写される関係性を内包している。 [8] は 2 人の動作生成に取り組む研究だが,動作の主体と受け手の関係性を考慮しておらず,個々の役割を指示することも考えられていなかった. そこで本研究では,先行研究の 1 人の動作生成モデル [6] を拡張し,2 人のインタラクションの対称・非対称性を考慮して生成する手法を提案する。まず,動作の対称・非対称性を扱うために,個々に対して動作が非対称な時は受動態・能動態の異なる言語を入力とし,動作が対称な時は同じ言語を入力とする.更に,両者の位置や動作の関係性を考慮するために,2人の動作間のアテンションも導入する。 ここで,非対称な動作の生成において図 1 のようにどちらを主体とするか指示するためには,2 人まとめた動作の説明文に加えて,どちらの動作が主 体・受け手かのラベリングが必要となる. 本研究では,アノテーションコストを抑えるべく,音源分離で知られる Permutation Invariant Training[9]を利用することで,後者の主体・受け手のアノテーションは少数のみを用いて,学習データ全体に擬似的にラべル付けするパイプラインを提案する。 ## 3 関連研究 ## 3.1 動作の認識 人間の動作の解析は,これまでは主に一般的な動画像を用いて行われてきた $[10,11]$. しかし,近年の動作データ取得方法の発展に伴い $[12,13]$, 骨格の動作データが注目を集めている。背景の影響を受けない骨格データによる動作の認識は, 現在活発に研究されているテーマの一つである $[14,15]$. 骨格の関節の座標値をベクトルデータ [16] や 2 次元のグリッドデータ [17]に変換したり,関節の連結性をグラフとして扱ったりして [18] 深層学習のモデルの入力として利用されている. さらには,実施された地点も特定する研究も行われている [19]. 動作解析の研究の多くは 1 人の人物を対象にしているが,近年になり,人同士のインタラクションの一般的なベンチマークとして,NTU RGB+D120 デー タセット [20]が構築された. このデータセットを用いて,骨格の動作データを用いた 2 人のインタラクションの認識の研究が始まっている [21, 22]. ## 3.2 動作の生成 骨格データの解析結果を活用し,新たな動作を生成しようとする研究も盛んに行われている。従来,動作生成は様々なパターンから最も整合性のある動作を接続することで行われてきたが [23], 深層学習の発展に伴い, データから学習することが現在主流になっている. 行動ラベルが与えられた際に適切な動作を生成する方法や [24, 25], 音楽にあった動作を生成する研究 [26], 動作の周期性に着目し生成する手法 [27] などが提案されている. CLIP[28] の登場に伴い, 動作生成の研究においても,直感的なインターフェースとして言語が注目されている. CLIP の言語画像空間と動作の特徵空間を対応づけ,言語情報に合った動作データを生成する手法として MotionCLIP[29] が提案された. また,近年登場したテキストと動作の大規模なデータセット $[30,31]$, 及び拡散モデルと学習済み CLIP を活用 図 2: 提案モデルの図を示す.「押す」という 2 人の動作を生成する場合は,受動態・能動態の言語をそれぞれ入力し,対応した動作を出力する.対称な動作の場合は同じ言語を入力する. することで,入力言語に忠実かつ多様な動作の生成を実現する手法も多く提案され始めている [6,7].本研究に近い研究として [8] らは 2 人の動作生成に取り組んでいるが,動作の対称・非対称性に注目し, 主体と受け手といった役割を個々に指示して生成を行うのは本研究が初めての取り組みである. ## 4 提案手法 本研究では以下を満たすモデルを提案する. -対称な動作と非対称な動作ともに,個々の役割を指定してインタラクションを生成できる. ・生成された 2 人の動作の辻褄が合っている. 2 人のインタラクションに対し, その動作カテゴリ $c_{i}$ を説明する文章 $y_{i}$ が付与されている状況を想定する. 非対称な動作のカテゴリ $c_{i}$ においては, 本来個々の動作は, $y_{i}$ を受動態・能動態の 2 つの描写に翻訳した文章 ( $y_{i}^{\text {passive }}, y_{i}^{\text {active }}$ ) のどちらに相当するかのアノテーションが必要となる. 本研究では, アノテーションコストを抑えるべく, 少数のアノテー ションから個々の動作が $\left(y_{i}^{\text {passive }}, y_{i}^{\text {active }}\right)$ のどちらに相当するかラベリングを行う手法を提案する。 ## 4.1 拡散モデルを用いた 1 人の動作生成 まず,言語から 1 人の動作生成で最も性能の良いモデルの一つである, [6] らの拡散モデルを用いた手法を説明する. 動作生成は,ランダムにサンプリングされたノイズからの逆拡散過程として定式化することができる.動作系列を $X^{(0)}=\left[x_{1}, \ldots, x_{F}\right]$ ( $F$ はフレーム数, $x_{1}, \ldots, x_{F}$ は各時刻の姿勢) とした時, 実データからサンプリングした動作系列 $X^{(0)} \sim q\left(X^{(0)}\right)$ に対して, $\mathrm{T}$ ステップのノイズを順に加えたものを $X^{(1)}, \ldots, X^{(T)}$ のように表記する。まず,拡散過程では以下の式のようにガウシアンノイ ズをマルコフ連鎖に従って付与する形で表せ, $X^{(T)}$ はおよそ $\mathcal{N}(\mathbf{0}, \mathbf{I})$ に従う。( $\beta_{t}$ はハイパーパラメータ $)$ $ \begin{aligned} & q\left(X^{(1: T)} \mid X^{(0)}\right)=\prod_{t=1}^{t=T} q\left(X^{(t)} \mid X^{(t-1)}\right) \\ & q\left(X^{(t)} \mid X^{(t-1)}\right)=\mathcal{N}\left(X^{(t)} ; \sqrt{1-\beta_{t}} X^{(t-1)}, \beta_{t} \mathbf{I}\right) \end{aligned} $ 逆拡散過程ではランダムなノイズから始まり,推定された $\mu_{\theta}\left(X^{(t)}, t\right), \Sigma_{\theta}\left(X^{(t)}, t\right)$ に従うガウシアンノイズを付与する形でマルコフ連鎖に従ってノイズを除去していき,動作を生成する。 $ \begin{aligned} p_{\theta}\left(X^{(0: T)}\right) & =p_{\theta}\left(X^{(T)}\right) \prod_{t=1}^{t=T} p_{\theta}\left(X^{(t-1)} \mid X_{t}\right) \\ p_{\theta}\left(X^{(t-1)} \mid X^{(t)}\right) & =\mathcal{N}\left(X^{(t-1)} ; \mu_{\theta}\left(X^{(t)}, t\right), \Sigma_{\theta}\left(X^{(t)}, t\right)\right) \end{aligned} $ [6] らは, $\Sigma_{\theta}\left(X^{(t)}, t\right)$ は定数を用い, $\mu_{\theta}\left(X^{(t)}, t\right)$ の推定のみ行なった. 推定器には Transformer[32] をベースとしたモデルを用いた. $\mu_{\theta}\left(X^{(t)}, t\right)$ は推定されたノイズ $\epsilon_{\theta}\left(X^{(t)}, t\right.$, text $)$ から計算できるため,ノイズ $\epsilon$ とステップ数 $t$, データ $X^{(0)}$ をランダムにサンプリングし, 以下の式によってノイズ推定を学習することで,モデルパラメータの最適化を行った. $\mathscr{L}=E_{t \in[1, T], X^{(0)} \sim q\left(X^{(0)}\right), \epsilon \sim \mathcal{N}(\mathbf{0}, \mathbf{I})}\left[\| \epsilon-\epsilon_{\theta}\left(X^{(t)}, t\right.\right.$, text $\left.) \|\right]$ ## 4.2 インタラクション生成への拡張 2 人の動作の系列を $X_{1}=\left[x_{0}^{1}, \ldots, x_{F}^{1}\right], X_{2}=$ $\left[x_{0}^{2}, \ldots, x_{F}^{2}\right]$ ( $F$ はフレーム数, $x_{0}$ は最初の位置や体の向き, $x_{1}, \ldots, x_{F}$ は各時刻の姿勢) のように表す.個々の動作に対して,文章が付与されているデータセット $\left(\left(X_{1}, y_{1}\right),\left(X_{2}, y_{2}\right)\right)$ がある場合について考える. 先行研究の単純な拡張によって 2 人のインタラクションを生成する方法として,一つの Transformer で 2 人分の動作を一度に生成する方法が考えられる. しかしこれでは, 非対称な動作を扱う際に個々の役割を指示することができない. そこで,個別の動作をモデリングするために,図 2 のようにパラメータを共有した 2 つの Transformerを用い, 非対称な動作の場合はそれぞれ受動態・能動態の言語を入力することにする. 対称な動作については,双方共に能動態の言語を入力する. 次に,インタラクションでは互いの位置関係や動作のタイミングを合わせた生成が必要となる. 本研究では互いの動作間のクロスアテンションを導入す る.これにより,作用・反作用といった動作の関係性や,相手に合わせた協調的な動作の学習を図る。 最終的なロス関数は式 3 と同様に, 以下で表せる. $ \begin{aligned} & \mathscr{L}=E_{t \in[1, T],\left(X_{1}^{(0)}, X_{2}^{(0)}\right) \sim q\left(X^{(0)}\right), \epsilon_{1} \sim \mathcal{N}(\mathbf{0}, \mathbf{I}), \epsilon_{2} \sim \mathcal{N}(\mathbf{0}, \mathbf{I})} \\ & \quad\left[\left.\|\epsilon_{1}-\epsilon_{\theta}\left(X_{1}^{(t)}, t, y_{1}\right)\right.\|+\left.\|\epsilon_{2}-\epsilon_{\theta}\left(X_{2}^{(t)}, t, y_{2}\right)\right.\|\right] \end{aligned} $ 生成時は式 2 に従って, $T$ ステップ分ノイズを除去していくことで,同時に 2 人の動作を生成する. ## 4.3 主体・受け手の擬似ラベルの付与 4.2 節の手法のアノテーションコストを削減するべく, 非対称な動作カテゴリ $c^{i}$ における個々の動作が, $\left(y_{i}^{\text {passive }}, y_{i}^{\text {active }}\right)$ のどちらに相当するかのラべリングを半自動的に行う手法を説明する. ここで, 非対称なクラス $c^{i}$ について, 二つの学習可能なパラメータ $w_{1}^{i}, w_{2}^{i}$ を用意する. 式 4 において, 言語特徴の代わりに $w_{1}^{i}, w_{2}^{i}$ を用いて 2 通りのガイダンスによってノイズを推定し,以下の式のように小さい方を選択して誤差逆伝播を行う。 $ \begin{aligned} & \mathscr{L}=E_{t \in[1, T],\left(X_{1}^{(0)}, X_{2}^{(0)}\right) \sim q\left(X^{(0)}\right), \epsilon_{1} \sim \mathcal{N}(\mathbf{0}, \mathbf{I}), \epsilon_{2} \sim \mathcal{N}(\mathbf{0}, \mathbf{I})} \\ & {\left[\operatorname { m i n } \left(\left.\|\epsilon_{1}-\epsilon_{\theta}\left(X_{1}^{(t)}, t, w_{1}^{i}\right)\right.\|+\left.\|\epsilon_{2}-\epsilon_{\theta}\left(X_{2}^{(t)}, t, w_{2}^{i}\right)\right.\|,\right.\right.} \\ & \left.\left.\left.\|\epsilon_{1}-\epsilon_{\theta}\left(X_{1}^{(t)}, t, w_{2}^{i}\right)\right.\|+\left.\|\epsilon_{2}-\epsilon_{\theta}\left(X_{2}^{(t)}, t, w_{1}^{i}\right)\right.\|\right)\right] \end{aligned} $ これは音源分離の分野で用いられる Permutation Invariant Training[9] と同様の手法であり,これによって $w_{1}^{i}, w_{2}^{i}$ は主体か受け手のどちらか一方の特徴を得るように学習することが期待できる。学習した $w_{1}^{i}, w_{2}^{i}$ のどちらが主体・受け手に相当するかは,少数のラベル付きデータと照合することで確かめることができる。 そして最後に,学習データそれぞれにランダムなノイズを付与し, $X_{1}, X_{2}$ のどちらが $w_{1}^{i}, w_{2}^{i}$ に対応するかを式 5 を用いて計算することで,擬似的に個々の動作が主体か受け手かを特定し, $\left(y_{i}^{\text {passive }}, y_{i}^{\text {active }}\right)$ をそれぞれに付与できる. ## 5 実験 ## 5.1 実験設定 データセット: NTU RGB+D120 データセット [20] から,2人のインタラクションを扱っている 26 クラスの動作を利用した. 9 クラスの対称な動作,17クラスの非対称な動作が含まれている. Appendix A にクラスの例を載せる。これらの動画像から 3 次元骨格 を BEV[33]によって推定して実験に用いた。登場する被験者が異なるように学習/検証/テストデータを分け,それぞれ 20,306,3,493,3,044 件利用した. 評価指標: 1 人の動作生成の先行研究に倣って以下の評価指標によって定量評価を行う. 生成された動作が大力言語と対応しているかの正解率 (Accuracy) を用いる. また,生成されたものと真のデータの分布の一致具合によって評価する, Frechet Inception Distance(FID) を用いる. そして, 生成される動作の多様性 (Diversity) を評価する。これらの評価を行うには,インタラクションの動作の特徴を抽出するモデルが必要となる. しかしインタラクション認識の標準的なモデルはないため, 本研究では同じ学習データでインタラクションを認識する Transformer をべースとしたモデルを学習させて評価に用いた。 これらに加えて, 本研究では生成された 2 人の動作が相互に矛盾のないものになっているかを表す, MutualConsistency と呼ぶ指標を提案する. より詳細を AppendixC で説明する。 比較手法: まず,提案モデルで 4.3 節の手法により,個々の動作に対して言語ラベルを付与する.このデータを用いて以下の手法により比較実験を行う. [6] らの手法を個別の役割を指示可能な形で拡張し,2つの Transformer を用いて動作を行う手法をベースラインとし, Ours w/o cross attentionと記す. Ours と記す手法はこれに対して 2 人の動作間のクロスアテンションを加えたものである. 更に,提案手法は 1 人の動作生成手法である [6] らのモデルに新たなパラメータを加える形で設計されており, [6] らの言語特徴抽出器や動作生成モデルの共通部分のパラメータを初期値として学習することができる. これを Ours+pretrained と記す. また,[6] らの手法を基にして,2 人分の動作を一つの系列として扱うことで一つの Transformer で生成する手法を Single Transformer と記す。この手法は [8] 同様 2 人まとめた指示しかできず,個別に役割を指示できないため,参考値として比較を行う。 ## 5.2 定量評価 表 1 に,定量評価の結果を示す. 提案手法はベースラインの Ours w/o cross attention に比べていずれの指標でも良い性能を示し, 特に Accuracy と MutualConsistency で差が出る結果となった. Ours w/o cross attention は Accuracy が 71.3\%あるが, MutualConsistency が $41.7 \%$ となった. これはそのカ表 1: 定量評価の結果を示す. 生成する動作の系列長は可変であり, テストデータと同じ長さとした. 4 回評価実験を行い,95\%信頼区間を土で示した. 図 3: 生成結果を示す. 提案手法は「押す」という動作で,辻褄の合った動作を生成できている. テゴリらしい動作をある程度生成できているが,生成されたインタラクションの半分以上が辻褄の合わないものになっていることを示している. 個々に付与した擬似ラベルを用いない Single Transformer と比べても,特に 1 人の言語と動作の対応関係の事前知識を用いる Ours+pretrained の Accuracy が高く, 個別の動作のモデリングによってより入力言語に忠実なインタラクションを生成できていることが分かる. Single Transformer の FID が小さいのは,擬似ラベルのエラーの影響を受けないためと考える. ## 5.3 定性評価 図 3 に「押す」というインタラクションを生成した時の結果を示す. Ours w/o cross attention に比べて,提案手法は一方が手を伸ばして相手を押し,もう一方は押された結果として後ろによろける動作が生成されている.このように, 定性的にも提案手法は言語に忠実かつ 2 人の辻褄の合ったインタラクションが生成できていることを確認できる. ## 6 おわりに 本研究では,個々に役割を指示可能な,言語による 2 人のインタラクション生成に取り組んだ。互いの動作間のクロスアテンションを導入し,動作の関係性を考慮したモデルを提案し,言語に忠実かつ相互に矛盾のない 2 人のインタラクションを生成可能であることを実験によって示した. 物理環境の考慮及び,より自由度の高い言語入力によるインタラクション生成が今後の課題として挙げられる. ## 参考文献 [1]Mathis Petrovich, Michael J. Black, and Gül Varol. TEMOS: Generating diverse human motions from textual descriptions. In $E C C V, 2022$. [2]Chuan Guo, Shihao Zou, Xinxin Zuo, Sen Wang, Wei Ji, Xingyu Li, and Li Cheng. Generating diverse and natural $3 \mathrm{~d}$ human motions from text. In CVPR, 2022. [3]Jonathan Ho, Ajay Jain, and Pieter Abbeel. Denoising diffusion probabilistic models. In NeurIPS, 2020. [4]Yang Song and Stefano Ermon. Improved techniques for training score-based generative models. In NeurIPS, 2020. [5]Diederik Kingma, Tim Salimans, Ben Poole, and Jonathan Ho. Variational diffusion models. In NeurIPS, 2021. [6]Mingyuan Zhang, Zhongang Cai, Liang Pan, Fangzhou Hong, Xinying Guo, Lei Yang, and Ziwei Liu. Motiondiffuse: Text-driven human motion generation with diffusion model. arXiv preprint arXiv:2208.15001, 2022. [7]Guy Tevet, Sigal Raab, Brian Gordon, Yonatan Shafir, Amit H Bermano, and Daniel Cohen-Or. Human motion diffusion model. arXiv preprint arXiv:2209.14916, 2022. [8]Shubh Maheshwari, Debtanu Gupta, and Ravi Kiran Sarvadevabhatla. Mugl: Large scale multi person conditional action generation with locomotion. In WACV, 2022. [9]Morten Kolbæk, Dong Yu, Zheng-Hua Tan, and Jesper Jensen. Multi-talker speech separation with utterance-level permutation invariant training of deep recurrent neural networks. TASLP, 2017. [10]Christoph Feichtenhofer, Haoqi Fan, Jitendra Malik, and Kaiming He. Slowfast networks for video recognition. In ICCV, 2019. [11]Yutaro Shigeto, Yuya Yoshikawa, Jiaqing Lin, and Akikazu Takeuchi. Video caption dataset for describing human actions in japanese. In LREC, 2020. [12]Marc Habermann, Weipeng Xu, Michael Zollhoefer, Gerard Pons-Moll, and Christian Theobalt. Livecap: Real-time human performance capture from monocular video. ACM Transactions On Graphics, 2019. [13]Marc Habermann, Weipeng Xu, Michael Zollhofer, Gerard Pons-Moll, and Christian Theobalt. Deepcap: Monocular human performance capture using weak supervision. In CVPR, 2020 . [14]Raviteja Vemulapalli, Felipe Arrate, and Rama Chellappa. Human action recognition by representing $3 \mathrm{~d}$ skeletons as points in a lie group. In CVPR, 2014. [15]Yong Du, Wei Wang, and Liang Wang. Hierarchical recurrent neural network for skeleton based action recognition. In CVPR, 2015. [16]Jun Liu, Amir Shahroudy, Dong Xu, and Gang Wang. Spatiotemporal $1 \mathrm{stm}$ with trust gates for $3 \mathrm{~d}$ human action recognition. In $E C C V, 2016$. [17]Qiuhong Ke, Mohammed Bennamoun, Senjian An, Ferdous Sohel, and Farid Boussaid. A new representation of skeleton sequences for 3d action recognition. In CVPR, 2017. [18]Lei Shi, Yifan Zhang, Jian Cheng, and Hanqing Lu. Twostream adaptive graph convolutional networks for skeletonbased action recognition. In CVPR, 2019. [19]Qing Yu and Kent Fujiwara. Frame-level label refinement for skeleton-based weakly-supervised action recognition. In AAAI, 2023. [20]Jun Liu, Amir Shahroudy, Mauricio Perez, Gang Wang, LingYu Duan, and Alex C. Kot. Ntu rgb+d 120: A large-scale benchmark for $3 \mathrm{~d}$ human activity understanding. In TPAMI, 2020. [21]Yunsheng Pang, Qiuhong Ke, Hossein Rahmani, James Bailey, and Jun Liu. Igformer: Interaction graph transformer for skeleton-based human interaction recognition. In $E C C V$, 2022. [22]Yoshiki Ito, Quan Kong, Kenichi Morita, and Tomoaki Yoshinaga. Efficient and accurate skeleton-based two-person interaction recognition using inter- and intra-body graphs. In ICIP, 2022. [23]Michael Büttner and Simon Clavet. Motion matching-the road to next gen animation. Proc. of Nucl. ai, 2015. [24]Chuan Guo, Xinxin Zuo, Sen Wang, Shihao Zou, Qingyao Sun, Annan Deng, Minglun Gong, and Li Cheng. Action2motion: Conditioned generation of $3 \mathrm{~d}$ human motions. In Proceedings of the 28th ACM International Conference on Multimedia, 2020. [25]Mathis Petrovich, Michael J Black, and Gül Varol. Actionconditioned 3d human motion synthesis with transformer vae. In ICCV, 2021. [26]Ruilong Li, Shan Yang, David A Ross, and Angjoo Kanazawa. Ai choreographer: Music conditioned 3d dance generation with aist++. In CVPR, 2021. [27]Sebastian Starke, Ian Mason, and Taku Komura. Deepphase: periodic autoencoders for learning motion phase manifolds. ACM Transactions on Graphics (TOG), 2022. [28]Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, et al. Learning transferable visual models from natural language supervision. In ICML, 2021. [29]Guy Tevet, Brian Gordon, Amir Hertz, Amit H Bermano, and Daniel Cohen-Or. Motionclip: Exposing human motion generation to clip space. ECCV, 2022. [30]Matthias Plappert, Christian Mandery, and Tamim Asfour. The kit motion-language dataset. Big data, 2016. [31]Abhinanda R Punnakkal, Arjun Chandrasekaran, Nikos Athanasiou, Alejandra Quiros-Ramirez, and Michael J Black. Babel: Bodies, action and behavior with english labels. In CVPR, 2021 [32]Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, pp. 5998-6008, 2017. [33]Yu Sun, Wu Liu, Qian Bao, Yili Fu, Tao Mei, and Michael J. Black. Putting people in their place: Monocular regression of 3d people in depth. In CVPR, 2022. [34]Yi Zhou, Connelly Barnes, Jingwan Lu, Jimei Yang, and Hao Li. On the continuity of rotation representations in neural networks. In CVPR, 2019. [35]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. In NAACL-HLT, 2019. ## A データセットの詳細 対称な動作は,hugging, shaking hands,walking towards, walking apart, high-five, cheers and drink, carry object, exchange things, rock-paper-scissors の 9 カテゴリ,非対称な動作は,punch/slap,kicking,pushing, pat on back, point finger, giving object, touch pocket, hit with object, wield knife, knock over, grab stuff, shoot with gun, step on foot, take a photo, follow, whisper, support somebody の 17 カテゴリからなる. 本研究ではこれらを文章に変換して用いた。 ## B 提案モデルの詳細 図 4 にモデルの詳細な図を示す.モデルの入力の initial position は最初の体の位置と向きを表す 4 次元のベクトルである. pose representation は $\left(r^{v a}, r^{v x}, r^{v z}, r_{h}, \mathbf{j}^{p}, \mathbf{j}^{v}, \mathbf{j}^{r}, \mathbf{f}\right)$ からなる, 263 次元のべクトルである. $\mathrm{y}$ 軸を垂直方向とした時, $r^{v a}, r^{v x}, r^{v z}, r_{h}$ はそれぞれ腰の, $\mathrm{y}$ 軸回りの角速度, $\mathrm{x}$ 方向の速度, $\mathrm{z}$ 方向の速度,高さを表す. $\mathbf{j}^{p} \in \mathbb{R}^{(J-1) \times 3}, \mathbf{j}^{v} \in \mathbb{R}^{J \times 3}$ は $J$ 個の関節の位置と速度を表す. $\mathbf{j}^{r} \in \mathbb{R}^{(J-1) \times 6}$ は各関節の 6 次元の回転 [34] を表す. $\mathbf{f} \in \mathbb{R}^{4}$ は足の 4 点の関節が地面に接しているかを表している。拡散のステップ数は 1,000 とし,式 1 の $\beta_{t}$ は, 0.0001 から 0.02 に線形に増やした. ## C 評価指標の詳細 Accuracy: 生成された動作が入力された言語に対応するかを評価する指標. 図 5 に示す,入力されたインタラクションのカテゴリを予測するモデルを学習させ,評価に用いる.以下 FID,Diversity の評価にも,このモデルによって抽出された特徴量を用いる. 本研究では, 図 5 の Global Average Pooling の後の出力を特徴量として用いた. FID: 生成モデルの評価で最も用いられる, 生成されたものと真のデータの分布の一致具合を評価する指標. 生成された動作とテストデータの動作の特徵量の平均と共分散をそれぞれ $(\mu, \Sigma),\left(\mu^{\prime}, \Sigma^{\prime}\right)$ と表したときに,以下の式により分布間距離を求める. $ \mathrm{FID}=\left.\|\mu-\mu^{\prime}\right.\|_{2}+\operatorname{Tr}\left(\Sigma+\Sigma^{\prime}-2 \sqrt{\Sigma \Sigma^{\prime}}\right) $ Diversity: 生成される動作の多様性を評価する指標. ランダムな文章入力から生成された $S_{d}$ 個の動作の集合を二つ用意し,それぞれから抽出された特 図 4: 詳細な提案モデルの図を示す。パラメータを共有する transformer は $N$ 個のアテンションブロックによって構成され,1 ステップずつノイズを除去し 2 人の動作を生成する. アテンションブロック内では順に,セルフアテンション,言語のクロスアテンション,動作間のクロスアテンション,順伝播型ニューラルネットワークによって処理が行われる. 図 5: Accuracy と MutualConsistency の評価に用いたモデルの図を示す. IEと PE は図 4 と同様. 徴量 $\left[v_{1}, \ldots, v_{S_{d}}\right],\left[v_{1}^{\prime}, \ldots, v_{S_{d}}^{\prime}\right]$ を用いて,以下の式によって生成される動作の多様性を評価する。 $ \text { Diversity }=\frac{1}{S_{d}} \sum_{i=1}^{S_{d}}\left.\|v_{i}-v_{i}^{\prime}\right.\|_{2} $ MutualConsistency: 本研究で提案する, 生成された 2 人の動作が辻褄の合ったものになっているかを評価する指標. 図 5 に示すモデルを学習させ,評価に用いる。学習時は BERT[35] で用いられる next sentence prediction タスクの学習と同様に, [CLS] と呼ぶトークンを用意し,そこからの出力を用いて動作が正しいペアかを予測させる.例えば押すという動作において,誤ったペアでは,押す・押されるの方向やタイミング,位置関係が誤っているデータとなるため,正しいぺアとの判別を学習することにより,入力された 2 人の動作が辻褄の合っているものかを判定できるようになる. 本研究では正しいぺアと誤ったペアを 1 対 1 の比率で学習させた.このモデルを用いて,生成された 2 人の動作が正しいぺアとなっている割合によって評価する。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q9-3.pdf
# On the Bias of CLIP for Object-Attribute Recognition Yutaro Yamada ${ }^{1 *}$, Yingtian Tang ${ }^{2 *}$, Ilker Yildirim ${ }^{1}$ ${ }^{1}$ Yale University ${ }^{2}$ University of Pennsylvania \{yutaro.yamada,ilker.yildirim\}@yale.edu yingtian@seas.upenn.edu ## 概要 Large-scale vision-language models such as CLIP have shown impressive performance on zero-shot image classification and image-to-text retrieval. However, such zeroshot performance of CLIP-based models does not realize in tasks that require a finer-grained correspondence between vision and language, such as Visual Question Answering (VQA). We investigate why this is the case, and report an interesting phenomenon of CLIP, which we call the Concept Association Bias (CAB), as a potential cause of the difficulty of applying CLIP to VQA and similar tasks. CAB is especially apparent when two concepts are present in the given image while a text prompt only contains a single concept. In such a case, we find that CLIP tends to treat input as a bag of concepts and attempts to fill in the other missing concept crossmodally, leading to an unexpected zero-shot prediction. ## 1 Introduction Recent large-scale vision-language models such as CLIP [1] and ALIGN [2] have shown remarkable performance on zero-shot classification and text-image retrieval tasks. These models are trained via cross-modal contrastive learning on web-scale image-text pairs and obtain powerful multimodal representations. Encouraged by these strong zero-shot capabilities, several recent papers explored CLIP for more complicated vision-language tasks. The initial attempt made by [3] reports near chance accuracy for zeroshot performance of CLIP on VQA-v2 [4], a common visual question answering benchmark. However, their approach simply uses "question: [question text] answer: [answer text]" as text input for the text encoder of CLIP, which makes the prediction harder than it should be. A subsequent work [5] proposes a better prompt generation method. They first convert a question into a masked prompt CLIP: "In this picture, the color of the lemon is purple." 図 1 When we ask CLIP the color of the lemon in the above image, CLIP answers "purple". The text prompt we use is "In this picture, the color of the lemon is [mask]", where CLIP picks one from [red, green, yellow, orange, purple]. (e.g. "What's in the bowl behind the cake" becomes "The [mask] is in the bowl behind the cake"), and filter impossible answers using a language model, which improves CLIP's zero-shot performance on VQA-v2. However, the zero-shot performance of CLIP on VQAv2 is still not state-of-the-art, which is achieved by taskspecific models [3]. While investigating what makes CLIP hard to adapt to VQA, we discover an interesting phenomenon, which we call the Concept Association Bias (CAB). To describe this phenomenon, we present a simple image containing a "lemon" and an "eggplant" to CLIP, and ask what color the lemon is, as shown in Figure 1. Surprisingly, CLIP predicts "purple" with high confidence. When we instead ask for the color of the eggplant, CLIP answers "yellow". To cross-check this phenomenon, we formulate a binary zero-shot image classification task on the same image where the two labels are "yellow lemon" and "purple lemon", and find that CLIP predicts "purple lemon" with high confidence. We hypothesize that this phenomenon comes from the discrepancy between what is described in the image and text input, where CLIP attempts to fill in the missing con- cept. The association between "purple" and "eggplant" is strong, so when asked to fill in the mask in "[mask] lemon", predicting "purple" instead of "yellow" makes more sense for CLIP, because the text description of "purple lemon" is aligned with the image that contains both a lemon and an eggplant more faithfully than "yellow lemon", which only describes the lemon in the image. In fact, when we randomize the color of the lemon and eggplant (e.g. "red" for lemon and "green" for eggplant), we find that this bias disappears, and CLIP picks the color almost randomly between the two. Vision-language models such as CLIP are being deployed for increasingly broad range of downstream applications $[6,7,8,9]$. However, the concept association bias suggests caution in such efforts. ## 2 Related Work Vulnerability of vision and language models There are a number of papers that study the robustness of vision and language models. Some prior work [10] shows that Transformer trained via Masked Language Modeling [11] is insensitive to word orders, suggesting that the success of BERT largely depends on learning higher-order word co-occurrence rather than learning syntactic and semantic abstractions. Many benchmarks are proposed to evaluate robustness of ImageNet models towards various perturbations including common corruption [12], image style change [13], and different viewpoints [14]. Our work differs from these studies that are purely based on language or vision, because CAB is a cross-modal phenomenon, which occurs when both image and language data are used. [15] tests compositional generalization of vision and language models. [16] introduced a probing dataset called Winoground, which evaluates visuo-linguistic compositionality of vision and language models. They evaluate a diverse range of state-of-the-art vision and language models, including CLIP, but all of them perform close to or below random chance. Our work also reveals brittleness of CLIP through the lens of CAB, which has been overlooked in the past. Peculiarities of CLIP In the image generation community, it has been reported that state-of-the-art models such as DALL-E 2 [6] struggle with composionality [17]. One of the potential causes of such failure has been attributed to the use of CLIP-based image encoder [6]. In fact, image generation models that do not use CLIP such as Imagen and Parti are known to be better at generating images that require compositional reasoning [18, 19]. However, few works go into depth to analyze the behavior of CLIP in zero-shot image classification and visual question answering. Our analysis based on $\mathrm{CAB}$ offers a new perspective on the weakness of CLIP-based models for compositional reasoning. ## 3 The Concept Association Bias The zero-shot image classification of CLIP is remarkable for images that contain a single concept. However, when there are multiple concepts in the image but the text input does not cover all of them, the zero-shot classification of CLIP can be significantly biased towards the missing concept(s). We call this bias the Concept Association Bias (CAB). We first showcase this bias using color recognition tasks. ${ }^{1)}$ For this analysis, we use the Natural-Color Dataset (NCD) [20], which is a dataset of vegetables and fruits with a white background. We take the following objects: banana, brinjal, broccoli, carrot, cherry, corn, cucumber, lemon, orange, plum, pomegranate, strawberry, tomato. We then randomly sample two images with different vegetable types and place the two objects side-by-side, resulting in 494 images in total. Examples are shown in Figure 2. 図 2 Example images from Natural-Color Dataset (NCD) [20], modified for our color recognition tasks so that each image contains two different objects. For zero-shot transfer from CLIP to our color recognition task, we ask for the color of one of the objects in the image. The labels we use are "red", "yellow", "purple", "green", and "orange", so it is a 5-way color recognition task. When there is a single object in the image, we use the following text prompt: "In this picture, the color of the object is [mask]." When there are two objects in the image, we specify one of these objects in the prompt. For exam-  ple, if there is a lemon and another object in the image, the prompt takes the following format: "In this picture, the color of the lemon is [mask]." Zero-shot transfer from CLIP to color recognition 図 3 Zero-shot performance of CLIP on color recognition tasks using NCD [20]. CLIP achieves almost perfect accuracy when there is a single object in the image, but the accuracy significantly drops when there are two objects. "Two object*" refer to the case in which we instead measure the accuracy of predicting the color of the object $B$ when it is asked for the color of the object $A$, where we see $80 \%$ zero-shot accuracy. We claim this gap between Two objects and Two objects* is a result of the Concept Association Bias (CAB). The results are shown in Figure 3. We first note that the zero-shot performance of CLIP on our color recognition task is almost perfect when there is a single object per image ("Single object" in Figure 3). However, the classification performance considerably degrades to below chance when there are two objects per image ("Two objects" in Figure 3). How does this happen? We suggest that CLIP does not have a mechanism that stores object-centric representation that correctly binds the object's name and its attribute. In another words, CLIP processes its input as a "bag of concepts". To inspect this possibility, we look at what kind of mistakes CLIP makes when there are two objects A and B. We find that many mistakes are derived from a common source. That is, when asked for the color of object A, CLIP often predicts the color of object $B$ in the image. In fact, when we measure the accuracy of predicting the color of the object $B$ when in reality it is asked to predict the color of the object A, we see that the zero-shot transfer performance of CLIP is much higher ("Two objects*" in Figure 3), approaching the single object accuracy. To understand this phenomenon, we find it helpful to consider two variables per object, where each variable rep- (a) Natural color (b) Natural color ([mask] = purple) (c) Unnatural color 図 4 The concept binding diagram. Two variables per object represent the object name and its attribute (e.g. color), respectively. We suggest that the text prompt and the image are represented as two separate "bags of concepts" in CLIP. When a pair of object-attribute concepts are naturally associated with each other, then both concepts can be accounted for by including in the prompt either of the object or the attribute. When only some of the concepts in the image are included in the text, this leaves other concepts in the image unaccounted for. resents the object's name in the image and the color attribute of the object, as shown in Figure 4. When the colors are natural (Figure 4 (a)), both the object "lemon" and its attribute "yellow" in the image are fully explained by the word "lemon" in the text prompt, resulting in the concept of the eggplant remaining. When CLIP performs zero-shot color recognition, we see that placing the color "purple" in the prompt can most faithfully explain the remaining concept of the eggplant in the image (Figure 4 (b)). 図 5 Examples from UNCD. Single object (Top) and Two objects per image (Bottom). The above explanation suggests that there is a strong association between the color "purple" and the object "eggplant" in CLIP to the point where "purple" can partially explain the concept of the eggplant. What if we break this strong association? Does the gap between Two objects and Two objects* disappear? Zero-shot transfer from CLIP to unnatural color recognition 図 6 Zero-transfer performance of CLIP to color recognition on UNCD, where we assign non-associated color to each vegetable. CLIP achieves $80 \%$ accuracy when there is a single object in the image. While the accuracy drops for Two objects, the drop is not as significant as the NCD case. Furthermore, the gap between Two objects and Two objects* vanishes, compared to the NCD case. To test this, we create a version of NCD, which we call UNnatural-Color Dataset (UNCD), where we artificially change the color of each fruit and vegetable to nonassociated color. Examples are shown in Figure 5. We repeat the same experiment on UNCD. The results are shown in Figure 6. We see that the zero-shot performance for a single object is still high, suggesting that CLIP can pick up the color attribute even if the color is not strongly associated with the object itself. However, for the two object cases, we see that there is almost no difference between Two objects and Two objects* tasks. In other words, CLIP predicts the two non-associated colors in the image with almost equal chance. Why does the CAB gap disappear when objects are paired with random attributes in images? This result arises from a common mechanism that impacts both the Two objects and Two objects* tasks. To see this, we go back to our diagram in Figure 4 (c). When the colors are unnatural (e.g., a lemon in red color and an eggplant in green color), then the remaining bag of concepts that are yet to be explained by the text include "red", "green", and "eggplant". This is because the color "red" is not associated with the concept of "lemon", and therefore the word "lemon" in the text prompt cannot explain the color "red", unlike the case that uses natural color. As a result, CLIP can choose either "red" or "green" for color recognition. And indeed, surprisingly, CLIP randomly chooses between the two it does not associate the concept of "red" with the lemon, even though in the image the lemon unambiguously ap- pears in red. Likewise, for the Two objects* task (in which the correct prediction is defined as the color of object $\mathrm{B}$ when asked for object A), CLIP essentially randomly picks one of the two colors present in the image, despite the fact that each object has their own very distinct color. 図 7 The Concept Association Bias (CAB) remains regardless of the spatial configurations such as "left \& right", "up \& down", "upper-left \& down-right", and "large \& small". We use the same subset of NCD as in Figure 3. ## 3.1 The spatial arrangement has almost no effect on CAB In our earlier experiments on NCD and UNCD, two objects are positioned side-by-side. To see if CAB is robust to the positioning of objects, we vary the spatial arrangement of the two objects in the image. Concretely, we test the following spatial configurations: left \& right, up \& down, and upper-left \& down-right. We also vary the size of the two objects for left \& right, which is denoted as "large \& small". As Figure 7 shows, CAB is not affected by either spatial arrangements or the object size. ## 4 Conclusion Every object has a set of concepts that are roughly associated with it. For instance, the object "lemon" can be associated with "yellow", "fruit", and so on. Such concept association is automatically learned in vision-language models such as CLIP, to the point where the word "yellow" can partially explain the object "lemon" in certain cases. We establish that the Concept Association Bias (CAB) exists for CLIP through a series of experiments. CLIP is increasingly popular in both computer vision and natural language processing. We hope our work raises awareness of the brittleness of CLIP as we develop new models on top of CLIP. ## Acknowlegments Computational resource of AI Bridging Cloud Infrastructure $(\mathrm{ABCI})$ provided by National Institute of Advanced Industrial Science and Technology (AIST) was used for the experiments in this paper. ## 参考文献 [1] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, Gretchen Krueger, and Ilya Sutskever. Learning Transferable Visual Models From Natural Language Supervision. In Proceedings of the 38th International Conference on Machine Learning, pp. 8748-8763. PMLR. [2] Chao Jia, Yinfei Yang, Ye Xia, Yi-Ting Chen, Zarana Parekh, Hieu Pham, Quoc Le, Yun-Hsuan Sung, Zhen Li, and Tom Duerig. Scaling Up Visual and Vision-Language Representation Learning With Noisy Text Supervision. In Proceedings of the 38th International Conference on Machine Learning, pp. 4904-4916. PMLR. [3] Sheng Shen, Liunian Harold Li, Hao Tan, Mohit Bansal, Anna Rohrbach, Kai-Wei Chang, Zhewei Yao, and Kurt Keutzer. How Much Can CLIP Benefit Vision-andLanguage Tasks? [4] Yash Goyal, Tejas Khot, Douglas Summers-Stay, Dhruv Batra, and Devi Parikh. Making the v in VQA Matter: Elevating the Role of Image Understanding in Visual Question Answering. pp. 6904-6913. [5] Haoyu Song, Li Dong, Weinan Zhang, Ting Liu, and Furu Wei. CLIP Models are Few-Shot Learners: Empirical Studies on VQA and Visual Entailment. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 6088-6100. Association for Computational Linguistics. [6] Aditya Ramesh, Prafulla Dhariwal, Alex Nichol, Casey Chu, and Mark Chen. Hierarchical Text-Conditional Image Generation with CLIP Latents. [7] Renrui Zhang, Ziyu Guo, Wei Zhang, Kunchang Li, Xupeng Miao, Bin Cui, Yu Qiao, Peng Gao, and Hongsheng Li. PointCLIP: Point Cloud Understanding by CLIP. pp. 8552-8562. [8] Aditya Sanghi, Hang Chu, Joseph G. Lambourne, Ye Wang, Chin-Yi Cheng, Marco Fumero, and Kamal Rahimi Malekshan. CLIP-Forge: Towards Zero-Shot Text-To-Shape Generation. pp. 18603-18613. [9] Can Wang, Menglei Chai, Mingming He, Dongdong Chen, and Jing Liao. CLIP-NeRF: Text-and-Image Driven Manipulation of Neural Radiance Fields. pp. 3835-3844. [10] Koustuv Sinha, Robin Jia, Dieuwke Hupkes, Joelle Pineau, Adina Williams, and Douwe Kiela. Masked Language Modeling and the Distributional Hypothesis: Order Word Matters Pre-training for Little. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 2888-2913. Association for Computational Linguistics [11] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186. Association for Computational Linguistics. [12] Dan Hendrycks and Thomas Dietterich. Benchmarking Neural Network Robustness to Common Corruptions and Perturbations. [13] Dan Hendrycks, Steven Basart, Norman Mu, Saurav Kadavath, Frank Wang, Evan Dorundo, Rahul Desai, Tyler Zhu, Samyak Parajuli, Mike Guo, Dawn Song, Jacob Steinhardt, and Justin Gilmer. The Many Faces of Robustness: A Critical Analysis of Out-of-Distribution Generalization. [14] Andrei Barbu, David Mayo, Julian Alverio, William Luo, Christopher Wang, Dan Gutfreund, Josh Tenenbaum, and Boris Katz. ObjectNet: A large-scale bias-controlled dataset for pushing the limits of object recognition models. In Advances in Neural Information Processing Systems, Vol. 32, pp. 9453-9463. [15] Ben Bogin, Shivanshu Gupta, Matt Gardner, and Jonathan Berant. COVR: A Test-Bed for Visually Grounded Compositional Generalization with Real Images. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 9824-9846. Association for Computational Linguistics. [16] Tristan Thrush, Ryan Jiang, Max Bartolo, Amanpreet Singh, Adina Williams, Douwe Kiela, and Candace Ross. Winoground: Probing Vision and Language Models for Visio-Linguistic Compositionality. pp. 5238-5248. [17] Royi Rassin, Shauli Ravfogel, and Yoav Goldberg. DALLE-2 is Seeing Double: Flaws in Word-to-Concept Mapping in Text2Image Models. [18] Chitwan Saharia, William Chan, Saurabh Saxena, Lala Li, Jay Whang, Emily Denton, Seyed Kamyar Seyed Ghasemipour, Burcu Karagol Ayan, S. Sara Mahdavi, Rapha Gontijo Lopes, Tim Salimans, Jonathan Ho, David J. Fleet, and Mohammad Norouzi. Photorealistic Text-to-Image Diffusion Models with Deep Language Understanding. [19] Jiahui Yu, Yuanzhong Xu, Jing Yu Koh, Thang Luong, Gunjan Baid, Zirui Wang, Vijay Vasudevan, Alexander $\mathrm{Ku}$, Yinfei Yang, Burcu Karagol Ayan, Ben Hutchinson, Wei Han, Zarana Parekh, Xin Li, Han Zhang, Jason Baldridge, and Yonghui Wu. Scaling Autoregressive Models for Content-Rich Text-to-Image Generation. [20] Saeed Anwar, Muhammad Tahir, Chongyi Li, Ajmal Mian, Fahad Shahbaz Khan, and Abdul Wahab Muzaffar. Image Colorization: A Survey and Dataset.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q9-4.pdf
# エッジプロービングを用いた事前学習済みの 視覚と言語に基づくモデルにおける言語知識の分析 白井尚登 1 上垣外英剛 1 渡辺太郎 1 1 奈良先端科学技術大学院大学 \{shirai.naoto.sq5, kamigaito.h, taro\}@is.naist.jp ## 概要 近年 Transformer ベースの Vision-and-Language (V\&L) モデルが次々に提案され, 画像情報に対する質問応答などのマルチモーダルタスクで成功を収めている.一方で,V\&L モデルが適するタスクを把握するためには,V\&L モデルが有する言語処理能力を知ることが必要である. 本研究ではエッジプロービングというフレームワークを採用し, 事前学習済み (V\&L) モデルである VisualBERT と LXMERT が有する言語知識の分析を行う.このプロービング手法を用いることで品詞タグ付けなど 8 つの分類タスクのスコアの算出と,分類に寄与する隠れ層の定量化を実現する. 実験の結果,VisualBERT は全体的に BERT とタスクごとの精度や分類に寄与する層が近しい一方,LXMERT は全体的に精度が低く, より低層の情報が寄与していることが判明した. ## 1 はじめに 近年, Vision-and-Language (V\&L) モデルとして,言語と画像を横断した汎用的なマルチモーダル表現の獲得のために,Transfomer に基づく事前学習済みモデルが次々と提案されている [1].V\&L モデルには BERT [2]を模したエンコーダを用いるものが多く,言語と画像を含む入力に対する扱いの差異によって, Single-stream モデルと Dual-stream モデルに大別される (図 1). Single-stream モデルは言語と画像を一つのエンコーダで処理し, Dual-stream モデルは言語と画像を別々のエンコーダで処理した後, その結果を一つのエンコーダで統合する階層的なモデル構造である.これらのモデルは画像情報を踏まえた質問応答 [3] などマルチモーダルタスクの精度向上に貢献している [1]. 現在,これらの V\&L モデルが視覚情報を学習することで,テキストのみを学習したモデルよりも良 図 1 Single-stream(左) と Dual-stream(右) モデルの構成. 入力した視覚情報, 言語情報に対する処理方法が異なる. い文脈表現を獲得できているのかの調査が行われている. 先行研究 $[4,5]$ では,事前学習済み $V \& L$ モデルの言語理解能力をベンチマーク GLUE [6] で評価し, Single-stream モデルは Dual-stream モデルよりも僅かに高い言語理解能力を有しているが,単に画像情報を学習するだけでは言語理解能力が向上しないことを主張している.また,これらの研究ではテキストのみの評価データに対として入力する視覚情報の差異による性能変化についても議論されている. このように V\&L モデルにおける検証ではベンチマークスコアに基づいた方法が行われている一方,自然言語処理分野では事前学習済みモデルに対するより詳細な分析手法として,エッジプロービング [7] と呼ばれるフレームワークが提案されている. エッジプロービングは事前学習済みモデルにトークン列からなるスパンを入力し,出力された表現を利用した分類器が対応するラベルをタスクごとに予測することで行われる.この際,分類器に入力するスパン表現はパラメータを固定したモデルの各層に重み付けをするスカラーミキシングにより得られる。 エッジプロービングとスカラーミキシングを組み合わせた手法は学習した各層への重みを参照することで,分類タスクごとに寄与する層を定量的に評価できる利点がある. 自然言語処理分野ではこのアプローチで BERTを 分析することにより,BERT の隠れ層は品詞タグ付け, 構文解析, 固有表現抽出といった深層学習導入以前の自然言語処理で使用されていた逐次的な言語処理と対応する関係を持つという画期的な知見が得られている [8]. 一方で, 事前学習済みの V\&L モデルに対しては, エッジプロービングを用いてテキストとともに画像情報を入力する VisualBERT [9], 動画情報を入力する VideoBERT [10] の調査がなされている [11]. この研究でも視覚情報の学習が言語処理能力の大幅な改善に繫がっていないという見解が示された. なお, Dual-stream モデルが有する言語知識に関しては言語エンコーダに限定し, 文埋め込みに基づくベンチマーク SentEval [12] によって評価されている [13]. このように V\&L モデルに対して様々な検証が行われている一方,既存研究では V\&L モデルで各隠れ層がどの分類タスクに寄与しているのかの十分な分析がなされておらず,自然言語処理データで獲得された層間の関係がどれほどモデルに残されるのかも明らかにはなっていない. 同様に Single-stream モデルや Dual-stream モデルといった構造の違いが各層に与える影響についても明らかではない. 本研究ではこれらの点を明らかにするために,事前学習済みの VisualBERT と LXMERT [14] の有する言語知識に焦点を当て,エッジプロービングとスカラーミキシングの手法からタスクごとの精度や自然言語タスクの解決に寄与する層が何かを定量的に示す. 実験の結果,VisualBERT はタスクに応じた層を利用することで視覚情報を学習しながらも BERT に劣らない精度を維持する一方,LXMERT は全体的に精度が低く,より低層の情報が自然言語処理に寄与していることが判明した。 ## 2 V\&L モデル 本研究では異なる構造 (Stream) のモデルが有する言語知識を評価するために Single-stream モデルである VisualBERT と Dual-stream モデルである LXMERT を比較する.以下では両モデルの概要を紹介する。 ## 2.1 VisualBERT VisualBERT [9] は最初期の事前学習済み V\&L モデルとして知られており [1],画像べクトル表現とテキストの埋め込み表現を連結して入力する Single-stream モデルである. 初期化は事前学習済みの BERT $_{\text {BASE }}$ [2] の重みを引き継ぐことで行われ, 図 2 意味役割 (SRL) タスクのプロービングモデルの例.与えられたスパンから”strawberry ice cream” $\left(s_{2}\right)$ が”eat" $\left(s_{1}\right)$ の対象となるか予測する. スパン表現は固定した事前学習済みモデルから得たトークンの表現ベクトル $\mathrm{e}=\left[e_{0}\right.$, $\left.e_{1}, \cdots, e_{n}\right]$ をプーリングすることで獲得する。 MS COCO [15] によって追加の事前学習が行われる. また,VQA [16] などの下流タスクへの適用はファインチューニングで行う. 画像の特徴量は Faster R-CNN [17] でオブジェクト領域のバウンディングボックスを検出し,エンコードすることで獲得される. ## 2.2 LXMERT LXMERT [14] は画像と言語を別々のエンコーダで学習し,両モダリティの関係性を上層のクロスモダリティエンコーダで学習する Dual-stream のモデルである。事前学習時にはデータセットとして MS COCO,VQA,Visual Genorm [18],GQA [19],VGQA [20]を使用する。入力する画像表現には VisualBERT と同様に Faster R-CNN で検出した特徴量を用いる. ## 3 分析手法 ## 3.1 エッジプロービング 本研究は事前学習済みモデルが有する言語知識を調査するために Tenney らが提案したエッジプロー ビング [7] というアプローチを採用する. エッジプロービングは分類器を通して事前学習済みモデルに含まれる言語構造に関する情報を抽出して調査することを目的としている。この分類器は事前学習済みモデルに与えられたトークンのスパンに対する出力を入力として受け取り,品詞情報などタスクに関するラベルを予測する。図 2 に処理手順の例を示 す.この例では分類器はスパン $s_{1}=\left[i_{1}, j_{1}\right)$ とスパン $s_{2}=\left[i_{2}, j_{2}\right)$ に対応する表現を受け取る. スパン表現は与えられたスパンのトークンの埋め込み表現を各層の活性度を重み付け (スカラーミキシング §4) し,プーリングしたものである。なお,事前学習時に獲得した言語知識を調査するためにエンコーダの重みは固定し, 分類器をタスクごとに学習する. ## 3.2 分類タスクとデータセット 本研究では言語知識に関する分類タスクとして8つのラベル付けタスクを対象とし,結果を micro-F1 スコアで評価する. データセットには依存関係(Deps.)に English Web Treebank [21], 非文法的な意味役割 (SPR2) には SPR2 [22], 関係分類(Relations)として SemEval 2010 Task 8 [23] を使用する. そして, 品詞 (POS), 句構造 (Consts.), 固有表現 (Entities), 意味役割 (SRL), 共参照 (Coref.) には OntoNotes 5.0 [24]を用いる.これらタスクの一例は付録 A. 1 に記載している。なお,POS, Consts., Entities は単一のスパンからラベルを予測をするため, プロービングでは図 2 のような $s_{2}$ を使用しない. ## 3.3 入力画像 本分析では言語知識を問うデータセットがテキストのみで構成されているため,V\&L モデルに入力する視覚的特徴が問題となる. 先行研究ではエッジプロービングによって言語知識を定量化する際に事前学習済み $\mathrm{V} \& \mathrm{~L}$ モデルには視覚情報を入力せず,テキスト入力のみで調査している [11]. 一方, GLUE で評価する際には黒画像 $(224 \times 224$ ピクセル)を使用し,特徵量抽出のための Faster R-CNN detector $[25]^{1}$ で最初に検出した 36 個のバウンディングボックスの特徴量をエンコードしている [4].本研究でも黒画像の入力を採用しているが,黒画像はあくまで入力する視覚的特徴の代替案の一つであることに注意されたい. 黒画像の代わりにゼロべクトルや V\&L タスク用データセット内の画像の特徴量平均などを視覚情報の代替として入力することが提案されている [5]. なお, VisualBERT はテキストのみの入力が可能であるが,LXMERT は言語と画像を別々のエンコーダで処理し,クロスモダリティエンコーダでその結果を統合している. したがって, テキストのみを入力する場合にはクロスモダリティ 1)本研究の物体検知には https://github.com/ peteanderson80/bottom-up-attention\#demo で提供されている事前学習済みモデルを使用している。 エンコーダ内の視覚側のエンコーダからの残差接続を無効にする必要がある. ## 3.4 分析モデル 本研究では V\&L モデルとして Huggingface Transformers [26] で提供され,2023 年 1 月現在一番利用されている事前学習済み VisualBERT ${ }^{2}$ 及び LXMERT $^{3)}$ のパラメータを用いてモデルの有する言語知識の調查を行った.VisualBERT は 12 層を使用し, LXMERT は 8 層の言語エンコーダと 5 層のクロスモダリティエンコーダの計 13 層を調查対象とする.また, 自然言語のみで学習されたモデルとして, 12 層の事前学習済み $\mathrm{BERT}^{4}$ を使用する。 ## 4 評価方法 我々はプロービングを行う際に言語知識の獲得にモデルのどの層が寄与しているのか定量化する.そのため, ELMo [27] で提案されたスカラーミキシングという手法を使用する. スカラーミキシングは学習可能なパラメータをエンコーダの層の数だけ用意し, 分類タスクごとに寄与する層を重み付けとして学習させることで全層を通した文脈べクトルを導出する. 具体的にはタスク $\tau$ ごとに各層 $\ell=[0,1, \cdots$, L] に対応した学習可能なパラメータ $a_{\tau}=\left[a_{\tau}^{(0)}, a_{\tau}^{(1)}\right.$, $\left.\cdots, a_{\tau}^{(L)}\right]$ を用意し,それらをソフトマックス関数により正規化した重み $s_{\tau}$ や調整パラメータ $\gamma_{\tau}$ からあるトークン $h_{i}$ のタスクに応じた表現ベクトル $h_{i, \tau}$ を導出する。まとめる以下の計算式 1,2 となる. $ \begin{aligned} s_{\tau} & =\operatorname{softmax}\left(a_{\tau}\right) \\ h_{i, \tau} & =\gamma_{\tau} \sum_{\ell=0}^{L} s_{\tau}^{(\ell)} h_{i}^{(\ell)} \end{aligned} $ 重み $a_{\tau}$ はプロービング分類器とともにタスクごとに学習され,ソフトマックス関数により正規化されることで分類タスクに対する各層の寄与度を理解しやすくなる.ここで,各層の重み $s_{\tau}^{(\ell)}$ はどの層の情報をどの程度で使用するかという係数として捉えることができるため,より重みが高いほどその層がその特定のタスクに関連する情報をより多く含んでいることの根拠と解釈することができる. 重心モデルのどの層が主にタスクごとの分類に寄与しているのか分かりやすくするため,本実験で  表 13 回の実験から得たタスクごとの micro-F1 スコアの平均. 括弧内は学習した重みの重心の平均. 図 3 各層に対応する重み付けを視覚化した一例. 左から BERT,VisualBERT,LXMERT. タスクは表 1 の左右が上下に対応. は学習した重みの重心を以下のように求める 3. $ \bar{E}_{s}[\ell]=\sum_{\ell=0}^{L} \ell \cdot s_{\tau}^{(\ell)} $ これは各タスクに寄与した平均的な層を反映しており,この重心の値が分類タスクを解く際に重要な層を示していると解釈できる [8]. ## 5 実験結果 ## 5.1 分類スコアの比較 表 1 に事前学習済みモデルを使用した分類タスクごとの micro-F1 スコアを示す. VisualBERT は先行研究 [11] と同じく大きな精度低下は見られない. これは引き継いだ BERT のパラメータが画像を含めた追加的な事前学習を経ても維持されているためだと考えられる。一方, LXMERT は BERT に対して全体的にスコアが低い. 特に低下した Relations タスクの詳細は付録 A. 2 に示す.この結果は Single-stream よりも Dual-stream モデルの方が言語処理能力が低いという先行研究の結果 $[4,13]$ と一貫する. ## 5.2 各層の重みと重心 続いて表 1 で示した重心とスカラーミキシングにより学習されたタスクごとの各層の重みを示した図 3 に基づいた議論を進める. VisualBERT は BERT と同様の傾向を示し, 品詞情報などの語彙に強く依存する情報は下層の,固有表現などの文脈理解を求める情報はより高層の埋め込み表現が分類タスクに寄与している。対する LXMERT は 2 つのモデルとは異なり,タスクの種類に関係なく,低層の情報を使用する傾向がある.特に Entitiesのタスクでは BERT や VisualBERT よりも低い層を重視している. また,LXMERT は 9 層以降の情報をあまり使用していないことからクロスモダリティエンコーダは言語処理タスクにあまり寄与していないと考えられる。以上の結果より,VisualBERT の言語処理能力の高さは BERT で学習された各層の関係が維持されているためであると考えられる。 ## 6 おわりに 本研究では VisualBERT や LXMERT の有する言語知識をエッジプロービングとスカラーミキシングによって調査した. その結果,VisualBERT が示す高い性能は BERT により獲得された言語知識が引き継がれているためである可能性が示唆された. また, LXMERT はタスクにあまり関係なく低層の情報が分類タスクに寄与している傾向が判明した. このことより,言語と画像の情報を統合するクロスモダリティエンコーダで学習される表現は言語処理タスクに対してはあまり寄与しないことも明らかにした。 ## 謝辞 本研究は JSPS 科研費 JP21K17801 の助成を受けたものです. ## 参考文献 [1] Yifan Du, Zikang Liu, Junyi Li, and Wayne Xin Zhao. A survey of vision-language pre-trained models. arXiv preprint arXiv:2202.10936, 2022. [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [3] Stanislaw Antol, Aishwarya Agrawal, Jiasen Lu, Margaret Mitchell, Dhruv Batra, C. Lawrence Zitnick, and Devi Parikh. VQA: visual question answering. CoRR, Vol. abs/1505.00468, , 2015. [4] Taichi Iki and Akiko Aizawa. Effect of visual extensions on natural language understanding in vision-and-language models. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 2189-2196, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [5] Lovisa Hagström and Richard Johansson. How to adapt pre-trained vision-and-language models to a text-only input? In Proceedings of the 29th International Conference on Computational Linguistics, pp. 5582-5596, Gyeongju, Republic of Korea, October 2022. International Committee on Computational Linguistics. [6] Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel R. Bowman. GLUE: A multi-task benchmark and analysis platform for natural language understanding. CoRR, Vol. abs/1804.07461, , 2018. [7] Ian Tenney, Patrick Xia, Berlin Chen, Alex Wang, Adam Poliak, R. Thomas McCoy, Najoung Kim, Benjamin Van Durme, Samuel R. Bowman, Dipanjan Das, and Ellie Pavlick. What do you learn from context? probing for sentence structure in contextualized word representations. In International Conference on Learning Representations, 2019. [8] Ian Tenney, Dipanjan Das, and Ellie Pavlick. BERT rediscovers the classical NLP pipeline. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4593-4601, Florence, Italy, July 2019. Association for Computational Linguistics. [9] Liunian Harold Li, Mark Yatskar, Da Yin, Cho-Jui Hsieh, and Kai-Wei Chang. Visualbert: A simple and performant baseline for vision and language. arXiv preprint arXiv:1908.03557, 2019. [10] Chen Sun, Austin Myers, Carl Vondrick, Kevin Murphy, and Cordelia Schmid. Videobert: A joint model for video and language representation learning. In Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 7464-7473, 2019. [11] Tian Yun, Chen Sun, and Ellie Pavlick. Does vision-andlanguage pretraining improve lexical grounding? CoRR, Vol. abs/2109.10246, , 2021. [12] Alexis Conneau and Douwe Kiela. Senteval: An evaluation toolkit for universal sentence representations. CoRR, Vol. abs/1803.05449, , 2018. [13] Jize Cao, Zhe Gan, Yu Cheng, Licheng Yu, Yen-Chun Chen, and Jingjing Liu. Behind the scene: Revealing the secrets of pre-trained vision-and-language models. CoRR, Vol. abs/2005.07310, , 2020. [14] Hao Tan and Mohit Bansal. LXMERT: learning crossmodality encoder representations from transformers. CoRR, Vol. abs/1908.07490, , 2019. [15] Tsung-Yi Lin, Michael Maire, Serge J. Belongie, Lubomir D. Bourdev, Ross B. Girshick, James Hays, Pietro Perona, Deva Ramanan, Piotr Dollár, and C. Lawrence Zitnick. Microsoft COCO: common objects in context. CoRR, Vol. abs/1405.0312, , 2014 [16] Yash Goyal, Tejas Khot, Douglas Summers-Stay, Dhruv Batra, and Devi Parikh. Making the V in VQA matter: Elevating the role of image understanding in visual question answering. CoRR, Vol. abs/1612.00837, , 2016. [17] Shaoqing Ren, Kaiming He, Ross B. Girshick, and Jian Sun. Faster R-CNN: towards real-time object detection with region proposal networks. CoRR, Vol. abs/1506.01497, , 2015. [18] Ranjay Krishna, Yuke Zhu, Oliver Groth, Justin Johnson, Kenji Hata, Joshua Kravitz, Stephanie Chen, Yannis Kalantidis, Li-Jia Li, David A. Shamma, Michael S. Bernstein, and Li Fei-Fei. Visual genome: Connecting language and vision using crowdsourced dense image annotations. CoRR, Vol. abs/1602.07332, , 2016 [19] Drew A. Hudson and Christopher D. Manning. GQA: a new dataset for compositional question answering over real-world images. CoRR, Vol. abs/1902.09506, , 2019. [20] Yuke Zhu, Oliver Groth, Michael S. Bernstein, and Li Fei-Fei. Visual7w: Grounded question answering in images. CoRR, Vol. abs/1511.03416, , 2015. [21] Natalia Silveira, Timothy Dozat, Marie-Catherine de Marneffe, Samuel Bowman, Miriam Connor, John Bauer, and Chris Manning. A gold standard dependency corpus for English. In Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC'14), pp. 2897-2904, Reykjavik, Iceland, May 2014. European Language Resources Association (ELRA). [22] Aaron Steven White, Drew Reisinger, Keisuke Sakaguchi, Tim Vieira, Sheng Zhang, Rachel Rudinger, Kyle Rawlins, and Benjamin Van Durme. Universal decompositional semantics on Universal Dependencies. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1713-1723, Austin, Texas, November 2016. Association for Computational Linguistics. [23] Iris Hendrickx, Su Nam Kim, Zornitsa Kozareva, Preslav Nakov, Diarmuid Ó Séaghdha, Sebastian Padó, Marco Pennacchiotti, Lorenza Romano, and Stan Szpakowicz. SemEval-2010 task 8: Multi-way classification of semantic relations between pairs of nominals. In Proceedings of the 5th International Workshop on Semantic Evaluation, pp. 33-38, Uppsala, Sweden, July 2010. Association for Computational Linguistics. [24] Mitchell Marcus Eduard Hovy Sameer Pradhan Lance Ramshaw Nianwen Xue Ann Taylor Jeff Kaufman Michelle Franchini Mohammed El-Bachouti Robert Belvin Ann Houston Ralph Weischedel, Martha Palmer. Ontonotes release 5.0 ldc2013t19. Web Download. Philadelphia: Linguistic Data Consortium, 2013. [25] Peter Anderson, Xiaodong He, Chris Buehler, Damien Teney, Mark Johnson, Stephen Gould, and Lei Zhang. Bottom-up and top-down attention for image captioning and visual question answering. In 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 6077-6086, 2018. [26] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, and Jamie Brew. Huggingface's transformers: State-of-the-art natural language processing. CoRR, Vol. abs/1910.03771, , 2019. [27] Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, and Luke Zettlemoyer. Deep contextualized word representations. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 2227-2237, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. ## A 付録 ## A. 1 タスクの例 表 2 タスクごとの文章, スパン, ターゲットラベルの例. ## A. 2 関係分類 (Relations) タスクの詳細 表 3 関係抽出 (Relations) タスクのラベルと文章例. 各ラベルは因果 (Cause-Effect), 道具と使用者 (Instrument-Agency), 生産物と生産者 (Product-Producer), 物体と入れ物 (Content-Container), エンティティと起源 (Entity-Origin), エンティティと目的地 (Entity-Destination), 構成物と全体 (Component-Whole), 一部と集合したもの (Member-Collection), メッセージとトピック (Message-Topic)との関係性を表す. 表 43 回の実験から得た Relations タスクの micro-F1 スコアの平均. VisualBERT は BERT と比べ, 関係分類タスク全体 (ALL) だけではなくラベルレベルでも精度に大きな差は見られない.一方, LXMERT は BERT に対してタスク全体もラべルレベルでもスコアが低い傾向がある.特に生産物と生産者との関係性を問う PP の精度が大幅に低下している.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q9-5.pdf
# VideoCLIP を用いた実験動画からのプロトコル生成 山本航輝 ${ }^{1}$ 西村太一 ${ }^{1}$ 亀甲博貴 ${ }^{2}$ 森信介 ${ }^{2}$ 1 京都大学大学院 情報学研究科 2 京都大学 学術情報メディアセンター \{yamamoto.koki.76n,nishimura.taichi.43x\}@st.kyoto-u.ac.jp \{kameko, forest\}@i.kyoto-u.ac.jp ## 概要 本研究では,研究における再現性向上の目的の下,生化学分野における一人称視点の実験映像からの,実験手順を表すプロトコルの自動生成に取り組んだ.プロトコルの生成において,フレームに映っている物体の名称に加え,VideoCLIP により推定した実験者の動作を動詞として利用することで,物体の名称のみを用いた場合よりも多くの情報を用いたプロトコル生成を行なった. その結果, 正しい動詞を利用することでより適切なプロトコルを生成することができた. ## 1 はじめに 心理学や化学など様々な研究領域において, 研究の再現性の低さが問題視されている. Baker の調査 [1] によれば,研究者約 1,500 人の内 $70 \%$ 以上が他の研究者の実験結果を再現できなかった経験があると述べている. 科学的研究結果を普遍的なものにするために,再現性を向上させることが求められている. 研究領域の中でもとりわけ,薬品や実験器具を扱う生化学実験の再現における重要な要素のひとつとしてプロトコルが挙げられる. プロトコルとは必要な器具や薬品の名称とともに実験の手順を時系列順に記した文書であり,実験を再現する研究者はプロトコルを参照することで, 実験手順や試薬の量といった実験の再現に必要な情報を得ることができる.プロトコルに記述漏れや誤りがある場合, 研究者は誤った情報をもとに実験を再現することに繋がり,プロトコルを正しく記述することは実験の再現性に関わる大きな要因のひとつだと言える。 このようなプロトコルの記述漏れや誤りを防ぐ手段のひとつとして,自動的なプロトコルの作成が挙げられる. 人間の手を介さずにプロトコルを記述することにより,ヒューマンエラーによる記述誤りを防ぐと同時に,人手によるプロトコル作成のコストを削減することができる。 本研究では自動的なプロトコル作成の一例として,視覚モデルと言語モデルを用いた,実験映像からのプロトコル生成に取り組む. 本研究で提案する手法は西村らが発表したプロトコル生成手法 [2]を拡張したものである. 西村らは生化学実験の実験映像中に現れる試薬や実験器具の名称を言語モデルに与え,プロトコルの生成を行なっていた. しかし,加える試薬の量や実験者の動作等といった視覚情報が与えられておらず,それらの情報だけでは十分とは言えない,本研究では,実験映像から実験者の動作を推定し,映像中の試薬や実験器具に加え,動作も加味することでより多くの情報を用いたプロトコル生成に取り組んだ。 その結果, 言語モデルに正しい動詞を与えることでより適切なプロトコルが生成できることを確認した. ## 2 BioVL2 データセット 本研究では,生化学分野における一人称視点の実験映像データセットである BioVL2 データセット [2] を用いてプロトコルの生成に取り組む. BioVL2 データセットは,生化学分野における基礎的な 4 種類の実験の様子を撮影した一人称視点の動画像デー タセットである. BioVL2データセットには, (1) 実験映像に対応するプロトコル,及び (2) 映像フレーム中に現れる試薬,実験器具のバウンディングボックスの 2 種類のアノテーションが与えられている. (1) に関して, プロトコルは各実験映像の実験手順を時系列順に記したものであり,それぞれの手順と,実験映像中の各手順に対応する開始時刻と終了時刻が付与されている。(2)に関して,実験映像から 4 秒ごとにフレームを切り出し,フレーム中に現れる試薬及び実験器具のバウンディングボックス及びそれらの名称が 4 秒毎のフレームに対して付与されている. 図 1 プロトコル生成の手順 ## 3 実験映像からのプロトコル生成 本研究で扱う BioVL2 データセットは合計 3 時間ほどの動画像データセットであり, 学習データ量の観点から,映像データを入力として直接プロトコルを生成するような深層学習モデルを構築することは難しい. そこで本研究ではプロトコルの生成手法として西村らの手法 [2] を拡張し, 適用する. 図 1 に手法の概要を示す. 西村らの研究では, 牛久らの手法 [3] を基に,BioVL2 データセットを用いて以下の 4 つの手順により実験映像からプロトコルを生成する. 一つの実験映像に対するプロトコル生成の手順を以下に示す。 1. 4 秒に 1 枚フレームを抽出し,あらかじめアノテーションされた物体名(bio-Named Entity, 以下 b-NEとする)を抽出する。 2. 連続するフレームの b-NE を統合し, b-NE 列を得る. 図 1 の例では, 5 番目のフレームと 6 番目のフレームから'primer1'と'DNA engine'という b-NE が得られ, b-NE 列 $\{$ 'primerl'\}, \{'DNA engine'\}, \{'primer1', 'DNA engine'\} を得る. 3. 得られた b-NE 列を, 事前学習済みの文生成モデルに与え,手順の候補文とその尤もらしさを表すスコアを得る。 4. 手順 3 により得られた候補文の中から,候補文のスコアに基づいたビタビアルゴリズムにより,最も尤もらしい文の組み合わせを探索し, プロトコルとする. 西村らの手法の問題点は, 手順 3 において実験映像中に現れる b-NE のみを文生成モデルに与えることで候補文の生成を行なっており,映像の視覚的情報を無視してしまっている点である。そこで本研究では上記の手順 3 を,「得られた b-NE 列,及び連続するフレーム間の実験映像から推定される動作を文生成モデルに与え,手順の候補文を生成する」という手順に変更した。 ## 3.1 b-NE の抽出と統合 BioVL2 の実験映像では動画の 4 秒毎に,フレー ム中に現れる b-NE がバウンディングボックスによりアノテーションされている.これらのアノテーションから,各フレームにおける b-NE 及び連続するフレーム列における b-NE 列を以下のようにして得る. $i$ 番目のフレームを $f_{i}, i$ 番目のフレームから連続する $l$ 個のフレーム列を $\boldsymbol{f}_{n}^{l}=\left(f_{n}, f_{n+1}, \ldots, f_{n+(l-1)}\right)$ とし, フレーム $f_{i}$ が b-NE 集合 $\varepsilon_{i}$ を持つとする. この時フレーム列 $f_{i}^{l}$ が持 $\supset \mathrm{b}-\mathrm{NE}$ 集合は $e_{n}^{l} \in \varepsilon_{i} \times \varepsilon_{i+1} \times \ldots \times \varepsilon_{i+(l-1)}$ と書ける (×は集合のデカルト積を表す),西村らの手法と同様に,フレーム列の長さ $l$ について $l=1,2,3$ に対応する b-NE 列を獲得する。例として,図 1 のフレーム $f_{5}, f_{6}$ が b-NE としてそれぞれ'primer1', 'DNA engine'を持つ場合,フレーム列 $f_{5}^{2}$ が持つ b-NE 集合は'primer1', 'DNA engine'となる. ## 3.2 実験映像からの動作推定 続いて,連続するフレーム列の間の実験映像から,実験者の動作を推定する.生化学分野における実験を対象とした大規模動画像データセットは存在せず,実験映像を入力とした動作推定を行うモデルを学習させることは困難である。 よって本研究では動作推定を行うモデルとして,タスクに応じたモデルの再学習を必要とせず,ゼロショットで下流タスクを解くことのできる VideoCLIP [4]を用いる. ## 3.2.1 VideoCLIP VideoCLIP は動画と言語の対応関係を学習した Vision-Language モデルである. VideoCLIP は HowTo100M [5] データセットを用いた対照的学習により事前学習されている. VideoCLIP は事前学習に用いていない様々な動画像データセットを対象とした Vision-Language タスクにおいて高い精度を記録している. VideoCLIP や CLIP 等といった,大規模なデータセットで事前学習を行うことによりゼロショットでの下流タスク解決が可能な Vision-Language モデルにおいては,タスクに応じてプロンプトと呼ばれる入力テキストの形式を変えることが精度向上につながることが知られている [6]. タスクに応じたプロンプト最適化の具体例として,VideoCLIPを用いて動画中の動物が犬・猫のどちらであるかを分類するという2クラス分類タスクについて考える.この時,テンプレート文として “a video of \{class\}”という文をあらかじめ用意しておき,テンプレート文中の'\{class\}' の部分を'dog', 'cat' という単語で置き換えることにより,それぞれのクラスに対応したプロンプトを得る.このようなプロンプトをテキスト入力として用いることで, 'dog' や'cat'といったクラス名を直接テキスト入力に使用した場合よりも高い精度を記録できることが知られている。本研究で用いるプロンプトについては 4.2 で述べる. ## 3.2.2 VideoCLIP を用いた動作の推定 連続するフレーム列 $\boldsymbol{f}_{n}^{l}$ 間に対応する部分実験映像を $\boldsymbol{v}_{n}^{l}$ とし, $i$ 番目の動作の候補となる単語を,あらかじめ用意したテンプレート文に埋め込んだプロンプトを $t_{i}$ とする. $v_{n}^{l}$ と $t_{i}$ の類似度を VideoCLIP を用いて算出し, 類似度の高い動詞の組 $a_{n}^{l}$ を動作の候補として選出する。 ## $3.3 b$-NE 列及び動作からの候補文生成 続いて,選出された動詞の組 $a_{n}^{l}$ と得られた b-NE 列 $e_{n}^{l}$ を用いて実験手順の候補となる文を生成する. 西村らの手法と同様, 文生成モデルには WLP データセット [7] で事前学習した Transformer にコピー機構を加えたモデルを用いる。コピー機構をモデルに組み込むことで,入力として渡される b-NE 及び動詞を正しく出力に反映させることができる. b-NE 列 $e_{n}^{l}$ と,VideoCLIP を用いて推定された動詞を Transformer に与え,候補文を生成する。 次の手順にて最適な候補文を探索するために,生成された候補文毎に,文の尤もらしさを以下の式によりスコアとして計算しておく. $ \operatorname{Score}\left(e_{n}^{l}\right)=\prod_{i=1}^{N} p\left(d_{i} \mid d_{1}, d_{2}, \ldots, d_{k-1} ; e_{i}^{l}\right) $ ここで $d_{i}$ は出力文の $i$ 番目の単語, $N$ は単語列の長さを表す。 ## 3.4 候補文を用いたプロトコルの選定 最後に,生成された候補文の中からスコアが最も高い文の系列,すなわちプロトコルを構成する文章として最も尤もらしい文の系列をプロトコルとして出力する。候補文からプロトコルの選定を行うための探索は,西村らの手法に倣い,ビタビアルゴリズムにより行う。 ## 4 実験と結果 前節で説明したプロトコル生成手法により, BioVL2 データセットの実験映像からプロトコル生成を行うタスクに取り組んだ。 ## 4.1 事前学習 文生成モデルの事前学習には WLP データセット [7]を用いた.WLPデータセットは生物学分野における実験プロトコルを収集したテキストデータセットであり,各プロトコルの文には,単語レベルでの b-NE のアノテーションが付与されている. b-NE のアノテーションは,試薬を表す Reagent や実験器具を表す Device などいくつかのタグに分けられているが,BioVL2において付与されているアノテーションが Reagent, Device, Location であることから,これら 3 種類のタグ及び実験者の動作を表す Action を文生成モデルの入力として与えた. 表 1 自動評価指標によるスコア.太字は各評価指標において最も高いスコアを表す ## 4.2 プロンプト VideoCLIP を用いた動作推定において,3.2.1 で説明した,動詞の候補を埋め込むテンプレート文を利用した。テンプレート文として,動詞のみを埋め込むテンプレート文と, 動詞と b-NEを埋め込むテンプレート文の 2 種類を用意した. 動詞のみを埋め込むテンプレート文は “a video of $\{$ verb $\}$ in the laboratory, a type of actions”,実験映像中の b-NE と動詞を埋め込むテンプレート文は”a video of $\{$ verb $\}$ using $\{b-N E\}$ in the laboratory, a type of actions”とし,例えば図 1 では, '\{verb\}'に'set'を, '\{b-NE\}'に'primer1 and DNA engine’を埋め込むことでプロンプト “a video of set using primer 1 and DNA engine in the laboratory, a type of actions”を形成する. また,'\{verb \}' に埋め込む動詞の候補として,WLPデータセット中の動詞の中で出現頻度が上位 30 位までの動詞,100 位までの動詞,及び BioVL2 データセット中の 14 の動詞を用いた. ## 4.3 生成プロトコルの評価 提案手法に加え,ベースラインとして,推定した動詞を用いず b-NE のみを文生成モデルに与えた場合,及びあらかじめアノテーションされた正解となる動詞を b-NE と共に文生成モデルに与えた場合についてプロトコルを生成し,比較を行なった. 生成されたプロトコル例を付録に示す. 生成されたプロトコルの自動評価尺度として,BLEU [8], METEOR [9],ROUGE-L [10] を用い,BLEU の $N$ の値は $N=1,2,3,4$ とし評価を行なった. 各動詞の候補及び b-NE を用いて生成したプロトコルの自動評価尺度による結果を表 1 に示す。この結果から以下の 3 つのことがいえる. 第一に,推定した動詞の情報を文生成モデルに与える場合,正しく動詞を推定しなければ逆に生成結果に悪影響を与えてしまうということである. BioVL2 データセットにおいてあらかじめアノテー ションされた正解となる動詞を b-NE に加えてプロトコル生成を行なった結果がほとんどの評価指標において最も高いスコアを記録しているが,動詞を用いず b-NE のみで生成を行なった結果がそれに続くスコアとなっている. このことから,プロトコル生成に動作の情報を用いることは有用であるが,適切な動作の情報を用いなければそれらがノイズとなってしまうといえる. 第二に,テンプレート文に動詞のみを埋め込む場合よりも,動詞と b-NE の両方を埋め込んで動詞の推定を行う方がよいということである。この原因として'Centrifuge'など,専門的な実験器具を操作する動詞の推定には対象となる実験器具の名称が必要であることが挙げられる。 第三に,候補となる動詞の集合と,BioVL2 デー タセットに現れる動詞の集合との乘離が小さいほど良いプロトコルが得られるということである。これは候補となる動詞の集合が大きくなることで,推定した動詞が BioVL2 データセットに含まれる動詞と異なる確率が高くなり,結果として正解のプロトコルと生成されたプロトコルの差異が大きくなることが原因であると考えられる。 ## 5 おわりに 本研究では,実験映像からの実験者の動作を加味したプロトコル生成を行なった. 本研究におけるプロトコルの評価結果は,実験者の動作の情報を与えることは有用であるが,与える動作の情報が正しいものでなければ,プロトコルの生成において悪影響を及ぼすということを示している.今後の方針として,より正確な動詞の推定手法を用いたプロトコルの生成を行うことが考えられる。 ## 謝辞 本研究は JSPS 科研費 JSPS 21J20250 の助成を受け たものです. ## 参考文献 [1] Baker M. 1,500 scientists list the lid on reproducibility. Nature, Vol. 533, pp. 452-454, 2016. [2] Atsushi Ushiku Atsushi Hashimoto Natsuko Okuda Fumihito Ono Hirotaka Kameko Taichi Nishimura, Kojiro Sakoda and Shinsuke Mori. Biovl2 dataset: Egocentric biochemical video-and-language dataset. Journal of Natural Language Processing, 2022. [3] Atsushi Ushiku, Hayato Hashimoto, Atsushi Hashimoto, and Shinsuke Mori. Procedural text generation from an execution video. In International Joint Conference on Natural Language Processing, pp. 326-335, 2017. [4] Hu Xu, Gargi Ghosh, Po-Yao Huang, Dmytro Okhonko, Armen Aghajanyan, Florian Metze, Luke Zettlemoyer, and Christoph Feichtenhofer. VideoCLIP: Contrastive pretraining for zero-shot video-text understanding. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing (EMNLP), Online, November 2021. Association for Computational Linguistics. [5] Antoine Miech, Dimitri Zhukov, Jean-Baptiste Alayrac, Makarand Tapaswi, Ivan Laptev, and Josef Sivic. HowTo100M: Learning a Text-Video Embedding by Watching Hundred Million Narrated Video Clips. In International Conference on Computer Vision, 2019. [6] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, Gretchen Krueger, and Ilya Sutskever. Learning transferable visual models from natural language supervision. In Proceedings of the International Conference on Machine Learning, pp. 8748-8763, 2021. [7] Chaitanya Kulkarni, Wei Xu, Alan Ritter, and Raghu Machiraju. An annotated corpus for machine reading of instructions in wet lab protocols. In North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 97-106, 2018. [8] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Association for Computational Linguistics, pp. 311-318, 2002. [9] Satanjeev Banerjee and Alon Lavie. METEOR: An automatic metric for MT evaluation with improved correlation with human judgments. In Association for Computational Linguistics, pp. 65-72, 2005. [10] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 74-81, Barcelona, Spain, 2004. Association for Computational Linguistics. & 手順 1 & & 手順 1 & \\ 表 2 フェノールクロロホルム法の映像に対するプロトコル生成結果の例 ## A BioVL2 データセット BioVL2データセットは,生化学分野における実験映像を収集した一人称視点の映像データセットである。生化学分野での基礎的な実験である PCR,ミニプレップ法,アガロースゲル作成,DNA 抽出の 4 種類の実験をそれぞれ 8 動画ずつ撮影している。実験映像の撮影は,実験者の頭にヘッドマウントカメラを取り付け行われており(図 2),計 32 動画,約 178 分の動画像データセットとなっている. また BioVL2 データセットには, (1) 実験映像に対応するプロトコル,及び (2) 実験映像中に現れる試薬, 䒠験器具の映像中のバウンディングボックスの 2 種類のアノテーションが与えられている. ## A. 1 実験映像とプロトコルの対応関係のアノテーション 実験映像に対応するプロトコルは,実験者が実験内容を口頭で説明したものが文書化され与えられている。プロトコルは実験者の動作ごとに手順として区切られており,例えば“Add phenol chloroform and invert violently.”という内容は “Add phenol chloroform”と “Invert violently”という手順に分けられる. また各手順に対して, 実験映像における開始時刻と終了時刻が付与されている. ## A. 2 実験映像中の物体に対するアノテーション 実験映像中の物体対して付与されたバウンディングボックスの例を図 3 亿示す. このアノテーションは,映像から 4 秒ごとにフレームを抽出し,(1)手が物体と触れている,かつ(2)触れている物体がプロトコルに現れる場合に対して, その物体をバウンディングボックスで囲い,物体名を付与することで為されている。 ## B 生成プロトコル例 表 2 亿,実験映像からのプロトコル生成例を示す.ここでは,正解のプロトコル,b-NEのみを入力とした場合, BioVL2 の動詞を動詞推定の候補とした場合,及び VideoCLIP による推定ではなく正解となる動詞を与えた場合について例を示している。なお,動詞推定の際のテンプレート文は動詞と b-NEを埋め込むテンプレート文を利用している。 生成されたプロトコルを見ると,正解の動詞を与えることで,正解のプロトコルに近い動詞を出力できていることがわかる。一方で,VideoCLIP により推定した動詞を与えた場合,誤った動詞を出力してしまっている例が多く見られた。 b-NE のみを用いて生成を行うモデルが出力する動詞は,WLPデータセットで事前学習した際の b-NE との共起関係から得られるものであり,そのようにして得られる動詞を用いる場合よりも,誤って推定した動詞を与える方が,モデルへの悪影響が大きいと考えられる. また,生成されたプロトコル中の “for 5 minutes”や“2001”といった量や時間に関する数值は,WLPデータセット中の共起関係依るものであり,実際の映像からこれらの数值を読み取っているわけではない. プロトコル中のこのような数値が誤っている場合,実験再現の失敗に繋がると考えられるため,実験中の詳細な数値を生成プロトコルに反映する方法について検討する必要がある。 図 2 実験映像撮影の様子 図 3 映像中の物体に付与されたバウンディングボックスの例
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q9-6.pdf
# 会議発話間の関係性推定における マルチモーダル情報活用方法の初期検討 大杉康仁 中辻真 エヌ・ティ・ティレゾナント株式会社 } y.oosugi@nttr.co.jp ## 概要 会議において、相手が自分の発言を支持しているかどうかを知ることは、会議を円滑に進める上で重要である。本研究では、対面会議において、発話と応答のぺアに対し、応答が発話を支持するものかどうかをマルチモーダル情報を用いて推定することを検討する。発話および応答の書き起こしテキスト・音声・顔動画を入力とする Transformer Encoder に基づくモデルを利用し、各モーダルの効果を検証した。複数人会議コーパス AMIを用いた実験では、 テキストモーダルが最も F1 值に影響を与えることが示唆された。 ## 1 はじめに 複数人で行われる会議において、合意が取れている項目を整理し会議を円滑に進めるために、自分の発話と相手の応答との関係性を知ることは重要である。関係性として「納得できたかどうか」[1]や「同意・不同意」「支持・不支持」[2,3] などが挙げられる。ここで、『納得』は自分なりに試行錯誤しながら自ら出した解答である」[4] が、「同意」は「自分も同じ意見であるということを態度に表わすこと」 であり「同意」に類する「支持」は「同意」に比べ継続的な行為とされている1)。そこで本研究では、「同意」や「支持」の方が「納得」よりも外から観察・推定することが容易であり、短時間で行われる発話間の関係性においては「同意」と「支持」はほぼ同一と扱うことができると考え、「支持」に主に着目する。 会議中のある発言に対し別の発言がなされたときの 2 発話間の関係性を分類することは議論マイニングタスクの一つであり、多くの研究がなされている $[2,5,3]$ 。中でも姫野・嶋田 [5] は、企業で頻繁に行 1) https://dictionary.goo.ne.jp/thsrs/4366/meaning/m0u/ 2023/1/4 アクセス 図1 マルチモーダルに基づく発話間の関係性推定タスク われる会議と同様の形式である複数人議論コーパス AMI[6] について 2 発話間の関係性を 9 種類に分類することを検討している。姫野・嶋田の手法は発話の書き起こしテキストを用いるものであるが、音声の抑揚や表情などパラ言語情報・非言語情報も発話間の支持・不支持の関係性を認識する上で重要である。そこで、本研究では、ある話者の発話と、それに対する別の話者の応答について、2 発話間の関係性をマルチモーダル情報を用いて推定することを検討する。ただし、マルチモーダル情報の効果の測定を簡単にするため、相手の発言を支持する発話かそれ以外かという 2 值分類の問題として検討する。 マルチモーダル情報を用いて議論マイニングを行う方法として、各モーダルを BERT[7] や Wav2Vec2.0[8] などの事前学習モデルで独立にエンコードした後で連結べクトルを線形層で変換する方法が提案されている $[2,3]$ 。一方で、マルチモーダル情報を統合する方法として、言語・音声・動画を系列方向に連結して Transformer Encoder[9] に入力することでモーダル間の関係性をより効率よく捉える手法が提案されている $[10,11]$ 。本研究では、この手法を応用し、発話と応答についてそれぞれ Transformer Encoder でマルチモーダル情報を統合した後で線形層を用いて発話と応答の両方を考慮してその関係性を推定する手法について検証する。 (a) (b) 図 2 検討モデル (a) と Encoder の内部構造 (b)。青色部分はテキストの埋め込みを、黄色部分は音声の埋め込みを、緑色部分は動画の埋め込みをそれぞれ表す。 ## 2 問題設定 対面音声会議における発話テキストを対象とした関係性分類タスク [5] では、書き起こしテキストのみを入力として扱っているが、本研究ではそれをマルチモーダルに拡張する。すなわち、図 1 に示す通り、ある話者 $S_{x}$ の時刻 $i$ の発話 $C=\left.\{\boldsymbol{T}_{i}^{x}, \boldsymbol{A}_{i}^{x}, \boldsymbol{V}_{i}^{x}\right.\}$ に対し、話者 $S_{y}$ が時刻 $j$ の応答 $R=\left.\{\boldsymbol{T}_{j}^{y}, \boldsymbol{A}_{j}^{y}, \boldsymbol{V}_{j}^{y}\right.\}$ を行ったとき、発話 $C$ と応答 $R$ の関係性 $z$ を推定する。ただし、 $T_{i}^{*}$ は発話テキストを、 $A_{i}^{*}$ は音声を、 $V_{i}^{*}$ は動画をそれぞれ表す。本論文では、話者 $S_{x}$ と話者 $S_{y}$ は異なり $(x \neq y)$ 、かつ、話者 $S_{x}$ の発話 $C$ を聞いた後、話者 $S_{y}$ が応答 $R$ を行うものとする $(i<j)$ 。 ## 3 検討手法 図 2(a) に本論文で検討した手法の全体像を示す。話者 $S_{x}$ の時刻 $i$ の発話 $C$ と話者 $S_{y}$ の時刻 $j$ の応答 $R$ を別々に Encoder を用いて特徴量化する。それらを次元方向に連結したべクトルを活性化関数を含む 2 層の線形層で変換し、関係性の予測値 $\hat{z}$ を得る。 $ \begin{aligned} & \hat{z}=\operatorname{Linear}(\sigma(\operatorname{Linear}(\text { Concat }(\boldsymbol{c}, \boldsymbol{r})))) \\ & \boldsymbol{c}=\operatorname{Encoder}\left(\boldsymbol{T}_{i}^{x}, \boldsymbol{A}_{i}^{x}, \boldsymbol{V}_{i}^{x}\right) \\ & \boldsymbol{r}=\operatorname{Encoder}\left(\boldsymbol{T}_{j}^{y}, \boldsymbol{A}_{j}^{y}, \boldsymbol{V}_{j}^{y}\right) \end{aligned} $ ただし、Linear $(\cdot)$ は線形層を、 $\sigma(\cdot)$ は活性化関数を、 Concat (.) は次元方向の連結を表す。また、Encoder $(\cdot)$ は Transformer Encoder[9] を用いた各モーダル情報の統合を表し、本論文では図 2(b) に示すように MEmoBERT[11] と同じモデル構造を用いた。以下では各モーダルの埋め込みの方法とその統合方法について説明する。 テキストの埋め込みBERT[7]のトークナイザを用いて発話テキスト $\boldsymbol{T}$ をサブワード系列に分割し、 BERT のサブワード埋め込み $\boldsymbol{a} \in \mathbb{R}^{d_{t} \times L_{t}}$ をテキスト埋め込みとして用いる。ただし、 $L_{t}$ は発話テキストのサブワード系列長を、 $d_{t}$ は特徴量の次元数をそれぞれ表す。 音声の埋め込みフレーム長 $l$ の音声 $\boldsymbol{A}=$ $\left.\{a_{1}, a_{2}, \ldots, a_{l}\right.\}$ について、音響特徵量の埋め込みとして Wav2Vec2.0[8] に基づく特徴量を用いる。ただし、音声のフレーム数は他のモーダルに比べて多いため、フレーム窓 $w$ ごとに平均を取ることで圧縮を行う。また、埋め込み空間の違いを吸収するため線形層による変換を行う。得られる特徵量 $\boldsymbol{a} \in \mathbb{R}^{d_{a} \times L_{a}}$ は下記で表される。 $ \begin{aligned} \boldsymbol{a} & =\left[\boldsymbol{a}_{1} ; \boldsymbol{a}_{2} ; \ldots ; \boldsymbol{a}_{L_{a}}\right] \\ \boldsymbol{a}_{k} & =\operatorname{Linear}\left(\frac{1}{w} \sum_{t=k}^{k+w}\left(\operatorname{Wav} 2 \operatorname{Vec} 2\left(\boldsymbol{A}_{t}\right)\right)\right) \end{aligned} $ ただし、 $L_{a}$ は圧縮後の特徵量数を、 $d_{a}$ は特徵量の次元数を表す。 動画の埋め込み動画 $V$ はフレーム画像 $\left.\{v_{1}, v_{2}, \ldots, v_{L_{v}}\right.\}$ で構成される。本論文では、各フレーム画像を ViT[12]を用いて特徵量化することで、動画特徴量の埋め込み $\boldsymbol{v} \in \mathbb{R}^{d_{v} \times L_{v}}$ を得る。ただし、 $L_{v}$ はフレーム数を、 $d_{v}$ は特徴量の次元数を表す。 また、埋め込み空間の違いを吸収するため線形層による変換を行う。 $ \begin{aligned} \boldsymbol{v} & =\left[\boldsymbol{v}_{1} ; \boldsymbol{v}_{2} ; \ldots ; \boldsymbol{v}_{L_{v}}\right] \\ \boldsymbol{v}_{k} & =\operatorname{Linear}\left(\operatorname{ViT}\left(v_{k}\right)\right) \end{aligned} $ Transformer Encoder を用いた特徵量化各モー ダルの系列長が異なるため、単純な加算は困難で 表 1 TAS データセット ある。そこで、図 2(b) に示すように、各モーダルの埋め込みをセパレータトークン $[\mathrm{SEP}]$ で連結する。このとき、先頭に特殊トークン [CLS] を追加する。それぞれの埋め込みとして BERT のサブワー ド埋め込みを用いる。さらに、系列の位置埋め込み $p$ と、モーダルの区別のための BERT のセグメント埋め込み $e$ を足しこむ。得られた埋め込み系列を Transformer Encoderに入力し、[CLS]トークン位置の隠れ状態 $\boldsymbol{h}$ を発話もしくは応答の特徴量として用いる。 ## 4 評価実験 データセット英語での対面会議を収録した AMI コーパス [6] と、その発話間の関係性を記述した Twente Argument Schema (TAS) データセット [13] を用いた。人手による書き起こしテキストとへッドセットで収録された音声を用いた。また、動画として参加者の正面に配置されたラップトップ PC からの映像を用いた。TAS では「支持する」「支持しない」を含む 9 種類の関係性ラベルが付与されているが、約 $55 \%$ の発話応答ペアに「支持する (Positive)」が付与されておりラベルに偏りが生じている。本研究では相手が自分の発話に同意したかどうかを推定することを目的とするため詳しいラベルは必要ないと考え、TAS の関係性ラベルを「支持する (Positive)」か「それ以外 (Other)」の 2 つに分けて実験を行った。 実験条件 TAS の 94 対話を表 1 に示すように train/dev/test に分割した。実装は Huggingface Transformers ライブラリ [14]を使用し、Transformer Encoder とテキスト埋め込みの初期化には BERT base モデル2)を用いた。音声の埋め込みには Wav2Vec2.0 の base モデル3)を、動画の埋め込みには CLIP[15] の ViT モデル4)を、それぞれ用いた。ただし、学習を簡単にするため、Wav2Vec2.0と ViT のパラメータは固定して用いた。音声について圧縮するためのフレーム窓長 $w$ を 128 に設定した。また、動画につい 2) bert-base-uncased 3) facebook/wav2vec2-base 4) openai/clip-vit-base-patch16表 2 テストデータにおける評価結果:T $\mathrm{A}, \mathrm{V}$ はそれぞれテキスト、音声、動画のモーダルを表す。 ては 25fps で収録されているが、差分の少ない画像が不必要に入力されることを避けるため、1 秒区間の先頭フレームのみを用いるサンプリングを行った。パラメータ最適化には Adam[16] を用い、学習率を $2 \times 10^{-5}$ に、warmup 率を 0.1 に設定して、バッチサイズ 32 で 3 エポック学習した。 5 種類の乱数シードで実験し、その平均值をモデル結果とした。 ## 4.1 評価結果 ## マルチモーダル情報を考慮することで精度は向上 したか? 表 2 より、テキストと音声の 2 つのモー ダルを考慮する場合は、テキストのみを考慮する場合と同程度の精度を達成できたが、動画を加えた 3 つのモーダルを考慮する場合は、テキストモーダルのみを考慮する場合に比べて精度が劣化した。そのため、本検討手法ではマルチモーダル情報の効果は強く見られなかった。 どのモーダルが最も効果的か?表 2 に示す通り、テキスト情報が最も効果的であった。このことから、明示的に話者が発言することで応答している場合には、発話テキストを考慮することが最も効果的と言える。一方で、実際の企業で行われる会議では、発言をせずに態度で支持・不支持を示す場合も存在するため、テキスト情報に依存しない推定方法が必要と考えられる。これは今後の課題として対応していく予定である。 ## 検討手法は音声情報を効果的に扱えているか?音声情報のみを入力した場合、テキスト情報のみを 用いた場合に比べて精度が劣化したため、本検討手法では音声情報は効果的に活用できていない可能性がある。その原因として、Transformer Encoderを BERT のパラメータ(言語ドメイン)を用いて初期化しため、埋め込みの音声ドメインとの乘離が発生 し、それを Linear 層のみでは吸収しきれなかったこ 図 3 フレーム窓 $w$ を変更した時の $\mathrm{T} \cdot \mathrm{A} ・ \mathrm{~V}$ のマルチモーダルモデルの $\mathrm{F} 1$ 值(dev セット) 表 3 TAS データセットの平均フレーム数、および、検出された正面顔のフレーム単位での平均数 とが挙げられる。 ## 音声埋め込みについて短い時間で平均を取ること で精度は向上するか? テキスト・音声・動画の 3 つのマルチモーダルモデルについて、窓幅 $w$ を変更 したときの $\operatorname{dev}$ セットにおける $\mathrm{F} 1$ 値を図 3 に示す。 wを 128 より小さくして短時間で平均を取ったとこ ろ、128 の時よりも精度がわずかではあるが劣化し た。これは、 $w$ が小さいと言いよどみやポーズなど の情報量の少ないフレームが平均値に悪影響を及ぼ す割合が大きくなるため、広い窓幅の方が精度が向上したと考えられる。 ## 検討手法は動画情報を効果的に扱えているか?動画情報のみを入力した場合は他の条件に比べて最 も精度が低かった。検討手法では、動画の時系列情報は位置埋め込みのみで表現されているため、動画 のフレーム間の関係性を捉えきれなかった可能性 がある。また、表 3 に示す通り、利用した動画のフ レーム数と、 $\mathrm{OpenCV}^{5}$ のカカスード分類器で検出 された正面顔のフレーム単位での平均数を調査し た。利用した動画は、各参加者のラップトップ PC から撮影されたものであり、本来はその話者の顔を 写し続けるはずであるが、検出された顔の数は 1 を 下回るものが多く、検出誤りは存在するものの、参加者の正面の顔を正常に撮影できていないフレーム が多かったと言える。そのため、支持・不支持の推定に有用と考えられる表情の特徴を捉えきれずノイ ズになってしまった可能性がある。 ## 5 関連研究 マルチモーダル情報を用いた主張の支持・不支持の推定手法としてディベート対話を用いた研究が挙げられる $[2,3]$ 。しかし、これらは音声とテキストの情報のみを考慮しており、話者の顔動画は考慮できていない。本研究の Encoder の構造は、感情推定の手法として提案された MEmoBERT[11]を参考とした。MEmoBERT は著者の Zhao らが独自に収集した 351 個の映画・テレビ動画を用いて事前学習されているが、初期検討のため本論文では事前学習をしないモデルで評価を行った。 本研究では外部から観察することが比較的容易な 「同意・支持」に着目したが、グループディスカッションやカウンセリングの中で話者の納得度合や説得力、コミュニケーション能力などをアノテーション・モデル化する研究も行われている $[1,17,18]$ 。特に伊藤ら [17] は、言語・音声・動画情報を考慮して会議中の各話者の説得力の高さを他の参加者と比較・推定することを検討しており、異なる話者の情報を比較する点で本研究で検討したモデルと類似しているが、マルチモーダル情報の統合に Transformer Encoderを用いる点で異なる。 ## 6 おわりに 本論文では、対面会議において、発話とその応答のぺアに対し、応答が発話を支持するかどうかをマルチモーダル情報を用いて推定することを検討した。先行研究である MEmoBERT を参考に、 Transformer Encoder にテキスト・音声・動画の埋め込みを連結して入力するモデルを用いた。AMIコー パスを用いた実験では、テキスト情報のみを考慮した場合が最も精度が高く、検討したモデルではマルチモーダル情報、特に動画情報の考慮が十分にできなかった。ただし、正面の顔を撮影できた動画フレームが少なかったため、データとして動画の持つ情報が少なく、本来支持・不支持の推定に有用な表情の情報を十分に活用できなかった可能性も示唆された。今後は、音声・動画をより効果的に活用する手法について検討する。また、発言を伴わない暗黙的な支持・不支持を推定するため、テキスト情報に依存しないモデル構造についても検討する。  ## 参考文献 [1] 松隈亮太, 岡田将吾, 松本妹子, 中元淳. オンラインカウンセリング対話データコーパスの構築と動作シンクロニーの分析. 人工知能学会全国大会論文集, pp. 2I6OS9b03-2I6OS9b03, 2022. [2] Rafael Mestre, Razvan Milicin, Stuart E. Middleton, Matt Ryan, Jiatong Zhu, and Timothy J. Norman. M-arg: Multimodal argument mining dataset for political debates with audio and transcripts. In Proceedings of the 8th Workshop on Argument Mining, pp. 78-88, 2021. [3] Eleonora Mancini, Federico Ruggeri, Andrea Galassi, and Paolo Torroni. Multimodal argument mining: A case study in political debates. In Proceedings of the 9th Workshop on Argument Mining, pp. 158-170, 2022. [4] 今井芳枝, 雄西智恵美, 板東孝枝. 納得の概念分析.日本看護研究学会雑誌, 第 39 巻, pp. 73-85, 2016. [5] 姫野拓未, 嶋田和孝. 複数人議論における発話間の関係を対象とした関係分類. 言語処理学会第 27 回年次大会発表論文集, pp. 981-985, 2021. [6] Jean Carletta, Simone Ashby, Sebastien Bourban, Mike Flynn, Mael Guillemot, Thomas Hain, Jaroslav Kadlec, Vasilis Karaiskos, Wessel Kraaij, Melissa Kronenthal, Guillaume Lathoud, Mike Lincoln, Agnes Lisowska, Iain McCowan, Wilfried Post, Dennis Reidsma, and Pierre Wellner. The ami meeting corpus: A pre-announcement. In Proceedings of Machine Learning for Multimodal Interaction, pp. 28-39, 2006. [7] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the $\mathbf{2 0 1 9}$ Conference of the North American Chapter of the Association for Computational Linguistics, pp. 4171-4186, 2019. [8] Alexei Baevski, Yuhao Zhou, Abdelrahman Mohamed, and Michael Auli. wav2vec 2.0: A framework for selfsupervised learning of speech representations. In Proceedings of Advances in Neural Information Processing Systems, Vol. 33, pp. 12449-12460, 2020. [9] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Proceedings of Advances in Neural Information Processing Systems, Vol. 30, 2017. [10] Md Kamrul Hasan, James Spann, Masum Hasan, Md Saiful Islam, Kurtis Haut, Rada Mihalcea, and Ehsan Hoque. Hitting your MARQ: Multimodal ARgument quality assessment in long debate video. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 6387-6397, 2021. [11] Jinming Zhao, Ruichen Li, Qin Jin, Xinchao Wang, and Haizhou Li. Memobert: Pre-training model with prompt-based learning for multimodal emotion recognition. In Proceedings of IEEE International Conference on Acoustics, Speech and Signal Processing, pp. 4703-4707, 2022 [12] Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, Jakob Uszkoreit, and Neil Houlsby. An image is worth $16 \times 16$ words: Transformers for image recognition at scale. In Proceedings of the 9th International Conference on Learning Representations, 2021. [13] Rutger Rienks, Dirk Heylen, and Erik van der Weijden. Argument diagramming of meeting conversations. In Proceedings of Workshop on Multimodal Multiparty Meeting Processing, pp. 85-92, 2005. [14] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander M. Rush. Transformers: State-of-the-art natural language processing. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing, pp. 38-45, 2020. [15] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, Gretchen Krueger, and Ilya Sutskever. Learning transferable visual models from natural language supervision. In Proceedings of the 38th International Conference on Machine Learning, Vol. 139, pp. 8748-8763, 2021. [16] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Proceedings of 3rd International Conference on Learning Representations, 2015. [17] 伊藤温志, 坂戸達陽, 中野有紀子, 二瓶芙已雄, 石井亮, 深山篤, 中村高雄. グループディスカッションにおける説得力推定のためのマルチパー ティモデル. 人工知能学会全国大会論文集, pp. 3H3OS12a02-3H3OS12a02, 2022. [18] 有岡無敵, 山本賢太, 井上昂治, 河原達也, 中村哲, 吉野幸一郎. 遠隔操作アンドロイドを用いたマルチモーダル説得対話コーパスの収集と分析. 言語処理学会第 28 回年次大会発表論文集, pp. 185-190, 2022.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q9-7.pdf
# 音声言語処理のための注意機構を用いた音声認識仮説統合 叶高朋 1 小川厚徳 ${ }^{1}$ マーク・デルクロア ${ }^{1}$ 渡部晋治 ${ }^{2}$ 1 日本電信電話株式会社 2 カーネギーメロン大学 \{takatomo.kanou.xe, atsunori.ogawa.gx, marc.delcroix.hc\}@hco.ntt.co.jp shinjiwacmu.edu ## 概要 音声要約や音声翻訳などの音声言語処理(Spoken language processing:SLP)の多くは, 音声認識 (Automatic speech recognition:ASR) モデルとテキスト翻訳・要約などの自然言語処理(Natural language processing:NLP)モデルの直列接続で実現されている.このような直接接続のシステム構成では, 音声認識誤りが NLP モデルの性能に悪影響を与えることが知られている. 本研究では, 音声認識誤りの悪影響を低減させるため, 複数の ASR モデルの出力を統合しながら, 翻訳・要約を行う方法を提案する。提案手法は要約・翻訳にとどまらず, 様々な直列接続の SLP システムに適用可能である. 本研究では, まず音声要約と音声翻訳の評価実験を通して提案手法の有効性を確認した。 ## 1 はじめに 音声要約や音声翻訳など, 多くの音声言語処理 (Spoken language processing:SLP)は, 音声認識 (Automatic speech recognition:ASR)モデルと自然言語処理モデル (Natural language processing : NLP) の直列接続で実現されている。このような直列接続のシステムの学習には, 音声と出力テキストの大規模なぺアデータを必要とせず, 個々の ASR モデルと NLP モデルに最先端のモデルを採用することができる。一方, 2 つの異なるモデルの学習と推論が独立して行われるため, 音声認識誤りが後段の NLP モデルの推論に悪影響を与え, SLP システム全体の精度が低下する. このような認識誤り伝搬の問題に対し, 先行研究では認識誤りに対して頑健になるような拡張を NLP モデルに行い, 再学習することで認識誤り伝搬の影響を低減した [1-5]. これらの先行研究では, 1 つの ASR から複数の認識仮説を出力させ, ASR 結果の信頼度などの補助情報を抽出し, 信頼度を基 に複数の認識仮説の統合を行う音声翻訳を提案している.また我々も先行研究において, Bidirectional Encoder Representations from Transformers (BERT) [6] の分散表現に基づいた音声認識仮説の統合に関する手法 [7] を提案し, 複数の認識仮説が音声要約において, 音声認識誤りに対する頑健性を向上させることを確認した。 しかし,これらの先行研究では, 単一の ASR モデルを使い複数仮説を生成しているため, 認識仮説のバリエーションが乏しい. これは, N-best デコー ディングが多様な結果を出力しないことに起因する. さらに, [3-5] では, ASR モデルから補助情報を抽出して, NLP モデルで再学習するため, ASR モデルと NLP モデルで同じ単語辞書を使用しなければならないという制約がある。これは, 従来の直列接続のメリットであった, ASR と NLP モデルの独立性を損なうもので, ASR モデルまた NLP モデル,もしくは両方の性能を低下させる。そのため, 最もよい性能の ASR モデルと言語処理モデルを利用した直列接続でシステムを構成できず, SLP モデルの再学習を行う際に, 初期状態が最適なものではないという問題がある. 次に, 音声認識誤りの影響を低減させる方法として, 音声認識精度を改善し認識誤りそのものを減らす方法がある. 先行研究では, 複数の ASR システムを統合することで音声認識精度を改善できることが報告されている [8-11]. これらシステム統合法では,異なる ASR モデルから出力された仮説を比較することで, 認識誤りの位置を推定し修正することが出来了. 本研究では, それらシステム統合法の中で, 最もよく使われる Recognizer output 投票 error reduction (ROVER) [10] に着目する.ROVER は ASR の後処理として広く利用され, アラインメントと投票の 2 段階の処理を通して認識仮説を統合する [12-16]. ROVER では, 音声認識結果を単語単位で比較・修正するため, ASR モデルと NLP モデルに対して特別な 拡張を必要とせず, 直列接続の独立性を損なわない. しかし, ROVER にもいくつかの問題がある.まず,アラインメントの処理は, 単語単位の動的計画法で行われるため単語同士の類似性や文脈情報を考慮できない. 次に, 投票の処理では, 各システムの認識結果を平等に扱うため, 多くの認識器が間違えた中, 1 つ認識器が正解を出力するような場合は, 正しく修正できない. さらに直列接続の SLP システムでは, 入力音声を一字一句正しく認識した結果が必ずしも良い出力につながらないという問題ある [17].具体的には, ASR モデルはフィラーや言い間違い, 言いよどみなども正しく認識しようとする。しかし, これらは翻訳や要約には不要で, NLP モデルの精度を下げる一因となる。そのため SLP システムでは,最終的な要約・翻訳精度を最大化するような認識結果を用いる必要があるが, ROVER は学習可能な重みを持たないため, 特定のタスクに対して最適化することができない. 本研究では, ROVER に代わる方法として, 複数の ASR モデルの出力結果を NLP モデル内部で統合する方法を提案する. 提案手法では, 注意機構を用いて, 複数の ASR モデルの出力結果をアラインメントし統合する処理を NLP モデルの分散表現に基づいて行う. 注意機構は学習可能な重みをもち, 特定のタスクに最適なシステム統合を学習することが出来了. 提案法は, 直近の我々の研究 [7] から派生し, 階層的注意機構 $[18,19]$ やマルチストリームコンビネーションの研究 [20], マルチモーダル処理の研究 [21] とも関連する. 提案手法では, 複数の ASR モデルの出力結果をマルチストリームとみなし, 注意機構を用いて統合する. 本研究では, 音声翻訳と音声要約において提案手法をROVERなどの先行研究 $[3,4,10,22]$ と比較した. 翻訳と要約では解く問題や, 扱うコンテキスト情報の長さが異なる. 例えば, 翻訳では, 多言語間の複雑な単語の対応関係を学習する必要があるが, 一発話単位で翻訳が行われるため, 複数文にまたがる依存関係を考慮しない。一方, 要約は同一言語間で変換を行うため, 単語の対応関係の学習は容易であるが, 文章全体の要点を見つけるために, 複数文にまたがる依存関係を学習する必要がある. 異なる 2 つのタスクに対して, 本実験では両タスクに共通の Conformer ASR モデル [23]を, 翻訳タスクには Transformer モデル [24]を, 要約タスクには BERTSum モデル [25]をそれぞれ採用して SLP シス Speech signal図 1 ROVER と注意機構を用いた仮説統合の比較. 図内において, 注意機構を用いた仮説統合モジュールを Attention Fusion と表記する。 テムを構築した. 提案手法は,このような異なる夕スクとモデル構造の SLP システムに対して, 最適なシステム統合を行い, 両タスクにおいて性能を改善することができた. ## 2 ASR 仮説の統合 ## 2.1 従来の ASR 仮説統合 複数の ASR 仮説の統合し認識精度を改善する研究としては, Lattice を使った方法や, Minimum Bayes risk decoding を使った方法などが提案されている $[8,9,11]$. 本研究では, その中で最も一般的な手法である ROVER に着目した. ROVER [10] はアラインメントと投票の 2 段階の処理を通して, 異なる長さの認識仮説を統合する。まずアラインメントステップでは, 動的計画法を用いて挿入, 削除, 置換を追加した Word Transition Networkを作成し, 投票ステップでは, 各時間において最も出現頻度も高い認識仮説を正解として採用する. ROVER は ASR の後処理として行われ, 認識結果の単語列を直接比較するため, 様々な SLP システムに取り入れることが出来る. しかし, 単語同士の類似度や文脈情報などの有益な情報を考慮できず, また学習可能な重みも持たない. そのため, 各タスクにおいて, 単語の重要度を考慮して ASR システム統合を行い, SLP システムの性能を最大化するというような最適化ができない. 本研究では, これらの ROVER の持つ問題を解決するため, 注意機構を用いた ASR システムの統合法を紹介する. ## 2.2 ASR 仮説の分散表現 ASR 仮説の統合は, 単語の類似度, 文脈情報などを考慮するため, NLP の分散表現に基づいた統合を行う. ここで入力単語列 $S^{n} \in \mathbb{R}^{L}$ に対する NLP モデルの最初の数層の出力結果を $E^{n} \in \mathbb{R}^{L \times D}$ とする. $ E^{n}=g\left(S^{n}\right), $ ここで, $g(\cdot)$ は NLP モデルの最初の数層の写像処理, $D$ は隠れ層の次元数を表す. ASR システムの総数は $N$ であり, $S^{n}$ は $n$ 個目の ASR が出力した認識結果を表す. 各 $S^{n}$ の長さが異なるため, 事前に最後尾に Maskトークンで Padding を行い各系列を同じ長さ $L$ に揃える. 提案手法と ROVER 法の違いを図 1 に示す. 図 1 中の $h(\cdot)$ は $g(\cdot)$ 以降の隠れ層の処理を表す. ROVER は ASR モデルと NLP モデルのデー 夕受け渡し間に仮説の統合を行うのに対して, 提案手法では, NLP モデルの Encoder 内部で ASR 仮説の統合を行う. ## 2.3 注意機構による仮説アライメント まず, ROVER のアラインメントに相当する処理として, 本研究では注意機構を用いて入力された各 ASR 出力系列の位置合わせを行う。まず, SLP システムの再学習時に, 検証データを元に各 ASR モデルの性能を計測し, 最も性能が高い出力 ASR モデルを同定し, その出力系列を参照仮説 $E^{r}$ とする. 注意機構の Query には参照仮説 $E^{r}$ を Key と Value には任意の ASR システムの出力仮説 $E^{n}$ を用いる. この時は, 参照仮説 $E^{r}$ は任意の認識仮説 $E^{n}$ にも含まれる. 注意機構を用いたアラインメント結果 $\tilde{E}^{n}$ は以下のように得られ, $ \tilde{E}^{n}=\operatorname{softmax}\left(\left(E^{r} W^{Q}\right)\left(E^{n} W^{K}\right)^{\mathrm{T}}\right) E^{n} W^{V} $ ここで, T は転置記号を表す. 提案手法はROVER と比べた際,ソフトアライメントを実現し, Encoder で学習された文脈情報や単語の類似度を考慮できるため, 単語のみでなくフレーズなどより長い単位を考慮したアライメントを実現可能である. 注意機構には Multi-head-attention を採用し, 注意機構は各 Query, Key, Value に対し学習可能な重み $W^{Q}, W^{K}, W^{V} \in \mathbb{R}^{D \times D^{\prime}}$ を持つ. 本研究では, 注意機構の入力次元数 $D^{\prime}$ と出力次元数 $D$ は同じであり,注意機構の重みは正方行列となる.これらの重みを単位行列で初期化する。その理由は, 複数の ASR システム統合を行う際に, ランダムな写像を行うと BERTなどの事前に学習された分散表現を十分に考慮できないために, 学習開始時点では, 注意機構において恒常写像が行われ, 参照仮説が選択されるよう意図したためである.これにより, 事前学習モデルの性能を大きく劣化させずに仮説統合の学習を行うことが出来る. ## 2.4 注意機構による仮説の統合 次に, ROVER の投票に相当するステップでは, 階層的注意機構 $[18,26,27]$ と同様にアラインメントされた各系列の位置 $l$ ごとに異なる $N$ 個の ASR モデルから出力された仮説を統合する. $\tilde{E} \in \mathbb{R}^{N \times L \times D}$ はアラインメント済みの $N$ 個の長さ $L$ の音声認識結果の系列である. この時, 位置 $l の E_{l} \in \mathbb{R}^{N \times D}$ について, 注意機構を用いた統合を以下のようにあらわす. $ \begin{aligned} \alpha_{l} & =\operatorname{softmax}\left(\left(e_{l}^{r}\right)^{\mathrm{T}} W^{Q} \tilde{E}_{l}\right), \\ e_{l}^{\mathrm{att}} & =\alpha_{l} \tilde{E}_{l}^{\mathrm{T}} \end{aligned} $ ここで, $\alpha_{l} \in \mathbb{R}^{1 \times N}$ は各 ASR システムの出力に対する注意重みである. 提案手法と ROVER との違いは,提案手法では正解単語を出現頻度に基づいて仮説単語から選択するのではなく, 特徴空間上で参照仮説と他の仮説の類似度を計算し重みとして, すべての仮説を重ね合わせて正解単語を表現する点である. これにより, 同時に複数の単語の情報を考慮することが可能となる. ## 3 実験 本研究では, 音声要約・翻訳タスクについて関連する先行研究と提案手法の比較を行った. データセットには, TED Talk から作成した要約コーパスである TEDSumarry [7] と Youtube のビデオから作成した HOW2 [28] を採用し, ROUGE [29]・BLEU [30] スコアでの客観評価を実施した。本実験における ASR モデルは ESPnet ${ }^{1)}$ で公開されている Tedlium/HOW2 のレシピに従い構築した. Tedliium は TEDTalk から作成した音声認識コーパスであり, TEDSumarry 用の ASR モデルの学習に用いられる. 要約・翻訳モデルは OpenNMT ${ }^{2}$ をもとに公開されているレシピ・実装3)を用いて構築した。 本実験では, Topline として正解の音声認識結果を翻訳・要約した結果 (0) ASR-GTを採用し, Baseline  として, 評価セットで最も性能の良い ASR システムを用いた結果を (1) ASR w/ASR BPE, BERT と同じ辞書を使用した ASR システムを用いた結果 (3) ASR w/BERT BPE, ROVER ですべての ASR システムの結果を統合し, 翻訳・要約した結果を (3) ROVER に示す. また, 追加で再学習を行う手法として, 音声認識結果で NLP を再学習したシステムである (4) Retrain と, 先行研究である (5) Confidence [22] と我々の先行研究である (6) Nbest fusion [7] を用意し比較した. 表 1 ROUGE スコア (R1, R2, RL)での各システムの比較結果: システム (7) が提案手法 表 1 の結果より, 提案手法は先行研究の (5) Confidence および, 我々の先行研究 (6) Nbest fusion よりも HOW2 データにおいて良い要約性能を示した. 一方で TEDSumarry データにおいては, HOW2 データほど顕著な優位性を確認できていない。これは, TEDSumarry では正解の音声認識を用いる場合でも, 要約が困難で Topline の性能が低く, Baseline との差が少ない. そのため, 性能改善の余地が少ないことが一つの原因だと考えられる. Topline と Baseline の差が少ない理由として, 表 2 に示すように, TEDTalkでの ASR 性能が高く認識誤りが少ないことが考えられる。 次に, 音声翻訳の性能を同様のデータを用いて評価した結果を表 3 に示す. ここで, 翻訳モデルと同じ辞書を使用した ASR システムを用いた結果 (3) ASR w/MT BPE を示す. 表 3 の結果において, 両 表 2 各 BPE サイズと音声認識性能の単語誤り率による評価. $30.5 \mathrm{k}^{*}$ は BERT モデルの単語辞書のサイズ. ROVER は, 各 ASR システムをROVER で統合した際の認識性能 表 3 BLUE スコアによる各音声翻訳システムの評価. システム (7) が提案手法. データに対して提案手法の優位性が確認できた. 翻訳においても, TEDよりも HOW2 データでの Topline と Baseline の差が大きく, 全体的にスコアの差が大きい。これは前述の音声認識性能の差と, 英語 (En) からポルトガル語 $(\mathrm{Pt})$ への翻訳が, 英語からドイツ語(De)へのよりも容易であるためだと考えられる. よってこれらの結果から提案手法について次のようなことが言える. 提案手法は, 複数の ASR システムを NLP 内部で統合することで, 様々なタスク・データにおいて音声認識誤りで劣化する翻訳・要約性能を回復できる. しかし, ASR モデルの性能が高く, NLP モデルの性能が低いケースでは, 音声認識誤りが SLP システムに及ぼす影響が少なく, 精度改善の余地が少ない.加えて提案法は NLP モデルの分散表現に基づいて仮説統合を行うため, NLP モデルの性能が低い場合は, NLP モデルの分散表現が十分に学習されておらず, NLP の分散表現を基に仮説を統合する提案法は効果が小さく, 他の手法との優位な差が出にくいこと考えられる。 ## 4 まとめ 本研究では, ASR と NLPを組み合わせて実現される SLP システムにおいて, 音声認識誤りによる性能劣化を改善する手法を提案した,本提案手法は, ROVER を参考に複数の ASR の出力結果を, NLP の分散表現に基づいて統合する.これにより, 従来 ROVER では難しかった, 単語の類似度や文脈情報を考慮した仮説統合を実現し, 音声要約・翻訳, 双方のタスクで既存手法を上回る音声認識誤りへの頑健性を示した. 今後は, 注意機構による Alimento と統合方法の改善. 他の音声言語処理タスクへの適応などを検討していく。 ## 参考文献 [1] Nicola Bertoldi, Richard Zens, and Marcello Federico. Speech translation by confusion network decoding. In ICASSP, pp. 12971300, 2007. [2] Masaya Ohgushi, Graham Neubig, Sakriani Sakti, Tomoki Toda, and Satoshi Nakamura. An empirical comparison of joint optimization techniques for speech translation. In INTERSPEECH, pp. 2619-2623, 2013. [3] Kaho Osamura, Takatomo Kano, Sakti Sakriani, Katsuhito Sudoh, and Satoshi Nakamura. Using spoken word posterior features in neural machine translation. In IWSLT, 2018. [4] Parnia Bahar, Tobias Bieschke, Ralf Schlüter, and Hermann Ney. Tight integrated end-to-end training for cascaded speech translation. In SLT, pp. 950-957, 2021. [5] Matthias Sperber, Graham Neubig, Jan Niehues, and Alex Waibel. Neural lattice-to-sequence models for uncertain inputs. In IWSLT, pp. 1380-1389, 2017. [6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: pre-training of deep bidirectional transformers for language understanding. In NAACL-HLT, pp. 4171-4186, 2019. [7] Takatomo Kano, Atsunori Ogawa, Marc Delcroix, and Shinji Watanabe. Attention-based multi-hypothesis fusion for speech summarization. In ASRU, pp. 487-494, 2021. [8] Gunnar Evermann and Woodland Philip. Posterior probability decoding, confidence estimation and system combination. In Speech Transcription Workshop, Vol. 27, pp. 78-81, 2000. [9] Björn Hoffmeister, Dustin Hillard, Stefan Hahn, Ralf Schlüter, Mari Ostendorf, and Hermann Ney. Cross-site and intra-site ASR system combination: Comparisons on lattice and 1-best methods. In ICASSP, pp. 1145-1148, 2007. [10] Jonathan Fiscus. A post-processing system to yield reduced word error rates: Recognizer output voting error reduction (rover). In ASRU, pp. 347-354, 1997. [11] Haihua Xu, Daniel Povey, Lidia Mangu, and Jie Zhu. Minimum bayes risk decoding and system combination based on a recursion for edit distance. Comput. Speech Lang., Vol. 25, No. 4, pp. 802-828, 2011. [12] Olivier Siohan, Bhuvana Ramabhadran, and Brian Kingsbury. Constructing ensembles of asr systems using randomized decision trees. In ICASSP, Vol. 1, pp. 197-200, 2005. [13] Venkata Ramana Rao Gadde, Andreas Stolcke, Dimitra Vergyri, Jing Zheng, M. Kemal Sönmez, and Anand Venkataraman. Building an ASR system for noisy environments: Sri's 2001 SPINE evaluation system. In INTERSPEECH, 2002. [14] Yulia Tsvetkov, Florian Metze, and Chris Dyer. Augmenting translation models with simulated acoustic confusions for improved spoken language translation. In EACL, pp. 616-625, 2014. [15] Arne Mauser, Richard Zens, Evgeny Matusov, Sasa Hasan, and Hermann Ney. The RWTH statistical machine translation system for the IWSLT 2006 evaluation. In IWSLT, pp. 103-110, 2006. [16] Christian Fügen, Alex Waibel, and Muntsin Kolss. Simultaneous translation of lectures and speeches. Mach. Transl., pp. 209-252, 2007. [17] Xiaodong He, Li Deng, and Alex Acero. Why word error rate is not a good metric for speech recognizer training for the speech translation task? In ICASSP, pp. 5632-5635, 2011. [18] Zichao Yang, Diyi Yang, Chris Dyer, Xiaodong He, Alexander J. Smola, and Eduard H. Hovy. Hierarchical attention networks for document classification. In NAACL-HLT, pp. 1480-1489, 2016. [19] Jindrich Libovický and Jindrich Helcl. Attention strategies for multi-source sequence-to-sequence learning. In ACL, pp. 196202, 2017. [20] Xiaofei Wang, Ruizhi Li, Sri Harish Mallidi, Takaaki Hori, Shinji Watanabe, and Hynek Hermansky. Stream attention-based multi- array end-to-end speech recognition. In ICASSP, pp. 7105-7109, 2019. [21] Chiori Hori, Takaaki Hori, Teng-Yok Lee, Ziming Zhang, Bret Harsham, John R. Hershey, Tim K. Marks, and Kazuhiko Sumi. Attention-based multimodal fusion for video description. In ICCV, pp. 4203-4212, 2017. [22] Shi-Yan Weng, Tien-Hong Lo, and Berlin Chen. An effective contextual language modeling framework for speech summarization with augmented features. In EUSIPCO, pp. 316-320, 2020. [23] Anmol Gulati, James Qin, Chung-Cheng Chiu, Niki Parmar, Yu Zhang, Jiahui Yu, Wei Han, Shibo Wang, Zhengdong Zhang, Yonghui Wu, and Ruoming Pang. Conformer: Convolutionaugmented transformer for speech recognition. In Interspeech, pp. 5036-5040. ISCA, 2020. [24] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In NIPS, pp. 5998-6008, 2017. [25] Alexandra Savelieva, Bryan Au-Yeung, and Vasanth Ramani. Abstractive summarization of spoken and written instructions with BERT. In SIGKDD, Vol. 2666 of CEUR Workshop Proceedings, 2020. [26] Potsawee Manakul, Mark J. F. Gales, and Linlin Wang. Abstractive spoken document summarization using hierarchical model with multi-stage attention diversity optimization. In INTERSPEECH, pp. 4248-4252, 2020. [27] Tzu-En Liu, Shih-Hung Liu, and Berlin Chen. A hierarchical neural summarization framework for spoken documents. In ICASSP, pp. 7185-7189, 2019. [28] Ramon Sanabria, Ozan Caglayan, Shruti Palaskar, Desmond Elliott, Loïc Barrault, Lucia Specia, and Florian Metze. How2: A large-scale dataset for multimodal language understanding. CoRR, Vol. abs/1811.00347, , 2018. [29] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In ACL, pp. 74-81, 2004. [30] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In ACL, pp. 311-318, 2002.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q9-8.pdf
# 電話音声認識における特定の文脈への ドメイン適応のための合成音声によるデータ拡張 東佑樹 1 友松祐太 ${ }^{1}$ 1 株式会社 AI Shift \{azuma_yuki, tomomatsu_yuta\}@cyberagent.co.jp ## 概要 タスク指向型の音声対話システムでは予約受付や本人確認等のタスクにおいて,予めパターンの決まっている発話内容 (会員番号, 商品 ID, etc.)を認識する場面がしばしば存在する。そこで本研究では,電話音声認識のタスクにおいて,音声合成により生成した音声を用いて転移学習を行い,特定パターンの認識性能の向上を試みた。提案手法では認識したい発話群の読みを正規表現により生成し,それぞれの読みに対応する音声を合成し,転移学習用のデー タとする. 汎用的な音声認識モデルとの認識性能の比較実験をおこなった結果,提案手法は汎用的なモデルを上回る性能を示した。 ## 1 はじめに タスク指向型の音声対話システムでは,一般にユーザの発話を音声認識 (Automatic Speech Recognition; ASR) によりテキストに書き起し,そのテキストをもとにインテント抽出やシステム応答文の選択などの対話戦略を行う,という構成が取られている。そのような音声対話システムでは ASR の認識誤りが後段のタスクの精度を著しく低下させる $[1,2]$ ため, 高い認識性能が求められる. 加えて,ドメインおよびタスク毎に出現する固有名詞や表現は変化するため,それらを適切に認識するために都度モデルの学習が必要となる. 近年の End-to-End 型の汎用の ASR システムは非常に高い性能を発揮するようになった $[3,4]$ が,ドメイン固有の単語は誤認識しやすい傾向にある. ドメイン毎に転移学習用のデータを整備することでこの問題は解決できる可能性があるが,データの作成には多大なコストを必要とする。また,End-to-End 型の ASR は従来の ASR システムに見られるような音響モデルや言語モデル等が統合されているため,ドメインごとの言語モデ ルの切り替えが困難となる。 本研究では,予めパターンの決まっている発話内容を認識するタスクにおいて,多様なパターンの発話を考慮した転移学習の手法を提案する。具体的には認識したい発話群の読みを正規表現により生成し,各読みに対応する音声を合成音声により作成することで,ドメインごとの音声を収集することなくモデルの転移学習を実現する.実験では,番地表現を認識対象とし,自社で運用している音声対話システムを通して録音された音声を用いて, 汎用的に使用される ASR システムとの間で認識性能の比較を行う。これにより提案手法の有効性を示す. ## 2 関連研究 教師あり音声データを使用せずに ASR をドメイン適応させるためにはいくつかのアプローチが提案されている. [5] や [6] ではドメイン適応の選択肢として合成音声を利用している。これらの手法では転移学習時に Encoder 層のパラメータを freeze させることがドメイン外のデータに対する認識性能を向上させるのに有効であることが報告されている。 End-to-End 型の ASR システムにおいて,外部言語モデルを学習時に効果的に利用する手法も提案されている. 代表的な手法としては [7] や [8] などが挙げられる。これらはモデル内部に暗黙的に存在しうる言語モデルをタスクに応じて効果的に調整するための試みである. また,近年では追加の学習を行うことなく専門用語などの低頻度語の認識精度を改善する手法も提案されており $[9,10,11]$ ,これらはデコーディング時に認識させたいキーワードの出力確率を引き上げるアルゴリズムを組み込むことで出力結果の調整を実現している。 本研究では,音響的な特性が事前学習データと大 きく異なる電話音声をターゲットドメインとしており, その特性を転移学習時に考慮するために,合成音声を利用するアプローチを採用する。 ## 3 提案手法及び実験設定 ## 3.1 ASR システム 本実験では,ベースとなる ASR として Conformer [3] を採用し, 電話音声へのドメイン適応を考慮した ASR システムを探求する. モデルの学習には ESPnet[12]を利用し,パラメータ等の学習設定は基本的に CSJ のレシピ1)を踏襲している. このレシピは Hybrid CTC/Attention Architecture[13] を採用しており,学習時に Encoder の出力から CTC $\operatorname{Loss}\left(L^{c t c}\right)$ と Attention Decoder を通した損失 $\left(L^{a t t}\right)$ を個別に計算し,両方のスコアの重み付き和により最終的な損失関数 $L$ を決定する。 $ L=\alpha L^{c t c}+(1-\alpha) L^{a t t} $ また,ESPnetには Shallow Fusion [14](以下,LM) の機能が用意されており,推論時にテキストコーパスのみから学習された言語モデルの出力確率と ASR の出力確率を組み合わせることができる. 本実験では LM の有無による性能の比較も行う。より詳細なモデルの説明はレシピを参照されたい. また,本実験では,汎用的な ASR システムとして Google Speech-to-Text ${ }^{2}$ ) (以下, Google STT) を選択した。これをべースラインとして,後述の評価データを用いて電話音声の性能比較を行う。 ## 3.2 データセット 本実験では,日本語話し言葉コーパス (Corpus of Spontaneous Japanese; CSJ)[15] を事前学習データとして採用した. 転移学習時の学習データ及び検証データは Google Text-to-Speech ${ }^{3}$ (以下, Google TTS) の APIにより生成された合成音声を用いた. 評価データは, 自社で運用している自動音声対話サービス AI Messenger Voicebot ${ }^{4}$ (以下,Voicebot) を通じて収集した電話音声を用いた. 以下,各データの作成手順について記述する。  表 1 番地表現とそれに対応する読みの例. Google TTS にはこのうち対応する読みのテキストを入力として与える \\ ## 3.2.1 事前学習データの前処理 CSJ の音声は $16 \mathrm{kHz}$ でサンプリングされている.一方で,電話音声のサンプリング周波数は $8 \mathrm{kHz}$ である。学習時と評価時のサンプリング周波数のミスマッチを防ぐため,本実験では CSJ の音声を $8 \mathrm{kHz}$ にダウンサンプリングした. さらに,電話音声で用いられる $\mu$-law アルゴリズム [16] によるコンパンディングにより,評価データである電話音声の音質に近づけた.以下,CSJ の音声を $8 \mathrm{kHz}$ にダウンサンプリングさせて学習させた事前学習モデルを Conformer ${ }_{8 k}$ ,さらに $\mu$-law を通したものを Conformer $_{\text {ulaw }}$ と呼ぶ. ## 3.2.2 転移学習データの作成 転移学習用のデータは以下の通りに作成する。まず,認識させたい表現を受理する正規表現を記述する. 本実験では番地表現 (数字とハイフンの組み合わせ+5) であるため,一つの表現に対して複数の読みの候補が存在しうる (例 $: 0 \rightarrow$ レイ, ゼロ, マル). そこで,各表現に対してとりうる読みを列挙した上で,その読みに対応する音声を Google TTS によって作成する (表 1 参照). その際,多様な音声表現を得るために話者 4 種類,音量 3 種類の組み合わせ (計 12 種類) の設定で音声を作成しデータを拡張した。最終的に生成可能な合成音声の量は膨大な数に及ぶため,今回はその中からランダムに分量を選択した 2 種類を用意した.以下,データ量の小さい方,大きい方をそれぞれ small, large と呼ぶ。それぞれのデータの数は表 2 に示す.  あるが,本稿では簡単のため考慮していない。 また,3.2.3 節で述べるように,評価データはユー ザ発話の前後に背景雑音のみの区間が入りうるため, 条件を近づけるため合成音声の前後に無音区間を加えた音声も用意した. 具体的には, 合成音声の前に $0 \sim 5$ 秒の中からランダムな長さの無音区間を追加し, 合計の長さが 5 秒間になるように合成音声の後に無音区間を加える.以下,前述の前処理を加えていない場合,無音を追加した場合をそれぞれ $T T S_{\text {org }}, T T S_{\text {pad }}$ と表す. ## 3.2.3 評価データの作成 評価データは 21 名の日本語話者によって, Voicebotを通して収集した音声 (合計 131 発話) を利用した. 具体的には, bot の発話が終了した時点から次に bot が再度発話を開始するまでの区間をユー ザ発話区間とみなし,当該区間を切り出した。 そのため, 評価データには音声の前後に余分に切り出された背景雑音が含まれうる.この背景雑音区間の有無による性能の影響を検証するため,雑音区間を人手で削除したものもあわせて作成した. 以下,人手で無音区間を切り出した音声を test $_{\text {cut }}$, 切り出す前の音声を test $_{\text {org }}$ と表す. ## 4 実験結果と考察 学習した各モデルの認識性能の評価を表 3 に示 も低い文字誤り率 (Character Error Rate; CER) となった学習設定では, ベースラインよりも高い精度を示したが, test org に対してはむしろ低い精度となった。また,他の条件を揃えた場合 LMを利用しない方が一貫してスコアが改善するという結果になった。そこで,最良の条件時 (事前学習モデル: Conformer $_{\text {ulaw }}$, 学習データ量: large, LM: なし)の転移学習データを前述の $T T S_{p a d}$ に変更したところ, もベースラインを上回る結果となった. 表 3 の実験結果は転移学習時のパラメータの更新箇所を全層に対して行った結果となるが, Encoder を freeze させて実験を行ったところ,性能が著しく悪化するという結果になった (表 4 参照). 先行研究 [5, 6] では転移学習時に Decoder のパラメータを更新することが有効な学習戦略であったのに対し,本実験ではそれに反する結果となった. 先行研究 [5] では Encoder-Decoder ネットワーク [17]を,[6] では RNN-Transducer [18] をべースにした構造を ASR モ表 3 実験結果 & & & 11.7 & 10.7 \\ デルに採用しているが,本実験では ESPnet の CSJ レシピと同様に Hybrid CTC/Attention Architecture[13] を採用している.このモデルは学習時に Encoder からの出力から CTC Loss と Attention Decoderを通した損失を個別に計算し,両方のスコアの重み付き和により最終的な損失関数を決定する。 CTC Loss は Encoder からの出力を線形層に通した後の値をもとに計算されるため, Encoder のパラメーターを freeze してしまうと更新するパラメータ数が極端に少なくなってしまい,学習がうまく進められなくなったと考えられる。 $T T S_{\text {pad }}$ の条件下では, test $t_{c u t}$, test org の双方で性能が向上した. TTS $S_{\text {org }}$ の条件下では, 事前学習時,転移学習時双方において, 人間の発話の前後に背景雑音区間はほとんど含まれない. そのため, 入力音声長と正解データのテキスト長がある程度対応付けられる学習条件になっており, 背景雑音に対し hallucination $[19,20]$ が発生した可能性が示唆され, $T T S_{p a d}$ の条件によりその影響が低減されたと考えることができる. 表 4 更新パラメータの箇所による挙動の変化. なお, 更新パラメータの箇所以外の学習条件は同一 (転移学習デー タは small, $T T S_{\text {org }}$, LM あり)とする. ## 5 まとめ 本研究ではターゲットとなるドメインの学習デー タが得られない状況で,転移学習のためのデータを音声合成により作成する手法を電話音声認識タスクにおいて行った。比較実験の結果,最も良い性能を発揮した学習設定において, 汎用的な音声認識モデルの精度を上回ることを示した. ただし, 前後の無音区間を切り取っていない音声に対する性能の改善 幅は比較的軽微にとどまった。今後は,多様な背景雑音が含まれる音声に対する頑健性の向上について検討を続ける。また,本研究では正規表現が受理する発話のみを対象にドメイン適応しており,多様な話し方や言い間違い,言い淀みなどによる発話の摇れを考慮をしておらず,それらの音声への対処方法は十分ではない.この点に関しても検討していきたい. ## 謝辞 本論文の作成にあたりご協力いただきました,株式会社 AI Shift の杉山雅和氏,戸田隆道氏,二宮大空氏, 株式会社サイバーエージェントの邊土名朝飛氏に厚く御礼申し上げます。また,有益なご助言をいただきました,吉本暁文氏,郡山知樹氏をはじめとする株式会社サイバーエージェントの AI Lab の方々,名古屋工業大学の李晃伸氏,上乃聖氏にこの場を借りて感謝申し上げます. ## 参考文献 [1] Xiujun Li, Yun-Nung Chen, Lihong Li, Jianfeng Gao, and Asli Celikyilmaz. Investigation of language understanding impact for reinforcement learning based dialogue systems, 2017. https://arxiv.org/abs/1703.07055. [2] Bing Liu and Ian Lane. End-to-end learning of taskoriented dialogs. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Student Research Workshop, pp. 67-73, New Orleans, Louisiana, USA, June 2018. Association for Computational Linguistics. [3] Anmol Gulati, Chung-Cheng Chiu, James Qin, Jiahui Yu, Niki Parmar, Ruoming Pang, Shibo Wang, Wei Han, Yonghui Wu, Yu Zhang, and Zhengdong Zhang. Conformer: Convolution-augmented transformer for speech recognition. In Interspeech. [4] Wei Han, Zhengdong Zhang, Yu Zhang, Jiahui Yu, ChungCheng Chiu, James Qin, Anmol Gulati, Ruoming Pang, and Yonghui Wu. Contextnet: Improving convolutional neural networks for automatic speech recognition with global context. In Interspeech, 2020. [5] Mimura Masato, Ueno Sei, Inaguma Hirofumi, Sakai Shinsuke, and Kawahara Tatsuya. Leveraging sequence-tosequence speech synthesis for enhancing acoustic-to-word speech recognition. In 2018 IEEE Spoken Language Technology Workshop (SLT), pp. 477-484, 2018. [6] Jinyu Li, Rui Zhao, Zhong Meng, Yanqing Liu, Wenning Wei, Sarangarajan Parthasarathy, Vadim Mazalov, Zhenghao Wang, Lei He, Sheng Zhao, and Yifan Gong. Developing rnn-t models surpassing high-performance hybrid models with customization capability. In Interspeech, 2020. [7] Anuroop Sriram, Heewoo Jun, Sanjeev Satheesh, and Adam Coates. Cold fusion: Training seq2seq models together with language models. In Interspeech, 2018. [8] Changhao Shan, Chao Weng, Guangsen Wang, Dan Su, Min Luo, Dong Yu, and Lei Xie. Component fusion: Learning replaceable language model component for endto-end speech recognition system. In ICASSP, 2019. [9] Duc Le, Mahaveer Jain, Gil Keren, Suyoun Kim, Yangyang Shi, Jay Mahadeokar, Julian Chan, Yuan Shangguan, Christian Fuegen, Ozlem Kalinli, Yatharth Saraf, and Michael L. Seltzer. Contextualized streaming end-to-end speech recognition with trie-based deep biasing and shallow fusion. In Interspeech, 2021. [10] Mirek Novak and Pavlos Papadopoulos. Rnn-t lattice enhancement by grafting of pruned paths. In Interspeech, 2022. [11] Jung Namkyu, Kim Geonmin, and Chung Joon Son. Spell my name: Keyword boosted speech recognition. In ICASSP, 2022. [12] Shinji Watanabe, Takaaki Hori, Shigeki Karita, Tomoki Hayashi, Jiro Nishitoba, Yuya Unno, Nelson Enrique Yalta Soplin, Jahn Heymann, Matthew Wiesner, Nanxin Chen, Adithya Renduchintala, and Tsubasa Ochiai. Espnet: Endto-end speech processing toolkit. In Interspeech, pp. 2207-2211, 2018 . [13] Shinji Watanabe, Takaaki Hori, Suyoun Kim, John R. Hershey, and Tomoki Hayashi. Hybrid ctc/attention architecture for end-to-end speech recognition. IEEE Journal of Selected Topics in Signal Processing, Vol. 11, No. 8, pp. 1240-1253, 2017. [14] Takaaki Hori, Shinji Watanabe, Yu Zhang, and William Chan. Advances in joint ctc-attention based end-to-end speech recognition with a deep cnn encoder and rnn-lm. In Interspeech, 2017. [15] Kikuo Maekawa. Corpus of spontaneous japanese : its design and evaluation. Proceedings of The ISCA IEEE Workshop on Spontaneous Speech Processing and Recognition (SSPR), pp. 7-12, 2003. [16] Mark A. Castellano, Todd Hiers, and Rebecca Ma. Tms320c6000 $\mu$-law and a-law companding with software or the mcbsp. Technical report, Texas Instruments Inc, 2000 . [17] Dzmitry Bahdanau, Jan Chorowski, Dmitriy Serdyuk, Philémon Brakel, and Yoshua Bengio. End-to-end attention-based large vocabulary speech recognition. In ICASSP, pp. 4945-4949, 2016. [18] Alex Graves, Abdel rahman Mohamed, and Geoffrey Hinton. Speech recognition with deep recurrent neural networks. In ICASSP, 2013. [19] K. Sagae, M. Lehr, E. Prud'hommeaux, P. Xu, N. Glenn, D. Karakos, S. Khudanpur, B. Roark, M. Saraçlar, I. Shafran, D. Bikel, C. Callison-Burch, Y. Cao, K. Hall, E. Hasler, P. Koehn, A. Lopez, M. Post, and D. Riley. Hallucinated $n$-best lists for discriminative language modeling. In ICASSP, 2012. [20] Krithika Ramesh, Ashiqur R. KhudaBukhsh, and Sumeet Kumar. 'beach' to 'bitch' : Inadvertent unsafe transcription of kids' content on youtube. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 36, No. 11, pp. 12108-12118, Jun. 2022.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q9-9.pdf
# Next Sentence Prediction に基づく文脈を考慮した ASR N-best のリランキング 邊土名朝飛 ${ }^{1}$ 友松祐太 ${ }^{1}$ 1 株式会社 AI Shift \{hentona_asahi, tomomatsu_yuta\}@cyberagent.co.jp ## 概要 パイプライン型のタスク指向型音声対話システムにおいて,上流に位置する音声認識システムの音声認識誤りが後続処理に与える影響は大きい. 本研究では,ユーザ発話の ASR 出力の $\mathrm{N}$-best 候補と直前のシステム発話のペアを BERT に入力し, Next Sentence Prediction のアプローチでリランキングすることで,ASR システムの音声認識誤りを低減させることを試みる。また,リランキング性能の向上を目的として,質問応答データセットを用いて BERT の fine-tuning を行う. 実験では,音声認識誤りを付与したデータセットを作成し,リランキング手法適用前後の音声認識誤り率を測ることで有効性を示す. ## 1 はじめに タスク指向型の音声対話システムは,複数のモジュールから構成されるパイプライン型と,1つのモデルで全ての処理を行う End-to-End 型の 2 つに分類される [1]. 一般的なパイプライン型の音声対話システムは,自動音声認識 (Automatic Speech Recognition; ASR)システムを用いて音声データであるユーザ発話をテキストに変換し,後段の各モジュールで言語理解 (Natural Language Understanding; NLU)や行動決定(Policy),対話状態追跡(Dialogue State Tracking; DST)といった処理を行う [1]. パイプライン型の対話システムは各モジュールが独立しているため,機能ごとにモジュールを個別開発することができるほか,各モジュールの入出力が明確であり解釈しやすいという実応用上の利点がある. しかし,先行するモジュールから順番に処理される性質上,あるモジュールで生じたエラーが後続のモジュールにも影響を与え,対話能力が低下してしまう欠点が存在する。特に,パイプラインの上流に位置する ASR システムの音声認識誤りが後続処理 図 1 ASR N-best 候補のリランキングの概要図 に与える影響は大きい。音声認識誤りは汎用 ASR システムを使用した場合により顕著に現れるが, [2] のような特定のドメインに特化した ASR システムを開発するためには多大なコストがかかる.そのため,音声認識誤りを改善することを目的として, BERT[3] などの大規模言語モデルを用いて ASR システム出力の N-best 候補をリランキングする手法が数多く提案されてきた $[4,5,6]$. 本研究では,直前のシステム発話を文脈情報として与え,ユーザ発話の ASR N-best 候補をリランキングすることで,ASR システムの音声認識誤りを低減させることを試みる (図 1 参照). N-best 候補のリランキングは,BERT を用いて Next Sentence Prediction(NSP) を行うことで実現する。 さらに,数が非常に限られている日本語タスク指向型対話のデータセットの代わりに,質問応答データセットを用いて BERT の fine-tuning を行い,リランキング性能を向上させることを試みる。関連研究として,対話状態追跡 (Dialogue State Tracking; DST) タスクにおいては,質問応答データセットを用いて学習することで未知ドメインに対する性能が向上したことが報告されている $[7,8]$. 実験では,音声認識誤りを付与したデータセットを作成しリランキング後の ASR 出力の音声認識誤り率を測ることで,NSP および質問応答データセットを用いた fine-tuning の有効性を検証する。 ## 2 手法 ## 2.1 BERT NSP 最も適した ASR N-best 候補を選択するためのアプローチとして NSPを採用する。NSP は,2つの文を入力として与え, 2 文目が 1 文目に続く文章であるかどうかを識別するタスクである (図 2 参照). BERT-NSP の概要を図 1 に示す. 本研究では, 直前のシステム発話を 1 文目,後続のユーザ発話の ASR N-best 候補を 2 文目とみなし,NSP と同様の枠組みで N-best 候補の“適切さ”のスコアを定量的に推定する. ASR システムが出力した $\mathrm{N}$ 件の認識候補 (N-best) に対し,各候補のスコアをそれぞれ推定した後,スコアが高い順に N-best 候補を並び替える.最終的に,1 番目の候補 (i.e., 最もスコアの高い候補)をASR 出力として選択する. BERT は事前学習として NSP タスクを解いているため, fine-tuning を行わない状態でもある程度は文脈的に適切な N-best 候補を選択できることが期待できる。 図 2 Next Sentence Prediction ## 2.2 QA BERT NSP 質問応答データセットを使用し,質問文を 1 文目,回答文を 2 文目とみなして NSP タスクを解くことで fine-tuningを行う. タスク指向型対話のシナリオの多くは「何日に予約しますか?」 $\longrightarrow \Gamma 12$ 日の月曜日でお願いします」のように質問と回答が交互に行われることで進んでいくことから,質問応答タスクの一種と考えることができる。そこで本研究では,質問応答データセットから「会社の最高責任者を何というか?」セ「社長」のような質問・回答ペアを作成し,それらのデータを用いて BERTを fine-tuning する。これにより,タスク指向型対話に適したモデルとなり, 単純な NSP タスクで事前学習したモデルよりもシステム発話と N-best 候補の間の関係をより適切に捉えることができるようになると考えられる。 図 3 QA BERT NSP モデルの fine-tuning ## 3 実験 本章では,2 章で紹介した手法の評価実験を行う. ## 3.1 実験設定 ## 3.1.1 評価用データセット 評価用データセットとして日本語質問応答データセットである JGLUE[9, 10] の JCommonsenseQAを採用し, dev set(データ数:1,119件)を実験に用いた. JCommonsenseQA は,1つの質問につき 5 つの回答選択肢が提示され,そのうち 1 つが正解となっている Multiple choice task データセットである.検証にあたり,JCommonsenseQA の質問文をシステム発話,回答文をユーザ発話とみなす。ただし,回答文には音声認識誤りは含まれていないため,音声合成エンジンを用いて回答文を音声に変換し,その音声を ASR システムに入力することで音声認識誤りを付与した. 音声合成エンジンは pyopenjtalk ${ }^{1 \text { ) }}$ を,ASR システムは Google Cloud Speech-to-Text ${ }^{2}$ を用いた。音声合成時には,弊社で運用している電話自動応答サービス ${ }^{3}$ の状況に近い音声認識誤りを付与するために,合成音声データのサンプリングレー トを一般的な電話音声のものと同じ $8 \mathrm{kHz}$ にダウ 1) https://github.com/r9y9/pyopenjtalk 2) https://cloud.google.com/speech-to-text 3) https://www.ai-messenger.jp/voicebot/ 表 1 評価結果 ンサンプリングし,音声品質を低下させた.また, ASR システムが出力する $\mathrm{N}$-best 候補の数は最大 10 件(10-best)出力するように設定し,音声認識に失敗したサンプルは除外した. 最終的に評価に用いたデータは 958 件となった. ## 3.1.2 モデル 実験では,質問応答データセットで fine-tuning した BERT(QA-BERT-NSP) および fine-tuning 無しの BERT(BERT-NSP) の 2 つのモデルを用いた. ベースとなる BERT モデルは,東北大学が公開している日本語 $\mathrm{BERT}^{4}$ を採用した。 QA-BERT-NSP の学習には, JGLUE の JCommonsenseQA の train set(データ数:8,939 件)を使用し,質問・回答テキストのペアを作成した.質問・回答テキストのペアの正例と負例の比率は $1: 1$ に設定し,負例サンプルは正解を除いた 4 つの回答選択肢からランダムに 1 件選択することで獲得した. これにより, 17,878 件の学習データを取得した.また,このうち $90 \%$ を学習用データ,残りの $10 \%$ を検証用データセットとした. 学習時のパラメータについては, batch size は 32, learning rate は $5 \times 10^{-5}$, warmup ratio は 0.1 , epoch数は 5 に設定し, Validation loss が最小となったモデルを評価実験に使用した. その他のパラメータについては huggingface transformer のデフォルト設定に従った. ## 3.1.3 評価指標 適切な ASR N-best 候補を選択できたかを測る評価指標として Word Error Rate (WER) と Character Error Rate (CER) を採用した. WER 計算時に用いる Tokenizer は, \$3.1.2 で説明した日本語 BERT のものを使用した. また, 音声認識結果には基本的に含ま 4) https://huggingface.co/cl-tohoku/ bert-base-japanese-whole-word-masking れない句読点(、。)・疑問符(?)・感嘆符(!)はテキスト中から削除して評価を行った。 ## 3.2 結果と考察 実験結果を表 1 に示す.ここで,表中の Oracle, 1-best,Random について説明する。 - Oracle ASR 出力の N-best 候補中から WER, CER が最小となる候補を選択した際の性能. すなわち,リランキング性能の上限值を表している. -1-best ASR 出力の N-best の第 1 候補を選択した際の性能. ・Random ランダムに N-Best 候補を選択した際の性能. 次に, w/ ground truth, w/o ground truthについて説明する。 - $w$ / ground truth ASR 出力の N-best 候補中に正解データ (Ground truth)を含ませた場合の評価結果. - w/o ground truth ASR 出力の N-best 候補中に正解データ (Ground truth) を含めない場合の評価結果. BERT-NSP と QA-BERT-NSP の WER, CER を比較すると,QA-BERT-NSP のエラー率が全ての評価項目で低いことがわかる.このことから, ASR 出力の N-best候補のリランキングタスクにおいては,質問応答データセットで fine-tuning を行うことは有効であることが示唆される。ここで,w/ ground truth と w/o ground truth の結果を比較すると,w/o ground truth における BERT-NSP と QA-BERT-NSP の性能差よりも w/ ground truth における性能差が小さいことがわかる。この結果から,質問応答データセットによる fine-tuning では文脈的に正しい N-best 候補を選択する能力への寄与は小さいということが示唆さ れる。 fine-tuning により文脈的に正しい N-best 候補を選択する能力があまり改善しなかったのにも関わらず,N-best の中に正解データを含めないw/o ground truthにおいて性能に差がでた要因として, fine-tuning により名詞単体の N-best 候補を優先的に選択するようになったことが考えられる. 質問応答データセットの回答は名詞 1 単語であることが多いため,それらのデータを用いて fine-tuning したことにより,名詞らしくない N-best 候補を選択しないような挙動になる. 評価データも同じく質問応答デー タセットを用いているため, 名詞らしくない候補を選ばないようにするだけでもエラー率が改善したと考えられる。 一方,1-best を見ると BERT-NSP と QA-BERT-NSP と比較してエラー率が 10 ポイント前後低いため, より文脈的に正しい N-best 候補を選択できるよう BERT モデルを改善する必要がある. Oracleを見ると, 1-best と比較してエラー率が $1 / 3$ 以下であることから,ASR 出力の N-best 中には正しい出力候補が含まれている可能性が高いことを示しており,リランキングによる改善の余地が大きいといえる. ## 4 おわりに 本研究では,文脈情報として直前のシステム発話と,ユーザ発話の ASR 出力の N-best 候補のペアを BERT に入力し, Next Sentence Prediction のアプロー チでリランキングすることで ASR システムの音声認識誤りを低減させることを試みた。また,リランキング性能の向上を目的として,質問応答データセットを用いて BERT の fine-tuning を行うことの有効性を検証した。音声認識誤りを付与したデータセットを用いた実験の結果,文脈的に正しい N-best 候補を識別する能力への fine-tuning の効果は限定的であることが示唆された。一方で,質問応答データセットで fine-tuning した BERT の方が fine-tuning していない BERT よりもエラー率は低下した.今後の課題として, より詳細なエラー分析と, 多様な音声認識誤りパターンを生成し学習に用いることで音声認識誤りにロバストなリランキングモデルを構築することを検討していきたい. ## 謝辞 本論文の作成にあたりご協力頂きました,株式会社 AI Shift の杉山雅和氏,戸田隆道氏,東佑樹氏,二宮大空氏,下山翔氏にこの場を借りて厚く御礼申し上げます. ## 参考文献 [1] Hongshen Chen, Xiaorui Liu, Dawei Yin, and Jiliang Tang. A survey on dialogue systems: Recent advances and new frontiers. SIGKDD Explor. Newsl., Vol. 19, No. 2, p. 25-35, nov 2017. [2] Yong Zhao, Jinyu Li, Shixiong Zhang, Liping Chen, and Yifan Gong. Domain and speaker adaptation for cortana speech recognition. In 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 5984-5988, 2018. [3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [4] Liyan Xu, Yile Gu, Jari Kolehmainen, Haidar Khan, Ankur Gandhe, Ariya Rastrow, Andreas Stolcke, and Ivan Bulyko. Rescorebert: Discriminative speech recognition rescoring with bert. In ICASSP 2022 - 2022 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 6117-6121, 2022. [5] Shih-Hsuan Chiu and Berlin Chen. Innovative bert-based reranking language models for speech recognition. In 2021 IEEE Spoken Language Technology Workshop (SLT), pp. 266-271, 2021. [6] Joonbo Shin, Yoonhyung Lee, and Kyomin Jung. Effective sentence scoring method using bert for speech recognition. In Wee Sun Lee and Taiji Suzuki, editors, Proceedings of The Eleventh Asian Conference on Machine Learning, Vol. 101 of Proceedings of Machine Learning Research, pp. 1081-1093. PMLR, 17-19 Nov 2019. [7] Shuyang Gao, Sanchit Agarwal, Di Jin, Tagyoung Chung, and Dilek Hakkani-Tur. From machine reading comprehension to dialogue state tracking: Bridging the gap. In Proceedings of the $2 \mathrm{nd}$ Workshop on Natural Language Processing for Conversational AI, pp. 79-89, Online, July 2020. Association for Computational Linguistics. [8] Zhaojiang Lin, Bing Liu, Andrea Madotto, Seungwhan Moon, Zhenpeng Zhou, Paul Crook, Zhiguang Wang, Zhou Yu, Eunjoon Cho, Rajen Subba, and Pascale Fung. Zero-shot dialogue state tracking via cross-task transfer. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 7890-7900, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [9] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese general language understanding evaluation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 2957-2966, Marseille, France, June 2022. European Language Resources Association. [10] 栗原健太郎, 河原大輔, 柴田知秀. Jglue: 日本語言語理解ベンチマーク. 言語処理学会第 28 回年次大会, 2022.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A1-1.pdf
# Representative Data Selection for Sequence-to-Sequence Pre-training Haiyue Song ${ }^{1,2}$ Raj Dabre ${ }^{2}$ Zhuoyuan Mao $^{1} \quad$ Chenhui Chu $^{1} \quad$ Sadao Kurohashi $^{1}$ ${ }^{1}$ Kyoto University ${ }^{2}$ NICT \{song, zhuoyuanmao, chu, kuro\}@nlp.ist.i.kyoto-u.ac.jp $\{$ raj.dabre $\}$ @nict.go.jp } \begin{abstract} Pre-trained sequence-to-sequence models such as BART [1] have helped improve natural language generation quality. However, training large models is resourceconsuming. We propose a data selection algorithm that selects a tiny but representative subset from billion-scale datasets. Experimental results show that pre-training with $0.26 \%$ data and $4.4 \%$ energy consumption achieves about 90\% BLEU scores on machine translation (MT) tasks and ROUGE scores on text summarization tasks, compared to pre-training on the entire dataset. Compared to random selection baselines, it shows lower perplexity (PPL), higher BLEU and ROUGE scores. \end{abstract ## 1 Introduction Pre-training and then fine-tuning is a widely-used paradigm for natural language processing $[2,3]$. However, training pre-trained models such as BART $[1,4]$, IndicBART [5], mT5 [6] usually takes hundreds to thousands of GPU days. Previous works focus on reducing the parameters of the model [7], but there are very few studies [8] related to shrinking the dataset, which can also reduce computational costs. In this work, we propose a clustering-based representative data selection algorithm. As illustrated in Figure 1, we first convert discrete sentences into continuous embeddings. Then, we perform large-scale and efficient clustering of the sentences based on the embeddings. From each cluster, we select several centroid points according to the scale of the cluster. The centroids from each cluster are combined to form the representative subset. Furthermore, we propose to combine an unsupervised outlier detection method to remove noisy data points. We calculate the Figure 1: Centroids of clusters as representative data. Each component stands for one cluster with close sentence embeddings. Mapped to 2-D with t-SNE [9]. center point of the entire embedding space and filter out points distant from the center. Experimental results show that with $0.26 \%$ data of the entire dataset and $4.4 \%$ energy comsumption, it can obtain relatively high performance on MT and text summarization tasks, only 2 to 4 points lower in terms of BLEU and ROUGE scores. ## 2 Related Work Supervised Data Selection In-domain data selection $[10,11,12]$ focuses on extracting sentences from a large general-domain corpus that are most relevant to a target domain. Trusted data or clean selection $[13,14]$ aims to select trusted (clean) data from a general-domain corpus given a small trusted (clean) dataset. They all rank data according to the cross-entropy difference [10] between a general language model (LM) and a target LM, where the target LM is trained on in-domain data, trusted data, or clean data. However, they require supervision and only solve one particular downstream task. ## Small Scale Representative Data Selection Representative data selection finds a small subset of the original dataset that captures the most information. Previous methods include calculating the mutual information and relative entropy [15], converting to a sparse multiple measurement vector problem [16]. They are slow and require large memory, therefore, can only handle approximately 10k data points; however, billions of sentences are used in pre-training. ## 3 Representative Data Selection We introduce the representative data selection approach to extract a fraction from a multi-million to billion scale dataset. It consists of the following steps: Continuous Embedding Conversion In order to perform clustering, we first convert discrete data such as sentences into continuous representations in a common space. Suppose there is a set containing $n$ sentences $S=\left.\{s_{1}, \ldots, s_{n}\right.\}$. We convert $S$ into embedding set $E=\left.\{e_{1}, \ldots, e_{n}\right.\}$ as following: $ e_{i}=f\left(s_{i} \mid \theta\right), \quad f: \mathbb{S} \rightarrow \mathbb{R}^{d} $ where $f$ denotes the sentence-to-vector model, $\theta$ is the parameters of $f, d$ is the dimension of the output vector and $\mathbb{S}$ is a set of all the natural language sentences. Here $f$ can be sent2vec [17] or sentBERT [18]. Outlier Detection We apply an outlier detection algorithm [19] to eliminate noisy data in an unsupervised manner. We first calculate the center of the embedding space $e_{c}$ and filter outliers whose distance from $e_{c}$ is greater than two standard deviations. The de-noised embedding set contains $m$ points, $E^{\prime}=\left.\{e_{1}^{\prime}, \ldots, e_{m}^{\prime}\right.\}$. More precisely: $ \begin{aligned} & e_{c}=\operatorname{center}(E)=\frac{1}{n} \sum_{i} e_{i} \\ & E^{\prime}=\left.\{e_{i}^{\prime} \mid e_{i}^{\prime} \in E,\left.\|e_{i}^{\prime}-e_{c}\right.\|<2 \sigma\right.\} \end{aligned} $ where $\sigma$ denotes the standard deviation. Clustering and Selection Suppose we select a subset $S^{\prime}$ containing $k$ sentences. We first apply efficient K-Means algorithm on GPUs [20] to create $k$ clusters $c_{1}, \ldots, c_{k}$ from $E^{\prime}$. For each cluster $c_{i}$ with size $\left|c_{i}\right|$, we select $\frac{k}{m} *\left|c_{i}\right|$ sentences whose embeddings are the nearest from the center of $c_{i}$, forming $S_{c_{i}}^{\prime}=\left.\{e_{1}^{\left(c_{i}\right)}, \ldots, e_{N}^{\left(c_{i}\right)}\right.\}$ : $ S_{c_{i}}^{\prime}=\underset{\left.\{e_{j}^{\left(c_{i}\right)} \in c_{i}\right.\}}{\arg \min } \sum_{j=1}^{N}\left.\|e_{j}^{\left(c_{i}\right)}-\operatorname{center}\left(c_{i}\right)\right.\| $ where $N=\frac{k}{m}\left|c_{i}\right|$. The representative set $S^{\prime}$ of the entire dataset $S$ is the union of all representative sets from each cluster: $ S^{\prime}=\bigcup_{i=1}^{k} S_{c_{i}}^{\prime}, \quad\left|S^{\prime}\right|=\sum_{i=1}^{k} \frac{k}{m} *\left|c_{i}\right|=k $ ## 4 Experiments ## 4.1 Settings ## Datasets - Pre-train: IndicCorp [21] that contains a total of 458M sentences in 11 Indian languages and English. - MT: PMI dataset [22] from WAT2021 MultiIndicMT task [23]. - Summarization: data in 7 Indic languages from multilingual XLSum dataset [24]. We applied script unification for all Indic languages to Devanagari, following mBART50 [4] and IndicBART [5]. Across all experiments, we used the IndicBART vocabulary of $64 \mathrm{k}$ subwords. ${ }^{1 \text { ) }}$ ## - Pre-train Methods Comparison - w/o Pre-train: directly train on downstream tasks from random parameters initialization. - Random: pre-trained on $k$ randomly selected sentences. - Random+RemoveOutlier (RO): first remove outliers, then apply Random. - Repre: pre-train on $k$ sentences by representative data selection w/o outlier detection. - Repre+RemoveOutlier (RO): first remove outliers, then apply Repre. - Full: use $458 \mathrm{M}$ monolingual sentences in the IndicCorp dataset. We compare proposed Repre and Repre+RO methods with two baselines Random and Random+RO. We set $k$ to $1.2 M$ and select sentences from different languages while keeping their proportions in the IndicCorp dataset. We follow fine-tuning settings in [5]. 1) Download: https://github.com/AI4Bharat/indic-bart ## - Representative Data Selection Settings - Continuous Embedding Conversion: we trained one Sent2vec [17] model for each language on IndicCorp data with default settings and sentence embedding dimension to 768 . - Clustering Algorithm: we used GPU-implemented K-Means in the Faiss toolkit [20]. Model Hyperparameters We followed the settings of IndicBART ${ }^{2}$ and used the yanmmt toolkit ${ }^{3)}$ based on Hugging Face. ${ }^{4}$ ) - Architecture: transformer model of 6 encoder layers and 6 decoder layers with 16 attention heads. - Training: we used 8 GPUs with a batch size of 4,096 tokens during pre-training and 2,048 tokens during fine-tuning. We trained $200 \mathrm{k}$ steps in pre-training and apply early stopping to fine-tuning. ## 4.2 Pre-trained Model Perplexity We report our results in terms of the perplexities obtained on a mix of all dev sets from the PMI dataset that contains high-quality data from 10 Indian languages and English. As shown in Figure 2, proposed Repre method showed approximately 0.15 lower minimal PPL than Random. Furthermore, RO is effective for both Random and Repre methods. ## 4.3 Energy Consumption Comparison - Full: trained on 48 V100 GPUs for 750k steps [5]. - Proposed: trained on 8 V100 GPUs for 200k steps. Therefore, our approach reduces the energy consumption to $4.4 \%$ 5) compared with Full. $^{6 \text { ) }}$ ## 4.4 MT Results As presented in Table 3, proposed methods yield the highest BLEU scores for all pairs compared with baselines. With $4.4 \%$ energy consumption, our results are only 2-4 BLEU points lower than Full. Additionally, RO helps both Random and Repre. 2) https://github.com/AI4Bharat/indic-bart 3) https://github.com/prajdabre/yanmtt 4) https://huggingface.co 5) $(8 * 200 \mathrm{k}) /(48 * 750 \mathrm{k})=4.4 \%$ 6) Training sent 2 vec models and clustering consumes very little energy in comparison. Figure 2: Perplexity curves of pre-trained models on the PMI dev sets. ## 4.5 Summarization Results As expressed by Table 1, proposed methods achieve higher ROUGE-L F-scores than baselines. Especially for low-resource bn language that contains only 80k training points, Repre is more robust than Random. Table 1: ROUGE-L F1 scores on the summarization task. ## 4.6 Outlier Detection Examples We show examples of normal sentences and outliers. We extract 300 English sentences from IndicCorp and apply the outlier detection algorithm to form Figure 3 together with Table 2. We can find that outlier sentences contain more proper nouns and disfluent phrases. Table 2: The corresponding sentences in Figure 3. \\ Table 3: Performance on the MT task. Report sacreBLEU [25] scores on the WAT2021 MultiIndicMT test set. Figure 3: Outlier detection. High-dimensional embeddings are mapped into 3-D points by t-SNE [9]. ## 4.7 Sentence Clustering Examples Table 4 shows the clustering results. In each cluster, the centroid is the most relevant from all other points. For example, in the first cluster, sentences are related to "Earth", "Jupiter", "ocean planet", "Life on Earth" and the sentence related to "Earth" is the centroid. Table 4: Example of clusters. The centroids of the clusters are representative data. \\ ## 5 Conclusion In this paper, we propose a representative data selection algorithm together with an unsupervised outlier detection algorithm. With only $0.26 \%$ data and $4.4 \%$ energy consumption of the full model, proposed methods show reasonable performance on MT and text summarization tasks, and much higher performance compared to baselines. ## Acknowledgement This work was supported by JSPS KAKENHI Grant Numbers JP21J23124. ## References [1] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension. In ACL.2020, pp. 7871-7880, Online, July 2020. [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In NAACL.2019, pp. 4171-4186, Minneapolis, Minnesota, June 2019 [3] Liu Zhuang, Lin Wayne, Shi Ya, and Zhao Jun. A Robustly Optimized BERT Pre-training Approach with Posttraining. In Proceedings of the 20th Chinese National Conference on Computational Linguistics, pp. 1218-1227, Huhhot, China, August 2021. Chinese Information Processing Society of China. [4] Yuqing Tang, Chau Tran, Xian Li, Peng-Jen Chen, Naman Goyal, Vishrav Chaudhary, Jiatao Gu, and Angela Fan. Multilingual Translation with Extensible Multilingual Pretraining and Finetuning, 2020. [5] Raj Dabre, Himani Shrotriya, Anoop Kunchukuttan, Ratish Puduppully, Mitesh M. Khapra, and Pratyush Kumar. IndicBART: A Pre-trained Model for Natural Language Generation of Indic Languages, 2021. [6] Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, and Colin Raffel. mT5: A Massively Multilingual Pre-trained Textto-Text Transformer. In NAACL-HLT.2021, pp. 483-498, Online, June 2021. [7] Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, and Radu Soricut. ALBERT: A Lite BERT for Self-supervised Learning of Language Representations, 2019. [8] Ernie Chang, Xiaoyu Shen, Hui-Syuan Yeh, and Vera Demberg. On Training Instance Selection for Few-Shot Neural Text Generation. In ACL-IJCNLP.2021, pp. 8-13, Online, August 2021. Association for Computational Linguistics. [9] Laurens van der Maaten and Geoffrey Hinton. Visualizing Data using t-SNE. Journal of Machine Learning Research, Vol. 9, No. 86, pp. 2579-2605, 2008. [10] Robert C. Moore and William Lewis. Intelligent Selection of Language Model Training Data. In ACL.2010, pp. 220224, Uppsala, Sweden, July 2010. [11] Amittai Axelrod, Xiaodong He, and Jianfeng Gao. Domain Adaptation via Pseudo In-Domain Data Selection. In EMNLP.2011, pp. 355-362, Edinburgh, Scotland, UK., July 2011. [12] Marlies van der Wees, Arianna Bisazza, and Christof Monz. Dynamic Data Selection for Neural Machine Trans- lation. In EMNLP.2017, pp. 1400-1410, Copenhagen, Denmark, September 2017. [13] Wei Wang, Taro Watanabe, Macduff Hughes, Tetsuji Nakagawa, and Ciprian Chelba. Denoising Neural Machine Translation Training with Trusted Data and Online Data Selection. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 133-143, Brussels, Belgium, October 2018. Association for Computational Linguistics. [14] Wei Wang, Isaac Caswell, and Ciprian Chelba. Dynamically Composing Domain-Data Selection with Clean-Data Selection by "Co-Curricular Learning" for Neural Machine Translation. In ACL.2019, Florence, Italy, July 2019. [15] Feng Pan, Wei Wang, A.K.H. Tung, and Jiong Yang. Finding representative set from massive data. In ICDM.2005, pp. 8 pp.-, 2005. [16] Ehsan Elhamifar, Guillermo Sapiro, and René Vidal. See All by Looking at a Few: Sparse Modeling for Finding Representative Objects. In CVPR.2012, pp. 1600-1607, 2012. [17] Prakhar Gupta, Matteo Pagliardini, and Martin Jaggi. Better Word Embeddings by Disentangling Contextual nGram Information. In NAACL-HLT.2019, pp. 933-939, Minneapolis, Minnesota, June 2019. [18] Nils Reimers and Iryna Gurevych. Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks. In EMNLP-IJCNLP.2019, pp. 3982-3992, Hong Kong, China, November 2019. [19] Stefan Larson, Anish Mahendran, Andrew Lee, Jonathan K. Kummerfeld, Parker Hill, Michael A. Laurenzano, Johann Hauswald, Lingjia Tang, and Jason Mars. Outlier Detection for Improved Data Quality and Diversity in Dialog Systems. In NAACL-HLT.2019, pp. 517-527, Minneapolis, Minnesota, June 2019 [20] Jeff Johnson, Matthijs Douze, and Hervé Jégou. BillionScale Similarity Search with GPUs. IEEE Transactions on Big Data, Vol. 7, No. 3, pp. 535-547, 2021. [21] Divyanshu Kakwani, Anoop Kunchukuttan, Satish Golla, Gokul N.C., Avik Bhattacharyya, Mitesh M. Khapra, and Pratyush Kumar. IndicNLPSuite: Monolingual Corpora, Evaluation Benchmarks and Pre-trained Multilingual Language Models for Indian Languages. [22] Barry Haddow and Faheem Kirefu. PMIndia - A Collection of Parallel Corpora of Languages of India, 2020. [23] Toshiaki Nakazawa, Hideki Nakayama, Chenchen Ding, Raj Dabre, Shohei Higashiyama, Hideya Mino, Isao Goto, Win $\mathrm{Pa} \mathrm{Pa}$, Anoop Kunchukuttan, Shantipriya Parida, Ondřej Bojar, Chenhui Chu, Akiko Eriguchi, Kaori Abe, Yusuke Oda, and Sadao Kurohashi. Overview of the 8th Workshop on Asian Translation. In WAT.2021, pp. 1-45, Online, August 2021. [24] Tahmid Hasan, Abhik Bhattacharjee, Md. Saiful Islam, Kazi Mubasshir, Yuan-Fang Li, Yong-Bin Kang, M. Sohel Rahman, and Rifat Shahriyar. XL-Sum: Large-Scale Multilingual Abstractive Summarization for 44 Languages. In Findings of ACL-IJCNLP.2021, pp. 4693-4703, Online, August 2021. [25] Matt Post. A Call for Clarity in Reporting BLEU Scores.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A1-2.pdf
# 日本語 GPT を用いたトークナイザの影響の調査 井上 誠一 ${ }^{12}$ Nguyen Tung ${ }^{1}$ 中町礼文 ${ }^{1}$ 李 聖哲 ${ }^{1}$ 佐藤 敏紀 ${ }^{1}$ ${ }^{1}$ LINE 株式会社 2 東京都立大学 \{seiichi.inoue, tung.nguyen, akifumi.nakamachi, shengzhe.li, toshinori.sato\}@linecorp.co.jp ## 概要 本研究では,大規模言語モデルである日本語 GPT を用いて,Byte-level Byte Pair Encoding トークナイザの構築方法や語彙サイズの違いによる言語モデルの性能を比較し分析した.具体的には,日本語テキストを対象としたトークナイザ構築において,トークナイザの構築に用いるテキストの事前分割,トークナイズ時の分かち書きの有無,語彙サイズという観点で調査を行った. ## 1 はじめに 近年,GPT-3 [1]をはじめとした大規模言語モデルが注目を集めており,自然言語処理のさまざまなタスクの性能を向上させている. 言語モデルの構築において,モデル化するテキストの単位を検討することは重要であるが,モデルのアーキテクチャや言語,またタスクによって適切なトークナイザは異なる [2]. 例えば,Alyafeai ら [3] は,アラビア語において, 複数の異なるトークナイズ手法を用いて感情分析と文書分類を行っており,ほとんどの夕スクにおいて,単語レベルのトークナイザを小さな語彙サイズで学習させたものが最良の結果となることを示した. また,Pan ら [4] は,トルコ語とウルグアイ語の機械翻訳において,形態素解析を行なった後に Byte Pair Encoding (BPE) [5] の学習を行うことで,通常の BPE を使用する場合に比べて性能が向上することを示した。しかし,これらは GRU [6] や Transformer [7] を対象としており, GPT におけるトークナイザの比較,分析は行われていない。また,GPTでは,トークナイザに Byte-level Byte Pair Encoding (Byte-level BPE) [8] が用いられるが,現時点では対象の言語が英語や韓国語 $[1,9]$ に限られており,日本語を中心としたコーパスに対する Byte-level BPE の分析は行われていない. そこで,本研究では,条件の異なるトークナイザ を用いて,日本語 GPT の事前学習と含意関係認識タスクを用いた転移学習を行い1),トークナイザの違いが言語モデルの事前学習や下流タスクに与える影響を示し,分析する。 以下に本研究の貢献を示す: ・Byte-level BPEトークナイザについて,トークナイザの構築に用いるテキストの事前分割,トー クナイズ時の分かち書きの有無,語彙サイズという観点で比較を行い,分析した。 ・日本語 GPTを用いた含意関係認識タスクにおけるトークナイザの違いによる影響を比較し,分析した. ## 2 関連研究 ## 2.1 Generative Pre-training of a Language Model (GPT) GPT [1,10,11] は,Transformer decoder をべースとした,大規模なコーパスを用いて教師なしで学習される自己回帰型言語モデルである.具体的には, コーパス $\mathrm{X}=\left(x_{1}, x_{2}, \ldots, x_{N}\right)$ の可変長のトークン列を $x_{n}=\left(s_{1}, s_{2}, \ldots, s_{M}\right)$ としたとき,以下の目的関数を最大化することで学習される: $ p\left(x_{n}\right)=\prod_{i=1}^{M} P\left(s_{i} \mid s_{i-k}, \ldots, s_{i-1}\right) $ ただし, $k$ は文脈窓幅であり,条件付き確率 $P$ はニューラルネットワークを用いてモデル化される. ## 2.2 Byte-level Byte Pair Encoding GPT では,トークナイザとして,頻度に基づいた単語分割を学習する手法の一つである Byte-level BPE が用いられている.BPEが文字レベルでのトー クンを学習するのに対し, Byte-level BPE は Byte レベルでトークンを学習しており,基本的には BPE と 1) GPT の構築には Megatron-LM を用いた: https://github. com/NVIDIA/Megatron-LM. 同じアルゴリズムで構築される。 Kim ら [9] は,韓国語を中心としたコーパスを用いて GPTを構築した. トークナイズにおいて,韓国語は英語とは異なる言語特性をもつため,生のテキストを用いてトークナイザの構築を行うのではなく, 形態素解析器を用いてコーパスを事前に形態素に分割してから Byte-level BPEを学習している. しかし,日本語は単語と単語の間にスペースが含まれないなど,韓国語とも言語的な特徵が異なっているため, 日本語において同様の処理を行うことが適切であるかは自明でない. ## 2.3 トークナイザ分析 日本語トークナイザ構築における辞書選択菊地ら [12] は, 日本語 BERT を対象として, トークナイザの入力時において文章を形態素に分割する際に用いる辞書の違いによる性能を,分類タスクを用いて比較した. しかし, 菊池らは, 事前学習とファインチューニングでトークナイザを統一していないため,トークナイザ選択による影響を正確に調査できていない。また,これはトークナイザに SentencePiece [13] を用いた BERT に限定された研究であるため, GPT における Byte-level BPE において同様の結果となるかは定かではない。 語彙サイズの選択Gowda ら [14]は,機械翻訳における適切な語彙サイズに関する分析を行っており,BPEにおいて語彙サイズを大きくすることが性能の向上につながることを示した. また, Xuら [15] も,機械翻訳において,語彙サイズを変化させた時の BLEU [16] のスコアの変化量 (Marginal Utility of Vocabularization: MUV)について最適輸送を用いて最適化する手法を提案した. しかし,これらは日本語を対象とはしておらず,日本語コーパスにおけるトークナイザの語彙サイズについては分析されていない. ## 2.4 含意関係認識 含意関係認識とは,以下に示すようなテキストと仮説を与え,テキストと仮説の間に含意,矛盾,中立のどの関係があるかの判別をシステムで行うタスクである。 テキスト鉢植えの植物のあるテーブルの前で,笑顔の男性の隣に座っている女性が笑っている。 仮説女性は笑っている。 推論判定含意表 1 前処理後の JSNLI データセットの統計量. ## 3 実験 ## 3.1 データセット 事前学習GPT の事前学習には, Wikipedia, ニュースサイト,ブログサイト,新聞等の日本語を中心としたテキストから構築されたコーパスを用いた. 前処理として,重複する文書の削除,ランダムサンプリングを行い,最終的に学習に使用したコー パスのサイズは $10 \mathrm{~GB}$ となった. 評価タスク本研究では,GPTの性能比較のための評価タスクとして日本語 SNLI(JSNLI)デー タセット [17]を用いた. JSNLI は,含意関係認識のデータセットである SNLIを日本語に翻訳したものであり,SNLIに機械翻訳を適用した後,評価デー タにクラウドソーシングによるフィルタリング,学習データに計算機による自動フィルタリングを施すことで構築されている. 本研究では, 公開されているデータセットのうち,フィルタリング後の学習データを用い,それに対し学習コストの問題から, さらに 1/10 のランダムサンプリングを行い,それを9:1で学習データと開発データに分割した. 評価データについては,公開されているものをそのまま用いた. 表 1 にデータセットの統計量を示す. ## 3.2 事前学習 GPT の事前学習において,モデルの Layer 数を 12, Hidden dimension を 512, Attention Head の数を 8 とした。また,学習率は $1 \mathrm{e}-4$, バッチサイズは $56^{22}$ とし, iteration 数は $1,000,000$ とした。 ## 3.3 転移学習 GPT で評価タスクを解く際は,転移学習やファインチューニングによるモデルの調整を行わず,推論時にタスクに関する説明と少量のデモンストレー ションを与える few-shot 設定を用いるのが一般的である.しかし, 本研究では, 計算コストの問題から GPT のパラメータ数を小さくしており, few-shot 設  定では十分な性能が出せないと予測できるため, 評価セットを用いた転移学習を行う.含意関係認識夕スクに向けた転移学習の際は, Zhao ら [18] に従い, テキストと仮説に続く推論判定を文字列で予測させた. 入力に続く文字列を予測させて評価する際は,予測の先頭のトークンを用いて正誤を判定するのが一般的である [19]. そのため本研究では, 正誤判定に用いる予測ラベルを 1 トークンで表現できるように,含意 $\rightarrow$ “正”,矛盾 $\rightarrow$ “誤”,中立 $\rightarrow$ “不可” と正解ラベルを設定した.転移学習において,モデルのアーキテクチャは事前学習と同様にし, 学習率を事前学習時より小さい値の $5 \mathrm{e}-5$, バッチサイズを 32 とした. また, iteration 数は 15,000 とし, 以下では全て最後の iteration におけるモデルのパラメータを用いて評価を行った。 ## 3.4 実験設定 本研究では, GPTのトークナイザとして Byte-level BPE を用いる. トークナイザの比較条件を以下の 3 点とした: ・トークナイザ構築時のテキストの事前分割の有無と辞書選択 ・トークナイズ時の分かち書きの有無 ・トークナイザ構築時の語彙サイズの選択 そして,次に示すように 2 ステップに分けて実験を行なう. 辞書選択と事前分割に関する予備実験まず, トークナイザ構築において,予備実験では語彙サイズを $50,257^{\text {3) }}$ で固定とする.また,トークナイザ構築に用いるテキストは, unidic ${ }^{4)} /$ ipadic $^{5)}$ を用いて事前分割されたものに加えて事前分割を行わないものの 3 種類とする. これらのトークナイザを用いて GPT の事前学習, 転移学習を行い, スコアを元に比較を行う.ただし,上記のトークナイザのうち,事前分割を行ったテキストを用いて構築されたものは,トークナイズ時に分かち書きを行う場合と行わない場合での比較も行う. 予備実験の詳細を表 2 に示した. 語彙サイズの実験語彙サイズの実験では,事前分割の有無と辞書選択, トークナイズ時の分かち書きの有無を,下流タスクの性能が予備実験において  図 1 辞書選択と事前分割に関する予備実験における各トークナイザの事前学習における validation loss の推移 最良だったもので固定とする。語彙サイズについては, 25,257 から 125,257 まで 25,000 ずつ変化させ,予備実験と同様に GPT の事前学習,転移学習を行い,スコアを元に比較を行う。 ## 3.5 予備実験の結果 まず,辞書選択と事前分割に関する予備実験における各トークナイザの統計量を表 2 に示す. 事前分割したテキストを用いて構築されたトークナイザに対しては,トークナイズ時の分かち書きを行った場合と行わなかった場合のトークン化された文章長をそれぞれ別途記載した。トークン長については,事前分割の有無,辞書の違いによって大きな差がないことがわかる.他と比べて, none のトークン長の標準偏差と比べて大きくなっているが,これは,辞書を用いて形態素に事前分割されたテキストを用いてトークナイザを構築する場合,形態素を超えてマー ジが行われないが,生のテキストからマージを学習する none は比較的長いトークンができやすいからであると推測できる. 文章長については,上述の理由から none が一番短くなっている他,トークナイズ時の分かち書きを行った方が僅かに文章長が短くなることが確認された。 これらのトークナイザと条件を用いて事前学習を行った際の loss の推移を図 1 に,転移学習を行なった結果を表 2 に示した. 事前学習の結果からは以下の条件: ・トークナイザ構築に用いるテキストの事前分割を行う ・事前分割には unidic を用いる ・トークナイズ時の分かち書きは行わない で性能が高いことがわかる。転移学習では,評価タスクのスコアは事前学習の結果の傾向と異なり, トークナイズ時の分かち書きを行った方が性能が高 表 2 辞書選択と事前分割に関する予備実験における各トークナイザの統計量と転移学習の結果 表 3 語彙サイズの実験における各トークナイザの統計量と転移学習の結果 い結果となった. 以上の結果を踏まえて,語彙サイズの実験には下流タスクで最もスコアが高かった unidic w/ seg の条件を用いる。 ## 3.6 語彙サイズの実験の結果 語彙サイズの実験における各トークナイザの統計量を表 3 に示す. 語彙サイズが大きくなるに従って,トークン長の平均が長くなり,トークン化された文章長が短くなっていることがわかる. これはマージが増えることでトークン化の際の語彙のマッチ率が上がるためと推測できる。 事前学習における loss の推移を図 2 に,転移学習の結果を表 3 に示す. 事前学習においては,語彙サイズが小さい,つまり文章長が長くなるトークナイザを用いた方が性能が高い傾向がみられた。転移学習での結果は,予備実験での結果の際と同じように事前学習時と異なっており,loss が低くなる小さな語彙サイズで構築されたトークナイザではなく,語彙サイズが比較的大きめな 100,257 のトークナイザを用いた際にスコアが最も高くなっている。 ## 4 議論 予備実験と語彙サイズの実験を通して,トークナイザの統計量と性能の関係性を観察すると,事前学習においては「文章長が長い方が性能が高くなる」 という仮説が得られる. これは,文章長が長くなると,モデルの計算量は増加するため ${ }^{6)}$ ,スケーリングの法則 [20] に類似した現象である可能性も考えら 6) 特に,attention 部分の計算が 2 乗のオーダーで大きくなる. 図 2 語彙サイズの実験における各トークナイザの事前学習における validation loss の推移 れる。予備実験において,転移学習の結果とは異なり,事前学習においては,分かち書きを行わうと性能が悪くなる傾向がみられた。これは,上述の仮説に基づくと,分かち書きを行うことにより,入力がトークナイザ構築に用いたテキストと同じになるため,トークナイズ時の語彙のマッチ率が上がり,平均的に文章長が短くなることで事前学習の性能が悪くなっていると考えられる。語彙サイズの実験においても,同様に結果を解釈することができる。一方で,予備実験,語彙サイズの実験のどちらにおいても,転移学習時は必ずしも上述の仮説通りの結果とはなっていない。これは,下流タスクでは,トークンの持つ性質として,仮説のような機械学習的にメリットのある性質よりも,言語学的な性質の方が重要な場合があるからではないかと考える. ${ }^{7)}$ ## 5 まとめと今後の展望 本研究では,日本語 GPT におけるトークナイザの影響を調査し,様々な条件における性能比較と分析を行った. 今後は,4 節での考察を元に,機械学習的な性質と言語学的な性質の関係性を明らかにするため,他の下流タスクを用いた評価を含めたさらなる調査を行っていきたい. 7) 仮説の極端な例として,「語彙が基本語彙の 256 トークンしかないトークナイザ」を考えると,ほとんどの単語が最小単位で表現され,文章長が長くなるが,事前学習時の性能が仮に良かったとしても,トークナイズされた文章が言語学的に意味を持っているとは言い難い. ## 参考文献 [1] Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, et al. 2020. Language Models Are Few-Shot Learners. Advances in Neural Information Processing Systems, vol. 33, 1877-1901. [2] Sabrina J. Mielke, Zaid Alyafeai, Elizabeth Salesky, Colin Raffel, Manan Dey, Matthias Gallé, Arun Raja, et al. 2021. Between Words and Characters: A Brief History of Open-Vocabulary Modeling and Tokenization in NLP. arXiv [cs.CL]. arXiv. http://arxiv.org/abs/2112.10508. [3] Zaid Alyafeai, Maged S. Al-shaibani, Mustafa Ghaleb, and Irfan Ahmad. 2021. Evaluating Various Tokenizers for Arabic Text Classification. arXiv [cs.CL]. arXiv. http://arxiv.org/abs/2106.07540. [4] Yirong Pan, Xiao Li, Yating Yang, and Rui Dong. 2020. Morphological Word Segmentation on Agglutinative Languages for Neural Machine Translation. arXiv [cs.CL]. arXiv. http://arxiv.org/abs/2001.01589. [5] Rico Sennrich, Barry Haddow, and Alexandra Birch. 2016. Neural Machine Translation of Rare Words with Subword Units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, vol. 1, 1715-25. [6] Junyoung Chung, Caglar Gulcehre, Kyunghyun Cho, and Yoshua Bengio. 2014. Empirical Evaluation of Gated Recurrent Neural Networks on Sequence Modeling. Presented in NIPS 2014 Deep Learning and Representation Learning Workshop. [7] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Ł. Ukasz Kaiser, and Illia Polosukhin. 2017. Attention Is All You Need. In Advances in Neural Information Processing Systems, vol. 30, 5998-6008. [8] Changhan Wang, Kyunghyun Cho, and Jiatao Gu. 2020. Neural Machine Translation with Byte-Level Subwords. In Proceedings of the AAAI Conference on Artificial Intelligence, vol. 34, 9154-9160. [9] Boseop Kim, Hyoungseok Kim, Sang-Woo Lee, Gichang Lee, Donghyun Kwak, Dong Hyeon Jeon, Sunghyun Park, et al. 2021. What Changes Can Large-Scale Language Models Bring? Intensive Study on HyperCLOVA: Billions-Scale Korean Generative Pretrained Transformers. arXiv [cs.CL]. arXiv. http://arxiv.org/abs/2109.04650. [10] Alec Radford, Karthik Narasimhan, Tim Salimans, and Ilya Sutskever. 2018. Improving Language Understanding by Generative Pre-Training. [11] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, and Others. 2019. Language Models Are Unsupervised Multitask Learners. OpenAI Blog 1 (8): 9. [12] 築地俊平, 新納浩幸. Tokenizer の違いによる日本語 BERT モデルの性能評価. 2021. 言語処理学会第 27 回年次大会. [13] Taku Kudo, and John Richardson. 2018. SentencePiece: A Simple and Language Independent Subword Tokenizer and Detokenizer for Neural Text Processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, 66-71. [14] Thamme Gowda, and Jonathan May. 2020. Finding the Optimal Vocabulary Size for Neural Machine Translation. In Findings of the Association for Computational Linguistics: EMNLP 2020, 3955-64. [15] Jingjing Xu, Hao Zhou, Chun Gan, Zaixiang Zheng, and Lei Li. 2021. Vocabulary Learning via Optimal Transport for Neural Machine Translation. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing, vol. 1, 7361-73. [16] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. 2002. Bleu: A Method for Automatic Evaluation of Machine Translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, 311-18. [17]吉越卓見, 河原大輔, 黒橋禎夫. 2020. 機械翻訳を用いた自然言語推論データセットの多言語化. 第 244 回自然言語処理研究会. [18] Tony Z. Zhao, Eric Wallace, Shi Feng, Dan Klein, and Sameer Singh. 2021. Calibrate before Use: Improving Few-Shot Performance of Language Models. arXiv [cs.CL]. arXiv. http://arxiv.org/abs/2102.09690. [19] Neel Alex, Eli Lifland, Lewis Tunstall, Abhishek Thakur, Pegah Maham, C. Jess Riedel, Emmie Hine, et al. 2021. RAFT: A Real-World Few-Shot Text Classification Benchmark. arXiv [cs.CL]. arXiv. http://arxiv.org/abs/2109.14076. [20] Jared Kaplan, Sam McCandlish, Tom Henighan, Tom B. Brown, Benjamin Chess, Rewon Child, Scott Gray, Alec Radford, Jeffrey Wu, and Dario Amodei. 2020. Scaling Laws for Neural Language Models. arXiv [cs.LG]. arXiv. http://arxiv.org/abs/2001.08361.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A1-3.pdf
# End-to-End 学習可能な記号処理層の検討と 数量推論への応用における課題の分析 吉川 将司 ${ }^{1,2}$ Benjamin Heinzerling ${ }^{2}$ 乾 健太郎 ${ }^{1,2}$ 東北大学 ${ }^{1}$ 理化学研究所 ${ }^{2}$ \{yoshikawa, inui\}@tohoku.ac.jp benjamin.heinzerling@riken.jp ## 概要 記号処理の仕組みを DNN の微分可能な層として組み込み,end-to-end 学習可能にする方法を検討し, その応用として四則演算プログラム (電卓) 付き文章読解モデルを構築する. さらに,一般的な設定において提案モデルが電卓を活用するように学習しない問題に対し,人工データにより原因を調査をする。 ## 1 はじめに 本稿では,離散記号処理関数 $F$ を中間層として持つような DNN モデルを構築し,全体を誤差逆伝搬法によって end-to-end に学習する方法を検討する。 また,その応用例として二項四則演算プログラム (電卓) 付き文章読解モデル (図 1)を構築し,数量推論を要する文章読解 (e.g., DROP [1]) に取り組む. ${ }^{1)}$ F は一般的なプログラミング言語における適当な数の引数を取る関数 (サブルーチン) である. 課題として,F の微分則は不明な上,一般にDNN の中間の活性化を離散值に落とせば勾配が消失し, $F$ より上流の層 (図 1 の $\mathrm{N}_{1}$ ) を最終タスクの損失 $\ell(y)$ によって学習させることができない,そこで,本稿では離散分布のサンプリングに対する微分可能な緩和を行う Gumbel Softmax trick (§2) を応用することで,DNNに組み込み end-to-end 学習可能にする $F$ の代替を構築する方法を提示する。 電卓付き文章読解モデル (図 1) は,文章読解において標準的なスパン抽出 $[3,4]$ によるモデル (推論層)への入力を電卓の計算結果で拡張するものである. 項抽出層が電卓への入力を予測し,電卓で四則演算を行い,推論層はその結果を活用して解答を行う. 全体を微分可能にすることで,項抽出層を最終タスクの損失を最小化するように学習できる.数量推論は (文章理解の上に, ) 広大な数の空間の構造  図 1 電卓付き文章読解モデル. 詳細は本文参照. 表 1 事前実験例.DROP dev データ中の比較を問う問題 (Orig) に対し,人手で数量を入れ替え問題を作り変えた (Other; 300 件). 提案モデルは電卓以外の根拠に依り頻繁に誤答してしまった。下の文例は説明のため簡潔であるが,実際は Wikipedia 文章である。 Orig (元の DROP の事例; F 值: 79.4) $\mathrm{X}$ has 2 pens. $\mathrm{Y}$ has 3 pens. Who has more pens? $\Rightarrow \mathrm{Y}$ Other (数量と答えを大㣗替え; F-1: 20.2) $\mathrm{X}$ has 3 pens. $\mathrm{Y}$ has 2 pens. Who has more pens? $\Rightarrow \mathrm{X}$ とその上の演算をモデルに理解させる必要があるが,その仕組みを外部知識層として括りだすことでデータ効率や推論の頑健性において強力なモデルが構築可能と考える. 提案法は潜在変数モデルと関連し(§3),理屈上,モデル全体としては電卓を活用しながら解答するように学習されると期待できる。 しかし,実際に構築したモデルは,期待される形で電卓を使わず,別の根拠に依る解法を選好するようになってしまった. この点が本稿第 2 の課題である. 表 1 は予備実験の結果であるが,DROP [1] の 一部2)でモデルを訓練した後,評価セット中の比較問題 (表中 Orig) に対し手を加え作成した別の事例 (Other) で性能を評価した. ${ }^{3)}$ 比較問題は, 2 つの個体を数的な性質で比較する問題であるが,電卓で数の差を計算し,その符号に従って正しい個体を選択する,というのが最適な戦法に思われる。しかし,表が示すように,モデルは電卓を活用しないだけでなく,問題中の数を入れ替えてもその結果を反映せず,非本質的な根拠に依存しているようである.外部知識層を組み込む場合,モデル全体を end-to-end 学習可能にするだけではなく, モデルにその知識の有用性を認識させることが重要な課題である. ${ }^{4)}$ 本稿では,上述の問題に対し人工的な問題を用い調査を行う。人工データは, 問題の形式に加え, DNN が敏感な分布的な偏りも制御できる. 調査の結果, DROP で典型的な比較問題は電卓がなくとも DNN にとって簡単であり, 問題を少し複雑にすれば提案モデルでも電卓を活用することがわかった。 ## 2 DNN における離散記号変数 提案法は離散潜在変数モデルに関連するため,ここで簡潔にまとめる.5)このモデルは $x$ から $y$ への離散潜在変数 $z \in \mathscr{Z}$ 介した生成過程を表し,パラメータ $\theta, \psi$ の確率分布で以下のように表される. $ p_{\theta, \psi}(y \mid x)=\mathbb{E}_{p_{\theta}(z \mid x)}\left[p_{\psi}(y \mid z, x)\right] . $ DNN ベースの自然言語処理への応用では検索による言語モデル $[6,7]$ が有名である. このモデルでは,入力テキスト $x$ に対し, Wikipedia 記事 $z$ を検索し (モデル $p_{\theta}(z \mid x)$ ), その記事を活用しながら $\mathrm{QA}$ 等の目的タスクを解く(resp. $\left.p_{\psi}(y \mid x, z)\right)$. 多くの場合,潜在空間 $は$ は大であり,訓練では上の期待値は少数のサンプル $\left.\{z_{i}\right.\}_{i=1}^{N}(N \ll|£|)$ で近似される。しかし、これは $\theta$ による勾配の偏推定, ひいて学習の不安定性を招く可能性がある [8]. Gumbel-Softmax (GS) trick 潜在変数モデルの安定した勾配の近似計算のために GS trick [9] が提案されている. 潜在空間 $\mathscr{~} の$ 要素を $d(=|\mathscr{E}|)$ 次元 2) 解答に 2 数の減算を要する比較, 差, 補部問題 1.4 万件 [5]. 3)提案モデルは数量を答える差問題 (How many more pens does $X$ have than $Y$ ?) に対しては安定して高い性能を示す. 4)関連して,検索による言語モデル [6] において,固有表現を重視した事前学習が,他タスクでの性能に大きく貢献するという非自明な結果も注目に値する。 5) 記法: $\mathbf{1}_{k}(k \in \mathbb{N})$ で $k$ 番目の要素が 1 の適当な次元の one-hot ベクトルを表す. $\boldsymbol{x} \in \mathbb{R}^{n}$ に対し, $\operatorname{argmax}(\boldsymbol{x})$ は最大の要素 $x_{k}$ に対応する $\mathbf{1}_{k}$ を返す. argmax に関する議論では簡単のため $x_{k}$ の大きさで同率一位になることはないと仮定する. one-hot ベクトルで表現する $\left(\mathscr{I}=\left.\{\mathbf{1}_{i}\right.\}_{i=1}^{d}\right)$. さらに, $p_{\theta}(z \mid x)$ はスコア関数 $\boldsymbol{f}^{\theta}(x) \in \mathbb{R}^{d}$ と Softmax 関数で表現されると仮定する。 $p_{\theta}\left(z=\mathbf{1}_{i} \mid x\right)=\operatorname{softmax}_{\tau, i}\left(\boldsymbol{f}^{\theta}(x)\right)=\frac{\exp \left(f_{i}^{\theta}(x) / \tau\right)}{\sum_{j} \exp \left(f_{j}^{\theta}(x) / \tau\right)}$. ここで $\tau>0$ は温度パラメータである. Gumbel trick $[10,11]$ によれば式 (1)の期待值に対して, Gumbel 分布 $p_{\varepsilon}$ を用いて以下が成り立つ. ${ }^{6)}$ $ (1)=\mathbb{E}_{\boldsymbol{\varepsilon} \sim p_{\boldsymbol{\varepsilon}}}\left[p_{\psi}\left(y \mid x, \operatorname{argmax}\left(\boldsymbol{f}^{\theta}(x)+\boldsymbol{\varepsilon}\right)\right)\right] . $ $\operatorname{argmax}$ の微分はほとんど至るところ 0 であるため、 GS trick では $\lim _{\tau \rightarrow 0} \operatorname{softmax}_{\tau}(s)=\operatorname{argmax}(s)$ に着目し softmax の期待値を 1 つの Gumbel ノイズ $\boldsymbol{\varepsilon}$ のみを用いて近似しても安定して学習できることが経験的に知られ,以下に対する誤差逆伝播法によって式 (1)のパラメータを end-to-end に最適化することができる.7) $p_{\psi}\left(y \mid x, \operatorname{softmax}_{\tau}\left(f^{\theta}(x)+\boldsymbol{\varepsilon}\right)\right)$ where $\boldsymbol{\varepsilon} \sim p_{\boldsymbol{\varepsilon}}$. また [9] では,順伝搬時には $\operatorname{argmax} を$ 用い,逆伝搬時にその Jacobi 行列 $\frac{\partial \operatorname{argmax}}{\partial s}(s)(=0)$ を softmax のもので代用する Straight-Through Gumbel-Softmax という手法も提案されている. 本稿ではこの亜種の微分可能 $\operatorname{argmax}$ を $\operatorname{argmax}_{\partial}$ と書くことにする. ## 3 微分可能な記号処理層 本研究の鍵は,前節の技術を応用すれば多くの記号処理関数 $F$ を簡単に深層モデルの微分可能な 1 層 $F$ に変換できるということである。この方法は,驚くほどに単純である上, $F$ の上流ネットワーク $\mathrm{N}_{1}$ が $F$ への入力を学習し, 下層ネットワーク $\mathrm{N}_{2}$ に対し $F$ の出力が役立つようなものとなることを保証する. 命題 $1 K$ 個の項空間 $\mathscr{A}_{i}, K$ 引数記号処理関数 $F$ を考える。 $F$ は $\left(a_{1}, \ldots, a_{K}\right) \in \mathscr{A}=\mathscr{A}_{1} \times \cdots \times \mathscr{A}_{K}$ を記号処理の結果を表す可変長のトークン列 $r=\left(r_{1}, \ldots, r_{*}\right) \in \mathscr{V}^{*}$ に変換する.このとき,対応する微分可能な $F$ は, $s \in \mathbb{R}^{|\mathcal{A}|}$ をすべての $\mathrm{a} \in \mathscr{A}$ に対するスコア $s_{\mathrm{a}}$ のベクトルとし、 $R=\left[\mathbf{1}_{r_{1}}, \mathbf{1}_{r_{2}}, \ldots, \mathbf{1}_{r_{*}}\right]^{\top} \in \mathbb{R}^{* *|\mathscr{V}|}$ を $\hat{\mathrm{a}}=\arg \max _{\mathrm{a} \in \mathcal{A}} s_{\mathrm{a}}$ に対する計算結果とした $F: s \mapsto R$ として構築できる. $F$ から $F$ の構築は簡単である. $i$ 番目の項の組み合わせを $\left(a_{i, 1}, \ldots, a_{i, K}\right)$ とし, $F\left(a_{i, 1}, \ldots, a_{i, K}\right)=$ 6) $\varepsilon \in \mathbb{R}^{d} . u_{i}$ を $[0,1]$ 上の一様ノイズとし, $\varepsilon_{i}=-\log \left(-\log u_{i}\right)$. 7)一般の離散分布 $\pi$ に対する GS trick は, softmax $(\log \pi+\varepsilon)$ であるが, $\pi=\operatorname{softmax}\left(\boldsymbol{f}^{\theta}\right)$ の場合 $\operatorname{sof} \operatorname{tmax}\left(\boldsymbol{f}^{\theta}+\boldsymbol{\varepsilon}\right)$ と等しい. $\left(r_{i, 1}, \ldots, r_{i, n_{i}}\right)$, さらに計算結果の one-hot 表現を $E_{i}=\left[\mathbf{1}_{r_{i, 1}}, \ldots, \mathbf{1}_{r_{i, n_{i}}}\right]^{\top}$ とすると, $s$ に対して微分可能 $\operatorname{argmax}$ を適用して得た重み $z$ による $E_{i}$ の重み付き和として $F$ は表現される: $ z=\operatorname{argmax}_{\partial}(s), \quad F(s)=\sum_{i=1}^{|\mathscr{A}|} z_{i} E_{i} $ ここで、可変行数の行列 $E_{i}$ の和は適当に後部に 0 埋めを行うことで可能とする. このようにして得た記号処理層 $F$ は,微分可能 argmax,ひいては潜在変数モデルと関連し,理屈的には $F$ を中間層とするモデルは $F$ を活用するように学習する. この点については付録 $\mathrm{A}$ にまとめる. ## 4 電卓付き文章読解モデル 前節でのアイデアに基づき電卓付き文章読解モデル (図 1)を構築する。 $P, Q$ を文章と質問のトー クン列とし, まとめて $x=(P, Q)$ とする. 変数 $y$ は $Q$ に対する答えである. また $\mathscr{I}(x)$ は電卓への入力候補の集合であり, $x$ に出現するすべての数量のぺアを要素とする. $\mathscr{I}(x)$ の要素は $d=|\mathscr{I}(x)|$ 次元の one-hot ベクトルで表すこともある. 項抽出層まず $x$ 中から電卓への入力 $z \in \mathscr{E}(x)$ を予測する. 確率分布としては以下のように書ける. $ p_{\theta}\left(z=\mathbf{1}_{i} \mid x\right) \propto \exp f_{i}^{\theta}(x) . $ ここで $\boldsymbol{f}^{\theta}(x) \in \mathbb{R}^{d}$ はすべての $(a, b) \in \mathscr{I}(x)$ に対するスコアであり, BERT [12] で $x$ を走査して得た表現ベクトルで, 数量 $a, b$ を表すトークン列で先頭のもの (e.g., “1 \#\# \#2 \#\#3”)を連結し 2 層 ReLU ネットワークで変換して得られる。 電卓層式 (2) に従って抽出された数量に対し,電卓 $F$ は二項四則演算の計算を行い結果を文字列として返す. 本研究では演算として足し算と引き算を用い,すべての演算結果を列挙して返す. 例えば $F(72,23)=" 95=72+23,59=72-23$, $-59=23$ - 72" などとする. この電卓を $\S 3$ の手法に基づき記号処理層 $F$ に変換しモデルに含める. 推論層推論層 $p_{\psi}(y \mid x, F(s))$ は文章読解において標準的なスパン抽出 $[3,4]$ によるものであるが,質問 $Q$, 文章 $P$ に加え電卓の計算結果文字列 $F(s)$ からも回答を抽出することができる点が異なる. $ p_{\psi}(y \mid x, F(s))=\sum_{(s, t) \in \mathcal{Y}(x, y)} q_{\psi}((s, t) \mid x, F(s)) $ ここで, $y(x, y)$ は添字の組 $(s, t)$ であり,トークン列“[CLS] $Q$ [SEP] $P$ [SEP] $F(s)$ [SEP]” 上で $s$ か表 2 実験データの例. 斜体で示した部分を譲渡文と呼ぶ. どちらの問も根拠として, 9,816,091 (- 6,224,450)> $3,002,489$ である (括弧内は譲渡文ありの場合). P: John has 5,903,204 grapes, Mark has 8,907,756 grapes, Ryan has 7,646,494 grapes, Anna has 9,816,091 grapes, Kenneth has 8,091,683 grapes, Johnny has 1,078,950 grapes, Carl has 3,002,489 grapes, Alice has 5,953,680 grapes, Grace has 6,279,638 grapes, Kyle has 6,940,318 grapes, Anna gave 6,224,450 grapes to Grace. $\max \mathbf{Q}$ : What is the maximum number of grapes owned either by Anna or Carl? A: 3,591,641 $\operatorname{argmax} Q$ : Who has more grapes: Anna or Carl? A: Anna ら $t$ 番目のトークン列が $y$ に一致するようなものの集合である. $q_{\psi}$ は BERT で同じ文字列を走査して得たベクトル列の関数である. 訓練上述の 3 層を合成すると、提案モデルは $p_{\psi}\left(y \mid x, F\left(\boldsymbol{f}^{\theta}(x)\right)\right)$ である. GS trick (§2) との関連から,このモデルの訓練には,電卓の使い方を探索するため Gumbel ノイズ $\varepsilon \sim p_{\varepsilon}$ を加える. 従って,学習では訓練データ上で以下の損失を最小化する。 $ \ell_{\mathrm{end}}=-\log p_{\psi}\left(y \mid x, F\left(\boldsymbol{f}^{\theta}(x)+\boldsymbol{\varepsilon}\right)\right) $ 注意として,順伝搬時に動的に得られた電卓の計算結果トークン列 $F(\hat{z})\left(\right.$ with $\left.\hat{z}=\operatorname{argmax}\left(\boldsymbol{f}^{\theta}(x)+\boldsymbol{\varepsilon}\right)\right)$ 中にラベル $y$ が含まれる場合,モデルはそのスパンも抽出するように更新される. 層ごとの教師信号提案モデルの強みの 1 つに,層ごとの訓練が可能なことがある. 具体的に,本研究では項抽出層に対して専用の教師信号 $\ell_{\text {arg }}$ を加えることを考える. 訓練事例 $(x, y)$ に対し $y$ が数量であれば $x$ 中の 2 数 $(a, b)$ で $F(a, b)$ が $y$ を含むようなものを全探索し抽出層の訓練に利用する。このようにして得たラベルと式 (2)の間の binary cross entropy を $\ell_{\text {arg }}$ とし, $\ell_{\text {end }}+\ell_{\text {arg }}$ で全体を訓練する.以下の実験では,人工的な設定ゆえに真の項抽出ラベルが手に入るが,現実的な問題設定を考慮して上の手続きで得られるもののみをラベルとして利用する. ## 5 実験 実験データ実験には表 2 のような人工文章読解問題を用いる。人工データは,問題の構造そのものに加え,モデルが敏感なデータの偏りを制御できる. 基本的に,ランダムに人が所有する物体 (grapes, 表 3 主な実験結果 (F1/項正答率). 各設定ごとに訓練・評価に用いるデータは異なる. 列は含まれる問題のタイプ,行は各事例に譲渡文が含まれるかを表す。 表 4 汎化実験. 6 析以下の数字のみを含む 2 万件で訓練後, 7 桁の $\operatorname{argmax}$ 問題のみの評価セットで $\mathrm{F} 1$ /項正答率を評価。訓練/評価セットいずれも譲渡文を含む。 } & argmax & $72.0 /-$ & $74.9 / 2.0$ \\ \cline { 2 - 4 } & max+argmax & - & $78.5 / 99.8$ etc.) を列挙し,それらの間の max/argmax 関係を問う. 析数に基づいて大小関係が推論できてしまうことを防ぐため, 明示的に言及しない限り出現する数をすべて 7 桁で固定する。特殊な場合として,譲渡文 (例最後の斜体文)を含める。このとき,質問は必ず譲渡イベントに参与した人について問うことにする。譲渡文なしでは,数量推論として所有物の数量の比較が必要であるが, 譲渡文ありの場合は譲渡による所有物の数量の変化を含む 2 段階の計算をする必要がある. 訓練/評価には 2 万 $/ 2$ 千件を用いる.問題の構造上, 項抽出損失 $\ell_{\text {arg }}$ は譲渡文ありの $\max$問題の一部のみ ${ }^{8}$ に与えられ,argmax 問題ではタスク損失 $\ell_{\text {end }}$ から抽出方法を学習する必要がある. 項抽出層,推論層では bert-base-uncasedを用い,パラメータを共有させる。既存研究 [4] に従い,入力中の数量は桁ごとに分割する (例: $123 \mapsto 1$ \#\#2 \#\# 3). 評価指標として, DROP と同様のF1 スコアと項抽出の正答率 (2 項完答で 1 点) を報告する. 項抽出は,譲渡文なしの場合は所有物の数量の比較に関するもの, 譲渡文ありの場合は譲渡による数量の変化に関係する 2 項を正解とみなす. ## 5.1 実験結果 表 3 亿問題のタイプ,譲渡文の有無を変えて訓練と評価を行った結果を示す. 譲渡文なしの $\operatorname{argmax}$問題は, 構造的に DROP の比較問題に対応するが, §1での予備実験と同様に提案モデルは高い $\mathrm{F} 1$ を示す一方で,電卓は活用できていないことが観察できる. 図 2 は,同じモデルで $\operatorname{argmax}$ 問題の事例を解かせたときに,入力と電卓計算結果のどのトークンに注目しているかを勾配べースの手法 [13] で可視化 8)表 2 の例において譲渡文が Douglas gave 7,000,000 grapes to Grace. であれば max Q の答えが変わるため存在しない. 図 2 譲渡文なし, argmax 問題で訓練したモデルによる評価事例中のトークン重要度. $\hat{s}$ と $\hat{y}$ を項抽出層, 推論層の予測とし, 各トークン $x_{i}$ の推論層入力の埋め込み表現 $\boldsymbol{e}_{x_{i}}$ について $\left.\|\nabla_{\boldsymbol{e}_{x_{i}}}\left(-\log p_{\psi}(\hat{y} \mid x, F(\hat{\boldsymbol{s}}))\right)\right.\|$ の大きさを示す. したものであるが,モデルが敏感に反応しうるデー タの偏りを極力廃した人工データでは,明らかに比較すべき人物と関連する数量 (の最初の数桁) に注目しており,この種の問題では電卓を利用せずとも BERT 内部で解法を見つけることが可能であると示唆される。同様の観察から譲渡文なしの max 問題も電卓を使わずに解くことができるようである. 譲渡文ありの実験においては, $\max$ の設定で項正答率が $100 \%$ に達した. この事の要因の 1 つに, この設定では項抽出損失 $\ell_{\text {arg }}$ の効果があると推察される。また $\operatorname{argmax} のみ, ~ \max$ と $\operatorname{argmax}$ 両方を含む場合の 2 つを比べると後者の項正答率の高さから, max で得た電卓の使い方を $\operatorname{argmax}$ 問題に般化して活用するように学習できていることが観察される. これらから,現状の提案モデルが電卓を使うためには,(1) 2 段の推論を要する等数量推論問題が簡単すぎないこと,(2) max 問題等で項抽出の仕方を少し教えることの 2 点が有効であることが推測される. 最後に,提案モデルの未知の析の数に対する頑健性を評価した (表 4). 表 2 と同じ譲渡文ありの事例で 6 析以下の数のみ含む 2 万件 ${ }^{9)}$ で訓練した後, 7 枌の数のみ出現する 2 千件で評価したところ,電卓を活用できるモデルが最も高い頑健性 (F1) と動作の解釈性 (項正答率)を有していることがわかった. ## 6 終わりに 本稿では記号処理関数をDNN の微分可能な層として組み込む方法を検討し,その応用として電卓付き文章読解モデルを構築した.前者の鍵は Gumbel-Softmax trickを拡張することである.応用では,人工データによる実験でモデルの挙動の癖が明らかになったが,一般的な設定で電卓の有用性をモデルに認識させることは今後の課題である. 9) [14] に倣い,事例に出現する数量 $v$ を $d \sim U\{1, \ldots, 6\}, v \sim$ $U\left[10^{d-1}, 10^{d}-1\right]$ の 2 段階の一様サンプリングで得ることで事例に含まれる数が大きな値に偏ることを防いだ。 謝辞本研究は JST CREST JPMJCR20D2 及び JSPS 科研費 20K23314, 21K17814 の助成を受けたものです. ## 参考文献 [1] Dheeru Dua, Yizhong Wang, Pradeep Dasigi, Gabriel Stanovsky, Sameer Singh, and Matt Gardner. DROP: A reading comprehension benchmark requiring discrete reasoning over paragraphs. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 2368-2378, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] 吉川将司, 乾健太郎. 離散記号処理に対する近似的な微分構造の考察と数量推論を要する文章読解問題への応用. 言語処理学会年次大会発表論文集, 3 月 2021 [3] Jambay Kinley and Raymond Lin. NABERT+: Improving numerical reasoning in reading comprehension. https: //github.com/raylin1000/drop-bert, 2019. [4] Mor Geva, Ankit Gupta, and Jonathan Berant. Injecting numerical reasoning skills into language models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 946-958, Online, July 2020. Association for Computational Linguistics. [5] Tushar Khot, Daniel Khashabi, Kyle Richardson, Peter Clark, and Ashish Sabharwal. Text modular networks: Learning to decompose tasks in the language of existing models, June 2021. [6] Kelvin Guu, Kenton Lee, Zora Tung, Panupong Pasupat, and Mingwei Chang. Retrieval augmented language model pre-training. In Hal Daumé III and Aarti Singh, editors, Proceedings of the 37th International Conference on Machine Learning, Vol. 119 of Proceedings of Machine Learning Research, pp. 3929-3938, Virtual, 13-18 Jul 2020. PMLR. [7] Patrick Lewis, Ethan Perez, Aleksandra Piktus, Fabio Petroni, Vladimir Karpukhin, Naman Goyal, Heinrich Küttler, Mike Lewis, Wen-tau Yih, Tim Rocktäschel, Sebastian Riedel, and Douwe Kiela. Retrieval-augmented generation for knowledge-intensive nlp tasks. In H. Larochelle, M. Ranzato, R. Hadsell, M. F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 9459-9474. Curran Associates, Inc., 2020. [8] Ronald J. Williams. Simple statistical gradient-following algorithms for connectionist reinforcement learning. Machine Learning, Vol. 8, No. 3, pp. 229-256, 1992. [9] Eric Jang, Shixiang Gu, and Ben Poole. Categorical reparametrization with gumbel-softmax. In Proceedings International Conference on Learning Representations 2017. OpenReviews.net, April 2017. [10] Emil Julius Gumbel. Statistical Theory of Extreme Values and Some Practical Applications. A Se- ries of Lectures. U.S. Government Printing Office, 1954. [11] Chris J. Maddison, Andriy Mnih, and Yee Whye Teh. The concrete distribution: A continuous relaxation of discrete random variables. In International Conference on Learning Representations, 2017. [12] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 41714186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [13] Karen Simonyan, Andrea Vedaldi, and Andrew Zisserman. Deep inside convolutional networks: Visualising image classification models and saliency maps, 2014. [14] Rodrigo Nogueira, Zhiying Jiang, and Jimmy Lin. Investigating the limitations of transformers with simple arithmetic tasks, 2021 ## A $\quad \boldsymbol{F$ の上流ネットワーク $\mathrm{N}_{1}$ の学習} 本稿の目的は記号処理関数を DNN の 1 層とし, ネットワークとの合成関数 $x \xrightarrow{\mathrm{N}_{1}} \boldsymbol{s} \xrightarrow{F} F(\boldsymbol{s}) \xrightarrow{\mathrm{N}_{2}} y$ を end-to-end に学習することであった (図 1).これに関する自然な疑問として,この予測 $y$ に対する損失によりモデル全体を訓練したときに, $\mathrm{N}_{1}$ は $F$ を介して $\mathrm{N}_{2}$ に有用な記号処理計算結果を渡すようになるだろうか,ということがある。これについては,GS trickとの関係で肯定的に答えることができる. 命題 2 入力 $x$, 予測 $y, \mathrm{~N}_{1}(x)=s, s$ は $F(=F)$ に入力されるとする. さらに $\mathrm{N}_{1}$ は $p_{\theta}\left(z=\mathbf{1}_{i} \mid x\right) \propto$ $f_{i}^{\theta}(x), \mathrm{N}_{2}$ は $p_{\psi}(y \mid x, F(z))$ をモデル化する.このとき, Gumbel ノイズで摂動されたこれらの合成 $x \xrightarrow{\mathrm{N}_{1}} \boldsymbol{s} \xrightarrow{F} F(\boldsymbol{s}) \xrightarrow{\mathrm{N}_{2}} y$ は, $ p_{\psi}\left(y \mid x, F\left(\boldsymbol{f}^{\theta}(x)+\boldsymbol{\varepsilon}\right)\right) \text { with } \boldsymbol{\varepsilon} \sim p_{\varepsilon}, $ であり,これは離散潜在変数モデル $p_{\theta, \psi}(y \mid x)$ を近似的にモデル化する. 計算結果 $F^{\prime}$ の条件付き分布 $p\left(F^{\prime} \mid z\right)$ を仮定すれば $p_{\theta, \psi}(y \mid x)$ は以下のように展開できる. $ p_{\theta, \psi}(y \mid x)=\sum_{z} \sum_{F^{\prime}} p_{\psi}\left(y \mid x, F^{\prime}\right) p\left(F^{\prime} \mid z\right) p_{\theta}(z \mid x) . $ $F^{\prime}$ は $z$ から決定的に決まることに加えて, Gumbel trickを用いると, $ \begin{aligned} (4) & =\sum_{z} p_{\psi}(y \mid x, F(z)) p_{\theta}(z \mid x) \\ & =\mathbb{E}_{p_{\theta}(z \mid x)}\left[p_{\psi}(y \mid x, F(z))\right] \\ = & \mathbb{E}_{\boldsymbol{\varepsilon} \sim p_{\boldsymbol{\varepsilon}}}\left[p_{\psi}\left(y \mid x, F\left(\boldsymbol{f}^{\theta}(x)+\boldsymbol{\varepsilon}\right)\right)\right] . \end{aligned} $ この式と式 (3) は GS trick のときと同様に近似的の関係にある。よって,式 (3) に関してパラメータを最適化すれば, $p_{\theta, \psi}(y \mid x)$ に関する尤度が最大化され,これは一方で $\mathrm{N}_{1}$ が我々の期待するような形で訓練されることを意味する. 本稿の文章読解モデルは, 式 (4) に基づいて訓練することも可能であるが,今後の拡張として記号処理層を多段に適用することを念頭に置き,一度の順伝搬と逆伝搬で訓練可能な Gumbel Softmax 式のアプローチを検討する。
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A1-4.pdf
# 海馬の記憶インデックスに着想を得たリプレイによる 言語処理タスクの継続学習 前川在 上垣外英剛 船越孝太郎 奥村学 東京工業大学 \{maekawa, kamigaito, funakoshi, oku\}@lr.pi.titech.ac.jp ## 概要 継続学習は過去に学習したタスクへの破滅的忘却を防ぎつつ新しいタスクを学習することを目的とする. その手法の一つである生成的リプレイは過去のタスクのデータを生成モデルにより生成し,新しいタスクのデータに加えることで破滅的忘却を防ぐ.しかし,この手法には生成サンプルの質や偏りによって継続学習の性能が低下するという問題がある. 本研究では,脳の海馬の記憶インデックスに着想を得て,学習サンプルの圧縮表現を用いた条件付けにより,過去の特定の学習サンプルをリプレイ時に生成可能な生成的リプレイの手法を提案する. SST,QA-SRL,WOZ の 3 つの異なる言語処理タスクのデータセットを対象とした実験の結果,提案手法は継続学習における性能の向上を示した. ## 1 はじめに 新しいタスクを次々と学習する継続学習の能力は,人間のような知能システムを実現する上での基本要件の一つである [1]. また, 汎用的な継続学習システムの実現は,新しいタスクに対する学習コス卜を大幅に減らすため,実応用においても重要であると考えられる。しかしながら,ニューラルネットワークで新しいタスクを学習すると,過去に学習したタスクに対する性能が著しく低下する破滅的忘却と呼ばれる現象が起こる [2]. 破滅的忘却は,新しいタスクと同時に過去のタスクを再学習することで対処可能であるが,そのためには過去の全タスクのデータを保持しておく必要があり,ストレージ容量やプライバシーの観点から問題が生じる場合がある。これに対し,実サンプルの代わりに,生成モデルによる擬似サンプルを利用する生成的リプレイという手法がある [3]. 一般に生成的リプレイでは,過去の学習サンプルだけでな く,タスクに相応しい未知のサンプルの生成も想定するが,実際に適切な未知のサンプルを生成することは困難であり,質の低いサンプルを生成する原因になる。また,生成されるサンプルが直前に学習したタスクに偏ってしまうという問題がある. 継続学習を実現している生物の脳では,海馬インデックス理論 [4] によると,海馬が新皮質の活動パターンを圧縮表現に符号化して記憶し,それをインデックス情報として新皮質に投射することで過去の活動パターンが想起されると考えられている. 本研究では,この海馬の働きに着想を得て,学習サンプルの圧縮表現による記憶インデックスを用いた生成的リプレイの手法を提案する。各学習サンプルを圧縮表現に符号化する Encoder と,それを記憶インデックスとして保持する海馬モジュールを導入し,記憶インデックスを用いた条件付けによって,リプレイとして過去の特定の学習サンプルを生成することを可能にする。 SST,QA-SRL,WOZ の 3 つの異なる言語処理夕スクのデータセットを対象とした実験の結果,提案手法は生成サンプルの偏りを防ぎ,継続学習の性能を向上させることが可能であることを示した. ## 2 関連研究 ニューラルネットワークを用いた継続学習の研究は大きく,正則化ベース,アーキテクチャベース, リプレイベースの 3 つの手法に分類される。 正則化ベースの手法では,過去のタスクに対して重要なパラメータが変化しないように制約を加えて破滅的忘却を防ぐ. 各パラメータの重要度の推定には,フィッシャー情報行列を利用する手法 [5] や,勾配の大きさを利用する手法 [6] がある. アーキテクチャベースの手法は,ネットワーク構造の工夫によってタスク間の知識の干渉を防ぐ. タスクごとにネットワークを拡張する手法 [7] や, (a) Train (b) Replay 図 1 提案手法の概要 フィルタを用いてネットワークをプルーニングする手法 [8] がある. リプレイベースの手法では,過去に学習したデー タを新しいタスクとともに再学習するリプレイを用いる. d'Autume ら [9] は,学習データを保持するエピソード記憶モジュールを導入し,リプレイと推論時のパラメータの局所適応に利用した. Shin ら [3] は,生成モデルによる擬似サンプルを利用する生成的リプレイを提案した。言語処理タスクを対象とした生成的リプレイの手法には, LAMOL [10] がある. LAMOL は,タスクとサンプル生成を言語モデルで同時に学習し, 単一のモデルのみで継続学習を行う. LAMOL の派生手法として, 知識蒸留を組み合わせた手法 $[11,12]$ や,生成サンプルのうち忘却度が高いものをリプレイとする手法 [13] がある. 一般に生成的リプレイの手法では,過去の学習サンプルを必要としない一方で, 生成サンプルの質や偏りによる継続学習の性能低下が生じる. そこで本研究では,LAMOL における生成サンプルの質や偏りを改善するために,記憶インデックスによる条件付けを用いて, リプレイとして過去の特定の学習サンプルを生成できる手法を提案する. ## 3 提案手法 提案手法の概要を図 1 に示す. 提案手法ではタスクの学習と同時に Autoencoder としてサンプル生成を学習する。 その際に得られる特徴べクトルを記憶インデックスとして海馬モジュールで保持し,リプレイ時に条件付けとして Decoder に与えて,対応する学習サンプルを生成する. また,タスク自体も同じ Decoderに学習させる. ## 3.1 モデル 提案手法は,学習サンプルを符号化する Encoder, タスクとサンプル生成を行う Decoder,記憶イン デックスを保持する海馬モジュールから構成される. 以下では各モジュールの詳細を説明する。 ## 3.1.1 Encoder BERT [14] を用いて学習サンプルを固定長の特徴ベクトルに符号化する. 通常行われる BERT の学習と同様に,先頭につけた [CLS]トークンの埋め込みべクトル $\boldsymbol{h}_{[\mathrm{CLS}]} \in \mathbb{R}^{H}$ を入力全体を表す特徴表現として利用し,重み行列 $\boldsymbol{W}_{\mathrm{E}} \in \mathbb{R}^{P \times H}$ と活性化関数 $\tanh$ を用いて, $P$ 次元の特徴べクトル $\boldsymbol{h} \in \mathbb{R}^{P}$ に変換する (式 1 ). $ \boldsymbol{h}=\tanh \left(\boldsymbol{W}_{\mathrm{E}} \boldsymbol{h}_{[\mathrm{CLS}]}\right) $ Encoder のパラメータは,3.2 節で述べる事前学習でのみ最適化を行い,継続学習時は固定する。これは,継続学習の過程で学習時と生成時とで特徴べクトルにズレが生じ,記憶インデックスによる制御可能性が著しく低下することを防ぐためである. ## 3.1.2 Decoder LAMOL [10] のアイデアに基づき,GPT-2 [15] を用いてタスクとサンプル生成を同時に学習する. 提案手法では, サンプル生成時に, Encoder で符号化した特徴ベクトル $\boldsymbol{h}$ による条件付けを行う. 固定長のベクトルを用いて GPT-2 のテキスト生成を制御する方法については,先行研究 $[16,17]$ によっていくつかの手法が提案されており,そのうち本研究では,以下で説明するように,Embedding 層と Self-Attention 層を利用する手法を用いる. Embedding 特徴ベクトル $\boldsymbol{h}$ から, 重み行列 $\boldsymbol{W}_{\mathrm{D}} \in \mathbb{R}^{H \times P}$ を用いて GPT-2 の入力埋め込みと同じ $H$ 次元のベクトルに変換し, 各入力トークンの単語埋め込み $\boldsymbol{h}_{\mathrm{WE}}$ と位置埋め込み $\boldsymbol{h}_{\mathrm{PE}}$ を足し合わせ,新たな入力埋め込み $\boldsymbol{h}_{\mathrm{Emb}}=\boldsymbol{h}_{\mathrm{WE}}+\boldsymbol{h}_{\mathrm{PE}}+\boldsymbol{W}_{\mathrm{D}} \boldsymbol{h}$ とする. Self-Attention 特徴ベクトル $\boldsymbol{h}$ を重み行列 $\boldsymbol{W}_{\mathrm{M}} \in$ $\mathbb{R}^{L H \times P}$ による線形変換で $\boldsymbol{h}_{\mathrm{Mem}} \in \mathbb{R}^{L H}$ に変換し, $L$個の $H$ 次元ベクトル $\left[\boldsymbol{h}_{\mathrm{Mem}, 1}, \ldots, \boldsymbol{h}_{\mathrm{Mem}, L}\right]$ に分割する. ただし, $L$ は GPT-2 の層数である. 各 $l$ 層目の Self-Attention において, $\boldsymbol{h}_{\text {Mem,l }}$ を Key, Value ベクトルに変換して追加の参照情報として利用し, $x_{t}$ を $x_{<t}$ と $\boldsymbol{h}_{\mathrm{Mem}, l}$ の両方で条件づける. ## 3.1.3 海馬モジュール 海馬モジュールは,記憶インデックスとして各学習サンプルの特徴ベクトルを保持する.具体的に は,新しいタスクの学習時,Encoder で符号化した特徴ベクトルをタスクごとに分けて保存する。リプレイ時に,特徴べクトルを過去のすべてのタスクから同じ数ずつランダムに取り出して, Decoder のサンプル生成の条件付けに使用する. ## 3.2 事前学習 記憶インデックスとして利用する特徴ベクトルは,Decoder で元の学習サンプルを復元できるだけの十分な情報を含んでいることが望ましい. しかし, BERT の事前学習によって獲得された [CLS] の埋め込みと,ランダムに初期化された $\boldsymbol{W}_{\mathrm{E}}$ による線形変換では不十分であると考えられる。そこで,テキストコーパスを用いて教師なしで Autoencoderを事前学習することで,十分な情報を持った特徴べクトルへの符号化を実現する. また,言語モデルを Autoencoder と同時に学習する.これは, Autoencoder の学習により, GPT-2 が元々持つ言語モデルの情報を失うことを防ぐためである.したがって,事前学習では, Autoencoder の損失と言語モデルの損失の和 $L=L_{\mathrm{AE}}+L_{\mathrm{LM}}$ を最小化するよう, Encoder と Decoder のパラメータを最適化する. ## 3.3 継続学習 ## 3.3.1 データ形式 LAMOL と同様に, decaNLP フォーマット [18] に基づき, Context と Question から Answerを予測する質問応答として,すべてのタスクを Decoderの GPT-2 で学習する (図 2(a)). サンプル生成は, Encoder で Context, Question, Answer 全体を符号化した特徴べクトルから,元の入力を復元する Autoencoder として学習する (図 2(b)). ## 3.3.2 学習の流れ 継続学習の問題として,タスク列 $\left.\{T_{1}, T_{2}, \ldots\right.\}$ を考える. 新しいタスク $T_{i}(i>1)$ の学習前に, 海馬モジュールから特徵ベクトルを $\gamma\left|T_{i}\right|$ 個取り出し, Decoder で対応するサンプルを生成する.ただし, $\left|T_{i}\right|$ はタスク $T_{i}$ の学習サンプルの数であり, $\gamma$ はリプレイの割合である. 生成サンプルのうち, [ANS] が 1 つでないものと,BERT および GPT-2 の最大系列長を超えているものは棄却し,残りをリプレイとして新しいタスクのデータに加える。 図 2 (a) [ANS] を生成の開始位置を示す特殊トークンとし,質問応答としてタスクを学習. (b) Encoder で符号化した特徴べクトルによる条件付けを用いて,Decoder で開始トークン [GEN] からサンプル全体を生成. タスクの損失 $L_{\mathrm{QA}}$ と Autoencoder の損失 $L_{\mathrm{AE}}$ を, サンプル生成の損失の重み $\lambda$ を用いて $L=L_{\mathrm{QA}}+\lambda L_{\mathrm{AE}}$ として,Decoderを学習する。 ## 4 実験 ## 4.1 実験設定 データセット decaNLP [18] から,感情分析 (SST),意味役割付与 (QA-SRL), 対話状態追跡 (WOZ) の 3 つの異なるタスクのデータセットを使用 トセットを利用した. 比較手法全手法で GPT-22)を使用し,各タスクを 9 epoch ずつ学習した. 以下に各手法を示す. 提案手法: Encoder には $\mathrm{BERT}_{\mathrm{BASE}}{ }^{3}$ を使用し,サンプル生成の損失の重みは $\lambda=0.25$, 特徴ベクトルの次元数 $P$ は 128 とした. 先行研究 [10] に合わせ,リプレイの割合は $\gamma=0.05,0.2$ とした. LAMOL: 提案手法によるリプレイの条件付けの有効性を検証するためのベースライン.言語モデルとして生成を学習し, [GEN] から top- $k$ サンプリング $(k=20)$ でリプレイサンプルを生成する. Task-specific tokens: Sun ら [10] が提案した,タスクごとに開始トークンを変え,生成サンプルが過去の全タスクで均等になるよう制御する手法. 提案手法と LAMOL のそれぞれに適用した。 Real sample: 提案手法のリプレイを実サンプルに置き換える。提案手法の性能上限と考えられる。 Fine-tuning: タスクを 1 つずつファインチューニングする。継続学習の性能下限と考えられる。 Multitask: 全タスクのデータセットを混合し同時に学習する。継続学習の性能上限と考えられる。 評価指標継続学習の性能評価のために,以下の 2 つの評価指標を用いる. ここで $a_{j, i} \in[0,100]$ は夕  表 1 各手法の全 6 パターンの学習順序に対する実験結果とそれらの平均及び標準偏差. 各スコアは 2 回実行した結果の平均. Proposal および LAMOL の上付き文字はリプレイの割合 $\gamma$ を表し,下付き文字はそれぞれ共通の開始トークン (GEN), Task-specific tokens(TASK),Real sample(REAL)を表す. 図 32 回目のリプレイに含まれる各タスクの生成サンプルの割合 スク $T_{i}$ を学習後のタスク $T_{j}$ の評価結果を表す. Average Score $\in[0,100]:$ 最終的なモデルの各タスクの評価結果 $a_{T, i}$ の算術平均. Forgetting Measure $\in[-100,100]:$ Chaudhry ら [20] が提案した,過去のタスクの忘却度合い. ただし, decaNLP タスクの評価指標に合わせて -100 100の値をとる.値が小さいほど望ましい。 $ F_{T}=\frac{1}{T-1} \sum_{i=1}^{T-1} f_{T, i} \quad\left(f_{T, i}=\max _{j<T} a_{j, i}-a_{T, i}\right) $ ## 4.2 実験結果 6 パターンすべての学習順序について実験を行った結果を表 1 に示す. まず, Fine-tuning の結果から,新しいタスクの学習によって, 過去のタスクに対する破滅的忘却が生じることが確認できる. 提案手法の結果は,すべての条件で LAMOL の性能を大きく上回っており,タスクの学習順序に対する性能のばらつきも抑えられている。これは,継続学習に対して提案手法が有効であることを示している。 各実験における 2 回目のリプレイ時の生成サン プルをタスクごとに分類4)した結果を図 3 に示す. LAMOL では生成サンプルの多くが直前のタスクのものになっており, Task-specific tokens の効果も学習順序によって大きく差がある。これに対して,提案手法は生成サンプルの偏りを大幅に抑えられており,記憶インデックスによる条件付けがうまく機能していると考えられる。また,リプレイの偏りがほとんど同じ場合についても,継続学習の性能で提案手法が LAMOL を上回っていることから,生成サンプルの質が改善されていることが示唆される. ## 5 おわりに 本稿では,言語処理タスクの継続学習に対して,海馬の記憶インデックスに着想を得た制御可能な生成的リプレイの手法を提案した。複数の異なる言語処理タスクを対象とした実験の結果,提案手法は生成サンプルの偏りを防ぎ,継続学習の性能を向上させることを示した. 今後は,海馬モジュールの記憶容量を削減する方法についても取り組みたい. 4) BERTによる分類モデルを作成して使用した. ## 参考文献 [1] German I Parisi, Ronald Kemker, Jose L Part, Christopher Kanan, and Stefan Wermter. Continual lifelong learning with neural networks: A review. Neural Networks, Vol. 113, pp. 54-71, 2019 [2] Michael McCloskey and Neal J. Cohen. Catastrophic interference in connectionist networks: The sequential learning problem. Psychology of Learning and Motivation, Vol. 24, pp. 109-165, 1989. [3] Hanul Shin, Jung Kwon Lee, Jaehong Kim, and Jiwon Kim. Continual learning with deep generative replay. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30, pp. 2990-2999. Curran Associates, Inc., 2017. [4] Timothy J Teyler and Jerry W Rudy. The hippocampal indexing theory and episodic memory: updating the index. Hippocampus, Vol. 17, No. 12, pp. 1158-1169, 2007. [5] James Kirkpatrick, Razvan Pascanu, Neil Rabinowitz, Joel Veness, Guillaume Desjardins, Andrei A. Rusu, Kieran Milan, John Quan, Tiago Ramalho, Agnieszka GrabskaBarwinska, Demis Hassabis, Claudia Clopath, Dharshan Kumaran, and Raia Hadsell. Overcoming catastrophic forgetting in neural networks. Proceedings of the National Academy of Sciences, Vol. 114, No. 13, pp. 3521-3526, 2017. [6] Rahaf Aljundi, Francesca Babiloni, Mohamed Elhoseiny, Marcus Rohrbach, and Tinne Tuytelaars. Memory aware synapses: Learning what (not) to forget. In Proceedings of the European Conference on Computer Vision (ECCV), pp. 139-154, 2018. [7] Andrei A Rusu, Neil C Rabinowitz, Guillaume Desjardins, Hubert Soyer, James Kirkpatrick, Koray Kavukcuoglu, Razvan Pascanu, and Raia Hadsell. Progressive neural networks. arXiv preprint arXiv:1606.04671, 2016. [8] Arun Mallya and Svetlana Lazebnik. Packnet: Adding multiple tasks to a single network by iterative pruning. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 7765-7773, June 2018. [9] Cyprien de Masson d'Autume, Sebastian Ruder, Lingpeng Kong, and Dani Yogatama. Episodic memory in lifelong language learning. In $\mathrm{H}$. Wallach, $\mathrm{H}$. Larochelle, A. Beygelzimer, F. d'Alché-Buc, E. Fox, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 32, pp. 13122-13131. Curran Associates, Inc., 2019. [10] Fan-Keng Sun, Cheng-Hao Ho, and Hung-Yi Lee. Lamol: Language modeling for lifelong language learning. In International Conference on Learning Representations, 2019. [11] Yung-Sung Chuang, Shang-Yu Su, and Yun-Nung Chen. Lifelong language knowledge distillation. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 2914-2924, Online, November 2020. Association for Computational Linguistics. [12] Jingyuan Sun, Shaonan Wang, Jiajun Zhang, and Chengqing Zong. Distill and replay for continual language learning. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 3569-3579, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics. [13] Heejeong Choi and Pilsung Kang. Lifelong language learning with the most forgotten knowledge. IEEE Access, Vol. 9, pp. 57941-57948, 2021. [14] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [15] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, et al. Language models are unsupervised multitask learners. OpenAl blog, Vol. 1, No. 8, p. 9, 2019. [16] Chunyuan Li, Xiang Gao, Yuan Li, Baolin Peng, Xiujun Li, Yizhe Zhang, and Jianfeng Gao. Optimus: Organizing sentences via pre-trained modeling of a latent space. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 46784699, Online, November 2020. Association for Computational Linguistics. [17] Le Fang, Tao Zeng, Chaochun Liu, Liefeng Bo, Wen Dong, and Changyou Chen. Transformer-based conditional variational autoencoder for controllable story generation. arXiv preprint arXiv:2101.00828, 2021. [18] Bryan McCann, Nitish Shirish Keskar, Caiming Xiong, and Richard Socher. The natural language decathlon: Multitask learning as question answering. arXiv preprint arXiv:1806.08730, 2018. [19] Mandy Guo, Zihang Dai, Denny Vrandečić, and Rami Al-Rfou. Wiki-40B: Multilingual language model dataset. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 2440-2452, Marseille, France, May 2020. European Language Resources Association. [20] Arslan Chaudhry, Puneet K Dokania, Thalaiyasingam Ajanthan, and Philip HS Torr. Riemannian walk for incremental learning: Understanding forgetting and intransigence. In Proceedings of the European Conference on Computer Vision (ECCV), pp. 532-547, 2018. ## A 付録 ## A. 1 継続学習に使用したタスクの詳細 表 2 使用したタスク,データセット,評価指標 & Who is based somewhere? & COG & 6414 & 2201 & $\mathrm{nF1}$ \\ Goal-Oriented Dialogue & WOZ & I am looking for African food & What is the change in state ? & food: African; & 2536 & 1646 & dsEM \\ ## A. 2 忘却の過程 図4 それぞれの手法の各学習順序における忘却の過程
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A2-1.pdf
# Test Time Augmentation for Cross-lingual Text Classification Artsem Zhyvalkouski Tokyo City University artsem20@ipl.cs.tcu.ac.jp } Shiho Hoshi Nobesawa Tokyo City University shiho@tcu.ac.jp } \begin{abstract} Recently, in order to face the problem of the lack of labeled data for languages other than English, language models based on BERT were extended to tackle the task of cross-lingual transfer. Such multilingual models have been known to perform well on the target language data without actually being trained on it, but the need to improve their accuracy still exists. In this paper, we present an approach to improve the accuracy of such models by utilizing machine translation and test time augmentation, widely used in computer vision, but not thoroughly researched in natural language processing. We show that our method demonstrates improvement without training additional models or collecting more labeled data. \end{abstract ## 1 Introduction ## 1.1 Multilingual Language Models Recently, a highly accurate masked language model BERT[1] is widely used. It is pre-trained with a large amount of unlabeled data, such as Wikipedia[2]. Training is performed by randomly removing a word from a sentence and making the model predict what the removed word is. It can be said that this is a method of extracting features of sentences, such as word2vec[3] or FastText[4]. As an application of this model, firstly it is trained on a large amount of unlabeled data in advance. Next, it is trained further with data for tasks such as text classification or question answering. Another recent trend is to train multilingual models that extend BERT to multiple languages. Typical models include mBERT[1], XLM[5] and XLM-R[6]. The background of multilingual models is that there is currently a lack of non-English labeled data. Unlike BERT, mBERT is pre-trained with a large amount of data in 104 languages. The application process is illustrated on Figure 1. As a con- Figure 1 Application of multilingual models crete application, firstly it is trained with a large amount of unlabeled multilingual data, then it is trained with labeled English data for a particular task. And finally, the inference is performed in the target language, for example, French. By doing so, it is known that high accuracy can be achieved even in the target language without actually having any labeled data for the target language. As another example, we can take a multilingual pre-trained model, fine-tune it on English data for Question Answering and then perform inference in Japanese, so the model can answer questions in Japanese, without actually being trained on them. One of the purposes of this research is to improve the accuracy of such multilingual models. ## 1.2 Test Time Augmentation Another concept that is used in this research is Test Time Augmentation. Let us start with Train Time Augmentation. This is a method to increase the training data in an artificial manner. For example, in the case of natural language processing, there is back-translation[7]. An example of the back-translation method is shown on Figure 2. With this method machine translation from the original language $A$ to another language $B$ is performed. Then, once again machine translation from language $B$ to the original language $A$ is performed. For instance, you can translate En- Figure 2 Back-translation algorithm[7] glish into Japanese and then Japanese into English again to create different sentences without changing their meaning. Xie et al. insisted that the accuracy can be significantly improved by using this method[7]. Unlike Train Time Augmentation, Test Time Augmentation is performed for models that have already been trained. As Shorten et al. and Buslaev et al. described this is a commonly used technique in image processing to improve accuracy $[8,9]$. An example of the Test Time Augmentation technique for images is shown on Figure 3. For example, Figure 3 Test Time Augmentation in image processing firstly an image to be predicted is mirrored or rotated. Then the inference is performed for the resulting images separately, and finally, the average is taken to summarize the predicted values. In the field of image processing, this method is also known to improve accuracy[9]. However, the situation is not so much considered in the field of natural language processing. We can see its investigation in the research by Howard et al.[10] where they utilize back-translation in test time for classification with the ULMFiT model[11], which is based on LSTM[12]. Liu mentioned an empirical result where name swapping augmentation was used in test time to improve accuracy on the Gender Pronoun Resolution task[13]. However, there seems to be very little research done on using Test Time Augmentation with multilingual data or on cross-lingual tasks. As another purpose of this research, we also aim to draw more attention to Test Time Augmentation in natural language processing. ## 2 Test Time Augmentation for Crosslingual Text Classification ## 2.1 Overview The flow of the proposed method is presented on Figure 4. Since multilingual models can handle various lan- Figure 4 Proposed method flow guages, we believe that data augmentation is possible by machine translation. First, we translate the text in the target language into texts in various other languages. Then we make separate predictions for all the texts and finally put together all the predictions. As a way of summarizing, we are going to use averaging and weighted averaging. For weighted averaging, we utilize the Nelder-Mead optimization method[14] to find the best weights for the validation dataset and then use the obtained weights on the test dataset. We suppose that simple averaging may not be enough since we cannot be sure about the most appropriate augmentation language. ## 2.2 Algorithm Here we explain the proposed algorithm step by step. 1. Translate the text $T_{L}$ in the target language $L$ with the machine translation model $M_{A_{i}}^{\text {trans }}$ into the text $T_{A_{i}}$ in the additional language $A_{i} . N$ is a number of additional languages. $ T_{A_{i}}=M_{A_{i}}^{\text {trans }}\left(T_{L}\right), 0 \leq i<N $ 2. Obtain the predicted probability vectors $p_{L}$ and $p_{A_{i}}$ for the texts $T_{L}$ and $T_{A_{i}}$ respectively by using the fine-tuned multilingual model $M^{\text {multi }}$ for text classification. $ p_{L}=M^{\text {multi }}\left(T_{L}\right), p_{A_{i}}=M^{\text {multi }}\left(T_{A_{i}}\right), 0 \leq i<N $ 3. Obtain the final predicted probability vector $p_{w}$ by performing weighted averaging using the weights vector $w$ optimized for the validation dataset using the Nelder-Mead method[14]. $ p_{w}=w_{N} p_{L}+\Sigma_{j=0}^{N-1} w_{j} p_{A_{j}} $ 4. Predict the final class $C$ by using the highest probability in the vector $p_{w}$. $ C=\operatorname{argmax} p_{w} $ As a result, we get the final predicted class $C$, which is in our case is one of the contradiction, neutral or entailment classes. & Contradiction \\ ## 3 Dataset We use the XNLI dataset[15]. A few samples from the dataset are presented in Table 1. It has classification data for 15 languages: English, French, Spanish, German, Greek, Bulgarian, Russian, Turkish, Arabic, Vietnamese, Thai, Chinese, Hindi, Swahili and Urdu. There are about 5,000 test and 2,500 validation pairs for each language, so it results in 112,500 annotated pairs. The pairs are obtained by human translation from English. The task is called textual entailment, which is a 3 class classification of two sentences called premise and hypothesis. Classes include contradiction, neutral and entailment. We use this dataset since it is a standard for evaluating Cross-lingual Text Classification used in the state-of-the-art research [5, 6]. ## 4 Results We perform two different experiments using a pretrained mBERT model, which also trained on the English XNLI data, thus evaluating the model in a cross-lingual transfer manner. ## 4.1 Experiment 1: Evaluation on a Single Additional Language In this setting, we use the original English translations released in the XNLI dataset and simply average predictions in the original language with predictions using the English translations. The results for each language are shown on Figure 5. Figure 5 Experiment 1: Comparison with previous methods and our method using evaluation on a single additional language We compare our method with previous methods, such as using the target language and using English translations[6]. At first, we can notice that the performance on English translations is higher for most of the languages, except for Vietnamese. This can be explained by the following facts: the model was fine-tuned on the English samples; the largest amount of the pre-training data is in English. As for Vietnamese, it is hard to draw any conclusions, but we suppose it may relate to the quality of the given English translations. We can see that by using the proposed method and aggregating both predictions the accuracy for all of the languages either improves or is equal to the best previous method. This indicates that both the original texts and English translations provide a meaningful signal to the model. From the results, we may suppose that in a setting when the target language training data is not available, it is recommended to utilize English translations with our method to improve the accuracy without collecting more data or fine-tuning additional models. ## 4.2 Experiment 2: Evaluation on Multipule Additional Languages In this setting we use the Marian MT models[16] to translate the original language into not only into English, but also into close and far languages. We use our own definition of close and far languages. The results for each language are shown on Figure 6. As a close language we Figure 6 Experiment 2: Comparison with previous methods and our method using evaluation on multiple additional languages use the language from the same group which has the highest number of articles in Wikipedia. For a close language we use the language from a different family which has the highest number of articles in Wikipedia. The reasoning behind choosing close and far languages is to account for the trade-off between translation quality and signal diversity. A close language can be easier to translate, so the data quality is higher, but it will provide presumably less diversity since the syntax structure will be similar. Vice versa, a far language might be more difficult to translate, although the syntax structure could be different and the translation might have more diverse word usage with similar semantics. For both languages, we use the one with the highest number of articles on Wikipedia because the model was pre-trained on it so we can obtain more meaningful representations. It is needed to mention that this reasoning is a pure assumption and in the perfect scenario the most useful augmentation language must be found using tuning on the validation set. As in Experiment 1, we compare our method with previous methods: using the target language and using English translations. For the proposed methods we use two settings: English augmentation and augmentation with English, close and far languages. From the results, we can see that for each language one of the proposed settings improves the accuracy or performs on par. The 3-language setting improves the accuracy or performs on par for all of the languages except for Mandarin, for which the English augmentation setting performs best. This may be explained by the quality of translations from Mandarin to other languages. The fact that the highest accuracy improvement is observed for low-resource languages such as Urdu, Hindi and Swahili is presumably due to the quality of the model's representations for their translations. We also conclude that choosing the most suitable augmentation language for each target language may be an appropriate step during the model tuning. ## 5 Discussion We can notice that for each language the proposed method either outperforms or performs on par with the previous methods. We also can see that by using the proposed technique the accuracy on the XNLI dataset can be improved by around $2 \%$ for each language on average. Especially for low-resource Hindi, Urdu and Swahili, the performance is increased significantly (4-7\%). It is needed to mention that in this research we proposed only using one-step machine translation as augmentation, whereas back-translation or any other text augmentation technique can be utilized. We also observe that for each language the best additional language and its performance seem to be different so that may be a topic for future research. Moreover, in this research we examined the natural language task of cross-lingual text classification, a similar Test Time Augmentation method might be applied to various other tasks such as question answering or namedentity recognition. The model we used is mBERT which is smaller than XLM-R or recent XLM-R XL[17], which outperforms even priorly best monolingual RoBERTa[18] on English. This implies that larger and more accurate models can also be investigated with our method. ## 6 Conclusion Due to the lack of labeled data for other languages than English, multilingual models are being widely used recently. Although they are already achieving relatively high accuracy, we propose a method that can further improve the accuracy of such models by machine translation and test time augmentation. We show that our method improves the accuracy by 2-7\% on the XNLI dataset which is a standard for evaluating multilingual models. As for the practical usage of our method, the accuracy of cross-lingual classification models can be improved without additionally collecting more data or training new models. ## References [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018. [2] Wikipedia contributors. Plagiarism - Wikipedia, the free encyclopedia, 2004. [Online; accessed 22-July-2004]. [3] Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space, 2013. [4] Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomás Mikolov. Enriching word vectors with subword information. CoRR, Vol. abs/1607.04606, , 2016. [5] Guillaume Lample and Alexis Conneau. Cross-lingual language model pretraining. CoRR, Vol. abs/1901.07291, , 2019. [6] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised cross-lingual representation learning at scale. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8440-8451, Online, July 2020. Association for Computational Linguistics. [7] Qizhe Xie, Zihang Dai, Eduard Hovy, Minh-Thang Luong, and Quoc V. Le. Unsupervised data augmentation, 2019. cite arxiv:1904.12848. [8] Alexander Buslaev, Vladimir I. Iglovikov, Eugene Khvedchenya, Alex Parinov, Mikhail Druzhinin, and Alexandr A. Kalinin. Albumentations: Fast and flexible image augmentations. Information, Vol. 11, No. 2, 2020 [9] Connor Shorten and Taghi M. Khoshgoftaar. A survey on image data augmentation for deep learning. Journal of Big Data, Vol. 6 , pp. 1-48, 2019 [10] Sam Shleifer. Low resource text classification with ulmfit and backtranslation. CoRR, Vol. abs/1903.09244, , 2019. [11] Jeremy Howard and Sebastian Ruder. Fine-tuned language models for text classification. CoRR, Vol. abs/1801.06146, , 2018. [12] Sepp Hochreiter and Jürgen Schmidhuber. Long short-term memory. Neural computation, Vol. 9, pp. 1735-80, 121997. [13] Bo Liu. Anonymized BERT: an augmentation approach to the gendered pronoun resolution challenge. CoRR, Vol. abs/1905.01780, , 2019. [14] John Ashworth Nelder and Roger Mead. A Simplex Method for Function Minimization. The Computer Journal, Vol. 7, No. 4, pp. 308-313, 011965. [15] Alexis Conneau, Guillaume Lample, Ruty Rinott, Adina Williams, Samuel R. Bowman, Holger Schwenk, and Veselin Stoyanov. XNLI: Evaluating cross-lingual sentence representations, 2018. [16] Marcin Junczys-Dowmunt, Roman Grundkiewicz, Tomasz Dwojak, Hieu Hoang, Kenneth Heafield, Tom Neckermann, Frank Seide, Ulrich Germann, Alham Fikri Aji, Nikolay Bogoychev, André F. T. Martins, and Alexandra Birch. Marian: Fast neural machine translation in C++. In Proceedings of ACL 2018, System Demonstrations, pp. 116-121, Melbourne, Australia, July 2018. Association for Computational Linguistics. [17] Naman Goyal, Jingfei Du, Myle Ott, Giri Anantharaman, and Alexis Conneau. Larger-scale transformers for multilingual masked language modeling. CoRR, Vol. abs/2105.00572, , 2021. [18] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized BERT pretraining approach. CoRR, Vol. abs/1907.11692, , 2019.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A2-2.pdf
# NLP モデルの性能の再現可能な測定に向けて :再現性の時間軸モデルと日本の NLP 研究の再現性の簡易的調査 竹下昌志 ${ }^{1}$ ジェプカ・ラファウ $2{ }^{2}$ 荒木健治 ${ }^{2}$ 1 北海道大学大学院情報科学院 2 北海道大学大学院情報科学研究院 \{takeshita.masashi,rzepka,araki\}@ist.hokudai.ac.jp ## 概要 再現性は研究の信頼性を評価する上で重要な指標であるが,「再現性」とその関連用語の定義は混迷している。そこで本稿では,時間軸で再現性の諸側面を分類する概念モデルを提案する。これによって既存の定義と今後提案される定義を包括して再現性を理解することができる.次に,再現性を改善するための方法を検討する。最後に,近年の日本の NLP 研究の再現性を簡易的に調査する. その結果,特にコードが公開されておらず,追試する者にとって難しい状況であることが明らかとなった。 ## 1 はじめに 再現性は科学にとって重要である ${ }^{1)}$.「再現性」とは,広義には,論文で記述されていることを繰り返すことができるという研究およびその研究結果の性質である.実験結果が再現できない場合はその実験結果に対する疑義が生じ,再現できればその実験結果の信頼性が向上する。また追試が行われていない場合,その実験結果の信頼性は不明である. 本大会のワークショップ「NLP における再現性 $\rfloor^{2)}$ の概要で述べられているように,「実験の再現性は健全な議論のために不可欠の条件である」. しかし,「再現性」やその関連用語の定義は混迷しており,対立する定義も存在する(表 1 及び付録 A)「再現性」の定義が定まらなければ,人々が 「再現性」で意味することが異なるために議論が整理されず,研究の再現性の評価が困難になる. そこで本稿では「再現性」の様々な定義を捉える包括的な概念モデルである再現性の時間軸モデルを  提案する.この概念モデルでは,再現性を何らかの測定の再現性であるとし,測定前,測定結果,測定後の再現性をそれぞれ区別する。また本稿では,この再現性モデルの下で二つのことを議論する.第一に,再現性をどのように向上させるかを検討する (3 節).第二に,日本の NLP 研究で再現性がどれほど確保されているかを簡易的に調査する(4 節). ## 2 再現性の時間軸モデル 再現性とその他の関連用語に関しては様々な定義がなされているが,定義は一致していない3).そこで本稿では,再現性の定義について各提案を包括的に整理するために,測定前,測定結果,測定後の再現性にそれぞれ分類する再現性の時間軸モデルを提案する. 既存の定義と, 私たちの提案する再現性の分類との対応を表 1 に示す. 本節ではまず再現性の時間軸モデルの利点を説明し,次にこの概念モデルの詳細を説明する。 ## 2.1 再現性の時間軸モデルの利点 既存の再現性の定義の仕方は,「再現性」に一つの側面だけを認めるか,実験に関する様々な側面に関して再現性をそれぞれ定義するかのいずれかである(表 1 及び付録 A)。しかし,測定には他にも様々な事物が関わるため,このように再現性を定義することは有限ではなく,望ましくないと考える。 本稿で提案する再現性の時間軸モデルでは,既存の定義と今後提案される定義を時間軸上に分類することで包括的に捉えられるため,再現性の理解や分類に有用であると考える。また再現性の諸側面を時間という概念的に同じ側面で分類することができるため,分類の仕方として適切であると考える. 3)再現性や反復性の定義をめぐる議論を本稿で網羅的に扱うことはできない.他分野での定義を含めた用語法を概観するものとして Plesser [6]を参照. 表 1 既存の再現性関連の用語の定義と,再現性の時間軸モデルとの対応表. 各項目の説明は付録 $\mathrm{A}$ を参照. ## 2.2 測定前の再現性 測定前の再現性は,測定を再現するために必要な手続きや機器などを繰り返すことができるか否かを意味する. Belz [5] は測定に関わる条件を対象条件,測定法条件,測定手続条件に分類している. 対象条件は測定機器に関する条件であり,測定に用いたコードやモデルなどが含まれる4).測定法条件には評価指標とその実装者が含まれる. 測定手続条件には用いたテストデータや実行環境などが含まれる.これらの条件を繰り返せるということが測定前を再現できることを意味する。 ## 2.3 測定結果の再現性 測定結果の再現性は,測定結果を繰り返すことができるか否かを意味する。「結果」には,測定によって得られた値やその値を統計的に処理した値(例:平均値)を含み,また Cohen ら [3] に合わせて値の比較も含める.そのため,信頼区間の推定結果や統計検定の結果も「結果」に含まれる。 測定結果の再現性に,測定前の再現性は必要でも十分でもない. 必要でない理由は, 例えば高価な GPU やコンパイル・実行環境を再現することは困難だが,それにもかかわらず同一の測定結果(正解率など)を得ることは可能である。十分でない理由は, 深層学習モデルの場合, 完全に測定前の再現性を満たさない限り, 重みの初期値などのランダム性のために測定結果が厳密に再現されないことがありうるからである. ## 2.4 測定後の再現性 測定後の再現性とは,測定結果を用いた推論とその結論を繰り返すことができるか否かを意味する。 別の測定結果から同じ結論を導く推論も,同じ測定結果から別の結論を導く推論も可能である [2].前者の例として, BERT [8] は様々なタスクで成功を  収めていることから,別々の測定結果から「BERT は優れた性能をもつ」という同じ結論を導く推論は可能である. また後者の例として, ある研究者が自身の提案手法を英語の分類タスクで実験し, 良い分類精度が得られた後に「提案手法は優れた分類性能をもつ」と推論したとする. しかし別の研究者は他の言語では良い精度が得られない(一般化できない)可能性を考慮し,この推論に同意しないとする.この場合, 同じ測定結果から異なる結論・推論になったため,測定後の再現は失敗している. ## 3 測定の再現性の改善に向かって 本節では以上の概念整理の下で,各再現性を改善させるための方法を検討する。 ## 3.1 測定前・結果・後の再現性の改善 すべての再現性の改善に共通することは,実験を繰り返すために必要な事柄を明示することである. ACL Rolling Review(ARR)は実験設定の詳細の明示化のために,付録のページ数を論文のページ数制限に含めないとし,また副次資料の提出も認めている5).また ARR は責任ある研究チェックリスト [9] を提示しており,一部は再現性のチェックリストとしての役割が意図されている。こうしたチェックリストを満たすことは重要である6). ## 3.2 測定前の再現性の改善 測定前の再現性の改善には,2.2 節で紹介した Belz [5] の三条件を満たすことが重要である.特に, コードとデータの公開は測定前の再現性の改善に重要であり,「必須の前提条件」[12]である. また,実験で用いたランダムシード値(RS 値)も明示されるのがよいと考える. ARR や NeurIPS のチェックリスト [13] には, RS 值をいくつ用いたのかや,RS 值によるランダム性を明示することが含まれているが,RS 值自体の明示化には何も述べてない. 測定前の再現性を厳密に満たすことを目指す  図13.4節の実験について, livedoorニュースコーパス上で日本語のマスク言語モデルを 25 個の RS 値(0~24) で fine-tuning した結果のヒストグラムを示す. 縦軸はその階級値に属する個数で,横軸は9クラス分類の正解率を表す。実験の詳細を付録 B に示す. 表 23.4 節の実験での各モデルの正解率の平均値と標準偏差. のであれば,RS 値の明示化は重要である. ## 3.3 測定結果の再現性の改善 測定結果の再現性の改善のためには,測定によって得られた結果の明示化が重要である。一部の論文では統計検定が行われているが,どの実験のどの値に関して何の統計検定を行ったのかが明示されていないことがある [14].これを明示することはチェリーピッキングの疑義を晴らす上で重要である. また,ハイパーパラメータやモデル構造の探索結果を仮説検証型の研究として報告するのは HARKing [15] につながり, 問題がある [16, 10]. HARKing とは "Hypothesizing After the Results are Know”(結果を知った後に仮説を作る)の略称で,結果を得た後にその結果に合うように仮説を形成することを意味する。これが問題であることは, テストデータを用いた学習モデルでのテストデータの予測結果を,あたかもテストデータを学習に使ってないかのように報告することと類似していることから理解できる. Gencouglu ら [16] は複数の院生を用いた手作業によるハイパーパラメータやモデルの探索を院生降下法(Grad Student Descent)と称し, これによってなぜそのモデルやハイパーパラメータが優れているのかが分からなくなると論じている. 測定結果の再現性の観点からは,こうした実践は 「知見の再現性」 [3] を低下させる.「知見の再現性」表 3 測定前の再現性の調査結果。 & \\ には,測定によって得られた値の比較を伴い,統計検定の結果などが含まれる. 例えば, $p$ 值が $5 \%$ の有意水準を下回っていたとしても,20 回に 1 回はそのような結果が期待される。そのため, 院生降下法などによる探索的研究で複数回の試行を行った場合に $p$ 值が偶然有意水準を下回ることがありえる. その結果を元に論文の「ストーリー」を組み立てて仮説検証型の研究として報告するのは HARKing にあたり,問題がある. ## 3.4 測定後の再現性の改善 測定後の再現性を改善するためには,測定によって得られた結果の限界に注意すべきである. ARR のチェックリストの最初の項目は「A1. あなたの研究の限界を述べたか?」であり, 強い仮定の明示,自分の主張の範囲の反省などが含まれる. 深層学習モデルの実験には RS 值に依存したランダム性があるため $[17,18]$, 単一の RS 値のみを用いた実験によって既存手法の精度を超えたとしても,それが偶然そうなった可能性を考慮すべきである ${ }^{8)}$. RS 值による精度の変動の一例として, livedoor ニュースコーパス9)を用いたニュース記事分類タスクの実験結果を図 1 及び表 2 に示す. 実験に用いたモデルは日本語コーパスで事前学習された BERT ${ }^{10)}$, RoBERTa [20] ${ }^{11)}$, DistilBERT [21] ${ }^{12)}$ である.実験の詳細を付録 Bに記載する.また,用いたコードを以下の脚注の URL で公開している13).結果として, 例えば, BERT の正解率と RoBERTa 7)このうち 1 本の論文では複数の RS 值を使用したかどうかの記述が見つからなかったが,複数回の試行を行っていた. 8)深層学習のランダム性を考慮した適切な実験方法とその結果の報告に関する議論として Agarwal ら [19]を参照. 9) https://www. rondhuit.com/download.html\#ldcc 10) https://huggingface.co/cl-tohoku/ bert-base-japanese-whole-word-masking 11) https://huggingface.co/rinna/japanese-roberta-base 12) https://github.com/BandaiNamcoResearchInc/ DistilBERT-base-jp/blob/main/docs/GUIDE.md 13) https://github.com/Language-Media-Lab/ reproducibility-random-seed/ 表 4 関連する論文の測定後の再現度の調査結果. NLP2021 の調査対象 25 本中残りの 6 本の論文のうち 3 本はルールベースの手法であり,うち 1 本では交差検証を行っていた.その他の 3 本はデータ分析を行っていた. の正解率をそれぞれ一つずつ組み合わせた場合に BERT の正解率が RoBERTa の正解率を超えた割合は $4.64 \%$ であった.この結果より,二つのモデルを比較して一方が他方より優れていると言うためには,複数の RS 值を用いた実験を行うことが重要であることが示唆される.また,ここでは統計検定の結果や効果量の報告が有用である ${ }^{14)}$ 。例えば,RoBERTa での実験の平均值と BERT での実験の平均值が等しいという帰無仮説の下でのスチューデントの両側 $t$検定での $p$ 值は $3.83 \times 10^{-11}$ であった.このことから, RoBERTa の livedoor ニュースコーパスでの平均的な分類性能は BERT より優れていると推論することは合理的だと考える. ## 4 日本の NLP 研究における再現度 本節では日本の NLP 研究の再現性を簡易的に調査する. 調査対象は,言語処理学会第 27 回年次大会(NLP2021)で発表された論文からランダムに選ばれた 25 本 ${ }^{15)}$ ,会誌『自然言語処理』 28 巻 $3 , 4$ 号に掲載された一般論文 17 本である. ## 4.1 測定前の再現度 測定前の再現性を確保するためにはコードやデー タの公開が重要である. しかし,少なくともコードはあまり公開されてない. Wieling ら [12]による調査によれば,コード公開とデータ公開のどちらも改善されつつあるが,2016年の ACL で発表された論文に関して,データが共有されたのは全体の $86.3 \%$, コードが共有されたのは全体の $59.3 \%$ であった ${ }^{16)}$. 本稿で調査したコード・データの公開状況の結果を表 3 に示す.データ公開については半分以上の論文が少なくとも部分的に公開しているか公開されているデータを用いていた. プライバシーの問題があるため,データは公開可能な範囲で公開されるのがよいと考える。一方コード公開に関しては,『自然言語処理』の一つの論文以外はすべて非公開だっ  た. 本稿の調査ではメール等で問い合わせてないため,もしメール等で問い合わせればこの割合は増えるかもしれないが,論文自体に公開情報を載せることがよいと考える. ## 4.2 測定結果の再現度 Belz ら [4]による様々な追試のメタ分析によれば,同一条件下での実験 (つまり測定前の再現性が確保されている実験)で元論文と厳密に同じスコアが得られた実験は全体の $14.03 \%$ であり,1\% 以上スコアが異なる追試結果は全体の約 6 割であった. 日本の NLP 研究における測定結果の再現性を調査するには実際に追試が行われる必要があるが,私たちの知る限り,公開で行われたことはない. 国際的には,人工知能系の学会で再現実験チャレンジがここ数年行われている $[23,24]$. 今後日本でも行われることを期待する。 ## 4.3 測定後の再現度 測定後の再現性を直接評価することは困難であるが,複数の RS 値の使用や統計検定の実施を調べることで間接的かつ定量的に評価できる. Dror ら [14] による調査によれば,2017 年の ACL と TACL で,統計検定を行うべき研究で適切な検定の実施を確認できたのは,ACLでは 180 本中 36 本 $(20 \%)$ で, TACL では 33 本中 18 本(約 $54.5 \%$ )だった. 本稿での調査結果を表 4 に示す. 査読付きの『自然言語処理』では半分以上の論文がランダム性を考慮した結果の報告を行っているが,NLP2021では半分に満たなかった。今後はランダム性を考慮した実験を行い,結果が適切に報告されるのが望ましい。 ## 5 まとめ 本稿では,既存の再現性の定義や説明を包括して整理できる再現性の時間軸モデルを提案した。またこのモデルの下で,各時間軸での再現性を改善する方法について議論した. 最後に, 日本の NLP 研究の再現性の簡易的調査を行った。本稿の議論は再現性の改善への小さな一歩であり,また今後,再現性に関する議論が活発に行われることを期待する。 ## 謝辞 日本の NLP 研究の再現性を調査するにあたって手伝っていただいた同僚の吉井瑞貴さんに感謝します。 ## 参考文献 [1] Fiona Fidler and John Wilcox. Reproducibility of Scientific Results. In Edward N. Zalta, editor, The Stanford Encyclopedia of Philosophy. Metaphysics Research Lab, Stanford University, Summer 2021 edition, 2021. [2] Steven N. Goodman, Daniele Fanelli, and John P. A. Ioannidis. What does research reproducibility mean? Science Translational Medicine, Vol. 8, No. 341, pp. 341ps12-341ps12, 2016. [3] K. Bretonnel Cohen, Jingbo Xia, Pierre Zweigenbaum, Tiffany Callahan, Orin Hargraves, Foster Goss, Nancy Ide, Aurélie Névéol, Cyril Grouin, and Lawrence E. Hunter. Three dimensions of reproducibility in natural language processing. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Miyazaki, Japan, May 2018. European Language Resources Association (ELRA). [4] Anya Belz, Shubham Agarwal, Anastasia Shimorina, and Ehud Reiter. A systematic review of reproducibility research in natural language processing. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 381-393, Online, April 2021. Association for Computational Linguistics. [5] Anya Belz. Quantifying reproducibility in NLP and ML. arXiv preprint arXiv:2109.01211, 2021. [6] Hans E. Plesser. Reproducibility vs. replicability: A brief history of a confused terminology. Frontiers in Neuroinformatics, Vol. 11, p. 76, 2018. [7] Odd Erik Gundersen and Sigbjørn Kjensmo. State of the art: Reproducibility in artificial intelligence. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 32, No. 1, Apr. 2018. [8] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [9] ACL Rolling Review. Arr responsible nlp research checklist, 2021, https://aclrollingreview.org/responsibleNLPresearch/. [10] Samuel J Bell and Onno P Kampman. Perspectives on machine learning from psychology's reproducibility crisis. arXiv preprint arXiv:2104.08878, 2021. [11] Emiel van Miltenburg, Chris van der Lee, and Emiel Krahmer. Preregistering NLP research. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 613-623, Online, June 2021. Association for Computational Linguistics. [12] Martijn Wieling, Josine Rawee, and Gertjan van Noord. Squib: Reproducibility in computational linguistics: Are we willing to share? Computational Linguistics, Vol. 44, No. 4, pp. 641-649, December 2018. [13] NeurIPS 2021. Neurips paper checklist, 2021, https://neurips . cc/Conferences/2021/PaperInformation/PaperChecklist. [14] Rotem Dror, Gili Baumer, Segev Shlomov, and Roi Reichart. The hitchhiker's guide to testing statistical significance in natural language processing. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1383-1392, Melbourne, Australia, July 2018. Association for Computational Linguistics. [15] Norbert L. Kerr. Harking: Hypothesizing after the results are known. Personality and Social Psychology Review, Vol. 2, No. 3, pp. 196-217, 1998. PMID: 15647155. [16] Oguzhan Gencoglu, Mark van Gils, Esin Guldogan, Chamin Morikawa, Mehmet Süzen, Mathias Gruber, Jussi Leinonen, and Heikki Huttunen. Hark side of deep learning-from grad student descent to automated machine learning. arXiv preprint arXiv:1904.07633, 2019. [17] Nils Reimers and Iryna Gurevych. Reporting score distributions makes a difference: Performance study of LSTM-networks for sequence tagging. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 338-348, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [18] Jesse Dodge, Gabriel Ilharco, Roy Schwartz, Ali Farhadi, Hannaneh Hajishirzi, and Noah Smith. Fine-tuning pretrained language models: Weight initializations, data orders, and early stopping. arXiv preprint arXiv:2002.06305, 2020 [19] Rishabh Agarwal, Max Schwarzer, Pablo Samuel Castro, Aaron C Courville, and Marc Bellemare. Deep reinforcement learning at the edge of the statistical precipice. Advances in Neural Information Processing Systems, Vol. 34, , 2021. [20] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A robustly optimized bert pretraining approach. Computing Research Repository, Vol. arXiv:1907.11692, , 2019. [21] Victor Sanh, Lysandre Debut, Julien Chaumond, and Thomas Wolf. Distilbert, a distilled version of bert: smaller, faster, cheaper and lighter. arXiv preprint arXiv:1910.01108, 2019. [22] 阿部真人. データ分析に必須の知識・考え方統計学入門 :仮説検定から統計モデリングまで重要トピックを完全網羅. ソシム, 2021 . [23] Joelle Pineau, Philippe Vincent-Lamarre, Koustuv Sinha, Vincent Larivière, Alina Beygelzimer, Florence d' Alché Buc, Emily Fox, Hugo Larochelle. Improving reproducibility in machine learning research: a report from the neurips 2019 reproducibility program. Journal of Machine Learning Research, Vol. 22, , 2021. [24] Anya Belz, Anastasia Shimorina, Shubham Agarwal, and Ehud Reiter. The ReproGen shared task on reproducibility of human evaluations in NLG: Overview and results. In Proceedings of the 14th International Conference on Natural Language Generation, $\mathrm{pp}$. 249-258, Aberdeen, Scotland, UK, August 2021. Association for Computational Linguistics. [25] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In International Conference on Learning Representations, 2019 ## A 表 1 の各項目の説明 Goodman ら [2] は「方法の再現性」,「結果の再現性」,「推論の再現性」という 3 つの再現性を提案している.「方法の再現性」とは,同じ結果を得るための実験方法や手続き自体を繰り返すことができるという性質である。「結果の再現性」は可能な限り同じ手続きで別の研究チームが同じ結果を得られるという性質であり,Goodman らによれば,これは従来の複製性(Replicability)に対応する。「推論の再現性」は結果の分析や考察から同じ結論を導けるという性質である. Cohen ら [3] は「結論の再現性」「知見の再現性」「値の再現性」という 3 種類の再現性を提案し, 別の概念として複製性または反復性(Repeatability)を提案している.ここで複製性は「方法の再現性」に対応し, 「知見の再現性」は「結果の再現性」に対応するが,「発見の性質」は值の比較に基づくとされる.「值の再現性」は測定結果の值自体を繰り返して確認できるかという性質であり,結論の再現性は,論文の「結論」の項目の記述であるとしている。 Belz ら [4] および Belz [5] は,再現性と複製性(または反復性)の両方を測定結果の性質として定義している. Belz らは,複製性を実験時刻以外が同じ条件の下での測定結果(の分布)であると定義し,再現性を異なる条件下での測定結果(の分布)であると定義している。 ## B livedoor ニュースコーパス上での 実験詳細 livedoor ニュースコーパスのデータセットの統計情報を表 5 に記載する。本実験では本データセットを $6: 2: 2$ の割合で学習セット $(4,420$ 件 $)$, 検証セット ( 1,473 件), テストセット(1,474 件)に分割した. 各データにはタイトルと本文が含まれているが,本実験では本文のみを用いた. 本実験で使用したハイパーパラメータを表 6 に示す. 使用した三つのモデルでハイパーパラメータは共通である。また,本実験では早期終了を用いており,検証セットでの損失が 3 回連続で更新されなかった場合に,その時点までで検証セットで最も損失が小さいモデルを用いてテストセットで評価した. 17) https://pytorch.org/docs/stable/generated/torch optim. AdamW.html表 5 livedoor ニュースコーパスの各カテゴリ内のデー 夕数. 表 6 実験に用いたハイパーパラメータ. 本実験では三つのモデルすべてで共通のハイパーパラメータを使用した. AdamW の学習率以外のハイパーパラメータは Pytorch のデフォルト設定を用いた ${ }^{17)}$. ## C 再現性調査の対象とした NLP2021 の論文の発表番号一覧 A6-1, A8-4, B7-2, B7-3, C4-2, C8-4, D1-4, D2-2, D5-3, D6-3, D8-1, E9-3, P1-3, P1-6, P3-4, P3-12, P3-17, P4-6, P4-21, P5-14, P6-15, P6-20, P7-14, P8-1, P9-14
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A2-3.pdf
# クラス定義文を用いた Wikipedia 記事の分類 林歓樹 1 中山功太 ${ }^{2,3}$ 関根聡 ${ }^{2}$ 1 早稲田大学基幹理工学部情報理工学科 2 理化学研究所 AIP ${ }^{3}$ 筑波大学情報生命学術院 rainline@akane.waseda.jp \{kouta.nakayama, satoshi.sekine\}@riken.jp ## 概要 本稿では、文書分類の一手法としてクラス定義文と深層学習を用いた手法を提案する。本手法は、 Zero-shot 設定にも適用可能といった特徴がある。提案手法のモデルを Wikipedia 構造化プロジェクト 「森羅 2021」の多言語分類タスクで提出した結果、全参加者のモデルの中で 30 言語中 17 言語でトップの性能を示した。また、Zero-shot 設定でも実験を行い、提案手法が一定の有効性を持つことを示した。 その結果から Zero-shot 予測に適した定義文について議論を行なった。 ## 1 はじめに 近年深層学習を文章分類タスクへ適用した事例が多く報告されている。その中でも訓練時に現れなかったクラスを分類時に認識できるようにする Zero-shot 学習が盛んに研究されている [1]。 「森羅プロジェクト」[2]では、Wikipedia 上の知識を機械が認識できるような形式に構造化することを目標に、多くの人の協働のもとでリソースの構築を行なっている。その中の分類タスクでは、Wikipedia 記事を拡張固有表現1) に基づいたカテゴリーへ分類する。 本稿では、Wikipedia 記事の分類タスクを解くため、クラス定義文を深層学習と併せて利用することで分類を行う手法を提案する。実験によって、定義文を用いたアプローチが文章分類タスクで有効であること、また、Zero-shot 設定においても定義文を用いたアプローチが有効であることを示す。 ## 2 SHINRA2021ML SHINRA2021ML は、30 言語の Wikipedia 記事を拡張固有表現に基づいた約 220 のカテゴリーに分類をするタスクである。本タスクでは分類済み日本語 Wikipedia 記事から言語間リンクが張られている他 1) http://liat-aip.sakura.ne.jp/ene/ene8.1/definition_jp/言語の記事を訓練データとして用いている。本来は複数クラスへの分類タスクだが、訓練データのうち複数クラスに分類される例が $2.50 \%$ と非常に少ないため、今回は単一クラスの分類タスクとして扱う。 ## 3 関連研究 今まで提案された多言語における Wikipedia 記事の分類手法として、多言語 BERT モデル [3] を全言語で学習させたのち、各言語のモデルを作成してその言語ごとの学習データのみで fine-tuning するという手法が提案されている $[4]$ 。その際用いられる学習データは Wikipedia 記事本文のみである。また本文以外の情報を学習データに利用した手法も提案されている [5]。記事本文の他に、記事同士の関係を表した知識グラフ、画像情報、記事のレイアウト、拡張固有表現の階層情報を学習データとして利用している。また、Wikipedia 自身のカテゴリ情報のみを用いて分類する手法も提案されている [6]。 Aly らは、クラス定義文を利用した Zero-shot 固有表現抽出の手法を提案している [1]。対象とする文にクラス定義文を連結して深層学習モデルに入力することで訓練時に現れないクラスの抽出を行なっている。 本研究では、Wikipedia の記事の分類にクラス定義文の情報を利用する手法を提案する。さらに Zero-shot 設定での分類も行う。 ## 4 提案手法 一般的なクラス分類モデルでは、深層学習モデルの出力ベクトルと、各行が各クラスに対応する学習可能な行列との積を取ることでクラス予測を行う。 そのため、各クラスに付与された情報を用いることができない。対して、提案手法では後者の行列をクラスに付与された定義文を元に生成する。つまり、文章を埋め込むモデルの出力べクトルとクラス定義文を埋め込むモデルの出力行列の積により最終的なクラスを予測する。 ## Wikipedia 記事の埋め込み表現の取得方法 初め に Wikipedia 記事の文章を、WordPiece[7] により分割し、トークン列 $\mathbf{x}=\left(x_{1}, x_{2}, \ldots, x_{p}\right)$ を得る。 $p$ は深層学習モデルへの入力長である。WordPiece はサブワードの考え方を用いた分割の一手法である。次に、104 言語で事前学習された多言語 BERT モデル [3] を用いて得られたトークン列から埋め込みべクトル $\mathbf{v} \in \mathbb{R}^{n}$ を得る。2)ここで $\mathrm{n}$ は埋め込みべクトルの次元数である。 ## クラス定義文の埋め込み表現の取得方法 SHINRA2021ML タスクでは階層的な拡張固有表現 の末端カテゴリーへの分類を行う。そのため我々は 本実験では、未端カテゴリーのクラス定義文のみを 用いる。拡張固有表現の $i$ 番目の末端カテゴリの 定義文に対し、Wikipedia 記事と同様の前処理を行 い、トークン列 $\mathbf{t}_{i}=\left(t_{i, 1}, t_{i, 2}, \ldots, t_{i, q}\right)$ を得る。 $q$ は深層学習モデルへの入力長である。その後、学習済み 多言語 BERT を用いて、埋め込みべクトル $\mathbf{g}_{i} \in \mathbb{R}^{n}$ を得る。また、すべての定義文を埋め込むことで行列 $G \in \mathbb{R}^{c \times n}$ を得る。 $c$ は末端カテゴリーの総数で ある。 クラス分類得られた文章埋め込みベクトル $v$ と定義文埋め込み行列 $G$ の積により、最終的な各クラスの予測確率 $\mathbf{p} \in \mathbb{R}^{c}$ を得る。 $ \mathbf{s}=\operatorname{softmax}\left(\mathbf{t} G^{\boldsymbol{\top}}\right) $ 最終的な予測クラス $y$ は、次のように求まる。 $ y=\underset{i \in\{1, \ldots, c\}}{\arg \max } \mathbf{s}_{i} $ 損失関数には、交差エントロピー誤差を用いる。 ## 5 実験 ## 5.1 実験 1: ベースラインとの比較 データセット森羅 2021 において配布された 30 言語の Wikipedia 記事とその分類先カテゴリの教師データを学習に用いた。評価は森羅 2021 のテストデータで行った。 実験対象モデル以下の 2 つのモデルの評価を行なった。 mBERT ベースラインモデル。 multilingual BERT によって Wikipedia 記事の本文の埋め込み表現を 2)この際トークン列に対してそれぞれ文章の先頭と終端を示す特殊トークン [CLS] と [SEP] を結合する。得て、1 層の線形層を用いて分類を行うモデル。 mBERT_def 提案手法。2つの multilingual BERTを用いて Wikipedia 記事と定義文の埋め込み表現をそれぞれ得て、その類似度によって分類を行うモデル。 学習設定分類先カテゴリ数は $c=221$ である。記事と定義文の埋め込みベクトルの次元数は $n=768$ を使用した。各モデルはエポック数 8 、ミニバッチサイズ 64 で学習を行なった。学習率は $5.0 \times 10^{-5}$ に設定した。Wikipedia 記事の埋め込み表現の入力長は $p=512$ に設定した。また、定義文の埋め込み表現の入力長は $q=93$ に設定した。 ## 5.2 実験 2: Zero-shot 設定 Zero-shot 設定での実験を行なった。 データセット森羅 2021 において配布された 30 言語の Wikipedia 記事とその分類先カテゴリの教師データのうち、正解クラスを出現頻度順にソートしたときに、上位 $80 \%$ のクラスを学習データ、80〜 90 \%のクラスをテストデータとして用いた。評価はテストデータを用いて行なった。クラスの分割については表 1 に示す。 実験対象モデル mBERT_def のみで実験を行なった。 学習設定分類先カテゴリ数は学習時は $c=32$,推論時は $c=26$ である。記事と定義文の埋め込みべクトルの次元数は $n=768$ を使用した。各モデルはエポック数 8、ミニバッチサイズ 64 で学習を行なった。学習率は $5.0 \times 10^{-5}$ に設定した。Wikipedia 記事の埋め込み表現の入力長は $p=512$ に設定した。また、定義文の埋め込み表現の入力長は $q=93$ に設定した。 ## 6 評価結果 ## 6.1 実験 1 各モデルの森羅 2021 のテストデータによる各言語に対する評価結果を表 2 に示す。mBERT_def の結果は、mBERT より 28 言語のうち 17 言語で性能が向上した。 また、全参加者のモデルの中で、mBERT_def が 30 言語のうち 17 言語で最も良い性能を示した。定義文を用いたアプローチが性能の向上につながっていることがわかる。 表 1 実験 2 のクラス分割 ## 6.2 実験 2 Zero-shot 設定での各クラスごとの評価結果を表 3 に示す。全体としての F1 値のマイクロ平均は 0.30 とあまり高くない数字だが、クラスごとに見ると 0.70 を超えるクラスがいくつかあり、定義文を用いたアプローチが一定の有効性を示している。 予測性能の差に関する定義文の分析最も F1 値が高かった 3 クラスと低かった 3 クラスについて詳細な分析を行なった結果を表 4 に示す。ここで本文とは Wikipedia 記事本文の先頭 512 単語のことである。また、定義文の単語とは、定義分に含まれる単語から"an"や"of"などのストップワードを除いたものである。F1 值が高い 3 クラスのうち Reptile と Era は、定義文に含まれる単語のうち本文に含まれる単語の割合が高く、F1 值が 0 の 3 クラスは低いことがわかる。このことから、定義文に含まれる単語が Wikipedia 記事本文に含まれていると F1 值が高くなる傾向があると言える。しかし、 Astronominal_Object_Otherクラスに関しては、定義文の単語のうち本文に含まれる単語の割合が低いのにもかかわらず高い F1 值を出している。これは表 5 に示した定義文を見ると、Astronominal_Object_Other クラスの定義文は例示を多用していたり注釈がつ表 2 実験 1 のテストデータに対する結果 いていたりと他の定義文と比べて長くなっている。 これによってより多い単語を定義文に含むため、 Wikipedia 記事本文に定義文の単語が含まれる割合が高くなると考えられる。実際、表 4 に示したように、Astronominal_Object_Otherクラスでは、本文に定義文の単語が一つでも含まれる割合が高くなっている。以上から、定義文の単語が記事本文に含まれる割合が高いとき、または定義文の長さが長く、定義文の単語が記事本文に含まれやすくなっているときに F1 值が高くなる傾向があると考えられる。 表 3 実験 2 のテストデータに対する結果 表 4 実験 2 の定義文に関する分析 & \\ Era & 0.74 & 0.426 & 0.844 \\ Astronomical_ & 0.71 & 0.122 & 0.962 \\ Object_Other & & & 0.768 \\ animal_disease & 0 & 0.267 & 0.674 \\ Academic & 0 & 0.296 & 0.817 \\ Theory & 0 & 0.306 & 表 5 定義文の例 \\ & subordinate categories (1.5.4.1 - \\ & 1.5.4.3).Examples are a galaxy, neb- \\ ula, comet, satellite, interstellar sub- \\ stance, planetary system, etc. An ar- \\ tificial satellite is not included here ## 7 おわりに 本研究では、森羅 2021 の多言語分類タスクにおいて、定義文を用いたアプローチが有効であること、また、Zero-shot の設定でも定義文を用いたアプローチがある程度有効であることを示した。また、 Zero-shot 設定の実験から、どのようなクラス定義文が文書分類に役立つのかを示した。この結果から、 Wikipedia の文書分類に限らない、他のタスクへの応用が考えられる。また、各言語ごとの詳細な分析を行うことで、更なる性能向上につなげられる可能性がある。それらについては今後の課題とする。 ## 謝辞 本研究は JSPS 科研費 JP20269633 の助成を受けたものです。 ## 参考文献 [1] Rami Aly, Andreas Vlachos, and Ryan McDonald. Leveraging type descriptions for zero-shot named entity recognition and classification. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics, 2021. [2] Satoshi Sekine, Masako Nomoto, Kouta Nakayama, Asuka Sumida, Koji Matsuda, and Maya Ando. Overview of shinra2020-ml task. In Proceedings of NTCIR-15, 2020. [3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. In NAACL HLT 2019, 2019. [4] The Viet Bui and Phuong Le-Hong. Cross-lingual extended named entity classification of wikipedia articles. In Proceedings of NTCIR-15, 2020. [5] Hiyori Yoshikawa, Chunpeng Ma, Aili Shen, Qian Sun, Chenbang Huang, Guillaume Pelat, Akiva Miura, Daniel Beck, Timothy Baldwin, and Tomoya Iwakura. Uom-fj at the ntcir- 15 shinra2020-ml task. In Proceedings of NTCIR-15, 2020. [6] Masaharu Yoshioka and Yoshiaki Koitabashi. Hukb at shinra2020$\mathrm{ml}$ task. In Proceedings of NTCIR-15, 2020 [7] Yonghui Wu, Mike Schuster, Zhifeng Chen, Quoc V. Le, Moham- mad Norouzi, Wolfgang Macherey, Maxim Krikun, Yuan Cao, Qin Gao, Klaus Macherey, Jeff Klingner, Apurva Shah, Melvin Johnson, Xiaobing Liu, Lukasz Kaiser, Stephan Gouws, Yoshikiyo Kato, Taku Kudo, Hideto Kazawa, Keith Stevens, George Kurian, Nishant Patil, Wei Wang, Cliff Young, Jason Smith, Jason Riesa, Alex Rudnick, Oriol Vinyals, Greg Corrado, Macduff Hughes, and Jeffrey Dean. Google's neural machine translation system: Bridging the gap between human and machine translation, 2016.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A2-4.pdf
# 多段の数量推論タスクに対する 適応的なモデルの振る舞いの検証 青木洋一 ${ }^{1}$ 工藤慧音 ${ }^{1}$ Ana Brassard ${ }^{3,1}$ 栗林樹生 ${ }^{1,2}$ 吉川将司 1,3 乾健太郎 ${ }^{1,3}$ 1 東北大学 ${ }^{2}$ Langsmith 株式会社 ${ }^{3}$ 理化学研究所 \{youichi.aoki.p2,keito.kudo.q4\}@dc.tohoku.ac.jp, ana.brassard@riken.jp, \{kuribayashi,yoshikawa,inui\}@tohoku.ac.jp ## 概要 数量推論において, Transformer [1] ベースのモデルは演算の複雑さが異なる問題に対しても常に固定の層の数で推論が行われるため, 演算をモデル内部で表現することが難しいと考えられる. 本稿では問題に応じて層の深さを適応的に変化させるモデルである PonderNet [2] が多段の推論を要する数量推論タスクに対してどのように作用するのかを検証した. その結果, 形式言語によって構成される数量推論デー タセットの中でも簡単な演算に対しての正解率は非適応的なモデルと適応的なモデルでは大きな差は見られなかったが, 適応的なモデルの層の深さは入力に応じて変化することが確認できた. ## 1 はじめに 深層学習ベースの自然言語処理システムの数量推論性能が向上することは科学や金融などの分野における応用において有益である一方, 数量推論に対する全体的な解決策はまだ見つかっていない [3].例えば, 算術演算を要する読解問題タスクである DROP [4] に対して, GenBERT [5] が高い精度を達成する一方で, FinQA [6] のような現実の問題に近い設定の場合,ニューラルネットワークは人間のパフォーマンスにははるかに及ばない事が分かっている. また, 学習時に見たことがない桁の数に対する操作や演算を行えない外挿 [7] の問題も有名である. このような問題は, モデルの構造が数量推論に適していない事に起因すると本稿では仮説する。一般的に使われている Transformer ベースのモデルに解かせる場合,「1+1」や,「922×312」のように演算の複雑さが異なる問題に対しても, 常に固定の層の数で推論が行われる. したがって, 問題に応じて層の深さが変化する事がないモデルは演算を内部で表現 することが難しいと考えられる。 本稿では, 問題に応じて層の深さが適応的に変化するモデルとして, PonderNet [2] が多段の推論を要する数量推論タスクに対してどのように作用するのかを検証し, 非適応的なモデルとの比較を行う. PonderNet などの適応的なモデルは入力に応じて行う推論の深さを変化させる事により, 質問応答や多段推論など, 数量推論ではない他のタスクでは非適応的なモデルよりも高い精度を達成することが分かっている. 実験では, 多段の推論を要する推量推論タスクにおいて, 適応的な機構を持つ Ponder Transformer の振る舞いを検証し, 標準的な Transformerなどの非適応的なモデルと比較を行う. データセットは形式言語によって構成され, 解答に要する推論の深さを明示的に定めることが可能となっている. また, 形式言語で書かれたデータセットは, DROP のような自然言語上の数量推論データセットから問題の構造のみ取り出したものと考えることができるため, 形式言語上でモデルの振る舞いを検証することは, 自然言語上での数量推論に対するモデルの振る舞いを検証する手助けになると考えられる。 本稿では, 現状で確認できている範囲の結果を共有し, 最後に冒頭の仮説を検証するための今後の方針を整理する. 実験の結果, 形式言語によって構成される数量推論データセットの中でも簡単な演算に対しての正解率は非適応的なモデルと適応的なモデルでは大きな差は見られなかったが, 入力に応じて適応的なモデルの層の深さが変化することが確認できた. ## 2 PonderNet 標準的なニューラルネットワークでは, 入力に応じて層の数が増減することは無い.一方で,一部では 図 1 Ponder Transformer そのような仕組みをモデルに組み込む研究が注目されており [8, 9], 本研究では中でも PonderNet [2] に着目する. PonderNet は大力に基づいて再帰回数を調整する事ができ, また, 既存のアーキテクチャに対しても簡単に適用可能なアルゴリズムである. アーキテクチャ: PonderNet の基本となるアー キテクチャは, 入力 $x$, 状態 $h_{n}$ として, ステップ関数 $s$ を用いて式(1)のように表される. $ y_{n}, h_{n}, \lambda_{n}=s\left(x, h_{n-1}\right) $ 式 (1) のステップ関数 $s$ は, MLP [10] や LSTM [11] などの任意のニューラルネットワークや, Transformer の 1 層として考えることができる. また,このステップ関数 $s$ は最大 $N$ 回まで再帰的に適用され, 各 $n$ 回目のモデルの出力が $y_{n}$ となる. $\lambda_{n}$ はこの $n$ 回目の再帰的処理を停止する確率, $h_{n}$ は $h_{0}$ を初期状態とした時の中間状態である. モデルは $\lambda_{n}$ の值を元に停止するかどうかの決定を行い, 停止した際の $y_{n}$ の値がモデルの出力となる. 損失関数: 損失関数は,ラベルを $y$ として, 再構築項 $L_{R e c}$ と正則化項 $L_{R e g}$ で式 2 のように構成される。 $ \begin{gathered} L=L_{R e c}+\beta L_{R e g} \\ =\sum_{n=1}^{N} p_{n} \mathscr{L}\left(y, y_{n}\right)+\beta \operatorname{KL}\left(P \| P_{G}\left(\cdot ; \lambda_{p}\right)\right) \end{gathered} $ $p_{n}$ は $\lambda_{n}$ によって求められる $n$ ステップ目で初めて停止する確率 $\left(p_{n}=\lambda_{n} \prod_{j=1}^{n-1}\left(1-\lambda_{j}\right)\right), P$ は $p_{n}$ の分布である (i.e., $P(n)=p_{n}$ ). また, $L_{R e c}$ は, タスクで定義された損失関数 $\mathscr{L}$ の停止確率による期待値, $L_{R e g}$ は $P$ と式 3 のように定義された事前分布(Nで切 り捨てられた幾何分布, $\lambda_{p}$ でパラメータ化されたもの)の間の KL ダイバージェンスである. $ P_{G}\left(n ; \lambda_{p}\right)=\lambda_{p} \prod_{j=1}^{n-1}\left(1-\lambda_{p}\right) $ ## 3 人工数量推論データセット 本研究では, 事前学習用の簡単なデータセットとメインの多段推論用のデータセットの 2 つをプログラムによって人工的に生成し, 実験に用いる. ## 3.1 事前学習用データセット 多段推論で訓練する前にモデルが簡単な数量推論が可能になるように事前学習を行う. 図 2 上のように, 数値は $0 \sim 199$ の範囲, 演算子は足し算「+」の 1 種類, 各式は 2 項演算によって構成されたデータセットを用いる. 事例の数は $40 \mathrm{~K}$ である. ## 3.2 多段推論用データセット 各モデルの比較に用いるデータセットとしては,図 2 下のようなデータセットを作成した. データセットは図のように数値の範囲が数値は $0 \sim 199$, 演算子は足し算「+」の 1 種類, 変数は $\mathrm{a} \sim \mathrm{e} の 5$ 種類で構成されている. このデータでは, 式は $\mathrm{b}=\mathrm{a}+1$ のような (最後の質問を除いた) 文脈中に出現するカンマ区切りの文字列と定義し, 「 $c=23+b, a=1, b=a+1, b=? 」$ という事例の場合, 式の数は 3 である. また,「推論の深さ」は,「解答に必要な式の数」として定義する. 文脈中には解答に必要のない式もダミーの式として含まれてい 事前学習用データセット Q: $25+32=$ A: 57 多段推論用データセット 推論の深さが1の場合 $\mathrm{Q}: \mathrm{e}=34, \mathrm{c}=\mathrm{e}+3, \mathrm{e}=$ ? A: 34 推論の深さが2の場合 Q: $b=12+a, d=b+3, c=11, a=c+67, a=$ ? A: 78 推論の深さが3の場合 Q: $a=65+c, c=43+d, d=11, a=$ ? A: 119 図 2 データセット概要図 るが,これらは問題を解くことに要する「推論の深さ」には影響しない. よって, 図 2 の深さ 2 の例は $c=11 \rightarrow a=c+67$ という推論過程を踏むため深さ 2 とみなされる。 検証にこのような形式言語による多段推量推論夕スクを採用する強みは, 1. データの分布をコントロールする事ができる 2. 推論の深さなど問題の形式を自由に調整できる の 2 点である. 1 に関しては, DNN モデルは, データセット中の分布の偏りに敏感であり, 本来の問題の構造に依らない解法を見つけてしまうことが知られている $[12,13]$. 人工データを用いる事によりこの問題を極力排し, モデルの数量推論能力をより直接的に評価することができる. 2 に関しては, 推論の深さ,数値の範囲やダミーの式の有無など, 検証に必要な要素を自由に制御可能なことにより,DNN モデルの数量推論に関する強みや限界を詳細に評価できる。 ## 4 実験 ## 4.1 モデル 以降の実験では以下のモデルを事前学習用データセット (§ 3.1) で事前学習し, 多段推論用データセッ卜 (§ 3.2)で追加学習・評価を行う. Vanilla Transformer: エンコーダ層, デコーダ層が共に 6 層ずつの標準的な Transformer. Ponder Transformer: PonderNet ( $\begin{aligned} & (2)\end{aligned}$ を Transformer 層に適用したものである. エンコーダ層, デコーダ層が共に 1 層ずつの図 1 のような Transformer の亜種であり, 図中の停止ノードの出力である停止確率を元にループの回数が決定する. 今回の実験では, エンコーダ層の [CLS] トークンに当たる出力を停止ノード (線形層) に入力し, 停止確率 $\lambda_{n}$ を求める. また, 最大停止回数 $N$ は 6 , 損失関数の正則化項 $L_{\text {Reg }}$ に対する重み $\beta$ は $\{0.1,0.01,0.001\}$ を探索して最適な値, 幾何分布を決定するパラメータ $\lambda_{p}$ は $1 / 4$ とした. Loop Transformer: Ponder Transoformer と同様に, エンコーダ層, デコーダ層が共に 1 層ずつの Transformer であり, 同じ層に繰り返し表現ベクトル列を入力する (i.e., Vanilla Transformer の層間のパラメータを共有した亜種). Ponder Transformer と異なる点としてはループの回数が動的に変化せず, 6 回で固定されている点である. 各モデルに共通するハイパーパラメータとして,最適化手法は Adam [14], 学習率は 0.0001 , 埋め込みベクトルの大きさは 512 , アテンション層のユニッ卜数は 512,アテンションヘッドの数は 8 とした. また, 入力に対する埋め込みは文字単位で行い, タスクは 1 棪ずつの生成で解く. ## 4.2 多段の数量推論 学習・評価セット中に含まれる推論の深さ (§3) = $1,2,3$ の事例の割合を変化させながらモデルの性能を評価した (表 1). 各設定ごとにデータセット全体を生成したのち, 学習・訓練データの割合が $8: 2$ となるようにランダムに分割した. また, ランダムにダミー の推論ステップを使う事で各事例中の式の数は 1~ 4 の範囲になるように設計する。 Ponder Transformer と Vanilla, Loop Transformer を比較すると,精度による違いはあまり見られなかった。 これは簡単な足し算のみのデータ上での比較であるためと考えられ, 今後更に複雑な問題上でも比較を行っていく必要がある. しかしながら, 推論の染さ 1 のものが解ける段階から深さ 2 の問題が解けるようになるためには, 実験データに含まれる推論の深さ 2 の事例数が $5 K$ では不十分だった (表 3 行目) のに対し, 推論の深さが 3 の事例を解くことができるためには, データ中に推論の深さ 3 の事例を $5 \mathrm{~K}$ 含めるだけで正解率がほぼ 1.0 になるという興味深い現象が見られた.ここから, 推論の深さ 2 の問題の解き方 図 3 解答に必要な式の数が 2 , 文脈中に出現する式の数が 2 4 の事例に対する Ponder Transformer の再帰回数のヒストグラム の知識があれば, 深さ 3 の問題に対しては少量の事例のみで足りることが見て取れる. 表 1 推論の深さ (解答に必要な式の数) の割合を変化させた場合の正解率. $x / y / z$ は推論の深さが $1 / 2 / 3$ の事例が学習・評価データに合計して $\mathrm{x}, \mathrm{y}, \mathrm{z}$ 個あることを表している ## 4.3 Ponder Transformer の再帰回数に関す る分析 以下の実験では, 再度推論の深さ $1,2,3$ の事例をそれぞれ $1 \mathrm{~K}, 15 \mathrm{~K}, 15 \mathrm{~K}$ 個用意し, 学習・訓練データに 8:2でランダムに分割しモデルを訓練した. 学習させたモデルに対して, 推論の深さが 2 , 式の数が 2 4 の事例に対する再帰回数の変化を調査した. 具体例として,「a=1, b=a+1, b=?」は推論の深さが 2 ,式の数が 2 の事例であり, ダミ一の式を加えることが式の数の増加に対応する。 実験の結果, 図 3 のように, ダミーの式が増えるにつれてモデルの再帰回数も増加し, ダミーの式の有無にも依存してモデルが計算を行なっている事が分かった. これは, 今回構築したデータセットが文脈中に出現する変数の中からランダムにその値を問う形式になっていることに起因していると考えられる.例えば,「c=23+b a=1, b=a+1, b=?」のような入力に対しては, b の値だけではなく文脈中に出現するどの変数の値に対してもモデルが回答可能なように $a, c$ の値も同時に計算していると仮説が考えられる. 図 4 文脈中に出現する式の数が 4 , 解答に必要な式が 13の事例に対する Ponder Transformer の再帰回数のヒストグラム また, 各事例中の式は, 他の式に出現していない変数に対し演算を行い, 鎖状に多段の数量推論を表現しているため, 推論鎖の長さがモデルの再帰回数の変化に反映されたということが図から観察される。 続いて, 文脈中に出現する式の数を固定して推論の深さを変化させた場合に対する再帰回数を調査した. 結果は図 4 のように, 解答に必要な式の数とは直接的に関係なく再帰回数が決定した.これは上記で述べたように, 答えるのに必要な式だけを見ているのではなく, 全ての変数の値を計算しているという仮説と一致する結果である。 ## 5 おわりに 本稿では, PonderNet が数量推論においてどのように作用するのかを人工的なデータセットを用いて検証した. その結果, 簡単な演算に対する正解率は非適応的/適応的なモデル間では大きな差は見られなかったが, PonderNetが問題の構造に応じて再帰回数を変化させるていることが確認できた. この挙動に対する説明としての仮説を実験の節では提示したが, 仮説に対する厳密な評価は今後の課題である. 今回の実験は簡単な足し算のみのデータセット上での比較であったが, 我々は今後人工数量推論問題を用いてさらなる調査を行う予定である. 将来的には数量推論において, 適応的なモデルを用いて簡単な演算に対しては推論過程を短く行うように学習し, 複雑な演算に対してはより長い推論を行うことによる汎化性の向上を目指している. ## 謝辞 本研究は JST CREST JPMJCR20D2 及び JSPS 科研 費 JP20J22697, 20K23314 の助成を受けたものです。 ## 参考文献 [1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need, 2017. [2] Andrea Banino, Jan Balaguer, and Charles Blundell. Pondernet: Learning to ponder, 2021. [3] Avijit Thawani, Jay Pujara, Pedro A. Szekely, and Filip Ilievski. Representing numbers in nlp: a survey and a vision, 2021 [4] Dheeru Dua, Yizhong Wang, Pradeep Dasigi, Gabriel Stanovsky, Sameer Singh, and Matt Gardner. Drop: A reading comprehension benchmark requiring discrete reasoning over paragraphs, 2019. [5] Mor Geva, Ankit Gupta, and Jonathan Berant. Injecting numerical reasoning skills into language models, 2020. [6] Zhiyu Chen, Wenhu Chen, Charese Smiley, Sameena Shah, Iana Borova, Dylan Langdon, Reema Moussa, Matt Beane, Ting-Hao Huang, Bryan Routledge, and William Yang Wang. Finqa: A dataset of numerical reasoning over financial data, 2021. [7] Eric Wallace, Yizhong Wang, Sujian Li, Sameer Singh, and Matt Gardner. Do NLP models know numbers? probing numeracy in embeddings. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 5307-5315, Hong Kong, China, November 2019. Association for Computational Linguistics. [8] Alex Graves. Adaptive computation time for recurrent neural networks, 2017. [9] Mostafa Dehghani, Stephan Gouws, Oriol Vinyals, Jakob Uszkoreit, and Lukasz Kaiser. Universal transformers. In 7th International Conference on Learning Representations, ICLR 2019, New Orleans, LA, USA, May 6-9, 2019. OpenReview.net, 2019. [10] David E. Rumelhart and James L. McClelland. Learning Internal Representations by Error Propagation, pp. 318-362. 1987. [11] Sepp Hochreiter and Jürgen Schmidhuber. Long ShortTerm Memory. Neural Computation, Vol. 9, No. 8, pp. 1735-1780, 111997. [12] Suchin Gururangan, Swabha Swayamdipta, Omer Levy, Roy Schwartz, Samuel Bowman, and Noah A. Smith. Annotation artifacts in natural language inference data. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), pp. 107-112, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [13] Saku Sugawara, Kentaro Inui, Satoshi Sekine, and Akiko Aizawa. What makes reading comprehension questions easier? In Proceedings of the 2018 Conference on Em- pirical Methods in Natural Language Processing, pp. 4208-4219, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. [14] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization, 2017.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A2-5.pdf
# Transformer を多層にする際の勾配消失問題と解決法について 高瀬翔 1 清野舜 2,3 小林堸介 4,3 鈴木潤 3,2 ${ }^{1}$ 東京工業大学 ${ }^{2}$ 理化学研究所 ${ }^{3}$ 東北大学 ${ }^{4}$ Preferred Networks sho.takase@nlp.c.titech.ac.jp shun.kiyono@riken.jp sosk@preferred.jp jun.suzuki@tohoku.ac.jp ## 概要 Transformer は機械翻訳や要約のような系列変換タスクをはじめ,様々なタスクに用いられている。他のニューラルネットワークと同様に,Transformer も性能向上のためには層の数を増やす戦略が取られるが,例えば 18 層以上のように多層化する場合には学習の安定性のために Layer Normalization(LN)の位置を変えた構造を使うことが主流になっている。本研究では,オリジナルの構造での多層化における学習の不安定性は LN による勾配消失であることを示し,Residual Connection を追加するだけで多層化が可能になることを示す.また,多層化において主流の LN の位置を変えた構造は性能が低いことを実験的に示し,提案手法により性能に悪影響を与えることなく多層化できることを示す. ## 1 はじめに 多層ニューラルネットワークの学習において,勾配の爆発や消失を防ぐために Batch Normalization [1] や Residual Connection [2] が考案されてきた. Batch Normalization は適用位置を変化させたときの挙動も議論されており,性能の高い多層のネットワークを構築するためには構造にも気を配る必要がある [3]. 機械翻訳や要約のような系列変換タスクをはじめ,自然言語処理の様々なタスクに用いられている Transformer では Layer Normalization(LN)[4] が採用されている [5]. Transformer についても LN の適用位置に関しての議論がある. 最初に提案された構造である Post-LN は多層にすると勾配消失問題で学習が不安定になり,サブレイヤの入力に LN を適用する Pre-LN と呼ばれる構造(各構造を図示した図 2 も参照のこと)の方が学習が安定していると示されている [6,7]. 例えば, 18 層 Transformer エンコーダ・ デコーダについて,機械翻訳で広く使われている WMT 英-独の訓練および開発データでの損失値を図 (a) Train loss (b) Valid loss図 118 層 Transformer エンコーダ・デコーダの訓練デー タ,開発データの損失値. 1 の (a),(b) に示した. この図から Post-LN は損失値が高いままで,学習を続けても性能が改善されていないことが分かる.このため,多層の Transformer では Pre-LN を採用した研究が多い $[8,9]$. Pre-LN と Post-LN との議論では学習の安定性が沮上に上がることがほとんどであり,性能差に言及した研究は少ない.しかしながら,Liu らは機械翻訳において,学習が成功した場合(例えば 6 層のように多層でない場合)には Post-LN が Pre-LN よりも高い性能を達成したことを報告している [10]. この結果は学習の不安定性に目をつぶれば,Post-LN は Pre-LN よりも優れていることを示唆している. そこで本研究では,Post-LN の学習の安定性向上に取り組む. 特に,本研究では図 1 のような,学習を続けても性能が改善されない現象を学習の不安定性とし,これの改善に取り組む。まず,Post-LN を多層にした際に学習が不安定になる問題は LN による勾配消失が原因であることを示す。加えて, Post-LN と Pre-LN との性能差がどこに起因するかを調査する,上記の観測に基づき,Post-LNに Residual Connection を追加するだけで,学習パラメータの追加や計算コストを増加させることなく,高い性能を維持したまま多層での学習を安定させることが可能になると示す。 (a) Post-LN (b) Pre-LN (c) Post-LN with B2T connection 図 2 Transformerを用いたエンコーダ・デコーダの構造. (a) は Post-LN,(b) は Pre-LN,(c) は Post-LN に提案手法を組み合わせたものである. ## 2 Post-LN と Pre-LN 本節では Post-LN と Pre-LNを概説する. オリジナルの Transformer [5] では各 Residual Connection の後に LN を置く,Post-LN となっている. サブレイヤへの入力を $x$ ,フィードフォワードネットやマルチヘッドアテンションのようなサブレイヤを $\mathscr{F}(\cdot)$ とすると,Post-LNは次のようになる: $ \operatorname{PostLN}(x)=\mathrm{LN}(x+\mathscr{F}(x)) . $ 一方,Pre-LN は各サブレイヤの前にLNを置く: $ \operatorname{PreLN}(x)=x+\mathscr{F}(\mathrm{LN}(x)) . $ 図 2 の (a) と (b) はそれぞれ Post-LN と Pre-LN を図示したものである. ## 3 Transformer における勾配 Liu らが報告しているように,Post-LN では勾配消失が発生する [10]. 図 3 は機械翻訳で広く使われている WMT 英独の訓練データにおける,18 層 Transformer エンコーダ・デコーダの (a) エンコーダ側と (b) デコーダ側の各層の勾配のノルムを示したものである. この図における勾配のノルムは対数目盛りとしてあるため,デコーダ側において Post-LN の勾配は層が浅くなるにつれ指数的に減少していることが分かる。すなわち,Post-LN のデコーダ側では勾配消失が発生しており,この勾配消失が図 1 に (a) Encoder side (b) Decoder side図 3 Transformer エンコーダ・デコーダの勾配のノルム. 示したように多層 Post-LN の学習を不安定にしていると考えられる。 勾配消失の詳細な原因を知るため,図 2(a)の (1) (5) における勾配のノルムを調査した. 図 4 は 18 層目の (1) - (5) における勾配のノルムを示している. この図から,(4) から (3),(2) から (1) で勾配が大きく減衰していることが分かる。この勾配が大きく減衰している点はLN の位置と合致しており,LNが勾配消失の原因であると推測される。 さらに Post-LN と Pre-LN との勾配のながれの違いを探るために,式 (1)と (2) の微分值を計算する.各微分値は次のようになる: $ \begin{aligned} \frac{\partial \operatorname{PostLN}(x)}{\partial x} & =\frac{\partial \mathrm{LN}(x+\mathscr{F}(x))}{\partial(x+\mathscr{F}(x))}\left(1+\frac{\partial \mathscr{F}(x)}{\partial x}\right), \\ \frac{\partial \operatorname{PreLN}(x)}{\partial x} & =1+\frac{\partial \mathscr{F}(\mathrm{LN}(x))}{\partial \mathrm{LN}(x)} \frac{\partial \mathrm{LN}(x)}{\partial x} . \end{aligned} $ (1) (2) (3) Location of Figure $1(\mathrm{a})$ $(5)$ 図 4 WMT 英-独で学習した際の 18 層の Post-LNにおける 18 層目のデコーダの各位置における勾配のノルム. 式 (3) のように,Post-LN の微分はLN の微分およびサブレイヤ F と Residual Connection の微分の積となる.これに対し, Pre-LNの微分は Residual Connection の微分が LN の微分と独立の項となっている.LN の微分が勾配を大きく減衰させたとしても,この Residual Connection の微分が勾配を維持するため,Pre-LNでは勾配消失が発生していないと考えられる。 ## 4 各層による変換 Post-LN では LNによって勾配が減衰し,これによって低層では勾配消失が発生しうる。このため多層の Post-LN の学習は困難であるが,実験の節にあるように,学習に成功した場合は Post-LN は Pre-LN よりも高い性能を達成する.この性能差は各層における変換の程度に依存すると考えられる。 図 5 は Transformer エンコーダ・デコーダについて, WMT データセット内のいくつかの系列を入力した際の,各層の出力間のコサイン類似度を平均し図示したものである. この図において,Pre-LNの左下の類似度は Post-LN の左下の値よりも高いことが分かる. すなわち, Post-LN と比較して, Pre-LN は最初の層と最終層の出力との類似度が高い. 式 (2) のとおり,Pre-LNでは入力 $x$ が Residual Connection によってサブレイヤの $\mathscr{F}(\cdot)$ を回避しており,その結果, 入力 $x$ が最終層の出力に直接足し込まれる. これにより勾配消失は防ぐことができるが,各層からの出力の類似度が高くなってしまう。言い換えれば,Pre-LN は入力を変換する作用が Post-LNよりも小さく,これが Pre-LNが Post-LNよりも性能が低い原因であると考えられる. (a) Post-LN (b) Pre-LN (c) B2T connection図 5 各層からの出力間のコサイン類似度. ## 5 提案手法: B2T Connection 本節では Post-LN の高い性能を維持したまま多層化する手法を提案する.多層化による勾配消失を防ぐためには式 (4) にあるような,微分した際に勾配を維持する項が必要である。これを満たすため,各層における最後の LN 以外の LNを回避する Residual Connection を追加する1). 図 2(c) の赤い矢印で示したように,提案手法は各層への入力をフィードフォワードネットの結果へと結合する。本研究ではこれを Bottom-to-Top (B2T) Connection と呼ぶ。詳細には次式で表現される: $ x_{\mathrm{inp}}+x_{\mathrm{ffn}}+\mathrm{FFN}\left(x_{\mathrm{ffn}}\right) $ ここで $x_{\mathrm{inp}}$ は層への入力, $x_{\mathrm{ffn}}$ はフィードフォワー ドネットへの入力, $\mathrm{FFN}(\cdot)$ はフィードフォワードネットである. つまり, $x_{\text {inp }}$ はセルフおよびエンコーダ・デコーダ間のマルチヘッドアテンション後の LNを回避し,勾配の維持に貢献する. 実際,図 3(b) は B2T Connection が 18 層のエンコーダ・デコーダにおいて勾配消失を防いでいることを示しており, 図 1 に示すように学習も安定している。また, 図 5(c) は B2T Connection は出力間の類似度の傾向が Post-LN と似ており,層ごとの変換を Pre-LN よりも行えることを示している。 ## 6 機械翻訳での実験 系列変換タスクとして,機械翻訳タスクでの実験を行う.要約,自動音声認識タスクについては付録に記した。 1)各層の最後の LN も含め全ての LNを回避する Residual Connection も試してみたが,性能が大きく低下した.全ての LNを回避した場合には大力が出力に直接つながることになり,節 4 で議論したように各層での変換作用が小さくなり, Post-LN の利点が消失するからであると考えられる. ## 6.1 データセット 機械翻訳タスクはオリジナルの Transformerをはじめ, Transformer エンコーダ・デコーダの性能を調べるために広く使われているタスクである $[5,11,6,7,10]$. 本研究では広く使われている, WMT 英-独の 450 万文対を含む訓練データを用いる $[5,11]$. 既存研究と同様, 語彙の構築には BPE [12] を用いる.性能評価には newstest2013-2016 を用いる。 ## 6.2 比較手法 実験では Post-LN,Pre-LN,Post-LN に提案手法である B2T Connectionを組み合わせたもの(B2T Connection)の比較を行う.層の数は広く使われている設定および多層の設定として 6 層と 18 層を採用する。中間層の次元数については Vaswani ら [5] の base 設定と同一の値とする,上記に加えて,多層 Post-LN の学習を安定化する, 下記の既存手法と比較を行う.なお,既存手法は学習を安定化させるために追加のパラメータおよび計算を要する。 DLCL Wang らは下層の出力の重み付き和を次の層への入力とする, Dynamic Linear Combination of Layers(DLCL)を提案した [6]. 各層内に Residual Connection を追加する提案手法とは異なり,DLCL は各層間を接続する経路を設ける. 各出力への重みはパラメータであり学習によって適切な值を得る. Admin 多層の Transformer の学習を安定化させるため, Liu らは Adaptive Model Initialization (Admin) を提案した [10]. これは, 各層の出力の分散を元に初期化したパラメータを導入することで,学習初期での安定性を高めている。追加したパラメータを初期化するためには各層の出力が必要であるため,実際に学習を開始する前に, 複数回の前向き計算を要する。すなわち,本手法はパラメータを追加していることに加え,必要とする計算量も増加している. ## 6.3 結果 表 1 に newstest2013-2016における各手法の SacreBLEU [14] ${ }^{2)}$ で計算した BLEU スコアとその平均值を示した. 表 1 の上部は 6 層, 下部は 18 層の結果を示している。表 1 の上部から,Pre-LN の BLEU スコアは他の手法と比べて低いことが分かる。すなわ 2) SacreBLEU の signature は BLEU+nrefs:1+case:mixed+ eff:no+tok:13a+smooth:exp+version:2.0.0.表 1 WMT newstest2013-2016 における各手法の BLEU ス ち,構造として Post-LNを用いた方が Pre-LNよりも高い性能を達成している. 表 1 の下部では,18 層,すなわち,多層にした際に素朴な Post-LN は学習が失敗していることを示している。具体的には図 1 に示したように,学習を続けても性能が改善しなかった.これに対し,提案手法(B2T Connection)は学習に成功しており,また, Pre-LNよりも高い性能を達成している.これらの結果から, Post-LN は学習が成功すれば Pre-LN よりも高い性能を達成すること,提案手法は Post-LN の利点を維持しつつ多層の学習の安定性を向上させていることが分かる. 従来手法との比較では提案手法が同等以上の性能を達成しており, 追加での学習パラメータや計算コストを要求しない点も鑑みると提案手法が優れていると言える. 付録に要約タスクでの比較も示した. ## 7 おわりに 本研究では Post-LN の学習の安定性向上に取り組んだ. Post-LNを多層にした際は LNによる勾配消失のために学習が不安定になることを示し, Pre-LN と Post-LN の性能差が各層での変換の差に起因する可能性を示した. Post-LNの利点を維持したまま多層での学習を安定させる手法として,B2T Connection という,層内の LNを回避する Residual Connection を提案した. 系列変換タスクでの実験を通して以下の 3 点を明らかにした. 1. Post-LN は学習が成功すれば Pre-LN よりも高い性能を達成可能である. 2. 提案手法により多層 Post-LN の学習が安定する. 3. 提案手法は Post-LN の利点を維持したまま学習を安定させることで,多層にした際に Pre-LN よりも高い性能を達成できる. ## 謝辞 本研究は JSPS 科研費 JP21K17800 および JST, ACT-X,JPMJAX200I の助成を受けたものです。また,本研究の一部(基礎研究)は JST ムーンショット JPMJMS2011 の助成を受けたものです. ## 参考文献 [1] Sergey Ioffe and Christian Szegedy. Batch normalization: Accelerating deep network training by reducing internal covariate shift. In Proceedings of ICML, Vol. 37, pp. 448-456, 2015. [2] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. In CVPR, pp. 770-778, 2016. [3] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Identity mappings in deep residual networks. In Bastian Leibe, Jiri Matas, Nicu Sebe, and Max Welling, editors, ECCV, pp. 630-645, 2016. [4] Jimmy Lei Ba, Jamie Ryan Kiros, and Geoffrey E. Hinton. Layer normalization, 2016. [5] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In NIPS, pp. 5998-6008. 2017. [6] Qiang Wang, Bei Li, Tong Xiao, Jingbo Zhu, Changliang Li, Derek F. Wong, and Lidia S. Chao. Learning deep transformer models for machine translation. In Proceedings of ACL, pp. 1810-1822, 2019. [7] Ruibin Xiong, Yunchang Yang, Di He, Kai Zheng, Shuxin Zheng, Chen Xing, Huishuai Zhang, Yanyan Lan, Liwei Wang, and Tie-Yan Liu. On layer normalization in the transformer architecture. In Proceedings of ICML, pp. 10524-10533, 2020. [8] Alexei Baevski and Michael Auli. Adaptive input representations for neural language modeling. In Proceedings of ICLR, 2019. [9] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In NeurIPS, pp. 18771901, 2020. [10] Liyuan Liu, Xiaodong Liu, Jianfeng Gao, Weizhu Chen, and Jiawei Han. Understanding the difficulty of training transformers. In Proceedings of EMNLP, pp. 5747-5763, 2020. [11] Myle Ott, Sergey Edunov, David Grangier, and Michael Auli. Scaling neural machine translation. In Proceedings of WMT, pp. 1-9, 2018. [12] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neu- ral machine translation of rare words with subword units. In Proceedings of ACL, pp. 1715-1725, 2016. [13] Sho Takase and Shun Kiyono. Rethinking perturbations in encoder-decoders for fast training. In Proceedings of NAACL-HLT, pp. 5767-5780, 2021. [14] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of WMT, pp. 186-191, 2018. [15] Alexander M. Rush, Sumit Chopra, and Jason Weston. A Neural Attention Model for Abstractive Sentence Summarization. In Proceedings of EMNLP, pp. 379-389, 2015. [16] Courtney Napoles, Matthew Gormley, and Benjamin Van Durme. Annotated Gigaword. In Proceedings of AKBC-WEKEX, pp. 95-100, 2012. [17] Rowan Zellers, Ari Holtzman, Hannah Rashkin, Yonatan Bisk, Ali Farhadi, Franziska Roesner, and Yejin Choi. Defending against neural fake news. In NeurIPS, pp. 90549065, 2019. [18] Loïc Barrault, Ondřej Bojar, Marta R. Costa-jussà, Christian Federmann, Mark Fishel, Yvette Graham, Barry Haddow, Matthias Huck, Philipp Koehn, Shervin Malmasi, Christof Monz, Mathias Müller, Santanu Pal, Matt Post, and Marcos Zampieri. Findings of the 2019 conference on machine translation (WMT19). In Proceedings of WMT, pp. 1-61, 2019. [19] Vassil Panayotov, Guoguo Chen, Daniel Povey, and Sanjeev Khudanpur. Librispeech: An asr corpus based on public domain audio books. In ICASSP, pp. 5206-5210, 2015 . [20] Changhan Wang, Yun Tang, Xutai Ma, Anne Wu, Dmytro Okhonko, and Juan Pino. Fairseq S2T: Fast speech-to-text modeling with fairseq. In Proceedings of AACL-IJCNLP, pp. 33-39, 2020. [21] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of EMNLP, pp. 66-71, 2018. 表 2 見出し文生成 [15] における各手法の ROUGE-1,2, LのF-1スコア(それぞれ R-1,R-2,R-Lとする. 表 3 LibriSpeechにおける各手法の単語誤り率. ## A 要約・自動音声認識での実験 ## A. 1 データセット 生成型要約タスクは機械翻訳に並んで代表的な系列変換タスクある. 本研究ではニュースの 1 文目を入力とし,見出し文を生成する見出し文生成に取り組む. Rush ら [15]によって Annotated English Gigaword [16] から構築されたデータセットを用いる. 本データセットは 380 万文対の訓練データと 1951 文対のテストデータからなる. また, 既存研究 [13] にならい, REALNEWS [17] と NewsCrawl [18] から構築した 1300 万文対の追加の訓練データを用いる. 機械翻訳と同様,BPE で語彙の構築を行う. 加えて,言語以外のモダリティとして自動音声認識での実験を行う. 英語の音声認識で広く使われているデータセットとして LibriSpeech [19] を用いる. 既存研究 [20] にならい, 利用可能な全ての訓練データを学習に用い, 開発,テストセットについて Clean と Otherの 2 種を用いる. デコーダ側の語彙は SentencePiece [21] で構築する. ## A. 2 比較手法 要約においては機械翻訳タスクでの実験と同様, Post-LN, Pre-LN, B2T connection, DLCL, Admin との比較を行う. 層の数は 6 層および 18 層とする. 自動音声認識では Post-LN,Pre-LN,B2T connec- tion の比較を行う. なお,従来研究 [20] はエンコー ダ側を多層にすることで性能が向上することを示しているため,本実験ではエンコーダ側のみ多層にし,デコーダ側の層数は 6 層で固定とする. エンコーダ側の層数は 6 層および 12 層とする. ## A. 3 結果 表 2 に見出し文生成のテストデータにおける ROUGE-1,2,LのF-1 スコアを示す. 層の数が 6 層の場合には Post-LN および提案手法は Pre-LN よりも高いスコアを達成している. 18 層の場合には Post-LN は学習に失敗してしまっているが,提案手法は学習に成功しており, Pre-LNよりも高い性能を達成している. この結果から, 見出し文生成においても,学習に成功すれば Post-LN は Pre-LN よりも高い性能を達成可能なこと,提案手法は Post-LN の利点を活かしたまま多層にした際の学習の安定性を向上させることが分かる. 既存研究である DLCL [6],Admin [10] との比較では, 6 層, 18 層のどちらの場合でも提案手法が高い性能を達成している。機械翻訳タスクでの結果とあわせると,提案手法はこれら従来手法と同等以上の性能を達成すると言える。なお,提案手法には追加での学習パラメータや計算コストを要求しない点を再度強調したい。 表 3 に各手法の単語誤り率を示す. エンコーダの層数が 6 層の場合には,機械翻訳や要約タスクと同様,Post-LN および提案手法が良い性能を達成している. エンコーダの層数が 12 層の場合には素朴な Post-LN は学習に失敗してしまっているが,提案手法は学習に成功しており, dev-clean を除いて Pre-LN よりも高い性能を達成している。この結果も機械翻訳や要約タスクと同様,提案手法は多層にした際の学習の安定性を向上させること, Post-LN のように高い性能を達成可能であることを示している。
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A3-1.pdf
# ニューラル言語モデルの効率的な学習に向けた 代表データ集合の獲得 鈴木潤1,2* 全炳河 ${ }^{1}$ 賀沢秀人1 ${ }^{1}$ Google 合同会社 ${ }^{2}$ 東北大学 \{junsuzuki, heigazen, kazawa\}@google.com ## 概要 本稿では,大規模な学習データから選択した少量の代表データ集合を用いてニューラル言語モデルを学習した際に, 元の学習データ全てで学習した場合と同等な性能を達成できるかという研究課題について検証する。実験では,二つの特性の違う言語モデルの尤度差に基づく選別方法により代表データ集合を獲得し,GLEUベンチマークデータで評価をおこなった. 元データの 20 分の 1 から 50 分の 1 程度まで削減した代表データ集合から学習したニューラル言語モデルの GLUE 平均スコアが, 全データから学習した場合と同等であることを示す. ## 1 はじめに 自然言語処理の研究分野では, 2017 年頃からニューラル言語モデルの研究が注目され, 以降数多くの研究成果が報告されている $[1,2,3,4,5,6]$. これまでに発表された多くの研究において,ニューラル言語モデルを事前学習済みモデルとして解きたいタスクに特化したモデルに組み込むことで,事前学習済みニューラル言語モデルを用いない場合と比較して飛躍的に性能を向上できることを示している. つまり,特定のタスクに依存しない大規模な生テキストから学習した事前学習済みニューラル言語モデルは, 多種多様な自然言語処理タスクの汎用特徵量 (universal feature) として効果的に機能することを示している.このことからも,ニューラル言語モデルは,昨今の自然言語処理の成功の根幹を担う必須の基盤技術と言える。 事前学習済みニューラル言語モデルに関しては,最近の様々な研究により, 学習データ量, および, モデルサイズを大きくすることが比較的一貫性をもって性能を向上できる二大要因であることが検証され,実験的に立証されている $[2,3,6]$. ただし, その性能向上の効率に関しては,例えばデータ量やモデルサイズに対して概ね対数線形程度で効果が得られる場合が多いことも同時に知られている $[7,8]$. つまり,あるデータ量で得られる性能からデータを増やして得られる性能向上と同程度の性能向上をさらに目指す場合は,増やしたデータの 10 倍増やす必要がある.このことから,より性能の高い言語モデルを獲得するには,膨大な量の学習データ,および,その処理に必要な大規模な計算リソースが必要になることを意味する.実際に,性能の高い事前学習済みニューラル言語モデルは,潤沢な計算リソー スを持つ大手企業や研究機関からリリースされることがほとんどであり,例えば大学の研究室などの多くの計算リソースや研究資金を持たない場合は,高性能な事前学習済みニューラル言語モデルを構築するのは非常に困難である. このようにな現状から,事前学習済みニューラル言語モデルのような重要な基盤研究を,多数の研究機関で取り組むことができない状況が発生していると考えられる. 重要な要素技術の研究に対して広く研究者が参加できないのはあまり適切な状況とは言えない。 そこで,本稿では,ニューラル言語モデルの学習データに着目し,大規模なニューラル言語モデルを学習する際に用いるデータから,同等かそれ以上の性能を持つニューラル言語モデルを学習できる部分集合を抽出できるかについて検証をおこなう.本稿では,便宜上,ある特定のデータセットに対して, そのデータセットの性質を適切に保持する部分集合を「代表データ集合」と呼ぶこととする。もし,効果的な代表データ集合を抽出できれば,現実的な計算リソースおよび研究資金で事前学習済みニューラル言語モデルの研究ができるようになり,より多くの研究者が参加し分野の発展がより早く進むことが期待できる。 ^{*}$ Google Visiting Researcher として実施した研究成果 } ## 2 関連研究 本研究と同様に,少ない計算資源と研究資金で事前学習済み言語モデルの研究を実現することを主目的とした取り組みが既になされている [9]. この論文では,24 時間で BERT[2] の学習を実現するために必要な学習時の設定やモデルの改良などを示している (通称 24hBERT). この論文により, 計算リソー スが少ない環境でもニューラル言語モデルの効率的に学習する知見が数多く示されている。 これまでのニューラル言語モデルの研究では,性能向上の方策の一つとしてデータ量を増やしていった.しかし, 最近では, Common Craw1 ${ }^{11}$ などの現在比較的簡単に取得可能な生テキストのうち最大級のデータ(webテキスト)を使うのが当たり前となり, これ以上は安易にデータが増やせない状況になってきた.このように,データ量増加に関して頭打ちになりつつあることから,次に量から質を高める方向が注目されるようになった. 実際に,データの質を制御あるいは向上させることで,最終的なニューラル言語モデルの性能が向上したという報告も散見されるようになった [10]. 従来のように方法論としてモデルの改良ではなく,データに焦点をあてデータを改良することで最終的なタスク性能を向上させようという取り組み(例:[11,12,12])を,最近ではデータ中心 $\mathrm{AI}$ (Data-centric AI)研究と総称し新たに注目すべき研究カテゴリとなっている2). 本研究も,こういったデータに着目した研究の一環と捉えることができる. ## 3 代表データ集合の選別 本来,この代表データ集合という用語を定義するために,データセットの性質と計測方法など上記の説明を定量的かつ明確に計算するための定義が必要であるが,ここでは直接的な定義は設けない。その代わり,目的タスクにおいて,データ全体を用いた時と同等かそれ以上の性能を達成することができる部分集合のデータと定義する. つまり, 直接の計測は困難なので,目的タスクの性能をもって,代表データ集合が元のデータ集合の性質を保持していると間接的に計測する方法をとる。本稿においては,言語モデルの性能について評価することが目的であるため,言語モデルの性能評価に一般的に用いられ  るベンチマークデータの性能を比較することで,効果的な代表データ集合が獲得できたかを判断する。 代表データ集合を選出する方法論には,多くの方法が考えられる.ここでは,簡単な方法論として文献 [13] にて提案された尤度差に基づく方法論を取り上げる. 注意点として, 本手法は全く何もない状態から代表データを抽出する汎用の方法ではない。また,それを目指しているわけでもない。あくまでも最新のニューラル言語モデルが存在し, その学習が可能な環境があることを前提とし,それを出発点として,いかに有用な代表データ集合を選別できるかを考える。これは,代表データ集合を一度作成することができれば,以降はこのデータを使うことで,少ないデータから高品質な言語モデルを作成できるようになり,言語モデルそのものの研究を限定された計算環境しかない場合でも実行できるようにしたい,という目的を達成するためである. ## 3.1 尤度差に基づく選別 言語モデルに効果的なデータかどうかを判断する方法として,文献 [13] にて提案された二つの言語モデルの尤度差を利用する方法を, 本研究の目的に合わせた形で流用する。この方法は, 特定のドメインに特化したデータ (in-domain data) から学習した言語モデルと,特定のドメインに特化しないデータ (non-domain-specific data) から学習した言語モデルにより計算される対象テキストの尤度差により,特定のドメインにより適したデータを選別する方法である.以降ここでは,便宜上,前者を特化型言語モデル,後者を汎用言語モデルと呼ぶことにする。また,評価対象となる文章を $X$ とする。このとき,特化型言語モデル $M_{I}$ による $X$ の尤度を $L_{M_{I}}(X)$, 汎用言語モデルによる $X$ の尤度を $L_{\mu_{N}}(X)$ とすると,尤度差に基づくスコア $S_{L}$ は以下の式により計算できる。 $ S_{L}=L_{\Omega_{I}}(X)-L_{\mu_{N}}(X) $ ただし,ここでの $L_{M_{I}}(\cdot), L_{M_{N}}(\cdot)$ は. 文章中に出現する各単語の対数尤度の和を用いる。 前に述べた通り,本研究では「少ないデータから学習したニューラル言語モデルでも性能が高い」ことが目的である. そこで,特化型言語モデルとして,事前学習済みニューラル言語モデルを用いて, ある自然言語処理タスクを実行した際に,より高い性能が得られると考えられるデータで学習された ニューラル言語モデルと仮定する. 具体的に利用する学習データに関しては,実験(4 節)にて述べる。 また, 汎用言語モデルは,通常の手順により得られるニューラル言語モデルと仮定する。 ## 3.2 ランキング 本研究において実際に実現したいことは,代表データ集合の獲得であるが,扱えるデータ集合の量は実際には各ユーザの計算機環境や研究資金に依存して決まるので, 事前に規定するのは難しい. そこで今回は,代表データ集合として適切かどうかを表すスコアを個々のデータに付与する方法を採用する.これにより, 実際に利用したいユーザの環境に応じて,そのスコアの順番に従って上位のデータを取得することで,代表データ集合を利用者が比較的自由に取得できる仕組みとする。 ## 4 実験 本稿では, 従来通り大規模なデータを使って学習した通常の事前学習済みニューラル言語モデルと,代表データ集合を使って学習したニューラル言語モデルの性能を比較し, 本研究で用いた代表データ集合の選出方法が有効か検証することを目的に実験を実施する.以降,簡単のため, 3 節の方法で得られる代表データ集合をRepSet と表記する。 ## 4.1 ベースラインニューラル言語モデル 本実験では,ベースとなるニューラル言語モデルとして Text-to-text Transfer-Transformer (T5)[3] を用いた. ニューラル言語モデルの性能は, モデルサイズにより大きく変わることが知られている. 本実験で タ), Base ( $2250 \mathrm{M}$ パラメタ), Large ( $\approx 800 \mathrm{M}$ パラメタ), $\mathrm{XL}(\sim 3 \mathrm{~B}$ パラメタ)の 4 モデルを用いた. モデルパラメタや学習時のハイパーパラメタの設定は, 基本的に上記文献およびサイトで配布されている設定に従う. ## 4.2 学習用/評価用データセット 本実験で用いるデータセットは 2 種類ある。一つは,ニューラル言語モデルの学習用データである生テキストの集合であり,もう一つは,言語モデルの性能評価に用いるべンチマークデータである.  表 $1 \mathrm{C} 4$ データ,および,代表データ集合 (RepSet) に関する統計量. \#docs: 文書数, \#words: 単語数(トークン区切り未使用), ratio: C4 (default) に対する filesizeでの比率. まず,ニューラル言語モデルの学習用データとして, Colossal Clean Crawled Corpus (C4) データ $[3]^{4}$ ) を用いた. また,ニューラル言語モデルの評価用ベンチマークデータとしては, GLUEデータセット [15]を用いた. 本実験の全てのデータは Tensorflow Datasets (tfds) から直接呼び出して利用した. ここで注意点として,本実験の評価は全て開発用データの結果である. 本実験では,データの傾向を調査することが目的であり,設定を変えて多数の実験を実施することになる.このような場合には,評価用データを用いるのは不適切と考えられるため5),開発用データにて評価するのは妥当と考えられる。 ## 4.3 実験で用いる設定 RepSetを得るには,式 1 に示した特化型ニューラル言語モデル $M_{I}$ と汎用ニューラル言語モデル $M_{N}$ が必要となる. 本実験では,それぞれの目的に合った学習データを用意することで 2 種類のニューラル言語モデルを区別して構築する。まず,汎用言語モデル $\mu_{N}$ の学習には標準的な $\mathrm{C} 4$ データを用いた. 次に, 特化型ニューラル言語モデル $M_{I}$ の学習用には,C4 の部分集合として事前に定義されている $4 /$ realnewslike と 4 //webtextlike を選択した. 更に,これらのデータに文献 [10] に紹介されている重複削除 (deduplication) の処理を適用した.これらのデータ集合から学習した $M_{I}$ および $M_{N}$ を用いて式 1 により C4 データ内の各事例のスコア付け,および,ランキングを実施した. 次に RepSet として,4つのサイズの違う集合 RpeSet-1, 2, 3, 4 を用意した. 表 1 に,C4 の全体のデータサイズ,および,作成した RepSet の規模に関する統計量を示す.更に,RepSet と同じデータ量  図 1 データ選択基準 RepSet と RANDOM の違いによる平均 GLUE スコアの比較. 図中のプロット点は左から RpeSet-1, RpeSet-2, RpeSet-3, RpeSet-4, C4 (default) $の$ 值. 図 2 モデルサイズの違いによる平均 GLUE スコアの比較. 図中のプロット点は左から RpeSet-1, RpeSet-2, RpeSet-3, RpeSet-4, C4 (default) の值. をランダムに抽出したデータ集合(以下,このデー 夕集合をRANDOM と呼ぶ)を用意した。 RepSet または RANDOM を使い事前学習済みニュー ラル言語モデルとして T5をそれぞれ学習した. その後, GLUE の学習データを全て統合し一括でファインチューニングした6) 最終的に得られたファインチューニング済みモデルを GLUE ベンチマークデー タを用いて比較することで,間接的に RepSet の有効性を検証する。 ## 4.4 実験結果および検証 図 1 に, データ選択基準 RepSet と RANDOM の違いによる平均 GLUE スコア(縦軸)とデータ量(横軸:対数スケール)の関係および比較を示す. モデルサイズとしては Small と Base の結果である. 次に,図 2 にモデルサイズ Small, Base, Large, XL に対する RepSet の結果をプロットした. 6)タスク毎にファインチューニングしタスク毎の特化モデルを構築するのではなく, 全タスクの評価に一つのモデルを使用する設定である.本実験においては,基本的な性質としてデータ量は多ければ多いほど性能は安定的に高くなるという傾向が見られた。同様に,モデルサイズに関しても,モデルサイズが大きくなればなるほど性能が高くなった (Small $<$ Base $<$ Large $<\mathrm{XL}$ ). これらの結果は直感やこれまでの多くの研究成果と同じ傾向の結果と言える。 次に,データを選択する際にRepSetを使うことで RANDOMよりも良い結果が得られることがわかった. つまり,少ないデータ量の設定でも RepSet が効果的なデータを選択できていることを示唆している.例えば,RepSetを用いることで,データ量(ファイルサイズ)を 21 分の 1 程度までなら Small から XL まで全てのモデルサイズで性能を維持できるという結果になった. このことから,T5 の論文と同等の実験をしようと思った際に, 21 分の 1,あるいは, Base であれば 47 分の 1 程度のデータ量でも同様の実験ができることが期待できる.ただし,モデルサイズが大きくなると,データ選択でデータ量を減らした際に,性能の劣化が早く訪れることが観測されたので注意が必要である (例: XL の RepSet-3 と 4). RANDOM によりデータ量を削減する場合に,事前の予測ほど性能の低下は大きくなかった,これは,元データに冗長性があることが想定される。 よって,㔯長性を排除する方法論を組み合わせることで,更に性能向上できる可能性が考えられる. ## 5 おわりに 本稿では,大規模な学習データから代表データ集合を選択しニューラル言語モデルを学習した際に,元の学習データ全てで学習したニューラル言語モデルと同等な性能を達成できるか, という研究課題の検証をおこなった. 本稿の実験では,尤度差に基づくランキングにより獲得した代表データ集合は,元データの 21 分の 1 程度のデータ量でも GLUE の平均性能の観点で同等の性能が得られることを示した. また,ランダム選択の場合は,データ量を減らした場合に顕著に性能が低下することも示した. これらの結果から, 少ない計算リソースと研究資金しかない研究組織においても最先端の事前学習済み言語モデルの研究をやりやすくする,という本研究の最終目的の実現可能性を示した. 代表データ集合を利用することで,事前学習済み言語モデルを改善する研究が更に推進することを期待する。 ## 謝辞 本研究に関して Google 合同会社澤井裕一郎氏にアドバイスを頂きました. 感謝いたします. ## 参考文献 [1] Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, and Luke Zettlemoyer. Deep Contextualized Word Representations. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 2227-2237, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [3] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the Limits of Transfer Learning with a Unified Textto-Text Transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020. [4] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising Sequence-to-Sequence Pretraining for Natural Language Generation, Translation, and Comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, Online, July 2020. Association for Computational Linguistics. [5] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language Models are Unsupervised Multitask Learners. 2019. [6] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language Models are Few-Shot Learners. In H. Larochelle, M. Ranzato, R. Hadsell, M. F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Curran Associates, Inc., 2020 [7] Jared Kaplan, Sam McCandlish, Tom Henighan, Tom B. Brown, Benjamin Chess, Rewon Child, Scott Gray, Alec Radford, Jeffrey Wu, and Dario Amodei. Scaling Laws for Neural Language Models, 2020. [8] Tom Henighan, Jared Kaplan, Mor Katz, Mark Chen, Christopher Hesse, Jacob Jackson, Heewoo Jun, Tom B. Brown, Prafulla Dhariwal, Scott Gray, Chris Hallacy, Benjamin Mann, Alec Radford, Aditya Ramesh, Nick Ryder, Daniel M. Ziegler, John Schulman, Dario Amodei, and Sam McCandlish. Scaling Laws for Autoregressive Generative Modeling, 2020. [9] Peter Izsak, Moshe Berchansky, and Omer Levy. How to Train BERT with an Academic Budget. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 10644-10652, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [10] Katherine Lee, Daphne Ippolito, Andrew Nystrom, Chiyuan Zhang, Douglas Eck, Chris Callison-Burch, and Nicholas Carlini. Deduplicating Training Data Makes Language Models Better, 2021. [11] [12] Timothy Nguyen, Roman Novak, Lechao Xiao, and Jaehoon Lee. Dataset Distillation with Infinitely Wide Convolutional Networks, 2021. [13] Robert C. Moore and William Lewis. Intelligent Selection of Language Model Training Data. In Proceedings of the ACL 2010 Conference Short Papers, pp. 220-224, Uppsala, Sweden, July 2010. Association for Computational Linguistics. [14] Jesse Dodge, Maarten Sap, Ana Marasović, William Agnew, Gabriel Ilharco, Dirk Groeneveld, Margaret Mitchell, and Matt Gardner. Documenting Large Webtext Corpora: A Case Study on the Colossal Clean Crawled Corpus, 2021. [15] Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel Bowman. GLUE: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding. In Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 353-355, Brussels, Belgium, November 2018. Association for Computational Linguistics.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A3-3.pdf
# Iterative Back-translation は対訳語彙を獲得できるか? 谷川琢磨秋葉友良塚田元 豊橋技術科学大学 } \{tanigawa.takuma.fu, akiba.tomoyoshi.tk, tsukada.hajime.hl\}@tut.jp ## 概要 ニューラル機械翻訳におけるデータ拡張手法として, Iterative Back-translation (IBT) が知られている. IBT は,翻訳対象言語対の 2 つの単言語コーパスを相互に逆翻訳とモデルの更新を繰り返し行うことで,疑似対訳データと翻訳モデルの質を向上させる手法である.IBT は効果的な手法であることが知られているが,その知識獲得の過程は十分に解明されていない. 本研究では, IBT を用いたドメイン適応を対象に,単言語コーパスからどのような過程でターゲットドメインの対訳語彙を獲得しているかについて調査を行った. その結果,反復を繰り返すごとに対訳語彙を獲得していき,最終的には獲得可能な 6 割以上の対訳語彙が獲得できていることが示された. ## 1 はじめに 近年のニューラル機械翻訳(NMT)における有効的なデータ拡張手法として, Iterative Backtranslation(IBT)[1][2] が知られている. IBT は,翻訳対象言語対の 2 つの単言語コーパスを相互に逆翻訳とモデルの更新を繰り返し行うことで,疑似対訳データと翻訳モデルの質を向上させる手法である. IBT は効果的なデータ拡張手法であることが実験的に示されている一方,その原理については十分に明らかになっているとは言えない. 特に,互いに対応関係のない 2 言語の単言語コーパスから,実際に翻訳に関する知識が獲得されるかどうか,詳細に調べた研究は存在しない. そこで本研究では,IBTを用いたドメイン適応の問題設定を対象に,単言語コーパスからドメイン固有の対訳語彙が獲得されるかどうかを調査することで,IBT の知識獲得の過程を明らかにする。その際,対訳語彙を 2 つの単言語コーパスから獲得するには,少なくとも対訳となる単語対それぞれが各単言語コーパスに存在する必要があると考えられるため, 理想的な設定として単語対が必ず含まれることが保証されるコンパラブルコーパスを用いた実験も行った.加えて,翻訳モデルの処理単位が対訳語彙の獲得に与える影響を調査するために,サブワード単位および単語単位の翻訳モデルで比較を行った。 ## 2 Iterative Back-translation(IBT) Iterative Back-translation(IBT) に基づくドメイン適応手法の手順を説明する.ここで,Xと $\mathrm{Y}$ はそれぞれの言語を示し,言語 $\mathrm{X}$ から $\mathrm{Y}$ の翻訳を X-Y,Y からXへの翻訳を Y-X と記す。 いて, Model ${ }_{X-Y} 0$ と Model $_{\mathrm{Y}-\mathrm{X} 0}$ を学習する. 2. $\mathrm{i}$ を 0 に初期化して以下を反復する. 2.1ターゲットドメインの単言語コーパス $\mathrm{C}_{\mathrm{Y}}^{\mathrm{in}}$ を Model $_{\mathrm{Y}-\mathrm{X}}$ により翻訳し,疑似対訳コー パス ( $\left.\mathrm{C}_{\mathrm{X}}^{\text {in }}, \mathrm{C}_{\mathrm{Y}}^{\mathrm{in}}\right)$ を作成する. 疑似対訳コー パスと( $\mathrm{C}_{\mathrm{X}}^{\text {out }}, \mathrm{C}_{\mathrm{Y}}^{\text {out }}$ )を結合した学習データを用いて, Model ${ }_{X-Y}$ から Fine-tuning を行い $\operatorname{Model}_{X-Y}(i+1)$ を学習する. 2.2ターゲットドメインの単言語コーパス $\mathrm{C}_{\mathrm{X}}^{\mathrm{in}}$ を Model ${ }_{X-Y} \mathrm{i}$ にり翻訳し,疑似対訳コー パス( $\mathrm{C}_{\mathrm{Y}}^{\text {in }}, \mathrm{C}_{\mathrm{X}}^{\mathrm{in}}$ )を作成する. 疑似対訳コー を用いて, Model $\mathrm{Y}_{\mathrm{Y}-\mathrm{X}}$ から Fine-tuning を行い Model $_{Y-X}(i+1)$ を学習する. $2.3 \mathrm{i} \leftarrow \mathrm{i}+1$ ## 3 調査手法 ターゲットドメインの知識獲得の過程を確認するために,本実験では対訳語彙の獲得を調査した.言語 $\mathrm{X}$ と言語 $\mathrm{Y}$ の対訳語彙獲得を調査するために行った手順は以下のとおりである. 1. 言語 $\mathrm{X}$ のソースドメインの学習データ (対訳コーパス) に存在する単語集合 $\mathrm{O}_{\mathrm{X}}$ とターゲットドメインの学習データ (単言語コーパス) に存 図 1 Iterative Back-translation の手順 在する単語集合 $\mathrm{I}_{\mathrm{X}}$ をそれぞれ求め,ターゲットドメインの学習データにのみ存在する単語集合 $\mathrm{D}_{\mathrm{X}}=\mathrm{I}_{\mathrm{X}}-\mathrm{O}_{\mathrm{X}}$ を特定する. 同様に言語 $\mathrm{Y}$ の $\mathrm{D}_{\mathrm{Y}}=\mathrm{I}_{\mathrm{Y}}-\mathrm{O}_{\mathrm{Y}}$ も求める. 2. Moses[3] の単語アライメントツールを用いて, テストデータにおける言語 $\mathrm{X}$ と言語 $\mathrm{Y}$ の単語アライメントを求める ${ }^{11}$ .テストデータ中でアライメントされた単語対 $\left(w_{X}, w_{Y}\right)$ について,両言語の単語がともに $\mathrm{D}_{\mathrm{X}} , \mathrm{D}_{\mathrm{Y}}$ に含まれているもの $\mathrm{T}=\left.\{\left(\mathrm{w}_{\mathrm{X}}, \mathrm{w}_{\mathrm{Y}}\right) \mid \mathrm{w}_{\mathrm{X}} \in \mathrm{D}_{\mathrm{X}} \wedge \mathrm{w}_{\mathrm{Y}} \in \mathrm{D}_{\mathrm{Y}}\right.\}$ を獲得目標の対訳語彙とする。 3. 調査対象の翻訳モデルによってテストデータの翻訳を行い, $\mathrm{T}$ の対訳語彙の入力側の単語 $\mathrm{w}_{\mathrm{X}}$ それぞれに対して,対応する単語 $\mathrm{w}_{\mathrm{Y}}$ が翻訳結果に出力されていれば,その対訳単語対 $\left(\mathrm{w}_{\mathrm{X}}, \mathrm{w}_{\mathrm{Y}}\right)$ が獲得できているとみなす. 翻訳モデルごとに対訳語彙の獲得を比較するために,テストデータの対訳語彙 $\mathrm{T}$ に含まれる入力単語延べ数に対する対訳語を獲得できた割合を対訳語彙獲得率と定義し, 本研究の評価指標とした。 ## 4 実験 IBT によってドメイン適応を行い,翻訳モデルの翻訳結果からターゲットドメインの対訳語彙獲得を確認することにより,ドメイン知識の獲得を調査する。また,コーパスの前処理や単言語コーパスの違 1)単語アライメントの精度を向上させるため,ドメイン適応実験で単言語コーパスとして利用するものも含め、利用できる対訳コーパスを全て用いて EM 学習を行った。 いによって対訳語彙の獲得にどの程度影響を与えるのか調査する. ## 4.1 データセット ソースドメインの対訳コーパスには,対訳 440,288 文からなる Wikipedia 日英京都関連文書対訳コーパス (KFTT)を用いた. ターゲットドメインの単言語コーパスには,英語と日本語の対訳コーパスである Asian Scientific Paper Excerpt Corpus (ASPEC)[4] の対訳データの全文 100 万文を 50 万文ずつ分割して,両言語に前半 50 万文を単言語コーパスとして使用したコンパラブルなもの (以降,この単言語コーパス対を CP と表記) と,英語の前半 50 万文と日本語の後半 50 万文をそれぞれ使用した非コンパラブルなもの (以降,NCP と表記) について調査した。 $\mathbf{C P}$ は各言語の単言語コーパスに,同じコンテキストで対訳語が出現する理想的な条件,NCP は必ずしも同じコンテキストで対訳語が出現するとは限らない現実的な条件,に相当する。テストデータと開発デー タには ASPEC 指定のものを用いた。 コーパスの前処理については,処理単位をサブワードとした場合と単語の場合の 2 通りを実験した. 処理単位をサブワードとする場合は,すべてのテキストデータに対して NFKC 正規化を行い,さらに英語データに対しては Moses[3] のトークナイザによる形態素解析と truecaserによる小文字化を行った. そして,両言語を Sentence Piece [5] を用いてサブワード単位の分割を行った。ボキャブラリサイズは 16,000 に設定した。処理単位を単語とする場合は,同様に NFKC 正規化を行った後,日本語デー タには MeCab[6] を用いた形態素解析,英語データに対しては Moses のトークナイザによる形態素解析と truecaserによる小文字化を行った. truecaser と Sentence Piece のモデルの学習には,ソースドメインの対訳コーパスとターゲットドメインの単言語コー パスの両方を用いた。 調査対象の対訳語彙を求める際の単語アライメン卜作成には,ASPEC コーパスに NFKC 正規化,形態素解析,全英単語の小文字化の前処理を行った.英語の形態素解析には Moses のトークナイザを,日本語には MeCabを使用した。その後,Mosesを用いた単語アライメントを作成するために,どちらかの言語で 40 単語を超える文を含む文ぺアの削除を行った. EM 学習には,ターゲットドメインの利用できる全ての対訳データを用いて単語アライメントを作 表 1 調査対象対訳語彙の統計 成し, 調査対象のテストデータの単語アライメントだけを実験に利用した. 文ぺア削除後のテストデー タのサイズは 1,557 文対であった. ## 4.2 実験方法 3 章の手順に従って対訳語彙の特定を行った. まず,KFTT 対訳コーパスに出現する単語集合 $\mathrm{O}_{\mathrm{En}}, \mathrm{O}_{\mathrm{Ja}}$, ASPEC 単言語コーパスに出現する単語集合 $\mathrm{I}_{\mathrm{En}}, \mathrm{I}_{\mathrm{Ja}}$ ,からターゲットドメインの ASPEC 単言語コーパスにのみ存在する単語 $\mathrm{D}_{\mathrm{En}}, \mathrm{D}_{\mathrm{Ja}}$ を求めた. その後,テストデータ間の単語アライメントを作成して,作成したアライメントと $\mathrm{D}_{\mathrm{En}} , \mathrm{D}_{\mathrm{Ja}}$ を用いて調査対象の対訳語彙 $\mathrm{T}$ を特定した。 翻訳モデルの学習は 2 章で記述した IBT の手順に従った。まず,ソースドメイン対訳コーパス KFTT から翻訳モデル Model0を学習し,ターゲットドメイン単言語コーパスである ASPEC Model0を用いて翻訳して疑似対訳コーパスを作成した。次に, KFTT の対訳コーパスと ASPEC の疑似対訳コーパスを連結した学習データを用いて Model0を fine-tuning して翻訳モデル Model1を得た. その後, 再び単言語コーパスを Model1を用いて翻訳して疑似対訳コーパスを作成した. 以降もこのような手順を双方向かつ反復的に行うことでモデルの学習を行った. 次に,学習した各種モデルを用いてテストデータを翻訳した。翻訳モデルの処理単位をサブワードとした場合は,翻訳結果のサブワード列をデトークナイズした後, 日本語は MeCabによる形態素解析を行い,単語列に変換した. 得られた単語列に対して,3章の手順に従って翻訳結果に対訳語彙が出力されているか確認を行った. ## 4.3 実験条件 ニューラル機械翻訳システムには OpenNMT[7] を用いた. モデルには Transformer を使用し, 最適化アルゴリズムには Adam を用いて学習率を 2 とした. 学習ステップは Model0 では 30000 ステップ,以降の Model では 5,000 ステップずつ学習を行い続け,開発データに対する accuracy が 3 回連続で向上 図 2 英日方向の対訳語彙獲得率 図 3 英日方向の BLEU しない場合に終了し,もっとも高かった accuracy のモデルを選択した. 処理単位を単語とする場合は, ボキャブラリサイズ 50,000 に加えて,調査対象の対訳語彙の単語をすべてボキャブラリに追加した. これは,単語単位の翻訳の場合,そもそもボキャブラリに含まれない単語を出力することはできないため,語彙獲得不可能となってしまうからである.翻訳のボキャブラリには含まれているという条件の下で,対訳語彙獲得を調査した. また,単語単位の翻訳モデルでは,翻訳時に未知語を入力側のもっともらしい単語にそのまま置き換える OpenNMT の replace_unkを使用した. モデルの翻訳精度の評価には BLEUを用いた. ## 4.4 実験結果 表 1 に調查対象の対訳語彙に関する統計を示す.英日と日英方向の翻訳実験それぞれについて,単言語コーパス対がコンパラブルである場合 $(\mathbf{C P})$ と非コンパラブルである場合 $(\mathbf{N C P})$ ,翻訳単位をサブワードとした場合 (subword) と単語とした場合 (word), の組み合わせで $2 \times 2=4$ 通りの実験を行った. 図 2 と図 3 に,英日方向の対訳語彙獲得率と翻訳性能の結果を,それぞれ示す.また図 4 と図 5 に,日英方向の対訳語彙獲得率と翻訳性能の結果 図 4 日英方向の対訳語彙獲得率 図 5 日英方向の BLEU を,それぞれ示す. 各グラフの横軸は,IBT の反復回数を示し, Model0がソースドメイン対訳コーパスだけで学習した場合, Model1 が一度だけターゲットドメインの単言語コーパスを逆翻訳した場合 [8], Model2 以降が IBT に相当する. 実験結果から,どの翻訳方向と実験状況の場合でも,IBT の反復を繰り返すことで対訳語彙獲得率が徐々に上昇するとともに翻訳性能 (BLEU) も向上していることがわかる. 理想的な条件である $\mathbf{C P}+$ subword において,対訳語彙獲得率は英日方向で約 $67 \%$, 日英方向で $61 \%$ となり, 獲得可能な 6 割以上の対訳語彙が獲得できた。現実的な条件である NCP+subword においても,英日方向で約 $63 \%$, 日英方向で $59 \%$ と 6 割前後の対訳語彙が獲得されていた.この結果から, IBT は対訳語彙の獲得が可能で, その性質が翻訳性能の向上に寄与していると考えられる. また,両言語で対訳語が同じコンテキストで出現するとは限らない現実的な条件である NCP でさえ対訳獲得獲得はそれほど低下しなかったことから,IBT は使用する単言語コーパス対に依存せずロバストに語彙獲得できることが示された. 処理単位がサブワードである場合と単語の場合を比較すると, subword は word よりも高い対訳語彙獲得率を達成した。これにより, 対訳語彙獲得に表 2 実際に獲得できた対訳語彙の例 は処理単位をサブワードとすることの有効性が示された. 実際,Model0,すなわちソースドメインの対訳コーパスのみで学習した場合,ターゲットドメインの対訳は獲得できないはずであるが,それでも subword の場合は少量の対訳語彙が獲得できている.これは,サブワードを使用するだけで音訳的な対訳語の獲得 (例えば、albumin とアルブミン、UHV と UHV、など) ができているためである.しかしながら,単語単位であってもIBT の反復によって 4 割程度の対訳語彙獲得が達成できていることから,サブワードの利用が対訳語彙獲得の必要条件ではないことを示している. NCP+subword の設定で,実際に獲得できた対訳語彙の例を表 2 に示す. 科学技術論文ドメインである ASPECから,trivial ではない対訳語が多数獲得できていることがわかる. また,IBT の繰り返しによる翻訳結果の変化の例を付録の表 3 に示す. ## 5 結論 本研究では,IBT のターゲットドメインの知識の獲得過程を,対訳語彙の獲得を確認することで調査を行った. 結果として, IBTの反復を繰り返すごとに対訳語彙を獲得していき,最終的にターゲットドメインの獲得可能な対訳語彙の 6 割以上を獲得したことを確認した. 同様に BLEU も向上していることから,IBTではドメイン内コーパスの対訳語彙を獲得することによって,翻訳性能の向上に寄与していることが明らかになった。 また,IBT は利用する単言語コーパスがコンパラブルかそうでないかに関わらず,単言語コーパスのみから対訳語彙の単語同士の関係を学習できていること,翻訳の処理単位にサブワードを用いることで対訳語彙獲得率を向上させること,がわかった. ## 謝辞 本研究は JSPS 科研費 19K11980 および $18 \mathrm{H} 01062$ の助成を受けた。 ## 参考文献 [1] Vu Cong Duy Hoang, Philipp Koehn, Gholamreza Haffari, and Trevor Cohn. Iterative Back-Translation for Neural Machine Translation. In Proceedings of the 2nd Workshop on Neural Machine Translation and Generation, pp. 18-24, 2018. [2] 森田知熙, 秋葉友良, 塚田元. Fine-Tuninng と混成的な逆翻訳サンプリングに基づくNMT の双方向反復的教師なし適応の改善. 言語処理学会第 27 回年次大会発表論文集,pp.1669-1673, 2021. [3] Philipp Koehn, Hieu Hoang, Alexandra Birch, Chris Callison-Burch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, Chris Dyer, Ondřej Bojar, Alexandra Constantin, and Evan Herbst. Moses: Open Source Toolkit for Statistical Machine Translation. In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics Companion Volume Proceedings of the Demo and Poster Sessions, pp. 177-180, 2007. [4] Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. ASPEC: Asian scientific paper excerpt corpus. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC' 16), pp. 2204-2208, 2016. [5] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for Neural Text Processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, 2018 [6] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying Conditional Random Fields to Japanese Morphological Analysis, In Proceedings of the Conference on Emprical Methods in Natural Language Processing, pp.230237, 2004. [7] Guillaume Klein, Yoon Kim, Yuntian Deng, Jean Senellart, and Alexander Rush. OpenNMT: Open-Source Toolkit for Neural Machine Translation. In Proceedings of ACL 2017, System Demonstrations, pp 67-72, 2017. [8] Rico Sennrich, Barry Haddow, and Alexandra Birch, Improving Neural Machine Translation Models with Monolingual Data, In Proceedings of the Annual Meeting of the Association for Computational Linguistics, pp.86-96, 2016. ## A 付録 表 3 対訳語彙獲得の例
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A3-4.pdf
# ラウンドトリップ翻訳を用いた ニューラル機械翻訳のデータ拡張 紺谷 優志 秋葉 友良 塚田 元 豊橋技術科学大学 \{kontani.yushi.qu,akiba.tomoyoshi.tk, tsukada.hajime.hl\}@tut.jp ## 概要 ニューラル機械翻訳 (NMT) は学習に膨大な規模の対訳コーパスを必要とするが,ドメインによっては大量の学習データを用意することが難しい場合もある. 本研究では,ラウンドトリップ翻訳を用いて学習データを追加のリソースを用いることなく拡張する手法を提案する.疑似対訳コーパスを用いて翻訳モデルの性能を向上させる手法である Iterative Back Translation に本手法を結合した実験を行った結果,本手法がモデルの翻訳性能を有効に向上させられることが分かった。 ## 1 はじめに 近年,機械翻訳手法の一つであるニューラル機械翻訳(NMT)が従来手法である統計的機械翻訳を大きく上回る翻訳性能を持つことが報告されている. しかし NMT を構築するためには数十万〜数百万文という大量の対訳コーパスが必要であり,十分な量の対訳コーパスを用意できない場合は十分な性能の翻訳モデルを作ることはできない.また,翻訳モデルは学習データのドメイン (分野) にも強い影響を受ける. ドメインによっては大量のデータを用意することが困難な場合もあり,そのような場合においても良質な翻訳モデルを構築するのは困難となる。 本研究では,ある言語の文を別の言語の文に翻訳し,その結果を元の言語の文に逆翻訳するプロセスであるラウンドトリップ翻訳を用いて,対訳コーパスをデータ拡張する手法を提案する。 そして本デー 夕拡張手法を Iterative Back Translation と組み合わせることで,追加の学習データなしで翻訳精度を向上できることを示す. ## 2 関連研究 モデルの精度向上の方法として,対訳コーパスに何らかの操作を行うことで,データを拡張する手法が提案されている. Fadaee ら [1] は,大量の単言語データで学習した言語モデルを活用し,対訳文中の一部の単語を低頻度語に入れ替え学習データに加える方法を提案している。張ら [2] は,単語アライメント情報を用いて対訳コーパスから抜き出した部分的な対訳文を用いて学習データを拡張する方法を提案している。 また,別の学習データを活用するアプローチも取られている. Sennrich ら [3] は目的言語の単言語コーパスを原言語へと逆翻訳して疑似対訳コーパスを生成し,対訳コーパスと合成して翻訳モデルの再学習に使う手法を提案した。森田ら [4], Hoang ら [5], Zhang ら [6] は Sennrich ら [3] の手法を双方向かつ反復的に拡張することで,2つの翻訳方向のモデルを相互に改善する方法である Iterative Back Translation(IBT) を提案した. IBTでは対訳コーパスと,比較的入手が容易な単言語データを用意し,対訳コーパスを単言語データでデータ拡張し,各方向の翻訳モデルを反復更新する.IBTによって, Sennrich ら [3] の手法を大幅に上回る翻訳性能を達成できることが報告されている。 ## 3 提案手法 ## 3.1 データ拡張手法 本論文では random sampling を交えたラウンドトリップ翻訳を行うことで,データ拡張を行う手法を提案する。ここで,ラウンドトリップ翻訳とは,ある言語の文を別の言語の文に翻訳し,その結果を元の言語に逆翻訳するプロセスのことを指す。また, random sampling は文の翻訳を行う際,出力される単 語にランダム性を加える方法である.NMT モデルは対訳コーパスから入力文に対する出力文の事後確率分布を学習する。通常の翻訳では,この事後確率分布に従い, 入力された単語列に対して最も出力される確率が高い単語列が出力される. それに対して, 事後確率分布に基づきランダムに単語列を選択し出力するのが random sampling である. random sampling をラウンドトリップ翻訳と組み合わせることでパラフレージングに似た効果を期待できる。 2 つの言語の文 $D_{X}$ と $D_{Y}$ から成る対訳コーパスを用いて $\mathrm{X} \rightarrow \mathrm{Y}$ 方向と $\mathrm{Y} \rightarrow \mathrm{X}$ 方向の翻訳モデルを学習したと仮定する. 両方向の翻訳モデルを用いて, $D_{X}$ を翻訳して言語 $\mathrm{Y}$ の文 $D_{Y}^{\prime}$ を生成し, $D_{Y}^{\prime}$ を翻訳して $D_{X}^{\prime}$ を生成したとき, 対訳文 $D_{X}-D_{Y}$ と疑似対訳文 $D_{X}^{\prime}-D_{Y}^{\prime}$ は表現の大きく異なる対訳文になると考えられる.これが,本研究で提案するラウンドトリップ翻訳によるデータ拡張の基本的な流れである. 本論文では,ラウンドトリップ翻訳と random sampling を用いて目的言語の表現を多様化する 3 つのデータ拡張手法を提案する。なお,すべてのパターンにおいて, $\left(D_{X}^{\prime}, D_{Y}^{\prime \prime}\right)$ を疑似対訳コーパスとし,モデルの再学習に使用する. (a) $D_{X} \rightarrow D_{Y}^{\prime} \rightarrow D_{X}^{\prime}$ (random sampling で生成) $\rightarrow D_{Y}^{\prime \prime}$ (図??) (b) $D_{X} \rightarrow D_{Y}^{\prime} \rightarrow D_{X}^{\prime}$ (random sampling で生成) $\rightarrow$ $D_{Y}^{\prime \prime}$ (random sampling で生成)(図??) (c) $D_{Y} \rightarrow D_{X}^{\prime}$ (random sampling で生成) $\rightarrow D_{Y}^{\prime \prime}$ (図??) (a) 手法 a (b) 手法 b (c) 手法 c 図 1: ラウンドトリップ翻訳で目的言語を多様化するデータ拡張手法(提案手法) ## 3.2 提案手法の双方向反復的適用 提案手法を用いて行う実験全体の流れを以下に示す. 1 対訳コーパス $D_{X}-D_{Y}$ を用いて X-Y 方向と Y-X 方向の翻訳モデルを学習する. 2 両方向の翻訳モデルを用いて $D_{X}$ に対してラウンドトリップ翻訳によるデータ拡張を行い,疑似対訳コーパス $D_{X p}^{Y-X}-D_{Y p}^{Y-X}$ を生成する. 3 元の対訳コーパス $D_{X}-D_{Y}$ と疑似対訳コーパス $D_{X p}^{Y-X}-D_{Y p}^{Y-X}$ を結合した学習データを用いて,Y $\rightarrow \mathrm{X}$ 方向の翻訳モデルを更新する. また,以上の手順を逆向きの言語方向に適用することで, $\mathrm{X} \rightarrow \mathrm{Y}$ 方向の翻訳モデルも構築できる. 本実験ではこれらの手順を森田ら [4] の手法のように双方向に繰り返し適用することで両方向の翻訳モデルを更新していく,全体的な手順を図 2 に示す. ## 4 実験 ## 4.1 データセット 学習用データセットとして TED の講演内容を書き起こした話し言葉のコーパスである IWSLT 2017 データセット [7] を使用した. training データは IWSLT2017 データセットに含まれる英日コーパス(223,108 文)を用いた. dev データと test データはデータセット内の 2010 年版のデータ(それぞれ 871 文と 1,549 文)を用いた。 前処理として英語文,日本語文ともに NFKC 正規化し, 英語文は Moses[8] に付属するトークナイザーと truecaser でトークナイズと大文字小文字の表記統一を行った. 学習前の事前処理として SentencePiece[9] によるサブワード化を行った. ## 4.2 実験設定 NMT システムには OpenNMT-py[10] の Transformer を使用した. エンコーダ,デコーダともに 6 層とし,隠れ層の次元を 512 とした. 初期モデルは訓練データを 25000 ステップまで学習させて作成した.以降のモデルは 1000 ステップごとに保存した. 性能評価には BLEU[11]を用いた. 英日翻訳モデルを評価する際には,テストデータの翻訳結果をデトー クナイズした後 MeCab[12] により分かち書きし評価を行った. また,本実験内で random sampling 翻訳 図 2: 提案手法を用いた双方向反復的データ拡張の流れ を行う際は,いずれも事後確率の上位 10 語の中から語彙をランダムに選択し出力するオプションを指定した. ## 4.3 実験条件 3.1 節に示した 3 パターンのデータ拡張法で実験を行った.また,ラウンドトリップ翻訳による目的言語のデータ拡張の有効性を検証するため, 図 3 に示すような比較手法の実験も行った. なお,すべてのパターンにおいて,最後の 2 つのデータを疑似対訳コーパスとする。また,図 1 と同様,図 3 中の内容は $\mathrm{Y} \rightarrow \mathrm{X}$ 方向の翻訳モデルを学習するための疑似対訳コーパスの作成内容である. $\mathrm{X} \rightarrow \mathrm{Y}$ 方向の翻訳モデルを学習するためには, 図中の内容を逆向きの言語方向に行い,疑似対訳コーパスを作成する. (d) $D_{X} \rightarrow D_{Y}^{\prime}$ (図??) (e) $D_{X} \rightarrow D_{Y}^{\prime}$ (random sampling で生成)(図??) (f) $D_{X} \rightarrow D_{Y}^{\prime} \rightarrow D_{X}^{\prime}$ (random sampling で生成) (図??) (d) 手法 d (e) 手法 e (f) 手法 $\mathrm{f}$図 3: 比較手法手法 d は森田ら [4] の手法で単言語データから疑似対訳コーパスを作成する手順と同一である。また,手法 $\mathrm{f}$ は $D_{Y}^{\prime}$ と $D_{X}^{\prime}$ のペアを用いて $\mathrm{Y} \rightarrow \mathrm{X}$ 方向のモデルを学習している。全ての実験において baseline のモデル (モデル 0) には全て同一のモデルを使い,IBTで 4 回モデル更新を行った(モデル 1~ $4)$. ## 4.4 実験結果 手法 $\mathrm{a} \sim \mathrm{f}$ までの英日翻訳モデルと日英翻訳モデルの BLEU スコアの推移を図 4 と図 5 に示す. 提案手法 $\mathrm{a} \sim \mathrm{c}$ はいずれもモデル 4 までの時点で,モデルの更新に従って BLEU スコアが順調に増加しており,中でも手法 a は突出したスコアを記録しており,英日方向の BLEU は baseline の 8.97 からモデル 4 で 10.09 まで,日英方向の BLEU は baseline の 9.53 から 10.77 まで増加した. それと比べ,比較手法 d f は BLEU スコアがごく僅かな増加に留まっており,モデル 1 やモデル 2 以降の段階で減少に転じているものがほとんどである. 以上のことから,提案法により元の対訳コーパスのみでモデルの性能を改善できること,比較手法よりも性能向上の効果が大きいこと,ラウンドトリップ翻訳によるデータ拡張の構成として - $D_{X} \rightarrow D_{Y}^{\prime} \rightarrow D_{X}^{\prime}($ random sampling で生成 $) \rightarrow D_{Y}^{\prime \prime}$ という組み合わせが最も良い効果を発揮することが示された. 本手法により, 例えば表 1 の $D_{X}^{\prime}-D_{Y}^{\prime}$ の 図 4: 英日翻訳における各手法の BLEU の推移 図 5: 日英翻訳における各手法の BLEU の推移 ## ような新たな対訳が学習データに追加される. ラウンドトリップ翻訳を用いない手法 $\mathrm{d} \sim \mathrm{f}$ に関して, 手法 $\mathrm{d}$ ではモデルの学習に使用した学習デー タをそのまま疑似対訳コーパスの作成に流用している.そのため, 元の対訳コーパスと疑似対訳コーパスの内容がほとんど変化しないためデータ拡張としての意味をなさず,モデルの精度向上にもつながらなかった。 手法 $\mathrm{e}$ は手法 $\mathrm{d}$ と異なり原言語側 $D_{Y}^{\prime}$ の表現は多様化するが, 目的言語側 $D_{X}$ の表現は多様化しない.このことが,翻訳精度向上に結びつかない原因だと考えられる. 手法 $\mathrm{f}$ は $D_{Y}^{\prime}$ が $D_{Y}$ とほぼ同じになるため, random sampling を用いて目的言語側の表現を多様化させてはいるものの, self training と同等の処理となるため,翻訳精度向上に結びつかなかったと考えられる。 ## 5 おわりに 本研究ではラウンドトリップ翻訳を用いたデータ拡張手法を提案し,提案手法とIBT の手法を結合した実験を行いその有効性を検証した. 実験の結果, 4 度のモデル更新を通して BLEU が英日方向で 1.12,日英方向で 1.24 の増加を達成し, 本手法が元の対訳コーパスだけでモデルの精度を向上させられること表 1: 手法 a での翻訳結果の一例 \\ を示した.また,比較手法により目的言語の多様化が精度向上の鍵となっていることが示唆された。 ## 謝辞 本研究は JSPS 科研費 $19 \mathrm{~K} 11980$ および $18 \mathrm{H} 01062$ の助成を受けた。 ## 参考文献 [1] Marzieh Fadaee, Arianna Bisazza, and Christof Monz. Data augmentation for low-resourse neural machine translation. In Proc. 55th Annual Meeting of the Assoc. for Computational Linguistics (Volume 2: Short Papers), pp.567573, Vancouver, Canada, 2017. [2] 張津一, 松本忠博. ニューラル機械翻訳における長文分割によるコーパスの拡張. 言語処理学会第 25 回年次大会発表論文集, pp. 683-686, 2019. [3] Rico Sennrich, Barry Haddow, and Alexandra Birch. Improving neural machine translation models with monolingual data. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 86-96, 2016. [4] 森田知熙, 秋葉友良, 塚田元. 双方向ニューラル機械翻訳の反復的な教師なし適応の検討. 言語処理学会第 25 回年次大会発表論文集, pp. 1451-1454, 2019. [5] Vu Cong Duy Hoang, Phiilpp Koehn, Gholamreza Haffari, and Trevor Cohn. Iterative back-translation for neural machine translation. In Proceedings of the 2nd Workshop on Neural Machine Translation and Generation, pp. 18-24, 2018. [6] Zhirui Zhang, Shujie Liu, Mu Li, Ming Zhou, and Enhong Chen. Joint training for neural machine translation models with monolingual data, In AAAI, 2018. [7] M. Cettolo, M. Federico, L. Bentivogli, J. Niehues, S. Stüker, K. Sudoh, K. Yoshino, and C. Federmann. Overview of the IWSLT 2017 evaluation campaign. In Proceedings of the 14th International Workshop on Spoken Language Translation(IWSLT), 2017. [8] Philipp Koehn, Hieu Hoang, Alexandra Birch, Chris Callison-Burch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, Chris Dyer, Ondřej Bojar, Alexandra Constantin, Evan Herbst, Moses: Open Source Toolkit for Statistical Machine Translation. In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics Companion Volume Proceedings of the Demo and Poster Sessions, pp. 177-180, 2007. [9] Taku Kudo, John Richardson, SentencePiece: A simple and language independent subword tokenizer and detokenizer for Neural Text Processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, 2018. [10] Guillaume Klein, Yoon Kim, Yuntian Deng, Jean Senellart, Alexander M. Rush. OpenNMT: Open-Source Toolkit for Neural Machine Translation, In Proceedings of ACL 2017, System Demonstrations, pp. 67-72, 2017. [11] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. BLEU: A method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, 2002. [12] Taku Kudo, Kaoru Yamamoto, Yuji Matsumoto. Applying Conditional Random Fields to Japanese Morphological Analysis. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, pp. 230-237, 2004.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A3-5.pdf
# Prompting Candidate Words for Refined Word-Level Quality Estimation Yizhen $\mathrm{Wei}^{1}{ }^{1}$ Takehito Utsuro $^{1}$ Masaaki Nagata $^{2}$ ${ }^{1}$ Deg. Prog. Sys.\&Inf. Eng., Grad. Sch. Sci.\&Tech., University of Tsukuba }^{2}$ NTT Communication Science Laboratories, NTT Corporation, Japan \begin{abstract} Based on refined word-level $\mathrm{QE}$, we propose a new function that prompts candidate words for replacement and insertion. In order to implement such a function, we models prompting candidate words as a blank infilling task. Methodologically, we adopted several pre-trained language models including BERT, XLM-R, and mBART to solve the task. En-Zh experiments using a small-scale manually annotated dataset and a large-scale pseudo dataset are conducted. Best performance reaches $34.11 \%$, indicating that over one-third of the blanks whose answers can be correctly prompted by our model. \end{abstract ## 1 Introduction Post-editing refers to the process of editing a rough machine-translated sentence (MT) into a correct one. There are many methods for post-editing assistance to help post-editors doing their work. Schwartz et al. [8] revealed the importance of word alignment for post-editing assistance as showing alignment statistically significantly improves the post-editing quality. However, simple word alignment fails to tell where translation errors are. Original word-level quality estimation (word-level QE) is another traditional method for post-editing assistance [9]. This task outputs QE tags expressed as OK or BAD. However, such a dualistic judgement is not enough because BAD is too ambiguous for post-editors to determine a specific operation. Wei et al. [10] proposed a new task that incorporates source-MT word alignment (referred to as extended word alignment) with the original word-level QE [9]. They succeeded in indicating specific operations for post-editors, which is believed to be an improvement for post-editing efficiency. We consider their task as refined word-level QE. Nevertheless, refined word-level QE only points out where certain operations including replacement, insertion, and deletion should be done. For an operation like insertion or replacement, post-editors still need to think for themselves about specific content to be inserted into MT. Based on refined word-level $\mathrm{QE}$, we take a step further, proposing a novel downstream function which prompts a list of candidate words for replacement and insertion. To implement it, we trained pre-trained language models including BERT [3], XLM-RoBERTa [1] (XLM-R), and multilingual BART [5] (mBART) for blank infilling task. We conduct En-Zh experiments to prove the feasibility of our method. Results show that the best model pre-trained by a large pseudo dataset successfully prompts correct answers for more than one-third of the blanks in the test set. ## 2 A Useful New Function for Refined Word-Level QE ## 2.1 Original and Refined Word-Level QE According to Specia et al. [9], word-level QE is a task that takes a pair of a source sentence and its machinetranslated counterpart (MT) as input. In the original settings, word-level QE outputs QE tags for source words, MT words and gaps between MT words (MT gaps). All those tags are expressed either as OK or BAD. Regarding the fact that BAD is ambiguous and cannot indicate specific operations, Wei et al. [10] proposed a method that incorporates extended word alignment with original word-level QE. In the proposal of Wei et al. [10], they adopted a supervised method based on multilingual BERT [3] proposed by Nagata et al. [6] to extract extended word alignment. They illustrated a user interface showing extended word alignment and original QE word tags. According to them, BAD-tagged words with aligned counterpart indicate replacement while BAD-tagged null-aligned words indicate insertion (at the source side) or deletion (at the MT side). Therefore, post-editors know what operations to do after seeing the interface. Figure 1 Enhancing refined word-level QE by prompting candidate answers for REP-tagged MT words and INS-tagged MT gaps. To make the previous proposal easier to understand, we refine BAD into specific tags including REP, INS, and DEL representing different operations. We refer to such a task as refined word-level QE. ## 2.2 Prompting Candidate Words for Refined Word-Level QE In terms of post-editing assistance, the usefulness of refined word-level QE can be further enhanced if the function of prompting candidate words is implemented. Refined word-level QE succeeds in indicating specific operations, but an operation like replacement or insertion needs further assistance. Namely, correct words to be added into the MT still needs manual consideration. We formally illustrate the new function we propose in Figure 1. As it is shown, based on refined word-level QE, an MT word like “黒 $W$ " that is tagged as REP is a mistranslation to be replaced. Instead of asking posteditors to come up with correct translations on themselves, our system prompts several candidate answers. Among those candidate answers, there is an appropriate one “白い”. Same process could be applied to INS-tagged MT gaps such as the one between “猫” and “が好き”. We believe that prompting candidate words for REPtagged and INS-tagged elements in refined word-level QE makes a system for post-editing assistance more useful. ## 3 Methodology ## 3.1 Multi-Candidate Blank Infilling We model the task that prompts candidate words as a blank infilling task. Generally, blank infilling is a task that takes a sentence with some spans substituted by blanks as input. Models are trained to fill in the blanks with proper words to restore the original sentence. In our case, when given a pair of source sentence and MT along with refined word-level QE tags, it is clear that REPtagged MT words and INS-tagged MT gaps are positions where new content should be added. Therefore, we can turn those elements into blanks, training models to fill in the blanks with correct answers. Moreover, keeping DEL-tagged MT words in the context is meaningless (even adding noise), so that we remove them. For example, if we are given a pair of source sentence and MT like Figure 1 shows, we could build a blanked version of MT as follows “私は [blank] 猫 [blank] が好きだ”. Here, [blank] stands for a special token. Note that we also want the model to output multiple candidates with high probability. We will describe the specific implementation in the next sections. ## 3.2 Blank Infilling with Encoder Architecture We firstly introduce approaches based on pre-trained language models of transformer encoder architecture. Masked language model [3] (MLM), the representative task to pre-train BERT, is a simple approach for blank infilling. The input sequence of MLM is a monolingual sentence with partial tokens masked. Because the input must be monolingual, we cannot incorporate source sentence which contains important information for post-editing. To address this issue, we have also tried translation language model [2] (TLM) based on XLM-R [1]. TLM takes a pair of concatenated parallel sentences with some tokens masked as input. ${ }^{1)}$ TLM evolves from MLM but the model is trained to attend to not only intra-lingual but also inter-lingual information to unmask tokens. In our case, by inputting a concatenation of source sentence and blanked MT, we expect the model to be able to mimic human post- 1) Note that being different from the original TLM, only MT tokens are masked in our case. (a) Blank infilling with BERT (b) Blank infilling with XLM-R Figure 2 " $[\mathrm{M}]$ " in the input sequences stands for mask token. Some text for illustration in (b) is omitted. Please refer to (a). editors, using the source sentence as reference. Both approaches based on transformer encoder architecture have a same issue. There might be multiple words (multiple tokens of course) corresponding to a blank token. But output tokens of transformer encoder strictly corresponds to input tokens one by one. As we do not know the token number of the answer, we do not know how many mask tokens should be there in the input sequence. As a solution, we try multiple values ${ }^{2}$ ) in parallel. Then, we select the top candidates with highest token-wise mean of probability among all output. Figure 2 shows the image of using BERT and XLM-R to do blank infilling. ## 3.3 Blank Infilling with Encoder-Decoder Architecture Inspired by Donahue et al. [4], we also developed a method that utilizes pre-trained language models based on encoder-decoder architecture to do blank infilling task. Donahue et al. [4] proposed a monolingual text infilling framework which output concatenation of answer spans joined by an answer token after a blanked sentence. Unfortunately, their method only supports monolingual text infilling and they trained a GPT-2 [7] which is also monolingual. To adapt the method for our purpose, we adopt multilingual BART [5], an encoder-decoder architecture. Figure 3 illustrates our idea. Specifically, we concatenate source sentence and the blanked MT, keeping blank tokens unchanged. The decoder is trained to do beam search and freely decodes multiple answer sequences which are concatenation of answer spans corresponding to blanks in blanked MT in order. Because mBART generates answer sequence freely, we no longer need to worry about the issue mentioned in Section 2) We tried a range from one to five masks for a blank independently. 3.2. As for multiple candidates, we analyze each answer sequence and split answer spans in order. For each blank, we select answers with top sequence-wise frequency as results. $\left.{ }^{3}\right)$ ## 4 Experiment ## 4.1 Dataset and Experimental Settings We generated the training and test sets based on a smallscale annotated En-Zh datasets for refined word-level QE following the method described in Section 3.1. As a result, we obtained 597 pairs of source and blanked MT along with correct answers for training and 136 pairs for test. Besides of the training data above, we also created largescale pseudo data. Based on randomly sampled 1 million of sentence pairs from the parallel data provided by WMT20 QE task ${ }^{4}$, we randomly blanked out $15 \% \%^{5}$ ) of words in a target sentence to make a blanked MT. That provides us an additional 0.8 million of sentence pairs. As for number of candidates, we expect the models to output top 10 candidate answers which is a reasonable quantity in practice. For BERT and XLM-R, we simply set the model to output 10 tokens for each mask. For mBART, we set number of beams to 10 during beam search. We used pre-trained language models provided by Huggingface ${ }^{6}$. We adopted bert-base-chinese for BERT, $x l m$ roberta-large for XLM-R, mbart-large-cc 25 for mBART. 3) Note that number of answer spans in a sequence is not necessarily equivalent to number of blanks because of free decoding. If number of answer spans is greater, we ignore redundant spans. 4) https://www.statmt.org/wmt20/ quality-estimation-task.html 5) We set the blank probability to 0.15 because we observed such a probability in the annotated set. 6) https://github.com/huggingface/transformers Figure 3 " $[\mathrm{B}]$ " stands for the blank token and " $[\mathrm{A}]$ " stands for the answer token. Following the settings of mBART, we append language tokens at the end of source and blanked MT. The first token input for decoding is the token of target language " $<$ ja>". The script run_language_model.py from transformersv3.3.1 is modified for our own experiments. For pretraining on pseudo data, we train all models for 2 epochs with a learning rate of 3e-5. For training on the annotated data, we train all models for 10 epochs with a learning rate of 3e-5. All the other hyper-parameters are kept unchanged as default of the original scripts. All experiments run on an NVIDIA TITAN RTX (24GB) with CUDA 10.1. ## 4.2 Experimental Results We evaluate the performance of models by counting answer spans that exactly match the top 1 candidate answer (Top-1 Match Rate) or exists in the top $\mathrm{K}$ candidate answers $(\text { Top-K Match Rate })^{7}$. Among 136 sentence pairs in the test set, there are 384 blanks need to be infilled. As the target language is Chinese, we remove all spaces between words during evaluation. For each model, we tried both training on the annotated dataset only, or pre-training on large-scale pseudo dataset and then training on the annotated dataset. ${ }^{8)}$ The results are shown in Table 1. According to the result, we confirmed the effectiveness of pre-training. Except for the top 1 match rate for BERT, in most cases pre-training on large-scale pseudo dataset boosts the performance. Nevertheless, the best top-K match rate of pre-trained BERT reaches $34.11 \%$, which means that BERT successfully provides a correct candidate in its predictions for over one-third of the blanks in the test set. 7) For mBART, because of possible candidate duplication, we cannot guarantee that there are same number of candidate answers as beam number (which is 10 in our experiments) for each blank. That is the reason we call it Top $\mathrm{K}$ rather than Top 10. 8) We have tried to do blank infilling with off-the-shelf BERT and XLM-R directly. But the performance is very poor. Table 1 Top-1 and Top-K match rate of all models. "pt" stands for pre-training. & \\ As a comparison of different architectures, BERT as a monolingual model outperforms XLM-R and mBART. Such a phenomenon is beyond our expectation as we believe that source sentence is an important reference to predict candidate answers correctly. It may proves that our current way to encode source sentence is not proper. In the future, we would like to investigate into more variants that exploit information in the source sentence better. ## 5 Conclusion In order to improve post-editing assistance efficiency, based on refined word-level $\mathrm{QE}$, we further propose a new function that prompts candidate words for those MT words and gaps tagged as REP and INS. Such a function is modeled as a blank infilling task and we adopted architectures including BERT, XLM-R, and mBART to solve the task. Specifically, we generate a large-scale pseudo dataset by randomly blanking out some tokens as well as a small-scale manually annotated dataset. Results of En-Zh experiment shows that our best model can do it for more than one-third blanks, giving 10 candidate answers in which the correct one exists. ## References [1] A. Conneau, K. Khandelwal, N. Goyal, V. Chaudhary, G. Wenzek, F. Guzmán, E. Grave, M. Ott, L. Zettlemoyer, and V. Stoyanov. Unsupervised cross-lingual representation learning at scale. In Proc. 58th ACL, pages 8440$8451,2020$. [2] A. Conneau and G. Lample. Cross-lingual language model pretraining. In Proc. 33rd NeurIPS, pages 7059-7069, 2019. [3] J. Devlin, M. Chang, K. Lee, and Toutanova K. BERT: Pretraining of deep bidirectional transformers for language understanding. In Proc. 17th NAACL-HLT, pages 41714186, 2019. [4] C. Donahue, M. Lee, and P. Liang. Enabling language models to fill in the blanks. In Proc. 58th ACL, pages 2492-2501, 2020. [5] Y. Liu, J. Gu, N. Goyal, X. Li, S. Edunov, M. Ghazvininejad, M. Lewis, and L. Zettlemoyer. Multilingual denoising pre-training for neural machine translation. Transactions of the Association for Computational Linguistics, pages 726-742, 2020 [6] M. Nagata, K. Chousa, and M. Nishino. A supervised word alignment method based on cross-language span prediction using multilingual BERT. In Proc. EMNLP, pages 555-565, 2020. [7] A. Radford, J. Wu, R. Child, D. Luan, D. Amodei, and I. Sutskever. Language models are unsupervised multitask learners. OpenAI blog, 1(8):9, 2019. [8] L. Schwartz, I. Lacruz, and T. Bystrova. Effects of word alignment visualization on post-editing quality \& speed. In Proc. MT Summit XV, 2015. [9] L. Specia, F. Blain, M. Fomicheva, E. Fonseca, V. Chaudhary, F. Guzmán, and A. Martins. Findings of the WMT 2020 shared task on quality estimation. In Proc. 5th WMT, pages 741-762, 2020. [10] Y. Wei, T. Utsuro, and M. Nagata. Word-level quality estimation for machine translation based on source-mt word alignment. In Proc. 27th Annual Meeting of the Association for Natural Language Processing, pages 16641668, 2021.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A4-1.pdf
# 確信度を考慮した言語モデルの関係知識評価 吉川和 ${ }^{1,2}$ 岡崎直観 1 1 東京工業大学 情報理工学院 2 富士通株式会社 富士通研究所 \{hiyori.yoshikawa@nlp., okazaki@\}c.titech.ac.jp ## 概要 本稿では,事前学習済み言語モデルが学習の過程で獲得した関係知識を評価する LAMA probe タスクにおいて,モデル出力に対する確信度を考慮した選択的予測の設定を導入し,その評価を行う。選択的予測の設定では,クエリに対する予測結果の確信度を算出し,予測結果を出力するか否かを決定する. これにより,予測を行った事例に対する精度に加え,誤った予測を出力するリスクをどの程度低減できるかを考慮した評価が可能となる.本稿では,言語モデルのパラメータと出力のみを用い,追加の訓練データを必要としない複数の確信度指標を提案し, LAMA probe タスクを選択的予測の設定で評価する. 実験では,特定の確信度指標の組み合わせが複数のデータセットで有効であり, さらに予測に直接用いた場合に予測精度そのものを改善できることが示された。 ## 1 はじめに 近年,大量のテキストで学習した言語モデルを様々な後段タスクに転用する研究が盛んである $[1,2]$. このようなことが可能となる背景として,言語モデルが事前学習の過程で語彙や文法といった言語知識 $[3,4]$ だけでなく常識や世界知識 $[5,6]$ をテキストから獲得していることが示唆されている. しかし, これらの知識は言語モデルのパラメータに埋め込まれており,シンボリックな知識べースに対するような明示的なアクセスや編集は困難である. Petroni ら [7] は, 言語モデルの保持する常識や事実といった関係知識の量を評価することを目的とし, ベンチマークタスク LAMA probe を提案した. LAMA probe では,問い合わせたい関係知識を自然文の穴埋めタスクに変換し,言語モデルが正しく穴埋めできた場合,言語モデルがその関係に関する 「知識をもつ」と判断する.実験により,BERT 言語モデル [1] がテキストからの関係抽出に基づく手法 と同等かそれ以上の精度を達成すると報告された..一方で,このようにして言語モデルから取り出された知識の信頼性, 逆に言うと誤った知識が出力されるリスクは LAMA probe の枠組みでは考慮されない. シンボリックな知識ベースにおいては,知識ベースに含まれる三つ組の信頼性を人手やシステムにより評価し,信頼性の高い三つ組のみを残すことで知識ベースの質が担保される $[8,9]$. 結果として,実用上は知識ベースに含まれる三つ組は信頼性の高いものとみなすことができる. しかしながら,知識への明示的なアクセスができない言語モデルにおいては,個々の関係知識の信頼性を評価し,編集・削除する方法が確立されていない。ゆえに,知識べー スや言語モデルから知識を取り出すとき,次のような違いが生じる.知識べースでは,問い合わせに対して適切な関係知識が存在しない場合,空の結果を返す。一方,LAMA probe などでの言語モデルへの問い合わせでは,与えられた問い合わせに対して何らかの出力を行うことを前提としているため, 学習で獲得できなかった知識に対して常に誤った出力を返す. 誤った出力は正しい出力と一見して区別がつかないため,この違いは解答される知識の信頼性を重視する様々な応用において,重大な障壁となる.言語モデルの性能を向上させたとしても,学習コー パスに無い事実に関する問い合わせや,答えの存在しない問い合わせ [10] は存在しうるので,モデルが誤った知識を出力するリスクを無視できない. こうした背景から, 本研究では言語モデルが返す知識の誤りリスクを定量化するため,予測に対する振る舞いを考慮したシステムおよび評価方法を検討する。具体的には, LAMA probe タスクに選択的予測 (selective prediction) [11,12] の設定を導入する. 選択的予測は機械学習の枠組みの一つで,システムはモデルの予測結果に基づき予測を実際に出力するか控えるかを選択できる。本研究では特に, Geifman と El-Yaniv [12] により提案されたリスク保証のある設定を考える。この枠組みでは,予測に基 づき計算される確信度スコアにより, 予測の出力可否を判断する. システムの評価では,決められた予測精度を保証しつつ,如何に多くの事例に対し予測を出力できるかを測定する. 本研究では,言語モデルの知識評価に選択的予測の設定を適用するため,言語モデルの出力のみを用いて計算可能な複数の確信度指標を提案し, 実験を通じて最適な指標を比較検討する. 実験の結果, 最適な確信度指標はモデルやデータセットにある程度依存するものの, 特定の確信度指標の組み合わせが一貫して有効であることが確認できた. さらに, 確信度計算に有効な指標は予測の決定に直接用いた場合においても有効であることを確認した。 ## 2 選択的予測 本節では機械学習一般における選択的予測 $[11,12]$ の枠組みについて説明する.選択的予測の設定では, 入力に応じて予測結果を実際に出力するかを判断する選択的分類器 (selective classifier) を導入する. 入力空間 $x$ からラベル集合 $y$ かの分類問題を考える. 選択的分類器はもとの分類モデル $f: X \rightarrow Y$ および選択関数 (selection function) $g: X \rightarrow\{0,1\}$ の組 $(f, g)$ として定義される. 選択関数は, 分類器が入力 $x \in \mathcal{X}$ に対する予測 $f(x) \in \mathcal{Y}$ を実際に出力するかを決定する: $ (f, g)(x):=\left.\{\begin{array}{ll} f(x) & \text { if } g(x)=1 \\ \text { don't know } & \text { if } g(x)=0 \end{array} .\right. $ Geifman と El-Yaniv [12] は,確信度指標に基づく選択関数を用いたリスク保証ありの設定 (selection with guaranteed risk; SGR) を導入した. SGR では選択関数として, 確信度に基づく以下の関数を考える: $ g(x)=\left.\{\begin{array}{ll} 1 & \text { if } \phi(x) \geq \beta \\ 0 & \text { if } \phi(x)<\beta \end{array} .\right. $ ここで $\phi(x): X \rightarrow \mathbb{R}$ は $f$ 確信度関数 (confidence score function) で,その值が閾値 $\beta \in \mathbb{R}$ を超えたときに限り分類器は予測結果を出力する. この形式では, $\beta$ の值を適切に設定することによってシステムに課す誤りリスクの許容範囲を調整できる。 $\beta$ が大きければ大きいほど,予測を出力する事例数が減少するが,誤った予測を行うリスクを低減できる。 リスク保証ありの設定においては,選択的分類器が誤った予測を行うリスク $ \text { Risk }=\frac{1-N_{\text {corr }}}{N_{\text {pred }}} $ と実際に予測を行った事例の割合(カバレッジ) $ \text { Coverage }=\frac{N_{\text {pred }}}{N} $ との間にトレードオフ (risk-coverage tradeoff) が存在する。ここで, $N, N_{\text {pred }}, N_{\text {corr }}$ はそれぞれ全事例数,実際に予測を行った事例数,正しい予測を行った事例数である.選択的分類器の性能は選択関数 (式 (2)) の閾値 $\beta$ を動かして得られるリスクーカバレッジ曲線の AUC (RC-AUC) を用いて評価する. RC-AUC の值が小さいほど,予測を行った事例に対してリスクが小さく,良い分類器とみなされる. ## 3 LAMA Probe タスクへの選択的予測の適用 ## 3.1 LAMA Probe タスクとモデル出力 LAMA probe では,問い合わせたい関係知識をテンプレートにより自然文に変換して言語モデルに入力する。例えば “Dante” と born-in の関係にあるエンティティについて問い合わせる際には, “Dante was born in [MASK]." という文がモデルへの入力となる.ここで [MASK] は単語マスクを示す特別なトー クンで,このトークンに対して予測された単語をクエリに対する回答と見なす. ${ }^{1)}$ テンプレートは関係の種類ごとに人手で作成されている. 本研究における実験では Petroni ら [7] と同様に,双方向言語モデルを評価対象とする.モデルへの入力は,関係知識を問うクエリを単語マスクを含む自然文に変換したものである (例: “Dante was born in [MASK].”). 言語モデルは位置 $t$ がマスクされた大力文 $x=W_{\backslash t}:=\left(w_{1}, \ldots, w_{t-1}\right.$, [MASK], $\left.w_{t+1}, \ldots, w_{|W|}\right)$ を受け取り, 位置 $t$ の単語の予測確率 $P_{\mathrm{LM}}\left(w_{t} \mid W_{\backslash t}\right)$ を出力する. すなわち, 言語モデルによる予測確率最大の単語 $w^{\prime}$ を予測単語とする: $ f(x)=w^{\prime}:=\arg \max _{w_{t}} P_{\mathrm{LM}}\left(w_{t} \mid W_{\backslash t}\right) $ 以下,マスク付き入力文 $W_{\backslash t}$ のマスク位置を予測単語 $w^{\prime}$ で置き換えた文を $W^{\prime}$ と表す。 ## 3.2 確信度関数 LAMA probe はもともと言語モデルが学習で獲得した関係知識を評価するものであることから,確信度関数を構築するときには新しいデータによる言語 1)ここでは,言語モデルとして特に masked language model のような双方向言語モデルを想定している. また,簡単のため予測対象は一単語からなるエンティティに限定されている. モデルの追加学習を必要としないことが望ましい.本節ではこの前提のもと,言語モデルの出力のみを利用するいくつかの確信度関数を提案する. Token ( $\mathrm{T}$ ) マスク位置における単語 $w^{\prime}$ の対数予測確率を用いる: $ \phi_{\mathrm{T}}(x)=\log P_{\mathrm{LM}}\left(w^{\prime} \mid W_{\backslash t}\right) . $ 予測単語の推定(式 (5))に用いた指標をそのまま確信度計算に用いることに相当する。 Sent (S) 文の容認性やファクトチェックの文脈では,文としての確からしさの指標として言語モデルによる文の生成確率が用いられている [13, 14]. ここでは,マスク付き言語モデルに基づく文の擬似尤度 (pseudo-log-likelihood; PLL) [15] を文長で正規化したものを採用する. マスク位置を予測単語 $w^{\prime}$ で置き換えた文 $W^{\prime}$ に対し,確信度は以下のように計算される: $ \phi_{\mathrm{S}}(x)=\frac{1}{\left|W^{\prime}\right|} \sum_{u=1}^{\left|W^{\prime}\right|} \log P_{\mathrm{LM}}\left(w_{u} \mid W_{\backslash u}^{\prime}\right) $ Gap (G) 予測単語における予測確率が他の単語のものと比べて顕著に大きいときにモデルが確信をもって予測を行っているという仮定に基づく. マスク位置における予測確率が最大の単語 $w^{\prime}$ と二番目に大きい単語 $w^{\prime \prime}$ との対数予測確率の差を用いて,次にように確信度を計算する: $ \phi_{\mathrm{G}}(x)=\log P_{\mathrm{LM}}\left(w^{\prime} \mid W_{\backslash t}\right)-\log P_{\mathrm{LM}}\left(w^{\prime \prime} \mid W_{\backslash t}\right) . $ Reranking (R) 異なる指標で予測を評価した際にも,評価対象の予測が他の単語と比べて一貫して優位にあるとき,予測確信度が高いという仮定に基づく.まず,式 (5) にあるようなマスク位置における単語予測確率に基づき上位 $K$ 件の予測候補 WV を得る. 次に,得られた予測候補を別の指標 $\psi$ を用いて並べ替える。並べ替え後の $w^{\prime}$ の順位を $\operatorname{rank}_{\psi}\left(w^{\prime}\right)$ としたとき,確信度指標は以下の式で求められる: $ \begin{aligned} \phi_{\mathrm{R}}(x) & =\log _{2} \frac{K}{\operatorname{rank}_{\psi}\left(w^{\prime}\right)} \\ & =\log _{2} K-\log _{2} \operatorname{rank}_{\psi}\left(w^{\prime}\right) . \end{aligned} $ 上式は本質的には並べ替え後の順位のみに基づく指標であり,言語モデルによるプライバシー情報の記憶リスクの評価にも用いられている [16]. 実験では $K=100$ とし, $\psi$ としては Sent スコア $\phi_{S}(x)$ を用いる.表 1 データセット毎の RC-AUC. 確信度が $X+Y$ のように表記されている場合,複数の確信度指標の和を用いている. GRE: Google-RE, TR: TREx, CN: ConceptNet, SQ: SQuAD,All: 全データセット。 ## 4 実験 ## 4.1 実験設定 本実験で用いる LAMA probe タスク [7] は言語モデルのもつ関係知識を評価するためのベンチマークタスクであり, Google-RE, TREx, ConceptNet, SQuAD の 4 つのサブタスクから構成される. 事前学習済み言語モデルとしては BERT-base および BERT-large [1] を用いる. 評価データ中のクエリの全てについて, Wikipedia 内に少なくとも一つの正解が存在する. BERT は Wikipedia で学習されているため, クエリに正解するための情報は学習データに含まれると考えられる. システムは,言語モデルがクエリに回答する知識を学習によって獲得できている場合には正答を返し,そうでない場合には予測を行わないことが求められる。 ## 4.2 結果 ## 4.2.1 モデル・データセットと確信度関数 表 1 に,各確信度指標を用いた場合の RC-AUC を示す. 全データセットに対する結果を見ると,単独の確信度指標を用いた場合,Token (T)が最もよい性 表 2 予測に用いる指標を変えた場合の予測精度 (P@1) と,RC-AUC の最小值とそれを達成した確信度指標. 能を示した. 2 つの確信度指標を組み合わせた場合には, Token と Reranking を組み合わせた場合 $(\mathrm{T}+\mathrm{R})$ に最もよい性能となった. この傾向は BERT-base, BERT-large に共通であった. データセット中の全ての事例に回答した場合の誤りリスクは BERT-base で 0.757, BERT-large で 0.739 である。これに対し, $\mathrm{T}+\mathrm{R}$ を確信度指標として用いた場合,いずれのモデルについてもカバレッジを 0.3 程度に設定することで誤りリスクを 0.5 未満まで抑えることができた. 具体的なリスクーカバレッジ曲線は付録 $\mathrm{A}$ 節に示す。 次に,データセット毎にそれぞれ RC-AUC を計算した結果を見ると,BERT-base では TREx を除いた 3 つのデータセットにおいて Token と Reranking の組み合わせ $(\mathrm{T}+\mathrm{R})$ が最高性能であるのに対し, BERT-large ではこれらのデータセットにおいて Token (T) を単独で用いた場合に最高性能であった. しかしながら, $\mathrm{T}+\mathrm{R}$ を確信度指標として用いた場合の結果は,各データセットにおける最高性能と比較して大きく劣るものではなかった.このことから, $\mathrm{T}+\mathrm{R}$ を確信度指標がいずれのデータセットにおいても比較的よい性能を示すが,最適な確信度指標はモデル・データセット毎に異なる場合があることが示唆される. TREx データセットについて関係の種類毎の比較を行った結果を付録 B 節に示す。 ## 4.2.2 予測指標と確信度関数 3.2 節で提案した確信度指標の一部は, 最適な予測を決めるための指標として式 (5) の代わりに用いることができる.そこで,各指標を予測に直接用いた場合に LAMA probe の精度 (P@1) を改善できるか,またそれぞれの予測指標に対しどの確信度指標を組み合わせることが最適かを調べた。予測指標と して用いたのはToken (T),Sent (S),Reranking (R) およびそれらの組み合わせである. Reranking については,順位付けに用いる指標 $\psi$ として Token (T) と Sent (S) の二種類を用い, R の添え字で区別する. S と $\mathrm{R}_{\mathrm{S}}, \mathrm{T}$ と $\mathrm{R}_{\mathrm{T}}$ をそれぞれ単独で用いた場合の予測は定義から同一になることから,Reranking を単独で用いた場合の結果は省略する。また,Gap (G) は予測指標が決まって初めて定義される指標であるため対象外とする.なお,計算コストの都合上, $\mathrm{T}$ 以外の各予測指標に基づく予測結果の決定においては,まず $\mathrm{T}$ による指標(式 (5))により候補を上位 100 件に絞り込んだのち,各予測指標を用いてリランキングすることで予測結果を近似した. 表 2 に結果を示す. BERT-base,BERT-large いずれにおいても, $\mathrm{T}+\mathrm{R}_{\mathrm{S}}$ を予測に用いた場合に最高精度を達成した. さらに,いずれの指標を予測指標として用いた場合においても, $\mathrm{T}+\mathrm{R}_{\mathrm{S}}$ を確信度指標として用いた場合に RC-AUC が最善となった.このことから, $\mathrm{T}+\mathrm{R}_{\mathrm{S}}$ が予測指標としても確信度指標としても有効な指標であると考えられる。 ## 5 まとめ 本稿では,言語モデルのもつ関係知識を評価する LAMA probe タスクに選択的予測の設定を導入し, モデル出力の精度に加え,モデル出力の正しさを何らかの確信度指標を用いて判別できるかを評価した. 実験結果から,一般的に予測に用いられるマスク単語の予測確率値をそのまま用いるよりも,提案した Reranking スコアと組み合わせて用いることが予測・確信度計算双方において効果的であることが示唆された。また,適切な確信度指標は用いるモデルや評価対象のデータセットによって異なる場合があることを示した. 今後は,対象タスクやモデルと最適な確信度指標の関係を詳細に調査し, 多様なモデル・タスクにおけるモデル出力の信頼性を担保するための手法を検討したい。 ## 謝辞 本研究は JSPS 科研費 19 H01118 の助成を受けたものです. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chap- ter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. 2019. [3] Alex Warstadt, Yu Cao, Ioana Grosu, Wei Peng, Hagen Blix, Yining Nie, Anna Alsop, Shikha Bordia, Haokun Liu, Alicia Parrish, Sheng-Fu Wang, Jason Phang, Anhad Mohananey, Phu Mon Htut, Paloma Jeretic, and Samuel R. Bowman. Investigating BERT's knowledge of language: Five analysis methods with NPIs. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP), pp. 2877-2887, Hong Kong, China, November 2019. Association for Computational Linguistics. [4] Alessio Miaschi, Dominique Brunato, Felice Dell'Orletta, and Giulia Venturi. Linguistic profiling of a neural language model. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 745-756, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics. [5] Antoine Bosselut, Hannah Rashkin, Maarten Sap, Chaitanya Malaviya, Asli Celikyilmaz, and Yejin Choi. COMET: Commonsense transformers for automatic knowledge graph construction. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4762-4779, Florence, Italy, July 2019. Association for Computational Linguistics. [6] Adam Roberts, Colin Raffel, and Noam Shazeer. How much knowledge can you pack into the parameters of a language model? In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 5418-5426, Online, November 2020. Association for Computational Linguistics. [7] Fabio Petroni, Tim Rocktäschel, Sebastian Riedel, Patrick Lewis, Anton Bakhtin, Yuxiang Wu, and Alexander Miller. Language models as knowledge bases? In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP), pp. 2463-2473, Hong Kong, China, November 2019. Association for Computational Linguistics. [8] Chun How Tan, Eugene Agichtein, Panos Ipeirotis, and Evgeniy Gabrilovich. Trust, but verify: Predicting contribution quality for knowledge base construction and curation. In Proceedings of the 7th ACM International Conference on Web Search and Data Mining, WSDM '14, pp. 553-562, New York, NY, USA, 2014. Association for Computing Machinery. [9] Shengbin Jia, Yang Xiang, Xiaojun Chen, Kun Wang, and Shijia. Triple trustworthiness measurement for knowledge graph. In The World Wide Web Conference, WWW '19, p. 2865âĂŞ2871, New York, NY, USA, 2019. Association for Computing Machinery. [10] Najoung Kim, Ellie Pavlick, Burcu Karagol Ayan, and Deepak Ramachandran. Which linguist invented the light- bulb? presupposition verification for question-answering. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 3932-3945, Online, August 2021. Association for Computational Linguistics. [11] Ran El-Yaniv and Yair Wiener. On the Foundations of Noise-free Selective Classification. Journal of Machine Learning Research, Vol. 11, No. 53, pp. 1605-1641, 2010. [12] Yonatan Geifman and Ran El-Yaniv. Selective Classification for Deep Neural Networks. In Proceedings of the 31st International Conference on Neural Information Processing Systems, NIPS' 17, pp. 4885-4894. Curran Associates Inc., 2017. [13] Jey Han Lau, Carlos Armendariz, Shalom Lappin, Matthew Purver, and Chang Shu. How furiously can colorless green ideas sleep? sentence acceptability in context. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 296-310, 2020. [14] Nayeon Lee, Yejin Bang, Andrea Madotto, and Pascale Fung. Towards few-shot fact-checking via perplexity. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1971-1981, Online, June 2021. Association for Computational Linguistics. [15] Julian Salazar, Davis Liang, Toan Q. Nguyen, and Katrin Kirchhoff. Masked language model scoring. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 2699-2712, Online, July 2020. Association for Computational Linguistics. [16] Nicholas Carlini, Chang Liu, Úlfar Erlingsson, Jernej Kos, and Dawn Song. The secret sharer: Evaluating and testing unintended memorization in neural networks. In Proceedings of the 28th USENIX Conference on Security Symposium, SEC'19, pp. 267-284, USA, 2019. USENIX Association ## A リスク-カバレッジ曲線 図 1 LAMA probe データセット全体に $\mathrm{T}$ おび $\mathrm{T}+\mathrm{R}$ を用いた場合のリスクーカバレッジ曲線. 図 1 に予測指標を $\mathrm{T}$, 確信度指標を $\mathrm{T}$ または $\mathrm{T}+\mathrm{R}$ とした場合のリスクーカバレッジ曲線を示す. 図中の最も右,カバレッジが 1.0 の場合のプロットが全ての事例に対し予測を行った場合のリスクに相当する.いずれのモデルにおいても全ての事例に対し予測を行った場合の誤りリスクは 0.7 を超えているのに対し,いずれかの確信度指標を用いて選択的予測を行った場合,カバレッジを 0.3 程度に抑えることでリスクを 0.5 未満に抑えることができる. ## B 関係タイプによる比較 実験に用いたデータセットのうち,TREx データセット中では一対一関係 (1-1),多対一関係 (N-1),多対多関係 (N-M)をもつ複数の関係タイプに関するクエリが混在している。関係タイプごとに RC-AUC を計算した結果を表 3 に示す. 用いる確信度指標による性能差は,多対一や多対多の関係においてより顕著であることが見て取れる. 関係の種類ごとに最適な確信度指標は異なるが,BERT-base では G+R, BERT-large では $\mathrm{T}+\mathrm{R}$ が一貫して最適な確信度指標表 3 TREx データセットにおける,関係タイプ毎の RC-AUC.表記方法は表 1 に準ずる。 に匹敵する性能を示している。
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A4-2.pdf
# 否定の理解への prompt-based finetuning の効果 田代真生 ${ }^{1}$ 上垣外英剛 2 船越孝太郎 ${ }^{2}$ 奥村学 ${ }^{2}$ 1 東京工業大学工学院 2 東京工業大学科学技術創成研究院 \{masaki@lr.,kamigaito@lr., funakoshi@lr., oku@\}pi.titech.ac.jp ## 概要 自然言語処理において否定の理解は重要な課題の一つである.否定は文章の極性や論理的関係を変える役割がある一方で,その理解は現状の自然言語処理モデルでも難しく,否定の理解の不足を指摘する研究は多くある $[1,2,3]$. 否定の理解において, 大量のラベルなしコーパスから事前学習を通じて獲得された否定に関する知識は有用と考えられる。そこで本研究では様々な自然言語処理タスクを言語モデリングタスクに変形して解くことにより, 事前学習で得られた言語知識をより効率的に活用することを考える.そのための手段として prompt-based finetuning に着目し,テキスト分類タスクにおける否定の理解に与える効果を調査する。 ## 1 はじめに 否定は命題の真偽を変化させる役割があり,自然言語処理において無視できない要素である.そのため,様々な研究において否定を理解するような自然言語モデルが調査されているが,近年開発された事前学習済み言語モデルでも否定の理解が不十分であることが指摘されている。事前学習済み言語モデルは大量のラベルなしコーパスにおける言語モデルの自己教師あり学習を通して様々な言語的知識を獲得しており, 幅広いタスクにおける性能の向上を達成している. Saunshi ら [4] は事前学習の効果を多くの自然言語処理タスクが言語モデリングへの変形によって解けることを用いて説明している. prompt-based finetuning はこのようなアイデアから生まれたものである. 後段のタスクを言語モデリングの形式に変形することで,事前学習タスクと後段タスクとの差異を低減する。それにより訓練事例が少数しか利用できない few-shot な設定下の広範なタスクにおいて性能向上を達成した。ここから prompt-based finetuning は, 事前学習済みモデルの利用法として一般的である [CLS] トークンの出力から ラベルを予測する従来の head-based な手法 [5] に比べ,事前学習によって得た言語的な知識を学習のより初期段階から引き出せていると考えられる。 そこで,本研究では現状の自然言語処理モデルにおいて課題となっている否定の理解についても prompt-based finetuning を利用することで事前学習により獲得された知識を活用できるかを調べた. 具体的には,自然言語処理タスクの一例であるテキスト分類タスクとして, 感情分析 (SST-2, SST-3, SST-5) と自然言語推論 (RTE, MNLI) を対象とし, head-based な手法と prompt-based な手法で学習したモデルの性能を,average data points advantage [6](ADPA)を用いて比較する. 否定評価用テストデータと否定評価用でないテストデータ両方で調査し比較することによって少数データの条件においては prompt-based finetuning が否定の理解に効果的であることを示す. 本研究は ADPA を用いることで,評価が難しかった自然言語処理モデルの否定理解の度合いを定量化し,それによって今まで理解が進んでいなかった prompt-based finetuning が否定の理解に与える影響を示した.このことは否定を理解する自然言語処理モデルの作成に役立ち,また prompt-based finetunig への理解を促すものであると考える。 ## 2 関連研究 ## 2.1 prompt-based finetuning prompt-based finetuning は自然言語処理のタスクを言語モデリングのタスクに変形し,分類ラベルと対応づけたトークンを予測する学習方法である $[7,8]$. prompt-based finetuning を構成する要素としては元の文章を事前学習時の入力形式に変形するルールである template と,マスク箇所された箇所の出力を対象タスクのラベルに変換するルールである verbalizer の 2 つがあり,その二つは合わせて prompt と呼称される [9]. 例えば, 感情分析タスクは表 1 のように元の文章 ‘Best pizza ever!’ を 'Best pizza ever! It was 表 1: 利用した template と verbalizer [MASK].' のような入力に変形し, [MASK] の部分について,ラベルが正例のときは 'great'を,負例のときは 'terrible'を予測するようにモデルを学習することで,事前学習と同じような形でタスクを解くことができる. prompt-based finetuning は [CLS] トークンの出力からラベルを予測する従来の head-based finetuning に比べて few-shot で良い性能を発揮することが知られている. Scao ら [6] はこの promptがもたらす効率性を average data points advantage (ADPA) という指標を用いて定量的に示した. 本研究ではこの ADPA の考え方を用いて prompt-based finetuning が否定の考慮に有用であることを示す. ## 2.2 自然言語処理における否定の処理 否定は命題の真偽を変化させるものであり,文章の意味を正しく理解する上で否定を理解することが重要であるため自然言語処理においても様々な研究で取り組まれてきた課題である [10]. しかし,近年の自然言語処理モデルでも否定を含む文章の処理を適切にできないことを指摘する研究は多くある. Ettinger や Kassner ら [11, 12] は否定を含む穴埋め式質問応答タスクにおいて,事前学習済み言語モデルの出力が大力中の否定語の有無に影響されないことを示している。また, Ribeiro ら [1] は否定を含んだ人工のテキストのデータセットである checklist を用いて事前学習済み言語モデルや多くの商用の自然言語処理モデルが否定を含んだ入力に対して間違いやすいことを確認している. Hossain ら [2] は自然言語推論タスクにおいて多くのデータが否定を考慮せずに解ける問題を指摘し, 否定の考慮が必要なテストセットにおいて既存のモデルが低い性能であることを指摘した。 本研究はこのような現状の自然言語処理における課題を解決することに prompt-based finetuning が有用であるかを調べる. ## 3 提案手法 本稿では prompt-based finetuning の否定理解の効果を測る手法として ADPA (average data points advantage)を用いることを提案する. ADPA は Scao ら [6] によって提案されたものであり, prompt-based にすることによって得られる利得を学習データの数で表現したものである. 本節では 3.1 節で ADPAを紹介し,3.2節で ADPAを利用することによって,これまで評価が難しかった prompt-based finetuning $の$否定理解に与える影響を,定量的に調べることができると考える理由を示す。 ## 3.1 Average Data Points Advantage ADPA は比較対象のモデルがベースラインとなるモデルと比べてどの程度効率的に学習を進めることができるかを定量化した指標である. ベースラインモデルと比較モデルを複数のデータサイズの設定で学習,評価を行い性能を比較することで,比較モデルが平均的にどのくらい少ないデータでべースラインモデルと同程度の性能を達成できるか表現している. ADPA はデータサイズが $x$ 以下の時のモデルの性能を示す関数 $\operatorname{Model}(x)$ を用いて $\frac{1}{X_{\text {max }}-X_{\text {min }}} \int_{X_{\text {min }}}^{X_{\text {max }}} \operatorname{Model}_{A}(x)-\operatorname{Model}_{B}(x) d x$ と表される.ここで $X_{\text {min }}, X_{\text {max }}$ は実験を行ったデータサイズの内最小のものと最大のものを示しており, $\operatorname{Model}(x)$ は離散的に得られた結果から線形補間されたものとなっている. ## 3.2 否定理解に関する指標 本研究では ADPA を否定理解を測る指標として, その他の指標に比べて適切であると考えた. 以下にその理由を説明する。 否定理解を測るその他の指標としてまず考えられるのが否定を含むデータセットにおける正答率である.これは確かに否定の理解の度合いと評価値が相関するため否定の度合いを測ることにつながると考 図 1: MNLI におけるデータサイズと性能の関係. 右側は否定のテストデータでの性能, 左側は一般のテストデータでの性能を示している. 赤線(上)が prompt-based で,青線(下)が head-based の正解率を示す. えられる。しかし,複数モデルを比較する際に否定理解以外の要素によって差が生まれ得るため,この指標では否定理解の能力を直接的に測ることが難しい. 次に考えられる指標としては否定を含まないデー タでの評価値と否定を含むデータでの評価値の差分をとる指標である.しかし,この指標は,性質の異なる二つの「評価値の差分」の比較においては解釈が困難であり,手法間の比較には適さない。 一方で ADPA の指標は,モデルによってもたらされる利得を両方のテストデータで共通する「訓練データ数」の単位で表現しているため, 否定用テストデータと一般のテストデータでの評価值の性質の違いに影響されず,否定を含むテストデータでの利得と否定を含まないテストデータでの利得を比較することができるという利点がある. ## 4 実験 prompt-based finetuning $と$ head-based finetuning $に$ よって少数データの設定で感情分析タスクと自然言語推論タスクを学習し, その結果をADPAを利用した否定理解の指標を用いて実際に評価することで, prompt-based finetuning がテキスト分類タスクにおける否定理解に与える影響を調査する。 ## 4.1 実験設定 実験では感情分析タスクとして SST-2, SST-3, SST-5 [13] を選択し, 自然言語推論タスクとしては RTE [14], MNLI [15] を選択した。これらはタスク中に否定を含む文章が一定割合含まれており,かつ否定の考慮が必要となるテストデータが入手可能であるタスクとして選んだ $[13,2]$. 実験は,各ラベルごとに $\mathrm{N}$ 個ずつ抽出した訓練データと検証データを用いた学習・検証と評価を繰 り返しながら,少数データ (数千データ以下) の範囲で $\mathrm{N}$ を増加させて行った (付録表 5 参照),学習は Gao らの条件 [9] を参考に, 学習率 1e-5, 学習回数 1000step で行った. 100step ごとに検証データで評価した中で最も性能の良かったモデルを用いてテストデータでの性能を評価した。その評価値で ADPAを計算した.実験は性能の分散を考慮して 10 回ランダムシードを変えて行い,テストデータでの評価について対応のある両側 $\mathrm{t}$ 検定を行った. 事前学習済み言語モデルとしては Scao らの研究 [6] で prompt-based finetuning にて一貫した結果を示すと報告された roberta-large ${ }^{1)}[16]$ を利用した。 prompt は表 1 のものを使用した. SST に関しては,Gao らの研究 [9] を参考にし, 既存研究で利用されることの多い人手で作成された prompt を利用した. 一方で, MNLI, RTE については, 人手で作成された prompt に問題があったため, Gao らの研究で自動生成された prompt を利用した.(この点については比較結果を後で示す.) テストデータで評価をする際には否定評価用のテストデータ (Negation) と否定評価用ではないテストデータ (Not Negation) の両方における prompt-based finetuning の ADPAを比較することによって否定理解の度合いを評価した。 SST では, 先行研究 [17] を参考に否定要素 (Negation cue) の候補を用意し(付録表 6),一般のテストデータのうち否定要素を含む文章を否定用のテストデータに分割して,否定を含むテストデー タ (Negation) と否定を含まないテストデータ (Not Negation)を作成した. RTE・MNLI では既存の否定評価用データ [2]を Negation に用いた. Not Negation には各タスクのオリジナルのテストデータを用いた. Not Negation の 1) https://huggingface.co/transformers/ 性質が SST と異なることに注意されたい. RTE と MNLI の否定用テストデータはオリジナルのデータを元に人手で否定を加えて作成されており,SST では同じデータセットから分割されている.このことから, どちらの実験でも二つのテストデータの性能の差は基本的に否定の理解によってのみ変化することを仮定している。 ## 4.2 結果 ## prompt-based finetuning $の$ 効果 表 2 にテキスト分類タスクにおける prompt-based finetuning の ADPAを示す.この表より少数データの条件の自然言語推論のタスクにおける prompt-based finetuning の否定理解の性能の高さを読み取れる.図 1を見ても, prompt-basedがはじめから比較的高い性能を示している一方で,head-based では否定の理解は比較的緩やかに進み, prompt-based の性能に追いつくために多くの訓練データが必要であることがわかる。ここから,否定理解を事前学習済み言語モデルが事前学習によって獲得しており,言語モデリングの形でタスクを解くことによって,獲得された情報を活用可能であると考えられる。 一方で感情分析タスクにおいては, prompt-based finetuning の否定理解に対する効果を確認することができなかった.この理由としてはSST に含まれる否定の理解が言語モデルにとって容易であることが考えられる(付録表 7). 実際に 1024 データで SST-2を学習したモデルの Negationを含まないテストセットと含むテストセットでの正答率はそれぞれ 0.949, 0.942 でほとんど違いがなく, head-based でも容易に学習可能な知識であったことが考えられる。 表 2: average data points advantage ## template, verbalizer $の$ 影響 自然言語推論の template については'<SentA>? [MASK], <SentB>' [7] というものが考案されている (付録表 8).しかし, この template では<SentB>が否定を含む際に,<SentA>と<SentB>の関係に関わらず [MASK] 部が No となってしまうという問題が生 じることがある.例えば SentA='That man is young.', SentB='That man is not old.' という条件において,事前学習済み言語モデルが前の文は後の文を含意していること理解していても,英語の文法的には矛盾の label と対応する 'No'を予測することが正しいため,不正解の 'No'を予測してしまう.このような問題に対処するため本研究では NLI に関しては自動生成された prompt [9]を用いたが,表 3 に自動生成された prompt と人手で作成された prompt の比較結果を示す. 表の結果は,上記の template が否定の考慮に不適であることを示しており, prompt 設計の重要性に関する先行研究 [18] の主張とも一致している. 表 3: MNLI における template と verbalizer の影響 ## モデル比較 roberta-large は Talmor ら [3] や田代ら [19] が主張するように,事前学習によって否定に関する知識を比較的多く獲得していると考えられるが,否定をあまり理解していないと考えられるモデルにおいても prompt-based finetuning による効果が観測されるかを調べるために,そのようなモデルの一つである roberta-base を選択し,MNLI データを利用して表 4 に示すように roberta-large モデルとの性能比較を実施した. 結果を見ると roberta-base では prompt-based finetuning が否定の理解に与える影響を確認することができなかった,ここから roberta-base の様に事前学習において多くの否定知識を獲得していないモデルにおいては prompt-based finetuning を用いても性能が向上するとは言えないことがわかる. 表 4: モデルサイズの影響 ## 5 おわりに 本研究では prompt-based finetuning の事前学習知識を生かしやすい特性に着目し,テキスト分類タスクの否定を含むテストデータと一般のテストデータにおける average data point advantage を比較することによって, prompt-based finetuning が少数データの設定において否定の理解へ有用であることを示した。 ## 参考文献 [1] Marco Tulio Ribeiro, Tongshuang Wu, Carlos Guestrin, and Sameer Singh. Beyond accuracy: Behavioral testing of NLP models with CheckList. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4902-4912, Online, July 2020. Association for Computational Linguistics. [2] Md Mosharaf Hossain, Venelin Kovatchev, Pranoy Dutta, Tiffany Kao, Elizabeth Wei, and Eduardo Blanco. An analysis of natural language inference benchmarks through the lens of negation. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 9106-9118, Online, November 2020. Association for Computational Linguistics. [3] Alon Talmor, Yanai Elazar, Yoav Goldberg, and Jonathan Berant. oLMpics-on what language model pre-training captures. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 743-758, 2020. [4] Nikunj Saunshi, Sadhika Malladi, and Sanjeev Arora. A mathematical exploration of why language models help solve downstream tasks. In International Conference on Learning Representations, 2021. [5] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [6] Teven Le Scao and Alexander Rush. How many data points is a prompt worth? In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 2627-2636, Online, June 2021. Association for Computational Linguistics. [7] Timo Schick and Hinrich Schütze. Exploiting clozequestions for few-shot text classification and natural language inference. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 255-269, Online, April 2021. Association for Computational Linguistics. [8] Timo Schick and Hinrich Schütze. It's not just size that matters: Small language models are also few-shot learners. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 2339-2352, Online, June 2021. Association for Computational Linguistics. [9] Tianyu Gao, Adam Fisch, and Danqi Chen. Making pretrained language models better few-shot learners. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 3816-3830, Online, August 2021. Association for Computational Linguistics. [10] Roser Morante and Caroline Sporleder. Modality and negation: An introduction to the special issue. Computational Linguistics, Vol. 38, No. 2, pp. 223-260, June 2012. [11] Allyson Ettinger. What BERT is not: Lessons from a new suite of psycholinguistic diagnostics for language models. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 34-48, 2020. [12] Nora Kassner and Hinrich Schütze. Negated and misprimed probes for pretrained language models: Birds can talk, but cannot fly. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7811-7818, Online, July 2020. Association for Computational Linguistics. [13] Richard Socher, Alex Perelygin, Jean Wu, Jason Chuang, Christopher D. Manning, Andrew Ng, and Christopher Potts. Recursive deep models for semantic compositionality over a sentiment treebank. In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, pp. 1631-1642, Seattle, Washington, USA, October 2013. Association for Computational Linguistics. [14] Ido Dagan, Oren Glickman, and Bernardo Magnini. The pascal recognising textual entailment challenge. In Proceedings of the First International Conference on Machine Learning Challenges: Evaluating Predictive Uncertainty Visual Object Classification, and Recognizing Textual Entailment, MLCW’05, p. 177-190, Berlin, Heidelberg, 2005. Springer-Verlag. [15] Adina Williams, Nikita Nangia, and Samuel Bowman. A broad-coverage challenge corpus for sentence understanding through inference. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 1112-1122, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [16] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Ro $\{$ bert $\}$ a: A robustly optimized $\{$ bert $\}$ pretraining approach, 2020. [17] Prakash Kumar Singh and Sanchita Paul. Deep learning approach for negation handling in sentiment analysis. IEEE Access, Vol. 9, pp. 102579-102592, 2021. [18] Albert Webson and Ellie Pavlick. Do prompt-based models really understand the meaning of their prompts? CoRR, Vol. abs/2109.01247, , 2021. [19] 田代真生, 上垣外英剛, 船越孝太郎, 高村大也, 奥村学. 事前学習済み言語モデルにおける否定の理解能力の調査. 情報処理学会研究報告, 第 2021-NL-249 巻, jul 2021. ## A 付録 : 実験条件の詳細 表 5: 各実験の $X_{\text {min }}$ と $X_{\text {max }}$ 表 6: 否定要素の候補 表 7: 否定用テストデータの例 & \\ \cline { 2 - 3 } & & \multirow{2}{*}{ contradiction } \\ \cline { 2 - 3 } & & \multirow{2}{*}{ neutral } \\ 表 8 : 人手で作成された自然言語推論用 prompt
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A4-3.pdf
# 単語埋め込みに効果的なノイズの検証 田屋侑希 小林一郎 お茶の水女子大学 \{g1620525,koba\}@is.ocha.ac.jp ## 概要 近年自然言語処理の分野においても,敵対的学習の研究が盛んに行われている。敵対的学習は,ある入力データに対してモデルを騙すような摂動を,正解ラベルに基づいて計算し, 求めた摄動を入力デー タに加えて学習する手法である. 敵対的学習ではモデルの頑健性や予測性能の向上が確認されているが,摄動の解釈性が乏しく,摂動の大きさはハイパーパラメータとなっている. そこで,摂動ではなく,入力データ付近に位置するようなノイズでも効果をもたらすのではないかという着眼点から, 本研究では,摂動の代わりに,類似している単語の方向に単語埋め込みをずらすことによる精度の向上を検証する。 ## 1 はじめに 近年,自然言語処理の分野において,汎用言語モデル(BERT[1],RoBERTa[2] 等)は様々なタスクで大きな成功を収めている。一方で,入力データの変化に敏感であることが知られている。例えばクラス分類問題において, 入力文のある文字を別の文字に,または一部の単語をその類義語に変換することでモデルの予測結果が変わることが確認されている [3][4][5]. このようなモデルの脆弱性から,入力データの変化に対するモデルの頑健性を向上させるため, 敵対的学習という学習手法が提案された [6][7]. 敵対的学習は,画像処理分野だけではなく, 自然言語処理分野においてもモデルの頑健性と予測性能の向上に有効であることが確認されている [8][9][10]. 敵対的学習は,ある入力データに対してモデルを騙すような摂動を,正解ラベルに基づいて計算し, 求めた摂動を入力データに加えて学習する手法である.また,摂動を加えていないデータをモデルに入力して,予測した值に基づいて摄動を計算する,仮想敵対的学習(VAT)も提案された [11].自然言語処理分野では,摂動を計算した後,単語埋 め込みに摂動を加算して新しい単語埋め込みを作成しているが,ここで加算される摂動の大きさはハイパーパラメータとなっている.摄動の大きさによって予測性能も変化し,摄動の大きさを大きくすると予測性能は低下する傾向を確認した(付録 B の図 3 参照)。一方で,摂動の大きさが小さい場合 (SMART のデフォルト値), 汎用言語モデルの低層 摄動の効果が見られないことを主成分分析 (PCA) の可視化を用いて確認した (付録 A の図 2 参照). その理由として, Transformerをべースとした言語モデルでは,トークンの埋め込み (Token Embeddings) だけではなく, 文埋め込み (Segment Embeddings),位置埋め込み(Position Embeddings)が加算された後,正規化と DropOutを施して単語埋め込みを作成しているため, 同じトークンでも入力データによって単語埋め込みが異なり,ばらつきがあることが考えられる。すなわち, RNN 等の従来の言語モデルに比べて,汎用言語モデルは比較的入力データの微量な違いに疎いモデルであるといえる. 本研究における手法の説明をする前に用語の定義を行う. 本論文では,逆伝播を用いて計算した摂動と区別するため,逆伝播を用いずに作成したべクトルをノイズと記す. 本研究では,摂動の代わりに類似している単語の方向にノイズを加えることで,逆伝播を用いて摄動を計算せずに予測性能を維持できるモデルを提案する。また,シソーラスである WordNet [12]を用いた類義語置換と提案手法を比較して,埋め込み空間上で似ている単語の方向にベクトルをずらす効果について検証する。 ## 2 敵対的学習 一般的に,敵対的学習では式 1 を目的関数として用いる. $ \min _{\theta} \mathbb{E}_{(x, y) \sim D}\left[\max _{\delta} l(f(x+\delta ; \theta), y)\right] $ この式は,データセット $D$ の入力 $x$ に摂動 $\delta$ を加 算したベクトルをモデル $f$ (パラメータ $\theta$ ) に入力し,正解ラベル $y$ との誤差が最大になる摄動 $\delta$ を求め,この摂動 $\delta$ を加えた入力データ $x+\delta$ を作成し, モデル $f$ の全体の損失 $\mathbb{E}$ が最小になるパラメータ $\theta$ を求めることを意味する。この式 1 における, $l$ を敵対的損失と呼び,PGD (Projected Gradient Descent) [7] を解くことで $\delta$ を求める. 本研究では提案手法の比較対象として SMART [9]を利用した. SMART は仮想敵対的学習 [11]を用いており,目的関数は式 2 のとおりである. $ \begin{array}{r} \min _{\theta} \mathbb{E}_{(x, y) \sim D}[l(f(x ; \theta), y)+ \\ \left.\alpha \max _{\delta} l(f(x+\delta ; \theta), f(x ; \theta))\right] \end{array} $ 式 1 と異なる点は, 正解ラベル $y$ ではなく, 自身のモデルの予測結果 $f(x ; \theta)$ との誤差に対して摄動を求めている点である. 仮想敵対的学習における敵対的損失 $l$ は,入力データ $x$ とその近傍のデータ $x+\delta$ はモデルが同じ予測をするという制約を意味する正則化項とみなすことができる.SMART での摂動 $\delta$ の求め方を簡単に記す.まず初めに,正規分布に従いランダムに生成したノイズ (\|init_noise $\|_{\infty} \leq \epsilon$, $\epsilon$ はハイパーパラメータ)を $\delta$ として入力データに足し合わせ,敵対的損失が最大になるような摂動を計算する. 求めた摂動 $\left(\frac{\delta}{\|\delta\|_{\infty}}\right)$ に係数(SMART では 0.001)を掛けて,初めにランダムに生成したノイズ(init_noise)に足し合わせて摂動 $\delta$ とする。また,式 2 の $\alpha$ は一般的な損失と敵対的損失のトレー ドオフを制御するハイパーパラメータで,本研究では SMART と同様, 1.0 に設定した. ## 3 提案手法 提案手法の概要図は図 1 に示す. 図 1 の Step 1 は通常のファインチューニングであり, Step2 で式 2 における敵対的損失を求めている。 まず,提案手法に必要な事前準備について述べた後,図 1 における Step2 の Token Embeddings として効果的な単語埋め込みを検証するため,提案手法を実験 1 から実験 3 に分けて説明する。 ## 3.1 事前準備 BERT の出現語彙(30,522 単語)の単語埋め込み (Token Embeddings)同士のコサイン類似度を総当たりで計算する.後の手順の利便性のため,単語ごとにコサイン類似度が降順になるように単語 ID を並び替えた状態で保存しておく。また,RoBERTa(出現語彙数:50,265 単語)においても同様の処理を行う. ## 3.2 実験 1 : 類似単語の方向にノイズ付加 Step1 で大力したそれぞれの Token Embeddings ( $\left.\boldsymbol{E}_{\text {original }}\right)$ に対して,最もコサイン類似度が高い単語の Token Embeddings $\left(\boldsymbol{E}_{\text {similar }}\right)$ を求めて, これら $ \boldsymbol{E}_{\text {diff }}=\boldsymbol{E}_{\text {similar }}-\boldsymbol{E}_{\text {original }} $ Step2 の全部(BERT では [CLS],[SEP],[PAD], RoBERTa では<s>,</s>,<pad>以外)の Token Embeddings に差ベクトル $\left(\boldsymbol{E}_{\text {diff }}\right)$ を足し, 新しい Token Embeddings( $\boldsymbol{E}_{\text {new }}$ )を作成する(提案手法 1-1). $ \boldsymbol{E}_{\text {new }}=\boldsymbol{E}_{\text {original }}+\text { noise_size } \times \boldsymbol{E}_{\text {diff }} $ ここで,類似度が高い単語の Token Embeddings にどの程度近づけるかを,noise_size 係数 $(0 \leq$ noise_size $\leq 1$ )を用いて決定する. noise_size が 1 の場合は,コサイン類似度が高い単語の Token Embeddings $\left(\boldsymbol{E}_{\text {similar }}\right)$ を Step2 に入力していることを意味する。本手法では,noise_size を 0.5 に設定した. つまり Step2 の Token Embeddings は Step1 の Token Embeddings $\left(\boldsymbol{E}_{\text {original }}\right)$ とコサイン類似度が高い Token Embeddings $\left(\boldsymbol{E}_{\text {similar }}\right)$ の中間に位置するべクトルである. noise_size のアブレーションスタディの結果は付録 B に載せる。また,本研究では,Step1 の Token Embeddings に加算される noise_size $\times \boldsymbol{E}_{\text {diff }}$ をノイズと定義する。提案手法 1-1 では,常時コサイン類似度が一番高い単語が選ばれてしまうため, コサイン類似度が高い 10 単語の中からランダムに選択して $\boldsymbol{E}_{\text {similar }}$ とする設定でも実験を行った(提案手法 1-2). ## 3.3 実験 2 :部分的な単語にノイズ付加 次に全部の単語ではなく一部(1文の $15 \%$ )の単語にノイズを加える実験を行なった。ノイズを加える単語を部分的にすることの効果を確認する。ノイズの加え方は提案手法 1-1 と同様の手法を用いる.新しい Token Embeddings( $\boldsymbol{E}_{\text {new }}$ ) に置き換える単語の決め方は,下記の 3 通りを実験した。 ## 提案手法 2-1 ランダム 提案手法 2-2 Saliency の値が高い単語 提案手法 2-3 Saliency の値が低い単語 提案手法 2-2,2-3 における Saliency [13] の値とは, Step1 の損失を用いて,Step1 の Token Embeddings に 図 1 提案手法の概要図 対する勾配を計算し,勾配の絶対値を単語埋め込みの次元数分足し合わせたものである. 一般的に, Saliency の值は,予測結果の判断根拠を解釈するために利用されている。つまり,Saliency の値が高いほど,予測結果に影響を与えている単語であると解釈することができる. ## 3.4 実験 3 : WordNet を用いたノイズ付加 次に,Step2 に入力する単語として,類義語またはコサイン類似度が高い単語のどちらが効果的かを確認する. 図 1 の Step1 で入力した単語の類義語を WordNet ${ }^{1}$ ) で検索し,類義語が存在する場合は類義語を Step2 に入力した(WordNet_1.0). 類義語が複数存在する場合は,ランダムに 1 つ選んで入力した. この時, Step2の Token Embeddings は Step1 の単語の類義語そのものを意味するため, 実験 1 におけるnoise_size は 1.0 と解釈できる。また,提案手法 1-1 でnoise_sizeを 1.0 とした場合,つまり Step2 でコサイン類似度が最も高い単語を入力した場合の実験(提案手法 1-1_1.0)も行い比較する。また,WordNetを用いて,Step2 に入力する類義語を決定し,noise_size を 0.5 に設定した実験も行った (WordNet_0.5). ## 4 実験 使用するデータセットデータセットは ANLI (Adversarial Natural Language Inference) ${ }^{2}$ [14] 利用した. ANLI は汎用言語モデル (BERT,RoBERTa) が予測を誤るデータを積極的に検証データとテスト 1) https://wordnet.princeton.edu/ 2) https://dl.fbaipublicfiles.com/anli/anli_v1.0.zip データに集めたものである。また,データセットは $\mathrm{A} 1 \cdot \mathrm{A} 2 \cdot \mathrm{A} 3$ から成り, $\mathrm{A} 1, \mathrm{~A} 2, \mathrm{~A} 3$ の順にモデルが予測を誤りやすいものになっている。データ数は表 1 の通りである. 評価方法評価指標は正解率 (Accuracy)を用いる。また,SMART の実験方法に倣い, ANLI(A1・ $\mathrm{A} 2 \cdot \mathrm{A} 3$ )の訓練データを用いて学習し, A1・A2・ A3 それぞれの検証データ,テストデータに対して評価を行った。 実験設定実装は, $\mathrm{MT}^{2}-\mathrm{DNN}^{3}{ }^{3}[15][16] をも$ とに行い,事前学習済み言語モデルは BERT $_{\text {BASE (uncased)[1], 及び RoBERTa }}^{\text {LARGE }}$ [2] を用いた. ファインチューニングの設定として, 学習率は $2 \times 10^{-5}$, バッチサイズは $32\left(\right.$ BERT $\left._{\mathrm{BASE}}\right), 16$ $\left(\right.$ (oBERTa $\left._{\text {LARGE }}\right)$, エポック数は 6 , 最適化手法は Adam [17] を用いた. また,全学習ステップのうち始めの $10 \%$ で,学習率を 0 から設定した学習率まで線形に学習率を増加させる warm up を用いた. 先行研究の SMART [9] における摄動の大きさ等はデフォルトの設定を利用した。  ## 4.1 実験結果・考察 実験結果は表 2 , 表 3 に示す. A1・A2・A3 それぞれのテストデータで評価し,その算術平均を取った值を表 2 , 表 3 に,各データセット(A1・A2・A3) に対する正解率は付録 C の表 4 に記す. また,実験結果は異なるシード値で 6 回実験を行い,その評価結果の平均を取った値である. 表 2 , 表 3 の 1, 2 行目は通常のファインチューニングと SMART の再実験結果である. 以降,テストデータにおける正解率について言及する。 案手法 1-1・1-2 は,通常のファインチューニング・ SMART と比較して正解率が向上した. 提案手法 2-1・2-2・2-3 の結果からは部分的にノイズを加えるより文全体にノイズを加える方(提案手法 1-1)が効果的であることが確認できた. また, Saliency の值が低い単語より高い単語にノイズを加える方が効果があった. RoBERTa LARGE では,提案手法 1-1・ 1-2 は通常のファインチューニングと同等の結果となった. 一方,部分的にノイズを加えた提案手法 2-1・2-3 は SMART より正解率が向上した.また, BERT $_{\text {BASE }}$ とは異なり, Saliency の値が高い単語よりも低い単語にノイズを加えた方が効果的であることが確認できる。 表 3 実験結果(実験 3 における正解率) 実験 3 表 3 から,BERT ${ }_{\text {BASE }}$ において Step2 に入力する単語を,WordNetを用いて類義語にした (WordNet_1.0)よりStep1 の単語埋め込みとのコサイン類似度が高い単語に置き換えた方(提案手法 1-1_1.0)がやや効果があることが確認できた. ま た,提案手法 1-1 と同様,WordNetを用いた場合においても,類義語そのもの(WordNet_1.0)より類義語との中間に位置するように Step2 の Token Embeddings を作成した方(WordNet_0.5)が正解率が高いことが確認できた. RoBERTaLARGE においては, BERT ${ }_{\mathrm{BASE}}$ の結果とは異なり,コサイン類似度が高い単語よりも WordNet における類義語の方が正解率が高い結果となった. WordNetを用いて類義語に置き換える際,類義語が存在しない単語もあるため, 結果的に 1 文の約 40\%(BERT BASE は約 30\%)の単語が置換されている. 実験 2 の結果も踏まえて, RoBERTa $_{\text {LARGE }}$ では部分的にノイズを加えることに効果があると考えられる. noise_size に関しては, $\mathrm{BERT}_{\mathrm{BASE}}$ と同様,0.5 にしたほうが正解率は高くなることが確認できた。また,WordNet_0.5 は SMART よりも大きく精度が向上した. ノイズの大きさ付録 B の図 3 において, noise_size 0.5 の時が一番精度が良くなる理由として,全ての単語にできるだけ大きなノイズを加える場合,どの単語からもちょうど中間となる 0.5 のサイズが大きなノイズになると考えた。 また,単語埋め込みに対する摂動またはノイズの大きさ(L2ノルム)の割合を計算したところ, SMART における摄動は約 $0.003 \%$ ,提案手法 1-1 のノイズは約 30\%,WordNet_0.5 のノイズは約 70\%であり,ノイズの大きさを大きくしてもノイズの方向性に意味がある場合,精度が低下しないことが確認できた. ## 5 まとめ 本研究では,敵対的学習における摂動の代わりに,類似している単語の方向にノイズを加えることで SMART と同等の精度が出ることを確認した. また,通常のファインチューニングと比較して順伝播が 2 回,逆伝播が 1 回多い敵対的学習を,順伝播が 1 回のみ多いモデルに置き換えることができ,計算時間を約 $23 \%$ 削減することができた. 敵対的学習において,必ずしも摂動が重要ではないことを示唆する一つの手法を提案した。一方,提案手法のノイズの大きさが,モデルの予測性能向上に有効である証拠が不十分であるため,ノイズの有効性について検証していきたい. 本研究では, BERT $_{\mathrm{BASE}}$ と RoBERTa $_{\text {LARGE }}$ を用いて実験を行ったが,それぞれで異なる実験結果が確認できたため,各モデルの特徵や埋め込み空間の調査を継続したい。 ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding, 2019. [2] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019. [3] Shuhuai Ren, Yihe Deng, Kun He, and Wanxiang Che. Generating natural language adversarial examples through probability weighted word saliency. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 1085-1097, Florence, Italy, July 2019. Association for Computational Linguistics. [4] Di Jin, Zhijing Jin, Joey Tianyi Zhou, and Peter Szolovits. Is bert really robust? a strong baseline for natural language attack on text classification and entailment, 2020. [5] Linyang Li, Ruotian Ma, Qipeng Guo, Xiangyang Xue, and Xipeng Qiu. BERT-ATTACK: Adversarial attack against BERT using BERT. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6193-6202, Online, November 2020. Association for Computational Linguistics. [6] Ian J Goodfellow, Jonathon Shlens, and Christian Szegedy. Explaining and harnessing adversarial examples. arXiv preprint arXiv:1412.6572, 2014. [7] Aleksander Madry, Aleksandar Makelov, Ludwig Schmidt, Dimitris Tsipras, and Adrian Vladu. Towards deep learning models resistant to adversarial attacks. arXiv preprint arXiv:1706.06083, 2017. [8] Chen Zhu, Yu Cheng, Zhe Gan, Siqi Sun, Thomas Goldstein, and Jingjing Liu. Freelb: Enhanced adversarial training for language understanding. arXiv preprint arXiv:1909.11764, 2019. [9] Haoming Jiang, Pengcheng He, Weizhu Chen, Xiaodong Liu, Jianfeng Gao, and Tuo Zhao. Smart: Robust and efficient fine-tuning for pre-trained natural language models through principled regularized optimization. arXiv preprint arXiv:1911.03437, 2019. [10] Xiaodong Liu, Hao Cheng, Pengcheng He, Weizhu Chen, Yu Wang, Hoifung Poon, and Jianfeng Gao. Adversarial training for large neural language models. arXiv preprint arXiv:2004.08994, 2020. [11] Takeru Miyato, Shin-ichi Maeda, Masanori Koyama, and Shin Ishii. Virtual adversarial training: a regularization method for supervised and semi-supervised learning. IEEE transactions on pattern analysis and machine intelligence, Vol. 41, No. 8, pp. 1979-1993, 2018. [12] George A. Miller. Wordnet: A lexical database for english. Commun. ACM, Vol. 38, No. 11, p. 39-41, nov 1995. [13] Karen Simonyan, Andrea Vedaldi, and Andrew Zisserman. Deep inside convolutional networks: Visualising image classification models and saliency maps, 2014. [14] Yixin Nie, Adina Williams, Emily Dinan, Mohit Bansal, Jason Weston, and Douwe Kiela. Adversarial NLI: A new benchmark for natural language understanding. In Pro- ceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4885-4901, Online, July 2020. Association for Computational Linguistics. [15] Xiaodong Liu, Pengcheng He, Weizhu Chen, and Jianfeng Gao. Multi-task deep neural networks for natural language understanding. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4487-4496, Florence, Italy, July 2019. Association for Computational Linguistics. [16] Xiaodong Liu, Yu Wang, Jianshu Ji, Hao Cheng, Xueyun Zhu, Emmanuel Awa, Pengcheng He, Weizhu Chen, Hoifung Poon, Guihong Cao, and Jianfeng Gao. The microsoft toolkit of multi-task deep neural networks for natural language understanding. arXiv preprint arXiv:2002.07972, 2020. [17] Diederik P Kingma and Jimmy Ba. Adam: A method for stochastic optimization. ICLR (Poster) 2015, 2015. ## A 単語埋め込みの可視化 図 2 主成分分析(PCA)による単語埋め込みの可視化:she,he,you の 3 単語を BERT $\mathrm{BASE}_{\mathrm{BAS}}$ に入して作成した単語埋め込み(BERT Embeddings)(丸で囲まれている点集合),SMART を用いた摂動を加えた単語埋め込み,提案手法 1-1を用いてノイズを加えた単語埋め込みの可視化結果 (左). $\mathrm{BERT}_{\mathrm{BASE}}$ の 2 層目の出力の単語埋め込みの可視化 (右). 左右の図を比較して,BERT $\mathrm{BASE}_{\mathrm{BAS}}$ の 2 層目の出力(右)は SMART の摂動を加えた単語埋め込みと摂動を加えていない単語埋め込みの区別がつかないことが分かる.可視化には TensorBoard の Embeddings Projector を利用. ## B摂動およびノイズの大きさのアブレーションスタディ 図 3 左 2 つの図:SMART において摄動の大きさを変化させたときの正解率のグラフ(左:BERT $\mathrm{BASE}_{\mathrm{BAS}}$, 右: RoBERTa $_{\text {LARGE }}$ )。横軸は埋め込みベクトルの L2ノルムに対する摂動の L2 ノルムの割合 (\%). 右の図 : 提案手法 1-1 におけるnoise_size のアブレーションスタディ(BERT $\left.{ }_{\mathrm{BASE}}\right)$. ## C 実験結果詳細 表 4 各データセット(A1,A2,A3)における実験結果:太字は各データセットにおいて一番正解率が高い值,下線は SMART より正解率が高い值を表す。提案手法は,ANLI データセットの中で難易度が高いA3 のデータセットに対する正解率が向上している傾向がみられる.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A4-4.pdf
# 文脈化された単語理め込みの語義への 単語頻度と語義分布の影響 Cao Zhihan 東京工業大学 情報理工学院 cao.z.ab@m.titech.ac.jp } 徳永健伸 東京工業大学 情報理工学院 take@c.titech.ac.jp } 義への影響を「探査子 (probe)」を用いて調査する. ## 2 先行研究 静的な単語埋め込みと頻度との関係は,理論的にも実証的に研究されており,高頻度の単語の静的単語埋め込みは単語の意味をよりよく捕まえている傾向が示されている $[2,3,4]$. 静的単語埋め込みに比べると, CWE と頻度に関する先行研究はまだ少ない. Yu らは Transformer 系の PLM の統語的側面を探求した [5]. 結論として,これらの PLM は確かに一部の単語の統語的性質をよりよく捉えてはいるが,単語頻度はそれを説明できる要因ではなかった。一方で,Zhou らは,CWE は同じ単語の埋め込みがなす意味部分空間の大きさは,その単語頻度に比例していると主張している [6]. このように,頻度と CWE との関係については見解が一貫していない。また,CWE の語彙意味論的な側面に注目した研究があるが [7],それを単語頻度と関係づけて論ずるものは見られなかった. 本研究ではこの議論上の空白を補填するために, BERT 系PLM を対象とし,以下の研究課題を設定する. RQ1:CWE は異なる粒度の語義を捉えているか $\mathrm{RQ2}$ : 文脈化前後の単語埋め込みで異なる粒度の語義を捉える能力は変わるか RQ3:CWE の形状は異なる粒度の語義を捉える能力にどう関与するか RQ4:RQ1-3 は単語頻度と語義分布との関係するか RQ2 でいう文脈化以前の単語埋め込みは,BERT などの PLM の埋め込み層の出力のことをさす。その理由は,埋め込み層ではトークンと位置などの埋め込みの和にレイヤー正則化を適用するが,この埋め込み層の出力は文脈が関与しないからである. RQ3 でいう CWE の形状は,本研究で CWE の異方性 (anisotropic)をさす。異方性は BERT 系 CWE の各次元の值のスケールが相違する性質であり,それの 形状的特徴と考えられる. BERT 系 CWE の異方性を正則化すれば,CWEを用いた情報検索の性能を上げられ,異方性と語義との関連があると言われている [8]. 本研究ではそれに基づき, RQ3 では CWE の形と異なる粒度の語義との関連を探る. RQ4 で語義の分布を考慮する理由は,高頻度の単語ほど多義となり, 語義分布のエントロピーが高くなる可能性があるので,仮に頻度と語義との関連が見られても,それは果たして頻度だけによるものかはわからないからである.語義分布のエントロピーを一定の数値に固定すれば, 語義と頻度との関係をより正確に把握できる。なお,本研究でいう単語頻度はレンマの頻度で,エントロピーは以下で定義する。 $ H(S \mid W=w)=\sum_{s \in S} P(s \mid W=w) \log P(s \mid W=w) $ ただし, $S$ は語 $w$ の全ての可能な語義の集合で, $P(s \mid W=w)$ は語 $w$ がコーパス中で語義 $s$ として使われた Laplace 平滑化後の頻度である. ## 3 方法 本研究では,上述の研究課題に対して探査子を用いてアプローチする。この手法では,PLM が生み出した単語 $w$ の CWE cwe $(w)$ を, 分類器 $\operatorname{probe}(\cdot)$ の入力として与え, 対象とする言語学的性質 $l$ を予測する. この予測の性能によって, 性質 $l$ が埋め込みにどの程度反映されているかを評価する。本研究では探査タスクを 3 種類設定した. これらのタスクを 3.1 で詳述する. 3.2 ではデータセットの構成方法を,3.3では評価方法を説明する。 ## 3.1 語義の探査タスク 本節では,RQ1 に答えるために CWE に粒度の異なる語義の情報がの埋め込みにどの程度反映されているかを調査する実験について述べる。 多義語は周囲の文脈がによって,文中での意味が確定できる.したがって,もしCWEにうまく語義が埋め込めていれば,埋め込みから正しい語義に分類できるはずである.このような仮説を踏まえて, WordNet における Synset, Supersense, Hypernyms $の$異なる粒度の語義を同定するタスクを設定した。 Synset と Supersense 探査タスク (以下, syp と sup) では語の CWE から,その語の synset, supersense を探査子で予測する.ここでいう synset と supersense はそれぞれ WordNet [9] で定義されているものであ表 1 実験で使用する性能指標 り,両者とも単語の意味を示すものであるが,前者が比較的具体的な意味を示すのに対し, 後者は品詞と意味カテゴリだけに対応する抽象度が高いものである。したがって,syp と supでは CWE の異なる粒度の語義を埋め込む性質を調査できると考えられる. syp と sup では精度(syp-acc と sup-acc)を性能の指標とする。 Hypernyms 探査タスク (以下, hyp) では syp と同じように synset を予測するが,1 つの synset だけでなく, hypernym 階層において根までの経路中のすべての synsetを予測するマルチラベル分類をおこなう. hyp を取り入れたひとつの理由は, syp ではすべての synset を同等に扱い 1 つの synset のみを出力するが,synset 同士は hyponymy の関係をなしたりして必ずしも同等ではないからである. もうひとつの理由は, supersense と synset では意味の抽象度の隔りがかなり大きいが,その中間の粒度の意味の違いを調査するためである. hyp を取り入れることで, CWE の意味の抽象度の違いをより細かく評価できると考えられる. hyp では精度と再現率 (hyp-rec, hyp-pre)を性能の指標とする。本研究で採用するすべての性能指標を表 1 にまとめた。線形的な探査子は $\operatorname{cwe}\left(w_{i}\right)$ と $l_{i}$ との真のパターンをより捉えられると報告されて,また, L2 正則化はこの能力を高めると報告される [10]. その結果を受けて, 本研究の全ての探査子は L2 正則化された線形的モデルを使用する. ただし, syp と $\sup$ の探査子では出力層で softmax 関数を, hyp では sigmoid 関数を使用する. ## 3.2 データセット SemCor コーパスから単語埋め込みと正解語義のペアを抽出し, 実験用のデータセット $\left.\{\left(\operatorname{cwe}\left(w_{i} ; m\right), l_{i}\right)\right.\}_{i \in[1, N]}$ を構築した. ただし, $N$ はコーパス中の総単語出現数, $\operatorname{cwe}\left(w_{i} ; m\right)$ は PLM $m$ が生み出した単語 $w_{i}$ の CWE である. $w_{i}$ が複数の wordpiece に分割された時には,それらの CWE の平均を $\mathrm{cwe}\left(w_{i} ; m\right)$ とする. 対象モデルは BERT-baseuncased, BERT-base-cased と RoBERTa-base の 3 つである. CWE は各モデルの隠れ層の出力の平均と する. 訓練セットをランダム抽出により生成すると,高頻度の単語を含む実例を多く含んでしまう. 探査子自体もひとつのモデルなので,訓練セットに頻出のパターンをよりよく捉えられると予想されるが,これは頻度と CWE の関係を探求する上で好ましくない. したがって, 本研究では訓練セットを抽出する際に,2つの抽出方法をとった. 1 つは通常のランダム抽出で,もう 1 つは層化抽出である. 層化抽出ではデータセット $\left.\{\left(\operatorname{cwe}\left(w_{i} ; m\right), l_{i}\right)\right.\} を w_{i}$ のレンマの頻度により 10 個の部分集合に分割してから,それぞれから固定の割合でランダム抽出する. いずれの抽出法でも,データセットは 6 割を訓練セットに,4 割をテストセットにした. 異なる調査対象モデルと探査子用の訓練セットを抽出する際にはランダムシードを固定した. ## 3.3 評価方法 RQ2, 3 にアプローチするために, 文脈化利得 (Contextualization Gains, CN) と正規化利得 (Normalzation Gains, NG) を定義する. CG は RQ2 のために用意した. CGを計算するため, データセット中の事例 $\left(\mathrm{cwe}\left(w_{i} ; m\right), l_{i}\right)$ の $\mathrm{cwe}\left(w_{i} ; m\right)$ を, 単語 $w_{i}$ の同じモデルの埋め込み層の出力 $\operatorname{static}\left(w_{i} ; m\right)$ に置き換えて統制分類器を学習する. CG は探査子と統制分類器の性能の差として定義するので,文脈化が有効であれば CG が大きくなる。 NG は RQ3 のために用意した. $\mathrm{Su} らの$ bertwhitening [8] に基づき, NG では下式のとおり訓練データを書き換えて統制分類器を学習する. $ \begin{aligned} \boldsymbol{\mu} & =\frac{1}{N} \sum_{j=1}^{N} \boldsymbol{c}_{j} \\ \boldsymbol{\Sigma} & =\frac{1}{N}\left(\boldsymbol{C}-\mathbf{1} \boldsymbol{\mu}^{T}\right)^{T}\left(\boldsymbol{C}-\mathbf{1} \boldsymbol{\mu}^{T}\right) \\ \operatorname{norm}\left(\boldsymbol{c}_{j} ; \boldsymbol{\mu}, \boldsymbol{\Sigma}^{-\frac{1}{2}}\right) & =\left(\boldsymbol{c}_{j}-\boldsymbol{\mu}\right) \boldsymbol{\Sigma}^{-\frac{1}{2}} \end{aligned} $ ただし, $\boldsymbol{c}_{j} \in \mathbb{R}^{d}$ は $d$ 次元の CWEで, $\boldsymbol{C}=\left[\boldsymbol{c}_{1}, \ldots, \boldsymbol{c}_{N}\right]^{T}$ でサイズ $N$ の訓練セット中の CWE による行列である. $\mathbf{1} \in \mathbb{R}^{d}$ は各要素が 1 の $d$ 次元のベクトルである. $\boldsymbol{\Sigma}$ は実に $\boldsymbol{C}$ の各次元についてのサンプル共分散行列である. norm のパラメータは訓練セットで計算する.この書き換え方は分散を共分散に置き換えた Z-socre と見なせる.訓練セットの CWE による行列について正規化をして CWE の異方性を削減する. $\mathrm{NG}$ は統制分類器からの探査子の性能の差分で あるが,探査子の性能について引き算の向きを注意されたい。もし異方性が CWE の語義と関わるのなら,NGの絶対値は大きいと予想される. RQ4 に答えるために,各性能指標と 2 つの利得を batch $_{\text {ef }}$ で計算する. batch $_{\text {ef }}$ はテストセットの部分集合で,同バッチ内の事例のエントロピーと頻度も同等である. $e$ と $f$ はそれぞれの語義分布のエントロピーと頻度のランクである ${ }^{1)}$. エントロピー $e$ を固定して,$f$ が大きくなるに連れて, 各 batch $_{e f}$ で計算された指標の値の変化を見れば,RQ4 に答えることができる. ## 4 実験結果 ## 4.1 概要 表 2 層化抽出法の場合の結果一覧 表 2 に,BERT-base-uncased によるCWEを用いた,層化抽出法の場合の実験結果をまとめた ${ }^{2}$. CG と $\mathrm{NG}$ の列は異なる性能指標における文脈化利得と正規化利得である. Static,Static+CG と Static+CG+NG の列は,それぞれ非文脈化単語埋め込み,CWE,正規化後の CWE での探査子の性能である。太字は該当列の絶対値としての最大值を意味する. 全体的に CWE での性能は hyp-pre と sup-acc が大きく, NG は絶対値として hyp の全ての評価指標に比較的に大きく, CG は hyp-rec だけ大きい. Static+CG+NG と Static を比較すれば, hyp-rec と sup-acc だけ増加しなかったことがわかる. syp-acc と sup-acc では, CG と NG は両方ともに正であることから,BERT 系 PLM の非文脈化単語埋め込みは,文脈化と正規化によって抽象度の違いによらず語義を単体で捉える能力が向上する.抽象的語義の場合,向上の幅はより大きい. しかし, hyp-rec は文脈化で増加して正規化で減少する傾向を示す. 1) 事例 $\left(\mathrm{cwe}\left(w_{i} ; m\right), l_{i}\right)$ について, $w_{i}$ の語義分布のエントロピーが 0.04 以下,つまり実質上の一義語ならば,エントロピーランクを 0 とする. エントロピーランク 1 から 4 の分割は,データセットの単語のエントロピー分布の四分位点による. 2)抽出法や PLM のモデルが結果に影響をしない.すべての抽出法と PLM の結果は付録の表 3 を参照されたい つまり,CWE は文脈化でマルチレベルの抽象度の意味を同時に捉えるようになり,正規化したらそれができなくなる. 一方, hyp-pre は hyp-rec と逆の傾向である. hyppre は低くなるのは,hypernym 階層において根までの経路上にない無関係の語義を多く誤同定してしまった場合である.ここでいう無関係な語義は,そもそも真の語義とは完全に別種の語義と,ある抽象度では同義であるが細部が違う語義の 2 種類を含む. これと hyp-pre の傾向を踏まえて,CWE 中の無関係な語義は文脈化の前で少なく, 文脈化後で増えるが,正規化で取捨選択されると考えられる。 このことから,CWE の異方性は語義の網羅性と関係することを示唆している。つまり,ある単語の BERT 系 CWE は周囲の文脈から語義を豊かにするが,同時に語義の余剰も生み出す. これ過程の結果は CWE の異方性に反映される。 ## 4.2 詳細 図 1 各評価指標の単語頻度との相関 (Spearman の R) 図 1 は,エントロピーランク $e$ を固定し, batch $_{e f}$ で計算した各評価指標と頻度ランク $f$ とのスピアマン相関係数を示す. 抽出方法は結果に影響しないので,ここでは層化抽出の結果だけを示す. 大多数の場合,エントロピーの増加が Static+CG,CG と NG と頻度との相関程度を軽減するとみられる。 Static+CG 各指標において,Static+CG と頻度との相関係数はほとんど非負であるが,値がエントロピーの増加につれて減少する。つまり,BERT 系 CWE は,抽象度と関係なく,低エントロピーで高頻度の単語ほど意味をより捉えている。 CG CG は syp-acc で値も頻度との相関係数も正で,syp-acc で値が正で相関係数が負である。これは CWE は文脈から,低頻度語ほど抽象的な語義を,頻出語ほど具体的語義の情報を有効に獲得している. つまり,PLM は低頻度語の大雑把な意味を文脈から推測し,高頻度語ならよりきめ細かい意味も取りこんでいると言える. hyp-pre の結果から,文脈化は CWE に意味の余剩をもたらすが,CG が頻度と相関係数が正なので,頻出語ほどこの余剩が少ない3). NG NG は sup-acc と syp-acc とも値が正で相関係数が負である。これは CWE の異方性を正すことによる利得は,粒度と関係なく低頻度語ほど大きい。 つまり,低頻度語の CWE の異方性には,無関係な語義と関連すると思われる. NG は hyp-rec で值であるが相関係数の絶対値がエントロピーランク 1 以外に小さい. 実際,正規化は CWE の文脈化による意味の網羅性を軽減するが,この効果は頻度と正の二次関数的な関係をなしており,エントロピーが小さいほどその傾向が顕著である ${ }^{4)}$. その極值は比較的低い頻度ランクに出現する。つまり,比較的に低エントロピーで低頻度の単語の CWE の異方性がなくなったら,意味の網羅性が小さくなる. ## 5 結論 以上より,本研究の RQ1 から RQ4 に即して結論を述べる。(RQ1)CWE は異なる粒度を捉える能力があるが,(RQ2\&3)文脈化前後でも,さらに異方性を修正するかどうかによっても,その能力が変化する。文脈化は語義を豊富に埋め込めるが,同時に無関係の語義も埋め込んでしまい,語義の余剰を招く. しかし, 余剩語義は CWE の異方性と関係し,正則化で解消可能である。(RQ4)1)BERT 系 CWE の意味と単語頻度および語義分布との関係について,以下 3 点が確認された. 1. BERT 系 CWE は意味の粒度と関係ぜずに,高頻度で低エントロピーの単語ほど意味をより捉えられる 2. 高頻度語ほど具体的な意味を正確に文脈から取り込み,語義の余剩が少ない 3. 比較的に低エントロピー語の BERT 系 CWE は正則化による余剩語義の解消は頻度と相関し, その中でも比較的低頻度の単語は解消程度が大きい.  ## 参考文献 [1] George A Miller, Claudia Leacock, Randee Tengi, and Ross T Bunker. A semantic concordance. In Human Language Technology: Proceedings of a Workshop Held at Plainsboro, New Jersey, March 21-24, 1993, 1993. [2] Omer Levy and Yoav Goldberg. Neural word embedding as implicit matrix factorization. In Z Ghahramani, M Welling, C Cortes, N Lawrence, and K Q Weinberger, editors, Advances in Neural Information Processing Systems, 2014. [3] Chengyue Gong, Di He, Xu Tan, Tao Qin, Liwei Wang, and Tie-Yan Liu. Frage: Frequency-agnostic word representation. 2018. [4] Laura Wendlandt, Jonathan K Kummerfeld, and Rada Mihalcea. Factors influencing the surprising instability of word embeddings. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 2092-2102, 2018. [5] Charles Yu, Ryan Sie, Nicolas Tedeschi, and Leon Bergen. Word frequency does not predict grammatical knowledge in language models. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 4040-4054, 2020. [6] Kaitlyn Zhou, Kawin Ethayarajh, and Dan Jurafsky. Frequency-based distortions in contextualized word embeddings. 2021. [7] Ivan Vulić, Edoardo Maria Ponti, Robert Litschko, Goran Glavaš, and Anna Korhonen. Probing pretrained language models for lexical semantics. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 7222-7240, 2020. [8] Jianlin Su, Jiarun Cao, Weijie Liu, and Yangyiwen Ou. Whitening sentence representations for better semantics and faster retrieval. 2021 [9] Christiane Fellbaum, editor. WordNet: An Electronic Lexical Database. The MIT Press, 1998. [10] John Hewitt and Percy Liang. Designing and interpreting probes with control tasks. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 2733-2743, 2019 . ## A 付録 (Appendix) 図 $2 \mathrm{CG}$ の詳細/Layered Sampling/BERT-base-uncased 図 $3 \mathrm{NG}$ の詳細/Layered Sampling/BERT-base-uncased 図 2 と図 3 はそれぞれ,各評価指標とエントロピーランクにおける CG と NG の詳細な結果を示している.たとえば,図 2 の syp-acc の列の一番右にあるサブグラフは,エントロピーランク4の場合の, Synset 探査子の精度について計算した batch $_{e f}$ の文脈化利得と $f$ とのプロット図である. サブグラフにある青い線は, batch $_{e f}$ の文脈化利得と $f$ との回帰直線である. 表 4.1 はすべての PLM の探査結果である. hyp-F1 の列は順に,Hypernyms 探査タスクの F1 尺度の値とその文脈化利得・正規化利得である.表 3 すべての PLM の結果一覧
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A4-5.pdf
# 四則演算を用いた Transformer の再帰的構造把握能力の調査 松本 悠太 ${ }^{1}$ 吉川 将司 ${ }^{1,2}$ Benjamin Heinzerling ${ }^{2}$ 乾 健太郎 ${ }^{1,2}$ 1 東北大学 2 理化学研究所 yuta.matsumoto.q8@dc.tohoku.ac.jp yoshikawa@tohoku.ac.jp benjamin.heinzerling@riken.jp inui@tohoku.ac.jp ## 概要 再帰的構造は自然言語の本質とされており,自然言語処理のモデルがこのような構造を把握する能力を持つかどうかは重要な点である. 本研究では自然言語における再帰的構造の代替として,途中結果が明確な四則演算のデータを用いて Transformer の再帰的構造を把握する能力を調査する。具体的には途中の計算結果を保存することが求められるような問題に対してその値を内部表現から取り出すことができるかというタスクを通じ,Transformerが計算の途中結果を内部的に保存できていることを示す. ## 1 はじめに 近年,Transformer [1] の内部状態を分析し,モデルの能力を検証する研究が盛んに行われている。例えば,既存研究では品詞タグ付けや固有表現抽出によるプロービングから,モデルの下層では構文情報を,上層では意味的情報を符号化しているといったことが示されている $[2,3,4]$. さまざまな言語的特徴の中でも,再帰的な構造は自然言語において本質的な要素である [5]. 再帰的構造に基づいて我々は新しい文を生成したり理解することができるためである。これは言語の構成性とも関連付けられ,既存の深層学習モデルがこの性質を捉えられるか, ベンチマークタスクを基にした調査研究が注目を集めている [6,7]. 一方,我々はプロービングの手法によって Transformer が再帰的構造を捉えることができるかについての検証を行う. その際に,自然言語の代替の形式言語として数式に着目する.これは数式もまた自然言語と同様に再帰的な構造を持ち,再帰的な構造に基づいて解かれるためである. 例えば, $(a+b) \times(c+d)$ という数式を解くには一般的には $a+b, c+d$ をまず計算してから二つの計算途中結果をかけるという順番で処理をする必要があり、モデ ルが数式の再帰的構造を理解しているとは二つの途中結果、そして途中結果どうしを乗算した值を共に表現できているということだと定義できる. 本研究では上述のような四則演算計算タスクを用いて、Transformer が数式中の途中結果を保存することができるかを調査する.調査に数式を使うことには複数のメリットが存在する.数式は数値を操作するというその性質から,自然言語における句(フレーズ)などと対比して,計算の途中結果がモデル内部に保存されているかを回帰によって直接調査することができる.また,自然言語のデータセットにはバイアスが存在しており,これに起因する表面上の手がかりによってタスクを解けてしまうことが報告されている $[8,9]$ が,数式のような形式言語を用いることでデータセット中の分布の偏りを無くし, バイアスを抑えることができる.本タスクは学習の際に明示的に構造を教えることはしていないが構造を捉えることが本質的に要求されるタスクであり,構造の教師信号なしで構造に関する知識を符号化することができるかを測ることができる。 調査の結果,Transformer モデルは四則演算の数式を解くことができ,その際の内部表現から学習中には与えられていない計算途中の値を取り出せることがわかった. さらになぜ計算途中結果を取り出せるのかについてより詳しい調査を行ったところ,内部表現には最終的な計算結果を保存する成分とは別に計算途中結果を保存する成分が分散的に存在することが示された. ## 2 関連研究 自然言語処理のモデルに数値を表現させること (数量推論など)に関しては,複数の先行研究が存在する。例えば,BERT [10] のような大規模言語モデルをべースに数量推論の問題をある程度解ける [11] ということが知られている.また,自然言語処理モデルに数をテキストとして入力した際,学習データ 図 1: 四則演算計算タスクの概観. 実際には出力は 0 から 1 の値に正規化される に出現する数の範囲内ならばその数の大小の概念を把握することができるといったことが示されている $[12,13]$. 最新の数量推論に関する詳細は Thawani らのサーベイ論文 [14]を参照されたい. 自然言語における再帰的構造に起因する言語的特徴をモデルが捉えられているのかについての研究もなされてきた. Linzen らは主語と動詞の一致を通じてモデルの文法的な構造を捉える能力を検証した [15]. また,岡本らは構文情報を与えた時の LSTM [16] の内部表現の分析を行った [17]. また,深層学習モデルが構成性を捉えた汎化が可能かについての議論が盛んであるが [6,7], Transformer が数式を再帰的に処理可能であることを示せれば,この議論に対し肯定的な証拠を提供できるだろう。 ## 3 問題設定 ## 3.1 四則演算計算タスク 本研究においては図 1 のように数式をテキストとしてモデルに入力し,答えを数値として回帰させるようなタスクを考える。 入力は表 1 のような 9 種類の数式で, 出力は各数式の答え $x_{i}$ を正規化した数である. 正規化は以下の式で行われ,教師データとしては実際の答え $x_{i}$ ではなく正規化された数 $x_{i}^{\prime}$ が使用される。 $ x_{i}^{\prime}=\frac{x_{i}-\min _{i} x_{i}}{\max _{i} x_{i}-\min _{i} x_{i}} $ このような計算の答えを正しく出力するためには, (1) 数の順序構造や足し算, 掛け算の概念を把握すること, (2) 計算の木構造を把握し, 計算の途中結果を保存することが必要となる. ${ }^{1)}$  表 1 : 入力される数式のテンプレート ## 3.2 計算途中結果保存プロービングタスク 3.1 節で示したタスクを学習する際,モデルは最終的な計算結果のみが教師データとして与えられており,その計算の途中結果は与えられていない。今回我々は $(a+b) \times(c+d)$ 中の $a+b$ の值のような, 明示的に学習させていないが計算を適切に行うためには保存することが必要だと思われる計算の途中結果に着目し,このような値がモデルに保存されているかを検証する. 具体的には, 3.1 節のタスクで学習したモデルに対して,その隠れ層の内部表現から計算の途中結果を線形回帰させることができるかを検証する.より詳細な設定は以下各実験で詳述する. ## 4 実験 ## 4.1 実験設定 データセット訓練データ,検証データには表 1 にある 9 パターンの数式と正規化されたその答えを使用する.訓練,検証用データのサイズはそれぞれ 9 万, 1 万であり,2つのデータに登場する数値に重複はない. 数式中に登場する項 $a, b, c, d$ は全て 1,000 未満の正の実数である.また,プロービング用に $(a+b) \times(c+d)$ の形のみのデータを 3,000 件用意した. このデータ中の数式の項 $a, b, c, d$ は全て 100 以上 1,000 未満の自然数である.これは後に内部表現の分析をするに当たって,桁数を揃えてべクトルの次元ごとの役割の対応を取るためである。 性能評価性能評価には決定係数 $R^{2}$ を使用する. $R^{2}$ は観測値 $y_{i}$ と予測値 $\hat{y}_{i}$ について以下の式で表される。 $ R^{2}(y, \hat{y})=1-\frac{\sum_{i=1}^{n}\left(y_{i}-\hat{y}_{i}\right)^{2}}{\sum_{i=1}^{n}\left(y_{i}-\bar{y}\right)^{2}} $ ただし, $\bar{y}$ は観測値 $y_{i}$ の平均である. この值が 1 に近いほど正確な回帰ができていることを表す. モデルモデルには Poor Man’s BERT [18] を使用する.これは BERT [10] の下位 6 層を使用したモデルで, [CLS]トークンから線形回帰を行う.また,入力は BERT を用いた数量推論で有効性が示されている Geva ら [11] の手法に従い,数字については 1 図 2: 四則演算計算タスクの回帰結果. いずれの計算タイプの数式も解くことができている. 桁ずつ分割を行う.例えば, 123 という数字が入力される際,1,\#\#2,\#\#3のように分割される。 プロービング数式 $X=\left(x_{1}, x_{2}, \cdots, x_{n}\right)$ を学習済み Poor Man's BERT に入力した際の $N$ 層目の内部表現を $H_{N}=\left(h_{1}, h_{2}, \cdots, h_{n}\right)$ とする. ここで, $H_{N}$ の各ベクトル(768 次元)を連結させて新たに( $768 \times n)$次元のベクトルを作る. 4.3 節で行うプロービングの際はこの結合済みベクトルから途中結果の値を線形回帰器によって回帰させる. ## 4.2 四則演算計算タスク 訓練データ上でモデルを学習させた際の検証デー タにおける回帰結果は図 2 のようになり, 決定係数は 0.9995 と非常に高い值であった. 図 2 から,9つの異なるパターンを同時に学習させても,各数式の意味や大小関係を理解し, 解くことができていることがわかる. 次節以降では,ここで学習したモデルについてプロービングを行う。 ## 4.3 計算途中結果保存プロービングタスク 本節では表 1 で示されている 9 つのパターンの数式のうち $(a+b) \times(c+d)$ のタイプに着目し, この数式の計算途中結果である $a+b$ や $c+d$ をモデルの各層ごとの内部表現 $H_{N}$ を $n=23$ としで2) 連結した 17,664 次元のベクトルから取り出すことができるかを検証する。できるだけ内部表現自体の能力を測り,新しく学習で教えないようにするためプロービングデータ中の $1 \%$ 訓練データ,残りの $99 \%$ を評価データとしてプロービングを行った. その結果を図 3 に示す. 図 3 から,わずかなデータポイントか  図 3: 計算途中結果保存プロービングタスクの結果. どの層の隠れ表現からでも計算の途中結果を回帰することができている. らでも計算の途中結果である $a+b$ や $c+d$ を回帰できていることがわかる(最大で決定係数 0.99)。ここから,Transformer は明示的に計算の途中結果を保存するように訓練していなくても,暗黙的に数式の再帰的構造を捉え,途中結果を保存することができているといえる。今回の実験では訓練データをかなり少なくしたが,驚くべきことにすべての層から回帰できる結果となった. では, すべての層で計算途中結果の情報は同じように表現されているのだろうか. 層ごとの違いを明らかにするため,次節では計算の流れをより仔細に調査する。 ## 4.4 隠れ層の空間構造の分析 ここでは 4.3 節で示されたような再帰的構造把握能力がどのように達成されているのかについて,プロービングデータに対して内部表現の主成分分析 (PCA)を行って検証する。 ## 最終計算結果, 計算途中結果と各成分の関係 本実験では 4.3 節で使用された 17, 664 次元の結合済み ベクトルに対して主成分数 20 で PCA を行い, PCA 後の各成分に対する計算中の途中結果や最終結果と の相関関係を測定する. ${ }^{3)}$ このうち, 1 層目,2 層目, 5 層目,6層目における結果を図 4 に示す. ${ }^{4)}$ 図 4 か ら, 最終結果 $(a+b) \times(c+d)$ の情報は層が上がるに つれて第一主成分に集中することがわかる。一方で 計算途中結果の情報を含む成分は特に上の層では分散して存在する. すなわち, 計算の途中結果が分散的に表現されていることがわかる。例えば 2 層目に  (a) 1 層目 (c) 5 層目 (b) 2 層目 (d) 6 層目 図 4: 層ごとの各主成分と計算結果の相関関係のヒートマップ. 各セルは第 $k$ 主成分(列)とある計算途中結果(行)との相関係数の絶対值を表す. おいては第一主成分,第二主成分が $a+b$ と相関が強く,他の成分はほぼ相関がないが,5 層目や 6 層目ではある程度の相関を持つ成分の幅が広がっている.さらに,図 4(a)~(d) の移り変わりを見ると,第一主成分以外で途中結果と強い相関を持つ成分が徐々に下位に移っていることがわかる.ここから, モデルにとって低い層では途中結果を重要な情報として持ち,上の層に行くにつれて途中結果が保存され続けてはいるものの重要でなくなっていることも示唆される。 ## 主成分による計算途中結果プロービング 途中結果が分散的に表されているという観察結果を検証 するため,4.3 節と同じ設定でのプロービングを再度行う. ただし,今回線形回帰器の入力となるのは PCA 後の上位 $k$ 個の主成分である. 例えば, $k=1$ の時は第一主成分の值のみから $(a+b) \times(c+d)$ 中の 途中結果である $a+b$ の值を回帰することになる. このプロービングの結果を図 5 に示す. 図 5 から,一般に $k$ を増やすほど途中結果の值を回帰できるよ うになっていることが見て取れる. ここからも,モ デルは計算の途中結果を複数の成分に分散して保存 していることが裏付けられる。また,より詳細に見 ていくと 1〜4 層目では 2 個以上の主成分を使用し た時に性能が大きく上がっているが,5 層目,6層目では $a+b$ の値と相関が高い成分が下位になって いるため,5 層目では $k=2 , 6$ 層目では $k=4$ での 回帰スコアが急激に下がっている. これは図 4 と一致する結果である. 図 5: $k$ 個の主成分による計算途中結果プロービングタスクの結果. 上層においては寄与率が低い主成分を用いなければ解けない。 ## 5 おわりに 本研究では計算の途中結果を保存することが求められるような数式を定義することで,Transformer の再帰的構造の把握能力の有無を調査した.その結果として,Transformer は内部的に計算の途中結果を教師なしで保存できていることがわかった.またこの時,計算の途中結果は分散的に保存されていることを示した。 今回は再帰性について検証を行ったが,数式の性質を用いることで処理の流れや構成性など別の能力を測ることも可能であると考えるため,今後の展望としたい.また,数式のような形式言語にあえて曖昧性を持たせるなどしてょり自然言語に近い設定で再帰的構造の把握能力を調査する方向も考えられる。 ## 謝辞 本研究は JST CREST JPMJCR20D2 及び JSPS 科研 費 20K23314, 21K17814 の助成を受けたものです. ## 参考文献 [1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [2] Alessandro Raganato and Jörg Tiedemann. An analysis of encoder representations in transformer-based machine translation. In Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 287-297, Brussels, Belgium, November 2018. Association for Computational Linguistics. [3] Ganesh Jawahar, Benoît Sagot, and Djamé Seddah. What does BERT learn about the structure of language? In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3651-3657, Florence, Italy, July 2019. Association for Computational Linguistics. [4] Ian Tenney, Dipanjan Das, and Ellie Pavlick. BERT rediscovers the classical NLP pipeline. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4593-4601, Florence, Italy, July 2019. Association for Computational Linguistics. [5] Noam Chomsky. Syntactic Structures. Mouton and Co., The Hague, 1957. [6] Brenden Lake and Marco Baroni. Generalization without systematicity: On the compositional skills of sequence-tosequence recurrent networks. In Jennifer Dy and Andreas Krause, editors, Proceedings of the 35th International Conference on Machine Learning, Vol. 80 of Proceedings of Machine Learning Research, pp. 2873-2882. PMLR, 10-15 Jul 2018. [7] Najoung Kim and Tal Linzen. COGS: A compositional generalization challenge based on semantic interpretation. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 9087-9105, Online, November 2020. Association for Computational Linguistics. [8] Tom McCoy, Ellie Pavlick, and Tal Linzen. Right for the wrong reasons: Diagnosing syntactic heuristics in natural language inference. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3428-3448, Florence, Italy, July 2019. Association for Computational Linguistics. [9] Suchin Gururangan, Swabha Swayamdipta, Omer Levy, Roy Schwartz, Samuel Bowman, and Noah A. Smith. Annotation artifacts in natural language inference data. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Lin- guistics: Human Language Technologies, Volume 2 (Short Papers), pp. 107-112, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [10] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [11] Mor Geva, Ankit Gupta, and Jonathan Berant. Injecting numerical reasoning skills into language models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 946-958, Online, July 2020. Association for Computational Linguistics. [12] Eric Wallace, Yizhong Wang, Sujian Li, Sameer Singh, and Matt Gardner. Do NLP models know numbers? probing numeracy in embeddings. In Proceedings of the $\mathbf{2 0 1 9}$ Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 5307-5315, Hong Kong, China, November 2019. Association for Computational Linguistics. [13] Rodrigo Nogueira, Zhiying Jiang, and Jimmy Lin. Investigating the limitations of transformers with simple arithmetic tasks, 2021. [14] Avijit Thawani, Jay Pujara, Filip Ilievski, and Pedro Szekely. Representing numbers in NLP: a survey and a vision. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 644-656, Online, June 2021. Association for Computational Linguistics. [15] Tal Linzen, Emmanuel Dupoux, and Yoav Goldberg. Assessing the ability of LSTMs to learn syntax-sensitive dependencies. Transactions of the Association for Computational Linguistics, Vol. 4, pp. 521-535, 2016. [16] Sepp Hochreiter and Jürgen Schmidhuber. Long ShortTerm Memory. Neural Computation, Vol. 9, No. 8, pp. 1735-1780, 111997. [17] 岡本千尋, 内海慶, 持橋大地. 構文情報を陽に与えたときの $1 \mathrm{stm}$ による内部表現について. 情報処理学会, 2018. [18] Hassan Sajjad, Fahim Dalvi, Nadir Durrani, and Preslav Nakov. On the effect of dropping layers of pre-trained transformer models, 2021. ## A 主成分分析の詳細な結果 4.4 節で載せられなかった 3 層目, 4 層目も含めた主成分分析の結果を図 6 に示す. 図 6 からも,やはり,第一主成分以外で途中結果と強い相関を持つ成分が徐々に下位に移っていることが見て取れる. (a) 1 層目 (c) 3 層目 (e) 5 層目 (b) 2 層目 (d) 4 層目 図 6: 全ての層における各主成分と計算結果の相関関係のヒートマップ.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A5-1.pdf
# 単語ベクトルの長さは意味の強さを表す 大山百々勢 $*, 1,3$ 横井祥 ${ }^{*, 2,3}$ 下平 英寿 ${ }^{*}, 1,3$ 1 京都大学 2 東北大学 3 理化学研究所 oyama.momose@sys.i.kyoto-u.ac.jp yokoi@tohoku.ac.jp shimo@i.kyoto-u.ac.jp ## 概要 単語ベクトルは単語の持つ様々な言語的特性を反映していると考えられるが,単語ベクトルの長さに何がどのようにエンコードされているかは明らかでない. 本稿では,単語べクトルの長さが意味の強さをエンコードするという経験的な知見に理論的な枠組みを与える. はじめに意味の強さの指標として,各単語の周辺単語分布とコーパス全体の単語分布の Kullback-Leibler (KL) 情報量を提案する。またこの指標の妥当性を,単語頻度によるバイアスを KL 情報量から適切に除去した尺度が品詞の違いを識別できるという実験を通して確かめる。さらに, Skip-gram with Negative Sampling によって得られる単語ベクトルの長さの 2 乗が KL 情報量, つまり意味の強さに相当することを理論と実験で示す. ## 1 はじめに 自然言語処理のタスクにおいて欠かせない単語べクトルには,単語の持つ各種意味的・統語的特性がエンコードされていることがわかっている $[1,2,3]$.本稿ではとくに単語べクトルの長さ(ユークリッドノルム)に関して理論的・経験的分析をおこなう. 単語ベクトルの長さは「単語の意味の強さ」を反映すると既存研究でも考えられている.単語べクトルの加法構成性を拡張して意味に関する論理演算 (AND,OR,NOT)を明らかにした先行研究 [4]によれば,単語ベクトルの加算は AND 演算に相当する。 したがって,ある単語を複数回足し合わせてべクトルを長くすることが意味を強める操作に対応すると予想される. また [5]によれば,固有名詞の方がより「弱い意味」を持つであろう機能語よりも単語ベクトルが長いという実験結果が示されている. 本稿では「意味の強さ」という曖昧な対象を数理的に記述するため,その指標として注目している  単語の周辺単語分布とコーパス全体の単語分布の Kullback-Leibler (KL) 情報量を採用する.KL 情報量はその単語が出現したという情報の大きさを表しており,「意味の強さ」の指標として自然な選択肢だと考えられる. この定式化によって,単語ベクトルの長さが意味の強さを表すという仮説に対して様々な実証実験や理論保証が可能となる.たとえば,単語ベクトルの長さは KL 情報量と実際に密接な関係があることが実験的に見て取れる(図 1)。た後ほど 3 節で示すように,ある特殊な白色化処理を施した単語ベクトルの長さの 2 乗は,KL 情報量(つまり意味の強さ)の近似值であること示せる(図 4).経験的な検証にあたっては,単語頻度(コーパスにおける単語の出現回数) の影響が状況を複雑にする. 頻度と KL 情報量には強い相関があり,頻度が大きい単語ほど KL 情報量は小さい傾向がある(図 1).より多く使われる単語のほうが特殊性が低く意味が弱い傾向があると考えればごく自然なことである. さらに,KL 情報量は有限長のコーパスから計算するため,とくに低頻度語では量子化誤差やサンプリング誤差の強い影響をうける。そこで本論文では,KL 情報量から頻度の直接的影響を除去した頻度補正済み KL 情報量を尺度として用いる。結果,固有名詞のほうが機能語や動詞より頻度補正済み KL 情報量の值が大きい傾向があることを,つまり意味が強い傾向があることをより精確に確認することができた。すなわち,KL 情報量を用いた「長さ=意味の強さ」説の理論保証は,頻度のバイアスによる擬似相関でないことが確認できた。 ## 2 単語の KL 情報量と頻度の影響 ## 2.1 単語の $K L$ 情報量 コーパスにおける単語 $w$ の確率を $p(w)$ とし, コーパス分布を $p(\cdot)$ と表す. 同様に, 単語 $w$ の周辺 (または文脈)単語が $w^{\prime}$ である確率を $p\left(w^{\prime} \mid w\right)$ とし, 図 $1 \mathrm{KL}$ 情報量と単語ベクトルの長さの 2 乗の散布図.各点は text8 コーパスから選んだ 1200 単語であり,単語頻度を色で表す. 高頻度語は暖色,低頻度語は寒色. 詳細は 2.3 節,3.2 節を参照. 図 2 単語頻度 $n_{w}$ と 3 種類の $\mathrm{KL}$ 情報量の散布図: $\mathrm{KL}(w)$ (raw), $\overline{\mathrm{KL}}(w)$ (shuffle), $\mathrm{KL}_{0}(w)$ (round). 各点は text8 コーパスから選んだ 1200 単語. 周辺単語分布を $p(\cdot \mid w)$ と表す. 分布仮説 $[6,7]$ によれば,周辺単語分布 $p(\cdot \mid w)$ は単語 $w$ の意味を表すとされる。これらは確率分布であるから,語彙集合を $V$ とすれば, $\sum_{w \in V} p(w)=\sum_{w^{\prime} \in V} p\left(w^{\prime} \mid w\right)=1$ である. $p(\cdot \mid w)$ の重み付き平均(または重心)がコーパス分布 $p(\cdot)$ であり, $p(\cdot)=\sum_{w \in V} p(\cdot \mid w) p(w)$ である. 2 つ分布 $p(\cdot \mid w)$ と $p(\cdot)$ の KL 情報量(または KL ダイバージェンス) は $ \operatorname{KL}(p(\cdot \mid w) \| p(\cdot))=\sum_{w^{\prime} \in V} p\left(w^{\prime} \mid w\right) \log \frac{p\left(w^{\prime} \mid w\right)}{p\left(w^{\prime}\right)} $ と定義される。本論文では,これを $\mathrm{KL}(w)$ と表し,単語 $w$ の $\mathrm{KL}$ 情報量とよぶ. $\mathrm{KL}(w)$ は $w$ の周辺単語分布がいかに重心からズレて特殊なものになっていくかを表していて,単語 $w$ のもつ情報の大きさと考えられる。 ## 2.2 単語頻度の直接的影響 $\mathrm{KL}$ 情報量は単語頻度と高い相関がある.実験設定は 2.3 節で説明するが,図 2 の raw は,単語 $w$ の出現回数 $n_{w}$ (これを単語頻度とよぶ)と $\mathrm{KL}(w)$ の関係を表している。単語頻度が小さいほど KL 情報量が大きくなる傾向がわかる. この傾向の大きな要因は,コーパスが有限長 $N$ であることによって生じる誤差であり,一種のアーティファクトまたはバイアスといえる。この誤差を本論文では,単語頻度の直接的影響とよぶ.このような影響を適切に取り除いた尺度を用いることで,正しく単語の意味の強さが測定できる。 単語分布 $p(\cdot)$ と $p(\cdot \mid w)$ は有限長のコーパスから計算される. 単語 $w$ の確率は $p(w)=n_{w} / N$ である. 単語 $w$ の前後 $\pm h$ の窓における単語 $w^{\prime}$ の出現回数,すなわち共起回数を $n_{w, w^{\prime}}$ とすると,周辺単語 $w^{\prime}$ の確率は $p\left(w^{\prime} \mid w\right)=n_{w, w^{\prime}} / \sum_{w^{\prime \prime} \in V} n_{w, w^{\prime \prime}}$ で計算される(ただし,コーパスの端点を無視すれば, $\left.\sum_{w^{\prime \prime} \in V} n_{w, w^{\prime \prime}}=2 h n_{w}\right)$. ## 2.2.1 サンプリング誤差 もとのコーパスをランダムにシャッフル,すなわち単語を並べ替えたコーパスを考える [8]. $n_{w}$ とそれから計算される $p(\cdot)$ は不変であるが,単語の共起回数 $n_{w, w^{\prime}}$ とそれから計算される $p(\cdot \mid w)$ は単語の意味を反映しなくなる。このようにして作った $n_{w, w^{\prime}}$ は,コーパス端点の影響を無視すれば, $p(\cdot)$ をパラメータにもつ多項分布からのサンプリングに等価である.このランダムなコーパスから計算した単語 $w$ の $\mathrm{KL}$ 情報量の平均値を $\overline{\mathrm{KL}}(w)$ とする. 実験では, ランダムにシャッフルしたコーパスを 10 個作成し, その $\mathrm{KL}(w)$ の平均值を $\overline{\mathrm{KL}}(w)$ として用いる. これは単語の意味は反映せず,サンプリングによるランダムネスの影響のみを表している。図 2 の shuffle に示すように, $\overline{\mathrm{KL}}(w)$ は $n_{w}$ が小さいほど大きくなる. $\mathrm{KL}$ 情報量から頻度の直接的影響を取り除いた $\mathrm{KL}(w)-\overline{\mathrm{KL}}(w)$ を頻度補正済み $\mathrm{KL}$ 情報量とよぶことにする。本論文では,これを意味の強さの尺度として用いる. ## 2.2.2 量子化誤差 低頻度語 $w$ では $n_{w}$ が小さいため, $n_{w, w^{\prime}}=0$ となる $w^{\prime}$ が増えてスパースになり, 回数が整数値しかとらないことによる量子化誤差の影響も無視 できなくなる.そこで $n_{w, w^{\prime}}:=\operatorname{round}\left(n_{w} p\left(w^{\prime}\right) 2 h\right)$ と再定義して計算した $\mathrm{KL}$ 情報量を $\mathrm{KL}_{0}(w)$ とし,図 2 の round に示す. 整数值の丸め誤差がなければ, $p\left(w^{\prime} \mid w\right)=p\left(w^{\prime}\right)$ となり $\mathrm{KL}_{0}(w)=0$ のハズである. しかし実際には, $n_{w}$ が小さい単語では $\operatorname{KL}_{0}(w)$ は無視できない大きさになっている. 3 節で単語べクトルの長さと KL 情報量の関係を確認するとき, $\mathrm{KL}(w)-\mathrm{KL}_{0}(w)$ を使うことで, $\mathrm{KL}$ 情報量のゼロ点調整を行う. ## 2.3 実験 KL 情報量から単語頻度の直接的影響を除去した尺度を計算し,単語の意味の強さがこの尺度の大小に反映されているか確認する. text8コーパスの単語共起行列から KL 情報量を計算する。単語集合 1 はコーパスからバランス良く選んだ 1200 単語, 単語集合 2 は固有名詞 10561 単語,機能語 123 単語,動詞 4771 単語からなる. 実験設定の詳細は付録 Bを参照. 【実験 1 単語集合 1 の各単語 $w$ について $\operatorname{KL}(w)$ を計算する. SGNS[9] で計算した 300 次元の単語べクトル $u_{w}$ の長さの 2 乗 $\left.\|u_{w}\right.\|^{2}$ との関係を図 1 に示した. 単語頻度の直接的影響を図 2 に示した. 単語べクトルの詳細な結果は 3.2 節で示す. 実験 2 単語集合 2 の各単語 $w$ について $\operatorname{KL}(w)-$ $\overline{\mathrm{KL}}(w)$ を計算した結果を図 3 に示す. 固有名詞は,機能語や動詞よりも大きな値になる傾向がある. 固有名詞の文脈は機能語や動詞の文脈に比べて限定的と考えられ,相対的に意味が強くなりやすいと期待される [5] ことと矛盾無い結果が得られた. 固有名詞のうち出現回数が 100 回以上 1000 回未満の 2428 単語について, $\mathrm{KL}(w)-\overline{\mathrm{KL}}(w)$ の値でソートした上位,中位,下位の各 10\% 区間の単語から,それぞれ 10 単語をランダムにサンプリングしたものを表 1 に示す. この処理では大文字小文字の区別はしておらず,storm, haven などむしろ普通名詞とすべきものが含まれている。このような普通名詞が下位 240 単語には多く見られる。一方,上位 240 単語には企業名などの固有名詞が多く見られる。 ## $3 \mathrm{KL$ 情報量と単語ベクトルの長さ} 図 1 で見たように,単語べクトルの長さの 2 乗は KL 情報量の近似であることが予想される。このことを理論的,実験的に示す. 図 3 単語頻度 $n_{w}$ と意味の強さの尺度 $\mathrm{KL}(w)-\overline{\mathrm{KL}}(w)$ をプロットした. 固有名詞は 10561 単語(赤),機能語は 123 単語(青),動詞は 4771 単語(緑)である. 表 1 text8コーパス内での出現回数が 100 回以上 1000 回未満の名詞・固有名詞について, $\mathrm{KL}(w)-\overline{\mathrm{KL}}(w)$ の値の上位・中位・下位それぞれ 240 単語からランダムに 10 個ずつサンプリングした. ## 3.1 理論 SGNS では 2 種類の単語ベクトルを学習する.単語側埋め込みを $u_{w}, w \in V$ ,文脈側埋め込みを $v_{w^{\prime}}$, $w^{\prime} \in V$ とする. これらの重心を $\bar{u}=\sum_{w \in V} p(w) u_{w}$, $\bar{v}=\sum_{w^{\prime} \in V} p\left(w^{\prime}\right) v_{w^{\prime}}$ とし,頻度重み付き中心化した単語ベクトルを $\hat{u}_{w}:=u_{w}-\bar{u}_{w}, \hat{v}_{w^{\prime}}:=v_{w^{\prime}}-\bar{v}$ とする. SGNS の negative sampling 分布を $q(\cdot)$ , 1 共起当たりの負例数を $v$ とする. 理想的な学習で単語べクトルが得られていると仮定すれば,周辺単語分布は $p\left(w^{\prime} \mid w\right)=v q\left(w^{\prime}\right) e^{\left.\langle u_{w}, v_{w^{\prime}}\right.\rangle}$ である. 議論を簡単にするため $p(\cdot)=q(\cdot)$ と仮定すると,KL 情報量は $ \mathrm{KL}(w) \simeq \frac{1}{2} u_{w}^{\top} \operatorname{Cov}(v) u_{w} $ ただし $\operatorname{Cov}(v)$ は文脈側埋め込みの頻度重み付き分散共分散行列である.この導出は付録 Aを参照. $u=0$ が $q(\cdot)$ に, $u=\bar{u}$ が $p(\cdot)$ に対応することを考慮すると,一般に $p(\cdot) \neq q(\cdot)$ のときは $u_{w}$ を $\hat{u}_{w}$ でおき かえたほうがよい,そこで, $\hat{u}_{w}$ を文脈側べクトルで白色化 ${ }^{1)}$ したべクトルを $\tilde{u}_{w}:=\operatorname{Cov}(v)^{\frac{1}{2}} \hat{u}_{w}$ とおけば, $\left.\|\tilde{u}_{w}\right.\|^{2} \simeq 2 \mathrm{KL}(w)$. ## 3.2 実験 text8 コーパスから SGNS を用いて 300 次元の単語べクトル $u_{w}, v_{w}, w \in V$ を学習した. 反復数は 100 エポックとした. 量子化誤差の影響(2 節を参照)を考慮するためにゼロ点調整を行った KL 情報量を用いる。単語集合 1 の 1200 単語について KL 情報量と $\left.\|\tilde{u}_{w}\right.\|^{2}$ の関係を図 4 に示す. $\left.\|\tilde{u}_{w}\right.\|^{2} \simeq 2\left(\mathrm{KL}(w)-\mathrm{KL}_{0}(w)\right)$ の関係が比例定数を含めて近似的に成立していることが確認できる。 図 4 縦軸は文脈ベクトルで白色化した単語ベクトル $\tilde{u}_{w}$ の長さの 2 乗. 横軸は $2\left(\mathrm{KL}(w)-\mathrm{KL}_{0}(w)\right)$. その他の設定は図 1 と同じ. ## 4 単語ベクトルの長さと意味の強さ 2 節と 3 節の結果から,単語ベクトルの長さに単語の意味の強さがエンコードされていることが示唆される。これを実験的に確認する.KL 情報量と同様に単語ベクトルの長さにもサンプリング誤差があるため,2.2.1 節の方法で単語頻度の直接的影響を取り除く.ランダムにシャッフルしたコーパスから学習した $\left.\|u_{w}\right.\|^{2}$ の平均値を $\overline{\left.\|u_{w}\right.\|^{2}}$ とする.ここでは 10 回の平均値を用いる. 図 5 は単語ベクトルの頻度補正済み長さの 2 乗 $\left.\|u_{w}\right.\|^{2}-\overline{\left.\|u_{w}\right.\|^{2}}$ を図 3 と同様にプロットしたものである.KL 情報量を用いたときとまったく同様に,機能語,動詞に比べて固有名詞の意味が強い傾向が読み取れる. $u_{w}$ の代わりに文脈ベクトルで白色化した単語べクトル $\tilde{u}_{w}$ を用いた場合を図 6 に示す。 $\tilde{u}_{w}$ を用いると $\mathrm{KL}$ 情報量 $\times 2$ に相当するため解釈が 1)本稿では便宜上「白色化」と呼んでいるが,変換式において $\operatorname{Cov}(v)$ の次数は $-\frac{1}{2}$ ではなく $\frac{1}{2}$ であることに注意されたい.容易になる反面,低頻度領域で若干のバイアスが残っているように見える点は今後の課題である. 図 5 単語頻度 $n_{w}$ と単語ベクトルの頻度補正済み長さの 2 乗 $\left.\|u_{w}\right.\|^{2}-\overline{\left.\|u_{w}\right.\|^{2}}$ のプロット. 図 6 単語頻度 $n_{w}$ と文脈ベクトルで白色化した単語べクトルの頻度補正済み長さの 2 乗 $\left.\|\tilde{u}_{w}\right.\|^{2}-\overline{\left.\|\tilde{u}_{w}\right.\|^{2}}$ のプロット. ## 5 おわりに 単語の KL 情報量を「意味の強さ」と解釈することを提案した。単語の品詞の違いや,名詞・固有名詞の違いが矛盾なく意味の強さに反映されていることを数値例で確かめた。単語の KL 情報量の代わりに単語ベクトルの長さの 2 乗を用いても同じように意味の強さが測れることを確かめた。これらの評価では単語頻度の影響を適切に除去することが重要であり,そのためにランダムにシャッフルしたコーパスを用いて KL 情報量を補正した。今後は,WordNet[10] 等のデータベースを用いて単語の上位・下位関係,含意関係などがどのように反映されているか確かめたい. ## 謝辞 本研究は, JSPS 科研費 $20 \mathrm{H} 04148$, JST CREST JPMJCR21N3,JST ACT-X JPMJAX200S の助成を受 けています. ## 参考文献 [1] Tobias Schnabel, Igor Labutov, David Mimno, and Thorsten Joachims. Evaluation methods for unsupervised word embeddings. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 298-307, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [2] Anna Rogers, Olga Kovaleva, and Anna Rumshisky. A primer in BERTology: What we know about how BERT works. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 842-866, 2020. [3] Sho Yokoi, Ryo Takahashi, Reina Akama, Jun Suzuki, and Kentaro Inui. Word rotator's distance. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 2944-2960, Online, November 2020. Association for Computational Linguistics. [4] Masahiro Naito, Sho Yokoi, Geewook Kim, and Hidetoshi Shimodaira. Revisiting additive compositionality: AND, OR and NOT operations with word embeddings, 2021. ACL-IJCNLP 2021 Student Research Workshop. [5] Adriaan M. J. Schakel and Benjamin J. Wilson. Measuring word significance using distributed representations of words, 2015. arXiv 1508.02297. [6] Zellig Harris. Distributional structure. Word, Vol. 10, No. 2-3, pp. 146-162, 1954. [7] J. R. Firth. A synopsis of linguistic theory 1930-55. Studies in Linguistic Analysis (special volume of the Philological Society), Vol. 1952-59, pp. 1-32, 1957. [8] Kumiko Tanaka-Ishii. Statistical Universals of Language. Springer, 2021 [9] Tomás Mikolov, Ilya Sutskever, Kai Chen, Greg Corrado, and Jeffrey Dean. Distributed representations of words and phrases and their compositionality. In Advances in Neural Information Processing Systems, pp. 3111-3119, 2013. [10] Christiane Fellbaum. WordNet: An Electronic Lexical Database. Bradford Books, 1998. [11] Steven Bird and Edward Loper. NLTK: The natural language toolkit. In Proceedings of the ACL Interactive Poster and Demonstration Sessions, pp. 214-217, Barcelona, Spain, July 2004. Association for Computational Linguistics. ## A KL 情報量の近似式 KL 情報量が十分に小さいとき近似的に対称になり $\mathrm{KL}(p(\cdot \mid w) \| p(\cdot)) \simeq \mathrm{KL}(p(\cdot) \| p(\cdot \mid w))$ である.これに $p\left(w^{\prime} \mid w\right)=v p\left(w^{\prime}\right) e^{\left.\langle u_{w}, v_{w^{\prime}}\right.\rangle}$ を代入すると, $ \begin{aligned} & \operatorname{KL}(p(\cdot) \| p(\cdot \mid w)) \\ = & \sum_{w^{\prime} \in V} p\left(w^{\prime}\right) \log \frac{p\left(w^{\prime}\right)}{p\left(w^{\prime} \mid w\right)} \\ = & \sum_{w^{\prime} \in V} p\left(w^{\prime}\right)\left(-\log v-\left.\langle u_{w}, v_{w^{\prime}}\right.\rangle\right) \\ = & -\log v-\left.\langle u_{w}, \bar{v}\right.\rangle \end{aligned} $ ところで,$\sum_{w^{\prime} \in V} p\left(w^{\prime} \mid w\right)=1$ であることから, $ \begin{aligned} 1 & =\sum_{w^{\prime} \in V} p\left(w^{\prime} \mid w\right) \\ & =\sum_{w^{\prime} \in V} v p\left(w^{\prime}\right) e^{\left.\langle u_{w}, v_{w^{\prime}}-\bar{v}\right.\rangle} e^{\left.\langle u_{w}, \bar{v}\right.\rangle} \\ & =v e^{\left.\langle u_{w}, \bar{v}\right.\rangle} \sum_{w^{\prime} \in V} p\left(w^{\prime}\right)\left(1+\left.\langle u_{w}, v_{w^{\prime}}-\bar{v}\right.\rangle+\right. \\ & \left.\quad \frac{1}{2}\left.\langle u_{w}, v_{w^{\prime}}-\bar{v}\right.\rangle^{2}+\cdots\right) \\ & \simeq v e^{\left.\langle u_{w}, \bar{v}\right.\rangle}\left(1+\left.\langle u_{w}, \bar{v}-\bar{v}\right.\rangle+\frac{1}{2} u_{w}^{\top} \operatorname{Cov}(v) u_{w}\right) \\ & \simeq v e^{\left.\langle u_{w}, \bar{v}\right.\rangle} \exp \left(\frac{1}{2} u_{w}^{\top} \operatorname{Cov}(v) u_{w}\right) \end{aligned} $ ただしテイラー展開の高次項は無視している.この式を KL 情報量の式に代入すると $ \mathrm{KL}(w) \simeq \frac{1}{2} u_{w}^{\top} \operatorname{Cov}(v) u_{w} $ ## B 実験設定 共起行列の計算コーパス長 $N=170 \mathrm{M}$ の text8 コーパス2)を用いる。単語の共起行列 $\left(n_{w, w^{\prime}}\right)_{w, w^{\prime} \in V}$ の計算では $h=10$ とし,コーパスの端点を除いて前後 $\pm h$ の単語を共起した単語として数える。 単語集合 1 単語の KL 情報量, 頻度, 単語ベクトルの長さの関係を調べる実験(図 1 , 図 2 , 図 4)では, コーパスの最初の 200 単語と, 出現頻度順にソートして 50 単語おきに選んだ 1000 単語の合計 1200 単語を用いる。 単語集合 2 単語の意味の強さを確認する実験では, 単語の品詞として固有名詞 (proper nouns), 機能語 (function words), 動詞 (verbs) を用いる. 固有名詞は English Proper nouns データベース3)に掲載されている 61711 単語の中から text8 コーパスに登場する 2) http://mattmahoney.net/dc/textdata.html 3) https://github.com/jxlwqq/english-proper-nouns/ 10561 単語を使用する. 機能語と動詞は NLTK[11] の POS tagging によって取得する. 機能語は POS tagging によって\{IN, PRP, PRP\$, WP, WP\$, DT, PDT, WDT, CC, MD, RP\}でタグ付けされた単語の中から text8 コーパスに登場する 123 単語を使用する. 動詞は POS tagging によって\{VB, VBD, VBG, VBN, VBP, VBZ\}でタグ付けされた単語の中から text8コーパスに登場する 4771 単語を使用する。
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A5-2.pdf
# 個別銘柄情報と銘柄間情報を考慮した銘柄埋め込み手法の提案 高柳剛弘 ${ }^{1}$ 坂地泰紀 ${ }^{1}$ 和泉潔 ${ }^{1}$ 1 東京大学 大学院工学研究科 m2021ttakayanagi@socsim.org ## 概要 本研究では個別銘柄と銘柄間関係の特徴を同時に学習する新たな銘柄埋め込み手法を提案する。提案手法では,因果チェーンにより銘柄間ネットワークを構築し,アニュアルレポートのテキストデータから BERTを用いて個別銘柄独自の特徴を学習するのに加えて,銘柄間ネットワークに対して GCNを用いることで銘柄間のクロスセクショナルな関係を同時に学習することを可能にした. 東京証券取引所の上場銘柄を対象に行った実験により,提案手法が既存手法の性能を大きく上回ることを確認し,銘柄独自の特徴と銘柄間のクロスセクショナルな関係を同時に学習することの有用性を示した。 ## 1 はじめに 今日の金融市場において機械学習やテキストマイニングなどの技術の活用が進んでいる.金融市場や投資家にまつわる膨大なデータの蓄積やそれに伴う大規模データ解析技術の進展は金融分野における技術発展を加速させている.特に資産運用分野では株価や経済指標の数値予測 $[1,2,3]$, 銘柄の推薦 [4] や投資家のサポート $[5,6]$ などデータを駆使した多様なアプリケーションが生まれた。これらのアプリケーションには離散オブジェクトである個別銘柄やファンドをべクトルで表現するアプローチが多く用いられ $[1,2,3,4,5,6]$, 個別銘柄やファンドのべクトル埋め込みは資産運用分野における技術発展の基盤となっている. 一般に離散オブジェクトをべクトルにより表現する際にはそのオブジェクトの特徴を捉える必要がある. 特に銘柄の特徴は銘柄自身の情報と銘柄間のクロスセクショナルな関係の情報の二つにより表すことができると考えられる.銘柄自身の特徴を表現するためのデータとして企業の株価や財務情報など伝統的なデータのみならず,テキストデータなどの才ルタナティブデータの利活用が進んでいる。 [5] は銘柄埋め込みを作成する際のテキストデータの有用性について示した. 一方で銘柄間関係の表現については,企業のサプライチェーン,取引構造や株式所有構造などの企業間の関係を模した企業間ネットワークを利用する手法が多く用いられている $[1,2,3,4,6]$. このように銘柄のベクトル埋め込みには二つのアプローチが存在し,個別銘柄の情報,銘柄間の情報共に有用であることが示されている. しかしながら既存研究では銘柄自身の情報と銘柄間関係の情報の双方を同時に考慮することができておらず,銘柄の一側面のみに注目した研究になっている。加えて,企業間の関係はサプライチェーンや取引データなど方向性のある関係である。このことから有向グラフにより企業間の関係を抽出する方法が妥当であると考えられるが,既存研究では無向グラフにより企業ネットワークが構築され,有向グラフの有用性は検証されていない。 これらの課題を解決するために,本研究では BERT と GCN(Graph Convolutional Network)を組み合わせることで個別銘柄の情報と銘柄間関係を同時に学習させる手法を提案する。提案手法では初めに因果チェーンを用いて銘柄間ネットワークを構築する. 次に銘柄のテキスト情報に対して BERTを用いることで得られる個別銘柄独自の特徴をノード特徴量として用いる.最後に銘柄間ネットワークに対してGCNを用いることで銘柄とその周辺銘柄の関係性を考慮した銘柄埋め込みを獲得する。 実験を通して提案手法は先行研究の性能を上回り,銘柄埋め込みに対して個別銘柄と銘柄間の関係性を同時に学習させることの有用性が示された。加えて,銘柄を因果チェーンで結んだ有向グラフを作成することで,企業間の関係性を示すために有向グラフが有用である可能性を示した. ## 2 先行研究 銘柄のベクトル埋め込みの研究は大きく分けて二つに分けることができる。一つ目は個別銘柄の特徴に注目するアプローチである。このアプローチでは銘柄の産業区分や事業の内容など銘柄独自の情報をベクトル表現に織り込むことにより銘柄のベクトル表現を獲得している. [5] の研究ではアニュアルレポートのテキスト情報から個別企業の特徴を抽出することで銘柄のべクトル表現を獲得した. 二つ目は銘柄間のクロスセクショナルな関係性に注目するアプローチである. このアプローチでは企業のサプライチェーン,取引関係や株式所有構造などの銘柄間の関係の情報をべクトル表現に織り込むことにより企業のベクトル表現を獲得している $[1,2,3,4,6]$. [1] では株主所有構造に [3] ではニュースにおける銘柄の共起性に [6] では銘柄と投資信託の内包関係によりネットワークを構築し Node2Vec を用いて埋め込みを獲得している. [2]では株式所有構造,企業の産業区分,ニュースのトピック情報に,[4]では銘柄の産業区分によりネットワークを作成し GCN を用いて埋め込みを獲得している。 ## 3 提案手法 本研究の目的はターゲット銘柄 $T_{i}$ についての $d$ 次元のベクトル $h_{i} \in \mathbb{R}^{d}$ を得ることである. 提案手法は図 1 の通りである. 初めに因果チェーンからター ゲット銘柄 $T_{i}$ を中心とするサブグラフを抽出する (STEP1). 次に各ノードのノード特徴量を BERT に入力する (STEP2). 最後に GCNを用いてノード特徴量を更新する(STEP3). ## 3.1 BERT 自然言語処理のタスクで優れた性能を示している BERT[7] を用いてテキストデータの埋め込み表現を獲得する. BERT は東北大学の乾研究室 ${ }^{1}$ が公開している Pretrained Japanese BERT model を利用した. BERTは専門単語が多い領域である金融分野において金融コーパスを用いて再事前学習(further pretraining)をすることでの精度向上が報告されている [8]. これに従い本研究では金融コーパスを用いた再事前学習を行い,再事前学習された BERT モデルを用いて学習を行った.  $ h_{B E R T}=B E R T\left(x_{i}\right) $ ここで $x_{i}$ はターゲット銘柄 $i$ のテキストデータであり, $h_{B E R T} \in \mathbb{R}^{e}$ は BERT の出力である. ## $3.2 \mathrm{GCN, \mathrm{GAT}$} GCN (Graph Convolutional Network)[9] は各ノードが隣接ノードから情報を集約(aggregate)し,自身の情報を更新(update)していくニューラルネットワークの手法である. $ h_{G C N}=\sigma\left(\sum_{j \in N_{i}} \hat{D}^{-\frac{1}{2}} \hat{A} \hat{D}^{-\frac{1}{2}} h_{j} W+b\right) $ ここで, $\sigma$ は $\operatorname{ReLU}$ 関数などの非線形活性化関数, $N_{i}$ はターゲット銘柄 $i$ の隣接ノード, $\hat{A}$ はグラフの隣接行列 $A+$ 単位行列 $I_{N}, \hat{D}$ は $\sum_{j} \hat{A}_{i i}, h$ は GCN の入力, $W$ は重み行列, $b$ はバイアスを示している. GAT (Graph Attention Network)[10] は隣接ノードの情報を集約(aggregate)する際にアテンションメカニズムを用いることにより,隣接ノードの重要性を考慮に入れるモデルである. GAT のアテンション係数は以下のように計算される。 $ a_{i j}=\frac{\exp \left(\operatorname{LeakyReLU}\left(a\left[W h_{i} \| W h_{j}\right]\right)\right)}{\sum_{k \in N_{i}} \exp \left(\operatorname{LeakyReLU}\left(a\left[W h_{i} \| W h_{k}\right]\right)\right)} $ ここで, $a$ は attention mechanism (ここでは一層の全結合層)であり,\|は連結演算(Concatenation operation) を示し, 活性化関数には negativeslope $=0.2$ の LeakyReLUを適応している. ## 3.3 残差接続 残差結合は GCN(または GAT)の出力に, BERT の出力をそのまま足しこむことで,BERTにより得られた銘柄独自の情報を「残す」役割をはたす. 残差結合は以下のように計算される. $ \begin{aligned} & h_{B E R T}=B E R T\left(x_{i}\right) \\ & h_{G C N}=G C N\left(h_{B E R T}\right) \\ & h_{\text {res }}=h_{B E R T}+h_{G C N} \end{aligned} $ ## 3.4 損失関数 本研究では TOPIX-17 と TOPIX-33 のラベルを予測するマルチタスク学習を行う。損失関数は TOPIX-17 と TOPIX-33 の損失の和で示される. $ \text { Loss }=\operatorname{Loss}^{\text {TOPIX-17 }}+\operatorname{Loss}^{\text {TOPIX-33 }} $ 図 1 提案手法の概要 TOPIX-17,TOPIX-33 の損失はそれぞれ以下のように計算される. $ \begin{aligned} & y_{i}^{T O P I X}=\text { Softmax }\left(W^{T O P I X} h_{i}+b^{\text {TOPIX }}\right) \\ & \operatorname{Loss}^{T O P I X}=\sum_{i \in \Omega} C E\left(d_{i}^{T O P I X}, y_{i}^{T O P I X}\right) \end{aligned} $ ここで $h_{i}$ は $\mathrm{GCN}$ の出力や残差接続された出力である. $\Omega$ は全銘柄を示し, $\mathrm{CE}$ は交差エントロピー損失関数を示す.ここでは TOPIX-17 と TOPIX-33 に関して同様の計算を行うため,合わせて TOPIX と記した。 ## 4 実験設定 本研究では TOPIX-17 と TOPIX-33 のラベルによる類似企業抽出を用いた. ベースラインモデル [5] との性能を比較する実験(第 1 実験)に加えて,有向グラフ,無向グラフそれぞれの性能の比較実験 (第 2 実験)を行った. ## 4.1 データセット 因果チェーン本研究では因果チェーンを用いて銘柄間のネットワークを作成する. 因果チェーン [11] は因果関係について記されたテキストデータを解析することで,人間が認知するような因果関係を抽出したデータである. [12] では因果チェーンがサプライチェーンや取引関係のような企業間の関係を表していることが示唆された. ここでは因果チェーンの構築手法を [11] に基づき概観する。因果チェーンは以下の 3 ステップにより構築される。 Step1 SVM を使用して日本の決算短信の要約から因果関係の表現を含む文を抽出. Step2 原因と結果を示す構文パターンを定義し, そこに Step1 で抽出した文における因果関係を抽出. Step3 抽出された因果関係について,その終端ノード (結果側) の表現と一定の類似性がある他の決算短信の起点ノード (原因側) とを連結し因果チェーンを構築する。 また,因果関係にあるそれぞれの決算短信の発行日と企業名をキーとして,因果の出現数を集計する. 本研究ではこの因果チェーンのデータを用いて企業間の有向グラフを作成する。ここで,因果の出現回数が 100 以下のエッジは偶然の弱い繋がりと考えてグラフから捨象している. テキストデータ本研究では決算短信,有価証券報告書やアニュアルレポートなど日本の金融レポー 卜を集めた CoARiJ ${ }^{2}$ データセットを用いた。再事前学習の際には 2014 年から 2018 年までのドキュメント全体を用い,学習時には 2018 年の各銘柄における「事業の概要」のテキストデータを各銘柄のノード特徴量として利用した. ## 4.2 学習 再事前学習 (further pretraining) CoARiJ 全体の 207332 個のテキストファイルに対して Masked language model と Next sentence prediction により 20 万ステップに渡り BERT の全ての層に対する再事前学 2) https://github.com/chakki-works/CoARiJ 表 1 第 1 実験の結果 表 2 第 2 実験の結果 習(further pretraining)を行った. 学習本研究では 3016 銘柄を対象に実験を行い,訓練データ,検証データ,テストデータを 2200 銘柄, 316 銘柄, 500 銘柄と分割した. 各銘柄のノード特徴量には「事業の概要」の 512 トークンを用いた。 ターゲット銘柄を中心としたサブグラフごとに学習を行うが,サブグラフ全体で勾配の逆伝播を行うとデータリーケージの問題が発生するので,ターゲット銘柄の勾配のみを逆伝播させる. BERT は最終層のみ学習し, エポック数は 30 , 学習率は 0.001 , 才プティマイザは Adamを用いた. ## 4.3 評価指標 本研究では TOPIX17,TOPIX33 のラベルを用いた類似度企業抽出を評価指標に設定した. [5,13] に基づき,Mean Average Precision at K (MAP@K)を用いて $\mathrm{K}=5,10,50$ でそれぞれ実験を行った. 評価の手順として,まずはそれぞれの銘柄に対するコサイン類似度が最も大きい $\mathrm{K}$ 個の銘柄を選定し,それらを TOPIX17, TOPIX33をもとにMAP@Kを用いて評価した. ## 5 結果 提案手法の性能を確かめるために,ベースラインである [5] の研究や提案手法内でのさまざまなモデルを組み合わせた実験を行い,提案手法が既存手法をアウトパフォームしていることを確認した (表 1). ここで BERT 単体は個別銘柄独自の特徴のみ学習 し,BERT $\rightarrow \mathrm{GCN}$ (GCNのみ学習)では銘柄間関係をメインに学習し,そして BERT+GCNでは個別銘柄独自の特徵と銘柄間関係を同時に学習している。結果から銘柄の埋め込みに対して個別銘柄独自の情報とクロスセクショナルな情報を同時に学習させることの有用性が示唆された. さらに,BERT+GCN よりも BERT+GCN+Residual connection で精度が高いという結果は,残差結合により個別銘柄独自の特徵を「残す」ことで精度が向上したと解釈できる。 表 2 は因果チェーンから有向グラフと無向グラフを作成し精度を比較した実験の結果である。 BERT+GCN においても BERT+GAT においても有向グラフによる学習の精度がより高いことから,企業間の関係性を表現するのに有向グラフを用いることの有用性を示すことができた. サプライチェーンや取引関係など実際の企業関係のおおくは方向性のある関係であるために,有向グラフを用いることで性能が向上したと考えられる. ## 6 終わりに 本研究では,BERT と GCNを組み合わせることで銘柄自身の情報と銘柄間のクロスセクショナルな関係を同時に織り込んだ新たな銘柄埋め込み手法を提案した. 実験結果により提案手法は [5] の性能を上回り最高精度を達成することを確認した. 加えて,因果チェーンを用いて有向グラフを作成することで,銘柄埋め込みに対する有向グラフの有用性を示した. ## 謝辞 本研究は大和証券グループの支援を受けたものである. 加えて,本研究は JSPS 科研費 JP21K12010 と JST 未来社会創造事業 JPMJMI20B1 の助成を受けたものである. ## 参考文献 [1] Yingmei Chen and Zhongyu Wei. Incorporating corporation relationship via graph convolutional neural networks for stock price prediction. pp. 1655-1658. Association for Computing Machinery, 2018. [2] Jiexia Ye, Juanjuan Zhao, Kejiang Ye, and Chengzhong $\mathrm{Xu}$. Multi-graph convolutional network for relationshipdriven stock movement prediction. pp. 6702-6709, 2021. [3] Qiong Wu, Christopher G Brinton, Zheng Zhang, Andrea Pizzoferrato, Zhenming Liu, and Mihai Cucuringu. Equity 2 vec: End-to-end deep learning framework for crosssectional asset pricing ; equity $2 \mathrm{vec}$ : End-to-end deep learning framework for cross-sectional asset pricing. 2021. [4] Jianliang Gao, Xiaoting Ying, Cong Xu, Jianxin Wang, Shichao Zhang, and Zhao Li. Graph-based stock recommendation by time-aware relational attention network. ACM Transactions on Knowledge Discovery from Data, Vol. 16, , 2021. [5] Tomoki Ito, Jose Camacho Collados, Hiroki Sakaji, and Steven Schockaert. Learning company embeddings from annual reports for fine-grained industry characterization. Proceedings of the Second Workshop o Financial Technology and Natural Language Processing, pp. 2733, 2020. [6] Vipul Satone, Dhruv Desai, and Dhagash Mehta. Fund2vec: Mutual funds similarity using graph learning. arXiv preprint arXiv:2106.12987, 62021. [7] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. pp. 4171-4186, 2019. [8] Yuta Niki, Hiroki Sakaji, Kiyoshi Izumi, and Hiroyasu Matsushima. 再事前学習した bert を用いた金融文書中の因果関係知識有無の判別. pp. 3Rin439-3Rin439, 2020. [9] Thomas N. Kipf and Max Welling. Semi-supervised classification with graph convolutional networks. 2017. [10] Petar Veličković, Guillem Cucurull, Arantxa Casanova, Adriana Romero, Pietro Liò, and Yoshua Bengio. Graph attention networks. 2018 [11] Izumi Kiyoshi and Sakaji Hiroki. Economic causal-chain search using text mining technology. pp. 23-35, 2019. [12] Kei Nakagawa, Shingo Sashida, Hiroki Sakaji, and Kiyoshi Izumi. 経済因果チェーンを用いたリードラグ効果の実証分析. 2019. [13] Kuifei Yu, Baoxian Zhang, Hengshu Zhu, Huanhuan Cao, and Jilei Tian. Towards personalized contextawarerecommendation by mining context logsthrough topic models. 2012
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A5-3.pdf
# 読影レポートの知識を埋め込んだ言語モデルを作成するための 事前学習手法 中野騰久 $^{1}$ 田川裕輝 $^{1}$ 尾崎良太 $^{1}$ 谷口友紀 $^{1}$ 大熊智子 $^{1}$ 鈴木裕紀 $^{2}$ 木戸尚治 ${ }^{2}$ 富山憲幸 ${ }^{2}$ 1 富士フイルム株式会社 2 大阪大学大学院医学系研究科 \{norihisa.nakano, yuki.tagawa, ryota.ozaki, tomoki.taniguchi, tomoko.ohkuma\}@fujifilm.com \{y-suzuki, kido, tomiyama\} @radiol.med.osaka-u.ac.jp ## 概要 様々な自然言語処理タスクにおいてニューラル言語モデルが優れた性能を実現している. 本論文では読影レポートというドメインに特化した言語モデルを作成するための手法を提案する。一般的なドメインのテキストではなく, 読影レポートテキストを用いて事前学習をゼロから行う. また事前学習時に行う Masked Language Model において, 入力内の固有表現と固有表現間の関係性に着目してマスク対象と入力範囲幅を決定することで, モデルにドメイン知識を埋め込む.上記手法によって作成した言語モデルを臟器分類, 固有表現抽出, 関係性判断の三つのタスクにおいて評価した結果を報告する. 後段タスクと同一のドメインコーパスで言語モデルを作成する有用性を示し, 提案手法によって臟器分類と関係性判断の二つのタスクで性能向上を確認した。 ## 1 はじめに 読影レポートとは放射線科医が CT や MRI などの医療画像から読み取った異常所見の有無や疾患の症状について記述したものである. 読影レポートには医師の知見が含まれており,これらを抽出することで様々な用途に利活用することが期待できる. そのためには読影レポートを構造化し, 再利用可能な形式に変換することが必要である. 我々はより高精度な情報抽出による構造化を図るため, 読影レポートに最適な言語モデルの構築を目指している. Bidirectional Encoder Representations from Transform- をべースとしたニューラル言語モデルが優れた性能を実現している. 特定ドメインのタスクにおいては, そのドメイン文書を用いて事前学習したモデルを使用することが望ましく, 医療分野においては Bio-BERT[3] や clinical-BERT[4] などが挙げられ, 日本語においては UTH-BERT[5] が発表されている. 本論文で取り扱う読影レポートにおいても, 臟器や疾患などドメイン固有の語句が多く存在する. 読影レポートを用いて事前学習をゼロから行うことで, 言語モデルはドメイン固有の語句を上手く表現できるようになり,読影レポートを取り扱うタスクにおいて性能向上に期待できる. BERT の事前学習では大力の一部をマスクし, 前後の文脈からマスクされた語句を予測する Masked Language Model(以後,MLM) と呼ばれるタスクを行う.しかし従来手法では入力からランダムにマスク対象を選択するため, 特に大規模なコーパスの入手が難しいドメイン領域の場合, そのドメイン固有の重要な語句の学習機会の損失が指摘される. また医師は部位や病変, 病変の性状から疾患を導出し, 読影レポートを記述する. MLM を行う際にこのような病変と部位や病変と疾患などの関係性に基づき,読影レポート固有の重要語句を中心にマスク対象とすることで言語モデルにドメイン知識を埋め込むことができると考える. 加えて読影レポートの所見文は臟器毎に記述されるため,MLM における入力範囲幅を藏器単位にまとめることで, マスク対象とする固有表現を予測するための文脈情報を確保する。 本論文では読影レポートというドメイン領域において, ドメインコーパスを用いてゼロから事前学習すること,また言語モデルにドメイン知識を埋め込むように事前学習を行うことで, より高性能な言語 モデルの作成を目標とし, 後段タスクである藏器分類, 固有表現抽出, 関係性判断の 3 つのタスクにおいて評価を行う。 ## 2 関連研究 Lin ら [6] は MLM 時に固有表現を中心にマスク処理を行う Entity-BERTを提案した. Entity-BERT は,PubMedBERT[7]をべースにさらに臨床テキストである MIMIC[8] を用いて継続的に学習させここの時入力に含まれる固有表現とそれ以外の語句から, それぞれ設定した割合でランダムにマスク対象を選択する. 彼らはその割合について複数の組み合わせを比較した結果, 固有表現のみではなく, それ以外の語句も同時にマスク対象とした方がモデルの性能が良くなると報告しており, 固有表現以外の語句は意味情報に加え, 構文情報を持つと説明した. またマスク対象とする割合を大きくしすぎると, 学習が困難になる可能性についても報告している。適切な割合で固有表現を中心にマスク処理を行うことで, ドメイン固有の重要な表現を学習する機会が増え, 三つの臨床テキストタスクにおいて従来手法によって作成された言語モデルよりも優れた性能を発揮することを示した。 ## 3 データ 大阪大学医学部附属病院から提供された約 11 年分の匿名化済み読影レポートを用いて言語モデルの作成と評価を行った. 言語モデルの作成には約 670 万文, 性能評価には言語モデル作成用コーパスに含まれない約 9 千文を使用した. 全ての読影レポートに対して予め, 文毎に藏器ラベルの付与, 固有表現の抽出と固有表現ラベルの付与, 抽出された固有表現間の関係性ラベルの付与を行った(図 1). 臓器ラベルは肺や心臟などの主要な臟器からなる全 31 種のラベルを, 固有表現ラベルは解剖区域,病名, 病変, 性状, 変化, 形状変化, 計測項目, 計測結果, 撮影条件からなる全 9 種のラベルを定義した. 膨 図 1 ラベル付与例 左: 臓器ラベルと固有表現ラベル右: 関係性ラベル表 1 コーパスにラベルを付与する際のモデル性能臓器分類固有表現抽出関係性判断 $\begin{array}{llll}\mathrm{dev} / \mathrm{t} \text { test } & 0.913 / 0.912 & 0.870 / 0.852 & 0.960 / 0.957\end{array}$ 大なデータに人手でラベルを付与するのは困難なため, 読影レポートの一行を一入力として作成した BERT モデルを用いて各タスクの推論を行い, 言語モデル作成用コーパスにラベルを付与した. 推論に用いたモデルの性能を表 1 に示す. ## 4 提案手法 先行研究である Lin ら [6] はドメイン固有の語句を中心にマスクすることの有用性を示したが,マスクする固有表現の選別や, モデルに入力するテキス卜量については言及していない. MLM において従来は一文もしくは二文を入力としており, 同一入力内の文脈情報のみではマスクされた語句を予測するには不十分である可能性が指摘される. そのような場合にドメイン領域にとって重要な固有表現の単語ベクトル構築に悪影響を及ぼすと考えられる。我々はマスク対象とする固有表現を予測する手がかりとして,マスク対象と関係のある固有表現が効果的であると考え,マスク対象を同一大力内に関係を持つ固有表現を有するものに限定する. また読影レポートの所見文は藏器毎にまとめて記述されるため,MLM における入力を藏器単位にまとめることでマスク対象とする固有表現を予測するための文脈情報を確保する. 提案手法におけるマスク対象の決定フローを図 2 に示す. マスクされた固有表現と関係を持つ固有表現を含む文脈情報を用いて, 言語モデルはマスク対象を予測することができる.これによって読影レポートにおける部位や病変, 病変の性状から疾患を導出する医師の診断プロセスに似た学習を行い,モデルにドメイン知識を埋め込む. ## 5 実験 ## 5.1 設定 言語モデルの事前学習には約 670 万文の読影レポートテキストを使用した. 語彙は,NEologd 辞書1) を組み込んだ MeCabで単語分割した後, 文字単位のサブワードに分割し 3852 の語彙を構築した. バッチサイズは 32 , 入力の最大長は 512 で 100 万ステップ  図 2 提案手法におけるマスク対象決定フロー 学習を回した. 本実験では以下に述べる四つのマスク対象の決定手法を比較する。 ・1, random)従来手法と同様に入力内の $15 \% を$ ランダムに選択する。 -2, Entity)Lin ら [6] と同様に入力内の固有表現 に選択する。 -3, Relation)入力内の固有表現の内, 同一入力内の固有表現間において関係を有する固有表現の 択する(図2)。 特殊トークンである [CLS],[SEP] はマスク対象から除外し, マスク対象となる候補を選択した後は従来手法と同様に,[MASK] トークンへの置換, 変更なし,ランダム他の語句への置換をそれぞれ $80 \%, 10 \%, 10 \%$ の比率で行う。モデルへの入力範囲幅は文単位と臟器単位の二つを比較する. 臟器単位の入力は, 臟器分類によって推論された臟器ラべルを基に, 同じラベルが付与された連続する読影レポートテキストをまとめることで作成した. また Liu ら [9] の報告に基づき, 本実験の事前学習では Next Sentence Prediction は行わなかった. ## 5.2 性能評価方法 作成した言語モデルの性能評価には, 臟器分類, 固有表現抽出, 関係性判断の三つの自然言語処理タスクにファインチューニングして行う. 言語モデル作成に使用しない 9 千文の読影レポートテキストに対して人手でアノテーションし, dev と test のデータセットを作成した. また日本語 BERT の比較対象として, 日本語 Wikipedia で学習された東北大学乾研究室の BERT モデル [10] と日本語臨床テキストで学習された UTH-BERT[5]を使用した. 臟器分類: 入力されたテキストがどの臟器もしくは部位に属するものかを判断する 31 クラスの多クラス分類タスクである. 読影レポートは対象となる一文のみでは部位や臟器を特定できないような文が存在するため, 判断対象となるテキスト $x_{i}$ とその前文である $x_{i-1}$ を同時にモデルに入力する. BERT モデルに分類層を追加したネットワークを用いて, 最終層の先頭である [CLS] トークンを特徴量として判断する。 固有表現抽出: 入力されたテキストから固有表現を抽出するタスクである. 固有表現に対して 9 種類のラベルを定義している. 読影レポート内において同一の臟器について記述されたテキストを同時にモデルに入力する. 手法は田川ら [11] の報告に基づき,BERT-CRF を採用した。 関係性判断: 固有表現抽出によって抽出された固有表現間に関係性があるか否かを判断するタスクである. BERT モデルに分類層を追加したネットワー クを用いて, 対象となる二つの固有表現とその間の文脈を特徴量として判断する。 ## 5.3 結果 表 2 に dev データセットと test データセットに対する実験結果を示す. 值は Micro-F1 值である。 ドメインコーパスを用いた言語モデルは既存モデルよりも高い性能を発揮することが確認できた. 事前学習で用いた読影レポート (670万文,0.3GB) は既存モデルのコーパスである日本語 wikipedia(3000 万文,4GB) や臨床テキスト (1 億 2000 万行) と比較して少量であったが, 後段タスクと同一ドメインで学習することの有用性が示された. 固有表現間の関係性に着目したマスクの決定手法によって, 臟器分類と関係性判断のタスクにおいて性能向上を確認したが, 固有表現抽出タスクにおいては効果が見られなかった. また入力を臟器単位にまとめることでほとんどの場合に性能向上が確認された. ## 6 分析 未知語の影響: 本実験の事前学習で使用したコー パスに含まれる固有表現は全部で約 16 万種類, 1800 表 2 実験結果 (dev/test) 1: 読影レポートの一文を一入力としたもの 2: 同一臟器について書かれた連続する文をまとめて一大力としたもの 万個であった. 読影レポートを用いて作成した言語モデルには, 本コーパスを用いて語彙を作成しているため未知語は現れない. しかし既存モデルで使用されるトークナイザーでは固有表現を入力した際に, 半数以上である約 8.5 万種類の固有表現に未知語である [UNK] トークンが出現する. 同じく評価用データには約 2400 種, 2 万個の固有表現が含まれており, 既存モデルにおいては約 670 個の固有表現に未知語が出現する. UTH-BERT の場合はトークナイズ時に万病辞書 ${ }^{2}$ を用いているが, 未知語の出現率に大きな差異は認められなかった. 同じ医療分野であっても臨床テキストと読影レポートでは現れる固有表現が大きく異なると考えられる。 入力範囲幅の影響: 入力範囲幅を臓器単位にまとめることで性能の向上が確認できた. 臟器単位の入力は全体の約 $36 \%$ \%゙一力力内に二文以上のテキストを保有する(二文: $17 \%$, 三文: 7 \%, 四文以上:12\%). 関連するテキスト群を受け取ることで,言語モデルが読影レポートの複数文に跨る構文情報を獲得できたことが示唆される。また本論文における評価タスクの入力が複数文に跨るものが多いため, 事前学習時と後段タスクの入力が近しいものとなっていることも原因として考えられる。 コーパス内のノイズの影響: 固有表現を中心にマスク対象とすることで, 二つの自然言語処理タスクについて性能向上に期待できるが, 固有表現抽出夕スクにおいてはその効果が見られない. これはコー パスへのラベルの付与を行ったモデルの固有表現抽出タスクの性能が他の二つのタスクの性能と比較して低く(表 1), 事前学習用コーパスに付与された固有表現に関する情報にノイズが多いことが一因として考えられる.よって精度の高い固有表現ラベルに絞ってマスク対象の候補とするなど,より高品質な情報を持つコーパスを用いることで改善が見込める. 本実験では全てのタスクにおいて,コーパスへのラベルの付与を行ったモデルよりも高い精度のモデルが作成できている. よって作成したモデルを用いてコーパスへラベルを付与し, 再度言語モデルを作成する,というサイクルを繰り返すことでより性能の高い言語モデルを作成することが可能と考える. ## 7 おわりに 本論文では, 読影レポートに適した言語モデルの作成手法を提案し, 臟器分類, 固有表現抽出, 関係性判断の三つのタスクにおいて性能を評価した. 結果から事前学習に用いるコーパスが後段タスクと同一のドメインであることの有用性を示した. また言語モデルの事前学習である MLM において, 臟器単位にまとめられたテキストを一大力とすることでモデルの性能が向上することを示し, さらにマスク対象を同一入力内に関係を持つ固有表現を有する固有表現に限定することで, 二つのタスクで性能向上が確認された. 今後の課題として, 精度の高い固有表現ラベルに絞ってマスク対象を決定するなど,コーパスにおけるノイズの影響を調査することや最適な入力範囲幅やマスク選択割合の探索などが挙げられる。 2) http://sociocom.jp/ data/2018-manbyo/index.html ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding, 2019. [2] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need, 2017. [3] Biobert: a pre-trained biomedical language representation model for biomedical text mining. 2019 [4] Kexin Huang, Jaan Altosaar, and Rajesh Ranganath. Clinicalbert: Modeling clinical notes and predicting hospital readmission, 2020. [5] Yoshimasa Kawazoe, Daisaku Shibata, Emiko Shinohara, Eiji Aramaki, and Kazuhiko Ohe. A clinical specific bert developed using a huge japanese clinical text corpus. 2021. [6] Chen Lin, Timothy Miller, Dmitriy Dligach, Steven Bethard, and Guergana Savova. EntityBERT: Entitycentric masking strategy for model pretraining for the clinical domain. 2021. [7] Yu Gu, Robert Tinn, Hao Cheng, Michael Lucas, Naoto Usuyama, Xiaodong Liu, Tristan Naumann, Jianfeng Gao, and Hoifung Poon. Domain-specific language model pretraining for biomedical natural language processing, 2020. [8] Shen L Lehman LW Feng M Ghassemi M Moody B Szolovits P Celi LA Mark RG Johnson AE, Pollard TJ. Mimic-iii, a freely accessible critical care database. [9] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach, 2019. [10] Masatoshi Suzuki and Kentaro Inui. Bertbase-mecabipadic-bpe-32k-whole-word-mask. https://github.com/cltohoku/bert-japanese. [11] 田川裕輝, 西埜徹, 谷口元樹, 谷口友紀, 大熊智子, 若宮翔子, 荒牧英治. 生成された読影所見の自動評価に向けた固有表現認識とモダリティ推定, 2020. 表 3 固有表現ラベルと詳細 ## Appendix ## データセットについて 本論文で利用した固有表現ラベルに関する説明を表 3 に示す. 病変, 変化, 性状に関しては実際にそれが生じているのか否かの事実性についても固有表現抽出のタスク時に推定するために,固有表現ラベルに事実性を表す Positive と Negative を結合したもの (例えば病変 $\mathrm{P}$ や変化 $\mathrm{N}$ など) をラベルとして用意した。また関係性を考慮する組み合わせは (解剖区域,病変), (性状, 病変), (病名, 病変), (変化, 病変), (計測結果, 病変), (解剖区域, 形状変化), (性状, 形状変化), (病名, 形状変化), (変化, 形状変化) の 9 パターンである.計測項目と撮影条件は関係性を持たないため, 提案手法においてはマスク対象の候補から除外される。 またコーパス内の固有表現ラベルの分布を図 3 に示す. 部位を表す解剖区域, 読影のターゲットとなる病変, 病変を説明する性状の順に多い. 本論文の提案手法では, マスク対象の候補を抽出した後は固有表現ラベルの種類に関わらずランダムにマスク箇所を決定するため, 重要であるが出現頻度の少ない病名に関する学習が不足している可能性がある. - 病名- 変化計測項目 - 形状変化 - 病変鼔影条件 - 解剖区域 - 性状計測結果 図 3 コーパス内の固有表現ラベル分布
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/