filename
stringlengths
1
10
text
stringlengths
33
111k
category
stringclasses
9 values
license
stringclasses
1 value
credit
stringclasses
5 values
P1-1.pdf
# 文分類問題における精度と解釈性向上のための近傍事例の活用 村岡 雅康 ${ }^{1}$ 趙陽 ${ }^{2}$ 日本アイ・ビー・エム株式会社 東京基礎研究所 ${ }^{1}$ mmuraoka@jp.ibm.com ${ }^{2}$ yangzhao@ibm.com ## 概要 プロンプトを用いた zero/few-shot 評価は,ファインチューニングを行うことなく大規模言語モデルの下流タスクにおける性能評価を可能にする一方で,性能面に改善の余地がある. 本稿では,大規模言語モデルからの特徴量を用いて $\mathrm{k}$ 近傍法を行うことで,zero/few-shot 評価の枠組みにおいて性能向上を達成する手法を提案する。また, $\mathrm{k}$ 近傍事例を参照することで,モデルの予測結果に対する解釈性の向上も期待される. 評価実験により,極性分類,卜ピック分類,含意関係認識を含む文分類問題(6つのデータセット)において,近傍事例を活用することで提案手法の性能が大幅に向上することを示す. ## 1 はじめに BERT [1] や GPT-2 [2], T5 [3] のように大量のテキストデータで事前学習された大規模言語モデルが,様々な下流タスクに適用され成功を収めている.これらの言語モデルの性能評価を様々なタスクおよびドメインで行うことは実応用において重要である. 評価方法の一つに下流タスクでファインチュー ニングを行わない zero-shot/few-shot 評価がある [4]. これらは,下流タスクを言語モデルタスクに変換して評価を行う方法である。この評価方法は,ファインチューニングの学習アルゴリズムや,そのハイパーパラメタ, モデルパラメタの更新などファインチューニング由来の要因を排除して言語モデルの性能評価を行うことができるという特長がある. 一方で,これらの評価方法において,使用するプロンプトに評価結果が大きく左右されたり $[5,6]$,言語モデルの予測にバイアスが乗るといった問題が報告されている [7]. Zhao らはこれらの問題の調査・分析を行い,バイアスを除去することで,複数の下流タスクにおいて言語モデルの性能向上を達成した [7]. しかしながら, 性能面においてはまだ改善の余地が残されており,また,予測結果からモデ 図 1: 提案手法の概要図 ルの予測理由を推察することが困難である. そこで本稿では,評価対象である大規模言語モデルから抽出した特徴量を用いて $\mathrm{k}$ 近傍法 $[8,9]$ を行うことで,下流タスクでの更なる性能向上を目指す. 具体的には,図 1 に示すように,バイアス除去を行う既存手法の予測確率と,近傍事例からの予測確率を線形補完することで最終的な予測結果を得る。また,本手法は近傍事例を参照することで,モデルが入力文をどう解釈したかを推測することができるという点で,解釈性の向上にも寄与する. 本手法を多様なドメインのテキスト,および,極性分類 [10],トピック分類 [11,12],含意関係認識 $[13,14]$ を含む複数の文分類問題に適用し評価実験を行ったところ,近傍事例を活用することで性能が大幅に向上すること確認した.また,定性分析により,たとえ提案手法が予測を誤った場合でも,近傍事例からその理由を推測できることもわかった。 ## 2 関連研究 プロンプトを用いた評価は,プロンプトと呼ばれるタスクを解くための指示テキストを用いて,下流タスクを言語モデルタスクに変換し評価を行う方法である.特に,下流タスクで一切ファインチュー ニングを行わない方法を Tuning-free と呼ぶ [15]. 本研究における提案手法も Tuning-free な評価方法である.この評価方法では, zero-shot 評価と in-context few-shot 評価が可能である. zero-shot 評価は,言語モデルに下流タスクの評価セットの事例のみを提示し答えさせる方法である. in-context few-shot 評価は,評価事例の前にコンテキストとして訓練セットから抽出した一つ以上の事例を正解付きで追加した状態でモデルに提示し,予測させる方法である. Tuning-free の評価方法において,前節で述べた Zhao らの研究 [7] のほかにいくつか関連研究が存在する. Holtzman ら [16] は評価タスクのドメイン情報を自己相互情報量 (PMI) によって割り引いた予測確率を求める手法を提案している. Kassner と Schütze [17] は情報検索器を言語モデルに付け加えてk 近傍法を行う手法を提案している.この手法は新たなモデルパラメタを増やすが,我々の手法は評価対象の言語モデルを特徴量抽出器としてそのまま $\mathrm{k}$ 近傍法に使用するため,新たなモデルパラメタを増やさずに済む. Shi ら [18] は言語モデルに k 近傍言語モデル [9]を使用し, zero-shot 評価での性能向上を達成した. 本稿では,Zhao らの手法で得られるバイアスが除去された予測確率と, $\mathrm{k}$ 近傍言語モデルで使用されているスコア関数を用いて得られる $\mathrm{k}$ 近傍予測確率を組み合わせて更なる性能向上を目指す. 特に,Kassner と Schütze や Shi らは下流タスクの訓練セットに含まれる正解ラベル情報を使わなかったが,本研究では明示的にこれを使用する. そのほかのプロンプトを用いた評価の関連研究については,文献[15] のサーベイ論文を参照されたい。 ## 3 問題設定 本研究では,文分類問題における大規模言語モデルのプロンプトを用いた zero/few-shot 評価を行う. 大規模言語モデルは事前学習済みのものを使用し,評価中にはモデルパラメタの更新,すなわち, ファインチューニングは行わない. few-shot 評価においては, in-context few-shot のように予測の際に言語モデルに少量の訓練事例を提示するのではなく, $\mathrm{k}$ 近傍法によって取得される少量の訓練事例を予測の計算に使用する.我々はこれを「example-based few-shot 評価」と呼ぶ. 極性分類問題を例として,基本的なプロンプトを用いた zero/few-shot 評価について説明する. ${ }^{1)}$ 文分類問題は, 入力文 $x$ が与えられた時に, 出力ラベル $y \in y$ を予測する多クラス問題である. $y$ はラベル集合であり,事前に定義されているものとする.例えば,映画のレビュー文に対する極性分類問題 [10] では, $y=\{$ ポジティブ,ネガティブ $\}$ などとなる. データセット $\mathscr{T}$ は, 入力文と正解の出力ラベルのペア $\left(x, y^{*}\right)$ の集合からなり,評価セット $\mathscr{T}_{\text {test }}$ と訓練セット $\mathscr{T}_{\text {train }}$ に分かれているものとする. ${ }^{2)}$ この問題を解くためには言語モデルを用いて出力ラベルに関する条件付き確率分布 $p(y \mid x)$ を求める必要があるが,モデルのファインチューニングは行わないため,このままでは上記の条件付き確率分布を直接モデル化することができない,そこで,これを穴埋め形式の言語モデルタスクとして定式化する. 事前学習済み大規模言語モデル $M$ は, 大力文中の [MASK]トークンの位置に相応しい単語を予測する: $ p\left(w_{l} \mid \boldsymbol{w}_{\backslash l} ; M\right) $ ただし, $\boldsymbol{w}_{\backslash l}$ は,入力文 $x=w_{1} \ldots w_{L}$ のうち位置 $l$ $(1 \leq l \leq L)$ の単語 $w_{l}$ が [MASK] トークンに置き換えられた文である.ここで,極性分類問題を解かせるために,プロンプト $f_{\text {prompt }}$ を用いて言語モデルに解き方をテキストで指示する: $ f_{\text {prompt }}(x, L)=\underline{\text { Review: }}[x] \text { Sentiment: }[\text { MASK] } $ $[x]$ には任意の入力文が挿入される.プロンプト適用済み入力文を $x_{\backslash L}^{\prime}=f_{\text {prompt }}(x, L)$ と表し,言語モデルに入力することで,[MASK]トークンの位置に入る単語の予測確率分布 $p\left(w_{L} \mid x_{\backslash L}^{\prime} ; M\right)$ を得る.これは言語モデルが扱う全ての語彙 $\mathscr{V}$ 上確率分布であることに注意されたい. ここから極性分類の出力ラベル集合yの各要素に対応する確率値のみ抽出し,合計が 1 になるように正規化すれば,所望の確率分布 $p(y \mid x ; M)$ が得られる. $\left.{ }^{3}\right)$ ## 4 提案手法 提案手法は,前節のプロンプトを用いた zero/fewshot 評価方法に 2 点改良を加えたものである. $ を満たさなければならない. 満たしていない場合は,適宜ラベル集合 $y$ を再定義する必要がある. } (1) 言語モデルの予測バイアスの除去 $[7]^{4)}$ (2) 言語モデルの特徴量を用いた $\mathrm{k}$ 近傍法 $[8,9]$ 図 1 に概要を示した通り,提案手法の予測する出カラベルの確率分布は上記 2 つの仕組みからそれぞれ得られる確率分布の線形和である。 $ \hat{p}(y \mid x ; M, \mathscr{D})=\lambda \hat{p}_{\text {debias }}+(1-\lambda) \hat{p}_{\mathrm{kNN}} $ Dは $\mathrm{k}$ 近傍法で使用するデータストアであり, $\lambda \in[0,1]$ は線形補完係数である. バイアス除去 [7] は言語モデルの予測に乗ったバイアスを,解きたい文分類問題に関係のない文字列を使って除去する方法である。“N/A” や空文字列などそれ単体では意味を持たないような文字列を,極性分類問題の入力文だと仮定し,言語モデルに解かせた場合を考える。 それらの文字列に極性はないと考えるのが自然なので,ポジティブ,ネガティブともに $50 \%$ と予測されるべきだが,実際はポジティブ $=63 \%$ , ネガティブ $=37 \%$ のようにバイアスが乗った予測になることが報告されている [7]. これらのバイアスをなくすように確率分布を補正するには,上記のような文分類問題に関係のない文字列を使って得られた確率値の逆数を補正項として乗ずることで実現できる. 本研究では Zhao らの研究 [7] で用いられた, $\mathscr{C}=\{$ “N/A", “”, “[MASK]” $\}$ の 3 種類を使用する.補正項 $\hat{p}_{\mathrm{cf}}$ は以下で求められる ${ }^{5}$ : $ \hat{p}_{\mathrm{cf}}=\frac{1}{\mathscr{C}} \Sigma_{c \in \mathscr{C}} \hat{p}\left(y \mid c_{\backslash L}^{\prime} ; M\right) . $ ただし, $c_{{ }_{L}^{\prime}}^{\prime}=f_{\text {prompt }}(c, L)$ である. バイアス除去を用いた出力ラベルの確率分布は次のようになる: $ \begin{aligned} \hat{p}_{\text {debias }} & =W_{\text {debias }} \hat{p}\left(y \mid x_{\backslash L}^{\prime} ; M\right), \\ W_{\text {debias }} & =\operatorname{diag}\left(\hat{p}_{\mathrm{cf}}\right)^{-1} . \end{aligned} $ $\operatorname{diag}\left(\hat{p}_{\mathrm{cf}}\right)$ は $\hat{p}_{\mathrm{cf}}$ から対角行列を作成する関数である. $\mathrm{k}$ 近傍法は,評価セットの入力文 $x$ を言語モデルでエンコードした特徴量 $\boldsymbol{h}_{\text {test }}$ をクエリとして, データストアに対して $\mathrm{k}$ 近傍探索を行い,得られた近傍事例を大力文 $x$ に類似した事例とみなし,それらの正解ラベル $y_{\text {train }}^{*}$ を予測に使用する方法である. 近傍事例から予測を求める方法は複数存在するが $[19,20]$, 本研究では, 近年提案された $\mathrm{k}$ 近傍言語モデル [9] で用いられている方法を採用する. {|c|c|c|c|c|} とも可能である。 5) cf は context-free の頭文字である. } 表 1: 文分類問題のデータセット 事前に訓練セット $\mathscr{T}_{\text {train }}$ から $\mathrm{k}$ 近傍法のためのデータストアDを構築しておく。 $ \mathscr{D}=\left.\{\left(\boldsymbol{h}_{i, L}, x_{i}, y_{i}\right) \mid\left(x_{i}, y_{i}\right) \in \mathscr{T}_{\text {train }}\right.\} $ $\boldsymbol{h}_{i, L} \in \mathbb{R}^{d}$ は言語モデル $M$ で入力文 $x_{i, \backslash L}^{\prime}$ をエンコー ドした時の位置 $L$ の最終隠れ層の特徵量べクトル6) である. 同様に評価セット内の入力文 $x_{\backslash L}^{\prime}$ に対しても言語モデルから特徴量 $\boldsymbol{h}_{\text {test }}$ を得る.続いて k 近傍探索によってデータストアDから特徴量 $\boldsymbol{h}_{\text {test }}$ に最も近い $\mathrm{k}$ 個の近傍事例 (の集合) $\mathcal{N}$ を得る。 $ \mathcal{N}=\operatorname{argmin}-\mathrm{k}_{\left(\boldsymbol{h}_{i}, x_{i}, y_{i}\right) \in \mathscr{D}} d\left(\boldsymbol{h}_{\text {test }}, \boldsymbol{h}_{i}\right) $ $d(\cdot, \cdot)$ は距離関数であり, $\mathrm{k}$ 近傍言語モデル [9] に倣い,L2 距離を使用する。 argmin-k は上位 $\mathrm{k}$ 個の事例を返すように拡張された argmin 関数である。最終的な $\mathrm{k}$ 近傍事例を用いた確率分布を次式で求める: $ \hat{p}_{\mathrm{kNN}} \propto \frac{1}{|\mathcal{N}|} \Sigma_{\left(\boldsymbol{h}_{i},-, y_{i}\right) \in \mathcal{N}} \mathbb{1}_{\mathcal{y}}\left(y_{i}\right) \exp \left(-d\left(\boldsymbol{h}_{i}, \boldsymbol{h}_{\text {test }}\right) / T\right) $ $\mathbb{1}_{y}\left(y_{i}\right)$ は $y_{i}$ の次元のみ 1 , それ以外は 0 の one-hot ベクトル(次元数:|y|)を返す関数であり, $\exp (\cdot)$ の項は $\mathrm{k}$ 近傍言語モデル [9] で使用されている距離関数に基づく確率分布である( $T$ は温度パラメータで実験では $T=1000$ を使用7) ) 実際の $\hat{p}_{\mathrm{kNN}}$ は和が 1 になるように正規化を行い使用する。 ## 5 実験 文分類問題でよく使われる 6 つのデータセットを用いて評価実験を行う.表 1 に概要を示す. 詳細は付録 A に記載した。事前学習済み大規模言語モデルとして RoBERTa [21] を使用した. ${ }^{8)}$ バイアス除去を用いない手法 (No debias) [4],バイアス除去手法 [7] (Debias),および, $\mathrm{k}$ 近傍法のみを用いる手法 (kNN only) を比較手法とした. ${ }^{9}$ 前者 2 手法は訓練セットから無作為に抽出された $k$ 個の事例を用いて 6)特に断りがない場合, $d=768$ とし, $\boldsymbol{h}_{i, L}$ を $\boldsymbol{h}_{i}$ と略記する. 7)予備実験より,異なる值でもほとんど同じ結果が得られた. 8) https://huggingface.co/roberta-base [22]. 9)色は図 1 および式 (3) 内の色と対応し,No Debias は $W_{\text {debias }}$ がない式 (5) に対応する. 表 2: 文分類問題の実験結果 (精度). 太字は列内での,下線はデータセット内でのそれぞれ最大精度を表し,下付き数字は標準偏差 (土記号あり) または $\lambda$ の値 (土記号なし)を表す. (a) SST-2 (d) TREC (b) DBPedia (e) QNLI (c) AGNews (f) MNLI in-context few-shot 評価を行う。一方,提案手法 (*+ kNN) および kNN only は, kNN によって抽出された $k$ 個の訓練事例を用いて example-base few-shot 評価を行う. $k \in\{1,4,8\}$ を使用し,式 (3) における補完係数 $\lambda$ は訓練セットを用いて調整した. ${ }^{10)}$ 結果を表 2 に示す. ${ }^{11)}$ QNLI,MNLI 以外のデータセットにおいて,バイアス除去の有無に関わらず, $\mathrm{k}$ 近傍法を組み合わせることで $(+\mathrm{kNN})$, 組み合わせない手法に比べ,精度が大幅に向上することを確認した. QNLI, MNLIにおいては, kNN onlyが最も良かった。これらの結果から,ファインチューニングを行わなくとも言語モデルは下流タスクを解くために有用な情報を, $\mathrm{k}$ 近傍法において効果的にそれが発揮される形で特徴量に埋め込むことができていると言える. ${ }^{12)}$ また,全てのデータセットにおいて,近傍事例数 $k$ をきくするほど,精度が向上した。 ただし,各データセットで最大精度を達成する $\mathrm{k}$ 近傍法と相性の良い手法の組み合わせはデータセットに依存することがわかる.このことから,任意のデータセットに対して頑健な $\mathrm{k}$ 近傍法と既存手法との組み合わせは本実験で用いた中にはないと言える.この頑健性の調査は今後の課題とする. 続いて,SST-2(極性分類問題)の訓練セットを用いて,提案手法の予測結果の解釈性に関する定性分析を行った. 表 3 に提案手法 (Debias + kNN) を含む 3 手法の予測結果と提案手法で予測に使われた  表 3: SST-2 における 3 手法の予測結果 & & \\ 近傍事例を示す. 3 手法全てが誤った予測をしているが,比較手法は予測結果しかなく,誤った予測になった原因を推測することが難しい。一方,提案手法はその原因を近傍事例から推測できる.表 3 の事例の場合,入力文に対する正解ラベルはネガティブであるにも関わらず,言語モデルからの特徴量を用いて得られた近傍事例が全てポジティブな文になっていることから,言語モデルは入力文をポジティブな文と解釈していることがわかる. ${ }^{13)}$ このようにして,提案手法は,評価対象である言語モデルの特徴量を用いた $\mathrm{k}$ 近傍法の近傍事例により,言語モデルが入力文をどのように解釈しているかを推測する手がかりを提示できると考える。 ## 6 おわりに 本稿では,プロンプトを用いた zero/few-shot 評価において, $\mathrm{k}$ 近傍法を使用することで精度と解釈性を向上する手法を提案した.実験結果から,複数の文分類問題において有効性を確認した,今後は,他のタスクでの有効性・頑健性を確認したい. 13) 正解ラベルがネガティブなのは,入力文が疑問文であることより,映画のクオリティにネガティブな印象を持つレビュー文だからである. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, 2019. [2] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. 2019. [3] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020. [4] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In H. Larochelle, M. Ranzato, R. Hadsell, M.F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901, 2020. [5] Boxi Cao, Hongyu Lin, Xianpei Han, Fangchao Liu, and Le Sun. Can prompt probe pretrained language models? understanding the invisible risks from a causal view. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 5796-5808, 2022. [6] Yanai Elazar, Nora Kassner, Shauli Ravfogel, Abhilasha Ravichander, Eduard Hovy, Hinrich Schütze, and Yoav Goldberg. Measuring and Improving Consistency in Pretrained Language Models. Transactions of the Association for Computational Linguistics, Vol. 9, pp. 1012-1031, 122021. [7] Zihao Zhao, Eric Wallace, Shi Feng, Dan Klein, and Sameer Singh. Calibrate before use: Improving few-shot performance of language models. In International Conference on Machine Learning, pp. 12697-12706, 2021. [8] Pádraig Cunningham and Sarah Jane Delany. K-nearest neighbour classifiers - a tutorial. ACM Computing Surveys, Vol. 54, No. 6 , 2021. [9] Urvashi Khandelwal, Omer Levy, Dan Jurafsky, Luke Zettlemoyer, and Mike Lewis. Generalization through memorization: Nearest neighbor language models. In International Conference on Learning Representations, 2020. [10] Richard Socher, Alex Perelygin, Jean Wu, Jason Chuang, Christopher D. Manning, Andrew Ng, and Christopher Potts. Recursive deep models for semantic compositionality over a sentiment treebank. In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, pp. 1631-1642, 2013. [11] Xiang Zhang, Junbo Zhao, and Yann LeCun. Character-level convolutional networks for text classification. In C. Cortes, N. Lawrence, D. Lee, M. Sugiyama, and R. Garnett, editors, $A d$ vances in Neural Information Processing Systems, Vol. 28, 2015. [12] Ellen M. Voorhees and Dawn M. Tice. Building a question answering test collection. In Proceedings of the 23rd Annual International ACM SIGIR Conference on Research and Development in Information Retrieval, SIGIR '00, p. 200-207, 2000. [13] Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, and Percy Liang. SQuAD: 100,000+ questions for machine comprehension of text. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2383-2392, 2016. [14] Adina Williams, Nikita Nangia, and Samuel Bowman. A broad- coverage challenge corpus for sentence understanding through inference. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 1112-1122, 2018. [15] Pengfei Liu, Weizhe Yuan, Jinlan Fu, Zhengbao Jiang, Hiroaki Hayashi, and Graham Neubig. Pre-train, prompt, and predict: A systematic survey of prompting methods in natural language processing. ACM Computing Surveys, 2022. Just Accepted. [16] Ari Holtzman, Peter West, Vered Shwartz, Yejin Choi, and Luke Zettlemoyer. Surface form competition: Why the highest probability answer isn' $\mathrm{t}$ always right. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 7038-7051, 2021. [17] Nora Kassner and Hinrich Schütze. BERT-kNN: Adding a kNN search component to pretrained language models for better QA. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 3424-3430, 2020. [18] Weijia Shi, Julian Michael, Suchin Gururangan, and Luke Zettlemoyer. Nearest neighbor zero-shot inference. arXiv preprint arXiv:2205.13792, 2022. [19] Jianguo Zhang, Kazuma Hashimoto, Wenhao Liu, Chien-Sheng Wu, Yao Wan, Philip Yu, Richard Socher, and Caiming Xiong. Discriminative nearest neighbor few-shot intent detection by transferring natural language inference. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 5064-5082, 2020. [20] Yan Wang, Wei-Lun Chao, Kilian Q Weinberger, and Laurens van der Maaten. Simpleshot: Revisiting nearest-neighbor classification for few-shot learning. arXiv preprint arXiv:1911.04623, 2019. [21] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019. [22] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, et al. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 conference on empirical methods in natural language processing: system demonstrations, pp. 38-45, 2020. [23] Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel R Bowman. Glue: A multi-task benchmark and analysis platform for natural language understanding. In 7 th International Conference on Learning Representations, ICLR 2019, 2019. [24] Jens Lehmann, Robert Isele, Max Jakob, Anja Jentzsch, Dimitris Kontokostas, Pablo N Mendes, Sebastian Hellmann, Mohamed Morsey, Patrick Van Kleef, Sören Auer, et al. Dbpedia-a largescale, multilingual knowledge base extracted from wikipedia. $\mathrm{Se}$ mantic web, Vol. 6, No. 2, pp. 167-195, 2015. ## A評価タスクおよびデータセット ここでは,評価実験に使用したタスクおよびデー タセットについて補足する。 SST-2 [10] は,極性分類問題のデータセットである.実際の映画レビューサイト rottentomatoes.comに書き込まれたレビュー文を使用している。各事例は,1レビュー文を入力文とし,クラウドソーシングのアノテーションによって付与された極性ラベルを出力ラベルとしている. 元のデータセットでは,極性ラベルの取りうる值は 5 值だが,それらを 2 值に変換して使うこともある [23]. DBPedia [11] は,トピック分類問題のデータセットである. DBPedia [24] は Wikipedia から構造化されたデータを抽出するプロジェクトであり,作成されたデータセットはデータベースおよびオントロジー の形式をとる. Zhang ら [11] は,テキスト分類問題用に,このデータセットから 14 のクラスに属するエントリのタイトルと概要文を無作為に抽出し, 新たなデータセットを作成した。各事例は,概要文を入力文とし,オントロジー上でのクラスを出力ラベルとする. ${ }^{14)}$ AGNews [11] も,トピック分類問題のデータセットである. Gulli によって作成されたニュースコーパス15)を元にしており,Zhang ら [11]は,このコーパスの中で記事数が最も大きい 4 つのクラスに属する記事を無作為に抽出し, トピック分類用のデータセットとした。 各事例は,ニュース記事本文とその記事が属するトピックのペアからなる. 16) TREC [12] は,質問文に関する分類問題である.異なる複数のニュースサイトから集められた大量の文書に対する質問文があり,人手で適切な質問文のみ選ばれている.また,各質問文には何に関する質問かを示すカテゴリが付与されている (全 6 種類). TREC データセットの各事例は,質問文を入力文とし,カテゴリを出力ラベルとする. ${ }^{17)}$ QNLI [13] は,質問応答 (QA) に関する含意関係認識問題である. SQuAD [13] と呼ばれる質問応答デー  タセットから Wang らが文分類問題に変換した [23].具体的には,Wikipedia から収集したパラグラフ中から,質問文の答えを探すタスクだったものを,質問文の答えがパラグラフ中に含まれているかを 2 値で答える問題に変換した。したがって,各事例は, パラグラフと質問のペアが入力,回答がパラグラフ中に含まれているかどうかの 2 值が出力となる. プロンプトによってパラグラフと質問文が結合され, 1 文としてモデルに与えられる. MNLI [14] は,含意関係認識問題である. 話し言葉や書き言葉を含む 10 個の異なるドメインから収集したテキストペアに対して,一方が他方を含意しているかをクラウドソーシングによってアノテーションしている。また,ドメイン外の性能評価を行うため,5つのドメインに関しては,訓練セットに全く含まれていない,本研究では,訓練セットに含まれている 5 つのドメインから各 30,000 事例のみ無作為に抽出し,データストアを構築した。また,評価は訓練セットに含まれているドメインの評価セッ卜 (MNLI-matched)を使用した. 各事例のデータ形式は,QNLI と同じである. ${ }^{18)}$ 18) 10 個のドメインは次の通り。訓練セットと同一ドメイン: Fiction, Government, Slate (Magazine), Telephone, Travel. 訓練セットのドメイン外:9/11,Face-to-face,Letters,OUP (Oxford University Press), Verbatim.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P1-2.pdf
# RoBERTa を用いた経済不確実性のテキスト分類 桑名祥平 佐々木稔 茨城大学 工学部 情報工学科 19t4026r@vc.ibaraki.ac.jp minoru.sasaki.01@vc.ibaraki.ac.jp ## 概要 近年,新聞記事や SNS などに含まれる政治や経済に関連するテキストを対象として様々な分析を行う研究が盛んにおこなわれている。本論文では経済分野の中で、経済指標について焦点を当てた。GDP や消費者物価指数といった社会経済を表す指標が多数存在するなかで、テキストデータを用いた指標も注目され始めている。その中で、”経済政策不確実性指数” と呼ばれる現状の社会経済が持つ不確実な要因を数値化した指標に着目し、入力したテキストデー 夕に対して機械学習手法を用いて不確実性を持つかどうかを分類する手法を提案する。提案手法は RoBERTa を用いて二値分類問題を解くもので、不確実性を持つテキストと持たないテキストにラベル付けされた訓練データで分類モデルを学習し、得られた分類モデルにテキストを入力して不確実性を持つかどうか分類する。ラベル間のテキストの類似度も考慮したデータセットを用いることで、モデル性能の向上を確認した。 ## 1 はじめに 近年, デバイスの小型化や大容量化、通信の高速化などにより、あらゆる分野においてデータを活用する動きが活発である。従来は人手で行われていた活動もデータを用いた自動処理に置き換わることも多くある。中でも近年着目されている技術が、経済分野を対象としたテキストデータの分析である。日本には国内総生産や景気動向指数、企業物価指数などの経済指標があり、これらの指標は莫大な時間とコストをかけて算出されている。そのような指標の中で、大量の新聞記事のテキストデータを用いた経済指標のひとつとして” 経済政策不確実性指数” というものが存在する。この指数の算出に用いられるテキストデータは、経済に関する新聞の中でも、不確実性に言及している記事のみであり、人手で抽出するには専門的な知識と経験が必要である。そこ で、本稿では、経済政策不確実性の算出に用いられる新聞記事を抽出するために、入力された記事に対して不確実性についての記述があるかどうかを自動的に判別する手法を提案する。具体的には、経済に関する新聞記事のテキストデータの中で、不確実性に言及されているか否かをラベルで表現し、RoBERTa を用いて二值分類問題として分類モデルを学習し、入力テキストに対してこの分類モデルを用いて不確実性の言及があるかどうかを分類する。実験では、 データセットの各文章をベクトル化し、ラベル間の類似度によって評価データに対する判別の正解率がどのように変化するのか、また適切なデータセットはどのようなものなのかを調査した。ラベル間の類似度に関する説明は 3 章 2 節を参照されたい。 ## 2 関連研究 - 関連手法 テキストデータから経済指標を算出する研究は盛んにおこなわれている。景気ウォッチャー調査と呼ばれる日本各地でとられた経済に関する 5 段階の評価と選択理由を学習データ、テストデータに日経新聞を用いたセンチメント分析による指標を構築した研究[1]や、日本銀行が発行するテキストに対してトピックモデルやニューラルネットワークを用いて指標を構築した研究[2]、さらに本稿でも扱う、新聞記事に含まれる不確実性について指数化した経済政策不確実性指数 [3]などさまざまである。 本稿の先行研究[4]では、経済政策不確実性指数の算出に用いられる不確実性を含むテキストの抽出を行っている。具体的には、経済に関する新聞記事のデータセットを用意し、不確実性に言及があるものはラベル 1、それ以外を 0 として、SVM や Bidirectional RNN、BERT, DistilBERT, RoBERTa など複数のモデルで学習し、比較を行っている。 $\mathrm{F}$ 值が最も高かったモデルは RoBERTa であったため、本稿でもこのモデルを採用している。 ## 3 提案手法 実性に言及されている文章を抽出する方法を紹介する。 3 節では, 新聞記事のテキストデータから、不確 図 1 : 提案手法の概略 ## 3. 1 概要 図 1 に提案手法の概略図を示す。前段階として、経済に関する英字の新聞記事のデータセットを作成している。そして前処理を行い、データセットのうち $80 \%$ 学習データ、20\%をテストデータと検証デ一タとしている。機械学習では、BERT の派生である RoBERTa を採用し、ファインチューニングを行っている。 ## 3.2 データの前処理方法 自然言語処理や画像処理の分野では、ノイズや欠損、エラー值などが存在するため、前処理を行うことが一般的である。今回の処理の中でも前処理を行っている。具体的には、経済に関する新聞記事のデ ータセットを用意し、大文字小文字の処理や省略文字、不必要な記号の削除等を行っている。次に新聞記事に含まれる不確実性のラベリングである。テキストの中にキーワードとして "uncertain”, “uncertainty”、または同様の意味である”unclear”, “unpredictable"などの単語が含まれている場合にはラベルを 1 ,それ以外のテキストには 0 をラベル付けしている。テストデータ、検証データに関して、 ラベルが 1 のテキストに含まれる上記の単語群は省く処理をしている。 上述のように前処理としてラベリングを行ったが、経済政策不確実性に言及があるテキストは、記事全体のうちおよそ $5 \%$ ほどであった。学習の際にはラベル間の比率は $1: 1$ で行うため、学習に使用しないラベル 0 のデータが大量に余る。そこで、Google News データセットの学習済み単語ベクトル用いて各文章に対して 300 次元のベクトル化を行った。 1 文の単語の集合を $S=\left.\{w_{1}, w_{2}, \ldots w_{n}\right.\}$ とすると、 1 文章のベクトル $V$ 和は以下の式で表せる。 $ V=\sum_{w_{i} \in S} v_{w_{i}} $ ここで 1 文のベクトル $V$ は 300 次元のベクトルである。 $V=\left.\{x_{1}, x_{2}, \ldots x_{n}\right.\}$ とし、(1)の式を正規化すると以下の式で表せる。 $ \begin{gathered} V s=\frac{V}{|V|} \\ |V|=\sqrt{\sum_{k=1}^{300} x_{k}^{2}} \end{gathered} $ ラベル 1 のテキストのベクトルの代表值を作り、各ラベル0のベクトルとコサイン類似度を取る。ラベル 1 のテキストのベクトルの集合を $V=$ $\left.\{v_{11}, v_{12}, \ldots v_{1 n}\right.\}$ とする、ラベル 1 のベクトルの総和 $V_{1}$ は $ V_{1}=\sum_{v_{1 i} \in V} v_{1 i} $ (2),(3) 同様に総和を正規化するとラベル 1 のベクトルの代表值が得られる。 $ \begin{gathered} V=\frac{V_{1}}{\left|V_{1}\right|} \\ \left|V_{1}\right|=\sqrt{\sum_{k=1}^{300} x_{k}^{2}} \end{gathered} $ (5)でえられたラベル 1 の代表値 $V$ と、各ラベル 0 のテキストに割り振られた (2) 式の $V_{s}$ のコサイン類似度を取ると、あるラベル 0 のテキストとラベル 1 の代表値の類似度は以下の式で表せる。 $ \cos _{V_{1} V}=\frac{V_{s} \cdot V}{\left|V_{s}\right||V|} $ (7)で得られた値がラベル間の類似度である。 ## 3.3 エンコード手法 先行研究の結果から、ラベル付きのテキストデー タから分散表現を求めるためのエンコード手法として RoBERTaを用いる。事前学習済みモデルは roberta-base を採用している。学習時の各パラメータを以下の表 1 に示す。 表 1, RoBERTa のパラメータ ## 4 実験 ## 4. 1 データセット 本実験で使用するデータセットは、マイクロソフトが提供するマイクロソフトニュースに関するデ ータセットである MIND'に加え、ロイター通信の過去の新聞記事の二つのテキストデータにラベリング、類似度の振り分けを行ったものである。2二つのテキストデータではあらかじめ経済に関するテキストのみを抽出しており、約 11000 件のデータセットとなっている。データセットの内訳は、ラベル 1 が 476 件、ラベル 0 のデータが 10740 件となっている。ラベル 0 のデータセットにおける類似度別の内訳を以下の表 2 に示す。本実験では、476 件のラベル 1 のデータ 476 件に対して、約 11000 件のラベル 0 のデータから類似度別に 476 件を抽出し学習、評価を行う。具体的には、ラベル 1 との類似度が 0.9 以上のラベル 0 のテキストのみを抽出し学習するといった流れである。類似度が 0.7 以下のデータセットは、ラベル 1 の件数よりも下回るため、対象外としている。 表 2. ラベル 0 の類似度別件数 ## 4. 2 評価方法 評価の方法としては、データセットを分割し、複数回実行する K 分割交差検証を行う。特に今回は分割するデータセットのラベルの偏りを無くすために層化 $\mathrm{K}$ 分割交差検証で評価を行う。今回の実験では分割数を 5 に設定しているため、データセットを 5 分割し $80 \%$ を学習データ、 $20 \%$ をテストデータとして 5 回実行し、 $\mathrm{F}$ 值の平均値を取り評価を行う。ラベルが 0 のデータに関して、データセットから無作為に抽出したデータセット「類似度高」、「類似度低」、「高低 $5: 5$ 」, 「高低 $3: 7$ 」, 「高低 $7: 3$ 」,「類似度 0.9 以上」, 「類似度 0.8 以上 0.9 未満」,「類似度 0.7 以上 0.8 未満」である。ここで類似度高、類似度低は、データセットを類似度でソートし ^{1}$ MIND データセット https://msnews.github.io/ 2 ロイターニュースデータセット https://archive.ics.uci.edu/ml/datasets/reuters- 21578+text+categorization+collection } たときの上位と下位という意味である。 ## 5 実験結果 4.2 で紹介した類似度別の 8 パターンについて、 $\mathrm{f}$ 值による評価の実験結果を以下の表 3 に示す。 表 3. 各 $\mathrm{f} 1$ 值 ## 5. 1 先行研究との差異 先行研究では、ラベル 1, ラベル 0 の比率が 1:4 で行われており、最も高い $\mathrm{F}$ 值を出した RoBERTa で 0.45 であった。本実験では、ラベル間の類似度を考慮しない実験で $\mathrm{F}$ 値 0.74、ラベル 0 に関して類似度の低いデータを抽出し学習した場合には $\mathrm{F}$值は 0.96 と先行研究よりも高いスコアを確認した。 ## 5.2 類似度による影響 今回の実験ではラベル比率を $1: 1$ で固定し、デ ータセットのテキストの類似度に着目して学習を行った。結果、類似度が低いテキストを多く取り入れると $\mathrm{F}$ 值は無作為抽出よりも 0.2 ほど上昇した。反対に、似度が高いテキストを多く取り入れると $\mathrm{f}$ 値 は 0.3 ほど低い值を示した。類似度のパーセンテー ジで見た際に、ラベル 1 とラベル 0 の類似度が $90 \%$ を境に F 值が大幅に変化していることが見て取れる。 この結果は、ラベル間の類似度が高い場合、分類の際の境界が曖昧になり正しく分類できず、反対に類似度が低い場合には境界が明確であるから正しく分類できると予想できる。 ## 6 終わりに 本稿では、経済政策不確実性指数の算出に用いられる不確害性に言及のあるテキストを RoBERT のフアインチューニングを用いた二値分類問題での抽出を行った。実験では先行研究での $\mathrm{F}$ 值を上回る結果となった。先行研究の $\mathrm{F}$ 値を上回った理由は、ラべルの比率を均一にしたこと、データセットを類似度別で作り学習したことなどが考えられる。 ## 参考文献 [1] K. Seki et al. (2022). "News-based business sentiment and its properties as an economic index" . SienceDirect. [2] K. Yono., \& K. Izumi. (2017). "Real time sentiment analysis of Bank of Japan using text of Financial report and macroeconomic index”. The 31st annual Conference of the Japanese Society for Artificial Intelligence. [3] R. Baker et al. (2016). "Measuring economic policy uncertainty”. The Quartwrly journal of economics. Vol.131. issue 4. [4] Godbole. S. et al. (2020, 7, February). "Economic uncertainty Identification Using Transformers - Improving Current Methods" . Seminar Information Systems(WS19/20).
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P1-3.pdf
# ラベル依存の注視機構を用いた 医薬系文献に対する統制索引語付与 菊井 玄一郎 鈴木 慶二 関根 基樹 水田 寿雄 国立研究開発法人 科学技術振興機構(JST) 情報企画部 \{genichiro. kikui, k3suzuki, sekine, mizuta\}@jst. go.jp ## 概要 本稿では、深層学習に基づくテキスト分類手法を用いた医薬系文献に対する統制語索引付与について報告する。本稿で試みた手法は基本的には LSTM および BERT によるマルチラベル・テキスト分類であるが、既存研究に従い、「ラベル依存の注視機構」 を利用している。専門分野の文献を扱うため、当該分野のコーパスによる BERT 事前学習や単語埋め込みの構築も試みた。F1 值により性能評価を行ったところ、ラベル依存の注視機構を備えた LSTM が同様の BERT より若干上回る結果となった。またテキス卜表層から付与しにくい索引も一定程度付与できることが分かった。 ## 1. はじめに 文献に対してその内容 (主題)を表す索引語 (index term)の集合を付与することは文献検索やテキストマイニングなどにおいて極めて重要であり、特に専門用語シソーラスによる索引は専門分野の文献調査において有用であることが指摘されている[1]。科学技術振興機構 (JST) では文献 DB(メタデー 夕)整備の中心業務として、約 37,000 語のシソーラス、115 万語の「大規模辞書 (用語辞書) 」に基づいた索引を各文献に付与している。付与作業は JST の前身組織の時代から専門作業者が行ってきたが、近年、一部文献についてルールベースの自動処理を適用している。しかしながら、管理コストやの点から医薬系分野を含む全面的な採用には至っていない。 そこで、本稿では医薬系分野の文献に統制語索引を付与する手法を検討する。上述のように JST では相当量の文献に人手による索引が既に付与されており、その一部が利用可能であることから機械学習的なアプローチを試みる。以下では、まず 2 章で JST の索引について簡単に紹介し、 3 章で関連研究について述べる。 4 章で我々が試みた方法について説明したあと、5 章で実験デ一タと実験設定について述べ、6 章で結果とその考察を述べ、最後にまとめる。 ## 2. JST の文献 DB における索引 JST の文献 DB において各文献に付与されている索引の種類を図 1 に示す。索引は、当該文献の主題を表すメインへディング、メインへディングの補足として医薬系分野で付与されているサブヘディングからなる。本稿ではこれらのうちメインへディングのみを対象とする。 図 1: JST 文献DB における索引 \begin{abstract} メインヘディングはさらに現在 37,444 語の「JST シソーラス」を統制語とする「ディスクリプタ」と、 それ以外の「準ディスクリプ夕」に分けられる。後者についても新語などを除いて、基本的には約 115 万語(同義語 ID 数約 22 万)の「大規模辞書」から選ぶことが推奨されている。「大規模辞書」を統制語と呼ぶのは不適当かも知れないが、極力統制された用語で索引付けを行っているといえる。索引や辞書に関する詳細は文献[2],[3]などを参照されたい。 \end{abstract} ## 3. 関連研究 索引の自動付与手法は「抽出型」「分類型」「生成型」の大きく 3 つに分類できる。 抽出型はテキスト内で「主題表現」や「キーフレ ーズ」に相当する文字列を特定し、必要に応じて文字列の標準化や統制語へのマッピングを行うというものであり、1950 年代からの長い歴史がある。 分類型は統制語をテキストの「主題」を示す「分類ラベル(カテゴリ)」とみなして、テキスト自動分類の手法を適用するというものである。 最後の生成型はアブストラクト型の文書要約と同様に索引語の並びを生成するもので、出力側の語彙を限定すれば統制型の索引も可能である。 これらのうち本稿ではテキスト全体から索引の集合を直接推定する「分類型」に焦点を当てる。JST 文献 DB における主題索引の約 4 割が同義語を含めてもテキスト中に出現しないことが指摘されており [1]、分類型が一つの解決策と考えたからである。分類型の索引付与はテキスト分類と基本的に同じタスクとみなせるが、1)一つの文書に対して複数の分類ラベル(索引)を選ぶ「マルチラベル分類」 であり、2)ラベルの数がかなり多い(数万〜数百万)ことが特徴である。このようなタスクは大規模マルチラベル分類 (Large-scale Multi-label Text Classification: LMTC) と呼ばれ、例として、診療記録に診断・治療を表す ICD-9iの 8,771 ラベルを割り当てる MIMIC-III[4]、法律文書に法的な概念(4,271 ラベル)を割り当てる EUR-Lex[5]、商品説明文に約 13,000 ラベルの商品カテゴリを割り当てる Amazon13K[6] などがある。さらにラベル数が多いものは「超大規模マルチラベル分類(eXtreme Multilabel text Classification:XMC)」と呼ばれ、Amazon の 67 万ラベルのデータセットなどがある $i i$ 。今回、我々が取り組む課題は分野内容的に上記 MIMIC-III に近くラベル数は 12,000 程度である。 LMTC, XMC については深層学習を利用した多くの研究が行われている。転移学習型手法の普及以前は CNN や RNN に「ラベル依存の注視機構(LabelWise Attention Networks: LWAN)」を組み合わせた方法が試みられた[7],[5]。また、大量のラベルに起因するデータ過疎性の問題に対応するために、ラベルの階層構造を利用する方法[8]や、自動クラスタリングによりラベルを階層化し、少数カテゴリに対するマルチラベル分類をトップダウンに適用する方法な $ } どが提案されている[9][10]。特に AttentionXML[10] は分類処理として LSTM(Long-Short Memory)にラべル依存の注視機構を組み合わせた手法(LSTMLWAN)を用いることにより、精度向上を実現している。BERT[11]の提案を受けて、文献[12]では BERT にラベル依存の注視機構を組み合わせた BERTLWAN と呼ぶ手法を提案し、上述の 3 つの LMTC タスクで既存手法との比較実験を行った。各タスクで安定して性能が高かったのは AttentionXML[10]であり、MIMIC-III で BERT-LWAN 19 ポイントの差をつけて 1 位、EURLEX, AMAZON13k でも 1 位の BERT-LWA より 2-3 ポイント低い程度であったiii。 なお、MIMIC-III において BERT-LWAN の性能が低い理由として、事前学習モデルが汎用であったこと、入力テキスト長がモデルのサイズ(512tokens)を超えていたこと、サブワードによる専門用語の過度な分割などを指摘している。 以上より、AttentionXML(LSTM-LWAN)や BERTLWAN などのラベル依存の注視機構が有効であること、BERT を利用する場合は適用先ドメインのコ一パスによる事前学習が有効であると考えられる。 ## 4. 試みたマルチラベル分類手法 本節では本研究で適用を試みた 2 つの手法(モデル)について説明する。 ## 4.1 ラベル依存注視機構付き LSTM ラベル依存の注視機構付き LSTM(LSTM-LWAN) (図 2 )は AttentionXML[10]の分類処理で利用されている手法である。双方向 LSTM の各トークンに対する出力(埋め込みベクトル)にラベル依存のアテンション重みを掛けて総和したものを当該ラベルに対する文書全体の pooling ベクトルとする。具体的には、 $j$ 番目のラベルに対する $i$ 番目のトークンの重み $\alpha_{i j}$ (スカラー值)を次式で計算する。 $ \alpha_{i j}=\frac{\exp \left(\boldsymbol{h}_{\boldsymbol{i}} \cdot \boldsymbol{w}_{\boldsymbol{j}}\right)}{\sum_{t=1}^{T} \exp \left(\boldsymbol{h}_{\boldsymbol{t}} \cdot \boldsymbol{w}_{\boldsymbol{j}}\right)} $ iii 文献[10]の実験ではラベル数 4 万以下の LMTC では階層化を行っていない。文献[11]の実験設定は不明である。 ## 図 2: LSTM-LWAN の概要 (BERT-LWAN は点線枠を BERTに置き換えたもの) ここで $h_{i}$ は i 番目のトークンに対する LSTM の出力(埋め込み)、 $w_{j}$ は $j$ 番目のラベルに対する注視係数ベクトルであり、学習で決まる。 $j$ 番目のラベルに対するテキスト全体の pooling ベクトル $m_{j}$ は次式の通り各トークンの埋め込みの加重和である。 $ m_{j}=\sum_{i=1}^{T} \alpha_{i j} h_{i} $ このベクトルを通常のマルチラベル分類と同様、全結合層(中間層を 1 層入れている)を通してラベルごとに 0/1 の出力を行う。なお全結合層の重みは全てのラベルで共通としている。 ## 4.2 ラベル依存の注視機構付き BERT 4.1節のLSTM と埋め込み (図 2 の点線枠)をBERT に置き換えたものが BERT-LWAN[4]である。すなわち 4.1 節の $h_{i}$ の部分が $i$ 番目のトークンに対する BERT の埋め込み出力となる。 ## 5. 実験 ## 5.1 実験データ ## 5.1.1 分類実験 (finetuning) 用データ 分類実験用データとしてJST が整備している文献 DB のうち医薬系文献の一部を用いた。対象とする索引語はカテゴリーコード LS44(薬物)、または、 LS51(病気・病理 - 症状)に分類される主題索引 (メインヘディング)であり、大規模辞書を用いて動機語を代表表記に集約した。利用した文献データは医薬系文献 DB である JMEDPlus に収録されている文献のうち上述の索引語を含み 2018 年から 2021 年 8 月までに作成された約 38 万文献であり、8:1:1 の比率で訓練、検証、評価用にランダムに分けた。このうち 18 万文献(全て口頭発表の予稿)については本文データが存在するのでそれらも入力テキストとして利用した。文献数とラベル数(type 数)を表 1 に示す。索引 (語)を 2 つのカテゴリに絞っているため、 1 文献あたりの正解ラベル数(索引数)の平均は 5.5 個である。正解ラベルのうち JST 大規模辞書による同義語展開を行っても抄録・本文・表題の文字列に含まれないものを「本文未出現ラベル」として同定した。本文未出現ラベルは 1 文献あたり平均 2.1 個 (39\%)であった(ラベル数 0 の文献も分母に含む)。 表 1 索引実験用のデータ 分類処理への入力テキストは上記文献 DB 中の表題と(あれば)抄録、本文が存在するものは本文をこの順にスペースでつないだものである。入力テキストの文献あたりの平均文字数は 409 であった。 ## 5. 1.2 事前学習用データ 事前学習用のコーパスは医薬系文献を含む JST 科学技術文献DB の抄録 960 万文献(1 抄録あたり平均 4.2 文、 240 文字)を用いた。なお、分類の評価用、検証用の文献は含んでいない。 ## 5.2 実験設定 ## 5. 2.1 分類モデルの構築 分類モデルは 4 節で述べた通りである。損失関数は通常のマルチラベル分類と同様に Binary CrossEntropy Loss を用いた。ハイパーパラメータは検証用セットで評価值が最高になるものを選んだ。その際の評価尺度は文献ごとの $\mathrm{F} 1$ 值のマクロ平均である。この種の問題ではラベルごとに $\mathrm{F} 1$ 値を算出しそれを平均することが多いが、ユーザとしては、文献ごとにどの程度正確に索引されているかが重要であることからこのようにした。 ラベル依存の注視機構の効果を見るために 4 節で述べた 2 つの手法の他にベースラインとして BERT の CLS トークンに対応する埋め込みベクトルを全結 合で出力層に接続したシンプルなマルチラベル分類 ivも適用した。 ## 5. 2. 2 LSTM-LWAN 用の単語埋め込み LSTM の入力層で必要となる埋め込みベクトルは分類学習用のコーパス(5.1.1 節)に GLoVe[13]を適用して 300 次元のものを作成した。形態素解析には MeCab/ipadic に JST シソーラスから作られたユー ザ辞書[14]を追加したものを用いた。サブワード分割は行っていない。 ## 5.2.3 BERT 事前学習モデルの構築 BERT の事前学習モデルは 5.1.2 で述べたコーパスから作成した。まず、5.2.2で述べた JST シソーラス由来のユーザ辞書を用いて形態素解析し、これをもとに語彙サイズ $32 K$ のサブワードモデルを作成した。このサブワードモデルと既存ツールvを用いて事前学習を行った。モデルのハイパーパラメータは東北大 base モデルに合わせて隠れ層 12 層 768 次元、 ヘッド数 12 などとした。NVIDIA RTX A6000x8 台で 14 日間訓練した。 ## 6. 実験結果と考察 評価セットに対する分類性能(索引性能)を表 2 に示す。事前学習モデルの baseは東北大 base mode1, JST は 5.2.3 で述べたモデルである。prec(精度)、 rec. (再現率)、F1 値は、前述の通りそれぞれを各文献について求めた上で全文献の平均を取った値(マクロ平均値)である。なお、分母が 0 になる場合は評価値を 0 として計算した。 rec2 は正解ラベルを 「本文未出現ラベル」に限定した場合の再現率であり (本文未出現ラベルを含む文献 28,932 文献で計算)、F 1 値上位 2 つの設定で計算した。目的は表層一致を超えた索引抽出能力を評価するためである。 表 2 分類(索引)性能 \cline { 3 - 6 } & & prec. & rec. & F1 & rec2. \\ \cline { 2 - 6 } & JST & .716 & .548 & .581 & - \\ \cline { 2 - 6 } & JST & .658 & .660 & .617 & .493 \\  まず、F1 值についてはAttentionXML が 2 位の JST 事前モデルを用いた BERT-LWAN より 2 ポイント高い結果となった。この順位関係は先行研究 [12] と一致する。BERT-LWAN について、今回は索引対象と同じ分野のコーパスで事前学習モデルを訓練していることから事前学習モデルのミスマッチは少ないと考えられる。他の理由としては BERT がサブワード単位であるのに対して LSTM-LWAN が JST 辞書の語彙(専門用語)をGLoVe で直接モデル化していることなどが考えられるが、更なる検討が必要である。 抽出型の索引付与手法が基本的にはテキストに出現する表現の中から索引表現を探す処理であるのに対して、今回試みた分類型は対象テキストの表層にない索引語を付与できる可能性がある。rec2 を見ると、再現率 0.5 弱になっており、全ての正解索引に対する再現率 0.66 より 18 ポイント程度下がるものの全体の適合率 $(0.66)$ を考えるとある程度できていることが分かる。なお、BERT-LWAN の方が LSTM-LWAN より若干良いことを注記する。 BERT については科学技術分野のコーパスで作成した事前学習モデルは汎用のものと比べて性能が高く、BERT-LWAN で 4 ポイント程度向上している。また注視機構は BERT に対して 2-4 ポイントと性能向上に一定の寄与があったと考えられる。 ## 7 おわりに 本稿では統制語索引を文書分類的に解く方法について、JST の文献 DB におけるメインヘディング付与を題材として、特にラベル依存の注視機構 (labelwise attention:LWAN)の適用を試みた。 実験結果によればラベル依存の注視機構は有効であり、F1 值として 0.63 程度となった。LWANを、対象分野のコーパスから作成した GLoVe、および、LSTM と組み合わせる方法が BERT と組み合わせた方法より若干上回る性能となった。 索引付けについてはテキスト中から重要表現を取り出す抽出型が基本であり、今回試みた分類型の方法はそれを補足する役割があると考えている。今後は両手法の改善に加え、それぞれの性質の分析を踏まえて適切に組み合わせることが大きな方向性であると考えている。 ## ${ ^{\vee}$ Huggingface $\odot$ BertForMaskedLM} ## 参考文献 [1]堀内美穂,中村徹,永井賢吉:JSTDB 検索における索引の有効性と索引作業の重要性-JSTP1us フアイル, JMEDPlusファイルにおける索引語の分析-,情報管理,vol. 52,No.1,2009. [2] 冨永祥平:“索引作業におけるより高度な支援辞書の利用〜 JST 抄録・索引支援システム「NAISS」 について〜”,情報管理, vol. 50, no. 4, pp. 210-217, 2007. [3] 山崎文枝, “JST 科学技術シソーラスの改訂” ,情報管理,vol. 60, no. 5, pp. 365-368, 2017. [4] Johnson, A EW., et al., "MIMIC-III, a freely accessible critical care database", Nature, 2017. [5] Chalkidis, I., et al., "Large-Scale Multi-Label Text Classification on EU Legislation”, ACL 2019, 2019. [6] McAuley, J., et al., "Hidden Factors and Hidden Topics: Understanding Rating Dimensions with Review Text", ACM Conf. on Recommender Systems, pp. 165172, 2013. [7] Mullenbach, J., et al., "Explainable Prediction of Medical Codes from Clinical Text”, NAACL2018, 2018. [8] Rios, A., et al., "Few-Shot and Zero-Shot MultiLabel Learning for Structured LabelSpaces, EMNLP2018, 2018. [9] Khandagale, S., et al., "Bonsai - Diverse and Shallow Trees for Extreme Multi-label Classification”, arXiv:1904.02349v2, 2019. [10] You, R., et al., "AttentionXML: Label Tree-based Attention-Aware Deep Model for High-Performance Extreme Multi-Label Text Classification”, NeurIPS2019, 2019. [11] Devlin, J., et al., "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding", Proc. NAACL2019, 2019. [12] Chalkidis, I., et al., "An Empirical Study on LargeScale Multi-Label Text Classification Including Few and Zero-Shot Labels", EMNLP2020, 2020. [13] Pennington, J. et al., "Glove: Global vectors for word representation”, EMNLP2014, pp1532-1543, 2014. [14] 建石由佳, 信定知江, 高木利久: “JST 科学技術用語シソーラスに基づく MeCab 用専門用語辞書”,言語処理学会第 23 回年次大会、P7-1 (pp485-488), 2017.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P1-4.pdf
# 文書間の類似度近似と数理最適化を用いた検索結果多様化 大滝啓介 徳久良子 岡田明久 吉田広顕 株式会社豊田中央研究所 \{otaki, tokuhisa, okada, h-yoshida\}@mosk.tytlabs.co.jp ## 概要 蓄積されている技術文書から、自分の関心がある文書を適切に探し出す情報検索は重要である。本稿では自然言語処理を用いて「検索クエリと文書」や 「文書と文書」の類似度をべクトル埋め込みを通じて計算した上で、文書間の類似度を考慮しつつ、多様な文書を出力する検索結果多様化を扱う。既存のモデルでは文書の親子関係のみを考慮して多様化を行っていたため、表現可能な文書間の関係性に制限があった。本稿ではこの制限に対処するために一般化した数理モデルを提案し、小規模データでの適用例を通じて手法や今後の課題について議論する。 ## 1 はじめに 背景日々の研究活動では、大量に蓄積される技術文書から自分の関心がある文書を探し出す必要がある。このような情報検索は研究開発にとって欠かせない行為であり、技術文書検索を支えるため様々な技術が検討されてきた $[1,2,3]$ 。 本稿では関連スコアベースの検索技術に注目する。クエリ $q$ と検索対象の文書 $\left.\{d_{1}, \ldots, d_{n}\right.\}$ に対して、クエリ $q$ と文書 $d_{j}$ との関連性を定量化することで、評価値に従って文書をソートし、検索結果を出力することができる。具体的には、例えば検索クエリ $q$ と文書 $d_{j}$ 、文書 $d_{i}$ と文書 $d_{j}$ をべクトルの埋め込みで表現し、これらのべクトル間の類似度を求めることで、関連性を定量化した検索システムを構築することができる [4]。近年では自然言語処理に関する論文を検索するサービスも提供されている1)。 課題と本稿の貢献類似度を関連スコアとして用いて上位 $K$ 個の文書を検索結果として出力すると、出力された文書が相互に類似する傾向がある。一方で、よりユーザ経験豊かな検索システムを実装するためには、検索結果に多様な文書が含まれることが望ましい。このような問題設定は検索結果多様化 (search result diversification) の文脈で研究されてきた [5]。選択した検索結果の多様性は、文書間の類似度などを用いて評価される。これまでの手法 [6] では文書の親子関係のみを考慮することしか出来ない(詳細は 2 章で述べる)。そのため親・子・孫の関係や、一般に木構造で表現されるような文書間の階層関係を表現することができなかった。 我々は数理最適化を用いて、既存研究を拡張した一般の森構造関係を考慮できる数理モデルを提案し、上記の課題を解決する。提案手法によって、文書間の芋づる式の検索や、木構造で表現する複雑な階層関係を想定した文書群の検索をサポートし、より豊かな検索経験が得られると期待される。本稿では特に、新しく提案した数理モデルの動作検証に注力し、小規模のデータに対して適用した結果を通じて手法を議論した結果を報告する。 ## 2 準備 本稿で提案する数理モデルの元になった既存手法と問題設定について説明する。 ## 2.1 ベクトル埋め込みを用いる検索 システムは $n$ 個の文書 $D=\left.\{d_{1}, d_{2}, \ldots, d_{n}\right.\}$ を管理し、ユーザはクエリ $q$ を検索システムに入力する。これらの文書やクエリから $\mathbb{R}^{h}$ に属するべクトルへの埋め込みが計算可能として、それぞれを $\mathbf{v}_{q}, \mathbf{v}_{d_{i}} \in \mathbb{R}^{h}$ で表す。クエリと文書間の類似度を計算する関数を $r: \mathbb{R}^{h} \times \mathbb{R}^{h} \rightarrow \mathbb{R}$ と設定し、 $r\left(\mathbf{v}_{q}, \mathbf{v}_{d_{i}}\right)$ で関連スコアを表す。また文書間の類似度を計算する関数を $s: \mathbb{R}^{h} \times \mathbb{R}^{h} \rightarrow \mathbb{R}$ と設定し、文書間の類似度を $s\left(\mathbf{v}_{d_{i}}, \mathbf{v}_{d_{j}}\right)$ で表す。関連スコアと文書間の類似度には、いずれもコサイン類似度を用いる。 選択した文書の関連スコアを $R(S):=$ $\sum_{d_{j} \in S} r\left(\mathbf{v}_{q}, \mathbf{v}_{d_{j}}\right)$ で定義する。多様化を考慮しない検索システムは、式 (1) の最適化問題を通じて検索を行う。 1) ACL2Vec:http://clml.ism.ac.jp/ACL2Vec/ $ \max _{S \subseteq D,|S|=K} R(S) . $ ## 2.2 検索結果多様化 式 (1)を拡張し、検索結果多様化を定式化する。検索結果多様化では、選択した文書集合 $S$ 上の多様性スコアを定義し、関連スコアと多様性スコアの両方を持つ目的関数を用いる。文書集合 $S$ に対する多様性スコアが $\Omega(S)$ の場合、多様性を考慮する検索システムが扱う問題は式 (2) のような多目的最適化問題として定式化される $[6,7]$ 。 $ \max _{S \subseteq D,|S|=K} R(S)+\Omega(S) . $ 本稿では多様化手法のうち、文書間の親子関係に着目して $S$ を一度に構築する手法である ILP4ID [6] に着目し、拡張した数理モデルを提案する2)。 ## 2.2.1 ILP4ID (ILP for Implicit Diversification) ILP4ID では文書間に親子関係 >を考慮し、親子関係から $\Omega_{\mathrm{ILP} 4 \mathrm{ID}}(S):=\sum_{\left(d_{i}, d_{j}\right) \in S \times S \text { if } d_{i}>d_{j}} s\left(d_{i}, d_{j}\right)$ を評価した上で、第二項 $\Omega_{\mathrm{ILP} 4 \mathrm{ID}}(\cdot)$ を用いた最適化問題を通じて検索結果を多様化する [6]: $ \max _{S \subseteq D,|S|=K} \lambda(n-K) R(S)+(1-\lambda) K \Omega_{\mathrm{ILP} 4 \mathrm{ID}}(S) $ 式 (3) では 1 項目の関連スコアと 2 項目の多様性スコアの両項が、全文書数 $n$ と選択する文書数 $K$ とパラメータ $\lambda \in[0,1]$ で重み付けされている。二項目の $\Omega_{\text {ILP4ID }}(\cdot)$ は親子関係に選択した文書間の類似度が相互に高い場合に高くなる項である。そのため、親として選んだ文書集合 $S$ は、式 (3)を最適化した結果として多様化されていることが期待される。な $お \lambda=1$ のとき通常の検索と一致する。 最適化問題としての実装著者らは整数計画法を用いて目的関数の式 (3) を実装した [6]。二値変数 $x_{i j} \in\{0,1\}, i \in[n]:=\{1, \ldots, n\}, j \in[n]$ を用いて、 $x_{i i}=1$ によって $d_{i} \in S$ を、 $x_{i j}=1$ によって親子関係 $d_{i}>d_{j}$ を表す。選択していない文書については、選択した文書に対して親子関係を持ち、制約に $x_{i i}-x_{j i} \geq 0$ を満たす。これは文書 $d_{i} \in S$ を選択しているときに限り、他の文書 $j$ から $i$ に対して親子関 2) 本稿では大規模事前学習モデル (Pre-trained Language Models) とコサイン類似度を用いる。対象とする技術文書や教師ラベルの存在によっては、多様化タスクに向けてファインチューニングをしたり、別の類似度を採用してよい。係を認めることを意味する。以上の設定によって、 $\Omega_{\mathrm{ILP4ID}}(S)$ は $\Omega_{\mathrm{ILP4ID}}(\mathbf{x}):=\sum_{i=1}^{n} \sum_{j=1, j \neq i}^{n} x_{i j} \cdot s\left(d_{i}, d_{j}\right)$ で表すことができる。 ## 3 類似度近似に基づく計算手法 本章では 2.2 節で述べた既存手法 ILP4IDを拡張することで、一般的な文書間の構造を表現できる数理最適化問題を提案する。階層関係を親子関係から森構造に拡張することで、芋づる式の親子関係(文書親 $d_{1}>$ 文書子 $d_{2}>$ 文書孫 $d_{3}$ )などを表現できるようになることが期待できる。一方で $\Omega_{\text {ILP4ID }}$ で扱った深さ 1 の親子関係 $d_{1}>d_{2}$ だけではなく、より深い位置の関係( $d_{1}$ と $d_{3}$ など)最適化問題の中でモデリングする必要がある。 ## 3.1 提案手法 一般化した階層関係を考慮するモデルを提案するために、我々は類似度が分解できる仮定を置く。具体的には $D$ 上の類似度行列 $\mathrm{S}:=\left(s\left(d_{i}, d_{j}\right)\right)_{i, j \in[n]} \in \mathbb{R}^{n \times n}$ を低ランク $(l \ll n)$ の因子行列 $\mathrm{L} \in \mathbb{R}^{n \times l}, \mathrm{R} \in \mathbb{R}^{n \times l}$ によって $\mathrm{S} \approx \mathrm{LR}^{T}$ として近似できると仮定し、計算モデルを提案する。 選択した文書を根とした根付き森を表現する手法を説明する。ここで $\langle n\rangle:=\{\boldsymbol{0}\} \cup[n]$ としてダミー文書 $\mathbf{0}$ を用意する。根付き森の上位にダミー文書 $\mathbf{0}$ を仮定し、根付き森の根を $\mathbf{0}$ の子とみなすことで、根付き木を用いて間接的に根付き森を表現する。ILP4ID と同様に、選択する集合は $S=\left.\{d_{j} \mid x_{0 j}=1\right.\}$ と解釈する。決定変数として $x_{i j} \in\{0,1\}, i \in\langle n\rangle, j \in\langle n\rangle$ を用いて根付き木を表す。ただし $x_{i j}=1$ は $x_{i}>x_{j}$ を意味する。また木 $T$ は頂点数 $n+1$ の頂点集合と辺集合 $\left.\{\{i, j\} \mid x_{i j}=1\right.\}$ で表現されるとする。スコア計算のために $i \in\langle n\rangle$ について、実変数 $\mathbf{f}_{i}^{\text {sum }} \in \mathbb{R}_{\geq 0}^{l}$ と $g_{i}^{\text {eval }} \in \mathbb{R}_{\geq 0}$ を追加で用意する。 以下に実装の詳細を述べる。 木構造の表現最も基本的な根付き木の表現を実装する。つまり $\left.\{x_{i j}\right.\}$ について以下を採用する。 - $\sum_{i, j} x_{i j}=n:$ 木の辺の数に関する制約 - $\sum_{j} x_{j i} \leq 1(\forall i \in\langle n\rangle)$ : 木構造の次数に関する制約 - $x_{i i}=0(\forall i \in\langle n\rangle)$ : 木構造に関する制約(ILP4ID と異なるモデリングによる) - $\sum_{i \in T^{\prime}, j \in T^{\prime} \backslash\{i\}} x_{i j} \leq\left|T^{\prime}\right|-1\left(\forall T^{\prime} \subseteq\langle n\rangle,\left|T^{\prime}\right| \geq 2\right)$ : ここで $T^{\prime}$ は頂点数 2 以上の全ての部分木に対する制約である。 目的関数の表現式 (3)の目的関数を、類似度の低ランク近似の仮定に基づいて拡張する。補助変数 $\mathbf{f}_{i}^{\text {sum }}$ と $g_{i}^{\text {eval }}$ について以下を設定する。 - $\mathbf{f}_{i}^{\text {sum }}=\mathrm{R}_{i,:}+\sum_{j} \mathbf{f}_{j}^{\text {sum }} x_{i j}(\forall i \in\langle n\rangle)$ : 子の右側評価値 $\mathrm{R}_{i}$ を伝搬する。 - $g_{i}^{\text {eval }}=\left.\langle\mathrm{L}_{i, .}, \sum_{j} \mathbf{f}_{j}^{\text {sum }} x_{i j}\right.\rangle+\sum_{j} g_{j}^{\text {eval }} x_{i j}$ : 子から伝搬した右側評価值と多様性スコア、自分自身の左側評価値 $\mathrm{L}_{i,:}$ の内積を用いて、全体の多様性スコアを求める。 以上の補助変数と制約を用いて式 (4)を定義し、検索結果多様化と階層構造の決定を同時に達成する。 $ \begin{aligned} & \max _{x, f^{\text {sum }}, g^{\text {eval }}} \lambda(n-K) R(x) \\ &+(1-\lambda) K \Omega_{\text {ours }}\left(x, f^{\text {sum }}, g^{\text {eval }}\right) . \end{aligned} $ ただし $R(x):=\sum_{i} x_{0, i} r\left(q, s_{i}\right)$ は関連度スコアを、 $\Omega_{\text {ours }}(x, g):=\sum_{i} x_{0}, i g_{i}^{\text {eval }}$ は階層構造に基づいて評価した多様化スコアを表す。それぞれの項の重み付けは ILP4ID と同様に設定した。 ## 3.2 原理確認 人工データを用いて、本稿で提案した計算が可能なことを検証する。簡単化のために、 $n=6$ について、 $r\left(\mathbf{v}_{q}, \mathbf{v}_{d_{i}}\right)$ がベクトル $[5,5,4,1,5,3]$ のように与えられて、 $K=2$ の場合を考える。多様化を行わない場合、スコア 5 である $d_{1}, d_{2}, d_{5}$ のうち 2 つが選ばれる。(例えばインデックス $i$ の小さい順に $d_{1}, d_{2}$ が検索結果として出力される。 一方で検索結果多様化の文脈では、提案手法を用いることで異なる結果が得られる。図 1 に 2 つの問題設定と最適化問題を解いた結果を示す。類似度行列 S の具体的な例として、クラスタ内の文書数が異なる 2 クラスタの例を想定し、図 $1 \mathrm{a}$ と図 $1 \mathrm{~b}$ を設定した。計算の結果得られた文書の親子関係を森構造として表現したものを図 $1 \mathrm{c}$ と図 $1 \mathrm{~d}$ にそれぞれ示す。図中の木ノード中の番号と数值は、文書 $d_{i}$ について番号 $i$ とスコア $r\left(\mathbf{v}_{q}, \mathbf{v}_{d_{i}}\right)$ に対して $i\left(r\left(\mathbf{v}_{q}, \mathbf{v}_{d_{i}}\right)\right)$ と描画した。それぞれの森の根として選ばれた文書番号(図 $1 \mathrm{c}$ では 2 と 5 、図 $1 \mathrm{~d}$ では 1 と 5) は、それぞれ文書 $\left.\{d_{2}, d_{5}\right.\}$ と $\left.\{d_{1}, d_{5}\right.\}$ が検索結果として得られたことを表す。 結果より、図 1c は図 1aのククラスタ構造を、図 $1 \mathrm{~d}$ は図 $1 \mathrm{~b}$ のクラスタ構造をそれぞれ発見しつつ、階層構造を構築しながら、スコアの高い文書 $d_{1}, d_{2}, d_{5}$ から $K=2$ 文書を代表的な検索結果として選択することができた。このとき、森の根として選択した文 (a) 設定 1 (c) 計算結果 1 (b) 設定 2 選択した文書 (d) 計算結果 2 図 1: 原理確認のための設定(上段)と結果(下段)。得られた森構造のうち、木の根が検索結果として選択された文書 $K=2$ 個に相当する。 書は多様化を達成しつつ、各文書 $d_{j} \in S$ については、それと類似した文書を階層構造(木)として表現できる。そのため、ILP4ID と比較して複雑な構造を森構造として表現しつつ、その根に $K$ 子の文書を選択することが出来た。 ## 3.3 ILP4ID を用いた近似解法 3.1 節で述べた手法によって、全ての部分木構造を表現した最適化問題を議論することができる。一方で、組合せ最適化によって根付き木や根付き森を表現することは、工夫なしでは計算量的に困難なことが多く、現在の定式化と解法では大量の文書を扱うことが難しい。よって本稿の実験では、近似的に木構造を求めることを目的として、深さ 1 の親子関係のみを計算する ILP4IDを繰り返し計算することで、指定の深さまでの階層構造を作成する手法を実装した。 ## 4 実験と考察 提案手法を小規模データに適用し、結果を観察して評価・議論を行う。 ## 4.1 社内文書での適用例 データ原理検証のために、社内文書のタイトルを $d_{i}$ と設定し、クエリ $q$ を 5 種類与えて、多様なタイトルの社内文書を階層構造とセットで取得す (a) 関連スコア (b) 文書間類似度 $\mathbf{S}$図 2: 実験用のデータ: $2 \mathrm{a}$ では $y$ 軸が 5 種類のクエリを、 $x$ 軸が 24 本の文書を示す。 $2 b$ では 24 本の文書間の類似度行列 $S$ を示す。 る問題設定を考える。なお予稿では機密情報の扱いから、文書 $d_{i}$ やクエリ $q$ の情報は公開が容易ではないため、図 2 に類似度の情報のみ可視化したものを掲載する。図 2a はクエリと文書の関連スコアを、図 2b は多様性スコアの定義に用いる文書間の類似度を示す。タイトルやクエリの埋め込みには日本語 ALBERT モデル(ALINEAR/albert-japanese-v2)をファインチューニングなしで用いて、ベクトル間の類似度にはコサイン類似度を用いた。 近似計算の結果得られた階層構造 ILP4IDを繰り返して解く近似計算法を用いて計算を行った。近似解法では各階層で $K=3$ の文書を選び、深さ 3 まで再帰的に木構造の構築を行った。ILP4ID 自体のパラメータは $\lambda=0.9 )$ と設定した。図 $1 \mathrm{a} の y$軸に対応するクエリ $q_{0}$ からクエリ $q_{4}$ までの 5 つのクエリを用いて検索を行った。最適化問題を近似的に解いて求めた文書の森構造を図 3 に可視化した(クエリ $q_{0}$ の結果が図 $3 \mathrm{a} 、 q_{1}, \ldots, q_{4}$ の順で、 $q_{4}$ の結果が図 $3 \mathrm{e}$ に対応する)。各クエリ $q_{i}$ と文書 $D=\left.\{d_{1}, \ldots, d_{24}\right.\}$ の関連スコアが図 $1 \mathrm{a}$ のように異なるために、得られる森もそれぞれ異なっている。 ## 4.2 考察と課題 提案手法を用いてクエリ $q$ に対する検索結果を根付き森として取得することが出来た。式 (4) で定義したように、各部分木の類似度が高くなるように $\Omega_{\text {ours }}$ が設定されており、構築した木は文書のクラスタを形成する。結果として検索結果多様化が達成される。一方で $R(S)$ については、ILP4ID と同様に選択した文書 $S$ のみ(森の根のみ)で評価し、森構造を利用していないため、評価指標を一般化したり、修正したりする余地がある。 現在の近似解法は、3.1 節で提案した元の最適化問題が計算量に困難であるために手法である。よって元の問題を直接最適化する近似手法や、ニューラ (a)クエリ $q_{0}$ の結果 (b) クエリ $q_{1}$ の結果 (c)クエリ $q_{2}$ の結果 (d) クエリ $q_{3}$ の結果 (e)クエリ $q_{4}$ の結果 図 3: 得られる高さ 3 までの森構造。森構造のノー ド $i$ は文書 $d_{i}$ を表す。 ルネットワークなどと合わせた手法を構築する余地があると考えられる。 数理最適化は、制約の表現力が高いという特徴がある。文書同士を同じクラスタに属するように制約して森構造を取得したり、ユーザが探索的に文書探索を行う際に、関連した文書を連続的に検索する行為(例えばシリーズ $1 、 2 、 3$ というように順序がある場合)などに対応した森構造を得ることで、より良い検索体験に向けた手法を検討できると考えられる。このように検索システムを指向した最適化問題へと精緻化することは今後の課題の一つである。 ## 5 まとめ 大量の技術文書から、自分の関心がある文書を適切に探し出すタスクは重要である。本稿では類似度の低ランク近似と数理最適化を用いて、検索結果多様化の新しいモデルを提案して解法を構築し、小規模な実験を用いて議論を行った。今後はオープンデータを用いた大規模な実験や、数理最適化モデルの精緻化・計算手法の高速化、更に検索システムの検証を行う予定である。 ## 参考文献 [1] Christopher D Manning. Introduction to information retrieval. Syngress Publishing, 2008. [2] Ricardo Baeza-Yates, Berthier Ribeiro-Neto, et al. Modern information retrieval, Vol. 463. ACM press New York, 1999. [3] 打田智子, 古澤智裕, 大谷純, 加藤遼, 鈴木翔吾, 河野晋策. 検索システム実務者のための開発改善ガイドブック. ラムダノート, 2022. [4] 持橋大地. Researcher2vec: ニューラル線形モデルによる自然言語処理研究者の可視化と推薦. NLP2021, 2021. [5] Rodrygo L. T. Santos, Craig Macdonald, and Iadh Ounis. Search result diversification. Foundations and Trends ${ }^{\circledR}$ in Information Retrieval, Vol. 9, No. 1, pp. 1-90, 2015. [6] Hai-Tao Yu, Adam Jatowt, Roi Blanco, Hideo Joho, Joemon Jose, Long Chen, and Fajie Yuan. A concise integer linear programming formulation for implicit search result diversification. In Proceedings of WSDM2017, pp. 191-200, 2017. [7] Guido Zuccon, Leif Azzopardi, Dell Zhang, and Jun Wang. Top-k retrieval using facility location analysis. In Proceedings of ECIR2012, pp. 305-316. Springer, 2012.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P1-5.pdf
# 中間タスクの挿入による学術論文における URL 引用の分類 和田 和浩 1 松原 茂樹 1,2 1 名古屋大学情報学部 2 名古屋大学情報連携推進本部 \{wada.kazuhiro.s8@s, matsubara.shigeki.z8@f\}.mail.nagoya-u.ac.jp ## 概要 学術活動において,データやプログラムなどの学術資源にアクセスできることは重要である. 特に URLによる引用(以下,URL引用)はその論文で使用された学術資源を参照していることが多く, これらを分類し利用することで学術資源へのアクセス性を高めることができる. そこで本論文では,学術論文における URL引用の種類と目的でクラス分類する手法について述べる。本手法では,メインタスクで使用するデータを利用し,その入力の対を用いた中間タスクを設定し導入した. 分類実験の結果,先行研究に対する本手法の優位性を確認した。 ## 1 はじめに 学術活動において,学術論文,及び,そこで利用されたデータやプログラムなどの学術資源にアクセスできることは重要である。これらのアクセス性を向上させるための様々なデータベースやサービスが存在する. 例えば, Google Scholar ${ }^{1)}$, Semantic Scholar $^{2)}$ では単なる論文の提示だけでなく,論文中の引用関係に基づき,関連する論文に辿ることができる. このように, 引用関係を用いることは学術資源へのアクセス性を高める上で有用である. これらのサービスが対象とする引用は, 主に参考文献に記された書誌情報である. しかし,学術論文における引用対象は,参考文献リストの書誌情報以外に,URLによる引用(以下,URL引用)もあり, これらは参考文献リストに加えて脚注や本文中にも出現する.こうした URL引用はその論文で使用されたデータやプログラムなどの学術資源を含むことが多い. URL引用を利用することで論文中のデー タやプログラムなどのアクセス性が高まる。また, URLによる引用は種類や目的が多様であるため, それらを含めて提示することにより,サービスの利便性が向上することが期待できる. これを実現するために,論文におけるURL引用を種類と目的で分類する必要がある. 引用の種類や目的の分類体系については既に様々な提案がある $[1,2,3]$. なかでも角掛らは,URLによる引用についてその種類と目的のクラスを整理しており, SciBERT[4] を用いた分類手法を提案している [1]. しかし, 角掛らの分類手法には, 少数クラスに対する分類性能が低く, 一部のクラスが予測結果として全く出力されない場合があった. そこで本論文では,中間タスクを用いた論文における URL引用の分類手法を提案する。中間タスクを用いた手法は既に多くの提案があり,その有効性が示されている $[5,6]$. しかし,中間タスクの挿入には ・中間タスクに必要なデータを新たに用意する必要がある ・適切な中間タスクを選択する必要がある という課題を解決する必要がある $[7,8]$. メインタスクに関連したタスクを選ぶことで適切な中間タスクの選択をする手法 [7] が提案されており,メインタスクと中間タスクとの関連性の高さは適切な中間タスクの選択に重要である. 本手法ではメインタスクで使用するデータを再利用して,メインタスクにおける入力の対を用いた中間タスクを作成した。これにより,中間タスク用の新たなデータを必要とせずにメインタスクに関連した中間タスクの使用が可能となる. 本手法を評価するために実験を行い,先行研究の手法との分類性能を比較した. 実験の結果,本手法の有効性を確認した。 1) Google Scholar https://scholar.google.co.jp/ 2) Semantic Scholar https://www.semanticscholar.org/ ## 2 関連研究 ## 2.1 引用の分類 論文中の引用を分類する取り組みは既に存在しており, 角掛らは学術論文中の URL が指すものについて,ツールとデータを区別する分類タスクに取り組んだ [9]. また,引用の目的を 6 種類のクラスに分類する Shared Task が提案されている [2]. このタスクに対する取り組みとして,Baig らは TF-IDF とデータを分析して作成した特徴量を用いた手法 [10]を,Maheshwari らは大規模言語モデルである SciBERT[11] を利用した手法 [4] をそれぞれ提案している. そして, 角掛らは URL 引用に注目し, その URL が指すものが果たす役割と種類, 引用の目的の分類体系を作成し,その分類手法を提案している [1]. ## 2.2 中間タスクの挿入 大規模言語モデルを用いた学習では通常,大規模なコーパスを用いて事前学習を行ったのち,メインタスクのファインチューニングを行う。これに対して事前学習とメインタスクのファインチューニングとの間に別のタスク(以下,中間タスク)を設け,そのファインチューニングを行うことで,メインタスクに有用な特徴を効果的に学習する方式が提案されている. Phang らは中間タスクの挿入により GLUE ベンチマークの性能が改善することを示している [5]. その一方で,中間タスクを挿入すれば必ず効果をもたらすとは限らないという問題点も指摘されている [7, 8]. Poth らは中間タスク用のデータや学習済みモデルの利用可能性に応じて中間タスクを適切に選択する手法を提案している [7]. また Pruksachatkun らは特定の能力を問う probing task に対する性能を分析することで,中間タスクとして効果的なタスクの特徴について分析している [8]. ## 3 提案手法 ## 3.1 問題設定 本研究では, 角掛らが提案した URL引用の種類と目的の分類 [1] に基づきアノテーションされたデータを使用する.1つの URL引用に対して, Role, Type, Function の 3 種類のラベルが存在する. Role, $ \text { 図 } 1 \text { モデルの概略 } $ Type は URL が参照する学術資源の種類を表すラべルであり Roleが大分類, Type が小分類に相当し, 相互に対応関係がある. Function は URL引用の目的を表すラベルである. 本研究ではこれらの 3 つのラベルそれぞれの分類タスクに取り組む. ## 3.2 手法の概要 提案手法の概略を図 1 に示す. 提案手法では中間タスクとメインタスクに分けてモデルの学習を行う.いずれも BERT[12]を Encoder として利用して共有する. 出力は中間タスク,メインタスクに共通して BERT の [CLS] トークンに対応する出力に対してラベルごとに全結合層を持つ. 活性化関数として中間タスクではシグモイド関数を,メインタスクではソフトマックス関数を利用する。また, Role, Type, Function の各ラベル間の関連性を考慮して分類するため,マルチタスク学習を採用する $[1,13]$. ## 3.3 中間タスクの学習 中間タスクの入力ではメインタスクにおけるモデルへの入力の対を使用し, 出力では入力の対がメインタスクで同じクラスに属しているか否かの 2 值の分類を行う. このとき, Role, Type, Function ごとにクラスが割り当てられているため, 3 種類のそれぞれでクラスが一致しているかどうかを判定する.損失関数として3つのラベルそれぞれの BCELoss の和を使用した。つまり,データセット中の $i$ 番目のデータの入力を $I_{i}$, Role, Type, Function のラベルをそれぞれ $R_{i}, T_{i}, F_{i}$ と記すとき, モデルの入力, 出力及び損失関数は以下のようになる。 $ \begin{aligned} & \text { 入力 }: I_{\text {int }}=[C L S]+I_{i}+[S E P]+I_{j}+[S E P] \\ & \text { 出力 }: O_{\text {role }}=\sigma\left(W_{\text {role }} B E R T\left(I_{\text {int }}\right)\right) \\ & O_{\text {type }}=\sigma\left(W_{\text {type }} B E R T\left(I_{\text {int }}\right)\right) \\ & O_{\text {function }}=\sigma\left(W_{\text {function }} B E R T\left(I_{\text {int }}\right)\right) \end{aligned} $ 表 1 Role のクラス分布 表 2 Typeのクラス分布 表 3 Function のクラス分布 損失関数 : $\quad B C E \operatorname{Loss}\left(\delta_{R_{i} R_{j}}, O_{\text {role }}\right)$ $+B C E L o s s\left(\delta_{T_{i}, T_{j}}, O_{\text {type }}\right)$ $+B C E \operatorname{Loss}\left(\delta_{F_{i}, F_{j}}, O_{\text {function }}\right)$ ただし, $\sigma$ はシグモイド関数を, $\delta$ はクロネッカー のデルタをそれぞれ表す. ## 3.4 メインタスクの学習 メインタスクの学習では Role, Type, Function のクラス分類を行う. 基本的なモデル構造は中間タスクの学習のものと同様であり, 変更点は最後の各ラべルに対応する全結合層がそれぞれのクラス数に対応した出力になる点, 及び,多クラス分類であるため活性化関数にソフトマックス関数を使用している点である. また,BERT 部分のパラメータについては中間タスクの学習後のものを初期値として使用している. 損失関数は各ラベルの CrossEntropyLoss の和とした. ## 4 実験 提案手法を評価するため,URL引用の分類実験を行った. ## 4.1 実験の概要 使用データURL引用に Role, Type, Function の 3 種類のラベルが付与されたデータ [1]を使用した (3.1 節参照). 各ラベルのクラス分布を表 $1,2,3$ に示す. Role は各クラスがほぼ均等に分布しているものの,Type,Function は,クラス間の不均衡が大きく,分類が困難であることが予想される. 実験設定提案手法を PyTorch ${ }^{3)}$ と Hugging Face ${ }^{4)}$ を利用して実装した。中間タスク,メインタスクで共有する BERT には事前学習済みの公開モデル5)を使用した. モデルへの入力は角掛らの手法 [1] を参考に,節 3) PyTorch.org https://pytorch.org/ 4) Hugging Face https://huggingface.co/ 5) google/bert_uncased_L-12_H-768_A-12 https://huggingface. co/google/bert_uncased_L-12_H-768_A-12表 4 実験結果 タイトル,引用文とその前後 1 文(計 3 文),脚注文または参考文献を [SEP] トークンで区切ったものを使用した。 学習時,中間タスクでは patienceを 2 に,メインタスクでは 5 に設定して Early Stopping を行った.以下に学習時に設定したパラメータを示す. - 学習率 (共通) : 1e-5 - 最適化手法(共通):Adam[14] ・バッチサイズ:16 (中間タスク),32(メインタスク) -中間タスク用に作成するデータの数 : 300,000 比較手法以下の 2 種類の手法を用いる. - Zhao らが提案した SciResCLS[15]. 引用文脈を使用してマルチタスク学習を行う - 角掛らによる手法 [1]. 入力の素性として節タイトル,脚注文または参考文献を追加してマルチタスク学習を行う 評価指標使用するデータは分布の偏りが大きいため,少数クラスに対する分類性能を評価するためにマクロ平均の F1 值を採用する。 ## 4.2 実験結果 学習, 検証データの分割時のシード値を変更して複数回実験を行い,それぞれのマクロ平均の F1 値を平均した結果を表 4 に示す. Role は角掛らの手法に若干劣る結果となったが,Type では 2 3\%, Function では 5 7\%の性能の向上が確認できた. 表 5 に提案手法と角掛らの手法 [1] のあるシー ド值で学習したときのクラスごとの F1 值を示す.標本数の少ない Media, Compare, Extend に対しても,提案手法ではいくつか予測されるようになった. ク 表 5 クラスごとの $\mathrm{F}$ 検証時の損失 図 2 学習曲線 ラス分布の偏りが大きくなる Role, Type, Function の順に比較手法に対する性能の改善幅が大きくなっている. ## 4.3 考察 ## 4.3.1 メインタスクの学習過程の比較 深層学習モデルの学習では,その性能だけでなく学習の安定性も重要である。そこで,学習及び検証時の損失関数の値の推移を確認した. 図 2 に提案手法と角掛らの手法 [1] のメインタスクの学習時の損失の推移を示す。学習時, 検証時ともに提案手法が角掛らの手法 [1] に比べて小さな損失となっている. また,角掛らの手法 [1] は検証時の損失に上下があるのに対して提案手法はエポック毎に安定して損失が減少しており,より安定した学習ができていることがわかる. ## 4.3.2 中間タスクの有効性 中間タスクで学習された特徴がメインタスクで有効に機能することを確認するために,中間タスクの学習後, BERT 部分のパラメータをフリーズさせて表 6 BERT をフリーズさせたときの実験結果 メインタスクの学習を行った. これにより,学習可能なパラメータは各ラベルの確率を出力するための全結合層 1 層となるため,この実験設定でもモデルの分類性能が維持されるならば,それは,中間タスクのみでファインチューニングされた BERT により,メインタスクを学習するために有効な特徴を表現できていることを示している. 実験結果を表 6 に示す。ただし,提案手法の入力は引用文のみとし,節タイトル,脚注文は使用していない. これは Zhao らの手法 [15] の入力と同様である. BERT 部分のパラメータをフリーズさせても性能は維持されており,中間タスクにより学習された特徴がメインタスクにおいて有効に働いている。 ## 5 まとめ 本論文では,学術論文における URL引用を種類と目的でクラス分類する手法を提案した. 本手法では,メインタスクで使用するデータを利用し,その入力の対を用いた中間タスクを設定し導入した。そして,分類実験の結果,先行研究では性能が十分でなかった Type,Functionにおいて性能が向上しており,本手法の有効性を確認した。 今後の課題として,提案手法で性能の向上が確認できなかった Role に対する分類性能の改善に向け,複数の中間タスクを組み合わせて学習する手法を検討することがあげられる。 ## 謝辞 本研究は,一部,科学研究費補助金(基盤研究 (B))(No. 21H03773)により実施したものである. ## 参考文献 [1] Masaya Tsunokake and Shigeki Matsubara. Classification of url citations in scholarly papers for promoting utilization of research artifacts. In Proceedings of the 1st Workshop on Information Extraction from Scientific Publications (WIESP) at AACL-IJCNLP, November 2022. [2] Suchetha N. Kunnath, David Pride, Drahomira Herrmannova, and Petr Knoth. Overview of the 2021 SDP 3C citation context classification shared task. In Proceedings of the 2nd Workshop on Scholarly Document Processing, pp. 150-158, Online, June 2021. Association for Computational Linguistics. [3] David Jurgens, Srijan Kumar, Raine Hoover, Dan McFarland, and Dan Jurafsky. Citation classification for behavioral analysis of a scientific field, 2016. [4] Himanshu Maheshwari, Bhavyajeet Singh, and Vasudeva Varma. SciBERT sentence representation for citation context classification. In Proceedings of the 2nd Workshop on Scholarly Document Processing, pp. 130133, Online, June 2021. Association for Computational Linguistics. [5] Jason Phang, Thibault Févry, and Samuel R Bowman. Sentence encoders on STILTs: Supplementary training on intermediate labeled-data tasks. November 2018. [6] Ting-Yun Chang and Chi-Jen Lu. Rethinking why intermediate-task fine-tuning works. In Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 706-713, Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [7] Clifton Poth, Jonas Pfeiffer, Andreas Rücklé, and Iryna Gurevych. What to pre-train on? Efficient intermediate task selection. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 10585-10605, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [8] Yada Pruksachatkun, Jason Phang, Haokun Liu, Phu Mon Htut, Xiaoyi Zhang, Richard Yuanzhe Pang, Clara Vania, Katharina Kann, and Samuel R. Bowman. Intermediatetask transfer learning with pretrained language models: When and why does it work? In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 5231-5247, Online, July 2020. Association for Computational Linguistics. [9] Masaya Tsunokake and Shigeki Matsubara. Classification of urls citing research artifacts in scholarly documents based on distributed representations. In 2nd Workshop on Extraction and Evaluation of Knowledge Entities from Scientific Documents, 2021. [10] Yasa M. Baig, Alex X. Oesterling, Rui Xin, Haoyang Yu, Angikar Ghosal, Lesia Semenova, and Cynthia Rudin. Multitask learning for citation purpose classification. In Proceedings of the 2nd Workshop on Scholarly Document Processing, pp. 134-139, Online, June 2021. Association for Computational Linguistics. [11] Iz Beltagy, Kyle Lo, and Arman Cohan. SciBERT: A pretrained language model for scientific text. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 3615-3620, Hong Kong, China, November 2019. Association for Computational Linguistics. [12] Alex Wang and Kyunghyun Cho. BERT has a mouth, and it must speak: BERT as a Markov random field language model. In Proceedings of the Workshop on Methods for Optimizing and Evaluating Neural Language Generation, pp. 30-36, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [13] Ozan Sener and Vladlen Koltun. Multi-task learning as multi-objective optimization. In S. Bengio, H. Wallach, H. Larochelle, K. Grauman, N. Cesa-Bianchi, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 31. Curran Associates, Inc., 2018. [14] Diederik P Kingma and Jimmy Ba. Adam: A method for stochastic optimization. December 2014. [15] He Zhao, Zhunchen Luo, Chong Feng, Anqing Zheng, and Xiaopeng Liu. A context-based framework for modeling the role and function of on-line resource citations in scientific literature. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 5206-5215, Hong Kong, China, November 2019. Association for Computational Linguistics.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P1-6.pdf
# Character-level Data Augmentation on Code Mixed Sentences for Low-Resource Settings Niraj Pahari, Kazutaka Shimada Kyushu Institute of Technology nirajpahari@gmail.com shimada@ai.kyutech.ac.jp } \begin{abstract} Due to the rise in multilingual speakers and the use of social media, the occurrence of code-mixing is increasing. To understand these code-mixed data, different models require a large amount of data to train on. However, the codemixed data is not readily available. Data augmentation is commonly being used for increasing the performance of the models by generating synthetic data to train on. Most of the existing techniques on data augmentation for codemixing use large parallel corpus and/or external knowledge like POS taggers. In this paper, we study the combination of four different character-level operations to generate the augmented sentences from the source sentences while preserving the labels of the original sentences. Experiments show that this method can benefit the multilingual pretrained language models on the low-resource cases. This method can be a strong baseline for future research on this domain. \end{abstract ## 1 Introduction Whenever multilingual speakers communicate with each other, they tend to mix the structure or vocabulary from different languages. This phenomenon of mixing multiple languages during one conversation is known as codemixing or code-switching. Code-mixing can occur within the sentence (intra-sentential) or between multiple sentences (inter-sentential). The rise in the number of multilingual speakers and the rise of social media usage has increased the occurrence of code-mixing. This has increased the need for NLP models to understand the code-mixing data. However, due to the spontaneous nature of code mixing, it is difficult to collect the data, so it is mostly considered a low-resource problem [1]. Code-mixed data involve more than one language. Identifying the tokenlevel language tag is one of the fundamental tasks of this domain. In this paper, we perform a language identification task. It is a sequence labeling task. Data augmentation is the set of techniques to generate synthetic data. It can help to train better and more robust models in the case that available original data is small. Augmentation techniques are commonly used in computer vision [2] and speech [3]. However, these techniques are more challenging in NLP due to the discrete nature of language [4]. Several researchers explored different techniques for data augmentation in NLP [5], [6], [7]. These studies mostly focus on classification tasks that are different from sequence labeling tasks. Some papers presented different augmentation techniques for sequence labeling tasks [8], [9], [10]. There are previous studies on code-mixed data augmentation [11], [1]. However, most of the work has been done on classification tasks, and the techniques mostly use external knowledge. In this paper, we try to study the augmentation technique for code-mixed sentences using simple character-level operations. To create the augmented data, we use swapping, substituting, deleting, and inserting random characters from the original sentence. The labels are kept the same for augmented sentences and the original sentences. Since no external knowledge is required for these techniques, they are extremely easy to implement. ## 2 Related Work Several studies have been done on data augmentation for NLP. Kobayashi [5] studied the technique to replace the synonym from the sentence to generate the augmented sentence. Easy data augmentation (EDA) proposed by Wei and Zou [6] uses synonym replacement, random insertion, Table 1: Example of a Nepali-English sentence with augmented sentences. " $l 1$ ", " $l 2$ ", "ne", and " $O$ " denote tags for each token. The detail is explained in Section 4.1. In this example, $l 1$ stands for English, and $l 2$ stands for Nepali. The modified tokens after character-level operations are shown with bold typeface. swap, and deletion of the words from the sentences to generate their augmented counterparts. Sennrich et al. [7] proposed the back-translation method, one of the widely used data augmentation techniques. It is the procedure of translating a sentence into one language and translating it back to the original language. While this technique is common for sentence classification tasks, it is not much applicable for sequence labeling since the position of labels might change during the process. For the sequence tagging tasks, Sahin and Steedman [8] proposed the dependency tree morphing technique which was motivated by image cropping and rotation in computer vision. Ding et al. [9] used a generation approach for low-resource tagging tasks. Their approach linearizes the sentences with their labels, and a language model is learned based on the linearized sentences. The learned language model is then used to sample new sentences and is delinearized to obtain the augmented sentences with tokenlevel labels. The study by Dai and Adel [10] modifies the sentence-level tasks into sequence labeling tasks and shows an improvement in the performance for different recurrent models and transformer-based models. In the case of code-mixing, Pratapa et al. [12] used the Equivalence Constraint Theory to generate grammatically valid augmented code-mixed sentences. Gupta et al. [11] proposed an mBERT-based method to generate code-mixed sentences using the existing parallel data in two languages. Li and Murray [1] introduced a language-agnostic solution for creating synthetic data. They also use parallel corpus and POS taggers. In this paper, we study data augmentation with the combination of four different character-level operations. It is easy to implement and does not require any additional data or knowledge. ## 3 Method Data augmentation is a technique to create artificial data from real data to increase the size of the dataset. The data for our task contain code-mixed sentences from social media. Code-mixed data involve more than one language. Moreover, in social media, the occurrence of typos is also high. Therefore, it adds to the complexity of data augmentation. Furthermore, sequence tagging tasks are more susceptible to data augmentation noise since they are token-level tasks as opposed to classification tasks, which are sentence-level tasks [9]. Inspired by the work by Wei and Zou [6], based on four simple word-level operations for simple data augmentation, we perform the simple character-level operations on the available dataset and generate synthetic data. For a given sentence, we randomly perform the following character-level operations: 1. Swap the adjacent characters in the word, 2. Substitute a character in the word with a random character, 3. Delete a random character in the word, and 4. Insert a random character at a random position in the word. Table 1 shows an example of augmented sentences using the character-level operations mentioned above. The number of tokens in the source sentence and augmented sentences are the same. We assume that the augmented sentences are label-preserving. In other words, the label of each token is the same as the original sentence token. The architecture for the training is shown in Figure 1. Similar to Li and Murray [1], we employ the gradual finetuning process proposed by Xu et al. [13] for training pur- Table 2: Dataset Statistics. Figure 1: Architecture for gradual fine tuning with augmented data. "Three from one" denotes that three sentences are generated from one sentence in the original data, as the augmented data. $M_{0}$ is the initial pre-trained model. $M_{n}$ is the fine-tuned model after stage $n$. poses. The gradual fine-tuning is to apply the augmented data to the model gradually. In fine-tuning, a large size of augmented data is utilized first. Then, the size of additional data decreases step by step. $M_{0}$ is the pre-trained language model. In the first stage, we generate three augmented sentences from each sentence in the original dataset. The $M_{0}$ model is fine-tuned with these augmented data followed by the original dataset, resulting in the fine-tuned model $M_{1}$. In the next stage, we utilize two augmented sentences from each sentence in the original dataset. The $M_{1}$ model is again fine-tuned with the augmented sentences followed by the original dataset to obtain the fine-tuned model $M_{2}$. Similarly, fine-tuning is done with one augmented sentence per sentence in the original dataset. Finally, in the last stage, the model is fine-tuned with only the original dataset, which allows the model to fit better on the original dataset distribution. The final fine-tuned model $M_{4}$ is used for inferencing. Random operations from the four operations are applied to the generation of augmented sentences from each original sentence. ## 4 Experimental Settings ## 4.1 Tasks The task in this paper is a language identification task. This is a sequence labeling task where each token should be classified as the particular language label (lang1, lang2), named entity label (ne), or others label $(O)$. Correct language labels should be given to the tokens based on the language to which the token belongs. Since named entities are language-independent, we cannot identify the language label. Therefore, they are labeled as ne. If a token is emoticons or special characters, we cannot also identify the language. In a similar way to ne, the token is labeled with the " $O$ " tag. ## 4.2 Datasets In this paper, the Nepali-English [14] code mixed dataset and the Hindi-English [15] code mixed dataset are used. The Nepali-English dataset contains tweets and Facebook from public posts, whereas the Hindi-English dataset contains a corpus from Facebook pages of prominent public figures in India. Although Nepali and Hindi languages use Devanagari script for writing, these datasets only consider sentences written in Romanized form. The train, development, and test splits provided by [16] are used. The statistics of the dataset are shown in Table 2. ## 4.3 Experimental Setup The experiments are conducted using two multilingual transformer-based language models: mBERT [17] and XLM-R[18]. The experimental models are implemented using Pytorch libraries ${ }^{1)}$. Huggingface models ${ }^{2)}$ are used to load the pre-trained models. AdamW [19] optimizer with the learning rate of $5 e^{-5}$ is used. TextAttack [20] library is used to generate the augmented sentences. For the gradual fine-tuning, 4 stages explained in Section 3 with 10 epochs per stage are run. Due to the imbalance in label distribution, the weighted F1 score is used as the evaluation metric. ## 5 Results We compare four types of original dataset sizes: $25 \%$, $50 \%, 75 \%$, and $100 \%$ used from the original data. We also compare the models with our data augmentation and with-  (a) Language identification with mBERT (b) Language identification with XLM-R Figure 2: Performance of gradual fine-tuning with data augmentation for mBERT and XLM-R. out the augmentation method. Figure 2 shows the performance of our data augmentation method compared with the case where data augmentation is not used ${ }^{3)}$. The data augmentation method improved the results for both mBERT and XLM-R, especially in low-resource settings such as $25 \%$. For both datasets, the tendency of the performance is similar. The difference in the performance was significant when the data use was very less. For the Nepali-English dataset, mBERT and XLM-R obtained performance gains of 1.41 and 1.26, respectively, in the $25 \%$ data. Similarly, for the Hindi-English dataset, mBERT and XLM-R obtained performance gains of 2.24 and 10.82, respectively, in the $25 \%$ data. It can also be seen that mBERT performs better than XLM-R in a very low-resource case. For both mBERT and XLM-R, the difference in the F1-scores "with" and "without" augmentation tends to be larger in Hindi-English than in Nepali-English. For example, in the $25 \%$ settings of XLM-R, while the F1-scores are 91.36 and 89.95 (the red circle and square) for Nepali-English, those are 86.3 and 75.48 (the yellow circle and square) for Hindi-English. It is caused by the number of instances  of the datasets. For the $25 \%$ setting, while the number of instances for Hindi-English was 1206, that for NepaliEnglish was 2113. This result shows that our augmentation is effective in the case that the size of the dataset is small. ## 6 Conclusion In this work, we study the character-level operations for generating augmented sentences for a code-mixing domain. We experimented with the augmentation techniques on different low-resource settings with mBERT and XLM$\mathrm{R}$ pre-trained models. From the results of the experiments, we show that this easy method can improve the low-resource cases for code-mixing sentences. For the extremely low-resource case for XLM-R, it can boost the performance by 10.82 for the Hindi-English code-mixing dataset in the case that only 1206 sentences were used. This technique becomes a strong baseline for future studies on different augmentation techniques in this domain. ## References [1] Shuyue Stella Li and Kenton Murray. Language agnostic code-mixing data augmentation by predicting linguistic patterns. arXiv preprint arXiv:2211.07628, 2022. [2] Connor Shorten and Taghi M Khoshgoftaar. A survey on image data augmentation for deep learning. Journal of Big Data, Vol. 6, No. 1, pp. 1-48, 2019. [3] Aggelina Chatziagapi, Georgios Paraskevopoulos, Dimitris Sgouropoulos, Georgios Pantazopoulos, Malvina Nikandrou, Theodoros Giannakopoulos, Athanasios Katsamanis, Alexandros Potamianos, and Shrikanth Narayanan. Data augmentation using gans for speech emotion recognition. In Interspeech, pp. 171-175, 2019. [4] Steven Y Feng, Varun Gangal, Jason Wei, Sarath Chandar, Soroush Vosoughi, Teruko Mitamura, and Eduard Hovy. A survey of data augmentation approaches for nlp. In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 968-988, 2021. [5] Sosuke Kobayashi. Contextual augmentation: Data augmentation by words with paradigmatic relations. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), pp. 452-457, 2018. [6] Jason Wei and Kai Zou. Eda: Easy data augmentation techniques for boosting performance on text classification tasks. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 63826388, 2019. [7] Rico Sennrich, Barry Haddow, and Alexandra Birch. Improving neural machine translation models with monolingual data. In Proceedings of the 54th Annual Meet- ing of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 86-96, 2016. [8] Gözde Gül Şahin and Mark Steedman. Data augmentation via dependency tree morphing for low-resource languages. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 50045009, 2018. [9] Bosheng Ding, Linlin Liu, Lidong Bing, Canasai Kruengkrai, Thien Hai Nguyen, Shafiq Joty, Luo Si, and Chunyan Miao. Daga: Data augmentation with a generation approach for low-resource tagging tasks. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6045-6057, 2020. [10] Xiang Dai and Heike Adel. An analysis of simple data augmentation for named entity recognition. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 3861-3867, 2020. [11] Abhirut Gupta, Aditya Vavre, and Sunita Sarawagi. Training data augmentation for code-mixed translation. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 5760-5766, 2021. [12] Adithya Pratapa, Gayatri Bhat, Monojit Choudhury, Sunayana Sitaram, Sandipan Dandapat, and Kalika Bali. Language modeling for code-mixing: The role of linguistic theory based synthetic data. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1543-1553, 2018 [13] Haoran Xu, Seth Ebner, Mahsa Yarmohammadi, Aaron Steven White, Benjamin Van Durme, and Kenton Murray. Gradual fine-tuning for low-resource domain adaptation. In Proceedings of the Second Workshop on Domain Adaptation for NLP, pp. 214-221, 2021. [14] Thamar Solorio, Elizabeth Blair, Suraj Maharjan, Steven Bethard, Mona Diab, Mahmoud Ghoneim, Abdelati Hawwari, Fahad AlGhamdi, Julia Hirschberg, Alison Chang, and Pascale Fung. Overview for the first shared task on language identification in code-switched data. In Proceedings of the First Workshop on Computational Approaches to Code Switching, pp. 62-72, Doha, Qatar, October 2014. Association for Computational Linguistics. [15] Deepthi Mave, Suraj Maharjan, and Thamar Solorio. Language identification and analysis of code-switched social media text. In Proceedings of the Third Workshop on Computational Approaches to Linguistic CodeSwitching, pp. 51-61, Melbourne, Australia, July 2018. Association for Computational Linguistics. [16] Gustavo Aguilar, Sudipta Kar, and Thamar Solorio. LinCE: A Centralized Benchmark for Linguistic Codeswitching Evaluation. In Proceedings of The 12th Language Resources and Evaluation Conference, pp. 1803-1813, Marseille, France, May 2020. European Language Resources Association. [17] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [18] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Édouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised cross-lingual representation learning at scale. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8440-8451, 2020. [19] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In International Conference on Learning Representations, 2018. [20] John Morris, Eli Lifland, Jin Yong Yoo, Jake Grigsby, Di Jin, and Yanjun Qi. Textattack: A framework for adversarial attacks, data augmentation, and adversarial training in nlp. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 119-126, 2020.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P1-7.pdf
# BERT を用いた多言語同時学習による疾患分類 朱晨成 Niraj Pahari 嶋田和孝 九州工業大学大学院 zhu. chencheng822@mail.kyutech.jp nirajpahari@gmail.com shimada@ai.kyutech.ac.jp ## 概要 電子カルテが紙ベースの医療記録に代わって使用されるようになり,医療分野における自然言語処理技術の応用が注目されている. しかし,英語以外の言語における関連する分野のデータセットは依然として少ない、マルチタスク学習は,データ不足の問題を緩和できるアプローチであることが示されている. 本研究では,BERT に基づく多言語の同時学習モデル(MTL)を構築し,NTCIR-13 MedWeb マルチラベルの疾患分類タスクで精度評価を行う.シングルタスク学習(STL)と比較した結果,MTL モデルは場合によって STL モデルを上回ることが判明した.また,アブレーションテストによって類似性が高い言語のバイリンガル MTL モデルにおける精度の向上を確認した. ## 1 はじめに 医療分野でのデジタル化の進展に伴い,電子形式の医療記録(EHR)が推進されている。それにより大量のテキストデータが発生し,医療における自然言語処理の研究にも注目が集まっている [1]. しかし,そのドメインの特異性から,専門家によるアノテーションが必要で時間と人件費のコストが大きく,患者のプライバシーに配慮して非公開にされるデータセットも多い [2]. したがって医療ドメインではアノテーションされた学習用コーパスの不足が続いている. 特に英語以外の言語で書かれたデータではこの傾向が強く, 関連研究の進展が遅い。このような言語資源のアンバランスは,多言語環境に適した技術によって克服することができる. さらに,同じタスクであれば言語を超えた共通の特徵が存在する可能性もある.異なる言語の医学文章を解析することで,語の曖昧性(コロナと COVID-19など) が解消され, 各国の希少疾病の研究などの発展に貢献すると考えられる。 マルチタスク学習は,機械学習の様々な分野で利用されている [3]. 自然言語処理の研究においては,少量のラベル付きデータセットを処理し,関連するタスク間の表現を学習するためによく用いられている $[4,5]$. 医療分野では,固有表現抽出や関係抽出などのタスクにマルチタスク学習を適用する研究が盛んに行われている $[6,7,8]$. 多言語を用いた研究においては,マルチタスク学習は主に対訳問題の解決に用いられている $[9,10]$. 本研究では,英語・日本語・中国語の 3 つの言語の医療分野におけるマルチラベル分類タスクに対して,BERT に基づくマルチタスク学習のフレームワークを流用し,同時に学習するモデルを提案する (以降 MTL と呼ぶ)。その性能をシングルタスク学習 (STL) との比較する。また,多言語 MTL モデルにおける言語類似度の影響を調べるために,アブレーションテストも行う. ## 2 関連研究 マルチタスク学習は転移学習の一種である. 関連する複数のタスクから有用な情報を共有することで,1 つのタスクのみを学習させるよりもより良い結果を得られ,モデルの汎化性能も高められる [11]. Ruder [3] は,一般的に用いられているマルチタスク学習法をハードパラメータシェアとソフトパラメータシェアの 2 種類に分類した。 ハードパラメータシェアでは,複数のタスク間でモデルの重みを共有するが,各タスクの固有出力層を残す。これに対して,ソフトパラメータシェアではタスクごとにそれぞれ独立したモデルと重みを持つ。学習の時,タスク独自の重みを更新する際に,お互いの損失シグナルを重み付けながら導入できる [12]. 医療分野では,マルチタスク学習が様々なタスクで幅広く活用されている. Joshi ら [13] は,BiLSTM に基づくマルチタスク学習モデルを構築し,ツイー 卜文を対象に 3 つの医療関連の分類タスクを行い, STLより良い結果を得た. Hartmann ら [14] は, 英語,スペイン語,フランス語のデータセットを処理するために mBERT をべースとして,ハードパラメータシェアによって多言語のマルチタスク学習モデルを構築した. タスクには,製品レビューの否定範囲解析, 生物医学テキストの否定範囲解析, 症状の有無判断が含まれる. また, このモデルの多言語への汎化能力を評価し, 臨床テキストにおけるゼロショットの否定範囲解析が可能であることを示した. ## 3 データセット 本研究では,多言語テキスト分類タスクにおける MTL フレームワークの性能を調べるため, NTCIR-13 医学自然言語処理 Web 文書 (MedWeb) [15]を用いる. MedWeb は,人手で作成された疑似ツイート文からなるデータセットである.作成されたツイートの原文は日本語で,著者たちがそれを英語と中国語に翻訳し,マルチリンガルのデータセットを作成した. ツイート一文に対して,インフルエンザ,下痢,花粉症,咳,頭痛,発熱,鼻水,風邪の 8 つのラベルが付与される. 表 1 に各言語の疑似ツイートとそのラベルの例を示す. 各疾患・症状には陽性(positive)と陰性(negative)の状態が割り当てられ,それぞれ $\mathrm{p}$ と $\mathrm{n}$ で示される. 1 つの疑似ツイートは複数の症状を表現している可能性があるため,複数のラベルにポジティブなステータスが付与される場合がある. 本研究ではこれら 8 つのラベルを同時に分類するマルチラベルタスクに取り組む. ## 4 手法 本研究では,BERTをベースモデルとして,医療分野におけるマルチラベル分類の STL モデル, 及び MTL モデルを構築する。 ## 4.1 STL モデル STL をべースラインとして,各言語のデータセッ卜に対して,BERT モデルの様々なバリアントを用いて,その言語独自の分類タスクを実行する. 使用する BERT バリアントは, 5.1 節で説明する。 ## 4.2 MTL モデル ソフトパラメータシェアで MTL モデルを構築する. 本研究では,BERT モデルに基づき,その 12 層の Transformer 隠れ層を分解する. 大きく分け るとボトム層,中間層,トップ層である。一般に, Transformer のボトム層は最も線形な語順情報を持ち [16],中間層は主に依存関係を捉え [17],タスク間の転移能力が最も強く[18],トップ層はタスク固有の特徴を学習している [19]. 図 1 に本研究で使用する MTL モデルの概要図を示す.フリーズ層(Freeze)は,重みを更新しない層である. 共有層(Share)では,3つのモデルのパラメータを互いに共有し,3つのタスクに応じた重みの更新を行う,固有層(Individual)は,各言語のデータセットに固有の特徴を学習し,その重みは対応言語自身の分類タスクに応じて更新される. 我々の別の研究において F-S-I の組み合わせが最も効率的であることが示されているため [20], 本研究でもこの設定を採用する.BERT のボトム層をフリーズ層,中間層を共有層,トップ層を固有層とする.最後に, 12 層の Transformer の上に線形層を追加して,各言語のマルチラベル分類を行う. ## 5 実験 ## 5.1 実験設定 BERT バリアント各言語に対して多言語事前学習モデルと言語独自のモノリンガル BERTを用いる。なお, 多言語事前学習モデルは, mBERT [21] と LaBSE [22]を使用する。言語独自のモノリンガル BERT について英語データセットでは bert-base-uncased ${ }^{1)}$ を,日本語データセットでは東北大学で開発された cl-tohoku/bert-base-japanesewhole-word-masking ${ }^{2}$ を,中国語データセットでは bert-base-chinese ${ }^{3)}$ を使用する。 STL モデル各言語に対して Single $e_{m B e r t}$, Single $_{\text {LaBSE }}$, Single mono の 3 つの STL モデルを用いる. 下付き文字の mBERT, LaBSE と mono は各言語のデータセットで利用する BERT バリアントを示している. MTL モデル図 1 に示すように MultimBert , 築する.また,各 MTL モデルで F-S-I それぞれの層数を変化させ,最適なコンビネーションを探る. 初期の組み合わせは 4-4-4(フリーズ層は L1-4, 共有層は L5-8, 固有層は L9-12). さらに,1-7-4 と 1-4-7  表 1 各言語の疑似ツイートとそのラベルの付け方の例。 & Cough & Headache & Fever & & Cold \\ 日本語分類器 mbert/LaBSE/BERT ja Transformer 12 † ... $\uparrow$ $\uparrow$ Transformer $n+1$ Transformer $n$ $\uparrow$ Transformer $m+1$ $\uparrow$ Transformer $m$ Transformer 1 日本語データセット ## 中国語分類器 mbert/LaBSE/BERTzh 中国語データセット 図 1 MTL モデルの概要図. の組み合わせが最も有効的であることが示されているため [20],計三つの組み合わせで実験を行う. BERT の実装最適化アルゴリズムに AdamW, 学習率は Transformer 層を 5e-5, 線形層を 5e-3 とし,損失関数には Binary Cross Entropy を用いた. Epoch 数は 10,過学習抑制のために EarlyStopping を用いた。各言語について,トレーニングには 1920 文,テストには 640 文を使用する。評価指標は文中の 8 つのラベルがすべて正しく分類されている場合のみを正解とし,精度の計算を行う。 ## 5.2 実験結果 ## 最適な BERT バリアントとレイヤー数の組合せ表 2 に F-S-Iレイヤー数の組み合わせが異なる場合の 3 つの MTL モデルの精度を示す. 左端の列の 数字は,実験設置のフリーズ層,共有層,固有層 の数を示す.太字は各言語での最高精度を意味す る。*は各モデルでの各言語の最高精度を意味する。 LaBSE を用いた MTL モデルで,3つの言語に対し て平均的に良い結果が得られた。また,1-7-4 層の 設定では,すべての BERT バリアントに対して,過半数の言語で最も良い精度であることがわかった. この結果は [20] と同様であり,各言語において固有表 2 異なる F-S-Iレイヤー数の組み合わせにおける 3 つ の MTL モデルの予測の完全一致精度. 層が重要であることが示されている. STL との比較表 2 から 1-7-4 層の設定が MTL モデルに最適な組み合わせであると考えられるため,この設定の各 MTL モデルを用いて STL モデルとの比較を行う。その結果を表 3 に示す.太字は各言語での最高精度を意味する。まず,同じ BERT 表 3 MTL と STL の予測の完全一致精度比較. $\Delta$ は同じ BERT バリアントを用いた MTL モデルと STL モデルの分類精度の平均差を示す $\Delta_{\text {mono }}$ は全ての MTL モデルと Single mono の分類精度の平均差を示す て,言語間の分類精度の平均差を互いに比較する ( $\Delta$ ). 全体として,STLよりも MTLの方が優れているが,その効果は必ずしも大きくはなかった. 次に,全ての MTL モデルをSTL モデルで最も精度 LaBSE を用いた MTL モデルのみ Single mono よりもわずかに精度が向上している。なお,この精度は臨床医学テキストで事前学習した BERT モデルを用いた NTCIR-13 MedWeb タスクの日本語データセットでの予測精度を上回る結果となった [23]. まとめると,提案手法(MTL)は各言語でチュー ニングされた最適なモデルに対していつも高い精度が得られるとは限らない(例えば Multi LaBSE Transformer のパラメータがより多くのノイズを生成するため,MTLがその能力を発揮できないことが原因であると考えられる。しかし,複数を組み合わせて同時に学習するメリットも明らかになった。 ## 5.3 アブレーションテスト Conneau ら [24] の研究では,言語間の類似性が mBERT,XML などの多言語事前学習モデルの cross-lingual transfer 能力に影響し, 類似性の高い言語ほどタスクの精度が高くなることが示されている.そこで本研究では, 言語間の類似性の影響を調査するため, 3 言語内の 1 つを除いてバイリンガル MTL モデルを作成し,アブレーションテストを行った. 言語学的に見ると英語と中国語は文法構造が似ており,日本語と中国語は表層形が似ている。また,英語と日本語の類似性はこの組み合わせの中で表 4 バイリンガル MTL の予測の完全一致精度. は最も低いと考えられる。英語-中国語,日本語-中国語,英語-日本語の 3 つのペアでテストを行う。その結果を表 4 に示す. without ja と without zh の組み合わせもテストを行ったが,精度の向上が見られなかったため,スペースの関係上割愛する。日本語-中国語ペアはテストを行なった全てのグループの中で最も良い精度が得られた. その平均精度は, 3 言語を用いた MTL よりも優れている $(\Delta)$. また,ベー スラインで最も性能が良かった Single mono と比較してもわずかに優れていた $\left(\Delta_{\text {mono }}\right)$. 加えて, LaBSE を用いたバイリンガル MTL モデルは,日本語において全ての実験の中で最も高い精度を示した.言語間の相関の度合い,特に表層形の類似度が,多言語 MTL モデルの性能に影響を与えることがわかる. ## 6 まとめ 本研究では, 多言語医療関連マルチラベル分類タスクに対して,Transformer に基づくソフトパラメータシェアアプローチによる MTL モデルを構築した. MTL モデルは全体的に STL モデルより優れているが,言語や組み合わせによっては各言語独自の BERT モデルの精度を上回るには至らない場合もあった. また,アブレーションテストを行い,日本語の分類タスクと中国語の分類タスクのみからなるバイリンガル MTL モデルが最も良い結果を得られた.この結果により,言語間の表層形の類似性が多言語の MTL モデルの性能に影響を与えることが示された。 今回英語, 日本語, 中国語の 3 言語のみ用いた.今後はスペイン語やフランス語など,英語の表層形に類似度高い言語のデータセットも取り込みたい。 ## 参考文献 [1] Eiji Aramaki, Shoko Wakamiya, Shuntaro Yada, and Yuta Nakamura. Natural language processing: from bedside to everywhere. Yearbook of Medical Informatics, 2022. [2] Shuntaro Yada, Yuta Nakamura, Shoko Wakamiya, and Eiji Aramaki. Real-mednlp: Overview of real document-based medical natural language processing task. In Proceedings of the 16th NTCIR Conference on Evaluation of Information Access Technologies, pp. 285-296, 2022. [3] Sebastian Ruder. An overview of multi-task learning in deep neural networks. arXiv preprint arXiv:1706.05098, 2017. [4] Pengfei Liu, Xipeng Qiu, and Xuanjing Huang. Adversarial multi-task learning for text classification. arXiv preprint arXiv:1704.05742, 2017. [5] Anders Søgaard and Yoav Goldberg. Deep multi-task learning with low level tasks supervised at lower layers. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 231-235, 2016. [6] Shweta Yadav, Srivatsa Ramesh, Sriparna Saha, and Asif Ekbal. Relation extraction from biomedical and clinical text: Unified multitask learning framework. IEEE/ACM Transactions on Computational Biology and Bioinformatics, Vol. 19, No. 2, pp. 1105-1116, 2020. [7] Andriy Mulyar, Ozlem Uzuner, and Bridget McInnes. Mtclinical bert: scaling clinical information extraction with multitask learning. Journal of the American Medical Informatics Association, Vol. 28, No. 10, pp. 21082115, 2021. [8] Zhaoying Chai, Han Jin, Shenghui Shi, Siyan Zhan, Lin Zhuo, and Yu Yang. Hierarchical shared transfer learning for biomedical named entity recognition. BMC bioinformatics, Vol. 23, No. 1, pp. 1-14, 2022. [9] Daxiang Dong, Hua Wu, Wei He, Dianhai Yu, and Haifeng Wang. Multi-task learning for multiple language translation. In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 1723-1732, 2015. [10] Yiren Wang, ChengXiang Zhai, and Hany Hassan Awadalla. Multi-task learning for multilingual neural machine translation. arXiv preprint arXiv:2010.02523, 2020. [11] Yu Zhang and Qiang Yang. A survey on multi-task learning. IEEE Transactions on Knowledge and Data Engineering, 2021. [12] Michael Crawshaw. Multi-task learning with deep neural networks: A survey. arXiv preprint arXiv:2009.09796, 2020. [13] Aditya Joshi, Sarvnaz Karimi, Ross Sparks, Cécile Paris, and $C$ Raina MacIntyre. Does multi-task learning always help?: An evaluation on health informatics. In Proceedings of the the 17th annual workshop of the Australasian language technology association, pp. 151158, 2019 . [14] Mareike Hartmann and Anders Søgaard. Multilingual negation scope resolution for clinical text. In Proceedings of the 12th International Workshop on Health Text Mining and Information Analysis, pp. 7-18, 2021. [15] Shoko Wakamiya, Mizuki Morita, Yoshinobu Kano, Tomoko Ohkuma, and Eiji Aramaki. Overview of the ntcir-13: Medweb task. In NTCIR, 2017. [16] Yongjie Lin, Yi Chern Tan, and Robert Frank. Open sesame: getting inside bert's linguistic knowledge. arXiv preprint arXiv:1906.01698, 2019. [17] Jesse Vig and Yonatan Belinkov. Analyzing the structure of attention in a transformer language model. arXiv preprint arXiv:1906.04284, 2019. [18] Anna Rogers, Olga Kovaleva, and Anna Rumshisky. A primer in bertology: What we know about how bert works. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 842-866, 2020. [19] Yaru Hao, Li Dong, Furu Wei, and Ke Xu. Visualizing and understanding the effectiveness of bert. arXiv preprint arXiv:1908.05620, 2019. [20] Niraj Pahari and Kazutaka Shimada. Multi-task learning using bert with soft parameter sharing between layers. In 2022 Joint 12th International Conference on Soft Computing and Intelligent Systems and 23rd International Symposium on Advanced Intelligent Systems, pp. 1-6, 2022. [21] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018. [22] Fangxiaoyu Feng, Yinfei Yang, Daniel Cer, Naveen Arivazhagan, and Wei Wang. Language-agnostic bert sentence embedding. arXiv preprint arXiv:2007.01852, 2020. [23] Yoshimasa Kawazoe, Daisaku Shibata, Emiko Shinohara, Eiji Aramaki, and Kazuhiko Ohe. A clinical specific bert developed using a huge japanese clinical text corpus. Plos one, Vol. 16, No. 11, p. e0259763, 2021. [24] Alexis Conneau, Shijie Wu, Haoran Li, Luke Zettlemoyer, and Veselin Stoyanov. Emerging cross-lingual structure in pretrained language models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 6022-6034, Online, July 2020. Association for Computational Linguistics.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P1-8.pdf
# 介護事例データベースを用いた介護支援提示モデルの構築 結城 政宗 ${ }^{1}$ 中島陽子 ${ }^{1}$ 本間宏利 ${ }^{1} \quad$ M. Ptaszynski $^{2}$ 桝井文人 ${ }^{2}$ 秋葉友良 ${ }^{3}$ 1 釧路工業高等専門学校 創造工学科 2 北見工業大学 地域未来デザイン工学科 3 豊橋技術科学大学 情報・知能工学系 \{yoko, honma\}@kushiro-ct.ac.jp ## 概要 認知症グループホームの抱える大きな問題の一つに介護職員の離職率の高さがある.特に,新人介護職員の離職を防止し,介護の質保証と向上に向けて取り組むことが喫緊の課題となっている。この問題に対処する方法として,先行研究で介護事例データベースを活用した適切な「対応方法」の提示を試みてきた. 介護事例データベースとは,「利用者 $\mathrm{id}\lrcorner , 「$ 困りごと」,「対応方法」の組で構成されるデータベースである。しかしながら,先行研究では未知の困りごとに対しては,適切な対応方法を提示できないという問題点があった. そこで,本研究では未知(介護事例データベースに未登録)の困りごとに対して適切な対応方法の候補を提示可能な介護支援提示システムの実現を目的とした. ## 1 研究背景 令和元年版高齢社会白書によると,現在の日本は高齢化率は約 $28 \%$ という超少子高齢社会であり,2050 年には高齢化率は約 $40 \%$ になると試算されている.このような状況下で,近年,認知症高齢者を支援する地域密着型サービスである認知症高齢者グループホーム (以下,認知症 GH) が急増している. 国内の認知症施策で,2015 年に「認知症施策推進総合戦略」が策定され,認知症 GH の存在は重要かつ必要不可欠なサービスとなっている. 認知症 GH の抱える大きな問題の一つに介護職員の離職率の高さがある。2017 年の介護職員の離職率は 16.7\%(介護労働安定センター調べ)であり,他業種と比較して高い数値となっている。また,認知症 $\mathrm{GH}$ の離職者の約 4 割が入職 1 年末満の介護職員であり, これは他の介護施設での場合より高い. 新人介護職員の離職を防止し,介護の質保証と向上に向けて取り組むことが喫緊の課題となっている。近年,運営形態,サービスの質,職員教育など様々な視点から,介護施設現場に伏在する問題の調查とそれらの改善案に関する研究が数多く行われている. しかしながら,介護施設現場からは介護サービス受給者の多様性に即時対応可能な,具体的解決策の提示支援が強く望まれている。 本研究は, 認知症グループホームが所有する介護資料を利用して,介護事例データベースを構築し,自然言語処理や機械学習などの人工知能技術を応用して,様々な介護事例に対して,効果的な介護対応手段を提示する介護コミュニケーション支援システムの開発を目指す. 本システムの実現によって,認知症グループホームの介護業務の円滑化,業務負担の軽減化,および,介護職員の離職率の低減など,現状の問題解決に貢献できると考えている. ## 2 本研究の目的 介護施設における介護業務は年々複雑化しており,特に勤務年数が短く経験が少ない職員は,利用者の困りごとへの対応に苦慮することが多い. 現在の介護支援施設では「困りごと」が生じた時に,介護従事者の経験に基づく適切と思える「対応方法」を用いて対応・解決している。そこには「適切な対応方法の適切さの判断が難しい」という問題が絶えず存在している.そこで,経験に基づいた対応方法を提案することが重要と考え,「利用者 id」,「困りごと」,「対応方法」の組で構成される介護事例データベースを構築し,未知の困りごとを入力すると,その困り事と類似している文を抽出しそれらの対応方法を提示する手法を提案する. 予備実験において、困りごと文の類似文抽出と対応方法提示において Tf-IDF,BERTscore,SentenceBERTを用いて実験を試みたところ SentenceBERT が最も精度が高いことが確認できた。しかし,介護事例データベー スのデータが少なかったため,未知データ(介護事例 データベースに未登録)を入力した際に類似した困りごとが抽出できないという問題が生じた. そこで,本研究では,新たに介護施設の議事録から介護事例を抽出し介護事例データベースへ追加し, SentenceBERT を用いた対応方法の提示,さらに,利用者への対応の見極めに必要な,性格などを考慮するために,新たに,個人属性データベースを構築し,個人属性を考慮した対応方法の提示を試みる。 ## 3 システムの概要 本システムは,介護事例データベースと個人属性データベースを備え,入力は「困りごと」とその困りごとその事象をかかえた施設利用者(認知症患者)の 「個人属性」とし,出力は困りごとに対応するための 「対応方法候補文」とする.対応方法候補文は介護職員が適宜選択できる. 新たに構築した個人属性データベースについて説明する。本データベースは利用者のデータ(個人属性データ)を「性別」,「生年」,「職業」,「趣味」,「性格」 に基づいていくつかのグループに分類し,ラベルを付与した.これらのラベルの選定は,介護施設職員から個人の特性が現れる項目を聴取したものによる。個人属性データベースの例を表 1 に示す。 個人属性の各項目の種類は,「生年」においては厚生労働省の介護保険施設の利用者の状況 ${ }^{1}$ ,「職業」は総務省の日本標準職業分類 ${ }^{2}$, 趣味」は令和 3 年社会生活基本調査生活時間及び生活行動に関する結果,「性格」 は堀毛らの研究 [7] に基づいてラベリングを行った. これらの項目を特徴ベクトルとし,個人属性のクラスタリングを行う. クラスタリングには k-means 法を用いる。 個人属性クラスタリングは,個人属性データを入力し,それと類似する属性を有する利用者 idを取得する。図 1 に本介護支援提示システムのイメージを示す. ## 3.1 提案手法 個人属性を考慮した困りごとに対する対応方法候補を提示する手順を以下に示す。  図 1: 介護支援提示システムイメージ 1. 個人属性データベース内の「個人属性」に入力した「個人属性」を追加し,クラスタリングを行う.類似している「利用者 id」を導出する。 2. 介護事例データベースの中から類似性の高い「利用者 id」を持つデータを検索する。 3. 入力の「困りごと」文と検索したデータ内の「困りごと」文を SentenceBERT を用いてべクトル化する. 4. 入力の「困りごと」文と類似する「困りごと」文を抽出する。ここで,個人属性を考慮する場合は,類似性の高いクラスタから類似文を抽出する。 5. 類似する「困りごと」と対になっている「対応方法」を提示する。 ## 3.2 困りごと類似文の抽出 「困りごと」の類似事例の抽出には,本研究では文章のベクトル化に sonoisa/Sentence-BERT ${ }^{3}$ ,文章間の類似度の指標にはコサイン類似度を用いた。 SentenceBERT[8] は事前学習された BERT モデルに加え,Siamese Network という手法を用い,一般的な BERT よりも高精度で文章ベクトルの生成する。類似文は,提示方法を選択する際に選択に困らない数を考慮し上位 6 位を採用する。 ## 3.3 対応方法提示 対応方法提示の具体例を図 2 を例に示す. 対応方法は, 抽出した困りごとの類似文と対である対応方法を対応方法候補として提示する.例えば,「車いすの方を勝手に椅子に移乗してしまう」という困りごとを入力すると,介護事例データベースから「勝手に車いすか ^{3}$ https://huggingface.co/sonoisa/sentence-bert-base-jamean-tokens-v2 } 表 1: 個人属性データベース ら移乗してしまう」,「車いす、椅子からの立ち上がりが増え、転倒の危険がある」や「車いすからソファー に自分で移動しようとする」というような類似文が抽出される。 介護事例データベースから,それらの類似文と対をなしている対応方法,「見守り強化」,「見守りを強化する」や「見守り強化,移乗の際は介助行う」 を出力する。 図 2: 対応方法提示イメージ ## 4 評価実験 個人属性クラスタリングと対応方法提示モデルを実装し実験を行なった. それぞれについて実験設定と結果を示す. ## 4.1 個人属性クラスタリング実験 個人属性クラスタリングは,介護施設から提供された 37 名のデータを用いる. 各項目をべクトル化し 2 種類の方法で実験を行なった。一つ目は,ワンホットベクトルを採用した場合,二つ目は介護職員がどの項目を重視したいか重みを考慮したべクトルとした場合である. それぞれの結果の例を図 3 と 4 に示す. 図 3 の結果では,クラスタリングが成功しているように見えるが、下方に生年ラベルが 4(90 歳以上)のデータが集中している. 従って, 性格や趣味など種類が多いものは疎になり,生年や性別のような種類が少ないものが優勢になることがわかる. 図 4 の結果では,性格を重視したい場合の例である.生年と趣味に 2 , 性格に 3 の重さを掛けて実験を行っ 図 3: 個人属性クラスタリング実験 1 図 4: 個人属性クラスタリング実験 2 た. 上方に性格ラベルが 4 (社交型) のデータが集まっており,性格を最重要視したクラスタリング結果である.どの項目を重視した対応方法候補を望むかで,必要に応じて重みの変更可能であることがわかる. ## 4.2 対応方法提示実験 次に,対応方法候補提示の評価実験について説明する. 介護事例データベースのデータ全 881 個のうち, トレーニングデータは 866 個,テストデータは個人属性が影響していると考えられる困りごとデータを 15 個を用いて実験を行う.上位 6 位までの類似困りごと文を用いて, 対応方法候補を 6 個出力する. また, 個人属性の有用性を確かめるために, 個人属性クラスタリ ング機構の有無で比較実験を行う。それぞれ 90 個ずつの全 180 文の対応方法候補文を評価した. 評価方法は,1:「対応方法として適していない」, 2 :対応方法としては適しているがその利用者の個人属性には適していない「正解」および 3 :対応方法として適しておりかつ利用者の個人属性にも適している「最適」の 3 段階評価を行った。 実験結果を表 2 に示す. ただし正解率は「正解」と 「最適」の出現率, 最適率は「最適」の出現率とする. 個人属性を考慮しない場合の正解率は $58.9 \%$, 最適率は $25.6 \%$, 個人属性を考慮した場合の正解率は $48.9 \%$ 最適率は $15.6 \%$ であった. 個人属性を考慮した場合,個人属性を考慮しない場合と比較して精度が低い. 原因の一つとして, 個人属性を考慮するには介護事例デー タベース内のデータ数の不足が挙げられる。 表 2: 類似文抽出実験 ## 5 考察 本システムでは個人属性クラスタリングで出力した結果を類似文抽出で用いるため, システムの不具合や改善点を見つけるのが非常に難しい,最も影響していると考える, 介護事例データベース内のデータ数の不足について考察する. 表 3 は困りごと「入浴拒否がある」に対して個人属性を考慮した場合と考慮しない場合に出力された対応方法候補文でる. 個人属性クラスタリングを利用していない場合に比べて, 利用した場合の候補には「好きな飲み物、飲める物、水分ゼリー 等を検討」など,「入浴拒否がある」とは関係のない対応方法が出力されている. これは介護事例データベー ス内に「入浴拒否がある」に似た「困りごと」は存在するが, 個人属性の絞り込みによって類似した「困りごと」が除外されたことが考えられる。一方,同じ個人属性に類似した困りごとがある場合は,本手法は有効であることは確認できている。従って,介護事例デー タベースのデータ数を増加することは個人属性クラスタリングを含め本システム全体の精度向上につながると考える。 ## 6 おわりに 本研究では, 介護事例データベースへのデータ追加および個人属性データベースの構築と個人属性を考慮するための個人属性クラスタリングと困りごとの類似文を抽出し対応方法候補を提示する介護方法提示モデルの構築を行なった.未知の困りごとに対しても適切な対応方法の候補を提示することはできたものの,個人属性を考慮すると精度が低くなってしまうことが明らかになった.今後は,自動的に介護事例データベー スにデータを追加する機能を追加し,実際に認知症 $\mathrm{GH}$ で働く介護職員の方々に本システムの一部を評価して頂き,より需要にあっているシステムへと改善しようと考えている。 ## 参考文献 [1] 古村美津代, 他, “認知症高齢者グループホームにおける新人介護従事者が抱える困難,” 日本認知症ケア学会誌, vol.17, no.3, pp.583-593, 2018. [2] 山口晴保, 他, “認知症グループホームにおけるグループホームケアの効果研究," 認知症ケア研究誌, vol.2, pp.103-115, 2018. [3] 藤井容子, 他, “高齢者や障がい者が共に暮らす共生型グループホームの実践的研究," 住総研研究論文集, vol.42, pp.37-48, 2015. [4] 中川孝子, 他, “認知症高齢者グループホームにおける「その人らしさを尊重したケア」の実態と影響要因,”弘前医学, vol.69, pp.57-65, 2019. [5] 河野由美子, 他, “認知症グループホームの管理者の介護職への人材育成に対する意識,”日本住宅ケア学会誌, vol.22, pp.105-112, 2018. [6] 加藤龍兵, 中島陽子, “自然言語処理を用いた介護コミュニケーション支援システムの開発,”釧路高専卒業研究, 2020. [7] 堀毛一也, 他, “施設介護職員による認知症高齢者の性格・感情認知とケア・対処方略の関連,”現代行動科学会, vol.22, pp.9-23, 2006. [8] Reimers N.; and Gurevych I., " Sentencebert: Sentence embeddings using siamese bertnetworks,' arXiv:1908.10084., 2019. 表 3: 困りごと「入浴拒否がある」の類似対応方法候補文
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P1-9.pdf
# 事前学習済みモデルに基づく検索モデルにおける ドメイン適応手法の比較と相乗効果の検証 飯田大貴 1,2 岡崎直観 1 1 東京工業大学 2 株式会社レトリバ \{hiroki.iida@nlp.c., okazaki@c.\}titech.ac.jp ## 概要 BERT 等の事前学習済みモデルを用いた検索モデルは,教師データのドメイン外で使用すると検索精度が低下することが知られている。特に,学習デー タと対象データの語彙が大きく異なる場合は,大幅な精度低下につながる.そのため,検索モデルのドメイン外での検索精度を向上させる手法が複数提案されている. 本論文では,統一された実験設定において各手法の性能やその組み合わせによる相乗効果の有無を検証した。その結果,事前学習済みモデルのドメイン適応,BM25 など語彙の一致に基づく検索モデルを併用すること,及びその組み合わせが複数の事前学習済みモデルを用いた検索モデルで有効であることが明らかになった。さらに BM25 のみならず複数の検索モデルを併用することで,現時点での世界最高性能を上回る結果を得た。 ## 1 はじめに BERT [1]を始めとする事前学習済みモデルを用いて,教師データとなる検索データセットで検索モデルを訓練することにより,BM25 [2]などの語彙の一致に基づく検索モデルを大きく上回る検索精度を達成できることが明らかになった [3]. 代表的な検索モデルとしては,クエリと文書を密ベクトルに変換し,その内積を関連度スコアとする密ベクトル検索 [4], 疎ベクトルに変換する SPLADE [5],クエリの各トークンベクトルに対して,それぞれ文書の全トークンベクトルとの内積を計算し,その類似度が最大のものの和をとる ColBERT[6] などが挙げられる.しかしながら,どの検索モデルを訓練する場合も,大量の教師データが必要であるため,適用できるドメインが限定される。 また,大量の教師データが存在するドメインで訓練した検索モデルは, 語彙が大きく異なるドメインに適用した場合に,検索精度が大きく低下することが知られている。 そのため,ドメイン外において教師なしで検索モデルの精度向上を試みる研究が進められており,擬似クエリを使用した密べクトル検索の教師なしドメイン適応 $[7,8]$, 事前学習済みモデルの継続事前学習を用いた教師なしドメイン適応 [9],IDFを通じた重み調整によるドメイン適応 [9], 語彙一致検索との併用 $[7,10,11]$ などが提案されている. しかしながら,これらのドメイン適応手法を複数用いた場合の効果は明らかになっていない。また, あるドメイン適応手法がどの検索モデルに対して効果的に働くのか,俯瞰的に分析した事例はない。 そこで,本研究では,まず各ドメイン適応手法がどのような検索モデルに対して効果があるかを明らかにするために,事前学習済みモデルを用いた代表的な検索モデルである,密ベクトル検索,SPLADE, ColBERT に対して,擬似クエリを使用したドメイン適応,事前学習済みモデルのドメイン適応,重み調整によるドメイン適応,及び語彙一致検索(BM25) との併用を適用した. その結果,どの検索モデルでも大きな効果を示すドメイン適応方法は, 事前学習済みモデルのドメイン適応と語彙一致検索との併用であることが分かった. 次に,ドメイン適応手法を複数適用した場合に相乗効果を示すかを明らかにするために,ドメイン適応手法を複数適用した場合について実験を行なった. その結果,事前学習済みモデルのドメイン適応と語彙一致検索との併用を一緒に用いる場合が複数の検索モデルで有効であること,この二つを適用した場合に擬似クエリを使用する手法と重み調整は性能向上にほとんど寄与してないことが分かった. 語彙一致検索の併用は複数の検索モデルのアンサンブルと見なせる.そこで,検索モデルによるアンサンブルは更なる検索精度の向上をもたらすかを検証した。事前学習済みモデルのドメイン適応と語 図 1 実験で使用した検索モデルとドメイン適応手法の概要図 彙一致検索との併用を適用すると共に,密べクトル検索,SPLADE,ColBERT のアンサンブルを行い,現時点での世界最高の性能 $[9,12]$ を上回る結果を得た. まとめると,本論文の貢献は以下の通りである. ・異なる検索モデルのアンサンブルが,ドメイン適応に対して有効であることを示した。 ・事前学習済みモデルのドメイン適応が,アンサンブルと相乗効果をもたらすことを示した. ## 2 実験手法 本研究では,事前学習済みモデルに基づく検索モデルを語彙が大きく異なるドメインに適用する際に,ドメイン適応手法の有効な組み合わせを明らかにすることにある. 以下では,今回用いたドメイン適応手法を紹介する。 擬似クエリを使用した検索モデルのドメイン適応として,GPL [8] を用いる.GPLでは,元ドメインにおける正例のクエリ・文書ぺアを教師データとし, T5 [13]を用いて文書を入力としたクエリ生成器を学習する. そして, 対象ドメインにおいて各文書からクエリを生成し,そのぺアを正例とする。次に,生成したクエリで学習対象とする検索モデルで検索を行い,負例を生成する.その後,クロスエンコーダの検索モデル1) [3] を用いてスコアリングをする.クロスエンコーダは,クエリと文書を結合  トークン(BERT の場合は $[\mathrm{SEP}]$ )を用いて連結して,検索モデルとしてファインチューニングした事前学習済みモデルに入力し, クエリと文書の関連度スコアを推定する方式である.最後に,クロスエンコーダのスコアを用いて,知識蒸留で検索モデルの訓練を行う。 事前学習済みモデルのドメイン適応として, AdaLM [14] を用いる. AdaLM は,対象ドメインのコーパスを用いて,語彙拡張とマスク付き言語モデルによる継続事前学習を行う手法である.これは, Iida and Okazaki [9] において,検索タスクでの有効性が示されている。 重み調整によるドメイン適応において,IDFを用いた。本稿ではこの手法をIDF 重みと呼ぶ。密べクトル検索では重みつき平均によって重みを反映させている. SPLADE はエンコーダの語彙次元の疎べクトルにテキストをエンコードする.そのため,文書側のベクトルの各要素に直接 IDFの重みを付けた。 ColBERT については,クエリのベクトルを IDFで重み付けした。なお,検索文書中に存在しない語彙については,重みを 1 とした。 語彙一致検索との併用において,語彙一致検索には,BM25を採用した2) . 本論文ではこの手法を BM25 併用と呼ぶ. 併用方法は,各検索モデルと BM25 のそれぞれ上位 100 件の文書のスコアの和とした ${ }^{3)}$. 和を計算する際,片方の検索結果にしか出 2)具体的には,pyserini [15]を用いた. 3)積を計算する方法 [16] も提案されているが,和を計算す 表 1 各検索モデルにドメイン適応手法を適用した結果. 適用なしの場合については,数値は NFCorpus, TREC-COVID, SCIDOCS, Scifact データセットの nDCG@ 10 の平均值である. ドメイン適応手法を適用した結果は適用なしの場合からの差(向上幅)である. 各モデルで最も性能が向上したものを太字にしている. 現しない文書のスコアとして,もう片方の検索結果 100 位の文書のスコアを用いた。 事前学習済みモデルを利用した検索モデルのアンサンブルでは,語彙一致検索との併用の場合と同様に,上位 100 件の文書のスコアの和を計算した. ## 3 結果 本節では,事前学習済みモデルを用いた各検索モデルに対して単一のドメイン適応手法を用いた場合の結果,複数の手法を組み合わせて用いた場合の結果,及び有効なドメイン適応手法を用いて複数の検索モデルをアンサンブルした結果を述べる.デー タセットは,ドメイン外での検索性能を計測する際に広く使われている BEIR [17]を用いた. BEIR は複数のデータセットから構成されており,その中でも NFCorpus [18], TREC-COVID [19], SCIDOCS [20], Scifact [21]を用いた。また, 3.3 節では BioASK [22] も用いた.これらは, 重みつき Jaccard 係数で計測した場合, 検索モデルを学習した際のデータセットである MS MARCO [23] から最も離れたデータセットである [17]. その他の実験設定の詳細は付録 $\mathrm{A}$ に記した。 ## 3.1 各ドメイン適応手法はどのような検索 モデルに対して効果があるか 各ドメイン適応手法の性能を表 1 に記す。全てのドメイン適応手法が検索の精度を改善していることが分かる. 特に,BM25 併用と AdaLM は性能を大きく向上させている. BM25 併用は密ベクトル検索で最も検索精度を向上させた. これは, Formal ら [24] が指摘するように,事前学習済みモデルを用いた検索モデルが教師データ中の低頻度な単語の重要度を低く捉えてしまうという状況を緩和するためと考えられる,BM25 併用を用いることで,単独では最も検索精度が低かった密ベクトル検索が他の検索モデ  表 2 各検索モデルに, AdaLM と一緒に他のドメイン適応手法を適用した結果. 数值は NFCorpus, TREC-COVID, SCIDOCS,Scifact データセットの $\mathrm{nDCG} @ 10$ の平均值である。他のドメイン適応手法を適用した結果は AdaLMを適用した場合からの差(向上幅)である. 各モデルで性能が最も向上したものを太字にしている. ルを上回っている. 他のドメイン適応手法の中では,AdaLM が SPLADE と ColBERT に対して最も効果的であった.擬似クエリを用いる GPL は,密べクトル検索で有効であるが,他のモデルにおいてあまり改善していない.また,IDF 重みはSPLADE では高い効果を示すが,他のモデルでは効果が薄かった. ## 3.2 ドメイン適応手法を複数適用した場合 に相乗効果があるか 次に,表 1 の実験で全般的に改善効果が最も高かった AdaLM を選び,さらに他のドメイン適応手法を適用した場合の結果を表 2 に記す。この実験では,BM25 併用が全てのモデルにおいて検索精度の向上をもたらした. ょって, AdaLM には単語重要度の補正以外の効果があると考えられる. 例えば, SPLADE や ColBERT のモデルを考えると, ドメイン特有の単語の埋め込みの学習が進んでいることが期待される. 擬似クエリを用いる GPL は,全ての検索モデルで検索精度が低下した。しかしながら,データセットにおける性能を詳しく調べると,その効果はデー タセットによってばらつきがあった.密べクトル検索と ColBERT では,TREC-COVID で大幅に性能が低下していたため, 平均での検索精度の低下が見られたが,それ以外のデータセットでは改善が見られた.また,SPLADEでは,NFCorpus と Scifactで検索精度が低下している。このように,事前学習済み言語モデルのドメイン適応を行った場合は,その効果はデータセットやモデルに依存していた. 表 1 では IDF 重みが SPLADE での性能の改善に大きく寄与していたが,表 2 ではその効果がほぼ見られなくなった,密べクトル検索では,むしろ IDF 重みは逆効果となっている. IDF 重みは対象ドメインにおける重要語に着目する効果があると考えられるが,AdaLM でもその効果が果たされているためと考えられる。 さらに, AdaLM と BM25 併用に加えて GPL 及び IDF 重み適用した場合について実験を行なったが, ほとんど効果はなかった. 結果は付録 B に記した。 ## 3.3 検索モデルによるアンサンブルは更な る検索精度の向上をもたらすか BM25 併用は,事前学習済みモデルを用いた検索モデルとのアンサンブルと見なすことができる. そこで,事前学習済みモデルを用いた検索モデル間でアンサンブルをすることで,検索精度の更なる改善を試みた. 表 2 で最も高い検索精度に達した AdaLM と BM25 併用を適用した密ベクトル検索に対し, SPLADE と ColBERTをアンサンブルした. 実験結果を表 3 に記す。密ベクトル検索とSPLADEをアンサンブルした場合, 密ベクトル検索と ColBERT をアンサンブルした場合のどちらも,検索の精度に改善が見られる. よって, AdaLM 及び BM25 併用によるドメイン適応と事前学習済みモデルを用いた検索モデルのアンサンブルは検索精度のさらなる改善をもたらした。一方,密ベクトル検索,SPLADE, ColBERT を全てアンサンブルした場合は,密ベクトル検索と ColBERT をアンサンブルした場合と同程度の検索精度に留まった。 次に, 既存の最高性能の検索モデルと比較する.密ベクトル検索の手法である COCO-DR [12] は,我々の知る限り NFCorpus, TREC-COVID, SCIDOCS, Scifact データセットの $\mathrm{nDCG} @ 10$ の平均で最も高い值に到達している。また, SPLADE に AdaLM,IDF 重み,BM25 併用を適用した CAI [9] は,先ほどの 4 件のデータセットに BioASKを加えた 5 件のデータセットのnDCG@10の平均で最高値を示している.表 3 においてこれらの検索モデルと比較すると, AdaLM 及び BM25 併用を適用した検索モデルのアンサンブルが 4 データセットでは COCO-DR と同等の值を示しており,5 データセットでは ColBERT とアンサンブルした場合に最も高い値に達した. 複数検索モデルのアンサンブル単独による効果を検証するため,AdaLMを適用しない場合について,各検索モデルのアンサンブルを行った. ドメインによる違いを観察するために,教師データと同じドメインである MS MARCO でも実験を行っている. MS MARCO において最も検索精度の高かった ColBERT に対して,密ベクトル検索と SPLADE をアンサンブルした.これに加えて,BM25 併用を適用した実験も行った. その結果を表 4 に示す. 教師データのドメイン外である 4 データセットの平均において,表 3 AdaLM と BM25 併用を適用した密ベクトル検索に AdaLM を適用した SPLADE と ColBERT をアンサンブルした結果. 数值は NFCorpus, TREC-COVID, SCIDOCS, Scifact の四データセットにおける $\mathrm{nDCG}^{10} 10$ の平均とさらに BioASKを加えた五データセットにおける nDCG@10 の平均. それぞれ最も性能が良いものを太字にしている。 表 4 ColBERT に対して密ベクトル検索と SPLADE のアンサンブルを行った結果. 数值は MS MARCO におけるnDCG@10の值と NFCorpus, TREC-COVID, SCIDOCS, Scifact の四データセットの nDCG@10 の平均値である. アンサンブルを行うことで検索精度が改善した.また,密ベクトル検索,SPLADE,ColBERT の全ての検索モデルをアンサンブルし,BM25 併用を適用した場合に,最も高い数値となった.しかしながら, どの結果も表 3 のドメイン適応した検索モデルのアンサンブル結果を下回っている。この結果より,表 3 において, 特に AdaLMが検索モデルのアンサンブルと相乗効果をもたらすと考えられる。 なお, 教師データと同ドメインである MS MARCO においては,アンサンブルを行っても ColBERT の結果から改善していない. 単純な和によるアンサンブルはドメイン適応において有効と推察される. ## 4 結論 本論文では,検索モデルのドメイン適応において, 事前学習済みモデルのドメイン適応, 語彙一致検索との併用,およびその組み合わせを検証し,語彙が大きく異なるデータの場合に特に効果的であることを示した。また,語彙一致検索のみならず,複数の検索モデルのアンサンブルが有効であること, その場合も事前学習済みモデルのドメイン適応と相乗効果があることを示した. 今後の課題として,検索モデル相互の特性をより活用したアンサンブル手法の探求などを考えている. ## 謝辞 この成果は, 国立研究開発法人新エネルギー・産業技術総合開発機構 (NEDO) の委託業務 (JPNP18002) の結果得られたものです. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In NAACL, pp. 41714186, 2019. [2] S E Robertson and S Walker. Some simple effective approximations to the 2-poisson model for probabilistic weighted retrieval. In SIGIR, pp. 232-241, 1994. [3] Rodrigo Nogueira and Kyunghyun Cho. Passage reranking with BERT. arXiv:abs/1901.04085, January 2019. [4] Vladimir Karpukhin, Barlas Oguz, Sewon Min, Patrick Lewis, Ledell Wu, Sergey Edunov, Danqi Chen, and WenTau Yih. Dense passage retrieval for Open-Domain question answering. In EMNLP, pp. 6769-6781, 2020. [5] Thibault Formal, Carlos Lassance, Benjamin Piwowarski, and Stéphane Clinchant. SPLADE v2: Sparse lexical and expansion model for information retrieval. arXiv:abs/2109.10086, 2021. [6] Omar Khattab and Matei Zaharia. ColBERT: Efficient and effective passage search via contextualized late interaction over BERT. In SIGIR, pp. 39-48, 2020. [7] Ji Ma, Ivan Korotkov, Yinfei Yang, Keith Hall, and Ryan McDonald. Zero-shot neural passage retrieval via domaintargeted synthetic question generation. In EACL, pp. 10751088, 2021. [8] Kexin Wang, Nandan Thakur, Nils Reimers, and Iryna Gurevych. GPL: Generative pseudo labeling for unsupervised domain adaptation of dense retrieval. In NACL, pp. 2345-2360, 2022. [9] Hiroki Iida and Naoaki Okazaki. Unsupervised domain adaptation for sparse retrieval by filling vocabulary and word frequency gaps. In AACL-IJCNLP, pp. 752-765, 2022. [10] Yi Luan, Jacob Eisenstein, Kristina Toutanova, and Michael Collins. Sparse, dense, and attentional representations for text retrieval. TACL, Vol. 9, pp. 329-345, 2021. [11] Luyu Gao, Zhuyun Dai, Tongfei Chen, Zhen Fan, Benjamin Van Durme, and Jamie Callan. Complement lexical retrieval model with semantic residual embeddings. In ECIR, Vol. 12656, pp. 146-160, 2021. [12] Yue Yu, Chenyan Xiong, Si Sun, Chao Zhang, and Arnold Overwijk. COCO-DR: Combating distribution shifts in Zero-Shot dense retrieval with contrastive and distributionally robust learning. 2022. [13] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. JMLR, Vol. 21, No. 140, pp. 1-67, 2020. [14] Yunzhi Yao, Shaohan Huang, Wenhui Wang, Li Dong, and Furu Wei. Adapt-and-distill: Developing small, fast and effective pretrained language models for domains. In Findings of ACL-IJCNLP 2021, pp. 460-470, 2021. [15] Jimmy Lin, Xueguang Ma, Sheng-Chieh Lin, Jheng-Hong Yang, Ronak Pradeep, and Rodrigo Nogueira. Pyserini: A Python toolkit for reproducible information retrieval research with sparse and dense representations. In SIGIR, pp. 2356-2362, 2021. [16] Canwen Xu, Daya Guo, Nan Duan, and Julian McAuley. LaPraDoR: Unsupervised Pretrained Dense Retriever for Zero-Shot Text Retrieval. In Findings of ACL, pp. 35573569, 2022. [17] Nandan Thakur, Nils Reimers, Andreas Rücklé, Abhishek Srivastava, and Iryna Gurevych. BEIR: A heterogeneous benchmark for zero-shot evaluation of information retrieval models. In NeurIPS, 2021 [18] Vera Boteva, Demian Gholipour, Artem Sokolov, and Stefan Riezler. A Full-Text learning to rank dataset for medical information retrieval. In ECIR, pp. 716-722, 2016. [19] Ellen Voorhees, Tasmeer Alam, Steven Bedrick, Dina Demner-Fushman, William R. Hersh, Kyle Lo, Kirk Roberts, Ian Soboroff, and Lucy Lu Wang. Trec-covid: Constructing a pandemic information retrieval test collection. SIGIR Forum, Vol. 54, No. 1, feb 2021. [20] Arman Cohan, Sergey Feldman, Iz Beltagy, Doug Downey, and Daniel Weld. SPECTER: Document-level representation learning using citation-informed transformers. In ACL, pp. 2270-2282, 2020. [21] David Wadden, Shanchuan Lin, Kyle Lo, Lucy Lu Wang, Madeleine van Zuylen, Arman Cohan, and Hannaneh Hajishirzi. Fact or fiction: Verifying scientific claims. In EMNLP, pp. 7534-7550, 2020. [22] George Tsatsaronis, Georgios Balikas, Prodromos Malakasiotis, Ioannis Partalas, Matthias Zschunke, Michael R Alvers, Dirk Weissenborn, Anastasia Krithara, Sergios Petridis, Dimitris Polychronopoulos, Yannis Almirantis, John Pavlopoulos, Nicolas Baskiotis, Patrick Gallinari, Thierry Artiéres, Axel-Cyrille Ngonga Ngomo, Norman Heino, Eric Gaussier, Liliana Barrio-Alvers, Michael Schroeder, Ion Androutsopoulos, and Georgios Paliouras. An overview of the BIOASQ large-scale biomedical semantic indexing and question answering competition. BMC Bioinformatics, Vol. 16, p. 138, April 2015. [23] Tri Nguyen, Mir Rosenberg, Xia Song, Jianfeng Gao, Saurabh Tiwary, Rangan Majumder, and Li Deng. MS MARCO: A human generated machine reading comprehension dataset. In NIPS, Vol. 1773 of CEUR Workshop Proceedings, 2016. [24] Thibault Formal, Benjamin Piwowarski, and Stéphane Clinchant. Match your words! a study of lexical matching in neural information retrieval. In ECIR, p. 120-127, 2022. [25] Kyle Lo, Lucy Lu Wang, Mark Neumann, Rodney Kinney, and Daniel Weld. S2ORC: The Semantic Scholar Open Research Corpus. In ACL, pp. 4969-4983, 2020. [26] Sebastian Hofstätter, Sheng-Chieh Lin, Jheng-Hong Yang, Jimmy Lin, and Allan Hanbury. Efficiently teaching an effective dense retriever with balanced topic aware sampling. In SIGIR, pp. 113-122. 2021. 表 6 SPLADE学習時のハイパーパラメータ 学習率2 2 e-5 エポック 30 Warmup ステップ 1000 表 7 ColBERT 学習時のハイパーパラメータ バッチサイズ 32 最大文書長 220 学習率3e-6 一クエリあたりの負例数 48 エポック 1 最大訓練ステップ数 500,000 表 8 GPL 使用時のハイパーパラメータ(ColBERTを除く) ## A 実験設定 今回使用した対象データは,BioASK [22],NFCorpus [18], TREC-COVID [19] がバイオ・医療ドメインであり,SCIDOCS [20],Scifact [21] が科学ドメインである。そのため, AdaLM を適用するコーパスとして, バイオ・医療ドメインは PubMed ${ }^{4)}$ の要旨を用いた.科学ドメインは S2ORC [25] の要旨を用いた. 元ドメインにおける検索モデルの学習については,全ての検索モデルでクロスエンコーダ5) [3] を知識蒸留することで訓練した. 知識蒸留の方法として,密ベクトル検索と SPLADEでは,あるクエリに対する正例文書と負例文書のクロスエンコーダにおけるスコアの差であるマージン二乗誤差損失 [26] を用いた。また,密ベクトル検索と SPLADE の関連度スコアは内積を用いて計算した. ColBERT については,クロスエンコーダにおけるスコアと検索モデルのスコアそれぞれに対してソフトマックス関数を適用し,KL ダイバージェンスをとった. GPL学習 4) https://pubmed.ncbi.nlm.nih.gov/ 5)モデルには,cross-encoder/ms-marco-MiniLM-L-6-v2 を使用している.表 9 各検索モデルに,AdaLM,BM25 併用と一緒に他のドメイン適応手法を適用した結果. 数值は NFCorpus, TREC-COVID, SCIDOCS, Scifact データセットのnDCG@10 の平均值である. 他のドメイン適応手法を適用した結果は AdaLM と BM25 併用を適用した場合からの差(改善幅)である。 時にも同様に知識蒸留を行った。 各検索モデルの事前学習済みモデルには $\mathrm{BERT}^{6}$ ) を用いた。学習時のハイパーパラメータを表 $5 , 6$, 7 に記す。また,密ベクトル検索と SPLADE に対して,GPLを適用した際のハイパーパラメータを表 8 に記す。なお,ColBERT は GPL 適用時も表 7 と同様である。また,一文書あたりのクエリ数は表 8 と同様である. ## B AdaLM・BM25 併用に加えてドメ イン適応を行なった結果 AdaLM と BM25 併用に加えて,GPL,IDF を適用した場合の実験結果を表 9 に記す。GPL はどの手法においても,検索精度の向上に寄与していない,密ベクトル検索ではその検索精度が大きく低下しており,各データセットの詳細を調べても,改善が見られたのは SCIDOCS のみであった。密ベクトル検索において,GPLによる改善効果の多くが AdaLM と BM25 併用で実現されていたと推察される.IDF 重みについては,検索モデルによって差があり,密べクトル検索及び SPLADE は検索精度が下がっている. BM25 は TF-IDF によるランキングアルゴリズムであるため,BM25 併用によってすでに IDF 重みと同様の効果が得られたことが要因と考えられる。一方,ColBERT では改善している。AdaLMによる埋め込みの改善が,語彙 BM25 併用による効果以外にも改善をもたらしたと考えられる。 6)bert-base-uncased を使用している。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P10-10.pdf
# JParaCrawl を用いた単文翻訳におけるドメイン適応 名村太一 ${ }^{1}$ 村上仁一 ${ }^{2}$ 1 鳥取大学工学部電気情報系学科 2 鳥取大学工学部 ${ }^{1}$ B19T2076C@edu.tottori-u.ac.jp ${ }^{2}$ murakami@tottori-u.ac.jp ## 概要 NMT において様々なドメイン適応 (domain adaptation) の手法が研究されている [1]. また,ドメイン適応のためには大規模なコーパスが必要である.そこで大規模コーパスとして JParaCrawl[2] が開発された。しかし,まだ人手の翻訳精度に及ばない. 本研究ではファインチューニングに用いるコーパスが小さいことが原因だと考える。そこで JParaCrawl からテスト文に類似する対訳を抽出し, コーパスを拡張しファインチューニングを行う.実験の結果,対訳を追加しなかった場合と比較して, $\mathrm{BLEU}$ 值が 1.7 向上 $\mathrm{s}$ した. ## 1 はじめに NMT においてドメイン適応についての様々な研究がされてきた [1]. また,ドメイン適応を行うためには十分なコーパスが必要である。しかし,日英対訳コーパスにおいては一般的なドメインの大規模コーパスが無かった. そこでウェブから大規模かつ特定のドメインに特化しない日英対訳コーパスとして JParaCrawl[2] が開発された. しかし,まだ人手の翻訳精度に及ばない。 本研究ではファインチューニングに用いるコーパスが小さいことが原因だと考える.そこで,ファインチューニングに用いるコーパスを拡張することで翻訳精度の向上を図る. まず,目的ドメインのテスト文に類似する対訳を JParaCrawl から抽出する.次に,抽出したコーパスと目的ドメインのコーパスを合わせた新たなコーパスを作成する。そして新たなコーパスを用いて JParaCrawl の事前学習済みモデルのファインチューニングを行う. また,目的ドメインのコーパスのみを用いて JParaCrawl の事前学習済みモデルをファインチュー ニングしたものを BaseLine とする. BaseLine と提案手法の比較を,BLEU 値による自動評価と人手による対比較評価で行う. ## 2 過去研究 \\ 2.1 JParaCrawl NTTコミュニケーション科学基礎研究所によって作成された日英対訳コーパスである. 対訳文は約 2000 万文が用意されている. ## 2.2 ドメイン適応 ドメイン特有の言い回しや表現がある。そのため NMT において,汎用的なシステムよりそのドメインに適応したシステムの方が翻訳精度が向上する [4]. ドメイン適応するために様々な手法が研究されているが,コーパス中心とした適応 (data centric) と, モデル中心とした適応 (model centric) に大きく分けられる [1]. 本研究ではこれらを組み合わせてドメイン適応を行う。 ## 2.2.1 データ選択 データ選択 (data selection) とはコーパスによるドメイン適応の手法である [1]. 目的ドメインのコー パスに類似する文を他のコーパスから抽出し,コー パスを拡張する。様々なアルゴリズムが考案されているが [5], 本研究では TF-IDFを用いる. ## 2.2.2 ファインチューニング ファインチューニング (fine-tuning) とはドメイン適応の手法である [6][1]. 事前学習済みモデルを目的ドメインのコーパスを用いてパラメータを微調整することである.これによってモデルをドメインに適応させる. 本研究では JParaCrawl のファインチューニングの方法に従って行う. ## 3 提案手法 本研究では,以下の手順を提案する. 1. TF-IDF でテスト文に類似する対訳を JParaCrawl から抽出 2. 抽出した対訳を目的ドメインのコーパスに付け加えて,新たなコーパスを作成 3. 新たなコーパスを用いて,JParaCrawl で学習された事前学習済みモデルをファインチューニング ## 4 実験 ## 4.1 実験データ 実験に用いるデータを表 1 に表す. 単文対訳コー パスとテスト文は電子辞書を中心に採取された単文を用いる [7]. また,本実験では JParaCrawl の対訳の内,Bicleanerの値を 0.7 以上の対訳のみを使用する. 表 1 実験データ ## 4.2 実験設定 FAIRSEQ[8] を用いて実験を行う. 学習のパラメー 夕は [2] に従って, 同様の設定で行う. そのため, 事前学習済みモデルから 2,000 ステップの学習を行うことでファインチューニングを行う.また,前処理には sentencepiece[9] を用いて,語彙数 32,000 とし, unigram 単位で分割する。 ## 4.3 実験手順 1. TF-IDF でテスト文に類似する文を JParaCrawl から抽出する 2. 単文対訳コーパスと抽出した文を合わせたコー パスを用いて,JParaCrawl で学習された事前学習済みモデルをファインチューニングする 3. テスト文の翻訳を行い,評価を行う 抽出する量を,テスト文 1 文に対して類似した上位 10 文を Proposed として実験を行う。 評価には SacreBLEU[10] を用いて, BLEU[11]を計算する. また,人手による対比較評価も行う. ## 4.4 BaseLine 本実験では,BaseLine を単文対訳コーパスのみを用いて事前学習済みモデルをファインチューニングした結果とする. ## 5 実験結果 \\ 5.1 自動評価 表 2 に BLEU 値の評価結果を示す。 表 2 提案手法と BaseLine の BLEU 值 表 2 より, BLEU 値において Proposed は BaseLine より向上することが確認できた. ## 5.2 人手評価 人手評価は同研究室の学生 4 名に行ってもらった. そしてその平均値を人手評価とする。 Proposed と BaseLine の対比較評価を行う. テスト文の中からランダム 100 文に対して,Proposed の方が良い,BaseLine の方が良い,ほとんど差がないの 3 つの分類で対比較評価を行った. その結果を表 3 に示す. 表 3 Proposed と BaseLine の対比較評価 その結果,BaseLineの方が良いが 16.8\%に対して, Proposed の方が良いが $28.5 \%$ で上回った. 人手評価でも Proposed が BaseLine を上回る結果になった. ## 5.3 出力例 ## 5.3.1 Proposed の良い例 BaseLine の翻訳結果と比較して Proposed の方が良い文を,追加された文とともに表 4 に示す. 表 4 より, BaseLine では「知床」が翻訳されなかったのに対して,Proposedでは「知床」が含まれる文が追加されることによって,正しく翻訳されるようになった. ## 5.3.2 Proposed が悪かった例 BaseLine の翻訳結果と比較して Proposed の方が悪かった翻訳と,追加された文を表 5 に示す。 「葬られた」の翻訳は「hushed up」が正しいが,「葬られた」と「buried」を含む対訳を学習したため,間違った翻訳をしたと考えられる。 表 4 Proposedの良い翻訳例と,追加された文 \\ 表 5 Proposed の悪い翻訳例と,追加された文 類似文 1 日本語文遺体は後に,裸にされて傷つけられた状態で発見され,ブロードフットの遺体とともにラグマーニーにあ る私の兄の要塞の近くに葬られた。 類似文 1 英語文 The body was afterwards found, naked and mutilated, and, with Broadfoot's, maunee. ## 6 考察 ## 6.1 抽出するデータ量を変更 ## 6.1.1 自動評価結果 この節では JParaCrawl から抽出するデータ量を変更する. Proposed ではテスト文 1 文に対して類似する上位 10 文を抽出していた.ここではテスト文 1 文に対して類似する上位 1 文と 100 文としたものを top1と top100として実験を行う. 表 6 より,top1 では BaseLine より BLEU 值が向上した. Proposed の方が top1 と比べて BLEU 值が高かった. また, top100では BaseLine より BLEU 值が低下した. ## 6.1.2 Proposed と top1 の違いの例 top1 の結果から BaseLine よりも BLEU 值が高いため, Proposed と比較したものを表 7 に示す. 表 7 top1, Proposed, BaseLine の翻訳を比較 \\ ## この結果では, BaseLine より top1 の方がよくなっ た. しかし, JParaCrawl より抽出する量を増やした Proposed はかえって悪くなった. この原因として, top1 には無かったが Proposed には含まれていた類似文が影響したと考える. ## 6.2 ランダムに追加 この節では JParaCrawl からランダムに抽出した対訳を追加し,学習を行う。それぞれ 1 万,10万, 100 万の対訳を抽出し, 追加したコーパスで学習を行った. その結果を表 8 に示す. 表 8 BaseLine と randomに 1 万,10万,100万を追加して学習した BLEU 值 random 100,000が最も BLEU 值が高い結果だった. しかし,類似文を追加した Proposed の方が BLEU 值が向上した. ## 6.3 抽出した対訳のみでファインチューニ ング この節では単文対訳コーパスを使用せずに, JParaCrawl より抽出したコーパスのみでファインチューニングを行う.抽出する量をテスト文 1 文に対して 1 文, 10 文,100 文とし,それぞれ JPara top1,JPara top10,JPara top100とする. その結果を表 9 に示す. 表 9 より, 全ての結果で BaseLine を下回ったが,類似する文を増やすと BLEU 値が向上した。一方表 表 9 JParaCrawl からテスト文に類似する文を抽出したコーパスのみでファインチューニングを行ったモデルの BLEU 值 6 では,top100において,コーパスを大きくしすぎると BLEU 值が低下した. しかし,この実験では BLEU 值が向上した. ## 6.4 JParaCrawl+単文対訳コーパスから 抽出 テスト文により類似したコーパスでファインチューニングを行えば翻訳精度が向上すると考える。そのため,この節では単文対訳コーパスと JParaCrawl を合わせたコーパスからテスト文に類似する文を抽出する. 抽出する量は,テスト文 1 文に対して 1 文, 10 文, 100 文とし,それぞれを JPara+単文 top1,JPara+単文 top10,JPara+単文 top100 とする. その結果を表 10 に示す. 表 10 単文対訳コーパス+JParaCrawl からテスト文に類似する文を抽出したコーパスでファインチューニングを行ったモデルの BLEU 值 表 10 より,全ての結果で BaseLine を下回ったが,類似する文を増やすと BLEU 值が向上した.また,表 9 と比較して全体的に BLEU 値が向上した. この結果より,テスト文に類似していることより一定量の単文対訳コーパスが重要であると考える.単文対訳コーパスは単文の短い文で構成されている. それに対して JParaCrawl の多くは長い文で構成される.この違いにより表 2 の結果が最も良かったと考える。 ## 6.5 Google 翻訳との比較 Google 翻訳との比較を行う. 表 11 で Google 翻訳と BLEU 値で比較する。 また, 表 12 に, Proposed と Google 翻訳の対比較評価の結果を示す.表 11 Google 翻訳と BLEU 值で比較 表 12 Proposed と Google 翻訳の対比較評価 表 13,14 に Google 翻訳と Proposed の例を示す. 表 13 Proposed と Google 翻訳を比較して, Proposed が良かった例 表 14 Proposed と Google 翻訳を比較して, Google が良かった例 \\ 表 11 より,BLEU 值において,Proposed の値は Google 翻訳の值に近かった. しかし, 表 12 の結果ではまだ及ばなかった. ## 7 おわりに 本研究では,TF-IDFを用いて JParaCrawl からテスト文に類似する対訳文を抽出した. その対訳文を目的ドメインのコーパスに追加することでコーパスを拡張した. 拡張したコーパスを用いて事前学習済みモデルのファインチューニングを行うことで BaseLine と比較して BLEU 值と人手評価の両方で翻訳精度の向上が見られた. 具体的には BLEU で 1.7 向上した. コーパスを拡張しすぎると翻訳精度の低下が確認されたので,適切なコーパスの量や,他の対訳の抽出法を今後の課題にする. ## 謝辞 人手評価に協力してくれた,以下の 5 名の学生の協力を得ました. 感謝致します. (柳原弘哉,丸山京祐,深谷諒,松本武尊) ## 参考文献 [1] Chenhui Chu and Rui Wang. A survey of domain adaptation for neural machine translation. In Proceedings of the 27th International Conference on Computational Linguistics, pp. 1304-1319, Santa Fe, New Mexico, USA, August 2018. Association for Computational Linguistics. [2] 森下睦, 帖佐克己, 鈴木潤, 永田昌明. Jparacrawl v3.0:大規模日英対訳コーパス. 言語処理学会第 28 回年次大会発表論文集 (2022 年 3 月) , 2022. [3] Marta Bañón, Pinzhen Chen, Barry Haddow, Kenneth Heafield, Hieu Hoang, Miquel Esplà-Gomis, Mikel L Forcada, Amir Kamran, Faheem Kirefu, Philipp Koehn, et al. Paracrawl: Web-scale acquisition of parallel corpora. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4555-4567, 2020. [4] Philipp Koehn and Rebecca Knowles. Six challenges for neural machine translation. arXiv preprint arXiv:1706.03872, 2017 . [5] Alberto Poncelas, Gideon Maillette de Buy Wenniger, and Andy Way. Transductive data-selection algorithms for fine-tuning neural machine translation. arXiv preprint arXiv:1908.09532, 2019. [6] Minh-Thang Luong and Christopher D Manning. Stanford neural machine translation systems for spoken language domains. In Proceedings of the 12th International Workshop on Spoken Language Translation: Evaluation Campaign, 2015. [7] 村上仁一. 日英対訳データベースの作成のための 1 考察. 言語処理学会第 17 回年次大会発表論文集, D4-5, pp. 979-82, 2011. [8] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. arXiv preprint arXiv:1904.01038, 2019. [9] Taku Kudo and John Richardson. Sentencepiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. arXiv preprint arXiv:1808.06226, 2018. [10] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Belgium, Brussels, October 2018. Association for Computational Linguistics. [11] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th annual meeting of the Association for Computational Linguistics, pp. 311-318, 2002.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P10-11.pdf
# 翻訳における文パターンの利用 深谷諒 1 村上仁一 ${ }^{2}$ 1 鳥取大学工学部電気情報系学科 2 鳥取大学工学部 1b19t2092k@edu. tottori-u.ac.jp ${ }^{2}$ murakami@tottori-u.ac.jp ## 概要 NMT の翻訳は単語ごとに行う傾向にある.光のため,文全体を考えず翻訳することになり,間違った翻訳になることがある. 光れを要素合成法の問題という.光こで本研究では,文全体を考えて翻訳するために NMT の学習データに文パターンを追加することを考えた . 実験の結果 , 文パターンを追加したほうが精度がわずかに向上した。 ## 1 はじめに 近年,機械翻訳の 1 つに NMT がある.しかし NMT は単語ごとに翻訳する傾向にある. 光こで本研究は NMT に文パターンを追加することにより,翻訳精度の向上を試みる . 文パターンを追加することにより,単語ごとの部分的な翻訳ではなく, 文全体を考えた翻訳ができると考えられる。 ## 2 要素合成法の問題 NMT を用いて文を翻訳する際,単語ごとに翻訳すると間違った訳になる場合がある.例を以下の表 1 に示す. この出力文は,"通した"を"passed","我"を"me"と単語ごとに訳しているため間違いが起きている.このように英文を単語ごとに訳し,間違った翻訳になることを要素合成法の問題という. ## 3 文パターン 文パターンとは,変数を用いてパターン化された文である. 本研究の文パターンは, 対訳学習文から自動抽出した変数が 1 つのものを用いる(森本 [1] 参照) . 文パターンの作成の方法を以下に示す.また,文パターンの例を表 2 に示す。 手順 1 GIZA++[2]を用いて対訳学習文から翻訳確率を得る.光して任意の対訳学習文と翻訳確率から,対訳単語を作成する。 手順 2 任意の対訳学習文から対訳単語を変数化し,対訳文パターンを作成する。 手順 3 任意の対訳学習文から対訳文パターンの変数部を抽出し,対訳句とする。 手順 4 手順 3で作った対訳句から, 対訳文パター ンを生成する。 手順 5 もう一度任意の対訳学習文から対訳文パターンの変数部を抽出し,対訳句とする。 手順 6 最後に対訳句から 1 変数の対訳文パターンを抽出する。 ## 4 提案手法 単語ごとの翻訳ではなく,文全体を考えて文パターンを追加することによって, 要素合成法の問題が解決され,翻訳精度が向上すると考える. 文パターンを追加する流れと手順を以下に示す. 図 1 提案手法の流れ 手順 1 対訳学習文に文パターンを追加して,新たな学習データを作る。 手順 2 手順 1 のデータをNMT で学習する. 手順 3 手順 2 で学習した NMT モデルを使って翻訳を行う。 ## 5 実験 ## 5.1 実験手順 手順 1 NMT に単文対訳学習文約 16 万文を学習する. 手順 21 で学習した NMT モデルを用い,テスト文を翻訳しベースラインとする。 手順 3 対訳学習文に変数が 1 つの文パターン 65 万パターンを追加し,新たな学習データを作る. 手順 43 の学習データを使って NMT で学習する. 手順 54 で学習させた NMT モデルを用い,テスト文を翻訳し提案手法とする。 手順 6 提案手法とベースラインを比較して自動評価 (BLEU, METEOR, RIBES, TER) を行う . 手順 7 出力文からランダムに選んだ 100 文について提案手法とベースラインを比較して人手評価を行う。 ## 5.2 実験条件 本研究では,OpenNMT[3] を用いて日英ニューラル機械翻訳を行う。 ## 5.3 実験データ 実験に用いるデータの内訳を表 3 に示す.表 3 実験データ ## 6 実験結果 ## 6.1 自動評価結果 テスト文約 1 万 6 千文を入力文として翻訳実験を行い,出力文に対して自動評価を行った. 表 4 に,自動評価 (BLEU, METEOR, RIBES, TER) の結果を示す. 表 4 自動評価の比較 表 4 の結果より,自動評価ではベースラインと比較して提案手法の精度が良いことがわかった. ## 6.2 人手評価結果 出力文からランダムに選んだ 100 文を用い, 人手による対比較評価を行った。評価結果を表 5 に示す. 表 5 の結果は, 4 名が同じ 100 文を評価し, 光の結果をまとめた. 以下の表 5 では 4 名の被験者を光れ光れ被験者 $\mathrm{A}$, 被験者 $\mathrm{B}$, 被験者 $\mathrm{C}$, 被験者 $\mathrm{D}$ とし以下では $\mathrm{A}, \mathrm{B}, \mathrm{C}, \mathrm{D}$ とする.また,評価の説明を以下に示す。 提案手法口 提案手法とベースラインの比較した際,ベースラインの出力文の方が入力文の意味に近い. ベースラインロ 提案手法とベースラインを比較した際, 対訳句追加時の出力文の方が入力文の意味に近い。 互角 提案手法とベースラインを比較した際,両手法の出力文の評価が互角 . 表 5 対比較評価の結果 表 5 の結果より,人手評価では提案手法がわずかに精度がいいことがわかった。 ## 6.3 出力結果の例 ベースラインと提案手法との対比較評価において,提案手法○とした例を表 6,7 に示す.ベースライン○とした例を表 8 ,9 に示す.互角の例を表 10 , 11 に示す.また, 表 6〜8には, 提案手法の出力結果に影響したであろう文パターンを光れ艾れ示す。 ## 6.3.1 提案手法口の例 表 6 提案手法口の例 1 \\ 表 6 の例において, "手掛かり"に対して"harbinger" という比較的近い訳が得られている提案手法を口とした. 表 7 提案手法口の例 2 \\ 表 7 の例において, "戦闘中"に対して"in the battle" という比較的近い訳が得られている提案手法を口した.表 8 ベースラインロ例 1 表 8 の例において , "flickering"より"swinging"のほうが適していると考え, ベースラインロとした。 表 9 ベースラインロの例 2 \\ 表 9 の例において, 提案手法の後半が不要だと感じた.よって,ベースラインロとした. ## 6.3.3 互角の例 表 10 の例において, どちらも正しい訳と判断して,互角とした. 表 11 互角の例 2 \\ 表 11 の例において,どちらも間違った訳と判断して,互角とした。 ## 7 おわりに 本研究では, 要素合成法の問題を解決するために,NMT の学習データに文パターンを追加した。 実験結果より,提案手法の BLEU 値が約 0.7 ポイントベースラインを上回った.また,人手評価では提案手法がベースラインの精度をわずかに上回った.今後は , パターンを選択して追加する予定である. ## 謝辞 人手評価には,以下4名の学生の協力を得ました. 感謝いたします. (矢野貴大,松本武尊,名村太一, 丸山京祐) ## 参考文献 [1] 森本世人村上仁一: 類似度を利用した変換テーブルの精度向上 [2] Franz Josef Och, Hermann Ney:" A System- atic Comparison of Various Statistical Alignment Models" Computational Linguistics, pp.19-51, 2003. [3] OpenNMT : https://pypi.org/project/OpenNMT-py/1.2.0/
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P10-12.pdf
# NMT による複文翻訳における単文対訳学習文の利用 丸山京祐 ${ }^{1}$ 村上仁一 2 1 鳥取大学工学部電気情報系学科 2 鳥取大学工学部 ${ }^{1}$ b19t2110u@edu.tottori-u.ac.jp ${ }^{2}$ murakami@tottori-u.ac.jp ## 概要 NMT を使った複文翻訳においては複文対訳文を学習して翻訳する。しかし, 多くの複文対訳文を集めることには限界がある.艺こで,複文対訳文だけでなく, 単文対訳文を学習に使用することで複文翻訳の精度を向上させることを考えた . 本論文では,複文翻訳の学習文に複文対訳文だけでなく,単文対訳文も同時に学習した結果を示す。 ## 1 はじめに NMT において翻訳する文と同じ分野の文を学習することが望ましいとされている [1] . 光のため,複文翻訳においては複文対訳文を学習して翻訳する.しかし, 多くの複文対訳文を集めることには限界がある。そとで,複文対訳文だけでなく単文対訳文を学習に使用することで複文翻訳の精度を上げることを考えた . 複文は単文の組み合わせの構造になっている. ぞため, 単文の学習が翻訳の精度向上に影響すると考えている。 本論文では,NMT を使用して複文翻訳するときの単文対訳文の量の影響を調査する。 ## 2 提案手法 複文は複数の単文を組み合わせた構造になっている. そのため,複文学習文に単文を追加することで複文翻訳の精度向上ができると考えた。 本研究では,以下の手法を提案する。 1. 複文対訳学習文と単文対訳学習文を合わせたコーパスを作成 2. 作成したコーパスを NMT で学習 3. 学習した NMT で複文テスト文を翻訳 ## 3 実験 本実験では,OpenNMT-py[2]を用いて翻訳実験を行う. NMT に複文対訳学習文 9 万文のみを学習したモデルと半分の 4 万 6 千文のみ学習したモデルを作成し複文テスト文を翻訳する。光して,光れ光れの複文対訳学習文に単文対訳学習文を 2 万文,4万文, 8 万文,16万文を加えてモデルを作成し,光れ光れのモデルで複文テスト文を翻訳する。 ## 3.1 実験データ 実験には,電子辞書などの例文より抽出したコー パス [3]を用いる.使用するデータの内訳を表 1 に示す. 表 1 実験データ 表 2 に単文対訳学習文の例文を示す. 表 3 に複文対訳学習文の例文を示す. 表 4 に複文テスト文の例文を示す. 表 2 単文対訳学習文の例文 \\ 表 3 複文対訳学習文の例文 & \\ 表 4 複文テスト文の例文 その国はこの戦いを前から予知して光れに備えてきた。 彼らは、わがXYZ 社への訪問中、当社が完全にオープンで協力的であつたことに同意するでしょう。 ## 4 実験結果 ## 4.1 自動評価結果 複文のテスト文 9243 文の翻訳結果の出力文に対して自動評価指標 BLEU[4]による自動評価を行った. 表 5 に複文 9 万文に単文を加えた学習の自動評価結果を示す. 表 6 に複文 4 万 6 千文に単文を加えた学習の自動評価結果を示す. 表 5 複文 9 万文に単文を加えた学習の自動評価結果 表 6 複文 4 万 6 千文に単文を加えた学習の自動評価結果 表 5,6 より, 複文に単文を加えるほど精度は向上していくことがわかる. ## 4.2 出力結果の例文 複文対訳学習文 9 万文に単文対訳学習文を加えて学習する実験の出力結果の例文を示す. 表 7 に翻訳精度が向上した例文を示す. 表 8 に翻訳精度が低下した例文を示す。表 7 翻訳精度が向上した例 \\ 表 8 翻訳精度が低下した例 \\ ## 4.3 人手評価結果 複文テスト文 9243 文を翻訳した結果から 100 文を抽出し,人手による対比較評価を行った . 評価者 は著者 1 名である. 表 9 に複文対訳学習文 9 万文のみの結果と学習文に単文対訳学習文 16 万文を加えた結果を比較した結果を示す。 表 9 複文 9 万文, 複文 9 万文 + 単文 16 万文の対比較評価 表 9 から,複文 9 万文のみの結果より単文 16 万文を加えた結果の方が良い結果となっていることが示された。 ## 4.4 実験のまとめ 実験結果より,複文対訳学習文に単文対訳学習文を多く加えて学習するほど複文翻訳の精度が向上することがわかる . ## 5 考察 5.1 学習文が単文対訳学習文のみの複文翻訳の精度 複文対訳学習文の必要性を確認するため,単文対訳学習文のみを学習した場合の複文翻訳の精度を示す. ## 5.1.1 出力結果の例文 学習文が単文対訳学習文のみの出力結果の例文を表 10 に示す. 表 10 単文対訳学習文のみの出力例 \\ ## 5.1.2 自動評価結果 複文のテスト文 9243 文を入力文として翻訳実験を行い, 出力文に対して自動評価指標 BLEU による自動評価を行った。 表 11 単文対訳学習文のみの自動評価結果 表 11 より, 単文対訳学習文のみでは複文翻訳の精度がかなり低いことがわかる. 表 5,6 の結果と比較すると,複文対訳学習文の量が単文対訳学習文よりも精度に対する影響が大きいことがわかる. ## 5.2 BLEU 値の考察 複文対訳学習文のみの学習の結果と単文対訳学習文を加えた結果において,自動評価の有用性を調へる.光のために,BLEU 値の近い複文対訳学習文 9 万文の結果と複文対訳学習文 4 万 6 千文に単文対訳学習文 8 万文を加えた結果を人手で比較する。 ## 5.2.1 出力結果の例文 複文対訳学習文 9 万文の結果と複文対訳学習文 4 万 6 千文に単文対訳学習文 8 万文を加えて実験したときの出力結果の例文を示す. 複文対訳学習文 9 万文の結果が良い例を表 12 に示す.また,複文対訳学習文 4 万 6 千文に単文 8 万文を加えた結果が良い例を表 13 に示す。 表 12 複文対訳学習文 9 万文の結果が良い例 \\ 表 13 複文対訳学習文 4 万 6 千文 + 単文 8 万文の結果が良い例 \\ ## 5.2.2 人手評価結果 複文テスト文 9243 文を翻訳した結果から 100 文を抽出し,人手による対比較評価を行った. 評価者は著者 1 名である.表 14 に複文対訳学習文 9 万文のみの結果と複文対訳学習文 4 万 6 千文に単文対訳学習文 8 万文を加えた結果を対比較評価した結果を示す. 表 14 複文 9 万文, 複文 4 万 6 千文 + 単文 8 万文の対比較 評価 表 14 から, 人手評価では複文 9 万文のみの結果の方が少し良い結果となっていることがわかる.表 12の1つ目に示す例文のように出力単語は良く見える.しかし,文全体では意味がおかしい.このような出力結果が複文 4 万 6 千文 + 単文 8 万文では比較的多く見られた.このことが自動評価と人手評価の結果の違いになっていると考えられる。 ## 6 おわりに 本研究では,NMT による複文翻訳において複文対訳学習文と単文対訳学習文光れ光れを学習した翻訳と複文対訳学習文に単文対訳学習文を加えて学習し翻訳をした。 光の結果,複文翻訳において以下のことがわ かった ・複文対訳学習文に単文対訳学習文を加えることで翻訳精度が向上する ・複文対訳学習文の量は単文対訳学習文よりもさらに翻訳精度に大きく影響する ・複文対訳学習文のみと単文対訳学習文を加えた学習文の比較において, 単語よりも文全体の意味か間違うことが比較的多くなるので, 自動評価が参考になりにくい 今後の研究では, 本研究で使用した NMT のモデルとは異なる翻訳モデルについての調査を行う. ## 参考文献 [1] Rui Wang, Masao Utiyama, Andrew Finch, Lemao Liu, Kehai Chen, and Eiichiro Sumita. Sentence selection and weighting for neural machine translation domain adaptation. IEEE/ACM Transactions on Audio, Speech, and Language Processing, Vol. 26, No. 10, pp. 1727-1741, 2018. [2] Opennmt - open-source neural machine translation, 2017. https://opennmt.net/. [3] 村上仁一. 日英対訳データベースの作成のための 1 考察. 言語処理学会第 17 回年次大会発表論文集, D4-5, pp. 979-82, 2011. [4] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th annual meeting of the Association for Computational Linguistics, pp. 311-318, 2002.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P10-1.pdf
# 多言語事前学習モデルを前提とした 非英語間ピボット翻訳の特徵調査 今村 賢治隅田英一郎 国立研究開発法人情報通信研究機構 \{kenji.imamura, eiichiro.sumita\}@nict.go.jp ## 概要 多言語翻訳モデルは、複数の言語を一つのモデルで扱えるようにしたものであるが、学習していない言語対(ゼロショット翻訳)の翻訳品質は非常に悪い。一方、ピボット翻訳は英語等のピボット言語を介して原言語 $セ$ ピボット $\rightarrow$ 目的言語の翻訳を行う方法で、原言語と目的言語の直接対訳がなくても機械翻訳を行うことができる。 本稿では、多言語モデルを用いてピボット翻訳を行い、直接翻訳と比較する。また、逆翻訳で生成した疑似対訳で多言語モデルをファインチューニングすることで、直接対訳がなくても翻訳品質を向上できることを示す。 ## 1 はじめに 多言語ニューラルネットワークモデルは、複数の言語を一つのモデルで学習させたもので、機械翻訳や言語横断処理に有効である。処理対象に類似した言語(たとえば、同じ言語属のもの)もリソースとして活用することで、低リソースでも処理対象言語の精度を向上させられるという利点がある。1) 機械翻訳の場合、原言語と目的言語の組み合わせで翻訳を行うため、言語特化モデルでは組み合わせ数のモデルを用意しなければならない。多言語モデルを用いると、さまざまな言語対を一つのモデルで扱えるため、管理が容易となる。そのため、対訳コーパスで事前学習したエンコーダ・デコーダモデルもいくつか公開されている。 たとえば、OPUS-100 コーパスを事前学習した多言語翻訳モデル $[1]^{2)}$ が公開されている。これは、  100 言語と英語間の翻訳モデル(いわゆる英語中心 English-Centric モデル)である。M2M-100 モデル $[2]^{3)}$ の対象も 100 言語であるが、英語以外の対訳コーパスを追加することで、 2,200 方向の事前学習を行っている。なお、mBART $[3,4]$ もエンコーダ. デコーダ型の事前学習モデルだが、これは単言語コーパスだけで訓練されている。 100 言語を翻訳対象とした場合、のべ 9,900 方向の翻訳を行う可能性があるが、多言語翻訳モデルを用いても、対訳コーパスで学習されていない言語対 (ゼロショット翻訳 [5] と呼ばれている)の翻訳品質は非常に悪く、実用に適さない場合が多い。 対訳コーパスの入手が困難な言語対で、ある程度精度のよい翻訳を実現する方法として、ピボット翻訳 [6] がある。これは、原言語と目的言語の間にピ ボット言語 $\rightarrow$ 目的言語を実現する (図 1(a))。ピボットには、対訳コーパスが豊富な言語が有利なため、英語が用いられることが多い。ピボット翻訳は統計翻訳でよく利用されていたが、ニューラル機械翻訳にも適用可能である。多言語事前学習モデルにピボット翻訳を適用することで、対訳コーパスが存在しない言語間 (ゼロリソース言語。主に非英語間) の翻訳であっても、 1 つのモデルで実用的な翻訳が実現できる。 本稿では、ゼロリソース言語対に対して、多言語事前学習モデルを用いたピボット翻訳を適用し、翻訳品質の測定と、逆翻訳を併用した品質向上法について議論する。 ## 2 本稿の多言語事前学習モデル 今回、CC-100 コーパス $[7,8]$ と、OPUS-100コー パス $[9,10]$ または CCAligned v1 コーパス [11] がカバーする 103 言語に対応した英語中心モデルを新た  表 1 コーパスサイズ & テスト \\ ASPEC-JC & 669,923 & 2,090 & 2,107 \\ に訓練した。CC-100 は単言語コーパス、OPUS-100 と CCAligned は対訳コーパスである。いずれも Web のクロールデータを基にしている。 構築方法は以下のとおりである。 1. まず、[12]の方法を踏襲し、mBART-50 [3] モデルの単語埋込を、CC-100コーパスがカバーする 109 言語に拡張した。拡張部分はランダム初期化している。 2. 次に、CC-100コーパスを用いて、上記モデルに対してノイズ除去の追加訓練した。この訓練は、mBART-50 の訓練と同じである。 3. その後、OPUS-100とCCAligned コーパスのうち、英語 ↔外国語対訳を用いて、モデルを追加訓練した。言語対によって、コーパスサイズに大きな差があるため、温度サンプリング [13] を行い、コーパスサイズが大きな言語対はダウンサンプリング、小さな言語対はアップサンプリングしながら訓練した(温度係数 $T=0.7$ )。 作成されたモデルは、基本的には mBART-50 と同じ構造なので、エンコーダ、デコーダはそれぞれ 12 層、埋込 1,024 次元、FFN4,096 次元、 16 ヘッド、単語埋込は 25 万語である。なお、mBART-50 は、原言語と目的言語を言語タグという形で指定するため、本モデルも翻訳時に原言語、目的言語が明確になっている必要がある。 本モデルの訓練コーパスサイズ(一部)と、3 節で用いる ALTコーパスの言語と英語間の翻訳品質を付録に示す。 ## 3 翻訳実験 本稿では、外国語と日本語間翻訳について実験を行う。 ## 3.1 実験設定 ## 3.1.1 コーパス 今回は、ゼロリソース言語と、直接対訳が存在した場合を比較するため、以下の対訳コーパスを利用した。コーパスサイズを表 1 に示す。なお、訓練直接翻訳 ピボット翻訳 (a) 翻訳方式 ## 基本モデル 2節のモデルを そのまま使用 ## $+X X \rightarrow$ Enモデル ピボットの前半部を強化 (b) モデル ## +直接対訳モデル ピボットを経由せずに直接翻訳を強化 ## $+E n \rightarrow X X$ モ゙ルル ピボットの後半部を強化 図 1 翻訳方式とモデル セットは、著しく長さが異なる対訳を取り除いたあとのサイズである。 低リソース言語の実験では、Asian Language Treebank (ALT) Parallel コーパス [14] ${ }^{4}$ を使用した。 これは、英語 $(\mathrm{En}) 、 日$ 本語 $(\mathrm{Ja})$ の他、ベンガル語 語 (Lo)、マレー語 $(\mathrm{Ms})$ 、ミャンマー語 $(\mathrm{My})$ 、タイ語 $(\mathrm{Th}) 、$ タガログ語 $(\mathrm{Tl}) 、$ 、ベトム語 $(\mathrm{Vi})$ 、中国語簡体字 $(\mathrm{Zh})$ をカバーする多言語コーパスである。同じ英語 Wikinews の文を各言語に翻訳しているため、英語以外の言語間でも対訳となっているのが特徴である。実験は、日本語と英語以外の外国語間の翻訳について行う。 中リソース言語の実験では、ASPEC-JC[15]5)を使用する。これは日本語 $(\mathrm{Ja})$ と中国語 $(\mathrm{Zh})$ の対訳コー パスで、科学技術文献を基にしている。対応する英語はない。主として、逆翻訳の有効性を確認するために使用する。 ## 3.1.2 比較方式・翻訳システム 本稿では、直接翻訳とピボット翻訳の比較を行う (図 1(a))。その際、使用するモデルは、2 節の多言語事前学習モデルをそのまま使用する場合を基本  モデルとし、それを対訳コーパスでファインチュー ニングしたモデルの翻訳結果と比較する (図 1(b))。 ファインチューニングは、以下の対訳コーパスを用いて行った。 ## - +直接対訳: 外国語 ↔ 日本語対訳でファインチューニングした場合。ピボットを経由してないため、翻訳方式は直接翻訳となる。6) ## - $+\mathbf{X X \rightarrow$ En:} 外国語 $\rightarrow$ 英語対訳でファインチューニングした場合。ピボット翻訳の前半部を強化した状態となる。なお、ピボット翻訳の後半部は基本モデルを使用する。 ## - +En $\rightarrow \mathbf{X X :$} 英語 $\rightarrow$ 外国語対訳でファインチューニングした場合。ピボット翻訳の後半部を強化した状態となる。ピボット翻訳の前半部は基本モデルを使用する。 ピボット翻訳を用いると、ゼロリソース言語対でも機械翻訳を行うことができるので、直接対訳コー パス(人手翻訳)以外にも、目的言語のコーパスをピボット経由で逆翻訳した疑似対訳を用いてファインチューニングすることもできる。本稿では、人手翻訳と逆翻訳で作成した疑似対訳の比較も行う。なお、原言語から作成した疑似対訳は本稿では順翻訳と呼ぶ。逆翻訳は単語サンプリング $[17,18]$ を使って、目的言語 1 文に対して 1 つの疑似原文を生成した。順翻訳は、翻訳品質が直接最終翻訳品質に影響するため、1 ベスト訳を使用した。 ## 3.1.3 その他の実験設定 ファインチューニングとテスト時のハイパーパラメータを表 2 に示す。 評価は sacreBLEU [19] で行った。ミャンマー語など、トークナイザーが対応していない言語は BLEU [20] で評価するのが不適切な場合もあるため、トー クナイザー非依存の評価方法である ChrF [21] の評価結果を併記する。 ## 3.2 実験結果 ALT コーパスによる実験結果を表 3、ASPEC-JC コーパスによる実験結果を表 4 に示す。なお、ALT 6)ファインチューニングしていない言語は catastrophic forgetting 現象 [16] により翻訳品質が著しく低下するため、ピボット翻訳は適用できない。表 2 ハイパーパラメータ一覧 コーパスの結果は外国語 $\leftrightarrow$ 日本語の結果の平均值を示している。 ## 3.2.1 ピボット翻訳 vs. 直接翻訳 ALT コーパスも、ASPEC-JC コーパスも、言語方向によらず、基本モデルで直接翻訳した結果 (No. 1) は非常に低い値となっている。これはゼロショット翻訳となっているためである。しかし、同じモデルでピボット翻訳を使う (No. 2) と、 12 ポイント以上の BLEU スコアで翻訳することができ、ゼロリソー ス言語でもある程度の翻訳品質が確保できる。直接対訳でファインチューニングすると(No. 5a)、No. 2 に比べも ALT コーパスで 3 ポイント以上、ASPEC-JCコーパスでは 18 ポイント以上、 BLEU スコアが向上する。ALT コーパスは 1.8 万文しかファインチューニングに使用していないので、翻訳品質向上を目指すなら、できる限り直接対訳を整備すべきである。 ## 3.2.2ピボット翻訳の前半部と後半部 表 3 の No. 3a、4a はそれぞれ基本モデルの一部の言語を対訳コーパスでファインチューニングしたものである。No. 3a はピボットの前半部、No. $4 \mathrm{a}$ は後半部を強化したことに相当する。 No. 2 と No.3a は、大きな差異がないが、No. 4a は BLEU スコアが 3 ポイント程度向上している。つまり、ピボット翻訳の前半部と後半部では、後半部を強化した方が、効率的に品質を向上させることができた。これは、基本モデルが Web から取得したコー パスで学習されているおり、ドメインが異なっているためで、ピボット後半をドメイン適応させることで品質向上したものと考えられる。 表 3 ALTコーパスの翻訳結果。太字はモデル・翻訳方式で最高品質を表す。 表 4 ASPEC-JC コーパスの翻訳結果。太字はモデル・翻訳方式で最高品質を表す。 ## 3.2.3機械翻訳によるデー夕拡張 表 3、表 4 の No. 3a, 4a, 5a は、人手翻訳による対訳コーパスでファインチューニングしたモデル、 No. 3b, 4b, 5b は、機械翻訳(逆翻訳または順翻訳) で作成した疑似対訳でファインチューニングしたモデルによる結果である。 ピボット翻訳のベースライン (No. 2) と比べると、 ピボットの前半部を疑似対訳で強化 (No. 3b) しても、翻訳品質はほとんど変わらない。 一方、逆翻訳で作成した疑似対訳でピボットの後半部を強化 (No. 4b) したり、直接対訳でファインチューニングすると (No. 5b)、ベースラインより大幅に翻訳品質を向上させることができる。人手翻訳 (No. 5a) の翻訳品質には到達できないが、逆翻訳は目的言語の単言語コーパスがあれば可能である。単言語コーパスが豊富にあるならば、ゼロリソース言語対でも、(疑似)直接対訳をピボット逆翻訳で作成しファインチューニングすれば、効率的に翻訳品質を向上させることができると考えられる。 ## 4 まとめ ピボット翻訳はゼロリソース言語対でも翻訳が可能である。目的言語の単言語コーパスがあれば、逆翻訳により疑似対訳コーパスを生成することができるので、ゼロリソース状態でも翻訳品質を向上させることができる。翻訳品質そのものは直接翻訳の方が高いため、実用システムを目指すなら、直接対訳コーパスを充実させるべきであるが、直接翻訳が実現できない場合でも、これに準じる性能を実現できるピボット翻訳は有用である。さらに、機械翻訳を新しい言語対に拡張する際、翻訳結果を確認したり、逆翻訳で作成した疑似対訳を後編集することで直接対訳作成の補助にも利用できる。 ピボット翻訳と直接翻訳を適切に使い分けながら、多言語化を進める予定である。 ## 謝辞 本件は、総務省の「ICT 重点技術の研究開発プロジェクト (JPMI00316)」における「多言語翻訳技術の高度化に関する研究開発」による委託を受けて実施した研究開発による成果です。 ## 参考文献 [1] Biao Zhang, Philip Williams, Ivan Titov, and Rico Sennrich. Improving massively multilingual neural machine translation and zero-shot translation. arXiv e-print, 2004.11867, 2020. [2] Angela Fan, Shruti Bhosale, Holger Schwenk, Zhiyi Ma, Ahmed El-Kishky, Siddharth Goyal, Mandeep Baines, Onur Celebi, Guillaume Wenzek, Vishrav Chaudhary, Naman Goyal, Tom Birch, Vitaliy Liptchinsky, Sergey Edunov, Edouard Grave, Michael Auli, and Armand Joulin. Beyond english-centric multilingual machine translation. arXiv e-print, 2010.11125, 2020. [3] Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis, and Luke Zettlemoyer. Multilingual denoising pre-training for neural machine translation. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 726-742, 2020. [4] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, Online, July 2020. Association for Computational Linguistics. [5] Melvin Johnson, Mike Schuster, Quoc Le, Maxim Krikun, Yonghui Wu, Zhifeng Chen, Nikhil Thorat, Fernanda Viégas, Martin Wattenberg, Greg Corrado, Macduff Hughes, and Jeffrey Dean. Google's multilingual neural machine translation system: Enabling zero-shot translation. Transactions of the Association for Computational Linguistics, Vol. 5, No. 0, pp. 339-351, 2017. [6] Masao Utiyama and Hitoshi Isahara. A comparison of pivot methods for phrase-based statistical machine translation. In Human Language Technologies 2007: The Conference of the North American Chapter of the Association for Computational Linguistics; Proceedings of the Main Conference, pp. 484-491, Rochester, New York, April 2007. [7] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised cross-lingual representation learning at scale. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8440-8451, Online, July 2020. Association for Computational Linguistics. [8] Guillaume Wenzek, Marie-Anne Lachaux, Alexis Conneau, Vishrav Chaudhary, Francisco Guzmán, Armand Joulin, and Edouard Grave. CCNet: Extracting high quality monolingual datasets from web crawl data. In Proceedings of the Twelfth Language Resources and Evaluation Conference, pp. 4003-4012, Marseille, France, May 2020. European Language Resources Association. [9] Roee Aharoni, Melvin Johnson, and Orhan Firat. Massively multilingual neural machine translation. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3874-3884, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [10] Jörg Tiedemann. Parallel data, tools and interfaces in opus. In Nicoletta Calzolari (Conference Chair), Khalid Choukri, Thierry Declerck, Mehmet Uğur Doğan, Bente Maegaard, Joseph Mariani, Asuncion Moreno, Jan Odijk, and Stelios Piperidis, editors, Proceedings of the Eight International Conference on Language Resources and Evaluation (LREC'12), Istanbul, Turkey, may 2012. European Language Resources Association (ELRA). [11] Ahmed El-Kishky, Vishrav Chaudhary, Francisco Guzmán, and Philipp Koehn. CCAligned: A massive collection of cross-lingual web-document pairs. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 5960-5969, Online, November 2020. Association for Computational Linguistics. [12] Zihan Wang, Karthikeyan K, Stephen Mayhew, and Dan Roth. Extending multilingual BERT to low-resource languages. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 2649-2656, Online, November 2020. Association for Computational Linguistics. [13] Naveen Arivazhagan, Ankur Bapna, Orhan Firat, Dmitry Lepikhin, Melvin Johnson, Maxim Krikun, Mia Xu Chen, Yuan Cao, George Foster, Colin Cherry, Wolfgang Macherey, Zhifeng Chen, and Yonghui Wu. Massively multilingual neural machine translation in the wild: Findings and challenges. arXiv e-print, 1907.05019, 2019. [14] Hammam Riza, Gunarso Michael Purwoadi, Teduh Uliniansyah, Aw Ai Ti, Sharifah Mahani Aljunied, Luong Chi Mai, Vu Tat Thang, Nguyen Phuong Thai, Vichet Chea, Rapid Sun, Sethserey Sam, Sopheap Seng, Khin Mar Soe, Khin Thandar Nwet, Masao Utiyama, and Chenchen Ding. Introduction of the asian language treebank. In Oriental COCOSDA, 2016. [15] Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. ASPEC: Asian scientific paper excerpt corpus. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC'16), pp. 2204-2208, Portorož, Slovenia, May 2016. European Language Resources Association (ELRA). [16] Ian J. Goodfellow, Mehdi Mirza, Da Xiao, Aaron Courville, and Yoshua Bengio. An empirical investigation of catastrophic forgetting in gradient-based neural networks. arXiv preprint, 2013. [17] Kenji Imamura, Atsushi Fujita, and Eiichiro Sumita. Enhancement of encoder and attention using target monolingual corpora in neural machine translation. In Proceedings of the 2nd Workshop on Neural Machine Translation and Generation, pp. 55-63, Melbourne, Australia, July 2018. Association for Computational Linguistics. [18] Sergey Edunov, Myle Ott, Michael Auli, and David Grangier. Understanding back-translation at scale. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 489-500, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. [19] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Brussels, Belgium, October 2018. Association for Computational Linguistics. [20] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [21] Maja Popović. chrF: character n-gram F-score for automatic MT evaluation. In Proceedings of the Tenth Workshop on Statistical Machine Translation, pp. 392-395, Lisbon, Portugal, September 2015. Association for Computational Linguistics. 表 5 基本モデルの訓練コーパスと英語間翻訳品質 ## A 基本モデルの英語 $\leftrightarrow$ 外国語間翻訳品質 本稿で対象とした言語について、基本モデルの訓練コーパスサイズと、英語間翻訳品質を表 5 に示す。CC-100 は単言語コーパスの文数、OPUS-100と CCAligned は英語 ↔外国語間の対訳文数である。 翻訳品質は、ALT コーパステストセットについて、基本モデルで翻訳したもである。翻訳方式は直接翻訳を使用した。なお、表中の‡は、sacreBLEU のトークナイザーが非対応かつスペース区切りが (ほぼ)ない言語を表す。†はトークナイザーが非対応だが、スペース区切りがある言語を表す。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P10-2.pdf
# TED 講演の英日翻訳と日英翻訳の検討 足立十一郎山本一公 中川聖一 中部大学 工学部 情報工学科 } \{ep19002-1545@sti, kazumasayamamoto@isc, nakagawa@isc\}.chubu. ac. jp ## 概要 我々は、MIT の講義や TED 講演を対象に、テキスト入力や音声入力の英日機械翻訳の研究を行ってきた。本稿では、Transformerの翻訳モデルを用いて、英日・日英共通の双方向モデル、TED の英-西の英語側コーパス、および日本語話し言葉コーパス CSJ の模擬講演を使用したデータ拡張、大量の書き言葉対訳コーパスである ASPEC を用いた転移学習などによる改善について報告する。また、TED 講演の BLEU 値が如何に低いかを複数人による翻訳結果の比較と人間による評価により検討した結果について報告する。 ## 1 はじめに 我々は、MIT の講義や TED 講演を対象に、テキスト入力や音声入力の英日機械翻訳の研究を行ってきた $[1,2,3]$ 。機械翻訳技術の進展とともに、統計的機械翻訳手法、系列変換によるニューラル機械翻訳手法を検討してきたが、今回、Transformerによる翻訳手法を導入し、改善を図ったので報告する。 TED 講演の英日機械翻訳は、講演が話し言葉であるため文単位が曖昧であり、また学習に使用するパラレルデータが少ないという問題があり、100 万ぺアある ASPEC のような書き言葉の翻訳と比べて格段に難しい $[2,3]$ 。TED 講演の英日翻訳に関しては、 IWSLT のワークショップで、2021 年には英日の瞬時テキスト翻訳が、2022 年には英日の瞬時音声翻訳がタスクに加えられている[4,5]。Fukuda らは、 Transformer の学習に TED の英日 22 万文のパラレルコーパス以外に、WMT20 news の 1800 万文ペアを用いて、IWSLT2021 Devセットに対してテキスト入力のオフライン翻訳で 16.8、瞬時翻訳で 15.6 の BLEU 値を得ている[6]。瞬時翻訳は、オフライン翻訳に比べて BLEU 值で 10\% 20\%程度低下する。また、音声入力の音声翻訳は、音声認識性能に大きく依存するが、テキスト翻訳に比べて、BLEU 値で $10 \%$ ~20\%低下寸る $[4,5]$ 。 パラレルデータ不足を補うために単言語コーパスによるデータ拡張手法がある[7]。これは、単言語コ一パスを翻訳することで疑似的なパラレルコーパスを作成し、ベースとなるパラレルコーパスと混合して学習に用いる手法である。山岸らは、本手法の単言語コーパスとして、日本語話し言葉コーパス CSJ の学会講演の書き起こしを使用した[8]。本研究では、 TED の英語-スペイン語のパラレルーパスの英語側の単言語と CSJ の日本語単言語の模擬講演コーパスを使用する。 同じく山岸らは、Fukuda らと同様に、ドメインの異なる大規模パラレルコーパスを用いた転移学習を TED 翻訳に適用した $[8]$ 。具体的には、IWSLT2010の TED のテストデータに対して、書き言葉の 100 万文英日ペアの ASPEC や字幕データの 280 万文ぺアの JESC からの転移学習で、それぞれ $14.19,15.47$ の BLEU 値を得ている $[7,9]$ 。本研究でもこの手法を利用する。 低リソース言語のモデルの学習手法として、マルチリンガル学習がある[10]。この手法は、多言語のパラレルデータで多言語翻訳モデルを学習し、エンコ一ダの出力である表現を汎用的な意味空間に写像するものと考えられ、小規模のパラレルデータでこのモデルを適応学習する方法である。この類似な方法として、双方向翻訳モデルが提案されている $[11]$ 。これは、対訳コーパスからソースとターゲットを順逆両方向の 2 つのパラレルデータを構築して、順逆両方向の翻訳モデルを共通なモデルとして学習する。 Thanh らは、TED 講演の英語-ベトナム語の双方向翻訳に適用し、有効性を示している[12]。本研究ではパ ラレルコーパスの規模とこの手法の有効性との関係を明らかにする。最後に TED 講演の翻訳の困難さを BLEUと人手による評価で検討する。 ## 2 翻訳モデル ## 2.1 LSTM モデル [13] LSTM(Long-short Term Memory)はある入力単語シ一ケンス $\left.\{\mathrm{x}_{1}, \mathrm{x}_{2}, \ldots \mathrm{x}_{\mathrm{i}}\right.\}$ から別の出力単語シーケンス $\left.\{\mathrm{y}_{1}, \mathrm{y}_{2}, \ldots \mathrm{y}_{\mathrm{j}}\right.\}$ に変換するリカレントネットワークによる sequence-to-sequence モデルである。エンコーダとデコーダはLSTM によって構成される。LSTM とは再帰型ニューラルネットワーク $(\mathrm{RNN})$ の一種で時系列データも考慮したモデルである。LSTM は忘却ゲ一ト、入力ゲート、出力ゲートによって RNN で発生する勾配消失問題の改善を行っている。 本研究ではLSTM モデルの翻訳モデルとして 1 層の双方向の LSTM をエンコーダ、 1 層の単方向の LSTM をデコーダに利用する。またエンコーダの出力の全体ではなく一部に注目する注意機構を用いた。 ## 2.2 Transformer モデル [14] Transformer モデルは再帰型ニューラルネットワ ークの様に時系列データを用いて学習を行う。出力を求める際は RNN ではなくセルフアテンション機構を用いる。エンコーダは同じ構成のエンコーダの積み重ねによって構成されており、それらのエンコ ーダはセルフアテンションとフィードフォワードネットワーク(FFNN)により構成される。デコーダも同じ構成のデコーダが積み重ねられている。一つのデコーダはセルフアテンションと FFNN に加えてその間に注意機構が入っている。標準モデルはエンコー ダ 6 層、デコーダ 6 層であるが、最適な数は学習デ一夕量に依存する。IWSLT の 22 万文ぺアの英日パラレルコーパスで 20 epoch 学習した場合は、 6 層-6 層で $0.80,5$ 層-5 層で $1.94,4$ 層-4 層で $10.36,3$ 層-4 層で 13.66, 3 層-3 層で 13.22 の BLEU 値であった。本研究ではエンコーダとデコーダは 3 層とした。 ## 2.3 単方向翻訳モデルと双方向翻訳モデル 単方向翻訳モデルの場合は、原言語と目的言語のペアで学習することで翻訳モデルを作成する。双方向翻訳モデルの場合は原言語と目的言語のぺアとそれを入れ替えた目的言語と原言語のペアから成るデ ータセットによって学習する。一つの共通モデルで英日、日英翻訳を実現する。 ## 3 翻訳モデルの改善 ## 3.1 データ拡張 本実験で使用する TED 講演のIWSLT (International Workshop on Spoken Language Translation )のコーパスには英語と日本語の対訳コ一パスが少ないため、英語または日本語の単言語コ ーパスをベースモデル $\mathrm{g}$ で翻訳することで英語と日本語の疑似対訳コーパスを作成し、翻訳モデル学習の追加の学習データとすることでデータ拡張を行う。 データ拡張には IWSLT2018 英語-スペイン語ペアの英語側コーパスと CSJ(Corpus of Spontaneous Japanese )日本語コーパスの模擬講演を用いた。 ## 3.2 ASPEC(書き言葉)からの転移学習 100 万文ペアからなる ASPEC (Asian Scientific Paper Excerpt Corpus )コーパスにより単方向翻訳モデル、双方向翻訳モデルを学習し、そのパラメータを初期値として IWSLT 及びデータ拡張したデータセットで翻訳モデルを学習する。なお、ASPEC コー パスによる翻訳モデル学習の際には、TED 語彙ファイルに合わせて学習を行った。 ## 4 翻訳実験 ## 4.1 使用するデータ 本研究では IWSLT2016 英日対訳コーパスを使用した。単言語コーパスとして IWSLT2018 英語-スペイン語ペアの英語側と日本語の単言語コーパスであるCSJ をデータ拡張に用いた。表 1 に学習文数、開発文数、テスト文数を示す。 ## 4.2 各翻訳モデルの仕様 LSTM モデルの学習には OpenNMT[15]Ver. 0.7.0 を使用した。エンコーダは 1 層の双方向 LSTM、デコーダは 1 層の単方向 LSTM を使用した。LSTM の隠れ層の次元数と単語分散表現の次元数は 1024 とした。学習の最適化はSGD、学習率はファインチュ ーニング時は 0.01562 、それ以外は 1.0 、学習 step 数はファインチューニング時は開発データで一番性能が良かった step 数を選び、それ以外は単方向翻訳モデルでは 80000 、双方向翻訳モデルでは 100000 とした。 表 2: TED 講演の翻訳実験結果(BLEU)(無印は 5 つのモデルの平均値、*印は単一の固定 seed モデル) } & ベースライン & $9.52^{*}$ & 9.94* & $14.42 *$ & $14.10^{*}$ \\ 表 1: 使用データセット & & & \\ (日本語 $)$ & 21,9229 & & \\ (2 分野 $)$ & (2 分野 $)$ & (24 分野 $)$ \\ バッチサイズは 64 で epoch 数に換算すると単方向のベースラインは約 23epoch である。語彙サイズはソース・ターゲットそれぞれ 50000 語とした。 Transformer モデルの学習には fairseq[16]Ver.0.12.2 を使用した。エンコーダとデコーダの層数はそれぞれ 3 層、単語分散表現の次元数は 1024 とした。学習の最適化は Adam、学習率は 0.0005、学習 epoch 数は 20 まで学習した。 ## 4.3 評価方法 翻訳モデルの性能評価には BLEU を用いる。本研究では 4-gram までの値を計算し、翻訳モデルの評価に使用した。また、LSTM モデルについては一部を除いてランダム初期値のため、5つのモデルを学習して BLEU 値の平均を求めた。 TED の日本語訳を用いた参照訳は直訳ではなく意訳が多く、機械による訳と相当異なる結果になる。 そこで、翻訳業者 $\mathrm{A}$ と B 依頼して、新たな参照文として使用し、比較する。 ## 5 翻訳実験結果 ## 5.1 翻訳モデルの比較 LSTM と Transformer による各翻訳モデルの主な評価結果を表 2 に示す(詳細な結果は付録に示す)。 LSTM と Transformer を比べると全体で Transformer の方が BLEU 値で 3 程度性能が良い結果となった。 ## 5.2 単方向翻訳モデルと双方向翻訳モデル LSTM モデルではベースラインから双方向翻訳モデルにすることによって BLEU 值が+1.17 改善された。Transformer モデルでは単方向翻訳モデルと双方向翻訳モデルを比較すると BLEU 値の差はあまりなかった。単方向翻訳モデルと双方向翻訳モデルの優劣は学習データ量に依存するかを調べるために ASPEC で評価した。表 3 に結果を示す。Transformer ではすべての場合で単方向翻訳モデルが良かったが、 LSTM モデルにおいて 100 万文では単方向翻訳モデルが良く、50万文では同等、 25 万文の場合は双方向翻訳モデルが性能を上回った。 表 3: ASPEC による単方向、双方向翻訳モデルの翻訳結果 ## 5.3 単言語データからのデータ拡張 ## 一 英語コーパス 対 日本語コーパス 一 (a)英日翻訳 表 2 の「英日翻訳」欄に各モデルの英日翻訳結果 を示す。LSTM モデルの単方向翻訳モデルではデー 夕拡張を行うことでベースラインから BLEU 值が改善されることが分かる。IWSLT2018 と CSJによるデ一夕拡張を比較すると、CSJ によるデータ拡張の方が良くなった。双方向翻訳モデルの場合は、CSJ よりも IWSLT2018 によるデータ拡張の万が良い結果となった。Transformer モデルでは双方向翻訳モデル +IWSLT2018 によるデータ拡張で BLEU 值が向上した。 データ拡張による学習後、元の英日コーパス (英日翻訳用)もしくは日英コーパス(日英翻訳用)でファインチューニングをすると、LSTM モデルでも Transformer モデルでも IWSLT2018 によるデータ拡張をしたモデルで改善が見られた。 (b) 日英翻訳 表 2 の「日英翻訳」欄に各モデルの日英翻訳結果を示す。LSTM の双方向翻訳モデルでは IWSLT2018 のデータ拡張により多くの場合でBLEU 値が改善された。一方、CSJ によるデータ拡張ではあまり改善が見られなかった。Transformer モデルの双方向翻訳モデルでは IWSLT2018 によるデータ拡張で BLEU 値が改善された。 ファインチューニングをすると、英日翻訳の結果と同じ傾向で LSTM モデルでも Transformer モデルでも IWSLT2018 によるデータ拡張をしたモデルで改善が見られた。 ## 5.4 ASPEC モデルからの転移学習 表 2 に示すように ASPEC モデルからの転移学習で、 LSTM でも Transformer モデルでも多くの場合で BLEU 值が改善された。データ拡張と fine tuning により日英翻訳で 15.02 の BLEU 値が得られた。 ## 5.5 人手による評価 (a) 二つの翻訳業者 A, Bによって翻訳されたIWSLT の 12 講演のうち 3 講演のテスト文 254 文を参照文とした場合と IWSLT2016 (TED) 参照文と比較した。 また、TED 参照文に翻訳業者 $\mathrm{A}, \mathrm{B}$ の翻訳文を加えたマルチリファレンスとした結果を表 5 示す。翻訳業者同士の比較でも BLEU 值は低い。特に翻訳業者A の BLEU 值が低い。マルチリファレンスでの BLEU 値は 24.03 と大きく改善した。TEDの翻訳は人間でも摇れが大きい。TED 参照文は意訳であり、機械翻訳に対するターゲットとしては必ずしも適切とは言えない。IWSLT2021では、直訳に近い参照文でも評価され、BLEU スコアが $10 \% \sim 20 \%$ 向上、 2 つマルチリファレンスだと $50 \%$ 以上向上している[4]。我々の場合は、 3 つのマルチリファレンスで $100 \%$ 以上向上した。 (b) 二つの翻訳業者による翻訳文と Transformer モデル (CSJ によるデータ拡張+ASPEC による転移学習をした単方向翻訳モデル) による機械翻訳結果を, T $\mathrm{ED}$ 参照文と比較して男女 2 名 (C, D) の人手によって 1 文ずつ 5 点満点で評価した結果を表 6 に示す。評価基準を以下に示す。 5: TED 参照文の意味と同じ意味である。 4: TED 参照文の意味と概ね同じ意味である。 3: TED:参照文の意味と大まかには似ており、意図はほぼ通じる。 2: TED 参照文の意味と一部やや外れている。 1 TED:参照文の意味とかなり離れていて、意図は正しく伝わらない。 結果は、翻訳業者 $\mathrm{B}>$ 翻訳業者 $\mathrm{A}>$ Transformer と、表 4 の BLEU 值と同じ傾向であり、BLEU 值と人手による評価は相関があると思われる。 表 5: 人手による翻訳との比較(TED 3 講演) & 24.03 \\ 表 6: 人手による TED 参照文と翻訳結果の比較 ## 6 まとめ 本研究では、 22 万文ぺアと小規模データでは双方向翻訳モデルが単方向翻訳モデルよりも翻訳性能が向上した。データ拡張やファインチューニング、転移学習を組み合わせるとさらに翻訳性能が向上した。 ただし、Transformer のベースラインの性能が高く、 Transformerに対する改善効果は比較的小さい。最良モデルの英日で 15.02 , 日英で 15.49 の BLEU 值が得られた。 ## 謝辞 本研究は、豊橋技術科学大学の秋葉友良准教授および秋葉研究室の学生諸君にご協力をいただいた。 また、JSPS 科研費 18 H01062 の研究助成を受けた。 ## 参考文献 [1] 後藤統興, 山本一公, 中川聖一:音声認識誤りを考慮した英語講義音声の日本語への音声翻訳システムの検討,言語処理学会第 23 回年次大会, pp.1054-1057, 2017. [2] 佐橋広也, 秋葉友良, 中川聖一:科学技術論文抄録と講義の英日機械翻訳のリスコアリングの検討,言語処理学会第 25 回年次大会、 pp. 1165-1168, 2019. [3] 松永凌:トピック分散表現と逆翻訳によるデ一タ拡張を用いた英日機械翻訳,中部大学卒業論文, 2022 [4] Antonios Anastasopoulos, Ondřej Bojar, et.al: Findings of the IWSLT 2021 evaluation campaign, Proc. IWSLT-2021, pp.1-29, 2021. [5] Antonios Anastasopoulos, Loïc Barrault, et.al: Findings of the IWSLT 2022 evaluation campaign, Proc. IWSLT-2022, pp. 98-158, 2022. [6] Ryo Fukuda, et al.: NAIST English-to-Japanese simultaneous translation system for IWSLT 2021 simultaneous text-to-text task, Proc. IWSLT-2021, pp. 39-45, 2021. [7] Rico Sennrich, Barry Haddow, Alexandra Birch: Improving neural machine translation models with monolingual data, Proc. ACL, pp. 86-96, 2016. [8] 山岸勇輝, 秋葉友良, 塚田元 : 逆翻訳を用いたデータ拡張と転移学習を利用した英日講演字幕翻訳の改善, 言語処理学会第 26 回全国大会, pp.1277-1280, 2020. [9] 山岸勇輝, 秋葉勇輝, 塚田元: 入力側単言語資源と転移学習を利用による講演字幕を対象とした英日ニューラル機械翻訳の改善,言語処理学会第 28 回全国大会, pp.1317-1321, 2022. [10] Raj Dabre, Chenhui Chu, Anoop Kunchukuttan: A survey of multilingual neural machine translation, ACM Computer Surveys, vol.53, no.3, 2020. [11] Liang Ding,Di Wu, Dachen Tao: Improving neural machine translation by bidirectional training, arXiv:2109.07780, 2021. [12] Bui Tuan Thanh, 秋葉友良, 塚田元: 双方向翻訳モデルと反復逆翻訳を用いた低資源言語に対するニューラル機械翻訳の性能向上, 言語処理学会第 28 回全国大会, pp. 1756-1760, 2022. [13] Ilya Sutskever, Oriol Vinyals, Quoc V. Le: Sequence to sequence learning with neural networks, Advances in Neural Information Processing Systems (NIPS 2014), 27, 2014. [14] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob, Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin: Attention is all you need. Conference on Neural Information Processing Systems (NIPS2017), 30, 2017. [15] Open Source Neural Machine Translation in PyTorch, 2023 年 1 月 12 日, https://github.com/OpenNMT/OpenNMT-py. [16] Facebook AI Research Sequence-to-Sequence Toolkit written in Python, 2023 年 1 月 12 日, https://github.com/facebookresearch/fairseq. 付録 A: TED 講演の翻訳実験結果 (BLEU) (無印は 5 つのモデルの平均値、*印は単一の固定 seed モデル) 付録 B:翻訳例 \\
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P10-3.pdf
# Decoder のみを用いた機械翻訳モデルの分析 木山朔 金輝燦 平澤寅庄 岡照晃 小町守 東京都立大学 \{kiyama-hajime,kim-hwichan, hirasawa-tosho\}@ed.tmu.ac.jp \{teruaki-oka, komachi\}@tmu.ac.jp ## 概要 現在の機械翻訳モデルの主流は Encoder-Decoder モデルである。一方で,Encoder を使わず Decoder のみの翻訳モデル (Decoder-only モデル) が提案されており,Encoder-Decoder モデルと同程度の BLEU が報告されている. しかし既存研究が実験に用いた評価指標や言語対は限定的であり,十分な検証が行われているとは言えない。そこで本研究では Encoder-Decoder モデルと Decoder-only モデル間の詳細な比較・分析を報告する.特に英日方向について人手評価の結果,流暢性と妥当性で Decoder-only モデルの有用性が確認された. ## 1 はじめに 自然言語処理の様々なタスクにおいて EncoderDecoder モデルは広く用いられている $[1,2]$. 特に機械翻訳や文書要約などの生成タスクで EncoderDecoder が主流になっている.その一方 GPT $[3,4,5]$ を代表する Decoder-only モデルの高精度な言語生成も注目を集めている。 Wang ら [6] は GPT-3 の few-shot learning での翻訳が教師なしモデルと同程度の BLEUを獲得したことから, Decoderのみを使った翻訳モデル (Decoder-only モデル)を提案した. 原言語文と目的言語文を結合させ,言語モデリングタスクで Decoderを学習し,翻訳モデルとする。図 1 に Decoder-only モデルの推論時の概要図を示す. 原言語文とタグ (<en2ja>など)を入力とし目的言語文を生成している. また Gao ら [7] は Wang らのモデルに対し原言語文全体を self-attention で見れるように拡張することで Encoder-Decoder モデルと同等の BLEU を達成できることを報告した。これよりGao らは Encoder-Decoder モデルは壳長であると主張している.しかし彼らの実験では BLEU や TER [8]による自動評価しか行われておらず,Encoder-Decoder, 図 1: Decoder-only モデルの推論時の概要図 Decoder-only モデル間の翻訳結果の詳細な分析がなされていない. そこで本研究では自動評価,人手評価の 2 つの観点から Decoder-only モデルの詳細な分析を行った. 自動評価では流暢性を測るために perplexity を,妥当性を測るために BLEU に加えて COMET [9] と WMD [10] を追加した. 人手評価では定量的な評価として流暢性と妥当性を,定性的な評価として翻訳の質の評価(誤訳の分類)を行なった。本研究での主な発見は以下の通りである: - 自動評価指標 BLEU,COMET,WMD では Encoder-Decoder モデルの方がスコアが高いが, Perplexity では Deocder-only モデルが EncoderDecoder モデルを上回った. - 人手評価において流暢性と妥当性は Decoderonly モデルが良く,Mis-translation も EncoderDecoder モデルと比較して少ない. ## 2 関連研究 ## 2.1 Encoder-Decoder 機械翻訳とは,原言語文 $\mathbf{x}=\left.\{x_{1}, x_{2}, \ldots, x_{N}\right.\}$ を目的言語文 $\mathbf{y}=\left.\{y_{1}, y_{2}, \ldots, y_{M}\right.\}$ に翻訳するタスクである. ここで $x_{i} \in \mathbf{x}, y_{j} \in \mathbf{y}$ は各言語の文のトークンを示す。ニューラル機械翻訳では以下の条件付き確率が最大になるように目的言語文を生成する. $ P(\mathbf{y} \mid \mathbf{x})=\prod_{t=1}^{M} P\left(y_{t} \mid \mathbf{x}, \mathbf{y}_{<t}\right) $ ここで $\mathbf{y}_{<t}$ は $t-1$ 番目までの目的言語文のトー クンである. Sutskever ら [1] は,条件付き確率 $P を$ LSTM [11] で構成される Encoder と Decoder という二つのニューラルネットワークでモデル化した. 学習時には,対訳データ $\mathbf{X}=\left.\{\mathbf{x}_{1}, \ldots, \mathbf{x}_{j}\right.\}, \mathbf{Y}=\left.\{\mathbf{y}_{1}, \ldots, \mathbf{y}_{j}\right.\}$ を使い,以下の損失が最小になるようにパラメータを更新する。 $ \begin{aligned} L_{\mathrm{MT}} & =\sum_{(\mathbf{x}, \mathbf{y}) \in(\mathbf{X}, \mathbf{Y})}-\log P(\mathbf{y} \mid \mathbf{x}) \\ & =\sum_{(\mathbf{x}, \mathbf{y}) \in(\mathbf{X}, \mathbf{Y})} \sum_{t=1}^{M}-\log P\left(y_{t} \mid \mathbf{x}, \mathbf{y}_{<t}\right) \end{aligned} $ Encoder-Decoder モデルは機械翻訳や文書要約などの様々なタスクで広く用いられている。特に self-attention を用いた Encoder-Decoder モデルである Transformer [2] は現在の手法のベースとなっている. ## 2.2 Decoder-only Decoder-only モデルとして GPT が挙げられる $[3$, 4, 5]. GPT は Transformerの Decoder のみを用いたモデルであり非常に高精度な言語生成が可能である. Wang ら [6] は GPT-3 の few-shot learning での翻訳が教師なしモデルと同程度の BLEU を獲得したことから,LM4MT という Decoder-only の翻訳モデルを提案した. Decoder-only モデルでは,原言語文 $\mathbf{x}$ にタグ(<en2ja>など)を結合させたものを入力とし,目的言語文 $\mathbf{y}$ を生成する。なお,原言語文 $\mathbf{x}$ は教師強制的 (Teacher forcing) に処理を行い,目的言語文 $\mathbf{y}$ は自己回帰により生成を行う. Decoder-only モデルの学習時には, 原言語側には自己符号化の損失 $L_{\mathrm{AE}}$, 目的言語側には $L_{\mathrm{MT}}$ を用いる. ハイパーパラメータ入で重み付けした $L_{\mathrm{AE}}$ と $L_{\mathrm{MT}}$ の和である $L_{\mathrm{LM}}$ が最小になるようにパラメー タを学習する。 $ \begin{aligned} & L_{\mathrm{AE}}=\sum_{\mathbf{x} \in \mathbf{X}} \sum_{s=1}^{N}-\log P\left(x_{s} \mid \mathbf{x}_{<s}\right) \\ & L_{\mathrm{LM}}=\lambda L_{\mathrm{AE}}+L_{\mathrm{MT}} \end{aligned} $ Wang らは学習が進むにつれ入を小さくなるようにスケジューリングし,目的言語文側の損失を重視するように学習している。 Gao ら [7] は上記 Decoder-only モデルの改良を行った. Gao らは原言語部分の Attention mask を原言語全体が見れるように変更し,原言語文に対してノイズを加え Decoder-only モデルを学習するこ とで, Encoder-Decoder と同様の BLEUを達成した. このことから, Encoder-Decoder モデルは壳長であり,Decoder のみで十分であると主張した. このように既存研究では, Decoder-only モデルの有用性が報告されているが,BLEU や TER のみでしか評価がされておらず,その他の自動評価や人手評価を用いた詳細な分析がなされていない. そこで, 本研究では, BLEU に加え Perplexity, COMET, WMDを用いて自動評価を行い,また,英日対の人手評価として流暢性,妥当性,翻訳の質を分析した. 人手評価では Decoder-only モデルが流暢性と妥当性がともに高いことがわかった. ## 3 実験設定 データセット en-de, en-ja の 2 つの言語対に実験を行った. en-de では WMT16 [12]を,en-ja では ASPEC [13] を用いた. データサイズは順に 4.5M, 3.0M である. トークナイズには英語とドイツ語では moses ${ }^{11}[14]$ を, 日本語は $\mathrm{MeCab}^{2)}+$ ipadic を利用した. その後, en-de 対では joint-BPE ${ }^{3)}$ [15] モデル, en-ja 対では言語ごとに BPE の SentencePiece ${ }^{4)}$ [16] モデルを学習し,サブワード分割を行った.分割回数はそれぞれ 32,000と4,000とした. モデル Encoder-Decoder, Decoder-only モデルは共に Transformer ベースのモデルを用いる. EncoderDecoder モデルをベースラインとして Decoder-only モデルとの比較を行う. Encoder-Decoder モデルは,Vaswani ら [2]を参考に,各層を 6 層にした。 Decoder-only モデルは, 層数を 12 層に設定した. また Decoder の入力と出力の単語分散表現を共有した.損失の計算では $\lambda=1$ とする.詳細な八イパーパラメータは付録 A に示す. 実装は共に fairseq ${ }^{5)}[17]$ を利用した。 自動評価自動評価においては,Perplexity, BLEU, COMET 6) [9],WMD [10]を用いた。Perplexity は XGLM-1.7B ${ }^{7)}$ [18] を用いており,流暢性を測る目的で計測した.BLEU は sacreBLEU ${ }^{8)}$ [19] を用いて計測した. COMET は複数言語で学習された単語分散表現,WMD は目的言語に対応する単  表 1: 各モデルの翻訳の自動評価 表 2: en-ja 対における pair-wise の流暢性と妥当性の人手評価. win は Decoder-only の方が良く,tie は同程度, lose は Decoder-only の方が悪いことを示す. 語分散表現 9)10)[20]を用いて計算を行い,それぞれ原文,または参照文と出力文との意味的な妥当性を評価する目的で計測した. COMET のモデルは wmt20-comet-qa-daを用いた. 英日モデルの人手評価日本語話者 4 名による, en-ja モデルの人手評価を行った. ASPEC のテストデータからランダムに 100 文をサンプリングし, pair-wise による流暢性と妥当性の評価,翻訳の質に関する評価を行なった.翻訳の質の評価として, Under-translation (不十分な翻訳), Mis-translation (誤訳),Over-translation(過翻訳)の 3 つの側面に関して,人手で計測した。なお評価の際には参考のため参照訳を併記し,モデル名は伏せた。 ## 4 実験結果 自動評価表 1 に各モデルの翻訳の自動評価結果を示す. Perplexity は Decoder-only が良く,流暢性という観点では Decoder-only が Encoder-Decoderを上回った. 一方で BLEU や COMET, WMD などの自動評価指標では Encoder-Decoder が良い. 英日モデルの人手評価表 2 に英日対における pair-wise による流暢性と妥当性の人手評価を示す.流暢性に関してはアノテータ 1, 2, 4 は Decoder-only の方が良いと評価している.これは Perplexity の自動評価と一致する結果である.妥当性に関してもアノテータ 1,2,4 は Decoder-only の方が良いと評価している。これは COMETや WMD の自動評価とは相反する結果である.  表 3: 英日対における翻訳の質の人手評価. U は Undertranslation,M は Mis-translation,O は Over-translation を示す. 表 3 に en-ja 対における翻訳の質の人手評価を示す. Under-translation と Over-translation については各モデル間で大きな差異がみられなかった.しかし Mis-translation については Deocder-only の方が Encoder-Decoder より大幅に少ない. この結果から見ても,人手評価では自動評価と反対に Decoderonly の方が妥当性が良いと評価されることがわかった. 自動・人手評価の考察ここでは自動評価手法として COMETを使い,自動評価と人手評価での妥当性の不一致を分析する.翻訳の質に問題がある例で不一致が起きやすいことがわかった. 表 4 に Encoder-Decoder は Mis-translation しているが,Decoder-only は正確に訳せている例を示す. Encoder-Decoder の出力では「放電」という単語が存在し,「スクラバする」といった誤った訳が出力されている. 本来は「discharges」が「放出する」と訳されるはずであるが,「discharges」を名詞として捉えてしまったため「放電」と訳されたと考えられる。一方で Decoder-only の出力は参照訳に近く流暢かつ妥当である. COMET による自動評価では Encoder-Decoder は 0.9152, Decoder-only は 0.9055 であり Encoder-Decoder が良い. 人手評価では 4 人全員が Decoder-only のほうが妥当性は高く不一致が起こっている. 同様の例が Under-translation の時にも見られた (付録 B).これより COMET では Mis-translation や Under-translation といった翻訳の質の問題に対応しきれていないと考えられる. 人手評価において Decoder-only は妥当性が良く, Mis-translation が Encoder-Decoder と比べ減ることが 図 2: 各アノテータごとの流暢性と妥当性の関係 表 4: Encoder-Decoder で Mis-translation があり,Decoder-only で Mis-translation が見られなかった例 & \\ 表 5: 英日対における推論速度の比較 わかった. 多言語モデルの学習に関する既存研究 [21] では, パラメータのシェアが言語横断的なモデルを学習する上で重要であることが示されている. Decoder-only は原言語, 目的言語間でパラメー タをシェアしており, Transformer より言語横断的な内部表現を学習していると考えられ,これが妥当性の改善につながったと考察する。 流暢性と妥当性の人手評価の分布を調査した.図 2 に各アノテータごとの流暢性と妥当性の関係を示す. 横が流暢性を,縦が妥当性の評価結果を示している. どのアノテータも Encoder-Decoder と Decoder-only の流暢性と妥当性を同程度と判断しているものが最も多い. 一方, Encoder-Decoder では流暢性が良いが Decoder-only では妥当性が高い, Encoder-Decoder では妥当性が良いが Decoder-only では流暢性が高いといった極端に性質が分かれる例は少なかった. これは評価の際に原文と参照訳を併記したためと考えられる. 既存研究 [22]では原文と翻訳結果,参照訳と翻訳結果による人手評価よりも,原文と参照訳と翻訳結果のすべての情報を持った人手評価の方が良いと示されている. 推論速度 Decoder-only モデルの問題点として推論速度が挙げられる. 表 5 に英日対における推論速度の比較結果を示す. 推論時に使用した GPU は NVIDIA A6000 である. ASPEC のテストデータ 1,812 文を推論に用いた。1 秒あたりの処理するトー クン数が Encoder-Decoder では 5537.08,2936.39であり,推論速度は Encoder-Decoder と比べて 4 倍程度遅くなった. 原因としては,原言語文と目的言語文をタグで結合させているためトークン数が 2 倍になっていること, causal に処理する部分が 2 倍になっていることで 1 トークンあたりの処理時間が 2 倍になっていることが挙げられる.この点において Decoder-only は Encoder-Decoder よりも推論速度が遅く,改善が必要である. ## 5 おわりに 本論文では Encoder-Decoder と Decoder-onlyを比較しDecoder の性質を調查した. 流暢性は自動評価と人手評価とともに Decoder-only が高く,妥当性においても人手評価では Decoder-only の方が良い. これは自動評価とは相反する結果であり翻訳の質を自動評価では考慮しきれていないと考えられる。 Decoder-only で妥当性が上がった理由としては原言語と目的言語間でのパラメータシェアが挙げられる.また人手評価において,流暢性と妥当性との関連を示唆する結果となった。一方で Decoder-only の問題点として推論速度の低下がある。 今後の方針としては Decoder-only モデルに基づいた新たな機械翻訳モデルの開発,機械翻訳タスク以外での Decoder-only モデルの再検討, 翻訳の質を考慮した自動評価手法の検討, 人手評価の流暢性と妥当性との関連の分析が挙げられる. ## 謝辞 人手評価を行なった東京都立大学の榎本大晟さん,佐藤郁子さん,中島京太郎さんに感謝いたします。 ## 参考文献 [1] Ilya Sutskever, Oriol Vinyals, and Quoc V Le. Sequence to sequence learning with neural networks. In Z. Ghahramani, M. Welling, C. Cortes, N. Lawrence, and K.Q. Weinberger, editors, NeurIPS, Vol. 27. Curran Associates, Inc., 2014. [2] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, NeurIPS, Vol. 30. Curran Associates, Inc., 2017. [3] Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever, et al. Improving language understanding by generative pre-training. 2018. [4] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, et al. Language models are unsupervised multitask learners. OpenAl blog, Vol. 1, No. 8, p. 9, 2019. [5] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In H. Larochelle, M. Ranzato, R. Hadsell, M.F. Balcan, and H. Lin, editors, NeurIPS, Vol. 33, pp. 18771901. Curran Associates, Inc., 2020. [6] Shuo Wang, Zhaopeng Tu, Zhixing Tan, Wenxuan Wang, Maosong Sun, and Yang Liu. Language models are good translators. arXiv preprint arXiv:2106.13627, Vol. abs/2106.13627, , 2021. [7] Yingbo Gao, Christian Herold, Zijian Yang, and Hermann Ney. Is encoder-decoder redundant for neural machine translation? In AACL, pp. 562-574, Online only, November 2022. Association for Computational Linguistics. [8] Matthew Snover, Bonnie Dorr, Rich Schwartz, Linnea Micciulla, and John Makhoul. A study of translation edit rate with targeted human annotation. In AMTA, pp. 223-231, Cambridge, Massachusetts, USA, August 8-12 2006. Association for Machine Translation in the Americas. [9] Ricardo Rei, Craig Stewart, Ana C Farinha, and Alon Lavie. COMET: A neural framework for MT evaluation. In EMNLP, pp. 2685-2702, Online, November 2020. Association for Computational Linguistics [10] Matt Kusner, Yu Sun, Nicholas Kolkin, and Kilian Weinberger. From word embeddings to document distances. In ICML, pp. 957966. PMLR, 2015. [11] Sepp Hochreiter and Jürgen Schmidhuber. Long short-term memory. Neural computation, Vol. 9, No. 8, pp. 1735-1780, 1997. [12] Ondřej Bojar, Rajen Chatterjee, Christian Federmann, Yvette Graham, Barry Haddow, Matthias Huck, Antonio Jimeno Yepes, Philipp Koehn, Varvara Logacheva, Christof Monz, Matteo Negri, Aurélie Névéol, Mariana Neves, Martin Popel, Matt Post, Raphael Rubino, Carolina Scarton, Lucia Specia, Marco Turchi, Karin Verspoor, and Marcos Zampieri. Findings of the 2016 conference on machine translation. In WMT, pp. 131-198, Berlin, Germany, August 2016. Association for Computational Linguistics. [13] Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. ASPEC: Asian scientific paper excerpt corpus. In LREC, pp. 2204-2208, Portorož, Slovenia, May 2016. European Language Resources Association (ELRA). [14] Philipp Koehn, Hieu Hoang, Alexandra Birch, Chris CallisonBurch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, Chris Dyer, Ondřej Bojar, Alexandra Constantin, and Evan Herbst. Moses: Open source toolkit for statistical machine translation. In ACL, pp. 177-180, Prague, Czech Republic, June 2007. Association for Computational Linguistics. [15] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In ACL, pp. 1715-1725, Berlin, Germany, August 2016. Association for Computational Linguistics. [16] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In EMNLP, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics. [17] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In NAACL, pp. 48-53, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [18] Xi Victoria Lin, Todor Mihaylov, Mikel Artetxe, Tianlu Wang, Shuohui Chen, Daniel Simig, Myle Ott, Naman Goyal, Shruti Bhosale, Jingfei Du, Ramakanth Pasunuru, Sam Shleifer, Punit Singh Koura, Vishrav Chaudhary, Brian O'Horo, Jeff Wang, Luke Zettlemoyer, Zornitsa Kozareva, Mona T. Diab, Veselin Stoyanov, and Xian Li. Few-shot learning with multilingual language models. EMNLP, 2022. [19] Matt Post. A call for clarity in reporting BLEU scores. In WMT, pp. 186-191, Belgium, Brussels, October 2018. Association for Computational Linguistics. [20] Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. Enriching word vectors with subword information. TACL, Vol. 5, pp. 135-146, 2017. [21] Alexis Conneau, Shijie Wu, Haoran Li, Luke Zettlemoyer, and Veselin Stoyanov. Emerging cross-lingual structure in pretrained language models. In ACL, pp. 6022-6034, Online, July 2020. Association for Computational Linguistics. [22] Markus Freitag, George Foster, David Grangier, Viresh Ratnakar, Qijun Tan, and Wolfgang Macherey. Experts, errors, and context: A large-scale study of human evaluation for machine translation. TACL, Vol. 9, pp. 1460-1474, 2021. ## A ハイパーパラメータ 表 6: Encoder-Decoder と Decoder-only のハイパーパラメータの相違点 ## B Under-translation での妥当性の不一致 表 7 に Under-translation で妥当性の不一致が起きた例を示す. COMET による自動評価では Encoder-Decoder は 0.1101,Decoder-only は 0.1342であり Decoder-only が良い。人手評価では 4 人全員が Encoder-Decoder が良いと判断しており,Decoder-only の翻訳を Under-translation と判断している.「ゴムを用いた」という部分が Decoder-only ではないため妥当性が低いと判断された. 表 7: Under-translation で妥当性の不一致が起きた例 \\ reference & ゴムを用いてアルミニウム合金管の胴部の一部に枝管を成形する実験を行った。 \\ Decoder-only & アルミ合金管の主管の一部に分岐管を形成する実験を行った。 \\
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P10-4.pdf
# 複数の参照訳を考慮したニューラル機械翻訳モデルの学習手法 宮崎桂輔 徳永健伸 東京工業大学 情報理工学院 \{miyazaki.k.am@m, take@c\}.titech.ac.jp ## 概要 文の翻訳では訳者や文脈などの条件により異なる訳文が期待され,機械翻訳タスクのベンチマークに用いられる対訳コーパス内にも一つの原文に複数の参照訳が対応している例が多く存在する。一方で既存の機械翻訳モデルの学習手法ではこうしたコーパス内の構造は明示的には用いられない. そこで本研究では,コーパス内の原文が複数の参照訳を持っているという情報を,機械翻訳モデルの学習に明示的に用いる手法を提案する. 評価実験において,提案手法を用いて学習したモデルは旧来の最尤誤差損失のみを用いたモデルに劣る結果となったが,提案手法が文レベル最適輸送損失を用いて学習するモデルの性能向上には寄与することが示された. ## 1 はじめに 文の翻訳において,訳者や文脈などの条件によって目的言語の訳文は異なるものが期待されうる。実際,機械翻訳タスクのベンチマークによく用いられる対訳コーパスにおいて, 原文に対して複数の参照訳を持つ文対が共存することがある. 日英対訳コーパス JESC[1] および英独対訳コーパス WMT14 En-De[2] の学習データセットにおいて, 複数の参照訳を持つ原文の数および原文を共有する参照訳ののべ数を表 1 に示す. また,一つの原文が持つ参照訳の個数の分布を図 1 に示す. 機械翻訳タスクによく用いられる対訳コーパスに,一つの原文が複数の参照訳を持つ例が無視できない割合で存在することがわかる. 一方で,既存の機械翻訳モデルの学習時に,対訳コーパス内に前述のような例が存在するという情報は明示的には用いられない. そこで,本研究では一つの原文が複数の参照訳を持っているという情報を明示的にモデリングした機械翻訳モデルの学習損失を提案する。 提案手法により,対訳コーパス内に存在する,原表 1 学習データセットの統計量 文が複数の参照訳を持っているという情報を機械翻訳モデルの学習に明示的に使用することができ,機械翻訳モデルの性能向上が見込まれる。なお,本研究では機械翻訳タスクのみを扱うが,提案手法は機械翻訳に限らず自己回帰生成を用いた文章生成全体に適用可能である. ## 2 関連研究 本研究では文レベル最適輸送損失 [3] を用いる.文レベル最適輸送損失は,モデルの生成文と参照訳を埋め込み空間上の点の集合とみなして得られる二文間の最適輸送コストであり,自動微分可能な最適輸送アルゴリズムである IPOT[4]を用いて計算することでモデルの損失として学習に用いるものである。旧来の最尤誤差損失に加えて文レベル最適輸送損失を学習に用いることにより LSTM ベースの GNMT モデル [5] の性能を向上させることが,検証により示されている [3]. 各時刻における次単語予測の最尤誤差の総和として計算される旧来の最尤誤差損失よりも,生成文と参照訳の間の最適輸送コストである文レベル最適輸送損失を活用する方が,複数の参照訳が存在するという情報をモデリングするのに適切であると考え, この既存研究に注目した。 ## 3 提案手法 ## 3.1 損失の定義 提案手法では文レベル最適輸送損失 [3] を用いて,一つの原文が複数の参照訳を持っているという情報を明示的に学習に利用する. 文レベル最適 図 1 原文が持つ参照訳の数 $x$ (横軸) と,参照訳を $x$ 個持つ原文の数 (縦軸) の関係 輸送損失は,モデルが生成した訳文 $g$, 参照訳 $r$ に対して,最適輸送アルゴリズム IPOTを用いて $\mathscr{L}_{\text {seq }}(g, r)=\operatorname{IPOT}(g, r)$ と計算される. データセット内の原文 $s$ に対して,モデルが生成した訳文を $g$ ,参照訳の集合を $\mathscr{R}=\left(r_{1}, \ldots, r_{n}\right)$ としたとき,原文 $s$ に対する複数の参照訳を考慮した文レベル最適輸送損失 $\mathscr{L}_{\mathrm{seq}}^{*}(g, \mathscr{R})$ は, 生成した訳文と各参照訳から計算される文レベル最適輸送損失の平均または総和とする。すなわち, 複数の参照訳を考慮した文レベル最適輸送損失を $ \mathscr{L}_{\mathrm{seq}}^{*}(g, \mathscr{R})=\frac{1}{n} \sum_{r \in \mathscr{R}} \mathscr{L}_{\mathrm{seq}}(g, r)=\frac{1}{n} \sum_{r \in \mathscr{R}} \operatorname{IPOT}(g, r) $ または $ \mathscr{L}_{\mathrm{seq}}^{*}(g, \mathscr{R})=\sum_{r \in \mathscr{R}} \mathscr{L}_{\mathrm{seq}}(g, r)=\sum_{r \in \mathscr{R}} \operatorname{IPOT}(g, r) $ と定める。 ## 3.2 損失の実装 提案手法はミニバッチ作成の工夫による実現が可能である.具体的には,同一の原文を持つ対訳が同じミニバッチに入るような制約を課してミニバッチを作成すればよい。 なお, 本研究では fairseq[6] で実装されているミニバッチ作成のアルゴリズムを利用し,以下の三通りのミニバッチ作成アルゴリズムを用いる. 図 2 文対の重複を削除したデータセットにおける,原文が持つ参照訳の数 $x$ (横軸) と,参照訳を $x$ 個持つ原文の数 (縦軸) の関係 ・参照訳の文長が近い文対を集めてミニバッチを作成する方法 (ベースラインの手法. 以下,"base"と記載) ・同一の原文を持つ対訳が同じミニバッチに入る制約を設け,参照訳の最大文長が近い原文を集めてミニバッチを作成する方法 (以下, ”samebatch"と記載) ・同一の原文を持つ対訳が同じミニバッチに入り,かつミニバッチ内に参照訳を複数持つ原文と参照訳を一つのみ持つ原文が共存しない, という制約を設けて,参照訳の最大文長が近い原文を集めてミニバッチを作成する方法 (以 下,"divided"と記載) なお,同一の原文を持つ対訳の数が多すぎて一つのミニバッチに入りきらない例が存在した場合は,制約を緩和し,複数のミニバッチに分けたうえで,連続する学習ステップで学習に用いられるような処理を施すこととした。 また,文レベル最適輸送損失の平均をとる式 (1) と総和をとる式 (2) の二種類の計算方法を提案した. これらは,ミニバッチ内で損失の和を計算する際に単純に総和をとる方法 (ベースラインの手法. 以下 “base” と記載)と,参照訳を $n$ 個持つ原文に関する損失を $1 / n$ するような重みつき和をとる方法(以 下,“decloss”と記載)により実現可能である。 さらに,本研究で扱うコーパスにおいて,原文・参照訳ともに一致する対訳が散見された. そこで, コーパス内から原文・参照訳ともに一致するような対訳の重複を削減する措置 (以下,“deldupl” と表記)をとった. 対訳の重複を削減した後のデータセットにおける,一種類の原文が持つ参照訳の個数の分布を表 2 に示す. なお,この処理で削除された文対の数は, JESC が 1,502 文対, WMT14 En-De が 36,274 文対であった. この処理を行わない手法は以下“base”と表記する. 以上より,実装におけるオプションの種類は 1. ミニバッチ作成の手法: base, samebatch, divided 2. ミニバッチ内の損失の集約に関する手法:base, decloss 3. 重複する対訳の処理に関する手法: base, deldupl のとおりである. 以下ではオプションの選び方に応じて,手法の表記を“[ミニバッチ作成の手法 $]+[$ ミニバッチ内の損失の集約に関する手法]+[重複する対訳の処理に関する手法]”のように記す. 提案手法は samebatch+base+deldupl,または samebatch+decloss+deldupl と表せる. ## 4 実験設定 ## 4.1 データセット 本研究では, JESC[1]を用いた英日翻訳と, WMT14 En-De[2] を用いた英独翻訳を行った。 JESC は, MeCab[7]を用いて形態素単位の分かち書きを行ってから BPEによるサブワード分割を行った. BPE のマージ回数は, 日本語, 英語ともに 32,000 から文字べースの語彙数を引いた値とした.最終的な英語の語彙数は 31,932 , 日本語の語彙数は 31,604となった. WMT14 En-De は, fairseq で公開されている前処理スクリプト1)を用いてデータの前処理および BPE[8] によるサブワード分割を行った。なお,BPEのマー ジ回数は 32,000 とした. 最終的な英語の語彙数は 33,616 , ドイツ語の語彙数は 34,888 となった. ## 4.2 モデル モデルは Transformer の base モデル [9]を用いた. ベースラインモデルとして,学習に最尤誤差損失の 1) https://github.com/facebookresearch/fairseq/blob/ main/examples/translation/prepare-wmt14en2de.sh みを用いるモデルを作成した. さらに,最尤誤差損失と文レベル最適輸送損失の和を用いるモデルを作成した.このモデルは, 提案手法のオプションが base+base+base である場合に相当する。 提案手法として,最尤誤差損失と文レベル最適輸送損失の和を用い, さらにオプションとして samebatch+base+deldupl および samebatch+decloss+deldupl を用いるモデルを作成した。 さらに,アブレーション実験として, 3.2 節に示した提案手法のオプションの種類を組み合わせた全 12 種類のオプションについてもモデルを作成した. ## 4.3 学習設定 最適化アルゴリズムとして Adam[10]を用いた.学習率は固定の値とせず,ウォームアップステップ中の学習率は初期学習率の $10^{-7}$ から最大学習率に線形に推移するようにし, ウォームアップステップ以降はステップ数の平方根に反比例するように学習率を減衰させた. 学習率の最大値は, $\{0.0001,0.0002,0.0005,0.000666,0.001\}$ から探索を行った. ウォームアップステップ数は, JESC の場合 6,000, WMT14 En-De の場合 27,000とした. ドロップアウト率は 0.3 とし, 最尤誤差損失の計算時に平滑化値 0.1 のラベル平滑化 [11]を行った. 文レベル最適輸送損失では Soft-copying mechanism は適用しないものとし, 微分可能な文章生成のために $\operatorname{argmax}$ の代わりに温度 $\tau=0.1$ の Soft-argmax を用いた. 最尤誤差損失に足し合わせる際の重みパラメータ $\gamma$ は 0.1 とした. ミニバッチサイズは 1GPU あたり 3,584トークンとし, NVIDIA Tesla P100 GPU を 4 つ用いて学習を行った. 最大学習ステップ数は 150,000 とした. 1 エポック毎に検証データセットに対するモデルの損失を計算し,損失が一番低いモデルを選択した。 ## 4.4 評価方法 各条件においてモデルを 1 回のみ学習し, 評価を行った. 評価指標は BLEU とし, 脱トークン化した生成文に対して sacreBLEU[12]により算出した. ただし,JESC を用いた評価時には,目的言語側である日本語のテストセット内の文を $\mathrm{MeCab}$ を用いて形態素単位に分かち書きしてから評価に用いた. 生成時のビームサーチの探索幅については, JESC の場合 1 から 10 までの間で 1 刻みに探索を行っ た. WMT14 En-De の場合は, 4 に固定した. ビー ムサーチに付随する文長に対する罰則は,JESC, WMT14 En-De ともに 0.5 から 1.5 までの間で 0.1 刻みに探索を行った。 ## 4.5 追加実験 4.3 節に示した学習設定で実験を行ったところ, WMT14 En-De における BLEU スコアが先行研究 [9] で報告されている値よりも著しく低いものとなった.そこで,追加実験として,WMT14 En-Deを用い,学習パラメータを変えて再度実験を行った. 前述した 1 回目の実験と異なる点は,ミニバッチサイズを 1GPU あたり 4,096トークンとし, update_freq を 2 とすることで実質ミニバッチサイズを $1 \mathrm{GPU}$ あたり 8,192 とした点, 学習率を 0.0007 とした点, ウォームアップステップ数を 4,000 とした点, ドロップアウト率を 0.1 とした点である. ## 5 実験結果 実験結果を表 2 に示す. なお,ベースラインモデルの一つである base+base+base よりも高い BLEU スコアは太字で,各データセットにおける最高スコアは太字十下線で示した。 提案手法である samebatch+base+deldupl は,文レベル最適輸送損失を用いたべースラインモデルである base+base+base よりも一貫して高い性能を示した.この結果から, 文レベル最適輸送損失を用いて学習を行う際に samebatch+base+deldupl の提案手法を追加することの有効性は示された。 一方で,JESC および WMT14 En-De の一回目の実験において, 文レベル最適輸送損失を用いたすべてのモデルが旧来の最尤誤差損失のみを用いるモデルに劣る結果となった. WMT14 En-Deの二回目の実験においても, 文レベル最適輸送損失を用いたべー スラインモデルをはじめとする複数のモデルが旧来の最尤誤差損失のみを用いるモデルに劣る結果を示した. この原因として,本実験におけるパラメータのチューニングが不足しており文レベル最適輸送損失の効果を引き出しきれていないこと,または文レベル最適輸送損失の有効性が限定的であることが考えられる。 また,アブレーション実験を見ると,複数の参照訳を持つ原文の割合が比較的高かった JESC において,バッチ作成アルゴリズムに divided を用いた際の結果が base+base+base よりも 0.4 ポイント以上低表 2 テストデータセットに対する BLEU スコア. dec. は decloss,del. は deldupl の適用の有無を示す. & & & & & \\ base & $\times$ & $\times$ & 13.45 & 24.47 & 25.87 \\ samebatch & $\bigcirc$ & $\bigcirc$ & $\mathbf{1 3 . 7 0}$ & $\mathbf{2 4 . 6 2}$ & 25.64 \\ base & $\bigcirc$ & $\times$ & $\mathbf{1 3 . 7 1}$ & $\mathbf{2 4 . 6 3}$ & $\mathbf{2 6 . 1 4}$ \\ base & $\times$ & $\bigcirc$ & 13.40 & $\mathbf{2 4 . 6 4}$ & $\mathbf{2 6 . 0 3}$ \\ base & $\bigcirc$ & $\bigcirc$ & 13.28 & $\mathbf{2 4 . 6 0}$ & 25.71 \\ samebatch & $\times$ & $\times$ & 13.19 & $\mathbf{2 4 . 6 5}$ & $\mathbf{2 6 . 1 4}$ \\ samebatch & $\bigcirc$ & $\times$ & 13.10 & $\mathbf{2 4 . 5 4}$ & $\mathbf{2 6 . 1 5}$ \\ divided & $\times$ & $\times$ & 12.53 & $\mathbf{2 4 . 6 5}$ & 25.81 \\ divided & $\bigcirc$ & $\times$ & 13.00 & $\mathbf{2 4 . 6 2}$ & 25.81 \\ divided & $\times$ & $\bigcirc$ & 12.47 & 24.38 & $\mathbf{2 5 . 9 2}$ \\ divided & $\bigcirc$ & $\bigcirc$ & 13.04 & 24.33 & 25.85 \\ くなっている. さらに,バッチ作成アルゴリズムに samebatch を用い, deldupl を適用しなかった場合についても base+base+base より劣る結果となっている.このことから,複数の参照訳を持つ原文の割合が高く,一つの原文に対して多数の参照訳が紐づく例が存在するデータセットにおいては, 参照訳の数が極端に多い原文に影響を受けて,バッチ作成アルゴリズムを divided にするとバッチ作成時の制約が強すぎてモデルの学習がうまくいかないこと, そして samebatch を用いる場合も deldupl を適用しないと有効なバッチの作成が行えないことが考えられる. ## 6 おわりに 本研究では,コーパス内の原文が複数の参照訳を持っているという情報を,機械翻訳モデルの学習に明示的に用いる手法を提案した. 実験において提案手法は旧来の最尤誤差損失のみを用いる学習手法に劣る結果となったが,文レベル最適輸送損失を用いるモデルに限れば提案手法が既存手法よりも良い性能を示した。 今後取り組むべき課題として,モデル学習時のパラメータの探索を行うことが挙げられる。 今後の展望としては, データセット内の複数参照訳を持つ原文の割合が提案手法の性能に与える影響を調査することを検討している。また,近年機械翻訳を含む幅広いタスクで活用されている近傍事例を用いて,提案手法を拡張することを検討している。 ## 謝辞 研究について貴重なコメントをくださった山中光 さん,飯島慧さん,論文のレビューをくださった石渡太智さん,伊藤光一さん,鈴木偉士さんに感謝の意を表す。 ## 参考文献 [1] Reid Pryzant, Youngjoo Chung, Dan Jurafsky, and Denny Britz. JESC: Japanese-English subtitle corpus. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Miyazaki, Japan, May 2018. European Language Resources Association (ELRA). [2] Ondřej Bojar, Christian Buck, Christian Federmann, Barry Haddow, Philipp Koehn, Johannes Leveling, Christof Monz, Pavel Pecina, Matt Post, Herve Saint-Amand, Radu Soricut, Lucia Specia, and Aleš Tamchyna. Findings of the 2014 workshop on statistical machine translation. In Proceedings of the Ninth Workshop on Statistical Machine Translation, pp. 12-58, Baltimore, Maryland, USA, June 2014. Association for Computational Linguistics. [3] Liqun Chen, Yizhe Zhang, Ruiyi Zhang, Chenyang Tao, Zhe Gan, Haichao Zhang, Bai Li, Dinghan Shen, Changyou Chen, and Lawrence Carin. Improving sequence-to-sequence learning via optimal transport. In International Conference on Learning Representations, 2019 [4] Yujia Xie, Xiangfeng Wang, Ruijia Wang, and Hongyuan Zha. A fast proximal point method for computing exact wasserstein distance. In Ryan P. Adams and Vibhav Gogate, editors, Proceedings of The 35th Uncertainty in Artificial Intelligence Conference, Vol. 115 of Proceedings of Machine Learning Research, pp. 433-453. PMLR, 22-25 Jul 2020. [5] Yonghui Wu, Mike Schuster, Zhifeng Chen, Quoc V. Le, Mohammad Norouzi, Wolfgang Macherey, Maxim Krikun, Yuan Cao, Qin Gao, Klaus Macherey, Jeff Klingner, Apurva Shah, Melvin Johnson, Xiaobing Liu, Lukasz Kaiser, Stephan Gouws, Yoshikiyo Kato, Taku Kudo, Hideto Kazawa, Keith Stevens, George Kurian, Nishant Patil, Wei Wang, Cliff Young, Jason Smith, Jason Riesa, Alex Rudnick, Oriol Vinyals, Greg Corrado, Macduff Hughes, and Jeffrey Dean. Google's neural machine translation system: Bridging the gap between human and machine translation, 2016. [6] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of NAACL-HLT 2019: Demonstrations, 2019. [7] MeCab: Yet Another Part-of-Speech and Morphological Analyzer. https://taku910.github.io/mecab/. [8] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, Berlin, Germany, August 2016. Association for Computational Linguistics. [9] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30, pp. 59986008. Curran Associates, Inc., 2017. [10] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Yoshua Bengio and Yann LeCun, editors, 3rd International Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings, 2015. [11] Gabriel Pereyra, George Tucker, Jan Chorowski, Lukasz Kaiser, and Geoffrey Hinton. Regularizing neural networks by penalizing confident output distributions, 2017. [12] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Belgium, Brussels, October 2018. Association for Computational Linguistics.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P10-5.pdf
# 漸進的アプローチでの編集量を制御するニューラル機械翻訳 美野秀弥 衣川和卉 後藤功雄 山田一郎 NHK 放送技術研究所 \{mino.h-gq, kinugawa.k-jg, goto.i-es, yamada.i-hy\}@nhk.or.jp ## 概要 言語生成タスクで現在主流となっているモデルは最終結果のみ観察可能で,生成結果に対して修正を加えながら最終結果を出力する漸進的なモデルではない。本稿では生成タスクの1つである機械翻訳に焦点を当て,人間のコンテンツ生成のプロセスを参考にした漸進的アプローチによる制御を考慮したニューラル機械翻訳の手法を提案する。提案手法は途中結果を確認できる他, 途中の翻訳結果に対して編集前後の編集量に応じた制御パラメータを与えることで生成結果を制御することができる.翻訳実験の結果,提案手法の翻訳精度は既存手法と比較して有意な差はなかったが,データごとに適切な制御パラメータを与えると有意に翻訳精度が向上した. ## 1 はじめに ニューラル機械翻訳をはじめとしたテキスト生成タスクの手法は 1 度に正解を出力するモデルが主流であり,生成結果を段階的に編集しながら正解を出力することを想定していない. しかし,公開資料作成などのコンテンツ生成時,人間は一度にコンテンツを完成させるのではなく,段階的にコンテンツを確認,編集しながら完成させることが多い.例えば翻訳品質を保証するための要求事項を定めた国際規格である ISO17100では,翻訳,セルフチェック,バイリンガルチェック, 最終検品などのプロセスが定められており, 図 1 のように段階的な作業が必須となっている,そこで,本稿では生成タスクの 1 つである機械翻訳に焦点を当て,途中の生成結果を確認でき,かつ制御可能なニューラル機械翻訳の手法を提案する。制御は編集前後の編集量とする.提案手法は,翻訳元の文に加えて編集前の機械翻訳結果と制御パラメータとを入力して編集後の翻訳結果を出力するモデルであり,モデルが出力した翻訳結果と制御パラメータとを繰り返し同じモデルに入力することで最終的な翻訳結果を得る。制御パラメータに 図 1 漸進的な翻訳作業の例. は編集前と編集後との翻訳結果間の編集距離をべー スにしたスコアを用いる。人間のコンテンツ生成のプロセスを参考にした漸進的なアプローチを用いることで途中結果を確認できるだけでなく,途中の翻訳結果に対してどの程度編集すべきか編集距離に応じたスコアを与えることで編集量を制御することができる。科学技術論文から抜粋された日英対訳コー パスである ASPEC を用いた日英・英日翻訳実験を行った結果,提案手法は既存のトランスフォーマー ベースのモデルと比較して翻訳精度に有意な差はなかった。しかし,モデルが出力した機械翻訳結果に対してデータごとに適切な制御パラメータを与えることで翻訳精度が向上することを確認した。 ## 2 提案手法 ## 2.1 漸進的アプローチを用いたニューラル 機械翻訳モデル 本稿では,Reid ら [1]の手法を参考にして漸進的アプローチを用いたニューラル機械翻訳を提案する. 図 2 に提案手法が用いるモデルの概要図を示す. 翻訳元の文を $x$ とし,編集ステップごとの出力を $y_{1}, \ldots, y_{t}$ とし,最終出力である翻訳結果を $y_{T}$ とする。この一連の編集過程を以下のようにモデル化して学習する。 $ P\left(y_{T}\right)=\prod_{t=1}^{T-1} p_{\theta}\left(y_{t+1} \mid y_{t}, x\right) $ $\theta$ は学習パラメータである. $y_{1}$ は編集前のデータが存在しないため特殊なトークン ([NULL])を用いる. $p_{\theta}\left(y_{t+1} \mid y_{t}, x\right)$ は以下の式で計算する. $ p_{\theta}\left(y_{t+1} \mid y_{t}, x\right)=p_{\theta}^{g e n}\left(y_{t+1} \mid y_{t}, x, e_{t}\right) $ 図 2 提案手法のモデルの概要図. $e_{t}$ は制御パラメータであり, $y_{t+1}$ と $y_{t}$ との間のトー クンを単位とした編集距離1)を用いる. $t=1$ の場合は編集前のデータがない特殊なケースと見なし,制御パラメータも特殊な值 (999) を用いる. 翻訳時は,式 1 に,翻訳元データと途中の翻訳結果と制御パラメータとを併せて入力する.ステップ数 $T$, および制御パラメータ $e_{t}$ は,開発データを用いた事前実験により固定する。 ## 2.2 学習データの構築方法 提案手法のモデルを学習するためには,(翻訳元データ,編集前の翻訳結果のデータ,編集後の翻訳結果のデータ)の 3 つ組のデータが必要となる2).一般的な対訳データは(翻訳元データ $s$, 最終的な翻訳結果のデータ $t$ )から構成されており,途中の翻訳結果のデータを入手することができないため,新たに構築する必要がある. 人手による翻訳,編集作業結果を用いることが理想だが,膨大なコストがかかるため現実的ではない。そこで,精度の異なる複数の機械翻訳器を用い, 下記の手順により既存の対訳データ $(s, t)$ から擬似的な編集前後の翻訳結果 $u$ を含むデータ対 $((s, u), t)$ を構築する. 1. 機械翻訳器 $\mathrm{A}$ により翻訳元文 $s$ の機械翻訳結果 $u_{A}$ を獲得する. 2. 機械翻訳器 $\mathrm{B}$ により翻訳元文 $s$ の機械翻訳結果 $u_{B}$ を獲得する。 3. $\left(\left(s, u_{A}\right), t\right),\left(\left(s, u_{B}\right), t\right)$ を学習データに追加する。 4. 参照訳 $t$ と機械翻訳 $u_{A}$ の編集距離 $e_{t-u_{A}}$, 参照訳 $t$ と機械翻訳 $u_{B}$ の編集距離 $e_{t-u_{B}}$ を計算し, $e_{t-u_{A}}<e_{t-u_{B}}$ の場合は $\left(\left(s, u_{B}\right), u_{A}\right)$ を, $e_{r-u_{A}}>e_{r-u_{B}}$ の場合は $\left(\left(s, u_{A}\right), u_{B}\right)$ を学習デー タに追加する。 精度の異なる複数の機械翻訳器は,ビームサーチやアンサンブルモデルなどのデコード時の工夫や,学習データを減らして学習することなどにより構築可能である。しかし,ベースの機械翻訳器はビーム幅を最大値にしたアンサンブルモデルであるため,新  表 1 データセットの概要 (ASPEC). たに構築する機械翻訳器はベースの機械翻訳器と比較して精度が低くいものとなり,ベースの機械翻訳器の翻訳結果よりも精度の高い翻訳結果を含む学習データを構築できない. すなわち,デコード時の工夫のみで構築した機械翻訳器で作る学習デー タ内の編集後のデータは,参照訳を除くと,ベースの機械翻訳器による翻訳結果よりも高い翻訳精度のデータとならない. 高い翻訳精度を出すためには,編集前のデータにベースの機械翻訳器の翻訳精度以上の翻訳結果を入力し, 編集後のデータとして編集前よりも高い翻訳精度の結果を出力する必要があり,この条件を満たす学習データの構築が必要となる。そこで,目的言語側のデータを特権情報として入力時に与える語彙制約付きニューラル機械翻訳器 [2] を用いる. 語彙制約付きニューラル機械翻訳器は, 目的言語側の参照訳から複数の単語を翻訳元文と併せて入力することで翻訳結果に重要な単語が含まれやすくなる。学習時,翻訳時ともに,出力される単語を入力する必要があるため,特殊な条件が必要だが,ベースとなる機械翻訳器よりも精度の高い機械翻訳器となっており,目的に合致する。本稿では,美野ら [3] の”Propernoun constraint", "Mistranslated-word constraint", "Both constraints", "Random-word constraint”の語彙制約付きニューラル機械翻訳で学習データを構築する。 ## 3 実験 ## 3.1 実験設定 提案手法の効果を確認するため,科学技術論文コーパス ASPEC [4]を用いた日英・英日翻訳実験を行った. 本稿では ASPEC の中の対訳として対応度の高い 200 万文を用いた。表 1 に本稿で用いるコーパスの統計データを示す. 英語のデータのクリーニング,および単語分割には Moses toolkit ${ }^{3}$ の clean-corpus-n.per ${ }^{4)}$ , tokenizer.per1 ${ }^{5)}$ を用いた。日 3) https://github.com/moses-smt/mosesdecoder 4) https://github.com/moses-smt/mosesdecoder/blob/master/scripts/ training/clean-corpus-n.perl 5) https://github.com/moses-smt/mosesdecoder/blob/master/scripts/ tokenizer/tokenizer.perl 表 2 実験結果 (BLEU). 本語の形態素解析には, KyTea [5] を利用した. 各タスクで語彙数を制限するため,バイトペア符号化(byte pair encoding)を用いたサブワード [6] を用いた. 語彙数は 46,000 とし, 頻度が 35 以下の語彙はサブワードに分割した。ニューラル機械翻訳には, Transformer モデル [7]を用い, Sockeye3 [8] で実装した。本稿のモデルの学習には Adam [9] を optimizer として用い,学習率は 0.0002 とした. バッチ内のデータは 5000 トークン以内になるように構築した. 翻訳時の各エンコーダへの入力の最大長は設定しなかった。 翻訳時は,ビームサーチを用い,ビーム幅を 10 とした. ハイパーパラメータであるステップ数 $T$ と制御パラメータ $e_{t}$ は,開発データを用いた事前実験6)により,日英については $\left(T=3, e_{2}=5, e_{3}=3\right)$, 英日については $(T=1)$ となった ${ }^{7)}$. 翻訳の評価には一般的に用いられている自動評価尺度 BLEU [10] を用いた. BLEU スコアの計算には SacreBLEU ${ }^{8}$ [11]を用い, case-insensitive BLEU-4 の結果で評価した. また,サンプル数を 10000 に設定した paired-bootstrap.py9)を用い,BLEU スコアにおける提案手法と既存手法との有意差を調べた. ## 3.2 比較手法 本稿では,下記の 2 つの手法を比較手法とした。 1つ目は,漸進的アプローチを用いない手法 (従来手法)である. 2 つ目は,漸進的アプローチを用いた手法として,拡散モデルをべースにした,翻訳結果にノイズを混入してデータを構築する手法 [1] (ノイズ付与)である. 2 つ目の比較手法は,学習デー タの構築方法を比較するための手法であり,翻訳結果に挿入,削除ノイズを加えることで,ノイズを加えたデータを編集前,ノイズを加える前のデータを編集後のデータとして(翻訳元データ,編集前の翻 6) 事前実験はステップ数 $\mathrm{T}$ の値を 1-30 にして開発データの翻訳を行い,最も精度の高かった値を $T$ とした。 7)制御パラメータ $e_{1}$ は特殊トークン 999 で固定. 8) https://github.com/mjpost/sacrebleu 9) https://github.com/neubig/util-scripts/blob/master/pairedbootstrap.py表 3 データごとに制御パラメータを与えた翻訳結果. 訳結果のデータ, 編集後の翻訳結果のデータ)の学習データを構築する。 ## 3.3 実験結果 表 2 に実験結果を示す. 有意差検定を行った結果従来手法と比較して有意な差は確認できなかったが,日英翻訳タスクについては従来手法よりも BLEU スコアが高くなった. 英日では,開発データを用いた事前実験の結果ハイパーパラメータであるステップ数 $T=1$ となってしまい,最初のステップ $(t=1)$ による翻訳のみが行われ,翻訳結果に対する編集は行われなかった。 参照訳にランダムにノイズを含ませることで学習データを構築する手法 (ノイズ付与) は翻訳精度が有意に低下した。この手法は低コストで大量の学習データを構築可能だが,翻訳時には入力される可能性のない学習データが大量に含まれるおそれがある.これらのデータが学習時のノイズとなり精度が低下したと考えられる。 初期ステップに従来手法の結果を入力するモデル英日タスクにおいて提案手法の BLEU スコアが低下した原因として,最初のステップ $(t=1)$ で翻訳 ( $x_{1}$ の生成) を行い 2 回目以降のステップで編集を行っており,翻訳と編集の 2 つのタスクを取り扱うモデルとなっているために翻訳のみに特化した従来手法よりも性能が低下したと考えられる. そこで, $x_{0}$ に [NULL] ではなく,従来手法の結果を用いた場合のモデル(提案手法+初期值修正)で実験を行った. 表 2 より,提案手法と同様に,従来手法と比較して有意に精度が向上することはなかったが,日英では BLEU スコアが向上したことに加え,英日では従来手法の結果をそのまま出力することで翻訳精度の低下を防ぐモデルとなった。 ## データごとに適切な制御パラメータを与えた場合 提案手法は,翻訳時の制御パラメータはあらかじめ開発データをもとにタスクごとに固定値を与えた。しかし,実際には適切な制御パラメータはデー タごとに異なるはずである。 そこで,文ごとの適切な制御パラメータが分かっていると仮定し,文ごとに参照訳との編集距離を算出してそれをオラクル値として与えた場合の結果を表 3 に示す. その結果, 表 4 大きな制御パラメータ值を与えた翻訳結果. & \\ 日英,英日ともに,従来手法と比較して有意に精度が向上した。提案手法は文ごとに制御パラメータを推定するようなモデルとはなっていないが,制御パラメータを推定する機構を組み込むことで精度向上が期待できる. ## 制御パラメータによる編集制御 提案手法は,開発データを用いて制御パラメータを設定した結果小さい値となったが,制御パラメー タを大きくすることで正確性や流暢性をある程度維持しつつ,バリエーションのある翻訳結果を生成できる可能性がある.そこで,英日タスクで大きな制御パラメータ値を与えてテストセットを翻訳した。表 4 に例を示す. \#1 の例では, 編集前後で文の構造が変わり,編集後の翻訳結果が編集前と比較して参照訳の構造に近づいていることが分かる。 \#2 の例では, 編集前の翻訳結果の方が参照訳に近く, 編集後の翻訳結果の「この方法によって得られたデー タについて報告した」の部分が過剩訳となっていることが分かる.翻訳元にはない情報が過剩訳となることで意味が変わってしまい \#3 の例では,#2 の例とは異なり,編集後の翻訳結果に訳抜けが生じている.「励起光強度依存性の詳細解析により」の訳抜けについては意味が変わることはないが,「判断した」の訳抜けは意味が変わってしまい問題である. \#1 の例のように,正確性が損なわれなずに文の構造を変えることができればよいが,#2 や#3 の例のように意味が変わる例もある。翻訳結果のバリエー ションが増やせない単純な文について過剰訳や訳抜けになる傾向があると考えられる,今後,人手評価を行い,より詳細な分析を行いたい。 ## 4 関連研究 ニューラル機械翻訳には,トランスフォーマー ベースの自己回帰的なモデル [7] に加え,非自己回帰的なモデル [12]も提案されている. 非自己回帰的なモデルの 1 つである Levenshtein Transformer [12] はトークンを並列に予測するプロセスを繰り返すことで翻訳を行う.このモデルは,並列計算が可能となり高速な翻訳を実現するだけでなく, 反復ステップにより自動ポストエディットなどのタスクにも有効であることを示したが,翻訳精度は自己回帰的モデルを下回る. Reid ら $[1,13]$ は,自己回帰モデルを用いて段階的に編集を行うテキスト生成モデルを提案し [13], それを拡張して拡散モデルベースの生成モデル DIFFUSER を提案した [1]. 提案手法は Reid ら [1] の手法を参考にしているが,参照訳にノイズを付与して対訳データを作成してノイズを除去するように学習する拡散モデルを用いず,順方向の機械翻訳器を用いて対訳データを作成している。 ## 5 おわりに 本稿では,翻訳元の文と機械翻訳結果とを入力して新たな機械翻訳結果を出力する,漸進的なアプローチを用いたニューラル機械翻訳を提案してその効果を検証した.翻訳実験の結果,提案手法が既存手法と同等の精度を出すことを確認した。また,入力する機械翻訳結果の品質評価を適切に行うことができれば,既存手法よりも精度が向上することを確認した. 今後は,文ごとに適切な制御パラメータを推定できるような品質評価の機構を組み込んだモデルを考案・実装したい,また,本稿では,学習デー タの構築時に, 学習データの目的言語文と機械翻訳結果との編集距離をもとにした制御パラメータを用いたが,編集距離を挿入,削除,置換に細分化した制御パラメータを用いることでより細かな制御が可能となると考えられる。適切な制御パラメータを検討して効果を確認していきたい. ## 謝辞 本研究成果は, 国立研究開発法人情報通信研究機構の委託研究(課題 225)により得られたものです. ## 参考文献 [1] Machel Reid, Vincent J. Hellendoorn, and Graham Neubig. Diffuser: Discrete diffusion via edit-based reconstruction, 2022. arXiv preprint arXiv:2210.16886. [2] Guanhua Chen, Yun Chen, Yong Wang, and Victor O.K. Li. Lexical-constraint-aware neural machine translation via data augmentation. In Proceedings of the TwentyNinth International Joint Conference on Artificial Intelligence, pp. 3587-3593. International Joint Conferences on Artificial Intelligence Organization, 7 2020. Main track. [3] Hideya Mino, Kazutaka Kinugawa, Hitoshi Ito, Isao Goto, Ichiro Yamada, and Takenobu Tokunaga. NHK's lexicallyconstrained neural machine translation at WAT 2021. In Proceedings of the 8th Workshop on Asian Translation (WAT2021), pp. 46-52, Online, August 2021. Association for Computational Linguistics. [4] Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. ASPEC: Asian scientific paper excerpt corpus. In Proceedings of the Tenth International Conference on Language Resources and Evaluation, pp. 2204-2208, Portorož, Slovenia, May 2016. European Language Resources Association. [5] Graham Neubig, Yosuke Nakata, and Shinsuke Mori. Pointwise prediction for robust, adaptable Japanese morphological analysis. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 529-533, Portland, Oregon, USA, June 2011. Association for Computational Linguistics. [6] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, Berlin, Germany, August 2016. Association for Computational Linguistics. [7] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems 30, pp. 5998-6008. Curran Associates, Inc., 2017. [8] Felix Hieber, Michael Denkowski, Tobias Domhan, Barbara Darques Barros, Celina Dong Ye, Xing Niu, Cuong Hoang, Ke Tran, Benjamin Hsu, Maria Nadejde, Surafel Lakew, Prashant Mathur, Anna Currey, and Marcello Federico. Sockeye 3: Fast neural machine translation with pytorch, 2022. arXiv preprint arXiv:2207.05851. [9] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In 3rd International Conference on Learning Representations, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings, 2015. [10] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [11] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Brussels, Belgium, October 2018. Association for Computational Linguistics. [12] Jiatao Gu, Changhan Wang, and Junbo Zhao. Levenshtein transformer. In H. Wallach, H. Larochelle, A. Beygelzimer, F. d'Alché-Buc, E. Fox, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 32. Curran Associates, Inc., 2019. [13] Machel Reid and Graham Neubig. Learning to model editing processes. In Conference on Empirical Methods in Natural Language Processing (EMNLP), Abu Dhabi, UAE, December 2022.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P10-6.pdf
# ニューラル機械翻訳のためのノイズ寛容なアンカー学習 根石 将人 東京大学大学院 情報理工学系研究科 neishi@tkl.iis.u-tokyo.ac.jp ## 概要 機械翻訳モデルの学習に用いられる大規模な学習データは収集方法ゆえにノイズデータを含み、それらはモデルの性能低下を引き起こす。本研究は、 SVM モデルに打いて提案されたノイズデータがモデルに及ぼす悪影響を低減するアンカー学習手法に注目し、これをニューラル機械翻訳 (NMT) 亿導入することを試みる。実装上問題となる計算コストを抑えるアンカー表現手法を、ランダムグルーピング手法と組み合わせ手法の 2 通り提案し、ASPEC 英日翻訳と WMT2017 英独翻訳の 2 つの翻訳タスクでその効果を確認した。 ## 1 はじめに 高品質な NMT モデルの学習には大規模な対訳文対データが必要であるが、そのようなデータは Web クローリングなどで自動収集されているために対訳関係にないノイズデータが含まれ、これが翻訳モデルの品質低下を引き起こすことが知られている [1]。 この問題に対処するため、Conference on Machine Translation (WMT) では 2018 2020 年にかけて対訳コーパスフィルタリングに関する Shared Task が開催された $[2,3,4]$ 。これらの Shared Taskを通して提案されたフィルタリング手法を用いて、Herold ら [5] は独語から英語の翻訳タスクにおいて合成混入させたノイズデータの内多くの種類について 90\%以上の除外成功したと報告している。しかしながら、 イズの種類によっては除外精度が 70\%程度に過ぎず、またクメール語から英語のタスクにおいては全体的に精度が低下した。現状のフィルタリング手法ではノイズデータは除外しきれず、また認識されている種類以外のノイズデータの存在も考えられる。 そこで本研究では、Goldberg ら [6]がサポートベクタマシン (SVM) [7]を用いた分類タスクのために提案したアンカー学習に注目した。SVM は二値分 \author{ 吉永直樹 \\ 東京大学生産技術研究所 \\ ynaga@iis.u-tokyo.ac.jp } (a) SVM モデルにおけるアンカー学習 [6] (b) NMT モデルにおけるアンカー学習 (提案手法) 図 1:2つのモデルにおけるアンカー学習 類を行う識別モデルで、学習データとして特徴量べクトルと二値分類ラベルを使用する。アンカー学習では、この特徴量ベクトルに各学習データ固有の新たな特徵量 (アンカー特徵量) を追加し拡張する (図 1a)。この新たに追加されたデータ固有の特徵量によって、各データがその他のデータに対して線形分離可能になる。これによりSVM モデルは、元々の特徴量から出力の推論が難しい場合においても、アンカー特徴量から正解の出力を推論することを丸覚えする選択肢が与えられる。こうしてアンカー学習は、誤った入出力関係をもつノイズデータからの学習におけるモデルへの悪影響を低減し、モデルの性能を向上させることが期待できる。 なお、正確にはアンカー学習は入力から出力の推論が難しい場合 (hard-to-learn cases) に対応しており、 これは翻訳タスクでの例としては低頻度な慣用句などの厳密にはノイズデータではない場合も含む。本研究では便宜的にそのような場合も含めノイズデータと呼称し、一方で入力から出力の推論が易しいデータを綺麗なデータと呼称する。 本研究では、系列変換モデルを用いた機械翻訳夕スクを対象としたアンカー学習を提案する。機械学習モデルおよび入力データ形式の違いから、個々の学習データを弁別化するアンカーとして、アンカー 特徴量ではなくアンカートークンを導入する。また、ナイーブにはアンカーは学習データと同数用意する必要があるが、大規模な学習データを用いる場合にアンカートークンの数が爆発し膨大な計算資源を必要とする問題がある。この解決のために本研究では、ランダムグルーピング手法と組み合わせ手法の 2 種類のアンカートークン手法を提案する。 実験は ASPEC 英日翻訳と WMT2017 英独翻訳の 2つの翻訳タスクでノイズデータを混合したデータセットで行い、組み合わせ手法によるアンカー学習が、計算コストの増加を抑えつつ翻訳の BLEU スコアを向上させることを確認した。 ## 2 系列変換モデルのための アンカー学習 本研究では、SVM 分類タスクで提案されたアンカー学習を、系列変換モデルを用いた機械翻訳タスクに導入するのだが、機械学習モデルや学習データの形式およびデータ数の違いにより、そのままでは適用出来ない。SVM モデルの入力データは高次元疎ベクトルであり、一方で系列変換モデルの入力は低次元密ベクトルの系列である。また、SVMによる分類タスクに比べて機械翻訳のような生成タスクは、一般に学習データ数が大きい。 まず機械学習モデル及びデータの形式の違いに対応するため、アンカー特徴量の代わりにアンカー トークン (もしくはアンカーベクトル)を導入する (図 1b)。アンカートークンは、モデルの通常入力である単語やサブワードなどと同様に扱い、通常入力に連結することでモデルへ入力する。一方、アンカーは基本的には学習データと同数必要なため、大規模な学習データに対してはアンカーの数が大きくなり、それに対応してアンカートークンをベクトルへ変換する埋め込み層のパラメータ数が増大し、学習時の計算コストが莫大になる問題がある。この学習データサイズの問題に対して、用意するアンカー トークン数を削減する 2 つの手法を提案する。 ## 2.1 アンカートークン数削減のための アンカー表現手法 ランダムグルーピング手法アンカートークン数削減の一つ目の手法として、一つのアンカートークンを複数の学習データ間で共有するランダムグルー ピング手法 (RGA: Random Grouping Anchor)を提案する。この手法では用意するアンカートークンの数 $N_{g}$ をハイパーパラメータとして設定し、各学習データに対してランダムにアンカートークンを割り当てる。 アンカーは本来学習データと同数求められるが、学習データはノイズデータのみならず綺麗なデータも含み、この綺麗なデータにはアンカーは不要である。またノイズデータと綺麗なデータが同一のアンカーを共有している場合、アンカーがノイズデータの推論に役立つよう学習されることで、逆に綺麗なデータについてはアンカーを無視するような学習が促進される効果も期待できる。しかしながら複数のノイズデータが同一のアンカーを共有する可能性もあり、この場合は期待されるノイズ低減効果は得られず、用意するアンカートークンの数については学習データ中のノイズデータの数や割合を念頭に適切に調整する必要がある。 組み合わせ手法ランダムグルーピング手法はアンカートークンの数を大幅に削減するものの、アンカートークン数は学習データに対して比例の関係に過ぎない。そこで学習データのさらなる増加に対応出来るように、単一のアンカートークンではなく、複数のアンカートークンの系列をアンカーとして使用する組み合わせ手法 (CA: Combination Anchor) を提案する。組み合わせ手法では、各学習データに固有のアンカーを用意するために、限られた数のアンカートークンを用意し、それらを組み合わせたアンカートークン系列をアンカーとして利用する。例えば 32 個のアンカートークンを用意し、系列長を 3 とした場合、 $32^{3}=32768$ 個までの学習データに対して固有アンカーを割り振ることが出来る。本研究の実装ではハイパーパラメータとしてアンカートークン数 $N_{c}$ のみを設定し、系列長は学習データ数に足りる最小值を採用した。 組み合わせ手法では系列を構成するアンカートー クンはそれぞれ複数回使用されるため、アンカー トークン系列同士も類似した表現になる可能性がある。この問題の解決、さらにランダムグルーピング手法と条件を揃える為に、組み合わせ手法には回帰型ニューラルネットワーク (RNN) を導入し、アンカートークン系列を単一のアンカー表現に変換する。結果として NMT モデルのパラメータ数は若干 増加するが、学習データと同数のアンカートークンを用意する場合やランダムグルーピング手法と比較して、増加量は大幅に抑えられる。 ## 2.2 アンカートークンの入カ方法 NMT モデルへのアンカートークンの入力箇所として、エンコーダ側の入力の先頭および最後尾、またデコーダ側の入力の先頭の 3 箇所が候補として考えられる。本研究では、テキスト以外の情報を系列に追加する先行研究 $[8,9,10,11]$ を踏まえ、先頭を採用する。またエンコーダ側へのアンカーの入力では、アンカー情報がエンコーダ内部で入力文との相互処理を経て文脈化され、アンカーがより有用な情報を所持することが期待できる。デコーダ側先頭への入力はこれが期待できないため、本研究ではエンコーダ側の入力の先頭を入力箇所として採用する。 アンカーによる推論を補助する情報の追加は、所謂 prompt 手法 [12] と類似しており、特に追加する情報自体を学習するという点では soft prompt [13] と同じである。しかしながらメインのモデルの学習と同時に追加情報であるアンカーを学習する点、またタスク毎ではなく学習データの事例毎に追加情報を用意する点に違いがある。 先行研究 [6] を参考に、アンカートークンは学習時のみに使用し、推論時は通常通りアンカートークンは存在しないまま処理を行う。本研究では NMT モデルとして Transformer[14] ベースのモデルを利用するが、オリジナルのモデルで使用する絶対的な位置情報では、学習時には常にアンカートークンが特定の位置にあるのに対して、推論時にその特定の位置にアンカートークン以外のトークンが現れるという不整合が起きる。これを避けるために本研究では相対位置に基づく Transformer [15] を採用する。 ## 3 実験設定 提案手法が、NMT モデルの学習においてノイズデータの悪影響を低減する効果を確かめるため、2 つの翻訳タスクにおいて実験を行う。学習データとしては、綺麗と見做されているデータセットとノイズデータが多いと見做されているデータセットの両方を用意する。基本の実験として両方のデータセットを混合したデータセットを用いるが、綺麗と見做されているデータセットにもノイズデータが含まれていることを考慮し、これを単一で用いた場合での実験も行う。 ## 3.1 モデル NMT モデルとして、PyTorch ${ }^{1)}$ (ver. 1.12.0) で実装した相対位置を利用する Transformer[15]を用いる。提案手法の実装のために、アンカートークンおよびアンカートークン用の単語埋め込み層、また組み合わせ手法における RNN として単一の GRU 層をエンコーダに追加実装した。モデルのハイパーパラメー タについては概ね Vaswani らの Base モデル [14] に従い、また相対位置べクトルの最大距離についてのパラメータ $\mathrm{k}$ は 16 とした。 提案手法に関するハイパーパラメータとして、 ランダムグルーピング手法については、用意するアンカートークンの数がノイズデータとされるデータの数のおよそ $1,10,100 \%$ となる場合を実験する。組み合わせ手法のアンカートークン数については、アンカートークン系列長が 3 4 程度となる $N_{c}=128,256,512$ の場合を実験する。 ## 3.2 データセット 翻訳タスクとして ASPEC[16] による科学技術論文ドメインの英日翻訳と、WMT2017 [17] によるニュースドメインの英独翻訳を用いる。 ASPEC データセットについては、英語のデー タは Moses toolkit ${ }^{2}$ (ver. 2.2.1)を用いてトークン化及び Truecasing を行い、日本語のデータは $\mathrm{KyTea}^{3)}$ (ver. 0.4.2) による単語分割を行った。以上の処理の後、SentencePiece[18] により両言語合わせて語彙数を 16000 として unigram モデルにてサブワード化した。ASPEC の学習データは対訳文の類似度が高い順に並べられている4)ため、前半 150 万文を綺麗なデータセットとして、また後半 150 万文をノイズの多いデータセットとして採用した。 WMT2017データセットについては、公式に配布されている前処理済みデータ5)を使用し、newstest2015 を開発データ、newstest2016をテストデータとした。 ノイズの多いデータセットとしては ParaCrawl[19] を採用し、Moses toolkitを用いて前処理済みデー 1) https://pytorch.org/ 2) http://www.statmt.org/moses/ 3) http://www. phontron.com/kytea/ 4)データに付属する README に、「訓練データは、類似度の高い対訳文から順に並べて、上位 100 万文を train-1、次の上位 100 万文を train-2 とし、残りを train-3 とした。それゆえ、 train-2 や train-3 に含まれるデータは、train-1 と比べると対訳文としての質が低い。ととる。 5) https://data.statmt.org/wmt17/translation-task/ preprocessed/ 表 1: ASPEC 英日翻訳における BLEU スコアおよびノイズ混入データでのモデルのパラメータ数 タセットと同様の前処理を行った。以上の処理の後に、語彙数を 40000 として ASPEC と同様のサブワード化を行った。 両データセット共に、学習時には最大文長を 100 とし、それを超えるデータは排除した。 ## 3.3 ノイズ混入データ 現実的なノイズデータが混ざった学習データの条件の設定するために、綺麗なデータセットとノイズの多いデータセットの混合データセットを用意する。Khayrallah ら [1] の実験結果を踏まえ、ノイズデータによるモデルの性能低下を確認できるよう綺麗なデータとノイズデータの割合は 100:50とした。 ASPEC 英日翻訳では先頭 150 万文と後尾 75 万文を混ぜ、また WMT2017 英独翻訳では配布データセットの全 590 万文と ParaCrawl の先頭 300 万文を混ぜて、ノイズが混入した学習データを作成した。 ## 3.4 評価 前処理としてサブワード化を行ったため、評価時には単語単位での評価のための処理を行う。ASPEC 英日翻訳では出力を全て連結した後に KyTea による単語分割を再度行い、WMT2017 英独翻訳では出力に対して Moses toolkit による Detokenizationを行った。評価には sacreBLEU[20] を用いた BLEU スコア [21] 使用した。学習は 30 万ステップ行い、 1 万ステップ毎に開発データでのスコアを算出し、それが最も高い時点のモデルを最終的なテストデータでのスコア算出に用いた。BLEU スコアの算出のための NMT モデルの出力は全て貪欲法にて行った。 ## 4 実験結果 ASPEC 英日翻訳における結果を表 1 に、WMT2017 英独翻訳における結果を表 2 に示す。WMT2017 ノイズ混入データにおける組み合わせ手法 $\left(N_{c}=512\right)$ のみ通常学習を下回るスコアであった。それ以外で表 2: WMT2017 英独翻訳における BLEU スコアおよびノイズ混入データでのモデルのパラメータ数 は、どちらの言語対においても、またデータセットのノイズ含有度合いに関わらず、通常の学習に比べてアンカー学習がより高いスコアを出した。アンカー学習の効果が概ね確認され、さらに綺麗と見做されているデータセットでもノイズデータの混入によるモデルの精度低下が認められた。 今回の結果では、2つのアンカー数を抑えた提案手法に BLEU スコアでの優劣差は認められず、それぞれのハイパーパラメータについても明確な傾向は掴めなかった。これらについては学習の複数回試行を含め、より厳密な分析が必要である。 提案手法によるモデルのパラメータ数の変化について、表 1、2 右端列にノイズ混入データセットにおける実験での NMT モデルのパラメータ数を示す。通常モデルにおける ASPEC 英日翻訳と WMT2017 英独翻訳のパラメータ数の違いは語彙数の違いによるものである。ランダムグルーピング手法ではアンカートークン数が大きい場合にパラメータ数が大幅に増加している一方で、組み合わせ手法は GRU 層の追加によるパラメータ数の増加がありつつも、アンカートークン数は大幅に少ないため全体的には数\%程度の増加に留まっている。結果としてランダムグルーピング手法は学習データが大きい場合には実用的ではなく、組み合わせ手法のみが実用的な範囲に収まっている。 ## 5 おわりに 本研究は NMT の学習において、ノイズデータの悪影響を低減するアンカー学習の手法を導入した。計算コストの面からアンカートークン数を抑える手法として、ランダムグルーピング手法と組み合わせ手法の 2 つを提案し、ASPEC 英日翻訳と WMT2017 英独翻訳の 2 つの翻訳タスクにてその効果を確認した。2つの提案手法による BLEU スコアの向上幅は同程度であり、パラメタ数増加の観点から、組み合わせ手法の方が優れた手法であると言える。 ## 謝辞 本研究は JSPS 科研費 JP21H03494 の助成を受けたものです。 ## 参考文献 [1] H. Khayrallah and P. Koehn. On the impact of various types of noise on neural machine translation. In Proceedings of the 2nd Workshop on Neural Machine Translation and Generation, pp. 74-83, 2018. [2] P. Koehn, H. Khayrallah, K. Heafield, and M. L. Forcada. Findings of the WMT 2018 shared task on parallel corpus filtering. In Proceedings of the Third Conference on Machine Translation: Shared Task Papers, pp. 726739, 2018. [3] P. Koehn, F. Guzmán, V. Chaudhary, and J. Pino. Findings of the WMT 2019 shared task on parallel corpus filtering for low-resource conditions. In Proceedings of the Fourth Conference on Machine Translation (Volume 3: Shared Task Papers, Day 2), pp. 54-72, 2019. [4] P. Koehn, V. Chaudhary, A. El-Kishky, N. Goyal, P. Chen, and F. Guzmán. Findings of the WMT 2020 shared task on parallel corpus filtering and alignment. In Proceedings of the Fifth Conference on Machine Translation, pp. 726-742, 2020. [5] C. Herold, J. Rosendahl, J. Vanvinckenroye, and H. Ney. Detecting various types of noise for neural machine translation. In Findings of the Association for Computational Linguistics: ACL 2022, pp. 2542-2551, 2022. [6] Y. Goldberg and M. Elhadad. SVM model tampering and anchored learning: A case study in Hebrew NP chunking. In Proceedings of the 45th Annual Meeting of the Association of Computational Linguistics, pp. 224-231, 2007. [7] V. N. Vapnik. The nature of statistical learning theory. 1995. [8] D. Britz, Q. Le, and R. Pryzant. Effective domain mixing for neural machine translation. In Proceedings of the Second Conference on Machine Translation, pp.118126, 2017. [9] M. Johnson, M. Schuster, Q. V. Le, M. Krikun, Y. Wu, Z. Chen, N. Thorat, F. Viégas, M. Wattenberg, G. Corrado, M. Hughes, and J. Dean. Google's multilingual neural machine translation system: Enabling zero-shot translation. Transactions of the Association for Computational Linguistics, Vol. 5, pp. 339-351, 2017. [10] S. Sato, N. Yoshinaga, M. Toyoda, and M. Kitsuregawa. Modeling situations in neural chat bots. In Proceedings of ACL 2017, Student Research Workshop, pp. 120127, 2017. [11] Y. Wang, C. Hoang, and M. Federico. Towards modeling the style of translators in neural machine translation. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1193-1199, 2021. [12] T. Brown, B. Mann, N. Ryder, M. Subbiah, J. D Ka- plan, P. Dhariwal, A. Neelakantan, P. Shyam, G. Sastry, A. Askell, S. Agarwal, A. Herbert-Voss, G. Krueger, T. Henighan, R. Child, A. Ramesh, D. Ziegler, J. Wu, C. Winter, C. Hesse, M. Chen, E. Sigler, M. Litwin, S. Gray, B. Chess, J. Clark, C. Berner, S. McCandlish, A. Radford, I. Sutskever, and D. Amodei. Language models are few-shot learners. In Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901, 2020. [13] B. Lester, R. Al-Rfou, and N. Constant. The power of scale for parameter-efficient prompt tuning. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 3045-3059, 2021. [14] A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N Gomez, L. Kaiser, and I. Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems (NIPS) 30, pp. 5998-6008, 2017. [15] P. Shaw, J. Uszkoreit, and A. Vaswani. Self-attention with relative position representations. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), pp. 464-468, 2018. [16] T. Nakazawa, M. Yaguchi, K. Uchimoto, M. Utiyama, E. Sumita, S. Kurohashi, and H. Isahara. ASPEC: Asian scientific paper excerpt corpus. In Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC), pp. 2204-2208, 2016. [17] O. Bojar, R. Chatterjee, C. Federmann, Y. Graham, B. Haddow, S. Huang, M. Huck, P. Koehn, Q. Liu, V. Logacheva, C. Monz, M. Negri, M. Post, R. Rubino, L. Specia, and M. Turchi. Findings of the 2017 conference on machine translation (WMT17). In Proceedings of the Second Conference on Machine Translation, pp. 169-214, 2017. [18] T. Kudo. Subword regularization: Improving neural network translation models with multiple subword candidates. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 66-75, 2018. [19] Marta Bañón, P. Chen, B. Haddow, K. Heafield, H. Hoang, M. Esplà-Gomis, M. L. Forcada, A. Kamran, F. Kirefu, P. Koehn, S. Ortiz Rojas, L. Pla Sempere, G. RamírezSánchez, E. Sarrías, M. Strelec, B. Thompson, W. Waites, D. Wiggins, and J. Zaragoza. ParaCrawl: Web-scale acquisition of parallel corpora. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4555-4567, 2020. [20] M. Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, 2018. [21] K. Papineni, S. Roukos, T. Ward, and W. Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, 2002. ## A NMT モデルの学習におけるハイパーパラメータ
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P10-7.pdf
# 言い換えによる機械翻訳のドメイン不適合の緩和 惟高 日向 ${ }^{1}$ 梶原智之 ${ }^{2}$ 藤田 篤 ${ }^{3}$ 二宮 崇 ${ }^{2}$ 1 愛媛大学工学部 2 愛媛大学大学院理工学研究科 3 情報通信研究機構 \{koretaka@ai., kajiwara@, ninomiya@\}cs.ehime-u.ac.jp atsushi.fujita@nict.go.jp ## 概要 本研究では,対象ドメインのデータを用いずに,入力文のドメインと機械翻訳モデルの訓練ドメインの不一致を緩和する手法を提案する。対象ドメインが未知であってもより高品質な翻訳文を得るために,提案手法では大力文に対する複数の言い換えを生成し,各々を翻訳した後にリランキングを行う。日英の機械翻訳における評価実験の結果,未知ドメインにおける翻訳品質の改善を確認できた. ## 1 はじめに ニューラル機械翻訳 [1-4] の研究の進展に伴い, DeepL ${ }^{1)}$ や $\mathrm{Tex}^{2} \mathrm{Tra}^{2}$ など゙,オンライン機械翻訳サービスの利用も広がりつつある. ただし,機械翻訳の品質は訓練データに依存するため,訓練データと大きく異なる特性を持つ入力文に対しては,翻訳品質が低下する恐れがある.例えばドメインの不一致に対しては,訓練済みの機械翻訳モデルを対象ドメインの対訳コーパスを用いて転移学習するドメイン適応 [5]がよく用いられている. しかし, 様々なドメインへの適用を考える場合,対象ドメインごとの転移学習に要する時間や訓練済みモデルの管理などのコストの課題,少資源のドメインにおいて対訳コー パスを用意できないという課題がある.そのため, オンライン機械翻訳サービスのように, 多様な入力が想定され対象ドメインを限定できない状況では,転移学習などの既存のドメイン適応の手法を採用することは容易ではない. 本研究では,対象ドメインを限定せずに入力文と機械翻訳モデルの間のドメインの不一致を緩和する手法を提案する. 提案手法は, 既存のドメイン適応のようにモデルを調整するのではなく,機械翻訳モデルは変更せずに入力文を編集する。具体的には,入力文の前編集により多様な言い換えを生成し, 1) https://www.deepl.com/translator 2) https://mt-auto-minhon-mlt.ucri.jgn-x.jp/ 図 1 提案手法の概要 各々を翻訳した中から後処理として最良の翻訳文を選択する。これらの多様な言い換えの中には,ドメインの不一致を緩和するなど,所与の機械翻訳モデルにより適した表現が含まれる可能性に期待している. 本手法は,機械翻訳モデルを再訓練する必要がないだけでなく,対象ドメインのデータを用意する必要もないという利点を持つ. 日英の機械翻訳における評価実験の結果,機械翻訳モデルの訓練に使用されていない 2 つのドメインの評価用データに対して,提案手法による翻訳品質の改善を確認できた。 ## 2 関連研究 文書要約 [6] や情報抽出 [7] などの様々な自然言語処理タスクにおいて, 入力文の前編集による性能改善が報告されている。機械翻訳においても,手動および自動の前編集が研究されている. 機械翻訳のための手動前編集の研究 $[8,9]$ では, 翻訳品質の改善のために効果的な編集事例について分析が行われている. 機械翻訳のための自動前編集の研究 [10-12] では,入力文の語句や構造を平易化することで翻訳品質を改善している.前者 $[8,9]$ は,多数の言い換えおよび翻訳候補を比較することで翻訳品質を改善しているが,人手による大きなコストが必要となる. 一方で後者 [10-12] は,自動生成されたひとつの言い換えを翻訳するため,低コストではあるが必ずしも翻訳品質が改善されるとは限らない. 本研究では両者の利点を組み合わせ,多数の言い換え文の自動生成によって低コストで翻訳品質を改善する。 図 2 単語単位の言い換え生成器 ## 3 提案手法 提案手法の概要を図 1 に示す. 本研究では,言い換え生成とリランキングを組み合わせることで,入力文のドメインと機械翻訳の訓練ドメインの間のギャップを埋め,翻訳品質を改善する。 提案手法では,まず入力文から複数の言い換え文を生成する. その後,入力文およびこれらの言い換え文を, 訓練済み翻訳器を用いてそれぞれ翻訳する. 最後に,入力文を考慮して翻訳文候補をリランキングし,翻訳品質の高い候補文を出力する. ## 3.1 言い換え生成 本ステップでは,任意の機械翻訳モデルがより適切な翻訳候補を生成できるように,所与の入力文に対する多様な言い換えを得る。ある機械翻訳モデルにとっての翻訳しやすい表現および翻訳しにくい表現を事前に知ることは困難だが,生成した複数の言い換えの中に,対象の機械翻訳モデルにとって翻訳しやすい表現が含まれることを期待する. 本研究では, 単語単位(図 2)および文単位(図 3)の2 種類の言い換え手法を比較する. 各手法の言い換えおよびそれに伴う翻訳文の変化の例を表 1 に示す. 図 3 文単位の言い換え生成器 単語単位の言い換え単語単位の言い換えでは, BERT [13] などのマスク言語モデルと fastText [14] などの単語分散表現を用いて,局所的な言い換え表現を得る。ここでは,入力文を $|X|$ 個の単語からなる $X=x_{1}, \ldots, x_{|X|}$ という単語系列で表す. まず, $i$ 番目の単語をマスクした入力文をマスク言語モデルに入力し, 単語穴埋め確率に従って上位 10 件の置換単語の候補を生成する. 次に, 元の単語 $x_{i}$ と置換候補の単語の間の意味的類似度を, 単語分散表現の余弦類似度を用いて推定する。そして, $(|X| \times 10)$ 種類の置換候補を,マスク言語モデルの単語穴埋め確率および単語分散表現の余弦類似度の和でリランキングし, 上位 $k$ 件の置換候補を選択する. 最後に,各単語の置換を適用し, $k$ 件の言い換え文を生成する。 文単位の言い換え文単位の言い換えでは, Transformer [4] などの系列変換モデルを訓練して,大域的な言い換え表現を得る。まず,対象の機械翻訳モデルを訓練した対訳コーパスを用いて,目的言語から原言語への機械翻訳(逆翻訳)モデルを訓練する。これを用いて対訳コーパスの目的言語文を翻訳し,逆翻訳文と原言語文の対からなる単言語パラレルコーパスを自動生成する。そして,この単言語パラレルコーパスを用いて,逆翻訳文から原言語文を生成する言い換えモデル3゙を訓練する。この言い換えモデルを用いてビーム幅 $k$ のビーム探索を行い,入力文に対する $k$ 件の言い換え文を生成する.  素性説明 順方向翻訳逆方向翻訳言語モデル文長順方向の機械翻訳モデルによる入力文から翻訳候補への forced decode 確率逆方向の機械翻訳モデルによる翻訳候補から入力文への forced decode 確率対訳コーパスの目的言語側で訓練した言語モデルによる翻訳候補の言語モデル確率入力文と翻訳候補の文長の差分およびその絶対值 言い換え(単語) マスク言語モデルの単語穴埋め確率と単語分散表現の余弦類似度の和言い換え(文)言い換えモデルによる入力文から言い換え文への forced decode 確率 ## 3.2 リランキング 本ステップでは,入力文の言い換えを介して得られた複数の翻訳候補の中から,高品質な翻訳文を選択する.本研究では,教師なしおよび教師ありの 2 種類のリランキング手法を比較する. 教師なしリランキング順方向および逆方向の機械翻訳モデルを用意し,入力文と翻訳候補の間で双方向に forced decoding を行う.そして,それぞれの対数尤度の平均値によってリランキングを行う. 教師ありリランキング複数の素性および K-best Batch MIRA [15] のアルゴリズムを用いて,検証用データ全体に対する BLEU [16] を最大化するリランキングモデルを訓練する.素性には,翻訳候補のリランキングに関する先行研究 [17] でも採用されている forced decode 確率・言語モデルスコア・文長のリランキング素性に加えて,3.1 節で構築した言い換え生成器に基づく素性を用いる. 本研究で使用するリランキング素性の一覧を表 2 に示す. ## 4 評価実験 提案手法の有用性を確認するために,3つのドメインにおける日英機械翻訳の実験を行った. ## 4.1 実験設定 データ日英の機械翻訳モデル(順方向および逆方向)を訓練するために,日英の言語対における最大規模の対訳コーパスである JParaCrawl ${ }^{4 } \text { [18]を用 }$ いた. 本実験では, JParaCrawl (v3.0) から無作為に抽出した 1,000 万文対を訓練用に,別の 2,000 文対を検証用に,それぞれ使用した。評価用には,未知ドメインのデータとして学術論文ドメインである ASPEC [19] の評価用データ 1,812 文対およびニュー スドメインである WMT20 [20] の評価用データ 993 文対,既知ドメインのデータとして JParaCrawl から 4) https://www.kecl.ntt.co.jp/icl/lirg/jparacrawl/無作為に抽出した訓練・検証用データとは異なる 2,000 文対を用いた。 日本語における文単位の言い換えモデルを訓練するために,機械翻訳モデルの訓練に使用した 1,000 万文対の対訳コーパスを使用した. 逆翻訳モデルを用いて目的言語文を翻訳し,得られた原言語文と対訳コーパス中の原言語文を対にした単言語パラレルコーパスを,言い換えモデルの訓練に使用した.検証用も同様に,機械翻訳モデルの検証用データ 2,000 文対を使用して構築した。 前処理として, 日本語文には Mecab5) (IPADIC) [21],英語には Moses Tokenizer ${ }^{6)}$ を用い,単語分割を行った. その後,日本語文および英語文の両方に対して語彙サイズ 32,000 のサブワード分割7) [22]を適用した. 最後に,訓練用データのうち 100 トークンを超える長文を含む文対を除外した。 モデル機械翻訳モデルおよび文単位の言い換えモデルは, fairseq ツールキット8)[23]を用いて Transformer モデル [4] を訓練した.モデルの構造は Vaswani ら [4] に倣い, 6 層 8 ヘッド 512 次元とした.訓練は,バッチサイズを 70,000 トークンに設定し,最適化手法には Adam [24] を使用して行った. 検証用データにおける交差エントロピー損失を 1,500 ステップごとに評価し,この損失が 10 回低下しなかった時点で訓練を終了した。機械翻訳の推論時には,ビーム幅5の1 ベスト出力を用いた. 単語単位の言い換えモデルは,マスク言語モデルと単語分散表現を用いて構築した。マスク言語モデルには東北大 $\mathrm{BERT}^{9)}$ [13] を,単語分散表現には fastText の日本語モデル ${ }^{10 } \text { [14]を,それぞれ用いた. }$ 5) https://taku910.github.io/mecab/ 6) https://github.com/moses-smt/mosesdecoder/blob/ master/scripts/tokenizer/tokenizer. perl 7) https://github.com/glample/fastBPE 8) https://github.com/facebookresearch/fairseq 9) https://huggingface.co/cl-tohoku/ bert-base-japanese-whole-word-masking 10) https://fasttext.cc/docs/en/crawl-vectors.html 教師ありリランキングモデルは,Moses [25] の kbmira [15] を用いて構築した. リランキング素性として用いる言語モデルは,機械翻訳モデルの訓練データにおける目的言語側から 4-gram 言語モデルを Moses の lmplz [26]を用いて訓練した。 比較手法提案手法では,入力文および $k$ 種類の言い換え文の合計 $(k+1)$ 文をそれぞれ翻訳し,それらの翻訳候補をリランキングした。言い換えを行わない比較手法では,ビーム幅 $(k+1)$ のビーム探索を用いて入力文から $(k+1)$ 文の翻訳候補を出力し,それらをリランキングした。 ## 4.2 実験結果 表 3 に,各手法の出力に対して SacreBLEU ${ }^{11)}$ [27] を用いて得た BLEU スコア [16] を示す. 統計的有意差検定には,SacreBLEU に実装されている Paired Bootstrap Resampling [28]を用いた. まず,評価用データのドメインに注目する。提案手法では未知ドメインである ASPEC および WMT20 において,言い換えを行わない比較手法よりも大きく翻訳品質を改善できた。一方で,既知ドメインである JParaCrawl に対しては,特に教師ありリランキングにおいて,提案手法は言い換えを行わない比較手法ほど品質を改善できなかった.この結果から,既知ドメインでは入力文と機械翻訳モデルの間にドメインの不一致が起こらないため前編集の必要がない,または,既知ドメインにおける教師ありリランキングが有用である,ということが示唆される. 次に,言い換え生成の手法に注目する。未知ドメインにおける教師ありリランキングにおいては単語単位の言い換えが一貫して最高性能を示した。未知 ドメインにおける教師なしリランキングにおいては言い換え生成手法による優劣は見られないが,既知ドメインにける教師なしリランキングにおいては単語単位の言い換えが最も高い性能を示した。全体的には,文単位の言い換えよりも単語単位の言い換えの方が効果的であったと言える。 最後に,言い換えの数 $k$ に注目する.教師なしリランキングにおいては $k$ の増加につれて翻訳品質が向上した。一方で,教師ありリランキングにおいては $k$ の大小と翻訳品質の関連は見られなかった. ## 4.3 言い換えの人手評価 各ドメインの評価用データから 20 文ずつの入力文を無作為に抽出し, 単語単位および文単位で $k=5$ の言い換えを生成し,同義性および流暢性を人手評価した。単語単位で $74 \%$ ,文単位で $86 \%$ が同義であり,単語単位で $78 \%$ ,文単位で $85 \%$ が流暢であった。どちらの観点からも,文単位の言い換えの方が高品質であった.前節の実験結果をふまえると,入力文の高品質な言い換えが必ずしも翻訳品質の改善に寄与するとは限らないことが示唆される。 ## 5 おわりに 本研究では,言い換え生成とリランキングを組み合わせることで,入力文のドメインと機械翻訳の訓練ドメインの不一致を緩和し,翻訳品質を改善した. 特に,単語単位の言い換え生成と教師ありリランキングの組み合わせによって,機械翻訳モデルの訓練に使用されていない 2 つのドメインにおいて,一貫して最も大きく翻訳品質を改善できた. 今後は,本手法をブラックボックス機械翻訳にも適用できるように,リランキングの素性を再検討する。 11) https://github.com/mjpost/sacrebleu ## 謝辞 本研究は JST(ACT-X,課題番号: JPMJAX1907) および国立研究開発法人情報通信研究機構の委託研 究(課題番号:225)による助成を受けたものです. ## 参考文献 [1] Ilya Sutskever, Oriol Vinyals, and Quoc V Le. Sequence to Sequence Learning with Neural Networks. In Proc. of NIPS, pp. 3104-3112, 2014. [2] Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural Machine Translation by Jointly Learning to Align and Translate. In Proc. of ICLR, 2015. [3] Thang Luong, Hieu Pham, and Christopher D. Manning. Effective Approaches to Attention-based Neural Machine Translation. In Proc. of EMNLP, pp. 1412-1421, 2015. [4] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is All you Need. In Proc. of NIPS, pp. 5998-6008, 2017. [5] Chenhui Chu and Rui Wang. A Survey of Domain Adaptation for Neural Machine Translation. In Proc. of COLING, pp. 1304-1319, 2018. [6] Advaith Siddharthan, Ani Nenkova, and Kathleen McKeown. Syntactic Simplification for Improving Content Selection in Multi-Document Summarization. In Proc. of COLING, pp. 896-902, 2004. [7] Richard J. Evans. Comparing Methods for the Syntactic Simplification of Sentences in Information Extraction. Literary and Linguistic Computing, Vol. 26, No. 4, pp. 371-388, 2011. [8] Rei Miyata and Atsushi Fujita. Dissecting Human PreEditing toward Better Use of Off-the-Shelf Machine Translation Systems. In Proc. of EAMT, pp. 54-59, 2017. [9] Rei Miyata and Atsushi Fujita. Understanding Pre-Editing for Black-Box Neural Machine Translation. In Proc. of EACL, pp. 1539-1550, 2021. [10] Sanja Štajner and Maja Popovic. Can Text Simplification Help Machine Translation? In Proc. of EAMT, pp. 230242, 2016. [11] Sanja Štajner and Maja Popović. Improving Machine Translation of English Relative Clauses with Automatic Text Simplification. In Proc. of ATA, pp. 39-48, 2018. [12] Sneha Mehta, Bahareh Azarnoush, Boris Chen, Avneesh Saluja, Vinith Misra, Ballav Bihani, and Ritwik Kumar. Simplify-Then-Translate: Automatic Preprocessing for Black-Box Translation. In Proc. of AAAI, pp. 84888495, 2020. [13] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proc. of NAACL, pp. 4171-4186, 2019. [14] Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. Enriching Word Vectors with Subword Information. Transactions of the Association for Computational Linguistics, Vol. 5, pp. 135-146, 2017. [15] Colin Cherry and George Foster. Batch Tuning Strategies for Statistical Machine Translation. In Proc. of NAACL, pp. 427-436, 2012. [16] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. BLEU: a Method for Automatic Evaluation of Machine Translation. In Proc. of ACL, pp. 311-318, 2002. [17] Benjamin Marie and Atsushi Fujita. A Smorgasbord of Features to Combine Phrase-Based and Neural Machine Translation. In Proc. of AMTA, pp. 111-124, 2018. [18] Makoto Morishita, Jun Suzuki, and Masaaki Nagata. JParaCrawl: A Large Scale Web-Based English-Japanese Parallel Corpus. In Proc. of LREC, pp. 3603-3609, 2020. [19] Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. ASPEC: Asian Scientific Paper Excerpt Corpus. In Proc. of LREC, pp. 2204-2208, 2016. [20] Loïc Barrault, Magdalena Biesialska, Ondřej Bojar, Marta R. Costa-jussà, Christian Federmann, Yvette Graham, Roman Grundkiewicz, Barry Haddow, Matthias Huck, Eric Joanis, Tom Kocmi, Philipp Koehn, Chi-kiu Lo, Nikola Ljubešić, Christof Monz, Makoto Morishita, Masaaki Nagata, Toshiaki Nakazawa, Santanu Pal, Matt Post, and Marcos Zampieri. Findings of the 2020 Conference on Machine Translation. In Proc. of WMT, pp. 1-55, 2020. [21] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying Conditional Random Fields to Japanese Morphological Analysis. In Proc. of EMNLP, pp. 230-237, 2004. [22] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural Machine Translation of Rare Words with Subword Units. In Proc. of ACL, pp. 1715-1725, 2016. [23] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A Fast, Extensible Toolkit for Sequence Modeling. In Proc. of NAACL, pp. 48-53, 2019. [24] Diederik P. Kingma and Jimmy Ba. Adam: A Method for Stochastic Optimization. In Proc. of ICLR, 2015. [25] Philipp Koehn, Hieu Hoang, Alexandra Birch, Chris Callison-Burch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, Chris Dyer, Ondřej Bojar, Alexandra Constantin, and Evan Herbst. Moses: Open Source Toolkit for Statistical Machine Translation. In Proc. of ACL, pp. 177-180, 2007. [26] Kenneth Heafield. KenLM: Faster and Smaller Language Model Queries. In Proc. of WMT, pp. 187-197, 2011. [27] Matt Post. A Call for Clarity in Reporting BLEU Scores. In Proc. of WMT, pp. 186-191, 2018. [28] Philipp Koehn. Statistical Significance Tests for Machine Translation Evaluation. In Proc. of EMNLP, pp. 388-395, 2004 .
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P10-8.pdf
# T5 を用いた古文から現代文への翻訳 臼井久生 ${ }^{1}$ 古宮嘉那子 ${ }^{2}$ 東京農工大学工学部知能情報システム工学科 1 東京農工大学大学院生物システム応用科学府 2 s190260u@st.go.tuat.ac.jp¹kkomiya@go.tuat.ac.jp² ## 概要 本稿では,日本語の事前学習済み $\mathrm{T} 5$ モデルを用いて古文から現代文への翻訳を行う. fine-tuning には,奈良時代から江戸時代までの文献の,古文と現代語訳のパラレルデータを利用した. また複数の青空文庫の作品を利用し, 逆翻訳により疑似パラレルデータを作成し,これを fine-tuning の学習データとして追加的に利用することで,翻訳の性能に効果があるかを検証した. 実験の結果,正規のパラレルデータのみで行った場合は BLEU 值が 27.73 となり,統計的機械翻訳に迫る結果となった. また逆翻訳による疑似パラレルデータも用いた場合は BLEU 値が 23.81 となり, 古文の翻訳に逆翻訳による疑似パラレルデータの利用は有効でないことが分かった. ## 1 はじめに 本稿では $\mathrm{T} 5$ を用いて,日本語の古文から現代文への翻訳を行う. 日本語の古文から現代文への翻訳の先行研究には,統計的機械翻訳 [1] とニューラル機械翻訳 [2] による研究があるが,このうちのニューラル機械翻訳による研究は LSTM(Long Short Term Memory) を用いており, 統計的機械翻訳の結果を超えることはできなかった。ニューラル機械翻訳は小規模なコーパスではよい結果が得られないとされており [3],古文と現代文のパラレルコーパスは小規模であることが、ニューラル機械翻訳を用いた先行研究の性能の低さの主因であると考えられる。 一方で,深層学習は LSTM の後にも大きな進歩を見せており, 2018 年に GPT[4] や BERT[5] が公開され,これらを受けて T5[6] が 2019 年に発表された. これらのモデルは大規模なコーパスを用いて事前学習を行っているため, 言語的知識を有していると考えられ,これを Fine-tuning することでデータが少ないタスクでも性能の高いモデルが作成可能になった.本稿ではこの事前学習済みモデルである $\mathrm{T} 5$ を用いて,古文から現代文への翻訳を行う.古文と現代文のパラレルコーパスは小規模であるため,LSTM を用いた研究においては十分な結果が得られなかったが,事前学習済みモデルを用いることでデータの少なさを補完できる可能性があると考える. 本稿では,日本語の古文から現代文への機械翻訳において,T5を用いることにより統計的機械翻訳に迫る結果を得られることを示す. ## 2 関連研究 古文の現代語への機械翻訳の例は,星野ら [1] の統計的機械翻訳と,高久ら [2] の LSTM, Transformer で行った例がある.星野らは古文と現代文の 86,684 文のコーパスを段落ごとに区切ったものを用いて,統計的機械翻訳を行った.高久らはLSTMを用いて,同じコーパスを現代から古代に向けて遡りながら学習を行い,ニューラル機械翻訳を行った. 結果は,統計的機械翻訳では 28.02, LSTM では 19.95 であった. T5を用いた翻訳の先行研究には Emezue ら [7] の例がある。これは, $\mathrm{mt} 5$ を用いてアフリカの言語であるコサ語,ヨルバ語,イボ語などを英語やフランス語に翻訳したものである。これらのアフリカの言語はデータ数が少なく,最も多いコサ語で 158,660 件であり,英語とのパラレルコーパスは 137,000 件ほどであった。コサ語の英語翻訳の BLEU 値は 30.25 であった. ## 3 T5を用いた古文から現代文への 翻訳 T5 とは,Transformer[8] をべースにして,C4 というコーパスを用いて事前学習を行ったモデルである.この C4 はウェブクロールしたデータを整形したものであり,このように高品質なデータを利用したことと事前学習手法,ファインチューニング手法の調整によって T5 は 2019 年当時 26 種のタスクで 最高性能を達成した。 本稿では日本語データで作成された T5 である sonoisa/t5-base-japanese を用いて,古文の現代文への翻訳を行った. Fine-tuning の際は,古文を学習デー タ,現代文を教師データとして学習を行い,古文を入力して現代文を出力するようにモデルを作成する。 ## 4 データ 本稿では星野ら [1] が抽出したパラレルコーパスを用いる。このコーパスは古文作品とそれに対して人手で付与した現代語翻訳文が対になっている.このコーパスは近代,鎌倉,平安の 3 時代の作品デー タで構成される通時コーパスであり,時代の内訳は (近代: 鎌倉: 平安) $=(4,577: 30,075: 52,032)$ 文対である. このコーパスは全 86,684 文対であり,中には一つの古文に対して複数の現代語翻訳が対応しているものも含まれる. データの分割割合は, 高久ら [2] にならい,(学習: 開発: テスト $)=(82,591: 2,000: 2,093)$ 文対に分割をした. 分割の偏りを避ける為に分割の際にはランダムに分割を行った、コーパスの単語分割には MeCab v0.996 ${ }^{1)}$ を使用し,古文側には中古和文 UniDic v1.32), 現代文側には UniDic v2.3.0 3 を辞書として利用した。 ## 5 実験 本稿では,T5 モデルを用いて古文から現代文への翻訳を行う.4 節で示したパラレルデータの古文を大力とし, 現代文を出力として学習データをシステムに与え, Fine-tuningを行う. 評価の際は学習したモデルに古文データを与え, 出力した現代文翻訳データと正解となる現代文データで BLEU 值を算出した. T5 のモデルは transformers ライブラリの sonoisa/t5-base-japanese ${ }^{4}$ を利用し, Automodel で指定した。また,Tokenizerには Autotokenizer で sonoisa/t5-base-japanese を指定した. BLEU 值の算出には evaluate ライブラリの sacrebleu $^{5}$ [9] を利用した. 1) https://taku910.github.io/mecab/ 2) https://clrd.ninjal.ac.jp/unidic/ 3) https://clrd.ninjal.ac.jp/unidic/ 4) https://huggingface.co/sonoisa/t5-base-japanese 5) https://huggingface.co/spaces/evaluate-metric/sacrebleu ## 5.1 古文データを用いた実験 古文と現代文のパラレルデータを用いて T5 の fine-tuning を行った. この実験において調整を行ったパラメータは, 学習率とエポック数, repetition penalty である. まず学習率とエポック数の組み合わせについて実験を行ってこれらを決定し, 次に学習率と repetititon penalty の組み合わせについて実験を行って repetition penalty を選定した. 学習率, エポック数学習率とエポック数の設定は,repetition penalty を固定し,最も BLEU 値が高くなる組み合わせを探索した。この際,学習率は対数スケールでおおよそ均等になるように設定した。表 1 に組み合わせの候補を示す。なお,repetition penalty は 5 とした. 表 1 エポック数と学習率の組み合わせ repetition penalty repetition penalty は, 生成の際の繰り返しに対してぺナルティを与えるパラメータである [10]. エポック数と学習率を固定し, repetition penalty について grid search を行った. 学習率の候補は $0.0001 , 0.0002 , 0.0003 , 0.0004$ とし, repetition penalty の候補は 1 から 10 までの 1 刻み及び 1.1 から 2.5 まで 0.1 刻みとした。また,これら二つの実験から,学習率,エポック数, repetition penalty を決定し,最終的な実験を行った. ## 5.2 逆翻訳データを用いた実験 5.1 節の小学館コーパスから抽出した正規のパラレルデータのみによる学習の実験に加えて, 逆翻訳データを学習データに加えた実験を行った。逆翻訳データの作成には, 古文から現代文への翻訳同様, sonoisa/japanese-t5-baseを用いた. パラメータは,予 備実験の結果,学習率を 0.0002,エポック数を 5 , repetition penalty 1.5 に設定した. 予備実験の結果は付録の表 8 に示した. 学習データを現代文, 正解データを古文として現代文からの古文生成モデルを作成し, これに青空文庫から取得した複数の著者による複数の書籍データを入力として与え, 古文訳を出力した. このデータは句点区切りで, 全 522,801 件であった. この出力した古文と現代文をぺアとし,疑似パラレルデータとして新たに古文から現代文への翻訳システムの学習を行った. この際, 学習率を 0.0002 , repetition penaltyを 1.5 とした. また,逆翻訳による疑似パラレルデータをパラレルデータと併用するにあたり,データを与える順番と正規のパラレルデータを与える回数を以下のように変えて実験した。 学習方法 1)すべての逆翻訳データの次にすべての正規のパラレルデータを与え,1 エポック回す. 学習方法 2)逆翻訳データを $n$ 分割し, 分割したファイルの途中にすべての正規のパラレルデータを与えて学習する。結果として,逆翻訳データは 1 エポック, 正規のパラレルデータは $n$ エポック回す計算となる. 学習方法 2 は, 正規のパラレルデータを途中途中に挟んで学習することで,翻訳エラーを減らすことを期待して考案したものである。 なお,ライブラリの仕様上データは 2 万件の倍数ずつ入力するようになっているため, 逆翻訳データを $n$ 分割する際は等分に分割はせず,まず 2 万件の倍数ずつ入力し最後に残りのデータを入力する形で,全件を入力した. そのため, 分割数 $n$ と分割したファイルのデータ件数は表 2 のようになる. 表 2 逆翻訳の分割数 $n$ と, 分割後のファイルごとの疑似データ数 例えば学習方法 2-1 では,まず逆翻訳データのうち 16 万件を与え,次にすべての正規のパラレルデータを与える。これを三回繰り返す。ここまでで逆翻訳データのうち 48 万件を利用している。逆翻訳データは 522,801 件なので,最後に残りの 42,801件の逆翻訳データとすべての正規のパラレルデータを与えて学習する。結果的に,逆翻訳データは 1 エポック,正規のパラレルデータは 4 エポック回した計算となる. ## 6 結果 ## 6.1 古文データを用いた実験の結果 各エポック数でもっとも BLEU 值が高かった際の BLEU 値をその際の学習率とともに表 3 に示す. その他を含すすべての結果は付録の表 7 に示す. 学習率と repetition penalty の実験における最高の BLEU 值は表 4 のようになった. すべての結果は付録の表 9 に示す. また,その時のグラフを付録の図 1,図 2 に示す。 エポック数 10 , 学習率 0.0002 のパラメータの際に BLEU 值が最高であることが分かる. また表 4 の結果から学習率が 0.0002 の際の最高の repetition penalty は 1.5 であることが分かる. そのため,エポック数を 10 , 学習率を 0.0002 , repetition penalty を 1.5 として最終的な学習を行ったところ, BLEU 値は 27.73 となった. その際の生成例を表 5 に示す. ## 表 5 最終実験の翻訳例 \\ そのうち、いつしか講の終る日になり、 \\ 僧俗・男女が数知れず集ってきた。 \\ 正解 & \\ ## 6.2 逆翻訳データを用いた実験の結果 現代文から古文を生成するモデルの BLEU 值は, 27.03 であった. また,それぞれのデータの順序と与える回数を変えた学習方法について,結果を表 6 に示す. 表 6 逆翻訳データを用いた際のそれぞれの学習方法の最良の BLEU 値 ## 7 考察 本稿の最良の BLEU 值は 27.73 となった. LSTM の BLEU 值 [2] は 19.95 であるので,これを 7.78 上回っている. このことから, 日本語大規模データを用いて事前学習した T5を用いることによって, データ数の少ない古文の現代文への翻訳に効果があるということが分かる. 統計的機械翻訳の BLEU 值 [1] は 28.02 であり,残念ながら本研究の結果はこれに 0.29 ポイント及ばなかった. しかし, この差は僅差であり,統計的機械翻訳に迫る結果となった. 逆翻訳データを用いた実験の BLEU 値は,すべて古文データのみを用いた実験の最良の BLEU 值を上回ることはなかった. 逆翻訳で生成したデータをチェックしたところ,古文らしいものではなかったため,学習の際にノイズとして働いてしまった可能性があると考えている. また,学習方法 2 は学習方法 1 よりも BLEU 值が低くなった. また, 分割数を多くすると BLEU 值が下がる結果となった. このことから,逆翻訳データの間に正規のパラレルデータを挟んで学習する手法は有効でないことが分かった. さらに BLEU 值を上げる為に,エポック数などのパラメータのさらなる調整も考えられるが,本稿で行った調整よりさらに細かいパラメータの調整で BLEU 值が大きく上がることは考え難い。また, データ数を増やすことは,翻訳のプロの人手によるデータの作成に大きな手間がかかる. ただし,日本語の T5 の large サイズのモデルは筆者らの知る限り公開されていないが,さらに大きな事前学習モデルが公開されれば,統計的機械翻訳の結果を上回る可能性があると考える。 ## 8 まとめ 本稿では,事前学習済み日本語 $\mathrm{T} 5$ モデルを用いて古文から現代文への翻訳を行った.LSTMを利用した結果を 7.78 上回る結果となり,事前学習モデルである $\mathrm{T5}$ を用いることでパラレルデータの少なさを補完できることを示した。またこの結果は,関連研究のうちで最も高い BLEU 值を出した統計的機械翻訳のシステム [1] に迫る BLEU 值である。また,青空文庫から逆翻訳データを作成して,これを学習データに追加する実験を行ったが,この手法は古文から現代文への翻訳には有効でないことが分かった。 ## 謝辞 本研究は JSPS 科研費 17KK0002,18K11421, 22K12145 の助成を受けたものです.また,国立国語共同研究プロジェクト「開かれた共同構築環境による通時コーパスの拡張」「多様な語義資源を統 合した研究活用基盤の共創」「アノテーションデー タを用いた実証的計算心理言語学」の成果です.また,明星大学の横野光先生には先行研究のデータをいただきました。御礼申し上げます. ## 参考文献 [1] 星野翔, 宮尾祐介, 大橋駿介, 相澤彰子, 横野光. 対照コーパスを用いた古文の現代語機械翻訳. 言語処理学会, 第 20 回年次大会, 2014. [2] 高久雅史, 平澤寅庄, 小町守, 古宮嘉那子. 通時的な領域適応を行った単語分散表現を利用した古文から現代文へのニューラル機械翻訳. 言語処理学会, 第 26 回年次大会, 2020. [3] Philipp Koehn and Rebecca Knowles. Six challenges for neural machine translation. In Proceedings of the First Workshop on Neural Machine Translation, pp. 28-39, Vancouver, August 2017. Association for Computational Linguistics. [4] Alec Radford, Karthik Narasimhan, Tim Salimans, and Ilya Sutskever. Improving Language Understanding by Generative Pre-Training. [5] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding, May 2019. [6] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J Liu, et al. Exploring the limits of transfer learning with a unified text-to-text transformer. J. Mach. Learn. Res., Vol. 21, No. 140, pp. 1-67, 2020. [7] Chris C. Emezue and Bonaventure F. P. Dossou. MMTAfrica: Multilingual Machine Translation for African Languages, April 2022. [8] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention Is All You Need, December 2017. [9] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Belgium, Brussels, October 2018. Association for Computational Linguistics. [10] Nitish Shirish Keskar, Bryan McCann, Lav R. Varshney, Caiming Xiong, and Richard Socher. CTRL: A Conditional Transformer Language Model for Controllable Generation, September 2019. 表 7 各学習率とエポック数での BLEU 值 (横軸: エポック数,縦軸: 学習率),repetition penalty:5.0 表 8 逆翻訳モデル作成時の BLEU 值 (横軸: エポック数,縦軸: 学習率),repetition penalty:5.0 表 9 repetition penalty ごとの BLEU 值 (縦軸:repetition penalty 横軸: 学習率エポック数:1) 表 10 repetition penalty ごとの BLEU 值 (縦軸:repetition penalty 横軸: 学習率エポック数:1) 図 1 学習率ごとの repetition penalty の変化による BLEU 値変化(0.1 刻み) 図 2 学習率ごとの repetition penalty の変化による BLEU 值変化(1 刻み)
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P10-9.pdf
# 事前学習モデルと固有名詞の事後置き換えを用いた 日本語から手話への機械翻訳 宮崎太郎中谷真規 内田翼 金子浩之 佐野雅規 NHK 放送技術研究所 } \{miyazaki.t-jw, nakatani.n-ge, uchida.t-fi, kaneko.h-dk, sano.m-fo\}@nhk.or.jp ## 概要 手話は先天的あるいは幼少期に聴覚を失った人にとって第一言語であり,それらの人に対する情報提供には手話を用いるのが望ましい。我々は手話での情報提供をより拡充するために,手話 CG の自動生成システムの開発を進めている。本稿では,手話の自動生成に用いる日本語-手話の機械翻訳手法について述べる。 手話は対訳コーパスの作成が難しいため,既存の比較的小規模のコーパスからより良い翻訳精度を得るために,提案手法では翻訳モデルの Encoder に事前学習モデルを用いる。また,手話では固有名詞の表現方法が複雑なため, 辞書や固有名詞に特化した翻訳手法を用いて事後的に固有名詞部分の置き換えをするのが望ましい,そこで,翻訳モデルを用いて翻訳した後に,得られた翻訳結果と入力の日本語文から,日本語の固有表現が手話のどの部分に翻訳されたかを推定し,固有表現を後から置き換える手法を提案する。 ## 1 はじめに 先天的あるいは幼少期に聴覚を失った人にとって,手話は第一言語であり,日本語などの音声言語やその書き起こしよりも理解がしやすい重要なコミュニケーション手段である。そのような人たちに対して重要な情報を提供する際には,手話を用いることが望ましい,総務省が週に 15 分以上の手話放送の実施を普及目標に定めるなど,放送分野においても手話による情報提供の拡充が求められている [1]. 手話番組を実施するためには番組の音声を手話に翻訳する手話通訳者の確保などが必要であるが,放送をリアルタイムに翻訳できる手話通訳者の数は限られており,現状では手話番組の大幅な拡充は難し 図 1 手話 $\mathrm{CG}$ 生成システム概要図 い.そこで,NHKでは日本語の文章を自動で手話に翻訳する手話 $\mathrm{CG}$ アニメーション(以下,手話 $\mathrm{CG}$ ) の自動生成技術の研究を進めている。これまでに気象情報やスポーツ情報などを対象として,事前に翻訳した定型的な手話表現をテンプレート化し,デー タと組み合わせて手話 $\mathrm{CG}$ を自動生成する技術を開発してきた $[2,3]$. これらのサービスは定型的なデータを基に正確な手話 $\mathrm{CG}$ を生成できる反面,変換できる情報が限定されており,日々のニュースなどの情報を翻訳することはできなかった。我々はより幅広い情報を手話 CG に変換するために,機械翻訳を用いた手話 $\mathrm{CG}$ 生成技術の研究を進めている。 機械翻訳を用いた手話 $\mathrm{CG}$ 生成システムの概要図を図 1 に示す。入力の日本語は機械翻訳技術により手話単語列に翻訳される. 手話の表現に必要な各単語の動作データはあらかじめモーションキャプチャにより作成してあり,翻訳結果にあわせて動作デー タをつなぎ合わせることで手話 CG が生成できる. ここで用いる日本語から手話への機械翻訳の課題として,まず学習データの少なさ,ドメインの偏りが挙げられる。手話はそもそも書き言葉がないため,機械翻訳の学習データとして使えるような対訳コーパスが少なく,手話による情報提供がなされている分野が限られているため,ドメインには偏りが生じる. さらに,手話書き起こしの表記方法が用途 や制作者によって異なるため,他者が作成したコー パスをそのまま使うことが難しい. その他の課題として, 固有表現の翻訳が難しいことが挙げられる。一般の書き言葉であれば固有表現はその発音を基に音訳したものを用いることができる。一方,手話では例えば「佐野」という人名は「サノ」という発音を表す指文字を使用するなど音訳で対応できるものもあるが,「宮崎」という人名はそれぞれの文字の意味を基にして翻訳した「宮(神社)」と「先」の 2 単語で表すなど,さまざまな表現方法を組み合わせて表現される. そのため, 固有名詞の翻訳には固有名詞に特化した翻訳手法が必要であり,それを用いるためには, 文全体の翻訳結果の固有名詞部分を置き換えることが必要となる. 本稿では,コーパスの少なさを補うための事前学習モデルを用いた機械翻訳手法に,固有名詞をより正確に表現するための事後置き換えを組み合わせた翻訳手法を提案する。 ## 2 関連研究 ## 2.1 プレースホルダーを用いた置き換え Luong et al.[4] は翻訳が難しい未知語や低頻度語をプレースホルダーに置き換えて翻訳することで,これらの翻訳誤りを防ぐ手法を提案した. プレースホルダーを用いた翻訳は多くの研究で取り入れられており,良好な翻訳性能が報告されている $[5,6]$ これらの手法では,我々がターゲットとしているニュースなどに頻出し,かつ重要な語句である固有表現の翻訳誤りを軽減可能であるが,プレースホルダーに置き換えたコーパスから翻訳モデルを学習する必要がある. ## 2.2 事前学習モデルを用いた翻訳 BERT[7] や RoBERTa[8] などの事前学習モデルを用いた機械翻訳手法も多く報告されている. Imamura et al.[9] は BERT を翻訳モデルの Encoder として利用することで, 特に学習データが少ない言語対の翻訳時に翻訳性能が向上することを示した [9]. 本稿では基本となる翻訳モデルにこの Imamura et al. が提案したモデルとほぼ同一のものを用いる. Clinchant et al.[10] は事前学習モデルを Encoder として用いることで,単純に BLEU スコアなどの翻訳性能が向上するだけでなく, 学習データと異なるドメインの文章の翻訳性能を向上する効果があるこ 図 2 翻訳モデルの概要 とを示した。また,Zhu et al.[11] は学習データのみから学習した Encoder と事前学習モデルを Attention Mechanism を用いて組み合わせることにより翻訳性能の向上を実現した. 事前学習モデルは機械翻訳の性能向上に大きな効果が期待できるが,一方で扱うことができる語彙が事前学習モデルの語彙に限定されるため,プレースホルダーに置き換えた学習が難しい。 本稿では,事前学習モデルを用いて学習データの少なさを補いつつ,プレースホルダーを用いた固有表現の置き換えと同様の後処理を可能とすることで,翻訳性能の向上とともに,ニュースで現れる新語や専門用語への対応を可能とすることを目指す. ## 3 翻訳手法 提案手法は,ベースとなる翻訳モデルによる機械翻訳と,翻訳結果の事後置き換えの 2 つのブロックからなる。以下でそれぞれについて説明する。 ## 3.1 ベースとなる翻訳モデル Transformer を用いた Encoder-Decoder モデル [12] をべースとし, Encoder 部に事前学習モデルを用いたものを利用する. 図 2 に翻訳モデルの構成を示す. 入力日本語 $S=\left.\{s_{1}, s_{2}, \ldots s_{n_{s}}\right.\}$ を事前学習モデルからなる Encoderに入力し, 各単語に対応するベクトル表現 $H=\left.\{h_{s_{1}}, h_{s_{2}}, \ldots h_{s_{n_{s}}}\right.\}$ を得る.このとき, $n_{s}$ は $S$ の Token 数を表す. Decoderには,最初は文頭を表す記号(図中の $B O S$ ) と, Encoder からの $H$ を大力し, 一単語ずつ次の単語を予想するようにして翻訳終了を表す記号(図中の EOS)が出力されるまで翻訳する。 ## 3.2 翻訳結果の事後置き換え 3.1 節で述べた翻訳モデルを用いて,対象とする入力言語側の固有表現が翻訳結果のどの単語に翻訳されたかのスコアを計算する。翻訳結果から,このスコアが最大となる部分を辞書などにより置き換えることで,翻訳結果の事後置き換えを実現する。 入力文 $S$ 中の $n$ から $n^{\prime}$ 番目の単語からなる $S_{n}^{n^{\prime}}$ が置き換えたいフレーズであるとする。この $S_{n}^{n^{\prime}}$ を Encoder に入力した場合に,翻訳結果 $T$ 中の $m$ から $m^{\prime}$ 番目までの単語からなるフレーズ $T_{m}^{m^{\prime}}$ に翻訳される尤度 $p\left(T_{m}^{m^{\prime}} \mid S_{n}^{n^{\prime}}\right)$ を翻訳モデルから求める. 具体的には, $T_{m}^{m^{\prime}}$ 中の単語 $t_{\tilde{m}}$ が出力される尤度 $p\left(t_{\tilde{m}} \mid T_{m}^{\tilde{m}-1}, S_{n}^{n^{\prime}}\right)$ は, Encoderに $S_{n}^{n^{\prime}}$ を, Decoder に BOS と $T_{m}^{\tilde{m}-1}$ を入力したときに単語 $t_{\tilde{m}}$ が出力される尤度として計算ができる. $T_{m}^{m^{\prime}}$ の各単語と翻訳終了をあらわす EOS が出力される尤度を算出し, 相乗平均を取ったものを部分翻訳尤度 $p\left(T_{m}^{m^{\prime}} \mid S_{n}^{n^{\prime}}\right)$ とする。 $ \begin{aligned} & p\left(T_{m}^{m^{\prime}} \mid S_{n}^{n^{\prime}}\right)= \\ & \left(\left(\prod_{k=m}^{m^{\prime}} p\left(t_{k} \mid T_{m}^{k-1}, S_{n}^{n^{\prime}}\right) \times p\left(\mathrm{EOS} \mid T_{m}^{m^{\prime}}, S_{n}^{n^{\prime}}\right)\right)^{\frac{1}{m^{\prime}-m+2}}\right. \end{aligned} $ この部分翻訳尤度を用いて,翻訳元の文中の $S_{n}^{n^{\prime}}$ が翻訳結果中の $T_{m}^{m^{\prime}}$ に翻訳された確度を表す $\operatorname{score}\left(T_{m}^{m^{\prime}} \mid S_{n}^{n^{\prime}}\right)$ を以下のようにする. $ \operatorname{score}\left(T_{m}^{m^{\prime}} \mid S_{n}^{n^{\prime}}\right)=p\left(T_{m}^{m^{\prime}} \mid S_{n}^{n^{\prime}}\right)-\bar{p}\left(T_{m}^{m^{\prime}} \mid S_{n}^{n^{\prime}}\right) $ ここで, $\bar{p}\left(T_{m}^{m^{\prime}} \mid S_{n}^{n^{\prime}}\right)$ は,入力文 $S$ から $S_{n}^{n^{\prime}}$ を除去したものを Encoder に入力した場合に,翻訳結果 $T$ の $T_{m}^{m^{\prime}}$ を除去した部分が出力される部分翻訳尤度を表し,これも翻訳モデルから算出する。 入力 $S_{n}^{n^{\prime}}$ に対して $\operatorname{score}\left(T_{m}^{m^{\prime}} \mid S_{n}^{n^{\prime}}\right)$ が最大となる $m, m^{\prime}$ について, $S_{n}^{n^{\prime}}$ が $T_{m}^{m^{\prime}}$ に翻訳されたものもあるとみなし,翻訳結果 $T$ 中の $T_{m}^{m^{\prime}}$ を辞書により置き換える。 ## 4 実験条件 ## 4.1 手話ニュースコーパス 評価実験には,NHKで作成している手話ニュースコーパスを用いた. 手話ニュースコーパスは NHK で放送している「手話ニュース」を 2009 年 4 月から収集したもので,番組の日本語音声の書き起こしと, 手話映像, 手話映像の書き起こしを約 160,000 文対が含まれている. 手話映像の書き起こしは, 手表 1 手話ニュースコーパスの例. 日本語気象庁は周囲の状況を確認し,できるかぎり安全を確保するよう呼びかけています。 $\mathrm{N}$, 天気, 庁, p t 3, 宣伝, N, みんな, 手話状態, 調べる, $\mathrm{N}$, できる, だけ, すべて,落ち着く 1 , 守る 1 , 頼む 1 ,頭を下げる],宣伝, p t 3, N 話ニュース中の手話映像を基に,ろう者や CoDA ${ }^{11)}$ により単語ごとに書き起こしている。書き起こしの例を表 1 に示す. 表中の手話書き起こしは,カンマ区切りで手話単語列を表記している。 $\mathrm{N}$ はうなずきを,pt 3 は指差しをそれぞれ表し, [頭を下げる] は $\mathrm{NMMs}^{2}$ )を表す。また,「落ち着く1」などの単語末尾に付与された数字は,同じ意味を持つ複数の手話単語の分別用に付したもので,「新日本語-手話辞典」[13]に準拠している. 今回はこの中から固有表現(地名,組織名,人名)が含まれる 69,776 文を実験に用い,学習データが 66,776 文,開発データが 2,000 文,評価データが 1,000 文となるようにランダムに分割した. 事前に文中に出現する固有表現を人手により抽出し,日本語-手話の間での固有表現の表現の対応付けをした. ## 4.2 実験設定 翻訳モデルなどの実装には Pytorch[14] と Transformers[15] を用いた. 提案手法の Encoder に用いる事前学習モデルには rinna 株式会社が公開している japanese-roberta-base[16]を,Decoderには 6 層の Transformer Decoder を用いた. モデルの最適化には RAdam[17] を用い,Decoder 部の学習率を $1.0 \times 10^{-3}$, 事前学習モデルを用いた Encoder 部の学習率を $2.0 \times 10^{-5}$ とした。学習エポック数を最大 20 として開発データの BLEU 值が最大となるモデルを評価に用いた。学習はそれぞれのモデルについてランダムシードを変えて 3 回行い,その中で最高の性能となるモデルを用いて評価した. デコード時には Beam 幅 10 の Beam Searchを用いた。 手話の語彙は,学習データ中に 3 回以上出現する全単語からなる 8,767 とした. これに含まれない単語は,学習時点で OOV に変換して学習した。 手話ではうなずきや指差しなど,機能語として用いられ固有名詞には出現しない単語がある.今回の実験では,固有名詞の事後置き換えの際に,これら 聴者でかつ第一言語が手話の人のことを指す。 2) Non-Manual Markers: 手指以外を用いて意味を表現する動作. の機能語が先頭や末尾につくフレーズは日本語の固有名詞と対応付けないルール処理を加えた。 手話では固有表現の表現摇れが大きい,今回は表現摇れによる影響を排除するために,固有表現の置き換え辞書には,事前に対象となる評価用の文対ごとに人手で日本語-手話の間での固有表現の対応付けをしたものを用いた。 ## 4.3 ベースライン手法 事前学習モデルを用いない No Pre-train,プレー スホルダーを用いる Placeholders の 2 種類の翻訳モデルをベースラインとして性能を比較する。なお,提案手法の事前学習を用いる翻訳モデルは以下では With Pre-train と表記する. No Pre-train と With Pre-train では 3.2 節で述べた固有名詞の事後置き換えをした場合,しない場合の 2 パターンについてそれぞれ性能を比較する。 No Pre-train 事前学習モデルを使わず,学習デー タのみから翻訳モデルを学習する。翻訳モデルには 6 層の Transformerを用いた. 学習率は最適な結果が得られた $5.0 \times 10^{-4}$ とした。 Placeholders No Pre-train と同様のモデルを用い,学習時に固有表現を人名,地名,組織名それぞれ異なるプレースホルダーに置き換えて学習する。 デコード時には固有表現をプレースホルダーに置き換えて翻訳した上で,翻訳結果のプレースホルダー を事後処理で置き換える。このモデルのみ,最適化には予備実験で最適な性能を得た AdamW[19] を用い,学習率を $3.0 \times 10^{-4}$ とした. ## 5 実験結果 ## 5.1 翻訳性能の評価 表 2 に実験結果を示す. 提案手法 (With Pre-train,固有表現置き換え後) が全体で最もよい性能を示した.これは,事前学習モデルを用いた翻訳性能の向上と固有名詞の事後置き換えの両方の利点が活用できたためと考えられる. No Pre-train と with Pre-train を比較すると,事前学習モデルの使用と固有表現の置き換えの使用によりそれぞれ翻訳性能が向上したことがわかる。また, Placeholders とその他の手法の比較により, 特別にプレースホルダーを用意しなくても,翻訳モデルから得られる翻訳尤度を用いた置き換えで十分に固有表現の置き換えが可能であることが示された. & \\ ## 5.2 固有表現の日本語-手話対応付け 3.2 節で述べた固有表現の対応付けの性能評価を行った. 提案手法で得られた対応付けが正解データと完全一致した場合を正解とした場合の正解率は $71.7 \%$ (正解: 1,029 , 誤り: 407) であった. 誤りで最も多かったのが,手話で固有名詞の直後につける固有表現の種類を表す単語を出力に含める誤りであった. 例えば日本語の「宮崎」は,手話では「宮(神社)」「先」という $2 \supset の$ 手話単語で表現するが,このあとに人名か地名かを区別するために,地名であれば「場所」,人名であれば「彼」「彼女」という単語を後ろにつけて表現する場合がある。この,「場所」や「彼」「彼女」を固有名詞に含めて出力してしまう誤りである.この種類の誤りが 88 回発生した. ついで多かったものが,「周辺」や一帯をあらわす 「みんな」など,地名と組み合わせて範囲を表現する単語を固有表現の一部として出力する場合であった.これは 59 回発生した. これらはパターン化可能なため, ルール等で対応が可能である. これ以外の誤りも含め, 誤りの多くは 1 単語の過不足によるもので,翻訳結果に大きく影響するほどの誤りは少なかった。 ## 6 おわりに 本稿では日本語から手話単語列に翻訳する機械翻訳手法について述べた. 翻訳モデルの Encoder に事前学習モデルを用い,また,プレースホルダーを使わずに事後的に固有表現を置き換える翻訳手法を提案した. 提案手法はベースライン手法と比較して良好な翻訳性能が得られることを確認した。 今後の課題として, 今回の実験では固有表現に対する手話の表現摇れの影響を排除するために,評価データの文対ごとにそのデータから作成した誤りのない辞書を使用したが,これを一般に使える辞書に変更した場合の性能を確認する必要がある。また,翻訳性能にも直結する翻訳元と翻訳結果の間での固有名詞の対応付け部分について,専用のモデルを用意するなど,性能向上を図りたい. ## 参考文献 [1] 総務省. 放送分野における情報アクセシビリティに関する指針, 2018. [2] Tsubasa Uchida, Taro Miyazaki, Makiko Azuma, Shuichi Umeda, Naoto Kato, Hideki Sumiyoshi, Yuko Yamanouchi, and Nobuyuki Hiruma. Sign language support system for viewing sports programs. In Proceedings of the 19th International ACM SIGACCESS Conference on Computers and Accessibility, pp. 339-340, 2017. [3] Makiko Azuma, Nobuyuki Hiruma, Hideki Sumiyoshi, Tsubasa Uchida, Taro Miyazaki, Shuichi Umeda, Naoto Kato, and Yuko Yamanouchi. Development and evaluation of system for automatically generating sign-language cg animation using meteorological information. In International Conference on Computers Helping People with Special Needs, pp. 233-238. Springer, 2018. [4] Thang Luong, Ilya Sutskever, Quoc Le, Oriol Vinyals, and Wojciech Zaremba. Addressing the rare word problem in neural machine translation. In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 11-19, Beijing, China, July 2015. Association for Computational Linguistics. [5] Soichiro Murakami, Makoto Morishita, Tsutomu Hirao, and Masaaki Nagata. NTT's machine translation systems for WMT19 robustness task. In Proceedings of the Fourth Conference on Machine Translation (Volume 2: Shared Task Papers, Day 1), pp. 544-551, Florence, Italy, August 2019. Association for Computational Linguistics. [6] Bosheng Ding, Junjie Hu, Lidong Bing, Mahani Aljunied, Shafiq Joty, Luo Si, and Chunyan Miao. GlobalWoZ: Globalizing MultiWoZ to develop multilingual task-oriented dialogue systems. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1639-1657, Dublin, Ireland, May 2022. Association for Computational Linguistics. [7] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [8] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019. [9] Kenji Imamura and Eiichiro Sumita. Recycling a pretrained BERT encoder for neural machine translation. In Proceedings of the 3rd Workshop on Neural Generation and Translation, pp. 23-31, Hong Kong, November 2019. Association for Computational Linguistics. [10] Stephane Clinchant, Kweon Woo Jung, and Vassilina Nikoulina. On the use of BERT for neural machine translation. In Proceedings of the 3rd Workshop on Neural Generation and Translation, pp. 108-117, Hong Kong, November 2019. Association for Computational Linguistics. [11] Jinhua Zhu, Yingce Xia, Lijun Wu, Di He, Tao Qin, Wengang Zhou, Houqiang Li, and Tieyan Liu. Incorporating bert into neural machine translation. In International Conference on Learning Representations, 2020. [12] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, Vol. 30, , 2017. [13] 日本手話研究所 (編) 米川明彦(監修). 新日本語手話辞典. 全日本䆍唖連盟出版局, 2006. [14] Adam Paszke, Sam Gross, Francisco Massa, Adam Lerer, James Bradbury, Gregory Chanan, Trevor Killeen, Zeming Lin, Natalia Gimelshein, Luca Antiga, Alban Desmaison, Andreas Kopf, Edward Yang, Zachary DeVito, Martin Raison, Alykhan Tejani, Sasank Chilamkurthy, Benoit Steiner, Lu Fang, Junjie Bai, and Soumith Chintala. Pytorch: An imperative style, high-performance deep learning library. In H. Wallach, H. Larochelle, A. Beygelzimer, F. d'AlchéBuc, E. Fox, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 32. Curran Associates, Inc., 2019. [15] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander M. Rush. Transformers: State-of-the-art natural language processing. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45, Online, October 2020. Association for Computational Linguistics. [16] 趙天雨, 沢田慶. 日本語自然言語処理における事前学習モデルの公開. 人工知能学会研究会資料言語・音声理解と対話処理研究会, Vol. 93, pp. 169-170, 2021. [17] Liyuan Liu, Haoming Jiang, Pengcheng He, Weizhu Chen, Xiaodong Liu, Jianfeng Gao, and Jiawei Han. On the variance of the adaptive learning rate and beyond. In International Conference on Learning Representations, 2019. [18] Taku Kudo and John Richardson. Sentencepiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. arXiv preprint arXiv:1808.06226, 2018. [19] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In International Conference on Learning Representations, 2019.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P11-10.pdf
# 会議議事録を対象とした議論構造解析と議題生成による 議会レポートの自動生成 大杉了斗 ${ }^{1}$ 秋葉友良 ${ }^{1}$ 増山繁 ${ }^{2}$ 1 豊橋技術科学大学 2 東京理科大学 ohsugi.ryoto.dv@tut.jp, akiba@cs.tut.ac.jp masuyama@rs.tus.ac.jp ## 概要 国や地方議会議会での質疑応答は議事録に記録され, 市民はこの議事録を読むことでどのような対策を行っているか知ることができる.しかし, 議会は特殊な形式で進行するため, 議事録は非常に長く読みづらい. 対策案として, 東京都議会は議事録を分かりやすく構造化した「ネットリポート1)」を人手により作成し, 公開している. そこで本研究では, 「ネットリポート」を自動作成するシステムの構築を目的とする. システム実現のための課題を「議論構造解析」と「議題生成」に分け,それぞれ手法を提案する。 ## 1 はじめに 国や地方議会が解決すべき政治的課題は議会の質疑応答を通じて議論され, 発言は議事録に記録される. 図 1 の上に, 本研究の対象でもある東京都議会会議録の例を示す. 市民は議事録を通じて議論内容を把握し, 課題に対する意見や対策を知ることができる.しかし, 東京都議会を含む多くの議会は, 議員がまとめて回答をし, 知事や局長が担当の質問に答弁を行う「一括質問・一括答弁」と呼ばれる特殊な形式が取られている. そのため, 質問や答弁に区切りがないため長く読みづらく, 対応する答弁がどこにあるか探すのも困難であり, 市民が議事録を読むことは難しい. このような問題に対処するため, 東京都議会では「ネットリポート」を公開している. 図 1 の下にデータ例を示す. ネットリポートでは, 議事録が 「一問一答」形式に編集されている. また, いくつかの質問答弁ペアをまとめて見出し(本研究では議題と呼ぶ)を付けることで, 議論内容の把握を容易にしている.一方でネットリポートは議会職員により人手作成されているため, 公開には手間や時間がかかるという問題が存在する。議事録 ○福祉保健局健康危機管理担当局長(仿藤智秀君) 三点のこ質問におお答え すが、. 次に、医澺機閲における竐虑、梌查体制についてでありますが、 } \\ 図 1 議事録とネットリポート そこで本研究では,「ネットリポート」の自動作成するシステムの構築を目的とする。「ネットリポート」の自動作成システムを実現するために, 本研究では大きく 2 つ課題を設定する. 1 つ目の課題は「議論構造解析」と呼び, 議会議事録の構造である「一括質問・一括答弁」形式から,「一問一答」形式に自動変換することを課題とする. 2 つ目の課題は「議題生成」と呼び, 議論構造解析で得た質問答弁ペアに対して, 対応する議題を生成することを課題とする. 議論構造解析と議題生成についてそれぞれ手法を提案し, 評価実験で有効性を確認する. 最後に付録 A では 2 つの提案手法を組み合わせたシステムを構築し, 議事録から「ネットリポート」を自動生成できることを示す. ## 2 関連研究 ## 2.1 議論構造解析の関連研究 テキストを分析・構造化するために, 様々なアプローチが提案されている. その内の 1 つは, 文間での論理構造を見つける修辞構造理論(RST)[1] を用いる方法である. 林ら (2015) は, 修辞構造理論に基づいて談話構造木を導出することで, 談話構造を分析した [2]. 本研究との違いは, 単に文同士を比較する構造化ではなく, 異なる話者のまとまった発話文 (質問答弁ペア)の対応関係を見つける. ## 2.2 議題生成の関連研究 要約テキストを生成する研究は広く行われているが, 特にキーフレーズ抽出・生成が挙げられる.この研究の目的は, 文書を要約するような複数の短いフレーズ表現(キーフレーズ)を抽出, または生成することである. キーフレーズ抽出では, 抽出したキーフレーズ TopicRank[3] や AttentionRank [4] などを用いて順位付けする.キーフレーズ生成では, seq2seq モデル [5][6]を用いてキーフレーズを生成する. 本研究との違いは, 複数の質問答弁に対応する 1 つの議題を生成することである. キーフレーズ研究では複数の短い単語の集合で文書を表すのに対し, 議題は 1つのフレーズで質問答弁を表現する必要がある. ## 3 提案手法 提案手法に基づく「ネットリポート」の自動作成プロセスを図 2 に示す. 3.1 では議論構造化 (1)(2) について, 3.2 では議題生成 (4)(5) について提案手法を紹介する。 ## 3.1 議論構造解析 議論構造解析における目的は,「一括質問・一括答弁」形式の議事録を「一問一答」形式へ変換することである.これは, NTCIR-16 QALab-PoliInfo-3 における QA Alignment タスク [7] と同様の問題設定である. 提案手法は,「セグメンテーション」(図2(1))と,「アライメント」(図2(2))の2 段階に分けられる. ## 3.1.1 セグメンテーション セグメンテーションでは, 質問と答弁の境界を見つけ,テキストを分割する。議会における議論は形式化されている. 例えば, 議員は質問を「〜について見解を伺います.」と終えることが多い.このような特徵に着目し, 特定語句にマッチする付録 B の表 5 のような正規表現を作成した. 質問と回答側で異なる正規表現ルールを用いて, 質問の場合はマッチした文の後ろに, 答弁の場合はマッチした文の前に境界を挿入する. 境界に挟まれたテキストはセグメントと呼び,一つの質問と答弁として扱う.またセグメンテーションエラーに対するヒューリスティックな処理として,連続した境界は削除する。 ## 3.1.2 アライメント アライメントでは, 質問と答弁の対応付けを行い 「一問一答」を導出する.まず,Okapi BM25[8] を用いてセグメントをべクトルに変換する. 次に, ベクトル間のマッチングを行う. 質問と回答のぺアは必ず一対一となるため, ベクトル間のコサイン類似度を最大にする完全マッチング問題として解く.この問題を効率的に解くハンガリアン・アルゴリズム [9] が知られており, 提案手法でもこのアルゴリズムを適用する. またセグメンテーションエラーにより,セグメント数が質問と答弁で一致しないことがあるため, その場合はダミーのセグメントを追加して双方の数を合わせることで対応する. ## 3.2 議題生成 ネットリポートにおける議題は, 複数の質問答弁に対してまとめて付けられている.なぜなら,議員は質問を細分化して複数回に渡って質問するからである. したがって, 議題生成における問題設定においても同様に, 複数の質問答弁を与えて 1 つの議題を生成することを目的とする. 質問答弁をどの程度まと 図 2 自動作成システムの処理の流れの概要 めて議題を付けるかについては,ネットリポートの編集者に委ねられる.この処理は図 2 における (3) グループ分けとして示されている. グループ分けの明確な正解は存在しないため, この部分は手動で行い本研究の対象外とする. 3.1 議論構造解析で得た複数の質問答弁から, 議題を生成する. 提案手法では, seq2seq モデルである Transformer[10] を用いて議題を学習・予測する. 複数の質問答弁を入力する都合上, 入力が長くなりテキストの一部が切り捨てられてしまう場合が存在する.このような問題に対処するため, 提案手法では議題候補を抽出する(図 2(4)). 議題候補を得るために, 回答の先頭文から付録 B の表 6 に示す正規表現で範囲を選択して取り出す. 抽出した議題候補は特殊トークンで区切って全て結合し, 生成モデルを通じて1つの議題を得る(図 2(5)).また与えられた質問答弁が 1 つの場合, 提案手法は生成モデルを用いずに候補議題を予測としてそのまま出力する. 1 つの質問答弁に対しては, 生成した抽象的な議題よりも, 発話から取り出した抽出的な議題候補が適しているという考えに基づいている。 ## 4 評価実験・分析 ## 4.1 議論構造解析 ## 4.1.1 比較手法 主にアライメントの提案手法の有効性を検証するため, 比較手法を実装する. 加えて, アライメントの上限值として Oracle も実装する。 w/o BM25 類似度計算に BM25 ゙゙クトルのコサイン類似度を用いない比較手法. 代わりに $\mathrm{N}$-gram 集合の一致数を類似度として用いる. 予備実験で最も性能が高かった Tri-gram を採用する. w/o Hungarian 質問答弁の割り当てにハンガリアン・アルゴリズムを用いない比較手法. 代わりに類似度が最大となるように貪欲に割り当てを行う手法を実装する. また,この手法は一対多または多対一の質問答弁を許す。 Oracle 類似度計算の際に正解の一問一答ペアを参照する. セグメント同士で正解と同じ文ペアが含まれているほど, 類似度が高くなるように算出する. ## 4.1.2 実験設定 データセットと評価方法は, QA Alignment タスク [7] に従う. データセットは 2019~2020 年度のネットリポートである. 具体的な評価方法は, 予測が正解と同じ一問一答ぺアになっているかどうか文単位でカウントし, Precision, Recall, F1 を計算する. 実装において, BM25を適用するためのテキスト分割として MeCab[11]を用いた。 ## 4.1.3 実験結果と分析 評価結果を表 1 に示す. まず提案手法は, 既存の検索手法やアルゴリズムを組み合わせたシンプルな手法にも関わらず, F1 は約 8 割以上を達成した. 比較手法である w/o BM25 は, 提案手法と比べやや F 1 が低下した. BM25 は他のセグメントも考慮する点が性能改善につながったと考えられる. w/o Hungarian は, 提案手法と比べ F 1 が大きく低下した. 実際の結果では, 一部のセグメントに偏って割り当てられるケースが多く観察された. 質問と答弁は一対一の関係であるという制約下でアルゴリズムを適用することで, 高い精度で効率的に対応付けを見つけることができる. Oracle の結果から, アライメントの上限値 表 1 議論構造解析における評価結果 は約 9 割であることがわかる.このことから,アライメントの性能を改善するよりも, セグメンテーションの性能に関して改善の余地があると言える. ## 4.2 議題生成 ## 4.2.1 比較手法 議題生成における提案手法の有効性を比較するため, 以下の比較手法を実装する。 w/o Transformer Transformerを用いない手法. 代わりに抽出した議題候補を予測としてそのまま出力する. 候補が複数ある場合は, 最初に抽出された議題候補を選ぶ. w/o 候補入力 Transformerに候補を入力しない手法.代わりに質問答弁の発話テキストをそのまま Transformer に入力し, 学習と予測を行う. 複数の質問答弁は特殊トークンで区切って結合し, モデルに入りきらない長い入力は切り捨てられる。 w/o 候補出力提案手法では与えられた質問答弁が一つの場合に候補議題を直接予測として出力しているが,これを行わない手法. 与えられた質問答弁の数に関わらず, 全てのサンプルに対して議題を生成する。 ## 4.2.2 実験設定 データセット作成のため, 公開されている 13 年分の東京都議会ネットレポートを収集した. データセットの統計を表 2 に示す. 表において, $\mathrm{n}$ はサンプル数, avg.src は質問答弁の平均単語数, avg.tgt は議題の平均単語数, avg.qa は与えられる質問答弁の平均数を表す. 評価指標として, 単語 ROUGE-1,2,L[12]表 3 議題生成における評価結果 ROUGE-1 ROUGE-2 ROUGE-L 表 4 出力例 ## 新型コロナ対策 質問 1 次に、新型コロナ対策です。岸田政権‥ 答弁 1 次に、新型コロナウイルス感染症対策 $\cdots$ 質問 2 都の説明では、都内で一日当たり最大 $\cdots$ 答弁 2 まず、検査件数でございますが、一日… の F1 平均値を用いる. 実装として, 学習フレームワークとして fairseq[13] を,トークナイザとして $\mathrm{MeCab}[11]$ を用いる. ## 4.2.3 実験結果と分析 評価結果を表 3 に示す. まず提案手法は, ROUGE-1 で 0.362 を達成した. 性能評価に関する前提として,議題のような短いフレーズの制限下で正解単語を完全に予測することは難しく, 全体的に性能は低下する. 他の性能低下の要因としては, 単なる生成ミスの他, 議題の長さの不一致, そもそも間違った議題候補が入力されることなどが挙げられる. 比較手法である w/o Transformer は, 提案手法と比べ ROUGE が大きく低下した. これは議題候補を出力する抽出手法に比べ, 抽象手法である Transformer による生成が有効であることを示している. w/o 候補入力は, ROUGE がやや低下した. 発話すべてを入力に用いることは,長い入力は壳長で切り捨てられる短所がある一方で, 発話に含まれる情報量が多く候補抽出によるミスもない長所もあるため, 性能差が小さくなったと考えられる. w/o 候補出力は, ROUGE が低下した. 1 つの質問答弁に対しては, 生成した議題よりも抽出した議題候補が適していることを示している. ## 5 おわりに 本研究では,「ネットリポート」の自動作成システムの構築を目的とし, 議論構造解析ではシンプルで有効的な手法を, 議題生成では議題候補と生成モデルを組み合わせる手法を提案した. 最後に, 各提案手法を組み合わせたシステムの出力例を表 4 に一部示し, 詳細は付録 Aに示す. ## 参考文献 [1] WILLIAM C. MANN and SANDRA A. THOMPSON. Rhetorical structure theory: Toward a functional theory of text organization. Text - Interdisciplinary Journal for the Study of Discourse, Vol. 8, No. 3, pp. 243-281, 1988. [2] 林克彦, 平尾努, 吉田康久, 永田昌明. 修辞構造木ら自動変換した談話依存構造木の性質について. Proceedings of the Twenty-first Annual Meeting of the Association for Natural Language Processing, 2015. [3] Adrien Bougouin, Florian Boudin, and Béatrice Daille. TopicRank: Graph-based topic ranking for keyphrase extraction. In Proceedings of the Sixth International Joint Conference on Natural Language Processing, pp. 543551, Nagoya, Japan, October 2013. Asian Federation of Natural Language Processing. [4] Haoran Ding and Xiao Luo. AttentionRank: Unsupervised keyphrase extraction using self and cross attentions. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 1919-1928, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [5] Rui Meng, Sanqiang Zhao, Shuguang Han, Daqing He, Peter Brusilovsky, and Yu Chi. Deep keyphrase generation. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 582-592, Vancouver, Canada, July 2017. Association for Computational Linguistics. [6] Xingdi Yuan, Tong Wang, Rui Meng, Khushboo Thaker, Peter Brusilovsky, Daqing He, and Adam Trischler. One size does not fit all: Generating and evaluating variable number of keyphrases. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7961-7975, Online, July 2020. Association for Computational Linguistics. [7] Yasutomo Kimura, Hideyuki Shibuki, Hokuto Ototake, Yuzu Uchida, Keiichi Takamaru, Madoka Ishioroshi, Masaharu Yoshioka, Tomoyoshi Akiba, Yasuhiro Ogawa, Minoru Sasaki, Kenichi Yokote, Kazuma Kadowaki, Tatsunori Mori, Kenji Araki, Teruko Mitamura, and Satoshi Sekine. Overview of the ntcir-16 qa lab-poliinfo-3 task. Proceedings of The 16th NTCIR Conference, 62022. [8] Stephen Robertson, S. Walker, S. Jones, M. M. HancockBeaulieu, and M. Gatford. Okapi at trec-3. In Overview of the Third Text REtrieval Conference (TREC-3), pp. 109126. Gaithersburg, MD: NIST, January 1995. [9] H. W. Kuhn and Bryn Yaw. The hungarian method for the assignment problem. Naval Res. Logist. Quart, pp. 83-97, 1955. [10] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [11] T. KUDO. Mecab : Yet another part-of-speech and morphological analyzer. http://mecab.sourceforge.net/, 2005. [12] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 74-81, Barcelona, Spain, July 2004. Association for Computational Linguistics. [13] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of NAACL-HLT 2019: Demonstrations, 2019. ## A システム構築 「議題構造分析」と「議題生成」における提案手法を組み合わせ,ネットリポートの自動作成システムを構築する. 図 3 に, システムが実際に出力したデー タの例を示す. 提案手法の結果を HTML+CSS 形式で出力することで, 閲覧者にわかりやすく提示できるようにした. 実際のネットリポートと同様に, 出力結果は一問一答で, 議題がつけられたデータを出力できていることが分かる. 対応するネットリポートは脚注 URL に示す 2$).$ ## B 使用した正規表現 表 5 と表 6 に, 実際に用いた正規表現を示す. 表 5 セグメンテーションのための正規表現 (お)?(伺い尋ね)(を)?(いた)?し?(させていただき)?(ます|たい)|(見解|答弁|所見 |課題認識|考え(説明) をお?(求め|伺い聞かせ|尋ね)|(お)?(答え聞かせ)(て|を)? 質問くださいありがとうございましたいかがですか|どうですがでありませんかるものです|(どのように|どう)(考えて(認識して取り組む)のですがでしょうか (お)?答え (を)?(いた)?(|し申し上げ)ます初めに, 次(いで|に|は), |まず, 他方で, |最後に, 続きまして, 沉ついて (です|であります|でございます)|の (お話 答弁 |お尋ね)(がございました|でございます)|(の|に関する)(ご)?質問で (ございま)?す|(質問|指摘|言及|お尋ね)が?ございました|(質問(指摘)を?いただきました 表 6 候補抽出のための正規表現 開始た, |他方で, |^最後に, ^続きまして, |^ それから, ^^さらに,|^いわゆる, 終了に(ついてやき関する引?答え)|[^に ## 令和四年東京都議会会議録第二号 (2022/2/22) ## 八十二番 (米倉春奈君) 質問八十二番 (米倉春宗君) 都の説明では、都内で一日当たり最大十三万件の検査を行えるはずです。ところが、一日当たりの検直数は、一月第四週の約六万件をピークに減少し、二月第二週は約五万件にすぎません。都のモニタリング会議は、無症状や軽症で検査未実施の感染者が多数型在している状況が危惧されると繰り返し指摘しています。知事、検目数が少な過ぎると思いませんか。検㚗能力を十分活用できていない原因を明らかにし、必要な方か迅速に検査を受けられるようすることを求めます。いかがですか。 答弁福祉保健局健康危機管理担当局長(佐藤智秀君) まず、検査件数でございますが、一日当たりの最大検直実績は、行政検相四万七千件、都の独自検査一万六千件、PCR等検査無料化事業一万二千件、合わせて七万五千件でございます。また、このほか、今般の感染急拡大に伴う措置として、無症状の㴵厚接触者に対し、受診前に自宅で行う検査キットを一日最大四万件配布しているところでございます。 ## 一兵問答并 3 検査体制 一質問答弁4 高龄者施設等における検査 図 3 システムの出力結果
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P11-11.pdf
# 表の段階的な縮小による biography 生成 金子知弘船越孝太郎奥村学 東京工業大学 \{kaneko, funakoshi, oku\}@lr.pi.titech.ac.jp ## 概要 本研究では,人物情報に関する表から説明文を生成する biography 生成における壳長性の改善と網羅性の向上に取り組む。一般に生成モデルでは, 繰り返しなどの冗長な出力を行う問題があり, biography 生成に打いても表内の項目を複数回記述して兄長な出力を行ってしまうことがある. 本研究では, biography 生成における冗長な生成を制御する方法の 1 つとして,表中から記述済みの項目を削除し,表を段階的に縮小する手法を提案する。実験では, SynthBio データセットを用い,自動評価において冗長性の改善,網羅性の向上を確認した. ## 1 はじめに 自然言語処理分野では,表 [1] やグラフ [2]など,構造化されたデータからのテキスト生成が重要な課題として位置付けられている。その中で Table-to-text タスク [3,4] は, 図 1 亿示すように, 表を入力し,表の内容を自然言語で記述するタスクである. 生成されたテキストにより,表内の情報の関連性を理解しやすくなる利点がある. 本研究では, その中でも,ある人物に関する情報をまとめた表を対象に biographyを生成するタスクに取り組む。 一般に生成モデルでは, 繰り返しなどの冗長な出力を行う問題があり, biography 生成においても表内の項目を複数回記述して冗長な出力を行うことがある. 例えば,高い生成性能を持つ事前学習済みモデル T5 [5]を Wikiperson データセット [6] で追加学習しSynthBio データセット [7] で評価すると, 図 1 のように,表内のセルが生成文で複数回記述され(赤色)㔯長な生成が起きている. さらに,㔯長な生成により,記述されないセルが発生する(青色). 本研究は,このような内容記述の壳長性を減らすとともに網羅性を上げることを目的とし,表内から記述済みのセルを削除し,表を段階的に縮小する手法を提案する.この手法ではまずどのセルが記述さ Sylvia Audrey Mabika is a Zimbabwean poet and novelist. Sylvia Audrey Mabika was born in Harare, Zimbabwe Zimbabwe. Sylvia Audrey Mabika was born in Harare, Zimbabwe Zimbabwe to a Zimbabwean mother and a Zimbabwean mother. Sylvia Audrey Mabika's first novel The Reluctant Muse was published in 2007. Sylvia Audrey Mabika's first novel The Reluctant Muse was published at Yale University. mabika's first novel The Reluctant Muse was published in English. 図 1 Table-to-text タスクの表と生成文の例. 表内の赤色のセルは,生成文の赤色の単語列で複数回記述されている. 一方,表内の青色のセルが記述されていない. れたかを判定し,その後記述されたと判定されたセルはクロスアテンションにおいてマスクを行う。これにより,人物情報に関する,より理解しやすい表の内容記述を生成することができる。 近年,人間のアノテータが介入したSynthBio デー タセットが提案され,biography 生成汐けるモデル性能をより適切纪評価できるようになった。そこで, 本研究でも SynthBio データセットを用いて評価を行い,自動評価においで兄長性の改善と網羅性の向上を確認した。 ## 2 関連研究 人物情報の表から biographyを生成するタスク $[8,9]$ は, 文生成を目的とした WikiBio データセット [1] とテキスト生成を目的とした Wikiperson デー 図 2 提案手法の流れ. 色付きの文字は,記述されたと判定されたセルとそのセルに該当する出力文の単語列を表す. タセットで研究されてきた。例えば,Liu ら [10]の入力にエンティティ情報を結合した学習方法, Wang ら [9] の表とテキストの類似性を制約に加算した生成フレームワーク, Tian ら [11] のデータからスコアを学習する変分ベイズ学習フレームワークなどがある. Wang ら [8] は, 忠実度と網羅性の向上を目的とした 2 段階モデルを提案し,従来の最先端モデルのスコアを凌駕した.このモデルは,1 段階目で生成すべき単語を抽出し,2 段階目でその抽出した単語を元に,単語の削除と挿入を繰り返し行うことでテキスト生成を行っている. しかし,この手法ではモジュールが多くモデルが複雑化している. ## 3 提案手法 本節では, biography 生成における冗長な生成を制御する手法として,記述された表内のセルを削除し,表を段階的に縮小する手法を説明する.まず biography 生成では,表 $T$ を入力とし,説明文 $Y=\left.\{y_{1}, y_{2}, \cdots, y_{m}\right.\}$ を生成する. 表 $T$ は $T=\left.\{c_{1}, c_{2}, \cdots, c_{n}\right.\}$ のようにセル $c_{i}$ の集合として形式化され,セル $c_{i}$ は $c_{i}=\left.\langle k_{i}, v_{i}\right.\rangle$ のようにキー値 $k_{i}$ とバリュー值 $v_{i}$ のペアで構成される. ただし,表 $T$ をモデルに入力するときは,表の構造をモデルが理解しやすくするため,バリュー値の前後に 2 つの特別なトークン $<\mathrm{SP} 1>\cdot<\mathrm{SP} 2>$ を挿入する. 例えば, <birth date, 10 April 1912>は, birth date <SP1> 10 April $1912<$ SP2>とモデルに入力する. 具体的な提案手法の流れを図 2 に示す.まず,表から 1 文目が生成されたら, 表内のどのセルが記述されたかの判定を行う(図 2 (1). 次に,記述されたと判定されたセルは表から削除する(図2 (2))そし て,縮小された表を元に 2 文目を生成し,再び 2 文目において表内のどのセルが記述されたかを判定し (図 2 (1) ), 記述されたと判定されたセルは表から削除する (図 2 (2)').この一連の流れを,表内のセルがなくなるまで繰り返し行うことで,㔯長性を減らすと共に網羅性を上げる. ## 3.1 どのセルが記述されたかの判定 学習時,デコーダにどのセルが記述されたかを表すへッドを構築することで判定を行う. 具体的なヘッド構築の流れを図 3 に示す. まず,エンコーダの隠れ状態からセル表現を構築する(図 3 (1))。次に, 出力文の各トークンからセル表現へのアテンションスコア(図 3 (2) を計算する。をして,事前に作成した教師データ(図 3 (3) ) とアテンションスコアからクロスエントロピー損失を計算する. 最後に,クロスエントロピー損失を言語モデルの学習損失に加算する. 推論時は,構築したヘッドのアテンションスコアを元に,どのセルが記述されたかの判定を行う. 具体的には,生成したトークンからあるセル表現へのアテンションスコアが,事前に設定した間値を上回った場合,そのセルは「記述された」と判定する. セル表現の構築エンコーダの隠れ状態からセル表現をまず構築する.しかし,セルに含まれる全てのトークンの隠れ状態からセル表現を構築すると, セル同士でテキストが異なるため,隠れ状態の次元数も異なる. その結果,セル同士でセル表現の次元数も異なってしまう.そこで,モデル入力において各セルに付加した特別なトークン ( $<\mathrm{SP} 1>,<\mathrm{SP} 2>)$ の隠れ状態を結合したものをセル表現として利用す 図 3 どのセルが記述されたかを表すへッドの構築の流れ. (1)は,セルの隠れ状態からセル表現を構築する手順. 例えば,<birth date,10 April 1912> はセル表現 $\mathrm{CR}_{\text {birth date }}$ となる. (2)は,出力文の各トークンから各セル表現へのアテンションスコア (青色).(3は,出力文の各トークンから各セル表現への教師データ(緑色). 例えば,出力文の 10 April 1912 というトークン列は,<birth date,10 April 1912> のセル表現 $\mathrm{CR}_{\text {birth date }}$ への教師データが 1 で,それ以外は 0 である. る. 具体的には,セル $c_{i}$ に対してのセル表現 $\mathrm{CR}_{i}$ は, $ \mathrm{CR}_{i}=\operatorname{concat}\left(h_{\mathrm{SP}_{i}}, h_{\mathrm{SP}_{i}}\right) $ となる.ここで, $h_{\mathrm{SP}_{1}}$ と $h_{\mathrm{SP}_{i}}$ はそれぞれセル $c_{i}$ の特別なトークン $<\mathrm{SP} 1>と<\mathrm{SP} 2>$ の隠れ状態である. アテンションスコアの計算 Transformer モデル [12] の出力文のトークンから入力文のトークンへのアテンションスコアの計算方法と同様に,出力文のトークン $y_{j}$ からセル表現 $\mathrm{CR}_{i}$ へのアテンションスコア $A_{i, j}$ を計算する. $ A_{i, j}=\operatorname{softmax}\left(K_{\mathrm{CR}_{i}} Q_{j}\right) $ ここで, $K_{\mathrm{CR}_{i}}$ と $Q_{j}$ は $ \begin{aligned} K_{\mathrm{CR}_{i}} & =W_{\mathrm{CR}} \times \mathrm{CR}_{i} \\ Q_{j} & =W_{y} \times y_{j} \end{aligned} $ であり, $W_{\mathrm{CR}}$ と $W_{y}$ は学習可能な重み行列である. クロスエントロピー損失の計算出力文のトー クン $y_{j}$ からセル表現 $\mathrm{CR}_{i}$ へのアテンションスコア $A_{i, j}$ と教師データ $L^{n \times m}$ からクロスエントロピー損失を計算する. $ \operatorname{loss}_{\mathrm{attn}}=\frac{1}{m} \sum_{1 \leq j \leq m} \frac{1}{n} \sum_{1 \leq i \leq n} L_{i, j} \log A_{i, j} $ ここで,教師データ $L$ は $ \begin{array}{ll} L_{i, p: q}=1, L_{l(\neq i), p: q}=0 & \left(y_{p: q}={ }^{\exists} v_{i}\right), \\ L_{l, p: q}=\frac{1}{n} & \left(y_{p: q} \neq{ }^{\forall} v_{i}\right) \end{array} $ である. 式(6) は,あるセル $c_{i}$ のバリュー值 $v_{i}$ と出力文の単語列 $y_{p: q}$ が完全一致1) するとき, 出力文の 1)同じ表内で包含関係にあるバリュー値を持つ複数のセルが存在する場合(例えば,セル<birth place,Columbia> とセル <university, Columbia University> がある場合), 出力文と最長で完全一致しているセルを優先する.単語列 $y_{p: q}$ からセル表現 $\mathrm{CR}_{i}$ への教師データは 1 であり,それ以外のセル表現 $\mathrm{CR}_{l(\neq i)}$ への教師デー タは 0 であることを意味する。式 (7) は,出力文のトークン列 $y_{p: q}$ が全てのセルのバリュー值と完全一致しないとき2), 出力文の単語列 $y_{p: q}$ から全てのセル表現への教師データは $\frac{1}{n}$ であることを意味する. 言語モデルの学習損失への加算計算したクロスエントロピー損失 $\operatorname{loss}_{a t t n}$ を言語モデルの学習損失 $\operatorname{loss}_{\mathrm{LM}}$ に加算する. $ \text { loss }=\operatorname{loss}_{\mathrm{LM}}+\operatorname{loss}_{\mathrm{attn}} $ どのセルが記述されたかの判定を行う手法を説明してきたが,この手法では,生成文に対してどのセルも記述されていないと判定する場合がある. そのような場合には,記述されたと未だ判定されていないセルの中で,生成文の各トークンからのアテンションスコアが最大のセルをまずリストアップし, その中で最大のアテンションスコアであるセルを記述されたと判定する。 ## 3.2 表内のセルの削除 表内のセルの削除は,Transformer モデル [12] のクロスアテンションをマスクすることで仮想的に行う.クロスアテンションとは,文生成時に入力のどこに注目するかを表す機構なので,クロスアテンションをマスクするということは,入力の表の特定のセルに注目させず記述させないことを意味する。 一般に biography 生成用のデータセットでは,表 1 に示すように,セルが参照文で 2 回以上言及される 2)これは, 出力文の単語列 $y_{p: q}$ がどのセルも記述していないことを意味し, 文章構成上必要な単語列などについてのものである 表 1 Wikiperson でセルが参照文で言及される回数. 表 2 Wikiperson と SynthBio の統計量. ことがある.このように参照文で 2 回以上言及されるセルは冗長であると考え,学習時はセルが最後に言及された時点でマスクし,推論時は 1 回目に記述された時点でマスクする。 ## 4 実験 ## 4.1 実験設定 学習データには Wikiperson データセット,検証・評価データには Wikiperson データセットと SynthBio データセットを用いた. これらのデータセットの統計量を表 2 に示す. 自動評価では,PARENT [13] と PARENT-T [9]を評価指標として用いた. PARENT は,表と参照文の両方との, n-gram 単位での生成文の一致度を測る。 PARENT-T は,表のみを考慮した n-gram 単位での生成文の一致度を測る。テキスト長は, SentencePiece 3)を用いて文字列をトークン化し,トークン単位で生成テキストの長さを測ったものである. 先行研究 [8] は SynthBio データセットで評価しておらず,また, Wikiperson データセットでは T5 モデル [5] が先行研究 [8] よりも PARENT F1 が良いため, ベースラインとしては, T5 モデルと, 繰り返し抑制の既存研究である, repetition penalty [14] を T5 上に実装したモデル(rep. penalty モデル)を用いた. 提案モデルも $\mathrm{T} 5$ 上で構築する. より具体的には, 本研究の実装には Huggingface [15] を用いた. モデルは T5-small を使用し, ヘッド数は 8 , 層数は 6 である. 初期学習率は $5 \mathrm{e}-05$ で, Adam optimizer [16] $\left(\beta_{1}=0.9, \beta_{2}=0.999\right)$ によりパラメータを最適化した. 学習は最大 60 エポック行い,最も検証データに対する損失の低いモデルを選択した。最大テキスト長は 512 で,語彙サイズは 32,103 である.学習バッチサイズは 64 である.検  表 3 自動評価結果 (Wikiperson). 表 4 自動評価結果(SynthBio). $\frac{\text { PARENT }}{\text { Pre. Rec. F1 }} \frac{\text { PARENT-T }}{\text { Pre. Rec. F1 } \text { テキスト長 }}$ 証・評価時のビームサイズは 4 とした. セルが記述されたと判定する閾値は,検証データでチューニングした結果, 0.50 とした. また,ベー スラインモデルの repetition penalty 値は,検証デー タでチューニングした結果, 1.90 とした. ## 4.2 実験結果 Wikiperson による評価結果を表 3 に,Synthbio による評価結果を表 4 に示す. Wikiperson による評価において,提案モデルはベースラインモデルよりも,PARENT F1,PARENT-T F1 が低い,提案モデルは推論時,セルが 1 回目で記述されたらマスクするため,1つのセルは 1 回のみ記述される. Wikiperson は表 1 に示すように,セルの約 $18.0 \%$ が 2 回以上言及されるため, Wikiperson において提案手法の有効性が示せなかったと考えられる。 それに対して,SynthBioによる評価において,提案モデルの PARENT F1, PARENT-T F1 ともにベースラインモデルよりも高い. 提案モデルはベースラインモデルと比較してテキスト長が短くなっており, しかも評価指標の F1 が向上していることから,㔯長性が減った上で網羅性が向上したことがわかる. ## 5 結論 本研究では,冗長性の改善と網羅性の向上を目的として,記述された表内のセルを削除し,表を段階的に削除する手法を提案した. 評価実験の結果,提案モデルは PARENT, PARENT-T F1 ともにベースラインモデルを上回った. 特に,提案モデルはベースラインモデルと比較してテキスト長が短くなっており, 評価指標の F1 が向上したことから, 穴長性が改善した上で網羅性が向上したと言える. ## 謝辞 本研究を実施するにあたり,産業技術総合研究所人工知能研究センター 高村大也氏, 奈良先端科学技術大学院大学上垣外英剛准教授, 東京工業大学小林尚輝氏に大変お世話になりました. 深く感謝申し上げます. ## 参考文献 [1] Rémi Lebret, David Grangier, and Michael Auli. Neural text generation from structured data with application to the biography domain. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pages 1203-1213, Austin, Texas, November 2016. Association for Computational Linguistics. [2] Soichiro Murakami, Akihiko Watanabe, Akira Miyazawa, Keiichi Goshima, Toshihiko Yanase, Hiroya Takamura, and Yusuke Miyao. Learning to generate market comments from stock prices. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 1374-1384, Vancouver, Canada, July 2017. Association for Computational Linguistics. [3] Jekaterina Novikova, Ondřej Dušek, and Verena Rieser. The E2E dataset: New challenges for end-to-end generation. In Proceedings of the 18th Annual SIGdial Meeting on Discourse and Dialogue, pages 201-206, Saarbrücken, Germany, August 2017. Association for Computational Linguistics. [4] Lya Hulliyyatus Suadaa, Hidetaka Kamigaito, Kotaro Funakoshi, Manabu Okumura, and Hiroya Takamura. Towards table-to-text generation with numerical reasoning. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pages 14511465, Online, August 2021. Association for Computational Linguistics. [5] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, 21(140):1-67, 2020. [6] Qingyun Wang, Xiaoman Pan, Lifu Huang, Boliang Zhang, Zhiying Jiang, Heng Ji, and Kevin Knight. Describing a knowledge base. In Proceedings of the 11th International Conference on Natural Language Generation, pages 10-21, Tilburg University, The Netherlands, November 2018. Association for Computational Linguistics. [7] Ann Yuan, Daphne Ippolito, Vitaly Nikolaev, Chris Callison-Burch, Andy Coenen, and Sebastian Gehrmann. Synthbio: A case study in faster curation of text datasets. In Thirty-fifth Conference on Neural Information Processing Systems Datasets and Benchmarks Track (Round 2), 2021. [8] Peng Wang, Junyang Lin, An Yang, Chang Zhou, Yichang Zhang, Jingren Zhou, and Hongxia Yang. Sketch and refine: Towards faithful and informative table-to-text generation. In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pages 48314843, Online, August 2021. Association for Computational Linguistics. [9] Zhenyi Wang, Xiaoyang Wang, Bang An, Dong Yu, and Changyou Chen. Towards faithful neural table-to-text generation with content-matching constraints. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pages 1072-1086, Online, July 2020. Association for Computational Linguistics. [10] Tianyu Liu, Xin Zheng, Baobao Chang, and Zhifang Sui. Towards faithfulness in open domain table-to-text generation from an entity-centric view. Proceedings of the AAAI Conference on Artificial Intelligence, 35(15):13415-13423, May 2021. [11] Ran Tian, Shashi Narayan, Thibault Sellam, and Ankur P. Parikh. Sticking to the facts: Confident decoding for faithful data-to-text generation. CoRR, abs/1910.08684, 2019. [12] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, volume 30. Curran Associates, Inc., 2017. [13] Bhuwan Dhingra, Manaal Faruqui, Ankur Parikh, MingWei Chang, Dipanjan Das, and William Cohen. Handling divergent reference texts when evaluating table-to-text generation. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 4884-4895, Florence, Italy, July 2019. Association for Computational Linguistics. [14] Nitish Shirish Keskar, Bryan McCann, Lav R. Varshney, Caiming Xiong, and Richard Socher. CTRL: A conditional transformer language model for controllable generation. CoRR, abs/1909.05858, 2019. [15] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander M. Rush. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pages 38-45, Online, October 2020. Association for Computational Linguistics. [16] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Yoshua Bengio and Yann LeCun, editors, 3rd International Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings, 2015.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P11-12.pdf
# Language Understanding with Non-Autoregressive BERT-to-BERT Autoencoder Mohammad Golam Sohrab $^{1}$ Matīss Rikters $^{1}$ Makoto Miwa $^{1,2}$ ${ }^{1}$ Artificial Intelligence Research Center (AIRC) National Institute of Advanced Industrial Science and Technology ${ }^{2}$ Toyota Technological Institute, Japan \{sohrab.mohammad, matiss.rikters\}@aist.go.jp makoto-miwadtoyota-ti.ac.jp } \begin{abstract} We propose a fast and scalable non-autoregressive S2S model that is flexible enough to employ the widely successful BERT as the backbone for the encoder and the decoder. In this paper, we pre-train BERT models using the nonautoregressive approach, which we call non-autoregressive BERT-to-BERT (NAR-B2B). We evaluate the NAR-B2B model using the standard GLUE tasks for natural language understanding. Experimental results show that the pre-training strategy is effective for BERT and the nonautoregressive approach enables fast training and decoding. \end{abstract ## 1 Introduction Pre-trained language models (PLMs) have been widely successful across many natural language processing (NLP) tasks. Especially, the Bidirectional Encoder Representations from Transformers (BERT) model [1] has received widespread attention due to its ability to infer contextualised word representations. With this ability, BERT can help obtain superior performance in downstream tasks by leveraging simple fine-tuning. Recently, pre-training sequence-to-sequence (S2S) models such as BERT2BERT [2], BART [3], T5 [4], and Optimus [5] have been introduced. They are applied to various tasks in NLP since they are well suited to problems such as summarisation and question answering. These models employ transformer-based bidirectional models, such as BERT, as an encoder and use as a decoder powerful auto-regressive models like GPT-2 [6], which generate tokens in a left-toright manner. Among these models, Optimus is based on variational autoencoders (VAE) $[7,8]$, which can be considered the first large-scale pre-trained deep latent variable model and proven useful for non-autoregressive modeling [9]. These models, however, have several limitations. First, the models need many computational resources to decode, especially for longer texts. For instance, Optimus limited their inputs to the length of 64, and it also limited the training data. Second, some models use different architectures for their encoders and decoders. For example, Optimus is based on BERT and GPT-2. Such inconsistency in models results in different tokenisation between input and output. To tackle these limitations, we aim at building a largescale non-autoregressive pre-trained S2S model using the BERT as the backbone for both encoder and decoder models. The non-autoregressive modelling allows fast decoding and the use of longer texts. Unlike the Optimus and BART models, our model does not rely on autoregressive GPT-2-like models. The input and output tokenisation become consistent by using the same BERT architecture. In this paper, as the first step towards the above modelling, we propose to pre-train the BERT models using the non-autoregressive sequence-to-sequence model, which we call non-autoregressive BERT-to-BERT, or NAR-B2B. We train the entire non-autoregressive S2S model with an autoencoding objective, which is inspired by BERT. To investigate better autoencoding, we compare autoencoder (AE) and variational autoencoder (VAE) models in the S2S modelling following Optimus. We evaluate the performance of the pre-trained NAR-B2B models to confirm that the BERT models can be trained via S2S modelling. We also evaluate and compare the pre-trained NAR-B2B Figure 1 The NAR-B2B architecture (inspired by Optimus). The dotted line illustrates the ground truth words (GTW) setting where the decoder receives GTW as input. models in the encoder and decoder. Experimental results show the effectiveness of our modelling in both speed and performance. First, we could pre-train the NAR-B2B models with more training data and less training time using the S2S model. Second, our pre-trained NAR-B2B models in both encoder and decoder perform better than the Optimusencoder-based BERT and the original BERT model. ## 2 Pre-training NAR-B2B To pre-train non-autoregressive BERT-to-BERT (NARB2B) models using the S2S modelling, we train the $\{\phi, \delta\}$ parameters, which corresponds to the parameters of the BERT encoder and the non-autoregressive (NAR) BERT decoder using an autoencoding objective, i.e., AE or VAE. The architecture of the proposed model is illustrated in Figure 1. ## 2.1 Model Architecture The model architecture of NAR-B2B is composed of a multi-layer Transformer-based encoder and decoder, in which the embedding layer and the stack of transformer layers are initialised with BERT [1]. To leverage the expressiveness power of existing pre-trained BERT models, we initialise our BERT encoder BERT ${ }_{\phi}$ and BERT decoder $\mathrm{BERT}_{\delta}$ with the pre-trained BERT parameters. Here, we denote the number of layers (i.e., Transformer blocks) as $\mathrm{L}$, the hidden size as $\mathrm{H}$, and the number of self-attention heads as A. Specifically, in this paper, we employ bert-basecased ( $\mathrm{L}=12, \mathrm{H}=768, \mathrm{~A}=12$, Total Parameters=110M) for both encoder and decoder models. Input Sequence Following the BERT setup, we first append a [CLS] and a [SEP] token on both sides of the source sentence. Then, inspired by the input format representation [10], we merge sentences for faster training and flexibility in dealing with longer sequences. Specifically, we merge multiple sentences with a special token [SEP] to ensure that the source sequence length is not longer than the BERT default maximum sequence length, which is 512 . Figure 2 Beta ( $\beta$ ) Annealing BERT Encoder Our NAR-B2B model first feeds the input sequence $\boldsymbol{X}=\boldsymbol{x}_{[C L S]}, \boldsymbol{x}_{1}, \ldots, \boldsymbol{x}_{n}$ to the $\mathrm{BERT}_{\phi} \mathrm{em}$ bedding layer. In BERT, the first token of every sentence is a special classification token ( [CLS ] ). The last layer's hidden state $\boldsymbol{h}_{[C L S]} \in \mathbb{R}^{H}$ corresponding to this token is used as the sentence-level representation. It further constructs the latent representation $z=\boldsymbol{W}_{E} \boldsymbol{h}_{[C L S]}$ where $z \in \mathbb{R}^{P}$ is a $P$-dimensional vector and $\boldsymbol{W}_{E} \in \mathbb{R}^{P \times H}$ is the weight matrix. Building Decoder Input The latent embedding $\mathbf{z}$ is added to the [PAD] and positional embeddings to construct the decoder's input sequence $X^{D}$. In addition to this PAD setting, we tried to use the input sequence of the encoder to construct the input as shown as the dotted line in Figure $1^{1)}$. Under this setting, the decoder receives the encoder's ground truth words (GTW) as input. The embedding representation $\boldsymbol{x}_{i}^{D}$ of the $i$-th token of the decoder's input sequence is calculated as $\boldsymbol{x}_{i}+\mathbf{W}_{D} \mathbf{z}$. To facilitate $\mathbf{z}$ in BERT decoding, we add the latent vector $\mathbf{z}$ to all inputs of the intermediate layers in the decoder. Non-autoregressive BERT Decoding Our nonautoregressive BERT decoder $\mathrm{BERT}_{\delta}$ receives the input $\boldsymbol{X}^{D}$ and generates the original sequence in a nonautoregressive manner (all tokens simultaneously). ## 2.2 Training To train NAR-B2B, we employ AE and VAE objectives. AE To train NAR-B2B with the AE objective, the model entirely focuses on maximizing the mutual information (MI) $[5,11]$ to recover a sentence from the latent space. VAE The VAE objective consists of two terms, (a) reconstruction and (b) Kullback-Leibler (KL) regularization, balanced by a weighting hyper-parameter $\beta$. When training with the KL regularization, the KL tends to vanish [11, 5]. [11] proposed a cyclical annealing schedule (CAS), which 1) Since our target is the pre-training of BERT, we tried to use the encoder's input sequence in the decoder. repeats the annealing process of beta multiple times by showing that the KL vanishing is caused by the lack of good latent codes in the training decoder at the beginning of optimization. To train NAR-B2B with the VAE objectives, we progressively improve latent representation $\mathbf{z}$ by adapting a CAS [11], where $\beta$ is repeatedly annealed from 0 to 1 . We split the training iterations into ten cycles, starting with $\beta=0$ and ending with $\beta=1$. Within each cycle, there are three consecutive stages: training $\mathrm{AE}(\beta=0)$ for 0.5 proportion, annealing $\beta$ from 0 to 1 for 0.25 proportion, and fixing $\beta=1$ for 0.25 proportion (as illustrated in Figure 2). ## 3 Experiments The pre-training procedure follows existing literature on PLM pre-training. Following BERT, we use BookCorpus $^{2}$ [12] and English Wikipedia ${ }^{3}$ ) to pre-train our NARB2B model. (details in Appendix B). Table 1 shows the performance comparison of our NARB2B model with BERT [1] and Optimus [5]. The NARB2B model yields higher performance than the BERT and Optimus models. BERT and Optimus (VAE) are considered baseline models, and their scores are taken from the Optimus [5] literature. In this table, the scores in the bold text indicate the best performance of a certain task in GLUE datasets. The results of the pre-trained encoder model of NAR-B2B using the AE objectives (NAR-B2B (AE) + Encoder) show that the model performs higher than the baseline models on five tasks. The pre-trained decoder model of NAR-B2B using the AE objectives (NAR-B2B (AE) + GTW + Decoder) outperforms the baseline models on all tasks except QQP. Since our NAR-B2B (AE) + GTW + Decoder models outperform the NAR-B2B (AE) + Encoder model, we evaluate the pre-trained decoder model of NAR-B2B with the VAE objectives (NAR-B2B (VAE) + Decoder model) and report the results in Table 1, where the model outperforms the baseline models. Table 2 shows the performance of the NAR-B2B decoder using the AE, full-VAE, VAE with GTW, and VAE with PAD on a sample dataset ( $10 \%$ from $207 \mathrm{M}$ data). For the full-VAE model, we annealed $\beta$ from 0.25 to 1 to let the model always learn only in VAE objectives. During $\beta$  annealing, we follow the same proportion as the cyclical schedule in VAE stated in Section 2.2. This table shows the effectiveness of AE and VAE models with different settings over the baselines and full-VAE approaches, where VAE with PAD achieves the best score in terms of average in the four tasks of the GLUE tasks. Our NAR-B2B with AE and VAE achieve competitive scores as the original BERT, compared with the VAE with the PAD model. Our NAR-B2B model initialised with sample data perform comparable scores of Table 1. Training large models on large-scale data sets is computationally challenging. In Optimus [5], computational efficiency is missing to train the model. Therefore, in our earlier attempt, we train the Optimus using 32M sentences that needs around $20 \mathrm{~K}$ iterations using a sequence length of 64 for 46 hours. In contrast to training the NAR-B2B model, it needs around $27 \mathrm{~K}$ iterations using a sequence length of 512 using $207 \mathrm{M}$ sentences for 39 hours. Our model can learn around seven times larger data than Optimus with lower cost while improving performance (details in Appendix A). Experimental results based on GLUE tasks with different objectives of NAR-B2B have demonstrated strong performance of NAR-B2B models. Besides, NAR-B2B can efficiently learn and decode the large-scale dataset by providing longer sequences. In future extensions, it would be interesting to investigate how effectively we can train our PLM in several hours without degrading the performance by adapting efficient transformers like Big Bird [13], where the maximum sequence length is 4096. We report the performance of WNLI based on 634 examples of the GLUE dataset separately in Table 3 for readers' interest. The GLUE benchmark consists of nine datasets, but BERT [1] literature ignores the WNLI dataset because of its problematic nature, as they reported. The Optimus literature reports the Optimus performance that includes WNLI; meanwhile, Optimus reports the score along with the WNLI dataset by re-running the BERT model. The Optimus model performs lower than BERT but outperforms the BERT model while adding the WNLI score. In this table, our NAR-B2B model with ground truth words (GTW) as input to the decoder model outperforms the BERT and Optimus model ${ }^{4)}$. In contrast, our NAR-B2B model with PAD setting as decoder input outperforms the BERT model 4) In decoder input, the Optimus model follows the GTW setting, while PAD setting in Optimus is absent. & & & & & & & & Avg. \\ Table 1 Comparison of BERT, Optimus, and NAR-B2B with the AE and VAE objectives on the validation set of GLUE. (+) denotes our models performance being higher than baseline models, (-) indicates our models performance being lower. PAD denotes the decoder receives the BERT special token [PAD] as its input, while GTW denotes the decoder receives the ground truth words as its input. Table 2 Comparison of NAR-B2B model on a sample dataset (10\% from 207M sequences). NAR-B2B performances with the AE, full-VAE, VAE, and VAE with PAD objectives. Comparison is on the validation set of GLUE. Table 3 Comparison of BERT, Optimus (VAE), and NAR-B2B with the WNLI dataset. but exact score to the Optimus model. ## 4 Related Work Pre-trained Language Models (PLMs) are neural networks trained on large-scale datasets that can be fine-tuned on problem-specific data. Some of the most popular have been GPT-2 [6], XLNet [14], and XLM [15]. They became widely adapted after BERT [1] reported SOTA results for 11 NLP tasks. Li et al. [5] proposed the first large-scale language VAE model, Optimus. They connect a BERT encoder and a GPT-2 decoder using a universal latent embedding space. The model is first pre-trained on a large text corpus and then fine-tuned for various language generation and understanding tasks. It achieves SOTA on VAE language modelling benchmarks. Rothe et al. [2] developed a Transformer-based sequence-to-sequence models by describing several combinations of model initialization that include BERT2BERT, a BERT-initialized encoder paired with a BERT-initialized autoregressive decoder. Our implementation and architecture of NAR-B2B is a non-autoregressive VAEbased model without cross-attention which differs from BERT2BERT. The Cyclical Annealing Schedule [11] was proposed to mitigate the problem of KL regularisation vanishing. They increase the $\beta$ weighting hyper-parameter multiple times, which progressively enables learning of more meaningful latent codes by leveraging the results of previous learning cycles as a warm restart. NAR models have been recently investigated in NLP tasks due to their efficiency. For example, Gu et al. [16] introduced a NAR model for machine translation (MT) based on the transformer [17]. This reduced latency by $90 \%$ and achieved competitive output quality with only a slight decrease in translation performance compared to similar-sized autoregressive (AR) models. Furthermore, Gu and Kong [9] further minimised the gap with AR models achieving SOTA performance on several MT benchmarks. ## 5 Conclusion In this paper, we introduced a fast and scalable S2S model non-autoregressive BERT-to-BERT (NAR-B2B) that aims at building a large-scale NAR pre-trained S2S model using BERT as the backbone for both encoder and decoder models. To investigate better modelling, we compared AE and VAE models in the S2S modelling. We evaluated the NAR-B2B model's contribution over the nine language understanding tasks, and the results show that the NAR-B2B model with different settings consistently performs better in comparison to the original BERT and Optimus models. In future work, we plan to expand the experiments to more language combinations for MT and additional language generation tasks. ## Acknowledgement This paper is based on results obtained from a project JPNP20006, commissioned by the New Energy and Industrial Technology Development Organization (NEDO). ## References [1] Jacob Devlin, et al. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of NAACL, pp. 4171-4186, 2019. [2] Sascha Rothe, et al. Leveraging pre-trained checkpoints for sequence generation tasks. TACL, Vol. 8, pp. 264280, 2020. [3] Mike Lewis, et al. BART: Denoising sequence-tosequence pre-training for natural language generation, translation, and comprehension. In Proceedings of ACL, pp. 7871-7880. ACL, 2020. [4] Colin Raffel, et al. Exploring the limits of transfer learning with a unified text-to-text transformer. JMLR, Vol. 21, pp. $1-67,2020$. [5] Chunyuan Li, et al. Optimus: Organizing sentences via pre-trained modeling of a latent space. In Proceedings of EMNLP, pp. 4678-4699. ACL, 2020. [6] Alec Radford, et al. Language models are unsupervised multitask learners. OpenAl blog, Vol. 1, No. 8, p. 9 , 2019. [7] Diederik P. Kingma and Max Welling. Auto-encoding variational bayes. In ICLR, 2014. [8] Danilo Jimenez Rezende, et al. Stochastic backpropagation and approximate inference in deep generative models. In ICML, pp. 1278-1286, 2014. [9] Jiatao Gu and Xiang Kong. Fully non-autoregressive neural machine translation: Tricks of the trade. In Findings of ACL-IJCNLP 2021, pp. 120-133. ACL, 2021. [10] Yinhan Liu, et al. Roberta: A robustly optimized bert pretraining approach. arXiv preprint, 2019. [11] Hao Fu, et al. Cyclical annealing schedule: A simple approach to mitigating KL vanishing. In Proceedings of NAACL, pp. 240-250. ACL, 2019. [12] Yukun Zhu, et al. Aligning books and movies: Towards story-like visual explanations by watching movies and reading books. In ICCV, 2015. [13] Manzil Zaheer, et al. Big bird: Transformers for longer sequences. NeurIPS, Vol. 33, , 2020. [14] Zhilin Yang, et al. Xlnet: Generalized autoregressive pretraining for language understanding. In NeurIPS, Vol. 32, pp. 5753-5763, 2019. [15] Alexis Conneau and Guillaume Lample. Cross-lingual language model pretraining. In NeurIPS, Vol. 32, pp. 7059-7069, 2019. [16] Jiatao Gu, et al. Non-autoregressive neural machine translation. In ICLR, 2018. [17] Ashish Vaswani, et al. Attention is all you need. NIPS, Vol. 30, pp. 6000-6010, 2017. [18] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In ICLR, 2019. [19] Alex Wang, et al. GLUE: A multi-task benchmark and analysis platform for natural language understanding. In Proceedings of the BlackboxNLP Workshop, pp. 353-355. ACL, 2018. ## A Computational Efficiency Table 4 shows the computational efficiency of NAR-B2B in comparison to the Optimus model. We train the Optimus and NAR-B2B based on a single epoch. Optimus can use a larger batch size because of the shorter sequence length. Table 4 Computational details ## B Experimental Settings ## B. 1 Pre-training The BookCorpus data set is already processed into 86M sentences. We load Wikipedia with the version of 20200501.en from huggingface datasets and split the text from text field into sentences by detecting newlines that lead to $121 \mathrm{M}$ sentences. We ignore the title field in Wikipedia. To pre-train our NAR-B2B model, our model receives $207 \mathrm{M}$ sentences from combining BookCorpus and Wikipedia datasets. Using sentence merging described in Section 2.1, it further compresses the data from 207M into $16 \mathrm{M}$ longer sequences split into 100 files as the input to the BERT model. The NAR-B2B model we trained had 12 layers in the encoder and decoder. We used a batch size of 600 and trained the model for 13,302 steps. We optimized our PLM models using AdamW [18] with the learning rate of 5e-5 for BERT-base-cased. We trained each language model with 200 GPUs (NVIDIA V100 for NVLink 16GiB) with a batch size of 600 . The maximum sequence length is set to 512 . ## B. 2 Language Understanding We consider the GLUE benchmark [19], which consists of nine datasets for general language understanding. Following the fine-tuning setting in $[1,5]$, we use the learning rate $[2,3,4,5] \times 10^{-5}$ with different seeds and train the model for three epochs. We select the best performances among different runs. We employ Optimus evaluation script ${ }^{5)}$ for GLUE to report all the scores. 
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P11-13.pdf
# Disentangling Meaning and Style for Positive Text Reframing $\mathrm{Xu}$ Sheng $^{1}$, Yoshimi Suzuki ${ }^{2}$, Jiyi $\mathrm{Li}^{2}$, Kentaro Go ${ }^{2}$, and Fumiyo Fukumoto ${ }^{2}$ ${ }^{1}$ Integrated Graduate School of Medicine, Engineering, and Agricultural Sciences ${ }^{2}$ Interdisciplinary Graduate School University of Yamanashi \{g22dts03,ysuzuki, jyli,go, fukumoto\}@yamanashi.ac.jp } \begin{abstract} Positive Text Reframing (PTR), as the new branch of Text Style Transfer (TST) task has attracted interest from researchers as it is crucial and extensively applicable in the NLP area. Due to the significant generalization and representation capability of the Transformer based pre-trained language model (PLM), a beneficial baseline can be easily obtained by just fine-tuning the PLM on the annotated dataset directly. However, it is a challenging problem to transfer the sentiment attributes of the source sentence into a sentence that gives a positive perspective while preserving the original sense of the context. In this paper, we disentangle positive text reframing into aspects: a sentence meaning and style and learn a model for each aspect, i.e., paraphrase generation and sentiment transfer to boost the generation performance on a positive perspective. Experimental results on Positive Psychology Frames (PPF), show that our approach outperforms the baseline by seven evaluation metrics. \end{abstract ## 1 Introduction Text style transfer (TST), as one of the important NLP tasks, has been explored by the frame language-based systems by [1] and schema-based Natural Language Generation by [2] in the 1980s. The goal is to change the text style, such as formality, politeness, or sentiment with preserving the original sense of the source text. With a recent surge of interest in deep learning techniques, TST has had much attention and positive text reframing (PTR) has been explored as one of the sub-fields in TST research. As shown in the example sentence from Positive Psychology Frames (PPF) [3] in Figure 1, the goal of PTR is to generate a sentence with more positive sentiment and preserve the original content meaning of the given sentence. Leveraging supervised learning with parallel data is one Figure 1 The Concept for Disentangling Meaning and Style type of route among various approaches for the TST task. This line of approaches are, for example, Xu et al. [4] and Zhang et al. [5] proposed a multi-task learning-based method. Rao and Tetreault [6] presented data augmentation strategies for mitigating a small size of the training dataset. Another line is to utilize a non-parallel dataset. John et al. proposed a disentanglement method [7], and Shen et al. presented a cross-alignment algorithm to perform style transfer [8]. Fu et al. attempted to explore non-parallel data by using adversarial networks [9]. Lai et al. designed two rewards of target style and content for formality style transfer based on reinforcement learning paradigm [10]. The main challenge in the PTR task is how to control diversity and extent of style transfer, i.e., the trained model, which straightforward generates target by end-to-end following the Path ${ }_{1}$ in the Figure 1, and finally either simply copies most of the words that appeared in the source input to preserve the meaning, or transfers the input sentence with different sentiment polarity, causes a lack of diversity or reduce transferring sentiment quality. To transfer the source sentence into a diverse and positive target, we propose a simple approach that divides PTR into two aspects: sentence meaning and style. As shown in Figure 1 , the model is trained for each aspect, i.e., paraphrase generation and sentiment transfer, and further fine-tuned Figure 2 The procedure for creating pseudo data to fuse the capabilities learned from these two aspects by alternative paths, Path and $_{2}$ Path instead of Path $_{1}$. The contributions of this paper can be summarized: (1) we propose two data augmentation strategies to generate pseudo-positive reframing datasets for disentangling the PTR, (2) we propose a simple but effective multi-task learning-based model to fuse the capabilities learned from the two pseudo datasets for PTR, and (3) The experimental results show that our pseudo datasets and our strategies can improve the performance compared with the baseline on PPF dataset. ## 2 Methodology ## 2.1 Creating Pseudo Data as Prior Knowledge We utilized existing paraphrase and sentiment datasets to create two pseudo-parallel datasets instead of creating a sentence reframing dataset manually. Figure 2 illustrated the procedure for creating two synthetic datasets. The procedure consists of three steps. ## (1) Selecting annotation pairs For the paraphrase generation auxiliary task, we choose Microsoft Common Objects in COntext (MSCOCO) and call it $D_{p g}$. In contrast, for the sentiment transfer auxiliary task. Shen et al. modified the huge Yelp reviews dataset for sentence-level sentiment analysis [8]. We divided it into two sets, $S_{\text {neg }}$ and $S_{p o s}$ consisting of sentences with negative and positive sentiment labels, respectively. We created pairs for $\forall s_{i} \in S_{\text {neg }}$, and $\forall s_{i}^{\prime} \in S_{\text {pos }}$. To reduce the computation cost, for a given $s_{i}$, we randomly chose the number of $0.05 \times\left|S_{p o s}\right|$ samples from the set $S_{p o s}$. Therefore, $0.05 \times\left|S_{\text {pos }}\right| \cdot\left|S_{\text {neg }}\right|$ negative and positive sentence pairs are gained. We call the result $D_{s t}$. ## (2) Training PLM as Filter To utilize two datasets, $D_{p q}$ and $D_{s t}$ as pseudo datasets of PTR, each sentence of a pair extracted from $D_{p q}$ should be different polarity from each other. Similarly, each sentence of a pair from $D_{s t}$ should be a similar meaning. To this end, a semantic similarity classifier is trained as a semantic filter $\left(F_{\text {sem }}\right)$, to remove inappropriate from $D_{s t}$. In the same manner, a sentiment classifier is trained as a sentiment filter $\left(F_{\text {senti }}\right)$ and predicts one of the three polarities, i.e., negative, neutral, and positive. To simplify our model, two common parallel paraphrase generation and sentiment analysis datasets, for measuring semantic similarity and sentiment polarity classification can be utilized to obtain $F_{\text {sem }}$ and $F_{\text {senti }}$ respectively by leveraging PLM. ## (3) Filtering Two Pseudo Datasets We recall that the goal of PTR is to generate a sentence that gives a positive perspective with preserving the original sense of the source sentence. Therefore, the model $F_{\text {sem }}$ predicts the semantic similarity score ranging from 0 to 5.0. The higher the score value, the more semantically similar the two sentences are. Likewise, we chose two types of sentence pairs only, i.e., (Negative $_{s} \rightarrow$ Neutral $_{s}$, Neutral $_{s} \rightarrow$ Positive $_{s}$ labeled by $F_{\text {senti }}$ ) from the set $D_{p g}$, resulting in pseudo set $D_{p g}^{\prime}$. ## 2.2 Fusion Strategies The straightforward fine-tuning of PLM is indicated in the path marked with Path $_{1}$ of Figure 1. The strategy requires the model to directly learn the capability to inject diversity (paraphrase generation) and improve positive perspective (sentiment transfer) for the source sentence. However, it is challenging for the model to directly capture all of the complicated features at once. We thus divide this path into two relative steps to make the problem easier i.e., paraphrase generation and sentiment transfer, which are marked with blue and red colors in Figure 1. The model further fuses these two steps by utilizing two alternative paths masked with $\mathrm{Path}_{2}$ (from paraphrase generation to sentiment transfer) and $\mathrm{Path}_{3}$ (from sentiment transfer to paraphrase generation). To this end, we propose an approach that consists of two fine-turning stages and four data flows illustrated in Figure 3. More specifically, after training the PLM on two pseudo datasets, $D_{p g}^{\prime}$ and $D_{s t}^{\prime}$, parallel by using multi-task learning (Stage 1), the same model is further fine-tuned on PPF dataset following four optional data flow candidates, marked as ST, PG, PG2ST, and ST2PG (Stage 2). The decoder of PLM is a shared Figure 3 The model structure and data flow part, while the two encoders are used to model to generate paraphrase, and transfer sentiment, respectively. The first fine-tuning stage based on multi-task learning which is shown in Figure 3, can also balance the paraphrase generation and sentiment transfer. Therefore, the data flow PG, and ST, which only pass one of the two encoders, are regarded as two implicit fusion strategies. In contrast, the remaining two data flows, i.e., PG2ST and ST2PG which are classified by the order of hidden layers from two encoders are called explicit fusion strategies. ## 3 Experiment Table 1 The statistics of Five Datasets Invovled ## 3.1 Experimentail Setting Following Ziems et al. [3] setting, we chose BART pretrained model as the PLM in our method [11]. The original BART is downloaded from the version "facebook/bartbase", Hugging Face ${ }^{1)}$. The five dataset statistics are summarised in Table 1. Semantic Textual Similarity Benchmark (STSB) [12] and TweetEval Sentiment (TEsentiment) [13] are used to train the filters, $F_{\text {sem }}$, and $F_{\text {senti }}$, respectively. During the first stage in which PLM is trained with the prior knowledge to learn deriving diversity  and transfer positivity, we utilized the multi-task learning algorithm proposed by Liu et al. [14] to fine-tune the PLM. During the second stage, we utilized the PPF dataset to evaluate our method. It consists of 8,349 sentence pairs with manual annotation. The same BART trained in the first stage is further trained on the PPF training set. We tuned the hyperparameters as follows: the batch size is 4 , $8,16,32$, the number of epochs is from 2 to 5 , and the value of the learning rate is from 1e-5 to 1e-4. The procedure of tuning hyperparameters is automatically conducted by the third-party library named "Ray Tune"2). For a fair comparison with the baseline proposed by [3], we included three metrics in our evaluation metrics. The metrics are: (1) ROUGE [15], BLUE [16] and BERTScore [17] referring to the gold reference for assessing the performance on content preservation. (2) The $\Delta$ TextBlob value [18] for assessing the positivity transfer effectiveness. (3) The Average Length and Perplexity [19], followed by [20] for measuring the fluency of the output sentences. ## 3.2 Results Table 2 shows the main results on PPF test dataset. We can see from Table 2 that the results obtained by our approach improve the performance compared with the baseline. This indicates that our approach contributes to give a positive perspective while preserving the original contents. Four out of five content preservation metrics show that our method can keep the meaning of source sentences better as the improvements on ROUGE-1, ROUGE-2, and ROUGE-L are $5.2 \%, 2.7 \%$, and $3.0 \%$ respectively. Although there is no significant improvement on $\Delta \mathrm{TB}$, the  Table 2 Main results Against the baseline on a test set on PPF. $\triangle$ TextBlob ( $\triangle \mathrm{TB})$ refers to the evaluation metric about the positivity improvement. Average Length (Avg.Len) and Perplexity (PPL) denote the fluency metrics. Bold font shows the best result with each line. The result marked with $\star$, which has not been reported in the source paper, is obtained by following the same hyperparameter setting of the baseline, BART \\ Table 3 Some examples from test set of PPF, and their correspond reframe from our ST varient and Baseline. The parts marked with pink color are critical for positivity increase and content preservation. decrease of perplexity by 1.4 scores demonstrates that the sentence output from our ST variant is more fluent than that from the baseline method. Table 3 illustrates some example sentences obtained by our approach, ST, and the baseline. As shown in words/phrases highlighted by the green color, the output sentences generated by our model are more proper than that by the baseline. For instance, in the first example, "hope" and "better" are more positive expressions and the rest part keeps the meaning and topic of the original sentence, while the output of the baseline is duplicated with the source input. Likewise, "best to win this audition" in the output obtained by our method increases the positivity of sentiment style and preserver the content properly for the second input sentence. Although 'But I'm sure next time I'll be better" in the output by baseline method for the last example transfers the sentiment from negative to positive, the first short sentence blindly copies the counterpart from the input. Obviously, the entire output of our method is more fluent and diverse, such as "I hope this one goes well.", compared with the baseline. ## 4 Conclusion In this paper, we proposed a method for positive text reframing by leveraging two pseudo-datasets, paraphrase pairs with sentiment polarities, and sentiment pairs with paraphrases created by utilizing existing sentiment and paraphrase datasets. The experimental results on the PPF dataset showed that our simple approach attained good performance compared with the baseline, especially, we found that it is effective for generating fluent sentences. Future work will include: (1) Exploring more effective fusion strategies by leveraging multi-task learning techniques, (2) Applying our approach to other tasks on TST, and (3) Incorporating sentiment transfer knowledge during pre-training stage by leveraging a huge number of non-parallel datasets. ## Acknowledgement This work was supported by JST, the establishment of university fellowships towards the creation of science technology innovation, Grant Number JPMJFS2117, JKA, and Grant-in-aid for JSPS, Grant Number 20K11904. ## References [1] David D. McDonald and James D. Pustejovsky. A computational theory of prose style for natural language generation. In Second Conference of the European Chapter of the Association for Computational Linguistics, pp. 187-193, 1985. [2] Eduard Hovy. Generating natural language under pragmatic constraints. Journal of Pragmatics, Vol. 11, No. 6, pp. 689-719, 1987. [3] Caleb Ziems, Minzhi Li, Anthony Zhang, and Diyi Yang. Inducing positive perspectives with text reframing. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 3682-3700, 2022. [4] Ruochen Xu, Tao Ge, and Furu Wei. Formality style transfer with hybrid textual annotations, 2019. https: //arxiv.org/abs/1903.06353. [5] Yi Zhang, Tao Ge, and Xu Sun. Parallel data augmentation for formality style transfer. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 3221-3228, 2020. [6] Sudha Rao and Joel Tetreault. Dear sir or madam, may I introduce the GYAFC dataset: Corpus, benchmarks and metrics for formality style transfer. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 129-140, 2018. [7] Vineet John, Lili Mou, Hareesh Bahuleyan, and Olga Vechtomova. Disentangled representation learning for non-parallel text style transfer. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 424-434, 2019. [8] Tianxiao Shen, Tao Lei, Regina Barzilay, and Tommi Jaakkola. Style transfer from non-parallel text by crossalignment. In Advances in Neural Information Processing Systems, Vol. 30, 2017. [9] Zhenxin Fu, Xiaoye Tan, Nanyun Peng, Dongyan Zhao, and Rui Yan. Style transfer in text: Exploration and evaluation. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 32, No. 1, pp. 663-670, 2018. [10] Huiyuan Lai, Antonio Toral, and Malvina Nissim. Thank you BART! rewarding pre-trained models improves formality style transfer. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pp. 484-494, 2021. [11] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, 2020. [12] Daniel Cer, Mona Diab, Eneko Agirre, Iñigo LopezGazpio, and Lucia Specia. SemEval-2017 task 1: Semantic textual similarity multilingual and crosslingual focused evaluation. In Proceedings of the 11th International Workshop on Semantic Evaluation (SemEval-2017), pp. 1-14, 2017. [13] Francesco Barbieri, Jose Camacho-Collados, Luis Espinosa Anke, and Leonardo Neves. TweetEval: Unified benchmark and comparative evaluation for tweet classification. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 1644-1650, 2020. [14] Xiaodong Liu, Pengcheng He, Weizhu Chen, and Jianfeng Gao. Multi-task deep neural networks for natural language understanding. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4487-4496, 2019. [15] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 74-81, 2004. [16] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, 2002. [17] Tianyi Zhang*, Varsha Kishore*, Felix Wu*, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert. In International Conference on Learning Representations, pp. 74-81, 2020. [18] Steven Loria. textblob documentation. Release 0.16, Vol. 2, , 2018. [19] Zichao Yang, Zhiting Hu, Chris Dyer, Eric P Xing, and Taylor Berg-Kirkpatrick. Unsupervised text style transfer using language models as discriminators. In Advances in Neural Information Processing Systems, Vol. 31, 2018. [20] Di Jin, Zhijing Jin, Zhiting Hu, Olga Vechtomova, and Rada Mihalcea. Deep learning for text style transfer: A survey. Computational Linguistics, Vol. 48, No. 1, pp. 155-205, 2022.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P11-1.pdf
# トレースからユーザの意図を反映した画像キャプション生成 渡邊清子小林一郎 お茶の水女子大学 \{watanabe.sayako, koba\}@is.ocha.ac.jp ## 概要 近年,画像キャプション生成の研究は画像から得られる情報だけでなく,コントロールシグナルと呼ばれる追加情報を与えることにより,制御可能な画像キャプション生成へと発展している. 本研究では,画像をなぞることをコントロールシグナルとみなし,なぞった軌跡(‘トレース’と呼ぶ)から推定されるユーザの意図に基づくキャプション生成手法を提案する。トレースの滞在時間からユーザの興味度合いを,トレースの順番から説明順序をユーザの意図として推定する。滞在時間を文長に比例させ, ユーザがトレースした情報を順番に漏らさずに生成文中に表現することを可能にする非自己回帰型のキャプション生成手法を提案する. ## 1 はじめに コンピュータを操作するユーザインターフェイスは,キーボードを使った文字による CUI (Characterbased User Interface) と,マウスを使った画像による GUI (Graphical User Interface) が主流であった. しかし, PC (Personal Computer) にタッチパッドが搭載されたことや,スマートフォンの出現により,「クリック」だけではない「スワイプ」「ピンチアウト」「フリック」など指先による画面操作方法が多様になってきた。また,近年メタバースが注目される中で, VR (Virtual Reality) や MR (Mixed Reality) などを使用する際には,ハンドコントローラーやハンドトラッキング技術により手の動きの軌跡を読み取り,画面を操作している。つまり, 従来画面に合わせて決まった動かし方しかできなかったユーザインター フェイスは,ユーザの意図に合わせて多様な表現方法ができるように変容し続けている. 更に今後は,「スワイプ」「ピンチアウト」「フリック」などルールに当てはめずともユーザの動きの軌跡から指示を推測するようなユーザインターフェイスに進化していくと考えている. そこで本研究では,ユーザが描く軌跡に焦点を当て,画像キャプション生成を題材に実験を行う。 ## 2 関連研究 近年,画像キャプショニングの研究は, Faster R-CNN [1] や Semantic Segmentation [2] といった手法を用いて画像の内容を捉え,画像特徴量や言語モデルから画像の内容を深く捉える手法に基づくキャプション生成手法が提案されている $[3,4,5,6]$. また,近年は画像特徴量や言語モデルだけでなく, コントロールシグナルと呼ばれる追加情報を与えて生成キャプションを制御する Controllable Image Captioning が盛んに研究されている. 制御信号には様々な種類があり,バウンディングボックス [7], シーングラフ [8],文の長さ [9],文の詳述さ [10] を用いた研究が挙げられる. しかし, コントロールシグナルはキャプションの内容やスタイルに言及したものが多く,ユーザの意図や興味に沿ったインタラクティブな題材についてはあまり研究されていない. このような背景から, 本研究では, ユーザが画像をなぞる軌跡をコントロールシグナルとし,ユー ザの説明意図を反映した新しい画像キャプション生成手法を提案する.説明をする際に指差しながら発話するということは,人間の自然な行動である. その為,トレースは画像キャプションのタスクと親和性が高い。また,トレースには画像内の位置を示す座標情報だけではなく,時間軸やトレースの形状などの情報も含まれるため,様々な応用が可能である. 画像キャプション生成のコントロールシグナルにトレースを用いる先行研究として, Yan ら [11] は,トレースとバウンディングボックスの関係をスコアリングすることによって結び付けに成功し,高い精度を出した. これに対して本研究では,トレー スの座標情報だけでなく,トレースの滞在時間に注目し,ユーザの興味に合わせて説明の詳述さをキャプションに反映する. 図 1 提案手法の概要 ## 3 提案手法 図 1 亿提案手法の概要を示す. 以下,図 1 の各プロセスを説明する。 (1)画像のトレース画像中の説明したい箇所をトレースする. その際,説明を詳細にしたい対象に対してはトレースを念入りに行う。 (2)説明領域の抽出トレースの描画範囲から説明領域を抽出し, 各領域のトレースの滞在時間から文長を推定する。また,各領域のバウンディングボックスを抽出する。 (3)オブジェクト認識各領域内でオブジェクト認識を行う。 (4)入力文章(2)で推定した文長と(3)で認識されたオブジェクトの単語から, 画像キャプションを生成モデルに入力する文章を準備する。 (5)画像キャプション生成 (2)よって抽出した各バウンディングボックスの特徴量と(4)で準備した文章を入力とし, Deng ら [9] による文長制御可能な画像キャプション生成モデル LaBERT を用いて,それぞれの領域の画像キャプションを生成する. ## 3.1 使用データセット Pont-Tuset ら [12] は,トレースデータセット Localized Narratives(LN) を構築した. LN は,マウスで画像をなぞりながら画像の内容を音声で説明するという実験によって収集されたデータセットである. LN は Open Images [13], Microsoft COCO [14], Flickr30k [15], ADE20k [16] の 4 つの画像データセットから構成されており, 画像, トレース, 画像キャプション,キャプションの音声が含まれている. ## 3.2 トレースによる説明領域の抽出 図 2 トレースの座標の変化量 ユーザが興味を示した範囲をその順番に沿ってキャプションを生成する為に, トレースから説明領域を抽出する.トレース時における人の行動特性を解明する為に,座標の変化量を特徵量として抽出した. 横軸に単語数, 縦軸にトレースの $(x \times y)$ 座標をとったグラフを図 2 に示す. グラフが平らになっている範囲が特徵的に表れていたので,発話データと参照してみたところ,ピリオドの部分に相当していた. 同じような特徵が他のデータにも多く見受けられた.グラフが平らな範囲は,1 文の発話が終わり次の文章を発話するまでの間の時間かつ,次の説明物体に移動するまでの間の時間である。このことから,1 文ずつに分割することを説明領域の抽出方法の指針として,この部分を抽出する. $(x \times y)$ 座標の変化量が少なく, それが連続している部分を黄色い点でプロットした.この例の場合, 説明領域は黄色い点を除き分割点とし,4つに分かれる. 画像説明時のトレースにおける人の行動特性は常時このようになるわけではなく,他の行動特性も観察された が,本研究では上記の行動特性を基準とする。 ## 3.3 文長とトレース滞在時間の関係 人は画像を説明する時,詳しく説明したい時にはトレースを長い時間滞在させ,簡単に説明したい時には短いトレースになると仮定する。キャプションの単語数とトレースの滞在時間の関係を明らかにするために,LNのデータを用いて定量的に検証した。横軸を文のキャプションの単語数,縦軸をトレースの滞在時間としたグラフを図 3 に示す. この結果より, キャプションの単語数が多くなるにつれて,卜レースの滞在時間は対数的に伸びていることがわかる. 今回は 7 25 単語で生成するので, 7〜25 単語に絞ってみてみると,比例的に伸びていることがわかる. 図 3 キャプションの単語数とトレースの滞在時間 トレースの滞在時間により説明の詳述さを決定する. 外れ值を排除し, キャプションの単語数 $\div$ トレースの滞在秒数の中央值を計算すると, 1 秒間あたり 2.35 単語発話していることがわかった.この結果から,トレースの滞在秒数を 2.35 倍したものを文の長さとして設定する. ## 3.4 非自己回帰型キャプション生成 ユーザの興味の度合いを反映した画像キャプションを生成する為に,トレースの滞在時間により説明の詳述さを決定することを考える.ここでは,説明の詳述さを生成文の長さとして捉える。一般に, 逐次的に次の単語を予測する自己回帰的な文生成手法は,生成文の長さを制御できない,また,生成する文の長さが長くなると計算量は線形的に増加してしまうといった欠点がある.これに対し, Deng ら [9] は,長さ制御可能な画像キャプションの為の非自己回帰型デコーダを考案し, 文長を制御する効率の良い文生成手法である LaBERT を提案している. LaBERT では生成文に対して, 各単語の確率分布を元にスコアが低いトークンを [MASK] に変更し, [MASK] 部分に対して再度単語を予測するという仕組みをとっている. 本研究では,トレースを元に生成を行うため,ユーザの指した情報は生成キャプションでも出現させたい. LaBERTをそのまま使用すると, 生成されたテキストが更新される過程で,残して欲しい単語に関しても [MASK] に変更されてしまう可能性があるため,常にその単語を含むキャプションを生成するようにデコーダを改良した. 本研究では,LaBERT のデコーダを参考にし,トレー スの滞在時間を文長に比例させ,ユーザの指した情報を順番に漏らさずに文中に挿入することを可能にする非自己回帰型のキャプション生成手法を提案する. 概要を図 4 に示す. 画像から物体認識されたラベルを取り出し,トレースがその物体のバウンディングボックス内を一定時間以上滞在した場合,挿入対象単語とみなす. そして, 図 4 の Step 1 において, [MASK] の代わりに挿入対象単語を挿入する. 插入位置は,発話中ずっと指していた場合は中央に,最後にトレースした場合は後方に配置するように,卜レースがその物体を指していたタイミングに合わせて挿入する。 図 4 長さ $L_{\text {low }} \sim L_{\text {high }}$ の文生成 ## 4 実験 画像とトレースを入力として,トレースからユー ザーの意図を反映した画像キャプション生成を行った. 精度 SPICE : $0 \%$ METEOR : $14 \%$ ROUGE : $11 \%$ BLEU : $21 \%$ 精度 SPICE : $20 \%$ METEOR : $10 \%$ ROUGE : $12 \%$ BLEU : $22 \%$ トレースの滞在時間: 10.9 秒指定単語数 : $20 \sim 25$ 正解単語数 : 12 単諨 original-LaBERT : A lot of trees that are standing in the didt 比較実験 original-LaBERT(20 25単語):A man with a hat standing on a sidewalk next to a suitcase with three pieces on the ground 図 5 トレースを入力とした画像キャプション生成. ## 4.1 実験設定 表 1 に実験設定を示す. 文生成の精度の評価指標には,BLEU@ 1 [17], ROUGE [18], METEOR [19], SPICE [20]を用いた。 ## 4.2 実験結果 実験結果を 5 亿示す. 説明領域 3 では, トレースは女性のバックを強くトレースしており, 正解キャプションも “bag”について言及している. 物体認識の結果, Step1 での入力として “bag”が中央に追加され,生成キャプションに“bag”が含まれた. 改良前の LaBERT で生成した場合,注目する物体を絞らずに周りの情報を多く取り込んでしまった結果, “bag” に関しての記述は無かった. LaBERT を改良したことにより,トレースの意図をよく捉えた結果になった. また,トレースの滞在時間からキャプションの単語数を予測した結果, 説明領域(2), (3), (4)では, 単語数の指定範囲に正解単語数が収まっており,正しく予測出来た. 説明領域(1)は,正解キャプション 12 単語に比べ,大幅に多く推定された。実際はトレー スの滞在時間程,長い文による説明は求められてい ないことがわかる。しかし,トレースを見ると入念にトレースがされており詳しい説明を求めているような特性が見られる. 生成されたキャプションは,“suitcase"を捉えるだけではなく,スーツケースに貼ってあるステッカーを “pictures”と捉え詳細な説明ができている.説明者の意図には沿えていないが,トレースの意図を汲み取った生成結果となっている. 比較実験として,統合マルチモーダル事前トレーニングモデル OFA [21] と改良前の LaBERT でキャプションを生成した.これらの結果は,画像の概要は説明できている。しかし,提案手法のように説明の順番や説明の詳述さなど,ユーザの意図に合せて文章を生成することはできていない. 付録に他の実験例を載せる。 ## 5 おわりに 本研究では,画像に対してトレースを用いながら説明するデータセット LN と文長制御が可能な非自己回帰型テキスト生成を行う LaBERT のデコーダを改良し組み合わせ,トレースからユーザの説明意図を汲み取りインタラクティブに説明文を生成する画像キャプション生成手法を提案した. 既存のキャプション生成手法と提案手法を比較すると,提案手法では説明の順序や詳述さを反映したキャプションを生成することに成功している。 しかし, 今回は画像を指す際に,渦巻きを描き移動し渦巻きを描きという特性を持つトレースに絞って実験を行ったが,実際のデータは様々な特性が見られた。 今後の課題として,トレースからユーザの特性を分析し,それに応じた処理がでいるようなトレース分析を考えている. ## 参考文献 [1] Shaoqing Ren, Kaiming He, Ross B. Girshick, and Jian Sun. Faster R-CNN: towards real-time object detection with region proposal networks. CoRR, Vol. abs/1506.01497, , 2015. [2] Jonathan Long, Evan Shelhamer, and Trevor Darrell. Fully convolutional networks for semantic segmentation. In The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2015. [3] Chenliang Li, Haiyang Xu, Junfeng Tian, Wei Wang, Ming Yan, Bin Bi, Jiabo Ye, Hehong Chen, Guohai Xu, Zheng Cao, Ji Zhang, Songfang Huang, Fei Huang, Jingren Zhou, and Luo Si. mplug: Effective and efficient vision-language learning by cross-modal skip-connections, 2022. [4] Luowei Zhou, Hamid Palangi, Lei Zhang, Houdong Hu, Jason J. Corso, and Jianfeng Gao. Unified vision-language pre-training for image captioning and vqa, 2019. [5] Ting-Yao Hsu, C. Lee Giles, and Ting-Hao 'Kenneth' Huang. Scicap: Generating captions for scientific figures, 2021. [6] Junqi Jin, Kun Fu, Runpeng Cui, Fei Sha, and Changshui Zhang. Aligning where to see and what to tell: image caption with region-based attention and scene factorization, 2015. [7] Marcella Cornia, Lorenzo Baraldi, and Rita Cucchiara. Show, control and tell: A framework for generating controllable and grounded captions. CoRR, Vol. abs/1811.10652, , 2018. [8] Shizhe Chen, Qin Jin, Peng Wang, and Qi Wu. Say as you wish: Fine-grained control of image caption generation with abstract scene graphs, 2020. [9] Chaorui Deng, Ning Ding, Mingkui Tan, and Qi Wu. Length-controllable image captioning. CoRR, Vol. abs/2007.09580, , 2020. [10] Zhangzi Zhu and Hong Qu. Improving image captioning with control signal of sentence quality, 2022. [11] Kun Yan, Lei Ji, Huaishao Luo, Ming Zhou, Nan Duan, and Shuai Ma. Control image captioning spatially and temporally. In ACL/IJCNLP (1), pp. 2014-2025, 2021. [12] Jordi Pont-Tuset, Jasper Uijlings, Soravit Changpinyo, Radu Soricut, and Vittorio Ferrari. Connecting vision and language with localized narratives. In ECCV, 2020. [13] Alina Kuznetsova, Hassan Rom, Neil Alldrin, Jasper R. R. Uijlings, Ivan Krasin, Jordi Pont-Tuset, Shahab Kamali, Stefan Popov, Matteo Malloci, Tom Duerig, and Vittorio Ferrari. The open images dataset V4: unified image classification, object detection, and visual relationship detection at scale. CoRR, Vol. abs/1811.00982, , 2018. [14] Tsung-Yi Lin, Michael Maire, Serge J. Belongie, Lubomir D. Bourdev, Ross B. Girshick, James Hays, Pietro Perona, Deva Ramanan, Piotr Dollár, and C. Lawrence Zitnick. Microsoft COCO: common objects in context. CoRR, Vol. abs/1405.0312, , 2014. [15] B. A. Plummer, L. Wang, C. M. Cervantes, J. C. Caicedo, J. Hockenmaier, and S. Lazebnik. Flickr30k entities: Collecting region-to-phrase correspondences for richer imageto-sentence models. In 2015 IEEE International Con- ference on Computer Vision (ICCV), pp. 2641-2649, December 2015. [16] Bolei Zhou, Hang Zhao, Xavier Puig, Sanja Fidler, Adela Barriuso, and Antonio Torralba. Semantic understanding of scenes through the ADE20K dataset. CoRR, Vol. abs/1608.05442, , 2016. [17] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [18] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 74-81, Barcelona, Spain, July 2004. Association for Computational Linguistics. [19] Satanjeev Banerjee and Alon Lavie. METEOR: An automatic metric for MT evaluation with improved correlation with human judgments. In Proceedings of the ACL Workshop on Intrinsic and Extrinsic Evaluation Measures for Machine Translation and/or Summarization, pp. 65-72, Ann Arbor, Michigan, June 2005. Association for Computational Linguistics. [20] Peter Anderson, Basura Fernando, Mark Johnson, and Stephen Gould. SPICE: semantic propositional image caption evaluation. CoRR, Vol. abs/1607.08822, , 2016. [21] Peng Wang, An Yang, Rui Men, Junyang Lin, Shuai Bai, Zhikang Li, Jianxin Ma, Chang Zhou, Jingren Zhou, and Hongxia Yang. Ofa: Unifying architectures, tasks, and modalities through a simple sequence-to-sequence learning framework, 2022. ## A 付録 トレースの滞在時間 : 6.6秒 指定単語数:15 19単語正解単語数:23単語 比較実験 original-LaBERT : A little boy that is holding a plate of food......... OFA : A little kid eating pizza at a restaurant. トレースの滞在時間 : 7.6 秒指定単語数 : 15 19 正解単語数:13単語 original-LaBERT : A plate of food with a sandwich and a bowl of soup next to a glass of orange juice...... [MASK] [MASK] [MASK] [MASK] cup cup 生成キャプション Dining table with plates of food and cup and 正解キャプション There are glasses and bottle. 精度 SPICE : 0\% METEOR : 4\% ROUGE : 15\% BLEU : 11\% トレースの滞在時間 : 3.3 秒指定単語数 $: 7 \sim 9$ 正解単語数 : 5単語 original-LaBERT : A plate of food sitting on a table.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P11-2.pdf
# 日本語 CommonGen における入カキーワード群のハブ単語の 自動追加による生成文の改善 鈴木雅人 ${ }^{1}$ , 新納浩幸 ${ }^{2}$ 1 茨城大学工学部情報工学部, ${ }^{2}$ 茨城大学大学院理工学研究科情報科学領域 \{19T4042Y, hiroyuki.shinnou.0828\}@vc.ibaraki.ac.jp ## 概要 常識推論能力を試すタスクとして CommonGen がある. CommonGen は数個のキーワードを入力として,それらキーワードを含む妥当な文を生成するタスクである。論文 [1] では日本語 CommonGen のデータセットとベースラインシステムを作成している。またそこでは入力キーワード群のハブ単語を追加することで生成文が改善される可能性を論じている.ただしハブ単語の選出は人手で行っており,実装には至っていない。本論文ではハブ単語の選出法を提案,実装しその効果を検証する。 ## 1 はじめに 常識推論は人工知能の重要な問題であり,自然言語処理の分野でも,常識推論を扱うタスクがいくつか考案されている [2][3][4][5][6][7]. そのなかで Lin らは CommonGen という新しい常識推論の夕スクを提案した [8]. CommonGen は,概略,数個のキーワードを入力し,それらキーワードを用いて妥当な文を生成するという制約付き文生成のタスクである.例えば「彼,犬,餌」なら「彼が犬に餌をあげる」などといった文を生成するのが目標である。「犬が彼に餌をあげる」は文法的には正しくても常識的にはおかしな文であり,そのような文を生成しないために常識推論が必要とされる. 日本語 CommonGen の試作をおこなった研究 [1]では,データセットの作成や $\mathrm{T} 5$ を用いた CommonGen のモデルを作成し,このタスクが日本語においても常識推論能力が必要とされることを示している. また生成文を改善する手法として入力キーワード群のハブ単語を追加する手法が示された。しかしそこではハブ単語は人手により与え,ハブ単語の効果を論じているだけであり,ハブ単語をどのように選出し,どの程度の効果があるかは示されていない.こ こではハブ単語の選出方法を提案し,生成文がどの程度妥当になるかを調査した。 ## 2 関連研究 自然言語処理の分野では QA や対話などで,深い意味理解が必要となる場面で常識推論が使われ,様々なタスクが考案されている. CommonsenseQA [2] は元となる言葉に関係する 3 つの言葉を用意し,関係する元の言葉を含みながら,3つの言葉の内それぞれひとつずつのみに当てはまる質問を用意する。またこの際に,追加で元となる言葉に関係する 2 つ誤答用の言葉が用意され,3つの質問は 2 つの誤答用の言葉には当てはまらないようにする.そうして用意された 3 つの質問に対して 5 つの選択肢となる言葉からそれぞれ,どの言葉が当てはまるかを選択するタスクである. SocialIQA [3] は社会的に一般的な状況を提示し,その状況下で取る行動やその状況下での心情を尋ねる質問と 3 つの選択肢が与えられ,適切な回答を選ぶタスクである。WinoGrande [4] は 2 つの文章とその文章中にある代名詞に対して2つの単語の選択肢が与えられ,各文章に代名詞の指す正しい単語を選択するタスクであり,これは Winograd Schema Challenge からバイアスを除去し, クラウドソージングの手続きを改善したものである. KUCI [5] は日本語において中断されている文章とそれに続く蓋然的な関係を持つ文章を 4 つの選択肢から 1 つ選択するタスクである. SWAG [6] は 「ある場面でのビデオキャプション」と4つの「次の場面でのキャプション」の選択肢となる文章を提示し,選択肢から本物の次の場面でのキャプションを選択するタスクである. HellaSwag [7] はSWAGを元としてさらに難しい不正解の選択肢を導入する Adversarial Filtering や元となるビデオキャプションの厳選などを行い,SWAG を改善したものである。 これらタスクは基本的には選択式の問題である. CommonGen は制約付き文生成のタスクであり,選択式の問題では扱えない問題を扱っていると考えられる. CommonGen と類似のシステムとしては株式会社 ELYZA がデモ版を公開している ELYZA Penci1 ${ }^{1)}$ がある. ELYZA Pencil は数個のキーワードからそのキーワードを使ったニュース記事(タイトルとその本文)を生成する. 生成される記事はかなり高品質であるが,商用システムであるため使われている技術の詳細は明らかにされていない。 ## 3 データセットの構築 本論文の実験は基本的に論文 [1] で作成されたデータセットを用いる. ここではそのデータセットがどのように構築されたかを記す。 データセットは Web 上で公開されている STAIR Captions ${ }^{2}$ の画像キャプションのデータセットを元とした.キャプション 12,000 文から各キャプションを MeCabをもちいて形態素解析した結果を取得し, キーワード候補を品詞を用いて抽出を行った ${ }^{3)}$. そこからランダムに 3 つの単語を選出し, 選出した 3 単語を入力,対応するキャプションを出力とするデータセットを構築した (図 1 参照). 図 1 CommonGen 用データセット作成例 12,000 組のデータの内 9 割(10,800 組)が訓練データ,残りデータの半数(600 組)が検証データ,最後に残ったデータ(600 組)の中の 200 組をテストデータ(このテストデータを「自動作成したテストデータ」と呼ぶ)とした. 作成したデータの例を表 1 に示す. またキーワードによる生成の容易さを調べるた 1) https://www.pencil.elyza.ai/ 2) https://github.com/STAIR-Lab-CIT/STAIR-captions 3)"する", "いる", "ある"など多機能な動詞は除かれている.表 1 自動作成したデータの例 めに考案した 3 タイプ 60 組のテストデータを追加した。このテストデータを「独自に作成したテストデータ」と呼ぶ。独自に作成したテストデータには正解となる文は作成していないことを注記しておく. 独自に作成したテストデータの一部を付録に示す. ## 4 実験 日本語 CommonGen のモデルは論文 [1] で構築されたモデルを用いる. モデルはウェブ上で公開されている日本語 $\mathrm{T} 5$ 事前学習済みモデル 4 )を前述したデータセットで fine-tuning したものである. 学習時のパラメータは学習率を $3 \mathrm{e}-4$, 最大入力トークン数を 16 , 最大出力トークン数を 24 , バッチサイズ 8 , エポック数 10 としている. ## 4.1 自動作成したテストデータ 「自動作成したテストデータ」に対する上記モデルによる生成結果について述べる5. 「自動作成したテストデータ」は 200 組であり,各生成文に対して主観により 5 段階の評価基準のいずれか 1 つを付与した. 付録に 5 段階の評価基準として提示されていた例を示す. 分類結果を図 2 に示す. 図 2 「自動作成したテストデータ」の評価結果 図 2 より約 8 割は評価基準の (v)(自然な生成文) と判定されている.このことから T5 モデルを利用することで,日本語においても CommonGen タスク  は概ね解決できるといえる。また「妥当でない」と評価された生成文の内,前提条件である「キーワー ド未使用」を除くと最も割合が高いのは「言い回しの不自然さを含む文」であり,日本語においても常識推論が求められることを示している. ## 4.2 独自に作成したテストデータ 「独自に作成したテストデータ」に対する上記モデルによる生成結果について述べる ${ }^{6)}$ 。この実験は入力キーワード群による生成の容易さを考察するために行っている。 独自に作成したキーワードと生成文の例として,「キーワード同士の関連度を段階的に変えたもの」 の生成例を付録の表 5 に,「3つのキーワードがすべて抽象名詞」の生成例を付録の表 6 に,「抽象名詞 2 つと具体的な名詞 1 つ」の生成例を付録の表 7 に示す. キーワード同士の関連度を段階的に変えたものからは,現在のモデルではキーワード自体は含めることは出来ても 3 つのキーワード間に関連性がなければ妥当な文の生成は難しいことを示している。また学習データであるキャプションには出現しない抽象名詞をキーワードとしたとしても,意味を捉えた生成ができており, 学習データの種類による特定の語彙を用いた生成能力の差は小さいのではないかと考えられる. 抽象名詞 2 つと具体的な名詞 1 つの実験では,キーワード未使用が減少しており,キーワー ドの具体性がキーワード未使用に関連していることが予想できる. ## 4.3 ハブ単語の追加 論文 [1] では,独自に作成したテストデータの中の「3つのキーワード全てが抽象名詞」に対する生成結果が妥当でないと判断した 10 組に関して,3つのキーワードの中で関連性が低いキーワードを一つ任意の単語に変更する実験とハブ単語を追加する実験を行い生成結果の妥当性の変化を検証している. それぞれの実験の結果を表 8 , 表 9 を付録に示す.任意のキーワードを変更する実験では全体的にキー ワードが未使用であるケースが減少し, 生成文に関しても一部を除き妥当性が増したと述べられている. ハブ単語を追加する実験では,一部の生成結果でキーワード未使用や生成文の妥当性の改善が見られ,効果的な手法である可能性が示された.  ## 4.4 ハブ単語の自動選出 前述したハブ単語を追加する実験では,追加するハブ単語は人手により与えられた。本論文では大力キーワード群からハブ単語を自動選出する手法を提案し,その効果を調査する。 ハブ単語の選出は以下の手順で行う。まず $\mathrm{chiVe}^{7)}$ を用いて各入力キーワードの分散表現を得て,それらの平均べクトルを求める. その平均べクトルと類似度が高い上位 3 単語を chiVe の語彙から選択する.この例を表 2 に示す. 表 2,2 行目左の列が入力キーワード群「表情,ミス,ショット」であり,このキーワードの分散表現の平均ベクトルと類似度が高い上位 3 単語が表 2 の 3,4,5 行目左の列の最後のキーワードである「ナイスショット,ミスショット,凡ミス」である。そして表 2 の 3,4, 5 行目,右の列が追加後の生成文となっている. 表 2 ハブ単語の追加例 \\ この操作を 3 節で説明した「自動作成したテストデータ」と「独自に作成したテストデータ」の内,生成文に全てのキーワードを含めていないキーワー ド群と関連研究で [1] で自然でないと評価したキー ワード群に対して実行し,追加前と追加後の生成文の比較を行った。 全てのキーワードを含めていないキーワード群に対して比較結果は,「自動作成したテストデータ」 では平均して 0.450 個,「独自に作成したテストデー 夕」では平均して 0.148 個の使用キーワード数の増加となった.またその例を表 3 に示す. 次に自動作成したテストデータ内,自然でないと評価したテストデータにおいてキーワードを追加した実験結果の例を表 4 に示す. 主観評価となるが, 3 割程度の生成結果で改善が見られた。 ## 5 考察 ハブ単語の自動選出の実験結果では自動作成したテストデータと独自に作成したテストデータの間の 7) https://github.com/WorksApplications/chive 表 3 キーワード未使用と評価されたテストデータに対するタブ単語の追加例 \\ 周り, 両手, 模様, 両腕顔の周りに模様のついた両手を挙げている男性がいる 周り,両手, 模様, 周囲象の周りを両手で持つ模様のあるもの 周り,両手,模様,背中 愛情, 最高, 感動, 感激犬に愛情をこめて作ったピザに感 愛情, 最高, 感動, 感動て家族が最高に感動した瞬間だった 使用キーワード増加数に 0.3 キーワード程の差があるが,この原因として独自に作成したテストデータの生成難易度が高いことが一つの要因だと考える。根拠として,この実験の結果を検証した際, 自動作成したテストデータでは多くのキーワード群で上位 3 単語の追加キーワードに対してどれか一つは使用キーワードの増加が見られていたが,独自に作成したテストデータでは, 上位 3 単語の追加キーワー ド全てでキーワード使用数に変化がない,もしくはキーワード使用数の減少があるケースが多く見られたことに加え, Elyza Pencil に対して,3つの追加キーワード全てで改善が見られなかったキーワード群を用いて記事を出力する実験を行った際,同様にキーワードを含む出力が見られないケースが多く見られたことが挙げられる.このことから, 独自に作成したテストデータの一部に人間にとっても生成が難しいキーワード群が存在し,たとえ適切なアプローチを行っても改善を確認できないテストデータが存在する可能性を検証する必要がある. また自動追加の手法に関してこの論文では, 分散表現を用いてハブとなるキーワードの探索を行うという手法を採用したが,その他の手法としてキー ワードを追加する前の生成文からキーワード以外の単語をキーワードとして追加する実験を行った.この手法は,キーワードが生成文に含まれないという表 4 不自然な生成文と評価されたテストデータに対するタブ単語の追加例 \\ 問題に有効ではないかと考え実験を行ったが,追加前の生成文と追加後の生成文が殆ど同じになってしまう場合や追加キーワードが元となる 3 つのキー ワードよりも優先されて含まれてしまうことが多く, 生成文を変化させるには, 追加前の生成文から関係が低いキーワードが望ましいと考える。 ## 6 おわりに 論文 [1] で示された日本語 CommonGen のデータセットとべースラインシステムを利用し,論文内で示された入力キーワード群のハブ単語を追加することで生成文を改善する手法について機械によるハブとなる単語の自動追加システムを実装し, その効果を検証した。 キャプションを元としたテストデータでは,キー ワードの未使用に対して一定の効果があることを示した. 生成文の妥当性に対しては, 主観となるが改善が見られることを確認した。 今後の課題としては,不自然な生成文の自動判定がある. 生成文が自然かどうかを自動判定できなければ,本手法は利用できないからである. 現在,不自然な生成文を収集し, 生成文が自然かどうかを判定する分類器の構築を試みている。 ## 謝辞 本研究は 2022 年度国立情報学研究所公募型共同 研究(22FC04)の助成を受けています. ## 参考文献 [1] 鈴木雅人, 新納浩幸. 日本語 CommonGen の試作と入力単語間の関連性からの考察. 自然言語処理研究会 (第 253 回), 2022. [2] Talmor Alon, Herzig Jonathan, Lourie Nicholas, and Berant Jonathan. Commonsenseqa: A question answering challenge targeting commonsense knowledge. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4149-4158. Association for Computational Linguistics, 2019. [3] Sap Maarten, Rashkin Hannah, Chen Derek, Le Bras Ronan, and Choi Yejin. Social iqa: Commonsense reasoning about social interactions. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 4463-4473. Association for Computational Linguistics, 2019. [4] Sakaguchi Keisuke, Le Bras Ronan, Bhagavatula Chandra, and Choi Yejin. Winogrande: An adversarial winograd schema challenge at scale, 2019. [5] Omura Kazumasa, Kawahara Daisuke, and Kurohashi Sadao. A method for building a commonsense inference dataset based on basic events. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 2450-2460. Association for Computational Linguistics, 2020. [6] Zellers Rowan, Bisk Yonatan, Schwartz Roy, and Choi Yejin. Swag: A large-scale adversarial dataset for grounded commonsense inference. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 93-104. Association for Computational Linguistics, 2018. [7] Zellers Rowan, Holtzman Ari, Bisk Yonatan, Farhadi Ali, and Choi Yejin. Hellaswag: Can a machine really finish your sentence? In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4791-4800. Association for Computational Linguistics, 2019. [8] Bill Yuchen Lin, Wangchunshu Zhou, Ming Shen, Pei Zhou, Chandra Bhagavatula, Yejin Choi, and Xiang Ren. CommonGen: A constrained text generation challenge for generative commonsense reasoning. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 1823-1840. Association for Computational Linguistics, 2020. ## A 生成例 表 5 「キーワード同士の関連度を段階的に変えたもの」 の生成例 & テーブルの上でデートの \\ 表 6 「3つのキーワードがすべて抽象名詞」の生成例 \\ 表 7 「抽象名詞 2 つと具体的な名詞 1 つ」の生成例 \\ & パンが置いてある \\ 表 8 表 6 で生成が妥当でないと評価した組み合わせについて キーワードを一つ関連度の高そうなものに変更した結果 表 9 表 6 で生成が妥当でないと評価されたキーワード群にハブ単語を追加した実験結果 ## B 独自に作成したテストデータ例 タイプ 1 キーワード同士の関連度を段階的に変えたもの(20 組) (先生, 生徒, 教科書), (音楽, 配送, パン), (テーブル, デート, 動画) タイプ 23 つのキーワードがすべて抽象名詞 (20 組) (愛情, 最高, 感動), (哀愁, 故郷, 風景), (好み, 配慮, 選択) タイプ 3 (2)の内 1 つのキーワードを具体的な名詞に変更したもの(抽象名詞 2 つと具体的な名詞 1 つ)(20 組) (愛情, 最高, テレビ), (哀愁, 故郷, 置き物), (好み, 配慮, パン) ## C キャプションから作成のテスト データに対する 5 段階評価の分類例 (i)生成文に対して未使用なキーワードを含む (入力): 携帯,写真,見える (出力): 携帯を触っている男性の顔がぼやけて見える (ii)意味の通らない生成文 (入力): くちばし,目,鷲 (出力): 鷲の目の近くにあるくちばしの大きな鳥がいる (iii)文法的な誤りを含む生成文 (入力): しまうま,並ぶ,鼻 (出力): しまうまと象が鼻が並んでいる (iv)言い回しの不自然さを含む生成文 (入力): 座る,道端,植木 (出力): 道端に小さな植木が座っている (v)自然な生成文 (入力): 目,動物,茶色 (出力): 茶色の目をした動物が草を食べている
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P11-3.pdf
# MCL による広告文生成の Expert 選択バランス性向上手法: EMA に基づく Expert 選択 石塚湖太 $^{1}$ 黒木開 1 川上孝介 $^{1}$ ${ }^{1}$ negocia 株式会社 \{kota_ishizuka,kai_kurogi,kosuke_kawakami\}@negocia.jp ## 概要 この論文では、Multiple Choice Learning (MCL)に基づくMoE(Mixture of Experts) モデルを使用した広告文生成において、Expert の選択バランス性を向上するための手法を提案する。提案手法は Exponential Moving Average(EMA) を用いて各 Expert の損失の変化傾向を記録し、それに基づいて Expert を選択するものである。これにより、選択バランス性が向上し、更に質の高い広告文を生成することができると考えられる。本研究では、提案手法を用いた場合と通常の MCL を用いた場合を比較し実験を行った。結果、提案手法を用いた場合、Expert の選択バランス性が向上し、生成される広告文の質も高くなったことが確認できた。 ## 1 はじめに 検索連動型広告は、ユーザの検索クエリに関連する広告文を検索結果画面に表示する広告のことである。広告文をクリックした先にはランディングペー ジが設置されており、それはサービスの魅力をユー ザにアピールし購入や申し込みなどの行動を促すことを目的としている。したがって、広告文は、ランディングページとの関連性の高い内容をユーザにアピールしクリックを促す重要な役割があるため、一般的に広告制作者はランディングページなどを参考に広告文を作成する。しかし近年のデジタル広告の需要の増加により、広告文作成の自動化が求められている。 LPからの広告文生成において、テンプレート文が多数存在することによる学習データの不均衡が指摘されている [1]。この問題に対して、Multiple Choice Learning (MCL)[2] に基づく MoE(Mixture of Experts) モデルにより、学習データに存在する隠れた状態をモデル内で明確に領域分割することで、解決を試み ている。MCL に基づく Expert 選択では、最も loss が小さい Expert を選択する。このため学習初期は、単純な初期値の差から生じる損失関数の値のばらつきに基づいているため、学習データの大多数のテンプレート文を出力しやすい Expert が優先的に選ばれやすく、学習中もその傾向を拡大させるような選択が行われうる。少数のテンプレート文ではない広告文を学習することが期待されるが、単純な損失関数の值でそれが実現される保証はない。 そこで本研究では、広告文生成において、MCLに基づく MoE モデルを用いることで、Expert の選択バランス性を向上するための手法を提案する。具体的には、Exponential Moving Average(EMA)を用いて各 Expert の損失の変化傾向を記録し、それに基づいて Expert を選択することで、選択バランス性が向上し、より質の高い広告文を生成することができると仮説を立てる。本研究では、この仮説を検証するために、提案手法を用いた場合と通常の MCLを用いた場合を比較し実験を行う。 ## 2 提案手法 ## 2.1 広告文生成モデル モデルは $\mathrm{T} 5$ を用いる。また、提案モデルのエンコーダーを 1 に示す。検索キーワード連動型広告では、ユーザーのクエリおよび LP の両方の要素を考慮することが必要である。先行研究 [3] と同様に、検索キーワードと LP から抽出された情報(タグ・ テキスト)の両者を考慮するために、それら全てを入力とする。また、デコーダーは、通常の $\mathrm{T} 5$ に、 Copy Mechanism[4] を加える。これにより LP に存在する情報を直接生成する広告文に挿入することが期待できる。 MoE については [1] に倣い、LM head のみを複数とする。これは、隠れ層の線型変換を複数追加する 図 1 提案モデルの Encoder のみで済む。 ## 2.2 Expert の選択手法 提案する EMA に基づく Expert 選択手法を 1 に示す。ここで、Expert $t_{1}, \ldots$, Expert $_{k}$ は、各 Expertを示し、 $\beta$ は EMA の係数である。 学習中において、各 Expert の loss EMA を用いて記録し、その值との差分が最小となる Expert を選択する。そして、勾配はその Expertによる loss から算出されるもののみを用いる。MCL と異なる点は、EMAによる loss の指数移動平均からの差分に基づく点にある。これにより、初期化によりたまたま loss が大きくなってしまった Expert や学習途中で loss が悪化した Expertが、単純な lossのみを参照す る MCLではその後全く使われなってしまい、Expert への割り当てがアンバランスになることを防ぐ。なお、予備実験において、ナイーブな MCL では 1 つの Expertへの割り当てが 99\%以上になってることを確認した。 ## 3 評価指標 品質・多様性を自動評価するために、次の指標を用いる。品質については、 naive BLEU, candidate oracle F1, reference oracle F1の 3 つである。多様性については、local distinct[5]を用いる。 naive BLEUは、生成文集合と参照文集合の n-gram 一致に関する precision の幾何平均である。candidate oracle $\mathrm{F} 1$ 、任意の参照文について、その BLEU の値が最も高くなるような生成文を 1 つ選んだ時の n-gram 一致に関する recall と precision の調和平均である $\mathrm{F} 1$ 値である。同様に、reference oracle F1 は、任意の生成文について最も高くなる参照文を選んだ時の値である。 local distinct は、 $\mathrm{n}=1,2$ の値を算出する。 ## 4 実験結果 表 1 に各モデルの結果を示す $(\mathrm{k}=4)$ 。なお、これらの指標算出にあたっては、生成された文の数が数百件以上に上る場合があったため、類似した生成文を排除し、タイトルは最大で 60 件、説明文は最大 24 件となるようにした上で評価を行った。このため、 local distinct が高い値を示している。また、表 2 に各モデルの生成件数を示す。ナイーブな MCL と提案手法において、生成数に大幅な変化は見られない。 Expert の偏りは、提案手法は $15 \% 30 \%$ の範囲で 表 1 提案手法とナイーブな MCL の比較 あった一方、ナイーブな MCL は 1 つの Expert が 99\%以上であった。これは、提案手法は指数移動平均を差した値に基づいて選択しているため、おおよそ $1 / \mathrm{k}$ の值に回帰することが確認できた。このことは、提案手法が Expert 選択のバランスを大幅に改善していることを示している。 目視による確認でも、複数の Expert を用いて推論した際の生成結果に、全く学習されていない Expert の出力が含まれないことが確認できた。一方、ナイーブな MCL の出力では、学習に失敗した Expert が「無料。ポイント」といった広告文として成立しない単語列が確認できた。 表 2 提案手法とナイーブな MCL の比較 ## 5 おわりに 本研究では、広告文生成において、Multiple Choice Learning (MCL) に基づく MoE(Mixture of Experts) モデルを使用し、Expert の選択バランス性を向上する手法を提案した。提案手法は、Exponential Moving Average(EMA) を用いて各 Expert の損失の変化傾向を記録し、それに基づいて Expert を選択することで、選択バランス性を向上し、質の高い広告文を生成することを目的とした。実験の結果、提案手法を用いた場合、Expert の選択バランス性が向上し、生成される広告文の質も向上したことが確認できた。今後の課題としては、提案手法は、他のタスクにも応用することができる可能性があり、他の分野での検証も行っていくことがあげられる。 ## 参考文献 [1] 村上聡一朗, 星野翔, 張培楠, 上垣外英剛, 高村大也, 奥村学. Lp-to-text: マルチモーダル広告文生成. 言語処理学会第 27 回年次大会 (NLP 2022), 2022. [2] Abner Guzmán-rivera, Dhruv Batra, and Pushmeet Kohli. Multiple choice learning: Learning to produce multiple structured outputs. In F. Pereira, C.J. Burges, L. Bottou, and K.Q. Weinberger, editors, Advances in Neural Information Processing Systems, Vol. 25. Curran Associates, Inc., 2012. [3] Kazuhide Nakata. Generating search text ads from keywords and landing pages via bert2bert. In Advances in Artificial Intelligence: Selected Papers from the Annual Conference of Japanese Society of Artificial Intelligence (JSAI 2021), Vol. 1423, p. 27. Springer Nature, 2022. [4] Jiatao Gu, Zhengdong Lu, Hang Li, and Victor OK Li. Incorporating copying mechanism in sequence-to-sequence learning. arXiv preprint arXiv:1603.06393, 2016. [5] 川本峻頌, 張培楠. スタイル制御を考慮した多様な広告文生成. In NLP2019, 2019.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P11-4.pdf
# 拡散過程を用いたキャプション生成への取り組み 平野理子小林一郎 お茶の水女子大学 理学部 情報科学科 \{g1920535, koba\}@is.ocha.ac.jp ## 概要 近年,拡散過程を用いたモデルが連続データ生成において非常に良い性能を達成しており,離散デー 夕生成においても盛んに研究が進められている. 本研究は,拡散過程を用いた画像キャプショニング手法の開発を目的とする. 拡散過程による自然言語文生成を画像を対象に制御するために,推測されたノイズ除去状態の潜在変数から分類器によって求められた画像特徴量と実際の特徴量の損失に基づき勾配の更新を繰り返すことにより, 最終的に画像に適したキャプションを生成する. 生成したキャプションは,SOTA との比較において優位な結果ではなかったが,単純な手続きでも拡散過程を用いた画像キャプショニングが可能であることを確認した. ## 1 はじめに これまで人工知能が発展しない理由とされていた 「創造する」という課題が深層学習を使った画像生成や自然言語文生成によって可能になりつつある.自然言語文生成においては,汎用言語モデルの出現により言語モデル中心の文生成が主流となっている. そのような背景において,自然言語文生成における課題としては大量のコーパスから学習した汎用言語モデルを再学習を必要とせずに言語モデルの振る舞いを制御することが挙げられる。一方,近年,画像生成においては,拡散過程(Diffusion Process, DP)を採用した手法が,敵対的生成ネットワーク (Generative Adversarial Networks, GAN) による従来の最高性能を超える画像の生成を可能にした [1]. また, $\mathrm{Li}$ ら [2]によって,本来,連続的な情報を扱う DP に対して,離散情報である自然言語を扱えるようにした Diffusion Language Model (DLM) が提案されており,従来の最高性能を超えるような制御可能な自然言語文生成の可能性が示されている. これらの背景から, 本研究では拡散過程を用いた画像キャプショニング手法を提案する. 手法の開発において は,拡散過程に基づく非自己回帰の言語モデルとその外部に拡散過程を制御する識別器を導入することで,画像に対応したキャプション生成を可能にする. ## 2 関連研究 拡散過程を用いた画像生成 Stable Diffusion [3] や DALL・E2 [1] は拡散過程を用いて画像を生成するモデルである。これらは,与えられたテキストからその内容に従った画像を生成するタスクや画像から画像への変換タスクなどにおいて,非常に高い精度を達成している. 特に DALL・E2 は,入力テキストから画像埋め込みを生成するモデルと,画像埋め込みから画像を生成する二つのモデルから構成され, どちらのモデルでも拡散過程を用いることで質の高いサンプルを生成している.また,外部の基盤モデルで、CLIP [4] という,大量の画像とテキストのぺアデータで学習したニューラルネットワークを使用することで,テキストの意味的な内容を忠実に画像内で表現することを可能にしている. Bit Diffusion Bit Diffusion [5] は,連続状態を扱う拡散モデルを用いて,離散データである自然言語文を生成している,具体的には,まず離散データを 2 值ビットで表し,これを実数に写像することで拡散モデルの扱える連続データに変換する。これにより,ピュアなノイズからノイズを徐々に除去することで,テキストをサンプリングすることを可能とした.また, Self Conditioning や Asymmetric Time Intervals といったサンプルの質を向上させる技術もその枠組みに取り入れている. 本研究では, Bit Diffusion とは異なり,離散データを埋め込み表現に写像することで,拡散モデルの扱える連続状態にテキストを変換している. ## 離散拡散過程を用いた画像キャプショニング Zhu ら [6] は, 本研究と同じく拡散過程を用いた画像キャプショニング手法を提案している.画像からキャプションの内容や長さを推測し生成過程の制 図 1 Diffusion-LM を用いたキャプション生成 御を行うことで,質の高い画像キャプショニングに成功している. 本研究では拡散過程を用いた言語モデルの学習の際, データにノイズが乗った状態とタイムステップの情報の二つから,ノイズの乗っていない状態のデータを予測しているが,DDCap ではそれらに加えアテンションマスクや,画像を入力として与えた CLIP [4] の出力なども用いて,ノイズの乗っていない状態のデータを予測している。また, DALL・E2 [1] と同様, CLIP という外部の基盤モデルを使用しているところも特徴である. ## 3 DLM を用いたキャプション生成 ## 3.1 提案手法 本研究で提案する,拡散過程を用いた言語モデルと外部の分類器の二つのモデルを用いたシンプルな画像キャプショニング手法の概要を図 1 に示す. 学習の大まかな流れとしては,拡散過程を用いた言語モデルを大量のテキストデータで学習させたのち,画像とキャプションのペアデータを用いて分類機を学習させる. ノイズ除去の過程を辿りながらデータをサンプリングする際は二つのモデルを組み合わせ,学習させた言語モデルで文を生成する過程を分類器で制御することで,画像の内容を説明する自然言語文,キャプションの生成を行う. ## 3.2 Diffusion LM Diffusion LM (Diffusion Language Model) とは,拡散過程を用いた言語モデルのことを指す. Diffusion LM を構築するには,標準的な連続状態を扱う拡散モデルに幾つかの修正を加える必要がある. 図 1 のピンクの枠にあるような,埋め込みと丸め込みの過程の導入がその一つである。埋め込み関数を定義することで,離散データであるテキストを連続空間に写像する。丸め込み過程を導入することで,埋め込み空間のベクトルを単語を表すべクトルに写像し返す. 言語モデルの学習の対象は, ガウシアンノイズからノイズを徐々に除去し, 最終的に流暢性のある自然言語文を生成する過程である。つまり,各タイムステップにおけるノイズの除去 $p\left(\mathbf{x}_{t-1} \mid \mathbf{x}_{t}\right)$ を実現する際,必要となるパラメータを学習する。 具体的な学習の流れとしては,まずキャプションをトークン化し,各トークンをベクトル空間に埋め込む. サンプリングされたタイムステップ $t$ によって決められる量のノイズを埋め込み表現に乗せ, イズの乗った状態 $\mathbf{x}_{t}$ にする. ノイズの乗った状態 $\mathrm{x}_{t}$ とタイムステップtをニューラルネットワーク $f\left(\mathbf{x}_{t}, t\right)$ に入力として与え, ピュアなデータを推測させる. 損失関数は以下の式に従う. $ \begin{aligned} & L_{\mathbf{x}_{0}-\text {-simple }}^{\mathrm{e} 2 \mathrm{e}}(\mathrm{w}) \\ & =\mathbb{E}_{q_{\phi}\left(\mathbf{x}_{0: T} \mid \mathrm{w}\right)}\left[\left.\|\tilde{\boldsymbol{\mu}}_{t}\left(\mathbf{x}_{t} ; \mathbf{x}_{0}\right)\right.\|^{2}+\sum_{t=2}^{T}\left[\left.\|\mathbf{x}_{0}-f_{\theta}\left(\mathbf{x}_{t}, t\right)\right.\|^{2}\right]\right] \\ & +\mathbb{E}_{q_{\phi}\left(\mathbf{x}_{0: 1} \mid \mathrm{w}\right)}\left[\left.\|\operatorname{EMB}(\mathrm{w})-f_{\theta}\left(\mathbf{x}_{1}, 1\right)\right.\|^{2}+\log p_{\theta}\left(\mathrm{w} \mid \mathbf{x}_{0}\right)\right] \end{aligned} $ ## 3.3 Classifier 言語モデルとは別のモデルである, 外部の分類器 (Classifier)の役割は,Diffusion LM が最終的に自然言語文をサンプリングする過程中に反復的に生成する潜在変数に対して勾配更新を行うことで,最終的に生成されるテキストを制御することである. 潜在変数 $\mathbf{x}_{0: T}$ を制御するモデルは以下のように書くことができる. $ p\left(\mathbf{x}_{0: T} \mid c\right)=\prod_{t=1}^{T} p\left(\mathbf{x}_{t-1} \mid \mathbf{x}_{t}, c\right) $ 分解すると, $ \begin{aligned} p\left(\mathbf{x}_{t-1} \mid \mathbf{x}_{t}, c\right) & \propto p\left(\mathbf{x}_{t-1} \mid \mathbf{x}_{t}\right) \cdot p\left(c \mid \mathbf{x}_{t-1}, \mathbf{x}_{t}\right) \\ & \propto p\left(\mathbf{x}_{t-1} \mid \mathbf{x}_{t}\right) \cdot p\left(c \mid \mathbf{x}_{t-1}\right) \end{aligned} $ 第一項の各タイムステップでのノイズの除去 $p\left(\mathbf{x}_{t-1} \mid \mathbf{x}_{t}\right)$ は, Diffusion LMによってパラメータ化された。つまり,第二項のデータにノイズの乗った状態から制御対象への変換 $p\left(c \mid \mathbf{x}_{t-1}\right)$ を, ニューラルネットワークを用いた classifier に学習させ, パラメータ化する. 具体的には図 1 の青い枠にあるように, 自己回帰の言語モデル(GPT-2 [7])を用いて, ノイズの乗っている各タイムステップの潜在変数か ら画像特徴量の予測を行い, 正解画像特徴量との二乗平均誤差をとることで機械学習を行う. 正解画像特徴量は,画像を Resnet50 [8] に通すことで取得している. サンプリング時は,学習をさせた Diffusion LM と Classifierを組み合わせ,画像に応じた自然言語文生成過程の制御を行う,具体的な流れとしては,まずガウシアンノイズを Diffusion LM に与え, 反復的に 1 タイムステップノイズを除去した状態の潜在変数 $\mathbf{x}_{t-1}$ を推測させる. 各タイムステップにおいて, $\mathbf{x}_{t-1}$ から Classifier が画像特徵量を推測する。 Diffusion LM によって $\mathbf{x}_{t}$ を用いて推測された $\mathbf{x}_{t-1}$ に付加されているノイズの量(式4の第 1 項)と, Classifier が $\mathbf{x}_{t-1}$ から推測した画像特徴量と正解画像特徴量間の二乗平均誤差(式 4 の第 2 項)の和から、誤差逆伝播法を用いて勾配を求めパラメータを更新する. 勾配更新を行うことで, $p\left(\mathbf{x}_{t-1} \mid \mathbf{x}_{t}, c\right)$ を最大化し, 流暢性があり画像に応じた適切なテキストを生成する。 $ \begin{aligned} & \nabla_{\mathbf{x}_{t-1}} \log p\left(\mathbf{x}_{t-1} \mid \mathbf{x}_{t}, c\right) \\ & =\nabla_{\mathbf{x}_{t-1}} \log p\left(\mathbf{x}_{t-1} \mid \mathbf{x}_{t}\right)+\nabla_{\mathbf{x}_{t-1}} \log p\left(c \mid \mathbf{x}_{t-1}\right) \end{aligned} $ 以上の流れを各タイムステップで繰り返し,最終的に画像に応じた適切なキャプション生成を目指す. ## 4 実験 この節では, 言語モデル(Diffusion LM)と分類器 (Classifier)を用いて,実際に画像からのキャプション生成を行う. 本実験の目的は,提案手法を用いて画像キャプショニングを行い,生成されたキャプションから精度を求め評価を行うことである. ## 4.1 実験設定 評価指標本実験では,BLEU [9],ROUGE-L [10] を評価指標として用いる. BLEU は機械翻訳, ROUGE はテキストの自動要約の評価指標として知られている. また,これら二つはキャプション生成の評価指標として用いられることも多いため, 本論文でも画像キャプショニングの評価指標として使用する. データセットデータセットには, Microsoft $\mathrm{COCO}^{1)}$ を使用する. Microsoft COCO が定めた訓練  画像のうち, 108,302枚を本実験の訓練データ, 4,985 枚を評価データとしこれを用いてパラメータ調整を行った. 残りの 5,000 枚をテストデータとし, 評価を行う. Diffusion LM の学習時, 語彙数は 13,461,埋め込み次元は 256 に設定している. 比較手法現在の SOTA な画像キャプショニング手法の一つである OFA [11] の本実験のテストデー 夕における精度を求め, 提案手法との比較を行う。 ## 4.2 実験結果 表 1 に実験結果を示す.すべての指標において,画像キャプショニングの SOTA な手法の一つである OFA には及ばない結果となった.しかし,BLEU-1 のスコアは質の高いサンプルが生成されていると一般的に言われる 0.40 の値を超えることができた. 表 2 は,実際に生成されたキャプションの一部である. トイレやテニス,鳥の写真では正解キャプションと似たような, 画像に応じた適切な文を生成できている. しかし, 一方で, 電車の画像での生成キャプションを見ると,本来,赤一色である電車の色を赤と白と認識していることから,色に対しての学習が足りていないことがわかる. また花瓶の画像では文法のミスがあり,生成文の流暢性に問題があることから,言語モデルの学習にも改善が必要である. サーフボードを持った人の画像から生成されたキャプションには,画像に存在しない物体についての記述があり, ベンチに座る人の画像からは画像に関係はあるが対応はしていないキャプションが生成されるなどしている. これより生成過程の流暢性と制御の充足度のトレードオフにも問題があることがわかる. ## 4.3 考察 精度は画像キャプショニングの SOTA な手法を比べると良い結果を出すことができなかったが,実際に生成されたキャプションから, 非常にシンプルなモデルでも拡散過程を用いた画像キャプショニングを行えることを示した。 ## 5 まとめ 拡散過程を用いた生成モデルは,ピュアなノイズからノイズを除去した潜在変数を反復的に生成することで,最終的にデータをサンプルする. 本研究では,分類器を用いてこれら潜在変数に対して勾配更新を行うことで,言語モデルの再学習を行わずに生 表 1 キャプション生成の実験結果 表 2 キャプション生成例 Gen.: A bathroom with a toilet , a shower and a sink . GT: Small bathroom with a toilet, sink, shower, and mirror. Gen.: A small bird perched on a tree branch . GT: A bird perched on top of a tree branch. Gen.: A red and white train on a track . GT: A train parked in a train depot loading passengers. Gen.: A zebra standing in the grass in a field. GT: A zebra standing on a rocky dirt field with no grass. Gen.: There is a man sitting on a bench with his dog on the beach . GT: a person sitting on a bench on a city street 成過程を制御し,画像に応じた自然言語文を生成する手法を提案した。 今後は,言語モデルの改良や外部の分類器を用いずに制御する方法などに取り組み,提案手法の改良を進めたい。 ## 参考文献 [1] Aditya Ramesh, Prafulla Dhariwal, Alex Nichol, Casey Chu, and Mark Chen. Hierarchical text-conditional image generation with CLIP latents. CoRR, abs/2204.06125, 2022 [2] Xiang Lisa Li, John Thickstun, Ishaan Gulrajani, Percy Liang, and Tatsunori B. Hashimoto. Diffusion$\mathrm{lm}$ improves controllable text generation. CoRR, abs/2205.14217, 2022. [3] Robin Rombach, Andreas Blattmann, Dominik Lorenz, Patrick Esser, and Björn Ommer. High-resolution image synthesis with latent diffusion models, 2021. [4] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, Gretchen Krueger, and Ilya Sutskever. Learning transferable visual models from natural language supervision, 2021. [5] Ting Chen, Ruixiang Zhang, and Geoffrey E. Hinton. Ana- Gen.: A man holding a tennis racquet on a court . GT: A man holding a tennis racquet on a tennis court. Gen.: A small cheese pizza is sitting on a plate . GT: A plate topped with a cheesy meaty pizza on a table. Gen.: A vase of flowers in a vase on a wooden table . GT: A vase of flowers sits on a table. Gen.: A large building with a clock on the top . GT: A very tall clock mounted to the side of a building. Gen.: A man riding a wave while riding a surfboard . GT: A man on a bike carrying a surf board. log bits: Generating discrete data using diffusion models with self-conditioning. ArXiv, abs/2208.04202, 2022. [6] Zixin Zhu, Yixuan Wei, Jianfeng Wang, Zhe Gan, Zheng Zhang, Le Wang, Gang Hua, Lijuan Wang, Zicheng Liu, and Han Hu. Exploring discrete diffusion models for image captioning. arXiv preprint arXiv:2211.11694, 2022. [7] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In $\mathrm{H}$. Larochelle, M. Ranzato, R. Hadsell, M. F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, volume 33, pages 1877-1901. Curran Associates, Inc., 2020. [8] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition, 2015. [9] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pages 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [10] Unnat Jain, Svetlana Lazebnik, and Alexander G. Schwing. Two can play this game: Visual dialog with discriminative question generation and answering. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2018. [11] Peng Wang, An Yang, Rui Men, Junyang Lin, Shuai Bai, Zhikang Li, Jianxin Ma, Chang Zhou, Jingren Zhou, and Hongxia Yang. Ofa: Unifying architectures, tasks, and modalities through a simple sequence-to-sequence learning framework. CoRR, abs/2202.03052, 2022.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P11-5.pdf
# ニつの時系列データの関係を記述する自然言語文生成への 取り組み 中野由加子 1 小林一郎 1 1 お茶の水女子大学 \{g1920532,koba\}@is.ocha.ac.jp ## 概要 近年,表やグラフなど様々な数值データの表現形式を対象にした Data-to-Text の研究が盛んに行われている. 多くの研究は対象ドメインにおけるイベン卜を説明するための自然言語文生成の中に数値デー タを取り込んだものとなっており,数値データそのものが表現する意味や複数の数値データ間の関係などを捉えるような自然言語文生成はほとんどない.本研究では,二つの時系列データの関係性を捉え,記述する自然言語文生成手法の開発を目的とする。 データセットとして, 関連した動きをする部分がある二つの時系列データ, その関係を記述した自然言語文, カテゴリを作成した。作成したデータセットの訓練データで学習したモデルを用いて評価データについて文生成を行い,モデルの評価を行なった. ## 1 はじめに 近年,様々な分野における数値データの収集が容易になり, 表や時系列チャートなど多様な表現形式での数値データについて自然言語で記述する Data-to-Text の研究が注目されている. 多くの先行研究は, 数値データが観測されたドメインに特化した自然言語記述と同様な自然言語文を生成することを対象にしている. そのため, 数値データ以外にもその数値が観測されたイベントを表す表題や発話者などのデータ発生の情報源といったコンテクスト情報を追加した自然言語文生成が提案されている [1]. 一方で,分析した数值解析結果を可視化ではなく言語化することによって, そのデータの内容を容易に把握することが可能になり, また対話システムや分析システムに組み込むことも可能になると考えられる.しかし, そのような数值解析に基づいた Data-to-Text はほとんど見受けられない. ドメインにこだわらず,時系列データの動きのみを説明する手法として,Jhamtani ら [2] は, 時系列データ中に特定のパターンが出現するかについての真理条件に基づいてキャプションを生成する手法(以下'TRUCE' と呼ぶ)を提案している. TRUCE は,一つの時系列データにおいて特定のパターンが見つかった場合にそのパターンについて文を生成を行う。つまり,時系列データ特有のドメインを含んだ自然言語文生成を行うのではなく,時系列データそのものの動きを捉えた文生成を行っている。 本研究では,これに対して一つの時系列データに関する振る舞いを説明する自然言語文生成ではなく,二つの時系列データの関係性を説明する文生成を対象とする。 ## 2 複数時系列データの関係性記述 記述対象の関係性時系列データにおいて人が顕著に感じる動きとして,「増加(increase)」,「減少 (decrease)」,「頂上(peak)」,「凹み(dip)」の 4 つが挙げられる (cf. [2]).二つの時系列データの振る舞いの組み合わせをこれらの 4 種類の動きで考えることも可能であるが,本研究では,二つの時系列データが共に増加,減少,頂上,凹みである場合の関係を捉え,それを自然言語で説明することを対象とする。また,時系列データについて説明する際には,「初期(beginning)」「中期(middle)」,「末期 (end)」などの時期についても言及する傾向があるため (cf. [2]),対象とする 4 種類の動きに関する関係が見られる時期についても学習し, 二つの時系列データの動きと発生時期について説明する文生成を行う. ## 単一の時系列データと複数の時系列データ説明文生成の相違点 複数の動きが見られる一つの時系列 データの動きと時期について説明する場合には,ど の動きに対する文生成を行なっても,その動きと時期を捉え, 説明することが求められる. しかし, 複 図 1 データセット 1 図 2 データセット 2 数の動きが見られる複数の時系列データの関係について説明する場合は,時系列データ間の関係性を捉えた上で,関係がある動きと時期についての説明を求められる。そのため本研究では,予め関係性のある二つの時系列データの動きを学習させることで, モデルが関係性のある動きを捉えやすくした。 ## 3 データセット構築 二つの時系列データの関係性を説明するために,二つの時系列データの動きが共に増加,減少,頂上,凹みである場合の動きを学習させ,動きと時期を正しく捉えた文が生成できているかについて評価を行う. 捉えたい二つの時系列データの動きをモデルに学習させるためのデータセット 1 と, 学習させた動きを捉えることができているかの評価のためのデー タセット 2 を作成した。その内容を以下に示す. ## 3.1 データセット 1 捉えたい二つの時系列データの動きをモデルに学習させるために,入力として与える二つの時系列データ,訓練用の時系列データの正解カテゴリ, 出力として期待される正解文のペアデータを 96,000 個作成した.その内,85\%を訓練用データ,5\%を評価用データ,10\%をテスト用データとした.5,000step 訓練を行なった内,1,000step ごとに評価データを用いて文生成を行い,BLUE スコアが最大の時のモデルを実験に使用した。モデルの学習用に訓練用・評価用データを使用し,モデルが訓練データを学習し,正しく文生成ができているかを評価するために,後述する実験 1 でテスト用データを使用した. 時系列データ対象とする時系列データの関係となる 4 種類の動きとそれが生起する 3 種類の時期の 12 通りのデータを作成した. 全体の時間幅を 27 と設定し,「初期」の場合は,0-8「中期」の場合は 9-17,「末期」の場合は 18-26 の範囲に二つの時系列データの関係を示す挙動が収まるようにしてデータを構築した。 選ばれた時期以外では,時系列データにほとんど変動がないようにした.動きが「増加」,時期が「中表 1 訓練設定 期」である場合は,9-17 の範囲内で増加傾向がある時系列データを作成する (図 1 参照). 作成したデー タは,二つの時系列データの值が $[0,1]$ に収まるように正規化を行ってからモデルに入力する. カテゴリ二つの時系列データの関係性を捉えられるようにエンコーダを訓練をするために,カテゴリを用意した. エンコーダの出力からカテゴリ判定を行う.上述した,動き 4 種類,時期 3 種類の組み合わせ 12 種類を 0-11 の数字で表したものをカテゴリラベルとして用いる. 正解文動きと時期について言及する文を生成文の正解としている,データセットの作成を簡単にするために, "Both series1 and series2 (trend) in the (period).”というテンプレートを使用し, 動き (trend) 4 種類と時期 (period) 3 種類についての単語を置き換えることで正解文を生成した。 ## 3.2 データセット 2 3.1 のデータセットで捉えたい動きと時期を学習したモデルを用いて,捉えたい動きの他にそれ以外の動きが含まれる時系列データについて説明文を生成する。評価用のデータセットのため,入力として時系列データ, 出力として期待される正解文のペアを 10,800 生成し, 全てを後述する実験 2 用のテストデータとした. 時系列データ捉えたい動きを 'target trend',捉えたい動きの時期を 'target period’とする. target trend 以外の 3 種類の動きから 1 つを選択し,片方の時系列データに target period 以外の時期のどちらかに選んだ動きを加え,合計 288 種類の二つの時系列デー タのペアを生成した. 図 2 は, target trend が凹み, target period が中期で, series1 (青色の時系列データ) に増加の動きが初期に追加された例となっている。 正解文捉えたい動きと時期のぺア 1 つに対して,片方の時系列データに target trend 以外の 3 種類の動きを target period 以外の 2 種類から選んだ時期 表 2 実験結果 に追加し,二つの時系列データを入れ替えたデータも作成した. この 12 種類について,同じ正解文を作成した。 ## 4 提案モデル ## 4.1 概要 提案するモデルの概要を図 3 に示す. 図 3 提案モデルの概要 モデルは Transformer [3] をべースに構築されている. 入力は二つの時系列データであり, Transformer を用いた多次元時系列データの異常検知を行う手法である TranAD [4] を参考に形式を決めている(4.2 節にて後述).また,二つの動きの比較を可能にするために positional embedding をそれぞれに追加することにより時刻を共通化している。時系列データの特徴を上手くエンコーディングするために,先行研究 [1] のエンコーダの訓練手法を参考に,エンコー ダからの出力を受け,上述した時系列データの動きと時期によって表される 12 種類のカテゴリを識別する層(図 3 中の Prediction Layer)を導入し,カテゴリの識別を訓練することにより,時系列データの関係を正しく捉えた埋め込み表現をデコーダに渡している. デコーダは Transformer のデコーダを採用している. エンコーダとデコーダをわけて訓練をしており,エンコーダおよびデコーダの訓練時のハイパーパラメータの設定を表 1 に示す. ## 4.2 時系列データの入力形式 時系列データの振る舞いを捉えるために,「スライディングウィンドウ (sliding window)」と呼ばれる,ある程度の範囲を時間方向に少しずつシフトさせた特徴量によって時系列データを表現表 3 実験 1 のカテゴリ・生成文の正解率 することが多い. 本研究においてもそのことを踏襲し, 入力形式として時系列データにスライディングウィンドウを適用したものを採用する. ウィンドウサイズを $K$ とし, 時刻 $t$ における值を $\boldsymbol{W}_{\boldsymbol{t}}=\left.\{x_{t-K+1}, x_{t-K+2}, \ldots, x_{t}\right.\}$ とする. このとき,入力は, $w_{t}$ のリストとなり, 長さ $T$ の時系列データの場合, $\boldsymbol{W}=\left.\{W_{1}, W_{2}, \ldots, W_{T}\right.\}$ と表される. この形式をとることで,変化量がわかりやすくなり,時系列データの動きが捉えやすくなる. ## 5 実験 実験 1 で,学習モデルが 3.1 の訓練用データで学習した通りに,二つの時系列データの動きを捉えて正しく文生成ができているか,データセット 1 のテストデータを用いて評価を行う.実験 2 では,捉えたい動きの他にそれ以外の動きが含まれる時系列データについて説明文を生成することで,より複雑な時系列データについても正しく文生成が行えるかを評価する。 ## 5.1 評価方法 生成文の質を評価するために,BLEU [5] と perplexity (ppl)を用いた. 動き・時期を捉えられているかを確認するために,生成した文と正解文において,動き,時期,その両方を表す単語が一致しているかどうかを判定した。これらに加えて, Prediction Layer におけるカテゴリ判定と生成文の単語におけるより詳細な評価も行う。 ## 5.2 実験結果及び考察 実験 1 BLEU Score が非常に高くなっているが,今回はテンプレートを用いて正解文を生成しているため文同士に大差がなく,また動きと時期を $94 \%$ 以上の確率で正しく捉えられているためだと考えられる (表 2 参照). カテゴリ判定と生成文の正解率について正しくカテゴリ判定ができたデータは全体の $94.5 \%$ となり,生成文において動きと時期の両方について正しく文生成ができている確率 $94.4 \%$ とほぼ一致した. 生成結果: Both series1 and series2 increase in the beginning.(増加 $\cdot$ 初期)正解: Both series1 and series2 increase in the beginning.(増加 $\cdot$ 初期)生成結果: Both series1 and series2 peak in the middle.(頂上・末期)正解: Both series1 and series2 peak in the middle. (頂上 - 中期) 生成結果: Both series1 and series2 peak in the middle.(頂上 ・ 初期)正解: Both series1 and series2 peak in the beginning. (頂上 ・ 初期)生成結果: Both series1 and series2 dip in the middle.(凹み・中期)正解: Both series1 and series2 dip in the end.(凹み・末期) 図 4 実験 1 の生成文と (生成カテゴリ)/正解文と (正解カテゴリ) の例 表 4 実験 2 のカテゴリ・生成文の正解率 図 5 動きが小さい例表 5 動きの大きさが異なる 正解率 $\quad 0.517 \quad 0.268$ エンコーダの出力から文生成を行うため,カテゴリ判定の結果が生成される文における動きと時期の単語に直結すると考えた. しかし,頂上と凹みについては,カテゴリ判定と生成文の正解率が異なった (表 3 参照). カテゴリ判定が正しくできていても,文生成が正しくできない場合 (図 4 の右上) や,逆にカテゴリ判定が正しくできていなくても,文生成が正しくできている場合 (図 4 の左下) が確認された. 実験 2 実験 1 と比べて全体的に精度が下がっている (表 2 参照). 原因の 1 つとして, 実験 2 におけるデータのうち $50 \%$ が,捉えたい動きが小さくなったデータとなっていることが考えられる (表 5 参照). 実験 2 で用いたデータセットの時系列デー タは,加えた動きによっては正規化した際に,捉えたい動きを訓練時の半分ほどまで小さくしてしまう. 例えば,図 5 においては,初期に頂上の動きを加えることで,末期の減少の動きの縦幅が全体の半分ほどまで小さくなっている.縦幅が小さくなっていないデータのうち $51.7 \%$ は動きと位置について正しく文生成ができていたが,縦幅が小さくなっているデータについて正しく文生成が行えていたものは $26.8 \%$ とどまった (表 5 参照). 正規化をすることで,捉えたい動きの幅が小さくなってしまい,モデルが捉えたい動きだと判断することが難しくなった 生成結果: Both series1 and series2 dip in the middle.(凹み・中期)正解: Both series1 and series2 increase in the end.(頂上 $\cdot$ 初期) 図 6 時期だけでなく動きも正しく捉えられていない例 ## と考えられる。 カテゴリ判定と生成文の正解率について正しくカテゴリ判定ができたデータは全体の $57.1 \%$ となり,実験 1 に比べて大幅に下がった. カテゴリ判定において,時期だけでなく動きも正しく捉えられていないデータも見られた (図 6). これは,追加したデータの動きの影響を受けていることによると考えられる。また,全体的に生成文の正解率がカテゴリ判定の正解率からさらに下がっている (表 4). 実験 1 よりも,エンコーダで動きが正しく捉えられていても文生成がうまくいっていないデータが多いとわかった. 生成文と生成カテゴリ/正解文と正解カテゴリのペアを Appendix に記載した。 ## 6 おわりに 本研究では二つの時系列データの関係性を捉えた文生成を行うモデルを提案し,作成したデータセットを用いてモデルの評価を行なった. 実験 1 では,高い精度で二つの時系列データにおける,学習した動きを捉えた文生成を行うことができることが確認できた. 実験 2 では,時系列データの動きがより複雑になり,動きの縦幅が学習時と異なる場合に動きを捉えることがより難しくなることが確認できた.正規化をすることで捉えたい動きが小さくなってしまうため,捉えたい動きをうまく捉えて文生成ができるような工夫を考えたい。また,特に時期についての精度が下がってしまったので,訓練の手法等を検討して精度を高めていきたい。 ## 参考文献 [1] Jason Obeid and Enamul Hoque. Chart-to-text: Generating natural language descriptions for charts by adapting the transformer model, 2020. https://arxiv.org/abs/ 2010.09142 . [2] Harsh Jhamtani and Taylor Berg-Kirkpatrick. Truthconditional captions for time series data. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 719-733, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [3] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [4] Shreshth Tuli, Giuliano Casale, and Nicholas R. Jennings. Tranad: Deep transformer networks for anomaly detection in multivariate time series data. Proc. VLDB Endow., Vol. 15, No. 6, p. 1201-1214, jun 2022. [5] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: A method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting on Association for Computational Linguistics, ACL '02, p. 311-318, USA, 2002. Association for Computational Linguistics. ## A 生成例 以下に実験 2 の生成例を示す. ・カテゴリ判定も生成文も正解 生成結果: Both series1 and series2 increase in the beginning. (増加・初期) 正解: Both series1 and series2 increase in the beginning. (増加・初期) 生成結果: Both series1 and series2 peak in the middle. (頂上・中期) 正解: Both series1 and series2 peak in the middle. (頂上・中期) ・カテゴリ判定は正解だが生成文は不正解 生成結果: Both series1 and series2 peak in the beginning. (增加・初期) peak in the middle. (減少・末期) 正解: Both series1 and series2 increase in the beginning. (增加・初期) Both series1 and series2 peak in the middle. (頂上・初期) decrease in the end. (減少・末期) dip in the end. (凹み・初期) peak in the beginning. (頂上・初期) ・カテゴリ判定は不正解だが生成文は正解 ・カテゴリ判定も生成文も不正解
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P11-6.pdf
# 短歌における言語モデルの実応用一歌人の視点を通した生成と作歌支援の実践から一 浦川通 1 新妻巧朗 1 田口雄哉 1 田森秀明 1 岡崎直観 ${ }^{2}$ 乾健太郎 3,4 1 株式会社朝日新聞社 2 東京工業大学 3 東北大学 4 理化学研究所 \{urakawa-t,niitsuma-t, taguchi-y2, tamori-h\}@asahi.com, okazaki@c.titech.ac.jp, inui@tohoku.ac.jp ## 概要 ニューラル言語モデルによる生成が多方面で実サービス化され,その利用に関する実際的な検討が始まっている.テキストによる創作活動である文芸分野でも,言語モデルの実応用化が進んでいるが,短詩形文学の一つである短歌においては,その応用可能性について積極的に議論される現状になく,実応用事例も存在しないため,モデル利用の有用性や課題に不明点が多い. 本稿では,短歌を生成する言語モデルの評価や可能性について, 実際に歌壇で活動する歌人を取材し,そこで得られた作歌支援への指摘にもとづき構築した,実応用事例の設計法や実施の結果を共有しながら,今後の課題を述べる. ## 1 はじめに ニューラル言語モデル(以下,言語モデル)の発展にともない, 対話応答 [1], プログラミング支援 [2], 論文執筆支援 [3] といった幅広い領域で言語モデルの実応用化が進んでいる。これにしたがい,論文投稿の現場において言語モデルの利用に関する方針策定 [4] が行われるなど,実応用における倫理と有用性をふまえた検討がすでに始まっている。この流れはテキストによる創作活動である文芸にも及び,執筆支援での言語モデル応用が検討され [5],専門家による評価が行われているほか [6], 日本語でも実サービス化されたものが存在する [7]. 短詩形文学の一つに数えられる短歌 1 においても,これまでに自動生成手法が提案されてきた $[8,9,10,11]$. 最近では, 言語モデルによる生成を一部に含む短歌の連作が新人賞の最終選考を通過するなど,実際の作歌の現場に生成が登場しはじめている $[12,13]$. しかし, 言語モデルの評価が歌人  する. をはじめとする実作者の立場から行われた例はいまだ少なく [14], 実際的な応用可能性について,積極的に議論されている現状にない,また,広く一般に利用される形で実サービス展開された事例も存在しないため,短歌を対象とした言語モデル応用の有用性や課題については,明らかでない点が多い. 本稿では,実際に歌壇で活動する歌人に対して短歌を生成する言語モデル(短歌生成モデル)に触れる機会を設け,評価また応用可能性について取材し,その結果をふまえ構築した実応用事例の設計法や実施の結果を共有しながら,今後の課題について述べる. 歌人への取材においては,先行研究であるモーラを考慮した短歌生成モデル [11]を用意し,生成に関する自由な意見をもらうとともに,今後考えられる応用可能性について取材した. この結果として,作歌のヒントを得ることを目的とした言語モデル利用の可能性に関する指摘が得られた。 実応用事例においては,ユーザの入力に従う作歌支援システムを構築した。これをウェブサービスとして公開するとともに,短歌の創作を行うワークショップにて展開し,ユーザが実際に触れる機会を提供した. ここで得られた利用データの分析と利用者の声から,実際に言語モデルによる生成がユー ザの作歌に援用されうることを確認した。一方で, ユーザの創造性を引き出すためのより効果的な言語モデル応用法の検討や,構築における学習データ利用環境の整備を今後の課題として議論する。 ## 2 歌人からみた短歌生成モデル 短歌生成モデルの評価と応用可能性について,歌人の俵万智氏,永田和宏氏を対象に,以下の方法で取材した。 ## 2.1 方法 先行研究であるモーラを考慮した短歌生成モデル [11]を,日本語ウィキペディアから抽出した疑似短歌(5,7,5,7,7 モーラの短歌の定型を満たす文字列) でファインチューニングしたものと,このモデルをさらに俵の短歌データ約 2,000 件でファインチュー ニングしたものを用意し,永田には前者のみの,俵には両者の出力結果を確認できる場をそれぞれ別個に提供しながら(1)生成過程・結果についての自由な意見(2)今後にどんな影響・応用が考えられるかの 2 点について意見を伺った. なお,以降の各人の発言内容は,記事 ${ }^{2}$ 3)4) からの引用とする. モデルによる実際の生成例を表 1 に示す.また, モデル作成に関する詳細を付録 A に記す. ## 2.2 議論 生成過程と結果について俵は,自作を学習したモデルの出力について「私っぽい」と指摘するとともに,ある生成については「やられたな」とその結果に驚く反応を見せた. 永田は「まだ AI がこのレベルでよかった」としつつも,「それらしきいい歌ができることは間違いない」と発言し, 両者それぞれにモデルによって生成された短歌の質を評価した. また両者から, 過去に詠まれた短歌を大量に学習する過程は,歌人が作歌を学ぶときとあまり変わらないかもしれないと,短歌の学習における人とモデルの類似性が指摘された. 可能性と課題永田は「たとえば上の句で筆が止まっている時に、AIに提案してもらった言葉を発展させて下の句を付けるという使い方は、認めてもいいのかもしれない」と,言語モデルの創作における応用について言及した.「歌をつくる前はこう思っていたけど、歌をつくるプロセスでこうも思ったんだという自分の発見があって(中略)そうした言葉  3) https://www.asahi.com/special/tawaramachi-aitanka/ 4) https://www.asahi.com/articles/ASQ716V8VQ6QUCVL006. html 図 1 「花と歌」システム図 を AI が見つけてくれようと自分で見つけようと、本質は変わらないのかもしれない」と指摘する。俵は, 1 秒間に 100 首程度生成できるという,モデルの高い量産性を挙げながら「壁打ち相手としては魅力的」と言及した. 一方で「AIに名歌をつくってもらう必要はない」「歌の種は人の心にある」とも発言している. 両者ともに,生成される短歌の質は認めながらも,あくまで人が作歌を行うときにヒントを得ることを目的とした応用可能性を指摘していることがわかる.これらの結果から,短歌の一部を入力し生成された結果を見ながら,より良い表現を探すといった言語モデルの応用可能性が得られた。 ## 3 短歌生成モデルの実応用 2 節での取材の結果,作歌におけるヒントを得るために言語モデルを用いる可能性について指摘が得られた。これをふまえ,ユーザの入力に従う作歌支援システムを構築した(図 1). ## 3.1 短歌生成モデルによる作歌支援 システムこのシステムは,ふだん言えない気持ちを花と歌(短歌)に込めて届けるウェブサービス「花と歌 $5^{5)}$ のために作られたものである(図 2). ユーザの贈りたい相手に向けて,花のイラストと短歌を合わせた画像を共有できるというサービスで,作歌支援に言語モデルを用いている. ここでユーザは(1)贈りたい相手に関する質問に答える(2)質問への回答内容に沿った短歌一首が生成される(3)生成された歌を自由に編集する,という手順を通して短歌を作ることができる.今回の取り組みは,これまでに一度も短歌を作ったことのないユーザの利用を想定している.そのため,言語モデルの入力として短歌の一部をユーザに考えさせる仕組みにすると、その難しさによってサービスからの離脱を招く 5) https://prtimes.jp/main/html/rd/p/000000014. $000054763 . \mathrm{html}$ 図 2 「花と歌」スクリーンショット 表 2 「花と歌」学習データの例. 特殊トークン $<$ sep>, $<\mathrm{r}>$, $<\mathrm{k}>$ を用意し, 入力はキーワード $<\mathrm{sep}>$ 類語 $1<\mathrm{r}>$ 類語 $2 \ldots<\mathrm{sep}>$ 初句の形で作る. 出力は各句の間を $<\mathrm{k}>$ で挟む. 表 3 「花と歌」モデルによる生成例。 $\mathrm{s}$ は書き出し, $\mathrm{k}$ はキーワード, $\mathrm{t}$ は類語リストの入力値. $\mathrm{s}=$ いつまでも, $\mathrm{k}=$ ダンス, $\mathrm{t}=[$ 心地好い, 楽しい, 仲良し, すこやか, 瞬間] いつまでも穏やかでいてくれるので一緒にダンスするときもそう 可能性が考えられた。そこで,ユーザは簡単な質問に答えるのみによって短歌を生成でき,その後に一首全体の編集権を得るという構成をとっている. モデル今回のシステムにおけるモデルは,短歌の一部ではなくユーザの質問回答の内容を入力に短歌を生成する. そのため,2 節のようなデコーダのみによって構成された言語モデルではなく, seq 2 seq の機構を持ち入力をエンコードした結果を用いて生成するモデルを採用した. 具体的には,事前学習済み言語モデルである BART [15] を CTRL [16] のようにタグコントロールによる条件付き生成モデル学習の枠組みでファインチューニングした ${ }^{6)}$. 入力として,出力される歌に含めたいキーワード,書き出し (第 1 句)に加え, 歌のテーマとして出力中に含まれる単語の類語 5 つを与え,短歌を生成するものとする(表 2)キーワードのみユーザによる自由入 6)事前学習済み言語モデルは,朝日新聞社の保有記事約 900 万件で事前学習したものを使用した.力を受け付け,その他の入力はユーザの質問回答によってシステム内部で自動的に与えられる。実際の生成例を表 3 に示す. モデル作成に関する詳細を付録 Bに記す。 データセット今回のように,広く一般に公開され,創作支援として利用される言語モデルの作成において,その学習データがどのようなものであるかが,サービスの信頼に関わる大きな問題となりうる。朝日新聞社の場合,保有するデータには「朝日歌壇」入選歌などの短歌が含まれるが,これを生成に利用するための許諾は得ていない. 著作権や創作上のモラルといった観点もふまえて社内で議論し,既存の短歌を学習データとして意図的に利用することは避けるという方針を定めた。そこで,学習デー タは [11] と同様にコーパスから疑似短歌を抽出することで作成した。コーパスは $\mathrm{CC}-100^{7)}$ の日本語文書データセットで,抽出した疑似短歌は 65,770 件である. 各サンプルにおけるキーワードは TextRank [17] のスコア上位 3 件よりランダムに 1 つ抽出した. テーマとして与える類語群は, 朝日新聞単語べクトル [18]により各サンプルにおける各単語の類似語上位 5 件ずつを得た中から,5 件をランダムに抽出して作成した。  図 3 編集が与えられた短歌における, 編集前後での編集距離の分布. 横軸は編集距離. 縦軸は短歌数. 図4 編集が与えられた短歌における, 各句ごとの編集操作の分布。縦軸は文字数. ## 3.2 実施と議論 このシステムは,2022 年の 9 月から 1 ヶ月間の期間限定でウェブ上にて公開されるとともに,短歌創作のワークショップにおいて,参加者が作歌のヒントを得るためのツールとして利用された. システムが実際にどのように利用されたかを見るため,ウェブ上にてユーザが作成し,実際に他者と共有した短歌データから 254 件を抽出・分析した.図 3 に,編集が与えられた短歌における編集距離の分布を示す. 編集の与えられた短歌の多くが,生成の一部を編集することで作成されたことがわかる。 また, 図 4 に示す編集操作の分布を見ると,最も多い操作が置換で,入力で与えられる第 1 句を除き,各句で偏りなく編集されていることがわかる. これらの結果から,ユーザが生成された短歌の内容を生かしながら,自身の歌を作っていることが窥える。表 4 ユーザによって共有された歌の編集前後の例. 波線,下線はそれぞれ編集前後における編集箇所. ワークショップの参加者からも「出力したフレーズを取り入れて作歌できた」「ヒントとなる言葉に出会えておもしろかった」といった反応が得られ,モデルが作歌時の発想を広げる手助けとなったことが確認できた ${ }^{8)}$. 表 4 に,実際の編集例を示す. 一方で,全体の 7 割近くの生成結果が,ユーザの編集を経ずにそのまま共有されていたこともわかった. これは,生成された短歌の質がユーザに受け入れられた結果とも考えられるが,作歌のヒントを与える応用とはならなかった例が多い結果であるともいえる.よりユーザの創造性を引き出す言語モデルの応用法の検討が,今後の課題である. また,今回のモデル学習は疑似短歌によって行われている。実際の短歌を学習したモデル生成が歌人による評価を得ている中で,今後の応用に向けたデータセットの整備やデータ利用における合意形成などが,より活発な実応用に向けて必要であると考える。 ## 4 おわりに 本稿では,短歌生成モデルの実応用について,歌人への取材を通してその可能性について整理した. また,取材の結果をふまえ構築・展開した作歌支援システムについて説明し,ユーザの反応を分析することで,短歌生成モデルが実際にユーザの作歌を支援する形で利用されることを確認した. 今後の課題として,よりユーザの創造性を向上させる言語モデル応用法の検討や,学習のための短歌データセットの整備などに取り組みたい。 8) https://digital.asahi.com/articles/ ASQ9P300309LUCVL01L.html ## 謝辞 取材に協力頂いた俵万智氏,永田和宏氏に感謝する. データ提供を頂いた株式会社電通クリエー ティブ Xに感謝する。 ## 参考文献 [1] ChatGPT: Optimizing Language Models for Dialogue, (2023-1 閲覧). https://openai .com/blog/chatgpt/. [2] GitHub Copilot $\cdot$ Your AI pair programmer,(2023-1 閲覧). https://github.com/features/copilot. [3] Galactica Demo,(2023-1 閲覧). https://galactica. org/. [4] ACL 2023 Policy on AI Writing Assistance, (20231 閲覧). https://2023.aclweb.org/blog/ ACL-2023-policy/. [5] Ann Yuan, Andy Coenen, Emily Reif, and Daphne Ippolito. Wordcraft: Story Writing With Large Language Models. In 27th International Conference on Intelligent User Interfaces, pp. 841-852, 2022. [6] Daphne Ippolito, Ann Yuan, Andy Coenen, and Sehmon Burnam. Creative Writing with an AI-Powered Writing Assistant: Perspectives from Professional Writers. arXiv preprint arXiv:2211.05030, 2022. [7] Hiroyuki Osone, Jun-Li Lu, and Yoichi Ochiai. BunCho: AI Supported Story Co-Creation via Unsupervised Multitask Learning to Increase Writers' Creativity in Japanese. In Extended Abstracts of the $2021 \mathrm{CHI}$ Conference on Human Factors in Computing Systems, pp. 1-10, 2021. [8] Tomonari Masada and Atsuhiro Takasu. LDA-based scoring of sequences generated by RNN for automatic Tanka composition. In International conference on computational science, pp. 395-402. Springer, 2018. [9] Makoto Nakatsuji and Sohei Okui. ConclusionSupplement Answer Generation for Non-Factoid Questions. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, pp. 8520-8527, 2020. [10] Yuka Takeishi, Mingxuan Niu, Jing Luo, Zhong Jin, and Xinyu Yang. WakaVT: A Sequential Variational Transformer for Waka Generation. Neural Processing Letters, Vol. 54, No. 2, pp. 731-750, 2022. [11] 浦川通, 新妻巧朗, 田口雄哉, 田森秀明, 岡崎直観, 乾健太郎. モーラを考慮した fine-tuning による口語短歌生成. 言語処理学会第 28 回年次大会, 2022. [12] 浦川通. AI が俵万智さんの歌集を学習したら開発者が言語モデルを解説. 朝日新聞デジタル, 2022-07-05. https://digital.asahi.com/articles/ ASQ744WG1Q71UCVL01Y.html. [13] 第六十四回短歌研究新人賞発表. 短歌研究, Vol. 78, No. 9, 092021. [14] 中辻真, 奥井颯平, 野口あや子, 加古陽. 特集作品二十首\&修業秘話歌歴 1 年半でここまで上達! 歌人 $\mathrm{AI}$ (人工知能歌人) の歌力:ついに歌壇デビューか!筆名は「恋する AI 歌人」! 短歌研究, Vol. 76, No. 8, pp. 91-102, 082019. [15] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov, and Luke Zettlemoyer. BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension. arXiv preprint arXiv:1910.13461, 2019. [16] Nitish Shirish Keskar, Bryan McCann, Lav R Varshney, Caiming Xiong, and Richard Socher. CTRL: A Conditional Transformer Language Model for Controllable Generation. arXiv preprint arXiv:1909.05858, 2019. [17] Rada Mihalcea and Paul Tarau. TextRank: Bringing Order into Text. In Proceedings of the 2004 conference on empirical methods in natural language processing, pp. 404-411, 2004. [18] 田口雄哉, 田森秀明, 人見雄太, 西鳥羽二郎, 菊田洸ほか. 同義語を考慮した日本語の単語分散表現の学習. 研究報告自然言語処理 (NL), Vol. 2017, No. 17, pp. $1-5,2017$. [19] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for Neural Text Processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics. ## A 取材時に利用した短歌生成モデル 2 節の取材における言語モデルの構成や学習時のハイパーパラメータについて記す. Hugging Face 上で公開されている日本語 (GPT-29)を事前学習モデルとしてファインチューニングすることで作成した(表 5). 歌人データによるモデルは,疑似短歌によるモデルをさらにファインチューニングすることで作成している (表 6).モデルの学習に用いたデータ数は,ウィキペディアによる疑似短歌が 10,000 件,俵による短歌デー タが 2,372 件である. 表 5 疑似短歌データによる短歌生成モデル構成とハイパーパラメータ 表 6 歌人データによるファインチューニングモデル構成とハイパーパラメータ トークナイザ_Sentencepiece 最適化器 Adam バッチサイズ 16 エポック数 10 ## B「花と歌」短歌生成モデル 3 節のシステムにおける言語モデルの構成や学習時のハイパーパラメータを表 7 に示す. 実装には,Hugging Face Transformers ${ }^{10}$ を用いている。トークナイザは朝日新聞社保有の記事を学習した Sentencepiece [19] で,語彙数は 32,000である。なお,事前学習済みモデルである BART-base は,朝日新聞社の保有する記事約 900 万件で事前学習したモデルを利用した. 9) https://huggingface.co/rinna/japanese-gpt2-medium 10) https://github.com/huggingface/transformers
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P11-7.pdf
# テキストアナリティクスツールの操作ログからの 実験設定の説明文生成 森田康介 ${ }^{1}$ 西村太一 ${ }^{1}$ 亀甲博貴 2 森信介 ${ }^{2}$ 1 京都大学大学院 情報学研究科 2 京都大学 学術情報メディアセンター \{morita.kosuke.45c, nishimura.taichi.43x\}@st.kyoto-u.ac.jp \{kameko, forest \}@i.kyoto-u.ac.jp ## 概要 本研究では,テキストアナリティクスツールの操作ログと実験設定の説明文の相互生成を目的とする。人文科学分野において広く使用されている KH Coderを使用した論文を対象に収集し,論文中の実験設定の記述と実際のツールの操作ログを再現したものからなるデータセットを構築した. また, このデータセットを用いて論文中の記述から操作ログを推定するモデルを構築し,アノテーションしていない論文に適用することやデータの値を置換することで自動的にデータセットを拡張した. これらを用いて,操作ログと説明文を相互生成するモデルを構築した。 ## 1 はじめに 科学技術論文の実験においてその実験設定を正しく記述し残すことは,論文を書いた本人だけでなく論文を読んだ人間も行った実験の再現が容易になることから重要である。近年では,あらゆる分野で論文の再現性が問題となる事例が発生しており $[1,2]$, ますますその重要性が高まっている. 科学実験においてはツールを使用して研究することが多いが,一般的にツールの利用にあたってはどのような処理が行われたかを示す操作ログ (以下ログと表記)が出力される.実験に使用したツールのログから行なった操作の説明文の生成ができれば,論文の書き手に対する執筆の補助になり,読み手の実行内容の理解度と再現性が高まる. 反対に, 論文に記されている操作の説明文からツールのログの生成ができれば,実行内容の再現がより容易になる。 本研究では,様々なツールの中でもテキストアナリティクスツールに焦点を当てる。 テキストアナリティクスとは, 文章を解析して情報を取り出す分析 図 1 利用シーンの例. のことである. テキストアナリティクスツールは人文科学の分野で頻繁に使用されているため,我々はその操作の説明文を生成することで貢献ができると考えた。利用シーンの例を図 1 に示した. 本研究の課題のように,グラフや表などのデータとして記述されたものについてテキストで説明するタスクは Data-to-Text と呼ばれる [3]. 元来は規則やテンプレートをによる手法が考えられてきた $[4,5]$ が,自然な文を自動で生成するためには,膨大な規則の構築が必要である. そのため, 近年では深層学習を利用した手法が注目されている [6,7]. 深層学習モデルが十分な性能を発揮するためには大規模なデータセットを用意しなければならず,その作成にはコストがかかるという問題がある。これを解決するために擬似的にデータを生成してデータセットを自動で拡張する手法がとられてきた $[8,9,10]$. 本研究ではテキストアナリティクスツールを利用した際の仮想的なログを定義し,データセットを構築する. さらに, 3 種のデータ拡張手法を導入する。 その後, T5 [11]を学習させ,ログから操作の説明文の生成と説明文からのログの生成を行う. 生成した説明文とログについて,自動評価尺度による評価を行う.ここで,データセットの拡張の有無やその手法による評価結果の違いについて考察する。 ## 2 タスクの定義 ## 2.1 使用するツール 本研究では,テキストアナリティクスツールとして KH Coder [12]を用いる. KH Coder を使用した文献は累計で 5,686 件に上っており, 社会学や文学をはじめとした人文情報学の幅広い分野で使用されているツールである. ## 2.2 アノテーション 図 2 アノテーションの例. 最初に,少量のデータセットを人手で作成する. まず,使用者が変更可能な設定を予めリストアップした. 次に,KH Coderを用いた論文のリスト1)から 2021 年の論文をダウンロードした. そして,それらの論文からテキストマイニングを行った際の KH Coder での操作の説明にあたる文を抽出した.例を図 2 の実験設定の説明文に示した. 共起ネットワークか対応分析を実施している論文がほとんどであったため,どちらかの説明文のみを収集した。 その後,設定のリストをもとに説明文に対応するログを人手で作成した. ログの先頭部分には分析方法を記述し,続く括弧の中には各設定項目に対する值が「(設定項目)=(値)」という形式でコンマによって区切って記述されるようにログの記述方法を定めた. ログの例を図 2 に示した. ここで作成したデー タセットの概要を表 1 に記載する. 表 1 手動作成したデータセットの概要. ## 3 データ拡張手法 深層学習モデルが十分な性能を発揮するためには大量のデータが必要となるが,人手でのアノテー ションは費用や時間の点で高コストである. その問題に対処するためにデータ拡張を実施する. 本研究  では,(1) 擬似ラベルに基づく手法,(2) 値の入れ替えによる手法,(3)2つの手法の併用,の 3 種の拡張手法を用いる. 本章では各手法について記述する。 ## 3.1 擬似ラベリング ここでは,新たにダウンロードした論文ファイルに固有表現認識とテキスト分類によって自動的なアノテーションを行う. ## 3.1.1 固有表現認識 ここでは,実験設定の情報を説明文から抽出する固有表現認識(NER)を行う。まず,手動作成のデータセットの説明文を MeCab [13] を用いて単語分割した. そして,説明文に含まれる実験設定を固有表現とし, IOB 形式でアノテーションを施した.付録 $\mathrm{A}$ にその固有表現の種類と数の詳細を示す。 Flair [14]を用いて固有表現認識モデルを作成した. 学習にあたり, Flair 内の日本語の文字単位の事前学習済みの埋め込みベクトルを使用した. テストセットにおける予測結果の詳細を付録 B. 1 に示す. 得られたモデルを利用し,人手でダウンロードした 2020 年の論文と Web スクレイピングによってダウンロードした 2019 年以前と 2022 年の論文計 2,132 件に対して固有表現認識を行なった. まず,論文の pdf ファイルを pdfminer ${ }^{2}$ で読み込み, $\mathrm{spaCy}^{3}$ )の文分割機能を用いて自動で文単位に分割する。その後, 分割した文それぞれに対して NER のモデルで固有表現を予測し, 定義したログの形へ整形した. Flair の固有表現の予測においては確信度を示すスコアも出力される.ノイズが多いデータはモデルの性能向上を妨げるとされていることから [15], しきい値を 0.5 に設定し,それより小さい確信度の固有表現を除外した。 ## 3.1.2 テキスト分類 次に,文から分析方法を予測するモデルを作成する. 固有表現抽出では分析とは無関係の文からも固有表現が予測される場合がある. そのため, 共起ネットワーク,対応分析,それ以外の 3 クラスの分類タスクとして扱う. 2020 年の 18 件の論文から固有表現が予測された 205 文に対してその分析方法を人手でアノテーションした. さらに,これらのデー タに手動で作成したデータを加え,データセットを  作成する. モデルには BERT [16]を用いた。事前学習済みモデルには東北大学乾研究室のモデル cl-tohoku/bertbase-japanese-whole-word-masking ${ }^{4}$ を用い,ファインチューニングを行った. データセットを学習デー タ: 検証データ: テストデータで 8:1:1 に分割した後,学習データで 20 エポック学習させ,そのうち検証データにおける損失が最も小さいモデルを最終的な学習済みモデルとした. この時のテストデータにおける結果の詳細は付録 B. 2 に示す。 このモデルを3.1.1 項で得られた文に適用した. この分類により, 文が共起ネットワークか対応分析であると分類されたデータに対して分析方法の記述を追加したものを最終的なログとする. これにより, 平均して 3,339 のデータが作成された. ## 3.2 スワップ ここでは, 先行研究 $[8,9]$ と同様に説明文とログの設定に関する值を置換することによりデータ拡張を行う.具体的なアルゴリズムは付録 C に示す.これにより,平均して 1,620 のデータが作成された. ## 3.3 ハイブリッド 3.1 節と 3.2 節で作成したデータセットを結合させて学習を行う。 ## 4 実験 ## 4.1 実験設定 モデルには T5 [11]を用いる. Data-to-Text のタスクに対して T5 の有用性は示されていることから [17],本研究ではこれを用いることにした. T5 は入力に prefix と呼ばれる語句を付加することでタスクを識別し,1つのモデルで複数のタスクを実行することが可能である [11]. 本研究でも,prefix を用いたマルチタスク学習を行う,具体的にはログからの説明文の生成には入力の先頭に「translate $\log$ to text: 」を, 説明文からのログの生成には「 text to $\log$ : 」を付加する. 全ての訓練データに対してこれらの 2 通りの入出力を作成する。 さらに,シングルタスクの場合でも実験を行い比較する. 事前学習済みモデルには園部勲氏により transformers に公開されている sonoisa/t5-base-japanese ${ }^{5)}$  を使用した. Raffel ら [11]と同様にパラメータの更新には Adafactor [18] を用い,学習率は 1e-3, scale_parameter false, relative_step false とした. バッチサイズを 8 とし 100,000 ステップの学習を行った. 1,000 ステップごとに validationを行い, BLEU-4 の值が最も高いモデルで評価を行う.その他のパラメータはデフォルトのものを用いた. 本研究で人手で作成したデータセットのサイズは大きくない. そのため, 以下の手続きで交差検定を実施した。まず,手動で作成したデータセットをランダムにシャッフルした後, 4:1 に「訓練データおよび検証データ」と「テストデータ」に分割し,交差検定を行う。さらに,前者のデータは学習データと検証データに $4: 1$ に分割する. この訓練データと検証データを用いてデータセットを拡張する。なお,評価結果は交差検定における平均值を示している. BLEU に代表される自動評価尺度は人間による評価と相関があることが示されている [19]. そのため, 説明文の評価指標には BLEU [20] と METEOR [21], BERTScore[22]を用いる。また,単純な規則でログから説明文を生成するシステムも作成乙比較を行う.具体的な生成方法は付録 D に示す. ログには分析の方法と設定を表す部分が存在するが,これを分けて評価を行う。まず,生成されたログから分析方法についての部分を抜き取り, 正解データに対する分類精度を一般的な分類タスクと同様に計算した. その $\mathrm{F}$ 値を F1-method として表に掲載した。続いて,分析の設定については括弧の中に各設定項目に対する値が「(設定項目)=(値)」という形式で区切り文字コンマにより記述されている.これら設定項目と値の組の 1 ブロックを予測とみなし,スコアを計算する。具体的には,予測のうち正解と設定項目と値が完全に一致している割合をPrecision とし,正解のうち設定項目と値が予測と完全に一致している割合を Recall として計算した。例えば,生成されたログの設定項目を「(最小出現数 $=3$, 上位 $=60)$ ), 正解のログの設定項目を $「$ (最小出現数 $=3$, 上位 $=60$, 最小スパニングツリーだけを描画=on)」とすると,Precision は $2 / 2$ となり, Recall は $2 / 3$ となる. Precision と Recall の調和平均をF1-options とし計算した. さらに,「共起ネットワーク」「対応分析」のどちらかの文字列で始まり, それに続いて「(」で始まり「)」で終わるものでなかったものをログの形式のエラーとして計測する. なお, $\mathrm{F}$ 値の計算にはエラーデータは除外している. 表 2 ログから生成した説明文の評価. ## 4.2 ログからの説明文生成 表 2 に実験の結果を示す。まず,ルールベースにと T5 による結果を比較すると BLEU では大きい差ができていることがわかる。一方で,BERTScore の Precision はルールベースによる生成が最も高くなった.この結果からルールベースによる生成では情報を的確に伝えられているが,論文で記述される文章とは似ていないと考えられる。 次に,データセットを拡張する場合としない場合を比較すると,データ拡張を行わない場合がスコアが高くなった. データ拡張手法によってスコアが向上しなかった理由として, 追加したデータの質が考えられる。擬似ラベリングでは論文ファイルを新たにダウンロードして自動でアノテーションを行なった.このファイルの読み込み時にテキスト順序が本来のものでない場合や本文中にない pdf ファイルの記号がテキストとして入る場合があり,これらがノイズになっていたと考えられる。また,ダウンロー ドした論文によって読点を表す記号が異なるため文分割を使用したが,この精度が高くないということも理由の 1 つとしてあげられる. そして,スワップでは文字列の置換を行うが置換すべき対象ではない文字列まで置換されてしまうことがあるため,それが学習の妨げとなってしまった可能性がある. データ拡張手法内では全体的に見てスコアが最も高いのはハイブリッドだった。これは擬似ラベリングでは BERTscore の Precision が高く,スワップでは Recall が高くなっているという特徴があり,ハイブリッドはこの両手法の長所を取り入れてより良い学習が可能になった結果だと考えられる. そして,マルチタスク学習を行うことでスコアが上がる場合と下がる場合があった。この結果から夕スクに特化したモデルを得るためにマルチタスク学習を行うことがが必ずしも良いとは限らないと考えられ,これは Raffel ら [11] の結果と一致している. ## 4.3 説明文からのログ生成 表 3 説明文から生成したログの評価. 結果を表 3 に掲載した。まず,F1-method においては擬似ラベリングのスコアが最も高くなった.次に,F1-options においては拡張しない場合のスコアが最も高かった。一方,エラーが多かったのはデー タ拡張をしない場合とスワップによる拡張の場合だった. この結果からエラー数の減少に対するデー 夕拡張の有用性が確認できた。 また,マルチタスク学習を行うことによりスコアが下がりエラー数が減少する傾向が確認できた. こちらもマルチタスク学習を行うことがが必ずしも良いとは限らないと考えられる結果となった。 ## 5 おわりに 本研究では,テキストアナリティクスの際に出力されるログと説明文の相互生成を行なった。これを深層学習的モデルで行うにあたって, 少量のデータセットを拡張するための固有表現認識とクラス分類による自動アノテーション手法と值の置換による拡張手法を提案した. 実験において,データセットを拡張しない場合と各拡張手法を自動評価尺度によって比較した。その結果,指標によってはデータ拡張をすることでスコアが向上することが確認できた. 本研究ではログを仮想的に定義したが,その他の一般的なツールにおいても本研究と同じ形式でアノテーションを施すことによって同様の生成手法・ データ拡張手法をとることができるという点で応用可能性があると考えられ,研究の余地がある. そのため,様々なデータへの適用や適切な拡張手法の考案は今後の課題である. ## 参考文献 [1] Jeremy Freese and David Peterson. Replication in social science. Annual review of sociology, Vol. 43, pp. 147$165,2017$. [2] Scott E Maxwell, Michael Y Lau, and George S Howard. Is psychology suffering from a replication crisis? what does "failure to replicate" really mean? American Psychologist, Vol. 70, No. 6, p. 487, 2015. [3] Thiago Castro Ferreira, Chris van der Lee, Emiel Van Miltenburg, and Emiel Krahmer. Neural data-to-text generation: A comparison between pipeline and end-to-end architectures. arXiv preprint arXiv:1908.09022, 2019. [4] Eli Goldberg, Norbert Driedger, and Richard I Kittredge. Using natural-language processing to produce weather forecasts. IEEE Expert, Vol. 9, No. 2, pp. 45-53, 1994. [5] Kees Van Deemter, Mariët Theune, and Emiel Krahmer. Real versus template-based natural language generation: A false opposition? Computational linguistics, Vol. 31, No. 1, pp. 15-24, 2005. [6] Tianyu Liu, Kexiang Wang, Lei Sha, Baobao Chang, and Zhifang Sui. Table-to-text generation by structure-aware seq2seq learning. In Thirty-Second AAAI Conference on Artificial Intelligence, 2018. [7] Ratish Puduppully, Li Dong, and Mirella Lapata. Datato-text generation with content selection and planning. In Proceedings of the AAAI conference on artificial intelligence, Vol. 33, pp. 6908-6915, 2019. [8] Ernie Chang, Xiaoyu Shen, Dawei Zhu, Vera Demberg, and Hui Su. Neural data-to-text generation with lm-based text augmentation. arXiv preprint arXiv:2102.03556, 2021. [9] Ernie Chang, Vera Demberg, and Alex Marin. Jointly improving language understanding and generation with quality-weighted weak supervision of automatic labeling. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 818-829, Online, April 2021. Association for Computational Linguistics. [10] Chris van der Lee, Thiago Castro Ferreira, Chris Emmery, Travis Wiltshire, and Emiel Krahmer. Neural data-to-text generation based on small datasets: Comparing the added value of two semi-supervised learning approaches on top of a large language model. arXiv preprint arXiv:2207.06839, 2022. [11] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J Liu, et al. Exploring the limits of transfer learning with a unified text-to-text transformer. J. Mach. Learn. Res., Vol. 21, No. 140, pp. 1-67, 2020. [12] 樋口耕一. テキスト型データの計量的分析一2つのアプローチの峻別と統合一. 理論と方法, Vol. 19, No. 1, pp. 101-115, 2004. [13] Taku Kudo. Mecab: Yet another part-of-speech and morphological analyzer. http://mecab. sourceforge.net/, 2005. [14] Alan Akbik, Tanja Bergmann, Duncan Blythe, Kashif Rasul, Stefan Schweter, and Roland Vollgraf. FLAIR: An easy-to-use framework for state-of-the-art NLP. In NAACL 2019, 2019 Annual Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 54-59, 2019. [15] Benoît Frénay and Michel Verleysen. Classification in the presence of label noise: a survey. IEEE transactions on neural networks and learning systems, Vol. 25, No. 5, pp. 845-869, 2013. [16] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018. [17] Mihir Kale and Abhinav Rastogi. Text-to-text pre-training for data-to-text tasks. arXiv preprint arXiv:2005.10433, 2020. [18] Noam Shazeer and Mitchell Stern. Adafactor: Adaptive learning rates with sublinear memory cost. In International Conference on Machine Learning, pp. 45964604. PMLR, 2018. [19] Ehud Reiter and Anja Belz. An investigation into the validity of some metrics for automatically evaluating natural language generation systems. Computational Linguistics, Vol. 35, No. 4, pp. 529-558, December 2009. [20] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th annual meeting of the Association for Computational Linguistics, pp. 311-318, 2002. [21] Satanjeev Banerjee and Alon Lavie. Meteor: An automatic metric for mt evaluation with improved correlation with human judgments. In Proceedings of the acl workshop on intrinsic and extrinsic evaluation measures for machine translation and/or summarization, pp. 65-72, 2005. [22] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert. arXiv preprint arXiv:1904.09675, 2019. ## A アノテーションした固有表現 表 4 共起ネットワーク・対応分析における固有表現. ## B テストセットにおける予測結果 ## B. 1 固有表現認識 表 5 固有表現認識モデルによる予測結果. 交差検定 1 回分の結果を示した. 高い頻度かつ単語数の少ない固有表現であるほど予測精度が高いという結果が得られた。 表 6 BERT による分析手法の分類の結果. 交差検定 1 回分の結果を示した. ## C スワップのアルゴリズム スワップのアルゴリズム. value-set は各設定項目をキーとしてデータセット内の全ての取りうる値のリストを返す辞書である。 ## D ルールベースによる生成 本研究では,ルールベースによる生成を行なった。具体的なアルゴリズムは,ログの形式が「分析方法 (設定項目=値, 設定項目=值...)」であることを用いて「(設定項目) を(値),」という文字列を繰り返し,最後の設定項目まで達した場合「とし (分析方法)を行った.」と出力する. 例えば,「共起ネットワーク (最小出現数 $=3$, 上位 $=60$, 最小スパニングツリーだけを描画=on)」というログが入力として与えられた場合,「最小出現数を 3 ,上位を 60 ,最小スパニングツリーだけを描画を on とし共起ネットワー ク分析を行った.」となる. ## B. 2 分類モデル
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P11-8.pdf
# Retrieval, Masking, and Generation : マスクされた解説文を活用した文法誤り解説文生成 庵愛佐藤宏田中智大増村亮 日本電信電話株式会社 NTTコンピュータ\&データサイエンス研究所 mana.ihori.kx@hco.ntt.co.jp ## 概要 本稿では,文法誤り解説文生成タスクのための新たな手法を提案する,本タスクは,文法誤りを含む入力文と修正位置が与えられると, 修正位置がなぜ誤っているかを解説する文章を生成するため,言語学習者にとって有益なタスクである。従来,本タスクにはデータプールから検索した解説文を入力文に応じて編集する手法が有効だと考えられたが,過剩な編集が起こるために性能が低いという課題があった.そこで本稿では,過剰な編集を防ぐために,検索した解説文の編集すべきトークンをマスクし,そのトークンを予測する retrieval, masking, and generation を提案する. 文法誤り解説文生成タスクを用いた評価実験により,自動評価と人手評価で従来手法よりも高い性能を達成することを示す. ## 1 はじめに 文法誤り解説文生成は,文法誤り訂正タスク [1-4] のように誤りを直接修正するのではなく,入力文の修正位置がなぜ誤っているかを解説するタスクである [5]. 具体的には,文法誤りを含む入力文(例えば, “He agrees the opinion.”) と文字単位の範囲として与えられる修正位置(3:13)が与えられた場合に,修正位置に対する解説文 ("The verb agree is an intransitive verb and cannot take direct objects. Add the appropriate preposition.”)を生成する。本タスクは自身の文法誤りの原因を知ることができるため,言語学習者にとってより有益なタスクだと考えられる. 従来,本タスクに対して retrieval [5], simple generation [6], retrieve-and-edit [7] の 3 つの手法が提案されている。まず,retrieval はデータプールから入力文に対して適切な解説文を検索する手法である。この手法では,モデル化は比較的容易に行えるが,検索された解説文の編集ができないという課題がある.次に, simple generation は入力文から直接解説文を生成する手法である. そのため,入力文に応じて柔軟な解説文の生成が期待できるが,スクラッチで解説文を生成する必要があるため, retrieval よりもモデル化が難しい。最後に,retrieve-and-edit は,これら手法の利点を組み合わせた手法である。具体的には,retrieval によって検索された解説文を simple generation の入力に用いることで,入力文に応じて検索された解説文を書き換える手法であり, simple generation よりも高い性能を達成することが期待されている。しかし, retrieve-and-edit は検索された解説文のうち,編集する必要のないトークンを過剩に書き換えてしまうため,従来手法の中で最も性能が低いことが報告されている [8]. 本稿では, retrieve-and-edit の課題を解決するために,この手法を拡張した retrieval, masking, and generation を提案する. 提案手法は,検索,マスク,生成の 3 つのモジュールから構成され, retrieve-andedit にマスクモジュールを導入したものである. マスクモジュールは,検索された解説文のうち,正解の解説文に含まれないトークンをマスクするように,各トークンに対してマスクトークンに置換するか,しないかの二值分類を行う.ここで作成されるマスクされた解説文を生成モジュールの入力に用いることで,マスクトークンを予測するように新たな解説文を生成できるため,検索された解説文の過剩な書き換えを防ぐことを期待している。ここで,提案手法は各モジュールの出力をカスケード接続するため,直前のモジュールの性能が後続のモジュールの性能に影響する。この影響を軽減するため,推論時に検索モジュールの上位 1 個のみではなく,$k$ 個の結果を用いる multi-decoding を提案する. 文法誤り解説文生成タスクを用いた評価実験により,自動評価で提案手法が従来手法よりも高い性能を達成することを示す。また,提案手法を用いてシェアード タスクである Generation Challenge 20221) に参加したため,その結果についても報告する。 ## 2 提案手法 図 1 に検索,マスク,生成モジュールから構成される提案手法の概要を示す. 本稿では,解説文生成タスクの入力文を $\boldsymbol{X}=\left.\{x_{1}, \cdots, x_{M}\right.\}$ ,解説文を $\boldsymbol{Y}=\left.\{y_{1}, \cdots, y_{N}\right.\}$ と定義する. このとき, $x_{m}$ と $y_{n}$ は入力, 解説文に含まれるトークンを, $M$ と $N$ はそれぞれのトークン数を表す。また,修正位置を位置ラベル $\boldsymbol{P}=\left.\{p_{1}, \cdots, p_{M}\right.\}$ (このとき, $\left.p_{m} \in\{0,1\}\right)$ に変換する. 例えば,入力文が $\{\mathrm{He}$, agrees, the, opinion, $.$\} , 修正位置が 3:13 の場合, \boldsymbol{P}=\{0,1,1,0,0\}$ となる. ## 2.1 検索モジュール 本モジュールでは, $\boldsymbol{X}$ と $\boldsymbol{P}$, 解説文の集合から選択された $\boldsymbol{Y}$ をれぞれべクトルに変換し,ベクトル間の最も高いコサイン類似度を示す $\boldsymbol{Y}$ を出力する。 コサイン類似度 $s$ は, 式 (1)によって導出される。 $ s=\text { retreival }\left(\boldsymbol{X}, \boldsymbol{P}, \boldsymbol{Y} ; \boldsymbol{\Theta}_{\text {ret }}\right) $ ここで, retreival() は検索モジュールの関数, $\boldsymbol{\Theta}_{\text {ret }}$ は学習可能なパラメータを表す。 retreival() で行われる処理を以下に示す.まず,式 (2-3) に従って, $\boldsymbol{X}$ と $\boldsymbol{Y}$ を隠れ表現 $\boldsymbol{Q}=$ $\left.\{\boldsymbol{q}_{1}, \cdots, \boldsymbol{q}_{M}\right.\}$ と $\boldsymbol{R}=\left.\{\boldsymbol{r}_{1}, \cdots, \boldsymbol{r}_{N}\right.\}$ に変換する. $ \begin{aligned} & \boldsymbol{Q}=\text { TransformerEncoder }\left(\boldsymbol{X} ; \boldsymbol{\Theta}_{\text {ret }}\right) \\ & \boldsymbol{R}=\text { TransformerEncoder }\left(\boldsymbol{Y} ; \boldsymbol{\Theta}_{\text {ret }}\right) \end{aligned} $ ここで, TransformerEncoder()は [9] と同様の構造である Transformer ベースのエンコーダを表す. 本稿では,このエンコーダに事前学習済みの BERT [10] を用いる。次に,式 (4) に従って, $\boldsymbol{Q}$ と $\boldsymbol{P}$ 用いて入力文を単一のべクトルに変換する. $ \boldsymbol{u}=\sum_{m=1}^{M} \boldsymbol{q}_{\boldsymbol{m}} \cdot p_{m} $ また,データプールから選択された解説文は,文頭の [CLS]トークンの隠れ表現 $\left(\boldsymbol{r}_{1}\right)$ を用いることで,単一のベクトルに変換する. 最後に, $\boldsymbol{u}$ と $\boldsymbol{r}_{1}$ のコサイン類似度を式 (5) から導出する。 $ \text { retreival }\left(\boldsymbol{X}, \boldsymbol{P}, \boldsymbol{Y} ; \boldsymbol{\Theta}_{\text {ret }}\right)=\frac{\boldsymbol{u} \cdot \boldsymbol{r}_{1}}{\|\boldsymbol{u}\|\left.\|\boldsymbol{r}_{1}\right.\|} $ 学習: 本モジュールは, $\mathscr{D}_{\text {ret }}=\left.\{\left(\boldsymbol{X}^{1}, \boldsymbol{P}^{1}, \boldsymbol{Y}\right.\right.$, $\left.\left.\delta^{1}\right), \cdots,\left(\boldsymbol{X}^{C}, \boldsymbol{P}^{C}, \boldsymbol{Y}, \delta^{C}\right)\right.\}$ を用いて学習される.  ここで, $C$ は入力文と位置ラベルの総数を, $\mathcal{Y}=\left.\{\boldsymbol{Y}^{1}, \cdots, \boldsymbol{Y}^{D}\right.\}$ は総数 $D$ の解説文の集合を表す. また, $\delta^{c}=\left.\{s^{c, 1}, \cdots, s^{c, D}\right.\}$ は $\boldsymbol{X}^{c}$ に対する正解の解説文 $\boldsymbol{Y}^{c}$ と, $y$ から選択した $\boldsymbol{Y}^{d}$ の Levenshtein 類似度 [11]の集合を表す.このモジュールは, $\boldsymbol{X}^{c}$ と $\boldsymbol{P}^{c}$, $\boldsymbol{Y}^{d}$ から作成されるべクトル間の類似度が $s^{c, d}$ に近づくように式 (6)より学習される. $ \begin{aligned} \mathscr{L}_{\text {ret }}= & \frac{1}{C \cdot D} \sum_{c=1}^{C} \sum_{d=1}^{D} \\ & \left(s^{c, d}-\operatorname{retreival}\left(\boldsymbol{X}^{c}, \boldsymbol{P}^{c}, \boldsymbol{Y}^{d} ; \boldsymbol{\Theta}_{\text {ret }}\right)\right)^{2} \end{aligned} $ 検索: 式 (7) に従って,y から最大のコサイン類似度を示す $\tilde{\boldsymbol{Y}}$ を抽出する。 $ \tilde{\boldsymbol{Y}}=\underset{\boldsymbol{Y} \in \mathcal{Y}}{\arg \max } \operatorname{retreieval}\left(\boldsymbol{X}, \boldsymbol{P}, \boldsymbol{Y} ; \boldsymbol{\Theta}_{\text {ret }}\right) $ ## 2.2 マスクモジュール 本モジュールでは, $\boldsymbol{X}$ と $\boldsymbol{P}, \tilde{\boldsymbol{Y}}$ が与えられた場合に, $\tilde{\boldsymbol{Y}}$ の各トークンに対してマスクするか,しないかの二值分類を行う. 具体的には,マスクラベル $\boldsymbol{L}=\left.\{l_{1}, \cdots, l_{N}\right.\}$ (このとき, $l_{n} \in\{0,1\} )$ を式 (8)に従って出力する. $ P\left(\boldsymbol{L} \mid \boldsymbol{X}, \boldsymbol{P}, \tilde{\boldsymbol{Y}} ; \boldsymbol{\Theta}_{\text {mask }}\right)=\prod_{n=1}^{N} P\left(l_{n} \mid \boldsymbol{X}, \boldsymbol{P}, \tilde{\boldsymbol{Y}} ; \boldsymbol{\Theta}_{\text {mask }}\right) $ ここで, $\boldsymbol{\Theta}_{\text {mask }}$ は学習可能なパラメータを表す。 本モジュールは検索モジュールと同様のモデルアーキテクチャで用いることが可能である. そのため,式 (2-4)より,Xと $\boldsymbol{P}$ を $\boldsymbol{u} , \tilde{\boldsymbol{Y}}$ を $\boldsymbol{R}=\left.\{\boldsymbol{r}_{1}, \cdots, \boldsymbol{r}_{N}\right.\}$ に変換する. 次に, $\tilde{\boldsymbol{Y}}$ の各トークンに対する二値分類を式 (9-10) によって算出する. $ \begin{gathered} P\left(l_{n} \mid \boldsymbol{X}, \boldsymbol{P}, \tilde{\boldsymbol{Y}} ; \boldsymbol{\Theta}_{\text {mask }}\right)=\operatorname{softmax}\left(\boldsymbol{v}_{n} ; \boldsymbol{\Theta}_{\text {mask }}\right) \\ \boldsymbol{v}_{n}=\left[\boldsymbol{u}^{\mathrm{T}}, \boldsymbol{r}_{n}^{\mathrm{T}}\right]^{\mathrm{T}} \end{gathered} $ ここで,softmax() は活性化関数 softmax を用いた線形変換を表す. 学習: 本モジュールは, $\mathscr{D}_{\text {mask }}=\left.\{\left(\boldsymbol{X}^{1}, \boldsymbol{P}^{1}, \boldsymbol{Y}\right.\right.$, $\left.\left.\mathscr{L}^{1}\right), \ldots,\left(\boldsymbol{X}^{C}, \boldsymbol{P}^{C}, \mathscr{Y}, \mathscr{L}^{C}\right)\right.\}$ を用いて学習される.ここで, $\mathscr{L}^{c}=\left.\{\boldsymbol{L}^{c, 1}, \cdots, \boldsymbol{L}^{c, D}\right.\}$ は, $\mathscr{y}$ から選択した $\boldsymbol{Y}^{d}$ のトークンのうち, $\boldsymbol{Y}^{c}$ に含まれないトークンを 1 , それ以外を 0 としたラベル集合を表す. 本モジュー ルは,式 (11)に示すクロスエントロピー損失を用いて学習される。 $ \mathscr{L}_{\text {mask }}=-\sum_{c=1}^{C} \sum_{d=1}^{D} \log P\left(\boldsymbol{L}^{c, d} \mid \boldsymbol{X}^{c}, \boldsymbol{P}^{c}, \boldsymbol{Y}^{d} ; \boldsymbol{\Theta}_{\text {mask }}\right) $ 図 1 提案手法の概要 マスク処理: 本モジュールの推論は,式 (12)によって実行される. $ \hat{\boldsymbol{L}}=\underset{\boldsymbol{L}}{\arg \max } P\left(\boldsymbol{L} \mid \boldsymbol{X}, \boldsymbol{P}, \tilde{\boldsymbol{Y}} ; \boldsymbol{\Theta}_{\text {mask }}\right) $ をマスクした $\bar{Y}$ を出力する. $ \overline{\boldsymbol{Y}}=\operatorname{MASK}(\tilde{\boldsymbol{Y}}, \hat{\boldsymbol{L}}) $ MASK() は $\hat{\boldsymbol{L}}$ のラベルが 1 のとき,そのラベルに対応する $\tilde{Y}$ のトークンをマスクトークンに置換する処理を表す。このとき,生成モジュールではマスクトー クンの数だけトークンを予測する必要があるが,ここで置換したマスクトークンの数と生成すべきトー クンの数は必ずしも一致するわけではない. そこで本稿では,1つのマスクトークンから複数のトークンを予測できる,span masking [12]を用い,連続するマスクトークンは 1 つのマスクトークンに置換する. そのため, $\tilde{\boldsymbol{Y}}$ と $\overline{\boldsymbol{Y}}$ のトークン数は同じであるとは限らない,また,すべてのラベルが 0 の場合,生成モジュールを介さず,直接 $\tilde{\boldsymbol{Y}}$ 出力する. ## 2.3 生成モジュール 本モジュールでは,$\overline{\boldsymbol{X}}=\left.\{\bar{x}_{1}, \cdots, \bar{x}_{M}\right.\}$ と $\overline{\boldsymbol{Y}}$ が与えられた場合に,Yを生成する。ここで, $\bar{X}$ は修正位置の範囲に含まれるトークンを括弧で囲むことにより,あらかじめ修正位置の情報を付与した入力文である。具体的には, $\overline{\boldsymbol{X}}$ と $\overline{\boldsymbol{Y}}$ 特殊トークン [SEP] で連結した, $\boldsymbol{Z}=\left.\{\bar{x}_{1}, \cdots, \bar{x}_{M},[\mathrm{SEP}], \bar{y}_{1}, \cdots, \bar{y}_{N}\right.\}$ を入力として,式 (14) に従って $\boldsymbol{Y}$ を生成する. $ P\left(\boldsymbol{Y} \mid \boldsymbol{Z} ; \boldsymbol{\Theta}_{\mathrm{gen}}\right)=\prod_{n=1}^{N} P\left(y_{n} \mid y_{1}, \cdots, y_{n-1}, \boldsymbol{Z} ; \boldsymbol{\Theta}_{\mathrm{gen}}\right) $ ここで, $\boldsymbol{\Theta}_{\text {gen }}$ は学習可能なパラメータを表す. 本モジュールは, Transformer ベースの encoderdecoder モデルで構成される。まず, $\boldsymbol{Z}$ を式 (15) によって隠れ表現 $\boldsymbol{H}$ に変換する. $ \boldsymbol{H}=\operatorname{TransformerEncoder}\left(\boldsymbol{Z} ; \boldsymbol{\Theta}_{\text {gen }}\right) $ 次に, $y_{1}, \cdots, y_{n-1}$ と $\boldsymbol{H}$ を用いて, $y_{n}$ の事後確率を式 (16-17) に基づいて算出する. $ \begin{gathered} P\left(y_{n} \mid y_{1}, \cdots, y_{n-1}, \boldsymbol{Z} ; \boldsymbol{\Theta}_{\text {gen }}\right)=\operatorname{softmax}\left(w_{n} ; \boldsymbol{\Theta}_{\text {gen }}\right) \\ w_{n}=\operatorname{TransformerDecoder}\left(y_{1}, \cdots, y_{n-1}, \boldsymbol{H} ; \boldsymbol{\Theta}_{\text {gen }}\right) \end{gathered} $ ここで,TransformerDecoder() は [9] と同様の構造である Transformer ベースのデコーダを表す. 本稿では,この encoder-decoder モデルに事前学習済みの T5 [12]を用いる. 学習: 本モジュールは, $\mathscr{D}_{\mathrm{gen}}=\left.\{\left(\boldsymbol{Z}^{1}, \boldsymbol{Y}^{1}\right), \cdots\right.$, $\left.\left(\boldsymbol{Z}^{\left|D_{\mathrm{gen}}\right|}, \boldsymbol{Y}^{\left|\Phi_{\mathrm{gen}}\right|}\right)\right.\}$ を用い,式 (18) に示すクロスエントロピー損失によって学習される。 $ \mathscr{L}_{\text {gen }}=-\sum_{(\boldsymbol{Z}, \boldsymbol{Y}) \in \mathscr{D}_{\text {gen }}} \log P\left(\boldsymbol{Y} \mid \boldsymbol{Z} ; \boldsymbol{\Theta}_{\text {gen }}\right) $ デコード: デコードは式 (19) によって算出される. $ \hat{\boldsymbol{Y}}=\underset{\boldsymbol{Y}}{\arg \max } P\left(\boldsymbol{Y} \mid \boldsymbol{Z} ; \boldsymbol{\Theta}_{\text {gen }}\right) $ ## 2.4 multi-decoding 提案手法では,3つのモジュールの出力をカスケード接続するため,各モジュールの性能は直前のモジュールの性能に依存する。そこで,最終的に出力される解説文の信頼度を高める方法として, multi-decoding を提案する. multi-decoding は検索モジュールで上位 1 個ではなく, $k$ 個の解説文を検索する. ここで検索された $k$ 個の解説文を用い,1つの入力文に対して $k$ 個の解説文を生成する. これら $k$ 個の解説文から,1つの解説文を選択することで最終的な出力を決定する。選択方法として,同じ入力文に対して重複している解説文の数を算出し,最も多い解説文を選択する。しかし,重複している数が同じであったり,すべての解説文が重複していない可能性もある. そのような場合,ある解説文とそれ以外の $k-1$ 個の解説文,および入力文との Levenshtein 類似度を算出し,その平均値が最も高いものを選択することで 1 つの解説文を出力する. ## 3 評価実験 ## 3.1 実験条件 データ: Generation Challenge 2022 で提供された, 入力文, 修正位置, 解説文がセットになったデータセットを用い,2 章の各データセットを作成する. まず, D ret では,y は上記データセットの学習セットを用いる. ここで, 学習セットのすべての $\boldsymbol{Y}^{d}$ を用いて $s^{c, d}$ を算出すると,類似度が低いものが多い不均衡なデータセットになる.そこで,類似度の小数点第一位が同じものが 5 個以下になるように $Y^{d}$ をランダムに削除した. 次に, $D_{\text {mask }}$ では, $y$ は $D_{\text {ret }}$ と同じものを用い, $\boldsymbol{Y}^{d}$ のうち, $\boldsymbol{Y}^{c}$ に含まれないトークンを 1 , それ以外を 0 として $\boldsymbol{L}^{c, d}$ を作成した. 最後に, $D_{\text {gen }}$ では, $D_{\text {ret }}$ 作成時に算出した類似度を用い, 各 $\boldsymbol{X}^{c}$ に対して 10 件の $\boldsymbol{Y}^{d}$ を抽出し, $\mathscr{D}_{\text {mask }}$ の $\boldsymbol{L}^{c, d}$ から $\overline{\boldsymbol{Y}}^{d}=\operatorname{MASK}\left(\boldsymbol{Y}^{d}, \boldsymbol{L}^{c, d}\right)$ を得ることで $Z$ を作成した. 表 1 にそれぞれの詳細を示す. 設定: 本稿では, 提案手法, 検索と生成モジュー ルを用いた retrieve-and-edit, 検索モジュールのみの retrieval, 生成モジュールのみの simple generation を実装した。これらの手法は,事前学習済みモデルを fine-tuning することで学習され,BERTには HaggingFace 社 [13] の bert-based-cased を,T5には t5-baseを用いた. retrieve-and-edit の生成モジュールは検索された解説文をマスクしない $\mathscr{D g e n}_{\mathrm{gen}}$, simple generation は提供データセットを用いて fine-tuning した. また, fine-tuning 時は RAdam [14]による最適化を行い, multi-decoding では, $k=7$ とした. ## 3.2 結果 表 2 に文法誤り解説文生成の評価結果を示す. 表中の値は, BLEU [15] による自動評価と, Generation Challenge 2022 による 1 名のラベラーの人手評価を表す. 表より,自動評価,人手評価の両方で multi-decoding を用いた提案手法が最高性能を達成した. 提案手法では, multi-decoding によって一つの入力文に対して複数の解説文が生成され,より正解に近い解説文を選択できたために性能が向上したと考えられる.実際に,同じ入力に対して異なるマスクされた解説文を用いることで,異なる解説文が生成されていた。一方, retrieve-and-editでは multi-decoding による性能向上は起こらず,同じ入力文に対して異なる検索された解説文を用いても,表 1 各データセットのデータ数 表 2 文法誤り解説文生成における評価結果 全く同じ解説文を生成することがほとんどであった. そのため, retrieve-and-edit は検索された解説文を活用して新たな解説文を生成するのではなく,入力文に対してスクラッチで解説文を生成していると考えられる. また, simple generation よりも性能が高いのは,単純に学習データ量が多かったためだと考えられる,以上より,提案手法では入力のマスクを予測するように解説文を生成でき,検索した解説文を従来手法よりも有効に活用できると考えられる。 また,提案手法の推論時にマスクモジュールの予測結果ではなく,オラクルを用いた場合の性能も表に示す。表より,検索された解説文に対してオラクルのマスクを用いると,性能が大幅に向上することが示された. これは,各モジュールを個別に最適化しているために,誤りを含む予測結果の入力が生成の性能を劣化させたためだと考えられる。この性能の劣化は multi-decoding によって低減できるが,より性能を向上させるためには,学習時に予測結果を入力するなど,学習方法を再検討する必要がある. ここでの実際の出力結果の例は付録に示す. ## 4 おわりに 本稿では, 文法誤り解説文生成のための, retrieval, masking, and generation を提案した. 提案手法は,マスクされた解説文を大力に用いることで,マスクトークンを予測するように解説文を生成する.また,提案手法は各モジュールの出力をカスケード接続するため, 推論時に上位 1 個だけではなく, $k$ 個の検索された解説文を用いる multi-decoding を提案した. 文法誤り解説文生成を用いた評価実験の結果,提案手法は従来手法より高い性能を達成したが,学習方法に改善の余地があることが示された。 ## 参考文献 [1] Zheng Yuan and Ted Briscoe. Grammatical error correction using neural machine translation. In Proc. Conference of the North American Chapter of the Association for Computational Linguistics (NAACL), pp. 380-386, 2016. [2] Courtney Napoles and Chris Callison-Burch. Systematically adapting machine translation for grammatical error correction. In Proc. Workshop on Innovative Use of NLP for Building Educational Applications (BEA), pp. 345-356, 2017. [3] Marcin Junczys-Dowmunt, Roman Grundkiewicz, Shubha Guha, and Kenneth Heafield. Approaching neural grammatical error correction as a low-resource machine translation task. In Proc. Conference of the North American Chapter of the Association for Computational Linguistics (NAACL), pp. 595-606, 2018. [4] Shun Kiyono, Jun Suzuki, Masato Mita, Tomoya Mizumoto, and Kentaro Inui. An empirical study of incorporating pseudo data into grammatical error correction. In Proc. Conference on Empirical Methods in Natural Language Processing and International Joint Conference on Natural Language Processing (EMNLPIJCNLP), pp. 1236-1242, 2019. [5] Ryo Nagata. Toward a task of feedback comment generation for writing learning. In Proc. Conference on Empirical Methods in Natural Language Processing and International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3206-3215, 2019 . [6] Abigail See, Peter J Liu, and Christopher D Manning. Get to the point: Summarization with pointer-generator networks. In Proc. Annual Meeting of the Association for Computational Linguistics (ACL), pp. 1073-1083, 2017. [7] Tatsunori B Hashimoto, Kelvin Guu, Yonatan Oren, and Percy S Liang. A retrieve-and-edit framework for predicting structured outputs. In Proc. Advances in Neural Information Processing Systems (NeurIPS), p. 10052-10062, 2018. [8] Kazuaki Hanawa, Ryo Nagata, and Kentaro Inui. Exploring methods for generating feedback comments for writing learning. In Proc. Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 97199730, 2021. [9] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Proc. Advances in neural information processing systems (NIPS), pp. 5998-6008, 2017. [10] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018. [11] Vladimir I Levenshtein, et al. Binary codes capable of correcting deletions, insertions, and reversals. In Soviet physics doklady, pp. 707-710, 1966. [12] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei $\mathrm{Li}$, and Peter J Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, pp. 1-67, 2020. [13] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander M. Rush. Transformers: State-of-the-art natural language processing. In Proc. Conference on Empirical Methods in Natural Language Processing: System Demonstrations (EMNLP), pp. 38-45, 2020. [14] Liyuan Liu, Haoming Jiang, Pengcheng He, Weizhu Chen, Xiaodong Liu, Jianfeng Gao, and Jiawei Han. On the variance of the adaptive learning rate and beyond. In Proc. International Conference on Learning Representations (ICLR), 2019. [15] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proc. the Association for Computational Linguistics (ACL), pp. 311-318, 2002. ## A 付録 3 章の文法誤り解説文生成の評価実験における生成例を表 A.1,A. $2 ,$ A. 3 に示す.ここで,表 A. 1 は提案手法を,表 A. 2 は retrieve-and-editを用いて生成した解説文を示す。また,表 A. 3 は,提案手法において生成モジュールの入力にマスクモジュールの出力を用いた場合とオラクルを用いた場合の比較を示す. ## 表 A. 1 提案手法の出力結果の例 } \\ 表 A. 3 提案手法におけるマスクの予測とオラクルの比較の例 & \\ マスクされた解説文のうち,太字の文字はマスクトークンではないのに変更された文字を表す. 生成された解説文のうち,赤色の文字はマスクされた解説文に含まれない文字を表す.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P11-9.pdf
# 原文の書き換えによる広告文生成 村上 聡一朗 1 菊田 洸 ${ }^{1}$ 張 培楠 1 上垣外 英剛 2,4 高村大也 3,4 奥村 学 4 1 株式会社サイバーエージェント 2 奈良先端科学技術大学院大学 3 産業技術総合研究所 4 東京工業大学 \{murakami_soichiro,kikuta_ko,zhang_peinan\}@cyberagent.co.jp kamigaito.h@is.naist.jp takamura.hiroya@aist.go.jp oku@pi.titech.ac.jp ## 概要 本研究では商品ぺージ等から抽出した文 (原文) を広告文として用いることを狙い,原文の体裁を整える書き換えモデルを提案する。同モデルでは,原文の長所である忠実性をいかに損なわず啇切な広告文へ書き換えられるかが重要な課題となる。これに対し本研究では,書き換えモデルの学習データの忠実性を高めることで同モデルの忠実性を保証する方法を試みる.自動評価および人手評価の結果,書き換えモデルにより原文の忠実性を保ちつつ広告として適切な文へ書き換えられることを確認した。 ## 1 はじめに 広告文は,消費者の興味を惹きつけ,商品・サー ビスの申込みや購入といった購買行動を促す重要な役割を担っている. その一方で,急拡大するオンライン広告の需要に伴い人手による広告制作は限界を迎えつつあり,広告制作の自動化が期待されている。近年ではニューラルベースの生成型手法が盛んに研究されている $[1,2,3]$. しかし, 生成型手法には入力の商品説明ページ (Landing Page; LP)と一貫しない出力,すなわち忠実性の低い文を生成してしまう致命的な問題が指摘されており, 自動生成技術を広告制作現場で運用する上で大きな障壁となっている [4]. そのため, 正確な広告文の制作が求められる実運用では,誤りの可能性がほとんど無いテンプレート [5] や抽出型手法 [6] が重宝されている. 本研究では,LP から広告見出し文(以下,広告文)を生成する問題 $[2,3,7]$ を例として,抽出型手法に焦点を当てる. 図1のように,LPには購買行動を促すような有益な文が多く含まれる。しかし,抽出型手法により有益な抽出文(以下,原文)が得られたとしても広告文の文長制約1) や不要な記号を含 1) Google 広告では全角 15 文字の文字数制限を設けている. 図 1 書き換えモデルの適用例 む等の理由から広告として使用できないことが多々ある [8]. 例えば,図 1 の原文 (22 文字) は不要な記号「四を含み,文長制約も超過するため広告文として利用できない. したがって原文を適切に加工する必要がある. Fujita [8] らは依存木の刈り込みによる広告文生成手法を提案したが,刈り込みパターンを人手で構築する必要があるという課題があった. 本研究では,原文の文長や文体等の体裁を整える処理を系列変換問題として考え,原文から広告文を生成する書き換えモデルを提案する. 本研究では,後述する方法 (§2.1) によって構築した原文と広告文のペアデータを用いてモデルを学習する。ここで最も配慮すべきことは,原文の忠実性を損なわずに広告として適切な文へ書き換えることができるかであり,忠実性の保証は最重要課題である.そこで本研究では, 忠実性の高い学習データが生成型要約の忠実性改善に寄与したという報告 [9] に基づき,書き換えモデルの学習データの忠実性を高めることで忠実性を保証できないかと考えた。具体的には原文と広告文の入出力ペアを構築する際に忠実性の低いぺアを除去することで学習データの改善を狙う,加えて,フィルタリングによって学習事例数が減少し生成品質が劣化する問題に対して,本来除外される全ての事例を活用する学習方法を導入し, 生成品質の改善に寄与するかを検証する. 自動評価と人手評価の結果,提案モデルにより忠実性を保ちつつ広告として適切な文へ書き換えできることを確認した。 ## 2 提案手法 本研究では,LP から抽出された原文から適切な文長かつ文体を満たす広告文を生成する書き換えモデルを提案する. 広告データは各 LP に対して複数の広告文が対応するデータである. $N$ 文の原文を含む LPを $X=\left[x_{1}, x_{2}, \ldots, x_{N}\right] , M$ 文の広告文集合を $Y=\left.\{y_{1}, y_{2}, \ldots, y_{M}\right.\}$ と表記する. なお,原文 $x_{i}$, 広告文 $y_{j}$ は単語系列である. 本研究では, モデルに事前学習済み Transformer [10] を用い,原文 $x_{i}$ から広告文 $y_{j}$ を生成する系列変換問題を後述の学習デー タにより追加学習する. 以降では,書き換えモデルのデータセット構築および学習方法を説明する. ## 2.1 データセット構築 書き換えモデルの学習データとして,原文 $x_{i}$ と広告文 $y_{j}$ のペアを作成する. 本研究では文書要約の先行研究 $[11,12]$ に倣い,各原文と広告文の ROUGE-1 (再現率) スコア [13] に基づいて文ペア $\left(x_{i}, y_{j}\right)$ を作成する. 以降では,文ペア $\left(x_{i}, y_{j}\right)$ の同スコアを $\operatorname{Score}\left(x_{i}, y_{j}\right) \in[0,1]$ と表記する. 本研究では,原文 $x_{i}$ の単語を多く含む広告文 $y_{j}$ からなる文ペア,すなわちスコアが高い文ぺアは忠実性が高いと仮定する。したがって,まず全ての原文 $x_{i}$ と各広告文 $y_{j}$ のスコアを算出し,スコアが高いぺアを優先してデータセットへ加える. 本研究では, より多くの文ペアを作成するために各広告文 $y_{j}$ と全ての原文 $X$ のスコアを算出したのち,スコアが上位 10 件の文ペアをデータセット $D へ$ 追加する.しかし,Yの中には原文 $x_{i}$ と対応付けが難しい広告文 $y_{j}$ も多く存在しており, 結果的に忠実性の低いぺアが Dに混入する恐れがある。 そのため本研究では, $\operatorname{Score}\left(x_{i}, y_{j}\right)$ が閾値 $\alpha$ 未満の文ペアを DD から除去することで,より忠実性の高い学習データを構築する.本稿では,フィルタリング後の閾値 $\alpha$ 以上のペアからなる学習データを $D_{\geq \alpha}$ と表記する. ## 2.2 学習方法 フィルタリングにより学習データの忠実性は期待できる一方で,学習事例数が減少することで生成文の品質が劣化することが懸念される. そこで本研究では,以下の各手法により学習事例数を減らすことなく生成文の忠実性を保証できるか検証する。 2 段階追加学習 (Two-stage Training) Dには間值 $\alpha$ 未満の忠実性が低い文ペア(以下,ノイズ)も含まれるが,出力側は人手で書かれた品質の高い広告文であるため,全ぺアデータ Dを学習に活用したい。そこで,全学習事例 Dとフィルタリング後の $D_{\geq \alpha}$ に対する 2 段階追加学習を実施する. 具体的には,まず事前学習済み Transformerに対して Dを用いた 1 回目の追加学習を行い,その後,より忠実性の高い $D_{\geq \alpha}$ を用いた 2 回目の追加学習を実施する。これにより, 1 回目で広告文の生成方法を獲得し, 2 回目で忠実性を改善することを期待する. タグによる制御 (Control Codes) Dの各文ぺア $\left(x_{i}, y_{j}\right)$ の忠実性をスタイルと見なし, タグにより生成文の忠実性を制御する。具体的には先行研究 [14] に倣い,入力の先頭に各文ぺアの忠実性を表すタグを連結する.各文ぺアの忠実性を表す指標として $\operatorname{Score}\left(x_{i}, y_{j}\right)$ を用い,同スコアを 5 つの区間に等分割することで各区間に対応するタグ (<S0>, <S8> 等) を作成する.ここで, $\left.\langle\operatorname{SO}>\right.$ は $\operatorname{Score}\left(x_{i}, y_{j}\right) \in[0,0.2]$ の文ペア, <S8> は $\operatorname{Score}\left(x_{i}, y_{j}\right) \in(0.8,1]$ の文ペアに付与するタグを表す。これにより,学習時に全ての事例を活用できる.推論時には<S8>を用いることで忠実性が高い文が生成されることを期待する. ## 3 実験 書き換えモデルの効果検証のために,原文が事前に与えられる設定で同モデルの有用性を検証する。 ## 3.1 実験設定 データセット (1) 広告データの収集,(2) 原文-広告文ペア構築の工程により書き換えモデルのデータセットを構築した。(1) まず Web 上の広告配信デー タから全 31 社分の広告データ (以下,元データ)を 24,525 件用意し,15,000 件,4,919 件,4,606 件の学習, 開発, 評価データへ分割した. ここでLP と広告文集合のセット $(X, Y)$ が 1 件であり, $X$ と $Y$ に含まれる平均文数はそれぞれ 212.2 文,12.5 文である. (2) 次に,元データから $\$ 2.1$ の手法により原文-広告文のペア $\left(x_{i}, y_{j}\right)$ を作成した. 元データには同じ広告文も含まれるため重複削除を行った。その結果,書き換えモデルの学習, 開発,評価データとして 39,430 件, 534 件,1,824 件のペアが得られた.ここで,学習データはフィルタリング前のデータあり,開発,評価データには間值 $\alpha$ が 0.7 以上のぺアを採用した。構築したペアデータの例を付録 $\mathrm{A}$ に示す. 実装書き換えモデルには事前学習済み mT5 [15] を用いる。その他の詳細は付録 B に記載する。 表 1 「日本語が不適切」と人手でラベル付けされた例。 なお,[NE] は社名・サービス名等の秘匿化処理を表す。 アニカ車\&カーシェア,【1】個人事業主キャッシングリボ払いまとめ $[N E]$ 銀行,[NE][NE] 伊東市の宅配 自動評価生成文の品質を測るために参照文との単語一致に基づくROUGEを使用する. 生成文の忠実性を測る指標として生成文中の単語のうち原文に含まれる割合,すなわち単語被覆率 (以下,被覆率) を用いる。しかし, 被覆率では原文と生成文で言い回しが異なる表現 (“50\%OFF”, “半額”) の忠実性を考慮できないため人手評価も実施する。 また, 生成文が広告文における文長制約を満たすかを評価する。本研究では,広告見出し文の入稿規定 ${ }^{2}$ に従い,文長が全角 15 文字以内の生成事例の割合を報告する. さらに,生成文の自然さを測る指標として,パープレキシティ (PPL)を使用する. PPL の算出には評価データとは異なる 128,920 件の広告文で追加学習したGPT-2 [16] を用いた. また生成文が広告として適切な文であるかを評価するために,株式会社サイバーエージェント社内で過去に生成された広告文に対して広告品質チェックの専門家が「広告として日本語は適切か」を 2 值 (適切, 不適切) でラベル付けしたデータセットを用い,広告文としての適切さを評価するモデルを構築した. 表 1 に人手で「不適切」とラベル付けられた事例を示す。これらの文は 「不要な文字」「単語の繰り返し」「単語のつながりの不自然さ」等の理由により「日本語が不適切」とラベル付けされている. なお, 本研究では適切さを評価するモデルを容認度判定モデルと呼称し, 「適切」 と予測された生成事例の割合を報告する. 同モデルの評価データにおける $\mathrm{F}$ 值(マクロ平均)は 0.812 であった. その他の同モデルの詳細は付録 $\mathrm{C}$ に示す. 人手評価忠実性(原文が生成広告文を含意するか), 流暢性(内容が理解でき自然な文であるか)について 3 人の評価者による 2 段階評価(はい,いいえ)を実施した. 評価データから無作為抽出した 200 件を評価対象とし, 各事例について 2 人以上が 「はい」と答えた割合を報告する。 ## 3.2 実験結果 表 2 に評価対象のモデルおよび実験結果を示す.実験では,学習データの忠実度が生成品質に与える影響と $\$ 2.2$ の学習方法を検証するために複数モデル  を用意した. ここで,学習データゆで訓練したモデルを BASELINE D, 閾値 $\alpha$ のフィルタリングを適用したデータ ( $\mathscr{D}_{\geq 0.5}$ 等) で訓練したモデルを FILTER $\mathscr{D}_{\geq 0.5}$ と表記する.なお,フィルタリング後の各データ $\left(D_{\geq 0.5}, \mathscr{D}_{\geq 0.7}, \mathscr{D}_{\geq 0.9}\right)$ の事例数は, 11,022 件, 3,291 件,1,688 件である。また, BASELINE $D$ に対してフィルタリング後のデータ (D $\geq 0.9$ 等) で 2 回目の追加学習を実施したモデルを Two-STAGE $\mathscr{D}_{20.9}$, タグで忠実性を制御するモデルを CONTROL 8 と表記する. ## 3.2.1フィルタリングによる劣化を低減できるか ROUGE スコアにより各モデルの生成品質を考察する. FILTER $D_{\geq 0.9}$ 以外は高いスコアを得ることができた. FILTER $D_{\geq 0.9}$ ではフィルタリングにより学習事例数が 1,688 件に削減されたことで十分な学習が出来ず生成品質が劣化したことが示唆される.これは PPL からも同モデルの生成品質が低いことが推察できる。また,BASELINE $力$ に対して 2 回目の追加学習をするモデル (Two-STAGE $\mathscr{D}_{\geq 0.5}$ 等) では, フィルタリング済みのデータだけを訓練に用いるモデル (FILTER $D_{20.5}$ 等) と比べてスコア改善が見られた.この結果から 2 段階追加学習はフィルタリングによる生成品質の劣化を低減できていることが推察できる. 同様に,タグで忠実性を制御する CONTROL $。$ は BASELINE وから改善が確認できた.これはタグ制御により生成文の忠実性が改善したことで,参照文と類似した文が生成できたためと考えられる。 ## 3.2.2 学習データの忠実度が生成品質に与える影響 生成文中の単語のうち原文に含まれる単語の割合を表す被覆率と人手評価に基づく各モデルの忠実性とを比較する.表 2 の結果から,より忠実度の高いデータ $\left(D_{\geq 0.7}, \mathscr{D}_{\geq 0.9}\right)$ で学習した Two-STAGE $D_{\geq 0.7}$, TwO-STAGE $\mathscr{D}_{\geq 0.9}$ は被覆率が高く, 人手評価においても原文に対して忠実な文と判定される割合が高いことを確認した. 表 4 に各モデルの生成例および忠実性の人手評価で「はい」と答えた人数を示す.表 4 に示すように,被覆率が高い Two-STAGE $\mathscr{D}_{20.7}$, Two-STAGE $\mathscr{D}_{\geq 0.9}$ は原文 (表題中の下線) から抽出的に生成することで忠実性を高めていることが分かった.しかし被覆率を高めるだけでは流暢性が損なわれる恐れがある。そこで流暢性を人手評価したところ,各モデルの流暢性はいずれも高いことを確 情報を含む不自然な生成文が多く, 評価者にとっ モデルの評価結果. ROUGE-1,ROUGE-2,ROUGE-L (R-1,R-2,R-L) は F 值を表す. 各列の最高値を太字で表す. 表 3 表 4 原文「保証料 0 円! 一部繰上返済手数料 0 円! 返済シミュレーションはこちら」の書き換え結果 て内容の理解が難しいことから流暢性が比較的低い結果となった. 以上の結果より Two-STAGE $D_{\geq 0.7}$, Two-STAGE $\mathscr{D}_{\geq 0.9}$ は忠実性と流暢性が優れていることが分かった. ## 3.2.3 原文を適切な広告文へ書き換えられるか 書き換えモデルによって原文から広告として日本語が適切な文を生成できるかを評価するために,原文と生成文が容認度判定モデルで「適切」と判定された割合を比較する.表 2 の結果から FILTER $D_{\geq 0.9}$以外は,原文(0.595)よりも「適切」と判定された割合が高い $(0.648 \sim 0.834)$ ことが確認できた。すなわち,書き換えモデルは広告として使用できない原文を適切な広告文へ書き換える手段として有用であることが示唆される. 表 3 に Two-STAGE $D_{\geq 0.9}$ により原文を書き換えた結果を示す.これらの結果から Two-STAGE $D_{\geq 0.9}$ は,原文に含まれる単語を抽出しつつ,不要な文字を除去することで,原文から広告として適切な文を生成していることを確認できる。 また,参照広告文を容認度判定モデルで評価し たところ,「適切」と判定された割合が比較的低い (0.656) ことが分かった. これは評価データ中に単語が列挙された広告文(例えば,「マンション松本市」)が多く含まれており,こうした文が「不適切」 と判定されたためと考えられる。 ## 3.2.4文長制約を満たすか 原文と生成文について文長制約を満たす割合を比較する。原文の中で文長制約を満たす割合は 0.595 ,生成文は 0.717 0.884 であり,書き換えモデルにより原文の多くを適切な文長へ圧縮できることを確認できた。一方,文長制約を超過する文も残存しており,文長制御 [17] の導入など改善の余地もある. ## 4 おわりに 本研究では,LP から抽出した文を広告として適切な文へ書き換える書き換えモデルを提案した. 評価結果から書き換えモデルが原文を適切な広告文へ書き換える有用な手段であることを確認した。 一方で本研究には数多くの課題が残る. 例えば, データ構築 (§2.1) における忠実性判定では原文と広告文の ROUGE を用いたが,同手法は表層に基づくため同義語に脆弱である.その対策として,表層ではなく 2 文の含意関係 (原文は広告文を含意するか) による判定が考えられる [18]. また,広告では忠実性に加えて魅力度 (消費者を惹きつける内容か) も重視される [2]. 書き換えによる魅力度劣化を防ぐために,魅力度も考慮した手法などが求められる。 ## 謝辞 本研究は,株式会社サイバーエージェントと東京工業大学の共同研究の成果をまとめたものです. ## 参考文献 [1] 村上聡一朗, 星野翔, 張培楠. 広告文自動生成に関する最近の研究動向. 2022 年度人工知能学会全国大会, 2022 [2] J. Weston Hughes, Keng-hao Chang, and Ruofei Zhang. Generating better search engine text advertisements with deep reinforcement learning. In Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, pp. 2269-2277, 2019. [3] Hidetaka Kamigaito, Peinan Zhang, Hiroya Takamura, and Manabu Okumura. An empirical study of generating texts for search engine advertising. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies: Industry Papers, pp. 255-262, 2021. [4] Konstantin Golobokov, Junyi Chai, Victor Ye Dong, Mandy Gu, Bingyu Chi, Jie Cao, Yulan Yan, and Yi Liu. DeepGen: Diverse search ad generation and real-time customization. preprint, arXiv:2208.03438, 2022. [5] Kevin Bartz, Cory Barr, and Adil Aijaz. Natural language generation for sponsored-search advertisements. In Proceedings of the 9th ACM Conference on Electronic Commerce, pp. 1-9, 2008 . [6] Stamatina Thomaidou, Konstantinos Leymonis, and Michalis Vazirgiannis. GrammAds: Keyword and ad creative generator for online advertising campaigns. In Proceedings of the 1st International Conference on Digital Enterprise Design and Management, pp. 33-44, 2013. [7] 村上聡一朗, 星野翔, 張培楠, 上垣外英剛, 高村大也,奥村学. Lp-to-text: マルチモーダル広告文生成. 言語処理学会第 28 回年次大会, 2022. [8] Atsushi Fujita, Katsuhiro Ikushima, Satoshi Sato, Ryo Kamite, Ko Ishiyama, and Osamu Tamachi. Automatic generation of listing ads by reusing promotional texts. In Proceedings of the 12th International Conference on Electronic Commerce, pp. 179-188, 2010. [9] Kazuki Matsumaru, Sho Takase, and Naoaki Okazaki. Improving truthfulness of headline generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1335-1346, 2020. [10] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in Neural Information Processing Systems 30, 2017. [11] Ramesh Nallapati, Feifei Zhai, and Bowen Zhou. Summarunner: A recurrent neural network based sequence model for extractive summarization of documents. In Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence, p. 3075-3081, 2017. [12] Yen-Chun Chen and Mohit Bansal. Fast abstractive summarization with reinforce-selected sentence rewriting. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics, pp. 675-686, 2018. [13] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Proceedings of the ACL Workshop: Text Summarization Branches Out, pp. 74-81, 2004. [14] Katja Filippova. Controlled hallucinations: Learning to generate faithfully from noisy data. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 864-870, 2020. [15] Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, and Colin Raffel. mT5: A massively multilingual pre-trained textto-text transformer. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 483-498, 2021. [16] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. 2019. [17] Yuta Kikuchi, Graham Neubig, Ryohei Sasano, Hiroya Takamura, and Manabu Okumura. Controlling output length in neural encoder-decoders. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1328-1338. Association for Computational Linguistics, 2016. [18] Philippe Laban, Tobias Schnabel, Paul N. Bennett, and Marti A. Hearst. SummaC: Re-visiting NLI-based models for inconsistency detection in summarization. Transactions of the Association for Computational Linguistics, Vol. 10, pp. 163-177, 2022. [19] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Proceedings of 3rd International Conference on Learning Representations, 2015. [20] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Remi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander Rush. Transformers: State-of-the-art natural language processing. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45, 2020. [21] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to Japanese morphological analysis. In Proceedings of the $\mathbf{2 0 0 4}$ Conference on Empirical Methods in Natural Language Processing, pp. 230-237, 2004. [22] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized BERT pretraining approach. preprint, arXiv:1907.11692, 2019. 表 5 原文-広告文ペアの例.なお,[NE] は社名・サービス名等の秘匿化処理を表す. & 【伊豆】今こそしずおか元気旅 \\ 表 6 $ $ 表 7 容認度判定モデルの評価結果 ## A ペアデータの例 表 5 に作成した原文-広告文ペアデータの例を示す. 表中のスコアは,\$2.1 のデータセット構築における原文と広告文の ROUGE-1(再現率)を表す。 本研究では,原文中の単語を多く含む広告文は忠実性が高いと仮定する.例えば表 5 の原文-広告文ペア $(\mathrm{a}, \mathrm{b})$ では,広告文が原文中の単語を全て含むためスコアは 1.000 であり, 広告文の内容も原文と一貫していることから忠実性が高いといえる。また,スコアが低い文ぺア $(\mathrm{h}, \mathrm{i})$ の広告文では,「ブライダル」や「お見積り」と等の原文に含まれない内容が言及されており,忠実性が低いことが分かる. 一方,同スコアが高い文ペアであっても忠実性が高いとはいえない事例も存在する. 例えば文ぺア (c, e) はそれぞれ高いスコアではあるものの, 広告文中の「伊豆」「2,100」といった固有名詞や数字が原文には含まれておらず,原文に対して広告文の内容が一貫しているとはいえない,広告文において固有名詞や数字等は消費者の購買行動に繋がる重要な情報であり,特に正確性に注意を払う必要がある. したがって,今後の課題として固有名詞や数字等の情報が原文と一貫しない事例をデータセットから除去するためのルールや手法の整備などが考えられる。 ## B 実装 モデルパラメータの最適化手法には Adam [19] を使用し,学習エポック数は 5 ,ミニバッチサイズは 10 とした.なお,10 ステップごとの累積勾配に基づいてパラメータを更新している。 入力系列および出力系列の最大文長はそれぞれ 512,256 とした.生成時にはビーム探索を用い,ビーム幅は 5 とした。なお,実装には Transformers [20]を用いており,書き換えモデルとして用いた $\mathrm{mT5}^{3}$ , PPL の算出に用いた $\mathrm{GPT}-2^{4}$ のモデルは脚注に示す通りである. データセットに対する前処理として, Unicode 正規化,アルファベットの小文字化を実施した。また,ROUGE や被覆率などの算出時には MeCab (IPA 辞書) [21]を用いて単語分割した。 ## C 容認度判定モデル 容認度判定モデルは,「入力として与えられた生成文は広告として日本語が適切な文であるか」を判定する二値分類モデルである. モデルには事前学習済み RoBERTa ${ }^{5)}$ [22]を使用し,株式会社サイバー エージェント社内で過去に生成された 56,854 件の広告文に対して広告品質チェックの専門家が「広告として日本語は適切か」を二値(適切,不適切)でラベル付けしたデータセットを用いて追加学習した. 表 6 に学習,開発,評価データおよび各ラベルの事例数の内訳を示す. 表 7 に容認度判定モデルの評価データに対する評価結果を示す.評価データに対する $\mathrm{F}$ 値(マクロ平均)は 0.812 であった. 3) https://huggingface.co/google/mt5-base 4) https://huggingface.co/rinna/japanese-gpt2-small 5) https://huggingface.co/rinna/japanese-roberta-base
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P12-10.pdf
# トポロジカルソートと BERT を用いた日本語文の語順整序 孫鵬 1 大野誠宽 ${ }^{2}$ 松原 茂樹 1 1 名古屋大学大学院情報学研究科 2 東京電機大学未来科学部 sun.peng.z4@s.mail.nagoya-u.ac.jp ohno@mail.dendai.ac.jp matsubara.shigeki.z8@f.mail.nagoya-u.ac.jp ## 概要 日本語では,文法的には間違っていないものの読みにくい語順を持った文が作成される場合がある。本稿では,推敲支援のための要素技術として,読みにくい語順をもった日本語文を読みやすい語順に整える手法を提案する。本手法では,BERTを用いて 1 文内のあらゆる 2 文節間の前後関係を推定し,その推定した前後関係をエッジ,各文節をノードとするグラフに対して,トポロジカルソートを実行することにより,文節を並べ替える。 ## 1 はじめに 日本語は語順が比較的自由であるとされているが,実際には語順に関して選好が存在している. そのため,文法的には間違っていないものの読みにくい語順を持った文が作成されることがある. そのような文の推敲支援を目的に,語順整序に関する研究がいくつか行われている $[1,2,3,4]$. いずれも,既知の係り受け情報,あるいは,同時的に解析し得られる部分的な係り受け情報を用いている. しかし,読みにくい語順の入力文は係り受け解析の精度は低下し,その結果,語順整序の精度も低下するという問題がある. そこで本稿では,係り受け解析を陽に施すことなく,読みにくい語順をもった日本語文を読みやすい語順に整える手法を提案する. 本手法では,BERT を用いて 1 文内のあらゆる 2 文節間の前後関係を推定し,その推定した前後関係をエッジ,各文節をノー ドとするグラフに対して,トポロジカルソートを実行することにより,文節を並べ替える。係り受け情報を利用できなければ語順の候補を絞ることはできず,膨大な候補の中から最適な語順を探索する必要があるが,本手法ではトポロジカルソートを用いることにより効率的に探索する。 (S1) 読みにくい語順を持つ文 (S2) 読みやすい語順を持つ文 図 1 読みにくい文と読みやすい文の例 ## 2 日本語の語順と係り受け 本研究では,日本語母語話者の推敲支援を目的とするため, 文法的に間違っていないが読みにくい語順の文を入力として想定する.日本語母語話者であれば,文法的に誤った語順の日本語文を作ることは稀であるが,語順に関する選好を強く意識しなければ,読みにくい語順の文を無意識に作り出すことがあるためである. 日本語の語順に関する選好としては,格要素は基本的にガ格,二格, ヨ格の順に配置されること, また,その基本的な順序は長い従属関係など他の要因の影響を受けてしばしば変更されることなど $[5,6,7]$ が知られている. 図 1 の 2 文は,共に文法的に正しく,同じ意味を持っており,語順だけが異なる.ここで,四角と矢印はそれぞれ文節,係り受け関係を表す.S1 の語順は,S2 の語順に比べ,読みにくい。これは,文節の「家を」とその係り先文節「出た」の距離が長いためである [8]. このことは,読みやすく文節を並び替える際に,係り受け情報が有益であることを示唆している。 一方,文法的に正しい文は,日本語の構文的制約(後方修飾性,非交差性,係り先の唯一性) [9]を満たす。そのため,語順整序の前に 1 文の係り受け構造を解析できれば,それに基づいて最適な語順の候補を絞ることができる。例えば図 1 の係り受け構造の場合,語順の候補は 6 通り (" $b_{1} b_{2} b_{3} b_{4} b_{5}$ ", " $b_{1} b_{3} b_{4} b_{2} b_{5}$ ", " $b_{2} b_{1} b_{3} b_{4} b_{5}$ ", “ $b_{2} b_{3} b_{4} b_{1} b_{5}$ ", " $b_{3} b_{4} b_{1} b_{2} b_{5}$ ", " $b_{3} b_{4} b_{2} b_{1} b_{5}$ ") となる. 語順整序の従来手法 $[1,10,11,12,13,14,15]$ では,係り受け解析が予め行われていることを前提とし,語順と係り受けの間の選好を用いて,日本語の構文的制約を満たす語順の候補の中から最も適切な語順を同定している. しかし,係り受け解析器は通常, S2 のような適切な語順を持つ文に係り受け情報を付与したコーパスを用いて学習しているため,一般に S1 に対する解析精度は S2 より低下する。 語順整序に係り受け解析を利用しないと,上記の構文的制約に基づいて語順の候補を絞ることはできず,入力文中の全文節から考えられる膨大な数の順列の中から最適な順列を選択する必要がある。 入力文が $n$ 個の文節を持つ場合,考えられる順列の数は $n$ ! 個である(図 1 では, $5 !=120$ ). そのため, $n$ ! 個の候補の中から最適な順列を効率的に探索するアルゴリズムを採用する必要がある. 加えて,文節の並び替えに有効な係り受け情報を利用できないため,係り受け情報を直接使用することなく適切な語順を予測できるモデルを採用する必要がある. ## 3 トポロジカルソート トポロジカルソート $[16,17]$ は,有向非巡回グラフ内の全ノードを順序付けて一次元に並べるアルゴリズムである.概説すると,全てのノードは,それぞれの出力エッジの先にある隣接ノードょりも先行するように,線形に並べられる。例えば,あるノー ド $v$ からノード $u$ のエッジ $v \rightarrow u$ を持つとき,$v$ は $u$ よりも前に来るように順序付けられる. トポロジカルソートは,何らかのソートを行う自然言語処理タスクに応用されている. 例えば, Prabhumoye らは,トポロジカルソートを用いた文整序手法を提案している $[18,19]$. 文整序とは,テキスト中の一貫性を最大化するように,その内部の文を並び替えるタスクであり,複数文書要約 [20],調理手順生成 [21] などに応用される. 彼らの研究では,テキスト内の各 2 文間の相対順序を予測し,その予測結果を各 2 文間の前後関係の制約とみなしている.この制約条件の集合を表現するために,有向非巡回グラフを作成し,それにトポロジカルソートを適用することで最適な文の順序を求める. 文内の語順整序は,構成要素を並べ替えるという点で文整序と似ているため,トポロジカルソートを同様に利用できると考えられる。 トポロジカルソートの時間計算量は $O(|V|+|E|)$ である.ここで, $V$ と $E$ はそれぞれ,有向非巡回グ 図 2 本手法の概要 ラフの全ノードと全エッジの集合を意味する。トポロジカルソートを用いて日本語文を語順整序する場合,有向非巡回グラフは,文中の文節を表すノードと,文節間の前後関係を表すエッジを持つことになる. 入力文が $n$ 個の文節を持つ場合, $|V|$ は $n,|E|$ は ${ }_{n} C_{2}=\left(\begin{array}{l}n \\ 2\end{array}\right)=n *(n-1) / 2$ となるため, トポロジカルソートの時間計算量は $O\left(n^{2}\right)$ となる. したがって, トポロジカルソートは,2 節で述べた計算コストが高くなるという問題を解決することが期待できる. ## 4 提案手法 本手法では,文法的に誤っていないものの読みにくい語順を持った文の入力を想定し,文内の文節を読みやすく並べ替える。概要を図 2 に示す。 まず,読みにくい語順の文の文節列が入力され (図 2 では「私は/家を/都会に憧れ/出た.」),このうち,文末文節を除いた文節集合(図 2 では,\{私は,家を,都会に,憧れ\})から,あらゆる 2 文節の組み合せを取り出し,その 2 文節間の前後関係を BERT を用いて推定する1). 次に,推定した前後関係をエッジ,各文節をノードとする有向グラフを作成し,それが有向巡回グラフであった場合,トポロジカルソートを適用可能な有向非巡回グラフに変換する. 1)なお,日本語の場合,文法的に誤っていない文が入力されたならば,その入力文の文末文節は,語順整序後の文でも必ず文末となるため,並べ替える対象から外している。 変換手法は, Prabhumoye らの手法 [18] のソースコー ドを参照したものとなっており,トポロジカルソー 卜を行う中で,閉路が見つかるたびに,閉路を構成する最後のエッジ(探索済みのノードに再び戻ってくるエッジ)を削除するということを閉路が存在しなくなるまで繰り返す。最後に,上記で作成された有向非巡回グラフに対してトポロジカルソート2)を適用し,各ノード(各文節)を順に並べる。 ## 4.12 文節間の前後関係の推定 2 文節間の前後関係の推定する BERT モデルの概要を図 3 に示す. 入力文の文節列を $B=$ $b_{1} b_{2} \cdots b_{n}$ とするとき, 文末文節 $b_{n}$ を除いた文節集合 $\left.\{b_{1}, b_{2}, \cdots, b_{n-1}\right.\}$ から取り出した 2 文節を $b_{i}, b_{j}(1 \leq i<j \leq n-1)$ とする.このとき, BERTへの人力は, “[CLS] $b_{i}$ [SEP] $b_{j}$ [SEP] $b_{1} b_{2} \cdots b_{n}$ [SEP]" として,サブワード分割を施したものとする. ここで入力文の語順は,文法的には誤っていないため,部分的には適切な語順,すなわち,多くの文節の相対的な位置は, 語順整序後も入力時と変わらず,その情報を入力文は保持していると考えられる. また大力文には, 語順整序に有益な文節間の係り受け情報が暗黙的に含まれていると考えられる。以上より,本手法では,BERT モデルへの入力に入力文全体 $b_{1} b_{2} \cdots b_{n}$ を加えた. BERT の出力は, $b_{i}$ が $b_{j}$ よりも文頭側にある(大力文の語順の正順である)方が読みやすい確率と,文末側にある(入力文の語順とは逆順である)方が読みやすい確率の 2 值である. 高い確率が与えられた前後関係を推定結果とする。 ## 4.2 学習データの作成 BERT モデルの学習データとして,どのようなデータを使用するかも重要となる。単純には,新聞記事文などの読みやすい文に含まれる文節間の前後関係を使用することが考えらえる.このアプローチでは, 1 文中から 2 文節 $b_{i}$ と $b_{j}(i<j)$ を取り出したときに,その文の語順と同一の前後関係 “ $b_{i} \rightarrow b_{j}$ ” に「正順」,その逆の前後関係 “ $b_{i} \leftarrow b_{j}$ ” に「逆順」 のラベルを付与して学習データを作る. その結果,正例「正順」と負例「逆順」は同数となる.しかし,人間が実際に作文した読みにくい文に,このような傾向があるとは考えにくい. 一方,人間が実際に作った読みにくい文の傾向を  図 32 文節間の前後関係の推定例 学習するためには,それらの文から 2 文節の組合せを取り出し, 各々に人手でラベルを付与する必要があり,そのコストは非常に高い. そこで,新聞記事文は読みやすい語順で書かれているという前提で,その各文から読みにくい語順の擬似文を機械的に作成することにした。具体的には,新聞記事文から読点を取り除いた上で,2 節で述べた構文的制約を保持させつつ, ランダムに語順を変更して作成した. このようにして作成した擬似文は,構文的制約を満たすため,文法的な正しさが維持され, 新聞記事文の語順とは異なるため, 読みにくい語順となっていることが想定できる. ## 5 評価実験 本手法の有効性を確認するため,語順整序実験を実施した. 新聞記事中の文から人手で擬似的に作成した読みにくい語順の文に対して本手法を適用し,元の文の語順をどの程度再現できるかを測定した. ## 5.1 実験概要 テストデータ及び開発データには,宮地ら [3] と同じ手順で,京大テキストコーパス [22]をもとに人手を介して疑似的に作成された読みにくい語順の文 1,000 文をそれぞれ用いた。学習データには, 4.2 節で作成した 34,199文を用いた3). 評価では, 2 文節単位一致率(文末文節を除く文節を 2 文節ずつ取り上げ,その順序関係が元の文と一致する割合)[5] と文単位一致率(元の文の語順と完全に一致する文の割合)[2]を測定した。 比較のため,以下の 4 つの手法を用意した. [random]: 文末以外の語順をランダムに変更する. [no reordering]: 入力文をそのまま出力する. [Dep+TS]: 係り受け解析結果をもとに,構文的制約だけでは定まらない語順に対してのみトポロジカル  表 1 実験結果 入力:-つにはどう總理が率いる社会党がなるか。 本手法(正解):一つには總理が率いる社会党がどうなるか。 [Dep+TS]:一つには總理がどう率いる社会党がなるか。 図 4 本手法が正解し, [Dep+TS] が不正解だった例 ソートを用いた語順整序を行う。まず入力文に係り受け解析を施し,その結果をもとに,直接的に係り受け関係にある 2 文節間の前後関係を構文的制約から決定する. 直接的に係り受け関係にない 2 文節間の前後関係は,本手法の BERT モデルにより推定する. 以上によって定めた全 2 文節間の前後関係から構築した有向グラフに対して, 本手法と同じ手順でトポロジカルソートを適用し,語順整序を行う。なお,係り受け解析器には CaboCha[23] を用いた. $[\mathbf{N L M}]$ : 係り受け解析を施すことなく,言語モデルを用いて語順整序を行う.具体的には,まず,入力文に対して,文末を除く2 文節のみを入れ替えたあらゆる語順を考え,それらを候補文とする 4 ). 次に, これらの候補文と入力文の各文に対して言語モデルを適用しスコアを算出し,そのスコアが最大となる文を読みやすい文として出力する.言語モデルのスコアは各トークンの予測確率の対数の和とする。なお,言語モデルには日本語 $\mathrm{GPT}^{5}$ )を用いた。 ## 5.2 実験結果 語順整序結果を表 1 に示す. 2 文節単位と文単位の両指標において本手法が最も高い一致率を達成しており,その有効性を確認した. 図 4 に,本手法が正解し, 次点の [Dep+TS] では不正解だった例を示す. 本手法の出力語順は, 正解の語順と 1 文全体で一致しているのに対し, [Dep+TS] では, 「どう」が 「率いる」に係ると誤って解析し, その誤りを引きずり「どう」の語順の同定に失敗している. $ となる. 係り受け解析を施さないため,単純にあらゆる順列を考えると, 2 節で述べた通り, $n$ ! の候補文ができ,計算量が膨大となる. これを避けるため, 比較手法では, 入力文も部分的には適切な語順を持っていると想定し(4.2 節参照),単純に 1 組の 2 文節だけを入れ替えたものを候補文する. 5) https://github.com/tanreinama/gpt2-japanese } (a) (b) 図 5 本手法の不正解例 表 2 巡回/非巡回に分けた再評価(各一致率) ## 5.3 エラー分析 図 5(a) に本手法の不正解例を示す.この例では、文節「裁判官増員を」と「中心に」の前後関係の推定に失敗し, 図 5(b) の有向巡回グラフが当初作られていた.このように前後関係の推定結果から当初は巡回グラフとなったものに不正解が多く見られた. そこで, 本手法の BERTによる推定結果から作成した有向グラフが,巡回グラフとなった文(次の手順で非巡回グラフに変換された文)と,もともと非巡回グラフとなった文とに分けて再評価した. 結果を表 2 に示す. [no reordering] の数値は, 本手法により当初作成された有向グラフに基づいて各文を上述の 2 クラスに分類し,当該手法を適用した結果である. 両クラスの間で一致率に大きな差はない. 一方, 本手法は, 非巡回グラフとなった文に対する両一致率が巡回グラフとなった文に対するものよりも大きく上回っている. 巡回グラフとなった文は,2 文節間の前後関係の推定結果に一部誤りが含まれることにより巡回グラフとなるため,たとえ,非巡回グラフに変換したとしても,その誤りのエッジが含まれたままであれば,適切な語順を生成できないと考えられる. 2 文節間の前後関係の推定精度の向上,あるいは,巡回グラフの中の誤ったエッジの適切な除去に基づく非巡回グラフへの変換が求められるが,これらは今後の課題である. ## 6 おわりに 本稿では,係り受け解析を陽に施すことなく,読みにくい文を語順整序する手法を提案した. 本手法では,BERT を用いて 2 文節間の前後関係を推定し, その結果に対してトポロジカルソートを適用する。評価実験の結果,本手法の有効性を確認した. ## 謝辞 本研究は, 一部, 科学研究費補助金基盤研究 (C) No. 19K12127 により実施した. ## 参考文献 [1] 横林博, 菅沼明, 谷口倫一郎ほか. 係り受けの複雑さの指標に基づく文の書き換え候補の生成と推䇅支援への応用. 情報処理学会論文誌, Vol. 45, No. 5, pp. 1451-1459, 2004 [2] 大野誠寛, 吉田和史, 加藤芳秀, 松原茂樹. 係り受け解析との同時実行に基づく日本語文の語順整序. 電子情報通信学会論文誌 D, Vol. 99, No. 2, pp. 201-213, 2016. [3] 宮地航太, 大野誠寛, 松原茂樹. 読みにくい語順の文への読点の自動插入. 言語処理学会第 25 回年次大会発表論文集, pp. 1308-1311, 2020. [4] 宮地航太, 大野誠寛, 松原茂樹. 文末からのトップダウン係り受け解析との同時実行に基づく日本語文の語順整序と読点挿入. 言語処理学会第 27 回年次大会発表論文集, pp. 1840-1845, 2021. [5] 内元清貴, 村田真樹, 馬青, 関根聡, 井佐原均. コーパスからの語順の学習. 自然言語処理, Vol. 7, No. 4, pp. 163-180, 2008. [6] Tatsuki Kuribayashi, Takumi Ito, Jun Suzuki, and Kentaro Inui. Language models as an alternative evaluator of word order hypotheses: A case study in Japanese. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 488-504, 2020. [7] Riki Fujihara, Tatsuki Kuribayashi, Kaori Abe, Ryoko Tokuhisa, and Kentaro Inui. Topicalization in language models: A case study on Japanese. In Proceedings of the 29th International Conference on Computational Linguistics, pp. 851-862, 2022. [8] Kazushi Yoshida, Tomohiro Ohno, Yoshihide Kato, and Shigeki. Matsubara. Japanese word reordering integrated with dependency parsing. In Proceedings of the 25th International Conference on Computational Linguistics, pp. 1186-1196, 2014. [9] 内元清貴, 関根聡, 井佐原均. 最大エントロピー法に基づくモデルを用いた日本語係り受け解析. 情報処理学会論文誌, Vol. 40, No. 9, pp. 3397-3407, 1999. [10] Anja Belz and Eric Kow. Discrete vs. continuous rating scales for language evaluation in nlp. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 230-235, 2011. [11] Katja Filippova and Michael Strube. Generating constituent order in german clauses. In Proceedings of the 45th Annual Meeting of the Association of Computational Linguistics, pp. 320-327, 2007. [12] Karin Harbusch, Gerard Kempen, Camiel Van Breugel, and Ulrich Koch. A generation-oriented workbench for performance grammar: Capturing linear order variability in german and dutch. In Proceedings of the 4th International Natural Language Generation Conference, pp. 9-11, 2006 . [13] Geert-Jan M. Kruijff, Ivana Kruijff-Korbayová, John Bateman, and Elke Teich. Linear order as higher-level decision: Information structure in strategic and tactical generation. In Proceedings of the 8th European Workshop on Natural Language Generation, pp. 74-83, 2001. [14] Eric Ringger, Michael Gamon, Robert C. Moore, David M. Rojas, Martine Smets, and Simon Corston-Oliver. Linguistically informed statistical models of constituent structure for ordering in sentence realization. In Proceedings of the 20th International Conference on Computational Linguistics, pp. 673-679, 2004. [15] James Shaw and Vasileios Hatzivassiloglou. Ordering among premodifiers. In Proceedings of the 37th Annual Meeting of the Association for Computational Linguistics, pp. 135-143, 1999. [16] Arthur B. Kahn. Topological sorting of large networks. Communications of the ACM, Vol. 5, No. 11, pp. 558562, 1962. [17] Robert Endre Tarjan. Edge-disjoint spanning trees and depth-first search. Acta Informatica, Vol. 6, No. 2, p. 171-185, 1976. [18] Shrimai Prabhumoye, Ruslan Salakhutdinov, and Alan W. Black. Topological sort for sentence ordering. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 2783-2792, 2020. [19] Vishal Keswani and Harsh Jhamtani. Formulating neural sentence ordering as the asymmetric traveling salesman problem. In Proceedings of the 14th International Conference on Natural Language Generation, pp. 128-139, 2021. [20] Regina Barzilay and Noemie Elhadad. Inferring strategies for sentence ordering in multidocument news summarization. Journal of Artificial Intelligence Research, Vol. 17, No. 1, pp. 34-35, 2002. [21] Ramesh Nallapati, Feifei Zhai, and Bowen Zhou. Summarunner: A recurrent neural network based sequence model for extractive summarization of documents. In Proceedings of the 31st AAAI Conference on Artificial Intelligence, pp. 3075-3081, 2017. [22] Sadao Kuroashi and Makoto Nagao. Building a Japanese parsed corpus while improving the parsing system. In Proceedings of the 1st International Conference on Language Resources and Evaluation, pp. 719-724, 1998. [23] 工藤拓, 松本裕治. チャンキングの段階適用による日本語係り受け解析. Vol. 43, No. 6, pp. 1834-1842, 2002 .
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P12-11.pdf
# 部分木の類似性に基づく言語生成技術の自動評価 帖佐 克己, 平尾努 NTTコミュニケーション科学基礎研究所 \{katsuki.chousa.bg, tsutomu.hirao.kp\}@hco.ntt.co.jp ## 概要 系列変換モデルの発展により,言語生成技術の性能は飛躍的に向上し, 多様な表現で流暢な文を生成できるようになってきた。言語生成技術をさらに発展させるには自動評価法が必要となるが,単語の一致に基づく従来の自動評価法は参照テキストと同じ意味を持つテキストであっても表現が異なれば低いスコアしか与えられない。一方,単語埋め込みべクトルを活用した自動評価法は,単語の類似性を重視するため, 似たような単語列であれば意味が違っても高いスコアを与える.こうした問題を解決するため,本稿では,2つの文の間の類似性を構文木の類似性に基づき決定する手法を提案する.WMT Metric Shared Task のデータセットを用いて人手評価との間の相関を調べた結果,提案法は教師データを必要にしないにもかかわらず,既存手法と同等以上の高い相関を達成した。 ## 1 はじめに 言語生成技術の性能は系列変換モデル,特に Transformer モデル [1] の発展とともに大きく向上した.ニューラルネットワークを用いることで語の類似性をよく捉えることができ,多様な表現のテキストを生成できる. 言語生成技術の自動評価指標には,生成されたテキストとあらかじめ用意された参照テキストとの間の単語列の一致に基づく類似度が広く用いられている。機械翻訳の場合は,BLEU [2], 自動要約の場合は ROUGE [3] という $\mathrm{N}$ グラムの一致率を利用した手法がデファクトスタンダードであるが,N グラムの一致率という表層的な情報に基づく手法には,参照テキストと同じ意味のテキストであっても,表現が異なれば不当に低いスコアを与えるという問題がある. この問題に対して, 近年提案された BERTScore [4] や BLEURT [5] では, 単なる表層上の一致に頼らず,BERT [6] などの事前学習済みモデルから得られる単語や文の文脈埋め込みべ I saw a girl with a telescope 図1表層情報がほとんど同じなのに構造および意味が異なるテキスト対の例 クトルを活用し,参照テキストと生成されたテキストとの間の類似度を計算する。 しかし, これらの研究ではテキストがその背後に持つ句構造や依存構造などの構文構造, 修辞構造のような談話構造を利用していない. たとえば図 1 に示したテキスト対では,表層情報のみに着目すると telescope と dog という名詞 1 つが異なるだけの意味の似た文に見えるが,その構造にも着目すると左のテキストでは前置詞句 ( $\mathrm{PP}$ ) が動詞句 (VP) の直接的な子であるのに対して,右のテキストでは前置詞句は名詞句(NP)の子となっていることから,その意味も異なることがわかる. このようなテキストを構成する単語がほぼ同じなのに意味が異なるようなテキスト対などに対して,BLEU などの表層情報の一致に基づく手法では曖昧性を解消できないことから不当に高いスコアを与えてしまう。また, BERTScore などでも単語の類似性を重視するため,同様に不当に高いスコアを与えてしまう.この問題に対して,テキストの構造は曖昧性を解消し,テキスト間の差異を捉える有用なヒントとなり得るが, その有用性は明らかにはなっていない. 本稿では,構文木の間のアラインメントとその埋め込みべクトルの類似度に基づいた言語生成技術の自動評価法を提案する. 2 つのテキストの部分木を列挙した後,いくつかの制約の下での部分木間のアラインメントを決定し,最後にアラインメントに基づいた部分木間のべクトル類似度を元にテキスト間の類似度を計算する. WMT20 および WMT21 の Metrics Shared Task のデータセットに対して,提案 手法と人手による評価との間の相関を調べたところ,提案手法は教師データを必要としないにも関わらず,タスクに参加した既存手法と比べて同程度もしくは高い相関を達成した。 ## 2 関連研究 BLEU [2] や ROUGE [3] に代表される N グラムの一致率に基づく自動評価法では言い換えを正しく同定できないことから,近年は大規模事前学習済みモデルによる単語や文の文脈埋め込みべクトルに利用した手法が提案されている. BERTScore [4] は,テキストのトークンの埋め込みベクトルのコサイン類似度に基づいてテキスト間のトークンのアラインメントを決定し,そのアラインメントに基づいてテキスト間の類似度を計算する。この際,埋め込みべクトルの計算に用いられる事前学習済みモデルはファインチューニングを行わないため,教師データを必要としない. WMT18 metrics shared task ではシステム単位での自動評価において人間の評価結果と高い相関があることが報告されている。 一方で, BLEURT [5] では, BERT [6] の最終層の [CLS] ベクトルの上に線形層を追加して類似度を計算する. 機械翻訳の自動評価に利用するため, BERT および線形層のパラメータは,人手でアノテートされた翻訳評価データを用いて追加学習される. よって, 人手で作成された教師データが必要となる. また,系列変換モデルによる言い換え生成を利用した手法も提案されている. Prism [7] は, Seq2Seq モデルとして作成した言い換え生成器を用いて, 参照訳から翻訳文,もしくはその逆の方向で言い換えを生成した際のスコアを評価値とする手法を提案している.このとき, 言い換え生成器は多言語翻訳モデルを学習することで実現され,それによりゼロショット翻訳タスクと同様の枠組みで同一言語間の言い換えの生成を行う。また,Prism は 39 言語に対応しており, WMT19 metrics shared task のセグメント単位での自動評価において他のすべての手法と同程度もしくは高い相関を達成している. 事前学習済みモデルには潜在表現として構文情報が保持されているという分析 [8] が行われているものの, 先行研究の評価はサブワードや文という単位に基づいて計算されることから,得られるスコアもその計算の単位により制限されてしまい,表層情報が似ているが意味が異なる文対に対して不当に高 いスコアを与えてしまう恐れがある. こうした問題の解決のため,構文情報は有用であると考えられるが,文対の間の構文の違いを明示的に利用した自動評価法は提案されていない. もちろん,構文解析分野において,2つの構文木の違いを評価する指標は提案されている $[9,10,11]$. ただし, これらは, 同じ文に対する異なる構文木を評価するものである。つまり,文が一致している場合にしか利用できないので言語生成技術の自動評価には利用できない. ## 3 提案手法 本稿では,構文木の部分木の間のアラインメントとその埋め込みべクトルの類似度に基づく自動評価法を提案する. 提案法は(1)2つの構文木の部分木を列挙した後,(2)部分木間のアラインメントを求め,最後に(3)アラインメントに基づいた部分木間のべクトル類似度を用いて 2 つの文の間の評価スコアを計算する。 (1) テキストの部分木の列挙 2 つのテキスト $x=\left.\langle x_{1}, \cdots, x_{i}\right.\rangle$ と $y=\left.\langle y_{1}, \cdots, y_{j}\right.\rangle$, およびその埋め込みべクトルである $\left.\langle\boldsymbol{x}_{1}, \cdots, \boldsymbol{x}_{i}\right.\rangle$ と $\left.\langle\boldsymbol{y}_{1}, \cdots, \boldsymbol{y}_{j}\right.\rangle$ が与えられたとする。 まず,与えられた 2 文の構文を解析する。次に, アラインメントを取る対象とする部分木を列挙する. 構文木として依存構造木を採用し, 部分木として単一のノード,葉から各ノードへのパス,任意のノードとその子孫を列挙する。このとき,テキスト $x$ の部分木を $s_{m}$, 部分木 $s_{m}$ に含まれる単語の添字列を $\operatorname{idx}\left(s_{m}\right)$ と定義し, 部分木 $s_{m}$ に対応するべクトルを $ \boldsymbol{s}_{m}=\frac{\sum_{k \in \operatorname{idx}\left(s_{m}\right)} \boldsymbol{x}_{k}}{\left.\| \operatorname{idx}\left(s_{m}\right)\right) \|} $ のように計算する. また,テキスト $y$ の部分木 $t_{n}$ に対しても同様に定義,計算を行う. (2) 部分木間のアラインメント次に,列挙した部分木 $s_{m}, t_{n}$ の間のアラインメントを求める. このとき,列挙されたすべての部分木の間で対応付けを行うと,木構造の上での親子関係が逆転するような対応や否定の関係にある対応が得られてしまうという問題が考えられる。この問題の影響を低減するため, 本手法では対応付けられるのは同じ単語長 $l$ を持つ部分木間のみに限るという制約を課す。 本手法では,BERTScore [4]を参考にして,個々の部分木に対してもう一方のテキストの部分木から最もスコアの高いものを選択することでアライ ンメントを求める. すなわち,単語長 $l$ の $s_{m}^{l}, t_{n}^{l}$ のそれぞれに対応するもう一方のテキストの部分木 $a\left(s_{m}^{l}\right), a^{\prime}\left(t_{n}^{l}\right)$ は以下の通り求める. $ \begin{aligned} & a\left(s_{m}^{l}\right)=\max _{t_{n}^{l}} \operatorname{sim}\left(\boldsymbol{s}_{m}^{l}, \boldsymbol{t}_{n}^{l}\right) \\ & a^{\prime}\left(t_{n}^{l}\right)=\max _{s_{m}^{l}} \operatorname{sim}\left(\boldsymbol{t}_{n}^{l}, \boldsymbol{s}_{m}^{l}\right) \end{aligned} $ ここで, $\operatorname{sim}(s, t)$ は部分木 $s, t$ 間のスコアを表し,部分木 $s$ の主辞 $\operatorname{head}(s)$ を用いて以下のように表す. $ \operatorname{sim}(s, t)= \begin{cases}\frac{s t}{\|s\|\|t\|} & (\text { head }(s)=\operatorname{head}(t)) \\ 0 & \text { (otherwise) }\end{cases} $ 上記で定義した部分木間のスコアでは,部分木の主辞の一致による対応付けのフィルタリングを行っている。事前に対応付けられる候補をフィルタリングすることにより,対応関係を求める際の計算量を少なく抑えることができる。また,フィルタリングを行わない場合には,対応しない部分木同士の対応に対しても 0 より大きいスコアを割り当ててしまい,類似度尺度に対してノイズとなってしまうことが考えられる。事前にフィルタリングを行って,明確に対応しない部分木間のスコアに 0 を割り当てることで,この問題を軽減されることが期待できる。 このことより, 本手法では主辞に基づく対応付けのフィルタリングを導入している. (3) アラインメントに基づくテキスト間類似度最後に, 各単語長 $l$ の部分木間のアラインメントに基づいたスコアを計算し, それらのスコアから最終的なテキスト間類似度を計算する。 まず,テキスト $x, y$ の間の単語長 $l$ のアラインメントに対するスコア $F_{l}$ を,アラインメントの $x$ に対する平均スコア $P_{l}$ と $y$ に対する平均スコア $R_{l}$ から,以下のように定義する。 $ \begin{aligned} F_{l} & =\frac{2 P_{l} R_{l}}{P_{l}+R_{l}} \\ P_{l} & =\frac{\sum_{s_{m}^{l}} \operatorname{sim}\left(s_{m}^{l}, a\left(s_{m}^{l}\right)\right)}{\text { the number of } s_{m}^{l}} \\ R_{l} & =\frac{\sum_{t_{m}^{l}} \operatorname{sim}\left(a^{\prime}\left(t_{m}^{l}\right), t_{m}^{l}\right)}{\text { the number of } t_{m}^{l}} \end{aligned} $ 次に,上記で得られた複数の単語長のスコアに基づいて,最終的なテキスト間類似度 $F$ を以下の通り求める. $ F=\frac{2 P R}{P+R}, P=\frac{\sum_{l \in I} F_{l}}{\left.\|I_{x}\right.\|}, R=\frac{\sum_{l \in I} F_{l}}{\left.\|I_{y}\right.\|} $ ここで, $I_{x}, I_{y}$ はそれぞれ $x, y$ の部分木のもつ単語長の種類の集合であり, $I=I_{x} \cup I_{y}$ である. ## 4 実験 言語生成タスクの1つである機械翻訳を対象として人間の評価結果との間の相関で提案法のメタ評価を行った。 ## 4.1 設定 データセットには WMT20 および WMT21 の Metrics Shared Task $[12,13]$ のシステムレベルの評価タスクのデータセットを用いた。言語対は目的言語が英語であるもののみ,すなわち WMT20 では $\{\mathrm{cs}, \mathrm{de}, \mathrm{iu}, \mathrm{ja}, \mathrm{km}, \mathrm{pl}, \mathrm{ps}, \mathrm{ru}\}$-en, WMT21 では $\{\mathrm{cs}, \mathrm{de}, \mathrm{is}, \mathrm{ja}, \mathrm{ru}, \mathrm{zh}\}$-en の ref-A と呼ばれる参照訳を用いた1)。ベースラインはそれぞれの年度でタスクに参加していた尺度の中から, WMT20 では Prism [7] と BLEURT [5], WMT21 では Prism と BERTScore [4]を採用した. 評価尺度には, WMT20 に従って, ピアソンの積率相関係数を用いた2). 提案手法における部分木の間の類似度を計算するための事前学習済み言語モデルには, SpanBERT [14] を使用した. WMT20 の ja-en を開発用データセットとし,そのデータセットで最も良い結果を示したことから,構造情報には依存構造を用いた。依存構造解析器には $\mathrm{spaCy}$ の RoBERTa ベースのパイプライン3)を使用した。 ## 4.2 結果 結果を表 1 に示す. WMT20 では pl-enおよび ps-en 以外,WMT21 では zh-en 以外の言語対において,ベースラインと少なくとも同等以上の性能を達成していることがわかる. ベースラインである Prism や BLEURT は大規模な多言語対訳コーパスや人手による評価データを学習データとして必要とするのに対して,提案手法は比較的入手が用意な単言語データで事前学習された言語モデルしか必要としない。こうした教師なし手法にもかかわらず高い性能を達成したことは,言語生成タスクの自動評価において構文構造を考慮することの有効性を示している。一方,提案手法と同様に単言語データによる事前学習済み言語モデルに基づく BERTScore と比べると,一部のデータにおいて相関が大きく低下して  表 1 WMT20/WMT21での各言語対における相関係数. 太字は 3 つの尺度の中で最も良いスコアであることを示す。また,†は開発用データセットであることを示す. 表 2 提案手法を構成する個々の要素のみを変化させた際の相関係数の変化 いる.BERTScore がトークンレベルのアラインメントに基づくのに対して,提案手法はそのアラインメントを構造レベルに拡張したものだとみなすと,部分木という単語よりも大きな系列を対象とするとアラインメントがうまくいかないことがあるのではないかと考える。 ## 4.3 分析 提案手法を構成する個々の要素の貢献を確認するために,構文情報として句構造を用いた際やフィルタリングを行わない際の WMT20 の日英でのデー タに対する相関係数を調べた。句構造解析器には Berkeley Neural Parser [15] ${ }^{4)}$ を使用し, 主辞は Collins のルール [16] に従って決定した. また, 句構造木に対しては,任意のノードとその子孫を部分木として列挙した. 結果を表 2 に示す. まず,使用する構文情報の違いに着目すると,句構造より依存構造を用いたほうが相関が高い.これは,直接的に主辞をモデリングしている依存構造のほうが誤った主辞を用いることが少なくなり,より正確に主辞によるフィルタリングを行えているから 4) https://github.com/nikitakit/self-attentive-parser だ考える。また,主辞フィルタリングを行わない場合に着目すると,大きく相関係数が劣化している. このことより,事前に対応候補をフィルタリングしておくことが自動評価の性能に大きく寄与することがわかる. ## 5 まとめ 本稿では,構文木の間のアラインメントとその埋め込みべクトルの類似度に基づく言語生成技術の自動評価法を提案した. WMT Metrics Shared Task のデータセットを用いたメタ評価の結果,提案手法は大規模な追加データを必要としないにも関わらず既存手法と同程度に人手評価と相関することがわかった.このことより,言語生成タスクの自動評価において構文構造を考慮することが有効であることが示唆された。 ## 参考文献 [1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Proceedings of the NIPS 2017, pp. 5998-6008, 2017. [2] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [3] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 74-81, Barcelona, Spain, July 2004. Association for Computational Linguistics. [4] Tianyi Zhang*, Varsha Kishore*, Felix Wu*, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert. In International Conference on Learning Representations, 2020. [5] Thibault Sellam, Dipanjan Das, and Ankur Parikh. BLEURT: Learning robust metrics for text generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7881-7892, Online, July 2020. Association for Computational Linguistics. [6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the NAACL-2019, pp. 4171-4186, 2019. [7] Brian Thompson and Matt Post. Automatic machine translation evaluation in many languages via zero-shot paraphrasing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), Online, November 2020. Association for Computational Linguistics. [8] John Hewitt and Christopher D. Manning. A structural probe for finding syntax in word representations. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4129-4138, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics [9] Satoshi Sekine and Michael Collins. Evalb, 1997. [10] Joakim Nivre, Johan Hall, and Jens Nilsson. Memorybased dependency parsing. In Proceedings of the Eighth Conference on Computational Natural Language Learning (CoNLL-2004) at HLT-NAACL 2004, pp. 49-56, Boston, Massachusetts, USA, May 6 - May 7 2004. Association for Computational Linguistics. [11] Jason M. Eisner. Three new probabilistic models for dependency parsing: An exploration. In COLING 1996 Volume 1: The 16th International Conference on Computational Linguistics, 1996. [12] Nitika Mathur, Johnny Wei, Markus Freitag, Qingsong $\mathrm{Ma}$, and Ondřej Bojar. Results of the WMT20 metrics shared task. In Proceedings of the Fifth Conference on Machine Translation, pp. 688-725, Online, November 2020. Association for Computational Linguistics. [13] Markus Freitag, Ricardo Rei, Nitika Mathur, Chi-kiu Lo, Craig Stewart, George Foster, Alon Lavie, and Ondřej Bojar. Results of the WMT21 metrics shared task: Evaluating metrics with expert-based human evaluations on TED and news domain. In Proceedings of the Sixth Conference on Machine Translation, pp. 733-774, Online, November 2021. Association for Computational Linguistics. [14] Mandar Joshi, Danqi Chen, Yinhan Liu, Daniel S. Weld, Luke Zettlemoyer, and Omer Levy. SpanBERT: Improving pre-training by representing and predicting spans. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 64-77, 2020. [15] Nikita Kitaev and Dan Klein. Constituency parsing with a self-attentive encoder. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2676-2686, Melbourne, Australia, July 2018. Association for Computational Linguistics. [16] Michael Collins. Head-driven statistical models for natural language parsing. Computational Linguistics, Vol. 29, No. 4, pp. 589-637, 2003.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P12-12.pdf
# 異なる難易度の参照文を用いる多段階難易度制御翻訳 谷 和樹 ${ }^{1}$ 湯浅 亮也 ${ }^{1}$ 田村 晃裕 ${ }^{1}$ 梶原 智之 ${ }^{2}$ 二宮 崇 ${ }^{2}$ 加藤 恒夫 ${ }^{1}$ 1 同志社大学 2 愛媛大学 \{ctwh0176@mail4,ctwh0190@mail4, aktamura@mail,tsukato@mail\}.doshisha.ac.jp \{kajiwara,ninomiya\}@cs.ehime-u.ac.jp ## 概要 本研究では,目的言語文の難易度を多段階で制御する機械翻訳(多段階難易度制御翻訳)のための学習方法として,異なる難易度の参照文を用いる手法を提案する。従来手法では,原言語文と難易度付き目的言語文の文対の単位でモデルの学習を行うため,同一の原言語文に対応付く異なる難易度の目的言語文間を対比させた学習を行えない。そこで本研究では,学習対象の参照文と共に異なる難易度の参照文も使い, 出力が学習対象の難易度から離れるほど大きな損失を与えるぺナルティ項を導入した損失関数を用いる学習手法を提案する. 日英多段階難易度制御翻訳の実験を行い,提案手法により BLEU が 0.66 ポイント改善できることを確認した. ## 1 はじめに 近年,ニューラル機械翻訳(NMT)はますます発展・普及し, 利用者層が幅広くなっている. 従来の一般的な NMT は, 利用者や状況に依らない一律な翻訳を行う。一方で,近年では,出力される目的言語文の表現を制御するための研究が盛んになっている $[1,2,3]$. そのひとつに,ユーザの読解レベルにあわせた翻訳を行うため,原言語文と共に難易度を入力として受け付け,指定された難易度の目的言語文を生成する難易度制御翻訳がある。 初期の難易度制御翻訳では,難易度は 2 段階 [4] であったが,近年では,より柔軟に出力文の難易度を制御するため,3 段階以上の難易度(例えば,小学生, 高校生,一般, 専門家向けなど)を制御可能な多段階難易度制御翻訳 (Multi-Level Complexity Controlling Machine Translation: MLCCMT) [5, 6] の研究が行われている. 先行研究 [5] は英語-スペイン語間の MLCCMT に取り組み,マルチタスクモデルを提案している. マルチタスクモデルは, MLCCMT をメインタスクとし,難易度を制御しない通常の機械翻訳と同一言語内での平易化(単言語平易化) の 2 つのサブタスクと共にマルチタスク学習で学習されるモデルである. また,先行研究 [6] は日英 MLCCMT に取り組み,先行研究 [5] の手法を日英の言語対に適用している。 MLCCMT の学習では,表 1 のような,一つの原言語文が難易度の異なる複数の参照文に対応する教師データを使用できる. しかし, 従来の学習では,原言語文と難易度付き目的言語文の文対の単位で学習を行う。例えば,表 1 の教師データは従来手法では 3 つの教師データ(日本語文-難易度 12 の英語文,日本語文-難易度 7 の英語文,日本語文-難易度 4 の英語文)に分解される.そして,教師データの各文対は独立に扱われる.そのため,難易度 12 の英語文への翻訳を学習する際,難易度 4 や難易度 7 の英語文と対比させた学習を行うことはできない. そこで本研究では,同一の原言語文と難易度の異なる複数の参照文からなる組の単位で MLCCMT モデルを学習する手法を提案する。提案手法では,学習対象の参照文と共に異なる難易度の参照文も使い,出力が学習対象の難易度から離れるほど大きな損失を与えるペナルティ項を導入した損失関数に基づき MLCCMT モデルを学習する.これにより,例えば表 1 の教師データを用いて難易度 12 の英語文への翻訳を学習する際,出力を難易度 12 の英語文に最も近づけ,かつ,難易度 4 の英語文より難易度 7 の英語文に近づけるように学習を行う。 提案手法の有効性を先行研究 [6] で作成された評価データセットを用いた日英多段階難易度制御翻訳の実験で検証した. その結果,提案損失関数を利用することで BLEUが 0.66 ポイント改善でき,提案手法の有効性を確認した. ## 2 従来研究 本節では,MLCCMT の従来研究を述べる. 先行研究 [5] では,MLCCMT の研究が初めて行われ,英 表 1 提案手法で用いる教師データの例 図 1 提案手法の概要図 語-スペイン語間の MLCCMT モデルとしてマルチタスクモデルが提案された. マルチタスクモデルでは,以下の式 (1) の損失関数に基づき,通常の機械翻訳と単言語平易化の 2 つのサブタスクとメインタスクのMLCCMTを1つのモデルで同時に学習する。 $ \begin{aligned} & \text { loss }=L_{M T}+L_{\text {Simplify }}+L_{C M T} \\ & L_{M T}=\sum_{\left(s_{i}, s_{o}\right) \in D_{M T}} \operatorname{CrossEntropy}\left(\left(s_{i} ; \theta\right), s_{o}\right) \end{aligned} $ $ \begin{aligned} & L_{C M T}=\sum_{\left(s_{i}, c_{o}, s_{o}\right) \in D_{C M T}} \text { CrossEntropy }\left(\left(s_{i}, c_{o} ; \theta\right), s_{o}\right) \end{aligned} $ ここで, $\theta$ はモデルパラメータ,$s_{i}$ は原言語文, $s_{o}$ は目的言語文, $s_{o^{\prime}}$ は $s_{O}$ を平易化した文, $c_{o / o^{\prime}}$ は $s_{o / o^{\prime}}$ の難易度である. また, $D_{M T}, D_{S}, D_{C M T}$ は,それぞれ,通常の機械翻訳,単言語平易化,MLCCMT 用の教師データである. 先行研究 [5] では, ベースラインの MLCCMT として,難易度を制御しない通常の機械翻訳モデルと単言語平易化モデルをパイプラインでつなげたパイプラインモデルが実装され,実験でマルチタスクモデルと比較された. その結果,マルチタスクモデルの方が性能が高いことが示されている。これらのモデルの教師データや評価データは,様々な難易度で記述された英語とスペイン語のニュース記事からなる Newselaコーパス1)から自動作成されている. 先行研究 [6] は日英 MLCCMT に取り組んでいる.人手翻訳により日英 MLCCMT 用の評価データセットを作成し, 先行研究 [5] のモデルを日英 MLCCMT に適用し,その性能を報告している。 これらの先行研究で使われている従来の MLCCMT は,原言語文と難易度付き目的言語文の文対の単位で学習されている。そのため,同一の原言語文に対応付く異なる難易度の目的言語文間を対比させた学習を行うことができない. ## 3 提案手法 本節では,学習対象の難易度の参照文と共に異なる難易度の参照文も用いて MLCCMT モデルを学習する手法を提案する.具体的には,指定された難易度の参照文に対する従来の損失と共に,出力と指定以外の難易度の参照文との損失が指定難易度の参照文との損失よりも小さくなることに対して,難易度が離れるほど大きなぺナルティを与える損失関数に基づき MLCCMT モデルを学習する. 提案手法の概要を図 1 に示す. 提案手法では,同一の原言語文と難易度の異なる複数の参照文からなる組の単位で MLCCMT モデルを学習する。表 1 に提案手法で用いる教師データの例を示す. 実験では,英語の多段階難易度コーパス  Newsela-auto [7] の最高難易度の英語文を Google 翻訳で日本語文に翻訳することで日英 MLCCMT の教師データを作成した。作成した教師データは,一つの日本語文に対して難易度がそれぞれ異なる 3 から 5 文の英語文が対応付けられている. 提案手法では,そのまとまり(組)単位で学習を行う。 具体的には,以下の式 (5)の損失関数を最小化することでモデルを学習する。提案損失関数は, 同一の原言語文に対応付けられた難易度の異なる複数の参照文をまとめた組単位で定義される。 $ \begin{gathered} \text { loss }=L_{\mathrm{tgt}}+\alpha \cdot \frac{1}{n-1} \sum_{k=1}^{n-1} d_{k}^{2} \cdot \max \left(L_{\mathrm{tgt}}-L_{\mathrm{sub}_{k}}, 0\right) \\ L_{\mathrm{tgt}}=\text { CrossEntropy }\left(\left(x, c_{\mathrm{tgt}} ; \theta\right), y_{\mathrm{tgt}}\right) \\ L_{\mathrm{sub}_{k}}=\operatorname{CrossEntropy}\left(\left(x, c_{\mathrm{tgt}} ; \theta\right), y_{\mathrm{sub}_{k}}\right) \end{gathered} $ ここで, $\operatorname{tgt} と \operatorname{sub}_{k}$ は, それぞれ, 学習対象の参照文と同一組内の学習対象以外の参照文を表す. $n$ を組内の参照文数とすると, $\operatorname{sub}_{k}$ の数は $n-1(k=1, \ldots, n-1)$ である. そして, $L_{\mathrm{tgt}}, L_{\mathrm{sub}_{k}}, x, y, c, \theta, \alpha, d_{k}$ は,それぞれ, 学習対象の難易度の参照文との誤差, 学習対象以外の難易度の参照文との誤差,原言語文,目的言語文,難易度,モデルパラメータ,ハイパーパラメータ,難易度の差 $\left(d_{k}=c_{\mathrm{tgt}}-c_{\mathrm{sub}_{k}}\right)$ である. 提案損失関数は, 第 1 項目の $L_{\mathrm{tgt}}$ により, 出力を学習対象の参照文に近づける. この項は, 従来の学習で用いられている損失と同じである。これに加えて第 2 項目で, 出力が組中の参照文の中で学習対象の参照文に最も近づくように, $L_{\mathrm{tgt}}-L_{\mathrm{sub}_{k}}>0$ の時にペナルティを与える。この際,表 1 の例のように,難易度が離れるほど語彙や構文が変化して出力が異なる傾向があるため, 難易度の差の二乗 $\left(d_{i}{ }^{2}\right)$ を掛けて,学習対象の難易度から離れた難易度の参照文ほど大きなぺナルティを与える.また,学習対象以外の参照文数 $(n-1)$ は組によって異なるため, その数で割る.このペナルティ項の影響度は八イパーパラメータ $\alpha$ で制御する. $\alpha=0$ のときは学習対象以外の参照文を用いない従来の学習手法と同等になる. ## 4 実験 ## 4.1 実験設定 本実験では,日英多段階難易度制御翻訳の実験により,提案手法の有効性を検証する。評価デー 夕は先行研究 [6] で作成された日英 MLCCMT 用評価データ(1,014 組)を用いた. 教師データは $D_{M T}, D_{C M T}, D_{S}$ の 3 種類のデータを用いた. $D_{M T}$ は,JParaCrawl [8] と News-Commentary $の$ 日英対訳文対からなる機械翻訳用データであり, $D_{S}$ は, Newsela-auto [7] 中の英語文集合毎に抽出した最高難易度の英語文とそれ以外の英語文の対からなる単言語平易化用データである. そして, $D_{C M T}$ は, Newsela-auto [7] 中の各英語文集合に対して, 最高難易度の英語文を Google 英日翻訳で翻訳した日本語文を付与した MLCCMT 用データ(ただし,評価データセット [6] に含まれるデータは除く) である.各教師データのデータ量は付録 A の表 4 に示す. 本実験では提案手法の有効性を検証するため, 3 節で説明した提案手法と,提案手法において八イパーパラメータ $\alpha$ を 0 にしたべースライン手法の性能を比較する。また,2 節で述べた従来のマルチタスクモデルの性能とも比較する. 各モデルは Transformer モデル [9]を採用した. 実装は Fairseq [10]を用いた. マルチタスクモデルでは, 先行研究 [6] と同様に,日英 MLCCMTをメインタスク,通常の日英翻訳と英語多段階平易化をサブタスクとしたマルチタスク学習を行った. 日英 MLCCMT タスクの学習には $D_{C M T}$, 日英翻訳タスクと英語多段階平易化タスクの学習には,それぞれ, $D_{M T}$ と $D_{S}$ を使用した. その他の実験設定は付録 A の表 5 に示す. 提案手法では,まず, $D_{M T}$ を用いて日英 NMT モデルの事前学習を行った.この事前学習の設定は, Kiyono ら [11]に倣った. その後, $D_{C M T}$ を用いて 3 節の提案損失関数により, 事前学習したモデルをファインチューニングした。 ハイパーパラメータ $\alpha$ のチューニングは,検証データに対する BLEU [12] の値に基づいて行った. その結果,提案手法の $\alpha$ は 0.5 とした. チューニングの詳細は付録 A の表 6 に示す. その他の実験設定は付録 A の表 5 に示す. 評価指標は, 先行研究 [6] 同様, 翻訳性能の指標として BLEU [12], 平易化の指標として SARI [13]を用いた. また, 目的難易度の出力文集合から算出した fkgl [14] と目的難易度との平均絶対誤差である $\mathrm{MAE}_{f k g l}$ [15] も用いた. これらの指標の数值は, EASSE [16] を用いて算出した。 ## 4.2 実験結果 実験結果を表 3 に示す. 提案手法及びマルチタスクモデルの性能は,ランダムシードを変更して学習 表 2 翻訳結果の比較(BS:ベースライン手法( $\alpha=0.0)$ ,従来:マルチタスクモデル,提案:提案手法) 表 3 実験結果 した 3 回の実験結果の平均の値である. 表 3 より,提案手法の方がベースライン手法 $(\alpha=0.0)$ の性能よりも高いことが分かる.これより,提案損失関数に基づき,学習対象以外の参照文も用いて学習することで MLCCMT の性能を改善できることが分かり,提案手法の有効性を確認できた。 また表 3 より,提案手法は従来研究 [6] のパイプラインモデルやマルチタスクモデルよりも高い性能を達成できたことが分かる. ただし, 従来研究のマルチタスクモデル [6] の教師データ量は本実験で使用した教師データ量よりも少ないことに注意されたい (付録 A の表 4 参照). 提案手法と教師データ量を揃えた本実験のマルチタスクモデルには,提案手法はわずかに及ばない結果となった. ## 5 考察 本節では,各モデルが出力した翻訳結果の例を比較する.例としてテストデータの中で最も難易度の段階数が多い 5 段階の組から抽出した翻訳例を表 2 に示す. 表 2 において,BS がべースライン手法 $(\alpha=0)$ ,従来がマルチタスクモデル,提案が提案手法である、マルチタスクモデルと提案手法では, 異 なるランダムシードを用いて 3 回実験を行ったため,3つの翻訳結果が得られる。表 2 では,BLEU の値が最も良かったシードを用いた場合の翻訳結果を示している。 表 2 より,ベースライン手法は目的の難易度が異なる場合にも同じ出力をする場合がある.その一方で提案手法は,従来手法のうち最高性能であるマルチタスクモデルと同様に,目的の難易度ごとに適切に異なる出力を行っていることが分かる.これより,提案損失関数によって異なる難易度の参照文を対比させて学習させることで,難易度を制御しやすくなることが実例により確認できた。 ## 6 まとめ 本研究では,多段階難易度制御翻訳のための学習手法として,学習対象の難易度の参照文と共に異なる難易度の参照文も用いて,出力が学習対象の難易度の参照文から離れるほど大きな損失を与えるぺナルティ項を導入した損失関数に基づき学習する手法を提案した。そして,日英多段階難易度制御翻訳の実験を通じて提案手法の有効性を確認した. 今後は,マルチタスクモデルと提案損失関数を組み合わせることで更なる性能改善が実現できるかを検証する予定である. ## 謝辞 本研究は JSPS 科研費 JP22K12177,JP21K12031 の助成を受けたものである. また,本研究成果の一部 は, 国立研究開発法人情報通信研究機構の委託研究 (No. 225) により得られたものである.ここに謝意を表する。 ## 参考文献 [1] Rico Sennrich, Barry Haddow, and Alexandra Birch. Controlling politeness in neural machine translation via side constraints. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 35-40, 2016. [2] James Kuczmarski and Melvin Johnson. Gender-aware natural language translation. In Technical Disclosure Commons, (October 08, 2018), 2018. [3] Andrea Schioppa, David Vilar, Artem Sokolov, and Katja Filippova. Controlling machine translation for multiple attributes with additive interventions. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 6676-6696, 2021. [4] Kelly Marchisio, Jialiang Guo, Cheng-I Lai, and Philipp Koehn. Controlling the reading level of machine translation output. In Proceedings of Machine Translation Summit XVII: Research Track, pp. 193-203, 2019. [5] Sweta Agrawal and Marine Carpuat. Controlling text complexity in neural machine translation. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 1549-1564, 2019. [6] Kazuki Tani, Ryoya Yuasa, Kazuki Takikawa, Akihiro Tamura, Tomoyuki Kajiwara, Takashi Ninomiya, and Tsuneo Kato. A benchmark dataset for multi-level complexitycontrollable machine translation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 6744-6752, Marseille, France, June 2022. European Language Resources Association. [7] Chao Jiang, Mounica Maddela, Wuwei Lan, Yang Zhong, and Wei Xu. Neural CRF model for sentence alignment in text simplification. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7943-7960, 2020. [8] Makoto Morishita, Jun Suzuki, and Masaaki Nagata. JParaCrawl: A large scale web-based English-Japanese parallel corpus. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 36033609, Marseille, France, May 2020. European Language Resources Association. [9] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems, Vol. 30, 2017. [10] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computa- tional Linguistics (Demonstrations), pp. 48-53, 2019. [11] Shun Kiyono, Takumi Ito, Ryuto Konno, Makoto Morishita, and Jun Suzuki. Tohoku-AIP-NTT at WMT 2020 news translation task. In Proceedings of the Fifth Conference on Machine Translation, pp. 145-155, 2020. [12] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, 2002. [13] Wei Xu, Courtney Napoles, Ellie Pavlick, Quanze Chen, and Chris Callison-Burch. Optimizing statistical machine translation for text simplification. Transactions of the Association for Computational Linguistics, Vol. 4, pp. 401-415, 2016. [14] J Peter Kincaid, Robert P Fishburne Jr, Richard L Rogers, and Brad S Chissom. Derivation of new readability formulas (automated readability index, fog count and flesch reading ease formula) for navy enlisted personnel. Technical report, Naval Technical Training Command Millington TN Research Branch, 1975. [15] Daiki Nishihara, Tomoyuki Kajiwara, and Yuki Arase. Controllable text simplification with lexical constraint loss. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics: Student Research Workshop, pp. 260-266, 2019. [16] Fernando Alva-Manchego, Louis Martin, Carolina Scarton, and Lucia Specia. EASSE: Easier automatic sentence simplification evaluation. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP): System Demonstrations, pp. 4954, Hong Kong, China, November 2019. Association for Computational Linguistics. ## A 付録 本付録では,教師データの統計量を表 4 に示し,実験で用いたモデルの詳細設定を表 5 に示す. そして,提案手法のハイパーパラメータ $\alpha$ のチューニング結果を表 6 に示し,提案手法とマルチタスクモデルのランダムシードごとの実験結果を,それぞれ,表 7 と表 8 に示す. 表 4 各モデルで使用する教師データ(文対数) 表 5 Fairseq を用いた実験設定 表 6 ハイパーパラメータ $\alpha$ のチューニング(検証データにおける性能) 表 7 提案手法 $(\alpha=0.5)$ のランダムシード毎の実験結果 表 8 マルチタスクモデルのランダムシード毎の実験結果
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P12-13.pdf
# Generate it. A Trivial Method for End-to-End Relation Extraction Shanshan Liu ${ }^{1}$ Tatsuya Ishigaki ${ }^{2} \quad$ Yui Uehara $^{2}$ Hiroya Takamura $^{2}$ Yuji Matsumoto ${ }^{1}$ ${ }^{1}$ Center for Advanced Intelligence Project, RIKEN ${ }^{2}$ Artificial Intelligence Research Center, AIST \{shanshan.liu yuji.matsumoto\}@riken.jp \{ishigaki.tatsuya, yui.uehara, takamura.hiroya\}@aist.go.jp } \begin{abstract} End-to-end Relation Extraction (RE) is a fundamental problem of information extraction, which includes two tasks: identifying named entities from text and classifying relations between entities. In this work, we propose a simple but effective method to extract entities and relations from text jointly by designing the target output of a BART-based generative model for Named Entity Recognition (NER) without changing its architecture. Compared to existing methods on ChEMU, our method performs better on RE and produces comparable results on NER. Our experimental results also demonstrate that the generative model designed for a single task is capable of joint learning. \end{abstract ## 1 Introduction To obtain necessary information from natural language text, it is common to perform Named Entity Recognition (NER) and Relation Extraction (RE) on the same text. This task of identifying both entities and the relations between entities is called End-to-End RE. In recent times, joint models have gained popularity as a way to utilize the interaction between entities and relations. A joint model is often more complicated than a pipeline model. The joint approach can be implemented using higher-level data structures, such as transforming tasks into table-filling tasks [1] or graph-based methods [2]. Another option is to share parameters [3] and representations [4] or to add cross-task constraint [5]. The brilliance of the joint model does not mean that the traditional pipeline method is obsolete. A pipeline frame of end-to-end RE usually consists of two models for two different tasks. [6] proposed a pipeline method PURE, which outperforms most of joint models by adding special tokens to introduce entity position and type information. PL-Marker [7] is also a pipeline extractor that advanced in three datasets, provides a novel span representation approach to consider the dependencies between the spans. Models built for end-to end RE task are often complex and difficult to be implemented for more practical tasks. Most well-performing models treat the task as a span-based problem, so that their computation complexity is high. Even though the length of input text does not exceed the limit of the pre-trained language model (PLM), if there are far more entities and relations in the input than those at the sentence-level, the model may have difficulty handling new datasets due to its complexity. Inspired by a recent generative framework BARTNER [8] developed for the NER task, we convert the end-to-end RE task into a generation problem. Formulating a spanbased problem to a generation problem can effectively reduce the computational complexity - there is no need to enumerate all possible entity spans, and to pair entities one by one to extract the relation triple. BARTNER exploits BART-large as encoder-decoder and achieves state-of-theart (SOTA) performance on multiple NER benchmarks. Since BART-large is a PLM with a large set of trainable parameters, we make a wild guess that BARTNER can serve as a simple and efficient model for end-to-end RE if it is trained with appropriate target outputs, without any change in its architecture. Our method achieves competitive results on ChEMU [9] compared to existing powerful methods. In summary, the main contributions of this work are listed as follows: - We adopt a generative framework for NER to end-to- The target output corresponding to each representation scheme: REL: Figure 1 Examples of target output under different representation schemes. With three entities and two relations in the input, the target output consists of two relation spans in REL scheme while five spans (three for entities and two for relations) in ENT+REL scheme. "[...]" indicates the content in one span. Relation spans in ENT+REL are highlighted by green. Details of all representations are in 2.2. end RE by providing proper representations, without any change in model architecture. This proves that generative models can jointly learning for NER and RE given proper target outputs. - Under the representations we designed, we achieve comparable or better performance than the SOTA methods for ChEMU. - Our method is more efficient and flexible in prediction than others - It is no need to enumerate all possible entity spans and relation triples, or limit the length of the span. ## 2 Method ## 2.1 Task definition A golden sample in the ChEMU dataset has the following components: All words in a chemical reaction snippet is concatenated as input. Each mention in the input is an entity. Each entity may or may not be related to other entities in the same snippet. The target output of each sample is a sequence of spans according to our defined representation. Regardless of the kind of representation we use, the target output should contain the boundary and type information for each entity, as well as the information to indicate two entities and the type for each relation. ## 2.2 Representation This section explains how the entities and relations are represented in our generative model. Please refer to the examples in Fig. 1. ## 2.2.1 Entity We followed the three types of entity representations proposed in [8], namely WORD, BPE, BPE_SPAN, and added a new type of representation, WORD_SPAN. - WORD The position indexes of each word in the entity are included in the entity span, concatenated with the entity type tag. - BPE The position indexes of each subtoken in the entity are included in the entity span, concatenated with the entity type tag. -WORD_SPAN The position indexes of the first subtokens of the first and last words in the entity are included in the entity span, concatenated with the entity type tag. - BPE_SPAN The position indexes of the first and last subtokens in the entity are included in the entity span, concatenated with the entity type tag. ## 2.2.2 Relation (REL) To make directly generation of relations possible, we tried a representation scheme as follows. The relation representation combines corresponding entity spans in [Head, Tail, Relation type] or [Tail, Head, Relation type] format. [Head, Tail, Relation type] are directly named after the entity representation type (e.g. BPE). When we used the latter format, we indicate it with (r) (e.g. $B P E(r)$ ). ## 2.2.3 Entity+Relation (ENT+REL) In some end-to-end RE tasks, entities that do not appear in any relations may also need to be identified. To cope with this situation, we propose the representation scheme of Entity+Relation. If we do the entity-first generation, the model will generate all entity spans (in WORD_SPAN or BPE_SPAN that are consistent with 2.2.1). After that, the model generates all relation spans in following way. - Start The position indexes of the first subtokens in the head and tail entities are included, concatenated with the relation type. - Start(r) The position indexes of the first subtokens in the tail and head entities are included, concatenated with the relation type. Alternatively, when we do the relation-first generation, the model generates all relation spans and then all entity spans ((e.g. BPE_SPAN + Start(r) (Relation-first))). ## 2.3 Generative model Following [8], we concatenate the representations of all spans in each text as the generated output. The order of spans is determined by the appearance order of entities in the text when generating entities or by the appearance order of the head entities when generating relations. We use the model developed by [8] but a rewritten version by us. ## 3 Experiment ## 3.1 Dataset We experiment on the ChEMU dataset, which involves entity and event annotations of 1500 chemical reaction snippets. The event triggers are annotated as entities, and event arguments are treated as relations between an event trigger and an argument. Some entities may not be part of any events. The end-to-end RE on ChEMU is extracting 12 types of entities and 2 types of relations. We use the official data split that training:development:test $=7: 1: 2$. Table 1 Statistics of the ChEMU dataset. This dataset is chosen for two reasons: 1) Each sample contains rich entity and relation information, while most of entities are shown in annotated relations. So that the joint model requires equal effort to learn both entity and relation extraction information. 2) We hope to experiment on a practical data and help the development of automatic extraction of chemical domains, not only on sentence-level end-to-end task. ## 3.2 Baseline We compare our method with the SOTA models on endto-end RE task. DyGIE++ [4] is a general framework for several information extraction tasks including NER, RE, and EE. It is a span-based method using the dynamic span graph for better span representation. We implemented DyGIE++ in the default setting, with the PLM: RoBERTa. Since many samples in ChEMU would exceed the maximum input length of RoBERTa, we limited the task to the sentence-level when we apply DyGIE++. 1) 2) The SOTA of end-to-end RE on ChEMU is a pipeline model provided by Melaxtech [10]. Melaxtech adopts BioBERT and BiLSTM-CRF for sentence-level NER while adds a linear classification layer on top of the BioBERT to predict the label of a candidate entity pair. The cross-sentence relations are extracted by postprocessing not deep learning model. We directly report the values published on that paper. ## 3.3 Evaluation The evaluation is similar to previous works. If the type and offsets of the entity match the gold entity, the prediction is correct; if the types and offsets of two entities and the relation type match the gold relation, the predicted relation is correct. All relations are directed. We report the precision $(\mathrm{P})$, recall $(\mathrm{R})$ and micro $\mathrm{F} 1$ score $(\mathrm{F})$. ## 4 Results The result of end-to-end RE (Tab.2) shows several representations we provided exceed the baselines, whether generating relation spans containing all entity information (Ours-REL) or generating entity and relation spans together (Ours-ENT+REL). Ent-first $+B_{-} S+$ Start achieves the new SOTA RE F1 of $92.61 \%{ }^{3}$ ).  Table 2 Results for the ChEMU dataset. "W": WORD; "B": BPE; "W_S": WORD_SPAN; "B_S": BPE_SPAN. " $\mathrm{r}$ " indicates that when generating a relation span, the information of the tail entity is generated before the head entity. Ours-REL means that the target output follows the setup in 2.2.2, and "Ours-ENT+REL" generates the target output under the definition in 2.2.3. ## 4.1 Representation matters We found performance differences among different combinations. There is a huge gap between span and nonspan representations. The F1 scores of RE between $B(r)$ and $B \_S(r)$ in Ours-REL differ by nearly 6 points. We speculate that representations in the form of spans are stronger because they are lesser affected by the length of the entities. There are many long chemical substance names that may be divided into dozens of subtokens in ChEMU, making the task faced by non-span representation more difficult. In the case of REL, losing a subtoken in the middle will cause a relation and an entity falsely predicted simultaneously. However, when entity generation is not that closely tied with relation generation (ENT+REL), both the performance on NER and RE get better. Another reason for the low NER recalls by Ours-REL is that not every entity is included in relations. In addition, reversing the generation order of head and tail entities, or reversing the generation order of entities and relations, also have clear effects. ## 4.2 Joint learning: DyGIE++ vs. Ours All representations in ENT+REL outperform DyGIE++ with differences between 3 to 4 points of NER F1 scores. Under the default setting of DyGIE++, the loss weight of $R E$ is 1.0 and the weight of NER is 0.2 , which can guarantee the effect of RE, but the part of NER is far inferior to our method. Except for Rel-first $+W_{-} S+$ Start and Relfirst $+W_{-} S+\operatorname{Start}(r)$, other representations in ENT+REL outperform DyGIE++. The low recall of DyGIE++ is primarily responsible for this gap. The limitation on span length makes DyGIE++ incapable of predicting long entities in the ChEMU. Overall these results, demonstrate that our method is a stronger joint model than DyGIE++ on $\mathrm{ChEMU}^{4)}$. ## 5 Conclusions By proposing representations suitable for end-to-end $\mathrm{RE}$, our approach allows the generative model designed for NER tasks to learn both entity- and relation-level information without increasing model complexity. This method provides SOTA results on the ChEMU dataset. Our work is still in progress - as we have only experimented on texts rich in entity and relation information. We will find out how well this method performs on more practical tasks, such as a task with higher proportion of cross-sentence relations, or event extraction. Also, we will keep exploring the potential of generative models in joint learning.  ## Acknowledgements This paper is partly based on results obtained from a project, JPNP16010, commissioned by the New Energy and Industrial Technology Development Organization (NEDO). Computational resource of AI Bridging Cloud Infrastructure $(\mathrm{ABCI})$ provided by National Institute of Advanced Industrial Science and Technology (AIST) was used. ## References [1] Jue Wang and Wei Lu. Two are better than one: Joint entity and relation extraction with table-sequence encoders. arXiv preprint arXiv:2010.03851, 2020. [2] Changzhi Sun, Yeyun Gong, Yuanbin Wu, Ming Gong, Daxin Jiang, Man Lan, Shiliang Sun, and Nan Duan. Joint type inference on entities and relations via graph convolutional networks. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 1361-1370, 2019. [3] Makoto Miwa and Mohit Bansal. End-to-end relation extraction using lstms on sequences and tree structures. arXiv preprint arXiv:1601.00770, 2016. [4] David Wadden, Ulme Wennberg, Yi Luan, and Hannaneh Hajishirzi. Entity, relation, and event extraction with contextualized span representations. arXiv preprint arXiv:1909.03546, 2019. [5] Ying Lin, Heng Ji, Fei Huang, and Lingfei Wu. A joint neural model for information extraction with global features. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7999-8009, 2020 [6] Zexuan Zhong and Danqi Chen. A frustratingly easy approach for joint entity and relation extraction. CoRR, Vol. abs/2010.12812, , 2020 [7] Deming Ye, Yankai Lin, and Maosong Sun. Pack together: Entity and relation extraction with levitated marker. arXiv preprint arXiv:2109.06067, 2021. [8] Hang Yan, Tao Gui, Junqi Dai, Qipeng Guo, Zheng Zhang, and Xipeng Qiu. A unified generative framework for various ner subtasks. arXiv preprint arXiv:2106.01223, 2021. [9] Dat Quoc Nguyen, Zenan Zhai, Hiyori Yoshikawa, Biaoyan Fang, Christian Druckenbrodt, Camilo Thorne, Ralph Hoessel, Saber A Akhondi, Trevor Cohn, Timothy Baldwin, et al. Chemu: named entity recognition and event extraction of chemical reactions from patents. Advances in Information Retrieval, Vol. 12036, p. 572, 2020. [10] JWYRZ Zhang and Yaoyun Zhang. Melaxtech: a report for clef 2020-chemu task of chemical reaction extraction from patent. Work Notes CLEF. Published online.[Google Scholar], 2020. [11] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: De- noising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. pp. 7871-7880, Online, July 2020. Association for Computational Linguistics. ## A Implementation details We rewrote the BARTNER [8] using NumPy, PyTorch and Hugging Face's Transformers referring to Yan's public code. https://github.com/yhcc/BARTNER The codes of pre-processing and evaluation are written with NumPy and PyTorch. The generative model is trained with max sequence length 1024 and batch size 1 for 30 epochs, without limitation on the length of each span. Only a single run for each representation. No hyperparameter search and early stopping in our experiments. The details of hyperparameters are in Tab.3. We do not apply beam search during decoding. All the entity and relation tags are set as special tokens and be initiated by prompt initiation. The parameter size of the model we implemented is $1633.624064 \mathrm{M}$ when we use BART-large [11] as the encoder-decoder. All experiments are conducted on are trained on a 20-core(CPU) machine with 1 GPU (NVIDIA A100 for NVLink 40GiB HBM2). The wallclock time of training one representation is approximately 15000 s ( 30 epochs in total), maximum memory reaches $28.802 \mathrm{G}$ on the ChEMU dataset. Table 3 Part of hyperparameters used in experiments.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P12-1.pdf
# 情報付加型生成による表現の推敲支援システム 鈴木勘太 ${ }^{1}$ 杉本徹 ${ }^{2}$ 1 芝浦工業大学大学院理工学研究科 2 芝浦工業大学工学部 \{ma21071, sugimoto\}@shibaura-it.ac.jp ## 概要 本研究は,Encoder-Decoder モデルによる系列変換を応用し, 執筆者のつづった文から形容や比喻といったさまざまな表現を付加した複数の候補文を生成,提案することで,執筆者の表現の幅を広げ,膨らませることを支援する実用的な推敲支援システムの構築を目指す。その中で,幅広く表現を捉えたパラレルコーパスの構築を行い, デコーディングや学習モデルの側面から表現の提案の多様性を促進する生成モデルを提案する. ## 1 はじめに 近年,深層学習を用いた執筆支援に関する研究が行われている $[1,2,3]$. 大規模なデータから学習を行った深層学習モデルを用いた支援は, 執筆者の負担や学習コストの軽減を可能にしている. 一方,筆者は先行研究 [4] において,EncoderDecoder モデルによる系列変換を応用し,執筆者のつづった文から修辞表現を付加した複数の文を生成, 提案することで, 執筆経験の浅い文学作品の執筆者をターゲットとした表現の推敲支援を行う執筆支援システムを提案した. 表現の推敲は執筆における重要な過程の一つであるが,その手助けとなる表現辞典の多くは網羅的な側面を持ち,数多の見出しの中から納得のいく表現を自ら選び出す必要がある。そのため実際は執筆者にある程度の経験やセンスが要求されることとなり,負担となりうる。 Encoder-Decoder モデルの応用は,執筆者のつづる文の文脈にふさわしい言い換えや形容などの表現の提案を可能にし, 評価害験では支援システムとして総合的に良い評価を得ることができた. 本研究では,先行研究で取り組んだ文生成のうち,形容などの修飾フレーズの付加を行う文生成を情報付加型生成という問題として提起し, 執筆者の表現の幅を広げ,膨らませることを支援する実用的な推敲支援システムの構築を目指す。そのなかで特 図 1 推敲支援システムの構築手法の概要 に以下の 2 点を目標として定める。 「表現」の一般化気軽に個人でブログなどを執筆し共有することが可能となった昨今の状況を鑑み,より広く表現を捉える手法を提案し支援の幅の拡大を試みる。 提案の多様性の促進執筆者の表現に関する想起の支援も視野に入れ,多様な候補の提案を行う手法を提案し実用性の向上を試みる。 ## 2 関連研究 伊藤らの研究 [5] では,不完全な文から目的に合った完全な文を生成する情報補完型生成を新しい言語生成課題として提案している. 情報を付加して生成を行うというアプローチは本研究との類似点があり,完全な文から不完全な文を作成することによって大規模な教師データを構築する手法を本研究も採用している. ## 3 提案手法 本研究における推敲支援システムの構築手法の概要を図 1 に示す. システム構築のアプローチは筆者の先行研究 [4] を踏襲する。まず,実在する書籍の文から一部の修飾フレーズを削除した文を作成し, これと元の文とを対にしたパラレルコーパスを構築する。次に,これらを教師データとして,修飾フレーズの欠落した文から実在する書籍の文を生成する系列変換の学習を行い,生成モデルを構築する。 この生成モデルを用いて,執筆者のつづる文の入力 に対しその文脈にふさわしい修飾フレーズ,すなわち表現を付加した複数の候補文を提案することで,推敲の支援を行うシステムを構築する。 ## 3.1 パラレルコーパスの構築 実在する書籍の文からある条件のもと機械的に一部の修飾フレーズを削除した文を作成し,これと元の文との対からなるパラレルコーパスを構築する。本研究では,実在する書籍の文として青空文庫の作品および現代日本語書き言葉均衡コーパスから抽出した約 787 万文を書籍コーパスとして使用する. 筆者の先行研究では支援の対象とする表現を限定し,特定の品詞やキーワードに注目した単語単位の処理によってパラレルコーパスを構築したためアドホックな支援に限られた。本研究ではこれを踏まえ,より広く表現を捉えるため文構造の依存関係に注目した処理の手法を提案する。 依存関係による削除対象の決定連体・連用修飾に関する依存関係 (Universal Dependencies[6, 7] における acl,amod,advcl, advmodの 4 種)の係り元を概括的に削除対象として決定する.削除対象の中には目的の表現とは言いがたい具体化の性質が強い修飾フレーズも含まれるが,文脈への関連が低いと考えられるこれらを付加する学習は抑えられると考えられる。しかし,これらは学習のノイズとなりうるため,後述の条件によってその抑制を行う。 係り先による条件係り先が形式名詞である場合は削除対象から除外する.実質的な意味が薄い形式名詞に係る修飾フレーズは具体化の性質が強い場合が多いと考えられる.ただし,形式名詞の定義は曖昧であるため, 本研究では書籍コーパス内の各名詞について出現頻度および被修飾率を算出し,それぞれ 3 万以上, 0.8 以上の「もの」,「こと」等の 15 語を形式名詞として定量的に決定した。 係り元による条件係り元に指示詞,代名詞,人名の固有名詞を含む場合は削除対象から除外する。 これらを含む修飾フレーズは上記の性質に加え,実質的な意味が薄い場合が多いと考えられる。 以上の手法を用いた文の作成によって約 1027 万対のデータを含むパラレルコーパスを構築した. ## 3.2 生成モデルの構築手法 3.1 節で構築したパラレルコーパスを教師データとし,修飾フレーズの欠落した文をソース,実在する元の書籍の文をターゲットとすることによって欠落した修飾フレーズを補完するような系列変換の学習を行う。これにより,任意の入力文に対しその文脈にふさわしい修飾フレーズを付加した文を生成する生成モデルを構築する。 筆者の先行研究では,尤度による単純なスコアリングによった候補文の決定では意外性のある魅力的な表現といった有用な候補を提案することが難しかった. 本研究ではこれを踏まえ,提案する候補の多様性の促進として,デコーディングおよび学習モデルの側面から複数の生成モデルを考える。 ベースラインの手法 Transformer[8] による学習およびビームサーチによるデコーディングを行う先行研究と同様の生成モデルをべースラインとする. ビームサーチを用いたデコーディングではビームサイズ分の複数の生成文が得られるため,本研究の支援システムの前提である複数の候補文の提案に用いることが容易である. Nucleus サンプリング Holtzman らはビームサー チなどの最大化ベースのデコーディング手法に見られる当たり障りのないテキストを生成する問題に対し,新たなデコーディング手法として Nucleus サンプリングを提案しており,高品質かつ人間のつづったものに近い多様性を持った長文テキストの生成が可能となったと報告している [9]. Nucleus サンプリングは,デコーディングの各ステップにおいて次のトークンの確率分布 $P\left(x \mid x_{1: i-1}\right)$ が与えられたとき, その上位 $p$ の語彙 $V^{(p)} \subset V$ を以下の式が成り立つような最小の集合と定義する. $ \sum_{x \in V^{(p)}} P\left(x \mid x_{1: i-1}\right) \geq p $ そして,$p^{\prime}=\sum_{x \in V^{(p)}} P\left(x \mid x_{1: i-1}\right)$ として式 $ P^{\prime}\left(x \mid x_{1: i-1}\right)= \begin{cases}P\left(x \mid x_{1: i-1}\right) / p^{\prime} & \text { if } x \in V^{(p)} \\ 0 & \text { otherwise }\end{cases} $ によって再スケーリングした新たな確率分布を用いた次のトークンのサンプリングを行う。 サンプリング剪定ビームサーチ (SPBS) Nucleus サンプリングは,本研究のような入力文などの制約付きの生成とは異なる物語生成などのオープンエンドな生成における課題に対する提案手法であり,一度の生成で得られる文は 1 つのみである。一方,本システムが複数の候補文の提案を前提としていること,ビームサーチを用いた筆者の先行研究で一定の評価が得られていることを踏まえ,本研究ではビー ムサーチと Nucleus サンプリングを組み合わせた新 図 2 SPBS の概要 たなデコーディング手法,サンプリング剪定ビームサーチ(Sampling Pruning Beam Search; SPBS)を提案する。 その手法の概要を図 2 に示す. SPBS は,ビームサーチをベースとしたアルゴリズムの中で,各ステップで保持している候補(ブロック)について Nucleus サンプリングを用いた系列の出力を行う. 各ブロックの集合を $N_{i}$, 確率分布 $P$ について $m$ 回サンプリングを行ったときに得られる系列を $\operatorname{sampling}(P, m)$ としたとき,ビームサーチに考慮される新たな系列を以下の式によって決定する。 $ \text { hypotheses }_{i}=\left.\{\operatorname{sampling}\left(P_{n}^{\prime}\left(x \mid x_{1: i-1}\right), m\right)_{n \in N_{i}}\right.\} $ サンプリングによって多様な候補をピックアップしつつ,ビームサーチによって尤度の低い候補を除外することで有用な候補の生成を行う。 逆トークン頻度損失(ITF 損失) Nakamura らは対話システムにおいてありきたりな応答生成を行う問題に対し, 多様性の促進として新たな損失関数,逆トークン頻度損失(Inverse Token Frequency Loss) を提案している [10]. ITF 損失は $\lambda$ をイパーパラメータとして,ソフトマックス・クロスエントロピー損失 $L_{\mathrm{SCE}}$ をトークンの出現頻度の逆数で重みづけした以下の式によって算出される. $ L_{\mathrm{ITF}}=\frac{1}{\text { freq }\left(\text { token }_{c}\right)^{\lambda}} L_{\mathrm{SCE}} $ 本研究ではこの損失関数を Transformer へ適用したものを考える。 ## 4 実験と評価 3.2 節で述べた生成モデルを用いた実験を行う.学習モデルのベースに用いる Transformerについて, ハイパーパラメータは論文 [8] に従い, 未知語処理 [4] および文長正規化 [11] を導入した. トークナイザには SentencePiece[12] を用い,ITF 損失については先行研究 [10] に従い $\lambda=0.4$ とした. 図 3 Nucleus サンプリングにおける $p$ の評価結果 表 1 生成モデルの事前評価の結果 ## 4.1 生成モデルの事前評価 本研究における目的に対し,基本となる生成モデルを用いた事前評価を行う。品質の評価指標として BLEU,多様性の評価指標として Self-BLEU[13] および distinct-N[14] を用い,各スコアトップの生成文 10,000 に対して評価を行った.なお,Self-BLEU は值が低い方が多様性があると評価する指標である。 まず,Nucleus サンプリングにおけるパラメータ $p$ について評価を行った結果を図 3 に示す. BLEU は $p=0.95$ でピークを取り,Self-BLEU はおおむね $p$ の値が大きくなるにつれ下がっていく傾向が見られた.この結果より以降 Nucleus サンプリングでは $p=0.95$ を用いた生成モデルで評価を行う. 次に,ビームサーチと Nucleus サンプリング,およびそれぞれ学習に ITF 損失を適用した生成モデルに対し評価を行った結果を表 1 に示す. なお,ビー ムサーチのビームサイズは 5 とした. 品質はビームサーチの方が高い一方で,多様性は Nucleus サンプリングの方が高く平均文長も参照文に近づいた. 特に Nucleus サンプリングにおいては ITF 損失を用いたモデルの方が多様性に富む傾向が見られた. ## 4.2 システムの評価 各生成モデルで生成した複数の候補文に対し分析を行い,これらを実際に被験者に提示することで推敲支援システムを想定した評価実験を行う。なお,候補文の最大出力数を 10, SPBS については $m=10$ とし,Nucleus サンプリングは生成を複数回行うことによって異なる候補文を最大出力数分得る. 表 2 候補文の多様性の評価結果 ## 4.2.1候補文の主観分析 例として,入力「コーヒーの香りがあの日の記憶を呼び起こす。」に対して生成された候補文について述べる.ビームサーチでは「ほのかなコーヒーの香り」や「ふとあの日の記憶を呼び起こす」など一般的に有用な表現が見られた. また, 本研究の提案手法である SPBS では,ビームサーチに見られる表現をいくつか提案しつつ,「かすかに甘いコーヒー の香り」といった 2 文節以上の修飾句や「夢のような記憶」といった比喻表現など多様な表現の提案が可能であることがわかった。一方,Nucleus サンプリングではより多様でかつ「ピンと流れるコーヒー の香り」といった意外性のある表現が見られたものの,支離滅裂なフレーズを付加した例も散見された.学習に ITF 損失を適用した生成モデルでは,先に述べた特徴を示しつつ語彙の傾向に違いが見られた。なお,各候補文の詳細を付録の表 A に記載した. ## 4.2.2 候補文の多様性の自動評価 本研究では,ある入力文に対し生成される複数の候補文についてどれだけ多様な提案ができているかを測る評価指標として Local Self-BERTScore (LSBScore)を提案する. この評価指標は,入力文に対して生成された複数の候補文内で Self-BLEU と同様の評価手法を分散表現ベースの評価指標である BERTScore[15] を用いて行い, 生成例全体で平均することで算出するものである. 多様性の評価指標を各生成例における候補文内で用いることで各々の提案の多様さを評価し,単語レベルでほとんど同じ候補文を生成する本システムにおいて類似度をより詳細に評価するため BERTScoreを用いている. 各生成モデルについて評価を行った結果を表 2 に示す. 評価は 1,000 の生成例を用いて行った. 多様性はビームサーチ,SPBS,Nucleus サンプリングの順に高くなり, 平均文長も長くなる傾向が見られたほか,LSBScore については明確にITF 損失を用いたモデルの方が多様性に富む傾向が見られた。 図 4 主観評価実験の結果 ## 4.2.3 システムの主観評価実験 各生成モデルで生成した候補文を用い,推敲支援システムを想定した調査表による主観評価実験を行った. 実験にはビームサーチ, SPBS, SPBS + ITF 損失, Nucleus サンプリングの 4 種の生成モデルを用い,スコア上位 6 つを候補文として提示する.これを 30 例用意し, 13 人の被験者に対し以下の 4 段階のレベルで各候補文を評価してもらった。 レベル 4 表現の推敲支援として妥当な候補文であり,実際に使ってみたいと思う。 レベル 3 表現の推敲支援としては妥当な候補文だが,特に使ってみたいとは思わない。 レベル 2 内容が矛盾していたり意味が理解しがたかったりして妥当な候補文だとは思わない. レベル 1 誤字脱字がある,文法的に正しくない等, そもそも文の形として誤りがある. その結果として,各例において各レベルで評価された候補文の数の平均を図 4 に示す. レベル 3 以上の候補の数はビームサーチが最も多く, SPBS, SPBS + ITF 損失,Nucleus サンプリングの順で少なくなる結果となった。 ## 5 おわりに 本研究では情報付加型生成による実用的な表現の推敲支援システムの構築を目指し,幅広く表現を捉えた独自のパラレルコーパスを構築,多様な表現を提案する生成モデル SPBS を提案した. ビームサーチは有用な複数の候補を一度に提案可能だが,入力文が同じであれば同じ候補しか提案できない.一方,Nucleus サンプリングは複数候補の提案には向かないが,生成を行うごとに異なる候補を提案でき,多様性を確保できる.本研究で提案したSPBS は評価実験では最も高い評価を得ることはできなかったものの,双方の長所を取り入れた手法であり,実際の推敲支援で有効性を検証する必要があると考える。今後はこれらを用いたアプリケーションの実装を行い,さらなる研究を進めていきたい。 ## 参考文献 [1] Ann Yuan, Andy Coenen, Emily Reif, and Daphne Ippolito. Wordcraft: Story writing with large language models. In 27th International Conference on Intelligent User Interfaces, IUI '22, p. 841-852, New York, NY, USA, 2022. Association for Computing Machinery. [2] Takumi Ito, Tatsuki Kuribayashi, Masatoshi Hidaka, Jun Suzuki, and Kentaro Inui. Langsmith: An interactive academic text revision system. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 216-226, Online, October 2020. Association for Computational Linguistics. [3] Chung-Ting Tsai, Jhih-Jie Chen, Ching-Yu Yang, and Jason $\mathrm{S}$. Chang. LinggleWrite: a coaching system for essay writing. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 127-133, Online, July 2020. Association for Computational Linguistics. [4] 鈴木勘太, 杉本徹. Encoder-decoder モデルを用いた文章表現を豊かにする執筆支援システム. 日本感性工学会論文誌, Vol. 21, No. 2, pp. 257-265, 2022. [5] 伊藤拓海, 栗林樹生, 小林隼人, 鈴木潤, 乾健太郎. ライティング支援を想定した情報補完型生成. 言語処理学会第 25 回年次大会, pp. 970-973, 2019. [6] Ryan McDonald, Joakim Nivre, Yvonne QuirmbachBrundage, Yoav Goldberg, Dipanjan Das, Kuzman Ganchev, Keith Hall, Slav Petrov, Hao Zhang, Oscar Täckström, Claudia Bedini, Núria Bertomeu Castelló, and Jungmee Lee. Universal Dependency annotation for multilingual parsing. In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 92-97, Sofia, Bulgaria, August 2013. Association for Computational Linguistics. [7] 浅原正幸, 金山博, 宮尾祐介, 田中貴秋, 大村舞, 村脇有吾, 松本裕治. Universal dependencies 日本語コーパス. 自然言語処理, Vol. 26, No. 1, pp. 3-36, 2019. [8] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, pp. 5998-6008, 2017. [9] Ari Holtzman, Jan Buys, Li Du, Maxwell Forbes, and Yejin Choi. The curious case of neural text degeneration. In ICLR. OpenReview.net, 2020. [10] Ryo Nakamura, Katsuhito Sudoh, Koichiro Yoshino, and Satoshi Nakamura. Another diversity-promoting objective function for neural dialogue generation. CoRR, Vol. abs/1811.08100, , 2018. [11] Yonghui Wu, Mike Schuster, Zhifeng Chen, Quoc V. Le, Mohammad Norouzi, Wolfgang Macherey, Maxim Krikun, Yuan Cao, Qin Gao, Klaus Macherey, Jeff Klingner, Apurva Shah, Melvin Johnson, Xiaobing Liu, Lukasz Kaiser, Stephan Gouws, Yoshikiyo Kato, Taku Kudo, Hideto Kazawa, Keith Stevens, George Kurian, Nishant Patil, Wei Wang, Cliff Young, Jason Smith, Jason Riesa, Alex Rudnick, Oriol Vinyals, Greg Corrado, Mac- duff Hughes, and Jeffrey Dean. Google's neural machine translation system: Bridging the gap between human and machine translation. CoRR, Vol. abs/1609.08144, , 2016. [12] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics. [13] Yaoming Zhu, Sidi Lu, Lei Zheng, Jiaxian Guo, Weinan Zhang, Jun Wang, and Yong Yu. Texygen: A benchmarking platform for text generation models. In The 41st International ACM SIGIR Conference on Research \& Development in Information Retrieval, SIGIR '18, p. 1097-1100, New York, NY, USA, 2018. Association for Computing Machinery. [14] Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. A diversity-promoting objective function for neural conversation models. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 110-119, San Diego, California, June 2016. Association for Computational Linguistics. [15] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert. In International Conference on Learning Representations, 2020. ## A 各生成モデルが生成した候補文の例 表 A 入力「コーヒーの香りがあの日の記憶を呼び起こす。」に対して生成された候補文の例(スコア降順) ビームサーチ SPBS 熱いコーヒーの香りがあの日の記憶を呼び起こす。甘いコーヒーの香りがあの日の記憶を呼び起こす。 コーヒーの香りが再びあの日の記憶を呼び起こす。強いコーヒーの香りがあの日の記憶を呼び起こす。温かいコーヒーの香りがあの日の記憶を呼び起こす。 コーヒーの香りがまたあの日の記憶を呼び起こす。 コーヒーの香りがあの日の甘い記憶を呼び起こす。 ほのかなコーヒーの香りがあの日の記憶を呼び起こす。 コーヒーの香りがあの日の記憶を再び呼び起こす。甘いコーヒーの香りがあの日の記憶を呼び起こす。 コーヒーの香りが再びあの日の記憶を呼び起こす。 コーヒーの香りがまたあの日の記憶を呼び起こす。 コーヒーの香りがふとあの日の記憶を呼び起こす。 かすかにコーヒーの香りがあの日の記憶を呼び起こす。 かすかに甘いコーヒーの香りがあの日の記憶を呼び起こす。 コーヒーの香りがあの日の夢のような記憶を呼び起こす。 コーヒーの香りがあの日の記憶をふたたび呼び起こす。 コーヒーの香りがあの日の深い記憶を呼び起こす。 コーヒーの香りがふとあの日の記憶を呼び起こす。 コーヒーの香りがようやくあの日の記憶を呼び起こす。 Nucleus サンプリング コーヒーの香りがあの日の甘い記憶を呼び起こす。 のようにコーヒーの香りがあの日の記憶を呼び起こす。 コーヒーの香りが不吉なあの日の記憶を呼び起こす。 コーヒーの香りがあの日の印象深い記憶を呼び起こす。 待つコーヒーの香りがあの日の記憶を呼び起こす。 ヒーローの甘いコーヒーの香りがあの日の記憶を呼び起こす。 りんりんるようなコーヒーの香りがあの日の記憶を呼び起こす。 ピンと流れるコーヒーの香りがあの日の記憶を呼び起こす。 じゅ長いコーヒーの香りがあの日の記憶を呼び起こす。 コーヒーの香りが彼女を、会社に声すばらしいあの日の記憶を呼び起こす。 ビームサーチ+ITF 損失 SPBS + ITF 損失 熱いコーヒーの香りがあの日の記憶を呼び起こす。 やがてコーヒーの香りがあの日の記憶を呼び起こす。甘いコーヒーの香りがあの日の記憶を呼び起こす。 コーヒーの香りがあの日の強烈な記憶を呼び起こす。 たとえばコーヒーの香りがあの日の記憶を呼び起こす。強烈なコーヒーの香りがあの日の記憶を呼び起こす。 コーヒーの香りが突然あの日の記憶を呼び起こす。 同じコーヒーの香りがあの日の記憶を呼び起こす。 コーヒーの香りがふとあの日の記憶を呼び起こす。 コーヒーの香りがあの日の記憶をかすかに呼び起こす。熱いコーヒーの香りがあの日の記憶を呼び起こす。 やがてコーヒーの香りがあの日の記憶を呼び起こす。 コーヒーの香りがまたあの日の記憶を呼び起こす。 コーヒーの香りがあの日の懐かしい記憶を呼び起こす。 コーヒーの香りがあの日の記憶を強く呼び起こす。 むしろコーヒーの香りがあの日の記憶を呼び起こす。 コーヒーの香りがあの日の甘い記憶を呼び起こす。 朝になるとコーヒーの香りがあの日の記憶を呼び起こす。 コーヒーの香りがすぐにあの日の記憶を呼び起こす。 コーヒーの香りがあの日の記憶をすべて呼び起こす。 Nucleus サンプリング + ITF 損失 たとえばコーヒーの香りがあの日の記憶を呼び起こす。 新しいコーヒーの香りがあの日の記憶を呼び起こす。 コーヒーの香りがあの日の不快な記憶を呼び起こす。 重いコーヒーの香りがあの日の記憶を呼び起こす。 不思議なコーヒーの香りがあの日の記憶を呼び起こす。 神妙なコーヒーの香りがあの日の記憶を呼び起こす。 香水のようなコーヒーの香りがあの日の記憶を呼び起こす。 しようとしていたコーヒーの香りがあの日の記憶を呼び起こす。 香わかるコーヒーの香りがあの日の記憶を呼び起こす。 純粋にクール全員が興十五三日前にしなかったコーヒーの香りがあの日の記憶を呼び起こす。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P12-2.pdf
# 指定要約長に応じたソフトな内容選択による要約長操作可能な End-to-End 要約 楢木悠士 ${ }^{1}$ 小林 哲則 ${ }^{1}$ 林 良彦 ${ }^{1}$ 1* 早稲田大学理工学術院 yuji.1277@akane.waseda.jp ## 概要 指定した長さに応じて適切な要約を生成する技術への要請が高まっている. 本研究では,任意の指定要約長 $k$ が与えられたとき,原文書中のトークンの重要度を評価し,それに応じてソフトマスクをかけることで埋め込み表現を調整する機構 SumTop- $k$ を提案する. SumTop- $k$ は, 要約長操作のための制約なしで,要約タスクによる End-to-End 学習によって要約長の制御を可能にした. 評価実験の結果,提案手法は既存手法と同等以上の要約性能を達成した。本稿ではさらに, SumTop- $k$ 内で計算されるトークンごとのスコアが生成される要約に与える影響を分析し,これらを意図的に変化させることで生成要約の内容を操作できる可能性を示す. ## 1 はじめに 自動要約に関する研究は多く, 要約技術の応用例も増えてきている.我々は,要約技術の実用化に向けて必要となる要約長の操作に注目する. 長さ制御可能な要約は, 所望の長さの簡潔で流暢な要約を生成することを目的としている.その技術は,各デバイス,デザイン,ユーザに応じた適切な長さの要約を提供するために,ユーザエクスペリエンスの観点から求められている. 要約に含めるべき情報量や粒度は,指定要約長によって異なるため,このタスクは単に長さを制御するだけでは機能しない。したがって, 要約長操作可能な要約システムでは, 生成されるテキストの長さを制御するだけでなく, 要約に含めるべき情報を適切に選択する必要がある.本論文では,指定される任意の要約長 $k$ に対して原文書中のトークンの重要度を評価し,それに応じて埋め込み表現を調整するソフトマスク機構 SumTop- $k$ を提案する. ソフトマスク生成には微分可能な top-k 演算 [1] を用いることで, End-to-End 学習を可能にする。これは,内容選択機能を独立した抽出型要約モデルによって実現する既存研究 [2] における End-to-End 学習ができないという問題を解決する。 BART の Encoderに提案手法の SumTop- $k$ を組み込み,生成要約の品質と長さの操作性を CNN DailyMail とXSum データセットを用いた実験により評価した. その結果,提案手法は既存手法と同等以上の要約性能を達成しつつ,要約長の制御が可能であることを確認した。特に CNN DailyMail デー タセットにおいては BART や要約長操作可能な既存研究と比べて最も高い ROUGE スコアを達成し, XSum データセットでは,BART と同程度の ROUGE スコアを示した. さらに,SumTop- $k$ 内で計算されるトークンごとのスコアが生成される要約に与える影響を分析し, SumTop- $k$ 内のトークンスコアは生成要約に含まれるトークンと相関があることを示した.この結果を受け,SumTop- $k$ のスコアの順位換えによって,要約の内容を操作する可能性を検討した. ## 2 関連研究 要約長操作に関連する既存研究では, 要約生成時に制御を行う手法が提案されてきた。菊池ら [3] は指定要約長までの残りの長さの埋め込みをモデルに入力することで,高瀬と岡崎 [4] は残りの長さを Transformer の位置埋め込み表現に追加で埋め込むことで要約長を操作した. Yu らは推論時に指定要約長の埋め込み表現を単語予測層の前に連結することで,要約長の制御を実現している [5]. しかし,指定要約長の情報をモデルに与えるだけでは,指定要約長に応じて適切に要約の内容を変化させることは困難である。すなわち,指定要約長に応じた内容選択が必要となる. 斉藤らは,抽出型要約モデルを用いて原文書から情報を選択し,原文と抽出されたトークンを抽象型要約モデルに入力する方式を提案した [2]. このア プローチは,要約長の操作性と高い ROUGE スコアを達成したが,情報選択のための抽出型モデルが End-to-End に学習ができないため, 性能上のボトルネックになっていると考えられる。一方,Liu らは内容選択に注力した手法を提案した [6]. このモデルでは,まず合成データによる事前学習によって内容選択機能を実現し, 元のデータセット上で全体の要約タスクでの学習を行う. さらに, 指定要約長付近で EOS トークンを高確率で生成するために, decoder における Attention スコアを指定要約長までの残りの長さに応じて調整している. この Attention スコアの調整方法は, 生成要約長の操作に有効であるが, 生成要約の品質の観点からは多分に強引であると考えられる。 我々は,原文書に対して,指定要約長 $k$ に応じたソフトマスクをかける機構 SumTop- $k$ を提案する. SumTop- $k$ は,内容選択に関する機能を End-to-End 学習が可能なモデルとしながら, Liu らのように直接的な確率調整を行わずに要約長制御を可能とする方法である. ## 3 提案手法: SumTop- $k$ 本節では,指定要約長 $k$ に応じたソフトマスクを原文書にかける機構 SumTop- $k$ の構成について述べる. 我々は, 文書要約モデルとして EncoderDecoder 型モデルの代表格である BARTを採用する. SumTop- $k$ モジュールは, BART の Encoder の最終層を置き換えるものであり,SumTop- $k$ の入力にソフトマスクをかけた埋め込み表現を出力する. 埋め込み表現の shape は, [batch_size, src_len,embed_dim] である. Encoder 最終層における適用方法については複数の可能性があるが,本研究では図 1 に示す 2 つの適用方法について実験を行った. Query (図 1 の (a)) は, Self-Attention の Query の入力に SumTop- $k$ を適用したもので,原文書とマスクした表現の間の SourceTarget Attention のような処理になる. After_Attn (図 1 の (b)) は, SumTop- $k$ を Self-Attention の後の埋め込み表現に適用することを意味し, Encoder の出力により直接的な影響を与える。 SumTop- $k$ モジュールのアーキテクチャを図 2 に示す. SumTop- $k$ は 3 段階の処理を持つ. 初めに, Self-Attention と 1 層の線形層を用いて, [batch_size,src_len, 1] の shape をしたトークンごとのスコアを計算する,次に,トークンごとのスコア (a) (b)図1SumTop- $k$ の適用方法.(a)と(b)はそれぞれQuery とAfter_Attnを表す。 を要約生成のための重要度だと捉え,それに応じたソフトマスクを微分可能な top-k 演算 [1] を用いて生成する. 最後に SumTop- $k$ は元の入力表現にソフトマスクをかけた表現を出力する. SumTop- $k$ は完全に微分可能であり,モデルの学習時にどのようなトークンのスコアを高くすべきかなどの追加の制約は与えられることはない,よって,SumTop- $k$ がどのように原文書の表現を調整するかは,モデル全体の End-to-End の学習に依存する。 ## 4 評価実験の設定 CNN DailyMail, XSum という要約研究における標準データセットを用い, 要約品質と要約長制御に関する評価を行う。また,図 1 (a),(b) に示した SumTop- $k$ の 2 つの配置について比較を行う. CNN DailyMail データセットとXSum データセットでは,ビームサイズをそれぞれ 4 と 6 に設定した.また,ビームサーチ時の n-gram の繰り返し回数の最大値は 2 とした. 手法自体の要約長の操作性を検証するため,提案手法で検証する際には,要約長の最大・最小の制約は与えない. 比較手法には,文書要約手法である BART および BART+attention head masking (AHM) [7], 要約長操作可能な要約手法である LPAS[2] および PtLAAM[6] を用いる。 要約の品質を測るために ROUGE スコアを,要約 図 2 SumTop- $k$ の構造. 長の操作性を測るために生成要約の平均長と式 1 で定義される Variance を使用する。なお, $y_{i}$ は参照要約, $y_{i}^{\prime}$ は生成要約, $n$ はテストデータ数, len (.) は入力に含まれるトークンの数を返す。 $ \mathrm{Var}=0.001 * \frac{1}{n} \sum_{i=1}^{n}\left|\operatorname{len}\left(y_{i}\right)-\operatorname{len}\left(y_{i}^{\prime}\right)\right|^{2} $ 前述したように, SumTop- $k$ の処理で高いスコアを持つトークンには制約がないため,どのようなトー クンが高いスコアを持つかを確認する必要がある.我々は,ソフトマスクの値が高いトークンは生成要約に現れやすいと仮説立てた。そこで,SumTop-k の操作とモデルの最終出力の関係を分析するために,トークンの生成要約に対する貢献の度合いを表す,式 2 に示す指標 Con を提案する. SumTop- $k$ のトークンスコアで上位指定要約長個のトークン $\left(T_{t o p-k}\right)$ を SumTop- $k$ で重要だと判断されたトークンと考え, 生成要約に含まれるトークン $\left(T_{g e n}\right)$ に対するトークンの精度を貢献の度合いとする。 $ \text { Con }=\frac{\operatorname{count}\left(\operatorname{set}\left(T_{\text {top-k }}\right) \cap \operatorname{set}\left(T_{\text {gen }}\right)\right)}{\operatorname{count}\left(\operatorname{set}\left(T_{\text {gen }}\right)\right)} \times 100 $ ここで, $\operatorname{count}(\cdot)$ は入力集合の要素数を返し, $\operatorname{set}(\cdot)$ は大力配列の要素の集合を返す. ## 5 評価実験の結果 ## 5.1 要約の品質と要約長の操作性 CNN DailyMail とXSum のデータセットに対して,提案手法と既存手法を評価した結果を表 1 に示す.本実験にける指定要約長は参照要約の長さとした. BART+AHM [7], LPAS [2] と PtLAAM [6] の ROUGE スコアはそれぞれの論文から,LPAS と PtLAAM の Variance は Liu らが示した図 [6] を参照している。 まず,生成要約の品質について考察する. CNN DailyMail データセットにおいて,提案手法は既存手法と比較して高いROUGE スコアを示した.特に,提案手法はAfter_Attnにおいて,最も高い ROUGE スコアを示した. XSum データセットでは,提案手法はベースラインである BART と同程度の ROUGE スコアを示し,LPASを上回った. XSum では CNN DailyMail と比較して ROUGE スコアが向上しなかったが,これは XSum データセットでは CNN DailyMail と比較して正解要約の抽象度が高いからだと考えられる。 次に,要約長の操作性について考察する。両デー タセットにおいて,提案手法はベースラインの BART よりも低い Variance を達成し,より良い操作性を持つことが確認できた,なお,Liu らの報告した BART の Variance と我々の測定した BART の Variance は大きく異なるため,本論文で比較するには公平でないと考え,提案手法と既存手法の Variance は比較しないこととした. モデル内部の各トークンのスコアと生成要約の相関を測る貢献度では,提案手法のトークンスコアは BART の Attention スコアより高い. 特に, CNN DailyMail の SumTop- $k$ After_Attn では,生成要約に含まれるトークンの $40 \%$ 以上が SumTop- $k$ の上位 $\mathrm{k}$個のトークンスコアに含まれる。これらの結果から,提案手法は,要約に含めたいトークンにより他界スコアを与えていることが示唆される。 ## 5.2 要約の内容操作の可能性 SumTop- $k$ を用いたモデルにおける要約の内容操作の可能性を検討する. 提案手法による貢献度スコアが高いことは表 1 に示した通りである.これは, SumTop- $k$ におけるスコアの順位を意図的に変更することで,生成要約に現れるトークンが変化する可能性があることを示唆する。 そこで,SumTop- $k$ は要約の内容を操作することができると仮説立てた。 この仮説を検証するため,ROUGE スコアが低い (我々の分析では ROUGE- 1 で 0.2 以下) テストデー タに対して,意図的に順位を変更した場合の生成要約の変化を観察した。順位換えするトークンは,元の文書に出現したトークンのうち,正しい要約には出現するが生成要約には出現しないトークンとした. さらに,機能語ではなく内容語のみに変更を加えたいので,原文書に 3 回以上現れるトークンは順位換えの対象から除外した. CNN DailyMail データセットで SumTop-k の After_Attn を適用した結果について分析を行った. SumTop-k のスコアにおける順位を調整した後に,再度推論したときの生成要約がどのように変化するかを ROUGE スコアで比較した結果を表 2 に示す. 具体的には指定要約長 $k$ が 10 のとき,順位の上げ幅は 10 倍の 100 とした.また, 2 つの事例を表 3 に示す. 表 2 順位換えの前と後の ROUGE スコアの結果. 表 3 SumTop- $k$ のトークンスコアの順位換えによる要約の変化の事例. \\ 表 2 から,意図的な順位換えが ROUGE スコアを向上させたことが確認できる. つまり,この操作により生成要約の内容が参照要約の内容に近づいた.表 3 の例では,順位換えにより,生成要約に”launch window”に関する説明が含まれるようになった。 ## 6 おわりに 我々は,原文書に対して,任意の指定要約長 $k$ に応じたトークンスコアの算出とそれに伴うソフトマスクをかける機構 SumTop- $k$ を提案した。提案手法は End-to-End での学習が可能であり,追加の制約なしに要約の長さを操作することが可能である。 評価実験の結果,提案手法は既存手法と同等以上の要約性能を達成しつつ,要約長の制御が可能であることを確認した.特に CNN DailyMail データセッ卜においては BART や要約長操作可能な既存研究と比べて最も高い ROUGE スコアを達成し,XSum データセットでは,BART と同程度の ROUGE スコアを示した.また,SmTop-k のトークンスコアで上位 $\mathrm{k}$ 個のトークンが,生成要約に含まれるトークンと相関を持つことを確認し,SumTop- $k$ を用いることが生成要約の内容に寄与していることを確認した. さらに,トークンスコアを意図的に順位換えすることで,低品質の要約を改善し,生成要約の内容を操作できることを示した。 このような要約制御の機能は,自動要約技術を実応用する上で重要と考えられる. 今後は,原文書に現れないトークンが含まれるような抽象的な要約を生成できる長さ制御可能な要約手法を検討する. ## 参考文献 [1] Yujia Xie, Hanjun Dai, Minshuo Chen, Bo Dai, Tuo Zhao, Hongyuan Zha, Wei Wei, and Tomas Pfister. Differentiable top-k with optimal transport. In H. Larochelle, M. Ranzato, R. Hadsell, M.F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 20520-20531. Curran Associates, Inc., 2020. [2] 斉藤いつみ, 西田京介, 西田光甫, 大塚淳史, 浅野久子,富田準二, 進藤裕之, 松本裕治. 出力長制御と重要箇所の特定を同時に行う生成型要約. 人工知能学会全国大会論文集, Vol. JSAI2020, pp. 3Rin481-3Rin481, 2020. [3] Yuta Kikuchi, Graham Neubig, Ryohei Sasano, Hiroya Takamura, and Manabu Okumura. Controlling output length in neural encoder-decoders. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1328-1338, Austin, Texas, November 2016. Association for Computational Linguistics. [4] Sho Takase and Naoaki Okazaki. Positional encoding to control output sequence length. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3999-4004, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [5] Zhongyi Yu, Zhenghao Wu, Hao Zheng, Zhe XuanYuan, Jefferson Fong, and Weifeng Su. LenAtten: An effective length controlling unit for text summarization. In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 363-370, Online, August 2021. Association for Computational Linguistics. [6] Yizhu Liu, Qi Jia, and Kenny Zhu. Length control in abstractive summarization by pretraining information selection. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 6885-6895, Dublin, Ireland, May 2022. Association for Computational Linguistics. [7] Shuyang Cao and Lu Wang. Attention head masking for inference time content selection in abstractive summarization. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 5008-5016, Online, June 2021. Association for Computational Linguistics. ## A Case Study 成要約に含まれる。 図 3 原文書と参照要約の例と,BART と 5 種類の異なる指定要約長での提案手法による生成要約. 図 3 には,CNN DailyMail データセットの原文書とその参照要約と,BART と我々の提案手法である BART + SumTop- $k$ After_Attnにより, 5 種類の異なる指定要約長の生成要約を示した. 原文書の太字のトークンは SumTop- $k$ のトークンスコアが上位 $\mathrm{k}$ 個のトークンである. BART と比較して,提案手法 SumTop- $k$ で指定要約長を参照要約の長さとすると, 要約が短くなり参照要約の長さに近づくことがわかった. 指定要約長が 10 と 30 の生成要約では,ポール・ウォーカー の事故について記述されているが,指定要約長が 50 の要約では, シリーズの新作について,指定要約長が 70 の要約では,製作者の発言について記述されている.このように,希望する長さによって,要約に含めるべき内容が異なることが確認された. SumTop- $k$ のスコアが上位 $\mathrm{k}$ 個のトークン(太字部分)について前述の貢献度の結果からわかるように, SumTop- $k$ のスコアが上位 $\mathrm{k}$ 個のトークンも生
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P12-3.pdf
# 言語モデルを用いた漢文の返り点付与と書き下し文生成 王昊 清水博文 河原大輔 早稲田大学理工学術院 \{conan1024hao@akane. , bowen1205@toki . , dkw@\}waseda.jp ## 概要 漢文は約 2000 年前の弥生時代に中国から日本に伝えられ,それ以降日本文学に多大な影響を与えた. 今でも大学入学共通テストの国語において漢文は 200 点の内 50 点を占めている.そんな中,中国にある豊富な言語資源に比べ,日本にある漢文の書き下し文資源が非常に少ない.この問題を解決するために, 本研究は世界初の漢文訓読データセットを構築する。そして,漢文理解において重要視される返り点付与, 書き下し文生成の二つのタスクに対し,言語モデルを用いて精度向上を試みる。また,人間の評価結果と比較することで,最適な自動評価指標について議論する。 ## 1 はじめに 漢文は弥生時代 [1] に中国から日本に伝えられた。 そして奈良時代 [2] から日本語の文章として読めるよう, 漢文の語順構成を維持しながら訓点を付ける漢文訓読と, 日本語の文体として書き直した漢文訓読文 (または書き下し文) が発明された。漢文は『万葉集』[3] や『源氏物語』 $[4,5]$ など,多くの日本文学作品に影響を与えた. 今でも漢文は大学入学共通テストの国語において 200 点の内 50 点を占めており,漢文が日本文化に及ぼしている影響の大きさを示している. 中国語と日本語は共通の漢字を多く持つが,日本人にとって漢文を読むことは容易ではない,中国語,そして漢文の語順は,英語と同じ SVO (主語-動詞-目的語) である一方, 日本語の語順は SOV (主語目的語-動詞)である。そして,中国語は孤立語であり,時制や格などによって語の形は変化しない。一方,日本語は膠着語であり,接頭辞や接尾辞のような形態素がその語の文法関係を示している. 漢文を SVO から SOV に,孤立語から膠着語に変換するために,日本人は句読点,返り点,送り仮名などからなる漢文訓読システム [6] を開発した。表 1 漢文訓読データセットの例. データは白文,日本語読み順 (数字は白文中の順位を表している),書き下し文の3つ組から構成される。 中国には豊富な漢文の言語資源があるが,日本におけるそれらの書き下し文データは極めて少ない.例えば,『全唐詩』には 48,900 首以上の唐詩が収録されており,その全てにオンラインでアクセス可能である。しかし,我々の知る限りでは,日本では約 500 首の唐詩の書き下し文データしかインターネッ卜上に存在しない.この大きなギャップは,日本における漢文研究及び漢文教育の阻害要因となっている.『漢文大系』などの書籍の中に書き下し文のデータは多く存在するが,それらに OCR を適用し, データを整形するには膨大なコストがかかる.そのため,高性能な書き下し文生成器を構築することが書き下し文資源の不足を解消する最も効率的な方法と考えられる。 従来の研究 $[7,8,9,10,11]$ では, 返り点付与と書き下し文生成を含む一連の漢文に関する言語処理の手法が提案された. しかし, ルールベースであり性能が不十分である上,これらの研究ではデータセッ卜を作っておらず,定量的評価を行っていない.本研究では,世界初の白文 ${ }^{11}$-書き下し文ぺアからなる漢文訓読データセットを構築する (表 1).これを基に,言語モデルを用い,返り点付与器と書き下し文生成器を構築し, 両タスクにおいて定量評価を行う. そして,書き下し文の生成結果に対し,人手評価の結果と比較することで,最も適切な自動評価指標について議論する。 さらに,パイプラインを構築し, 白文の事前ソート (返り点付与) が書き下し文生成に貢献するかどうかを検証する。  表 2 データセットの統計量情報 (白文パート). ## 2 関連研究 UD-Kundoku [9, 10] は Universal Dependencies [12] に基づく漢文を書き下し文に変換する encodereorder-decode モデルである. まず encode では白文に対し形態素解析を行い, 依存構造解析を行う [7]. reorder ではルールベースによる返り点付与を行い,白文を日本語語順にソートする. 最後の decode ではルールベースによる送り仮名の付与を行う. これらの研究では書き下し文の生成結果に対して BLEU [13] と RIBES [14]を用いて評価を行っているが,数サンプルの評価に留まっており,定量的評価を行っていない。 ## 3 データセット構築とタスク設計 本研究は白文,日本語読み順,書き下し文の 3 つ組から構成される漢文訓読データセットを構築する. 漢文で使われる語彙や文法は時代によって変化するため,多くの時代をカバーするテキストを収集することが望ましいが,現時点ではそのような包括的なデータセットを作ることは困難である. 本研究では,書き下し文が付与されているデータソースとして最も大きいと考えられる『唐詩選』』を基にデー タセットを作成する。前処理として,ルールベースで書き下し文から白文の日本語語順を抽出し, 置き字や再読文字など特殊な文字に対し人手でアノテー ションを行う。また,辞書を用いて旧字体を可能な限り新字体に変換し,言語モデルの OOV 問題を軽減する。一つの詩の中の文が分割されないように,本研究では GroupShuffleSplit を使ってデータセットをTrain,Validaiton,Testに分割した。表 1 にデータの例,表 2 にデータセットの統計量情報を示す. 構築したデータセットに基づき,返り点付与と書き下し文生成の二つのタスクを設定する. 返り点付与3)では,白文を日本語の読み順 (SVO から SOV) に変換する. 書き下し文生成は,白文を書き下し文に変換する seq2seq タスクである. ## 4 実験設定 本研究は事前学習モデルをファインチューニングすることで,返り点付与と書き下し文の二つのタスクを解く.実験で使用する事前学習モデル及びハイパーパラメータを付録 A と B に示す. ## 4.1 タスクの実装 本節では,返り点付与と書き下し文のそれぞれの実装を説明する。本研究ではパイプラインも構築し, 白文の事前ソート (返り点付与) が書き下し文生成に貢献するかどうかについて実験を行う. 図 1 にパイプラインの概要を示す. 返り点付与に対して,本研究では BERT-like モデル $[15,16,17,18]$ を用いた rank-based のソート手法を採用する,入力としては,白文を文字単位に分割し,それぞれの文字を $\{$ 文字 $\}\{$ 白文中の文字の順位 $\}[\mathrm{SEP}]\{$ 白文 $\}$ の形に変換する. 白文中の文字の順位は同じ文字が二つ以上出現する場合に対応するために追加している。それぞれの文字の日本語語順中の順位を白文の長さで正規化し (長さ 5 の文に対し,順位は $1,2, \ldots, 5$ から $0.2,0.4, \ldots, 1$ に正規化される),学習における正解の値として設定する. モデルが出力した順位を昇順にソートし,元の文字に戻せば,日本語語順の白文を得ることができる。 図 1 の (A) に我々のソート手法の様子を示している. 書き下し文生成に対しては, T5 [19] と GPT [20] を用いて,白文から書き下し文を生成する.各モデルの真の性能を見るため, 生成結果に対しては一切フィルタリングを行わない. パイプラインについては,返り点付与モデルによって日本語語順にソートされた白文を $\mathrm{T} 5$ または GPT に入力し, 事前の返り点付与が書き下し文生成に貢献するかどうかを検証する。 ## 4.2 自動評価指標 語句の並べ替えの研究 $[21,22,23]$ に従い, 本研究では以下の指標を用いて自動評価を行う。 Kendall's Tau $(\tau)$ この指標は,二つの文の順位相関を測るものである.予測された文字順を真の文字順に並べ替えるために必要な交換回数が少ないほど,相関が強く,性能が良いことを意味する。 $ \tau=1-\frac{4(\# i n v e r s i o n s)}{\# \operatorname{char}(\# \operatorname{char}-1)} $ 2) https://kanbun.info/syubu/toushisen $000 . \mathrm{html}$ 3)実質上は文字の並べ替えとなっている. 図 1 パイプラインの概要図. (A) は返り点付与器,(B) は書き下し文生成器である。 Perfect Match Ratio (PMR) 予測された文字順と真の文字順が完全に一致する割合を示す指標. 書き下し文の評価について系統的な研究がないため,先行研究で用いられた BLEU [13] と RIBES [14] に加え,ROUGE-L [24] と BERTScore [25] を用いて自動評価を行う。単語ベースの評価は形態素解析への依存度が高く,また,漢文の関連パッケージが成熟していないことから,本研究では文字べースで上記の指標を計算する.BERTScore については,文字ベースの東北大 $\mathrm{BERT}^{4)}$ を用いて計算する。 ## 4.3 人手によるアノテーション 本研究は中国語と日本語のバイリンガル三名にアノテーションを依頼する. アノテータの選考基準としては以下のものを設ける: (1) 中国語の白文を読めること. (2) 大学入学共通テストの漢文パートで満点が取れること. 返り点付与に対しては,返り点付与器と人間の性能を比較するために,同じソート作業を参考文献やインターネットアクセスなしで行ってもらう.結果を集計し,Kendall's Tau と PMR スコアを計算する。 書き下し文生成に対しては,以下の三つの指標で 1 から 5 の 5 段階で評価してもらう.書き下し文の正しさを評価したいため,この評価では参考文献の参照を可能としている. また, データセットの品質を測るために,正解の書き下し文も人手評価する。 Relevance 白文を不足なく,乘離なく書き下しているかどうか. Accuracy 日本語としての語彙的, 文法的正しさ. 読み順の正しさ. Fluency 文の流暢さ,自然さ.漢詩のリズム感が残っているかどうか.  表 3 返り点付与における Kendall's Tau $(\tau)$ と PMR の評価結果. UD-Kundoku はベースラインで, Human スコアは三人のアノテータの結果の平均である. ## 5 結果と考察 ## 5.1 返り点付与 返り点付与の評価結果を表 3 に示す. 全ての BERT-like モデルはベースラインより高い精度を達成した. 中国語のモデルは,日本語のモデルよりも若干良い精度を示し, 漢文コーパスで事前学習した RoBERTa-classical-chinese-char は最も良い精度を示した。これは,事前学習で使われているコーパスにおける漢文の割合によるものだと考えられる。 人間と RoBERTa-japanese-char-wwm の PMR スコアはほぼ同じであるが,Kendall's Tau はモデルの方が $5.9 \%$ 高い。これは,細かい部分の予測では人間よりも BERT の方が精度が高いことを示している。 ## 5.2 書き下し文生成 書き下し文生成に対する評価結果を表 4 に示す. 自動評価では,全モデルが全ての評価指標でベー スラインを上回った. $\mathrm{mT5}$ の性能はモデルサイズの増大につれて上昇し,mT5-large が最も良い性能を示した. mGPTと mT5-small の性能はお互いに近い. 表 4 書き下し文生成の評価結果. UD-Kundoku はベースラインである. 表 5 自動 - 人手評価指標の Pearson $(r)$, Spearman $(\rho)$ 相関係数. 人手評価指標間の相関も示している. 人手評価では,mT5-small,mT5-large,mGPT の生成結果のみをアノテータに評価させた。自動評価と同様,mT5-large が最も良い性能を示した. 一方, mGPT は mT5-small の 8 倍以上のパラメータ数を持つが (詳細なモデルサイズを付録 A に示す), mT5-small のスコアは大きくmGPT を上回った. mT5,mGPT は共に主に mC4 [19] で事前学習しているため,コーパスの影響はほぼ排除できる。推測の一つとしては,mT5 のエンコーダが漢文の理解に大きな役割を果たしていると考えられる。しかし, これは仮説であり,追加の実験が必要である. 正解書き下し文は非常に高いスコアを獲得し,本データセットの書き下し文データが高品質であることが証明された。 表 5 に自動評価指標と人手評価指標間の相関係数を示す. BERTScore は三つの人手評価指標全てと最も高い相関を示した. ランクに基づくRIBES は最も低い相関を示した. BLEU と ROUGE-L に比べ, BERTScore は Relevance でわずかにリードしているが,Accuracy と Fluenceでは大幅に優れていた.これは,BERTScore が潜在的な文単位の意味を捉えることができる [25] ため, 文の正しさと流暢さを判断することができたと推測する. 人手評価指標間の相関も表 5 に示している. Accuracy と Fluency の相関が最も大きく, 語彙的,文法的に正しい日本語は流暢であることがわかる。表 6 パイプラインの評価結果. 一行目は素の生成結果,二行目は RoBERTa で事前ソートしてから生成させたもの, 三行目は正解でソートしてから生成させたもの. ## 5.3 パイプライン パイプラインの評価結果を表 6 に示す. 返り点付与モデル (RoBERTa) で事前ソートした結果, mT5-small のスコアが改善されたが, mT5-base と mT5-large はほとんどの評価指標で性能の低下を示した. 生成モデルの性能が上がれば,徐々に語順を考慮しながら書き下し文を生成できるようになると推測する. 返り点付与モデルの誤った予測により生成モデルが混乱し, 正しい語順を予測できなくなったと考えられる。 一方,正解を用いた事前ソートは,ほぼ全てのモデルにおいて一定の性能向上を示した. これは,正しい返り点付与は書き下し文の生成に貢献することを示している。 ## 6 まとめと今後の展望 本研究は,書き下し文資源の不足を解消するために,漢文訓読データセットを構築し,言語モデルを用いた返り点付与と書き下し文生成を試みた. 今後は,データセットを継続的に更新し,より包括的な漢文テキストを含むよう改良したいと考える。また,漢文の専門家と協力し,書き下し文生成結果の評価についてより適切な指標を探求していきたい。 ## 謝辞 本研究は JSPS 科研費 JP21H04901 の助成を受けて実施した. ## 参考文献 [1] 沖森卓也. 日本語全史. 筑摩書房, 2017. [2] 金文京. 漢文と東アジア一訓読の文化圏. 岩波書店, 2010. [3] 小林芳規. 万葉集における漢文訓読語の影響. 国語学, No. 58, pp. 23-47, 1964. [4] 段笑曄. 『源氏物語』における『白氏文集』引用の特色-登場人物の口ずさんだ詩句をめぐって. 北陸大学紀要 $=$ Bulletin of Hokuriku University, No. 32, pp. 181-192, 2008. [5] 長瀬由美. 源氏物語と平安朝漢文学. 勉誠出版, 2019. [6] Sydney Crawcour. An introduction to Kambun. University of Michigan, 1965. [7] 安岡孝一. 漢文の依存文法解析と返り点の関係について. 日本漢字学会第 1 回研究大会予稿集, pp. 33-48, 2018. [8] 安岡孝一. Universal dependencies treebank of the four books in classical chinese. DADH2019: 10th International Conference of Digital Archives and Digital Humanities, pp. 20-28, 2019. [9] 安岡孝一. 漢文の依存文法解析にもとづく自動訓読システム. 日本漢字学会第 3 回研究大会予稿集, pp. 60-73, 2020. [10] 安岡孝一. 漢文自動訓読ツール ud-kundoku の開発.東洋学へのコンピュータ利用第 32 回研究セミナー, pp. 3-25, 032020. [11] 安岡孝一, ウィッテルンクリスティアン, 守岡知彦,池田巧, 山崎直樹, 二階堂善弘, 鈴木慎吾, 師茂樹, 藤田一乘. 古典中国語(漢文) universal dependencies とその応用. 情報処理学会論文誌, Vol. 63, No. 2, pp. 355-363, 2022. [12] Marie-Catherine de Marneffe, Christopher D. Manning, Joakim Nivre, and Daniel Zeman. Universal Dependencies. Computational Linguistics, Vol. 47, No. 2, pp. 255-308, June 2021. [13] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [14] 平尾努, 磯崎秀樹, Kevin Duh, 須藤克仁, 塚田元, 永田昌明. Ribes: 順位相関に基づく翻訳の自動評価法て.言語処理学会年次大会発表論文集, Vol. 17, pp. D5-2, 2011. [15] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapo- lis, Minnesota, June 2019. Association for Computational Linguistics. [16] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv, 2019. abs/1907.11692. [17] Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, and Radu Soricut. Albert: A lite bert for self-supervised learning of language representations. arXiv, 2019. abs/1909.11942. [18] Pengcheng He, Xiaodong Liu, Jianfeng Gao, and Weizhu Chen. Deberta: Decoding-enhanced bert with disentangled attention. arXiv, 2020. abs/2006.03654. [19] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei $\mathrm{Li}$, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020. [20] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. 2019. [21] Baiyun Cui, Yingming Li, and Zhongfei Zhang. BERTenhanced relational sentence ordering network. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6310-6320, Online, November 2020. Association for Computational Linguistics. [22] Pawan Kumar, Dhanajit Brahma, Harish Karnick, and Piyush Rai. Deep attentive ranking networks for learning to order sentences. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, No. 05, pp. 8115-8122, Apr. 2020. [23] Yutao Zhu, Jian-Yun Nie, Kun Zhou, Shengchao Liu, Yabo Ling, and Pan Du. Bert4so: Neural sentence ordering by fine-tuning bert. arXiv, 2021. abs/2103.13584. [24] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 74-81, Barcelona, Spain, July 2004. Association for Computational Linguistics. [25] Tianyi Zhang*, Varsha Kishore*, Felix Wu*, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert. In International Conference on Learning Representations, 2020. ## A 事前学習モデル 以下に実験に用いた事前学習モデルの詳細を示す. BERT-like モデルは表 7,生成モデルは表 8 に示す. 表 7 事前学習モデルの詳細(返り点付与). & Wikipedia(ja) & 768 & 12 & 12 & 6,144 \\ & Wikipedia(ja) + CC-100(ja) & 768 & 12 & 12 & 18,377 \\ & Wikipedia(zh) & 768 & 12 & 12 & 21,128 \\ & Wikipedia(zh) + ext & 768 & 12 & 12 & 21,128 \\ & Wikipedia(zh) + Daizhige + ext & 768 & 12 & 12 & 26,318 \\ 表 8 事前学習モデルの詳細 (書き下し文生成). & mC4 (101 languages) & $172 \mathrm{M}$ & 512 & 8 & 6 & 250,112 \\ & mC4 (101 languages) & $390 \mathrm{M}$ & 768 & 12 & 12 & 250,112 \\ & mC4 (101 languages) & $973 \mathrm{M}$ & 1024 & 24 & 16 & 250,112 \\ & Wikipedia + mC4 & $1,417 \mathrm{M}$ & 2048 & 24 & 16 & 100,000 \\ ## B ハイパーパラメータ 表 9 亿実験に用いたハイパーパラメータを示す. 中括弧内の数字でグリッドサーチをして最適なものを選んでいる. 表 9 実験に用いたハイパーパラメータ. ## C 書き下し文の生成例 表 10 亿書き下し文の生成例を示す. mT5-large は最も性能がよく, 正解と同じ生成結果を得ている. mT5-base と mT5-small も正解に近い結果を生成しているが,若干の誤りがある。mGPT は白文にある文字を繰り返すことがあり,人手評価のスコアが低い原因となっている. 三列目の “未” は再読文字であり,“未だ... ず” と二回読む必要がある. これに対し, mT5-base と mT5-large は正しく書き下し文を生成しているが, mT5-small と mGPT は失敗している. 表 10 書き下し文の生成例.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P12-4.pdf
# 球体表面を利用した位置符号化 岡佑依 田中貴秋 平尾努 永田昌明 NTTコミュニケーション科学基礎研究所 yui.oka.vf@hco.ntt.co.jp ## 概要 系列変換モデルを使った文生成では,原文の構文構造を活用することで性能が向上することが報告されている. Transformer 内部で各単語の位置を表現する位置符号化において, 単語の絶対位置と構造位置 (単語の依存構造木での深さ)を同時に符号化することの有効性が示されている。一方, 既存法では, 符号化された値の衝突が起きたり, 単語の順序が保存されなくなるという問題がある. 本研究では,この問題を解決するため, 単語の絶対位置と構造位置を球体表面で表現する位置符号化を提案する。翻訳夕スクでの実験を行った結果, 既存手法と比べ提案手法は BLEU 值の改善傾向が見られた. また, 文の長さ, 依存構造木の深さ別での評価を行った結果, 構造位置が長文において有効であることがわかった. ## 1 はじめに 系列変換モデル Transformer [1] の登場によって文生成の性能は大きく向上した. しかし, 非常に流暢な文を生成できるものの,原文にはない情報や原文とは異なる内容の文をしばしば生成することがある. 固有表現のような簡単な語の誤りに関しては大規模な事前学習済み言語モデルを導入することで改善が期待できるが,原文と同じ単語を使いながら違う意味を生成する場合には不十分である. こうした問題を解決するため,原文の構文構造を活用する手法が提案されている $[2,3,4]$. その中でも, Wang ら [2] は Transformer 内部で単語の位置情報を取り扱う位置符号化において,各単語の依存構造木中における深さと文中の絶対位置 (文の先頭から何単語目か) とを加算する構造化位置符号化を提案した。このように位置情報を扱う埋め込みで系列文以外の情報を表現し単語分散表現に足し合わせる手法は,さまざまなタスクで使われており $[5,6]$ ,効果的である。一方で,この符号化を用いると同じ値をとる単語が複数でてきてしまう, または. 通常の絶対位置の順 図 1 提案手法の概要図 序が変わる可能性がある,絶対位置は生成性能に大きく影響を与える [2]ことから,言語生成タスクにとって重要な性質であり,保持すべき情報である。 本稿では,Wang らの方法 [2] の問題を解決するため,単語の絶対位置と依存構造上での深さを球体表面で表現する位置符号化を提案する. 図 1 に提案手法の直感的な例を示す. Transformer の位置符号化は,単語の位置を円周上の赤い点として表現する. つまり,角 $\theta$ を用いて単語の位置を表す。一方,提案法では,単語を球体表面上の青い点として表現する.つまり,単語の絶対位置は Tranformer の位置符号化と同様, 円周上の点として角 $\theta$ を用いて表し,依存構造木における深さを仰角 $\phi$ を用いて表す。このように $\theta$ と $\phi$ を用いて単語の位置を符号化することで值が重複することを回避する. 文生成タスクとして機械翻訳を採用し,中英,英日,英独翻訳における評価実験を行った結果,通常の Transformer, Wang らの手法と比較して提案法は BLEU 值の改善傾向がみられた. また, 原文の構文の複雑さを文の長さと構文木の深さで分類し, 評価した結果から, より複雑な文において提案法が有効であることが明らかとなった. ## 2 関連研究 ## 2.1 正弦波位置符号化 Transformer では,正弦波位置符号化 (Sinusoidal Positional Encoding, SPE) を用いて文中の単語の絶対位置を符号化し,その値を単語の分散表現に足し合わせる. SPEでは,単語の先頭からの絶対位置を $p o s$, 埋め込み表現の次元数を $d$ としたとき, 単語分散表現の $i$ 番目の要素に足し合わせる値 $E_{\mathrm{SPE}}(p o s, i)$ は以下の式で定義される。 $ \begin{gathered} E_{\mathrm{SPE}}(p o s, 2 i)=\sin \left(\frac{p o s}{\theta}\right) \\ E_{\mathrm{SPE}}(p o s, 2 i+1)=\cos \left(\frac{p o s}{\theta}\right) \end{gathered} $ このとき, $\theta=10000^{2 i / d}$ であり,偶数次元は正弦関数,奇数次元は余弦関数で定義される. さらに,SPE 絶対位置のみだけでなく,文中の単語間の相対的位置も表現している. 文中の位置 pos から任意の距離 $k$ 離れた位置 $p o s+k$ における $\mathrm{SPE}$ の値 $E_{\mathrm{SPE}}(p o s+k, 2 i)$ は $E_{\mathrm{SPE}}($ pos, $2 i)$ と回転角が $-k / \theta$ の回転行列の線形関数として以下の式で表現できる. $ \left[\begin{array}{cc} \cos \left(\frac{k}{\theta}\right) & \sin \left(\frac{k}{\theta}\right) \\ -\sin \left(\frac{k}{\theta}\right) & \cos \left(\frac{k}{\theta}\right) \end{array}\right]\left[\begin{array}{c} \sin \left(\frac{p o s}{\theta}\right) \\ \cos \left(\frac{p o s}{\theta}\right) \end{array}\right]=\left[\begin{array}{c} \sin \left(\frac{p o s+k}{\theta}\right) \\ \cos \left(\frac{p o s+k}{\theta}\right) \end{array}\right] $ よって, SPE は $k$ と pos の位置関係を, 回転角が $-k / \theta$ の回転行列を使ってアフィン変換によって表現していると捉えることができる [6]. このように単語間の相対位置を符号化することは機械翻訳の性能向上に寄与することが報告されており [7], 言語生成タスクにとって重要な性質の一つと考えられる。 ## 2.2 構造的位置符号化 前節で説明した Transformer の位置符号化 SPE は文を単語列として扱うための機構であり,そのままでは構文木から得られる情報を符号化することができない。そこで,Wang ら [2] は,位置符号化内部で依存構造木における単語の深さを符号化するための構造的位置符号化 (Structural Positional Encoding, StrcPE) を提案した. depを依存構造木の根となる単語の深さを 0 とした場合の各単語の依存木における深さとして,通常の絶対位置を符号化したものと $d e p$ を符号化したものを加算することで構文を考慮した符号化を行う (式 (4)). The boy wants for the girl to believe him. 図 2 通常の絶対位置表現 pos と構造的位置表現 depthによる表現例 $ E_{\mathrm{StrcPE}}(p o s, d e p, i)=E_{\mathrm{SPE}}(p o s, i)+E_{\mathrm{SPE}}(d e p, i) $ しかし、単語の絶対位置の符号化した值と依存木における深さを符号化した値を加算するだけでは, 図 2 にあるように The と boy の値が同一になる,つまり異なる位置に存在する単語の StrcPE 値が重複する. さらにこの符号化は, 全次元で絶対位置と構造的位置を足し合わせているため, 本来の SPE が持つ絶対位置表現や相対性 (式 (3)) が保存されないという問題点もある. ## 3 提案手法 単語の符号化された値が重複しない,かつ SPE の持つ相対性を限定的に保持したまま Transformer 内で原文の構文構造を考慮した符号化を実現するため,球体表面を利用した位置符号化 (Hyperspherical Positional Encoding, HPE) を提案する. 正弦波位置符号化では単語を $2 \pi / 10000^{2 i / d}$ の等間隔で円周上に配置していると捉えることができる。構造的位置符号化も同様,同じ円周上で絶対位置と依存構造木における深さという 2 つの情報をあわせて表現するが,前節で説明したとおり,符号化された值が重複することがあり得る。提案手法は,これの重複を防ぐため球体表面で依存構造木に位置を表現する。つまり,単語の絶対位置を円周上の点として表すためのパラメタ $\theta$ に対して単語の依存構造木中での深さを球面上の点として表すためのパラメタ $\phi$ を導入する。 球体表面を用いて単語の絶対位置と依存構造木における深さを表現するため,三次元極座標を元に式 (1) $ \begin{gathered} E_{\mathrm{HPE}}(p o s, d e p, 2 i, 2 j)=\sin \left(\frac{p o s}{\theta}\right) \cos \left(\frac{d e p}{\varphi}\right) \\ E_{\mathrm{HPE}}(p o s, d e p, 2 i, 2 j+1)=\sin \left(\frac{p o s}{\theta}\right) \sin \left(\frac{d e p}{\varphi}\right) \\ E_{\mathrm{HPE}}(p o s, d e p, 2 i+1)=\cos \left(\frac{p o s}{\theta}\right) \\ \theta=256^{2 i / d}, \varphi=64^{2 j / 2 d}, j=2 i \end{gathered} $ $\phi$ を導入するため,SPE の偶数次元 (式 (1)) を式 (5) と式 (6) へと分割し, 奇数次元 (式 (7)) は式 (2) と同様とした. この時,通常の絶対位置が生成性能に大きな影響を与える [2]ことから,半分の次元で絶対位置のみを保持し, 残り半分の次元で絶対位置と依存構造木中での深さを表現するようにした. さらに,值の増減が極端に小さくなるのを避けるため,パラメータ $\theta$ とパラメータ $\phi$ の分母をそれぞれ $256^{2 i / d}$ と $64^{2 j / d}$ とする. pos または dep を固定した時,SPE が持つような相対性 (式 (3)) を HPE が持つことは自明である. ## 4 実験 設定英独,中英,英日の翻訳タスクにおいて, SPE,StrcPE,HPE を採用した Transformer の比較評価を行なった. 英独は, WMT14 データセットを用いた. 440 万文対の学習データ,3,000 文対の開発データ,2,737 文対のテストデータからなる. 実際のデータは Stanford NLP group ${ }^{1)}$ が公開しているものを利用した. 中英は, NIST データセットを用いた. 125 万文対の学習データ, 878 文対の開発デー タ,5,262 文対のテストデータからなる. ${ }^{2)}$ 英日は ASPEC [9] データセットを用いた. 178 万文対の学習データ, 1,790 文対の開発データ, 1,812 文対のテストデータからなる。学習には [10]に倣って 100 万文対の学習データである train-1.txt のみを使用した.入出力はサブワードとし, Sentencepiece [11]を使いトークナイズを行った. このとき,語彙サイズは英独,中英で 32,000 ,英日で 16,000 とし,言語間で共有した.実装には fairseq [12]を用い,ハイパーパラメータは全てにおいて文献 [1] と同じに設定した.原文の依存構造の解析には $\mathrm{spaCy}^{3}$ )を用いた. 英語 1) https://nlp.stanford.edu/projects/nmt/ 2) $[2,8]$ によい,学習には LDC2002E18, LDC2003E07, LDC2003E14, そして, LDC2004T07, LDC2004T08, LDC2005T06 の Hansards 箇所を用いた. 開発には NIST2002 テストセット,テストには NIST2003,2004,2005,2006 のテストセットを用いた. 3) https://spacy.io/ 表 1 英独,中英,英日翻訳実験における BLEU 表 2 HPE と, 全次元で depthを考慮するよう pos/ $/$ と $\operatorname{depth} / \varphi$ を入れ替えた場合の英日,中英翻訳実験における BLEU の解析には, en_core_web_sm-3.2.0 モデル, 中国語の解析には zh_core_web_sm-3.2.0 モデルを用いた. 評価指標には BLEU[13] を用いた. 実験は異なるシー ドを用いて各 3 回行い,その平均を報告する. 結果表 1 に実験結果を示す. 全てのデータセットに対し, 改善幅は小さいものの HPE の BLEU 值は SPE に対して勝っている。一方,StrcPE は HPE よりもさらに BLEU 值の改善幅が小さく,英独では SPE よりも低下した.これらの結果より,HPE は StrcPE よりも依存構造における単語の深さを効果的に符号化できたと考える。 ## 5 分析 ## 5.1 構造的位置の影響 絶対位置 $p o s$ を利用しない場合,翻訳性能が大きく低下することが Wang らによって報告されている [2], HPE では, 絶対位置 pos はべクトルの全ての次元で,構造的位置 $d e p$ はべクトルの半分の次元でのみで表現される. そこで,構造的位置 $\operatorname{dep}$ が符号化にどの程度影響を与えるかを調べた。 HPE において, ベクトルの全ての次元で dep を表現するように式 (5)-(7) の pos $/ \theta$ と depth $/ \varphi$ を入れ替え,英日,英中のデータセットを用いて実験を行った. ${ }^{4)}$ なお, $\theta$ と $\varphi$ の分母は式 (8) と同様である. この入れ替えにより, pos はべクトルの半分の次元でのみ表現されることに注意されたい,表 2 に実験結果を示す. どちらの実験でも,ベクトルの全次元で dep を考慮すると,BLEU 值は大きく低下した. このことから,位置符号化において絶対位置が深さよりも明らかに支配的な役割を持つことがわかる.  表 3 中英翻訳実験におけるサブワード長別の BLEU 表 4 中英翻訳実験における構文木の最大の深さ別の BLEU ## 5.2 構文の複雑さにおける評価 深さを符号化する有効性を詳細に調べるため,文のサブワード数と依存構造木の最大の深さごとに BLEU 值を計算した。 表 3,4 に中英データセットにおける結果を示す.表 3 から,11 サブワード以上の場合,HPE の BLEU が全体的にやや高いことから,短い文以外には若干の効果があると考えられる.SPEと HPE を比較すると, 61 サブワード以上の場合には BLEU 改善幅が顕著である。このことから,構造位置は短い文ではあまり影響を与えることはないが,長文だと効果があることがわかる. 一方,10サブワード以下の非常に短い文の場合ではSPEが最も良いことから,単純な絶対位置のみで十分であることがわかる. 表 4 より, 表 3 と同じく, ほとんど場合で HPE は SPE,StrcPE よりも BLEU 値が良い,1文あたりの依存構造木の最大の深さごとにみると, 木の最大の染さが 1 といった単純な構造木の時, HPE は SPE よりも悪い. 一方, 最大の深さが 6 までのとき,StrcPE や HPE の BLEU 值はやや向上している.最大の深さが 7 以上といった複雑な構造を持つ文の場合, BLEU は 0.6 ポイントほど向上した. これらより, 単純な構造を持つ文では, 構造位置の効果が小さく,長い文または複雑な文の時にそれが有効であることがわかった。 ## 6 まとめ 本稿では Transformer において,単語の絶対位置と構造位置 (依存構造を用いた深さ)を球体表面で表現し符号化する,球体表面を利用した位置符号化 (Hyperspherical Positional Encoding, HPE) を提案した.英日,中英,英独の機械翻訳データセットを用いて提案法を従来からの位置符号化法と比較評価した結果,顕著ではないものの BLEU 值の改善傾向がみられた. 文長,依存構造木の深さごと評価結果から,長い文,依存構造が深い文においては依存構造を用いた深さは有効であることがわかった. さらに,同じ深さを表現する既存研究と比較した場合,提案手法は BLEU 值の改善傾向が見られた. ## 参考文献 [1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. CoRR, Vol. abs/1706.03762, , 2017. [2] Xing Wang, Zhaopeng Tu, Longyue Wang, and Shuming Shi. Self-attention with structural position representations. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 14031409, Hong Kong, China, November 2019. Association for Computational Linguistics. [3] Chuan Wang, Nianwen Xue, and Sameer Pradhan. A transition-based algorithm for AMR parsing. In Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 366375, Denver, Colorado, May-June 2015. Association for Computational Linguistics. [4] Yudai Kishimoto, Yugo Murawaki, and Sadao Kurohashi. Adapting BERT to implicit discourse relation classification with a focus on discourse connectives. In Proceedings of the Twelfth Language Resources and Evaluation Conference, pp. 1152-1158, Marseille, France, May 2020. European Language Resources Association. [5] Angela Fan, Claire Gardent, Chloé Braud, and Antoine Bordes. Using local knowledge graph construction to scale Seq2Seq models to multi-document inputs. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 4186-4196, Hong Kong, China, November 2019. Association for Computational Linguistics. [6] Vighnesh Leonardo Shiv and Chris Quirk. Novel positional encodings to enable tree-structured transformers, 2019. [7] Peter Shaw, Jakob Uszkoreit, and Ashish Vaswani. Selfattention with relative position representations. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), pp. 464-468, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [8] Xing Wang, Zhaopeng Tu, Deyi Xiong, and Min Zhang. Translating phrases in neural machine translation. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 1421-1431, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [9] Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. Aspec: Asian scientific paper excerpt corpus. In Nicoletta Calzolari (Conference Chair), Khalid Choukri, Thierry Declerck, Marko Grobelnik, Bente Maegaard, Joseph Mariani, Asuncion Moreno, Jan Odijk, and Stelios Piperidis, editors, Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC 2016), pp. 2204-2208, Portorož, Slovenia, may 2016. European Language Resources Association (ELRA). [10] Yui Oka, Katsuhito Sudoh, and Satoshi Nakamura. Length-constrained neural machine translation using length prediction and perturbation into length-aware positional encoding. 自然言語処理, Vol. 28, No. 3, pp. 778-801, 2021. [11] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for Neural Text Processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics. [12] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of NAACL-HLT 2019: Demonstrations, 2019. [13] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. SPE StrcPE, depth $=0$ HPE, depth $=0$ StrcPE, depth $=4$ HPE, depth $=4$ 図 $3 \mathrm{SPE}$ (上段), Wang らの $\operatorname{StrcPE}$ (中段), 提案手法の $\mathrm{HPE}$ (上段)をそれぞれ視覚化したもの. 縦軸が単語の絶対位置 $p o s$ を表す. 横軸は次元数 $d$ であり,式 (8),式 (6),式 (7) の次元別に合わせて表している. ## A 視覚化 先行研究との比較のため, 図 3 に各位置符号化のヒートマップを示す。明晰化のため,横軸を式 (8),式 (6), 式 (7) のベクトルの次元別に対応して表している. StrcPE ではべクトルの全次元において絶対位置 $p o s$ と構造的位置 $d e p$ を考慮しているため, $d e p$ の值に関わらず全次元でヒートマップの変域が SPE と比べ小さくなっており,位置符号化の表現の幅を狭める可能性がある。一方で,HPE ではベクトルの偶数次元でのみ, 絶対位置 $p o s$ と構造的位置 $d e p$ を考慮し, 奇数次元では絶対位置 $p o s$ のみ考慮する. そのため, 奇数次元は SPE と全く同じであり, depth $=0$ の時, $3 / 4$ の次元で SPE と同じ值を取る. さらに, $\operatorname{dep}=0$ 以外の時でも,変域は SPE と似たような分布になっており,位置符号化の表現の幅を最大限使っていると考えられる。 ## B パラメータ HPE では,同じような式変形を式 (6) に施すことで,さらにパラメータ tmp,גを追加していくことも可能である. $E_{\mathrm{HPE}}(p o s, \operatorname{dep}, t m p, 2 i, 2 j+1,2 k)=\sin \left(\frac{p o s}{\theta}\right) \sin \left(\frac{d e p}{\varphi}\right) \cos \left(\frac{t m p}{\lambda}\right)$ $E_{\mathrm{HPE}}(p o s, d e p, t m p, 2 i, 2 j+1,2 k+1)=\sin \left(\frac{p o s}{\theta}\right) \sin \left(\frac{d e p}{\varphi}\right) \sin \left(\frac{t m p}{\lambda}\right)$
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P12-5.pdf
# 語彙制約を間接的に用いた平易な要約の生成 森田 - $^{1}$ 飯塚 洸二郎 ${ }^{1}$ 久保光証 ${ }^{1}$ 1 株式会社 Gunosy \{hajime.morita, kojiro.iizuka, mitsumasa.kubo\}@gunosy.com ## 概要 ニュース配信はより多くの人に必要とする情報を届けることを目的としているが,必要な情報が過不足なく行き渡るまでには多くの課題が残されている. 例えば,読解力や語彙力には個人により開きがあり,必要な情報であったとしても記事の難しさが読者に合っていなければ読むことが難しくなってしまう. 必要な情報が届かない要因の一つが記事の文章が難しすぎることであるとすれば,記事の平易な要約を提供することがより多くの人へニュースを届けるために重要となる。 ここでは,ニュース記事を対象に平易な要約の生成を目的として,大規模言語モデルを利用した文章の平易化と要約生成の複合タスクを学習する方法を提案する。本稿では,要約に用いる語彙を制限することが,平易な言葉への言い換えを言語モデルから引き出せる一方で,幻覚とよばれる原文と異なる内容の要約生成が生成されやすくなることを示し, 語彙を制限した要約候補をランキング学習に用いることで平易な要約生成を学習する方法を提案する. ## 1 はじめに ニュース配信は最新の出来事や情報をすばやく, より多くのニュースを必要とする人々へ届けることを使命としており, 推薦・パーソナライズに代表される多くの研究が行われている $[1,2]$. しかし, ニュースが必要とする人すべてに行き渡る理想的な状態までには大きな隔たりが残っている。例えば,年金のような社会制度の変更はすべての人に関わるニュースであるが,令和 4 年の年金制度変更について知っていると回答した割合は $33 \%$ とどまるとされている [3]. ニュースが必要な人に届かない要因は,大きく分けて記事自体,配信プラットフォーム,ユーザのそれぞれに存在していると考えられる。ニュース記事自体が要因となるケースとしては長過ぎる記事や難解な記事などユーザの求める形とは記事が異なる場合,配信プラットフォームが要因となるケースとしては興味のあるユーザへ記事を届けられていない場合,ユーザが要因となるケースとしては可処分時間の減少など,様々な要因がありうる.本稿では記事自体が要因となるケースの中でも特に, 必要としているにも関わらず読解の困難さからニュースを読むことができない,またはニュースを読むこと自体を避けてしまう場合について注目する。 ニュース記事の難しさがニュースを敬遠する要因となる場合,もちろん難解な語彙や複雑な文法はニュースの理解を妨げる要因となるが,記事の長さも同様にニュースを読解を妨げる要因となりうる. この両方の要因を取り除くためには,難解な語彙や文法で書かれた文を分かりやすいものに変えるだけでなく,要点を絞り記事の長さ自体を短くする必要がある.つまり,記事に対して難しい語彙や文法を一定の意味を保ちつつ平易な文章に置き換える平易化と,文章の重要な情報を残したまま文章を短く書き換える要約の両方を行う必要がある. 本稿では,平易な要約の生成を目的として,大規模言語モデルを利用した文章の平易化と要約生成の複合タスクを学習する方法を提案する. 生成型のモデルを用いて平易な要約生成を行う単純な方法としては,難しい語彙を生成しないように要約生成時に利用可能な語彙を制限し,平易な語彙のみで要約を生成することが考えられる. しかし語彙の制限は,言語モデルが言い換え表現として適切なものを知らなかったとしても原文通りに出力することができなくなるため,幻覚 [4] とよばれる,原文とは内容の異なる誤った要約文の生成を増加させる懸念がある. 提案手法では,語彙の制限による幻覚の増加を回避するため, 通常の要約候補に加えて語彙を制限して生成した要約候補を候補のランキング学習 [5] に用いる。 ## 2 関連研究 ## 2.1 平易な要約生成 これまでにも平易な要約を生成するいくつかの取り組みが行われている. 菅井ら [6] は平易化と要約の処理をそれぞれ適用し,短く平易なテキストの生成を行っている. 平易化には統計的機械翻訳の手法を用いて,要約に用いる学習データとは別に「やさしい日本語コーパス」[7],「やさしい日本語拡張コーパス」[8], NNWE (NHK NEWS WEB EASY) [9] の一部を用いて学習している. 本稿も同じくNNWE のデータで評価を行っているが,平易化の学習のための外部リソースは利用していない。 Zaman らは Pointer-generator network の損失関数を拡張し, 平易な要約の生成を行っている [10]. この手法では平易な文生成を学習するため, 平易な語か否かをアノテーションした辞書を持っており, 生成した文の難しさを損失関数として表現している. 本稿の提案手法では辞書のような外部リソースは用いておらず,事前学習済み言語モデルを用いることにより少量の学習データで平易化を学習している点が異なる. ## 2.2 BRIO BRIO (Bringing order to Abstractive Summarization) はLiu らによって提案された生成型自動要約の学習手法である [5]. BRIO では訓練時の目的関数を拡張乙, 通常のクロスエントロピー損失関数に加えて複数候補のリランキングによるコントラスティブ損失関数を用いる。ここで,リランキングに用いる候補は事前学習済みの要約モデルによって予め生成されたものを利用する. コントラスティブ損失関数 $\mathscr{L}$ は $S_{i}$ と $S_{j}$ をそれぞれ $i, j$ 番目の候補, $S^{*}$ を参照要約として, $\operatorname{ROUGE}\left(S_{i}, S^{*}\right)>\operatorname{ROUGE}\left(S_{j}, S^{*}\right)$ とするとき,次の式で表される. $ \mathscr{L}_{c t r}=\sum_{i} \sum_{j>i} \max \left(0, f\left(S_{j}\right)-f\left(S_{i}\right)+\lambda_{i j}\right) $ ここで, $f\left(S_{i}\right), f\left(S_{j}\right)$ は長さについて正規化された要約文の生成確率, $\lambda_{i j}$ は候補間の順位差に基づいて計算されたマージンを表す。 本稿では BRIO の枠組みを平易な要約文のランキング学習のために利用するが,候補を並び替えるスコアとして ROUGE [11] の代わりに文の平易化を考慮した指標を用いるほか,平易化の学習をより効率的にするために候補生成時に語彙制約を利用する. ## 3 コーパス ## 3.1 NHK NEWS WEB EASY NNWE (NHK NEWS WEB EASY) [9] は小中学生や日本語を母語としない人に向けて, NNW (NHK NEWS WEB)[12] の記事をやさしい日本語に書き直したニュースサイトである. 各記事は元となった NNW の記事に対応付けられており,本稿では NNW-NNWE の記事対を原文と参照要約のペアとして利用する. 平日ごとに 4-5 記事が配信されており,過去 1 年分の記事を参照することができる. ## 3.2 Livedoor 3 行要約データセット livedoor ニュース [13] は Webニュースサイトであり,一部の記事には編集者によって人手で作成された 3 行要約が追加されている. 小平ら [14] はここから,2014 年から 2016 年までの 3 年分を収集し,記事 ID のリストを訓練,開発,テストに分けたデー タセットとして公開している。本稿ではべースとなる日本語要約モデルを学習するため, このデータセットをもとにクロールしなおしたものを訓練デー タとして利用する. ## 4 提案手法 語彙の制限による幻覚の増加を回避するため, 利用可能な語彙を制限した候補を通常の候補と合わせて候補のランキング学習 [5] に用いる。まず,候補生成に用いる事前学習モデルについて説明し, その後そのモデルを元にランキング学習を行う提案手法について説明する。 ## 4.1 平易な要約生成のベースモデル 本稿で用いる手法は,ランキング学習に用いる候補を生成するために平易な要約を生成するベースモデルが必要となる. このベースモデルを構築するため, Livedoor 3 行要約のデータセットで学習した後, さらに平易な要約のデータセットで追加の学習を行った. 以降,このモデルをベースモデルと呼ぶ. 本稿では, 要約のモデルとして T5 [15] を用いている. 本稿で扱うデータに合わせ,日本語の事前学習済み言語モデルとし $\tau$, megagonlabs/t5-base-japanese-web[16] を利用した. ## 4.2 語彙制約モデル 平易な要約を生成しょうとした時に,単純かつ外部データの必要のない方法として,言語モデルが生成する語彙を制限し,要約の生成時に難解な語彙の利用を禁止する方法がある. 文生成時に語彙を制限する手法は,Hu ら [17] により提案された手法を元にしたものが Transformers ライブラリ [18] に実装されている。この実装を用い,難解な語彙を制限した要約生成モデルを候補生成に用いる. この語彙制約モデルでは,語彙の難易度は語彙に含まれる漢字の難易度で近似することができると仮定する。これは荒い近似ではあるものの,Sato ら [19] によりテキスト中に用いられている文字 1-gram によりテキストの難易度を判定するモデルが提案されているなど,近い仮定はテキスト難易度の判定でも利用されている. この仮定を元に,常用漢字のうち,より難しいと考えられる中学校で習う 1,110 字を含んでいる語彙を言語モデルが出力する語彙から制限する。 常用漢字に含まれない,より難しい漢字は語彙制約として用いない.これは,ニューステキストで使われる漢字は基本的には常用漢字, 小中学校義務教育で習う 2,136 字からなっており, ニュース記事では常用漢字外の漢字は固有名詞など特別な場合に限られ,人名や地名など要約上重要かつ平易に言い換える意義の薄い場合が多いと考えられるためである。 ## 4.3BRIO を用いた平易な要約の生成 語彙制約モデルでは,言語モデルが難解な語彙を平易な語彙で置き換えて表現することを期待しているが,これには 2 つ問題がある.1つ目は,置き換えた表現が元の表現より平易な表現になっている保証はないことである.例えば,「蛍」を「光ることで有名な $15 \mathrm{~mm}$ ぐらいの虫」と言い換えても,読者が蛍を知らなければ理解することは難しく, かえって理解を困難にしてしまう. 語彙としては平易になっていたとしても,表現としては難しくなる可能性を語彙を制限するだけでは取り除くことができない. 2 つ目の問題は,誤った表現への言い換えにより,幻覚と呼ばれるような原文に書かれていない内容の要約 [4] を生成してしまうことである. 語彙制約モデルでは,言語モデルが言い換え表現として適切なものを知らなかったとしても原文通りに出力 することができなくなるため,モデルには不可能な言い換えを強制してしまう可能性がある。 提案手法では,このような弊害を避けつつ平易な表現への言い換えを学習するため,ランキングの学習に利用する要約候補に語彙制約モデルの生成した要約を含めることにより,語彙を制限した要約を間接的に学習に利用する. 具体的には, 語彙制約モデルの生成した要約と, ベースモデルの生成した要約を同じ件数ずつ要約候補として利用し,BRIO の枠組みを用いて学習を行う。 Liu らは式 1 で要約候補の並び順を決めるスコアとして ROUGE を用いているが,提案手法ではスコアとして SARI [20]を組み合わせて用いる. SARI とは文章平易化の自動評価指標であり,原文と参照文,生成文の 3 つを入力として受け取り,原文から参照文に残された語,原文から削除された語,原文から追加された語のそれぞれを 1-4 gram で評価したスコアを $\mathrm{SARI}_{\text {keep }}, \mathrm{SARI}_{\mathrm{del}}, \mathrm{SARI}_{\mathrm{add}}$ とし, 最終的なスコアはこの 3 つを平均したものとなる. 原文との差分を積極的にスコアへ反映することにより,平易な表現への言い換えをより鋭敏に捉えるように設計されている。しかし,要約候補を並べ替えるためのスコアとして見た場合には事情が異なり,要約ではほとんどの語が削除されるため SARI $\mathrm{Sel}_{\text {d }}$ は言い換えを捉える上で有用ではなく,SARI keep $^{\text {は ROUGE }}$ との重複が大きい。そこで提案手法では,平易な言葉への言い換えを評価するスコアとして SARI $\mathrm{add}$ のみを選び,これを元々 BRIO で用いられる ROUGE のスコアと平均して学習に用いた. ## 5 実験 ## 5.1 実験設定 モデルの学習には日本語要約の学習データとして Livedoor 3 行要約データ,平易な要約の学習デー タとして NNWEを用いた。NNWE は 2021 年 10 月 4 日から 2022 年 12 月 20 日までの 1,201 記事を収集し,961 件を訓練データ,各 120 件を開発,評価データとして利用した。 要約長は最大で 200 トークンとし, 学習時のパラメータは訓練エポック数を除き, Liu ら [5] のパラメータを利用した。学習で利用できる事例が少ないことから,訓練エポック数は最大 300 として実験を行っている. 表 1 実験結果 表 2 生成例と対応する原文の一部: 太字は語彙制約で利用できない文字を表す 原文(対応箇所 $\cdots 4$ 回目の接種を行う方針で、対象は当面、 $\boldsymbol{\nabla} 60$ 歳以上の人のほか、 $\boldsymbol{\nabla} 18$ 歳以 のみ)上の基礎疾患のある人か医師が重症化リスクが高いと判断した人としています。 語彙制約モデル 4 回目の注射は、18 以上の病気がある人か医師が病気になるリスクが高いと考えています。 提案手法 4 回目の注射は、 60 歳以上の人や、18 歳以上の病気がある人か、医師が重症になる危険が高いと判断した人だけです。 ## 5.2 実験結果 表 1 に実験の結果を示す.BRIO の枠組みを利用してベースモデルに加えて学習を行うことで, ROUGE,SARIを用いた場合のどちらも,ベースモデルと比べ大きく性能が向上している. BRIO と ROUGE,SARI を組み合わせた場合を比較すると,学習に用いた指標についてより性能が向上しており, 最適化したい指標で学習することが有効と分かる. また,語彙制約モデルでは ROUGE と SARI のどちらも性能が悪化してしまっており,単純な手法で語彙を制限することの弊害が明らかになった.一方, 提案手法では BRIO (ROUGE) とくらべると ROUGE ではやや劣るものの, BRIO (SARI) と比べて SARI,ROUGE ともにやや性能が向上しており,要約としての質を保ちつつ平易化の質を高めることができている. ## 5.3 議論 語彙制約モデルでは, ROUGE, SARI ともに語彙の制限を行わないモデルに比べて性能の低下が見られた. 性能低下の具体例を検討するため, 語彙制約モデルと提案手法の出力の一部を表 2 に示す. 語彙制約モデルの出力では「歳」や「疾患」などの文字の出力が制限されているため,省略あるいは「病気」 などの言葉へ置き換えられている。提案手法や原文と比較すると,「重症化リスク」を「病気になるリスク」に置き換えた直後で語彙制約モデルでは原文との対応を見失い,「注射は․リリクが高いと考えています。」と幻覚が生じてしまっていることがわか る.この例に限らず,語彙制約モデルでは妥当な言い換えであっても直後に幻覚を生成してしまう現象が多く見られた. 可能性として,言語モデルにとって確度の低い言い換えが強制されることにより,原文との対応を見失いやすくなることが考えられる。 語彙制約によりどの程度幻覚が生じるかを検証するために,手法ごとに 10 例を抜き出して生成された要約の各文に幻覚が含まれているかどうかを検証した. 結果を表 3 に示す. 表 1 と比較すると, ROUGE などの指標の変化以上に, 語彙制約モデルでは幻覚が大きく増えている事がわかる。 表 3 幻覚の出現数 \begin{aligned} & \hline 手法誤りを含む文の割合 \\ & \hline BRIO (SARI) $29.8 \% \\ &$ +語彙制約 $39.2 \% \\ &$ 提案手法 $22.8 \% \\ &$\hline\end{aligned} ## 6 おわりに 本稿では, 平易な要約の生成のため, BRIO の枠組みを用いて平易化評価指標の SARI について学習を最適化するとともに,語彙を制限した要約を候補に含めて平易化の性能向上を試みた。提案手法では SARI と BRIO を組み合わせた場合と比べ,SARI で 0.3 ポイントの向上が見られた. また,語彙を直接制限する場合と比べ,幻覚の出現が抑えられていることを確認した. 今後の課題として, 日本語平易化で用いられるコーパスや辞書などのリソースを活用した要約生成を行い,さらなる平易化の質の向上・安定化をはかることが必要と考えている. ## 参考文献 [1] Shiwen Wu, Fei Sun, Wentao Zhang, Xu Xie, and Bin Cui. Graph neural networks in recommender systems: A survey. ACM Comput. Surv., Vol. 55, No. 5, dec 2022. [2] Mohammad Mehdi Afsar, Trafford Crump, and Behrouz Far. Reinforcement learning based recommender systems: A survey. ACM Comput. Surv., Vol. 55, No. 7, dec 2022. [3] 2022 年 4 月から年金制度が改正。 $66.27 \%$ が知らなかったという結果に。| 株式会社日本マーケティングリサーチ機構のプレスリリース. https://prtimes.jp/main/html/rd/p/000001194. 000033417.html. [4] Joshua Maynez, Shashi Narayan, Bernd Bohnet, and Ryan McDonald. On faithfulness and factuality in abstractive summarization. In Proceedings of ACL 2020, pp. 19061919, July 2020. [5] Yixin Liu, Pengfei Liu, Dragomir Radev, and Graham Neubig. BRIO: Bringing order to abstractive summarization. In Proceedings of ACL 2022, pp. 2890-2903, May 2022. [6] 菅井内音, 西川仁, 徳永健伸. ニューステキストの要約及び平易化. NLP 2020 発表論文集, 2020. [7] Takumi Maruyama and Kazuhide Yamamoto. Simplified corpus with core vocabulary. In Proceedings of LREC 2018, May 2018. [8] Akihiro Katsuta and Kazuhide Yamamoto. Crowdsourced corpus of sentence simplification with core vocabulary. In Proceedings of LREC 2018, May 2018. [9] NHK NEWS WEB https://www3.nhk.or.jp/news/easy/. [10] Farooq Zaman, Matthew Shardlow, Saeed-Ul Hassan, Naif Radi Aljohani, and Raheel Nawaz. HTSS: A novel hybrid text summarisation and simplification architecture. Information Processing \& Management, Vol. 57, No. 6 , p. 102351, 2020. [11] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 74-81, July 2004. [12] NHK NEWS WEB. https://www3.nhk.or.jp/news/. [13] ライブドアニュース(livedoor ニュース). https://news.livedoor.com/. [14] 知範小平, 守小町. TL;DR 3 行要約に着目したニュー ラル文書要約. 電子情報通信学会技術研究報告, Vol. 117, No. 212, pp. 193-198, 092017. [15] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei $\mathrm{Li}$, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020. [16] megagonlabs/t5-base-japanese-web . Hugging Face. https://huggingface.co/megagonlabs/t5-base-japaneseweb. [17] J. Edward Hu, Huda Khayrallah, Ryan Culkin, Patrick Xia, Tongfei Chen, Matt Post, and Benjamin Van Durme. Improved lexically constrained decoding for translation and monolingual rewriting. In Proceedings of NAACL 2019, pp. 839-850, June 2019. [18] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Remi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander Rush. Transformers: State-of-the-art natural language processing. In Proceedings of EMNLP 2020, pp. 38-45, October 2020 . [19] Satoshi Sato, Suguru Matsuyoshi, and Yohsuke Kondoh. Automatic assessment of Japanese text readability based on a textbook corpus. In Proceedings of LREC 2008, May 2008 . [20] Optimizing statistical machine translation for text simplification. Transactions of the Association for Computational Linguistics, Vol. 4, pp. 401-415, 2016.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P12-6.pdf
# 事前学習済みモデル T5 における近傍分布の有効性の調査 丹羽彩奈 ${ }^{1}$ 岡崎直観 1 1 東京工業大学情報理工学院 \{ayana.niwa[at]nlp, naoaki.okazaki[at]\}c.titech.ac.jp ## 概要 大規模なデータストアから近傍事例を検索し,テキスト生成モデルを補強するメモリ拡張手法が有望視されている。特に最近では、時間ステップごとのモデルの予測分布を近傍事例に基づく分布で補間することで追加の学習なしに機械翻訳性能を向上させるシンプルかつ効果的なアプローチ(kNN-MT)が提案された [1]。本研究は、そのアプローチを学習コストの観点から捉え、事前学習済みモデルに $k$ 近傍モデルを組み込むことで少ない学習コストで性能を向上させることを目的とする。本稿ではそのための一歩として、kNN-MT の枠組みを事前学習済みのエンコーダ・デコーダモデル $\mathrm{T} 5$ に導入し、様々な入出力設定をもつ自然言語生成タスクや、zero-shot などの複数の学習設定における近傍事例の有効性を調査した。その結果、事前学習で得た生成能力と近傍分布を組み合わせることで、少ない学習コストでタスク特化の生成を行える可能性が示唆された。 ## 1 はじめに メモリ拡張モデルは、ベースとなるモデルと大規模なデータストアから検索した近傍事例(kNN)を組み合わせて最終出力を決定する。このアプローチではモデルパラメータの学習による暗黙的な記憶とデータストアによる明示的な記憶の両方が性能向上に寄与するため [2]、品詞タグ付け [3] や構文的曖昧性解消 [4]、用例べース機械翻訳 [5] など、幅広い夕スクで活用されてきた。 特に最近では、デコーダのみからなる言語モデル GPT-2 [6] の時間ステップごとの予測分布を $k$ 近傍モデルで補間する $k \mathrm{NN}-\mathrm{LM}$ が追加の学習なしに性能を向上させることに成功し、後続の研究に大きなインパクトを与えた [2]。kNN-LM のアプローチはエンコーダ・デコーダモデルに拡張され、言語モデリングだけではなく機械翻訳(kNN-MT)[1,7] や自然言語推論 [8]、文法誤り訂正 [9] など個別のタスク に適用されている。 これらのアプローチは、特に低頻度語などの学習時に覚えきれなかった知識に有効であり、モデルがもつ知識を補間できることが性能向上のひとつの要因であると指摘されている [2]。この知識の補間は、近年自然言語処理タスクで主流になりつつある、事前学習時とは異なるタスク特化の知識を fine-tuning で獲得するアプローチと共通する考え方である。そこで、本研究では fine-tuning で得るタスクの知識を近傍分布で補間することで学習コストを削減することを目的とし、事前学習済みのエンコーダ・デコー ダモデルに kNN-MT のアプローチを組み込む。 本稿は、機械翻訳や自動要約などあらゆる自然言語処理タスクを系列から系列への変換としてみなして統一的な枠組みで扱う T5 モデル [10]をべースのモデルとして採用する。そして、この $\mathrm{T} 5$ モデルをさまざまな自然言語生成タスクに適応させる際に、近傍分布を活用してタスク特化の知識を補間する。既存研究では同一タスク内でのドメイン適応に対する有効性が示されてきた。本研究は事前学習済み工ンコーダ・デコーダモデルを別タスクに適応するために近傍分布を活用するはじめての研究である。 本項では、そのための一歩として、まず kNN-MT の枠組みを組み込んだ T5を機械翻訳だけではなく自動要約、対話生成、Data-to-text など様々な入出力をもつタスクに適用し、その近傍分布の有効性を調べた。また、学習コスト削減に関する有効性について調査するため、全学習事例を用いた fine-tuning だけではなく、zero-shot や few-shot 設定において近傍分布を組み込み、少ない学習でより良い性能を達成するアプローチが有望か調査した。実験結果より、現状では近傍分布が有効なタスクは限定的であるものの、翻訳タスクでは $\mathrm{T} 5$ においても比較的小規模なデータストアで性能を改善できることを確認した。また、特定のタスクにおいて近傍分布を活用することで、少量の学習事例を用いた few-shot の性能を全学習事例で fine-tuning した場合の性能に近づけ 図1 生成済みの系列“Obama’s birthplace is”に続くトークンを予測する際の手法の概要図 られることを確認した。 ## 2 近傍分布を用いたテキスト生成 本研究では、Khandelwal ら [1] が提案した近傍事例を用いたモデル kNN-MT を T5 に適用し、任意のテキスト生成タスクに用いる(図 1)。ベースとなる自己回帰モデルは、入力系列 $x$ と既に生成済みの系列 $\hat{y}_{1: i-1}$ に基づき、 $i$ 番目のトークンの確率分布 $p\left(y_{i} \mid x, \hat{y}_{1: i-1}\right)$ を予測する。 ## $2.1 \mathrm{kNN-\mathrm{MT}$} $k$ NN-MT は、 $k$ 近傍モデルをエンコーダ・デコー ダアーキテクチャに統合した機械翻訳のための Transformer モデルである [1]。学習済みの翻訳モデルの出力分布 $p_{\mathrm{MT}}(y \mid x)$ をノンパラメトリックな $k$近傍モデルによって求めた近傍分布 $p_{\mathrm{kNN}}(y \mid x)$ で線形補間することで最終的な分布 $p\left(y_{i} \mid x, \hat{y}_{1: i-1}\right)$ を求める。ここで、 $\hat{y}$ は既に生成されたトークンを表す。 $ \begin{aligned} \left.p_{(} y_{i} \mid x, \hat{y}_{1: i-1}\right)= & \lambda p_{\mathrm{kNN}}\left(y_{i} \mid x, \hat{y}_{1: i-1}\right) \\ & +(1-\lambda) p_{\mathrm{MT}}\left(y_{i} \mid x, \hat{y}_{1: i-1}\right) \end{aligned} $ ここでハイパーパラメータ $0 \leq \lambda \leq 1$ は補完係数であり、値が大きいほど近傍分布が最終的な分布に大きな影響を及ぼす。 データストアの構築データストア $(\mathscr{K}, \mathscr{V})$ は、全ての学習事例 $(X, \mathcal{Y})$ のトークンごとの隠れべクトル $\boldsymbol{h}\left(x, \hat{y}_{1: i-1}\right)$ をキー、その隠れべクトルに対応する正解トークン $y_{i}$ を值とするぺアの集合である。 $ (\mathscr{K}, \mathscr{V})=\left.\{\left(\boldsymbol{h}\left(x, y_{1: i-1}\right), y_{i}\right) \mid \forall y_{i} \in y, y \in \mathcal{Y}\right.\} $ 近傍分布 $p_{\mathrm{kNN}}$ の計算まず、モデルは入力系列 $x$ と生成済みの系列 $\hat{y}_{1: i-1}$ を受け取り、隠れべクトル $\boldsymbol{h}\left(x, \hat{y}_{1: i-1}\right)$ を語彙数次元のベクトルに線形変換することで次の単語に対する出力分布 $p_{\mathrm{MT}}\left(y_{i} \mid x, \hat{y}_{1: i-1}\right)$ を得る。次に、 $k$ 近傍モデルが $\boldsymbol{h}\left(x, \hat{y}_{1: i-1}\right)$ をクエリとしてデータストアから距離関数 $d(\cdot, \cdot)$ に従って近さ Top- $k$ の近傍事例 $\mathcal{N}=\left.\{\left(\boldsymbol{k}_{j}, v_{j}\right) \in(\mathscr{K}, \mathscr{V})\right.\}_{j=1}^{k}$ を検索する。この距離関数 $d(\cdot, \cdot)$ には $L^{2}$ 距離を用いる。最後に、その負の距離に温度 $T$ のソフトマックス関数を適用することで、語彙数次元の近傍分布 $p_{\mathrm{kNN}}\left(y_{i} \mid x, \hat{y}_{1: i-1}\right)$ を得る。 $ \begin{aligned} & p_{\mathrm{k} N N}\left(y_{i} \mid x, \hat{y}_{1: i-1}\right) \propto \\ & \sum_{\left(\boldsymbol{k}_{j}, v_{j}\right) \in \mathcal{N}} \mathbb{\square}_{v_{j}=y_{i}} \exp \left(\frac{-d\left(\boldsymbol{k}_{j}, \boldsymbol{h}\left(x, \hat{y}_{1: i-1}\right)\right)}{T}\right) \end{aligned} $ ## $2.2 \mathrm{kNN-\mathrm{T} 5$} 本研究では、事前学習済みモデルに $k$ 近傍モデルを統合して低コストで良い性能を達成することを目的とする。ベースとなる事前学習済みのエンコーダ・デコーダモデルには、Text-to-Text Transfer Transformer (T5) [10]を採用する。T5 は、教師なしタスクと教師ありタスクで事前学習された Transformer ベース [11]のモデルであり、あらゆる自然言語タスクを text-to-text タスクとして見なし、プレフィックスを用いることで生成タスクを切り替える。 kNN-MT のベースである Transformer モデルを T5 モデルに置き換え、各ステップのモデルの出力分布 $p_{\mathrm{T} 5}\left(y_{i} \mid x, \hat{y}_{1: i-1}\right)$ を近傍分布で補間することで最終的な分布を求める。推論時およびデータストア構築に用いる隠れべクトル $\boldsymbol{h}\left(x, \hat{y}_{1: i-1}\right)$ の計算時には、入力系列の先頭にタスクごとのプレフィックス (例: 英独翻訳では“translate English to German:”)を連結してモデルに入力する 1)。隠れべクトルにはデコーダ側のフィードフォワード層の最終層への入力を用いる。データストアの構築方法や近傍分布の計算方法は kNN-MT に従う。 ## 3 実験 実験では、事前学習された T5 モデルに対する近傍分布の有効性について、幅広い自然言語生成タスクと学習設定で調査する。 ## 3.1 実験設定 データセット自然言語生成タスクのベンチマークである $\mathrm{GEM}^{2}$ )から自動要約(XSum データセット、以下XSum [12])、対話生成 (Schema-Guided Dialog データセット、以下 Dialog [13])、Data-to-Text (DART データセット、以下 DART [14])のタスクを  表 1 実験で用いるデータセットの統計値 選定した。XSum は短い単文への自動要約、Dialog は直前の発話とエージェントの対話行為から応答を生成するタスク志向型の対話生成、DART は Wikipedia に含まれるテーブルからのテキスト生成である。表 1 に示した各データセットの統計情報の通り、これらは比較的小規模なデータセットである。さらに、当ベンチマークセットには含まれない生成タスクとして機械翻訳(WMT'16 英独) も採用する ${ }^{3)}$ 。これらのデータは全て Huggingface Datasets ${ }^{4)}$ からダウンロードした。 モデル二種類のサイズの $\mathrm{T} 5$ モデルである t5-small と t5-base を用いる5)。パラメータサイズはそれぞれ 60M、220M である。入出力設定が特殊な Dialog、DART、XSum はそれぞれ fine-tuning を行った。学習や推論の詳細については付録 B に示した。実装は全て Huggingface Transformers ${ }^{6)}$ で行った。 近傍分布の統合近傍探索ライブラリ faiss [15]を用いてデータストアから近傍事例を検索した。なお、統合方法に関するハイパーパラメータ $(k, T, \lambda)$ は、 $k \in\{32,128,256,512\} 、 T \in\{10,50,100,200\} 、$ $\lambda \in\{0.2,0.4,0.6,0.8\}$ の組み合わせから開発データでの性能に基づき決定した。 評価 XSum、Dialog、DART は GEM-metrics ${ }^{7}$ で求めた BLEU [16]、ChrF [17] と ROUGE [18] で評価した。WMT'16 英独は、既存研究と同様に BLEU で評価する。BLEU の算出では SacreBLEU [19] を用い、大文字小文字を区別した。 ## 3.2 実験結果 まず、全ての学習事例で fine-tuning した場合 ${ }^{8)}$ の近傍分布の統合なしとあり (+kNN) の場合の性能と近傍分布の統合方法に関するハイパーパラメー 3)機械翻訳は WMT の Shared task でのベンチマークとして確立しているため GEM から除外されている。 4) https://github.com/huggingface/datasets 5) https://huggingface.co/t5-small, https: //huggingface.co/t5-base 6) https://github.com/huggingface/transformers 7) https://github.com/GEM-benchmark/ GEM-metrics 8)事前学習に含まれる翻訳タスクは除く 図 2 用いるデータストアの事例の割合 (横軸) を変化させた時の WMT'16 英独の評価データでの BLEU 值(縦軸) タ、またデータストアのサイズ $D$ を表 2 に示した。結果として、事前学習済みエンコーダ・デコーダモデルにおける近傍分布の有効性は、タスクによって大きく異なる傾向を示した。まず、自動要約・対話生成・Data-to-text タスクでは近傍分布が性能向上にほとんど寄与しない。逆に既存研究でも有効性が示されている機械翻訳タスクでは 2.6 ポイント以上 BLEU 值が向上した。機械翻訳タスクとその他の夕スクの最も明示的な違いは、機械翻訳タスクの 1/50 以下しかないデータストアの小ささである。既存研究 [1] で用いられている WMT'19独英のデータストアのサイズが $770 \mathrm{M}$ であることを踏まえても、今回近傍分布が有効でなかった 3 つのタスクのデータストアは相対的に著しく小さい。そこで、データストアのサイズが WMT'16 英独の性能に与える影響を調べるため、データストアのサイズを小さくした時の BLEU 值の推移を調べた(図 2)。これによると、 データストアの大きさと性能の間に相関関係があることが確認できる。よって、事前学習モデルに近傍分布を統合する際にもデータストアの大きさは重要であることが示唆される。しかしながら、任意の夕スクでデータストアのサイズを大きくすることは容易ではない。 そこで、次はデータストアのサイズを大きくすることなく事前学習済みモデルで近傍分布を有効に活用する方法について調査する。具体的には、事前学習時の知識のみを使ってベースモデルの出力分布 $p_{\mathrm{T} 5}$ を計算させ、タスクの知識を近傍分布のみから得る zero-shot 設定での性能を調べた(表 3)。その結果、zero-shot 設定の性能もタスクによって大きな違いが見られた。特に顕著なのは、Dialog と DART で近傍分布を統合した場合の性能が大きく向上した点である。Dialog では自然言語文に加えてエージェ 表 2 自然言語生成タスクでの性能と近傍分布に関する最適なハイパーパラメータおよびデータストアのサイズ $D$ 表 3 t5-small の実験。B は BLEU 值、R は ROUGE 值を示す。 $\lambda=1$ は近傍分布のみを用いてテキストを生成した場合の性能である。 ントの対話行為情報が、DART では自然言語文ではなく構造化データが入力として与えられる。そのため、両タスクとも T5 の事前学習時の入出力設定とは異なり生成の難易度が高く、zero-shot ではほとんど解くことができない。しかし、近傍分布を統合することで事前学習時にはないタスク固有の知識を追加学習なしに活用できるようになる。一方で、これらの性能は $\lambda=1$ 、つまり近傍分布のみで生成した結果とほぼ変わらない性能であり、事前学習で獲得したテキスト生成能力をほとんど使えていない。そのため fine-tuning ありの場合に比べて性能は大きく劣り、実用性に欠ける。 そこで、次は学習コストを抑えつつべースモデルの生成能力と近傍分布の両方を有効活用する設定を探るべく、ランダムサンプリングした 32 件の学習事例を用いて few-shot 学習を行った。結果を表 3 の下半分に示した。特筆すべきは、Dialog で少数の学習を追加することでベースのモデルの BLEU 値が近傍分布なし・ありともに 8.5 ポイント以上向上した点である。これは、入力に自然言語文が含まれることから比較的事前学習された知識を転移しやすい設定であるためだと考えられる。学習コストについて考えると、全ての学習データで学習する場合に比べてステップ数を $1 / 250$ 、延べ学習事例数を $1 / 4000$ にまで削減しつつ、GEM のベースラインの報告値である 50.0 (ROUGE-L) ${ }^{9}$ に対して差を 5 ポイント以下にまで近づけられたことになる。つまり学習コス卜を減らすという目的で近傍分布を組み込むことが少なくとも特定の条件下では有望であることがわかった。近傍分布の有効性は顕著である一方で、 ベースモデルの性能は依然として低く、学習コストを下げることで性能を必要以上に犠牲にしてしまう。また、XSum と DART では少量の学習事例だけではモデルの生成能力を引き出すことはできなかった。事前学習で獲得した生成能力と近傍分布を幅広い入出力設定のタスクにおいて活用できる few-shot 手法の検討は今後の課題である。 ## 4 結論 本研究では、メモリ拡張モデル kNN-MT の枠組みを事前学習済みのエンコーダ・デコーダモデル T5 に適用し、任意のテキスト生成に適用可能な手法として一般化した上で、低学習コストで高い性能を達成するための近傍分布の活用法の検討に取り組んだ。機械翻訳、自動要約、対話生成、Data-to-text という幅広い入出力の自然言語生成タスクを用いた実験により、近傍分布の統合は少なくとも特定のタスク設定においては有効であり、学習コストを大幅に抑えつつ事前学習済みモデルを各タスクにノンパラメトリックに適応させられる可能性が示された。今後は、近傍分布が有効であるタスクの性質の更なる分析や、学習コストと性能のトレードオフを改善する近傍分布の統合方法について調査を進めたい。  ## 謝辞 本研究成果は、国立研究開発法人情報通信研究機 構(NICT)の委託研究「自動翻訳の精度向上のため のマルチモーダル情報の外部制御可能なモデリング の研究開発」(課題 225)により得られたものです。 ## 参考文献 [1] Urvashi Khandelwal, Angela Fan, Dan Jurafsky, Luke Zettlemoyer, and Mike Lewis. Nearest neighbor machine translation. In International Conference on Learning Representations, 2021. [2] Urvashi Khandelwal, Omer Levy, Dan Jurafsky, Luke Zettlemoyer, and Mike Lewis. Generalization through memorization: Nearest neighbor language models. In International Conference on Learning Representations, 2020. [3] Walter Daelemans, Jakub Zavrel, Peter Berck, and Steven Gillis. MBT: A memory-based part of speech taggergenerator. In Fourth Workshop on Very Large Corpora, Herstmonceux Castle, Sussex, UK, June 1996. [4] Claire Cardie. Domain-specific knowledge acquisition for conceptual sentence analysis. Computer Science Department Faculty Publication Series, p. 60, 1994. [5] Eiichiro Sumita and Hitoshi Iida. Experiments and prospects of example-based machine translation. In 29th Annual Meeting of the Association for Computational Linguistics, pp. 185-192, Berkeley, California, USA, June 1991. [6] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. 2019. [7] Yuxian Meng, Xiaoya Li, Xiayu Zheng, Fei Wu, Xiaofei Sun, Tianwei Zhang, and Jiwei Li. Fast nearest neighbor machine translation. In Findings of the Association for Computational Linguistics: ACL 2022, pp. 555565, Dublin, Ireland, May 2022. [8] Weijia Shi, Julian Michael, Suchin Gururangan, and Luke Zettlemoyer. knn-prompt: Nearest neighbor zero-shot inference. arXiv, 2022. [9] Masahiro Kaneko, Sho Takase, Ayana Niwa, and Naoaki Okazaki. Interpretability for language learners using example-based grammatical error correction. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics, pp. 7176-7187, Dublin, Ireland, May 2022. [10] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. J. Mach. Learn. Res., Vol. 21, No. 1, jun 2022. [11] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, pp. 5998-6008, 2017. [12] Shashi Narayan, Shay B. Cohen, and Mirella Lapata. Don't give me the details, just the summary! topicaware convolutional neural networks for extreme summarization. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 1797-1807, Brussels, Belgium, October-November 2018. [13] Abhinav Rastogi, Xiaoxue Zang, Srinivas Sunkara, Raghav Gupta, and Pranav Khaitan. Towards scalable multi-domain conversational agents: The schemaguided dialogue dataset. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, No. 05, pp. 8689-8696, Apr. 2020. [14] Linyong Nan, Dragomir Radev, Rui Zhang, Amrit Rau, Abhinand Sivaprasad, Chiachun Hsieh, Xiangru Tang, Aadit Vyas, Neha Verma, Pranav Krishna, Yangxiaokang Liu, Nadia Irwanto, Jessica Pan, Faiaz Rahman, Ahmad Zaidi, Mutethia Mutuma, Yasin Tarabar, Ankit Gupta, Tao Yu, Yi Chern Tan, Xi Victoria Lin, Caiming Xiong, Richard Socher, and Nazneen Fatema Rajani. DART: Open-domain structured data record to text generation. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 432-447, Online, June 2021. [15] Jeff Johnson, Matthijs Douze, and Hervé Jégou. Billionscale similarity search with GPUs. IEEE Transactions on Big Data, Vol. 7, No. 3, pp. 535-547, 2019. [16] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: A method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting on Association for Computational Linguistics, p. 311-318, USA, 2002. [17] Maja Popović. chrF: character n-gram F-score for automatic MT evaluation. In Proceedings of the Tenth Workshop on Statistical Machine Translation, pp. 392-395, Lisbon, Portugal, September 2015. [18] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 74-81, Barcelona, Spain, July 2004. [19] Matt Post. A call for clarity in reporting bleu scores. WMT 2018, p. 186, 2018. [20] Leonardo F. R. Ribeiro, Martin Schmitt, Hinrich Schütze, and Iryna Gurevych. Investigating pretrained language models for graph-to-text generation. In Proceedings of the 3rd Workshop on Natural Language Processing for Conversational AI, pp. 211-227, Online, November 2021. ## A 実験設定の詳細 実験で用いる入力系列の設定 DART の入力系列は、Wikipedia のテーブルに含まれる主語、述語、目的語の三つ組のセットを既存研究 [20] と同様に各要素の前に特殊トークン $<\mathrm{H}>,<\mathrm{R}>,<\mathrm{T}>$ を付けて系列化した。また、T5 モデルに用いたプロンプトは以下の通りである。 自動要約 “summarize:” 対話生成 “Prompt:, Response Type: $\longrightarrow$, Type of Slot: Agent: " Data-to-text "translate graph to English:" 機械翻訳 "translate English to German:"対話生成のプロンプトは、ベンチマーク GEM で推奨されているものを用いた。 ## B 実験の詳細 ## B. 1 学習と推論のパラメータ設定 XSum はバッチサイズ 16、学習率 2e-05 で 50 エポック、Dialog はバッチサイズ 256、学習率 0.001 で 5000 ステップ、DART はバッチサイズ 24、学習率 7e-05 で 40 エポック学習した。また、推論時のビー 么幅は全て 5 に設定した。 ## B. 2 zero-shot 学習に近傍分布を組み込む 際の留意点 近傍分布のハイパーパラメータである $k, T, \lambda をそ$ れぞれ固定した時の全学習事例による fine-tuning あり(full)の設定と zero-shot(zero)の設定の BLEU 値の分散値の比率 $\operatorname{Var}\left(\mathrm{BLEU}_{\text {zero }}\right) / \operatorname{Var}\left(\mathrm{BLEU}_{\text {full }}\right)$ をを図 4 に示した。值が大きいほど zero-shot における性能がハイパーパラメータに敏感であることを示す。 これによると、データセット間で違いがあるが特に Dialog と DART の zero-shot における性能が両パラメータに大変敏感であり、温度パラメータや近傍事例数によって大きく性能が異なることがわかる。そのため、事前学習済みモデルの出力にそのまま近傍分布を統合する場合は入念なハイパーパラメータの探索が大変重要である。 ## B. 3 実験結果 t5-base で zero-shot と few-shot を行った時の性能を表 5 に示した。t5-smallと同様に、Dialog では少量表 4 各ハイパーパラメータの值を固定した時の fine-tuning した時(full)と zero-shot の時(zero)の BLEU 値の分散の比率 $\operatorname{Var}\left(\mathrm{BLEU}_{\text {zero }}\right) / \operatorname{Var}\left(\mathrm{BLEU}_{\text {full }}\right)$ 表 5 t5-base の実験。B は BLEU 值、R は ROUGE 值を示す。 の事例を学習することで性能が大きく改善するが、 XSum と DART では近傍分布の有効性は見られない。ただ、XSum の性能は few-shot 学習すると近傍分布によって性能が低下する。近傍分布の統合方法に関する最適なハイパーパラメータも大きく変化し、特に用いる近傍事例の数 $k$ が大幅に削減されたことから、少量の学習データで隠れべクトルの空間が大きく変化し、生成に役立つ近傍事例以外の事例が多く検索されるようになってしまったことが推測される。この挙動の不安定さについては更なる調査が必要である。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P12-7.pdf
# ユーザーの操作性を考慮した論文要約スライドの半自動生成 久保谷 善記 $^{1}$ 森島 繁生 ${ }^{2}$ 1 早稲田大学 2 早稲田大学理工学術院総合研究所 yoshikikubotani@akane.waseda.jp shigeo@waseda.jp ## 概要 スライドには,視覚的要素を用いた説明により認知負荷を下げ,聴衆の理解を促す効果がある.そのため,日頃から難解な内容を説明する必要のある研究者にとって,論文をスライドに要約し発表する機会は少なくない.しかし,研究者は研究作業や論文執筆などに時間が取られるため,スライド作成に割く十分な時間を確保できない場合がある. 本研究では,このような問題を解決するため,論文からスライドを半自動で生成するシステムを提案する。作成者の裁量で自動化の度合いが調節できるよう,任意の作成段階からのスライド生成を実現する. ## 1 はじめに コミュニケーションにおいては,視覚的な情報を用いることで,相手に対して自身の考えや意見を正確かつ効果的に伝達することができる.実際に,意思伝達を行う際には文章,音声,図表など様々な媒体が使用されるが,伝える内容が複雑な場合には,記述情報と視覚的情報を組み合わせることで,より円滑なコミュニケーションが期待できる. プレゼンテーションスライド(スライド)はこれら二つの情報を統合して扱うことのできる代表的な媒体として知られているが,コンパクトなテキスト(記述的情報)とその配置(視覚的情報)を用いることで聴衆の認知負荷を下げることができるため,教育現場である学校から職場まで幅広く使われている。 同様の理由で,学術的な場における意思伝達にもスライドは頻繁に使用されており,難解な内容を多く扱う研究者にとって必要不可欠な媒体である. 特に,学会や研究室,輪読会・勉強会といった場においては,研究者は自身の研究や技術的文書から得た情報など,高度に専門的な内容の発表・共有を行う必要があるため,記述のみでは理解困難な内容を他の研究者に伝える手段として,スライドは重宝されている. このように,研究者にとってスライドは情報発信に欠かせない媒体であるが,その作成には多くの時間と労力を要する.まず,研究者は日々の研究活動や論文の調査・執筆などで忙しく,スライドの作成に十分な時間をかけることは難しい。特に,近年は広く学問領域全体で論文数が増加しており,最新の手法に追随するために必要な論文調査の量は膨大である [1]. また,専門的な内容をわかりやすくスライドとしてまとめるには経験と技術を要する.具体的には,作成者がどのような目的で情報発信を行うのか,聴衆がどの程度の前提知識を持っているか,発表時間や全体のページ数に制約はないかなどの条件を考慮する必要があり,全ての条件を満たすようにページごとの説明の粒度や構図の配置を決定するには,経験者であっても試行錯誤を要する。 近年は,スライド作成にかかる労力を低減させるベく,論文要旨をとらえたスライドの自動生成に関する手法が提案されてきた。しかしその多くは,スライドテキストの生成に主眼を置き要素の配置を適切に扱っていない [2-5], または逆にレイアウトの生成のみを扱っている [6] などの制約があり,テキストとレイアウト両者の情報を同時に扱うことには課題が残る. また,両者を同時に扱っている研究も,論文からスライドを生成する過程に人間が関与することは考慮しておらず,作成者の意図や好みを反映した自由度の高い生成は実現できていない [7]. 本研究では,多忙な研究者のスライド作成を補助する目的で,論文からスライドを半自動で生成するシステムを提案する.スライド作成者の熟練度やデザイン嗜好によって自動化の度合いが調節できるよう,タイトルのみが与えられた状態からだけでなく,追加で任意のスライド要素が与えられた状態からのスライド生成を実現する。 ## 2 関連研究 スライドの自動生成に関する議論は,主として自然言語処理分野において論文の要旨要約という視点 図 1 : 提案手法の概要図 から行われてきた. 2000 年代初頭の初期の研究においては,形態要素分析や決定的なルールによるスコアリングなどを用いて,スライドに載せるに相応しい長さのテキストを作成する研究 $[3,8]$ が主流であった. その後は,サポートベクター回帰 (SVR) などの回帰モデルを訓練することで論文中の文章の重要度を学習し, 整数線形計画法 (ILP) によってスライドに割り当てるという手法が広く用いられるようになった [4,5,9]. また近年では, Encoder-Decoder型のニューラルネットワークを用いた抽象型要約による研究が提案されている $[2,7]$. しかし, 上記の先行研究には,取得したテキストをルールベースで配置していたり, テキストと図以外の要素をレイアウト生成の対象には含めていないといった問題がある。 ## 3 提案手法 以降の議論のため,ここで本稿内で使用する記号について説明する. 論文 $P_{i}$ とそれと対を成すスライド $D_{i}$ の集合を $\left.\{P_{i}, D_{i}\right.\}_{i=1}^{I}$ と置く.この時,スライド $D_{i}$ が $J$ 枚のスライドページからなるとすると, $D_{i}=\left.\{P_{j}\right.\}_{j=1}^{J}$ である. また,スライドページ $P_{j}$内に配置される $N$ 個の要素は, クラス $C_{n}$, サイズ $\left(W_{n}, H_{n}\right)$, 位置 $\left(X_{n}, Y_{n}\right)$ の 3 属性によって表現されるとする。ここでクラスとは,タイトルテキストや箇条書き, 図や表というように, 配置される要素がスライド内でどのような役割を果たすかを簡潔に表すものである.スライドの要素がテキストを含むク ラスに属する場合,そのテキストは $T_{n}$ で表記する。論文の文章については,4 文を 1 つのスニペット $S$ として定義し, 文章単位でなくスニペット単位で論文のテキストデータを扱った。従って, 論文 $P_{i}$ が $K$ 組のスニペットからなるとすると, $P_{i}=\left.\{S_{k}\right.\}_{k=1}^{K}$ となる。なお,過度に複雑な表記を避けるため明示的に記載はしていないが,スニペット数 $K$ やスライドページ数 $J$ は論文やスライドごとに異なるため $i$ に依存し,スライドページ内の要素の数 $N$ はページごとに異なるため $i$ と $j$ に依存している. ある論文からその要旨を捉えたスライドを生成する際には,以下の 3 つの点に配慮して作成する必要がある. 1. 現在のスライドページに論文のどの内容が載るべきか 2. 載るべき内容に沿って,スライドページをどのようなレイアウトとするか 3. レイアウトをもとに,実際にどの程度の粒度のテキストを載せるか これらの要件をもとに,我々は図 1 に示すような Attention 機構を用いたモデルを提案する. まず要件 1 を満たすための前処理として,スライドページに関連するスニペットを論文から取得する。具体的には,式 (1), (2)に示すように,事前学習済みの言語モデルを使って論文のスニペット $S_{k}$ と各スライドページのスライドタイトル $T_{n}$ s.t. $C_{n}=$ title のそれ ぞれから埋め込み $\boldsymbol{E}_{s}^{(k)}, \boldsymbol{E}_{t}^{(n)}$ を取得する. その後,式 (3)のように埋め込み同士で内積を取り,各スライドページ $P_{j}$ ごとに内積スコア $R_{k j}$ の上位 20 個のスニペットを用意する.スライドページの内容を最も端的に表すのはスライドタイトルであるため,この操作によって論文からスライドページに関わりのある情報だけを抽出できる。なお,埋め込み表現獲得のための言語モデルには Sentence-BERT [10]を使用した. $ \begin{aligned} \boldsymbol{E}_{s}^{(k)} & =\operatorname{Sentence-\operatorname {BERT}(S_{k})} \\ \boldsymbol{E}_{t}^{(n)} & =\operatorname{Sentence-} \operatorname{BERT}\left(T_{n}\right) \quad \text { s.t. } C_{n}=\text { title } \\ R_{k j} & =\boldsymbol{E}_{s}^{(k)} \cdot \boldsymbol{E}_{t}^{(n)} \end{aligned} $ 提案モデルは大まかに 2 つのモジュールに分かれており,それぞれレイアウト生成と論文要旨要約を担当する.レイアウト生成モジュールでは, Gupta らの研究 [11] に倣い,部分的にマスクされた系列 $\left[C_{1}, W_{1}, H_{1}, X_{1}, Y_{1}, \cdots C_{N}, W_{N}, H_{N}, X_{N}, Y_{N}\right]$ の回帰問題としてレイアウト生成を定義した. ネットワークには Xiang ら [12] の提案する双方向型の Transformer Encoderをベースとして用いており, 系列内での関係を Self-Attention 機構によって捉えている. また, 要件 2 で述べたように, 各スライドぺー ジのレイアウトはそのページに載る内容に依存するべきである. 従って,論文要旨要約モジュールの Encoder の出力とレイアウト生成モジュールの隠れ状態との間で Cross-Attention を取ることで,前処理で取得した内積スコア上位 20 組のスニペットとレイアウトとの関係を捉えている。一方, 論文要旨要約モジュールには,訓練済みの BART [13]をべースとしたネットワークを用いている. 要件 3 を満たすために,レイアウト生成モジュールで推定されたレイアウトのクラス $\hat{C}_{n}$, サイズ $\left(\hat{W}_{n}, \hat{H}_{n}\right)$, 位置 $\left(\hat{X}_{n}, \hat{Y}_{n}\right)$ の埋め込みと BART の Decoder の隠れ状態との間で Cross-Attentionを取っている.このようにすることで,Decoder は推定されたレイアウトの情報を参照しつつ文章要約を行うことが可能になる。 上記のアプローチでは,レイアウト系列のマスクの割合により,スライドの初期状態の調節が可能である. 従って,目的や好みに合わせてスライド内の要素の数やクラス,サイズや位置を自由に編集することで,スライド作成者は生成過程に直接関与することができる.表 1 : 生成レイアウトの要素重複度比較 表 2: 生成-正解レイアウトの類似度比較 ## 4 実験設定 提案手法の有効性を検証するためには,論文のテキストと,それに対応するスライドのテキストとレイアウトのすべてを含むデータセットが必須である。しかし,我々が調べた限りでは,そのようなデータセットは公開されていなかった. 従って, ACL Anthology ${ }^{1)}$ で公開されている発表資料から,小規模なデータセットを作成して実験を行った. データセットは 24 報の OCR された論文と,それに対応する同数のスライドからなる.総計 2885 個のスライドの要素はタイトル,箇条書き,見出し,その他テキスト,図,表,アイコンの 8 クラスのいずれかでアノテーションされており,これを訓練とテストでデータを $4: 1$ に分割して実験に用いた。 実験は,レイアウト生成モジュールと論文要旨要約モジュールの機能を確認するために,生成されたレイアウトとテキストについて行った. レイアウトについては,異なる作成段階から生成した結果を, 2 つの指標で評価した. 具体的には,(a) タイトルのみ指定,(b) タイトルとその他の要素のクラスを指定,(c) タイトルとその他の要素のクラス・サイズを指定,の3つの作成段階を初期状態としてレイアウトを生成した. 生成されたレイアウトにおける要素同士の重複具合を確認するための指標として,式 (4) に示されるスライドページごとの IoUを算出し, その平均値をもって比較した。また,レイアウト類似度 [14] を用いることで,生成レイアウトと正解レイアウトの間の類似度を評価した。これは,クラスやサイズ,位置をもとに 2 つのレイアウトの要素間で関連度を算出し, 関連度が最大となるマッチングの結果から,レイアウト全体としての類似度を 0 か  target title 図 2: レイアウト生成結果の描画 表 3: 生成-正解テキストの類似度比較 ら1 のスコアで表す指標である. $ \mathrm{IoU}_{j}=\frac{P_{j} \text { 内の要素が重複した領域 }}{P_{j} \text { 内の要素が存在する領域 }} $ テキストについては,生成されたテキストと正解スライドテキストの類似度を ROUGE スコアで比較した. なお,生成テキストと正解テキストとの対応が取れなければ指標の計算ができないため, 論文要旨要約モジュールに渡すレイアウトの情報には,レイアウト生成モジュールの生成結果ではなく正解レイアウトを使用した。 ## 5 結果 スライド要素のページ内重複度とレイアウトの類似度のそれぞれについて,3つの作成段階を初期状態として比較した結果を表 1 ,表 2 に示す. 表 2 の結果から, 完成に近い状態から生成を始めることで,正解レイアウトに近いレイアウトを生成できていることがわかる。一方で, 要素の重複度は条件を与えて生成することで増加した. これは, ページ内の領域を多く占める可能性のあるクラスの要素が強制的に配置され, 要素同士がより重なりやすくなったことが原因と考えられる。 また,生成されたスライドテキストが正解テキストとどれくらい類似していたかの結果を表 3 に示す. Precisionに比べて Recall が高いが,これは生成されたスライドテキストが正解テキストに比べて長いためである。実際に,評価に使用したデータについて, 生成テキストと正解テキストの平均単語数を計算したところ,前者は 50.63 words,後者は 7.52 words であった. また 2-gram についての ROUGE スコアが低いことから,生成テキストは正解テキストに含まれる 2 語以上のフレーズを再現することができていないことがわかる. 最後に,各条件のもと生成されたレイアウトと正解レイアウトを描画して比較した結果を図 2 に示した. 条件が増えるごとに正解に近いレイアウトが生成できていることが見て取れる。ここではスペースの都合上載せていないが,要素の数が多い場合や複雑なレイアウトを持つ場合には,規則性のない配置になってしまっていた。これは,データ数が 1500 程度の小規模なデータを使用していたため,スライドのデータ分布が持つ特徴を完全には学習できなかったことを示している. ## 6 おわりに 本研究では,研究者にとって不可欠なスライドの作成コストを下げるため,論文からスライドを半自動で生成可能なシステムを提案した. レイアウトとテキストの両者を互いに考慮した生成を可能にするため,Attention 機構を用いたモデルを採用し,評価のため小規模なデータセットを作成して実験を行った. 実験では,小規模なデータセットを用いたことから,全体として性能は高くはなかったものの,任意の編集段階からスライドを生成可能なモデルの可能性を示した. 今後の課題として,より大規模なデータセットを用いて実験を行うことや,より多様な種類のモーダルを考慮した生成の仕組みを模索することが挙げられる. ## 参考文献 [1] Lutz Bornmann and Rüdiger Mutz. Growth rates of modern science: A bibliometric analysis based on the number of publications and cited references. Journal of the Association for Information Science and Technology, Vol. 66, No. 11, pp. 2215-2222, 2015. [2] Edward Sun, Yufang Hou, Dakuo Wang, Yunfeng Zhang, and Nancy X.R. Wang. D2S: Document-to-Slide Generation Via Query-Based Text Summarization. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 2021. [3] Tomohide Shibata and Sadao Kurohashi. Automatic Slide Generation Based on Discourse Structure Analysis. In International Conference on Natural Language Processing, Vol. 3651, pp. 754-766, 2005. [4] Yue Hu and Xiaojun Wan. PPSGen: Learning-Based Presentation Slides Generation for Academic Papers. Knowledge and Data Engineering, IEEE Transactions on, Vol. 27, pp. 1085-1097, 2015. [5] Athar Sefid, Jian Wu, Prasenjit Mitra, and C. Lee Giles. Automatic Slide Generation for Scientific Papers. In SciKnow@K-CAP, 2019. [6] Chuhao Jin, Hongteng Xu, Ruihua Song, and Zhiwu Lu. Text2Poster: Laying Out Stylized Texts on Retrieved Images. In IEEE International Conference on Acoustics, Speech and Signal Processing, pp. 4823-4827, 2022. [7] Tsu-Jui Fu, William Yang Wang, Daniel McDuff, and Yale Song. Doc2ppt: Automatic presentation slides generation from scientific documents. Vol. 36, No. 1, pp. 634-642, 2022 . [8] Mostafa Shaikh, Mitsuru Ishizuka, and Md Tawhidul Islam. 'Auto-Presentation': a multi-agent system for building automatic multi-modal presentation of a topic from World Wide Web information. In IEEE/WIC/ACM International Conference on Intelligent Agent Technology, pp. 246-249, 2005. [9] A. Ashray Bhandare, Chetan J. Awati, and Sonam Kharade. Automatic era: Presentation slides from Academic paper. International Conference on Automatic Control and Dynamic Optimization Techniques, pp. 809$814,2016$. [10] Nils Reimers and Iryna Gurevych. Making Monolingual Sentence Embeddings Multilingual using Knowledge Distillation. In Empirical Methods in Natural Language Processing. Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, 2020. [11] K. Gupta, J. Lazarow, A. Achille, L. Davis, V. Mahadevan, and A. Shrivastava. LayoutTransformer: Layout Generation and Completion with Self-attention. In Proceedings of the International Conference on Computer Vision, pp. 984-994, 2021. [12] Xiang Kong, Lu Jiang, Huiwen Chang, Han Zhang, Yuan Hao, Haifeng Gong, and Irfan Essa. BLT: Bidirectional Layout Transformer for Controllable Layout Generation. In Proceedings of the 17th European Conference on Computer Vision, pp. 474-490, 2022. [13] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, 2020. [14] Akshay Gadi Patil, Omri Ben-Eliezer, Or Perel, and Hadar Averbuch-Elor. READ: Recursive autoencoders for document layout generation. In CVPR 2020 Workshop on Text and Documents in the Deep Learning Era, 2020.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P12-8.pdf
# BiomedCurator:医学・生物学文献からの構造化データ 抽出のためのデータキュレーションシステムの開発 Mohammad Golam Sohrab $^{1}$ Khoa N. A. Duong ${ }^{1}$ 池田修己 ${ }^{1}$ Goran Topić $^{1}$ 夏目やよい ${ }^{2}$ 黒田 正孝 ${ }^{2}$ 伊藤 眞里 ${ }^{2}$ 高村 大也 ${ }^{1}$ 1 産業技術総合研究所 人工知能研究センター 2 医薬基盤・健康・栄養研究所 $\mathrm{AI}$ 健康・医薬研究センター } \{sohrab.mohammad, goran.topic, ikeda-masami, takamura.hiroya\}@aist.go.jp \{natsume, m-kuroda, mari\}@nibiohn.go.jp ## 概要 医学・生物学分野の論文から,事前に選択した属性(疾患,投与薬剤,投与量,投与期間,被験者の年齢,結果など)に関する情報を,構造化データとして抽出するキュレーションシテム BiomedCurator のを開発を行なった。本システムは,関係抽出のためのテキスト生成モデル,エンティティ認識,テキスト分類モデル,知識ベース上のエントリからの情報検索とエンティティ・リンキング,パターンに基づく複数属性の情報抽出を行う自然言語処理アプロー チによって構成されている. BiomedCurator はウェブサイト (https://biomed-text.airc.aist.go.jp/ biomedcurator/)において公開している. ## 1 はじめに 医学・生物学分野の論文や臨床試験の報告書には,適用された薬,対象疾患,投与量,投与期間,被験者の年齢,結果などの情報が提供されている. これらの情報は, 創薬や医薬品開発のためのデータマイニングや統計分析に有用であり,通常は専門家が論文を読んで抽出し, 図 1 に示すような属性と值が対応づけられた 2 次元のスプレッドシート形式の構造化データを手作業で作成している. 本稿では, このような構造化データを自動生成(以下,データキュレーション)するシステムを提案する。 データキュレーションのタスクには,エンティティ認識,エンティティ・リンキング,関係抽出, テキスト分類など,さまざまな自然言語処理技術を用いたアプローチが必要となる.また,このタスクの特徴は,訓練データとなる,人間の専門家によってキュレーションされたデータがスプレッドシー 卜形式で提供される一方,抽出すべき情報が論文中 のどこの位置に記述されているかが明示されない. したがって,通常のエンティティ認識の学習データとは異なり,BIO タグは注釈されていない。また, キュレーションされたデータ中では,元の論文と異なる用語や表現が使われている可能性がある. 本稿では,これらの技術的課題を 2.2 節で述べる手法で解決する. さらに,特に肺疾患に関するドメインについて手法を実装し,ユーザーが指定する PubMed ID あるいは ClinicalTrials.gov ID に該当する文献から,61 個の属性を自動データキュレーションするシステム BiomedCurator について報告する。 ## 2 関連研究 テキストマイニングを使用した医学・生物学情報の検索をサポートする方法およびウェブツールがいくつか提案されている. 例えば, エンティティ情報の抽出を文書レベルで行う際に,生成的アプロー チを採用したものなどがある [1]. 文のエンコードから文書レベルのグラフを作成し,グラフのエッジ表現から文書レベルの関係を抽出する方法 [2] や,文書レベルの $n$ 項関係を獲得する手法 [3] などが提案されている. また, pubmedKB [4] は, バリアン卜, 遺伝子, 疾患, および化学物質という 4 つの医学・生物学エンティティタイプ間のセマンティックな関係を抽出して視覚化するウェブサーバであり, 多数の PubMed 抄録から意味関係の抽出が可能である。構造化された関係タプルを抽出するための文節抽出とメタパターン発見を組み込んだ CPIE (Clause+Pattern-guided Information Extraction) フレー ムワーク [5] や,BERT ベースの言語モデルを使用した遺伝子-疾患の関係抽出手法 [6], 文献から遺伝子型-表現型の関係抽出のためのパイプライン [7] が提案されている. 図1スプレッドシート形式の構造化データの例. 1 行目はカテゴリ,2 行目は属性を示す. 図 2 BiomedCurator のワークフロー,入力された PubMed あるいは ClinicalTrials.gov の IDをもとに,(a)から (d) のプロセスを通じて解析し, 各属性の值として出力する. プロセス (c) の結果の一部は再利用され,他の属性を予測する入力機能として再結合されることを示す. 本稿で対象とするデータキュレーションでは,エンティティ抽出,関係抽出,エンティティリンキングなどに基づくより幅広い情報の抽出を行う. ## 3 提案システム データ(3.1 節),キュレーションのための 5 つの主要な手法 (3.2 節), そのウェブアプリケーション (3.3 節)の順で詳述する. ## 3.1 データセット ここでは,肺がん,特発性肺線維症(IPF),間質性肺炎(IP)と線維症について過去 5 年間に発表された無料でアブストラクトと本文が入手可能な PubMed の論文を選択した。抽出する情報を 11 個のカテゴリに分類し,さらにサブカテゴリに分割して合計 61 個の属性を設けた. これらの属性は創薬の経験を持つ薬理学者がキュレータの生物学者との話し合いの中で決定した. 次に,手作業でキュレー ションを行なった. キュレーションには生物学者と編集者が参加し, 品質保証と品質管理チェックを行った. 構築した構造化データセットの概要を図 1 に示す 1). 各カテゴリ,サブカテゴリ,属性の詳細な内容と使用するキュレーション手法は,付録およびウェブサイト ${ }^{2)}$ に記載した. 1)データセットの公開は検討中. 2) https://github.com/aistairc/BiomedCurator ## 3.2 キュレーション手法 ## 3.2.1 関係抽出のための生成的アプローチ 本稿の関係抽出は,抽出すべき情報の論文中の出現位置が訓練データ中で明示されていない,論文中とは異なる用語や表現が構造化データで使われる可能性がある,という技術的課題がある. そのため, 生成問題として $n$ 項関係抽出タスクを定式化する. 入力テキストに対し,予め定めた構造を表す単語系列を生成する。例えば, eligible patients received up to six cycles of pemetrexed, $500 \mathrm{mg} / \mathrm{m}$ (2) plus cisplatin, $75 \mathrm{mg} / \mathrm{m}(2)$ (day 1) or gemcitabine, $1000 \mathrm{mg} / \mathrm{m}$ (2) (days 1 and 8) plus cisplatin, $75 \mathrm{mg} / \mathrm{m}(2)$ (day 1). os and toxicity were assessed. という入力に対し,次のような系列を生成する: [start] [drug] gemcitabine [/drug] [dose] $1000 \mathrm{mg} / \mathrm{m} 2$ [/dose] [and] [drug] cisplatin [/drug] [dose] $75 \mathrm{mg} / \mathrm{m} 2$ [/dose] [or] [drug] pemetrexed [/drug] [dose] $500 \mathrm{mg} / \mathrm{m} 2$ [/dose] [and] [drug] cisplatin [/drug] [dose] $75 \mathrm{mg} / \mathrm{m} 2$ [/dose] [end] これは,(gemcitabine, $1000 \mathrm{mg} / \mathrm{m} 2$ ) と (cisplatin, 75 $\mathrm{mg} / \mathrm{m} 2$ ),あるいは (pemetrexed, $500 \mathrm{mg} / \mathrm{m} 2$ ) と (cisplatin, $75 \mathrm{mg} / \mathrm{m} 2$ ) という薬品-投与量の関係を表す. 長い系列に対応できるエンコーダ・デコーダモデルとして, BigBirdPegasus [8]を採用し,上記の生成的アプローチによる関係抽出を行う。このアプローチを用いるのは, dose, drug, route of administration の 3 個の属性である. ## 3.2.2 エンティティ抽出 エンティティ抽出に帰着できる属性については,SciBERT [9]を用いた. 特に, ethnicityについては,同じラベルを持つ OntoNotes 5 [10] を訓練データとして SciBERT をファインチュー ニングした. Biomarker name については,同様に BioNLP13CG [11] でファインチューニングした. それ以外の属性については,擬似訓練データに基づく distant supervisionを用いた。具体的には,構造化 データのエンティティと表層的に類似している文を取得し,文字列マッチングにより擬似的にラベル付けした。 ## 3.2.3 テキスト分類 いくつかの属性については,SciBERT により入力テキストをエンコードし分類する方法を用いた.また,他の属性の値が手がかりになる属性については,RandomForest ${ }^{3}$ に基づく分類器を用いた. 例えば, associationについては, marker_type, marker_nature, phenotype の属性値を分散表現で表し連結したべクトルを入力とし RandomForestを用いた. ## 3.2.4 正規表現 reference_id, grade, stage, total_sample_number などの属性については, 正規表現により值を抽出した. 詳細はプロジェクトページに記述した。 ## 3.2.5 外部知識ベースからの情報検索 CAS ID, ChEMBL ID, DrugBank ID, Entrez ID, Uniprot ID, HGVS Name, Rs ID, KEGG Pathway Name の 8 個の属性については,外部知識ベーズ ${ }^{4}$ から取得した. ## 3.3 ウェブアプリケーション BiomedCurator のワークフローを図 2 に示す.ユー ザから入力された PubMed あるいは ClinicalTrials.gov の IDをもとに,(a)オンラインデータベースから対応する論文を取得し,(b)前処理を経て,(c)さまざまな種類の情報を抽出するように設計された 5 つの主要なアプローチに適用される. 最後に, 抽出された情報が返され,(d)各属性の値を表示する. ## 4 実験 ## 4.1 データ PubMed(2,570 論文)と ClinicalTrials.gov (2,371 論文)から構築したキュレーションデータで実験を行った.データセットの内訳と統計値を表 1 に示す. 3) https://scikit-learn.org/stable/modules/generated/ sklearn. ensemble. RandomForestClassifier.html 4) https://commonchemistry.cas.org, https://go.drugbank. com, https://www.ncbi.nlm.nih.gov/gene/, https://www. genecards.org, https://www.uniprot.org/uniprot/, https: //www.ncbi.nlm.nih.gov/CBBresearch/Lu/Demo/LitVar/api . html, https://www.ncbi.nlm.nih.gov/CBBresearch/Lu/Demo/ LitVar/api.html, https://www.genome.jp/kegg/pathway.html データの前処理は 4 つのステップから成る:(1) テキスト正規化,(2)文分割,(3)節分割および段落分割,(4)トークン化. テキスト正規化 XML タグの削除や,連続する空白を単一の空白にする作業,特殊記号を空白にするする作業を行う。その後,ftfy [12]を用いて NFC 形式でユニコード正規化を行う。 文分割テキスト正規化後に, GENIA 文分割器5) を用いて文分割を行う。 節分割および段落分割 drug と dose の関係など,薬品-投与量の関係など,単一文でなく複数文に渡って記述されている属性があるため,入力テキストを節や段落の単位に分割する。まず,XML 形式で与えられている入力テキストのメタデータを用いる. 分割に利用できるメタデータがない場合は, Abstract, Introduction, Method, Approach, Results などのキーワードに基づくルールにより分割を行う. トークン化最後に BigBirdPegasus $の$ PegasusTokenizer と SciBERT の BertTokenizer を用いてトークン化を行う。 ## 4.2 計算 すべてのモデルは AdamW [13] を用い学習率 3e-5 で最適化した。関係抽出のための生成モデルは,8 GPU 上で total batch size 32 で 50 エポック訓練した. また,詳細は割愛するが,カリキュラム学習を採用している. エンティティ抽出モデルは,単一 GPU 上で batch size 32 で 5 エポック訓練した. 計算には, NVIDIA A100 for NVLink 40GiB を用いた。 ## 5 結果と考察 表 2 に提案手法による PubMed データセットに含まれる 17 個の属性へのデータ抽出性能を,適合率 (P),再現率(R)および $\mathrm{F}$ スコア(F)で示した. $\mathrm{F}$ スコアに基づくほとんどの属性への抽出性能は良好に機能していることを示していた。一方,属性 duration, grade, disease_name, phenotype への性能は他に比べて低かった. disease_name のモデルは, distant supervision による擬似訓練データで学習されているが,病名には同義語が多いことからこの擬似訓練データにノイズが多く含まれていることが再現率低下につながったと考えられる. 対照的に,単一回答のみで構成される PubMed データセットに含まれる 6 個の属性については,十分に高い結果が得られた(表 3). ClinicalTrials.gov データセットへのデータ抽出の 5) http://www.nactem.ac.uk/y-matsu/geniass/ 表 1 PubMed と ClinicalTrials.gov から選択収集した各キュレーションデータセットの内訳および統計 表 2 PubMed データセットに含まれる 17 個の属性(複数回答)へのデータ抽出の評価結果 表 3 PubMed データセットに含まれる 6 個の属性(単一回答)へのデータ抽出の評価結果 評価結果を,表 4 および 5 に示す. 属性 duration, disease_sub_category, BNAMIRを除くほとんどの属性に対する抽出性能は良好である。属性 duration への性能の低さは,このゴールドエンティティは通常,1〜3桁の数字の後に時間の単位を表す単語が続くことが原因である (例:24 hours,120 days, 2 weeks, 3 months など). 情報の正規化,言い換え,対象の論文以外からの情報の付加が専門家による手動のキュレーションデータに含まれていた場合,モデルによる論文内容からの検索と抽出精度を低下させ,評価が困難であった。表 4 ClinicalTrials.gov データセットに含まれる 21 個の属性(複数回答)へのデータ抽出の評価結果. BNAMIR は "biomarker name as modified in reference" の省略表記 表 5 ClinicalTrials.gov データセットに含まれる 3 個の属性(単一回答)へのデータ抽出の評価結果 ## 6 おわりに 医学・生物学文献からのデータキュレーションシステム BiomedCuration の開発を報告した. 本システムは,PubMed および ClinicalTrials.gov に由来する論文から自然言語処理アプローチによる解析を通じて情報を抽出し,61 個の属性の値として出力する. 2 つのデータセットに対する $\mathrm{F}$ スコアと精度による性能評価から,システムが機能していることを示す結果が得られた。また,本システムはインタラクティブなウェブアプリケーションとして公開している.今後は,システムのさらなる改善のために,n 項関係抽出などの新しい機能の実装を計画している。 ## 謝辞 本稿で紹介した研究は,官民研究開発投資拡大プログラム(PRISM)「新薬創出を加速する症例デー タベースの構築・拡充/創薬ターゲットの推定アルゴリズムの開発」の助成を受けたものです. ## 参考文献 [1] Kung-Hsiang Huang, Sam Tang, and Nanyun Peng. Document-level entity-based extraction as template generation. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 5257-5269, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. https://aclanthology.org/2021 . emnlp-main. 426. [2] Fenia Christopoulou, Makoto Miwa, and Sophia Ananiadou. Connecting the dots: Document-level neural relation extraction with edge-oriented graphs. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 4925-4936, Hong Kong, China, November 2019. Association for Computational Linguistics. https://aclanthology .org/D19-1498. [3] Robin Jia, Cliff Wong, and Hoifung Poon. Documentlevel n-ary relation extraction with multiscale representation learning. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3693-3704, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. https: //aclanthology .org/N19-1370. [4] Peng-Hsuan Li, Ting-Fu Chen, Jheng-Ying Yu, ShangHung Shih, Chan-Hung Su, Yin-Hung Lin, Huai-Kuang Tsai, Hsueh-Fen Juan, Chien-Yu Chen, and Jia-Hsin Huang. pubmedKB: an interactive web server for exploring biomedical entity relations in the biomedical literature. Nucleic Acids Research, Vol. 50, No. W1, pp. W616-W622, 05 2022. https://doi .org/10.1093/ nar/gkac310. [5] Xuan Wang, Yu Zhang, Qi Li, Yinyin Chen, and Jiawei Han. Open information extraction with meta-pattern discovery in biomedical literature. Proceedings of the 2018 ACM International Conference on Bioinformatics, Computational Biology, and Health Informatics, 2018. [6] Chuan Deng, Jiahui Zou, Jingwen Deng, and Mingze Bai. Extraction of gene-disease association from literature using biobert. The 2nd International Conference on Computing and Data Science, 2021. [7] Wenhui Xing, Junsheng Qi, Xiaohui Yuan, Lin Li, Xiaoyu Zhang, Yuhua Fu, Shengwu Xiong, Lun Hu, and Jing Peng. A gene-phenotype relationship extraction pipeline from the biomedical literature using a representation learning approach. Bioinformatics, Vol. 34, No. 13, pp. i386-i394, 062018. https://doi.org/10.1093/bioinformatics/ bty263. [8] Manzil Zaheer, Guru Guruganesh, Avinava Dubey, Joshua Ainslie, Chris Alberti, Santiago Ontañón, Philip Pham, Anirudh Ravula, Qifan Wang, Li Yang, and Amr Ahmed. Big bird: Transformers for longer sequences. CoRR, Vol. abs/2007.14062, , 2020. https://arxiv.org/abs/ 2007.14062 . [9] Iz Beltagy, Kyle Lo, and Arman Cohan. SciBERT: A pretrained language model for scientific text. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3615-3620, Hong Kong, China, November 2019. Association for Computational Linguistics. https://aclanthology .org/D19-1371. [10] Sameer S. Pradhan, Eduard Hovy, Mitch Marcus, Martha Palmer, Lance Ramshaw, and Ralph Weischedel. Ontonotes: A unified relational semantic representation. In International Conference on Semantic Computing (ICSC 2007), pp. 517-526, 2007. [11] Sampo Pyysalo, Tomoko Ohta, Rafal Rak, Andrew Rowley, Hong-Woo Chun, Sung-Jae Jung, Sung-Pil Choi, Jun'ichi Tsujii, and Sophia Ananiadou. Overview of the cancer genetics and pathway curation tasks of BioNLP shared task 2013. BMC bioinformatics, Vol. 16, No. 10, pp. $1-19,2015$. [12] Robyn Speer. ftfy. Zenodo, 2019. Version 5.5. [13] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In International Conference on Learning Representations, ICLR 2019, New Orleans, USA, 2019. https://openreview.net/forum? id=Bkg6RiCqY7. ## A 付録 表 6 各カテゴリとそのサブカテゴリである属性(1 列目と 2 列目)の詳細な内容(4 列目)および使用するアプローチの一覧(3列目.PE:パターンに基づく抽出, $\mathrm{RE}$ :関係抽出, $\mathrm{EE}$ :エンティティ抽出, EL:エンティティ・リンキング, TC:テキスト分類).FV(Fixed Value)はキュレートデータの特定の値,NA は現時点で未対応であることを意味する. & & & \\
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P12-9.pdf
# 校歌のための歌詞作成支援システムの開発 重藤優太郎 ${ }^{1,2}$ 西田典起 ${ }^{1}$ Shanshan $^{2} \operatorname{Liu}^{1} \quad$ 松本裕治 ${ }^{1}$ 森田敏生 ${ }^{3}$ 中村伊知哉 4 石戸奈々子 4 1 理化学研究所 AIP 2 千葉工業大学 STAIR Lab 3 総和技研 $4 \mathrm{iU}$ 情報経営イノベーション専門職大学 B Lab shigeto@stair.center \{noriki.nishida,shanshan.liu,yuji.matsumoto\}@riken.jp morita@sowa.com nakamura@ichiya.org nanako@ishido.org ## 概要 本論文では, 校歌のための歌詞作成支援システムを紹介する. 前提として, システム単独で歌詞を生成する (完成させる) というよりは, ユーザとのやりとりを通して歌詞を完成させること (作詞の支援)を想定している. そのため, システムによる歌詞の生成とユーザの編集を交互に行えるように設計した. 校歌の特徵として,(ユーザが希望した場合) 学校名を歌詞に含めることが要求されるので, 制約付きデコー ディングによってこれを実現した. ## 1 はじめに 理化学研究所 AIP および iU 情報経営イノベー ション専門職大学 B Lab が共同で取り組んでいる 「超校歌〜AI がつくるみんなの校歌〜」プロジェクト1)では, AI 技術を用いて, 価㯰観が多様化する時代に相応しい, 進化する校歌のあり方を検討している. この取り組みの一環として, 校歌のための歌詞作成支援システムを開発した. 本論文では, 今回開発した歌詞作成支援システムの紹介を行う。 本システムは, 校歌の歌詞作成支援を目的としており,特に作詞経験の少ないユーザの支援を想定している. 作詞経験が少ないユーザにとって, ゼロから歌詞を作ることは難しいと思われる。一方で, 原案となる歌詞が提示された場合, それを編集し, 完成を目指すことは比較的容易である. 本システムでは, 原案を提示することによって, 経験が少ないユーザであっても作詞に簡単に取り組めるようになる (と期待している). これを踏まえた上で, 以下の 4 点をシステムの要件とした。  ・システムが原案となる歌詞を提案できる。 ・ユーザが提案された歌詞を自由に編集できる。 ・システムが, ユーザの編集に基づいて, 歌詞を再生成 (修正)することができる. ・生成する歌詞に関する制約条件を入力できる。 この要件を満たすためには, 歌詞生成器を開発する必要がある. 本システムでは, キーワード (歌詞の雰囲気を表現する単語など) と学校の種類 (幼稚園・保育園, 小学校, 中学校, 高校, 大学のうち, どの区分の校歌を生成するか) がユーザによって入力されることを前提としている.さらに, ユーザが希望した場合, 特定の単語 (やフレーズ) を必ず歌詞に含めるといった制約を付け加えることができる. 本システムでは,これらの情報から歌詞を生成する。 歌詞生成と一般的な言語生成を比較した場合, 歌詞生成固有の問題として, 上述した特定の単語を必ず歌詞に含める制約の他にも, 韻やモーラ数などに関する制約が考えられる. 本論文では特定の単語 (学校名 $\left.{ }^{2}\right)$ を歌詞に含めることのみを取り扱い, 残りの問題 (韻とモーラに関する制約) は今後の課題とした. 以後,「学校名制約」と記述した場合, 学校名を歌詞に含めるか否かに関する制約を指すことにする。 ## 2 校歌歌詞作成支援システム 本システムでは, ユーザとのやりとりを通して歌詞を完成させること (作成の支援)を目指している. これを実現するため, システムによる歌詞生成とユーザの編集を交互に行えるように設計した. 具体的には, 以下の手続きによって歌詞を作成する. 1. ユーザがキーワード (歌詞の雾囲気を表現する単語など) や学校の種類 (幼稚園・保育園, 小学 2)地名などを指定することも考えられるが, 本研究では学校名のみを対象とした。 歌詞に入れたい単語 ## 生成再生成 生成された歌詞 キーワード ## 歌詞の種類 大学 図 1 ユーザインターフェース. 校, 中学校, 高校, 大学のどれか), 学校名制約 (学校名を歌詞に含めるか否か)を入力する 2. システムがユーザの入力に基づき原案となる歌詞を生成する 3. ユーザが生成された歌詞を編集する 4. システムがユーザの編集に応じて歌詞を再生成 (修正)する 5. 3-4を繰り返す まずはじめに, システムのユーザインターフェー スと歌詞生成器を説明し, その後, 実際にシステムを用いて作成した歌詞の例を示す. ## 2.1 ユーザインターフェース 図 1 に開発したシステムのインターフェースを示す.このシステムには, 2 個のテキストボックスと 1 個のプルダウン型選択メニュが準備されている. 各テキストボックスには, 歌詞に含める単語 (学校名) と歌詞の雰囲気を表すキーワードを入力することができる.プルダウンは学校の種類 (幼稚園・保育園,小学校, 中学, 高校, 大学) を選択することができる. ユーザが,これらの情報を入力し, 生成ボタンをクリックすることで, システムが歌詞を生成する. 生成された歌詞は右のテキストボックスに表示される. ユーザはこの歌詞を自由に編集することができる.編集後, 再生成ボタンをクリックすることで, 編集箇所より後ろの歌詞をシステムが再生成 (修正) する. この再生成時には, ユーザの入力 (テキストボックスとプルダウン) も反映されるため, 歌詞の途中からキーワードや学校の種類を変更することもできる. ## 2.2 歌詞生成器 本論文で取り扱う歌詞生成は, ユーザの入力 (キー ワード, 学校の種類, 学校名制約) から歌詞を生成す るタスクである.これは, 言語生成タスクの 1 種だと考えることができる. 近年の言語生成においては, エンコーダ・デコーダモデルを採用することが主流であり,その有効性が種々の言語生成タスクにおいて報告されている $[1,2,3]$. このような背景から, 本研究においてもエンコーダ・デコーダモデルを用いて歌詞の生成を行う. 具体的には, キーワードと学校の種類を特殊記号 [SEP] で連結したものをエンコーダに入力し, デコーダによって歌詞を生成する. 再生成時 (ユーザが歌詞を編集した場合) には, 歌詞の先頭からユーザが編集した箇所までをデコーダの出力として固定し, 後続 (続き)の歌詞を生成する。 ユーザが歌詞に含めたい単語 (学校名)を指定した場合, デコーディングは制約付き生成問題となる. 制約付き生成問題は, 制約を必ず満たす方法 $[4,5,6,7,8]$ と必ずしも満たさない (が満たされやすくなるように工夫をする) 方法 [9] の 2 種類のアプローチが存在する. 本システムにおいては, 学校名が指定された場合, その指定された学校名を歌詞に必ず含めることが望ましいので, 前者のアプロー チを採用する. 具体的には, 制約付きビームサーチ $[4,5,6,7]$ を利用する. 当然ではあるが,ある学校の歌詞を考える場合,その歌詞に他の学校の名前が含まれることは考えにくい (例えば,千葉工大の校歌を考えた場合,「iU 情報経営イノベーション専門職大学」が歌詞に含まれることは考えにくい). 一方で, 学校名を歌詞のどこに配置するかには, なんらかのパターンが存在していることが予想される (実際, 多くの校歌において, 歌詞の最後に学校名を配置する傾向があることを観測している). そのため, 学校名制約が課されている場合, 歌詞生成器が学習すべきものは, 学校名 (の文字列) 自体ではなく, どこに学校名を配置するかという点だと考えられる.これを実現するため,データの前処理として, 各歌詞に出現する学校名を特殊記号 [NAME] に置換した. これによって, 学校名の表層情報を削除し,位置情報のみ(どこに配置すればよいか) をモデルに学習させる. 生成時には, 制約付きビームサーチによって [NAME] を含む系列 (歌詞)を探索する. 後処理として, 生成された歌詞に含まれる [NAME] を実際の学校名 (ユーザの入力) に置換する.図 2 に具体例を示す. キーワード: 習志野, 若草 学校の種類: 大学 学校名制約: 千葉工大 入力: 大学 $[\mathrm{SEP}]$ 習志野_若草 習志野は若草もえて潮風に匂へる希望見よこの大地この青空を学びの野はてなく広く真理の陽燦と輝けり工大工大 [NAME] 習志野は若草もえて潮風に匂へる希望見よこの大地この青空を学びの野はてなく広く真理の陽燦と輝けり工大工大千葉工大 図 2 歌詞生成手続きの例. 特殊記号 [NAME] (オレンジ色) を生成し, 後処理で学校名 (青色)に置換する. 幼稚袁・保育 制約: X幼稚園 人力: 今日は何して遊ほつか 元気な歌声広がる丘 明るくて笑顔あふれる丘 いつも一緒に遊ぼうか あそぼーいわたしの園 風はさわやかにみんなで手をつなぎ 楽しい幼稚園がいつぱいあるよX幼稚園 明るいお空にみんなで手をつなぎ 今日は何して遊ぼうか あそぼーいわたしの園 元気な歌声広がる丘明るくて笑顔あふれる丘いも一緒に遊ぼうかあそぼーいわたしの園 風はさわやかにみんなで手をつなぎ楽しい幼稚園がいっぱいあるよ X幼稚園 明るいお空にみんなで手をつなぎ今日も明日もいっぱい遊ぼうよ雨でも晴れでも 元気な歌声があふれる丘にみんなで手を取り合って仲良く歩もうよ X幼稚園 明るいお空にみんなで手をつなぎ今日も明日もいっぱい遊ぼうよ楽しい幼稚園 元気な歌声があふれる丘に X幼稚園 図 3 システムの使用例: システムの生成 (青色) とユーザの編集 (オレンジ色)を交互に繰り返すことができる. 表 1 実験で使用したデータの曲数と歌詞の文字数. ## 2.3 デモンストレーション 図 3 に, 本システムの使用例を示す.これまで説明した通り,システムによる歌詞の生成とユーザによる編集を交互に繰り返すことで, 作詞に取り組むことができる. 編集および再生成によって, 後続 (オレンジ色の後)の歌詞が変化することがわかる. ## 3 歌詞生成器の性能評価 本システムで用いた歌詞生成器の性能を報告する。 ## 3.1 実験設定 本実験では, 校歌 767 曲からなるデータを使用した.このデータは, 幼稚園・保育園 (47 曲), 小学校歌詞 \author{ 習志野は若草もえて \\ 潮風に匂へる希望 \\ 見よこの大地この青空を \\ 学びの野はてなく広く \\ 真理の陽燦と輝けり \\ 工大工大千葉工大 } 前処理後 習志野は若草もえて 潮風に匂へる希望 見よこの大地この青空を 学びの野はてなく広く 真理の陽燦と輝けり 丁大工大 $[\mathrm{NAME}]$ 図4 データの前処理: 学校名の置換 (オレンジ色) とキー ワードの抽出 (青色). (176 曲), 中学校 (179 曲), 高校 (192 曲), 大学 (173 曲) の校歌で構成されており,各曲は歌詞とメタ情報 (キーワード, 学校の種類, 学校名制約) のぺアになっている.このデータをランダムに分割し, $80 \%(611$曲) を訓練用に, $10 \%$ (77 曲) を開発用, 残り (79 曲)を評価用のデータとした. 本実験で使用したデータの統計情報を表 1 に示す。 実際のシステム運用時には,メタ情報はユーザによって入力されることを想定しているが, 性能評価を簡便に行うため, 以下の方法でメ夕情報を準備した. 歌詞から名詞, 形容詞, 副詞を抽出し, それらをキーワードとした. 学校の種類は, 実際の種類 (幼稚園・保育園, 小学校, 中学校, 高校, 大学のうちのどれか)を使用した (例えば,千葉工大の校歌の場合, 1エポック目 キーワード: 習志野, 若草 学校の種類: 大学 学校名制約: 千葉工大 入力: 大学 $[\mathrm{SEP}]$ 習志野_若草 ## 2エポック目 キーワード: 習志野, 潮風, 希望 学校の種類: 大学 学校名制約: 千葉工大 入力: 大学 $[\mathrm{SEP}]$ 習志野潮風_希望 \author{ 習志野は若草もえて \\ 潮風に匂へる希望 \\ 見よこの大地この青空を \\ 学びの野はてなく広く \\ 真理の陽燦と輝けり } 工大工大 [NAME] 習志野は若草もえて潮風に匂へる希望見よこの大地この青空を学びの野はてなく広く真理の陽燦と輝けり工大工大 [NAME] 図 5 学習時の入力と出力. キーワードを全て使うのではなく,エポックごとにランダムにサンプルする. 表 2 実験結果. 各スコアは平均値, かっこの中は標準偏差を示している。 「大学」とした). 歌詞に学校名が含まれている場合は学校名制約を課すものとし, 学校名が含まれていない場合,制約はないものとして取り扱った. 制約のある曲は, 学習データに 189 曲, 開発データに 32 曲, 評価データに 26 曲含まれていた. なお,データの前処理として, 各歌詞に出現する学校名を特殊文字 ([NAME]) に置換した. 図 4 に具体例を示す. 実際の運用を考えた場合, ユーザがキーワードを大量に入力することは稀だと思われる. そのため, 準備したキーワード全てを入力とするのではなく, 1 から 3 個ランダムに抽出し, それらを入力とすることで実際の設定に近づけた.このサンプリングは, 学習と評価の双方で行なった. 図 5 に学習時の例を示す.本実験の生成対象は日本語なので, $\mathrm{mC4}$ [2] および Wiki-40B [10] に含まれる日本語テキストのみで事前学習された T5 [2] を使用した.3)このモデルに対し, クロスエントロピー損失を用いてファインチューニングを行なった. 使用したハイパーパラメータおよび実装の詳細は付録に記載した。 ## 3.2 実験結果 表 2 に ROUGE [11] を示す. 表の FP (false positive) は, 制約がない ([NAME] が正解の歌詞に含まれていない) 場合に [NAME] がどのぐらい出力されたかを示しており, 値が大きいほど誤って [NAME] を出力していることを意味する. 制約がない場合であっても, 頻繁に [NAME] が出力されるのではないかと予 3) https://huggingface.co/megagonlabs/ t5-base-japanese-web想していたが, 本実験では, $37.4 \%$ (26 曲中で約 10 曲) であった. 本実験では, ユーザの入力となるキーワードを, 歌詞から抽出した単語のランダムサンプリングで代用している.このランダムサンプリングの影響を考慮するため, 5 回評価を行い, その平均と標準偏差を報告している. 表の通り, 標準偏差は 1.0 以下になっており,サンプリングがスコアに対して与える影響は大きくないと思われる. ## 4 関連研究 歌詞生成に関する研究は近年活発に研究されている $[12,13,14]$. 一般的な歌詞を対象とするのではなく, ラップの生成 [15] や詩 [16], 短歌の生成など [17]様々な形態の詩を対象とした研究も行われている. また, 本研究では, キーワードから歌詞の生成に取り組んだが, メロディから歌詞を生成する研究も存在する $[12,13,14]$. 本研究は, 校歌を対象としている点, および, 生成の支援を目的としている点がこれらの研究とは異なる。 ## 5 おわりに 本論文では, 校歌のための歌詞作成支援システムを紹介した. 作詞経験が少ないユーザでも気軽に作詞体験を楽しめるように, システムが原案となる歌詞を提示できるようにした. 提示された歌詞は,ユー ザが自由に編集でき,その編集に応じた歌詞をシステムが再生成できるように設計した。 今後の課題は, システムではなくユーザが原案を提示すること, 歌詞生成時に韻を考慮すること, モ一ラ数に制約を入れること,音・メロディから歌詞を生成すること,などの機能を実装することである. ## 謝辞 本研究を進める過程で, 理研 AIP 杉山将氏, 浜中雅 俊氏, 本多右京氏, および, iU 情報経営イノベーション専門職大学増田知香氏, 林純輝氏, 木内来萌氏, 牧野友季氏, 森井創氏, にシステムおよび歌詞データの構築に関してご助言・ご協力いただきました.この場を借りて感謝申し上げます。 ## 参考文献 [1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems, 2017. [2] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J Liu, et al. Exploring the limits of transfer learning with a unified text-to-text transformer. J. Mach. Learn. Res., Vol. 21, No. 140, pp. 1-67, 2020. [3] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, 2020. [4] Peter Anderson, Basura Fernando, Mark Johnson, and Stephen Gould. Guided open vocabulary image captioning with constrained beam search. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 936945, 2017. [5] Matt Post and David Vilar. Fast lexically constrained decoding with dynamic beam allocation for neural machine translation. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1314-1324, 2018. [6] J. Edward Hu, Huda Khayrallah, Ryan Culkin, Patrick Xia, Tongfei Chen, Matt Post, and Benjamin Van Durme. Improved lexically constrained decoding for translation and monolingual rewriting. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 839-850, 2019. [7] Zhongyang Li, Xiao Ding, Ting Liu, J. Edward Hu, and Benjamin Van Durme. Guided generation of cause and effect. In Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence, p. 3629-3636, 2021. [8] 帖佐克己, 森下睦, 永田昌明. 入力拡張と制約付きデコー ディングによる語彙制約付き機械翻訳. 自然言語処理, Vol. 29, No. 4, pp. 1052-1081, 2022. [9] Guanhua Chen, Yun Chen, Yong Wang, and Victor OK Li. Lexicalconstraint-aware neural machine translation via data augmentation. In Proceedings of the Twenty-Ninth International Conference on International Joint Conferences on Artificial Intelligence, pp. 3587-3593, 2021. [10] Mandy Guo, Zihang Dai, Denny Vrandecic, and Rami Al-Rfou. Wiki-40B: Multilingual language model dataset. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 2440-2452, 2020. [11] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Proceedings of the Workshop on Text Summarization Branches Out, pp. 74-81, 2004. [12] Kento Watanabe, Yuichiroh Matsubayashi, Satoru Fukayama, Masataka Goto, Kentaro Inui, and Tomoyasu Nakano. A melody- conditioned lyrics language model. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 163-172, 2018. [13] Xichu Ma, Ye Wang, Min-Yen Kan, and Wee Sun Lee. AI-Lyricist: Generating music and vocabulary constrained lyrics. In Proceedings of the 29th ACM International Conference on Multimedia, p. 1002-1011, 2021. [14] Zhonghao Sheng, Kaitao Song, Xu Tan, Yi Ren, Wei Ye, Shikun Zhang, and Tao Qin. SongMASS: Automatic song writing with pre-training and alignment constraint. In Proceedings of the AAAI Conference on Artificial Intelligence, pp. 13798-13805, 2021. [15] Lanqing Xue, Kaitao Song, Duocai Wu, Xu Tan, Nevin L. Zhang, Tao Qin, Wei-Qiang Zhang, and Tie-Yan Liu. DeepRapper: Neural rap generation with rhyme and rhythm modeling. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing, pp. 69-81, 2021. [16] Xiaoyuan Yi, Maosong Sun, Ruoyu Li, and Wenhao Li. Automatic poetry generation with mutual reinforcement learning. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 3143-3153, 2018. [17] 浦川通, 新妻巧朗, 田口雄哉, 田森秀明, 岡崎直観, 乾健太郎. モーラを考慮した fine-tuning による口語短歌生成. 言語処理学会第 28 回年次大会発表論文集, pp. 1328-1332, 2022. [18] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In International Conference on Learning Representations, 2019. [19] Adam Paszke, Sam Gross, Francisco Massa, Adam Lerer, James Bradbury, Gregory Chanan, Trevor Killeen, Zeming Lin, Natalia Gimelshein, Luca Antiga, et al. PyTorch: An imperative style, high-performance deep learning library. In Advances in Neural Information Processing Systems, 2019. [20] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander M. Rush. Transformers: State-of-the-art natural language processing. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45, 2020. [21] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, 2018. [22] Kazuma Takaoka, Sorami Hisamoto, Noriko Kawahara, Miho Sakamoto, Yoshitaka Uchida, and Yuji Matsumoto. Sudachi: A Japanese tokenizer for business. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation, pp. 2246-2249, 2018. ## A ハイパーパラメータ 以下のハイパーパラメータを用いて T5 の学習 (ファインチューニング)を行なった. - learning rate: 5e-05 - batch size: 8 - optimizer: AdamW [18] - Ir scheduler: linear - max epochs: 300 また, 歌詞生成時には以下のハイパーパラメータを用いた。 - max length: 256 - temperature: 0.5 - repetition penalty: 4.0 - number of beams: 2 これらのハイパーパラメータは, 開発セットにおける ROUGE-L のスコアに基づいて選択した。 ## B 実装の詳細 歌詞生成器の実装は PyTorch v.1.13.1 [19] および Transformers v4.25.1 [20], SentencePiece [21] を利用した.キーワード抽出のために Sudachi [22]を使用し形態素解析を行なった. 制約付きビームサーチは Transformers の generate 関数 (force_words_ids を指定)を利用した.4) ROUGE の計算には SumEval を使用した.5) ## C 論文に掲載した歌詞について 本論文では, 例 (図 $2,4,5$ ) を示すため千葉工業大学校歌 (1 番のみ) を使用した. 千葉工業大学校歌は大学ホームページにて公開されている。6) なお, 本システムを構築するために使用したデータ (表 1)に,千葉工業大学校歌は含まれていない. 図 3 で示した例は, 実際にシステムを用いて生成した歌詞である. 4) https://huggingface.co/docs/transformers/main/ en/main_classes/text_generation\#transformers. GenerationMixin.generate 5) https://github.com/chakki-works/sumeval 6) https://www.it-chiba.ac.jp/institute/disclosure/ school-badge/
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-10.pdf
# 動画キャプションモデルを用いた字幕翻訳の検討 成浦拓音 品川政太朗 須藤克仁 中村哲 奈良先端科学技術大学院大学 \{nariura.takuto.nu7, sei.shinagawa, sudoh, s-nakamaura\}@is.naist.jp ## 概要 機械翻訳において映像情報を用いて翻訳精度を改善する研究が行われている一方,映像情報を含むコーパスには限りがあり,大規模に学習することが難しい。本研究ではこのような問題を回避し,映像情報を話し言葉翻訳に活かす方法を提案する。本手法は映像情報を動画説明文に変換して取り扱うことで,事前学習済みの言語モデルが学習しやすい問題設定とし,規模の小さい視覚情報付きコーパスでも事前学習による性能向上が期待できる. VISA デー タセットを用いた実験の結果,多義語を含むデータセットにおいて動画説明文を用いて学習を行う事で,動画説明文を用いない場合より BLEU 值が 0.24 ポイント, METEOR 值が 1.19 ポイント上昇する結果を得られた。 ## 1 はじめに 機械翻訳技術の発展により,実時間での同時翻訳や映画・漫画といった視覚情報を含む発話文や説明文を多言語に翻訳する研究が盛んに行われてきている $[1,2]$. 新聞や Web 上の文章をはじめとする文章の文脈や文法が意識される書き言葉とは異なり,同時翻訳や映画などの視覚情報を含む発話や会話には,指差しや視覚情報を共有しているという前提での主語の省略や, 英語の “figure” やフランス語の “grille”といった場面に応じて異なった意味を含む多義語が事前の文脈情報なしに含まれることがある. このような問題に対しては,視覚情報を考慮して翻訳することが有用だと考えられており, 視覚情報を用いた翻訳手法の研究が進められている. 実際に, Multi30k [3] や VATEX [4] など複数の視覚情報付きデータセットにおいて、視覚情報を追加することにより翻訳精度を改善できることが報告されている $[5,6]$. 一方,映像情報を含む対訳コーパスの数は数千文 字幕に対応する映像 提案手法B 図 1 提案手法 から多くて数十万文と規模が小さく,大規模に学習することが難しい. 本研究では視覚情報を動画説明文として受け取る事で話し言葉翻訳において改善が見込めると仮説を立て,大規模自然言語モデルにおいて視覚情報を取り扱う手法を提案する. 本手法は視覚情報を事前に学習した動画キャプションモデルによって動画説明文へと変換し,変換した動画説明文を大規模自然言語モデルの入力として取り扱うことで事前学習済みの自然言語モデルを用いて学習を行う. 自然言語処理では mBART [7] や T5 [8] といった大規模な事前学習を行った機械学習モデルを特定のタスクにファインチューニングすることが一般的であり,これらのモデルは数千万文以上からなる大規模なデータセットや対訳コーパスを用いて事前学習を行うことで事前知識を得ることを可能にしている. 本提案手法を用いることで大規模データセットで事前学習された大規模自然言語モデルを直接的に変更することなく,そのまま活用することが可能となり,数千文から数十万文程度と規模が小さい視覚情報付き対訳コーパスでも事前学習による精度の向上を期待することができる. 提案手法を用いることで翻訳精度が向上することを明らかにするため,VISA データセット [9]を用いた実験を行った. 実験の結果,多義語を含むデータ セット (Polysemy) において動画説明文を用いた場合には,翻訳精度が改善する結果を得られた。 ## 2 関連研究 ## 2.1 動画翻訳 動画翻訳は映像情報を追加の入力として受け取ることで, 翻訳精度を改善することを目的とした研究である. 既存のデータセットとしては VATEX デー タセットや How2 データセット [10] が知られているが,VATEX データセットには映像情報を説明する動画説明文が付与されており,マルチモーダルな情報を活用することによる利点が十分に含まれていないという指摘も存在する [11]. Li らは OpenSubtitles データセット [12] から収集した日英字幕の対訳コー パスと,字幕情報に沿って取得した 10 秒間の映像情報を組み合わせた VISA データセットを構築した [9]. VISA データセットには字幕情報だけでは翻訳時の語義の曖昧性が解決できないとクラウドワー カーによって判断された文章のみが含まれており, マルチモーダルな情報を活用することによって語義の曖昧性を解決できることが期待されている. 映像情報を用いた機械翻訳モデルの多くは動画をフレーム単位に分けた後,事前学習済みの画像エンコーダに入力して画像特徴量を取得したり,モー ションエンコーダを用いて動画特徴量を取得するなどの手法が一般的である $[6,13]$. 一方, 本研究では視覚情報を直接翻訳モデルの入力として扱わないという点で既存研究とは異なる。 ## 2.2 大規模言語モデル ニューラルネットワークを用いた自然言語処理では事前学習を実施した大規模言語モデルをタスクの用途に合わせてファインチューニングをする手法が一般的であり,大量のコーパスを用いて事前学習を行うことでタスクによらない事前知識を獲得できることが知られている. 機械翻訳でも大規模モデルを用いる手法が提案されており, Liu らは大規模な対訳コーパスを使用することで最先端の翻訳精度を実現する mBART を提案している. また Huang らは多義語の単語を説明する辞書情報を結合した入力を用いて,大規模事前学習モデルを微調整することでタスクを解くGlossBERTを提案している [14]. 視覚情報付き翻訳においても大規模な事前学習済みモデルを使用する手法が提案されている。表 1 VISA データセットの内訳 Caglayan らは言語情報と視覚情報を踏まえた事前学習を行う手法である VTLM を提案した [5]. 一方 Caglayan らの提案する事前学習手法はマスキングされた画像の分類問題をする追加タスクを実行する必要があり,それを行うためには事前に視覚情報の内容を物体検出した上でマスクを行えるように前処理をする必要がある。また映像情報のような時系列情報をそのまま結合することはできない,一方,本研究では,動画キャプションモデルで映像情報を事前に言語化することで,視覚情報を扱う難しさを回避しつつ,翻訳に有用な視覚情報を大規模言語モデルに自然に取り込める可能性が期待できる。 ## 3 提案手法 本稿では動画説明文を用いることで翻訳に有用な視覚情報を大規模自然言語モデルに取り込める仮説を立て,画像特徴量や動画特徴量を翻訳モデルの入力として受け取る代わりに,大規模自然言語モデルの追加入力として視覚情報を説明する動画説明文を付与した上で翻訳を行うこととした。提案手法を図 1 に示す. VISA データセットにて各コーパスに紐づいている動画情報を動画キャプションモデルを使用して動画説明文へと変換し,それらを追加の入力文として取り扱う. 動画の説明文は Huang らが提案した GlossBERT などの手法を踏まえて,入力として加える翻訳文に結合することとした.動画説明文は 2 つの特殊トークンである $[S E P]$ と $[/ S E P]$ で挟んだ上で入力に結合する事とし,動画説明文の結合位置には原言語文の前後 2 通りが考えられるため,両方の場合を考慮して説明文を入力文の文頭に結合する場合 (提案手法 A) と文末に結合する場合の 2 通りで実験 (提案手法 B) を行った. 動画キャプションモデルには最先端モデルの一つであり,映像を含む対訳コーパスであるVATEX データセットで事前学習された SwinBERT [15] モデルを使用することとした. 動画説明文の例を表 2 に示す. 表 3 提案手法 2 の評価值 (†: VMT [9] から引用) ## 4 実験 事前学習済みの自然言語モデルに動画説明文を付与することで,翻訳精度が向上することを明らかにするために以下の実験を行った. ## 4.1 実験設定 本実験では映像情報付き翻訳データセットとして,VISA データセットを用いる.VISA データセットの内訳を表 1 に示す ${ }^{1)}$. VISA データセットには多義語の翻訳を含むデータセットである Polysemy と主語の省略を含むデータセットである Omission, その 2 つを組み合わせた Combined の 3つの組み合わせが存在し, 今回の実験では全てのデータセットの組み合わせで実験を行った. 事前学習済み大規模自然言語モデルには CC-25 データセットで事前学習された mBARTを用いた。なお, mBART の著者らが公開している mBART モデルとトークナイザには特殊トークン $[S E P]$ と $[/ S E P]$ が含まれていないため,今回の実験では事前に使用する特殊トークンをトークナイザに追加しておき,特殊トークンに対応する単語埋め込み表現をランダムな初期値で初期化した上で学習を行った。 今回の実験では日英翻訳を行うため,日本語の原言語文に対して SwinBERT から出力された英語の説明文を結合して実験を行っている. また動画説明文を用いずに mBARTを学習させた場合とも比較を行うこととした. テストデータに対する推論時にはビームサーチを用い,ビーム長は 10 とした. また  実験コードの実装には fairseq [16] を用いた. ## 4.2 実験結果 実験結果は既存研究と同じく BLEU (n=4) [17] と METEOR [18], RIBES [19]を用いて評価した. VISA データセットの文章は短い会話文が多いため, BLEU 計算時には文章の長さによる影響を緩和する手法として, 既存研究と同じようにChen らの Smoothing 4 method を用いている [20]. それぞれのデータセットでの実験結果を表 3 に示す. 全体として動画説明文を文頭に付与する場合よりも動画説明文を文末に付与する方が良い結果を収めている。また文末に動画説明文を付与した場合には動画説明文を付与しない場合よりも,幾つかの指標で最も良い結果を収めた. 特に Polysemy データセットでは全ての指標において他のモデルを上回る結果を得ることができている. 動画説明文が有効に働いたと考えられる Combined データセットにおける出力例を表 4 に記載する。たとえば「シャワーを浴びようとしてた」 という原言語文に対しては mBART は “He”と「彼」 を主語にしているのに対して,提案手法 B は “I” と自分を主語とした発話として翻訳することが出来ている。また「気をつけろ」という原言語文に対しては mBART は「体に気をつける」といった意味合いである “Take care of” が出力されているのに対して,提案手法 B では「注意する」という意味合いを持つ “Be careful” が出力されており,動画情報を踏まえることによって複数の意味を持つ多義語を場面に応じて使い分けられている。また「体育館に戻られた方が良いと思います」という原言語文に対しては,体 育館を表す “gym”という単語を適切に出力できており,事前知識を活用して翻訳を行えている。 一方,動画説明文が有効ではなかったと考えられる出力例を表 5 に記載する。「金を待っているだけだ」という原言語文では,どの手法でも省略された主語を間違える結果となっている. 日本語の会話文では場面に応じて主語が省略されることがあるが,今回のデータセットには話者情報が含まれていないため状況を説明する説明文だけでは対象の発話が誰に対する発話であるかを判別することが難しく,省略された主語を推測することに失敗したのだと考えられる。このような問題に対しては映像情報だけを用いるのではなく,話者情報を用いたり,音声情報や顔の表情から感情を推論するといったマルチモー ダルな手法を活用することで更に翻訳精度を改善できるのではないかと考えている. ## 5 まとめと今後の展望 本稿では動画情報を動画説明文に変換し,大規模自然言語モデルの追加入力として取り扱う手法について検討を行った. VISA データセットを用いた実験の結果,いくつかの指標とデータセットにおいて提案手法は動画説明文を用いない場合よりも良い翻訳精度を実現することができた. 今後の展望としては物体検出を行った上で,それぞれの物体に対して個別にキャプションを付与することで更に細かな動画説明文を取得することや,映像情報から話者情報や話し手の表情・声の調子や抑揚といった話者に着目したマルチモーダルな情報についても取得・活用することを検討している。また翻訳文章が長く複雑であったり,主語が推測しにくいような文章の場合にも本手法が今回の実験と同様に翻訳精度を向上するかどうかについても検討したいと考えている.表 4 説明文が有効に働いたと考えられる出力例 表 5 説明文が有効に働かなかったと考えられる出力例 \\ ## 謝辞 本研究は JSPS 科研費 JP21H05054 の助成を受けたものです ## 参考文献 [1] Jiatao Gu, Graham Neubig, Kyunghyun Cho, and Victor O.K. Li. Learning to translate in real-time with neural machine translation. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, pp. 1053-1062, Valencia, Spain, April 2017. Association for Computational Linguistics. [2] Ryota Hinami, Shonosuke Ishiwatari, Kazuhiko Yasuda, and Yusuke Matsui. Towards fully automated manga translation. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 35, pp. 12998-13008, 2021. [3] Desmond Elliott, Stella Frank, Khalil Sima'an, and Lucia Specia. Multi30K: Multilingual English-German image descriptions. In Proceedings of the 5th Workshop on Vision and Language, pp. 70-74, Berlin, Germany, August 2016. Association for Computational Linguistics. [4] Xin Wang, Jiawei Wu, Junkun Chen, Lei Li, Yuan-Fang Wang, and William Yang Wang. Vatex: A large-scale, high-quality multilingual dataset for video-and-language research. In Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 4581-4591, 2019 . [5] Ozan Caglayan, Menekse Kuyu, Mustafa Sercan Amac, Pranava Madhyastha, Erkut Erdem, Aykut Erdem, and Lucia Specia. Crosslingual Visual Pre-training for Multimodal Machine Translation. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Short Papers, online, April 2021. Association for Computational Linguistics. [6] Weiqi Gu, Haiyue Song, Chenhui Chu, and Sadao Kurohashi. Video-guided machine translation with spatial hierarchical attention network. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing: Student Research Workshop, pp. 87-92, Online, August 2021. Association for Computational Linguistics. [7] Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis, and Luke Zettlemoyer. Multilingual denoising pre-training for neural machine translation. 2020. [8] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J Liu, et al. Exploring the limits of transfer learning with a unified text-to-text transformer. J. Mach. Learn. Res., Vol. 21, No. 140, pp. 1-67, 2020. [9] Yihang Li, Shuichiro Shimizu, Weiqi Gu, Chenhui Chu, and Sadao Kurohashi. VISA: An ambiguous subtitles dataset for visual sceneaware machine translation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 67356743, Marseille, France, June 2022. European Language Resources Association. [10] Ramon Sanabria, Ozan Caglayan, Shruti Palaskar, Desmond Elliott, Loïc Barrault, Lucia Specia, and Florian Metze. How2: a large-scale dataset for multimodal language understanding. In Proceedings of the Workshop on Visually Grounded Interaction and Language (ViGIL). NeurIPS, 2018. [11] Zhishen Yang, Tosho Hirasawa, Mamoru Komachi, and Naoaki Okazaki. Why videos do not guide translations in video-guided machine translation? an empirical evaluation of video-guided machine translation dataset. Journal of Information Processing, Vol. 30, pp. 388-396, 2022 [12] Pierre Lison and Jörg Tiedemann. OpenSubtitles2016: Extracting large parallel corpora from movie and TV subtitles. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC'16), pp. 923-929, Portorož, Slovenia, May 2016. European Language Resources Association (ELRA). [13] Tosho Hirasawa, Zhishen Yang, Mamoru Komachi, and Naoaki Okazaki. Keyframe segmentation and positional encoding for video-guided machine translation challenge 2020 . arXiv preprint arXiv:2006.12799, 2020 [14] Luyao Huang, Chi Sun, Xipeng Qiu, and Xuanjing Huang. GlossBERT: BERT for word sense disambiguation with gloss knowledge. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3509-3514, Hong Kong, China, November 2019. Association for Computational Linguistics. [15] Kevin Lin, Linjie Li, Chung-Ching Lin, Faisal Ahmed, Zhe Gan, Zicheng Liu, Yumao Lu, and Lijuan Wang. Swinbert: End-to-end transformers with sparse attention for video captioning. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 17949-17958, 2022. [16] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of NAACL-HLT 2019: Demonstrations, 2019. [17] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [18] Satanjeev Banerjee and Alon Lavie. Meteor: An automatic metric for mt evaluation with improved correlation with human judgments. In Proceedings of the acl workshop on intrinsic and extrinsic evaluation measures for machine translation and/or summarization, pp. 65-72, 2005. [19] Hideki Isozaki, Tsutomu Hirao, Kevin Duh, Katsuhito Sudoh, and Hajime Tsukada. Automatic evaluation of translation quality for distant language pairs. In Proceedings of the 2010 Conference on Empirical Methods in Natural Language Processing, pp. 944-952, Cambridge, MA, October 2010. Association for Computational Linguistics. [20] Boxing Chen and Colin Cherry. A systematic comparison of smoothing techniques for sentence-level BLEU. In Proceedings of the Ninth Workshop on Statistical Machine Translation, pp. 362-367, Baltimore, Maryland, USA, June 2014. Association for Computational Linguistics.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-11.pdf
# マルチモーダル機械翻訳における 画像・入力文間類似度と翻訳品質の相関の分析 佐藤郁子 平澤寅庄 金輝燦 岡照晃 小町守 東京都立大学 \{sato-ayako, hirasawa-tosho, kim-hwichan\}@ed.tmu.ac.jp, \{teruaki-oka, komachi\}@tmu.ac.jp ## 概要 本研究では,画像・入力文間類似度が低い事例がマルチモーダル機械翻訳 (MMT) に及ぼす影響を調査する. MMT では,画像情報による入力文の曖昧性解消で,翻訳品質の改善を図る. 先行研究ではシステムレベルでの翻訳品質改善は限定的であると報告されているが,画像情報の貢献度について事例レベルでの定量的な分析は行われていない。そこで本研究では,画像情報が有効な事例の自動識別を目的に分析を行う.画像・入力文間類似度が低い事例は画像情報が大力文を補完し, 翻訳品質が改善することが期待できる. その仮説の下,画像・入力文間類似度と画像情報の貢献度の相関を分析し, MMT で翻訳品質が改善する事例で,負の相関を確認した。 ## 1 はじめに 近年,機械翻訳 (MT) において,テキストだけでなく画像情報を利用して翻訳品質を改善するマルチモーダル機械翻訳 (MMT) が注目されている. MT モデルが曖昧性のある文を翻訳する際に,文脈だけでは情報が不足する場合があるという背景から, MMT では, 画像情報を追加入力することで入力文の文脈情報を補完し,より正確な翻訳を行う。 システムレベルの評価では MMT モデルの画像情報の貢献はわずかのため, その有効性は議論されている $[1,2,3]$. 一方, 事例レベルでの画像情報の貢献は, 参照文と出力文の比較によって定性的に評価されており,入力を用いた定量的な分析は行われていない. 入力のみを用いた事例レベルの自動評価が可能になることにより,分析対象となる事例選択の効率化や MMT モデルの評価に適したデータ作成を実現することができる. 本研究では,画像情報が有効な事例の自動評価を 図 1: 画像情報が有効な事例(上)と有効でない事例 (下).画像・入力文間類似度(計算方法は 3 節を参照)は,上の事例が 0.292 ,下の事例が 0.388 である。上の事例では,“take shots”の「写真を撮るハシットグラスを取る」という入力文の曖昧性を,画像情報により解消している. 下の事例では,画像情報の有無に関わらず翻訳は正しい。 目的として,定量的に翻訳品質を分析する.MMT では文脈情報の不足を画像で補完することから,有効な事例の画像には入力文にない情報が含まれており,その情報量の差分によって画像・入力文間類似度が低くなると考えられる。そこで,「画像情報が有効な事例では,画像・入力文間の類似度が低くなる」という仮説に基づき,英日翻訳の品質を分析した. 仮説の概要を図 1 に示す. 実験では,画像・入力文間類似度,画像情報の貢献度の計算を行い,それらの相関を確認することで仮説を検証する。 実験の結果より, MMT モデルで翻訳品質が改善する事例において,画像・入力文間類似度は画像情報の有効性と負の相関があることを確認した。また,画像・入力文間類似度が低い事例では,画像情報の入力がノイズになりうることを確認した. ## 2 関連研究 Elliott [4] は,MMT モデルにおいて,入力文と対応する画像,対応しない画像をそれぞれ追加入力させたときの性能を分析している。この分析では, 3 つのモデルのうち 2 つでは,対応する画像を入力した時に性能改善が見られた. Caglayan ら [5] は,入力文にノイズを加え,画像情報の有効性を分析している.この分析では,入力文中の名詞をマスクして文脈情報が限定的な場合,MT モデルより MMT モデルの方が性能が高く, 画像情報が有効であることがわかった. しかし, 不一致画像の追加入力や入力文劣化は,MMT システムを実際に利用する際の設定に適していない. 本研究では,入力を操作しない実験設定で,定量的な翻訳品質の分析を行う. Hatami ら [6] は,WordNet の語義数に基づいて入力文中の全ての名詞の曖昧度スコアを計算し,MT, MMT モデルの翻訳品質との相関を分析している. この分析では, どちらのモデルも, 入力文の曖昧度スコアが高いほど翻訳品質が低くなり, MMT モデルの方が全体の性能が良くなることから,入力文の曖昧性解消に画像情報が有効であることがわかった.しかし,彼らの曖昧度スコアは入力文のみを用いるため, 追加入力される画像情報の有効性評価には適していない。そこで本研究では,画像情報の有効性評価のための指標として,画像情報を考慮した画像・入力文間類似度を提案する。 ## 3 分析手法 本研究では入力文 $x$, 参照文 $y$ ,画像 $v$ の三つ組のテストデータ $D=\left.\{\left(x_{1}, y_{1}, v_{1}\right), \ldots,\left(x_{|D|}, y_{|D|}, v_{|D|}\right)\right.\}$ を用いて仮説を検証する。ここで $|D|$ はテストデー タのサイズを表す。分析手順は以下の通りである. 手順 1. テストデータ内の各入力文とそれに対応する画像間の類似度集合 $S=\left.\{s_{1}, \ldots, s_{|D|}\right.\}$ を求める.ここで画像・入力文間類似度 $s_{i}$ は, 画像 $v_{i}$ と入力文 $x_{i}$ をそれぞれ共有潜在空間にエンコードして得たべクトル $\mathbf{v}_{i}$ と $\mathbf{x}_{i}$ の内積である. 手順 2. 画像・入力文間類似度の降順にテストデー タを並べ替え, $N$ 文ずつ $M\left(=\left.\lfloor\frac{|D|}{N}\right.\rfloor\right)$ 組のサブセット $\left.\{D_{1}, \ldots, D_{M}\right.\}$ に分割する. 手順 3. サブセット $D_{i}$ の (a) 画像 - 入力文間類似度 $s_{D_{i}}$ 及び (b) 画像情報の貢献度 $c_{D_{i}}$ を計算する. (a) 画像・ 入力文間類似度 $s_{D_{i}}$ は,各サブセット内の画像・入力文間類似度の平均とする。 (b) 画像情報の貢献度 $c_{D_{i}}$ は,評価指標 $E$ を用いて以下のように定義する。 $ c_{D_{i}}:=E\left(Y_{D_{i}}^{\mathrm{MMT}}, Y_{D_{i}}\right)-E\left(Y_{D_{i}}^{\mathrm{MT}}, Y_{D_{i}}\right) $ ここで $Y_{D_{i}}$ はサブセット $D_{i}$ に含まれる参照文の集合であり, $Y_{D_{i}}^{\mathrm{MMT}}$ と $Y_{D_{i}}^{\mathrm{MT}}$ はそれぞれ $\mathrm{MMT}$, MT モデルの出力文の集合である. 手順 4. 各サブセットの類似度 $s_{D_{i}}$ と貢献度 $c_{D_{i}}$ の相関を確認する.負の相関であれば,「画像情報が有効な事例では,画像・入力文間の類似度が低くなる」という仮説が立証される。 ## 4 実験 ## 4.1 実験設定 データ本研究は英日翻訳による実験で評価した. 英語は Flickr30K Entities [7],日本語は Flickr30K Entities JP [8] を用いる. Multi30K task1 [9] に従い,学習データ 29,000 事例,検証データ 1,014 事例,テストデータ (test2016) 1,000 事例に分割し,画像とそれに対応したキャプションを用いる. Flickr30K Entities,Flickr30K Entities JP には各画像につきキャプションが 5 文あり,本実験では 1 文目を使用する. テストデータ 1,000 事例を 50 文ずつ 20 組のサブセットに分割し,サブセットごとに BLEU [10] で評価を行った. 英語は Multi30K task1 に従ったトー クナイズを行い,日本語は MeCab [11] (IPA 辞書) で単語分割した. BPE [12] でサブワード分割し, 語彙サイズは英日共有で 8,000 とした. モデル本実験では, 画像・入力文間類似度の指標がモデルに依存しないことを確認するため, 複数の MMT モデルで実験を行う.テキストベースの MT モデルは,Transformer-Tiny [13] を用いた. MMT モデルには, Transformer ベースの Attentive multimodal Transformer [14], Gated multimodal Transformer [13] を用いた. Attentive multimodal Transformerには,テキストと画像の文脈ベクトルの連結手法が flat, hierarchical, serial, parallel $の 4$ 種類がある. 画像特徵量には Vision Transformer [15] ベースの事前学習済み画像分類モデル CLIP [16], Faster R-CNN [17], ResNet-50 [18] を用いた. 特徵量の数は,CLIP 及び ResNet-50 は 1, Faster R-CNN は36である1). MT モデルと MMT モデルのアーキテクチャは,レイ 1)本研究ではこれらのモデルのうち事前実験で BLEU スコアの高かった上位 3 つを使用する.事前実験で用いたすべてのモデルの BLEU スコアは付録 A に記載する。 図 2: テストデータにおける画像・入力文間類似度の度数分布 ( $D_{1-6}, D_{7-13}, D_{14-20}$ については 4.3 節参照). 表 1: 類似度順のサブセット $D_{1-20}$ 及び $D_{1-13}$ における類似度と貢献度の相関係数. ヤー数を 4 層,注意機構のヘッド数を 4 個,隠れ層の次元数を 256 とし,ミニバッチサイズを最大 4,096 トークンに設定した. 最適化手法としては Adam [19]を使用した。 類似度計算画像と入力文のエンコードには CLIPを用いる。 CLIPでは,インターネット上で収集した 4 億組の画像・自然言語テキストデータに対して,どのキャプションがどの画像に対応するかを予測する事前学習を行う. テキストのエンコードには Transformer [20], 画像のエンコードには ResNet-50 ベースのモデルまたは Vision Transformer ベースのモデルが使われる。本実験では,Vision Transformer ベースのViT-B/32 モデルを使用した. テストデー 夕に対して, CLIPで計算した画像・入力文間類似度の度数分布を図 2 に示す。 ## 4.2 結果 全サブセットでの評価テストデータ $D$ のサブセットを画像・入力文間類似度の高い順から $D_{1}, D_{2}, \ldots, D_{20}$ とし, 全サブセット $\left(D_{1-20}\right)$ における類似度と貢献度の相関係数を表 1 の 3 カラム目に示す。 $D_{1-20}$ では類似度と貢献度は正の相関であり, $D_{1-20}$ においては必ずしも仮説が正しいとは言えない. 我々は画像・入力文間類似度が過度に低い事例では入力文の意味に合わない画像情報がノイズになると考え,これを確かめるため各サブセットの類似度と貢献度の分布を調べた。その結果を図 3 に示す. 縦軸は MT モデルと MMT モデルの BLEU を 図 3: 類似度順のサブセット $D_{1-20}$ における画像情報の貢献度の分布. 用いた画像情報の貢献度,横軸は各サブセットの画像・テキスト間類似度である. Attentive-hierarchical (CLIP) と Gated (ResNet-50) では, 画像・入力文間類似度が過度に低い 0.3 未満のサブセット $D_{14}$ から MT モデルと MMT モデルの翻訳品質が逆転するサブセットが多くなる. 同様に Attentive-hierarchical (Faster R-CNN) では, サブセット $D_{16}$ から MT モデルと MMT モデルの翻訳品質が逆転している. 従って,画像・入力文間類似度が過度に低いサブセットでは画像情報がノイズになることがわかる. ノイズとなるサブセット以外での評価画像情報により翻訳品質が改善するという前提のもと分析を行うため,画像情報がノイズとなりうるサブセットを取り除いた実験を行った。翻訳品質が逆転するサ 表 2: 画像・入力文間類似度が 0.3 未満の事例(上段)及び 0.3 以上の事例(中段),高い事例(下段). ブセットはモデルによって異なるが分析しやすくするため,全てのモデルに共通の画像・入力文間類似度の閾値を設けた。具体的には, 画像・入力文間類似度が 0.3 より低いサブセット $D_{14-20}$ は画像情報がノイズになると仮定し,それらを除いたサブセット $D_{1-13}$ で実験行った. サブセット $D_{1-13}$ における類似度と貢献度の相関係数を表 1 の 4 カラム目に示す. $D_{1-13}$ では類似度と貢献度は負の相関であるため,仮説が立証された. すなわち,画像がノイズとなり MMT モデルで翻訳品質が低下する事例を除いた場合,画像・入力文間類似度が小さいほど画像情報の貢献度が大きくなるといえる. これらの実験結果より,画像情報によって翻訳品質が改善する事例において, 画像 - 入力文間類似度は, 画像情報の貢献度を測る指標として適当であるといえる。 ## 4.3 翻訳結果の比較 本節では,画像情報の有効性評価における画像・入力文間類似度の妥当性について分析する. 画像入力文間類似度を 3 段階 ( 0.3 未満: $D_{14-20}, 0.3$ 以上: $D_{7-13}$ ,高い: $D_{1-6}$ )に分け,それぞれにおける MT と MMT の翻訳結果を表 2 に示す. 画像・入力文間類似度は,上段の事例が 0.289 , 中段の事例が 0.308 , 下段の事例が 0.368 であり,MMT は Gated (ResNet-50) の出力である. 類似度が 0.3 未満の上段 の事例では,MT が正しい翻訳をしている一方で, MMT は pitch(競技場)を「投球して」と誤訳しており,画像情報がノイズになっていることがわかる.これは,画像中の人物やボールの個数が多く,画像情報のエンコードが難しいためだと考えられる. 類似度が 0.3 以上の中段の事例では,MT で抜け落ちている「二人の幼い男の子を抱いて」という情報が MMT の出力では補完されていることがわかる.これは,画像情報によって入力文がより適切にエンコードされたためだと考えられる。一方,類似度の高い下段の事例では,MT,MMT どちらの翻訳も正しく出力されており, 画像情報が不要な事例であることがわかる. ## 5 おわりに 本研究では,画像・入力文間類似度に着目した MMT の翻訳品質の分析を行った. 英日翻訳の実験結果より, MMT モデルで翻訳品質が改善する事例において,画像 - 入力文間類似度と画像情報の貢献度に負の相関があることがわかった.また,画像・入力文間類似度が一定の値より低い事例では画像情報がノイズとなりうることがわかった. 今後の課題として,画像情報がノイズとなる事例の自動判別や,より翻訳品質差との相関が高い評価指標の獲得に取り組みたい。 ## 参考文献 [1] Stig-Arne Grönroos, Benoit Huet, Mikko Kurimo, Jorma Laaksonen, Bernard Merialdo, Phu Pham, Mats Sjöberg, Umut Sulubacak, Jörg Tiedemann, Raphael Troncy, and Raúl Vázquez. The MeMAD submission to the WMT18 multimodal translation task. In Proceedings of the Third Conference on Machine Translation: Shared Task Papers, 2018. [2] Loïc Barrault, Fethi Bougares, Lucia Specia, Chiraag Lala, Desmond Elliott, and Stella Frank. Findings of the third shared task on multimodal machine translation. In Proceedings of the Third Conference on Machine Translation: Shared Task Papers, 2018. [3] Chiraag Lala, Pranava Swaroop Madhyastha, Carolina Scarton, and Lucia Specia. Sheffield submissions for WMT18 multimodal translation shared task. In Proceedings of the Third Conference on Machine Translation: Shared Task Papers, 2018. [4] Desmond Elliott. Adversarial evaluation of multimodal machine translation. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, 2018. [5] Ozan Caglayan, Pranava Madhyastha, Lucia Specia, and Loïc Barrault. Probing the need for visual context in multimodal machine translation. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 2019. [6] Ali Hatami, Paul Buitelaar, and Mihael Arcan. Analysing the correlation between lexical ambiguity and translation quality in a multimodal setting using wordnet. In Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies: Student Research Workshop, 2022. [7] Bryan A. Plummer, Liwei Wang, Christopher M. Cervantes, Juan C. Caicedo, Julia Hockenmaier, and Svetlana Lazebnik. Flickr30K Entities: Collecting region-tophrase correspondences for richer image-to-sentence models. International Journal of Computer Vision, Vol. 123, No. 1, pp. 74-93, 2017 [8] Hideki Nakayama, Akihiro Tamura, and Takashi Ninomiya. A visually-grounded parallel corpus with phraseto-region linking. In Proceedings of the Twelfth Language Resources and Evaluation Conference, 2020. [9] Desmond Elliott, Stella Frank, Khalil Sima'an, and Lucia Specia. Multi30K: Multilingual English-German image descriptions. In Proceedings of the 5th Workshop on Vision and Language, 2016. [10] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: A method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting on Association for Computational Linguistics, 2002 . [11] Taku Kudo. MeCab: Yet another part-of-speech and morphological analyzer, 2006. http://taku910.github.io/ mecab/. [12] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, 2016. [13] Zhiyong Wu, Lingpeng Kong, Wei Bi, Xiang Li, and Ben Kao. Good for misconceived reasons: An empirical revisiting on the need for visual context in multimodal machine translation. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing, 2021. [14] Jindřich Libovický, Jindřich Helcl, and David Mareček. Input combination strategies for multi-source transformer decoder. In Proceedings of the Third Conference on Machine Translation: Research Papers, 2018. [15] Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, Jakob Uszkoreit, and Neil Houlsby. An image is worth $16 \times 16$ words: Transformers for image recognition at scale. In Proceedings of the 9th International Conference on Learning Representations, 2021. [16] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, Gretchen Krueger, and Ilya Sutskever. Learning transferable visual models from natural language supervision. In Proceedings of the 38th International Conference on Machine Learning, 2021. [17] Shaoqing Ren, Kaiming He, Ross Girshick, and Jian Sun. Faster R-CNN: Towards real-time object detection with region proposal networks. In Advances in Neural Information Processing Systems 28, 2015. [18] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. In Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition, 2016. [19] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Proceedings of the 3rd International Conference on Learning Representations, 2015. [20] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is All you Need. In Advances in Neural Information Processing Systems 30, 2017. ## 付録 ## A 全モデルの BLEU スコア 事前実験で用いた全モデルの BLEU スコアを表 3 に示す. 表 3: テストデータに対する各モデルの BLEU. 但し, ResNet-50については Gated multimodal Transformer では average pool, Attentive multimodal Transformer では last layer を使用した.太字は BLEU スコア上位 3 つを示す。 ## B 類似度と入力文長の関係 各サブセットにおける BLEU スコアを図 4 に示す. 画像・入力文間類似度と BLEUには負の相関があり,類似度が低いほど BLEU が高くなることがわかる.そこで,各サブセットにおける翻訳難易度の調査を行った.具体的には,各サブセットごとに入力文の平均トークン数を求め, 画像 - 入力文間類似度との相関を分析した. 結果を図 5 に示す. 入力文の平均トークン数と画像・入力文間類似度には正の相関があり,入力文の文長が短い事例では,画像入力文間類似度が低くなることがわかる. 分析結果より,画像・入力文間類似度は文長に大きく左右されることがわかった。より高精度な画像情報の有効性評価のためには,入力文の文長を考慮した指標の獲得が必要である. 図 4: 類似度順サブセット $D_{1-20}$ における MT モデルと MMT モデルの BLEU. 画像テキスト間類似度 図 5: 画像・入力文間類似度と各サブセットの入力文の平均トークン数.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-12.pdf
# 視覚翻訳言語モデルを用いた英日マルチモーダル機械翻訳 平澤寅庄 小町守 東京都立大学大学院 hirasawa-tosho@ed.tmu.ac.jp komachi@tmu.ac.jp ## 概要 本論文では、視覚翻訳言語モデル(Visual Translation Language Model; VTLM)が英日マルチモーダル機械翻訳に適応できるかどうかを検証する。事前学習には Conceptual Captions、マルチモーダル機械翻訳には Flickr30K Entities および Flickr30K Entities JP を使用した。実験の結果、VTLM で事前学習を行うことで、BLEUでおよそ 3 ポイントの改善を達成した。一方で、機械翻訳の訓練事例が豊富な場合には、事前学習を行わないモデルと同程度の性能にとどまった。分析の結果、事前学習で獲得したサブワード分割器が機械翻訳の訓練事例を適切に分割できない例があることが判明した。コードおよび事前学習済みのモデルは https://github.com/toshohirasawa/VTLM_EnJa で公開している。 ## 1 はじめに マルチモーダル機械翻訳 (Multimodal machine translation; MMT)では、翻訳文を生成する際に原文だけではなく、画像などの原文に紐付けられた非言語情報を用いる。画像や動画を持つマルチモーダル対訳コーパスのリリースにより、様々なマルチモー ダル機械翻訳モデルが提案されている。 自然言語処理では近年、自己教師あり学習を用いて大規模な単言語コーパスで訓練されたニューラル言語モデルを様々なタスクに応用する研究が盛んに行われており、ニューラル言語モデルが獲得した言語や常識の知識が、各々のタスクに有用であることが示されてきた。機械翻訳でも言語モデルの利用が盛んに研究されており、翻訳品質の向上に有用であることが示されている $[1,2]$ 。 また、対訳コーパスを用いた言語モデルの改善手法も提案されている。多言語の対訳コーパスを使用して訓練された翻訳言語モデル(Translation Language Modeling; TLM)は、分類モデルや機械翻訳モデルの精度を向上させることが報告されている [3]。TLMをマルチモーダルな入力を取るように拡張させた視覚翻訳言語モデル(Visual Translation Language Modeling)は、画像を用いる英独・英仏翻訳で翻訳品質を向上させている [4]。 本研究では VTLM が英日マルチモーダル翻訳でも適用可能かどうかを検証する。VTLM の事前学習には画像・説明文のデータセットである Conceptual Captions [5] に、オンライン自動翻訳サービスで翻訳文を付与した疑似マルチモーダル対訳コーパスを、 マルチモーダル機械翻訳には画像つき英日対訳コー パスである Flickr30K Entities JP [6] を用いた。 実験の結果は大規模な疑似マルチモーダル対訳コーパスで事前学習した VTLM が、英日マルチモー ダル機械翻訳に有用であることを示した。一方で、機械翻訳タスクの訓練事例が増えると、事前学習を行わなず機械翻訳タスクに特化した機械翻訳モデルと同程度にとどまった。分析の結果、事前学習で獲得したサブワード分割器が必ずしも機械翻訳の訓練事例を適切に分割できているわけではないことが分かった。 ## 2 VTLM を用いた英日マルチモーダ ル機械翻訳 本研究では Caglayan et al. [4] の研究を英日マルチモーダル機械翻訳に適用する。 ## 2.1 VTLM の事前学習 VTLM では、cross-lingual に加え、cross-modal な分散表現を獲得するように学習を行う。具体的には、cross-lingual な分散表現を学習する Translation Language Modeling (TLM)を拡張し、マスクされた画像特徵量のラベルを予測する masked region classification を行うことで、cross-modal な分散表現を学習する。 VTLM はまず、 $m$ トークンの原文 $\mathbf{s}=\left[s_{1}, \ldots, s_{m}\right]$ 、 表 1 事前学習およびマルチモーダル機械翻訳モデルの訓練に使用したデータセットの事例数 $n$ トークンの翻訳文 $\mathbf{t}=\left[t_{1}, \ldots, t_{n}\right]$ および事前学習された画像認識モデルにより抽出された $o$ 個の要素を持つ画像特徵量 $\mathbf{v}=\left[v_{1}, \ldots, v_{o}\right]$ を結合し、入力 $\mathbf{x}$ とする: $ \mathbf{x}=[\mathbf{v}: \mathbf{s}: \mathbf{t}] $ 訓練では $\mathbf{x}$ の要素のうち、ランダムに選択された 15\%がマスクされる。マスクに選択された原文・翻訳文の要素は TLM に倣い、 $80 \%$ は [MASK] トークンに置き換え、 $10 \%$ はランダムなトークンへの置き換え、残り $10 \%$ は変更せずに保持する。同様に、マスクに選択された画像特徴量のうち、 $80 \%$ は [MASK] トークンの埋め込み表現に置き換え、10\% はランダムな埋め込み表現に置き換え、残り $10 \%$ は変更せずに保持する。 VTLM では、マスクされた入力 $\tilde{\mathbf{x}}$ から、マスクした位置の要素 $\hat{\mathbf{y}}$ 予測するように学習を行う。 $ \mathscr{L}=\frac{1}{|\mathscr{X}|} \sum_{x \in \mathscr{X}} \log \operatorname{Pr}(\hat{\mathbf{y}} \mid \tilde{\mathbf{x}} ; \theta) $ $x$ は全訓練データで、 $\theta$ は VTLM モデルのパラメー タである。 ## 2.2 マルチモーダル機械翻訳モデルの学習 事前学習された VTLM の重みは、Transformer をベースにしたマルチモーダル機械翻訳モデルの初期化に用いられる。この際、VTLM は Transformer decoderにある cross-attention 機構を持たないため、初期化対象のモデルの embedding 層、self-attention 層、feed-forward 層を初期化する場合にのみ使用する。 初期化されたマルチモーダル機械翻訳モデルは、目的ドメインのマルチモーダル対訳コーパスを用いて追加の学習を行う。 ## 3 実験設定 ## 3.1 データセットと前処理 表 1 に実験で使用したデータセットの概要を示す。実験ではそれぞれのモデルを 1 回訓練し、その表 2 Flickr30K Entities JP の結果。“B”は BLEU、“C”は COMET のスコアである。“—は事前学習を行わずに Flickr30K Entities JPのみで訓練した場合の結果である。太字は最高性能を示す。 結果を報告した。 事前学習用データ VTLM の事前学習には Conceptual Captions を用いた。Conceptual Captions は画像と英語説明文で構成されるデータセットであり、日本語翻訳文を含まない。本研究では、『みんなの自動翻訳@TexTra $』^{1)}$ を用いて英語説明文を日本語に翻訳し、擬似的なマルチモーダル対訳コーパスを作成した ${ }^{2}$ ) 。英語文は Moses 、日本語文は MeCab [7](IPA 辞書) を用いてそれぞれ単語分割を行った。 その後、BPE [8] を用いて、サブワード化した。BPE のサイズは 50,000 で、英語・日本語でサブワードを共有した。 マルチモーダル機械翻訳マルチモーダル機械翻訳モデルの訓練・検証・評価には画像と英語説明文で構成される Flickr30K Entities [9] およびその翻訳である Flickr30K Entities JP [6] を用いた。データの切り分けは WMT 2018 の shared task に従い、訓練デー タ 29,000 事例、検証データ 1,014 事例、評価データ 1,000 事例に分割した。英語文および日本語文はそれぞれ Moses および MeCab(IPA 辞書)を用いて単語分割を行った。また、サブワード分割には事前学習用データで学習したサブワード分割器を使用した。評価には BLEU [10] および COMET [11] を使用した。 ## 3.2 機械翻訳モデル MMT マルチモーダル機械翻訳モデルには Caglayan et al. [4] で使用されたものと同じものを使 1)「みんなの自動翻訳」は、国立研究開発法人情報通信研究機構の登録商標です (第 6120510 号)。「TexTra」は、国立研究開発法人情報通信研究機構の登録商標です(第 5398294 号) 2) 翻訳には汎用 NT モデルを用いた。 図1訓練データを増やしたときの各モデルの性能。括弧内は事前学習の手法である。括弧がないモデルは事前学習を行っていない。 用し、ハイパー・パラメータも同じものを使用した $^{3)}$ 。このモデルでは、画像特徴量と原文の埋め込み表現を結合したものを入力とし、翻訳文を出力するように訓練される。 NMT 画像を使用しない機械翻訳モデルとして、 Transformer (base) [12] を使用した。事前学習を行わない場合は、モデルを機械翻訳タスクの訓練事例で学習を行った。事前学習を行う場合は、学習済みの TLM もしくは VTLM のパラメータでモデルを初期化し、機械翻訳タスクの訓練事例で追加の学習を行った。 ## 3.3 画像特徴量 本研究では事前学習およびマルチモーダル機械翻訳タスクでともに ResNet101 をバックボーンとする Faster R-CNN モデル ${ }^{4}$ を用いて、画像特徴量の抽出を行った。この画像認識モデルでは 1 つの画像に付き 36 個の領域について、画像特徴量および物体ラベルが抽出される。 1 の画像特徴量は 2,048 次元である。 ## 4 結果 表 2 に結果を示す。VTLM で事前学習をした場合、事前学習を行わない場合に比べ、評価データにおいて NMT では +2.32 BLEU、MMT では +7.90 BLEU の性能向上が確認できた。一方で、TLM で事前学習した場合と比較すると改善は NMT で +0.33 BLEU, MMT で +0.16 であり、事前学習において画像を使用することの有効性は限定的であることが分かった。この傾向は [4] の結果と整合しており、 3)詳細はhttps://github.com/ImperialNLP/VTLMを参照。 4) https://github.com/tensorflow/models/blob/ master/research/object_detection/samples/configs/ faster_rcnn_inception_resnet_v2_atrous_oid_v4.config表 3 異なるサブワード分割器によるモデル毎の評価データにおける COMET スコア。“サブワード分割”列は “入力言語のサブワード分割 $\rightarrow$ 目的言語のサブワード分割”を表しており、“word”ではサブワード分割を行わない。“29K”/“145K”は 29,000/145,000 事例で訓練した結果をそれぞれ示す。 } & NMT & 0.2910 & 0.4046 \\ & MMT & 0.1206 & 0.3813 \\ & NMT (VTLM) & 0.4010 & 0.4836 \\ & MMT (VTLM) & $\mathbf{0 . 4 0 6 7}$ & 0.4858 \\ $\rightarrow$ word & MMT & 0.1752 & 0.4896 \\ VTLM が文化的・言語的に近しい言語間(例えば、英独)だけではなく、遠い言語間でも有効であることが示せた。 また、COMET で評価した場合、VTLM で事前学習した MMT モデルが検証および評価で最高性能となった。 ## 5 考察 ## 5.1 MT タスクの訓練データ 一般に、MT タスクの訓練データが増えるにつれ、事前学習による改善が逓減する。ここでは、本実験設定において訓練データを増やした場合に最終的な MT モデルの性能を検証する。図 1 に訓練データを 29,000 事例から 145,000 事例に増やした場合の、各モデルにおける性能の変化を示した。訓練データを 145K 事例に増やした場合でも、VTLM を使った事前学習の有効性は確認できたが、29K 事例の場合に比べるとその効果が派減していることが分かる。 また、サブワード分割は MT モデルの最終的な性能に大きな影響を与えることが知られている [13]。表 3 に、事前学習データで学習した general サブワー ド分割器を使用したモデルの性能と、SOTA モデルである Zhao et al. [14] に従い、入力言語側では機械翻訳の訓練事例のみで学習した in-domain サブワー ド分割器を使用し、目的言語側ではサブワード分割を行わないモデルの性能を示す。訓練事例が少ない場合(29K)は、general サブワード分割器を利用し、 VTLM で事前学習したモデルの性能が良いことが確認できた。一方で、訓練事例が多い場合(145K)では、 general サブワード分割器を利用し事前学習を 表 4 モデルごとの入力とシステム出力。括弧内にはシステム出力の COMET スコアである。 src (in-domain): an oriental traveler awaits his turn at the curren@@ cy exchange . NMT: ... が、東洋風の交換会で、自分の順番を待っている。 $(-0.84)$ src (general): an oriental traveler awaits his turn at the currency exchange . MMT (VTLM):.. が、紙幣交換所で自分の番を待っている。(0.72) ref: 東洋人の旅行者が、両替所で順番を待つ。 src (in-domain): girl wearing radio t-shirt has open mouth NMT: ラジオ T シャツを着た女の子がロを開けている。(0.33) src (general): girl wearing radio $\mathrm{t} @$ @ @ @ shirt has open mouth MMT (VTLM):ラジオの UNK シャツを着た女の子がロを開けている。(-0.77) ref: RAD I O のT シャツを着た若い女性が、ロを開いている。 行ったとしても、in-domain サブワード分割器を利用し機械翻訳タスクの訓練事例のみで訓練したモデルと同程度であった。 ## 5.2 サブワード分割 そこで、それぞれのサブワード手法が性能の変化に与える影響を調べた。まず、general サブワード分割器および in-domain サブワード分割器でそれぞれサブワード分割した評価データ間の編集距離を計算し、MMT (VTLM) と in-domain サブワード分割を使用する NMT モデルの性能差との相関係数を算出した。その結果、入力言語 (英語) の編集距離と性能差には優位な相関はなく、出力言語(日本語)の編集距離と性能差には弱い相関(0.12)が認められた。 また、表 4 では、in-domain サブワード分割器を使用したモデル(NMT)と general サブワード分割器を使用し VTLM で事前学習したモデル(MMT (VTLM))のいくつかのシステム出力を示す。上の例では、in-domain サブワード分割器は “currency” を “currency@@ cy” と分割しており、その結果、正しく翻訳できていない。一方で、general サブワード分割器は分割を行っておらず、“紙幣”と翻訳できている。下の例では、逆に general サブワード分割器が “t-shirt” を“t@@ - @ shirt” と分割したため、正しく翻訳できていない。これは、各サブワード分割器が学習した訓練事例での出現頻度に依存しており、実際 “t-shirt” は Conceptual Captions では一度も出てこず、Flickr30K Entities では 1,181 回出現する。 このように、十分に機械翻訳の訓練事例に出現する単語については、分割を行わず、機械翻訳タスクで単語単位の埋め込み表現を学習することで、翻訳精度を向上させると考えられる。 ## 6 関連研究 マルチモーダル機械翻訳は Multi30K データセッ卜 [15] が提案されていこう、様々な手法が提案されてきた。一方で、Multi30K は小規模なデータセットであるため、Multi30K データセット以外の資源を用いてマルチモーダル機械翻訳モデルの性能を向上させる試みが、当初から行われてきた。Grönroos et al. [16] は字幕ドメインの対訳コーパスでマルチモー ダル機械翻訳を事前学習することで、Multi30Kにおける翻訳性能を大幅に改善した。Hirasawa et al. [17] は単言語コーパスから学習した単語分散表現や(視覚)言語モデルをマルチモーダル機械翻訳モデルに統合することで、翻訳精度を改善した。 ## 7 おわりに 本研究では、視覚翻訳言語モデルがマルチモーダル英日翻訳に適用できるかどうかを検証した。実験の結果、大規模な疑似マルチモーダル対訳コーパスで学習した VTLM は英日翻訳の品質を向上させることが示された。一方で、機械翻訳の訓練事例が増えるに連れ、その効果は派減していき、機械翻訳の訓練事例のみで訓練した機械翻訳モデルと同程度になることが分かった。 本研究では、VTLM の有効性を制限する一因として、事前学習データで学習したサブワード分割器が機械翻訳の訓練事例を分割するのに最適ではないことを示した。今後は、事前学習で学習したサブワー ド分割器を機械翻訳タスクの訓練でサブワードの更新や分割の微調整することで、機械翻訳タスクの訓練事例からも適切に学習できるような手法を検証していきたい。 ## 参考文献 [1] Kenji Imamura and Eiichiro Sumita. Recycling a pretrained BERT encoder for neural machine translation. In Proceedings of the 3rd Workshop on Neural Generation and Translation, pp. 23-31, Hong Kong, November 2019. Association for Computational Linguistics. [2] Jinhua Zhu, Yingce Xia, Lijun Wu, Di He, Tao Qin, Wengang Zhou, Houqiang Li, and Tieyan Liu. Incorporating BERT into neural machine translation. In International Conference on Learning Representations, 2020. [3] Guillaume Lample and Alexis Conneau. Crosslingual language model pretraining. arXiv preprint arXiv:1901.07291, 2019. [4] Ozan Caglayan, Menekse Kuyu, Mustafa Sercan Amac, Pranava Madhyastha, Erkut Erdem, Aykut Erdem, and Lucia Specia. Cross-lingual visual pre-training for multimodal machine translation. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 1317-1324, Online, April 2021. Association for Computational Linguistics. [5] Piyush Sharma, Nan Ding, Sebastian Goodman, and Radu Soricut. Conceptual captions: A cleaned, hypernymed, image alt-text dataset for automatic image captioning. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2556-2565, Melbourne, Australia, July 2018. Association for Computational Linguistics. [6] Hideki Nakayama, Akihiro Tamura, and Takashi Ninomiya. A visually-grounded parallel corpus with phraseto-region linking. In Proceedings of the Twelfth Language Resources and Evaluation Conference, pp. 4204-4210, Marseille, France, May 2020. European Language Resources Association. [7] Taku Kudo. MeCab: Yet another part-of-speech and morphological analyzer, 2006. http://taku910.github. io/ mecab/. [8] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, Berlin, Germany, August 2016. Association for Computational Linguistics. [9] Bryan A. Plummer, Liwei Wang, Christopher M. Cervantes, Juan C. Caicedo, Julia Hockenmaier, and Svetlana Lazebnik. Flickr30K Entities: Collecting region-tophrase correspondences for richer image-to-sentence models. International Journal of Computer Vision, Vol. 123, No. 1, pp. 74-93, 2017. [10] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [11] Ricardo Rei, Craig Stewart, Ana C Farinha, and Alon Lavie. COMET: A neural framework for MT evaluation. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 2685-2702, Online, November 2020. Association for Computational Linguistics. [12] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [13] Jia Xu, Jianfeng Gao, Kristina Toutanova, and Hermann Ney. Bayesian semi-supervised Chinese word segmentation for statistical machine translation. In Proceedings of the 22nd International Conference on Computational Linguistics (Coling 2008), pp. 1017-1024, Manchester, UK, August 2008. Coling 2008 Organizing Committee. [14] Yuting Zhao, Mamoru Komachi, Tomoyuki Kajiwara, and Chenhui Chu. TMEKU system for the WAT2021 multimodal translation task. In Proceedings of the 8th Workshop on Asian Translation (WAT2021), pp. 174-180, Online, August 2021. Association for Computational Linguistics. [15] Desmond Elliott, Stella Frank, Khalil Sima'an, and Lucia Specia. Multi30K: Multilingual English-German image descriptions. In Proceedings of the 5th Workshop on Vision and Language, pp. 70-74, Berlin, Germany, August 2016. Association for Computational Linguistics. [16] Stig-Arne Grönroos, Benoit Huet, Mikko Kurimo, Jorma Laaksonen, Bernard Merialdo, Phu Pham, Mats Sjöberg, Umut Sulubacak, Jörg Tiedemann, Raphael Troncy, and Raúl Vázquez. The MeMAD submission to the WMT18 multimodal translation task. In Proceedings of the Third Conference on Machine Translation: Shared Task Papers, pp. 603-611, Belgium, Brussels, October 2018. Association for Computational Linguistics. [17] Tosho Hirasawa, Masahiro Kaneko, Aizhan Imankulova, and Mamoru Komachi. Pre-trained word embedding and language model improve multimodal machine translation: A case study in Multi30K. IEEE Access, Vol. 10, pp. 67653-67668, 2022.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-13.pdf
# 潜在拡散モデルによる変換画像を用いる マルチモーダルニューラル機械翻訳 湯浅 亮也 ${ }^{1}$ 田村 晃裕 ${ }^{1}$ 梶原 智之 ${ }^{2}$ 二宮崇 ${ }^{2}$ 加藤 恒夫 ${ }^{1}$ 1 同志社大学 2 愛媛大学 ${ }^{1}\{$ ctwh0190@mail4, aktamura@mail, tsukato@mail \}.doshisha.ac.jp ${ }^{2}\{$ kajiwara,ninomiya $\}$ cs. ehime-u.ac.jp ## 概要 本研究では,潜在拡散モデルによる画像変換で生成した擬似画像を用いる新しいマルチモーダルニューラル機械翻訳(MNMT)を提案する.MNMT は,原言語文と関連画像に基づき翻訳を行うが,関連画像は必ずしも原言語文の内容のみを表しているわけではなく, 関連画像内には原言語文とは無関係な箇所も存在する場合が多い。そのため, 関連画像は翻訳の補助情報として最適とは限らない. そこで提案手法では,原言語文に基づき関連画像を潜在拡散モデルで画像変換することで,原言語文の内容に沿った疑似画像を生成し,生成した疑似画像を用いて翻訳を行う.Multi30k データセットを用いた英独翻訳実験を行い,提案手法の有効性を確認した。 ## 1 はじめに 近年,機械翻訳の分野では,原言語文に加えて関連画像を翻訳に使用する MNMT [1]が注目されている. 関連画像により, 翻訳時の曖昧性を解消したり,テキスト情報だけでは捉えることが困難な情報を補完したりすることで,翻訳性能の改善が期待されている. MNMT では, 通常, 画像キャプション生成のデータセットを多言語に拡張した原言語文と目的言語文,関連画像の 3 つ組データからなるデータセットを使用する. しかし, 画像には様々な内容が含まれており, 原言語文は関連画像が表す内容の一部になっている場合が多く, 原言語文とは無関係な箇所が関連画像に存在する場合も多い. 図 1 に MNMT の標準的なデータセットである Multi30k データセット [2] の実例を示す. 図 1 のように, Multi30kでは一つの画像に内容の異なる複数の原言語文が関連づけられている。そして,例えば,原言語文 2 には関連画像に写っている家に関す る内容が含まれていない,そのため,関連画像は翻訳の補助情報として最適とは限らない. そこで本研究では,潜在拡散モデルによる画像変換で生成した擬似画像を用いる新たな MNMT を提案する。具体的には,関連画像と原言語文を用いて潜在拡散モデルにより画像変換を行い,関連画像から原言語文とは無関係な内容を排除し,関連画像を原言語文に即した内容に変換する。そして,変換された擬似画像を関連画像として用いて MNMT モデルで翻訳を行う。このように原言語文の内容をより反映した関連画像を翻訳の補助情報をして用いることで翻訳の性能改善を試みる。 提案手法の有効性を,Multi30k [2] と Ambiguous $\mathrm{COCO}[3]$ を用いた英独翻訳タスクで検証した. その結果,提案手法により,Multi30k の教師データをそのまま用いる従来の MNMT と比較して, Multi30k Test2016 と Test2017 でそれぞれ 0.14, Ambiguous COCO で 0.39,BLEU スコアが改善することを確認した。また,CLIPScore [4]を用いて関連画像と原言語文の類似度を算出した結果,提案手法で用いた関連画像の方が,変換前の関連画像よりも原言語文に即した画像であることを確認した。 ## 2 従来 MNMT モデル 近年の MNMT では,Transformer [5] ベースの MNMT モデルが主流となっている. その翻訳性能を改善するため,これまで,視覚的注意機構の導入 [6] や共有エンコーダを用いてテキストと画像の特徴表現を同時に学習する手法 [7] など様々な試みがなされている.その一つに,関連画像のパッチと原言語文の単語の関連を捉える注意機構である Selective Attention を用いる Transformer MNMT [8] が提案されている. 本研究ではベースの MNMT モデルとして, この Selective Attention MNMT モデルを 図 1 提案手法の概要図 使用する.以降では,Selective Attention MNMT モデルを概説する。 Selective Attention MNMT モデルでは,まず,原言語文 $X^{\text {text }}$ と関連画像 $X^{\mathrm{img}}$ をれぞれ, 式 (1) と式 $ \begin{gathered} H^{\text {text }}=\text { TextEncoder }\left(X^{\text {text }}\right) \\ H^{\text {img }}=W \text { ImageEncoder }\left(X^{\text {img }}\right) \end{gathered} $ ここで,W,TextEncoder,ImageEncoder は,それぞれ,パラメータ行列, Transformer Encoder, Vision Transformer [9] である. そして, 式(3)の通り, Selective Attention で画像のパッチと原言語の単語の関連を注意機構で捉える。 $ H_{a t t n}^{\mathrm{img}}=\operatorname{Softmax}\left(\frac{Q K^{T}}{\sqrt{d_{k}}}\right) V $ ここで, $Q, K, V$ は,それぞれ, $H^{\text {text }}, H^{\text {img }}, H^{\text {img }}$ であり,$d_{k}$ は $H^{\text {text }}$ の次元数である. その後, Gated Fusion 機構 [10] により, 関連画像の影響度を制御して原言語文と関連画像を表す特徴 画像の特徵べクトルから式 (4)を用いて関連画像の影響度をコントロールする $\lambda$ を算出し, 式 (5) のように入で重み付けした特徵表現 $H^{\text {out }}$ を生成する. $ \begin{gathered} \lambda=\operatorname{Sigmoid}\left(U H^{\text {text }}+V H_{\text {attn }}^{\mathrm{img}}\right) \\ H^{\text {out }}=(1-\lambda) \cdot H^{\text {text }}+\lambda \cdot H_{\text {attn }}^{\mathrm{img}} \end{gathered} $ ここで,Uと $V$ は学習可能なパラメータ行列である.そして, $H^{\text {out }}$ Transformer Decoder に入力し,翻訳文を生成する。 ## 3 提案手法: 潜在拡散モデルによる 変換画像を用いる MNMT 本節では,原言語文に基づいて関連画像を変換した擬似画像を使って翻訳を行う MNMT モデルを提案する. 図 1 に提案手法の概要を示す. MNMT のデータセットは,原言語文と目的言語文,関連画像の 3 つ組データで構成される. 従来使われているデータセットでは,各原言語文は関連画像が表す内容の一部になっている場合が多く, 原言語文とは無関係な内容が関連画像に存在する場合も多い,例えば,図 1 の画像は,ピンク色のドレスを着た少女が階段を上って木造の家に入っている場面を表しているが,原言語文 1 には階段を上っているという内容は含まれていない。また,原言語文 2 には家に関する内容は含まれていない。そのため,関連画像は翻訳の手がかりとして最適とは限らない. そこで提案手法は,まず,潜在拡散モデルにより,関連画像から原言語文とは無関係な内容を排除して原言語文に即した疑似画像を生成する。そして,生成した疑似画像と原言語文を用いて従来の MNMT モデルにより翻訳を行う。これにより,関連画像とテキストの関連が翻訳時に捉えやすくなり,翻訳性能が向上することが期待できる. 3.1 節では,関連画像を変換する潜在拡散モデルを説明する。 ベースとなる従来 MNMT モデルは,実験では,2 節で説明した Selective Attention MNMT モデルを用いた. ## 3.1 画像変換 : 潜在拡散モデル 提案手法の画像変換で使用する潜在拡散モデル [11]を説明する.潜在拡散モデルは,VAE [12] の潜 図 2 潜在拡散モデルの学習の概要図 在空間に対して拡散モデル [13] を適用させたモデルで,主に VAE,U-Net [14], Text Encoder で構成される(図 2 参照)。潜在拡散モデルでは,VAE Encoder を用いて入力画像をピクセル空間から低次元の潜在空間に射影し,その潜在表現を得る。そして,拡散プロセスで潜在表現に対してガウシアンノイズを連続的に付与する. その後, 逆拡散プロセスで,ノイズが含まれた潜在表現からノイズを除去する。その際,U-Net に対して,Text Encoder で変換したテキストの特徴表現で条件付けを行う。この条件付けは, Cross Attention で実現する. このプロセスを複数回実施することで,ノイズが含まれた潜在表現から徐々にノイズを除去する。最後に, VAE Decoder により,ノイズが除去された潜在表現を潜在空間からピクセル空間に射影して出力画像を得る. 損失関数は式 (6) の通りである. $ L_{\mathrm{LDM}}:=\mathbb{E}_{\varepsilon(x), y, \epsilon \sim \mathcal{N}(0,1), t}\left[\left.\|\epsilon-\epsilon_{\theta}\left(z_{t}, t, \tau_{\theta}(y)\right)\right.\|_{2}^{2}\right] $ ここで, $\varepsilon, \epsilon_{\theta}, \tau_{\theta}$ ,は,それぞれ,VAE Encoder, U-Net,Text Encoderを表し, $x, y , \epsilon, t, z_{t}$ ,は,入力画像,テキスト,ガウシアンノイズ,時刻,時刻 $t$ の潜在表現である. 提案手法では,この潜在拡散モデルにおいて,関連画像と原言語文を,それぞれ,VAE Encoder と Text Encoderの入力にすることで,関連画像を原言語文に即した画像に変換する。 ## 4 実験 ## 4.1 実験設定 本実験では,Multi30k と Ambiguous COCO を用いた英独翻訳タスクで提案手法の有効性を検証した。学習・検証データとして, Multi30k の学習データ (29,000 組)と検証データ(1,014 組)を使用し,テストデータには,Multi30kの Test2016(1,000 組)と Test2017(1,000 組),Ambiguous COCO(461 組)を使用した. 本実験では,3 節で説明した提案手法の翻訳性能を,関連画像を用いないNMT モデル,関連画像としてデータセットの画像をそのまま使用した MNMT モデル,原言語文のみから生成した画像を関連画像として使用した MNMT モデルの翻訳性能と比較した.以降では,各モデルをそれぞれ,MNMT(変換画像),NMT, MNMT (原画像),MNMT (生成画像)と記す。 NMT モデルは,Transformer-Tiny 1)を用いた.このモデルは,通常の Transformer モデルよりも,レイヤー数や隠れ層のサイズ,注意機構のへッド数などを削減した小規模なデータセットに適した NMT モデルである ${ }^{2)}$. ハイパーパラメータは,先行研究 [15] の実験設定に倣い,エンコーダとデコーダのレイヤー数を 4 ,隠れ層のサイズを 128 ,順伝播層の入カサイズを 256 ,注意機構のヘッド数を 4 , Dropout を 0.3, label smoothing weight を 0.1 とした. 最適化手法は Adam [16] を使用し, $\beta_{1}=0.9, \beta_{2}=0.98$ とした. また,学習率は,最初の 2,000 ステップで $1 \mathrm{e}^{-7}$ から $5 \mathrm{e}^{-3}$ まで warmupを線形に行い, その後, 学習回数に応じて学習率を減少させた. 語彙辞書は原言語と目的言語で共有し, Byte Pair Encoding [17]によりマージ操作を 10,000 回として作成した. MNMT モデルは, 2 節で説明した Selective Attention 1) https://github.com/LividWo/Revisit-MMT 2)文献[15] では, Multi30k データセットにおいて Transformer Base/Small よりも翻訳性能が高いことが報告されている. 表 1 実験結果 : 英独翻訳(BLEU[\%]) & & \\ MNMT (原画像) & 41.06 & 32.06 & 27.91 \\ MNMT (生成画像) & 40.81 & 31.81 & $\mathbf{2 8 . 5 4}$ \\ MNMT (変換画像) & $\mathbf{4 1 . 2 0}$ & $\mathbf{3 2 . 2 0}$ & 28.30 \\ MNMT $^{3)}$ を用いた. 画像の特徵抽出には,Vision Transformer の vit_base_patch16_384 ${ }^{4)}$ を使用した。 MNMT(生成画像)やMNMT(変換画像)で行う関連画像の生成や画像変換には,潜在拡散モデルをべースとする Stable Diffusion 5)を採用し, モデルは stable-diffusion-v1-5 ${ }^{6)}$ を使用した。実装には, それぞれ, diffusers ${ }^{7)} の$ StableDiffusionPipeline と StableDiffusionImg2ImgPipeline を用いた. 画像生成では,デフォルトのパラメータを使用し, guidance_scaleを 7.5 , num_inference_steps を 50 として原言語文から画像を生成した. また,画像変換でもデフォルトのパラメータを使用し, strengthを 0.8 , guidance_scaleを 7.5, 初期値を関連画像として原言語文を用いて画像変換した.学習時のハイパーパラメータと最適化手法, 語彙辞書作成方法は, NMT モデルの実験設定と同じである. 全モデルにおいて,学習終了直前の 10 エポックのモデルに対して checkpoint averagingを行い,ビー ム幅 5 のビーム探索により翻訳文を生成した. 評価指標は,BLEU [18]を使用した。また,異なる 5 つの random seed で学習・検証し, 最も検証データに対する BLEUが高いモデルを評価した。 ## 4.2 実験結果 表 1 に実験結果を示す,表 1 より,画像情報を使用しない NMT モデルより,画像情報を使用する 3 種類の MNMT モデルの方が全てのデータセットにおいて BLEUが高いことが分かる。これより, 本実験で用いたデータセットにおいては,画像情報が翻訳性能の改善に寄与することが確認できた. また,MNMT モデル間の比較では,Test2016と Test2017 においては提案手法である MNMT(変換画像)が最も高い翻訳性能を達成した. Ambiguous  表 2 CLIPScore : 原言語文と関連画像の類似度 & Ambiguous \\ & 2016 & 2017 & COCO \\ MNMT (変換画像) & 79.74 & 79.35 & 80.08 \\ COCOにおいては, MNMT (生成画像) の方が MNMT (変換画像)よりも高い翻訳性能となったが,全体的には, MNMT (変換画像) の方が良い結果となり,提案手法の有効性を確認した。 ## 5 考察 本節では,提案手法で用いた疑似画像(潜在拡散モデルにより原言語文に基づき関連画像を変換した画像)を分析する。変換した画像の例は付録 A に示す. MNMT で使用した画像が原言語文をどれだけ反映していたかを調査するため,使用した画像と原言語文の類似度を,式(7)の通り算出される CLIPScore [4] を用いて評価する. $ \operatorname{CLIPScore}(\boldsymbol{c}, \boldsymbol{v})=w \cdot \max (\cos (\boldsymbol{c}, \boldsymbol{v}), 0) $ ここで, $\boldsymbol{c}$ とは,それぞれ, CLIP [19]の Text Encoder と Image Encoder の特徴べクトルである. また, $w$ は出力をリスケーリングするために使用され,ここでは先行研究 [4] 亿倣い 2.5 とする. 表 2 に評価結果を示す. 表 2 より,全てのデー タセットにおいて,提案手法で画像変換した擬似画像の方が,元々の関連画像よりも原言語文との類似度が高いことが分かる. 特に,曖昧性を含む Ambiguous COCO では類似度が改善し, CLIPScore が 1.91 向上した. これらの結果から, 提案手法では原言語をより反映した関連画像を翻訳の手がかりとして利用できることを確認した. ## 6 おわりに 本研究では,潜在拡散モデルにより関連画像を原言語文に即した画像に変換し,変換した画像を用いる新たな MNMTを提案した. Multi30kを用いた英独翻訳タスクによる実験を行い,提案手法の方が従来手法より高い翻訳性能を実現できることを確認し,提案手法の有効性を確認した.また,MNMTで使用した画像と原言語文の類似度を CLIPScore で評価し,提案手法で用いた画像の方が元の画像よりも原言語文に類似した画像であることを確認した. 今後は英独以外の言語対に対しても有効性を検証したい. ## 謝辞 本研究の一部は JSPS 科研費 JP22K12177, JP21K12031 の助成を受けたものである.また,本研究成果の一部は, 国立研究開発法人情報通信研究機構の委託研究 (No. 225) により得られたものである.ここに謝意を表する。 ## 参考文献 [1] Lucia Specia, Stella Frank, Khalil Sima'an, and Desmond Elliott. A shared task on multimodal machine translation and crosslingual image description. In Proceedings of the First Conference on Machine Translation: Volume 2, Shared Task Papers, pp. 543-553, 2016. [2] Desmond Elliott, Stella Frank, Khalil Sima'an, and Lucia Specia. Multi30K: Multilingual English-German image descriptions. In Proceedings of the 5th Workshop on Vision and Language, pp. 70-74, 2016. [3] Desmond Elliott, Stella Frank, Loïc Barrault, Fethi Bougares, and Lucia Specia. Findings of the second shared task on multimodal machine translation and multilingual image description. In Proceedings of the Second Conference on Machine Translation, pp. 215-233, 2017. [4] Jack Hessel, Ari Holtzman, Maxwell Forbes, Ronan Le Bras, and Yejin Choi. CLIPScore: A reference-free evaluation metric for image captioning. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 7514-7528, 2021. [5] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems, Vol. 30, 2017. [6] Tetsuro Nishihara, Akihiro Tamura, Takashi Ninomiya, Yutaro Omote, and Hideki Nakayama. Supervised visual attention for multimodal neural machine translation. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 4304-4314, 2020. [7] Desmond Elliott and Ákos Kádár. Imagination improves multimodal translation. In Proceedings of the Eighth International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 130-141, 2017. [8] Bei Li, Chuanhao Lv, Zefan Zhou, Tao Zhou, Tong Xiao, Anxiang Ma, and JingBo Zhu. On vision features in multimodal machine translation. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 6327-6337, 2022. [9] Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, Jakob Uszkoreit, and Neil Houlsby. An image is worth $16 \times 16$ words: Transformers for image recognition at scale. In International Conference on Learning Representations, 2021. [10] Zhuosheng Zhang, Kehai Chen, Rui Wang, Masao Utiyama, Eiichiro Sumita, Zuchao Li, and Hai Zhao. Neural machine translation with universal visual representation. In International Conference on Learning Representations, 2020. [11] Robin Rombach, Andreas Blattmann, Dominik Lorenz, Patrick Esser, and Björn Ommer. High-resolution image synthesis with latent diffusion models. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 10684-10695, 2022. [12] Diederik P. Kingma and Max Welling. Auto-Encoding Variational Bayes. In 2nd International Conference on Learning Representations, 2014. [13] Jascha Sohl-Dickstein, Eric Weiss, Niru Maheswaranathan, and Surya Ganguli. Deep unsupervised learning using nonequilibrium thermodynamics. In Proceedings of the 32nd International Conference on Machine Learning, Vol. 37 of Proceedings of Machine Learning Research, pp. 2256-2265, 2015. [14] Olaf Ronneberger, Philipp Fischer, and Thomas Brox. U-net: Convolutional networks for biomedical image segmentation. In Medical Image Computing and Computer-Assisted Intervention - MICCAI 2015, pp. 234-241, 2015. [15] Zhiyong Wu, Lingpeng Kong, Wei Bi, Xiang Li, and Ben Kao. Good for misconceived reasons: An empirical revisiting on the need for visual context in multimodal machine translation. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 6153-6166, 2021. [16] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In International Conference on Learning Representations (Poster), 2015. [17] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, 2016. [18] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, 2002. [19] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, Gretchen Krueger, and Ilya Sutskever. Learning transferable visual models from natural language supervision. In Proceedings of the 38th International Conference on Machine Learning, Vol. 139 of Proceedings of Machine Learning Research, pp. 8748-8763, 2021. ## A 付録 原言語文 a man grilling meat on an outdoor grilling pit . 原言語文 a young girl in a red dress is wearing a black cowboy hat . 原言語文 a man wearing black and white stripes is trying to stop a horse . 原言語文 one man holds another man's head down and prepares to punch him in the face . 図 3 原言語文を用いて Multi30k の関連画像を画像変換した場合の成功例(左)と失敗例(右)
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-14.pdf
# 視覚と言語の融合モデルにおける知識の振る舞いを調査する ための表と画像の生成タスクの提案及びその調査結果 上垣外英剛 1 林克彦 2 渡辺太郎 1 1 奈良先端科学技術大学院大学 2 北海道大学 \{kamigaito.h,taro\}@is.naist.jp katsuhiko-h@ist.hokudai.ac.jp ## 概要 本研究では視覚と言語の融合タスクであるVision \& Language (V \& L) において,自然言語から獲得されたエンティティに関する知識がどのように V \& L モデルに保持されているかを検証するための新タスク,表と画像の生成を提案する。このタスクはエンティティと関連する画像からそれらに関する知識を含む表を生成するタスクと,エンティティとキャプション及び関連する知識を含む表から画像を生成するタスクの二つで構成される. 我々は提案タスク遂行のためのデータセットを英語版 Wikipedia の Infobox から作成し, 複数タスクで最高精度を達成している V \& L モデル OFA で上記の検証を実施した.その結果,OFA はエンティティに関する知識の一部を事前学習時に忘却しており,それらの補完は良質な画像の生成に寄与することが判明した. ## 1 はじめに 近年,視覚と言語の融合タスクであるVision \& Language (V \& L) ではキャプション生成 [1] やテキストからの画像生成 [2] に代表されるような大きな成功を収めている。この進展の背景には大規模デー タにより事前学習された事前学習済み V \& L モデルが存在している [3]. 事前学習済み $\mathrm{V} \& \mathrm{~L}$ モデルにおいて,入力に対して適切なキャプションや画像を生成するためには,事前学習済み V \& L モデルが生成対象の特徴に関する知識を事前に保持している必要がある $[4,5]$. 現在,これらのモデルにおいて特にエンティティに関する知識は,自然言語処理で利用されている事前学習済み言語モデルのパラメータを引き継ぐことで,間接的に Wikipedia などのデータ資源を利用することで保持されている。このようにして V \& L モデルに引き継がれた知識は,視覚と言語を横断したデー 図 1 Wikipedia 記事中に含まれる Infobox の例 ${ }^{11}$. 本研究では Infobox 中の画像及び表の箇所を生成することで,V \& L モデルの検証を行う. タセットによって追加の学習を行うことで画像に関する表現と対応付けられる $[6,7,8,9,10]$. この学習過程において,自然言語から獲得された知識は事前学習済み V \& L モデルの内部に適切に保持されているのか,あるいは画像の持つ特徵と組み合わせられることにより補強されているのかという問いは事前学習済み V \& L モデルにより生成可能な対象の限界を知る上での重要な疑問である。 本研究ではそのような疑問を解消するために英語版 Wikipedia の各記事に含まれている Infobox を対象データとした,表と画像の生成タスクを提案する.図 1 に本研究が対象とする Infobox の例を示す.この例に示されているように,提案タスクでは,表または画像を生成する。いずれの場合においても適切に生成するためには,モデルが生成対象のエンティティに関する知識を把握していなければならない。 我々は提案タスクを遂行するために必要なデータセットを約 20 万件からなる Infobox を収集することで構築した. さらに我々は現在様々な V \& L タスク  図2OFAの学習過程. 本研究では事前学習時に Wikipedia から獲得されたエンティティに関する知識がどのように OFA に残されているのかを調査する. で最高精度を達成している事前学習済み V \& L モデルである OFA [10]を用いた検証を行った. 検証の結果,表の生成において,自然言語から獲得された知識の一部は V \& L モデルにおける追加学習により消失することが判明した。また画像情報の利用により自然言語のみでは獲得されていなかった,エンティティが含む情報の種類に関する知識を新たに獲得していることが判明した。 画像生成においては,表に含まれる知識を利用することでより正確な画像を生成できることが明らかになった.また,自然言語だけで学習されたモデルにより推測された知識を利用することで生成される画像の多様性を向上させることが可能であることも判明した。 ## 2 Vision \& Language モデル 様々なタスクで最高精度を更新している事前学習済み $\mathrm{V} \& \mathrm{~L}$ モデルの多く $[6,7,8,9,10]$ は自然言語及び画像における事前学習済みモデルの重みを引き継いだ上で,自然言語と画像を横断したデータでの学習を行っている. 本研究ではこのような学習過程を経て,自然言語を対象とした事前学習済みモデルに含まれていた知識がどのように変容するのかを検証する。なお,検証の対象としては複数の V \& L タスクで最高精度を達成している OFAを選択する。 図 2 にOFA のネットワーク構造と各タスクとの関連を示す. ${ }^{2}$ OFA ではデコーダ上で VQGAN [11] により画像を離散系列に変換して扱うことにより画像生成, 自然言語生成を同一の Transformer [12] で行っている。また,この Transformer は BART [13] の重みを用いて初期化されるため,OFA には Wikipedia などの自然言語から獲得される知識が含まれていることが期待できる.なお,エンコーダではデコーダと 2)各学習過程で使用されているデータセットの詳細については付録 Aに記す。 表 1 各タスクの概要。それぞれの用語が指す Infobox 中の部位については図 1 を参照. Alternative names|Fish supper / Fish 'n' chips<>Course|Main dish<>Place of origin|England<>Region or state|Northwestern Europe $<>$ Serving temperature $\mid$ Hot $<>$ Main ingredients $\mid$ Battered and fried fish with deep-fried chips 図 3 直列化された表の例.この例は図 1 の表を直列化したものである。 異なり画像を直接扱うために,BART から引き継いだ埋め込み層に加え, ResNet [14] の出力を画像の埋め込みとして使用している。 ## 3 提案タスク: 表と画像の生成 本節では V \& L モデルにおける知識の振る舞いを検証するための二つのタスク,表の生成と画像の生成についての説明を行う。いずれのタスクについても Wikipedia 記事中の Infobox に基づく. Infobox は Wikipedia 本文の情報に対応しているため3),事前学習済み $\mathrm{V}$ \& L モデルが記憶している Wikipedia 中の知識を検証する上で適している。次節以降でそれぞれのタスクの詳細についての説明行う。 ## 3.1 表の生成 表の生成タスクにおいて,対象となる V \& L モデルは入力された Infobox のタイトルとしてのエンティティまたはそれに画像を結合した入力から表を生成する.表の生成に関しては説明文からの表の生成 [15] と同様に,表をテキストで直列化することで行う.我々の設定では,事前学習時の辞書に含まれるトークンを流用するために,列の区切り文字|と行の区切り文字く>を用いて図 3 のように直列化される. 対象となるモデルの検証はこのような直列化されたテキストを直接生成することによって行われる. 検証については次のような設定を用いて行う。 タイトルのみからの生成事前学習済み V \& L モデルと自然言語のみで学習された事前学習済みモデルにおいて,タイトルのみから生成した表を比較することで,V \& L モデルが保持している自然言語のみを対象としたエンティティに関する知識を検証する。  画像を含む入力からの生成画像を含む入力から表を生成し,その結果をタイトルのみを入力とした場合の結果と比較する。これにより,画像を考慮することで $\mathrm{V} \& \mathrm{~L}$ モデルが新たに獲得した知識についてを検証する。 評価尺度検証のための比較に際しては生成された表が実際のものにどれほど近いかを測ることにより行うため,次のような評価尺度を用いる。 ROUGE: 直列化された表はテキストデータであり, かつ Infobox は本文に対する要約の役割を担っていることから,自動要約の評価に使用されることが多いROUGE [16] を使用する。なお,ROUGEでの評価においては文字列の連なりが行や列に制限されないよう,列の区切り文字|と行の区切り文字く>をスペースに変換した上で行う. Macro-F F $_{1}$ : 表の構造を考慮した評価を行うために, セルを種類毎に分けた上で参照となる表に対する一致を各事例毎に $\mathrm{F}_{1}$ 値によって評価し, 平均化する. なお,一致を計算する際には,同一のセルが繰り返して出力されることによるスコアの増大を防ぐために,ROUGE の計算に使用されているクリッピングを適用する。セルの種類については下記のように分けて評価する。 - グループ: Infobox 中の表はグループに分けられることがあり,各グループの最初の行がグループ名を表すへッダとなっている. グループ名に対する予測の精度は,モデルがエンティティに対しどのような側面での知識を持っているかを検証する上で重要である. 一ヘッダ: Infobox 中の 2 列以上の列からなる各行の先頭は通常,その同じ行で後続するセルのへッダとなっている. 従って,グループ名と同様の理由でヘッダへの予測精度は重要である. - 值: Infobox 中の 2 列以上の列からなる各行の 2 列め以降のセルはへッダに対応する值を持っている.従って,値への予測精度はモデルがエンティティに対して詳細な知識を保持しているかを知る上で重要である。なお評価時にはへッダとグループへの対応関係を考慮するために,対応するグループ名とへッダを值と合わせた 3 つ組として扱う。 Micro- F $_{1}$ : 上記の Macro- $\mathrm{F}_{1}$ では事例毎に計算を行うため,モデルがどれだけ多様な知識を出力しているかを評価することが困難である.この問題を解決するために,事例全体を横断してセルを共有し,一括で $\mathrm{F}_{1}$ 值を計算する. 表 2 各データセットのサイズ. ## 3.2 画像の生成 画像の生成タスクでは,モデルは Infobox のタイトルとキャプションまたは追加的に表を入力とし,対応する画像を生成する.検証については下記のような設定に基づいて実施する。 タイトルとキャプションからの画像の生成画像生成に最低限必要な入力を用いることで,他のデー タセットと比較した際の生成の難しさを検証する。 タイトルとキャプションと表からの画像の生成表を含めた上で画像を生成し,その結果を上記の表を入力しない際の設定と比較することで,エンティティに関する知識が画像生成に与える影響について調査する。 評価尺度画像生成の評価については現状で広く使われている下記の三つを使用する。 CLIP: 入力テキストと生成画像の関連度を測る尺度. 事前学習済み V \& L モデルである CLIP [17] によって推測される. Inception Score (IS): それぞれの画像の差異を識別乙易い,多様な画像が生成されていることを測る尺度 [18]. 事前学習済み画像分類モデルである Inception-v3 [19] によって推測される. Frechet Inception Distance (FID): 生成画像が参照画像にどれだけ近いかを測る尺度.IS と同様に Inception-v3 によって推測される. 低いほど良い. ## 4 データセットの作成 データセットは英語版 Wikipedia の HTML ダンプデータ4)から Infobox を抽出することで作成した。生成対象の形式を揃えるため,抽出対象の Infobox は図 1 のように,一行目にタイトルを,二行目に画像を含むものに限定した。また,対象とする画像は jpeg 及び png 形式のものに限定した。なお,一部のキャプションについてはタイトルを含んでいないため,そのような事例に関してはハイフンを用いてキャプションの先頭にタイトルを結合した. 表 2 に各データセットのサイズを示す。なお,両タスクでデータセットサイズが異なるのは一部の  表 3 表の生成における各設定の結果. 太字は最も高いスコアを,个はスコアが高いほど良い結果であることを示す. 表 4 画像の生成における各設定の結果. 」はスコアが低いほど良い結果であることを示す. その他の表記については表 3 と同様. Infobox がキャプションを含まないためである5). ## 5 検証 ## 5.1 表の生成 設定比較対象のモデルとして事前学習済み $\mathrm{V}$ \& L モデルである OFA と自然言語のみで事前学習された BART を選択した. 両モデルともに base モデルの重みを使用した。ハイパーパラメータについては OFA の論文で報告されているものを使用した6) 結果表 3 に表の生成における各設定の結果を示す. タイトルのみを入力とした際には,BART の結果が OFA よりも高いことから, 自然言語から獲得された知識の一部は V \& L モデルにおける追加学習により消失することが分かる. また画像情報の利用によりへッダに対する Macro-F $F_{1}$ が改善されることから,画像を利用することでエンティティがどのような種類の特徴を持つかという知識が補強されることが分かる. その一方, セルの值に対する $\mathrm{F}_{1}$ が改善されないことから,画像から得られる情報は自然言語から獲得された各へッダに対応する值のような詳細な知識を補うものではないことが分かる。 ## 5.2 画像の生成 設定表の生成と同様に,比較対象のモデルとして事前学習済み V \& L モデルである OFA を選択した. 表を入力する際には参照 (Gold), $\S 5.1$ の出力結 5)データセットの詳細は付録 $\mathrm{B}$ に記載. 6)付録 C. 1 に実験設定の詳細を記載果のそれぞれを使用した。重みについては base モデルを使用した. ハイパーパラメータについては OFA の論文に記載されているものを使用した7). 結果表 4 に画像の生成における各設定の結果を示す.この結果は CLIP の値では MS COCO [20] における画像生成の結果 [10] と近しいため, 作成したデータセットのモデル学習における使用は妥当であると考えられる.また,表 (Gold) を入力することによりいずれの評価尺度も改善されていることから, エンティティに関する知識を補完してモデルに与えることにより,より質が高い画像が生成されることが分かる. この結果は OFA において Wikipedia に含まれるエンティティに関する知識が十分に保持されていないことを示している. また,自動生成された表を与えた場合には CLIP 及び FID における性能の改善は確認できない。一方でBART により自動生成された表を使用することで IS については改善していることから,自動生成された表を用いることで出力画像の多様性が改善されることと,質が高い画像生成のためには表の予測精度が重要であることが分かる. ## 6 まとめ 本研究では事前学習済み $\mathrm{V} \& \mathrm{~L}$ モデルに含まれている,自然言語のみから学習されたエンティティに関する知識が言語と画像を用いた追加学習を経てどのように保持されているかを検証した。 検証は英語版 Wikipedia から 20 万件の Infobox を抽出し,それらに含まれている画像と表を生成することで実施した。 事前学習済み V \& L モデルである OFA を対象とした実験の結果,上記の知識は事前学習時に忘却されており,画像情報がその知識を完全に補っているわけではないことが示された。また画像生成においてはそれらの知識を適切に補うことで,より良質な画像が生成可能なことも示された. なお,本研究で使用したコードとデータセットは公開予定である. 7)付録 C. 2 に実験設定の詳細を記載 ## 謝辞 本研究は JSPS 科研費 JP21K17801 の助成を受けたものです. ## 参考文献 [1] Kelvin Xu, Jimmy Ba, Ryan Kiros, Kyunghyun Cho, Aaron Courville, Ruslan Salakhudinov, Rich Zemel, and Yoshua Bengio. Show, attend and tell: Neural image caption generation with visual attention. In Francis Bach and David Blei, editors, Proceedings of the 32nd International Conference on Machine Learning, Vol. 37 of Proceedings of Machine Learning Research, pp. 2048-2057, Lille, France, 07-09 Jul 2015. PMLR. [2] Scott Reed, Zeynep Akata, Xinchen Yan, Lajanugen Logeswaran, Bernt Schiele, and Honglak Lee. Generative adversarial text to image synthesis. In Maria Florina Balcan and Kilian Q. Weinberger, editors, Proceedings of The 33rd International Conference on Machine Learning, Vol. 48 of Proceedings of Machine Learning Research, pp. 1060-1069, New York, New York, USA, 20-22 Jun 2016. PMLR. [3] Yifan Du, Zikang Liu, Junyi Li, and Wayne Xin Zhao. A survey of vision-language pre-trained models. In Lud De Raedt, editor, Proceedings of the Thirty-First International Joint Conference on Artificial Intelligence, IJCAI-22, pp. 5436-5443. International Joint Conferences on Artificial Intelligence Organization, 7 2022. Survey Track. [4] Tian Yun, Chen Sun, and Ellie Pavlick. Does vision-and-language pretraining improve lexical grounding? In Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 4357-4366, Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [5] Jize Cao, Zhe Gan, Yu Cheng, Licheng Yu, Yen-Chun Chen, and Jingjing Liu. Behind the scene: Revealing the secrets of pre-trained vision-and-language models. In Andrea Vedaldi, Horst Bischof, Thomas Brox, and Jan-Michael Frahm, editors, Computer Vision - ECCV 2020, pp. 565-580, Cham, 2020. Springer International Publishing. [6] Jiasen Lu, Dhruv Batra, Devi Parikh, and Stefan Lee. Vilbert: Pretraining task-agnostic visiolinguistic representations for visionand-language tasks. In H. Wallach, H. Larochelle, A. Beygelzimer, F. d'Alché-Buc, E. Fox, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 32. Curran Associates, Inc., 2019. [7] Weijie Su, Xizhou Zhu, Yue Cao, Bin Li, Lewei Lu, Furu Wei, and Jifeng Dai. Vl-bert: Pre-training of generic visual-linguistic representations. In International Conference on Learning Representations, 2020. [8] Gen Li, Nan Duan, Yuejian Fang, Ming Gong, and Daxin Jiang. Unicoder-vl: A universal encoder for vision and language by crossmodal pre-training. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, No. 07, pp. 11336-11344, Apr. 2020. [9] Jaemin Cho, Jie Lei, Hao Tan, and Mohit Bansal. Unifying visionand-language tasks via text generation. In Marina Meila and Tong Zhang, editors, Proceedings of the 38th International Conference on Machine Learning, Vol. 139 of Proceedings of Machine Learning Research, pp. 1931-1942. PMLR, 18-24 Jul 2021. [10] Peng Wang, An Yang, Rui Men, Junyang Lin, Shuai Bai, Zhikang Li, Jianxin Ma, Chang Zhou, Jingren Zhou, and Hongxia Yang. OFA: Unifying architectures, tasks, and modalities through a simple sequence-to-sequence learning framework. In Kamalika Chaudhuri, Stefanie Jegelka, Le Song, Csaba Szepesvari, Gang Niu, and Sivan Sabato, editors, Proceedings of the 39th Inter- national Conference on Machine Learning, Vol. 162 of Proceedings of Machine Learning Research, pp. 23318-23340. PMLR, 17-23 Jul 2022. [11] Patrick Esser, Robin Rombach, and Björn Ommer. Taming transformers for high-resolution image synthesis, 2020. [12] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [13] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, Online, July 2020. Association for Computational Linguistics. [14] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2016. [15] Xueqing Wu, Jiacheng Zhang, and Hang Li. Text-to-table: A new way of information extraction. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2518-2533, Dublin, Ireland, May 2022. Association for Computational Linguistics. [16] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 7481, Barcelona, Spain, July 2004. Association for Computational Linguistics. [17] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, Gretchen Krueger, and Ilya Sutskever. Learning transferable visual models from natural language supervision. In Marina Meila and Tong Zhang, editors, Proceedings of the 38th International Conference on Machine Learning, Vol. 139 of Proceedings of Machine Learning Research, pp. 8748-8763. PMLR, 18-24 Jul 2021. [18] Tim Salimans, Ian Goodfellow, Wojciech Zaremba, Vicki Cheung, Alec Radford, Xi Chen, and Xi Chen. Improved techniques for training gans. In D. Lee, M. Sugiyama, U. Luxburg, I. Guyon, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 29. Curran Associates, Inc., 2016. [19] Christian Szegedy, Vincent Vanhoucke, Sergey Ioffe, Jon Shlens, and Zbigniew Wojna. Rethinking the inception architecture for computer vision. In 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 2818-2826, 2016. [20] Xinlei Chen, Hao Fang, Tsung-Yi Lin, Ramakrishna Vedantam, Saurabh Gupta, Piotr Dollar, and C. Lawrence Zitnick. Microsoft coco captions: Data collection and evaluation server, 2015. [21] Leo Gao, Stella Biderman, Sid Black, Laurence Golding, Travis Hoppe, Charles Foster, Jason Phang, Horace He, Anish Thite, Noa Nabeshima, Shawn Presser, and Connor Leahy. The pile: An $800 \mathrm{gb}$ dataset of diverse text for language modeling, 2021. 表 5 OFA の事前学習に使用されているデータセットの一覧. & CC12M, CC3M, SBU, COCO, VG-Cap \\ ## A OFA で使用されているデータ セットの詳細 OFA の事前学習では,言語,画像,言語と画像の各モダリティにおいて表 5 のように様々なデータセットが事前学習タスクのために使用されている. なお,表 5 に記載の Pile [21] には,英語版 Wikipedia の情報が $1.53 \%$ 含まれている。従って, OFA の事前学習では V \& L タスクに重きが置かれているものの, 自然言語データから獲得された知識が忘却されないための工夫はなされていると理解できる. ## B 作成したデータセットの詳細 Wikipedia HTML ダンプデータでは Wikipedia の各記事が HTML 形式で収録されているため, BeautifulSoup ${ }^{8}$ を用いることで Infobox を抽出した. なお Infobox 中には [数字] といった形式で本文記事の参考文献へのリンクが含まれているため,それらは削除した。 表の生成において, 入力用の画像については短辺が 480px を超える場合には縦横比を維持して短辺を 480px に縮小した. また, 画像生成用の画像は縦横比を維持して元の画像の短辺を $256 \mathrm{px}$ に変更し, 中央部を両辺 256px の正方形でクロップした. なお,公開用データでは小規模なモデルから大規模なモデルまでの性能を測ることができるよう,表の生成では画像の短辺を $256 \mathrm{px}, 384 \mathrm{px}$ までとしたデータセットも作成した. 同様に画像生成では画像の両辺を $128 \mathrm{px}$ としたデータセットも作成した.収集したデータの分割は,今後の拡張とデータの混同に配慮し,タイトルの SHA256 值を 20 で割った余りが 0 であればテストデータ,1 であれば開発データ,それ以外であれば訓練データとした。 データセットのサイズや抽出対象については本文 8) https://www.crummy.com/software/BeautifulSoup/bs4/ doc/ を参照していただきたい. ## C 実験設定の詳細 両タスク共に OFA の実装には著者らが公開している実装9)を改変して使用した. 公開されている OFA では最大トークン長を決定する際にスペースで分割した後の単語数をトークン長としているため, BART などに合わせ,最大トークン長をサブワードで指定できるように変更した.なお,表の生成,画像の生成ともに我々は入力・出力共に最大長を 1024 サブワードに設定した. また,モデルとデータセットの特性を調査する観点から,学習は最尤推定のみで行い,強化学習については実施していない。 ## C. 1 表の生成 BART と OFA の性能比較が実装の違いにより不公平とならないよう,BART の重みパラメータを OFA から引き継ぎ,OFA 上でBARTを動作させた. 学習時のハイパーパラメータはタイトルからの生成では OFA の自動要約における設定を引き継ぎ,画像を含む生成の際には OFA のキャプショニングにおける設定を引き継いだ。なお,公平な比較のために,推論時の設定は全てキャプショニングの設定に合わせた. 実験は全て 4 枚の RTX 3090 で行った. ## C. 2 画像の生成 基本的には OFA で使用されているハイパーパラメータを引き継いだが,学習時間の関係で,各エポック終了後の開発データにおける画像生成時のビーム幅は 1 とした. なおテスト時は元の設定と同様ビーム幅 24 を使用している. 表を使用する際には,入力の末尾に区切り文字く>で結合して使用した. 実験は全て 4 枚の RTX A6000 で行った. 
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-1.pdf
# 単語の階層関係に基づくデータ拡張を利用した 画像キャプション生成の検討 吉田智哉 1 西村太一 ${ }^{1}$ 亀甲博貴 2 森信介 ${ }^{2}$ 1 京都大学大学院 情報学研究科 2 京都大学 学術情報メディアセンター \{yoshida.tomoya.25h, nishimura.taichi.43x\}@st.kyoto-u.ac.jp \{kameko, forest \}@i.kyoto-u.ac.jp ## 概要 近年の画像キャプション生成モデルは、他の画像に対しても同様に当てはまるような、一般化されたキャプションを生成する傾向がある。この低識別性の問題を解決する策の一つとして、より詳細なキャプションを持ったデータセットで学習させることが挙げられる。本研究では、識別性が単語の階層関係に依存すると仮定し、単語の階層関係に基づくデー タ拡張を提案する。実験の結果、低リソースデータセット下での実験において、提案手法が生成する語彙・文を増加させるとともに、識別性を向上させることが確認できた。 ## 1 はじめに 画像キャプション生成は、入力された画像からその画像の説明文を生成するタスクである。このタスクの主な応用先として、視覚障害者の補助 [1] や、画像検索エンジンにおけるクエリの生成などが挙げられる。これらの応用先において重要なことは、生成されるキャプションが自然な文章であるとともに、他の似た画像と区別可能であるということである。近年の画像キャプション生成モデルでは、後者の識別性の低さが問題視されている [2]。この低識別性の問題を解決するために、様々な手法が提案されている $[2,3,4]$ 。また、解決策の一つとして、より詳細なキャプションを持ったデータセットで学習を行うことが挙げられる。しかし、画像とそれに対応する詳細なキャプションを人手で記述することは、多くの時間的・金銭的なコストを要する。本研究では、これらの作業を自動化するために、データ拡張に着目する。 低識別性の問題に取り組むにあたり、キャプションの識別性について再検討を行う。キャプションに おける識別性の高さには、いくつかの観点が考えられる。一つ目は、画像中に出現する多くの物体について記述しているかという点である。先行研究の多くはこの観点に基づいている $[2,3]$ 。二つ目は、画像中の物体について述べる単語が特徴的であるかという点である。これは、単語の階層関係に基づいている。単語の階層関係とは、単語の上位下位関係を指し、一般に下位に向かうにつれ、その単語は特徵的なものになる。((例) 哺乳類、動物、犬、プードル)。その他にも、単語の修飾関係などの観点が考えられる。本研究では、二つ目の観点により低識別性の問題が対処可能であると仮定し、単語の階層関係に基づくデータ拡張の提案を行う。 実験では、元データセットが高リソースである場合と、低リソースである場合に対して、提案手法を適用した。実験の結果、高リソース下での実験において、有効であることは確認できなかった。しかし、低リソース下での実験において、生成に使用する語彙・文の増加とともに識別性を向上させ、有効であることが確認できた。また、提案手法が予期しないキャプションの生成に寄与してしまっていることが確認でき、提案手法の課題についても明らかになった。 ## 2 関連研究 ## 2.1 識別性改善に取り組んだ手法 画像キャプション生成モデルにおける低識別性の問題を解決するために、様々な手法が提案されている。Wang らは、学習済みの画像テキスト検索モデルを利用することで識別性を評価する指標である CIDErBTW [3] を提案した。また、この指標を最適化関数に取り入れることにより、既存モデルの識別性を向上させることに成功した。その他にも、強化 A dog in a harness lying in the grass in a park, A basenji in a harness lying in the grass in a park, A corgi in a harness lying in the grass in a park, 図 1 データ拡張によって作成されたデータセットの例。元データ(左)は、上記の流れにより複数のデータに拡張される(右)。元画像における主要な物体(青字)は、それぞれの拡張先において、下位語(赤字)に置き換えられる。 学習時 [5] に CLIP-Score [6] を報酬として利用することで、識別性の高いキャプションの生成に成功した手法 [2] などが挙げられる。 ## 2.2 データ拡張を利用した手法 データ拡張は画像認識や音声認識の分類タスクにおいて、頑健性や精度の向上を図る手法 [7] として利用されている。近年の拡張手法は、単に入力情報に対してクロッピングやノイズを適用する手法のみならず、Mixup [7] や CutMix [8] と呼ばれるデー タセット中のいくつかのサンプルを混ぜ合わせることにより拡張する手法なども提案されている。画像キャプション生成においても、データ拡張を利用した研究は行われている。画像に対してぼかしを施し拡張することにより、モデルの頑健性を高めた手法 [9] や、学習済みの BERT [10] を利用したテキス卜拡張により精度を向上させた手法 [11] などが挙げられる。 ## 3 提案手法 本研究では、単語の階層関係を利用することで、低識別性の問題が対処可能であると仮定し、単語の階層関係に基づくデータ拡張を提案する。提案手法により拡張されたデータセットは図 1 のようになった。 ## 3.1 拡張手法 はじめに、データセット中の画像に対して Faster R-CNN [12]を用いて物体検出 ${ }^{1)}$ を行い、その画像中における主要な物体を定義する。主要な物体とは、人間がある画像について述べる際に着目する物体のことである。今回は、主要であることを、物体の大きさと物体認識にかけられた際の物体の信頼度の積の值が最大のものと定義することにより決定する。 テキスト拡張テキスト拡張を行うにあたって、 WordNet における、単語の階層関係を利用した名詞の置き換えを検討する。WordNet [13] は、単語が類義語ごとにグループ化されている大規模な概念辞書であり、各単語は階層関係を保持している。テキス卜拡張は、正解キャプション中の主要な物体に該当する単語を、コーパス中の下位語と入れ替えることで行う。ただし、人に該当する“person”ラベルに関しては、適切でない変換候補 ${ }^{2}$ であるため、処理を行っていない。 画像拡張画像拡張を行うにあたって、Mixup に基づいた画像拡張を検討する。Mixup [7] とは、デー タセット中における 2 つの訓練サンプルを混ぜ合わせることにより、新たなデータセットを作成する  表 1 高リソース下における提案手法とベースラインの比較 表 2 低リソース下における提案手法とベースラインの比較 データ拡張であり、画像や音声領域の分類タスクにおいて有効であることが確認されている。結合方法は以下のように計算される。 $ \begin{aligned} & \hat{x}=\lambda x_{i}+(1-\lambda) x_{j} \\ & \hat{y}=\lambda y_{i}+(1-\lambda) y_{j} \end{aligned} $ $x_{i}, x_{j}$ は、データセットにおけるべクトル(画像)であり、 $y_{i}, y_{j}$ は、正解ラベル (one-hot ベクトル) である。また、 $\lambda \in[0,1]$ 。 本研究中では $\lambda=0.5$ とし、画像中における主要な物体の領域と、テキスト拡張時に得られた下位語の画像 ${ }^{3}$ に対して、この手法を適用することで画像拡張を行う。なお、正解ラベルである $\hat{y}$ の処理は行なっていない。 ## 4 実験 今回は、ベースラインのモデルとして、Rennie らのモデル [5]を利用した。このモデルは、エンコー ダに CNN、デコーダにLSTM [14]を利用しており、 それらは注意機構 [15] により結合されている。 ## 4.1 データセット及び前処理 データセット提案手法は、MS COCO[16] デー タセットの Karpathy らの分割 [17](MS COCO)における訓練セットに対して適用した。MS COCO は、 113,287 画像からなる訓練セット、各 5,000 画像からなる検証セット、テストセットから構成されている。実験では、元データセットが高リソースである場合と、低リソースである場合に対して、提案手法を適用した。高リソース時では元データセットの 3)下位語の画像は Web スクレイピングにより複数枚取得。 $100 \%$ を利用し、低リソース時では、元データセットの $10 \% を$ 利用した。 前処理の詳細エンコーダには、学習済みの Resnet101 [18] を利用した。先行研究に従い、画像は、クロッピングやリサイズ処理を行わずに利用した。キャプションは、Stanza [19]をトークナイザとして利用し、データセットを通して出現頻度が 5 回未満の単語を $\langle U N K\rangle$ に置き換えて学習に利用した。 ## 4.2 評価データ及び指標 評価の際は、MS COCO テストセットを利用した。 また、モデルの頑健性を確認するために他データセットのテストセットでも評価を行った。他データセットは、キャプションの形式が MS COCO と似ている、Flickr30k のテストセット(1,000 画像)を利用した。 評価指標は先行研究に従い、標準的な評価指標として、BLEU-4 (B-4) [20]、METEOR (M) [21]、 ROUGE$\mathrm{L}(\mathrm{R})$ [22] 及び、 $\operatorname{CIDEr}(\mathrm{C})[23]$ を用いた。また、識別性の評価指標として、Uniq-1・Uniq-S [4]、CLIP-Score (CLIP-S) [6]及び、R@Kを用いた。Uniq-1・Uniq-S [4] は、生成されたキャプションのうちの異なり語・文の数を表す。 $\mathrm{R} @ \mathrm{~K}$ は、生成されたキャプションを学習済みの画像テキスト検索モデルに入力した際に、他の画像の中から対応する画像が上位 $\mathrm{K}$ 位以内に得られた割合を表す指標である。学習済みの画像テキスト検索モデルについては、CLIP [24]を利用した。 ## 4.3 実験結果 高リソース下での実験学習時間の観点から、訓練セットを約 2 倍に拡張を行った。各テストセット 表 3 生成されたキャプションの例 CLIP-S 生成されたキャプション におけるベースライン及び提案手法の結果を表 1 に示す。 ベースラインと比べて、Uniq-1・Uniq-S が増加していることが確認できる。しかし、他データセットである Flickr30k においては、増加が確認できない。 また、識別性を評価する CLIP-S や R @ K が向上していないことから、増加した語彙・文が識別性に貢献できていないことがわかる。 低リソース下での実験学習時間の観点から、訓練セットを約 5 倍に拡張を行った。各テストセットにおけるべースライン及び提案手法の結果を表 2 に示す。 ベースラインと比べて、Uniq-1・Uniq-S ともに大きく増加している。CLIP-S 及び R @ K が向上していることから、増加した語彙・文が識別性に貢献していることが示唆される。また、ベースラインと比較して標準的な評価指標を大きく損なっていないことから、ベースラインの出力するキャプションの形式と似た、より識別性の高いキャプションが生成できていることが示唆される。他データセットである Flickr30k においても、Uniq-1・Uniq-S 及びいくつかの $\mathrm{R} @ \mathrm{~K}$ に向上が確認できる。 ## 4.4 生成されたキャプションの例 低リソース下の実験における、生成されたキャプションの例を表 3 に示す。 (a) と (b) の結果から、ベースラインと比較して、提案手法によって生成されたキャプションが、より特徴的な単語を用いて記述されていることが確認できる。これらから、提案手法が、生成に使用する単語をより特徵的な単語になるように促していることが示唆される。この結果、(a)については CLIP-S が向上しており、特徴的な単語で記述することが識別性を向上させていることが確認できる。しかし、(b) については、CLIP-S が低下しており、必ずしも特徴的な単語が CLIP-S を向上させるとは言えないことがわかる。 (c)では、ベースラインでは妥当なキャプションの生成が可能であるのに対し、提案手法では誤ったキャプションが生成されている。これは提案手法が、予期しない、誤った生成に寄与してしまっていることが示唆される。このような例は他の生成結果にも確認され、この誤った生成が CLIP-S や R @ Kを大きく向上させることができなかった原因と考えられる。 ## 5 終わりに 本研究では、識別性が単語の階層関係に依存すると仮定し、既存のデータセットに対して、単語の階層関係に基づくデータ拡張を施すことで、低識別性の問題に対処する手法の提案を行った。実験の結果、低リソース下の実験において、出現語彙・文の増加とともに識別性を向上させ、有効であることが確認できた。しかし、高リソース下の実験では、出現語彙・文は増加したものの、識別性の評価指標である CLIP-S やR@Kにおいてべースラインを上回ることができなかった。今後の課題として、4.4で述べた、提案手法が誤った生成に寄与する原因について調べていくとともに、改良に努めていきたいと考える。 ## 参考文献 [1] Burak Makav and Volkan Kiliç. A new image captioning approach for visually impaired people. In IEEE, 2019. [2] Youyuan Zhang, Jiuniu Wang, Hao Wu, and Wenjia Xu. Distincive image captioning via clip guided group optimization. In ECCVW, 2022. [3] Jiuniu Wang, Wenjia Xu, Qingzhong Wang, Chan, and Antoni B. Compare and reweight: Distinctive image captioning using similar images sets. In ECCV, 2020. [4] Ukyo Honda, Taro Watanabe, and Yuji Matsumoto. Switching to discriminative image captioning by relieving a bottleneck of reinforcement learning. In WACV, 2023. [5] Steven J. Rennie, Etienne Marcheret, Youssef Mroueh, Jerret Ross, and Vaibhava Goel. Self-critical sequence training for image captioning. In CVPR, 2017. [6] Jack Hessel, Ari Holtzman, Maxwell Forbes, Ronan Le Bras, and Yejin Choi. CLIPScore: A reference-free evaluation metric for image captioning. In ACL, 2021. [7] Hongyi Zhang, Moustapha Cisse, Yann N. Dauphin, and David Lopez-Paz. mixup: Beyond empirical risk minimization. In ICLR, 2018. [8] Sangdoo Yun, Dongyoon Han, Seong Joon Oh, Sanghyuk Chun, Junsuk Choe, and Youngjoon Yoo. Cutmix: Regularization strategy to train strong classifiers with localizable features. In ICCV, 2019. [9] Shashank Bujimalla, Mahesh Subedar, and Omesh Tickoo. Data augmentation to improve robustness of image captioning solutions. In CVPR, 2021. [10] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. In ACL, 2019. [11] Viktar Atliha and Dmitrij Šešok. Text augmentation using bert for image captioning. Applied Sciences, 10(17):5978, 2020. [12] Shaoqing Ren, Kaiming He, Ross Girshick, and Jian Sun. Faster r-cnn: Towards real-time object detection with region proposal networks. In NeurIPS, 2015. [13] George A. Miller. Wordnet: A lexical database for english. Communications of the ACM, Vol. 38, No. 11, pp. 3941, 1995. [14] Sepp Hochreiter and Jürgen Schmidhuber. Long shortterm memory. Neural Computation, Vol. 9, No. 8, pp. 1735-1780, 1997. [15] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In NeurIPS, 2017. [16] Tsung-Yi Lin, Michael Maire, Serge Belongie, James Hays, Pietro Perona, Deva Ramanan, Piotr Dollár, and C. Lawrence Zitnick. Microsoft coco: Common objects in context. In David Fleet, Tomas Pajdla, Bernt Schiele, and Tinne Tuytelaars, editors, ECCV, 2014. [17] Andrej Karpathy and Li Fei-Fei. Deep visual-semantic alignments for generating image descriptions. In CVPR, 2015. [18] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. In CVPR, 2016. [19] Peng Qi, Yuhao Zhang, Yuhui Zhang, Jason Bolton, and Christopher D. Manning. Stanza: A Python natural language processing toolkit for many human languages. In ACL, 2020. [20] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In ACL, 2002. [21] Satanjeev Banerjee and Alon Lavie. METEOR: An automatic metric for MT evaluation with improved correlation with human judgments. In ACL, 2005. [22] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In ACL, 2004. [23] Ramakrishna Vedantam, C. Lawrence Zitnick, and Devi Parikh. Cider: Consensus-based image description evaluation. In CVPR, 2015. [24] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, Gretchen Krueger, and Ilya Sutskever. Learning transferable visual models from natural language supervision. In ICML, 2021.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-2.pdf
# 画像キャプション生成における JPEG 圧縮への頑健性の改善 遠藤洸亮 Zhishen Yang 岡崎直観 東京工業大学 情報理工学院 \{kosuke.endo@nlp., zhishen.yang@nlp., okazaki@\}c.titech.ac.jp ## 概要 本稿は画像キャプション生成タスクにおける JPEG 圧縮の影響を分析する。まず、高い圧縮率が適用された画像に対して、通常の画像キャプション生成モデルはその性能を維持できず、生成されるキャプションの品質が落ちてしまうことを示す。そこで、画像エンコーダと画像キャプション生成の二つのモデルの学習データに JPEG 画像を追加する手法を提案する。実験結果から、画像キャプション生成モデルの学習にJPEG 画像を追加しなくても、画像エンコーダの学習に JPEG 画像を追加するだけで、JPEG 圧縮に対して頑健な画像キャプション生成モデルを構築できることが分かった。 ## 1 はじめに 画像キャプション生成は、画像を説明する文章を生成することを目的とした、自然言語処理とコンピュータビジョンの両分野にまたがるマルチモー ダルなタスクである。近年の画像分類モデルと言語生成モデルの発展により、文章として自然で、画像の特徴をよく捉えた文章を生成できるようになった。ただ、現在の画像キャプション生成モデルは高品質な画像でのみ学習され、評価されることが多い $[1,2,3,4,5]$ 。 しかし、インターネット上の画像を取り扱う場合など、キャプション生成モデルを利用するときに与えられる画像が高品質であるとは限らない。高品質な画像はファイルサイズが大きくなるため、保存や転送により多くのコストがかかる。そのため、非可逆圧縮である JPEG [6] など、何らかのアルゴリズムで圧縮が行われ、画像の品質が劣化することが多い $[7,8,9,10]$ 。 ImageNet [11] や COCO [12] といったデータセットに収録されている画像もJPEG で圧縮されているが、高品質な画像が多く、低品質な画像は少ない。JPEG 圧縮による画質の低下を PSNR と SSIM $[13,14]$ を用 図 $1 \mathrm{COCO}$ の評価データの画像の JPEG 圧縮に対する PSNR の推移(Quality が小さいほど高圧縮・低品質である) 図 $2 \mathrm{COCO}$ の評価データの画像の JPEG 圧縮に対する SSIM の推移 いて計測したものを図 1 と 2 に示す (数值データは付録の表 1 に掲載した)。このような JPEG 圧縮によって品質が低下した画像からのキャプション生成はあまり考えられてこなかった。 本稿では、画像キャプション生成モデルにおける JPEG 圧縮の影響を定量的に分析する。また、画像キャプション生成モデルの頑健性を向上させるため、画像エンコーダと画像キャプション生成の二つのモデルの学習時に JPEG で圧縮された画像を追加する手法を提案する。 実験結果から、高圧縮率の JPEG 画像に対して 図 3 ベースラインの学習データセット 図 4 画像キャプション生成モデルの学習に JPEG 画像を追加する方法 ベースラインの画像キャプション生成モデルが十分な性能を発揮できないことが分かった。また、提案手法は高品質な画像に対して生成されたキャプションの BLEU スコアを維持しつつ、JPEG 圧縮で品質が劣化した画像に対して BLEU スコアを向上させることが確認された。画像エンコーダの学習にJPEG で压縮された画像を追加する方法、画像キャプション生成モデルの学習に JPEG で圧縮された画像を追加する方法、両方のモデルの学習に JPEG で圧縮された画像を追加する方法の三つを比較したところ、画像エンコーダの学習に JPEG 画像を追加する方法と両方のモデルの学習に JPEG 画像を追加する方法は同程度の頑健性であり、画像キャプション生成モデルの学習に JPEG 画像を追加する方法は他の二つの方法より頑健性が低かった。このことから、画像エンコーダの学習にのみ JPEG で圧縮された画像を追加するだけでも、JPEG 圧縮に対する頑健性を持つ画像キャプション生成モデルを構築できることが分かった。 ## 2 提案手法 通常の画像キャプション生成モデルは図 3 のように、ImageNet と COCO の高品質な学習画像からモデルを学習している。このため、高い压縮率で品質が劣化した JPEG 画像に対しては、画像エンコーダの特徴量抽出が十分に行えなかったり、学習時の状況からの差が大きすぎるため、画像キャプション生成モデルが想定通りに動作しない可能性がある。そこで、画像エンコーダと画像キャプション生成モデルの二つの片方、もしくは両方の学習時に JPEG で圧縮された画像を追加し、JPEG 圧縮に対する頑健 図 5 画像エンコーダの学習に JPEG 画像を追加する方法 図 6 両方の学習に JPEG 画像を追加する方法 性を高めることを検討する。 本稿で比較するのは、以下の三つの方法である。 1. 画像キャプション生成モデルの学習のために用いる COCO の画像を JPEG で圧縮し、学習デー 夕に追加する方法(図 4) 2. 画像エンコーダの学習のために用いる ImageNet の画像を JPEG で圧縮し、学習データに追加する方法(図 5) 3. ImageNet と COCO の両方の画像を JPEG で圧縮し、画像エンコーダと画像キャプション生成モデルの学習データとして、それぞれ追加する方法(図 6) これらの方法では決められた圧縮率で学習データの全ての画像を圧縮し、学習データに追加する。これにより各モデルの学習に用いる事例の数が 2 倍になる。 ## 3 実験 ## 3.1 実験設定 画像分類本研究では画像キャプション生成モデルの画像エンコーダを画像分類タスクで学習する。具体的には ImageNet [11] の画像分類タスクを用いて ResNet-18 [15]を学習する。実装には PyTorch のサンプルコード1)を利用した。ResNet-18 は深さが 18 層の画像分類モデルである。残差結合を用いることでより深い層を持つニューラルネットワークの学習を効率よく行えるようになっている。ImageNet は約 140 万件の画像からなり、画像分類において物体の画像を 1,000 個のカテゴリに分類する。本研究では評価のために開発データを二分割し、1,281,167 1) https://github.com/pytorch/examples 図 7 ベースラインと JPEG 画像を学習データに追加した画像分類モデルの JPEG 圧縮された評価データに対する TOP1 精度 quality=100 は元々の評価データを表す。 件の学習データとそれぞれ 25,000 件の開発データ、評価データを用いる(付録 Cに分割の方法を記す)。 画像キャプション生成 PyTorch の実装2)を用い、 MSCOCO '14 データセット [12] 上で Show, Attend and Tell [16] のモデルを学習する。Show, Attend and Tell は画像エンコーダと LSTM [17] デコーダからなる画像キャプション生成モデルである。画像に対する注意機構を導入し、重要な物体へ注意を向けながら単語を生成することで、画像の内容を捉えたキャプションを生成できる。COCO は約 16.4 万枚の画像と、それに付けられたキャプションの組からなる。本研究では評価のために Karpathy らの先行研究 [18] で用いられたデータセットの分割方法3)を用いる。 これにより、113,287 件の学習画像とそれぞれ 5,000 件の開発画像、評価画像に分割する。生成されたキャプションの評価には BLEU-4 [19] を用いる。 画像分類モデルと画像キャプション生成モデルの 2つの学習で、それぞれの開発データ上で最も性能が高いモデルを評価対象とした。 JPEG 圧縮 JPEG 圧縮には pillow ライブラリ4) を用いる。図 2 より quality が 22 より小さくなると SSIM が急激に降下を始めるため、追加する画像はデータセットの学習画像を $22,10,7,2$ の quality で JPEG 圧縮したのち、さらに 75 の quality で圧縮した画像である5)。 2) https://github.com/sgrvinod/ a-PyTorch-Tutorial-to-Image-Captioning 3) https://cs.stanford.edu/people/karpathy/ deepimagesent/ 4) https://pillow.readthedocs.io/en/stable/handbook/ image-file-formats.html\#jpeg 5) ライブラリの内部動作により、画像を指定された quality で JPEG 圧縮したのち、ファイルに書き出す際にさらに 75評価に用いる画像 ImageNet, COCO 共に、元々の評価画像を $80,61,41,31,22,17,12,10,7,5,3,2$ の quality で JPEG 圧縮した画像を用いて評価を行う。 ## 3.2 実験結果 画像分類画像分類タスクの TOP1 精度を図 7 に示す。図中の非圧縮+[数字] は、ImageNet の画像を数字で示される quality で JPEG 圧縮し、その JPEG 画像をさらに 75 の quality で JPEG 圧縮した画像を学習データに追加したモデルを意味する。数値デー タは付録の表 2 に掲載した。Ehrlich ら [7] が示したように、高圧縮の JPEG 画像に対してべースラインモデルの TOP1 精度が低下する。また、JPEG で圧縮した画像を学習に追加したモデルは高品質な評価データに対する TOP1 精度を維持しつつ、quality が 17 未満の高圧縮の評価データ上でベースラインモデルの TOP1 精度を超える精度を記録した。そして、追加している JPEG 画像の圧縮率が高い程、高圧縮の評価データ上で TOP1 精度が高かった。この実験結果から、JPEG 画像を学習データに追加することにより、画像分類モデルの JPEG 圧縮に対する頑健性を強化できることが示された。 画像キャプション生成画像キャプション生成タスクの BLEU スコアを図 $8,9,10,11$ に示す。数值データは付録の表 3 に掲載した。高圧縮の JPEG 画像に対して、ベースラインモデルの BLEU スコアが低下する。また、提案手法のどのモデルも高品質な評価データに対してベースラインモデルに匹敵する BLEU スコアを記録しつつ、quality が 17 より小さい高圧縮の評価データ上では、ベースラインモデルを超える BLEU スコアを記録した。 さらに画像エンコーダの学習にのみ JPEG 画像を追加する方法と画像エンコーダと画像キャプション生成モデルの二つの学習に JPEG 画像を追加する方法は、同様の性能を示している。一方、画像キャプション生成モデルの学習にのみ JPEG 画像を追加する方法はそれらを下回る性能であった。 ## 4 関連研究 Bujimalla ら [20] は写真の品質の劣化原因としてモーションブラー(被写体ぶれ)を挙げ、画像キャプション生成タスクへの影響を調査した。そしてモーションブラーで学習データをデータ拡張することによりモーションブラーに対して頑健な画像キャ  図 8 ベースラインと quality=22 で圧縮した画像をさらに quality=75 で圧縮した画像を学習に追加したモデルの JPEG 圧縮された評価データに対する BLEU-4 図 10 ベースラインと quality=7 で圧縮した画像をさらに quality=75 で圧縮した画像を学習に追加したモデルの JPEG 圧縮された評価データに対する BLEU-4 プション生成モデルの構築ができることを示した。 しかし、JPEG 圧縮の影響は分析していない。 Ehrlich ら [7] は JPEG 圧縮の画像分類、物体検出・ インスタンスセグメンテーション、セマンティックセグメンテーションの各タスクへの影響を分析し、高い圧縮率が適用された JPEG 画像に対してタスクの性能が低下することを示した。しかし、画像キャプション生成モデルへの影響に関して定量的な評価を行なっていない。 ## 5 おわりに 本稿では、画像キャプション生成モデルへの JPEG 圧縮の影響を定量的に評価し、その影響を緩和する手法を提案した。具体的には、画像エンコー ダと画像キャプション生成モデルの 2 つのモデルの学習に JPEG 画像を追加することで、JPEG 圧縮への頑健性の向上を目指した。実験結果から、高圧縮の JPEG 画像に対してベースラインモデルが生成するキャプションの品質が低下すること、提案手法 図 9 ベースラインと quality=10 で圧縮した画像をさらに quality=75 で圧縮した画像を学習に追加したモデルの JPEG 圧縮された評価データに対する BLEU-4 図 11 ベースラインと quality=2 で圧縮した画像をさらに quality=75 で圧縮した画像を学習に追加したモデルの JPEG 圧縮された評価データに対する BLEU-4 によって学習された画像キャプション生成モデルが高品質な画像に対する性能を維持しつつ、高圧縮の JPEG 画像に対してベースラインよりも高品質なキャプションを生成できることが分かった。また、画像エンコーダと画像キャプション生成モデルの二つの片方、もしくは両方の学習時に JPEG 画像を追加する方法の三つを比較したところ、画像エンコー ダの学習にのみ JPEG 画像を追加する方法と両方のモデルの学習に JPEG 画像を追加する方法は同程度の頑健性であり、画像キャプション生成モデルの学習にのみ JPEG 画像を追加する方法は他の二つの方法より頑健性が低かった。このことは JPEG 圧縮に対する頑健性を持った画像キャプション生成モデルの構築には、画像エンコーダの学習に JPEG 画像を追加することで十分であることを示唆している。 今後は JPEG 圧縮に対して頑健な画像エンコーダを視覚的質問応答や参照表現理解など他のダウンストリームタスクに適用し,JPEG 圧縮に対するモデルの頑健性を調査したい。 ## 謝辞 本研究を進めるにあたり、東京工業大学大学院情報理工学院の Marco Cognetta 氏に、研究の方向性やデータの分析において日頃から貴重なご助言を頂きました。深く感謝いたします。 本研究成果は, 国立研究開発法人情報通信研究機 構(NICT)の委託研究「自動翻訳の精度向上のためのマルチモーダル情報の外部制御可能なモデリングの研究開発」(課題 225)により得られたものです. ## 参考文献 [1] Chenliang Li, Haiyang Xu, Junfeng Tian, Wei Wang, Ming Yan, Bin Bi, Jiabo Ye, Hehong Chen, Guohai Xu, Zheng Cao, et al. mplug: Effective and efficient vision-language learning by cross-modal skip-connections. arXiv preprint arXiv:2205.12005, 2022 [2] Peng Wang, An Yang, Rui Men, Junyang Lin, Shuai Bai, Zhikang Li, Jianxin Ma, Chang Zhou, Jingren Zhou, and Hongxia Yang. Ofa: Unifying architectures, tasks, and modalities through a simple sequence-to-sequence learning framework. CoRR, Vol. abs/2202.03052, 2022. [3] Jia Cheng Hu, Roberto Cavicchioli, and Alessandro Capotondi. Expansionnet v2: Block static expansion in fast end to end training for image captioning. arXiv preprint arXiv:2208.06551, 2022 [4] Xiaowei Hu, Zhe Gan, Jianfeng Wang, Zhengyuan Yang, Zicheng Liu, Yumao Lu, and Lijuan Wang. Scaling up vision-language pretraining for image captioning. In 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pp. 17959-17968, 2022. [5] Xi Chen, Xiao Wang, Soravit Changpinyo, AJ Piergiovanni, Piotr Padlewski, Daniel Salz, Sebastian Goodman, Adam Grycner, Basil Mustafa, Lucas Beyer, Alexander Kolesnikov, Joan Puigcerver, Nan Ding, Keran Rong, Hassan Akbari, Gaurav Mishra, Linting Xue, Ashish Thapliyal, James Bradbury, Weicheng Kuo, Mojtaba Seyedhosseini, Chao Jia, Burcu Karagol Ayan, Carlos Riquelme, Andreas Steiner, Anelia Angelova, Xiaohua Zhai, Neil Houlsby, and Radu Soricut. Pali: A jointly-scaled multilingual language-image model, 2022. [6] G.K. Wallace. The jpeg still picture compression standard. IEEE Transactions on Consumer Electronics, Vol. 38, No. 1, pp. xviii-xxxiv, 1992. [7] Max Ehrlich, Larry Davis, Ser-Nam Lim, and Abhinav Shrivastava. Analyzing and mitigating jpeg compression defects in deep learning. In 2021 IEEE/CVF International Conference on Computer Vision Workshops (ICCVW), pp. 2357-2367, 2021. [8] Samuel Felipe dos Santos, Nicu Sebe, and Jurandy Almeida. The good, the bad, and the ugly: Neural networks straight from jpeg. In 2020 IEEE International Conference on Image Processing (ICIP), pp. 1896-1900, 2020. [9] Miklós Póth and Zeljen Trpovski. Analysis of jpeg digital image compression process. 2019 [10] Xi Wang, Xueyang Fu, Yurui Zhu, and Zheng-Jun Zha. Jpeg artifacts removal via contrastive representation learning. In European Conference on Computer Vision, pp. 615-631. Springer, 2022. [11] Olga Russakovsky, Jia Deng, Hao Su, Jonathan Krause, Sanjeev Satheesh, Sean Ma, Zhiheng Huang, Andrej Karpathy, Aditya Khosla, Michael Bernstein, Alexander C. Berg, and Li Fei-Fei. ImageNet Large Scale Visual Recognition Challenge. International Journal of Computer Vision (IJCV), Vol. 115, No. 3, pp. 211-252, 2015. [12] Tsung-Yi Lin, Michael Maire, Serge Belongie, James Hays, Pietro Perona, Deva Ramanan, Piotr Dollar, and Larry Zitnick. Microsoft coco: Common objects in context. In ECCV, pp. 740-755. European Conference on Computer Vision, September 2014. [13] Alain Horé and Djemel Ziou. Image quality metrics: Psnr vs. ssim. In 2010 20th International Conference on Pattern Recognition, pp. 2366-2369, 2010. [14] Zhou Wang, A.C. Bovik, H.R. Sheikh, and E.P. Simoncelli. Image quality assessment: from error visibility to structural similarity. IEEE Transactions on Image Processing, Vol. 13, No. 4, pp. 600-612, 2004. [15] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. In 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 770-778, 2016. [16] Kelvin Xu, Jimmy Ba, Ryan Kiros, Kyunghyun Cho, Aaron Courville, Ruslan Salakhutdinov, Richard Zemel, and Yoshua Bengio. Show, attend and tell: Neural image caption generation with visual attention. arXiv preprint arXiv:1502.03044, 2015. [17] Sepp Hochreiter and Jürgen Schmidhuber. Long ShortTerm Memory. Neural Computation, Vol. 9, No. 8, pp. 1735-1780, 111997. [18] Andrej Karpathy and Li Fei-Fei. Deep visual-semantic alignments for generating image descriptions, 2014. [19] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [20] Shashank Bujimalla, Mahesh Subedar, and Omesh Tickoo. Data augmentation to improve robustness of image captioning solutions, 2021. 表 $1 \mathrm{COCO}$ の評価データの画像の JPEG 圧縮に対する PSNR と SSIM の推移 表 2 ベースラインと ImageNet の学習データにJPEG 画像を追加したモデルの非圧縮の評価データと JPEG 圧縮された評価データに対する画像分類タスクの TOP1 精度 表 3 ベースラインと ImageNet と COCO の学習データに JPEG 画像を追加した画像キャプション生成モデルの JPEG 圧縮された評価データに対する BLEU-4 } & COCO & 非圧縮 & 80 & 61 & 41 & 31 & 22 & 17 & 12 & 10 & 7 & 5 & 3 & 2 \\ 非圧縮 & 非圧縮+10 & 26.7 & 26.7 & 26.6 & 26.5 & 26.5 & 26.4 & 26.4 & 25.9 & 25.7 & 25.2 & 23.0 & 18.3 & 16.8 \\ 非圧縮 & 非圧縮+7 & 26.9 & 26.9 & 27.0 & 27.0 & 27.1 & 26.9 & 27.0 & 26.3 & 26.2 & 26.0 & 25.0 & 21.0 & 19.4 \\ 非圧縮 & 非圧縮+2 & 26.9 & 26.8 & 26.9 & 26.9 & 27.1 & 26.7 & 26.9 & 26.6 & 26.2 & 26.2 & 25.2 & 24.2 & 23.7 \\ 非圧縮+10 & 非圧縮 & 26.9 & 26.8 & 26.7 & 26.8 & 27.0 & 26.8 & 26.7 & 26.6 & 26.5 & 25.5 & 23.8 & 18.3 & 16.7 \\ 非圧縮+7 & 非圧縮 & 27.0 & 27.1 & 27.1 & 27.2 & 27.1 & 27.0 & 26.6 & 26.7 & 26.6 & 26.2 & 25.0 & 21.1 & 19.5 \\ 非圧縮+2 & 非压縮 & 26.8 & 26.9 & 26.8 & 26.7 & 26.6 & 26.7 & 26.8 & 26.7 & 26.5 & 26.3 & 25.7 & 25.0 & 24.5 \\ 非圧縮+10 & 非圧縮+10 & 26.9 & 26.9 & 26.9 & 27.0 & 27.1 & 26.9 & 26.9 & 26.7 & 26.6 & 26.2 & 24.5 & 19.2 & 17.4 \\ 非圧縮+7 & 非圧縮+7 & 26.7 & 26.6 & 26.7 & 26.7 & 26.6 & 26.8 & 26.4 & 26.5 & 26.5 & 26.0 & 25.5 & 21.9 & 20.6 \\ 非圧縮+2 & 非圧縮+2 & 27.1 & 26.9 & 27.0 & 26.9 & 26.9 & 26.9 & 26.8 & 26.7 & 26.5 & 26.7 & 26.1 & 25.5 & 25.4 \\ ## A実験結果を表にまとめたもの COCO における Karpathy [18] らの評価データの画像を JPEG 圧縮した時の PSNR と SSIM の推移を表 1 に示す。 画像分類タスクにおけるべースラインモデルと、学習画像に JPEG 画像を追加して学習したモデルの非圧縮の評価デー タと JPEG 圧縮された評価データに対する TOP1 精度を表 2 に示す。非圧縮+[数字] とは ImageNet の学習画像を指定された数字の quality で JPEG 圧縮し、さらに 75 の quality で JPEG 圧縮した画像を学習データに追加して学習したモデルを示す。 画像キャプション生成タスクにおけるベースラインモデルと、提案手法のモデルの非圧縮の評価データと JPEG 圧縮された評価データに対する BLEU スコアを表 3 に示す。非圧縮+[数字] とはカラム名のデータセットの学習画像を指定された数字の quality で JPEG 圧縮し、さらに 75 の quality で JPEG 圧縮した画像を学習データに追加して学習したモデルを示す。 ## B 学習 ResNet-18 の学習は 35 エポックを行った。 画像キャプション生成モデルの学習は安定化のために 2 つの段階に分けた。画像エンコーダをファインチューニングせずに、言語モデルを学習する第一段階と、画像エンコーダをファインチューニングさせて学習する第二段階である。第一段階と第二段階のそれぞれで 20 エポックと 6 エポックの学習を行なった。 ## C ImageNet の開発データの分割 ImageNet の開発データを二分割して開発データと評価データを作る。全てのカテゴリにおいて、そのカテゴリに属する 50 枚の画像をそのファイル名で昇順ソートし、前半を開発データ、後半を評価データとして分割した。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-3.pdf
# マルチモーダル OCR 特徴を用いた Dynamic Pointer Network によるテキスト付き画像説明文生成 植田有咲 Wei Yang 杉浦孔明 慶應義塾大学 \{arinko31,wei.yang,komei.sugiura\}@keio.jp ## 概要 テキスト情報を含む画像の説明文生成は視覚のバリアフリー化を実現するための重要な課題の一つである. 本研究では, テキスト情報を含む画像に対して説明文を生成するタスクに対して,マルチモーダル OCR 特徴を含む複数のモダリティを利用した画像説明文生成モデルを提案する. 提案手法では画像中のテキスト領域を複数のモダリティに分割するマルチモーダル OCR 特徴を導入する.さらに, 画像, 物体領域, マルチモーダル OCR 特徴を含む複数モダリティ間の関係をモデル化するための相互注意を導入する. 提案手法は TextCaps データセットにおいて既存手法を上回る結果を得た。 ## 1 はじめに テキスト情報を含む標識や看板などは日常生活に多く存在する.テキスト情報を含む画像の説明文生成は, 日常生活における視覚のバリアフリー化を促進する一つの手段である. また, 画像の代替テキス卜 (alt 属性など) の生成における品質向上にとって有益である. 以上の社会的背景から, 本研究では TextCaps (Textbased Image Captioning) タスクを扱う. TextCaps タスクはテキスト情報を含む画像に対して OCR (Optical Character Recognition) を利用して説明文を生成するタスクである. 図 1 に提案手法の概要図を示す. 図の例では, “a store called del's sells soft frozen lemonade" という説明文を生成することが望ましい. 本タスクでは OCR トークンの多面的な視覚言語特徵や, OCR トークンと物体間の関係を考慮することが重要である. しかし, 先行研究 [1], [2] ではそれらの考慮が不十分であり,十分な性能が得られなかった. そこで本研究では, マルチモーダル OCR 特徴を含む複数のモダリティを利用した画像説明文生成モデ 図1 提案手法の概要図 ルを提案する.ここでマルチモーダル OCR 特徴とは, OCR により得られたテキストとその画像領域に関する視覚言語特徴を指すものとする. 提案手法では, 事前学習済みの CLIP (Contrastive Language-Image Pre-training) [3] モデルを全体画像と OCR トークンの言語特徴量を抽出するために用いる. さらに複数のモダリティ間の関係をモデル化する相互注意を導入することで, 性能の向上が期待できる. 本研究の新規性は以下の通りである. ・既存手法と異なり, 画像中のテキスト領域を複数のモダリティに分割するマルチモーダル OCR 特徴を導入する。 - 画像全体, 物体領域, マルチモーダル OCR 特徴を含す複数モダリティ間の関係をモデル化するための相互注意を導入する。 ## 2 問題設定 本研究では, 画像内のテキスト情報を認識し,それらに関連する説明文を自動的に生成する TextCaps タスクを扱う.テキスト情報を含まない画像に対する画像説明文生成については考慮しないものとする。本タスクの入出力を以下のように定義する. - 入力 : 画像 -出力 : 画像内のテキスト情報に関連する説明文 図2 提案手法のネットワーク図 ## 3 提案モデル 本モデルは 5 つの相互注意と説明文を生成する復号器から構成されている. 図 2 に提案手法のネットワーク構造を示す. 入力は $\boldsymbol{X}=\left.\{\boldsymbol{X}_{\mathrm{img}}, \boldsymbol{X}_{\mathrm{obj}}, \boldsymbol{X}_{\mathrm{ocr}}\right.\}$ であり, $\boldsymbol{X}_{\mathrm{img}}, \boldsymbol{X}_{\mathrm{obj}}, \boldsymbol{X}_{\mathrm{ocr}}$ はそれぞれ画像全体, 物体領域, OCR で検出された領域と検出結果を表す. ## 3.1 特徵抽出 画像特徵量 $X_{\text {img }}$ は事前学習済みの CLIPを用いて特徴量抽出される. CLIP の RN50x4 モデルを用いて画像全体を符号化し, 画像特徵量 $\boldsymbol{h}_{\text {glob }} \in \mathbb{R}^{640}$ を得る. さらに, Faster R-CNN [4]を用いて画像から $l$ 個の物体を検出し, $\boldsymbol{X}_{\mathrm{obj}}$ を抽出し, TextCaps タスクで fine-tuning を行う. 特徴量の次元数は 2048 であり, 抽出された特徴量を $\boldsymbol{h}_{\text {obj, fr }}^{(l)}, \boldsymbol{h}_{\mathrm{obj}, \mathrm{bb}}^{(l)}$ と定義する. $\boldsymbol{h}_{\mathrm{obj}, \mathrm{bb}}^{(l)}$ は物体領域の正規化された座標特徴量を表す.これらに正規化層を適用し, 最終的な物体特徵量 $\boldsymbol{h}_{\mathrm{obj}}^{(l)}$得る. $j$ 個の OCRトークンの言語特徴量 $\boldsymbol{h}_{\mathrm{ocr}, 1}^{(j)}$ は FastText 特徴量 $\boldsymbol{h}_{\mathrm{or}, \mathrm{ft}}^{(j)}$ と文字レベルの PHOC [5] 特徴量 $\boldsymbol{h}_{\mathrm{ocr}, \mathrm{ph}}^{(j)}$, CLIP (RN50x4) モデルで OCR トークン特徴量を抽出した $\boldsymbol{h}_{\mathrm{ocr}, \mathrm{c}}^{(j)}$ から構成される. 物体特徴量抽出と同様に Faster R-CNN を用いて OCR トークンの視覚的特徴量 $\boldsymbol{h}_{\text {ocr,fr }}^{(j)}, \boldsymbol{h}_{\text {ocr,bb }}^{(j)}$ を抽出し, TextCaps タスクで fine-tuning を行う. $\boldsymbol{h}_{\text {ocr,bb }}^{(j)}$ は OCR の画像領域の正規化された座標特徴量を表す. 最終的な OCR の視覚的特徴量を $\boldsymbol{h}_{\mathrm{ocr}, \mathrm{V}}^{(j)}$ と定義する. マルチモーダル OCR 特徵 $\boldsymbol{h}_{\text {ocr,all }}^{(j)}$ を以下のように定義する. $ \begin{aligned} \boldsymbol{h}_{\mathrm{ocr}, \mathrm{all}}^{(j)}= & f_{\mathrm{LN}}\left(\boldsymbol{W}_{\mathrm{ft}} \boldsymbol{h}_{\mathrm{ocr}, \mathrm{ft}}^{(j)}+\boldsymbol{W}_{\mathrm{ph}} \boldsymbol{h}_{\mathrm{ocr}, \mathrm{ph}}^{(j)}+\boldsymbol{W}_{\mathrm{c}} \boldsymbol{h}_{\mathrm{ocr}, \mathrm{c}}^{(j)}\right. \\ & \left.+\boldsymbol{W}_{\text {ocr,fr }} \boldsymbol{h}_{\text {ocr }, \mathrm{fr}}^{(j)}+\boldsymbol{W}_{\mathrm{glob}} \boldsymbol{h}_{\mathrm{glob}}\right)+f_{\mathrm{LN}}\left(\boldsymbol{W}_{\mathrm{ocr}, \mathrm{bb}} \boldsymbol{h}_{\mathrm{ocr}, \mathrm{bb}}^{(j)}\right) \end{aligned} $ $f_{\mathrm{LN}}$ は正規化層, $\boldsymbol{W}$. は重み行列を表す.また, 画像全体,物体領域, マルチモーダル OCR 特徴を相互注意の入力として用いる。 ## 3.2 相互注意 提案手法は画像全体, 物体領域,マルチモーダル OCR 特徴から構成される複数のモダリティを融合させる 5 つの相互注意から構成される. 相互注意を以下のように定義する. $ \begin{aligned} \boldsymbol{h}_{1}^{\prime} & =\operatorname{softmax}\left(\frac{\boldsymbol{W}_{Q} \boldsymbol{h}_{1}\left(\boldsymbol{W}_{K} \boldsymbol{h}_{1}\right)^{\top}}{\sqrt{d_{k}}}\right) \boldsymbol{W}_{V} \boldsymbol{h}_{1} \\ \boldsymbol{u}_{n} & =\operatorname{ReLU}\left(\boldsymbol{W}_{u} \boldsymbol{h}_{n}^{\prime}\right), \quad n=1,2 \\ \boldsymbol{\alpha}_{m} & =\operatorname{softmax}\left(\boldsymbol{W}_{\alpha}\left(\boldsymbol{u}_{1} \odot \boldsymbol{u}_{2}^{(m)}\right)\right), \quad \boldsymbol{z}=\sum_{m=1}^{M} \boldsymbol{\alpha}_{m} \boldsymbol{h}_{2}^{\prime}, \end{aligned} $ ここで $\odot$ はアダマール積を表す. $d_{k}=H / A, H, A$ はそれぞれ Transformer モデルの隠れ層の次元数, ヘッド数を表す. $\boldsymbol{W}$. は学習可能な重みを表す. 例として, 図 2 における 1 つ目の相互注意では $\boldsymbol{h}_{1}$ は $\boldsymbol{h}_{\mathrm{obj}}^{(l)}$ として, $\boldsymbol{h}_{2}^{\prime}$ は $\boldsymbol{h}_{\mathrm{ocr}, 1}^{(j)}$ として定義される. 同様に 2 つ目では $\boldsymbol{h}_{1}, \boldsymbol{h}_{2}^{\prime}$ はそれぞれ $\boldsymbol{h}_{\mathrm{obj}}^{(l)}, \boldsymbol{h}_{\mathrm{ocr}, \mathrm{v}}^{(j)}$ として定義される. 5 つ目の相互注意では $\boldsymbol{h}_{1}$ は $\boldsymbol{h}_{\text {ocr,all }}^{(j)}, \boldsymbol{h}_{2}^{\prime}$ は $\boldsymbol{h}_{\mathrm{obj}}^{(l)}$ を表す. 提案手法では画像全体, 物体領域, マルチモーダル OCR 特徴を含む複数モダリティ間の関係をモデル化するための 2 つの相互注意を導入する.これらの 2 つの相互注意は入力として $\boldsymbol{h}_{2}^{\prime}=\boldsymbol{h}_{\text {glob }}$ を用いる.図2の3つ目の相互注意では $\boldsymbol{h}_{1}$ は $\boldsymbol{h}_{\mathrm{obj}}^{(l)}$ として定義される. 同様に 4 つ目の相互注意では $\boldsymbol{h}_{1}$ は $\boldsymbol{h}_{\text {ocr,all }}^{(j)}$ として定義される. 最終的に, $\boldsymbol{h}_{1}^{\prime} \odot z$ によって 5 つの相互注意から複数モダリティ間の関係をモデル化するための埋め込み表現を計算する. 得られた埋め込み表現に全結合層を適用し, 相互注意の最終出力とする. 図 3 提案手法の復号器の概要図 ## 3.3 説明文生成 図 3 に画像から説明文を生成するための復号器の概要図を示す. 提案手法では Transformerベースの自己回帰型の復号器を用いて時刻 $t(t=0,1, \cdots, T)$ のトークンを予測する. 復号器の特徴はポインタネットワーク (Dynamic Pointer Network) を導入することにより, 予測トークンが固定語彙 $(v=1, \cdots, V)$ または画像中の OCR トークン $(j=1, \cdots, N)$ から選択されることである. 最初の予測トークン $(t=0)$ は, 図 2 の Context Embedding に基づき, 得られる. その後のステップでは, 時刻 $t$ のトークンを予測するために, 時刻 $t-1$ の埋め込み $x_{t}^{\mathrm{dec}}$,および時刻 $t-1$ に予測されたトー クンのタイプ埋め込み $(0$ :固定語彙, 1 :OCR トー クン)が用いられる. 時刻 $t-1$ の予測として OCR トークンが選択された場合, $\boldsymbol{h}_{\text {ocr,all }}^{(j)}$ を前時刻で予測されたトークンの $\boldsymbol{x}_{t}^{\mathrm{dec}}$ として入力する. 一方, 前時刻の予測が固定語彙から選択された場合, 対応する重みベクトル $\boldsymbol{w}_{v}^{\mathrm{voc}}$ を入力として用いる. 各時刻 $t$ で, Transformer モデルは現時刻の予測のための入力 $\boldsymbol{x}_{t}^{\mathrm{dec}}$ に対応する $d$ 次元のベクトル $z_{t}^{\mathrm{dec}}$ を出力する. $\hat{\boldsymbol{y}}_{t, v}^{\mathrm{voc}}$ と $\hat{y}_{t, j}^{\text {ocr }}$ は時刻 $t$ での固定語彙または OCR トークンから得られる予測を表す. 時刻 $t$ におけるポインタネットワークを用いた固定語彙の予測確率 $p\left(\hat{\boldsymbol{y}}_{t, v}^{\mathrm{voc}}\right)$ または OCR トークンの予測確率 $p\left(\hat{y}_{t, j}^{\text {ocr }}\right)$ は以下のように得られる。 $ \begin{gathered} p\left(\hat{\boldsymbol{y}}_{t, v}^{\mathrm{voc}} \mid S=S_{\mathrm{voc}}\right)=\operatorname{softmax}\left(\left(\boldsymbol{w}_{v}^{\mathrm{voc}}\right)^{\top} z_{t}^{\mathrm{dec}}\right) \\ p\left(\hat{\boldsymbol{y}}_{t, j}^{\mathrm{ocr}} \mid S=S_{\mathrm{ocr}}\right)=\operatorname{softmax}\left(\left(\boldsymbol{W}_{\mathrm{ocr}} z_{j}^{\mathrm{ocr}}\right)^{\top}\left(\boldsymbol{W}_{\mathrm{dec}} z_{t}^{\mathrm{dec}}\right)\right) \end{gathered} $ ここで, $\boldsymbol{w}_{v}^{\mathrm{voc}}$ は固定語彙内の $v$ 番目の d-次元のパラメータを表す. $\boldsymbol{W}_{\text {ocr }}$ と $\boldsymbol{W}_{\text {dec }}$ は $\mathrm{d} \times \mathrm{d}$ の重み行列を表す. $ \left[p\left(\hat{\boldsymbol{y}}_{t, v}^{\mathrm{voc}}\right) ; p\left(\hat{\boldsymbol{y}}_{t, j}^{\mathrm{ocr}}\right)\right]=\left.\{p\left(\hat{\boldsymbol{y}}_{t, i}^{\mathrm{all}}\right) \mid i=1, \cdots, V+N\right.\} $ 双方の予測確率 $\left[p\left(\hat{y}_{t, v}^{\mathrm{voc}}\right) ; p\left(\hat{y}_{t, j}^{\mathrm{ocr}}\right)\right]$ を考慮し, 固定語彙, 画像内の OCR トークンからなる $V+N$ 個の候補から最も予測確率が高いトークンを出力とする。 ## 4 実験 ## 4.1 実験設定 TextCaps データセットを用いて提案手法の性能評価を行った. 28,408 枚のテキスト付き画像に対する 142,040 文の説明文を含む. 固定語彙は 6,736 語利用した. 説明文の平均語数は 13.47 語である. 我々は [1] に基づきデータセットを分割した. TextCaps データセットの訓練集合, 検証集合, テスト集合はそれぞれ 21,953 枚, 3,166 枚, 3,289 枚の画像から構成されている. TextCaps タスクではテスト集合の正解文が公開されていないため, 訓練集合と検証集合のみを用いた. 評価実験は検証集合を用いて行った. 実験は標準的な手順に従っており, 検証集合はモデルの学習やパラメータの調整には使用されない. 実験に使用した OCR 特徴は, SBD-Trans [6,7]によって認識されたものである. 提案手法の学習は $32 \mathrm{~GB}$ のメモリを搭載した 4 台の Tesla V100 GPU で行った. ハイパーパラメータ設定は [2] と同様である. このモデルは 170,561,578 (171M) の学習可能なパラメータを持ち, 学習には 12 時間必要であった. BLEU-4 [8], METEOR [9], ROUGE-L [10], CIDEr [11], SPICE [12] という 5 つの標準的評価手法を用いて評価を行った. ## 4.2 定量的結果 M4C-Captioner [1] と SSbaseline [2] をべースライン手法として用いた. ベースライン手法と提案手法の比較実験を行った結果, 提案手法 (条件 (6)) は BLEU-4, SPICE, CIDEr, それぞれ 25.58, 16.60, 99.74 ポイントであり, SSbaseline (BLEU-4: 24.54, SPICE: 15.74, CIDEr: 97.76) に比べて 1, 0.9, 2 ポイント向上する結果が得られた. さらに, M4C-Captioner との比較ではより顕著な向上が見られた. その上, 2 つの画像に関連する相互注意を導入することによって, 条件 (7) の Ours (full) では, BLEU-4, CIDEr は 0.42 (25.58 $\rightarrow$ 26.00), 0.7 (99.74 $\rightarrow$ 100.44) ポイントそれぞれ性能が向上した.これらの結果は画像全体, 物体, マルチモーダル OCR 特徴を含む複数の特徴量間の関係をモデル化する相互注意の導入が性能向上に寄与することを示唆している。 表 1 TextCaps タスクにおける定量的結果 (a) (b) 図4 ## 4.3 Ablation Study 画像とマルチモーダル OCR 特徴, および画像に関連する相互注意の有効性を調査するために, ablation study(CLIP-RN50x4 モデルを使用)を3つの条件で行った. 表 1 に示すように, SSbaseline と条件 (4)を比較して, CLIP に基づくマルチモーダル OCR 特徴を導入するだけで CIDEr スコアは約 1 ポイント向上した (97.76 $\rightarrow$ 98.66). また, CLIP を利用した画像特徴量を削除することで性能は大きく低下した(条件 (4) と条件 (7)). しかし, 画像全体の CLIP 特徴を導入することでべースライン手法に比べ, 全ての評価指標で性能が向上した (条件 (3) と条件 (5)). 例えば, BLEU-4 は 1 (24.54 $\rightarrow$ 25.58) ポイント, SPICE は $0.8(15.74 \rightarrow 16.54)$ ポイント, CIDEr は 1.6 (97.76 $\rightarrow$ 99.40) ポイント, それぞれ向上した. 提案手法で導入した CLIP に基づく画像モダリティは TextCaps タスクでの性能を向上させることがわかった. 条件 (3) と条件 (6) を比較すると,複数モダリティ間の関係をモデル化するための相互注意を取り除くことで, BLEU-4 と CIDEr のスコアは減少した. この結果は, 画像全体, 物体領域, マルチモーダル OCR 特徵を含む複数特徴量間の関係をモデル化する相互注意が TextCaps タスクにおいて有効であることを示唆している。 (a) SSbaseline: a bottle of whitestone stout next to a glass of it Ours: a bottle of [epic] [stout] next to a glass of beer GT: a bottle of epic stout next to a quarter full glass and some snacks (b) SSbaseline: a book by conan holmes called adventures of sherlock holmes Ours: a book by [conan] [doyle] called the [adventures] [of] [sherlock] [holmes] GT: a book cover of the adventures of sherlock holmes by a . conan doyle ## 定性的結果 ## 4.4 定性的結果 図 4 に定性的結果を示す. 図 4 (a) ではベースライン手法は OCR トークンの “whitestone” と物体の “bottle”間の関係を適切に表現できていない。一方,提案手法では正しい OCR トークン “epic” と “stout” を物体 “bottle” に対して適切に選択した. 図 4 (b) のベースライン手法は誤った OCR トークンを生成文で用いた. 例として, “a book by conan holmes” は “a book by conan doyle” となるべきである. 一方で, 提案手法は著者と本のタイトルを適切な OCR トークンを用いて表現できている。 ## 5 おわりに 本論文では,テキスト情報を含む画像の説明文生成を行う TextCaps タスクを扱った. 提案手法による新規性は以下である。 ・既存手法と異なり, 画像中のテキスト領域を複数のモダリティに分割するマルチモーダル OCR 特徴を導入した。 -画像全体, 物体領域, マルチモーダル OCR 特徴を含す複数モダリティ間の関係をモデル化するための相互注意を導入した。 ・全ての評価指標においてべースライン手法を上回る性能を得た。 ## 謝辞 本研究は JSPS 科研費 $20 \mathrm{H} 04269$, JST Moonshot, NEDO の助成を受けて実施されたものである. ## 参考文献 [1] Oleksii Sidorov, Ronghang Hu, Marcus Rohrbach, and Amanpreet Singh. TextCaps: A dataset for image captioning with reading comprehension. In ECCV, pp. 742-758, 2020. [2] Qi Zhu, Chenyu Gao, Peng Wang, and Qi Wu. Simple is not easy: A simple strong baseline for TextVQA and TextCaps. In AAAI, Vol. 35, pp. 3608-3615, 2021. [3] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, et al. Learning transferable visual models from natural language supervision. In ICML, pp. 8748-8763, 2021. [4] Shaoqing Ren, Kaiming He, Ross Girshick, and Jian Sun. Faster R-CNN: Towards real-time object detection with region proposal networks. NeurIPS, Vol. 28, , 2015. [5] Jon Almazán, Albert Gordo, Alicia Fornés, and Ernest Valveny. Word spotting and recognition with embedded attributes. IEEE Trans. PAMI, Vol. 36, No. 12, pp. 25522566, 2014. [6] Yuliang Liu, Sheng Zhang, Lianwen Jin, Lele Xie, Yaqiang $\mathrm{Wu}$, and Zhepeng Wang. Omnidirectional scene text detection with sequential-free box discretization. In IJCAI, pp. 3052-3058, 2019. [7] Peng Wang, L. Yang, Hui Li, Yuyang Deng, Chunhua Shen, and Yanning Zhang. A simple and robust convolutional-attention network for irregular text recognition. arXiv preprint arXiv: 1904.01375, 2019. [8] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. BLEU: A method for automatic evaluation of machine translation. In ACL, pp. 311-318, 2002. [9] Satanjeev Banerjee and Alon Lavie. METEOR: An Automatic Metric for MT Evaluation with Improved Correlation with Human Judgments. In ACL Workshop on Intrinsic and Extrinsic Evaluation Measures for Machine Translation and/or Summarization, pp. 6572, 2005 [10] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 74-81, 2004. [11] Ramakrishna Vedantam, C Lawrence Zitnick, and Devi Parikh. CIDEr: Consensus-based image description evaluation. In CVPR, pp. 4566-4575, 2015. [12] Peter Anderson, Basura Fernando, Mark Johnson, and Stephen Gould. SPICE: Semantic propositional image caption evaluation. In ECCV, pp. 382-398, 2016. [13] Yunpeng Luo, Jiayi Ji, Xiaoshuai Sun, Liujuan Cao, Yongjian Wu, Feiyue Huang, Chia-Wen Lin, and Rongrong Ji. Dual-level collaborative transformer for image captioning. In AAAI, Vol. 35, pp. 2286-2293, 2021. [14] Yehao Li, Yingwei Pan, Ting Yao, and Tao Mei. Comprehending and ordering semantics for image captioning. In CVPR, pp. 17990-17999, 2022 [15] Xiaowei Hu, Zhe Gan, Jianfeng Wang, Zhengyuan Yang, Zicheng Liu, Yumao Lu, and Lijuan Wang. Scaling up vision-language pre-training for image captioning. In CVPR, pp. 17980-17989, 2022. [16] Matteo Stefanini, Marcella Cornia, Lorenzo Baraldi, Silvia Cascianelli, Giuseppe Fiameni, and Rita Cucchiara. From show to tell: A survey on deep learning-based image captioning. IEEE Trans. PAMI, Vol. ISSN 0162-8828, pp. 1-10, 2022. [17] Xiujun Li, Xi Yin, Chunyuan Li, Pengchuan Zhang, Xiaowei Hu, Lei Zhang, Lijuan Wang, Houdong Hu, Li Dong, Furu Wei, et al. Oscar: Object-semantics aligned pretraining for vision-language tasks. In ECCV, pp. 121-137, 2020. [18] Xiaowei Hu, Zhe Gan, Jianfeng Wang, Zhengyuan Yang, Zicheng Liu, Yumao Lu, and Lijuan Wang. Scaling up vision-language pre-training for image captioning. In CVPR, pp. 17980-17989, 2022 [19] Zhengyuan Yang, Yijuan Lu, Jianfeng Wang, Xi Yin, Dinei Florencio, Lijuan Wang, Cha Zhang, Lei Zhang, and Jiebo Luo. TAP: Text-aware pre-training for Text-VQA and Text-Caption. In CVPR, pp. 8747-8757, 2021. ## A 付録 ## A. 1 関連研究 画像説明文生成の研究は広く行われている [13-16]. 従来の画像説明文生成タスクでは, 画像内のテキスト情報の理解が必要となるタスクは少ない $[17,18]$. テキストに基づいた画像説明文生成 (TextCaps) は, テキスト情報を含む画像に対して説明文を生成することを目的とする. そのため, 従来の画像説明文生成タスクで用いられているような画像ではなく, テキスト情報を含む画像に特化したタスクである. 故に,一般的な画像理解を目指した従来モデルは本タスクへの適用が難しい. テキスト情報が重要となるため, TextCaps タスクでは OCR 特徴と物体領域を大力として用いるモデルが主流である $[1,2,19]$.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-4.pdf
# ゲート付き相互注意を用いたエンコーダ・デコーダによる 感情に基づく絵画説明文生成 石川慎太朗杉浦孔明 慶應義塾大学 \{shin.0116,komei.sugiura\}@keio.jp ## 概要 絵画作品鑑賞のバリアフリー化を進める際に,人手を必要とせずに絵画の説明文を生成できれば有用である.絵画の解釈は鑑賞者の感情と密接な関わりを有するため,説明文は感情に基づいていることが望ましい. 本研究では,感情ラベルを視覚情報に統合する Affective Visual Encoder を導入した絵画説明文生成モデルを提案する,提案手法においては,感情トークンを用いて画像の領域・グリッド特徴量を融合し,画像・物体レベルの視覚情報を利用する。 ArtEmis データセットを使用して提案手法の性能を評価した結果,全ての評価指標において既存手法を上回る性能を得た。 ## 1 はじめに 絵画鑑賞においては,視覚障害者へのバリアフリー化が長年にわたって推進されており [1], 多くの絵画には歴史等の事実に基づいた説明文が付与されている。一方,絵画の解釈と鑑賞者の感情との間には密接な関係性が存在すると指摘されているため [2], 感情が反映された説明文は絵画鑑賞において重要である。しかし,全ての絵画について感情を考慮した説明文が与えられているわけではない. そこで本研究では,絵画に対する鑑賞者の感情を考慮した説明文を生成するモデルを構築する。図 1 に例を示す. 図中の絵画の画像および “excitement” という感情が与えられたときに,鑑賞者の感情の高ぶりを反映させた “The ships look like they are about to go on an adventure." という説明文を生成することが期待される。 多くの既存研究 $[3,4]$ は,利用者が指定した感情に基づく説明文の生成には取り組んでおらず,画像に関連の深い感情を予測した後,それを追加入力として説明文の生成に利用するというアプローチを採 図 1 提案手法の概要 用している。しかし,これらの手法においては任意の感情を入力として受け取ることはできず,感情で条件付けされた説明文を生成することはできない. 本研究では, Affective Visual Encoder (AVE) を導入した絵画説明文生成モデルを提案する。提案手法では,CLIP[5]を使用して画像から抽出したクロスモーダル情報を入力に追加することで,視覚情報を強化する.以上により,絵画の内容と感情の種類を適切に反映させた説明文を生成することが期待される. 図 1 に提案手法の概要を示す. 既存手法と異なる点は,AVEを用いて,感情ラベルを視覚情報に統合する点である. 本研究の貢献を以下に示す. ・ゲート付き相互注意機構を用いて,視覚情報を感情ラベルで条件付けする AVE モジュールを提案する。 ・エンコーダにおいて,画像の領域・グリッド特徴量を融合するための感情トークンを導入する。 ## 2 問題設定 本研究で扱うタスクを,Affective Image Captioning (AIC) と定義する,AIC タスクは,絵画と感情が与えられたときに,絵画の内容および感情の種類に 沿った説明文を生成するタスクである。 当該タスクの入出力を以下のように定義する. - 入力: 絵画の画像,感情ラベル ・出力: 感情を反映させた絵画の説明文 本論文で使用する用語を以下のように定義する. ・感情: ArtEmis データセットにおいて定義されている感情ラベル群のうちの 1 つ. 感情ラベルは, "anger" "disgust" "fear" "sadness" "amusement" "awe" "contentment" "excitement" "something else" の計 9 種類存在する。 モデルの評価には,標準的な自動評価尺度である BLEU[6], METEOR[7], ROUGE-L[8], CIDEr[9], SPICE[10] を使用する. ## 3 提案手法 提案手法のネットワーク構造を図 2 に示す. ネットワークは複数のエンコーダ・デコーダブロックから構成される. 各モジュールの詳細については本節で後述する. 本手法は, Meshed-Memory Transformer (M2)[3] 等の既存の説明文生成手法と関連が深い. M2 は, QKV 注意機構を使用したエンコーダ・デコーダ型の構造を有しており, ArtEmis データセット [11] において高い性能が報告されている。本手法は,M2 をもとにしているものの,GRIT[4] 等の他の説明文生成手法にも適用可能である. ## 3.1 入力 ネットワークの入力 $x$ を以下のように定義する. $ \begin{aligned} \boldsymbol{x} & =\left.\{X_{\mathrm{grd}}, X_{\mathrm{rgn}}, X_{\mathrm{emo}}, X_{\mathrm{jnt}}\right.\}, \\ X_{\mathrm{grd}} & =\left.\{X_{\mathrm{grd}}^{(i)} \mid i=1,2, \ldots, N\right.\} \end{aligned} $ ここに, $X_{\mathrm{grd}}$ はグリッド特徵量, $X_{\mathrm{rgn}} \in \mathbb{R}^{N_{\mathrm{rgn}} \times d_{\mathrm{rgn}}}$ は領域特徴量, $X_{\mathrm{emo}} \in \mathbb{R}^{d_{\mathrm{emo}}}$ は感情の埋め込み表現, $X_{\mathrm{jnt}} \in \mathbb{R}^{d_{\mathrm{jnt}}}$ は画像のクロスモーダル表現を表す. なお, $X_{\mathrm{grd}}^{(i)} \in \mathbb{R}^{M \times d_{\mathrm{grd}}^{(i)}}$ はバックボーンネットワークから得られる $i$ 番目の特徴マップ $s_{t}$ を表し, $N$ はエンコーダのブロック数を表す. 本手法では,事前学習済みの Swin Transformer[12] と CLIP[5]を使用して,それぞれ画像の特徴マップとクロスモーダル表現を獲得する。また,Visual Genome データセット [13] で学習済みの Faster RCNN[14] 使用して, 各画像から領域特徴量を抽出する. さらに,感情ラベル $E$ を全結合層に入力する ことで,埋め込み表現を獲得する。 ## 3.2 Affective Visual Encoder AVE は複数のブロックから構成される。当該モジュールは,モデルへの入力をもとに,感情トークンを使用して画像・感情特徴量を融合する。 各エンコーダブロックにおいては,画像と感情の関係性をモデル化するために相互注意機構を使用する。 相互注意と自己注意の処理を,行列 $X_{\mathrm{A}}$ および $X_{\mathrm{B}}$ を用いて以下のように定義する。 $ \begin{aligned} & \operatorname{CrossAttn}\left(X_{\mathrm{A}}, X_{\mathrm{B}}\right)= \\ & \quad \operatorname{softmax}\left(\frac{\left(W_{\mathrm{Q}} X_{\mathrm{A}}\right)\left(W_{\mathrm{K}} X_{\mathrm{B}}\right)^{\top}}{\sqrt{d}}\right)\left(W_{\mathrm{V}} X_{\mathrm{B}}\right), \\ & \operatorname{SelfAttn}\left(X_{\mathrm{A}}\right)=\operatorname{CrossAttn}\left(X_{\mathrm{A}}, X_{\mathrm{A}}\right) \end{aligned} $ ここに, $W_{\mathrm{Q}} \in \mathbb{R}^{d_{\mathrm{q}} \times d_{\text {in }}}, W_{\mathrm{K}} \in \mathbb{R}^{d_{\mathrm{k}} \times d_{\text {in }}}, W_{\mathrm{V}} \in \mathbb{R}^{d_{\mathrm{v}} \times d_{\text {in }}}$ はいずれも学習可能な重みである。また,次のエンコーダブロックに入力される情報量を制御するために,以下のようなゲート構造を導入する。 $ f_{\text {gate }}(X)=X \odot \tanh (W \boldsymbol{h}) $ ここに, $\boldsymbol{h}$ は中間層の出力, $W$ は学習可能な重みであり,。はアダマール積を表す. $i$ 番目のエンコーダブロックでは,はじめに $\boldsymbol{h}_{\text {tok }}^{(i)}=\operatorname{SelfAttn}\left(Z^{(i)}\right)$ という処理を実行する. $Z^{(1)}=Z$ は感情トークンを表す. 次に,グリッド特徵量 $X_{\text {grd }}^{(i)}$ をとに $\boldsymbol{h}_{\text {tok }}^{(i)}$ にゲート付き相互注意演算を適用する。 $ \boldsymbol{h}_{\text {grd }}^{(i)}=f_{\text {grd_gate }}\left(\operatorname{CrossAttn}\left(\boldsymbol{h}_{\text {tok }}^{(i)}, W_{\text {grd }}^{(i)} X_{\text {grd }}^{(i)}\right)\right) $ ここに, $\left.\{W_{\mathrm{grd}}^{(i)} \in \mathbb{R}^{d_{\mathrm{enc}} \times d_{\mathrm{grd}}^{(i)}} \mid i=1,2, \ldots, N\right.\}$ は学習可能な重みであり, $f_{\text {grd_gate }}(\cdot)$ は $f_{\text {gate }}(\cdot)$ と同様の構造を有する.また,同様の処理により, $X_{\mathrm{rgn}}$ をもとに $\boldsymbol{h}_{\mathrm{rgn}}^{(i)}$ を獲得する. 最後に, $\tilde{\boldsymbol{h}}_{\mathrm{tok}}^{(i)}=\mathrm{FFN}\left(\boldsymbol{h}_{\mathrm{grd}}^{(i)}+\boldsymbol{h}_{\mathrm{rgn}}^{(i)}\right)$ という処理を実行する. $X_{\mathrm{emo}}$ および $X_{\mathrm{jnt}}$ は,条件付けモジュールによって視覚情報に統合される. はじめに,相互注意機構により $X_{\mathrm{emo}}$ をエンコードした後,以下のように順伝播型ニューラルネットワークに入力する. $ \boldsymbol{h}_{\mathrm{emo}}^{(i)}=\operatorname{FFN}\left(X_{\mathrm{emo}}\right) \odot \mathrm{FFN}\left(\operatorname{Cross} \operatorname{Attn}\left(X_{\mathrm{emo}}, \tilde{\boldsymbol{h}}_{\mathrm{tok}}^{(i)}\right)\right) $ 続いて, $\tilde{\boldsymbol{h}}_{\text {emo }}^{(i)}=f_{\text {emo_gate }}\left(\boldsymbol{h}_{\text {emo }}^{(i)}\right)$ という処理を実行する. $f_{\text {emo_gate }}(\cdot)$ は $f_{\text {gate }}(\cdot)$ と同様の構造を有する.また,同様の処理により, $X_{\mathrm{jnt}}$ をととに $\tilde{\boldsymbol{h}}_{\mathrm{jnt}}^{(i)}$ を獲得する. 最後に, $\tilde{Z}^{(i)}=\tilde{\boldsymbol{h}}_{\text {tok }}+\tilde{\boldsymbol{h}}_{\text {jnt }}^{(i)}+\tilde{\boldsymbol{h}}_{\text {emo }}^{(i)}$ という処理によって出力 $\tilde{Z}^{(i)}$ を獲得する. 図 2 提案手法のネットワーク構造 ## 3.3 Decoder エンコーダと同様に,デコーダも複数のブロックから構成される. [3] に従って, 各デコーダブロックは,最後のエンコーダブロックの出力のみならず,全てのエンコーダブロックの出力を考慮した相互注意演算を実行する. エンコーダの出力群 $\left.\{\tilde{Z}^{(i)} \mid i=1,2, \ldots, N\right.\}$ をもとに,デコーダは説明文を生成する. $i$ 番目のデコーダブロックでは,はじめに前のブロックの出力 $Y^{(i)}$ をマスク付き自己注意機構 [15] に入力した後, $\tilde{Z}^{(j)}$ との間で相互注意演算を実行することで, $\boldsymbol{h}_{\mathrm{seq}}^{(i, j)}$ を獲得する。なお, $Y^{(1)}=\hat{Y}$ は生成された単語群を表し, 学習中は Teacher Forcing を採用する. 次に,各レベルの出力をゲート構造に入力した後,それらを足し合わせる。 $ \tilde{\boldsymbol{h}}_{\text {seq }}^{(i)}=\sum_{j=1}^{N} f_{\text {seq_gate }}^{(i)}\left(\boldsymbol{h}_{\text {seq }}^{(i, j)}\right) $ $\left.\{f_{\text {seq_gate }}^{(i)}(\cdot) \mid i=1,2, \ldots, N\right.\}$ は $f_{\text {gate }}(\cdot)$ と同様の構造を有する. 最後に, $\tilde{Y}^{(i)}=\mathrm{FFN}\left(\tilde{\boldsymbol{h}}_{\text {seq }}^{(i)}\right)$ という処理によって出力 $\tilde{Y}^{(i)}$ を獲得する。なお,損失関数には交差エントロピー誤差を使用する。 ## 4 実験 ## 4.1 実験設定 本実験では,AIC タスクにおける提案手法の性能を調査した.モデルの評価には ArtEmis データセット [11]を使用した. ArtEmis データセットは, WikiArt から収集した 80,381 枚の絵画および 454,684 の感情と説明文のペアから構成される. 語彙サイズは 37,250 ,全単語数は $7,229,476$ ,平均文長は 15.9 である. 本実験では, [11] に従って当該データセットを分割した。訓練集合,検証集合,テスト集合のサンプル数はそれぞれ 338,777,19,931,39,850である. 訓練集合と検証集合を用いてそれぞれモデルのパラメータの更新とハイパーパラメータのチューニングを行い,テスト集合によってモデルの性能を測定した。 本手法で使用したエンコーダ・デコーダは, 層数が 3,隠れ層の次元数が 512, Attention Head の数が 8 であり,感情トークンの数 $N_{\mathrm{tok}}$ は 50 であった. 最適化には Adamを使用し,エポック数は 20 ,バッチサイズは 32 であった. 提案モデルのパラメータ数は 6800 万であった.学習には,メモリ 32GB 搭載の Tesla V100を 4 台使用し, 12 時間を要した. また,1つの説明文の生成に要する時間は 0.03 秒であった. 学習中は, 各エポックにおいて検証集合およびテスト集合によるモデルの評価を行い,検証集合において最も METEOR スコアが高かったときのテスト集合におけるスコアを,最終的なモデルのスコアとした。 ## 4.2 定量的結果 ベースライン手法との比較に関する定量的結果を表 1 に示す. 各スコアは, 5 回の実験における平均値および標準偏差を表す. 本実験では,Show Attend Tell (SAT)[16] および M2[3] をべースライン手法とした.これは,当該手法が代表的な説明文生成手法であり,ArtEmisにおいて良好な結果が報告されているためである. 表 1 ベースライン手法との比較に関する定量的結果 表 2 Ablation studiesに関する定量的結果 2 節で言及した自動評価尺度群のうち, [17]に従って CIDEr および SPICE を主要評価尺度に定めた。以降は各手法の CIDEr スコアのみに言及する。提案手法は 15.4 ポイントである一方,SAT と M2 はそれぞれ 12.8 ポイントと 13.8 ポイントであった. したがって,提案手法は SAT と M2をそれぞれ 2.6 ポイントと 1.6 ポイント上回った. ## 4.3 Ablation Studies Ablation Studies には,以下の 2 条件を定めた. (i)W/o conditioning modules: 条件付けモジュールを用いた感情・視覚情報の統合手法の代わりに,各エンコーダブロックの最後でそれぞれの特徵量を単純に連結する場合に対して,性能差を調査した。 (ii)More/fewer affective tokens: $N_{\text {tok }}$ を増減させることで,性能への影響を調査した。本実験では, $N_{\text {tok }}$ が 10,25,100,200 の場合の性能を比較した. 表 2 に結果を示す。“CM”は “Conditioning Module” を表す。(i) の条件では CIDEr スコアが 14.5 であった. full の条件と比較してスコアが 0.8 ポイント下回っていることから,条件付けモジュールが感情の埋め込み表現と画像特徴量のモデル化に有効であると考えられる。また,(ii)-a,(ii)-b,(ii)-c,(ii)-dの条件では,CIDEr スコアがそれぞれ 15.0,15.4,15.6, 15.0 であった. したがって,提案手法は感情トークンが 100 のときに最良のスコアを達成した。 (a) Fear Amusement Ref.: This guy has a very scary look on his face, like he's a mysterious stranger who is up to no good. M2: The man in the painting looks like he is angry about something. Ours: This man looks like he's up to no good since he's wearing a suit. Ref.: The sway of the trees seems like they are alive. The colors are vibrant and lively. M2: The tree looks like it's growing out of the ground. Ours: The trees look like they are dancing in the wind. 図 3 定性的結果 ## 4.4 定性的結果 図 3 に定性的結果を示す. 図 3-(a)では, $E=$ =“fear” であった。提案手法は “This man looks like he’s up to no good since he's wearing a suit." という説明文を生成したのに対し,ベースライン手法は “The man in the painting looks like he is angry about something." という説明文を生成した。ベースライン手法と異なり,提案手法は指定された感情である “fear”を適切に反映できたと考えられる。 図 3-(b) では, $E=$ =“amusement”であった. 提案手法の生成文は “The trees look like they are dancing in the wind.”であったが,ベースライン手法は “The tree looks like it's growing out of the ground." と生成した.提案手法はベースライン手法に比べて,より鑑賞者の感情を考慮した説明文を生成できたと考えられる。 ## 5 おわりに 本研究では,絵画に対する鑑賞者の感情を考慮した説明文を生成するモデルを構築した. 本研究の貢献を以下に示す. ・ゲート付き相互注意機構を用いて,視覚情報を感情ラベルで条件付けする AVE モジュールを提案した。 ・エンコーダにおいて,画像の領域・グリッド特徵量を融合するための感情トークンを導入した. ・ArtEmis データセットにおいて,提案手法がベースライン手法を全ての評価尺度で上回る性能を得た。 ## 謝辞 本研究の一部は,JSPS 科研費 $20 \mathrm{H} 04269$ ,JST CREST,NEDO の助成を受けて実施されたものである. ## 参考文献 [1] Saki Asakawa, João Guerreiro, Dragan Ahmetovic, et al. The Present and Future of Museum Accessibility for People with Visual Impairments. In ASSETS, pp. 382-384, 2018. [2] Leo Tolstoy and Aylmer Maude. What Is Art? Oxford University Press, 1959. [3] Marcella Cornia, Matteo Stefanini, Lorenzo Baraldi, and Rita Cucchiara. Meshed-Memory Transformer for Image Captioning. In CVPR, pp. 10578-10587, 2020. [4] Van-Quang Nguyen, Masanori Suganuma, and Takayuki Okatani. GRIT: Faster and Better Image captioning Transformer Using Dual Visual Features. In ECCV, 2022. [5] Alec Radford, Jong Wook Kim, Chris Hallacy, et al. Learning Transferable Visual Models From Natural Language Supervision. In ICML, pp. 8748-8763, 2021. [6] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. BLEU: a method for automatic evaluation of machine translation. In ACL, pp. 311-318, 2002. [7] Satanjeev Banerjee and Alon Lavie. METEOR: An Automatic Metric for MT Evaluation with Improved Correlation with Human Judgments. In ACL, pp. 65-72, 2005. [8] Chin-Yew Lin. ROUGE: A Package for Automatic Evaluation of Summaries. In ACL, pp. 74-81, 2004. [9] Ramakrishna Vedantam, C Lawrence Zitnick, and Devi Parikh. CIDEr: Consensus-based Image Description Evaluation. In CVPR, pp. 4566-4575, 2015. [10] Peter Anderson, Basura Fernando, Mark Johnson, and Stephen Gould. SPICE: Semantic Propositional Image Caption Evaluation. In ECCV, pp. 382-398, 2016. [11] Panos Achlioptas, Maks Ovsjanikov, Kilichbek Haydarov, Mohamed Elhoseiny, et al. ArtEmis: Affective Language for Visual Art. In CVPR, pp. 11569-11579, 2021. [12] Ze Liu, Yutong Lin, Yue Cao, Han Hu, Yixuan Wei, et al. Swin Transformer: Hierarchical Vision Transformer using Shifted Windows. In ICCV, pp. 10012-10022, 2021. [13] Ranjay Krishna, et al. Visual Genome: Connecting Language and Vision Using Crowdsourced Dense Image Annotations. IJCV, Vol. 123, No. 1, pp. 32-73, 2017. [14] Shaoqing Ren, Kaiming He, Ross Girshick, and Jian Sun. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks. In NeurIPS, Vol. 28, 2015. [15] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, et al. Attention is all you need. In NeurIPS, Vol. 30, 2017. [16] Kelvin Xu, Jimmy Ba, Ryan Kiros, Kyunghyun Cho, et al. Show, Attend and Tell: Neural Image Caption Generation with Visual Attention. In ICML, pp. 2048-2057, 2015. [17] Matteo Stefanini, Marcella Cornia, Lorenzo Baraldi, et al. From Show to Tell: A Survey on Deep Learning-based Image Captioning. arXiv preprint arXiv:2107.06912, 2021. [18] Steven J Rennie, Etienne Marcheret, Youssef Mroueh, Jer- ret Ross, and Vaibhava Goel. Self-critical Sequence Training for Image Captioning. In CVPR, pp. 7008-7024, 2017. [19] Simao Herdade, Armin Kappeler, Kofi Boakye, and Joao Soares. Image Captioning: Transforming Objects into Words. In NeurIPS, Vol. 32, 2019. [20] Luowei Zhou, Hamid Palangi, Lei Zhang, et al. Unified Vision-Language Pre-Training for Image Captioning and VQA. In AAAI, Vol. 34, pp. 13041-13049, 2020. [21] Aly Magassouba, Komei Sugiura, and Hisashi Kawai. Multimodal Attention Branch Network for PerspectiveFree Sentence Generation. In CoRL, pp. 76-85, 2020. [22] Tadashi Ogura, et al. Alleviating the Burden of Labeling: Sentence Generation by Attention Branch EncoderDecoder Network. IEEE RA-L, Vol. 5, No. 4, pp. 59455952, 2020. [23] Motonari Kambara, et al. Case Relation Transformer: A Crossmodal Language Generation Model for Fetching Instructions. IEEE RA-L, Vol. 6, No. 4, pp. 8371-8378, 2021. [24] Cesc Chunseong Park, Byeongchang Kim, et al. Attend to You: Personalized Image Captioning with Context Sequence Memory Networks. In CVPR, pp. 895-903, 2017. [25] Cesc Chunseong Park, et al. Towards Personalized Image Captioning via Multimodal Memory Networks. IEEE Trans. PAMI, Vol. 41, No. 4, pp. 999-1012, 2018. [26] Yuya Miyoshi, et al. Automatic Affective Image Captioning System using Emotion Estimation. Trans. of Japan Society of Kansei Engineering, Vol. 18, , 2019. [27] Yiming Zhang, Min Zhang, Sai Wu, and Junbo Zhao. Towards unifying the label space for aspect-and sentencebased sentiment analysis. In ACL, pp. 20-30, 2022. [28] Marten De Raedt, Fréderic Godin, Chris Develder, et al. Robustifying sentiment classification by maximally exploiting few counterfactuals. In EMNLP, 2022. [29] Tomoyuki Kajiwara, et al. WRIME: A New Dataset for Emotional Intensity Estimation with Subjective and Objective Annotations. In NAACL, pp. 2095-2104, 2021. ## A 関連研究 説明文生成の分野においては,これまで多くの研究が行われている $[16,18,19,20]$. 代表的なサーべイ論文としては [17] が挙げられる。 Dense Captioning は,自然言語に基づき,画像を領域単位で密に説明するものである。特に $[21,22,23]$ は,画像中の物体に関する把持文を生成するモデルを提案している. Personalized Captioning は, 利用者が有する知識や語彙,文体等を考慮した説明文の生成に取り組むものである $[24,25,26]$. 自然言語と感情に関する研究も多く実施されている.DPL[27] は,入力文に対してアスペクトベー スの感情分類を行う手法である. [28] は,反事実的サンプルを訓練集合に加えることで,感情分類器の頑健性を向上させる研究である.また,WRIME[29] は感情分析の分野における標準データセットであり,SNS 上の日本語の投稿に対する書き手および読み手の感情から構成される。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-5.pdf
# 画像キャプション生成及び物体認識を用いた 駄酒落文ランキング手法の評価 浅野歴 1,2 谷津元樹 1 森田武史 1,2 江上周作 2 鵜飼孝典 2,3 福田賢一郎 2 1 青山学院大学 2 産業技術総合研究所 3 富士通株式会社 c5622198@aoyama.jp \{yatsu,morita\}@it.aoyama.ac.jp ugai@fujitsu.com \{s-egami,ken.fukuda\}@aist.go.jp ## 概要 ソーシャルロボットが画像大力より得られる周辺状況に基づいた発話を行う際,駄酒落等のユーモアを付加できれば,ユーザはロボットに対しより高い親近感を持ちうると考えられる。本研究では既存のキャプション生成モデルや物体検出を用いて画像から画像内容に即した語を抽出し,駄酒落文を収集したコーパスから画像の描画内容に即した駄酒落文を選択するためのランキング手法を提案する. ## 1 はじめに 世界規模の少子高齢化の進行と,その結果である高齢者単身世帯の急激な増加は看過できない問題となっている。 そのため, 人手を要しない人工知能技術による支援は不可欠となる。同技術の代表格となりうるのが,人間らしい振る舞いの可能な対話知能である。その具体例として,言語的ユーモアを交え笑いを通して不安を軽減する能力および視覚入力としての画像からの周辺状況の推定能力が挙げられる. さらに,両者を統合したユーモアの表現能力は人間そのものに近いといえる. 本研究ではユーモア性を含む言語表現として駄酒落に注目した. 画像キャプション生成とは,画像を入力として,その内容について記述した自然言語文を出力する問題である [1]. この問題は画像認識および自然言語テキスト生成という2つのタスクを同一のシステムに統合して解く必要がある. 駄酒落を含む画像キャプション生成には,画像とその描画内容に即した駄酒落文のペアを集めたデー タセットが必要となる。しかし,現在,そのようなデータセットは存在しておらず,画像の描画内容に即した駅酒落文を手動で作成するコストは高く, データセットの作成には時間を要する。そのため,本研究では画像から駄酒落を含むキャプションを生成する前段階として, 既存のキャプション生成モ デルや物体検出を活用し,画像に合った駄酒落デー タベース [2] 内の駄酒落文を選択することを目的とする。 ## 2 関連研究 荒木らの研究 [2] では前述した背景においてユー モア理解・生成技術の基盤となるデータセットを作成することを目的として,67,000 件の駄酒落文を収録したコーパスを構築している。本研究では,この駄酒落データベース内に存在する事例より, 入力画像が描写している内容に対して最適な駄酒落文を選択する. Chandrasekaran らの研究 [3] では,画像から英語の駄酒落(語呂合わせ)を含むキャプション生成を課題として,画像キャプション生成とコーパス検索に基づく二つの手法を提案している. 画像キャプション生成に基づく手法では,画像キャプション生成モデルを用いて得られた単語を,事前に用意した語呂合わせが成り立つ単語や発音が近い単語のリストに含まれる単語に強制的に絞り込み,強制的に絞り込まれた単語を使い画像キャプションを生成する.コーパス検索に基づく手法では,一般的な画像キャプション生成のモデルを用いて得られた単語と,事前に用意した語呂合わせが成り立つ単語や発音が近い単語の両方が含まれる文をコーパスから検索する。 関連研究は,画像から英語の駄酒落を含むキャプション生成を課題としているのに対して,本研究では,駄酒落データベースから画像に合った日本語の駄酒落文を選択することを目的としている。 ## 3 提案手法の構成 本研究手法では,最初に画像を入力として,キャプション生成と物体検出を行う。キャプション生成に関しては,日本語画像キャプションデータセット STAIR Captions[4] と MS COCO[5] データセットの画像を用いて日本語キャプション生成モデルを学習 図 1 駄酒落文スコア計算の手順 し,このモデルに基づいて画像から日本語のプレー ンキャプションを生成する. 生成されたプレーンキャプションに対して重要語抽出と形態素解析を行う。重要語抽出では TermExtract[6]を用いてプレー ンキャプション含まれる重要な単語を抽出する。形態素解析では $\mathrm{MeCab}[7]$ を使用しプレーンキャプションを形態素に区切る. 物体検出では物体検出モデル YOLOX[8] を用いて入力画像から物体ラベルを抽出する。日本語 WordNet[9] を用いて,抽出した重要語, 形態素, 物体ラベルの同義語検索する. 駄酒落文, 重要語, 形態素, 物体ラベル, 同義語を入力として,駄酒落文のスコアを計算し,ランキングを行い,入力画像の描画内容に即した駄酒落文を選択し, 出力する. 以下では,提案システムの構成要素の詳細について述べる。 ## 3.1 画像キャプション生成 本研究では, Show and Tell モデル [10]を用いて日本語画像キャプションデータセット STAIR Captions[4]を学習した日本語画像キャプション生成モデルを用いる. 日本語画像キャプション生成を用いる理由として,画像から駄酒落文を選択するときに日本語画像キャプション生成で生成された文と似た文を探すことで画像にあった䭾酒落文を選択できると考えたからである. STAIR Captions は日本語での画像キャプション生成のために人手で構築された最大規模のデータセットであり,これを訓練デー タとして学習したモデルのキャプション生成精度が,同一の画像を使用する MS COCO[5] における英文キャプションに機械翻訳を行い,得られた文を訓練データとした場合を上回ることが判明している. このことから STAIR Captions は優れたデータセットであるといえるため,本研究では STAIR Captions を使用する. 日本語画像キャプション生成モデルから得られたキャプションをプレーンキャプションと呼ぶ. ## 3.2 物体検出 物体検出とは画像や動画に写っている物体のラベル(物体ラベル)を検出するタスクである.物体検出を本研究に用いる理由は,画像に描写されている物体の呼称がプレーンキャプションの生成結果に含まれなかった場合でも,物体検出の結果に含まれていれば駄酒落文選択に利用できる語の数が増加する場合があるためである. 本研究では物体検出を行うために,リアルタイム物体検出アルゴリズムである YOLO[11] の改良型である YOLOX[8] を用いる. ## 3.3 形態素解析 プレーンキャプションから形態素解析エンジン MeCabを用いて形態素を抽出する. 形態素解析を本研究に用いることにより,プレーンキャプションから抽出した形態素と駄酒落文から抽出した形態素の共通部分を抽出し,画像の描画内容に即した駄酒落文を選択するためのスコアとして利用できる. ## 3.4 重要語抽出 生成されたプレーンキャプションから TermExtract[6] を用いて重要語を抽出することにより,プレーンキャプションに含まれる単語の重要度を求めることができる.重要度の高い語を多く含む候補文を優先することにより,より画像の内容に適した䭾酒落文を選択できると考えられる。 ## 3.5 同義語検索 プレーンキャプションから形態素解析により抽出された単語,物体検出により画像から抽出された物体ラベル,プレーンキャプションから重要語抽出により抽出された重要語の各同義語を,日本語 WordNet[9]を用いて検索する.これらの同義語集合に重みを与えることにより,画像の描写に関連性の高い駄酒落文をより多く比較の対象とすることができると考えられる。 ## 3.6 駄酒落文選択 図 1 に,本研究が提案する駅酒落文スコア計算の手順を示す. 駄酒落文選択は以下の 1 から 8 の手順で行う. 式 (1) から式 (8) における記号の説明を表 1 に示す. 1. 式 (1)より駄酒落文に含まれるプレーンキャプションから抽出した形態素に重み付けをする。 $ f_{t}\left(c, d, w_{t}\right)=w_{t} \cdot\left|T_{c} \cap T_{d}\right| $ 2. 式 (2) より駄酒落文に含まれるプレーンキャプションから抽出した形態素の同義語に重み付けをする。 $ f_{t s}\left(c, d, w_{t s}\right)=w_{t s} \cdot\left|\left.\{S_{t_{c}} \cap T_{d} \mid t_{c} \in T_{c}\right.\}\right| $ 3. 式 (3) より駄酒落文に含まれるプレーンキャプションから抽出した重要語に重み付けをする. $ f_{i t}\left(c, d, w_{i t}\right)=w_{i t} \cdot\left|I T_{c} \cap T_{d}\right| $ 4. 式 (4)より駄酒落文に含まれるプレーンキャプションから抽出した重要語の同義語に重み付けをする。 $ f_{i t s}\left(c, d, w_{i t s}\right)=w_{i t s} \cdot\left|\left.\{S_{t_{c}} \cap T_{d} \mid t_{c} \in I T_{c}\right.\}\right| $ 5. 式 (5) より駄酒落文に含まれる画像から抽出した物体ラベルに重み付けをする。 $ f_{o}\left(i, d, w_{o}\right)=w_{o} \sum_{o \in O_{i} \cap T_{d}} C S_{o} $ 6. 式 (6) より駄酒落文に含まれる画像から抽出した物体ラベルの同義語に重み付けをする。 $ f_{o s}\left(i, d, w_{o s}\right)=w_{o s} \sum_{o \in\left.\{o \in O_{i} \mid s \in S_{o} \wedge s \in T_{d}\right.\}} C S_{o} $ 7. 式 (7)より式 (1) から式 (6) により求めた重みの合計值を駄酒落文のスコアとして計算する. $ \begin{aligned} f_{s}(i, d, \boldsymbol{w})= & f_{t}\left(I C_{i}, d, w_{t}\right)+f_{t s}\left(I C_{i}, d, w_{t s}\right)+ \\ & f_{i t}\left(I C_{i}, d, w_{i t}\right)+f_{i t s}\left(I C_{i}, d, w_{i t s}\right)+ \\ & f_{o}\left(i, d, w_{o}\right)+f_{o s}\left(i, d, w_{o s}\right) \end{aligned} $ 8. 式 (8) よりスコアの高い上位 $\mathrm{n}$ 件の駄酒落文とそのスコアを出力する. DajareSearch $(i, n, \boldsymbol{w})=\left.\{\left(d_{1}, s\right): d_{1} \in D \wedge\right.$ $\left.\left|\left.\{d_{2} \in D s=f_{s}\left(i, d_{1}, w\right)<f_{s}\left(i, d_{2}, w\right)\right.\}\right|<n\right.\}$ 本研究では $w_{t}: 50, w_{t s}: 25, w_{i t}: 100, w_{i t s}: 50$, $w_{o}: 500, w_{o s}: 250$ とする. 図3 に入力 ${ }^{1}$ 及び表 3 に出力の例を示す.  表 1 式(1)から式(8)における記号の説明 $d \quad$ 駅酒落文 c 画像キャプション $n$ 取得する駄酒落文とスコアの数 $D \quad$ 駄酒落文のセット $w$ スコアの重みべクトル $\boldsymbol{w}=\left(w_{t}, w_{t s}, w_{i t}, w_{i t s}, w_{o}, w_{o s}\right)$ $w_{t}$ 形態素スコアの重み $w_{t s}$ 形態素の同義語スコアの重み $w_{i t}$ 重要語スコアの重み $w_{i t s}$ 重要語の同義語スコアの重み $w_{o}$ 物体ラベルスコアの重み $w_{o s}$ 物体ラベルの同義語スコアの重み $I C_{i} \quad$ 画像ファイル $i$ のキャプション $T_{\text {text }} \quad$ text 中のトークンのセット $I T_{\text {text }}$ text 中の重要語のセット $S_{\text {token }}$ token の同義語セット $C S_{o}$ 画像ラベル $o$ の確信度を 10 倍し,小数点以下を切り捨てた値 図 2 駄酒落文 17500 文におけるスコアの度数分布 ## 4 実験と評価 ## 4.1 実験方法 MSCOCO 内の画像 3500 枚を対象に各画像に対し, スコアの高い上位 5 件の䭾酒落文とそのスコアとその内訳,画像に対するプレーンキャプション,物体ラベル,同義語を取得した. 本実験で得られた 17500 文の駄酒落に対しての分析を表 2 に示す. 1 行目にはスコアの要因となる 6 つ指標を示し,2 行目には 17500 文の内,スコアが使われた駄酒落文の数を示す. $3 \sim 8$ 行目には 1 文の駄酒落文に対して,含まれていた単語の数の最大,最小,平均,中央值, 最頻値,分散である. 図 2 は 17500 文の駄酒 表 2 画像 3500 枚の入力により得られる䭾酒落文 17500 文の各要素の集計 図 3 入力画像の例 表 3 駄酒落文の出力結果 落文のスコアの度数分布である. スコアの中央値は 4750 となった. ## 4.2 考察 平均を見たときにプレーンキャプションの形態素が最大の 3.198 となった. これは重要語や物体ラべル,同義語にはない助詞の「は,が,を」などが含まれているので他に比べて相対的に多い.2 番目に平均が高い物体ラベルは本研究では物体ラベルの重み,つまり $w_{o}$ を 1 番高く設定しているため,物体ラベルを含んでいる䭾酒落文が多く選択されたと考える。それぞれの同義語に関しては,重みを低く設定しているが同義語が寄与している駄酒落文が少なからずあることがあることが分かった. しかし,同義語などを提案手法に用いたことによって画像に対して適切な,ユーモアのある駄酒落文を選択できているかの評価ではない. 図 2 ではスコアが 4000 台の駄酒落文の数が 1 番多くなった. これは, 本研究では物体ラベルの重みを 500 と高く設定しており,物体の確信度が 0.8 を超えると,その物体ラベルを含んでいる䭾酒落文のスコアが 4000 を超えるからだと考える. ## 5 まとめと課題 本研究では既存のキャプション生成モデルや物体検出を活用し画像に合った駄酒落文を選択するためのランキング手法を提案した. 提案手法では, STAIR Captions データセットより学習した日本語キャプション生成モデルよりプレーンキャプションを生成し, 得られたキャプションから重要語および他の形態素を抽出し, 画像からの物体検出を行い画像に写っている物体の名前(物体ラベル)を得た. このようにして得られた単語に対して, 同義語取得を行った。物体ラベル及び重要語を重視して重多付けをした. 出力として駄酒落データベースにおいて重みの和が最大となる駅酒落文を選択した。実験では,駄酒落文のスコアの要因となっている 6つについて分析を行った. その結果どの指標も䭾酒落文選択に寄与していることが分かった. 今後の課題として,駅酒落文選択における重みべクトルを機械学習により求めることが挙げられる. また,同義語などを提案手法に入れたことによってよりよい駄酒落文が選択できているかの評価. さらには, 本研究の提案手法は, 駄酒落データベースを参照しているため, 出力する駄酒落文が限定されており,新しい駄酒落文を生成できないことも課題である. 今後は,キャプション生成手法を用いて駄酒落データベース内の駄酒落文だけでなく多種多様の駄酒落文を生成できるようにしたい. さらに,画像に写っている人の動作や位置関係に関する動詞を検出可能にすることで,より画像の描写内容に即した駄酒落文の選択や生成が可能になると考えられる. ## 謝辞 本研究は JSPS 科研費 JP21K12007 の助成を受けたものです. 本研究成果の一部は, 国立研究開発法人新エネルギー・産業技術総合開発機構 (NEDO) の委託業務 (JPNP20006) の結果得られたものです. ## 参考文献 [1] 牛久祥孝. 画像に関連した言語生成の取組み. 人工知能, Vol. 34, No. 4, pp. 483-491, 2019. [2] 荒木健治, 内田ゆず, 佐山公一, 谷津元樹. 駄酒落デー タベースの構築及び分析. 人工知能学会第 2 種研究会ことば工学研究会資料 SIG-LSE-B702-3, pp. 13-24, 2017 . [3] Arjun Chandrasekaran, Devi Parikh, and Mohit Bansal. Punny captions: Witty wordplay in image descriptions. In Proceedings of the $\mathbf{2 0 1 8}$ Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), pp. 770-775. Association for Computational Linguistics, 2018. [4] 吉川友也, 重藤優太郎, 竹内彰一. Stair captions: 大規模日本語画像キャプションデータセット.言語処理学会第 23 回年次大会 (NLP2017), 2017. [5] T.-Y. Lin, M. Maire, S. Belongie, et al. Microsoft coco: Common objects in context. In European Conference on Computer Vision (ECCV 2014). Springer, Cham, 2014. [6] 中川裕志, 森辰則, 湯本紘彰. 出現頻度と連接頻頻度に基づく専門用語抽出. 自然言語処理, Vol. 10, No. 1, pp. 27-45, 2003. [7] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to japanese morphological analysis. In Proceedings of the $\mathbf{2 0 0 4}$ Conference on Empirical Methods in Natural Language Processing (EMNLP-2004), pp. 230-237, 2004. [8] Zheng Ge, Songtao Liu, Feng Wang, Zeming Li, and Jian Sun. Yolox: Exceeding yolo series in 2021. In arXiv preprint arXiv:2107.08430, 2021. [9] H. Isahara, F. Bond, K. Uchimoto, M. Utiyama, and K. Kanzaki. Development of japanese wordnet. In the 6th Edition of its Language Resources and Evaluation Conference (LREC 2008), Marrakech, 2008. [10] O. Vinyals, A. Toshev, S. Bengio, and D. Erhan. Show and tell: A neural image caption generator. In CVPR 2015, pp. 3156-3164, 2015. [11] J. Redmon, S. Divvala, R. Girshick, and A. Farhadi. You only look once: Unified, real-time object detection. In CVPR 2016, 2016.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-6.pdf
# クロスモーダル類似度に基づくカリキュラム学習による 画像キャプション生成 張 宏寛 ${ }^{1}$ 菅原 朔 2 相澤 彰子 ${ }^{2}$ 周雷 1 笹野 遼平 1 武田 浩一 1 1 名古屋大学 2 国立情報学研究所 \{zhang.hongkuan.k5, zhou.lei.e1\}@s.mail.nagoya-u.ac.jp \{saku, aizawa\}@nii.ac.jp \{sasano, takedasu\}@i.nagoya-u.ac.jp ## 概要 画像キャプションモデルには,様々な画像の内容をテキストで表現するための高度な汎化能力が求められる. 多くの既存手法では,一般に画像とキャプションのペアの学習難易度の違いを考慮せず,モデルの訓練において同等に扱っている. 一方,学習データの難易度を考慮するカリキュラム学習をキャプション生成に導入する手法が先行研究で提案されているが,難易度の測定には事前の定義や評価モデルの訓練が必要である。本稿では,シンプルかつ効率的な学習難易度測定法として,事前学習された Vision-Language モデルによって計算されたクロスモーダル類似度をキャプションデータの難易度として用いる手法を提案する。COCO および Flickr30k データセットを用いた実験の結果,提案手法は事前定義や追加の学習コストが不要で, ベースライン手法と同等以上の性能・収束速度を達成できることを示した. さらに,未知のデータやドメイン外のデー タにおいて提案手法は高い性能を示し, 汎化能力の向上が示唆された. ## 1 はじめに 画像キャプション生成は画像処理や自然言語処理分野で広く研究されている. しかし, 多くの既存手法は,学習用の画像とキャプションのぺアを区別せず扱っており,データごとの学習難易度の違いが無視されている. 図 1 に示すように,キャプションデータセットでは,スタイルや複雑度が異なる参照文が一般に各画像に複数付与されている. この多様性はモデルの学習に偏りのある難易度を導入し, 難易度の高いデータで訓練されたときにモデルを望ましくない方向に学習させる可能性がある [1]. カリキュラム学習 (Curriculum Learning; CL) は, 学 図 1 事前学習済み Vision-Language モデル CLIP により計算されたクロスモーダル類似度スコアの例. 赤色と青色の数字は,それぞれスコアの高い方と低い方を示す. 習難易度に応じた順番でデータをモデルに学習させて,モデル性能と収束速度の向上を目指す手法である。しかし,CLを用いた画像キャプション生成の既存手法は,難易度測定に次のような欠点がある: 1) ドメインの専門知識やヒューリスティックが必要である点 [2], 2) 二つモーダルの難易度スコアを単純に加算しており,クロスモーダルな特徴を考慮できていない点 [3],3) キャプションデータを用いて評価モデルを事前に訓練する必要がある点 (Bootstrap 手法) [2,1]. 本稿では,事前学習済み Vision-Language (VL) モデルを用いて,シンプルかつ効率的な難易度の測定手法を提案する.多くの VL モデルは,対応する画像とテキストをマッチングする事前学習タスクで訓練されるため, クロスモーダル類似度が計算可能である。この類似度は画像とテキストの関連性に対するモデルの確信度を表し,スコアが低いほど,判定が難しいか品質が低いデータであることを意味する $[4,5]$. 図 1 に示すように, シンプルな画像や適切な参照文を含むぺアに高いスコアを与えて,逆に複雑な画像や関連性が弱い参照文を含むぺアには低いス コアを与える.本研究では,高いスコアを持つぺアが関連性の高さから学習しやすいデータと考え,簡単なデータから順番にモデルを学習させる. 我々は, COCO [6] および Flickr30k [7] データセットを用いた実験の結果,クロスモーダル類似度に基づくカリキュラム学習で訓練されたモデルが,専門知識や追加の学習コストなしにモデル性能と収束速度の向上を達成することを示した. さらに, 評価対象となるデータの知識を持つ VL モデルを用いるとさらに性能が向上した. また, 未知のデータやドメイン外のデータにおいてより高い精度を達成し, 汎化能力の向上を示した. 最後に, 提案手法をよりシンプルなモデルに適用することでも大きな性能改善が達成され,小さなモデルしか使えない場合でも提案手法が利用可能であることが示唆された. ## 2 関連研究 カリキュラム学習はモデルの汎化性能と収束速度を向上させる訓練手法として,機械翻訳 $[8,9]$ や画像分類 [10] などの研究に応用されている. データの学習難易度の測定は,事前定義を行う手法とモデルを利用する手法に分けられる.前者は画像中のオブジェクト数 [11] やテキストの長さ [12]などデータの特徴に基づくヒューリスティックにより測定する。後者はクロスエントロピー[13] やパープレキシティ [14] に基づくモデルの不確実性により測定する. キャプションデータの難易度測定に関しては, Alsharid ら [3] は超音波画像を用いたキャプション生成において, 視覚的難易度の測定に Wasserstein 距離を,言語的難易度の測定に TF-IDFを用いて両者を加算する手法を提案した. Dong ら [1] は複数の Bootstrap モデルを訓練し, 各画像に複数のモデルでそれぞれ文生成を行い,生成文の BLEU スコアの平均值を難易度とした. Liu ら [2] は CT 画像のレポー ト生成において医学ドメインのヒューリスティックと Bootstrap モデル両方を用いて難易度を測定した. これらの研究とは異なり, 本研究はクロスモーダル類似度を利用した効率的な難易度測定法を提案し,一般的なドメインのモデル性能の改善を目指す. ## 3 提案手法 ## 3.1 クロスモーダル類似度 クロスモーダル類似度の計算には, ウェブ上の画像-テキストペアで事前訓練された CLIP [15],およ び,人手でアノテーションされた画像-キャプションペアで事前訓練された ViLT [16] を用いる. CLIP を用いた類似度の計算では, $P$ 個のパッチを含む画像 $X=\left(x_{1}, \ldots, x_{P}\right)$ と $T$ 個のトークンからなるテキスト $Y=\left(y_{1}, \ldots, y_{T}\right)$ を与えると,CLIP はそれぞれのモーダルをエンコードして,視覚的な特徴 $\mathbf{x}$ とテキスト的な特徴 $\mathbf{y}$ を出力する. これらを用いて,類似度を式(1)のように計算する。 $ D_{\text {CLIP_sim }}=\cos (\mathbf{x}, \mathbf{y}) $ 一方で,ViLTを用いた類似度の計算では, [class] トークンを先頭とし,画像とテキストの入力を連結させ,クロスモーダルエンコーダによって式 (2) のようにエンコードする. $ \operatorname{ViLT}(X, Y)=x_{[\text {class }]}^{\prime}, x_{1}^{\prime}, \ldots, x_{P}^{\prime}, y_{1}^{\prime}, \ldots, y_{T}^{\prime} $ そして,この結合表現 $x_{\text {[class] }}^{\prime}$ を, 事前学習済み全結合層 FFN に与え, 類似度を式 (3)のように計算する。 $ D_{\text {ViLT_sim }}=\operatorname{sigmoid}\left(\operatorname{FFN}\left(x_{\text {[class] }}^{\prime}\right)\right) $ ## 3.2 訓練手法 クロスモーダル類似度によってソートされたデー タでモデルを訓練するときには,データを与えるスケジュールを定める必要がある. 本論文は, 先行研究で広く使われている Baby Step [12] 学習スケジュールを用いる。具体的には,まずソートされたデータセットを $L$ 個のサブセットに分割し, 最も簡単なサブセットからモデルを訓練する. そして, 検証セットでモデルの性能が数エポックにわたっても改善しない場合に,訓練が収束したとみなして,より難しいサブセットをマージして訓練を継続する。全てのサブセットをマージして収束を確認したら訓練を終了する.実験では,このスケジュールをすべての CL 手法に適用し, 検証セットにおけるモデルの性能に基づいて最適なサブセットの数を調整する. この提案手法を Simi-CL と呼ぶ. ## 3.3 ベースライン Addup-CL 各モダリティの難易度を計算して加算する. 提案手法と公平に比較するために,各モダリティの難易度評価にも事前学習済みモデルを用いる. 具体的には,視覚的な難易度 $D_{v}$ を事前学習済み物体検出器 BUTD [17], 言語的な難易度 $D_{t}$ を言語モデル GPT-2 [18] で測定し, 両者のスコアを重み 付け和で加算して評価値 $D_{\text {addup }}$ を得る. $ \begin{aligned} D_{v} & =-\sum_{k=1}^{K} \sum_{n=1}^{N} p_{k, n} \log p_{k, n}, \\ D_{t} & =-\sum_{t=1}^{T} \log p\left(y_{t} \mid y_{<t}\right), \\ D_{\text {addup }} & =\lambda \times D_{v}+(1-\lambda) \times D_{t} . \end{aligned} $ ここで, $K$ は画像から確信度が高い上位 $K$ 個の検出ボックス, $N$ は検出クラスの種類, $p_{k, n}$ は $k$ 番目のボックスが $n$ 番目のクラスに分類される確率, $\lambda$ は重みを表す。 Bootstrap-CL事前に学習および評価の対象となるデータセットでキャプションモデルを訓練して難易度スコアを算出する.具体的には,評価対象となるデータの訓練セットを用いて,一般的な訓練手法でデータの難易度を考慮せずにモデルを学習させ,訓練済みモデルで画像-キャプションペアに対して文生成のクロスエントロピーを計算する。 $ D_{\text {bootstrap }}=-\sum_{t=1}^{T} \log p\left(y_{t} \mid y_{<t}, X\right) $ ## 4 実験 ## 4.1 実験設定 実験は COCO と Flickr30k データセットで行い, ともに Karparthy 分割 [19] を使用し,訓練/検証/テストセットのデータの割合はそれぞれ $113 \mathrm{k} / 5 \mathrm{k} / 5 \mathrm{k}$ と $29 \mathrm{k} / 1 \mathrm{k} / 1 \mathrm{k}$ とした.キャプションモデルは公開されているコード [20] に基づく Vanilla Transformer を実装し,ハイパーパラメータの設定は,バッチサイズを 10 ,学習率を $3 \mathrm{e}-4$ , ドロップアウト率を 0.4 とした. CL 関連の設定について,Baby Step 学習のデータ分割数 $L$ は,検証セットでの性能に基づいて $\mathrm{COCO}$ と Flickr30kでそれぞれ 5 と 3 とした. Addup-CL のハイパーパラメータは,物体検出クラスの数 $N$ と検出ボックスの数 $K$ をそれぞれ 1600 と 10 に設定し, 設定した. Simi-CLの類似度計算に用いるモデルは, CLIP-base と ViLT-base 以外に,ViLT の作者から公開された評価対象となるデータ (COCO と Flickr30k)で微調整されたモデル (ViLT-CC と ViLT-FL と表記する) も用いて比較する。性能評価には BLEU-4 [21], METEOR [22],CIDEr[23],SPICE [24] の 4 つの指標を用いる。 図 2 学習中の二つのデータセットの検証セットにおける Vanilla Transformer と CL ベース Transformer の性能曲線. ## 4.2 実験結果 検証セットでのモデルの性能を図 2 に示す. $\mathrm{COCO}$ では,全ての CL 手法が性能を向上させ, Vanilla Transformer の最高精度に達する収束時間が短くなっていることが分かる.特に,Simi-CL は Bootstrap-CL と比較して追加学習のコストなしに同等の性能を達成でき,また両方とも性能と収束速度が Addup-CL より優れている. Flickr30k でも同様の現象が観察できるが,改善の幅が COCO より小さく, Addup-CL は性能の改善が見られなかったため, CL 手法がより大きなデータセットに対して効果的であることが推測される. テストセットでのモデルの性能を表 1 に示す, CL ベースモデルの性能は検証セットと類似している.Simi-CLのうち,ViLT-base を用いる場合は, Bootstrap-CL と同等の性能に達しているが,大量のデータから事前学習された CLIP-base の性能より下回っている.しかし,各評価対象となるデータセットで微調整された ViLT モデルを用いる場合は, ViLT-base や CLIP を上回る性能が達成されており,評価対象となるデータの知識を持つ教師モデルがカリキュラムの設計に役立つことが分かる. ## 4.3 考察 まず,カリキュラム学習されたモデルの汎化性能を考察するために,先行研究 [25] を参照して分布外データセットによる評価を行った。具体的には,COCO で訓練された最高性能のモデルを用いて,Flickr30k のテストセットでキャプションを生成して評価した,結果を表 2 に示す. Simi-CL によって学習されたモデルの性能が Vanilla モデルと Bootstrap-CL 手法を上回り,汎化能力が向上していることが分かる. 表 $1 \mathrm{COCO}$ と Flickr30kにおけるべースライン手法と提案手法で訓練されたモデルの性能の比較. B @ $4 , \mathrm{M}, \mathrm{C}, \mathrm{S}$ はそれぞれ BLEU-4,METEOR,CIDEr,SPICEを表す。 表 2 COCOにおける最高性能のモデルを用いて Flickr30k でテストした結果. 表 3 COCO における最高性能のモデルを用いて Nocaps の検証セットを評価した結果. 次に,カリキュラム学習されたモデルの困難なデータにおける性能を測定するため, Nocaps [26] データセットでモデルの性能を評価した. Nocaps では,COCOにおける画像のオブジェクトの種類と一致,部分一致および不一致の画像を含んでおり, その一致度に基づいてデータセットを in-domain, near-domain と out-domain というサブセットに分割した. Nocaps の設定に基づき,COCO で訓練された最高性能のモデルを用いて各サブセットでモデルの性能を測定した. 表 3 に示される結果から,全てのサブセットで Simi-CL は Bootstrap-CL より高いスコアを達成し,特に困難な near-domain と out-domain サブセットで CIDEr スコアを大幅に向上させることが分かった. 最後に,Simi-CL が異なるアーキテクチャのモデ 表 4 Simi-CLを異なるアーキテクチャのモデルに適用した場合の COCO における性能. ルでも有効かどうかを調査するため,LSTM ベー スのモデル BUTD と改良された Transformer モデル AoANet [27] に対しても Simi-CLを適用した. 表 4 に示した結果のように,Simi-CL はよりシンプルな LSTM アーキテクチャに適用したときに改善の効果がより大きく,カリキュラム学習はサイズが小さいモデルでより効果的であることが示唆された. ## 5 結論 本稿では,カリキュラム学習による画像キャプション生成のための, クロスモーダル類似度に基づく効率的な難易度測定手法を提案した。提案手法である Simi-CL はモデルの性能と収束速度を向上させ,特に大きなデータセットで効果的であった.また,評価対象となるデータセットの知識を持つ VL モデルを用いるとさらに性能が向上した. 考察では,未知やドメイン外のデータで Simi-CL が最も高いスコアを達成し, モデルが高い汎化能力を得ることが分かった. 最後に,Simi-CLを異なるアーキテクチャのモデルに適用し,よりシンプルなモデルでも効果が観察されたことから,小さなモデルしか実装できない場合にも応用できることが期待される. ## 参考文献 [1] Xinzhi Dong, Chengjiang Long, Wenju Xu, and Chunxia Xiao. Dual graph convolutional networks with transformer and curriculum learning for image captioning. In ACMMM 2021, pp. 2615-2624, 2021. [2] Fenglin Liu, Shen Ge, and Xian Wu. Competence-based multimodal curriculum learning for medical report generation. In ACL-IJCNLP 2021, pp. 3001-3012, 2021. [3] Mohammad Alsharid, Rasheed El-Bouri, Harshita Sharma, Lior Drukker, Aris T Papageorghiou, and J Alison Noble. A course-focused dual curriculum for image captioning. In ISBI 2021, pp. 716-720, 2021. [4] Hwanhee Lee, Seunghyun Yoon, Franck Dernoncourt, Trung Bui, and Kyomin Jung. UMIC: An unreferenced metric for image captioning via contrastive learning. In ACL-IJCNLP 2021, pp. 220-226, 2021. [5] Jack Hessel, Ari Holtzman, Maxwell Forbes, Ronan Le Bras, and Yejin Choi. CLIPScore: A reference-free evaluation metric for image captioning. In EMNLP 2021, pp. 7514-7528, 2021. [6] Xinlei Chen, Hao Fang, Tsung-Yi Lin, Ramakrishna Vedantam, Saurabh Gupta, Piotr Dollár, and C Lawrence Zitnick. Microsoft coco captions: Data collection and evaluation server. arXiv preprint arXiv:1504.00325, 2015. [7] Peter Young, Alice Lai, Micah Hodosh, and Julia Hockenmaier. From image descriptions to visual denotations: New similarity metrics for semantic inference over event descriptions. TACL, Vol. 2, pp. 67-78, 2014. [8] Emmanouil Antonios Platanios, Otilia Stretcu, Graham Neubig, Barnabas Poczos, and Tom Mitchell. Competence-based curriculum learning for neural machine translation. In NAACL-HLT 2019, pp. 1162-1172, 2019. [9] Xuebo Liu, Houtim Lai, Derek F. Wong, and Lidia S. Chao. Norm-based curriculum learning for neural machine translation. In ACL 2020, pp. 427-436, 2020. [10] Liuyu Xiang, Guiguang Ding, and Jungong Han. Learning from multiple experts: Self-paced knowledge distillation for long-tailed classification. In ECCV 2020, pp. 247-263, 2020 [11] Yunchao Wei, Xiaodan Liang, Yunpeng Chen, Xiaohui Shen, Ming-Ming Cheng, Jiashi Feng, Yao Zhao, and Shuicheng Yan. STC: A simple to complex framework for weakly-supervised semantic segmentation. TPAMI 2016, pp. 2314-2320, 2016. [12] Valentin I Spitkovsky, Hiyan Alshawi, and Dan Jurafsky. From baby steps to leapfrog: How "less is more" in unsupervised dependency parsing. In NAACL-HLT 2010, pp. 751-759, 2010. [13] Benfeng Xu, Licheng Zhang, Zhendong Mao, Quan Wang, Hongtao Xie, and Yongdong Zhang. Curriculum learning for natural language understanding. In ACL 2020, pp. 6095-6104, 2020. [14] Yikai Zhou, Baosong Yang, Derek F Wong, Yu Wan, and Lidia S Chao. Uncertainty-aware curriculum learning for neural machine translation. In ACL 2020, pp. 6934-6944, 2020. [15] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, et al. Learning transferable visual models from natural language supervision. In ICML 2021, pp. 8748-8763, 2021. [16] Wonjae Kim, Bokyung Son, and Ildoo Kim. Vilt: Visionand-language transformer without convolution or region supervision. In ICML 2021, pp. 5583-5594, 2021. [17] Peter Anderson, Xiaodong He, Chris Buehler, Damien Teney, Mark Johnson, Stephen Gould, and Lei Zhang. Bottom-up and top-down attention for image captioning and visual question answering. In CVPR 2018, pp. 60776086, 2018. [18] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, et al. Language models are unsupervised multitask learners. OpenAI blog, p. 9, 2019. [19] Andrej Karpathy and Li Fei-Fei. Deep visual-semantic alignments for generating image descriptions. In CVPR 2015, pp. 3128-3137, 2015. [20] Ruotian Luo, Brian Price, Scott Cohen, and Gregory Shakhnarovich. Discriminability objective for training descriptive captions. In CVPR 2018, pp. 6964-6974, 2018. [21] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In ACL 2022, pp. 311-318, 2002. [22] Chin-Yew Lin. Rouge: A package for automatic evaluation of summaries. In Text summarization branches out, pp. 74-81, 2004. [23] Ramakrishna Vedantam, C Lawrence Zitnick, and Devi Parikh. Cider: Consensus-based image description evaluation. In CVPR 2015, pp. 4566-4575, 2015. [24] Peter Anderson, Basura Fernando, Mark Johnson, and Stephen Gould. Spice: Semantic propositional image caption evaluation. In ECCV 2016, pp. 382-398. Springer, 2016. [25] Antonio Torralba and Alexei A Efros. Unbiased look at dataset bias. In CVPR 2011, pp. 1521-1528, 2011. [26] Harsh Agrawal, Karan Desai, Yufei Wang, Xinlei Chen, Rishabh Jain, Mark Johnson, Dhruv Batra, Devi Parikh, Stefan Lee, and Peter Anderson. Nocaps: Novel object captioning at scale. In ICCV 2019, pp. 8948-8957, 2019. [27] Lun Huang, Wenmin Wang, Jie Chen, and Xiao-Yong Wei. Attention on attention for image captioning. In ICCV 2019, pp. 4634-4643, 2019.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-7.pdf
# 事前学習モデルを活用した End-to-end 型動画キーフレーム物語生成法 仲村祐希 $1 *$ 工藤慧音 $1 *$ 鈴木潤 $1 \quad$ 清水伸幸 2 1 東北大学 2 ヤフー株式会社 \{keito.kudo.q4, yuki.nakamura.r1\}@dc.tohoku.ac.jp jun.suzuki@tohoku.ac.jp nobushim@yahoo-corp.jp ## 概要 深層ニューラルネットワークや事前学習済みモデルの発展に伴って視覚および言語の横断タスクが多くの研究分野にて注目されている。映像と言語の融合領域タスクの一つとして「動画キーフレーム物語生成タスク」が提案されている。このタスクは指定した数のキーフレームと,それに対応する説明文を用いて,動画全体の要約を生成するタスクと言える. 本研究では, 既存のベースラインモデルの改善に加えて,新たに End-to-end での動画キーフレーム物語を生成する手法である解候補制約付き生成法を提案する. 実験の結果,提案法は改善したべースラインモデルに比べて,キーフレームの選択精度は劣るものの,生成された説明文の質はベースラインモデルに比べて向上する結果となった. ## 1 はじめに 本研究では,映像と言語の融合タスクの一つである動画キーフレーム物語生成タスク [1] に着目し,更なる性能向上のため新たな方法論の確立を目指す. 動画キーフレーム物語生成タスクは,動画要約タスクの一種で,簡潔に述べると動画を絵コンテのように数枚の画像と説明文で説明するタスクである.このタスクの難しさは,キーフレームの相対的な重要度を考慮しつつ, 対応する説明文も生成しなくてはならない点である. キーフレームと説明文は相互依存関係にあり,どちらかが決まるともう一方も決まるといった関係である。よって,キーフレー ムと説明文は理想的には同時に予測する必要がある. 本タスクのベースライン法を提案している文献 [2] では,同時予測が計算コスト面でも実装面でも困難であることから,問題を分解してキーフレー  ムの抽出と説明文の生成を独立に実施するモデルを本タスクのベースラインとして提案している。本研究では,まずベースラインの改良として,キーフレームの抽出と説明文の生成の一方を固定し交互に反復して予測する方法を提案する。また,本タスクの性質に適した新しい方法論として,事前学習済みモデルを活用した End-to-end 方式のモデルも提案する. 従来のベースラインの改良と End-to-end 方式の提案法を本タスクのデータを用いて評価し, その有効性を検証する。 ## 2 動画キーフレーム物語生成タスク 概要. 最も有名な映像と言語の融合タスクは,動画説明文生成タスクと考えられる $[3,4]$. また, その発展タスクとして,動画から一連のシーンを抽出し,そのシーン単位に説明文を付与するタスクを Dence Video Captioning (DVC) と呼ぶ $[5,6,7,8,9]$. 本研究で取り上げる動画キーフレーム物語生成タスクは,DVC タスクをより現実の利用場面に合わせて改良したタスクに位置付けられる。より具体的には, 1つの動画に対してその内容を表現する上で重要と思われるキーフレームを抽出し,更に各キーフレー ムに対応する説明文を生成し,動画を数枚のキーフレームと説明文で絵コンテのように瞬時に理解可能な形で提示するタスクである。この時,抽出すべきキーフレームと説明文のペアの数 $N$ は,事前に与えられることを前提とする。 評価方法動画キーフレーム物語生成タスクを提案した文献 [1] に従い,抽出したキーフレームの評価には,正解と予測結果のキーフレーム間の一致度合い計測する aligned key-frame matching (AKM) スコアを用いる。また,説明文の評価には,正例と予測結果の説明文間の一致度合いを計測する METEOR [10] を用いる. 本研究では, 説明文の評 図 1 ベースラインモデルの概要 価指標として,更にニューラル言語モデルをべー スとした評価指標である BLEURT [11]を追加する。 これは,説明文間の意味的な類似性をより評価するためである.各動画ごとに,正例となるキーフレー ムと説明文のペアは $N$ 個以上存在することから,評価時には,モデルが生成した $N$ 個のキーフレームとの $A K M_{c o s}$ が最大となる $N$ 個の評価データのキーフレームと説明文に対して,各種評価指標を用いた評価を行う,詳細な定義は,これまでの研究に関する文献 [2]を参照されたい。 ## 3 評価データの改善 文献 [1] にて構築されたデータは, ActivityNet Captioning [5] のデータを拡張して作成されたものである. 基本的にクラウドワーカーが作成したデータのため,評価データ中に低品質な説明文が散見される.そのため, 潜在的にシステムの性能を正しく評価できない可能性がある.そこで,本研究では評価データの改善も合わせて実施した. 具体的には,英語母語話者のいる信頼性の高いデータ作成業者に,元データの部分集合に対して正解説明文の再付与を依頼した. 最終的に,442 動画に対して高品質な説明文を付与した評価データを構築した。 ## 4 ベースラインモデル概要 本研究では,本タスクにおけるべースラインとして提案されたモデル [2]をキーフレームの抽出と説明文の生成を一方を固定し交互に反復して予測するように改良を加えたものを新たなべースラインとして用いる. 図 1 に本研究で用いるべースラインモデルの概要を示す. ## 4.1 システムの概要 改良したベースラインモデルは次の 4 つの要素から構成される。 セグメント抽出モジュール動画を入力として動画をシーンごとに複数のフレームをまとめたセグメントに分割する.セグメント抽出モジュールとして, 既存研究のベースラインモデル [2] で利用した Masked Transformer に加えて [9], 動画処理のツールである PySceneDetect ${ }^{11}$ を用いた. このモジュールによって $N$ 個以上のセグメントを生成する. 画像説明文生成モジュール候補となるフレームに対して,事前学習済みの画像説明文生成モデルを使って説明文を生成する,事前学習済みの画像説明文生成モデルとして, fairseq-image-captioning ${ }^{2)}$, clipcap [12], clip-reward [13] を利用する。それぞれのモデルは, 本研究で用いるデータセット [1] に含まれれるキーフレームと説明文を用いて微調整する3). キーフレーム検出モジュールセグメントと先に選択したフレームに対する説明文を入力として,セグメントの中から説明文にマッチするフレームを予測する. 既存研究 [2] と同様に双方向 LSTM により構築したモデルを利用する。セグメント内の全てのフレームを ResNet200 [14] と BN-inception [15]を用いて特徴量としたものと,説明文を BERT [16]を用いて特徴量に変換したものを連結した系列を入力として, 各フレームがキーフレームか否かの 2 值分類を行うモデルである. 候補選択モジュール既存研究 [2] と同様, セグメントと説明文のペアを受け取り, $N$ 個のペアを選択する.選択の指標として,セグメント抽出モ  図 2 解候補制約付き生成法のモデルの概要. ジュールによって計算されたセグメントのスコア4) と, 画像説明文生成モジュールによって計算された説明文の龙度の和を用いる. 動的計画法を用いて, この指標の和が最大となるように,できるだけセグメントの時間的重複が発生しないように $N$ 個のセグメントと説明文のペアを選択した. 選ばれたセグメントのフレーム (キーフレーム) および説明文がベースラインモデルの最終的な出力となる. ベースラインモデルはこれら4つのモジュールを利用し, 以下の手順で $N$ 個のキーフレームと説明文を選択・生成する。 1. セグメント抽出モジュールを用いて,入力動画をセグメントに分割する。 2. 分割された全てのセグメントの中央のフレームに対して,画像説明文生成モジュールを用いて説明文を生成する。 3. 生成された説明文とセグメントを入力として, キーフレーム検出モジュールにより説明文に最も合うフレームを選択する。 4. 各セグメントから選ばれたフレームを入力として再び,画像説明文生成モジュールにより説明文を生成する。 5. 3.,4.を $l$ 回繰り返す (本研究では全ての設定において $l=4$ で固定した). 6. 候補選択モジュールにより選択されたキーフレームと説明文をモデルの出力とする. ## 5 解候補制約付き生成法 本研究では,新たに事前学習モデルを活用した End-to-end 型の手法である解候補制約付き生成法を提案する.この手法ではフレームに分割した動画を入力として $N$ 個のキーフレームの選択と説明文のペアを生成を行うモデルを学習する. キーフレームと説明文は異なるモーダルの情報であるが,提案法のモデルは 1 つの系列として処理を行う.解候補制 4) Masked Transformer のセグメントのスコアはモデルから出力されるスコア, PySceneDetect のスコアは 1 で固定とした.約付き生成法の詳細は付録 Aを参照されたい。 ## 5.1 アーキテクチャと入出力 モデルのアーキテクチャとして Transformer [17] のエンコーダ,デコーダをべースとし, 入力系列長などを変更したモデルを利用する. モデルの概要を図 2 に示す. 動画から 0.5 秒ごとにサンプリングした全てのフレームを CLIP [18] の画像エンコーダを用いて特徴量ベクトルとし, 解候補制約付き生成モデルのエンコーダに入力する. 出力はその動画を要約した $N$ 個のキーフレームとなるフレームのインデックスとそれに対する説明文のペアである. デコーダは一度の推論で,キーフレー ムとそれに対応する説明文のペア $N$ 個を 1 つずつ生成(選択)するように学習させる(図 2).デコーダへは大力がテキストトークンの場合,そのトークンに対応する埋め込みを入力とする。一方,入力がフレームの場合,フレームを CLIP の画像エンコーダによって特徴量に変換したもの入力とする. デコー ダは通常の系列変換モデルと同様に, 次のテキストトークンを予測するか,どのフレームを選択すべきかを表すフレームのインデックスを予測する. ## 5.2 学習方法 事前学習 MS COCO キャプションデータセット [19]を用いて,疑似的な動画キーフレーム物語生成データセットを作成し事前学習を行なう.これにより,モデルの生成文の質の向上を目指す. 微調整これまでの研究 [1]において付与されたアノテーションを元に, 各動画から $N$ 個のキーフレームと説明文のペアを 8 パターンサンプリングし学習データとして用いた。 ## 5.3 推論時 初めに,動画からサンプリングした全てフレームに対し,4 節で用いたものと同様の,事前学習済み画像説明文生成モデルを用いて説明文の生成を行な 表 1 ベースラインモデルおよび解候補制約付き生成法の各評価スコア. AKM $\mathrm{exx}_{\mathrm{ex}}$ は AKM $\mathrm{cos}_{\mathrm{cos}}$ が最大となるようにマッチングした正解フレームに対して,一致しているキーフレームの割合を表す。 う.その後,特徴量に変換した全てのフレームをモデルのエンコーダへの入力とし,$N$ 個のキーフレー ムと説明文のペアの候補を生成した際の尤度を元に,モデルは最終的な出力を行う. サンプリングされた全てのフレームとそれらに付与された説明文の中から $N$ 個の説明文とキーフレームを選択する組み合わせは膨大に存在するため,全ての組み合わせについて尤度の計算を行うのは計算量的に困難である. そこで,1つの説明文とフレームのペアに対する尤度の計算を 1 単位としたビームサーチを行いながら,最終的に $N$ 個のキーフレームと説明文に対する尤度の計算を行なう. ${ }^{5}$ ## 6 動画キーフレーム物語生成実験 データセット訓練データは文献 [1] で提案されたものを用いた.ただし,評価データに関しては 3 節で説明した,説明文を改善したデータを用いた。 実験設定基本的な実験設定は既存研究 [2] に従った. $A K M_{c o s}$ の計算に用いる画像の特徴量べクトルは ResNet200 [14]を用いた. 説明文の評価の前処理として Moses[20] の lowercase.perl と tokenizer.perl ${ }^{6)}$ を用いてトークナイズを行った. なお, 説明文の評価は出力された $N$ 個の説明文をビデオ単位で一つに連結してから各評価スコアを算出した. 最終的に一つの動画から出力するキーフレームとキャプションのペアの数 $N$ は 4 とした. ## 6.1 実験結果 表 1 にベースラインモデルおよび解候補制約付き生成法における評価結果を示した。 まず, $A K M_{\cos }$ および $A K M_{e x}$ についてはべースラインモデルの方が総じてスコアが高く,より良いキー フレームを選択できていることが分かった. キーフレームの選択において, ベースラインモデルの方が スコアが高かった理由として,動画をセグメント単位に区切ってから処理していることが挙げられる.解候補制約付き生成法は,動画全体のフレームを入力としているため,キーフレームの候補が多い. そのため, キーフレームを当てるのが困難であり, 解制約付き生成法のスコアが低かったと考えられる。次に,生成した説明文の評価については概ね解候補制約付き生成法の方がスコアが高いという結果となった。これは解候補制約付き生成法がキーフレー ムと説明文を同じ系列として処理していることによる影響ではないかと考えられる。 ## 7 おわりに 本研究では,既存の動画キーフレーム物語生成夕スクに対して, 反復法によるべースラインの改善と, 事前学習モデルを活用した End-to-end 型の方法論を提案した. 提案法では,事前学習済みの画像説明文生成モデルを活用し, 各フレームに対して網羅的に説明文を生成し,その候補を制約として説明文の生成とキーフレームを抽出を同時に行う. また,付加的な要素として, 品質の低い評価データを改善するために,従来の $1 / 10$ 程度の部分集合に対してではあるが,人手による高品質な説明文を再付与し,再構築した評価データを用いて提案法の有効性を検証する実験を行った. 実験の結果,提案法は改善したベースラインモデルに比べて,キーフレームの選択精度は劣るものの, 生成された説明文の質はべー スラインモデルに比べて向上する結果となった. まずは本研究にて End-to-end 型の動画要約法が完成したので,今後は今回の実験で顕著に良い結果が得られなかったキーフレーム抽出の性能向上を実現することを目指す。 ## 謝辞 本研究は,Yahoo 研究所と東北大学との共同研究 として実施されたものである. また,本研究の一部 (データ作成)は,JST ムーンショット型研究開発事業 JPMJMS2011 の助成を受けて実施されたものである。 ## 参考文献 [1] 北山晃太郎, 鈴木潤, 清水伸幸. 動画キーフレーム物語生成タスクの提案とデータセットの構築. 人工知能学会全国大会論文集, Vol. JSAI2021, No. 0, pp. 4I4GS7e03-4I4GS7e03, 2021. [2] 佐藤俊, 佐藤汰亮, 鈴木潤, 清水伸幸. 動画キーフレーム物語生成手法の提案. 言語処理学会第 28 回年次大会発表論文集, Vol. NLP2022, No. 0, 2022. [3] Subhashini Venugopalan, Marcus Rohrbach, Jeffrey Donahue, Raymond Mooney, Trevor Darrell, and Kate Saenko. Sequence to sequence - video to text. In 2015 IEEE International Conference on Computer Vision (ICCV), pp. 4534-4542, 2015. [4] Subhashini Venugopalan, Huijuan Xu, Jeff Donahue, Marcus Rohrbach, Raymond Mooney, and Kate Saenko. Translating videos to natural language using deep recurrent neural networks. In Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1494-1504, Denver, Colorado, May-June 2015. Association for Computational Linguistics. [5] Ranjay Krishna, Kenji Hata, Frederic Ren, Li Fei-Fei, and Juan Carlos Niebles. Dense-captioning events in videos. In International Conference on Computer Vision (ICCV), 2017. [6] Jingwen Wang, Wenhao Jiang, Lin Ma, Wei Liu, and Yong Xu. Bidirectional attentive fusion with context gating for dense video captioning. In 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 7190-7198, 2018. [7] Yehao Li, Ting Yao, Yingwei Pan, Hongyang Chao, and Tao Mei. Jointly localizing and describing events for dense video captioning. In 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 7492-7500, 2018. [8] Xiujun Li, Xi Yin, Chunyuan Li, Pengchuan Zhang, Xiaowei Hu, Lei Zhang, Lijuan Wang, Houdong Hu, Li Dong, Furu Wei, Yejin Choi, and Jianfeng Gao. Oscar: Object-semantics aligned pre-training for vision-language tasks. In Andrea Vedaldi, Horst Bischof, Thomas Brox, and Jan-Michael Frahm, editors, Computer Vision - ECCV 2020, pp. 121-137, Cham, 2020. Springer International Publishing. [9] Luowei Zhou, Yingbo Zhou, Jason J. Corso, Richard Socher, and Caiming Xiong. End-to-end dense video captioning with masked transformer. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2018. [10] Alon Lavie and Abhaya Agarwal. METEOR: An automatic metric for MT evaluation with high levels of correlation with human judgments. In Proceedings of the Second Workshop on Statistical Machine Translation, pp. 228-231, Prague, Czech Republic, June 2007. Association for Computational Linguistics. [11] Thibault Sellam, Dipanjan Das, and Ankur Parikh. BLEURT: Learning robust metrics for text generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7881-7892, Online, July 2020. Association for Computational Linguistics. [12] Ron Mokady, Amir Hertz, and Amit H. Bermano. Clipcap: CLIP prefix for image captioning. CoRR, Vol. abs/2111.09734, , 2021. [13] Jaemin Cho, Seunghyun Yoon, Ajinkya Kale, Franck Dernoncourt, Trung Bui, and Mohit Bansal. Fine-grained image captioning with CLIP reward. In Findings of the Association for Computational Linguistics: NAACL 2022, pp. 517-527, Seattle, United States, July 2022. Association for Computational Linguistics. [14] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. In 2016 IEEE Conference on Computer Vision and Pattern Recognition, pp. 770$778,2016$. [15] Sergey Ioffe and Christian Szegedy. Batch normalization: Accelerating deep network training by reducing internal covariate shift. In Francis Bach and David Blei, editors, Proceedings of the 32nd International Conference on Machine Learning, Vol. 37 of Proceedings of Machine Learning Research, pp. 448-456, Lille, France, 07-09 Jul 2015. PMLR. [16] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [17] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [18] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, Gretchen Krueger, and Ilya Sutskever. Learning transferable visual models from natural language supervision. In ICML, 2021. [19] Xinlei Chen, Hao Fang, Tsung-Yi Lin, Ramakrishna Vedantam, Saurabh Gupta, Piotr Dollár, and C. Lawrence Zitnick. Microsoft COCO captions: Data collection and evaluation server. CoRR, Vol. abs/1504.00325, , 2015 [20] Philipp Koehn, Hieu Hoang, Alexandra Birch, Chris CallisonBurch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, Chris Dyer, Ondřej Bojar, Alexandra Constantin, and Evan Herbst. Moses: Open source toolkit for statistical machine translation. In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics Companion Volume Proceedings of the Demo and Poster Sessions, pp. 177-180, Prague, Czech Republic, June 2007. Association for Computational Linguistics. [21] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer, 2019 [22] Bernard Ghanem Fabian Caba Heilbron, Victor Escorcia and Juan Carlos Niebles. Activitynet: A large-scale video benchmark for human activity understanding. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 961-970, 2015 . [23] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In International Conference on Learning Representations, 2019 . 表 2 解候補制約付きモデルの学習設定事前学習 ## A 解候補制約付き生成モデルの詳細 アーキテクチャモデルのアーキテクチャとして, Transformer [17] のエンコーダ,デコーダを用いる. 実装は T5-large [21] をべースとし,入力系列長を 2048 とする. これは, 0.5 秒おきにフレームをサンプリングした場合, 約 17 分の動画まで全てのフレームを入力することができる長さである. データセットを構成する動画は最長 20 分で多くの動画が $5 \sim 10$ 分の長さであり [22], 大半の動画を切り捨てることなく利用できる入力系列長の大きさとした. また,キーフレームの選択を行うためのフレームのインデックスを予測するため,最終層の出力次元数をエンコーダの語彙数+入力系列長 (2048) に増加させる. 加えて,入力の画像特徴量の次元数を変換するための線形層も追加する. アーキテクチャの変更がなく利用可能な部分については, 事前学習済みの $\mathrm{T5}^{7}$ ) のパラメータの初期値として学習を行なう。 事前学習 MS COCO キャプションデータセット [19]を用いて,疑似的な動画データセットを作成し事前学習を行なう。以下の手順で学習に利用する各事例を作成する。 1. MS COCO データセットから $N$ 個の画像と説明文のペアをサンプリングする. 2. エンコーダの入力系列長を長さ 1 以上の $N$ 個の区間に無作為分割する. 3. それぞれの区間から 1 つインデックスを無作為に選択する. このインデックスが $N$ 個の正解のフレームのインデックスとなる. 分割した各区間の位置のエンコーダの入力には, 全てその区間の中の正解フレームと同じ特徴量を入力する. ただし,正解フレー ムのインデックスに入力する特徴量を除いて,以下の式で摂動を付与する。 $ \text { Noise }=v_{\text {average }} \beta N(0,1) $ ここで, $v_{\text {average }}$ はミニバッチ内の画像特徴量の全ての数値を平均したスカラー值である. また, $\beta$ は捸動の大きさを制御するパラメータであり, 本実験では $\beta=0.05$ に統一した. モデルは $N$ 個の (ノイズの加えられていない) 正解フレームのインデックスとそれに付与された説明文を予測するように学習する。 学習設定表 2 に学習時のハイパーパラメータを示す. 7) Huggingface Transformers にて公開されているものを利用した https://huggingface.co/t5-large ビームサーチアルゴリズムアルゴリズム 1 に解候補制約付き生成モデルのビームサーチを用いた生成アルゴリズムを示す。また,実験では解候補制約付き生成法で用いるビーム幅は 3 とした.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-8.pdf
# 大規模言語モデルからの知識抽出に基づく 画像からのスクリプト予測の検討 八木 拓真 ${ }^{1}$ 西村 太一 ${ }^{2}$ 清丸 寛一 ${ }^{2}$ 唐井 希 ${ }^{2}$ 1 東京大学生産技術研究所 2 京都大学大学院 情報学研究科 tyagi@iis.u-tokyo.ac.jp kiyomaru@i.kyoto-u.ac.jp \{nishimura.taichi.43x, karai.nozomu.77c\}@st.kyoto-u.ac.jp ## 概要 画像からそれが示す場面で行われるスクリプト (典型的なイベント系列)を予測するタスクを提案する. 画像が示す状況に対応したスクリプトを想起することにより,エージェントが状況に応じた適切な行動理解や支援を行うことが期待できる. 本稿では,画像からのスクリプト予測の第一歩として少数の画像にアノテーションを付与し, その要件と課題の整理を行う.また,学習済みの視覚言語モデルと大規模言語モデルを組み合わせることによる画像からのスクリプト予測の可能性を検討する。 ## 1 はじめに 人と AI が共存する社会の実現にあたり,ロボットなどのエージェントが場の状況に応じて適切に振る舞うことは重要である。人はある場面に遭遇した際,その場面に対応したスクリプト(典型的なイベント系列) [1]を想起することで現在の状況をスムーズに理解し,適切に振る舞える。例えば,レストランでは一般に席に案内され, 料理を注文し食事後会計をすることが期待できる。従来スクリプトは文章の論理構造を補完するものとして言語に閉じて扱われてきた [2]. しかし, 家庭用ロボットなどへの応用を考えれば,状況が詳細に文章で与えられなくとも,視覚などの外界の入力から直接スクリプトを想起し行動に移せることが望ましい。 本稿では,画像からその場面に対応するスクリプト [1]を予測する視覚スクリプトモデルの検討を行う (図 1). スクリプト知識は宣言的知識と比較して構造があいまいであり,「レストランで食事を取る」 といった典型的な状況であっても場面により多様なバリエーションを持つ. そのため, モデルの訓練のために幅広い場面に対するスクリプト知識を人手で 図 1 視覚スクリプト予測の問題設定. 網羅的に収集するのは現実的でない。そこで,本研究では大規模言語モデル [3] (Large Language Model; LLM)から知識を抽出する方法を検討する.LLM は様々な常識推論タスクに回答できることが報告されており,典型的な状況におけるスクリプト知識をかなりの程度獲得していると思われる. 画像中の状況をテキストで説明する視覚言語モデルと大規模言語モデルを組み合わせることにより画像とスクリプトを結び付けられれば,スケーラブルな形で訓練用のデータを収集できることが期待できる. 本稿では,画像からのスクリプト予測の初期検討として少数の画像にアノテーションを付与し,視覚スクリプトモデルの実現のための課題と要件を整理する。また,学習済みの視覚言語モデルと大規模言語モデルを組み合わせることによる素朴なべースラインモデルを構築し, (i) 画像およびゴールからのスクリプト予測 (ii) 画像からのゴール予測の 2 種類のタスクに関する予測結果の評価を行う。 ## 2 関連研究 ## 2.1 大規模言語モデル 近年,個別のタスクに対する専用モデルに代わり,数百〜数千憶のパラメータを持ち,大規模コー パス上で事前学習された汎用の LLM $[4,5,3,6]$ の有効性が実証されている. LLM は様々な常識推論夕スクにファインチューニングなしで回答できるうえ,モデルに与える入力文(プロンプト)を工夫することによりさらに性能を向上できることが報告されている [7] が,入出力共にテキストに閉じているため,単体では実世界に接地した推論は行えない。 また,LLM と同様,大量の動画像とテキストの組によって事前学習を行う視覚言語モデル (Visual Language Model; VLM)も注目されている [8, 9, 10]. VLM は画像に写る事物の説明や質問応答には長けているものの,画像に直接写らない文脈や手続きの認識はごく少数の初期検討 [11]があるのみで十分には検討されていない. ## 2.2 イベント系列の予測 家庭用ロボットなどでは,対話を通じて人の指示を理解し,自身の行動を実行可能な形で推論する必要がある。そこで,言語指示からのスクリプトの予測 $[12,2]$ やユーザの要求に応じた行動のプランニング $[13,14,15]$ 等の研究が行われており, LLM の利用も検討されている $[15,16]$. これらは限定的なシナリオで具体的な指示が与えられることを前提としているが,本研究では様々な場面における画像からスクリプト知識を想起することを目的とする。 ## 3 視覚スクリプト 本節では,画像からその場面の観察者または登場人物から見たスクリプトを予測することを視覚スクリプトと定義し,その要件と課題を整理する。 ## 3.1 アノテーション 画像はスクリプトに関して何を伝えるだろうか?画像が示す場所はそこで何をすべきかの第一の手掛かりになる。画像中の物体やその見た目もその場の属性を示唆し, 例えば高級レストランと家庭的なレストランとではその備品や内装は大きく異なり,生起するスクリプトも異なる. 画像中に登場する人物の役割はその人物の行動を規定する。一方,表 1 アノテーション項目の一覧.画像が示す場所名 表 2 アノテーションの統計(カッコ内は標準偏差). スクリプトを行う主体がどのような役割を担うか,何をゴールとして行動するかといった内的な情報は通常画像には含まれず,実応用では観察者(人,口ボットなど)の経歴や過去の行動に基づきそれらを補完する必要がある. オクルージョンのため, 不完全な観測から見えない部分を補完する必要もある. Schank \& Abelson [1] は,登場人物・物体や完了条件といったスクリプトの構成要素を提案しており,本研究においてもそれらが有用と考えた. そこで彼らの定義を踏襲し, 表 1 に示す項目について画像に対応するスクリプトのアノテーションを行った. 題材としては場所認識用データセットである Places365 [17] データセットを用い,大きく (i) 購買 (ii) 室内 (iii) 交通の 3 つの場面を中心に 26 カテゴリ 40 枚を選定した. 各画像について,3人のアノテー タが 1 枚あたり 1 つ以上のスクリプトを付与した. ただし,場所に関しては原則 Places365に既に付与されている名前を採用した. スクリプトの記述にあたっては,アノテータが画像が示す状況において誰 (行為者)が何(ゴール)を達成できるかを類推したうえで,それを達成するイベント列を記述した。 ## 3.2 アノテーションの分析 表 2 に統計を示す. スクリプトの系列長は概ね 5-6 程度であり,大半の例において主役以外の脇役が登場した. 登場物体は最大 7 つ程度であり, ゴー ル達成のための不可欠なイベントを簡潔に記した例が多くを占めた. また,表 3 に図 1 へのアノテー ション例を示す.この例では, プレゼンの準備をする/カンファレンスでの発表の準備/会議へ参加/発表を聞くの 4 つのユニークなゴールが付与され,他の画像についても主役/主役の動機/ゴールの粒度の違いによる多様性が見られた。一方,購買を伴う場所 表 3 図 1 の画像に対するアノテーション例. の画像ではゴールが収れんする傾向にあった. 難しさとしては (i) 画像に見える事物とルールや慣習との関連の非自明さ (ii) 画像に登場しない役割や物体の補完があった. 例えば,店舗では購買行動が行われるが,売り物の見た目自体にその行動が結び付く必然性はなく,物体の組み合わせとしてどのような場所かを知識により結び付ける必要がある。 また,物を買う場面では通常会計係,伝票やレジスターが登場するが,それらが明示的に写ることはまれであり, 多くの場合それらを補完する必要がある. 見える範囲の即物的に記述は不十分であり,見える範囲を超えた推論の必要性が示唆された. ## 4 実験 前節の議論で,画像中の情報は生起するスクリプトを規定する一方その関係は間接的であることが示された. そのため視覚スクリプト生成においても LLM に含まれる豊富な知識を活用することが望ましい,画像情報を反映したスクリプトを実際に LLM を用いて生成できるのか?どの要素が正しい生成に寄与するのか?上記の初期検討として,VLM と LLM を素朴に組み合わせたべースモデルを提案し 2 種類のタスクによる評価を行った. ## 4.1 画像とゴールからのスクリプト予測 まず,画像とゴールなどの付加情報から LLM を通じてスクリプトを生成できるかを検証した。 モデル LLM はテキストのみを受け付けるため,画像情報を LLM に入力可能な形に変換する必要がある. そこで,最新の画像説明文生成モデル [9] により説明文を生成し LLM の入力として用いるモデルを提案する. 図 2 に模式図を示す. まず,入力画像の見える範囲での説明文を画像説明文生成モデル [9] を用いて生成し,画像をテキスト情報に変換 する.続いて,前節で付与した情報のうち場所,主役およびゴールを説明文と共に LLM のためのプロンプト(入力文)として構成し,それを LLMを通すことによってスクリプトを得る.入力方法には LLM で一般に用いられる in-context learning [3] を採用し,1 サンプルに関する見本を与えたのちスクリプトをイベント列として出力させた. 実装と比較条件画像からの説明文生成には最新のモデルとして BLIP-Large [9]を使用し,LLM は GPT-3(text-davinci-003) [3] と OPT(OPT-175B) [6] の 2 種類を比較した. また,入力情報の種類による違いを見るため GPT-3 では (a) 場所名のみ (b) ゴー ルのみ (c) 説明文のみの 3 種類の ablation を行った.具体的な予測例は付録表 6 を参照のこと。 評価指標一場面に対応するスクリプトは多様であり,自動評価は難しい。そこで前項のアノテー ションのうち類似のゴールを除いた 40 画像 65 サンプルに対しスクリプトを生成し,著者らのうち 2 名の人手評価により合理性(スクリプトとして妥当か),適切さ(ゴール・画像に照らして適切か)の 3 指標を二値で判定しその平均を取った。 結果表 4 に結果を示す. 画像説明文およびゴー ルなどの付加情報を与えた LLM はゴール・画像の両者に対して高い適切さを報告し,GPT-3を用い 図 2 VLM とLLM の結合による画像からのスクリプト予測の模式図. 本稿ではVLM を通して生成した説明文および人手で付与した付加情報を組み合わせてプロンプトを生成し,それをLLM に通してスクリプトを予測する. 図 3 場所名および説明文からのゴール予測. た場合にはほぼ望ましいスクリプトを生成した。 OPT-175B も概ね同様の挙動を示したものの不自然な動作を繰り返す,扱う物体や行動を取り違えるといった誤りを示した. 多くのスクリプトは場所に依存するため,場所名のみを与えた場合も $81.3 \%$ と画像に対する高い適切さを示した。しかしながら,路上の市場の画像に対して高級レストランと同様のやりとりを提示するなど,場所名のみからは読み取れない文脈において不適切なスクリプトを生成した。 ゴールと説明文をそれぞれ単体で与えた場合も同様で,前者では店舗で会計しない,後者では目に見える物体を用いたランダムな行動を行うなどのエラー が見られ,場所情報に画像から得られる情報を加えることでよい生成ができることを確認した. ## 4.2 画像説明文からのゴール予測 前項はスクリプトの生成に注目し主役およびゴー ルを既知としたが,それらも自動生成できれば場所認識含め全処理を自動化できる。そこで類似の枠組みで説明文と場所からのゴール予測を評価した。 モデルと評価前項のモデルと同様の枠組みを採用した. 図 3 にLLM 部のプロンプトと出力の例を示す. 今回は 3 つのゴールを出力するようなプロンプトを与えた. LLM は GPT-3を使用し,(a) 場所名のみ (b) 説明文のみ (c) 場所名+説明文の 3 条件を比較した。評価指標としては前項と同様ゴールとしての適切さおよび場所・画像に対する適切さを項目ごとに二值で判定し,その平均を取った。 結果表 5 に結果を示す. 我々の予想に反し,場所名のみを与えた場合に高い適切さを示した。スクリプト中のイベントより高い抽象度でのゴールは画像の即物的な説明より場所による影響が大きかったからと思われる.失敗例としては,惣菜店でウェイターが料理を給仕するなどの不適当な登場人物や,犬がおもちゃで遊ぶといったスクリプトの条件を満たさない場合等があった. しかしながら,多くのサンプルにおいて適切な役割とゴールを生成できたことから,指示文や画像説明文の生成方法の工夫次第でより性能を伸ばせると考えられる。 ## 5 結論と将来展望 画像からその場面に対応するスクリプトを予測する問題に初めて取り組み,アノテーションの付与および画像からのスクリプト・ゴール認識の初期検討を行った。評価を通じて VLM と LLM の素朴な結合モデルが画像に対応したスクリプトを概ね正しく生成できることを確認し,LLM からの知識抽出の可能性を示した. 今後は (i) より大規模の評価用コーパスの作成 (ii) 洗練されたプロンプティングによる制御可能なスクリプト生成 (iii) 陽な説明文を介さない,VLM とLLMを融合した視覚スクリプト予測モデルの実現を目指す. ## 謝辞 本研究は JST ACT-X JPMJAX22AJ の支援を受けたものです. ## 参考文献 [1] Roger C Schank and Robert P Abelson. Scripts, plans, goals, and understanding: An inquiry into human knowledge structures. Psychology Press, 1977. [2] Keisuke Sakaguchi, Chandra Bhagavatula, Ronan Le Bras, Niket Tandon, Peter Clark, and Yejin Choi. proScript: Partially ordered scripts generation. In Proc. Findings of EMNLP, pp. 2138-2149, 2021. [3] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In Proc. NeurIPS, pp. 1877-1901, 2020. [4] Jacob Devlin Ming-Wei Chang Kenton and Lee Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. In Proc. NAACL-HLT, pp. 4171-4186, 2019. [5] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J Liu, et al. Exploring the limits of transfer learning with a unified text-to-text transformer. JMLR, Vol. 21, No. 140, pp. 1-67, 2020 [6] Susan Zhang, Stephen Roller, Naman Goyal, Mikel Artetxe, Moya Chen, Shuohui Chen, Christopher Dewan, Mona Diab, Xian Li, Xi Victoria Lin, et al. OPT: Open pre-trained transformer language models. arXiv preprint arXiv:2205.01068, 2022. [7] Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Ed Chi, Quoc Le, and Denny Zhou. Chain of thought prompting elicits reasoning in large language models. In Proc. NeurIPS, 2022. [8] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, et al. Learning transferable visual models from natural language supervision. In Proc. ICML, pp. 8748-8763, 2021. [9] Junnan Li, Dongxu Li, Caiming Xiong, and Steven Hoi. Blip: Bootstrapping language-image pre-training for unified visionlanguage understanding and generation. In Proc. ICML, pp. 12888-12900, 2022 . [10] Jianfeng Wang, Zhengyuan Yang, Xiaowei Hu, Linjie Li, Kevin Lin, Zhe Gan, Zicheng Liu, Ce Liu, and Lijuan Wang. GIT: A generative image-to-text transformer for vision and language. TMLR, 2022 [11] Rowan Zellers, Yonatan Bisk, Ali Farhadi, and Yejin Choi. From recognition to cognition: Visual commonsense reasoning. In Proc. CVPR, pp. 6720-6731, 2019 [12] Qing Lyu, Li Zhang, and Chris Callison-Burch. Goal-oriented script construction. In Proc. INLG, pp. 184-200, 2021. [13] Michael Ahn, Anthony Brohan, Noah Brown, Yevgen Chebotar, Omar Cortes, Byron David, Chelsea Finn, Chuyuan Fu, Keerthana Gopalakrishnan, Karol Hausman, Alex Herzog, Daniel Ho, Jasmine Hsu, Julian Ibarz, Brian Ichter, Alex Irpan, Eric Jang, Rosario Jauregui Ruano, Kyle Jeffrey, Sally Jesmonth, Nikhil Joshi, Ryan Julian, Dmitry Kalashnikov, Yuheng Kuang, Kuang-Huei Lee, Sergey Levine, Yao Lu, Linda Luu, Carolina Parada, Peter Pastor, Jornell Quiambao, Kanishka Rao, Jarek Rettinghouse, Diego Reyes, Pierre Sermanet, Nicolas Sievers, Clayton Tan, Alexander Toshev, Vincent Vanhoucke, Fei Xia, Ted Xiao, Peng Xu, Sichun $\mathrm{Xu}$, Mengyuan Yan, and Andy Zeng. Do as i can and not as i say: Grounding language in robotic affordances. In Proc. CoRL, 2022. [14] 田中翔平, 湯口彰重, 河野誠也, 中村哲, 吉野幸一郎. 気の利いた家庭内ロボット開発のための曖昧なユーザ要求と周囲の状況の収集. 情報処理学会研究報告, Vol. 2022-NL-253, No. 5, pp. 1-7, 2022. [15] Wenlong Huang, Pieter Abbeel, Deepak Pathak, and Igor Mordatch. Language models as zero-shot planners: Extracting actionable knowledge for embodied agents. In Proc. ICML, pp. 9118-9147, 2022. [16] Ishika Singh, Valts Blukis, Arsalan Mousavian, Ankit Goyal, Danfei Xu, Jonathan Tremblay, Dieter Fox, Jesse Thomason, and Animesh Garg. ProgPrompt: Generating situated robot task plans using large language models. arXiv preprint arXiv:2209.11302, 2022 . [17] Bolei Zhou, Agata Lapedriza, Aditya Khosla, Aude Oliva, and Antonio Torralba. Places: A 10 million image database for scene recognition. TPAMI, pp. 1452-1464, 2017. 表 6 図 2 の画像に対する VLM とLLM を用いたスクリプトの生成例. Location: conference center Role: Speaker Scene description: Rows of chairs and chairs in a room with chairs and a projection screen. Task: Present at a conference Step 1: Greet the moderator and other speakers Step 2: Check the connection between the computer and the screen and speaker Step 3: Listen to other speakers' presentations until the stage Step 4: At your turn, stand in front of the platform and connect your laptop. ## AVVLM とLLM を用いたスクリプトの生成例 図 2 の画像に対して VLM と LLM を組み合わせることにより生成したスクリプト文の具体例を表 6 に示す. LLMがより望ましい出力を行うよう、一部の用語はプロンプトでは別の単語に置き換えられている場合がある。上段に入力文を,下段にモデルの応答例を示す. 紙面の都合で応答の改行は省略した. GPT-3 はゴール(buy spices)を達成するための行動を適度に列挙し,そのための手順を適切に生成している. OPT-175B はよりシーンの説明(ボウルに入った食べ物)に注目したスクリプトを生成し,やや流暢さには久けるが適切と言える. 場所名(outdoor market)のみを与えた場合は市場での典型的な行動を反映しているが具体性には欠ける.説明文のみを与えた場合には目の前の食べ物を用いてゲストをもてなす等のゴールとは無関係のスクリプトが生成されている。ゴールのみを与えた場合は確かにスパイスを買うための行動が列挙されているが,今どのような場所にいるかが不明なためインターネット上での購入方法が書かれており,これは画像に照らし合わせて適当ではない。このように,場所・説明文・ゴールのいずれも画像の示す場面に照らし合わせて適当なスクリプトの生成のために必要な情報であることがわかる.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-9.pdf
# Knowledge-Augmented Figure Caption Generation Zhishen Yang $^{1}$, Raj Dabre ${ }^{2}$, Hideki Tanaka ${ }^{2}$, Naoaki Okazaki ${ }^{1}$ School of Computing, Tokyo Institute of Technology ${ }^{1}$ National Institute of Information and Communications Technology 2 zhishen.yang@nlp.c.titech.ac.jp \{raj.dabre, hideki.tanaka\}@nict.go.jp okazaki@c.titech.ac.jp } \begin{abstract} In scholarly documents, figures are mediums for communicating scientific findings to readers in a straightforward way. Automating the generation of figure captions helps authors write informative captions that make communicating scientific findings easier to understand. In this study, figure captioning is treated as a knowledge-enhanced captioning task. To this end, we create SciCap+ by extending the large-scale SciCap dataset [1] with mention-paragraphs (paragraphs mentioning figures) and OCR tokens. Experimental results show that the mentions-paragraphs, as additional contextual knowledge, significantly improve the caption generation quality compared to the figure-only baseline. Datasets and models will be publicly released. \end{abstract ## 1 Introduction Figures in scientific papers provide visual representations of complex information that help to share scientific findings with readers efficiently and straightforwardly. The standard practice for scientific writing is to write a caption for each figure, accompanied by paragraphs with detailed explanations. Helping authors write appropriate and informative captions for figures will improve the quality of scientific documents, thereby facilitating scientific communication. In this study, we focus on automating the generation of captions for figures in scientific papers. Scientific figure captioning is a variant of the image captioning task with two unique challenges: 1. Figures are not natural images: In contrast to natural images, visual objects are texts and data points in scientific figures. 2. The captions of the figures should explain: Instead of simply identifying objects and texts in the figures, the caption should contain an analysis that the authors intend to present and highlight findings. Caption: Fig. 7. (a) Speedup of CHEETAH over GAZELLE for computing ReLu. (b) Comparison of communication cost for ReLu. ## Mention-paragraph: Fig. 7 plots the speedup and communication cost as a function of the output dimension. Similarly, CHEETAH achieves an outstanding speedup with much smaller communication cost, independent of the output dimension, compared with GAZELLE. ..... Figure 1 An example figure [2] with its captions and mention-paragraph and the text tokens recognized via OCR. Without referring to the mention-paragraph and the OCR tokens to tie the figure and the mention, we cannot have a proper interpretation of the data presented in the figure, which is communication cost comparison and speed up of CHEETAH over GAZELLE. The previous study [1] defines the scientific figure captioning task as the figure-to-caption task. Their experiments report relatively lower automatic evaluation scores, indicating considerable room for improvement. Intuitively, humans need to have sufficient background knowledge to interpret figures. As figure 1 shows, only by looking at the figure, we do not know what "comm.(KB)" stands for; therefore, lacking the knowledge to write informative captions is challenging. However, the mention-paragraph contains "communication cost" and this is also present in the caption, indicating that such background knowledge should help in writing accurate captions. Based on above observations, we hypothesized that gen- Figure 2 The overall workflow of the data augmentation for creating the SciCap+ dataset. For each figure in the SciCap+, we extracted its mention-paragraphs and OCR tokens (OCR texts and bounding boxes). erating appropriate captions is infeasible without adding context knowledge to the caption generation model. This context takes two forms: background knowledge of running text and OCR tokens in a figure, which should help provide additional context to the model. We then presented scientific figure captioning as a multimodal summarization task and used the M4C captioning model [3] (a model that uses multimodal knowledge to generate captions) as a starting point to investigate the scientific figure captioning task. The experimental result of automatic evaluation demonstrates that using knowledge embedded across modalities, especially in the form of mention-paragraphs and OCR tokens, significantly boosts performance. ## 2 Problem Formulation [1] pose scientific figure captioning as an image captioning task as: Given a figure $I$, the model generates a caption $C=\left[c_{0}, c_{1}, \ldots, c_{N}\right]$. However, we reframe this task as a knowledge-augmented image captioning task that requires knowledge extracted from text and vision modalities. Given a scientific figure $I$ and knowledge extracted from text and vision modality: $K_{\text {text }}=\left(M_{t}, O_{t}\right)$, and $K_{\text {vision }}=\left(I_{v}, O_{v}, O_{p}\right)$, where $M_{t}$ and $O_{t}$ are text features extracted from paragraphs that mention figures (mentionparagraphs) and OCR texts. $I_{v}$ and $O_{v}$ are visual features obtained from figures and OCR texts. $O_{p}$ represents locations of OCR texts in figures. We define the figure caption Table 1 Statistics of the SciCap+ dataset. generation task as modelling the conditional probability: $P\left(C \mid I, K_{\text {text }}, K_{\text {vision }}\right)$. ## 3 SciCap+ Dataset SciCap is a large-scale figure-caption dataset comprising graph plots extracted from 10 years of collections of arXiv computer science papers. We used around 414k figures from SciCap and augment each figure with its mentionparagraphs and OCR tokens with metadata. This section details the data set creation and data augmentation processes. Figure 2 shows the overall workflow behind the creation of the SciCap+. Data Statistics We split figures at the document level and kept all original captions and figures (graph plots, with/without sub-figures). For a figure, we kept only the first paragraph that mentions it in the body text. Table 1 shows statistics of the SciCap+ dataset. Mention-paragraph Extraction We first obtained papers in PDF format from Kaggle arXiv dastaset ${ }^{1)}$. The reason for using PDFs is that not all papers have source 1) https://www.kaggle.com/datasets/Cornell-University/ arxiv Figure 3 Score distribution on correlations between mentionparagraph, OCR tokens and figure captions. Both evaluators judged most of the figures with at least moderate correlations with captions. files and some are complicated to parse. After obtaining PDFs, we used PDFFigures $2.0[4]^{2)}$ to extract the body text of each paper. PDFFigure 2.0 is a tool that extracts figures, captions, tables, and text from scholarly PDFs in computer science. In scholarly documents, authors label figures with numbers (e.g. Figure 1. Fig. 1). For a figure, we used its figure number in a regular expression to locate a paragraph that mentions it. OCR Extraction The SciCap dataset also provides texts extracted from figures as metadata, but does not provide location information for each text. To include location information for each text in a figure, we used Google Vision OCR API to extract text tokens from each figure with its coordinates of bounding boxes. ## 3.1 Dataset Quality Evaluation We conducted human evaluations of the SciCap+ where we checked the mention-paragraphs and OCR tokens extraction quality. The aim was to establish whether the mention-paragraphs and OCR tokens were extracted correctly and relevant to the figure and its caption. To this end, we randomly selected 200 figures from the training set and for each figure, we asked two human evaluators to give scores of 1-5 (1 represents no relevance and 5 is highly relevant) for relevance between a caption of a figure and its mention-paragraphs and OCR tokens. Figure 3 shows the distributions of the relevance scores. We can observe that two evaluators gave most of the figures (evaluator 1: $64 \%$ and evaluator 2: $79.5 \%$ ) with relevance scores greater than 3 and a cohen kappa score of 0.28. This evaluation result indicates that the mentionparagraphs and OCR tokens have a satisfactory extraction 2) https://github.com/allenai/pdffigures2 quality and that the annotators considered most of them as relevant to the figure and its caption. However, the two annotators seem to have a relatively lower agreement $(0.28)$ regarding which figures and captions are relevant to their mention-paragraphs and OCR tokens. We attribute this to the fact that evaluations of figure captions are highly subjective. ## 4 Experimental Results This section reports experimental results using M4CCaptioner [3] as the baseline model to study the challenge of scientific figure captioning using the SciCap+ dataset. Please refer to the appendix for implementation and training details. ## 4.1 Main Result The experimental results in table 2 demonstrate that using the mention-paragraph and OCR tokens significantly improves scores on all five metrics compared to the figureonly baseline. The experimental results align with our hypothesis that scientific figure captioning is a knowledgeaugmented image captioning task, OCR tokens and knowledge embedded in mention-paragraphs help in composing informative captions. We established a baseline M4C-Captioner (Figure only) with figures as the only input modality to the M4CCaptioner model in row \#1. This baseline is in the nonknowledge setting. Therefore, low scores in all metrics show that the model needs knowledge of other modalities. Using the mention only in row \#2 shows that the mention certainly contains a lot of useful information, as evidenced by the increase in performance. When OCR features are added to the figure input in row \#3, scores for all metrics have significant gains compared to the figureonly baseline, but are still weaker than when only mentions are used. This motivates the combination of mentions and OCR features and in row \#4, compared to the figure-only baseline and figure-OCR-only baseline, the performance further improves. Perhaps the most interesting result is in row \#5 where we only use the mentions and OCR features but not the figure and get the best performance, particularly for SPICE and CIDEr, albeit comparable to when the figure is included in row \#4. All these results indicate that explicitly extracted multimodal knowledge helps to compose informative captions. Table 2 Automatic evaluation scores of M4C-captioning on SciCap dataset. Aggregate knowledge from text and vision modalities significantly boosts the model performance compared to the figure-only baseline. ## 4.2 Ablation Studies We first performed an ablation study on figures by removing visual feature vectors, the CIDEr score increases slightly, indicating that the visual feature is more like noise for the model. This is likely because the Resnet- 152 visual encoder we used was not trained on figures. We enriched the representations of the OCR features by adding text, visual, and spatial features. Ablation studies aim to reveal impacts of each OCR token feature. All comparisons are with row \#4 even though row \#5 gives slightly better scores. With OCR features completely removed in row \#6, the CIDEr scores decrease by 5.3. Using only OCR spatial features in row \#7, the CIDEr score dropped by 7.8. Removing OCR spatial features in row \#8, the CIDEr scores dropped by 1.2. Upon removal of OCR visual features in row \#9, the CIDEr score is close to removing spatial features. The above ablation study indicates that the enriched OCR contributes to the informativeness of generated captions. Unlike OCR features, where appearance features are helpful to the model, removing visual features of figures increases CIDEr scores, further indicating that we need a specific vision encoder for figures to provide meaningful features. ## 5 Related Work Unlike natural image captioning, figure captioning has been less explored. SciCap [1] is the most recent work on scientific figure captioning, comprising a large-scale scientific figure captioning dataset that includes figures from academic papers in arXiv dataset. Before SciCap, FigCAP [5] [6] and FigureQA [7] are two figure captioning datasets, but their figures are synthesized. We decided to extend and study on SciCap dataset, since its figures are from real-world scientific papers. The closest multimodal task to figure captioning is image captioning. Recent works on integrating texts in natural images for visual question answering and image captioning tasks are based on transformer architecture augmented with a pointer network $[8,9]$. The transformer enriches representations by integrating knowledge from both text and visual modality. The pointer network dynamically selects words from the fixed dictionary or OCR tokens during generation. ## 6 Conclusion In this paper, we focus on scientific figure captioning as a knowledge augmented image captioning task. We transform the SciCap dataset [1]into SciCap+, by augmenting figures with their mention-paragraphs and OCR tokens. We then benchmark SciCap+ using the M4C-Captioner as the baseline model to utilize knowledge across three modalities: mention-paragraphs, figures, and OCR tokens. The experimental results reveal that using knowledge significantly improves evaluation metric scores. The release of the SciCap+ dataset promotes the further development of scientific figure captioning. For future work, we are interested in how to use multimodal pretraining strategies in this task. ## Acknowledgment These research results were partly obtained from the commissioned research (No. 225) by National Institute of Information and Communications Technology (NICT), Japan, and partly obtained from the first author's internship research under NICT. ## References [1] Ting-Yao Hsu, C Lee Giles, and Ting-Hao Huang. SciCap: Generating captions for scientific figures. In Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 3258-3264, Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [2] Qiao Zhang, Cong Wang, Chunsheng Xin, and Hongyi Wu. Cheetah: An ultra-fast, approximation-free, and privacypreserved neural network framework based on joint obscure linear and nonlinear computations. arXiv preprint arXiv:1911.05184, 2019. [3] Oleksii Sidorov, Ronghang Hu, Marcus Rohrbach, and Amanpreet Singh. Textcaps: a dataset for image captioning with reading comprehension. In European conference on computer vision, pp. 742-758. Springer, 2020. [4] Christopher Clark and Santosh Divvala. Pdffigures 2.0: Mining figures from research papers. In 2016 IEEE/ACM Joint Conference on Digital Libraries (JCDL), pp. 143-152. IEEE, 2016. [5] Charles Chen, Ruiyi Zhang, Eunyee Koh, Sungchul Kim, Scott Cohen, Tong Yu, Ryan Rossi, and Razvan Bunescu. Figure captioning with reasoning and sequence-level training. arXiv preprint arXiv:1906.02850, 2019. [6] Charles Chen, Ruiyi Zhang, Eunyee Koh, Sungchul Kim, Scott Cohen, and Ryan Rossi. Figure captioning with relation maps for reasoning. In Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision (WACV), March 2020. [7] Samira Ebrahimi Kahou, Vincent Michalski, Adam Atkinson, Ákos Kádár, Adam Trischler, and Yoshua Bengio. Figureqa: An annotated figure dataset for visual reasoning. arXiv preprint arXiv:1710.07300, 2017. [8] Ronghang Hu, Amanpreet Singh, Trevor Darrell, and Marcus Rohrbach. Iterative answer prediction with pointeraugmented multimodal transformers for textvqa. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2020. [9] Oleksii Sidorov, Ronghang Hu, Marcus Rohrbach, and Amanpreet Singh. Textcaps: a dataset for image captioningwith reading comprehension. 2020. [10] Amanpreet Singh, Vedanuj Goswami, Vivek Natarajan, Yu Jiang, Xinlei Chen, Meet Shah, Marcus Rohrbach, Dhruv Batra, and Devi Parikh. Mmf: A multimodal framework for vision and language research. https: //github.com/facebookresearch/mmf, 2020. [11] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and deto- kenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics. [12] Iz Beltagy, Kyle Lo, and Arman Cohan. SciBERT: A pretrained language model for scientific text. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3615-3620, Hong Kong, China, November 2019. Association for Computational Linguistics. [13] Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. Enriching word vectors with subword information. TACL, Vol. 5, pp. 135-146, 2017. [14] Jon Almazán, Albert Gordo, Alicia Fornés, and Ernest Valveny. Word spotting and recognition with embedded attributes. IEEE transactions on pattern analysis and machine intelligence, Vol. 36, No. 12, pp. 2552-2566, 2014. [15] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [16] Satanjeev Banerjee and Alon Lavie. Meteor: An automatic metric for mt evaluation with improved correlation with human judgments. In Proceedings of the acl workshop on intrinsic and extrinsic evaluation measures for machine translation and/or summarization, pp. 65-72, 2005. [17] Chin-Yew Lin. Rouge: A package for automatic evaluation of summaries. In Text summarization branches out, pp. 74-81, 2004. [18] Ramakrishna Vedantam, C Lawrence Zitnick, and Devi Parikh. Cider: Consensus-based image description evaluation. In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 4566-4575, 2015. [19] Peter Anderson, Basura Fernando, Mark Johnson, and Stephen Gould. Spice: Semantic propositional image caption evaluation. In European conference on computer vision, pp. 382-398. Springer, 2016. ## A Appendix ## A. 1 Implementation and Training Our implementation of M4C-Captioner is based on the MMF framework [10] and Pytorch. The implementation allows users to specify diverse pre-trained encoders for each modality, which can be fine-tuned or frozen during training. The M4C-captioner itself has $D=768$ hidden dimension size, $K=4$ transformer layers and 12 attention heads. We used sentencepiece [11] to obtain a dictionary of 32000 subwords built from both mention-paragraphs and OCR tokens. This is used as the M4C-captioner's vocabulary. We followed the BERT-BASE hyperparameter setting and trained from scratch. Regarding the encoders that feed features to M4Ccaptioner, we used pre-trained Resnet-152 as the figure's vision encoder. For each figure, we applied a 2D adaptive average pooling over outputs from layer 5 to obtain a global visual feature vector with a dimension of 2048 . Layers 2, 3 and 4 layers were fine-tuned during training. For mention-paragraph features, SciBERT [12] was used to encode ${ }^{3)}$ it into 758-dimensional feature vectors. The number of vectors equals the number of sub-word tokens in the mention-paragraph, which we limit to 192. The mention-paragraph encoder is also fine-tuned during training. Finally, for OCR tokens, we use both text and visual features. We selected FastText [13] as the word encoder and Pyramidal Histogram of Characters (PHOC) [14] as the character encoder. Regarding the visual feature encoder of OCR tokens, we first extracted Faster R-CNN fc6 features and then applied fc 7 weights to it to obtain 2048-dimensional appearance features for bounding boxes of OCR tokens. The $\mathrm{fc} 7$ weights were fine-tuned during training. We kept a maximum of 95 OCR tokens per figure. We trained a model on a GPU server with 8 Nvidia Tesla V100 GPUs. Training a model with a complete set of features took 13 hours. During training, we used a batch size of 128. We selected CIDEr as the evaluation metric. The evaluation interval is every 2000 iterations, we stop training if CIDEr score does not improve for 4 evaluation intervals. The optimizer is Adam with a learning rate of 0.001 and $\epsilon=1.0 \mathrm{E}-08$. We also used a multistep learning rate schedule with warmup iterations of 1000 and a warmup factor of 0.2. We kept the maximum number of decoding steps at the decoding time as 67. For evaluation, we used five standard metrics for evaluating image captions: BLEU-4 [15], METEOR [16], ROUGE-L [17], CIDEr [18] and SPICE [19]. Since figure captions contain scientific terms which can be seen as uncommon words, among all five metrics, we are particularly interested in CIDEr since it emphasizes them. 3) We only used the first 3 layers of SciBERT for lightweightness.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-10.pdf
# 日本語の若者言葉における助詞$\cdot$助動詞短縮形の使用と エネルギーの節約 平澤陸斗 ${ }^{1}$ 西口純代 ${ }^{2}$ ${ }^{1}$ 株式会社 SALTO ${ }^{2}$ 小樽商科大学 言語センター h.r19990926@icloud.com nishiguchi@res. otaru-uc. ac. jp ## 概要 日本語の会話文では、助詞や助動詞の一部分の短縮が多く見られる。先行研究では、会話の中で短縮語を用いる要因は大きく4つあると主張されている。本稿では実際の会話データをもとに、助詞や助動詞が短縮される要因と背景について再検討した。検証の結果、短縮化にはスピード化、言語の自由化、娛楽化、帰属化の 4 つの要因に対応する効果はあまり見られなかった。実際には、エネルギーの消費を少なくすることを狙って短縮化を行っている、またその過程で 4 つの効果が副産物的に得られることがある、ということを提唱する。助詞・助動詞の短縮の真の要因を「エネルギーの節約」であると主張する。 ## 1 短縮語 ## 1.1 短縮語とは 本稿の目的は、日本語の日常会話で、語句の短縮がどの程度行われているかを分析し、その性質から、単語を短縮して話すことにどのような要因があるかを研究することである。短縮語は、類似するものに略語・省略語があり、非常に曖昧な概念である。文献やウェブサイトによってその定義にわずかな差異があるため、本稿では短縮語を次のように定義した。短縮語とは、本来の意味を保ったまま、文字数や拍数、発音にかかる時間が短縮される語のことを指す。 また、短縮語と省略語は区別して研究を進めることとする。短縮とは会話の中に現れるある語の形を変 え短くすることを意味する。一方省略とは、その語を完全に取り除くことを意味する。 (1)あなたは今夜、何をしているの? (2) 今夜、何してるの? (2)は同じ内容である(1)をもとに、語の省略と短縮を行って作成した文章で、「しているの」が「してるの」に短縮されている。一方、省略されている単語は、主語の「あなた」、助詞の「は」「を」である。このように、意味と形を保ったまま文字を少なくすることを短縮、その語自体を取り除くことを省略とする。短縮語が使用される状況については、基本的に敬語表現を用いない、いわゆる「タメ口」が許される関係性の話者同士の会話でよく見られる。丁寧な表現が求められる場面や、会話を行う人同士の関係が対等でなくかつ、「タメロ」が許されない状況では、短縮語の使用は回避されることが多い。 ## 1.2 短縮語の例 短縮語の例として、付録の会話データの中から抽出したものをまとめたものを表 1 にした。会話デー タから確認された短縮語とその原型を記している。原型とは、短縮語をより丁寧な言い方に修正し、口語の形にしたものである。また原型の語句を品詞分解して「・」で区切り、その右側に品詞の種類を、原型の品詞分解の順番に対応させる形で表記した。 表 1 : 短縮語の例 ## 1.3 短縮語に関する先行研究 ## 1.3.1 短縮語が使用される要因 瀬沼(2005)は米川(1998)を参照し、会話の中で短縮語や省略語が使用される要因は 4 つあるとしている。「1つ目に現代社会のスピード化である。現代はあらゆる面でスピードを求められる。限られた時間内で効率よく,大量のものをこなすことが求められている。そのような中で若者は,話し办自体を速くするだけではなく,言葉を縮めて,会話促進のために言葉の省略が進んだ(米川1998)。」日常で好きなだけ時間を取って、遅いスピードで会話ができる場合は多くない。時間的な余裕がないため一つの会話にかけられる時間自体も短く、会話を促進する機能には非常に多くの需要があると考えられる。 「2つ目の要因としては,現代社会は自由を求めてきた。その結果,個人の自由が拡大した一力で,自己を含めてあらゆる事柄の意味があいまいになったり,価值を見失い,アイデンティティーを失った。 そのような中で,事柄を言語化することが困難になった。また,仮に言語化しても意味はあいまいで浮遊している。そういう言葉は軽く, 扱い方も軽い。 そこから言葉がどんじん省略化されていったと考えられる(米川 1998)。」「3つ目の要因は言葉の㚭楽化である。若者は会話を楽しむために使う。したがって既存の語だけでは,会話は盛り上がらない。そこで言葉を省略して,従来の語とは違った語感を持たせて,おもしろさを出し,会話を盛り上げているという(米川 1998)。」婃楽性を持つ単語は、一定の リズム感とキャッチ一さを備えている。ル動詞(尾谷 2019)は英語・日本語・人名などあらゆる言葉を 2 モーラに短縮した後、語末にルをつけることで動詞化するものだ。同じモーラ数と、短縮によるキャッチ一さがあり、若者の間で使われることが多い (玉岡 2010)。「4つ目の要因としては、仲間内で通じる言葉で仲間意識を高めているということも考えられる(米川 1998)。」 このように、言葉を短縮させることには、4つの要因があり、短縮語の使用はそれに対応する効果が発揮されることが期待される。特に若者言葉には、自由な表現が非常に多く含まれており、新語や流行語、JK 語などの多くは、若者が発信源である。 ## 1.3.2 乱れとしての短縮語 若者の言葉の乱れはよく指摘される。ら抜き言葉は有名な現象の一つだ。船木(2002)によれば、ら抜き言葉は動詞の語幹の「られる」接続を「ら」を抜いて可能を表現する語法で、助動詞の「られる」の短縮語である。本稿で扱う短縮語は、乱れとしての短縮語なのであろうか。それとも新しい日本語の一部なのであろうか。坂本(2001)は、言葉の乱れは、自分の規範と異なる言葉遣いを見聞きした時に発せられるもので、相手や第三者の発した言葉遣いが、自分の考える規範と異なっていると考えたときに、相手や他人を批判する時に使われるものだとしている。1.1 で述べたように、会話で短縮語が使用されるのは、対等な関係同士での会話である。このような場合に、相手の言葉に、自分の規範から外れた言葉遣いを見聞きすることは少ない。あっても、わざ わざ批判するほどの言葉遣いであることは稀である。本稿で扱う短縮語は、言葉の乱れと指摘される種類の語法ではなく、話し言葉として頻繁に使われる新しい語法である。 ## 2 検証 ## 2.1 日常会話の検証 短縮語の使用をより詳しく調べるための検証を行った。一つの話題について普段と同じ言葉遣いで大学生に会話をしてもらう。日常的な会話とするために、話題はトレンドワードや興味・関心を持っている趣味などの話題を選択してもらった。二人で 1 分間を目安にし、会話がひと段落したタイミングで終了する。1 分間を大きく超えた場合は、1 分前後で区切りの良い場所で編集し会話を記録し、会話時間が 2 分を超えないように設定した。音声を録音し、文字に起こしたものを付録 A に記す。一回目の検証を(1)、二回目の検証を(2)というように表記する。 ## 2.2 検証結果の分析 計 7 回の検証のうち、短縮回数は 41 回で、最も多く短縮された品詞は助動詞の 27 回だった。「〜している」を「〜してる」に短縮する形が最も多く見られた。会話時間の平均約 1 分 22 秒あたりの短縮語の出現回数は 5.86 回で、一度の会話に約 6 回短縮語が使用される。一方的な会話では聞き手の応答は「うん」「そうなんだ」など、単調で文字数の短い返答が多かった。返答に対する間や、「あ一」 「その〜」「なんか」などの壳長表現も多く見られた。仲間内にのみ伝わる短縮語は見られず、全てが日本語のネイティブスピーカーであれば意味がわかる表現であった。短縮語によって笑いが起こったり、会話が盛り上がったりすることはなく、短縮語に媅楽を意識する姿勢は見られなかった。短縮語が使用される要因として先行研究で 4 つ要因が挙げられたが、今回の検証では、短縮語に対応する効果は見られなかった。ただ、短縮することによって、単純に文字数が減少し、時短、スピード化に関しては一定の効果が得られることが分かった。表 2 は短縮回数を品詞別に集計し、 7 種類の短縮が確認され最も短縮が多いのは助動詞であった。 表 $2:$ 検証結果のまとめ単位(回) & \\ ## 2.3 検証結果の考察 スピード化の観点から一定の効果が見られたが、短縮語によって短くなった時間も 1,2 文字分の時間であって、スピード化を図るために短縮語が使用されたわけではない。助動詞や助詞の短縮は、会話上なくても伝わる文字を短縮したにすぎない。短縮語の使用で会話のスピードが速くなっても返答に対する間や穴長表現が当然あり、会話の時間自体を短くしようという意図は見られなかった。つまり日常会話で、短縮により文字数を短くし会話を早く終わらせたり、効率を高めようとしたりする目的はないと考えられる。短縮の要因は別にあることが推測される。では、なぜ短縮は行われるのだろうか。語句の短縮、特に助動詞や助詞の短縮は、単なる「言いやすさ」を無意識的に優先して短縮を行っているのではないだろうか。そしてそれが、口語における短縮語使用の要因なのではないだろうか。 ## 3 結論 ## 3.1 エネルギーの節約 以上の検証と考察を踏まえて、日本語会話の中で語句の短縮が起こる要因は、「エネルギーの節約」で あると考える。会話が最低限成立する範囲内で、文字数を節約しエネルギーを節約しようとしており、 そこには、長く話したがらないということが関係している。特に 10,20代の話者は、極力少ない文字数で会話をしようとする。親が子供に対して質問をした際に、「うん」や「知らん」、「あ、そう」 と淡白な返答をすることがよくある。反抗期や、適当に会話を流してもいい関係であったり、長い文字数をかけて会話をしたくないという姿勢が、若者にありがちであると考えられる。日常会話の中で、話題が解決・完結せずに次の話題に流れていくこともある。瀬沼(2005)も若者の話を聞かない態度に言及しており、「講義の場などでも、学生たちに話を聞く気はない」「話を聞いていないだけでなく聞く姿勢や態度すら持っていない」としている。学生同士の会話では「自分が発言したいために、「っていうか」を使い無理やり自分の話に変えているのも特徵である(坂本 2001)。別の話題が流れ込んだり、 相手の質問に答えずに話題が終了したりする事態が頻繁に起こり、適切な順序を踏んだ会話自体も、減少傾向にある。言葉が足らず、意図が伝わらなかつた場合は聞き返したり、後に説明を付け加えたりすることで会話を成立させようとする。一度の自分の番にすべてを話すのではなく、ラリー数を増やしてコミュニケーションを取るという方法に移行してきている。語句を短縮することで得られる効果のためでなく、会話にかかるエネルギーを節約しようとして文字を短縮させた結果、そのような効果も副産物的に得られるようになったのではないかと考える。 ## 3.2 文字による会話 SNS の普及により、画面上で、文字で、やり取りをする機会が圧倒的に多くなった。「LINE」をはじめとする SNS は今や、コミュニケーションツー ルとして日常生活に必要不可欠で、やり取りをより快適に行うには、簡潔な文章にすることが必要だ。玉岡(2010)が「携帯電話での電子メールの普及に関係がありそうである。長い文を短い短縮語的な表現に置き換えることは、携帯電話での電子メールの発信に好都合である。」と述べるように、書き言葉でこそ、短縮語は非常に多く使用される。承知したことを表すなら「おけ」、了解したら「りょ」または「り」と、これほどの文字数でも相手に意図を伝えることが可能だ。このような書き言葉は、話し言葉にも影響を与えている。LINEで「今何して る?」や「やっぱ今日行かんわ」と、対等な関係性の相手には短縮語を使用する。日常で機会を増した書き言葉は話し言葉にも伝染し対面の会話でも「おけ」や「りよ」などと話すようになる。書き言葉で短縮語を使用する理由も、単純に文字を打つことにかかる労力を減らすためだ。文字を打ちこむのと発音するのでは、文字を打ち込むほらが時間も労力もかかる。話し言葉で使う理由も労力つまり、「エネルギー」の節約であることは十分に考えられる。 ## 3.3 外来語短縮形成の定説 外来語短縮形成は、外来語で長い文字の名詞を、その一部分を抜き出し短縮語を形成するものだ。「インフレーション」を「インフレ」、「ハイテクノロジー」を「ハイテク」と短縮する。窪薗(2010) は、「これまでの研究に共通しているのが,短縮形は短ければ短いほど良い(the shorter, the better)という考えである。つまり, 短縮語形成は基本的に省エネ, 経済性 (economy) の原理によって引き起こされているから, 出力形が短くなるほど, その原理に合致すると考える。」と述べている。会話を行う当事者同士が意味を把握しているなら、「インフレ」、「ハイテク」のほうが言いやすく、会話でも疲れない。助詞や助動詞の短縮も同じ原理で、わざわざ「〜していますか?」と長く発話するよりも 「〜してる?」と尋衩たほうが言いやすく、疲れない。また、余計に気を遣うようなニュアンスも含まず、エネルギーを節約している。 ## 4 まとめ 日本語会話における短縮語使用の要因を、「エネルギーの節約」であると主張した。一度に長い文字数や時間をかけたくないという傾向があるということと、そもそも会話自体に力をかけたくない傾向があるということが根拠である。また、SNS の普及・発達や、それによる若者文化が他の世代にも浸透し、コミュニケーションひいては言葉のあり方にまで影響を及ぼすようになってきた。その中で短縮語の使用は、現代の会話に必要な「言いやすさ」と 「使いやすさ」を備えた最適な言語となりうる。また、言葉が変動的・流動的であるように、短縮語も時代が進むにつれて形やあり方が変化していくものだと考えられる。そのため、今後も継続的に言葉の変化について調查や検証を続け、敏感に最先端の言葉を注視していくべきだと考える。 ## 謝辞 本論文作成に当たって、小樽商科大学夜間主西口ゼミのメンバーの協力に感謝する。 ## 参考文献 1. 尾谷昌則(2019)「ル動詞を構文論の観点から見直寸」『日本言語学会第 158 回大会予稿集』387-392. 2. 䆶薗晴夫(2010)「語形成と音韻構造: 短縮語形成のメカニズム」『国語研プロジェクトレビュー』3, 17-24, 国立国語研究所. 3. 坂本恵(2001)「言葉の乱れをどう考えるか」『麒麟』10, 86(1)-78(9), 神奈川大学. 4. 瀬沼文彰(2005)「若者言葉をフィールドワークする」『コミュニケーション科学』22, 295-323, 東京経済大学. 5. 玉岡賀津雄(2010)「新しく作られた短縮語使用に関する世代間比較」『ことばの科学』23, 85-99, 名古屋大学言語文化研究会. 6. 船木久範(2002)「いわゆるら抜き言葉の現況とその考察」『日本文學誌要』65, 117-127, 法政大学国文学会. 7. 米川明彦(1998)『若者語を科学する』東京 : 明治書院. 品詞分解に使用したツール 「日本語品詞分解ツール」 ## A 付録 検証(1) A: 20 代男性大学生北海道出身・在住 B:20 代男性大学生北海道出身・在住 話題 : Apple について(2021 年 10 月 20 日) A:Apple 好き? B: どっちかというと、憧れてるイメージある。iPhone とかMac とか持ってないから。そういうの持ってみたいなとは思ったりはする。 A:あー、なるほど。 B:Apple 使ってる? $\mathrm{A}:$ 朝に食べたりとか? B:、、。 A:ごめん、今のボケ。 B:あ、そうなの、ごめん。 $\mathrm{A}$ : 今使ってるの、iPadなんよね。 B: iPadってなんか知的な人が使うイメージあるよね。 A:そんなことないよ。 B: iPadってなんか、アンドロのタブレットに比べて、重いって聞いたことあるんだけど、わかる? A:わかんないな。今までアンドロイド使ったことなかったから。逆に使ったことある? $B$ :タブレット持ってるね。 $\mathrm{A}$ :へえ一。 会話時間:1 分 38 秒 ## 検証(2) A:20代男性大学生北海道出身・在住 B:20代男性大学生北海道出身・在住 話題 : コロナ(2021 年 10 月 20 日) $\mathrm{A}$ : 前さ、なんか「ラーメン共和国」っていう札幌エスタの 10 階にあるラーメン屋で、俺働いてたんだけどさ、 B:うん。 A:なんかそんときに、冬祭りの時期っていうのもあって、なんか中国人の観光客が、もうほんと、めちゃくちゃ多く来てたんだよね。 B:、、、、。 A:で、なんか、うちの店のみんなが、コロナになんじやねえかなってめっちや心配してたんだよね。 B:そうなんだ。 A:そうそうそう。 B: 大変だったね A:そうなのさ。までも、そんときあんまりコロナの話題とかもなってなかったから、結構大丈夫じやねえかなって思ってたんだけど、なんか今だったら、もうすごいコロナって怖いもんって感じするよね、B。 B:そうだね A:だよな。なんか、どう思う B は? B:そうだね、最近はコロナ減っては来てるけど、やっぱりワクチン打った方がいいのか、打たない方がいいのかってとこが結構心配かな。 A:あ一、確かにね。それは言えてるわ。俺もそう思う。 B:ありがとう。 A:(笑い声) 会話時間:1 分 37 秒 検証(3) A:20 代女性大学生北海道出身・在住 B:20 代女性大学生北海道出身・在住 話題 : ハイキュー!!について(2021年 10 月 27 日) A:『ハイキュー!!』見たよ。 B:どこまで見た? $A : 2$ 期全部見て、、 B: 早い! A:そう、50 話見た! B:(笑い声)。結構かかるじやんそれ。 $A: 3$ 期の 3 話目。 $\mathrm{B}: 3$ 期ってなんのやつ? $\mathrm{A}$ : 白鳥沢学園。 B:あ、そっか、おけ。 B:Aが好きなキャラは? A:うちは、ケンマが好き。 B:あー、Bは、クロオが好き。あの、、 A:ケンマの横ね。 B:そうそうそう。 A:人気だよね。 B:そうだよね。え、あのさ、『ハイキュー!!』展行かない?来月。 A:いいよ、一緒に行こう。 B: 先に予約しないといけないのさ。 A:それ8日まででしょ? B:そうそうそう。 A:え、行く。行こ行こ。空けるわ B:行く人探してたんだよね、ずっと。 A:え、全然行く。それまでに全部見るわ。そしたら。 $\mathrm{B}$ :そう、早く見て。でも $\mathrm{B}$ はあとマンガ 4 巻分余ってんだよね。会話時間:1 分 6 秒
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-11.pdf
# 医療縮約表現 ## 一 医療記録に含まれる句や節に相当する合成語 — \author{ 相良かおる ${ }^{1}$ 黒田航 ${ }^{2}$ 東条佳奈 ${ }^{3}$ 西嶋佑太郎 ${ }^{4}$ \\ 麻子軒 ${ }^{5}$ 山崎誠 ${ }^{6}$ \\ ${ }^{1}$ 西南女学院大学 ${ }^{2}$ 杏林大学 ${ }^{3}$ 大阪大学 ${ }^{4}$ 医師 ${ }^{5}$ 関西大学 6 国立国語研究所 } ## 概要 医療記録には,句や節に相当する合成語が使われている. 我々は,これらを「医療縮約表現」と名付け, 語末要素の異なる 822 要素の医療縮約表現を選定し,語構造と意味の分析を行っている. 本発表では,多様な文字種と略語を含む医療縮約表現の語例を示し, 「臨時一語」との関わりと特徴を概観する。 ## 1 はじめに 医療記録には,2 種類の合成語が含まれる。一つは「テント上下転移性腫瘍」のような複合語であり,もう一つは「治療終了後」や「両下肢感覚低下」のような句および「主語十述語(SV)」の構造を持つ節に相当する合成語である。これらの合成語を対象とする実態調查は殆ど行われていない. このような背景から, 我々は複合語の語構造解析に着手した。具体的には, 複合語 7,087 語を医療の観点からみた語構成要素に分割した後, 得られた語構成要素 6,633 種に 41 種の意味ラベルを付与し 「実践医療用語_語構成要素語彙試案表 Ver.2.0 $\mathrm{i}$ (以下, 試案表 Ver.2.0)を公開した[1].試案表 Ver. 2.0 では,医療の知識がなくても語分割位置の推定ができるように分類語彙表[2]の項目を含む複合語を対象とした. これら語構成要素 6,633 種は, 専門用語のみの語構成要素からなる複合語の語構造解析に利用できる. しかし, 医療の観点からみた語構成要素の分割では, 複合語「テント上下転移性腫瘍」の語構成要素は「テント上下」「転移性」「腫瘍」の 3 要素となり,「テント」「上」「下」「転移」は含まれない.「転移」が抽出できれば,専門用語からなる複合語「腎癌骨転移」の語構造解析において「転移」 を利用できる。複合語から全ての語構成要素を抽出することができれば,複合語の語構造解析の効率は向上する。 そこで, 複合語から網羅的に語構成要素を抽出することを目的とした語構成要素の認識法「並列分散式の形態素解析(PDMA)」と, PDMA で得られた結果を近似して記述する記法「複層化語構成解析 (MLMA)」を考案した. 本手法については, 黒田が発表する[3]. 本発表では,「医療縮約表現」について述べる。 医療記録には,「グル音良好(グル音が良好であ る)」「白血球減少 grade1(白血球の減少は grade1 である)」「全身浮腫(+)(全身の浮腫があ る)」など,記号を含む複数の単語を一語化した表現がある. 我々はこのような合成語を「医療縮約表現」(以下,縮約表現)と呼んでいる. 現在, 語末要素が「抜糸」や「穿刺」などのサ変動詞語幹, 「染み出し著明」の「著明」や「グル音良好」の 「良好」などの形容動詞語幹,「圧迫止血中」の 「中」や「発赤程度」の「程度」などの副詞可能名詞である縮約表現 5,690 種を選定し, その内, 語末要素が異なる 822 種について語構造解析と意味分類を行っている. なお, 縮約表現 5,690 種の約 7 割に,試案表 Ver. 2.0 にある語構成要素が含まれている[4]. ## 2 多様な文字種を含む縮約表現 以下に縮約表現と, 縮約前の単語列の例を示す. ## 英数字を含む縮約表現 (1)「2\%キシロカインE8 万倍含有」 単語列 : $2 \%$ キシロカインは $\mathrm{E}$ (エピレナミン) の 8 万倍(希釈液)を含有 ^{i}$ https://www.gsk.or.jp/catalog/gsk2020-g/ } (2) 「生食 $5 \mathrm{cc}$ フラッシュ ${ }^{\mathrm{ii}}$ 後」 単語列: 生理食塩水 $5 \mathrm{cc}$ でフラッシュした後」 (3) 「CRP ${ }^{\mathrm{iii}}$ 陰性化 $\left.{ }^{\mathrm{iv}}\right.\rfloor$ 単語列: CRP(C-reactive protein)が陰性化した (4) (a) $\left.\lceil\mathrm{NST}^{\mathrm{v}}\right.$ 再検」 単語列 : ノンストレステスト (non-stress test) の再検査 (b) $\left.\lceil\mathrm{NST} T^{\mathrm{vi}}\right.$ 回診」 単語列: NST(nutrition support team)の回診 ## カタカナを含む縮約表現 (5) 「オムツ交換」 単語列:オムツの交換 「おむつ(御衸褓)」は和語であるが,カタカナが使われる場合がある(表 1). 表 (6)「グル音良好」 単語列:グル音viiiは良好 (7)「オペオリix済み」 単語列 : オペのオリエンテーション済み (8)「ラパロ㚴腎摘」 単語列 : ラパロによる左の腎蔵の摘出 ## 漢字と記号による縮約表現 (9)「漿液性浸出液十」「漿液性浸出液个」 単語列:漿液性浸出液xiが増加 (10)「ドレーン排液漿液性 $\rightarrow$ 抜去」 ii フラッシュ(flush):点滴ラインの管内の薬液を洗い流すこと。 iii CRP(C 反応性蛋白):体内で炎症反応や組織破壊が起きた時に血中に現れる蛋白質のこと. iv 陰性化:検査で反応が無くなること。 v ノンストレステスト:胎坚が出産時のストレスに耐えうる体力の有無を調べるテストをいう。 ${ }^{v i}$ NST:栄養サポートチームのこと。 vii 「医師経過記録」「看護経過記録」「他職種共有経過記録」は,それぞれ異なる 3 病院から提供を受けた若名加工済みの 1 年間の記録データである. BCCWJ での頻度は, 国立国語研究所が提供する Web アプリケーション「中納言」により求めた.単語列:ドレーンからの排液が漿液性なため (ドレーン)を抜去 ## 漢字のみの縮約表現 (11)「末梢冷感著明」 単語列 : 末梢の冷感が著明 (12)「回腸直腸吻合術 ${ }^{x i}$ 後」 単語列:回腸直腸吻合術の後 (13) 「気切閉創|xiij 単語列 : 気切(気管切開)の閉創をする ## 3 外来語の略語 縮約表現の語構成要素には,「オペオリ」「ラパ口」などの外来語の略語が含まれる. 言語学では, 語の一部を切り落としたり, 切り捨てたりして意味や品詞を変えずに単語を短くするプロセスを「クリッピング (clipping) 」と言う [5]. 「略語」とは,語の一部(語構成要素)を何らかの方法で縮約・省略した形であり,略語においては基本的にもとの語の意味は保存されており,その簡便な代用の語形として用いられる[6]. 「クリッピング」も外来語における「略語」も元の語の意味に影響しないことが前提となる。 縮約表現は,(4) “NST” のような原語から作られた略語や,和製英語から作成されたものなどがある. (7)「オペオリ」を例にとると,「手術前オリエンテーション」の英語は “preoperative orientation”であり,専門の辞書に立項されている.これらの接尾辞を省略すると “preoper orient” となる。従って「オペオリ」は「手術(operation)」 と「オリエンテーション(orientation)」の和製英語 2 要素からなる多項省略xiv と考えられる。 viii グル音 : グルグルという腸蠕動音のこと ix オペオリ:手術前オリエンテーション(英語 : preoperative orientation) のこと. $x$ ラパロ : 腹腔鏡下 (laparoscopic) 手術のこと. xi 漿液性浸出液 : 傷口からにじみ出てくる無害の薄い黄色透明な体液のこと。 xii 回腸直腸吻合術 : 手術名で,回腸と直腸を吻合 する手術のこと。 xiii 閉創:手術創を縫合などで閉じること。 xiv 多項省略 : 複合語を作っている各要素の一部分を省略すること 中川秀太(2015)は,漢語・外来語の略語を作る段階および使用段階での問題をあげている[7]. (1) 語形が復元しにくい (2) 同音異義語が増える (3) 同音語の連想と誤解 (4) 音の響きがよくない (5) 重要な要素が抜け落ち, それに気づきにくくなる (6) 耳で聞いてわかりにくく,聞き誤りの恐れがある (7) 略語なのか普通の熟語なのか判断しにくい (8) 重言が生じる恐れ これらの内,(4)「NST」は,隣接する語構成要素により意味が確定し, (2)の同音異義語の問題を持つ. ところで,(8)「ラパロ左腎摘」の「ラパロ(腹腔鏡)」の原語は, “laparoscopic” であり,「腹腔鏡下手術」の原語は, “laparoscopy assisted surgery” である。一方,別の手術法である開腹術の英語は “laparotomy” である. 従って略語「ラパ口」からは, 元の意味が判断できず, (2)同音異義語と(3)同音語の連想と誤解の問題を持つ. このように縮約表現の要素には,「オペオリ」のように省略形の略語からなる複合語と考えられるものや,「ラパロ=腹腔鏡下手術」のように専門用語化したものが含まれ, また, 略語が隠語として使われる場合もある. 従って, 医療の知識なしに外来語の略語を分類するのは困難である. なお森岡健二(1988)は, 「外来語は, 原語の形態素を無視した省略が多く, その場合には一種の暗号のニュアンスを帯びてくる」と述べている[8]. ## 4 慣用的な使用と表記の摇れ 縮約表現には,(9)「漿液性浸出液+」「漿液性浸出液个」のように多様な表現がある. そして同じ病院, 同じ診療科内で統一された表記が使われる訳ではない. 表 2 は, 3 施設 3 種類の医療記録での「グル音」 と同義語「腸蠕動音」の使用頻度の割合である.表 3 は,「オぺ後」「手術後」「ope 後」の出現割合である. 出現割合は異なるが, 複数の施設および医療記録で使われていることが見て取れる.また「オペオリ」「オペオリエンテーション」「手術前オリエンテーション」「術前オリエンテーション」 も 3 施設の医療記録に出現する. このことから複数の施設において, 多様な表現が定着し, 表記の摇れの問題を抱えていることが分かる. & & \\ ## 5 縮約表現の意味分類 複合語同様に,縮約表現も意味のある語に分割できる。例えば「人工呼吸」と「鼻翼呼吸」を単語に分割すると,「人工/呼吸」「鼻翼/呼吸」となる。 「呼吸」は生理的現象であり,右側主要部の規則に従えば,共に「呼吸」の種類を表す。しかし視点を変えて医療の観点から見ると「人工呼吸」は「医療行為」となり,「鼻翼呼吸」は「症状」または「状態」となる. 試案表 Ver. 2.0 では医療分野での利活用を考え, 医療の観点からみた語単位に分割し,意味ラベルを付与している. 従って「人工呼吸」には意味ラベル「医療行為」を, 「鼻翼呼吸」には「症状, 状態」を付与している. 縮約表現においても, 医療の観点からみた語分割を行い,意味ラベルを付与する。例えば「生食」の意味ラベルは「化学物質」となる. このように,試案表 Ver. 2.0 における意味ラベルは, 縮約表現の語構成要素の意味分類に利用できる. 一方,「ラパロ」は,「医療行為」の意味ラベルを付与しても,専門家の暗黙知を要する。原語の異なる「NST」などの略語については, 略語を一要素とするか隣接する要素を含めて一要素とするかの分  割位置と意味分類の検討が必要である. ## 6 表現の定型化 選定した縮約表現 5,690 語の語末要素には, 分類語彙表[2]に掲載されている語が 833 種ある. 語例の頻度が最も高い語末要素は「後」で 311 語あり, 前要素は「開始」「摄取」「投与」「手術」 など多様である. 次いで頻度の高い語末要素「施行」(176 語)の前要素は, 「退院オリ」「心エコー」「胃洗浄」 「薬物療法」「骨髄検査」など主に「医療行為」を示す要素となっている. また, 「開始」(142 語) の前要素は「抗がん剂」「全粥」「酸素吸入」な ど, 「薬剤」「食品」「医療行為」を示す要素となっている. このように, 同じ意味領域内で特定の語例に用例が集中し,表現の定型化がみられる[9]. ## 7 臨時一語との関わり 「医療縮約表現」は, 複数の単語連続を一語化して,記録作成の際に作られるという点で,林四郎 (1982)や石井正彦(1993)等の「臨時一語」と重なる点が多い.ここでは「縮約表現」と「臨時一語」の関わりについて述べる. 林四郎(1982)は, 辞書に恒常的な語として登録されることのない, その場限りのものとして臨時に作られる複合語を「臨時一語」としている[10].石井正彦(1999)は,「臨時一語」を林のいう 「臨時一語」の内,「文章を作る際に,その場で臨時的に作られる合成語」とし[11], 以下の要件を満たすものとしている. (1) 複数の単語が臨時的に結びついたものである (2) 複合語である (3) 複数の文節連続をその内部構造に持つ (4) もとの単語連続に復元することができる 医療記録には,「口底からの喠液流出良好」のように文の中で縮約表現が使われる場合もあるが,「白血球減少 grade1」「皮膚 : 全身浮腫 $(+) 」$ また医療記録では,縮約表現に先行してそれぞれに対応する単語列を含む文が出現することはなく, 記録者の頭の中で文を短縮化していると考えられる。 文例 : 口腔内治療は外来十かかりつけ歯科医で十分可能であり,退院の方針.気切閉創し,一般食問題なく摂取できれば OK そして,「グル音良好」「末梢冷感著明」「オぺオリ済み」など, 表現が定着し, 慣用的に複数の施設,医療記録で使われるものがある。 文章における臨時一語の多酓の調査によれば,新聞のリード文,科学技術抄録文,新聞の社会面,高校の「世界史」の教科書, 新聞の社説, テレビニュ一スに臨時一語が多いとされる[12]. これらの読者は,不特定多数であるのに対し,医療記録の閲覧者は医療行為者当人または,医療関係者で,言語使用域は,医療分野に限定される。 縮約表現の中には「気切閉創」のように複合語 「気管切開」の一部の要素を省略した多項省略 「気切」と単語「閉創」が連結されたものがある. そして医療関係者は「気切」を「気管切開」の略語としてではなく, 単語として認識し, 使用している場合もある。 従って, 縮約表現は「臨時一語」の特徴と重なる部分が多いものの, 単語列への復元が困難なものがあること,慣用的に使われ定着したものや,定型化した表現など「臨時性」とそぐわない性質があることから,我々はこれらを「医療縮約表現」と命名し解析を行っている. ## 8 おわりに 医療記録に含まれる句や節に相当する「医療縮約表現」の語例を紹介した。 現在, 語末要素の異なる縮約表現 822 語の医療の観点からみた語分割を行う中で,「NST」を 1 要素とするか「NST 回診」を 1 要素とするかのような分割単位の検討を行っている段階である.従って「単語列への復元が困難」な理由が,適切な要素に分割できていないためなのか, 分割した後の意味的な関係性が把握できないためなのかを明らかにする迄には至っていない. また, 異なる言語使用域の資料, 例えば法律文書や日記などにおける縮約表現の調査は行っておらず,単語だけでなく多項省略が含まれるなどの特徴が,医療縮約表現特有の言語的特色であるか否かについても分かっていない. 今回の縮約表現 822 語の解析では記号を含むものは扱っていないが,(9)「漿液性浸出液十」「漿液性浸出液个」の「+」や「个」は, 「増:増加」「上:上昇」などの漢字形態素に対応しており,これらの調査も今後の課題としたい. ## 謝辞 本研究は JSPS 科研費 JP18H03499, JP21H03777 の 助成を受けたものです. ## 参考文献 [1] 東条佳奈, 黒田航, 相良かおる, 高崎智子, 西嶋佑太郎, 麻子軒, 山崎誠, 実践医療用語_語構成要素語彙試案表 Ver. 2.0 の構築,言語資源ワークショップ 2022, 2022 [2] 国立国語研究所, 分類語彙表増補改訂版, 大日本図書, 2004. [3] 黒田航, 相良かおる, 東条佳奈, 西嶋佑太郎, 麻子軒, 山崎誠, 要素の重複と不連続性を扱える抽出型の語構成要素解析一医学用語の並列分散型形態素解析, 言語処理学会第 29 回年次大会,2023. (発表予定) [4] 山崎誠,黒田航,東条佳奈,西嶋佑太郎,麻子軒,相良かおる,医療記録における縮約表現の量的構造一医療用語との比較一,言語資源ワークショップ 2022, 2022. [5] Denis Jamet, A morphonological approach to clipping in English Can the study of clipping be formalized?, Lexis Jornal in English Lexicology, p.15-31, 2009. [6] 日本語学会, 日本語学大辞典, 東京堂出版, p.996, 2018. [7] 中川秀太, 漢語・外来語の略語, 日本語学, 34 (2) p.30-41,明治書院, 2015. [8] 森岡健二, 略語の条件, 日本語学, 07-10, p.4-12, 1988. [9] 東条佳奈,黒田航,相良かおる,西嶋佑太郎,麻子軒,山崎誠,医療記録における縮約表現の分析,言語資源ワークショップ 2022, 2022. [10]林四郎, 臨時一語の構造, 日本語学 131 集 p.15-25, 1982. [11] 石井正彦, 文章における「臨時一語化」と「脱臨時一語化」一脱臨時一語化の形式を中心に一, 日本語研究, 19 p.1-15, 東京都立大学, 1999. [12] 石井正彦, 臨時一語と文章の凝縮, 国語学, 173 集 p.104-91, 1993. [14] 森岡健二, 略語の条件, 日本語学, 07-10, p.4-12, 1988.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-12.pdf
# 『日本語歴史コーパス』への形容詞の語義 ・用法情報の追加 山崎 誠 ${ }^{1}$ 村田 菜穂子 $^{2}$ 前川 武 $^{3}$ 村山 実和子 ${ }^{4}$ ${ }^{1}$ 国立国語研究所 研究系 ${ }^{2}$ 大阪国際大学 基幹教育機構 ${ }^{3}$ 大阪国際大学短期大学部 ライフデザイン学科 ${ }^{4}$ 日本女子大学 文学部 yamazaki@ninjal.ac.jp nmurata@oiu.jp tmaekawa@oiu.jp murayamam@fc. jwu. ac.jp ## 概要 これまで公開されてきた『日本語歴史コーパス』 [1](以下「CHJ」という)には,時代名などのコー パス情報, 品詞などの形態論情報, 本文種別などの本文情報, ジャンルなどの作品情報, 作者などの作者情報, ページ番号などの底本情報, 底本の該当箇所へのリンクなどの外部リンクが収録されているが,語義や用法などの情報は付与されていない. そのため, 語義や用法についての分析を行うには,個々の研究者が独自にデータを作成するよりほかなかった. しかし, それでは非効率的であるため, 本研究では, CHJに形容詞の語義情報と用法情報を追加するためのデータを作成し, その応用例を示すこととした. ## 1 はじめに CHJ に対する語義情報の付与については,池上 (2017)[2]が CHJ(平安時代編)に出現する形容詞 22 語を対象に外部リンクにあるジャパンナレッジジ新編全集の当該ぺージの現代語訳を参考に『日本古典対照分類語彙表』[3]の分類語彙表番号を付与寸る試みを行っている。その後, 浅原ら(2017)[4]は同様の手法で平安時代の 4 作品について古典対照分類語彙表番号のアノテーションを行い, その過程で構築された「古典対照分類語彙表番号 - UniDic 語彙素番号対応表」[5]および整備済の「分類語彙表番号 - UniDic 語彙素番号対応表」[6]を用いて浅原ら (2022)[7]は、分類語彙番号を自動で付与する工夫を行い CHJ の全データに対して網羅的・体系的に 『日本古典対照分類語彙表』の分類語彙表番号および『分類語彙表増補改訂版』[8]の分類語彙表番号を付与している. 形容詞の用法については, 土岐 (2017) [9]が平安文学作品の会話文における動詞, 形容詞の用法 (連体法,準体法,終止法)について量的な分析を行っている. ここで紹介した「分類語彙表番号」は統語分類である類を示す 1 析の数字と意味分類である分類項目を示す 4 桁の数字をピリオドでつないだものである. ただし, 『日本古典対照分類語彙表』の分類語彙表番号はピリオドのない 5 桁の数字となっている. 例えば, 『日本古典対照分類語彙表』では, 見出し語「あかし (明・赤)」に対する意味分類として, $「 33420$ (人柄) $/ 35010$ (光) $/ 35020$ (色)」が割り当てられている. 先頭の「3」は形容詞・副詞・連体詞などの「相」を表し, 次の 1 棪は部門と呼ばれ, 「5」は「自然」を表すというように,階層的な構造になっている. この分類語彙表番号は大まかな意味分類を捉えるという目的では重宝されるものだが,元となる分類語彙表の粒度に左右され, 語義に識別にも限度があるため, 今回は, 分類語彙表番号を用いずに, 独自の手法で語義分類, 用法分類を試みたので, その分類手順と分類した語義・用法の応用例としていくつかの分析結果を報告する. なお, 本原稿は, じんもんこん 2021 およびじんもんこん 2022 で発表した内容[10]を基に新たな要素を追加したものである. ## 2 語義・用法情報の追加方法 CHJ の語義・用法情報の追加は,池上,浅原らと同様, CHJ のコーパス情報の「サンプル ID」と「開始位置」をユニークなキーとしたアノテーションデ一タの形で行う.このアノテーションデータのイメ ージは表 1 のようなものになる. 表 1 語義・用法アノテーションデータ & (四〕(3)数値・程度 & 連体用法 \\ ## 3 データの範囲 コーパス検索ツール「中納言」 [11]を利用して CHJ から品詞が形容詞のものを抜き出し(短単位および長単位),その中から「奈良」「平安」「鎌倉」「室町」「江戸」「明治」「大正」のいずれの時代にも 1 例以上出現し, かつ, その形容詞が構成する複合語の数が異なりで 5 以上あるもの 16 語の中から「深い」「憂い」「恥ずかしい」「高い」「安い」「難い」「痛い」「悲しい」「良い」「悪しい」の 10 語を分類の対象とし(ただし,用法分類については前半の 5 語のみ), $\mathrm{CHJ} の$ 用例としては, 平安時代および鎌倉時代の用例を対象に, 1 語あたりの用例数は 100 とし, 用例が 100 未満の場合は全数とした. ## 4 語義分類の手順 当初は『デジタル大辞泉』の分類に従って語義分類を行ったが, その後評価した結果, 古典語の語義のカバー範囲に不安があることから, 古典語の語義のカバー範囲が広い『日本国語大辞典』(ジャパンナレッジ, 2022 年 7 月〜8 月アクセス)の分類に従うこととした. 『日本国語大辞典』にないものは,作業者が語義を付与した. また, 小学館『日本古典文学全集』(ジャパンナレッジ)記載の現代語訳を参考にした. この語義分類については, すべて手作業にて行った. 形容詞全体を対象とするには膨大な数の用例を処理しなければならず,当然,自然言語処理による自動処理が望ましいが,現時点でのプロジェクトメンバー内に専門家がいないことや, 自動化のための学習用データがまだ不足していることから, まずは試行的に対象を限定して手作業にて行うこととした. ## 5 用法分類の手順 用法については,小田[11],土岐を参考にして詳細な分類基準を策定した,その策定にあたっては,当該形容詞の前後の語の品詞・活用形の情報を参照することで,基準を明確にすることを試みた。なお,前後の語の形態論情報については,「中納言」の「インラインタグを使用」という機能を利用し, 当該形容詞の前後に現れる語の品詞 (中分類) ・活用形 (小分類)の情報を同時に抽出している。 活用形ごとの分類基準を付録 A に示す. ## 6 応用例 次に, CHJ に追加された語義・用法情報の応用例を示す。まず,「中納言」を用いて CHJから形容詞のデータをダウンロードする. 次に,「サンプル ID」十「開始位置」をキーに語義・用法アノテーションデータと照合し, 語義・用法情報を付与したコーパスデータを作成する。その後は,Excel の機能を用いて集計・分析を行う.以下に応用例を 4 つ挙げる. 1 つ目は語義分類の結果を平安時代と鎌倉時代で比較したもの,2 つ目は,用法分類の結果を平安時代と鎌倉時代で比較したもの,3つ目は語義と用法の関連,4つ目はジャンルと用法の関連である。 ## 6. 1 語義分類の時代間比較 10 語のうち, (1)「深い」「憂い」「高い」「難い」 は時代間の差がほとんどない,(2)「恥ずかしい」は平安時代には [気詰まり]や[気おくれ]が多用されるのに対して,鎌倉時代になると大幅に減少し [決まりが覀い]が主流となる,(3)「痛い」は平安時代では [精神的苦痛] が多いのに対して,鎌倉時代は [肉体的苦痛]がほとんどである,(4)「悲しい」は平安時代,鎌倉時代とも [嘆かわしい] が主だが,鎌倉時代では[興味深い]の意が新たに生じている, (5)「良い」は平安時代では [正当・善][適当・相応]が主であるのに対して,鎌倉時代には [優れる] が圧倒的に多くなる,(6)「悪しい」は平安時代では [邪悪・不正][けしからぬ][機嫌が悪い]がほぼ均等に使われているのに対し,鎌倉時代では[邪悪・不正][けしからぬ]が中心となっていくことなどがわかった。 特徴的な例として「恥ずかしい」「痛い」「悲しい」のデータをそれぞれ表 2~表 4 に示す. 表 2 「恥ずかしい」の語義分類 表 3 「痛い」の語義分類 表 4 「悲しい」の語義分 ## 6.2 用法分類の時代間比較 用法分類については,「深い」「憂い」「恥ずかしい」「高い」「安い」の 5 語のみの分類だが,「深い」「憂い」「高い」については時代間の差はほとんどなく, 「恥ずかしい」では, 終止法と副詞法の比率が鎌倉時代に増えること, 「安い」では, 平安時代ではほとんどが「安からず」の形で用いられていたのに対し, 鎌倉時代になると, 連体法と副詞法が合わせて 50\%まで増えることがわかった。 特徴的な例として,「恥ずかしい」と「安い」のデータをそれぞれ表 5 と表 6 に示す. なお, 「5 用法分類」で詳細な分類基準を策定したと書いたが,その後一部基準の見直しが必要となったため, これ以降の用法に関しては, 代表的な用法の 1.連体法, 2.終止法, 3.副詞法と 4.その他に集約した形での分類結果を示すこととする. ## 表 5 「恥ずかしい」の用法分類 表 6 「安い」の用法分類 ## 6.3 語義と用法の関連 「深い」「憂い」「恥ずかしい」「高い」「安い」 の 5 語の語義と用法の関連については, (1)「深い」 は,全体としては平安時代,鎌倉時代とも連体法と副詞法で 70\%以上を占め, 終止法がほとんどないが,個別の語義としては,平安時代には「空間的距離」 や「関わり方」の意ではほとんどが連体法である, (2)「憂い」は平安時代,鎌倉時代とも 60\%以上が連体法, 終止法が $10 \%$ 程度, 副詞法がほとんどない, (3)「恥ずかしい」は, 平安時代には連体法が $8 \%$,終止法が 16\%,副詞法が 18\%と 3 用法合わせて $40 \%$強であるのに対して,鎌倉時代にはそれぞれ $4 \%$ , 26\%,32\%と連体法が少なく, 終止法と副詞法が増える,(4)「高い」は,全体としては平安時代,鎌倉時代とも連体法と副詞法で 60\%以上を占め, 終止法がほとんどないが,個別の語義としては,平安時代には「身分・地位」の意ではほとんどが連体法であり,「声・音が大きい」の意ではほとんどが副詞法である,(5)「安い」は,連体法,終止法,副詞法の 3 用法を合わせても 5\%であったのに対し, 鎌倉時代になると,終止法は変わらず,連体法と副詞法を合わせて 50\%を占めるようになる,などがわかった。特徴的な例として,「深い」の平安時代および鎌倉時代の語義と用法の関連をそれぞれ表 7 と表 8 に,「恥ずかしい」の平安時代および鎌倉時代の語義と用法の関連をそれぞれ表 9 と表 10 に,「安い」の平安時代および鎌倉時代の語義と用法の関連をそれぞれ表 11 と表 12 に示す. 表 7 「深い」の平安時代の語義と用法の関連 表 8 「深い」の鎌倉時代の語義と用法の関連 表 9 「恥ずかしい」の平安時代の語義と用法の関連 10 「恥ずかしい」の鎌倉時代の語義と用法の関連 表 11 「安い」の平安時代の語義と用法の関連 表 12 「安い」の鎌倉時代の語義と用法の関連 ## 6.4 ジャンルと用法の関連 「深い」「憂い」「恥ずかしい」「高い」「安い」 の 5 語のジャンルと用法の関連については, いずれの語も 1 つか 2 つのジャンルに多用されていて,それが全体の傾向に表れていることがわかった. そこで,全語を合わせて全体としての傾向を見ると, 平安時代は, 歌集や歌物語では連体形が多く,作り物語や日記では連体法と副詞法が多いこと, 鎌倉時代は歌集では連体形が多く, それ以外は連体法と副詞法が多いこと, また, 時代・ジャンルを問わず終止法の比率が低いことなどがわかった. 以下,5 語を合わせた全体での平安時代および鎌倉時代のジャンルと用法の関連をそれぞれ表 13 と表 14 に示す. 表 13 平安時代のジャンルと用法の関連 表 14 平安時代のジャンルと用法の関連 ## 7 おわりに これまで,形容詞 10 語の平安時代と鎌倉時代の用例に対して語義の分類を, 形容詞 5 語の平安時代と鎌倉時代の用例に対して用法の分類を行ってきたが,本研究の目的としては, 最終的に古代から現代に至る形容詞の通時的な語義の変遷や用法の変遷のプロセスを明らかにするところにあり,全体の構想からするとまだまだデータが不十分である. 今後は, 自然言語処理による自動化も視野に入れて, さらに対象となる語や時代範囲を増やしていきたい. また, 用法分類については, 助動詞や助詞が後続寸る場合を 1 つの用法としていたが,これについては,再度機能面からの見直しを行いたい。 ## 謝辞 本研究は JSPS 科研費 JP21K00279,20K13059 の助成を受けたものである. ## 参考文献 1. 国立国語研究所 (2021) 『日本語歴史コーパス』 バージョン2021.3(引用日:2023 年 1 月 10 日) https://clrd.ninjal.ac.jp/chj/ 2.『日本語歴史コーパス平安時代編』出現形容詞に対する古典分類語彙表番号アノテーション. 池上尚. : 言語処理学会第 23 回年次大会発表論文集, 2017. 3. 宮島達夫/鈴木泰/石井久雄/安部清哉編.日本古典対照分類語彙表. : 笠間書院, 2014. 4. 『日本語歴史コーパス』4 作品に対する分類語彙表番号付与とその分析. 浅原正幸, 加藤祥, 鈴木泰,池上尚. : 日本語学会 2018 年度秋季大会プログラム予稿集, 2018. 5. 国立国語研究所(2020)『古典対照分類語彙表分類番号-UniDic 語彙素番号対応表』(ver.0.8.0). (引用日:2023 年 1 月 10 日.) https://github.com/masayu-a/WLSP2UniDic_historical 6. 国立国語研究所(2020)『分類語彙表番号-UniDic 語彙素番号対応表』(ver.1.0.2).(引用日:2023 年 1 月 10 日.) https://github.com/masayu-a/wlsp2unidic 7. 分類語彙表番号を付与した『日本語歴史コーパス』データ. 浅原正幸, 池上尚, 鈴木泰, 市村太郎,近藤明日子, 加藤祥, 山崎誠. : 日本語学会 2022 年度春季大会プログラム予稿集, 2022. 8. 国立国語研究所編. 国立国語研究所資料集 14 分類語彙表増補改訂版. : 大日本図書, 2004 9. 平安和文会話文における連体法、準体法、終止法の比較分析. 土岐留美江. : 愛知教育大学研究報告. 人文・社会科学編 66, 2017. 10. 形容詞の通時的語義・用法データベースの作成,山崎誠, 村田菜穂子, 前川武, 村山実和子. : じんもんこん 2021 論文集, 2021. 形容詞の通時的語義・用法データベースの構想と進捗状況. 山崎誠,村田菜穂子, 前川武, 村山実和子. : じんもんこん 2022 論文集, 2022. 11. 国立国語研究所コーパス検索アプリケーション「中納言」(バージョン2.7.0, データバージョン 2022.10)。(引用日: 2023 年 1 月 10 日.) https://chunagon.ninjal.ac.jp/ 12. 小田勝. 古典文法総覧. : 和泉書院, 2015 ## A 付録 活用形ごとの分類基準 } & a.連体用法 & 連体修飾語を形成する \\
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-13.pdf
# 要素の重複と不連続性を扱える抽出型の語構成要素解析並列分散型形態素解析の提案 黒田 航 ${ }^{1}$ 相良 かおる ${ }^{2}$ 東条 佳奈 ${ }^{3}$ 麻 子軒 ${ }^{4}$ 西嶋 佑太郎 ${ }^{5}$ 山崎 誠 ${ }^{6}$ 1杏林大学 2 西南女学院大学 ${ }^{3}$ 大阪大学 4 関西大学 5 医師 6 国立国語研究所 ## 概要 重複や不連続な語構成要素を持つ医療用語を対象に,それらを効果的に認識するための抽出型の構成要素認識法を二種類提案する。一つ目は完全並列分散型の語構成解析法 PDMA で,もう一つは PDMA より性能が劣るがアノテーションが楽な MLMA である.『実践医療用語_語構成要素試案表 Ver. 2』のサンプル 15 事例の解析を元に, 語構成要素認識に一般的に使用されている句構造解析 (PSA) の平均認識率が,PDMA が認識できる要素の $65 \%$ 程度, MLMA の 70\%程度である事を示した. ## 1 はじめに 医療 (関連) 用語には複雑な医学用語が数多く含まれる.こうした用語を含む文章の意味処理をしたいなら,これらの用語の高性能な解析が必須である.解析が高性能であるためには,精度が高いだけでなく,被覆率が十分に高くなければならない。これは,言語処理の究極の目的が内容理解であり,その中間目標が高性能検索であり,その実現手段が高性能解析であるという処理間の依存構造を考えると,当然の帰結である. この観点からすると, 医療用語を含めた専門用語の語構成解析にそれなりの先行研究 $[1,2,3,4,5]$ があるにもかかわらず,被覆率が十分に高くないが故に,十分な成果が得られているとは言いがたい。低被覆率の証拠は §4 で示す。 低被覆率の理由は単純であると同時に, 根本的なものである. どの手法も用語の構成要素を所与の語の分割によって得ようとしているが,医療用語の形態素は部分的に重複している度合いが高く, 重複を許さない分割では,必要な要素が取りこぼされる. 例えば『実践医療用語_語構成要素試案表 Ver. 2』1) [6] に収録されている7,087 事例からほぼランダムに選んだ 99 事例中,重複が生じている事例は少  なくとも 73 事例である2) (付録 Aを参照). 語構成要素の認識の (単なる精度向上ではなく) 被覆率の向上を目標を含めれば,理想的な実装法は,要素の認識を非排他的に行う多層抽出式が望ましいとわかる。本論に先立って次の事を確立しておく: 3$)$ (1)複合語 $c$ の語構成要素の認識は, $c$ の分割 (segmentation) でなく, $c$ 中の有意味な部分文字列の (可能な限り) 網羅的な抽出 (extraction) の方が望ましい。 この後の本論で,(1)の目標を実現する語構成要素抽出法の実装例として,並列分散形態論解析 (Parallel Distributed Morphological Analysis: PDMA) を紹介する (§2). それに続けて,PDMA が与える結果をそれなりの性能で近似する簡便なアノテー ション方法 (複層化形態論解析 (MLMA)) を紹介し (§3),MLMA と通常の句構造解析 (Phrase Structure Analysis: PSA) の性能を,PDMA の結果をべースラインにして比較する (§4). 最後に §5 で考察と展望を述べる。 ## 2 語構成要素認識の並列分散化 医療用語には構成関係が複雑な複合語が頻出する。例えば (2)のような疾患名がそうである: (2)先天冠状動脈異常 これを形態素解析した結果は (3) である (ここでは MeCab +UniDic 2.1.2 の解析結果を示した): (3)先天/冠状/動脈/異常 この解析の実質は有意味な要素 ( $\approx$ 形態素)への分 2) 第一著者の非公式の調査では形態素重複の発生率は一般に,学術用語で一般用語より高いが,医療用語での出現率の高さは異例である. 3)最適でない分割の悪影響は,単語分かち書きが所与でない言語 (例えば日本語) で深刻な問題であるが,単語分かち書きをする言語が形態素の重複から免れていると考えるのは妥当でない. 英語のような言語でもカッコ入れの逆理 (bracketing paradox) [7] はそれなりの頻度で起こっている. 例は generative grammarian の意味の構成が (generative (grammarian)) ではなく, ((generative grammar) -ian) である事. 割である. だが,なぜ分割なのか?それは構成素解析が適正解析 (proper analysis) [8] と同一視されているからである. では,なぜ適正解析でなければならないのか? それは,産物が連結 (concatenation) で元に戻せるからである.ただ,自然言語で要素合成法が連結でなければならない根拠は弱い. 重ね合わせ (superposition) であっていけない理由は,どこにもない $[9,10]$. 実際,「(自然) 言語の複合的な単位は要素の連結で得られる」という (現実反映の保証のない) モデル化が処理上の問題を幾つも発生させている. 適正解析を想定した解析には辞書使用の単位や境界認定アルゴリズムを変えても回避できない次の難点がある. (4) a. 複数の構成要素の間に要素の共有 (= 重複) がある場合,それを認識できない。 b.不連続な構成要素を認識できない。 一般用語の解析では (4) は (見かけは大して) 問題にならない. だが,医療用語を始めとする専門用語の語構成解析では深刻な問題が生じる. 実例として (4) の制限を取り外した解析を図 1 に示した。このような結果を得る解析法を並列分散形態論解析 (PDMA) と呼ぶ事にする. 図 1 (2)の PDMA [serialized 列のビット列で降順ソート] 図 1 中の表で,手作業で入力しなければならないのは,i) 成語性,ii) 要素数,iii) 構成性を表わす $0 / 1$ の値のみで,他要素は指定値から自動生成される4).図中の表は (2) の構成要素が次だと規定している. (5) a. 要素数 1: 異常, 脈, 冠状, 先天 b. 要素数 2: 先天異常, 動脈, 脈異常, c. 要素数 3: 動脈異常, 先天動脈異常 d. 要素数 4: 冠状動脈異常, 先天動脈異常 e. 要素数 5: 先天冠状動脈異常 $[=$ 全体 $]$ 図中の表を得るための PDMA のアルゴリズム: (6) a. 対象語 $w$ を文字に分割する 4) 要素数の自動算出も理論的には可能だが,Excel の作業シート上で実装するのは手間である。 b.w を構成する要素ごとに,その部分に 1 を付与し、非部分に 0 を付与する. c.これらを,より大きな単位を得るように再帰的に結合を繰り返す。が,この際,i) 重複を避けない,ii) 不連続な構成を認める. PDMA の結果は FCA を使った語構成解析法 [11] と互換である。それを示す結果を図 2 に示した. この Hasse 図は, [ $\ldots$ 異常], [ ... 脈... ] , ... [ [先天冠状動 *〉,〈.*常.*〉を属性とする形式文脈から生成されたものである.重複している構成要素,不連続な構成要素を含めた構成要素の部分/全体関係が網羅的で体系的に表わされている5). 図 2 (1) の該当部分の FCA [より単純な様子は束の上に, より複雑な要素は束の下に配置される] ## 3 厳密な並列分散解析の近似解 §2 で解説した PDMA は,語構成要素の取りこぼし = 偽負例 (false negatives) の発生を理論的に 0 にできる手法である. それ故に,語構成要素の認識過剰 = 偽正例 (false positives) の発生を心配しなければならない。ただ,偽正例の抑制は教師あり学習で実現できるので,これは PDMA の弱みというょり強みだろう。 それに対し, 偽負例の発生 $=$ 真正例の不足は機械学習でも補う事が難しい。 ただ,PDMA はアノテーションの方法としては非現実的に複雑でもある。そのため,被覆率が 100\% に達していなくても,それなりの被覆率で PDMA の結果を近似できる簡便なアノテーション手法があると都合が良い。その手法を次に紹介する。 ## 3.1 構成関係の多重アノテーション 句構造解析 (PSA) では要素の始まりと終わりに標識を付ける。この用途には通常,次のように“[”と “]”の対が使われる。 (7)a. [[動脈] 硬化] b. [動脈 [硬化]] このような記法は頻繁に用いられるものだが,二つ難点がある.第一の難点は, §1 で述べたように,形  態素の重複や不連続性を扱えない事である. 第二の難点は,語構成の主従関係と医療用語としての意味的な主要部と修飾部 (あるいは述語/項構造)を正しく反映している保障がない事である。上の (7) の $\mathrm{a}$, $\mathrm{b}$ のいずれが妥当な解析なのかは二点目に依存し,一方を選び,それを一貫して使用しなければならない. ただ,この方針を複数の作業者の間で統一するのは,実地の観点からすると難しい。 相良ら $[12,13,14]$ の目的は, 言語学的な意味での医療用語の語構成を知る事に加えて,専門用語として述語/項構造関係を明示する事である.その理解の下では,上の例で言えば,[硬化] が病名の主要部で,[動脈] が病変の起きている場所 (事態性名詞 [硬化] の一種の項) であるという意味関係も明示したい.このために,医療用語の意味的主要部の標識づけは,言語学的な意味での主要部と概念的に区別し,別の基準で認定されるべきである. この要件を満足するために,意味的主要部 $m_{0}$ から $m_{n}$ までの遠心拡大構造を“く”と“>”の対を使って i) $<m_{n}<\ldots<m_{0} \gg \gg$ や ii) $\ll<m_{0}>\ldots>m_{n}>$ で標識する ${ }^{6)}$.この表記では,“動脈硬化” の解析結果は<動脈<硬化>>である. 同様に, “冠状動脈硬化”の解析結果は (8)である. (8)<冠状<動脈<硬化 >>> この解析は,この病変が硬化 (症)>の一種で,また動脈硬化 (症)>の一種である事を記述している. その一方,解析 (8) は [冠状動脈] という構成要素を取りこぼしている。対応づけありの境界記号が一種類しかない場合, 解析精度と被覆率が両立しないジレンマを避けようがない。それを避ける方法は,i) §2 で示したように,境界指定を根本から定義し直すか,ii) 複数次元の構成関係を並列化し, それぞれに別の境界記号を使う事である。二つ目の案の実装例を,複層化形態論解析 (Multi-Layered Morphological Analysis: MLMA) と呼ぶ事にする. 境界記号の優先順位をく...>, $\ldots$. . $],\{\ldots\},(\ldots)$ と定めた上であれば,多重構造アノテーションのア 6) 第一著者が調査した限りでは,日本語の意味解析ではi) が支配的な構造であり, ii) は “非-”, “脱-”, “前-”のような否定性の接頭辞の作用を記述する時にのみ現われる。i) は右枝分かれ構造であるので,補足があった方が良いだろう。 < ..>>で右枝分かれが支配的なのは,主要部後置型言語では統語構造と語形成論で左枝分かれが支配的なのと矛盾しているように見えるが,ここでは意味的要素の作用域 (一種の依存関係)を記述しており,撖密には語構成を記述している訳ではないのが,その乘離の理由である。論を一般化すると, 統語解析の結果 (例えば句構造) と意味解析の結果は (多くの期待に反して) 一致するとは限らない. ルゴリズムは次の通り: (9) a.Step 1: 用語の (通常右端にある) 主要部 $A$ を $<\ldots>$ で括り出し,それを元に修飾構造を遠心的に再帰的に認定する。 b.Step 2: この境界認定で認識されない構成要素がある場合, $A$ の左側に別の遠心構造の中心 $B$ を見つけ,[...] を使って遠心構造を指定する。 必要に応じて,\{..\},( ...)を使って Step 1, Step 2 と同様に解析する. 現実的には, 3 重以上の多重性が必要な場合,§2 で記述した図 1 に例示した PDMA の利用を考える方が無難である ## 3.2 実例 この解析法を事例 (10) に適用すると,(11)を得る. (10)冠状動脈硬化症 (11) a.Step 1: < 冠状 < 動脈 < 硬化 < 症 >>>> b.Step 2: <[冠状 < [動脈 <[硬化]]] < 症 >>>> c.Step 3: <[冠状<[動脈 $\}<[$ 硬化]]] $<$ 症 >>>> d.Step 4: (...) で認定すべき要素なし NB: Step 3 は $[\{$ 冠状 $)<[$ 動脈 $\}<[$ 硬化 $]]]<$症 >>>> と等価 (11c)のような MLMA の結果は可読性が低く,そのままでは利用可能性が低い,そのため,このようなアノテーションから構成要素を網羅的に自動抽出する Perl スクリプト7)を用意した。それで (11c)の構成要素を抽出した結果は次である: 図 3 (11c) を元にした語構成要素の自動抽出結果 ## 4 PDMA と MLMA と PSA の比較 ## 4.1 比較 1 性能比較の概要を掴んでもらうために,事例 (10) の PMDA の結果と MLMA の結果と PSA の結果を比較する。事例 (10) の MLMA と PSA として,そ  れぞれ $<[\{($ 冠状 $)<[\{$ 動 $<[$ 脈 $\}\}<$ 硬化 $]] k$ 症 $>>>>$ と [[ 冠状 [ 動脈 ]][ 硬化 [ 症 ]]] を考え, PDMA が認識するどの要素をそれらが認識するかを評価する。 PDMA と MLMA の偽正例を人手除去したものを, PDMA.filtered と MLMA.filtered とする. 図 4 (10)の PDMA.filtered をベースラインとした MLMA と PSA の被覆率の比較 図4にある通り, MLMA.filtered はPDMA.filtered の要素を $100 \%$ 認識するが, PSA は (不連続な要素を含まない事例の解析でも) PDMA.filtered, MLMA.filtered の要素をそれぞれ $70 \%$ しか認識しない. ## 4.2 比較 2 比較 1 と同じ手法で,他の事例で性能比較した結果が図 5 の表である (被覆率は PDMA.filtered の個数に対する割合).IDは『実践医療用語_語構成要素試案表 Ver. 2』[6] の行番号,Term はその ID を持つ事例である. ID が空欄の場合,理由を Note に示した. 図 5 PDMA と MLMA と PSA の 16 事例の被覆率の比較 PSA の平均認識率は, 対 PDMA.filtered $の$ 比較 (PSA.rate1) で $65 \%$ 程度, 対 MLMA.filtered $の$ 比較 (PSA.rate2) で $70 \%$ 程度だった. 認識率が検索の成功率だと解釈すれば,PSA は明らかに低性能である。 ## 5 議論 ## 5.1 関連研究 PDMA は並列分散型の統語解析 Parallel Distributed Parsing (PDP) [15] を語構成解析に適用したものであ る. MLMA の方法論は Autolexical Syntax (AS) [16] と類似している。ただし類似性は表面的なものに過ぎない. AS の想定は統語論と形態論の部門単位の並列化であり,形態論内,あるいは統語論内の解析の並列化ではない. ## 5.2 過剩認識の問題と機械学習との関連 図 1 に例示した解析は,作成に手間がかかる。その理由で,性能が劣っていても MLMAのような簡易版や PSA の方が望ましいと思う人がいるかも知れないが,そうではない.PMDAでない解析では偽負例を原理的に回避できず,語構成解析が用語抽出だと考えた場合,欠点となる。 PDMA は逆に,解析で偽正例が生じる可能性を心配しなければならない程,解析精度は高い。偽正例を回避する手順の本質は成語性の問題であり,専門的知識がない者にこれが容易に実現できないのは仕方がない。ただ,成語性の判定は,候補の列挙よりは遥かに楽な作業である。 真正例を取りこぼさず,偽正例の個数を専門知識を持った者による事後検証によって 0 に近づける事ができたとすると,図 1 中の表にあるような解析結果は, 複合語 $c$ が与えられた時の $c$ の構成要素認識の正例と負例の混合となる。この特性を利用すれば,機械学習 (例えば Deep Learning)を使って,専門用語の構成要素認識を自動化できる見込みは十分にある。PDMA は確かに遂行にそれなりの手間はかかるが,それに見合った性能を備えている。 ## 5.3 専門用語の語構成は特別な例外か? 専門用語の語構成論には並列分散解析が必要かつ有用という主張が本稿の骨子であるが,次の疑問が発展的に生じる. Q1. 非専門用語の語構成論に並列分散解析は不要なのか? Q2. 並列分散解析が必要なのは,語構成論に限定されるのか? Q1 の答えが否なのは,専門用語と非専門用語の境界が曖昧である事から明らかである。非専門用語で並列分散解析の必要性が低いのは,語の内部構造の複雑度が専門用語に較べて低いからである。 Q2への答えは Q1への答えに関係している。内部構造の複雑度が並列分散解析の必要性を増すのであれば,文の規模でも要素が並列分散解析が必要な複雑度を持っていると考えるのが自然である.それが不要に見えるのは,主流言語理論に目を晦まされ,現実の複雑性を見損なっているからではないか? ## 謝辞 本研究は JSPS 科研費 JP21H03777 の助成を受けたものである. FCA は Concept Explorer 1.3 (http://conexp. sourceforge.net)で実行した. ## 参考文献 [1] 小山照夫, 大江和彦. 医学専門用語の構造解析. 学術情報センター紀要, 第 6 巻, pp. 115-124. 1994. [2] 山田恵美子, 松本裕治. 専門用語の内部構造解析. 言語処理学会第 15 回年次大会発表論文集, pp. 340-343, 2009. [3] 山田恵美子, 松本裕治. 文字係り受けに基づく専門用語の内部構造表現と解析. 研究報告音声言語情報処理 (SLP), Vol. 2009, No. 20, pp. 1-6, May 2009. [4] 内山清子, 岡照晃, 東条佳奈, 小野正子, 山崎誠, 相良かおる. 実践医療用語の語構成要素抽出の試み. 言語資源活用ワークショップ発表論文集, 第 3 巻, pp. 463-467. 国立国語研究所, 2018. [5] 麻子軒, 黒田航, 相良かおる, 東条佳奈, 西嶋佑太郎,山崎誠. 実践医療用語における語構成要素の結合順序に関する量的調査. 計量国語学会第 66 回大会発表論文集, 2021 . [6] 東条佳奈, 黒田航, 相良かおる, 高崎智子, 西嶋佑太郎, 麻子軒, 山崎誠. 実践医療用語_語構成要素語彙試案表 ver.2.0 の構築. 言語資源ワークショップ, 2022. [7] Andrew Spencer. Bracketing paradoxes and the English lexicon. Language, Vol. 64, pp. 663-682, 1988. [8] Charles C. Fries. Meaning and linguistic analysis. Language, Vol. 30, No. 1, pp. 57-68, 1954. [9] Kow Kuroda. "Pattern Lattice" as a model for linguistic knowledge and performance. In Proceedings of the 23rd Pacific Asia Conference on Language, Information and Computation, Vol. 1, pp. 278-287, 2009. [10] 黒田航, 長谷部陽一郎. Pattern Lattice を使った (ヒトの) 言語知識と処理のモデル化. 言語処理学会第 15 回大会発表論文集, pp. 670-673, 2009. [11] 黒田航, 相良かおる. 医療用語の is-a オントロジー構築の FCA を使った効率化. 言語処理学会第 28 回年次大会発表論文集, pp. 705-709, 2022. [12] 相良かおる. 実践医療用語における語構成要素の意味ラベルについて. 言語処理学会第 27 回年次大会発表論文集, pp. 559-562, 2021. [13] 相良かおる, 山崎誠, 麻子軒, 東条佳奈, 小野正子, 内山清子. 実践医療用語の語構成要素: 意味を基準とした分割. じんもんこん 2019 論文集, 2019. [14] 相良かおる, 小野正子, 高崎智子, 東条佳奈, 麻子軒,山崎誠. 実践医療用語の語構成と意味: 語構成要素語彙表試案表の作成にむけて.じんもんこん 2020 論文集, 2020. [15] Kow Kuroda. Arguments for Parallel Distributed Parsing: Toward the integration of lexical and sublexical (semantic) parsings. In Proceedings of the 24th Pacific Asia Conference on Language, Information and Computation, pp. 455-462. Institute of Digital Enhancement of Cognitive Processing, Waseda University, 2010. [16] Jerrold M. Sadock. Autolexical Syntax: A Theory of Parallel Grammatical Representations. University of Chicago Press, 1991. ## A 重複のサンプルデータ 表 1 見本中の重複の有無 (抜粋) & & & & \\ 表 1 は調査に用いたサンプル 99 のうち,ページに収まる 81 例を示した。 ID は『実践医療用語_語構成要素試案表 Ver. 2』の行番号 (= ID). 重複の値が 1 のものは確実に重複ありの事例, 0.5 のものは $<\ldots>$ の設定次第で重複ありの事例,0のものは重複なしの事例. 值が 1 事例の割合は $0.74 \%$ (= 73/99). 值が 0 より大きい事例の割合は $0.78 \%$ (= 77/99). ## B FCA の概要 ## B. 1 FCA は何をする道具か? FCA は属性によって定義された対象を自動分類するためのアルゴリズムの一つである。それは概念 (concept)を次のように形式化する事で実現される. (12) a.(形式的) 概念 $c$ とは,外延 $o$ と内包 $a$ の対である (記号で書けば, $c:=(o, a)$ ). $a^{\prime}$.ただし,外延 $o$ と内包 $a$ はそれぞれ,対象の全体集合 $O$ と属性の全体集合 $A$ の部分集合とする. $\mathrm{b} . c_{i}$ と $c_{j}$ は,〈一方が他方を含む〉という関係について順序構造をなし, $c_{i}, c_{j}$ を要素にもつ概念の全体集合 $C$ に束構造 (lattice) がある. 要するに, FCA は,概念を (12a)のように (数学的に) 定義した上で,概念間の関係を (12b) が定義する束構造として明示化する手順である. もっと一般的な理解では, 対象の集合 $O=$ $\left.\{o_{1}, \ldots, o_{n}\right.\}$ があり,それらを記述する属性の集合 $A=\left.\{a_{1}, \ldots, a_{m}\right.\}$ が (暫定的に) 定められた時, $O$ と $A$ の直積 $O \times A$ に真理値を割り当てる. これが表現する状態を離散的に自動分類するためのアルゴリズムの一つが FCA である. ## B. 2 FCA の実行例 図 6 は形式文脈として表 2 を与え, 結果として得られる Hasse 図である。 表 2 太陽系の惑星の FCA を使った分類 \\ Venus & 1 & 0 & 0 & 1 & 0 & 0 & 1 \\ Earth & 1 & 0 & 0 & 1 & 0 & 1 & 0 \\ Mars & 1 & 0 & 0 & 1 & 0 & 1 & 0 \\ Jupiter & 0 & 0 & 1 & 0 & 1 & 1 & 0 \\ Saturn & 0 & 0 & 1 & 0 & 1 & 1 & 0 \\ Uranus & 0 & 1 & 0 & 0 & 1 & 1 & 0 \\ Neptun & 0 & 1 & 0 & 0 & 1 & 1 & 0 \\ Pluto & 1 & 0 & 0 & 0 & 1 & 1 & 0 \\ 図 6 (2)を形式文脈として構築した Hasse 図
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-1.pdf
# JMedRoBERTa: 日本語の医学論文にもとづいた 事前学習済み言語モデルの構築と評価 杉本 海人 1,3 壹岐 太一 $2,3 *$ 知田 悠生 ${ }^{1,3}$ 金沢 輝一 3 相澤 彰子 1,3 1 東京大学大学院 2 総合研究大学院大学 3 国立情報学研究所 } \{kaito_sugimoto, iki, chida, tkana, aizawa\}@nii.ac.jp ## 概要 英語圈において,医学論文で事前学習を行った言語モデルが,医療ドメインの様々なタスクで有効であることが示されている。日本語では診療記録で事前学習を行った UTH-BERT [1] が公開されているものの,医学論文を用いたものは存在しない. そこで本研究では, 日本語の医学論文で事前学習した言語モデルである JMedRoBERTaを提案する。評価実験の結果, JMedRoBERTa は医療ドメインタスクにおいて UTH-BERT と同等またはより高い性能を発揮するほか,一般ドメインタスクにおいても比較的高い精度を示すことを確認した.また,複数トークナイザの比較から,トークナイザの差によりモデルが得意とするタスクが異なる傾向が示唆された. ## 1 はじめに 近年,医療ドメインに特化した事前学習済み言語モデルを構築する研究が盛んである. 英語圈では,医学論文データベース PubMed ${ }^{1)}$ や診療記録デー タベース MIMIC-III [2] にもとづき, BioBERT [3], ClinicalBERT [4], BlueBERT [5], PubMedBERT [6] などのモデルが提案されている.こうしたモデルは,医学用語の自動抽出 [7] や表記摇孔解消 [8], 医学論文の検索 [9] など,幅広いタスクに応用されている。 また,日本語のモデルとしては,診療記録を用いて事前学習を行った UTH-BERT [1] が存在する. 診療記録が患者情報の記録に主眼を置くのに対し, 医学論文は基礎研究から症例報告まで幅広い内容を扱うのが特徴である。したがって, 医学論文で事前学習を行うことにより, 診療記録からは得られない知識を獲得できる可能性がある。また, 英語のモデルの研究では, 医学論文で事前学習  1) https://pubmed.ncbi.nlm.nih.gov/ された PubMedBERT が診療記録で事前学習された ClinicalBERT よりも下流タスクでの性能が高い例が見られる [6,7]. こうした背景から,日本語の医学論文を用いたモデルの事前学習が有益だと考える. 本研究では約 $1.8 \mathrm{~GB}$ (約 1,100 万文)の日本語の医学論文データを用いて RoBERTa [10] のフルスクラッチ学習を行う.モデルのトークナイザに関しては,分かち書きを前処理として行う場合と行わない場合の双方を試す. 学習したモデルを 4 つの医療ドメインタスク(2つが医学論文に関するもの,2つが診療記録に関するもの),および JGLUE [11] に含まれる5つの一般ドメインタスクで評価する. 評価実験の結果,提案モデルが医学論文に関するタスクで UTH-BERT よりも高いスコアを示したほか,診療記録に関するタスクでも UTH-BERT に並ぶスコアを示した. また,分かち書きを行わないモデルは行うモデルよりも概ね高いスコアを示したが,一部のタスクにおいては逆の結果が見られた. さらに,複数の一般ドメインタスクにおいて,提案モデルは一般ドメインの言語モデルに匹敵するスコアを示した. 提案モデルを我々は JMedRoBERTa と名付け,付録 A に示したリンクで公開している. ## 2 JMedRoBERTa の構築 ## 2.1 フルスクラッチ学習・追加学習 あるドメインに特化した言語モデルを作成したい場合,既存の一般ドメインの言語モデルに追加で事前学習を行う流儀と,フルスクラッチで事前学習を行う流儀の 2 種類が知られている $[12,13,14]$. 膨大な医学用語を含む医療ドメインにおいては,フルスクラッチ学習モデルである PubMedBERT [6] が追加学習モデルである BioBERT [3] に比べて多くの医学用語を語彙に含み,複数の医療ドメインのタスクで 示し,そうでない場合は,トークナイザによって分割された後のトークン群を示す. なお,[UNK] は対応するトークンが存在しないことを表し,\#\#⿲前のトークンと結合して単語をなすことを表す。 & \\ より高い性能を発揮している.この結果を踏まえ,本研究でもフルスクラッチ学習を行う. ## 2.2 学習用データ 本研究では,大規模な日本語の医学論文データを用いる.各データには論文の抄録(アブストラクト)のテキストのほか,その論文が属する分野や索引語(キーワード)等のラベルが付与されている.一部のデータは論文の本文のテキストを含む。それらのうち, JMedRoBERTa の事前学習には抄録および本文のテキストを用いる。また,その他のデータは評価タスクに使用する。詳細は付録 B に示す. モデルの事前学習で用いるテキストのサイズは,合計で約 $1.8 \mathrm{~GB}$ (約 1,100 万文)である. なお,テキストは事前に半角文字を全角文字に正規化する。 ## 2.3 トークナイザの訓練 英語と異なり日本語では単語間の空白文字が存在しないため,トークナイザの構築において,分かち書きを前処理として行うべきか否かが焦点の一つとなる.この違いは, モデルの下流タスクの性能へも一定の影響を与えることが確認されている $[15,16]$.本研究では,分かち書きを行うトークナイザとして万病 WordPiece トークナイザを,分かち書きを行わないトークナイザとして SentencePiece トー クナイザを訓練する. 両者ともに語彙数は 30,000 とする. 万病 WordPiece トークナイザは, $\left.\mathrm{MeCab}^{2}\right)$ を用いて入力文を単語列に分かち書きした後, WordPiece [17] によりサブワード化を行うものである. MeCab の辞書選択においては,通常用いられる ipadic に加えて,大規模な病名辞書である万病辞書 [18] を使う。これにより, 病名が分かち書きの時点で複数の単語列に分割されることを防ぐ.  一方, SentencePiece トークナイザは, SentencePiece [19](Unigram モデル)により, 文から直接サブワー ド化を行うものである. 出現頻度の高い文字列はひとかたまりのトークンとして処理されるため,医学論文において頻度の高い医学用語は, 分割されずに 1トークンとして扱われることが期待される. 表 1 はトークナイザの訓練によって得られた JMedRoBERTa の語彙を, 日本語 Wikipedia で事前学習された東北大 BERT $^{3}$ ),および日本語の診療記録で事前学習された UTH-BERT の語彙と比較したものである. JMedRoBERTaが多様な医学用語を語彙に含むことを裏付けている。 ## 2.4 モデルの事前学習 Liu ら [10] は,Next Sentence Prediction タスクの削除やマスク位置の動的な変更などにより BERT [20] の事前学習がさらに効果的になることを指摘し, 改良された BERT 型言語モデルを RoBERTa と名付けた. 本研究では RoBERTa の事前学習手法を採用する. 2.3 節で挙げた 2 種類のトークナイザそれぞれに関してモデルの事前学習を行い,「万病 WordPiece モデル」「SentencePiece モデル」を作成する. 訓練設定の詳細は付録 C に記載する。 ## 3 医療ドメインタスクによる評価 ## 3.1 タスク・データセットの概要 医学論文の分野分類抄録テキストから分野を予測するタスクである。2.2 節で示した学習用データのうち事前学習に用いていないものから,分野が 1 つだけラベル付けされた医学論文のデータをランダムに 100,000 件抽出し, $8: 1: 1$ で訓練用・バリデー 3) https://huggingface.co/cl-tohoku/ bert-base-japanese-whole-word-masking 表 2 医療ドメインタスクにおける評価結果. 各モデルのスコアは,異なるランダムシードを用いた 5 回の実験結果の平均値である。太字は全モデルにおける最も高いスコア,下線は2種類の JMedRoBERTaのうちより高いスコアを示す。 & \\ ション用・テスト用とする.訓練におけるラベルの種類数は 111 である. 医学論文の索引語への副標目の付与論文に付与された索引語に対して副標目 (サブヘディング)4)を付与するタスクである. 論文の抄録と索引語のペアを入力し,適切な副標目を候補の中から複数予測するマルチラベル分類として定式化する. データ作成の詳細は付録 D に示す. なお,予測候補の副標目は訓練用データに出現する 26 語とする。 診療記録の固有表現抽出 NTCIR-11 MedNLP-2 [21]の Task 1 を用いた評価を行う.このタスクでは,入力である診療記録から病状および時間表現を抽出する.訓練データ,テストデータにおける診療記録の数はそれぞれ 102 件,49 件である。 診療記録への病名コード付与 NTCIR-12 MedNLPDoc [22] の Task 1 を用いた評価を行う. このタスクでは,診療記録から対応する複数の ICD-10 病名コード5)を予測する。訓練データ,テストデータにおける診療記録の数はそれぞれ 200 件, 78 件である.なお,テストデータは 3 人のアノテー タによって病名コードが付与されており,3人全員が付与したコードのみを含むデータは SURE,これに加えて 2 人以上が付与したコードも含むデータは MAJOR,これに加えて誰か 1 人が付与したコードも含むデータは POSSIBLE と名づけられている. 4)副標目とはある索引語がどのような文脈で使われているかを示す副次的なキーワードである.例えば「精神障害」という索引語に対し「薬物療法」という副標目を加えて検索することで,薬物を用いた精神障害の治療法に関する文献のみを調べることができる. 5) https://www.cdc.gov/nchs/icd/icd10.htm ## 3.2 実験設定 医学論文の分野分類と診療記録の固有表現抽出の 2つのタスクは,それぞれ通常の分類問題,系列ラベリング問題として処理する. 副標目付与タスクは一度に各ラベルの有無を二値分類するマルチラベル分類として扱う. 評価の際, macro-F1 はテストデータにおいて出現しない副標目を無視して 20 副標目を対象に算出する. 病名コード付与タスクは,診療記録と病名の類似度学習を行うことで解く. 詳細は付録 Eに示す. 評価の際は,シェアードタスクに倣い本研究でも,予測と正解ラベルのコードが完全に一致する場合に正解とみなす LV4 (Exact match),コードの前 3 文字が一致する場合に正解とみなす LV3 (Rough match), コードの大分類が一致する場合に正解とみなす LV0 (Category match)の 3 種類でそれぞれ評価を行う. ## 3.3 結果 表 2 に結果を示す。医学論文に関する 2 つのタスクにおいては, JMedRoBERTaの 2つのモデルが東北大 BERT や UTH-BERT よりも高いスコアを示している。さらに,診療記録の固有表現抽出においては万病 WordPiece モデルが,診療記録への病名コード付与においては SentencePiece モデルが UTH-BERT に匹敵するスコアを示している。これらから,医学論文を用いた事前学習が医療ドメインの幅広いタスクにおいて有効であることが示唆される. JMedRoBERTaの 2つのモデルの間では, 固有表現 表 3 JGLUE の dev セットにおける評価結果. JMedRoBERTa のスコアは,異なるランダムシードを用いた 3 回の実験結果の平均值である. JMedRoBERTa 以外のモデルのスコアは, JGLUE の GitHub リポジトリに掲載された base モデルの値である. 下線は 2 種類の JMedRoBERTaのうちより高いスコアを示す。 & \\ 抽出を除いて SentencePiece モデルが万病 WordPiece モデルよりも高いスコアを示している。これは,分かち書きを行わないSentencePiece モデルは日本語の単語境界を越えたトークンを語彙に多く含み ${ }^{6}$,同一の文書をより少ないトークン数で表現できることが影響している可能性がある。一方で,固有表現抽出に関しては, 固有表現のアノテーションが単語境界に従って行われる場合が多く,分かち書きを行う万病 WordPiece モデルに有利だと考えられる. ## 4 一般ドメインタスクによる評価 ## 4.1 タスク・データセットの概要 日本語言語理解ベンチマーク JGLUE [11] に含まれる,以下の 5 つのデータセットを用いる: MARC-ja(ネガポジ分類による感情分析タスク), JSTS(意味的類似度計算タスク), JNLI(自然言語推論タスク), JSQuAD(抽出型機械読解タスク), JCommonsenseQA(常識推論を要求する選択肢型機械読解タスク). ## 4.2 実験設定 JGLUE の GitHub リポジトリ7)に公開されているデータ(v1.1)をもとに実験を行う. データ内のテキストは事前に全角文字に正規化する。 ## 4.3 結果 表 3 に結果を示す. JSTS や JNLI において, JMedRoBERTa は一般ドメインで事前学習を行った他の言語モデルに匹敵する高いスコアを出してい 6)例えば「可能性が示唆された」や「有意差は認められなかった」といったフレーズが語彙に含まれている. 7) https://github.com/yahoojapan/JGLUE 8)例えば JNLIにおける majority baseline は 0.553 であり, JMedRoBERTa のスコアはそれよりも十分に高い.言語理解において特に基本的なタスクであり,ドメインにかかわらず学習可能であることを示唆している. 一方で MARC-ja において,JMedRoBERTa は予測を全て positive と返した場合のスコア(0.855)になっており, 分類そのものに失敗している. また, JCommonsenseQA においても一般ドメインの言語モデルに比べるとスコアを大きく下げている.これらは医学論文に記述されない日本語の性質や常識を問うものであるため,自然な結果である。 JSQuAD については, 万病 WordPiece モデルに限って見ると, JMedRoBERTa は他の言語モデルに匹敵するスコアを出している。すなわち,JSQuAD は一般ドメインでの読解評価を目指して構築されたデータセットであるが,特定のドメインで事前学習されたモデルでも容易に解けることを意味する. ${ }^{9)}$ ## 5 まとめ 本稿では, 日本語の医学論文にもとづく事前学習済み言語モデル JMedRoBERTa の構築と評価について述べた. 医療言語処理の様々な領域において JMedRoBERTa が広く活用されることを期待する. 今後の方向性として,医学論文の引用関係を事前学習で用いた BioLinkBERT [23] や, 医学オントロジーの知識を事前学習で用いた DRAGON [24] のようなモデルを日本語でも作成することが挙げられる.また,言語モデルのフルスクラッチ学習には大量の計算リソースが必要になるのが課題である. そこで,計算コストを抑えつつ,モデルを追加学習よりも効果的にドメイン特化させる exBERT [25] のようなアプローチを日本語で試すことも考えられる。 9) SentencePiece モデルは万病 WordPiece モデルに比べてスコアを大きく落としている.これは, 3.3 節の固有表現抽出夕スクにおいて SentencePiece モデルがスコアを落とした原因と同様,トークンの区切りと解答のスパンの開始終了位置が一致しないことによるものである. なお,JGLUE の著者らも XLM-RoBERTa に対して同様の報告をしている. ## 謝辞 本研究は, JST の AIP 日独仏 AI 研究 (課題番号 JPMJCR20G9)および学際大規模情報基盤共同利用・共同研究拠点 (JHPCN)(課題番号:jh221004)の支援を受けた. 本研究成果の一部は,データ活用社会創成プラットフォーム $\mathrm{mdx}$ を利用して得られた. ## 参考文献 [1] Yoshimasa Kawazoe, Daisaku Shibata, Emiko Shinohara, Eiji Aramaki, and Kazuhiko Ohe. A clinical specific BERT developed using a huge Japanese clinical text corpus. PLOS ONE, Vol. 16, No. 11, pp. 1-11, 112021. [2] Alistair EW Johnson, Tom J Pollard, Lu Shen, Li-wei H Lehman, Mengling Feng, Mohammad Ghassemi, Benjamin Moody, Peter Szolovits, Leo Anthony Celi, and Roger G Mark. MIMIC-III, a freely accessible critical care database. Scientific data, Vol. 3, No. 1, pp. 1-9, 2016 [3] Jinhyuk Lee, Wonjin Yoon, Sungdong Kim, Donghyeon Kim, Sunkyu Kim, Chan Ho So, and Jaewoo Kang. BioBERT: a pre-trained biomedical language representation model for biomedical text mining. Bioinform., Vol. 36, No. 4, pp. 1234-1240, 2020. [4] Emily Alsentzer, John Murphy, William Boag, Wei-Hung Weng, Di Jindi, Tristan Naumann, and Matthew McDermott. Publicly available clinical BERT embeddings. In Proceedings of the 2nd Clinical Natural Language Processing Workshop, pp. 72-78, Minneapolis, Minnesota, USA, June 2019. [5] Yifan Peng, Shankai Yan, and Zhiyong Lu. Transfer learning in biomedical natural language processing: An evaluation of BERT and ELMo on ten benchmarking datasets. In Proceedings of the 18th BioNLP Workshop and Shared Task, pp. 58-65, Florence, Italy, August 2019. [6] Yu Gu, Robert Tinn, Hao Cheng, Michael Lucas, Naoto Usuyama, Xiaodong Liu, Tristan Naumann, Jianfeng Gao, and Hoifung Poon. Domain-specific language model pretraining for biomedical natural language processing. ACM Trans. Comput. Heal., Vol. 3, No. 1, pp. 2:1-2:23, 2022. [7] Yongwei Zhang, Rui Cheng, Lu Luo, Haifeng Gao, Shanshan Jiang, and Bin Dong. SRCB at the NTCIR-16 RealMedNLP Task. In NTCIR-16, 2022. [8] Shogo Ujiie, Hayate Iso, and Eiji Aramaki. Biomedical entity linking with contrastive context matching. CoRR, Vol. abs/2106.07583, , 2021. [9] 吉井瑞貴, 竹下昌志, ジェプカ・ラファウ, 荒木健治.論文の構造とタイトルを独立して考慮した医学論文検索モデルの提案. ことば工学研究会: 人工知能学会第 2 種研究会ことば工学研究会資料, Vol. 67, pp. 1-8, 122021. [10] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A Robustly Optimized BERT Pretraining Approach. CoRR, Vol. abs/1907.11692, , 2019. [11] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese general language understanding evaluation. In LREC 2022, pp. 2957-2966, Marseille, France, June 2022. [12]壹岐太一, 金沢輝一,相澤彰子. 学術分野に特化した事前学習済み日本語言語モデルの構築. 第 139 回情報基礎とアクセス技術研究発表会, 2020. [13] Masahiro Suzuki, Hiroki Sakaji, Masanori Hirano, and Kiyoshi Izumi. Construction and Validation of a PreTraining and Additional Pre-Training Financial Language Model. In SIG-FIN 28, pp. 132-137, 2022. [14] Keisuke Miyazaki, Hiroaki Yamada, and Takenobu Tokunaga. Cross-domain analysis on Japanese legal pretrained language models. In AACL-IJCNLP 2022 (Findings), pp. 274-281, Online only, November 2022. [15] 築地俊平, 新納浩幸. Tokenizer の違いによる日本語 BERT モデルの性能評価. 言語処理学会第 27 回年次大会, 2021. [16] 井上誠一, Nguyen Tung, 中町礼文, 李聖哲, 佐藤敏紀.日本語 GPT を用いたトークナイザの影響の調査. 言語処理学会第 28 回年次大会, 2022. [17] Mike Schuster and Kaisuke Nakajima. Japanese and Korean voice search. In ICASSP 2012, pp. 5149-5152, 2012. [18] Kaoru Ito, Hiroyuki Nagai, Taro Okahisa, Shoko Wakamiya, Tomohide Iwao, and Eiji Aramaki. J-MeDic: A Japanese disease name dictionary based on real clinical usage. In LREC 2018, Miyazaki, Japan, May 2018. [19] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In EMNLP 2018: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. [20] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In NAACL-HLT 2019, pp. 4171-4186, June 2019. [21] Eiji Aramaki, Mizuki Morita, Yoshinobu Kano, and Tomoko Ohkuma. Overview of the NTCIR-11 mednlp2 task. In NTCIR-11, 2014. [22] Eiji Aramaki, Mizuki Morita, Yoshinobu Kano, and Tomoko Ohkuma. Overview of the NTCIR-12 mednlpdoc task. In NTCIR-12, 2016. [23] Michihiro Yasunaga, Jure Leskovec, and Percy Liang. LinkBERT: Pretraining language models with document links. In ACL 2022, pp. 8003-8016, Dublin, Ireland, May 2022. [24] Michihiro Yasunaga, Antoine Bosselut, Hongyu Ren, Xikun Zhang, Christopher D. Manning, Percy Liang, and Jure Leskovec. Deep bidirectional language-knowledge graph pretraining. In NeurIPS 2022, 2022. [25] Wen Tai, H. T. Kung, Xin Dong, Marcus Comiter, and Chang-Fu Kuo. exBERT: Extending pre-trained models with domain-specific vocabulary under constrained training resources. In EMNLP 2020 (Findings), pp. 14331439, Online, November 2020. [26] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In ICLR 2015, 2015. ## A モデルの公開リンク 本研究で作成した事前学習済みモデルは以下のリンクで公開されており, Hugging Faceの Transformers ライブラリを経由して呼び出すことができる。 ・万病 WordPiece モデル(語彙数 $30,000 )$ : https://huggingface.co/alabnii/ jmedroberta-base-manbyo-wordpiece - SentencePiece モデル(語彙数 30,000 ): https://huggingface.co/alabnii/ jmedroberta-base-sentencepiece なお,本文では言及しなかったが,本研究ではモデルの語彙数の影響を調査するため,他の条件を揃えて語彙数 50,000 のモデルも並行して構築し, 評価した. これらは以下のリンクで公開されている。 ・万病 WordPiece モデル(語彙数 50,000): https://huggingface.co/alabnii/ jmedroberta-base-manbyo-wordpiece-vocab50000 - SentencePiece モデル(語彙数 50,000 ): https://huggingface.co/alabnii/ jmedroberta-base-sentencepiece-vocab50000 ただし,語彙数の差によるタスク性能への影響は(トー クナイザの差による影響と比べると)ごくわずかであり,語彙数の多いモデルの方がどのタスクでも性能が高い, または低いというような一貫した影響は見られなかった。 ## B 学習用データの詳細 本研究では,JST から提供を受けた 2 種類の非公開デー タを学習に用いる. 1 つは,論文の抄録のみを含むデータである.このデー タから,JST 分類コードが「医学」に該当するデータ10)の和文抄録のみ抽出する.その上で,データをランダムに 8:1:1 に分割し, それぞれ train, validation, test セットとする. train セットはトークナイザの訓練用,およびモデルの事前学習の訓練用とし, validation セットはモデルの事前学習のバリデーション用とする. test セットはモデルの評価データセットの構築にのみ使う. もう 1 つは,論文の抄録に加えて本文を含むデータである.このデータから,同様に医学論文データの和文抄録・本文のみ抽出し,全てトークナイザおよびモデルの訓練に使う. モデルの事前学習で用いるテキストのサイズは,前者が約 1.6GB(約 1,000 万文),後者が約 $0.2 \mathrm{~GB}$ (約 140 万文) である. ## C 事前学習の訓練詳細 ## C. 1 ハイパーパラメータ 表 4 に,JMedRoBERTa の事前学習におけるハイパーパラメータ一覧を示す. 10)https://jdream3.com/service/science/life.htmlの「大分類:医学 (L0700)」を参照.表 4 ハイパーパラメータの一覧 ## C. 2 その他の訓練のエ夫 万病 WordPiece モデルにおいては,事前学習のマスク穴埋めタスクの際に,1つの単語に対応する複数のサブワー ドは全てマスクする Whole Word Masking を採用する。また, 学習の高速化のため, 単精度浮動小数点数 (FP32) と半精度浮動小数点数(FP16)を組み合わせた自動混合精度(Automatic Mixed Precision:AMP)演算を導入する。 ## D 副標目付与タスクのデータ作成 ## 詳細 はじめに 2.2 節で示した論文データのうち事前学習に用いていないものから,(抄録,索引語,副標目集合)の組を抽出する(副標目集合は空でもよい)。次に,このままでは副標目集合が空の事例数が多いため,全ての索引語について副標目集合が空の抄録を取り除く.最後に,索引語のカテゴリでフィルタリングを行い医学に特に関係する索引語を含む組だけを残す。このようにして得られる 359,434 件の組を,抄録が分割をまたがないという条件のもと,6:2:2 で訓練用・バリデーション用・テスト用に分割する. ## E病名コード付与タスクの訓練詳細 まず,訓練データのラベルである病名コードを標準病名マスター11)を用いて病名に変換し,(診療記録,病名) の組を作成する。そして,同一の組に含まれる診療記録と病名の埋め込みの距離が近くなるよう対照学習を行う。 なお,埋め込みは各モデルの [CLS]トークンに対応する最終出力層から得る.また,対照学習における負例は,訓練バッチ内の異なる 2 つの組から 1 つずつ取得した診療記録と病名のペア (in-batch negatives) とする. 推論時は,入力の診療記録に対して最も埋め込みの近い病名を順に出力し,標準病名マスターを用いて病名コードに変換する(最終的に異なる 10 個の病名コードを予測とする. 
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-2.pdf
# 接尾辞を持つ単語の語義定義文とその分散表現の分析 須山晃平 佐々木稔 茨城大学 工学部 情報工学科 } \{18t4050x, minoru. sasaki.01\}@vc. ibaraki.ac.jp ## $\cdot$概要 単語の語義定義文は、使用頻度が高い単語については精度が高いが、使用頻度が低いものについては精度が低いという課題がある。この論文では、自然言語処理モデルの一つである Sentence-BERT[1]モデルを用いて、接尾辞を持つ単語 godhood と意味的類似性の高い単語を導出した。また、膨大な語彙を持つ英語版 Wiktionary[2]の語義定義文を用いることで、意味的類似性の検索の精度の向上を図った。 ## - 1 はじめに 本研究では、英語版ウィクショナリーの記事の内容を機械可読にした辞書である ENGLAWI を用いて、接尾辞を持つ英単語の語義定義文において、分散表現を取ることで定義文の精度について分析した。 ## - 1.1 研究の背景と目的 Sajous ら[3]は、ENGLAWI の定義文で学習した FastText モデル[4]と LSTM アーキテクチャ[5]の 2 つのモデルを用いて、英単語 godhood と意味的類似性の高い上位 10 個の単語をそれぞれ求めた。図 1 は、 Sajous らが行った実験によって求められた、2つのモデルにおける godhood の上位 10 個の近傍語である。図 1 に示したように、この実験により得られた単語の中には、接尾辞"-hood"を含む単語が FastText モデルには 5 個、LSTM アーキテクチャでは 3 個存在しているが、この中には fatherhood や motherhood など、godhood とは意味的類似性のない単語が含ま 図 $1: \operatorname{godhood}$ の上位 10 個の近傍語[3] れていた。"-hood"のような接尾辞は、語基に別の意味を添加するものであるため、単語の意味においては補助的な役割を果たす。ENGLAWI の語義定義文では、接尾辞を持つ単語の語義定義文に特徴的な記述の形式が存在することがある。表 1 は、godhood を含む 5 つ接尾辞"-hood"を含む単語とそれらの単語の ENGLAWI における語義定義文を示したものである。これらの単語は、接尾辞"-hood"に対応する記述 (The state of being)による影響を強く受けたために、同じ接尾辞を持つ単語の類似度が高くなるという問題があつた。 この問題に対処するために、本論文では、高精度で文章の意味的類似性の検索が可能な SentenceBERT モデルを用いることを提案する。この Sentence-BERT モデルを用いて、ENGLAWI の語義定 表 1 : 接尾辞”-hood"を含む語の語義定義文 義文から godhood との意味的類似性が高い単語を求めることにより、意味的類似性の検索の精度が向上するかどうかを研究した。 また、接尾辞を含む低頻度の単語について、 ENGLAWI の定義文の分散表現を求め、その値を他の文章と比較・分析する。 ## - 2 関連研究および関連手法 ## - 2. 1 Sentence-BERT Sentence-BERT は、自然言語処理モデルである BERT [6]を改良したモデルであり、2019 年に Nils Reimers と Iryna Gurevych により提案された[1]。この Sentence-BERT は、学習済みの BERT モデルに Siamese Network を組み合わせてファインチューニングすることで文章の分散表現を求める手法である。複数の文章を用いた意味的類似性の検索などのタスクにおいて、BERT モデルを使用すると精度が低いという課題が存在する。Sentence-BERT では、この課題に対処するために、Siamese Network と Triplet 損失関数を用いることで、 2 つの文章の類似度を効率的に求めることができるようになる。また、SentenceBERT を用いることによって、BERT を用いた文章間の類似性判定の精度を維持しながら、文章の意味的類似性の検索が可能である[7]。 ## - 2. 2 Wiktionary Wiktionary は、2002 年に開始した、多言語に対応したオンライン上の辞書である。ある 1 つの単語や熟語、フレーズを見出し語とする記事があり、各記事には、見出し語の語義定義文のほか、語源や発音、例文などが収録されている。Wiktionary には、180 以上の言語に対応したヴァージョンがあり、その中で記事数が最多である英語版 Wiktionary には 700 万以上の記事がある。 ## - 2. 3 ENGLAWI ENGLAWIは、2020 年に Franck Sajous らにより提案されたもので、英語版 Wiktionary の記事の内容を XML で暗号化することにより、機械が記事の内容を読み取ることを可能にした辞書である。ENGLAWI における単語の語義定義文を利用して意味的類似性の検索をすることにより、Wiktionary 上の語義定義文における意味的類似性の検索が可能となる。 ## . 3 提案方法 本研究では、Sentence-BERT モデルを用いて、 ENGLAWI の語義定義文の分散表現を求めることにより、godhood と意味的類似性の高い上位 10 個の単語を求めた。 1 つの見出し語が複数の語義定義文を持つ場合は、各定義文と godhood の定義文とのコサイン類似度を求め、すべての類似度の値を平均したものをその見出し語の類似度とした。 ## .4 実験 ## - 4. 1 実験方法 Omkiran Malepati [8]が提案したプログラムを基に、 ENGLAWI に収録されたすべての見出し語におけるすべての語義定義文の分散表現を Sentence-BERT モデルを用いて抽出し、godhood の語義定義文(The state of being a god; divinity)の分散表現とのコサイン類似度を取ることで、godhood と他の ENGLAWI の見出し語との意味的類似性を求めた。見出し語が複数の定義文を持つ場合は、その見出し語のすべての定義文との類似度をそれぞれ取ったものを平均した。 ## - 4.2 実行結果 表 2 は、Sentence-BERT モデルを用いて求められた、godhood と意味的類似性の高い上位 10 個の見出 し語と godhood とのコサイン類似度を表したものである。表 3 は、表 2 で示された 10 個の単語の ENGLAWI における語義定義文である。表 3 において、 godlike は、"Having characteristics of a god." と”Characteristics of a god.”の 2 つの語義定義文を持っており、表 1 における godlike のコサイン類似度の値は、2つの語義定義文それぞれと godhood の語義定義文との類似度の平均を取ったものである。 ## 表 $2: \operatorname{godhood$ の上位 10 個の近傍語} ## 表 3 : ENGLAWI の語義定義文 (Sentence-BERT) \\ ## . 5 考察 表 4 は、図 1 で示した、FastText とLSTM を用いて導出された godhood の近傍語のうち表 1 にない 16 個の単語の ENGLAWI における定義文である。 ## 表 4 : ENGLAWI の語義定義文 (FastText, LSTM) \\ 表 2 の語義定義文で示したように、Sentence-BERT モデルを用いて導き出された godhood の上位 10 個の近傍語の語義定義文には、表 4 で示した語義定義文の多くとは異なり、"god"や"divinity"といった単語が含まれている。これらの単語は、godhood の ENGLAWI の語義定義文である”The state of being a god; divinity”において元の単語(god)の意味を表す部分 (a god; divinity)に含まれている。これは、 godhood の語義定義文において、「〜の状態」などの意味を持つ接尾辞”-hood"の意味を表す部分(The state of being)よりも、元の単語の意味を表す部分が重視され、接尾辞による影響を受けなかったことを意味する。したがって、Sajous ら [3]が 2 つのモデルを用いて行われた実験の結果よりも、意味的類似性の精度が向上しているといえる。 表 5 は、表 2 で示した godhood の上位 10 個の近傍語について、Wikipedia の単語の利用頻度のファイ し語の Wikipedia 上における出現回数を表したもの 出し語は、Wikipedia における出現回数が 2 回以下である、すなわち、単語の利用頻度のファイルに記載がない単語である。また、ens entium は 2 単語で構成される見出し語のため、出現回数がより少ない entium の出現回数を示した。 表 5 に示したように、godhood の上位 10 個の近傍語のうちの 7 個の単語で出現回数が 1 桁であった。 このことから、膨大な語彙を持つ英語版の Wiktionary を用いることにより、利用頻度の高い単語だけでなく、低頻度の単語に対しても高い精度で意味的類似性を求めることができる。  http://redac.univ-tlse2.fr/lexiques/englawi.html ii 2022 年 8 月 29 日現在の Wikipedia のすべての記事の中で計 3 回以上出現する単語 274 万語余の単語と出現回数表 5 : 見出し語の出現回数 ## . 6 まとめ 本研究では、自然言語処理モデルである SentenceBERT を用いて、ENGLAWI の語義定義文の分散表現から定義文どうしのコサイン類似度を求めることにより、godhood と意味的類似性の高い単語を求めた。実験の結果、"god”や”divinity"といった単語が語義定義文に含まれる単語が上位 10 単語を占め、接尾辞”-hood”を含む単語が 1 つのみであったことから、意味的類似性の検索の精度が、低頻度語を含めて向上したことが確認された。 今後の課題として、本研究で用いた ENGLAWI は、 2017 年 6 月 1 日現在の英語版 Wiktionary のデータを基に作成されているので、現在の語義定義文が ENGLAWI に記載された内容と異なる見出し語が存在するため、より新しい語義定義文を用いることで意味的類似性の検索の精度が向上するかどうかなどが挙げられる。 をまとめたテキストファイルである。以下のページからダウンロード可能である。 https://github.com/IlyaSemenov/wikipedia-wordfrequency/blob/master/results/enwiki-2022-08-29.txt ## - 参考文献 [1] Nils Reimers, Iryna Gurevych. Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks. Empirical Methods in Natural Language Processing and International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), 3982-3992, 2019. [2] Wiktionary, the free dictionary, 2002. https://en.wiktionary.org/wiki/Wiktionary:Main_Page, 2022-06 閲覧 [3] Franck Sajous, Basilio Calderlone, Nabil Hathout. ENGLAWI: From Human- to Machine-Readable Dictionary. Proceedings of the 12th Conference on Language Resources and Evaluation (LREC 2020), 30163026, 2020. [4] Piotr Bojanowski, Edouard Grave, Armand Joulin, Tomas Mikolov. Enriching Word Vectors with Subword Information. Transactions of the Association for Computational Linguistics, 5:135-146, 2017. [5] Sepp Hocheriter, Jürgen Schmidhuber. Long ShortTerm Memory. Neural Computation, 9 (8):1735-1780, 1997. [6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), 4171-4186, 2019. [7] enzo.【入門 】 Sentence BERT, 2022. https://zenn.dev/en2enzo2/articles/a574b52bb8d116 [8] Omkiran Malepati. Sentence Similarity with BERT, 2021. https://medium.com/@,omkiran/sentencesimilarity-with-bert-49bcd250c1bc
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-3.pdf
# Investigating parallelograms inside word embedding space using various analogy test sets in various languages Rashel Fam Yves Lepage 早稲田大学大学院 情報生産システム研究科 fam.rashel@fuji.waseda.jp yves.lepage@waseda.jp } \begin{abstract} The idea of using analogy to assess the quality of word embedding spaces implies the existence of parallelograms between the four terms of an analogy. We investigate the presence of analogy parallelograms in various word embedding spaces for various languages by relying on analogies contained in several analogy test sets. In this paper, we report a negative result: no parallelogram is found. We also discuss another possibility to approach the word as a small $\mathrm{n}$-sphere instead of being a point inside the embedding space. Thus an analogy is formed as a parallelogram between four $\mathrm{n}$-spheres. \end{abstract ## 1 Introduction Previous works, like [1] and [2], claimed that there are linguistic regularities in word embedding spaces, and even sentence embeddings [3]. These regularities emerge as parallelograms on hyperplanes in the embedding space. Figure 1 presents an illustration of the claim where the four terms in an analogy make a parallelogram in the embedding space. This claim was challenged by [4]. When the space is curved as in differential manifolds, the equality $\vec{D}=$ $\vec{C}+\vec{B}-\vec{A}$ will not hold for the analogy $A: B:: C: D$. They proposed a parallelogramoid procedure using geodesic shooting and parallel transport to explain the analogical relation between words along curvatures in Riemannian Figure 1 Parallelograms in word embedding space. Figure copied from [1] manifolds. In this paper, we perform an investigation of analogies that possibly exist in word embedding spaces. To investigate the existence of parallelograms in embedding spaces, we perform experiments in discovering the analogies contained in various analogy test sets. We explore embedding spaces and try to extract all analogies from these analogy test sets. ## 2 Extraction of analogies from word embedding space In the following section, we describe how the parallelogram defines an analogy and the implication of the definition on how we can extract analogies from a word embedding space. ## 2.1 Analogy as parallelogram Figure 1 shows that linguistic regularity between four words, which is an analogy, makes a parallelogram. This parallelogram implies that there is an equality between ratios on the left hand and on the right hand of the analogy. For example, for the analogy man:woman :: king: queen, we should have the equality between the ratios of man:woman and king: queen (blue arrows in Fig. 1). In addition, to make a parallelogram, equality in the other direction is necessary: man: king $=$ woman : queen. This is also true for analogy between other objects than words, like numbers. There is an equality be- Figure 2 Parallelogramoid procedure on a Riemannian manifold. Figure copied from [4] tween the ratios $2: 4$ and $3: 6$ for the analogy $2: 4:: 3: 6$ (because of the properties of subtraction, the equality $2: 3$ and $4: 6$ is implied). Unfortunately, previous works, like [1, 5], did not use this definition to solve the analogical equation: coin the word $D$ given the tree words, $A, B$ and $C$. After calculating the vector $\vec{D}$ from $\vec{A}, \vec{B}$ and $\vec{C}$, they will take vector $\vec{D}^{\prime}$ which is the closest vector to $\vec{D}$. This is a relaxation of the claim that an analogy is a parallelogram. Prior to this, our intuition is that it will be very hard to have a true parallelogram inside the word embedding space. Table 1 shows the result of a preliminary experiment on solving analogical equation of man : woman :: king : $x$ using three different pre-trained embedding models: fastText, word2vec and SENNA. This experiment was done in various languages: Belarussian (bel), Chinese (zho), French (fra), German (deu), Indonesian (ind), Javanese (jav), Sundanese (sun) and Thai (tha). The answers are checked by native speakers of the language. Results show that all of the answers are incorrect, except for French (fastText and word2vec), German (fastText) and Thai (fastText and word2vec). & & - & - \\ Table 1 Solution of analogical equation man:woman :: king:x in various languages using various pre-trained embedding models. A dagger mark $(\dagger)$ shows a correct answer according to human judgement (5 times out of 14). A hyphen ('-') means that there was no available pre-trained model for that particular language at the time the experiments were conducted. ## 2.2 Notions on analogy and extraction of analogical clusters An analogy between four words, $A, B, C$ and $D$, is noted as $A: B:: C: D$. The condition for an analogy to hold is an equality between the ratios. as shown in Formula (1). $ A: B:: C: D \stackrel{\Delta}{\Longleftrightarrow}\left.\{\begin{array}{l} A: B=C: D \\ A: C=B: D \end{array}\right. $ The ratio between two words, $A$ and $B$, is defined as the difference of the vector representations of the words: $A: B \triangleq \vec{A}-\vec{B}$. We thus replace Formula 1 by Formula 2 . With the difference between vectors, similarly as with numbers, the two equalities in the right part of Formula (2) are equivalent. $ A: B:: C: D \stackrel{\Delta}{\Longleftrightarrow}\left.\{\begin{array}{l} \vec{A}-\vec{B}=\vec{C}-\vec{D} \\ \vec{A}-\vec{C}=\vec{B}-\vec{D} \end{array}\right. $ Based on that, an analogical cluster is defined as a group of word pairs with the same ratio. This is basically the same as categories found in analogy test sets like capitalcommon-countries, currency, etc. (see Section 3). $ \begin{aligned} A_{1} & : B_{1} \\ A_{2} & : B_{2} \\ & \vdots \\ A_{n} & : B_{n} \end{aligned} \quad \stackrel{\Delta}{\Longleftrightarrow} \quad \forall(i, j) \in\{1, \ldots, n\}^{2}, $ ## 3 Data There are two main resources used in this work: pretrained word embedding models and analogy test sets. We investigate whether the analogies contained in analogy test sets emerge as true parallelograms in pre-trained word embedding spaces. ## 3.1 Pre-trained word embedding models We use fastText [6] pre-trained models. They provide models in various languages which allow us to compare across different languages. The models were trained on Common Crawl and Wikipedia using CBOW with positionweights. The models we used were trained in 300 dimensions, with character $\mathrm{n}$-grams of length 5 , a window of size of 5 and 10 negative samples. Let us now turn to the distribution of values inside the vector. We sample 1,000 vectors from the embedding model. For each dimension of the vector, we calculate the mean and standard deviation. Figure 3 plots the means of values for the 300 dimensions of the fastText pre-trained model for English. We observe that the graph roughly follows a Gaussian distribution centered around zero. The error bars in the figure show the standard deviation of the mean. These error bars are not visible in the figure because most of the standard deviations are around 0.05 , which is very small. Figure 3 Distribution of fastText's vector means for each dimension with their standard deviation ## 3.2 Analogy test sets We survey several analogy test sets that are publicly available. Table 2 shows the language availability of different analogy test sets. - Google analogy test set ${ }^{1)}[7]$ is probably the first analogy test set widely used since the emerging popularity of word embedding models. It contains general knowledge questions, like country-capital, and morphological questions, like singular-plural form of nouns. The analogy test set is originally only available in English. - fastText analogy test $\operatorname{set}^{2}$ [8] is provided alongside the pre-trained models. The test set follows the format of its predecessor, Google analogy test set, and is available in French, Hindi and Polish. - Bigger Analogy Test Set or usually called as BATS ${ }^{3}$ ) [9] is a bigger and more balance analogy test set in comparison to Google and fastText analogy test set. The analogy test set is also available for Japanese with the version called jBATS ${ }^{4}$ [10]. - Multilingual Generation of Analogy Datasets $(\text { MGAD })^{5)}[11]$ is an analogy test set extracted from Universal Dependency treebanks. Thus, the analogical questions are restricted only to morphological phenomena. It is available in Hindi, Russian and Ara-  bic. Table 2 Survey on the availability of analogy test sets ## 4 Experimental protocol The purpose of our experiment is to investigate the existence of parallelograms inside the embedding spaces. We rely on analogy test sets as our ground truth. We investigate whether analogies contained in the analogy test sets actually make parallelograms. As the analogy test sets are already organised into categories, we check whether ratios in analogies that belong to the same categories are actually the same, i.e, whether one category makes one analogical cluster. We carry out experiments in extracting analogical clusters from sets of words contained in each category of an analogy test set. Words are represented as vectors given by a pre-trained word embedding model. The extracted analogical clusters are expected to be similar to the categories contained in the analogy test set. To extract the analogical clusters, we use two different approaches. The first approach relies on the strict definition of analogies where the equality of ratios has to hold in order to have an analogy. The algorithm to extract analogies from a given set of words is already presented elsewhere, such as [12,13]. However, to ensure the equality of ratios, these techniques apply only to natural numbers (integer values). We convert the real values found on the vector dimensions into integer values by approximation, up to a certain precision after the decimal point. Formula (4) illustrates the approximation on a vector, with a precision of 3 . $ \left(\begin{array}{c} 0.1435 \\ 0.3496 \\ \vdots \\ 0.1180 \end{array}\right) \Longrightarrow\left(\begin{array}{r} 143 \\ 349 \\ \vdots \\ 118 \end{array}\right) $ The second approach involves a common clustering algorithm. We perform DBSCAN clustering algorithm to cluster ratios. The reason behind it is the scalability and the geometry used (distances between points) which is aligned with the constraint that we use here with analogy. In this work, we use the implementation provided by scikit-learn ${ }^{6)}$ library. ## 5 Results and analysis The results give no parallelogram found between words in the analogical test sets, as represented by vectors in any of the pre-trained embedding spaces considered, was found. This observation, which constitutes a negative result, gives support to the construction proposed in [4]. We also achieved the same result by using DBSCAN clustering algorithm. ## 5.1 A word as an area in the space The analogy test sets are mainly used to assess the quality of a word embedding space. The test sets demand the embedding space to follow certain linguistic regularities, which are claimed to be semantical. However, in practice, some heuristics and tricks are introduced while performing the analogy task. For example, deleting the words included in the problem itself (the term $A, B$ and $C$ ) from the candidates of the solution. Word $D$ is enforced to be different than words $A, B$ and $C$ even when the true vector $D$ that is calculated by the algorithm is closer to any of these words. We propose that we should think of a word not as a point, but rather as a small $\mathrm{n}$-sphere in the embedding space. By adopting this approach, we may find that this small n-sphere for a word may includes several words. The visibility and representation of the meaning of a word in the embedding space is extended by the proximity of the words in the neighbourhood. Thus, the analogy is now formed by the four small $n$-spheres instead of just four points in the embedding space. Here, we can imagine that the words king, duke, prince, count, etc. may have their extended $\mathrm{n}$-sphere intersect or even inside each other. This makes the heuristics and tricks that we have done before sound natural. ## 5.2 Hypernymy and hyponymy Capitalising on the approach of a word as a small $n$ sphere, here, we may get another explanation of how the embedding space outputs the solution which is the hyper- nymy or hyponymy of the true answer. For example, we may get one of the king's names instead of the word king itself. This varies depending on the corpus on which the embedding space is trained on. The discussion comes to whether there is any feature for the degree of generality of a word in embedding spaces; whether distributional semantics captures hyponymy and hyponymy. [14, 15] provides experiments on several datasets to observe whether hypernymy structures exist and are preserved inside the embedding space. ## 5.3 Task of analogy Let us now reflect back on the task of analogy. It is important for us to ask ourselves again what are better analogies to design. One possible approach to answer that is to extract all possible analogies from a word embedding space. We need to have a critical view or be able to analyse these extracted analogies to draw conclusions about their validity of acceptability. Of course, we have to be more precise about the task at hand. If the goal is to assess the quality of the embedding space, then it is strictly demanded that the previously mentioned tricks are not fair. ## 6 Conclusion By relying on analogies contained in analogy test sets, we investigated the existence of parallelograms inside a word embedding space model, fastText. The experiment consists in rediscovering the analogies by extracting analogies defined as the equality of ratios between the four terms. This implies that we only want true parallelograms. Experimental results showed that no analogy can be extracted from the word embedding spaces. We then applied a common clustering algorithm, DBSCAN, to extract the analogies. This way we allow for a loose parallelogram. This result supports the construction proposed in [4] where parallelograms for analogies are claimed not to exist in differential manifolds. Instead, they propose that analogies should follow the Ricci curvature rather than making parallelograms. In this paper, we discussed another way to approach the representation of a word in the embedding space: a word is not a point but a small area (n-sphere). 6) https://scikit-learn.org/stable/modules/clustering. html space. a word is not a point but a small area (n-sphere). ## Acknowledgement The work reported here was supported by a JSPS Grant, Number 21K12038 (Kakenhi C), entitled "Theoretically founded algorithms for the automatic production of analogy tests in NLP”. ## References [1] Tomas Mikolov, Wen-Tau Yih, and Geoffrey Zweig. Linguistic regularities in continuous space word representations. In Proceedings of the 2013 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACLHLT-2013), pp. 746-751, Atlanta, Georgia, June 2013. Association for Computational Linguistics. [2] Omer Levy and Yoav Goldberg. Linguistic regularities in sparse and explicit word representations. In Proceedings of the Eighteenth Conference on Computational Natural Language Learning, pp. 171-180, Ann Arbor, Michigan, June 2014. Association for Computational Linguistics. [3] Xunjie Zhu and Gerard de Melo. Sentence analogies: Linguistic regularities in sentence embeddings. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 3389-3400, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics. [4] Pierre-Alexandre Murena, Antoine Cornuéjols, and JeanLouis Dessalles. Opening the parallelogram: Considerations on non-euclidean analogies. In Proceedings of the 26th International Conference (ICCBR-2018), pp. 597611, Stockholm, Sweden, 072018. [5] Jeffrey Pennington, Richard Socher, and Christopher D. Manning. Glove: Global vectors for word representation. In Empirical Methods in Natural Language Processing (EMNLP), pp. 1532-1543, 2014. [6] Tomas Mikolov, Edouard Grave, Piotr Bojanowski, Christian Puhrsch, and Armand Joulin. Advances in pre-training distributed word representations. In Proceedings of the International Conference on Language Resources and Evaluation (LREC 2018), 2018. [7] Tomás Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. In Yoshua Bengio and Yann LeCun, editors, 1 st International Conference on Learning Representations, ICLR 2013, Scottsdale, Arizona, USA, May 2-4, 2013, Workshop Track Proceedings, 2013. [8] Edouard Grave, Piotr Bojanowski, Prakhar Gupta, Armand Joulin, and Tomas Mikolov. Learning word vectors for 157 languages. In Proceedings of the International Conference on Language Resources and Evaluation (LREC 2018), 2018. [9] Anna Gladkova, Aleksandr Drozd, and Satoshi Matsuoka. Analogy-based detection of morphological and semantic relations with word embeddings: What works and what doesn't. In Proceedings of the NAACL-HLT SRW, pp. 4754, San Diego, California, June 12-17, 2016, 2016. ACL. [10] Marzena Karpinska, Bofang Li, Anna Rogers, and Aleksandr Drozd. Subcharacter Information in Japanese Embeddings: When Is It Worth It? In Proceedings of the Workshop on the Relevance of Linguistic Structure in Neural Architectures for NLP, pp. 28-37, Melbourne, Australia, 2018. Association for Computational Linguistics. [11] Mostafa Abdou, Artur Kulmizev, and Vinit Ravishankar. MGAD: Multilingual generation of analogy datasets. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Miyazaki, Japan, May 2018. European Language Resources Association (ELRA). [12] Yves Lepage. Analogies between binary images: Application to Chinese characters. In Henri Prade and Gilles Richard, editors, Computational Approaches to Analogical Reasoning: Current Trends, pp. 25-57. Springer, Berlin, Heidelberg, 2014. [13] Rashel Fam and Yves Lepage. A study of the saturation of analogical grids agnostically extracted from texts. In Proceedings of the Computational Analogy Workshop at the 25th International Conference on Case-Based Reasoning (ICCBR-CA-2017), pp. 11-20, Trondheim, Norway, June 2017. [14] Zheng Yu, Haixun Wang, Xuemin Lin, and Min Wang. Learning term embeddings for hypernymy identification. In Proceedings of the 24th International Conference on Artificial Intelligence, IJCAI'15, p. 1390-1397. AAAI Press, 2015. [15] Ivan Sanchez and Sebastian Riedel. How well can we predict hypernyms from word embeddings? a dataset-centric analysis. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 2, Short Papers, pp. 401-407, Valencia, Spain, April 2017. Association for Computational Linguistics.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-4.pdf
# 『万葉集』漢字本文における漢字の使用頻度集計 西山雄大 株式会社 Helpfeel nishiyama@helpfeel.com ## 概要 『万葉集』の漢字本文 ${ }^{11}$ を漢字の列として処理し、漢字の出現回数を集計して全巻および各巻での使用頻度を求めた。本文の訓読および解釈に伴う形態素解析による解釈の差異や情報の損失を伴わずに、万葉集テキストを定量的に解析するものである。これによって、万葉集テキストにおける漢字の使用状況を表記様式の特徵として記述することができるとともに、全 20 巻中の巻同士の比較から各巻の性格を記述できることを確認した。 ## 1 はじめに 『万葉集』2) は現存する日本最古の歌集であり、奈良時代末に成立したとされる [1]。同じく奈良時代に成立した『古事記』や『日本書紀』などの史書が基本的に漢文で書かれているのに対し、万葉集には編纂までの間に詠まれた和歌が当時の日本語のまま収録されている。また、古今和歌集をはじめとする平安時代以降の歌集が漢字ひらがな交じり文であるのに対し、万葉集は全文が漢字で表記されている。特に漢字の音訓を借りて表音文字としたものは万葉仮名と呼ばれるが、一方で漢字を意味通り訓読させる表意文字としての表記法も存在しており、実際の本文の表記様式は仮名と訓字の両方を含んだ多様なものである [2]。 こうした特色から、万葉集は日本語の歴史研究において重要な文献資料と見なされてきた。数十点にわたる写本に見られる校註や注釈書に加え、江戸時代の国学者や明治時代以降の国語学者による上代日本語研究の歴史を有している。その中には本居宣長 [3] および石塚龍磨 [4] によってなされた万葉仮名の書き分けの収集・分類から、上代日本語の音韻論的な規則性を見出した橋本進吉 [5] の研究もあった。  他方で、巻三・歌番号 9 番の歌に代表される、今なお訓みが定まらない難読歌も存在する 3 )。 ## 1.1 訓み下し本文の問題点 言語の歴史的研究は残された文献資料に頼らざるを得ないが、情報化時代において言語研究のための用例を集めるには、それらを収集・整備したコーパスを利用するのが最も強力な方法である [6]。単語情報がタグづけされ、読み・品詞などの形態論情報が付与された本格的なコーパスを構築するためには、歴史的資料の形態素解析が必要となる。しかし古典語は形態素解析の自動化がしにくく [7]、このため古文を対象とした形態素解析は 2010 年代まで実現しなかった。小木曽智信ら [8] の報告によると、古文用の辞書データを作成することでコーパス構築に利用可能な精度の解析が可能となるが、歴史的な日本語資料の形態素解析において精度 $95 \%$ を超えるには約 5 万語の学習用コーパスが必要であった。 2023 年現在、万葉集については国立国語研究所が『日本語歴史コーパス奈良時代編 I 万葉集』[9] をすでに開発・公開している。しかし小木曽智信ら [10]が認める通り、コーパスとして形態論情報を付与し、かつ現代人に読みやすいものとするためには、漢字本文を校訂して漢字ひらがな交じりの訓み下し本文を用意する必要があるが、その際に原文の持つ情報は少なからず失われてしまう。日本語歴史コーパスにおいては、原文の前後文脈つきで検索結果を表示できる原文 KWIC 表示機能によってこの不足を補っている。とはいえ漢字本文における用字例を直接に収集・分類できない以上、特殊仮名遣に代表されるような用字法に関する洞察をコーパスの使用によって直接に得ることは難しいように思われる。  図 1 漢字本文における漢字の使用頻度集計の概念図 ## 2 漢字本文における漢字の使用頻度 本稿では漢字ひらがな交じり文に訓み下した本文を形態素解析する代わりに、漢字本文を漢字の列として文字列処理した。ここでは、文字は前後の文字系列にかかわらず一定の確率で出現するものと仮定してある。漢字ひらがな交じり文を用意しないことで訓みや送り仮名といった解釈による差異はなくなり、漢字本文が持つ情報も失われることがない。 さらに、単純な文字列処理なので形態素解析エンジンや学習用コーパスを用いる必要がなく、比較的簡単なスクリプトでプログラマブルに処理が可能である。 文字列処理の結果として、全巻および各巻について漢字ごとの使用頻度を集計した。万葉集は巻によって表記法が異なることが知られており、それらは形態素のレベルではなく用字のレベルで表現されていることから、各字種の使用頻度にも違いが見られることが期待される。なお、巻ごとの頻度には粗頻度ではなく、巻の総文字数で割った調整頻度を用いるべきだろう。また、全巻を通して使用頻度を概観することで、研究上注目すべき字種を抽出することも考えられる。たとえば、用例が極端に少ない漢字を拾い上げ、誤写誤読の可能性を検討したり、書記上の表現意図を問うことが定量的に可能となる。 準備まず、万葉集に収録されている和歌の歌番号や収録巻、漢字本文などを含むテキストを CSV ファイル形式でデータ化した。校訂資料としては、利用に伴うライセンスの問題や利用しやすさの観点から、Wikisource で CC BY-SA 3.0 ライセンスのもとに提供されているテキスト [11]を本稿では利用した。辞書型データの作成つぎに、全 20 巻・総計 4516 首4) の漢字本文について、漢字の用例とその使用回数を計上し、辞書型データに記録した。具体的には Python の辞書型オブジェクトを作成し、漢字一文字をキー、数值型オブジェクトを値として格納するよう準備した。それから漢字本文を一文字ごとに走査し、キーと値のペアが存在しなかった場合は新たに作成し、そのうえで値を加算した。この処理を全巻と各巻とについて行った。 使用頻度表の作成つづいて、集計した漢字について使用頻度表を作成した。全巻、各巻について作成した辞書型データを値の降順でソートし、漢字ごとの粗頻度と調整頻度(\%)を算出した。ここで粗頻度とは漢字の出現回数であり、調整頻度とは粗頻度を全巻または各巻の総文字数で割った値を百分率で表したものである。 ## 3 結果 ## 3.1 全巻を通しての漢字の使用頻度表 まず、全巻を通して使用の最も多い漢字上位 10 種と、それらの粗頻度・調整頻度を表 1 に示す。 使用回数は「之」が最も多かった。これは写本による校異を考慮しても疑いない結果と思われる。訓みは「し」(音仮名)と「の」(訓仮名)の少なくとも 2 通りあるが、使用頻度表からは用例を判別できない。 つづいて「尔」の使用も際立っている。万葉仮名としての訓みは「に」(音仮名)である。格助詞としての用法が多いものと推測される。 表 1 使用頻度表(全巻、上位 10 種) 4)『国歌大観』の歌番号に従う。数の異同は底本の違いや、長歌(巻六・1010および 1011)および「或本歌」「一云歌」 の取り扱いの違いから生じる。 表 2 使用頻度表(各巻、上位 10 種) やや頻度を少なくして「者」「乃」「乎」「毛」が後に並ぶ。これらも典型的には「は」「の」「を」「も」 などの格助詞として用いられる万葉仮名である。「者」は訓仮名、その他は音仮名である。 「可」は「か」と音仮名で用いられる一方で、助動詞「べし」としての用例もある。これも使用頻度表からは一概に判別できない。 ## 3.2 各巻での漢字の使用頻度表 つづいて、巻ごとに使用の最も多い漢字 10 種と、 それらの調整頻度を表 2 に示す。全巻の結果で上位 10 種にない漢字はセルを桃色でハイライトした。 全巻を通して得られた結果で見た傾向がここでも多くの巻で観察される一方で、巻によってそれらの比率が違っていたり、一部の巻については特徴的な漢字の使用を見て取ることができた。 例として「奈」という漢字を取り上げる。「な」 (音仮名)を表すこの万葉仮名は、巻十四以降の巻数が古い巻において多く使用されていることがわかる。これらは万葉集の成立に近い比較的後期に編纂されたものと推定されている。それに対して巻数だけで見れば比較的若い巻五で第 4 位の使用頻度であることは注目に値する。この巻は前後の巻とは異なる文体の特徴が指摘されており、所収歌の年代や書き手の問題がこれまでにも論じられてきた55。 5)本稿と近い分類をしたものとして山田浩貴 [12] を挙げる。 ## 4 まとめと今後の展望 本稿では万葉集の漢字本文を漢字の列として処理し、漢字の出現回数を集計して全巻および各巻での使用頻度を求めた。得られた漢字の使用頻度表は巻ごとに異なる表記体を反映していると考えられる一方で、実際の用例を確かめるには本文や訓みを参照しないといけなかった。 今回は各歌での集計にまで踏み込まなかったため、和歌の総文字数によって漢字の使用頻度を調整することはしなかった。しかし短歌・長歌・旋頭歌といった歌体によって和歌を分類し、巻間で同じ歌体同士の調整頻度を比較すれば、より精確に巻ごとの文体を論じることが可能であると考えられる。 さらに、文字は前後の文字系列にかかわらず一定の確率で出現するものと仮定したが、実際には特定の組み合わせで一定の単語を表すために使われるということがありうる。品詞という単位を考慮に入れるためには形態論情報を付加する必要があり、漢字本文を漢字の列として扱う手法は少なくとも部分的に修正しなくてはならない。 将来の展望として、統計的・確率論的手法を本文の処理に適用し、漢字同士の結びつきをモデル化する方法を探究するとともに、文字列としての扱いやすさを維持したまま訓みや品詞に関する情報を漢字本文に付加するアノテーション手法も検討したい。 ## 参考文献 [1] 伊藤博. 1974. 万葉集の構造と成立. [2] 佐野宏. 2015. 萬葉集における表記体と用字法について。国語国文:84(4),161-181。 [3] 本居宣長. 仮字の事. 古事記伝, 1 . [4] 石塚龍磨. 1798. 仮名遣奥山路. [5] 橋本進吉. 1917. 国語仮名遣研究史の一発見: 石塚達磨の仮名遣奥山路について。帝国文学. [6] 講義「コーパスを使って日本語の歴史を探る」 (小木曽智信)/言語学レクチャーシリーズ(試験版)Vol. 19 - YouTube. https://www.youtube.com/ watch?v=dEi0kKdyrWk (最終閲覧日:2023 年 1 月 10 日) [7] 近藤泰弘. 2009. 古典語・古典文学研究における言語処理, pp.472-473. 共立出版. [8] 小木曽智信ら. 小木曽智信,小町守,松本裕治. 2013. 歴史的日本語資料を対象とした形態素解析.自然言語処理:20(5),727-748. [9] 国立国語研究所. 2017. 日本語歴史コーパス奈良時代編I万葉集. https://clrd.ninjal.ac.jp/chj/ nara.html\#manyo(最終閲覧日:2023 年 1 月 10 日) [10] 小木曽智信, 岡照晃, 中村壮範, 八木豊. 2017.『日本語歴史コーパス』における原文 KWIC 表示機能の実装. 言語資源活用ワークショップ発表論文集:2, 252-257. [11] 万葉集 - Wikisource. https://ja.wikisource.org/ wiki/万葉集(最終閲覧日:2023 年 1 月 4 日) [12] 山田浩貴. 2001. 万葉集の付録的巻々:巻五と末四巻. 北海道大学大学院文学研究科研究論集:1, 21-41.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-5.pdf
# 人間と機械学習のモデルそれぞれに扱いやすい トークン分割に関する実験と考察 平岡達也岩倉友哉 富士通株式会社 \{hiraoka.tatsuya, iwakura.tomoya\}@fujitsu.com ## 概要 本稿では,NLP における機械学習のモデルの性能が向上するようなトークン分割と,人間に読みやすいトークン分割の関係について議論する.JGLUE に含まれる JCommonsenseQA データセットに対して複数のトークン分割を行い,機械学習のモデルによる正解率と,人間のアノテータによる正解率と回答速度を比較する。分析より,人間に読みやすいトー クン分割と機械学習モデルの正解率が高くなるトー クン分割は必ずしも一致しないことが示唆された. ## 1 はじめに トークン分割(Tokenization)は,NLP のシステムの性能や結果に影響を与える重要な前処理である $[1,2,3]$. 近年では後段のタスクに応じて,モデルの性能が高くなるようなトークン分割を自動で選択する手法が提案されている $[4,5,6]$. このようなトークン分割は,性能向上という観点から機械学習のモデルに扱いやすいものであると言える。一方で,このトークン分割は必ずしも人間にとって読みやすいものであるとは限らない $[5,6]$. 人間に読みやすいトークン分割から逸脱したものは,メンテナンスやチューニングの難しさに繋がりうる. 例えば,区切りの不一致のために辞書情報が使えなかったり,目視でのエラー分析における解釈の難しさに繋がったりすると考えられる.また,自然言語処理に詳しくないユーザーにとっては,不自然なトークン分割そのものが信頼性低下の原因になりうる。 本研究では,人間と機械のそれぞれに扱いやすいトークン分割について調査を行う。本稿では研究の第一段階として,日本語 $\mathrm{QA}$ タスクにおいて異なるトークン分割がもたらす,機械学習のモデルの正解率への影響と,人間にとっての読みやすさへの影響の関係を調査・分析した内容を報告する。 表 1 各トークナイゼーション手法による分割例 ## 2 実験設定 ## 2.1 データセット 本研究では, JGLUE [7] に含まれる JCommonsenseQA データセットを用いて実験を行う.本研究実施時点では JGLUE のテストデータが公開されていないため,学習データと検証データのみを使用する。また,QA モデルに用いる文字分散表現の学習と,トークン分割器の学習には日本語 Wikipedia データを用いた1). ## 2.2 比較するトークン分割の手法 本研究では,トークン分割の手法として辞書を用いた手法(MeCab),教師無しで語彙を構築する手法 (Unigram, BPE,MaxMatch),タスクに応じてトークン分割を最適化する手法 (OpTok),ランダムなトークン分割(Random)の6つを比較する. 教師なしの手法におけるトークン分割器は,それぞれ語彙の大きさを 64,000 とし,日本語 Wikipedia のタイトルと概要データを用いて学習した. 各手法でトークン分割を行ったテキストの例を表 1 に示した。また,実際に JCommonsenseQA の学習データと検証データに対してトークン分割の処理を行い,出現したトークンの種類数を表 2 にまとめた。それぞれの手法について,以下に説明する。  表 2 トークナイゼーション手法ごとの語彙の規模 MeCab: 辞書を用いたトークン分割(単語分割)手法として, MeCab [8] を用いた. 単語辞書には, UniDic [9]を用いた. 人手で整備された辞書を用いている本手法は,比較する手法間で最も人間に読みやすいトークン分割であると考えられる。 Unigram: ユニグラム言語モデルを用いたトークン分割の手法として, SentencePiece [10] のユニグラムモードを使用した。 BPE: Byte Pair Encoding を用いたトークン分割手法 [11]には,SentencePieceの BPE モードを用いた. MaxMatch: 最長一致法を用いたトークン分割手法 [12] として,BertTokenizer (WordPiece) を用いた. OpTok: データセットとモデルに対して正解率が向上するようなトークン分割を自動的に獲得する手法として, OpTok [6] を利用した. ユニグラム言語モデルでのトークン分割を用いて学習した $\mathrm{QA}$ モデル(後述する BiLSTMを用いたもの)に対して,後処理としてトークン分割を最適化した. そのため,語彙はユニグラム言語モデルと一致する。 Random: 単語の長さをサンプリングし,テキス卜を前から順にランダムに分割した. 単語の長さは Wikipediaを MeCabで分割した際の分布に従った. ## 2.3 QA モデル 機械学習のモデルを用いた実験には,Bag-ofWords [13] と BiLSTM [14, 15] の 2 種類の単純な QA の手法を用いる. $N$ 個のトークンからなる問題文 $q=w_{1}, \ldots, w_{N}$ について, 選択肢の単語 $a$ が解答となる確率 $p(a \mid q)$ を次のように計算する(図 1). $ \begin{aligned} \mathbf{v}_{q} & =g\left(f\left(\mathbf{v}_{w_{1}}, \ldots, \mathbf{v}_{w_{N}}\right)\right), \\ p(a \mid q) & \sim \mathbf{v}_{q}^{\top} \mathbf{v}_{a} . \end{aligned} $ ただし, $f(\cdot)$ はエンコーダー, $g(\cdot)$ はエンコーダーの出力をトークンベクトルの次元数に変換する MLP である. また, $\mathbf{v}_{w_{n}}$ と $\mathbf{v}_{a}$ はいずれもトークンベクトルである. エンコーダー $f(\cdot)$ の処理は Bag-of-Words を用いる場合 $\left(f_{\text {Bow }}\right)$ と, BiLSTM $\left(f_{\text {BiLSTM }}\right)$ を用い 図 $1 \mathrm{QA}$ モデルの概要 る場合でそれぞれ以下のように異なる。 $ f_{\mathrm{BoW}}\left(\mathbf{v}_{w_{1}}, \ldots, \mathbf{v}_{w_{N}}\right)=\frac{\sum_{w \in s} \mathbf{v}_{w}}{N} $ $f_{\mathrm{BiLSTM}}\left(\mathbf{v}_{w_{1}}, \ldots, \mathbf{v}_{w_{N}}\right)=h\left(\operatorname{BiLSTM}_{\mathrm{QA}}\left(\mathbf{v}_{w_{1}}, \ldots, \mathbf{v}_{w_{N}}\right)\right)$, ここで $h(\cdot)$ は各出力への最大プーリングである. トークン分割の差以外の要素による影響を減らすため,トークンベクトルは文字ベクトルから計算する $[16,17] . M$ 文字のトークン $w=c_{1}, \ldots, c_{M}$ のべクトル $\mathbf{v}_{w}$ は,次のように計算する。 $ \mathbf{v}_{w}=h\left(\operatorname{BiLSTM}_{\mathrm{emb}}\left(\mathbf{v}_{c_{1}}, \ldots, \mathbf{v}_{c_{M}}\right)\right) $ ここで $\mathbf{v}_{c_{m}}$ は $c_{m}$ の文字分散表現である. $\mathbf{v}_{c_{m}}$ と BiLSTM $_{\text {emb }}$ は, 日本語 Wikipedia の全文を言語モデルとして学習し [18], QA の学習時には固定した. $g$ と $f_{\mathrm{BoW}}, f_{\mathrm{BiLSTM}}$ は, QA の学習データで学習した. ハイパーパラメータについて,文字分散表現 $\mathbf{v}_{\mathbf{c}}$ のサイズは 256, BiLSTM $_{\mathrm{emb}}$ と $\mathrm{BiLSTM}_{\mathrm{QA}}$ の隠れべクトル, $\mathbf{v}_{w}$ のサイズは 1,024 , 各 BiLSTM のレイヤ数は 1 とした. 交差エントロピー誤差を用いて Adam [19] で更新を行い,30 エポックの学習のうち検証データでの性能が最も高いモデルを採用した。 ## 2.4 人間による読みやすさの収集 ## 2.4.1読みやすさの順位付け 異なるトークン分割に対する読みやすさの最も単純なアノテーション方法として,人間による順位付けを行った。実際のアノテーション画面を図 2 に示した. アノテータは,ランダムに並べられた最大 6 つのトークン分割について,区切り方が適切だと思うものから順に並び変えるよう指示される. 本作業は1名のアノテータが担当した。 図 2 読みやすさの順位付けアノテーション画面 晴れている時雨の 降る弱いことをな突然 う? にんとい 図 3 Bag-of-Words によるアノテーション画面 ## 2.4.2 Bag-of-Words での回答収集 2.4.1 節のアノテーション方法では, 適切な区切り方の基準がアノテータの知識に強く依存する. 本研究では,タスクを解くうえで各トークン分割がどの程度読みやすいかの情報を収集したい。そのため, この方法では目的が達成できるとは言えない. そこで,異なるトークン分割を用いたときの QA タスクへの回答時間及び正解率を収集することで,人間に読みやすいトークン分割を分析する ${ }^{2)}$. 具体的には,人間に読みやすいトークン分割は,語順がランダムであっても元の意味を復元しやすいと仮定し, 図 3 のようなアノテーション画面を用いて, Bag-of-worrds形式での回答を行った. アノテーション時には, 各設問画面の表示から最後に選択肢のボタンを押下するまでの時間を記録する.トークン分割が読みやすいものである場合,この時間が短くなる傾向が見られると期待される。 なお,クラウドワーカーによるアノテーションを行っているため,作業中の行動のすべてを監視することは出来ない,そのため,回答時間が 30 秒を超えるもの3)については,画面を開いた状態で放置した可能性が高いとものとし,集計の対象から除外した. 本作業では,1名のアノテータが問題ごとにすべ 2)画像とテキストを用いた既存調査 [20] に倣った. 3)図 3 の例から分かる通り,平均的な回答時間は 5 秒程度,設問が長いものでも 15 秒程度で回答可能である。 表 3 JCommonsenseQA での正解率 (検証データ). 列内の最大値を太字,最小値を下線でハイライトした。 てのトークン分割の種類について回答する。そのため,異なるトークン分割で問題文を提示しているとはいえ,過去に解いたことのある問題に対して何度か回答を行うことになる。そこで,問題の丸暗記を防ぐために,同じ問題の間隔をある程度あけて(平均 1591.8 件)提示するようにした.また,回答内容の記憶を防ぐために,アノテータへの正答の提示も行わない. 本作業には 6 名のアノテータが参加しており,現時点で全サンプル 10,058 件について各 1 名の回答結果が収集できている。 ## 3 結果と分析 ## 3.1 読みやすさと機械学習モデルの正解率 QA モデルを用いたときの,各トークン分割手法ごとの正解率を表 3 に示した ${ }^{4)}$. Bag-of-Words を用いたモデルでは BPE,Unigram の順に正解率が高く, BiLSTM を用いたモデルでは Unigram, MaxMatch の順に正解率が高い。また,どちらもモデルも Random, MeCab の順に正解率が低くなっている.表 4 の「読みやすさ」の列には,2.4.1 節の方法で収集した読みやすさの順位付けについて,各トークン分割手法が 1 位となった割合を示した。なお,予稿投稿時点では全サンプルのうち,学習データの 3,302 件のみアノテーションが完了している. 結果より,人手で整備した辞書を用いている MeCab が最も読みやすいことが分かる。一方で,MeCabによるトークン分割は,機械においては Random の次に正解率が低いものである。ここから,人間に読みやすいトークン分割は,必ずしも機械の正解率が高いものとは一致しないと言える。 4) 3 回試行の平均値を報告. OpTokについては,ある学習済みのモデルに対して最適化したトークン分割を,初期化が異なる別の QA モデルの学習に再利用し, 3 回試行を行った. そのため, OpTok を用いた場合の正解率は必ずしも Unigram よりも高い值にならない. 表 4 各トークン分割手法で問題文を区切って提示した際の,読みやすさ 1 位の割合(\%,学習データの 3,302 件)と正解率 (\%),平均回答時間(単位は秒,正答・回答時間が 30 秒以内のサンプルのみを集計),各サンプルの問題文の平均トークン数. 列内の最大値を太字,最小値を下線でハイライトした. ## 3.2 機械学習モデルと人間の正解率 表 4 の「正解率」の列には,2.4.2 節で説明した方法で収集した人間による正解率をまとめた. データ全体での人間の正解率は MeCab,BPE の順に高い. また,正解率は Random,OpTokの順に低い. これらの内容から,ランダムなトークン分割は人間にも機械にも扱いにくいと言える。また,人間と機械でトークン分割による正解率の大小関係が異なることから,人間と機械の正解率が高いトークン分割が必ずしも一致しないと言える. ## 3.3 分割と回答時間の関係 表 4 の「平均回答時間」からは,OpTok,Unigram の順に回答時間が短いことが分かる. OpTok は Unigramをベースとして最適化を行ったトークン分割であるため,人間は言語モデルを用いて語彙の構築とトークン分割を行ったテキストを効率的に読むことができると言える. OpTok は Unigram によるトークン分割のうち, 助詞などの高頻度語を更に切り離す傾向がある [6](表 1)ため, 今回の提示形式において語順の推測がしやすくなり回答時間が短くなっていると考えられる。一方で Randomなトークン分割を用いたときの回答時間は顕著に長く, 読みづらいトークン分割と言うことができる. MeCab を用いたときの回答時間は,Random の次に長い。これは, MeCabによるトークン分割が Unigram などに比べて細かく, 問題文を表すためのトークン数が多いことに起因すると考えられる(表 4 「平均トークン数」).トークン数が多い場合, 内容を把握するために時間がかかることから,回答時間も長くなると考えられる。実際に全アノテーション内容についての,問題文に含まれるトークン数と回答時間との相関係数は 0.22 であり,弱い正の相関が ある. 一方で, 平均トークン数が比較的多い OpTok の回答時間が最も短いことから,トークン数以外の要素が回答時間の長さに影響を与えていると考えられる。例えば, MeCabを用いる場合は単語の意味が理解できることから,より内容について長考する傾向にある,などの原因があると考えられる. ## 4 おわりに 本稿では,人間と機械学習のモデルのそれぞれに扱いやすいトークン分割について, 調査と実験の結果を報告した.QA のデータを用いた実験では異なるトークン分割手法を用いて問題文を分割し,機械による正解率を収集した。また,問題文の語順をシャッフルした上で人手でのアノテーションを行い,人間による回答の精度と回答時間を収集した。収集した結果より,機械学習のモデルの正解率が高くなるようなトークン分割は,必ずしも人間による正解率が高くなるものや,人間に読みやすいものに一致するとは限らないことが示唆された。 本研究では引き続きアノテーション作業を進め,人間による正解率や回答時間に関する情報を収集する。また,トークン分割の差が人間の回答に及ぼす影響の調査方法については, 現在の方法では差が大きく表れていないことから,方法の改善が必要である。例えば,問題文に含まれるトークンをフラッシュカード形式で提示した場合の正解率や,アノテータの視線情報を用いたデータ収集などが考えられる. 機械学習のモデル側についても, 実験設定の改善の余地は大いにある.例えば,より現代的な比較を行うためには,大規模言語モデル [21] の事前学習から異なるトークン分割手法を用い,その影響を調査する必要がある. 今後も実験内容の再検討を重ね,人間と機械学習のモデルに扱いやすいトークン分割の差について調査を行う. ## 謝辞 本研究は,JST,ACT-X,JPMJAX21AM の支援を 受けたものです. また,アノテーションの設計では熊野康孝氏と六条範俊氏にご助言いただきました. ## 参考文献 [1] Tatsuya Hiraoka, Hiroyuki Shindo, and Yuji Matsumoto. Stochastic tokenization with a language model for neural text classification. In Proceedings of the 57th Annual Meeting of ACL, pp. 1620-1629, 2019. [2] Kaj Bostrom and Greg Durrett. Byte pair encoding is suboptimal for language model pretraining. In Findings of ACL: EMNLP 2020, pp. 4617-4624, 2020. [3] Hoo-Chang Shin, Yang Zhang, Evelina Bakhturina, Raul Puri, Mostofa Patwary, Mohammad Shoeybi, and Raghav Mani. BioMegatron: Larger biomedical domain language model. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on EMNLP, pp. 4700-4706, Online, November 2020. Association for Computational Linguistics. [4] Xuanli He, Gholamreza Haffari, and Mohammad Norouzi. Dynamic programming encoding for subword segmentation in neural machine translation. In Proceedings of the 58th Annual Meeting of ACL, pp. 3042-3051, Online, July 2020. Association for Computational Linguistics. [5] Tatsuya Hiraoka, Sho Takase, Kei Uchiumi, Atsushi Keyaki, and Naoaki Okazaki. Optimizing word segmentation for downstream task. In Findings of ACL: EMNLP 2020, pp. 1341-1351, Online, November 2020. Association for Computational Linguistics. [6] Tatsuya Hiraoka, Sho Takase, Kei Uchiumi, Atsushi Keyaki, and Naoaki Okazaki. Joint optimization of tokenization and downstream model. In Findings of ACL: ACL-IJCNLP 2021, pp. 244-255, 2021. [7] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese general language understanding evaluation. In Proceedings of the Thirteenth LREC, pp. 2957-2966, Marseille, France, June 2022. European Language Resources Association. [8] Taku Kudo. Mecab: Yet another part-of-speech and morphological analyzer. http://taku910.github.io/mecab/, 2006 [9] 康晴伝, 智信小木曽, 秀樹小椋, 篤山田, 信明峯松, 清貴内元, 花絵小磯. コーパス日本語学のための言語資源 : 形態素解析用電子化辞書の開発とその応用. 日本語科学, Vol. 22, pp. 101-123, 102007. [10] Taku Kudo and John Richardson. Sentencepiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on EMNLP: System Demonstrations, pp. 66-71, 2018. [11] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of ACL, Vol. 1, pp. P1715-1725, 2016. [12] Xinying Song, Alex Salcianu, Yang Song, Dave Dopson, and Denny Zhou. Fast wordpiece tokenization. In Proceedings of the 2021 Conference on EMNLP, pp. 2089-2103, 2021 [13] Jordan Boyd-Graber, Brianna Satinoff, He He, and Hal Daumé III. Besting the quiz master: Crowdsourcing incremental classification games. In Proceedings of the 2012 Joint Conference on EMNLP and CoNLL, pp. 1290-1301, Jeju Island, Korea, July 2012. Association for Computational Linguistics. [14] Sepp Hochreiter and Jürgen Schmidhuber. Long shortterm memory. Neural computation, Vol. 9, No. 8, pp. 1735-1780, 1997 [15] Alex Graves and Jürgen Schmidhuber. Framewise phoneme classification with bidirectional lstm networks. In Proceedings. 2005 IEEE International Joint Conference on Neural Networks, 2005., Vol. 4, pp. 20472052. IEEE, 2005. [16] Guillaume Lample, Miguel Ballesteros, Sandeep Subramanian, Kazuya Kawakami, and Chris Dyer. Neural architectures for named entity recognition. In Proceedings of the 2016 Conference of NAACL: HLT, pp. 260-270, 2016. [17] Chunqi Wang and Bo Xu. Convolutional neural network with word embeddings for chinese word segmentation. In Proceedings of the Eighth IJCNLP, pp. 163-172, 2017. [18] Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, and Luke Zettlemoyer. Deep contextualized word representations. In Proceedings of the 2018 Conference of NAACL: HLT, Volume 1 (Long Papers), pp. 2227-2237, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [19] Diederik P Kingma and Jimmy Ba. Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.6980, 2014. [20] Chunpeng Ma, Aili Shen, Hiyori Yoshikawa, Tomoya Iwakura, Daniel Beck, and Timothy Baldwin. On the effectiveness of images in multi-modal text classification: An annotation study. ACM Trans. Asian Low-Resour. Lang. Inf. Process., oct 2022. Just Accepted. [21] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-6.pdf
# 形態論情報付き日本語 Universal Dependencies 田口智大 ${ }^{1}$ 宮川創 2 ${ }^{1}$ University of Notre Dame 2 国立国語研究所研究系 ctaguchi@nd.edu so-miyagawa@ninjal.ac.jp ## 概要 本論文では,日本語の形態論を反映した,日本語 Universal Dependencies(UD)の新しいトークン化の基準と形態的素性のアノテーションを提案する. 現在のバージョンの日本語 UD v2.11 では, 文は形態素単位でトークン化されており, 各トークンには形態的素性がほとんど付与されていない. しかしながら, 日本語は形態的屈折を欠いた孤立語ではなく,形態的変化を持った膠着語である. この現状を考慮して,本稿では日本語 UD のトークン化の基準を見直し,形態素単位ではなく語単位のトークン化を提案する。そして,各トークンに含まれた形態論的情報を表すために,UD 共通の形態的素性のアノテー ションを提案する。 ## 1 はじめに 本稿では,日本語 Universal Dependencies(UD)ッリーバンクの形態論情報付与の必要性について論じ,新たなトークンの基準を提案する。UDは, 2015 年に開始された多言語ツリーバンクのプロジェクトであり,あらゆる言語に対して共通のアノテー ション基準で品詞タグ,形態論情報,統語的依存関係を記述することを理念としている [1,2]. 目下のところ最新のリリースであるバージョン 2.11 では, 130 以上の言語のツリーバンクが公開されており, Universal Dependencies を用いた通言語的な言語処理研究も行われ始めている [3]. 特に,日本語では,分かち書き・品詞ラベリング・依存構造ラベリングを同時に行う解析器である GiNZA が UD を用いて開発されている [4]. しかしながら, 現在までの日本語 UD におけるトークンと形態論情報については, UD 共通の基準とは異なるアノテーション基準が採用されていることが報告されている $[5,6,7]$. 第一に, 日本語 UD のトークン化の基準は『現代日本語書き言葉均衡コーパス』[8] におけるトークン化の基準と同じであることが明記されており,概ね一般言語学における形態素の概念に等しい. 日本語は,用言の形態的変化を有する膠着語であるが,現行の日本語 UD の方針では,あらゆる動詞接辞および形容詞接辞が独立したトークンとして扱われている.第二に,日本語 UDでは,一部の例外を除いて,形態的素性が一切付与されていない. UDでは,形態的素性の記載について,形態的屈折を持つ場合は必須となっていることから, 統合的(synthetic)言語の性格を持つ日本語の形態論が反映されていない. そこで,本稿では,UD共通の基準を鑑み,他言語での事例と照らし合わせながら, 日本語の形態的変化を考慮した新たなトークン化基準と形態論情報の付与の試案を提示する. ## 2 UD と日本語 UD ## 2.1 UD の基本方針 UDでは, 語彙主義(lexicalism)に立脚し, 各トー クンは統語的語 (syntactic word) であり, 形態的屈折を含んだ表層形を単位として FORM に記載される.. そして,表層形から形態的屈折を除いた基本的な形(レンマ,辞書形,引用形などとも呼ばれる)が LEMMA として記載される。 各トークンに含まれる形態論的な屈折は,形態的素性の集合として FEATS 欄に記載される. 形態的素性を集合として扱うことで,形態素境界が不明瞭なケースや,一つの形態素が二つ以上の形態的素性を担う統合的 (synthetic)なケースにも対応することができる設計となっている.例えば,膠着語であるフィンランド語の työssä(仕事中)という語は, 名詞の työ(仕事) に単数内格(inessive singular)接尾辞の-ssä が付いたものであるが,UDではまとめて一つのトー クンとして扱い, LEMMA として työ, FEATS として Case=Ine |Number=Sing とアノテーションすることで,形態的屈折を表現している。そのほかに,UD では, 各トークンの品詞タグ (UPOS), 依存先のトー クン ID(HEAD),依存関係タグ(DEPREL)が付与さ れることが最低限の条件となっており,各文について形態統語論の基本的な情報を網羅する構造となっている. ## 2.2 日本語 UD の概要 現在のバージョン 2.11 の日本語 UD では, GSD, GSDLUW, PUD, PUDLUW, BCCWJ, BCCWJLUW, Modern,KTC の計八つのツリーバンクが公開されている.このうち, GSD, PUD, BCCWJについては,トークナイゼーションの基準として,『現代日本語書き言葉近郊コーパス』において語の基準とされている短単位(Short Unit Word)と長単位(Long Unit Word)のそれぞれを採用した二つの版を公開しており,後者はツリーバンク名に LUW が付加されている. 短単位は「現代語において意味を持つ最小の単位 ${ }^{1)}$ と定義されており, 言語学における形態素の定義と概ね一致する. 短単位では, 複合語を構成する複数の形態素をそれぞれ別々のトークンとして扱っている一方で,長単位では複合語を一つのトークンとして扱っている. これらの基準は,接辞 (affix)や接語(clitic)を独立したトークンとして扱うという点で, 日本語の学校文法 (橋本文法) における「単語」の概念と類似している。しかしながら, 動詞の活用接尾辞を別トークンとして扱う点においては,UDの他の膠着語におけるアノテーション基準とは異なっている. さらに,これらの日本語 UDッリーバンクでは,否定(Polarity=Neg)を除く一切の形態的素性が付与されておらず,空闌として残されている. 日本語には,極性のほか,テンス・アスペクト,使役・受動などの態,敬語(honorifics)などの動詞の活用が存在するが,これらの形態素は別トークンとして扱われ, 形態的素性としての Tense, Aspect, Voice, Politeなどのキーは現状割り当てられていない. このように, 日本語 UDでは, トークン化の基準と形態論のアノテーションという二点において,UD の一般的方針とは異なる設計となっている. ## 2.3 他の膠着語での扱い 以上に述べた問題点について,解決案を提示する前に,UDの他の膠着語では動詞の活用や名詞の格標示がどのようにアノテーションされているのかを具体例とともに概観する。朝鮮語では,KAIST, GSD,PUDの三つのツリーバンクが公開されている  が,これらのツリーバンクのアノテーション方針は統一されていない。いずれのツリーバンクにおいても,トークン化の基準は朝鮮語の正書法におけるスペースをもとにしており,動詞活用の接辞や名詞の格接語は主要部のトークンの一部として扱われている. 形態的素性については, KAIST および GSD では一切記載されていない一方で,PUDでは,表 1 に示す通り,動詞活用および名詞に付属する形態素が FEATS 列に表されている2)。テュルク諸語では,いずれのツリーバンクでも動詞の活用や名詞の格変化は主要部の一部としてトークナイズされ,その情報は素性として FEATS に表されている。例として, トルコ語のアノテーション事例を表 2 に示す. 最後に,部分的に膠着語的な性質を持つヒンディー語では,表 3 に示すように,格(後置詞)と動詞の屈折を形態的素性として明記しているが,格は後置詞として独立したトークンを構成している。 表 1 UD Korean-PUD における形態的素性アノテーションの例(文番号 $n 01010042$ より引用) 表 2 UD Turkish-GB における形態的素性アノテーションの例 (文番号 GK05-0003 より引用). 形態的素性は紙幅のため一部省略している. 表 3 UD Hindi-PUD における形態的素性アノテーションの例 (文番号 n01001011 より引用). 形態的素性は紙幅のため一部省略している. ## 3 試案 前節で見たように,UD では,動詞屈折や格変化を有する言語は,形態素単位ではなく統語的語の単位でトークン化を行い,形態的変化の情報は素性として FEATS に記載する方針である。実際に,日本語と同様に膠着語的性質を持つ言語の UDでは,動詞の屈折的形態素は素性として表され,さらに言語やツリーバンクによっては,名詞の格標示も素性の一  表 4 UDにおける形態的素性と日本語の格の対応 部として扱われている。本章では,日本語UDにおいて,どのようなトークン化の基準が適切なのか, および形態論的素性はどのように表されるべきかを,いくつかの論点に分けて検討する。 ## 3.1 格助詞は形態的格変化か 国文法では,「が」「を」「に」「へ」「で」「から」「より」「まで」「と」「の」の十個の助詞が格助詞として挙げられている. 格は,述語とその項の関係を表す文法的な役割であり, 膠着語では一般的に接辞や接語によって表現される.UDでは,名詞の格はCase という素性キーによって表される。UDの枠組みの中では,日本語のこれらの格を素性として表すことは可能である. 表 4 はこの対応をまとめたものである。 しかしながら,日本語の格が名詞の形態論の一部を構成する接辞(affix)であるか,より形態統語的に独立性の高い接語(clitic)であるかどうかは自明ではなく,議論の余地の残る問題である. そもそも,接辞と接語を明確に区別するような通言語的に一般的な定義を与えることは,不可能であることが指摘されている [9]. 日本語を扱う統語論の研究では,格助詞を含む諸々の助詞や助動詞に関して,明示的に接辞と接語の区別を行なっていないものが多く,その区別は未だ定まっていない。宮岡(2002) は,日本語の格助詞が名詞の屈折形であるとは見做せないという理由から,格助詞は接語であるという解釈を提示している [10]. 実際に,日本語の格助詞には例外的な形態的パラダイムがなく, 名詞以外とも結合することから,接語としての性質を持っているといえる。一般的に,UDでは接語を個別のトー クンとして扱うため, これらの格助詞を接語として解釈する場合,格助詞は別のトークンとして扱われる必要がある。したがって,現段階では,格助詞の扱いとして以下の二通りが考えられる。一つ目は,朝鮮語 UD(表 1)やトルコ語 UD(表 2)のように,格助詞を名詞の派生接尾辞として扱い,形態的素性として表す方法である.二つ目は,ヒンディー語 UD(表 3)のように,格助詞を接語(あるいは後置詞)として扱い,別のトークンとする一方で,格助詞自体に格の形態的素性を付与する方法である. いずれの方法を採用するかは,慎重な議論と裏付けが必要であるが,少なくとも形態的素性の付与は可能である. その他の助詞(副助詞,接続助詞,係助詞,並立助詞,終助詞,間投助詞,準体助詞)は述語との文法的関係を表すものではないため,格には含めない. 特に,主題を表す助詞は,Korean-PUDでは主格として扱われているが,日本語の「は」は述語との関係を指定するものではなく,情報構造上での役割を持つため, 格に当たらない. しかし, 形態統語的に主題を表す要素として,適切な素性が今後 UD 標準のガイドラインに整備される可能性はある。 ## 3.2 用言の形態論 日本語における用言(動詞・形容詞・形容動詞) の形態的変化に関わる接辞は,国文法において助動詞と助詞に分類されるものに含まれる。国立国語研究所の分類では,文語的表現も含め,「う」「ごとき」「させる」「ざる」「しめる」「せる」「そうだ・そうです」「た・た」「だ」「たい」「たる」「です」「ない」「なる」「ぬ・ん」「ふうだ・ふうです」「べし」「まい」「ます」「みたいだ・みたいです」「よう」「ようだ・ ようです」「らしい」「られる」「る」「れる」「ん・む」 が助動詞として挙げられている [11]. これらのうち,連体形・終止形に接続する「ごとき」「そうだ・ そうです3)」「ふうだ・ふうです」「みたいだ・みたいです」「ようだ・ようです」「らしい」は,動詞以外の品詞にも接続することができ,形態統語的自由度が高いため, 現行の UD 通り助動詞 AUX として扱う.また,「だ」「たる」「です」「なる」は動詞に接続する要素ではないため,ここでの議論から除外する. 他方で,連用形や仮定形に接続する助詞「ながら」「つつ」「たり」「たら」「て」「ば」は,形態素配列(morphotactics)の自由度が低く,アスペクトなどの文法的役割を担っているため,ここでは接尾辞として扱う.以上の形態素と UD における素性の対応を表 5 に示す.  表 5 日本語 UDにおける動詞活用の形態的素性のアノテーションの一案. VerbForm=Exem は現在の UD は登録されていない新規のカテゴリであることに注意されたい. 用言に形態的素性を付与するにあたって,以下の論点が生じる. 第一に, 日本語では形容詞や形容動詞も屈折するため,提案された形態的素性は用言全体に適用されるが,現行の UD の枠組みでは,動詞の VerbFormにあたる素性が形容詞には存在しない.解決策としては,朝鮮語の Korean-PUD で実験的に用いられている Form という素性キーを適用するか, VerbFormを用言全体に一般化するかのどちらかが考えられる。二点目は,連体形の形態的素性の扱いである。現代日本語では,動詞・形容詞の変化において終止形と連体形の区別が失われているが,形容動詞では連体形の区別が残っている. そのため,終止形と連体形をどちらも VerbForm=Fin として扱い,形容動詞の連体形のみに別の素性を与えるか,終止形のみを VerbForm=Finとして扱い,連体形全体に別の素性を与えるか,のどちらかの選択肢に統一する必要がある。なお,連体形と終止形の区別を持つ朝鮮語の UD では,連体形には Form=Adn という素性が与えられている。三点目は,助動詞「た・だ」 の形態的素性が過去時制 Tense=Past なのか,完了アスペクト Aspect=Perf なのかという点である.この点に関する見解の一致は見られていないが,日本語 UD の一貫性のために,どちらかに統一する必要がある. ## 3.3 提案の実装に向けて ここまで,日本語 UD における名詞と動詞の形態論を考慮した,新たなトークンの基準と形態論情報のアノテーションを提案した. 現行の日本語 UDでのトークン化と本稿の提案を比較したものを付録 A に示す. 本稿で形態的屈折および派生として扱った形態素は,国文法の品詞カテゴリである助詞・助動詞の一部に対応している. したがって,現行の日本語 UDでは,言語依存の品詞タグを任意に記載することのできる XPOS 列に国文法の品詞カテゴリが明記されていることから,これを参照してトークンの融合および形態論情報の追加を自動で処理することが可能であろう. ## 4 終わりに 本稿では,UD の共通ガイドラインに立脚し,日本語 UD に形態的素性の情報を組み込むことの必要性を主張し,その具体的なアノテーションの試案を提示した. このように,UD 全体との統一性を高めることで,UDを用いた通言語的な研究や応用が可能となる.また, 今後の開発が期待される, 沖縄語,国頭語,奄美語,宮古語,八重山語,与那国語,八丈語などの,日本語以外の日琉諸語の UD ツリーバンクの開発のための土台となることが期待される. ## 謝辞 本論文を作成するにあたって,京都大学の村脇有吾氏およびテュービンゲン大学の Çağrı Çöltekin 氏より建設的な助言をいただき,ここに感謝を表します。 This material is based upon work supported by the National Science Foundation under Grant No. BCS-2109709. Any opinions, findings, and conclusions or recommendations expressed in this material are those of the author(s) and do not necessarily reflect the views of the National Science Foundation. ## 参考文献 [1] Marie-Catherine de Marneffe, Christopher D. Manning, Joakim Nivre, and Daniel Zeman. Universal Dependencies. Computational Linguistics, Vol. 47, No. 2, pp. 255-308, 072021. [2] Daniel Zeman, et al. Universal dependencies 2.11, 2022. LINDAT/CLARIAH-CZ digital library at the Institute of Formal and Applied Linguistics (ÚFAL), Faculty of Mathematics and Physics, Charles University. [3] Joakim Nivre, Marie-Catherine de Marneffe, Filip Ginter, Jan Hajič, Christopher D. Manning, Sampo Pyysalo, Sebastian Schuster, Francis Tyers, and Daniel Zeman. Universal Dependencies v2: An evergrowing multilingual treebank collection. In Proceedings of the Twelfth Language Resources and Evaluation Conference, pp. 4034-4043, Marseille, France, May 2020. European Language Resources Association. [4] 松田寛, 大村舞, 浅原正幸. 短単位品詞の用法曖昧性解決と依存関係ラベリングの同時学習. 言語処理学会第 25 回年次大会発表論文集 (2019 年 3 月), 2019. [5] Gregory Pringle. Thoughts on the Universal Dependencies proposal for Japanese: The problem of the word as a linguistic unit. http://www.cjvlang.com/Spicks/ udjapanese.html, Date accessed: November 10, 2022, 2016. [6] Yugo Murawaki. On the definition of japanese word, 2019. [7] Çağrı Çöltekin and Taraka Rama. What do complexity measures measure? correlating and validating corpusbased measures of morphological complexity. Linguistics Vanguard, 2022. [8] Kikuo Maekawa, Makoto Yamazaki, Toshinobu Ogiso, Takehiko Maruyama, Hideki Ogura, Wakako Kashino, Hanae Koiso, Masaya Yamaguchi, Makiro Tanaka, and Yasuharu Den. Balanced corpus of contemporary written japanese. Lang. Resour. Eval., Vol. 48, No. 2, p. 345-371, jun 2014. [9] Martin Haspelmath. Defining vs. diagnosing linguistic categories: A case study of clitic phenomena, 2015. [10] 宮岡伯人. 語とはなにか: エスキモー語から日本語をみる. 三省堂, 2002. [11] 国立国語研究所. 現代語の助詞 - 助動詞 : 用法と実例. 国立国語研究所報告, Vol. 3, , 1951. [12] Mai Omura and Masayuki Asahara. UD-Japanese BC- CWJ: Universal Dependencies annotation for the Balanced Corpus of Contemporary Written Japanese. In Proceedings of the Second Workshop on Universal Dependencies (UDW 2018), pp. 117-125, Brussels, Belgium, November 2018. Association for Computational Linguistics. ## A トークン化基準の比較 表 6 短単位、長単位、ならびに文節単位でのトークンと、形態的素性を加味した試案に基づいたトークンの比較。例文は大村ほか(2018)[12]より引用した。 & & & & & & & & & & \\
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-7.pdf
# DAG Conversion for Penn Treebank 陳宙斯 小町守 東京都立大学 \{chen-zhousi@ed., komachi@\}tmu.ac.jp ## Abstract Natural languages contain complicated structures beyond trees. Penn Treebank (PTB) [1] is one of the most frequently studied large-scale annotated phrase structure corpus in a format for continuous trees. It has a co-indexing system that allows structures beyond continuous trees [2]. This paper addresses a full conversion leveraging the coindexing system to recover directed acyclic graphs (DAG) for PTB. Due to a similar annotation scheme, our DAG conversion is applicable to Chinese Treebank (CTB). However, much fewer DAGs from CTB are obtained. ## 1 Introduction Constituency parsing is a task for phrases and their relations. Most research for this task is supervised, where parsers follow the annotation schemes of corpora. Many constituency corpora are annotated in bracketing format that limits the parsing structure to continuous trees, which are typically described in context-free grammars (CFG). Syntactically annotated corpora PTB, CTB, Keyaki Treebank (KTB) [3], NINJAL Parsed Corpus of Modern Japanese (NPCMJ) [4] and shared task SPMRL 2013 [5] contain abundant examples in bracketing format for multiple well-studied languages. However, natural languages can hardly be described in CFG [6]. Enforcing CFG causes grammar exceptions and degrades parsing performance $[7,8]$. Syntactic and semantic grounds foster complicated structures. On one hand, syntactic movements create discontinuity by moving phrases away from their siblings, such as "what it is" where fronting "what" makes the clause nominal with a discontinuous verb phrase "is what". Another example in Figure 1 shows a discontinuous conversion for PTB [9] which offers a new challenge where constituency is better described in linear context-free rewriting system (LCFRS) parsers. However, this work left some syntactic movements (e.g., (1) $(\mathbf{S}$ (2) $\mathbf{S}$ (3) Figure 1 Recovering a discontinuous phrase from PTB with co-indexed traces (blue). Top: bracketing annotation; middle: visualization of the top; bottom: conversion after the middle. gapping and part of right-node raising) unstudied [2]. On the other hand, semantic ground involves semantic frames (i.e., predicate-argument structure) which can also hardly be captured by CFG and even LCFRS. Semantic frames are not addressed in the conversion for discontinuous trees in PTB [9] because of the large amount of potential DAGs after full conversion. For example, the passive voice "it is watched by John" has a semantic frame watch(John, it) where "John" is the logical subject (i.e., syntactic object) and "it" is the logical object (i.e., syntactic subject) of predicate "watch". Syntactic and semantic relations jointly lead to the complex wiring of DAG. In this paper, we fully leverage PTB's co-indexing system [2] to recover its DAG structures. Our work can be regarded as a continuum from [9], contributing another new challenging corpus via converting the treebank into a graphbank ${ }^{1)}$. CTB is checked but needs further study.  (5) Figure 2 Recovering DAG from PTB with co-indexed traces (colored). Double lines denote multi-attachment. Top: visualization of bracketing annotation; bottom: conversion after the top. ## 2 Related Work As a pioneering practice, English PTB selected the context-free bracketing format and later introduced the co-indexing system for non-context-free phenomena of discontinuity and multi-attachment [2]. Some corpora adopted the format with their own co-indexing systems for their languages $[3,4,5]$, whereas other languages with free word order, such as German and Czech, either chose more expressive presentations for discontinuity (e.g., Export and XML formats $[10,11]$ ) or adopted lexical dependency parsing instead of constituency. The conversion of PTB for constituency has two directions. One direction is for discontinuity [9] by partially utilizing the co-indexing system; the other is for coordination $[7,8]$. These two directions cover different aspects of the co-indexing system and still keep PTB tree-based. However, presenting PTB directly through DAG [2] leads to grammatical discontinuity and coordination. Dependency parsing had addressed DAG [12] earlier, which has deeper semantic motivations (i.e., predicateargument relations). Furthermore, semantic parsing directly addresses those semantic frames in DAG via logical expressions [13]. As a constituency corpus, PTB gets converted into dependency DAG parsing. To our knowledge, however, direct research on constituency DAG parsing is still lacking, probably because of lacking such a corpus. ## 3 Conversion Our DAG conversion is achieved by modification of each original tree, which involves the reattachment of existing subtrees and the creation of new nodes. The process contains two algorithms. Algorithm 1 is extended from [9], which allows multi-attachment for the reattachment with co-indexed trace to null element and thus produces DAG. Algorithm 2 deals with intra-sentential gapping, where a phrase in coordination acts as a template for the other gapping phrases to imitate. For the convenience of further study, we maintained all functional tags (e.g., -SBJ and -TMP) at either their original attachment or new reattachment locations. ## 3.1 Trace with Null Element We consider five types of null elements for reattachment in PTB. Mark $\boldsymbol{\checkmark}$ denotes a fully exploitation by [9], $\boldsymbol{\Delta}$ a partially exploitation, and $\boldsymbol{X}$ no exploitation. $\mathbf{x} * \quad A$-movement. $\checkmark * \mathbf{T} * \quad$ A-bar movement. $\checkmark * \mathbf{I C H} * \quad$ Interpret constituent here. $\checkmark * \mathbf{E X P} *$ Expletive. $\mathbf{\Delta} * \mathbf{R N R} *$ Right node raising. ([9] picks only the closest null element for reattachment.) We use an instance in Figure 2 to exemplify Algorithm 1. Node $c$ in line 3 stands for each non-terminal node with a co-indexing number. For example, node NP-SBJ-2 re- attaches to null element *-2 without detachment, creating a DAG by lines $11 \& 12$. Although null elements $N$ contain only one *-2, $N$ may contain multiple for DAG. Lines 6-10 are for canceling cycles created by PRN [9]. Among all five types, *RNR* and * are major sources for DAG with the loop in line 4 of Algorithm 1. Specifically, *RNR* and * differ in detachment. Type *RNR* detaches node $c$ from the original parent for reattachment, while type* keeps the original syntactic attachment during reattachment in lines $11 \& 12$. Following [9], the reason for detachment of all non-* nodes is that their parent is a pseudo-attachment that does not have any syntactic role. In contrast, non-* nodes do have [2]. Besides the above differences, our improvement includes lines 11-13 for gapping. ## 3.2 Intra-sentential Gapping PTB co-indexes each coordination with either "-" for a complete phrase (i.e., a template usually at the initial place) or "=" for one or more incomplete phrases (i.e., gapping with remnant components) to imitate the template. The template and gapping phrases are commonly conjunct in no more than one coordination structure in a sentence. Algorithm 2 has a recursive IMITATE function making each gapping phrase resemble its template. In PTB, gapping phrases must have incomplete structures of small heights. Each IMITATE entrance lets a gapping phrase re- & - & - - & 842 & 4 \\ Table 1 Statistics of PTB after our DAG conversion. PTB (2.0) has in total of 49,208 parsed sentences. gain one level of missing complements from the template via the SHARE function. The missing structures are recovered by lines $15 \& 16$ by forcing co-indexed nodes to grow to the same height with the same structure. We exemplify the process in Figure 3. At first, $S$ for Dean Writer new recommends $80 \%$ is found to be the template $t$ with S for Goldman $65 \%$ being an imitator phrase. The modifier ADVP is not shared to the imitator because it is not a complement for the formation of $\mathrm{S}$. Then, a new substructure VP (in yellow) is created by lines $14 \& 15$ and the second IMITATE entrance creates two VPs in two respective $\mathrm{S}$ nodes. In contrast, VBZ is shared by VPs because it is the complement for them. The process works in a top-down style for every substructure paired with the template and gapping phrases. ## 3.3 Error and Exception The annotation of PTB involved a large amount of human labor. Thus, a few errors and exceptions are inevitable. During our re-implementation of [9], we manually adjusted the annotation of 26 sentences for reproducibility. For our DAG conversion, we observed 10 additional errors and exceptions, which involve incorrect trace types, co-indices that lead to circles, ill-formed coordination, and *EXP* coming across gapping. Nevertheless, their population is relatively small and we provide our solution for each of them in our code. ## 3.4 Adjustment for CTB CTB uses a similar annotation style to PTB. However, there are certain differences: - Fewer trace types: *T*, *RNR*, and *. - Templates are also marked by "=". Figure 3 Recovering DAG from PTB with co-indexed intra-sentential gapping (colored). Table 2 Statistics of CTB after our DAG conversion. CTB (9.0) has in total of 132,080 parsed sentences. Thus, Algorithm 1 is still applicable for CTB but Algorithm 2 needs adjustment to first decide which phrase is the template. Our decision is the conjunct phrase that possesses the tallest height and thus contains the complete structure to imitate. Sometimes, the results can indicate some templates on the right side of the coordination. ## 4 Discussion Statistics. As a new graphbank, we show the statistics of a number of parents and their conversion types in Tables $1 \& 2$. Discontinuous tree conversion [9] can be seen as a subset that only has the 1-ary column of each table. For both DAG conversions of PTB and CTB, types $*$ and $* \mathrm{~T}^{*}$ are the major sources of reattachment, while *, gapping, and *RNR* are the top three DAG provider. However, both reattachment and DAG are still sparse, especially for CTB, which makes DAG constituency parsing very challenging. For CTB, we did not leverage the potential null element of type *pro* (i.e., dropped subject or object) because it does not contain any co-index. We left the further DAG conversion for CTB as a future study. Comparison to combinatory categorical grammar. As a parsing formalism, combinatory categorical grammar (CCG) also addressed gapping phenomena in coordination [14]. The solution of CCG is through compound lexical tags (i.e., supertagging) operated by combinatory rules, whereas ours is not a parsing formalism but a graphbank in DAG with each node being an atomic constituency label. Specifically, CCG assigns each word with a string of constituency labels and operating slashes that define how the word combines with adjacent words to form a parse. Apart from CCG's ability for gapping, its parsing formalism is context-free by assuming that necessary contextual information is locally encoded into each lexical string. Our graphbank simply provides the DAG structure without assumption. Moreover, operating slashes can only handle binary combinatory operations, in contrast to our conversion's flexible number of child phrases. ## 5 Future Work We proposed a DAG conversion approach for PTB one of the most frequently studied large-scale treebank, by fully leveraging its co-indexing trace system. However, we observed much fewer DAGs from CTB probably because of uncovered phrases without co-indexing. Nevertheless, DAGs in many other treebanks are to be recovered by carefully applying the instruction in their guidelines. ## Acknowledgement ## References [1] Mitchell P. Marcus, Beatrice Santorini, and Mary Ann Marcinkiewicz. Building a Large Annotated Corpus of English: The Penn Treebank. Computational Linguistics, 19(2):313-330, 1993. [2] Mitchell P. Marcus, Grace Kim, Mary Ann Marcinkiewicz, Robert MacIntyre, Ann Bies, Mark Ferguson, Karen Katz, and Britta Schasberger. The Penn Treebank: Annotating Predicate Argument Structure. In Human Language Technology, Proceedings of a Workshop, page 114119. Morgan Kaufmann, 1994. [3] Alastair Butler, Tomoko Hotta, Ruriko Otomo, Kei Yoshimoto, Zhen Zhou, and Hong Zhu. Keyaki Treebank: phrase structure with functional information for Japanese. In Proceedings of Text Annotation Workshop, 2012, 2012. [4] National Institute for Japanese Language and Linguistics. NINJAL Parsed Corpus of Modern Japanese, 2016. http: //npcmj.ninjal.ac.jp/. [5] Djamé Seddah, Reut Tsarfaty, Sandra Kübler, Marie Candito, Jinho D. Choi, Richárd Farkas, Jennifer Foster, Iakes Goenaga, Koldo Gojenola Galletebeitia, Yoav Goldberg, Spence Green, Nizar Habash, Marco Kuhlmann, Wolfgang Maier, Joakim Nivre, Adam Przepiórkowski, Ryan Roth, Wolfgang Seeker, Yannick Versley, Veronika Vincze, Marcin Wolinski, Alina Wróblewska, and Éric Villemonte de la Clergerie. Overview of the SPMRL 2013 Shared Task: A Cross-Framework Evaluation of Parsing Morphologically Rich Languages. In Proceedings of the Fourth Workshop on Statistical Parsing of Morphologically-Rich Languages, pages 146-182. Association for Computational Linguistics, 2013. [6] Geoffrey K. Pullum and Gerald Gazdar. Natural Languages and Context-Free Languages. Linguistics and Philosophy, 4(4):471-504, 1982. [7] Jessica Ficler and Yoav Goldberg. Improved Parsing for Argument-Clusters Coordination. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, 2016. [8] Jessica Ficler and Yoav Goldberg. Coordination Annotation Extension in the Penn Tree Bank. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, page 834-842, 2016. [9] Kilian Evang. Parsing Discontinuous Constituents in English. Mémoire de master, University of Tübingen, 2011. [10] Sabine Brants, Stefanie Dipper, Peter Eisenberg, Silvia Hansen-Schirra, Esther König, Wolfgang Lezius, Christian Rohrer, George Smith, and Hans Uszkoreit. TIGER: Linguistic Interpretation of a German Corpus. Research on language and computation, 2(4):597-620, 2004. [11] Wojciech Skut, Thorsten Brants, Brigitte Krenn, and Hans Uszkoreit. A Linguistically Interpreted Corpus of German Newspaper Text. CoRR, cmp-lg/9807008, 1998. [12] Kenji Sagae and Jun'ichi Tsujii. Shift-Reduce Dependency DAG Parsing. In 22nd International Conference on Computational Linguistics, Proceedings of the Conference, pages 753-760, 2008. [13] Federico Fancellu, Sorcha Gilroy, Adam Lopez, and Mirella Lapata. Semantic Graph Parsing with Recurrent Neural Network DAG Grammars. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pages 2769-2778, 2019. [14] Nathaniel Little. Reevaluating Gapping in CCG: Evidence from English \& Chinese. In Proceedings of the 10th International Workshop on Tree Adjoining Grammar and Related Frameworks, pages 25-34, 2010.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-8.pdf
# 沖縄語の Universal Dependencies ツリーバンクコーパスの構築 宮川 創 ${ }^{1}$ 金山 博 $^{2}$ 田口 智大 ${ }^{3}$ 當山 奈那 4 1 国立国語研究所研究系 2 日本アイ・ビー・エム株式会社東京基礎研究所 ${ }^{3}$ University of Notre Dame 4 琉球大学 人文社会学部 so-miyagawa@ninjal.ac.jp hkana@jp.ibm.com ctaguchi@nd.edu tohyama@hs.u-ryukyu.ac.jp ## 概要 沖縄語は日琉語族のうちの琉球諸語に属する言語で,消滅の危機に瀕しているが,ローリソース言語の中では比較的テキスト資料は多い.そこで,国立国語研究所の語彙資源『沖繩語辞典』および,談話テキスト資源『方言談話資料』をもとに,沖縄語の Universal Dependencies ツリーバンクを構築している. 本稿ではその過程で検討した, 表記法, 語分割,品詞や係り受けタグの選択について報告する. ## 1 はじめに 沖縄語は,日琉諸語のうちの琉球諸語の中の北琉球諸語に属し, 沖縄島中南部を中心に使用されてきた言語である. しかし, その使用は急速に衰退しており, UNESCO によって,消滅の危機にある言語と認定された [1]. それにもかかわらず,沖縄語の中でも,琉球国時代の政治の中心地であった首里の言語は,日琉諸語のなかでは,日本語のつぎに古い書記記録をもち,書かれたテキストは比較的多い. Universal Dependencies [2] (以下,UD) は, 世界の諸言語の係り受け構造を記述するオープンコミュニティのプロジェクトである. 世界中の消滅危機言語や少数言語や古典言語のツリーバンク開発も盛んであり,UD の最新版 ver. 2.11 は,世界の 138 の言語のツリーバンクを有している.消滅の危機に瀕する言語ならびに少数言語としては,ブラジルの少数民族の諸言語や,オーストラリアの先住民族の諸言語などが含まれている. しかし, 日本語派の諸語と琉球語派の諸語からなる日琉語族の諸言語で,UDツリーバンクを有しているのは現代日本語と古典日本語のみである.そこで,本稿は,ローリソース言語かつ消滅危機言語の言語資源開発の一環としての沖縄語の UDツリーバンクの設計について,現在までの作業の進展も交えながら論じる。語彙情報は国立国語研究所の『沖繩語辞典』 [3] に基づき,コーパスのテキストは同研究所の『方言談話資料』の第 6 ・ $8 \cdot 9 \cdot 10$ 巻 $[4,5,6,7]$ に収録されている沖縄語首里方言の談話テキスト資料を用いている。いずれの資料も,国立国語研究所のリポジトリ上で CC BY 4.0 ライセンスで配布されている. 琉球諸語のタグ付きコーパスは現在存在せず,本稿が述べる沖縄語 UD ツリーバンクコーパスが琉球諸語で初の言語学的タグ付きコーパスとなる見込みである。 ## 2 沖縄語の言語学的特徵 沖縄語は日琉語族に属しており,日本語とは親縁関係にあり,統語論・形態論的特徴もその多くを日本語と共有している。例えば,次の図 1 は,「私は(わんね一) 彼(あり)に (んかい) 酒 (さき)を与えた(くいたん)」という意味の例文であるが,基本語順は SOV であり,格助詞 (んかい) が名詞の後に来ている。この図では,例文の上には単語の依存先 (HEAD) を表す矢印と 5 節で述べるそれぞれの依存/係り受け関係 (DEPREL) タグが,例文の下には単語毎に 4 節で述べる Universal Part-of-Speech (UPOS) とグロス (語釈) が示されている. 図1「私は彼に酒を与えた」を意味する例文 ${ }^{1)}$ 形態素同士の融合が,沖縄語では日本語よりも頻繁に見られる。例えば,図 1 の ‘わんね一” (代名詞 ‘わ一’「私」十主題の副助詞 ‘や’「は」)のような代名詞/名詞と副助詞の融合である。しかし,これらの問題に踏み込む前に表記法の問題を解決する必要がある.沖縄語は正書法が確立しておらず,漢字仮 1) TOP は主題,PST は過去,CNCL は終止形接尾辞を表す. 名混じり表記, 仮名表記, アルファベット表記など様々な表記が存在するためである。 ## 3 沖縄語の表記の問題 漢字仮名混じり表記は,琉球王国時代から,一般的によく用いられているが,様々な変種が存在する. 特に漢字表記は,意味や個人的な解釈に基づくことが多く,摇れが多く見られる. 沖縄語は, 日本語と漢字の読みが異なることが多いことから,近年では,仮名のみの表記をすることも多くなっている、ルビなしの漢字のみで正確な読みを全て推測するのが一般的に困難であることから,本研究ではまず仮名表記のみでの沖縄語のUD 化を試みる. 沖縄語の仮名表記には以下の種類がある。 1. 伝統的仮名表記:『おもろさうし』[8], 組踊 [9], 琉歌,ベッテルハイム訳聖書など。キヤウンと書いて, [tco:n]「来ている」2)と発音されるなど,発音と経りとの乘離が大きい。 2. 現代的な仮名表記: 沖縄県のしまくとうば正書法検討委員会による「しまくとうば普及推進行動計画 (しまくとうば県民運動)」の公式表記や,西岡敏・仲原穣著,伊狩典子・中島由美協力『沖縄語の入門』[11]の表記,琉球諸語統一的表記法 [12], 船津好明の沖縄文字表記 [13],沖縄語普及協議会の表記などがあるが,声門閉鎖音の対立などの表記の仕方が異なる.ひらがな/カタカナを用いるかでもばらつきがある。 (a)『沖縄語の入門』[11]の表記 : 日本語しか知らない読者に対しても分かりやすい仮名表記になっている.例:ウゥトゥ/wutu/「夫」 vs. ウトゥ/Rutu/「音」,ワー/waa/「私」vs. ッワー/Rwaa/「豚」. (b) 沖縄県のしまくとうげ正書法検討委員会 [10]:ほぼ西岡・仲原と同じだが,一部 Unicode にはない上付き文字を使用している. 例 : ウウトゥまたは'ウトゥ/wutu/「夫」vs. ウトゥ/Rutu/「音」. (c) 小川晋史他『琉球のことばの書き方琉球諸語統一的表記法』[12] の表記法:「しま書体」フォントの使用が前提で, Unicode 未登録の文字を多数使用している。 (d)船津好明 [13] による現代的なかな表記十独自の「沖縄文字」(ひらがなの合字): 純粑 2)しまくとうば正書法検討委員会の表記法 [10] では‘ちょー ん. なモーラベースだが Unicode にない. 沖縄語 UD で使用するテキストデータのために現在作成している『沖繩語辞典』[3] の多言語翻訳版 TEI XML ファイルを整備するにあたって,以下の表記法に統一することを決定した.この辞典の基である島袋盛敏の稿本は,カタカナ表記であったが,国立国語研究所の地方言語研究室により言語学的なアルファベット表記に置き換えられた. しかし, この表記は専門的であるため,一般人には容易ではない。そこで,一般に用いられている表記法について,調査を行い,特に表記が分かれる発音の違いを整理した.そして,様々な仮名表記を相互に変換可能にした上で「しまくとうば県民運動」の表記に準じながら,Unicode では表せない上付き文字を下付き文字に置き換え,コンピュータでの使用の容易さを第一に考えたかな表記の標準化を行った. なお,親しみやすさと入力しやすさを考慮して仮名はカタカナではなくひらがなを用いた。この標準化されたかな表記に『沖縄語辞典』[3] の表記を自動的に変換し,それを基にUDを構築している。 ## 4 沖縄語の品詞とUPOS UD では,Google の Universal Part-of-Speech[14] を継承した, Universal Part-of-Speech (UPOS; 付録 A の表 3 参照) が,品詞タグとして用いられる. UPOS は,UD の標準形式の CoNLL-U 形式のテーブルの第 4 番目の列に書かれる. UPOS は,すべての言語に適用できるよう,比較的少なく,普遍的な品詞に絞ったものである. 日本語の助詞は, 格助詞・副助詞は ADP,終助詞は PART,接続助詞は SCONJ など,用途によって UPOS が分かれる。さらに,UD の語の表現は原文の全体をカバーするため, 句読点などのパラ言語的記号も PUNCT として UPOSを与えられる. 現在, 日本語には 8 つの UDツリーバンクがある。沖縄語は, 日本語と同じく日琉諸語であり, 品詞のカテゴリーが日本語と大きく異なることがないため, 日本語の品詞と UPOS の対応を使えるところがほとんどである。しかし,沖縄語は,より言語学的な品詞分類が成されることが多く, 文法家により異なる品詞体系がなされるため, 注意が必要である。沖縄語は,言語類型論的に見れば,日本語共通語に比べ,形態素同士の融合 (fusion) の度合いが高い。例えば,“ちゅーん’「来る」の肯定現在進行形は ‘ちょーん’「来ている」であるが,否定現在形は‘く一ん’「来ない」,肯定過去形は ‘ちゃん’「来 た」である。接語・接辞の区分けが難しい問題もあり,特に名詞および代名詞に接続する助詞と動詞に接続する接尾辞・接語で頻繁にみられる。 国立国語研究所『沖縄語辞典』(1963) の名詞,自動詞, 他動詞, 形容詞, 連詞, 副詞, 連体詞, 接続詞,感動詞, 助詞の 10 の品詞は, 沖縄語 UD の UPOS に以下のように対応づけられる。 $\cdot$NOUN 普通名詞:‘ぼーづい’「坊主」など,および,助数詞:‘ちゅ” (“ぴちゅ'「一人」‘たちゅ”「二人」などの) など. -PROPN 固有名詞:“なーふあ”「那覇」など. - VERB 動詞 (辞書形から末尾の ‘九”を除去したもの; 5.1 節で詳述する):“ゆぬ (“ゆぬん’「読む」から)など. - ADJ 形容詞 (辞書形から末尾の ‘几’を除去したもの)*‘まぎさ’「大きい」など,および,DET を除く連体詞:“いるんな「色んな」など. - ADV 副詞: ‘しかしか’「イライラと」, ‘しぷー とう〉「びっしょり濡れて」など. ・INTJ 間投詞:‘うね’「おや」,“あひゃんがれ一’「やけくそなときに言う言葉」など. - PRON 代名詞:‘わ一’「私」,‘わったい’「私たち二人 (双数) 」, ‘うんじゅ’「貴方」など. - NUM 数詞 : 漢語数詞 : ‘さん’「三」など,および,助数詞を伴う非借用語数詞 (助数詞は名詞として分離; 5.2 節を参照) : ‘た’「二」など. - AUX 動詞の屈折および派生接尾辞/接中辞 (音節文字を使用する関係上,子音語幹につく挿入母音は動詞側に含まれる):“ん’ (叙述・終止の接尾辞), ‘りー' (受身の接中辞),および,連詞: ‘や’「だ」など,付録 $\mathrm{E}$ 参照. - $\mathrm{CCONJ}$ 等位接続詞:'また’「また」,'とう”「と」など. - SCONJ 準体助詞 ‘し’. $\left.{ }^{3}\right)$ ・DET 連体詞の一部 : ‘くぬ’「この」‘あぬ’「あの」‘あふいな’「あんな」など. $\cdot$ADP 格助詞:“が’ (主格), ‘ぬ’ (主格・属格), ‘んかい’(与格), 副助詞: ん’ (添加), “や’ (主題),係助詞: ‘どう” (焦点)など. -PART 様々な終助詞:疑問の終助詞 ‘が’と ‘み’,確認などの終助詞 ‘やー’など. 3)例:“ゆぬし’「読むの」. 日本語UDの場合は動詞のテ形 'て’ (CCONJ となるものを除く) も SCONJに入れられる場合が多いが,沖縄語では ‘て’に相当するものは動詞語幹と融合することが多いため,単独の形態素としての抽出は困難である. $\cdot$PUNCT 句点,読点,括弧開,括弧閉など, - SYM 記号・補助記号のうち PUNCT 以外のもの. ・Xフィラー: ‘あぬー’「あのー」など. ## 5 語分割と係り受けの問題点 依存/係り受け関係 (DEPREL) タグに関しては,基本的に統語論が近い現代日本語の UD のもの ([15] や[16] など) を踏襲しているため,ここでは個々の事例を詳述することは割愛する。しかしながら,沖縄語特有の問題,特に,語幹交替と融合語の問題などは依存関係タグや UPOS でどう扱うかを議論する必要がある.以下で,それらの問題点を挙げ,その解決策を考察する。 ## 5.1 動詞と形容詞の語幹と活用接辞 日本語よりも屈折度が高く語幹が交替する沖縄語の動詞は,日本語 UDにはない対応をしなければならない。沖縄語の動詞の活用形には, I 型から XIV 型までの 14 の型があり ([3] の p.59),さらに,I 型には下位分類が 4 つ,XIV 型には下位分類が 2 つある. 特に注意すべきは第 III〜XIV 型動詞であり, これらは語幹の末尾子音が変化する。例えば,以下の “ゆぬん' /junun/「読む」の場合は,基本語幹 jum-の $\mathrm{m}$ が $\mathrm{n}$ やに変化する. ・jum-語幹: “ゆまん’/juman/「読まない」,“㚫ぶしゃん’/jumibusjan/「読みたい」, “㳊めー’/jumee/「読めよ」,“ゆむな’/jumuna/「読むな」など。 ・ jun-語幹:“ゆぬん”/junun/「読む」,“ゆなびー ん’/junabiin/「読みます」,“ゆぬら”/junura/「読むだろうか」など. ・jud-語幹: “ゆだん’/judan/「読んだ」, “ゆどーちゅん'/judoocun/「読んでおく」, '汉でいー'/judii/「読んだか」,“ゆでい/judi/「読んで」など. UD_Japanese-BCCWJ[17] などでは,「読む」なら 「読ま」「読み」「読む」「読め」などを異形態として登録しており,その後に来る丁寧,否定,アスペクト,ムードなどの動詞接尾辞は,AUXとして登録している. 沖縄語でも,動詞語幹十接尾辞の組合わせを全ての動詞で登録するよりは,音節文字ベースでの動詞の語幹を全て登録して,接尾辞の残りは,助動詞として登録する方が登録数が少なくて済む.同方法を沖縄語で行う場合,付録 B の表 4 で示している通り,“ゆぬん’「読む」には,“ゆぬ”,“ゆな”, ‘ゆま’,'ゆみ’,“ゆだ’,“ゆどー’,'ゆでいー’,'ゆ でい’, ‘ゆでー’の9 種類の異形態 (あるいは異トー クン) の登録が必要である ${ }^{4)}$. 更に沖縄語には約 10 種類の不規則動詞が存在し,日本語共通語には見られない補充法5)がいくつか見られる. これらの出現しうる不規則な表層形を全て登録する。 沖縄語では形容詞も活用する. 14 の型がある動詞と比べ,形容詞は 2 つの型しかなく規則的であるが,動詞と同様,音節ベースの各々の活用形を全て登録する。語幹を除く活用接辞 (接尾辞および接中辞) はそれぞれ AUX にし, 語幹 (VERB) と活用接辞 (AUX) の係り受け関係は auxにする6). ## 5.2 数詞と助数詞の扱い UD_Japanese-BCCWJなどでは,「一人」など非借用語数詞十助数詞の組み合わせを NOUN に入れているが,これは,国語研の短単位がこれらを名詞として扱っているためである。沖縄語では,「一つ」 が‘ていーち’であるのに対して,「一人」が‘ちゅい” であるように,数詞の「1」にあたる部分が‘ていー, と“ちゅ”で異なる形式が用いられることもあるものの, 多くの数詞十助数詞は, 数詞の部分に促音や長音が挿入されるだけの単純な異形態である場合が多い.そこで,数詞十助数詞に関しても,不規則な形式の数詞が出るものも含めで , 非借用語数詞の標準形のレンマを定め,促音や長音が挿入された形を数詞の異形態とし, 助数詞を名詞として, 数詞と助数詞の依存関係を clf (classifier) とする ${ }^{8)}$. 図 2 「お姉様御両名が」を意味する例文 ## 5.3 名詞/代名詞/助詞と副助詞の融合 名詞,あるいは,代名詞がその後に続く副助詞と融合するのも沖縄語の特徴である. 特に一部の名詞・代名詞・助詞は,副助詞の ‘や’ (日本語の主題の副助詞「は」に相当) が後続する場合,音融合を起 4)更に,Universal Feature でその文法機能を記すべきである。付録 $\mathrm{F}$ の表 5 を参照. 5) 英語の go に対する went など元々別の語彙がパラダイムに組み込まれた形. 6)具体例は付録 $\mathrm{E}$ の図 4 および 5 を見よ. 7)'てぃーち’の'ていー'とと゚゚ゅ'の'ぴををンマ化し\{ぴ \}とした. ‘ぴ’を選んだのはこの形式が出現することが多いからである。 8)他の例はを付録 D の図 3 を見よ. こす. 一部の代名詞は副助詞 ‘ん’ (日本語の副助詞「も」に相当) が後続するときに特別な形を取る. 表 1 代名詞/名詞と副助詞の融合の例 これらの母音融合は,語幹の子音や母音が変化する動詞の「テ形」と比べ,比較的単純である. よって,フランス語の du (前置詞 de と定冠詞 le の融合) のように,複数語トークン (Multi-Word Token; MWT [18])を用いて,CoNNL-U の省略形である表 2 の‘んでー’ (接続助詞 'んでい’と副助詞 'や’ の融合) のように表す。 表 2 接続助詞と副助詞の融合語を表した例 ## 6 おわりに 以上,『沖繩語辞典』[3] の語彙情報と『方言談話資料』 $[4,5,6,7]$ の談話テキスト資料を用いて現在開発中の沖縄語 UD ツリーバンクコーパスについて,UPOS などのタグの設定と沖縄語特有の問題点について述べた. 現在,本稿の方法に従って,ツリーバンク構築を行っており,GitHub 上に UD リポジトリリ)の一つとして UD_Okinawanを作成し,公開していく予定である.今後解決していくべき問題としては,補充法を含む不規則に変化する不規則動詞をトークン化していく際に,それぞれの形態がどのような文法機能を有しているか明白にする必要があることである.この際,UD の Universal Features を用いて,その形態のテンス,アスペクト,ムード,極性 (肯定/否定) など文法機能を示すことで解決できる ${ }^{10)}$ 。このように沖縄語の UD ツリーバンクを構築し,日本語との異同,さらに世界の諸言語との違いを量的な分析で明示できるように公開する。こうして,本沖縄語 UDツリーバンクを琉球諸語の UD ツリーバンクの嚆矢とする。 9) https://github.com/UniversalDependencies (閲覧日 202201-11) 10) 付録 $\mathrm{F}$ の表 5 を参照. ## 謝辞 本研究は JSPS 科研費基盤研究 (B) JP19H01265 「多言語による日本語学用語辞典および日琉諸語の用例に対するグロス規範の作成」, 挑戦的研究 (萌芽) JP21K18376「フィールドデータのアーカイブに向けた問題点の整理と解決策」, 人間文化研究機構共同研究プロジェクト (2022 年度〜) 共創先導プロジェクト共創促進研究「学術知デジタルライブラリの構築」, 国立国語研究所共同研究プロジェクト (2022 年度 ) 機関拠点型基幹研究「開かれた言語資源による日本語の実証的 - 応用的研究」基幹型「消滅危機言語の保存研究」, 国立国語研究所共同研究プロジェクト (2022 年度〜) 広領域連携型基幹研究「異分野融合による総合書物学の拡張的研究」国語研ユニット「古辞書類に基づく語彙資源の拡張と語彙・表記の史的変遷 $\rfloor$, 国立国語研究所共同研究プロジェクト (2022 年度〜) 機関拠点型基幹研究「開かれた言語資源による日本語の実証的・応用的研究」基幹型「多様な語彙資源を統合した研究活用基盤の共創 - 統括班」, 東京外国語大学アジア・アフリ力言語文化研究所共同利用 - 共同研究課題「理論言語学と言語類型論と計量言語学の対話にもとづく言語変化・変異メカニズムの探求」, 大学共同利用機関情報・システム研究機構データサイエンス共同利用基盤施設 2022 年度公募型共同研究 ROIS-DS-JOINT 「日琉諸語の言語類型アトラス LAJaR の開発と分析」の助成を受けたものです. ## 参考文献 [1] 新垣友子. 琉球における言語研究と課題. 沖縄大学地域研究所 (編), 琉球諸語の復興, 沖縄大学地域研究所叢書, pp. 13-29. 芙蓉書房出版, 東京, 2013. [2] Joakim Nivre, Marie-Catherine de Marneffe, Filip Ginter, Jan Hajič, Christopher D. Manning, Sampo Pyysalo, Sebastian Schuster, Francis Tyers, and Daniel Zeman. Universal Dependencies v2: An evergrowing multilingual treebank collection. In Proceedings of the 12th Language Resources and Evaluation Conference (LREC 2020), pp. 4034-4043, Marseille, France, May 2020. European Language Resources Association. [3] 国立国語研究所. 沖繩語辞典, 国立国語研究所資料集, 第 5 巻. 財務省印刷局, 東京, 1963. [4] 国立国語研究所. 方言談話資料 (6) - 鳥取・愛媛・宮崎・沖縄 -, 国立国語研究所資料集, 第 10 巻. 国立国語研究所, 1978. [5] 国立国語研究所. 方言談話資料 (8) - 老年層と若年層との会話 - 群馬・奈良・鳥取・島根・愛媛・高知・長埼・沖縄, 国立国語研究所資料集, 第 10 巻. 国立国語研究所, 1985. [6] 国立国語研究所. 方言談話資料 (9) - 場面設定の対話 - 青森・群馬・千葉・新潟・長野・静岡・愛知・福井・奈良・鳥取・島根・愛媛・高知・長埼・沖縄,国立国語研究所資料集, 第 10 巻. 国立国語研究所, 1986. [7] 国立国語研究所. 方言談話資料 (10) - 場面設定の対話その 2 - 青森・群馬・千葉・新潟・長野・静岡・愛知・福井・奈良 ・鳥取 - 島根 - 愛媛 - 高知 ・ 長埼 $\cdot$沖縄, 国立国語研究所資料集, 第 10 巻. 国立国語研究所, 1987. [8] 波照間永吉. おもろさうし. 琉球文学大系/名桜大学『琉球文学大系』編集刊行委員会編纂, No. 1.ゆまに書房, 東京, 2022. [9] 当間一郎. 組踊写本の研究. 第一書房, 東京, 1999. [10] 沖縄県文化観光スポーツ部. 沖縄県における「しまくとうば」の表記について, 2022.https://www.pref. okinawa.lg.jp/site/bunka-sports/bunka/shinko/ documents/02_shimakutubahyouki.pdf (2023-01-11 閲覧). [11] 西岡敏, 仲原穣, 伊狩典子, 中島由美. 沖縄語の入門 : たのしいウチナーグチ. 白水社, 改訂版, 2006. [12] 小川晋史, 重野裕美, 新永悠人, 又吉里美, 當山奈那, Thomas Pellard, 林由華, 下地理則, 下地賀代子, 中川奈津子, Christopher Davis, 麻生玲子, 山田真寛. 琉球のことばの書き方 : 琉球諸語統一的表記法. くろしお出版, 2015 . [13] 船津好明, 中松竹雄. 沖縄口 (うちなーぐち) さびら:沖縄語を話しましょう. 琉球新報社, 2010. [14] Slav Petrov, Dipanjan Das, and Ryan McDonald. A universal part-of-speech tagset. arXiv preprint arXiv:1104.2086, 2011. [15] 浅原正幸, 金山博, 宮尾祐介, 田中貴秋, 大村舞, 村脇有吾, 松本裕治. Universal Dependencies 日本語コーパス. 自然言語処理, Vol. 26, No. 1, pp. 3-36, 032019. [16] 金山博, 宮尾祐介, 浅原正幸, 田中貴秋, 植松すみれ.日本語 Universal Dependencies $の$ 試案. 言語処理学会第 21 回年次大会発表論文集, pp. 505-508, 2015. [17] 大村舞, 浅原正幸. UD Japanese-BCCWJ の構築と分析. Vol. 3, pp. 161-175, 2018. [18] 金山博, 大湖卓也. UD_English-EWT とのつきあい方 . 言語処理学会第 28 回年次大会発表論文集, pp. 2013-2017, 2022. ## 付録 (Appendix) ## A. UPOS 一覧 表 3 UD ver. 2 の Universal POS tags ## B. 動詞活用形トークナイズの例 表 4 XII 型動詞ゆぬぬん「読む」のいくつかの例 ## C. AUX の実例 ・動詞接尾辞 (辞書形から末尾の ‘ん’を除いた形) 一 “ん' (叙述・終止の接尾辞) 一 ‘る' (連体の接尾辞) — ‘ぎゆ’/あぎゆ’ (進行の接中辞) - 『びー’/いびー' (丁寧の接中辞) —“みえー’んしこー' (尊敬の接中辞) — ‘ぶしゃ' (欲求の接中辞) 11)[16] および [15] では,「接辞」と訳されている。 12)レンマを\{\}で囲って表す. —“しゅ’゙あしゅ” (使役の接中辞) - ‘ゆーしゅ” (可能の接中辞) — “みゆ’“いみ” (使役の接中辞) - ‘りゆ’゙ありゆ’ (受身の接中辞) - ‘ぎさ’/いぎさ’ (推定・伝聞の接中辞), — ‘らー’/いら一' (仮定の接尾辞)など. ・連詞 (辞書形から末尾の ‘ん’を除いた形式) ${ }^{13)}$ - ‘や’「だ」 (否定形‘あら”) - ‘でーび’「です」 _‘ぐとー’「のようだ」など. ## D. 数詞 + 助数詞の書き方 図 3 「四日の日」を意味する例文 ## E. 動詞の接尾辞の助動詞としての扱い 図 4 「宜しかったでしょうに」を意味する例文 図 5 「酒は米から作られる」を意味する例文 ## F. 不規則動詞の Universal Feature の記述例 表 5 'ちゅーん'「来る」,‘くーん’「来ない」,'ちょ一ん’「来ている」,'ちゃん'「来ない」14) 'ちゅー' $\mid$ Tense=Pres|Polarity=Pos $\cdot$く-, Tense=Pres|Polarity=Neg ‘ちょー' Tense=Pres|Aspect=Prog|Polarity=Pos 'ちゃ' $\quad$ Tense=Pres|Polarity=Neg 13)必ず,活用接尾辞 (AUX) を伴う. 英語の be のような 「verbal copula」の UPOS は AUXになる. 14)レンマは\{ちゅー\}であり,これらVERBには,‘ん’などの AUX が必ず後続.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-9.pdf
# UD Japanese-CEJC とその評価 大村舞 国立国語研究所 } 若狭絢 国立国語研究所 } 松田寛 Megagon Labs } 浅原正幸 国立国語研究所 ## 概要 Universal Dependencies に基づく言語資源の構築が各言語で進められている。日本語においても Universal Dependencies に準拠する言語資源が構築されてきたが、すべて書き言葉に基づくものであった。本研究では、日本語 Universal Dependencies の新しい言語資源として、『日本語日常会話コーパス』 に基づくUD Japanese-CEJC を構築したので報告する。既存の書き言葉の日本語 Universal Dependencies の言語資源と同様に、国語研短単位形態論情報・国語研長単位形態論情報・文節係り受けに基づく変換規則によりデータの構築を行った。さらに、さまざまな条件により解析器を構築し、評価を行ったので報告する。 ## 1 はじめに Universal Dependencies(UD) [1] は言語横断的な依存構造木に基づくツリーバンクを構築するプロジェクトであり、2023 年 1 月現在 100 以上の言語において 200 近くのツリーバンクが構築されている。その研究対象は、書き言葉から話し言葉にシフトしており、Dobrovoljc ら [2] により最近の研究動向がまとめられている。また、日本語UDチームが、ツリーバンクやパーサの構築の興味のある研究者で組織され、過去にさまざまな日本語 UD リソー ス [3] の構築を進めてきた。しかし、これまで構築してきた日本語 UD リソースは書き言葉を対象としており、話し言葉を対象とした日本語リソースはなかった。 2022 年に国立国語研究所によって「日本語日常会話コーパス」 (Corpus of Everyday Japanese Conversation: CEJC)[4]が構築された。CEJCは、性別・年齢などに基づいた均衡性を考慮された協力者に収録を依頼し、収録されたコーパスであり、転記・短単位形態論情報・発話単位などが付与されている。また、同データに対して、長単位形態論情報・文節係り受けの情報 [5] も付与されている。これらのアノテーション情報が整備されたことにより、Omura ら $[6,7]$ が提案する文節係り受けから UD への変換規則を用いることで、CEJC から国語研短単位・長単位それぞれの日本語 UD リソースを構築することが可能となった。 本研究では、話し言葉向けに若干改変した変換規則を CEJC に適用し、日本語話し言葉に基づくUD リソース UD Japanese-CEJCを新たに構築した。 A. 1 節の表 1 に、Dobrovoljc ら [2] がまとめた話し言葉 UD リソースのさまざまな観点項目に沿った UD Japanese-CEJC の特徵をまとめている。音声データのみならず、 2 種類のカメラ (通常のカメラと 360 度カメラ)による映像データともアラインメントをとった UD リソースは世界的にも類を見ない。UD Japanese-CEJC は、現時点で映像を含む世界最大規模の話し言葉ツリーバンクとなるだろう。 本稿では、2023 年 5 月に公開予定の UD JapaneseCEJC の構築とともに、さまざまな UD パーサについて評価したので報告する。具体的には、データ変換における話し言葉に特有のフィラーや言いよどみの扱いや、書き言葉-話し言葉間のパーサの分野適応について報告する。 ## 2 UD Japanese-CEJC の構築 ## $2.1 『$ 『本語日常会話コーパス』と文節係 り受けアノテーション 『日本語日常会話コーパス』(CEJC) [4] は、200 時間、577 の(2 人以上の)会話、1675 発話者による大規模な話し言葉のコーパスである。データは、節末やポーズに基づいて「発話単位」[8] と呼ばれる単位に分割されている。さらに音声・映像データを転記したうえで、転記データに対し、国語研短単位形態論情報が付与されている。CEJC データの短単位に基づく形態素数は約 240 万形態素である。 このうち 20 時間分のデータはコアと呼ばれ、さまざまなアノテーションが人手で付与されている。 図 1 UD Japanese-CEJC の発話(T011_007)に対する UD の例。「ツ」と「ん」が言いよどみとフィラーである コアには国語研長単位形態論情報や文節係り受け情報 [5] も整備されている。国語研長単位形態論情報と文節境界は、一度長単位解析器 Comainu [9] で解析したものに対し、人手で修正しながら付与した。 さらに、文節係り受け解析器 CaboCha [10] で解析したうえで、BCCWJ-DepPara [11] 互換の文節係り受けアノテーションを、人手修正もしつつ付与した。 書き言葉と話し言葉の大きな違いは、依存構造木の単位にある。書き言葉の場合には、句点などの文境界補助記号を手がかりにした文単位で依存構造木を構築されることが多い。しかし、話し言葉の場合には明示的な句点はないため、CEJC では節末もしくはポーズに基づいて定義される「発話単位」[8] を認定されており、文節係り受けは発話単位に基づいて構築している。さらに、話し言葉には、書き言葉にはあまり見られないフィラー・言いよどみや述語省略などが出現することも特徵的である。 ## 2.2UD 体系への変換 本研究では、前節で説明した CEJC に付与された文節係り受けの情報を入力として、Omura ら [6]の変換ルールに基づき変換し、UD Japanese-CEJC を構築した。ただし、この変換ルールは UD Japanese-GSD、 PUD、BCCWJ といった書き言葉 UD に対して用いていたものである。そのため、話し言葉に対応するためにも、いくつかの拡張をおこなった。 まず、依存構造木の基本単位を発話単位とした。 さらに、フィラー・言いよどみなど、係り先が規定できないものについては、最後の rootへ係るようにした ${ }^{1)}$ 。さらに、述語省略などにより係り先が規定できない場合も、最後の rootへ係るようにした。 図 1 に構築したUDの例を示す。図の場合、言いよどみの「ツ」やフィラーの「ん」などは一意に rootの「でき」に係る形として変換している。この 1)UD のガイドラインに従う場合の、複数の root が許容されていないために起きる処理である。 ような、本質的に係り先が決められない文節・単語が出現することは、依存構造解析への困難さにつながると考えられ、後述のパーサ解析の結果からも伺える。 ## 2.3UD Japanese-CEJC の基礎統計 表 1 UD Japanese-CEJC(話し言葉)と UD Japanese-GSD (書き言葉)の基礎統計 表 1 に、今回構築した話し言葉の UD JapaneseCEJC と、比較のため、従前より整備している書き言葉の UD Japanese-GSD の基礎統計を示す。Trees の列は CEJC においては発話単位の数、GSD においては文の数を表す。Tokens の列は UD における単語/形態素の数を示す。Avg. の列は、係り受け木単位の平均単語/形態素数を示す。Max. は、係り受け木単位の最大単語/形態素数を示す。より詳細な UD の統計は A. 2 節の表に示している。 ## 3 パーサの解析評価 本節では UD Japanese-CEJC の解析可能性について検討する。UD Japanese-CEJC と UD Japanese-GSD を用いてパーサモデルを構築しUD 解析を行うことで、話し言葉と書き言葉の解析可能性の違いについて検証する。 ## 3.1 実験設定 パーサの評価のため、UD Japanese v2.11 コーパスのうち、GSD、CEJC と、この 2 つを合わせたデー タ CEJC+GSD を用いて比較を行う。GSDデータは、既に train/dev/test に分割されているものを使用する。 CEJC データについては、CEJCで区分されている 「会話」形式に基づき、train/dev/test の比率が 8:1:1 になるように、均衡性を保ちながら新たに分割を行ったものを使用した。実験では、各コーパスの発話単位境界・文境界を与えたうえで構築した。表 1 が示唆するように、発話単位と文境界認定自体には差異があり、比較が困難であるからである。実験では UDPipe および spaCy の 2 つのフレームワークを使用して依存構造解析を行い、精度を比較した。UD には短単位と長単位のものがあるが、本稿では、短 表 2 GSD(書き言葉)と CEJC(話し言葉)についてのパーサ解析精度。いずれも短単位での評価である。 & $91.75 \%$ & $90.87 \%$ \\ 単位に限定した結果を示している。 UDPipe の実験では、UDPipe(v1.2.0)により構築したモデルで依存構造解析を行い、解析精度を評価した。UDPipe [12] は GRU やニューラルネットワー クなどに基づいて実装されており、単語分割、品詞付与、依存構造解析をパイプラインで解析するモデルを構築できる。UDPipe では依存構造解析で単語埋め込みを使用できるため、258 億語規模のウェブテキストで学習された NWJC2vec [13]を使い、300 次元の Skip-gram モデルを使用した。 $\mathrm{spaCy}^{2)}$ の実験では、Transformers ベースの事前学習モデル3) と解析コンポーネントとの間で損失勾配を共有できる spacy-transformers を使用して、次の 2 つのアプローチついて解析精度を評価した。 二段階解析モデルフィラー・言いよどみを除去してから UD 品詞付与と依存構造解析を行うモデルである。浅原 [14]にならい、フィラー・言いよどみのスパンを固有表現抽出器(ner)で学習して該当スパンを入力テキストから除去した上で、UD 品詞付与 (morphologizer)と依存構造解析(parser)を別のパイプラインで処理する。なお、UD 品詞付与・依存構造解析の精度評価では、正解ラベルを用いてフィラー・言いよどみを除去した CEJC-を用いた ${ }^{4)}$ 。 2) spaCy v3.4.3および spacy-transformers v1.1.8を使用 3) bert-base-japanese-v2 を使用 4)入力テキストが異なる状態での精度評価が困難なため。同時解析モデルフィラー・言いよどみを含めて入力全体を一度に処理するモデルである。単一の spaCy パイプライン上に transformers・morphologizer・ parser・nerの順にコンポーネントを配置した。spaCy の parserコンポーネントは、Non-Monotonic ArcEager Transition System [15] をべースとして、交差文脈を扱うために Nivre [16] の Lifting による Projectivization/Deprojectivization $の$ 拡張が施されており 5)、フィラー・言いよどみから rootへの係り先が周辺文脈と交差する場合にも対応可能である。実際にフィラー・言いよどみの係り関係をどの程度の精度で扱うことができるか評価を行う。 なお、spaCyを用いた実験は時間の都合上、XPOS と Lemmas の体系変換は行わなかった。 ## 3.2 結果 表 2 にパーサの評価結果を示す。Tokens、UPOS、 XPOS、Lemmaは、それぞれの列の再現可能性を $\mathrm{F}_{1}$ スコアで示す。Tokens はわかち書き、UPOS は UD POS、XPOS は UniDic 品詞、Lemma は UniDic 語彙素である。依存構造関係は UAS(Unlabeled Attachment Score)と LAS(Labelled Attachment Score)という標準的な評価指標を用いた。いずれも CoNLL 2018 Shared Tasks [17] の評価プログラムに基づく。訓練データ(train/dev)とテストデータ(test)で、 5) https://spacy.io/api/example\#get_aligned_parse 表 3 二段階解析モデルと同時解析モデルのフィラー・言いよどみの解析精度 話し言葉・書き言葉の差異がある条件 (例「train $/ \mathrm{dev}$ GSD と test CEJC」もしくは「train/dev CEJC と test GSD」) では、わかち書き(Tokens) と品詞タグ付け (UPOS と XPOS) の性能が悪くなった。これは、話し言葉と書き言葉で、語彙・品詞の分布が異なるからである。例えば、CEJC において INTJ・CCONJ・・ PRON(一人称代名詞・二人称代名詞など)の品詞が多いが、GSDにおいてはあまり出てこない。結果として、CEJC+GSD の両方のデータを訓練データに用いたモデルがもっとも性能が良いことがわかった。 ## 3.2.1フィラーや言いよどみによる影響 話し言葉には、フィラーや言いよどみなどがあり、本質的にわかち書きが難しい。表 2 より、CEJC からフィラーや言いよどみを取り除いて学習と評価を行った二段階解析モデル(CEJC-の行)の性能が他のモデルより高いことは、そのひとつの裏付けと言える。また実用上フィラーや言いよどみが不要の場合には、二段階解析モデルが好まれるであろう。 フィラーや言いよどみに限定して解析精度を評価した結果を表 3 に示す。トークン認定精度は二段階解析モデルよりも同時解析モデルの方が精度がやや高い傾向にあった。これは、依存構造解析とフィラー・言いよどみ判定を同時に学習することによる効果と考えられる。ただし、全体で評価した場合と比べて、フィラーや言いよどみのトークン化精度はどちらも 6 ポイント以上低下している。同時解析モデルの UD 品詞付与精度と依存構造解析精度においても、トークン化での劣化分に相当する精度低下が見られる。 ## 3.2.2 依存構造木の長さと句読点の有無 表 1 でわかる通り、CEJC の依存構造木の長さは GSD の依存構造木の長さに比べて短い。それでも、 CEJC の依存関係の同定は品詞同定と同様に難しい結果となった。書き言葉の依存構造解析においては、句読点が長距離の依存関係の曖昧性解消に有効であるが、話し言葉には句読点が付与されていないために、長距離の依存関係同定に弱い傾向があると考えられる。さらに、フィラー・言いよどみ・述語省略など依存関係が不定なものの扱いが困難である と考えられる。CEJC-の項を確認すると、UDPipe の CEJC-のモデルは GSD の結果が $71.43 \%$ と悪くなっている。CEJC を用いたモデルは話し言葉の短さに基づき構築されているため、GSDのような書き言葉を生成するのが困難になっている。 $\mathrm{spaCy}$ の場合、 トークン化に形態素辞書を使用していること、事前学習モデルと同時学習を行っていること、などの効果で精度が安定していると考えられる。 ## 4 おわりに 本稿では、『日本語日常会話コーパス』に基づいた新しいUD 日本語リソース UD Japanese-CEJC を紹介した。これは、日本語においてはじめての話し言葉の UD リソースであり、音声・映像アライメントも可能な世界最大規模の話し言葉 UDである。 さらに、構築した UD Japanese-CEJC(話し言葉) と UD Japanese-GSD(書き言葉)を用いた UDPipe と spaCy に基づくパーサを構築し、解析可能性の検証を行った。話し言葉においてフィラー・言いよどみ・言い直しなどがわかち書きや品詞タグ付けに影響を及すほか、依存関係同定も書き言葉と異なるふるまいを確認した。 $\mathrm{spaCy}$ に基づく実験においては、固有表現抽出器を用いたフィラー・言いよどみ検出器を用い、フィラー・言いよどみを取り除いた状態で再度依存構造解析を行う二段階解析モデルを検討した。フィラーや言いよどみを予め除く二段階解析モデルは依存構造解析に有効であることを確認した。 今後の展開として、UD Japanese-CEJC と UD Japanese-BCCWJ との相互比較を検討している。また、UD Japanese-CEJC v2.11 (Jan. 2023) ${ }^{6}$ は、国立国語研究所により有償版 CEJC 契約者向けに「中納言」ダウンロードサイトから配布されているが、次回の v2.12(May. 2023 リリース)からは、Universal Dependencies の公式サイトでも表層形をスタンドオフした形式で配布する予定である。 実験で使用した spaCy 同時解析モデルは、Megagon Labs の GitHub リポジトリから公開を予定している。 6)長単位形態論情報・係り受けアノテーション自体のライセンスは CC BY 4.0 だが、表層形・短単位形態論情報の利用には有償版 CEJC の契約が必要である。 ## 謝辞 本研究は、株式会社リクルート・国立国語研究所共同研究「日本語版 Universal Dependencies に基づく日本語依存構造解析モデルの研究開発」、国立国語研究所共同研究プロジェクト「実証的な理論・対照言語学の推進:アノテーションデータを用いた実証的計算心理言語学」、JSPS 科研費 JP18H00521, JP19K13195, JP22H00663, JP22K18483, の助成を受けたものです。 ## 参考文献 [1] Marie-Catherine de Marneffe, Christopher D. Manning, Joakim Nivre, and Daniel Zeman. Universal Dependencies. Computational Linguistics, Vol. 47, No. 2, pp. 255-308, June 2021. [2] Kaja Dobrovoljc. Spoken Language Treebanks in Universal Dependencies: an Overview. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 1798-1806, Marseille, France, June 2022. European Language Resources Association. [3] Masayuki Asahara, Hiroshi Kanayama, Takaaki Tanaka, Yusuke Miyao, Sumire Uematsu, Shinsuke Mori, Yuji Matsumoto, Mai Omura, and Yugo Murawaki. Universal Dependencies version 2 for Japanese. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation, Miyazaki, Japan, May 2018. European Language Resources Association. [4] Hanae Koiso, Haruka Amatani, Yasuharu Den, Yuriko Iseki, Yuichi Ishimoto, Wakako Kashino, Yoshiko Kawabata, Ken'ya Nishikawa, Yayoi Tanaka, Yasuyuki Usuda, and Yuka Watanabe. Design and evaluation of the Corpus of Everyday Japanese Conversation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 5587-5594, Marseille, France, June 2022. European Language Resources Association. [5] 浅原正幸, 若狭絢. 『日本語日常会話コーパス』に対する係り受け情報アノテーション. 言語処理学会第 28 回年次大会発表論文集, pp. 1699-1703, 3 月 2022. [6] Mai Omura and Masayuki Asahara. UD-Japanese BCCWJ: Universal Dependencies annotation for the Balanced Corpus of Contemporary Written Japanese. In Proceedings of the Second Workshop on Universal Dependencies, pp. 117-125, Brussels, Belgium, November 2018. Association for Computational Linguistics. [7] Mai Omura, Aya Wakasa, and Masayuki Asahara. Word delimitation issues in UD Japanese. In Proceedings of the Fifth Workshop on Universal Dependencies, pp. 142-150, Sofia, Bulgaria, December 2021. Association for Computational Linguistics. [8] Yasuharu Den, Hanae Koiso, Takehiko Maruyama, Kikuo Maekawa, Katsuya Takanashi, Mika Enomoto, and Nao Yoshida. Two-level annotation of utterance-units in Japanese dialogs: An empirically emerged scheme. In Proceedings of the Seventh International Conference on Language Resources and Evaluation, Valletta, Malta, May 2010. European Language Resources Association. [9] 小澤俊介, 内元清貴, 伝康晴. 長単位解析器の異なる品詞体系への適用. 自然言語処理, Vol. 21, No. 2, pp. 379-401, 2014. [10] 工藤拓, 松本裕治. チャンキングの段階適用による日本語係り受け解析. 情報処理学会論文誌, Vol. 43, No. 6, pp. 1834-1842, 2002. [11] Masayuki Asahara and Yuji Matsumoto. BCCWJDepPara: A syntactic annotation treebank on the 'Balanced Corpus of Contemporary Written Japanese'. In Proceedings of the 12th Workshop on Asian Language Resources, pp. 49-58, Osaka, Japan, December 2016. The COLING 2016 Organizing Committee. [12] Milan Straka and Jana Straková. Tokenizing, POS tagging, lemmatizing and parsing ud 2.0 with UDpipe. In Proceedings of the CoNLL 2017 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies, pp. 88-99, Vancouver, Canada, August 2017. Association for Computational Linguistics. [13] Masayuki Asahara. NWJC2Vec: Word embedding dataset from 'NINJAL Web Japanese Corpus' . Terminology: International Journal of Theoretical and Applied Issues in Specialized Communication, Vol. 24, pp. 7-22, January 2018. [14] Masayuki Asahara and Yuji Matsumoto. Filler and disfluency identification based on morphological analysis and chunking. In Proceedings of ISCA/IEEE Workshop on Spontaneous Speech Processing and Recognition, pp. 163-166, Tokyo, Japan, April 2003. ISCA. [15] Matthew Honnibal and Mark Johnson. An improved non-monotonic transition system for dependency parsing. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [16] Joakim Nivre and Jens Nilsson. Pseudo-projective dependency parsing. In Proceedings of the 43rd Annual Meeting of the Association for Computational Linguistics (ACL'05), pp. 99-106, Ann Arbor, Michigan, June 2005. Association for Computational Linguistics. [17] Daniel Zeman, Jan Hajič, Martin Popel, Martin Potthast, Milan Straka, Filip Ginter, Joakim Nivre, and Slav Petrov. CoNLL 2018 shared task: Multilingual parsing from raw text to Universal Dependencies. In Proceedings of the CoNLL 2018 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies, pp. 1-21, Brussels, Belgium, October 2018. Association for Computational Linguistics. ## A 付録 ## A. 1 UD Japanese-CEJC の特徵 表 1 CEJC 転記ファイルの (cf. Dobrovoljc 論文 [2], Table 2) 表 1 に CEJC 転記ファイルの特徴を Dobrovoljc の論文 [2] の観点に基づいて示す。Language variety は日本語共通語話者(関東近県在住)のために多様性がない。また、日本語には Capitalization の慣習がない。さらに、CEJC は転記規則として punctuationを利用していない。他言語の UD リソースにない特色として、映像データとのアラインメントがある。 ## A. 2 UD Japanese-CEJC の統計 表 2 UPOS の分布 (GSD (短単位) と CEJC (短単位)) 表 2 に GSD(短単位)と CEJC(短単位)のUPOS (品詞)ラベルの分布を示す。話し言葉には句読点 や記号を転記に用いないために PUNCT と SYM が全く出現しない。また、話し言葉は、CCONJとINTJが書き言葉より大きな割合で出現するが、PRON は省略される傾向がみられる。Xは、笑・泣・歌などといった書き言葉では見られず、いずれにも該当しない表現に付与している。 表 3 DEPREL の分布 (GSD (短単位)と CEJC (短単位)) 表 3 に GSD (短単位)と CEJC (短単位)の DEPREL (依存構造関係)ラベルの分布を示す。話し言葉においては、係り先が不定のものを文末の rootノードを係り先とするために root が大きな割合となる。また、 reparandum は言いよどみ、discourse はフィラー を意味する。UPOS PUNCT が話し言葉には出現しないために、DEPREL 'punct'も出現しない。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-10.pdf
# 日本語歴史コーパスの All-words WSD 浅田宗磨 東京農工大学工学部 s197006x@st.go.tuat.ac.jp ## 概要 本研究では,日本語歴史コーパスの語義曖昧性解消を行った. 日本語歴史コーパスの語義曖昧性解消の研究には,頻出語のみを対象とする lexical sample taskを一つの単語ごとにモデルを作成する手法で解いた [1] があるが, 本研究では系列ラベリングの手法で全単語について一つのモデルを学習させ, all-words の語義曖昧性解消を行った. また,単語に割り当てられた分類語彙表による語義の概念の粒度を変更して 2 通りの実験を行った. 実験の結果,どちらの実験でも提案する手法が最頻出語義のベースラインを有意に上回った. ## 1 はじめに 語義曖昧性解消 (Word Sense Disambiguation, WSD) とは,文中の多義語がどのような語義か判断する処理である. 多義語とは, 複数の語義を有している単語のことで,たとえば「夢」という単語には「睡眠時にみられる現実に似た一連の観念や心像」という語義や「実現させたいと思っているがまだ空想の域を出ない事柄」という語義がある。 多義語の語義は,文脈によって判断される。機械学習においては, 文脈情報として対象単語の周囲の単語の品詞や,単語同士の共起関係などを特徵として語義を推定する. WSD は, 文中の単語の語義を示すため, 初学者に向けた文章読解や単語学習に役立てられる。 WSD には,コーパス中に頻出する単語だけを対象にする lexical sample task と,コーパス中の全単語を対象にする all-words WSDがある。一般に, lexical sample task では単語ごとに分類モデルを学習する方法をとるのに対して, all-words WSD では系列ラべリングの手法で全単語についてひとつのモデルを学習させることが多い. 古文の WSD を行うにあたり,日本語歴史コーパス(CHJ)[2] においては語義タグ付きデータが少量であったため, 現代文と比較し \author{ 古宮嘉那子 \\ 東京農工大学大学院工学研究院 \\ kkomiya@go. tuat.ac.jp } て語義の識別精度が低いことが課題であった.しかし, 2022 年の前半に CHJ の語義タグのタグ付け作業が終了したため,現在では多くのデータが手に入るようになった。 日本語歴史コーパスを対象とした WSD の先行研究としては, lexical sample task として解いた [1] があるが,本研究では同じデータに対して all-words WSDを行う.このことにより,コーパス中にあらわれる頻度の低い多義語についての語義を推定することが可能になる. また,本研究では,語義として利用されている,分類語彙表の概念の粒度を変更して実験を 2 通り行った。 ## 2 関連研究 all-words WSD の先行研究には,鈴木ら [3] の研究がある.この研究では対象単語の周辺単語の分散表現を作成し,類義語の周辺単語の分散表現とのユー クリッド距離を計算することで対象単語の語義を予測し,その手法の有効性を示した. ただし,対象文書は古文ではなく,現代日本語書き言葉均衡コー パス [4]である.また,WSD に古文と現代日本語文の通時的な領域適応を行った論文として,Komiya ら [5] の研究がある。この研究では,古文の WSD のための素性として様々な種類を比較し,古文によって作成された分散表現に現代文による fine-tuning を行った素性が古文の WSD に有効であると示した. BERT[6] を用いた英語の all-words WSD に, Jiaju ら [7] の研究がある。彼らは,BERTを encoder として利用し,得られた素性が all-words WSD に有効であると示した. 日本語の分散表現の研究に, 新納ら [8] の研究がある. この研究では, 国語研日本語ウェブコーパス [9] と word2vec[10]を用いて作成した分散表現が日本語 WSD に有効であると示した. all-words WSD の手法で同形異音語の読み推定を行った研究に,小林ら [11] の研究がある.この研究では,単語の「読み」を「語義」とみなして, BERT の fine-tuning を用いて読み推定を行った,ま た,日本語歴史コーパスの頻出単語の WSD として, Komiya ら [1] の研究がある. 彼らは訓練事例の不足を, 現代文を大量に利用して学習した BERTを利用することで補い,これを新たにタグ付けされた古文の WSD 用のデータで fine-tuning することで,高い性能を得られることを示した. 先行研究は lexical sample taskであるが,本研究では同じデータを用いて all-words WSDを行った. ## 3 提案手法 本研究では,先行研究 [1] にならい,対象コーパスは古文であるが,現代文の BERTを事前学習モデルとして利用し,これを古文の語義タグつきデータで fine-tuning することで WSD を行った. また,本研究では, all-words WSD を, 入力文中の WSD の対象単語すべてに語義タグを付与する,系列ラベリングのタスクとしてとらえ,実装を行った. ただし,固有表現抽出などの一般的な系列ラベリングタスクと違って, all-words WSD では単語ごとに候補となる語義ラベルの集合が異なる。例えば,「犬」という単語に「犬」以外の単語の語義ラベルを付与するのは望ましくない. そのため, WSD の対象単語ごとに候補となる語義ラベル集合を参照し,その候補の語義ラベル集合の中で最も softmax 関数の出力が高いものを正解とみなして学習及び推論を行った。 ## 4 実験 本研究では,東北大学が公開した日本語の訓練済み現代文 BERT モデル1)を利用する。本研究で用いる BERT モデルは, BERT-base と同等のアーキテクチャで, 2020 年 8 月 31 時点の日本語 Wikipedia から作成された約 3,000 万文のコーパスを用いた事前学習が行われたものである. 本研究ではこの現代文 BERT を fine-tuning する。 実験は,分類語彙表番号が最も詳細な 5 桁の番号と,上 3 枌のみ残し他は切り捨てたものの 2 種類を行う. 表 1 から, 分類語彙表番号の桁を 5 析から 3 析にすることで, 曖昧性が減少し, 対象語義種類数が大幅に減少していることが分かる.また,WSD の対象単語出現数と, 対象単語種類数もともに減少している. 結果として, 対象単語平均語義数は 2.91 と 2.73 であり, 対象語義種類数と比較すると, 小さな差となっている。表 1 日本語歴史コーパスの統計情報 ## 4.1 実験設定 システムへの入力は文とした.この際,日本語歴史コーパス中の句点(。)を文末として区切られる 1 文を入力とする. 虎明本狂言は台本形式のため,句点が文中に出現しない,そのため,鍵括弧 (「,『』),文境界で B(区切り)が割り当てられた読点(、)を,句点に置換した上で文末として 1 文を区切る. 入力文中の各単語の素性として, 日本語歴史コーパスの出現書字形, 語彙素, 分類語彙表番号を用いる. 入力文は時代や作品によらずランダムな順序で学習を行った. 日本語歴史コーパスの単語区切りは Unidic[12] の区切りとなっているため, BERT には Unidic の区切りで encode する東北大学の bert-base-japanese-v2を利用した. しかし,BERT の語彙は限られているため,BERT encoder により文を分割すると, 日本語歴史コーパスの単語が複数に分割されることがある.例えば,「痛み入る」は日本語歴史コーパス中では 1 つの単語として扱われているが BERT encoderによって「痛み/入る」のように分割される.こうした場合には,最初のトークンを WSD の対象単語として利用した。 また,学習時には最適化関数に Adam を,損失関数にクロスエントロピー誤差を用いた。 ハイパーパラメータは表 2 に示す値のグリッドサーチを行い,開発データにおいて最も正解率の高い値を採用した. 訓練データ: 検証データ:テストデータは $3: 1: 1$ として五分割交差検定を行った。 表 2 ハイパーパラメータの調整 1) https://huggingface.co/cl-tohoku/ bert-base-japanese-v2 ## 4.2 評価手法 コーパス中の全多義語について,以下の式を用いて正解率を求めた. $ \text { 正解率 }=\frac{\text { 正解単語数 }}{\text { 全多義語数 }} $ なお,ある単語がコーパス中で複数の語義を有しているとしても,それらがすべて訓練データにもテストデータにも登場するとは限らない。日本語歴史コーパス中で 2 回しか登場しない多義語はコーパス中の多義語の 1 割程度を占める. 本実験では,最頻出語義(Most Frequent Sense, MFS)をべースラインに設定した. MFS は以下の式で求められる. $ \text { 対象単語の MFS }=\frac{\text { 最頻出語義出現数 }}{\text { 全出現回数 }} $ ## 5 コーパス 本研究では,竹取物語,土佐日記,今昔物語集,方丈記, 宇治拾遺物語, 十訓抄, 徒然草, 虎明本狂言,太陽,尋常小学読本 $(1904,1910)$ の計 10 作品の日本語歴史コーパスを用いる。コーパスの統計情報は表 1 の通りである. 分類語彙表 [13] とは,語を意味によって分類・整理したシソーラス(類義語集)である. 分類語彙表は似た概念を持つ単語や,概念の包含関係などの情報が扱いやすい形態で記録されている.分類語彙表中の一つのレコードは「レコード ID 番号/見出し番号/レコード種別/類/部門/中項目/分類項目/分類番号/段落番号/小段落番号/語番号/見出し/見出し本体/読み/逆読み」の項目からなる. 分類番号はこのうち,「類/部門/中項目/分類項目」と対応する.たとえば「言う」という単語に 2.3102 という番号が振られている場合, 各項目との対応は「2./3/1/02」となる. 分類番号は位の大きさが小さくなるにつれ分類がより詳細になっている. ## 6 実験結果 実験結果を表 3 に示す. 分類語彙表番号が 5 桁, 3 桁の双方において正解率がベースラインを上回った.この差は, 自由度を 0.05 としてカイ二乗検定を行うと有意であることがわかった. 実験結果から,現代文 BERT は古文の all-words WSD にも有効であることがわかる. 表 3 WSD の実験結果 コーパス内の頻出語のみを対象語とした lexical sample task の WSD においても,学習データ数が少ない際には MFS を超すのは難しいとされる([1], [5]).また, 今回の研究と同じコーパス中に 1,000 回以上出現する 33 単語を対象語とした lexical sample task の 5 析の分類語彙番号を使用した際の正解率 [1] 比較すると, 本研究で利用した全単語のデータの方が 3.32 ポイント MFS が高いため,コーパス中に出てくる頻度の小さい単語のほうが MFS が低いことが分かる. しかし, 一般に機械学習においては学習データが少ない場合,正解率が低い傾向にある. そのため, MFS 2.91 ポイント及び 3.01 ポイント上回った今回の結果は十分高い結果だと考えている. 表 4 出現頻度の小さい場合の正解率 (\%) 表 5 誤答が頻出した単語 ## 7 考察 コーパス中での出現頻度の小さい単語での正解率を表 4 に示す. 分類語彙表番号が 5 桁, 3 桁の両方の場合において,正解率は出現回数が 2 回であるものを除いて MFS を大きく下回った. これは,6節で述べた, 学習データ数が少ない場合の極端な例である.この結果は, 対象単語が訓練データに出現せず,学習による語義推定の手がかりが得られない確率が高いためだと考えられる。 また,システムがよく誤答した 10 単語を上から頻出順に表 5 に示す. システムが誤答した単語で多かったのは,「為る」「成る」「然る」といったコーパス中に頻出で,語義数が 10 を超えるものであった.一方で,また,語義の概念の粒度によってよく誤答する単語に違いがみられた. たとえば「人」という単語は, 分類語彙表番号が 5 析の場合では 7 種類の語義に分類される中で 484 回誤答していた. 3 桁の場合では 6 種類の語義に分類される中で 123 回誤答していた.この結果から,「人」という単語は微妙で学習しづらい細分化された概念を有していると考えられる。 ## 8 おわりに 本研究では,日本語歴史コーパスの all-words WSD を行った. 語義として利用した分類語彙表番号を 5 桁すべて利用する場合と, 上位 3 枌までを利用した場合の 2 種類の実験を行った. 実験により, 両方の場合において,現代文 BERT は古文の all-words WSD に有効であることがわかった. コーパス中の出現頻度が小さい単語については,MFS と比較して高い精度を得られなかった. また,語義の概念の粒度が異なると,一部の単語において語義数に違いがあまり見られないのにもかかわらず誤答が多くなることがわかった。 ## 謝辞 本研究は JSPS 科研費 17KK0002,18K11421, 22K12145 の助成を受けたものです。また,国立国語共同研究プロジェクト「開かれた共同構築環境による通時コーパスの拡張」「多様な語義資源を統合した研究活用基盤の共創」「アノテーションデー タを用いた実証的計算心理言語学」の成果です。 ## 参考文献 [1] Komiya Kanako, Oki Nagi, and Asahara Masayuki. Word sense disambiguation of corpus of historical japanese using japanese bert trained with contemporary texts. In PACLIC 2022, 2022. [2] 国立国語研究所. 『日本語歴史コーパス』バージョン 2022.3, 2022. https://clrd.ninjal.ac.jp/chj/. [3] 鈴木類, 古宮嘉那子, 浅原正幸, 佐々木稔, 新納浩幸. 概念辞書の類義語と分散表現を利用した教師な乙 all-words wsd. 自然言語処理, Vol. 26, No. 2, pp. 361-379, 2019. [4] Kikuo Maekawa, Makoto Yamazaki, Toshinobu Ogiso, Takehiko Maruyama, Hideki Ogura, Wakako Kashino, Hanae Koiso, Masaya Yamaguchi, Makiro Tanaka, and Yasuharu Den. Balanced corpus of contemporary written japanese. Language Resource and Evaluation, Vol. 33, No. 7, pp. 345-371, 2014. [5] Komiya Kanako, Tanabe Aya, and Shinnou Hiroyuki. Diachronic domain adaptation of word sense disambiguation for corpus of historical japanese using word embeddings. NINJAL Research Papers, Vol. 23, pp. 29-57, jul 2022. [6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [7] Jiaju Du, Fanchao Qi, and Maosong Sun. Using bert for word sense disambiguation. arXiv preprint arXiv:1909.08358, 2019. [8] 新納浩幸, 浅原正幸, 古宮嘉那子, 佐々木稔. nwjc2vec:国語研日本語ウェブコーパスから構築した単語の分散表現データ. 自然言語処理, Vol. 24, No. 5, pp. 705-720, 2017. [9] Masayuki Asahara, Kikuo Maekawa, Mizuho Imada, Sachi Kato, and Hikari Konishi. Archiving and analysing techniques of the ultra-large-scale web-based corpus project of ninjal, japan. Alexandria, Vol. 26, No. 1-2, pp. 129-148, 2014. [10] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. In C.J.C. Burges, L. Bottou, M. Welling, Z. Ghahramani, and K.Q. Weinberger, editors, Advances in Neural Information Pro- cessing Systems 26, pp. 3111-3119. Curran Associates, Inc., 2013. [11] 小林汰一郎, 古宮嘉那子, 新納浩幸. 疑似訓練データを用いた bert による同形異音語の読み推定. 第 253 回自然言語処理研究発表会, 2022. [12] 康晴伝, 智信小木曽, 秀樹小椋, 篤山田, 信明峯松, 清貴内元, 花絵小磯.コーパス日本語学のための言語資源 : 形態素解析用電子化辞書の開発とその応用. 日本語科学, Vol. 22, pp. 101-123, oct 2007. [13] 国立国語研究所. 『分類語彙表増補改訂版データベース』(ver.1.0), 2004. https://clrd.ninjal.ac.jp/ goihyo.html.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-11.pdf
# WordNet Lexicographer カテゴリ推定による語義サイズ縮約を用いた 語義曖昧性解消 橋口卓弥 ${ }^{1}$ 佐々木稔 ${ }^{1}$ 1 茨城大学大学院理工学研究科情報工学専攻 \{22nm740a, minoru. sasaki. 01\}@vc. ibaraki. ac. jp ## 概要 語義曖昧性解消は、文中に出現する多義語が辞書中のどの語義として使われているかを推定するタスクである。このタスクに対して様々な手法が研究されている中、語義間の上位下位関係などを使って少ないサイズの語義で語義曖昧性解消を行うという手法が存在する。しかし、この手法を用いた場合、正解語義とは lexicographer カテゴリが異なる語義ラべルを選択して誤った語義ラベルに判定しやすいという問題がある。そこで、本稿では上位下位関係を使った語義サイズの縮約手法に lexicographer カテゴリの推定モデルを追加し、推定した lexicographer カテゴリを推定された語義ラベルの一部を書き換える手法で精度の向上を試みた。実験の結果、学習に古典的な埋め込みを用いた場合での名詞単語の語義識別精度が上がった。 ## 1 はじめに 我々が普段文書や発話などで用いている言語には、文脈に応じて複数の意味を持つ単語が多く存在する。例えば、” mouse” という英単語は、ねずみや(電子デバイスの)マウスなど複数の意味を持っている。このような複数の意味を持つ単語が、特定の文脈ではどの意味で使われるのかを識別し、文の意味の曖昧性を無くすことを目的とした自然言語処理のタスクを語義曖昧性解消という。 語義曖昧性解消は、今日に至るまで様々な研究が行われており、多くのアプローチ方法が提案されてきたが、その中でも教師あり手法が最良のスコアを出しており、現在の手法では教師あり手法が優勢である。この教師あり手法の問題点として、人の手によって作成された意味注釈付きコーパスは量が限られていることがあげられる。最大のコーパスである SemCor では、単語は 33760 種類の意味キーで注釈 されているが、これは語義曖昧性解消タスクで広く使われている語義データベースの意味リストの約 16\%に過ぎない。そこで、Loïc Vial ら[1]は、WordNet に存在する語義間の意味関係を利用して、語義の縮約を行うという手法を提案した。語義縮約による手法を用いて最新の語義曖昧性解消ニューラルネットワークで実験を行った結果、最新技術を大幅に上回るスコアが得られた。 しかし、Loïc Vial らの手法を用いて語義曖昧性解消タスクを行い、推定結果を調べると、正解語義とは lexicographer カテゴリが異なる語義を選択して誤った語義が多く見られた。そこで、本稿では、Loïc Vial らの手法に lexicographer カテゴリの推定システムを追加し、推定した lexicographer カテゴリで語義ラベルの一部を書き換える手法を提案する。また、 この手法が語義推定の精度向上に有効かどうかについて分析をする。なお、 lexicographer カテゴリとは、語義の種類を表す番号であり、詳細は 3.4 節で説明する。 ## 2 関連研究 言語モデルに基づく語義曖昧性解消は、Yuan ら [2] によって最初に作られ、Le ら[3]によって改良された。膨大な量の注釈つきでないデータで学習したリカレントニューラルネットワークによって、注目単語の周りの単語を考慮した予測ができるニューラル言語モデルが中心的な構成である。 ソフトマックス分類器に基づく語義曖昧性解消の主なニューラルネットワークは、ソフトマックス関数によって計算された確率分布によって、入力された各単語を直接分類し、意味を付与する。このニュ ーラルネットワークは 2 つの手法に分けられる。1 つは、Iacobacci[4]らが提案した、辞書に含まれる様々な単語に対して、トークンごとに異なる複数のニュ ーラルネットワークを持ち、それぞれが特定の単語 と意味を管理できる手法である。もう 1 つは、 Raganato ら[5]が提案した。全ての単語を管理して辞書に存在する全ての意味セットで意味を割り当てることができる大規模で一般的なニューラルネットワ ークを有する手法である。 Ciaramita と Altun [6]、Izquierdo ら[7]は複数の Wordnet の意味タグをグループ化することで、より粗い意味リストを作成し、自然言語処理タスクでより有効になる可能性があるということを利用した研究であるクラスタリング手法を提案している。 ## 3 提案手法 本稿で提案する lexicographer カテゴリの推定による語義曖昧性解消の手法は、Loïc Vial らの語義サイズ縮約手法に我々が考案した lexicographer カテゴリの推定システムを追加して語義曖昧性解消を行う。 まず、訓練データと WordNet3.0 の語義データを用いて語義の縮約を行う。次に、縮約した語義で作成された訓練データを用いて語義ラベル推定モデルの学習を行い、学習したモデルデテストデータ内の各単語の語義ラベルの推定を行う。そして、WordNet3.0 の語義定義文を用いて lexicographer カテゴリ推定モデルの学習を行い、lexicographer カテゴリ推定システムでテストデータ内の各単語の lexicographer カテゴリを推定する。最後に、各単語の語義ラベルの推定結果(に含まれる lexicographer カテゴリ)を推定した lexicographer カテゴリに書き換える。なお、3.1 節と 3.2 節は Loïc Vial らの語義サイズ縮約手法の説明、 3.3 節と 3.4 節は我々が提案する lexicographer カテゴリ推定システム追加手法の説明である。提案手法の大まかな処理の流れを図 1 に示す。 図 $1:$ 提案手法の処理順序 ## 3.1 同義語に基づく語彙サイズの縮約 語義の辞書である WordNet にて、語義は synset と呼ばれる同義語の集合で構成されている。synset とは、同じ語義を持つグループで、例えば”person”, “individual", “someone”, “somebody”の 1 番目の語義は全て”a human being”という共通の語義で定義されている。WordNetには各単語のそれぞれの語義に語義ラベルがついているが、語義ラベルを共通の語義、 つまり synset ヘマッピングすると、例で示した"person", "individual", "someone", "somebody"の 1 番目の語義ラベルを 1 つの synset キーで表すことができ、語彙を縮約することができる。 ## 3.2 上位下位概念による語義サイズの縮約 WordNet の語義には、上位概念と下位概念という意味の包含関係が存在し、上位概念は一般化、下位概念は特定化を表している。 本手法では、同じ上位概念関係の語義をグループ化して、語義サイズを縮約する手法を紹介する。実際に、”mouse”の 1 番目の語義(小さな䛚歯類)と 4 番目の語義(電子機器)、またこれらの上位概念からなる小さな木構造で考える。これを図 2 に示す。 “mouse\#1”の上位概念である ”living_thing\#1” と"mouse\#4"の上位概念である”artifact\#1”によって”mouse”の語義を識別できることから、“artifact” と”living_thing”よりも下位の概念は全て取り除くことができる。また、"mouse\#1"を”living_thing\#1”にマッピングしても”mouse”の語義を曖昧さなく識別することができ、また他の生き物や動物の単語も同様 図 2: mouse\#1 と mouse\#4 の上位概念からなる木構造 にマッピングできる。このことから、語義サイズの縮約が可能となる。 本手法は、WordNet の全ての語義を上位概念の階層で最も高い祖先にマッピングすることであるが、制約がある。1 つは、祖先は対象単語の異なる語義を全て識別できなければならず、もう 1 つは、 WordNet に含まれる全ての語義を判別するために不可欠な上位概念を無くしてはいけないということである。これらを踏まえて、本手法は次の 2 つのステップで処理を行う。1. WordNet の全ての語義のペアの最初の共通親の子を” necessary” としてマークする。 2. 全ての語義を、語義から上位概念を辿っていった際の最初の” necessary” とマークされた親にマッピングする。 ## 3. 3 lexicographer カテゴリ推定システム WordNet の語義ラベルには、語義の種類ごとに lexicographer カテゴリが付与されている。語義ラベルの 1 つ目のコロンの次に該当する番号が lexicographer カテゴリであり、2 桁の番号で表される。例をあげると語義ラベル” time\%1:11:00::”の lexicographer カテゴリは 11 である。なお、名詞の lexicographer カテゴリの一覧は付録に示す。 本手法では、テストデータ内の各単語の lexicographer カテゴリを推定することが目標である。本手法の処理の流れを図 3 に示す。 WordNet の全語義(全 synset)を入力とし、それに対応する lexicographer カテゴリを出力するように BERT をファインチューニングしてモデルを作成する。しかし、作成したモデルは語義定義文から lexicographer カテゴリを推定するモデルであり、このモデルでテストデータの用例文から lexicographer カテゴリを推定することはできない。そこで、このモデルを活かすために、各語義定義文と(用例文中の)各単語のベクトルを利用する。 作成したモデルを用いて、用例文の各単語の埋め込みベクトルを作成する。モデルに用例文を入力することで、モデルの隠れ層から用例文中の各単語のベクトルを取得することができる。このべクトルを用いて、lexicographer カテゴリを推定する。 用例文中の注目単語 1 つの lexicographer カテゴリ推定を行うとする。WordNet 上での注目単語の各語義定義文を作成したモデルに入力し、モデルの隠れ層から各語義定義文の[CLS]ベクトルを取得する。用 図 3: lexicographer カテゴリ推定システム 例文中の注目単語の単語ベクトルと各語義定義文の [CLS]ベクトルとのコサイン類似度を計算し、最も類似度が高い語義定義文の lexicographer カテゴリを推定結果とする。 コサイン類似度とは、 2 つのベクトルがなす角のコサイン値のことで、すなわち 2 つのベクトルの類似性を表す尺度である。最大値の 1 に近づくほど、ベクトル同士が似ていると言える。コサイン類似度は、以下の式で求めることができる。 $ \cos (\vec{p}, \vec{q})=\frac{\vec{p} \cdot \vec{q}}{|\vec{p}| \cdot|\vec{q}|} $ ## 3. 4 lexicographer カテゴリの上書き 語義ラベル推定モデルで推定した語義ラベルを、 lexicographer カテゴリ推定システムで推定した lexicographer カテゴリによって上書きする処理について説明する。 推定した語義ラベル内の lexicographer カテゴリがシステムで推定した lexicographer カテゴリと異なる場合に上書き処理を行う。その後、上書き処理をした語義ラベルが Word-Net 上に存在するか調べる。存在する場合、上書きした語義ラベルを最終的な推定結果とする。存在しない場合、上書き処理したラベルではなく元の推定語義ラベルを最終的な推定結果とする。 ## 4 実験 本実験は、Loïc Vial らの語義サイズ縮約手法のみで語義曖昧性解消タスクを行った場合 (1) と、 lexicographer カテゴリの推定手法を追加した語義曖 昧性解消タスクを行った場合(2)のそれぞれの推定結果を比較し、lexicographer カテゴリ推定手法の有効性を検証することを目的としている。 ## 4. 1 実験の詳細 3 節で説明した方法に基づいて実験を行う。 モデルの学習は WordNet3.0 とコーパス SemCor を用い、評価はコーパス SemEval2015を用いた。語義ラベル推定モデルの学習はVial らの方法に従った。また、語義ラベル推定モデルは、古典的な埋め込みを用いたものと BERT の一種である bertlarge-cased model を用いたものの 2 種類を作成した。 それぞれのモデルについて個別に実験を行った。 (1)と(2)それぞれについて F1 スコアを求め比較することにより, lexicographer カテゴリ推定手法の評価を行った. F1 スコアについては、品詞ごとの F1 スコアと全体のF1 スコアを求めた。 ## 4.2 実験結果 表 1 と表 2 に実験結果を示す。 表 1: 語義ラベル推定モデルの学習に古典的な埋め込みを用いた場合の実験の結果 表 2 : 語義ラベル推定モデルの学習に BERT を用いた場合の実験の結果 語義ラベル推定モデルの学習に古典的な埋め込みを用いた場合の実験では、名詞のスコアが高くなった。動詞と形容詞のスコア、および全体のスコアは低くなった。 語義ラベル推定モデルの学習に BERTを用いた場合の実験では、副詞以外の品詞のスコアが下がり、全体のスコアも低くなった。 ## 5 考察 古典的な埋め込みを用いて語義ラベル推定モデルを学習させた場合、lexicographer カテゴリの推定システムを追加して行った語義曖昧性解消は、 lexicographer カテゴリの推定システムを使わずに行った語義曖昧性解消に比べて名詞単語のスコアが高くなり、名詞単語の識別精度が上がったことが分かる。したがって、lexicographer カテゴリ推定システムを追加する手法はこの点において有効であることを示すことができた。形容詞の識別精度が他の品詞と比べて大きく下がっている点については、推定結果を調べると書き換えた 12 の単語の内 7 単語が同じ単語で正解語義とは誤った上書きをしており、推定語義が偏ると精度に大きな影響が出る事が分かった。推定結果を詳細に分析すると、レキシコグラフアーカテゴリ推定システム単体での正答率は 76.85 だったが、lexicographer カテゴリが正解と一致していても、語義ラベルの末尾の番号が異なっていたり、 そもそも書き換え時に存在しない語義ラベルとなったりするため、実際の語義ラベル正答率は大きく落ちると考えられる。しかし、各単語の推定語義と正解を比較すると、lexicographer カテゴリのみ誤っている語義がまだ多く存在しているため、 lexicographer カテゴリ推定システムでの推定の精度を上げることで、語義推定の精度を更に高めることができるのではないかと考える。 BERT で語義ラベル推定モデルを学習させた場合で全体的に精度が大きく下がったのは、レキシコグラファーカテゴリ推定システムの推定精度がシステムを追加しない場合の語義推定精度より低いためであると考えられる。 総じて、lexicographer カテゴリ推定の精度を上げられるようにアプローチを改善、または新たに考案することが必要であると考える。 ## 6 おわりに 本論文では、語義曖昧性解消タスクにおいて、Loïc Vial らの語義サイズ縮約手法に、lexicographer カテゴリ推定システムを加えることで、古典的な埋め込みを用いた場合に名詞の精度が上がることを確認した。 今後は、lexicographer カテゴリ推定精度を向上させるため、lexicographer カテゴリ推定システムの改良や、別のアプローチでの lexicographer カテゴリの推定などを考えていきたい。 ## 参考文献 [1] Loïc Vial Benjamin Lecouteux Didier Schwab. 2019. Sense Vocabulary Compression through the Semantic Knowledge of WordNet for NeuralWord Sense Disambiguation. In proceedings of the 10th Global WordNet Conference - GWC 2019. arXiv:1905.05677v3 [cs.CL]. [2] Dayu Yuan, Julian Richardson, Ryan Doherty, Colin Evans, and Eric Altendorf. 2016. Semi-supervised word sense disambiguation with neural models. In COLING 2016. [3] Minh Le, Marten Postma, Jacopo Urbani, and Piek Vossen. 2018. A deep dive into word sense disambiguation with lstm. In Proceedings of the 27th International Conference on Computational Linguistics, pages 354-365. Association for Computational Linguistics. [4] Ignacio Iacobacci, Mohammad Taher Pilehvar, and Roberto Navigli. 2016. Embeddings for word sense disambiguation: An evaluation study. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 897-907, Berlin, Germany, August. Association for Computational Linguistics. [5] Alessandro Raganato, Claudio Delli Bovi, and Roberto Navigli. 2017b. Neural sequence learning models for word sense disambiguation. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pages 1167-1178. Association for Computational Linguistics. [6] Massimiliano Ciaramita and Yasemin Altun. 2006. Broad-coverage sense disambiguation and informationextraction with a supersense sequence tagger. In Proceedings of the 2006 Conference on Empirical Methods in Natural Language Processing, EMNLP '06, pages 594-602, Stroudsburg, PA, USA. Association for Computational Linguistics. [7] Rubén Izquierdo, Armando Suárez, and German Rigau. 2007. Exploring the automatic selection of basic level concepts. In Proceedings of RANLP, volume 7. Citeseer.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-12.pdf
# 折り返し翻訳を利用した言い換え生成 松本武尊 ${ }^{1}$ 村上仁一 ${ }^{2}$ 1 鳥取大学工学部電気情報系学科 2 鳥取大学工学部 ${ }^{1}$ b19t2108k@edu. tottori-u.ac.jp ${ }^{2}$ murakami@tottori-u.ac.jp ## 概要 言い換え技術は,機械翻訳や対話システムなど様々なことに応用されている [1]. 本研究では, ニューラル機械翻訳 (NMT) を用いて,折り返し翻訳を行うことにより,自動で言い換え生成を行う.機械翻訳を用いた言い換え生成は,誤訳などにより精度が低下する。この問題に対して,本研究では入力文を折り返し翻訳した結果が一致した場合のみ言い換えとする.実験の結果,高い精度で大量の言い換え文を得ることに成功した。 ## 1 はじめに 言い換え生成は,同一言語の翻訳と捉えることが可能である.そのため,機械翻訳を用いて言い換え生成を行うことができる。しかし,精度があまり良くない. その原因として, 翻訳機の精度に大きく依存してしまうことがあげられる. そこで本研究では,折り返し翻訳を行い元の文と折り返し翻訳をされた文を比較する. そして,2つの文が一致したものを採用することによって誤訳が減ると考えられる.そこで,NMTを用いて折り返し翻訳を行い,言い換え生成を行い,精度の調査を行う。 ## 2 従来手法 言い換え生成は,様々な研究がなされてきた. 機械翻訳を用いた手法では,対訳文の一方を翻訳することによって,翻訳された結果ともう一方を言い換えとしている. [2]では,言い換え認識の評価用コーパスの構築のために,複数の翻訳機を用いて同じ英語文を翻訳し,複数の日本語訳を得ている。これらの日本語訳は,言い換えとなる。図 1 に例を示す.しかし,翻訳誤りなどによって言い換えとして不適切なものが含まれる。 そこで,誤訳を回避するために,BLEU 值を用いて翻訳精度が高い日本語対訳を言い換え文とすることで,言い換え生成を行っ た.しかし,BLEU 值を用いても,誤訳を十分に回避できない. 図 1 従来手法の例 ## 3 提案手法 2つの文をそれぞれ翻訳し,翻訳結果が一致したとき,2つの文は言い換え文だと予想される. そこで,図2のようにNMT を用いて折り返し翻訳を行い,翻訳結果が一致した場合,言い換え文とする。 それにより,誤訳が減り言い換え精度が向上すると考えられる.以下に提案手法の例を示す。 1. 対訳英文“The signal turned green.”を英日翻訳する 2.1の結果の“信号機が緑になった。”を日英翻訳する 3. 日英翻訳をした結果の “The signal turned green.” と対訳英文“The signal turned green.” を比較し,一致しているかを調べる 4. 一致しているとき,英日翻訳した結果の “信号機が緑になった。”と対訳日本文の“信号は青になった”を言い換え文とする 図 2 提案手法の例 ## 4 評価方法 本研究では,人手で評価を行う.言い換えは表現が多様であり言い換えの評価は曖昧である. そこで,2つの意味が完全に等しくなくとも,大きな差がなければ正解とする。 ## 5 実験 本研究では,2 種類の実験を行う.また,この 2 種類の実験で生成された言い換え文からランダムに 20 文抽出を行い,人手で評価を行う. 1. 折り返し翻訳を行う実験 (提案手法) 2. 折り返し翻訳を行わない実験 (ベースライン) ## 5.1 実験条件 本研究では,OpenNMT[3]を用いて機械翻訳を行う.また,実験データは単文の日英対訳文 163,188 文を学習及び入力として用いる。 ## 5.2 実験手順 1. OpenNMT に日英対訳学習文約 16 万文を用いて学習する 2. 英日翻訳を行う 3. 2 の結果を基に日英折り返し翻訳を行う 4. 対訳英文と 3 の結果が同一であるとき,対訳日本文と 2 を言い換え文とする 5. ベースラインと提案手法についてランダムに抽出した 20 文の人手評価を行う ## 5.3 実験結果 実験結果を表 1 に示す. 本研究では,対訳日本文と一致したものは,同一文とみなし,言い換えに含まない。 表 1 実験結果 表 1 より,折り返し翻訳を行うと,得られる言い換え文の数が大きく低下する。 ## 5.4 出力例 表 2 に提案手法, 表 3 にベースラインの出力結果を示す. 表 2 提案手法の出力例 表 3 ベースラインの出力例 表 2,3より,言い換えが不正解である文は,主語が正しく訳されていない場合がある. ## 5.5 人手評価 表 4 に入力文 20 文に対して得られた言い換え文の人手評価結果を示す. 表 1 より,提案手法では得られた言い換え文は約 2 万 5000 文である。また, 表 4 より, 正解率は 0.850 である.ベースラインと比較すると, 大幅な改善が見られる。 ## 6 考察 ## 6.1 4-Best 本研究では,大量の言い換え文を得るために, 4-Best で調査をおこなう.以下に実験手順を示す. 1. OpenNMT を日英対訳学習文約 16 万文を用いて学習する 2. 英日翻訳を行い, 1 文ずつ日本語文を 4 文出力する 3. 英日翻訳を行った結果の日本語文 1 文に対して,日英折り返し翻訳を行い,4 文出力する 4. 日英折り返し翻訳を行った結果, 4 文の内 1 つでも対訳英文と同一であるとき,対訳日本文と英日翻訳された結果を言い換えとする 5. ベースラインと提案手法についてランダムに抽出した 20 文の人手評価を行う ## 6.1.1 4-Best における実験結果 表 5 に 4-Best における実験結果を示す.ここで,学習文, 入力文は提案手法と同じものを利用している. 表 5 4-Best における実験結果 表 1 と表 5 を比較すると,得られた言い換え文が増加したことが確認できる。 ## 6.1.2 4-Best における出力例 表 6 に 4-Best の場合の出力例を示す。なお,言い換え文同士が同一になった場合や,折り返し翻訳が一致しない場合がある. そのため, 入力文 1 文に対して4文出力されない場合がある.表 6 4-Best における出力例 表 6 より, 言い換えが正解した文と不正解な文が混在している場合があることが確認できる。 ## 6.1.3 4-Best における人手評価 表 7 に 4-Best における入力文 20 文に対して得られた言い換え文の人手評価結果を示す。 表 7 4-Bestにおける入力文 20 文に対する出力の評価 表 4 と表 7 を比較すると, 得られた言い換え文が増加しており,正解率も増加している。 ## 6.1.4 4-Best における 1 文に対する人手評価 複数の出力の内,正解した言い換えがある場合,入力文に対して言い換えを得られたとしたときの結果を表 8 に示す. 表 8 4-Best における正解した言い換えがある場合の評価 表 8 より,4-Bestでは,入力文全てに対して言い換え文を得られた。また,表 5 より,4-Bestでは得られた言い換え文は約 13 万 5000 文である. 表 7 より,正解率は 0.857 である. ## 6.24 システム NMT は,学習を行う際に乱数が用いられる. そのため,同じ実験条件でも出力が異なる [4]. その ため,1つのモデルで折り返し翻訳が一致しなかった文が複数のモデルで翻訳を行うことにより,折り返し翻訳が一致する可能性がある。これらから,言い換え文の増加を試みる. 本研究では,4つのモデルを用いて実験を行い,N-Best は 4 とする.これを 4 システムと呼ぶ. ## 6.2.14 システムにおける実験結果 表 9 に 4 システムにおける実験結果を示す.ここで,学習文,入力文は提案手法と同様のデータを利用している. 表 94 システムにおける実験結果 表 5 と表 9 を比較すると,得られた言い換え文がさらに増加していることが確認できる。 ## 6.2.2 4 システムにおける出力例 表 10 に 4 システムにおける出力例を示す. 4-Best と同様に, 最大出力数は 16 文である. しかし, 言い換え文同士が同一文の場合や,折り返し翻訳が一致しない場合がある. よって,入力文 1 文に対して 16 文出力されない場合がある. 表 104 システムにおける出力例 表 10 より,大きく意味が異なっている文も見られる。 ## 6.2.3 4 システムにおける人手評価 表 11 に 4 システムにおける入力文 20 文に対して得られた言い換え文の人手評価結果を示す.表 114 システムにおける入力文 20 文に対する出力の評価 表 7 と表 11 を比較すると, 4 システムでは, 複数出力された言い換え文同士や,対訳日本文と同一な文が増加している. そのため, 正解率が減少したと考える。 ## 6.2.4 4 システムにおける 1 文に対する人手評価 4-Best と同様に正解した言い換えがある場合,入力文に対して言い換え文を得られたとしたときの結果を表 12 に示す. 表 124 システムにおける正解した言い換えがある場合の評価 表 8 と表 12 を比較すると,精度が低下することが確認できる.また,表 9 より,4 システムでは得られた言い換え文は約 36 万 3000 文である. 表 12 より, 正解率は, 0.817 である. ## 6.3 今後の課題 本研究では対訳コーパスが存在していることを前提にしている。 そのため, 今後の課題は, 任意の入力に対しての言い換え生成である. ## 7 おわりに 本研究では, 折り返し翻訳を行った結果が一致したことに着目して言い換え生成を行った. 結果より,精度の向上が確認できた. また,考察より, 4-Best では人手評価で正解率が 0.857 であり, 約 13 万 5000 文の言い換え文を得た. 今後として,任意の入力に対して言い換え生成を行い, 生成された言い換え文を用いて,機械翻訳の精度向上を行いたい. ## 参考文献 [1] Jianing Zhou and Suma Bhat. Paraphrase generation: A survey of the state of the art. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 5075-5086, 2021. [2] 鈴木由衣, 梶原智之, 小町守. 複数の機械翻訳を用いた言い換え認識の評価用コーパス構築に向けて. 言語処理学会第 23 回年次大会, pp. 609-612, 2017. [3] OpenNmt. https://pypi.org/project/OpenNMT-py/2. 2.0\%. [4] 矢野貴大, 村上仁一. ニューラル機械翻訳に乱数が与える影響。 [5] 乾健太郎, 藤田篤. 言い換え技術に関する研究動向.自然言語処理, Vol. 11, No. 5, pp. 151-198, 2004. [6] 小町守, 梶原智之. 言語学習支援のためのニューラル言い換え生成. 人工知能, Vol. 34, No. 4, pp. 451-459, 2019. [7] 村上仁一, 藤波進. 日本語と英語の対訳文対の収集と著作権の考察. 第一回コーパス日本語学ワークショップ, pp. 119-130, 2012. [8] 藤田篤ほか. 言い換え技術の研究動向: 分類体系, 知識獲得, 応用. 研究報告自然言語処理 (NL), Vol. 2013, No. 6, pp. 1-1, 2013.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-1.pdf
# 共通の係り先文節を持つ文節組を利用して 言い直し表現を検出・修正するシステム 島森瑛貴 1 森辰則 1 1 横浜国立大学大学院環境情報学府 simamori-eiki-vj@ynu.jp tmori@ynu.ac.jp ## 概要 本稿では日本語の自発的な独話における言い直し現象の分析を元に、言い直しを検出・修正するシステムを作成しその評価を行った。提案システムは解析部、文節内ならびに文節間に出現する言い直しの検出・修正部からなる。文節間に出現する言い直しの検出・修正は、共通の係り先を持つ文節組を言い直しの候補とする。実験の結果、クローズドテストでの適合率は 0.288 、再現率は 0.277 、 $\mathrm{F} 1$ 值は 0.282、オープンテストでの適合率は 0.350 、再現率は $0.337 、 \mathrm{~F} 1$ 值は 0.348 となり先行研究と比較し精度が改善した。 ## 1 はじめに 新型コロナウイルスの流行により生活の様々な場面でオンライン化が進んでいる。それに伴い人の発話を書き起こしテキストとして読む場面が増えた。話し言葉の書き起こしは、未編集の状態では「言い直し表現」が頻出する。言い直し表現は書き言葉には出現しないため可読性を下げる要因となりうる。我々はそれらを適切に検出・修正するシステムを開発し可読性を向上させることを目標としている。 本稿では日本語の自発的な独話に出現する言い直しを検出・修正するシステムを提案し評価を行う。 ## 2 関連研究 話し言葉の言い直しを修正する先行研究には $[1,2,3]$ などがある。 下岡ら [1] は高梨ら [4]が定義した言い直しのタグを正解として、形態素の繰り返し情報などを素性としたSVM を用いて任意の文節が言い直しか判定するが、2 文節以上を削除するものを扱えない。また高梨ら [4] は「同一の内容を指し示している対等な文節」のみを言い直しと定義して CSJ[5] にアノテー ションしており我々の扱いたい問題が含まれない。藤井ら [2] は言い直し部を分割したモデルを作成し言い直しを検出・修正するが、そのモデルはフィラーや言い淀みが存在しない言い直し表現については検出ができず修正の対象が非常に限定的である。 島森ら [3] は島森ら [6] による言い直しの定義、分析、仮説の検証を元に日本語の自発的な独話に出現する言い直しを検出・修正するシステムを提案し評価した。島森ら [6] は、言い直しを構成する要素のうち最後のものを「言い直し先」それ以外を「言い直し元」、これらの組を「言い直し組」と定義しており本研究もその定義に従う。このシステムは複数の文節に共通して出現する自立語に着目する。また、意図しない名詞連接の係り受け変更や言い直しを検索する範囲を節境界の間に限定することで誤検出を抑制した。一方で節境界を利用して言い直しの検索範囲を狭めると、言い直しを検出できなくなるトレードオフがある。例文 1 は「個人性に関連した音声工学には」を言い直しているが、「連体節」や「主題八」という節境界を利用して言い直しの検索範囲を狭めると言い直しを検出できない。一方で、例文 2 は「目標物」という自立語が共通しており「連体節」のラベルにより検索範囲を狭めないと言い直しとして誤修正される。 (1)個人性に関連した/連体節/音声工学には/主題八個人性に関連した/連体節/音声工学には/主題八/話者適応の技術があります (2) コウモリが目標物に向かう/連体節/時は目標物の直前からパルスを放射し 例文 2 では、共通の自立語「目標物」を持つ $2 \supset$ の文節のうち「目標物に」は「向かう」に係り、「目標物の」は「直前から」に係る。このように係り先が異なるものが言い直しになるとは考えにくい。そ こで共通の係り先を持つ文節組のみを言い直し組候補の集合として言い直しを検出する手法を島森 [3] に追加する手法を提案する。 ## 3 システムの構成 本稿では文節間言い直し修正部において共通の係り先を持つ文節組に着目する手法を提案する。解析部と文節内言い直し修正部は島森 [3] と共通である。 提案システム全体の概要を図 1 に示す。 図 1 提案システムの概要 ## 3.1 解析部の方針 解析部は、文を入力に取り CaboCha+MeCab を用いて形態素・係り受け解析を行う。その後島森 [3] の方針で、言い直しにより生じる意図しない名詞連接を係り受けを変更して解消する前処理を行う。 ## 3.2 文節内の言い直し修正部 全ての文節を対象とし、同一文節内の部分文字列間に包含関係があるときに最初の出現を削除する。例えば「スケート 1 日本スケート 2 連盟は」という文節であれば「スケート 1 」を削除して修正する 対象とする文節 $A$ の形態素数を $N$ としたときに $1 \leqq n \leqq\lfloor N / 2\rfloor$ を満たす $n$ について以下を害行する。 文節 $A$ の最初から $n$ 個の形態素 $a_{1} \ldots a_{n}$ を取得し言い直し元候補 $A_{\text {bef }}$ とする。そして $a_{n+1} \ldots a_{N}$ から連続する $n$ 個の形態素の列 $a_{s} \ldots a_{s+n-1}$ を取得し言い直し先候補 $A_{\text {aft }}$ とする。それぞれで要素の形態素の原型を連結した文字列を $S_{\text {bef }}, S_{\text {aft }}$ とする。取りうる $S_{\mathrm{aft}}$ と $S_{\mathrm{bef}}$ の組のいずれかで $S_{\mathrm{bef}}$ が $S_{\mathrm{aft}}$ の部分文字列のときに $A_{\text {bef }}$ が言い直し元だとし削除する。 ## 3.3 文節間の言い直し修正部 1 文節以上からなる係り受けの部分構造のうち共通の係り先を持つものを言い直し組を構成する候補の集合として絞り込み、要素の全ての対でそれぞれが言い直し組か判断する。この対が言い直しの関係かを判定する規則は対の要素の文節数の関係に着目 L、 $\ulcorner 1$ 文節 -1 文節」、 $\Gamma 1$ 文節 -2 文節以上 $\downharpoonleft 、\ulcorner 2$ 文節以上 -1 文節 $」 、 「 2$ 文節以上 -2 文節以上」の 4 種類に大別される。各規則は、言い直しかどうかを判定する条件部と、言い直しである場合に削除箇所の検出と削除を行う実行部を持ち、言い直しの検出と削除を行う。また、一度削除すると判断したものは以降の組み合わせを調べる際には検索の対象外とする。 例文 2 を係り受け解析した結果の表 2 を元に本稿で提案するシステムの詳細を説明する。 図 2 例文 2 の係り受け解析結果 表 2 から、「向かう」に係るものとして「コウモリが」、「目標物に」の2 要素の集合、「放射し」に係るものとして「コウモリが目標物に向かう時は」、「目標物の直前から」、「パルスを」の 3 要素の集合が、共通の係先を持つ要素の集合として得られる。 共通の係り先の文節、係り元の文節の出現が早い順に上から全ての対を比較する。この例では初めに「コウモリが」と「目標物に」を比較する。「コウモリが」と「目標物に」は共に 1 文節なので「 1 文節-1 文節」の規則を適用する。次に「コウモリが目標物に向かう時は」と「目標物の直前から」を比較する。これは「2 文節以上 -2 文節以上」の規則を適用する。以降同様に「コウモリが目標物に向かう時は」と「目標物の直前から」、「目標物の直前から」 と「パルスを」を比較し規則を適用する。この例文に言い直しはないと最終的に判断する。 ## 3.3.1 1 文節-1 文節 言い直し元候補と言い直し先候補が共に 1 文節の場合の規則と削除箇所を以下に示す。以下「文節 A が文節 Bを含む」は「文節 B の自立語が全て文節 A に出現する」を指し、付属語の一致は考慮しない。 ・「言い直し先の文節が言い直し元の文節を含む」 とき「言い直し元」を削除する 修正例を図 3 に示す。この例では「実験は 1 」と 「実験は $2 」$ が共に「行いました」に係る。これは規 修正する。 $ \begin{array}{r} \text { また } \\ \text { 実験は }_{1} \\ \text { 実験は2 } \\ \text { 階段などのᄀ } \\ \text { ない } \\ \text { 平らな- } \\ \text { 教室で- } \\ \text { 行ないました } \end{array} $ 図 31 文節 1 文節の例 ## 3.3.2 1 文節-2 文節以上 言い直し元候補が 1 文節、言い直し先候補が 2 文節以上の場合の規則と削除箇所を以下に示す。 1.「言い直し先の最初の文節が言い直し元の文節を含む」とき「言い直し元」を削除する 2.「言い直し先の最後の文節が言い直し元の文節を含む」とき「言い直し元」を削除する 修正例を図 4 に示す。この例では「演劇に 1 」と 「普通の-演劇に2」が共に「行きたいなっていう」に係る。これは規則 (2)を満たすため言い直し元の 「演劇に 1 」を削除して修正する。 図 41 文節-2 文節以上の例 ## 3.3.3 2 文節以上- 1 文節 言い直し元候補が 2 文節以上、言い直し先候補が 1 文節の場合の規則と削除箇所を以下に示す。 -「言い直し先の文節が言い直し元の最後の文節を含む」とき「言い直し元の最後の文節」を削除する 修正例を図 5 に示す。この例では「意味統合処理 の-失敗時に ${ }_{1} 」$ 泆敗時に H $_{2} 」$ が共に「誘発されると」に係る。これは規則を満たすため言い直し元の最後の文節「失敗時に隹 $^{2}$ 」を削除して修正する。 図 52 文節以上- 1 文節の例 ## 3.3.4 2 文節以上-2 文節以上 言い直し元候補と言い直し先候補が共に 2 文節以上の場合の規則と削除箇所を以下に示す。 ・「言い直し先が言い直し元の全ての文節を含む」 とき「言い直し元の全ての文節」を削除する 修正例を図 6 に示す。この例では「その - 侯補 $_{1}$ で」と「その $2_{2}$-候補 2 の-パラメーターで」が共に「処理した」に係る。言い直し元候補の 2 つの自立語「その」と「候補」はいずれも言い直し先の候補に含まれる。これは規則を満たすため言い直し元の 「その $_{1}$-候補 1 で」を削除して修正する。 図 62 文節以上-2 文節以上の例 ## 3.3.5 共通処理 上記の 4 つの規則で以下の 3 つの処理を行う。 1. 編集表現の修正 2. 言い直しを謝る表現 3. 接続詞「で」を対象外 ## 編集表現の修正 島森ら [6] は言い直しのうち修正の意図を持つ箇所を「編集表現」と定義した。例文3では「かわいい」を言い直して「いい雾囲気の」という際に出現する「って言うか」が編集表現に相当する。 島森ら [3] の提案方針は、2つの文節が共通の自立語を持つときのみを言い直しの候補とするため、 編集表現を持つもののうち言い直し元と言い直し先の自立語が異なるものを検出・修正できない。 一方で本稿の提案手法では共通の係り先を持つものに着目するため、言い直し元の削除範囲を改めて推定する必要がない。そこで、言い直し元候補が編集表現の手がかりとなる文字列を含むときに言い直し元として削除する。編集表現の文字列は島森ら [6] の分析で得られたものを使用する。 図 7 に示す解析結果より「かわいいって言うか」 と「いい雾囲気の」を比較するときに、「かわいいって言うか」の箇所が言い直しであるとして削除する。以降では削除箇所を言い直しの候補から外して考えるため、例えば「港町に」と「かわいいって言うかいい雰囲気の建物が」を比較するときは「港町に」と「いい雾囲気の建物が」を比較する。それにより、並列表現を持つ箇所は最も小さい単位で言い直しを探すため誤検出を抑制できると考える。 (3)港町にかわいいって言うかいい雾囲気の建物がありました 図 7 例文 3 の係り受け解析結果 ## 言い直しを謝る表現 本研究が対象とする言い直しの中には、言い直し元を発話した直後に「すみません」などの言い誤ったことを謝る意図の発話を含むものが存在する。これらは編集表現と同様に修正の対象とする。具体的な処理としては、言い直しとして削除する文節の直後に品詞が「感動詞」の形態素が存在したとき、この感動詞を上記の表現であるとして削除する。 ## 接続詞「で」の除外 話し言葉では接続詞「で」が 1 文中に複数回出現することがある。このような場合には「で」が言い直しとして誤修正される。そこで、言い直し元候補の文節として接続詞「で」が検出されたときには言い直しではないと判断し、以降の処理を行わない。 ## 4 システムの評価実験 島森 [3] のベースラインシステム(ベースライン)、島森 [3] の 6 章の提案システム (BL+前処理+節境界)、本稿 3 章の提案方針によるシステム (BL+前処理+共通の係り先) の合計 3 つを比較し評価する。 評価の対象には日本語話し言葉コーパス (CSJ)[5] のノンコア講演 140 講演を用いる。このうち 40 講演をシステム改良のための分析に利用する。また、開発する際に参照した事例に対する評価ということでクローズドテストとして評価する。残りの 100 講演は未参照の事例に対する評価を行うときのデー タとして使用し、オープンテストとして評価する。言い直しの正解は島森ら [3] が付与したものを利用する。講演を文単位に分割したものをシステムへの入力とした。クローズドテストの 40 講演は 1959 文で言い直しは 486 個、オープンテストの 100 講演は 5201 文で言い直しの個数は 1139 個であった。 システムの評価は、システムが削除すると判断した箇所にIOB2 形式のラベルを文字単位で振り、削除単位毎に一致するかを調べ適合率、再現率、 $\mathrm{F} 1$ 值を求めた。島森ら [3] が提案した方針に基づくシステムと精度を比較する。クローズドテストの評価を表 1 に、オープンテストの評価を表 2 に示す。 表 1 クローズドテスト 表 2 オープンテスト ## 5 考察とまとめ 本稿で提案した方針によりシステムの精度が向上した。また、クローズドテストの精度よりオープンテストの方が精度が良かった。これはオープンテストはクローズドテストより文節間言い直しの割合が低いことが原因と考えられる。対象の文によっては係り受け解析器が解析誤りを起こすことがわかっている。文節間言い直しは文節内言い直しより解析誤りの影響を受けやすいため修正を誤るものがある。一方で、現在のシステムでもうまく修正できないような例が複数存在する。具体的な例は以下の付録 A に示す。現時点で修正できていない誤りの修正は今後の課題である。 ## 参考文献 [1] 下岡和也, 河原達也, 内元清貴, 井佐原均. 『日本語話し言葉コーパス』における自己修復部 (d タグ) の自動検出および修正に関する検討. 情報処理学会研究報告音声言語情報処理(SLP), Vol. 2005, No. 50, pp. 95-100, 2005. [2] 藤井はつ音, 岡本紘幸, 斎藤博昭. 日本語話し言葉における自己修復の統計モデル. 言語処理学会第 10 回年次大会発表論文集, pp. 2-7, 2004. [3] 島森瑛貴, 阪本浩太郎, 渋木英潔, 森辰則. 自発的な独話における可読性向上のための言い直し表現を検出・修正するシステム. 言語処理学会第 28 回年次大会発表論文集, pp. 1739-1743, 2022. [4] 内元清貴, 丸山岳彦, 高梨克也, 井佐原均. 『日本語話し言葉コーパス』における係り受け構造付与. 国立国語研究所平成 15 年度公開研究発表会予稿集, 2003 . [5] 国立国語研究所. 『日本語話し言葉コーパスの構築法』. 国立国語研究所報告 No.124, pp. 1-552, 2006. [6] 島森瑛貴, 阪本浩太郎, 渋木英潔, 森辰則. 自発的な独話における可読性向上のための言い直し表現の定義と分析. 言語処理学会第 27 回年次大会発表論文集, pp. 365-370, 2021. ## A 現在のシステムで修正できない具体的な例文 ## A. 1 別語彙を用いた言い直し 別語彙で言い直すものを修正することができておらず、どのように類似性を判定するかを検討しているところである。 (1) その日の朝食は全てパンを全部手作りで焼いたりとか (2) またスタイログロッサスは茎状突起より出てせんじょうに至る舌尖に至る細長い筋肉です (3) 私はアイスホッケーを今年で九年目九年間やっておりまして (4) 人間の言語生活言語の活動のうちの基本的なものをなすと思われます (5) やはりロシアがソ連邦が崩壊したからと言って ## A. 2 意図的な繰り返し アクセントやモダリティなどの差異に言及するために意図的に繰り返すものと言い直しを区別することができない。 (1)このような研究におきましては韻律の差異として「行った」「行った」のような基本周波数の変化が取り上げられており分節的特徴としては「行った」「行って」のような音節の変化が取り上げられてきました ## A. 3 言い直しではないが冗長な表現 冗長な表現や話題の提示を行う箇所を言い直しと区別することができていない。 (1) 機械を用いて可聴域に変換した後パソコンで分解能が十六ビットでパソコンに取り込みました (2) それぞれの境界はおとがい棘と舌骨上部を結ぶ線上をそれぞれの境界としました (3) ハイオグロッサスについてですけれどもハイオグロッサスは膜状の筋肉なのでハイオグロッサスの前部アンテリアとハイオグロッサスポステリアの二か所に分けて計測いたしました ## A. 42 文節以上-2 文節以上の規則における言い直し箇所の推定 2 つの要素で共通する部分を $\mathrm{A}$ 、異なる部分をそれぞれ $\mathrm{BC}$ としたときに、言い直しの組が $\mathrm{BA}_{(1)}-\mathrm{CA}_{(2)}$ となるときに、 $\mathrm{BA}_{(1)}$ を削除するもの (1)、 $\mathrm{A}_{(1)}$ のみを削除するもの (2)、何も削除しないもの (3)を区別することができない。 (1) 例えばよく(B) 見られる (A) 日常的に一番頻繁に(C)見られる (A) 距離がパーソナルディスタンスなんですけれども (2) これまでに行なってきました (B) カグラコウモリの超音波パルスの ${ }_{(A)}$静止状態における ${ }_{(C)}$ カグラコウモリの超音波パルスについて $(A)$ 説明いたします (3) 経験的損失の值が最小となる $(\mathrm{B})$ ワーピングを (A) 最適な $_{(\mathrm{C}) \text { ワーピングとして }}^{(\mathrm{A})}$ 選びます ## A. 5 削除後に語順の並び替え等の後処理が必要なもの 言い直し元を削除した後に語順を並び替えないと意図が変わるものが存在する。語順の変更等の後処理はまだ実現していない。 (1) 私の所属している神奈川県下では現在五チームのエントリートーナメントなどがある時にはエントリーがあります (削除)私の所属している神奈川県下では現在五チームのトーナメントなどがある時にはエントリーがあります (並び替え)私の所属している神奈川県下では現在トーナメントなどがある時には五チームのエントリーがあります (2) 五年生の時の担任の先生が生徒の筆順ていうのがあまりにもでたらめなので先生が黒板に大きく書いて (削除)五年生の時の担任の生徒の筆順ていうのがあまりにもでたらめなので先生が黒板に大きく書いて (並び替え)生徒の筆順ていうのがあまりにもでたらめなので五年生の時の担任の先生が黒板に大きく書いて ## A. 6 編集表現 編集表現を持つものには言い直し元を削除することで修正できるもの $(1,2)$ や、編集表現を含む箇所のうち更に実際に言い直されている箇所を推定する必要があるもの (3)、言い直しではなく例示と説明と関係にあるもの (4)、比喻表現に対する対する具体的な心情の説明が続いているもの (5)などがあり、これらを適切に区別して言い直しかどうかを判定する必要がある。 (1) でとにかく信仰心て言うんですか宗教に対しての信仰心が強くて (2) 何百メートルも交番じゃない交差点がなくて (3) コンクリートとか木でできた工場って言うか港の風景みたいのが多いですね (4) オフィス街と言うか何か目立って大きな建物とか楽しめるところというのはなくて (5) 八ワイはとてもいいとこで過ごし易いし南国だしでもパラダイスじゃないなって言うか向こうでは随分色んな人に会ってずっとお喋りして笑ってたりしたんですけれどやっぱ飛行機の中で一人になって何か自分で持ってた静かな音楽とか聞いてるとやっぱりあたしは何かちょっと寂しいようなとこの方が合うのかなっていう風に思って
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-2.pdf
# 低資源な法ドメイン含意タスクにおけるデータ拡張 伊藤光一 山田寛章 徳永健伸 東京工業大学 情報理工学院 \{ito.k.bo@m, yamada@c, take@c\}.titech.ac.jp ## 概要 法ドメインではアノテーションが高コストのため学習データが不足する問題がある。本稿では, COLIEE TASK 4 を用いて,ラベル付き学習データのルールベースによる拡張と,言語モデル事前学習の際の擬似的な学習データ拡張の効果検証を行う. 実験の結果,提案手法である反対解釈によるデータ拡張手法が最良の性能を示した。 ## 1 はじめに 事前学習済み言語モデル BERT[1]により,自然言語処理分野は大いに進歩した. BERTをファインチューニングすることで,様々なベンチマークタスクにおいて,従来の手法を超える性能が報告されている.法分野における含意関係認識タスクでも, BERT を使用したモデルが最高スコアを達成している [2]. しかし,BERTのような事前学習済み言語モデルを特定タスクにファインチューニングするには,一定の規模の学習データが必要となる. これは,ラベル付き言語資源の少ないドメインでは課題となっており,法分野も例外ではない,本稿では,日本語法分野含意関係認識タスクを対象として,法律文を用いたルールベースのデータ拡張手法の提案と検証を行う。 また,法分野などのドメインに特化した事前学習済み言語モデルの入手が困難な場合, Wikipedia 等で学習された既存モデルをドメイン固有のデータで追加事前学習を行う必要がある.法分野の場合,ラベルなしデータであっても入手が困難であることから,ファインチューニングによるドメイン適合にもデータ拡張が必要となる. このため, 本稿では, 追加事前学習の際に対照学習を用いた擬似的なデータ拡張手法の提案と検証も行う. ## 2 対象タスク:COLIEE TASK4 本稿では COLIEE (Competition for Legal Information Extraction and Entailment) 2021[2] の TASK4 を対象夕スクとする. COLIEE 2021 は,法と人工知能に関するトップカンファレンス (ICAIL) において開催された法律情報の抽出と含意に関するコンペティションである. このうち TASK4 では,日本の司法試験の民法選択式問題を含意タスクと見なしている,具体的には,司法試験の問題文が前件として,関連する民法条文が仮説として対となり入力として与えられており,民法条文が問題文を含意するか否かを解答する 2 値分類問題となっている. COLIEEでは,過去の司法試験から作成された問題が学習データとして配布され, 開催当時最新の司法試験から作成された問題がテストデータとして使われている。年度ごとの問題の数,含意ラベルの数を Appendix A. 1 に示す. ## 3 ルールベースのデータ拡張 ## 3.1 COLIEE 2021 SOTA Aoki ら [3] は,BERT モデルを用い,民法条文を利用したルールベースによる含意学習データの拡張とアンサンブルを組み合わせることで,COLIEE 2021 年度 TASK4 で最高スコアを記録した。 Aoki らは,図 1 に示すように,論理構造を特定して民法の各条 $R$ に対して $R$ が含意する文 $S_{i}$ を作成し, $S_{i}$ を使用して COLIEE の拡張データ $Q_{i}$ を作成した. $S_{i}$ の作成は,文末及び段落情報を使用して民法を分割し, $R$ 内の参照をルールベースで展開することで行う. COLIEE の拡張データ $Q_{i}$ の前件 $P_{Q_{i}}$ として $S_{i}$ を使用する. 仮説 $H_{Q_{i}}$ として $S_{i}$ を与えて含意ラベルを付与し, 正例とする。 また, 仮説 $H_{Q_{i}}$ として $S_{i}$ の文末をルールベースで否定させた文を与えて非含意ラベルを付与し,負例とする。 この手法により,正例 2,074 件を含む 4,062 件の 図 1 Aoki らのデータ拡張手法 拡張データを作成する. 本研究では Aoki らのデー タ拡張手法をべースラインとする。 ## 3.2 反対解釈を用いた追加拡張 命題論理の体系では命題 $A, B$ に対して $A \rightarrow B$ ならば裏 $\neg A \rightarrow \neg B$ は正しいとは限らない。一方,民法の分野では,「反対解釈 [4]」と呼ばれる概念によって,ある条件の下での規定がある時,条件を満たさないものについては反対の規定がされていると解釈されることがある. 本研究では Aoki らのデータ拡張に加えて反対解釈を用いたデータ拡張を提案する。 反対解釈を用いたデータ拡張の概要を図 2 に示す. $S_{i}$ に対してさらに辞書を用いて特定の表現を置換することで反対解釈に相当する新たな $S_{i}^{\prime}$ を作成する. 既存の $S$ に加え作成された $S_{i}^{\prime}$ を $S^{\prime}$ の集合に加えることで,再拡張された $S^{\prime}$ を生成する。 今回用意したルールでは民法から拡張できた件数が 254 件 (内正例 127 件) と多くなかったため,民法以外も含めた条文集から拡張した 496 件 (内正例 248 件) を使った追加実験も併せて行なった. 条文集で使用した法律を Appendix B に示す. 図 2 反対解釈を使用したデータ拡張手法 ## 3.3 拡張データの与え方の変更 Aoki らの拡張データは, 入力文対の前件と仮説の文末を比べることで正解できる. 本手法では, COLIEE と問題形式を揄えて拡張データの質を高めることを目的に,図 2 で示すように拡張データの前件 $P_{Q_{i}}$ として条文一条全体 $R$ を与える. ## 4 文埋め込みの事前学習 事前学習済みモデルに対して SimCSE (Simple Contrastive Learning of Sentence Embeddings)[5]を用いた文埋め込み学習をしてから,COLIEE タスクでファインチューニングする手法を提案する。よりよい文埋め込みを獲得することをねらい,SimCSE を用いる。SimCSE は教師あり,教師なし,どちらにおいても,文埋め込みの良さを測るのに使われる類似度ベンチマークである STS (Semantic Textual Similarity)[6] において教師なしで優れたスコアを記録した。 一般ドメインでは,大規模なラベル付き NLI デー タセットが日本語でも入手可能 $[7,8,9]$ である一方,日本語法ドメインには同様のデータは存在しない. そこで,一般ドメインにおける文埋め込み性能向上のためには,教師あり学習による追加事前学習をする手法を採用し,法ドメインのデータを用いた文埋め込み性能の改善には教師なしSimCSE を用いた追加事前学習を採用した. 以下の実験における実験設定は,入力トークン長を 512 へと変更した点を除いてオリジナルの SimCSE と同一である. ただし,条文集以外はオリジナルと同規模の 100 万文を使用して 1 エポックの学習をおこなったが,条文集を使用した学習は,およそ 1 万文で 100 エポックに変更した. オリジナルの SimCSE と対応して,最良のモデルを選ぶ指標として, JGLUE (Japanese General Language Understanding Evaluation) [7]の JSTS のスピアマンの順位相関係数を使用した. 125 ステップごとにJSTS の文対をそれぞれモデルに入力し, スピアマンの順位相関係数が最も大きいステップのモデルを選ぶ. SimCSEを適用するモデルとして,日本語 WikiBERT ${ }^{1)}$ ,及び JLBERT-FP[10] を使用した. JLBERT-FP は,日本語法分野に特化した BERT モデルである. ## 4.1 教師なし文埋め込み学習 SimCSE の教師なし学習は,BERT のドロップアウトを利用した単純なデータ拡張を使用した対照学習である。同一文に対して擬似的に拡張をした文埋め込み同士が近く,異なる文に対する文埋め込み同士が遠くなるように学習する。 教師なし学習においては,法ドメインデータの判決書データ,条文集に加えて,一般ドメインデータの Wikipediaを用いる. 判決書データには平成十二年から令和二年までの民事事件下級審判決 52,967 件を用いている。判決書データ及び Wikipedia については,ランダムに 100 万文を抽出した. 条文集はおよそ 1 万文を抽出した。 一部手法は一般ドメインデータにおける文埋め込み学習後に法ドメインデータで文埋め込み学習をしており,実験結果の表 1 において右矢印()で示す. ## 4.2 教師あり文埋め込み学習 SimCSE の教師あり学習は,NLI のデータセットを利用した対照学習である.NLI のデータセットは 1) https://github.com/cl-tohoku/bert-japanese より cltohoku/bert-base-japanese-whole-word-masking を使用.前件,仮説ペアに対する含意,非含意がラベリングされたデータセットであり,SimCSE では,前件の文埋め込みに対し,含意ラベルが付与された仮説の文埋め込みが近くなるように学習する。 ここでは NLI データセットに,JSNLI[9]を使用した. SimCSE の構造上, 前件に対して仮説が含意,非含意いずれも存在する三つ組を用意する必要があったため,JSNLI から 137,563 セットの三つ組を作成し,学習に使用した。 ## 5 実験設定 ## 5.1 ファインチューニング 条文と問題文を [SEP] トークンで区切り,BERT に与える。クロスエントロピーロスを使い,エポック数は 5 , 学習率は $1 \mathrm{e}-5$, バッチサイズは 12 , 入カトークン最大長は 512 である. Aoki らは最大長 256 で実験を行なっていたが,トークン長の分布 (Appendix A.3)から 512 が適切だと判断した. 事前学習済みモデルには,日本語 WikiBERT, JLBERT-FP,及び SimCSE による事前学習済みモデルを使用した。 ## 5.2 評価 性能指標には正解率 (Accuracy)を用いる. COLIEE 2021 データセットは合計でも 806 件に留まり (A.1),年度毎のデータの特徴も異なること(A.2) から,モデルの性能評価では以下の方法を取る. 平成十八年度から令和元年度のうち, 1 年度をテストデータとし,残りのうち 1 割を検証データ,9割を学習データとする実験を,各年度について行い計 14 年度分実施することを 1 回の実験と定義する. 1 実験全体のスコアは,マイクロ平均を用いる.各手法について 5 回ずつ実験を行い,その平均を各手法のスコアとする. 各手法の正解率の平均について,並べ替え検定 (有意水準 $5 \%$, 両側検定) を行った。 ## 6 実験結果 実験結果を表 1 に示す. 提案手法 (\#3) によって, ベースライン (\#1) から正解率が向上し,全手法を通して最高性能となった。一方で,今回提案したデー 夕拡張手法 $(\# 3, \# 4)$ とべースライン $(\# 1)$ との間に統計的な有意差は確認できなかった. ベースラインは,利用する事前学習済み言語モデル及び SimCSE で利用するデータの種類に関わらず,データ拡張な 表 1 手法ごとの評価 JLBERT-FP.*は**に対して有意差を確認.) しの結果に対して常に高い正解率を示し,統計的な有意差も確認できた。 SimCSE を用いた手法 (\#5-\#14#17-\#20) は,いずれも Aoki らの手法 (\#1) 及び提案手法 (\#3) を下回る正解率となった. Aoki らのデータ拡張を適用した場合の性能向上幅を, 日本語 WikiBERT (\#1,\#2) と JLBERT-FP (\#15,\#16) の間で比較すると, 日本語 WikiBERTを用いた手法でより大きい. SimCSE 及びデータ拡張をどちらも用いない手法 (\#2,\#16) の中では,JLBERT-FP が高い性能を発揮した。 ## 7 考察 反対解釈を用いた手法 (\#3) はベースライン (\#1) に対して改善が見られた. しかし, 改善幅が小さく,統計的な有意差までは確認できなかった。 問題の内容を確認するために令和元年度をテストデータとした実験を抽出して分析した.令和元年度データにおいて,反対解釈が必要である問題は少なくとも 3 件 (問 3, 問 21 , 問 53) 存在した. 令和元年度データに対する予測結果を手法 \#1,\#3, \#4 間で比較したところ,手法 $\# 1$ では $0 / 3$ 問正解だったのに対し, 手法 $\# 3$ 及び $\# 4$ では $1 / 3$ 問正解であった ${ }^{2)}$. このことから反対解釈を用いた拡張は部分的には有効に作用している可能性がある.改善幅が小さい原因は,反対解釈によるデータ拡張量が少なかったことが挙げられる. 反対解釈による拡張データはルー ルベースによって作成した. 反対解釈が可能な条文を厳密に抽出するようにルールを設計したため,本来は拡張に利用可能な条文であっても排除している可能性がある. 拡張データ件数を確保するため条文集を追加した手法 #4 は,手法 33を下回る性能を示した。これは民法向けに構築した拡張ルールをそのまま他の法典に適用したことが原因と推測できる。 SimCSE を利用した文埋め込み学習手法は Aoki らの手法に対して改善が見られなかった. SimCSE におけるモデル選択の指標が適切でないことが原因として考えられる. JSTS のような大規模な意味的類似度計算タスクデータセットは日本語法ドメインでは存在しないため, 実験では一般ドメインデータであるJSTS を用いてモデル選択を行ったが,本来は法ドメインデータを用いることが望ましい. 法ドメインにおける低資源問題を回避するため教師なし SimCSE の活用を検証したが,モデル選択に必要な検証データとして一定量のラベル付き法ドメインデータが確保できない点が,依然としてボトルネックとなってしまった. ## 8 結論 本稿では,法ドメインの含意タスクの低資源問題を回避するため,1) 反対解釈によるデータ拡張手法, 2) SimCSE を用いた文埋め込み学習の利用を検証した. 従来のデータ拡張手法に更に反対解釈によるデー 夕拡張を行うことで,性能が向上することを示した. 今後は, 反対解釈ルールの拡張や言語生成モデルを活用した生成的なデータ拡張の手法の検討を行う. 一方で,SimCSE の有用性は示せず,教師なし学習であっても検証用データすら不十分なドメインの場合は最良モデルの選択が難しいことを確認した。  ## 謝辞 本研究で使用した判決書データは株式会社 LIC から提供を受けたものである. 本研究の一部は,JST, ACT-X,JPMJAX20AM の支援を受けたものである. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] Juliano Rabelo, Randy Goebel, Mi-Young Kim, Yoshinobu Kano, Masaharu Yoshioka, and Ken Satoh. Overview and discussion of the competition on legal information extraction/entailment (coliee) 2021. The Review of Socionetwork Strategies, Vol. 16, No. 1, pp. 111-133, Apr 2022. [3] Yasuhiro Aoki, Masaharu Yoshioka, and Youta Suzuki. Data-augmentation method for bert-based legal textual entailment systems in coliee statute law task. The Review of Socionetwork Strategies, Vol. 16, No. 1, pp. 175-196, Apr 2022. [4] 早田幸政. 入門法と憲法. ミネルヴァ書房, 2014. [5] Tianyu Gao, Xingcheng Yao, and Danqi Chen. SimCSE: Simple contrastive learning of sentence embeddings. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 6894-6910, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [6] Eneko Agirre, Daniel Cer, Mona Diab, and Aitor Gonzalez-Agirre. SemEval-2012 task 6: A pilot on semantic textual similarity. In *SEM 2012: The First Joint Conference on Lexical and Computational Semantics-Volume 1: Proceedings of the main conference and the shared task, and Volume 2: Proceedings of the Sixth International Workshop on Semantic Evaluation (SemEval 2012), pp. 385-393, Montréal, Canada, 7-8 June 2012. Association for Computational Linguistics. [7] 栗原健太郎, 河原大輔, 柴田知秀. JGLUE: 日本語言語理解ベンチマーク. 言語処理学会第 28 回年次大会発表論文集, 2022. [8] 谷中瞳, 峯島宏次. JSICK: 日本語構成的推論 - 類似度データセットの構築. 人工知能学会第 35 回全国大会, 62021. [9] 吉越卓見, 河原大輔, 黒橋禎夫. 機械翻訳を用いた自然言語推論データセットの多言語化. 情報処理学会第 244 回自然言語処理研究会, 72020. [10] 宮崎桂輔, 菅原祐太, 山田寛章, 徳永健伸. 日本語法律分野文書に特化した BERT の構築. 言語処理学会第 28 回年次大会発表論文集, 2022. ## A COLIEE ## A. 1 COLIEE の基本情報 COLIEE の年度ごとの問題数と含意ラベル数を表 2 に示す. ## A. 2 年度間での傾向の異なり 手法#1 の実験について年度ごとの結果を表 3 に示す. 表 3 年度ごとの実験の正解率 ## A. 3 トークン長 H18 年から R01 年のデータ 806 個に対するトークン長の分布を図 3 に示す. 256 より大きいデータは 118 個,512より大きいデータは 12 個ある. 図 3 トークン長の分布 ## B 条文集 反対解釈及び SimCSE で使用した憲法,法律を以下に示す. 以下から成る条文集から 10,488 文を抽出した. e-Gov 法令検索 ${ }^{3}$ のテデータを利用した. ・行政機関の保有する情報の公開に関する法律 - 行政事件訴訟法 - 行政手続法 - 行政不服審査法 - 刑事訴訟法 - 刑法 -個人情報の保護に関する法律 - 国家賠償法 - 戸籍法 - 借地借家法 - 商業登記法 - 商法 - 宅地建物取引業法 - 賃貸住宅の管理業務等の適正化に関する法律 -日本国憲法 - 不動産登記法 ・マンションの管理の適正化の推進に関する法律 - 民事執行法 - 民事訴訟法 - 民事保全法 - 民法 - 利息制限法 - 労働関係調整法 - 労働基準法 - 労働組合法 3) https://elaws.e-gov.go.jp/
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-3.pdf
# 動的時間伸縮法を用いた複数翻訳文書からの対応関係の自動抽出 中屋和樹 ${ }^{1}$ 川又泰介 ${ }^{1}$ 松田源立 ${ }^{1}$ ${ }^{1}$ 成蹊大学 理工学部 dm226206@cc. seikei. ac. jp \{kawamata,matsuda\}@st. seikei. ac.jp ## 概要 自然言語処理のタスクを実行する上で、言い換えは非常に重要な技術である。語彙力のある人と同様に、機械も豊かな表現能力を有することが望ましい。 そのためには、何らかの方法で意味的対応関係にある文を集める必要がある。本研究では複数の翻訳者によって翻訳された文書を対象として、対応関係を抽出する手法を提案する。具体的には翻訳文書を一定のルールで分割して文章群に変換し、既存の類似度指標によって文書間の距離を計算する。その後、文章を次々と組み合わせて DTW(動的時間伸縮法)[1]を適用し、その値が最小となる時のアライメン卜を最終的な解とする。海外の文学作品を対象とした実験の結果、組み合わせ操作を取り入れた DTW の最小化が対応関係の抽出に有効であることが示された。 ## 1 はじめに 文章で何かを伝える時、その表現方法は一通りとは限らない。文章を構成するパーツには様々な選択肢が存在し、相手や状況に応じて最適なものを選択して使うことが重要である。例えば「このスマホは色々なことが出来ます」という表現は、携帯ショップの店員が顧客に対して説明する際には適切だが、 EC サイトの商品説明闌においては「このスマホは機能面で充実しています」という表現の方が好ましいだろう。このように同一の意味内容を有し、異なる言語表現で表されたものを言い換えという。自然言語処理にはさまざまな応用タスクがあるが、言い換え技術はそれらのタスクに最も関係のある基礎的技術と言っても良い。 実際に言い換え技術を用いたタスクに取り組む際は、事前に言い換え事例を大量に集める必要がある。現在までに様々な方法が提案されているが、本研究では〈複数の翻訳者によって翻訳された文書は豊富な言い換えを含んでいる〉という考えのもと、海外文学作品を対象として対応関係の抽出を目指す。ここで「対応関係の抽出」というフレーズを使用したのは、翻訳という行為は翻訳スタイルによる個人差が生じやすく、必ずしも言い換えとは言い切れない事例が存在するためである。これまでにも複数の翻訳例を集めて言い換えを獲得する試みは行われている[2][3]。しかし、書籍規模の文書での検証を行なつており、かつ日本語を対象とした研究は確認できなかった。 [4]ではテトゥン語を対象とした機械翻訳のデー タ収集の手段として、DTWを用いたアライメントを試みている。テトゥン語のような母語話者の少ない言語の機械翻訳では、モデル構築以前にデータの枯渴が問題となることがある。そこで松本らは JICA、 UNIFEC によって公開されているテトゥン語と英語の文書から、テトゥンー英の対訳コーパスを構築している。文分割処理を施した後に DTW による文アライメントを実行しているが、長さの異なる系列デ一夕に一度しか適用していないため、 1 対多のような対応関係から不適切な対訳が複数抽出される可能性がある。また文章の特徴量として文章長を用いることが最適であるかは定かではない。 上記の懸念は、本研究のタスクである翻訳文書からの対応関係の抽出において中心的な問題となる。原文一文を一文のまま訳す翻訳者もいれば、二つや三つに分割して訳す翻訳者もいるため、[4]の手法をそのまま適用すると句点を境界として意味が分断される文章に対して適切な対応付けができない。このような、対応関係の散乱した文章群のアライメントを人手で行うことは容易だが、コスト面からも機械での自動化が望ましい。そこで文章同士を組み合わせる操作を行い、機械でも対応付けが可能な機構を導入する。 本研究の貢献を以下に示す。 - 組み合わせ操作を取り入れた DTW の最小化が対応関係の抽出に有効であることを示した - DTW を実行する際の文書間の距離として、文字レベルの Jaccard 係数もしくは SentenceBERT によるユークリッド距離が有効であることを示した ## 2 関連研究 ## 2.1 DTW(動的時間伸縮法)[1] DTW は二つの時系列データ同士の類似度を動的計画法によって求めるアルゴリズムである。具体的には、二つの時系列データが与えられた時、DTW は各系列の点同士の距離を総当たりで計算し、波形の距離が最短となるような経路を求める。二つの時系列データを $X=\left.\{x_{1}, x_{2},,, x_{m}\right.\} \quad Y=\left.\{y_{1}, y_{2},,, y_{n}\right.\}$ とすると以下のように定式化される。 $ \operatorname{DTW}(X, Y)=\min _{\text {path }}(\operatorname{table}(X, Y, \text { dis, path })) $ ここでtable()はデータ列 $X, Y$ 及び距離関数 $\operatorname{dis}($ が与えられた元で生成される DP テーブルであり、 pathは波形間の距離が最短となるような経路を表す。 ## 2.2 文の類似度指標・埋め込み生成モデル 本研究では文章の類似度を評価する指標として、 Jaccard 係数、文ベクトル間のユークリッド距離を用いる。 Jaccard 係数は集合同士の類似度を測る指標であり、文字や単語を集合の要素とみなして文同士の評価にも使用することができる。以下に式を示す。 $ \operatorname{Jaccard}(\operatorname{Sent} 1, \operatorname{Sent} 2)=\frac{|\Omega(\operatorname{Sen} t 1) \cap \Omega(\operatorname{Sent} 2)|}{|\Omega(\operatorname{Sen} 1) \cup \Omega(\operatorname{Sen} t 2)|} $ ここで $\Omega($ Sent)はある文Sentに対する文字レベルの集合である。 文章をベクトルに変換するモデルを総称して文章埋め込み生成モデルと呼ぶ。現在までに様々な手法が提案されているが、それらは主にカウントベースの方法、単語ベクトルの加重平均を取るなどして生成する方法、深層学習で直接ベクトルを生成する方法、のいずれかに分類されることが多い。近年は、距離学習によって文章をべクトル空間上に適切にマッピングする手法(上記の 3 番目)が主流となっている。本研究では文章埋め込み生成モデルとして、 fasttext[5]、SentenceBERT[6]を用いる。 fasttext は 2016 年に Facebook が公開した単語埋め込み生成モデルである。基本的には Word2vec[7]の技術を踏襲した形となっており、Word2vec と比較して高速にベクトル生成可能な点が特徴である。本研究では fasttext 9 日本語学習モデルを利用し、得られたベクトルの平均をとって文べクトルとする。 SentenceBERT は 2019 年に公開された文章埋め込み生成モデルである。この手法が提案される以前は文章の類似度を測るために BERT の出力を文べクトルとして用いることがあったが、文べクトルとしての精度は低いことが知られていた。そこで著者らは BERT に対して距離学習を適用することで、高品質な文ベクトルの獲得を可能にした。 ## 3 提案手法 提案手法ではまず作品を単純なルールに従って分割し、文章群へと変換する。その後、文類似度指標を用いて文書間の距離を計算し、文章対を key、それらの距離を value とした辞書を構築する。最後に、文章を次々と組み合わせて DTW を計算していき、 その値が最小となるアライメントを対応関係にあるとみなす。 ## 3.1 分割処理 アライメントを計算する前の事前処理として、それぞれの作品を文単位に分割する。本研究では以下の分割ルールを採用した。 - 句点、疑問符、感嘆符、鉤括弧、丸括弧を基本単位として分割する 読点を分割単位とすると、文の粒度が低くなってしまい計算時間の増加につながるため、採用していない。なお、「()」のような入れ子構造が存在した場合、flag 変数を用いることで不適切な分割が行われないように処理している。また、作品によっては鉤括弧や丸括弧が半角や全角になっていたり、ニュ ーラルモデルの Tokenizer で UnKnown トークンと認識されてしまう文字も存在する。そこで NFKC 正規化処理を行い、文字の表記ゆれを一括で修正した。 ## 3.2 DTW による対応関係の抽出 以下にアライメントの手順を示す。詳細は図 1 を参照されたい。 1. 3.1 のルールに従って 2 つの作品を文書群に変換する。(List1、List2 とする) Step1:ルールに従って分割 文書1 話もありません。 アリスは、なんな゙かとってもつまらなくなってきました。土手の上でお姉さんと並んですわっていても、なにもすることがいからです List1 文書2 うんさりしてきたところでした。一、二度、お姉さんの䟲んでる本をのぞきこんだけれと、絵もないし会砧もないのです。 List2 Step2:距離を計算 Key : List1 $\times$ List2の要素 Value : dis(sen1, sen2)* sen1アリスは、なんだかとってもつまらなくなってきました。 $\operatorname{sen} 2$-、二度、お姉さんの就んでる本をのぞきこんたけれと、絵も ないし会話もないのでず sen1アリスは、なんだとってもつまらなくなってきました。 Step3\&Step4:組み合わせ\&最小化 Step5: アライメント結果 図 1 DTWによるアライメント(例文は[8][9]より引用) 2. List1 と List2 の直積を求め、その要素を key、要素を構成する文対の距離を value とした辞書を構築する。(距離を計算) 3. List1、List2 の要素全てに対し組み合わせ候補を順番に 2 つ選択して結合する。結合した状態での List1 と List2 の DTW 值を計算し保存するとともに、組み合わせた文対とそれらの距離を辞書に追加する。 4. DTW 值が最小となる組み合わせ候補を求め、 その候補を適用する形で List1 もしくはList2を更新する。 5. DTW 值が下がらなくなるまで 3、4 の操作を繰り返す。操作が終了した時の DTW によるアライメントを求める解とする。 「文を組み合わせて DTW を計算する」という流れを 1 ループとすると、1 ループ前後での List1 と List2 はそのほとんどが変化しない。よって、DTW の過程で逐一文章同士の距離計算を行うことは効率の面で問題がある。よって、最初の段階で辞書を構築 することで、List1×List2 の距離は辞書にアクセスして取得することが可能となる。組み合わせた文書に関しては key が存在しないので、随時距離を計算して辞書に追加すればよい。 ## 4 実験設定 ## 4.1 データ 不思議の国のアリス[8][9]、白鯨[10][11]、ハックルベリー・フィンの冒険[12][13]、罪と罰[14][15]、自負と偏見[16][17]、風と共に去りぬ[18][19]を用いた。今回は多くの作品での適応可能性の調査を行うため、使用する文は前書き等を除いた冒頭付近の範囲に限定した。尚、以降では以下のように作品名を省略して表記する。 不思議の国のアリス $\rightarrow$ 不思議の国 ハックルベリー・フィンの冒険 $\rightarrow$ ハックルベリー 表 1 実験結果 (結果は正解対/対の総数の形式となっている) ## 4.2 評価方法 適切なアライメントが取れているか自動で判定することは困難であるため、目視でのチェックを行った。この時、得られた結果に本来組み合わせる必要の無い文章が存在する場合があり、例えば、「」 「」のような会話が複数回連続した文章はそれぞれ個別にアライメントされることが望ましい。しかし本研究の目的はあくまでも対応関係の自動抽出であるため、少なくとも意味関係が等しいことが明らかであれば正しいアライメントとみなした。 ## 5 実験 表 1 に 6 作品で実験を行った際のアライメント結果を示す。結果の形式について、(正解対/対の総数) の形式での記載とした。意味関係を適切に考慮してアライメントしつつも、なるべく最小限の組み合わせ回数で終了することが理想の流れである。よって、最終的に得られる対の総数は多い方が良い。 先行研究で提案されていた文章長(Sent_len)によるDTW は全ての指標・特徵量において最も抽出精度が悪く、不適切な箇所へのアライメントが顕著に見られた。これは最終的な List1 と List2 の要素数が異なっており、正確な一対一の対応関係を抽出できなかったことが原因である。fasttext はおおむね適切な対応関係が取れているものの、過度な組み合わせによる長文でのアライメントが散見された。結果的に他の指標・特徴量に比べて、得られたアライメントの数が少なくなっている。単語ベクトルは足し合わせるほど原点に近づく傾向があり、文章を組み合わせる操作を行なった際に座標が大幅に変化する。 それに伴って波形が大きく変化し、最適化に多くの組み合わせ操作を要した結果、非常に長い文のアライメントが発生したと考えられる。Jaccard 係数と SentenceBERT は両方とも適切に対応関係を抽出で きており、その数に差はあまり見られない。しかし、 SentenceBERT の方がやや圧縮率が高く、不必要な組み合わせが行われている傾向が見られた。今回採用した海外の文学作品は、翻訳者によって翻訳スタイルは違うものの、表面的には似た箇所が多い。Jaccard 係数を単語レベルではなく文字レベルの集合で求めることで、共通して登場する単語に加えてある程度類似した箇所を考慮したアライメントが可能であったと解釈できる。SentenceBERT の出力ベクトルを用いて二文の類似度を比較する方法は、その精度の高さから近年では頻繁に用いられている。しかし、比較する一方の文に余計な要素を追加すると類似度が上昇する、など不安定な挙動が確認されることも多い。今回の実験では、組み合わせ操作を取り入れたことによって、その挙動の不安定さが結果に現れた形となった。 以上の内容を踏まえると、日本語の文書からの DTWによる対応関係の抽出において、文字レベルの Jaccard 係数を用いる、もしくは SentenceBERT によるユークリッド距離を用いる、のいずれかが有効であると考えられる。 ## 6 まとめ 本研究では複数の翻訳者によって翻訳された文書を対象として、対応関係を抽出する手法を提案した。海外の文学作品を対象とした実験の結果、組み合わせ操作を取り入れた DTW の最小化が対応関係の抽出に有効であり、DTWを実行する際の文書間の距離として、文字レベルの Jaccard 係数もしくは SentenceBERT によるユークリッド距離が有効であることを示すことができた。本研究では日本語の文学作品を対象として実験を行ったが、今後は DTW の高速化なども視野に入れつつ、他言語への適応可能性も調查したい。 ## 謝辞 本研究は JSPS 科研費 JP21K12036 の助成を受けたものである。 ## 参考文献 [1] Sakoe, H. and Chiba, S.: Dynamic Programming Algorithm Optimization for Spoken Word Recognition, IEEE Transaction on Acoustics, Speech, and Signal Processing, Vol. ASSP-26, No. 1, pp. 43-49 1978. [2] Regina Barzilay and Kathleen R. McKeown. Extracting Paraphrases from a Parallel Corpus. In Proc. of ACL 2001, pp. 50-57, 2001. [3] Kiyonori Ohtake and Kazuhide Yamamoto. 2003. In Proceedings of the 17th Pacific Asia Conference on Language, Information and Computation, pages 380391, Sentosa, Singapore. COLIPS PUBLICATIONS. [4] 松元航太郎速水悟田村哲嗣“テトゥン語を対象としたニューラル機械翻訳の研究” 言語処理学会第 26 回年次大会発表論文集 pp.1065-1068 2020 . [5] https://fasttext.cc (2023 年 1 月 12 日アクセス) [6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional trans- formers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Pa- pers), pp. 4171-4186. Association for Computational Lin- guistics, June 2019. [7] Mikolov, T., Chen, K., Corrado, G. and Dean, J.: Efficient Estimation of Word Representations in Vector Space, In Proceedings of ICLR Workshops Track (2013). [8] Lewis Carroll (1865) Alice's Adventures in Wonderland(ルイス・キャロル河合祥一郎(訳) 不思議の国のアリス+鏡の国のアリス 2 冊合本版(2015)角川文庫 P12) [9] Lewis Carroll (1865) Alice's Adventures in Wonderland(ルイス・キャロル多田幸蔵(訳) 不思議の国のアリス (2012) グーテンベルク 21 P2) [10] Herman Melville (1851) Moby-Dick (ハーマン・メルヴィル富田彬(訳) 白鯨(上) (2015)角川文庫) [11] Herman Melville (1851) Moby-Dick (ハーマン・メルヴィル高村勝治(訳) 白鯨(上) (2011) グーテンベルク 2 1) [12] Mark Twain (1885) Adventures of Huckleberry Finn (マーク・トウェイン山本長一(訳) マーク・トウェインコレクションハックルベリィ・フィンの冒険 (2014) 彩流社) [13] Mark Twain (1885) Adventures of Huckleberry Finn (マーク・トウェイン土屋京子(訳) ハックルベリ一・フィンの冒険 〈上〉 (2014) 光文社古典新訳文庫) [14] Dostoevskii (1866) Crime and Punishment (ドストエフスキー工藤精一郎(訳) 罪と罰(上下)合本版 (2021) 新潮文庫) [15] Dostoevskii (1866) Crime and Punishment (ドストエフスキー 米川正夫(訳) 罪と罰上 (2022)角川文庫) [16] Jane Austen (1813) Pride and Prejudice(ジェイン・ オースティン小山太一(訳) 自負と偏見 (2016) 新潮文庫) [17] Jane Austen (1813) Pride and Prejudice (ジェイン・ オースティン小尾芙佐(訳) 高慢と偏見〈上〉 (2016) 光文社古典新訳文庫) [18] Margaret Munnerlyn Mitchell (1936) Gone With the Wind (マーガレット・ミッチェル鴻巣友季子(訳) (2015) 風と共に去りぬ第 1 巻新潮文庫) [19] Margaret Munnerlyn Mitchell (1936) Gone With the Wind (マーガレット・ミッチェル大久保康雄,竹内道之助(訳) 風と共に去りぬ(一)(2016)グーテンベルク 2 1)
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-4.pdf
# 名詞役割入れ替えに頑健な日本語含意関係認識 雨宮正弥 ${ }^{1}$ 増川哲太 ${ }^{1}$ 仲田明良 ${ }^{1}$ 狩野芳伸 ${ }^{1}$ 1 静岡大学情報学部 \{mamemiya, tmasukawa, anakada, kano\}@kanolab. net ## 概要 含意関係認識に必要な要素は、語彙、構文、推論など様々であるが、たとえば語彙が共通しているが主語と目的語が入れ替わり文意が変わって矛盾となるべきような場合、現状の深層学習モデルでは分類性能が著しく低い。本研究では、非矛盾の文章ペア中の名詞を入れ替えることで矛盾とみなせる文章デ一タを自動作成し、既存の含意関係認識データセットと合わせて BERT をファインチューニングした。学習と評価には、既存の含意関係認識データセットに加え、Wikipedia と新聞記事から抽出したものを組み合わせて用いた。これにより、従来から高い性能が報告されているタイプの含意関係認識の性能は保持しつつ、日本語の文内で名詞を入れ替えたときに意味が変わり矛盾となったかを判別できることを示した。 ## 1 はじめに 含意関係認識は、前提文と仮定文の文ペアについて、前提文が正しいとしたときに仮定文が正しいと言えれば含意、間違えていると言えれば矛盾、どちらとも言えない場合は中立と判定するタスクである。日本語では日本語 SNLI データセット (JSNLI) [1],本語構成的推論・類似度データセット(JSICK)[2], Japanese Realistic Textual Entailment Corpus (JRTEC) [3]などの含意関係認識データセットが作成され、事前学習済みの大規模深層言語モデルをファインチュ ーニングすることで 9 割近い分類性能が報告されている[1][2][3]。一方で、既存の深層言語モデルによる日本語の含意関係認識では語順の変化に対応できていないと報告されている[2]。含意関係認識は実際には語彙、構文、推論などその認識に必要な要素が様々であり、それらをまとめた全体性能のみでは性能を判断しがたい。特に、語彙は共通のまま主語と目的語を入れ替えたような場合、現状の深層学習モデルでは分類性能が著しく低い。こうした入れ替え前後 の文意の違いを捉えることは非常に重要であり、実現すれば深層学習モデルの根本的な処理能力の向上が期待できる。 本研究では、このような文章内で名詞を入れ替えたときに文意が変わる場合に着目し、自動で入れ替えたデータを生成しファインチューニングに用いる。名詞入れ替えデータの生成においては、入れ替え後の文の不自然さなどほかの手掛かりで判別できないように、品詞細分類や格フレームを用いたいくつかのフィルタを適用した。 名詞入れ替えデータと既存の含意関係認識データとを合わせて学習することで、これまでの含意関係認識の性能を保持しつつ、名詞を入れ替え文意が変わる文にも対応できることを示した。訓練と評価は、各種の既存含意関係認識データセット、Wikipedia、新聞記事データセットを組み合わせて実行し、デー タセットによるバイアスがないか確認した。 ## 2 関連研究 日本語の含意関係認識データセットには、JSNLI [1]、JSICK[2]、JRTEC[3]、RITE[4]、RITE-2[5]、 RITE-Val[6]、Textual Entailment 評価データ[7]などがある。 JSNLI[1]は、英語の大規模含意関係認識データセットである SNLI[8]を日本語に翻訳したもので、事前学習済み BERT [9]をファインチューニングし、評価値 0.929 の分類性能を達成した[1]。 JSICK[2]は、多様な言語現象を含む英語の含意関係認識データセットである SICK[10]を日本語に翻訳したもので、事前学習済み BERTをファインチュ ーニングすることで Accuracy 84.0 の正答率を達成した[2]。また、項(名詞句)の語順を入れ替えても意味内容が変化しない場合に入れ替えをすると、 10\%程度正答率が下がることを示した。 JRTEC[3]は、根拠付きアノテーションをした含意関係認識データセットで、BERT のファインチュー ニングにより $\mathrm{F}$ 値 92.4 の分類性能を達成している[3]。 RITE[4]、RITE2[5]、RITE-VAL[6]は、NTCIR の shared task で使用されたデータである。RITE-VAL において Ishii らは Macro F1 77.96 を達成している $[11]$ 。 Textual Entailment 評価データ[7]は、クラスが 、 タセットである。また、推論の要因として包含、語彙(体言)、語彙(用言)、構文、推論の 5 つで各サンプルが分類されている。 ## 3 提案手法 含意関係認識と一口にいっても、実際にはさまざまな要素がある。たとえば Textual Entailment 評価デ ータでは、包含、語彙(体言)、語彙(用言)、構文、推論の 5 つに大きく分類している。 表 1 に Textual Entailment 評価データの含意関係認識の例を示す。なお、Textual Entailment 評価デー が、他の含意関係認識データセットに合わせ、本研 ラベルとして扱う。 表 1 Textual Entailment 評価データの例 \\ 本研究の目的は、表 1 内の「構文」例に当たる、日本語の文内で名詞を入れ替えたときに、文意が変わったかどうかを深層言語モデルに判別させることである。原文と名詞を入れ替えた文とのペアを用意し、原文を前提、入れ替え文を仮定とし、正解ラべルを「矛盾」とする含意関係認識タスクとして解く。 文内の任意の名詞ペアを入れ替えてしまうと、日本語として不自然、あるいは単語の並びの頻度が低いかどうかなどで容易に判別できてしまう可能性がある。そこで品詞細分類が同じ名詞のみを入れ替え対象とし、以下で詳述するように、述語とそれが格関係をもつ語(項)を記述した京都大学格フレーム [11]を用いて、入れ替え後もできるだけ日本語として成立しうる文になるようにした。 この名詞入れ替えデータと既存の含意関係認識デ ータセットとを組み合わせて学習・評価を行った。 ## 3. 1 名詞入れ替えデータの作成 原文となる日本語文章データとして、データ量が多い日本語 Wikipediaデータiと中日新聞の過去 30 年分の記事データから一部を抽出して使用した。 Wikipedia、新聞記事の各文に対し、以下の 1 から 3 の操作を行い、名詞入れ替えデータを作成した。 40 文字以下の文のみを対象とし、名詞の入れ替えは 1 文につき一度とした。 1. JUMAN++(pyknp 0.6.1) iiで形態素解析をし、文中の名詞を特定する。名詞が連続している場合は 1 つの名詞として扱う。 2. 1 で得られた名詞のうち、品詞細分類が同じ最初の二つを入れ替えた文を作る。 3. 2 で得られた文を日本語構文解析器 KNP(pyknp 0.6.1) ii [12]で解析し述語と対応する格を取得した。この結果を京都大学格フレ一ム Ver 2.0 iii [11]と照らし合わせ、全ての述語と格の組み合わせがデータに存在する場合のみを採用し、他は除外した。 3.の操作により、入れ替え後の文が日本語として不自然なものが除かれると期待する。例えば原文「鉛筆で字を書く。」に対し「鉛筆」と「字」を入れ替えると「字で鉛筆を書く。」と不自然な内容になるが、これを除外することができた。 表 2 に、入れ替え後の結果をWikipedia、新聞記事それぞれから 100 件サンプリングして目視で検査した結果を示す。 表 2 名詞入れ替えデータの人手分類の統計 作成した名詞入れ替えデータのうち、入れ替え後も文意が変わらないサンプル、文意が変わるサンプル、入れ替え後は日本語として不自然なサンプル、の三  種に分類した。ここでいう不自然な文には、構文的に不自然な場合も含まれている。 表 3 に入れ替え後の事例を挙げる。文意が変わる例では、「天気」と「季節」が前提と仮説の文で入れ替わっており、違う文意になっている。文意が変わらない例では「追加」と「店舗閉鎖」が入れ替えられているが、「追加の店舗閉鎖」と「店舗閉鎖の追加」は同じ意味なので入れ替え後の文意が変化していない。不自然な日本語の例では、 2 つの名詞の間に助詞「の」が入っているため「お別れの会」全体で一つの名詞と認識されず、「後日お別れ」と「会」 が入れ替わる不自然な結果となった。 表 3 入れ替え文章の例 ## 3.2 含意関係認識器 含意関係認識データの先行研究では、含意関係認識器として BERT が最も多く使用されていたため、本研究でも比較のため BERT を用いる。本研究では BERT の事前学習済みモデルをファインチューニングして含意関係認識器を構築する。入力は「[CLS]仮説 [SEP]前提[SEP]」の形式で、[CLS]に対応する出力を用いて含意、中立、矛盾の 3 クラス分類を行う。 ## 4 実験 既存の含意関係認識データだけでファインチュー ニングした BERT と、既存の含意関係認識データに加えて名詞入れ替えデータで学習した BERTを用いて、含意関係分類タスクを行い評価した。 ## 4. 1 データセット JSNLI と JSICK の 2 つの含意関係認識データセッ卜と、3.1 の手順で作成した名詞入れ替えデータ (Wikipedia shuffle および新聞記事 shuffle)を、 BERT ファインチューニングに使う学習データ・テストデータとして使用した。表 4 に各データセットの統計を示す。JSNLI と JSICK は訓練データとテストデータに分けて提供されているため、それぞれの データ数を記載した。 ## 4. 2 実験設定 以下の 4 通りの学習データセットでBERT をファインチューニングした。名詞入れ替えデータを学習寸る際は、含意のデータ数と矛盾のデータ数が同じくらいになるよう調整し、ランダムサンプリングした。 - JSNLI データセットの学習データ ・JSICK データセットの学習データ - JSNLI データセットの学習データのうち矛盾ラ ベルからランダムに文ぺア 2 万件を削除したもの) (含意約 17 万、矛盾約 15 万、中立約 17 万) + Wikipedia 入れ替えデータ(矛盾約 2 万) - JSICK データセット (含意約 1100、矛盾約 800 、中立約 3000)+ Wikipedia 入れ替えデータ(矛盾約 300) 学習データは学習用・検証用で $4: 1$ に分割して学習した。学習や推論には Hugging Face $の$ BertForSequenceClassification ${ }^{\text {iv } を 、 B E R T ~} の$ 事前学習モデルは東北大学の乾研究室が公開している bert-for-japanese-whole-word-maskingvを使用した。学習時のパラメータ設定は付録に記載する。 ## 4. 3 実験結果 前節で示した 4 通りの方法でファインチューニングした BERT について、 4 通りのテストデータセットを用い、計 16 通りの評価を行った。テストデータセットはJSNLIおよびJSICK のテストデータセットに加え、前節で学習に使わなかった Wikipedia 入れ替えデータ約 14000 件と、新聞記事入れ替えデー夕 10599 件の計 4 種類である。評価結果を表 5 に示す。  表 5 各テストデータに対する評価結果 A:accuracy, P:クラス毎の precision(予盾/含意/中立), R:クラスごとの recall(矛盾/含意/中立) 含意関係認識データセットのみで学習した BERT では、名詞入れ替えデータでの正答率が著しく低い。提案手法である含意関係認識データセットと名詞入れ替えデータを合わせて学習した BERT は、JSNLI やJSICKテストデータの正答率はほぼ同等であるが、名詞入れ替えデータでの正答率が大幅に向上した。入れ替えデータは矛盾ラベルのみで構成されているが、バランスデータである JSNLI や JSICK でも高い性能を達成できていることから、単に矛盾のみを回答するのではなく純粋に性能が向上したといえる。 ## 5 考察 Wikipedia でファインチューニングした場合に、名詞入れ替えによる矛盾ではなく、Wikipedia 特有の文体などを手掛かりに正答できた可能性があるが、新聞記事による評価も同等の高性能を示しているため、一般に入れ替えの結果となった矛盾関係を認識できるようになったと考えられる。事前学習データが Wikipedia であるため、既知の文であるために性能が上がった可能性についても、同様に新聞記事が高性能であることから排除できる。 JSNLI や JSICK の学習データだけでファインチュ ーニングした BERT が、Wikipedia の入れ替えデータと新聞記事の入れ替えデータにおいて、推論したクラスの数を表 6 に示す。JSNLI やJSICK だけで学習した BERT は入れ替えデータでほとんど含意と推論していたことが分かる。これは、従来手法の学習では文脈よりも単語に重みづけした推論を行っているからではないかと考えられる。入れ替えデータも含めて学習した BERT が、 Wikipedia や新聞記事の名詞入れ替えデータにおいて不正解となっていた例を表 7 に示す。例のように格助詞「の」の前後で名詞が入れ替わる例が多く、 その場合「日本の東京」 $\Leftrightarrow$ 「東京の日本」など文意が変わるものが多い一方で、表 7 の例や表 3 で示した「文意が変わらない」例のように文意が変わらないものが入れ替えデータの自動生成の結果に含まれており、そのため判別できなかった可能性がある。 表 6 推論したクラスの数 \cline { 2 - 7 } & 矛盾 & 含意 & 中立 & 矛盾 & 含意 & 中立 \\ 表 7 名詞入れ替えデータでの不正解の例 ## 6 おわりに 本研究では、名詞を入れ替えた日本語文章データを作成し、既存の含意関係認識データセットと合わせてBERT をファインチューニングした。その結果、従来の含意関係認識の性能を保持しつつ、文内で名詞を入れ替えたときにも、意味が変わり矛盾になったかどうか判別できるようになった。今後は、文章内で名詞が入れ替わっても意味が変わらない文に対応することや、より長い文でも性能が保てているかをテストし、本研究の提案手法を応用してきたい。 ## 謝辞 本研究は JSPS 科研費 JP22H00804,JP21K18115, JP20K20509, JST AIP 加速課題 JPMJCR22U4, およびセコム科学技術財団特定領域研究助成の支援をうけた。中日新聞社より、過去の記事データをご提供いただいた。ここに深謝申し上げる。 ## 参考文献 [1]. 吉越卓見,河原大輔,黒橋禎夫. 機械翻訳を用いた自然言語推論データセットの多言語化. 情報処理学会第 244 回自然言語処理研究会, 2020. [2]. 谷中瞳, 峯島宏次. JSICK: 日本語構成的推論類似度データセットの構築. 人工知能学会第 35 回人工知能学会全国大会, 2021 . [3]. 林部祐太. 知識の整理のための根拠付き自然文間含意関係コーパスの構築. 言語処理学会第 26 回年次大会, 2020 . [4]. Hideki Shima, Hiroshi Kanayama, Cheng-Wei Lee, Chuan-Jie Lin, Teruko Mitamura, Yusuke Miyao, Shuming Shi, Koichi Takeda. Overview of NTCIR-9 RITE: Recognizing Inference in TExt. Proceedings of NTCIR-9 Workshop Meeting, 2011. 291-301. [5]. Hideo Joho, Tetsuya Sakai. Overview of NTCIR-10. Proceedings of the 10th NTCIR Conference, 2013. [6]. Hideo Joho, Kazuaki Kishida. Overview of NTCIR-11. Proceedings of the 11th NTCIR Conference, 2014. [7]. 小谷通隆, 柴田知秀, 中田貴之, 黒橋禎夫. 日本語 TextualEntailment のデータ構築と自動獲得した類義表現に基づく推論関係の認識. 言語処理学会第 14 回年次大会, 2008. 1140-1143. [8]. Samuel R. Bowman, Gabor Angeli, Christopher Potts, Christopher D. Manning. A large annotated corpus for learning natural language inference. Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, 2015. 632-642. [9]. Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. 2019. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. Proceedings of NAACL-HLT, 2019. 4171-4186. [10] Marco Marelli, Stefano Menini, Marco Baroni, Luisa Bentivogli, Raffaella Bernardi, Roberto Zamparelli. A SICK cure for the evaluation of compositional distributional semantic models. Proceedings of the Ninth International Conference on Language Resources and Evaluation, 2014. 216-223. [11]. Ai Ishii, Hiroshi Miyashita, Mio Kobayashi, Chikara Hoshino. NUL System at NTCIR RITE-VAL tasks. Proceedings of the 11th NTCIR Conference, 2014. 249-254. [12]. 河原大輔,黒橋禎夫. 高性能計算環境を用いた Web からの大規模格フレーム構築. 情報処理学会研究報告, 2006. 67-73. [13]. 河原大輔, 黒橋禎夫. 自動構築した大規模格フレームに基づく構文・格解析の統合的確率モデル.自然言語処理 14 巻 4 号, 2007.67-81 ## A 付録 BERT の学習時設定において、最適化手法は AdamW学を使用した。学習時のハイパーパラメータは以下の通りである。 - Epoch 数 : 10 - 学習率 : $2 \mathrm{e}-5$ ・バッチサイズ : 16 vi https://pytorch.org/docs/stable/generated/torch.optim.AdamW.html
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-5.pdf
# 単語の難易度埋め込みを用いた日本語のテキスト平易化 柳本 大輝 ${ }^{1}$ 梶原 智之 ${ }^{2}$ 二宮崇 ${ }^{2}$ 1 愛媛大学工学部 2 愛媛大学大学院理工学研究科 \{yanamoto@ai., kajiwara@, ninomiya@\}cs.ehime-u.ac.jp ## 概要 本研究では、系列変換モデルの埋め込み層を拡張し、単語埋め込みに加えて単語の難易度埋め込みを用いることで、日本語のテキスト平易化の性能を改善する。日本語のテキスト平易化のために利用可能な文の難易度付きパラレルコーパスが存在しないため、英語の先行研究のように語や文の難易度を考慮したテキスト平易化を日本語で実現することは難しい。提案手法では、2,000 単語からなる基礎語彙に注目し、入力単語が平易か否かを考慮する。やさしい日本語コーパスにおける実験の結果、提案手法は積極的に平易な表現を出力する傾向が見られた。 ## 1 はじめに 日本における在留外国人数は年々増加傾向にあり、その数は今や 290 万人 ${ }^{1) を}$ 超えている。さらに、在留外国人の国籍の多様化も進んでおり、在留外国人の国籍および出身地域の数は約 200 種類 ${ }^{2}$ である。そのため、在留外国人をはじめとする日本語非母語話者への情報伝達の際に、各人の母語へ翻訳することは困難である。また、2010 年の調査 [1] では、日常生活に困らない言語として日本語を挙げた在留外国人は約 $62 \%$ であり、英語や中国語を大きく上回ることが報告されている。そこで、緊急時の情報発信や平時の生活情報案内など、様々な場面においてやさしい日本語3)での情報提供が推奨されている。 やさしい日本語などの制限言語の生成は、テキスト平易化 [2] の技術による自動化が期待されている。 テキスト平易化では、文の意味を保持したまま、難解な文を平易に変換する。近年は、テキスト平易化を同一言語内の機械翻訳の問題として捉え、難解文と平易文の対からなるパラレルコーパス [3] を用いて系列変換モデルを訓練するアプローチ [4-6] が主 1) https://www.moj.go.jp/isa/content/001381744.pdf 2) https://www.moj.go.jp/isa/publications/press/ 13_00028.html 3)語彙や文法を制限した初学者にも理解しやすい日本語流である。この技術を用いて、所与の日本語文をやさしい日本語へ自動的に変換する日本語のテキスト平易化の研究 [7-11]が行われている。 しかし、テキスト平易化の多くの先行研究 $[3-5$, 10-14] は、機械翻訳などで用いられる標準的な系列変換モデルを適用し、テキスト平易化タスクの特徴である難易度を充分に考慮していない。多段階の文の難易度が付与されたパラレルコーパス $[3,5,15]$ を利用可能な状況では、難易度を考慮した手法 [16-18] も提案されているが、日本語を含む英語以外の言語には、そのようなコーパスは存在しない。 日本語には文の難易度が付与されたコーパスは存在しないものの、単語の難易度が登録された辞書 [19] は複数存在する。そこで本研究では、単語の難易度を考慮した日本語のテキスト平易化手法を提案する。提案手法では、やさしい日本語コーパス [7-9] に付属の基礎語彙を使用し、Transformer [20] に基づく系列変換モデルにおいて単語埋め込みに単語難易度の情報を組み込む。やさしい日本語コー パスにおける評価実験の結果、単語難易度の考慮によってテキスト平易化の性能を改善できた。 ## 2 関連研究 テキスト平易化によって、言語障害を持つ人々や子どものテキスト読解支援 [21-23] および言語学習効率の向上 [24] などの効果が期待できる。ただし、子どもや言語学習者の言語能力は年齢や学習期間などの影響を受け、複数の段階を持つ。そのため、対象読者を想定してテキストの難易度を制御する手法が近年盛んに研究されている。 文レベルの難易度を考慮する先行研究では、目標難易度を特殊トークンとして入力文の文頭に付加する手法 [16] や、出力文の推定難易度と目標難易度の誤差最小化の訓練を行う手法 [18] が提案されている。単語レベルの難易度を考慮する先行研究では、目標難易度の文中で出現しやすい単語の出力を促す手法 [17] や、難解な文中で出現しやすい単語を出力 図 1 提案手法の概要 しないように強制する手法 [25] が提案されている。 しかし、これらの先行研究では、難易度を考慮するモデルを訓練するために、多段階の文の難易度が付与されたパラレルコーパス $[3,5,15]$ を必要とする。このようなパラレルコーパスは英語以外の言語では使用できないため、日本語においては難易度を考慮するテキスト平易化モデルを構築できない。 ## 3 前提知識 ## 3.1 やさしい日本語コーパスと基礎語彙 日本語のテキスト平易化のための言語資源として、やさしい日本語コーパス [7-9] がある。これは、 8.5 万文の日本語文を人手で平易化した日本語のテキスト平易化のためのパラレルコーパスである。原文は、日英対訳コーパスである田中コーパズ)から選択されている。このうち、 5 万文対 ${ }^{5}$ は日本語母語話者の大学生によって平易化され、残りの 3.5 万文対6) はクラウドソーシングによって雇用された日本語母語話者によって平易化されたものである。日本語のテキスト平易化の先行研究 $[10,11]$ では、やさしい日本語コーパスを用いて Transformer [20] に基づくテキスト平易化モデルが構築されている。 やさしい日本語コーパスの作者らは、やさしい日本語として、2,000 単語からなる基礎語彙7)を選定している。平易化の際には、記号や固有名詞は例外 4) https://github.com/odashi/small_parallel_enja 5) https://www.jnlp.org/GengoHouse/snow/t15 6) https://www.jnlp.org/GengoHouse/snow/t23 7) https://www.jnlp.org/GengoHouse/list/語彙 としつつも、基本的にはこの基礎語彙のみを用いて原文を言い換えている。なお、この基礎語彙は、 UniDic の単語分割基準に従っている。 ## 3.2 系列変換モデルと追加特徴量 ニューラル機械翻訳などの深層学習に基づく系列変換モデルの性能を改善するために、埋め込み層に追加の特徴量を組み込む手法 [26] が提案されている。この手法は、品詞タグや係り受けラベルなど、単語埋め込みにおいて明示的に考慮されていない言語的特徵を考慮するために提案されたものである。具体的には、各特徴量に対してそれぞれ特徴べクトルを作成し、それらを単語埋め込みと連結する。 ## 4 提案手法 本研究では、単語の難易度を考慮して日本語のテキスト平易化に取り組む。 3.2 節で説明した単語埋め込みにおける追加特徴量を用いて、ある単語が 3.1 節の基礎語彙に含まれるか否かの情報を考慮する。本手法では、基礎語彙に含まれる単語の生成および入力文中の基礎語彙に含まれる単語の出力への保持を促進し、入力文中の基礎語彙に含まれない単語の出力を抑制することが期待できるため、テキスト平易化の性能改善が見込める。 提案手法の概要を図 1 に示す。提案手法では、言語学的特徵を考慮する機械翻訳 [26] から着想を得て、系列変換モデルのエンコーダおよびデコーダにおいて、通常の単語埋め込み層とは別に、新たに難易度埋め込み層を用意する。難易度埋め込み層 表 1 実験結果 は、ある単語が基礎語彙に含まれるか否かで 2 種類の埋め込みを生成する役割を担う。入力された単語およびその難易度について、それぞれ異なる埋め込みを作成し、それらを連結して系列変換モデルに与える。つまり、エンコーダは単語の系列 $X=\left(x_{1}, \ldots, x_{m}\right)$ と難易度の系列 $G=\left(g_{1}, \ldots, g_{m}\right)$ を読み込み、エンコーダへの入力埋め込みは $ E_{\text {enc }}=W x_{i} \| F g_{i} $ となり、デコーダは推定単語の系列 $\hat{y}=\left(\hat{y}_{1}, \ldots, \hat{y}_{n}\right)$ と推定難易度の系列 $\hat{g}=\left(\hat{g}_{1}, \ldots, \hat{g}_{n}\right)$ を読み込み、デコーダへの入力埋め込みは $ E_{\mathrm{dec}}=W \hat{y}_{i} \| F \hat{g}_{i} $ となる。 ここで、\|はベクトルの連結、 $E$ は $d_{\text {model }}$ 次元のベクトル、 $W \in \mathbb{R}^{V_{\text {word }} \times d_{\text {word }}}$ および $F \in \mathbb{R}^{V_{\text {grade }} \times d_{\text {grade }}}$ は単語埋め込み行列および難易度埋め込み行列であり、 $V$ は語彙サイズ、 $d$ は次元数である。 また、デコーダは、Softmax 層の直前に単語出力用および難易度出力用の 2 つの線形変換層を持つ。 これらの単語出力層および難易度出力層の次元はそれぞれの埋め込み次元数と一致している。デコーダの出力は、単語埋め込み次元とそれ以降の次元の 2 つに分かれ、それぞれの出力層に入力される。 単語難易度は、やさしい日本語コーパスにおける 2,000 単語の基礎語彙に基づくが、頻出する記号 (句読点、感嘆符、疑問符、括弧)は充分に平易だと考元、基礎語彙に含めた。図 1 の例では、単語 $x_{i}$ が基礎語彙に含まれる場合は $g_{i}$ として「O」を、単語 $x_{i}$ が基礎語彙に含まれない場合は $g_{i}$ として「X」 を、それぞれ単語難易度として入力している。 ## 5 評価実験 提案手法の有効性を検証するために、やさしい日本語コーパスおよび基礎語彙を用いて、日本語のテキスト平易化の評価実験を行う。 ## 5.1 実験設定 データ本実験では、日本語のテキスト平易化のためのパラレルコーパスであるやさしい日本語コー パス [7-9] を使用した。難解文に対して 7 種類の平易文が付与されたマルチリファレンスの 100 文対を評価データ、その他のシングルリファレンス部分から無作為抽出された 2,000 文対を検証データ、残りの 82,300 文対を訓練データとして使用した。 前処理として、難解文および平易文には $\mathrm{Mecab}^{8)}$ [27] による単語分割を行った。基礎語彙と単語分割基準を合わせるために、Mecab の辞書には UniDicを使用した。 モデルテキスト平易化モデルには Transformer [20] を使用し、Sockeye ${ }^{9)}$ [28]を用いて実装した。モデルの構成は、層数を 6 層、自己注意機構のヘッド数を 8、埋め込み次元数を 512、全結合層の次元数を 2,048 とした。提案手法では、 500 次元を単語埋め込み、12 次元を難易度埋め込みに割り当て、それらを結合して 512 次元の埋め込みをモデルに入力した。また、エンコーダおよびデコーダの単語埋め込み層と Softmax 層直前の線形変換の 3 つのパラメタを共有した。 訓練時には、バッチサイズを 4,096 トークンとし、最適化手法として Adam [29] $\left(\beta_{1}=0.9 、 \beta_{2}=0.98 )\right.$ を使用した。初期学習率は 0.001 に設定し、学習率スケジューリングとして plateau-reduce を使用した。 また、200 ステップごとに検証用データにおいて SARI [30]を評価し、10 回連続で改善が見られない場合に訓練を終了する early-stopping を採用した。 評価評価には、テキスト平易化タスクで一般的に用いられている BLEU [31] および SARI [30] の自動評価指標を使用した。BLEU は、出力文と参照文を比較し、単語 n-gram の一致度を評価する。SARI は、入力文・出力文・参照文を比較し、単語 n-gram の追加・保持・削除の 3 つの編集操作の適切さを評価する。BLEU および SARI の計算には、自動評価パッケージである $\operatorname{EASSE}^{10)}$ [32]を使用した。なお、詳細な分析のために、SARIにおける各編集操作の F 値も確認する。  表 2 出力例(太字は基礎語彙に含まれる単語) & \\ また、平易性に関する自動評価として、出力文中の基礎語彙の割合を算出する。この割合が高くなると、テキスト平易化モデルは基礎語彙、つまり、やさしい日本語をより多く出力できたと考えられる。参照文における基礎語彙の割合は $73.13 \%$ であった。 ## 5.2 実験結果 表 1 に実験結果を示す。シード値を変更しつつ 5 回の実験を行い、その平均値によってテキスト平易化モデルの性能を評価した。提案手法は、ベースラインと比較して BLEU が 0.04 ポイント、SARI が 0.12 ポイント、それぞれ向上した。語句の追加・保持・削除の編集操作に関しては、特に追加の操作において、ベースラインと比較して 0.32 ポイントと大きな改善が見られた。基礎語彙の割合についても、提案手法はベースラインを上回った。追加操作 (add)が向上していることと併せて、提案手法は基礎語彙に含まれる単語を積極的に用いて書き換えを行っていると考えられる。 ## 5.3 定性評価 各モデルによる生成文の例を表 2 に示す。上段の例では、入力文中の「不意」と「来客」の 2 単語が基礎語彙に含まれていない難解語であり、ベースラインおよび提案手法のどちらもこの 2 単語を書き換えた。「来客」については、両モデルとも基礎語彙に含まれている「客」に書き換えることができた。一方で、「不意」については、ベースラインは「思わ」「ない」の 2 単語、提案手法は「偶然」に書き換えた。ベースラインの出力した「思わ」は基礎語彙に含まれていないが、提案手法は基礎語彙に含まれる「偶然」を出力できた。 下段の例では、入力文中の「熱心」が基礎語彙に含まれていない難解語であり、両モデルともこの単語を含む「熱心」「に」の 2 単語に対して書き換えを行った。上段の例と同様に、提案手法の出力である 「集中」は基礎語彙に含まれており、ベースライン の出力である「頑張っ」は含まれていない。これらの出力例で確認できるように、提案手法は単語の難易度を考慮しないベースラインよりも、入力文中の難解な表現を基礎語彙を用いる平易な表現に積極的に書き換える傾向がある。 ## 6 おわりに 本研究では、やさしい日本語コーパスにおける基礎語彙を用いて、単語の難易度を考慮したテキスト平易化手法を提案した。提案手法では、系列変換モデルのエンコーダおよびデコーダの埋め込み層を拡張し、単語埋め込みおよび難易度埋め込みの組み合わせとして表現した。やさしい日本語コーパスにおける評価実験の結果、提案手法は積極的に平易な表現を出力し、全ての自動評価指標において比較手法を上回る性能を達成した。 今後の課題として、他の単語難易度辞書を用いて、提案手法によるテキスト平易化モデルの性能向上に取り組みたい。例えば、梶原ら [19] の単語難易度辞書 ${ }^{11}$ では、各単語に初級・中級・上級の 3 段階の難易度を付与しているため、より詳細な難易度の情報を得られる可能性がある。また、英語の単語難易度辞書 ${ }^{12)}[33]$ を用いるなど、提案手法の他の言語への適用にも取り組みたい。 ## 謝辞 本研究は国立研究開発法人情報通信研究機構の委託研究(課題番号:225)の助成を受けたものです。 ## 参考文献 [1] 岩田一成. 言語サービスにおける英語志向 : 「生活のための日本語: 全国調査」結果と広島の事例から.社会言語科学, Vol. 13, No. 1, pp. 81-94, 2010. [2] Fernando Alva-Manchego, Carolina Scarton, and Lucia Specia. Data-Driven Sentence Simplification: Survey and Benchmark. Computational Linguistics, Vol. 46, No. 1, pp. 135-187, 2020. 11) https://github.com/Nishihara-Daiki/lsj 12) https://github.com/mounicam/lexical_simplification [3] Chao Jiang, Mounica Maddela, Wuwei Lan, Yang Zhong, and Wei Xu. Neural CRF Model for Sentence Alignment in Text Simplification. In Proc. of ACL, pp. 7943-7960, 2020. [4] Sergiu Nisioi, Sanja Štajner, Simone Paolo Ponzetto, and Liviu P. Dinu. Exploring Neural Text Simplification Models. In Proc. of ACL, pp. 85-91, 2017. [5] Xingxing Zhang and Mirella Lapata. Sentence Simplification with Deep Reinforcement Learning. In Proc. of EMNLP, pp. 584-594, 2017. [6] Sanqiang Zhao, Rui Meng, Daqing He, Andi Saptono, and Bambang Parmanto. Integrating Transformer and Paraphrase Rules for Sentence Simplification. In Proc. of EMNLP, pp. 3164-3173, 2018. [7] 山本和英, 丸山拓海, 角張竜晴, 稲岡夢人, 小川耀一朗,勝田哲弘, 高橋寛治. やさしい日本語対訳コーパスの構築. 言語処理学会第 23 回年次大会, pp. 763-766, 2017. [8] Takumi Maruyama and Kazuhide Yamamoto. Simplified Corpus with Core Vocabulary. In Proc. of LREC, pp. 1153-1160, 2018. [9] Akihiro Katsuta and Kazuhide Yamamoto. Crowdsourced Corpus of Sentence Simplification with Core Vocabulary. In Proc. of LREC, pp. 461-466. [10] 中町礼文, 梶原智之. 事前訓練済み系列変換モデルに基づくやさしい日本語への平易化. 情報処理学会第 83 回全国大会, pp. 607-608, 2021. [11] 畠垣光希, 梶原智之, 二宮崇. やさしい日本語へのテキスト平易化のための訓練データの精選. 第 21 回情報科学技術フォーラム, pp. 293-300, 2022. [12] Lucia Specia. Translating from Complex to Simplified Sentences. In Proc. of PROPOR, pp. 30-39, 2010. [13] Sanja Štajner, Hannah Béchara, and Horacio Saggion. A Deeper Exploration of the Standard PB-SMT Approach to Text Simplification and its Evaluation. In Proc. of ACL, pp. 823-828, 2015. [14] Tomoyuki Kajiwara and Mamoru Komachi. Building a Monolingual Parallel Corpus for Text Simplification Using Sentence Similarity Based on Alignment between Word Embeddings. In Proc. of COLING, pp. 1147-1158, 2016. [15] Wei Xu, Chris Callison-Burch, and Courtney Napoles. Problems in Current Text Simplification Research: New Data Can Help. TACL, Vol. 3, pp. 283-297, 2015. [16] Carolina Scarton and Lucia Specia. Learning Simplifications for Specific Target Audiences. In Proc. of ACL, pp. 712-718, 2018. [17] Daiki Nishihara, Tomoyuki Kajiwara, and Yuki Arase. Controllable Text Simplification with Lexical Constraint Loss. In Proc. of ACL-SRW, pp. 260-266, 2019. [18] Daiki Yanamoto, Tomoki Ikawa, Tomoyuki Kajiwara, Takashi Ninomiya, Satoru Uchida, and Yuki Arase. Controllable Text Simplification with Deep Reinforcement Learning. In Proc. of AACL, pp. 398-404, 2022. [19] 梶原智之, 西原大貴, 小平知範, 小町守. 日本語の語彙平易化のための言語資源の整備. 自然言語処理, Vol. 27, No. 4, pp. 801-824, 2020. [20] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is All you Need. In Proc. of NIPS, pp. 5998-6008, 2017. [21] John Carroll, Guido Minnen, Yvonne Canning, Siobhan Devlin, and John Tait. Practical Simplification of English Newspaper Text to Assist Aphasic Readers. In Proceedings of the Workshop on Integrating Artificial Intelligence and Assistive Technology, pp. 7-10, 1998. [22] Jan De Belder and Marie-Francine Moens. Text Simplification for Children. In Proceedings of the SIGIR 2010 Workshop on Accessible Search Systems, pp. 19-26, 2010. [23] Tomoyuki Kajiwara, Hiroshi Matsumoto, and Kazuhide Yamamoto. Selecting Proper Lexical Paraphrase for Children. In Proc. of ROCLING, pp. 59-73, 2013. [24] Sarah E Petersen and Mari Ostendorf. Text Simplification for Language Learners: A Corpus Analysis. In Proceedings of the Workshop on Speech and Language Technology in Education, pp. 69-72, 2007. [25] Tomoyuki Kajiwara. Negative Lexically Constrained Decoding for Paraphrase Generation. In Proc. of ACL, pp. 6047-6052, 2019 . [26] Rico Sennrich and Barry Haddow. Linguistic Input Features Improve Neural Machine Translation. In Proc. of WMT, pp. 83-91, 2016. [27] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying Conditional Random Fields to Japanese Morphological Analysis. In Proc. of EMNLP, pp. 230-237, 2004. [28] Felix Hieber, Michael Denkowski, Tobias Domhan, Barbara Darques Barros, Celina Dong Ye, Xing Niu, Cuong Hoang, Ke Tran, Benjamin Hsu, Maria Nadejde, Surafel Lakew, Prashant Mathur, Anna Currey, and Marcello Federico. Sockeye 3: Fast Neural Machine Translation with PyTorch. arXiv:2207.05851, 2022. [29] Diederik P. Kingma and Jimmy Lei Ba. Adam: A Method for Stochastic Optimization. In Proc. of ICLR, 2015. [30] Wei Xu, Courtney Napoles, Ellie Pavlick, Quanze Chen, and Chris Callison-Burch. Optimizing Statistical Machine Translation for Text Simplification. Transactions of the Association for Computational Linguistics, Vol. 4, pp. 401-415, 2016. [31] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. BLEU: a Method for Automatic Evaluation of Machine Translation. In Proc. of ACL, pp. 311-318, 2002. [32] Fernando Alva-Manchego, Louis Martin, Carolina Scarton, and Lucia Specia. EASSE: Easier Automatic Sentence Simplification Evaluation. In Proc. of EMNLP, pp. 49-54, 2019. [33] Mounica Maddela and Wei Xu. A Word-Complexity Lexicon and A Neural Readability Ranking Model for Lexical Simplification. In Proc. of EMNLP, pp. 3749-3760, 2018.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-6.pdf
# 擬似データを用いた教師あり学習による語彙平易化 野口 夏希 ${ }^{1}$ 梶原 智之 ${ }^{1}$ 荒瀬 由紀 ${ }^{2}$ 内田諭 ${ }^{3}$ 二宮 崇 1 1 愛媛大学 2 大阪大学 3 九州大学 n_noguchi@ai.cs.ehime-u.ac.jp \{kajiwara, ninomiya\}@cs.ehime-u.ac.jp arase@ist.osaka-u.ac.jp uchida@flc.kyushu-u.ac.jp ## 概要 本研究では,文平易化のための大規模なパラレルコーパスから語彙平易化のための擬似的なパラレルコーパスを自動抽出し,マスク言語モデルを再訓練する教師あり学習の枠組みで語彙平易化を行う.語彙平易化のためのパラレルコーパスはアノテーションコストが高いため,千件未満の小規模なものしか存在しない. そのため先行研究では, パラレルコー パスを用いた語彙平易化モデルの教師あり学習は検討されていない. 本研究では,擬似的なパラレルコーパスを用いた教師あり学習によって,3つの英語の語彙平易化タスクで最高性能を達成した。 ## 1 はじめに 子どもや英語非母語者などの読解支援のために, テキスト平易化 [1] の研究が行われている. テキスト平易化は, 入力テキストの意味を保持しつつ, 語句や構造を変換して読者にとって理解しやすいテキストを生成する技術である。単語 [2]・文 [3]・文書 [4] の各単位を対象にテキスト平易化の技術が研究されているが, 本研究では最も基礎的な単語単位の平易化(語彙平易化)[5] に取り組む. テキスト平易化モデルを訓練する際には,難解なテキストと平易なテキストの対であるパラレルコー パスを使用する. 文単位では約 50 万文対 [6], 文書単位では約 15 万文書対 [4] の大規模なパラレルコー パスを利用できる一方で,語彙平易化のためのパラレルコーパスは千件未満の小規模なもの [7-9] しか存在しない. これは, 語彙平易化のためのパラレルコーパスの構築が, 入力文からの難解語の検出,難解語に対する文脈を考慮した言い換え集合の生成,言い換え候補のリランキングなどの複数回のアノテーションを必要とする高コストなタスクのためと考えられる。 そのため, 語彙平易化の先行研究 [10-16] では, パラレルコーパスを必要とする教 Much of the water carried by these streams is diverted. 万言い換え候補生成 used, redirected, diverted, channel, poll, less, . ฤ リランキング 1. redirected, 2. diverted, 3. poll, 4. used, .. ฤ Much of the water carried by these streams is redirected. 図 1 語彙平易化 師あり学習の手法は提案されていない. 本研究では,文単位のテキスト平易化のためのパラレルコーパス $[6,17,18]$ から少数の単語の置換のみによって平易化されている文対を抽出することで,語彙平易化のための擬似的なパラレルコーパスを構築する。そして,1万件規模のパラレルコーパスを用いてマスク言語モデル [19]を再訓練し, 教師あり学習のアプローチで語彙平易化を行う. 3 種類の英語の評価用データセット [7-9] を用いた評価実験の結果,教師あり学習によって語彙平易化の性能を改善でき,最高性能を達成した。 ## 2 関連研究 語彙平易化は, 図 1 に示すように, 1 単語が難解語として注釈付けされた入力文が与えられ,文脈を考慮して難解語の平易な言い換え候補を生成するステップと,言い換え候補を難易度に基づきリランキングするステップの 2 つのサブタスクからなる. 本研究では,前者の言い換え候補の生成に取り組む. ## 2.1 言い換え候補の生成 言い換え候補の生成では,辞書に基づく手法と分散表現に基づく手法が提案されている. 初期の研究 $[10,20]$ では,人手で整備された WordNet $[21]$ などの辞書を用いて難解語の同義語を収集していた. その後,パラレルコーパス上での単語アライメント [22] によって大規模な言い換え辞書を自動構築 表 1 文単位のテキスト平易化のためのパラレルコーパスに含まれる文対の例 & She is a member of the Democratic Party. & 文長が異なる例 \\ する手法が考案され, 文単位のテキスト平易化のためのパラレルコーパスを用いる手法 [7] や対訳コー パスを用いる手法 [2] が提案された. しかし, 辞書に基づく手法は,自動構築であっても網羅性に限界があり,言い換えの文脈依存性にも対処が難しいため,現在では分散表現に基づく手法が主流である. 分散表現に基づく手法としては, GloVe [23] や fastText [24]などの単語分散表現の余弦類似度を用いて難解語の類義語を収集する先行研究 $[13,15]$ が多い。近年の手法 $[16,25]$ は, 単語穴埋めの事前訓練を行ったマスク言語モデル BERT [19]を用い,文脈を考慮して言い換え候補を生成している.BERT は,文脈を考慮して言い換え候補を生成できる点と,単語穴埋めの事前訓練が語彙平易化の問題設定と近い点の 2 つの利点を持つ. そのため, 本研究でも BERTを用いて言い換え候補の生成に取り組む. ## 2.2 言い換え候補のリランキング このステップでは,難解語との同義性,文脈の中での流暢性,候補単語の平易性などの観点から,複数の言い換え候補をリランキングし,言い換え単語を選択する. 初期の研究 $[10,20]$ では, 候補単語の 1-gram 頻度を用いて,平易性の観点からリランキングを行っていた. その後, 文脈に応じたランキングのために, 難解語の周辺単語も考慮する 5-gram 頻度 [9] も使用されるようになった. さらに,より多様な観点からのリランキングのために,1-gram 頻度および 5-gram 頻度に加えて, 難解語と候補単語の間の単語分散表現の余弦類似度(同義性)および候補単語と周辺単語の間の単語分散表現の余弦類似度(流暢性)も考慮する平均ランキング [13] が提案されている。近年の手法 $[16,25]$ では, 文脈を考慮する 5-gram 頻度および周辺単語との類似度計算を, BERT の単語穴埋め確率に基づいて改良している.本研究では,言い換え候補の生成に取り組み,リランキングの適用やリランキングの改良による語彙平易化の性能改善については今後の課題とする. ## 3 提案手法 本研究では,文単位のテキスト平易化のための大規模なパラレルコーパス $[6,17,18]$ の中から, 単語単位の変換のみが行われている文対を抽出することで,語彙平易化のための擬似的なパラレルコーパスを構築する.まず, 3.1 節では,語彙平易化のための擬似的なパラレルコーパスの構築手順について説明する. 次に,3.2節では,BERT [19]に基づく語彙平易化モデルの教師あり学習の方法について述べる. ## 3.1 擬似的なパラレルコーパスの構築 表 1 に例示するように, 文単位のテキスト平易化のためのパラレルコーパスには,語句を置換する平易化, 節を省略する平易化, 文の構造を変更する平易化など,様々な変換をともなう文対が含まれる。 その中で, 少数の単語の置換のみが行われている文対は語彙平易化の事例だと考えられるため,このような文対を以下の手順で抽出する.ただし,難解文を $C$ 個の単語からなる $X=x_{1}, . ., x_{C}$, 平易文を $S$ 個の単語からなる $Y=y_{1}, \ldots, y_{S}$ と表記する. 1. 難解文と平易文の文長に差異がある場合,単語の置換以外の変換が行われている. そこで,文長が異なる( $C \neq S$ である)文対を除外する. 2. 文長が同じでも,多くの単語が異なる文対は語彙平易化の事例とは考えにくい,そこで,難解文と平易文の間で $i$ 番目の単語同士を比較し,異なる単語 $\left(x_{i} \neq y_{i}\right)$ の個数を数える. これがゼロまたは $k$ よりも大きい文対は除外する. ただし, $i$ は $0<i \leq C$ の整数である. ## 3.2 語彙平易化モデルの教師あり学習 先行研究 $[16,25]$ と同様に, 入力文および難解語をマスクした入力文の 2 文を BERT [19] に入力し, マスク部分に対する単語穴埋めの要領で言い換え候補を生成する. 2 単語を置換する表 1 の 2 文目の例では,具体的には “[CLS] relax the current standards ? [SEP] [MASK] the current [MASK] ? [SEP]" というトークン列を BERTへ入力する。ここで,[CLS] および [SEP] は BERT における特殊トークンであり, それぞれ文頭および文末を意味する。 先行研究 $[16,25]$ における言い換え候補生成では,生コーパス上で事前訓練のみを行った BERTを用いるが,本研究では事前訓練済みの BERTを 3.1 節の擬似的なパラレルコーパス上で再訓練してから用いる. 先ほどの例において,我々の再訓練では, 1 つめの [MASK] に対しては “lower”を,2つめの [MASK] に対しては“limits”を,それぞれ正解単語として, 事前訓練と同様に単語穴埋めのクロスエントロピー損失最小化の訓練を行う.このような再訓練を経た BERT は,語彙平易化における言い換え候補の生成に特化したモデルになると期待できる。 ## 4 評価実験 提案手法の有効性および訓練ドメインの影響を検証するために, 3 種類の英語の語彙平易化タスクにおいて評価実験を行う。 ## 4.1 実験設定 データ語彙平易化のための擬似的なパラレルコーパスは,文単位のテキスト平易化のための最大規模のパラレルコーパス1)である Wiki-Auto $[6,17]$ および Newsela-Auto [6,18] から抽出した. Wiki-Auto は Wikipedia ドメインの 488, 332 文対であり, NewselaAuto はニュースドメインの 394, 300 文対である. 前処理として, Moses Tokenizer ${ }^{2}$ [26] を用いて単語分割および小文字化を行った. 置換された単語数を表すハイパーパラメタ $k$ は, 1 から 5 までの 5 種類について実験した. 各ドメインで抽出された擬似的なパラレルコーパスの規模を表 2 に示す. なお, $k=1$ の文対中から 500 件ずつ合計 1,000 文対を無作為抽出して検証用セットとし,その他を訓練に用いた。 評価用には,英語の語彙平易化における代表的なコーパスである LexMTurk ${ }^{3)}$ [7]・BenchLS4) [8]・ $\mathrm{NNSeval}^{5}$ [9] の 3 種類を使用した. LexMTurk は Wikipediaを平易化した 500 件, BenchLS は Wikipedia および英語の均衡コーパス [27-29]を平易化した 929 件,NNSeval は BenchLS から高品質なサブセッ  表 2 語彙平易化の擬似的なパラレルコーパスの文対数 Wiki-Auto (Wikipedia) Newsela-Auto (News) トを抽出した 239 件である. モデル公平な比較のために, モデルは先行研究 $[16,25]$ に合わせて bert-large-uncased-whole-wordmasking ${ }^{6)}$ [19]を使用した. これは, 1,024 次元の埋め込み層および隠れ層を持つ 24 層 12 注意ヘッドの事前訓練済み Transformer 符号化器 [30] である. 再訓練には,バッチサイズを 16 文,学習率を $1 e-6$,最適化手法を Adam [31] として,検証用データにおけるクロスエントロピー損失が 3 エポック改善されない場合に訓練を停止した. なお,表 2 における各ドメインのパラレルコーパスを用いて,訓練ドメインの異なる 2 種類のモデルを構築した。 ## 4.2 評価方法 単語分散表現に基づく Light-LS [13] と,マスク言語モデルに基づく BERT-LS [16] および SimpleBERT [25] を提案手法と比較する. Light-LS は, 単語分散表現 GloVe [23] の余弦類似度を用いて,難解語の類義語を言い換え候補として出力する. BERT-LS は,マスク言語モデル BERT [19] の単語穴埋め確率を用いて,文脈中で難解語の代替となる語を候補として出力する. SimpleBERT は, 語彙平易化の仕組みは BERT-LS と同じだが, Simple English Wikipedia および Newsela の平易な英文 [32]を用いて BERT の追加事前訓練を行うことで,性能を改善している。 先行研究の評価の設定に従い, 語彙平易化モデルによって出力された上位 10 件の候補単語を正解の言い換え集合と比較する。評価指標には,適合率および再現率と,その調和平均である $\mathrm{F}$ 値を用いる. ## 4.3 実験結果 表 3 に実験結果を, 表 4 に各モデルの出力例を, それぞれ示す。擬似的なパラレルコーパスを用いた教師あり学習によって,提案手法は全てのタスクにおいて最高の $\mathrm{F}$ 値を達成した。 6) https://huggingface.co/bert-large-uncased-wholeword-masking 表 3 実験結果 表 4 出力例(下線は入力文に含まれる難解語,太字は正解と一致する出力) 訓練ドメインに関しては,Newsela で訓練したモデルよりも Wikipedia で訓練したモデルの方が高い性能を達成した. 特に,Wikipediaのみを対象とする LexMTurk においてより大きな性能改善が見られたため,訓練用コーパスと評価用コーパスのドメインが一致することが重要であることがわかる. ## 4.4 擬似パラレルコーパスの人手評価 訓練データに含まれる置換単語数の最大值 $k$ を増加させるほど訓練データの規模も増加するが,本実験では $k=1$ のときに全てのタスクにおいて最高性能が得られた. つまり, 単純に訓練データ数を増やすことが性能改善に寄与するわけではない. $k \geq 2$ では, "Linee played predominantly at centre." $\rightarrow$ "Linee played as a centre." のように,複数単語を同時に置換する句の平易化が訓練データに含まれる。 しかし, 語彙平易化の実際の評価データには, 1 単語のみを変換する事例しか含まれないため,これらの事例が訓練に悪影響を与えている可能性がある. そこで,置換単語数ごとに,Wiki-Auto から 100 件ずつの訓練事例を無作為抽出し, 適切な語彙平易化の事例であるか否かの人手評価を実施した. ここで,適切な語彙平易化の事例とは, $i$ 番目の単語同士が全て置換可能な文対である。なお,置換単語が複数含まれる場合は,各単語がそれぞれ独立に置換 できる場合を適切な事例とする.複数単語を同時に置換する事例や,並び替えによって $i$ 番目の単語同士が対応しない事例は,不適切とする。 人手評価の結果, 置換単語数 1 の事例では 69 件,置換単語数 3 の事例では 11 件, 置換単語数 5 の事例では 1 件のみが適切な語彙平易化であった. これは,3.1 節の単純な規則では,置換単語数の増加とともにノイズ事例を多く収集してしまうことを意味する.そのため本実験では,訓練ノイズの少ない $k=1$ の設定で最高性能が得られたと考えられる. ## 5 おわりに 本研究では,文単位の大規模なテキスト平易化のためのパラレルコーパスから語彙平易化のための擬似的なパラレルコーパスを自動抽出することで,初めて語彙平易化モデルのための教師あり学習を実現した. 3 種類の英語の語彙平易化タスクにおける評価実験の結果,提案手法が全てのタスクにおいて最高の $\mathrm{F}$ 値を達成した.詳細な分析の結果,訓練デー タと評価データのドメインを一致させることの有効性や,ノイズの少ない 1 単語のみの置換の事例を用いて訓練することの有効性が明らかになった. 今後の課題として, 単語類似度推定 [33] を用いた擬似データ収集の高品質化や,リランキングのサブタスクへの教師あり学習の適用に取り組みたい. ## 謝辞 本研究は JSPS 科研費(基盤研究 B,課題番号: JP21H03564, JP22H00677)の助成を受けたものです. ## 参考文献 [1] Fernando Alva-Manchego, Carolina Scarton, and Lucia Specia. Data-Driven Sentence Simplification: Survey and Benchmark. Computational Linguistics, Vol. 46, No. 1, pp. 135-187, 2020. [2] Ellie Pavlick and Chris Callison-Burch. Simple PPDB: A Paraphrase Database for Simplification. In Proc. of ACL, pp. 143-148, 2016. [3] Sergiu Nisioi, Sanja Štajner, Simone Paolo Ponzetto, and Liviu P. Dinu. Exploring Neural Text Simplification Models. In Proc. of ACL, pp. 85-91, 2017. [4] Renliang Sun, Hanqi Jin, and Xiaojun Wan. DocumentLevel Text Simplification: Dataset, Criteria and Baseline. In Proc. of EMNLP, pp. 7997-8013, 2021. [5] Gustavo Henrique Paetzold and Lucia Specia. A Survey on Lexical Simplification. Journal of Artificial Intelligence Research, Vol. 60, No. 1, pp. 549-593, 2017. [6] Chao Jiang, Mounica Maddela, Wuwei Lan, Yang Zhong, and Wei Xu. Neural CRF Model for Sentence Alignment in Text Simplification. In Proc. of ACL, pp. 7943-7960, 2020. [7] Colby Horn, Cathryn Manduca, and David Kauchak. Learning a Lexical Simplifier Using Wikipedia. In Proc. of ACL, pp. 458-463, 2014. [8] Gustavo Henrique Paetzold and Lucia Specia. Benchmarking Lexical Simplification Systems. In Proc. of LREC, pp. 3074-3080, 2016. [9] Gustavo Henrique Paetzold and Lucia Specia. Unsupervised Lexical Simplification for Non-Native Speakers. In Proc. of AAAI, pp. 3761-3767, 2016. [10] Siobhan Devlin and John Tait. The Use of a Psycholinguistic Database in the Simplification of Text for Aphasic Readers. Linguistic Databases, pp. 161-173, 1998. [11] Or Biran, Samuel Brody, and Noemie Elhadad. Putting it Simply: a Context-Aware Approach to Lexical Simplification. In Proc. of ACL, pp. 496-501, 2011. [12] Tomoyuki Kajiwara, Hiroshi Matsumoto, and Kazuhide Yamamoto. Selecting Proper Lexical Paraphrase for Children. In Proc. of ROCLING, pp. 59-73, 2013. [13] Goran Glavaš and Sanja Štajner. Simplifying Lexical Simplification: Do We Need Simplified Corpora? In Proc. of ACL, pp. 63-68, 2015. [14] Gustavo Henrique Paetzold and Lucia Specia. LEXenstein: A Framework for Lexical Simplification. In Proc. of ACL, pp. 85-90, 2015. [15] Gustavo Henrique Paetzold and Lucia Specia. Lexical Simplification with Neural Ranking. In Proc. of EACL, pp. 34-40, 2017. [16] Jipeng Qiang, Yun Li, Yi Zhu, Yunhao Yuan, and Xindong Wu. Lexical Simplification with Pretrained Encoders. In Proc. of AAAI, pp. 8649-8656, 2020. [17] William Coster and David Kauchak. Simple English Wikipedia: A New Text Simplification Task. In Proc. of ACL, pp. 665-669, 2011. [18] Wei Xu, Chris Callison-Burch, and Courtney Napoles. Problems in Current Text Simplification Research: New Data Can Help. TACL, Vol. 3, pp. 283-297, 2015. [19] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proc. of NAACL, pp. 4171-4186, 2019. [20] Jan De Belder and Marie-Francine Moens. Text Simplification for Children. In Proceedings of the SIGIR 2010 Workshop on Accessible Search Systems, pp. 19-26, 2010. [21] George A. Miller. WordNet: A Lexical Database for English. Communications of the ACM, Vol. 38, No. 11, pp. 39-41, 1995. [22] Franz Josef Och and Hermann Ney. A Systematic Comparison of Various Statistical Alignment Models. Computational Linguistics, Vol. 29, No. 1, pp. 19-51, 2003. [23] Jeffrey Pennington, Richard Socher, and Christopher Manning. GloVe: Global Vectors for Word Representation. In Proc. of EMNLP, pp. 1532-1543, 2014. [24] Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. Enriching Word Vectors with Subword Information. TACL, Vol. 5, pp. 135-146, 2017. [25] Renliang Sun and Xiaojun Wan. SimpleBERT: A Pretrained Model That Learns to Generate Simple Words. arXiv:2204.07779, 2022. [26] Philipp Koehn, Hieu Hoang, Alexandra Birch, Chris Callison-Burch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, Chris Dyer, Ondřej Bojar, Alexandra Constantin, and Evan Herbst. Moses: Open Source Toolkit for Statistical Machine Translation. In Proc. of ACL, pp. 177-180, 2007. [27] Serge Sharoff. Open-source Corpora: Using the Net to Fish for Linguistic Data. International Journal of Corpus Linguistics, Vol. 11, No. 4, pp. 435-462, 2006. [28] Diana McCarthy and Roberto Navigli. SemEval-2007 Task 10: English Lexical Substitution Task. In Proc. of SemEval, pp. 48-53, 2007. [29] Jan De Belder and Marie-Francine Moens. A Dataset for the Evaluation of Lexical Simplification. In Proceedings of the 13th International Conference on Computational Linguistics and Intelligent Text Processing, pp. 426-437, 2012. [30] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is All you Need. In Proc. of NIPS, pp. 5998-6008, 2017. [31] Diederik P. Kingma and Jimmy Lei Ba. Adam: A Method for Stochastic Optimization. In Proc. of ICLR, 2015. [32] Xingxing Zhang and Mirella Lapata. Sentence Simplification with Deep Reinforcement Learning. In Proc. of EMNLP, pp. 584-594, 2017. [33] Yuki Arase and Tomoyuki Kajiwara. Distilling Word Meaning in Context from Pre-trained Language Models. In Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 534-546, 2021.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-7.pdf
# 単語単位で評価が可能な機械翻訳向け自動評価 高橋洸丞 須藤克仁 中村哲 奈良先端科学技術大学院大学 \{takahashi.kosuke.th0, sudoh, s-nakamura $\}$ is.naist.jp ## 概要 機械翻訳の自動評価として広く用いられている BLEU[1] や COMET[2] などは、文単位で評価スコアを算出するように設計されている。しかし、文単位の評価は文内部の誤り箇所や誤り度合いを明示できないという欠点がある。そこで本研究では、文単位よりも細かい、単語単位で誤り評価が行われた人手評価データを使用して、単語単位での評価を行い、 その評価結果を基に文単位での評価スコアを算出する自動評価モデルを提案する。 2021 年の WMT metrics タスクによる実験において、提案手法は、従来の文単位でのみ評価を行うモデルと同等もしくは言語対によっては上回る人手評価との相関が得られた。 ## 1 はじめに 自動評価には、(a) 単語単位で誤り計算をした後に文単位の評価値を算出するモデルや、(b) 人手評価を教師信号として文単位の評価値を直接学習するモデルがある。前者のモデル (a) として広く使用されている BLEU、BERTscore[3] は、単語の一致または一致度合いをそれぞれの単語で計算した後に、一致数や一致度合いの合計を文単位の評価値としている。しかし、これらのモデルは本質的に文中に含まれる単語数やトークン数、また機能語の数によって評価結果が変動してしまう問題がある。さらに、評価素性が字面の一致のみであることもあり、 WMT の metrics タスクにおいて (a) のようなモデルは (b) の自動評価モデルに比べて人手評価との相関が低い。後者のモデル (b) の BLEURT[4], COMET などは、XLM (Crosslingual Language Model) [5][6] という大規模な事前学習済の transformer[7] エンコーダを使用したモデルで、評価対象のシステム訳文・参照訳文・原言語文の三つを入力として、エンコーダを通して得た文べクトルから文単位の人手評価と同じ評価値を予測するように学習をしている。そし て、これらのモデルは WMT metrics タスクの 20-22 年度で人手評価との高い相関を記録している。 自動評価システムが文単位の評価性能を向上させていく一方で、人手評価は文単位から単語単位へと変容している。年々と機械翻訳システムの翻訳性能が向上している為、曖昧な文単位の評価から、より細かい評価が可能な単語単位の評価へと、WMT の人手評価が変更された。19 年度まで文単位で人手評価を行う DA (Direct Assessment) [8] を採用していたが、20 年度からは MQM (Multidimentional Quality Metrics) [9] という単語単位で誤り度合いや誤りの種類を記述する評価手法となり、人手評価の信頼性が向上した。 本研究は、こうした人手評価の変化を受けて、自動評価でもより細やかな評価を行えるように、単語単位でのエラーの有無、エラースコアを計算する。 また同時に、文スコアに与える各単語の重要度を計算し、それらを基に文単位での評価値も算出するモデルを提案する。提案手法は単語単位での評価が可能な上に、実験の結果、文単位のみの評価手法 (ベースライン)と、同程度の人手評価との相関、あるいは言語対によってはより高い相関値を得ることができた。 ## 2 関連研究 WMT の metrics タスクでは、DA と MQM の二種類の人手評価手法が取り入れられており、DAが WMT15-21 の翻訳結果に、MQM が WMT20-22 の翻訳結果にアノテーションされている。DA は 0-100 の整数値で参照訳文に対して翻訳文の出来を評価する手法で、高性能な翻訳システムの評価には信頼性が欠けるとされている [10]。一方で、MQM は翻訳誤りの種類や程度を誤翻訳されている箇所にアノテーションし、その誤りの種類や程度によって各翻訳文の評価スコアを決定する。 翻訳文の自動評価というタスクでは、MQM の採用によって 21 年度より単語単位の評価が重要視さ れ始めたが、品質推定のタスクではそれ以前より単語単位での評価が行われてきた。これらの二つのタスクの違いは、参照訳文の有無であり、本研究は参照訳文付きの翻訳文評価タスクでの使用を想定している。 MQM を使用した評価モデルには WMT22 で発表された、COMET22 $\tilde{y}_{\text {tag }}$ [11] や MaTESe[12] がある。 COMET22 $\tilde{y}_{\text {tag }}$ は、これまでの COMET と同様の文単位で評価値を出力する線形層に加えて、単語単位で OK/BAD という誤りの有無を出力する線形層を持ちマルチタスク学習をしている。そして、MaTESe は単語単位で誤りの有無や、誤り度合いが Major なのか Minor なのかを、BIO ラベルで系列ラベリング問題を解く形で予測するモデルであり、COMET から文単位のスコア予測の線形層が取り除かれた構造をしている。 本研究の提案手法は、これらのモデルと比較すると、以下の点で異なる。 1. 単語単位で誤りの有無と誤りのスコアを共に出力する点 2. 単語単位の誤り予測結果を基に文単位のスコアを計算する点 ## 3 提案手法 従来の評価モデルは、文単位の評価しか行えないので、文中のどこがどの程度誤っているのかを提示できない。また、COMET22 $\tilde{y}_{\text {tag }}$ などの単語単位評価モデルは、文単位スコアが単語単位スコアに依らずに決定されるため、文単位と単語単位で一貫性のない設計となっている。そこで本研究では、システム訳文の単語単位のエラーの有無、エラースコア、 そして文単位のエラースコアをそれぞれ出力することができる手法を提案する。提案手法の評価モデルは、図 1 のように、システム訳文・原言語文・参照訳文の三つの入力文から、XLMを通したトークンごとの embedding を用いて評価を行う。また図 1 内の Transformer に対して、XLM のそれぞれの出力に、positional embedding と入力の種類によって異なる token type embedding をそれぞれ足し合わせたものを、[システム訳文, 原言語文, 参照訳文] の順に結合したものを入力する。(図 2) 単語単位のエラーの有無はIO ラベルによって予測され、cross-entropy ロスを用いた学習をする。また単語単位のエラースコアは回帰問題として予測され、MSEロスを用いて学習する。そして文単位のエ 図 1 提案手法の全体構造 図 2 提案モデルの transformerへの入力。XLM から出力された分散表現に PE(Positional Embedding) と TE(Token Type Embedding) を足し合わせて、システム訳文・原言語文・参照訳文の順に結合したものを入力する。 ラースコアは、エラーの有無を表現するエラーラベルとエラースコア、そしてスコア重みの三つの掛け合わせによって決定され、MSEロスを用いて学習も行う。 MQM データの前処理MQM のデータは評価者によって誤りの位置や誤り度合い・誤りカテゴリも異なるので、評価者が誤りだと表記した単語ごとに google の MQM の重みスコア (表 1) に従ったスコアを割り振り、同一システム訳文の全評価者分で単語ごとのスコア平均を取る。このスコア平均を単語単位エラースコアの正解データとして扱い、その中でもスコアが 0 以上の単語についてはエラー有りラべルを、スコアが 0 の単語はエラー無しのラベルを付 与し、これを単語単位のエラー識別の正解データとする。また、単語単位ではなく文単位でスコア平均を取ったものを文単位のエラースコアの正解データとして扱う。 表 $1 \mathrm{MQM}$ の誤り度合いとカテゴリによる重みスコア ## 4 実験 実験は WMT metrics shared taskの 21 年度のデータを用いて行なった。 ## 4.1 実験設定 newstest20 と TED 共に en-de (英-独) と zh-en (中英) の言語対から 9:1 の割合で訓練データと開発データに分けて使用し、newstest21 の en-de、zh-en の言語対において自動評価の性能評価を行なった。性能評価は、ピアソンの相関係数、ケンドー ルの相関係数を用いて文単位の人手評価との相関を計測し、単語単位での性能評価は予測エラーラベルの適合率、再現率、F1, エラースパンの適合率 (HSH) ・再現率 (TSH)[12]を用いて行なった。また、モデルの性能比較のために、単語単位のエラー 有無・エラースコアを一切予測せず、直接文スコアを予測するモデル (ベースライン) も用意した。 さらに、提案手法と同様に単語単位の評価が行える COMET22 の公開されているモデル1) から, $\tilde{y}_{\text {tag }}$ モデル (COMET22 tagging) と文単位の出力を行う COMET22 のモデル (COMET22 segment) で評価実験を行なった。COMET22 の両方のモデルは、提案モデルよりも DA15-20 のコーパスと MQM20 en-ru 言語対のコーパス分、訓練データが多いため、比較対象ではなく、よりよい条件で訓練されたモデルの参考として用意した。そして COMET22 tagging は、 OK/BAD の予想確率が各単語の出力となっていたので、その値が 0.5 以上ならエラー有り、未満ならエラー無しとして評価した。  ## 4.2 実験結果 評価モデルごとの文単位、単語単位のメ夕評価結果をそれぞれ表 2 と表 3 に示す。実験の結果、各言語対において、文スコアのみを直接予測するモデルよりも、提案モデルの方がピアソンの相関係数とケンドールの相関係数が高かった。また en-de、 zh-en の個々の言語対では参考モデルの COMET22 segmentに及ばないものの、2つの言語対をまとめた状態でのメタ評価は COMET22 segmentを上回った。 そして単語単位のメタ評価では、提案モデルは適合率よりも再現率が高くなっており、それに伴ってエラースパンの適合率よりも再現率の方が高くなっていた。さらに、中国語を含んだコーパスにおいて提案モデルは COMET22 tagging よりもエラースパンの数値がよかった。 ## 4.3 誤り度合いによる評価結果の違い 表 1 より、MQM の誤り度合い Major と Minor の境目は 5.0 と 1.0 である。本節ではより誤り度合いの大きい文スコア 5.0 に着目し、文単位スコア 5.0 以下と 5.0 超えにテストデータを分けたメタ評価を行なった (表 4, 5, 6, 7)。その結果、提案モデルは、文スコア 5.0 越えの zh-en 言語対を除いて、文スコアのみを直接予測するベースラインモデルを上回る相関係数値を示した。そして表 4 と 5 の相関係数の変化から、COMET22よりも提案モデルは、より誤り度合いの高い文に対して相関係数が高くなる傾向があった。 また、単語単位のメタ評価やエラースパンについても、エラースコアが高い文に対してエラー予測の適合率や再現率が高くなった。 ## 5 おわりに 本研究では、単語単位でエラーの有無・エラーの度合いを予測し、それらの予測結果から文単位のスコアを計算する機械翻訳向けの自動評価を提案した。WMT21 の評価タスク実験の結果、提案手法はベースラインと比較してピアソンやケンドールの相関係数値を高く維持したまま、単語単位での評価が行えていることがわかった。また、適合率・再現率や事例分析の結果、単語単位のエラー予測については実用段階には少し早いかもしれないが、エラースパンの予測という観点で見ると、半分程度のスパン予測の適合・再現が可能であることがわかった。 表 2 WMT21 MQM コーパスでのメタ評価。各言語対のピアソン $(\rho)$ 、ケンドール $(\tau)$ の相関係数値を計測した結果 表 3 WMT21 MQMコーパスでの単語エラー予測を適合率 $(\mathrm{P})$ 、再現率 $(\mathrm{R}) 、 \mathrm{~F} 1$ スコア $(\mathrm{F})$ 、エラースパンの適合率 $(\mathrm{HSH})$ 、再現率 (TSH) で計測した結果 表 4 文スコアが 5.0 以下、 0.0 越えの誤りを含む文に対するピアソン $(\rho)$ とケンドール $(\tau)$ の相関係数値 表 5 文スコアが 5.0 越えの誤りを含む文に対するピアソン $(\rho)$ とケンドール $(\tau)$ の相関係数値 表 6 文スコアが 5.0 以下、 0.0 越えの誤りを含む文に対する適合率 $(\mathrm{P})$ 、再現率 $(\mathrm{R}) 、 \mathrm{~F} 1$ スコア $(\mathrm{F})$ 、エラースパンの適合率 (HSH)、再現率 (TSH) で計測した結果 表 7 文スコアが 5.0 超えの誤りを含む文に対する適合率 $(\mathrm{P})$ 、再現率 $(\mathrm{R}) 、 \mathrm{~F} 1$ スコア $(\mathrm{F})$ 、エラースパンの適合率 $(\mathrm{HSH})$ 、再現率 (TSH) で計測した結果 ## 謝辞 本研究は JSPS 科研費 $22 \mathrm{H} 03651$ の支援を受けたものである。 ## 参考文献 [1] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a Method for Automatic Evaluation of Machine Translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [2] Ricardo Rei, Craig Stewart, Ana C Farinha, and Alon Lavie. COMET: A neural framework for MT evaluation. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 2685-2702, Online, November 2020. Association for Computational Linguistics. [3] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert. In International Conference on Learning Representations, 2020. [4] Thibault Sellam, Dipanjan Das, and Ankur Parikh. BLEURT: Learning robust metrics for text generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7881-7892, Online, July 2020. Association for Computational Linguistics. [5] Alexis Conneau and Guillaume Lample. Cross-lingual language model pretraining. In H. Wallach, H. Larochelle, A. Beygelzimer, F. d'Alché-Buc, E. Fox, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 32. Curran Associates, Inc., 2019. [6] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised cross-lingual representation learning at scale. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8440-8451, Online, July 2020. Association for Computational Linguistics. [7] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [8] Yvette Graham, Timothy Baldwin, and Nitika Mathur. Accurate Evaluation of Segment-level Machine Translation Metrics. In Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1183-1191, Denver, Colorado, May-June 2015. Association for Computational Linguistics. [9] Arle Lommel, Hans. Uszkoreit, and Aljoscha Burchardt. Multidimensional Quality Metrics (MQM) : A Framework for Declaring and Describing Translation Quality Metrics. Tradumàtica, No. 12, pp. 455-463, 2014. [10] Markus Freitag, George Foster, David Grangier, Viresh Ratnakar, Qijun Tan, and Wolfgang Macherey. Experts, errors, and context: A large-scale study of human evaluation for machine translation, 2021. [11] Ricardo Rei, José Souza, Duarte Alves, Chrysoula Zerva, Ana C Farinha, Taisiya Glushkova, Alon Lavie, Craig Stewart, Luisa Coheur, and André Martins. COMET22:unbabel-ist 2022 submission for the metrics shared task. In Proceedings of the Seventh Conference on Machine Translation. Association for Computational Linguistics, 2022. [12] Stefano Perrella, Lorenzo Proietti, Alessandro Scirè, Niccolò Campolungo, and Roberto Navigli. MATESE: Machine translation evaluation as a sequence tagging problem. In Proceedings of the Seventh Conference on Machine Translation. Association for Computational Linguistics, 2022 ## A 付録 ## A. 1 文スコア 1.0 の上下での評価結果の違い 4.3 節では文スコア 5.0 の上下で評価結果の違いを分析したが、本節では文スコア 1.0 の場合の結果を示す (表 8、9、10、7)。文スコア 5.0 の時と同様に、提案モデルはより誤り度合いの高い文に対してメタスコアがよくなっている。 表 8 文スコアが 1.0 以下、 0.0 越えの誤りを含む文に対するピアソン $(\rho)$ とケンドール $(\tau)$ の相関係数値 表 9 文スコアが 1.0 越えの誤りを含む文に対するピアソン $(\rho)$ とケンドール $(\tau)$ の相関係数値 表 10 文スコアが 1.0 以下、 0.0 越えの誤りを含む文に対する適合率 $(\mathrm{P})$ 、再現率 $(\mathrm{R}) 、 \mathrm{~F} 1$ スコア $(\mathrm{F})$ 、エラースパンの適合率 (HSH)、再現率 $(T S H)$ で計測した結果 表 11 文スコアが 1.0 超えの誤りを含む文に対する適合率 $(\mathrm{P})$ 、再現率 $(\mathrm{R}) 、 \mathrm{~F} 1$ スコア $(\mathrm{F})$ 、エラースパンの適合率 $(\mathrm{HSH})$ 、再現率 (TSH) で計測した結果
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-8.pdf
# 深層距離学習を用いた日本語動詞の意味フレーム推定 矢野 千紘 ${ }^{1}$ 山田康輔 1 笹野遼平 1,2 武田 浩一 1 1 名古屋大学 2 理化学研究所 \{yano.chihiro.j3, yamada.kosuke.v1\}@s.mail.nagoya-u.ac.jp \{sasano, takedasu\}@i.nagoya-u.ac.jp ## 概要 本研究では,深層距離学習でファインチューニングした BERT を用いた日本語動詞の意味フレーム推定に取り組む.英語では人手で構築された大規模なフレームリソースである FrameNet が存在する一方で,日本語では教師データとして利用可能なリソー スが日本語フレームネットなど比較的小規模なものに限られている。そのため本稿では, 少量だが評価言語で構築された日本語フレームネットを教師信号として BERT をファインチューニングする手法と,言語間での知識の転移を期待して,他言語だが規模の大きい FrameNetを教師信号として多言語 BERT をファインチューニングする手法を実施し,各手法による意味フレーム推定実験の結果を報告する。 ## 1 はじめに 人は言葉を理解するにあたり,経験から得た語の背景知識を利用しているとされる [1]. 意味フレー ム知識とはそれらの背景知識をまとめた知識リソー スのことであり,英語については,大規模なフレー ム知識リソースが人手で整備されている [2]. また,大規模なテキストコーパスから意味フレーム知識を自動構築することを目的とし, 動詞を喚起する意味フレームごとにまとめる意味フレーム推定の研究も行われており, 近年は, BERT [3] などの事前学習済み言語モデルから得られる文脈化単語埋め込みを利用した手法が多く提案されている $[4,5,6]$. 中でも,山田らの一連の研究 $[7,8]$ では, 動詞ごとにその用例をクラスタリングした後に動詞横断的なクラスタリングを行うという 2 段階クラスタリングを提案し, さらに,人手で整備されたフレーム知識を教師データとして深層距離学習を用いて事前学習済み言語モデルをファインチューニングすることで,高い精度で意味フレーム推定が可能であることが報告されている。 しかし,英語以外の言語において人手で整備されたフレーム知識リソースの規模は限定的であり,自動構築を行う研究もほとんど行われていない. そこで本研究では, 日本語動詞の意味フレーム推定を目的とし,山田らの手法 [8] を日本語動詞に適用する. 日本語への適用に際し, 日本語のフレーム知識リソースは小規模であることから十分なデータを学習できず,英語と同様の手法を用いても高い性能は得られない可能性がある。したがって,日本語のフレーム知識リソースを教師信号としてファインチューニングした BERT を用いる手法に加え,英語のフレーム知識リソースを教師信号としてファインチューニングした多言語 BERTを用いる手法でも意味フレーム推定を行う。 ## 2 日本語動詞の意味フレーム推定 本節では,山田らが提案した英語動詞の意味フレーム推定手法 [8] を紹介した後,日本語への適用方法について検討する。 ## 2.1 英語動詞の意味フレーム推定手法 山田らはフレーム推定対象動詞の埋め込みをクラスタリングすることでフレーム推定を行った. その際,より高精度なフレーム推定を実現するため,以下の 3 つの工夫を取り入れている. まず,動詞の表層が持つ情報による影響が過度に強くなることを防ぐため,対象動詞の BERTによる埋め込み $v_{\text {word }}$ をそのまま用いるのではなく,その動詞をマスクトークンに置き換えたときの埋め込み $v_{\text {mask }}$ との加重平均による埋め込み $v_{w+m}$ を対象動詞の埋め込みとして用いている。この埋め込みは $\alpha$ を重みとした場合,式 (1)で定義される。 $ v_{w+m}=(1-\alpha) \cdot v_{\text {word }}+\alpha \cdot v_{\text {mask }} $ また,同じ動詞の用例が過度に多くのクラスタへ分散してしまうことを防ぐため,一度にすべての埋 め込みをクラスタリングする 1 段階クラスタリング手法に加えて,動詞ごとに用例のクラスタリングを行った後に動詞横断的にクラスタリングを行う 2 段階クラスタリング手法を検証している。 さらに,類似した意味フレームの事例が近くに位置し,異なる意味フレームの事例が遠くに位置する埋め込み表現となるように,人手で整備されたフレームリソースを教師データとし, 深層距離学習を用いて BERT のファインチューニングを行っている. 深層距離学習の手法としては, Contrastive 損失 [9], Triplet 損失 [10], ArcFace 損失 [11], AdaCos 損失 [12] に基づく手法を比較している. ## 2.2 日本語への適用 山田らの手法では英語動詞の意味フレーム推定に対し,同言語である英語リソースを用いた学習を行っているが, 日本語のフレーム知識リソースは英語のリソースに比べ規模の面で大きく劣っており,山田らの学習方法が最適であるとは限らない。例えば日本語フレームネット [13] は FrameNet [2] と比較して $3.2 \%$ 程度の用例しか含まない. そのため, 事前学習済み言語モデルおよび教師信号として何を用いるべきか検討が必要となる. 事前学習済み言語モデルとしては,大きく分けて日本語単言語モデルと多言語モデルの 2 つが考えられる. 同程度の規模であるなら単言語モデルの方が対象言語の言語モデルとして高性能である可能性が高いが,フレームの概念は言語間で共通する部分があるため,多言語モデルも有用な可能性がある. 教師信号としては日本語フレームネットを用いることで,日本語のフレームに関する直観をそのまま取り入れることが可能となる一方, 事前学習済み言語モデルとして多言語モデルを採用した場合は, FrameNetを教師信号とすることで,大規模なフレー ムリソースが活用できると考えられる. そこで本研究では以下の 4 設定を提案する. $\mathbf{S}_{J F N}$ 単言語モデルまたは多言語モデルに対し, 日本語フレームネット (JFN) を教師信号とした深層距離学習を実施 $\mathbf{S}_{F N}$ 多言語モデルに対し, FrameNet (FN) を教師信号とした深層距離学習を実施 $\mathbf{S}_{F N \rightarrow J F N}$ 多言語モデルに対し, FN,JFNを順に教師信号とした深層距離学習を実施 $\mathbf{S}_{F N+J F N}$ 多言語モデルに対し, FN,JFNをまとめて教師信号とした深層距離学習を実施 ## 3 実験 提案する学習手法の有効性を検証するため, 日本語動詞のフレーム推定実験を行う. ## 3.1 実験設定 損失深層距離学習で用いる損失には,山田らによる英語動詞のフレーム推定実験 [8] において高い性能を示した Triplet 損失と $A d a C o s$ 損失を用いる. Triplet 損失は距離ベースの損失であり,事例の 3 つ組に対して,アンカーと負例の距離を,アンカーと正例の距離より一定のマージン以上遠くなるように学習する. AdaCos 損失は事例とクラスの距離を近づける学習を行う ArcFace 損失に対し, 性能がハイパーパラメーターに依存しないようマージンを省きスケールを動的に決定するようにした損失である. データセット FrameNet[2], 日本語フレームネット [13] から, 動詞がフレームを喚起する用例を抽出し,データセットを作成した. このうち、FrameNet から抽出された用例数は 82,610 であった. 評価に利用する日本語フレームネットについては,多義動詞の割合が一定となるように動詞単位で, 学習デー タ,開発データ,評価データの 3 つのサブセットに分割し, 3 分割交差検証を行った. 各サブセットの用例数の平均は 786 であった. 事前学習済みモデル単言語モデルとして東北大 BERT ${ }^{1)}$ を,多言語モデルとして multilingual BERT(mBERT) [3] ${ }^{2)}$ を用いた. 比較手法東北大 BERT に対しては, 深層距離学習を行わない設定 (w/oFT) と $\mathrm{S}_{J F N}$ の 2 つの設定を比較する. $\mathrm{mBERT}$ に対してはさらに $\mathrm{S}_{F N}, \mathrm{~S}_{F N \rightarrow J F N}$, $\mathrm{S}_{F N+J F N}$ を加えた 5 つの設定を比較する. 予備実験の結果に基づき,JFNのみを学習に用いる場合は 10 epoch, FNを用いる場合は 3 epoch 学習させる. パラメータ埋め込み $v_{w+m}$ の重み $\alpha$, クラスタ数,マージンは開発セットを用いて決定する。このうち, $\alpha$ は 0 から 1 まで 0.1 刻み, Triplet 損失において必要となるマージンは, $\{0.1,0.2,0.5,1.0\}$ から探索する. バッチサイズは 32 , 学習率は 1e-5 とし,最適化アルゴリズムには AdamW [14]を使用する. クラスタリング手法クラスタリングは,1 段階クラスタリングでは群平均法を,2 段階クラスタリングでは 1 段階目に X-means [15], 2 段階目に郡平 1) https://huggingface.co/cl-tohoku/ bert-base-japanese-whole-word-masking 2) https://huggingface.co/bert-base-multilingual-uncased 表 1 日本語動詞を対象としたフレーム推定実験の結果. スコアはいずれも 100 倍したものを記載している. 均法を用いて実施する。 評価方法評価指標には,クラスタリングの代表的な評価指標の 1 つである B-cubed Precision (BCP), Recall $(\mathrm{BcR})$ ,およびその調和平均である $\mathrm{F}$ 値 $(\mathrm{BcF})$ [16]を使用する。全ての設定において,異なるランダムシードで 3 回実験を行い,評価値の平均と標準偏差を算出する. ## 3.2 実験結果 表 1 に実験結果を示す。まず,事前学習済み言語モデルをそのまま用いた設定 (w/oFT) の性能を比較すると,mBERT を使った場合よりも東北大 BERT を用いた場合,2 段階クラスタリングよりも 1 段階クラスタリングを用いた場合の方がそれぞれ高い $\mathrm{BcF}$ となった. 東北大 BERT と 1 段階クラスタリングを組み合わせた場合の BcF は61.2であった. 教師信号として日本語フレームネットを使った設定 $\left(\mathrm{S}_{J F N}\right)$ に注目すると,ほとんどの設定において w/oFT より高い BcF を達成しており, 深層距離学習の有効性が確認できる. 東北大 BERT を使ったモデルと mBERTを使ったモデルを比較すると, AdaCos と 2 段階クラスタリングの組み合わせ以外では,東北大 BERT の方が大幅に高い BcF を達成しており,単言語に閉じた実験の場合, 言語モデルも単言語モデルの方が高い性能となる傾向があると言える。 この設定でもっとも高い BcF となったのは東北大 BERT と 1 段階クラスタリングを組み合わせた場合で,全実験でもっとも高い 65.9 であった. 続いて,教師信号として FrameNet を使った設定 $\left(\mathrm{S}_{F N}\right)$ に注目すると, 深層距離学習を実施しなかった mBERTを使う設定 (w/oFT) と比べ,2 段階クラスタリングに基づく手法において僅かに性能向上が見られたものの, 各モデルで最高性能となる設定の $\mathrm{BcF}$ はそれぞれ 59.4,59.3 と大きな差異は確認できなかった. 教師信号として FrameNet, 日本語フレー ムネットの両方を使った設定 $\left(\mathrm{S}_{F N \rightarrow J F N}, \mathrm{~S}_{F N+J F N}\right)$ を日本語フレームネットのみ使った設定 $\left(\mathrm{S}_{J F N}\right)$ と比較すると,もっとも高い BcFである 62.8 を達成したのは $\mathrm{S}_{F N+J F N}$ と 2 段階クラスタリングを組み合わせたときであったが,性能が低下しているケースもあり,FrameNetを使うことの有効性は本実験では確認できなかった. ## 3.3 考察 図 1 に,日本語フレームネットを教師信号とし $\left(\mathrm{S}_{J F N}\right)$, 東北大 BERT に対し深層距離学習によるファインチューニングを行った場合の, 学習前と学習後のフレーム推定対象動詞の埋め込みの変化の一例を示す。埋め込みは t-SNE [17]を用いて 2 次元に圧縮して可視化し, 事例数の多い上位 10 フレー ムを喚起する動詞の埋め込みに対応する色を付与している.学習前の段階でもある程度,喚起するフレームごとにまとまって分布しているものの,深層距離学習を行うことでその傾向が強くなることが確認できる.たとえば,Statement フレームや Change_position_on_a_scale フレームは学習前は, 他のフレームを喚起する用例と近接して分布しているのに対し,学習後は該当のフレームを喚起する用例だ 東北大BERT (w/oFT) 東北大BERT (Triplet, $\mathrm{S}_{J F N}$ ) - Statement $\boldsymbol{\nabla}$ Awareness_status * Capability 4 Possession Grasp $\star$ Experiencer_focused_emotion Causation $\Delta$ Intentionally_act +Change_position_on_a_scale $\quad$ Cause_to_make_progress 図 1 深層距離学習前後の東北大 BERT の分布の変化例 けでまとまって分布していることが確認できる. 次に, 図 2 に FrameNet と日本語フレームネットをまとめて教師信号とし $\left(\mathrm{S}_{F N+J F N}\right)$, mBERT に対し深層距離学習を行った場合の, 学習前と学習後のフレーム推定対象動詞の埋め込みの変化の一例を,実際の用例とともに示す. 同じフレームに属する用例ペア (1)と (2), (5)と (6) は,学習前は空間上の離れた場所に位置しているのに対し, 学習後は近くに位置することが確認できる. このうち,用例ぺア (1) と (2) で喚起語となる動詞は共に「出来る」であるが,学習前は用例 (1)のように未然形・連用形で出現した用例群と, 用例 (2) のように終止形・連体形の一部として出現した用例群とに分かれて分布していた。また,用例ぺア (5) と (6) で喚起語となる動詞は共に「持つ」であるが,これらの埋め込みは学習前において,平仮名の「もつ」を含む用例群と漢字の「持つ」を含む用例群に分かれて分布していた. 一方,用例ペア (7) と (8) の埋め込みは接近せず,学習後も異なるクラスタに属した. これらの用例は学習前後一貫して,それぞれ同じ動詞「言う」を喚起語とするものの,平仮名で記載された「いう」を含む用例群と漢字を用いて記載された「言う」を含む用例群に分かれて分布した.また,平仮名の「いう」を含む用例群の周囲には同じく平仮名の喚起語を持つ用例が分布しており,文字種の特徴が埋め込みに強く反映されていた。このような表記摇れは日本語特有の問題であり, FrameNet を教師信号として mBERT に対して深層距離学習を適用した場合に意味フレーム推定の性能向上が確認できなかった一因である可能性が考えられる。 図 2 深層距離学習前後の mBERT の分布の変化 ## 4 おわりに 本稿では山田らの提案した意味フレーム推定手法を日本語動詞の意味フレーム推定に適用し,性能を検証した。日本語フレームネットに含まれる用例数は,山田らが英語動詞の意味フレーム推定に利用した FrameNet の用例数の $3 \%$ と大幅に少ないにも関わらず,教師信号として日本語フレームネットを使う設定では,言語モデルとして日本語単言語モデルである東北大 BERT を用いた場合,多言語モデルである mBERT を用いた場合,いずれにおいても深層距離学習を行うことで意味フレーム推定性能が向上することが確認できた。一方,多言語モデルである mBERT を対象に,FrameNet を教師信号として用いる設定では,深層距離学習による性能向上は確認できなかった. 今後の課題としては,日本語フレームネットのフレームを付与したデータを増やし,より大規模な評価セットを用いた実験を行う予定である。また, FrameNet 形式のフレームリソースは,ブラジル語やポルトガル語,中国語をはじめ,多くの言語を対象に開発が進んでいる [18] ことから,英語と日本語以外のリソースを用いた実験に取り組みたい. ## 謝辞 本研究は、JST 創発的研究支援事業、JPMJFR216N の支援を受けたものである。 ## 参考文献 [1] Charles J Fillmore. Frame Semantics. Hanshin Publishing Company, 1982. [2] Josef Ruppenhofer, Michael Ellsworth, Myriam Schwarzer-Petruck, Christopher R Johnson, and Jan Scheffczyk. FrameNet II: Extended theory and practice. International Computer Science Institute, 2016. [3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL 2019), pp. 4171-4186, 2019. [4] Nikolay Arefyev, Boris Sheludko, Adis Davletov, Dmitry Kharchev, Alex Nevidomsky, and Alexander Panchenko. Neural GRANNy at SemEval-2019 task 2: A combined approach for better modeling of semantic relationships in semantic frame induction. In Proceedings of the 13th International Workshop on Semantic Evaluation (SemEval 2019), pp. 31-38, 2019. [5] Saba Anwar, Dmitry Ustalov, Nikolay Arefyev, Simone Paolo Ponzetto, Chris Biemann, and Alexander Panchenko. HHMM at SemEval-2019 task 2: Unsupervised frame induction using contextualized word embeddings. In Proceedings of the 13th International Workshop on Semantic Evaluation (SemEval 2019), pp. 125-129, 2019. [6] Eugénio Ribeiro, Vânia Mendonça, Ricardo Ribeiro, David Martins de Matos, Alberto Sardinha, Ana Lúcia Santos, and Luísa Coheur. L2F/INESC-ID at SemEval2019 task 2: Unsupervised lexical semantic frame induction using contextualized word representations. In Proceedings of the 13th International Workshop on Semantic Evaluation (SemEval 2019), pp. 130-136, 2019. [7] Kosuke Yamada, Ryohei Sasano, and Koichi Takeda. Semantic frame induction using masked word embeddings and two-step clustering. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (ACL-IJCNLP 2021), pp. 811-816, 2021. [8] 山田康輔, 笹野遼平, 武田浩一. 深層距離学習を用いた動詞の意味フレーム推定. 言語処理学会第 29 回年次大会, 2023. [9] Raia Hadsell, Sumit Chopra, and Yann LeCun. Dimensionality reduction by learning an invariant mapping. In Proceedings of the 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 2006), Vol. 2, pp. 1735-1742, 2006. [10] Kilian Q Weinberger and Lawrence K Saul. Distance metric learning for large margin nearest neighbor classifica- tion. Journal of machine learning research, Vol. 10, No. 2, 2009. [11] Jiankang Deng, Jia Guo, Niannan Xue, and Stefanos Zafeiriou. ArcFace: Additive angular margin loss for deep face recognition. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR 2019), pp. 4690-4699, 2019. [12] Xiao Zhang, Rui Zhao, Yu Qiao, Xiaogang Wang, and Hongsheng Li. AdaCos: Adaptively scaling cosine logits for effectively learning deep face representations. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR 2019), pp. 10823-10832, 2019. [13] Kyoko Ohara, Seiko Yamaguchi Fujii, Toshio Ohori, Ryoko Suzuki, Hiroaki Saito, and Shun Ishizaki. The japanese framenet project: An introduction. 2004. [14] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In Proceedings of the 5th International Conference on Learning Representations (ICLR 2017), 2017. [15] Dan Pelleg and Andrew Moore. X-means: Extending kmeans with efficient estimation of the number of clusters. In Proceedings of the 17th International Conference on Machine Learning (ICML 2000), pp. 727-734, 2000. [16] Amit Bagga and Breck Baldwin. Entity-based crossdocument coreferencing using the vector space model. In Proceedings of the 36th Annual Meeting of the Association for Computational Linguistics and 17th International Conference on Computational Linguistics (ACL-COLING 1998), pp. 79-85, 1998. [17] Laurens van der Maaten and Geoffrey Hinton. Visualizing data using t-SNE. Journal of Machine Learning Research, Vol. 9, pp. 2579-2605, 2008. [18] Collin F. Baker, Michael Ellsworth, Miriam R. L. Petruck, and Swabha Swayamdipta. Frame semantics across languages: Towards a multilingual FrameNet. In Proceedings of the 27th International Conference on Computational Linguistics: Tutorial Abstracts, pp. 9-12, Santa Fe, New Mexico, USA, August 2018. Association for Computational Linguistics.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-9.pdf
# 否定スコープ認識における構文構造利用の再検証 吉田 朝飛 ${ }^{1}$ 加藤芳秀 ${ }^{2}$ 松原 茂樹 1,2 1 名古屋大学情報学部 2 名古屋大学情報連携推進本部 yoshida.asahi.y7@s.mail.nagoya-u.ac.jp ## 概要 否定スコープ認識とは,自然言語文に現れる否定要素の影響が及ぶ範囲を特定するタスクである.従来手法の多くは否定スコープ認識に構文構造を利用していたが,近年の手法はディープラーニングを利用しており,構文構造を利用せずとも従来手法を上回る性能を達成している. 本研究では, 否定スコー プ認識における構文構造の有用性を再検証する. 従来手法で用いられてきた構文解析器を, 解析精度の高い最新の構文解析器に置き換えて, 否定スコープ認識の性能を評価する. 精度の高い構文解析器を利用することにより, 従来の手法が最新の手法と同程度の性能を達成できることを確認した。 ## 1 はじめに 否定 (negation) は意味を反転させる言語現象であり,自然言語文において頻繁に出現する。文中の否定を意味する表現,及びその影響範囲を正しく認識することは,自然言語文を理解する上で必要不可欠である。NLP 分野において,否定を自動認識する多くの手法(例えば $[1,2,3]$ )が提案されてきた. 自然言語文に含まれる否定において,否定の意味をもつトークンを否定要素 (negation cue), 否定要素の影響が及んでいる範囲を否定スコープ (negation scope) と呼ぶ. 例えば (1)の英文では, not が否定要素であり, notによって意味が反転する He did, go to school が否定スコープである. なお,以下では例文における太字と下線はそれぞれ否定要素と否定スコープを表す. (1) He did not go to school and stayed home. 一般的に,否定認識 (negation detection) は次のサブタスクに分けられる. - 否定要素検出 (negation cue detection) - 否定スコープ認識 (negation scope detection / negation scope resolution)本研究では,英文の否定スコープ認識に取り組む. 否定スコープ認識の研究は,*SEM 2012 Shared Task [4] で否定認識タスクが取り上げられて以来,活発に行われている。*SEM 2012 Shared Task では,構文構造を利用した否定スコープ認識手法 [1] がトークンレベルの評価で最高性能を達成した [4].一方,近年の研究ではディープラーニングを用いた手法が中心となっており,構文情報を明示的に利用せずとも高い性能を達成している $[2,3]$. ここで注意すべき点は,*SEM2012 Shared Task では,その当時の構文解析器が使用されている1)ことである. 現在の構文解析器は当時に比べ,解析精度が大幅に改善されており,それを利用することで,構文構造をべースとした従来手法の性能が向上する可能性がある.構文構造に基づく手法は,ディープラーニングをべースとする手法に比べて解釈性が高く, システムがどのようなメカニズムで否定スコー プ認識を行っているかを説明しやすいという利点がある。また,構文べースの手法が否定スコープの認識に利用する構文情報はドメインに依存して変化しないため,異なるドメインのデータセットに適用することが容易であると期待できる. そこで本研究では, 否定スコープ認識における構文構造の有用性を再検証するために,最新の構文解析器を用いた否定スコープ認識の性能を評価する。実験により,構文に関するヒューリスティックなルールに基づく従来の手法が,ディープラーニングに基づく手法と同程度の性能を達成できることを確認した。 ## 2 先行研究 本節では,Read らが提案した,構文構造を用いて否定スコープ認識を行う手法 [1] の概要を説明する.本研究ではこの手法をべースにし,否定スコープ認  識における構文構造の有用性を再検証する。 Read らの手法は,否定スコープと構文構造は強い関連があるという考えに基づき,構文木の部分木 (句)をスコープと対応づけている.例として,以下の文 (2) に対応する図 1 の構文木を考える. (2) People without a coupon can also enter. この例において,否定要素 without のスコープは People, a coupon である. このスコープは句 NP と対応している. Read らの手法は, 文と否定要素が与えられると,次の手順により否定スコープを特定する。 1. 文を構文解析し,否定要素を含む句をそのスコープの候補とする. 2. 否定スコープの候補である句の中から,ルールベースの手法,もしくは分類器を用いて句を 1 つ選択する。 3. 選択された句を補正し,スコープを決定する. 手順 1 では,否定要素(上の例では without)が含まれる句(上の例では IN, PP, NP, S)をスコープの候補とする。手順 2 では,選ばれた候補の中から,スコープに対応する句を 1 つ選ぶ. Read らはルールベースの手法と分類器を用いる手法を提案しているが,ここでは本研究で利用するルールベースの手法について述べる. 用いるルールは,図 2 に示す Scope resolution heuristics である. Scope resolution heuristics は複数のルールからなり, 図の上にあるルールから順番に適用される. 例えば, DT//SBAR if SBAR \WHADVP は, 否定要素の品詞が DT であり, その祖先にSBARが存在し, かつそのSBAR の子に WHADVP がある場合に適用され,SBARを否定スコープに対応する句として選択する. いずれのルールも適用されない場合には, default scope が採用される. default scope は, 否定要素から左右へとスコープをのばしていき,文境界または句読点に至るまでの範囲を否定スコープとするものである. 否定スコープと句の対応が単純でない場合もある. 図 3 に,前述した英文 (1) の構文木を示す.この文には等位構造が含まれているが,否定要素である not のスコープは接続詞 and,及び 2 番目の等位項 stayed home には及んでいない.この例が示すように,スコープと句を単純に対応させられない場合がある. 手順 3 の句の補正の処理は, こうした場合に対応するための処理である. 句の中に含まれる特 図 1 文 (2) の句構造木. 否定要素 without のスコープに対応する句の候補を太字で示している。 図 2 Scope resolution heuristics. 各行が 1 つのルールに対応し, ルール適用の優先度は上にあるものほど高い. A/B は B が A の親 (parent) であることを, A//B は B が A の祖先 (ancestor) であることを, $\mathrm{A} \backslash \mathrm{B}$ は B が $\mathrm{A}$ の子 (child) であることを示す. (\#) は,本研究で修正を加えるルールである. 定の要素を句から除外するために,以下の処理を行う. ・ 句の最初あるいは最後の punctuation(句読点) を除外する。 - 5 つのルールからなる Slackening rulesを適用し,特定の要素を除外する。 ・不連続なスコープに対応するための Post processing を適用する。具体的には,以下の 2 つの処理を行う. - 等位構造の最後の等位項に否定要素が含まれる場合,それより前の等位項を除外する。 一文全体にかかる副詞的要素 (sentential adverb)を除外する。 例えば,文(1)では句として S が選択され,上述の処理により,等位接続詞 (CC) の and, CC より後ろにある等位項に含まれる stayed home, punctuation であるピリオドが除外される.補正の結果,スコープ 図 3 文 (1)の句構造木. 赤枠で囲った部分は句の補正によりスコープ候補の句から除外されることを示している。 を正しく認識できる. ## 3 構文構造を用いた手法の再検証 本節では,否定スコープ認識における構文構造の有用性を再検証する方法を説明する。検証には,2 節で説明した Read らの手法 [1] をべースとして用いる. 3.1 節では,本検証で用いる構文解析器について述べる. 3.2 節及び 3.3 節では,本再検証において修正した,Read らの手法の手順 2 と 3 の処理についてそれぞれ説明する。 ## 3.1 構文解析器の変更 *SEM 2012 Shared Task のデータセット [5] には句構造情報も付与されており,構文構造をべースとした従来手法の多くが,この情報を利用して否定スコープ認識を行ってきた. データセットに付与されている句構造情報は, Charnkak and Johnson Reranking Parser [6]を用いて構文解析されたものである。この構文情報には誤りが含まれており,Read らが指摘したようにこの誤りが否定スコープ認識の性能に影響を及ぼす可能性がある. そこで本研究では,より性能の高い構文解析器を使用してデータセットの文を構文解析する。構文解析には,Berkeley Neural Parser [7, 8] と Attach Juxtapose Parser [9] の 2 種類の構文解析器を使用する. それぞれの構文解析器の性能を表 1 に示す. Penn Treebankでの性能は, Reranking Parser, Berkeley Neural Parser, Attach Juxtapose Parser の順に高くなっている.表 1 使用した句構造解析器の性能 ## 3.2 Scope Resolution Heuristics の修正 Read らは図 2 の Scope resolution heuristics によりスコープに対応する句を特定する処理を行った. Read らの1つ目のルール (図2で (\#)を付したもの) は関係詞節を取り出すことを想定したものだと考えられるが,このままでは正しく機能しない,本研究ではこのルールを以下のように修正する。 ## (3) $\mathrm{RB / / \mathrm{VP} / \mathrm{S} / \mathrm{SBAR}$ if SBAR WHNP} 学習データを用いた予備実験により, Read らの 1 つ目のルールをそのまま適用する場合よりも,修正した新たなルールを適用した場合の方が,句と否定スコープの対応率が高いことを確認している. ## 3.3 補正処理の修正 Read らの手法では 2 節で述べた処理により句の補正を行っているが,本研究では Slackening rules と Post processing の一部に変更を加える. Slackening rules については,Read らの 5 つのルー ルに,以下の 1 つのルールを追加する. - 句の最初にあるカンマで区切られた PP (前置詞句)を除外する. これは,句の最初にあるカンマで区切られた前置詞句は副詞的に働き,否定スコープに入らないことが多いという学習データの観察に基づいて作られたルールである. 文 (4) は,句の最初にある前置詞句が否定スコープに入らない例である. (4) In my opinion, he should not go. Post processing については,2つ目の処理に修正を加える. Read らは学習データから sentential adverb のリストを作成し,そのリストに含まれる語を除外する処理を行っている. 本研究ではこれを一般化し,「カンマで囲まれた ADVP, INTJ」を sentential adverb とし,カンマと共に除外する。例えば文 (5) 表 2 異なる構文解析器を用いて作成したデータに対する否定スコープ認識の結果 *上段の数值は Read らのルールを 3.2, 3.3 節で述べたように修正した場合の結果,下段の数值はルールを修正しない場合の結果を表す. では,カンマで囲まれた ADVP である however とその両端のカンマが句から除外される. (5) I do n't think, however, he is guilty. ## 4 実験 否定スコープ認識における構文構造の有用性を再検証するために,構文構造に基づく従来手法を異なる構文解析器を用いて作成したデータに適用する実験を実施した4.1 節で実験の方法を述べ,4.2 節で実験の結果を述べる. ## 4.1 実験の方法 実験では,*SEM2012 Shared Taskで使用されたデータセット CD-SCO を用いた. Read らの手法を, 3.2 節及び 3.3 節で示した通りに修正した方法で否定スコープ認識を行った. CD-SCO に対して Berkeley Neural Parser と Attach Juxtapose Parserにより句構造情報を新たに与え,それぞれの結果を比較した。実験設定は*SEM2012 Shared Task のものと同様であり,評価指標はスコープレベルの $\mathrm{F}_{1}$ (Scope-level $F_{1}$-measures) とトークンレベルの $F_{1}$ (Token-level $F_{1}$ mearures) である. 評価には*SEM2012 Shared Task で配布された評価プログラムを用いた。 ## 4.2 実験結果 異なる構文解析器を使用した場合の否定スコープ認識の結果を表 2 に示す. 解析精度の高い構文解析器を用いることにより,スコープレベル,トークンレベルのいずれの基準においても否定スコープ認識の性能が高くなることを確認した。 現時点で最高性能を達成している Khandelwal ら [3] を含め,いくつかの先行研究では,*SEM2012 Shared Task で評価から除外されていた punctuation のトークンを評価に含めている。これらの手法と結表 3 本研究で用いた手法と他の手法との結果比較 ## Token-level $\mathbf{F_{1}$} Method Punctuation Punctuation * Attach Juxtapose Parser を用いて構文解析したもの. 果を比較するため,punctuation のトークンも含めた $F_{1}$ も測定した. 結果を表 3 に示す. 本研究で検証した手法の性能は, punctuation を含めた $\mathrm{F}_{1}$ において, Khandelwal らの手法とわずか $0.62 \%$ の性能差に達している。これは,高性能の構文解析器を用いることで,構文に関するヒューリスティックなルールに基づく手法が最高性能のディープラーニング手法に近い性能を達成できることを示している。 ## 5 おわりに 本研究では,否定スコープ認識タスクにおける構文構造の有用性を再検証した。構文構造をべースとする従来手法が解析精度の高い構文解析器を用いることで,ディープラーニングをべースとした手法に近い性能を達成できることを実験により示した。 予測の精度をより高めるために,ルールベースで行った句を選択する処理に機械学習を導入することが考えられる。 否定スコープ以外にもスコープのある言語現象が存在する。例えば, all, any などの量化子 (quantifier) もスコープがあり,その範囲を正しく認識することは,量化子を含む自然言語文の意味を理解する上で重要である. 本研究の方式を否定以外のスコープ認識に応用させることも今後の課題である. ## 謝辞 本研究は,一部,科学研究費補助金基盤研究(C) (No. 22K12148)により実施したものである. ## 参考文献 [1] Jonathon Read, Erik Velldal, Lilja Øvrelid, and Stephan Oepen. UiO1: Constituent-based discriminative ranking for negation resolution. In ${ }^{*}$ SEM 2012: The 1st Joint Conference on Lexical and Computational Semantics, pp. 310-318, Montréal, Canada, 7-8 June 2012. Association for Computational Linguistics. [2] Federico Fancellu, Adam Lopez, and Bonnie Webber. Neural networks for negation scope detection. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 495-504, Berlin, Germany, August 2016. Association for Computational Linguistics. [3] Aditya Khandelwal and Suraj Sawant. NegBERT: A transfer learning approach for negation detection and scope resolution. In Proceedings of the 12th Language Resources and Evaluation Conference (LREC'20), pp. 5739-5748, Marseille, France, May 2020. European Language Resources Association. [4] Roser Morante and Eduardo Blanco. *SEM 2012 shared task: Resolving the scope and focus of negation. In *SEM 2012: The 1st Joint Conference on Lexical and Computational Semantics, pp. 265-274, Montréal, Canada, 7-8 June 2012. Association for Computational Linguistics. [5] Roser Morante and Walter Daelemans. ConanDoyle-neg: Annotation of negation cues and their scope in conan doyle stories. In Proceedings of the 8th International Conference on Language Resources and Evaluation (LREC'12), pp. 1563-1568, Istanbul, Turkey, May 2012. European Language Resources Association (ELRA). [6] Eugene Charniak and Mark Johnson. Coarse-to-fine n-best parsing and MaxEnt discriminative reranking. In Proceedings of the 43rd Annual Meeting of the Association for Computational Linguistics (ACL'05), pp. 173-180, Ann Arbor, Michigan, June 2005. Association for Computational Linguistics. [7] Nikita Kitaev and Dan Klein. Constituency parsing with a self-attentive encoder. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2676-2686, Melbourne, Australia, July 2018. Association for Computational Linguistics. [8] Nikita Kitaev, Steven Cao, and Dan Klein. Multilingual constituency parsing with self-attention and pre-training, 2018. [9] Kaiyu Yang and Jia Deng. Strongly incremental constituency parsing with graph neural networks. In Neural Information Processing Systems (NeurIPS), 2020. [10] Hao Li and Wei Lu. Learning with structured representations for negation scope extraction. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Pa- pers), pp. 533-539. Association for Computational Linguistics, 2018.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-10.pdf
# ニューラル機械翻訳における単語分割器のドメイン適応 榎本大晟 平澤寅庄 金輝燦 岡照晃 小町守 東京都立大学 \{enomoto-taisei, hirasawa-tosho, kim-hwichan\}@ed.tmu.ac.jp, \{teruaki-oka, komachi\}@tmu.ac.jp ## 概要 fine-tuning(微調整)でin-domain にドメイン適応をする際,一般的にモデルのみが対象であり,単語分割は general-domain で使用した単語分割器をそのまま使用する. 既存研究では, タスクやモデルに適した単語分割を行うことにより,モデルの性能が向上することが示されており,ドメインにおいても同様に general-domain $の$ 単語分割器が,in-domain において最適とは限らないと考えられる。そこで本研究では,機械翻訳タスクを対象とし,モデルと単語分割器の学習を同時に行う単語分割同時最適化を用いて, 単語分割器のドメイン適応を行うことで,翻訳精度の改善を試みる. 実験により,単語分割器のドメイン適応が in-domain データの翻訳性能の向上に寄与することを示す. ## 1 はじめに 単語分割は自然言語処理タスクの精度に影響を与える重要な処理である. これまでの研究から,モデルの性能が向上するような適切な単語分割はタスクやモデルの構造などによって異なることがわかっている $[1,2,3,4,5]$. 近年では, タスクやモデルに応じて単語分割を自動で最適化する手法が研究されており,その内の 1 つに平岡ら [6] による単語分割同時最適化手法がある. これは,タスクに用いるモデルと単語分割器を同時に End-to-End で学習する手法である. 平岡らは,機械翻訳タスクでの単語分割同時最適化の評価実験では in-domain データのみでモデルと単語分割器の学習を行い, 翻訳性能の向上を確認している ${ }^{1)}$. 一方,ドメインに特化した機械翻訳システムは高い需要があるが,一般的に機械翻訳モデルの学習に 1)平岡らの機械翻訳タスクでの実験では,単語単位に分割した後に単語分割同時最適化をおこなっているため,サブワー ド単位への分割を学習しているといえる. 本研究でも同様にサブワード単位への分割を学習する。 は大規模なコーパスが必要であるため,in-domain データのみを用いてモデルを作成することは困難である。この問題を解決するため,ドメイン適応では,大規模な general-domain データで事前学習したモデルを,目的の in-domain データで微調整する(図 1a)。ドメイン適応により,in-domain デー タが限定的であっても,高い翻訳性能のモデルを学習できる.しかしながら一般的なドメイン適応はタスクのモデルのみを微調整し,単語分割器は general-domain データのものを in-domain データに対してそのまま使用する,前述の通り単語分割はモデルの性能に大きく関与するため, general-domain の単語分割器が in-domain において最適とは限らない. そこで本稿では,平岡らの単語分割同時最適化を用いて, 翻訳モデルと単語分割器の両方のドメイン適応を行い,in-domain データにおける翻訳精度の改善に取り組む(図 1b),提案手法はまず事前学習の際に単語分割同時最適化を適用することで,事前学習に用いる general-domain データに適した単語分割器と翻訳モデルを獲得する。 その後, 翻訳モデルのみでなく単語分割器も in-domain データに適したものにするために,微調整の際にも単語分割同時最適化を適用する。英日と英独の機械翻訳タスクにおける実験を通して,単語分割器のドメイン適応が, in-domain の翻訳性能向上につながることを示す. ## 2 関連研究 ## 2.1 サブワード分割 機械翻訳では,未知語の問題を解決するために,単語より小さい単位であるサブワードを扱うことが一般的である。サブワード化を行う代表的な手法にユニグラム言語モデル(ULM)に基づく分割 [7] がある. ULM の語彙内のサブワード $w$ のユニグラム確率 $p(w)$ は,EMアルゴリズムを用いて,与えられた学習データをもとに求める. 文 $s$ を単語分割する (a) 翻訳モデルのみ微調整を行う従来のドメイン適応. (b) 翻訳モデルと単語分割器の同時ドメイン適応. 図 1: 機械翻訳タスクにおける翻訳モデルと単語分割器のドメイン適応. 際には,尤度(ユニグラム確率の積)が最大となるようなサブワードの系列 $s^{\prime}=w_{1}, \ldots, w_{I}$ に変換する.平岡ら [6] はタスクの学習に用いるモデルに単語分割器を組み合わせ,End-to-End で同時に学習する単語分割同時最適化手法を提案した. 単語分割器には,ニューラルネットワークで構成された ULM であるニューラルユニグラム言語モデル(NULM)を用いている. 平岡らは,単語分割同時最適化によりモデルの性能の向上を報告した. しかしながら,学習には in-domain データのみを使用しており,単語分割の学習にドメイン適応が有効であるかは明らかになっていない. ## 2.2 ドメイン適応 ニューラル機械翻訳におけるドメイン適応手法は数多く提案されている. Freitag ら [8] は大規模な対訳データで学習したモデルに対して小規模な in-domain データを用いて追加の学習を行う微調整により, in-domain データでの翻訳性能の向上を報告した. Chu ら [9] は微調整時に general-domain デー タと目的の in-domain データを組み合わせたデータを使用する混合微調整を提案した. いずれの研究でもドメイン適応によりモデルのパラメータのみを更新しており, 単語分割器のようなモデル以外の構成要素に対してドメイン適応は行っていない. 単語分割はモデルの性能に影響するため, 単語分割器のドメイン適応は in-domain データにおける性能の改善につながると考える。 ## 3 単語分割器のドメイン適応 本研究で単語分割器として用いる NULM と, 単語分割同時最適化手法を用いた単語分割器のドメイン適応の手順を概説する. NULM の語彙 $V$ は,ULM やBPE [10] などを用いて初期化を行う. NULM で は,語彙 $V$ 内のサブワード $w$ にいて,単語分散表現 $\boldsymbol{v}_{w}$ と多層パーセプトロン MLP(.)をもとにしてユニグラム確率 $p(w)$ を次のように計算する. $ \begin{aligned} d_{w} & =\operatorname{MLP}\left(\boldsymbol{v}_{w}\right) \\ p(w) & =\frac{\exp \left(d_{w}\right)}{\sum_{\hat{w} \in V} \exp \left(d_{\hat{w}}\right)} \end{aligned} $ NULM は後段タスクの損失に基づいてパラメータの更新を行う. 本研究で行う単語分割器のドメイン適応とは, NULM のドメイン適応を指す. 本研究で提案する,単語分割同時最適化手法を用いた単語分割器のドメイン適応の手順は以下の通りである。 1. general-domain データを用いてULMを学習する. 2. general-domain データを用いて翻訳モデルと単語分割器を学習する. 単語分割器の語彙の初期化には 1 のULMを用いる。 3. in-domain データを用いて,2で得られた翻訳モデルと単語分割器を微調整する。 図 $1 \mathrm{~b}$ は翻訳モデルと単語分割器の同時ドメイン適応の手順を図示したものである. ## 4 実験 ## 4.1 実験設定 データセット事前学習に用いる general-domain データには,英日翻訳では JParaCrawl v3.0 [11, 12],英独翻訳では ParaCrawl v9 [13] を使用した. これらはウェブをクローリングすることで作成された大規模な対訳コーパスである. それぞれ学習データとして,全対訳データから 800 万文対を抽出した. indomain データには, 英日翻訳では IWSLT2017 [14] と ASPEC [15], 英独翻訳では IWSLT2017 と EMEA [16] を使用した. IWSLT は TED talks,ASPEC は科学技術論文, EMEA は医療機関の PDFドキュメントから作成された対訳コーパスである。コーパスのドメインの違いによる単語分割器の性質や翻訳性能の変化を確認するために,ASPEC の学習データ数は IWSLT(英日)の学習データ数と等しくなるようにダウンサンプリングを行った. 同様に, EMEA の学習データにもダウンサンプリングを行った. 先行研究 [6] に倣い,コーパスは日本語には MeCab [17] (IPA 辞書),英語とドイツ語には Moses トークナイザ [18]を適用した後に,SentencePiece [19]を用いて ULM の学習を行う. 語彙サイズは 32,000 とした. 学習設定機械翻訳モデルとして Transformer [20] (base)を使用した. 単語分割器のドメイン適応の有効性を検証するために, 単語分割器の学習を行わない設定と general-domain データのみで行う設定と in-domain データのみで行う設定をべースラインとして比較する. 事前学習では 20 エポックの学習を行い,開発データセットにおいて損失值がもっとも低いモデルを使用した. 微調整では 20 エポック,事前学習なしのモデルでは 100 エポックの学習を行い,開発データセットにおいて翻訳性能がもっとも高いモデルを評価に使用した. 単語分割器の学習はソース側言語とターゲット側言語で同時に行った.全ての設定でサブワード正則化 $[7,21]$ を用いて学習を行った。評価には BLEU [22]を用いた. 報告する全ての BLEU は 3 つのシードでの平均値である. ## 4.2 実験結果と考察 表 1 に各 in-domain データセットにおける BLEU スコアを示す. 実験結果より,すべてのデータセットにおいて,general-domain データでの事前学習から単語分割同時最適化を行い翻訳モデルのみでなく単語分割器もドメイン適応を行うことで最高性能となることが確認され,単語分割器のドメイン適応の有効性が示された. 英独の IWSLT 以外のデータセットにおいて, in-domain データのみで単語分割同時最適化を行う設定は,単語分割同時最適化を行わない設定の翻訳性能を下回ることが確認された.このことから, in-domain データが小規模であるため, in-domain データのみでは単語分割器の学習が十分にできない場合があると考えられる。これに対し,大規模な general-domain データでの事前学習から単語分割同時最適化を行うことは, 単語分割器の過学習や学習表 1: 各 in-domain データセットにおける各手法の BLEU スコア. 事前学習における “」”は翻訳モデルのドメイン適応を行うことを意味する。単語分割最適化における“誩該当のデータで単語分割器の学習を行うことを意味する。“-”は該当のデータでモデル自体の学習を行わないことを意味する. General は general-domain データ, In は in-domain データを示す. 不足を回避することができると考えられる。そのため, 単語分割器のドメイン適応を行った設定では, モデルや in-domain データに合った単語分割器を獲得でき,全てのデータセットにおいて安定して性能が向上したと考えられる. ## 5 分析 ## 5.1 単語分割器により翻訳が改善された例 単語分割器のドメイン適応を行うことで,単語分割がどのように変化し,結果として翻訳性能が向上したかを分析する. 表 2 にモデルの事前学習を行う設定における,単語分割同時最適化を行わない設定 (ULMによる単語分割)と,in-domain データのみで行う設定と, general-domain データから行い単語分割器ごとドメイン適応を行う設定のそれぞれの単語分割と翻訳結果の例を示す。“.”は空白記号である. 以降では,それぞれの単語分割手法を,SP,In, Ours と記述する。“電子写真プロセス”と訳される “The electrophotographic process" という単語に着目すると,SP とInでは “-The / _electro / pho / t / ographic / _process” と分割しているのに対し,Oursでは “-The / _electro / photo / graph / ic / _process” と分割していることが確認される。 その結果,モデルによる該当箇所の翻訳は,SPでは未翻訳であり,Inでは “電気泳動法”という誤った訳が出力されているのに対し, Ours では “電子写真プロセス” と正しい翻訳が出力されていることが確認される。このことから,単語分割器のドメイン適応を行うことにより, 希少単語を妥当なサブワードに分割することが可能になり, その結果として翻訳性能が向上すると考えられる。 表 2: 単語分割器の学習を行わない設定 (SP), in-domain データのみで行う設定 (In), general-domain データから行い単語分割器のドメイン適応を行う設定(Ours)の単語分割と翻訳の結果.“...”は省略を意味する. (a) 各手法で学習した単語分割器による単語分割. (b) 各手法で学習した翻訳モデルによる翻訳結果. 各モデルの入力は (a) の単語分割となる. 表 3: 英日翻訳において微調整によりユニグラム確率の増加率が大きいサブワード. ## 5.2 ドメイン適応後の単語分割器の変化 general-domain データにおいて事前学習を行った単語分割器を in-domain データで微調整することにより,単語分割器がどのように変化するのかについて分析を行う. ユニグラム確率の増加率が大きいサブワード表 3 に英日の in-domain データでの微調整後に,ユニグラム確率が大きく増加したサブワードを示す2). IWSLT (英日) の日本語側では “TED” 3)のユニグラム確率の増加率が大きいことが確認された。 IWSLT は TED talks の字幕から作成されたコーパスであり,学習データ内では “TED”を含む文字列が約 900 回と頻出している. 同様に ASPEC の学習デー タ内には,“magnetic”のような “ic”を接尾辞とする形容詞の単語が頻出しており, その結果, 英語側では “ic”のユニグラム確率の増加率が増大した. これらのことから, 単語分割器を in-domain データで微調整することにより,in-domain データにおいて重要な役割を持つサブワードのユニグラム確率を増大させていることがわかった. 単語分割が変わった文の割合表 4 に in-domain データの学習データにおいて,事前学習後の単語分割器と微調整後の単語分割器で単語分割が異なる文の割合を示す. 英日では異なる単語分割となる文 2)英独については付録 $\mathrm{A}$ に掲載する. 3)ここで“-TED”ではなく“TED”である理由は,“-TED” が語彙に登録されていないためである.これは,語彙が JParaCrawl をもとに作成されており,JParaCrawl では “TED” が冒頭となる単語が少なく,“TED”が語中や末尾となる単語が多いためである.表 4: in-domain データにおいて微調整により単語分割が変わった文の割合 $(\%)$. 数は,IWSLT と比較して ASPEC の方が多いことが確認された。これは IWSLT と比較して ASPEC の方が JParaCrawl から離れたドメインデータである(付録 B)ため,微調整によって単語分割器がより変化したのだと考えられる。同様に,英独では EMEA は IWSLT よりも異なる単語分割となる文数が多いことが確認された. この結果は, in-domain データとして使用するコーパスのドメインが特徴的であるほど (general-domain から遠いほど),微調整により単語分割器が大きく変化することを示している. また,微調整により単語分割が変わった文の割合がもっとも高い EMEAであっても $6.68 \%$ と低い割合であり,単語分割器を極端に大きく変化させていないことがわかる.このことから, in-domain データで単語分割器を微調整する際,最小限の調整で翻訳性能を向上させていると考えられる。 ## 6 おわりに 本研究では,ドメイン適応を用いる機械翻訳への単語分割同時最適化の拡張を提案した. 提案手法では単語分割器を大規模な general-domain データで事前学習した後に,小規模な in-domain データで微調整する.実験結果より,提案手法が in-domain デー タの翻訳性能向上に寄与することが確認され,より妥当な単語分割を行うことが可能であることが示唆された。 今後は BERT の事前学習である MLM を行う際に単語分割同時最適化を行い, 得られる単語分割器と事前学習済み BERT をさまざまなタスクで微調整した場合に,タスクの性能が向上するかを検証する。 ## 参考文献 [1] Jia Xu, Jianfeng Gao, Kristina Toutanova, and Hermann Ney. Bayesian semi-supervised Chinese word segmentation for statistical machine translation. In Proceedings of the 22nd International Conference on Computational Linguistics (Coling 2008), pp. 1017-1024, Manchester, UK, August 2008. Coling 2008 Organizing Committee. [2] Pi-Chuan Chang, Michel Galley, and Christopher D Manning. Optimizing chinese word segmentation for machine translation performance. In Proceedings of the third workshop on statistical machine translation, pp. 224-232, 2008. [3] ThuyLinh Nguyen, Stephan Vogel, and Noah A. Smith. Nonparametric word segmentation for machine translation. In Proceedings of the 23rd International Conference on Computational Linguistics (Coling 2010), pp. 815-823, Beijing, China, August 2010. Coling 2010 Organizing Committee. [4] Miguel Domingo, Mercedes Garcıa-Martınez, Alexandre Helle, Francisco Casacuberta, and Manuel Herranz. How much does tokenization affect neural machine translation?, 2018. arXiv:1812.08621. [5] Tatsuya Hiraoka, Sho Takase, Kei Uchiumi, Atsushi Keyaki, and Naoaki Okazaki. Optimizing word segmentation for downstream task. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 1341-1351, Online, November 2020. Association for Computational Linguistics. [6] Tatsuya Hiraoka, Sho Takase, Kei Uchiumi, Atsushi Keyaki, and Naoaki Okazaki. Joint optimization of tokenization and downstream model. In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 244-255, Online, August 2021. Association for Computational Linguistics. [7] Taku Kudo. Subword regularization: Improving neural network translation models with multiple subword candidates. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 66-75, Melbourne, Australia, July 2018. Association for Computational Linguistics. [8] Markus Freitag and Yaser Al-Onaizan. Fast domain adaptation for neural machine translation, 2016. arXiv:1612.06897. [9] Chenhui Chu, Raj Dabre, and Sadao Kurohashi. An empirical comparison of domain adaptation methods for neural machine translation. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 385-391, Vancouver, Canada, July 2017. Association for Computational Linguistics. [10] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 17151725, Berlin, Germany, August 2016. Association for Computational Linguistics. [11] Makoto Morishita, Jun Suzuki, and Masaaki Nagata. JParaCrawl: A large scale web-based English-Japanese parallel corpus. In Proceedings of the Twelfth Language Resources and Evaluation Conference, pp. 3603-3609, Marseille, France, May 2020. European Language Resources Association. [12] Makoto Morishita, Katsuki Chousa, Jun Suzuki, and Masaaki Nagata. JParaCrawl v3.0: A large-scale English-Japanese parallel corpus. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 6704-6710, Marseille, France, June 2022. European Language Resources Association. [13] Miquel Esplà, Mikel Forcada, Gema Ramírez-Sánchez, and Hieu Hoang. ParaCrawl: Web-scale parallel corpora for the languages of the EU. In Proceedings of Machine Translation Summit XVII: Translator, Project and User Tracks, pp. 118-119, Dublin, Ireland, August 2019. European Association for Machine Translation. [14] Mauro Cettolo, Marcello Federico, Luisa Bentivogli, Jan Niehues, Sebastian Stüker, Katsuitho Sudoh, Koichiro Yoshino, and Christian Federmann. Overview of the IWSLT 2017 evaluation campaign. In Proceedings of the 14th International Workshop on Spoken Language Translation, pp. 2-14, 2017 [15] Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. ASPEC: Asian scientific paper excerpt corpus. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC'16), pp. 2204-2208, Portorož, Slovenia, May 2016. European Language Resources Association (ELRA). [16] Jörg Tiedemann. Parallel data, tools and interfaces in OPUS. In Nicoletta Calzolari (Conference Chair), Khalid Choukri, Thierry Declerck, Mehmet Ugur Dogan, Bente Maegaard, Joseph Mariani, Jan Odijk, and Stelios Piperidis, editors, Proceedings of the Eight International Conference on Language Resources and Evaluation (LREC'12), Istanbul, Turkey, may 2012. European Language Resources Association (ELRA). [17] Taku Kudo. MeCab: Yet another part-of-speech and morphological analyzer, 2006. http://taku910. github.io/mecab/. [18] Philipp Koehn, Hieu Hoang, Alexandra Birch, Chris CallisonBurch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, Chris Dyer, Ondřej Bojar, Alexandra Constantin, and Evan Herbst. Moses: Open source toolkit for statistical machine translation. In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics Companion Volume Proceedings of the Demo and Poster Sessions, pp. 177-180, Prague, Czech Republic, June 2007. Association for Computational Linguistics. [19] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics. [20] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [21] Ivan Provilkov, Dmitrii Emelianenko, and Elena Voita. BPEdropout: Simple and effective subword regularization. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1882-1892, Online, July 2020. Association for Computational Linguistics. [22] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics [23] Roee Aharoni and Yoav Goldberg. Unsupervised domain clusters in pretrained language models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7747-7763, Online, July 2020. Association for Computational Linguistics. ## 付録 ## A 英独においてユニグラム確率の 増加率が大きいサブワード 表 5 に英独の in-domain データでの微調整後に, ユニグラム確率が大きく増加したサブワードを示す. EMEA のドイツ語側では “kin” のユニグラム確率の増加率が大きいことが確認された. EMEA の学習データ内では “pharmakokinetik” という医学分野特有の単語が約 1,500 回と頻出しており, この単語は “pharmako / kin / etik” と分割されることが意味的に妥当であると考えられる. また, “Interleukin” や “Hodgkin”のように“kin”で終わる医学系の単語も頻出している. これらのことから, EMEA のドイツ語側では “kin”が重要な役割を持つサブワードであると考えられる. 英語側では “ $\mathrm{g}$ ” のユニグラム確率の増加率が大きいことが確認された. EMEA は医療ドメインであり, 薬品などの質量について記述した文が多くある.そのため,質量の単位である “g”, “mg", “ng”などがコーパス内では頻出している. これらのことから英日と同様に,英独においても in-domain データにおいて重要な役割を持つサブワードのユニグラム確率を増大させていることがわかった. 表 5: 英独翻訳において微調整によりユニグラム確率の増加率が大きいサブワード. ## B コーパスのドメインの離れ具合 使用したコーパスのドメインの離れ具合について報告する. Aharoni ら [23] に倣い, 各コーパスのソース側の文に対して,事前学習済み BERT の隠れ層のベクトルを取得し, PCAを用いて 2 次元可視化を行う. 図 2, 3 に各言語対に使用したコーパスの 2 次元可視化の結果を示す. 図 2 から IWSLT のデー タの多くが JParaCrawl のデータに重なっているのに対し,ASPEC のデータの多くは JParaCrawl のデー タに重なっていないことが確認された。このことから, IWSLT と比較して ASPEC の方が JParaCrawl から離れたドメインデータであると考えられる。同様に図 3 から, IWSLT と比較して EMEA の方が ParaCrawl から離れたドメインデータであると考えられる。 図 2: PCAを用いた英日データセットの BERT 隠れ層の 2 次元可視化. 図 3: PCA を用いた英独データセットの BERT 隠れ層の 2 次元可視化.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-11.pdf
# 質問応答を用いた翻訳評価における GPT-3 の利用 鈴木淳平 1 菅原朔 2 相澤彰子 1,2 1 東京大学 2 国立情報学研究所 junppppsuzuki@gmail.com \{saku,aizawa\}@nii.ac.jp ## 概要 機械翻訳の評価は、人手で行うとコストが高いため、機械を用いて自動で行えることが望ましい。自動評価の一つに、質問応答の技術を利用して、参照訳に対して生成した質問に、機械翻訳結果を文脈として用いて正しく回答できるかに着目する枠組みがある。本研究では、既存研究の精度の低い質問生成のステップを、GPT-3 few-shot 学習することで改善できることを示す。また、回答比較のステップも、既存研究では表層的な一致度のみ考慮していたが、GPT-3を用いて柔軟な比較を行うことで、人手評価との相関だけでなく、難しいとされている数字や日付の翻訳ミスの評価も向上することを示す。 ## 1 はじめに 機械翻訳の評価は、プロの翻訳家による人手評価が最も正確に行えるが、時間的、金銭的なコストの観点から機械によって自動で行えることが望ましい。人手の評価でも、機械による自動評価でも、与えられた参照訳との比較で評価するのが一般的である。計算コストの低さから、最も標準的に使われる自動評価手法は、BLEU [1] に代表される、参照訳と機械翻訳結果の表層的な一致度を測る手法である。 これらの手法は、表層的には異なるが意味的には等しい場合を見逃してしまう。 そこで近年は、BERT [2] 等の大規模言語モデルによる分散表現を用いることで、表層によらず意味的な一致度を捉える自動評価手法が多く提案されている (BERTScore [3]、BLEURT [4]、COMET [5])。 これらの手法は、プロの人手評価との相関が高いことが示されている $[6,7,8]$ 。一方、分散表現による評価手法は、埋め込み空間において近くに位置することが原因で、固有名詞や数字等の深刻な誤訳を見逃してしまうことが報告されている $[7,9]$ 。 他方、機械による翻訳が原文の情報を十分に表現できているなら、参照訳に対する質問を生成した場 図 1 MTEQA の評価の流れ。1. 参照訳から正解と対応する質問を生成、2. 翻訳結果を文脈として用いて質問に回答、3. 参照訳での正解と翻訳結果の回答を比較。 合に、翻訳結果を文脈として用いても正しく回答できるはずである。この仮説に基づいて、質問応答の技術を用いて機械翻訳を評価する MTEQA (Machine Translation Evaluation with Question Answering) [10] が提案されている。図 1 に評価過程を示す。まず参照訳内の重要な情報について質問と正解を生成し、それらに機械翻訳結果を文脈として用いて QA モデルに回答させ、最後に参照訳からの正解と翻訳結果からの回答を比較することで評価する。この手法の利点としては、評価手順で使われた質問、正解、回答を実際に見ることで、なぜその評価値になったかを容易に知ることができる解釈性を持つ。しかし既存研究において、ある程度の人手評価との相関は示されていたが、質問生成の質が低く、回答比較の部分も表層一致しか着目できていない。 そこで本研究では、質問生成の部分を正解の抽出を含めて GPT-3 [11] で行うことで、適切な質問の割合が増え、人手評価との相関が向上することを示す。さらに、回答比較の部分も GPT-3を用いて、意味を考慮して柔軟に比較する (例: “ 15 ”に対して “ifteen”を正解にする)ことで人手評価との相関だけでなく、上で挙げた分散表現による評価手法が苦手とする誤訳への評価性能も向上することを示す。 表 1 GPT-3 による質問と正解の生成のためのプロンプト内の具体例。 Context: The league narrowed the bids to three sites: New Orleans' Mercedes-Benz Superdome, Miami's Sun Life Stadium, and the San Francisco Bay Area's Levi's Stadium. Q\&A: Answer: Levi's Stadium Question: What is located in the San Francisco Bay Area? Answer: New Orleans Question: Where is Mercedes-Benz Superdome located? Answer: ... ## 2 MTEQA-GPT-3 MTEQA は、図 1 が示すように、質問生成、質問応答、回答比較の三つのステップからなる。 ## 2.1 質問生成 (Question Generation; QG) 最初のステップでは、与えられた比較対象の参照訳から、重要な情報について質問と正解を生成する。既存の MTEQA [10] では、まず参照訳に対して品詞の系列ラベリングを行い、名詞等を回答候補として抽出し、文脈と回答候補から質問を生成するように訓練された T5 モデル [12] に入力する。 本研究では、より質問と回答が一貫しておりかつ文脈から回答可能な質問の割合を増やすために GPT-3 few-shot 学習した。表 1 に few-shot プロンプト内の具体的な例を示す。回答抽出と質問生成は分けずに 1 つの参照訳を与元、固有名詞や数字等について複数の回答と質問のペアを生成するように学習させた。ここで、質問生成の質が向上していることを確かめるために、WMT21(Workshop on Statistical Machine Translation)[13] の中国語から英語への翻訳タスクからランダムに 10 個参照訳を選んで、両者で質問生成を行った。質問と正解が一貫しており、かつ生成元の参照訳から回答可能なものの個数を数えた。結果として、適切な質問と回答の割合が、既存の $\mathrm{T} 5$ モデルが 0.603 (47 / 78 件)、提案手法の GPT-3 が 0.974 (38 / 39 件)であった。質問生成の質が改善されたことが分かる。以降、“MTEQA-gpt3-qg-”で始まる手法が提案手法である。 ## 2.2 質問応答 (Question Answering; QA) 次に、2.1 節で生成された質問に、機械翻訳結果を文脈として抽出型の機械読解モデルに回答させる。 MTEQA と提案手法共に、SQuAD-v1 [14] で訓練した $\mathrm{T} 5$ モデルを用いる。テストデータでの F1 スコア表 2 GPT-3による柔軟な回答比較のためのプロンプト内の具体例。 Context: It certainly paid off, since he played splendidly in a different role from normal, and was able to score 15 points. Question: In what role did he score 15 points? Correct Answer: different role Student's Answer: different Output: Correct. In this context, "different" is accepted. ..... Student's Answer: role Output: Incorrect. The answer should include "different". Student's Answer: unusual role Output: Correct. In this context, "unusual" is accepted. が 90.27 であった。 ## 2.3 回答比較 (Answer Comparison; AC) 最後に、2.1 節で生成された正解と 2.2 節で抜き出された回答との比較を行う。既存研究においては、完全一致 (EM)、単語レベルの F1 スコア (F1)、 BLEU、chrF [15]の4つが採用されていた。しかしこれらは表層的な一致度によることから、正確に比較できないことが多い。例えば、正解が “December 29, 2019” の場合、“Dec 29th, 2019” よりも “November 29, 2019”の方が高得点となってしまう。 そこで本研究では、回答比較の段階でもGPT-3 を利用することで、意味的な一致度を考慮した柔軟な採点を実現する。2.1 節と同様に、GPT-3を回答比較用に few-shot 学習する。表 2 は実際のプロンプト内の具体例を示す。参照訳と質問に対して、 “Correct Answer”として正解を、“Student's Answer” として抜き出された回答を与え、“Output”に比較結果を出力させる。例えば表の三つ目の例では、正解が “different role” に対して、この文脈においては “unusual role”も正解であることを指示している。今回は、出力の最初が “Correct” であれば 1 点、 “Incorrect”であれば 0 点とした。実際に用いたプロンプトの詳細は付録 Bを参照。 ## 3 メタ評価実験 本章では、自動評価手法のメタ評価を行う。自動評価手法の良さは通常、どれだけ人手評価との相関が高いかという観点で行われる。 3.1 節で MQM という人手評価について、 3.2 節で比較のための既存手法について、 3.3 節で MQM との相関に関する実験について、3.4 節で評価の難しい誤訳に関する評価の実験について、 3.5 節でエラー分析を述べる。 ## 3.1 人手評価 従来の WMT の翻訳タスクでは、人手評価として DA (Direct Assessment) [16] を用いてきた。しかし、 DA ではプロの翻訳家の訳が機械翻訳より低い順位になったり、翻訳調と呼ばれる、翻訳特有の癖がある訳の方が好まれてしまうなどの問題が指摘され [8]、WMT21 [6] や WMT22 [7] では、相関すべきスコアとして MQM (Multidimentional Quality Metrics) が使われることになった。MQM では、プロの翻訳家が、参照訳と前後の文脈を見ながら、与えられた翻訳の誤り全てに、深刻度とカテゴリーと共にアノテートする減点方式で行う。本研究でも 3.3 節において、MQM との相関に基づいて比較を行う。 ## 3.2 Baselines 提案手法との比較のためのベースラインとし $\tau$ 、BLEU、chrF、BLEURT-20、COMET-22、MTEQA を用いる。BLEURT-20 と COMET-22 は、WTM21 と WMT22でそれぞれ最も良い自動評価手法のうちの一つであった。付録 A にそれぞれの手法の詳細を記す。また、BERTScore [3] と BLERUT-20は、翻訳の自動評価手法であるが、回答の比較部分にも使えるため、これらも利用する。 ## 3.3 人手評価と自動評価手法の相関 自動評価手法がどれくらい MQM スコアと相関しているか評価する。評価には、WMT22 の Metrics Shared Taskを利用し、言語対は中国語から英語である。テストデータとして、1875 個の中国語の原文があり、それぞれに参照訳が 2 つ用意されており (reference A、 reference B)、18 種類のシステムの翻訳結果が与えられる。システムレベルの相関を測定するので、各自動評価手法がつけたスコアの平均をシステムごとのスコアとみなし、同様に計算された MQM スコアとの相関係数を求める (Pearson、 Spearman)。参照訳が二つ存在するので、一方を参照訳として用いた場合は、もう一方は追加のシステムとみなして相関を計算する。 表 3 に結果を示す。太字の値は、その列において、他の任意の手法に統計的に上回られていないことを示す。4列全てにおいて最も相関が高かったのは、COMET-22 と MTEQA-gpt3-qg-gpt3-ac であった。 また、MTEQA 同士を同じ回答比較方法で比べると (MTEQA-EM と MTEQA-gpt3-qg-EM など)、全て表 3 WMT22 Metrics Shared Task の中国語から英語への翻訳での MQM スコアとのシステムレベルの相関。P Pearson、S はSpearman を表す。太字の値は、その列の任意の値に対して有意に低くない場合を示している。 の組み合わせにおいて、相関係数の值が向上している。つまり、2.2 節で示した質問生成の質の向上が、自動評価手法全体の改善に繋がっている。 さらに、MTEQA-gpt3-qg-gpt3-ac は MTEQA-gpt3qg-\{EM、F1、BLEU、chrF、bertscore、bleurt \}に対し、相関係数の值が有意に向上している。GPT-3を用いた回答比較は、表層一致や分散表現による比較よりも正確に回答の比較が可能なことが示された。 ## 3.4 数値・日付・固有名詞に着目した評価 本節では、自動評価手法にとって正しく評価することが難しい誤訳の評価性能を測定する。本研究では、WMT22 の challenge sets subtask で提案された中国語から英語でのテストデータ [17]を用いる。各データは、原文、参照訳、ある難しい現象に対して正しい訳、誤訳を含んだ訳からなる。表 4 に具体例を示す。Reference 内の “GDP”に対し、正しい訳では "gross domestic product”、誤った訳では “GPP”と訳されていて、自動評価手法は正しい訳により高い点を与えることが求められる。今回は、 3 種類の現象を扱う。Number は、数字に関する誤りが 355 個、D/T は日付に関する誤りが 140 個、NE は固有名詞や専門用語に関する誤りが 110 個含まれる。 メタ評価は、以下の式で表される Kendall's tau-like correlation [6] に従う。ここで、“Concordant”は、正しい訳の方が正しくない訳よりも高い点数がついた個数、“Discordant” はそうでない場合の個数である。 表 4 Challenge set $の$ 具体例。 \\ $ \tau=\frac{\text { Concordant }- \text { Discordant }}{\text { Concordant }+ \text { Discordant }} $ 結果を表 5 に示す。Overall としては、BLEURT-20 と MTEQA-gpt3-qg-gpt3-ac が最も高い相関を示した。 COMET-22 は、人手評価との全体的な相関では高い性能を示すが、今回の Challenge set では上記の 2 手法に及ばなかった。その他の手法では全て負の相関となり、ランダムに点数をつけた場合よりも性能が悪いという結果になった。 カテゴリ別に見ると、BLEURT-20 は D/T と NE に強く、MTEQA-gpt3-qg-gpt3-ac は Number に強い。 COMET-22 は Number や NE の誤りに弱く、分散表現ベースの自動評価手法が数字や固有名詞の誤りを見逃してしまうという過去の研究の観察と一致する $[7,9]$ 。数字同士は Embedding 空間で近い位置に埋め込まれるので、分散表現ベースの手法が見逃してしまうという説明が考えられる。 また、MTEQA-gpt3-qg-gpt3-ac はその他の MTEQA と比較して大幅に性能が向上しており、GPT-3による柔軟な回答比較が寄与していると考えられる。本データセットでは、表 4 の具体例のように、表層的には不正解訳内の誤訳の方が参照訳に近い場合が多々ある。よって、EM、F1、BLEU、chrF等の表層ベースの手法はうまくいかないが、gpt3-acでは意味的な一致度を考慮できるので正しく判定できていると考えられる。さらに、分散表現ベースの BERTScore と BLEURT よりも高い相関を示した。 ## 3.5 エラー分析 3.4 節の実験で、MTEQA-gpt3-qg-gpt3-ac が評価に失敗した例について原因を分析する。各カテゴリについて 30 個ずつランダムに選び、失敗の原因を Data (誤訳が含まれていない)、QG、QA、ACに分類する。結果を表 6 に示す。全体では、誤訳の含まれる箇所について質問ができていない QG のミスが最多であった。またカテゴリごとでは、Number では、表 5 Challenge set における Kendall's tau-like correlation。 Numer は数字、D/T は日時、NE は固有名詞に関する誤り。 表 6 Challenge set における MTEQA-gpt3-qg-gpt3-ac-all のエラー分析。Data はテストデータ、QG は質問生成、QA は質問回答、AC は回答比較のエラー。 AC のミスが多く、“54 million”に対して“54,000,000” を Incorrect と判定するようなミスが見られた。D/T と NE では $\mathrm{QG}$ のエラーが多いので、プロンプトを工夫して質問数を増やすことで改善したい。 ## 4 おわりに 本研究では、質問応答を利用した機械翻訳の評価手法である MTEQA の質問生成部分に GPT-3 を用いることで、より質の高い質問と正解が生成でき、MQM スコアとの相関を改善させた。また、回答比較部分でも、GPT-3を用いて柔軟な採点を行うことで、MQM スコアとの相関で BLEURT を超え、 COMET と同等の性能を記録した。さらに、評価するのが難しい数字や日付等の誤訳をより正確に評価できることを示した。一方、誤訳の部分について質問できていない故にミスを見逃すケースが多くあったので、質問数を増やして参照訳内の情報を網羅できるようにしたい。また、回答比較においても、現状は Correct か Incorrect の二択で判定するが、より柔軟に部分点を与えられるように改良をしたい。 ## 謝辞 本研究は Google Research Grant の支援を受けたものです。 ## 参考文献 [1] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [3] Tianyi Zhang*, Varsha Kishore*, Felix Wu*, Kilian Q. Weinberger, and Yoav Artzi. BERTScore: Evaluating text generation with BERT. In International Conference on Learning Representations, 2020 [4] Thibault Sellam, Dipanjan Das, and Ankur Parikh. BLEURT: Learning robust metrics for text generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7881-7892, Online, July 2020. Association for Computational Linguistics. [5] Ricardo Rei, Craig Stewart, Ana C Farinha, and Alon Lavie. COMET: A neural framework for MT evaluation. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 2685-2702, Online, November 2020. Association for Computational Linguistics. [6] Markus Freitag, Ricardo Rei, Nitika Mathur, Chi-kiu Lo, Craig Stewart, George Foster, Alon Lavie, and Ondřej Bojar. Results of the WMT21 metrics shared task: Evaluating metrics with expertbased human evaluations on TED and news domain. In Proceedings of the Sixth Conference on Machine Translation, pp. 733-774, Online, November 2021. Association for Computational Linguistics. [7] Markus Freitag, Ricardo Rei, Nitika Mathur, Chi kiu Lo, Craig Stewart, Eleftherios Avramidis, Tom Kocmi, George Foster, Alon Lavie, and André F. T. Martins. Results of WMT22 metrics shared task: Stop using BLEU - neural metrics are better and more robust. In Proceedings of the Seventh Conference on Machine Translation. Association for Computational Linguistics, 2022. [8] Markus Freitag, George Foster, David Grangier, Viresh Ratnakar, Qijun Tan, and Wolfgang Macherey. Experts, errors, and context: A large-scale study of human evaluation for machine translation. Transactions of the Association for Computational Linguistics, Vol. 9, pp. 1460-1474, 2021. [9] Katsuhito Sudoh, Kosuke Takahashi, and Satoshi Nakamura. Is this translation error critical?: Classification-based human and automatic machine translation evaluation focusing on critical errors. In Proceedings of the Workshop on Human Evaluation of NLP Systems (HumEval), pp. 46-55, Online, April 2021. Association for Computational Linguistics. [10] Mateusz Krubiński, Erfan Ghadery, Marie-Francine Moens, and Pavel Pecina. Just ask! evaluating machine translation by asking and answering questions. In Proceedings of the Sixth Conference on Machine Translation, pp. 495-506, Online, November 2021. Association for Computational Linguistics. [11] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In H. Larochelle, M. Ranzato, R. Hadsell, M.F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Curran Associates, Inc., 2020 [12] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020. [13] Farhad Akhbardeh, Arkady Arkhangorodsky, Magdalena Biesialska, Ondřej Bojar, Rajen Chatterjee, Vishrav Chaudhary, Marta R. Costa-jussa, Cristina España-Bonet, Angela Fan, Christian Federmann, Markus Freitag, Yvette Graham, Roman Grundkiewicz, Barry Haddow, Leonie Harter, Kenneth Heafield, Christopher Homan, Matthias Huck, Kwabena Amponsah-Kaakyire, Jungo Kasai, Daniel Khashabi, Kevin Knight, Tom Kocmi, Philipp Koehn, Nicholas Lourie, Christof Monz, Makoto Morishita, Masaaki Nagata, Ajay Nagesh, Toshiaki Nakazawa, Matteo Negri, Santanu Pal, Allahsera Auguste Tapo, Marco Turchi, Valentin Vydrin, and Marcos Zampieri. Findings of the 2021 conference on machine translation (WMT21). In Proceedings of the Sixth Conference on Machine Translation, pp. 1-88, Online, November 2021. Association for Computational Linguistics. [14] Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, and Percy Liang. SQuAD: 100,000+ questions for machine comprehension of text. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2383-2392, Austin, Texas, November 2016. Association for Computational Linguistics. [15] Maja Popović. chrF: character n-gram F-score for automatic MT evaluation. In Proceedings of the Tenth Workshop on Statistical Machine Translation, pp. 392-395, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [16] Yvette Graham, Timothy Baldwin, Alistair Moffat, and Justin Zobel. Continuous measurement scales in human evaluation of machine translation. In Proceedings of the 7th Linguistic Annotation Workshop and Interoperability with Discourse, pp. 33-41, Sofia, Bulgaria, August 2013. Association for Computational Linguistics. [17] Xiaoyu Chen, Daimeng Wei, Hengchao Shang, Zongyao Li, Zhanglin Wu, Zhengzhe Yu, Ting Zhu, Mengli Zhu, Ning Xie, Lizhi Lei, Shimin Tao, Hao Yang, and Ying Qin. Exploring robustness of machine translation metrics: A study of twenty-eight automatic metrics in the WMT22 metric task. In Proceedings of the Seventh Conference on Machine Translation, 2022. [18] Ondřej Bojar, Yvette Graham, and Amir Kamran. Results of the WMT17 metrics shared task. In Proceedings of the Second Conference on Machine Translation, pp. 489-513, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [19] Hyung Won Chung, Thibault Fevry, Henry Tsai, Melvin Johnson, and Sebastian Ruder. Rethinking embedding coupling in pre-trained language models. In International Conference on Learning Representations, 2021 [20] Ricardo Rei, José G. C. de Souza, Duarte Alves, Chrysoula Zerva, Ana C Farinha, Taisiya Glushkova, Alon Lavie, Luisa Coheur, , and André F. T. Martins. COMET-22: Unbabel-ist 2022 submission for the metrics shared task. In Proceedings of the Seventh Conference on Machine Translation, 2022. 表 7 回答比較のプロンプトの全例 1 。 Context: Herro missed 15 games in February and March due to an ankle injury, and the season began a long hiatus after his first game back against the Hornets on March 12th. Question: What date did Herro's first game back after the injury take place? Correct Answer: March 12th Student's Answer: March 12 Output: Correct. "March 12" is accepted. Student's Answer: 12th Output: Incorrect. The answer should include "March". Student's Answer: April 12th Output: Incorrect. In this context, the answer should be not "April" but "March". ## A Baseline 手法の詳細 - BLEU [1]は、機械翻訳と参照訳の間の n-gram precision と短い翻訳に対するぺナルティで計算される。3.4 節では、一文単位での評価のためのスムージング処理が加わった手法である SentBLEU [18]を用いる。 - chrF [15] は、機械翻訳と参照訳の間の文字レベルの n-gram precision である。 ・BLEURT-20 [4] は、RemBERT [19] を機械翻訳と参照訳を入力としてDA スコアを予測するように、過去の WMT のデータで訓練したものである。WMT21において最高性能の自動評価手法のうちの一つである。 -COMET-22 [20]は、多言語モデルを用いて原文、機械翻訳、参照訳をそれぞれ埋め込み、それらのべクトルの組み合わせから、DA スコアを予測するように訓練したものと、MQM スコアを予測するように訓練したもののアンサンブルモデルである。WMT22において最高性能の自動評価手法のうちの一つである。 - BERTScore[3] は、参照訳と機械翻訳のそれぞれのトークンに対する埋め込み表現を BERT を用いて計算し、参照訳内の各トークンに対して機械翻訳内で最も似ているトークンのアラインメントをとることで計算する。 ## B AC のプロンプト詳細 Answer Comparison 用のプロンプトには、日付、固有名詞、数字、形容詞、副詞の比較を学習させる例がそれぞれ 3つずつ含まれる。表 7 は日付の例、表 8 は固有名詞の例、表 9 は数字、形容詞、副詞の実際の例を示す。これらは、GPT-3による質問生成でよく質問の対象になっていたことから選ばれた。表 8 回答比較のプロンプトの全例 2。 Context: The data shows that, up to now, Brazil ranks second in the world in terms of the number of confirmed cases and deaths behind the United States. Question: Which country is first in the world in terms of the number of confirmed cases and deaths? Correct Answer: United States Student's Answer: the United States of America Output: Correct. The student's answers has the same meaning as the correct answer. Student's Answer: UK Output: Incorrect. In this context, the answer should be "United States". Student's Answer: U.S. Output: Correct. In this context, "U.S." is accepted. 表 9 回答比較のプロンプトの全例 3。 Context: It certainly paid off, since he played splendidly in a different role from normal, and was able to score 15 points. Question: How many points did the player score? Correct Answer: 15 points Student's Answer: 15 Output: Correct. In this context, "15" is accepted. Student's Answer: 150 points Output: Incorrect. In this context, "150" doesn't have the same meaning as " 15 ". Student's Answer: fifteen Output: Correct. In this context, "fifteen" is accepted. Question: In what role did he score 15 points? Correct Answer: different role Student's Answer: different Output: Correct. In this context, "different" is accepted. Student's Answer: role Output: Incorrect. The answer should include "different". Student's Answer: unusual role Output: Correct. In this context, "unusual" is accepted. Question: How did he play in a different role? Correct Answer: splendidly Student's Answer: excellently Output: Correct. In this context, "excellently" is accepted. Student's Answer: different Output: Incorrect. In this context, "different" doesn't have the same meaning as "splendidly". Student's Answer: magnificently Output: Correct. In this context, "magnificently" is accepted.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-12.pdf
# バイリンガルサブワード分割のための EM アルゴリズム 松井 大樹 1 二宮崇 ${ }^{2}$ 田村 晃裕 ${ }^{3}$ 1 愛媛大学 2 愛媛大学大学院理工学研究科 3 同志社大学 matsui@ai.cs.ehime-u.ac.jp ninomiya@cs.ehime-u.ac.jp aktamura@mail.doshisha.ac.jp ## 概要 本論文ではニューラル機械翻訳のための EM アルゴリズムを用いたバイリンガルサブワード分割法を提案する。機械翻訳记おける一般的なサブワード分割では対訳関係を考慮せずに各言語ごとにサブワー ド分割を学習するため,機械翻訳タスクに適したサブワード分割になるとは限らない. 本研究は対訳コーパスを用い,原言語文と目的言語文の対訳関係を考慮したサブワード分割のための EMアルゴリズムを提案する。提案手法は対訳情報を用いるため, より機械翻訳タスクに適したサブワードが得られると考えられる. 従来法と提案手法を用いて翻訳性能を比較したところ,WAT ASPEC 英日・日英タスクにおいて, Transformer NMT モデルの性能が最大で 0.6 ポイント改善した. ## 1 はじめに ニューラル機械翻訳(Neural Machine Translation,以下 NMT) [1,2,3]では,予め指定した語彙氾基づいて計算を行うため, 翻訳時の原言語文に低頻度語や未知語が表れると翻訳性能が低下する。このような語彙の問題に対処するため, バイトペア符号化 (Byte Pair Encoding, 以下 BPE)(Sennrich et al. 2016) [4] やユニグラム言語モデル(Kudo 2018) [5] などによるサブワード分割が現在広く用いられている。 BPE によるサブワード分割は事前トークナイズを要すのに対し,SentencePiece(Kudo 2018)[6] によるユニグラム言語モデルは生文からサブワード列に直接分割するため, 日本語や中国語といった分かち書きされていない言語においても形態素解析器を必要としない. しかしながら,これらの分割法は対訳関係を考慮せず,各言語ごとにサブワード分割を学習するため,機械翻訳タスクに適したサブワード分割に なるとは限らない。例として,日英翻訳において, “nonextended”と“延長されなかった”という対訳対があるとする。この場合,“nonextended” は “no next end ed" などよりも “non extend ed" のほうが優れた分割であり,“延長されなかった”は“延長されなかった”などよりも“延長されなかった” のほうが優れた分割である。これは NMT が各サブワードの対訳関係 “non”と“されな”, “extend”と“延長”, “ed”と“かった”を対応付けて学習できるためである。これらの問題を解決するために,対訳関係を考慮したバイリンガルサブワード分割 $[7,8]$ が提案されている. しかし, 出口ら [7] のバイリンガルサブワード分割は原言語サブワード列と目的言語サブワード列のトークン長をそろえるものであり, トークン長が近いとはいえ各トークンがアライメン卜関係にあるとは必ずしも言えない. Hiraoka ら [8] のバイリンガルサブワード分割は NMT モデルとサブワード分割モデルが一体化しており,利用する場合には同時に NMT モデルの学習が必要となり, サブワード分割および機械翻訳モデルの学習に大きなコストを要する。 本論文では,対訳情報からサブワード列を得る新たなサブワード分割法を提案する. 提案手法は,分かち書きされない言語を含む翻訳性能を改善するため, SentencePiece によるユニグラム言語モデル分割に基づいたサブワード列を得る. バイリンガルサブワード分割のための確率モデルを新た淀義し, 原言語のサブワードと目的言語のサブワードが対となる確率を EMアルゴリズムを用いて求める。具体的に,提案手法は,ユニグラム言語モデルによって得られる原言語文と目的言語文それぞれの分割候補の組み合わせを求め, 各対のサブワードのアライメン卜関係を取得し, ユニグラム言語モデルによる生起確率とアライメント確率を掛け合わせ,確率が最も大きくなるサブワード列対を選択する。提案手法を 用いることで,原言語文と目的言語文のトークンの対訳関係が整うことになり,言語間でトークンが 1 対 1 に対応付けされやすくなる。 そのため,従来のサブワード分割法より NMT に適した分割が得られることが期待される. 本手法は原言語文と目的言語文の対訳アライメン卜関係を利用して分割するため,対訳コーパスが与えられる訓練時には問題は起きないが,原言語文しか与えられない翻訳時にはそのままではサブワード分割ができない. そこで提案手法では,EMアルゴリズムによって求められたアライメント確率の周辺化を行い,ユニグラム言語モデルによる生起確率と各原言語文サブワードの周辺確率を掛け合わせ,確率が最も大きくなるサブワード分割候補を選択する. WAT Asian Scientific Paper Excerpt Corpus (以下, ASPEC)[9] 英日・日英タスクにおいて,従来法と提案手法を用いた翻訳性能を比較したところ, Transformer NMT モデルの性能が改善した. ## 2 従来法 本節では提案手法の基礎となるユニグラム言語モデルに基づいたサブワード分割法(Kudo 2018)について説明する. ユニグラム言語モデルでは,各サブワードが独立に生起すると仮定し,サブワード列の生起確率 $P_{\mathrm{U}}(\boldsymbol{x})$ を次式により表す. $ \begin{aligned} & P_{\mathrm{U}}(\boldsymbol{x})=\prod_{i=1}^{I} P\left(x_{i}\right) \\ & \forall i \quad x_{i} \in V, \quad \sum_{x \in V} P(x)=1 \end{aligned} $ ただし, $\boldsymbol{x}=\left(x_{1}, x_{2}, \ldots, x_{I}\right)$ はサブワード列であり, $V$ は語彙集合(サブワード辞書)である.各サブワー ドの生起確率 $P\left(x_{i}\right)$ は EM アルゴリズムによって周辺尤度 $L_{l m}$ を最大化することにより推定される. $ \begin{aligned} L_{l m} & =\sum_{s=1}^{|D|} \log \left(P\left(X_{S}\right)\right) \\ & =\sum_{s=1}^{|D|} \log \left(\sum_{\boldsymbol{x} \in S\left(X_{S}\right)} P_{\mathrm{U}}(\boldsymbol{x})\right) \end{aligned} $ ただし, $D$ は対訳コーパスであり, $X_{s}$ は $D$ の中の $s$番目の原言語文または目的言語文であり, $S\left(X_{S}\right)$ は $X_{S}$ の分割候補集合である. 生起確率が最大となるサブワード列(最尤解)は次式によって得られる。 $ \boldsymbol{x}^{*}=\underset{\boldsymbol{x} \in S(X)}{\arg \max } P_{\mathrm{U}}(\boldsymbol{x}) $ ただし, $X$ は原言語文または目的言語文である。また, $k$-best 分割候補も $X$ に対するユニグラム言語モデルによって計算される確率 $P_{\mathrm{U}}(\boldsymbol{x})$ に基づいて得ることが出来る.ただし,サブワード列の生起確率は各サブワードの尤度の積の形で表されるため,系列長の短い(トークン数の少ない)サブワード列が高い確率を持つ傾向がある. SentencePiece におけるユニグラム言語モデルを用いたサブワード分割は生文から直接学習できるため, 日本語や中国語といった分かち書きされない言語においても単語分割器や形態素解析器を必要とせずに分割できるという特徴がある. ## 3 提案手法 本節では,提案手法となるバイリンガルサブワー ド分割のための EM アルゴリズムについて説明する. まず,サブワード文対の確率モデルの定義を与え,その後,EMアルゴリズムによるパラメータ更新式の導出,対訳コーパスのサブワード分割を行う手法,翻訳時のサブワード分割を行う手法について説明する.提案手法は NMT モデルや訓練法を修正する必要はなく,従来のサブワード分割法を置き換えるだけで適用可能である。 確率モデルは,ユニグラム言語モデルが出力するサブワード列の生起確率と原言語サブワードと目的言語サブワードのアライメント確率の積で与えられる. ただし,各原言語サブワード列と目的言語サブワード列及びそれらのアライメントは明示的に与えられておらず,隠れ状態となっている。 そのため,潜在変数付き確率モデルの学習として有名な EMアルゴリズムを用いて,アライメント確率を学習する. 次に, 最も確率の高いサブワード列のアライメントを選択することで,訓練コーパスのサブワード分割を行う。 NMT の訓練時には対訳コーパスを利用できるが,翻訳時には対訳文が存在しない。そこで,原言語側サブワードのみを参照する周辺確率を求めることで,原言語文のサブワード分割を行う。 ## 3.1 提案手法の確率モデル 原言語文 $X$ と目的言語文 $Y$ が与えられたとき,提案手法における確率モデルを次のように定義する. $ \begin{aligned} P(X, Y) & =\sum_{\boldsymbol{x} \in S(X)} \sum_{\boldsymbol{y} \in S(Y)} P_{\mathrm{M}}(\boldsymbol{x}, \boldsymbol{y}) \\ & \approx \sum_{k=1}^{K} \sum_{l=1}^{L} P_{\mathrm{M}}\left(\boldsymbol{x}^{(k)}, \boldsymbol{y}^{(l)}\right) \end{aligned} $ ただし, $X$ に対するサブワード分割候補 $S(X)$ のうち, サブワード生起確率 $P_{\mathrm{U}}(\boldsymbol{x})$ が高い top- $K$ 個をそれぞれ $\boldsymbol{x}^{(1)}, \ldots, \boldsymbol{x}^{(k)}, \ldots, \boldsymbol{x}^{(K)}, Y$ に対するサブワード分割候補 $S(Y)$ のうち, サブワード生起確率 $P_{\mathrm{U}}(\boldsymbol{y})$ が高い top- $L$ 個をそれぞれ $\boldsymbol{y}^{(1)}, \ldots, \boldsymbol{y}^{(l)}, \ldots, \boldsymbol{y}^{(L)}$ とする.また, $P_{\mathrm{M}}$ は原言語文のサブワード列 $\boldsymbol{x}$ と目的言語文のサブワード列 $\boldsymbol{y}$ に対する確率モデルであり,次式で定義する. $ P_{\mathrm{M}}(\boldsymbol{x}, \boldsymbol{y})=P_{\mathrm{U}}(\boldsymbol{x}) P_{\mathrm{U}}(\boldsymbol{y}) \prod_{u, v \in A(\boldsymbol{x}, \boldsymbol{y})} \alpha_{u v} $ ただし, $A(\boldsymbol{x}, \boldsymbol{y})$ は原言語のサブワード列 $\boldsymbol{x}$ と目的言語のサブワード列 $\boldsymbol{y}$ の間のアライメントを返す関数であり,アライメントは対応するサブワード対の集合とする. また, $\alpha_{u v}$ は原言語側サブワード $u$ と目的言語側サブワード $v$ が対応する確率である. ## 3.2 アライメント確率 $\alpha_{u v$ の算出} ユニグラム言語モデル $P_{\mathrm{U}}$ とアライメントを返す関数 $A$ は所与のものとして,EM アルゴリズムを用いてアライメント確率 $\alpha_{u v}$ を求める. $ \begin{gathered} P_{\mathrm{M}}^{\mathrm{old}}(\boldsymbol{x}, \boldsymbol{y})=P_{\mathrm{U}}(\boldsymbol{x}) P_{\mathrm{U}}(\boldsymbol{y}) \prod_{u, v \in A(\boldsymbol{x}, \boldsymbol{y})} \alpha_{u v}^{\mathrm{old}} \\ P_{\mathrm{M}}^{\mathrm{new}}(\boldsymbol{x}, \boldsymbol{y})=P_{\mathrm{U}}(\boldsymbol{x}) P_{\mathrm{U}}(\boldsymbol{y}) \prod_{u, v \in A(\boldsymbol{x}, \boldsymbol{y})} \alpha_{u v}^{\text {new }} \\ Q=\sum_{n} \sum_{k} \sum_{l}\left(\frac{P_{\mathrm{M}}^{\mathrm{old}}\left(\boldsymbol{x}_{n}^{(k)}, \boldsymbol{y}_{n}^{(l)}\right) \log P_{\mathrm{M}}^{\mathrm{new}}\left(\boldsymbol{x}_{n}^{(k)}, \boldsymbol{y}_{n}^{(l)}\right)}{\sum_{k^{\prime}} \sum_{l^{\prime}} P_{\mathrm{M}}^{\mathrm{old}}\left(\boldsymbol{x}_{n}^{\left(k^{\prime}\right)}, \boldsymbol{y}_{n}^{\left(l^{\prime}\right)}\right)}\right) \end{gathered} $ $\alpha_{u v}^{\text {new }}$ に関して $\mathrm{Q}$ 関数を最大化することにより, $\alpha_{u v}^{\text {new }}$ の更新式を得る. $ \begin{gathered} \alpha_{u v}^{\text {new }}=\frac{\sum_{n} \sum_{k} \sum_{l} E_{n k l u v}}{\sum_{u^{\prime \prime}} \sum_{v^{\prime \prime}} \sum_{n} \sum_{k} \sum_{l} E_{n k l u^{\prime \prime} v^{\prime \prime}}} \\ E_{n k l u v}=\frac{P_{\mathrm{M}}^{\mathrm{old}}\left(\boldsymbol{x}_{n}^{(k)}, \boldsymbol{y}_{n}^{(l)}\right)}{\sum_{k^{\prime}} \sum_{l^{\prime}} P_{\mathrm{M}}^{\mathrm{old}}\left(\boldsymbol{x}_{n}^{\left(k^{\prime}\right)}, \boldsymbol{y}_{n}^{\left(l^{\prime}\right)}\right)} C_{n k l u v} \end{gathered} $ ただし, $C_{n k l u v}$ は, $n$ 番目の文対における原言語のサブワード列 $\boldsymbol{x}_{n}^{(k)}$ と目的言語のサブワード列 $\boldsymbol{y}_{n}^{(l)}$ に対し,サブワード $u$ と $v$ がアライメント関係となっている回数である. ## 3.3 訓練データのサブワード分割 訓練データ $D$ の各文対 $X, Y$ に対して,次式に従ってサブワード列 $\boldsymbol{x}^{(\hat{k})}, \boldsymbol{y}^{(\hat{\imath})}$ を求め, サブワード文対として採用する。 $ \hat{k}, \hat{l}=\underset{k, l}{\arg \max } P_{\mathrm{M}}\left(\boldsymbol{x}^{(k)}, \boldsymbol{y}^{(l)}\right) $ ## 3.4 翻訳時のサブワード分割 翻訳時におけるサブワード分割では,アライメント確率を目的言語側サブワードで周辺化することによって原言語側サブワードの確率を求める. テストデータの各文 $X$ に対して,次式に従ってサブワード列 $\boldsymbol{x}^{(\hat{k})}$ を求め,サブワード文として採用する. $ \begin{gathered} \alpha_{u}^{\prime}=\sum_{v \in V_{\text {target }}} \alpha_{u v} \\ \hat{k}=\underset{k}{\arg \max } P_{\mathrm{M}^{\prime}}\left(\boldsymbol{x}^{(k)}\right) \\ P_{\mathrm{M}^{\prime}}(\boldsymbol{x})=P_{\mathrm{U}}(\boldsymbol{x}) \prod_{u \in \boldsymbol{x}} \alpha_{u}^{\prime} \end{gathered} $ ただし, $V_{\text {target }}$ は目的言語側のサブワード集合である. ## 4 実験 ## 4.1 実験設定 提案手法と従来法 (ユニグラム言語モデル) の翻訳性能を比較した. ユニグラム言語モデルによるサブワード列候補集合を得るために, SentencePiece ${ }^{1)}$ 利用した. 原言語側サブワードと目的言語側サブワードのアライメントを得るために, fast_align ${ }^{2)}[10]$ を利用した.NMT には Fairseq [11] 使用し, Transformer base (Vaswani et al. 2017)[12] モデルを利用した。翻訳性能を評価するために,sacreBLEUを利用した。 sacreBLEU [13] の日本語のトークナイズには ja-mecab [14] を,英語のトークナイズには $13 \mathrm{a}$ を利用した. ## 4.2 データセットとハイパーパラメータ データセットには WAT ASPEC 英日・日英翻訳タスク3)を用いた.NMT の訓練には訓練データのうち,100万文対 (train-1.txt) を利用した. 開発データ  表 1 ASPEC 英-日における翻訳性能の比較(BLEU(\%)) & \\ 表 2 提案手法の良い例 とテストデータのデータ数はそれぞれ $1,790,1,812$文対であった. ユニグラム言語モデルの学習は,原言語側と目的言語側で独立して行い,辞書サイズはどちらも 16,000に設定した. 候補数は原言語側と目的言語側それぞれユニグラム言語モデルによるサブワード生起確率が高い上位 10 通り(top- $k=$ top- $l=10 )$ とした. すべての Transformer base モデルにおいて, パラメータの最適化には adam(Kingma and Ba 2014) [15],学習率は 1e-4,バッチサイズは 128 とし,その他のパラメータは Fairseq のデフォルトのままとした. 学習は 30 エポックで終了させ,各エポックのモデルのうち,開発データ上で最も性能のよかったものを利用してテストデータの翻訳を行った. 実験はランダムシードを変えて 2 度行い,その平均を実験結果とした. ## 4.3 実験結果 実験結果の BLEU [16] スコアを表 1 に示す。表 1 から分かる通り,バイリンガルサブワード分割は英日,日英翻訳の両言語方向において,ユニグラム言語モデルより性能が改善されている.バイリンガルサブワード分割を用いることでユニグラム言語モデルに対し,英日・日英翻訳においてそれぞれ 0.4, 0.6BLEU ポイントの性能改善が確認された. ## 4.4 考察 提案手法によるサブワード分割について考察する. バイリンガルサブワード分割を用いることで良く翻訳できた例を表 2 に示す。提案手法は従来手法よりも原言語サブワードが出力結果に対応するように分割されていることから,正確に翻訳できたと & \\ 表 3 提案手法の悪い例 考えられる,バイリンガルサブワード分割を用いることで悪くなった例を表 3 に示す. 提案手法は従来手法よりも細かく分割されており,“express”と“急行”,“way”と “路”を関連付けるよう学習していることから,“express way”を “急行路”と不正確に翻訳したと考えられる。 ## 5 まとめ 本論文では,確率モデルと EM アルゴリズムを用いたニューラル機械翻訳のための新たなサブワード分割法を提案した。アライメント確率を導入したバイリンガルサブワード分割のための確率モデルの定義を与え,そのアライメント確率を求める EM アルゴリズムを導出した.訓練コーパスに対するサブワード分割は,提案する確率モデルを用いて,最も確率の高いサブワード列対を選択することで実現した。翻訳時には,目的言語側のサブワード列が得られないため直接提案モデルを適用することはできないが,アライメント確率を周辺化することで,原言語側だけで定義される確率モデルを与えた.実験の結果,WAT ASPEC 英日・日英翻訳タスクにおいて, Transformer NMT モデルの性能が改善し,提案手法の有効性を確認した。 今後の課題として,条件付き確率を導入することでアライメントの方向性を考慮した確率モデルに拡張することや,英日以外の言語対での実験等が挙げられる。 ## 謝辞 本研究は国立研究開発法人情報通信研究機構の委託研究(課題番号:225)による助成および JSPS 科研費 JP21K12031による助成を受けたものです. ## 参考文献 [1] Ilya Sutskever, Oriol Vinyals, and Quoc V. Le. Sequence to sequence learning with neural networks, 2014. [2] Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate, 2014. [3] Thang Luong, Hieu Pham, and Christopher D. Manning. Effective approaches to attention-based neural machine translation. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 1412-1421, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [4] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, Berlin, Germany, August 2016. Association for Computational Linguistics. [5] Taku Kudo. Subword regularization: Improving neural network translation models with multiple subword candidates. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 66-75, Melbourne, Australia, July 2018. Association for Computational Linguistics. [6] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics. [7] 出口祥之, 内山将夫, 田村晃裕, 二宮崇, 隅田英一郎. ニューラル機械翻訳のためのバイリンガルなサブワード分割. 自然言語処理, Vol. 28 , No. 2, pp. 632-650, 2021. [8] Tatsuya Hiraoka, Sho Takase, Kei Uchiumi, Atsushi Keyaki, and Naoaki Okazaki. Joint optimization of tokenization and downstream model. In Findings of the Association for Computational Linguistics: ACLIJCNLP 2021, pp. 244-255, Online, August 2021. Association for Computational Linguistics. [9] Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. ASPEC: Asian scientific paper excerpt corpus. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC'16), pp. 2204-2208, Portorož, Slovenia, May 2016. European Language Resources Association (ELRA). [10] Chris Dyer, Victor Chahuneau, and Noah A. Smith. A simple, fast, and effective reparameterization of IBM model 2. In Proceedings of the 2013 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 644-648, Atlanta, Georgia, June 2013. Association for Computational Linguistics. [11] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 48-53, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [12] Sufeng Duan and Hai Zhao. Attention is all you need for Chinese word segmentation. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 3862-3872, Online, November 2020. Association for Computational Linguistics. [13] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Brussels, Belgium, October 2018. Association for Computational Linguistics. [14] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to Japanese morphological analysis. In Proceedings of the $\mathbf{2 0 0 4}$ Conference on Empirical Methods in Natural Language Processing, pp. 230-237, Barcelona, Spain, July 2004. Association for Computational Linguistics. [15] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization, 2014. [16] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-13.pdf
# 多言語事前学習モデルのための SentencePiece トークナイザーへのサブワード追加 今村賢治隅田英一郎 国立研究開発法人 情報通信研究機構 \{kenji.imamura, eiichiro.sumita\}@nict.go.jp ## 概要 多言語事前学習モデルは、トークナイザーが確定した上で事前学習されているため、多言語事前学習モデルを新規言語に拡張する際は、トークナイザー も同時に修正する必要がある。本稿では、多言語事前学習モデルを新規言語(本稿ではイヌイット語) に対応させるため、SentencePiece トークナイザーに新規サブワードを追加する。我々の実験では、既存言語のサブワード分割を変更せずに、イヌイット語のサブワード分割が可能となり、mBART-50 事前学習モデルを英語・イヌイット語翻訳に適用することができた。 ## 1 はじめに 近年、さまざまな事前学習モデルがリリースされている。その中でも、mBERT [1], XLM-RoBERTa [2], mBART [3, 4], mT5 [5] などの多言語モデルは、複数の言語を一つのモデルで学習されているため、言語横断分類や機械翻訳に有効である。しかし、これらの事前学習モデルは、語彙が事前学習時に決定されている。事前学習モデル自体の語彙は、追加するだけなら、単語埋込テーブルを拡張することで可能である [6]。しかし、一般的には、事前学習モデルはトークナイザー(とそのモデル)を確定した上で事前学習されているため、事前学習モデルの語彙を変更する場合、同時にトークナイザーも修正する必要がある。 たとえ新規言語であっても、トークナイザーがサポートしている文字を使用する言語の場合は、(たとえ最適でないとしても)既存モデルが流用可能である。一方、トークナイザーがサポートしていない文字が使われている言語の場合、未知語となってしまうため、何らかの対処が必要となる。 本稿では、多言語事前学習モデルのトークナイ ザーに焦点を当てる。具体的には、mBART-50 [7] を新規言語に対応させるため、SentencePiece トークナイザー $[8,9]$ に新規サブワードを追加する。タスクは、国際会議 WMT-20 [10] のニュース翻訳タスクで対象となったイヌイット語・英語翻訳である。 mBART-50 も、それに付随する SentencePiece も、モデルにはイヌイット語を含んでいない。 われわれの目標は、新規言語に事前学習モデルを適用するために、既存言語のトークナイズ結果を極力変えないようにしながら、新規言語に対してサブワード化方法を提供することである。既存言語の解析結果を変えないことによって、事前学習モデルの効果を最大限活用できる。 ## 2 SentencePiece トークナイザー SentencePiece は入力文字列をそのままサブワード分割できるトークナイザーである(無損失符号化と呼ばれている)。英語のように単語区切りがスペー ス文字によって明示されている言語と、日本語、中国語のように単語間に区切り文字がない言語を混在して扱うことができるため、多言語事前学習モデルのトークナイザーとして採用されている。 SentencePiece は、バイトペア符号化 [11] などのサブワード方式もサポートしているが、本稿では、 mBART-50 で使用され、SentencePiece のデフォルトとなっているユニグラムモデルについて考える。 ## 2.1 解析方式/サブワード符号化 SentencePiece では、無損失符号化を実現するため、前処理でスペースを特殊文字(デフォルトはユニコードの U+2581)に置換して単語区切りがない文字列にしたのちに、以下の方法でサブワード列に分割する(図 1)[12]。ちなみにこの方法は、日本語の形態素解析方法(たとえば MeCab [13])と同じである。 入力文字列: SentencePiece はは分解する。 図 1 SentencePiece ユニグラムモデルによるサブワード符号化の例。'บ'はスペース文字 $(U+0020)$ を表す。ラティスの各サブワードの上の値はユニグラム対数尤度、赤線はビタビパスを表す。 1. 入力テキストとユニグラムモデル (形態素解析における辞書相当)のサブワードを照合し、すべてのサブワード候補を取得、ラティス構造に配置する。 2. ラティスに対してビタビ探索を行い、最も尤度の高いパスを探索する。最尤パス上のサブワー ド列を出力する。 ## 2.2 ユニグラムモデルの学習 ユニグラムモデルの学習は、隠れマルコフモデル (HMM) の教師なし学習 [12] を応用したものである。以下の手順で行う。基本的に、初期モデルのサブワードを削除することで所定の語彙サイズを得る方式であるので、最終モデルの語彙は、初期モデルの語彙のサブセットとなる。 1. 訓練コーパスから初期モデルを作成する。 (a) 接尾辞配列 (suffix array) でコーパスの部分文字列を獲得し、サブワード候補とする。 (b) 各サブワードには、訓練コーパスの相対頻度を尤度として付与する。 2. モデルの語彙が所定の語彙サイズになるまで、以下を繰り返す。 (a) EM アルゴリズムでモデルの尤度を更新する。 (2 回ループ) i. Eステップ: コーパスの文を現モデルで解析し、前向き後ろ向きアルゴリズムで各サブワードの尤度を算出。 ii. Mステップ: コーパス全体でサブワードの尤度を集計し、モデルを更新。 (b) 低尤度のサブワードをモデルから削除する(たとえば全体の 20\%) ## 3 既存モデルヘのサブワード追加 新規言語が未知の文字を使用している場合、無損失符号化では、文全体が未知語になってしまい、事前学習モデルで扱うべき語彙がわからない。対策として、文字をトークンとして扱う方法があるが、その方法ではトークン列が長くなり、翻訳などの下流タスクには不利になる。本稿ではサブワードを使うことで、語彙を適切に制限しつつ、トークン列の長さも長くしすぎないようにする。 今回は、既存コーパスの解析結果を変更せずに、新規言語のみ適切にサブワード列に符号化するため、既存モデルでは未知となる「文字」を含むサブワードだけを追加する。SentencePiece の追加学習と通常のユニグラムモデル学習との差異は、以下の 2 点である(詳細は付録参照)。 1.(a)訓練コーパスから初期モデルを作成する際、既存モデルには含まれない文字から始まる部分文字列のみをサブワード候補とする。 2.(a)EM アルゴリズムでモデルの尤度を更新する際、 コーパスを既存モデルと追加モデルの統合語彙で解析する。尤度の更新は追加モデルのみに対して行い、既存モデルは更新しない。 ## 4 イヌイット語翻訳実験 本稿では、WMT-20 [10] のニュース翻訳タスクで実施された英語 (En)・イヌイット語 (Iu) 翻訳で評価する。イヌイット語の例を表 1 に示す。イヌイット語は、ユニコードの「統合カナダ先住民音節 (U+1400 - U+167F)」で記述されている。 一方、本稿で対象としている mBART-50 の SentencePiece モデルは、100 言語のコーパスから学習されたサブワード 25 万語から成り立っているが、これには統合カナダ先住民音節を含んでいない。そのため、イヌイット語をこのモデルで解析すると、ほとんどが未知語となり、サブワード化されない1)。 1) SentencePiece は、未知文字が連続すると、それらをまとめて1トークンとして出力する仕様となっている。そのため、 イヌイット語を解析すると、結果的にスペース区切りと同じ出力となる。 表 1 英語・イヌイット語対訳文の例 \\ ## 4.1 実験設定 コーパス WMT-20 共有タスクで使用された対訳コーパスは、訓練セットが約 131 万文、開発セットが 5,173 文、テストセットが 2,971 文である。 トークナイザー設定本実験では、対訳コーパスのイヌイット語側約 131 万文から、追加サブワード $\{2000$ (2K), 4000 (4K), 8000 (8K)\}を学習する。 既存のユニグラムモデルは、spm_export_vocab コマンドでテキストモデルにして使用、2.1 節、 2.2 節を Python で実装し、3 節の変更を行った。なお、入力文字列の正規化(スペース置換を含む)は spm_normalize コマンドで行った。 ベースライン本実験では、 3 種類のベースラインのトークナイズ法を設定する。 - mBART-50 分割モデル: mBART-50 付属の SentencePiece モデルをそのまま用いる場合。 ・イヌイット文字分解: mBART-50 分割モデルでトークナイズ後、イヌイット文字を含む単語を文字に分解する場合。 ・共有語彙 $32 \mathrm{~K}$ モデル:対訳コーパスから新規に両者の共有語彙を SentencePiece で学習する場合。語彙サイズは 3 万 2 千語とする。 翻訳器/モデル本稿では、翻訳器として FairSeq [14] を使用する。 ベースとした事前学習モデル mBART-50 はエンコーダー・デコーダー型のモデルであり、対訳コー パスでファインチューニングすると翻訳器として利用できる。mBART-50 自体は多言語モデルであるので、 1 回のファインチューニングで、En $\rightarrow \mathrm{Iu}$ と Iu $\rightarrow$ En の双方向モデルを学習・使用する。 mBART-50 自体の新規言語への拡張は、単語埋込を拡張する[6] の方法を使用した。具体的には、 mBART-50 でイヌイット語翻訳を実現するため、エンコーダーおよびデコーダーの単語埋込を以下の 2 点に関して拡張する。 ・mBART-50 は、原言語と目的言語に言語タグを付加して学習・翻訳を行っているので、イヌイット語の言語タグ (iu_CA)を単語埋込に追加する。 ・トークナイザーで追加したサブワードを単語埋込に追加する。 拡張部分はランダム初期化し、ファインチューニング時に他のパラメータとまとめて学習する。 なお、ベースラインとして、共有語彙 $32 \mathrm{~K}$ モデルでトークナイズした対訳コーパスだけを用いて学習した、Transformer Big の双方向モデルを用いた。 学習/テストハイパーパラメータの詳細は付録に示す。 ## 4.2 トークナイズ結果 表 2 は、対訳テストセットのイヌイット語をトー クナイズした結果である。テストセット 1 文あたりのトークン数と、mBART-50 モデルの語彙(単語埋込)からみた未知語率を示す。すべてのトークナイザーにおいて、高い未知語率を示しているが、これは mBART-50に語彙を追加することで低くすることができる。表 2 の「未知語をなくすための追加語彙数」は、ゼロにするために追加する語彙数である。 ニューラルモデルでは、 1 文あたりのトークン数が少ない方が解析や翻訳精度が高い場合が多いが、最も少ないのは mBART-50 分割モデルである。これは、SentencePiece が未知文字に遭遇し、スペース区切りでトークナイズしたためで、全トークンの $40 \%$以上が未知語となる。もし、このトークナイザーで翻訳モデルを学習しようとすると、150万語以上を追加しなければならず、学習は非現実的である。 共有語彙 $32 \mathrm{~K}$ モデルも、 1 文あたりのトークン数が少ないが、この語彙は mBART-50 事前学習モデルの語彙と異なるため、事前学習モデルに適用するためには、 3 万 2 千語のうち、約 2 万 7 千語を追加しなければならない。 イヌイット語文字分割モデルは 141 語を追加するだけで良いが、1 文あたりのトークン数が 80 になり、入出力が長くなる。 一方、本稿の方式は、 1 文あたりのトークン数は mBART-50 分割モデルや共有語彙 $32 \mathrm{~K}$ モデルより長くなっているが、イヌイット文字分解の半分程度にすることができた。本稿の提案方式は、追加語数を制御しながら未知語をなくすことができる。 ## 4.3 翻訳実験結果 次に翻訳実験の結果を表 3 に示す。ベースラインとしては、Transformer Big モデル [15] を使用した。 & & \\ & イヌイット文分解 & 80.0 & $85.1 \%$ & 141 \\ & 共有語彙 $32 \mathrm{~K}$ モデル & 22.0 & $82.7 \%$ & 26,657 \\ & 語彙追加 $4 \mathrm{~K}$ & 34.6 & $65.7 \%$ & 4,001 \\ & 語彙追加 $8 \mathrm{~K}$ & 31.8 & $62.8 \%$ & 8,001 \\ 表 3 英語・イヌイット語間翻訳 BLEU スコア。 ボールド数値は、各翻訳方向での BLEU 最高値を表す。(+) は Transformer Big モデル(共有語彙 $32 \mathrm{~K}$ モデル)に比ベて有意に高く、(-) は有意に低いことを表す。(†)は mBART-50 モデル(イヌイット文字分解)に比べて有意に高いことを表す。 mBART-50 モデルは、追加埋込数の単語埋込を拡張してからファインチューニングしている。未知語率は単語埋込拡張後のテストセット未知語率である。 BLEU [16] の評価には sacreBLEU [17] を使用した。有意差検定はブートストラップ再サンプリングを用い、危険率 $5 \%$ とした $(p<0.05)$ 。 まず、mBART-50 モデルを適用することにより、 Transformer Big モデルに比べて、En-Iu, Iu-En どちらも、BLEU スコアを有意に向上させることができた (mBART-50 分割モデルを除く)。mBART-50にはイヌイット語が含まれていないにもかかわらず、事前学習は有効であった。 mBART-50 翻訳モデル内の各トークナイザーに着目すると、mBART-50 分割モデルは、未知語率が高く、意味のある翻訳はできなかった。共有語彙 $32 \mathrm{~K}$ の場合は、Transformer Big モデルより BLEU が向上したが、イヌイット語文字分解よりは低かった。イヌイット語文字分解は、ベースライントークナイザーの中では、最も BLEU スコアが高かった。 イヌイット語文字分解と比較すると、我々のトー クナイザーでは En-Iu の語彙追加 $2 \mathrm{~K}$ 以外では BLEU スコアに有意な差はなかった。また、サブワード数が少ない方が BLEU スコアが高い傾向は得られた。 これは、ファインチューニングがうまくトークナイザーの差を吸収したためと考えている。 まとめると、サブワード数による翻訳品質に対する明確な優位性は得られなかったが、イヌイット語をサブワード分割することで mBART-50 が翻訳に適用でき、事前学習モデルの効果が得られることを確認した。 ## 5 まとめ 本稿では、多言語事前学習モデルを新規言語に対応させるため、SentencePiece トークナイザーに新規のサブワードを追加した。提案方法は、既存のモデルを変更せずに、未知の文字を含むサブワードをその尤度とともに追加した。 実験はイヌイット語に対して行い、新規言語のサブワード分割が可能になることを確認した。サブワード数は制御可能である。また、イヌイット語翻訳に事前学習モデル mBART-50を適用し、多言語事前学習モデルを用いることで、新規言語でも BLEU スコアが向上することを確認した。 本稿の追加サブワード学習の実装は GitHub で公開している。2) 2) https://github.com/kenji-imamura/sentpiece_mimic ## 謝辞 本件は、総務省の「ICT 重点技術の研究開発プロジェクト (JPMI00316)」における「多言語翻訳技術の高度化に関する研究開発」による委託を受けて実施した研究開発による成果です。 ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised cross-lingual representation learning at scale. arXiv e-Print, 1911.02116, 2020. [3] Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis, and Luke Zettlemoyer. Multilingual denoising pre-training for neural machine translation. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 726-742, 2020. [4] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, Online, July 2020. Association for Computational Linguistics. [5] Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, and Colin Raffel. mT5: A massively multilingual pre-trained textto-text transformer. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 483-498, Online, June 2021. Association for Computational Linguistics. [6] Zihan Wang, Karthikeyan K, Stephen Mayhew, and Dan Roth. Extending multilingual BERT to low-resource languages. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 2649-2656, Online, November 2020. Association for Computational Linguistics. [7] Yuqing Tang, Chau Tran, Xian Li, Peng-Jen Chen, Naman Goyal, Vishrav Chaudhary, Jiatao Gu, and Angela Fan. Multilingual translation with extensible multilingual pretraining and finetuning. arXiv e-Print, 2008.00401, 2020. [8] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics. [9] Taku Kudo. Subword regularization: Improving neural network translation models with multiple subword candidates. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 66-75, Melbourne, Australia, July 2018. Association for Computational Linguistics. [10] Loïc Barrault, Ondřej Bojar, Fethi Bougares, Rajen Chatterjee, Marta R. Costa-jussà, Christian Federmann, Mark Fishel, Alexander Fraser, Yvette Graham, Paco Guzman, Barry Haddow, Matthias Huck, Antonio Jimeno Yepes, Philipp Koehn, André Martins, Makoto Morishita, Christof Monz, Masaaki Nagata, Toshiaki Nakazawa, and Matteo Negri, editors. Proceedings of the Fifth Conference on Machine Translation, Online, November 2020. Association for Computational Linguistics. [11] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, Berlin, Germany, August 2016. Association for Computational Linguistics. [12] Christopher D. Manning and Hinrich Schütze. Foundations of Statistial Natural Language Processing. The MIT Press, 1999. [13] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to Japanese morphological analysis. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, pp. 230-237, Barcelona, Spain, July 2004. Association for Computational Linguistics. [14] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 48-53, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [15] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. CoRR, Vol. abs/1706.03762, , 2017. [16] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [17] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Brussels, Belgium, October 2018. Association for Computational Linguistics. ## A サブワード追加アルゴリズム 本稿のサブワード追加モデルの学習アルゴリズムをアルゴリズム 1 に示す。このアルゴリズムは元モデル $M_{\text {org }}$ に含まれないサブワードを集めた追加モデル $M$ を学習する。 ・行 1 では、GenerateInitModeL 関数 (line 8 - 15) で初期モデルを作成する。初期モデルには、コー パス $C$ に含まれる部分文字列がサブワード候補として含まれる。 SentencePiece の通常のユニグラムモデルの学習では、すべての部分文字列を対象としていたが、追加学習では、既存モデルには含まれない文字から始まる部分文字列のみをサブワード候補とする。 ・行 2 - 行 6 がメインループで、追加モデルの尤度だけを EM アルゴリズムで 2 回更新 (UPDATELIKELiHOOD 関数)する。なお、解析は既存モデルと追加モデルの統合語彙で行う。そして、所定の語彙サイズになるまで低尤度のサブワードを削除する。本稿では尤度の下位 $20 \%$ 。表 4 学習/テスト時の設定一覧 削除した。 B ハイパーパラメータ 表 4 は、翻訳モデル学習 (ファインチューニング)時、およびテスト時のハイパーパラメータ設定の一覧である。トークナイザーによって訓練データの総トークン数が変わるため、warmup は約 1 エポックで統一した。 なお、Transformer big モデル学習時の設定は、 $\mathrm{LR}=0.0004$ 、warmup=約 5 エポックにした以外は、 mBART-50 モデルファインチューニング時と同じである。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-1.pdf
# GCP 同時通訳コーパスの構築 東山翔平 今村賢治 内山将夫 隅田英一郎 情報通信研究機構 } \{shohei.higashiyama, kenji.imamura, mutiyama, eiichiro.sumita\}@nict.go.jp ## 概要 同時翻訳システムの学習・評価のための GCP 同時通訳コーパスを構築した.本コーパスは,日・英各 100 万単語以上の原発話テキストと英・日への順送りの訳文テキストからなり,原発話・訳文中のチャンク境界の情報と,訳文中の省略可能な表現の情報を含む.本コーパスの構築方法と,チャンクと省略の観点から行った分析について報告する。 ## 1 はじめに 即時性の高い多言語コミュニケーションが求められる状況において,人間の通訳者による同時通訳のように,原発話と同時並行的に翻訳を行う同時機械翻訳(同時翻訳) $[1,2]$ の実用化が期待されている. 同時通訳では,同時性の制約を克服するため,原発話をチャンクと呼ばれる意味的なまとまりに区切りながら,前のチャンクから順に訳出を行う「順送り」の方略が用いられる. 同時通訳と同様に遅延の少ない同時翻訳を実現するには,順送り形式の対訳を基に翻訳システムを構築することが必要となる。 そこで我々は,同時翻訳システムの学習・評価のための多言語の GCP 同時通訳コーパス ${ }^{1)}$ を構築している. 本稿では,そのうち日英・英日方向のコーパスについて報告する。 既存の日英・英日の同時通訳コーパスには,主に以下の三つがある。 Tohyama ら [4] は,模擬講演・対話とその同時通訳音声を収録し,CIAIR 同時通訳データベース(SIDB)を構築した。松下ら [5] は,逐次または同時通訳付きの会見動画を書き起こし,英日・日英通訳データベース(JNPC)を構築した. Doi ら [6] は,既存の講演・会見音声を聴きながらの模擬的な同時通訳を実施・収録し,NAIST-SIC (NSIC)を構築した。上記コーパスと本コーパスの原言語データサイズ(時間数 $N_{\text {hour }}$ ,発話数 $N_{\text {utter }}$,単語数 $N_{\text {word }}$ )を表 1 に示す. 1)GCP は「グローバルコミュニケーション計画」[3]を指す。表 1 同時通訳コーパスの原言語データサイズ これら既存の同時通訳コーパスと比較すると,本コーパスには主に次の特徴がある。(1) 音声を介さずにテキストを翻訳することで作成した対訳で,原発話テキストと順送りの訳文テキストの双方にチャンク境界を付与している。 (2) 日本語原発話 150 万単語,英語原発話 119 万単語からなり,テキスト量での規模が大きい2) 以降, §2-\$4 にて,本コーパスの設計・構築方法と,本コーパスの性質の分析について報告する. ## 2 コーパス設計方針 書き言葉の逐次翻訳と比べて,同時翻訳システムに求められる要件として以下が挙げられる。 1. 原発話のスタイルへの対処:非流暢でくだけた話し言葉の表現に対して適切な翻訳を行う。 2. 訳文のスタイルの制御:同時通訳と同様の順送りによる低遅延の訳出を行う。 3. 訳出する情報の制御:読み手・聞き手の負担削減と,読み上げ音声の出力時間削減のため,原発話中の冗長な表現や重要性の低い表現を除いた訳出を可能とする。 これらを満たすコーパスの構築方法として,原発話と同時通訳の音声を収録する方法が考えられる。 しかし,通常の同時通訳では作業負荷の大きさから 15〜20 分程度で通訳者が交替するのが一般的 [7] であり,大規模な対訳テキストを確保するには多大な時間や費用を要する.そこで本研究では,作業効率性を重視し,プロの同時通訳者により,原発話テキ 2)本コーパス及び JNPC の単語数計測には $\S 4$ で述べる方法を用いた. SIDB の単語数は文献 [4] に記載の値から計算した. 表 2 日本語原発話データの内訳 表 3 英語原発話データの内訳 ストを目視しながら順送りの訳文テキストを作成する方法を採用した。 要件 1 への対応として, 講演・会議音声の書き起こしテキストやロ語調で作成された業務会話のシナリオテキストを用いた. 要件 2 への対応として,順送りの訳文を作成し,原発話及び訳文中にチャンク境界を付与した. 要件 3 への対応として,原発話の内容全体を訳出した訳文と,重要性の低い内容を省いた訳文との 2 段階の訳文を作成した。 本方法は,主に音声を介さない点と明示的な時間的制約がない点が通常の同時通訳と異なる. しかし,上述の要件を満たすことで,同時翻訳システムのためのコーパスとして機能すると想定している. ## 3 コーパス構築方法 ## 3.1 原発話データ 作業データのドメインとして,講演,会議,業務会話を対象とした。日本語原発話テキストには,日本語話し言葉コーパス (CSJ) [8] の一部と, Business Scene Dialogue Corpus(BSD)[9], SIDB,JNPC の一部を使用した. 英語原発話テキストには,BSD, AMI Meeting Parallel Corpus (AMI) [10], IWSLT 2017 Evaluation Campaign データセット(TED)[11]の一部と,ウェブで公開されている英語講演動画を書き起こしたテキスト(Web Presentation Video; WPV)を使用した。使用した原発話データのサイズを表 2 及び表 3 に示す( $N_{\text {char }}$ は文字数を表す)。 ## 3.2 作業体制・方法 2020~2022 年の間の延べ 11 か月の期間で,日英または英日の同時通訳実務経験 2 年以上を有する通訳者(延べ 63 名)に,以下の作業を依頼した.表 4 原発話 U の訳文 $\mathrm{ST} 1, \mathrm{ST} 2$ と逐次翻訳文 CT の例 U 先日ご紹介した商品同様、 120 年未満の積立期間だと、|途中解約した場合、|戻ってくるお金は積立金の 0.8 倍になります。 ST1 Same as the product I introduced the other day, if the funding term is less than 20 years, , and if you cancel it before the full term, $80 \%$ of your funds will be returned. ST2 Same as the product I introduced, if the funding term is less than 20 years, $\mid$ and if you cancel it before the full term, $\mid 80 \%$ will be returned. CT If you cancel your plan before reaching the 20 year saving stage you'll be reimbursed only $80 \%$ of your saving, same as the product I showed you the other day. 1. 原発話テキストを,同時通訳において訳出の単位とする意味的なまとまり(チャンク)に分割し,チャンク境界を挿入する。 2. チャンクごとに,原発話を目的言語へ訳した順送りの訳文テキスト ST1と ST2を作成する ${ }^{3}$ ). ・ST1 : 原発話の内容全体を訳出する. -ST2 : 原発話の意図の理解に支障がないような重要性の低い語句を省略し,原発話の内容のうち概ね 60~80\%以上を訳出する。 3. 原発話チャンク境界と対応する各訳文中の位置にチャンク境界を挿入する。 表 4 に,BSDja データの原発話 U と,通訳者により作成された同時翻訳文 ST1 及び ST2 の例を示す.原発話と各訳文に挿入されたチャンク境界を「|」, ST2 で省略された ST1 中の表現を波線で表した. 参考に BSD 原データに含まれている逐次翻訳文 CT も示した.ST1 及びST2 では先頭から順にチャンク単位で訳出されているのに対し,CT では冒頭の「先日」が末尾で訳されるなど構造の違いが見られる. ## 4 コーパス分析 システムの学習・評価に使用する上で,本コーパスがどのような性質・傾向を持つデータであるか, チャンク及び省略の観点から分析した. 原発話・訳文の単語数計測と, 本節の分析の前処理として,日本語形態素解析に unidic-cwj-3.1.04) [12] と MeCab ${ }^{5}$ [13] を使用し,英語品詞タグ付けに flair/upos-english-fast モデル6)を使用した.また,句読点・補助記号(と日本語では空白)を削除し,日本語文において連続する「名詞-数詞」及び 「記号-文字」の各単語列を 1 単語にまとめ上げた。 3) 2021 年度は ST1 $\rightarrow \mathrm{ST} 2$ の手順,前年度は逆の手順で作成. 4) https://clrd.ninjal.ac.jp/unidic/back_number.html 5) https://taku910.github.io/mecab/ 6) https://huggingface.co/flair/upos-english-fast 表 5 チャンク境界付き原発話データの統計情報 図 1 日本語原発話長ごとの平均チャンク長(内容語数) 図 2 英語原発話長ごとの平均チャンク長(単語数) ## 4.1 チャンク長の分布 原発話のチャンク分割の細かさ/粗さは,訳文の構造の違いに影響するとともに,翻訳の遅延の大きさに直結する. そこで,原発話がどのような粒度でチャンクに分割されているかを分析した. 本分析には,システム評価セットを除いた表 5 の原発話データ(上段:日,下段: 英)を使用した. 表 5 には, 原発話の件数 $N_{\text {utter }}$ と長さ $L_{\text {utter }}$, 通訳者が付与した原発話側チャンクの総数 $N_{\mathrm{chunk}}$ と長さ $L_{\mathrm{chunk}}$ を示した。発話長とチャンク長は,日本語では内容語数, 英語では単語数で測 $り$, 平均 $\pm$ 標準偏差で示した. 発話長は, 日・英とも会話・会議(BSD, AMI)では短く, 講演では長く, また発話長が長いドメインほど平均チャンク長も長い傾向がある. そこで,原発話長ごとのグループに分けて,グループ内の平均チャンク長を計測した.結果を図 4 及び図 2 亿示す7). 日・英の原発話とも,各ドメイン共通の傾向として, 発話長が長くなるにつれて平均チャンク長も増加するものの, 日本語ではチャン 7)発話数が 5 件以上ある発話長のみ対象とした. BSD は短い発話が多く, BSDja では最大発話長 25, BSDen では 42 であった. 他のドメインの発話長 50 以上のデータはグラフから割愛したが,50 以下と比べて特に傾向の変化は見られなかった.表 6 チャンク境界の作業者間一致率(日英 20 通訳者ぺア,英日 19 通訳者ペアの F1 値) ク長 $6 \sim 8$ 前後,英語では $8 \sim 11$ 前後で概ね飽和し, それ以降は顕著な増減が見られない。チャンク分割作業では,作業記憶上の制約がある同時通訳の状況を想定して境界を定める作業としたため,ある程度の長さでチャンク長が飽和することは直感的な結果である。また,これらのチャンク長は通訳者による同時通訳の遅延の上限に相当すると考えられ,本コーパスから構築したシステムで同時翻訳を行う際も,同程度の遅延に収まると期待できる。 ## 4.2 チャンク境界の一致率 本コーパスの一部の原発話 (日本語 2,755 発話,英語 3,160 発話)について,通訳者 3 名によるチャンク分割・訳文作成を害施した. これを,同一の原発話集合(50 発話以上)を作業した通訳者 2 名のぺアごとのデータに分け,各ペアのチャンク境界の一致率を算出した ${ }^{8}$ . ヘアアの一方の境界を正解とした際の他方の境界についての F1 值を求め, 双方向的な一致率の尺度として用いる.日英 20 ペア,英日 19 ペアについての F1 値を表 6 に左右方向に降順で示した. 日英・英日合計 39 ペアのうち, 約 7 割の 28 ペアについては $\mathrm{F} 1$ 値 48\%以上となり,ペアの一人目から二人目の境界を見た場合と,その逆の場合の両方向において,境界の概ね半数が被覆される状況と解釈できる。残り約 3 割のペアはそれを下回る低い一致率であった。 $\mathrm{F} 1$ 値の高低と,言語方向,原データ,作業発話数との関連は特に見られなかった ${ }^{9}$ ) 一方,表 6 で下線で示した F1 值は,日英,英日それぞれ作業者 ID 01,63を含むぺアに関するもので,両作業者は他の作業者と異なる位置で分割する傾向が大きいことが示唆され ${ }^{10)}$ ,ペアを構成する作業者の影響が大きいことを確認した.コーパス中に非典型的な境界/非境界が混在していると,同時翻訳システムのチャンク分割に関する安定性を損なうことが懸念されるため,それらを検出し,学習時の影響を低減するよう 8)空白・句読点の前後に挿入された境界は同一とみなした。 9)原データ及び作業発話数の情報は付録 §A. 1 に記す. 10)詳細は付録 §A. 1 に示す。 表 7 日英翻訳の 2 段階訳に関する統計情報 表 8 英日翻訳の 2 段階訳に関する統計情報 な方法が有効である可能性がある. ## 4.3 省略の傾向 \$4.1 と同一の原発話データとその訳文データを用いて, ST1 と ST2 の 2 段階の訳文の差について分析を行った. 2 種類の訳文とそれらの差分に関する統計情報を表 7 及び表 8 に示す. 全発話(All)のうち,ST1 と ST2で文字列上の差分があった発話(Diff)は日英で約 48\%,英日で約 $41 \%$ あり,省略または他の何らかの編集が行われていることがわかる.差分なしの発話(NoDiff)では発話あたり単語数 $N_{\text {word }} / N_{\text {utter }}$ が少なく, 省略の余地が小さかったことが窥える. 実際,短い発話に対して省略を行う必要性は低い. 差分ありの発話に限ると,英日で $78 \%$ ,日英で $85 \%$ の圧縮率 CR(ST2 の単語数合計 $\div \mathrm{ST} 1$ の単語数合計)であり,システムによる省略処理を行う際の圧縮率の目安ともみなせる.作業指示(60 80\%以上)に対してはやや高めの割合での訳出となった. 差分の大きさを定量化した指標として,ST2を参照訳としたときの ST1 の Translation Edit Rate(TER) 示すように日英・英日とも全発話(All)に関して $13 \%$ 程度であった. また, 同ツールにより各編集操作の適用回数も算出した. 作業指示として「抽象的な表現への言い換えではなく,主に語句を削ることで省略を行うこと」 ${ }^{12)}$ を推奨したことの表れとして,削除 Del が 80 90\%以上を占めたものの,他の編集操作(置換 Sub,挿入 Ins,シフト Shf)も検出された. 文法的に妥当な文とするために削除以外の編集が必要であった可能性などが考えられる. 削除された単語は,日本語訳では助詞,代名詞,  表 9 ST2 に対するST1の TER 及び編集操作内訳 名詞など,英語訳では verb,adverb,noun などが多かった. 詳細は付録 §A. 2 に示す。 ## 5 関連研究 同時通訳者により原発話テキストにチャンク境界を付与した研究に, 丁ら [15], 清水ら [16] の研究がある。丁ら [15] は,SIDB の日本語対話文に,英語同時通訳文を参照しながらチャンク境界を付与し,自動付与した節境界との関係を分析した. 節境界のうちチャンク境界であるものは $51 \%$ ,チャンク境界のうち節境界であるものは $75 \%$ と,両者には,ずれがあることを報告している.清水ら [16] は,話し言葉の自動分割を目的とし,日本語講演文にチャンクに相当する「音声翻訳単位」境界を付与した. 作業者 3 名の多数決で正解境界を定め,作業者の $\mathrm{F}$ 值を平均 0.9 以上と報告している. 同時通訳における久落/脱落は,高負荷状況での訳出の失敗として生じる [17] 場合と,時間的制約の克服のための意図的な省略によって生じる場合がある. 蔡ら [18] は, 訳出の失敗として起こる語の欠落に注目し,SIDB を用いて,講演者話速の速さや訳出遅延時間の長さに応じて欠落率が高くなることや,副詞の欠落率が高いことを示した。遠山ら [19] は,訳出の発話量を減らす方略として短縮による訳出が行われることを挙げ,英語原発話中の「A think B」の主語などが省かれて「〜と思います」や「〜なんでしょう」と訳出される SIDB 中の事例を挙げた. ## 6 おわりに 本稿では, GCP 同時通訳コーパスについて報告した.コーパスの分析結果として,(1) 長い原発話に対してもチャンク長(訳出遅延)は一定程度で収まること,(2) チャンク境界の作業者間一致率の高低は作業者の組合せに依存すること,(3) 原発話の内容全体を訳した訳文について,その 10~20\%前後の語句が省略可能な非重要情報と判断されていること (圧縮率 80 90\%前後)を示した. 今後,本コーパスを用いた同時翻訳システムの構築と性能評価を行う予定である. ## 謝辞 本件は,総務省の「ICT 重点技術の研究開発プロジェクト(JPMI00316)」における「多言語翻訳技術の高度化に関する研究開発」による委託を受けて実施した研究開発による成果である. 本コーパスの作成に当たり,日本語話し言葉コー パス, Business Scene Dialogue Corpus, CIAIR 同時通訳データベース,英日・日英通訳データベース, AMI Meeting Parallel Corpus, IWSLT 2017 Evaluation Campaign データセットを利用した. ## 参考文献 [1] Ruiqing Zhang, Chuanqiang Zhang, Zhongjun He, Hua Wu, Haifeng Wang, Liang Huang, Qun Liu, Julia Ive, and Wolfgang Macherey. Findings of the third workshop on automatic simultaneous translation. In Proceedings of the Third Workshop on Automatic Simultaneous Translation, pp. 1-11, Online, July 2022. Association for Computational Linguistics. [2] Antonios Anastasopoulos, Loïc Barrault, Luisa Bentivogli, Marcely Zanon Boito, Ondřej Bojar, Roldano Cattoni, Anna Currey, Georgiana Dinu, Kevin Duh, Maha Elbayad, Clara Emmanuel, Yannick Estève, Marcello Federico, Christian Federmann, Souhir Gahbiche, Hongyu Gong, Roman Grundkiewicz, Barry Haddow, Benjamin Hsu, Dávid Javorský, Věra Kloudová, Surafel Lakew, Xutai Ma, Prashant Mathur, Paul McNamee, Kenton Murray, Maria Nǎdejde, Satoshi Nakamura, Matteo Negri, Jan Niehues, Xing Niu, John Ortega, Juan Pino, Elizabeth Salesky, Jiatong Shi, Matthias Sperber, Sebastian Stüker, Katsuhito Sudoh, Marco Turchi, Yogesh Virkar, Alexander Waibel, Changhan Wang, and Shinji Watanabe. Findings of the IWSLT 2022 evaluation campaign. In Proceedings of the 19th International Conference on Spoken Language Translation, pp. 98-157, Dublin, Ireland (in-person and online), May 2022. Association for Computational Linguistics. [3] 総務省.「グローバルコミュニケーション計画 2025」 の公表,(2023-01-12 閲覧). https://www. soumu.go. jp/menu_news/s-news/01tsushin03_02000298.html. [4] Hitomi Tohyama, Shigeki Matsubara, Koichiro Ryu, Nobuo Kawaguch, and Yasuyoshi Inagaki. CIAIR simultaneous interpretation corpus. In Proceedings of Oriental COCOSDA 2004, 2004. [5] 松下佳世, 山田優, 石塚浩之. 英日・日英通訳データベース (JNPCコーパス) の概要. 通訳翻訳研究への招待, No. 22, pp. 87-94, 2020. [6] Kosuke Doi, Katsuhito Sudoh, and Satoshi Nakamura. Large-scale English-Japanese simultaneous interpretation corpus: Construction and analyses with sentence-aligned data. In Proceedings of the 18th International Conference on Spoken Language Translation, pp. 226-235, Bangkok, Thailand (online), August 2021. Association for Computational Linguistics. [7] 小松達也. 同時通訳. 応用言語学事典, pp. 396-397. 研究社, 2003. [8] Kikuo Maekawa. Corpus of spontaneous Japanese: Its design and evaluation. In ISCA \& IEEE Workshop on Spontaneous Speech Processing and Recognition, 2003. [9] Matīss Rikters, Ryokan Ri, Tong Li, and Toshiaki Nakazawa. Designing the business conversation corpus. In Proceedings of the 6th Workshop on Asian Translation, pp. 54-61, Hong Kong, China, November 2019. Association for Computational Linguistics. [10] Matīss Rikters, Ryokan Ri, Tong Li, and Toshiaki Nakazawa. Document-aligned Japanese-English conversation parallel corpus. In Proceedings of the Fifth Conference on Machine Translation, pp. 639-645, Online, November 2020. Association for Computational Linguistics. [11] Mauro Cettolo, Marcello Federico, Luisa Bentivogli, Jan Niehues, Sebastian Stüker, Katsuhito Sudoh, Koichiro Yoshino, and Christian Federmann. Overview of the IWSLT 2017 evaluation campaign. In Proceedings of the 14th International Conference on Spoken Language Translation, pp. 2-14, Tokyo, Japan, December 14-15 2017. International Workshop on Spoken Language Translation. [12] 伝康晴. 多様な目的に適した形態素解析システム用電子化辞書 (<特集>日本語コーパス). 人工知能, Vol. 24, No. 5, pp. 640-646, 2009. [13] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to Japanese morphological analysis. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, pp. 230-237, Barcelona, Spain, July 2004. Association for Computational Linguistics. [14] Matthew Snover, Bonnie Dorr, Rich Schwartz, Linnea Micciulla, and John Makhoul. A study of translation edit rate with targeted human annotation. In Proceedings of the 7th Conference of the Association for Machine Translation in the Americas: Technical Papers, pp. 223-231, Cambridge, Massachusetts, USA, August 8-12 2006. Association for Machine Translation in the Americas. [15] 丁, 笠浩一朗, 松原茂樹, 吉川正俊. 日本語対話文における同時通訳単位一音声対話コーパスを用いた分析 -. 言語処理学会第 12 回年次大会, 2006. [16] 清水徹, 中村哲, 河原達也. 同時通訳者の知識と韻律情報を用いた講演文章のチャンキング. 情報処理学会研究報告音声言語情報処理, Vol. 2008-SLP-72, No. 68, pp. 81-86, July 2008. [17] 水野的. 同時通訳の理論認知的制約と訳出方略. 朝日出版社, 2015. [18] 蔡仲熙, 笠浩一朗, 松原茂樹. 同時通訳における語の欠落に影響を及ぼす要因の分析. 通訳翻訳研究, No. 18, pp. 13-18, 2018. [19] 遠山仁美, 松原茂樹. 同時通訳コーパスを用いた通訳者の訳出パターンの分析. 信学技報, Vol. 103, No. 487, pp. 133-146, 2003. ## A 付録 ## A. 1 チャンク境界の一致率の詳細評価 作業者間チャンク境界一致率の詳細を述べる。通訳者ペアごとの一致率を, 後述する MPRでも算出し,F1 値(表 6 と同一)とともに表 10 に示した.「X-P1-P2」の形式のペア ID は,作業データX(表 2 及び表 3 に示したドメイン名の 1 文字目)に対する通訳者 P1 と通訳者 $\mathrm{P} 2$ による作業結果であることを意味し, $N_{\text {utter }}$ は 2 名が作業した発話数を表す. MPR について,ペアの一方の境界を正解とした際の他方の適合率 $\mathrm{P}$ 及び再現率 $\mathrm{R}$ のうち値の大きい方 $\max (\mathrm{P}, \mathrm{R})$ で定義する.MPR は,より粗く(細かく)分割する作業者の境界を正解とした際の細かく(粗く) 分割する作業者の境界の再現率 (適合率) と解釈でき,一方から見た他方への一方向的な一致率または被覆率とみなせる。日英・英日合計 39 ペアに関して,最も低い場合でも MPR 56\%で過半数の境界が一致し, 約 8 割の 32 ペアについては MPR $70 \%$ を超え,F1 值と比べて高い値となった. また,表 6 と表 10 で下線で示した作業者 01 と 63 を含むぺアについて,低い F1 値となった要因を分析した. ペア内 2 名の分割回数の比 SR (分割回数が少ない作業者の回数を分子とする)を算出すると, 全 39 ペアの平均 $\mathrm{SR}=0.59$ に対し, 作業者 01 を含む 6 ペアでは $\mathrm{SR}=0.14 \sim 0.64$ で分布し,作業者 63 を含む 4 ペアでは $\mathrm{SR}=0.28 \sim 0.67$ で分布し,作業者 01 または 63 を含む 10 ペア中 7 ペアが SR 下位 $25 \%$ に位置した。つまり,作業者 01 はぺアの他方より少なく分割し,作業者 63 はペアの他方より多く分割する特徴が見られた。 ## A. 22 段階の訳文で省略された表現の詳細 2 段階の訳文 ST1 と ST2 の差分のうち,削除 Del として検出された表現について,1 単語単位及び連続する複数単語単位で集計した。頻度上位 10 件の品詞(列)を,全品詞(列)の合計頻度に対する頻度の割合(Rate,\%)とともに,表 11 及び表 12 に示す (「代」は代名詞,「助」は助詞,「副」は副詞,「感」 は「感動詞」,「接」は接続詞,「名」は名詞,「形」は形容詞を表す). 複数単語単位(POS Seq)については,頻度上位 2〜3件の表層の例も示した. 頻繁に削除された表現には,談話標識にあたるような接続詞,副詞,感動詞(日本語訳・英語訳共表 10 チャンク境界の作業者間一致率(MPR,F1 値) 通),「主語にあたる代名詞+動詞」(英語訳)「代名詞十助詞」(日本語訳)などがあった.これらは,作業指示の結果,削除しやすい表現として選択された可能性があり,任意の編集による圧縮を許容した場合には,異なる傾向となることが考えられる.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-2.pdf
# Average Token Delay: 同時翻訳の遅延評価尺度 加納保昌 須藤克仁 中村哲 奈良先端科学技術大学院大学 $\{$ kano.yasumasa.kw4, sudoh, s-nakamura\}@is.naist.jp ## 概要 同時翻訳は、話し手が話し終わる前に翻訳を開始するタスクである。大きな遅延を許容すれば、翻訳の質を向上させやすいが、会話など即時性が求められる場合には、翻訳の質をできるだけ下げずに遅延を抑える必要がある。この遅延を測る既存の指標は、翻訳の出力開始時に着目し、出力の終了時を十分に考慮していなかった。しかし、ある部分の翻訳の出力終了が遅れると、次の部分の翻訳の出力開始を遅らせることにもつながり、即時性が失われる。 そこで、本稿では、翻訳の終了時に着目した新しい遅延評価尺度である Average Token Delay (ATD) を提案する。同時機械翻訳の実験を行い、既存の遅延評価尺度と比較して、より様々な訳出タイミングの決め方の評価に適していることを確かめた。 ## 1 はじめに 同時翻訳とは、話し手が話し終わる前に翻訳を始めるタスクである。図 1 は、二種類の基本的な同時機械翻訳戦略による入出力過程をステップごとに示したものである。SRC と TGT はそれぞれ、入出力の 1 トークンを示す。wait-k [1] は、最初に $k$ トークン待って、その後は 1 トークン入力を待ち、1トークン翻訳を出力するというのを繰り返す。chunk-k は、 $k$ トークン待って $k$ トークン出力するというのを繰り返す。近年の同時機械翻訳モデルの翻訳の遅延評価には Average Lagging (AL) [1] が用いられてきた。これは、各翻訳単語の出力に必要となる入力単語の数をもとに計算される。図 2 は、入出力を同時に、かつ 1 トークンの入出力を同じ時間で実行できると仮定した wait-k と chunk-k の訳出タイミングを示している。ここでは簡略化のために計算時間を省略している。この図からわかる通り、 wait-k と chunk-k は、この仮定の下では入出力のタイミングが完全に一致する。よって、これらの遅延は同一になるはずである。しかし、実際にこれら 図 1 step ごとの wait-3 と chunk-3 Wait-3 SRC SRC SRC / SRC / SRC / SRC / SRC / TGT / TGT / TGT / TGT / TGT TGT TGT ## Chunk-3 SRC SRC SRC / SRC SRC SRC / SRC TGT TGT TGT / TGT TGT TGT / TGT $\begin{array}{llllllllll}1 & 2 & 3 & 4 & 5 & 6 & 7 & 7 & 8 & 9\end{array}$ 図 2 time-synchronous な wait-3 $\succ$ chunk-3 の ALを実際に計算すると、wait-kの ALは、 $\frac{15}{5}=3$, chunk-k の AL は $\frac{13}{7} \approx 1.857$ で、chunk-k の方が大幅に遅延が小さいと評価される。このように、チャンク翻訳が長くなるほど、AL は遅延を小さく評価する傾向がある。しかし、実際には、前のチャンクの翻訳が出力し終わらないと次の翻訳が出力できないため、チャンク翻訳の長さは遅延につながる。そこで、本稿では、出力翻訳の終わるタイミングに着目した遅延尺度である Average Token Delay (ATD) ${ }^{1}$ を提案する。同時機械翻訳の実験を行い、複数のモデルを ALと ATD で比較し、ATD は wait-k のみでなく、チャンクベースのモデルの遅延もより適切に測れることが分かった。 ## 2 関連研究 これまで AL 以外にも、いくつかの遅延尺度が提案されてきた。Consecutive Wait (CW) [2] は文の局所的な遅延を評価する。Average Proportion (AP) [3] は文全体の遅延を評価するが、入出力のタイミング決定戦略が同じでも、文の長さによって、遅延の値が  大きくことなってしまうという問題があった。AL は、理想的なタイミングとのズレをもとに計算することによって、その問題を改善した。ALは以下の式で定義され、 $ \begin{gathered} A L_{g}(\boldsymbol{x}, \boldsymbol{y})=\frac{1}{\tau_{g}(|\boldsymbol{x}|)} \sum_{\tau=1}^{\tau_{g}(|x|)}\left(g(\tau)-\frac{\tau-1}{r}\right) . \\ \tau_{g}(|\boldsymbol{x}|)=\min \{\tau|g(\tau)=| \boldsymbol{x} \mid\} \end{gathered} $ $g(\tau)$ は単調増加関数で、 $\tau$ 番目の出力単語を出力するために読んだ入力単語の数を表す。 $\tau_{g}(|x|)$ は、最後の入力単語を読み終わった直後に出力した翻訳単語のインデックスを表す。 $\mathrm{r}$ は $|\boldsymbol{y}| /|\boldsymbol{x}|$ で定義される。 ## 3 提案尺度 図 3 Step ごとの speech-to-speech 同時機械翻訳の例 本稿では、Average Token Delay という新しい指標を提案する。まずは、 speech-to-speech の翻訳において説明し、それを speech-to-text、text-to-textへの同時翻訳へと一般化する。 ## 3.1 speech-to-speech の同時翻訳 図 3 は音声同時翻訳の音声や処理の継続長を考慮した処理時間を模式的に示したものである。白い部分は、固定長の音声セグメントを示し、青い部分は入力を待つか出力するかの決定する時間を示し、オレンジの部分は、翻訳デコード時間を示す。ステップ 1 から翻訳が始まり、ステップ8で翻訳を終え、 ステップ 8 における同じ色の点 (黒、赤、白) の時間差の平均として ATD は計算される。 大力文 $x$ と出力文 $y$ がそれぞれ、 $x=x^{1}, x^{2}, \ldots, x^{C}$ と $\boldsymbol{y}=\boldsymbol{y}^{1}, \boldsymbol{y}^{2}, \ldots, \boldsymbol{y}^{C}$ というチャンクに区切られるとする。それぞれのチャンクは、さらにサブセグメントに分かれる。テキストの場合は単語または文字がサブセグメントとなる。音声の場合は、 0.3 秒で 1 単語の発話があると仮定し、チャンクを 0.3 秒の長さのサブセグメントに分割し、余りも 1 つのサブセグメントとする。その結果、入力文と出力文はそれぞれ $\boldsymbol{x}=x_{1}, \ldots, x_{|\boldsymbol{x}|}, \boldsymbol{y}=y_{1}, \ldots, y_{|\boldsymbol{y}|}$ というサブセグメントの系列として表せる。ATD は以下の式で定義される。 $ \operatorname{ATD}(\boldsymbol{x}, \boldsymbol{y})=\frac{1}{|\boldsymbol{y}|} \sum_{t=1}^{|\boldsymbol{y}|}\left(T\left(y_{t}\right)-T\left(x_{S(t)}\right)\right) $ ここで、 $ \begin{gathered} S=t-\max \left(L_{a c c}\left(\boldsymbol{y}^{c(t)-1}\right)-L_{a c c}\left(\boldsymbol{x}^{c(t)-1}\right), 0\right) \\ s(t)= \begin{cases}S & S \leq L_{a c c}\left(\boldsymbol{x}^{c(t)}\right) \\ L_{a c c}\left(\boldsymbol{x}^{c(t)}\right) & \text { otherwise }\end{cases} \end{gathered} $ とする。 $L_{a c c}\left(\boldsymbol{x}^{c}\right)$ は $\mathrm{c}$ 番目のチャンクまでの累積長であり、 $\sum_{j=1}^{c}\left|\boldsymbol{x}^{j}\right|$ と表せる。 $c(t)$ は $y_{t}$ の属するチャンク番号 $c$ を表し、 $L_{a c c}\left(\boldsymbol{x}^{0}\right)=0 、 L_{a c c}\left(\boldsymbol{y}^{0}\right)=0$ とする。 $T(\cdot)$ はそれぞれのサブセグメントの終わるタイミングを示し、図3で色のついた点である。ATD は、出力サブセグメント $y_{t}$ と対応する入力サブセグメント $y_{s(t)}$ の時間差の平均として計算される。入出力のサブセグメントの対応は、特に語順の大きく異なる言語ついにおいては意味的に必ずしも正しくな 図 4 speech-to-text 同時翻訳の遅延測定概略図 図 5 text-to-text 同時翻訳の遅延測定概略図 図 6 non-computation aware text-to-text 同時翻訳の遅延測定概略図 いが、遅延の計算においては $\mathrm{AL}$ と同様に、このように単純化している。 表 1 は、(4) 式の max の中の例を表す。 $L_{a c c}\left(\boldsymbol{y}^{c(5)-1}\right)-L_{a c c}\left(\boldsymbol{x}^{c(5)-1}\right)=0 \leq 0$ の時は、 $y_{5}$ は $x_{5}$ に対応する。 $L_{a c c}\left(\boldsymbol{y}^{c(5)-1}\right)-L_{a c c}\left(\boldsymbol{x}^{c(5)-1}\right)=1>0$ の時は、 1 チャンク前までの部分翻訳が 1 チャンク前までの部分入力より 1 トークン長いため、 $S=5-1=4$ により、 $y_{5}$ は $x_{4}$ に対応する。このように、ATDでは前のチャンク翻訳の終了が遅くなると遅延が増える。 表 2 は、(5) 式の例を表す。 $S=3 \leq L_{a c c}\left(\boldsymbol{x}^{c(3)}\right)$ の時は、 $y_{3}$ は $x_{3}$ に対応する。 $S=4>L_{a c c}\left(\boldsymbol{x}^{c(4)}\right)$ の時は、 $x_{4}$ が存在せず、最後の入力トークン $x_{3}$ に対応する翻訳が長めに出力していると捉える。そこで、 $L_{a c c}\left(\boldsymbol{x}^{c(4)}\right)=3$ により、 $y_{4}$ は $x_{3}$ に対応する。 ## $3.2\{$ speech,text $\$-to-text $の$ 同時翻訳} 図 4 は speech-to-textへの同時翻訳を表している。字幕のように、テキストは同時に複数の単語を出力できるため、テキストのサブセグメント (単語) の長さは無視している。図 5 は text-to-text 同時翻訳を示している。この場合、入力のテキストは基本的に streaming ASR(自動音声認識) の結果として受け取るため、黄色の入力サブセグメントの長さは、ASR の処理時間となる。 ## 3.3 Non-computation-aware ATD コンピュータの性能や実装効率に依存せずに、同時翻訳モデルの遅延を図ることがある。そのような場合には、図 $3,4,5$, のオレンジ、青、黄色の部分を除去し、音声セグメントの長さのみを残して、 ATD の遅延を計算する。しかし、このままでは、 text-to-text の翻訳では、遅延が常に 0 になってしま う。そこで、図 6 に示される通り、 $\mathrm{CW}$ や AP のように入出力の単語がそれぞれ $1 \mathrm{step}$ の時間を使うとして、ATDを計算する。また、ATD は、図 2 で示されるように、モデルが入出力を並列に行うことができると仮定して計算される。 ## 4 シミュレーション ATD による遅延計測の特性を示すためのシミュレーションの結果を以下に示す。 図 $7 \mathrm{AL}$ にる遅延測定 ## 4.1 wait-k と chunk-k の比較 長さ 10 トークンの入力文を wait-k と chunk-k で、長さ 10 トークンの文へ翻訳する際に、 $\mathrm{k}$ を 1 から 10 まで変化させて比較した。図 7,8 がその結果を示す。図 7 は 1 節で述べられたように、chunk-k と wait-k の AL に大きな差が出てしまうことを示している。その一方で、ATD は図 8 で示されている通り、 chunk-k と wait-kが一致している。また、ALでは、wait-9 と wait-10 は遅延の大きさが近いにも関わらず、ギャップが生まれてしまっている。付録にさらに大きな図を示す。このように、ATD は、wait-k のような 1 トークン読んで 1 トークン出力するというのを繰り返すモデルでも、複数トークンを一度に出力するチャンクベースのモデルでも、より適切な結果が得られると考えられる。 ## 4.2 翻訳例 図 9 はチャンクベースの 3 つの異なるモデルによる同時翻訳例である。モデル 1 は入力文全体を待ってから、翻訳を始めているため、最も遅延が大きく、翻訳の質は高い。モデル 2 は、「I」の直後に区切って翻訳を始めているため、モデル 1 より遅延が小さいが、その分翻訳の質は落ちる。モデル 3 はモデル 2 に似ているが、チャンク翻訳の出力長が長く、その分翻訳の質が落ちている。 AL は、モデル 3 とモデル 2 の間に急激な差があり、モデル 3 が最も遅延が少ないと評価している ## Model 1 ATD:5.4, AL:5.0, Quality: 1st I bought a pen . / 12 私はペンを買った。 ## Model 2 ATD:3.4, AL:1.1, Quality: 2nd I/ bought a pen. / Model 3 ATD:4.1, AL:0.8, Quality: 3rd I/ bought a pen . / 私でございます。/ペンを買った。 $\begin{array}{lllllllllll}1 & 2 & 3 & 4 & 5 & 6 & 7 & 8 & 9 & 10 & 11\end{array}$ 図 9 翻訳例 が、これはこれまで述べてきた通り、直感に反している。その一方で、ATD は出力長の遅延を考慮しているため、翻訳が終わるのが遅いモデル 3 よりモデル 2 の方が遅延が小さいと評価することができている。 ## 5 実験 遅延尺度の効果を確かめるため、text-to-text の英独同時機械翻訳の実験を行い、ALと ATD を比較した。 ## 5.1 データ IWSLT evaluation campaign のデータを用いた。 WMT 2014 training set (450万文) をトレーニングデー タとし、IWSLT 2017 training set (20.6万文)をファインチューニングのデータとして用いた。 $\operatorname{dev2010,}$ tst2010, tst2011 and tst2012 (合計 5,589 文) を開発デー タとし、tst2015 (1,080 文) で評価した。 加納ら [4]に従った実験設定で、wait- $k$ [1], Meaningful Unit (MU) [5], Incremental Constitute Label Prediction (ICLP) [6], そして Prefix Alignment (PA) [4] のモデルを比較した。翻訳の質と遅延の評価には、SimulEval を用いた。 ## 5.2 結果 図 10,11 はその実験結果を示す。図 10 の AL に比べると、図 11 の ATD は各モデルの遅延の違いをより明確に示している。MU と ICLP は ATD において、遅延と精度のトレードオフが低下している。この原因は、図 12 の AL が小さい範囲で length ratio が 1.0 を超えているところにも現れている。ALが小 図 $10 \mathrm{AL}$ による遅延測定 図 11 ATD による遅延測定 図 12 Length ratio と $\mathrm{AL}$ さい部分では、翻訳が参照文に比べて長めに出力されてしまい、図 9 のモデル 3 と同様の現象が起こっている。MUは、ATDが大きくなっても、必ずしも BLEU [7] が向上していない。これは、本来より長く翻訳が出力されたことによって ATD が大きくなると同時に、翻訳の質も下がってしまったからである。 ## 6 おわりに 同時機械翻訳における新しい遅延尺度を提案した。出力翻訳長を考慮した ATD は、ALではうまく測れないチャンクベースのモデルにも対応した。今後は、タイミング情報のみならず、入出力単語の意味の対応関係も考慮していくことが重要である。 ## 謝辞 本研究の一部は科研費 $21 \mathrm{H} 05054$ の助成を受けた ものである。 ## 参考文献 [1] Mingbo Ma, Liang Huang, Hao Xiong, Renjie Zheng, Kaibo Liu, Baigong Zheng, Chuanqiang Zhang, Zhongjun He, Hairong Liu, Xing Li, Hua Wu, and Haifeng Wang. STACL: Simultaneous translation with implicit anticipation and controllable latency using prefix-to-prefix framework. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3025-3036, Florence, Italy, July 2019. Association for Computational Linguistics. [2] Jiatao Gu, Graham Neubig, Kyunghyun Cho, and Victor O.K. Li. Learning to translate in real-time with neural machine translation. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, pp. 1053-1062, Valencia, Spain, April 2017. Association for Computational Linguistics [3] Kyunghyun Cho and Masha Esipova. Can neural machine translation do simultaneous translation? arXiv preprint arXiv:1606.02012., 2016. [4] Yasumasa Kano, Katsuhito Sudoh, and Satoshi Nakamura. Simultaneous neural machine translation with prefix alignment. In Proceedings of the 19th International Conference on Spoken Language Translation (IWSLT 2022), pp. 22-31, Dublin, Ireland (in-person and online), May 2022. Association for Computational Linguistics. [5] Ruiqing Zhang, Chuanqiang Zhang, Zhongjun He, Hua $\mathrm{Wu}$, and Haifeng Wang. Learning adaptive segmentation policy for simultaneous translation. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 2280-2289, Online, November 2020. Association for Computational Linguistics. [6] Yasumasa Kano, Katsuhito Sudoh, and Satoshi Nakamura. Simultaneous neural machine translation with constituent label prediction. In Proceedings of the Sixth Conference on Machine Translation, pp. 1124-1134, Online, November 2021. Association for Computational Linguistics. [7] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. ## A 付録 ## A. 1 シミュレーション 図 $13 \mathrm{AL}$ にる遅延測定 図 14 ATDによる遅延測定 長さ 40 トークンの入力文を wait-k と chunk-kで、長さ 40 トークンの文へ翻訳する際に、 $\mathrm{k}$ を 1 から 40 まで変化させて比較した。本文の 10 トークンの場合に比べ、より chunk-k と wait-k のギャップが大きくなっている。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-3.pdf
# TED 英語講演の音声認識 $\cdot$ 音声翻訳 ・ 音声要約の検討 坂野晴彦 桜井陽生 足立十一郎 山本一公 中川聖一 中部大学 工学部 情報工学科 } \{ep19087-8458@sti, ep18051-1542@sti, ep19002-1545@sti, kazumasayamamoto@isc, nakagawa@isc\}.chubu. ac. jp ## 概要 我々は、以前から英語の講義や講演を自動音声認識し、要約して日本語で字幕表示する研究を行ってきた。英語講演音声をすべて翻訳し字幕にすると、読みが追い付かない・読み辛いなどの弊害が生じるため、要約システムが必要である。TED 講演音声の音声認識では、DNN-HMM により約 $88 \%$ の単語正解精度を得た。この書き起こし結果を Transform -erに基づくテキスト翻訳と BERTに基づく重要文抽出型テキスト要約に使用して、音声翻訳と音声要約を評価した。音声翻訳はテキスト翻訳に比べて、 BLEU 值が約 $14 \%$ 低下した。一方、音声要約はテキスト要約に比べて、重要文として抽出された区間はほぼ同一であり、音声認識誤りに頑健であった。 ## 1 はじめに 我々は、以前から英語の講義や講演を自動音声認識し、要約して日本語で字幕表示する研究を行ってきた。英語講義・講演音声をすべて翻訳し字幕にすると、ユーザーの読みが追い付かない・読み辛いなどの弊害が生じるため、音声認識システムと翻訳システム以外に要約システムがあると便利である ## $[1]$ 。 音声認識に関しては、DNN-HMM 型のハイブリ ッド方式と End-to-End 方式があり、後者の方が性能がよいという報告がみられるようになってきた $[2,3]$ 。TED 講演音声に関して、英語の音声認識は IWSLT での発表が多いが、英日翻訳に関しては少ない。2021 年には英日の瞬時テキスト翻訳[2]、 2022 年には英日の瞬時音声翻訳がタスクに加えられている[3]。上野らは 12 層の Conformer エンコー ダ、Attention 付きの単方向 LSTM のデコーダを用いて、TED-LIUM2(211 時間分の学習データ) で、単語誤り率 $8.56 \%$ という報告をしている[4]。 音声翻訳に関しては、音声認識とテキスト翻訳の接続によるハイブリッド方式と End-to-end 方式があり、最近では後者の進展が目覚ましく、両者の差はなくなってきた $[3,5]$ 。我々は講義・講演の翻訳に対して、ハイブリッド方式を採用し、時代に合わせて統計的機械翻訳モデル[6]、RNN ニューラルネットワークの LSTM による系列変換モデル[7]、 Transformer モデル[8]を使用してきた。並行して、音声認識誤りに対処するために、 $\mathrm{N}$ ベストのリスコアリングの利用、認識誤りを含めた対訳ぺアによる学習などを試みてきた[6]。本稿では、Transformer にデータ拡張や転移学習を適用した結果を報告する。TEDの英日音声翻訳に関しては、福田らは、 オフライン方式で 11.6、オンライン・瞬時翻訳方式で10.6 の BLEU 値を報告している[9]。IWSLT-2022 で最も良かった結果は、大規模な外部音声資源・言語資源を使用した USTC(中国科学技術大学)のシステムで、音声認識誤り率(単語誤り率)約 5\%、 アンサンブル翻訳ではテキスト入力で 22 、音声入カ・オフライン方式で約 19 の BLEU 値を報告している[5]。 要約に関しては、抽出型要約と抽象型要約があり、従来は抽出型要約の方が優れていたが、最近はニューラルネットワークの抽象型要約技術が進展し、両者の性能差はなくなってきた $[10,11,12]$ 。ただし、人による要約結果の評価では抽出型要約の方がまだ評価が高い[12]。講義・講演を聴講しながら要約を字幕表示する場合は、万遍なく音声に同期した字幕表示が望ましい。そこで我々は、重要な箇所 だけ音声を再生するのにも適している重要文の抽出型要約を採用している。過去の重要文抽出の手法として、テキスト・音声要約で有効な手法として広く用いられる Maximal Marginal Relevance (MMR)[13] や、文の重要性を表す素性の抽出と抽出した素性に基づく分類からなる feature-based 法[14]などが提案されている。最近では、文の構文情報・意味表現として、文の分散表現が良いとされ、大規模な学習データによるニューラルネットワークを利用した重要文抽出の要約にも利用されている 15,16$]$ 。我々は、従来の要約システム MMR に Bidirectional Encoder Representations from Transformers ( BERT) [17]を併用する方法を提案してきた[18]。本稿では、本手法と最近の代表的な抽出型要約である BertSumExt 法[16]による音声要約を報告する。 ## 2 TED 講演の音声認識 ## 2.1 Kaldi ツールキットによる DNN-HMM TED 講演音声をテキストに書き起こすための音声認識ツールキットとして、Kaldi[19]を用いた。 Kaldi では様々なコーパスに対応したレシピが公開されており、本稿では TEDLIUMv3 に対応したレシピを用いて音声認識を行った。Kaldi では認識システムとして DNN-HMM を用いており、これは隠れマルコフモデル(Hidden Markov Model)の状態から出力される音素の出力確率を DNN(Deep Neural Network)を用いて算出する手法である。 本稿では DNN の隠れ層の層数は 13 層とし、隠れ層の各ユニット数は 1024 とした。出力層のユニット数は共有トライフォン数に対応しており、 GMM-HMM 学習時の学習デー夕量に依存して自動決定される。活性化関数には ReLU 関数を用い、出力層のみ softmax 関数を用いた。また、損失関数にはクロスエントロピーを用いた。ネットワークへの入力特徴量は $\mathrm{MFCC}($ メル周波数ケプストラム係数) 40 次元である。また、特徵量の前処理として fMLLR, LDA,SAT を行い、不特定話者用の特徴抽出を行っている。 ## 2.2 学習データ (a) TED 講演データ TEDLIUMv3[20]は、約 450 時間の TED 講演音声のコーパスである。学習データ、検証デー夕、評価データでセットが分かれており、それぞれ重複する講演は含まれていない。 (b) 大量読み上げ英語音声データ Librispeech Librispeech[21]は約 1000 時間の読み上げ英語音声のコーパスである。学習データ、検証データ、評価データでセットが分かれており、それぞれ重複する発話は含まれていない。このうち学習データは約 960 時間である。 TED 講演は話し言葉であるのに対し、Librispeech は読み上げコーパスであるが大量のコーパスであることから、これらのコーパスを合わせて用いることで、より頑健なモデル構築が期待できる。 ## 2.3 テストデータ 音声認識結果の算出には、表 1 に示す IWSLT2016 の 10 講演と TEDLiumv3 のテストセット 16 講演を使用し、それぞれのセットで認識率を求めた。学習データとテストデータの重複を防ぐためにこの計 26 講演は学習データから除外している。 表 1 : テストデータの詳細 & & \\ ## 2.4 TED の音声認識結果と後処理 以下(a), (b),(c)の三通りの手法でモデルを作成し、音声認識を行った際の認識率を比較した。 (a) TED 講演音声による単独モデル TED 講演 450 時間の学習データで DNN-HMM を学習した。言語モデルは TED 講演 450 時間のテキストから作成し語彙サイズは 15 万語程である。 (b) Librispeechによる単独モデル Librispeech960 時間の学習データで DNN-HMM を学習した。このモデルのみ、DNN の規模を、層数 17 層、隠孔層のユニット数は 1536 とした。言語モデルは Librispeech960 時間のテキストから作成し、語彙サイズは 20 万語程である。 (c) TED 講演音声と Librispeech の混合学習によるモデル Librispeech960 時間の学習データと TED 講演 450 時間の計 1410 時間を用いて DNN-HMM を学習した。言語モデルは TED 講演 450 時間と Librispeech960 時間を合わせたテキストから作成し、語彙サイズは 28 万語程である。 表 2 に各モデルでの認識率を示す。評価として以下の式で定義される単語正解精度を用いた。 単語正解精度 $=100-\frac{\text { 置換誤り数 }+ \text { 挿入誤り数 }+ \text { 脱落誤り数 }}{\text { 発声された入力文中の単語数 }}(1)$ 表 2 に示すように、Librispeech 単独モデルでは TED 講演のような話し言葉の認識は難しいことが分かる。また、TED+Librispeech 混合モデルでの認識率は TED 単独モデルよりやや良いことが分かる。これは、Librispeech が朗読音声であるものの 960 時間と大量データであることによる効果である。Librispeech 単独モデルから TED データによる適応を行うとさらに良くなると思われる。なお、 (b)のモデルを用いた Librispeech テストデータでの認識実験では単語正解精度は $94.78 \%$ であった。以降、TED2016に対して一番認識率が高かった TED 単独モデルを用いて音声翻訳と音声要約を行う。このために、音声認識結果の数値の読み表現を数值表現に後処理した $($ 例 : thirteen $\rightarrow 13)$ 。なお、認識結果には句読点はないので、音声翻訳・音声要約の評価時の参照テキストも句読点を除去した。 表 2:各モデルでの単語正解精度 [\%] ## 3 TED の音声翻訳 ## 3.1 Transformer 翻訳モデル[22] Transformer モデルはエンコーダとデコーダからなり、再帰型ニューラルネットワークの様に時系列データを用いて学習を行う。出力を求める際は自己注意機構を用いる。エンコーダは同じ構成のエンコ ーダの積み重ねによって構成されており、それらのエンコーダは自己注意とフィードフォワードネットワーク (FFNN)により構成される。デコーダも同じ構成のデコーダが積み重ねられてできている。一つのデコーダは自己注意と FFNN に加えてその間に注意機構が入っている。標準モデルはエンコーダ 6 層、デコーダ 6 層であるが、最適な数は学習データ量に依存する。 22 万文の英日パラレルコーパスで学習した場合は、 6 層 -6 層で $0.80 、 3$ 層 -4 層で 13.66、 3 層一3 層で 13.22 の BLEU 值であった。本実験ではエンコーダとデコーダは共に 3 層とした。本実験で使用する TED 講演の IWSLT (International Workshop on Spoken Language Translation)のコーパスには英語と日本語の対訳コ一パスが 22 万文と少ないため、英語または日本語の単言語コーパスをベースモデルで翻訳/逆翻訳することで英語と日本語の疑似対訳コーパスを作成し、翻訳モデル学習の追加の学習データとすることでデータ拡張を行う。データ拡張には IWSLT2018 英語-スペイン語ペアの英語側コーパスと CSJ (Corpus of Spontaneous Japanese )日本語コーパスの模擬講演を用いた。 100 万文ペアからなる ASPEC (Asian Scientific Paper Excerpt Corpus )コーパスにより英日単/双方向翻訳モデルを学習し、そのパラメータを初期值として IWSLT+データ拡張したデータセットで学習した [8]。なお、ASPEC コーパスによる翻訳モデル学習の際には、TED 語彙に合わせて学習を行った。 ## 3.2 音声翻訳結果 音声翻訳結果の BLEU 值を表 3 に示す。翻訳文の評価には BLUE 値を用いた。音声翻訳はテキス卜翻訳と比べて、約 $14 \%$ BLEU 值が低下した。 $10 \%$ 程度の低下に留まるためには、音声認識精度が $90 \%$ 以上必要と思われる。 表 3 : 音声翻訳結果 (TED2016テストセット) & \\ ## 4 TED の音声要約 ## 4.1 MMR+BERT[18] MMR は、ドキュメント全体との関連度と、情報の新規性に基づいて抽出する文を順に決定していくことで、全体としてドキュメントとの関連が高くかつ穴長性の低い文集合を抽出することを目指す手法である[13][23]。本稿では以下で定義されているものを使用する。最新のものでは文献[24]がある。 MMR の文抽出アルゴリズムでは、ドキュメント $D$ 、文 $i$ 、抽出文数 $R$ を用いて、文 $i$ に含まれる単語からなるベクトルSi を、単語の出現頻度 (Term Frequency)に基づいて求め、文のベクトルの集合 $S_{n r k}$ $=\left.\{S_{1}, S_{2}, \cdots, S_{N}\right.\}$ の $S_{i}$ に対して、 $S_{1}$ から順に以下の 式を計算し、求めた $S_{\text {max }}$ を重要文集合 $S_{r k}$ に加える。 これを繰り返し行うことで要約文を抽出する。 $S_{\max }=\operatorname{argmax}\left.\{\lambda(\operatorname{Sim}(S i, D))-(1-\lambda)\left(\operatorname{Sim}\left(S i, S_{r k}\right)\right)\right.\}$ $S i \in S_{n r k}$ $\operatorname{Sim} 2$ つのベクトル間の類似度を表し、本稿ではコサイン類似度を用いる。式の第一項は文とドキュメントの関連度を表し、第二項は文と重要文集合の類似度の負の値、すなわち情報の新規性を表す。このとき、入はドキュメントとの関連度と壳長性の間のトレードオフである。MMR のツールとして、 Text-Summarization-MMR[25]を使用し、本実験では $\lambda$ $=0.5$ と設定する。 我々は、文脈を学習させた事前学習(Pre-Training) された BERT モデルを利用し、文の分散表現ベクトルを $\mathrm{TF}$ に基づくベクトルの代わりに使用する。英語のドキュメントの文の分散表現を得る際は BERT-Large, Uncased (Whole Word Masking)の英語 1024 次元の分散表現を抽出した。また、BERT ゙゙クトルを入力として階層型ニューラルネットワークによる重要文/非重要文識別器を構成し、(3)式のように、 その出力の事後確率 $\mathrm{p}$ (重要文|入力)の対数値を(2)式に加えた。これを MMR+BERT と呼ぶ。識別器の学習には数千文程度あればよい。なお、同じく MMR+BERT と呼ぶ手法が文献[24]に紹介されているが詳細は不明である。 $\operatorname{Smax}=\operatorname{argmax}\left.\{\lambda\left(\operatorname{Sim}\left(S_{i}, D\right)\right)-(1-\lambda)\left(\operatorname{Sim}\left(S_{i}, S_{\mathrm{rk}}\right)\right)\right.$ $S_{i} \in \operatorname{Snrk}$ $+\alpha \times \log \mathrm{p}\left(\right.$ 重要文 $\left.\left.\mid S_{i}\right)\right.\}(3)$ ## 4.2 BertSumExt[16] BertSumExt 法は、複数文の文境界記号付き入力単語列(512 トークン以下の制限あり)に対して BERT によって文ベクトル列 $\left.\{T_{i}\right.\}$ を得て、これを Transformerに入力して、重要文/非重要文のラベル列を抽出する手法である。この手法は標準的な要約タスクである CNN/Daily Mail の重要文抽出要約に適用され、このタスクで標準的な性能を得ており、 ベースシステムとしてよく使用されている。MMR と同様に類似な文の抽出を避けるために trigram blocking という機能を取り入れている。本手法を TED 講演に利用するために、最大の入力長が 512 トークンという制限から、講演を 512 トー クン以下に分割し、それぞれで重要文抽出を行い、最後に講演全体で設定された重要文数なるようにスコアで選定した。また、オリジナルな BertSumExt は、CNN/Daily news 約 30 万記事の 1000 万文から、各記事から 3 文の重要文を抽出するように学習 されており、このモデル(CNN)と、MRR+BERT と同じくTED $の 51$ 講演の約 4500 文から学習したモデル(TED)、CNN のモデルから TED データで適応したモデル $(\mathbf{C N N} / \mathbf{T E D})$ を使用した。 ## 4.3 音声要約結果 (a) テキスト要約 TED10 講演のテキストデータで行った要約実験の結果を表 4 に示す。重要文の割合は約 $46 \%$ である。TED データだけの学習では MMR+BERT が最も優れているが、BertSumExt $の$ CNN のモデルから TED データで適応した CNN/TED は、これを上回っている。 (b) 音声要約 BertSumExtのみで音声入力の要約実験を行った。講演音声の音声認識結果に対する要約結果を表 4 に示す。音声要約では抽出された文の認識結果に対応する原テキストデータを用いての評価も行い BLEU 值欄の一番右欄に示す。これは重要文箇所を音声で再生した場合は音声認識の誤りに関係なくテキスト内容が正しく聴講できるための尺度である。 テキスト入力と比べて音声入力では Rouge-3 で約 $20 \%$ の性能低下がみられた。しかし、重要文箇所の抽出の尺度では、低下はみられなかった。 表 4 : TED 講演の要約結果 (ROUGE-3) \cline { 3 - 4 } & 認識結果 & 原文に変換 \\ ## 5 まとめ TED 英語講演音声の日本語字幕化のための音声認識、音声翻訳、音声要約の結果を述べた。音声認識では、DNN-HMM により約 $88 \%$ の単語正解精度を得た。この認識結果を Transformer に基づくテキスト翻訳と BERT に基づく重要文抽出型テキスト要約に使用した。音声翻訳はテキスト翻訳に比べて、BLEU 値が約 $14 \%$ 低下した。一方、音声要約はテキスト要約に比べて、重要文として抽出された区間はほぼ同一であり、音声認識誤りに対して頑健であった。 ## 謝辞 本研究の一部は、JSPS 科研費 $18 \mathrm{H} 01062$ 、 19K12027、22K12084 の研究助成を受けた。 ## 参考文献 [1] V.Ferdiansyah, S.Nakagawa : Captioning methods of lecture videos for learning in English, Proc. 25th ICCE, pp.902-907, 2017. [2] A. Anastasopoulos, O. Bojar, et.al : Findings of the IWSLT 2021 evaluation campaign, Proc. IWSLT-2021, pp.1-29, 2021. [3] A. Anastasopoulos, L. Barrault, et.al : Findings of the IWSLT 2022 evaluation campaign, Proc. IWSLT-2022, pp. 98-158, 2022. [4] 上野, 李, 河原:音声認識のデータ拡張のための話者情報およびマスクを用いた合成音声の周波数スペクトログラム強調, 2022 年日本音響学会秋季講演論文集, pp.1149-1150, 2022. [5] W. Zhang, Z. Ye, et al : The USTC-NELSLIP offline speech translation systems for IWSLT 2022, Proc. IWSLT, pp.198-207, 2022. [6] 後藤, 山本, 中川:音声認識誤りを考慮した英語講義音声の日本語への音声翻訳システムの検討, 言語処理学会第 23 回年次大会, pp.1054-1057, 2017. [7] 佐橋, 秋葉, 中川:科学技術論文抄録と講義の英日機械翻訳のリスコアリングの検討,言語処理学会第 25 回年次大会, pp.1165-1168, 2019. [8] 足立, 山本,中川:TED 講演の英日翻訳と日英翻訳の検討,言語処理学会第 29 回年次大会, 2023. [9] R. Fukuda, Y. Ko, Y. Kano, et al : NAIST simultaneous speech-to-text translation for IWSLT 2022, Proc. IWSLT 2022, pp.286-292, 2022. [10] T. Nguyen, A. T. Luu, T. Lu, T. Quan : Enriching and controlling global semantics for text suumarization, arXiv:2109.10616v1, 2021. [11] A. See, P. J. Liu, C. D. Manning: Go to the point summarization with pointer-generative networks, arXiv:1704.04368, 2017. [12] O. Ernst, A. Caciularu, et. al : Proposition-level clustering for multi-document summarization, Proc. NACACL, pp.1765-1779, 2022. [13] J. Carbonell, J. Goldstein : The use of MMR, diversitybased reranking for reordering documents and producing summaries. Proc. ACM SIGIR, pp. 335-336, 1998. [14] 小林,山口,中川:表層的言語情報と韻律情報を用いた講演音声の重要文抽出, 自然言語処理, Vol. 12, No. 6, pp. 3-24, 2005 [15] M. Kageback and D. Dubhashi, O. Mogren, N. Tahmasebi : Extractive summarization using continuous vector space models, Proc. 2nd Workshop on Continuous Vector Space Models and their Compositionality, CVSC, pp. 31-39, 2014. [16] Yang Liu, Mirella Lapata ; Text summarization with pretrained encoders, Proc. conf. EMNLP, pp. 3730-3740, 2019. [17] J. Devlin, M. Chang, K. Lee, K. Toutanova : BERT pretraining of deep bidirectional transformers for language understanding, arXiv:1810.04805, 2018. [18] K. Masuda, Y. Hayakawa, K. Yamamoto, S. Nakagawa : Summarization of spoken lectures based on MMR method and important/unimportant sentence classification using BERT, Proc. GCCE, OS-SLP, 2022. [19] D. Povey, A. Ghoshal, G. Boulianne, L. Burget, O. Glembek, N. Goel, M. Hannemann, P. Motlicek, Y. Qian, P. Cchwarz, J. Silovski, G. Stemmer and K. Veseh : The Kaldi speech recognition toolkit, Proc. ASRU, 2011. [20] OpenSLR : TED-LIUM corpus release3, https://www.openslr.org/51/, 2022 [21] V. Panayotov, G. Chen, D. Povey and S. Khudanpur: Librispeech an ASR corpus based on public domain audio books, 2015 IEEE International Conference on Acoustics, Speech and Signal Processing(ICASSP), pp.5206-5210, 2015. [22] I. Polosukhin, L. Kaiser : Attention is all you need, Conference on Neural Information Processing Systems, 2017 [23] G. Murray, S. Renal, and J. Carletta : Extractive summarization of meeting recordings, Proc. Interspeech, pp. 593-596, 2005. [24] X. Liang, J. Li, S. Wu, M. Li, Z. Li : Improving unsupervised extractive summarization by jointly modeling facet and redundancy, IEEE Trans. ASLP, Vol.30, pp.15461556, 2022. [25] GitHub : Text-Summarization, https://github.com/fajri91/Text-Summarization-MMR, 2023. ## A 付録 表 : TED 講演音声の音声認識と翻訳の例 \\
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-4.pdf
# 非流暢性タグを用いた目的言語テキストによる 自由発話の音声翻訳 胡尤佳 須藤克仁 中村哲 奈良先端科学技術大学院大学 $\{$ ko.yuka.kp2, sudoh, s-nakamura\}@is. naist.jp ## 概要 自由発話はフィラーや言い淀みなどの非流暢性を含むことがあるため,発話を目的言語のテキストや音声に翻訳する音声翻訳でもそれらの現象への対応が重要である.特に,非流暢性を含む音声から流暢なテキストへの翻訳は,翻訳時に非流暢性を除去する必要があり,非流暢性を含むテキストへの翻訳よりも難しい. 本研究では,非流暢性タグを含む目的言語テキストで学習したモデルを用い,流暢なテキストへの翻訳を学習する手法を提案する. 本研究で用いるタグは,多様な非流暢性を一つのタグで表し,非流暢性事象の位置情報を含む。実験から,提案手法による非流暢性を含む音声から流暢なテキストへの翻訳性能向上の効果が示された. ## 1 はじめに 人間の自然発話においてはフィラーや言い淀みといった非流暢性がしばしば含まれ,それらの現象を取り扱うことのできる音声認識 (ASR), 音声翻訳 (ST) が実用上求められている. 通常,発話に非流暢性が含まれていると,ASR の出力テキストも非流暢性を含み,機械翻訳 (MT) での翻訳が難しい.その結果,ASR とMTを繋ぎ合わせたパイプライン型音声翻訳での最終的な性能低下につながる. それを防ぐため, 非流暢性検出器により ASR の出力から検出された非流暢性を取り除いてから MT に入力する手法が主流である [1]. 近年の音声翻訳では,非流暢性を含む音声と非流暢性を含む目的言語テキスト [2],もしくは流暢な目的言語テキスト [3] により構成される音声翻訳データにより, 明示的な非流暢性検出器を用いずに End-to-End 音声翻訳モデルを学習する手法が主流になりつつある [3]. 本研究では,可読性が高い出力をより低遅延で得られる音声翻訳を想定し,非流暢性を含む音声から流暢なテキストへの翻訳の性能向上を目指す。非流暢性を含む音声翻訳での課題として,データが少量である上,特に非流暢な音声から流暢なテキストへの翻訳では,翻訳時に非流暢性を除去し,可読性が高く要約された出力を得る必要があるため,非流暢性を含むテキストへの翻訳と比較して難易度が高い.このような限られたデータを最大限に利用し,非流暢性を含むテキストへの翻訳モデルを作成し, そのモデルを用いて流暢なテキストへの翻訳を学習することで,流暢なテキストへの翻訳性能の向上が期待できる。しかし,非流暢性を含むテキストで学習したモデルを直接利用して流暢なテキストへの翻訳を学習した場合,非流暢性の表記が複数ある上, どの部分が非流暢性であるかという情報を含まないため,曖昧性が高く性能向上の妨げとなり得る. Horii らは日本語音声認識において非流暢性をグループに分類し,それぞれの非流暢性を意味する非流暢性タグを用いて該当部分を置き換え学習することにより,音声認識の性能を向上させた [4]. この方法では,多様な非流暢性をタグにまとめることによりタスクを簡略化している.また,出力がタグ付きのテキストになるため非流暢性の位置の特定が可能であり,タグを取り除くことで流暢なテキストに近いテキストを生成することも可能である. 本研究は,非流暢性タグを音声翻訳データの目的言語テキストで取り入れ,タグを含む学習データを用いてモデルを学習する。その後,このデータで学習したモデルを用いて流暢なテキストへの翻訳を学習する. Horii らの研究では, 音声認識の性能向上を目的とし,原言語テキストに含まれる,あらかじめ人手で非流暢性とアノテーションされた部分を夕グで置き換えている. 本研究では,音声翻訳の性能向上を目的とし,目的言語テキストに含まれる非流暢性をタグで置き換えて学習し,その際に,目的言語テキストがアノテーションされた非流暢性の情報 を持たないことを想定し,非流暢性検出器で非流暢性と検出された部分をタグで置き換える手法を取り入れる. 実験により, 非流暢性タグを用いたデータを用いて学習したモデルにより, 非流暢性を含む音声から流暢なテキストへの翻訳での性能向上が期待できることが示された. ## 2 音声翻訳 $\mathbf{X}=\left(x_{1}, \ldots, x_{T}\right)$ を原言語の入力音声に対する音響特徴量の系列, $\mathbf{S}=\left(s_{1}, \ldots, s_{M}\right)$ を原言語テキストのトークン系列, $\mathbf{T}=\left(t_{1}, \ldots, t_{N}\right)$ を目的言語テキストのトークン系列とする. $v$ を語彙集合 $V$ の元とすると, $t_{i}$ の事後確率は以下の式で表される. $ P_{\mathrm{ST}}\left(t_{i}=v\right)=p\left(v \mid \mathbf{X}, t_{<i}\right) . $ ST の学習時の損失関数 $\mathscr{L}_{\mathrm{ST}}$ は, Cross-entropy loss を用いて以下の式で表される $ \mathscr{L}_{\mathrm{ST}}=-\sum_{i=1}^{N} \sum_{v \in V}^{V} \delta\left(v, t_{i}\right) \log P_{\mathrm{ST}}\left(t_{i}=v\right) $ $\delta\left(v, t_{i}\right)$ は, $v=t_{i}$ のとき 1 , そうでなければ 0 となる関数である. ## 3 非流暢性タグを用いたデータの生成と学習 提案手法で用いる非流暢性タグを用いたデータの生成過程を図 1 に示す. 提案手法では, 目的言語テキストのどの単語が非流暢性かという情報が明示的に付与されていない音声翻訳データを用いることを前提とし, Lou らによる, BERTを用いて事前学習された非流暢性検出器 $[5,6]$ を用いて非流暢性夕グを付与する. この非流暢性検出器は, 構文解析と非流暢性検出のタスクをマルチタスク学習により同時に学習することで得られたモデルであり, 本研究では, 本検出器により得られたタグ付きの音声翻訳データを学習データとして用いる. モデルの学習で利用するデータは,非流暢性検出器から得られた非流暢性の情報をもとに,以下二種類のものを作成する。 ・D2D $D_{T a g}$ : 目的言語テキストの非流暢性をタグで置き換えたデータ り除いたデータ また,学習済みモデルに対して Fine-tuningをするためのデータとして,非流暢性が検出された文のみで構成されたデータ $\Delta D 2 D_{T a g}, \Delta D 2 D_{\text {NoTag }}$ も作成する。 図 1 非流暢性検出器を用いた非流暢性タグが付与された,もしくは除かれたデータ作成の概略図. ## 4 実験 非流暢性を含む音声から流暢なテキストへの翻訳で,提案手法である非流暢性タグを用いたデータで学習したモデルによる性能向上がみられるかを検証するため,以下の実験を行った。 ## 4.1 データセット 本研究では音声翻訳データとして, Fisher Spanish Corpus (Spanish-English)を用いた $[2,3]$. 本研究における Fisher Spanish Corpus は,以下からなるデータで構成されたものを用いた. - $D 2 D$ : 非流暢性を含む音声から非流暢性を含む目的言語テキスト - $D 2 F$ : 非流暢性を含む音声から流暢な目的言語テキスト モデルは Fairseq [7]を用いて実装し,Transformer [8] をべースに作成した. 音響特徴量は 80 次元のメルフィルタバンク特徴量を用い, 学習データでは SpecAugument [9]によるデータ拡張手法を用いた. Tokenizer は SentencePiece [10]を用い, 最大語彙数は 8000 とした. 提案手法においては, 非流暢性を扱うために新たに定義したく\# >を非流暢性ラべルとして定義し, それを含めた語彙数 8000 の辞書を作成した. 学習データからは, 文字数が 400 より大きく,フレーム数が 3000 より大きいぺアは取り 図 2 ベースラインと提案手法の学習過程の概略図. 表 1 学習に用いた Fisher Spanish Corpus の内訳. () 内はオリジナルでのデータサイズ. 除いた.学習データの内訳を表 1 に示す. ## 4.2 End-to-End 音声翻訳モデル 本研究では,ベースラインと提案手法として以下のモデルを用いた. ベースラインと提案手法モデルの学習過程を図 2 に示す. ## 4.2.1 ベースラインモデル 本実験では,以下モデルをベースラインとした。 - $D 2 D$ : 非流暢性を含む音声から非流暢性を含む目的言語テキストへの翻訳を学習したモデル - $D 2 F$ : 非流暢性を含む音声から流暢な目的言語テキストへの翻訳を学習したモデル - $D 2 D+D 2 F: D 2 D$ をもとに流暢な目的言語テキストへの翻訳を Fine-tuning で学習したモデル ## 4.2.2 提案手法モデル 提案手法では,図 1 で作成したデータを用いてモデルを作成した. 非流暢性を含む目的言語テキストから非流暢性検出器により検出されたタグの内訳を表 2 に示す. $D 2 D_{\text {Tag }}, D 2 D_{\text {NoTag }}$ は,非流暢性を含む目的言語テキストと同じ数のデー タとなっており,学習されたモデルは,夕グ情報を用いていない非流暢性を含むテキストをもとにしたべースラインの $D 2 D$ モデルと比較できる. $D 2 D_{\text {Tag }}, D 2 D_{\text {NoTag }}$ を用いたモデルとして, $D 2 D_{\text {Tag }}, D 2 D_{\text {Tag }}+D 2 F, D 2 D_{\text {NoTag }}, D 2 D_{\text {NoTag }}+D 2 F$表 2 目的言語テキストに含まれる非流暢性タグの割合. を作成した。 また, $\Delta D 2 D_{\text {Tag }}, \Delta D 2 D_{\text {NoTag }}$ データを用いて, $D 2 D$ モデルで Fine-tuning したモデルを作成した. $\Delta D 2 D_{\text {Tag }}, \Delta D 2 D_{\text {NoTag }}$ データを用いたモデルとし $\tau, D 2 D+\Delta D 2 D_{\text {Tag }}, D 2 D+\Delta D 2 D_{T a g}+D 2 F, D 2 D+$ $\Delta D 2 D_{\text {NoTag }}, D 2 D+\Delta D 2 D_{\text {NoTag }}+D 2 F$ を作成した. ## 4.3 評価 本研究では,以下の評価データを用いて SacreBLEU [11] により評価した. -D2F test : 非流暢性を含む音声から流暢な目的言語テキスト 暢性タグを除いた目的言語テキスト -D2D Tag test : 非流暢性を含む音声から非流暢性タグを含む目的言語テキスト の非流暢性タグは除去した。 ## 5 実験結果と議論 ベースラインと提案手法の BLEU の結果を表 4 に示す. 実験結果から,提案手法による非流暢性タグの情報を用いたモデルを流暢なテキストで学習したモデルで, $D 2 D_{\text {Tag }}+D 2 F, D 2 D_{\text {NoTag }}+D 2 F, D 2 D+$ $\Delta D 2 F_{\text {NoTag }}+D 2 F$ が,いずれもベースラインと比較してD2F test での BLEU の向上が見られることがわかった。この結果から,非流暢性タグの情報を取り入れた非流暢性を含むテキストへの翻訳を学習した場合の方が,流暢な目的言語テキストへの翻訳において有効だと分かった。 一方で,流暢なテキストで Fine-tuningをしない場合の,非流暢性タグの情報を用いたモデル $D 2 D_{\text {Tag }}, D 2 D+\Delta D 2 D_{\text {Tag }}, D 2 D_{\text {NoTag }}, D 2 D+$ $\Delta D 2 D_{\text {NoTag }}$ では,D2F test での評価値がベースラインである $D 2 D+D 2 F$ の評価値を上回らなかった. このことから,非流暢性タグを付与した,もしくは除いて学習したモデルは,非流暢性部分が予測されるよう,もしくは除かれるよう学習されるものの, 表 3 D2F test で評価した際のベースラインと提案手法の例文. 表 4 ベースラインと提案手法の BLEU の結果 (下線はベースラインより評価値が向上したもの). 流暢な翻訳に最適化されていないことが分かった. D2D NoTag test での評価では,提案手法である $D 2 D_{\text {NoTag }}$ と $D 2 D+\Delta D 2 D_{\text {NoTag }}$ で,ベースラインである $D 2 D$ と比較して性能向上が見られており,非流暢性を除去したテキストへの翻訳をする上では,非流暢性を除去してから学習したモデルが最も最適化されていることが分かった. その一方で, $D 2 D_{T a g}$ と $D 2 D+\Delta D 2 D_{\text {Tag }}$ のようなタグを含むテキストで学習したモデルで出力に含まれるタグを除 ンと比べて性能向上は見られなかった. タグを含むデータで学習したモデルである $D 2 D_{\text {Tag }}$ と $D 2 D+\Delta D 2 D_{\text {Tag }}$ を $D 2 D_{\text {Tag }}$ test で評価した結果と,出力に含まれる非流暢性タグの割合 スラインの $D 2 D$ を含めほとんどのモデルでの  表 $5 \quad D 2 D_{\text {Tag }}, D 2 D+\Delta D 2 D_{\text {Tag }}$ モデルを $D 2 D_{\text {Tag }}$ test で評価した際の BLEU と出力に含まれる非流暢性タグの割合. D2 $D_{\text {NoTag }}$ test での評価値と比較し低い值となっている. 出力に含まれる非流暢性タグの割合をみると,参照文である D2D Tag test では $4.5 \%$ のみタグが含まれているのに対し, $D 2 D+\Delta D 2 D_{T a g}$ では $38.0 \% , D 2 D_{\text {Tag }}$ では $21.5 \%$ とより多くの非流暢性タグが含まれており,参照文中に含まれるタグと出力文に含まれるタグの数の差が大きいことが,評価値の低下の要因だと考えられる。 タグを付与したデータで学習したモデルは,このようなタグの過剩生成の傾向があるものの, $D 2 D_{T a g}+D 2 F$ では性能の向上が見られた. ベースラインと提案手法の一つである $D 2 D_{\text {Tag }}, D 2 D_{\text {Tag }}+D 2 F$ での出力文の例を表 3 に示す. $D 2 D_{\text {Tag }}$ の出力例では,非流暢性である連続した “that’s”の部分に,適切に非流暢性タグが付与されていることが分かる。また,その後流暢なテキストで Fine-tuning した $D 2 D_{T a g}+D 2 F$ では, ベースラインである $D 2 D+D 2 F$ で見られた “that's”の繰り返しを防げており, 提案手法の有効性が確認できた。 ## 6 まとめと今後の課題 本研究では,目的言語テキストに対して非流暢性タグを付与したデータを用い,非流暢性を含む音声から流暢な目的言語テキストの翻訳を学習した. 実験により,流暢な目的言語テキストへの翻訳での性能向上が期待できることが分かった. 今後の課題として,出力文に含まれる非流暢性タグの数をコントロールできるような学習と, 出力位置の予測精度の向上を考えている. ## 謝辞 本研究の一部は JSPS 科研費 JP21H05054 と JST SPRING プログラム JPMJSP2140 の助成を受けたも のである. ## 参考文献 [1] Eunah Cho, Thanh-Le Ha, and Alex Waibel. Crf-based disfluency detection using semantic features for german to english spoken language translation. In Proceedings of the 10th International Workshop on Spoken Language Translation: Papers, Heidelberg, Germany, December 5-6, 2013, 2013. [2] Matt Post, Gaurav Kumar, Adam Lopez, Damianos Karakos, Chris Callison-Burch, and Sanjeev Khudanpur. Improved speech-to-text translation with the fisher and callhome Spanish-English speech translation corpus. In Proceedings of the 10th International Workshop on Spoken Language Translation: Papers, Heidelberg, Germany, December 5-6 2013. [3] Elizabeth Salesky, Matthias Sperber, and Alexander Waibel. Fluent translations from disfluent speech in endto-end speech translation. In Proceedings of the $\mathbf{2 0 1 9}$ Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 2786-2792, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [4] Koharu Horii, Meiko Fukuda, Kengo Ohta, Ryota Nishimura, Atsunori Ogawa, and Norihide Kitaoka. Endto-end spontaneous speech recognition using disfluency labeling. In Hanseok Ko and John H. L. Hansen, editors, Interspeech 2022, 23rd Annual Conference of the International Speech Communication Association, Incheon, Korea, 18-22 September 2022, pp. 4108-4112. ISCA, 2022. [5] Paria Jamshid Lou, Yufei Wang, and Mark Johnson. Neural constituency parsing of speech transcripts. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 2756-2765, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [6] Paria Jamshid Lou and Mark Johnson. Improving disfluency detection by self-training a self-attentive model. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 3754-3763, Online, July 2020. Association for Computational Linguistics. [7] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Waleed Ammar, Annie Louis, and Nasrin Mostafazadeh, editors, Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technolo- gies, NAACL-HLT 2019, Minneapolis, MN, USA, June 2-7, 2019, Demonstrations, pp. 48-53. Association for Computational Linguistics, 2019. [8] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, pp. 5998-6008, 2017. [9] Daniel S. Park, William Chan, Yu Zhang, Chung-Cheng Chiu, Barret Zoph, Ekin D. Cubuk, and Quoc V. Le. Specaugment: A simple data augmentation method for automatic speech recognition. In Gernot Kubin and Zdravko Kacic, editors, Interspeech 2019, 20th Annual Conference of the International Speech Communication Association, Graz, Austria, 15-19 September 2019, pp. 2613-2617. ISCA, 2019. [10] Taku Kudo and John Richardson. Sentencepiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, 2018. [11] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Belgium, Brussels, October 2018. Association for Computational Linguistics.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-5.pdf
# 音声機械翻訳の時間効率と精度を改善するための連続音声分割 福田りょう 須藤克仁 中村哲 奈良先端科学技術大学院大学 \{fukuda.ryo.fo3, sudoh, s-nakamura\}@is.naist.jp ## 概要 連続発話音声の機械翻訳には、翻訳処理単位(セグメント)への音声の事前分割が必要である。既存の音声分割手法は、文より多くの情報を持つような長いセグメントを生成する傾向があり、音声機械翻訳(Speech Translation; ST)の時間効率や精度を低下させていた。本研究では、(1) 長さに関するヒュー リスティクスに頼らない分割アルゴリズムの提案、及び(2)転移学習による音声フレーム分類器の精度改善により上記の問題に取り組んだ。TED talks の音声翻訳コーパスを用いた実験により、提案手法が生成する平均長が短いセグメントは、音声機械翻訳の時間効率と精度を改善することを示した。 ## 1 はじめに ST は機械翻訳(Machine Translation; MT)の一種であり、その実用化には連続音声の自動分割が欠かせない。現在の MT は適切に翻訳できる入力長に上限があるため、長い入力は事前に分割する必要がある。テキストを入力とする通常の MT では、句点や終止符を境界とした文単位への分割が一般的である。一方で、ST の入力である連続発話音声には明示的な境界記号が存在せず、セグメントの境界は自明ではない。ST モデルの学習及び評価時には、音声翻訳コーパスが含むセグメント境界を利用できるが、実用の場面では自動的な音声分割処理が必要になる。 音声区間検出(Voice Activity Detection; VAD)を用いた無音区間に基づく分割 [1] は、一般的な音声分割手法として音声認識やST に広く用いられてきた。しかし、発話に含まれる無音は必ずしも意味的なまとまりの境界とは一致しないため、VAD はしばしば翻訳に適さないセグメントを生じさせる。近年の研究では、VADによる音声の過剰分割がST の精度を著しく低下させることが指摘されている [2]。 この問題を緩和するために、Gaido ら [3] と Inaguma ら [4] は、ST モデルが処理しやすい長さまで VAD によるセグメントを連結して翻訳するヒューリスティクスを用いた。しかし、無音に基づく不適切な分割は依然として存在した。 近年では、音声翻訳コーパスのセグメント境界を予測する、コーパスに基づく音声分割手法 $[5,6,7,8]$ が提案されている。これらの手法は無音に基づく従来手法を大幅に上回り、中でも事前学習済みの自己教師あり音声モデル wav2vec 2.0 を用いた SHAS [7] は、人手で分割されたセグメントの翻訳精度を $95 \%$以上維持することが報告されている。 しかし、SHAS は 2、3文繋がったような長いセグメントを生成する傾向があり、より文に近い短いセグメントまで分割することで精度を改善できる可能性がある。また平均セグメント長が長いほど、並列処理できるサンプル数が減少し、かつトークンあたりの時間計算量が増加するため ST の時間効率が低下する。 そこで本研究では、翻訳に必要な情報を過不足なく持つセグメントを生成する音声分割を実現するために、SHAS に対して以下の工夫を取り入れた。 1. 長さに関するヒューリスティクスに頼らない分割アルゴリズムの提案 2. 転移学習による音声フレーム分類器の精度改善 TED talks の音声翻訳コーパス MuST-C を用いた実験により、提案手法が人手分割の約 $97 \%$ の翻訳精度を維持しつつ、ST の推論速度を約 $25 \%$ 高速化できることを示した。 ## 2 従来手法 SHAS SHAS(Supervised Hybrid Audio Segmentation) [7] は音声翻訳コーパスで学習された音声フレー 么分類器 (2.1 節) と確率的分割統治(probabilistic Divide-and-Conquer; pDAC)アルゴリズム(2.2節)を用いた最新の音声分割手法である。本節では SHAS の概要と課題について説明する。 図 1 SHAS の音声フレーム分類器。 $y=1$ は対応するフレームが音声翻訳コーパスのセグメントに含まれることを、 $y=0$ はセグメント境界の一部であることを示す。 ## 2.1 音声フレーム分類器 SHAS では、入力音声の各フレームがセグメントに含まれるか、あるいはセグメント境界の一部であるかを予測する音声フレーム分類器を用いる。 その構造は図 1 のような、事前学習済みの自己教師あり音声モデル wav2vec 2.0 のエンコーダに 1 層の Transformer Encoder 層を繋げたニューラルネットワークモデルである。モデルは、音声翻訳コーパスが含む高品質な分割(Gold segmentation)を予測する、フレーム単位の系列ラベリング問題としてセグメント境界の予測を学習する。学習サンプルとして、ランダムな位置で抽出した 20 秒の音声と、それに対応づく $20 \mathrm{~ms}$ フレーム毎のラベル $y \in\{0,1\}$ の系列が用いられる。この時、 $y=1$ は対応するフレー ムが音声翻訳コーパスのセグメントに含まれることを、 $y=0$ はセグメント境界の一部であることを示す。学習時に wav2vec 2.0 のパラメータは固定とし、最終層の Transformer Encoder 層と出力層のパラメー タのみを更新する。 ## 2.2 pDAC アルゴリズム 音声フレーム分類器が予測した、各フレームがセグメントに含まれる確率 $p \in[0,1]$ に基づき音声分割が行われる。pDAC は、音声を最も確率が低いフレームの位置で分割し、生成されたセグメントに対しても同様の分割を適用する再帰的なアルゴリズムである。セグメントの分割は、長さが事前に設定した値を下回るか、分割の確率が間値を上回るまで行われる。pDAC の利点は、事前に設定した値を下回るとただちに分割を終了することで、ST モデルが扱いやすい長さのセグメントへ音声を分割できることである。 ## 3 提案手法 SHAS は、pDAC アルゴリズムで長さに関するヒューリスティクスを用いることで、安定して高い翻訳精度を達成した。一方で、SHAS が生成するセグメントは音声翻訳コーパスのセグメントと比べて長くなりやすい。音声翻訳コーパスのセグメント(Gold)の平均長が 5.79 秒であるのに対し、実験で pDAC は平均長 9.17 秒のセグメントを生成した (5 節)。付録 A. 4 にはセグメント長の分布を示す。以上から SHAS のセグメントは、精度を低下させずに更に細かく分割できる余地があると考えられる。過分な情報は翻訳結果に悪影響を及ぼす可能性があり、更にセグメント長が長いほど ST の時間効率が低下する。本研究では、上記の問題を改善するため、長さに関するヒューリスティクスに頼らない分割アルゴリズム pTHR (3.1 節)を提案する。 また音声フレーム分類器の精度を向上するために wav2vec 2.0 のパラメータを一部更新する転移学習を行う (3.2 節)。 ## 3.1 pTHR アルゴリズム pTHR は、事前に設定した確率の閾値 $t h r$ を下回る地点で分割する単純なアルゴリズムである。ただしセグメントが事前に設定した最小長 $\min$ より大きく、最大長 max 以下になることを保証する。また、隣り合う $n_{m a}$ フレームの確率の移動平均を取ることで予測の安定化を図っている。アルゴリズムの疑似コードを付録 A. 1 に示す。分割時にセグメントの長さを重視していた pDAC に比べ、pTHR は音声フレーム分類器の予測が結果に強く反映される。そのため過分な情報を持つセグメントが生成されにくい利点がある。また分割前に音声全体を読み込む必要がある pDAC に対し、pTHR は予測に音声全体を必要としない前向きアルゴリズムであるためオンライン STへも適用できる。 ## 3.2 wav2vec 2.0 の転移学習 pTHR は結果が音声フレーム分類器の精度に左右されやすく、モデルの精度の改善による ST の向上が期待できる。SHAS では、wav2vec 2.0 のパラメータを固定して音声フレーム分類器を学習した。本研究では、wav2vec 2.0 の高い表現力を更に活用するために、一部パラメータの更新を行なう SHAS+FTPT を提案する(図 2)。具体的には、 図 2 wav2 $2 \mathrm{vec} 2.0$ の部分的な転移学習を行う SHAS+FTPT wav2vec 2.0 から引き継いだエンコーダ $N_{\text {AllLayers }}$ 層の中で上 $N_{\text {FTLayers }}$ 層のパラメータを学習する。またメモリ効率を高めるため、Feed Forward 層のパラメータは常に固定として Parallel Adapter [9]を追加・学習した [10]。 ## 4 実験設定 提案手法の有効性を検証するために音声翻訳の実験を行い、複数の音声分割手法を比較した。 ## 4.1 データ 音声翻訳コーパス MuST-C に含まれる、約 408 時間の英語の講演音声と、それに対応付いた書き起こしテキスト、及びドイツ語の翻訳テキストを用いて英独音声翻訳の実験を行った。評価のために、学習データを用いて作成した音声フレーム分類器 (4.3.1 節) と分割アルゴリズム(4.3.2 節)で評価データの音声をセグメント化した。セグメント化された音声をST モデルで翻訳した後、編集距離に基づくテキスト整列アルゴリズムで評価データの参照訳と対応付けを行った後、BLEUを測定した [11]。 ## 4.2 ST モデル ST モデルとして、Fairseq で公開されているJoint Speech-to-Text [12] モデルを用いた1)。このモデルは MuST-C で学習された Transformer に基づく EncoderDecoder 型のニューラルネットワークであり、音声とテキストの両方を大力として受け取ることができる。翻訳時、Decoder はビーム幅 5 でビーム探索を行った。 1) https://github.com/pytorch/fairseq/blob/main/ examples/speech_text_joint_to_text/docs/ende-mustc.md表 1 BLEUによる分割手法の比較。括弧内の数字は Gold segmentationとの比率を示す。 ## 4.3 音声分割手法 ## 4.3.1 音声フレーム分類器 音声フレーム分類器の学習には、学習データからランダムな位置で抽出した 20 秒の音声とそれに対応づくラベル列を用いた。従来手法 SHAS の分類器として、wav2vec 2.0 XLS-R ${ }^{2}$ のエンコーダを下 16 層のみ用いる middle モデルと、 24 層全て用いる large モデルを作成した。また提案手法の分類器として以下に列挙する 6 つの SHAS+FTPT(3.2 節)を作成した。括弧の中に $N_{\text {FTLayers }} / N_{\text {AllLayers }}$ の形式でモデルの設定を示している。 - middle+quarter (4/16) - middle+half (8/16) - middle+all (16/16) - large+quarter (6/24) - large+half (12/24) - large+all (24/24) ## 4.3.2 分割アルゴリズム ベースラインアルゴリズムとして、pDAC (2.2 節) に加え、前向きアルゴリズム pSTRM [13] を用いた。ハイパラーパラメータは $t h r=0.5 、 \min =0.2$ とし、 $\max =[10,28]$ の範囲を開発データを用いて探索した中で、最良の設定で評価を行なった。提案手法である pTHR (3.1 節) のハイパーパラメー 夕は $\max =28 、 \min =0.2$ とし、 $t h r=[0.1,0.9]$ と $n \_m a=[0,1]$ の範囲を開発データを用いて探索した。このうち、移動平均を用いない $n \_m a=0$ の中で最良の設定で評価した結果を pTHR、移動平均を用いる $n \_m a>0$ の中で最良の設定で評価した結果を pTHR+MA として報告する。 ## 5 実験結果 表 1 にSHAS と提案手法で生成したセグメントの翻訳精度を示す。ここでは SHAS は Tsiamas ら [7] 2) https://huggingface.co/facebook/wav2vec2-xls-r-300m 図 34 つの middle サイズモデルにおける分割アルゴリズムの比較。横軸はモデルの学習可能なパラメータの割合を、縦軸は翻訳精度を示す。 から引用した値を、提案手法は複数の音声フレーム分割器、分割アルゴリズム、及びハイパーパラメー タで実施した中で最も高い翻訳精度を得た条件による結果を示している。より詳細な結果を付録 A. 2 に示す。表 1 において、提案手法はSHAS の BLEU スコアを $0.63 \mathrm{pt}$ 上回り、また音声翻訳コーパスの高品質なセグメント(Gold)の翻訳精度を $97.4 \%$ 維持した。 ## 5.1 分類器とアルゴリズムの組み合わせ 図 3 は 4 つの middle サイズモデル (middle、 +quarter、thalf、+all)における各分割アルゴリズムの比較である(large モデルの結果は付録 A. 3 に示す)。図の横軸はモデルのパラメータの中で学習可能なものの割合を、縦軸は翻訳精度を示している。 wav2vec 2.0 のパラメータを固定して学習した middle では、pTHR の結果が他の分割アルゴリズムと比べて大幅に低い。この結果は分類器の予測精度が不十分であることを示唆しており、そのような場合では、長さに関するヒューリスティクスを重視した従来の分割アルゴリズムが優位性を持っていた。一方で、モデルの学習パラメータ数の増加につれ、 pTHR の結果は従来の分割アルゴリズム pDAC 及び pSTRM より大きく向上した。分類器の性能が高いほど、セグメントの長さを重視する必要性が低下することが分かる。 また移動平均を用いた pTHR+MA が一貫して最も良い翻訳精度を得た。特に、middleでは pTHR を $2 \mathrm{pt}$ 以上上回っており、移動平均による安定化がモデルの予測精度の低さを補う効果を示した。 図 4 分割アルゴリズムによる ST の時間効率と翻訳精度のトレードオフ。横軸は 5 回行った ST の推論の平均害行時間を、縦軸は翻訳精度を示す。 ## 5.2 ST の時間効率 図 4 は各分割アルゴリズムの時間効率と翻訳精度のトレードオフの比較である。ミニバッチあたりのトークン数を 100,000 に設定し、同一のマシンでRTX 3090 を用いて ST の推論を行なった。 また複数の点を打つために、各アルゴリズムを異なる条件で複数回実行した。pDAC とpSTRM では $\max =[2,28]$ の範囲で、pTHR と pTHR+MA では threshold $=[0.1,0.9]$ の範囲で条件を設定した。 提案アルゴリズム(pTHR、pTHR+MA)はベースラインアルゴリズム (pDAC、pSTRM) より優れた時間効率で、高い翻訳精度を達成した。特に pTHR が生成するセグメントは、人手分割の約 $97 \%$ の翻訳精度を維持しつつ、pDAC のセグメントと比べて約 $25 \%$ 高速に処理された。平均セグメント長が pDAC は9.17秒であるのに対して pTHR は5.67秒と短いことが高速化に繋がったと考えられる。付録 A. 4 に、 セグメント手法毎のセグメント長の分布を示す。 ## 6 おわりに 本研究では、最新の連続音声分割手法 SHAS の問題点を示した上で、(1)長さに関するヒューリスティクスに頼らない分割アルゴリズムの提案、及び (2)既存手法で用いられた音声フレーム分類器の精度改善によりこの問題に取り組んだ。TED talks の音声翻訳コーパスを用いた実験により、提案手法が生成する平均長が短いセグメントは、音声機械翻訳の時間効率と精度を改善することを示した。 今後は提案手法を即時性の要求が高い同時音声機械翻訳に適用し、有効性の検証を行う。 ## 謝辞 本研究の一部は JSPS 科研費 JP21H05054 と JP21H03500、及び JST SPRING JPMJSP2140 の助成を受けたものである。 ## 参考文献 [1] Jongseo Sohn, Nam Soo Kim, and Wonyong Sung. A statistical model-based voice activity detection. IEEE signal processing letters, Vol. 6, No. 1, pp. 1-3, 1999. [2] David Wan, Chris Kedzie, Faisal Ladhak, Elsbeth Turcan, Petra Galuščáková, Elena Zotkina, Zheng Ping Jiang, Peter Bell, and Kathleen McKeown. Segmenting subtitles for correcting asr segmentation errors. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 2842-2854, 2021. [3] Marco Gaido, Matteo Negri, Mauro Cettolo, and Marco Turchi. Beyond voice activity detection: Hybrid audio segmentation for direct speech translation. CoRR, Vol. abs/2104.11710, , 2021. [4] Hirofumi Inaguma, Brian Yan, Siddharth Dalmia, Pengcheng Guo, Jiatong Shi, Kevin Duh, and Shinji Watanabe. ESPnet-ST IWSLT 2021 offline speech translation system. In Proceedings of the 18th International Conference on Spoken Language Translation (IWSLT 2021), pp. 100-109, Bangkok, Thailand (online), August 2021. Association for Computational Linguistics. [5] Xiaolin Wang, Masao Utiyama, and Eiichiro Sumita. Online sentence segmentation for simultaneous interpretation using multi-shifted recurrent neural network. In Proceedings of Machine Translation Summit XVII Volume 1: Research Track, pp. 1-11, 2019. [6] Javier Iranzo-Sánchez, Adrià Giménez Pastor, Joan Albert Silvestre-Cerdà, Pau Baquero-Arnal, Jorge Civera Saiz, and Alfons Juan. Direct segmentation models for streaming speech translation. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 2599-2611, Online, November 2020. Association for Computational Linguistics. [7] Ioannis Tsiamas, Gerard I. Gállego, José A. R. Fonollosa, and Marta R. Costa-jussà. SHAS: Approaching optimal Segmentation for End-to-End Speech Translation. In Proc. Interspeech 2022, pp. 106-110, 2022. [8] Ryo Fukuda, Katsuhito Sudoh, and Satoshi Nakamura. Speech Segmentation Optimization using Segmented Bilingual Speech Corpus for End-to-end Speech Translation. In Proc. Interspeech 2022, pp. 121-125, 2022. [9] Junxian He, Chunting Zhou, Xuezhe Ma, Taylor BergKirkpatrick, and Graham Neubig. Towards a unified view of parameter-efficient transfer learning. In International Conference on Learning Representations, 2021. [10] Ioannis Tsiamas, Gerard I. Gállego, Carlos Escolano, José Fonollosa, and Marta R. Costa-jussà. Pretrained speech encoders and efficient fine-tuning methods for speech translation: UPC at IWSLT 2022. In Proceedings of the 19th International Conference on Spoken Language Translation (IWSLT 2022), pp. 265-276, Dublin, Ireland (in-person and online), May 2022. Association for Computational Linguistics. [11] Evgeny Matusov, Gregor Leusch, Oliver Bender, and Hermann Ney. Evaluating machine translation output with automatic sentence segmentation. In Proceedings of the Second International Workshop on Spoken Language Translation, 2005. [12] Yun Tang, Juan Pino, Xian Li, Changhan Wang, and Dmitriy Genzel. Improving speech translation by understanding and learning from the auxiliary text translation task. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 4252-4261, Online, August 2021. Association for Computational Linguistics. [13] Marco Gaido, Matteo Negri, Mauro Cettolo, and Marco Turchi. Beyond voice activity detection: Hybrid audio segmentation for direct speech translation. In Proceedings of the Fourth International Conference on Natural Language and Speech Processing (ICNLSP 2021), pp. 55-62, Trento, Italy, 12-13 November 2021. Association for Computational Linguistics. ## A 付録 ## A. 1 pTHR アルゴリズムの疑似コード ## A. 2 全ての音声フレーム分類器の結果 表 2 音声フレーム分類器 SHAS、SHAS+FTPT と、分割アルゴリズム pDAC、pSTRM、及び pTHR+MA を用いて生成したセグメントの翻訳精度。 ## A. 3 large サイズモデルのパラメータBLEU 曲線 図 54 つの large サイズモデルにおける分割アルゴリズムの比較。横軸はモデルの学習可能なパラメータの割合を、縦軸は翻訳精度を示す。 ## A. 4 セグメント長の分布 (a) Gold セグメント (b) pDAC セグメント (c) pTHR セグメント 図 6 セグメント手法毎のセグメント長の分布。(b)(c)では音声フレーム分類器として large+allを用いた。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-6.pdf
# 文脈情報を考慮した高速な英日文アラインメント 福田りょう・, 帖佐 克己 - 奈良先端科学技術大学院大学 $`$ NTTコミュニケーション科学基礎研究所 fukuda.ryo.fo3@is.naist.jp katsuki.chousa.bg@hco.ntt.co.jp ## 概要 本論文では大規模対訳コーパスの作成に向けた高精度かつ高速な文アラインメント手法を提案する。従来手法では文外文脈およびトークン単位の情報を予測時に考慮することで高精度な文アラインメントを実現していたが,予測時の計算量が大きいことから大規模なデータへの適用が難しかった. 本論文では,両方の言語の文脈情報を考慮した文ベクトルを用いて対訳文書間の全てのアラインメントを同時に予測することで,小さい計算量で高精度な文アラインメントを獲得する手法を提案する。日英での新聞記事を用いた実験により,提案手法が予測速度を維持しながら高い精度でアラインメントを行えることを示した。 ## 1 はじめに 文アラインメントは対訳となっている文書対から対訳文対を自動で抽出するタスクである。抽出された大量の対訳文対からなるデータセットは対訳コー パスといい,機械翻訳モデルを始めとした言語横断モデルの学習に用いられる. 特に, 高精度なニュー ラル機械翻訳(Neural Machine Translation; NMT)モデルの学習には高品質かつ大量の対訳文が不可欠であることが知られている [1]. そのため,Webからクロールするなどして得られる大量の対訳文書対から高精度な対訳文アラインメントを高速に抽出できる手法が必要とされている. 近年ではニューラルネットワークを用いたスコアリングに基づく文アラインメント手法が多数提案されている. Vecalign [2] は文ベクトルの類似度に基づくスコアを用いてアラインメントを行う手法である. この手法は比較的高速に文対応付けを計算できる一方で,精度が文べクトルに用いる多言語文埋め込み表現の精度に大きく影響されるため,英語やドイツ語に比べて低資源な日本語を含む言語対では精度が大きく減少してしまう. SpanAlign [3] は言語横断スパン予測モデルとその予測時に得られるスコアを基にアラインメントを行う手法である。このスパン予測モデルは文脈情報および言語横断でのアテンションを行うことが可能で,高精度な文アラインメントを抽出することができる。一方で,モデルに入力するトークン数が増えるに従って予測にかかる計算量が非常に大きくなってしまうため,大規模デー タに対して適用することが難しい。 本論文では, 先行研究の高速な予測速度を維持しながら高精度な文アラインメントの予測を行う手法を提案する。提案手法では,対訳文書の各文を事前学習済みの多言語モデルで文ベクトルにエンコードし,両方の言語の文脈情報を考慮した文ベクトルを求め,その文べクトルに基づいて対訳文書間の任意のアラインメント候補に対するスコアを一度に計算する。これにより,高精度な文アラインメントが高速に自動抽出できることが期待される.日英新聞記事を用いた実験で,高速な既存手法と比べて提案手法が予測速度を維持しながら精度を $\mathrm{F}$ 値で $0.032 \mathrm{pts}$向上することを確認した. ## 2 先行研究 文アラインメント手法は文同士の類似度を計算するスコア関数とその類似度に基づいてアラインメン卜を求めるアルゴリズムの 2 つのステップに大きく分解することができる. その内,スコア関数としては文脈情報を考慮しない手法 $[2,4,5,6,7]$ および文脈情報を考慮する手法 [3] が提案されている. 近年のスコア関数はニューラルネットワークに基づく手法が主流となっている. Vecalign [2] と呼ばれる手法は多言語文埋め込み表現の LASER [8] による文ベクトルの類似度に基づいて再帰的な DP マッチングを行うことで,独仏間の文アラインメントで最高精度を達成している. また,計算量も小さいことから世界で最も大きい対訳コーパスの 1 つである ParaCrawl コーパス [9] の作成にも利用されている.一方で,文埋め込みの精度に文アラインメントの精 度が大きく影響されてしまうため, 日英間では独仏間のような言語対と比べて精度が大幅に減少してしまうことが確認されている. SpanAlign [3] はある言語の文書中からもう一方の言語の文に対応する文のスパンの開始/終了位置を予測し, その予測から得られるスコアに基づいて ILPを行うことで文アラインメントを実現する.この言語横断スパン予測モデルは, 先行研究によって予測された文アラインメントの結果を学習データとして事前学習済み多言語言語モデルから作成することができ,文脈情報の利用および言語横断でのアテンションを行うことで,日英間の文アラインメントにおいて最高精度を達成している。一方で,モデルに同時に入力することができるトークン数の上限から,文書に含まれる文数が多くなると sliding window という方法で文書の一部に対する予測を組み合わせて文書全体に対する予測を行う必要があるため, 予測の際の計算量が非常に大きくなってしまう. また,文アラインメントと似たタスクとして単語アラインメントタスクがある.このタスクでは対訳文間の単語の対応関係を抽出する。このタスクでも言語横断スパン予測モデルに基づく手法 [10] が複数の言語対で最高精度を達成している. さらに, Procopio ら [11] は,対訳文間のすべての単語べクト几同士の直積から得られる類似度行列を用いてアラインメントを抽出する手法を提案している。ここで用いられる単語ベクトルはスパン予測モデルと同様の方法で文脈情報および言語横断のアテンションに基づいて計算される. これにより,スパン予測に基づく手法と同等の精度をより高速に実現している. ## 3 提案手法 本論文では,先行研究の高速な予測速度を維持しながら高精度な文アラインメントの予測を行うために,高速かつ高精度にスコア関数を計算する手法を提案する. 図 1 に示す提案手法は,まず対訳文書の各文を事前学習済みの多言語モデルで同じ空間のべクトル表現へと変換し(3.1.1 節),次に言語内および他言語の文脈情報を考慮した文 n-gram ベクトルを計算し(3.1.2 節),最後に対訳文書間の任意の文アラインメントの候補に対するスコアを同時に計算する (3.1.3 節). 提案手法は, 文べクトルへダウンサンプリング,およびスコアの同時計算により高速な予測が可能である. 更に文脈情報を考慮したべクトルによる高精度な文アライメントが期待できる。 ## 3.1 モデル ## 3.1.1 多言語モデルによる文ベクトル 異なる言語の文を同じ空間の埋め込み表現へと変換するために,本手法では LaBSE [12]を使用する. LaBSE は 109 言語以上に対応している多言語文埋め込みモデルで,対訳文検索(bitext retrieval)では非常に高い精度を実現することが報告されている。 LaBSE を用いて文書 $E$ の文べクトル行列 $H^{e} \in$ $\mathbb{R}^{|E| \times d}$ を以下のように求める. $ \begin{aligned} H^{e} & =\left[\mathbf{h}_{1}^{e}, \mathbf{h}_{2}^{e}, \ldots, \mathbf{h}_{|E|}^{e}\right] \\ \mathbf{h}_{i}^{e} & =\operatorname{LaBSE}\left(e_{i}\right), 1 \leq i \leq|E| \end{aligned} $ $\mathbf{h}_{i}^{e}$ は $e_{i}$ に対応する文べクトルであり,$d$ は文べクトルの次元数である. 文書 $F$ の文ベクトル行列 $H^{f} \in \mathbb{R}^{|F| \times d}$ も同様に求める. ## 3.1.2 文脈横断の文 n-gram ベクトル 次に,言語内およびもう一方の言語の文脈情報を考慮した文べクトルを,それぞれの文書の文べクトルを結合して self attention [13] を計算することで求める. $ C_{1}^{e},{ }_{-}, C_{1}^{f}=\text { self_attn }\left(\left[H^{e} ; \mathbf{s} ; H^{f}\right]\right) $ ここで,self_attn は $l$ 層の Transformer Encoder, s は2つの文書の区切りを表す学習可能パラメータ, $C_{1}^{e} \in \mathbb{R}^{|E| \times d}, C_{1}^{f} \in \mathbb{R}^{|F| \times d}$ はそれぞれ $H^{e}, H^{f}$ に対応する Transformer Encoder の出力を表す.続いて,多対多の文対応を抽出するために,文べクトルを文 n-gram ゙ククトルに拡張する。 $ \begin{aligned} C_{1: N}^{e} & =\left[C_{1}^{e} ; \ldots ; C_{N}^{e}\right] \\ C_{n}^{e} & =\text { max_pooling }_{n}\left(C^{e}\right), 1 \leq n \leq N \end{aligned} $ ここで, $N$ は文 n-gram の最大文数を表すハイパーパラメータを, max_pooling $_{n}$ はカーネルサイズ $(n, 1)$, ストライド 1 の Max Pooling 層を表す. $C_{1: N}^{e} \in \mathbb{R}^{\left|E_{1: N}\right| \times d}$ は $C^{e}$ の文 n-gram への拡張である (ただし, $\left.\left|E_{1: N}\right|=\frac{N(2|E|-N+1)}{2}\right) . C^{f}$ の拡張 $C_{1: N}^{f}$ も同様に計算する. ## 3.1.3 スコア計算 最後に,対訳文書間の任意のアラインメント候補に対するスコア行列 $\hat{A} \in \mathbb{R}^{\left|E_{1: N}\right| \times\left|F_{1: N}\right|}$ を,文 n-gram ベクトル同士の直積を MLP 層 mlp に入力すること 図 1 提案手法の概要 で求める. $ \hat{A}=\operatorname{mlp}\left(C_{1: N}^{e} \otimes C_{1: N}^{f}\right) $ (6) 式は一度で全てのアライメント候補のスコアを計算できるため,スパン予測モデル [3] のスコア計算と比べて非常に高速である. ## 3.2 損失関数 文アラインメントのためのスコア関数計算を,正解の文 n-gram 対応を表す行列 $A \in \mathbb{R}^{\left|E_{1: N}\right| \times\left|F_{1: N}\right|}$ を予測する問題としてモデルを学習する.ただし $A_{i j} \in\{0,1\}$ であり, $A_{i j}=1$ は $i$ に対応する文書 $E$ の文 n-gram と $j$ に対応する文書 $F$ の文 n-gram が対応関係にあることを示す. モデルの学習時,損失関数として Binary Cross Entropy(3.2.1 節)または Softmax Cross Entropy(3.2.2 節)を用いた. ## 3.2.1 Binary Cross Entropy (BCE) loss 文 n-gram の対応を,二值分類タスクとして学習する. 学習時の損失 $\mathscr{L}_{b c e}$ は予測されたスコア行列 $\hat{A}$ と, 正解の文 n-gram 対応 $A$ 間の交差エントロピー として (7) 式で定義される. $ \begin{array}{r} \mathscr{L}_{\text {bce }}=-\frac{1}{\left|E_{1: N}\right|\left|F_{1: N}\right|} \sum_{i=1}^{\left|E_{1: N}\right|} \sum_{j=1}^{\left|F_{1: N}\right|}\left.\{a_{i j} \log \sigma\left(\hat{a}_{i j}\right)\right. \\ \left.+\left(1-a_{i j}\right) \log \left(1-\sigma\left(\hat{a}_{i j}\right)\right)\right.\} \end{array} $ ここで, $\sigma$ はシグモイド関数であり,また $\sigma\left(\hat{a}_{i j}\right)(0 \leq$ $\left.\sigma\left(\hat{a}_{i j}\right) \leq 1\right)$ と $a_{i j} \in\{0,1\}$ はそれぞれ $\hat{A}$ と $A(i, j)$成分に対応する. $\mathscr{L}_{b c e}$ によって,モデルは多対多の対応付けを直接的に学習できる. また $A$ の各行及び各列に,値が 1 の要素は高々 1 つしか含まれないため, DP や ILP といったアライメントアルゴリズムの適用が容易である。一方で, $N$ が大きいほど行列がスパースになり,学習が難しくなる欠点がある. モデルの予測時,(6) 式のスコアは $\hat{A}$ の各要素をシグモイド関数で正規化する. ## 3.2.2 Softmax Cross Entropy (SCE) loss 文n-gram の対応を, 多クラス分類タスクとして学習する。学習時の損失 $\mathscr{L}_{s c e}$ は [14] に従い, $E \rightarrow F$方向の対応付け損失 $\mathscr{L}_{E \rightarrow F}$ と $F \rightarrow E$ 方向の対応付け損失 $\mathscr{L}_{F \rightarrow E}$ の平均で定義する. $ \begin{gathered} \mathscr{L}_{\text {sce }}=\left(\mathscr{L}_{E \rightarrow F}+\mathscr{L}_{F \rightarrow E}\right) / 2 \\ \mathscr{L}_{E \rightarrow F}=-\frac{1}{\left|E_{1: N}\right|} \sum_{i=1}^{\left|E_{1: N}\right|} \sum_{j=1}^{\left|F_{1: N}\right|} \\ \left.\{a_{i, j} \log \frac{e^{\left(\hat{a}_{i, j}-m\right)}}{e^{\left(\hat{a}_{i, j}-m\right)}+\sum_{c=1, c \neq j}^{\left|F_{1: N}\right|} e^{\hat{a}_{i, c}}}\right.\} \end{gathered} $ ここで, $m$ は正例と負例のスコアの分離を促進するためのマージンである. $F \rightarrow E$ 方向の対応付け損失 $\mathscr{L}_{F \rightarrow E}$ も (9) 式と同様に計算する. モデルの予測時,(6) 式のスコアは $\hat{A}$ に対して行方向と列方向にソフトマックス関数をかけて正規化した値の平均を用いる. 絶対的な対応付けスコア予測を学習する $\mathscr{L}_{b c e}$ とは対照的に, $\mathscr{L}_{\text {sce }}$ では相対的な対応付けスコアの予測を学習するため, 学習が容易になることが期待できる。 ## 4 実験 提案手法の有効性を確認するため, 日本語と英語の実際の新聞記事の対訳データを用いて文アラインメントの精度と速度の評価を行った. 学習および開発, 評価のデータには読売新聞の記事とその翻訳となっている The Japan News の記事を使用した ${ }^{1)}$. 表 1 に各データの平均文数を示す. 学 1) https://database.yomiuri.co.jp/about/glossary/ 表 1 データセットの平均文数 習データには,内山らの手法 [5] を用いて自動抽出した対訳文書 2,989 本とその文書内の文アラインメントを擬似正解データとして用いた。これらのデー タは,2012 年に発行された日本語記事 317,491 本と英語記事 3,878 本から抽出した. 開発および評価データには,2013 年に発行された記事から人手でアラインメントを行ったものをそれぞれ 15 本ずつ用いた。評価には,文アラインメントの評価尺度として一般的に用いられている,文アラインメント単位での $F_{1}$ スコアを用いた2). ベースラインには, Vecalign [2] と SpanAlign [3] を用いた. Vecalign での文アラインメントには著者実装3)を用いた。アラインメントに含まれる最大文数は 8,文埋め込みべクトルを作成する際に結合する最大文数は 10 とした. また,多言語文埋め込みには LASER [8] を用いた. SpanAlign での文アラインメントについても著者実装4)を用いた。各種設定に関しては論文の設定に準拠した。 提案手法に含まれるLaBSE は,事前学習済みモデル゙)をパラメータを固定して用いた. Transformer Encoderは 1 層の encoder layer で構成し, multihead attention の head 数を 8,隠れ層の次元を 768, Feedforward 層の次元を 2048 とした. 文 n-gram の最大文数 $N=2$ とした. アラインメントアルゴリズムとして整数計画法を適用し,ソルバには IBM ILOG CPLEX 12.8.0.0を用いた. 表 2 に,各手法における英日文アライメントの精度と評価データの推論にかかった実行時間を示す. 提案手法の中で,SCE loss を用いたモデルは BCE loss を用いたモデルより高い F1 スコアを得た. 相対的なスコアの学習により,スパース性による学習の難しさが緩和されたことが示唆される. また Vecalign との比較では,提案手法による $0.32 \mathrm{pt}$ の F1 スコア向上が見られた. 文べクトル計算時の文脈情報の利用や,ILP による非単調な文対応の抽出が精度向上に寄与したと考えられる. 一方で, 2)次のスクリプトの strict スコアを使用した. https: //github.com/thompsonb/vecalign/blob/master/score.py 3) https://github.com/thompsonb/vecalign 4) https://github.com/nttcslab-nlp/spanalign 5) https://huggingface.co/sentence-transformers/LaBSE表 2 英日文アラインメントの精度と評価データの推論にかかった実行時間(秒),および文べクトルの計算に文脈情報を用いない場合(w/o self_attn)の精度 SpanAlign との比較では, 提案手法が $0.48 \mathrm{pt}$ 下回った. SpanAlign はトークン単位の文脈情報を考慮することに対し,提案手法は文単位に圧縮された文脈情報を利用する。この文脈情報の粒度の違いが精度の差に繋がったと考えられる。評価データの推論にかかる実行時間は,提案手法が SpanAlign の $1 / 4$ 程度であった ${ }^{6)}$ .以上の比較から,提案手法は実用レベルの精度を維持しつつ, 既存手法と比べて高速にアライメントを行えると結論づける。 文脈情報の有効性を検証するため,提案手法から self_attnを除いたモデル(w/o self_attn)を作成した. アライメントの精度を表 2 の下部に示す. self_attnを除き,文ベクトルの計算に文脈情報を用いないことで,大きく精度が低下した。このことから,両方の言語の文脈情報が精度向上に作用したことが示唆された。 ## 5 まとめ 本研究では,大規模対訳コーパスの構築に向けた文対応付けの高速化を検討した. 提案手法は,文単位に圧縮された文脈情報を活用することで,高精度な既存手法である SpanAlign よりも高速な文対応付けが行える。また実験では,提案手法が高速な既存手法である Vecalign と比べて高精度に文アライメントを抽出できることを示した. 今後の課題として, スパース性の問題を解消して対応付け可能な最大文数を増やすことや,非連続な対応関係の抽出を可能にすることなどが挙げられる。  ## 参考文献 [1] Huda Khayrallah and Philipp Koehn. On the impact of various types of noise on neural machine translation. In Proceedings of the 2nd Workshop on Neural Machine Translation and Generation, pp. 74-83, Melbourne, Australia, July 2018. Association for Computational Linguistics. [2] Brian Thompson and Philipp Koehn. Vecalign: Improved sentence alignment in linear time and space. In Proceedings of EMNLP-2019, pp. 1342-1348, 2019. [3] Katsuki Chousa, Masaaki Nagata, and Masaaki Nishino. SpanAlign: Sentence alignment method based on cross-language span prediction and ILP. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 47504761, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics. [4] William A. Gale and Kenneth W. Church. A program for aligning sentences in bilingual corpora. Computational Linguistics, Vol. 19, No. 1, pp. 75-102, 1993. [5] Masao Utiyama and Hitoshi Isahara. Reliable measures for aligning japanese-english news articles and sentences. In Proceedings of the ACL-2003, pp. 72-79, 2003. [6] D. Varga, L. Németh, P. Halácsy, A. Kornai, V. Trón, and V. Nagy. Parallel corpora for medium density languages. In Proceedings of the RANLP-2005, pp. 590-596, 2005. [7] Rico Sennrich and Martin Volk. Iterative, MT-based sentence alignment of parallel texts. In Proceedings of the 18th Nordic Conference of Computational Linguistics (NODALIDA 2011), pp. 175182, Riga, Latvia, May 2011. Northern European Association for Language Technology (NEALT). [8] Mikel Artetxe and Holger Schwenk. Margin-based parallel corpus mining with multilingual sentence embeddings. In Proceedings of the ACL-2019, pp. 3197-3203, 2019. [9] Marta Bañón, Pinzhen Chen, Barry Haddow, Kenneth Heafield, Hieu Hoang, Miquel Esplà-Gomis, Mikel L. Forcada, Amir Kamran, Faheem Kirefu, Philipp Koehn, Sergio Ortiz Rojas, Leopoldo Pla Sempere, Gema Ramírez-Sánchez, Elsa Sarrías, Marek Strelec, Brian Thompson, William Waites, Dion Wiggins, and Jaume Zaragoza. ParaCrawl: Web-scale acquisition of parallel corpora. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4555-4567, Online, July 2020. Association for Computational Linguistics. [10] Masaaki Nagata, Katsuki Chousa, and Masaaki Nishino. A supervised word alignment method based on cross-language span prediction using multilingual bert. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP 2020), Online, November 2020. Association for Computational Linguistics. [11] Luigi Procopio, Edoardo Barba, Federico Martelli, and Roberto Navigli. Multimirror: Neural crosslingual word alignment for multilingual word sense disambiguation. In Zhi-Hua Zhou, editor, Proceedings of the Thirtieth International Joint Conference on Artificial Intelligence, IJCAI-21, pp. 3915-3921. International Joint Conferences on Artificial Intelligence Organization, 8 2021. Main Track. [12] Fangxiaoyu Feng, Yinfei Yang, Daniel Cer, Naveen Arivazhagan, and Wei Wang. Language-agnostic BERT sentence embedding. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 878-891, Dublin, Ireland, May 2022. Association for Computational Linguistics. [13] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Proceedings of the NIPS 2017, pp. 5998-6008, 2017. [14] Yinfei Yang, Gustavo Hernandez Abrego, Steve Yuan, Mandy Guo, Qinlan Shen, Daniel Cer, YunHsuan Sung, Brian Strope, and Ray Kurzweil. Improving multilingual sentence embedding using bidirectional dual encoder with additive margin softmax. arXiv preprint arXiv:1902.08564, 2019.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-7.pdf
# 音声の離散特徵量を活用した End-to-End 音声翻訳における音声系列長の削減 阿久井 駿 1 鶴岡 慶雅 1 1 東京大学大学院 情報理工学系研究科 \{akui , tsuruoka\}@logos.t.u-tokyo.ac.jp ## 概要 本稿では,end-to-end 音声翻訳における音声系列長を動的に削減する新たな方法を提案する。一般に音声系列は非常に長いため, end-to-end 音声翻訳モデルに音声を入力する際は系列を短くする必要がある. 従来手法では音素の疎密を考慮せずにフレームを等間隔で圧縮するため,非効率的である可能性がある。そこで本稿では,音声の離散特徴量を活用した教師なし音素セグメンテーションに基づいて音声系列を動的に压縮する手法を提案する.同一セグメントに属する音声系列を平均して 1 つに圧縮してからモデルに入力することで,従来手法と同程度の翻訳精度を保ちつつ,系列長を従来手法の半分程度に削減することに成功した。 ## 1 はじめに 音声翻訳は,ある言語の音声を別の言語のテキストに翻訳するタスクである。音声翻訳は従来,i) 音声認識,ii) テキストどうしの機械翻訳という 2 つのタスクを組み合わせることで実現されていた $[1,2]$. しかしこの方法は,i) 音声認識で生じた認識誤りが機械翻訳に伝播して翻訳精度が低下する,ii) 音声のみが持つ韻律などの情報が失われる,iii) 2 つのモデルを経由するため翻訳文を生成するのに時間がかかる,といった欠点が指摘されていた $[3,4]$. そこで近年では,こうしたデメリットを解消するために,書き起こし文を経由せずに翻訳文を直接生成する end-to-end 音声翻訳の研究が進められている $[5,6,7]$. 近年, テキストどうしの機械翻訳で Transformer [8] が高い翻訳精度を達成したことを受け, end-to-end 音声翻訳においても Transformer を利用した手法が提案されている $[9,10]$. しかし, Transformer に音声系列を入力する際には,しばしばその計算量が問題 となる。音声系列の入力には,一般的には $10 \mathrm{~ms}$ 程度の幅で抽出した特徴量が用いられることが多く, これは同じ内容のテキストと比べても非常に長い. Transformer の空間計算量は入力の長さの 2 乗に比例するため,長い音声系列を直接入力することは計算コストの観点から現実的ではない。 音声系列の長さを削減する既存の手法としては,畳み込みニューラルネットワーク (Convolutional Neural Network; CNN)を利用した方法が挙げられる [9]. この手法では,音声系列に対して stride が 2 の CNNを 2 回適用することで,系列長をおよそ 4 分の 1 に削減している. しかしこの方法では, 音声系列内における音素の疎密の違いによらず全フレームが等間隔で圧縮されることになるため,音素が密集している部分の情報が大きく失われる可能性がある。このほかには,音声系列とそれに対応する音素や文字とのアラインメントを学習し,隣接するフレームで同じ音素や文字を表すと推測されるものを 1 つに圧縮する方法も提案されている $[11,12,13,14]$. これらの手法では,音素の疎密に応じて系列を動的に圧縮することができ, CNN を用いた手法より高い翻訳精度を達成している。しかし,これらの方法はいずれも音声に対応する書き起こし文や音素の情報が必要であり,文字を持たない言語に応用することが不可能である. 音声系列に対応する音素とのアラインメントを,音声のみを用いて教師なしで学習する方法も提案されており [15],この手法を用いれば,書き起こし文を利用しなくても音素の疎密に応じて系列を動的に圧縮できることが期待される.そこで本稿では,書き起こし文を利用せず音声のみで学習した音素セグメンテーションを用いて,音声系列を動的に圧縮することを試みた。そして,従来の等間隔で圧縮する方法と比べた翻訳精度や圧縮率の差について検証した. ## 2 関連研究 ## 2.1 Transformer を利用した End-to-end 音声翻訳 Transformer [8] は attention と呼ばれる機構を用いた encoder-decoder モデルであり,入力系列を受け取り隠れ状態にエンコードするエンコーダと,エンコーダが出力した隠れ状態と出力系列を受け取り次のステップの出力を生成するデコーダから構成される. Transformer はもともとはテキストどうしの機械翻訳のために提案されたモデルであるが,入力系列としてテキストの代わりに音声の特徴量を用いることで音声翻訳に対しても有効であることが示されている [9]. 音声の特徵量には主に対数メルスペクトログラムが用いられるが,そのままでは系列長が長いため計算量が非常に大きくなり,GPU のメモリ容量内で学習を行うことが困難となる. そこで, 音声系列に stride が 2 の CNNを 2 回適用し, 系列長をおよそ 4 分の 1 に削減してから Transformerに入力することでこの問題に対処している. ## 2.2 音声の離散特徵量を利用した教師なし 音素セグメンテーション ## 2.2.1 VQ-VAE 音声の離散的な特徵量を得る方法として, VectorQuantized Variational Autoencoder(VQ-VAE)[16] を用いた手法が提案されている [17]. VQ-VAE は, i) エンコーダ,ii) ベクトル量子化,iii) デコーダ,の 3 つの部分から構成される. モデルの詳細な図は付録 $\mathrm{A}$ に記した。 エンコーダエンコーダはまず 1 次元の音声波形 $\boldsymbol{x}=\left(x_{1}, \ldots, x_{N}\right)$ を入力として受け取り, 対数メルスペクトログラムを計算する。 次に対数メルスペクトログラムを 5 層の CNN と線形変換に入力し, 連続的な特徴量 $z=\left(z_{1}, \ldots, z_{T}\right)$ を出力する. ベクトル量子化この部分は,コードブックと呼ばれる $K$ 個の異なる学習可能なべクトルの集合 $\boldsymbol{e}=\left.\{\boldsymbol{e}_{1}, \ldots, \boldsymbol{e}_{K}\right.\}$ で構成される. ここでは,エンコー ダが出力した特徴量 $z$ を受け取り, 各要素 $z_{i}$ をコー ドブックの中で最も $L^{2}$ 距離が近いべクトルに置換することで離散的な特徴量 $\hat{z}=\left(\hat{z}_{1}, \ldots, \hat{z}_{T}\right)$ を得る. $ \hat{z}_{i}=\underset{\hat{z}_{i}^{\prime} \in \boldsymbol{e}}{\arg \min }\left.\|z_{i}-\hat{z}_{i}^{\prime}\right.\|_{2}^{2} \quad(i=1, \ldots, T) $ この操作は微分不可能であるため, 誤差逆伝播の際は straight-through estimator [18] を用いて式 (2)のように勾配を近似する。ここで $\mathscr{L}$ は損失関数である. $ \frac{\partial \mathscr{L}}{\partial z} \approx \frac{\partial \mathscr{L}}{\partial \hat{z}} $ デコーダデコーダは離散特徴量 $\hat{z}$ を受け取り,各フレームを $50 \%$ の確率で隣接するフレームに置換する time-jitter 正則化 [19]を行う. その後, 話者を表す埋め込みべクトルと結合し,回帰型ニューラルネットワーク(Recurrent Neural Network; RNN)を用いて元の音声波形を復元する. モデルは,式 (3) で表される損失関数 $\mathscr{L}$ 最小化するように学習される。 $ \mathscr{L}=-\frac{1}{N} \sum_{i=1}^{N} \log p\left(x_{i} \mid \hat{z}\right)+\beta \frac{1}{T} \sum_{i=1}^{T}\left.\|z_{i}-\operatorname{sg}\left(\hat{z}_{i}\right)\right.\|_{2}^{2} $ 第 1 項は再構成誤差, 第 2 項はエンコーダの出力を離散特徵量に近づける項である。ここで, $\operatorname{sg}(\cdot)$ は勾配を計算しないことを意味する。 $\beta$ はハイパーパラメータであり,本稿では $\beta=0.25$ を用いた. ## 2.2.2 VQ-VAE による音素セグメンテーション VQ-VAE で得られる離散的な特徴量について, 隣接するフレームで異なるエントリが選ばれている部分を音素の境界とみなし, 教師なしでセグメンテー ションを行う方法が提案されている [15]. しかしこの方法では, 実際の音素と比べて細かく分割されすぎてしまう問題がある。 そこで,全体のセグメント数に制約を設けることで,より音素境界に近いセグメンテーションが可能である. 具体的には,連続特徵量とエントリ間の $L^{2}$ 距離の 2 乗の和に, ペナル 最小化するように離散特徵量 $\hat{z}$ を選択する。 $ \begin{gathered} \hat{z}_{1}, \ldots, \hat{z}_{T}=\underset{\hat{z}_{1}^{\prime}, \ldots, \hat{z}_{T}^{\prime}}{\arg \min } \mathscr{E}\left(\hat{z}_{1}^{\prime}, \ldots, \hat{z}_{T}^{\prime}\right) \\ \mathscr{E}\left(\hat{z}_{1}^{\prime}, \ldots, \hat{z}_{T}^{\prime}\right)=\sum_{i=1}^{T}\left.\|z_{i}-\hat{z}_{i}^{\prime}\right.\|_{2}^{2}+\lambda \operatorname{seg}\left(\hat{z}_{1}^{\prime}, \ldots, \hat{z}_{T}^{\prime}\right) \end{gathered} $ ここで $\operatorname{seg}\left(\hat{z}_{1}^{\prime}, \ldots, \hat{z}_{T}^{\prime}\right)$ は系列 $\left(\hat{z}_{1}^{\prime}, \ldots, \hat{z}_{T}^{\prime}\right)$ に含まれるセグメント数を表す。また,入はハイパーパラメー タであり,本稿では $\lambda=3$ を用いた. この最小化問題は, $\alpha_{t}=\min _{\hat{z}_{1}^{\prime}, \ldots, \hat{z}_{t}^{\prime}} \mathscr{E}\left(\hat{z}_{1}^{\prime}, \ldots, \hat{z}_{t}^{\prime}\right)$ とおくと, 動的計画法を用いて式 (5)のように解くことができる. $ \alpha_{t}= \begin{cases}0 & (t=0) \\ \min _{j=1}^{t}\left(\alpha_{t-j}+\min _{k=1}^{K}\left.\|z_{i}-\boldsymbol{e}_{k}\right.\|_{2}^{2}+\lambda\right) & (t=1, \ldots, T)\end{cases} $ discrete features $\hat{\boldsymbol{z}}$ (a) discrete log-mel spectrogram (b) averaged 図 1 セグメンテーションを用いて音声系列を圧縮する概略図. (a) VQ-VAE の離散特徴量をそのまま用いる方法 (discrete) と, (b) 同じセグメントに属する特徴量を平均する方法(averaged)の 2 通りを提案した。 ## 3 提案手法 ## 3.1 音声系列の圧縮 本稿では, end-to-end 音声翻訳モデルに入力する音声系列に 2.2 節で述べたセグメンテーションを適用し,同じセグメントに割り当てられたフレームを 1 つに圧縮することで,音声系列長を動的に削減することを試みた. フレームの圧縮には, 図 1 に示す 2 通りの方法を考えた。 Discreteこの方法では,音声系列として各セグメントに割り当てられた VQ-VAE の離散特徴量をそのまま用いる. 各離散特徴量に線形変換を施し, Transformer のエンコーダに入力する. Averaged この方法ではまず,2.1 節で述べた従来手法と同様に,音声から抽出した対数メルスペクトログラムに 2 層の CNN を適用する。ただし,本手法では 2 層目の CNN の stride は 1 とする。こうして得られた特徴量の各フレームをセグメンテーションと照らし合わせ,同じセグメントに属するフレー ムの特徴量を平均して 1 つのベクトルに統合する。 ## 3.2 セグメントの長さに関する情報の付加 3.1 節で述べた方法では,各セグメントがその長さによらず 1 つのベクトルに圧縮されるため,セグメントの長さに関する情報が失われてしまう。そこで,圧縮後の各ベクトルの末尾にセグメントの元のフレーム数を追加し,セグメントの長さに関する情報を補完することを試みた。 ## 4 実験 ## 4.1 実験設定 提案した音声系列長の削減方法の有効性を検証するため, 3.1 節で述べた 2 種類の手法(discrete, averaged)を,CNNのみを用いて系列を圧縮する従来手法(baseline)[9] と比較する実験を行った. 提案手法で利用するセグメンテーションには, VQ-VAE で得られる離散特徴量をそのまま用いたセグメンテーション(vq)と,セグメント数に応じたペナルティを追加したセグメンテーション(dp)の 2 種類を用いた.また, 3.2 節で述べた方法で圧縮後の特徴量に各セグメントの長さを付加した場合,実験結果にどのような違いが現れるかを比較した. 翻訳精度の評価には BLEU [20] を用いた. ## 4.1.1 VQ-VAE 音声翻訳に用いるデータセットには話者の情報が含まれていないため,VQ-VAEの学習には話者アノテーション付きの英語コーパスである Buckeye [21] に含まれる約 18 時間分の音声を使用した. モデルには 2.2 節で述べた VQ-VAE モデルを使用した. 学習の詳細は先行研究 [17] に従い,学習データからサンプルした $320 \mathrm{~ms}$ の音声系列 52 個を 1 つのバッチとしてモデルを学習した. パラメータの最適化には Adam [22] を使用し, 学習率は $4 \times 10^{-4}$ で初期化した後 300,000 ステップと 400,000 ステップで半分に減衰するように設定した. また,コードブックの最適化には指数移動平均を用いた方法 [16] を使用した. モデルは合計で 500,000 ステップ学習した. ## 4.1.2 End-to-end 音声翻訳 End-to-end 音声翻訳のデータセットには,MuSTC [23] の英語-ドイツ語コーパスを用いた. このデータセットには,学習データ 250,942 文,検証データ 1,415 文,テストデータ 2,580 文が含まれる。音声の特徵量には $10 \mathrm{~ms}$ ごとに $25 \mathrm{~ms}$ 幅の窓で抽出した 80 次元の対数メルスペクトログラムを使用した. また,テキストはSentencePiece [24]を用いてサブワードに分割した. モデルの学習時は, 音声特徴量の系列長が 2,000 フレームを超える文を除外し,各バッチに含まれる音声系列のフレーム数の合計が最大で 20,000 となるようにバッチ化した. パラメータの最適化には Adam [22]を使用し, 8 バッチ 表 1 MuST-C 英語-ドイツ語コーパスのテストデータを用いた各手法の BLEU スコア. 手法名のかっこ内はセグメンテーションの方法を表す。また,normal は圧縮後の特徴量に各セグメントの長さを付加しなかった場合の結果,concat は付加した場合の結果である。 ## BLEU ごとにパラメータを更新した.また,学習率は最初の 10,000 ステップで 0 から $2 \times 10^{-3}$ まで線形に増加させ,その後はステップ数の平方根に反比例するように減衰させた。モデルは合計で 100,000 ステップ学習した. その他のハイパーパラメータは付録 Bに記した。 ## 4.2 実験結果 MuST-C 英語-ドイツ語コーパスのテストデータにおける各手法の BLEU スコアを表 1 に示す. 離散特徴量をそのまま用いた手法(discrete)は従来手法と比べて大きく翻訳精度が下がる結果となった. Discrete 内で比較すると,セグメンテーションには $\mathrm{dp}$ よりも vqを用いたほうが翻訳精度は高かった。 また,セグメントの長さに関する情報を付加することで BLEU スコアに 2 ポイント前後の向上が見られた.一方,セグメンテーションに基づいて特徵量を平均した場合(averaged)は従来手法と同程度の翻訳精度が維持されるか従来手法よりやや劣る結果となった. Averaged 内で比較すると,セグメンテー ションには $\mathrm{vq}$ より dp を用いたほうが翻訳精度は高く, この方法では従来手法と比べて BLEU スコアで 0.02 ポイントの改善が見られた. この手法では, セグメントの長さの情報を付加することによる翻訳精度の向上は見られなかった. ## 4.3 考察 Discrete の翻訳精度が従来手法と比べて大きく劣っていることから,音声翻訳の入力に離散特徴量をそのまま用いるだけでは,翻訳に必要な音声の情報が大きく久落してしまうと考えられる.セグメントの元の長さを補うことで翻訳精度は向上したものの,依然として従来手法の翻訳精度を大きく下回っ表 2 MuST-C 英語-ドイツ語コーパスにおける,セグメンテーションの種類ごとの音声系列長の平均圧縮率. ているため,離散特徴量を音声翻訳に活用するためにはさらなる工夫が必要である. Averaged では,最も BLEU スコアが高かった dp セグメンテーションを用いた方法でも従来手法と同程度の翻訳精度にとどまった。しかし,表 2 に示した通り,dpセグメンテーションを用いた方法では音声系列長を従来手法のおよそ半分に圧縮できている.このことから,提案手法は従来手法の翻訳精度を維持しながら音声の系列長を大きく削減できるという点で有効であると考えられる。 ## 5 おわりに 本稿では,end-to-end 音声翻訳において音声系列長を動的に削減するため,VQ-VAE を利用した教師なし音素セグメンテーションに基づいて音声系列を圧縮する手法を提案した. 実験の結果,同一セグメントに属する音声系列を平均して1つに圧縮してからモデルに入力することで,従来手法と同等の翻訳精度を保ちながら系列長を従来手法の半分程度にまで削減することに成功した。 今後の課題としては,以下の 3 点が挙げられる. 教師ありセグメンテーション手法との比較本実験では,ベースラインとして CNNを用いてフレー ムを等間隔で圧縮する方法のみを用いた,今後は教師ありセグメンテーションを使用した従来手法との比較実験も行い,翻訳精度や圧縮率,計算量などの違いについて検証する必要がある。 音声翻訳に適した離散表現の獲得本実験では,音声翻訳の入力に離散特徴量を用いた場合,翻訳精度が大きく下がる結果になった。離散特徴量を音声翻訳に活用するためには,より音声翻訳に適した離散表現を得る方法を模索する必要がある。 低リソースな条件下での実験提案手法のメリットの 1 つに,音声の書き起こし文が必要でないため文字を持たない言語に応用できることが挙げられる.そうした言語では,本実験のように大規模な学習データが集められない可能性が高い。そこで,低リソースな条件下でも本手法が有効であるかを実験して検証する必要がある。 ## 参考文献 [1] Fred Stentiford and M.G. Steer. Machine translation of speech. British Telecom Technology Journal, Vol. 6, No. 2, pp. 116-123, 1988. [2] Hermann Ney. Speech translation: Coupling of recognition and translation. In 1999 IEEE International Conference on Acoustics, Speech, and Signal Processing, Vol. 1, pp. 517-520, 1999. [3] Nicholas Ruiz and Marcello Federico. Assessing the impact of speech recognition errors on machine translation quality. In Proceedings of the 11th Conference of the Association for Machine Translation in the Americas: MT Researchers Track, pp. 261-274, 2014. [4] Matthias Sperber and Matthias Paulik. Speech Translation and the End-to-End Promise: Taking Stock of Where We Are. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7409-7421, 2020. [5] Alexandre Bérard, Olivier Pietquin, Christophe Servan, and Laurent Besacier. Listen and Translate: A Proof of Concept for End-to-End Speech-to-Text Translation. arXiv:1612.01744 [cs], 2016. [6] Ron J. Weiss, Jan Chorowski, Navdeep Jaitly, Yonghui Wu, and Zhifeng Chen. Sequence-to-Sequence Models Can Directly Translate Foreign Speech. In Interspeech 2017, pp. 2625-2629, 2017. [7] Alexandre Bérard, Laurent Besacier, Ali Can Kocabiyikoglu, and Olivier Pietquin. End-to-End Automatic Speech Translation of Audiobooks. In 2018 IEEE International Conference on Acoustics, Speech and Signal Processing, pp. 6224-6228, 2018. [8] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention Is All You Need. In Proceedings of the 31st International Conference on Neural Information Processing Systems, pp. 60006010, 2017. [9] Changhan Wang, Yun Tang, Xutai Ma, Anne Wu, Dmytro Okhonko, and Juan Pino. Fairseq S2T: Fast Speech-to-Text Modeling with Fairseq. In Proceedings of the 1st Conference of the Asia-Pacific Chapter of the Association for Computational Linguistics and the 10th International Joint Conference on Natural Language Processing: System Demonstrations, pp. 33-39, 2020. [10] Hirofumi Inaguma, Shun Kiyono, Kevin Duh, Shigeki Karita, Nelson Yalta, Tomoki Hayashi, and Shinji Watanabe. ESPnet-ST: All-in-One Speech Translation Toolkit. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 302-311, 2020. [11] Elizabeth Salesky, Matthias Sperber, and Alan W Black. Exploring Phoneme-Level Speech Representations for End-to-End Speech Translation. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 1835-1841, 2019. [12] Elizabeth Salesky and Alan W Black. Phone Features Improve Speech Translation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 2388-2397, 2020. [13] Marco Gaido, Mauro Cettolo, Matteo Negri, and Marco Turchi. CTC-based Compression for Direct Speech Translation. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 690-696, 2021. [14] Sara Papi, Marco Gaido, Matteo Negri, and Marco Turchi. Speechformer: Reducing Information Loss in Direct Speech Translation. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 1698-1706, 2021. [15] Herman Kamper and Benjamin van Niekerk. Towards Unsupervised Phone and Word Segmentation Using SelfSupervised Vector-Quantized Neural Networks. In Interspeech 2021, pp. 1539-1543, 2021. [16] Aaron van den Oord, Oriol Vinyals, and Koray Kavukcuoglu. Neural Discrete Representation Learning. In Proceedings of the 31st International Conference on Neural Information Processing Systems, pp. 6309-6318, 2017 [17] Benjamin van Niekerk, Leanne Nortje, and Herman Kamper. Vector-Quantized Neural Networks for Acoustic Unit Discovery in the ZeroSpeech 2020 Challenge. In Interspeech 2020, pp. 4836-4840, 2020. [18] Yoshua Bengio, Nicholas Léonard, and Aaron Courville. Estimating or Propagating Gradients Through Stochastic Neurons for Conditional Computation. arXiv:1308.3432 [cs], 2013 [19] Jan Chorowski, Ron J. Weiss, Samy Bengio, and Aaron van den Oord. Unsupervised Speech Representation Learning Using WaveNet Autoencoders. IEEE/ACM Transactions on Audio, Speech, and Language Processing, Vol. 27, No. 12, pp. 2041-2053, 2019. [20] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: A Method for Automatic Evaluation of Machine Translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, 2002. [21] Mark A. Pitt, Keith Johnson, Elizabeth Hume, Scott Kiesling, and William Raymond. The Buckeye corpus of conversational speech: Labeling conventions and a test of transcriber reliability. Speech Communication, Vol. 45, No. 1, pp. 89-95, 2005 [22] Diederik P. Kingma and Jimmy Ba. Adam: A Method for Stochastic Optimization. In 3rd International Conference on Learning Representations, 2015. [23] Roldano Cattoni, Mattia Antonino Di Gangi, Luisa Bentivogli, Matteo Negri, and Marco Turchi. MuST-C: A multilingual corpus for end-to-end speech translation. Computer Speech \& Language, Vol. 66, p. 101155, 2021. [24] Taku Kudo. Subword Regularization: Improving Neural Network Translation Models with Multiple Subword Candidates. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 66-75, 2018. ## A VQ-VAE モデルの構成 2.2 節で述べた VQ-VAE モデルの詳細な構成を図 2 に示す. モデルの構成やパラメータはすべて先行研究 [17] に従った. 図 2 VQ-VAE モデルの概略図 [17]. 図中の $(N, 1)$ のような数値は各特徴量の長さおよび次元数を表す. $N$ は音声波形の長さ, $T^{\prime}$ は音声から抽出した対数メルスペクトログラムの長さ, $T$ は離散特徴量の長さである. ## B ハイパーパラメータ 本実験で使用した end-to-end 音声翻訳モデルのハイパーパラメータを表 3 に示す. 表 3 End-to-end 音声翻訳モデルのハイパーパラメータ.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-8.pdf
# Filtering of a Web-Crawled Corpus to Achieve a Strong MT Model: a Case Study on the Japanese-Bulgarian Language Pair Iglika Nikolova-Stoupak Shuichiro Shimizu Chenhui Chu Sadao Kurohashi Graduate School of Informatics, Kyoto University \{iglika,sshimizu, chu,kuro\}@nlp.ist.i.kyoto-u.ac.jp } \begin{abstract} This paper considers a low-resource language pair (Japanese-Bulgarian), whose largest corpus currently available is CCMatrix (4.1M parallel sentences). Unfortunately, due to the imperfect web-crawling process in which the corpus is assembled, MT models directly trained on it do not provide optimal results without further work. This paper seeks to train MT models on a portion of CCMatrix that provide a compromise between size and performance. Two main filtering criteria are utilised in the process: the original margin score that has been used to assemble CCMatrix and a score based on the application of a successful classifier model as presented by [1] for a related WMT shared task. The BLEU scores achieved by several derived models are promising. \end{abstract ## 1 Introduction ## 1.1 Low-Resource Language Pairs Low-resource language pairs currently present a major challenge to natural language processing and specifically machine translation (MT). As Dabre et al. [2] illustrate, several techniques have been developing in parallel in attempts to improve the performance of MT models involving such languages. For instance, transfer learning consists in training a "parent" model on a higher-resourced language pair and applying the ensuing embeddings to the original model instead of resorting to random initialisation. Another method, zero-shot translation, involves training the encoder on a number of languages that permits eventual translation among language pairs that the model has not explicitly encountered beforehand [3]. Another line of experiments dealing with the problem of under-resourced languages relates to dataset creation, which in turn can be automated to different degrees. With web-crawling, predefined portions of the web are scanned in search of parallel text. In this manner, OPUS [4] has assembled corpora in a number of language pairs, including the one discussed herein. For instance, WikiMatrix is obtained through exclusive crawling of Wikipedia pages, whilst CCMatrix involves broad portions of the web [5]. In both cases, the cosine-distance-based "margin" metric is applied in the comparison of LASER ${ }^{1)}$ sentence embeddings. ## 1.2 Corpus Filtering CCMatrix, the largest corpus in the Japanese-Bulgarian language pair currently available (4.1M parallel sentences), is the focus of this research. If trained directly on the corpus, a state-of-the-art MT model is far from achieving optimal performance due to the abundance of noise that is typical to automatically crawled corpora [6]. Between 2018 and 2020, WMT introduced shared tasks that aimed at the filtering of large noisy corpora. Participants were asked to provide scores for each sentence pair in the provided corpus, allowing for solely the highestscoring pairs to be used in the training of MT models. In this paper, one of the most successful models issuing from the task, Acarcicek et al. [1], is utilised to provide an additional score to the afore-mentioned margin one. Following preprocessing of the corpus based on heuristic rules, the two scores are tested separately as well as in different combinations in order to train optimal Transformer MT models in terms of both achieved BLEU score and training size. The highest BLEU score in the Japanese-Bulgarian direction (43.40) comes from a model trained on $500 \mathrm{k}$ parallel sentences based on the margin metric. A compact model of $200 \mathrm{k}$ parallel sentences, based on a combination of the margin and classifier scores, has a comparable result of  42.82. The best model in the Bulgarian-Japanese direction, also based on a combined metric and trained on $200 \mathrm{k}$ sentences, has a score of 40.77 . This paper extends the work of Nikolova-Stoupak et al. [7], which also applies the mentioned classifier model in the selection of high-quality parallel sentences which are then used in the training of MT models of three increasing sizes (200k, 500k, and $1 \mathrm{M}$ sentence pairs). The classifier-based models' performance comes short of that of margin-based counterparts. Therefore, further work has been required in using the classifier in the filtering process. Improvements introduced in this paper include the construction of a new classifier model, trained on the Flores-200 evaluation dataset [8], additional training sizes, a combination of the two scoring mechanisms, and the assembly of an alternative dataset for evaluation of MT models. ## 2 Related Work WMT organised three corpus-filtering shared tasks between the years 2018 and 2020, the last two centred specifically on low-resource language pairs. A number of successful projects were produced and, in particular, classifiers were utilised in several discrete ways. For instance, Sánchez-Cartagena [9] applied the classification tool Bicleaner to the provided noisy corpus, achieving an estimation of the parallelism of each original sentence pair. Acarcicek et al.'s [1] model, which is used in this paper, involves a classifier ("proxy-filter"), which is placed on top of a multilingual RoBERTa-Large model [10] and relies on "fuzzy (approximate) string matching" to select challenging negative examples of sentence parallelism. ## 3 Noise in CCMatrix As recounted in [7], noise in the investigated corpus comes in a variety of forms, including mismatched numbers and dates, redundancy, lack of parallelism in meaning and machine-translated text. Importantly, the assembly of an evaluation dataset to score the derived MT models (described in section 5.1) has motivated additional observations concerning the types of noise that are still persistent in highly scoring sentences according to marginand classifier-based filtering. Complete lack of correspondence within margin-derived sentence pairs is not uncommon. Automatically translated text is often observed and is typically reflected in mistakes in grammar, style and the use of gender and number in Bulgarian sentences. The highest scoring classifier-based sentences are in their vast majority parallel in terms of general meaning. Machinetranslated text is, although less common than in the case of margin-based sentences, still present. ## 4 Methodology Please refer to figure 1 for an overview of the full filtering process. ## 4.1 Preprocessing The pipeline of initial preprocessing is identical to the one described in [7]. This stage provides an opportunity to consider the specificities of the two investigated languages; for instance, at determining the acceptable proportions between the sentences in a pair. Such an emphasis is not found in WMT's shared tasks as languages are selected solely based on the relative availability of associated corpora. Consequently, many models, including the regarded one by [1], do not involve a preprocessing stage based on heuristic rules. ## 4.2 Filtering Criteria ## 4.2.1 Margin Scores The margin score that readily comes with the CCMatrix corpus as result of the web-crawling process is used in subsequent experiments with subcorpora selection in isolation or in addition to the score derived following application of [1]'s classifier model. The margin between a pair of sentences equals the ratio between their cosine distance and the cosine distances with their nearest neighbours in both directions in terms of LASER representations [5]. ## 4.2.2 Proxy-Filter Classifier As described in [7], the main reasons behind the selection of [1]'s model include its high performance, reproducibility and use of state-of-the-art neural translation models. In its quest for negative examples, the classifier selects sentences that are close to the correct translation of the source sentence in terms of Levenshtein distance. Ultimately, each original sentence pair receives a score denoting the estimated probability of it being parallel. Figure 1 Broad pipeline of the presented work. ## 4.3 MT Models Once the CCMatrix corpus is filtered and training sets of different sizes assembled, Transformer MT models are trained on them. The Transformer, a state-of-the-art model whose main strength is a reliance on attention mechanisms without the need for recurrence, is opted for due to its simplicity and high translation results [11]. ## 5 Experiments ## 5.1 Data This paper pertains to the cleaning of the CCMatrix corpus in the Japanese-Bulgarian language pair, whose original size is $4.1 \mathrm{M}$ parallel sentences. After the corpus is preprocessed as per section 4.1 , its size is reduced to $2.5 \mathrm{M}$ sentences. The evaluation dataset used for the MT models (divided into equal-sized test and validation sets) consists of $1 \mathrm{k}$ sentence pairs taken from the original CCMatrix corpus. Half of them are taken at random from the top-scoring 10k sentences based on the margin metric, and the other half are a classifier-based counterpart. In this way, a bias for a particular filtering method is avoided. In addition, the sentences are manually edited in order to ensure their quality. In [7], the "proxy-filter" classifier is trained on OPUS's Open Subtitles corpus. However, due to its significantly more limited domain and register than CCMatrix, it has been replaced with Flores-200 [3]. This multilingual and rigorously assembled dataset is based on a variety of Wikipedia pages and has undergone professional human translation followed by several manual checks, thus providing both much higher relevance to the task at hand and higher overall quality. On the negative side, the dataset is meant for use in the evaluation of trained MT models and is therefore limited in size ( $1 \mathrm{k}$ parallel sentences). In contrast, Acarcicek et al. [1] explicitly state that their model has optimal quality when trained on a minimum of $2 \mathrm{k}$ sentence pairs. ## 5.2 Application of Scores The presented translation models differ in terms of the size of training data as well as the ways in which they have been filtered from the original CCMatrix corpus. Like in [7], three main dataset sizes are considered: 200k, 500k and $1 \mathrm{M}$ sentence pairs. In addition, an alternative sizing is introduced that is based on the number of tokens following tokenization with sentencepiece ${ }^{2)}$ (see Appendix A). Combinations of the two described metrics have also been sought in order to optimise performance. The newlyintroduced "margin-classifier" score is derived through averaging of the two scores, preceded by min-max normalisation. An additional experiment is carried out with doubling the weight of the margin-based score. ## 5.3 Translation Models Once supcorpora of CCMatrix are selected based on classifier scores (please refer to Appendix B for a detailed description of the classifier model and the derived scores), Transformer models are trained on them. In addition, in order to provide a bigger picture of the impact filtering mechanisms and training sizes have on MT, models are  Table 1 Performance of the full vs preprocessed CCMatrix corpus, JA to BG Table 2 BLEU scores for each filtering method for the three subcorpus sizes based on number of sentences, JA to BG also trained on the full CCMatrix corpus and on the corpus following the preprocessing stage. All models are evaluated with the dataset described in 5.1 and the derived BLEU scores are juxtaposed. The original idea behind the project is to investigate translation from Japanese to Bulgarian, as the latter language is the lower-resourced one and such a translation system would allow for direct translation into it of unique content originally composed in the Japanese language. However, for purposes of comparison and further insight into the work of the trained MT models, the opposite direction is also experimented with. ## 6 Results ## 6.1 Without Filtering Comparing the BLEU scores achieved by MT models trained on the full vs the preprocessed CCMatrix corpus (Table 1) reveals that the preprocessing stage has caused a significant improvement while largely reducing the training size. ## 6.2 Following Filtering As can be observed in Table 2, MT performance can be further improved following filtering of the preprocessed CCMatrix corpus. The most successful model, with a BLEU score of 43.40 , is trained on $500 \mathrm{k}$ parallel sentences as filtered based on the margin metric. Overall, marginbased models achieve the highest results. The ones that follow are based on the 1:1 margin-classifier metric; notably, achieving a promising high-scoring compact model of 200k sentence pairs (BLEU 42.82). Like in the case of Table 3 BLEU scores for each filtering method for the three subcorpus sizes based on number of sentences, BG to JA [7], last come the classifier-based models, whose weaker performance is not overcome despite the use of the more appropriate Flores-200 dataset to train the underlying classifier model. It is possible that overfitting is produced. Going back to the results achieved by [7], the strongest one of which is 28.49 and comes from the $1 \mathrm{M}$ marginbased model, one can witness a large general increase of scores. In the case of margin-based models, a training size limit has now been reached, leading the 500k-sentence model to score higher than the 1M-sentence one. ## 6.3 Bulgarian-Japanese Direction In the Bulgarian to Japanese translation direction, the best models are once again the margin- and marginclassifier-based (1:1) ones (Table 3), notably the latter outperforming the former. It can also be noticed that models using the strongest selection methods perform better in their more compact training sizes. ## 7 Conclusion and Future Work This paper presents the training of MT models based on portions of the large but noisy CCMatrix corpus in the under-resourced Japanese-Bulgarian language pair. Filtering is based on the margin metric using which the corpus is web-crawled as well as on scores provided by a classifier model following the work of [1]. MT performance is significantly improved as compared with that of the full CCMatrix model as well as of a smaller version based on preprocessing with heuristic rules. The strongest model in the Japanese to Bulgarian direction (BLEU 43.40) is based on margin distance and is trained on 500k sentence pairs. In the opposite direction, best scoring is the model trained on 200k sentence pairs based on averaging of the two metrics. Future improvements of the filtering process to address the prevalence of machine-translated text may include sentence pre-ordering and the explicit inclusion of morphological information along with sentences. ## Acknowledgements This work was supported by Samsung, SDS. ## References [1] Haluk Açarçiçek, Talha Çolakoğlu, Pınar Ece Aktan Hatipoğlu, Chong Hsuan Huang, and Wei Peng. Filtering noisy parallel corpus using transformers with proxy task learning. In Proceedings of the Fifth Conference on Machine Translation, pp. 940-946, Online, November 2020. Association for Computational Linguistics. [2] Raj Dabre, Chenhui Chu, and Anoop Kunchukuttan. A survey of multilingual neural machine translation. ACM Comput. Surv., Vol. 53, No. 5, sep 2020. [3] Naman Goyal, Cynthia Gao, Vishrav Chaudhary, PengJen Chen, Guillaume Wenzek, Da Ju, Sanjana Krishnan, Marc'Aurelio Ranzato, Francisco Guzman, and Angela Fan. The flores-101 evaluation benchmark for low-resource and multilingual machine translation, 2021. [4] Jörg Tiedemann. Parallel data, tools and interfaces in OPUS. In Proceedings of the Eighth International Conference on Language Resources and Evaluation (LREC'12), pp. 2214-2218, Istanbul, Turkey, May 2012. European Language Resources Association (ELRA). [5] Holger Schwenk, Guillaume Wenzek, Sergey Edunov, Edouard Grave, Armand Joulin, and Angela Fan. CCMatrix: Mining billions of high-quality parallel sentences on the web. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 6490-6500, Online, August 2021. Association for Computational Linguistics. [6] Roland Schäfer, Adrien Barbaresi, and Felix Bildhauer. Focused web corpus crawling. 042014. [7] Iglika Nikolova-Stoupak, Shuichiro Shimizu, Chenhui Chu, and Sadao Kurohashi. Filtering of noisy web-crawled parallel corpus: the Japanese-Bulgarian language pair. In Proceedings of the 5th International Conference on Computational Linguistics in Bulgaria (CLIB 2022), pp. 39-48, Sofia, Bulgaria, September 2022. Department of Computational Linguistics, IBL - BAS. [8] Alexandre Magueresse, Vincent Carles, and Evan Heetderks. Low-resource languages: A review of past work and future challenges, 2020. [9] Víctor M. Sánchez-Cartagena, Marta Bañón, Sergio OrtizRojas, and Gema Ramírez. Prompsit's submission to WMT 2018 parallel corpus filtering shared task. In Proceedings of the Third Conference on Machine Translation: Shared Task Papers, pp. 955-962, Belgium, Brussels, October 2018. Association for Computational Linguistics. [10] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach, 2019. [11] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need, 2017. Table 4 The hyperparameters used in the grid search for the optimal "proxy-filter" classifier model Table 5 BLEU scores for each filtering method for the three token-based subcorpus sizes, JA to BG ## A Token-Based Training Sizes In one set of experiments, the number of tokens in random and classifier-based models is deliberately made to match the one in the three main sizes of margin-based models. The reason behind this experiment lies in the perceived and consequently proven via statistical analysis significant difference between sentence sizes associated with the different filtering methods. Whilst the margin score favours sentences that are longer than the CCMatrix corpus's average sentence size, the classifier model strongly prefers short sentences. The results deriving from token-size-based experiments are recorded in Table 5. Note that the margin-based results are identical to the ones presented in Table 4, as the 200k-, 500k- and 1M-sentence sizes of margin-based models are used to generate random and classifier-based models of the same token sizes. As expected, performance of the random and classifier-based models is increased with the increase of training size. The only exception is the largest random model, whose performance (BLEU 37.07) is lower than that achieved with the slightly smaller sentence-based model (37.36). This observation implies that a limit has been reached for the size of random-based models, too. ## B Classifier Model The particular classifier model to be applied in the filtering of CCMatrix is selected following grid searching, as in [7]. Based on previous results, the range of hyperparameters is slightly modified in the following way: the number of training epochs is increased to include 10, positive oversampling is slightly reduced and a decision is made to retain the possibility for a fuzzy max score equal to 100 (i.e. high similarity between sentences is not discouraged as the Flores-200 dataset is free or redundancy). Table 4 shows the content of the grid search as well as the definitions of project-specific hyperparameters. The models are trained on a single TITAN RTX GPU. Despite the limited data classifier models were trained on, the highest scoring model based on the grid search achieved a surprisingly high F1 score of 0.95 . In contrast, its counterpart in [7], achieved an F1 score of 0.58 . The model was trained for 5 epochs with negative random sampling of 2 and positive oversampling of 5, a proportion common to the highest-scoring models. The model' $\mathrm{s}$ fuzzy ratio is 2 , and the fuzzy max score is 100 . After the winning classifier model is applied to the preprocessed CCMatrix corpus, each sentence pair receives a score representing the certainty of the two sentences being mutual translations. The values of the derived scores range between 0.0563 and 0.9996 , the median coming at 0.9992 .
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-9.pdf
# 事前学習モデルによる分割統治ニューラル機械翻訳 石川隆太 加納保昌 須藤克仁 中村哲 奈良先端科学技術大学院大学 \{ishikawa.ryuta.il7, kano.yasumasa.kw4, sudoh,s-nakamura\}@is.naist.jp ## 概要 ニューラル機械翻訳におけるハルシネーションや繰り返し、訳抜けなどの課題に対し、文をセグメントに分割して翻訳し、並べ替えて繋げるニューラル機械翻訳における分割統治的手法 [1] が提案されている。本研究では、[1] で課題とされていた、セグメント翻訳と、セグメントの並べ替えと編集の精度の 2 つに対し、事前学習モデルの mBARTを用いることに加え、セグメント翻訳のモデルを節単位の擬似対訳データでファインチューニングすることで、 セグメント翻訳と、並べ替えと編集の精度の改善を試みた。実験では提案手法による BLEU の改善は認められなかったが、過剩な長さの訳出が大きく減少し、ハルシネーションや繰り返しを抑制できている傾向が確認できた。 ## 1 はじめに グローバル化に伴い翻訳の需要が高まっており、ニューラル機械翻訳 (NMT) が注目されている。 NMT は質の高い訳文の生成が期待できる一方で、入力される文が長くなるとハルシネーションや訳抜け [2] などの問題が発生することがある。この課題に対し、統計的機械翻訳では、長文を短いセグメン卜に分割して翻訳し、並べ替えて繋げるという分割統治的手法 [3] が提案されている。また、[3] を参考にした、NMT における長文のための分割統治的手法 [1] も提案されている。本研究では、[1]において課題とされていたセグメント翻訳の精度と、翻訳されたセグメントの並べ替えと編集の精度改善に向け、セグメント翻訳と並べ替えと編集のモデルに事前学習モデルの mBARTを用い、さらにセグメント翻訳のモデルを節単位の擬似対訳データでファインチューニングする手法の検討を行った。英日翻訳の実験において提案手法による BLEU の改善は認められなかったが、過剰な長さの訳出についてはべースラインから大きく削減できており、ハルシネーショ ンや繰り返しを提案手法により抑制できている傾向が確認できた。 ## 2 関連研究 NMT において、長文を分割し、分割された各セグメントを翻訳した後に前から順に結合し直す手法として Pouget-Abadie ら [4] の自動分割の手法がある。この手法はRNNを用いて、長文を分割して翻訳する際の最適な位置を予測し、モデルが翻訳を行いやすいように入力文を分割する手法である。しかし、この手法は英語からフランス語への翻訳のように、ソース言語とターゲット言語がほとんど同じ語順を持たない限り、長文分割後のセグメントの並べ替えの問題に対応することはできない。特に、英語と日本語のような語順が大きく異なる言語対において、結合後の翻訳結果は不自然な文になりやすい。 この課題に対し、加納ら [1] はNMT における分割統治的手法を提案している。 ## 2.1 分割統治型ニューラル機械翻訳 入力文を節単位でセグメントに分割し、分割されたセグメントを文単位の対訳コーパスで学習された翻訳モデルを用いて翻訳し、翻訳された各セグメントを、セグメント同士の関係性を表すトークンを用いて繋げ、翻訳モデルとは別のニューラルネットワークモデルに入力する。それによって、セグメントの並べ替えと編集を行い、自然な訳文の生成を実現している。ニューラル機械翻訳の分割統治的手法において、文分割後のセグメント翻訳の精度と翻訳されたセグメントの並べ替えと編集の精度は課題とされており、これら 2 つの精度は最終的な翻訳結果に大きく影響すると考えられる。そこで、本研究ではセグメント翻訳と翻訳後のセグメントの並べ替えと編集の精度を向上させるため、加納らの手法を基に次の 2 つを実施した。 ## $2.2 \mathrm{mBART$ を用いた分割統治型ニューラ ル機械翻訳} 加納らの手法においてはセグメント翻訳と翻訳されたセグメントの並べ替えと編集のモデルに Transformer[5]を利用しているのに対し、本研究では事前学習モデルの BART[6] を多言語の大規模なモノリンガルコーパスで事前学習した mBART[7]を利用した。mBART のファインチューニングによる機械翻訳 [8] は、10 万から 1000 万文対規模の比較的少量の対訳コーパスで学習する場合に最も効果を発揮し、mBART と同じ Transformer のエンコーダ・ デコーダモデルを同じ対訳コーパスでゼロから学習するよりも、顕著に高い性能を発揮することが知られている。そのため、事前学習モデルの mBARTを利用することで少量のコーパスで比較的性能の良いベースラインの翻訳モデルを作成することができ、 セグメント翻訳の精度の向上が期待できる。さらに mBART は入力文のトークンのマスクや削除、文の順序をシャッフルするなど人工的なノイズを加えた上で、元の文を復元する事前学習を行なっている。 そのため、本研究における翻訳したセグメントの並べ替えと編集を行うタスクと mBART の事前学習方法は似ているため、相性が良く、並べ替えと編集のモデルにおいても mBARTを利用することで、並べ替えと編集の精度の向上が期待できる。 ## 2.3 節単位の擬似対訳データによる節翻訳 モデルの作成 加納らの手法では文分割後の節の翻訳を文単位の対訳データで学習した翻訳モデルで実施していたが、節の翻訳において文単位のコーパスで学習された翻訳モデルが適しているとは限らない。そこで、本研究では節単位の擬似対訳データを作成し、 mBART をセグメント翻訳用にファインチューニングすることで節翻訳モデルを作成した。これにより、セグメント翻訳の精度の向上を試みた。 ## 3 提案手法 提案手法の概略を図 1 の (a)ベースラインと節翻訳モデルの作成、(b) 節翻訳モデルを用いた分割統治的を用いて示す。提案手法の手順の太字の部分と図 1 の太枠部分が [1] における分割統治的手法を基に新たに実施、または変更した部分である。 1. JParaCrawl コーパスからサンプリングした 300 万文対を学習データとして mBART をファインチューニングしベースラインとなる翻訳モデル表 1:トークン長ごとの評価データの文数 を作成する。 2. コーパスの英語の文を構文解析し、接続詞で分割する。 3. 英文を分割してできた英語節をべースラインの翻訳モデルで翻訳し、擬似日本語節とし、節単位の英日の擬似コーパスを作成する。 4. 3 で作成した節単位の擬似対訳データでmBART をファインチューニングし節翻訳モデルを作成する。 5. 1 で作成した学習データの英文を構文解析し接続詞で分割し、4で作成した節翻訳モデルで分割した節を翻訳する。 6. 5 で翻訳した英語と翻訳結果の日本語のぺアを”@”を3つ繋げた対訳関係を示す記号で結合し、分割した節同士を別の” | "を 3 つ繋げた文の区切りを表す記号で結合する。 7. 6 で作成した英語と日本語を特殊トークンで結合した文をソース、分割前の英語に対応する日本語の文をターゲットとして mBART をファインチューニングし、並べ替えと編集のモデルを作成する。 ## 4 実験 提案手法の有効性を検証するため、以下の実験を行った。 ## 4.1 実験設定 今回実施した実験の詳細設定を以下に示す。 モデルの学習と評価データの対訳コーパスとして、JParaCrawl.ver2 [9] を用いた。具体的に JParaCrawl.ver2 から、評価データを 3 万文サンプリングし、残りのデータから学習データを 300 万文サンプリングすることで、それぞれ評価データと学習データとした。評価データは sentencepiece でサブワードに分割した後に、英語のサブワードトー クンを基準とし、トークン長ごとに 4 分割した評価データを作成した。分割したトークン長と対応する英日の文対の数は表 1 のようになった。評価データの BLEU は、MeCab [10] によって単語分割し、sacrebleu [11]を用いて算出した。 節翻訳モデルと並べ替えと編集のモデルには (a)ベースラインと節翻訳モデルの作成 (b) 節翻訳モデルを用いた分割統治的手法 図 1: ニューラル機械翻訳における分割統治的手法の概略 表 2: 入力トークン長ごとの BLEU 表 3: 入力トークン長ごとの BERTScore (F1) mBART を使用し、fairseq [12] で実装されたものを利用した。ベースラインと節翻訳モデル、並べ替えと編集のモデルの学習時のパラメータの設定は Githubで公開されている英語とルーマニア語における mBART のファインチューニングのデフォルトの設定 [13] と同じ設定を用いた。 節翻訳モデルを作成する際の節単位の擬似対訳データは JParaCrawl.ver2 からサンプリングした英文 200 万文を構文解析し、接続詞で分割し、200万文の内、分割された英語節のみを英語側の節単位のデー タとし、それらを全てべースラインで日本語節に翻訳することで作成した。分割された英語節と翻訳によって得られた日本語節の対訳節の数は約は 190 万となった。構文解析には spaCy [14]を利用した。接続詞で分割される英文は次の例のようになる。 I don't like studying math, but / I like studying English. 提案手法の手順 3 と 5 における節対訳データの日本語節と並べ替えと編集のモデルの入力データの日本語節を生成する際のベースラインと節翻訳モデル 図 2: 参照文に対するモデルの出力文の長さ比が 2 以上となった数 のビームサーチのサイズはどちらも 4 とし、評価の際のビームサイズも 4 とした。 ## 4.2 実験結果 表 2 はベースライン、提案手法の入力トークン長ごとの BLEUを示している。表 2 から分かるように、提案手法はべースラインに比べて全体としての BLEU が 0.8 ポイント低かった。表 3 は BERTScore[15] による評価結果で、表 2BLEU に比べて差が小さいと言えるが提案手法はベースラインを上回れなかった。 一方、ハルシネーションや繰り返しの影響を明らかにするため、参照文のモデルの出力文の長さ比が大きい事例数を調べた結果を図 2 に示す。特に長さ比が 3 以上となるような極端に長い翻訳出力がベースラインでは 67 文、提案手法では 33 文と半減し、ratio の平均土標準偏差はベースラインで $1.035 \pm 0.360$ 、提案手法で $1.017 \pm 0.339$ になる等、提 表 4: 提案手法によるハルシネーションの改善例 ## 入力文 Original Evaluation of the Stratum Corneum Exfoliated by Tape Stripping Method (Part2) - Seasonal and age-related differences of exfoliated pattern ... ## 参照文 原著角層剥離パターンによる角層評価 (第 2 報)一季節変化と年代差について一... ## ベースライン テープストライプ法によるストラトムコネム浸潤の才リジナル評価 (第 2 部)一浸潤パターンの季節と年齢関係の差 ... テープストライプ法によるストラトムコネム浸潤の Original Evaluation of Stratum Corneum Exfoliated by Tape Stripping Method (Part2)一浸潤パターンの季節と年齢関係の差 ... ## 提案手法 テープストリップ法によるストラトム角膜剥離のオリジナル評価 (パート 2) 一季節と年齢に関わる剥離パター ンの違い 案手法により過剰な長さの訳出が抑制できていることが分かり、ハルシネーションや繰り返しが減少していることが示唆される (出力単語数の散布図を付録の図 3 に示す)。実際にベースラインと提案手法の翻訳結果を確認すると、ベースラインにおいてハルシネーションや繰り返しが起きていた文を提案手法では適切に翻訳できている例が確認できた(表 4 に例を示す)。 ## 4.3 考察 提案手法の BLEU がベースラインより低下してしまった原因として、提案手法における節翻訳モデルの性能が低いことが考えられる。文単位のベースライン翻訳モデルと節翻訳モデルにより文単位の翻訳を行ったときのトークン長ごとの BLEUを表 5 に示す。節翻訳モデルは分割された節を適切に翻訳し、節翻訳の精度を向上させる目的で作成した。しかし、ベースラインと比較して BLEU が 3.9 ポイント低いことから、節翻訳の段階で質の低い訳出文を生成してしまい、並べ替えと編集のモデルの最終的な出力文の質が低下した可能性がある。 さらなる比較のため、提案手法における節翻訳モデルをベースラインのモデルに差し替え分割統治型翻訳を行った。その結果を表 6 に示す。表 5 から分かるように、提案手法における節翻訳モデルをべー スラインのモデルに差し替えた場合、全体として BLEU が 2.6 ポイント低下した。これは、提案手法の節翻訳での利用において本稿の節翻訳モデルがベースラインよりも有効であったことを示唆してい表 5: 節翻訳モデルの入力トークン長ごとの BLEU 表 6: 節翻訳モデルをベースラインに差し替えた際の入力トークン長ごとの BLEU 表 7: ベースラインが節翻訳の際にハルシネーションを起こした例 ## 入力文 The US is likewise bankrupt but 出力文 米国は同様に破産していますが、米国は同様に破産しています。 る。表 5 で示した通り BLEU が 3.9 ポイント低いにもかかわらずこのような結果になった原因として、 ベースラインは文単位のコーパスで学習されているため、分割された節を翻訳する際に分割によって失われた節の前後の文を勝手に補おうとしたことが考えられる。その具体例を表 7 に示す。こうした事象により、節翻訳にベースラインモデルを利用した場合に重複やハルシネーションが生じ、最終的な出力の質が低下することが考えられる。 ## 5 おわりに 本稿では、ニューラル機械翻訳による分割統治的手法において、節単位疑似対訳と、後段の並べ替えと編集のモデルに事前学習モデル mBART を利用する手法を提案した。提案手法は BLEUではベースラインを下回る結果となったが、ハルシネーションやを起こしていた文を提案手法では適切に翻訳できていた例が確認できた。 本稿の手法では、節翻訳後の節の並べ替えと編集の工程において、[1] で利用されていた Transformer を事前学習モデルの mBARTに置き換えることで並べ替えと編集の精度の改善を試みたが、精度面での効果は確認できなかった。文全体のコンテキストの情報やセグメント同士の関係性を考慮した節翻訳結果の並べ替えと編集が改善に向けた課題である。また、今回作成した節翻訳モデルは疑似的な節単位の対訳データで学習されたモデルであるため、節翻訳モデルの精度は改善の余地があると考えられる。 ## 謝辞 本研究の一部は科研費 $21 H 03500$ と 21 H05054 の助成を受けたものです。 ## 参考文献 [1] 加納保昌, 須藤克仁, 中村哲. 分割統治的ニューラル機械翻訳. 言語処理学会第 27 回年次大会発表論文集., 2021. [2] Ziwei Ji, Nayeon Lee, Rita Frieske, Tiezheng Yu, Dan Su, Yan Xu, Etsuko Ishii, Yejin Bang, Wenliang Dai, Andrea Madotto, and Pascale Fung. Multilingual Denoising Pre-training for Neural Machine Translation. arXiv:2202.03629, 2022. [3] K. Sudoh, K. Duh, H. Tsukada, T. Hirao, and M. Nagata. Divide and translate: improving long distance reordering in statistical machine translation. In Proceedings of the Joint 5th Workshop on Statistical Machine Translation and Met- ricsMATR(SMT '10), p. 418-427, 2010. [4] Jean Pouget-Abadie, Dzmitry Bahdanau, Bart van Merrien-boer, Kyunghyun Cho, and Yoshua Bengio. Overcoming the curse of sentence length for neural machine translation using automatic segmentation. In Proceedings of SSST-8 Elighth Workhop on Syntax Semantics and Structure in Statistical Translation, p. 78-85, 2014 [5] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, and Aidan N. Gomez Llion Jones, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems., pp. 5998-6008, 2017. [6] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pretraining for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, p. 7871-788, 2020. [7] Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis, and Luke Zettlemoyer. Multilingual Denoising Pre-training for Neural Machine Translation. arXiv:2001.08210, 2020. [8] 岡崎直観, 荒瀬由紀, 鈴木潤, 宮尾裕介, 鶴岡慶雅. 自然言語処理の基礎. オーム社, 2022. [9] Makoto Morishita, Jun Suzuki, and Masaaki Nagata. JParaCrawl: A large scale web-based English-Japanese parallel corpus. In Proceedings of The 12th Language Resources and Evaluation Conference, pp. 36033609, Marseille, France, May 2020. European Language Resources Association. [10] Taku Kudo. Mecab : Yet another part-of-speech and morpho- logical analyzer., 2006. https://taku910. github.io/mecab/. [11] Matt Post. A call for clarity in reporting bleu scores. arXiv:1804.08771, 2018. [12] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 48-53, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [13] Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis, and Luke Zettlemoyer. Multilingual denoising pre-training for neural machine translation. 2020. [14] Matthew Honnibal and Ines Montani. spaCy 2: Natural language understanding with Bloom embeddings, convolutional neural networks and incremental parsing. To appear, 2017. [15] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert. In International Conference on Learning Representations, 2020. ## A 付録 表 8: ベースラインと提案手法の出力例 ハルシネーション 入力文 Djiboutian Honorary Consulate in Montreal, Canada usacan i have a djiboutienne visa plsssssssssssssssssssssssssss, i will like to see my country. Post a comment on this page We invite you to share your experiences with the Djiboutian Honorary Consulate obtaining visas and other services, locating the building, and so on. ## 参照文 この手法はカナダのオイルサンド産出地域の観測データに適用し、成功しています。 ベースライン モントリオール, カナダのドジブティアン名誉領事館このウェブサイトは名誉領事館により運営されているものではなく、あなたの意見や質問が必ずしもそちらの職員により確認されるというわけではありません。こちらはドジブティアンの外交政策について幅広い討論をするフォーラムではないことにご注意ください。そのような話題は削除されます。 ## 提案手法 Montreal, カナダの Djiboutian 名誉領事館 usacan 私は djiboutienne ビザ plssssssssssssssssssssssss を持っています,私は私の国を訪問したい.このページにコメントを投稿私たちは、Djiboutian 名誉領事館であなたの経験を共有することをお勧めしますービザやその他のサービス、建物の検索など. 繰り返し ## 入力文 So this is Kinomoto Sakura? ## 参照文 「で、こちらが木之本桜さん?」「はい、そうです、国王陛下。 ## ベースライン 「さあ、さくらさくら?」「そう、さくらさくらは?」「さくらさくらは、さくらさくらは、さくらさくらは、さくらさくらは、さくらさくらは、さくらさくらは、さくらさくらは、さくらさくらは、さくらさくらは、さくらさくらは、さくらさくらさくらは、さくらさくらさくらは、さくらさくらさく ## 提案手法 「これは木本さくらですか?」 (a) ベースライン (b) 提案手法 図 3: 参照文の単語数に対する出力文の単語数
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-10.pdf
# 論文の階層構造を活用した被引用数予測 平子潤笹野遼平武田浩一 名古屋大学大学院情報学研究科 hirako.jun.e5@s.mail.nagoya-u.ac.jp \{sasano, takedasu\}@i.nagoya-u.ac.jp ## 概要 日々,大量に発表される論文の中から,重要な論文を自動推薦するため, 論文の将来的な被引用数を予測する技術の重要性は増している. 被引用数の予測性能の向上に, 論文本文の活用は重要な要素だと考えられるが,論文本文は一般に記述量の多さから扱いが難しく, 先行研究においても活用法は十分に探索されていない. そこで, 本研究では, 被引用数予測において,本文を有効に活用することを目指し, 論文の階層構造を活用した新たな被引用数予測手法を提案する. さらに, 既存手法を含めた, 複数の手法との広範囲な比較実験を行い,被引用数予測における提案手法の有効性を示す. ## 1 はじめに 近年,人工知能分野など様々な分野において論文の発表数が急激に増加している. これに伴い,重要な論文を推薦するため,論文の質を予測する技術の重要性が高まっている. そのため, 本研究では,論文の質を近似する指標として被引用数を採用し $[1,2]$, 論文の将来的な被引用数を予測するタスクに取り組む。 被引用数を予測する上で,論文本文の活用は重要な要素であると考えられる. しかしながら, 既存の被引用数予測の研究 $[3,4]$ では, 論文のテキスト情報としてアブストラクトを用いることが多く,論文の本文はほとんど活用されていない,その原因は,本文が非常に長く,扱いが難しいことだと考えられる. 特に,近年盛んに利用されている BERT [5] などの Transformer [6] ベースのモデルは, 計算量が入力長の 2 乗に比例するため, 非常に長いトークン列を入力すると,計算量は極めて大きなものとなる。 この問題を解決するため, Transformer の構造自体を改善するアプローチ $[7,8]$ や,入力文を分割して扱うアプローチ $[9,10]$ などが提案されているが,被引用数予測における有効性は不明である. そこで, 本研究では, 被引用数予測において, 本文を有効に活用することを目指し,論文の階層構造を活用した新たな被引用数予測手法を提案する.この手法では,BERTを用いて論文の各節をエンコー ドし,そのセクション表現を集約することで被引用数の予測を行う。また, arXiv と bioRxiv から収集した論文を用いて,既存手法を含めた複数手法との広範囲な比較実験を行い,提案手法の有効性を示す. ## 2 関連研究 ## 2.1 被引用数予測 被引用数予測の既存手法は、テキスト情報を利用しない手法と利用する手法に大別することができる.このうちテキスト情報を利用しない手法としては,論文の引用関係をグラフで表現した引用グラフを用いる手法 $[11,12,13]$ や,RNN を用いて短い期間の被引用数の推移から長い期間の被引用数を予測する手法 [14] などが挙げられる. テキスト情報を利用する手法として初期の研究で提案された手法には,アブストラクトの Bag-of-Words を利用する手法 [3] や頻度べースの重み付けを利用する手法 [15], LDA より推定されたトピックを利用する手法 $[16,17]$ などがある. 近年では,深層学習を用いて論文のテキストの意味的特徵量を捉える手法も研究されており,タイトルとアブストラクトをDoc $2 \mathrm{Vec}$ でエンコードして利用する手法 [4] や,事前学習済みモデルを利用して論文の本文全てを活用する手法 [18] も提案されている. ## 2.2 長い系列を扱う手法 Transformer ベースのモデルは,近年の自然言語処理において盛んに利用される一方で,計算コストが入力長の 2 乗に比例するという問題点があり, 長い系列を扱うことは難しい。この問題を解決するために,大きく 2 つのアプローチで研究が行われている. 1 つ目は, Transformer の構造自体を改善し,よ (a) SChuBERT (b) Longformer (先頭) (c) 階層構造(先頭) (d) 階層構造(分割) 図 1 本研究で比較する本文を活用した被引用数予測手法の概要図 り効率的に長い系列を扱うアプローチ $[7,8,19]$ である.これらの手法では,主に Self-Attention を改良することで,計算量の改善を目指している.2つ目は,入力する長い系列を分割して処理することで,計算量の増加を抑えるアプローチである。これらの手法には,分割したテキストをBERT でエンコードし, Attention や RNN など比較的単純な手法で集約する手法 $[9,18]$ や,BERT でエンコードした表現を更に Transformerに入力する階層的な手法 $[10,20]$ がある. ## 3 本文を活用した被引用数予測手法 ## 3.1 既存手法: SChuBERT 論文本文から被引用数を予測する手法として, SChuBERT [18] が挙げられる。この手法では, 図 1 の (a) で示すように本文をオーバーラップさせながらチャンクに分割し,それぞれを BERT でエンコー ドして,GRU [21]を用いて集約することで,被引用数を予測する. SChuBERT は BERT の fine-tuning を行わないため,比較的小さな計算コストで,全ての本文を活用することができる.ただし,本文は固定の文字数で分割しており,節の途中で分割されることもあるため,その場合は論文の構造を捉えることができない. ## 3.2 本文の先頭部分を利用する手法 長い系列を扱うモデルである Longformer [8] を用いて,本文の先頭部分から被引用数の予測を行う手法である Longformer (先頭) の概要を図 1 の (b) に示す.この手法では,Longformer の最大入力長である 4096 に収まるように,論文本文の後半部分を切り捨て, 残った前半部分の本文から,被引用数の予測を行う. 入力テキストが長い場合に,一部を切り捨てる手法は一般的に採用される $[8,22]$ 一方で,本文と いう非常に長いテキストを扱う場合は,多くのテキストが切り捨てられてしまい,論文全体をバランス良く考慮することができない場合が多い. 例えば,本実験で使用するデータセット (4.2 節を参照) において, Longformer (先頭) では,平均で本文の約 $46 \%$ のテキストが切り捨てて入力される. ## 3.3 階層構造を利用する手法 本研究では,新たに本文の階層構造を活用した 2 つの被引用数予測手法を提案する.これらの手法はどちらも,各節をそれぞれパラメータを共有した BERTを用いてエンコードすることでセクション表現を生成し,各セクション表現をプーリングにより集約することで,被引用数を予測する.ただし, 2 つの手法は,各節の先頭部分のみを活用するか,各節を分割し,より多くのテキストを活用するかで異なる.各節の先頭部分を活用する手法である階層構造 (先頭) の概要を, 図 1 の (c) に示す. この手法では,各節の見出しを 1 文目,内容を 2 文目として BERT に入力することで,セクション表現を生成し,そこから被引用数を予測する. ただし, 2 文目として入力する内容は,BERT の最大大力長である 512 を超えないように,後半を切り捨てる. この手法は,計算コストの増加を抑えることができる一方で,入力できる内容は限定的である. 次に,各節を分割して活用する手法である階層構造 (分割) の概要を, 図 1 の (d) に示す. この手法では,まず各節の内容を 50 トークンずつオーバー ラップさせながらチャンクに分割し $[10,18]$, それぞれを BERTを用いてエンコードする。そして,それらのチャンク表現を Mean プーリングすることで,セクション表現を生成し,そこから被引用数を予測する。また,各チャンクをエンコードする際は,全ての場合で 1 文目に見出し, 2 文目にチャン クを入力する.これは,2つ目以降のチャンクを入力する際に,チャンクのみを入力すると,BERTがパラメータを共有していることから,どの節のチャンクかを BERT が捉えることができないためである.この手法は, 階層構造 (先頭) と比べ,より多くの内容を扱うことができる一方で,計算コストは増加する. また, 計算コストの都合上, 各セクションの内容は最大で 8 つのチャンクに分割し, 残りのテキストは切り捨てる. これらの 2 つの手法では,各セクション表現をプーリングにより集約することで被引用数を予測する.プーリング手法としては,単純な Mean に加え, Transformer を用いたより表現力が高い手法を採用する. Transformerによるプーリングでは, 各セクション表現を系列として 1 層の Transformer に入力し,その出力の平均を取ることでべクトルを集約する. ## 4 実験 ## 4.1 タスク設定 本研究では,論文の本文から,その論文の発表から 1 年後の被引用数を予測するタスクに取り組む. ただし, 被引用数 $c$ に対し, $\log (c+1)$ を予測対象とする [18]. さらに本研究では, 先行研究 [23] で提案された,現実的な被引用数予測の設定を採用する. これは,学習データとして利用する論文の被引用数の情報を,評価用論文の発表時点に取得できるものに限定する設定であり,この設定を採用することで,より現実に即したモデルの評価が可能となる. この設定では,例えば評価用論文の 6 ヶ月前に発表された学習用論文は,発表から 6 ヶ月後の被引用数しか取得できない. すなわち, 発表から 1 年未満の学習用論文は発表から 1 年後の被引用数が取得できないため, 先行研究で提案された手法 [23]を用いて被引用数を補完し,学習データとして利用する. ## 4.2 データセット 本研究では, 計算言語学分野の論文から CLデー タセット, 生物学分野の論文から Bio データセットを構築し,実験を行う。 CL データセットは, 2014 年 6 月から 2020 年 6 月 構築しており, 被引用数を計算するための引用情報 1) https://arxiv.org/ は Semantic Scholar2) から取得する。論文の本文については,論文の HTML 版3)をパースすることで収集し,HTML 版の収集とパースができない論文については,データセットから除外する。 また, 先行研究 [23] に倣い, 本研究ではデータセットから 13 個のサブセットを作成し, 学習と評価を行う. 具体的には, 2019 年 6 月から 2020 年 6 月のうちのある月を起点として、そこから過去 5 年間に投稿された論文で起点別に 13 個のサブセットを作成し,それぞれのサブセットの最新月に投稿された論文を評価用論文,残りの論文を学習用論文とする.これらのサブセットのうち,2019年 6 月に発表された論文を評価用論文とするサブセットは, 開発セットとして用い,残りのサブセットは評価値の算出に用いる. また, サブセットの平均学習用論文数は 11383 , 平均評価用論文数は 449 であった. Bio データセットは, 2015 年 4 月から 2021 年 4 月の間に bioRxiv4) の 3 つのカテゴリ ${ }^{5}$ に投稿された論文で構築し, bioRxivで公開されている HTML 版をパースすることで本文を収集する。また,CL デー タセットと同様に, Bio データセットから 2020 年 4 月から 2021 年 4 月に投稿された論文を評価用論文とする 13 個のサブセットを作成し,評価用論文が最も古いサブセットは, 開発セットとして用いる. これらのサブセットの平均学習用論文数は 5737, 平均評価用論文数は 256 であった. ## 4.3 評価方法 評価指標には,スピアマンの順位相関係数 $(\rho)$,平均二乗誤差 (MSE), 実際の上位 $n \%$ 論文が予測値の上位 $\mathrm{k} \%$ 論文に含まれる割合 $(\mathrm{n} \% @ \mathrm{k} \%)$ を用いる。 また,評価値は,各サブセットでそれぞれモデルの学習,評価用論文に対する予測を行い,全 12 ヶ月分の予測値を合わせて算出する.全ての設定において,異なるランダムシードで 3 回実験を行い,評価値の平均と標準偏差を算出する。 また,実験において一部の手法の予測値の平均が,正解值の平均と離れてしまい,MSEでの性能評価に悪影響があることが判明したため,開発セットにおける予測値の平均と正解值の平均の差を補正值とし, 評価時の予測値から補正値を引いた値に対し MSEを算出する MSE*も評価指標に加える。 2) https://www.semanticscholar.org/ 3) https://ar5iv.labs.arxiv.org/ 4) https://www.biorxiv.org/ 5) Biochemistry, Plant Biology, Pharmacology and Toxicology 表 1 比較実験の結果. 階層構造の括弧内の 2 つ目の要素はプーリング手法を示す. (MSE, MSE*以外の評価値 $\times 100$ ) ## 4.4 比較手法 本実験では,3 節で述べた手法に加え,BERT を用いた 2 つの手法を比較する. 1 つ目の BERT (title+abst) は,BERT にタイトルを 1 文目,アブストラクトを 2 文目として入力し,被引用数を予測する手法である. 2 つ目の BERT (先頭) は, Longformer (先頭) と同様に,本文の先頭部分を BERT に入力することで被引用数を予測する手法である. ## 4.5 実験設定 既存手法である SChuBERT は,ハイパーパラメー 夕の探索範囲を除き, 先行研究 [18] と同様の設定で実験を行う. その他の全ての手法では,BERT と Longformer の出力として, [CLS]トークンに対応するベクトル表現を利用し, モデルが最終的に出力したベクトルを全結合層に入力し, 線形変換を行うことで,予測值を出力する. また,予測値と正解值の MSE を損失として学習し, 学習中には, 最終的に出力したべクトルに Dropout [24]を適用する6). ## 4.6 結果 実験結果を表 1 に示す. 既存手法である SChuBERT を除き、論文の本文を活用した手法は,両方のデータセットにおいて BERT(title+abst)を上回っており,被引用数予測において,本文を活用することの有用性が確認できた。また,本文を活用する手法の中では, 本研究で提案した階層構造を利用する手法が最も高い性能を達成した. 提案手法 6)詳細な学習設定は付録 $\mathrm{A}$ を参照. は,順位相関係数において,その他の全ての比較手法と比べ,CL データセットでは 5.1 ポイント以上, Bio データセットでは 1.8 ポイント以上上回っている. MSE や MSE*, $\mathrm{n} \% @ \mathrm{k} \%$ においても,ほとんどの場合で比較手法を上回っており,提案手法が CL と Bio という異なる分野の論文集合に汎用的に有用性を持つことを確認した.次に,提案手法におい $\tau$, 階層構造 (先頭) は, 階層構造 (分割) と同等以上の性能を示しており,各節の先頭部分のみを利用することで,計算コストの増加を抑えながら,高い予測性能が達成できることが判明した。また,セクション表現のプーリング手法においても,Mean より Transformer の方が全体的に高い性能を示すことを確認した.既存手法である SChuBERT は,CL データセットに対する MSE,MSE*は向上したものの, 他の場合では BERT (title+abst) と比べて, 同等以下の結果となった。これは,SChuBERT が本文全文を入力するために,BERT の fine-tuning を行わないことが原因であると考えられる [10]. ## 5 おわりに 本研究では, 論文の階層構造を活用した被引用数予測手法を提案し,既存手法である SChuBERT や Longformer を利用した手法など複数の手法との比較実験を行い,提案手法の有効性を示した. 特に,提案手法において,各節の先頭部分のテキストのみを利用することで,計算コストの増加を抑えつつ,高い性能を達成できることを確認した. 今後の展望としては,引用グラフなど論文のテキスト以外の情報も同時に扱うモデルの構築をしたいと考えている. ## 謝辞 本研究の一部は, JST ムーンショット型研究開発事業 JPMJMS2033 の支援を受けたものです. ## 参考文献 [1] Daryl E. Chubin and Eugene Garfield. Is citation analysis a legitimate evaluation tool? Scientometrics, Vol. 2, pp. 91-94, 1979. [2] Dagfinn W. Aksnes. Citation rates and perceptions of scientific contribution. J. Assoc. Inf. Sci. Technol., Vol. 57, pp. 169-185, 2006. [3] Alfonso Ibáñez, Pedro Larrañaga, and Concha Bielza. Predicting citation count of bioinformatics papers within four years of publication. Bioinformatics, Vol. 25 24, pp. 3303-9, 2009. [4] Anqi Ma, Yu Liu, Xiujuan Xu, and Tao Dong. A deeplearning based citation count prediction model with paper metadata semantic features. Scientometrics, Vol. 126, pp. 6803 - 6823, 2021 [5] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In NAACL, pp. 41714186, 2019. [6] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, NeurIPS, Vol. 30, 2017. [7] Nikita Kitaev, Lukasz Kaiser, and Anselm Levskaya. Reformer: The efficient transformer. In ICLR, 2020. [8] Iz Beltagy, Matthew E. Peters, and Arman Cohan. Longformer: The long-document transformer. arXiv, Vol. abs/2004.05150, , 2020. [9] Arash Afkanpour, Shabir Adeel, Hansenclever de F. Bassani, Arkady Epshteyn, Hongbo Fan, Isaac Jones, Mahan Malihi, Adrian Nauth, Raj Sinha, Sanjana Woonna, Shiva Zamani, Elli Kanal, Mikhail Fomitchev, and Donny Cheung. Bert for long documents: A case study of automated icd coding. arXiv, Vol. abs/2211.02519, , 2022. [10] R. Pappagari, Piotr Żelasko, Jesús Villalba, Yishay Carmiel, and Najim Dehak. Hierarchical transformers for long document classification. ASRU, pp. 838-844, 2019. [11] Carlos Castillo, Debora Donato, and A. Gionis. Estimating number of citations using author reputation. In SPIRE, 2007. [12] Feruz Davletov, Ali Aydin, and Ali Cakmak. High impact academic paper prediction using temporal and topological features. 112014. [13] Nataliia Pobiedina and Ryutaro Ichise. Citation count prediction as a link prediction problem. Applied Intelligence, Vol. 44, pp. 252 - 268, 2015. [14] Alireza Abrishami and Sadegh Aliakbary. Predicting citation counts based on deep neural network learning techniques. J. Informetrics, Vol. 13, pp. 485-499, 2018. [15] Lawrence D. Fu and Constantin F. Aliferis. Models for predicting and explaining citation count of biomedical ar- ticles. AMIA, pp. 222-6, 2008 [16] Rui Yan, Jie Tang, Xiaobing Liu, Dongdong Shan, and Xiaoming Li. Citation count prediction: learning to estimate future citations for literature. In CIKM, 2011. [17] Tanmoy Chakraborty, Suhansanu Kumar, Pawan Goyal, Niloy Ganguly, and Animesh Mukherjee. Towards a stratified learning approach to predict future citation counts. IEEE/ACM Joint Conference on Digital Libraries, pp. 351-360, 2014. [18] Thomas van Dongen, Gideon Maillette de Buy Wenniger, and Lambertus Schomaker. SChuBERT: Scholarly document chunks with bert-encoding boost citation count prediction. In SDP, 2020. [19] Manzil Zaheer, Guru Guruganesh, Kumar Avinava Dubey, Joshua Ainslie, Chris Alberti, Santiago Ontañón, Philip Pham, Anirudh Ravula, Qifan Wang, Li Yang, and Amr Ahmed. Big Bird: Transformers for longer sequences. arXiv, Vol. abs/2007.14062, , 2020. [20] Jin Xue, Xiaoyi Tang, and Liyan Zheng. A hierarchical bert-based transfer learning approach for multidimensional essay scoring. IEEE Access, Vol. 9, pp. 125403-125415, 2021. [21] Kyunghyun Cho, Bart van Merriënboer, Caglar Gulcehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, and Yoshua Bengio. Learning phrase representations using RNN encoder-decoder for statistical machine translation. In EMNLP, pp. 1724-1734, Doha, Qatar, October 2014. Association for Computational Linguistics. [22] Qizhe Xie, Zihang Dai, Eduard Hovy, Thang Luong, and Quoc Le. Unsupervised data augmentation for consistency training. In H. Larochelle, M. Ranzato, R. Hadsell, M.F. Balcan, and H. Lin, editors, NeurIPS, Vol. 33, pp. 62566268. Curran Associates, Inc., 2020. [23] 平子潤, 笹野遼平, 武田浩一. 直近 1 年の動向を考慮した最新論文のインパクト予測. 言語処理学会第 25 回年次大会発表論文集, pp. 1262-1267, 2022. [24] Nitish Srivastava, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, and Ruslan Salakhutdinov. Dropout: A simple way to prevent neural networks from overfitting. JMLR, Vol. 15, No. 56, pp. 1929-1958, 2014. [25] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Remi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander Rush. Transformers: State-of-the-art natural language processing. In EMNLP: System Demonstrations, pp. 38-45, 2020 . ## A 詳細な学習設定 本研究では,BERT の初期重みとして,Transformers [25] で公開されている bert-base-uncased を, Longformer の初期重みとして, allenai/ longformer-base-4096を利用した.また,Transformer プーリングで用いた 1 層の Transformer は, BERTの最終層の重みを用いて初期化した。 既存手法である SChuBERT 以外の手法の学習では,バッチサイズは 32,最適化関数は AdamW を用い,全体の学習ステップの $10 \%$ で warm-up し, 残りのステップで線形に減衰する学習率スケジューリングを行った. また,エポック数は $\{3,4\}$, 学習率は $\{2 \mathrm{e}-5 , 3 \mathrm{e}-5 , 5 \mathrm{e}-5\}$ でグリッドサーチを行い,開発セットにおいて最も順位相関係数が高くなった值を利用した. SChuBERT では,エポック数のみハイパーパラメータ探索を行い,残りの設定については先行研究と同様に学習を行った. また,エポック数の探索範囲は,先行研究の值に基づき $\{20 , 30 , 40\}$ とした.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/