filename
stringlengths 1
10
| text
stringlengths 33
111k
| category
stringclasses 9
values | license
stringclasses 1
value | credit
stringclasses 5
values |
---|---|---|---|---|
D3-3.pdf | # How nearly random mutations to sentences affect their acceptabilities:
Preliminary quantitative analyses based on ARDJ data
Kow Kuroda ${ }^{1}$, Hikaru Yokono $^{2}$, Keiga Abe ${ }^{3}$, Tomoyuki Tsuchiya ${ }^{4}$, Yoshihiko Asao ${ }^{5}$,
Yuichiro Kobayashi ${ }^{6}$, Toshiyuki Kanamaru ${ }^{7}$, and Takumi Tagawa ${ }^{8}$
${ }^{1}$ Kyorin University, ${ }^{2}$ Meisei University, ${ }^{3}$ Wako University, ${ }^{4}$ Kyushu University,
}^{5}$ National Institute of Communications and Information Technology, ${ }^{6}$ Nihon University, ${ }^{7}$ Kyoto University, ${ }^{8}$ Tsukuba University
\begin{abstract}
ARDJ s2u data consists of 300 sentences paired with acceptability ratings. Out of them, 36 are "originals" that were human-made and other 264 are their "mutations" that were generated either by nearly random replacement of a nominal, a verbal or a positional (e.g., case-marker) or by random swapping a pair of phrases (i.e., bunsetu) inside. This allows us to analyze effects of mutation systematically. With DBSCAN of the originals, layered analysis of mutation effects was carried out. Findings are: i) No mutations improve low acceptabilities; ii) The order of systematicity is: $\mathrm{p}<\mathrm{v}<\mathrm{n}<\mathrm{s}$; iii) The order of effect size is: $\mathrm{p}<$ $\mathrm{v}, \mathrm{n}, \mathrm{s}$, so that $\mathrm{n}-$, s-mutations often cause as large effects as v-mutation, or oven larger; iv) No simple dichotomy is possible between "acceptable" and "acceptable" sentences. Rather, their distinction is continuous and graded, so that (logistic) regression is a better modeling of the distinction.
\end{abstract
## 1 Introduction
Linguistics is concerned with acceptabilities of sentences, if not exclusively. But acceptability is an elusive notion $[1,2,3,4,5,6]$. Any group of linguists rarely agree on its theoretical definition, meaning that it is a highly theoryladen notion [7]. If its theoretical definition is somehow shared, its operative definition is virtually missing. The situation is still worse. Even if presume its definition is fine, we are still far from knowing what acceptabilities really are. No unbiased, large-scale collection of the required data has ever been done. In particular, we are far from fully understanding what modifications to a sentence bring about what effect, and to what degree, because data-driven study into this problem has never been done. What linguists know about acceptability suffers from "confirmationbias" $[8,9,10,11,12,13]$. This is the issue that dictates this research based on Acceptability Rating Data for Japanese (ARDJ for short) [14, 15, 16, 17, 18, 19].
ARDJ is a project of empirically-oriented language science, rather than mere linguistics, that attempts to implement the framework of randomized control trials in the field of linguistics, with sympathy for Evidence-based Medicine
(EBM) [20,21]. A crucial conviction that paved the way for ARDJ is that intuitions by experts (e.g., acceptability judgments by linguists) are valuable with no doubt, but they are too weak "evidence" to be treated as "facts"; rather, they are more or less reliable "guides."
The stimuli used in the ARDJ surveys comprise two kinds of sentences: 36 "originals" hand-crafted by humans and their "variants" generated by applying nearly random mutations on the originals. Mutations are only nearly random rather than fully random, because they have target sites, and values for replacement are chosen based on word2vec distributional similarities. See [16] for relevant details. Appendix A. 1 gives a brief summary. Effects of mutation can be systematically analyzed by comparing responses to the originals and their mutations.
## 2 Analysis and results
To make our analysis effective, we use PCA, tSNE with DBSCAN clustering, overplot, and KL-divergence-based heatmap/clustering. In $\$ 2.3 .1-\$ 2.3 .4$, analysis of effects of mutation is implemented as a layered analysis in which Clusters 1, 2, 3 and 4, are taken as four separate groups of data. Discarding the originals in Clusters 2, 3 and 4, KLdivergence-based analysis is performed on mutations to the originals in Cluster 1 in \$2.4. Lastly, effects are analyzed by exploring properties of mutation-wise KL-divergence heatmaps in $\S 2.5$.
## 2.136 originals and their attributes
ARDJ s2u data [17] has 36 "originals" presented in Figure $1,001,002, \ldots$, o36, with relevant attributes. Details are presented in §2.1. How this data was prepared is described in Appendix A. The originals are sorted decreasingly by $\mathrm{r} 01, \mathrm{r} 12$ values, and increasingly by $\mathrm{r} 23, \mathrm{r} 3 \mathrm{x}$ values. Only 32 originals have more than 2 mutations. So, the number of effective originals is 32 rather than 36 , as Figure 1 shows. The effective ones have $(8.31-1)$ mutations/variants on average, with a maximum of 16 and minimum of 4 .
Figure 1: $\mathbf{3 6}$ originals with attributes
The originals were clustered using DBCAN, giving us 4 clusters. $\$ 2.2$ deals with this result. The resulting clustering is laid out over a PC1-PC2 plane of PCA rotation and a Dim1-Dim2 plane of tSNE transformation. This gives us how the sentences are associated to each other.
## 2.2 Clustering of originals and all stimuli
Figure 2: PCA and tSNE of 36 originals
## 2.2.1 Clustering originals only
DBSCAN was used to cluster the 36 originals to identify 4 clusters, which are shown in PCA and tSNE plots in Figure 2. tSNE in Figure 2 suggests the existence of a unified dimension along which acceptability can be measured. The deviance of Cluster 2 from it can be accounted for its special nature described below.
## 2.2.2 Clustering all 270 stimuli
For comparison, we present clustering of all stimuli including the 36 originals described above. Figure 3 gives PCA and tSNE plots of DBSCAN clustering. Note that the setting for eps and minPts parameters here is independent from those for the parameters for the DBSCAN clustering of the 36 originals.
Figure 3: PCA and tSNE of all 270 stimuli
## 2.3 Layered Analysis
This clustering result seems natural in that clusterwise overplots in Figure 4 seem to capture both the similarities and dissimilarities quite well. Each cluster consists of instances with surprising similarities.
rating ranges
lustered by DBSCAN (eps $=$
rating ranges
DBSCAN (eps $=0$
Figure 4: Clusterwise ovwerplots of originals
Comparing with the data in Figure 1, we can safely conclude the following:
a. Cluster 1 identifies the group of "acceptable" stimuli, Cluster 4 the one of "unacceptable" stimuli, and Clusters 2 and 3 the ones of "ambiguous" stimuli, with different qualities.
b. Cluster 3 consists of 3 instances, 003, 011 and o24, that have a "split" decision, in that raters are split into two groups of those who accept them fully and those who reject them fully.
c. Cluster 4 consists of 3 instances, 001,007 and 032, that have a nearly "uniform" distribution of (un)acceptability along the range, though with a slight inclination toward acceptability.
With these distinctions among the originals, we can now turn to effectively analyzing the effects of mutation to answer the research question: how random mutations to sentences affect their acceptabilities, and to what extent.
## 2.3.1 Analysis 1a: Mutations to originals in Cluster 4
We start our analysis with the one of the mutations to the originals to Cluster 4, a relatively large cluster, having 13
members which can be labelled as "unacceptable" stimuli. This is because the effects are simple and can be characterized most easily.
Effects of mutation are analyzed in three visualizations, as shown in Figure 5: i) overplot of response profiles (in the leftmost column); ii) proportional distribution of range values after reordering; and iii) layout of DBSCAN clusters in a rotated geometry $G$.
Figure 5: Mutations to originals to Cluster 4 [4 samples]
In each analysis, stimuli are ordered by their range values. So, their positions relative to o in the legend roughly indicate if mutations increase or decrease acceptabilities.
As suggested by the plots in Figure 5, virtually no mutations improve the original acceptabilities. In addition, the response profiles, i.e., shapes of distribution, stay unchanged for most cases. So, there seems to be a rule like "once (made) deviant, always deviant." This finding is not truly surprising, let alone unexpected; yet, it deserves a mention because this is the first empirical confirmation of a truism on a large scale that has long awaited testing.
## 2.3.2 Analysis 1b: Mutations to originals in Cluster 3
Effects of mutations to cases in Cluster 3 are similar to the ones to stimuli in Cluster 4. Stimuli in Cluster 3 almost are almost never improved by any mutation, though, admittedly, we can hardly state generalizations safely because we have too few affected cases.
## 2.3.3 Analysis 1c: Mutations to originals in Cluster 2
Effects of mutations to cases in Cluster 2 are somewhat different from the ones to stimuli in Cluster 3. Unlike stimuli in Cluster 3, stimuli in Cluster 2 sometimes improve, though, again, we can hardly state generalizations safely
Figure 6: Mutations to originals to Cluster 3 [One case was dropped due to insufficient cases.]
due to having too few affected cases. It is interesting that o11 and o24 get more acceptable through certain mutations, though o03 does not possess such properties.
Figure 7: Mutations to originals to Cluster 2 [2 samples]
## 2.3.4 Analysis 1d: Mutations to originals in Cluster 1
Mutations to the originals in Clusters 2, 3 and 4 tell us virtually nothing interesting about how mutations affect acceptability, because we can hardly identify meaningful differences between mutations and their originals. This is not true of mutations to the originals in Cluster 1.
Mutation effects are different case by case, but generally speaking, we can observe the following:
a. Lexical changes (i.e., mutations to either $\mathrm{n}$ (ominals), v(erbals), or $\mathrm{p}$ (ositionals)) nearly always drop acceptability, while non-lexical changes (i.e., swapping) do not. Swapping often keeps the acceptability.
b. It is not true, at least not observed, that n-changes reduce acceptability more than $\mathrm{v}$-and $\mathrm{p}$-changes, as far as degree of deviance is measured.
c. Changes to $\mathrm{p}$ introduce only a slight amount of deviance, though it is unignorable.
d. Effects of mutation are diverse, in that the number of clusters recognized is greater than the ones in other clusters, Clusters 2, 3 and 4.
e. Mutations do not simply make sentences unacceptable, in that resulting profiles do not always look like those in the originals in Cluster
Figure 8: Mutations to originals to Cluster 1 [5 samples]
4. Rather, they look more like the originals in Cluster 3 or 2 . So, the effects of mutation are more subtle than researchers have guessed.
With their relative importance, cases in Cluster 1 deserve further exploration. We do it by analyzing them with KLdivergence cross-table.
## 2.4 Analysis 2: KL-divergence for originals to Cluster 1
The diagrams in Figure 9 are heatmaps of the 9 samples, taken in Figure 8, allowing us to make the following observations:
a. p- and v-mutations tend to cluster together, but not always.
b. swapping and n-mutations tend to lack systematic effects, though they often cause drastic deterioration.
## 2.5 Analysis 3: KL-divergence cross-table by mutation
Different types of mutation, i.e., p, v, $n$ and $s$, have different magnitudes of effects. To estimate them, we can use KLdivergence heatmaps, as shown in Figure 10.
If the contrasts between "hot" and "cool" areas are sharp, the magnitude of effects can be judged to be large. If the
Figure 9: KL-div. heatmaps for Cluster 1 cases [009, o08, $005,016,023,022,026,027,031]$
Figure 10: KL-div. heatmaps for mutation types [p, v, n, $\mathbf{s ,} \mathbf{0}]$
degree contrasts are spread, effects are unsystematic. With this criterion, we can conclude that i) the effect of $p$ mutations is least contrastive and most systematic; ii) that of $\mathrm{v}$ mutations is second least contrastive and rather systematic; iii) that of n mutations is second most contrastive and rather unsystematic; and iv) that of s mutations is most contrastive and most systematic. Note that the 36 originals are contrastive only because they are largely designed so.
## 3 Discussion and Conclusion
So, what are causes of reduced acceptabilities? With the results so far, we can now decide if we are able to answer this question. The most sincere answer to this would be: there is no simple answer to this question. What does this mean, then?
Simple dichotomy between "acceptable" and "unacceptable" kinds of sentences is too simple and unrealistic, though it is widely accepted and practiced in many areas of linguistics. What really matters about acceptabilities are response profiles (distributional pattern of responses) rather than categorical judgments, on the one hand, and regression to response profiles rather than binary classification (e.g., dichotomy $=$ categorical judgment), on the other. This is a conclusion compatible with the results in [15].
What do linguists need to do with this reality, then? We would suggest that the goals of linguistics should be redefined. Redefined goals include the construction of a mapping from sentences in textual form (e.g., values in s.text in Table 1) to response profiles (e.g., arrays of values [r01, r12, r23, r3x] in the table in Figure 1), yielding overplots in Figures 4. This can never be attained until large-scaled, bias-free databases like ARDJ are built for as many languages as possible. Until then, linguistics would never make itself an empirical science.
## Acknowledgements
This research was supported by JSPS through Grant-in-Aid (16K13223)
We are grateful for Shunji Awazu (Jissen Women's University), Asuka Terai (Future University of Hakodate) and Minoru Yamaizumi (Osaka University), who kindly helped our execution of Phase 1 of ARDJ Survey 2.
All statistic analyses were done on $\mathrm{R}$ version 3.6.3, a free statistical software developed by R Core Team .
## References
[1] Wayne Cowart. Experimental Syntax: Applying Objective Methods to Sentence Judgments. Sage Publishing, 1997.
[2] Ira A. Noveck and Dan Sperber, editors. Experimental Pragmatics. Palgrave Macmillan, 2005.
[3] Gary Dean Prideaux, Bruce L. Derwing, and William J. Baker. Experimental Linguistics: Integration of Theories and Applications. John Benjamins, 1979.
[4] Carson T. Schütze. The Empirical Base of Linguistics: Grammaticallity Judgments and Linguistic Methodlogy. Language Science Press/University of Chicago Press, 2016 [1996].
[5] Jon Sprouse. Three open questions in experimental syntax. Linguistics Vanguard, Vol. 1, No. 1, pp. 89-100, 2015.
[6] Jon Sprouse and Norbert Horstein. Experimental Syntax and Island Effects. Cambridge University Press, 2013.
[7] Holly P. Branigan and Martin Pickering. An experimental approach to linguistic representation. Behavioral and Brain Sciences, Vol. 40, 2017.
[8] Jonathan Baron. Thinking and Deciding. Cambridge University Press, 2000 [1988, 1994].
[9] H. W. Bierhoff and R. Klein. Expectations, confirmation bias, and suggestibility. In V. A. Gheorghiu, P. Netter, H. J. Eysenck, and R. Rosenthal, editors, Suggestion and Suggestibility, pp. 337-346. New York: Springer, 1989.
[10] Joshua Klayman. Varieties of confirmation bias. Psychology of Learning and Motivation, Vol. 32, pp. 384-418, 1995.
[11] Thomas Gilovich. How We Know What Isn't So: The Fallibility of Human Reason in Everyday Life. Free Press., 1993. [(日本語訳) 人間,この信じやすきもの: 迷信・誤信はどうして生まれるか. 新曜社.].
[12] David Robson. The Intelligence Trap: Why Smart People Do Stupid Things and How to Make Wiser Decisions. Hodder \& Stoughton, 2019.
[13] Stuart A. Vyse. Believing in Magic: The Psychology of Superstition. Oxford University Press, reprinted edition, 2000. [(日本語訳): 人はなぜ迷信を信じるのか: 思い込みの心理学. 朝日新聞社, 1999.].
[14] Kow Kuroda. Reassessing PCA of Acceptability Rating Data for Japanese (ARDJ) using kernel MVA. In Proceedings of the 26th Annual Meeting of Association of NLP, pp. 15231526,2020
[15] Kow Kuroda, Hikaru Yokono, Keiga Abe, Tomoyuki Tsuchiya, Yoshihiko Aaso, Yuichiro Kobayashi, Toshiyuki Kanamaru, and Takumi Tagawa. Simulating acceptability judgments using ARDJ data. In Proceedings of the 27th Annual Meeting of Association of NLP, pp. 739-743, 2021.
[16] Kow Kuroda, Hikaru Yokono, Keiga Abe, Tomoyuki Tsuchiya, Yoshihiko Asao, Yuichiro Kobayashi, Toshiyuki Kanamaru, and Takumi Tagawa. Development of Acceptability Rating Data of Japanese (ARDJ): An initial report. In Proceedings of the 24th Annual Meeting of the Association for NLP, pp. 65-68, 2018.
[17] Kow Kuroda, Hikaru Yokono, Keiga Abe, Tomoyuki Tsuchiya, Yoshihiko Asao, Yuichiro Kobayashi, Toshiyuki Kanamaru, and Takumi Tagawa. Insights from a large scale web survey for Acceptability Rating Data for Japanese (ARDJ) project. In Proceedings of the 25th Annual Meeting for the Association of NLP, pp. 253-256, 2019.
[18] 黒田航, 阿部慶賀, 横野光, 土屋智行, 小林雄一郎, 金丸敏幸, 浅尾仁彦, 田川拓海. 容認度評定に影響する要因の定量的評価: 日本語容認度評定データ (ARDJ) から得られた知見. 日本認知科学会第 36 回大会発表論文集, pp. 727-736, 2019.
[19] 黒田航, 阿部慶賀, 粟津俊二, 寺井あすか, 土屋智行. ARDJ を基にした容認度評定値と反応時間の多変量解析と混合回帰分析. 認知科学会第 37 回大会発表論文集, pp. 919-928, 2020.
[20] G. Evidence-based Medicine Group [Guyatt, J. Cairns, and D. et al.] Churchill. Evidence-based medicine: A new approach to teaching the practice of medicine. Journal of the American Medical Association, Vol. 268, No. 17, pp. 2420 5, 1992 (Nov 4).
[21] David Isaacs and Dominic Fitzgerald. Seven alternatives to evidence based medicine. The British Medical Journal, Vol. 319, No. 7225, p. 1618, 1999.
## A Data preparation
## A. 1 Construction of stimuli
To make the outcomes of ARDJ truly empirical and useful, we need to employ as unbiased stimuli as possible. The best way to implement it is to employ automatic generation rather than relying too much on human intuitions. Random mutation in DNA sequences serves as a model. The basic idea is the following:
(4) Steps of randomized generation with targets
Step 1. Construct sentences, called "originals," $O=\left.\{o_{1}\right.$, $\left.o_{2}, \ldots, o_{n}\right.\}$ with or without deviance.
Step 2. Introduce random mutations to instances of $O$. Let $M$ denote the result.
Step 3. Mix $O$ and $M$ and use its subsets for acceptability rating tasks.
More details of Step 2 are given in the following:
(5) A) Random replacement of a lexical item under POSidentity (edit type: 1(exical)); B) Random replacement of a postpositional case-marker $(\mathrm{P})$ with another (edit type: $\mathrm{p}($ ositional)); C) Random positional exchange of a given pair of NPs (or PPs) (edit type: s(wapping)).
provided that items for replacement are selected on a predefined measure such as distributional similarity.
The first and second authors developed Python scripts to implement mutations of $\mathrm{A}-, \mathrm{B}-$ and $\mathrm{C}$-classes. They are provided at https://github.com/kow-k/ Japanese-sentence-mutators.
## A. 2 Surveys
By 2019, ARDJ completed two experiments. The first one, called "Survey 1," was carried out in 2017. It was intended to be a pilot study with only a limited variety of responders (roughly 200 college students only) on 200 sentences for stimuli. Kuroda et al. [16] reported on this survey. The second experiment, called "Survey 2," was carried out in 2018. This was the main study, with the stimulus set expanded to 300 with some overlap with Survey 1.
Survey 2 had two phases, Phases 1 and 2, and collected responses from 1,880 participants in total. Phase 1 was a small scale, paper-based survey, to which 201 participants (mostly all college or university students) contributed responses. This was comparable to the pilot study done in 2017. Phase 2 was a large scale web survey to which 1,679 participants contributed responses. They were significantly more varied in their attributes and we would safely state responses obtained were randomized enough. Survey 2 unified (s2u) data consists of unification of responses from Phase 1 and Phase 2. These data are freely available at https://kow-k.github.io/ Acceptability-Rating-Data-of-Japanese/, but you need to register to use them.
## A. 3 Collection of ratings/responses
On acceptability rating, participants were asked to choose one of the four choices in (6).
(6) 0. 違和感がなく自然に理解できる文 [natural and easy to understand]; 1. 違和感を感じるが理解可能な文 [more or less deviant but comprehensible]; 2. 違和感を感じて理解困難な文 [deviant and difficult to understand]; 3.不自然な理解不能な文 [quite unnatural and incomprehensible]
Prefixes 0, 1, 2 and 3 are added to indicate the degrees of deviance, though they need not be on a single scale.
Outlier responders were filtered out using standard deviation $(0.6<\mathrm{sd}<1.5)$ and Mahalanobis distance $(<0.95)$. See Kuroda et al [17] for relevant details.
## A. 4 Standardizing responses
Note that gr0, .., gr9 are different data sets, and cannot be directly compared. Comparison of them requires standardization. All groups were collapsed and responses were counted for each of the four rating ranges $r[0,1), r[1,2), r[2,3)$, and $r[3, \infty)$.
Table 1 shows 10 samples of this process. These raw counts were then converted into proportions to item-wise sums. This gave us density array, $P=$ $\langle p[0,1), p[1,2), p[2,3), p[3, \infty)\rangle$, as exemplified in Table 2. Note that allowed response values were $0,1,2$, and 3 . These numbers are reinterpreted as ranges $r[0,1), r[1,2)$, $r[2,3)$, and $r[3, \infty)$, respectively, where $r[i, j)$ means a sum of response counts between $i$ and $j$ with $i$ included and $j$ excluded. The converted arrays of ranged response probabilities in this format are to be called "response potentials." They are commensurable among groups with different sets of responders, and were used as effective encodings of the responses in a variety of analyses.
Table 1: Frequency table by ranges (6 samples)
Table 2: Density table by ranges (6 samples) | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D3-4.pdf | # 情報量に基づく日本語項省略の分析
石月由紀子 1 栗林 樹生 1,2 松林 優一郎 1,4 大関 洋平 3,4
1 東北大学 ${ }^{2}$ Langsmith 株式会社 ${ }^{3}$ 東京大学 ${ }^{4}$ 理化学研究所
yukiko.ishizuki.p7@dc.tohoku.ac.jp,
\{kuribayashi,y.m\}@tohoku.ac.jp, oseki@g.ecc.u-tokyo.ac.jp
## 概要
日本語は英語などの言語と比べて項省略が生じやすい言語である. 本研究では,人がどのような基準で日本語の項省略を行うか,書き手の計算モデルについて探求する.具体的には,「書き手は読み手にとっての処理負荷を想定しながら文を書いており,後続要素の処理負荷をなるべく大きくしないように省略を行っている」という仮説を立てる.項に後続する単語系列の処理負荷の近似として言語モデルが計算するサプライザルを用いて分析を行い,結果として,後続する単語の処理負荷 (サプライザル) が大きくならないよう省略を行っているという,我々の仮説を支持する結果が得られた。
## 1 はじめに
言語を用いた情報伝達における主要な目的の一つは,情報を相手に正確に伝えることである。しかし,情報を正確に伝えるという目標に反して日本語では文要素の省略現象が頻繁に観察され,なぜ・どのようなときに省略が生じるのかは言語学的関心を集めてきた. どのような要素が省略可能・不可能であるかといった説明は長らく生成統語論で議論されてきたが $[1,2,3,4]$, 言語運用における実際の書き手の判断 (省略する儿ない) の傾向については分析が限られている.
本研究ではこのような書き手の省略判断の選好について,情報理論に基づくアプローチで説明を試みる. 情報理論的,確率的な説明は,省略や指示表現選択といった言語産出現象の説明としばしば相性がよく, これまでにも発話中の情報量の分布がなめらかになるような情報伝達を仮定する情報密度一様性 (UID) 仮説 $[5,6]$ や,人間の読み負荷とサプライザルの関係 [7] に基づいて,関係詞省略 [6] や縮約 [8], 格助詞の省略 $[9,10]$ などが分析されてきた.
本研究では,「書き手が読み手にとっての処理負荷を想定しながら文を書いており,後続要素の処理負荷をなるべく大きくしないように省略を行っている」という仮説を立てる. 読み手にとっての処理負荷の増大と,要素を省略しないことによる文の長さ (㔯長性) にはトレードオフがあり, 両方の要請を満たすには,処理負荷を増大させない範囲で省略を行うという戦略が妥当であると考えられる。例えば,「家のコーヒー豆が切れたので、デパートでコーヒー豆を買った」という文については,述語動詞の項 (コーヒー豆を)が省略されていても無理なく後続の情報 (買った) の解釈が可能であることから省略ができると考える。
実験では,動詞の項の省略に焦点を当て,項の省略とその省略によって引き起こされる後続文脈の処理負荷の変化の関係を調査した. 後続文脈の処理負荷については,サプライザル理論に則り,累積サプライザルの変化 (項が省略されたときに, 後続要素の驚きがどれほど増えるか) を観察する。述語項構造・共参照アノテーション付きデータを用い,テキスト上で省略されている項といない項について,その項の表出・省略によって引き起こされる後続単語の処理負荷の変化量を調査し,「後続する要素の処理負荷が増えないように省略を行っている」という仮説を支持する結果が得られた。
## 2 サプライザルによる処理負荷推定
人の読み処理や言語の産出過程については,計算心理言語学の視点から分析が行われている. 特に近年では,逐次的な単語の処理困難度と情報量の間の相関を説明するサプライザル理論 [7] が,読み時間のモデリング $[11,12]$ などに応用されている. サプライザルは, 先行文脈 $c=w_{1}, \ldots, w_{i-1}$ に続く単語 $w_{i}$ の出現確率について負の対数をとったものであり,
$
\operatorname{surprisal}\left(w_{i} \mid c\right)=-\log _{2} P\left(w_{i} \mid c\right)
$
によって求められる。 日本語においても,読み時間の長さとサプライザルの大きさに相関があることが示されている [13]. さらには,共参照 [14] やフラグメント [15] といった言語現象についても,サプライザルを用い情報量の観点で分析が与えられている。本研究では, 日本語の項省略について後続の語の読み処理負荷との関係を観察するために,サプライザルを用いて分析を行う。
## 3 方法
本研究での仮説は「書き手は読み手にとっての処理負荷を想定しながら文を書いており,日本語において自然に省略される項は,項の出現の有無によって引き起こされる後続単語の処理負荷の変化量が相対的に小さい」というものである. この仮説を検証するため,(1) まず予備実験的に,文章中に登場する述語の項を「自然に省略される項」と「自然には省略されない項」の2つのグループに分け,それぞれのグループで項を出現させた場合と項を出現させない場合を比べ,後続の語のサプライザルにどの程度の変化が現れるかを確認する。(2) その後,項省略に関連する可能性のあるその他の因子を交えて回帰分析を行い,実際に後続の語のサプライザルの変化量が書き手が項省略を起こすか否かの予測に寄与しているかどうかを検証する。
人手による実験用データの作成上記の検証を行うにあたっては,書き手が項を明示している事例と省略を行っている事例を区別したデータを作成する必要がある. 本研究では係り受け. 並列構造と述語項構造・共参照がアノテーションされた現代日本語書き言葉均衡コーパス (BCCWJ-DeparaPAS)[16] の書籍(PB)ドメインから述語項関係を持つ事例を抽出することでこのデータを作成した.
作成したデータの概略図を図 1 に示す。まず,文章中の述語の項について,書き手が項を明示している事例を (A) 項表出群 (付録表 3) とし,省略を行っている事例を (B) 項省略群 (付録表 4) とした. ガ, Э,二格の 3 つの表層格を対象とし, (A) 群,(B) 群共にそれぞれの格に対し,20 事例ずつ,計 120 の事例をサンプルした.
さらに,この事例に対して項の出現の有無による後続の語のサプライザルの変化を計算するために, (A) 項表出群については,明示されている項を削除した文を新たに作成した。一方で,(B) 項省略群については,省略された項を文内に補った文を作成し
図 1 (A) 項表出群と (B) 項省略群における後続文脈のサプライザル比較の概略図.(A) 群,(B) 群共に項が表出している場合と表出していない場合の文を作成し,項以降のサプライザル差を比較する
た.この場合の項の挿入位置は著者ら 3 名で合議の上,アノテーションされている述語項構造の意味が保たれてかつ,もっとも日本語として自然な文となる位置に定めた。作成の詳細な手順については付録 A に記した。
## 4 実験
## 4.1 実験設定
言語モデルサプライザルの計算には,新聞と日本語 wikipedia で学習した Transformer ベースの left-to-right 言語モデルの単語予測確率を使用した [17]. 3 節で作成した事例について,ターゲットとなる述語より前方 300 サブワードを前方文脈とし,前方文脈と対象述語を含む文をつなげたものを入力系列とした. 直前の語までの入力に基づいて計算される次の単語の予測確率を用いて項の出現位置以降の各単語のサプライザルを計算した1).言語モデルの詳細は付録 D に示す.
## 4.2 予備実験
項の有無によるサプライザルの変化図 2 (1) は,文中のある述語の項を仮に出現させなかった場合の後続する単語列の処理負荷から, 出現させた場合の処理負荷を引いた値について,その傾向を示したものである。この値が大きいほど,項を出現させな
1)言語モデルの入力には,入力文を mecab と unidic で国語研短単位に分割し,それをさらに BPE (Bite Pair Encoding) によってサブワード化したものを用いた. サプライザルの計算時は国語研短単位ごとにサブワードのサプライザルの和を取った.
図 2 (1) は,項を表出させた時とさせないときの,項以降の単語のサプライザルの総和の変化を示す. (2) は,項以降の単語のサプライザルの総和の変化のうち,対象の述語動詞のサプライザルの変化を除いた值を示す. (1) における変化の大きさに比べ,(2)の変化の大きさが小さいことから,項を表出させるときの後続文脈の情報量の変化は主に対応する動詞で起きていることがわかる.
かった場合に,後続する情報の処理負荷が増大することを意味する.後続する単語列の処理負荷としては,具体的に項から文末までの単語のサプライザルの総和を用いた。
## テキスト上で省略されている項は省略しても後続 する処理負荷が増大しにくい 図中で,(A) 項表出群は書き手が実際に項を表出させた群であり,(B)項省略群は書き手が実際に項を省略させた群であ る. 図 2 (1) について (A) 群と (B) 群の結果を比較 すると,(A) 群の中央値が 2.24,(B) 群の中央值が -0.12 と, 項表出群のサプライザル差が項省略群よ り相対的に大きい値となった. また,この傾向はす べての表層格で同様に観測できた (付録 $\mathrm{C}$ を参照). つまり,書き手が省略を選択した群の方が,省略を 選択しなかった群に比べて,省略を行うことによっ て発生する後方単語のサプライザルの増加量が相対的に小さくなっている. この結果は「後方の単語の 読み処理負荷 ( $\propto$ サフライザル)を増大させないよう に書き手が省略する項を選択している」という仮説 を支持している。
処理負荷の増大は主に動詞で生じている具体的に後方のどの部分で主たるサプライザルの変化が起こっているかを観察したところ,事例の多くでター ゲットの動詞部分で相対的に大きな変化が見られた. 図 2 (2) は,後続文脈の処理負荷 (サプライザル変化の総和) のうち,対応する動詞のサプライザル変化を除いた量を示す. 項の後方から文末まで単語のサプライザル変化の総和 (図 2 (1)) のうち, 対象の述語動詞以外の部分のサプライザルの変化 (図 2 (2)) は小さい.このことから, 項の有無は後述の単語の中でも特に述語の処理負荷により大きな影響を与えていることが示唆され,述語のサプライザルが項省略の可否に関わることが予想される。このことをより精緻に分析するため,次節では回帰分析を行う。
## 4.3 回帰分析
前節 4.2 で示された述語のサプライザル差の影響について,項省略に関連する可能性のあるその他の因子を加えて回帰分析を行い,実際に後続の語のサプライザルの変化量が,書き手が項省略を起こすか否かの説明に寄与していることを確かめる。具体的には,述語動詞のサプライザル差以外に,以下の 6 つの因子を考慮し,コーパス上において書き手が項を省略させていたかどうかを目的変数とした回帰分析を行う. ${ }^{2}$
省略可能性に影響すると想定されるものとして,項の情報状態に関連する素性を 2 つ選択した。まず,先行研究 [13] より,名詞句の情報状態に伴う読み負荷の傾向がサプライザルでも再現されることが確認されていることから,項が新情報か旧情報かを近似的に表現する素性として (1) 項名詞句のサプライザルを用いた.加えて,(2) 項名詞句と共参照関係にある名詞句が項の挿入位置よりも前に存在するかどうかを素性とした。さらに,述語項構造解析で使用される基本的特徴量として,(3) 項名詞句の長さ,(4) 項を含む文の長さ, (5) 項が何文目に出現するか,(6) 項と述語の単語距離を選定した (表 1).
省略可能性とサプライザル構築したモデルの回帰式を式 2 に示す。
$
\begin{aligned}
& \text { dep_zero } \sim \text { diff_verb_spr }+ \text { arg_spr } \\
& +l_{\text {_arg }}+\text { arg_eq }+l_{\text {_sent }} \\
& + \text { appearance + arg2verb }
\end{aligned}
$
推定結果を表 2 に示す。選択された説明変数のうち,有意水準 $5 \%$ において帰無仮説を棄却し,有意性が認められた素性は,(a) 述語動詞のサプライザル差, (b) 項のサプライザル, (c) 項と述語の単語距離の 3 つであった. (a)より,他の素性を考慮してもなお,述語動詞のサプライザルの変化が小さいほど
2)これらの素性はステップワイズ法によって選定し,素性間に強い相関がないことを確認した。
表 1 回帰分析に用いた素性の一覧
\\
省略されやすいという傾向が示された。(b) については,読み手にとって出現が予測しやすい項ほど省略されやすいという傾向が観察され,旧情報のもつ情報量が小さいことを想定すると,旧情報ほど省略されやすいという言語的直観と一致する。 (c) 動詞と離れている項が省略されやすいという傾向については,関連する語同士は近くに配置されるという言語一般的な傾向を踏まえると,述語との関連が弱い単語ほど省略されやすいということを示している. また,主題や主語など,文頭の要素が省略されすいという傾向と一貫する.
## 5 議論
今回は項と後続要素との関係に着目してサプライザルを比較したが,今回説明変数に組み込まなかった部分においても議論の余地が残されている. 例えば,そもそも書き手が通常あまり書かれないような稀な情報を記述したい場合は,その情報を記述すれば記述するほど文のサプライザルは上昇するのであり,その場合,項を省略すればするほど全体のサプライザルは低下することになる。しかしながら,著者が伝えたい情報が真にそれであるならば,情報を省略することはできない. したがって,理想的には,書き手が伝達したい情報が十分に読み手に伝わるという制約条件の元での読み手の処理負荷最小化問題といったような問題の定式化が望まれる。今表 2 回帰分析の結果. $P|z|$ における*の数は,係数が 0 であるという帰無仮説を有意水準 $90 \%(*), 95 \%(* *)$, $99 \%$ (***)で棄却したことを示す.
後は,そのような制約付き問題の分析の第一歩として,分析対象の項が新情報であるか旧情報であるかを明確に区別したデータ上で同様の分析を行うことを検討する。
また,「項省略によって大きくなる述語動詞の情報量が,省略によって小さくなる項自体の情報量を上回る場合には省略ができない」という UID の観点からの解釈も興味深く,UID の観点を含めた更なる分析は今後の課題としたい.
## 6 おわりに
本研究では,読み時間や縮約などの現象に関する既存研究で導入されていたサプライザル理論を日本語項省略の分析に拡張し, 情報量の観点から人がどのような基準で項省略を行うかという書き手の計算モデルを探索した。結果として,項の有無によるサプライザルの変化を分析した結果,書き手が省略を選択する項は,省略しないことを選択する項と比べて, 省略することで発生する後方の単語の読み処理負荷の変化量が相対的に小さくなるという仮説を裏付ける結果が得られた. また,回帰分析の結果から,省略を行うことで発生する述語動詞のサプライザルの増加量が項省略の因子として存在することが明らかになった. 今後は分析対象のデータの規模の拡大や,より多くの素性を考慮した分析を行うことを目標としたい。これに加え,人にとっての「自然な省略」を定量化するため,個々人で省略するかしないかの判断の摇れが生じる可能性のある項の事例について,省略の自然さに関する人間のアグリーメントを取ることを検討している。
## 謝辞
本研究は,JSPS 科研費 JP19K12112,JP20J22697, および JST さきがけ JPMJPR21C2 の支援を受けたも
のです.
## 参考文献
[1] S.-Y. Kuroda. Whether we agree or not. Lingvisticae Investigationes, Vol. 12, pp. 1-47, 11988.
[2] Mamoru Saito. Notes on east asian argument ellipsis. LANGUAGE RESEARCH, Vol. 43, pp. 203-227, 2007.
[3] Mamoru Saito. (a) case for labeling: Labeling in languages without $\phi$-feature agreement. Linguistic Review, Vol. 33, pp. 129-175, 22016.
[4] Serkan Sener and Takahashi Daiko. Argument ellipsis in japanese and turkish. MIT Working Papers in Linguistics 61 : Proceedings of the 6th Workshop on Altaic Formal Linguistics : Department of Linguistics and Philosophy. MIT, pp. 325-339, 2010
[5] T Jaeger and Roger Levy. Speakers optimize information density through syntactic reduction. Vol. 19, pp. 849-856. MIT Press, 2007.
[6] T Florian Jaeger. Redundancy and reduction: Speakers manage syntactic information density. Cognitive Psychology, Vol. 61, pp. 23-62, 82010.
[7] John Hale. A probabilistic earley parser as a psycholinguistic model. pp. 159-166, 2001.
[8] Austin F. Frank and T. Florain Jaeger. Uc merced proceedings of the annual meeting of the cognitive science society title speaking rationally: Uniform information density as an optimal strategy for language production permalink speaking rationally: Uniform information density as an optimal strategy for language production. Proceedings of the Annual Meeting of the Cognitive Science Society, Vol. 30, p. 30, 2008
[9] Chigusa Kurumada and T Florian Jaeger. Communicative efficiency in language production: Optional case-marking in japanese. Journal of Memory and Language, Vol. 83, pp. 152-178, 122015.
[10] ELISABETH NORCLIFFE and T. FLORIAN JAEGER. Predicting head-marking variability in yucatec maya relative clause production. Language and Cognition, Vol. 8, pp. 167-205, 62016.
[11] Masayuki Asahara, Hajime Ono, and Edson T. Miyamoto. Reading-time annotations for "Balanced Corpus of Contemporary Written Japanese". In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers, pp. 684-694, Osaka, Japan, December 2016. The COLING 2016 Organizing Committee.
[12] Tatsuki Kuribayashi, Yohei Oseki, Takumi Ito, Ryo Yoshida, Masayuki Asahara, and Kentaro Inui. Lower perplexity is not always human-like. ACL-IJCNLP 2021 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing, Proceedings of the Conference, pp. 5203-5217, 2021.
[13] 栗林樹生, 大関洋平, 伊藤拓海, 吉田遼, 浅原正幸, 乾健太郎. 日本語の読みやすさに対する情報量に基づいた統一的な解釈. 言語処理学会第 27 回年次大会発表論文集, pp. 723-728, 2021.
[14] Laura Aina, Xixian Liao, Gemma Boleda, and Matthijs
Westera. Does referent predictability affect the choice of referential form? A computational approach using masked coreference resolution. CoRR, Vol. abs/2109.13105, , 2021.
[15] Robin Lemke, Ingo Reich, Lisa Schäfer, and Heiner Drenhaus. Predictable words are more likely to be omitted in fragments-evidence from production data. Frontiers in Psychology, Vol. 12, p. 2266, 72021.
[16] 浅原正幸, 大村舞. Bccwj-depparapas: 『現代日本語書き言葉均衡コーパス』係り受け・並列構造と述語項構造・共参照アノテーションの重ね合わせと可視化. 言語処理学会第 22 回年次大会発表論文集, pp. 489-492, 2016.
[17] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention Is All You Need. In Proceedings of NIPS, pp. 5998-6008, 2017.
[18] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for Neural Text Processing. In Proceedings of EMNLP, pp. 66-71, 2018.
## A検証に用いたデータの作成手法
本研究では係り受け. 並列構造と述語項構造・共参照がアノテーションされた現代日本語書き言葉均衡コーパス (BCCWJ-DeparaPAS) [16] の書籍(PB)ドメイン 83 ファイルを用いて検証を行った,コーパスには,名詞句相当の単語に項 id が付与され, 述語相当の単語に NTC 形式の属性,及び項との関係が付与されている. ゼロ代名詞については, ga_dep="zero"というようなタグ付けがされている. 項の格助詞については,コーパス上における格属性のうち,ガ格, ヨ格,二格の 3 パターンを対象とし,述語に関しては本研究では用言述語のみを対象とした。また,用言述語のうち,する,ある,なるのような機能性の強い語については, 予め除外した. さらに, 各群について項の格パターンに分類した上で,ガ格,二格,ヨ格それぞれ 20 サンプルを無作為に抽出した. まず,(A) 項表出群については,コーパス上で表出している項を消去したデータを作成した。続いて (B) 項省略群については,コー パス上で省略されている項を元文に補填したデータを作成した. その際,補填する項の格助詞については,例えば主格「僕が」を「僕は」に変更するような表出形の変化を許容し,その插入位置は著者ら 3 名で合議の上,元文の述語項構造において自然と感じる位置に補填した。
## B 作成したデータの例
表 3 (A) 項表出群のデータ作成例
(BCCWJ:00003_A_PB59_00001)
\\
表 4 (B) 項省略群のデータ作成例
(BCCWJ:00001_A_PB12_00001)
\\
## C 予備実験の結果
図 3 述語の項を出現させなかった場合の項から文末の単語のサプライザルの総和から,仮に出現させた場合の項以降の単語のサプライザルの総和を引いた値に関する表層格間の比較.
## D\cjkstart言語モデルハイパーパラメータ
Transformer 日本語言語モデルを,500万文(日本語 Wikipedia と新聞) で学習し, 100,000 回アップデート後のチェックポイントを用いた. 日本語テキストは,アノテーションデータとの分割の一貫性を保つため,一度国語研短単位に分割した後, BPE でサブワードに分割し $た^{3)}$.
表 5 言語モデルのハイパーパラメータ.
& & \\
3) SentencePiece [18] を用い,文字の網羅率を 0.9995 , 語彙数を 100,000とした. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D3-5.pdf | # トランスフォーマー文法
吉田遼 大関洋平
東京大学
\{yoshiryo0617, oseki\}@g.ecc.u-tokyo.ac.jp
## 概要
本研究では、階層構造における部分木を一つのベクトルに動的に合成しつつ、階層構造を生成する Transformer である、トランスフォーマー 文法 (Transformer Grammar, TG) を提案する。さらに、SyntaxGymを用いて TG を評価し、RNNG 及び PLM-mask の精度を上回ることを確認した。階層構造を明示的に扱う上で、アテンション機構と、部分木の合成関数の双方に利点があることを示唆したといえる。
## 1 はじめに
人間らしい文法能力を持った言語モデルとは、どのようなモデルだろうか。近年主流の Transformer [1]をべースとした大規模な事前学習モデルの一つである GPT-2 XL [2] は、言語モデルの文法能力を問うベンチマークである SyntaxGym [3] において最も高い精度を達成している [4]。しかし、 これらのモデルの精度は人間が文法能力を獲得するまでに得るよりも遥かに大規模な学習データによって支えられており、アーキテクチャ自体が「人間らしい」かどうかは定かではないとの指摘もある [5]。 Linzen は同論文 [5] で、「人間らしい」アーキテクチャの例としては、自然言語の階層構造を明示的に扱うモデルが考えられる、と述べているが、それらのモデルの代表が再帰的ニューラルネットワーク文法 (Recurrent Neural Network Grammars, RNNG) [6] である。RNNG は、少ないデータで統制した際に他のモデルよりも高い文法能力を獲得できることが示されている他 $[7,8]$ 、人間の脳波を高い精度でモデル化できることから、人間の文処理モデルとしての妥当性も主張されているモデルである [9]。RNNG の最大の特徴は、階層構造における部分木を一つのべクトルに動的に合成する合成関数であり、先行研究では、この合成関数なしではRNNG は構造をうまく扱えないことが明らかになっている $[10,8]$ 。一方で、近年 Qian ら [11] は、Transformer ベースの階層構造を明示的に扱うモデルを提案し、大規模な事前学習なしに高い文法能力を獲得できることを示している。しかし、彼らの提案したモデルは、 RNNG においては必要不可欠であった合成関数を持っておらず、階層構造を明示的に扱うことによる利点を生かしきれていない可能性がある。そこで、本研究では、階層構造における部分木を一つのベクトルに動的に合成しつつ、階層構造を生成する Transformer である、トランスフォーマー文法 (Transformer Grammar, TG) を提案する。
## 2 先行研究
## 2.1 再帰的ニューラルネットワーク文法
$\mathrm{RNNG}^{1}{ }^{1}$ は、RNN ベースの単語列 $X$ と階層構造 $Y$ の生成モデルであり、以下の同時確率をモデル化する:
$
p(X, Y)=p\left(a_{1}, \cdots, a_{n}\right)=\sum_{t=1}^{n} p\left(a_{t} \mid a_{<t}\right)
$
ここで、 $a_{t}$ は各時点での階層構造または単語列の生成に関する動作である。RNNG は、スタックと呼ばれるデータ構造でベクトルを保持しており、各時点における動作の確率 $p\left(a_{t} \mid a_{<t}\right)$ は、スタック LSTM [12]により算出されたスタックの状態を表すベクトルに基づき算出される。動作は以下の 3 つからなる:
・ $\mathrm{NT}(\mathrm{X})$ : 新たに開いた句 $(\mathrm{X}$ を生成する。開いた句の非終端記号 (Xを表すべクトルが、スタックの先頭に追加される。
・ $\mathrm{GEN}(\mathrm{x})$ :単語 $\mathrm{x}$ を生成する。生成した単語 $\mathrm{x}$ を表すべクトルが、スタックの先頭に追加される。
1)本論文では、Dyer ら [6] が元論文で提案しているモデルではなく、Kuncoro ら [10]によって提案された Stack-only RNNG を扱う。
図 1 双方向 LSTM による合成関数。REDUCE の際の、閉じた句を表すべクトルの算出に用いられる。図は Dyer ら [6]より引用。
-REDUCE:直近開かれた句を閉じる。最もスタックの先頭に近い、開いた句の非終端記号を表すべクトル及び、その句の娘にあたる全てのベクトルが、合成関数により閉じた句を表す一つのベクトルに合成される。合成関数には、双方向 LSTM が用いられる (図 1)。
前述したように、RNNG は、REDUCE の際の合成関数を取り除くと、構文解析精度 [10]、文法能力 [8]、及び脳波のモデル化精度 [9] が低下することが分かっており、合成関数が階層構造を正確に捉えるための中心的役割を担っているといえる。
## 2.2 Parsing as Language Modeling
Parsing as Language Modeling (PLM) は、Qian ら [11] によって提案された、Transformerベースの単語列と階層構造の生成モデルであり、RNNG と同様に、式 1 の同時確率をモデル化する。PLM は、RNNGと異なり、NT(x)、GEN(x)、REDUCE の動作時に、それぞれ、開いた句の生成、単語の生成、REDUCE トークンの生成のみを行う。そして、通常の言語モデルが単語列 $w_{1}, \cdots, w_{n}$ を扱うのと同様に、動作列 $a_{1}, \cdots, a_{n}$ を扱い、Transformerにより各時点における動作の確率 $p\left(a_{t} \mid a_{<t}\right)$ を算出する。
また、Qian らは同論文で、PLM に部分木の情報を有効活用させるため、全てのアテンションヘッドのうち 2 つに対して、1つには直近の開かれた句の内部のみ、もう 1 つには直近開かれた句の外側のみ、に注意を注意を向けさせるという手法を提案している。Transformer 言語モデルが、訓練時にモデルが未来の情報を参照しないために用いられる、“マスク”を用いてこの手法を実現しているため、このモデルは PLM-mask と呼ばれる。
前述したように、Qian らは実験により、PLM 及び PLM-maskは、大規模な事前学習なしに高い文法能力を獲得できることを示している。また、彼らの結果からは PLM-mask が PLM の文法能力を僅
図 $2 \mathrm{TG}$ のアーキテクチャ。
かではあるが上回っていることが読み取れ、一見 PLM-mask は部分木の情報を有効活用できているようにも思われる。しかしながら、PLM-maskは、 RNNG の合成関数のように部分木を表す一つのべクトルを生成しているわけではない。RNNGにおいては必要不可欠であった合成関数が、PLMのような Transformer ベースのモデルにとってもまた必要であるという可能性は捨て切れない。
## 3 トランスフォーマー文法
本研究では、階層構造における部分木を一つのベクトルに動的に合成しつつ、階層構造を生成する Transformer である、トランスフォーマー文法 (Transformer Grammar, TG) を提案する。TG のアー キテクチャを、図 2 に示した。TGは、RNNG 及び PLM (-mask) と同様に、式 1 の同時確率をモデル化する。TGは、ベクトルを保持するデータ構造としてスタックを用い、各時点における動作の確率 $p\left(a_{t} \mid a_{<t}\right)$ は、Transformerにより算出された、スタックの状態を表すべクトルに基づき算出される。 NT(X)、GEN(x)、REDUCE の動作時の挙動は RNNG と同じである。したがって、REDUCE の動作時には、合成関数 (図 1)により、部分木は一つのべクトルに合成される。
図 3 SyntaxGym 全体の結果。LM、PLM-mask、GPT-2 の結果は Qian ら [11]より引用。
TG の学習同じくTransformer ベースのモデルである PLM (-mask) は、動作列 $a_{1}, \cdots, a_{n}$ を通常の言語モデルのように扱う。そのため、PLM (-mask) の学習時には、通常の Transformer 言語モデルの学習と同じように、全動作を同時に処理することが可能である。一方で、TGは各時点でスタック内部のベクトルが動的に変化する。そのため、通常の Transformer 言語モデルは文生成時のみに行う、各時点における逐次処理を、TG は学習時にも行う必要がある。また、TG は各時点での動作が文ごとに異なるため、RNNG と同様にミニバッチ化が難しい。 そこで本研究では、固定長テンソルのスタックによる RNNG のミニバッチ化手法 [13] に数点の変更を施し、TGに適用した。具体的には、Transformer への入力には、バッチ内で最もスタックが深い文に合わせて、全ての文について、それよりも浅い位置にあるスタック内の全てのベクトルを用いるように変更し、2) さらに、Transformer の出力からは、各文のスタックの深さを保持するポインタ3) 位置のベクトルを取り出すように変更を施した。しかしながら、TGでは、アテンション機構によるメモリの多量の消費により、この手法を用いてもRNNG ほどの大きいバッチサイズでの並列化は実現できない。 これらのように、階層構造における部分木を一つのベクトルに動的に合成しつつ、階層構造を生成する Transformer の実現には、計算効率の犠牲が伴っている。
## 4 実験
本節では、言語モデルの文法知識を問うベンチマークである SyntaxGym [3] を用いて、SGの文法能力を評価する.
## 4.1 実験設定
Qian ら [11] が報告している、PLM-maskなどのモデルの評価結果と公平に比較をするために、本論文における実験設定の大部分は彼らの実験設定を踏襲している。
## 4.1.1学習データ
BLLIP-MD [14] を用いた。 $600 \mathrm{~K}$ 文、14M トークンからなるコーパスである。モデルの学習に用いる階層構造は、Qian ら [11] が PLM (-mask) を学習する際に、SoTA の句構造構文解析器 [15] によって付与したのと同じものを用いた。4)各文の単語は、 Huggingface Transformer [16] 実装の BPE [17] トークナイザを用いてサブワード単位に分割した。
## 4.1.2 モデル及びパラメータ
TG 256 次元、 3 層 4 アテンションヘッドのモデルを用いた。総パラメータ数は $16.6 \mathrm{M}$ 。
RNNG 276 次元、 2 層のモデルを用いた。総パラメータ数は 16.6M。Qian ら [11] は、Hu ら [4] により学習された RNNG と PLM (-mask) を比較しているが、Hu らは RNNG の学習に単語単位で分割したコーパスを用いている一方、Qian らは PLM (-mask) の学習にサブワード単位で分割されたコーパスを用いており、実験設定の乘離が見られた。そのため本論文では、サブワード単位で分割されたコーパスを用いて、TG と同じパラメータ数の RNNG を学習した。
PLM-mask Qian らにより報告されている、768 次元、12 層 12 アテンションヘッドのモデルの結果を引用する。総パラメータ数は $117 \mathrm{M}$ 。総パラメータ数は TG と RNG の約 7 倍であるが、学習コーパスなどの条件は TG と RNNG と同じである。
LM ベースラインの階層構造を明示的に扱わない言語モデル (LM) である。Qian らにより報告されている、768 次元、12 層 12 アテンションヘッドのモデルの結果を引用する。
4) BLLIP コーパスには元から階層構造が付与されているが、 より正確な階層構造を得るために、その終端記号の単語列のみを取り出し、このような処理をしている。
図 4 Circuit レベルの結果。LM、PLM-mask の結果は Qian ら [11] より引用。
## 4.1.3 評価データ
言語モデルの文法知識を問うベンチマークである、SyntaxGym [3] を用いた。幅広い文法知識を力バーしており、例えば、Agreement の circuitでは、主語に動詞の数を一致させる能力が問われている。具体的には、言語モデルには以下の (1)のように動詞の数が異なる 2 文が与えられ、正しい数の動詞 ((1a) の下線部) に、誤った数の動詞 ((1b) の下線部) よりも高い確率を付与することが期待される:
(1) a. The author next to the senators is good. b.*The author next to the senators are good.
階層構造を明示的に扱うモデルが単語に付与する確率は、先行研究 $[18,8]$ を踏襲して、word-synchronous beam search [19] を用いて求める。具体的には、単語列の背後に想定される階層構造のうち確率の高いものを複数保持しつつ、それらの確率を階層構造について周辺化することでモデルが単語に付与する確率を算出する。Qian ら [11] を踏襲し、動作ビーム幅 100、単語ビーム幅 $10 、$ ファストトラック幅 5 を採用した。
## 4.2 結果
## 4.2.1 SyntaxGym 全体
SyntaxGym 全体の結果を、表 3 に示した。棒グラフは seed の異なる 3 つのモデルの結果の平均値を表し、それぞれの点は各 seed の結果を表す。LM、 PLM-mask、GPT-2 の結果は Qian らの論文 [11] より引用したものである。はじめに、本論文の提案モデルである TGを含む全てのモデルがベースラインの LM を上回っており、階層構造を明示的にモデル化することの利点があることが確認できる。次に、
TGは、RNNG の精度を上回っている。このことから、合成関数により部分木を一つのベクトルに合成するモデルにおいても、アテンション機構により過去の全ての情報を直接参照できることの利点があることが分かる。次に、TGは、PLM-mask の精度を上回っている。このことから、Transformer ベースのモデルが階層構造を扱う際にも、合成関数によって部分木を一つのべクトルに動的に合成することの利点があることが分かる。最後に、Qian らの論文 [11] より引用した事前学習済み GPT-2 の結果 $(80.8 \%)$ と比較すると、BLLIP-MD で学習したモデルのうち、唯一 TGのみが匹敵する精度 $(80.7 \%)$ を達成している。
## 4.2.2 Circuit レベル
SyntaxGym の各 circuit レベルの結果を、表 4 に示した。TGは、Agreement を除くほぼ全ての circuitにおいて、RNNG 及び PLM-mask の結果を上回っており、アテンション機構と、部分木の合成関数は、幅広い文法知識の獲得に有用であることが分かる。
## 5 おわりに
本研究では、階層構造における部分木を一つのベクトルに動的に合成しつつ、階層構造を生成する Transformer である、トランスフォーマー 文法 (Transformer Grammar, TG) を提案した。そして、SyntaxGym を用いて TG を評価し、RNNG 及び PLM-mask の精度を上回ることを確認した。階層構造を明示的に扱う上で、アテンション機構と、部分木の合成関数の双方に利点があることを示唆したといえる。
## 謝辞
本研究は、JST さきがけ JPMJPR21C2 の支援を受
けたものです。
## 参考文献
[1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention Is All You Need. In Proceedings of NIPS, pp. 5998$6008,2017$.
[2] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners, 2019
[3] Jon Gauthier, Jennifer Hu, Ethan Wilcox, Peng Qian, and Roger Levy. SyntaxGym: An online platform for targeted evaluation of language models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 70-76, Online, July 2020. Association for Computational Linguistics.
[4] Jennifer Hu, Jon Gauthier, Peng Qian, Ethan Wilcox, and Roger Levy. A systematic assessment of syntactic generalization in neural language models. In Proceedings of the Association of Computational Linguistics, 2020
[5] Tal Linzen. How can we accelerate progress towards human-like linguistic generalization? In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 5210-5217, Online, July 2020. Association for Computational Linguistics.
[6] Chris Dyer, Adhiguna Kuncoro, Miguel Ballesteros, and Noah A. Smith. Recurrent neural network grammars. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 199-209, San Diego, California, June 2016. Association for Computational Linguistics.
[7] Adhiguna Kuncoro, Chris Dyer, John Hale, Dani Yogatama, Stephen Clark, and Phil Blunsom. LSTMs can learn syntaxsensitive dependencies well, but modeling structure makes them better. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1426-1436, Melbourne, Australia, July 2018. Association for Computational Linguistics.
[8] Ethan Wilcox, Peng Qian, Richard Futrell, Miguel Ballesteros, and Roger Levy. Structural supervision improves learning of non-local grammatical dependencies. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3302-3312, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[9] John Hale, Chris Dyer, Adhiguna Kuncoro, and Jonathan Brennan. Finding syntax in human encephalography with beam search. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. $2727-$ 2736, Melbourne, Australia, July 2018. Association for Computational Linguistics.
[10] Adhiguna Kuncoro, Miguel Ballesteros, Lingpeng Kong, Chris Dyer, Graham Neubig, and Noah A. Smith. What do recurrent neural network grammars learn about syntax? In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, pp. 1249-1258, Valencia, Spain, April 2017. Association for Computational Linguistics.
[11] Peng Qian, Tahira Naseem, Roger Levy, and Ramón Fernandez Astudillo. Structural guidance for transformer language models. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 3735-3745, Online, August 2021. Association for Computational Linguistics.
[12] Chris Dyer, Miguel Ballesteros, Wang Ling, Austin Matthews, and Noah A. Smith. Transition-based dependency parsing with stack long short-term memory. In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 334-343, Beijing, China, July 2015. Association for Computational Linguistics.
[13] Hiroshi Noji and Yohei Oseki. Effective batching for recurrent neural network grammars. In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 4340-4352, Online, August 2021. Association for Computational Linguistics.
[14] Eugene Charniak, Don Blaheta, Niyu Ge, Keith Hall, John Hale, and Mark Johnson. Bllip 1987-89 wsj corpus release 1. Linguistic Data Consortium, Philadelphia, Vol. 36, , 2000
[15] Nikita Kitaev and Dan Klein. Constituency parsing with a selfattentive encoder. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2676-2686, Melbourne, Australia, July 2018. Association for Computational Linguistics.
[16] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Remi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander Rush. Transformers: State-of-the-art natural language processing. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45, Online, October 2020. Association for Computational Linguistics.
[17] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, Berlin, Germany, August 2016. Association for Computational Linguistics.
[18] Richard Futrell, Ethan Wilcox, Takashi Morita, Peng Qian, Miguel Ballesteros, and Roger Levy. Neural language models as psycholinguistic subjects: Representations of syntactic state. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 32-42, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[19] Mitchell Stern, Daniel Fried, and Dan Klein. Effective inference for generative neural parsing. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 1695-1700, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D4-1.pdf | # Natural Language Processing Technologies in English as Second Language Learning Applications: A Review
Julio Christian Young ${ }^{1}$ Makoto Shishido ${ }^{2}$
Graduate School of Advanced Science and Technology, Tokyo Denki University
1julio.christian.young[at]_gmail.com ${ }^{2}$ shishido[at]mail.dendai.ac.jp
}
\begin{abstract}
Previous studies have shown how Artificial Intelligence (AI) technology can help the English as Second Language (ESL) learning process. Text to Speech, Speech to Text, and Chatbot are some of them. In this research, the research objective is to show the status, opportunities, and challenges associated with such technologies for ESL learning.
\end{abstract
## 1 Introduction
Having fluent English communication skills increase one's academic and career opportunities. With the popularization of deep neural networks in 2015 [1], artificial intelligence (AI) began to accomplish humanlike performance in various natural language processing tasks. Therefore, its implementation starts to revolutionize how one can learn a language effectively, inclusively English. Chatbot, text to speech (TTS), and speech to text (SST) are AI applicative aspects favored by researchers to achieve such objectives.
For Learning English as a Second Language (ESL), research in $[8,14,15]$ shows that STT technology can create a personalized learning system; therefore, students can practice and evaluate their speaking skills individually. The research found that the resulting system made students feel comfortable as it mitigates the fear of being judged when they practice in a classroom setting. On the other research in [11, 20], researchers found that TTS technology can mitigate the cost to hire a professional for producing listening materials. Moreover, using TTS, teachers can adjust the listening materials according to the class competency. Lastly, research in [17, 26, 27] demonstrated that a chatbot could be a perfect learning partner as it never grows tired and can be accessed according to students' needs.
However, there are still several challenges that have not been fully addressed mentioned by the previous research. For instance, in [16, 17], researchers state a Chatbot's unintelligent behavior might cause a communication breakdown that minimizes students' learning interest. While for STT-based learning applications, researchers argued it requires unusual preparations and only works in the research setting, not in the real-world situation [18]. Lastly, most students in [19] believed their teacher is a better pronunciation model even when they achieved a better score using TTS word dictation system.
Based on the presented benefits and challenges, the focus of this research is to do a literature review to gather all information regarding the opportunity, challenges, and research results related to the application of TTS, STT, and Chatbot technology.
## 2 Research Methodology
In this research, the sequence of activities carried out for the literature review process is described in Fig. 1.
Fig. 1. The Sequence of Activities Conducted in Our
$
\text { Study }
$
In the article gathering step, 61 items were gathered using one from the following keywords: "chatbot", "speech to text", and "text to speech, with two extra keywords of "English" and "learning". The gathering was done using Google Scholar Search Engine for research published from 2017 to 2020. Secondly, the abstract screening step was conducted to ensure that each gathered
article truly presented the potential benefits and challenges of such technologies in English learning. Based on the abstract screening step, there are only 26 remaining articles (5 in TTS, 6 in STT, and 15 in Chatbot domain). Finally, the remaining articles will be read to extract all information under these categories.
1. How they implement their technology of choice to help the learning process.
2. The opportunity assumed.
3. The research results.
4. The presented challenges in the implementation part.
The summarization from all points above will be presented in the next section. For readers' convenience, the summarization results for each technology will be presented in a separate subsection.
## 3 Previous Research
## 3.1 TTS for English Learning
Learning Strategy - Several learning strategies can be incorporated with TTS technology such as Listening comprehension [11, 13], phonological acquisition [12], words dictation [19], and word rhyme \& synonym [20].
Opportunity - Through various implementations, researchers believe there are advantages of TTS for ESL learning, which are.
1. TTS technology mitigates the cost and time to hire professionals for producing listening materials [11, 20].
2. Facilitator has total control of speech rate, loudness, tone, speaker's identity, and delay between a word in the produced materials $[11,12,13]$.
3. TTS service read reads the words at a constant rate and each word is rhythmically segmented [20].
4. Audio files produced by the TTS service have a native-like pronunciation which might enrich students' language input [13].
Results - Research in [12, 20] conclude that both $\theta f$ students who learn with human voices and audio materials from TTS have a similar learning performance; while research in $[11,19]$ conclude that students who learn with TTS assistance perform better learning performance compared to students that learn with the conventional method. On the other hand, qualitative research [13] on teacher perspective in incorporating the TTS technology for ESL learning also yielded a positive result. EFL teachers believed TTS might be useful to create listening materials and the produced material has a similar pronunciation to the native speaker so it might be beneficial to students.
Challenges - Despite its positive impact, there are several challenges for its application, such as.
1. Due to unnatural voice characteristics and emotionless intonation, most participants prefer ESL teachers to TTS technology [19].
2. TTS technology doesn't truly understand the concept of language, so there is no confirmation whether each word is spelled correctly or not [13].
3. Current TTS technology has no intonation to some punctuations (e.g., exclamation or question mark) resulting in wrong intonation to exclamatory and interrogative sentences [13].
## 3.2 STT for ESL Learning
Learning Strategy - In ESL Learning, researchers mainly incorporated STT technology for pronunciationrelated activities which include single vowels pronunciation [21], students' phonetic and fluency evaluation [15, 18], and utterance practice [8, 14, 15]. However, in [22], researchers utilize STT technology to provide real-time transcription of EFL teachers' speech in a classroom.
Opportunity - The previous research stated there are several advantages of STT for ESL learning which are.
1. Mitigate the resources needed for one-on-one practice that involves a native speaker $[8,18]$.
2. Provide a less intimidating and serene practice environment as students often feel uncomfortable, and fear to be judged to practice in a public [15].
3. STT implementation for speech transcription [22] provides dual-modality so it might be useful to fit students' learning styles.
Results - All previous quantitative research shows a positive result on students' perception regarding STTbased learning applications [8, 14, 15, 21, 22]. Most participants in $[8,14,15]$ felt less intimidated in their speaking practices using STT; it fits their learning preferences, and they're willing to use it for in- and outclass learning activities. For the real-time transcription use in [22], most participants highly appreciate STT implementation for improving their listening skills. On
the other end, quantitative research in [18] shows that students who use STT for ESL learning have a better speaking performance compared to others who do not.
Challenges - Regardless, there are several difficulties mentioned from STT implementation for ESL Learning.
1. Small group of students with high language ability finds the visual aspect of STT useless as they processed information directly from speech. [22].
2. STT might affect students' speaking performance as they might be slowing their speech on purpose to accentuate clarity [18].
3. Considering current STT trained by audio data from native speakers, the recognition rate for ESL students is often low due to their utterances being often mistranslated [8].
## 3.3 Chatbot for ESL Learning
For ESL Learning, research in the past utilized chatbots more frequently compared to the other two. Chatbots leverage text or voice modalities to engage in meaningful conversations with students. For chatbot application that interacts through users' utterances, STT and TTS technologies become the two underlying components to process the input and output voice in it. Therefore, the successful application of a voice-based chatbot for ESL learning simply reflects the success of the other two technologies within.
Learning Strategy - Researchers primarily implement chatbots as learning tools by making them learners' conversation partners. While researchers in $[2,9,26,5,4]$ implement a chatbot as a free conversational agent that engages in a diverse and broad conversation, others try to use it to aim at a specific learning objective. For example, researchers in [10] utilized a chatbot to assist students in a writing practice; while in [23], researchers created a chatbot that assists students in their writing activities by finding spelling and grammatical errors in their writing; in other research [24], the chatbot acts as students' virtual reading partner that recommends appropriate readings based on their level and evaluates their reading comprehension.
Opportunity - Researchers in the past considered the following advantages when they integrated a chatbot into ESL learning.
1. Students learn better when words are presented in spoken forms with a conversational style in which a chatbot is capable of [25].
2. Chatbot has a huge potential to help countries with an insufficient number of English native speakers [25, 9].
3. Interacting with a chatbot creates a pleasant learning experience for students $[3,6,26,27]$. A chatbot voluntarily engages in a conversation with students anytime and anywhere [25, 26, 17, 9, 6]. For ESL students with low language and speaking skills, in contrast to a human partner, a Chabot never grows tired and impatient even when a student keeps repeating the same mistake $[26,17,27]$.
4. Learning with a chatbot allows students to dictate the flow of the conversation to present learning materials according to their needs $[3,6]$.
5. Through multimodality implementation, a chatbot allows students to practice all skills in the English language (speaking, listening, reading, and writing). Moreover, it provides the opportunity for students to make use of diverse vocabulary and sentences structures that they scarcely use [26, 17, 27].
Results - The qualitative research result in the past shows a mix between the positive and negative impact of chatbot usage in ESL learning. For the positive part, most participants believed chatbot is beneficial for language learning [10, 16]. Most participants also agreed that a chatbot can hold a native-like conversation that feels authentic [10]. Moreover, in [9], after 10 minutes of weekly engagement with a chatbot in 8 weeks period, students felt more motivated, interested, and confident for their English skills. Participants from various research in $[24,3,27]$ perceived chatbot as a better learning partner (more patient, non-judgmental, and more relaxing) compared to the human study partner.
However, research in [4] shows that when students were engaged in a chat session for long enough, they began to lose interest in the chatbot thus leading to a significant decrease in their motivation. Secondly, the previous research [23] finds students feel a conversation with a chatbot was dull as its response are is unvaried. On top of that, chatbot inappropriate and unnatural responses could also lead to a bland conversation that decreases their learning motivation.
On the other hand, most quantitative research showed a positive result of a chatbot on improving students' English performance. In the previous research, after a short term (a week) [7, 10] and a long term (eight weeks) [9] of engagement with a chatbot, students showed a significant vocabulary test score improvement. Moreover, a study in [7] also compared a chatbot and a traditional Listeningand-Repeat (LRE) learning system, its result also shows that students engage 2.1 times longer with a chatbot system compared to the traditional LRE. Other previous research $[16,4]$ that measure the effects of chatbot usage on English writing skills found a significant improvement in students' words production and grammar skills. Lastly, in [2], researchers found that students who incorporate chatbots into their learning process achieve a better TOEIC Listening and Reading test score compared to others who do not.
Challenges - The previous research showed there are several challenges worth considering when chatbot technology is used for ESL learning.
1. Students might find the conversation with a chatbot is dull as it often gives monotonous responses [16, 17]. On top of that, the inappropriate responses from chatbots can lead students to frustration thus demotivating them [17].
2. Unintellectual nature of chatbot often makes its engagement with students short [17].
3. As a conversation partner, chatbots are often programmed for a specific and limited range of topics that don't suit the learners' needs and interests [10, 25].
## 4 Conclusion
In the last four years, most research showed the practicality and promising result of STT, $\mathrm{TTS}_{2}$ and Chatbot for ESL learning. Through the assistance of such technology, teachers can provide a great number of materials and exercises for ESL students. Furthermore, they can also allow students to engage in genuine communication despite their unideal learning environment. However, researchers in [4] argued that the novelty effects might be the main factor of their successful result so in the long term they will not truly contribute to students' English skills. Therefore, to help students in their learning process, it is better to view such technology as a supportive tool that aimed at a specific learning objective and designed them to fit that.
## References
[1] LeCun, Y., Bengio, Y., \& Hinton, G. (2015). Deep learning. nature, 521(7553), 436-444.
[2] Kim, N. Y. (2018). A study on chatbots for developing Korean college students' English listening and reading skills. Journal of Digital Convergence, 16(8), 19-26.
[3] Shin, D., Kim, H., Lee, J. H., \& Yang, H. (2021). Exploring the Use of An Artificial Intelligence Chatbot as Second Language Conversation Partners. Korean Journal of English Language and Linguistics, 21, 375-391.
[4] Kim, N. Y. (2019). A study on the use of artificial intelligence chatbots for improving English grammar skills. Journal of Digital Convergence, 17(8), 37-4.
[5] Fryer, L. K., Ainley, M., Thompson, A., Gibson, A., \& Sherlock, Z. (2017). Stimulating and sustaining interest in a language course: An experimental comparison of Chatbot and Human task partners. Computers in Human Behavior, 75, 461-468.
[6] Nghi, T. T., \& Phuc, T. H. Bots as Foreign Language Learning Tools: From Theory To Practice.
[7] Ruan, S., Jiang, L., Xu, Q., Liu, Z., Davis, G. M., Brunskill, E., \& Landay, J. A. (2021, April). EnglishBot: An AI-Powered Conversational System for Second Language Learning. In 26th International Conference on Intelligent User Interfaces (pp. 434444).
[8] Shishido, M. (2018, June). Developing e-learning system for English conversation practice using speech recognition and artificial intelligence. In EdMedia+ Innovate Learning (pp. 226-231). Association for the Advancement of Computing in Education.
[9] Kim, N. Y. (2018). Chatbots and Korean EFL students' English vocabulary learning. Journal of Digital Convergence, 16(2), 1-7.
[10] Alsadoon, R. (2021). Chatting with AI Bot: Vocabulary Learning Assistant for Saudi EFL Learners. English Language Teaching, 14(6), 135157.
[11] Andriani, T. N., Herawati, Y. W., \& Sulistyo, T. (2020). Text-to-Speech Application for Foreign Language Learner' Listening Comprehension in Indonesia.
[12] Cardoso, W. (2018). Learning L2 pronunciation with a text-to-speech synthesizer. Future-proof CALL: language learning as exploration and encounters-short papers from EUROCALL, 16-21.
[13] Oktalia, D., \& Drajati, N. (2018). English teachers' perceptions of text to speech software and Google site in an EFL Classroom: What English teachers really think and know. International Journal of Education and Development using ICT, 14(3).
[14] Shishido, M. (2019, June). Evaluating e-learning system for English conversation practice with speech recognition and future development using AI. In EdMedia+ Innovate Learning (pp. 213-218). Association for the Advancement of Computing in Education.
[15] Shishido M. (2021). Developing and Evaluating the e-learning Material for Speaking Practice with the Latest AI Technology ISSN: 2189-1036 - The IAFOR International Conference on Education Hawaii 2021 Official Conference Proceedings.
[16] Bailey, D., Southam, A., \& Costley, J. (2021). Digital storytelling with chatbots: Mapping L2 participation and perception patterns. Interactive Technology and Smart Education.
[17] Haristiani, N. (2019, November). Artificial Intelligence (AI) chatbot as language learning medium: An inquiry. In Journal of Physics: Conference Series (Vol. 1387, No. 1, p. 012020). IOP Publishing.
[18] Moxon, S. (2021). Exploring the Effects of Automated Pronunciation Evaluation on L2 Students in Thailand. IAFOR Journal of Education, $9(3)$.
[19] Chiang, H. H. (2019). A Comparison between Teacher-Led and Online Text-to-Speech Dictation for Students' Vocabulary Performance. English Language Teaching, 12(3), 77-93.
[20] Matsuda, N. (2017). Evidence of effects of text-tospeech synthetic speech to improve second language learning. Jacet journal, 61, 149-164.
[21] Tejedor-Garcia, C., Escudero-Mancebo, D., Cardenoso-Payo, V., \& Gonzalez-Ferreras, C. (2020). Using challenges to enhance a learning game for pronunciation training of English as a second language. IEEE Access, 8, 74250-74266.
[22] Hwang, W. Y., Li, Y. H., \& Shadiev, R. (2018). Exploring effects of discussion on visual attention, learning performance, and perceptions of students learning with STR-support. Computers \& Education, 116, 225-236.
[23] Nakano, A., Theeramunkong, T., \& Taira, H. A Conversational Agent for English Writing Skill Learners.
[24] Ruan, S., Willis, A., Xu, Q., Davis, G. M., Jiang, L., Brunskill, E., \& Landay, J. A. (2019, June). Bookbuddy: Turning digital materials into interactive foreign language lessons through a voice chatbot. In Proceedings of the Sixth ACM Conference on Learning@ Scale (pp. 1-4).
[25] Fryer, L., Coniam, D., Carpenter, R., \& Lăpuşneanu, D. (2020). Bots for language learning now: Current and future directions.
[26] Han, D. E. (2020). The Effects of Voice-based AI Chatbots on Korean EFL Middle School Students' Speaking Competence and Affective Domains.
[27] Yin, Q., \& Satar, M. (2020). English as a foreign language learner interaction with chatbots: Negotiation for meaning. International Online Journal of Education and Teaching. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D4-2.pdf | # A Preliminary Exploration of Asian Englishes-Oriented Classroom Activities: A Data-Driven Approach
Mariko Takahashi
Faculty of Foreign Studies, Setsunan University
mariko. takahashi@ilc. setsunan. ac. jp
}
\begin{abstract}
This study explored concise data-driven learning activities which were designed to expose Japanese university students to authentic data of Asian Englishes in order to raise their awareness toward differences between the varieties of English. By implementing six activities oriented to Asian Englishes, this preliminary exploration showed that short classroom activities served the purpose of having students notice characteristics of Asian Englishes and that activities in which students indirectly accessed data in corpora or databases were suitable as short activities of approximately 20 minutes.
\end{abstract
## 1 Introduction and background
English has been playing a significant role as an international language in today's society. The number of people who speak English as their second or foreign language exceeds the number of people who speak it as their first language, and the language is now used as " $\mathrm{a}$ non-local lingua franca, the means of communicating between people from anywhere in the world" (Mauranen, 2018, p. 7). As a result of its global spread, English came to have diverse features, thus becoming "Englishes" in the plural (e.g., Jenkins, 2015; Kirkpatrick, 2007). This phenomenon is also observed in Asia, with varieties of English in Asia referred to as "Asian Englishes."
Based on the Three Circles model of Englishes (e.g., Kachru, 1985), Japan belongs to the Expanding Circle. English is the most widely studied foreign language in Japan despite its limited use for communication outside of the classroom (e.g., Seargeant, 2009). Native varieties of English are still dominant in English teaching materials although their relevance has been questioned (Galloway \& Rose, 2015, pp. 196-197). Textbooks used at Japanese universities also tend to have complimentary audio files recorded by native speakers of English.
However, due to its nature as an international language today, "the majority of English learners will likely use the language as a lingua franca with fellow non-native English speakers" (Galloway \& Rose, 2015, p. x). Japanese university students are no exception to this trend, and it is likely that they will encounter different varieties of English especially if they use English at work after they graduate. As such, it would be advantageous for them to become familiar with, or at least become aware of the presence of, various Englishes in their English classes at university. It is not necessarily feasible to dedicate a large portion of the course to this theme when the curriculum requires the instructor to follow a certain syllabus. Therefore, it is worth exploring how to introduce diverse Englishes to university students through short classroom activities.
One potential way to achieve this is to integrate data-driven learning (DDL) because it can help students notice authentic language use. According to Chambers (2010), DDL utilizes data from corpora and lets students use such data "either indirectly by allowing them to learn about language use by studying concordances prepared in advance by the teacher, or directly by allowing them access to corpora and concordancing software to carry out their own searches" (p. 345) (see also, Boulton, 2012; Flowerdew, 2015). DDL typically involves the use of corpora, however, Boulton (2015) for example indicated that the data on the internet can be utilized for DDL along with search engines. DDL has been incorporated in English language teaching (e.g., Ackerley, 2017; Bardovi-Harlig, Mossman, \& Su, 2017) and has also been utilized in English classes in Japan (e.g., Mizumoto \& Chujo, 2015). It has not necessarily been associated with World Englishes (WE) or Asian Englishes (AE). In fact, despite the abundance of
corpus-based research on WE (e.g., Lange \& Leuckert, 2020), it still remains to be seen how to actively engage students in exploration of authentic data of WE/ $\mathrm{AE}$ through short activities in the classroom.
The current study aims to explore the possibility of incorporating data-driven $\mathrm{AE}$-oriented learning activities in English classes to raise Japanese university students' awareness toward $\mathrm{AE}$ by implementing three types of short classroom activities based on authentic data. Only the first type (see below) qualifies as typical DDL, yet the second and the third types could be considered as DDL in the sense students actively explore authentic linguistic data. This is a small-scale, preliminary study of practical examples intended for looking into possible options. Activities such as presentations and discussion of relevant concepts (as seen in Rajprasit, 2021) and writing about WE (as seen in Thompson, 2021) qualify as activities on WE/ $\mathrm{AE}$; however, this paper deals with activities which focus on the use of authentic data.
## 2 Methodology and context
Three types of classroom activities (approximately 20 minutes each) incorporating $\mathrm{AE}$ were planned and prepared: 1) corpus-based activities, 2) audio-based activities, and 3) video sharing platform-based activities. For each type, direct activities and indirect activities were included; "direct" here means activities which asked participants to directly access the corpus or the database, while "indirect" means activities which utilized the data retrieved from the corpus or the database by the instructor beforehand.
The activities were conducted in at least one of the following English courses taught by the researcher as the instructor in the academic year 2021: Class A (communication, 9 students), Class B (speaking, 12 students), Class C (grammar, 15 students), Class D (communication, 3 students), Class $\mathrm{E}$ (communication, 17 students), and Class F (seminar, 11 students).
## 3 Corpus-based activities
For the first type of activities, the Corpus of Global Web-Based English (GloWbE) (Davies, 2013) was utilized. GloWbE consists of approximately 1.9 billion words of web-based texts from 20 countries and areas, and it is suitable for conducing comparative analyses between varieties of English (Davies, 2015). GloWbE includes 8 countries and areas from Asia with varying number of words: India, Sri Lanka, Pakistan, Bangladesh, Singapore, Malaysia, Philippines, and Hong Kong.
## 3.1 Direct corpus search activity (A, D)
For this activity, the instructor asked some of the students to suggest a word or phrase they would like to search on GloWbE. The instructor then conducted the search by using the built-in concordancer. The students looked at the results on frequency along the concordance lines and discussed how the word or phrase was used. This format was taken to minimize the time the students needed to familiarize themselves with the tools because the activity was intended to be a short one. As mentioned in Boulton (2012), it can be time-consuming to have students learn how to use the tools accurately (p. 153).
For example, one of the students in Class A suggested the phrase "you know" to be searched in the corpus. The search showed that there were 313262 instances of "you know" in the corpus but that speakers of some varieties (e.g, American English, Australian English, Philippine English) used the expression more frequently than speakers of other varieties (e.g., Bangladeshi English, Hong Kong English). The frequency data on the screen were not normalized, but the students could evaluate the data by looking at the hue of each cell. The students then read several concordance lines from different varieties. This activity enabled the students to actively select and explore the words or phrases they were interested in. However, they tended to choose expressions which occurred frequently across the varieties, which made it difficult to compare the usage across varieties in detail. In other words, this direct corpus search activity did not seem to focus the students' attention clearly on the features of AE.
## 3.2 Indirect corpus search activity (A, C, D)
For this activity, the instructor chose the target forms beforehand, ran the search on GloWbE by using the concordancer, normalized the frequency, extracted data relevant to selected varieties of native and Asian Englishes, and presented the data on a worksheet (see Appendix) along several concordance lines. The students
were asked to follow the questions in pairs or in groups to analyze and explore the forms and usage.
As the target forms, expressions commonly observed across Englishes (e.g., "I mean") as well as expressions characteristic to AE (e.g., "lah" in Singapore English and Malaysian English) were selected. The first type was to have the students pay attention to the differences in the frequency of occurrence of common expressions across the varieties. On the other hand, the second type was to have them notice that there were characteristic features in $\mathrm{AE}$ and to encourage them to inductively explore their usage based on the concordance lines. There was more control to this activity compared to the direct corpus search activity, and as such, it seemed to be more effective in focusing the students' attention on AE within a short period of time.
## 4 Audio-based activities
For the second type of activities, audio files from the International Dialects of English Archive (IDEA) (Meier \& Meier, n.d.) were utilized. The archive includes audio files of English speakers across the world including Asia; each speakers reads Comma Gets A Cure aloud and also provides a short unscripted monologue about themselves. It was developed as a resource for performers to learn English accents, but now it is used for various purposes including academic research (Persley, 2013, p. 63). IDEA has also been used in English classrooms (e.g., McMahon, 2021).
## 4.1 Identifying features activity (A, D)
For this activity, the students used their device to directly access IDEA in pairs or in groups. They first chose a country from Asia available on IDEA with their partner(s) and selected two or three audio files. Next, they listened to the audio files multiple times, focusing primarily on the unscripted monologue part. They were allowed to look at the script after they listened to the audio file once. They then followed the instructions on the worksheet (see Appendix) and tried to identify characteristic features of pronunciation, grammar, and expressions. After spending approximately 15 minutes, the students reported their findings to the class.
For example, a pair from Class A chose to explore Korean English. They initially struggled to express their findings in words but eventually succeed in identifying the replacement of $[z]$ with $[s]$ in the speech of one of the Korean English speakers. Another pair focused on speakers of Philippine English and wrote that the rhythm (or intonation) was different from English speakers they were familiar with. An intriguing comment was made when we listened to audio files from different countries as a class; one of the students remarked, "zenzen chigau! (it's so different!)", indicating that the student noticed how accents of AE may dramatically differ. Overall, this activity turned out to be beneficial for having students focus on pronunciation and intonation of $\mathrm{AE}$ through listening to authentic yet somewhat controlled audio data of their choice. However, it was difficult for them to identify grammatical features or characteristic expressions in a short period of time, indicating that corpus-based activities (typical DDL) as above are more suitable for exploration of such features.
## 4.2 Listening comprehension activity (B, C)
For this activity, the instructor selected audio files of AE speakers from IDEA and prepared listening comprehension questions beforehand. The students did not directly explore IDEA, and in that sense, the students utilized the database indirectly. They did not have access to the script and had to solely rely on listening to answer the comprehension questions. As this activity was meant to be a short one intended to draw the students' attention toward differences in accents, only two, easy questions were prepared for each audio file. The questions were given orally; for example, "Where did the speaker learn English?" and "What is the speaker's favorite food?" The students listened to the audio files and then confirmed their answers with their classmates sitting around them. The instructor then asked the students to discuss if they had any trouble understanding the speakers, and if so, what the contributing factors were and how they could become more familiar with different varieties of $\mathrm{AE}$. The students were encouraged to access other audio files outside of the class. This activity was flexible in terms of length and content.
## 5. Video-based activities
For the third type of activities, that is, video sharing
platform-based activities, YouTube was utilized because of its popularity and the variety of videos available on the platform.
## 5.1 Finding videos activity (F)
For this activity, the instructor asked the students to find videos in English produced by YouTubers from any country in Asia in pairs. Instead of randomly searching on YouTube, the students first tried to identify popular YouTubers in the country of their selection. This part went successfully for most pairs as they were able to find websites introducing YouTubers from different countries. However, the activity soon encountered a major problem. Popular YouTubers tended to speak in the most widely spoken language of their country. Even when they found videos in English, it was difficult to tell if the speaker was from that country or an expatriate from another country. YouTube also tended to suggest Japanese videos even when they typed search words in English. This means that this "direct" search activity did not work well for exploration of $\mathrm{AE}$.
## 5.2 Watching videos activity (B, E)
For this activity, the instructor compiled a playlist consisting of English videos produced by YouTubers from different countries in Asia (Singapore, Korea, Philippines, India, Malaysia). The videos were on food, fashion, and lifestyle. There were videos on AE on YouTube, but such videos were not included in the playlist because they somewhat went against the purpose of inductive learning. The playlist was shared with the students in Classes B and E along with the note to encourage them to pay attention to differences in English. The two classes were chosen for this activity because the students were making a YouTube-style video for their final project. As this was partly conducted as an optional assignment outside of the class this time, it was difficult to confirm the extent the students noticed features of AE. However, unlike the "direct" activity, this "indirect" activity enabled the students to access authentic English videos from Asia produced for entertainment purposes.
## 6. Discussion
This study explored three types of "data-driven," short classroom activities which aimed to raise students' awareness toward $\mathrm{AE}$. The results of the implementation of "direct" and "indirect" activities in English classrooms showed that exposure to authentic data of $\mathrm{AE}$ can potentially facilitate Japanese university students' awareness toward the diversity of English in Asia even when it is not possible to spare a significant portion of the class time to this type of activities. However, from the perspective of the instructor, the students were more responsive to indirect activities than to direct activities; perhaps, the latter type of activities would have required more explanation. This indicated that for short classroom activities, it is necessary for the instructor to organize the data beforehand to a certain degree without decreasing their authenticity so that students would be able to access and handle the data efficiently within the allocated time.
Among the six activities explored in this preliminary study, the indirect corpus search activity (3.2) and the listening comprehension activity (4.2) seemed to actively engage the students in a way that their attention was directed to the features of $\mathrm{AE}$ inside the classroom in a relatively short period of time of around 20 minutes. Although it was essential to encourage the students to discover the features of $\mathrm{AE}$ by themselves, it was also necessary for the instructor to emphasize the purpose of the activities clearly so that the students would not consider "differences" as "learner mistakes." This study was a preliminary study with the primary aim of exploring possible options, and as such, only informal feedback was collected from the students. Informal comments from the students indicated that they were able to notice that there were differences in $\mathrm{AE}$.
## 7. Conclusion
This preliminary exploration of activities has shown that short and concise activities based on authentic data of AE, especially "indirect" data-driven activities, can be incorporated into English classes to have university students become aware of different varieties of English. This study was limited in that structured and quantitative analysis of the effects of the activities was not conducted. It would be more ideal to implement longer data-driven activities; however, within the restriction of time and requirement of syllabi, concise in-class activities are likely to become the first step in raising university students' awareness toward Asian Englishes.
## References
Ackerley, K. (2017). Effects of corpus-based instruction on phraseology in learner English. Language Learning \& Technology, 21(3), 195-216. http://hdl.handle.net/10125/44627
Bardovi-Harlig, K., Mossman, S., \& Su, Y. (2017). The effect of corpus-based instruction on pragmatic routines. Language Learning \& Technology, 21(3), 76-103. http://hdl.handle.net/10125/44622
Boulton, A. (2012). Hands-on / hands-off: Alternative approaches to data-driven learning. In J. Thomas \& A. Boulton (Eds.), Input, process and product: Developments in teaching and language corpora (pp. 152-168). Masaryk University Press.
Boulton, A. (2015). Applying data-driven learning to the web. In A. Leńko-Szymańska \& A. Boulton (Eds.), Multiple affordances of language corpora for data-driven learning (pp. 267-295). John Benjamins.
Chambers, A. (2010). What is data-driven learning? In A. O'Keeffee \& M. McCarthy (Eds.), The Routledge handbook of corpus linguistics (pp. 345-358). Routledge.
Davies, M. (2013) Corpus of Global Web-Based English. https://www.english-corpora.org/glowbe/.
Davies, M. (2015). Introducing the 1.9 billion word Global Web-Based English Corpus (GloWbE). 21st Century Text, 5.
https://21centurytext.wordpress.com/introducing-the-1 -9-billion-word-global-web-based-english-corpus-glo wbe/
Flowerdew, L. (2015). Data-driven learning and language learning theories: Whither the twain will meet. In A. Leńko-Szymańska \& A. Boulton (Eds.), Multiple affordances of language corpora for data-driven learning (pp. 15-36). John Benjamins.
Galloway, N., \& Rose, H. (2015). Introducing global Englishes. Routledge.
Jenkins, J. (2015). Global Englishes (3rd ed.). Routledge.
Kachru, B. (1985). Standards, codification and sociolinguistic realism: The English language in the outer circle. In R. Quirk \& H. G. Widdowson (Eds.), English in the world: Teaching and learning the language and literatures (pp. 11-30). Cambridge
University Press.
Kirkpatrick, A. (2007). World Englishes. Cambridge University Press.
Lange, C., \& Leuckert, S. (2020). Corpus linguistics for World Englishes: A guide for research . Routledge.
Mauranen, A. (2018). Conceptualising ELF. In J. Jenkins, W. Baker, \& M. Dewey (Eds.), The Routledge handbook of English as a lingua franca (pp. 7-24). Routledge.
McMahon, A. (2021). Creating and teaching a global Englishes-themed EFL course. APU Journal of Language Research, 6, 133-145. https://doi.org/10.34409/apujlr.6.0_141
Meier, P., \& Meier, C. (n.d.). International Dialects of English Archive. https://www.dialectsarchive.com/
Mizumoto, A., \& Chujo, K. (2015). A meta-analysis of data-driven learning approach in the Japanese EFL classroom. English Corpus Studies, 22, 1-18. http://hdl.handle.net/10112/13009
Persley, N. H. (2013). An innovative IDEA: a review of the International Dialects of English Archive. English Today, 29(3), 63-64. https://doi.org/10.1017/S0266078413000229
Rajprasit, K. (2021). 'Do as WE do': Teaching World Englishes in a general English course to Thai students. RELC Journal. Advanced online publication. https://doi.org/10.1177/00336882211011276
Seargeant, P. (2009). The idea of English in Japan: Ideology and the evolution of a global language. Bristol: Multilingual Matters.
Thompson, V. E. (2021). Integrating Global Englishes into literature and writing units: Advice for secondary teachers. In M. D. Devereaux \& C. C. Palmer, Teaching English language variation in the global classroom (pp. 82-91). Routledge.
## Appendix
This is a simplified version of the worksheet distributed in Class D.
## Part 1
Look at the following data from the Corpus of Global Web-Based English . Answer the questions.
Q1-1 When do you use the expression "I mean" in English? Look at the following examples as reference. (concordance lines were provided here on the actual worksheet)
Q1-2 This table shows the frequency of the expression "I mean" per 1 million words.
What can you learn from this data?
Q2-1 In some areas, speakers sometimes add "lah" to what they say. Look at the following examples.
What do you think "lah" means? How do speakers use it? (concordance lines were provided here on the actual worksheet)
Q2-2 This table shows the frequency of "lah" per 1 million words. What can you learn from this data?
(note that the instructor had eliminated proper nouns when normalizing the data)
Q3 Is there any other expression (or word) you want to search on the corpus?
Q4 How can we learn about different features of English across countries/ areas? Give examples.
e.g., read English magazine articles from different countries
## Part 2
Access the International Dialects of English Archive .
Choose a country from Asia, listen to a few audio files (I suggest you focus on the latter half - speakers usually talk about themselves toward the end) and answer the following questions.
Your country [
] Speakers you selected [
Q1 What features of pronunciation or rhythm did you notice?
Q2 Did you notice any characteristic vocabulary or expressions?
Q3 What grammatical features did you notice?
Q4 Do you think the speakers were "learners" of English or "users" of English? Why? | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D4-3.pdf | # Development of tutorial materials for learning Chinese focusing on pronunciation practice
Luo Yang', Makoto Shishido ${ }^{2}$
Graduate School of System Design and Technology, Tokyo Denki University
$\left.\{21}.$ amd21\}@ms.dendai.ac.jp ${ }^{1},\left.\{}.$ shishido\}@mail.dendai.ac.jp ${ }^{2}$
}
\begin{abstract}
China is Japan's largest trading partner, and China ranks first in the number of overseas offices of Japanese companies. The economic relationship between China and Japan is getting closer. Japan's direct investment in China has been rising steadily every year. [1] Under these circumstances, it would be beneficial for Japanese university students to study Chinese. In addition, the Japanese have been learning Chinese characters since they were in elementary school, so the ability to read and write Chinese sentences can be improved without difficulty. Many people think that the difficulty in learning Chinese is the pronunciation. However, there are currently few self-study applications that emphasize pronunciation and dialogue practice. Therefore, this paper aims to make an application that emphasizes pronunciation practice.
\end{abstract
## 1. Introduction
The purpose of this research is to develop Chinese learning materials for university students at the beginner's level, mainly focusing on pronunciation practice, so that they can study daily topics and acquire basic communication skills. Its effectiveness will be tested using controlled experiments and so on.
## 2. Previous Research
## 2.1 Pinyin and Chinese syllables
Pinyin is a phonetic symbol used in mainland China. It refers to a system of phonetic notation in which syllables are divided into phonetic characters and written in Latin characters. On the other hand, the Chinese syllables are mainly used in Taiwan. It is represented by 37 characters, including ユタ $\square \subset$ (Bopomofo). Some of the characters are similar to Japanese kana, but unlike kana, they are not syllabic characters. In addition, while kana is created by using the cursive script and kanji radicals, the Chinese syllables are based on ancient scripts. Pinyin, which uses Latin characters, is thought to be easier to learn for foreigners than the Chinese syllables.
## 2.2 Difficulties in Chinese Learning
The first is the difficulty of Chinese pronunciation itself. Chinese syllables are made up of 21 initials, 35 vowels, and 5 tones (including the soft tone). There are many combinations, and some of them do not exist in Japanese, so how to master them is a big problem for beginners. Secondly, there are a large number of homophones with different characters and the same characters with different sounds in Chinese, and the correspondence between Chinese characters and pinyin is also a big problem. In addition, unlike English and Japanese, the pronunciation rules of Pinyin itself are also a major difficulty in Chinese learning. [2]
For the Japanese, it is well known that the most difficult part of learning Chinese is generally considered to be to master the tones. In Japanese, the pronunciation difference between homophones is generally distinguished by the difference in the degree of highness or lowness between syllables. [3] In Chinese, every syllable has a tone, and the change of tone has a great influence on the meaning of words. Take an example of a sentence explaining tones that often appears in Chinese textbooks, “妈妈骂马”, pronounced as "Māma mà mă”. Every character has the same initial " $\mathrm{m}$ " and the same vowel " $\mathrm{a}$ ", the only difference between them is the tone. However, this sentence means "Mother scolds a horse." From this example, we can also find another difficulty in Chinese tones. “妈妈” is a word with the same character, but pronounced as "Māma". The character behind changes its tone to a soft tone. In Chinese, many characters change tones in sentences.
## 3. Methods
Among the Chinese textbooks, there are three methods of teaching pronunciation. First, at the beginning of the textbook, focus on teaching Pinyin. This method is thought to be too abstract to dampen students' interest in learning. The other two methods are text writing for learning a specific pronunciation and learning pronunciation in texts on a certain topic. [4] The former method can focus on learning difficult pronunciations, but at the same time, it lacks practicality, and it is easy to bring frustration and reduce learning interest in the early stage. Today's Chinese education researchers prefer to let learners learn common pronunciations by using frequently used words. This method is also used in this textbook.
The textbook will focus on pronunciation practice and will include the following content to help students study basic Chinese communication skills.
First, listen to and study the conversation text. Then, study the words related to the conversation text and practice pronunciation. At this point, we import the iFLYTEK pronunciation evaluation system to evaluate the students' pronunciation. All recorded data is going to be created by Google's Text to Speech.
The content of the course is based on the HSK introductory vocabulary list. To acquire a basic level of Chinese proficiency, students need to learn basic pronouns, nouns, verbs, and learn how to express time, age, money, and numbers. The materials consist of 10 chapters, and about 150 words will be studied.
## 3.1 Google Text to Speech
Google Text to Speech technology can be deployed to produce natural human-like speech, and an API built on DeepMind's expertise in text-to-speech can produce speech that is very close to human-like. There are over 220 voices to choose from in more than 40 languages and language variants, including Chinese, Japanese, Spanish, and Russian. Without the hassle of recording a new phrase, users can define and select the voice profile that best suits their needs, and quickly adjust it to suit the voice changes they need. [5]
## 3.2 iFLYTEK Pronunciation Evaluation System
iFLYTEK pronunciation evaluation system can measure the correctness and fluency of the initials, vowels, and tone. With this system, it is possible to evaluate pronunciation objectively based on certain criteria for many users. [6] At the same time, the iFLYTEK pronunciation evaluation system is also used in the HSK test. So it is good for users to get a high score on the HSK test by using the iFLYTEK System in the application.
Table 1 Explanation on iFLYTEK XML output table[7]
Among the outputs of the iFLYTEK system, there are four related to scores. The standard score is a score that displays emotion. The integrity score and fluency score are related to the completeness of the sentence, which are considered unnecessary for this application. Therefore, only the tone score and the phone score are used in this application.
Since the iFLYTEK speech evaluation system has no fixed scoring criteria, in this application the score is calculated using this formula:
Score $=$ phone_score $* 0.7+$ tone_score $* 0.3$
The score is out of 10 points, 8 points or more will be shown in green, 6 points or more but less than 8 points will be shown in yellow, and 6 points or less will be shown in red.
## 4. Application Development
## 4.1 Development environment
In this study, the target device is an Android smartphone, which is developed in Android Studio using the JavaScript language
## 4.2 Application usage flow
The following is an example of the screen display when learning Chapter 1. The text of Chapter 1 is about greeting, so users will learn vocabulary related to personal pronouns. Each chapter has a topic and learning the pronunciation of the vocabulary related to this topic after the text is the method of this teaching application.
When you open the application, the main menu
appears. From the main menu, select the chapter you want to study, and the text content will be displayed (Figure 1).
Figure 1 Home page
Press the "VOICE" button to play the audio data (Figure 2).
Figure 2 Chapter 1 text
Figure 3 Studying words
Press the "NEXT" button to proceed to the word study (Figure 3). Press the "VOICE" button to listen to the recording, then press "RECORD" to enter your pronunciation, and the iFLYTEK evaluation score will be displayed (Figure 4).
Figure 4 Pronunciation scores
## 5. Deficiencies
This application is still in development, so there are still some deficiencies that need to be addressed in the future.
First of all, there is no pronunciation method in the textbook. Due to the difficulty of Chinese pronunciation, especially the distinction between some front and rear nasal sounds, and the position of the tongue when aspirating air, it is impossible to accurately convey the pronunciation method only by sound. So when users learn these syllables, it may be difficult to grasp the essentials and increase the difficulty of learning.
Secondly, as described above, Chinese syllables consist of initials, vowels, and tones. However, iFLYTEK's score can only be specific to one word and cannot be subdivided, so users can't understand where their pronunciation is wrong.
Thirdly, the characteristics of language learning require the conversion of short-term memory into longterm memory, but there is a lack of relevant means in this stage. In addition, this application lacks the means to enhance the interest in learning and also lacks the method of review. These issues need to be resolved in the next development stage.
## 6. Future Work
Regarding the deficiencies mentioned above, the next development has the following plans.
Firstly, to extract syllables that are difficult for users to
master, and to add relevant chapters to learn pronunciations that do not exist in Japanese. This is in order to study the hard part of initials and vowels alone for users. For example, the character “耳”, which has the same mean in Chinese and Japanese, means an ear. The pronunciation in Chinese is Ěr, which does not exist in Japanese. The character "耳" should be the focus of learning.[8]
Secondly, due to the defects of iFLYTEK, there is no good solution at this stage. The application is going to show details about the pronunciations which are under 8 points. So at least, users can know if they were wrong at the initials and vowels or tones. However, as mentioned earlier, Japanese generally have the weakest awareness of pitch, while iLFYTEK has tone scores. In the next stage, it is possible to adjust the weighting of the tone score and the content of the application after confirming the subject's weakness through preliminary experiments. It is also possible to increase the content related to tones and the change of tones.
To convert short-term memory into long-term memory, a common method is to link abstract Chinese characters with pronunciations and real things. [9] In the future, if possible, illustrations will be added to the application to strengthen the user's memory. On the other hand, quizzes after chapters are also necessary as a means of reviewing and enhancing memory. It allows users to understand their own learning situation and enhance their learning motivation. Reinforcing tone-related memory in quizzes could be effective.
This study proposes an application for learning Chinese for university students with a general education level of beginner. In the current application, the contents of Chapter 10 have not been completed yet. In the future, a plan to enrich the contents of the teaching materials by including these chapters is being thought of. In addition, adding functions such as a word book to improve learning efficiency is in the plan. A user-friendly UI/UX is also considered to be designed to increase the motivation of learners to learn. How to design experiments to verify the effectiveness of this application is also planned in the future.
## References
[1] 日中経済関係 - 中国経済.外務省中国・モンゴル第二課,令和 2 年 5 月 27 日, (accessed 2021-12-01.)
https://www.mofa.go.jp/mofaj/area/page3 000307. html.
[2] 中国語発音教育におけるカラー拼音の効用.塩旗伸一郎,駒澤大学外国語論集 23, 2017 年, $59-82$
[3] 谈谈对日本 2 外汉语学习者 “声调难” 问题的认识. 丁雷, 島根大学外国語教育センタージヤーナル 12, 2017 年, 75-87
[4] 記憶モデル理論からみた中国語発音教育のあり方. 竹中佐英子, 目白大学心理学研究(1), 2005 年, 61-72
[5] Text-to-Speech document. Google Cloud, (accessed 2021-12-01.)
https://cloud.google.com/text-to-speech.
[6] 中国語における発音評価一流暢さが聞き手に与える影響一, 西宮藍子, 早稲田大学大学院文学研究科紀要, 2015 年, 第 2 分冊, 201-209
[7] iFLYTEK document. (online) (accessed 2022-0110.)
https://www.xfyun.cn/doc/voiceservice/ise/ise prot ocol.html.
[8] 学習成果の可視化に関する試案(1):中国語初級段階における発音習得を中心に。大島吉郎,大東文化大学紀要. 人文科学, 2021 年, 第 59 巻, $193-208$
[9] 語彙マップを用いた初級漢字語彙教材の開発.徳弘康代, JSL 漢字学習研究会誌, 2016 年, 第 8 巻, $15-19$ | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D4-4.pdf | # スマートスピーカー用日本語学習機能の開発
加藤大輔 宾戸真
東京電機大学大学院 情報環境学研究科
$\{20$ jkm08\}@ms. dendai.ac. jp, \{shishido\}@mail.dendai. ac.jp
## 概要
学校の授業内でデジタル教材を紙教材と併用することができる法令が実施され, デジタル教材の需要が拡大されている.デバイスがいくつかある中で, スマートスピーカーを使用した学習教材の実例はまだ少ない状況にある.スマートスピーカーは AI アシスタン卜機能を搭載しており,その操作方法は音声によるものである。この人間対機械で対話をするという行為を利用し,語学学習を日常に身近なものしたいと考えた. そこで本研究ではスマートスピーカー内の機能として日本語を母語としない日本語学習者のための日本語学習機能を開発し, 使用感を確認するための実験を行った。
## 1 はじめに
令和 2 年度から新学習指導要領を踏まえた授業の改善や特別な手助けが必要となる生徒のための補助を目的として,これまでの紙の教科書に加えて学習者用のデジタル教材を併用することができる法令が実施され, デジタル教材の需要が拡大されている。[1]しかしその中で,スマートスピーカーを使用した学習教材の実例はまだ少ない状況にある。現在スマートスピーカーの普及は急速に進んでおり,今後より生活に身近なものになると考えられている。[2]
そのようなスマートスピーカーの特徴である,話しかけるだけで操作ができる点やAI アシスタント機能が搭載されている点から紙教材での学習方法に比べて, 日常生活で何かをしながら,必要以上に頑張らなくても,学習を面白いと魅力に感じながら, できることを増やせるような学習方法の可能性を検証したいと考えた. そこで本研究では, スマ一トスピーカーの現状についての調査, スマ一トスピーカー用の学習機能の開発,スマー トスピーカーでの学習の可能性について調査する。
## 2 先行研究 $\cdot$ 類似教材
スマートスピーカーを利用した日本語学習機能に関する研究としては, 熊本大学の甲斐晶子 (2018.9) [3] があげられる.また,スマ一トスピーカーを利用した学習教材の例としては,「ベストティーチャーから生まれた英語リスニングドリル 100 選」(株式会社べストティーチャー)(2017.10)[4]や「九九ゼミ」(株式会社八雲ソフトウェア)(2018.12) [5]などがある.
## 3 Amazon Echo と Alexa
スマートスピーカーとは音声で操作することができる対話型の AI 機能を持つスピーカ一であり,ユーザが話しかけることで,天気, ニュース, 時間, 音楽, 家電を操作することができる.日本で主に流通しているものは Am azon Echo (Amazon), Google Home(Google), Home Pod(Apple)などがある. 本研究で使用するスマートスピーカーは, 世界で一番普及している点, デバイスに画面があり画面の必要性を比較できる点, そして個人の開発者によってAI アシスタントの機能を拡張できる開発環境が日本語にも対応している点から Amazon の AlexaというAIアシスタント(クラウドベースの音声サービス)を搭載した A mazon Echoを選択した。
## 4 Alexa スキルの仕組み
Amazon Echoには普段周りの音を聞いている状態であるマイクが内蔵されており,ユー ザーが発話した「アレクサ」というウェイクワードに反応して要求を録音し, 音声データとしてインターネットを通じてAlexaに転送する.その転送されたデータを Alexa の自動音声認識(ASR) と自然言語理解 (NLU)で処理し,プログラムを実行するサーバーにリクエストデータとして転送する.サーバーが処理後転送したレスポンスをAlexa の音声合成 (TTS)を通じてユーザの耳に届ける.6]
## 5 学習機能の作成
Amazon Echo に搭載されているAlexaを用いて日本語学習者を対象とした日本語を学習することができる Alexa スキルを作成する.Alexa スキルを作成する方法は多く存在するが, 本研究では Alexa スキルをノンコー ディングで作成することができるサービスであるVoiceflowを使用した。[7]
## 5.1 Voiceflow とは
はじめに Alexa と対話するには「Alexa,○○を開いて」のようなフレーズを発話する必要がある. この○○に入る名称をここでは呼び出し名と言い,最初に設定する.また,Voiceflow は Alexa が発話する Speak ブロックとユーザの発話内容を判別し分岐させる Choice ブロックを使用することで,会話をフローチャートのように作成することができ,実際の会話の動きを視覚化することができる.
## 6 予備実験
## 6.1 実験内容
Zoom のビデオ通話を通して Amazon Echo の画面を見ながら 3 種類の問題を操作し, 教材の評価をする。
## 6.2 実験被験者
東京電機大学在学の留学生 5 名と東京電機大学日本語教師 1 名を対象として実験を行った. 留学生の日本語学習歴は 3 年以上であっ
た.
## 6.3 予備実験で使用する Alexa スキ ル
予備実験で使用するために Voiceflow で作成した Alexaスキルは画面表示の有無での使用度を比較するために, 画面表示がなく, 音声のみを聞いて解答する問題である” 反対の言葉”,画面表示を見て解答をする問題”漢字の読み方”, 画面表示はあるが見なくても解答ができる問題” 言葉の言い換え”の 3 種類の問題である. 問題の内容は, 日本語能力試験の問題を引用した. [8] 日本語能力試験の問題の引用に関しては, 著作権者の国際交流基金及び日本国際教育支援協会の著作物利用方法に従い, 作成した Alexa スキルの一般公開はせず, 本研究における実験時及び本論文のみの使用に限る.
## 6.3.1 反対の言葉
“反対の言葉” は問題で読まれた単語に対して反対の意味の単語を答えるものである。画面表示はないため音声のみを聞いて解答する必要がある.
## 6.3.2 漢字の読み方
“漢字の読み方”は画面に表示されている問題文の中の下線部の漢字の正しい読み方を 4 つの選択肢から選ぶものである. 問題文は読まれないため画面を見て解答する必要がある。
## 6.3.3 言葉の言い換え
“言葉の言い換え”は画面に表示されている問題文の中の下線部の言葉に意味が最も近いものを 4 つの選択肢から選ぶものである。問題文と選択肢が読まれるため画面表示を見なくても解答できる。
## 6.4 予備実験結果
スマートスピーカーを使用したことがあった被験者は半数であった, 問題操作の容易さには全員から肯定的な意見があり, スマートスピーカーを操作し学習する方法は学習者に受け入れられそうであることが確認できた.画面表示の有無に関しては意見が分かれ
たが,画面表示有りでは問題の説明や問題文,解説が全てで日本語での表示だけであったため英語での表示があると日本語に不慣れな学習者にとってより分かりやすいという意見が得られた。画面表示無しでは, 普段の生活で料理が退屈であるため, 音声だけで操作することができれば料理しながら学習することができて良いという意見を得ることができた. 問題の内容については” 反対の言葉”で文脈がないと意味が取れないものがあり, 単語ではなく文レベルで発話させることによって文法の変形練習もできるのが良いという意見を得ることができた。
## 7 本実験
## 7.1 予備実験結果から作成した Alexa スキル
予備実験の結果から対象となる学習者の日本語能力に合った問題の難易度や構成を改めて検討し, 対象を東京電機大学大学院の留学生の入学生の基準となっている日本語能力試験 N2 レベルとし, 試験の練習ができるような Alexa スキルを作成した.作成には日本語能力試験 N2 の練習をするために, 実際に試験に出題された問題を使用し, 問題の説明や問題文における漢字の振り仮名等を N2 レベルで統一した.また,この試験は言語知識 (文字・語彙・文法), 読解, 聴解, の 3 科目に分けられ, 18 種の大門で構成されている. この中から,スマートスピーカーの機能で学習するために, 画面に問題文が入りきらない長文の読解問題等の問題として成り立たないものを除いた全 9 種の大問の各 2 問ずっで構成することとした. [8]
問題は選択式方式であり, 学習者は 4 つの選択肢から選び, 解答する. 選択肢は問題の性質上, 言葉で解答するものと, 振られた数字で解答するものがある.このように解答方法が変わる問題の前には学習者が戸惑うことの内容に解答方法が音声で指示される.また,日本語能力試験 N2 で構成されている科目と問題数は以下の表の通りであり赤色の中括弧で括られているものが今回のAlexa スキルで出題される科目である.
そして, 実際にスマートスピーカーの画面に表示される問題の例は以下の図の通りであり, 文字・語彙の問題は緑, 文法の問題は黄色, 聴解の問題は水色と分けることとした.
## 7.2 実験内容
紙教材での学習とAlexaスキルでの学習を行い, 学習中の集中度, リラックス度, 没入度,緊張度, 落ち着き度の測定を行い測定データの分析を行う. 集中度, リラックス度の測定には米 NeuroSky 社のへッドセッド型の簡易型脳波測定器 MindWave Mobile2を, 没入度,緊張度, 落ち着き度の測定には JINS 社の眼鏡型ウェアラブル端末 JINSMEMEを使用する. [9] [10]
## 7.2.1 Mind Wave Mobile2
MindWave Mobile2 ではセンサーアームに搭載された電極から検出した脳波を基に, $\alpha$ 波・ $\beta$ 波などのパワースペクトルや NeuroSky 社独自の脳波解析アルゴリズムから集中度・リラックス度のレベル, 及び瞬きの有無のデー 夕を出力する. 本実験では集中度・リラックス度の測定を行う。
## 7.2.2 JINSMEME
JINSMEME では 6 軸モーションセンサーによる体の体軸変化の記録や 3 点式眼電位センサーによるまばたき, 視線移動の記録, 集中力, 活力, 落ち着き等ココロの状態の補足をする. 本実験では没入度・緊張度・落ち着き度の測定を行う。
## 7.2.3 測定データの定義
- MindWave
Attention: 集中度 $(0 \sim 100$, 集中していない〜集中している)
Meditation:リラックス度 $(0 \sim 100$, リラックスしてない〜リラックスしている)
測定間隔: 1 秒毎
## - JINSMEME
focus Score:没入度 $(0 \sim 100$, 没入度が低い
没入度高い)
tension Score:緊張度 $(0 \sim 100$, 緊張が弱い〜緊張が強い)
calm Score : 落ち着き度 $(0 \sim 100$, 落ち着いていない〜落ち着いている)
測定間隔: 15 秒毎
## 7.3 実験被験者
東京電機大学在学の留学生 23 名を対象として行った。
日本語学習歴は 2 年以上で 5 年以上学習している人が 6 割であった.
## 7.4 実験結果
本実験でスマートスピーカーを初めて操作したという被験者は約 7 割であったが操作に戸惑うことなくスムーズに問題を解答することができた. 正答率は紙教材が $86.4 \%$, Alex a スキルが $82.6 \%$ で紙教材の方が僅かに上回ったがそれほど差はないと考える.また, Min dWave とJINSMEME で測定したデータは, 各被験者のデータ数, 最高値, 最低値, 平均値, データの值が 70 以上の数と割合, データの值が 30 以下の数を表にした. 以下は測定したデータから一例として紙教材で学習している際に MindWave で測定した Attention (集中度)の表.である。
## 7.5 データ分析
本実験で測定した集中度, リラックス度,没入度, 緊張度, 落ち着き度が 70 以上であった割合と 30 以下であった割合をそれぞれ紙教材とAlexaスキルで以下のグラフのように比較する。
また, 全てのデータを比較した結果を次に記す.
- MindWave
集中度
70 以上:紙教材の方が多く, 集中度が高い, 30 以下: Alexaスキルが多く, 集中度が低い。 リラックス度
70 以上:紙教材の方が多くリラックス度が高い.
30 以下: Alexa スキルが多く, リラックス度が高い。
## - JINSMEME
没入度
70 以上:紙教材の方が多く, 没入度が高い。 30 以下: Alexaスキルが多く, 没入度が低い.
## 緊張度
70 以上:Alexaスキルが多く, 緊張度が高い.
30 以下:紙教材の方が多く, 緊張度が低い。落ち着き度
70 以上: 紙教材の方が多く, 落ち着き度が高い.
30 以下: Alexa スキルが多く, 落ち着き度が低い。
## 8 考察
実験前の仮説では, 紙教材の方が集中度, 没入度, 緊張度が高く, Alexa スキルの方がリラックス度, 落ち着き度が高いと考えていたが,実験結果は紙教材の方が集中度, 没入度, リラックス度, 落ち着き度が高く, Alexa スキルの方が緊張度が高いという結果となった. 教材の操作方法について問題はなかったが, 初めてスマートスピーカーを操作する被験者も多く, 被験者がこれまで長い期間学習に使用してきた紙教材と比較すると慣れによる差も多く出たと考えられる。
## 9 今後の展望
今回の実験は一回限りの学習だったため,今後は実験期間を長くし, 複数回学習することによってスマートスピーカーの操作に慣れる期間が必要だと考える. また, 実験の結果は仮説通りの結果とはならなかったが, 被験者からスマートスピーカーでの語学学習について肯定的な意見も多く, 教材の改良に努める.そして, 本来の目標であったスマー トスピーカーを利用したリラックス状態でのながら学習で学習効果を高められるような教材の工夫を目指す.
## 参考文献
[1]文部科学省.デジタル教科書について.” htt ps://www.mext.go.jp/a_menu/shotou/kyouk asho/seido/1407731.htm"
[2] Canalys: Global smart speaker installed bas e to top 200 million by end of 2019 " http s://www.canalys.com/newsroom/canalys-glob al-smart-speaker-installed-base-to-top-200million-by-end-of-2019”,2019.5.15
[3]甲斐晶子ほか 3 名,”受身系転換練習のためのスマートスピーカー (Alexa) 用機能の開発”日本教育工学会第34回全国大会発表論文集, 2018.9, pp.669-670.
[4]「ベストティーチャーから生まれた英語リスニングドリル100選を Google Home に提供」”https:// www.best-teacher-inc.com/news/google-hom e",2017.10.15
55]株式会社八雲ソフトウェアホームページ "https: //8clouds.co.jp/smart/”, 2020.4.1 参照
[6] Alexa スキル開発トレーニング ”https://develop er.amazon.com/ja-JP/alexa/alexa-skills-kit/t raining/build-a-skill”, 2020.4.1 参照
[7] Voiceflow "https://www.voiceflow.com/"
[8] 日本語能力試験公式ウェブサイト “https://ww w.jljl.jp/index.html”, 2012
[9] Neurosky “https://www.neurosky.jp”
[10] JINS MEME “https://jinsmeme.com”
## 付録
図 1 “漢字の読み方” のフローチャート
[8]
0
図 2 “言葉の言い換え”のフローチャート
$[8]$
図 3 “表記” の問題画面 [8]
図 4 “文法” の問題画面 [8]
図 5 “聴解” の問題画面 [8]
図 6 MindWave Attention $\sigma$ 比較 (70 以上)
図 7 MindWave Attention の比較 (30 以下)
表 1 MindWave で測定した Attention のデータ
& \\
| NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D4-5.pdf | # 外国語学習者にとって意外な用例の難しさ測定のための 語彙テスト・データセット構築
江原遥 1
1 東京学芸大学 教育学部
ehara@u-gakugei.ac.jp
## 概要
外国語学習者(第二言語学習者)が初期に学ぶ語の多くは高頻度語であり,よく使われる用例とは異なる意味で使われる用例がある.こうした学習者にとって意外な用例は,よく使われる用例より難しいと思われるが,どの程度難しいのであろうか?このような文脈を考慮した用例ごとの語の難しさ測定には,近年急速に発達している文脈化単語埋め込みなど,文脈の意味を捉える深層学習技術の活用が容易に考えられる。しかし,これを評価するために,同一の学習者にある語の複数の用例についての設問に回答させる語彙テストやその結果のデータセットが,既存にはほとんど存在しない。そこで,本研究では, 語の用例ごとの難しさ評価のためのデータセットを構築し,項目反応理論に基づき評価する。
## 1 はじめに
外国語学習において,語の習得は,外国語学習の大部分の時間を占める. その数が膨大であるためか,外国語学習における語の習得においては,語彙量が主に注目されてきた。例えば,有名なテキスト中の語の 95\% 98\%以上を(述べ語数で)知らないと,テキストを十分に理解する事が難しい [1] といった応用言語学分野の実験結果では,テキスト中の語をカウントする際に,語の多義性は考慮していない、これは,テキスト中の語の語義を自動的に推定する事が技術的に難しかったためと考えられる。
一方で,外国語学習において初期に学ぶ単語の多くが高頻度語であり, 高頻度語は多義性を持つことが多い。語彙量計測などの目的で用いられる語彙テストのうち,一般的な多肢選択式の試験として広く用いられている Vocabulary Size Test [2]では,語義を限定する工夫が施されている。具体的には,表 1 に示すように,設問で語だけを提示するのではなく,文中に語を入れ込み,その語の意味と最も近い選択肢を選択させる形式になっている。 さらに,文法的な証拠から適切な選択肢を選ぶことができないよう,どの選択肢も,文中の指定部分とそのまま入れ替えても,文法的には正しい文になるように作成されている.
語彙テスト結果データ,(どの学習者がどの設問に正答/誤答したか,というデータ)から,学習者の能力値や語の難しさを推定するモデルとしては,項目反応理論 (Item Response Theory) [3] が教育学や心理学の分野で広く使われている. しかし, 項目反応理論は設問の意味的情報を一切用いずに,純粋に被験者の正答/誤答の情報だけから語の難しさを推定するモデルである.このため,設問が少しでも変更された場合,再度,語彙テストを行わなければ結果がわからない,例えば,語の用例ごとに外国語学習者にとっての難しさを測定するためには,各語について語の用例の分,適切な作問を行う必要がある. 例えば, 1 万語の各語の用例についてて,適切な多肢選択式の作問を行えば,設問数は数万にもなり,こうした問題の全てに学習者に回答してもらう事は明らかに非現実的である。近年では BERT(bidirectional encoder representations from transformers)[4] をはじめとする,大規模な母語話者コーパスで事前学習を行う事で文脈を捉えた意味処理を行う手法が盛んである.そこで,こうした手法を用いて,設問の用例と頻出用例との近さを計測する事で,語の難しさを計測する手法が容易に考えられる。しかし,こうした発展性のある手法を評価するためには,まずは,評価のために信頼できるデー タセットが必要になる.現状では,著者の知る限りそうしたデータセットは整備されていない.
そこで,本稿では,語の用例ごとの難しさ測定のために, 英語を第二言語として学ぶ学習者 (English-as-a-Second-Language Learners)を対象とした
語彙テストを構築した. この語彙テストで,語の意外な用例の設問については,複数の英語母語話者大学英語教員に問題として成立していることを確認した. 次に,この語彙テストを用いてクラウドソー シングを用いて,学習者の被験者反応実験では,実際に項目反応理論を用いて,被験者反応のみを用いて,語の通常の用例と,意外と思われる用例の間の難しさの差を計測した. 項目反応理論を用いて分析した結果,語の通常の用例の方が,統計的有意に難しく,良問とみなせる度合い(識別力)も高いことを定量的に示した. 本研究で作成されたデータセットは,今後1)で公開する予定である。
## 2 関連研究
本研究で提示するデータセットの必要性を既存研究との関連から説明する. 1 つは,語学学習アプリ Duolingo 上の設問に対する回答データを用いた SLAM データセット [5] である. もう 1 つは,多数の語学学習者に対して, 文中のわからない語をアノテーションさせた複雑単語推定 (Complex Word Identification, CWI) のデータセット [6] である.これらのデータセットと本研究で提示するデータセットの違いとして,各被験者は多くある設問のうちのごく一部にしか回答していないという点が挙げられる。言い換えると,被験者を行,設問を列とし,被験者の設問に対する回答内容を要素とする行列を考えた場合,これらのデータセットでは行列が疎になっている. 項目反応理論は,被験者の設問に対する回答内容から,設問の難しさや被験者の能力値を推定を目標とするが,この推定のためには,各被験者がほぼ全ての設問に回答している形式のデータセットであることが望ましい,また,どちらのデー タセットでも,文中の語に対する被験者の回答が記録されてはいるものの,設問について,今回のデー タセットのような語の通常の用例と,意外と思われる用例といったようなアノテーションはされていない. さらに,[6] を含む CWI のデータセットでは,一般に,提示された文に対して,被験者が難しいと感じた語が記録されているだけであり,被験者が実際にその語の意味を適切に理解しているかテストを通じた確認はしていない。すなわち,意味は理解できたが難しいと感じてアノテーションした場合もあれば,単純に意味が分からなかった場合も含まれる。
表 1 実際の設問例
It was a difficult period.
a) question
b) time
c) thing to do
d) book
## 3 語彙テスト作成・データセット
語彙テスト作成・データセット作成は,著者が過去に語彙テスト結果データセット作成時の設定に準じて行った [7]. データセットはクラウドソーシングサービス Lancers ${ }^{2}$ から,2021 年 1 月に収集した. 英語学習にある程度興味がある学習者を集めるため,過去に TOEIC を受験したことがある学習者のみ語彙テストを受けられると明記して,データを収集した. その結果, 235 名の被験者から回答があった. Lancers の作業者は大部分日本語母語話者であるため,学習者の母語は,大部分日本語を母語とするものと思われる。
まず,通常の語彙テストとしては,文献 [7] と同様に,Vocabulary Size Test(VST)[2]を用いた. ただし,VST は 100 問からなるのに対して,[7]では,低頻度語に関する設問では, Lancers 上のどの学習者もほとんどチャンスレートしか回答できていなかったことから,被験者の負担感を減らし的確な回答を集めやすくするため,低頻度語 30 問を削った. すなわち,残り 70 問を通常の語彙テストとして用いた.この設問例を表 1 に示す. 文中の単語に下線が引かれてあり,被験者は,この単語と交換した際に元の文と意味が最も近くなる選択肢を選ぶように求められる。この際,文法的から選択肢を絞れてしまわないように,選択肢は下線部と文字通り置き換えても正文となるように作られている。例えば表 1 であれば,複数形の選択肢が内容に配慮されている。
一方,学習者にとって意外である思われる用例については,著者が作問し,英語母語話者を含む静岡理工科大学の教員複数名に問題として成立しているか確認を取る方法で,作成した. この際,表 1 と同様の形式にして,“period" という単語について 2 つの設問がある事が分かってしまうと,意外な語義については通常の語義以外の選択肢を選ぶことで,選択肢を絞り,意味を知らなくても回答できてしまう。そこで,本研究では,次の 2 つの工夫を行った。
1. 意外な語義を問う設問については,下線部の意
2) https://lancers.co.jp/
表 2 意外な意味を問う設問例
She had a missed
a) time
b) period
c) hour
d) duration
味について問う形にはせず,空欄を埋める形式の問題とした。これにより,意外な語義については正答を知らなければ,どの語についての設問であるのかもわからないようにした。
2. 通常の語義についての設問を先に行ってしまうと,そこで出てきた単語と同じ語が正答であろう,という推測ができてしまう。そこで,意外な語義についての設問群を最初に行い,通常の語義についての設問群に移動したら,意外な語義についての設問群には戻れないようにした.
この 2 つの工夫を施した実際の設問例が表 2 である. “period”には通常の「期間」の他に「生理」という意味があり,これを問うている.被験者は,70 問の通常の用例の語彙テストの前に,表 2 のような設問を 13 問解くように求められる。ただし,先に解く表 2 の形式の選択肢が,表 1 の形式の問題に影響していないかどうかを後で確認できるよう,意外な語義ではあるが,通常の語義の設問群の側に対応する設問がない設問を 1 問設けた. これにより,対応する問題は 12 問となる.
## 4 項目反応理論
項目反応理論モデルについて,簡単に説明する。被験者の数を $J$ ,設問(項目, item)の数を $I$ とする.簡単のため, 被験者の添字 (index) と被験者, 項目の添字と項目を同一視する。例えば, $i$ 番目の項目を,単に $i$ と書くことにする。 $y_{i j}$ は,被験者 $j$ が項目 $i$ に正答するとき 1 ,誤答であるとき 0 であるとする.試験結果データ $\left.\{y_{i j} \mid i \in\{1, \ldots, I\}, j \in\{1, \ldots, J\}\right.\}$ が与えられたとき, 2PL モデルでは, 被験者 $j$ が項目 $i$ に正答する確率を次の式でモデル化する.
$
P\left(y_{i j}=1 \mid i, j\right)=\sigma\left(a_{i}\left(\theta_{j}-d_{i}\right)\right)
$
ここで, $\sigma$ は $\sigma(x)=\frac{1}{1+\exp (-x)}$ で定義されるロジスティックシグモイド関数である。 $\sigma$ は $(0,1)$ を値域とする単調増加関数であり, $\sigma(0)=0.5$ である. 実数を $(0,1)$ の範囲に射影し, 確率として扱うために用いられている。(1)において, $\theta_{j}$ は能力パラメ夕(ability parameter)と呼ばれ,被験者の能力を表すパラメタである. $d_{i}$ は困難度パラメタ(difficulty parameter)と呼ばれ,項目の難しさを表すパラメタである.(1)より, $\theta_{j}$ が $d_{i}$ を上回る時,被験者が正答する確率が誤答確率より高くなる。 $a_{i}>0$ は,通常,正の値を取り,識別力パラメタ(discrimination parameter)と呼ばれる.この值が大きいほど, $\theta_{j}-d_{i}$ が正答確率/誤答確率に大きく影響するようになる. $\theta_{j}-d_{i}$ を用いて, 被験者 $j$ が設問 $i$ に正答するか否かが見分けやすくなる事を表しているため,「識別力」と呼ばれる.より直観的には設問 $i$ が,能力值が高い学習者と低い学習者を正確に見分けられるという意味で良問であることを示している。
## 5 実験
項目反応理論の困難度・識別力の各パラメタを求めるには,pyirt ${ }^{3}$ を用いた。これは,周辺化最尤推定(Marginalized Maximum Likelihood Estimation)により項目反応理論を行うライブラリである.前述のデータセットに対して,2PL モデルを用いて困難度と識別力パラメタを求めた. 表 1 と表 2 のように,設問のペアが 12 組ある. 通常の用例, 学習者にとって意外と思われる用例の困難度パラメタを,それぞれ横軸,縦軸に表し,横軸と縦軸の縮尺・範囲を同一にプロットし図 1 に示した。各点は語を表す。
困難度の比較図 1 の左下から右上まで,点線で対角線を示した. 図 1 の横軸・縦軸とも,困難度パラメタの值であり,この値が大きいほど難しいと判定される。そのため,この対角線より左上にある点は,通常の用例の困難度より,学習者にとって意外と思われる用例の困難度の方が,語彙テスト結果データからも学習者にとって回答が難しいと判定された語ということになる。今回は設問数が少ないので,図 1 の結果が偶然得られた可能性がどの程度あるか検証するため,横軸の値の列と縦軸の値の列で統計的検定を行った. Wilcoxon 検定の結果,縦軸の值の列が統計的有意に横軸の值の列より大きかった $( p<0.01 )$.すなわち,縦軸の設問群の方が横軸の設問群より難しかった事が示唆される。
識別力の比較識別力についても,図 1 と同様にプロットし,図 3 に示した. 識別力は,直観的には,高いほど,その問題で(他の問題で推定される)能力値が高い学習者と低い学習者を分けることができるという意味で,良問である度合いを表す。学習者にとって意外と思われる用例は,能力値が高い学習者でも知らないことがあり,低い学習者でも知って
3) https://github.com/17zuoye/pyirt
図 1 各語の, 通常の用例の困難度(横軸)と学習者にとって意外と思われる用例の困難度(縦軸)のプロット.各点は各語を表す.
いることがあるため,通常の用例よりも識別力が低いと予想される。全ての語について,通常の用例の方が,意外と思われる用例よりも識別力が高いと推定されている。この結果も,Wilcoxon 検定の結果,統計的に有意であった $(p<0.01)$. 識別力のプロットについては紙面の都合のため付録に記す。
困難度と識別カのプロット識別力は,直観的には,他の設問で能力值が高いと推定された学習者が簡単な問題に誤答してしまう,また,他の設問で能力値が低いと推定された学習者が難しい問題に正答してしまう場合に低下する,今回の設定では,前者のケースはあまり見られないが,後者のケースで回答が分からない学習者がとりあえず選んだ選択肢に正答してしまう事はあるので,困難度の高い説問ほど,識別力が低く出ることが予想される. 困難度の高い問題の識別力を向上させる 1 つの方法としては,選択肢に「わからない」や未回答を許すという方法が考えられる. しかし,クラウドソーシング上でこの方法を取ると,ほぼ全ての設問に対して「わからない」と回答するケースなどがあるため, 今回はこの方法は取らなかった. 全ての語についての困難度パラメタと識別力パラメタのプロットを示した(図 2). 図 2 から,困難度が増加するにつれて,識別力が減少していく傾向が見て取れる. 困難度パラメタと識別力の間の困難度パラメタと識別力パラメタの間のスピアマンの順位相関係数は-0.739 $( p<0.01 )$ で,「強い相関」が認められた.
図 2 全語の困難度(横軸)と識別力(縦軸)の関係.
被験者反応予測による評価現状のように,語の意外と思われる用例の難しさを通常の用例の難しさで代替してしまうと,被験者が設問に正答/誤答するかにどの程度の悪影響があるのだろうか?これを調べるために,次の実験を行った.まず, 235 人の被験者を 135 人と 100 人に分ける. 意外と思われる用例の設問群(12 問)のパラメタについては前者の 135 人の被験者反応だけから,通常の用例の設問群 (70 問)のパラメタについては 235 人全員の被験者反応で推定する.この推定の際には,後者の 100 人 $\times 12$ 問,計 1,200 件の回答データは用いていないことに注意されたい。(1)より,推定された被験者の能力值 $\theta_{j}$, 用例の困難度 $d_{i}$ を用い, $\theta_{j}>d_{i}$ であれば被験者 $j$ が設問 $i$ に正答,そうでなければ誤答と判定できる.設問 $i$ の困難度パラメタとして,意外と思われる用例の 12 問の困難度パラメタを直接用いた場合と,対応する語の通常の用例の困難度パラメタで代替した場合で,この 1,200 件の回答データの予測精度を比較した。その結果,直接用いた場合の予測精度は $64.4 \%$ ,通常の用例の困難度で代替した場合は $54.4 \%$ と, 10 ポイントの差が出た. この差は,Wilcoxon 検定で $p<0.01$ で有意であった.
以上から,被験者反応の予測における,語の用例ごとに困難度を推定することの重要性がわかる.
## 6 結論
本研究では, 外国語語彙学習において, 語の通常 (典型的)な用例と学習者にとって意外と思われる用例の外国語学習者にとっての難しさの差を,被験者反応から測定可能なデータセットを提案した.このデータセットにより,BERT などの転移学習技術を用いて,文脈に埋め込まれた個々の語の難しさを推定できるモデルを評価する事が可能になった. こうしたモデルの提案が,今後の課題となる.
## 謝辞
本研究は,科学技術振興機構 ACT-X 研究費 (JPMJAX2006), ならびに日本学術振興会科学技術研究費補助金(18K18118)の支援を受けています. また,産業技術総合研究所の $\mathrm{AI}$ 橋渡しクラウド (ABCI)を使用しています。本データセットの設問が問題として成立しているか確認していただいた,谷口ジョイ先生をはじめとする静岡理工科大学の先生方に深く感謝いたします。
## 参考文献
[1] I. Nation. How Large a Vocabulary is Needed For Reading and Listening? Canadian Modern Language Review, Vol. 63, No. 1, pp. 59-82, October 2006.
[2] David Beglar and Paul Nation. A vocabulary size test. The Language Teacher, Vol. 31, No. 7, pp. 9-13, 2007.
[3] Frank B. Baker. Item Response Theory : Parameter Estimation Techniques, Second Edition. CRC Press, July 2004.
[4] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proc. of NAACL, 2019.
[5] Burr Settles. Data for the 2018 Duolingo Shared Task on Second Language Acquisition Modeling (SLAM), 2018.
[6] Seid Muhie Yimam, Chris Biemann, Shervin Malmasi, Gustavo Paetzold, Lucia Specia, Sanja Štajner, Anaïs Tack, and Marcos Zampieri. A report on the complex word identification shared task 2018. In Proc. of BEA, June 2018.
[7] Yo Ehara. Building an English Vocabulary Knowledge Dataset of Japanese English-as-a-Second-Language Learners Using Crowdsourcing. In Proc. of LREC, May 2018.
図 3 各語の, 通常の用例の識別力(横軸)と学習者にとって意外と思われる用例の識別力(縦軸)のプロット.各点は各語を表す.
## A 付録 (Appendix)
付録には,本論に直接関係ないが,参考になる図を示す. 図 3 に識別力のプロットを示す. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D5-1.pdf | # トレースにより画像の注視点を与えるインタラクティブな テキスト生成
渡邊 清子小林一郎
お茶の水女子大学
\{watanabe.sayako, koba\}@is.ocha.ac.jp
## 概要
近年,画像キャプション生成の研究は画像に対する前処理から得られた情報を元に画像キャプションを生成するだけでなく,画像処理情報に対して,コントロールシグナルと呼ばれる視点に相当する追加情報を与えることで,画像に対してユーザの興味に基づくキャプションを生成する研究へと発展している. 本研究では,人は一般的に画像の内容を説明する際,大抵説明したい対象に注意を促す為に指でそのものを差しながら説明することに着目し,画像への指差しをコントロールシグナルと捉える.また,このような行為で生じる指差しの軌跡のことをトレースと呼び,トレースに込められた意味を反映することで,より説明者の意図に沿ったインタラクティブな画像キャプション生成手法を提案する.
## 1 はじめに
近年,画像キャプショニングの研究は,Faster R-CNN [1] や Semantic Segmentation [2] といった手法を用いて画像の内容を捉え,その結果から画像内の物体間の関係を捉えるシーングラフ $[3,4]$ を構築し,そのグラフに基づきキャプションを生成するものなど,画像の内容を深く捉える手法に基づくキャプション生成手法が提案されている $[5,6,7]$. 一方で,生成されるキャプションは多くの場合,用いられる学習データに依存しており,画像内容を説明する者の意図が反映される結果ではない場合が多い.このことを踏まえて,近年では,キャプション生成を制御する為のコントロールシグナルと呼ばれる追加情報を与えて, 説明者の意図に近いキャプションを生成する研究なども取り上げられてきている $[8,9,10]$. しかし,与えられるコントロールシグナルはキャプション内容に言及したものが多く, 説明者の感覚や興味に沿うインタラクティブな画像
キャプション生成の報告はあまりない。このことから,本研究では,音声で画像を説明する際に説明の描画領域を指したトレースデータをもつ Localized Narratives(LN) [11]を用いて,トレースにより画像の注視点を与えた画像キャプショニング手法を提案する。
## 2 提案手法
## 2.1 概要
図 1 に提案手法の概要を示す.
図 1 提案手法の概要
(1)画像のトレース画像中の説明したい箇所をトレースする。その際,説明を詳細にしたい対象に対してはトレースを念入りに行う。
(2)説明領域の抽出トレースの描画範囲から説明領域を抽出し,各領域のトレースの滞在時間から文長を推定する.Fast R-CNNを用いて,各領域のバウンディングボックス(B.Box)を抽出する.
(3)画像キャプション生成 (2)よって抽出した B.Box の特徴量と生成する文の長さを示す語数を入力とし, Deng ら [12] による文長を制御可能な画像
図 2 トレースの座標変化量
図 3 速さに注目したトレースの可視化
図 4 速いトレースを削除した結果
キャプション生成モデル LaBERT を用いて,それぞれの領域の画像キャプションを生成する。
## 2.2 Localized Narratives
Pont-Tuset ら [11] は,視覚と言語を繋ぐマルチモーダルな画像キャプションを目標として,音声で画像を説明する際に,説明の描写領域を指したトレースデータセット Localized Narratives(LN) を構築した. LN は,人が画像をペンでトレースしながら音声でその内容を説明するという実験を通じて収集したデータセットである。データ数も多く, Open Images [13] $\cdot$ Microsoft COCO [14]$\cdot$ Flickr30k [15]・ADE20k [16] の 4 つのデータセットから成っている.LNには,画像・トレース・画像キャプション・音声の 4 つが含まれている. 表 1 にデータの内容を示す.
timed_caption の情報から,時間当たりのの平均発話単語数を計算したところ,1 秒間に 1.94 単語発話している事がわかった。この結果は,画像キャプションの長さコントロールの際に参考にする.
表 1 Localized Narratives データ内訳
## 2.3 トレースによる説明領域の抽出
画像の中でも,説明者が注目した部分からキャプションを生成する為に,トレースの描画範囲から説明領域を抽出する。画像説明時における人の特性を解明する為に,以下の 2 つの特徴量を抽出した.
座標の変化量横軸に時間をとり,縦軸にトレー スに関する変化量( $x$ 座標 $x y$ 座標)をとったグラフを図 2 に示す. 赤色でハイライトしている部分は,説明者が説明を止めている文と文の間の時間であり,画像の説明に一区切りついた箇所に相当する.赤い部分のグラフは平らになっており,トレースの変化量はほぼ変化がない事がわかった. 同じような現象が他のデータにも多く見受けられた. この結果は,説明者は 1 文説明し終わった際,少し止まってから次の文の説明に移るという特性があることを示唆する.画像説明時のトレースにおける人の行動特性は必ずしも常にこのようになるわけではなく,他の行動特性も観察されたが,本研究では上記の行動特性を基準とする。
トレースの移動速度トレースによる画像説明時における人の 2 つ目の行動特性として,特別に動きが速いトレースは,説明対象となるオブジェクト間の移動の為のトレースであり,その部分を説明をしている訳ではないという点に着目した. トレースの動作の速度を,速いほど黒に,遅いほど赤に対応させて可視化したものを図 3 に示す. 図 4 は,図 3 において,オブジェクト間の移動とみなされた部分を削除して可視化した. 実際に,芝生から木への移動,木から山への移動,空から雲への移動の箇所が削除され,説明対象となった各オブジェクトのみを指しているトレースが抽出されたことがわかる.
## 2.4 LaBERT [12]
説明者の注目の度合いを反映した画像キャプションを生成する為に,トレースの滞在時間により説明の詳述さを決定する手法として,文長制御が可能な非自己回帰型のキャプション生成を行う LaBERT [12] のデコーダを用いる. 逐次的に次の単語を予測する自己回帰的な文生成手法は,生成文の長さを制御できない,また,生成する文の長さが長くなると計算量は線形的に増加してしまうといった欠点がある。これに対し,Deng ら [12] は,長さ制御可能な画像キャプションの為の非自己回帰型デコーダを考案し,文長を制御する効率の良い文生成
図 5 トレースを入力とした説明者の意図に沿った画像キャプション生成結果
## を実現した。
LaBERT のデコーダにおける処理の概要を図 6 に示す.また、そのアルゴリズムを Algorithm1 に示す.
図 6 LaBERT を用いた長さ $L_{\text {low }} \sim L_{\text {high }}$ の文生成概要
## 3 実験
画像とトレースを入力として,トレースに沿った画像キャプションを生成する.
## 3.1 実験設定
画像データは Microsoft COCO を使用し,Cornia ら [18] が使用している Faster-RCNN を各画像に施し取得した B.Box の特徴量をまとめたデータセット coco_detections.hdf5 ${ }^{1)}$ から, 2048 次元の画像特徴量, B.Box の位置を示す 4 次元の座標,オブジェクトを示す 1601 次元のカテゴリーを用いた. 生成文の単語数は, 7〜9words, 10〜14words, 15〜19words, 20〜 25 words の 4 種類を設定し, 文のアップデート回数は 4 種類に対し, 10 回, 15 回, 20 回, 20 回に設定し
た.また,言語モデルは事前学習済み $\mathrm{BERT}_{\mathrm{BASE}}{ }^{2)}$ を用いた. この実験設定の下,バッチサイズ 256 ,イテレーション 100,000 回でモデルの学習を行なった.
## 3.2 実験結果
トレースを大力として,説明者の意図に沿うように画像の説明したい箇所にトレースを与えた情報に基づきキャプション生成を行った.結果の例を図 5 に示す. 図 5 中の各項目について以下に説明する.
説明領域トレースの座標変化量と速さを元に説明対象となる領域(図中,青い四角形の領域)を抽出したものとなる.各画像には,抽出されたトレー スと B.Box(赤い四角形)が写っており, 説明対象領域を $\frac{1}{4}$ 以上含む B.Box から画像特徴量を取得している。また,黒いトレースはオブジェクト間の移動
とみなし, 削除した。
正解キャプション実際に説明者が発話したキャプション.
トレースの滞在時間説明領域内にトレースが滞在した秒数.
推定単語数生成文を構成する単語数. トレースの滞在秒数に,LNにおける 1 秒間あたりの平均発話単語数 1.94 を掛けて推定した。
文長の指定推定単語数から選ばれる文の長さ.現在, 3.1 節で示した 4 つの範囲を設定している.
BLEU スコア文生成の精度の評価指標として, BLEU スコア [19]を示している.
各説明領域での結果を以下に示す。
図 5-1: suitcase というオブジェクトは捉えていたものの, 推定単語数が正解キャプションの単語数に比べて多くなっていた.
図 5-2:オブジェクトの認識やキャプションの長さなどトレースの意図を捉えられ,期待した結果が得られた。
図 5-3: 正解キャプションでは「女性のカバン」について言及しているが,周りの情報を取り込んで two people の説明になってしまっている.
図 5-4: 背景のみの描写なので, 認識できるオブジェクトが少ないこともあり,想定していたキャプションが生成されなかった.
## 3.3 考察
実験結果と正解キャプションおよび付録 A に示した様々な文長の下での生成結果と比較しながら考察する.
図 7-1:トレースの滞在時間から推測した 20~25 単語ではなく,7~9 単語の結果の方が正解キャプションに近いと考えられる。また,この場合 BLEU スコアも 1.72 と少し上がっていた. 正解キャプションも 12 単語である為, トレースの滞在時間ほど長い文による説明は求められていない。これは,図中の「カバン」というオブジェクトが画像全体の比率の大部分を占めていることから,ひとつのオブジェクトを指し示すのにトレースの滞在時間が長くなってしまった為と考えられる.このことは,文長を 1 秒あたりの平均発話語数のみで決めるのではなく,説明対象となる領域に含まれるオブジェクトや領域の面積も考慮すべきであると考える。
図 7-2: 全ての文長の場合で 2 人の人間を捉えられ
ていたが,どこに立っているかなど,背景の情報は不揃いで正確に捉えられていないことがわかった.
図 7-3:「女性のカバン」を言及出来ていない点について,このように誰かの所有物や食べ物の具など,特定の部分に注目して説明する場合は Dense captioning [20] などのような局所的な説明を可能にする画像キャプション生成方法などを参考に改良する必要があると考える.
図 7-4:10~14words, 15〜19words の生成途中で,正解キャプションに含まれる building が出現したにも関わらず,最終的な生成キャプションとして残らなかった様子が見られた。これは,画像特徴量よりも言語モデルが優先されてしまった結果生じた事例だと考える。一概に $\mathrm{t}$ の値が大きくなる程,良い単語に置き換わる訳ではないことがわかった。
また,今回,キャプション生成の評価指標として採用した BLEU のスコアはとても低くなっている. この原因の一つとして,正解文とする LN のキャプションは,画像全体を一括して説明するものになっており,今回のように部分的な領域での説明と整合性がとれない部分もあることが考えられる。
## 4 おわりに
本研究では,画像に対してトレースを用いながら説明するデータセット Localized Narratives と文長制御が可能な非自己回帰型テキスト生成を行う LaBERT のデコーダを組み合わせ,トレースから説明者の説明意図を汲み取りインタラクティブに説明文を生成する画像キャプション生成手法を提案した. 説明対象となる領域の選択やキャプションの長さは,LN の統計量から求めた値を採用したが,説明意図を表現するキャプション生成に必要となる画像特徴量の適切な抽出や, 個々の説明領域内の物体の在り様などをより踏まえて、キャプション生成する必要があることがわかった.
今後の課題として,これらの問題に取り組みつつ,説明領域全体を俯瞰する観点からのキャプション生成も可能にしたい.
## 参考文献
[1] Shaoqing Ren, Kaiming He, Ross B. Girshick, and Jian Sun. Faster R-CNN: towards real-time object detection with region proposal networks. CoRR, Vol. abs/1506.01497, , 2015.
[2] Jonathan Long, Evan Shelhamer, and Trevor Darrell. Fully convolutional networks for semantic segmentation. In The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2015.
[3] Danfei Xu, Yuke Zhu, Christopher B. Choy, and Li Fei-Fei. Scene graph generation by iterative message passing. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 2017.
[4] Jianwei Yang, Jiasen Lu, Stefan Lee, Dhruv Batra, and Devi Parikh. Graph R-CNN for scene graph generation. In Vittorio Ferrari, Martial Hebert, Cristian Sminchisescu, and Yair Weiss, editors, Computer Vision - ECCV 2018 15th European Conference, Munich, Germany, September 8-14, 2018, Proceedings, Part I, Vol. 11205 of Lecture Notes in Computer Science, pp. 690-706. Springer, 2018.
[5] Zhan Shi, Xu Zhou, Xipeng Qiu, and Xiaodan Zhu. Improving image captioning with better use of caption. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7454-7464, Online, July 2020. Association for Computational Linguistics.
[6] Xu Yang, Kaihua Tang, Hanwang Zhang, and Jianfei Cai. Auto-encoding scene graphs for image captioning. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pp. 10677-10686, 2019.
[7] Wenqiao Zhang, Haochen Shi, Siliang Tang, Jun Xiao, Qiang Yu, and Yueting Zhuang. Consensus graph representation learning for better grounded image captioning. In Thirty-Fifth AAAI Conference on Artificial Intelligence, AAAI 2021, Thirty-Third Conference on Innovative Applications of Artificial Intelligence, IAAI 2021, The Eleventh Symposium on Educational Advances in Artificial Intelligence, EAAI 2021, Virtual Event, February 2-9, 2021, pp. 3394-3402. AAAI Press, 2021.
[8] Marcella Cornia, Lorenzo Baraldi, and Rita Cucchiara. Show, control and tell: A framework for generating controllable and grounded captions. CoRR, Vol. abs/1811.10652, , 2018.
[9] Long Chen, Zhihong Jiang, Jun Xiao, and Wei Liu. Human-like controllable image captioning with verbspecific semantic roles. In IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2021, virtual, June 19-25, 2021, pp. 16846-16856. Computer Vision Foundation / IEEE, 2021.
[10] Kun Yan, Lei Ji, Huaishao Luo, Ming Zhou, Nan Duan, and Shuai Ma. Control image captioning spatially and temporally. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 2014-2025, Online, August 2021. Association for Computational Linguistics.
[11] Jordi Pont-Tuset, Jasper Uijlings, Soravit Changpinyo, Radu Soricut, and Vittorio Ferrari. Connecting vision and language with localized narratives. In $E C C V, 2020$.
[12] Chaorui Deng, Ning Ding, Mingkui Tan, and Qi Wu. Length-controllable image captioning. CoRR, Vol. abs/2007.09580, , 2020.
[13] Alina Kuznetsova, Hassan Rom, Neil Alldrin, Jasper R. R. Uijlings, Ivan Krasin, Jordi Pont-Tuset, Shahab Kamali, Stefan Popov, Matteo Malloci, Tom Duerig, and Vittorio Ferrari. The open images dataset V4: unified image classification, object detection, and visual relationship detection at scale. CoRR, Vol. abs/1811.00982, , 2018.
[14] Tsung-Yi Lin, Michael Maire, Serge J. Belongie, Lubomir D. Bourdev, Ross B. Girshick, James Hays, Pietro Perona, Deva Ramanan, Piotr Dollár, and C. Lawrence Zitnick. Microsoft COCO: common objects in context. CoRR, Vol. abs/1405.0312, , 2014.
[15] B. A. Plummer, L. Wang, C. M. Cervantes, J. C. Caicedo, J. Hockenmaier, and S. Lazebnik. Flickr30k entities: Collecting region-to-phrase correspondences for richer imageto-sentence models. In 2015 IEEE International Conference on Computer Vision (ICCV), pp. 2641-2649, December 2015.
[16] Bolei Zhou, Hang Zhao, Xavier Puig, Sanja Fidler, Adela Barriuso, and Antonio Torralba. Semantic understanding of scenes through the ADE20K dataset. CoRR, Vol. abs/1608.05442, , 2016.
[17] Jimmy Lei Ba, Jamie Ryan Kiros, and Geoffrey E. Hinton. Layer normalization, 2016
[18] Marcella Cornia, Lorenzo Baraldi, and Rita Cucchiara. Show, Control and Tell: A Framework for Generating Controllable and Grounded Captions. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2019.
[19] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics.
[20] Justin Johnson, Andrej Karpathy, and Li Fei-Fei. Densecap: Fully convolutional localization networks for dense captioning. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016.
## A 付録
図 7 様々な文長での画像キャプション生成結果 | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D5-2.pdf | # 定義文自動生成による 専門分野向けエンティティリンキングの精度向上
石垣達也 ${ }^{1}$ 上原由衣 ${ }^{1}$ 劉珊珊 ${ }^{1}$ 松本裕治 ${ }^{2}$ 高村大也 ${ }^{1}$
1 産業技術総合研究所 2 理化学研究所
\{ishigaki.tatsuya, yui.uehara, shanshan.liu, takamura.hiroya\}@aist.go.jp
yuji.matsumoto@riken.jp
## 概要
本研究では,専門分野向けのエンティティリンキング (EL)を複数の知識べースから獲得した定義文を用いて学習する枠組みを扱う.ELは入力文中の言及 (メンション)を知識ベース中のエンティティに紐付ける問題である. 候補エンティティの定義文を埋め込み表現で表し,リンクするか否かを判定する分類器の学習に用いる手法が知られている. しかし, 定義文は知識ベース中のすべてのエンティティに付与されているとは限らず,欠損が生じていることがしばしばある。そこで,欠損した定義文を言語生成技術により補完することを提案する。 より具体的には,複数の知識ベースを利用し,片方の知識ベースの定義文からもう片方の知識べースの定義文を生成することにより,欠損した定義文を互いに補い合う.また,元々の定義文および生成した疑似定義文を有効活用するためのエンティティリンキングモデルのアーキテクチャについて調査を行った. MedMentions を用いた実験において,疑似定義文も活用するモデルが既存手法よりも有意に上回る性能を示した。
## 1 はじめに
エンティティリンキング (EL) は入力文に含まれる固有名詞などの言及 (メンション)を, 知識ベース中のエンティティに対応付ける問題である. Wikipedia などの一般分野の知識ベースにリンクする設定 [1, 2] のほか, 分野特化の設定 [3] が存在する. 本研究では特に生物医学の UMLS にリンクする後者の設定を扱う. どちらの設定でも,標準的なアプローチでは,1) 入力文の言及を検出し,2) 知識ベースから候補エンティティを抽出した上で,3) 候補をスコアリングする. 本研究では特にスコアリン
図 1: 疑似定義文を用い EL モデルを学習する枠組み.
グ部分に着目し,言及と候補エンティティを適切に埋め込み表現に変換し, それらがリンクするか否か正しく判定する分類器の構築を目指す.
従来,EL モデルでは言及と候補エンティティそれぞれを埋め込みべクトルとして表現し,類似度や教師あり学習を用いてリンクするか否か判定する手法がよく用いられている。言及は主に BERT [4]等でベクトル化するのが標準的であるが,候補エンティティのベクトル化にはエンティティ名を用いる手法やグラフ構造を用いる手法など様々な方法がある。また,知識べースの各エンティティの定義文 ${ }^{1)}$ を用いる手法もあり,その有効性が知られている [2]. しかし, 定義文は必ずしもすべてのエンティティに対し用意されているわけではない。そこで,本研究では言語生成技術により定義文を生成し EL モデルの学習に用いる枠組みを提案する。とくに複数の知識ベースから定義文を取得し,欠損する定義文を言語生成により互いに補完する。
図 1 に示すように,提案する枠組みは,まず UMLS と MeSH, UMLS とWikipedia の対応付けデー タ [5] から,UMLS エンティティに対し MeSH および Wikipedia に含まれる定義文を取得する. ただし,
1)一文からなることが多い短いテキストなので,本論文では定義文と呼ぶが,実際は複数の文から成ることもある.
これらの定義文は欠損している可能性がある. そこで,MeSH および Wikipedia 両方に定義文が存在する事例を用いて,2つの言語生成モデル [6] を学習する. 1 つ目は MeSH の定義文を入力し Wikipedia の定義文らしい出力を自動生成するモデル,2つ目は Wikipedia の定義文から MeSH の定義文らしい出力を生成するモデルである. これら 2 つの言語生成モデルを用い,知識べースに存在する MeSH および Wikipedia の定義文から疑似的な MeSH および Wikipedia の定義文を獲得する。これにより,MeSH もしくは Wikipedia いずれかに定義文が獲得できれば欠損テキストに対し疑似的な定義文を獲得でき,定義文の欠損の問題が軽減できると考えられる. 最終的に1つの候補エンティティに対し, MeSH および Wikipedia の定義文とそれらから自動生成した疑似的な定義文という 4 種類のテキストを得る.
複数の種類の定義文を利用するエンコードモデルとして 2 種類の方法を提案する. 具体的には 1) 久損箇所を疑似定義文で補完する手法,2)疑似定義文を疑似定義文用のエンコーダで読み込む手法を比較する. MedMentions [7]を用いた実験より,2) の学習手法,すなわち MeSH 定義文,Wikipedia 定義文,またそれぞれに対し自動生成した疑似定義文の 4 種類を異なるエンコーダで読み込む手法が良い性能を示すことが分かった.疑似定義文も用いて学習したモデルは既存手法 [3] よりも良い性能を示すことを報告する。この結果は,従来人間が読むテキストを生成することを目的としていた言語生成モデルの新たな応用の可能性を示すものである.
## 2 関連研究
EL の既存設定は Wikipedia や Freebase [8] など一般分野の知識ベースを対象とする設定 $[1,9,2]$ や, UMLS [10] などの専門分野の知識ベースをリンク先とする設定が存在する。これらは,テキストデータの利用という観点では定義文を用いる設定 $[1,2]$ と定義文を用いずエンティティ名,エイリアス名,グラフ構造 [9] といった定義文以外を用いる設定 [9] に分けられる。定義文を用いる設定はただ 1 つの定義文の存在を仮定しており,1つの候補エンティティに対し複数種類の定義文を用いる本研究の設定と異なる。
EL の既存手法には入力文のエンティティ抽出と知識ベースエンティティへのリンキングを同時に行う手法 [11],それぞれ別に行う手法 [3] が存在する。
図 2: MeSH および Wikipedia の定義文.
本研究では特に候補エンティティに対するスコアリングに着目し, 既存のエンティティ抽出および候補エンティティ生成を用いる.
一方,Wikipedia や Web コーパスから事前学習した言語生成モデルが,要約など多くの生成タスクにおいて良い性能を示している. 本研究でも,疑似定義文の生成に Wikipedia から事前学習した BART [6] を用いる。言語生成モデルと ELを組み合わせた手法としては, 出力エンティティ名を言語生成モデルで直接生成する手法 [12] が注目されている. これに対し本研究は, 既存の分類問題として ELを行う枠組みで学習可能な疑似的な学習データを作成するために言語生成モデルを用いる.
## 3 提案手法
本研究では, 4 種類の定義文を用いる。すなわち, 1) UMLS とリンクされた MeSH の定義文, 2) UMLS とリンクされた Wikipedia の定義文,3) Wikipedia の定義文から自動生成された疑似的な MeSH 定義文, および 4) MeSH の定義文から自動生成された疑似的な Wikipedia 定義文である.以後,疑似的な定義文を自動生成する手法,ベースラインとして用いる既存モデル MedLinker および複数ソースの定義文を活用するためのモデル拡張について述べる.
## 3.1 定義文の獲得
本研究では特に MedMentions データセットを用いる設定を扱う.この設定は, PubMed の論文要旨に含まれる言及を,UMLS エンティティに付ける. 図 2 に示すように,MedMentions に出現する UMLS エンティティのうち $80 \%$ にいては MeSH の定義文が取得可能である. すなわち,残りの 20\%については MeSH の定義文が欠損する。一方, MedMentions に出現する UMLS エンティティのうち 20\%については Wikipedia 定義文が取得可能である. さらに MedMentions 全体のうち 18\%は MeSH および Wikipedia の両方の定義文が存在する.
本研究では両方から定義文が取得可能な 18\%部分を言語生成モデルの学習に用いる.1つ目は MeSH
の定義文を大力とし,疑似的な Wikipedia 定義文を生成するモデルである. 2 つ目は Wikipedia の定義文を入力し,疑似的な Mesh 定義文を生成するモデルである. これらの言語生成モデルは英語版の Wikipedia で事前学習された BARTを用い, MeSH および Wikipedia の定義文を生成するよう追加学習を行った.
## 3.2 ベースモデル: MedLinker
ベースラインとする既存手法 MedLinker [3] について述べる.
MedLinker の学習済み配布モデル ${ }^{2)}$ を,言及抽出,候補生成に用いる. MedLinkerによる候補スコアリングは定義文の情報は用いず,1) 入力文中の言及のみを大力として計算するスコアおよび,2) 言及と候補エンティティのコサイン類似度による表層一致スコアを組み合わせる手法である. 本研究では 4 つの定義文も考慮するスコアを用いて MedLinker を拡張する. 以下に MedLinker の2つのスコアについて概説する.
1つ目のスコア ScoreCLF はニューラルネットワー クによるスコアリングであり,以下のように入力文中の言及 ent および候補エンティティ $c$ に対するスコアを計算する:
$
\begin{gathered}
\mathbf{s}=\operatorname{Softmax}\left(\mathbf{W}_{e} \text { AverageBERT }(\text { ent })\right), \\
\operatorname{ScoreCLF}(e n t, c)=\mathbf{s} \cdot \delta_{c} .
\end{gathered}
$
ここで,AverageBERT は入力文全体を読み込みエンティティ部分のサブワードに対する埋め込み表現の平均值を返す.実際には,BERT の最終層だけでなく,その 2 つ前までの層におけるべクトル表現も含め平均ベクトルを計算する. 重み行列 $\mathbf{W}_{e}$ とソフトマックス関数を用いて,学習データに含まれるエンティティ種類数と同じ数の次元を持つ確率分布 $\mathbf{s}$ に変換する. よって,各次元が学習データに含まれる UMLS エンティティとリンクするか否かを表現するスコアとなる. 候補エンティティ $c$ に対応する要素のみが 1 をとる one-hot ベクトル $\delta_{c}$ との内積を計算することで,候補エンティティ $c$ に対するスコアを得る.
2 つ目のスコア scoreSTR は ent と c のエンティティ名をそれぞれ文字 1 グラムから 4 グラムを用いて素性べクトルとし, 表層一致度をコサイン類似度を用いて計算した:
$
\operatorname{scoreSTR}(e, c)=\cos (e, c)
$
ここで, $\cos ()$ はコサイン類似度を返す。これら 2 つのスコアの最大値が最終的なスコアとなる.
## 3.3 定義文を活用するモデル
次に,既存モデルを定義文を用いるよう拡張する.この拡張では, MedLinker での 2 つのスコアに加え,定義文を用いてスコアリングする提案スコア ScoreDef を計算し,3つのスコアの最大値を最終的なスコアとする: Score = max(ScoreSTR, ScoreCLF, ScoreDef). ScoreDef の計算手法として,1) MeSH 定義文を用いる手法,2) MeSH および Wikipedia 定義文を用いる手法,3) 疑似定義文で MeSH および Wikipedia 定義文の欠損を補完する手法,および 4) 別のエンコーダで 4 種類の定義文を読み込む手法を比較する。
1. MeSH 定義文を用いる手法: MeSH の定義文 $d e f_{M}$ を用いて候補エンティティ $c$ に対しスコア計算する以下の手法を用いる:
$
\begin{aligned}
& \operatorname{ScoreDef}(\text { ent }, c)=\operatorname{Softmax}\left(\mathbf{W}_{M}[\right. \\
& \text { AverageBERT(ent); } \\
& \left.\left.\operatorname{BERT}_{M}\left(d e f_{M}\right)\right]\right),
\end{aligned}
$
ここで,BERT ${ }_{M}$ は候補エンティティの MeSH 定義文を BERT で読み込み,先頭に付与された [CLF]トー クンに対する表現べクトルを返す。また,[;] は結合ベクトルを表し, $\mathbf{W}_{M}$ は結合ベクトルを 2 次元に圧縮する重み行列である.
2. MeSH および Wikipedia の定義文を用いる手法: さらに,複数種類の定義文を用いる効果を検証するため,Wikipedia の定義文も用いスコアリングするモデルを考える:
$
\begin{aligned}
\operatorname{ScoreDef}(\text { ent }, c)= & \operatorname{Sof} \operatorname{tmax}\left(\mathbf{W}_{M+W}[\right. \\
& \text { AverageBERT }(\text { ent }) ; \\
& \left.\left.\operatorname{BERT}_{M}\left(\text { def }_{M}\right) ; \operatorname{BERT}_{W}\left(\text { de } f_{W}\right)\right]\right),
\end{aligned}
$
ここで,BERT $W_{W}$ は Wikipedia 定義文先頭の $[$ CLF] トー クンに対する埋め込み表現で, $\mathbf{W}_{M+W}$ は結合ベクトルを二次元に圧縮するための重み行列である。
3. 定義文の欠損を疑似定義文で補完する手法: 前述したように MeSH の定義文や Wikipedia 定義文は欠損する。その場合,空のサブトークン列の先頭に [CLF] トークンが付与され読み込まれるため,エンティティの定義に関する情報を活用できない。その
ため,欠損箇所を自動生成した疑似定義文で補完するモデルを提案する:
$
\begin{aligned}
& \text { ScoreDef }(\text { ent }, c)=\operatorname{Softmax}\left(\mathbf{W}_{M+W+A u g}[\right. \\
& \text { AverageBERT(ent); } \\
& \operatorname{BERT}_{M}\left(\text { de }_{\text {Aug } M}\right) ; \\
& \left.\left.\operatorname{BERT}_{W}\left(d e f_{A u g W}\right)\right]\right),
\end{aligned}
$
ここで,BERT ${ }_{A u g M}$ および BERT ${ }_{A u g W}$ は MeSH または Wikipedia 定義文が欠損する場合に,疑似定義文で補完したテキストの埋め込み表現を表す。 $\mathbf{W}_{M+W+A u g}$ は前述した手法と同様に重み行列である.
4. 4 つの定義文を異なるエンコーダで読み込む手法:前述した補完による手法は, 自動生成した疑似定義文と MeSH もしくは Wikipedia に含まれる定義文を区別せず,それぞれ単一のエンコーダで読み込む。 ここで,疑似定義文と本来の定義文は区別し別のエンコーダで読み込む手法を提案する:
$\operatorname{ScoreDef}($ ent,,$c)=\operatorname{Softmax}\left(\mathbf{W}_{M+W+\operatorname{Sep}}[\right.$ AverageBERT (ent); $\operatorname{BERT}_{M}\left(\right.$ de $\left._{M}\right)$; $\operatorname{BERT}_{W}\left(\right.$ de $\left.f_{W}\right)$; BERT $_{\text {PseudoM }}\left(\right.$ def $\left._{\text {Pseudo }}\right)$; BERT $_{\text {Pseudow }}\left(\right.$ de $\left.\left.\left._{\text {Pseudow }}\right)\right]\right)$,
ここで,BERT Pseudow および BERT PseudoM は疑似定義文をそれぞれ読み込む BERTである。
## 4 実験
実験には MedMentions st21pv [7] データを用いた. MedMentions は PubMed の論文要旨を UMLS に人手でリンクしたデータを格納している.UMLS エンティティには固有の ID である CUI の他に STR と呼ばれるカテゴリに相当する ID も含むが,本研究ではより難しい問題である CUIアノテーションを正解として用いる。実験には MedMentions データセットの学習,開発および評価用のデータ分割を用いた。 ScoreSTR,ScoreCLF の計算には学習済みモデルを用い,提案スコアの ScoreDef は学習セットを用いて学習した. 評価指標には MedLinker との比較のため,適合率,再現率, $\mathrm{F}$ 值を用いる。
## 5 結果
表 1 に結果を示す. MedMentions 全体での評価を表の左側に示す. ScoreDef は MeSH および Wikipedia 定義文の両方もしくはいずれかが存在す
表 1: MedMentions 全体での評価 (左) と MeSH もしくは Wikipedia いずれかもしくは両方の定義文が入手できる部分での評価 (右). *別エンコーダモデルと UMLS+Wikipedia モデルとの差は統計的に有意 $(p<0.01)$.
る場合に計算できる. よって,両方が存在しない場合には MedLinker のスコアと変化がない. よって, ScoreDef の計算可能な部分 (図 2 における青と緑部分の和集合) のみでの評価も行う。また, $\mathrm{MeSH}$ もしくは Wikipedia の少なくともいずれかの定義文が存在しScoreDef が計算可能な部分のみでの評価は表 1 の右側に示す.
MedMentions 全体での評価では,定義文の情報を用いない MedLinker のF 值は 48.36であるのに対し,定義文を用いる手法では $\mathrm{F}$ 值が 48.57 まで向上した. さらに,さらに複数種類の定義文を用いる拡張として Wikipedia の定義文を追加すると $\mathrm{F}$ 値が 48.61 まで向上した.疑似的な定義文も用いる 2 つのモデルは補完による手法が 48.62 であり効果が見られなかった。一方,別のエンコーダで読み込むモデルでは 48.75 と性能を向上させ,別エンコーダで読み込む手法が有効であることが分かった。
ScoreDef の計算可能な部分での評価では, MedLinker と疑似定義文を用いる手法の性能差は MedMentions 全体での評価值での性能差より大きい. 具体的には MedMentions 全体での評価では MedLinker の F 值からの向上が 0.39 (48.36 から 48.75) なのに対し, ScoreDef が計算可能な部分では 0.62 (50.27 から 50.89) であった. よって,定義文を用いるスコア関数によってスコアが変わる部分に対して,提案した枠組みはより効果的に作用していることがわかる.
## 6 おわりに
本研究では専門分野向け EL モデルの学習に,言語生成モデルにより作成した疑似的な定義文を活用する新たな枠組みを提案した。実験より,疑似的な定義文であっても EL モデルの性能を向上させることが分かった。この知見は,言語生成モデルの新たな活用法としての新たな可能性を示すものである。
## 謝辞
この成果は, 国立研究開発法人新エネルギー・産業技術総合開発機構 (NEDO) の助成事業 (JPNP16010) の結果得られたものである. 産総研の AI 橋渡しクラウド $(\mathrm{ABCI})$ を利用し実験を行った.
## 参考文献
[1] Rada Mihalcea and Andras Csomai. Wikify! linking documents to encyclopedic knowledge. In Proceedings of 29th ACM International Conference on Information and Knowledge Management, p. 233-242, New York, USA, 2007. Association for Computing Machinery.
[2] Manoj Prabhakar Kannan Ravi, Kuldeep Singh, Isaiah Onando Mulang', Saeedeh Shekarpour, Johannes Hoffart, and Jens Lehmann. CHOLAN: A modular approach for neural entity linking on Wikipedia and Wikidata. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 504-514, Online, April 2021. Association for Computational Linguistics.
[3] Daniel Loureiro and Alípio Mário Jorge. In Joemon M. Jose, Emine Yilmaz, João Magalhães, Pablo Castells, Nicola Ferro, Mário J. Silva, and Flávio Martins, editors, Proceedings of 42nd European Conference on Information Retrieval.
[4] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[5] Afshin Rahimi, Timothy Baldwin, and Karin Verspoor. WikiUMLS: Aligning UMLS to Wikipedia via crosslingual neural ranking. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 5957-5962, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics.
[6] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, Online, July 2020. Association for Computational Linguistics.
[7] Sunil Mohan and Donghui Li. Medmentions: A large biomedical corpus annotated with \{umls\} concepts. In Proceedings of Automated Knowledge Base Construction (AKBC), 2019.
[8] Kurt Bollacker, Colin Evans, Praveen Paritosh, Tim Sturge, and Jamie Taylor. Freebase: a collaboratively created graph database for structuring human knowledge. In SIGMOD '08: Proceedings of the 2008 ACM SIGMOD inter- national conference on Management of data, pp. 12471250, New York, NY, USA, 2008. ACM.
[9] Zhicheng Zheng, Xiance Si, Fangtao Li, Edward Y. Chang, and Xiaoyan Zhu. Entity disambiguation with freebase. In Proceedings of the The 2012 IEEE/WIC/ACM International Joint Conferences on Web Intelligence and Intelligent Agent Technology - Volume 01, WI-IAT '12, p. 82-89, USA, 2012. IEEE Computer Society.
[10] Olivier Bodenreider. The unified medical language system (umls): integrating biomedical terminology. Nucleic Acids Res., Vol. 32, No. Database-Issue, pp. 267-270, 2004.
[11] Nikolaos Kolitsas, Octavian-Eugen Ganea, and Thomas Hofmann. End-to-end neural entity linking. In Proceedings of the 22nd Conference on Computational Natural Language Learning, pp. 519-529, Brussels, Belgium, October 2018. Association for Computational Linguistics.
[12] Nicola De Cao, Gautier Izacard, Sebastian Riedel, and Fabio Petroni. Autoregressive entity retrieval. In Proceedings of The Ninth International Conference on Learning Representations (ICLR2021), 2021. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D5-3.pdf | # LP-to-Text: マルチモーダル広告文生成
村上聡一朗 1,2 星野翔 1 張培楠 1 上垣外英剛 2 高村大也 ${ }^{3}$ 奥村学 2
1 株式会社サイバーエージェント 2 東京工業大学 3 産業技術総合研究所
\{murakami_soichiro, hoshino_sho,zhang_peinan\}@cyberagent.co.jp kamigaito@lr.pi.titech.jp takamura.hiroya@aist.go.jp oku@pi.titech.ac.jp
## 概要
検索連動型広告では, 広告効果を高めるために, ランディングページ (LP) と広告文の内容に高い関連性が求められる。また, 広告データは, 広告主によって扱う商品数や予算が異なるため, 配信数に偏りが生じやすい. 上の課題に対し本研究では, LP のマルチモーダル情報と広告データの不均衡性を考慮した広告文生成手法を提案する. 実験では, LP のレイアウトの考慮による生成品質の向上および不均衡デー タに対する頑健性の向上を確認した。
## 1 はじめに
検索連動型広告とは, ユーザの検索クエリに関連する広告文を検索結果画面に提示する広告である。図1のように, 広告文をクリックした遷移先にはランディングページ (LP) が設定されており, LP はサー ビスの魅力をユーザへ訴求することで購入や申込等の行動を促すことを目的としている. 従って, 広告文には, LP と関連性の高い内容をユーザへ訴求し,クリックを促す重要な役割があるため, 一般的に広告制作者は, $\mathrm{LP}$ 等を参考に広告文を作成する.しかし,近年のデジタル広告の需要拡大に伴う制作者の負担増加により, 広告文作成の自動化が求められている。
本研究では LP からの広告文生成に取り組む. 広告文には様々な要件や課題がある. (1) 広告文では,広告効果を高めるため, LP と関連した重要な情報を含む必要がある. (2) 広告文は, 広告主により扱う商品数やサービス数, 広告予算が異なるため, 配信事例数に偏りが生じやすい. さらに, テンプレートが多用されることも多く語彙の偏りが生じやすい [1]. この不均衡性は機械学習に基づく文生成で大きな障壁となる [2]. これらに対し本研究では, (1) LP の画像やレイアウト,テキストを考慮した上で, LP と関連性の高い広告文の生成手法を探求する. (2)さらに, 不均衡データに対して頑健な生成モデルを提案する。
図 1 検索連動型広告および LP の例
## 2 関連研究
文書画像に対する言語生成本研究では, LPを画像やテキストが配置された文書画像として捉え, タスクを文書画像からの言語生成として考える. 従っ $\tau$, 文書画像理解 $[3,4]$ や文書画像の機械読解と関連性が高い [5]. これらの研究では一般的なビジネス文書や Web ページを対象としているが, 本研究で扱う LP では, 割引等の訴求を強調するためのテキストの大きさや配置等のレイアウト情報が特徴的であり, より重要であると考えられる. そこで本研究ではレイアウト情報を考慮した生成モデルを提案する。
広告文生成広告文生成はこれまで多くの研究があるが, 近年では,ニューラル言語生成による手法が主流となっている $[6,7,8,9,10]$. 特に最近では, 広告効果を報酬として強化学習を用いる手法 [11, 12], 外部知識の導入により生成文の多様性を向上する手法 [1] 等が提案されている. これらの研究では, キー ワードや LP 概要文 ${ }^{1)}$, 外部知識等の言語情報を主に利用しているが, 本研究では LP の画像情報やレイアウトも活用する.これにより, LP の特徴的なデザインにより強調された割引やサービス内容等の重要な情報を明示的に考慮できるため, より LP と関連性の高い広告文生成が期待できる。
## 3 提案手法
検索連動型広告は, 図 1 のように, 検索クエリと広告主が予め設定したキーワードが一致した場合, 検
1) 各LPの<meta>タグに含まれるテキスト
図 2 提案モデル
索結果に提示される. また, 各広告は, タイトル文と説明文の 2 種類から構成されており, それぞれの内容は LP やキーワードと関連性が高いことが求められる. 加えて, 生成モデルの運用コスト軽減の観点から, タイトル文や説明文といった広告種別や広告主ごとにモデルを作成するのではなく, これらに幅広く対応した統一的な生成モデルが必要とされる. f 本研究では, LPを画像やテキストが配置された文書画像として捉え, LP からの広告文生成を文書画像からの言語生成タスクとして考える. さらに, 前述の要件を満たすために, LP だけでなく, LP 概要文やキー ワード, 広告主, 広告種別といったメ夕情報も用いる. 本研究では, 先行研究 $[3,4]$ と同様に, 文書画像中のテキストを活用するために, LP に対して文字認識 (OCR) を行い, 検出された矩形領域 (Bounding-Box) のテキストとレイアウトを使用する.
## 3.1 広告文生成モデル
提案モデルの概要を図 2 に示す. 本研究では, 先行研究 [5] に倣い, 文書コーパスで事前学習された Transformer[13]を使用し,LP の画像やレイアウト,テキストを考慮した広告文生成モデルを探求する。 入力のテキスト情報として, LP 概要文 $\mathbf{x}^{\mathrm{desc}}$,キーワー ド $\mathbf{x}^{\mathrm{key}}$, 広告主名 $\mathbf{x}^{\mathrm{adv}}$, 広告文の種別 $\mathbf{x}^{\mathrm{type}}$, LP から OCR で取得した矩形領域集合 $\mathbf{R}=\left.\{r_{i}\right.\}_{i=1}^{|\mathbf{R}|}$ の各 OCR
合 $\mathbf{X}=\left.\{\mathbf{x}^{\text {desc }}, \mathbf{x}^{\text {key }}, \mathbf{x}^{\text {adv }}, \mathbf{x}^{\text {type }},\left.\{\mathbf{x}_{i}^{\text {ocr }}\right.\}_{i=1}^{|\mathbf{R}|}\right.\}$ を用いる.ここで, 各トークン系列 $\mathbf{x}^{*}$ は, $\mathbf{x}^{*}=\left(x_{i}^{*}\right)_{i=1}^{\left|\mathbf{x}^{*}\right|}$ とする. さらに, 矩形領域集合 $\mathbf{R}$ に対応するレイアウト (座標情報) $\mathbf{C}=\left.\{c_{i}\right.\}_{i=1}^{|\mathbf{R}|}$ および画像情報 $\mathbf{I}=\left.\{I_{i}\right.\}_{i=1}^{|\mathbf{R}|}$ を用いる. ここで, $c_{i}=\left(x_{i}^{\text {min }}, x_{i}^{\text {max }}, y_{i}^{\text {min }}, y_{i}^{\text {max }}\right) \in \mathbb{R}^{4}$ であり, 例えば $x_{i}^{\min }$ は矩形領域 $r_{i}$ の $x$ 座標の最小值を表す ${ }^{2)}$.また, 学習時には, 一般的な系列生成問題と同様, 参照
2) 座標 $\left(x_{i}^{\min }, x_{i}^{\max }, y_{i}^{\min }, y_{i}^{\max }\right)$ は LP の幅と高さで正規化する.文 $\mathbf{y}=\left(y_{i}\right)_{i=1}^{|\mathbf{y}|}$ の負の対数尤度の最小化を行う.
ここで, 図 2 の各 Embedding について説明する。
Token Embedding 各トークン系列 x* は Embed$\operatorname{ding}$ 系列 $\mathbf{t}^{*} \in \mathbb{R}^{D \times\left|\mathbf{x}^{*}\right|}$ に変換後, エンコーダへ入力する.ここで, $D$ は Embedding の次元を表す. 例えば,矩形領域 $r_{i}$ の OCR トークン系列 $\mathbf{x}_{i}^{\text {ocr }}=\left(x_{i, j}^{\text {ocr }}\right)_{j=1}^{\left|\mathbf{x}_{i}^{\text {or }}\right|}$ に対して, $t_{i, j}^{\text {ocr }} \in \mathbb{R}^{D}$ からなる系列 $\mathbf{t}_{i}^{\text {ocr }} \in \mathbb{R}^{D \times\left|\mathbf{x}_{i}^{\text {oc }}\right|} \mid$ を得る.
Segment Embedding エンコーダでは, 各トークン系列 $\mathbf{x}^{*}$ の領域を区別する. 例えば,トークン系列 $\mathbf{x}^{\text {desc }}$ に対して, $s^{\text {desc }} \in \mathbb{R}^{D}$ を導入する.
Visual Embedding LPの文字色やフォントなどの視覚情報を活用するために, 各矩形領域 $r_{i}$ に対応する画像 $I_{i}$ を導入する. 具体的には, 取得した画像 $I_{i}$ を $128 \times 32$ (Width $\times$ Height)へリサイズし, CNNによる特徴抽出により視覚特徴 $v_{i} \in \mathbb{R}^{D}$ を作成する.
Layout Embedding LP では, 文字の配置位置や大きさは重要な要素である. 矩形領域 $r_{i}$ のレイアウト $c_{i}$ を MLPへ入力し, $l_{i} \in \mathbb{R}^{D}$ を獲得する.
上の Embeddings を用いて,エンコーダへの入力を作成する (図 2). 例えば, 矩形領域 $r_{i}$ における $j$ 番目
次式により作成する: $e_{i, j}^{\text {ocr }}=\operatorname{LayerNorm}\left(t_{i, j}^{\text {ocr }}+s^{\text {ocr }}+l_{i}\right)$.
## 3.2 マルチタスク学習
LP と関連性が高い内容の広告文を生成するために, 本研究ではレイアウトや内容を考慮するためのサブタスクを導入し, マルチタスク学習を実施する。
Bounding-Box Layout Prediction 重要な情報を伝えるために, LP においてテキストの表示位置や大きさ等のレイアウト情報は重要である. しかし, 文書で事前学習されたモデルに対して, 唐突にレイアウト情報を与えるだけでは,レイアウト情報の意味を早期に獲得することは困難と予想される。 そこで, 近年の Masked Language Modeling [14, 9] の成功に倣い,
周辺情報から対象矩形領域のレイアウトを予測するサブタスクを新たに提案する. 全てのレイアウト情報は学習時および推論時に参照可能ではあるが, 意図的に対象レイアウトをマスクし, 自身の OCR テキストを含む周辺情報から対象レイアウトを予測するよう学習することで, OCR テキストと対象レイアウトの対応関係を効率的に獲得することを期待する.具体的には, 矩形領域 $r_{i}$ に対するレイアウト $l_{i}$ をマスクし, エンコードされた矩形領域 $r_{i}$ の表現ベクトル $\mathbf{h}_{i}^{\text {ocr } から ~ O C R ~ テキスト ~} \mathbf{x}_{i}^{\text {ocr }}$ に対するレイアウト $c_{i}$ の各座標 $\left(x_{i}^{\min }, x_{i}^{\max }, y_{i}^{\min }, y_{i}^{\text {max }}\right)$ を MLP で予測する.例えば, 図 2 では, まず, 矩形領域 $r_{1}$ に対応するレ
エンコーダより獲得した $\mathbf{h}_{1}^{\text {ocr }}$ MLPへ入力し, レイアウト $c_{1}$ の各座標 $\left(x_{1}^{\min }, x_{1}^{\max }, y_{1}^{\min }, y_{1}^{\max }\right)$ を予測する3). 学習の際は, MLP の予測値と正解 (例えば, $\hat{x}_{i}^{\text {min }}$ と $\left.x_{i}^{\min }\right)$ の二乗誤差 $\left|\hat{x}_{i}^{\min }-x_{i}^{\min }\right|^{2}$ を最小化する. 提案手法では, 矩形領域集合 $\mathbf{R}$ のうち, 30\%の対象矩形領域のレイアウトをマスクし, 本タスクを学習する。
Saliency Detection LP と関連性の高い内容をモデルで考慮し, 広告文の品質を向上することを狙い, Tanaka らが提案した Saliency loss [5] を導入する. 本研究では, トークン系列集合 $\mathbf{X}$ の中で参照文 $\mathbf{y}$ に出現するトークン $x$ に対して 1 , それら以外には 0 を予測する二値分類を学習する.これは, 入力から言及すべき内容を選択する内容選択に相当する [8].
## 3.3 Mixture LM Head
広告文は, 広告主によって語彙の多様性や事例数が大きく異なる不均衡データであり, 機械学習に基づく文生成において大きな障壁となる [2]. この課題に対し, 本研究では, Mixture of Experts (MoE) [15] に基づくモデルを提案する. MoEを用いたエンコー ダデコーダモデルでは, 1 つの入力に対して異なる Expert (デコーダ)を割り当てることで多様な文生成が可能になることが知られている [16]. また, $\mathrm{MoE}$ により不均衡データに頑健な機械学習モデルを構築する取り組みもある [17]. そこで本研究では, $\mathrm{MoE}$ を導入することで, 様々な広告主の広告文からなる不均衡データに対して頑健な文生成モデルを目指す.
これまでの多くの研究 $[16,18,19]$ では, デコー ダ全体を Expert として用いているが, MoEを Transformer などの大規模モデルに適用する場合, パラメータ数が大幅に増加し, 学習が困難になること
が懸念される.そこで本研究では, Language modeling head (LM head) ${ }^{4}$ を Expert として用いる Mixture LM head を提案する (図 2). これにより, モデル全体のパラメータ数を抑えつつ ${ }^{5)}$, Expert (LM head) ごとに異なる語彙特徴を捉えることを狙う.また,提案モデルでは, Multiple Choice Learning (MCL) [20] に基づいて MoE を学習する. MCL では, 複数の Expert の中で,最も loss が低い Expert の損失関数の勾配に基づいて,パラメータを更新する [18].これにより,様々な広告主の広告データが写像される隠れ状態を, モデル内でより明確に領域分割することで, 不均衡デー タに対する頑健性が向上することを期待する [16].
## 4 実験設定
データセット実験では, 金融や EC, 不動産等の全 13 業種の広告主 (全 41 社分) の広告データをそれぞれ 39,166 件, 5,254 件, 5,035 件の学習, 開発, 評価データに分割し使用する. 各広告に紐づくLP として,LPファーストビュー6)のスクリーンショット画像を用い, Cloud Vision API の OCR 機能7)により, 矩形領域集合 $\mathbf{R}$ に対する画像 $\mathbf{I}$, レイアウト $\mathbf{C}$, テキスト $\left.\{\mathbf{x}_{i}^{\text {ocr }}\right.\}_{i=1}^{|\mathbf{R}|}$ を取得した.
評価指標生成文の品質を測るために, LP 等から人手で作成された参照文との N-gram の一致率に基づく BLEU-4 (B-4) [21], ROUGE-1 (R-1), ROUGE-2 (R-2) [22]を使用する.また, 生成文の多様性を測るための指標として, Distinct-1 (D-1), Distinct-2 (D-2) [23], Pairwise-BLEU (P-B) [16], Self-BLEU (S-B)[24] を用いる ${ }^{8)}$. 加えて, LP と広告文の関連性を測るために, 指定したキーワードが生成文に含まれる事例の割合を表すキーワード挿入率 $(\mathrm{Kwd})$, 入力トークン $\mathbf{X}$ と生成文 $\mathbf{y}$ の ROUGE-1 (Precision) により算出する Fidelity スコア (Fid)を用いる.
実装モデルには, 事前学習済みの $\mathrm{T}^{99}$ [9]を使用する. また, 特筆の無い限り, Mixture LM headによる文生成時は評価文に対して最も loss が低い Expert を使用し, 貪欲法に基づき 1 文を生成する. その他の詳細な実験設定は付録 A に記載する。
$ ) のデコーダを Expert とした場合, パラメータ数は $711 \mathrm{M}$ だが, LM head を Expert とした場合は 297 M となる.ここで, Expert 数は 4 とする.
6)LPをスクロールせずに最初に見える範囲
7) https://cloud.google.com/vision/docs/ocr
8) P-B, S-B の算出には B-4 を用いる.
9) https://huggingface.co/sonoisa/t5-base-japanese
}
表 1 各 Embedding およびサブタスクの比較
表 2 Expert 数ごとの生成文, N-gram の異なり数
Model \#Text \#N-1 \#N-2 \#N-3 \#N-4
$\begin{array}{llllll}\mathrm{T} 5(K=1)+v, l, s & 228 & 608 & 1,520 & 2,603 & 3,208\end{array}$
$\mathrm{T} 5(K=2)+v, l, s \quad 503 \quad 762 \quad 2,160 \quad 4,231 \quad 5,559$
T5 $(K=4)+v, l, s \quad 426 \quad 739 \quad 2,074 \quad 4,002 \quad 5,201$
## 5 実験結果
各 Embedding の有用性表 1 に各 Embedding $(v, l, s)$ を用いたモデルの比較を示す ${ }^{10)}$.ここで, $K$ は Expert 数, [B] および [S] は Bounding-Box Layout Prediction, Saliency Detectionを導入したモデルを表す. $K=1$ において, 各 Embedding の導入により, LP と広告文の関連性を表す指標 (Fid, Kwd) の向上を確認した. $K=4$ では, $\mathrm{Kwd}$ の改善を確認した.
マルチタスク学習の導入効果 $\mathrm{T} 5(K=4)$ において, 各サブタスク ([B], [S]) を導入することで, 生成文の品質が向上することを確認した. OCR テキストに対してレイアウト情報を用いない場合 $(+v, s)$ であっても, [B]を導入することでスコア向上を確認した. また $,+v, l, s$ に対して [B]を導入することでスコアが大幅に向上した. このことから, 文書コーパスで事前学習された $\mathrm{T} 5$ に対するレイアウト情報の追加学習が効果的だったことが分かる. また, 2 つのサブタスクを同時に導入した場合, さらにスコアが向上した.
Mixture LM head による多様性の改善表 2 に Expert 数を 1, 2, 4 とした場合の生成文 (\#Text), 生成文に含まれる $\mathrm{N}$-gram (\#N-1,\#N-2,\#N-3,\#N-4) の異なり数を示す. 表 2 より, Expert 数を増やしたことでこれらの異なり数が増加したことから, Mixture LM head による多様性の改善が推察できる. また, $K=2$ において,最も異なり数が多い結果が得られた. さら
10) ベースラインとして, T5 $(K=1,4)$ では $v, l, s$ を用いない. また, $v$ に対する $l$ はいずれのモデルにおいても必ず導入する.表 3 Mixture LM head と Beam search の比較 $(\mathrm{T} 5+v, l, s)$
表 4 広告主ごとの ROUGE-1 の比較 $(\mathrm{T} 5+v, l, s)$
に, 表 3 に Mixture LM head および Beam search により生成した広告文の多様性および生成品質の比較を示す.ここで, B は Beam 幅, $\mathrm{S}$ は Top おおよび Top $p$ sampling [25] の有無であり, 各モデルは生成時に 1つの入力に対し 4 文ずつ生成する ${ }^{11)}$. 例えば, $K=4$ の場合, 各 Expert で貪欲法に基づき 1 文ずつ (計 4 文)を生成する. $K=4$ では, 貪欲法に基づいて生成するものの, Beam search を用いる $K=1$ と比べて, 多様性が匹敵した上で, 生成品質が劣化しないことを確認した.
不均衡データに対する頑健性不均衡データに対する頑健性の検証のために, 学習データにおいて事例が少ない広告主の評価データに対する性能を確認する. 表 4 に学習データの事例数 (\#Train) が上位 3 社, 下位 5 社の広告主 (Adv.) の評価データ (\#Test) に対する評価結果を示す. 複数の Expert $(K=4)$ の導入により, 学習事例が少ない広告主のデータに対しても,品質の高い広告文が生成できることを確認した。
## 6 おわりに
本研究では, LP からの広告文生成を文書画像からの言語生成タスクとして取り組んだ. 実験では, 文書コーパスで事前学習された $\mathrm{T} 5$ に対して, 追加学習時に新たにレイアウト情報を効率的に学習するためのマルチタスク学習を導入することで,レイアウト情報を考慮した際の生成品質が大幅に向上することを示した. また, 広告データにおける語彙やデータ事例数の不均衡性に対して, MoE に基づく Mixture LM head を提案し, 生成文の多様性および少量事例 (広告主) に対する生成品質の頑健性の向上を示した.
11) Sampling 有りの場合, $\operatorname{Top}_{k}=50, \operatorname{Top}_{p}=1.0$ とした.
## 参考文献
[1] Siyu Duan, Wei Li, Jing Cai, Yancheng He, and Yunfang Wu. Query-variant advertisement text generation with association knowledge. In Proceedings of the 30th ACM International Conference on Information \& Knowledge Management, p. 412-421, New York, NY, USA, 2021. Association for Computing Machinery.
[2] Justin M Johnson and Taghi M Khoshgoftaar. Survey on deep learning with class imbalance. Journal of Big Data, Vol. 6, No. 1, pp. 1-54, March 2019.
[3] Yiheng Xu, Minghao Li, Lei Cui, Shaohan Huang, Furu Wei, and Ming Zhou. Layoutlm: Pre-training of text and layout for document image understanding. In Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery \& Data Mining, KDD '20, p. 1192-1200, New York, NY, USA, 2020. Association for Computing Machinery.
[4] Yang Xu, Yiheng Xu, Tengchao Lv, Lei Cui, Furu Wei, Guoxin Wang, Yijuan Lu, Dinei Florencio, Cha Zhang, Wanxiang Che, Min Zhang, and Lidong Zhou. LayoutLMv2: Multi-modal pretraining for visually-rich document understanding. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 2579-2591, Online, August 2021. Association for Computational Linguistics.
[5] Ryota Tanaka, Kyosuke Nishida, and Sen Yoshida. Visualmrc: Machine reading comprehension on document images. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 35, pp. 13878-13888, May 2021.
[6] Kevin Bartz, Cory Barr, and Adil Aijaz. Natural language generation for sponsored-search advertisements. In Proceedings of the 9th ACM conference on Electronic commerce, EC '08, pp. 1-9, New York, NY, USA, July 2008. Association for Computing Machinery.
[7] Atsushi Fujita, Katsuhiro Ikushima, Satoshi Sato, Ryo Kamite, Ko Ishiyama, and Osamu Tamachi. Automatic generation of listing ads by reusing promotional texts. In Proceedings of the 12th International Conference on Electronic Commerce: Roadmap for the Future of Electronic Business, ICEC '10, pp. 179-188, New York, NY, USA, August 2010. Association for Computing Machinery.
[8] Albert Gatt and Emiel Krahmer. Survey of the state of the art in natural language generation: Core tasks, applications and evaluation. Journal of Artificial Intelligence Research, Vol. 61, No. 1, p. 65-170, jan 2018.
[9] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020.
[10] Xiting Wang, Xinwei Gu, Jie Cao, Zihua Zhao, Yulan Yan, Bhuvan Middha, and Xing Xie. Reinforcing pretrained models for generating attractive text advertisements. In Proceedings of the 27th ACM SIGKDD Conference on Knowledge Discovery \& Data Mining, KDD '21, pp. 3697-3707, New York, NY, USA, August 2021. Association for Computing Machinery.
[11] J. Weston Hughes, Keng-hao Chang, and Ruofei Zhang. Generating better search engine text advertisements with deep reinforcement learning. In Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery \& Data Mining, KDD '19, p. 2269-2277, New York, NY, USA, 2019. Association for Computing Machinery.
[12] Hidetaka Kamigaito, Peinan Zhang, Hiroya Takamura, and Manabu Okumura. An empirical study of generating texts for search engine advertising. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computa- tional Linguistics: Human Language Technologies: Industry Papers, pp. 255-262, Online, June 2021. Association for Computational Linguistics.
[13] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Proceedings of the 31st International Conference on Neural Information Processing Systems, NIPS'17, p. 6000-6010, Red Hook, NY, USA, 2017. Curran Associates Inc.
[14] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[15] Robert A Jacobs, Michael I Jordan, Steven J Nowlan, and Geoffrey E Hinton. Adaptive mixtures of local experts. Neural Computation, Vol. 3, No. 1, pp. 79-87, 1991.
[16] Tianxiao Shen, Myle Ott, Michael Auli, and Marc' aurelio Ranzato. Mixture models for diverse machine translation: Tricks of the trade. In Proceedings of the 36th International Conference on Machine Learning, Vol. 97, pp. 5719-5728, 2019.
[17] SB Kotsiantis and PE Pintelas. Mixture of expert agents for handling imbalanced data sets. Annals of Mathematics, Computing \& Teleinformatics, Vol. 1, No. 1, pp. 46-55, 2003.
[18] Stefan Lee, Senthil Purushwalkam Shiva Prakash, Michael Cogswell, Viresh Ranjan, David Crandall, and Dhruv Batra. Stochastic multiple choice learning for training diverse deep ensembles. In Advances in Neural Information Processing Systems, Vol. 29. Curran Associates, Inc., 2016.
[19] Sebastian Gehrmann, Falcon Dai, Henry Elder, and Alexander Rush. End-to-end content and plan selection for data-to-text generation. In Proceedings of the 11th International Conference on Natural Language Generation, pp. 46-56, Tilburg University, The Netherlands, November 2018. Association for Computational Linguistics.
[20] Abner Guzmán-rivera, Dhruv Batra, and Pushmeet Kohli. Multiple choice learning: Learning to produce multiple structured outputs. In Advances in Neural Information Processing Systems, Vol. 25. Curran Associates, Inc., 2012.
[21] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics.
[22] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 74-81, Barcelona, Spain, July 2004. Association for Computational Linguistics.
[23] Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. A diversity-promoting objective function for neural conversation models. In Proceedings of the $\mathbf{2 0 1 6}$ Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 110-119, San Diego, California, June 2016. Association for Computational Linguistics.
[24] Yaoming Zhu, Sidi Lu, Lei Zheng, Jiaxian Guo, Weinan Zhang, Jun Wang, and Yong Yu. Texygen: A benchmarking platform for text generation models. In The 41st International ACM SIGIR Conference on Research \& Development in Information Retrieval, SIGIR '18, p. 1097-1100, New York, NY, USA, 2018. Association for Computing Machinery.
[25] Ari Holtzman, Jan Buys, Maxwell Forbes, and Yejin Choi. The curious case of neural text degeneration. Computing Research Repository, Vol. abs/1904.09751, , 2019.
## A 付録
付録では, モデルのハイパーパラメータや学習器等の詳細な実験設定について説明する。
## A. 1 実装詳細
実験で使用した T5 [9] は, Wikipedia ${ }^{12)}$, OSCAR ${ }^{13)}$, $\mathrm{CC}-100^{14)}$ の日本語文書コーパス (約 100GB) を用いて事前学習されている. 本モデルは, Hugging Face の transformers ライブラリ15) で利用可能であり,各種パラメータは設定ファイル16)に記載されている。
マルチタスク学習で導入する Bounding-Box Layout Prediction および Saliency Detection では, 1 層の MLP を用いる. 視覚特徵 $v_{i}$ を作成するための CNNでは,入力チャネルは 3 , 出力チャネルは 32 , ストライドは 3 , カーネルサイズは 5 としており, 出力に対して Batch Normalization, ReLU および 1 層の MLP の適用し, $v_{i}$ を獲得した。
## A. 2 モデル学習
モデルパラメータの最適化手法には Adam を使用し, 学習率は $3 \times 10^{-5}$, ミニバッチサイズは 8 とした. 学習時の epoch 数は 20 とし, 開発データに対する loss が 3 epoch 連続で劣化した場合には早期終了した. Mixture LM head を用いる場合は, モデルの過学習の抑制を目的として, 3 epoch まではモデルパラメータ全体を学習し, 4 epoch 以降は LM head のパラメータのみ更新した。
また, Shen ら [16] は, MoE の学習において, Expert を選択する際 (E-step 時) に Dropoutを無効化することで, Expert 選択の一貫性が向上し, 各 Expertが異なる領域に特化するため, 生成文の多様性が向上することを明らかにした. そこで, 本研究でも同様の手順でモデル学習を実施している。
| NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D5-4.pdf | # 自然言語推論と再現器を用いた Split and Rephrase における生成文の品質向上
塚越駿 1 平尾努 2 森下睦 2 帖佐 克己 ${ }^{2}$
笹野遼平 ${ }^{1}$ 武田浩一 1
1 名古屋大学大学院情報学研究科 ${ }^{2} \mathrm{NTT}$ コミュニケーション科学基礎研究所
tsukagoshi.hayato.r2@s.mail.nagoya-u.ac.jp
\{tsutomu.hirao.kp, makoto.morishita.gr, katsuki.chousa.bg\}@hco.ntt.co.jp
\{sasano, takedasu\}@i.nagoya-u.ac.jp
## 概要
複雑な文を同じ意味の単純な複数の文に分割する Split and Rephrase タスクは,可読性の向上や機械的なテキスト処理の性能向上に有用である. 本研究では,Split and Rephraseの性能向上のため,訓練デー タセットに含まれている文分割前後の文意が一致しない事例を含意関係分類を用いて除去するフィルタリングと,モデルが入力文に対し忠実な文生成を行うよう出力から入力を再構成する再現器を用いた訓練手法を提案する。標準的なベンチマークデータセットを用いた実験の結果,提案手法が世界最高性能を達成したことを確認した。
## 1 はじめに
長く複雑な文を短く簡単な文に変換できると,可読性の向上や機械的なテキスト処理の性能向上が期待できる $[1,2,3]$ ことから,テキスト平易化(text simplification)は人間とテキスト処理システムの双方にとって有用である,最近になり,テキスト平易化タスクの一種として,長く複雑な文を意味内容を保ったままより短く単純な複数の文に変換する Split and Rephrase[4] タスクが提案された. Split and Rephrase は他のテキスト平易化タスクと異なり,複雑な文の語彙や文意を可能な限り変更せず,単純な文に分割することに焦点を当てた文分割タスクである. Split and Rephrase では深層学習モデルを用いた手法 $[4,5,6,7]$ が高い性能を達成している. 同タスクの学習や評価に利用される既存のデータセットは(1)自動構築された低品質だが大規模なデータセット $[4,5,6,8,7]$ (2)人手で作成された高品質だが小規模なデータセット $[9,10]$ の二つに分類するこ
とができる。自動構築されたデータセットには複雑な文と機械的に生成された単純な文のぺアが数十万事例含まれ,深層学習モデルの訓練には十分な量のデータが存在する一方,人間によって作成されたデータセットの事例数はいずれも 500 に満たない. したがって,多くの先行研究が自動構築されたデー タセットを用いてモデルを訓練し,人手で作成されたデータセットで評価を行なっている。しかし,自動構築されたデータセットには文分割前後の文意が一致しない等の不適当な事例が多数含まれており,加えて,深層学習モデルには入力と整合しない出力をすることがあるという一般的な問題が知られている [11]. そのため,既存の Split and Rephrase モデルは入力に対して意味的に異なる文を出力してしまうことがあり,Split and Rephrase タスクの性能に悪影響を与えている。
この問題に対処するため,本研究では,Split and Rephrase タスクの性質に着目し,自然言語推論 (NLI)モデルによるデータセットのフィルタリングと,出力から入力を再構成するモジュールである再現器 (Reconstructor)[12] を導入した訓練手法を提案する。まず,文分割前後の文意が一致しない事例を除くため,事前訓練済み NLI 分類モデルを用いて複雑な文と単純な文のペアを分類し,含意関係にある文ペアのみを残す. さらに,入力に対して意味的に異なる文をモデルが出力することを防ぐため,モデルの出力ベクトルから入力文を再構成する再現器をモデルに導入して訓練を行う。
標準的ベンチマークデータセットに対して,NLI 分類によるフィルタリングと再現器を用いた訓練の効果を調べたところ,それぞれ単独でも性能向上が得られたが,同時に利用することでさらなる性能向
図 1 NLI 分類によるフィルタリングの概要図. 図中の例文は WikiSplit の実際の事例。
上が得られ,世界最高性能を達成した。
## 2 関連研究
Split and Rephrase は Narayan ら [4] によって提案されたテキスト平易化タスクの一種である. Narayan ら [4] は既存のテキスト平易化データセットで文分割モデルを訓練することは困難であることを示し, Split and Rephrase 用データセットである WebSplit の提案とベースラインの設定を行った. Aharoni ら [13] は WebSplit のデータ分割の不備を指摘し,適切に分割したデータセットとコピー機構 [14]を用いたモデルを提案して新たなべースラインを設定した. また,Botha ら [5] は WebSplit の語彙や統語構造が多様性に乏しいことを指摘し, Wikipedia の編集履歴を用いたデータセットである WikiSplitを提案した. Niklaus ら [6] はルールベース文分割システムの DisSim[15] W WikiSplit に適用したデータセットである MinWikiSplit を提案した. Kim ら [7] は対訳コー パス中の翻訳前後の文数が 1 文と 2 文になっている事例を抽出して翻訳することで, 1 文と 2 文が対応づいたデータセットである BiSECT を提案した。
自動構築された大規模なデータセットが整備される一方で,人手で作成された高品質な評価用データセットも整備されている. Sulem ら [9] は, Wikipedia の文を用いて,人手により作成された高品質な分割後の文を含むデータセットである HSplit を構築した. Zhang ら [10] らは人手により Wikipedia や契約書などの文をもとに,より多様な語彙と統語構造を含み,HSplit よりも難しい評価用データセットである Wiki-BM と Cont-BM を構築した. それらを用いた評価を通して既存手法では十分な性能を達成することは難しいことを示した。
図 2 再現器を用いた訓練時の概要図.
## 3 提案手法
提案法の概要図を図 1 と図 2 に示す. 既存データセットの各文に対して NLI 分類を行い,分割前後の文が含意関係にない,すなわち分割前後で文意が変化してしまっていると分類された文ぺアを除去する. さらに,深層学習モデルで問題となる入力と整合しない出力を防ぐため, 出力のベクトル表現から入力文を再構成する再現器をモデルに導入する.
## $3.1 \mathrm{NLI$ 分類によるフィルタリング}
自然言語推論(Natural Language Inference: NLI) タスクは,前提文と仮説文が与えられた時に,前提文と仮説文の関係が含意 (entailment),矛盾 (contradiction), 中立(neutral)のいずれであるかを分類するタスクである.NLI データセットとして代表的なものに Stanford NLI(SNLI)データセット [16] や Multi-Genre NLI(MNLI)データセットがあり,BERT[17] やRoBERTa[18] 等の事前訓練済み言語モデルが高い性能を達成している。
本研究で提案する NLI 分類によるフィルタリングでは,図 1 に示すように,複雑な文 $c$ とそれに対応する単純な文の系列 $s_{1}, \ldots, s_{n}$ が与えられた時に,複雑な文 $c$ と各単純な文 $s_{i}(1 \leq i \leq n)$ を NLI 分類モデルに入力する. この時得られる複雑な文 $c$ と単純な文 $s_{i}$ が含意関係にある確率 $P_{\mathrm{ent}}$ が,矛盾や中立と分類される確率よりも高かった場合に $c$ と $s_{i}$ を含意と分類する。そして,複雑な文 $c$ とすべての $s_{i}$ とが含意関係にあると分類された事例のみを残す.
松丸ら [19] が提案した見出し生成のデータフィルタ法では,記事と見出しの含意関係分類のために事前訓練済み NLI 分類モデルをさらに fine-tuning した
が,本研究では,入力となる複雑な文とそれに対応する各単純な文がそれぞれ単一の文であることから, 既存の NLI データセットで学習したモデルで十分適切に含意関係を分類できると考えられるため,事前訓練済み NLI 分類モデルをそのまま用いる.
## 3.2 再現器を用いた訓練
Tu ら [12] によって提案された再現器は, エンコー ダ・デコーダモデルによる機械翻訳システムにおいて,デコーダの出力ベクトルから翻訳元の入力文を再構成する再現器を追加することで, 出力ベクトルが入力文の情報をできるだけ含むようモデルに強制し,翻訳の妥当性を向上させた. Split and Rephrase は単言語の翻訳タスクとして考えることができることから,再現器を用いることで分割文の妥当性を向上させることが可能であると考えた.
モデルの訓練時は,複雑な文を入力した時のエンコーダとデコーダの出力ベクトルをそれぞれ $\mathbf{h}_{\mathrm{enc}}, \mathbf{h}_{\mathrm{dec}}$ とすると,まず $\mathbf{h}_{\mathrm{dec}}$ から単語の出現確率を計算し,正解の単純な文に対する交差エントロピー 誤差を計算する.再現器を用いる場合はこれに加えて, デコーダの出力ベクトル $\mathbf{h}_{\mathrm{dec}}$ を再現器に入力して得られた出力ベクトル $\mathbf{h}_{\mathrm{rec}}$ から単語の出現確率を計算し,エンコーダへの入力である複雑な文に対する交差エントロピー誤差を計算し,これらを同時に用いることでパラメータの更新を行う. 本研究では, $\mathrm{Tu}$ ら [12] と同様, 二つの損失の重み付き和をとることで,マルチタスク学習として全体を訓練する. 具体的には, 学習に用いるデータの事例数を $N, n(\leq N)$ 番目の入力, 出力, 対応するデコーダの出力をそれぞれ $\mathbf{x}^{n}, \mathbf{y}^{n}, \mathbf{h}_{\mathrm{dec}}^{n}$, エンコーダ・デコーダと再現器のパラメータを $\theta, \gamma$, 再現器の損失の重みを $\alpha$ としたとき,目的関数は以下のようになる.
$
J(\theta, \gamma)=\sum_{n=1}^{N}\left.\{\log P\left(\mathbf{y}^{n} \mid \mathbf{x}^{n} ; \theta\right)+\alpha \log P\left(\mathbf{x}^{n} \mid \mathbf{h}_{\mathrm{dec}}^{n} ; \gamma\right)\right.\}
$
## 4 評価実験
提案手法の有用性を検証するため,標準的なべンチマークデータセットを用いて実験を行った.
## 4.1 実験設定
モデルの訓練には,人間の編集履歴をもとに作成されているWikiSplit[5]を利用した。これは,単純な文が機械的に作成されている MinWikiSplit[6] や表 1 実験に用いたデータセットの事例数
BiSECT[7] よりも,流暢な文が多いと考えたためである.フィルタリングに用いる事前訓練済み NLI 分類モデルとして,MNLI で訓練されたRoBERTaを用いた1). WikiSplit に対して提案法によるフィルタリングを行ったところ,全体の事例数が 999,944 から 652,548 となり,データセット全体の約 $34.7 \%$ にたる 347,396 事例が除去された. 参考までに,実際に除去された事例を付録 $\mathrm{A}$ に示す。 その後,データセットを 8:1:1 の割合で訓練/開発/テストセットに分割した. フィルタリング前後のデータセットの事例数を表 1 に示す.
評価用データセットとして HSplit とWiki-BM を用いた. HSplit と Wiki-BM は同様に Wikipedia の文を用いて人手評価により構築されたデータセットであるが,Wiki-BM の方が多様な文を含んでおり比較的難しいベンチマークであるといえる. 提案手法の有用性を検証するため,NLI 分類によるデータセットのフィルタリングの実施の是非,及び訓練時の再現器の有無によって,4 通りの設定で実験と評価を行った. モデルにはエンコーダ・デコーダアーキテクチャの事前訓練済み言語モデルである T5[20]を用い,これを Split and Rephrase タスクで fine-tuning した. 比較対象として,原文をそのまま出力するシステム,ルールベースシステムである DisSim[15], および,Kim ら [7] の事前訓練済みモデルを用いた。実験の詳細は付録 Bを参照されたい。
従来研究に従い, 評価指標として BLEU[21], BERTScore[22], Flesch-Kincaid Grade Level (FKGL) [23] を用いた. また,生成文の品質評価において, BERTScore よりも人間評価との相関が高いと報告されている BLEURT[24] も用いた. 評価実験に用いた評価指標のうち,BLEU,BERTScore,BLEURT は正解の文に対する生成文の表層的あるいは意味的な品質を測る指標であり,高い方が良い。一方で, FKGL はシステムの生成文のみを用いて可読性を測る指標であり,小さい方が良い. 既存の評価指標に加えて, 本研究でフィルタリングに用いた NLI 分類は,システムの出力文の意味的妥当性を評価するた
1) https://huggingface.co/roberta-large-mnli
表 2 評価実験の結果. “WikiSplit-NLI” は NLI 分類によりフィルタリングした後の WikiSplitを表す.
めにも有用であると考えられることから,入力文に対してシステムが出力した各文がすべて含意と分類される割合も評価指標として用いた。この含意と分類される割合を含意割合と呼称する。さらに,システムが出力した単純な文の数(分割数)も計算した.
## 4.2 実験結果
実験の結果を表 2 に示す. HSplitではフィルタリングによって,BLEU,BERTScore,BLEURT,含意割合のすべてが向上した.また,再現器を導入することでも BLEU,BERTScore,BLEURT,含意割合のすべてが向上した. さらに,双方を用いた場合には,BLEU,BERTScore,BLEURT,含意割合において最も良い性能を達成し, 現在の世界最高性能を達成したシステムである Kim らの手法を上回った。一方,FKGL および文の分割数について注目すると,再現器を用いることでスコアが劣化している。これは再現器がモデルの出力に対して入力の情報を保持するように強制するため,分割数の少ない文が生成される割合が増加してしまったためだと考えられる. FKGLの評価値は文の分割数に大きく影響を受けるため, FKGL の値が悪化した要因も分割数が減少したことによるものと考えられる。
Wiki-BM でもフィルタリングによって BLEU と含意割合が向上することを確認でき,再現器を用いることで BLEU 值の改善も確認できた。一方,フィルタリングと再現器の双方を用いた場合の改善は HSplit ほど顕著ではなかった.ただし,HSplit の場合と同様に Kim らの手法を上回った。各モデルの出力の分割数を見ると,正解の平均分割数が 3.09 であるのに対し,提案手法はすべて 2.01 程度になっており,これは訓練に WikiSplitを用いている Kim らの手法も同様である. WikiSplit 中に含まれる一つの複雑な文あたりの単純な文の数の平均は 2.03 程度であることから,訓練に用いたデータセット中の分割数にモデルが影響を受けていると考えられる。
HSplit での実験結果から,NLI 分類によるフィルタリングと再現器を共に用いることでシステムの性能が向上し, 既存のシステムよりも性能が上回ることを確認した。一方で,Wiki-BMのように訓練デー タとは傾向が異なるデータで評価を行う場合には,既存システムからの改善幅が小さいので,改善の余地が残されていると考えられる。
## 5 おわりに
本研究では,Split and Rephrase タスクにおいて, モデルが入力に対して意味的に異なる文を出力してしまう問題に対して,NLI 分類モデルを用いたフィルタリング手法と, 再現器を用いて入力に対し意味的に異なる文をモデルが出力することを防ぐ手法を提案した。評価実験の結果,訓練データと似た傾向の HSplitにおいて,提案法は一貫してシステムの性能を向上させ,既存手法を上回る性能を達成した.特にデータセットのフィルタリングと再現器を共に用いた場合に最も高い性能を達成し, その有効性が示された。一方で,訓練データと傾向が異なるは Wkiki-BM では性能の改善幅が小さくシステムに改善の余地が残されていることが示唆された.
## 参考文献
[1] Jean Pouget-Abadie, Dzmitry Bahdanau, Bart van Merriënboer, Kyunghyun Cho, and Yoshua Bengio. Overcoming the Curse of Sentence Length for Neural Machine Translation using Automatic Segmentation. In Proceedings of SSST-8, Eighth Workshop on Syntax, Semantics and Structure in Statistical Translation, pp. 78-85, 2014.
[2] Philipp Koehn and Rebecca Knowles. Six Challenges for Neural Machine Translation. In Proceedings of the First Workshop on Neural Machine Translation (WMT), pp. 28-39. Association for Computational Linguistics, 2017.
[3] R. Chandrasekar, Christine Doran, and B. Srinivas. Motivations and Methods for Text Simplification. In The 16th International Conference on Computational Linguistics (COLING), 1996.
[4] Shashi Narayan, Claire Gardent, Shay B. Cohen, and Anastasia Shimorina. Split and Rephrase. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 606-616, 2017.
[5] Jan A. Botha, Manaal Faruqui, John Alex, Jason Baldridge, and Dipanjan Das. Learning To Split and Rephrase From Wikipedia Edit History. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 732-737, 2018.
[6] Christina Niklaus, André Freitas, and Siegfried Handschuh. MinWikiSplit: A Sentence Splitting Corpus with Minimal Propositions. In Proceedings of the 12th International Conference on Natural Language Generation (INLG), pp. 118-123, 2019.
[7] Joongwon Kim, Mounica Maddela, Reno Kriz, Wei Xu, and Chris Callison-Burch. BiSECT: Learning to Split and Rephrase Sentences with Bitexts. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6193-6209, 2021.
[8] Yinuo Guo, Tao Ge, and Furu Wei. Fact-aware Sentence Split and Rephrase with Permutation Invariant Training. 2020.
[9] Elior Sulem, Omri Abend, and Ari Rappoport. BLEU is Not Suitable for the Evaluation of Text Simplification. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 738-744, 2018.
[10] Li Zhang, Huaiyu Zhu, Siddhartha Brahma, and Yunyao Li. Small but Mighty: New Benchmarks for Split and Rephrase. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1198-1205, 2020.
[11] Katherine Lee, Orhan Firat, Ashish Agarwal, Clara Fannjiang, and David Sussillo. Hallucinations in Neural Machine Translation. 2018.
[12] Zhaopeng Tu, Yang P. Liu, Lifeng Shang, Xiaohua Liu, and Hang Li. Neural Machine Translation with Reconstruction. In Proceedings of the 31th AAAI Conference on Artificial Intelligence, 2017.
[13] Roee Aharoni and Yoav Goldberg. Split and Rephrase: Better Evaluation and Stronger Baselines. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 719-724, 2018.
[14] Jiatao Gu, Zhengdong Lu, Hang Li, and Victor O.K. Li. Incorporating Copying Mechanism in Sequence-to-Sequence Learning. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 1631-1640, 2016.
[15] Christina Niklaus, Matthias Cetto, André Freitas, and Siegfried Handschuh. Transforming Complex Sentences into a Semantic Hierarchy. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 3415-3427, 2019.
[16] Samuel R. Bowman, Gabor Angeli, Christopher Potts, and Christopher D. Manning. A large annotated corpus for learning natural language inference. In Proceedings of the 2015 Conference on
Empirical Methods in Natural Language Processing (EMNLP), pp. 632-642, 2015
[17] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL), pp. 4171-4186, 2019
[18] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, M. Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A Robustly Optimized BERT Pretraining Approach. arXiv:1907.11692, 2019.
[19] Kazuki Matsumaru, Sho Takase, and Naoaki Okazaki. Improving Truthfulness of Headline Generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 1335-1346, 2020.
[20] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the Limits of Transfer Learning with a Unified Textto-Text Transformer. Journal of Machine Learning Research (JMLR), Vol. 21, No. 140, pp. 1-67, 2020.
[21] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a Method for Automatic Evaluation of Machine Translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 311-318, July 2002.
[22] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, and Yoav Artzi. BERTScore: Evaluating Text Generation with BERT. In International Conference on Learning Representations (ICLR), 2020.
[23] J. Peter Kincaid, Robert P. Fishburne, R L Rogers, and Brad S. Chissom. Derivation of New Readability Formulas (Automated Readability Index, Fog Count and Flesch Reading Ease Formula) for Navy Enlisted Personnel. 1975.
[24] Thibault Sellam, Dipanjan Das, and Ankur Parikh. BLEURT: Learning Robust Metrics for Text Generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 7881-7892, 2020.
[25] Adam Paszke, Sam Gross, Francisco Massa, Adam Lerer, James Bradbury, Gregory Chanan, Trevor Killeen, Zeming Lin, Natalia Gimelshein, Luca Antiga, Alban Desmaison, Andreas Kopf, Edward Yang, Zachary DeVito, Martin Raison, Alykhan Tejani, Sasank Chilamkurthy, Benoit Steiner, Lu Fang, Junjie Bai, and Soumith Chintala. PyTorch: An Imperative Style, HighPerformance Deep Learning Library. In Advances in Neural Information Processing Systems (NeurIPS), pp. 8024-8035. 2019.
[26] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander M. Rush. Transformers: State-of-the-Art Natural Language Processing. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP): System Demonstrations, pp. 38-45, 2020.
[27] Ilya Loshchilov and Frank Hutter. Decoupled Weight Decay Regularization. In International Conference on Learning Representations (ICLR), 2019.
[28] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A Fast, Extensible Toolkit for Sequence Modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (NAACL-HLT) Demonstrations, pp. 48-53, 2019.
表 3 NLI 分類によるフィルタリングにより除去された WikiSplit[5] 中の実際の事例.
& & \\
表 4 HSplit[9] の実際の事例と,各システムごとの生成文. “+NLI”はフィルタリングを行ったデータセットで訓練したモデル,“+再現器”は再現器を用いたモデル,“+NLI+再現器”はその両方を用いて訓練したモデルを表す.
## Aフィルタされた実際の事例
NLI 分類によるフィルタリングによって実際に除去された WikiSplit[5] 中の事例を表 3 に示す.
## B 評価実験の詳細
実験のためのエンコーダ・デコーダモデルとして,T5[20] の small サイズ(T5-small)を用いた. T5-small のパラメータ数は 6000 万である. 実験には PyTorch[25] を用い,T5 の事前訓練済みモデルとして Transformers[26] で公開されている事前訓練済み重み2)を用いた,T5 は事前訓練時に task prefix と呼ばれる入力文に対する接頭辞を付加してマルチタスク学習を行っているが,単一のタスクで fine-tuning する際は prefix を用いないのが一般的であるため3)4),prefix を入力文に付加せずに訓練を行った. fine-tuning の設定として,バッチサイズを 16,最適化手法に AdamW[27] を用い,訓練ステップ数を Kim ら [7] の設定と同様の 10 万とした.また,学習率を $10^{-5}$ として,訓練開始時点での学習率を 0 とし,全訓練ステップのうち $10 \%$ で設定した值まで線形に学習率を増加させる学習率スケジューリ
ング手法の warm-up を用いた. 再現器の損失にかける重みである $\alpha$ は 1 に設定した. 1 万ステップごとに開発セットでの評価を行い,最も開発セットでの損失が小さいチェックポイントを最終的な評価に用いた. 評価時の文生成には,最も基本的な文生成の性能を評価するため,頜欲法を用いて行った.Tu ら [12] は再現器を文生成時のビームサーチにおける各候補文のスコアリングのためにも用いたが,今回は貪欲法で文生成を行うため,再現器は訓練にしか使用せず,評価時にはエンコーダ・デコーダのみを用いて文生成を行った。
比較対象である Kim ら [7] のモデルとして,著者らが公開する実装5)から,fairseq[28] で実装された事前訓練済みモデルを用いた。評価時の文生成は, Kim ら [7] の設定と同様,トライグラムが連続しないように制約を加えた上で,窓幅 10 のビームサー チをすることで行った.
## C システムごとの実際の生成文
表 2 で用いた各システムごとの,複雑な文が入力された時の実際の生成文を表 4 に示す.
| NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D5-5.pdf | # イベントの社会的影響度を用いた 伝記生成のための内容選択
川添正太郎徳永 健伸
東京工業大学 情報理工学院
\{kawazoe.s.aa@m, take@c\}.titech.ac.jp
## 概要
本研究では,人物に関するイベント集合を入力とし,イベントの社会的影響度によって伝記生成のための内容選択を行う.実験では,人物に言及するニュース速報ツイートをイベントとし,その「いいね数」を社会的影響度として,重要なイベントの選択を行った. Wikipedia の記事の出典の集合に対して評価を行い,社会的影響度によって重要なイベントを選択できることを示す.
## 1 はじめに
自然言語生成(Natural Language Generation; 以下 NLG と略す)は,自然言語で書かれたテキストを生成するコンピュータシステムを扱う,計算言語学の一分野である [1]. 内容選択 (content selection) は, NLG の部分問題であり, 入力から言及するべき重要な情報を選択する過程である.たとえば,株価の概況生成において株価のチャートが暴騰している部分を選択したり,ニュース記事の要約において重要な出来事が記述されている部分を選択する。
しかし,NLGの入力が何なのかは曖昧であり $[2,3]$, また重要度とは何を意味するのかも曖昧である $[4,5]$. 本研究では,NLGの一種である伝記生成 (biography generation) において,これらの問いに部分的に答えることを目指す。伝記は人物を紹介するテキストである.たとえば,Wikipediaの「バラク・オバマ」の記事 [6] には,経歴,大統領時代の仕事,家族のことなどが記述されている.以下に記事に含まれている文を示す。
2009 年 10 月 9 日にノルウェー・ノーベル委員会はオバマの「核無き世界」に向けた国際社会への働きかけを評価して 2009 年度のノーベル平和賞を彼に受賞させることを決定したと発表した。
この文は,人間によって,どのような入力から,どのような重要度にもとづいて,選択されたのだろうか. ノーベル平和賞を受賞することは,オバマにとって重要なイベントであることは明らかだろう。 このように,人間が情報の内容を理解してそれを重要だと判断したとき,そのような重要度のことを内在的重要度 $[5,7]$ と定義する.
## 2 問題
伝記生成の既存研究の問題は,内在的重要度による内容選択を行っていないことである。これは,裏を返せば,内在的重要度を用いなくても内容選択ができてしまうような入力を用いているということでもある。一方,オバマの例からわかるように,人間は内在的重要度による内容選択を行っている. 本研究では,内在的重要度によって内容選択を行うことにより,人間の内容選択を再現することを目的とする. 既存研究におけるこの問題は,以下で示すように,二つの場合に分けられる。
第一に,入力において情報の絞り込みがほとんど終わっている場合である.たとえば,WIKIBIO [8] は,Wikipedia の人物に関するインフォボックス(属性と値の組から構成された表)を入力としている. しかし,インフォボックスの時点でその人物に関する重要な情報がまとまっており,人物に関するある種の要約となっている. WikiSum [9] は,Wikipedia の記事(ただし,人物に限らない)における出典の集合が入力として与えられ,その記事の最初のセクションを出力する. いずれの場合も,入力の時点で内容選択はほとんど終わっている.
第二に,表層的重要度によって内容選択を行っている場合である.表層的重要度とは,内容を見なくても計算できるような重要度のことである。たとえば,事前に指定された型にあてはまるような情報を重要とみなすトップダウンな手法は,内容
を見なくても重要度を計算できる. Zhou ら [10] は, DUC2004 [11]のタスク 5 において,ニュース記事の文に対し, 10 クラス (fame, education, nationality, work など)への分類を行っている。これは,伝記にある種の型を想定し,伝記的かどうかを判断している.しかし, トップダウンな手法は人物個人の背景を考慮せず,人物一般にあてはまる形で重要度を計算している。 たとえば,オバマがノーベル平和賞を受賞することの内在的重要度は,オバマ個人の背景 (核廃絶に対する働きかけへの評価,あまり成果を出していない中での早すぎる受賞,そのことへの批判など)に依存するだろう.
また,入力における情報の位置や頻度を用いるボトムアップな手法も,内容を見なくても重要度を計算できる。つまり,内在的重要度と相関する表層的な情報を用いることによって内容選択を行っている。これは,入力を作成した人間が重要だと考えた情報は,何かしらの表層的な特徴をもって入力に現れるからである. たとえば, WIKIBıO では,位置と内在的重要度が相関している [12]. つまり,大力であるインフォボックスはその作成者が重要な情報を上に配置する傾向にあるため,上の方にある情報ほど,正解テキストで言及されやすい.DUC2004の夕スク 5 を解いている代表的な手法 $[10,13]$ は,単語頻度を利用して重要度を計算する。つまり,ニュー ス記事に対して単語頻度ベースのスコアを計算し, スコアが高い単語が含まれる文を抽出している。しかし, 入力に重要な情報が頻出するのはコーパスがそのような性質を偶然持っていただけであり,また重要な単語が含まれている文が重要とは限らないため,内在的重要度を扱っているとはいえない。
## 3 仮説
以上の問題が生じた原因は,伝記生成の内容選択を,計算機で解くことができる簡単なタスクへと落とし込んだことによって,実際に人間によって行われている内容選択から乘離してしまったことだと思われる. したがって, 人間によって書かれた伝記が,どのような入力から,どのような重要度にもとづいて,生成されているかを考察する必要がある。
伝記生成の内容選択では, 社会的影響度のあるイベントが発生するたびに,そのイベントの内容が伝記に追記される.たとえば,オバマがノーベル平和賞を受賞したというイベントが起こると,それが重要だと判断した Wikipedia 編集者が,その内容を伝記に追記したと考えられる. 社会的影響度が高いイベントほど,記事に追記される確率が高くなる。このことから,入力を人物に関するイベントの集合とし,重要度をイベントの社会的影響度と考えるのが妥当だろう,イベント集合は,既存研究に比べ,情報の絞り込みがあまり終わっていない。また,イべントの社会的影響度は内在的重要度と直接関係すると考えらえる.実験によって検証するべき仮説は以下の通りである。
イベント集合から伝記を生成する際の内容選択において,社会的影響度は,他の表層的重要度よりも,重要な情報を選択する能力が高い.
## 4 実装
本研究で実装した内容選択システムは,ある人物 iの URI (たとえば, http://dbpedia.org/resource/ Barack_Obama)がクエリとして与えられたとき,入力すなわち人物 $i$ に関するイベント集合 $X$ を収集し,そこから人物 $i$ の伝記で言及されるべきイベントの集合 $\tilde{Y}(\subseteq X)$ を選択する.
ツイッターによるイベントの収集入力すなわち人物 $i$ に関するイベント集合 $X$ には,ニュース速報をツイートするツイッターアカウント CNN Breaking News (@cnnbrk)のうち,人物 $i$ に言及しているすべてのツイート(リツイートを除く)を用いる。ただし,DBpedia Spotlight [14]を用いてツイートのテキストに対してエンティティリンキングを行うことで,ツイートが人物へ言及しているかどうかを判定している. ツイート $t$ が持つ情報のうち, 本研究で利用するものは,(1) テキスト $s_{t}$, (2) 日付 $d_{t}$ ,(3)いいね数 $n_{t}$ の三つである.社会的影響度にはいいね数を用いる。ここで,イベントの社会的影響度を計算するのは難しいため,いいね数が与えられているとしている.
スコアリング各ツイート $t \in X$ に対してスコアを割り当て,スコアが大きい順に並べた上位 $p(\%)$ のツイートを取得して内容選択を行う,スコアリングの方法として以下の 7 種類を検討した。
・Random は,ランダムにスコアを割り当てる。
・Newest は,新しいツイートほど良いスコアを割り当てる。一般に,新しいツイートほどいいね数が多くなるため,時間の影響を差し引くためにこれをべースラインに加える。
・Oldest は,古いツイートほど良いスコアを割り
当てる.
-TF-IDF は,ツイートのテキストに含まれる各単語の TF-IDF 值の平均をスコアとする.TF-IDF 値の計算における文書は,各人物に対し,その人物が言及されているすべてのツイートのテキストを結合したものである. このとき,一文書が一人物に対応する.ある人物に対して, TF が高い単語は,ツイート中で人物名と頻繁に共起し,IDF が高い単語は,他の人物名とはあまり共起しない. したがって, TF-IDF 值が高い単語は,その人物に関するキーワードであると解釈できる(付録 $\mathrm{A}$ )。
・ LexRank では, LexRank [15] で計算されたスコアを用いる. ツイートのテキストを文とみなし,ツイートのテキストを結合したものを文書とみなして, continuous LexRankを適用する。
・Like は,いいね数をスコアとする.
・ LikeRatio は,いいね数を正規化したスコアを用いる. 分母は,当該ツイートの月における CNN Breaking News のすべてのツイートの平均いいね数である。
## 5 評価
30 個以上のツイートで言及されている 72 人の人物を評価の対象とする(付録 B).
人物 $i$ に対し,正解のイベント集合 $Y$ には,人物 $i$ に関する Wikipedia の記事の出典の集合を用いる. 出典には, 出典となった記事のタイトルや URL,記事が書かれた日付などが含まれている(付録 C). 出典 $c$ が持つ情報のうち, 本研究で利用するものは,(1) 記事タイトルのテキスト $s_{c}$ ,(2)記事が書かれた日付 $d_{c}$ の二つである. ただし, $d_{\text {oldest }} \leq d_{c} \leq d_{\text {newest }}$ となる出典のみを用いる.ここで, $d_{\text {oldest }}$ および $d_{\text {newest }}$ はそれぞれ人物 $i$ に関するツイートのうち最も古い日付および最も新しい日付である。
評価指標には,精度 (precision) と再現率 (recall)を用いる. ランキング上位 $p(\%)$ のイベントを選択するとき,人物 $i$ に対し,精度 $P^{i}$ および再現率 $R^{i}$ を計算する。 そして,すべての人物にわたって精度および再現率の平均 $\frac{1}{N} \sum_{i=1}^{N} P^{i}$ および $\frac{1}{N} \sum_{i=1}^{N} R^{i}$ をとる. ただし, $N(=72)$ は人物の数である. 上記の手続きを, $p$ を 10 から 100 まで 10 刻みで変化させて行い,平均の PR 曲線 (precision-recall curve) を描く.精度と再現率の計算の際,ツイートと出典がイベ
図 1 PR曲線
ントとして一致しているかどうかの判定を実装する必要がある,イベントは「いつ・どこで・誰が・誰に・何をした」と表現できる $[16,17]$.「誰が」あるいは「誰に」は,人物 $i$ になる可能性が高い。「いつ」はツイートおよび出典の日付であると考えられる.「どこで」と「何をした」は,テキストに記載されている可能性がある。これらを踏まえ,一致判定方法 DateEventTermMatch を説明する。
DateEventTermMatch では,日付(年月日)が一致し,かつイベント用語が一致したら,イベントも一致したと考える,イベント用語は,動作や事件の発生を特徴付ける単語である [16]. Li ら [16] にならい,イベント用語は動詞および動作名詞 (action noun)とする.この一致判定では,「いつ(日付)」「誰が (人物)」「何をした (イベント用語)」の一致に着目している. 人物 $i$ に関する精度 $P^{i}$ は以下の式で計算する。
$
P^{i}=\frac{\sum_{t \in \tilde{Y}} \mathbb{1}\left(\exists_{c \in Y}\left(d_{t}=d_{c} \wedge E T_{t} \cap E T_{c} \neq \phi\right)\right)}{|\tilde{Y}|}
$
ただし,$E T_{t}$ はツイート $t$ のテキストに含まれるイベント用語の集合 $\left(E T_{c}\right.$ も同様 $) , \phi$ は空集合,11 指示関数(引数の条件が真ならば 1 ,偽ならば 0 を返す関数)である. 再現率も同様に計算する.
## 6 結果
PR 曲線を図 1 に示す. 図から,いいね数を用いた手法(Like と LikeRatio)が,他の手法を上回っていることがわかる.これは,イベント集合からの内容選択において,社会的影響度のほうが,他の表層的重要度よりも重要な情報を選択する能力が高いことを示している.
表 1 に Like と TF-IDF の比較を示す. 上のツイー トは, $p=20(\%)$ において Like で真陽性となるが
表 1 Likeで取得できたツイート(上)と TF-IDF で取得できたツイート (下).
ツイート (いいね数)/ /出典
An independent autopsy into the death of George Floyd found that he died from "asphyxiation from sustained pressure," which contradicts the county medical examiner's preliminary report (17415) / Independent autopsy reveals George Floyd died from 'asphyxiation' as lawyers call for first-degree murder charges
Serena Williams wins 5th Wimbledon title. (73) / Wimbledon 2012 - Serena Williams stretched to three sets, wins 5th title
表 2 Likeで偽陽性となったツイート.
ツイート (いいね数)
Trump appears to be skipping a side-event at the G20 virtual summit focused on pandemic preparedness. The President has just arrived at his golf course in Virginia. (45540)
TF-IDF で偽陰性となったものである.太字は人物に関して TF-IDF 值が上位 30 位以内の単語であり, これは人物に関するキーワードとみなせる。キー ワードとなっているのは人物名を除くと“death” のみである。これは,Geroge_Floyd は白人警官に殺害されて死亡したことがたびたび注目されているためである。それ以外の単語は専門用語などが多く, キーワードにはならないため, TF-IDF で偽陰性となったと考えられる。 しかし,Likeで真陽性となったのは,このイベントの社会的影響度が高いからだと考えられる。
一方,下のツイートは,TF-IDF で真陽性となるが Likeで偽陰性となったものである. Serena_Williams はテニス選手であり, “Wimbledon”はテニス大会の名前である.この大会は定期的に行われており,Serena_Williams は何度も優勝争いをしているため, “wins”, “Wimbledon”, “itlle”は, Serena_Williams に関するツイートに何度も出現する. よって,これらの単語の TF-IDF 値が高くなり, このツイートが TF-IDF で真陽性となったと考えられる。一方,これはLikeで(そして LikeRatioでも)偽陰性となった.原因としては,このツイートの日付は 2012 年 7 月 7 日と古く,いいね数と時間には相関があるため,いいね数が小さくなったのだと考えられる。これは,いいね数による内容選択は,ツイッターの性質上,古いツイートを取得しにくいことを示している。
$p=20(\%)$ において Like で偽陽性になったツイー トのうち,スコア(いいね数)が大きいものを表 2 に示す.このツイートは, Donald_Trump がコロナ対表 3 社会的影響度が高いイベント用語の例.
ツイート/出典
Israeli Prime Minister Benjamin Netanyahu will be indicted on corruption charges, pending a final hearing / Israeli Prime Minister Benjamin Netanyahu to be indicted on corruption charges
Former Minneapolis Police Officer Derek Chauvin is found guilty of murder and manslaughter in the death of George Floyd / Derek Chauvin found guilty of George Floyd's murder
British Prime Minister Boris Johnson has tested positive for coronavirus. He says on Twitter that he is isolating with "mild symptoms." / PM Boris Johnson tests positive for coronavirus
応を放棄してゴルフに行って遊んでいるという印象を与えるため,「炎上」していると考えられる。しかし,このツイートは偽陽性となった。これは,炎上しているツイートはいいね数が大きくなるが,それが必ずしも伝記にとって重要であることを意味しない,ということを示唆している.
$p=20(\%)$ において真陽性となったツイートのうち, Newest より Like に多く出現するイベント用語として, “charge", “find", “test”が挙げられる(付録 D).これらのイベント用語に対応する例を表 3 に示す. “charge”は「起訴」, “find” は "found guilty” つまり「有罪になる」, “test” は “has tested positive for coronavirus”つまり「コロナ陽性と出る」という意味で,それぞれ用いられる。いずれも,炎上しやすいイベントを表しているため,いいね数が大きくなりやすい,そして,表に示したツイートはすべて真陽性である。これは,社会的影響度によって伝記生成の内容選択ができることを示している.
## 7 おわりに
本研究では人物に言及する CNN Breaking News のツイートをイベントとし,そのいいね数を社会的影響度として,伝記の内容選択を行った. 実験により,社会的影響度は,他の表層的重要度よりも,重要なイベントを選択する能力が高いことを示した.
今後の課題として,(1) ツイッターによるイベント収集の網羅性を向上させること,(2)トップダウンな内容選択と社会的影響度によるボトムアップな内容選択を組み合わせること,(3) 伝記生成にとって適切なイベントの単位 (atomic event) [17, 18] を明確にすること,(4) ツイートのテキストが与えられたとき,そのいいね数を予測すること,(5) 多数決による重要度の計算 [19] を回避することが挙げられる。
## 参考文献
[1] Ehud Reiter and Robert Dale. Building natural language generation systems. Cambridge university press, 2000.
[2] David D. McDonald. Issues in the choice of a source for natural language generation. Computational Linguistics, Vol. 19, No. 1, pp. 191-197, 1993.
[3] Roger Evans, Paul Piwek, and Lynne Cahill. What is NLG? In Proceedings of the International Natural Language Generation Conference, pp. 144-151, Harriman, New York, USA, July 2002. Association for Computational Linguistics.
[4] Maxime Peyrard. A simple theoretical model of importance for summarization. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 1059-1073, Florence, Italy, July 2019. Association for Computational Linguistics.
[5] Markus Zopf. Towards Context-free Information Importance Estimation. PhD thesis, Technische Universität, Darmstadt, August 2019.
[6] バラク・オバマ - wikipedia. https: //ja.wikipedia.org/w/index.php?title=\%E3\% 83\% $90 \%$ Е 3\% 83\%A9\%E3\%82\%AF\%E3\%83\%BB\%E3\%82\%AA\%E3\% $83 \% 90 \% E 3 \% 83 \%$ 9E\&oldid=87303693.
[7] Kai Hong and Ani Nenkova. Improving the estimation of word importance for news multi-document summarization. In Proceedings of the 14th Conference of the European Chapter of the Association for Computational Linguistics, pp. 712-721, Gothenburg, Sweden, April 2014. Association for Computational Linguistics.
[8] Rémi Lebret, David Grangier, and Michael Auli. Neural text generation from structured data with application to the biography domain. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1203-1213, Austin, Texas, November 2016. Association for Computational Linguistics.
[9] Peter J. Liu, Mohammad Saleh, Etienne Pot, Ben Goodrich, Ryan Sepassi, Lukasz Kaiser, and Noam Shazeer. Generating wikipedia by summarizing long sequences. In 6th International Conference on Learning Representations, ICLR 2018, Vancouver, BC, Canada, April 30 - May 3, 2018, Conference Track Proceedings. OpenReview.net, 2018.
[10] Liang Zhou, Miruna Ticrea, and Eduard Hovy. Multidocument biography summarization. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, pp. 434-441, Barcelona, Spain, July 2004. Association for Computational Linguistics.
[11] Paul Over and James Yen. An introduction to duc-2004. National Institute of Standards and Technology, 2004.
[12] Tianyu Liu, Kexiang Wang, Lei Sha, Baobao Chang, and Zhifang Sui. Table-to-text generation by structure-aware seq2seq learning. In Sheila A. McIlraith and Kilian Q. Weinberger, editors, Proceedings of the Thirty-Second AAAI Conference on Artificial Intelligence, pp. 48814888, New Orleans, Louisiana, USA, 2018. AAAI Press.
[13] Fadi Biadsy, Julia Hirschberg, and Elena Filatova. An unsupervised approach to biography production using
Wikipedia. In Proceedings of ACL-08: HLT, pp. 807815, Columbus, Ohio, June 2008. Association for Computational Linguistics.
[14] Joachim Daiber, Max Jakob, Chris Hokamp, and Pablo N. Mendes. Improving efficiency and accuracy in multilingual entity extraction. In Proceedings of the 9th International Conference on Semantic Systems (I-Semantics), 2013.
[15] Günes Erkan and Dragomir R. Radev. Lexrank: Graphbased lexical centrality as salience in text summarization. J. Artif. Intell. Res., Vol. 22, pp. 457-479, 2004.
[16] Wenjie Li, Mingli Wu, Qin Lu, Wei Xu, and Chunfa Yuan. Extractive summarization using inter- and intra- event relevance. In Proceedings of the 21st International Conference on Computational Linguistics and 44th Annual Meeting of the Association for Computational Linguistics, pp. 369-376, Sydney, Australia, July 2006. Association for Computational Linguistics.
[17] Vasileios Hatzivassiloglou and Elena Filatova. Domainindependent detection, extraction, and labeling of atomic events. 2003.
[18] Elena Filatova and John Prager. Tell me what you do and I'll tell you what you are: Learning occupation-related activities for biographies. In Proceedings of Human Language Technology Conference and Conference on Empirical Methods in Natural Language Processing, pp. 113-120, Vancouver, British Columbia, Canada, October 2005. Association for Computational Linguistics.
[19] Ani Nenkova and Rebecca Passonneau. Evaluating content selection in summarization: The pyramid method. In Proceedings of the Human Language Technology Conference of the North American Chapter of the Association for Computational Linguistics: HLT-NAACL 2004, pp. 145-152, Boston, Massachusetts, USA, May 2 - May 7 2004. Association for Computational Linguistics.
[20] Barack obama - wikipedia. https://en.wikipedia. org/w/index.php?title=Barack_Obama\&oldid= 1064944028.
## A キーワードの例
表 4 TF-IDF 值が上位 20 位となる単語. $i$ は人物の URI(http://dbpedia.org/resource/を省略)である.
$i \quad$ キーワード
Donald_Trump trump, president, says, donald, house, white, campaign, follow live, russia, updates, north, cnn, michael, korea, impeachment mueller, cohen, new, order
Barack_Obama obama, president, says, barack, watch, cnn, isis, iraq house, live, white, military, romney, make, ukraine, address jobs, syria, iran, signs
Mitt_Romney romney, mitt, santorum, gingrich, paul, projects, primary, votes cnn, win, obama, electoral, gop, caucuses, counted, says delegates, poll, jobs, 11
## B 人物の例
100 個以上のツイートで言及されている人物を表 5 に示す. $i$ は人物の URI(http://dbpedia.org/resource/を省略), $|X|$ はツイート数, $|Y|$ は出典数, $\bar{n}_{t}$ は平均いいね数, $d_{\text {oldest }}$ は最古の日付, $d_{\text {newest }}$ は最新の日付である.
## C 出典の例
On August 23, 2008, Obama announced his selection of Delaware Senator Joe Biden as his vice presidential running mate.
上の文 [20] の出典は以下のようになる.
$\{$ \{cite news $\mid$ access-date $=$ September 20,2008
|url=https://www.nytimes.com/2008/08/24/us/politics/24biden.html
$\mid$ last1 $=$ Nagourney $\mid$ first1 $=$ Adam $\mid$ first2 $=$ Jeff $\mid$ last2 $=$ Zeleny $\mid$ work $=$ The New York Times
|date $=$ August 23, $2008 \mid$ title $=$ Obama Chooses Biden as Running Mate
|archive-url= https://web.archive.org/web/20090401222653/http://
www.nytimes.com/2008/08/24/us/politics/24biden.html|archive-date=April 1, 2009 |url-status=live \}\}
D イベント用語の例
表 $6 p=20(\%)$ において真陽性となったツイートのイベント用語. 括弧内は頻度.
| NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D6-1.pdf | # Homophily に基づくサイレントマジョリティの意見推定
向井 穂乃花 ${ }^{1}$ 磯沼 大 $^{1}$ 森 純一郎 ${ }^{1,2}$ 坂田 一郎 ${ }^{1}$
1 東京大学 2 理研 AIP
mukai-honoka377@g.ecc.u-tokyo.ac.jp isonuma@ipr-ctr.t.u-tokyo.ac.jp
mori@mi.u-tokyo.ac.jp isakata@ipr-ctr.t.u-tokyo.ac.jp
## 概要
本研究はソーシャルメディア上のサイレントユー ザの意見を推定するための意見生成モデルを提案する。提案モデルでは、同じ意見を持つユーザはコミュニティを形成しやすいという “Homophily”に基づき、ユーザの意見をネットワーク埋め込みとトピックでモデル化する。これにより、サイレントユーザのネットワーク埋め込みをモデルに入力することで、様々なトピックに関する意見の推定を試みる。米国大統領選挙期間中のツイート文を対象に推定精度を検証した結果、既存の文生成モデルと同程度の性能が得られ、ネットワーク埋め込みがユーザの意見のモデル化に十分な情報を持つことが示唆された。更に潜在空間上のユーザの位置によって、 ユーザの意見が変化していく様子が確認された。
## 1 はじめに
近年、ソーシャルメディア上の人々の意見は、個人の情報収集源として影響力を増しており、マスメディアを代替する情報源として活用されることも多い。一方、ソーシャルメディアは社会の分断に加担する負の側面もあり、自分と同様の価値観を持つ意見ばかりに囲まれるフィルターバブル現象などを通じて、ユーザを時に過激な言動に走らせる $[1,2,3]$ 。 しかし、実際には過激なユーザは少数で、多数は穏健な考えを持つが意見表明を積極的に行わないサイレントマジョリティであり、Twitter 上では約 $40 \%$ のユーザがサイレントユーザだという報告もある $[4,5]$ 。サイレントマジョリティの意見推定は、ソー シャルメディアを情報収集源として活用すると共に、人々の視野を広げ過激な行動を防ぐための重要なタスクである。
サイレントマジョリティの意見推定の文脈において、既存研究 [6] では同じ意見や態度を持つユーザはコミュニティを形成しやすいという “Homophily”[7]
図 1: Bowman らの文生成モデル (a) と
提案する意見生成モデル (b) の対比
という性質を活用し、サイレントユーザの感情極性推定を試みている。しかし同じ感情極性を示していても、その根拠が異なる場合は多い。例えば米国で反共和党を掲げる人々も、その理由は白人至上主義的な考えへの反発や、COVID-19への対応策への批判など多岐にわたる。こうした思考プロセスを含めた意見を把握するには、挑戦的であるものの極性分類に留まらず文生成による意見推定が望ましい。
そこで、本研究は Bowman らによる文生成モデル [8] を応用することで、サイレントユーザの意見推定を試みる。図 1 にその概念図を示す。Bowman らは、文の潜在表現がガウス分布に従うと仮定し、 Variational Autoencoder (VAE[9,10]) の枠組みで文とその潜在表現間の写像を学習している。これにより、例えば図 1 (a)のような 2 次元の潜在空間が与えられた時、 $x_{1}, x_{2}$ 間の等間隔上に位置する潜在表現からは、 $\boldsymbol{x}_{1}, \boldsymbol{x}_{2}$ から復号された文に対し意味が少しずつ変化した文が復号されることを明らかにした。一方、本研究はソーシャルメディア上のユー ザの潜在表現をネットワーク埋め込みで獲得し、 ユーザの潜在空間上における意見分布をモデル化する。Homophily を仮定すると、潜在空間上で近接す
図 2: 提案モデルの概要図
るユーザ(ネットワーク上で近接するユーザ)は類似する意見を持つため、ユーザの潜在表現と意見間の写像を学習することで、サイレントユーザの意見を推定できると考えた。例えば図 1(b)における $x_{3}, x_{4}$ のように顕在化しているユーザの意見を学習することで、その中間に位置するサイレントユーザの意見推定を図る。
評価実験では、米国大統領選挙期間中のツイート文をユーザの意見とみなし、ユーザのネットワーク埋め込み表現をもとにツイート文を推定する実験を行った。評価データセット中のツイート文について Bowman らの文生成モデルと同程度の尤度が得られることを確認し、サイレントユーザの意見推定に提案法が有効であることが示唆された。
## 2 事前準備
まず、本研究の基礎となる Bowman らによる文生成モデル(VAE-LM)について解説する。Bowman らは文 $\boldsymbol{w}_{s}$ の生成過程を以下でモデル化している。
1. 文の潜在表現 $\boldsymbol{x}_{s} \in \mathbb{R}^{d}$ をサンプル:
$
\boldsymbol{x}_{s} \sim \mathcal{N}\left(\boldsymbol{x}_{s} \mid \boldsymbol{\mu}_{0}, \boldsymbol{\Sigma}_{0}\right)
$
2. $\boldsymbol{x}_{s}$ を復号し、文 $\boldsymbol{w}_{s}$ をサンプル:
$
\boldsymbol{w}_{s} \mid \boldsymbol{x}_{s} \sim p\left(\boldsymbol{w}_{s} \mid \boldsymbol{x}_{s}\right)=\operatorname{Decoder}\left(\boldsymbol{x}_{s}\right)
$
ただし、 $\boldsymbol{\mu}_{0}=\mathbf{0}, \boldsymbol{\Sigma}_{0}=\boldsymbol{I}$ はガウス分布のパラメータである。この生成モデルを VAE の枠組みで学習することによって、図 1 (a)に示すように、2つの文の潜在表現の中間点から、2 文と意味が似た文を復号できることを明らかにした。
これを発展させ、Tang らは文の潜在表現をトピック $z_{s}$ と文構造などその他の特徵 $\boldsymbol{x}_{s}$ に分解できると仮定し、文の生成過程を以下でモデル化した (TATGM; Topic Augmented Text Generation Model[11])。
1. 文の潜在表現 $\boldsymbol{x}_{s} \in \mathbb{R}^{d}$ をサンプル:
$
\boldsymbol{x}_{s} \sim \mathcal{N}\left(\boldsymbol{x}_{s} \mid \boldsymbol{\mu}_{0}, \boldsymbol{\Sigma}_{0}\right)
$
2. 文のトピック $z_{s} \in\{1, \ldots, K\}$ をサンプル:
$
z_{s} \sim \operatorname{Cat}\left(\boldsymbol{\theta}_{\boldsymbol{s}}\right)
$
3. $\boldsymbol{x}_{s}, z_{s}$ を復号し、文 $\boldsymbol{w}_{s}$ をサンプル:
$
\boldsymbol{w}_{s} \mid \boldsymbol{x}_{s}, z_{s} \sim p\left(\boldsymbol{w}_{s} \mid \boldsymbol{x}_{s}, z_{s}\right)=\operatorname{Decoder}\left(\left[\boldsymbol{x}_{s} ; \boldsymbol{z}_{s}\right]\right)
$
ただし、 $\boldsymbol{\theta}_{s} \in \Delta^{K-1}$ は文 $s$ のトピック分布で、Neural Topic Model $[12,13]$ により推定する。また、 $\left[\boldsymbol{x}_{s} ; \boldsymbol{z}_{s}\right]$ は $\boldsymbol{x}_{s}$ と $z_{s}$ の one-hot 表現 $z_{s}$ を結合したべクトルである。トピックを陽にモデル化することで、 $\boldsymbol{x}_{s}$ を固定して $z_{s}$ を変化させると、文構造などは変化させずに、トピックのみを変化させることを可能にした。
一方、本研究は TATGM をべースに、文の潜在表現 $\boldsymbol{x}_{s}$ をユーザの潜在表現(ネットワーク埋め込み表現) $\boldsymbol{x}_{u}$ に置き換える。これにより、ソーシャルネットワーク上の位置によって特徴づけられたあるユーザが、任意のトピックを与えられたときに、どのような意見を発するかについてモデル化する。
## 3 提案モデル
提案モデル概要を図 2 に示す。本研究では、ユー ザ $u$ の意見 $\boldsymbol{w}_{s}$ を以下の生成過程でモデル化する。
$\cdot$各ユーザ $u \in\{1, \ldots, U\}$ について:
1. ユーザの潜在表現 $x_{u} \in \mathbb{R}^{d}$ をサンプル:
$
\boldsymbol{x}_{u} \sim \mathcal{N}\left(\boldsymbol{x}_{u} \mid \boldsymbol{\mu}_{0}, \boldsymbol{\Sigma}_{0}\right)
$
・ユーザ $u$ の各意見 $s \in\left.\{1, \ldots, S_{u}\right.\}$ について:
2. 意見のトピック $z_{s} \in\{1, \ldots, K\}$ をサンプル:
$
z_{s} \sim \operatorname{Cat}\left(\boldsymbol{\theta}_{\boldsymbol{s}}\right)
$
3. $\boldsymbol{x}_{u}, z_{s}$ を復号し、意見 $\boldsymbol{w}_{s}$ をサンプル:
$
\boldsymbol{w}_{s} \mid \boldsymbol{x}_{u}, z_{s} \sim p\left(\boldsymbol{w}_{s} \mid \boldsymbol{x}_{u}, z_{s}\right)=\operatorname{Decoder}\left(\left[\boldsymbol{x}_{u} ; z_{s}\right]\right)
$
このとき、ユーザ $u$ の意見の尤度と、その対数の変分下限 $\mathscr{L}$ はそれぞれ以下で表される。
$
\begin{aligned}
& p\left(\boldsymbol{W}_{1: S_{u}}\right)=\int p\left(\boldsymbol{x}_{u}\right) \prod_{s=1}^{S_{u}}\left.\{\sum_{z_{s}} p\left(\boldsymbol{w}_{s} \mid \boldsymbol{x}_{u}, z_{s}\right) p\left(z_{s}\right)\right.\} d \boldsymbol{x}_{u} \\
& \mathscr{L}_{u} \geq \mathbb{E}_{q\left(\boldsymbol{x}_{u} \mid \boldsymbol{e}_{u}\right)}\left.\{\sum_{s=1}^{S_{u}} \log p\left(\boldsymbol{w}_{s} \mid \boldsymbol{x}_{u}, \boldsymbol{\theta}_{s}\right)\right.\} \\
& -\mathrm{D}_{\mathrm{KL}}\left[q\left(\boldsymbol{x}_{u} \mid \boldsymbol{e}_{u}\right) \| p\left(\boldsymbol{x}_{u}\right)\right]
\end{aligned}
$
ただし、 $q\left(\boldsymbol{x}_{u} \mid \boldsymbol{e}_{u}\right)=N\left(\boldsymbol{x}_{u} \mid f_{\mu}\left(\boldsymbol{e}_{u}\right), f_{\sigma}\left(\boldsymbol{e}_{u}\right)\right)$ はユーザ $u$ の潜在表現の変分事後分布で、ユーザのネットワー ク埋め込み表現 $\boldsymbol{e}_{u} \in \mathbb{R}^{h}$ を $\operatorname{MLP} f_{\mu}, f_{\sigma}$ により変換することで推定する。また、 $\boldsymbol{\theta}_{s} \in \Delta^{K-1}$ は文 $s$ のトピック分布であり、本研究では Neural Topic Model の一種である NQTM[14] により獲得する。以下、それぞれを用いた理由とその方法について概説する。
## 3.1 ユーザのネットワーク埋め込み
本研究はサイレントユーザの意見推定を試みることから、ユーザの意見 (テキスト) に頼らずにユーザの潜在表現を得る必要がある。そこで、Homophily の概念に着想を得て、ユーザのネットワーク埋め込み表現を用いることで潜在表現を獲得する。
本研究ではユーザをノード、ユーザ同士のコミュニケーション (リツイート/リプライ) 数をエッジとした重み付き無向グラフを対象に、ネットワーク埋め込み手法として LINE[15] を用いた。LINE では同一コミュニティに属するユーザが近接するように埋め込み表現を学習する。従って、ネットワーク埋め込みが近接するユーザ群からは、類似する意見が生成され、Homophilyをモデル化できると期待される。
## 3.2 NQTM による意見のトピック推定
TATGM ではトピック分布の推定に Neural Topic Model[12]を用いているが、本研究が対象とするソーシャルメディア上の投稿など、短文のテキストにはトピック推定がうまく機能しない。そこで、本研究では短文テキストを対象に開発された NQTM (Negative sampling and Quantization Topic Model[14]) を利用する。短文のテキストでは、トピック分布が一様分布に近くなるとともに、各トピックの単語分布が似た分布になりやすい。そこでNQTM では、 トピック分布の量子化により鋭いピークを持つ分布に誘導すると共に、他トピックに頻出する単語を負例として用いるネガティブサンプリングによって、各トピックの単語分布の差が際立つよう学習する。表 1: データセット中のツイート数とユーザ数
表 2: 評価データの意見推定精度(低いほうがよい)
## 4 実験
本実験では、ソーシャルメディアとして Twitterを採用し、Twitter 上の投稿(ツイート文)を意見とみなすことで、提案モデルが各ユーザの意見をどの程度モデル化できるか、即ちサイレントユーザの意見をどの程度推定可能か検証する。
## 4.1 実験設定
本実験では、政治的意見が多く含まれると考えられる 2020 年アメリカ大統領選挙の前後期間に特定のクエリで抽出されたツイート文 [16] を対象に、意見生成の精度評価を行った。データセット中のツイート数/ユーザ数を表 1 に示す。ベースラインとして、Bowman らの VAE-LM[8] と、Tang らの TATGM[11] を採用した。トピック数は 10 で固定し、ベースライン・提案モデル共に Transformer[17] をデコーダとして用いた。
## 4.2 意見推定の精度比較
まず、提案モデルが各ユーザの意見をどの程度モデル化できるか検証するため、評価データセット中のツイート文の尤度を確認した。学習に利用していない評価データ中のユーザはいわばサイレントユーザとみなすことができるため、尤度はサイレントユーザの意見推定精度とみなせる。各モデルから算出されたツイート文の負の対数尤度を表 2 に示す。提案モデルは Bowman より高い推定精度を確認できた他、TATGMにも匹敵する性能を示した。VAE-LM や TATGM は推定対象の文 $\boldsymbol{w}_{s}$ を用いて、文の潜在表現の事後分布を推定している: $q\left(\boldsymbol{x}_{s} \mid \boldsymbol{w}_{s}\right)=N\left(\boldsymbol{x}_{u} \mid f_{\mu}\left(\boldsymbol{w}_{s}\right), f_{\sigma}\left(\boldsymbol{w}_{s}\right)\right)$ (ただし、 $f_{\mu}, f_{\sigma}$ は Transformer エンコーダ)。一方、提案モデルは事後分布の推定に文 $\boldsymbol{w}_{s}$ を用いず、ネットワーク埋め込みを用いているため、ベースラインの方が文 $\boldsymbol{w}_{s}$ の
図 3: ユーザの潜在空間
図 4: ユーザの潜在変数を移動した時のトピック 1 に関する生成文変化表 3: 各トピックにおける頻出度上位 10 単語
\\
推定は容易であると考えられる。それにも関わらず提案モデルがベースラインと競合する性能を得られたことは、ネットワーク埋め込みがユーザの意見のモデル化に十分な情報を持つことを示唆している。
## 4.3 トピックの分析
表 3 に各トピックに最も頻出する上位 10 単語を示す。総じて、選挙戦を中心とした政治的なトピックに関する単語が取得できていることがわかる。特にトピック 1,3,5,6,8,9 は政局や選挙関連について激しい論戦が行われた話題である。トピック 1 は不正投票、トピック 2 は COVID-19、トピック 4 は死刑判決が議論を呼んだ Brandon Bernard 氏、トピック 10 は 2020 年に米国で盛んだった Black Lives Matter 運動について、それぞれ示していると考えられる。
## 4.4 ユーザの潜在空間の分析
評価データセット中のユーザの潜在表現 $x_{u}$ について、t-SNE[18] による 2 次元空間上への射影を図 3 に示す。各点はユーザを表し、共和党/民主党支持に関連するハッシュタグ(付録 A 表 4)どちらかを使用したユーザをそれぞれ赤/青で表している。両者は互いに固まって位置していることが確認できる。
また潜在空間内の共和党支持ユーザ(赤)と民主党支持ユーザ(青)の重心ベクトル $\bar{x}_{\text {red }}, \bar{x}_{\text {blue }}$ の中間地点のユーザベクトルをモデルに入力した時の出力文の変化例を図 4 に示す。ここでは $z_{s}=1$ を入力し、不正選挙に関するトピック 1 について、その意見の変化を観察した。米大統領選では、選挙不正に関して郵便投票と選挙人団入替えの是非が主な争点であった。 $\bar{x}_{\text {blue }}$ に近づくほど、郵便投票に対し肯定的な意見が生成されている一方 $\left(\boldsymbol{x}_{1}\right) 、 \overline{\boldsymbol{x}}_{\text {red }}$ に近づくと選挙人団投票 (electoral vote) に対する否定的な意見が生成される $\left(\boldsymbol{x}_{7}\right)$ 傾向を確認できる。このように潜在空間上の位置によって、ユーザの意見が変化していく様子が確認された。
## 5 おわりに
本研究はユーザの意見をネットワーク埋め込みとトピックに基づきモデル化することによって、様々なトピックに関するサイレントユーザの意見を推定できるモデルを提案した。米国大統領選挙期間中の Twitter データで意見(ツイート文)の推定精度を検証した結果、既存の文生成モデルと同程度の性能が得られた他、ユーザの潜在変数が各党の支持ユー ザに近づくと、各党の支持ユーザらしい意見が生成される様子が定性的にも確認された。以上のことから、ネットワーク埋め込みとトピックに基づくユー ザの意見のモデル化の妥当性が確認された。
## 謝辞
本研究は、JST ACT-X JPMJAX1904 及び JST CREST JPMJCR21D1 の支援を受けたものである。
## 参考文献
[1] Eli Pariser. The filter bubble: How the new personalized web is changing what we read and how we think. Penguin, 2011.
[2] Lada A Adamic and Natalie Glance. The political blogosphere and the 2004 us election: divided they blog. In Proceedings of the 3rd International Workshop on Link discovery, pp. 36-43, 2005.
[3] Elanor Colleoni, Alessandro Rozza, and Adam Arvidsson. Echo chamber or public sphere? predicting political orientation and measuring political homophily in twitter using big data. Journal of Communication, Vol. 64, No. 2, pp. 317-332, 2014.
[4] Yoree Koh. Report: $44 \%$ of twitter accounts have never sent a tweet. Wall Street Journal. News Corporation, Vol. 11, , 2014.
[5] Wei Gong, Ee-Peng Lim, and Feida Zhu. Characterizing silent users in social media communities. In Proceedings of the International AAAI Conference on Web and Social Media, Vol. 9, 2015
[6] Lei Wang, Jianwei Niu, Xuefeng Liu, and Kaili Mao. The silent majority speaks: Inferring silent users' opinions in online social networks. In The World Wide Web Conference, pp. 3321-3327, 2019.
[7] Miller McPherson, Lynn Smith-Lovin, and James M Cook. Birds of a feather: Homophily in social networks. Annual Review of Sociology, Vol. 27, No. 1, pp. 415-444, 2001.
[8] Samuel Bowman, Luke Vilnis, Oriol Vinyals, Andrew Dai, Rafal Jozefowicz, and Samy Bengio. Generating sentences from a continuous space. In Proceedings of the 20th SIGNLL Conference on Computational Natural Language Learning, pp. 10-21, 2016.
[9] Diederik P Kingma and Max Welling. Auto-encoding variational bayes. In Proceedings of the 2nd International Conference on Learning Representations, 2014.
[10] Danilo Jimenez Rezende, Shakir Mohamed, and Daan Wierstra. Stochastic backpropagation and approximate inference in deep generative models. In Proceedings of the 31st International Conference on Machine Learning, pp. 1278-1286, 2014.
[11] Hongyin Tang, Miao Li, and Beihong Jin. A topic augmented text generation model: Joint learning of semantics and structural features. In Proceedings of the $\mathbf{2 0 1 9}$ Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 5090-5099, 2019.
[12] Yishu Miao, Edward Grefenstette, and Phil Blunsom. Discovering discrete latent topics with neural variational inference. In Proceedings of the 34th International Conference on Machine Learning, pp. 2410-2419, 2017.
[13] Akash Srivastava and Charles Sutton. Autoencoding variational inference for topic models. In Proceedings of the 5th International Conference on Learning Representations, 2017.
[14] Xiaobao Wu, Chunping Li, Yan Zhu, and Yishu Miao. Short text topic modeling with topic distribution quantization and negative sampling decoder. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, pp. 1772-1782, 2020.
[15] Jian Tang, Meng Qu, Mingzhe Wang, Ming Zhang, Jun Yan, and Qiaozhu Mei. Line: Large-scale information network embedding. In Proceedings of the 24th International Conference on World Wide Web, pp. 1067-1077, 2015.
[16] Emily Chen, Ashok Deb, and Emilio Ferrara. \# election2020: the first public twitter dataset on the 2020 us presidential election. Journal of Computational Social Science, pp. 1-18, 2021.
[17] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems, pp. 5998-6008, 2017.
[18] Laurens Van der Maaten and Geoffrey Hinton. Visualizing data using t-sne. Journal of Machine Learning Research, Vol. 9, No. 11, 2008.
[19] Zhiting Hu, Zichao Yang, Xiaodan Liang, Ruslan Salakhutdinov, and Eric P Xing. Toward controlled generation of text. In Proceedings of the 34th International Conference on Machine Learning, pp. 1587-1596, 2017.
[20] Chris J Maddison, Andriy Mnih, and Yee Whye Teh. The concrete distribution: A continuous relaxation of discrete random variables. In Proceedings of the 5th International Conference on Learning Representations, 2017.
[21] Eric Jang, Shixiang Gu, and Ben Poole. Categorical reparameterization with gumbel-softmax. In Proceedings of the 5th International Conference on Learning Representations, 2017.
[22] Victor Prokhorov, Ehsan Shareghi, Yingzhen Li, Mohammad Taher Pilehvar, and Nigel Collier. On the importance of the kullback-leibler divergence term in variational autoencoders for text generation. In Proceedings of the 3rd Workshop on Neural Generation and Translation, pp. 118-127, 2019.
[23] Bohan Li, Junxian He, Graham Neubig, Taylor BergKirkpatrick, and Yiming Yang. A surprisingly effective fix for deep latent variable modeling of text. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 3603-3614, 2019.
## A 付録
## A. 1 モデル詳細
本研究では、生成意見の対数尤度の変分下限 $\mathscr{L}_{u}(10)$ に、下記の節で定義する $\mathscr{L}_{t}$ 及び $\mathscr{L}_{d}$ を加えた目的関数 $\mathscr{L}$ を最大化するようにモデルを学習する。
$
\mathscr{L}=\mathscr{L}_{u}+\mathscr{L}_{t}+\lambda \mathscr{L}_{d}
$
## A.1.1 Neural Topic Model 及び NQTM
本節では TATGM にて用いられている Neural Topic Model $[12,13]$ と、それを短文のテキストに適用できるよう改良された NQTM[14] について概説する。 Neural Topic Model では一般的なトピックモデルと同様に以下の生成過程を仮定する。
・ユーザ $u$ の各意見 $s \in\left.\{1, \ldots, S_{u}\right.\}$ について:
1. 意見 $s$ のトピック分布 $\boldsymbol{\theta}_{s} \in \Delta^{K-1}$ をサンプル:
$
\begin{aligned}
& \boldsymbol{y}_{s} \sim \mathcal{N}\left(\boldsymbol{y}_{s} \mid \boldsymbol{\mu}_{0}, \boldsymbol{\Sigma}_{0}\right) \\
& \boldsymbol{\theta}_{s}=\operatorname{softmax}\left(\boldsymbol{y}_{s}\right)
\end{aligned}
$
- 意見 $s$ の各単語 $n \in\left.\{1, \ldots, N_{s}\right.\}$ について:
2. 単語のトピック $z_{n} \in\{1, \ldots, K\}$ をサンプル:
$
z_{n} \sim \operatorname{Cat}\left(\boldsymbol{\theta}_{\boldsymbol{s}}\right)
$
3. 単語 $w_{n} \in\{1, \ldots, V\}$ をサンプル:
$
w_{n} \sim \operatorname{Cat}\left(\boldsymbol{\beta}_{z_{n}}\right)
$
このとき、トピックモデルにおけるユーザ $u$ の対数尤度の変分下限は以下で与えられる。
$
\mathscr{L}_{t}=\sum_{s=1}^{S_{u}} \sum_{n=1}^{N_{s}} \log (\boldsymbol{\beta} \cdot \hat{\boldsymbol{\theta}})_{w_{n}}-\mathrm{D}_{\mathrm{KL}}\left[q\left(\boldsymbol{y}_{s} \mid \boldsymbol{w}_{s}\right) \| p\left(\boldsymbol{y}_{s}\right)\right]
$
ただし、 $q\left(\boldsymbol{y}_{s} \mid \boldsymbol{w}_{s}\right)=q\left(\boldsymbol{y}_{s} \mid f_{\mu}\left(\boldsymbol{w}_{s}\right), f_{\Sigma}\left(\boldsymbol{w}_{s}\right)\right)$ は変分事後分布であり、文 $\boldsymbol{w}_{s}$ の bag-of-words 表現を $\operatorname{MLP} f_{\mu}$ 及び $f_{\sigma}$ で変換することで得られる。NQTM では、変分下限 $\mathscr{L}_{t}$ に加え、負例の尤度及び量子化前後の卜ピック分布の誤差項を $\mathscr{L}_{t}$ に加えている。
## A.1.2 Discriminator
TATGM[11] と同様に、生成された文 $\hat{w}_{s}$ が指定されたトピック $z_{s}$ に関する内容を含むように誘導するため、本研究では提案モデルに discriminator[19] を加えた。Discriminator は、生成文のサンプルをトピックモデルに入力して得られるトピック分布 $q\left(z_{s} \mid \hat{\boldsymbol{w}}_{s}\right)$ が、元の文のトピック分布 $p\left(z_{s}\right)$ に近づくように、以下の目的関数を最大化する。表 4: ハッシュタグの分類
$
\begin{aligned}
\mathscr{L}_{d} & =\sum_{s=1}^{S_{u}} \mathbb{E}_{p\left(\hat{\boldsymbol{w}}_{s}, z_{s}\right)}\left[\log q\left(z_{s} \mid \hat{\boldsymbol{w}}_{s}\right)\right] \\
& \approx \sum_{s=1}^{S_{u}} \sum_{k=1}^{K} \log q\left(z_{s}=k \mid \hat{\boldsymbol{w}}_{s}^{\prime}\right)
\end{aligned}
$
ただし、 $\hat{\boldsymbol{w}}_{s}^{\prime}$ は Gumbel-softmax trick[20, 21] によって推定した生成文のサンプルである。
## A. 2 実験詳細
## A.2.1 各党支持に関連するハッシュタグ
各党の支持ユーザを同定するために、本研究では表 4 に示すハッシュタグを用いた。民主党の方がハッシュタグが多いものの、共和党/民主党支持と判断されたユーザ数はそれぞれ $15,961 / 9,274$ である。 なお、\#trump や\#bidenなど、肯定的/否定的な文脈双方で頻用されるものについては使用していない。
## A.2.2 実装詳細
図 2 の $f_{\mu}, f_{\sigma}$ は 4 つの全結合層とバッチ正規化から成り、以下の式のように $\mu_{u}, \sigma_{u}$ を得る。
$
\begin{aligned}
\boldsymbol{c}_{0} & =\boldsymbol{W}_{0} \boldsymbol{x}+\boldsymbol{b}_{0} \\
\boldsymbol{c}_{1} & =f_{\boldsymbol{b}}\left(\boldsymbol{W}_{1} \boldsymbol{c}_{0}+\boldsymbol{b}_{1}\right) \\
\boldsymbol{\mu} & =\boldsymbol{W}_{2} \boldsymbol{c}+\boldsymbol{b}_{2} \\
\boldsymbol{\sigma}^{2} & =\operatorname{softplus}\left(\boldsymbol{W}_{3} \boldsymbol{c}+\boldsymbol{b}_{3}\right)
\end{aligned}
$
ただし $\left(\boldsymbol{W}_{0}, \boldsymbol{b}_{0}\right)$ は 128 次元べクトルに、 $\left(\boldsymbol{W}_{1}, \boldsymbol{b}_{1}\right),\left(\boldsymbol{W}_{2}, \boldsymbol{b}_{2}\right),\left(\boldsymbol{W}_{3}, \boldsymbol{b}_{3}\right)$ は 64 次元ベクトルに変換する全結合層のパラメータを表し、 $f_{b}$ はバッチ正規化関数を表す。デコーダの Transformer の隠れ層は 256、ブロック数は 6 に設定した。また単語ベクトルの次元数は256、学習時のバッチサイズは 64、学習率は 0.0001、勾配降下法は $\operatorname{Adam}\left(\left(\beta_{1}, \beta_{2}\right)=(0.9,0.999)\right.$, weight_decay $=0$ )、Discriminator の係数は $\lambda=0.1$ を採用した。また、VAEの事後分布崩壊を防ぐために、 KL-annealing 及び KL-threshold[22, 23]を適用した。 | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D6-2.pdf | # モーラを考慮した Fine-tuning によるロ語短歌生成
浦川通 1 新妻巧朗 1 田口雄哉 ${ }^{1}$ 田森秀明 1 岡崎直観 ${ }^{2}$ 乾健太郎 3,4
1 株式会社朝日新聞社 2 東京工業大学 3 東北大学 4 理化学研究所
\{urakawa-t,niitsuma-t,taguchi-y2, tamori-h\}@asahi.com,
okazaki@c.titech.ac.jp, inui@tohoku.ac.jp
## 概要
短歌は日本語における詩の形態の一つで,短い文字列をモーラの定型に従わせることで,日本語話者の間に広く伝えられる性質を持つ. 短歌の自動生成,特に現代語で表現された口語短歌に焦点を当てた場合,データセットの数が少なく, 従来手法を適用することが難しい. そこで本研究では教師データの少ない口語短歌の自動生成を行うため,モーラ情報を考慮した事前学習済み言語モデルの Fine-tuning 手法を提案する. 具体的には,GPT-2 にモーラ情報を埋め込み表現として与え,残りモーラ数を考慮しながら生成することで,指定モーラ数を満たす系列生成が可能なことを実験により確認した.
## 1 はじめに
短歌は日本語における定型詩の一つで, $5 \cdot 7 \cdot 5 \cdot$ $7 \cdot 7$ の計 31 モーラをもつ 5 句から構成される短詩である。短い文字列の中で自然から社会生活,また個人的な日常まで幅広く表現することができ,かつ定型によって読み方が共有されていることから,他者と創造的にコミュニケーションする手段となりうる. 本研究では,広告や見出しなどの他分野に短歌の特徴を応用をすることを目的として,自動生成のタスクに取り組む. 利用者の性質から,読み手に文語への理解を要求しない口語短歌に対象を絞った上で,日本語として破綻のない 31 モーラの定型に従う系列生成問題として扱う.
モーラは,それぞれの言語における時間的な長さをもった音の分節単位で, 日本語では音節と区別される(表 1). 日本語話者が音を数える際にはこのモーラを単位として数えることが多く, 和歌 [1] や俳句 [2], また歌唱旋律 [3] や歌詞 [4] の自動生成において,このモーラをモデル訓練時の素性に取り入れ生成を行う手法の提案が行われてきた。一方で,現代語により表現される口語短歌は和歌と同じ 31表 1 日本語における音節とモーラ
モーラの定型をもちながらも整備されたデータセットが存在せず,これまでに提案されている手法をそのまま適用するのは難しいと考える。
近年では事前学習済み言語モデルに対して,タスクに合わせた少量の教師データによる Fine-tuning を行う方法が多く見られる [5]. そこで本研究では,学習データとして現代語の文書から抽出された少量の疑似短歌データを,実際の口語短歌データの代替として用い,GPT-2 [6] に対するモーラ数制約を考慮した口語短歌生成タスクの Fine-tuning 手法を提案する.
実験の結果,提案手法により短歌のもつモーラ数制約を満たす系列が生成できることを,ビーム探索とサンプリング生成におけるモーラの正答率により確認した. また,短歌のモーラ数制約を満たす生成系列の流暢度を人手評価により評価した。
## 2 提案手法
## 2.1 口語短歌生成タスク
本研究で取り組む口語短歌生成タスクを以下で定義する。「口語」とは話し言葉・書き言葉に依らず,現代で一般的に扱われる言葉を指す。「口語短歌」とは,この口語によって書かれた全 31 モーラをもった系列とする.このモーラ数を超える,また未満となる,短歌において「破調」と呼ばれる系列については,今回のモーラ数制御の評価対象には含めない. 口語短歌には一般的に知られたデータセットが存在しないため, 本研究では既存の文書から疑似短歌を抽出するという形で教師データを作成し, また少量の教師データでも訓練が可能なモーラ数制
図 1 提案手法の概要
約を考慮した Fine-tuning 手法を検討する。
## 2.2 モデル
モデルの概要を図 1 に示す. GPT-2 にモーラ情報を取り入れるモーラ埋め込み層を用意し,入力系列の各トークンに対応する残りモーラ数を埋め込みとして計算する.この埋め込みは, GPT-2を生成夕スクで Fine-tuning するための層(本稿では LMHead と呼ぶ)と,新たに追加した MoraHead に直接与えられ, LMHead ではデコーダーの出力と結合した形でこれを受け,次トークンの尤度を計算する。 MoraHead ではモーラ埋め込みから,入力で与えられているモーラ残数を推測する。これにより,モデルが残りモーラ数を考慮しながら生成を行うことが期待される.
訓練時の損失関数 $\mathscr{L}$ は以下のように定式化する。なお,入力系列 $\mathrm{S}$ に属するトークン集合を $W=\left.\{w_{1}, w_{2}, \cdots . w_{n} \mid w \in S\right.\}$ とし, 入力系列中の各トークン位置に対する残りモーラ数集合を $M=\left.\{m_{1}, m_{2}, \cdots . m_{n}\right.\}$ とする.
$
\mathscr{L}=(1-\lambda) \mathrm{CE}_{\text {token }}(W)+\lambda \mathrm{CE}_{\text {mora }}(M)
$
ここで, $\mathrm{CE}_{\text {token }}, \mathrm{CE}_{\text {mora }}$ はそれぞれ LMHead と MoraHeadのクロスエントロピー誤差を表し,
たものをモデル全体の損失とする。 モデルに与えられる各トークンのモーラは,入力系列をモデルのトークナイザーによって分解した上で,各トークンの読みがなを $\mathrm{MeCab}^{1)} \mathrm{IPA}$ 辞書により取得して計算
表 2 疑似短歌データ粘液の [SEP] 入った管が [SEP] あったりと [SEP] その状態は [SEP] さまざまである偏光を [SEP]かけて重ねて [SEP] 投影し- [SEP] これを偏光 [SEP] フィルタの付いた
する.なお,アルファベットおよび特殊トークンといった読み方の一意に定まらないトークンに関しては,すべてモーラ数を 0 とする.
## 2.3 疑似短歌データによる学習
口語短歌に関して,広く一般に知られた公開デー タは存在しない。そこで本研究では,短歌の定型を満たす文字列を既存の文書から抽出し,これを疑似短歌データとしてモデルの訓練に利用する.疑似短歌データは, 口語短歌と同様に現代語によって書かれた,全 31 モーラからなる文字列集合とする。また実世界における応用を見据え,オープンデータからの作成を行う. 今回は文字列から偶然に短歌の定型を満たす系列を抽出する偶然短歌プロジェクト2) の公開するスクリプト3を用いて,Wikipedia の日本語ダンプデータから 11,344 件の教師データを作成した。なお,教師データでは各句の間に特殊トークンを挿入することで,句切れを明示した(表 2).
## 3 実験
2) http://inaniwa3.github.io/guuzen-tanka/
3) https://github.com/inaniwa3/guuzen-tanka
表 3 モーラ正答率 (\%)
表 4 生成結果に対する人手評価(\%)
## 3.1 実験設定
データセット上記の Wikipedia から作成した疑似短歌コーパスを,10,000 件の学習データ,672 件の開発データ, 672 件の評価データとして分割しデータセットを作成した。
モデル設定 GPT-2の事前学習済みモデルには, HuggingFace $^{4)}$ 上で公開されているモデルを使用した $^{5)}$. トークナイザーは日本語 Wikipedia を学習した Sentencepiece[7] で, 語彙数は 32,000 である. ベー スラインとして,GPT-2を提案手法と同じ学習デー タでそのまま Fine-tuning したものを用意した.
評価本実験では,評価データから短歌の第一句に相当する 5 モーラ分のトークンを入力し,得られる生成結果に対して評価を行う. モーラ数制約に対する性能評価として,評価データ全体のうちで 31 モーラの系列が出力候補中に含まれる割合 (モーラ正答率)を計算する. ビーム幅を 10 としたビーム探索の出力から top-1,3,5,10 の正答率を得るほか, サンプリングによる生成でも出力数 $\mathrm{n}=1,3,5,10$ で評価する. サンプリング手法としては, top-p サンプリング [8] $(p=0.6)$ を採用し, 3 回生成した上での平均値を取る。加えて,モーラ数制約によって結果の流暢さが損なわれないかを確認するため,生成結果が意味の通る内容となっているか否かを 3 人のアノテー ターで人手評価する. アノテーション対象となる系列は,ビーム幅を 10 としたビーム探索の出力からモーラ数制約を満たすものを 50 文サンプリングし,各件で 2 人以上が選択した結果を採用として,その割合を計算する.
## 3.2 実験結果
表 3 にモーラ制御の正答率を示す. ベースラインではビーム探索にて最大でも $30 \%$ 程度,サンプリングでは $60 \%$ 程度にとどまる一方で,提案手法ではすべてのモデルで最大 $90 \%$ を超える正答率となり,提案するモーラ情報の埋め込みが実際にモーラ数制約へ寄与していることが確かめられた,
表 4 に生成結果に対する人手評価の結果を示す.提案手法とべースラインとで大きな開きはなく, モーラ数制約を与える Fine-tuning が生成系列の流暢度を著しく下げるような影響は与えないことが確かめられた,一方で,教師データの中にはすべて名詞だけで構成される例なども存在し(「芝離宮 [SEP]恩賜庭園 [SEP] 浜離宮 [SEP] 恩賜庭園 [SEP] 世界貿易」など),これらをノイズとして取り除くことでより良い結果が得られることが期待できる.
また,より少量データでの提案手法の効果をみるために,学習データを $1,000 \sim 5,000$ 件と絞った上でモデルを訓練し $(\lambda=0.6)$, モーラの正答率を計算した (表 5). 結果から, 少量データでの訓練においてもモーラ数制約を満たすモデルを学習できることが確認できた. これは,例えばある特定の歌人の歌など,ごく少量の教師データからモデルを訓練できることを示唆する結果であると考える。
最後に,実際の生成例を表 6 に示す. 人手により第一句のみ入力し,モーラ数制約を満たすものを正例として記載した. 正例では, 31 モーラという制約を満たしつつ, 句切れも学習データにあるような $5 \cdot 7 \cdot 5 \cdot 7 \cdot 7$ となる系列がある程度出力できてい
表 6 提案手法による生成例. $\lambda=0.6$, top_p $=0.6$
摇れだした [SEP] 雲の間から [SEP] 太陽が昇るのを見た [SEP] 群衆はただ
さっきまで [SEP] 人間だった [SEP] 人形が [SEP] 喋ってみせる [SEP] 世界であった
正例画面では [SEP] 表示されない [SEP] バーコード [SEP] セグメントを非 [SEP] 表示にできる
まぶしくて [SEP] 見ていてつらい [SEP] 夕焼けの [SEP] 空にまにまに [SEP] オレンジの花
光ってる [SEP] 森の中を [SEP] 移動して [SEP] 見えるのは今 [SEP] ここだというの
摇れだした [SEP] 人々の間で [SEP] 共有の [SEP] 感情が生まれ [SEP] 伝播していく
さっきまで [SEP] 平和だったのに [SEP] 今度会ったら [SEP] 違う人になってるかも
負例画面では [SEP] 表示されない [SEP] メッセージ [SEP] ウィンドウが出る [SEP] 場合や [SEP] 何らかのまぶしくて [SEP] 見ていて気分が [SEP] わるいや [SEP] うれしくないや [SEP] わかってるや [SEP] でも光ってる [SEP] 波か? 光ってる [SEP] 波か? 光ってる [SEP] 波か? 光って
ることがわかる。また同様に学習データ中に存在する句またがり(「セグメントを非 [SEP] 表示にできる」というように,句切れと語の区切りが一致しないもの)が確認され,句切れを表すトークンにより教師データ中の短歌の句構造を捉えながら生成していることがうかがえる。これは,モーラ数制約を句ごとに行うことでより改善されると考える。一方負例では,指定モーラ数を超えるものが多く見られた.これは文脈によりもっともらしい系列を生成する中で,指定モーラに収まらないトークンを選択してしまう結果によるものと考えられる。また正例中にある「光ってる...」の例では,モデルの計算上では系列全体のモーラ数が 31 となっているが,実際の読みからモーラを数えると 30 とる。これは,初句に与えた「光ってる(5 モーラ)」が,トークナイザーにより「光 (ひかり・3),って (2), る (1)」と分解される中で計 6 モーラとして数えられてしまっていることが原因である。この,トークンにおけるモー ラ数と実際の系列中のモーラ数の蓞齬を埋める形での生成が,より精度の高いモーラ数制御には必要であることがわかった。これは例えば,サブワードを用いない事前学習済み言語モデルを利用することなどで解消されるだろうと考える。
## 4 関連研究
和歌や俳句,また歌詞といった詩の自動生成において,モーラ数制約の考慮や実世界での応用を視野に入れた研究として以下が挙げられる。
土佐ら [9] は,ユーザーの入力に応じたフレーズをデータベースから抽出し,ルールに基づき俳句を生成するモデルを提案している。ニューラルネットワークモデルを用いた生成では,小西 [10] らが GANを用いて俳人による現代俳句と一般の投稿俳句を分けて学習する,幅広い層へむけた俳句生成手法を提案している。 太田ら [2] は LSTM ベースの seq2seq モデルを用いて,拍数また季節の素性をモデルに与えることで,俳句の制約を満たす系列生成と内容の制御を行なっている。
和歌の生成では,RNNを用いた自動生成として Masada ら [11] がある. Masada らは,LDAを用いて同一トピックを扱う語の多い歌にスコアを付与し,歌全体での内容の一貫性を保ちながらの生成を試みている。また Yang ら [12] は,入力されるテキストから感情情報を抽出し, 遺伝的アルゴリズムを用いた和歌生成を提案している. 近年の例としては,Takeishi ら [1]が挙げられる. Takeishi らは Transformer+VAE を用い,尤度に対するマスクやアテンション機構を用いて,モーラ数制約や和歌の構造を考慮したモデルを構築している。
歌詞の生成では, Watanabe ら [13] は旋律によって条件付けられた歌詞の生成を,音節をモデル内部に取り入れることで実現する手法を提案している.
## 5 おわりに
本研究では,口語短歌の自動生成を行うために事前学習済み言語モデルに対するモーラ情報を考慮した Fine-tuning 手法を提案した. GPT-2 にモーラ情報を埋め込み,残りモーラ数を考慮しながら次にくるトークンを予測させることで,指定モーラ数を満たす系列生成が可能であることを確認した。
今回,疑似短歌を教師データとして生成を試みたが,今後より実際の短歌に近い生成モデルを学習するためのデータセットや評価手法の検討を行うとともに,指定語を含む短歌生成など,より創造性の高いアプリケーションとして扱うためのモデルの拡張に取り組みたい。
## 参考文献
[1] Yuka Takeishi, Mingxuan Niu, Jing Luo, Zhong Jin, and Xinyu Yang. Wakavt: A sequential variational transformer for waka generation. Neural Processing Letters, 2021.
[2] 太田瑶子, 進藤裕之, 松本裕治ほか. 深層学習を用いた俳句の自動生成. 研究報告自然言語処理 (NL), Vol. 2018, No. 1, pp. 1-8, 2018.
[3] 深山覚, 中妻啓, 酒向慎司, 西本卓也, 小野順貴, 嵯峨山茂樹ほか. 音楽要素の分解再構成に基づく日本語歌詞からの旋律自動作曲. 情報処理学会論文誌, Vol. 54, No. 5, pp. 1709-1720, 2013.
[4] 渡邊研斗, 松林優一郎, 乾健太郎, 後藤真孝. 大局的な構造を考慮した歌詞自動生成システムの提案. 言語処理学会第 20 回年次大会発表論文集, pp. 694-697, 2014.
[5] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[6] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, et al. Language models are unsupervised multitask learners. Technical Report, 2019.
[7] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics.
[8] Ari Holtzman, Jan Buys, Li Du, Maxwell Forbes, and Yejin Choi. The curious case of neural text degeneration. In 8th International Conference on Learning Representations, ICLR 2020, Addis Ababa, Ethiopia, April 26-30, 2020. OpenReview.net, 2020.
[9] 土佐尚子, 尾原秀登, 美濃導彦, 松岡正剛. Hitch haiku コンピュータによる俳句創作支援システム. 映像情報メディア学会誌, Vol. 62, No. 2, pp. 247-255, 2008.
[10] 小西文昂, 廣田敦士, 松尾星吾, 家原瞭, 小原宗一郎,加賀ゆうた, 鶴田穣士, 脇上幸洋, 金尻良介, 深田智ほか. Seqgan を用いた一般人に好まれやすい俳句の生成. 2017 年度情報処理学会関西支部支部大会講演論文集, Vol. 2017, , 2017.
[11] Tomonari Masada and Atsuhiro Takasu. Lda-based scoring of sequences generated by rnn for automatic tanka composition. In International Conference on Computational Science, pp. 395-402. Springer, 2018.
[12] Ming Yang and Masafumi Hagiwara. A text-based automatic waka generation system using kansei. International Journal of Affective Engineering, Vol. 15, No. 2, pp. 125-134, 2016.
[13] Kento Watanabe, Yuichiroh Matsubayashi, Satoru Fukayama, Masataka Goto, Kentaro Inui, and Tomoyasu
Nakano. A melody-conditioned lyrics language model. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 163-172, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D6-3.pdf | # CGDL を用いたトリックテイキングゲーム 自動生成手法の提案と評価
牧野 貴斗 ${ }^{1}$ 濱川礼 ${ }^{2}$
1 中京大学大学院 工学研究科 情報工学専攻 2 中京大学 工学部
## 概要
本研究では CGDL(A Card Game Description Language) を用いてトリックテイキングゲームのルールを記述し深層学習で生成を行いトリックテイキングゲームを自動生成する手法を提案する。ゲームの自動生成分野では遺伝的アルゴリズムを用いてチェッカーや Go などのバランスの取れたボードゲームを設計する試み [1] などがあるがこれらの研究では,例えば場のサイズは 3 種類の中から選ぶなど限られたバリエーションでしかルールを表現できず,単純なゲームしか生成できない。より複雑なゲームを生成するために, 本研究では深層学習に着目し, 卜リックテイキングゲームの学習を行い、ルールをより複雑に生成することを試み,生成したゲームの評価を行った。
## 1 背景と目的
カードゲームは沢山の人に親しまれており,だれもが一度は遊んだことがあるものである。人の顔を見ながらできるカードゲームは,コミュニケーション能力を養い,ゲームに勝つために考える過程で思考力を養うことができると考えられている [2][3]. しかし, 同じゲームを遊んでいるとゲームに飽きてしまったり,つまらなくなることでゲームに集中できなくなる。しかし,新しいゲームをやるとしてもカードゲームは値段が高くかさばるものであり,簡単に買えるものではない. [4] ではボードゲームの発展を阻害している要因をアンケート調査しているが,值段の高さは 7 位に入っている.以上の理由から常に新しいゲームを気軽に始めることが難しい. そこで常に新しいゲームを提供することで新鮮な体験を利用者に提供できればこの問題を解決できるのではないかと考え,トリックテイキングゲームのルールを学習させ,ルールをより複雑に生成することを試み,生成したゲームの評価を行った。
## 2 関連研究・関連システム
ボードゲーム自動生成の研究として,GDL(Game Description Language) 言語を利用して,チェッカー や Go などのバランスの取れたボードゲームの自動設計を試みている。 [1]. この研究では,遺伝的アルゴリズムを用いて盤面のパターンや,駒の種類,勝利条件などあらかじめ用意されたパターンの中からゲームのバランスを考慮したゲームの生成を遺伝的アルゴリズムを用いて生成を行っている。
また,カードゲームの自動生成を目指す試みとして, 'A Card Game Description Language' [5] がある. この研究は,GDLをカードゲームに改良を加えた言語 CGDL を開発,カードゲームの自動生成を GA で試みた研究である. カードゲーム用の言語の為, ボードゲームのようにどのような場や場のサイズなどの細かい設定を必要とせず,行う処理に関しても,より限定的な命令を採用している言語について述べている。
## 3 提案手法
[1][5] では,ゲームの自動生成を遺伝的アルゴリズムで行っているが,例えば,場のサイズは 3 種類の中からどれかを選ぶなど,限られたバリエーションでしかルールを表現できず,単純なゲームしか生成できない。より複雑なゲームを生成するために,文章生成などの分野で使われている深層学習に注目した. 日本語などの文章と比較して,CGDL の記述は厳格に単語の順番が決められており,深層学習を使用すればルール文の記述を行えるのではないかと考えた。本研究の提案手法を図 1 に示す.トリックテイキングゲームのルールを CGDLを用いて記述したデータセットを用いて LSTM モデルで学習を行う.学習後は,学習を終えたLSTM モデルに最初の単語を入れそのあとに続く単語の予測を行う。この作業を繰り返しトリックテイキングゲームのルール
の生成を行う。なお,CGDL の文法とトリックテイキングゲームのルールの説明は [7] で述べている.
図 1 提案手法
## 3.1 データセット
今回使用するトリックテイキングゲームはトランプゲーム大全 [8] に記載されているゲームの内 85 個を使用している。
## 3.2 CGDL の命令の追加
トリックテイキングゲームを表記する際に既存の命令だけでは表現しきれない以下のような状況がある為,表 1 のコマンドを追加する.
・同じマークのカードを出す
- 既定回数処理を繰り返す
・トリック数を数える
・得点を失う
行動の種類 'else' は最初に出されたカードのマー クと同じマークのカードを出さなくてはならないような状況でマークのカードが出せない時に他のカー ドを出すという命令を表現するために追加した。アクション 'loop’ はトリックテイキングゲームでは決められた回数ループを繰り返す必要があるが,その回数を既存の言語使用では表現できないため追加した. アクション 'trick' は各プレイヤーが取得したトリック数を数えるために追加した. アクション loss は得点を失うという状況を表現するために追加した.
## 4 システム構成
本手法の構成図を図 2 に示す. LSTM 学習部では,CGDLを用いてルールを記述し,記述したルー ルを一定のルールに従ってデータセット化し, 生成したデータセットをDataAugmentation を行い, LSTM モデルで学習を行う. LSTM 出力部では学習表 1 追加する命令
\\
したモデルを使用して,STAGE0 の内容を入力(以下,初期シードと呼ぶ)として,トリックテイキングゲームの文章生成を行う.
図 2 システム構成図
## 4.1 訓練データ作成部
## 4.1.1 データセットの変換
ここでは,CGDL で記述したトリックテイキングゲームのルールを,どのような形で学習させたかを述べる. 本手法では以下の条件でルールを記述している. 以下のルールでゲームの記述を行い,20 単語で 1 つのデータ(以下,バッチと呼ぶ)としてまとめる.
・各ルールの文頭と文末に始まりと終わりを意味するりを 20 個付ける
- stage の区切りには<ST > をつける
・データ中のカンマはスペースに置き換える.
・それぞれの単語には対応する番号があり,すべての単語を対応する数字に変換してデータとする。
## 4.1.2 Data Augmentation
本論文ではデータ数を増やすために Easy Data Augmentation(EDA)[9]を使用して,データの拡張を行った. 本手法では,パラメータを以下の通りに設定している.
$
a=0.05
$
$
n_{\text {aug }}=16
$
編集確率を $a$ ,ワード移動を行う回数を $n$ の值で設定している。 パラメータは EDA の論文内で使われているものを採用した.
## 4.2 LSTM 学習部
LSTM 学習部では訓練データ作成部で受け取ったデータセットを入力として LSTM モデルを使用した深層学習を行う. 計算設定を表 2 に示す. 大力層を Input 層,出力層を Dence 層,中間層を Embedding 層と LSTM 層からなるニューラルネットワークを構築した. 入力層では, $[32,20]$ のサイズの系列データからなるテンソルを出力する. 32 と 20 はそれぞれ, バッチサイズと seq_length の值である. Embedding 層では,[32,20,100]のサイズのテンソルを出力し,単語を変換した整数トークンを連続するべクトルに埋め込みそれぞれの単語の表現を学習する。 100 の值は embedding_size の値である. LSTM 層では,[32,256]のサイズのテンソルを出力し,再帰的な学習を行う. Dence 層では, [32, 63] のサイズのテンソルを出力し, 各単語が出力される確率を求める.
## 4.3 LSTM 出力部
LSTM 出力部では学習をした LSTM モデルを使い,初期シードを入力としたルールの出力を行う.出力の構造について図 3 に示し, 計算設定を表に示す. 大力した文の次に来る単語を予測し, 予測した単語を大力に加えて繰り返す。これをデータの始まりと終わりを示す‘り’が出るまで続ける.
## 4.3.1 文法矯正部
CGDL では特定の先行詞やアクションの後には, その対象となる値が必ず来るような厳格なルールがある.そこで生成の精度を上げるため,各単語の確率が出力された後に文法としてそぐわない単語を排除し,100\%になるように確率の再計算を行う。例えば,指定した場所からカードを引くアクション
図 3 LSTM による文章生成
'pifr' の後には必ずどこから引くのかを表す単語が入るので,場所を表す単語以外の要素を出力から排除する
## 4.4 生成されたゲーム
以下に生成した CGDL のゲームの一例を記す.
## - STAGE0
各プレイヤーにカード 7 枚と賭け金 99 を配る。
- STAGE1
役の宣言を行い最も高い役を宣言したプレイヤーを決める。
## - STAGE2
各プレイヤーがカードを出す。その際に,最初のプレイヤーが出したカードと同じマークのカードがあるならば出さなければならず,ないなら好きなカードを出してよい,そして最も強いカードを出したプレイヤーの取得トリック数を追加する。
- STAGE3
STAGE2 の内容を 5 回行う
- STAGE4
STAGE1 で一番多くトリック数を宣言したプレイヤーの取得したトリック数が宣言した役より多い場合,宣言した役の得点を得て,少ない場合に得点を失う。
13 STAGE3
4 unconditional_loop, STAGE2, 5
5 STAGE4
6 mandatory_tokens, k12, >, p1_gain, ka1
else_loss, p1, k12
## 5 評価・考察
大学生 11 人を対象に,4.4 節で生成したルール (以下,ゲームAとする)とトリックテイキングゲー ムの一つであるミニブリッジをプレイしてもらいアンケートに回答してもらった. ただし,CGDL は RANKING,STAGES,WINNINGCONDITIONS で構成されており,4.4 節で出力したのは STAGES のみであるため,ゲーム A R STAGES 以外を追加した. ミニブリッジのルールは日本コントラクトブリッジ連盟が公開しているルール [10] に従って行った。
## 5.1 ゲームA
追加したルールは以下の通りである。追加したルールは生成されたゲームと類似しているカードゲーム"ナップ"から取っている.
・使用するカードは 7 A までの 32 枚
・Aが最も強く, 7 が最も弱い
・最もスコアが高いプレイヤーが勝利する.
・役を宣言し,宣言した役を達成できた場合に点数を得る. 失敗した場合点数を失う.役と得点の表を表 3 に示す.
7 枚のカードを使って 5 回数字を比較するトリックを行い何回勝つかを予想するゲームである. じゃんけんで決めたプレイヤーから順番にすでに宣言されている役より得点が高い役を宣言し,最も高い役を宣言したプレイヤーは親になり 5 回トリックを行う. 親の処理した回数が最初に宣言した役以上ならば親は点数を獲得し,少なければ失点するゲー ムである. 最初の 1 回は親からカードを出し, 残りのゲームはトリックを勝利したプレイヤーが最初にカードを出す. また,最初のプレイヤーが出したマークと同じマークがあれば必ず出さなければならず,ないならばどのカードを出してもよいがそのト
リックは敗北する。
## 5.2 評価手法
11 人を 3 グループに分けミニブリッジ,ゲーム $\mathrm{A}$ を遊んでもらった。回答してもらったアンケートの結果を表 4 に. アンケートは 5 段階評価で 1 が最も悪く 5 が最も良い. $3 , 4$ つ目の質問はゲーム A にのみ行った。
& 4.36 & 3.91 \\
## 5.3 考察
ゲームAは面白かったかという質問に対してはミニブリッジと遜色のない結果が出せており,ルー ルの整合性などの部分でも高い評価であることから,トリックテイキングゲームの手順は生成できていると考えられる。一方で,駆け引きはあったかという点に関しては差がでてしまった。理由として STAGES のみの学習では,駆け引きの部分まで完全に学習しきれていないのではないかと考えられる。
## 6 今後の課題
本手法では CGDLを用いたカードゲームの自動生成を試みた。結果,問題のないルールの生成という点では高い評価を得たがゲームの駆け引きでは芳しくない評価だった. 以下に精度を上げるための今後の課題を示す.
・データ数の増加
今のデータ数では様々なルールを表現するのが難しいため,トランプゲーム大全全てのゲームをデータセットにしたい.
-CGDL の見直し
ルールの表現方法,駆け引きといった要素をどう表現するかを見直す。
- WINNING,RANKING の追加データセットにラベルのような形で,どのような要素があるのか表現したい.
## 参考文献
[1] Vincent Hom, Joe Marks . "Automatic design of balanced board games."
Proceedings of the Third AAAI Conference on Artificial Intelligence and Interactive Digital EntertainmentJune 2007 Pages 25-30
[2] 有田隆也 (2011)「ドイツボードゲームの教育利用の試み一考える喜びを知り生きる力に結びつける一」,コンピュータ\&エデュケーション 31(0), 34-39, 2011
[3] 松本太一 (2018) アナログゲーム療育ーコミュニケーション力を育てるー (幼児期から学齢期まで) ぶどう社
[4] 日本にボードゲームが広まらない理由 "https://tgiw.info/2011/08/post_1064.html"
[5] Jose M. Font , Tobias Mahlmann, Daniel Manrique1, Julian Togelius(2013) "A Card Game Description Language"
[6] Hochreiter, Sepp, and Jürgen Schmidhuber. "Long short-term memory."
Neural computation 9.8 (1997): 1735-1780.
16th European conference on Applications of Evolutionary Computation
[7] 牧野貴斗濱川礼 (2021) CGDL を用いたトリックテイキングゲーム自動生成手法の提案研究報告ゲーム情報学(GI)2021-GI-46 巻 7 号
[8] 赤桐裕二 (2014) トランプゲーム大全スモール出版
[9] Jason Wei, Kai Zou(2019) "EDA: Easy Data Augmentation Techniques for Boosting Performance on Text Classification Tasks"
EMNLP-IJCNLP 2019 short paper
[10] 日本コントラクトブリッジ連盟公式ホームページ "LET’S PLAY BRIDGE"
"https://www.jcbl.or.jp/Portals/0/pdf/fukyu/tools/letsplay1912.pdf"
## 7 付録
付録として STAGES の命令集を記載する. CGDL は,ゲームのルールを RANKING と STAGES, WINNINGCONDITIONS の三つで要素で記述した言語である. 本論文では, CGDL の STAGES の生成を行っている. STAGES はゲーム中に行う行動を命令で表現している. 命令は,行動の種類,先行詞,アクションの三種類の命令を組み合わせて構成されている. 以下の表でそれぞれの命令の効果を記載する.
& tokens, K01, >, K11 \\
& pifr, $\mathrm{D} * 2$, down \\
| NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D6-4.pdf | # 複数の指定語句を必ず含むリスティング広告の 広告文自動生成
黒木 開 1 石塚湖太 ${ }^{1,2}$ 川上 孝介 1 中田 和秀 2
${ }^{1}$ negocia 株式会社 2 東京工業大学
kai_kurogi@negocia.jp
## 概要
Google などの検索結果に表示されるリスティング広告の制作現場では、ブランド名や検索キーワー ドなどの効果が高かった指定語句を広告文に含めることで、広告効果を高めたいニーズがある。しかし、従来の広告文自動生成モデルでは、指定語句を必ず含む保証ができない課題や、複数の指定語句に対応できない課題があった。我々は機械翻訳タスクで提案された指定語句を含む翻訳文生成技術を応用して、複数の指定語句を必ず含む広告文自動生成技術、及び、実運用に向けた高速化手法を提案した。結果として、実用時間内に複数の指定語句を含む広告文が生成可能となった。
## 1 はじめに
リスティング広告とは、ユーザーが検索エンジンで検索すると、その検索キーワードに関連した広告文が表示される広告である。リスティング広告の広告文は、商品の特徴やアピールポイントなどの訴求点を含み、かつ、検索キーワードと連動した顧客にクリックされやすい魅力的な広告文であることが求められる。そのため、制作現場では広告文を魅力的に作り込む必要があるが、広告文は多様なキーワー ドに合わせて大量に作成する必要があり、制作現場の限られた人材で、それを行うことは非常に難しい。さらに、リスティング広告の広告取引量は急速なスピードで増加していることもあり、広告文の作成を支援する技術が求められている。
この課題解決に向け、自然言語処理技術を活用した広告文自動生成技術が数多く提案されている。大曽根ら [大曽根 21] は広告文から抽出したキーワー ドとカテゴリ情報を入力として、GPT-2を用いた生成技術を提案している。Ishizuka ら [Ishizuka 21] はランディングページ (LP) から抽出した HTML のタ
グ情報と検索キーワードを入力に、BERT2BERTを用いた広告文生成モデルにより、人と同等品質な広告文が生成されることを示している。
ところで、これら広告文自動生成タスクには、ブランド名や検索キーワードなどの効果が高かった指定語句を広告文に含めることで、広告効果を高めたいニーズがある。黒木ら [黒木 21] は、Decode 時に指定されたキーワードの挿入確率を上げることで、 キーワードが含まれた広告文を生成する手法を提案している。山田らは [Yamada 21]、キーワードを中心に双方向に文章を生成することで、 $100 \%$ 指定語句を含む文章生成手法を提案している。
しかし、前者は指定語句が必ず含まれる保証がなく、後者は指定語句を複数含めることができない問題があった。そこで、本研究では、広告文自動生成タスクにおいて、指定語句が複数指定されていた場合であっても、全ての指定語句を必ず含む広告文を生成する手法である Phrase-based Grid Beam Search(Phrase-based GBS) を提案する。
加えて、指定語句の評価を先頭トークンのみに限定することで、Phrase-based GBS における探索時の評価速度に改善を加えた Phrase-based Approximate Grid Beam Search(Phrase-based AGBS) も併せて提案する。Phrase-based AGBS を用いることで、生成品質をほとんど落とすことなく、生成速度を向上させることに成功した。
なお、本研究は Chousa ら [Chousa 21] が提案した翻訳文生成に対する指定語句を含ませる手法を参考としている。Chousa ら [Chousa 21] は Grid Beam Search(GBS) に LeCA モデル [Chen 20] と呼ばれる手法を組み合わせることで、翻訳精度を落とすことなく指定語句を必ず含む翻訳文生成手法を提案している。我々は、Chousa ら [Chousa 21] が提案したアルゴリズムを広告文生成タスクへ適用し、かつ、実運用に向けた高速化手法を開発した。
図 1 本モデルの埋め込み層の図。指定語句、キーワード、LPのタグ情報の順に文字列を連結した上で、それぞれに対応するタグを割り当てている。Encoderへの入力は 2 つの埋め込みの和である。
## 2 提案手法
## 2.1 モデル構造と入力形式
本研究における広告文自動生成モデルは、様々な自然言語処理タスクを"Text to Text"で解くモデルである T5[Raffel 20] をべースとして用いた。また、より高品質な広告文を生成するために、Ishizuka らの手法 [Ishizuka 21] と LeCA モデルを組み合わた入力方式を採用する。自動生成モデルの概要を図 1 に示す。埋め込み層に HTML のタグ情報による Tag Embeddings を追加した他、入力は指定語句、キー ワード、および LP の HTML からタグ抽出しして得られたタグ情報を連結した文字列を用いる。
入力文字列先頭の指定語句は LeCA モデルによるものである。LeCA モデルは入力に指定語句を含めることで、モデルが指定語句を考慮しながら生成を行えるようにする手法であるが、広告文生成の学習時には指定語句の情報がない。そこで本論文では、広告文からランダムに抽出した複数の単語を指定語句として学習時の入力に使用した。これにより、モデルは指定語句を考慮しながら生成する方法を学ぶため、推論時に実際に広告文内に含めたいフレーズを指定語句としたときに、指定語句を含んだ自然な広告文を生成することが可能となる。
## 2.2 生成手法
リスティング広告の制作現場では、指定語句を広告文に含めたいニーズの他に、サービス名やテンプレート文など、任意のフレーズを一言一句間違えずに生成したいニーズがある。そこで特定の表現をフレーズ単位で扱いながら、複数の指定語句を必ず含む広告文を生成するために、Phrase-based Decoding と Grid Beam Search(GBS) を組み合わせた Phrase-based GBS を提案する。また、Phrase-based GBS の評価回数を減らすことで高速化させた Phrase-based AGBS を併せて提案する。
## 2.2.1 Phrase-based Decoding
任意の表現をフレーズ単位で扱うために、Zhang ら [Zhang 17] が提案した Phrase-based Decoding を採用する。Phrase-based Decoding は、生成時に各トー クンを生成するのではなく、事前に登録された、複数トークンからなるフレーズ単位で文章を生成する手法である。フレーズ単位で生成することで、事前に登録したブランド名やテンプレート文などのフレーズをそのまま出力することが可能となる。
## 2.2.2 Phrase-based Grid Beam Search
Phrase-based GBS は、Phrase-based Decoding と GBS を組み合わせた手法である。その疑似コードはアルゴリズム 1 の通りである。GBS は、Start(指定語句の最初のトークンを生成する)、Continue(生成中の指定語句の次のトークンを生成する)、Generate(制約なく次のトークンを生成する)の3つの状態を考慮しながら文章生成を行う。それに対して Phrase-based GBS では、Start と Continue を一体化させることで、指定語句を生成する際にフレーズ単位で生成する。このとき、 $k$ をビームの幅、 $C$ を指定語句の数とすると、タイムステップあたりの計算量オーダーは $O\left(k C^{2}\right)$ となる。
## 2.2.3 Phrase-based Approximate Grid Beam Search
前述の Phrase-based GBS を用いることで、複数の指定語句を必ず含む広告文を生成できるようになったが、Phrase-based GBS は、各タイムステップごとに全ての指定語句の生成確率を評価しているため、指定語句の数の二乗に比例して計算時間が増える。 そこで,指定語句の生成時に、各指定語句の 2 トー クン目以降の生成確率を計算せず、その評価を先頭トークンの生成確率のみで行うことにより評価回数を減らす Phrase-based AGBS 法を提案する。本手法により、全ての指定語句の評価を 1 回で行えるため、計算量オーダーを $O(k C)$ まで減らすことができる。
表 1 実験結果の表
## 3 実験
## 3.1 実験設定
本実験では、Phrase-based GBS と Phrase-based AGBS のそれぞれで実際に広告文を生成し、広告文の生成品質および、生成速度を比較する。具体的なデータセットは検索キーワードと LP と広告文の関係を学習するために、独自にスクレイピングすることで得られたデータを用いた。各データは検索キーワー ド、リスティング広告で表示された広告文、LP の HTML から構成されており、学習データ 741,506 件とテスト用データ 82,320 件に分割して使用した。
## 3.2 評価方法
生成品質は文章の流暢性や類似度を評価する手法である BLEU[Papineni 02] と ROUGE[Lin 04]
で評価する。ROUGE は 1-gram(ROUGE-1) および 2-gram(ROUGE-2) の 2 通りで評価した。ただし今回用いたテストデータはスクレイピングによって得られたデータで指定語句の情報がない。そこで本実験では、広告文からランダムに抜き出した複数のフレーズを指定語句に指定して広告文を生成した。指定語句の数は $C=2$ or 5 とし、生成時のビーム幅は $k=8$ とした。
## 4 結果と考察
## 4.1 結果
自動評価の結果を表 1 に,指定語句数ごとの生成速度の比較を図 2 に示す。同じ指定語句数で比較した場合、BLUE、ROUGE-1, ROUGE-2 の全ての生成品質指標で、Phrase-based GBS が優位であった。逆に、生成速度は Phrase-based AGBS が常に速かった。 また、表 2、表 3 に実際の生成例を示す。表 2 は Phrase-based GBS による生成文、表 3 は Phrase-based AGBS による生成文である。それぞれの生成文はリスティング広告のフォーマットに則り「タイトル 1 - タイトル 2 - 説明文 $1 」$ の 3 要素から構成されている。
図 2 指定語句数と生成時間のグラフ。指定語句が増えれば増えるほど、2つのアルゴリズムの生成速度差は開く。
## 4.2 考察
表 1 の結果から、Phrase-based AGBS は生成品質を 3\% 5\%下げる代わりに、生成速度を $24 \% \sim 43 \%$ 上げ
& - & \\
るアルゴリズムであると言える。品質をほとんど劣化させないまま生成速度を上げることができるため、その実用性は高い。また、図 2 からも分かるように、指定語句の数が多いほど Phrase-based AGBS の有効性は高くなると言える。
次に、実際の生成例に注目する。表 2、表 3 はいずれも Commerce Flow と呼ばれる Amazon の広告運用ツールの LP に対して生成された広告文である。表 2 の phrased-based GBS を用いた場合には、いずれの場合にも自然な広告文が生成された。指定語句が複数設定された場合や、複合語が設定された場合にも適切に生成できていることが確認できる。
次に表 3 の Phrase-Based AGBS を用いた場合を確認する。こちらも全体的に自然な広告文を生成できることが確認できた。しかし指定語句に複合語、つまり「最適な広告運用」を指定した場合には、「広告運用」というフレーズが多様され、生成品質の明らかな低下が確認された。
この原因は Phrase-based AGBS の近似の仕様によるものだと推測できる。Phrase-based AGBS は指定語句を先頭トークンで近似するため、「最適な広告運用」は「最適」に近似される。つまり後半の「広告運用」部分が見落とされることになるため、同フレーズの多用に繋がったと考えられる。 Phrase-based AGBS を利用する場合には指定語句に複合語を設定しないなど、やや工夫が必要であると言える。
## 5 まとめ
本研究では、複数の指定語句を必ず生成文内に含める Phrase-based GBS を提案した。加えて、Phrasebased GBS を高速化する手法である Phrase-based AGBS 提案した。実験の結果、Phrase-based GBS を用いることで指定語句が全て含まれた高品質な広告文を生成出来た他、Phrase-based AGBS によって生成品質をほとんど落とすことなく高速化出来たことが確認できた。今後は、生成品質を維持しながら、 より多様に、より高速に広告文を生成するような手法を考えていきたい。
## 参考文献
[大曽根 21] 大曽根宏幸, 張培楠. GPT-2 の転移学習によるキーワードを考慮した広告文生成, 2021 年度人工知能学会全国大会(第 35 回), 2021 .
[Ishizuka 21] Ishizuka, K., Kurogi, K., Kawakami, K., Iwai, D., Nakata, K. Generating Search Text Ads from Keywords and Landing Pages via BERT2BERT, 2021 年度人工知能学会全国大会(第 35 回), 2021.
[Zhang 17] Zhang, J., Utiyama, M., Sumita, E., Neubig, G., Nakamura, S. Improving Neural Machine Translation through Phrase-based Forced Decoding, In Proceedings of the 8th International Joint Conference on Natural Language Processing (IJCNLP 2017), pages 11-20, November 28-30, 2017
[黒木 21] 黒木開, 岩井大志, 川上孝介, 石塚湖太, 中田和秀.キーワードを考慮した BERT2BERTによる広告文生成, 2021 年度人工知能学会全国大会(第 35 回), 2021.
[Yamada 21] 山田康輔, 人見雄太, 田森秀明, 岡崎直観,
## 乾 健太郎: 指定語句を確実に含む見出し生成, 言語
処理学会第 27 回年次大会, 2021.
[Hokamp 17] Hokamp, C., Liu, Q. Lexically constrained decoding for sequence generation using grid beam search. ,In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 1535-1546,Vancouver, Canada. Association for Computational Linguistics., 2017.
[Chen 20] Chen, G., Chen, Y., Wang Y., Victor O.K.Li. Lexicalconstraint-aware neural machine translation via data augmentation. In Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence, International Joint Conferences on Artificial Intelligence Organization. Main track.(IJCAI-20), pages 3587-3593, 2020.
[Chousa 21] Chousa, K., Morishita, M. Input Augmentation Improves Constrained Beam Search for Neural Machine Translation: NTT at WAT 2021, The 8th Workshop on Asian Translation(WAT), 2021.
[Raffel 20] Raffel, C., Shazeer, N., Roberts, A., Lee, K., Narang, S., Matena, M., Zhou Y., Li, W., J. Liu. P. Exploring the limits of transfer learning with a unified texttotext transformer. Journal of Machine Learning Research, 21(140):1-67., 2020.
[Papineni 02] Papineni, K., Roukos, S., Ward, T., and Zhu, W.J. BLEU: a method for auto- matic evaluation of machine translation. In Proceedings of the 40th annual meeting of the Association for Computational Linguistics, pages 311-318., 2002.
[Lin 04] Lin, C.-Y. Rouge: A package for auto- matic evaluation of summaries. In Text summarization branches out, pages 74-81., 2004. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D6-5.pdf | # 大規模汎用言語モデルによるペルソナを考慮した応答生成
川本稔己 ${ }^{1,2}$ 山崎 天 ${ }^{1}$ 佐藤 敏紀 ${ }^{1}$ 奥村 学 ${ }^{2}$
${ }^{1}$ LINE 株式会社 2 東京工業大学
toshiki.kawamoto@linecorp.com
## 概要
対話における応答生成では, 自分のこれまでの発話内容や話者のペルソナとの一貫性を保つことが重要である. 本稿では長期間行われる対話を想定し, 従来のペルソナ対話システムでは十分考慮されなかった対話中のペルソナの変動性に着目する. 変動するペルソナを追跡する過程を「抽出」・「選択」・「更新」 の3つのタスクに分割し,それぞれを解くことで応答を生成する対話システムを提案する。提案手法は大規模汎用言語モデルである HyperCLOVA を用いて複数タスクを解く. 評価実験の結果から, 提案手法は従来のペルソナ対話システムより高い一貫性スコアを得られ, 長期間行われる対話の一貫性を保つために有効であることを確認した。
## 1 はじめに
従来の対話システムは, 対話履歴や話者のペルソナと矛盾した発話を生成してしまうことがある. ペルソナとは好みやプロフィールなど個性を表す短文のことであり, 従来の研究においては対話履歴やペルソナと一貫性のある応答を生成することが課題であった. 本稿では, 大規模汎用言語モデル HyperCLOVA [1] を用いてその課題に取り組む.
関連研究として, Zhang ら [2] は Persona Chat デー タセットを提供した. Persona Chat データセットには, 複数話者のペルソナとそのペルソナに沿った対話が含まれている.そのデータを利用することでぺルソナに沿った応答生成を学習, 評価することが可能となり,対話と自分のペルソナを用いて応答を生成する手法が提案されている [3,4]. しかし, 長期間行われる対話では対話履歴が増加し続けるため, 全てをシステムへの入力として扱うことが難しい. そのため, 対話履歴から自分のペルソナを抽出する取り組みが行われている $[5,6]$. しかし, これらの取り組みには, (I) 相手のペルソナには注目できていない, (II) ペルソナの数が多くなるとペルソナを選択
図 1 提案手法. 対話履歴からペルソナを抽出する. 抽出したペルソナに既存のペルソナからの変化が見られた場合更新する. ペルソナ集合から応答生成に必要なペルソナを選択し, 選択されたペルソナと対話履歴を用いて応答を生成する。
する必要がある, (III) ペルソナの変化には対応していない, といった欠点がある. そこで, 本稿では従来のペルソナ対話システムで十分考慮できていない対話中のペルソナの変動性に着目し, 変動するペルソナを追跡する過程を「抽出」・「選択」・「更新」の 3 つのタスクに分割する. そして,これらのタスクから得られたペルソナを使用して応答を生成するシステムを提案する. 本システムは複数のタスクを同時に解く必要があるが, それぞれにモデルを用意するのは多くの時間とコストがかかる。 そのため,これらのタスクを大規模汎用言語モデルである HyperCLOVA を用いて解く. HyperCLOVA とは, GPT-3 [7] と同様な性能・性質をもつ日本語に特化した言語モデルである. HyperCLOVA はショットと呼ばれる特定の言語タスクのサンプルを複数個埋め込んだプロンプトを作成し,その形式を学習することで特定の言語夕スク処理能力の獲得が期待できる.
対話システムの一貫性を評価するため, JPersona Chat データセット1)を用いた実験を行った. 自動評価の結果から大規模汎用言語モデルはベースラインモデルより一貫性がある応答生成を行うこと, 提案手法はペルソナをより考慮した応答を行うことを確認した. また, 長期間行われる対話を想定した人手評
^{1)}$ https://github.com/nttcslab/ japanese-dialog-transformers
}
図 2 ペルソナの抽出を行うためのプロンプトのテンプレート. \#以降はコメントである.
価の結果, 提案手法は従来のペルソナ対話システムより高い一貫性スコアを得られ, ペルソナの変動性を考慮した提案手法の有効性を確認した。
## 2 提案手法
従来の対話システムでは, 対話と初めに与えられた自分のペルソナを用いて応答を生成する. しかし,一貫した応答生成のためには対話中に新たに自分のペルソナが発生することや, 相手のペルソナを考慮する必要がある. よって, 本稿では対話から自分と相手のペルソナを抽出することを試みる (ペルソナの抽出). しかし, ペルソナの抽出を行えばペルソナの数が増加する. その結果, 対話の話題と関連性が低いペルソナが応答生成時のノイズになる可能性や, 言語モデルの入力長に収まらない可能性がある. そのため, 最適なペルソナを選択する必要がある (ペルソナの選択). また, 対話が長くなるとペルソナに変化が起こることも想定される. よって, ペルソナの変化を検知し, 必要に応じて更新を行う (ペルソナの更新). まとめると, 本システムはペルソナの「抽出」・「選択」・「更新」を行った上で応答を生成する. 概要を図 1 に示す。
## 2.1 ペルソナの抽出
対話から話者のペルソナを抽出するのには HyperCLOVA を用いる. HyperCLOVA に与えるプロンプトのテンプレートを図 2 に示す. 1 つのショットには対話の最終発話からペルソナを抜き出し,"[ユー ザの属性情報]" 以降に記述する. ショットには, 対話の最終発話にペルソナが含まれていないパターンも記述し, その場合"[ユーザの属性情報]"以降には何も記述しない.このプロンプトを用いて, 対話履歴の発話それぞれが抽出の対象となるように HyperCLOVA
図 3 ペルソナの更新を行うためのプロンプトのテンプレート. \#以降はコメントである.
を実行し,自分と相手のペルソナを抽出する.
## 2.2 ペルソナの選択
ペルソナの抽出を行ったことで保持するペルソナの数が増加する. そのため, 応答生成の際には適切なペルソナを選択する必要がある. ペルソナの選択には直前の対話を用いる. 具体的には, 直前に行われた自分と相手の発話を時系列順に繋ぎ合わせ,それを検索文字列とする. その検索文字列の埋め込み表現と, 保持しているペルソナの埋め込み表現とのコサイン類似度を計算し, 自分と相手のペルソナからそれぞれコサイン類似度の上位 5 つを使用する。
## 2.3 ペルソナの更新
本節では, 既存のペルソナを抽出したペルソナに置き換えるかどうか決定する手法について述べる。 まず, 抽出したペルソナと関連のあるペルソナが既存のペルソナの中に存在するか調べる. 抽出したぺルソナの埋め込み表現と既存のペルソナそれぞれの埋め込み表現の中からコサイン類似度が最も高いぺルソナを選択し, コサイン類似度が閾值 (0.7) 以上ならその選択されたペルソナを関連のあるペルソナとする。一方,コサイン類似度が閾値以下の場合抽出したペルソナは既存のペルソナと中立な関係であるとし, ペルソナの更新は行わず新しいペルソナとして追加する. 次に, 関連のあるペルソナを抽出したペルソナに置き換えるか HyperCLOVA を用いて決定する. プロンプトのテンプレートを図 3 に示す. ここで, 関連のあるペルソナと抽出したペルソナには以下の 3 つの関係が考えられる: (a) 等しい, (b) 変更が起きている, (c) 中立. (a), (b) の場合は関連のあるぺルソナを抽出したペルソナに置き換える必要があるので, 抽出したペルソナを出力する. (c) の場合は関連のあるペルソナを置き換える必要がないので, ど
図 4 ペルソナを考慮した応答生成のためのプロンプトのテンプレート. \#以降はコメントである.
ちらのペルソナも出力する. (a), (b), (c) 全てのパター ンをショットに記載し, 得られた出力を新しいペルソナとして追加する。
## 2.4 ペルソナを利用した応答生成
ペルソナの抽出 (\$2.1) ・更新 (\$2.3) を行い, ペルソナの選択 (\$2.2) で選択されたペルソナを用いて応答を生成する. 応答の生成には HyperCLOVA を用いる. プロンプトのテンプレートを図 4 に示す. ショットの前半がペルソナ, 後半が対話である. ショットに与えるペルソナと対話は JPersona Chat の訓練データから5つ使用した. また, 情報量が少なくつまらない応答となることを避けるため, 生成した応答の長さが短い場合にはその応答の続きとなる文を生成する.具体的には, 生成した応答が 12 文字 (事前の観察に基づく) 以下の場合, 図 4 のショットを図 5 のように変更し, 追加の文を生成する. そして, その文を元の応答に繋げて最終的な応答とする。
## 3 実験
## 3.1 実験設定
本稿で使用した HyperCLOVA のパラメータ数は 39B で, 1.8TB の日本語データで学習を行っている.埋め込み表現を入手するためには Universal Sentence Encoder [8]を用い,コサイン類似度を計るためには FAISS [9] を用いた. データセットは JPersona Chat を用いる. このデータは Persona Chat を日本語に変換
クローバのペルソナ : 私は早起きが苦手です。私は高校生です。私はピーマンが嫌いです。私はおばあちゃん子です。私は陸上部に入って
います。
ユーザのペルソナ: 私は以前、沖縄に住んでいたことがあります。私は海のそぞに售んでいます。私はダンスが得意です。私は怒りっぽいです。私が尊敬する人は、母親です。
ユーザ:そうなんだ!近いね!わたし、沖縄に住んでたことがあるんだけど、この辺も似てるね。
クローバ: そうなんだね。
[続き] じゃあここでは沖縄気分が味わえるわけだ。
ユーザ:うん。ちょっとだけだけど、そんな感じがするよ!ところで、
わたし、ダンスが得意なんだけど、あなたは何が得意?
クローバ: 私は陸上部だから、走るのが得意かな。
[続き]短距離走よりも長距離走が自信ある。
図 5 複数文を生成するプロンプトに与えるショット例.
したデータセットで, 話者同士のペルソナと最大 6 ターンの対話が含まれている. データの分割は元の分割方法 ${ }^{1)}$ に従い, テストデータを用いて応答を生成し実験を行った. 実験は以下のモデルで比較を行う.
BlenderBot ベースラインの Transformer ベースのペルソナ対話システム [3]. 事前学習に加えて JPersona Chat の訓練データで fine-tuning を行っている [10].
w/o Persona 対話履歴のみを利用して HyperCLOVA で応答を生成するモデル。
w/ Persona 対話履歴と初めに与えられたペルソナを利用して HyperCLOVA で応答を生成するモデル.
以下のモデルが提案手法を利用したモデルである.
Extract w/ Persona に加えて, 2.1 節のペルソナの抽出を行ったモデル.
Extract+Select Extract に加えて, 2.2 節のペルソナの選択を行ったモデル。
Extract+Select+Update Extract+Select に加えて, 2.3 節のペルソナの更新を行ったモデル.
応答生成時には, 自分のペルソナとそれまでの対話履歴を用い, 相手のペルソナは使用していない. 対話履歴はベースライン手法の BlenderBot と合わせるために直前の 3 発話を入力に加えた.
## 3.2 自動評価
評価指標は応答と正解文との一致度を測るために BLEU [11], 応答の多様性を測るために Dist-1, Dist-2 [12] を使用する。一貫性を測るための指標としては, 生成した応答とペルソナの間で自然言語推論 (NLI)を行うことによって導出される Consistency Score (C.Score) [13] がある. しかし, 手法によって推論の対象となるペルソナの数が大きく異なることから, 従来の方法で比較することはできない. よって本
表 1 自動評価結果
表 2 人手評価結果
稿では,生成した応答が生成のために用いた自分のペルソナを含意/中立/矛盾している割合を NLI 分類器で評価する. NLI 分類器には, 日本語で学習された BERT $^{2)}$ [14] を NLI データセットで fine-tuning したモデルを用いた. NLI データセットとしては発話とペルソナのペアで構成される DNLI [15] を用いるのが本稿の設定には適しているが, 日本語ではないため, 本稿では日本語で記述された SNLI [16] である JSNLI [17]を用いた. JSNLI はテストデータを提供していないため, 元の訓練データを訓練データと検証データに分割し, 元の検証データをテストデータとした. 正解率は $92.31 \%$ であった.
結果を表 1 に示す. 従来のペルソナ対話システムの手法を大規模汎用言語モデルに適応させた w/ Persona はべースラインである BlenderBot より含意の割合が高く, 矛盾の割合が低いことから一貫性がある応答生成を行うことを確認した. 抽出などの提案手法を利用したモデルは $\mathrm{w} /$ Persona と比較して Dist-1, Dist-2 の値が高いことから, Dull Response と呼ばれるつまらない応答ではなく, ペルソナを考慮した応答を生成している割合が高いと考えられる. それにより, 含意の割合が増加している一方で矛盾の割合も増加している。
## 3.3 人手評価
長期間行われる対話の一貫性は自動評価だけでは十分に測ることができないため, データセットの続きとなる対話を行い, その応答に対して人手評価を行った. 具体的には, テストデータからランダムに 10 対話を選び, その対話から 1 週間後の対話を想定して 10 ターンの対話を行った. 3 つのモデル
^{2)}$ https://huggingface.co/cl-tohoku/ bert-base-japanese-v2
}
(BlenderBot, w/ Persona, Extract+Select+Update) で対話のそれぞれの応答を評価した. 評価指標は関連性と一貫性の 2 つで, 関連性は前の発話またはペルソナと関連性のある応答ができているかを示す.一貫性は生成した応答が対話履歴とペルソナに矛盾していないかを示す. それぞれ 3 段階で 1 点 (悪い) から 3 点(良い)を付与した. その平均点を最終的な結果とし表 2 に示す.
評価結果から, 提案手法は関連性,一貫性ともに最も高いスコアを得られ, 提案手法が有効であることを確認した. 今回の実験では, 提案手法以外のモデルは新しいペルソナの発生や, 初めに与えられたペルソナからの変化を考慮できなかった可能性がある.
## 3.4 ペルソナの抽出の評価
表 1 の結果から, ペルソナの抽出を利用したモデルは $\mathrm{w} /$ Persona と比較して矛盾の割合が増加したので, ペルソナの抽出の性能を人手で評価した. テストデータからランダムに 100 件の発話を選び, 抽出したペルソナが正しいかを二値で判定した. その結果,正しく抽出されたのが 71 件, 誤って抽出されたのが 29 件となった. ペルソナの抽出は対話履歴の全発話に対して行うので, 対話の長さが長くなれば全抽出結果が正しい確率が低くなることから, 抽出性能が十分であるとは言えない. 抽出の性能を改善することで提案手法の性能も向上することが予測される.
## 4 おわりに
本稿では,一貫性がある対話を行うにはペルソナを動的に「抽出」・「選択」・「更新」する必要があるという仮説の元, 大規模汎用言語モデルを利用してシステムを設計した. 評価実験の結果, 提案手法は初めに与えられたペルソナのみを利用したモデルより高い一貫性スコアを得られ, 提案手法の有効性を確認できた. しかし, 提案手法は大規模汎用言語モデルに依存した実装やタスク設計になっており,特に精度面で不十分な部分があったので, 今後はその改善に取り組んでいきたい。
## 参考文献
[1] Boseop Kim, HyoungSeok Kim, Sang-Woo Lee, Gichang Lee, Donghyun Kwak, Jeon Dong Hyeon, Sunghyun Park, Sungju Kim, Seonhoon Kim, Dongpil Seo, Heungsub Lee, Minyoung Jeong, Sungjae Lee, Minsub Kim, Suk Hyun Ko, Seokhun Kim, Taeyong Park, Jinuk Kim, Soyoung Kang, Na-Hyeon Ryu, Kang Min Yoo, Minsuk Chang, Soobin Suh, Sookyo In, Jinseong Park, Kyungduk Kim, Hiun Kim, Jisu Jeong, Yong Goo Yeo, Donghoon Ham, Dongju Park, Min Young Lee, Jaewook Kang, Inho Kang, Jung-Woo Ha, Woomyoung Park, and Nako Sung. What changes can large-scale language models bring? intensive study on HyperCLOVA: Billions-scale Korean generative pretrained transformers. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 3405-3424, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics.
[2] Saizheng Zhang, Emily Dinan, Jack Urbanek, Arthur Szlam, Douwe Kiela, and Jason Weston. Personalizing dialogue agents: I have a dog, do you have pets too? In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2204-2213, Melbourne, Australia, July 2018. Association for Computational Linguistics.
[3] Stephen Roller, Emily Dinan, Naman Goyal, Da Ju, Mary Williamson, Yinhan Liu, Jing Xu, Myle Ott, Eric Michael Smith, Y-Lan Boureau, and Jason Weston. Recipes for building an open-domain chatbot. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 300-325, Online, April 2021. Association for Computational Linguistics.
[4] Haoyu Song, Yan Wang, Kaiyan Zhang, Wei-Nan Zhang, and Ting Liu. BoB: BERT over BERT for training personabased dialogue models from limited personalized data. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 167-177, Online, August 2021. Association for Computational Linguistics.
[5] Jing Xu, Arthur Szlam, and Jason Weston. Beyond goldfish memory: Long-term open-domain conversation. arXiv preprint arXiv:2107.07567, 2021.
[6] 吉田快, 品川政太朗, 須藤克仁, 中村哲. 応答履歴に応じたペルソナの更新が対話システムの応答生成へ与える影響の分析. 人工知能学会研究会資料言語・音声理解と対話処理研究会, Vol. 93, pp. 32-37, 2021.
[7] Tom B Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, et al. Language models are few-shot learners. arXiv preprint arXiv:2005.14165, 2020.
[8] Daniel Cer, Yinfei Yang, Sheng-yi Kong, Nan Hua, Nicole Limtiaco, Rhomni St John, Noah Constant, Mario Guajardo-Céspedes, Steve Yuan, Chris Tar, et al. Universal sentence encoder. arXiv preprint arXiv:1803.11175,
2018.
[9] Jeff Johnson, Matthijs Douze, and Hervé Jégou. Billionscale similarity search with gpus. arXiv preprint arXiv:1702.08734, 2017.
[10] Hiroaki Sugiyama, Masahiro Mizukami, Tsunehiro Arimoto, Hiromi Narimatsu, Yuya Chiba, Hideharu Nakajima, and Toyomi Meguro. Empirical analysis of training strategies of transformer-based japanese chit-chat systems, 2021.
[11] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics.
[12] Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. A diversity-promoting objective function for neural conversation models. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 110-119, San Diego, California, June 2016. Association for Computational Linguistics.
[13] Andrea Madotto, Zhaojiang Lin, Chien-Sheng Wu, and Pascale Fung. Personalizing dialogue agents via metalearning. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5454-5459, Florence, Italy, July 2019. Association for Computational Linguistics
[14] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[15] Sean Welleck, Jason Weston, Arthur Szlam, and Kyunghyun Cho. Dialogue natural language inference. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3731-3741, Florence, Italy, July 2019. Association for Computational Linguistics.
[16] Samuel R. Bowman, Gabor Angeli, Christopher Potts, and Christopher D. Manning. A large annotated corpus for learning natural language inference. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 632-642, Lisbon, Portugal, September 2015. Association for Computational Linguistics.
[17] 卓見吉越, 大輔河原, 禎夫黒橋. 機械翻訳を用いた自然言語推論データセットの多言語化. Technical Report 6, 京都大学, 京都大学/現在, 早稲田大学, 京都大学, jun 2020 | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D7-1.pdf | # 文章ジャンルに基づくテキストマイニング結果の比較考察
落合由治 ${ }^{1}$ 曾秋桂 ${ }^{1}$ 王嘉臨 ${ }^{1}$ 葉夌
${ }^{1}$ 台湾・淡江大学日本語文学科 \{098194, ochiai, 137176, 152790\}@mail. tku. edu. tw
## 概要
2018 年から AI 情報処理の進歩に合せ, 台湾での人文社会系日本語関係学科および日本語教育での, 研究と教育内容への接続を目指す試みを種々,行っている. その中で, 研究面ではテキストマイニング技術を人文社会系資料の読解また要点や論点抽出に応用する取り組みを各種のテキストを用いて試行してきた. その結果, テキストの文章ジャンルの相違によって抽出できる特徴に大きな違いがあることが分かってきた. また, その文章ジャンルによる特徴は言語の相違を超えて共通性があり, 言語類型論などによる文レベルの言語の差異とは異なっていることが分かった. しかし,これらは対象とする言語資料に関する質的理解と相即的な結果で, 対象資料の質的特徴が分からないままテキストマイニングの結果のみを見ても, 有意義な特徵抽出は得られない. なぜ,こういう結果のかについて, 新しい言語表現の特徴を捉える必要があると考えられる。
## 1 はじめに
テキストマイニングは, 言語資料の特徴抽出手法のひとつで, 計量言語学や言語をデータとして扱う各種の分野では, 言語の特徴量を見出す手法として応用されてきた [1]. 一方, 社会科学分野では, 資料から有意義な表現特徴を数理的に取り出す手法として広く応用され, 現在では, BI ツールとしてビジネスでも広く活用されるようになっている[2].しかし, 質的方法を中心にしている人文社会系での応用は限定的であり, 人文社会系の質的言語資料読解との接続は難しかった. 論者たちは, 2018 年から AI 情報処理の進歩に合せ, 台湾での人文社会系日本語関係学科および日本語教育での研究と教育内容への接続を目指す試みを実施する中で, 研究面でテキストマイニング技術を人文社会系資料の読解また要点や論点抽出に応用する取り組みを各種のテキストを用いて試行してきた. 本発表では, その結果明らかになったテキストの文章ジャンルの相違によって抽出で
きる特徴に大きな違いがあること, その文章ジャンルによる特徴は言語の相違を超えて共通性があること, 対象とする言語資料に関する質的理解と相即的な結果であることの三点について述べ,テキストマイニングによる言語資料の特徴抽出の課題について考察していきたい.
## 2 日本語の文章ジャンルによる結果
まず,テキストマイニングはテキストの文章ジャンルの相違によって抽出できる特徴に大きな違いがある点について述べる. 現代社会で一般に広く読まれている日本語の文章ジャンル例として, 小説, 論説,韻文を選び, 現代小説は村上春樹「ドライブマイカ一」, 論説は読売新聞社説「データ流通世界の成長加速するルールに 2021/12/26」,詩にはアニメソング「planetarian一ちいさなほしのゆめ」を取り上げた.テキストマイングには樋口耕一 (2020)の KH Coder を使用し, 分析方法は共起ネットワークを用いた [3].以下,結果の要点を紹介する.
図 1 日本語現代小説の結果
まず, 現代小説では語の出現頻度に左右されて人物名とその物語中での動きに関する語が作品の部分ごとに多数出て, 読解で重要な出現頻度の低い語彙は質的読解を事前にしない限り十分取り出せない.
図 2 日本語論説の結果
図 3 日本語歌詞の結果
一方, 論説である社説の場合は, 図 2 のように内容の要点を示す語彙群を関連性のあるクラスターとして容易に抽出でき, 各クラスターを見るだけで, 内容をほぼ推測できる. 最後に, 歌詞の場合では, 韻文中で反復される,いわゆるリフレーン部分にあたるような語彙群が主に抽出され, 歌詞の重要なモチーフを理解する手掛かりになるが, それ以外の部分は読解しない限り抽出しにくい. 分析結果の理解容易性で見ると (易) 論説 $>$ 韻文 $>$ 小説(難)の順になり,言語表現のジャンルという文章構成的差異に応じて,抽出結果に質的差異が存在すると考えられる。
## 3 外国語文章との分析結果比較
次に, 日本語文章の分析結果と, 外国語文章の分析結果を比較して考察する. 外国語文章の例は, 華語の例に, 現代小説は金庸「書剣恩仇録」, 論説は自由時報社説「不要見不得台灣好 2021/12/27」,詩には五月天「温柔」, 英語の例に, 現代小説は Philip K. Dick 「Second Variety」,論説は朝日新聞「Draft budget shows lack of focus, no fiscal discipline 2021/12/25」,詩には『アナと雪の女王』「Let it go」を取り上げた. 以下, 順に結果を見ていく.
## 3.1 華語と英語の小説の場合
図 4 華語現代小説の結果
図 5 英語現代小説の結果
華語の結果でも日本語の場合と同じく, 現代小説では語の出現頻度により人物名とその物語中での動きに関する語が作品の部分ごとに多数出て, 読解で重要な出現頻度の低い語彙は質的読解を事前にしない限り十分取り出せない. テキストマイニングだけでは, ストーリーや背景を理解する手掛かりは得られない. 英語の場合も同じで, 主な登場者とその動きを描く語彙が中心になり, 部分で出ている小さなク
ラスターのとの関係は明確にはならず,ストーリー を把握し, 作品読解の重要なキーワードを決めるには, 事前の十分な読解が必要である. 小説のような文章構成は, 特定の時の持続の中で登場者の動きを描写する部分が中心になり, その前後や内部に, さまざまな説明を行う要素が入った枠構造をなしている場合が多く [4], 質的に異なる表現で構成された文章はテキストマイニングの方法では十分に要点を抽出できないと考えられる.
## 3.2 華語と英語の論説の場合
図 6 華語論説の場合
図 7 英語論説の結果
次に, 華語と英語の論説の結果を比較してみると,日本語の論説の場合と同じく,論説中の要点を示す語群がそれぞれクラスターとして大きなまとまりで抽出されて, 各部分の内容を容易に理解できる. 論説は, 語の階層化構造による各概念のネットワークがあり,こうした構造を用いて各部分で複数の話題の焦点を作ることにより論点が生まれる文章構成と考えられるので,[5]テキストマイニングによって,各部分の要点を容易に取り出すことができると言える.論説ジャンルの文章は, 最もテキストマイニングに向いている資料となる. 論説ジャンルは、作者の意見を書いたもので、インターネットの消費者の意見、各種のエッセイ、論文、解説、説明など、作者の意見を述べた類の、このジャンルに含まれる文章はテキストマイニングなど数理的手法で容易に特徴を抽出できると言える。
## 3.3 華語と英語の詩の場合
図 8 華語歌詞の結果
図 9 英語歌詞の結果
最後に, 華語と英語の歌詞の結果を比較してみると,これも日本語の場合と同じく, 詩の中で反復して用いられている語彙がクラスターのまとまりになって抽出された。いわゆるリフレーンに当たる部分に出てくる語彙が多く, その部分を詩の中心モチーフ
と理解する手掛かりになる.
しかし, それ以外の部分の語彙は断片的で, そのままでは内容理解の手掛かりにはならない. 韻文は,現代詩の場合, 各部分の各連がリフレーンに当たる反復される部分に收斂し, どの部分も基本的に同じ收斂部分を持つことで構成されている文章構成と考えられるので [5], 反復される收敛部分はテキストマイニングの手法には適している. しかし, その收斂部分に到る各部分の内容は, 抽出しがたい.
## 3. 4 各言語を超えた文章ジャンルの共通性
以上の結果を分析結果の理解容易性で見ると,日本語と同じく華語, 英語でも (易) 論説>韻文>小説
(難) の順になる.このことから, 文章表現のジャンルという文章構成の差異に応じて, 抽出結果に質的差異が各言語の形式的文法的差異を超えて, 存在すると考えられる.つまり, 各言語の形式的文法的差異を超えて, 文章構成の質的差異による文章ジャンルがそれぞれあり, それは今回取り上げた三言語では共通した構成であると推測できる.テキストマイニングの有効性の相違は, 各言語の差異には拠らず, 文章構成の差異によって決まっている可能性があると考えられる。
今回は, 特に人文社会系でテキストマイニングを応用して質的量的研究を行うことを念頭に [6], 文章ジャンルごとで結果の比較をおこなった. 人文社会系でテキストマイニングを応用する場合は, 元々の基本的研究方法である質的研究を前提に応用をおこなえば, 質的量的研究に寄与できる可能性が十分にあることが分かった.
一方, 広汎な言語資料を対象にした自然言語処理においては, 言語一般という前提が成り立つのは, 文章ジャンルが関係しないレベルでの言語の規則性についてではないかという問題提起ができるかもしれない. そして, 意味的処理やさらに高度の多義的処理を扱う場合には, 語レベルでの問題を超えた文章レベルの文章ジャンルごとの問題が存在していることを視野に入れて, 処理をデザインしていくことで, 今まで解決できなかった問題を乗り越えられる可能性があると考えられる。[7]
また, 言語の問題として, 各言語の形式的文法的差異を超えて, 文章ジャンルが具体的な言語運用を規定している可能性があることを考えられる. はたして文章レベルの言語規則とは何であるのか, 今まで意識されてこなかった言語表現の問題が存在してい
るのではないか,こうした課題も新たに浮上してくると思われる。
どのように新しい問題の圈域を扱っていくか, 今後の探究をおこなっていきたい.
## 4 おわりに
人文社会系分野で AI 技術に接続できる部分を探りながら, 手掛かりとしてテキストマイニングの有効性と限界という視点を得たことで, 文章ジャンルによる言語表現の規定という, 今までの研究では, 主題化しにくかったテーマが見えてきた. 文章ジャンルの問題は、1950-70 年代までは関心を集めた分野であったが、現在は自明視されて扱われることはほとんどない。こうした問題をどう考えるか、言語研究などの分野で新しい視点を提出していかなくてはならない。同時に、こうした言語の特徴を自然言語処理の特徵抽出の問題として考えるなど, 自然言語処理の面からもアプローチできるか探求しながら,新しい問題の探索を続けて行きたい.
## 謝辞
本研究は台湾科技部研究案 109-2410-H-032 -061 MY3 の助成を受けたものです.
## 参考文献
1. 計量言語学会篇. データで学ぶ日本語学入門. 東京 : 朝倉書店, 2017.
2. IT トレンド.【図解】BI ツールとは? 機能や目的、種類などわかりやすく徹底解説! IT トレンド. (オンライン) 2021 年 9 月 22 日. (引用日: 2021 年 12 月 27 日.) https://it-trend.jp/bi/article/explain.
3. 樋口耕一. 社会調査のための計量テキスト分析第 2 版. 京都:ナカニシヤ出版, 2020 .
4. ジェラルド・プリンス. 物語論辞典. 東京 : 松柏社, 1997 .
5. 永尾章曹. 国語表現法研究. 東京:三弥井書店, 1975.
6. ウド・クカーツ. 質的テキスト分析法. 東京:新曜社, 2018.
7. 北原保雄(監修)佐久間まゆみ(編)。朝倉日本語講座新装版 7 文章・談話. 東京 : 朝倉書店, 2018 . | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D7-2.pdf | # 接辞「〜ング(-ing)」が外来語サ変動詞に与える意味役割 ${ ^{\dagger}$
}
南 亜希子
金沢大学大学院 人間社会環境研究科
}
akim373.1608@gmail.com
## 概要
本研究では接辞「〜ング (-ing) 」を取り上げ,外来語接辞が日本語の語彙に与える意味役割について検討を行う.分析では『国語研ウェブコーパス (NWJC)梵天版』のコーパスデータを用い, \{ポスト/ポスティング $\}$ する,\{タップ/タッピング $\}$ する,\{ブロック/ブロッキング $\}$ するの 3 組における共起語を比較した.その結果,いずれの例においても「〜ング」の有無によって共起語のジャンルが異なり, 特に「〜ング」付加形の方が専門用語としての使用が多い傾向にあると分かった. したがって「〜ング (-ing) 」には, 非付加形よりも語の使用範囲を区別・狭くする役割があると考える。
## 1 はじめに
日本語における外来語(カタカナ語)が難解であると叫ばれることは今に始まったことではないが, その原因の 1 つに外来語の意味理解が挙げられる. それらの問題の中には語の形態, 具体的には外来語接辞との関連もあると考える。例えば本稿で取り上げる「〜ング(-ing)」は,「現に〜している(すること)」というイメージ[1]が想起され外来語でも多用されているが,原語と借用後のカタカナ表記とで形態のずれが起こっている問題や,「〜ング (-ing)」付加の有無による意味の使い分けが明確になっていないという問題もある.
本稿では,外来語接辞「〜ング (-ing) 」が有する意味役割を,日本語コーパスにおける量的分析から検討する。
## 2 先行研究
「〜ング(-ing)」が付加する外来語サ変動詞について言及された研究は澤田やビタン, 国立国語研
澤田[2]では,原語において動名詞形を有するものが日本語に借用されても「〜ング(-ing)する」が付加しやすく,「\{*ブラシノブラッシング $\}$ する」 のように「〜ング」が付くことで具体物から何らかの行為を指す語へと変化される旨が示唆されている。加えてビタン[3]では,日本語に借用されている「〜 ング」が付加する外来語のうち, 原語(英語)において動詞としての意味が優先されている語の方が 「〜ング」が付加してサ変動詞化しやすいことを明らかにし, 日本語母語話者にとって「〜ング (-ing)」 が動作性を強めるために有用な接辞であると考えられている旨を示唆している。また国立国語研究所[4] では,「メジャーカップ (measuring cup// ${ }^{*}$ measure cup)」 や「ドライビングスクール (driving school// drive school)」などの語を例に挙げ,借用時に「〜ング」 が付加する語とそうでない語が混在しているにも関わらず,どのような語に「〜ング」が付加するかについては言及されていない点を指摘している.
以上のように,「〜ング (-ing) 」が付加する外来語(動詞形も含む)について言及された研究は散見されるものの,そもそも何故外来語に「〜ング」 の付加形と非付加形の両方が見られる場合があるか,「〜ング」が語に与える意味役割はどのようなものであるかは明らかになっていない。本稿では,「〜 ング」の付加形と非付加形の語双方を比較し,「〜 ング (-ing)」が有する意味役割について検討する.
## 3 分析方法
本研究では, 『国語研ウェブコーパス(NWJC)梵天版』のの「〜ングする」の検索結果を使用し, KH Coder による対応分析から対象語がどのような文脈や場面で使用される傾向にあるかを分析する。
『国語研日本語ウェブコーパス (NWJC)』とは, ウェブを母集団としてテキストの採取・構築が行わ
れた 100 億語規模のテキストコーパスである[5]. 本コーパスの母集団がウェブ資料であるゆえ,特定の語におけるレジスターや話者属性等が見えにくいという短所もあるが,NWJC の規模の大きさから他コ一パスでもヒット件数が少なかった(または 0 件であった)語のデータ収集も容易となる。また,『梵天』にて公開されていたデータの収集時期が 2014 年 10 月から 12 月と比較的新しいことから,より現在に近い言語使用状況が明らかになると考えた。なお, 検索には検索系『梵天』の品詞列検索を用い,検索画面から「『対象語〈表層形〉』+『動詞〈品詞 1 〉、サ行変格〈活用型 1 〉』」と検索した。 NWJC によるテキストデータの収集後は,KH Coderを用いた内容語iiのみの対応分析を行った. 対応分析を行うことによって, 複数群との間における抽出語の特徴語の相関を, 2 次元の散布図で視覚的に見ることが可能となっている[6]. 本研究では「〜 ング(-ing)」が付加する外来語とその非付加形を比較し, それぞれの語にどのような語が共起するか, その相違により「〜ング」にどのような意味役割を有するか,という観点から分析を実施した.
また対応分析に加えて,対象語のコロケーション統計も行なった. テキストデータを目視で確認したところ,対応分析の散布図では出現していないが
「〜ング」付加形と非付加形それぞれの語を特徴づけるために重要となり得る共起語が複数見られた.具体的な手順としては, 同ソフトウェアの KWICコンコーダンス機能から対象語の検索を以下の表 1 の通り行い, ダイス(Dice)係数が高い順にコロケー ション統計の集計 (集計範囲: 左 5 右 5)を行った.
表 1 KWIC コンコーダンスによるコロケー ションの抽出方法
} & & \multicolumn{3}{|c|}{ 追加条件 } \\
ii 本稿では KH Coder の分析機能で選択可能な品詞のうち,「名詞」「サ変名詞」「形容動詞」「数詞」「固有名詞」「未知語」「タグ」「動詞」「形容詞」「副詞」「名詞 B」「動詞 B」「形容詞 B」「名詞 C」が内容語に相当するとみなし, 分析対象とする.
なお,本研究で取り上げる「〜ング (-ing) する」及び「〜ング (-ing)」非付加形の動詞は,以下の 3 例である.
$\cdot$ $\quad\{$ ポスト $/$ ポスティング\} $\} る$
・\{タップ/タッピング $\}$ する
・ $\{$ ブロック/ブロッキング $\}$ する
## 4 分析結果
## 4.1 \{ポストノポスティング\ する}
NWJC の検索結果では,「ポストする」は 3679 件,「ポスティングする」は 2750 件出現した. 以下の図 1 に分析結果の散布図 (語の最小出現数 : 100) を示す.
図 1 \{ポスト/ポスティング\} するの対応分析結果
「ポストする」の共起語では,「コメント」「ブログ」「サイト」「エントリー」「投稿」「Twitter」「メール」など,インターネットに関する語が多く見られた。その一方「ポスティングする」では,「チラシ」「広告」「近所」「マンション」「地域」「ビラ」「作る」などの語が特徴的だと示された。以下の(1)(2)は,NWJC で出現した\{ポスト/ポスティング\$するの例文である。 }$
(1) 尚、このエントリは FC2 ブログ, Seesaa ブログの両方にポストしています(『Sheep Track 2.2』,下線・波線は発表者による)
(2)DM 配布会社によっては指定した地域全てに, チラシや案内をポスティングする「全域配布」という配布方法もありますので,お近くの住宅地をターゲットに全域配布をかける
という手もあります
(『がんこおやじのブログ』)
## 4. 2 \{タップ/タッピング\ する}
NWJC の検索結果より,「タップする」 1000 件iii,「タッピングする」 812 件を分析した結果,以下の図2(語の最小出現数 : 40)のようになった.
図 2 \{タップ/タッピング $\}$ するの対応分析結果上図より,「タップする」は「選択」「画面」「アプリ」「ボタン」「アイコン」「入力」など,スマ ートフォンなどのタッチパネルを有する電子機器やその操作に関する共起語が見られた. また, 散布図における「タッピングする」では,「肌」「軽い」「ツボ」「顔」「指」など、マッサージの動作や美容に関する語が出現した。
加えて「タッピングする」では, ダイス係数も観察した結果,「ギター」「フレット」「ネジ」などの語も共起していた.これらはギター等の演奏技術「タッピング奏法」や,工具を使ってネジを締める
ック/ブロッキング\}するの NWJC データについては, 「〜ング」非付加形と付加形とのの語の件数に大きな差が生じていた. (「タップする」27022 件,「ブロックする」43029 件,「〜ング」付加形は本文で報告した件数と同じ)そのため,「夕ップする」「ブロックする」は『梵天』でデータを取得したのち, 1000 件のランダムサンプリングを行った上で分析を行なった. ランダムサンプリングでは,発表者自身で Excel を用いて取得デー 夕全文に RAND 関数で乱数を与え, 上位 1000 件 (降順)を抽出するという手法をとった。
}
こと[7]を指す「タッピング」を表すと考えられる。
「タッピングする」に特徴的な共起語一覧は, 以下の表 2 の通りである.
表 2 「タッピングする」に特徴的な共起語一覧
本節の内容を踏まえ,以下の(3)(4)に「\{タップ/ タッピング\} する」の例文を示す.
(3)スマートフォンサイトから地図を検索し,トイレアイコンをタップす扎地図上にアイコンが表示される仕組み
(ITmedia Mobile『スマホ版マピオンで「多機能トイレ検索サービス」がスタート』)
(4) 3回トントンとつけて後は肌にタッピングしていきます
(『ここあんの綺麗になる法則』)
## 4.3 \{ブロックノブロッキング\ する}
NWJC のテキストより「ブロックする」1000 件 iii,「ブロッキングする」996 件のデータで対応分析を行った。その結果の散布図(語の最小出現数 : 40) を以下の図 3 に示す.
図 3 \{ブロック/ブロッキング\} するの対応分析結果
上図の結果より,「ブロックする」では,スポー ツ(特にサッカー)やIT・インターネットにおける 「シュート」「メール」「機能」「アクセス」「攻
撃」などが共起した. また, ダイス係数を算出したところ,「花粉」「紫外線」「メラニン」なども特徵的な語として出現していた. 以下の表 3 に,「ブロックする」に特徴的な共起語を示す.
一方, 図 3 の散布図に出現した「ブロッキングする」の共起語は,「髮」「毛」「巻く」「抗体」「血清」「結合」「部分」「細胞」「サイト」などであった。以下の(5)(7)は「\{ブロック/ブロッキング $\}$ する」の例文である.
(5) SPF20・PA++あるので日常の柴外線はきちんとブロックしてくれるので安心できます (『キレイナビ』)
(6)髮を細かくブロッキングして、毛先が染まらないようにラップでくるんでゴムで留めてから染色したんだけど、かなり面倒くさかったです(汗)(『Happy little Vegemite』)
(7) 細胞は、60 時間 $70 \%$ エタノールで染色し、 PBS で三回洗浄し、そして 15 分間 5\%血清アルブミンでブロッキングした (ekouhou.net 『前立腺癌治療組成物及び前立腺癌治療組成物の有効成分のスクリーニング方法』)
## 5 考察
本研究の分析では, 接辞「〜ング (-ing) 」が有する意味役割を探るため,日本語コーパスにおける接辞付加の有無による共起語の相違を対応分析等で調查した. その結果, 3 例共通して「〜ング」付加の有無で共起語が異なっており,とりわけ「〜ング」付加形では, 特定分野における専門用語としての使用も散見された。
以上の結果を踏まえ, 日本語における外来語接辞「〜ング(-ing)」には,以下の役割を有すると考える。
## - 外来語接辞「〜ング (-ing)」が持つ意味役割の仮説 :
先行研究で指摘されてきた「動作性を強める」役割に加え, 非付加形の語と大まかな動作のイメージを共有しつつも,「〜ング (-ing)」の非付加形よりも語の使用範囲を区別・狭くする(特定の場面でしか使わ
れない語や専門用語として使われる傾向にある)。
今回取り上げた語では, 原語における動詞の意味が外来語にも借用されており,「〜ング」が付加していない状態でも「動作」の意味を既に有していると考えられる. それでも「〜ング」が付加する形が見られるのは, 先行研究でも示唆されていたように, 動名詞・動詞の意味を有する語と「〜 ング」との親和性が高いためであり. 今回の分析結果でも「〜ング」の役割の一つとして「動作性を強める」点を有することは否定出来ない。
そして, 「4 分析結果」の章にて 3 例の分析を行った結果, いずれの例も「〜ング」付加の有無によって文や共起語のジャンルが異なることが明らかとなった。本稿の事例を見ると,「\{ポストノポスティング\} する」では「投函・投稿する動作」,「\{タップ/タッピング\}する」では「(軽く) 卬く動作」,そして「\{ブロック/ブロッキング\}する」では「事物の阻害・遮断を行う動作」 を共有している。このような大まかな「動作」自体は「〜ング」付加の有無で大きく変化しないものの,使用される場面がそれぞれ異なることによって,「〜ング」には非付加形と語の使用範囲を区別させる役割があると考えられる。
## 6 おわりに
本稿では,外来語接辞が有する意味役割が明らかになっていないという課題から,「〜ング (-ing)」 を例にその検討を行なった。\{ポスト/ポスティン } グ $\}$ する,\{タップ/タッピング $\}$ する,\{ブロックノブロッキング\}するの 3 例の共起語をそれぞれ検討した結果, 3 例全てに共通して「〜ング」付加の有無によって共起語のジャンルがそれぞれ乘離していた.この結果を踏まえて, 日本語の外来語における接辞「〜ング(-ing)」には,「動作性を強める」役割に加え、非付加形の語と大まかな動作のイメージを共有しつつも、「〜ング(-ing)」の非付加形よりも語の使用範囲を狭くする役割があることが示唆された。
最後に, 今後の課題として以下の 3 点を挙げたい.
・他ジャンルのコーパスにおける「〜ング
(-ing) 」の使用状況の調査
- 他の外来語接辞の事例検討
- 通時的観点からの調查
## 参考文献
1. コア理論で文法指導を(11) 文法の意味から状況の意味の構成へ! 一実践指導例(3) : 動詞の〜ing 形一. 佐藤芳明, 河原清志 ,田中茂範. 12 , 文京区:大修館書店, 2008 年, 英語教育, 第 56 巻, ページ: 52-54.
2. 日本語教育のための基本外来語について. 澤田田津子. 1, 奈良市 : 奈良教育大学, 1993 年, 奈良教育大学紀要 (人文・社会科学), 第 42 巻, ページ: 225-239.
3. 機能形態素-ing を含んだ外来語の形態・用法の特徵一「〜する」動詞化の可否をめぐって一. ビタンマダリナ. つくば市:筑波大学大学院博士課程人文社会系, 2016 年, 筑波日本語研究, 第 20 巻, ペー ジ: 50-74.
4. 国立国語研究所. 日本語教育指導参考書 16 外来語の形成とその教育. 東京都北区:国立国語研究所, 1990. http://doi.org/10.15084/00001840.
5.『国語研日本語ウェブコーパス』とその検索系『梵天』. 浅原正幸, ほか. 2 , 千代田区 : 情報処理学会, 2018 年, 情報処理学会論文誌, 第 59 巻, ページ: 209-305
6. 樋口耕一. 社会調査のための計量テキスト分析一内容分析の継承と発展を目指して一. 第 2 版. 京都市 : ナカニシヤ出版, 2020.
7. 三省堂編修所(編).コンサイスカタカナ語辞典.
第 5 版.千代田区:三省堂書店, 2020. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D7-3.pdf | # 分散表現を用いたロマンス語同源語動詞の意味変化の分析
川崎 義史 ${ }^{1}$ Maëlys Salingre ${ }^{1}$ Marzena Karpinska ${ }^{2}$ 高村 大也 ${ }^{3}$ 永田 亮 $^{4}$
${ }^{1}$ 東京大学 ${ }^{2}$ University of Massachusetts Amherst ${ }^{3}$ 産業技術総合研究所 ${ }^{4}$ 甲南大学
ykawasaki@g.ecc.u-tokyo.ac.jp m_salingre@phiz.c.u-tokyo.ac.jp mkarpinska@cs.umass.edu
takamura.hiroya@aist.go.jp nagata-nlp2022@ml.hyogo-u.ac.jp.
## 概要
ロマンス語とは,ラテン語から派生した姉妹言語の総称である。ロマンス諸語には,語源を共有する同源語が数多く存在するが,意味や用法が異なるものもある。本稿では,ロマンス語のうち仏伊西の動詞に焦点を絞り, 意味変化の大きさと, 言語内要因の関係を統計的に分析した。意味変化の大きさは単語の分散表現で測定した。分析の結果, 意味変化の大きさには, ロマンス語の頻度, ラテン語の多義性, ロマンス語の単語長が影響することが判明した。
## 1. はじめに
ロマンス語とは,イタリア語, スペイン語, フランス語, ポルトガル語など, ラテン語から派生した姉妹言語の総称である[1]。ロマンス諸語には, 語源を共有する同源語が数多く存在する。例えば, Lat. habere 'to have' は, Fr. avoir, It. avere, Sp. haber に対応する。しかし, イタリア語・フランス語では元々の「持つ」という意味を保持している一方,スペイン語ではこの意味は失われ, 専ら完了時制を形成する助動詞として使用される。このように, 語源的関係はあるものの,意味や用法が異なる場合がある。
本稿の目的は, ロマンス語のうち仏伊西の動詞に焦点を絞り, 意味変化の大きさと, 頻度や多義性などの言語内要因の関係を統計的に分析することである。計算的手法による通時的意味変化の検知は近年大きな注目を集めている[2], [3]。意味変化には,社会文化,政治状況,技術革新など言語外的要因も働くが[4]-[6], 本稿では扱わない。意味変化の大きさの測定には, その検出能力が知られている単語の分散表現を利用した[2], [3], [7], [8]。分析対象を動詞に限定したのは, 名詞や形容詞よりも動詞の方が意味変化を受けやすく[8],検知しやすいと考えたためである。
本研究の寄与は,次の 3 点である。まず,意味変化の大きさには,ロマンス語の頻度,ラテン語の多義性,ロマンス語の単語長が影響することを示した点である。2 点目は,ラテン語の語源の頻度と多義性など,先行研究では考慮されていない変数を導入した点である。 3 点目は,ロマンス語同源語ペアの平均頻度の算出には, 算術平均よりも調和平均の方が適していること示した点である。ここで,ロマンス語同源語ペアとは,仏・西ぺアの avoir-haber のように,共通のラテン語の語源を持つロマンス語の単語ペアのことを指す。
本稿の構成は次の通りである。2 節でデータの説明,3 節で実験結果の報告,4 節で考察を行い,5 節で結論と今後の課題を述べる。
## 2. 分析方法
分散表現学習用のデータとして, 各言語, 2018 年 12 月時点の Wikipedia ダンプを使用した。まず, TreeTagger でレンマ化し,イタリア語・スペイン語は Wikiextractor で,フランス語は Wiki-cirrus でクリ一ニングを行った。単純のため, 同綴異義語の区別はしていない。
分散表現の学習は, gensim [9]の word2vec で行った ${ }^{i i}$ 。vector_size $=600$, min_count $=50$ とし, それ以外のハイパーパラメータはデフォルトの設定にした。 ロマンス語同源語ペアの類似度を測るためには, いずれかの言語のベクトル空間に,他の 2 言語の分散表現を写像する必要がある。写像は,シード語ぺアの二乗誤差の和が最小になるように線形変換により行った [10]。シード語ぺアはバイリンガル辞書 MUSE の supervised バージョンから抽出した ${ }^{\mathrm{iii}}$ 。動詞はシード語から除外した。いずれの言語ペアの組み合わせでも,シード語の数は約 1 万語となった。後述の分析に,写像先の言語による大きな影響は見られなかった。以下の説明では,イタリア語・スペイ
iii https://ai.facebook.com/tools/muse/
ン語がフランス語の空間に写像されたものとする。分析対象は,仏伊西いずれかの言語のデータにおいて最頻動詞上位 300 に含まれるものとし,合計で 493 組となった。これらのうち, 3 言語全てに同源語が存在し, 後述のラテン語の頻度と多義性の数を取得できたのは, 270 組だった。同源語の同定は, 各
語の頻度と多義性は, それぞれ, PhiloLogic4v と Oxford Latin Dictionary[11]から取得した。
## 3. 実験
ロマンス語同源語ペアの類似度は,コサイン類似度で測った。類似度が低い(高い)ほど,意味変化の度合いは高い(低い)とみなした。表 1 は,類似度が最大・最小となる仏・西ぺア各 5 組を示している。
表 1 類似度が最大(上段)・最小(下段)となる仏・西ペア各 5 組
& constuir 'id. vi' & 0.87 \\
本稿では,ロマンス語同源語ペアの類似度を目的変数, 下記の 6 つの言語学的変数を説明変数として線形回帰分析を行い, 意味変化に影響する変数を特定した。意味変化前の変数は, ラテン語の頻度と多
^{v} \mathrm{http} / /$ artflsrv02.uchicago.edu/cgi-
$\mathrm{bin} /$ perseus/LatinFrequency.pl?author $=\&$ title $=\&$ genre $=\&$ editor $=\&$ language $=$ NOT + English\&displaymorethan $=10 \&$ displayless
}
義性である。この 2 変数の導入は,本稿の新規性の一つである。意味変化後の変数は,ロマンス語同源語ペアの頻度,単語長,ノルムである。ペアの片方 [12]ではなく両者の頻度の勘案, 単語長とノルムの導入も新規性である。もら一つの新規性は,編集距離の導入である。この変数は,ラテン語の語源とロマンス語との表記上のずれを表す。本来は,音声の比較が望ましいが, 簡単のため, 表記の比較とした。
- ラテン語の頻度 (FREQ_LAT):PhiloLogic4 から取得した, ラテン語の語源の 1 万語あたりの頻度を対数変換したもの。
- ラテン語の多義性 (POLY_LAT):[11]に掲載されているラテン語の語源の意味の見出し数。
- ロマンス語同源語ペアの頻度(FREQ_ROM):ロマンス語同源語ペアの各言語データ内での相対頻度(例えば,Fr. avoir と Sp. haber の各言語での相対頻度)の調和平均を対数変換したもの。
- ロマンス語同源語ペアの単語長 (LEN_ROM):ロマンス語同源語ペアの各々に含まれる文字数の算術平均。
- ロマンス語同源語ペアのノルム(NORM_ROM): ロマンス語同源語ペアの各々の分散表現のノルムの算術平均。
- ラテン語の語源とロマンス語同源語ペアとの編集距離 (EDIT): ラテン語の語源 $l$ とロマンス語同源語ペア $\left(r, r^{\prime}\right)$ の各々の編集距離 $e \operatorname{dit}(\cdot)$ を単語長|||で正規化したものの平均 (3.1)。
$
\frac{1}{2}\left(\frac{e \operatorname{dit}(r, l)}{\frac{(|r|+|l|)}{2}}+\frac{e \operatorname{dit}\left(r^{\prime}, l\right)}{\frac{\left(\left|r^{\prime}\right|+|l|\right)}{2}}\right)
$
比較対象は不定詞とした。ロマンス語の母音のアクセント記号等は削除した (例えば, á やàは a に統一した)。子音に関しては,スペイン語の ñやフランス語の ç などラテン語には存在しないものや, ロマンス語とラテン語で音価の異なるものがあるが (Lat. citare [k] 'to set in motion', Sp. citar [ $\theta$ ] 'to cite'),単純のためにそのまま扱った。ラテン語の形式受動相動詞[13]の不定詞は,対応する活用の能動相で想定される形とし
than $=10000000 \&$ sortby $=$ decreasingFreq \&searchby $=$ searchbyle $\mathrm{mma}$ (2021 年 1 月 28 日アクセス)。現在, サーバ更新のため,頻度リストの取得ができないようである。 vi Id. (idem) は, 意味がフランス語のそれと同じことを表す。
た (Lat. jocari 'to joke' > jocare)。不定詞の語尾が特殊な esse 'to be', ferre 'to carry', velle 'to want'等は,そのままの形を使用した。
変数は全て平均 0 , 分散 1 になるように標準化した。付録の図 1 に, 仏・西同源語ペアの類似度
(SIM_FR_SP)と説明変数の散布図と相関係数を示す。FREQ_LAT と POLY_LAT には大きな相関 (0.72) があるが,Variance Inflation Factor が 3 以下なので, そのまま使用した。AIC による变数選択の結果, NORM_ROM を除く, FREQ_LAT, POLY_LAT, FREQ_ROM, LEN_ROM, EDIT $の 5$ 変数を説明変数とするモデルが最良と判断された。表 2 に回帰分析の結果を示す。FREQ_LAT と EDIT 以外の 3 変数が有意水準 0.01 で統計的に有意となった。標準偏回帰係数は, FREQ_ROM (0.66) と LEN_ROM (0.20) が正, POLY_LAT (-0.24) が負となった。回帰係数の絶対値が大きい FREQ_ROM は, ペア類似度の予測に大きく寄与する。自由度調整済決定係数は 0.49 となり,全分散の約半分を説明していることになる。
表 2 仏・西ペアの類似度を目的変数とした回帰分析の結果 $(\mathrm{N}=270$, 自由度調整済決定係数 $=0.49 )$ 。 AIC により変数選択を行った。*は有意水準 0.01 での統計的有意を表している。
## 4. 考察
回帰分析の結果に基づき, 意味変化と各変数との関係について, 関連研究と対照しながら考察を行う。
## 4. 1. 頻度
他の条件が一定ならば,ロマンス語における頻度 (FREQ_ROM)が大きいほど,ロマンス語ペアの類似度が高い, つまり, 意味変化が生じにくい傾向が確認された。要因として, 頻度が高いほど, 語と意味の結びつきが弱化しにくいことが考えられる[14]。 この結果は,ロマンス語の同源語に関する先行研究 [12]とは反対の結果となった。これは, 本稿が動詞のみに注目しているのに対し, [12]は品詞の区別をしていないことに起因している可能性がある。品詞ごとに異なる振る舞いを見せる可能性もあるため,今後, 動詞以外の品詞の分析が必要である。一方で,本稿の結果は,英語の通時的意味変化の分析結果と一致する[15]。しかしながら,ロマンス語の頻度は意味変化後のものなので,観察された頻度の大小が意味変化の結果なのか原因なのかは判然としない。
調和平均の代わりに算術平均を用いると, 自由度調整済決定係数が 0.49 から 0.14 へ大幅に低下した。調和平均は,ペアの頻度がどちらも大きい場合にのみ大きくなり,ぺアのいずれかが低頻度の場合は小さくなる。この性質が, ぺアの片方のみで意味変化が生じた結果,類似度が低下し,且つ,その頻度が増加(減少)した現象を上手く捉えている可能性がある。例えば, 仏・西ぺアの pondre-poner (< Lat. ponere 'to put') では, Fr. pondre 'for a bird to lay egg' は意味が特殊化[16] し低頻度語になった一方, Sp. poner 'to put’ は, ラテン語の語源と同様, 高頻度語のままである。実際に,このぺアの類似度は 0.08 と著しく小さい。このような場合, 調和平均の方が算術平均よりも小さくなるため,類似度と頻度の関係を捉えるのにより適していると考えられる。
## 4. 2. 多義性
他の条件が一定ならば,ラテン語の多義性 (POLY_LAT)が大きいほど, ロマンス語ぺアの類似度が低い,つまり,意味変化が生じやすい傾向が確認された。これは,多義性と意味変化に正の相関を見出した[12], [15]の知見と一致する。本稿の新規性は, 意味変化前のラテン語の多義性を考慮した点である。[12], [15]では, 意味変化後の現代語の多義性を使用している。この変数は, 分散表現と同じべクトル空間上の最近隣語のクラスタ係数として定義されている。しかし, この係数はデータ内の頻度と大きな相関があるという問題点がある[5]。本稿では,分散表現と独立に,しかも変化前の多義性を使用しており, より健全な分析となっている。
なぜ多義性が意味変化につながるのだろうか? 複数の意味を持つ語の場合, 仮に意味変化の割合が一定だとしても, 言語 1 では意味 A が, 言語 2 では別の意味 B が優勢になる可能性が高いことが考えられ
る。例えば, Lat. trahere 'to drag' には 22 の意味があるが, 各言語で固有の意味変化が起きた結果(It. trarre 'to draw', Fr. traire 'to milk', Sp. traer 'to bring'), ペア間類似度は低くなる:Fr. traire - Sp. traer (0.13), Fr. traire - It. trarre (0.16), It. trarre - Sp. traer (0.21)。
## 4. 3. 単語長
他の条件が一定ならば,単語長が大きいほど,ロマンス語ペアの類似度が高い,つまり意味変化が生じにくい傾向が確認された。単語長が大きい語は,接辞付加や派生により元となる動詞よりも形態的複雑性が増す一方, 意味が限定され, 多義性が小さくなる傾向にある。そのため,意味変化が生じにくいと考えられる。この現象は既にラテン語の段階で見られ, 単語長と多義性の相関係数は-0.36である。例えば, Lat. praevidere 'to foresee' は, videre 'to see' に接頭辞 prae- 'ahead' が付いた形で, 意味が限定されている。実際に, 仏・西ぺアの voir-ver (<Lat. videre) の類似度が 0.35 に対し, prévoir-prever (< Lat. praevidere) の類似度は 0.72 と高い値を示す。
## 4. 4. 編集距離
編集距離が大きいロマンス語ペアは,ラテン語から直に継承された民衆語である[6]。大きな音声変化を受けたため, 語源形との表記上の違いも大きい。一方, 編集距離が小さいものは, 比較的新しくラテン語から借入された教養語である[6]。最小限の音声変化しか受けていないため, 語源形に類似している。編集距離の回帰係数(-0.11) は負なので,民衆語ほど意味変化しやすい傾向にあるが,統計的に有意ではない。そのため, ロマンス語での使用期間が長い民衆語ほど意味変化を受けやすいとは言えない。
## 4.5. ノルム
ロマンス語の分散表現のノルムの大きさ (NORM_ROM) は, 変数選択により不要と判断された。頻度が高く, 特定の文脈で使用される(多義性が低い)ほどノルムは大きくなるが,これらの影響はそれぞれの変数で捉えられていると考えられる。
## 4.6. ラテン語に関する変数
意味変化前のラテン語の頻度(FREQ_LAT)と多義性(POLY_LAT)のみを説明変数として回帰すると, FREQ_LAT の係数は正 (0.26), POLY_LAT は負(-0.28)になり, ともに有意水準 0.01 で統計的に有意となった。自由度調整済決定係数は微小 $(0.03)$ なものの, ラテン語の語源が高頻度で多義性が小さいロマンス語同源語ぺアほど類似度が高い,つまり,意味変化を受けにくいことを示唆している。
## 4. 7. ロマンス語への流入時期の違い
辞書[11] に非掲載の動詞は, 上述の分析からは除外した。これらの動詞は,俗ラテン語,後期・中世ラテン語, ロマンス語の段階で形成されたもの(Fr. travailler 'to work', It. travagliare 'to suffer', Sp. trabajar 'to work' < Vulgar Lat. tripaliare 'to torture') [6], 他言語からの借入語 (Fr. assassiner, It. assassinare, Sp. asesinar < Arabic ḥaššǎšīn 'hashish'; Fr. garder 'to keep', It. guardare 'to look', Sp. guardar 'to guard' $<$ Germanic wardôn 'to pay attention') [6], 古典ラテン語では使用が稀なものなどである。つまり,ロマンス語への流入時期が遅い動詞である。
流入時期の違いがロマンス語同源語ぺア類似度に影響するか検証するため,語源が[11]に非掲載の動詞も含めて回帰分析を行なった。説明変数は,
FREQ_ROM,LEN_ROM,NORM_ROM に加え, 辞書掲載の有無を表すダミ一変数とした。掲載を 1 (デ一夕数 270), 非掲載を0(同 105)とした。流入時期の違いの係数は正 (0.07) だったが, 絶対值は極めて小さく, 統計的に有意でもなかった。よって,流入時期が古いほど意味変化を起こしやすいとは言えない。
## 5. おわりに
本稿では, ロマンス語のうち仏伊西の動詞に焦点を絞り, 意味変化の大きさと, 言語内要因の関係を統計的に分析した。意味変化の大きさは単語の分散表現で測定した。分析の結果, 意味変化の大きさには, ロマンス語の頻度, ラテン語の多義性, ロマンス語の単語長が影響することが判明した。
今後の課題は, 以下の 3 点である。まず, 名詞や形容詞など他の品詞の分析が必要である。動詞以外の品詞では,異なる傾向が見られる可能性がある[8]。第二に,意味変化の種類(特殊化・一般化・良化 $\cdot$悪化など[16])を特定することである[3]。第三に,本稿では多義性を辞書掲載の意味の見出し数と定義したが,典型性や上位・下位関係など質的違いを考慮する必要がある。WordNet やポアンカレ埋め込みなどを利用することで,これらの違いを捉えられる可能性がある。
## 謝辞
本研究は JSPS 科研費 $18 K 11456$ の助成を受けたものです。
## 参考文献
[1] T. Alkire and C. Rosen, Romance Languages: A Historical Introduction. New York: Cambridge University Press, 2010.
[2] D. Schlechtweg, B. McGillivray, S. Hengchen, H. Dubossarsky, and N. Tahmasebi, "SemEval-2020 Task 1: Unsupervised Lexical Semantic Change Detection," in Proceedings of the 14th International Workshop on Semantic Evaluation, 2021, pp. 1-23.
[3] A. Kutuzov, L. Øvrelid, T. Szymanski, and E. Velldal, "Diachronic Word Embeddings and Semantic Shifts: A Survey," in Proceedings of the 27th International Conference on Computational Linguistics, 2018, pp. 1384-1397.
[4] W. L. Hamilton, J. Leskovec, and D. Jurafsky, "Cultural Shift or Linguistic Drift? Comparing Two Computational Measures of Semantic Change," in Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, 2016, pp. 2116-2121.
[5] H. Dubossarsky, E. Grossman, and D. Weinshall, "Outta Control: Laws of Semantic Change and Inherent Biases in Word Representation Models," in Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, 2017, pp. 1136-1145.
[6] R. Penny, A History of the Spanish Language. Cambridge: Cambridge University Press, 2002.
[7] H. Takamura, R. Nagata, and Y. Kawasaki, "Analyzing Semantic Changes in Japanese Loanwords," in Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics, 2017, vol. 1, pp. 1195-1204.
[8] H. Dubossarsky, D. Weinshall, and E. Grossman, "Verbs Change More Than Nouns: A Bottom-up Computational Approach to Semantic Change," Lingue e Linguaggio, vol. 15, no. 1, pp. 5-25, 2016.
R. Řehůřek and P. Sojka, "Software Framework for Topic Modelling with Large Corpora," in Proceedings of the LREC 2010 Workshop on New Challenges for NLP Frameworks, 2010, pp. 4550.
[10] T. Mikolov, Q. V Le, and I. Sutskever, "Exploiting Similarities among Languages for Machine Translation," CoRR abs/1309.4, 2013.
[11] P. G. W. Glare, Ed., Oxford Latin Dictionary, 2nd ed. Oxford: Oxford University Press, 2012.
[12] A. S. Uban, A. M. Ciobanu, and L. P. Dinu, "Studying Laws of Semantic Divergence across Languages using Cognate Sets," in Proceedings of the 1st International Workshop on Computational Approaches to Historical Language Change, 2019, pp. 161-166.
[13] R. Oniga, Latin: A Linguistic Introduction. New York: Oxford University Press, 2014.
[14] J. Bybee, Language Change. Cambridge: Cambridge University Press, 2015.
[15] W. L. Hamilton, J. Leskovec, and D. Jurafsky, "Diachronic Word Embeddings Reveal Statistical Laws of Semantic Change," in Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, 2016, pp. 1489-1501.
[16] E. C. Traugott and R. B. Dasher, Regularity in Semantic Change. Cambridge: Cambridge University Press, 2005.
## 付録
図 1 仏・西同源語ぺアの類似度(SIM_FR_SP)と説明変数の散布図と相関係数 | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D7-4.pdf | # 創発言語でも Harris の分節原理は成り立つのか?
上田亮 ${ }^{1}$ 石井太河 ${ }^{1}$ 宮尾祐介 ${ }^{1}$
1 東京大学
\{ryoryoueda, taigarana, yusuke\}@is.s.u-tokyo.ac.jp
## 概要
本論文の目的は創発言語において Harris の分節原理が成り立つかを検証するというものである.創発言語とは,シミュレーションにおいてエージェント間で生じる人工的な言語のことを指し,近年注目を集めつつある研究対象である。 一方 Harris の分節原理とは,自然言語の系列データにおいて,データの意味を知らずとも統計的情報のみから分節境界が得られるという性質である。創発言語においても自然言語の性質が観察されるかどうかを検証した研究はいくつか存在するが,Harris の分節原理に着目した研究は今のところない. 実験の結果,創発言語は Harris の分節原理が成立するためのいくつかの前提条件を満たすが,統計的な情報から得られる分節境界が必ずしも意味的に妥当なものであるとは限らない可能性が示唆された。
## 1 はじめに
ニューラルネットワークで表されたエージェントにコミュニケーションをさせることにより,言語の創発をシミュレーションする創発コミュニケーション (Emergent Communication) という分野が注目されつつある. 創発コミュニケーションによって生じたプロトコルは創発言語(Emergent Language)と呼ばれる。この分野は人間と交流できる AI の開発を目的として生まれたが $[1,2,3]$, そこから派生して創発言語そのものの性質を調べる研究も現れた. 特に,自然言語に見られる普遍性質が創発言語においても観察され得るかを調べたものが多く,例えば,構成性 $[4,5,6]$, Zipf 短縮 $[7,8,9]$, エントロピー最小化 [10] に関する研究などがある.
本論文の目標は,創発言語において Harris の分節原理 $[11,12,13,14]$ が成り立つかを検証することである. Harris の分節原理とは,自然言語の系列デー タにおいて,データのもつ意味を参照せずとも統計的な情報のみから分節境界が得られるという普遍的
な性質のことである.ここでいう分節とは,音素の系列に対する単語 (形態素),単語の系列に対する節等を指す。単語や意味が事前に与えられるわけではない創発言語において,統計的性質から分節境界を得る可能性を模索することは重要である.
本論文では,創発コミュニケーションで頻繁に用いられる Lewis シグナリングゲーム [15] の実験パラダイムを採用する。このゲームにはスピーカ $S$ とリスナ $L$ という 2 人のエージェントのみが登場し, スピーカ $S$ からリスナ $L$ への単方向通信のみが許される. 各試行において,スピーカ $S$ は入力集合 $I$ から情報 $i \in I$ を得て,それをメッセージ $m=S(i)$ に変換する.メッセージ $m$ を受け取ったリスナ $L$ が $i$ を復元することができればゲームは成功である。ここで,メッセージのデータ $\{S(i)\}_{i \in I}$ が創発言語とみなされる. 実験の結果,創発言語は Harris の分節原理を成立させるための前提条件を満たすものの,統計的性質から得た境界が必ずしも意味のある境界とは限らないという示唆が得られた。他方, 人間が予め与えた意味に関係なく境界のようなものが生じたという興味深い結果の意味するところは, 今後の課題として残されている。
## 2 背景: 創発言語
言語を創発させるには,エージェントを取り巻く環境やエージェントのアーキテクチャ, 最適化の手法などを決める必要がある。本論文では $[5]$ による設定「属性值組集合を用いたシグナリングゲーム」 を導入する。
## 2.1 属性値組集合
$a, v \in \mathbb{N}(a, v>0)$ とする. $a, v$ をそれぞれ属性数, 值数と呼ぶことにする. 属性値組集合 (attributevalue set) $D_{v}^{a}$ とは以下のように定義される順序組の集合である:
$
D_{v}^{a}=\left.\{\left(d_{0}, \ldots, d_{a-1}\right) \mid d_{i} \in\{0, \ldots, v-1\}\right.\}
$
## 2.2 シグナリングゲーム
言語を創発させる環境は,Lewis シグナリングゲーム [15] に基づいて定式化される. シグナリングゲーム $G$ は四つ組 $(I, M, S, L)$ から成る. ここで, $I$ は入力集合, $M$ はメッセージ集合であり,関数 $S: I \rightarrow M$ はスピーカエージェント,関数 $L: M \rightarrow I$ はリスナエージェントと呼ばれる. ゲーム $G$ の目標は各入力 $i \in I$ について $i=L(S(i))$ を成り立たせることである.スピーカ $S$ とリスナ $L$ は学習対象であり, 目標に近づくよう最適化される. [5] と同様,本論文では属性值組集合を入力集合とする: $I=D_{v}^{a}$. さらに,メッセージ集合 $M$ は固定長離散記号列の集合とする. 即ち, 有限のアルファベット $A$ 及びメッセージ長 len $\in \mathbb{N}($ len $>0)$ を用いて
$
M=A^{\text {len }}=\left.\{a_{1} \ldots a_{\text {len }} \mid a_{i} \in A \text { for } i=1, \ldots, \text { len }\right.\}
$
と定義する。また,以降の議論では,創発言語とはシグナリングゲーム $G=(I, M, S, L)$ から得られるデータ $\{S(i)\}_{i \in I}$ のことを指すものとする. 創発言語データ $\{S(i)\}_{i \in I}$ は,自然言語でいえば $|I|$ 個の独立した発話のデータと捉えることができる.
## 3 背景: Harris の分節原理
Harris の仮説によれば,自然言語の音素系列における単語境界は, 後続し得る音素の種類数が増大する点に現れるという。本節では $[12,13]$ による Harris の仮説の情報理論的な定式化, 及びそれに基づいた境界検出アルゴリズムを導入する.
## 3.1 定式化
$X$ をアルファベット, $X^{*}$ を $X$ 上の系列の集合, $X^{n}$ を $X$ 上の $n$-gram の集合とする. このとき,系列 $s=x_{0} \cdots x_{|s|-1} \in X^{*}$ に対する分岐エントロピーを以下のように定義する:
$
\begin{array}{rl}
h(s) \equiv & \mathscr{H}\left(X_{|s|} \mid X_{0} \cdots X_{|s|-1}=s\right) \\
=-\sum_{x \in \mathcal{X}} & P\left(X_{|s|}=x \mid X_{0} \cdots X_{|s|-1}=s\right) \\
& \quad \times \log _{2} P\left(X_{|s|}=x \mid X_{0} \cdots X_{|s|-1}=s\right) .
\end{array}
$
ここで, $|s|$ は系列 $s$ の長さ,各 $X_{i}$ は $X$ 上の確率変数, $P\left(X_{|s|}=x \mid X_{0} \cdots X_{|s|-1}=s\right)$ は系列 $s \in X^{*}$ が出現した直後に記号 $x \in X$ が出現する確率を表す. 分岐エントロピー $h(s)$ は,特定の記号列 $s$ が出現したときに,次に来る記号の不確かさの度合いを表している.また,長さ $n$ の系列に対する条件付きエント
ロピーを以下のように定義する:
$
\begin{aligned}
H(n) & \equiv \mathscr{H}\left(X_{n} \mid X_{0} \cdots X_{n-1}\right) \\
& =\sum_{s \in \mathscr{X}^{n}} P\left(X_{0} \cdots X_{n-1}=s\right) h(s) .
\end{aligned}
$
ここで, $P\left(X_{0} \cdots X_{n-1}=s\right)$ は $n$-gram $s \in X^{n}$ が出現する確率である。 $H$ は分岐エントロピー $h$ の $n$-gram に関する平均と捉えることもできる。
自然言語のデータにおいては, $H(n)$ は $n$ に関して単調に減少することが知られている.つまり,自然言語データの部分系列 $x_{0} \cdots x_{n} \in X^{n+1}$ が与えられたときに,平均的には $h\left(x_{0} \cdots x_{n-1}\right)>h\left(x_{0} \cdots x_{n}\right)$ となる。一方で,その大域的な傾向に反して $h$ が増大する点もある. この自然言語データにおける分岐エントロピー $h$ の増減に関する,以下の普遍性質のことを Harris の分節原理と呼ぶ1):
X の要素を単位とする自然言語データにおい
て,ある部分系列 $x_{0} \cdots x_{n} \in X^{n+1}$ が存在して
$
h\left(x_{0} \cdots x_{n-1}\right)<h\left(x_{0} \cdots x_{n}\right)
$
となるとき, $x_{n}$ はより大きな単位の系列における分節境界である。
## 3.2 境界検出アルゴリズム
系列データを $s=x_{0} \cdots x_{|s|-1}$ とし,その部分系列を $s_{i, j}=x_{i} \cdots x_{j-1}$ と表すことにする. 境界判定アルゴリズムはパラメータ max_len $\in \mathbb{N}$, threshold $\in \mathbb{R}$ を伴って以下のような手順で実行される:
$1 . i:=0 ; w:=1$; とする.
2. $i \geq|s|$ ならばプログラムを終了する.
3. $h\left(s_{i, i+w}\right)$ を計算する.
4. $w>1$ かつ $h\left(s_{i, i+w}\right)-h\left(s_{i, i+w-1}\right)>$ threshold ならば, $i+w$ を境界点と判定する。
5. $w<$ max_lenかつ $i+w<|s|-1$ ならば $w:=w+1$; として 2 に戻る. さもなくば $i:=i+1 ; w:=1$ として 2 に戻る.
また,創発言語においては自然言語に見られるような分節境界が存在するとは限らないため,以降では境界検出アルゴリズムによって得られた仮の分節境界のことを仮説境界と呼ぶことにする。
## 4 実験設定
1) [12,13] では,このことを Harris's hypothesis と呼んでいたが,同著者の近年の出版物 [14] に倣い Harris の分節原理と呼び改めた。
## 4.1 問題設定
創発言語において Harris の分節原理が成立するかどうかを調べるにあたり, 我々は以下の 3 つの問いに答えなければならない。
問 1. $H$ (式 4)は単調減少するか?
問 2. $h$ (式 3)は増大点(式 5)をもつか?
問 3. 仮説境界は分節境界を意味するか?
問 3 は,創発言語において Harris の分節原理が成立するかという問いに他ならない. しかし, $H$ が単調に減少し $h$ が所々増加するという性質が満たされなければ問 3 はそもそも意味をなさない. 創発言語においてはこのような性質が成り立つかどうかさえも自明ではないため,まず問 1 , 問 2 に答えなければならない.また,問 1 , 問 2 に答えるには単に $H$ と $h$ を計算すればよいが,問 3 に答える方法は自明でない. 創発言語に分節境界があるとしても,それがどんなものであるのか事前に知る術がないからである.そこで以下の仮定を置く:
ゲーム $G=\left(D_{v}^{a}, A^{\text {len }}, S, L\right)$ の創発言語 $\{S(i)\}_{i}$ において,仮説境界が分節境界を意味するならば,属性数 $a$ が大きくなるほど仮説境界の数も多くなるはずである。
属性値組集合 $D_{v}^{a}$ は,元々創発言語の構成性を測るために導入された設定 [4]を,さらに一般化したものである [5]. 例えば color, shape という 2 属性をもつ入力を用いたときに,創発言語が十分に構成的であるならば,color の值を指す記号と shape の值を指す記号が別々に出現し, それらが複合して 1 つのメッセージを成すだろうと [4] は考えた. これは創発言語の構成性を測るうえで基本的な考え方となっている.今回の設定でいえば,分節が複合的なメッセージを構成するための単位であると想定したときに,指し示すべき属性が増えれば分節もそれに合わせて多くなるだろうと考えられる. 仮定 (A) はそのような考えに基づいている. 問 3 を仮定 (A) に従って以下のように言い換える:
問 3.属性数 $a$ が大きくなるほど仮説境界も多くなるか?
## 4.2 パラメータの設定
属性値組集合問 3 , に答えるため属性数 $a$ にはいくつかの値を取らせたい一方,ゲームの複雑さを揃えるために属性値組集合のサイズ $\left|D_{v}^{a}\right|=v^{a}$ は
できるだけ等しくしたい. そこで $v^{a}=4096$ として $a, v$ を以下のように設定する:
$
(a, v) \in\left.\{\begin{array}{l}
(1,4096),(2,64) \\
(3,6),(4,8),(6,4),(12,2)
\end{array}\right.\} .
$
メッセージ集合メッセージ集合 $M=A^{\text {len }}$ 定義するには,メッセージ長 len とアルファベットのサイズ $|A|$ を決めてやればよい.今回の実験では len $=32,|A|=8$ とした.
アーキテクチャと最適化エージェントのアーキテクチャ及び最適化手法についても [5]に従う. ここではアーキテクチャについて簡単に触れる.各エージェントはエンコーダ・デコーダモデルで表される。スピーカのデコーダとリスナのエンコーダは GRU[16] とし,スピーカのエンコーダとリスナのデコーダは順伝播型ニューラルネットワークとする. GRU の隠れ状態のサイズは [5] に倣い 500 とした。
境界判定アルゴリズム境界判定アルゴリズム (節 3.2)にはパラメータ max_len, threshold が伴う.各メッセージが固定長 len = 32 であることに合わせて max_len $=$ len $-1=31$ とする. threshold の設定は自明ではないため,いくつかのパターンを試す:
$
\text { threshold } \in\{0,1 / 4,1 / 2,3 / 4,1,5 / 4,3 / 2,7 / 4,2\} \text {. }
$
## 4.3 試行回数とデータの妥当性
式 6で設定した各 $(a, v)$ に関して,異なるランダムシードで 4 回エージェントを学習させることとする. 学習の結果, 入力集合 $I$ のうち $99 \%$ 以上の入力 $i \in I$ に対して $i=L(S(i))$ となるに至ったエージェントから得られる創発言語を妥当な創発言語と呼ぶことにする。
## 5 実験結果
$(a, v)=(12,2)$ について 3 つ妥当な創発言語が得られ,その他の $(a, v)$ についてはそれぞれ 4 つの妥当な創発言語が得られた.
## 5.1 条件付きエントロピーは単調減少する
問 1 に答えるため,H(式 4)が単調減少するかどうかを調べた。図1にその結果を示す. 妥当な創発言語における $H(n)$ (赤実線)は, $n$ に関して単調減少していることが見て取れる. 従って妥当な創発言語において問 1 は成立する. なお, $H(n)$ の単調減少性はエージェントの学習前から成り立つわけではない. 図 1に青破線で示したグラフを見ると,学習
図 $1 H(n)$ (式 4)のプロット,妥当な創発言語に関する結果 (赤実線) と学習前のスピーカから得た創発言語に関する結果(青破線)を示してある.
前の創発言語においては $H(n)$ が単調に減少するとは限らないことが見て取れる. つまり学習の過程で $H(n)$ の単調減少性が生じる.
## 5.2 分岐エントロピーは所々増大する
図 2 設定 $(a, v)=(2,64)$ の下での創発言語における,あるメッセージ上での $h$ の推移の様子. threshold $=5 / 4$ として仮説境界 $1, \ldots, 4$ が得られた(黒破線).
次に,問 2 に答えるため,妥当な創発言語における $h$ の推移を調べた. 例として実際の $h$ の推移の様子を図 2 に示す. 縦軸には $h$ の值,横軸には $(a, v)=(2,64)$ として得られた妥当な創発言語からサンプルしたメッセージ “ $1,8,6,2, \ldots$ ”を取った. さらに, threshold $=5 / 4$ として得られた 4 つの仮説境界の位置を黒破線で示してある. 各折れ線グラフが,対応する仮説境界点で thresholdを超える増大を示した $h$ の推移を表している. なお,hの増大点(式 5)の根拠となる部分系列は,メッセージの
図 3 メッセージあたりの仮説境界の平均数. いくつかの threshold を試してある.
先頭や一つ前の仮説境界から始まるとは限らないことに注意されたい. 図 1で見たような大域的な傾向がある一方で,図 2では $h$ が増減を繰り返していることが見て取れる。また,メッセージあたりの仮説境界の数を調べた結果を図 3に示す. 図 3は,各 threshold(式 7)を用いたときに,1メッセージあたりにいくつ仮説境界が含まれているかを示している. threshold < 2 においては,どの $(a, v)$ にも仮説境界が存在していることが見て取れる。以上より,妥当な創発言語において問 2 は成立する.
## 5.3 仮説境界は分節境界ではないかもしれ ない
再び図 3に着目すると,やや見づらいがどの threshold においても属性数 $a$ に対して単調に仮説境界が増えるわけではないことが分かる2). 故に問 3, は成立しない. $a=1$ のときに最も仮説境界が多くなる傾向があるようにさえ見える.
## 6 考察と今後の展望
実験の結果から,創発言語は Harris の分節原理が成立するためのいくつかの前提(問 1, 問 2)を満たすものの,仮説境界が分節境界を意味しない可能性が示唆された. 創発言語に意味のある仮説境界をもたせるにはどうしたらよいか. 創発言語の構成性を向上させる手法 [6] の適用が 1 つの方法として考えられる。一方,人間が与えた入力の意味に関わらず創発言語に仮説境界が生じた事実はそれはそれで興味深いことでもある. この仮説境界は何を意味するのか.これも今後解決していくべき課題である.
## 参考文献
[1] Serhii Havrylov and Ivan Titov. Emergence of language with multi-agent games: Learning to communicate with sequences of symbols. In Isabelle Guyon, Ulrike von Luxburg, Samy Bengio, Hanna M. Wallach, Rob Fergus, S. V. N. Vishwanathan, and Roman Garnett, editors, Advances in Neural Information Processing Systems 30: Annual Conference on Neural Information Processing Systems 2017, December 4-9, 2017, Long Beach, CA, USA, pp. 2149-2159, 2017.
[2] Angeliki Lazaridou, Alexander Peysakhovich, and Marco Baroni. Multi-agent cooperation and the emergence of (natural) language. In 5th International Conference on Learning Representations, ICLR 2017, Toulon, France, April 24-26, 2017, Conference Track Proceedings. OpenReview.net, 2017.
[3] Angeliki Lazaridou, Anna Potapenko, and Olivier Tieleman. Multi-agent communication meets natural language: Synergies between functional and structural language learning. In Dan Jurafsky, Joyce Chai, Natalie Schluter, and Joel R. Tetreault, editors, Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, ACL 2020, Online, July 5-10, $\mathbf{2 0 2 0}$, pp. 7663-7674. Association for Computational Linguistics, 2020.
[4] Satwik Kottur, José M. F. Moura, Stefan Lee, and Dhruv Batra. Natural language does not emerge 'naturally' in multi-agent dialog. In Martha Palmer, Rebecca Hwa, and Sebastian Riedel, editors, Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, EMNLP 2017, Copenhagen, Denmark, September 9-11, 2017, pp. 2962-2967. Association for Computational Linguistics, 2017.
[5] Rahma Chaabouni, Eugene Kharitonov, Diane Bouchacourt, Emmanuel Dupoux, and Marco Baroni. Compositionality and generalization in emergent languages. In Dan Jurafsky, Joyce Chai, Natalie Schluter, and Joel R. Tetreault, editors, Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, ACL 2020, Online, July 5-10, 2020, pp. 4427-4442. Association for Computational Linguistics, 2020.
[6] Yi Ren, Shangmin Guo, Matthieu Labeau, Shay B. Cohen, and Simon Kirby. Compositional languages emerge in a neural iterated learning model. In 8th International Conference on Learning Representations, ICLR 2020, Addis Ababa, Ethiopia, April 26-30, 2020. OpenReview.net, 2020.
[7] Rahma Chaabouni, Eugene Kharitonov, Emmanuel Dupoux, and Marco Baroni. Anti-efficient encoding in emergent communication. In Hanna M. Wallach, Hugo Larochelle, Alina Beygelzimer, Florence d'AlchéBuc, Emily B. Fox, and Roman Garnett, editors, Advances in Neural Information Processing Systems 32: Annual Conference on Neural Information Processing Systems 2019, NeurIPS 2019, December 8-14, 2019, Vancouver, BC, Canada, pp. 6290-6300, 2019.
[8] Mathieu Rita, Rahma Chaabouni, and Emmanuel Dupoux. "lazimpa": Lazy and impatient neural agents learn to communicate efficiently. In Raquel Fernández and Tal Linzen, editors, Proceedings of the 24th Conference on Computational Natural Language Learning, CoNLL 2020, Online, November 19-20, 2020, pp. 335-343. Association for Computational Linguistics, 2020.
[9] Ryo Ueda and Koki Washio. On the relationship between zipf's law of abbreviation and interfering noise in emergent languages. In Jad Kabbara, Haitao Lin, Amandalynne Paullada, and Jannis Vamvas, editors, Proceedings of the ACL-IJCNLP 2021 Student Research Workshop, ACL 2021, Online, JUli 5-10, 2021, pp. 60-70. Association for Computational Linguistics, 2021.
[10] Eugene Kharitonov, Rahma Chaabouni, Diane Bouchacourt, and Marco Baroni. Entropy minimization in emergent languages. In Proceedings of the 37th International Conference on Machine Learning, ICML 2020, 1318 July 2020, Virtual Event, Vol. 119 of Proceedings of Machine Learning Research, pp. 5220-5230. PMLR, 2020.
[11] Zellig S. Harris. From phoneme to morpheme. Language, Vol. 31, No. 2, pp. 190-222, 1955
[12] Kumiko Tanaka-Ishii. Entropy as an indicator of context boundaries: An experiment using a web search engine. In Robert Dale, Kam-Fai Wong, Jian Su, and Oi Yee Kwong, editors, Natural Language Processing - IJCNLP 2005, Second International Joint Conference, Jeju Island, Korea, October 11-13, 2005, Proceedings, Vol. 3651 of Lecture Notes in Computer Science, pp. 93105. Springer, 2005.
[13] Kumiko Tanaka-Ishii and Zhihui Jin. From phoneme to morpheme: Another verification using a corpus. In Yuji Matsumoto, Richard Sproat, Kam-Fai Wong, and Min Zhang, editors, Computer Processing of Oriental Languages. Beyond the Orient: The Research Challenges Ahead, 21st International Conference, ICCPOL 2006, Singapore, December 17-19, 2006, Proceedings, Vol. 4285 of Lecture Notes in Computer Science, pp. 234244. Springer, 2006
[14] 田中久美子. 言語とフラクタル. 東京大学出版会, 2021.
[15] David K. Lewis. Convention: A Philosophical Study. Wiley-Blackwell, 1969
[16] Kyunghyun Cho, Bart van Merrienboer, Çaglar Gülçehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, and Yoshua Bengio. Learning phrase representations using RNN encoder-decoder for statistical machine translation. In Alessandro Moschitti, Bo Pang, and Walter Daelemans, editors, Proceedings of the $\mathbf{2 0 1 4}$ Conference on Empirical Methods in Natural Language Processing, EMNLP 2014, October 25-29, 2014, Doha, Qatar, A meeting of SIGDAT, a Special Interest Group of the ACL, pp. 17241734. ACL, 2014. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D8-1.pdf | # 低リソースの意見要約のための教師なしドメイン適応
小杉宥斗 ${ }^{1}$ 李吉屹 ${ }^{2}$ 福本文代 ${ }^{2}$
${ }^{1}$ 山梨大学工学部コンピュータ理工学科 2 山梨大学大学院総合研究部工学域
\{t18cs021, jyli, fukumoto\}@yamanashi.ac.jp
## 概要
近年,意見要約の分野では,Few-Shot 学習を利用した研究が盛んに行われている [1][2][3]. しかし,既存の Few-Shot 学習モデルでは特定のドメインの教師データが存在しない場合,そのドメインにおける要約の精度が低下する。この問題の解決を図るため, 本研究では MoE (Mixture of Experts) による教師なしドメイン適応に基づく新たな手法を提案する。作成したモデルに対する評価実験とその結果から得られた課題について報告する。
## 1 はじめに
意見要約 (Opinion Summarization) とは主観的な意見を含む複数のテキストを対象とし,それらの意見を端的にまとめたテキストを生成するタスクである. 本研究では,製品に対するユーザレビューを対象とし,深層学習を用いた意見要約を行う.教師あり学習により意見要約モデルを訓練する場合, 大量の教師データを用意する必要があり, 多大なコストや労力を要する. そのため, 意見要約分野では教師データが不足しており, 従来より教師なし学習や半教師あり学習を用いた手法が数多く提案されている [4][5][6][7][8][9]. 特に近年では, Few-Shot 学習を用いた手法が盛んに研究されている [1][2][3]. Few-Shot 学習とは, ごく少数の教師データのみを利用してモデルを訓練する学習手法である.
深層学習では,しばしば特定のドメインにおける教師データが存在しない場合が生じる。これを解決するための一手法として, 教師なしドメイン適応 (Unsupervised Domain Adaptation) がある. 教師なしドメイン適応は, 教師データが利用できる「ソー スドメイン」によりモデルを訓練し, 教師データが存在しない「ターゲットドメイン」における汎化性能を獲得する技術である. 特に,ユーザレビュー の対象となる製品は様々なドメインに属している.これらの知識を有効に活用するため, 本研究
では複数のソースドメインを利用したドメイン適応 (Multi-Source Domain Adaptation) に焦点をあてる.近年では,このようなドメイン適応に対し MoEを利用した手法が提案され,その有効性が示されている [10][11][12].
本研究では, Few-Shot 学習を利用した意見要約モデルである FewSum[1] に対し, MoE (Mixture of Experts) による教師なしドメイン適応を行うモデルとして,FewMoESumを提案する。加えて,モデルに対する評価実験とその結果から得られた課題について報告する。
## 2 FewSum
FewSum[1] は Few-Shot 学習による意見要約の代表的な手法であり,入力レビュー集合に出現しない表現も用いて要約を作成する Abstractive Summarization を行う。モデルは Transformer[13] を採用しており, Encoder と Generator (Decoder) から構成される.
FewSum の学習は, 事前学習と Fine-tuning からなる. 事前学習は, 複数のレビューをもとにレビュー を生成することにより行う,学習時は,同じ製品に対するレビューの集合から1つを抜き出したレビュー $r_{i}$ を教師信号とし,残りのレビュー $r_{-i}$ を入カサンプルとする. モデルのうち, Encoder は入力された $r_{-i}$ の特徵量を抽出し, Generator は抽出された $r_{-i}$ の特徴量と propertyをもとにレビュー $r_{i}$ を推測する. property とは $r_{i}$ と $r_{-i}$ の関係や, $r_{i}$ の性質であり, 事前学習時点では $r_{i}$ と $r_{-i}$ に応じて一意に計算される。事前学習により, Generator は property と生成すべきテキストの対応関係を学習する。
Fine-tuning では,人手で作成したごく少数の要約を教師信号として利用し, 要約生成モデルを学習する.ここでは,Plug-in Network,すなわち,入力レビュー集合から抽出した情報をもとに,理想的な要約の生成を促す property を予測するよう学習するネットワークをモデルに追加する.
property の例には「代名詞の分布」がある. 要約
は,一人称代名詞を含まない客観的文体であることが望ましい。 そのため, Plug-in Network は「一人称代名詞の割合が小さい」ことを示す propertyを生成する. Generator は事前学習時に property に対応したテキストを生成するよう学習しているため,当該の property が与えられることにより,一人称代名詞の使用を避けつつ要約の生成を行うことができる.
Few-Shot 学習では教師データがごく少数に限られており,大量のパラメータを調整するには不十分であるため,モデル全体に対する Fine-tuning を行うと過学習が発生する。そのため Fine-tuning 時には, 調整するパラメータを Plug-in Network と Generator の一部に限定することにより過学習を抑制している.
## 3 Mixture of Experts (MoE)
Guo らは,感情分類や品詞タグ付けといった分類タスクを対象とし,MoE (Mixture of Experts)を用いた教師なしドメイン適応を行う手法を提案している [11]. MoE は,特定のデータの処理に特化したネットワークを複数作成し, 各ネットワークの出力を加重平均する手法である。特に,MoEではこれらネットワークを「エキスパート」と呼んでいる. Guo らの手法 (以降, GuoMoE と記述する) では, 複数の分類器をそれぞれ各ソースドメインに特化し,エキスパートとしている. 図 1 にその概略図を示す. 分類を行う際は,入力サンプルとソースドメインの類似度が高いほど,そのソースドメインに特化したエキスパートに対して大きい重みを割り当てる.この重みに基づき各エキスパートの出力を加重平均し, 最終的な分類結果を求める. この処理により, 入力サンプルに類似するソースドメインから得た知識を重視して分類を行うため, 未知のドメインのデータに対しても優れた分類結果を得ることができる.
GuoMoE と FewSum との差異を以下に示す:
(a) GuoMoE では,大量の教師データを用い教師あり学習を行っている。一方,FewSum ではごく少数の教師データを用いる Few-Shot 学習を行う.
(b) GuoMoE では, 実験に使用したモデルは小規模である。一方,FewSum では比較的大規模なモデルを扱う.したがって Generatorをエキスパートとして単純に複製すると,モデルのパラメータ数が大幅に増加する。
大量のパラメータを調整する場合,それに応じて大量の教師データを利用しなければ過学習が発生す
る.そのため, GuoMoE のようにネットワークを単純に複製する方法は,FewSumのような条件のもとでは適さない. したがって本研究では, FewSumの Generatorのうち一部のみをエキスパートとすることにより,この問題の解決を図る.
## 4 提案手法
本手法では,事前学習と FewMoESum の学習によりモデルを訓練する。事前学習の際は, FewSum と共通のモデル,及び学習方法を用いる. FewMoESum の学習は, FewSum の Fine-tuning に代わる処理である。
## 4.1 FewMoESum
FewMoESum では MoE を利用して教師なしドメイン適応を行う,図 2 に FewMoESum の概略図を示す. モデルは, 事前学習で得たレビュー生成モデル (Encoder, Generator) と Plug-in Network を組み合わせ,新たに Gating モジュールを追加したものである.この際,Generator 内の Source-Target Attention モジュー ルをソースドメインの数と一致するよう複製し,各ソースドメインに対応したエキスパートとする.
図 2 FewMoESum のモデル概略図
## 4.1.1 Gating モジュール
Gating モジュールは, 各エキスパートの出力を加重平均する際の重みを生成する. GuoMoE と同様に,重みは入力サンプルとソースドメインとのマハ
ラノビス距離をもとに予測する. Few-Shot 学習では利用できる教師データがごく少数に限られており,大量のパラメータを調整することができない. マハラノビス距離による重み付けは大量のパラメータを必要としない (実験ではパラメータ数がモデル全体の $0.1 \%$ 以下) ため, Few-Shot 学習に適する.
式 (1)はマハラノビス距離を示し, 大力サンプルとソースドメインとの意味的な距離を予測するために用いる。次に式 (2)により, 求めた距離の符号を反転させ,入力サンプルとソースドメインの類似度を求める. 以上の処理を各ソースドメインに対して行い, 最後に,式 (3)で示される Softmax 関数により各ソースドメインに対する類似度を確率で求め, 各エキスパートに対する重みとする.これにより,入カサンプルとソースドメインが類似するほど,そのドメインに対応するエキスパートの出力が重視される.
$
\begin{aligned}
d(x, S) & =\left(\left(E(x)-\mu^{S}\right)^{T} M^{S}\left(E(x)-\mu^{S}\right)\right)^{\frac{1}{2}} \\
e(x, S) & =-d(x, S) \\
\alpha\left(x, S_{i}\right) & =\frac{\exp \left(e\left(x, S_{i}\right)\right)}{\sum_{j=1}^{K} \exp \left(e\left(x, S_{j}\right)\right)}
\end{aligned}
$
$
\begin{array}{ll}
x: & \text { 入力サンプル } \\
S: & \text { ソースドメイン } \\
E(x): & \text { 入力サンプル } x \text { の特徴量 } \\
\mu^{S}: & \text { ソースドメイン } S \text { の平均特徴量 } \\
M^{S}: & \text { ソースドメイン } S \text { 固有のパラメータ行列 } \\
& \text { 学習により } S \text { の逆共分散行列に近似する } \\
\left.\{S_{i}\right.\}_{i=1}^{K}: & \text { ソースドメインの集合 }
\end{array}
$
ただし, $\mathrm{E}(\mathrm{x})$ は入力レビュー集合に含まれる各単語の特徴量を Encoder により抽出し, 平均することにより求める.
GuoMoEでは,各ソースドメインに対してそれぞれ 32 個のサンプルを含むミニバッチを利用し,学習および推論を行う.この際,ミニバッチに含まれるデータを Encoder に入力することで各データの特徵量を獲得し, それらの平均を求め, 各ソースドメインに対する $\mu^{S}$ としている. しかし, 本研究では利用するモデルや入力サンプルが比較的大きく,多くのGPUメモリを消費する.そのため,ミニバッチに含められるサンプル数が少なくなり, 従来の手法を利用すると求めた $\mu^{S}$ の信頼性が低くなるという問題がある. したがって, FewMoESum の学習を行う直前にソースドメインの教師なしデー
タから $\mu^{S}$ を求め, 全学習ステップおよび推論に利用する. 通常,学習時に Encoder が更新されることにより,特徴空間が変化してしまうため,学習前に計算した $\mu^{S}$ を利用することはできない.しかし, FewMoESum の学習では, FewSum の Fine-tuning と同様に Encoder のパラメータを固定して学習するため,この手法が利用できる.
## 4.2 FewMoESum の学習
FewMoESum の学習では,モデルに対して要約生成への適応と, ターゲットドメインへのドメイン適応を同時に行う。この際,教師ありデータを用いて学習を行う. しかし, 本手法では教師なしドメイン適応を行うため, 訓練,検証にはソースドメインのデータのみを用いる. 図3 に示すように, Encoder の入力はレビュー集合であり, Generator の入力はレビュー集合に対応する正解要約と, Plug-in Network により生成された property, Gating モジュールから生成された各エキスパートに対する重みである.
FewSum では, 教師データの少なさに起因する過学習を抑えるため, 調整するパラメータを一部に限定する手法が提案された. したがって本手法においても,調整するパラメータを Plug-in Network と各エキスパート,Gating モジュールに限定する。
図 3 FewMoESum のモデル概略図 (学習時)
## 4.2.1 損失関数
学習時は GuoMoEにおいて提案されたメタ学習手法を用いる.この手法では,エキスパートを対応するソースドメインに特化させるための Loss $s_{m t l}$ と,各エキスパートに対する重み付けの学習を行うための Loss $s_{m o e}$ から構成される損失関数に従う. 以下に損失関数を定義する。
$
\operatorname{Loss}=\lambda \cdot \operatorname{Loss}_{m o e}+(1-\lambda) \cdot \operatorname{Loss}_{m t l}
$
図 3 は,エキスパート 3 に対応するソースドメインのサンプルが入力された場合の処理である. Loss $_{m t l}$ は,全エキスパートのうち,入力サンプルのドメインに対応するエキスパートのみの出力を利用して計算する. この時, Gating モジュールや他のエキスパートは使用しない,Loss Loe $^{\text {エ } , 入力サン ~}$ プルのドメインに対応するエキスパート以外の出力を利用して計算する。この時,各エキスパートの出力は Gating モジュールにより生成された重みを用いて加重平均される. また, $\lambda$ はハイパーパラメータ
## 4.2.2 テスト
モデルのテスト時には, 図 2 のように全てのエキスパートの出力を加重平均を求め,1つの要約を生成する. 入力サンプルと類似するソースドメインに対応したエキスパートの出力を重視するため,未知であるターゲットドメインのデータに対しても頑強な要約生成が可能となる。
## 5 実験
## 5.1 実験データ, 評価方法
実験に使用したデータセットを表 1 に示す.デー タセットは FewSum の実験で利用されたものと同一であり,Amazon の製品に対するレビューと要約で構成される。なお,教師なしデータは 1 データあたり 9 個のレビュー,教師ありデータは 1 データあたり 8 個のレビューと 3 個の要約を含む. これらのデータは Clothing, Shoes and Jewelry; Electronics; Health and Personal Care; Home and Kitchen $の 4$ 分野に分類されている.
実験時には,4つの分野のすべての組み合わせについて, 1 分野をターゲットドメイン,他 3 分野をソースドメインとしモデルの評価を行った. 教師なしドメイン適応の効力を確認するため,訓練,検証時に利用する教師ありデータはソースドメインのものに限定する。テスト時は,ターゲットドメインの教師ありデータのみを用いる。また,事前学習時に用いる教師なしデータはターゲットドメインに関わらず,すべての分野のデータを利用する。
評価指標には,要約タスクにおいて一般的な自動評価である ROUGE F1 スコア [14]を使用する. ROUGE F1 スコアはテキスト間の単語の一致度を数値化する指標である。表 1 実験に使用したデータセット
## 5.2 結果
ROUGE F1 スコアを表 2 に示す. 各ターゲットドメインの実験で,より優れたスコアを太字で示す.提案手法は FewSum と比較し"Health"ドメインでは精度の向上が見られたものの,ほとんどのスコアにおいて大幅な向上はなく,ドメイン適応が十分に機能していない.この原因として,教師ありデータのみを用いてドメイン適応を行ったことが考えられる. 利用できる教師ありデータは少数であり,実際のソースドメインと学習に利用する教師ありデータでは分布が異なる。 そのため, Gating Moduleがソー スドメインの分布を正確に捉えられず,エキスパー トに対し正しく重み付けができていないことが考えられる。同様に,エキスパートが学習に利用する教師ありデータの分布にのみ特化しており,汎化性能が低下したことが原因として考えられる。
表 2 実験結果 (ROUGE F1 スコア)
## 6 まとめ
本研究では, Few-Shot 学習による意見要約モデルに対し,MoE を利用した教師なしドメイン適応を行う手法を提案した. 評価実験では,提案手法は FewSum と比較し一部精度が向上したものの,大幅な向上には至らなかった. 今後は,ドメイン分類の学習により Gating Module を初期化する,各ソースドメインで独立した追加の事前学習によりエキスパートを訓練するなど,教師なしデータを活用したドメイン適応手法について検討する予定である.
## 謝辞
本研究の一部は, JKA 補助事業の助成を受けたものである.
## 参考文献
[1] Arther Bražinskas, et al. 2020. Few-Shot Learning for Opinion Summarization. In Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 4119-4135
[2] Nadav Oved, Ran Levy. 2021. PASS: Perturb-and-Select Summarizer for Product Reviews. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics (ACL), pages 351-365.
[3] Hayate Iso, et al. 2021. Comparative Opinion Summarization via Collaborative Decoding. arXiv:2110.07520.
[4] Qiaozhu Mei, et al. 2007. Topic sentiment mixture: modeling facets and opinions in weblogs. In Proceedings of the 16th international conference on World Wide Web in Association for Computing Machinery (ACM), pages 171-180.
[5] Ivan Titov, Ryan McDonald. 2008. Modeling online reviews with multi-grain topic models. In Proceedings of the 17th international conference on World Wide Web in Association for Computing Machinery (ACM), pages 111-120.
[6] Stefanos Angelidis and Mirella Lapata. 2018. Summarizing opinions: Aspect extraction meets sentiment prediction and they are both weakly supervised. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 3675-3686.
[7] Eric Chu and Peter Liu. 2019. Meansum: a neural model for unsupervised multi-document abstractive summarization. In Proceedings of International Conference on Machine Learning (ICML), pages 1223-1232.
[8] Arthur Bražinskas, et al. 2020b. Unsupervised opinion summarization as copycat-review generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ACL), pages 5151-5169.
[9] Ke Wang, Xiaojun Wan. 2021. TransSum: Translating Aspect and Sentiment Embeddings for Self-Supervised Opinion Summarization. In Findings of the Association for Computational Linguistics (ACL-IJCNLP), pages 729-742.
[10] Dustin Wright, Isabelle Augenstein. 2020. Transformer Based Multi-Source Domain Adaptation. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 7963-7974.
[11] Jiang Guo, et al. 2018. Multi-Source Domain Adaptation with Mixture of Experts. In Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 4694-4703.
[12] Young-Bum Kim, et al. 2017. Domain Attention With an Ensemble of Experts. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (ACL), pages 643-653.
[13] Ashish Vaswani, et al. 2017. Attention is all you need. In Advances in neural information processing systems (NIPS), pages 5998-6008.
[14] Chin-Yew Lin. 2004. Rouge: A package for automatic eval- uation of summaries. In Proceedings of Workshop on Text Summarization Branches Out Post Conference Workshop of the Association for Computational Linguistics (ACL), pages 74-81. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D8-2.pdf | # T5を用いた感情要約文の生成
福田芳樹 1 伊東嗣功 2 石井雅樹 2 堂坂浩二 2
1 秋田県立大学 大学院システム科学技術研究科電子情報システム学専攻
2 秋田県立大学 システム科学技術学部 情報工学科
\{m22b009, dohsaka,ishii,hidekatsu_ito\}@akita-pu.ac.jp
## 概要
人間同士のコミュニケーションの活性化を狙いとして,会話ロボットが文章の書き手の感情を推定するとともに,推定結果の判断理由を生成する手法に関する研究を行っている. 本研究では,判断理由として書き手の感情が生起した要因に着目し, 感情的な出来事について書かれた文章から書き手の感情の生起要因を含む要約文(感情要約文)を生成する手法を提案する.T5を用いた提案手法の方が,ベー スラインにおけるSBERTを用いた抽出型要約と比較して高いROUGE スコアを示し, 人間の作成した要約文とほぼ変わらない文を生成した。さらに, $\mathrm{T} 5$ は感情推定を同時に行う場合においても同様の結果を示し, 入力文章に感情タグを入れることで生成文の感情表現を制御できることを示した.
## 1 はじめに
人間同士のコミュニケーションを活性化する会話ロボットの研究が行われており $[1,2]$, 我々は人間同士の感情コミュニケーションでは感情のやり取りが重要な役割を担う点 $[3,4,5]$ に着目し, 文章と絵を用いて人間同士の感情コミュニケーションを活性化する会話ロボットの研究を進めている $[6,7,8]$.会話ロボットが共感や発話によって人間同士の感情コミュニケーションを促進できれば,心理セラピー 効果が得られる [3] だけでなく,良好な対人関係の構築に役立ち [4], 社会交流の活性化につながることが期待される. また, 社会交流の活性化は認知症の予防にも効果的である [5].
会話ロボットが絵から感情を推定し応答する研究では, 感情推定の結果だけでなく, ロボットがその感情であると判断した理由も一緒に応答することで,人間同士のコミュニケーションがさらに活性化することが示唆された [7]. 一方で,人間は,書き手の感情を推定する根拠として文章の内容を用いるこ
とが自然である。このため,会話ロボットが絵だけでなく文章も判断理由に用いることができれば,応答の幅が広がり,妥当性や信頼性の向上によって,人間同士のコミュニケーションをより活性化することができると考えられる。
そこで,我々は会話ロボットの感情判断理由として書き手の感情が生起する要因に着目し, 感情的な出来事について書かれた文章から書き手の感情生起要因を含む要約文(以後, 感情要約文) を生成する手法を提案する.具体的には,「昨日、とても嬉しいことがありました。当選確率の低いライブに当選しました!!最高にうれしい!!速攻で有給の申請を入れました。ののように感情的に書かれた文章から,「当選確率の低いライブに当選したから嬉しい」のような要約文を生成する。
会話ロボットと感情生起要因に関連する研究に,感情生起要因を利用した感情推定 $[9,10]$ がある. 本研究は基本的に入力文章の感情は推定済みとして,入力感情の生起要因に着目した要約文を生成する点に特徴がある。
以下において,2 節で提案手法とデータセットの構築方法を述べ,3節で評価の方法と結果について示す. 最後に,4 節で結果についてまとめる.
## 2 提案手法
## 2.1 諸定義
本研究における感情, 感情表現, 感情要約文を関連研究 $[9,10,8]$ を参考に次のように定義する.
感情 Plutchik の基本 8 感情 [11] の\{喜び,悲しみ,怒り,恐れ,嫌悪,信頼,予期,驚き\}とする。
感情表現中村の感情表現辞書 [12]をもとに作成された感情強度辞書 [13] のうち,幸村の定義 [14] を満たす述語とする。
感情要約文感情生起要因は「当選確率の低いライ
図1喜びのアノテーション済み文章例
ブに当選したので/嬉しい」のように感情表現に原因・理由の副詞節を作る接続表現を伴って従属接続できるものとする.この文型を感情生起要因文型と呼び,この文型を満たす要約文を感情要約文と呼ぶ.
## 2.2 提案手法の概要
近年,様々な自然言語処理タスクをText-To-Text で解くトランスフォーマーモデル T5 が発表され,当時の GLUE や SuperGLUE などの様々なタスクで SoTAを達成した [15]. 本研究では T5を用いて文章の感情要約文を生成する。
## 2.3 データセットの作成
学習・評価に用いるためのデータセットを構築する. 事前に書き手の感情が推定済みの文章を収集した. まず,複数人のクラウドワーカーがあるテーマと感情をもとに 4,5 文からなる文章を作成し,次に,1つの文章につき 5 人の独立したクラウドワー カーが書き手の感情を推定した. 本研究では,これらのうち 3 人以上の感情が一致した文章を使用し,多数派感情を文章の書き手の感情とする。このように作成した 1212 件の各文章に対して,下記に示す作業を行う. また, 1 つの文章に 3 人分の作業デー タを付けるものとし, 1 人分の作業例を図 1 に示す.
作業 1 書き手の感情が生起した要因となる出来事を感情生起要因文型に沿って簡潔に要約する。
作業 2 作業 1 に用いた出来事(感情生起要因)の含む文をすべて選択する。
作業 3 作業 2 で選択した文のうち,最も主な出来事(感情生起要因)を含む文を 1 つ選択する。
このデータセットを train $: \operatorname{dev}:$ test $=8: 1: 1$ に分割して学習・評価データとする。表 $1 \mathrm{~T} 5$ の学習データ例 input<喜び>体重が減ってる!結婚式まであと 1 か月!!!この調子で目標体重まで瘦せるぞ!! !もも体も何だか調子が良くて最高!!
target 体重が減ったから嬉しい。
## 2.4 T5 のファインチューニング
事前学習済み $\mathrm{T} 5$ はウェブ上に公開されているモデル1)を利用し,HuggingFace 社の Transformers[16] を用いてファインチューニングする。 T5 は Text-ToText のモデルであるため,学習に用いる input と target はテキストである. 本研究では表 1 に示すように,input を接頭辞に感情タグ (例:<喜び〉)を付けた感情的な出来事について書かれた文章とし, targetを作業 1 で作成された文とする。これらを用いて,約 3 千件のデータを max_input_length $=128$, max_target_length $=32$, batch $=32$, epochs $=10$ の設定で学習する。
## 3 評価
## 3.1 評価方法
T5を利用した提案手法における生成文を,次節で述べるべースラインにおける生成文と 2.3 節で作成した作業者の要約文を基準に評価する.評価指標には ROUGE-N-F[17] を利用し, 評価データには学習に未使用の 126 文章を用いる。
## 3.2 ベースライン
我々はこれまでに感情と文章を入力することで 2.3 節の作業 3 を推定する手法を提案してきた [8].具体的には,文章 $S$ とその書き手の感情 $e$ が与えられたときに,感情 $e$ が生起する原因となった主な出来事を含む文番号 $i d x$ を推定する手法を提案した。 このとき,式 (1) に示すように,文番号 $i d x$ は入力各文 $\mathbf{S}^{i}$ と事前に自動収集された感情生起要因文型を満たす事例全件 $\mathbf{E P}_{e}^{i}$ の文ベクトルによって計算されるコサイン類似度行列の最大値によって決まる。
$
i d x=\underset{i}{\arg \max }\left(\max _{j}\left(\operatorname{CosSim}\left(\mathbf{S}^{i}, \mathbf{E P}_{e}^{j}\right)\right)\right)
$
しかし,正解率は低く,推定される文は感情生起要因文型を満たすとは限らないという 2 つ大きな問題点がある。これらの問題点を解決した手法をベースラインとする.
1) https://huggingface.co/sonoisa/t5-base-japanese
正解率の向上正解率が低い原因は,自動収集した感情生起要因事例のノイズや別の意味の事例と高い類似度を持つことに起因する。ノイズに関しては,事例の自動収集時の形態素解析器を KNP[18] に変更してタグく節-機能: 原因・理由〉と係り受け情報を用いて感情生起要因文型を検知することで大幅に削減した.また,文の特徵量を改善するために SBERT[19]を利用する. SBERT は良質な文べクトルを生成するために,BERT 族を効率的にファインチューニングするモデルである. 本研究では事前学習済みモデルに東北大学の公開している BERT ${ }^{2)}$ を,損失関数に TripletLoss(anchor 文に作業 1 の文, positive 文に作業 3 の文, negative 文に作業 2 以外の文)を用いて T5 と同様の学習データで学習した (batch=32, epochs=10).
要約生成ヒューリスティクス 2つ目の問題点を解決するために, 文を感情生起要因文型を満たす形に変形する手法を提案する. 式 (1) で推定された文 (以後, 選択文) に対して,次のヒューリスティクスを適用し感情要約文を作成する。
1. 選択文中に感情生起要因文型がある場合は 「【文中の感情生起要因】【文中の接続表現】【文中の感情表現】」を出力.
2. 上記以外で入力文章中に感情表現が含まれる場合は「【選択文の文末過去形】【基本接続表現】【文章中の感情表現】」を出力.
3. 上記以外の場合「【選択文の文末過去形】【基本接続表現】【基本感情表現】」を出力.
ここで,基本表現は 2.3 節で構築したデータセッ卜で最も使用された接続表現「ので」と感情表現「(喜び) 嬉しい,(悲しみ) 悲しい,(怒り) 腹が立つ, (恐れ) 不安だ, (信頼) 信頼している,(嫌悪) 嫌だ, (驚き) 驚いた,(予期) 興味がある」を利用する。
## 3.3 結果と考察
## 3.3.1 ベースラインの事前実験
表 2 に先行研究を改良したベースラインの作業 3 の推定結果を示す.ここで, $E[X]$ は作業 3 を正解する期待値, normal はノイズ除去済みの事例データベース約 3.5 万件 3 )を用いたシステムの結果, ideal は作業 1 の結果を normal で用いた事例データベー
表 2 主な感情生起要因を含む文の推定正解率
表 3 生成要約文と参照文の ROUGE スコアの比較 ROUGE-N-f
スに追加した結果である. normal の結果を見ると, SBERTを用いたシステムは先行研究と同じ状況である BERT を用いたシステムよりほんの少し向上しているが,依然として期待値とほぼ同じ値である。一方で ideal の結果を見ると,SBERT を用いたシステムの正解率は非常に高いことが分かる. このことから,コサイン類似度と感情生起要因事例データベースを用いた主な感情生起要因の含む文の推定では,事例データベース内に類似する事例がある場合に文の特徴量化手法として SBERTを用いることは有效であると言える. 今後, 特に記載のない限り SBERT-normal の結果を用いるものとする。
## 3.3.2 要約文の生成結果と考察
表 3 に各手法における生成文の ROUGE スコアを示す. なお,users は作業者間のスコア平均である。具体的には,ある 1 人の作業者の要約文を生成文,他の 2 人の要約文を参照文として,すべての組み合わせにおいて ROUGE スコアを計算したときのスコアの平均值である。このスコアは作業者間の要約文の単語一致度を示し, システムのスコアがこの値に近ければ近いほどシステムは作業者の作成した要約文と同じ単語を生成していると言える.
ベースラインの結果の考察 baseline-predicted task3 は先行研究を改善した手法の結果 (表 2 の SBERT-normal の結果に対応) であり,-correct task3 は主な感情生起要因の推定は行わずに作業者の作業 3 の結果をそのまま 3.2 節で定義した要約生成ヒューリスティクスに入力した場合である.
表 3 を見ると,主な感情生起要因の推定の正解率が低い状態ではスコアが低く, 仮に主な感情生起要因の推定で完全に正答した場合 (-correct task3 の結
表 4 入力文章と各システムの生成例
} \\
果)でも T5 や作業者間のスコアには届かないことが示された.
具体的な結果を考察したところ,作業者たちが作業 3で選択した文をそのまま要約文に使用している場合にスコアが高くなり,作業 2 で選択した文に含まれる単語を利用した場合や,同義語や類義語で置換する場合にスコアが低くなる傾向があった. 表 4 の baseline に生成結果の一例を示す. 表 4 に示すように式 (1)によって選択された文の文末に感情表現が入っている場合, 生成文の感情表現が重複することがあった.
T5 の結果の考察 T5-add emotion tag は表 1 のように感情タグを文頭に付けた場合であり,-no emotion $\operatorname{tag}$ はそれがない場合である.
表 3 を見ると,どちらの場合においても,作業者間のスコアとほぼ変わらない。このことから T5 は作業者間の作成した要約文とほぼ同じ単語を用いて要約文を生成していると言える。
具体的な結果を考察したところ, -add emotion tag では意味の通らない文はほとんどなかった. 表 3 の T5 の ROUGE スコアが作業者間のスコアよりも高くなるのは,表 4 に示すように,T5 の生成文がある作業者の参照文とほぼ同じ文を生成していることに起因する。また,表 3 の-no emotion tag が-add emotion tag よりも若干低い結果になっているのは,入力文章の感情とは異なる感情表現を生成しているためであった. このため, T5-no emotion tag の生成文には,文法的には正しいが意味は通らない文が稀にあった.表 $5 \mathrm{~T} 5$ の生成文を用いた感情推定の正解率
そこで,不適切な感情表現を生成する現象に着目し, T5 の生成文に対して感情表現辞書を用いた単純な感情推定を行った. このとき,表 5 に感情推定の正解率を文章の多数派感情の一致人数別にまとめたものを示す.表を見ると,感情タグがない場合は一致人数が少なくなるにつれて正解率が下がっていることが分かる。一方で,感情タグがある場合は一致人数にかかわらず正解率は高い.このことから,人間が見ても書き手の感情が分かりずらい場合は $\mathrm{T} 5$ も感情を当てにくいことが分かった. また,感情夕グを入れることで出力文の感情を制御することが可能であることも示唆された.
## 4 おわりに
会話ロボットの感情の判断理由として文章中の感情生起要因に着目し, 文章の感情生起要因を含む要約文(感情要約文)を生成する手法を提案した. 具体的には,感情的な出来事について書かれた文章を用いて感情要約文を生成するように $\mathrm{T} 5$ をファインチューニングする方法とそのためのデータセットの構築方法を提案した. ベースラインとして, SBERT を用いて入力文章の中から主な感情生起要因の含む文を選択し,ヒューリスティクスによって感情要約文を作成する手法を定義した。提案手法と比較したところ,ベースラインは主な感情生起要因の含む文の選択精度が ROUGE スコアに大きく関わるを示した.また,ヒューリスティクスに正解文を入力した場合でも T5 の ROUGE スコアには届かないことを示した. T5 では学習データが少ないにもかかわらず,ROUGE スコアが高い自然な文を生成した。一方で,入力文章に感情タグを入れない場合,書き手の感情が人間でも理解しにくい文章は $\mathrm{T} 5$ でも適切な感情表現を生成できない傾向があった. しかし,感情タグを入れれば適切な感情表現を生成できることが分かった.
今後の課題として,提案手法に基づいて判断理由を応答する会話ロボットを構築し,実際に人間同士のコミュニケーションを促進できるか実証実験を行う必要があると考えられる。
## 謝辞
本研究は科研費(16K00355)の助成を受けたものである。また,株式会社 Insight Tech が国立情報学研究所の協力により研究目的で提供している「不満調查データセット」を利用した.
## 参考文献
[1] Kohji Dohsaka, Ryota Asai, Ryuichiro Higashinaka, Yasuhiro Minami, and Eisaku Maeda. Effects of conversational agents on activation of communication in thoughtevoking multi-party dialogues. IEICE Transactions on Information and Systems, Vol. E97.D, No. 8, pp. 21472156, 2014.
[2] Shinya Fujie, Yoichi Matsuyama, Hikaru Taniyama, and Tetsunori Kobayashi. Conversation robot participating in and activating a group communication. In INTERSPEECH, pp. 264-267, 2009.
[3] Jonathan R Carryer and Leslie S Greenberg. Optimal levels of emotional arousal in experiential therapy of depression. Journal of consulting and clinical psychology, Vol. 78, No. 2, pp. 190-199, 2010.
[4] Ronald E Riggio. Assessment of basic social skills. Journal of Personality and social Psychology, Vol. 51, No. 3, pp. 649-660, 1986.
[5] Laura Fratiglioni, Stephanie Paillard-Borg, and Bengt Winblad. An active and socially integrated lifestyle in late life might protect against dementia. The Lancet Neurology, Vol. 3, No. 6, pp. 343-353, 2004.
[6] 木下圭, 堂坂浩二, 石井雅樹, 伊東嗣功. 文書と絵からの感情認識手法の開発. 言語処理学会第 25 回年次大会, pp. 117-120, 2019.
[7] 鈴木哲司, 堂坂浩二. コミュニケーション活性化を目的とした絵からの感情判断理由の生成. 秋田県立大学ウェブジャーナル B(研究成果部門), No. 5, pp. 24-31, 2018
[8] 福田芳樹, 堂坂浩二, 石井雅樹, 伊東嗣功. BERT を利用した感情生起要因推定手法の検討. 人工知能学会第 34 回全国大会論文集 (4Rin182), 2020.
[9] 松本和幸, 三品賢一, 任福継, 黒岩眞吾. 感情生起事象文型パターンに基づいた会話文からの感情推定手法. 自然言語処理, Vol. 14, No. 3, pp. 239-271, 2007.
[10] 徳久良子, 乾健太郎, 松本裕治. Web から獲得した感情生起要因コーパスに基づく感情推定. 情報処理学会論文誌, Vol. 50, No. 4, pp. 1365-1374, apr 2009.
[11] Robert Plutchik. The nature of emotions: Human emotions have deep evolutionary roots, a fact that may explain their complexity and provide tools for clinical practice. American scientist, Vol. 89, No. 4, pp. 344-350, 2001.
[12] 中村明. 感情表現辞典. 東京出版, 1993.
[13] 赤堀立樹, 堂坂浩二, 伊東嗣功, 石井雅樹. 感情強度辞書を利用した日本語ツイートの感情強度の推定. 人工知能学会第 33 回全国大会論文集 (3Rin214), 2019.
[14] 幸村幸夫. 日本語のシンタクスと意味. くろしお出版, 1982 .
[15] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine
Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020.
[16] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander M. Rush. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45, Online, October 2020. Association for Computational Linguistics.
[17] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 74-81, Barcelona, Spain, July 2004. Association for Computational Linguistics.
[18] 笹野遼平, 黒橋禎夫. 大規模格フレームを用いた識別モデルに基づく日本語ゼロ照応解析. 情報処理学会論文誌, Vol. 52, No. 12, pp. 3328-3337, 2011.
[19] Nils Reimers and Iryna Gurevych. Making monolingual sentence embeddings multilingual using knowledge distillation. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing. Association for Computational Linguistics, 112020.
[20] 三澤賢佑, 成田和弥, 田内真惟人, 中島正成, 黒橋禎夫. 定量調査のための意見調査コーパス構築への取り組み. 言語処理学会第 23 回年次大会発表論文集, pp. 1014-1017, 2017. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D8-3.pdf | # 抽出型要約と言い換えによる生成型要約の訓練データ拡張
Loem Mengsay 高瀬翔 金子正弘 岡崎直観
東京工業大学情報理工学院
\{mengsay. loem, sho. takase, masahiro.kaneko\}@nlp.c.titech.ac.jp
okazaki@c.titech.ac.jp
## 概要
大量の訓練データを用いたニューラルモデルは生成型要約タスクにおいて高い性能を達成している. しかしながら,大規模な並列コーパスの構築はコストの観点から容易ではない.これを解決するため,本研究では生成型要約タスクの疑似訓練データを低コストで効果的に構築する手法を提案し, 訓練デー タを拡張する。提案手法は抽出型要約と言い換えの 2 つのステップで疑似訓練データを構築する. 抽出型要約では入力テキストの主要部分を抽出し,言い換えではその多様な表現を得る.実験を通して,提案手法は生成型要約タスクの性能を向上させ,逆翻訳や自己学習などの既存の訓練データ拡張手法を上回ることを確認する。
## 1 はじめに
ニューラルエンコーダ・デコーダは,機械翻訳や自動要約などの様々な系列変換タスクにおいて顕著な性能を達成している $[1,2]$. 近年の研究においてニューラル手法の性能は訓練データ量に対数比例することが指摘されており [3], 系列変換タスクにおいて高い性能を達成するためには,大規模な並列コーパスが必要である [4]. 本稿では,生成型要約タスクにおけるニューラルエンコーダ・デコーダの性能を向上させるために,訓練データを拡張することに取り組む。
人手による並列コーパスの構築はコストが高いため, 既存研究では疑似訓練データを自動的に構築する方法が検討されている. 疑似訓練データを構築する方法としては,逆翻訳 [5] が広く用いられている。翻訳タスクにおける逆翻訳では,翻訳先の言語の文から翻訳元の言語の文を生成するモデルを学習し,得られたモデルを翻訳先の言語のコーパスに適用し,翻訳元の言語の疑似コーパスを生成する。この逆翻訳手法を要約に適用した場合,モデルは要約か
ら原文書を生成する必要があるため,要約タスクにおける逆翻訳は本質的に非現実的である(付録 A).
He ら [6] は,自己学習が機械翻訳や要約タスクの性能を向上させることを示した. 自己学習では教師モデルを学習し,そのモデルを入力側のコーパスに適応し, 出力側の疑似コーパスを生成する。逆翻訳が非現実的な処理であったのに対し, 自己学習による疑似要約の生成は合理的である. しかしながら,自己学習を適用した場合,多様な要約の生成が困難であると指摘されている [7]. これらの問題に加え,自己学習や逆翻訳において高品質な疑似データを得るためには,大量の訓練データで教師モデルや逆翻訳モデルを学習しておく必要があるため,データ構築のコストが高い.
そこで,本研究では生成型要約の疑似訓練データを構築する新たなアプローチとして,抽出型要約と言い換えの組み合わせによる手法を提案する.提案手法は原文の統語構造を基に,ヒューリスティックな手法で重要な部分を要約として抽出する.このため, 逆翻訳や自己学習と異なり, 疑似訓練データ作成のためだけにニューラルモデルを構築する必要がない。抽出された要約に対し,既存のモデルを活用した言い換え手法を適用し,多様な疑似要約を得る.
本研究では見出し生成タスクと文書要約タスクで実験を行う.実験を通して,提案手法による疑似訓練データは両タスクにおいて性能を向上させることを確認した.具体的には,疑似データを用いることにより両タスクの ROUGE F1 スコアが 0.50 以上向上した。また,生成された疑似データの性質を分析し,提案手法による疑似データの生成が従来手法より効率的であることを示した.提案手法は真の訓練データが少ない低リソースの設定においても頑健であることが確認された(付録 B).
図 1 提案手法による疑似データの生成過程の例.
## 2 提案手法
1 節で述べたように,提案手法は抽出型要約と言い換えから構成される. 図 1 に提案手法の概要を示す. 提案手法は文を入力とし,その文に対応する疑似要約文を生成する。このため, 文書から疑似要約を構築する場合には,文書内に含まれる複数の文に対して独立に提案手法を適用し, 各文の要約文の集合を文書の要約とする.
## 2.1 ステップ 1 :抽出型要約
抽出型要約のステップでは,原文の中から重要な部分を抽出する,すなわち,入力文の文圧縮を行う. 先行研究ではルールベースの手法 [8], 構文木から重要部分を検出するアプローチ [9],ニューラルベースの手法 $[10,11]$ などの圧縮方法が提案されている。本研究では,コストの少ない手法,すなわち,新たにモデルを構築する必要のない手法として,与えられた文の構文木を基に文圧縮を行う.
本研究では,文の重要な部分は与えられた文の構文木の根付き部分木であると定義する. まず,与えられた文を係り受け解析し,その係り受け木を得る. 次に,係り受け木の深いノード,すなわち,末端に近いノードを刈り,元の構文木よりも深さの小さい根付き部分木を得る. 本手法では部分木の深さによって, 出力要約の長さ (単語数)を調整することができる. 本研究では,係り受け木の染さの半分より深いノードを刈る. 図 1 の下段(左)に本ステップの例を示す.
## 2.2 ステップ 2 : 言い換え
ステップ 1 により抽出された要約は原文に含まれる単語のみで構成されている.要約の多様性を高めるために要約に言い換えの手法を適用する.高品質なニューラル機械翻訳モデルが公開されているため,言い換えには機械翻訳モデルを用いたアプロー チ [12]を採用する.具体的には,文を別の言語に翻訳し,翻訳された文を元の言語に翻訳する折り返し翻訳を行い,言い換えを得る。図 1 の下段(右)に本ステップの例を示す.
## 3 実験
提案手法の効果を調べるため, 見出し生成と文書要約の 2 つの要約タスクで実験を行った. 見出し生成タスクでは Gigaword データセット [2]を用いた. このデータセットには,英語 Gigaword コーパスから抽出された約 380 万の文書の 1 文目と見出し文の対が訓練データとして含まれる。文書要約タスクでは,単一の文書要約タスクに広く利用されている CNN/DailyMail データセット [13]を用いた。このデータセットには,CNN と DailyMail のウェブサイトから抽出されたニュース記事と要約の 28 万対が訓練データとして含まれている。ニューラルエンコーダ・デコーダモデルとして fairseq ${ }^{1)}$ に実装されている Transformer[14]を用いた。
## 3.1 比較手法
既存研究で提案されてきた代表的な訓練データ拡張手法との比較を行う. 疑似データの構築は各デー タセットの訓練データをもとに行う.なお,Caswell
1) https://github.com/pytorch/fairseq
表 1 見出し生成タスクと文書要約タスクにおける ROUGE F1 スコア. 丸括弧の中は疑似訓練データ数を示す。
ら [15] に従い,全ての疑似訓練データについての入力の先頭に<Pseudo>の特殊トークンを付加する.
オーバーサンプリング訓練データから原文書と要約の対をサンプリングし,訓練データに追加する.すなわち,この手法で構築される訓練データには,真の訓練データのみが含まれる。
逆翻訳訓練データを用いて,要約から原文を生成するニューラルエンコーダ・デコーダの学習を行う. 次に,このモデルを訓練データ内の要約に適用し,対応する原文書を生成する. 生成された原文書と真の要約の対を疑似訓練データとして使用する。
自己学習各訓練データを用いて, 原文書から要約を生成するニューラルエンコーダ・デコーダを学習する. 次に,訓練データの原文をニューラルエンコーダ・デコーダに入力し,対応する要約を生成する. 真の原文書と生成された要約の対を疑似訓練データとして使用する.
提案手法各訓練データに対して提案手法を適用する.2 節で説明したように,提案手法は文単位で疑似要約を生成する。ニューラルエンコーダ・デコーダでは先頭の数文を入力とすることが多いことにならい,文書要約タスクでは,原文書に含まれる冒頭の 3 文を提案手法への入力とし, 各文の要約を元の順序で連結して原文書の要約とする. 抽出型要約ステップの係り受け解析には, $\mathrm{spaCy}^{2}$ を使用する. 言い換えステップでは, $\mathrm{Ng}$ ら [16] が構築した英独・独英翻訳モデル ${ }^{3}$ を使用する。
## 3.2 結果
表 1 に真の訓練データのみを用いた場合と,各データ拡張手法を用いた手法の ROUGE スコアを示す.オーバーサンプリングは拡張を行わない場合と比較して高いスコアを達成している。この結果は,重複した学習事例であっても訓練データ量が増え
表 2 生成された疑似要約の真の要約に対する BLEU と F1 BERTScores.
るほど,ニューラルエンコーダ・デコーダの性能が向上することを示唆している。逆翻訳と自己学習は拡張を行わない場合よりも性能は高いが,オーバー サンプリングと同程度のスコアである。これらの結果は,性能改善は両者が生成する疑似データの品質ではなく,学習データの増加によってもたらされたことを示唆している。逆翻訳と自己学習は疑似デー タの生成に別のモデルを学習する必要があるため, そのコストを考慮するとオーバーサンプリングが優れている。これらに対し,提案手法は他のデー 夕拡張手法よりも高い性能を達成した。特に,提案手法による疑似訓練データは見出し生成における ROUGE-2 スコアを大幅に向上させた。文書要約では,拡張を行わない場合と比較して提案手法によるデータ拡張は全ての ROUGE スコアを有意に向上させた4).これらの結果から,提案手法はオーバー サンプリング,逆翻訳,自己学習を含む既存のデー タ拡張手法よりも,生成型要約タスクのための疑似データを構築するのに有効であると言える.
## 4 分析
## 4.1 疑似データの多様性
1 節で述べたように,提案手法は自己学習より多様な要約を生成するために言い換えを行なっている.この効果を検証するために,自己学習と提案手法により生成された疑似要約を比較する。表 2 は各訓練データにおける真の要約と生成された疑似
4) スチューデントの $\mathrm{t}$ 検定で $p<0.05$.
表 3 疑似データ生成するのに要する時間と費用.
要約の BLEU スコアを示している.また,意味的類似性の指標として F1 ベースの BERTScore[17] も示している. この表から, 自己学習と提案手法の BERTScore は高いことがわかる. この結果は生成された要約が真の要約と意味的に類似していることを意味する.このことから,いずれの方法で生成された要約も疑似データとして意味的に適していると言える。
一方,提案手法の BLEU スコアは自己学習のスコアよりも低い.この結果は, 自己学習と比較して提案手法が真の要約と異なるフレーズを多く含んだ疑似要約を生成していることを示している。 すなわち, 提案手法で構築した訓練データは自己学習よりも多様な要約を含むことが分かる。
## 4.2 疑似データ生成の効率
提案手法は公開されている翻訳モデルをそのまま用いることができるため,逆翻訳や自己学習のように翻訳・生成モデルを学習する必要はない. そのため, 既存手法と比較すると低コストで疑似データを構築できる. 表 3 は各疑似データの構築手法の所要時間5)を示す. また,クラウドコンピューティングサービスである Amazon EC2を用いて疑似データを構築した場合に必要な費用も示している. 表 3 から,逆翻訳と自己学習はモデルの学習に多くの時間を要することがわかる。一方, 提案手法では学習を必要としないため, 他の手法と比較して $1 / 10$ 以下の金額で疑似データを構築できる。
## 5 関連研究
逆翻訳と自己学習は,系列変換タスクのデータ拡張手法として広く使われている $[5,18,6]$. 逆翻訳は機械翻訳において有効なアプローチであるが,1 節で述べたように,要約タスクに適用するのは非現実的である。また,自己学習は機械翻訳や要約タスク
において有効な手法と報告されている $[19,6]$ が,多様な疑似データを生成することは困難である [7] ため,性能の向上に限界がある.
訓練データとの差異が小さい摂動を用いて性能改善を行う手法は,データ拡張とみなすことができる [20]. Takase ら [21] は, 単語ドロップアウトや単語置換のような単純な手法は敵対的摂動よりも効率的に性能を向上させられることを示した.これらの摂動は本研究の提案手法と独立しているため, 組み合わせることでさらに性能向上が期待できる.
提案手法の抽出型要約のステップでは文圧縮の手法を用いている. Dorr ら [8] は言語学的に動機づけられたヒューリスティックを用いたルールベースの文圧縮手法を提案した. Filippova ら [9] は訓練デー タから重要な部分木を学習する教師あり文圧縮法を提案した。また,近年ではニューラルネットを用いた文圧縮の研究も行われている $[10,11]$. 本研究では教師ありモデルや学習コーパスを必要としない,文の構文木に基づくルールベースの手法を採用し文の圧縮を行った。
提案手法は抽出された要約に対して言い換えを行い,疑似データの多様性を高めている. Bolshakov ら [22] は辞書に基づき単語を同義語に置き換えることで,言い換えを行う手法を提案した。最近の研究は,言い換えタスクを系列変換タスクとして定式化することにより,ニューラルベースの言い換え生成を行っている [23]. 機械翻訳モデルを用いた折り返し翻訳による言い換え文生成も提案されている [12]. 近年は高性能な機械翻訳モデルは公開されているため,本研究では言い換え生成の手法として折り返し翻訳を採用した。
## 6 おわりに
本研究では, 生成型要約タスクのための疑似デー タを生成する新しい手法を提案した. 提案手法は抽出型要約と言い換えの 2 つのステップから構成される。抽出型要約により入力の重要な部分を見つけ,言い換えにより多様な表現を獲得する.実験の結果,提案手法は逆翻訳や自己学習の疑似データ生成手法と比較して,より効果的であることが示された. また,提案手法は疑似データ生成において追加でモデルを学習する必要がないため, 他の手法に対して,コストの面でも優れていることを示した.
謝辞本研究は JSPS 科研費 $19 \mathrm{H} 01118$ および JP21K17800 の助成を受けたものです.
## 参考文献
[1] Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. In 3rd International Conference on Learning Representations, 2015.
[2] Alexander M. Rush, Sumit Chopra, and Jason Weston. A neural attention model for abstractive sentence summarization. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 379-389, 2015.
[3] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In Advances in Neural Information Processing Systems 33, pp. 1877-1901, 2020.
[4] Philipp Koehn and Rebecca Knowles. Six challenges for neural machine translation. In Proceedings of the First Workshop on Neural Machine Translation, pp. 28-39, 2017.
[5] Rico Sennrich, Barry Haddow, and Alexandra Birch. Improving neural machine translation models with monolingual data. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, pp. 86-96, 2016.
[6] Junxian He, Jiatao Gu, Jiajun Shen, and Marc'Aurelio Ranzato. Revisiting self-training for neural sequence generation. In International Conference on Learning Representations, 2020 .
[7] Jiatao Gu, James Bradbury, Caiming Xiong, Victor OK Li, and Richard Socher. Non-autoregressive neural machine translation. In International Conference on Learning Representations, 2018.
[8] Bonnie Dorr, David Zajic, and Richard Schwartz. Hedge trimmer: A parse-and-trim approach to headline generation. In Proceedings of the HLT-NAACL 03 Text Summarization Workshop, pp. 1-8, 2003.
[9] Katja Filippova and Yasemin Altun. Overcoming the lack of parallel data in sentence compression. In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, pp. 1481-1491, 2013.
[10] Katja Filippova, Enrique Alfonseca, Carlos A. Colmenares, Lukasz Kaiser, and Oriol Vinyals. Sentence compression by deletion with LSTMs. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 360-368, 2015.
[11] Hidetaka Kamigaito, Katsuhiko Hayashi, Tsutomu Hirao, and Masaaki Nagata. Higher-order syntactic attention network for longer sentence compression. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human
Language Technologies, pp. 1716-1726, 2018.
[12] Jonathan Mallinson, Rico Sennrich, and Mirella Lapata. Paraphrasing revisited with neural machine translation. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics, pp. 881-893, 2017.
[13] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, pp. 1715-1725, August 2016.
[14] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems 30, pp. 5998-6008, 2017.
[15] Isaac Caswell, Ciprian Chelba, and David Grangier. Tagged back-translation. In Proceedings of the Fourth Conference on Machine Translation, pp. 53-63, 2019.
[16] Nathan Ng, Kyra Yee, Alexei Baevski, Myle Ott, Michael Auli, and Sergey Edunov. Facebook FAIR's WMT19 news translation task submission. In Proceedings of the Fourth Conference on Machine Translation, pp. 314-319, 2019.
[17] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with BERT. CoRR, Vol. abs/1904.09675, , 2019.
[18] Shun Kiyono, Jun Suzuki, Masato Mita, Tomoya Mizumoto, and Kentaro Inui. An empirical study of incorporating pseudo data into grammatical error correction. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 1236-1242, 2019.
[19] Jiajun Zhang and Chengqing Zong. Exploiting source-side monolingual data in neural machine translation. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1535-1545, 2016.
[20] Sosuke Kobayashi. Contextual augmentation: Data augmentation by words with paradigmatic relations. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 452-457, 2018.
[21] Sho Takase and Shun Kiyono. Rethinking perturbations in encoder-decoders for fast training. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 5767-5780, 2021.
[22] Igor A. Bolshakov and Alexander Gelbukh. Synonymous paraphrasing using wordnet and internet. In Natural Language Processing and Information Systems, pp. 312323, 2004
[23] Aaditya Prakash, Sadid A. Hasan, Kathy Lee, Vivek Datla, Ashequl Qadir, Joey Liu, and Oladimeji Farri. Neural paraphrase generation with stacked residual LSTM networks. In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers, pp. 2923-2934, 2016.
表 4 逆翻訳により生成された原文と真の原文との ROUGE F1 スコア. 比率と差は, 生成された原文と真の原文に含まれるトークン数の比較である.
## A 逆翻訳による疑似データ
1 節で述べたように,生成型要約タスクにおける逆翻訳アプローチは,要約から原文を復元する必要があるため,本質的に不可能である.そこで,逆翻訳により生成された原文の性質を調べた。
表 4 は,逆翻訳により生成された原文の長さ (トークン数)の比率と差とを示す. 生成された原文は元の原文より短いことが分かる.この結果は,逆翻訳が真の原文の情報を完全に復元できていないことを示している。つまり,要約から原文を生成することが難しいことを意味している。
また,逆翻訳により生成された原文が真のデータに対応しているかを調べるために,真の原文を正解と見なした場合の ROUGE スコアを表 4 に示す. 文書要約の場合, ROUGE スコアは極めて低くなっている。この結果からも,逆翻訳は原文の生成に失敗していることがわかる.
一方,見出し生成の ROUGE スコアは文書要約の ROUGE スコアと比較して高い. この結果は, 逆翻訳は要約から原文の核となる部分を復元できる可能性を示している。見出し生成タスクは,与えられた文章から見出しを生成するタスクであるため,要約 (見出し)には原文の主要な部分が含まれていることが多い. このような性質が高いROUGE スコアの要因になっていると考えられる。
## B 低リソース設定
2 節で述べたように,提案手法は訓練データの量が少ない場合でも,頑健であると予想される。この仮説を調べるために,低リソースな訓練データの設定で実験を行なった。
見出し生成タスクと文書要約タスクの各訓練セットから,1千件の事例を抽出する. 抽出された事例は,真の訓練データとし,残りの事例を疑似データの生成に利用する. 比較手法と実験設定は 3 と同様である.
表 5 と 6 に,見出し生成タスクと文書要約タスクにおける,各手法の ROUGE F1 スコアを示す. 両夕表 5 低リソース設定における見出し生成タスクの結果.
表 6 低リソース設定における文書要約タスクの結果.
スクにおいて,オーバーサンプリングは拡張なしを上回る性能を得ることがわかる. このように,重複した学習データはニューラルエンコードデコーダモデルの性能を向上させる. この結果は, 3.2 の結果と整合性がある。
表 5 により, 見出し生成では,逆翻訳がオーバー サンプリングより高いスコアを達成している。また,表 6 により,文書要約では自己学習がオーバー サンプリングより優れていることが分かる.この結果は,適切なタスクに適用すれば,既存のアプロー チがオーバーサンプリングよりも効果的である可能性を示している。
一方,提案手法は両タスクにおいて他の手法より有意に高い性能を達成している. よって,提案手法は真の訓練データの量が少ない場合にも有効であることがわかる. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D8-4.pdf | # 記事に忠実ではない訓練事例も活用した 見出し生成モデルの忠実性の改善法
植木滉一郎 平岡達也 岡崎直観
東京工業大学
\{koichiro.ueki@nlp., tatsuya.hiraoka@nlp., okazaki@\}c.titech.ac.jp
## 概要
見出し生成において忠実性の改善は重要な課題である.従来研究 [1] では,訓練データ中で忠実性が低い見出しを取り除くアプローチが提案されたが,見出し生成モデルの学習に用いる訓練事例数が減るため,生成される見出しの品質が低下するという問題があった. 本稿では,マスク付き言語モデルを用いて忠実性の低い訓練事例を忠実性の高い事例に書き換える手法,タグにより見出しの忠実性を制御する手法を提案する. 自動評価と人手評価の結果から,提案手法は既存手法と同程度の忠実性を保ちながら品質の高い見出しを生成できることを報告する.
## 1 はじめに
近年の言語生成モデルの発展により,見出し生成 (記事に対して見出しを作文する)タスクの性能が向上し,人間が作成した見出しに近い品質の見出しを自動で生成できるようになった。しかし,自動見出し生成は記事内容から逸脱した見出しを生成することがある,という問題が報告されている $[2,3]$. そのため, 見出し生成モデルの忠実性の改善を目指した研究が進められている $[4,5,6,7]$.
松丸ら [1] は,記事に忠実ではない見出しが訓練データの約 4 割に含まれていると指摘し,それが生成モデルの忠実性を低下させる要因になっていると報告した. 忠実でない見出しを訓練データから取り除くことで,モデルの忠実性を向上させた. さらに,訓練事例の不足を補うため,自己学習を用いて擬似訓練データを作成した。
ところが,日本語データの実験において,自己学習で獲得した擬似訓練データはモデルの忠実性を改善するものの,参照見出し文との ROUGE スコアを低下させた. これは,訓練事例の見出しの中で,記事から逸脱している箇所は単語や句などの限られた範囲であるにもかかわらず,ゼロから擬似見出しを生成したことに起因する.そこで,記事から逸脱した見出しを破棄するのではなく,積極的に活用しながら見出しの忠実性と ROUGE スコアの両方を改善する手法を検討したい.
本稿では,マスク付き言語モデルを用いた訓練データの書き換え手法(図 1 中央)と,タグを用いてモデルの忠実性を制御する手法(図1右)を提案する.前者は,見出しの中で記事から逸脱している箇所の単語や句をマスク付き言語モデルで書き換え,擬似訓練データとする.後者は,訓練データには一切変更を加えず,モデルへの入力の先頭に忠実性の度合いを示すタグを付与し,見出し生成モデルを学習する。自動評価と人手評価の結果から,提案手法は既存手法と同程度の忠実性を維持しつつ,品質の高い見出しを生成できることが分かった.
## 2 提案手法
本研究の目標は, 見出し生成モデルの ROUGE 值と忠実性を改善することである,具体的には,松丸ら [1] の手法をべースとし,より多くの訓練データを見出し生成モデルの学習に活用する手法を提案する. 本稿では,部分編集による擬似見出し生成と, タグによる制御の二つの手法を提案する。
## 2.1 含意関係認識器
本研究では,記事に対する見出しの忠害性の判定を,記事と見出しの含意関係認識として扱う [1].含意関係認識器を用いて,訓練データ Dを忠実な見出し $\mathscr{D}^{\text {fai }}$ と,忠実ではない見出し $D^{\text {hal }}$ のグルー プに分ける。含意関係認識器 $E$ は, $N$ 単語から構成される記事 $X=\left(x_{1}, x_{2}, \cdots, x_{N}\right)$ と, $M$ 単語から構成される見出し $Y=\left(y_{1}, y_{2}, \cdots, y_{M}\right)$ の組を大力とし,記事 $X$ が見出し $Y$ を含意する確率 $E(X, Y)$ を予測す
$(X, Y) \in \mathscr{D}^{\text {hal }}$
2.見出し生成モデルを学習
$\left.\langle\mathrm{HAL}>+\right.$ 記事 $X \rightarrow \longrightarrow \begin{array}{c}\text { モデル }\end{array} \rightarrow$ 見出し $Y$
図 1 (左) 含意関係認識による訓練事例の忠実性判定 (中央) マスク付き言語モデルを用いた訓練データの書き換え (右) タグ制御による見出し生成
図 2 マスク付き言語モデルを用いた擬似見出し生成
る. $E(X, Y)$ が閾值 $\alpha$ 以上の事例を $\mathscr{D}^{\text {fai } に , ~} \alpha$ 未満の事例を $\mathscr{D}^{\text {hal }}$ に入る(図 1 左).
## 2.2 部分修正による擬似見出し生成
マスク付き言語モデルで忠実ではない見出しを書き換え,忠実な擬似見出しを生成する(図 2)。まず,見出しの中で記事に忠実ではない部分の検出を行う.式 1 のように,記事と忠実ではない見出しの組 $(X, Y) \in \mathscr{D}^{\text {hal }}$ に対し,見出し $Y$ に含まれるトークンのうち,記事 $X$ に出現しないものを,忠実ではない部分と見なし,<MASK>トークンに置き換える.
$
\tilde{y}_{i}= \begin{cases}y_{i} & \left(\text { if } y_{i} \in X\right) \\ <\text { MASK> } & \text { (otherwise) }\end{cases}
$
続いて,忠実ではなかった部分の穴埋めを行う.式 2 のように,マスク付き言語モデル BERT [8] を用いて,マスクされた見出しから疑似見出しを生成する.具体的には,記事とマスクされた見出しを BERT に入力し,<MASK>トークンを予測することで,擬似見出し $Y^{\prime}$ を生成する。
$
Y^{\prime}=\operatorname{BERT}\left(X,\left[\tilde{y}_{1}, \tilde{y}_{2}, \cdots, \tilde{y}_{M}\right]\right)
$
このようにして,全ての $(X, Y) \in \mathscr{D}^{\text {hal }}$ 対して,見出しの書き換え $Y \longrightarrow Y^{\prime}$ を行い,擬似訓練データ $\left(X, Y^{\prime}\right) \in \mathscr{D}^{\mathrm{pse}}$ を構築する. 最終的に,忠実な訓練データ $\mathscr{D}^{\mathrm{fai}}$ と擬似訓練データ $\mathscr{D}^{\mathrm{pse}}$ を用い,見出し生成モデルを学習する。
BERT モデルは,忠実な事例 $(X, Y) \in \mathscr{D}^{\text {fai }}$ の記事と見出しを連結して入力し,見出し部分のトークンの一部をマスクトークンに置換し,元のトークンを予測するタスクでファインチューニングする.
## 2.3 タグ制御モデル
訓練データの見出しには忠実性の高いスタイルと低いスタイルがあることを明示し,タグ制御により見出し生成の忠実性を制御するモデルを提案する(図 1 右)。生成を制御する既存手法 $[9,10]$ と同様に,訓練データの入力に忠実性を表す特殊トークンを連結する.具体的には,忠実な訓練事例 $(X, Y) \in \mathscr{D}^{\text {fai }}$ の記事 $X$ の冒頭に特殊トークン<FAI>を,忠実ではない訓練事例 $(X, Y) \in \mathscr{D}^{\text {hal }}$ の記事 $X$ の冒頭に特殊トークン<HAL>を追加する.
$\mathscr{D}^{\text {fai }}$ と $\mathscr{D}^{\text {hal }}$ は人手で作成された事例であるため,忠実度には差があるものの見出しの品質は高い. そこで,見出しの忠実度に応じた特殊トークンを訓練事例に付与し,見出し生成モデルを学習することで,訓練データの量を落とすことなく,忠実な見出しと忠実ではない見出しを書き分けられるようになることが期待される。このようにして学習した見出し生成モデルで忠実な見出しを生成するには,見出しを生成したい記事の冒頭に特殊トークン<FAI>を追加し,見出しを生成させればよい。
## 3 実験
## 3.1 実験設定
日本語の見出し生成タスクで実験する. 訓練データとして,Japanese News Corpus (JNC) ${ }^{1)}$ を用いる. JNC は,朝日新聞の記事冒頭 3 文と紙面見出しの組から構成される約 180 万事例を収録している. また,評価用データセットとして,JApanese MUlti-Length Headline Corpus (JAMUL) を利用する。
1) https://cl.asahi.com/api_data/jnc-jamul.html
表 1 JAMULデータセットでの評価 (手法左のマークは図 3 に対応)
JAMUL は朝日新聞デジタルで配信された 1,524 件の記事全文と紙面見出し,10,13,26 文字以内の各種媒体向け見出しが付与されたデータセットである.本研究では紙面見出しを評価に用いる. トークン化には SentencePiece [11]を使用した。
日本語の事前学習済み BERT モデル2)を用いて,含意関係認識器を構築した.具体的には,松丸らが JNC のデータから作成した含意関係認識データセットから,5,033 件の訓練事例でファインチューニングを行った。1,678 件の評価データにおける正解率は $83.9 \%$ であった.この含意関係認識器を用いて,見出し生成の訓練事例を分類したところ,844,526 件 (全体の $48.9 \%$ ) が忠実な事例と判定された.
提案手法の比較対象として,訓練データ全体で学習したモデル(全事例),松丸ら [1] の既存手法に従って忠実な事例のみで見出し生成モデルを学習したもの(忠実のみ),自己学習で擬似見出しを追加してモデルを学習したもの(忠実十自己学習)を用いる. 見出し生成モデルとして Transformer[12]を採用し, fairseq ${ }^{3}$ で実装した.
自動評価手法として, full-length F1 ROUGE 値を用いる. また,ROUGE では生成された見出しの忠実性を評価できないため $[13,14]$, モデルが生成した見出しに対して,含意関係認識器(2.1 節)が含意と予測する割合(含意率)[1]を報告する。
人手評価では,忠実性(記事が見出しを含意するか), 重要度 (見出しは記事の重要な内容を含んでいるか),理解しやすさ(見出しは理解しやすいか)という 3 つの観点を用いた。「忠実性」は「はい」「いいえ」「判定不能」の 3 段階評価を行い,「はい」の割合いを報告する。「重要度」,「理解しやすさ」は, “5”を最も良いとする 5 段階評価を行い,その平均值を報告する. JAMUL のデータからランダムにサンプルした 100 事例に対し,各モデルで見出しを生表 2 生成した擬似見出しの評価
成し,一人の被験者に評価を依頼した。
## 3.2 実験結果
表 1 に実験結果を示す. 表中の R-1, R-2, R-L はそれぞれ,ROUGE-1, ROUGE-2, ROUGE-Lを表す.両方の提案手法とも,忠実十自己学習と同程度の含意率を達成しつつ,より高い ROUGE スコアが得られた. また,タグ制御モデルはシンプルな手法であるにもかかわらず,ROUGE スコアと含意率で安定した性能を示し,ROUGE-L 値では全事例を学習事例に用いた場合と同程度の性能を達成した。これは,提案手法が忠実性の問題に対処しつつ,より多くの訓練事例を有効に活用できたためと考えられる.
表 1 の人手評価によると,忠実性に関してはタグ制御モデル,重要度に関しては全事例を学習に用いるモデル,理解しやすさではタグ制御モデルが最も良い評価を得た。このように,タグ制御モデルは自動評価と人手評価の両方において良好な評価を得た. 一方,部分修正モデルは人手評価による評価が芳しくなかった.部分修正モデルが生成する擬似見出しを確認してみると,壳長な繰り返し表現を含むことが多いことが判明した.これは,見出し中の複数のマスクトークンを予測するときに,重複した単語が予測されてしまうことがあり,結果的に重複を含む不自然な見出しがモデルの訓練データに用いられ,その性質を引き継いだ見出し生成モデルが学習されてしまったことが原因と考えられる。
2) https://github.com/yoheikikuta/bert-japanese
3) https://github.com/pytorch/fairseq
図 3 見出しの被覆度と忠実性に関する分析
## 4 分析
## 4.1 生成された擬似見出しの分析
マスク付き言語モデルによって生成された擬似見出しの忠実性と,書き換え前の見出しとの一致度,生成された見出しの冗長さを評価することで,擬似見出しの品質を分析する. 同様に, 既存手法 [1] である忠実十自己学習によって生成された擬似見出しも分析する. 擬似見出しの忠実性の評価には含意率を用いる. また,元の見出しと擬似見出しの一致度を測定するため,元の見出しと擬似見出しの間の ROUGE-1 F1 值を算出する. さらに,式 3 で擬似見出しの壳長さを求め,その平均値を報告する.
$
\text { 冗長さ }:=\frac{\text { 見出し内に複数回出現する単語の数 }}{\text { 見出しの長さ (単語数) }}
$
表 2 より,忠実十自己学習による擬似見出しが高い忠実性を示すことが分かる.部分修正による擬似見出し生成は,元の見出しの一部を書き換えるだけの手法であるが,忠害ではなかった見出しの 7 割を忠実なものへ書き換えることに成功した.
また,書き換え前の見出しと書き換え後の見出しの間で ROUGE-1 スコアを測定した結果から,部分修正により生成された疑似見出しは,元の見出しからの変更が少ないことが分かる.これは,忠実ではない訓練データのうち,利用できる箇所はできるだけ利用するという本研究の狙いが達成できていることを示している.㔯長さに関しては,部分編集による擬似見出しが最も冗長であった.
## 4.2 提案手法による忠実性の向上
見出し生成では被覆度(見出しを構成する単語のうち,記事に含まれるものの割合)[15] の高い見出
し,つまり記事からの抽出に近い見出しを生成するという手法でも,忠実な見出しを生成できると言われている。ところが,被覆度を単に高めるだけの手法は,言い換えや流暢さといった抽象型見出し生成の長所を打ち消してしまう.そのため,被覆度を高めることを狙わずに,忠実性を向上させることが望ましい。
Ladhak ら [16] は,忠実性を向上させる手法の有効性を評価する際に,被覆度の影響を取り除くべきと主張した。そこで,被覆度の影響を排除するため, モデル間で生成する見出しの被覆度を揃え,忠実性を比較する. 生成する見出しの被覆度を制御できる見出し生成モデル(被覆度制御モデル)を学習し,被覆度と忠実性の関係を図 3 に曲線で描画した (モデルの詳細は付録 A に記載した)。この分析において,見出しの忠害性は含意率で測定している.
図3 に各手法の見出しの被覆度と含意率をプロットすることで,手法の忠実性を有効に向上させたかを評価できる。 図 3 の曲線は,見出しの被覆度の制御のみで達成できる忠実性を示しており,この曲線よりも上に位置する手法は,被覆度を高める以外の面で,忠実性を向上させていると評価できる.この分析によると, 本研究で提案した両方の手法は, 曲線よりも上側に位置し, 全事例で学習したモデルと同程度の被覆度で,より高い忠実性を達成していることが分かる.従って,提案手法は見出し生成の忠実性を安易に向上させているのではなく,有効な手法であることが示された.
## 5 おわりに
本稿では,日本語の見出し生成において,忠実性と ROUGE スコアの両方を改善させる手法を提案した. 本研究では, 既存研究で破棄されていた忠実ではない見出しを活用することで,見出し生成モデルの性能向上を目指した。具体的には,見出しの部分的な修正による擬似見出し生成手法と,タグ制御による見出し生成の制御手法を提案した.
日本語の見出し生成タスクでの実験から,両方の提案手法は既存手法と同程度の含意率で,より参照見出しに近い見出しを生成できることが分かった. また,人手評価から,タグ制御による見出し生成モデルが忠実性,重要度,理解しやすさにおいてバランスの取れた手法であることが示された。さらに,提案手法は見出しの被覆度を単に高めるのではなく, 見出しの忠実性を向上させることを確認した.
## 6 謝辞
本研究成果は, 国立研究開発法人情報通信研究機
構(NICT)の委託研究「自動翻訳の精度向上のためのマルチモーダル情報の外部制御可能なモデリングの研究開発」により得られたものです.
## 参考文献
[1] Kazuki Matsumaru, Sho Takase, and Naoaki Okazaki. Improving truthfulness of headline generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1335-1346, Online, July 2020. Association for Computational Linguistics.
[2] Ziqiang Cao, Furu Wei, Wenjie Li, and Sujian Li. Faithful to the original: Fact aware neural abstractive summarization. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 32, 2018.
[3] Joshua Maynez, Shashi Narayan, Bernd Bohnet, and Ryan McDonald. On faithfulness and factuality in abstractive summarization. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1906-1919, Online, July 2020. Association for Computational Linguistics.
[4] Tanya Goyal and Greg Durrett. Annotating and modeling fine-grained factuality in summarization. arXiv preprint arXiv:2104.04302, 2021.
[5] Zheng Zhao, Shay B. Cohen, and Bonnie Webber. Reducing quantity hallucinations in abstractive summarization. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 2237-2249, Online, November 2020. Association for Computational Linguistics.
[6] Sihao Chen, Fan Zhang, Kazoo Sone, and Dan Roth. Improving faithfulness in abstractive summarization with contrast candidate generation and selection. arXiv preprint arXiv:2104.09061, 2021.
[7] Yuning Mao, Xiang Ren, Heng Ji, and Jiawei Han. Constrained abstractive summarization: Preserving factual consistency with constrained generation. arXiv preprint arXiv:2010.12723, 2020.
[8] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[9] Jessica Ficler and Yoav Goldberg. Controlling linguistic style aspects in neural language generation. In Proceedings of the Workshop on Stylistic Variation, pp. 94-104, Copenhagen, Denmark, September 2017. Association for Computational Linguistics.
[10] Katja Filippova. Controlled hallucinations: Learning to generate faithfully from noisy data. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 864-870, Online, November 2020. Association for
Computational Linguistics.
[11] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics.
[12] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017.
[13] Wojciech Kryscinski, Nitish Shirish Keskar, Bryan McCann, Caiming Xiong, and Richard Socher. Neural text summarization: A critical evaluation. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP), pp. 540-551, Hong Kong, China, November 2019. Association for Computational Linguistics.
[14] Alexander R Fabbri, Wojciech Kryściński, Bryan McCann, Caiming Xiong, Richard Socher, and Dragomir Radev. Summeval: Re-evaluating summarization evaluation. Transactions of the Association for Computational Linguistics, Vol. 9, pp. 391-409, 2021.
[15] Max Grusky, Mor Naaman, and Yoav Artzi. Newsroom: A dataset of 1.3 million summaries with diverse extractive strategies. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 708-719, New Orleans, Louisiana, June 2018. Association for Computational Linguistics.
[16] Faisal Ladhak, Esin Durmus, He He, Claire Cardie, and Kathleen McKeown. Faithful or extractive? on mitigating the faithfulness-abstractiveness trade-off in abstractive summarization. arXiv preprint arXiv:2108.13684, 2021.
## A\cjkstart被覆度制御モデル
ここでは, 4.2 節で使用した被覆度制御モデルについて説明する。
Ladhak ら [16] にならい, 生成する見出しの被覆度を制御できるモデル (被覆度制御モデル) を学習する.この被覆度制御モデルを使用し, 被覆度と忠実性の関係を曲線で描く,具体的には,2.3 節と同様に,制御タグによって異なる被覆度の見出しを生成し,そこから被覆度と忠実性の関係を推定する。
訓練事例を 4 つのグループに分割する (Q1~Q4 とする). 表 3 は,分割したグループ内での被覆度の平均を示す. Q1 が最も高く, Q2,Q3,Q4 となるにつれて平均の被覆度が低くなる。
それぞれのグループに属する事例の記事の冒頭に,対応する制御タグ (<Q1> <Q4>) を付与する. タグを付与したデータで見出し生成モデルを学習する. 生成時には,生成したい見出しの被覆度を,入力の記事に付与するタグで制御できると期待する.
各制御タグを用いて見出しを生成した結果を表 3 に示す. <Q4>タグで生成した見出しは被覆度が最も低く,<Q1>タグで生成した見出しは最も高い。これより,タグによる被覆度の制御ができているとわかる. また,<Q1>タグで被覆度の高い見出しを生成することで,高い忠実性を達成できることもわかる。 ROUGE 值に関しては,被覆度の制御だけでは,全事例を学習に用いるモデルやタグ制御モデルほどの高い值は達成できていない。
<Q1> <Q4>の生成結果から,忠実性と被覆度の関係を推定したものが 4.2 節の図 3 となる. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E1-1.pdf | # 拡張固有表現に分類された 31 言語の Wikipedia 知識ベース
関根聡 ${ }^{1}$ 中山功太 ${ }^{1}$ 野本昌子 ${ }^{1}$ 安藤まや $^{2}$
隅田飛鳥 ${ }^{1}$ 松田耕史 ${ }^{1}$
${ }^{1}$ 理化学研究所 革新知能統合研究センター ${ }^{2}$ フリー
\{satoshi. sekine, kouta. nakayama, masako. nomoto, asuka. sumida, koji. matsuda\}@riken.jp
maya@cis. twcu. ac. jp
## 概要
説明可能な AI 構築を目指し、Wikipediaを構造化することを目標とした「森羅プロジェクト」を推進している。2020、2021 年には 30 言語の Wikipedia を拡張固有表現に分類するタスクを実施し、2 年間で 14 チームから 24 の参加システムを得た。その出カデータを用いてアンサンブル学習を行い、大規模な固有表現の分類リソースを構築した。日本語と合わせて 31 言語で約 3340 万ぺージが分類されており、人手チェックも行った日本語の精度は $98.5 \%$ 、人手チェックのないその他の 30 言語の平均 $\mathrm{F}$ 値は 86.9 である。知識リソースは森羅ホームページで公開している。「協働による知識構築 (Resource by Collaborative Contribution - RbCC)」と呼ぶ枠組みで、構造化知識を構築している「森羅プロジェクト」では、2022 年も新たなタスクを実施する。
## 1 はじめに
Wikipedia は常時更新されている巨大な知識源であり、様々な言語処理技術への応用が期待されているが、構造化されていないため自然言語処理での利用が難しい。Wikipediaを分類し、構造化して知識グラフにすることで、幅広い活用が期待される。同様の目的で構造化された知識としては、DBpedia、
YAGO、Wikidata などがあるが、分類カテゴリーや構造フレームは主にクラウドによるボトムアップ方式で構築され、統一されたルールに基づいておらず、非常に多くのノイズが入っている。筆者らは、分類や構造フレームの設計はトップダウンに画一した形で行い、内容(コンテンツ)の構築をクラウドで行うことにより、言語処理にも利用しやすい知識が構築できると考えている。そこで、分類基準と構造フレームに幅広い固有表現カテゴリーを対象に定義さ
れている「拡張固有表現」を利用し、そこに Wikipedia に記載されている知識をはめ込むことにより、整理された構造化知識を構築することを目指している。 これが「森羅プロジェクト」の目標である。プロジエクトでは、共有タスクを実施し、その複数の参加システムの出力に対してアンサンブル学習などを通じ精度の高い知識を自動的に構築する枠組みとして提唱している「協働による知識構築 (Resource by Collaborative Contribution - RbCC)」を用いて知識構築を行っている。本論文では、そのプロジェクトのうち、2020、2021 年に実施した、30 言語の Wikipedia 分類タスクを通して構築したものに、日本語の分類データも含めた 31 言語の Wikipediaを拡張固有表現に分類した知識リソースを紹介する。
## 2 拡張固有表現
拡張固有表現は、幅広い固有表現を対象とした固有表現オントロジーであり、今回利用した Version 8.1 では最大 4 階層で、末端カテゴリー数は 219 ある
(Sekine et al. 2002, ENE-HP)。一般的な固有表現力テゴリー(Nadeau 2007)とされる組織名や地名の下位概念である企業名、政党名、市区町村名、湖沼名だけではなく、イベント名、製品名、自然物名などの新規のカテゴリーもあり、Wikipedia の項目を対象に拡充している。拡張固有表現のホームページに詳細の定義があるが、付録に記載した図 2 亿全体像を示す。また、Wikipedia を対象にしているため、2つの特異なカテゴリーを設定している。一つは主に一般名詞などを対象にした"CONCEPT”というカテゴリ一であり、もう一つは「転送ぺージ」「リストペー ジ」「メタ情報ぺージ」など Wikipedia 特有のぺー ジを対象とした”IGNORED”である。拡張固有表現の多くのカテゴリーには構造化のために属性も定義され、構造化の際に利用する。
## 3 日本語分類データ
日本語 Wikipedia 分類データは 2019 年 1 月の Wikipedia ダンプを対象に作成した。被リンク数が 5 以下の 15 万ページ、シンプルな方法で除外した固有表現ではない 5 万ページを除いた 92 万ページから構成されている。 3 万ページ程度の学習データを元に機械学習を用いた分類結果を人手ですべてチェックした(Suzuki et al. 2018)。サンプルデータを用いて分析した結果、精度は 98.5\%程度であると推定されている。残りの $1.5 \%$ は、人が見ても曖昧なぺージなどであった。表 1 に頻度の高い上位 10 個のカテゴリ一の情報を載せる。映画化された小説のぺージに両方の記載がある場合などには、1つのページが複数のカテゴリーに属することとしており、その割合は $3 \%$ 程度である。
表 1. 頻度の高いカテゴリ
## 4 共有タスク
30 言語の2019年 1 月の Wikipedia ダンプを対象に、拡張固有表現に分類するタスクを実施した(関根ら 2021)。30 言語は、言語ごとの “active user” の数が多いものから選んだ。本タスクの教師データは、 3 節で紹介した日本語の分類データと Wikipedia の言語間リンクから自動的に各言語に対して作成したものを利用した。したがって、完全なデータではなく、 いわゆる“silver data”である。例えば、226 万ページあるドイツ語の場合には、日本語からの言語間リンクがあるページは 27 万ページあり、それを教師デー タとして、残りの 199 万ページの分類を行うことが本タスクとなる。(ただし、参加者にはアンサンブル学習での利用を考慮し、教師データ部分の分類も学習システムを使って実施することを求めている)参加チームは、2021 年は 10 チーム、2022 年は 3 チ一ムであった。それぞれのシステムに関する論文は、森羅ホームページより閲覧できる(SHINRA-HP)。全ページのデータの提出を促すこと、将来のシステム評価との比較が公平にできることを目的として、評価の対象ページがどのページであるかは参加者には公表していない。評価結果を表 2 に示す。それぞれの言語での最高のシステムの $\mathrm{F}$ 值、アンサンブル学習システム $\mathrm{F}$ 値、最低 1 つのシステムに正解が含まれる割合を示している。
表 2. タスクの評価結果
& & \\
アンサンブル学習はシンプルな Voting により行なっている。ただし、 1 参加者が 3 システムまで提出することができ、多くの場合にはそれらの出力は非常に似ているため、参加者ごとの票が 1 になるように Voting を補正している。表 2 の赤字は、アンサンブル学習システムが、最高性能のシステムを上回っていることを示す。多くの言語で上回っていることがわかる。また、上限はほとんどの言語で $90 \%$ \%超え、平均は $97 \%$ と非常に高いことがわかる。上限に近いシステムを開発することは今後の課題である。
## 5 リソースのサンプルと統計情報
図 1 にサンプルデータを載せる。"pageid”と“title” で Wikipedia の該当ページを示し、ENEs でそのペー ジの拡張固有表現カテゴリーを ID と名前で示している。言語ごとに 1 ファイルで構成され、 31 言語分の 31 ファイルがある。
図 1.サンプルデータ(英語)
表 3 に、言語毎の分類結果の頻度を示す。名前(1) の下位カテゴリーは、その次の階層のカテゴリーでまとめている。例えば 1.4 の組織名には、国際組織名(1.4.1)、企業名(1.4.6.2)、政党名(1.4.7.2)などの組織名の下位にあるカテゴリーの頻度の総和が示されている。頻度の高いカテゴリーは言語共通であり、
名” $(13.52 \%)$, “製品名” $(13.65 \%)$, “施設名” $(6.14 \%)$, “組織名”(5.58\%)が頻度の高いカテゴリーである。
表 2 で示した通り、日本語を除いた 30 言語のリソ一スの $\mathrm{F}$ 值は 86.76 であり、完璧ではない。どの力テゴリーがどのカテゴリーに間違っているかを分析した。付録の表 4 に混同行列の形で、正解とアンサンブル学習システムの出力の頻度を示す (30 言語の合計を示している)。この階層レベルで見た時の全体の誤りの $85 \%$ は“CONCEPT”か“IGNORED”に関連している。特に、正解が“IGNORED”である時に、様々なカテゴリーが付いている場合と、正解が様々な力テゴリーである場合に“CONCEPT”のカテゴリーとなっている場合が目立つ。これらの誤り以外では、例えば、“組織名”と“地名”と“施設名”の 3 つのカテゴリ一の混同がある。施設名は、公園、学校、空港、道路など、組織名や地名に関係するものが対象となっており、このような混同はある程度理解できる。 システムは“CONCEPT”と“IGNORED”以外は理解できる範囲の結果を出力し、信頼できる知識になっていると考えている。“CONCEPT”と“IGNORED”の問題については今後の課題として取り組む考えである。
## 6 関連研究
知識オントロジーは自然言語処理にとって重要なリソースであると考えられてきた。例えば、1980代の人工知能ブームでは日本では $\operatorname{EDR}$ (日本電子化辞書 1995)、米国では Cyc(Lenat 1995)という大きな国家プロジェクトで知識構築が行われたが、構築コスト、メンテナンス、カバレージなどの問題 (Knowledge Acquisition Bottleneck) に直面し、当初の目的を達成したとは言い難い。
不特定多数の協働によって百科事典知識を構築する Wikipedia プロジェクトによって上記の問題に対するパラダイムは大きく変化した。ただし、この知識は人間が読むために作られたものであり、計算機利用が容易にできるものではない。そこで、計算機利用な知識構築を目指した取り組みが行われている。 DBpedia は Wikipedia 内の infobox な゙構造化されている部分を利用し、構造化知識を構築している (Lehmann et al. 2015)。YAGO は Wikipedia と WordNet を結びつけることにより利用しやすいオントロジー を作ろうというプロジェクトである(Mahdisoltani et al. 2015)。Wikidata は Freebase などの経験を生かし、既に存在する構造化知識とクラウドを活用し、構造化知識を構築していこうというプロジェクトである (Vrande cic and Krotzsch 2014)。ただ、上記のどの知識も、カテゴリーや構造的な知識部分にノイズが多くある Wikipedia に頼っていたり、カテゴリーや構造フレームの部分もクラウドによるボトムアップな方法で構築しているため、多くのノイズが存在し、計算機による利用が難しいのが現状である。
## 7 協働による知識構築
本リソースを構築した森羅プロジェクトの大きな特徵の一つは「協働による知識構築 (Resource by Collaborative Contribution - RbCC)」である (関根ら 2018)。共有タスクによる言語処理技術の向上が幅広く行われている。そのおかげで様々な技術が開発され精度向上が達成されてきた。しかし、多くの場合には、システムの最適化 (Optimization) の競争に過ぎない形でのプロジェクトとなり、タスクが終了すると開発したシステムも放置され、その結果が何らかの貢献につながらないことが多い。この状況は次に挙げる 3 つの改良によって改善すると考えている。
1. タスクを知識やリソースの構築などにつながる形で設計する
2. システムの出力結果は広く公開し、アンサンブル学習をはじめとした研究につなげる
3. タスクの出力結果をある種の学習データとして用いたシステムを開発できるように、再度タスクに参加できるような枠組みとする「森羅プロジェクト」のタスクは、多言語の分類タスクに限らず 2018 年から日本語の属性値抽出夕スク、リンク同定タスクを含め 6 回実施した。2022 年には、日本語で分類、属性値抽出、リンク同定の 3つのタスクを同時に行い、構造化知識を構築するタスクを実施する予定である。これまで作成した全ての教師データと、構造化した 2019 年の Wikipedia 知識を教師データとして利用し、2021 年の Wikipedia を対象にする予定であり、これまで大きな課題であった知識メンテナンスの問題解決も目指している。興味ある方の参加を期待している。
## 7 まとめ
協働による知識構築(RbCC)の枠組みで構築した 31 言語のWikipediaを拡張固有表現で分類した知識リソースについて報告した。日本語は 92 万ぺージを 98. $5 \%$ の精度で、他の 30 言語は約 3250 万ページを 87 の F 值で分類されている。データは森羅ホームぺ ージで公開している。
表 3. 各言語のカテゴリーごとの頻度
& Person & God & & \\
& Location & Facility & Product & & Event & & Disease & Color & Timex & Numex & IGNORED \\
## 謝辞
本研究は JSPS 科研費 JP20269633 の助成を受けたものです。
## 参考文献
SHINRA-HP. Shinra project homepage:
https://shinra-project.info.
SHINRA2020-ML-HP. Shinra 2020-ml homepage: http://shinra-project.info/shinra2020ml/.
ENE-HP. Extended named entity homepage: https://ene-project.info.
関根聡, 野本昌子, 中山功太, 隅田飛鳥, 松田耕史,安藤まや (2021). SHINRA2020-ML:30 言語の Wikipedia ページの分類, 言語処理学会第27回年次大会発表論文集
関根聡, 小林暁雄, 安藤まや (2019). Wikipedia構造化プロジェクト「森羅2018」,言語処理学会第25回年次大会発表論文集, pp.69-72, 2019.
日本電子化辞書研究所 (1995). EDR電子化辞書シンポジウム
Tushar Abhishek, Ayush Agarwal, Anubhav Sharma, Vasudeva Varma, and Manish Gupta (2020).
Rehoboam at the ntcir- 15 shinra2020-ml task. In The 15th NTCIR Conference Evaluation of Information Access Technologies (NTCIR-15).
Jens Lehmann, Robert Isele, Max Jakob, Anja Jentzsch, Dimitris Kontokostas, Pablo N. Mendes, Sebastian Hellmann, Mohamed Morsey, Patrick van Kleef, Soren Auer, and Christian Bizer (2015). Dbpedia - a large-scale, multilingual knowledge base extracted from wikipedia. Semantic Web, 6(2):167-195.
Douglas Lenat (1995). Cyc: A large-scale investment in knowledge infrastructure. Communications of the ACM, 38(11):33-38.
pages 94-100. AAAI Press.
Farzaneh Mahdisoltani, Joanna Biega, and Fabian M Suchanek (2015). Yago3: A knowledge base from multilingual wikipedias. CIDR.
David Nadeau, Satoshi Sekine (2007). A survey of Named Entity Recognition and Classification”. Lingvisticae Investigationes 30 (1), 3-26.
Satoshi Sekine, Kiyoshi Sudo, and Chikashi Nobata (2002). Extended named entity hierarchy. In the Third International Conference on Language Resources and Evaluation (LREC'02).
Masatoshi Suzuki, Koji Matsuda, Satoshi Sekine, Naoki Okazaki, and Kentaro Inui. (2018) A joint neural model for fine-grained named entity classification of Wikipedia articles. IEICE Transactions on Information and Systems, E101.D(1):73-81.
Denny Vrande cic and Markus Krotzsch (2014).
Wikidata: A free collaborative knowledgebase.
Commun. ACM, 57(10):78-85.
## A 付録
乗り物名乗り物名_その他車名 / 列車名 / 飛行機名食べ物名食へ物名_その他
芸術作品名、芸桡作品名_Zの他絵画名 / 番組名 / 映画名 /
公演名 / 音樂名
出版物名出此物名 Zの新聞名 / 雑読名
規則名规則名_その他
条約名 / 法令名
称号名称号名_Zの他
地位膱業名
言語名言語名_その他
国語名
単位急戦位名_その他
バーチャルアドレス名
バーチャルアドレス名_その他チャンネル名 / 電話番号電子メイル/ URL
\\
時間表現時間表現_その他
時間時間_その他時刻表現 / 日付表現 / 曜日表現時代表現
## 期間 期間_その他時刻期間 / 日数期間 / 週数期間月数時間 / 年数期間
IGNORED
図 2. 拡張固有表現階層
表 4. 正解とアンサンブルシステム出力の混同行列
(縌軸が正解カテゴリー、横軸がアンサンブルシステムの出力カテゴリー)
& & Location & Facility & Product & & Event & & Disease & Timex & Numex & \\
| NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E1-2.pdf | # 述語の概念フレームと PropBank 形式の 意味役割を付与した NPCMJ-PT の構築
竹内孔一 ${ }^{1}$ バトラーアラステア ${ }^{2}$ 長崎郁 3 パルデシプラシャント 4
} 1 岡山大学 ${ }^{2}$ 弘前大学 ${ }^{3}$ 名古屋大学 4 国立国語研究所 takeuc-k@okayama-u.ac.jp
## 概要
日本語のコーパスに対して構文木を付与して Web 上で公開している NPCMJ (NINJAL Parsed Corpus of Modern Japanese) に対して,述語と項の意味的な関係を整理して公開している述語項構造シソーラス (PT) の概念フレームと意味役割を付与した NPCMJ-PT を構築している.現段階で約 7.4 万述語に対して概念フレームを付与し, 約 14.9 万件の項に対して意味役割関係を付与している. 本稿では現段階で付与したデータについての特徵と今後の展望について記述する.
## 1 はじめに
文の述語を中心とした係り関係の構造に対して, 意味的な関係を付与する意味役割付与データの構築が英語を中心に行われている (例えば PropBank[1] や FrameNet[2]) .さらに , 意味役割と概念フレームを元にした文の抽象的な意味構造をグラフで表す AMR(Abstract Meaning Representation)が提案されており1), AMR parser の開発 $[3]^{2}$ や AMR によるバイオ文献における情報抽出が研究されている [4].
近年では, 意味役割ではなく, 係り関係の夕イプを付与する UD (Universal Dependency) が提案されており, 主語と目的語ならば nsubjやobj とした関係で取り出すことが出来る.一方で,意味役割と異なるため下記のようなopen に対して開けた動作主なのか開けられた対象なのかの違いは処理されない3).
(1) [nsubj $\mathrm{He}$ ] open the [obj door] .
(2) The [nsubj door] opened .
一方 , PropBank 形式の意味役割と概念フレー ムでは下記のように動作主と対象を分ける。
(4) [The ${ }_{A r g} 1$ door] [open. 01 opened] .
よって, 単に意味的な関係だけでなく, 辞書 (概念フレーム (この場合 open.01)) と同時に開発するのが意味役割付与の特徵である。
本研究では PropBank 形式の意味役割と名前の意味役割を日本語の述語 (動詞, サ変名詞 , 形容詞 , 形容動詞の約 1.2 万語) に対して 2.4 万例文を付与した述語項構造シソーラス PT (Predicate-argument Thesaurus) を辞書として NPCMJ に意味役割を付与して公開している 4$).$概念フレームは現段階で 1097 件定義しており, NPCMJ の付与とともに拡張している。
一方, NPCMJ は言語学研究者および日本語学習者を意識した Web 上で検索可能な大規模ツリーバンクである (約 6.7 万ッリーを公開),本研究では意味役割と概念フレームを付与することで,事例検索に役立てるとともに自然言語処理における日本語意味役割付与の学習データとしての利用を目標としている。
2 現在付与している NPCMJ-PT の全体像
NPCMJ-PT は NPCMJ の構文木に従って述語に対して述語項構造シソーラスの概念フレームを付与して,項に対して意味役割を付与したデータである. 図 1 に事例を示す. 述語と光れに対応する項についてはあらかじめ NPCMJ の構文木から計算によって導出されている [5].構文木データを基にしているためゼロ代名詞5)
図 1 NPCMJ-PT の付与例 (aozora_Akutagawa-1921 コーパス)
を含めて項が設定されているところが特徴的である.こうした点は Penn Treebank に付与を行っている PropBank と同様の形式である .
現段階6)の付与データの量を表 1 に示す. 現
表 1 NPCMJ-PT 全体の現段階の付与件数
段階で NPCMJ-PT は内部的に 9.5 万件の構文木 (=文)を有している7) . 図 1 で示したとおり, 1 文に複数の述語が登録されているため, 1 文で複数の概念フレームを付与する場合が多い. また,NPCMJ-PT には PT の例文も構文木とともに記録されている.PT の事例は 2.2 万件程度であるため,PT の付与例を抜いた場合,概念フレーム数は 51,480 件, 項の数は 103,033 件である . 現在も付与を継続している.
以下の節では具体的にどのような述語に対して,どのような概念フレームや意味役割が付与されているのか具体例を挙げて記述する。
## 3 述語と概念フレームの付与
表 2 に付与した述語の種類数, 概念フレームの種類数を示す. NPCMJ-PT では述語は活用した語のみの記録であるため,基本形は形態素解析 MeCabを利用して推定した基本形を利用する. 表 2 に示すように述語の概念フレームには PT だけでなく一部日本語 WordNet の概念フレームを付与している.これは図 1 にもあるように述語として名詞も含まれており,一部の名
6) 2022 年 1 月 12 日現在.
7) 2022 年 1 月 12 日時点では 6.7 万木 (文) が公開されている .表 2 付与した述語の上位 10 件の頻度 (基本形に
整形)
詞に対して実験的に日本語の WordNet を利用して概念を付与している8)
概念フレームの付与の仕方であるが図 1 にもあるように,PT の概念フレームに述語の登録がない場合,近い概念フレームを指定して,光の概念フレームの中で最も似ている述語を指定して付与している. 例えば図 1 の 2 例目の「御礼」は PTには登録がないが,Frame ID 80 番 (提供) の概念フレームにおける「謝礼する」に近いことを示している.このようにアノテーション作業で概念フレームを利用しつつ辞書の拡張を行って概念を付与している。
PT の概念フレームは現段階で 1097 種類定義している.PT のデータが入っているにもかかわらず全概念フレームの種類が入っていない. これは PT の概念フレームが更新されていることや, 付与の形式ミスなどで今回のデータには入れなかった事例が存在することが考えられる。
また表 2 には現れないが,図 1 に示すように複合動詞についても付与している.NPCMJ-PT では最後の述語に概念フレームを付与することから,最初の要素には ArgM-PRX を付与し「多くなる」の意味に近い概念フレーム Frame ID 308(程度の変化/多い)を付与する。
次に,表 3 に付与した述語のうち頻度の高いものを順に上位から並べたものを示す . 述語は上記のように形態素解析 MeCab を利用して推定した基本形を利用してまとめている。
8) サ変名詞は PTに登録されているため,ほとんど PT の概念フレームが付与されている.
表 3 で最も多い述語の「だ」と「の」の例を下記 (5)(6) に示す .どちらもコピュラであることがわかる.
(5) [Arg1 私は] [ $\mathrm{Arg}_{2}$ 遠藤という書生] [895:ですだ] (aozora_Akutagawa-1921)
(aozora_Akutagawa-1921)
NPCMJ では「の」が「である」に言い換えられる場合は述語としており,連体修飾の場合などによく出現する. (6) ではこれを「婆さんは/Arg1 インド人/Arg2です/895」という平叙文を基に付与している.また「*」は MeCabに登録がなかった述語であり,例えば下記の (7)のような動詞があげられる。
(7) $\left[\mathrm{Arg0}\right.$ 亜米利加人は] [ $\mathrm{Arg}_{2}$ 煙草を] [47 啣え] たなり , (aozora_Akutagawa-1921)
「と」という述語は下記の (8) に示すような場合であり,「である」という述語があるとして概念フレームを付与している。
と] し, (book_excerpt-30)
NPCMJ の構文木に基づくと,コピュラが「です」「だ」「の」「と」といった異なる形をとって多く出現していることがわかる.
ここで,付録の表 7 に概念フレームの多いものから順に 10 件の例を取り上げる. 上述のようにコピュラが最も多く全体の 1 割ほど出現している。続いて, 移動 (17), 生成 (124), 伝達 (95) , 変更 (407) といった状態変化動詞が続いている9).また9番目には,「思う」「認識する」 など人の判断にかかわる認識 (101) の動詞が出現している.
## 4 意味役割の付与
NPCMJ-PT における意味役割について記述する. まず付与している意味役割の枠組を記述した後,付与した結果について記述する。
## 4.1 意味役割の基本的な枠組
基本的に PT の枠組に従った形式である.PT では意味役割として PropBank 形式の意味役割を採用し, 必須項が $\operatorname{Arg} 0,1,2$ といった数字を利
用する.ただし,PropBankでは各述語の語義について光れ光れ別々に $\operatorname{Arg} 0,1,2$ の意味的な割り当てを決める (例えば Open. 01 など) が,PTでは FrameNet[2] と同樣に概念フレーム [6] を想定して,概念フレームにおける必須の意味的な関係を $\operatorname{Arg} 0,1,2$ で表現する.つまり FrameNet との対応で記述すると Element を数字で表現していることに対応する . 概念フレームにおける必須項はイメージとして光の概念で出てくる必須の登場要素を決めて分類したものである.これにより態の異なりなどで表現が変わっても述語に対する項の意味的な関係を指定することができる。
一方でPTでは名前の意味役割も同時に付与している. 名前の意味役割は文献 [7] の事例にもあるように「〜で」で場所なのか手段なのかといった表現をべースにした解釈で付与する。 これにより,例えば,下記の壁塗り構文の場合 , PropBank 形式の意味役割ではどちらも違いがないが,名前の意味役割によって,「ペンキで」が手段として捉えている表現である場合で , 違いを検索することが可能になる.
る]
Frame ID 25(覆う) の必須項は「Arg0:動作主」, $\ulcorner\operatorname{Arg} 1$ :覆うもの」,「Arg2:覆われるもの」の3つである.よって PropBank 形式の意味役割と名前の意味役割は文の表現に応じて樣々な対応関係をとる。
## 4.2 意味役割の付与内容
表 4 に NPCMJ-PT で付与した意味役割 (PropBank 形式) の上位 10 件の頻度分布を示す$^{10)}$. 表 4 から最も多いのは対象を示す $\operatorname{Arg} 1$ であり次いで動作主を表す $\operatorname{Arg} 0$, さらに必須項の $\operatorname{Arg} 2$ が続く. 付加詞 (つまり)各概念特有の項ではなく,どんな述語にも付与する係り元) では ArgM-ADV(副詞)や ArgM-TMP(時間), ArgM-LOC(場所) が多いことがわかる.また, NPCMJ では ArgM-PRX(連語:述語の一部の要素) が多く出現している.下記に ArgM-PRX の事例を示す.
10) PropBank 形式の意味役割の一覧は付録の表 6 に示す.
(11) [ArgM-ADV もう] [ArgM-PRX どうでも] [927:無関心だいい] (aozora_Dazai-2-1940)
(12) [ArgM-PRX 気ガ] [210:気絶する遠クナッ] テシマウ (aozora_Akutagawa-1921)
事例 (12) に示すように複合動詞だけではなく,共起語や慣用表現の要素も ArgM-PRX タグを付与する。
表 5 に名前の意味役割の上位 10 件の頻度分布を示す . PropBank 形式の意味役割と同樣に,最も頻度が多い要素が「対象」で次に「動作主」 となっている. 以降の意味的な関係として, 経験者や補語相当(は)といった必須項に関するものが出現している. 表 4 と比較すると, $\operatorname{Arg} 1$
表 5 上位 10 件の意味役割 (名前の意味役割)
よりも「対象」の頻度が少ない.つまり $\mathrm{Arg} 1$ は名前の意味役割では他のラベルが付与されていることがわかる. 名前の意味役割は全部で 73 種類設定している.よって PropBank 形式では Arg0であっても,「動作主」や「原因」,「経験者」など細分化されている事例が付与され
ている.また $\operatorname{Arg} 1$ も単なる対象だけではなく,「経験者」や「補語相当」,「着点」などに付与されている11).
下記に「対象」および「補語相当(は)」の例を示す.
天上に燃える炎の声] [895:ですだ] (aozora_Akutagawa-1921)
男] (aozora_Doyle-1905)
基本的には「A B B だ」のコピュラの場合がよく見受けられる. 例 (14)のように連体修飾の形で「の」を述語と考えた場合にも付与されていることが多い.
## 5 今後の予定
現在も概念フレームと意味役割付与作業を続けているため,本稿で記述した統計量は変わる予定である.また意味役割を付与した結果をどのようなデータ構造にするか現在議論中である. 先の文献 [9] で記述したように FrameNet 準拠のXML 形式の出力は可能であるが一方で,構文木の情報は同時に盛り込まれない.また,本原稿を書くにあたってプログラムを作成して NPCMJ-PT データをxlsx 形式にまとめたものを利用した . 表計算ソフトの形式を利用すると集約した情報を得る場合に有利である.どのような形式で NPCMJ-PT を出力するか引き続き検討する.
## 謝辞
本研究は国立国語研究所機関拠点型基幹研究プロジェクト「統語・意味解析コーパスの開発と言語研究」および JSPS 科研費 (課題番号 15H03210) と (課題番号 19K00552) の助成を受けたものである .
0$ の場合も $\operatorname{Arg} 1$ の場合の付与もある. 基本的には意図せずになにか行為を行う主体である . PropBank1.7 の辞書では here. 01 や see. 01 の Arg0 に Experiencer という注釈が入っている. 動作主体でありながら,「経験者」の意味で付与しているように見受けられる.「経験者」は $\operatorname{Arg} 1$ にも対応する. 例えば 「[Arg1:経倹者赤ちゃんが] [Arg0:原因物音に] [398 驚く]」 のように心理的な影響を受ける主体に「経験者」を付与している [8] .
}
## 参考文献
[1] Olga Babko-Malaya. PropBank Annotation Guidelines, 2005.
[2] Collin F. Baker, Charles J. Fillmore, and John B. Lowe. The Berkeley FrameNet project. In Proceedings of the 36th Annual Meeting of the Association for Computational Linguistics, pp. 86-90, 1998.
[3] Sheng Zhang, Xutai Ma, Kevin Duh, and Benjamin Van Durme. Amr parsing as sequence-to-graph transduction. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, 2019.
[4] Zixuan Zhang, Nikolaus Parulian, Heng Ji, Ahmed S. Elsayed, Skatje Myers, and Martha Palmer. Finegrained information extraction from biomedical literature based on knowledge-enriched abstract meaning representation. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics, pp. 6261-6270, 2019.
[5] Alastair Butler. Treebank Semantics. Technical report, Hirosaki University, 2021. .
[6] Adele E. Goldberg. Constructions. The University of Chicago Press, 1995.
[7] 日本語記述文法研究会. 現代日本語文法 2 第 3 部格と構文第 4 部ヴォイス. くろしお出版, 2009.
[8] 竹内孔一, バトラーアラステア, 長崎郁, パルデシプラシャント. PropBank 形式を考慮した NPCMJ に対する意味役割付与〜態の違いと経験者の付与〜. 言語処理学会第 26 回年次大会発表論文集, pp. 633-636,, 2020.
[9] 竹内孔一, アラステアバトラー, 長崎郁, プラシャントパルデシ. Npcmjへの propbank 形式の意味役割と概念フレームの付与の進捗報告. 言語処理学会第 27 回年次大会発表論文集,E8-4, 2021.
## A 意味役割ラベルの一覧
NPCMJ-PT を構築するにあたり利用している意味役割を示す. 表 6 に示すように PropBank 形式の意味役割は 28 種類である .
## B 上位 10 件の概念フレーム
付与した概念フレームについて上位 10 件の頻度分布を表 7 に示す
概念フレームは最大 5 階層のシソーラス構造になっている. 記号の'_, が階層の境界を表している . 概念フレーム内の括弧内の数字は Frame ID を表している. 詳細な事例は Web 上で確認できる (http://pth.cl.cs.okayama-u.ac.jp/) .表 7 上位 10 件の概念フレーム
& 7748 \\
表 7 内の頻度を見ると特徵的であることがわかる.本文でも述べたようにコピュラが他の述語の概念と比較して突出して大きいことがわかる.一方で,「着点への移動」から「伝達」まで大きく頻度に差が見られない.これは資料をみると人やものの移動 (「行く」「来る」「帰る」)という表現が青空文庫だけでなくニュー スにも見られており,記述する内容として取り上げられることがわかる.また「生成」もどうようになにか発生したり,作るといった表現がどのジャンルにも表現している.こうした表現が単なる存在 (529) よりも文書で表現されることが多いことがわかる。 | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E1-3.pdf | # ブロック形式を利用したパターンマッチシステムの構築
竹内孔 孔 ${ }^{1}$ 小笠原 崇 $^{2}$ 岡田魁人 2 今田将也 ${ }^{3}$
1 岡山大学学術研究院 ${ }^{2}$ 岡山大学大学院 3 岡山大学工学部
takeuc-k@okayama-u.ac.jp
## 概要
外国語など言語を学習する際に表現を検索する場合や, 大規模な意見テキストから不満点や問題点などを分析するテキストマイニングでは , 必要に応じて樣々なパターンの表現を抽出する必要がある. 光こで本研究では, 情報抽出や言語の学習で必要なパターンの構築に注目して,ユーザか揤時に必要なパターンを作成・編集し,試して共有できる環境を構築することを目標とする.本稿では既存のパターンマッチの事例をとりあげ,光れらを包含できるマッチングシステムとしてブロック形式の可能性について議論する.さらに,Prolog 形式のパターンマッチについてブロック形式によるパターンを作成・編集する機構をもつシステムを試作したので報告する.
## 1 はじめに
テキストもしくは構造化したテキストから必要な情報をパターンを利用して取り出したいことがある. 例えば,英語の構文で as〜as one can の表現を取り出して事例を確認したい場合 [1]など, 文字列のマッチだけでは不要な事例を取り出しすぎてしまう. 近年, 自然言語処理では深層学習が樣々な手法に取り入れられて大きな成果を挙げているが (例えば [2]), 基本的には取り出したいデータに対して正解データを用意して学習する必要があるため, 一時的に必要になった言語表現を獲得する分類器を機械学習で作成するのは難しいと考えられる.通常,言語表現の獲得ではコンコーダンサが開発されており,こうしたものを正規表現を中心としたパターンマッチで処理するシステムが提案されている.また NLP では構文解析ツールや構文木ベースのデータ1)が構築されているため構文木に対する検索ツールも展開されている [7] . さらに質問応答という応用処理の観点からテキストに対して,係り受け解析などの情報を付与したデータに対してパターンを適用して必要な情報を獲得する情報抽出が Prolog 形式を利用して構築されている [8].
一方で, これらの先行研究ではパターンによる事例を獲得したいユーザが乥れジれシステムを作成することが前提となっているがこうした個別のシステム (プログラム) で作成されているパターンは例え同じ内容のものを検索するパターンでも共有することができず,似たような表現検索パターンを作成していたとしても何度も個人が繰り返して作成して再利用されていないと考えられる.しかしながらテキストから事例が欲しいユーザにとって,プログラムではなく,編集可能(つまり制御可能)なパターンと自身の持つテキストを投入して結果が得られれば良く,多大な時間を必要とするシステム構築は必須ではないと考えられる.この問題点を整理すると下記のように集約できる
1. あらかじめ取り出したい言語表現は想定できない
2. テキストの表層文字列だけではなく文法やタグなど NLPツールを利用した検索ツールが必要
3. 基本のパターンを処理する言語処理システムを組むのは容易ではない
4. システムが違うためパターンは共有できない
5. 既存のパターンを変更したり組合わせることが現状では容易ではない
この問題に対して本研究ではユーザがパター
1) 例えば Penn Treebank[3] や PropBank[4], Hinoki[5], NPCMJ[6] など.
ンを作成してテキストに対して検索結果を得られるだけでなく,他人が作成したパターンを編集して再利用可能な環境の構築を目指す. 本論文では様々なパターンを受け入れられる枠組としてブロック形式のパターンが可能性があることを議論し,具体的な事例として Prolog 形式のパターンマッチ編集再利用環境を試作したので報告する。
## 2 組合わせを実現する抽象的な パターンマッチ言語の検討
現在,樣々な検索意図に基づいて樣々なツ一ル上で作成されているパターンを包含するようなパターンマッチ言語はどのような形式が可能であるかを議論する.
全ての言語検索の状況を考慮するのは難しいが,少なくとも前節でとりあげた (1) 言語分析などで利用するコンコーダンサ , (2) 構文木構造テキストに対する情報抽出, (3) 質問応答における情報抽出の 3 つの場合について具体的に例をあげて考察する.次にこの議論を踏まえてブロック形式のパターンマッチシステムの可能性について記述する。
## 2.1 既存のパターンマッチング
例 1) 言語分析などで利用するコンコーダンサ例えば1 節で示したように as X as Y can の事例をテキストから抽出したいとする.事例として下記のようなものが考えられる [1] .
as fast as he could, as much as he could, as well as he could, as loudly as she could, as many stones as he could, as many reapers as I can hire 言語分析では事例が漏れない (recall を高くする)ことが重要であるため正規表現をフラットに適用したパターンマッチシステムが利用される. as と as の間の単語) を具体的に指定するよりも単語数に応じて skip してマッチするような構造が必要である。
この必要性に対して例えば Sketchengine における Corpus Query Language (CQL) ${ }^{3)}$ では正規表現だけでなく単語の skip 数などが指定できる検索言語を用意している.また日本語では茶器 [9] が形態素解析や係り受け解析のタグを利用
してフラットなパターンマッチ4)を適用することで何語か離れた語に対して指定したパターンを適用した検索が可能である.
よってまとめるとコンコーダンサでは正規表現ベースで十分であるが単語の skip などを受け付けるパターンマッチ言語が必要であると考えられる。
例 2) 構文木構造テキストに対する情報抽出
1 節で述べたように Penn Treebank をはじめ構文木構造のテキストコーパスがあることから構文木に対して必要な部分を取り出すパターン検索言語が提案されている。例えば tregex[7]では括弧形式の構文木 ${ }^{5}$ にに対して必要な情報を取り出すことが出来る. ユーザは構文木の非終端記号や入れ子構造の各要素間に対する制約を指定することで必要とする情報を取り出す . 例えば,単語だけを取り出す検索式は_!_—であり,これに on の前置詞を持つ VP の支配下での主辞の動詞を取り出すパターンは (_!__)»\# $(\mathrm{VP}<(\mathrm{PP} \ll \# \mathrm{on}))$ のように追加した形式となる.近年では tregex を考慮してさらに発展した構文木処理ツール StruAP[10] も提案されている.
入れ子構造に対するデータの処理は言語だけで無く情報処理で利用されることから検索言語が提案されている.XML 形式であれば XPath ${ }^{6)}$ があり,利用する場合は PythonBeautiful Soup ライブラリでXPath を利用できる.
XPath の事例は省略するがパターン編集の追加性を考えると入れ子構造を扱うことから単純な構造の追加で無く取り出す目標に対してパターンを大きく書き換える必要があることがわかる (上記の—!_—に対して,制約を加える際,全体を()で括る必要がある点).
例 3) 質問応答における情報抽出の例質問応答システム Watson における質問文解析では文献 [8] が示すようにテキストは内部的に構文情報など与えられた後,Prolog による関係データベース化を行い様々な必要となる要素を複数のタグを利用して取り出して
4) ここでフラットと述べているの検索途中の内容を変数などに保存してさらに検索する再帰的な検索をイメージしている. 形式言語におけるスタック付きの文法をイメージしている。
5) 例えば (PP-SBJ (NP (PRO ぞれ))(P-OPTR は)) のような形式 .
6) https://ja.wikipedia.org/wiki/XML_Path_Language 2022/1/12 アクセス
いる. 例えば He published Songs of a Sourdough. という文は lemma や POS など述語化 (例えば lemma(1, “he")) したあと, authorOf(A,C):createV(Vb),subj(Vb,A),obj(Vb,C). などの Prolog 述語で createV(生成する動詞) の主語である著者 (Author),と目的語の作品名 (Composition)を取り出す7) . Prolog 形式の特徵は検索結果が大文字の A C といった変数に入ることであるこの A や C の変数に対して,さらに制約を与えたい場合は,論理積で追加することが可能である.一方,例 1 の場合と異なり,テキストの単語列に対して 2 単語後など位置を指定してパターンを適用するのは簡単ではないと考えられる.
よって情報抽出における例では Prolog 形式のパターン言語の場合は追加編集は容易である一方で,コンコーダンサなどで利用されている正規表現や単語の skip する構造は明示的に書くのは難しいと考えられる.
## 2.2 ブロックベースのパターン構想
前節にあげた複数の検索タスクを可能な限り包含するパターンマッチシステムを考察する.まず例 3 に注目すると検索した内容を変数として取り出して再利用可能な点が特徵的である. Prolog の場合ならば述語を 1 つのブロックとして検索されたものを変数として1つのパターンを作成するとする.前節の例では authorOf(A,C) であるが,さらに著者について Heなどの代名詞ではなく固有名詞が必要な場合はさらに authorOf(A,C) の A に対してさらなる制約を論理積として実現することができる.
しかし Prolog に基づいた規則を守ると例 1 にあるような $\mathrm{n}$ 単語後の語など指定した条件で単語を読み飛ばす機構は容易に書くことはできない.しかし Prolog に限定しなげればプログラムの正規表現は利用可能である.例えば Prolog で検索した結果に対して,常に光の変数の結果を含む文も取り出すとすると,文に対して $\mathrm{n}$ 単語後という制約を加えて対応する語を取り出すことは可能である.よって Prolog だけでは無く,ある検索クエリを持つブロックを仮定して, 入力と取り出したい目的出力とマッチ
7) テキストは解析されて subjや obj タグならびに createV の動詞集合などは与えられているとする.
した文の出力を仮定すれば例 1 における検索要求はブロックの組合わせで満たすのではないだろうか.
## 検索ブロック $(\mathrm{Q, \mathrm{I}, \mathrm{Oa}, \mathrm{Os})$}
$=\mathrm{Q}:$ 検索クエリ, $\mathrm{I}:$ 検索対象の入力, Oa:出力引数,Os:マッチ要素を含む文
このブロックの論理積や論理和などを記述することで Prolog でも正規表現も両方検索する. ここで検索クエリは当然,Prolog と正規表現では処理方法が違うため検索ブロックに種類を仮定する必要がある.また正規表現でも $\mathrm{n}$ 単語読み飛ばすものと,文字列に対する正規パターンとは扱いが異なる.光うしたものも別ブロックとして用意しておく.
また,Prolog 形式では authorOf(A,C) の検索でヒットした A $\mathrm{C}$ はマッチした文の要素番号の集合が入るが,番号では正規表現パター ンマッチは適用できない.つねに文の要素の span 情報の集合を検索結果としておくことで,正規表現適用の際には内部的に文字列に戻すことでテキスト (タグ付きテキストも含めて)の検索が可能であると考えられる.この spanによるデータの構造化は既に IBM の Watson で利用された UIMA と同じ方向である [11] .
こうした抽象化した検索ブロックを仮定すると例 2 も同樣である . tregex などで検索にマッチした結果は必ずテキストの集合として獲得できる. 光こで炎の出力集合に対してより制約をかける場合には他の検索ブロックとの論理積で実現できるたただし,構文木ベースのパターンマッチ間の組み替えなどは難しい.先の例にも挙げたように,tregex の編集は全体の構造を変える必要があることが多く,単に文字列結合などでは実現できないことが多い (2.1 節参照) よって構文木光のもののパターンを書き換えることは仮定せず,樣々なパターンをあらかじめ用意しておき,独立に論理積で利用して制約する.
このように検索ブロックを仮定して抽象化すると, 品詞や単語といった従来の文法ベースに特化しない検索の組合せが可能となる.例えば入力文の参照情報を取り出す分類器を深層学習で作成できたとする.この分類器を検索ブロッ
図 1 ブロックベースのパターンマッチシステム
クとして設定しておくと利用することが可能になる. 具体的には上述の Prolog の例における authorOf(A,C)のXに対して著者 A が代名詞で合った場合に固有表現を探すブロックに適用して A に対する固有表現 $\mathrm{P}$ を取り出すことが可能になる.
よって抽象的な組合わせ可能な検索ブロックを仮定することで Prolog や正規表現 ,および分類器まで含めた検索が構築できるのではないと考えられる.ユーザは抽象ブロックの操作のみに集中して意図する情報がとれるかどうかを編集しながら検討することに集中できる.
## 3 Prolog ベースのパターンマッ チシステム
上記の背景議論を基にパターンマッチシステムを試作した . 現段階では Prolog の述語の単位を 1 つの検索ブロックとして仮定している.下記の構築を通して実際にパターンマッチを実行する上での問題点について考察する.
テキストの解析として係り受け解析は CaboChaを利用して意味役割と概念フレーム付与は ASA を利用している8). テキストは文献 [12] のように prolog の述語として関係付けされる.ブロックの組合わせを実現するために blockly を利用した Javascript によるブラウザベースの編集実行環境を構築した [13] . 図 1 にシステムの操作画面を示す . Blokly におけるブロックの引数部分が Prolog の引数として機能している.ユーザは基本ブロックを組合わせる
8) https://github.com/Takeuchi-Lab-LM/python_asa
ことでパターンを作ることができる. 基本ブロックとして chunkや role が設定されている.画面下部にはブロックから Prolog の検索クエリに変換した結果が表示されている。
テキストを取り込んだ後にこのパターンを適用することで検索結果が表示される. 現在は 1000 文を取り込むために 1 分程度時間がかかっている . Prolog ベースのパターンマッチは Python で実装しているが 1000 文程度では検索そのものには時間はほとんどかかっていない. しかしながら大規模なテキストになった場合, テキストの upload 時の解析と検索に大きく時間がかかることが想定される。
## 4 おわりに
本研究ではパターンマッチシステムに焦点をあてて,既存のコンコーダンサや情報抽出システムで使われているパターンを取り扱う抽象的なパターンの構築と利用について議論した。考察の結果ブロック形式でまとめることで多くのパターンを包含できることが予測される. この考えを具現化する試作モデルとして Prolog ベースの検索システムを構築した .
試作システムは簡易であるがパターンを保存して読み込み,編集して保存することが可能である.こうした機能を拡充することにより,作成したパターンを共有してユーザが多くのパターンを手軽に利用できる環境を構築することが目標である .
## 謝辞
本研究は JSPS 科研費 (課題番号 19K00552) と (課題番号 $15 \mathrm{H} 03210$ ) および国立国語研究所機関拠点型基幹研究プロジェクト「統語・意味解析コーパスの開発と言語研究」の助成を受けたものである .
## 参考文献
[1] 大名力. 言語研究のための正規表現によるコー パス検索. ひつじ書房, 2012
[2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding, 2018.
[3] Mitchell P. Marcus, Beatrice Santorini, and Mary Ann Marcinkiewicz. Building a large annotated corpus of English: The Penn Treebank. Computational Linguistics, Vol. 19, No. 2, pp. 313-330, 1993.
[4] Paul Kingsbury, Martha Palmer, and Mitch Marcus. Adding semantic annotation to the penn treebank. In Proceedings of the Human Language Technology Conference, 2002
[5] Sanae Fujita, Takaaki Tanaka, Fransis Bond, and Hiromi Nakaiwa. An implemented description of japanese: The lexeed dictionary and the hinoki treebank. In Proceedings of the COLING/ACL06 Interactive Presentation Sessions, pp. 65-68, 2006.
[6] Stephen Wright Horn, Iku Nagasaki, Alastair Butler, and Kei Yoshimoto. Annotation Manual for the NPCMJ. National Institute of Japanese Language and Linguistics, 2019.
[7] Roger Levy and Galen Andrew. Tregex and tsurgeon: tools for querying and manipulating tree data structures. In Proceedings of the th International Conference on Language Resources and Evaluation (LREC 2006), pp. 2231-2234, 2006.
[8] A. Lally, J. M. Prager, M. C. McCord, B. K. Boguraev, S. Patwardhan, J. Fan, P. Fodor, and J. ChuCarroll. Question analysis: How Watson reads a clue. IBM Journal Research and Development, Vol. 56, No. 3/4, pp. 2:1-2:14, 2012.
[9] 松本裕治, 浅原正幸, 岩立将和, 森田敏生. 形態素・係り受け解析済みコーパス管理・検索ツー ル「茶器」. 情報処理学会研究報告. 自然言語処理研究会報告, Vol. 2010, No. 18, pp. 1-6, Nov 2010.
[10] Kohsuke Yanai, Misa Sato, Toshihiko Yanase, Kenzo Kurotsuchi, Yuta Koreeda, and Yoshiki Niwa. Struap: A tool for bundling linguistic trees through structure-based abstract pattern. In Proceedings of the 2017 EMNLP System Demonstrations, pp. 3136, 2017.
[11] David Ferrucci and Adam Lally. Uima:an architectural approach to unstructured information process- ing in the corporate research environment. Natural Language Engineering 10, Vol. 10, No. 3/4, pp. $327-$ 348, 2004
[12] 小笠原崇, 竹内孔一. 意味役割付与テキストに対する prolog ベースの探索木による言語パタンマッチシステム構築. 言語処理学会第 27 回年次大会発表論文集, 2021.
[13] 岡田魁人, 竹内孔一. Blockly を利用したタグ付きコーパス検索パタン構築ツール. 言語処理学会第 27 回年次大会発表論文集, 2021. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E1-4.pdf | # 極小主義に基づく並列ツリーバンクの構築
野元 裕樹
東京外国語大学
nomoto@tufs.ac.jp
## 概要
本研究では, TUFS Asian Language Parallel Corpus のマレー語とインドネシア語のデータに対して極小主義統語論に基づく構成素構造の統語アノテー ションを行い,並列ツリーバンクを構築した。それぞれ 1,386 文,1,385 文から成る.極小主義に基づくアノテーションは Penn Treebank 式句構造文法よりも詳細で,言語の性質を正確に捉えられる.特徴としては,厳格な二分股枝分かれ,内心構造の明示的表示,無形要素の多用,述語項構造の句構造への直接的反映,項と付加詞の明確な区別が挙げられる.
## 1 はじめに
一連の文に対して統語的アノテーションを付したツリーバンクは,単一の語やその周辺の数語だけからでは不可能な言語の特徴の把握を可能にするため,自然言語処理や言語学にとって重要な言語資源である。しかし,形態情報などのアノテー ションに比べ,統語構造のアノテーションは難しいため, 本格的なツリーバンクが存在する言語は限られている. 本研究では, 筆者らが構築したマレー語とインドネシア語のツリーバンクについて論じる1).このツリーバンクは, TUFS Asian Language Parallel Corpus (TALPCo) [1] の両言語のデータに構成素構造のアノテーションを行ったものである. その結果,並列ツリーバンクとなっている.また,アノテーションの基礎となる文法理論として極小主義 (minimalism) の枠組み [2]を採用した. 極小主義は,四半世紀以上に渡り,マレー語・インドネシア語を含む多くの言語の言語学的研究で最も広く採用されている,構成素構造を中核とする統語理論である [3].
1)マレー語 (ISO 639-3: zsm) とインドネシア語 (ISO 639-3: ind) は,広義のマレー語 (ISO 639-3: msa) の 2 つの地域変種である. 前者はマレーシア,シンガポール,ブルネイの公用語であり,後者はインドネシアの公用語である. 両者の違いは語彙や音韻が中心だが,文法においても細かな違いが存在する.
## 2 関連研究
筆者の知る限り,マレー語のツリーバンクは存在しない.インドネシア語には少なくとも 5 つのツリーバンクが存在する。まず,Penn Treebank(以下, PTB)式句構造文法 $[4,5]$ に依拠するものとして, Kethu: An Indonesian Constituency Treebank in the Penn Treebank Format [6] がある.このツリーバンクは Indonesian Treebank [7] の改訂版で,1,030 文のニュー ス文から成る。次に,主辞駆動句構造文法 (HPSG) に依拠するものとして,JATI [8] と Cendana [9] がある. 前者は 1,253 の辞書の定義文(ほぼすべて名詞句), 後者は旅行会社のオペレーターと顧客のチャッ卜 715 文から成る. 4 つ目は,Universal Dependencies $[10,11,12]$ で,規模が最も大きい. フォーマルな会話 (GSD; 5,598 文), ニュース・Wikipedia (PUD; 1,000 文), ニュース (CSUI; Kethu からの変換 1,030 文) から成る. 最後に, 語彙機能文法 (LFG) に基づく ParGram Parallel Treebank (ParGramBank) [13] があるが,かなり小さい(79文).
## 3 TALPCo ツリーバンクの概要
本研究では,極小主義の枠組みに従い,TALPCo のデータに構成素構造のアノテーションを付与したが,このデータを便宜的に「TALPCo ツリーバンク」 と呼ぶことにする. TALPCo ツリーバンクは,マレー語 1,386 文,インドネシア語 1,385 文から成る.
TALPCo のデータは,日本語文からの翻訳文である. 日本語文は,日本語能力試験 N5 レべルの基礎語彙の学習のための例文で,フォーマルな会話で用いられる比較的短いものである(例:「帰る電車がなかったので,友達の家に泊まりました.」).翻訳文も同様にフォーマルな口語体の文となっている。
アノテーションは筆者と東京外国語大学言語文化学部の学部生 4 名の計 5 名で行った. この学生達は,マレー語またはインドネシア語を専攻言語として学び,いずれも統語論の授業を履修済みである.
学生が行ったアノテーションはすべて筆者が確認・修正を行った. 作業開始前に筆者が基本的な構文をカバーしたアノテーションマニュアル(執筆言語は日本語)を作成した. マニュアルは随時更新し, 2022 年 1 月時点で 109 ページに及ぶ. このマニュアルは,Indonesian Treebank の手引き(54 ページ,執筆言語はインドネシア語 $\left.)^{2}\right)$ よりも充実している.
アノテーションのツールとして Syntax Tree Generator) を用いた. このツールでは,ラベル付き括弧表示を入力すると構文木が表示される(図 1).図の上部のボックスにあるようなラベル付き括弧表示を作成し, アノテーション結果として表計算ファイルに貼り付けていった. すべての結果を TALPCo のホームページ4)で公開する予定である.
## Syntax Tree Generator
[S [CP [C *C_decl $\left.{ }^{*}\right]$ [TP [DP_a [NP [N Beg]][D ini]] [T' [T $\left.{ }^{*} T^{*}\right]$ [AP $\left[D^{*}{ }^{*}<a>\right.$ ] [A mahal]]]]] [PU .]]
(C) 2011 by Miles Shang, see license.
## Options
Help
図 1 アノテーションの際に用いた Syntax Tree Generator
極小主義に基づく構文木は他の文法理論に比べて大きくなる. 図 1 は,Beg ini mahal.(このかばんは高かったです)というマレー語文の統語構造を示したもで,非終端節点は 14 ある. Indonesian Treebank の手引きに従って,PTB 式に同じ文を分析すると図 2 のようになり,非終端節点の数は半分の 7 となる. 表 1 は TALPCo ツリーバンクの非終端節点の数をまとめたものである. 参考のために Kethu の情報も加えた. PTB 式のアノテーションにもかかわらず,Kethu の数值が大きくなるのは,平均文長が
2) https://github.com/famrashel/idn-treebank/blob/ master/BracketingGuidelines.pdf
3) http://mshang.ca/syntree/
4) https://github.com/matbahasa/TALPCo
TALPCo よりもはるかに長いためである.
図 2 図 1 と同じ文を Penn Treebank 式に分析した構文木
表 1 TALPCo ツリーバンクと Kethu の非終端節点の数
## 4 アノテーションの特徴
本節では,TALPCoツリーバンクのアノテーションの枠組みの特徴について論じる. その際,必要に応じて PTB 式との違いも指摘する. アノテーションにおいては,できる限り言語学における標準的分析を反映するようにした。しかし同時に,不必要に細部にこだわり過ぎないようにもした。これは,アノテーション作業を十分遂行可能なものにするためと, 結果として得られるアノテーションが過度に複雑にならないようにするためである.このような実際的な妥協により, 本来なら可能な分析が不可能になることもあった.その場合は,統語範疇に-PostV (vP 指定部が例外的に右側に出る)のようなフラグを付すなどして対応した。
## 4.1 二分肢枝分かれ
句構造の枝分かれは二分肢のみを原則とする.ただし,文末以外の句読点 (XP, YP; “XP.”) は例外として三分肢以上を認める。これは文法ではなく,正書法上の理由から生じる例外である.
二分肢枝分かれの原則は,極小主義における句構造生成のメカニズムである併合 (Merge) が 2 つの統語的構成物に対する操作であることによる。一方, PTB 式句構造文法では枝分かれ数に制限が存在しない. 実際に Kethu では四分肢や五分肢の枝分かれ構造が見られる。そのようなアノテーションは容易だろうが,構成素構造を誤って表示しているため,アノテーションのためのアノテーションでしかない.
## 4.2 内心構造
自然言語の句構造は通常,内心構造を示す.すなわち,XP は内部に必ず主要部/主辞 Xを持つ. アノテーションではこのことが明示的に分かるようにする. ただし,アノテーション対象全体に対して付す $\mathrm{S}$ は例外である。この例外は,二分肢枝分かれの原則を守りつつ句読点をアノテーションに含めるために生じるもので,やはり正書法上の理由による.
PTB 式アノテーションでは自然言語の重要な特性である内心構造が不明瞭になることが多い。例えば,JJ(形容詞)が ADJP(形容詞句)の主要部であることはタグの形式だけからは分からない(図 2).
## 4.3 無形要素
実際には発音されない無形要素を多用する。無形要素は極小主義の統語分析から来るものと, 統語構造を基に行われる意味解釈を無理なく行うために仮定したものがある.例えば,後者の一つである無形の前置詞*selama*は名詞句 satu jam(一時間)を前置詞句(英 for an hour)として解釈できるようにする.
1. 統語分析に基づく無形要素
(a) 空代名詞 : *PRO*, * $\mathrm{pro}^{*}$ (b) 空演算子 : *Op*
(c) 痕跡:*t* (d) いわゆる Ø: *C*, *C_cont*, *C_decl*, *C_excl*, *C_imp*, *C_int*, *Top*, *Foc*, *T*, *v_tr*, *v_act*, *v_pass*, *v_intr*, *v_unerg*, *v_unacc*, *v_cop*, *v_eq*, *Appl*, *D*, *D_def*, *D_indef*, *exp* , *Poss* , *Num*, *PL* ${ }^{*} \mathrm{~N}$,, *_nnmlz*, *Conj*
2. 意味解釈のための無形要素 *ada*, *atau*, *dan*, *dari*, *dengan*, *di*, *hari*, *kalau*, *ke*, *pada*, *per*, *sebanyak*, *selama*, *untuk*, *yang*, *0*
## 4.4 移動(内的併合)
極小主義に基づく統語分析では,句構造は併合の操作により, ボトムアップで派生される. すでに構造上に存在する要素を再び併合することも可能で (内的併合),その場合,要素が「移動」する.移動元の要素をく> で示すと以下のようになる.
$
\operatorname{Merge}(\gamma,\{\alpha,\{\beta, \gamma\}\}) \rightarrow\{\gamma,\{\alpha,\{\beta,<\gamma>\}\}\}
$
<> 内の要素は, 移動の痕跡 (trace) と呼ばれ, 発音はされない. TALPCoツリーバンクでは痕跡は*t*で示し,対応する要素に添え字を付ける (図 1 参照).後者はアノテーションツールの仕様によるものである. 移動の考えは PTB 式でも疑問詞疑問文や受動文などで採用されている. TALPCo ツリーバンクではさらに多くの移動を取り扱う. 特に重要なのが述語内主語仮説の採用に伴う主語の移動である.
述語内主語仮説とは,ある述語の項はすべてその述語が投射する句の中に生起するという仮説である.これにより, 句構造から述語項構造を読み取ることが可能になる。例えば,図 1 では,形容詞 mahal(高価な)の投射する句 AP の中に DP の痕跡が存在し, mahal は DP 項を一つ要求することが分かる. そして,添え字、により当該項は移動して表層の主語として生起することが分かる。 また,主語は TP 指定部という構造上の位置として定義できるため,PTB 式アノテーションの-SBJのような特別なフラグで主語にアノテーションをする必要はない.
さらに,述語内主語仮説によりマレー語・インドネシア語などに特有の裸受動構文 [14] がうまく分析できる. 図 3 は, Gambar itu saya ambil pada bulan lepas(あの写真は先月撮りました)というマレー語の裸受動文の構造を示したものである.被動作主 gambar itu(あの写真)は日英語の受動文と同様に表層の主語の位置に移動するが,動作主 saya(私)は日英語のように付加詞 PP となはならず,名詞句の形で基底の位置にとどまる。
図 3 裸受動文の構造
## 4.5 項と付加詞の区別
述語内主語仮説により,述語の項はその述語が投射する句の中に生起する。一方,付加詞はその外側に位置し,同じ句ラベルを繰り返す。この違いにより述語の項と付加詞の区別が句構造から読み取れる. 例えば,図 3 では,動詞 ambil(撮る)の項である動作主 saya(私)と被動者 gambar itu(あの写真) (の痕跡)は動詞句 $\mathrm{vP}$ 内に位置する。一方,付加詞
pada bulan lepas(先月に)はその vP の外側に現れる. PTB 式だと, すべて VP の直下に現れて, 項と付加詞の区別は付かない $\left(\right.$ 図 4) ${ }^{5}$ ).
図 4 図 3 と同じ文を Penn Treebank 式に分析した構文木 (紙幅の都合上 bulan lepas の内部構造は省略)
## 4.6 トークン化と POS タグ
マレー語・インドネシア語のトークン化では普通,語と接語の分割を行うが,極小主義統語論に基づく TALPCo ツリーバンクではより小さな単位へのトークン化が必要になる. 具体的には, 以下の接辞が新たにトークン化の対象となる。
1. 態を表す接辞: meN-(能動態), di-(受動態), -kan (受益者適用態),-i (場所適用態)
2. 名詞句に付いて「〜を持つ,伴う」の意味を持つ動詞接頭辞 ber-
併合は 2 つの統語的構成物を対象とするため,極小主義の句構造には非枝分かれ節点は本来的に生じない. つまり,[XP $[\mathrm{X} \alpha]]$ はあり得ず,それは $[\mathrm{XP} \alpha]$ となる. そのような句構造を裸句構造 (bare phrase structure) という. しかし, TALPCo ツリーバンクでは裸句構造は採用せず,終端節点すなわち構文木の葉の部分は必ず XP でなくX の形になるようにした. これは葉の部分から簡単に POS タグの情報を得られるようにするという言語資源としての有用性を考慮してのことである. TALPCo ツリーバンクに用いられている POS タグを表 2 にまとめる.
## 5 おわりに
TALPCo ツリーバンクは,マレー語では初のツリーバンクであり,インドネシア語では既存の構成素構造に基づくツリーバンクと肩を並べるものと言える. アノテーションの形式は基本的に PTB と同
表 2 TALPCoツリーバンクにおける POS タグの分布
じであるため,[ ] を ( ) に変換することで Tregex[15] などの PTB 式句構造文法に従ったツリーバンク用に開発されたツールを利用できる。言語分析は極小主義統語論に基づいており,PTB 式句構造文法よりも言語の性質をうまく捉えることができている。そのため,言語学の研究や教育においての利用が期待できる。一方,自然言語処理の分野では PTB 式句構造文法や依存文法が主流であり, 英語の大規模言語資源が登場した段階で分野全体の言語分析が固定化する傾向が強いため, マレー語・インドネシア語の自然言語処理で TALPCo ツリーバンクが直接利用されることは考えにくい。そこで,PTB 式や組合せ範疇文法 $(\mathrm{CCG})$ への変換を通しての利用が考えられる. 二分股枝分かれを基本とし,意味解釈を考慮に入れている TALPCo ツリーバンクは CCG との相性がよいと言えよう.
TALPCo ツリーバンクはサイズは決して大きくないものの,より大規模なツリーバンクの構築への足掛かりとなる。極小主義は言語学の統語論で最も広く採用されている理論であり,統語論の授業を履修した学部上級生から大学院生であれば,アノテー ションガイドを参照しつつアノテーション作業を行うことができる. さらに,今後アノテーションマニュアルを翻訳することで,母語話者によるアノテーションにもつなげたい.
TALPCo には他に日本語, 朝鮮語, タイ語, ベトナム語,ビルマ語,英語が含まれる。これらの言語についても同様のアノテーションを付すことで,より有益な並列ツリーバンクが構築できる。すでに英語のデータの一部についてアノテーションを行った.
## 謝辞
本研究は JSPS 科研費 JP18K00568 および JP20H01255 の助成を受けた。
## 参考文献
[1] Hiroki Nomoto, Kenji Okano, David Moeljadi, and Hideo Sawada. TUFS Asian Language Parallel Corpus (TALPCo). In Proceedings of the Twenty-Fourth Annual Meeting of the Association for Natural Language Processing, pp. 436-439, 2018.
[2] Noam Chomsky. The Minimalist Program. MIT Press, Cambridge, MA, 1995.
[3] Andrew Carnie. Syntax: A Generative Introduction. Wiley-Blackwell, Oxford, 4th edition, 2021.
[4] Mitchell Marcus, Grace Kim, Mary Ann Marcinkiewicz, Robert MacIntyre, Ann Bies, Mark Ferguson, Karen Katz, and Britta Schasberger. The Penn Treebank: Annotating predicate argument structure. In Proceedings of the Workshop on Human Language Technology, pp. 114119, 1994.
[5] Ann Bies, Mark Ferguson, Karen Katz, Robert MacIntyre, Victoria Tredinnick, Grace Kim, Mary Marcinkiewicz, and Britta Schasberger. Bracketing guidelines for Treebank II style Penn Treebank project, 1995.
[6] Jessica Naraiswari Arwidarasti, Ika Alfina, and Adila Alfa Krisnadhi. Converting an Indonesian constituency treebank to the Penn Treebank format. In 2019 International Conference on Asian Language Processing (IALP), pp. 331-336, 2019.
[7] Arawinda Dinakaramani, Fam Rashel, Andry Luthfi, and Ruli Manurung. Designing an Indonesian part of speech tagset and manually tagged Indonesian corpus. In The Proceedings of the International Conference on Asian Language Processing 2014, IALP 2014, pp. 66-69, 2014.
[8] David Moeljadi. An Indonesian Resource Grammar (INDRA) and Its Application to a Treebank (JATI). PhD thesis, Nanyang Technological University, 2017.
[9] David Moeljadi. Building Cendana: A treebank for informal Indonesian. In Proceedings of 33rd Pacific Asia Conference on Language, Information and Computation (PACLIC 33), pp. 156-164, 2019.
[10] Ryan McDonald, Joakim Nivre, Yvonne QuirmbachBrundage, Yoav Goldberg, Dipanjan Das, Kuzman Ganchev, Keith Hall, Slav Petrov, Hao Zhang, Oscar Tackstrom, Claudia Bedini, Nuria Bertomeu Castello, and Jungmee Lee. Universal Dependency annotation for multilingual parsing. In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics, pp. 92-97, 2013.
[11] Ika Alfina, Arawinda Dinakaramani, Mohamad Ivan Fanany, and Heru Suhartanto. A gold standard dependency treebank for Indonesian. In Proceedings of 33rd Pacific Asia Conference on Language, Information and Computation (PACLIC 33), pp. 1-9, 2019.
[12] Ika Alfina, Indra Budi, and Heru Suhartanto. Tree rotations for dependency trees: Converting the head-directionality of noun phrases. Journal of Computer Science, Vol. 16, No. 11, pp. 1585-1597, 2020.
[13] Sebastian Sulger, Miriam Butt, Tracy Holloway King, Paul Meurer, Tibor Laczkó, Gyöorgy Rákosi, Cheikh Bamba Dione, Helge Dyvik, Victoria Rosen, Koenraad De Smedt, Agnieszka Patejuk, Özlem Çetinoğlu, I Wayan Arka, and Meladel Mistica. ParGramBank: The ParGram parallel treebank. In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics, pp. 550-560, 2013.
[14] Hiroki Nomoto. Bare passive agent hierarchy. In Henrison Hsieh and Keely New, editors, Proceedings of the Twenty-Seventh Meeting of the Austronesian Formal Linguistics Association, pp. 57-70, Ontario, 2021. University of Western Ontario.
[15] Roger Levy and Galen Andrew. Tregex and Tsurgeon: Tools for querying and manipulating tree data structures. In 5th International Conference on Language Resources and Evaluation (LREC 2006), 2006. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E2-1.pdf | # 規範的な日本語日常対話コーパスの設計
赤間怜奈 1,2 磯部順子 2,1 鈴木潤 1,2 乾健太郎 1,2
1 東北大学 2 理化学研究所
\{akama, jun.suzuki, inui\}@tohoku.ac.jp, yoriko.isobe@riken.jp
## 概要
規範的な日本語表現で構成される日本語日常対話コーパスの開発に取り組んでいる。本稿では,コー パスの概要とその構築方法を紹介する.実際に本コーパスの一部として収集した小規模対話データの特性を,複数の観点から既存の対話コーパスと比較分析し,その結果を報告する。
## 1 はじめに
対話システムの性能についての議論は,一般論として,人間の主観的な「良さ」に基づいておこなわれる。近年は,複数システムの出力応答について 「どちらが良いか」を人間が比較評価し,その勝敗によって性能を議論する枠組みがひとつの主流となっている.昨今の対話システムは出力内容に着目した総合的な主観評価の上では着実に性能が改善されているが $[1,2,3]$, その一方で, その性能改善の要因や依然として残る技術的な課題についてはほとんどわかっていない状況といえる。この要因のひとつとして,そもそも対話は言語の表現の自由度が非常に高いものであるために(基本語彙以外の語句の出現や,基本語順からの逸脱も頻繁に起こる),一定の基準や特定の正解を軸にしたエラー分析が困難となっていることが考えられる。
そこで我々は,基本語彙や正しい語順の使用を可能な限り優先した規範的な言語表現で構成される新たな対話コーパスとして,日本語日常対話 (Japanese Daily-Dialogue; JDD)コーパスの開発に
際の対話データ(たとえば,音声対話の書き起こしやSNS)が持つ人間のリアルな言語活動の表出という特長が失われているが,その分,ある種形式的で簡潔な問題設定となっているため,対話を対象とし
1)完成した日本語日常対話コーパスは,主に研究用途として公開することを予定している。表 1 作成した対話データの例(トピック「旅行」)
A: 卒業旅行は、イタリアに行こうと思います。
B: それは、楽しそうです。イタリアのどちらに行かれるご予定ですか?
A:ローマとヴェネツィア、フィレンツェです。もう予約してきました。
B: それは、良いですね。私も以前フィレンツェに行ったことがありますが、食事がとても美味しかったことが印象に残っています。
A: はい。フィレンツェは、それが楽しみで行くことにしました。
B:ローマとヴェネツィアも、史跡と美術館巡りがとても楽しいと聞いたことがあります。
A: はい。実は私、大学でイタリア美術を研究していたので、その勉強を兼ねて行くことにしたのです。
B: そうだったのですね。そうしましたら、ますます楽しみですね。
A: はい、ありがとうございます。
た意味的・統語的言語理解の分析はしやすいものになっていると考えられる.また,本コーパスに収録する対話の作成や書式の正規化は,全て人手でおこなわれているため,ノイズが少なく計算機上でも処理がしやすい. 表 1 にコーパス中の対話例を示す.
本稿では,日本語日常対話コーパスの概要を紹介し,その構築手順を説明する。その上で,実際にコーパスの一部として収集した小規模対話データについて,これが望ましい規範的な性質を有していることを複数の観点から確認する。
## 2 日本語日常対話コーパス
## 2.1 概要
日本語日常対話コーパスは,書き言葉を対象に,規範的な対話を収録した言語資源である。ここでいう規範的な対話とは,実際の日常生活で使用するには少しの不自然さがあるものの,道徳的な内容かつ
表 2 作成された対話の統計情報
} \\
正しく丁寧な表現で書き表されている対話のことを指す. 直感的には,初等から中等教育レベルの言語学習用教材で用いられるような対話表現に近い. すべての対話はふたりの話者 $\mathrm{A} , \mathrm{~B}$ が交互に発話をおこなう形式で,基本的には対話の始まりと終わりが設計されている. ひとつの対話は 4 以上の発話, ひとつの発話は 1 以上の文で構成されている. 各対話には,トピック情報が付加されている. 将来的には,対話単位での難易度,発話単位での発話行為夕グや感情タグ等の付加情報も追加する予定である.
## 2.2 構築手順
日本語日常対話コーパスの構築は,すべての工程を人手でおこなう.構築手順は以下の通りである:
1. コーパスに含める対話のトピックを選定
2. 各トピックに該当する対話を作成
3. 書式(表記摇れ,常用漢字等)を正規化
4. 発話行為タグ等の付加情報をアノテーション
なお,本研究ではひとまず手順 2 までを小規模に実施し,規範的な特性を持った対話データが取得可能であることを確かめる. 本試行で取得する対話データを,日本語日常対話コーパス v0(JDD v0)と呼ぶ. JDD v0 の構築方法の詳細を次節で説明する。
## 2.3 各手順の詳細
手順 1: トピックの選定本コーパスで取り扱うトピックは, 既存の他言語資源と日本語会話に関する既存研究を参考に,基礎的な日本語対話を広く含むように慎重に選定した. 基本的には,近年の対話研究で人気のある英語日常対話コーパス DailyDialog [4] で採用されているトピックを参考にする. ${ }^{2)}$ 一方で, 我々の目的は基礎的な日本語対話が収録されたコーパスを構築することにあるため,選
定するトピックは, 日本の文化的特性によく調和するもの,かつ,高度な専門知識等を必要とせず多くの人にとって容易対話を展開できるものであることが望ましい。そこで,日本語教育学の知見を参考に日本語の会話によく馴染むトピックを優先的に採用することを考える. 本研究では, 山内らによる話題の難易度分類を参考にした [5]. これは,橋本ら [6] が作成した日本語会話の 100 の話題について, 各話題に関連する語に対しての人間の主観的な身近さや会話内での需要に基づき,それらの難易度を 4 つのレベルに分類したものである.たとえば,「財政 (Finance)」は英語では日常会話における一般的な話題のひとつであるが, 山内らの分類によると, 日本語では難易度が高い話題(難易度レベルが上から 2 番目)とされている.これらを参考に,最終的に,日常生活, 学校, 旅行, 健康, 媅楽の 5 つを日本語日常対話コーパスのトピックとして採用した.
手順 2: 対話の作成対話の作成は,日本語を母国語とする 51 名の作業者によっておこなわれた.各トピックにつき $8 \sim 11$ 名が割り当てられ, 作業者 1名がひとつの対話(つまり,話者 A,Bによる一連の発話系列)を作成した. 作業者には, できるだけたくさんの一般的な語彙と多様なモダリティを含んだ 4 発話以上からなる対話を,正しく丁寧な日本語表現で作成するよう指示した. 作業者への教示と,提示した参考資料の詳細を,付録 $\mathrm{A}$ に示す. さらに,対話データ全体の品質を担保するために,作業者が作成したすべての対話について作業者とは別の 5 名による品質チェックがおこなわれた.
## 2.4 JDD v0 の基本統計
上記の手順により, 本研究で収集した対話に関する統計情報を,表 2 に示す.3)統計値の算出に際し, トークン分割には日本語形態素解析機 $\left.\mathrm{MeCab}^{4}\right)$
表 3 各日本語対話コーパスの統計情報と語彙的特長
& 語彙数 $(V)$ & TTR (\%) & Herdan's C \\
と日本語形態素解析辞書 mecab-ipadic-NEologd 5)を用いた. すべてのトピックでそれぞれ 200 以上,全体で 1,006 の対話が得られた. 発話単位で計数すると,6,432 発話となる. トピック毎の対話の傾向を観察すると, 1 対話あたりの発話長については,旅行トピックが他の 4 つに比べて若干大きい值であった. また,1 発話あたりのトークン長については, トピック間でのばらつきはあまり認められなかった. なお,完成版の日本語日常対話コーパスは,この 2~ 10 倍のデータサイズとする予定である.
## 3 分析: 既存対話データとの比較
## 3.1 設定
比較対象比較対象として,日本語日常対話コー パスと同様,人手で書かれた対話データからなる次の 5 つのコーパスを用いる6):
- Business Scene Dialogue コーパス [7]: ビジネスシーンにおける会議、交渉、雑談などの対話が収録された日英対訳コーパス.
- JPersonaChat [8]: 発話者のペルソナを反映した雑談対話コーパス PersonaChat [9] の日本語版.
- JEmpatheticDialogues [8]: 感情的な状況下での発話とそれに対する共感からなる雑談対話コー パス EmpatheticDialogues [10] の日本語版.
- Opensubtitles [11]: 日本語映画字幕コーパス.隣接する字幕を発話系列と見做すことによって対話コーパスとして利用できる [12].
・Twitter: 日本語のツイートを収集し,リプライチェーンを発話系列と見做すことによって対話コーパスとして利用できる. 本研究では, 長澤らの前処理済み Twitter データのうち 2020 年分のデータのみを用いる [13].
5) https://github.com/neologd/mecab-ipadic-neologd/ 6)音声会話の書き起こしやシステムによる生成を含む対話データも存在するが,これらは JDD(人手による書き言葉) とは性質が大きく異なるため比較対象に含めない.分析の観点と方法 JDD v0 のデータ特性を,(1)表層上の語彙的特長, (2) 語彙親密度, (3) リーダビリティの 3 つの観点から,既存対話データとの比較を通じて分析する。
まず,語彙的特長については,各コーパスの基本的な統計情報に加えて,表層上の語彙の多様性を TTR (Type-Token Ratio) [14] と, Herdan $の C[15,16]$用いて算出する. これらの指標は,総トークン数 $N$ と語彙数 $V$ を用いてそれぞれ次のように表される:
$
T T R=\frac{V}{N}, \quad C=\frac{\log V}{\log N} .
$
TTR はデータサイズの影響を受けやすく,N の増加に伴い值が小さくなる。これを解決し,サイズの異なるデータ間でも TTRを比較できるように標準化された尺度が $C$ である.
次に,語彙親密度については,単語親密度(令和版)データベース $[17,18]$ を用いて,各コーパスの語彙親密度スコア $S_{F}$ を以下の式によって算出する:
$
S_{F}=\frac{1}{|\mathscr{D}|} \sum_{v \in \mathscr{D}} \operatorname{fam}(v)
$
ここで, $\operatorname{fam}(\cdot)$ は,データベースに存在する語 $v \in \mathscr{D} ついてその$ 単語親密度を返す関数である。
最後に,リーダビリティについては,日本語文章難易度判別システム $\mathrm{jReadability}{ }^{7)}$ にって算出されるリーダビリティスコアを用いる [19]. このとき, $S_{R}$ は, 平均文長 $a$, 漢語率 $b$, 和語率 $c$, 動詞率 $d$,助詞率 $e$ を用いて, 以下の式によって算出される:
$
\begin{aligned}
S_{R}= & 11.724-0.056 a-0.126 b \\
& -0.042 c-0.145 d-0.044 e .
\end{aligned}
$
## 3.2 分析 1: 語彙的特性
表 3 に,各コーパスに収録されている発話数やトークン数等の基本統計と, 算出した TTR, $C$ の值
7) https://jreadability.net/
システムの入力文字数上限の都合で, 各コーパスから無作為に抽出した 500 発話を対象としてスコアを算出した.
図1 コーパスサイズと語彙の多様性 (Herdan's C) の関係
を示す.まず,1 発話あたりのトークン長について, JDD v0 は 14.99 であり,これは他のいくつかのコー パスと同程度の値であった. 分析対象のうち比較的話し言葉に近い対話データである Opensubtitle は,他よりも極端に小さい値であった. 次に,各コーパスの表層上の語彙の多様性を表す $C$ の值は,JDD v0 が他よりも大きかった. 図 1 の曲線は,各コーパスの $x \%(0 \leq x \leq 100)$ に該当する発話文で算出された $C$ の値の変化を表す. JDD v0 は $x$ の増加に伴う $C$ の減少が小さく, このことからも JDD v0 には, 多様な語彙が豊富に含まれていることがわかる。
## 3.3 分析 2: 語彙親密度
表 4 に,各コーパスについて算出した語彙親密度スコア $S_{F}$ を示す. ${ }^{8)}$ すべてのコーパスのなかで JDD v0 が最大のスコアを示した. これは,JDD v0の対話が,他よりも一般的で日本語として馴染み深い表現で構成された基礎的な対話であることを示唆している. また,表中の「分析可能語彙」は, $S_{F}$ の算出に関与した語の割合,つまり,コーパスの語彙のうちデータベースに登録されている概念として認識された語の割合を示す:|D| $\mid V$.この値が大きいほど,計算機での解析も容易な,正しい日本語表現で記述されたデータである可能性が高い. JDD v0 の分析可能語彙は $70.9 \%$ で, これは全体における最大値であった。一方で,インターネットスラングや口語的な表現を含む Twitter (16.7\%) と Opensubtitle $(29.8 \%)$ の分析可能語彙の割合は他と比べて極端に小さい値であった.
## 3.4 分析 3: リーダビリティ
表 5 に,各コーパスについて算出したリーダビリティスコアを示す. JDD v0 は,すべての比較対象を表 4 語彙親密度に関する分析
表 5 リーダビリティに関する分析
上回るスコアを示した。この結果から,JDDv0の対話データは,僅差で続く JPersonaChat とともに,人間にとって読解しやすい比較的平易な表現で記述されているといえる.
## 3.5 総評
分析結果を総合すると,既存対話コーパスと比較して,JDDv0に含まれる対話は,一般的で馴染み深い多様な語彙を豊富に含み(3.2, 3.3 節),正しい日本語表現で記述された(3.3 節)平易で読みやすい (3.4 節)といえる. これらの特性は,我々が対象とする「規範的かつ基礎的な対話」の要件としていずれも望ましいものである.今回取得した JDD v0 について,今後, 2.2 節の構築手順に示すように書式の正規化等の処理をおこなうことによって,前述の望ましい特性がさらに顕著に出現するような対話データを獲得できる可能性がある.
## 4 おわりに
現在我々が開発している規範的な日本語日常対話コーパスについて,その概要と構築方法を説明した. 実際のコーパスの一部として収集した約 1,000 対話について,その性質を語彙的特長・語彙親密度・リーダビリティの 3 つの観点から分析し,望ましい規範的な特性を持つ対話を獲得することを確認した. 今後は,データ規模の拡大と合わせて,対話の高品質化や付加情報の追加についても取り組む.
8)付録 Cに,語彙親密度の頻度分布を示す.
## 謝辞
本研究はJST ムーンショット型研究開発事業 JPMJMS2011 の支援を受けたものです.
## 参考文献
[1] Daniel Adiwardana, Minh-Thang Luong, David R So, Jamie Hall, Noah Fiedel, Romal Thoppilan, Zi Yang, Apoorv Kulshreshtha, Gaurav Nemade, Yifeng Lu Quoc, and V Le. Towards a Human-like Open-Domain Chatbot. In aiXiv preprint arXiv:2001.09977, 2020.
[2] Yizhe Zhang, Siqi Sun, Michel Galley, Yen-Chun Chen, Chris Brockett, Xiang Gao, Jianfeng Gao, Jingjing Liu, and William B. Dolan. DIALOGPT : Large-Scale Generative Pre-training for Conversational Response Generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ACL): System Demonstrations, pp. 270-278, 72020.
[3] Stephen Roller, Emily Dinan, Naman Goyal, Da Ju, Mary Williamson, Yinhan Liu, Jing Xu, Myle Ott, Kurt Shuster, Eric M. Smith, Y. Lan Boureau, and Jason Weston. Recipes for Building an Open-Domain Chatbot. In Proceedings of 16th Conference of the European Chapter of the Association for Computational Linguistics (EACL), pp. 300325, 2021.
[4] Yanran Li, Hui Su, Xiaoyu Shen, Wenjie Li, Ziqiang Cao, Shuzi Niu, and Hong Kong. DailyDialog: A Manually Labelled Multi-turn Dialogue Dataset. In Proceedings of the The 8th International Joint Conference on Natural Language Processing (IJCNLP), pp. 986-995, 2017.
[5] 博之山内, 直幸橋本. 教育語彙表への応用. 有里子砂川(編),コーパスと日本語教育, 第 2 章, pp. 35-64.朝倉書店, 2016.
[6] 博之山内, 直幸橋本, 久美子金庭, 由美子田尻. 言語活動・言語素材と話題. 博之山内(編), 実践日本語教育スタンダード, 第 1 章, pp. 5-525. ひつじ書房, 2013.
[7] Matīss Rikters, Ryokan Ri, Tong Li, and Toshiaki Nakazawa. Designing the Business Conversation Corpus. In Proceedings of the 6th Workshop on Asian Translation (WAT), pp. 54-61, 2019.
[8] Hiroaki Sugiyama, Masahiro Mizukami, Tsunehiro Arimoto, Hiromi Narimatsu, Yuya Chiba, Hideharu Nakajima, and Toyomi Meguro. Empirical Analysis of Training Strategies of Transformer-based Japanese Chit-chat Systems. In aiXiv preprint arXiv:2109.05217, 2021.
[9] Saizheng Zhang, Emily Dinan, Jack Urbanek, Arthur Szlam, Douwe Kiela, and Jason Weston. Personalizing Dialogue Agents: I have a dog, do you have pets too? In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (ACL), Vol. 1, pp. 2204-2213, 2018.
[10] Hannah Rashkin, Eric Michael Smith, Margaret Li, and Y. Lan Boureau. Towards Empathetic Open-domain Conversation Models: A New Benchmark and Dataset. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 53705381, 2019.
[11] Pierre Lison, Jörg Tiedemann, and Milen Kouylekov. OpenSubtitles2018: Statistical Rescoring of Sentence Alignments in Large, Noisy Parallel Corpora. In Proceedings of the 11th International Conference on Language Resources and Evaluation (LREC), pp. 17421748, 2018.
[12] Oriol Vinyals and Quoc Le. A Neural Conversational Model. In Proceedings of the 31st International Conference on Machine Learning (ICML) Deep Learning Workshop, 2015.
[13] 長澤春希, 工藤慧音, 宮脇峻平, 有山知希, 成田風香,岸波洋介, 佐藤志貴, 乾健太郎. aoba_v2 bot : 多様な応答生成モジュールを統合した雑談対話システム.人工知能学会研究会資料言語・音声理解と対話処理研究会, pp. 101-106, 2021.
[14] Mildred C Templin. Certain language skills in children; their development and interrelationships. University of Minnesota Press, 1957.
[15] Gustav Herdan. Type-token mathematics: A textbook of mathmatical linguistics. Mouton, Vol. 4, p. 448, 1960.
[16] Gustav Herdan. Quantitative linguistics. Butterworth, 1964.
[17] 早苗藤田, 哲生小林. 単語親密度の再調査と過去のデータとの比較. 言語処理学会第 26 回年次大会発表論文集, pp. 1037-1040, 2020.
[18]単語親密度 (令和版). NTT 語彙データベース. NTT 印刷, 2021.
[19] Yoichiro Hasebe and Jae-Ho Lee. Introducing a Readability Evaluation System for Japanese Language Education. Proceedings of the 6th International Conference on Computer Assisted Systems for Teaching \& Learning Japanese (CASTEL/J), pp. 19-22, 2015.
## A 対話作成作業に関する参考情報
## A. 1 作業者への教示
作業者には,日本語学習の教材となるような規範的な日常会話を作成するよう指示した. 合わせて,作成される対話は以下の要件を満たすように伝えた: (1) 正しい日本語で書かれていること,(2) 道徳的な内容であること,(3)1つの対話は最低でも 4 発話以上で構成すること,(4) 日常的によく使われる語とりわけ話題語を多く出現させること,(5) 自然な会話の流れの中で多様なモダリティを出現させること,(6) 相槌やフィラー等の挿入は必要最低限とすること, (7) 固有名詞に相当する表現は、現実・架空に関わらず具体的に書くこと。
なお,教示が適切であることの確認ならびに作業者の予行練習と疑問点解消の目的で,実際の対話作成作業を開始する前に,計 3 回のプレ作業をおこなっている。
## A. 2 提示した資料
前節に示す作業者に教示した要件のうち,要件 (4) と (5) そついては,それぞれの具体的例を記したものを作成し(話題語集,モダリティ集),参考資料として全ての作業者に配布した。話題語集の作成には,分類語彙表増補改訂版データベース (ver.1.0) ${ }^{9)}$ 参考にした. モダリティ集の作成には,つつじ日本語機能表現辞書 ${ }^{10)}$ を参考にした.
## B JDD v0 の統計情報: 発話長とトークン長の分布
各トピックにおける対話の発話長(横軸)とトークン長(縦軸)の分布を図 2 に示す.
(a)
(b)
(c)
(d)
(e)
図 2 対話の発話長とトークン長の分布. 左から (a) 日常生活,(b) 学校,(c) 旅行,(d) 健康,(e) 娮楽トピック.
## C 各対話データにおける語彙親密度の頻度分布
作成した JDD v0 と,比較対象として用いた 5 種の対話コーパスに含まれる語彙親密度の頻度分布を,図 3 亿示す。
図 3 対話データに含まれる語彙親密度の頻度分布.スコアは,値が大きいほど親密度が高いことを表す。
9) https://github.com/masayu-a/WLSP
10) http://kotoba.nuee.nagoya-u.ac.jp/tsutsuji/ | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E2-2.pdf | # ウェブ会議システムを利用した料理インタビュー対話コーパス
岡久太郎 田中リベカ* 児玉 貴志 Yin Jou Huang 黒橋禎夫
京都大学大学院情報学研究科
\{okahisa, kodama, huang, kuro\}@nlp.ist.i.kyoto-u.ac.jp
## 概要
我々はウェブ会議システムを用いて,料理の技能者に対するインタビュー対話のマルチモーダルコー パスを構築した. 技能者として料理のセミプロと料理好きを,インタビュアーとしてインタビューの経験を持つ者と持たない者を参加者として集めた. 本稿では,コーパスの構築方法と仕様について報告し,技能者からコツを引き出すためのインタビュー 手法について質的に分析する.
## 1 はじめに
対話システムの研究においては,気の効いた設定をデザインし,良質の対話コーパスを作ることが重要であるが,インタビュー対話についてはこれまであまり取り扱われることがなかった. そこで,本研究では,熟練者の技能伝承が産業界において課題となっていることを踏まえ,技術のコツなどを聞き出すことを目的としたインタビューに着目する. 既存のインタビュー対話コーパスは,テレビ番組等で第三者に対話の内容を聞かせることを目的とした対談を対象とするものが多い $[1,2,3]$. そのため,技術や知識を引き出すことができる対話システムの研究には,その基盤としてインタビュアーが積極的に対話者から情報を引き出すことを試みているインタビューデータが不可欠である.
本研究では,ウェブ会議システムを用いて料理の技能者からインタビュアーが特定の料理の調理方法を聞き出すというタスクを設定し,料理インタビュー対話コーパスを構築した. 料理インタビュー 対話コーパスは, 308 対話における約 6.9 万発話の音声とその書き起こしに加えて,対話者双方の表情と対話者間で共有されているコンピューター画面を含んだ映像から構成される (図 1).
日本語を対象とした既存の話し言葉対話コーパス
$ ・データサイエンスセンター(連絡先:tanaka.ribeka@is.ocha.ac.jp)
}
図1 料理インタビューコーパスの動画の一部とそれに対応する部分の書き起こしの例. “E”は技能者,“I”はインタビュアーを表す.
のほとんどは,電話会話を使用したものか [4],対話者を実際に集め,その様子を録音・録画したもの $[5,6,7,8]$ である. しかしながら,電話会話の場合は視覚的情報の共有ができないため,指示語の使用が減少する等,通常の対話とは性質が大きく異なる. また,対話者をスタジオ等に集めて対話を収録する場合は時間的,費用的コストがかかる。
現在,COVID-19 の世界的感染拡大の中で,以前はオンラインビデオ通話を利用していなかった人々もウェブ会議システムを使用するようになった. 才ンラインビデオ通話であれば,対話者は自宅からいつも用いている自身の機器を用いて対話に参加することが可能である. さらに,ウェブ会議システムを使用することで,対話者はお互いの表情を見ながら,画面共有機能で視覚的文脈を共有することが可
能となり,電話会話よりも通常の対話に近いコミュニケーションを行うことができる. この点は, 対話研究にとっても,表情や視覚的文脈を発話と同期させて記録することが容易になるという利点となる。
本稿では,料理インタビュー対話コーパスの構築方法とその詳細について述べる。
## 2 インタビュー対話の収集方法
## 2.1 収録方法と参加者
本コーパスは,ウェブ会議システムを用いて,料理の技能者とインタビュアーの間で行われた約 15 分の対話を 308 件録画したデータから構成される.参加者は外付け,またはコンピューターに内蔵されたカメラとマイクを使用し, 画面共有機能によって技能者があらかじめ用意した写真 (詳細は後述)を互いに見ながら対話を行った.録音・録画に関しては Zoom $^{1)}$ の録画機能を利用し, 音声, カメラの映像,共有された画面の全てを記録した。
各対話収集の際には対話者に技能者とインタビュアーの役割をそれぞれ与えた (Appendix A 参照)。 一部の参加者は, 技能者とインタビュアーの両方の役割で参加している。また,技能者とインタビュアー には事前にそれぞれ2つの属性を設定した. 技能者は,一定の条件 (Appendix B 参照) を満たす者を「セミプロ」,それ以外の者を「料理好き」として分類した.インタビュアーは,人事面接など何らかのインタビューを実施した経験を持つ場合は「技能あり」, それ以外の者を「技能なし」と分類した ${ }^{22}$.
なお,対話データの収集については最初に 20 対話,暫定的な条件設定で予備収集を行い,その結果を受け,最終的な条件を定め,本収集を行った。
## 2.2 参加者への教示及びアンケート
今回の対話タスクでは,技能者から料理の技能を効果的に聞き出すような質問をインタビュアーにさせることが目的であるため,タスクの事前準備として技能者とインタビュアーに以下の指示を行った.
まず,技能者として参加する者には事前に以下の 4 つについて準備し,提出するよう求めた。
(1) a. 紹介する料理のタイトル
b. 紹介する料理の概要
1) https://zoom.us
2)インタビュアーは自炊経験があるような最低限の料理の知識を持つことを参加の必須条件にしている. c. 6-10 枚の手順写真
d. 自慢したい点とそれに対応する写真番号 (本収集のみ)
一方,インタビュアーとして参加する者には対話タスクの前に上記 (1a), (1b), (1c) の 3 つの情報を与えた、インタビュアーには,技能者は最低限の手順しか説明しないので,それ以上の説明を引き出せる質問をするようにあらかじめ指示した。
さらに,予備収集の結果を受け,本収集では事前に「良い質問のタイプ」をインタビュアーに教示し, 1 つ以上の質問内容とその質問を何枚目の写真でするつもりかについて事前に報告を求めた。「良い質問のタイプ」は,「技能者が答えにつまりそうな質問」について 11 個の項目を例と共に示した資料である (Appendix C 参照).
また,対話タスクの終了後,技能者とインタビュアーのそれぞれに以下の事項についてアンケートを実施した。
(2) a. コミュニケーションがスムーズだったか
b. コツをうまく引き出していたか
c. 自身がどの程度料理の知識や技能を持っているか (インタビュアーのみ)
d. インタビューの感想
(2a), (2b), (2c) の回答は「1. そう思わない」「2. あまりそう思わない」「3. どちらでもない」「4. ややそう思う」「5. そう思う」のいずれかを選択させた. また,(2d)については自由記述での回答を求めた。
## 3 収集したインタビュー対話の概要
## 3.1 発話内容に関する統計情報
構築した料理インタビュー対話コーパスの統計情報は表 1 の通りである.
1 発話あたりの平均単語数は技能者が 10.13 語,インタビュアーが 6.98 語であり, 1 対話当たりの平均発話数は技能者が 241.23 , インタビュアーが 207.38 であることから,技能者はインタビュアーよりも長い発話をより多く行っていることが分かる. この傾向は,対話参加者が技能者とインタビュアーの役割を適切に果たしていることを示している。
また,技能者とインタビュアーの属性ごとに統計情報を詳細化した結果は表 2 のようになる. 技能者は,対話相手の属性に関わらず,セミプロ $\left(E_{H}\right)$ の
表 1 料理インタビュー対話コーパスの統計情報. フィラーや言い誤りを取り除き,Juman++ [9] を用いて形態素解析を行った。
表 2 技能者とインタビュアーの属性ごとの統計情報. 技能者については $E_{H}$ がセミプロ, $E_{L}$ が料理好きを表し,インタビュアーについては $I_{H}$ がインタビュー技能のあるインタビュアーを, $I_{L}$ がインタビュー技能のないインタビュアーを表している.
方が料理好き $\left(E_{L}\right)$ よりも 1 分あたりの発話数が少ない.また,技能者の 1 発話あたりの単語数を見ると,インタビュアーの属性に関わらず,セミプロの方が料理好きよりも長い発話を行っている.これらを踏まえると,技能者はインタビュアーの属性に関わらず,セミプロが料理好きょりも多くの内容を語っているために,時間あたりの発話数が少なくなっていることが分かる.
一方,インタビュアーについては,その属性に関わらず,対話相手が料理好きの場合 $\left(E_{L} \& I_{H}\right.$, $\left.E_{L} \& I_{L}\right)$ の方が, 対話相手がセミプロの場合 $\left(E_{H} \& I_{H}\right.$, $\left.E_{H} \& I_{L}\right)$ よりも 1 分あたりの発話数が多くなっている.しかしながら,それぞれの対話設定における 1 発話あたりの単語数については, 対話相手の属性に関わらず,インタビュー技能があるインタビュアー $\left(I_{H}\right)$ の方が,技能がないインタビュアー $\left(I_{L}\right)$ よりも 1 発話あたりの単語数は多い. 以上から,一般的な傾向として,インタビュー技能を有するインタビュアーの方が,インタビュー技能がないインタビュアーよりも内容の多い発話をしているが,技能者の料理技能が低い場合は,インタビューの技能に関わらず,技能者から多くの話を引き出すために多くの発話を行う傾向があることが分かる.
## 3.2 対話後のアンケート結果
図 2,3 より, 技能者もインタビュアーも参加したインタビューについて概ね満足していることが分かる.「コミュニケーションはスムーズだったか」 という問いについては,技能者の平均値が 4.64 であり,インタビュアーの平均値が 4.25 であった.
また,「コツを引き出していたか」という問いについては,技能者の平均値が 4.62 であり,インタ
図 2 技能者に対するアンケート結果
図 3 技能者に対するアンケート結果
ビュアーの平均値が 4.07 であった. この差は,インタビュアーが技能者からコツを聞き出すようあらかじめ指示されていたことにより,インタビューの出来について技能者以上に厳しい判定をしたことによって生じた差異であると考えられる。
なお,インタビュアーの料理の知識については平均値が 3.52 であった. これは, 最低限の料理の知識を持つことをインタビュアーの参加条件としたことにより,知識があると回答する参加者が比較的多かったためであると考えられる。
## 4 コツの引き出し方
本研究で収集した対話データは,インタビュアー が技能者から料理のコツを聞き出すようにタスクを設定した. そのため,インタビュアーの発話が契機となり,技能者が当初は話すことを予定していなかった知識が引き出される場合が少なくない. 本節ではコツの引き出し方の典型的パターンを事例べー スで説明する。
技能者からコツを引き出す際によく見られるインタビュアーの発話として, 直前に技能者が発言した内容を繰り返したり,言い換えたりするというものが挙げられる.
(3)「セロリのぬか漬け」
E:(えーと)塩と.これは(あの一)粗塩というか, (あの一)サラサラした食卓塩っていうよりは, (あの一)結構(あの)ザラザラゴツゴツとした結構甘みのある塩です。
I: 粗塩, はい.
I: (あ)味が(じゃ)しっかりとしてるような感じですか?
E: そうですね。もうくこれなめ>これだけ甜めても美味しい感じの塩です.はい.(まーね)(あの一) なんでも塩好きなの使っていただいたらいいんですけど,(ま)塩だけで美味しいっていうのは結構,(あの)材料少ないんでね,(あの一)美味しい塩でされたらいかがかなと思います。
例 3 では,技能者の発言にある「甘みがある」をインタビュアーが「味がしっかりとしている」と言い換えたことにより,粗塩を使う理由を技能者が追加で説明している。
このような質問の仕方は,インタビュアーに料理の経験が十分にない場合も可能なものである。 一方,インタビュアー自身にも料理の経験があるからこそ可能となるコツを引き出す質問の特徴として, インタビュアーが具体的な状況を設定, 提示することによって,技能者から細部についての説明を引き出すというパターンが挙げられる。
(4)「生シラスのふっくらかき揚げ」
I: (ふーん)(で)何か(この)揚げているときのコツとかってありますか?
E: (あ).
E: 揚げているときのコツですね.
E: $(え-と)$
E:揚げているときの(こ).
I: 例えば,私,よく(あの一)何か(こー)心配で ,できているのかなって,(こー)菜箸でぐしゃぐしゃぐしゃ,
I: やったりしてしまうんですけど,(な)(な)(な).
E: $(?)^{3)}$.
$\mathrm{E}:$ そうですね. つまり,なるべく(あの一)なるべく触らないように。
I: (あー)やっぱりそうですか.
E: (?).
E:片面を揚げましたら,(えーと)なるべく触らないようにそのまま(え一)じっくり火を通して, また裏返して,その後も(あの一)ほとんど触らないように,(え一)形がくずれないように揚げていって,(で)最終的に(あの一)
$\mathrm{E}:$ (えーと) バットに上げるときに,油をしっかり (こー)
E: 切るというのが,(あの)カリッとふわっと仕上がるコツかなと思いますので.
例 4 では,最初に漠然とコツを尋ねられた技能者がその後約 6 秒間回答に詰まっている。 それを受けたインタビュアーは下線部のように自身の経験談を語ることで,天ぷらを揚げる時のコツを引き出している.このように,技能者が質問の回答に窮している時に,インタビュアーが具体的な状況を提示することで,技能者は自身では事前に意識していなかった知識や技能についてスムーズに話すことが可能となる例が多く見られた。
これらの質問の仕方については,事前にインタビュアーに提示した「良い質問のタイプ」 (Appendix C 参照)には含まれていない方略であり, インタビュアー役を務める対話システムの研究において,重要な要素となりうる。
## 5 おわりに
本稿では,ウェブ会議システムを用いた料理インタビュー対話コーパスの構築方法とその詳細について報告した。
コーパスの質的分析の結果,技能者のコツを引き出す場面においては,言い換えや繰り返しを行うパターンとインタビュアー自身の経験をもとに具体的な状況を想定した質問を行うパターンの 2 つが見出された。これらのパターンをどのように使い分けるか,どのように対話システムに組み込むのかについては,今後の課題である.
## 謝辞
この成果は, 国立研究開発法人新エネルギー・産業技術総合開発機構 (NEDO) の委託業務 (JPNP20006) の結果得られたものです.ここに感謝致します.
## 参考文献
[1] Bodhisattwa Prasad Majumder, Shuyang Li, Jianmo Ni, and Julian McAuley. Interview: Large-scale modeling of media dialog with discourse patterns and knowledge grounding. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 8129-8141, Online, November 2020. Association for Computational Linguistics.
[2] Chenguang Zhu, Yang Liu, Jie Mei, and Michael Zeng. Mediasum: A large-scale media interview dataset for dialogue summarization. CoRR, Vol. abs/2103.06410, , 2021.
[3] 篠山学, 松本和幸.インタビュー対話コーパスの構築と発話意図タグの設計. 第 82 回全国大会講演論文集,第 2020 巻, pp. 51-52, feb 2020.
[4] 伝康晴, フライジョン. 日本語 callhome コーパス. 音声研究, Vol. 4, No. 2, pp. 24-30, 2000.
[5] 前川喜久雄. 『日本語話し言葉コーパス』の概要. 日本語科学, Vol. 15, pp. 111-133, 2004.
[6] Yasuharu Den and Mika Enomoto. A scientific approach to conversational informatics: Description, analysis, and modeling of human conversation. pp. 307-330. John Wiley \& Sons, Hoboken, NJ, 2007.
[7] Itsuko Fujimura, Shoju Chiba, and Mieko Ohso. Lexical and grammatical features of spoken and written japanese in contrast: Exploring a lexical profiling approach to comparing spoken and written corpora. In Proceedings of the VIIth GSCP International Conference, p. 393. Speech and Corpora, 2012.
[8] 小磯花絵, 天谷晴香, 石本祐一, 居關友里子, 臼田泰如,柏野和佳子, 川端良子, 田中弥生, 伝康晴, 西川賢哉.『日本語日常会話コーパス』モニター公開版の設計と特徴. 国語研究所日常会話コーパスプロジェクト報告書 3, 2019.
[9] Arseny Tolmachev, Daisuke Kawahara, and Sadao Kurohashi. Juman++: A morphological analysis toolkit for scriptio continua. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 54-59, Brussels, Belgium, November 2018. Association for Computational Linguistics.
## A タスク参加者数の詳細
表 6 参加者の役割・属性ごとの内訳. I,Eはそれぞれインタビュアー,技能者を指す。また×はその役割では不参加だったことを表す.
## B 「料理のセミプロ」の条件
以下の 3 条件のいずれかを満たす技能者を「料理のセミプロ」として分類した.
・料理教室等で料理(種類は問わず)を教えた経験がある
・調理師免許を取得している
・料理家として活動している
## C 良い質問のタイプ
1. 調味料や材料の分量・重さ,煮込み時間などの数値的な情報を質問する
・「何分ぐらいで火を止めますか」
2.「とろみ」「こんがり」「まとまってきたら」などの抽象的な表現について,客観的に判断する手がかりを質問する
・「とろみが出てきたのをどうやって判断したら良いでしょうか」
3. 同じ材料・器具がないときはどうするのかを質問する
・「黒酢がないときは,どうしたら良いでしょうか」
4. 食材の下準備の説明が省略される傾向にあるので,あえて質問する
・「お野菜はどうしてこの切り方をしたのですか」
5. 写真に映っているのに技能者が特に説明しなかったものを見つけ,それについて質問する
6. 技能者から説明を引き出したら,もう一歩踏み込んで,それが良いことなのかも質問する
・I:「ネギは,青いネギじゃなくて白いネギですね」
E:「はい,白いネギの青いところと白いところを両方入れました」
I:「その方が美味しいのですか」
7. ポイントを率直に尋ねる
・「気をつけるべきことはありますか?」
・「難しいところはどこですか?」
8. 避けた方が良いことや,失敗経験を質問する
・E:「鯛の代わりに,他の白身魚やホタテでも良いですよ」
I:「良いですね.逆に,イマイチなものってありますか」
9. 反対の意見や,否定的な意見を投げかけてみる
・「ピーマンを入れると,子どもが食べないんじゃないでしょうか」
10. 自分なりの仮説を立てて質問する
・「砂糖の代わりにみりんを使うときも,同じ分量を入れたら良いでしょうか」
11. はい・いいえで答えられる質問を,「どうして」「どうやって」と相手に話させるような質問に言い換える
・「切り方はもっと小さくても良いですか」 を「どうしてこの大きさに切ったんですか」と言い換える | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E2-3.pdf | # プロンプトモデルは表面的手がかりを利用するか?
Pride Kavumba ${ }^{1,2}$ 高橋 諒 3 小田悠介 3,4
1 東北大学 大学院情報科学研究科 ${ }^{2}$ 理研 AIP ${ }^{3}$ LegalForce Research
4 東北大学 データ駆動科学・AI 教育研究センター
pkavumba@ecei.tohoku.ac.jp
\{ryo.takahashi, yusuke.oda\}@legal force.co.jp
## 概要
事前学習済み言語モデルを下流タスクに適応させる手法の一つであるプロンプトに基づくファインチューニングは、少量データでも高精度なモデルを学習できる手法として知られている。自然言語理解の多くのベンチマークデータセットは、タスクとは無関係だが正解ラベルの予測を助ける「表面的手がかり」を持つ。本研究はプロンプトに基づいて学習されたモデルがデータセットの表面的手がかりを利用していることを実験から明らかにする。
## 1 はじめに
事前学習済み言語モデルを下流タスクに適応させる手法として、タスクに応じたへッドのファインチューニング、すなわち事前学習時に使用した言語モデルのヘッドをタスクに特化したへッドに置き換える手法が主流となっている $[1,2]$ 。このような手法でタスクに適応されたモデルをここでは「ヘッドモデル」と呼ぶ。
プロンプトに基づくファインチューニングは、少量のデータで言語モデルを適応させるためのより効果的な方法として知られている $[3,4,5]$ 。この手法では、言語モデルのへッドはそのままで、モデルが事前学習時に見た入力と一致するようにモデルへの入力を構築する。例えば、「また見たいと思います。」という感情分析タスクのインスタンスが与えられた場合、ヘッドモデルは出力として「ネガティブ」か「ポジティブ」のどちらかを直接予測するように学習する。一方、マスク言語モデルの目的関数 [1] で学習されたプロンプトモデルでは、「\{X\}。 [MASK] 映画でした。のようなテンプレートを介して「また見たいと思います。[MASK] 映画でした。」 という自然なテキストとなるように入力を構成する。モデルは [MASK] に「良い」や「ひどい」など
の単語を予測し、それらを事前に定義したヴァーバライザー $[4,5]$ を使ってポジティブとネガティブに対応させる。
これまでの研究では、SNLI [6]、MNLI [7]、COPA [8] など、多くの自然言語理解データセットにおいて、簡単に利用できる「表面的手がかり」が見つかっている。表面的手がかりは、タスク自体とは無関係だが、タスクの特定のラベルに結びついているインスタンスの言語的または非言語的な特徴と定義できる。例えば、ARC [9] の正解には「not」という単語が含まれているが、これはへッドモデルが利用することで、タスクを理解していなくても最先端の性能を発揮できる [10]。具体的には、MNLI のマッチしたインスタンスの $90 \%$ が文脈なし表面的手がかりを仮説に含んでおり、SNLI の文脈なし表面的手がかりはこれまで知られていたものよりも 4.9 ポイント高いことがわかった [11]。さらに、COPA には文脈なし表面的手がかり [12]だけでなく、78\%のインスタンスに文脈あり表面的手がかり(前提と代替の間に存在する表面的手がかり)が含まれていることがわかった。一方、 $[11,13]$ は、ヘッドモデルが SNLI の仮説において表面的手がかりを利用することを示した。[14] は MNLI データセットの前提条件と仮説の間の単語の重複などの表面的手がかりをへッドモデルが利用することを示し、[12] は COPA の回答の選択肢において表面的手がかりをへッドモデルが利用することを示した。本研究は、プロンプトモデルにおける表面的手がかりを調査した最初の研究である。我々は以下の問いを立てる。(1)プロンプトモデルは表面的手がかりを利用しているか?(2) プロンプトモデルは表面的手がかりのないデータセットにどのように汎化するか?
MNLI、SNLI、COPA、および HANS データセット [14]を用いた慎重に設計された実験を通して、プロンプトモデルは表面的手がかりに大きく依存してお
り、表面的手がかりのないデータへの汎化に失敗していることを発見した。具体的には、RoBERTa [2] は、表面的手がかりを持つインスタンスでは良好な性能を発揮するが、表面的手がかりを持たないインスタンスではランダムべースラインとほぼ同等以下の性能しか達成できないことがわかった。
## 1.1 NLI と COPA の表面的手がかり
我々の研究課題「(1) プロンプトモデルは表面的手がかりを利用するか?(2) プロンプトモデルは表面的手がかりのないデータセットにどのように汎化するか?」に答えるためには、表面的手がかりを含むデータセットが必要となる。本研究では表面的手がかりを含む新しいデータセットを一から作るのではなく、英語の MNLI、SNLI、COPA の既存のデー タセットを分析することにした。具体的には、表面的手がかりを利用して正解できる部分集合と、表面的手がかりを利用しても解けない部分集合があるように、データセットを分割する。
我々は、表面的手がかりを、その利用可能性に基づいて、「文脈あり表面的手がかり」と「文脈なし表面的手がかり」の 2 つのカテゴリーに分ける。このように表面的手がかりを分けることで、タスクの種類を抽象化し、考えられているタスクに基づいて文脈を自由に定義することができる。例えば、機械読解や質問応答では、質問を解くために必要な関連する文書を文脈と定義することができるが、常識的な多肢選択式文章完成タスクでは質問を文脈と定義することができ、自然言語推論タスクでは前提を文脈と定義することができる。[14] が見つけた語彙的重複のような文脈あり表面的手がかりは、文脈があるときにしか利用できない。一方、[10] が見つけた正解の選択肢の中に「not」が含まれていることなどの文脈なし表面的手がかりは、タスクの関連する文脈がない場合に利用可能である。これまでの研究では、主に 1 種類の表面的手がかりのみを調査しており、ほとんどの研究が文脈なし表面的手がかりに焦点を当てていた $[11,13,10,12,15]$ 。本論文では、「あるモデルが表面的手がかりを利用するかどうか」という質問に答えるためには両方のタイプの表面的手がかりについて調査する必要があり、少なくとも 1 つのタイプの表面的手がかりを利用する場合にその答えは「Yes」であると主張する。
## 1.2 MNLI の表面的手がかり
文脈あり表面的手がかり:[14] は、MNLIにおいて3つの文脈あり表面的手がかり(語彙的重複、部分列、構成素)を特定した。これらの表面的手がかりは含意ラベルを予測する。部分列と構成素の表面的手がかりは、いずれも語彙的重複の特殊なケースである。これらの表面的手がかりに対抗するために、[14] は HANS データセットを作成し、表面的手がかりでは情報が得られないインスタンスを含んでいる。HANS データセットには、表面的手がかりを持つインスタンスも含まれており、これらのインスタンスで高い性能を発揮することで、表面的手がかりが利用されていることが確認できる。本論文では、HANS データセットを用いて、プロンプトモデルが文脈あり表面的手がかりを利用しているかどうかを評価する。
文脈なし表面的手がかり:プロンプトモデルが文脈なし表面的手がかりを利用する能力を調べるために、元のデータセットを文脈なし表面的手がかりを持つインスタンスと持たないインスタンスに分割し、仮説のみで RoBERTaヘッドモデルを訓練する。 この分析は、より性能の低いモデルを使用しているが、[11]によって行われたものと似ている。仮説が文脈なし表面的手がかりを持たない場合、モデルはランダムベースラインの精度(33\%)を超えることは期待できない。しかし、複数の RoBERTa モデルの平均精度は、ドメイン内事例で $90 \%$ 、ドメイン外事例で $90 \%$ \%達成しており、MNLI の文脈なし表面的手がかりはこれまで知られていたよりもはるかに悪いことが示されている(ドメイン内で 53.9 \%、ドメイン外で $52.3 \%$ [11])。この結果を受けて、デー タセットを表面的手がかりを持つインスタンスと持たないインスタンスに分けた。表面的手がかりを持つインスタンスは、文脈なしの設定で大多数のモデルが正しく予測したインスタンスを含んでいる。
## 1.3SNLIにおける表面的手がかり
文脈あり表面的手がかり:HANS データセットは MNLI の表面的手がかりに基づいて構築されているが、先行研究では、SNLIで訓練されたモデルのベンチマークとしても使用できることが示されている。先行研究に倣い、本研究では SNLI で学習されたプロンプトモデルを HANS データセットで評価する。
文脈なし表面的手がかり:SNLI において文脈な
し表面的手がかりを利用するプロンプトモデルの能力を調べるために、元のデータセットを文脈なし表面的手がかりを持つインスタンスと持たないインスタンスに分割した。また、MNLI で行ったように、RoBERTa ヘッドモデルを仮説のみで訓練する。仮説が文脈なし表面的手がかりを持たない場合、モデルはランダムベースラインの精度(33\%)を超えることは期待できない。しかし、RoBERTa の平均精度は 71.9\%であり、これは [11]が fastText[16] で得た結果を 4.9 ポイント上回っている。この結果を受けて、データセットを表面的手がかりを持つインスタンスと持たないインスタンスに分けた。表面的手がかりを持つインスタンスには、文脈なしの設定で大多数のモデルが正しく予測したインスタンスが含まれている。
## 1.4 COPA における表面的手がかり
文脈あり表面的手がかり:COPA における文脈な乙表面的手がかりはこれまでにも分析されているが [12]、文脈あり表面的手がかりはまだ分析されていない。共通のパターンを見つけるためにすべてのインスタンスを目視することは困難であり、エラー が発生しやすいことがわかる。文脈あり表面的手がかりを分析するために、我々はプロンプトモデルを採用し、表面的手がかりでしか解けないように入力を変更する。具体的には、答えの選択肢に含まれる単語をランダムに並び替えて、文として意味が通らないようにする。この設定では、インスタンスに表面的手がかりがない場合、モデルの性能はランダムべースラインの精度(50\%)に一致すると予想される。驚くべきことに、複数の RoBERTa モデルは、 $78 \%$ の平均精度を達成しており、文脈あり表面的手がかりが存在することを示している。この結果を受けて、データセットを、大多数のモデルが解答したインスタンスを含む表面的手がかりを持つ部分集合と、残りのすべてのインスタンスを含む表面的手がかりを持たない部分集合に分割した。
文脈なし表面的手がかり:[12]は、RoBERTaを用いて COPA における文脈なし表面的手がかりを特定した。彼らの分析は本研究と同一の設定であるため、本研究では再分析を行わず、彼らが公開しているデータセットの分割を使用する。
## 2 実験と結果
本論文の研究課題に答えるために、文脈あり表面的手がかりのあるデータセットと文脈なし表面的手がかりのあるデータセットでプロンプトモデルを評価する。表面的手がかりを利用しないモデルは、表面的手がかりがある場合とない場合の両方で同等の性能を発揮すると予想される。表面的手がかりがある場合の方が、表面的手がかりがない場合よりも高い性能を発揮するということは、そのモデルが表面的手がかりを利用していることを示している。
## 2.1 MNLI
文脈あり表面的手がかり:プロンプトモデルが文脈あり表面的手がかりを利用するかを確かめるために、MNLI 上で複数のプロンプトベースの RoBERTa モデルを学習し、HANS データセットの表面的手がかりを持つインスタンスと持たないインスタンスで評価した。表面的手がかりを利用しないモデルは、両方のインスタンスで同等の性能を発揮することが期待される。
表 1 によると、RoBERTa は表面的手がかりを持つインスタンスではかなりの性能を発揮するが、表面的手がかりを持たないインスタンスでは $50 \%$ のランダムな精度に達することができない。このモデルは 3 種類の表面的手がかりのすべてにおいて性能が低く、3 種類の表面的手がかり(語彙的重複、部分列、構成素)のいずれにおいても劣っている。この結果から、プロンプトモデルは表面的手がかりに依存しており、表面的手がかりのないインスタンスへの汎化に失敗していることがわかる。
文脈なし表面的手がかり:プロンプトモデルが文脈なし表面的手がかりも利用するかを確かめるために、MNLI 上で複数のプロンプトベースの RoBERTa モデルを学習し、文脈なし表面的手がかりがある場合とない場合のインスタンスで評価した。表面的手がかりを利用しないモデルであれば、表面的手がかりがある場合もない場合も、同等の性能が得られると考えられる。
表 1 によると、RoBERTa は表面的手がかりを持つインスタンスで、表面的手がかりを持たないインスタンスよりもかなり良い性能を示しており、モデルが文脈なし表面的手がかりを利用していることを示している。
表 1 MNLI(ドメイン内/ドメイン外)および SNLI における RoBERTa プロンプトモデルの精度。“w/Cues”の列は評価セットに表面的手がかりを含むか否かの二値を示す。
表 2 COPA における RoBERTa プロンプトモデルの精度。
## 2.2 SNLI
文脈あり表面的手がかり : プロンプトモデルが SNLI 上の文脈あり表面的手がかりを利用するかどうかを調査するために、SNLI 上でプロンプトモデルを訓練し、HANS データセットからの表面的手がかりを持つインスタンスと持たないインスタンスで評価する。このデータセットは MNLI 特有の表面的手がかりのために設計されたものだが、先行研究では表面的手がかりを利用する SNLI モデルを明らかにできることが示されている。
表 1 によると、RoBERTa は表面的手がかりを持つインスタンスではかなりの性能を発揮するが、表面的手がかりを持たないインスタンスでは同じ性能を達成できない。この高い分散はへッドモデルについて調査した先行研究で報告された分散と似ている。 SNLI で学習したモデルは MNLI モデルよりもはるかに良い性能を発揮するが、それでも性能は悪いままである。この結果はプロンプトモデルが文脈あり表面的手がかりを利用していることを示している。
文脈なし表面的手がかり : プロンプトモデルが SNLI 上で文脈なし表面的手がかりを利用する能力を調べるために、SNLIで学習し、文脈なし表面的手がかりを持つインスタンスと持たないインスタン
スで評価した。
表 1 によると、文脈なし表面的手がかりがある場合とない場合では精度に大きな差があり、プロンプトモデルが文脈なし表面的手がかりを利用することを示している。
## 2.3 COPA
文脈あり表面的手がかり : COPA データセットにおいてモデルが文脈あり表面的手がかりを利用しているかどうかを調べるために、8から 100 までの様々なサイズで訓練を行い、 1.4 節で説明されている文脈ありと文脈なし表面的手がかりを持つインスタンスで評価を行った。
表 2 によると、RoBERTa は、表面的手がかりを持つインスタンスで非常に優れた性能を発揮するが、表面的手がかりを持たないインスタンスでは $50 \%$ のランダムな精度をほとんど超えない。これは表面的手がかりに過度に依存し、表面的手がかりのないインスタンスへの汎化に失敗していることを示している。またこのモデルは文の意味に敏感ではないことも示されている。
文脈なし表面的手がかり:プロンプトモデルが COPA 上の文脈なし表面的手がかりを利用しているかどうかを調べるために、COPA データセットの 8 から 100 までの異なるサイズで RoBERTaを学習し、文脈なし表面的手がかりを持つインスタンスと持たないインスタンスで評価した。
表 2 は、 32 以下の小さい学習サイズでは RoBERTa が表面的手がかりを利用しないことを示している。 しかしサイズを大きくすると、文脈のない表面的手がかりを持つインスタンスと持たないインスタンスの間の性能の差がさらに大きくなる。このモデルが数ショットの設定で一般的に使用されるサイズにおいて、文脈なし表面的手がかりを利用しないことは心強いことである。
## 参考文献
[1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[2] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized BERT pretraining approach. CoRR, Vol. abs/1907.11692, , 2019.
[3] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In $\mathrm{H}$. Larochelle, M. Ranzato, R. Hadsell, M. F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Curran Associates, Inc., 2020.
[4] Timo Schick and Hinrich Schütze. Exploiting clozequestions for few-shot text classification and natural language inference. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 255-269, Online, April 2021. Association for Computational Linguistics.
[5] Timo Schick and Hinrich Schütze. It's not just size that matters: Small language models are also few-shot learners. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 2339-2352, Online, June 2021. Association for Computational Linguistics.
[6] Samuel R. Bowman, Gabor Angeli, Christopher Potts, and Christopher D. Manning. A large annotated corpus for learning natural language inference. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 632-642, Lisbon, Portugal, September 2015. Association for Computational Linguistics.
[7] Adina Williams, Nikita Nangia, and Samuel Bowman. A broad-coverage challenge corpus for sentence understanding through inference. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 1112-1122, New Orleans, Louisiana, June 2018. Association for Computational Linguistics.
[8] Melissa Roemmele, Cosmin Adrian Bejan, and Andrew S Gordon. Choice of plausible alternatives: An evaluation of commonsense causal reasoning. In AAAI Spring Symposium on Logical Formalizations of Commonsense Reasoning, Stanford University, 2011.
[9] Ivan Habernal, Henning Wachsmuth, Iryna Gurevych, and Benno Stein. SemEval-2018 task 12: The argument reasoning comprehension task. In Proceedings of The 12th International Workshop on Semantic Evaluation, pp. 763-772, New Orleans, Louisiana, June 2018. Association for Computational Linguistics.
[10] Timothy Niven and Hung-Yu Kao. Probing neural network comprehension of natural language arguments. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4658-4664, Florence, Italy, July 2019. Association for Computational Linguistics.
[11] Suchin Gururangan, Swabha Swayamdipta, Omer Levy, Roy Schwartz, Samuel Bowman, and Noah A. Smith. Annotation artifacts in natural language inference data. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), pp. 107-112, New Orleans, Louisiana, June 2018. Association for Computational Linguistics.
[12] Pride Kavumba, Naoya Inoue, Benjamin Heinzerling, Keshav Singh, Paul Reisert, and Kentaro Inui. When choosing plausible alternatives, clever hans can be clever. In Proceedings of the First Workshop on Commonsense Inference in Natural Language Processing, pp. 33-42, Hong Kong, China, November 2019. Association for Computational Linguistics.
[13] Adam Poliak, Jason Naradowsky, Aparajita Haldar, Rachel Rudinger, and Benjamin Van Durme. Hypothesis only baselines in natural language inference. In Proceedings of the Seventh Joint Conference on Lexical and Computational Semantics, pp. 180-191, New Orleans, Louisiana, June 2018. Association for Computational Linguistics.
[14] Tom McCoy, Ellie Pavlick, and Tal Linzen. Right for the wrong reasons: Diagnosing syntactic heuristics in natural language inference. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3428-3448, Florence, Italy, July 2019. Association for Computational Linguistics.
[15] Tal Schuster, Darsh Shah, Yun Jie Serene Yeo, Daniel Roberto Filizzola Ortiz, Enrico Santus, and Regina Barzilay. Towards debiasing fact verification models. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3410-3416, Hong Kong, China, November 2019. Association for Computational Linguistics.
[16] Armand Joulin, Edouard Grave, Piotr Bojanowski, and Tomas Mikolov. Bag of tricks for efficient text classification. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 2, Short Papers, pp. 427-431. Association for Computational Linguistics, April 2017. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E2-4.pdf | # 森羅 2021-LinkJP 結果の分析:BERT とルールベースの比較
野本昌子 1 宇佐美佑 ${ }^{2}$ 安藤まや 3 中山功太 ${ }^{1,4}$ 関根聡 1
1 理化学研究所 ${ }^{2}$ Usami LLC ${ }^{3}$ フリー 4 筑波大学
\{masako.nomoto, kouta.nakayama, satoshi.sekine\}@riken.jp, yu@usami.llc, maya@kzd.biglobe.ne.jp
## 概要
森羅プロジェクトでは説明可能な $\mathrm{AI} を$ 目指して Wikipediaの構造化を進めており,新しい取組みとして,日本語 Wikipediaを対象としたエンティティリンキングタスク (森羅 2021-LinkJP) を実施した. 記事中で見出しの属性の値を記述したテキスト (見出しが企業名の場合,本拠地の「東京」等)を対応する記事ページに紐付けるもので,9 システムが参加した. 全体の F1 の最高は 0.857 (ルールベース) で,カテゴリ別ではルールベースシステム,ルールベースと BERT を併用したシステムが上位であった。ルー ルベースと BERT 単独のシステムの性能と出力結果の比較分析を行い,各々の特徴を報告する。
## 1 はじめに
森羅 2021-LinkJP[1] は日本語 Wikipediaを対象にエンティティリンキングを行う,森羅プロジェクト [2] の新タスクである. 同プロジェクトでは Wikipedia の知識を機械可読な形に構造化するため,日本語 Wikipedia の記事から見出しのカテゴリ (企業名等) と属性の情報 (企業名の場合は本拠地-「東京」等) を抽出している. 本タスクでは属性の値として抽出されたテキスト (例:「東京」)を対応する Wikipedia 記事に紐付ける.
本稿では同タスクの結果の報告と,ルールベースと深層学習 (BERT) のシステムの性能と出力結果の比較分析を行い,各々の特徴を報告する。
## 2 タスク概要
本タスクの要点を以下に示す.
・(特徵 1 : 属性値リンキング) リンク元のテキストを含む Wikipedia 記事は 7 カテゴリ (人名,企業名等 $)^{1)}$ に分類され,カテゴリ毎の属性の情報 (人名の場合は国籍-「日本」,企業名の場合は本拠地-「東京」等) が抽出されている.記事中
1)拡張固有表現 [3] の 7 カテゴリ (Person, Company, City, Lake, Airport, Conference, Compound). 各カテゴリに対象属性が定義されている [1].
の属性值テキスト (「日本」,「東京」等) がメンション (紐付けを行う部分)である.
-(特徴 2:リンク対象の拡張) メンションと意味的に一致する記事がない場合, (a) 新名称の記事,(b) 部分-全体の関係にある記事,(c) 形態の異なる関連作品等の記事もリンク対象とする ${ }^{2}$.
・タスクデータはテストデータ $(19,321$ 件. リンク先存在率 $71.9 \% \%^{3)}$ ) と抽出元の Wikipedia デー タ,リンク先候補の Wikipedia データ,サンプルデータ (50 件/カテゴリ), 拡張固有表現 [3] の属性定義等である ${ }^{4)}$.
・評価はシステムの出力したリンク先が正解のリンク先 (複数) のいずれかに該当すれば正答とする ${ }^{5)}$. 評価指標は precision, recall, (micro averaged) F-measure を用いる.
## 3 タスク結果
タスクには 5 グループ 9 システムが参加した. BERT ベースが 2 システム,ルールベース (文字列一致や Wikipedia 記事の内部リンク等を利用) が 6 システム,両者を併用するものが 1 システムである.
参加システムの評価結果を表 1 に示す. micro average F1 は最高で 0.857(AIPRB:SMWL) である. ルールベースの AIPRB の 3 システム [5][6] と BERT にルールベースを組み合わせた NAIST baseline_plus_bert[7] は多くのカテゴリで F1 が高く,前者が 5 カテゴリ, 後者が 2 カテゴリでトップである. 全システムで F1 が低いのは Company である (macro average: 0.606).
次に各カテゴリ・属性の F1 を図 1 で見ると,全システムで F1 が低いのは Lake:構成する湖沼である. メンション 104 件中,リンク先が存在するものは 2
2)リンクの種類は (a)Later Name, (b)Part-of,(c)Derivation-of.
3)本稿では (リンク先が 1 つ以上存在するメンション数)/(全メンション数)を「リンク先存在率」と呼ぶ.
4)他にベースラインシステム [4] も公開しており,参加者はその他の外部データも利用可能である.
5)リンク先が存在しない場合,recall の評価対象には含めないが, precision の評価対象には含める (リンク先を出力した場合は誤答).
表 1 参加システムの評価結果(F1, precision, recall)
& city & company & compound & conference & lake & person & & prec. & recall & 説明 \\
図 1 参加システムの $\mathrm{F} 1$ (カテゴリ・属性別)
件だが,各システムは 28~104 件のリンク先を出力した. F1 の低いカテゴリ・属性のうち,他にリンク先存在率が特に低いものは City-地名の謂れ (0.032), Lake-名前の謂れ (0.034), Compound-特性 (0.085) で, これらは平均メンション長が長い6).
表 2 再帰リンクに関するカテゴリ・属性
& & 差分 \\
カテゴリ横断で $\mathrm{F} 1$ が低いものに別名等,再帰リンク (メンションを含む記事へのリンク) に関するカテゴリ・属性 (表 2)7)があり, AIPRB の 3 システムと NAIST:baseline_plus_bert のみが対応できている.
NAIST の baseline_plus_bert では BERT の前にルー ルベースの処理8)を行い,多くのカテゴリ・属性で
6)順に 54.1,45.1,24.54. 全体のマクロ平均は 9.84.
7) 本稿ではサンプルデータでの再帰リンク率 ((リンク先が再帰リンクのメンション数/リンク先の存在するメンション数) が 0.5 以上のカテゴリ・属性)を「再帰リンクに関するカテゴリ・属性」と呼ぶ.
8) entity 内のリンク, 再帰リンク, mention とタイトルの文字列完全一致.
F1 が向上しており,本タスクではルールベース等, BERT 以外の手法が有効な場合があると考えられる。
以下ではまず,ルールベースの AIPRB:SMWL(以下,AIPRB と略記)[5],[6] の構成モジュールの単体での性能とシステムの正答への貢献を確認し,次に, BERT ベースの NAIST:only_bert(以下,N-BERT と略記)[7] と AIPRB の性能と出力結果を比較し,各々の特徴を示す。
## 4 AIPRB のモジュールの性能と正解 への貢献
表 3 AIPRB の構成モジュールと性能
& & & & \\
AIPRB を構成するモジュール (slink(再帰リンク), $\operatorname{mint}($ 文字列マッチ), wlink(Wikipedia リンク), linkp(リンク確率)の単体での性能を表 3 に示す. 全体として recall が低く,F1の最高は $0.721(\mathrm{mint})$ にとどまる (AIPRB 全体では 0.857.).
各モジュールの AIPRB の正解出力 (11,943 件) への貢献を見るため, モジュール単体での正解出力数を図 2 に示す. mint は AIPRB の正解の 69.6\%, wlink は $69.4 \%$ で両者は重なりが大きい (AIPRB の正解の $60.4 \%$ ) が,併用することで AIPRB の正解の $84.5 \%$ が
図 2 AIPRB のモジュールの正解出力数カバーされる,一方,slink は単独での貢献は $13.7 \%$ だが,出力の $86.8 \%$ は他モジュールで代替できない.
次にカテゴリ・属性別の性能を図 3 で見ると,比較的多くのカテゴリ・属性で $\mathrm{F}$ 值が高いのは mint, wlink である. wlink で対応できないカテゴリ・属性のうち,別名,別称等,再帰リンク率が高い属性は slink でカバーできている.
## 5 BERT とルールベースの比較(カ テゴリ・属性別)
以下,カテゴリ・属性別に AIPRB と N-BERT の違いを見ていく.
## 5.1 ルールベースが優位のカテゴリ・属性
まず,AIPRB と N-BERT の F1 を図 3 で比較すると,前者が優位のカテゴリ・属性には再帰リンクに関するカテゴリ・属性 (表 2) が多い. AIPRB のみが正解したケースの $50.2 \%$ はメンションを含む記事にリンクするもので,N-BERT との差分については slink(再帰リンクモジュール) の貢献が大きい. slink はサンプルデータ中でのカテゴリ・属性の再帰リンク率を用いて再帰リンクの判定を行っている.
次に,上記の再帰リンクに関するもの以外で AIPRB が優位 ${ }^{9}$ のカテゴリ・属性を表 6 に示す.
AIPRB が正答し,N-BERT が正答できないケースの特徴を以下に示す。
・メンションと転送先のタイトルが一致する場合 (例: 新人選手選択会議-プロ野球ドラフト会議). AIPRB は転送情報も考慮して文字列マッチングを行っている (mint).
・メンション (地名, 住所等) の部分文字列に Wikipedia ページへのリンクがある場合 (例 : < チベット>の北部,東京都文京区<湯島>4-11-16,青森県くむつ市〉). AIPRB はメンションの一部に埋め込まれたリンクに対応している (wlink).
・カテゴリ・属性・メンションに対するリンク先がサンプルデータ中に存在している場合 (例:陸運業-運輸業). AIPRB はサンプルデータ中の
9) AIPRB の F 1 が 0.2 以上上回り,かつ,N-BERT の F 1 が比較的低い (0.6 以下) もの.
カテゴリ・属性・メンションのリンク確率を用いて正答できる場合がある (linkp).
以上のように,AIPRB のみが正答したケースでは,AIPRB がサンプルデータの統計情報 (再帰リンク率,リンク確率),転送情報,Wikipedia のリンク等,テキスト以外の情報を利用している場合が多い.
## 5.2 BERT が優位のカテゴリ・属性
次に N-BERT が優位のカテゴリ・属性 ${ }^{10)}$ (表 4) を見ると,N-BERT が正答し,AIPRB が正答できないケースはリンク先存在率が低く,平均メンション長の長いカテゴリ・属性 (Compound:特性,Compound製造方法,City-地名の謂れ,Lake-名前の謂れ) で,説明的な長いメンションの場合が多い. AIPRB にはリンク先の有無を推定して出力を制御する仕組みがないため,リンク先のない説明的な長いメンションであっても誤出力している。
## 6 BERT とルールベースの差分のそ の他の特徴
次に N-BERT と AIPRB の違いのその他の特徴を調べるため,(a)AIPRB のみが正解を出力したケー ス,(b)N-BERT のみが正解を出力したケースをリンクの種類とカテゴリ・属性により分類した結果を表 7 に示す.
(a)AIPRB のみが正解を出力したケース
約 67\%はメンションに match するぺージへのリンクで,特に多いのは再帰リンク率の高いカテゴリ・属性である ${ }^{11)}$
約 25\%は Part-Of(部分と全体) の関係にある,メンションに関する記述を含むぺージへのリンクで, City-合併市区町村と Person-作品はリストに現れるものが多い. City-合併市区町村は合併された市区町村で,合併後の行政区分にあたる,メンションを含む記事への再帰リンクが多い.93.5\%がリスト内に現れる ${ }^{12}$ ). Person-作品は作品の一部 (巻,放送回等) や関連作品等で,94.5\%がリスト中に現れる ${ }^{13)}$ 。 93.1\%が作品名へのリンクを含む.ただし,作品の放映リストでリストの下位に作品の放送回とタイトルの情報が列挙される等,リストの階層構造で作品の部分と全体の関係が表現される場合,AIPRB も正答できないケースがある.
10) N-BERT の F1 が AIPRB を 0.2 以上上回り,かつ,AIPRB の $\mathrm{F} 1$ が比較的低い (0.6 以下). ただし,頻度 10 未満は除く.
11) $\operatorname{match}(1,997$ 件) 全体の再帰リンク率は $61.2 \%$
12)リストの $65.6 \%$ 歴史,沿革等の項目の文のリスト, $34.5 \%$ は市区町村名を列挙した行政区分の変遷のリストや表
13)本文中のリスト $(91.7 \%)$ ,テンプレート中のリスト $(2.8 \%)$
図 3 AIPRB,構成モジュールと N-BERT の F1(カテゴリ・属性別)
& & \\
約 10\%は Later Name(新名称)のリンクで, Company過去の社名は本文よりリスト内がやや多い14).
(b)N-BERT のみが正解を出力したケース
全体として, Wikipedia リンクのないメンション ${ }^{15)}$ を同名タイトルに誤リンクするものが多い.
## 7 おわりに
森羅プロジェクトのエンティティリンキングタスク (森羅 2021-LinkJP) は 9 システムが参加し, 全体ではルールベースの AIPRB:SMWL(F1:0.857), カテゴリ別では同システムとルールベースと BERT を併用した NAIST:baseline_plus_bert がトップであった. ルールベースと BERT の手法の比較のため,ルールベースの AIPRB:SMWL(以下,AIPRB) と BERT ベー スの NAIST:only_bert(以下,N-BERT) のシステムの比較を行い,以下の知見が得られた。
AIPRB が優位なカテゴリ・属性は再帰リンクに関するカテゴリ・属性 (表 2) が多い. AIPRB のみが正解したケースも $50.2 \%$ は再帰リンクである.
AIPRB が優位なカテゴリ・属性で AIPRB のみが正答したケースでは,テキスト以外の情報 (統計情報,タイトルの転送情報,メンション内の Wikipedia リンク等)を用いるものが多く,テキストの情報の
みで BERT が正答するのは難しいと考えられる.
AIPRB のみ正解を出力したケース全体では別名等の再帰リンクが多いが,約 $25 \%$ は部分と全体の関係にある記事にリンクされ,リスト中に現れるものが多い (City-合併市区町村:93.5\%,人名-作品:94.5\%). ただし,作品の一部と作品全体の関係がリストの階層構造で表現される場合は AIPRB も正答できない場合があり,文書構造の利用は共通の課題である。
AIPRB のモジュールで同システムの正答に大きく貢献しているのは文字列マッチと Wikipedia リンクである (両者併用で $84.5 \%$ ). 一方,再帰リンクは単独での出力が多く $(86.8 \%)$, 他のモジュールで代替できない. N-BERT で対応できない部分を補う場合,再帰リンクの利用は必須と考える。
N-BERT が優位なカテゴリ・属性はリンク先存在率が低いカテゴリ・属性で,説明的な長いメンションが多い,リンク先が存在しない場合,N-BERT は出力しないケースが見られるが,AIPRB にはリンク先が存在するかどうかを推定して出力を制御する仕組みがないため, NIL prediction(リンク先が存在しない場合の推定) の追加が必要である.
AIPRB の今後の課題には上述の NIL prediction, 文書構造の利用に加えて,カテゴリ・属性,メンションの特徴等の条件に応じた最適なモジュールの組み合わせ,再帰リンクやリンク確率で用いる統計情報のデータの増強がある.
## 謝辞
本研究は JSPS 科研費 JP20269633 の助成を受けたものです.
## 参考文献
[1] 森羅 2021-LinkJP,(2022-1 閲覧). http://shinra-project. info/shinra2021linkjp/.
[2] 森羅プロジェクト, (2022-1 閲覧). http://shinra-project. info/.
[3] 拡張固有表現 ver8.1,(2022-1 閲覧). http://ene-project. info/ene8-1/.
[4] Wikilinks JP,(2022-1 閲覧). https://github.com/usami/ wikilinks-jp.
[5] 野本昌子. AIPRB/AIPCB at SHINRA2021-LinkJP -ルールベー スによるエンティティリンキング-, 2021. https://drive. google.com/file/d/1pwmvJbxCroTGbyvucgqVDRmy5frS5am6/.
[6] linkjpc, (2022-1 閲覧).https://github.com/nomotom/linkjpc.
[7] 氏家翔吾. 森羅 2021-LinkJP最終報告会, 2021. https://drive. google.com/file/d/1YULMaFnrzRMufa7G1DH6NYNAFUZOLVND/.
## A 付録 (Appendix)
表 5 F1 の低いカテゴリ・属性
& メンション-リンク先の例 \\
表 6 AIPRB が優位のカテゴリ・属性の例 (再帰リンクに関するカテゴリ・属性以外)
& & & & & slink & mint & wlink & linkp & AIPRB のみ TP の分類 & メンション-リンク先の例 \\
TP: 出力が正解 FP1: リンク先が存在する場合のシステムの誤出力, FP2: リンク先が存在しない場合のシステムの誤出力
表 7 AIPRB と N-BERT の正答の比較
} & match (371) & Person-所属組織 (36) & 日本代表 - サッカー日本代表 & & & & \\
TP: 出力が正解 slink, mint, wlink, linkp: モジュールの正解率 | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E2-5.pdf | # 日本語大規模ブログコーパス YACIS に基づいた ELECTRA 事前学習済み言語モデルの作成及び性能評価
柴田 祥伍 ${ }^{1}$, プタシンスキミハウ ${ }^{1}$, エロネンユーソ ${ }^{1}$, ノヴァコフスキカロル ${ }^{2}$, 栘井 文人 ${ }^{1}$
Shogo Shibata ${ }^{1}$, Michal Ptaszynski ${ }^{1}$, Juuso Eronen ${ }^{1}$, Karol Nowakowski ${ }^{2}$, Fumito Masui ${ }^{1}$
1 北見工業大学 テキスト情報処理研究室
Kitami Institute of Technology, Text Information Processing Laboratory
2 東北公益文科大学 Tohoku University of Community Service and Science
f1812201003@std.kitami-it.ac.jp \{michal,f-masui\}@mail.kitami-it.ac.jp
karol@koeki-u.ac.jp eronen.juuso@gmail.com
## 概要
本研究では現在最大規模の日本語ブログコーパス YACIS を用いて, 事前学習済み言語モデル ELECTRA を作成し,その性能評価について報告する。これまでの日本語向けの事前学習済み言語モデルは殆んど Wikipedia という記述文のみを含む言語資源を基に作成されてきたが,本研究においては口語的な文章の処理に焦点を当て事前学習にブログコーパスを用いる. 評価実験では,一般的な自然言語理解の課題の他に口語の処理が必要となるネットいじめ検出の課題にも応用し, YACIS-ELECTRA モデルの応用性について考察する。
## 1 はじめに
近年,ELMo[1], BERT[2], ELECTRA[3], RoBERTa[4]等, 事前学習済み言語モデル, そして特に Transformer 型ニューラルネットワーク [5] のアーキテクチャに基づいた大規模の事前学習済み言語モデルが, 様々な研究課題や実世界問題の解決に応用され実用性が実証されている.例えば,BERT モデルを応用することによって FAQ の適切な質問回答のペアを取得するため QA の関連性の計算が性能向上したことが確認されている [6]. また,BERT の応用によって日本語の構文解析の精度が向上されたことが確認されており [7]さらに,執筆期間が数十年離れた小説の同著者の判別にも応用されていることや [8], 知識ベースの自動拡張への成果も挙げられている [9].
事前学習済み言語モデルの有用性が複数の課題で確認されている一方,日本語用のモデルはまだ少数にあり,多様性に欠けている.数多くの事前学習済み言語モデルを共有しているライブラリである HuggingFace ${ }^{1)}$ 内で公開されている英語用モデルの数は執筆時点現在 5 千個近くある一方,日本語用のモデルは 182 個のみと少なく,音声や画像処理以外のテキストベースのモデルのほとんどが同様のテキストデータをもとに作成されており,日本語における事前学習済み言語モデル作成における多様性が沈滞していることが課題となっている.
具体的には,多くのモデルは,異なるアーキテクチャ(BERT, RoBERTa, ELCTRA, GPT-2 等)で作成
されているが,事前学習に用いられたデータにはほとんど Wikipedia とニュース記事と CommonCrawl コーパスのみのテキストデータをもとに作成されている。そのようなデータは,入手しやすい一方,多様性がないためモデルの性能へ影響が及ぼされている可能性がある。例えば,Wikipedia とニュース記事は日常言語の使用から離れたデータであり,すなわち記述文や説明文のみからなるデータが用いられるため,日常日本語を取り扱う課題に向かない可能性がある.
そのため,これらのモデルは典型的な名詞や動詞の間の係わりをつかむことは可能であるが,口語やスラング,砕けた言い方などのような日常的な言語を分析する場合は不向きである可能性が考えられる.これに起因して,モデル間の性能が似通っており明確に優れているモデルは提案されていない。さらに, 実世界の様々な課題に対して専門性・多様性のないモデルのみが提案されており,自然言語処理分野における様々な課題解決や全般的な発展を妨げている.
そこで,それらの課題を解決するために本研究では, 日本語の日常的表現を豊富に含む最大規模の日本語のブログコーパスである YACIS コーパス $[10,11]$ を元に新たに事前学習済み言語モデルを作成し,その性能評価を行う。また,性能評価では,一般的な自然言語推論の課題の他に,日常言語やスラングの適切な処理が必要となるネットいじめ検出の課題も用いる.
## 2 YACIS 大規模日本語 blog コーパス
事前学習用のデータとしては,YACIS コーパスを用いた $[10,11]$. YACIS コーパスとは,56 億語を含む現在最大規模の日本語ブログコーパスである. 2010 年に収集した YACIS コーパスは,アメバブログ $(\text { 略:アメブロ })^{2}$ から収集され,作成した際アメブロの $1 / 3$ を含んでいた. さらに,YACIS コーパスは多面的アノテーションされており [12,13],数多くの研究に応用されてきている. YACIS コーパスの元データ及びアノテーションは現在以下のページ3) にて 2022.4 以降に公開予定である.
事前学習用のデータを選択する際は,データのサイズと言語の多様性という 2 点に注目を置いた。まず,コーパスのサイズとしては,現在 Wikipedia 全体(全言語版)のサイズは,290 億語を含み4),その中日本語のみの記事は, 25 億語を含む5). YACIS は日本語 Wikipedia 全体より 2 倍以上大きいためそのまま事前学習に用いても十分と考えられる. さらに,言語の多様性に関しては,ほぼ説明文と記述文のみを含む Wikipedia と異なり,一般ユーザが毎日のように意見を表すブログ記事からなる YACIS は,日常的表現を豊富に含むため, 事前学習に用いた場合,日常的な表現やスラングなどの処理に強みがあることが考えられる。
具体的には YACIS には感情文:非感情文の比率は 2:1 である [11]ため, 感情に満ちた日常表現が豊富に含まれる。さらに Twitter にあるような文字制限のない言語資源(アメブロ)を基に収集されているためユーザが無理矢理に文字制限に合わせる中でメッセージが不自然かつ挑発的 [14] になる傾向はなく, 思い通りに表現するため Twitter のようなマイクロブログよりも自然な日本語が含まれると考えられる。
Wikipedia に対して YACIS を使う可能な不利点としては,前者は数多くの概念を含むため,自然言語理解及び推論の課題に向く可能性があるが,本研究ではそのことを実験的に確認する。
## 3 事前学習方法について
## 3.1 ELECTRA アーキテクチャについて
事前学習には ELECTRA のアーキテクチャを使用する. ELECTRA[3] は, 2018 年に提案された BERT[2] の事前学習アーキテクチャに基づき, 事前学習プロセスを最適化し改良した手法であり, 従来の改善手法である RoBERTa[4] の 1/4 の計算量で, 近い性能を出すことが可能である [3].
BERT をはじめこれまでの事前学習モデルでは,学習データにおけるトークンの一部が [MASK] という特別なトークン(隠しラベル)に置き換えられ,元のトークンは何のトークンであったかを予測させることによってモデルの事前学習を行う. しかし,[MASK] に置き換えられるのはトークンの一部(一般的には $15 \%$ \%) だけであり,モデルはその一部のトークンからしか学習できないため, 学習プロセスの効率が低い。それと違って ELECTRA では, BERT アーキテクチャに基づく小規模の生成モデル (Generator)と識別モデル(Discriminator)という二つのモデルが利用される。具体的には,入力文のトークンの一部を隠し,生成モデルが予測したトー クンに置き換える。 それから,各トークンに対して元のデータにあったか, それとも生成モデルによって生成されたか,Discriminator に識別させることで事前学習を行う.[MASK] に置き換えられた部分だけでなく, すべてのトークンに対して予測が行われるため, より効率的な学習が可能になる. その上, 事前学習にかかる時間を短くしても, 複数のデータセッ
4) https://en.wikipedia.org/wiki/Wikipedia:Size_comparisons
5) http://ja.wikicount.net表 1 事前学習モデルのサイズ.
トにて性能評価を行うための GLUE ベンチマーク [15](言語モデルにおける自然言語理解能力を評価するためのデータセット)を用いた評価によると性能が低下せず,むしろ向上したことが明らかになった.
これらの理由から,本研究では事前学習モデルには,ELECTRAを使用することにした。
## 3.2 事前学習用の設定について
ELECTRA 事前学習済みモデルを訓練する場合,従来研究で提案されているモデルのサイズが 3 種類あり ${ }^{6)}$ (表 1 参照), 今回は日本語用の ELECTRAを公開した Cinnamon AI Blog にて掲載された先行研究7) と比較するため, 最初は Small で学習を行うことを決定した. まずは学習時間を考慮しSmall で事前学習を行うことで,小規模のモデルを作成し,評価を実施した後,精度の向上が見込まれる Large モデルを用いた学習を予定している.
また, Small と Large の間となる Base サイズもあるが,Baseを学習しないことにした。その理由は, YACIS ブログコーパス内の文は, 500 単語(トークン)以上の文はノイズ扱いで削除され,256 単語より長い文も僅かである。上記を理由に,YACIS を使った場合, Small と Base の間は微量な精度向上しか期待できないため,Base モデルの学習は見送り,最終的に Small と Large のみを学習することにした。
## 3.3 事前学習モデル訓練の環境設定
初めに事前学習開始までの流れを把握するため,OpenWebTextCorpus ${ }^{8}$ を用いて, ローカル環境 (CPU:Intel Core i9-7920X,RAM:132GB,GPU:GeForce GTX1080Ti) で事前学習の試運転を行った.
ELECTRA とのバージョン違いによるエラーを回避するため,TensorFlow ${ }^{9}$ の G GPU 版バージョン 1.15 をダウンロードして利用した. 実行環境は最新版の場合,同じくバージョンによるエラーが発生するため,Python のバージョンを 3.6 とし, 学習用データ作成から事前学習の開始まで確認した10).
学習用データ (YACIS コーパス) は $32 \mathrm{~GB}$ あり, Small で事前学習を開始した場合約 7 日間かかるという想定が得られた。
## 3.4 語彙リスト作成
事前学習を行うためには,YACIS ブログコーパスから新たに語彙リストを作成する必要になった。語彙リストの作成には韓国語版 ELECTRA モデ
ルを公開している先行研究11)を参考に,Huggingface Tokenizerの機能を用いた語彙リスト作成用のプログラムを作成した。
先行研究7) との比較をより公平にするために語彙数を同じく 32,000 語とし, 特殊トークン (事前学習済み言語モデルが文を見分けるために用いるセパレータなど)を含む語彙リストを作成した。
## 3.5 学習用データの準備
上記で作成した語彙リストを利用し,YACIS ブログコーパスから学習用データを作成した. 作成には ELECTRA 本体にある学習用データ作成プログラム12)をハイパーパラメータをデフォルト6)のまま利用した. 元データとなる YACIS ブログコーパスのテキストデータは, 既に単語分割化及び文分割化などの前処理が行われているため, そのまま学習用デー タとして用いることができた。
## 3.6 事前学習プロセスについて
上記で作成した語彙リストと学習用データを用いて事前学習を開始した。
先行研究7) と比較するためモデルサイズを Small,埋め込み層を 128 , 語彙数を 32,000 に設定した. その他のハイパーパラメータについてはデフォルトのままである。13) また事前学習にはローカル環境で単一 GPU を使用した。
学習用データが $32 \mathrm{~GB}$ あるため, 試運転と同様に一週間強かかり, 正解値とモデルの予測値のズレの大きさ(英語:"Loss"「損失」)を算出する関数である損失関数(Loss function)のスコアのログを取りながら経過を観察した。損失関数は,
$
\min _{\theta_{G}, \theta_{D}} \sum_{x \in \mathcal{X}} L_{M L M}\left(x, \theta_{G}\right)+\lambda L_{D i s c}\left(x, \theta_{D}\right)
$
で表され, $x$ は入力される単語を表し, $L_{M L M}$ が Masked LM による [G]enerator 側の学習, $L_{\text {Disc }}$ がトー クンの真偽判定による [D]iscriminator 側の学習, $\lambda$ はハイパーパラメータとなっている.この関数の結果が Loss 関数スコアとして表示され 0 に近づくほど良い結果を表す.
7 日と 6 時間かけて, 単一GPUによる Small サイズの事前学習が終了した. 100 万ステップ学習し, 事前学習の目的関数 (loss 関数) は数日間 10 と 9 を前後しながら徐々に下がり 9 と 8 を前後するようになり, 最終的に学習が終了した時点で 8.7319 となった. Loss 関数値の動きを 1000 ステップごとにプロットし可視化したグラフを図 1 に表した。事前学習済みの YACIS-ELECTRA モデルは HuggingFace にて公開されており ${ }^{14)}$ ,今後の研究へ利用可能である.
11) https://github.com/monologg/KoELECTRA/blob/master/docs/ wordpiece_vocab_EN.md
12) https://github.com/google-research/electra/blob/master/ build_pretraining_dataset.py
13) https://github.com/google-research/electra/blob/master/ configure_pretraining.py
14) https://huggingface.co/ptaszynski/ yacis-electra-small-japanese
図 1 YACIS-ELECTRA-Small 事前学習中の損失関数変動
## 4 評価実験
事前学習が終了した後, 完成した事前学習済み言語モデルの性能評価を行なった。性能評価には 2 種類のデータセットを用いて,それぞれのデータセットの訓練セット部分をモデルの微調整に使い,テストセットを評価に使用し,2 段階(微調整 $\rightarrow$ 評価) で評価を行なった。
## 4.1 評価用データセット
## JSNLI データセット
まずは,モデルの総合的な自然言語推論能力を測るために,JSNLI データセット ${ }^{15}$ [16] を用いた. JSNLI データセットとは,英語の SNLI[17] データセットを日本語に翻訳したデータセットであり,標準として事前学習済み言語モデルの性能評価に用いられる。
データセットには,533,005 文ペアを含む訓練セットと,3,916文ペアのテストセットが含まれる. データセットが表す課題では,前提を表す文,仮説を表す文とその間の関連性を表すラベルがあり,モデルの評価には前提文・仮説文の関連性を当てる夕スクが与えられ,モデルの性能は正確率 (Accuracy) によって算出される。
## ネットいじめ検出データセット
総合的な自然言語推論能力の他, より要求性のある口語の処理への YACIS-ELECTRA の有用性を図るために,スラングや口語が豊富に含まれるネットいじめ検出用のデータセットを用いた。このデータセットは, (1) 松葉 [18] が学校非公式サイトから収集し,これまでに数多くのネットいじめ検出の研究 [19] に使われたデータセットと,(2) 荒田 [20] が新しくTwitter から収集した有害ツイートデータセッ卜を統合して作成した.データセット内の有害・非有害の事例はバランスをとった比率であり,訓練データには,有害 1,650 個,非有害 1,624 個,テストデータには,有害 411 個,非有害 409 個ある.
## 4.2 実験設定
上記の 2 つのデータセットを用いて, 本研究で事前学習を行った日本語 ELECTRA モデルの評価を行った。そこで,総合的な自然言語推論能力を JSNLI データセットで評価した. また,事前学習 15) https://nlp.ist.i.kyoto-u.ac.jp/index.php?日本語 SNLI(JSNLI) データセット
表 2 JSNLI 課題の結果.
表 3 ネットいじめ検出課題の結果.
& & & Acc & & & & & \\
に用いるデータの種類がどこまでモデルの専門性を強化するかを評価するには,ブログ記事を基に作成した YACIS-ELECTRA と Wikipedia で学習した Cinnamon-ELECTRA を比較した. また,それぞれのタスクを具体的に以下の通り実施した.JSNLI データセットを用いた実験では, YACIS-ELECTRA の他に,柴田らが提供した BERT 日本語 Pretrained モデル [7] ${ }^{16)}$ を用いた. JSNLI デー タセットを使った評価では,元の ELECTRA ${ }^{6}$ ) と提供されている正式な評価スクリプトを用いるためには,モデルのチェクポイント(事前学習終了前の状態)のファイルが必要なため,比較実験には,柴田ら [7] が提供した日本語 BERT モデル 3 種類のみが使用可能であった.
ネットいじめ検出データセットを用いた実験では,二項分類を行うための平凡のスクリプトを作成し,複数のモデルを比較した。具体的には, HuggingFace ライブラリに登録されている日本語 ELECTRA モデル 4 種類と日本語 BERT モデル 2 種類と比較を行った。また,我々以外のモデルの場合は,数回実験を繰り返した後のベストのスコアのみを報告し,YACIS-ELECTRA はベストおよびワーストスコア両方報告する。
## 4.3 実験結果と考察
JSNLI 課題の結果を表 2 に表す. BERT ベースのモデルには正確率の大きな違いは見られなかった. モデル作成者は全単語マスクモデル (Whole Word Masking, WWM) の方が精度が高い傾向があると報告しているがそれを確認することはできなかった. さらに, 関連研究 [16] では精度が 93\%を超えていることを報告しているが,その報告結果を再現することもできなかった. YACIS-ELECTRA-Small は $88 \%$ を超え,比較した中では最高結果となった。
さらに,ネットいじめ検出課題の結果17)を表 3 に示す. 結果に見られる傾向としては,同種類のモデ
ルの中では, Base モデルは Small モデルより結果が高かった. また, 同じく同種類の Large モデルが Base より結果が高かった. また,同サイズのモデルで,ELECTRAが BERT より高い結果を取得できた。 Small 級のモデルの中では, 提案の YACIS-ELECTRA が一番高い結果になった。ただし,微調整における出発時点のランダムサンプル及びパラメータによって結果には $5 \%$ ぼのの低下も見られ,微調整の設定が結果に大きな影響をすることが分かった。 また,特に Small 級のモデルでは YACIS-ELECTRA との違いは事前学習時のデータセット (YACIS vs Wikipedia)の 1 つだけであるため, 口語処理が必要とする課題における口語を含むデータセットの有用性を確認することができた。最高結果を取得したのは megagonlabs $の$ ELECTRA-Base であり, 事前学習には Wikipediaを使わず $\mathrm{mC4}$ データセット ${ }^{18)}$ のみを使い,アーキテクチャとしての ELECTRA の有用性を確証している。さらに megagonlabs 及び提案モデル以外は Wikipediaを使ったことから事前学習デー タとして Wikipedia は最適ではないことが示唆されている.
## 5 おわりに
本研究では,大規模日本語ブログコーパスを事前学習データとして用いて ELECTRA 事前学習済み言語モデルを作成した. モデル作成にブログを用いることで,口語の事前学習への有用性を確認でき,特に砕けた言い方やネットスラングの処理が必要とするタスクでの精度向上を確認できた。また,これまでは Small 級のモデルのみを作成, 評価してきたが今後は Large 級も作成する予定である.
今後の課題としては, 微調整時のランダムサンプ几の結果への影響を調査する必要がある。また,事前学習時のデータ種類や訓練データ内に使われる言語がどのように応用タスクで得られる結果に影響をするか,つまり事前学習済み言語モデルの普遍性よりも専門性に関するさらなる研究も必要である.
18) https://huggingface.co/datasets/mc4
## 謝辞
本研究にあたって色々と相談に乗っていただいた北海道大学のジェプカラファウ助教に感謝いたします。
## 参考文献
[1] Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, and Luke Zettlemoyer. Deep contextualized word representations. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 2227-2237, New Orleans, Louisiana, June 2018. Association for Computational Linguistics.
[2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert:pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018
[3] Kevin Clark, Minh-Thang Luong, Quoc V Le, and Christopher D Manning. Electra: Pre-training text encoders as discriminators rather than generators. arXiv preprint arXiv:2003.10555, 2020.
[4] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019.
[5] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. arXiv preprint arXiv:1706.03762, 2017.
[6] Wataru Sakata, Tomohide Shibata, Ribeka Tanaka, and Sadao Kurohashi. Faq retrieval using query-question similarity and bert-based query-answer relevance. In Proceedings of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval, pp. 1113-1116, 2019.
[7] 柴田知秀, 河原大輔, 黒橋禎夫. Bert による日本語構文解析の精度向上. 言語処理学会第 25 回年次大会, pp. 205-208, 2019.
[8] Jagna Nieuwazny, Karol Nowakowski, Michal Ptaszynski, and Fumito Masui. Can you fool ai by doing a $180 ?$ - a case study on authorship analysis of texts by arata osada. Information Processing \& Management, Vol. 58, No. 5, p. 102644, 2021
[9] Rzepka Rafal, Takishita Sho, and Araki Kenji. Bacteria lingualis on bertoids - concept expansion for cognitive architectures. 人工知能学会第二種研究会資料, No. AGI-014, p. 10, 2020.
[10] Jacek Maciejewski, Michal Ptaszynski, and Pawel Dybala. Developing a large-scale corpus for natural language processing and emotion processing research in japanese. In Proceedings of the International Workshop on Modern Science and Technology (IWMST), pp. 192-195, 2010.
[11] Michal Ptaszynski, Pawel Dybala, Rafal Rzepka, Kenji Araki, and Yoshio Momouchi. Yacis: A five-billion-word corpus of japanese blogs fully annotated with syntactic and affective information. In Proc. of the AISB/IACAP world congress, pp. 40-49, 2012.
[12] Michal Ptaszynski, Rafal Rzepka, Kenji Araki, and Yoshio Momouchi. Automatically annotating a five-billion-word corpus of japanese blogs for sentiment and affect analysis. Computer Speech \& Language, Vol. 28, No. 1, pp. 3855,2014
[13] Michal Ptaszynski, Yoshio Momouchi, Jacek Maciejewski, Pawel Dybala, Rafal Rzepka, and Kenji Araki. Annotating japanese blogs with syntactic and affective information. In Mining User Generated Content, pp. 229-262. Chapman and $\mathrm{Hall/CRC}, 2014$.
[14] Sarita Yardi and Danah Boyd. Dynamic debates: An analysis of group polarization over time on twitter. Bulletin of science, technology \& society, Vol. 30, No. 5, pp. 316-327, 2010.
[15] Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel R Bowman. Glue: A multitask benchmark and analysis platform for natural language understanding. arXiv preprint arXiv:1804.07461, 2018.
[16] 吉越卓見, 河原大輔, 黒橋禎夫ほか. 機械翻訳を用いた自然言語推論データセットの多言語化. 研究報告自然言語処理 (NL), Vol. 2020, No. 6, pp. 1-8, 2020.
[17] Samuel R Bowman, Gabor Angeli, Christopher Potts, and Christopher D Manning. A large annotated corpus for learning natural language inference. arXiv preprint arXiv:1508.05326, 2015.
[18] 松葉達明, 里見尚宏, 栘井文人, 河合敦夫, 井須尚紀.学校非公式サイトにおりる有害情報検出. 電子情報通信学会技術研究報告. NLC, 言語理解とコミュニケーション, Vol. 109, No. 142, pp. 93-98, 2009.
[19] Michal E Ptaszynski and Fumito Masui. Automatic Cyberbullying Detection: Emerging Research and Opportunities: Emerging Research and Opportunities. IGI Global, 2018
[20] Masaki Arata. Study on change of detection accuracy over time in cyberbullying detection. Master's thesis, Kitami Institute of Technology, Dept. of Computer Science, 2019. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E3-1.pdf | # 文法誤り訂正への訂正重要度の導入
永田亮 ${ }^{1}$ 高村大也 ${ }^{2}$
1 甲南大学 2 産業技術総合研究所
nagata-nlp2022 @ hyogo-u.ac.jp., takamura.hiroya@aist.go.jp
## 概要
本稿では,文法誤り訂正における訂正の重要度を定量化することを試みる.具体的には,書き手の意図が正しく伝わるかどうかという観点で訂正の重要度を定量化する手法を提案する。提案手法を作例と学習者コーパスに適用し,有効性と改善すべき点を議論する。
## 1 はじめに
文法誤りには様々なものが存在するため,訂正の目的に応じて,文法誤り訂正の重要度を定量化できることは有益である.本稿では,書き手の意図が正確に伝わるということを重視して,訂正の重要度を定量化することを試みる.具体的には,訂正前後で伝わる意味の差異が大きいほど重要な訂正とみなすような重要度を定量化する方法を提案する。このように定義された訂正の重要度は, 語学学習に応用できる可能性がある.例えば,書き手の意図の伝達を大きく阻害する誤りを率先して訂正し, 学習者に提示するような応用が考えられる. また,訂正の重要度で各誤りを重みづけて誤り訂正システムの性能を評価するという応用にもつながる.
本稿では,次のような非常にシンプルなアイデアに基いて訂正の重要度を定量化する。深層学習べー スの言語モデルを用いると文中の単語をべクトル (分散表現)に変換できる.分散表現は,単語の文中での意味を表すとみなせる1).したがって,訂正前後の単語それぞれから分散表現を得て,その差異を測ることで意味のズレを定量化する。このズレが,上述の「意味の差異」に対応するとする.
このようなアイデアに基づいた提案手法の有効性を作例と学習者コーパスを用いて吟味する。例え
ば,この手法は,"He read $a \rightarrow \phi$ books."という訂正2) は “He read $a n \rightarrow a$ book.” よりも重要と判定する. ただし,3節で述べるように,このシンプルなアイデアそのままでは,いくつかの問題が生じるため,本稿では,その解決方法も議論する。
## 2 関連研究
誤り訂正の重要度に関連した知見に「自然な習得順序」という仮説がある.この仮説は,第二言語習得では,学習者に共通する習得順序があると主張する。逆に言えば,順序を入れ替えて新たな項目を習得できないと解釈できる。この仮説が正しいとすると,次に習得される項目に関する誤りを訂正することが重要となる。しかしながら,この仮説を支持/否定する両方の研究成果があり,どちらが正しいのかということは未解決問題である (これらの研究については,文献 [1]が詳しい).
文法誤り検出/訂正システムの評価を目的とした,訂正難易度の定量化 [2] や誤り情報の信頼性推定 [3] に関する研究もある. 訂正難易度や誤り情報の信頼性はある種の重要度と解釈することもできるが,本研究で目指す書き手の意図が正確に伝わるということを考慮する訂正の重要度とは異なる。
## 3 訂正重要度の定量化手法
訂正前後の意味を分散表現として表すことが提案手法の基礎となる.以降では,訂正前後に対応する分散表現をべクトル $\boldsymbol{e}$ と $\boldsymbol{c}$ でそれぞれ表記する. この $\boldsymbol{e}$ とが,訂正前後の文の意味を精度よく表現していれば, $\boldsymbol{e}$ と $\boldsymbol{c}$ の差異に基いて, 1 節で述べた訂正の重要度を定量化できる. 二つのベクトルの差異は,ベクトル間の余弦類似度で定量化することが多く,本稿でも採択する。ただし,值が高いほど重要であるという尺度にするために,1 から余弦類似度を引いた値を訂正の重要度とする。
2)矢印前後で訂正前後の単語列を表している. また, $\phi$ は空単語で,単語の削除(と追加)を表すのに使用する.
ここで問題となるのは, $\boldsymbol{e}$ とをどのように得るかということである. 様々な方法が考えられるが,本稿では,次の二つの方法を検討する。基本的に,言語モデル(具体的には BERT)から得られる分散表現を用いる.
一つ目の方法では, 単語の分散表現を $e, c$ とする. 具体的には,(1)訂正前後の文をそれぞれ独立に BERT に入力し,最終層の出力を得る,(2)出力として得られる分散表現のうち訂正前後の単語列に対応するものを,それぞれ $\boldsymbol{e}, \boldsymbol{c}$ とする. ただし,複数の単語からなる単語列の場合は平均をとる. このようにして得られた分散表現間の余弦類似度は訂正前後の単語列が表す意味の差に対応すると解釈できる.
この方法は直感的ではあるが,余剩誤りと抜け誤りの場合に問題が生じる。例えば,“We know about $\rightarrow \phi$ the issue.”では単語 about が余剰であり,訂正文では削除されている.このように削除された単語列については, どのように分散表現を求めたらよいかは自明ではない,同様のことが,抜けの誤りの場合に訂正前の文で起こる。本稿では,余剩/抜け単語の左右の単語に対する分散表現の平均をとることとする.
二つ目の方法は,この問題をより直接的に解決する. BERTでは, 一文全体に対応する分散表現が得られる。すなわち,特殊トークン [CLS] に対応する分散表現を $\boldsymbol{e}$ と $\boldsymbol{c}$ とす. ただし, 個々の訂正の重要度を定量化するために,一文内に複数の誤りがある場合でも,一度に訂正する誤りは一つとする。この方法では, 訂正前後の単語列に直接着目するのではなく, 訂正前後で文全体の意味がどのように変化したかに基いて訂正の重要度を定量化する。
以上の通り,提案手法では,訂正前後の情報から得られるべクトル $\boldsymbol{e}$ と $\boldsymbol{c}$ に基いて訂正の重要度を定量化しようとする. 仮に, $\boldsymbol{e}$ や $\boldsymbol{c}$ で単語や文の意味を表すことができるとして,訂正前の文が表す意味とは何かという問題が生じる. 例えば, “He read an book." というのは非標準であり,意味をなさないと主張することもできる. 逆に,訂正できるということは, 訂正前の文でも訂正後の文と同じ意味が伝わると主張することもできる. 提案手法では,次のような仮定と近似を暗に行っている。まず,誤りを含む文が表す仮想的な意味が存在し,空間内のある一点に対応づけられると仮定している. 同様に,訂正された文の意味も同一空間内の点に対応付けられ
ると仮定している。(この二点間が十分に近い場合,人間は前者から後者を特定できるが),提案手法では,この二点間の差異を近似的に訂正の重要度としていると解釈できる。
## 4 使用データ
提案手法の有効性を定性的に分析するために内省に基いて訂正の重要度が異なる例文を作成した。表 1 に結果を示す. 表 1 では, 訂正のカテゴリごとに作例を区分けし,訂正の重要度が高いと思われる順に並べている.カテゴリと重要度の並べ替えの詳細は付録 $\mathrm{A}$ に示す通りである。
作例に加えて,二種類の学習者コーパスも用いた. 一つ目は, CoNLL-2013 Shared Task [4] のテストデータとした. 分析の容易さを考えて,限定詞,名詞の数, 主語動詞の一致, 前置詞, 動詞の形態に関する 5 種類の誤りのみがアノテーションされたものを用いた。二つ目は,ICNALE [5] に,独自に誤り情報を付与した 1,894 文を用いた。誤り体系 [6](20 種の誤り)を用いた。
## 5 訂正重要度の定性分析
## 5.1 作例を対象にした場合
表 1 の作例に対して,提案手法を適用して訂正の重要度を求めた. 表の第 $3 , 4$ カラムが文ベースの手法と単語べースの手法の結果にそれぞれ対応する. 括弧内の数は,内省の順位との差を表す。
文ベースの手法の結果は内省の結果に非常に類似する.異なるのは動詞に関する誤りのみである。内省では, listened to と heard とで表す意味が異なるため重要度が一番高いとしたが,提案手法ではカテゴリ内でもっとも重要度が低くなっている. 訂正前後とも文法的には正しく,また,「聞く」という基本の意味は共通するため重要度が低くなった可能性がある. 他のカテゴリについては, 内省による重要度順と同一である. 例えば,直感的には, $a \rightarrow \phi$ books と a books $\rightarrow$ book は同程度重要と感じられるが,推定された重要度も類似した値になっている(ただし,重要度の差異をどのように解釈すべきかは別の問題であり注意が必要である).また, “We discussed about $\rightarrow \phi$ the issue.” は, 重要度はカテゴリ内で最も低い. 確かに,この誤りは意味が伝わるという観点からは致命的な誤りでないともいえる。もちろん,母語話者らしい英語という観点からは重要な訂正で
表 1 内省に基いて作成した例文と訂正重要度の推定結果.
} & He read $\mathrm{a} \rightarrow \phi$ books. & $0.030(0)$ & $0.586(0)$ \\
あるが,ここで強調したいのは,このように訂正の重要度を定量化することで文法誤り訂正を新しい観点から議論できる可能性があるということである.
一方,単語ベースの手法では順位の入れ替わりが散見される. 特に余剩の誤りの訂正が重要とみなされる傾向にある. 例えば,“He read $a \rightarrow \phi$ books." が全訂正中で最も重要度が高い。これは, 3 節で述べたように余剩/抜け誤りでは, 比較する単語に問題があることに起因する。この例では, a と read books に対する分散表現を比較している。この比較は直感に合わず,改善の余地がある.この点において,文の分散表現に基いた手法のほうがより自然に訂正の重要度を定量化しているといえる。このことを考慮して,以降では文べースの手法の結果を報告する。
## 5.2 学習者コーパスを対象にした場合
表 2 に,CoNLL-2013 における重要度の上位/下位 5 件を示す3).なお,学習者コーパスを対象にした場合は,一文中に複数の誤りが含まれる場合があり,表 2 も含めて,以降の結果では,一見適切でないように思える訂正もあることに注意されたい. 例えば,表 2 の最終行は,全体として, a problem of the health of the $\rightarrow$ an unhealthy society と訂正されている.
表 2 では,大きな傾向としては,冠詞と名詞の数に関する誤りが最も重要と認識されている。特に,定冠詞の有無は,一般への言及(2,4 行目)と特定物への言及(1,5 行目)という違いがあり,伝わる意味を大きく左右することが多い. このことを(少なくとも表 2 の範囲で)定量化結果は反映している. 逆に, 主語動詞の一致, 前置詞の誤りは重要度
3)表 2 では,重要度が 0 と表記されているものもあるが,厳密には 0 ではなくごく小さい值を丸めた結果である. が低い。例えば,available for $\rightarrow$ to の重要度は最も低い部類であるが,for でも書き手の意図は十分に伝わる. また,冠詞の誤りであっても,a/an の使い分けについては重要度は低い,ただし,上の議論で重要度が高いと分析した訂正(例: 名詞の単複)でも重要度が低いと認識されている例もある。これは後述するように,文長が影響している可能性がある.
表 3 に,ICNALEを対象にした場合の上位 10 件を示す (紙面の関係から, 下位 10 件は付録 B に示す). この結果も,表 2 と同じような傾向を見て取ることができる. 加えて,文意において重要な役割を果たす要素 (主語, 目的語, 接続詞) が上位に来ている. また,could の有無から生じる差異を捉えているところも興味深い。
以上の結果を要約すると,提案手法は,誤りのために書き手の意図とは異なる意味が伝わる,または,複数の解釈が生じる(例: a books; a book か books で曖昧)ケースを重要であるとみなす傾向にある。一方,a/an の使い分けや主語動詞の不一致など形式的な誤りは重要度を低く見積もる. どちらのケースがより重要かは目的によるが,意味が伝わるということを重視した場合は,提案手法には所望の重要度を定量化できる可能性がある. しかしながら,提案手法は非常にシンプルなアイデアに基づいているため,いくつかの改善すべき点がある. 6 節でこの点について考察する。
## 6 提案手法の改善すべき点
前節までに示した定量化の結果をみると,重要度が上位の文は文長が短くなる傾向にあることがわかる.これは,文が長くなるにつれて,一つの誤りが文全体の意味に及ぼす影響が小さくなるためと予想できる. すなわち,訂正前後の文長が重要度に影響
表 2 CoNLL-2013(5 種類の誤りタイプ)における訂正重要度(上位/下位 5 件).
表 3 ICNALE における訂正重要度(上位 10 件).
する可能性がある.同様に,(今回の結果には顕著には見られないが),訂正前後の単語列の長さも影響を及ぼす可能性がある。
また別の問題として,一文中にいくつの誤りが存在するかということもある. 提案手法では,一度に一つの誤りのみを訂正して重要度を算出しているが,このことは理論上,次の問題を引き起こす可能性がある。例えば,表 2 の 7 行目や最終行のように,一度に一つの誤りのみを訂正すると,不自然な文となる場合がある。このような不自然な文と原文を比較して得られる余弦類似度の差異は,伝わる意味の差異に適切に対応しない可能性が高い。また,一文中の誤りの数が増えると文全体としての意味の差異は大きくなると予想されるが,全体としての差異をどのように個々の誤りに還元するかということも問題になる. 更に,このことは,誤りの単位をどのように設定するかという別の問題にもつながる.例えば, the books a book に訂正した場合,誤り数 2 (冠詞と名詞の数の誤り)とすることも,全体と
して1つとすることもできる.この例では,直感的には全体として一つの誤りとして重要度を定量化すればよいように思われるが,別の例ではその限りではない (例:the book has を the books have に訂正した場合)。
以上をまとめると,提案手法には,少なくとも次の 3 つの改善すべき点があるといえる:
1. 訂正前後の文長から受ける影響の低減
2. 訂正前後の単語列の長さから受ける影響の低減
3. 複数の誤りの取り扱い
より実用的な訂正重要度の実現のためには,これらの要因について調整が必要である. 例えば,文長や訂正前後の単語列の長さで正規化することなどが考えられる ${ }^{4)}$.また,複数の誤りの取り扱いについては,連続した誤りを一つにまとめ,訂正前後とも訂正箇所の左右の単語に対応する分散表現を使用することなどが考えられる.更に,推定された訂正の重要度をどのように定量評価するかというのも今後の課題となる.
## 7 おわりに
本稿では,文法誤り訂正に,訂正の重要度という新たな観点を導入した. 訂正前後の文から得られる分散表現に基いて訂正の重要度を定量化する手法を提案した。作例および実際の学習者コーパスに適用し,有効性と改善すべき点を議論した.定性分析の結果,定量化された訂正の重要度は直感に合う部分も見られたが,実用のためには,改善すべき点があることも確認された。
4)試しに,訂正後の文長を対数にしたもので正規化したところ,正規化の影響が強すぎる傾向がみられた。
## 謝辞
本研究は JSPS 科研費 $18 K 11456$ の助成を受けたも
のである.
## 参考文献
[1] 白畑知彦. 英語指導における効果的な誤り訂正. 大修館書店, 東京, 2015.
[2] Takumi Gotou, Ryo Nagata, Masato Mita, and Kazuaki Hanawa. Taking the correction difficulty into account in grammatical error correction evaluation. In Proc. of 28th International Conference on Computational Linguistics, pp. 2085-2095, 2020.
[3] Nitin Madnani, Martin Chodorow, Joel Tetreault, and Alla Rozovskaya. They can help: Using crowdsourcing to improve the evaluation of grammatical error detection systems. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 508-513, 2011.
[4] Hwee Tou Ng, Siew Mei Wu, Yuanbin Wu, Christian Hadiwinoto, and Joel Tetreault. The CoNLL-2013 shared task on grammatical error correction. In Proc. 17th Conference on Computational Natural Language Learning: Shared Task, pp. 1-12, 2013.
[5] Shinichiro Ishikawa. A new horizon in learner corpus studies: The aim of the ICNALE project, pp. 3-11. University of Strathclyde Publishing, Glasgow, 2011.
[6] Ryo Nagata, Edward Whittaker, and Vera Sheinman. Creating a manually error-tagged and shallow-parsed learner corpus. In Proc. of 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 1210-1219, 2011.
## A 作例の詳細
内省に基いて作成した作例の詳細を示す. 表 1 では,作例を誤りのカテゴリ(動詞,限定詞/数,前置詞)に区分けし,直感に基いて訂正の重要度順に並べている。
「動詞」では, listened to と heard とで表す意味が異なるため重要度が一番高いとした. また, 二行目は動詞の意味は同じであるが,現在/過去の違いを考慮し二番目に高いとした. 最後の例は,表す意味はほぼ同じと予想し,一番重要度が低いとした。
「限定詞/数」における最初の二例は,訂正前後で伝わる意味の差異は同じ程度と考えられるが,表の上では同順位が表せないため,便宜上この順で表している。一方,最後の例は $\mathrm{a}$ と an の使い分けに関する誤りであり,伝わる意味にほとんど差異がない. したがって,先の二例より重要度は低いとした。
「前置詞」における最初の例は,about $\rightarrow \phi$ では 「知っている」という基本の意味は共通するが訂正前後でニュアンスが異なるため最も重要度が高いとした. 残り二例は最初の例と異なり文脈や意図とは関係なく常に誤りである。二つ目の例 agrees $\phi \rightarrow$ to は, to 以外にも訂正候補が考えられる。一方,三つ目の例 “We discussed about $\rightarrow \phi$ the issue.” については (前置詞の訂正としては)aboutを削除する方法以外は訂正候補がない,言い換えれば,前後の単語から about が必要がないことがほぼ確定することから, このような重要度順とした。
## B ICNALE における結果の詳細
表 4 に,ICNALE を対象にして訂正の重要度を定量化した下位 10 件を示す. ただし,独自に訂正情
表 4 ICNALE を対象にした訂正重要度(下位 10 件)。
| NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E3-2.pdf | # 根拠箇所に基づく自動採点結果の説明
佐藤 汰亮 ${ }^{1,2}$ 舟山 弘晃 ${ }^{1,2}$ 塙 一晃 ${ }^{1,2}$ 浅妻佑弥 ${ }^{1}$ 乾 健太郎 1,2
1 東北大学 2 理化学研究所
\{tasuku.sato.p6, h.funa, asazuma.yuya.r7\}@dc.tohoku.ac.jp
inui@tohoku.ac.jp
kazuaki . hanawa@riken.jp
## 概要
深層学習の進歩に伴い,自動採点の性能は向上した.しかし,深層学習モデルは内部挙動がブラックボックスであるため,採点の根拠を説明できない.本研究では,根拠箇所提示問題のタスクを説明性の観点から再定義し, 複数の損失関数と複数の根拠箇所提示手法の組み合わせで複数パターンの実験を行い,説明性の高い根拠箇所提示手法を確かめた. 実験により,自動採点の分野では注意重みは最も妥当性が高く,勾配を用いた手法と同程度に忠実性が高いことがわかった. また, Integrated Gradients は最も忠実性が高く, 注意重みと同程度に妥当性が高いことがわかった. ここから,自動採点の分野では,説明性における妥当性と忠実性,どちらの観点を重要視するかを元に根拠箇所提示手法を使い分けることが重要であることがわかった.
## 1 はじめに
自動採点とは,ある設問に解答した答案に対し,自動で得点を付与するタスクである. 図 1 に例を示す. 自動採点は,教師の採点労働を軽減できることや,人手による採点ブレがなく,公正な採点を行えることから, 教育現場での需要があり, 研究が行われている $[1,2,3]$. また, 答案に対して即時にフィー ドバックを返せることから,自学学習のためのオンラインツールとしての実応用化が進んでいる [4].
深層学習の進歩に伴い, 自動採点の性能は向上した $[1,2,3]$. しかし, 深層学習モデルは内部挙動がブラックボックスであり,採点の根拠を説明できない. 自動採点の分野では採点基準が厳密に定まっているため,モデルが採点の根拠を説明できないことはユーザの不信感につながる. また開発者としても,採点の根拠を説明できないモデルはデバッグを難解にする.以上の観点から,採点根拠の説明性は採点性能と同等に重要な要素である。
深層学習モデルの意思決定を人間が解釈できる形で提示することは,法律や医療など,様々な分野で重要視されている [5, 6]. このような性質を説明性と呼ぶ. 説明性の高いモデルの需要は高まっており, XAI [7] の文脈で活発に研究が行われている.
Jacovi ら [8] は, 説明性を妥当性 (plausibility) と忠実性(sufficiency)の2つの観点でまとめている.妥当性とは,予測に対する説明が,人間にとってどの程度納得のいくものであるかを表す概念である.忠実性とは,予測に対する説明が,モデルの予測過程をどの程度反映しているかを表す概念である。
Mizumoto ら [2] は,自動採点における得点予測根拠の提示性能を評価するため,根拠箇所提示問題 (2 節参照)を定義した.彼らは,注意層を根拠箇所ラベルで教師あり学習するモデルとしないモデル(3.4 節参照)を比較した結果,前者は後者と比較し,根拠箇所提示性能が高いことを示した。
しかし Mizumoto ら [2] は, 根拠箇所提示手法を真の根拠箇所との一致度 (妥当性) のみで評価しており,忠実性に対する評価を行っていない。また,根拠ラベルを用いた学習手法や根拠箇所提示手法が複数考えられる中,彼らは一つの手法のみを取り上げており,十分な評価が行われているとはいえない。
本研究では, Mizumoto ら [2] による根拠箇所提示問題のタスクを,説明性 [8] の観点から再定義した.また,複数の損失関数と複数の根拠箇所提示手法の組み合わせで複数パターンの実験を行い,説明性の高い根拠箇所提示手法を確かめた. 実験の結果,注意重みは最も妥当性が高く,勾配を用いた手法と同程度に忠実性が高いことがわかった. また Integrated Gradients は最も忠実性が高く, 注意重みと同程度に妥当性が高いことがわかった. 以上のことから,自動採点においては,説明性のどの観点を重要視するのかによって根拠箇所提示手法を選択す
図 1 自動採点のタスク概要図. 答案中の下線部は根拠箇所であり,採点基準の情報を包含した箇所を表す.
ることが重要であることがわかった.
## 2 問題設定
本研究では,自動採点における根拠箇所提示問題に取り組む.
まず自動採点とは,答案 $\boldsymbol{x}=\left(x_{1}, x_{2}, \ldots, x_{t}\right)$ に対し, その得点 $s \in\{0,1, \ldots, S\}$ を出力するタスクである. ここで, $x_{t}$ は $t$ 番目の単語, $S$ は配点である. また,一つの設問に対して複数の採点項目が存在し,各採点項目の配点の合計点がその答案の得点となる. 採点性能は QWK [9]によって測る.
根拠箇所提示問題とは,入力答案 $\boldsymbol{x}$ において,得点予測の根拠箇所ラベル $\boldsymbol{r}=\left(r_{1}, r_{2}, \ldots, r_{t}\right), r_{t} \in\{0,1\}$ を提示するタスクである. ここで, $r_{t}=1$ のとき,単語 $x_{t}$ が根拠箇所とみなされる. モデルから任意の方法で生成された特徴マップを $\boldsymbol{f}=\left(f_{1}, f_{2}, \ldots, f_{t}\right)$, $0<f_{t}<1, \sum \boldsymbol{f}=1$, その最大値を $f_{\text {max }}$, 閾值を $h \in\{a \in R \mid 0 \leq a \leq 1\}$ とすると, $r_{t}$ は $f_{\text {max }}-f_{t}<h$ のとき 1 ,それ以外は 0 である.
生成された根拠箇所は,妥当性と忠実性 [8] の観点から評価を行う. 詳細は 3.5 節で述べる.
## 3 実験設定
本研究では,複数の損失関数と複数の根拠箇所提示手法の組み合わせで複数パターンの実験を行い,最も説明性の高い根拠箇所提示手法を確かめる.
## 3.1 データセット
本実験では,2022 年 2 月に公開を予定している, NII 国立研究所理研記述問題採点データセット第 2
述した答案テキストと,採点者によって付与された得点及び,その得点を付与した根拠となる根拠箇所
る. https://www.nii.ac.jp/dsc/idr/rdata/RIKEN-SAA/
の 3 つ組で構成されている. 各設問には複数の採点項目が存在し,それぞれの項目毎にアノテーションが付与されている,今回は,採点項目ごとに独立してモデルを学習し,評価を行う。
このデータセットにおける自動採点は加点式の情報包含問題であるため,0 点答案には根拠箇所のラベルが付与されていない,そのため, 0 点答案が全体の半分以上を占める採点項目は実験の対象から除外する。実験はデータを学習データ 200 件,開発データ 100 件,評価データ 200 件に分割し, 33 個の採点項目を対象に行う。
## 3.2 モデル
実験には Riordan ら [1] を参考に,単語埋め込み + biLSTM + 注意層の分類器モデルを使用する. 単語埋め込みは $\mathrm{MeCab}[10]$ で単語分割された Wikipedia のデータを用い,word2vec で学習されたものを使用する. モデルパラメータの詳細や注意層の詳細は参考情報の A. 1 節を参照されたい.
## 3.3 特徴マップ
根拠箇所提示手法として,以下の手法によって生成された特徴マップを使用する。勾配から特徴マップを生成する手法では,各入力単語に対して得られるべクトルのノルムをとり,特徴マップとする。
注意重み注意層における注意重みを,予測に対する各単語の重要度だとみなし, 特徴マップとして使用する手法.
Saliency Map [11] 各入力の損失に対する勾配から生成する手法.
Input X Gradient [12] Saliency Map の特徵マップに対して,入力を乗算する手法. 入力の特徴量を反映した特徴マップの生成が可能となる.
Integrated Gradients [13] 勾配をべースラインから入力方向へ積分し, 生成する手法. Implementation Invariance と Seisitivity の公理を満たし,説明性の高い特徴量を生成できるとされている。
Random 一様分布から特徴マップを生成する手法.
## 3.4 損失関数
自動採点データセットには得点ラベルと根拠箇所ラベルが含まれるが. これらの信号を用いたモデルの学習方法として,以下の方法が考えられる。
得点学習モデルの最終出力と得点ラベル間の交差
表 1 損失関数ごとの QWK の結果
表 2 根拠箇所の一致度(妥当性, $\uparrow ) の$ 結果
表 3 削除率(忠実性, $\downarrow$ )の結果
エントロピー誤差をとる。
注意層学習注意層の重みを根拠箇所ラベルで教師あり学習する。
勾配ノルム学習各入力の損失に対する勾配のノルムを根拠箇所ラベルで教師あり学習する。
勾配ノルム学習を行なった先行研究は存在しないが,勾配を教師あり学習する研究は存在し,タスクの性能が向上することが報告されている [14]. よって,勾配ノルム学習も注意層学習と同じ枠組みで学習できると考えられる. 勾配ノルム学習に用いる特徵マップには Saliency Map や Input X Gradient なども考えられるが,今回は最も説明性が高いとされている Integrated Gradients を使用する。各学習方法の損失関数 $\mathscr{L}_{\text {score }}, \mathscr{L}_{\text {attn }}, \mathscr{L}_{\text {grad }}$ の詳細は参考資料の A. 2 節を参照されたい.
本実験では,これらの損失関数の組み合わせとして, $1: \mathscr{L}_{\text {score }}\left(\right.$ uns), $2: \mathscr{L}_{\text {score }}+\mathscr{L}_{\text {attn }}($ attn), $3: \mathscr{L}_{\text {score }}+\mathscr{L}_{\text {grad }}$ (grad), $4: \mathscr{L}_{\text {score }}+\mathscr{L}_{\text {attn }}+\mathscr{L}_{\text {grad }}$ (attn\&grad)の 4 通りの学習方法を比較する.
## 3.5 評価指標
本実験では,採点精度の評価尺度として quadratic weighted kappa (QWK) [9]を使用する。説明性は,妥当性を根拠箇所の一致度 [2],忠実性を削除率 [15,16],包括性 [17],十分性 [17] で評価する.採点項目毎にシード値の異なる 10 個のモデルを学習し,その平均を実験結果とする。
根拠箇所の一致度根拠箇所の一致度は妥当性の評価尺度である。f1 值を用い,モデルが提表 4 十分性(忠実性, $\downarrow ) の$ 結果
表 5 包括性(忠実性, $\uparrow ) の$ 結果
示した根拠箇所と,真の根拠箇所との一致度合いを測る. 図 1 の事例において、真の根拠箇所は「西洋人」であり、対してモデルが提示した根拠箇所が「人は他人」だったとする。このとき,真陽性は 1(人)であり,偽陽性は2(は他人),偽陰性は 1 (西洋)である。よって,precision は $1 /(1+2)=0.33$, recall は $1 /(1+1)=0.50$ となり, f1 值は $2 \times 0.50 \times 0.33 /(0.50+0.33)=0.375$ である.
削除率削除率は Serrano ら [15] や Mohankumar ら [16] による忠実性の評価指標である。特徴マップの値が高い単語から降順にマスクしていき,予測ラベルが変化するまでに削除した単語の比率を計算する.特徴マップがモデルの予測過程を反映しているならば,より早い段階で予測が変化すると考えられ,削除率が低いほど忠実度が高いといえる。
先述の通り,自動採点は加点式の情報包含問題である. そのため,得点予測が 0 点の答案は大力単語のマスクによる予測ラベルの変化が生じないと考えられ,そのような答案は評価対象から除外する。
包括性, 十分性包括性と十分性は Deyoung ら [17] による忠実性の評価指標である。包括性は,根拠箇所が予測にどれほど影響を及ぼすかを表し,大きいほど忠実性が高い。十分性は,根拠箇所が予測を行う上での十分な情報を含むかを表し,小さいほど忠実度が高い. 入力 $\boldsymbol{x}$ に対してモデル $m$ が出力するクラス $j$ の予測確率を $m(\boldsymbol{x})_{j}$, モデルが出力する特徴マップの上位 $k \%$ の単語以外をマスクした入力を $\boldsymbol{x}_{\boldsymbol{r}_{\boldsymbol{k}}}$ とすると, 包括性は $m(\boldsymbol{x})_{j}-m\left(\boldsymbol{x} \backslash \boldsymbol{x}_{\boldsymbol{r}_{\boldsymbol{k}}}\right)_{j}$, 十分性は $m(\boldsymbol{x})_{j}-m\left(\boldsymbol{x}_{\boldsymbol{r}_{k}}\right)_{j}$ で表せる. 彼らの害験では, $k=1,5,10,20,50$ の評価值を平均しているが,我々も彼らの実験設定に倣う.また削除率同様に,得点予測が 0 点の答案は評価対象から除外する。
表 6 ある採点項目におけるモデル出力の例
& - \\
## 4 実験結果
表 1 は損失関数ごとの QWK の結果である. 先行研究 $[2,3]$ と同様に, 注意層を教師あり学習することにより,QWK が向上した.また,勾配を教師あり学習することで,同様に QWK が向上した.注意層と勾配の教師あり学習をどちらも行うことによって,どちらか一方を使用する時と比較して更に QWK が向上した. 今回の研究は説明性に対する研究であるため, QWK 向上の原因には触れないが,非常に興味染い今後の研究課題である.
妥当性の結果表 2 は根拠箇所の一致度(f1 値) の結果である. uns ではどの手法も値に優劣がないが, attn や grad, attn\&grad では Random を除いたどの特徴マップでも一致度が向上することがわかった. また, attn では注意重みの一致度が, gradでは Integrated Gradients の一致度が各々大きく向上していることから,根拠箇所提示手法として活用したい特徴マップと,学習の手法を揃えることで,妥当性をより高めることが可能であることがわかった.
忠実性の結果表 3, 4, 5 は削除率, 十分性, 包括性の結果である.unsの包括性による評価では,注意重みが最も忠実性が高く, それ以外の実験設定,評価指標では, Integrated Gradients が最も忠実性が高かった. また,評価指標により優劣は入れ替わるものの,注意重みは Input X Gradient より忠実性が高かった.ここから, 注意重みは Integrated Gradients に劣りつつ, 勾配べースの特徴マップと比較し同等程度に忠実性が高いことがわかった. 先行研究では,注意重みは勾配べースの手法と比較して忠実性に劣ることが報告されている $[15,18,16,19]$ が,今回の実験ではそのような現象は見られなかった.
分析実験から, 注意重みは妥当性が高く, Integrated Gradients は忠実性が高いことがわかった.採点項目ごとに両者の削除率を分析すると,注意重みが Integrated Gradients に大きく負けている採点項目がいくつか見られた. それらの採点項目で何が起きているのか,具体事例を元に分析を行なった.表6に, attnにおける注意重みと Integrated Gradients によって提示された根拠箇所及び削除率の事例を記した. 等案の青色太文字は真の根拠箇所または,モデルが予測した根拠箇所である。注意重みは真の根拠箇所と一致度が高い一方, Integrated Gradients は真の根拠箇所の周辺に着目している事例が散見された. 注意重みと比較して Integrated Gradients は削除率が低いことから,モデルは本来着目して欲しい真の根拠箇所ではなく,その周辺単語を元に得点を予測している,つまり,擬似相関を起こしている可能性が考えられる。
## 5 おわりに
本論文では,自動採点における根拠箇所提示手法の説明性向上を目指し, Mizumoto らによって提唱された根拠箇所提示問題を,Jacovi らによって提唱された説明性を元に再定義した。また,複数の損失関数と複数の根拠箇所提示手法の組み合わせで複数パターンの実験を行い,最も説明性の高い根拠箇所提示手法を検討した. 実験の結果,注意重みは最も妥当性が高く, 勾配を用いた手法と同程度に忠実性が高いことがわかった。また, Integrated Gradients は最も忠実性が高く, 注意重みと同程度に妥当性が高いことがわかった. ここから,自動採点の分野では,説明性の妥当性と忠実性,どちらの観点を重要視するかを元に根拠箇所提示手法を使い分けることが重要であることがわかった.
先行研究では,注意重みを用いた特徴マップは勾配を用いた特徵マップと比較して忠実性に劣ると言われいる $[15,18,16,19]$. しかし, これらの研究による結果は,「注意重みの忠実性が低下する現象が起こりうる」ことを示すものであり,「注意重みが必ず忠実性が低い」ことを主張するものではないため,本研究の実験結果と矛盾するものではない.
今回,採点項目によっては擬似相関によって注意重みの忠実性が低下することもわかった. 今後の方針として,モデル内部の擬似相関を改善する手法を考えていきたい.
## 謝辞
実際の模試データを提供していただいた学校法人高宮学園代々木ゼミナールに感謝します.
## 参考文献
[1] Brian Riordan, Andrea Horbach, Aoife Cahill, Torsten Zesch, and Chong Min Lee. Investigating neural architectures for short answer scoring. In Proceedings of the 12th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 159-168, Copenhagen, Denmark, September 2017. Association for Computational Linguistics.
[2] Tomoya Mizumoto, Hiroki Ouchi, Yoriko Isobe, Paul Reisert, Ryo Nagata, Satoshi Sekine, and Kentaro Inui. Analytic score prediction and justification identification in automated short answer scoring. In Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 316-325, Florence, Italy, August 2019. Association for Computational Linguistics.
[3] Hiroaki Funayama, Shota Sasaki, Yuichiroh Matsubayashi, Tomoya Mizumoto, Jun Suzuki, Masato Mita, and Kentaro Inui. Preventing critical scoring errors in short answer scoring with confidence estimation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: Student Research Workshop, pp. 237-243, Online, July 2020. Association for Computational Linguistics.
[4]【業界初】代ゼミが「記述式を ai 採点する現代トレーニング」をリリース. https: //www.yozemi.ac.jp/news/press/__icsFiles/ afieldfile/2021/05/27/aisaiten_210527.pdf. Accessed: 2022-01-10.
[5] Fei Wang, Rainu Kaushal, and Dhruv Khullar. Should health care demand interpretable artificial intelligence or accept "black box" medicine? Annals of internal medicine, Vol. 172, No. 1, January 2020.
[6] Alexandra Chouldechova. Fair prediction with disparate impact: A study of bias in recidivism prediction instruments, 2016.
[7] Erico Tjoa and Cuntai Guan. A survey on explainable artificial intelligence (xai): Toward medical xai. IEEE Transactions on Neural Networks and Learning Systems, Vol. 32, No. 11, p. 4793-4813, Nov 2021.
[8] Alon Jacovi and Yoav Goldberg. Towards faithfully interpretable NLP systems: How should we define and evaluate faithfulness? In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4198-4205, Online, July 2020. Association for Computational Linguistics.
[9] J. Cohen. Weighted kappa: nominal scale agreement with provision for scaled disagreement or partial credit. Psychological bulletin, Vol. 70 4, pp. 213-20, 1968.
[10] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to japanese morphological analysis. In EMNLP, pp. 230-237, 2004.
[11] Karen Simonyan, Andrea Vedaldi, and Andrew Zisserman. Deep inside convolutional networks: Visualising image classification models and saliency maps, 2014.
[12] Avanti Shrikumar, Peyton Greenside, Anna Shcherbina, and Anshul Kundaje. Not just a black box: Learning important features through propagating activation differences, 2017.
[13] Mukund Sundararajan, Ankur Taly, and Qiqi Yan. Axiomatic attribution for deep networks. In Proceedings of the 34th International Conference on Machine Learning - Volume 70, ICML'17, p. 3319-3328. JMLR.org, 2017.
[14] Damien Teney, Ehsan Abbasnejad, and Anton van den Hengel. Learning what makes a difference from counterfactual examples and gradient supervision. CoRR, Vol. abs/2004.09034, , 2020.
[15] Sofia Serrano and Noah A. Smith. Is attention interpretable? In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 2931-2951, Florence, Italy, July 2019. Association for Computational Linguistics.
[16] Akash Kumar Mohankumar, Preksha Nema, Sharan Narasimhan, Mitesh M. Khapra, Balaji Vasan Srinivasan, and Balaraman Ravindran. Towards transparent and explainable attention models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4206-4216, Online, July 2020. Association for Computational Linguistics.
[17] Jay DeYoung, Sarthak Jain, Nazneen Fatema Rajani, Eric Lehman, Caiming Xiong, Richard Socher, and Byron C. Wallace. ERASER: A benchmark to evaluate rationalized NLP models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4443-4458, Online, July 2020. Association for Computational Linguistics.
[18] Sarthak Jain and Byron C. Wallace. Attention is not Explanation. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3543-3556, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[19] Bing Bai, Jian Liang, Guanhua Zhang, Hao Li, Kun Bai, and Fei Wang. Why attentions may not be interpretable? In Proceedings of the 27th ACM SIGKDD Conference on Knowledge Discovery amp; Data Mining, KDD '21, p. 25-34, New York, NY, USA, 2021. Association for Computing Machinery.
## A 参考情報
## A. 1 モデル
注意層注意機構は Lin ら [?] の自己注意を用いる. $d_{h}$ 次元の隠れベクトルを $\boldsymbol{h}_{\boldsymbol{t}}, d_{o u t} \times d_{h}$ 次元の行列を $W_{s 1}, d_{\text {out }}$ 次元のべクトルを $\boldsymbol{w}_{s 2}$ とすると,注意による重み付き平均 $\boldsymbol{h}_{\boldsymbol{a t t n}}$ は以下のように求められる。
$
\begin{aligned}
a_{t} & =\operatorname{softmax}\left(\boldsymbol{w}_{\boldsymbol{s} 2} \tanh \left(W_{s 1} \boldsymbol{h}_{\boldsymbol{t}}^{\boldsymbol{T}}\right)\right) \\
\boldsymbol{h}_{\text {attn }} & =\sum_{t=1}^{T} a_{t} \boldsymbol{h}_{\boldsymbol{t}}
\end{aligned}
$
ここで $, W_{s 1}, w_{s 2}$ は学習パラメータである.
表 7 モデル詳細
## A. 2 損失関数
$C E$ を cross entropy loss, $N$ をデータ数, $s_{p}$ を得点の予測確率, $\hat{s}$ を真の得点, $\hat{r}$ を真の根拠箇所, $T$ を文長, $f^{a t t n}$ を注意重み, $f^{g r a d}$ を Integrated Gradients による特徴マップとすると,各損失関数は以下のように表せる.
$
\begin{aligned}
& \mathscr{L}_{\text {score }}=\frac{1}{N} \sum_{n=1}^{N} C E\left(s_{p}^{(n)}, s_{g}^{(n)}\right) \\
& \mathscr{L}_{\text {attn }}=\frac{1}{N} \sum_{n=1}^{N} \sum_{t=1}^{T}\left(f_{t}^{a t t n}{ }_{t}^{(n)}-\hat{r}_{t}^{(n)}\right)^{2} \\
& \mathscr{L}_{\text {grad }}=\frac{1}{N} \sum_{n=1}^{N} \sum_{t=1}^{T}\left(f_{t}^{\text {grad }}{ }_{t}^{(n)}-\hat{r}_{t}^{(n)}\right)^{2}
\end{aligned}
$ | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E3-3.pdf | # 論述リビジョンのためのメタ評価基盤
三田 雅人 1 坂口 慶祐 ${ }^{2}$ 萩原 正人 ${ }^{3,4}$ 水本 智也 ${ }^{5,1}$ 鈴木 潤 6,1 乾 健太郎 6,1
1 理化学研究所 ${ }^{2}$ Allen Institute for AI ${ }^{3}$ Earth Species Project
${ }^{4}$ Octanove Labs 5 フューチャー株式会社 6 東北大学
masato.mita@riken.jp
## 概要
論述やエッセイの作文のように文書単位で行うリビジョンには,従来の文単位文法誤り訂正の研究範囲では捉えきれない論述全体の流れや一貫性といった要素が含まれる。また,文書単位のリビジョンは妥当な参照が多岐にわたることから高精度な参照なし評価尺度の実現が大きな課題となる. 本研究では,自動論述リビジョンの実現に向けて,高精度な自動評価尺度の開発促進を目的としたメタ評価基盤を提案する。そして,大規模言語モデルを用いたベースライン自動評価尺度を用いた自動評価の現状と実現可能性を示す。
## 1 はじめに
論述やエッセイ等の作文において,リビジョンは重要な段階である. プロセスライティング教育学では,作文には,まず最初に文書単位で全体的な編集を行う Revision があり,その後,文または句単位での編集を行う Editing, 最後に単語単位での細やかな編集を行う Proofreading の 3 段階があるとされている $[1,2]$.
これに対し,自然言語処理(NLP),特に文法誤り訂正 (GEC) 分野では単語単位を中心としたスぺリングや文法誤りなどを対象とした局所的な編集 (Minimal edit) [3,4] から,句や文単位で流暢性を考慮した編集 (Fluency edit) [5,6] へと研究範囲を広げてきたといえる(図 1).リビジョンには,従来の文単位 GEC の研究範囲では捉えきれない,論述全体の流れや一貫性・結束性といった評価項目に基づく様々な編集が含まれると考えられる。しかし,NLP におけるリビジョンに関する既存研究の多くは文単位を対象にしており [7,8],また論述やエッセイなどを文書単位で自動的にリビジョンを行うタスク (本稿では,論述リビジョンと呼ぶ)も存在しない。論述リビジョンの設計を考えた場合,高精度な参
図 1 本研究の位置付け. 図中の例は本研究で構築したデータセットに含まれていた実例である.
照なし自動評価の実現が大きな課題となる。なぜなら文書単位のリビジョンの場合,文結合や文分割,文の並び替えなどといった文を跨いだ編集も含まれるため参照との正確な照合自体が困難であり,また妥当な参照も多岐にわたるため参照あり評価は現実的ではないからである(図19実例を参照)。参照なし評価尺度を用いる場合,その評価尺度がどの程度人間の判断と相関があり信頼できるものかといった自動評価尺度の“評価(メ夕評価)”が必要となる.
そこで本研究では論述リビジョンの実現に向け
## て,評価項目毎に高精度な参照なし自動評価尺度の開発促進を目的としたメタ評価基盤を提案する. 具体的には,提案メタ評価基盤は論述リビジョンのた めのデータセットである Text Revision of ACL paper (TETRA),およびメ夕評価手法である Instance-based Revision Classification (IRC) の2つによって実現す る ${ }^{1)}$. TETRA は,ACL 系論文に対して文書レベル のリビジョンをアノテーションしたデータセットで あり,従来の局所的な編集タイプに加えて,文書単位での大域的な編集タイプにも対応可能なアノテー
1) 構築したデータセットは今後一般公開する予定である
ションスキームに基づいて設計されている. IRC は,人間の専門家によるリビジョンに対して,編集事例毎にどの程度開発した参照なし評価尺度がリビジョンの良し悪しを判別できるかといった二値分類に基づくメタ評価手法であり,その精度が高い参照なし評価尺度が良い評価尺度ということになる。さらに,提案メタ評価基盤では評価項目毎の精度を評価および編集根拠を提示可能であるため,より良い評価尺度の開発に向けた透明性・解釈性の高い分析ができる.
本研究では,大規模言語モデルに基づくベースライン自動評価尺度(ラベル教師あり,なし)を用意し, それらが文書レベルのリビジョンをどの程度正確に判別することができるかについてのメタ評価を行い, 文書レベルのリビジョンに対する自動評価の現状と実現可能性を示す.
## 2 TETRA
## 2.1 データセット設計
論述リビジョンのためのデータセットとして,どのように設計すべきかは自明ではない. そのため,本研究ではまず基本要件として次の 4 つを定めた: (1)段落単位で十分に長い文脈を含んでいる;(2)文法誤りは修正済みである;(3)ドメインは限定的である; (4) 書き手の多様性を担保する. 要件 1 は,論述リビジョンであるための必要条件ともいえる.要件 2 に関して, 文法誤りは既存の GEC タスクで対象としていること, また本研究の狙いである文書単位での品質を向上させることを目的とした大域的かつ高次な編集は,事前により低次な文法誤りが修正されていなければ観察されにくいという仮定に基づいている. 要件 3 に関して, リビジョンは暗黙的なドメインに依存した評価項目(rubric)の存在を前提としており,ドメインを制限しなければ妥当な編集候補が多くなり不良設定問題になるのを避けるためである. 要件 4 に関して, リビジョンの書き手の属性は本質的に多様性があるためデータを収集するうえでも偏らないよう多様性を担保することが重要である.
上記の 4 つの要件を満たすために,次の方法論でデータの選定および収集を行う. まず,要件 1 から 3 を満たすために, 本研究では ACL 系論文の概要および導入節を元データとして採用する. 概要および導入節は一般的に他の節よりも言説構造が重要で
あり,かつ数式などの非テキスト要素が入りにくいと考えられ,多様なリビジョンを収集しやすいと考えられる.アノテーション対象の論文を選択する際は,要件 4 を考慮して,次の 3 つの観点で多様性を担保する:(1)会議/ワークショップ;(2)学生/非学生;(3)母語話者/非母語話者. ここで,観点 2 および観点 3 について機械的に判別することは困難であるため,次の方法論で可能な限り恣意性を除外したうえで選択した。まず,ACL Anthology ${ }^{2}$ ) の会議識別 ID を基に会議およびワークショップ論文をランダムサンプリングする3).次に,選択された論文を上記 3 観点の組み合わせから構成される全 $8\left(2^{3}\right)$ クラスに人手で分類する ${ }^{4)}$. 各クラスにつき 1 本該当論文を割り当てるまでを 1 バッチとし(つまり, 1 バッチにつき 8 論文を選定),本研究では結果としてこれを 8 バッチまで行い,合計 64 論文をアノテーション対象の論文として収集した.
## 2.2 アノテーション
本研究では英語母語話者,かつ英文校正の専門家である 3 名のアノテータによりアノテーションを実施した. 具体的には,同じ文書を 3 名が独立的に編集し,各文書につき 3 つの参照を作成した。アノテーションとして, 本研究では 1 段落を 1 文書とみなして段落単位でリビジョンを行うよう指示した。 さらに,各編集に対してどういった観点で段落全体の品質が向上されるかについて編集タイプおよびその編集根拠を自由記述で書くよう指示を与えた.ここで,事前に定義したタイプ集合から選択させるのではなく自由記述とした理由は,文書単位リビジョン固有の言語現象として,どのような種類の編集が存在・観察されるのか自体自明でないからである。
次に,アノテーションしたデータを研究用途として利用しやすい形式にするために,XMLを用いて人手でデータセットの構造化を行った. 具体的には,元論文およびアノテータの識別 ID,節情報といったメタ情報に加え,編集事例毎に編集情報,編集タイプ及び編集根拠を付与した. TETRA の統計量を表 1 に示す.
\mathrm{~ ワ ー クショッフ ゚ 論文 ~}$ の識別 IDを W とみなしてそれぞれ収集した。
4) 母語話者かどうかを判断する際,著者の母語を考慮するのは現実的に難しく,かつ差別的になる恐れがあるため,本研究では筆頭著者の所属の所在地を判断基準とした.
}
図 2 提案メタ評価基盤を用いたメタ評価の概要.
表 1 TETRA の統計量.
表 2 各評価項目の分布.
## 2.3 分析
構築した TETRA にどのような種類の編集が観察されるか,また従来の GECでは観察されない論述リビジョン固有の編集はどの程度含まれるかについて分析するために,一人のアノテータにおける 2 バッチ分のサンプルデータ(計 16 論文)に対して編集タイプの分布を算出した(表 2). ここで,分析のしやすさを目的に各編集タイプを大分類として評価項目毎に人手でまとめた ${ }^{5)}$.その結果, Grammaticality (文法性)に関する編集や Fluency(流暢性)に関する編集といったような従来の GEC に含まれるような編集も観察される一方で, Clarity (明瞭さ)・Style (スタイル)・Readability(読みやすさ)・Redundancy (冗長性) ・ Consistency (一貫性) といった論述リビジョン固有の編集も全体の $66.5 \%$ と大半は論述リビジョン固有の編集だった.
次に,アノテータ間でどのくらい編集が一致したかについて分析する。論述リビジョンにおいては,各編集のスパンの同定およびアノテータ間での対応を機械的に正確に取得すること自体が困難であるため, 本研究では少量のサンプルデータに対して人手
でアノテータ間の編集の対応を取り一致率を計算した. 具体的には,ランダムに選んだ 3 本の論文に対して, 3 人中 2 人以上が概ね同じ箇所を編集していたときの一致率を計算したところ,わずか $33.5 \%$ という結果となった. このことからも,論述リビジョンは妥当な参照が多岐にわたることがわかる.
## 3 提案メタ評価基盤
入力に多数の評価項目が含まれる論述リビジョンの評価方法として, 絶対評価は難しいと考えられる. そのため, 最も素直なメタ評価手法としては,人間の専門家によるリビジョン(gold revision)を用いた二値分類の Accuracy で評価を行うことが考えられる。具体的には,入力としてリビジョン前後の 2 つの文書が与えられたとき, どの程度 gold revision に対して評価尺度が正しく改善と判定できるかの二値分類であり,その精度が高い評価尺度が良い評価尺度ということになる。二値分類のようなペアワイズ比較は, 絶対評価が難しい状況下のメタ評価手法として有効であることが先行研究でも示されている $[9,10]$. しかし,表 2 に示されるような多数の評価項目に基づく多種多様な編集を一括りにして改善したかどうかの二値を提示するだけでは透明性や解釈性の高い分析が難しい。また,評価項目に応じて最適な評価尺度も異なると考えられるため包括的な評価では限界がある [11,12].
そこで本研究では,評価項目毎に高精度な評価尺度の開発促進を目的としたメタ評価基盤を提案する. 図 2 に提案メ夕評価基盤を用いたメ夕評価の概要を示す. 提案メタ評価基盤は,2 節で構築した TETRA とメタ評価手法, Instance-based Revision Classification (IRC) によって実現する。IRCでは,複数の多種多様な編集が混在する文書に対して,1 文書につき 1 編集事例のみからなる文書対(本稿では, one-hot ペアデータと呼ぶ)に変換して二值分類
図 3 メタ評価結果 (Accuracy).
を行うことでメタ評価を行う。これにより,評価項目毎の精度および編集根拠を提示可能となるため, より良い評価尺度の開発に向けた透明性・解釈性の高い分析ができる.
## 4 実験
本節では,ベースラインとなる参照なし評価尺度を用意し,提案メタ評価基盤を用いたメタ評価のデモンストレーションを行う,そして,文書レベルのリビジョンに対する自動評価の現状と実現可能性を明らかにする。
## 4.1 実験設定
評価提案メタ評価基盤でメ夕評価を行うために one-hot ペアデータを構築する。具体的には, TETRAを論文単位で訓練: 評価用に 3(48 論文):1 (16 論文)に分割し,評価用データを one-hot ペアデータに変換した. ここで,TETRA に付与されている編集タイプは自由記述でアノテーションされている都合上,アノテータ間で異なるラベル集合となっている 6). そこで本実験では, 2.3 節の分析で用いたアノテータ(主アノテータ)のラベル集合を基準とし,残りの二人のアノテータの編集タイプを必要に応じて人手で主アノテータの編集タイプへと対応付けを行った. 上記の手順に従い one-hot ペアデータを構築した結果,1368 文書対となった.
ベースライン評価尺度本実験では, ベースラインとして2つの大規模言語モデル(GPT-2 [13],
6)例えば,語彙選択に関する編集に対してアノテータ間で word choice や word use など異なるラベルを用いていた。
BERT [14])に基づく参照なし評価尺度(二値分類器)を構築した ${ }^{7)}$. GPT-2を用いたラベル教師なし評価尺度は,入力の二文書それぞれの単語あたりの perplexityを比較し,その大小によって二値分類を行う.BERTを用いたラベル教師あり評価尺度は,TETRA の訓練用データ(全 868 文書対)に対し,半分はランダムにリビジョン前後を入れ替えて負例を作成し,それらを用いて二值分類問題として finetune を行った.なお, ベースラインの構築はいずれも transformers [15] の Pytorch 実装を用いた.
## 4.2 結果
図 3 亿提案メタ評価基盤を用いたメタ評価結果を示す ${ }^{8)}$. まず,図 3 に示されるように,本提案メ夕評価基盤を用いると各評価尺度における評価項目毎の精度が評価可能である。これにより,ユーザは各評価尺度の得意・不得意を分析しながら評価項目毎に最適な評価尺度の開発に専念できる。また本実験結果から,ラベル教師なし評価尺度ではほとんど文書レベルのリビジョンを捉えることができないが, ラベル教師あり評価尺度においては,最も低い評価項目で 0.79 ポイント,最も高い評価項目では 0.90 ポイントの Accuracyを達成していることから,ある程度文書レベルのリビジョンを捉えることができていることがわかる。これはつまり,論述リビジョンという挑戦的な未開拓課題において自動評価の実現可能性が示されたといえる.
## 5 おわりに
本研究では,文法誤り訂正の次なる方向性として文書単位で自動的にリビジョンを行う論述リビジョンという新たな課題を提示し,論述リビジョンのための高精度な参照なし自動評価尺度の開発促進を目的としたメタ評価基盤を提案した. また,大規模言語モデルを用いたベースライン評価尺度を用意し,提案メタ評価基盤を用いたメタ評価のデモンストレーションを通して論述リビジョンにおける自動評価の実現可能性を示した. 論述リビジョンは NLP 分野として重要かつ挑戦的な課題であり, 本研究は論述リビジョンの実現に向けた最初の一歩となる.今後は,論述リビジョン自体を行うリビジョンモデルだけでなく,本提案メタ評価基盤を用いた自動評価尺度に関する研究に繋がることを期待する。
## 参考文献
[1] M. Buchman, R. Moore, L. Stern, and B. Feist. Power Writing: Writing with Purpose. No. No. 4. Pearson Education Canada, 2000 .
[2] Anthony Seow. The Writing Process and Process Writing, p. 315-320. Cambridge University Press, 2002.
[3] Hwee Tou Ng, Siew Mei Wu, Yuanbin Wu, Christian Hadiwinoto, and Joel Tetreault. The CoNLL-2013 Shared Task on Grammatical Error Correction. In Proceedings of the 17th Conference on Computational Natural Language Learning (CoNLL 2013): Shared Task, pp. 1-12, 2013.
[4] Hwee Tou Ng, Siew Mei Wu, Ted Briscoe, Christian Hadiwinoto, Raymond Hendy Susanto, and Christopher Bryant. The CoNLL-2014 Shared Task on Grammatical Error Correction. In Proceedings of the 18th Conference on Computational Natural Language Learning (CoNLL 2014): Shared Task, pp. 1-14, 2014.
[5] Keisuke Sakaguchi, Courtney Napoles, Matt Post, and Joel Tetreault. Reassessing the goals of grammatical error correction: Fluency instead of grammaticality. Transactions of the Association for Computational Linguistics, Vol. 4, pp. 169-182, 2016.
[6] Courtney Napoles, Keisuke Sakaguchi, and Joel Tetreault. JFLEG: A Fluency Corpus and Benchmark for Grammatical Error Correction. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics (EACL 2017), pp. 229-234, 2017.
[7] Fan Zhang, Homa B. Hashemi, Rebecca Hwa, and Diane Litman. A corpus of annotated revisions for studying argumentative writing. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1568-1578. Association for Computational Linguistics, 2017.
[8] Takumi Ito, Tatsuki Kuribayashi, Hayato Kobayashi, Ana Brassard, Masato Hagiwara, Jun Suzuki, and Kentaro Inui. Diamonds in the rough: Generating fluent sentences from early-stage drafts for academic writing assistance. In Proceedings of the 12th International Conference on Natural Language Generation, pp. 40-53. Association for Computational Linguistics, 2019.
[9] Francisco Guzmán, Shafiq Joty, Lluís Màrquez, and Preslav Nakov. Pairwise neural machine translation evaluation. In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 805-814. Association for Computational Linguistics, 2015.
[10] Paul F Christiano, Jan Leike, Tom Brown, Miljan Martic, Shane Legg, and Dario Amodei. Deep reinforcement learning from human preferences. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017.
[11] Jungo Kasai, Keisuke Sakaguchi, Lavinia Dunagan, Jacob Morrison, Ronan Le Bras, Yejin Choi, and Noah A. Smith. Transparent human evaluation for image captioning. arXiv https://arxiv.org/abs/2111.08940, 2021.
[12] Jungo Kasai, Keisuke Sakaguchi, Ronan Le Bras, Lavinia Dunagan, Jacob Morrison, Alexander R. Fabbri, Yejin Choi, and Noah A. Smith. Bidimensional leaderboards: Generate and evaluate language hand in hand. arXiv https://arxiv.org/abs/2112.04139, 2021.
[13] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. 2019.
[14] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186. Association for Computational Linguistics, 2019.
[15] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander M. Rush. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45. Association for Computational Linguistics, 2020.
[16] Diederik Kingma and Jimmy Ba. Adam: A Method for Stochastic Optimization. In Proceedings of the 3rd International Conference on Learning Representations (ICLR 2015), 2015.
## Aリリ゙ジョンの実例
表 3 評価項目に関連付けされたリビジョンの実例.
This paper presents empirical studies and closely corresponding theoretical models of a chart parser' s performance whilethe performance of a chart parser exhaustively parsing the Penn Treebank with the Treebank's own context-free grammar (CFG)CFG frammar. We show how performance is dramatically affected by rule representation and tree transformations, but little by top-down vs. bottom-up strategies. We discuss grammatical saturation, provide an, ineluding analysis of the strongly connected components of the phrasal nonterminals in the Treebank, and model how, as sentence length increases, regions of the grammar are unlocked, increasing the effective grammar rule size inered, and yielding super-cubic observed time behavior in some configurations.
Modeling relation paths provides has offered significant gains in embedding models for knowledge base (KB) completion. However, enumerating paths between two entities is very expensive, and existing approaches typically resort to approximation with a sampled subset. This problem is particularly acute when text is jointly modeled with KB relations and used to provide direct evidence for facts mentioned in it. In this paper, we propose the first exact dynamic programming algorithm, which enables efficient incorporation of all relation paths of bounded length, while modeling both relation types and intermediate nodes in the compositional path representations. We then conduct a theoretical analysis of the efficiency gain from the approach. Experiments on two datasets show that it addresses representational limitations in prior methods approaches and improves accuracy in KB completion.
## B ベースライン評価尺度の実験設定
GPT-2 を用いた評価尺度GPT-2 を用いたラベル教師なし評価尺度は,入力の二文書それぞれの単語あたりの perplexity を比較し,その大小によって二值分類を行う.具体的には,リビジョン前の文書よりもリビジョン後の文書の perplexity の方が低い場合は改善(正例),高い場合は改悪(負例)とみなして二値分類を行う.
BERT を用いた評価尺度 BERT を用いたラベル教師あり評価尺度は,TETRA の訓練用データ(全 868 文書対)に対し,半分はランダムにリビジョン前後を入れ替えて負例を作成し,それらを用いて二値分類問題として finetune を行った。具体的には,入力として,“リビジョン前<SEP>リビジョン後”を改善(正例),“リビジョン後<SEP>リビジョン前”を改悪(負例)という形式で与え,BERT+線形分類レイヤによって finetune することで二值分類器を訓練した. なお,モデル訓練時のハイパーパラメータは表 4 に示す.
## C メタ評価結果
表 5 メタ評価結果の詳細.
| NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E3-4.pdf | # Unity を用いた英単語学習ゲームの学習効果と評価
佐藤志月 ${ }^{1}$ 宍戸真 ${ }^{2}$
${ }^{1}$ 東京電機大学大学院 情報環境学研究科 ${ }^{2}$ 東京電機大学 システムデザイン工学部
$\left.\{20}.$ jkm14\}@ms. dendai. ac. jp $p^{1}$, \{shishido\}@mai1.dendai. ac. jp²
## 概要
本論文では, 既存の電子教材のデザインを組み合わせることによる英語学習教材の作成とその評価を検討する. 脱出ゲームと英単語学習を組み合わせた教材を Unity を用いて開発し,オンラインで実証実験を行い, 利用者の学習意識と学習効果の評価を実施した. 実験は 2 回に分けて行われ, 予備実験では学習意識が高い被験者のグループに教材を配布し評価を行った.その後教材の改良を行い, 学習意識が低い別のグループに対し, 教材を配布し本実験を実施した. その結果, 学習意識を問うアンケートの結果は予備実験と本実験でほとんど差がなく, 本実験の被験者のほうが TOEIC のスコア上昇率は高かった.このことは, 学習意識と学習効果の改善に, 本教材のデザインや改良が有効であることを示している.
## 1 はじめに
文部科学省によって英語教育の早期化・指導強化が示されている中 [1], GIGA スクール構想による生徒 1 人につき 1 台の電子端末配備とインフラ整備が予定を前倒しで行われた [2].紙の教材から電子教材への移行によって,学習者の成績やモチベーションが下がることのないようにするため,電子教材のデザインの検討は必須課題といえる.
このことから, 学習者のモチベーションを保ちつつ, 学習効果が高い電子教材のアプリケーション開発を目的とし, IDE を内蔵したゲームエンジンである Unityを用いて開発を行う.学習モチベーションが低い人でも無理なく継続でき,かつ短時間で教材利用前以上の学習成果の達成及び学習意識の改善を行うことを本研究の目的とする.
開発にあたり,既存の電子教材の研究を調査し,其々のメリットを組み合わせることによることで目的の達成に至ると考えた.そこで, 2 章にて関連研究について調査し, 3 章にて開発方針と概観について述べ, 4 章にて実験概要について述べ 5 章にて実験結果の報告,6 章にて䌂めを行う。
## 2 先行研究
ここでは,教材デザインの手法や,学習評価法についての研究を紹介する.
## 2.1 デジタルゲームを利用した教育
$\mathrm{PC}$ を利用した教育の一つであるデジタルゲームを利用したものについて, 藤本は利点として「学習意欲が高めやすい」ことや,「フィードバックを通した学習改善を行いやすい」ことを挙げ, 久点として「ゲ一ムに夢中になっているからといって, 学習活動にも夢中になっているとは限らない」,「必要以上に時間がかかりやすい」等と指摘している [3].
## 2. 2 ゲーミフィケーション理論
電子教材のテーマとして注目されているゲーミフイケーション理論は,ゲームの考え方やデザインをゲーム以外のものに転用することを指している.特に電子教材に用いる場合,学習の到達度に応じたポイントやバッジの付与,プレイヤー間でのスコア競争 $(\mathrm{PvP})$, リーダーボードといったものが構成要素とされ,学習意欲の向上に寄与するとされる [4].
ゲーミフィケーション理論に近いところでは Bartle によるプレイヤーの分類が挙げられる.これは,人が持つゲームの思考の違いに着目し,プレイヤー の特性を Achiever, Explorer, Killer, Socializer の要素で分類したものである [5].この分類とゲーミフィケ ーションの構成要素は類似している部分があり,例えば Killer に該当するような学習者には PvP 機能が有効である可能性が高い.
## 2.3 ゲームデザインについての研究
ゲーミフィケーションには,”学習というモチベー ションが低い行動に対し,どのようなデザインをすることでモチベーションを高めるのか”という問題がある.これに対し栗原が提案した Toolification of Games は,「ゲームの主目的の最適な達成方法から離れたユーザの行動やゲーム要素の存在を許容する時
間的空間的ゆとりを余剩自由度と定義し,その中で単語学習のような非ゲーム的目的を達成する」というものである.これは,,"既に本編のゲームで操作が慣れているため,新たに操作を覚える必要がない”, 既に完成されたゲームはそれ自体が面白いのでタスク実行のモチベーションを誘発するデザインを改めて考えなくてよい”といった特徵を持つとされる [6].
## 2. 4 学習活動の集中度の測定
電子教材による学習意識の調查方法としては, 眼球の動きや胼波の計測, ウェアラブル端末の使用等が挙げられるが,いずれも専用の機器が必要となり,遠隔や大人数での実験には適さない.そのため,フロ一体験の構成要素となる設問を用いた質問紙調査で学習者のモチベーションの推移を調査する.
フローとは,Csikszentmihalyi によって提唱された,人間がその時に取り組んでいる活動に夢中になる時に生じる忘我状態のことである [7].フロー体験には表 1 のような前提条件が必要であり [8],それぞれについての当てはまり具合をアンケートの設問に用意することで,学習意識の推移を測る。
表 1 フロー設問項目
## 3 システム開発
## 3. 1 基本方針
先行研究を踏まえ,提案方式として,「脱出ゲームをプレイする過程で英単語学習のクイズに挑戦し,一定の正答率の達成で脱出のヒントを獲得でき,このヒントやアイテムを集めてゲームクリアを行う.また,クリア後の余剩自由度の中で理解度テストに挑戦する」というデザインを考案した [9].
脱出ゲームを採用した理由について,「操作がマウスクリックのみで完結し, 複雑な技能習得を伴わない」,「クリアまでの外部統制が比較的行いやすい」, といった点を挙げる. そのうえで, 到達度によるメダルの付与や,PVP 機能を搭載した理解度テストのような,ゲーミフィケーションの要素を取り入れる.今回の実験はオンラインで実施し,教材は各被験者が所有する PC で利用してもらうが,その端末や OS は統一されていない.そのため,開発にはクロスプラットフォーム開発が容易な Unity と C\#を用いた.
## 3.2 教材概要
前節で述べた通り,学習者は初めに脱出ゲームのステージを 1 つ選びプレイする.各ステージの脱出方法は異なり,脱出にはアイテムが必要となるが,そのアイテムの場所や使い方といったヒントを英単語クイズの挑戦で一定の正答数を超えることで獲得する必要がある.脱出ゲームのクリア後は,理解度テストに取り組むことができる.このパートは本編となる脱出ゲームとは独立しており,脱出ゲームの各ステ ージで学習した単語の総復習を行うことができる.
今回の研究では予備実験と本実験の 2 回にわたり実験を行っているが,本実験で使用した教材は予備実験で利用したものに改良を加えたものとなっている.その差異についても以下で説明する。
## 3.2. 1 脱出パートの仕様
脱出ゲームは実験に併せ,無人島や部屋といった全 14 ステージで構成される.ステージの操作はマウスクリックで行い, 特定箇所のクリックでアイテムの獲得や使用といった各種操作が可能となる.
## 3.2. 2 クイズパートの仕様
脱出ゲーム中に挑戦できる単語クイズは 4 択クイズとタイピングクイズからなり,1 ステージで学習する 50 単語から 10 単語を選出し, 出題する.クイズは一問一答形式で,不正解時は正しい答えが提示される.全 10 問終了後, 8 問以上正解でヒントを獲得できる.
本実験の教材では,任意ヒント機能をタイピングクイズに追加しており,使用すると答えのスペルの字数と頭文字を確認できる.これにより,同一の意味を持つ類語での解答を避けることができる.
## 3.2. 3 理解度テストパートの仕様
理解度テストパートは問題番号,クロスワード,一単語が欠けた英文が提示され,クロスワードの中から現在の問題番号のマスの数と一致し,かつ正しく英文を完成させる語句をタイピングで解答する.また,ヒント機能の利用で英文の日本語訳が表示される.テストは全 14 回で構成され,脱出ゲームの各ステ ージで学習する 50 単語をそれぞれ復習できる.
本実験の教材では単語の頭文字を提示する機能をヒント機能に追加している他,解答を不正解扱いとしてパスする機能、スコアによる $\mathrm{PvP}$ 機能を追加している.ここで,スコアは問題の誤答回数とクリア時
間によって算出され,このスコアをクラウド上にアップロードし,学習者同士でスコアを共有・順位付けを行いランキング表示をさせることで PvP の機能を実装している.誤答やパスをしたり,一問に時間をかけるとスコアが下がるため,ハイスコアには素早く正解を重ねることが必要となる.
## 3. 2.4 学習履歴パートの仕様
脱出ゲームのクリアタイム,テストの挑戦回数やスコア,誤答した単語とその回数といった履歴は内部フォルダに保存されており,Twitter で投稿できるほか,ステージ毎の単語と誤答回数, 日本語の意味はこのパートからいつでも確認することができる.
本実験の教材では,単語帳機能とトレーニング機能を追加した.単語帳機能では脱出ゲームのステー ジ挑戦前に登場単語と意味を確認でき,トレーニング機能では任意の単語をチェックリストにいれ,そのリスト内の問題のみを問題セットとしてタイピング形式の問題に挑戦できる機能である.
## 3. 2.5 ギャラリーパートの仕様
ギャラリーパートは,脱出ゲームのクリア回数や理解度テストの成績といった, 特定の条件達成で獲得できるメダルを閲覧できる.本実験の教材では,PvP のランキングも確認することができる.
## 3. 2.6 音声認識システムの仕様
予備実験で利用した教材のみ,脱出ゲームのステ ージのギミックの一部に音声認識システムを導入した.キーワードとなる語句の発音を読み取りテキス卜に起こして正解の語句のスペルと比較を行い,正しければゲームが進行するといった具合である.
## 3.3 学習単語の選定
本教材は特定の年齢層を対象にしたものではないため,学習する単語によって対象を絞ることとなる.今回は実験の都合上被験者は大学生となり,学習単語は大学内の英語講義で指定されている TOEIC 頻出単語 1000 語の中からアルクが提供している SVL12000[10]参考に,難易度の降順で 700 単語を学習する設計とした.この 700 単語をレベルの低い順に 50 単語ずつ分け,ステージが上がるにつれて高いレベルの単語を学習できるように配置した。
## 4 実験概要
## 4. 1 実験方法
開発した教材を東京電機大学の英語講義の一環と
して導入し,一コマ終了後にステージを 1 から順に 1 つプレイしてアンケートに回答してもらった.そして,全 14 回の講義終了後に最終アンケートを実施した.また,受講者には TOEIC の受験が別途課されている.尚,各実験は全てオンラインで実施を行った.
予備実験と本実験の被験者は異なり,予備実験を行った講義は大学院進学を目指す学生が受講する講義であり,学習意識が高い被験者が多数である.一方,本実験を行った講義の受講者の大半は,単位の取得が目的である.各実験の被験者について,表 2 に示す.
表 2 被験者の前年度の TOEIC の結果
## 4. 2 実験アンケート概要
アンケートは隔週・最終の 2 種を用意し,隔週アンケートでは 2.4 節の 10 個の質問項目について,"全く当てはまらない” $(0$ 点) から”確実に当てはまる” (6 点)の 7 件法で 1 点刻みで点数付けを行い調査を行った.また,ステージ毎の問題やゲームの難易度,操作感を問う設問も用意した.最終アンケートでは,教材を利用した感想をはじめ,英語の学習方法や学習形態に対する意識を問う設問等で構成した。
## 5 実験結果
## 5.1 学習モチベーションの評価
隔週アンケートの結果から学習意識の調査を行った.通常,フロー状態の評価は各回の結果の推移を調査するが,予備実験・本実験共に䌉めてステージをプレイし,アンケートも縗めて一回で回答する被験者や,回答が不定期となる被験者が多数存在したため,今回は初めに被験者毎に各設問の最頻値と平均値を算出し,その後実験別に全ての被験者の設問毎の最頻値と平均値を算出した.結果を表 3 に示す.ここで,表中の(1)から(11)は,2.4 節の表 1 の振り分けと対応している.
表 3 各実験のフロー項目値の結果
項目別でみると,点数が高い設問と低い設問は各実験で共通していると言える.本実験の結果では,項目全てに”全く当てはまらない”を回答した被験者が数名いたこともあり,平均値は全て予備実験を下回っているが,最頻値で捉えると大きな差はなく,モチベーションが低い人でも高い人と同程度の意識で学習を行うことができたことがわかる.
## 5.2 学習効果の評価
TOEIC の比較結果を表 4 ,図 1 に示す. 各実験について,対応のある $\mathrm{t}$ 検定の結果は有意であった.ここで,スコアの伸び率についてはスコア開発率 [11]を用いて算出することで重みづけを行った.元々のスコアが高い人がスコアを上げるほどこの值は大きくなるため, 本実験のほらが学習効果があったと判断できる.これについては,効果量からも判断でき,表 5 の指標 [12]を参考にすると,予備実験では小〜中程度,本実験では中程度と判断できる。
表 4 各実験の TOEIC の比較結果
図 1 予備実験(左)と本実験(右)の TOEIC の比較結果
表 5 効果量の指標
& 0.6 & 1.0 & 1.4 \\
## 5.3 学習態度の評価
最終アンケートの自由記述のコメントを全て䌂めて,KHCorder3 [13]を用い共起ネットワークを作成した結果を図 2 に示す.左側の予備実験の図では UI に関する要素や結びつきが低い要素が見られる一方,右側の本実験の図ではそれぞれの要素が絡み合っている.このことから,UI の改善やゲーミフィケーション要素の追加といった修正が学習に与えた影響は大きかったと考えられる。
図 2 予備実験(左)と本実験(右)の共起ネットワーク図
## 6 まとめ
本研究では,既存の教材デザインを組み合わせた教材を検討し,学習意識が低い被験者でも学習意識やスコアの改善が見られた.一方,採用するゲームの習熟度や完成度が学習に影響を及ぼす例が多数見られた.今後は,元となるゲームの習熟度を踏まえた実験グループの選定や,教材のどの部分が効果的に作用したかを,要素を切り離して実験を行うことによって検証することで,教材評価を行いたい。
## 参考文献
1. 文部科学省初等中等教育局情報教育 - 外国語教育課. 新学習指導要領全面実施に向けた小学校外国語に関する取組について. (オンライン) 2019年9月 4 日. (引用日: 2021 年 12 月 23 日.) https://www.mext.go.jp/b_menu/shingi/chukyo/chukyo3/ 004/siryo/_icsFiles/afieldfile/2019/09/11/1420968_2.pd f.
2. 文部科学省. GIGA スクール構想に関する各種調查の結果. (オンライン) 2021 年 8 月. (引用日: 2021 年 12 月 23 日.)
https://www.mext.go.jp/content/20210827-mxt_jogai01000017383_10.pdf.
3. 藤本徹. 効果的なデジタルゲーム利用教育のための考え方: : コンピュータ\&エデュケーション, 2011.
4. GabrielaKiryakova, NadezhdaAngelova, LinaYordanova. GAMIFICATION IN EDUCATION. 2014.
## 5. BartleARichard.
Hearts,Clubs,Diamonds,Spades:Players Who Suit Muds. 1996.
6. 栗原一貴. 既存ゲームに寄生するゲーミフィケ ーション.: 情報処理学会, 2015.
7. ミハイ・チクセントミハイ著今村浩明訳. フロ一体験喜びの現象学. 京都府 : 世界思想社, 1996. 8. 石村郁夫. フロー体験の促進要因とその肯定的機能に関する心理学的研究. 2008.
9. 佐藤志月 , 宍戸真. Unity を用いた電子教材の開発と評価. : 言語処理学会, 2021.
10. アルク. レベル別語彙リストSVL12000. (オンライン) (引用日: 2021 年 6 月 2 日.) https://www.alc.co.jp/vocgram/article/svl/.
11. ShishidoMakoto. Evaluating e-learning system for English conversation practice with speech recognition and future development using AI. 2019.
12. 小林雄一郎, 濱田彰, 水本篤. $\mathrm{R}$ による教育デ一夕分析入門. ページ: 93 .
13. 樋口耕一. 社会調査のための計量テキスト分析一内容分析の継承と発展を目指して一第 2 版. : ナカニシヤ出版, 2020. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E3-5.pdf | # 大学入学共通テスト試行調査における 短答式記述答案の完全自動採点
岡知樹 1 Hung Tuan Nguyen ${ }^{2}$ Cuong Tuan Nguyen $^{2}$ 中川正樹 2 石岡恒憲 3
1 東京大学 2 東京農工大学 3 大学入試センター
oka-haruki497@g.ecc.u-tokyo.ac.jp ntuanhung@gmail.com ntcuong2103@gmail.com
nakagawa@cc.tuat.ac.jp tunenori@rd.dnc.ac.jp
## 概要
自然言語処理の教育分野への応用タスクとして、短答式記述問題の自動採点に関する研究が行われている。実際の教育現場では、短答式記述問題の解答用紙はほとんどが手書きであり自動採点の実応用での障壁となっている。本研究では手書き文字認識と自然言語処理を用いて、短答式問題の手書き回答を完全に自動採点するシステムを開発した。本研究で提案した完全自動採点システムでも、人間の採点に匹敵する高い精度で採点できることを確認した。
## 1 はじめに
現在の教育現場では,言語学で培った能力を適切に評価するために記述式問題が多く導入されている. 採点の効率化や安定化のために,近年では人工知能による自動採点の研究が進んでいる. 英語を対象とした短答式記述答案の自動採点は, 深層学習を用いた手法が提案されて以来,その性能が向上してきた $[1,2,3,4,5]$. 特に,近年では Transformer ベー スの言語モデルを用いた短答式記述答案の自動採点 $[6,7,8,9,10,11,12,13]$ が考案されている.こうした背景から,実際の模擬試験のデータを使用した最新の研究も存在する $[14,9]$.
しかし,これらの研究には 2 つの問題が存在する. 1 つ目は,短答式記述答案の自動採点には余分な手作業が必要なことである. 記述答案の多くは手書きであるため,手書きデータを電子媒体に変換するには手間がかかる.また,従来の方法では,正確性を確保するために,採点の目安となるアノテー ションを付与している.教育現場での実用化を考えると,これらの手間を省くための改良が必要である. 本研究では,アノテーション付与や手書きの答案をテキストデータに変換といった,データ処理を確実に省略できる全自動採点システムを開発した。 2 つ目は,実際の教育現場で扱うデータが過小であり,大規模な検証ができなかったことである. プライバシーの観点からデータ数が限られていた. 本研究では大学入学共通テスト試行調査のデータを用いて実験を行い,大規模な教育現場のデータでも高い採点精度を保証できることを明らかにした。
## 2 共通テスト試行調査のデータ
## 2.1 概要
2017 年と 2018 年に実施された大学入学共通テス卜試行調査の国語の短答式記述問題を使用する. 試験問題は本番と同じ方法で作成し,試験問題の質は厳密に検証されている.今回は日本の約 $38 \%$ の高校がこの試行調査に参加し, 約 6 万人が受験した.
## 2.2 国語の短答式記述問題
試行調査の国語は,5つの大問で構成されている. そのうちの 1 つが短答式記述問題であり,3つの小問で構成されている. 2017 年では,それぞれ 50 字, 25 字,120 字の,2018 年では,30 字,40 字,120 字の字数制限が設けられた。図 1 に 2018 年に実施された短答式記述問題の例(問 $1 , 30$ 字)を示す.
## 問題文
“...ことどのの全く通じない国に行って,相手になにかを頼んだり尋ねたりする状況を考えてみよう。 この時には,指差しが魔法のような力を発揮するはずだ....
設問
“指差しが魔法のような力を発揮する”とはどういうことか?三十字以内で書け.
答案例
ことばを用いなくても意思が伝達できること。
$
\text { Score: } \mathbf{3 / 3}
$
図 12018 年に実施された短答式記述問題の例
## 3 方法
## 3.1 タスク設定
手書き文字認識モデルを用いてテキストデータに変換した短答式記述問題の答案を入力し,対応する予測得点を出力する. 次に,採点基準に基づいた人手による採点結果と比較することで, 本研究の採点モデルがスコアを正しく予測できるかを検証する。
図 2 にタスクの流れを示す。答案データの文字を修正することなく,また,答案にアノテーションを加えることなく,スコアを出力し精度を評価する。
図 2 タスクの流れ
## 3.2 手書き文字認識モデル
ETL (Extracting, Transforming, and Loading) データベースは,オフラインの日本語手書き文字を収録したデータベースである. このデータベースは,異なる条件で収集された 9 つのデータセットから構成されている [15]. 収集されたサンプルは,大学入試の答案用紙のように区切られたボックスに書かれているため, ETLデータベースはオフラインの日本語手書き文字認識モデルを構築するのに適している.
本研究では複数の畳み込みニューラルネットワーク(CNN)のアンサンブル学習した文字認識モデルを使用する. 文字認識モデルは, VGG (Visual Geometric Group)[16], MobileNet[17], ResNet (Residual Network)[18], ResNext[19] であり, それぞれ 16 層, 24 層, 34 層, 50 層で構成されている.
これらの CNN の学習には, 回転, 剪断, 拡大縮小,ぼかし,コントラスト,ノイズ付加などの変換を適用し,サンプル数が 100 万程度であったため,過学習の問題を回避している. ETLデータベースを使ってこれらの CNNを学習した後, 手書き答案の中から手動でラベル付けされた 100 個のサンプルを使って,CNNをファインチューニングする.訓練された文字認識モデルは, 確率の $C$ 次元ベクトルとして予測出力を与える. ここで $C$ は各文字サンプルのカテゴリー数である。これらの予測出力は, 1.0 の均等な重みで平均化され,アンサンブル予測出力となる.このようにして,アンサンブル予測出力の中で最も確率の高いカテゴリがトップの予測となる. 図 3 は, 16 層, 24 層, 50 層の $\mathrm{CNN}$ を判定する手順を示したものである.
図 3 アンサンブル学習した $\mathrm{CNN}$ の文字認識モデル
また,文字の中には曖昧なものもあるため, $\mathrm{N}$-gram 言語モデルを用いて,言語的な文脈を用いて誤認識した文字を修正する,各文字について,認識スコアと各文字の言語スコアを合わせたスコアを計算する。認識スコアはアンサンブル学習するそれぞれの文字認識モデルによって生成された,文字の確率積である。
次に,言語スコアは日本語 Wikipedia で事前に学習された 5-gram の日本語言語モデルに基づいて認識された文字の確率積である。
3つ目の複合スコアは,認識スコアと言語スコアを線形結合したもので, $\alpha \in[0,1]$ の重みがついている. 複合スコアに応じて, ビーム幅 10 の文字列に沿ったビームサーチアルゴリズムを採用し,複合スコアの高い上位 10 個の候補が抽出されるようにする. 本研究では最も高いスコアの候補の文字のみを自動採点に使用する。
## 3.3 自動採点モデル
日本語で同様の短答式記述答案の自動採点を行う舟山ら [9] や水本ら [14] の手法は,Bi-LSTM に attention を追加したものである. これらの手法では,各採点基準やルーブリックに基づいて予測スコアを出力する. しかし, 本研究の手法では,各採点基準のスコアを蓄積するのではなく, 全体のスコアを予測する。本研究では,日本語 wikipedia で事前学習した BERT[20] ${ }^{1)}$ をアインチューニングする
ことで,マルチラベル分類モデルを明示的に利用する.その手順は以下の通りである(図 4).
1. $x=\left.\{x_{1}, x_{2}, \ldots, x_{n}\right.\}$ を,手書き文字認識によってテキストデータに変換された答案文として事前学習した BERT に入力し,その答案文に対する予測スコア $s \in C=\{0, \ldots, N\}$ をラベルの出力として与える。
2. BERT 全 12 層のうち, 隠れ層の最後の 4 層の [CLS] トークンのベクトルを抽出する. これらを組み合わせることで,最終層の [CLS]トー クンのベクトルのみを使用する場合と比較して,採点精度が向上した. モデルの最適化には Adam を使用した。 バッチサイズは 16 ,エポック数は 5 とした。
3. 連結した [CLS]トークンのベクトルを分類器に入力し,予測スコア $s$ を出力する.
図 4 自動採点モデル
## 4 実験
## 4.1 解答データ
以上の条件や分類方法に基づいて 2017 年と 2018 年にそれぞれ 3 問ずつを含む 6 問の自動採点を行った. 答案数は,2017 年, 2018 年ともに約 6 万件であり,表 1 に,各設問の採点の統計を示す. 設問 ID,答案数, スコア幅, 得点の平均 (土標準偏差), 許容文字数の順に示した. BERT に使用したデータを, $3: 1: 1(=60 \%: 20 \%: 20 \%)$ に分けて,トレーニングセット,開発セット,評価セットとした。採点精度の評価は, Quadratic Weighted Kappa (QWK) [21] を用いて行った。
## 4.2 実験結果
今回の実験では答案の文字数が比較的多く, 内容も平易ではない。このような場合,推定精度を保証するためにはどの程度のサンプルサイズが必要なのかを知る必要がある。そこでサンプルサイズ表 1 各設問の統計量
の大きさを $50,000 , 10,000 , 5,000 , 1,000 , 500$ と変え,QWK がどのように変化するかを観察した.約 60,000 個のフルサイズデータを含めた結果を表 2 に示す. 太字は最良の値を示す.
表 2 各設問の QWK
1. 設問の種類に関わらず,6つの設問すべてで精度が高く保たれている。精度が一番低い 2017 年の Q3でも,QWK は 0.86 となった.
2. 基本的には,サンプルサイズが大きいほど精度は高くなる。つまり,精度が収束しないという予想外の結果になった. 60,000 というサンプルサイズは,一般的なテストでは十分な大きさだと考えられるが,予測の精度を高めるためにはより多くの答案数が必要であることを示している.
3. 問題が簡単なほど得点率が高く, 推定精度も高い. 2017 年,2018 年ともに Q1 が最も簡単で Q3 が最も難しい. Q1 の推定精度は Q3 の推定精度よりも高い。この傾向は得点のカテゴリ数には依存しない。
## 5 追加実験
本研究では,採点精度への影響を 2 つの観点から検討した. 1 つ目の観点は,手書き文字認識モデルによる影響である.認識モデルの変化が全体の採点精度にどのように影響するかを調べた。2つ目の視点は,言語処理モデルによる影響である.BERT の 12 層から抽出する情報の位置を変更し,全体の採点精度にどのような影響を与えるかを検証した。
## 5.1 手書き文字認識モデルの効果検証
採点精度に与える影響を調べるために,4つの文字認識モデルをアンサンブル学習したモデルと他の手法とを比較した. 手法は以下の通りである.
1. No LM:N-gram 言語モデルによる誤認識の補正を行わない文字認識モデル
2. VGG のみ:アンサンブル学習を行わない単一の文字認識モデル
3. DenseNet のみ:アンサンブル学習を行わない単一の文字認識モデル
4. Esm5: 5 つの文字認識モデルをアンサンブル学習した文字認識モデル
表 3 異なる文字認識モデルを用いた際の QWK の比較設問 ID
表 3 は,それぞれの出力結果を用いて自動採点した結果の QWK を比較したものである. その結果,複数の文字認識モデルを用いてアンサンブル学習を行ったものは,単一の文字認識モデルを用いたものよりも総合的な精度が高いことが明らかとなった.また,言語モデルによる修正を加えたモデルの方が,加えないモデルよりも精度が高いという結果が出た. 加えて,アンサンブル学習のモデルの数を増やしても精度に大きな変化はなかった. これらの結果から,全体的な精度は言語モデルの変更と文字認識モデルの品質の両方に影響されることが判明した. 同時に,文字認識モデルの品質向上による総合精度の向上には限界があることも判明した.
## 5.2 BERT から取得した情報の効果検証
BERT から取得した言語情報が採点精度に及ぼす影響を調査した. BERT は全 12 層で構成されており,各層が異なる情報を保有することが知られている [22]. 具体的には入力部に近い層は形態素情報,中間部の層は構文情報, 出力部に近い層は意味情報に焦点を当てた情報を保有している。本研究では BERT を入力部に近い層, 中間部の層, 出力部に近い層の 3 つに分け,それぞれの層での採点精度の違いを調べた. 入力部から 1〜4 層, 5〜8 層, 9〜12 層
のベクトルを抽出する.各精度の結果を表 4 に示した. 各問題とも 9〜12 層の情報を抽出したときに,最も高い採点精度が得られることがわかった。
表 4 情報抽出した層の部分による QWK の比較
この結果から,システムが自動採点作業を行う際に意味的な情報を重視していることが推察される.特に,2017\#Q3 の QWK は,全設問の中で 3.0 以上の差があり,推定精度の低下が際立っている。
## 6 おわりに
本研究では手書き文字認識モデルを用いた短答式記述問題の完全自動採点手法を検討し,大規模な全国テストでその性能を評価した.「完全」とは,人手による採点データへの注釈付けや手書き文字の変換が不要であることを意味している. 大学入学共通テストの 2 回の試行調査で実施された前例のない大量のデータを使用し,事前学習済みの BERTを用いて採点を行った. その結果,以下のことが分かった.
1. データが十分に大きい場合,本手法はアノテー ション作業や手書き答案のテキスト変換を行うことなく高精度で自動採点が可能である。
2. $25 \sim 120$ 字の答案では, 50,000 件のデータサイズでも学習が収束しないことが多い.
3. 手書き文字認識モデルに起因する誤差があっても,現在の技術であればある程度の採点精度は保証される。
本論文では,現在の技術水準において人手を介さない状態での実際の精度を報告した. 扱った問題は,答案の文字数や難易度など様々であったが,いずれの場合も高い精度で得点を予測することができた.このことから,本研究の手法はこの範囲のすべての短答式記述問題に対して有効であり,現在の技術で短答式記述答案の自動採点を十分に行えることが示唆された.また,本研究では,手書き文字認識モデルを短答式記述答案の自動採点で利用する手法の有用性を示すことができた.手書き文字を使うことが多い教育現場での応用に向けて,新たな学習方法を設定するきっかけになると考えられる。
## 謝辞
本研究は JSPS 科研費 JP20H04300, JST A-STEP
JPMJTM20ML の助成を受けたものです.
## 参考文献
[1] Dimitrios Alikaniotis, Helen Yannakoudakis, and Marek Rei. Automatic text scoring using neural networks. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 715-725, Berlin, Germany, August 2016. Association for Computational Linguistics.
[2] Kaveh Taghipour and Hwee Tou Ng. A neural approach to automated essay scoring. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 18821891, Austin, Texas, November 2016. Association for Computational Linguistics.
[3] Fei Dong and Yue Zhang. Automatic features for essay scoring an empirical study. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 10721077, Austin, Texas, November 2016. Association for Computational Linguistics.
[4] Fei Dong, Yue Zhang, and Jie Yang. Attention-based recurrent convolutional neural network for automatic essay scoring. In Proceedings of the 21st Conference on Computational Natural Language Learning (CoNLL 2017), pp. 153-162, Vancouver, Canada, August 2017. Association for Computational Linguistics.
[5] Brian Riordan, Andrea Horbach, Aoife Cahill, Torsten Zesch, and Chong Min Lee. Investigating neural architectures for short answer scoring. In Proceedings of the 12th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 159-168, Copenhagen, Denmark, September 2017. Association for Computational Linguistics.
[6] Chul Sung, Tejas Indulal Dhamecha, and Nirmal Mukhi. Improving short answer grading using transformer-based pre-training. In Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), Vol. 11625 LNAI, pp. 469-481. Springer Verlag, jun 2019.
[7] Leon Camus and Anna Filighera. Investigating transformers for automatic short answer grading. In Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), Vol. 12164 LNAI, pp. 43-48. Springer, 2020.
[8] Jiaqi Lun, Jia Zhu, Yong Tang, and Min Yang. Multiple data augmentation strategies for improving performance on automatic short answer scoring. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, pp. 13389-13396, Apr. 2020.
[9] Hiroaki Funayama, Shota Sasaki, Yuichiroh Matsubayashi, Tomoya Mizumoto, Jun Suzuki, Masato Mita, and Kentaro Inui. Preventing critical scoring errors in short answer scoring with confidence estimation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: Student Research Workshop, pp. 237-243, Online, July 2020. Association for Computational Linguistics.
[10] Brian Riordan, Sarah Bichler, Allison Bradford, Jennifer King Chen, Korah Wiley, Libby Gerard, and Marcia C. Linn. An empirical investigation of neural methods for content scoring of science explanations. In Proceedings of the Fifteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 135-144, Seattle, WA, USA Online, July 2020. Association for Computational Linguistics.
[11] Masaki Uto and Yuto Uchida. Automated short-answer grading using deep neural networks and item response theory. In Lecture Notes in Computer Science (including subseries Lecture
Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), Vol. 12164 LNAI, pp. 334-339. Springer, jul 2020.
[12] Masaki Uto and Masashi Okano. Robust neural automated essay scoring using item response theory. In Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), Vol. 12163 LNAI, pp. 549-561. Springer, jul 2020.
[13] Zhaohui Li, Yajur Tomar, and Rebecca J. Passonneau. A semantic feature-wise transformation relation network for automatic short answer grading. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 60306040, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics.
[14] Tomoya Mizumoto, Hiroki Ouchi, Yoriko Isobe, Paul Reisert, Ryo Nagata, Satoshi Sekine, and Kentaro Inui. Analytic score prediction and justification identification in automated short answer scoring. In Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 316-325, 2019.
[15] Taiichi Saito, Hakuzo Yamada, and Kazuhiko Yamamoto. On the database ETL9 of handprinted characters in jis chinese characters and its analysis. Trans IECE Jpn, Vol. J68-D, No. 4, pp. 757-764, 1985.
[16] Karen Simonyan and Andrew Zisserman. Very deep convolutional networks for large-scale image recognition. arXiv preprint arXiv:1409.1556, 2014.
[17] Andrew G Howard, Menglong Zhu, Bo Chen, Dmitry Kalenichenko, Weijun Wang, Tobias Weyand, Marco Andreetto, and Hartwig Adam. Mobilenets: Efficient convolutional neural networks for mobile vision applications. arXiv preprint arXiv:1704.04861, 2017
[18] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 770-778, 2016
[19] Saining Xie, Ross Girshick, Piotr Dollár, Zhuowen Tu, and Kaiming He. Aggregated residual transformations for deep neural networks. In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 1492-1500, 2017.
[20] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[21] Jacob Cohen. Weighted kappa: Nominal scale agreement with provision for scaled disagreement or partial credit. Psychological bulletin, Vol. 7, No. 4, pp. 213-220, 1968.
[22] Ganesh Jawahar, Benoît Sagot, and Djamé Seddah. What does BERT learn about the structure of language? In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3651-3657, Florence, Italy, July 2019. Association for Computational Linguistics. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E4-1.pdf | # 記述式答案自動採点における確信度推定とその役割
舟山弘晃 ${ }^{1,2}$ 佐藤汰亮 ${ }^{1,2}$ 松林優一郎 ${ }^{1,2}$ 水本智也 ${ }^{3,2}$ 鈴木潤 1,2 乾健太郎 1,2
1 東北大学 2 理化学研究所 3 フューチャー株式会社
\{h.funa, tasuku.sato.p6\}@dc.tohoku.ac.jp
$\{y . m$, inui, jun.suzuki\}@tohoku.ac.jp t.mizumoto.yb@future.co.jp
## 概要
記述式答案の自動採点は,教育現場における採点コストの低減や公平な採点の実現を目指して研究が行われてきたが,自動採点システムの採点誤りへの懸念が教育現場での盛んな実運用を妨げている. 本研究では,自動採点システムの信頼性の担保を目指し,予測の信頼性を表す確信度を導入することで自動採点モデルによる採点誤りを所望の範囲内に抑えるためのタスク設計を提示する。複数の確信度推定手法をテストケースとして前述のタスク設計に基づき実験を行い,目標値の採点誤りの範囲内で自動採点できる可能性を示した.
## 1 はじめに
記述式問題の自動採点は,事前に人手で作成された採点基準について,入力された文章が採点基準を満たしているか評価し点数として出力するタスクである。主に,大規模な試験において公平かつ低コス卜な採点を提供するための採点支援や,教育現場における学習支援を目的として古くから研究されてきた $[1,2,3,4]$. 深層学習に基づく自動採点モデルの登場により,近年自動採点システムの性能が向上しており $[3,4,5]$, 教育現場での応用への機運が高まっている.
一方で,自動採点システムによる採点誤りの可能性を完全に取り除くことはできない。さらに,そのような採点誤りは学習の妨げになる可能性が指摘されている [6]. 舟山ら [7] はこの問題に対して, 許容できないような致命的な採点誤り (CSE) という概念を導入し,予測の信頼性を表す確信度を用いて信頼性の低い予測をフィルタリングし,CSEをできる限り取り除ける範囲で自動採点を行い,残りの答案に対する採点は人が行う事を想定し自動採点タスクの再設計を行った.
本研究では,自動採点システムと人間の系におい
て目標の採点精度を実現するという観点から舟山ら [7] のタスク設計を一般の採点誤りに拡張した枠組みを提示する.実験では,この枠組みの下で所望の採点誤りの範囲内に抑えつつ自動採点を実現可能かどうか,テストケースとして複数の確信度推定手法を用いてシュミレーションを行った。その結果,目標採点誤差の設定によっては採点誤りの範囲内で自動採点ができる可能性を示した。
## 2 確信度を用いた自動採点タスク
自動採点システムの教育現場における実運用に向けて,その採点品質を担保することは重要な課題である。この課題の解決に向けて,我々は新たな確信度を用いた自動採点のスキームとその評価法を提示する. 図 1 にその概要を示す.このスキームでは, それぞれの問題や自動採点を導入する教育現場の要請から事前に定められる採点誤差の許容限界があり,このためにシステムによる誤差が一定値を超えるようであればその部分は人手で採点する,という考え方を採用する。そこで,自動採点結果のフィルタリングを行う現実的な手順として,自動採点システムの採点誤差を特定の目標值 $e$ 以下に抑えることができる閾値 $\tau$ を開発データで推定し,その閾値を用いて未知の答案に対して自動採点と人手採点の振り分けを行う。
記述式答案の自動採点まず,記述式答案の自動採点について説明する。本研究では,得点を得るために答案が含むべき情報が明確に定義されるような問題を扱う (Short Answer Scoring: SAS)。各問題に対して予め配点 $N$ とその採点基準が与えられており,採点作業は,生徒が記述した答案に対してこの採点基準に従い自然数の点数を付与すものである. このため,自動採点タスクは,配点 $N$ が定められているそれそれの問題に対し,入力の答案 $\mathbf{x}=\left.\{x_{1}\right.$ $\left., x_{2}, \ldots, x_{n}\right.\}$ を受け取って答案の点数 $\hat{s} \in S=\{0$ $N\}$ を出力するタスクとして定式化される.
図 1 確信度を用いた自動採点タスクの概要
確信度の導入ある訓練済みの採点モデル $m$ に関して,このモデルが入力 $\mathbf{x}$ に対し得点 $\hat{s}$ を予測したときの確信度を求める手法 conf があり,この確信度を次のように書くこととする。
$
C_{\text {conf }}(\mathbf{x}, \hat{s} ; m)
$
今, $l$ 個のユニークな採点対象の答案 $\left.\{\mathbf{x}_{1}, \ldots, \mathbf{x}_{l}\right.\}$ があり,与えられた答案全てに対する採点結果を $P=\left.\{\left(\mathbf{x}_{i}, \hat{s}_{i}\right)\right.\}_{i=1}^{l}$ とするとき, このうちの信頼できる採点結果 $P_{r} \subseteq P$ を次のように求める.
$
P_{r}=\{(\mathbf{x}, \hat{s}) \in P \mid C(\mathbf{x}, \hat{s}) \geq \tau\}
$
ここで, $\tau$ はフィルタリングに用いる確信度の閾値である. 本研究では,フィルタリングの結果,採点結果が信頼できないと判断された答案の集合 $\bar{P}_{r}=\left.\{p \in P \mid p \notin P_{r}\right.\}$ は十分に訓練された人間が改めて採点することとし,その採点結果には一切の間違いがない理想的な状況を仮定する. $\bar{P}_{r}$ に対し,人間の採点者が改めて採点した結果を $P_{h}$ で表す. 最終的に,確信度を用いて自動採点と人手採点を振り分けて得られる採点結果 $P_{f}$ は $P_{r} \cup P_{h}$ と表せる.
閾値の推定とフィルタリング与えられた許容可能な採点誤差 $e$ に対し, 開発データに対する採点結果 $P^{\operatorname{dev}}$ を用いて確信度の閾値 $\tau$ を以下のように求める.
$
\begin{array}{ll}
\underset{\tau}{\operatorname{maximize}} & \left|P_{r}^{\mathrm{dev}}\right| \\
\text { subject to } & \operatorname{Err}\left(P_{f}^{\mathrm{dev}}\right) \leq e
\end{array}
$
ただし, $\operatorname{Err}\left(P_{r}^{\operatorname{dev}}\right)$ は $P_{r}^{\operatorname{dev}}=\left.\{(\mathbf{x}, \hat{s}) \in P^{\operatorname{dev}} \mid C(\mathbf{x}, \hat{s}) \geq \tau\right.\}$内で発生する採点誤差の総和を表す. 次に, 開発データにおいて求めた $\tau$ を用いてテストセットのフィルタリングを行う。
$
P_{r}^{\text {test }}=\left.\{(\mathbf{x}, \hat{s}) \in P^{\text {test }} \mid C(\mathbf{x}, \hat{s}) \geq \tau\right.\}
$
評価フィルタリングの結果得られる $\left|P_{r}^{\text {test }}\right| /\left|P_{f}^{\text {test }}\right|$ が自動採点可能な答案の割合(自動採点網羅率)を表し, $\operatorname{Err}\left(P_{f}^{\text {test }}\right)$ が答案全体の採点誤差を表す。実験では,答案全体の採点誤差を目標誤差以下に抑えることが可能か,目標値を達成した時の自動採点網羅率はどれくらいか,という 2 点から評価を行う。
## 3 実験
本研究では,2 節で提示した枠組みにのっとり実験を行い,一般的な採点モデル,確信度推定手法の下で実現可能な採点品質を明らかにするとともに今後の課題を議論する。
## 3.1 採点モデル
本研究では BERT [8] をべースとした分類モデルを用いる。モデルはまず,入力答案 $\mathbf{x}$ をエンコー ダー enc (.) によって特徴表現 $\mathbf{h} \in \mathbb{R}^{d_{h}}$ に変換する.
$
\mathbf{h}=\operatorname{enc}(\mathbf{x})
$
本研究では, enc(x) の出力として $\mathbf{x}$ を BERT [8] に入力した際に CLS トークンに付与されるベクトルを採用した。ここで $d_{h}$ は CLS トークンのベクトルの次元数である. その後,得点 $\hat{s}$ を次式により得る.
$
\begin{aligned}
p(s \mid \mathbf{x}) & =\operatorname{softmax}(W \mathbf{h}+b) \\
\hat{s} & =\underset{s \in S}{\operatorname{argmax}} p(s \mid \mathbf{x})
\end{aligned}
$
## 3.2 確信度推定手法
確信度推定手法として以下の 3 つをテストケースとして考える。
予測確率本研究で用いる分類モデルにおいて確信度を推定する最も素朴な方法としては,(6)式で計算される予測確率(Posterior)の值を確信度として考えることができる.
$
C_{\text {prob }}(\mathbf{x}, \hat{s})=\max _{s} p(s \mid \mathbf{x})
$
図 2 代々木ゼミナール国語長文読解データセットより答案及び採点基準の例
Trust score 舟山ら [7] は記述式答案自動採点における確信度の推定において Jiang らが提唱した trust score [9] を用い,一部の問題でその確信度としての信頼性が予測確率を用いる場合を上回ることを示した。本研究でも trust score を確信度推定手法の一つとして考える. 本研究では trust score を次のように算出する. まず,予め学習データ $\left.\{\left(\mathbf{x}_{1}\right.\right.$ ,$\left.\left.s_{1}\right), \ldots,\left(\mathbf{x}_{k}, s_{k}\right)\right.\}$ をそれぞれ自動採点モデルに入力し,各入力に対応する特徴表現の集合 $H=\left.\{\mathbf{h}_{1}\right.$ $\left., \ldots, \mathbf{h}_{k}\right.\}$ を得ておく. さらに,これらを得点ラべル $s$ ごとにクラスタ $H_{s}=\left.\{\mathbf{h}_{i} \in H \mid s_{i}=s\right.\}$ として保持しておく,その上で,未知の入力 $\mathrm{x}$ に対し,その特徵表現 $\mathbf{h}$ と予測得点 $\hat{s}$ を得る. この採点結果 $(\mathbf{x}, \hat{s})$ に関する trust score $: C_{\text {trust }}(\mathbf{x}, \hat{s} ; m, H)$ は以下を式で算出する.
$
C_{\text {trust }}(\mathbf{x}, \hat{s} ; m, H)=\frac{d_{c}(\mathbf{x}, H)}{d_{p}(\mathbf{x}, H)+d_{c}(\mathbf{x}, H)}
$
ただし,
$
\begin{aligned}
& d_{p}(\mathbf{x}, H)=\min _{\mathbf{h}^{\prime} \in H_{\hat{s}}} d\left(\mathbf{h}, \mathbf{h}^{\prime}\right), \\
& d_{c}(\mathbf{x}, H)=\min _{\mathbf{h}^{\prime} \in\left(H \backslash H_{\hat{s}}\right)} d\left(\mathbf{h}, \mathbf{h}^{\prime}\right),
\end{aligned}
$
を表す。また,閾值を用いたフィルタリング時に扱いやすいように,値を 0 から 1 の範囲に正規化する目的で新たに分母に $d_{c}$ を加えている. 正規化しても事例間での確信度の大小関係は保持されるためフィルタリングの手順への影響はない.
ガウス過程回帰一般に記述式答案の自動採点は分類問題及び回帰問題の両方の設定で解くことが可能だが,回帰モデルを用いた場合の方がより高い精度で採点可能であることが示されている $[10,5]$. そこで,本研究では確信度を推定可能な回帰モデルの例としてガウス過程回帰 [11]を用いる。本研究では実装として GPytorch [12] ${ }^{1)}$ を用い,3.1 節の分類モデルを学習後,そのエンコーダーが出力する特徴表現を用いてガウス過程回帰 $f$ の学習を行った. 未知の入力 $\mathbf{x}$ に対して,この新たな自動採点モデルの予測得点 $\hat{s}$ の確信度 $C_{\mathrm{gp}}$ は, $\mathbf{x}$ に対する特徴表現 $\mathbf{h}$ を用いて次のように書ける.
$
\begin{aligned}
\hat{s} & =\mathbb{E}[f(\mathbf{h}) \mid H, S], \\
C_{\mathrm{gp}} & =-\operatorname{Var}[f(\mathbf{h}) \mid H, S]
\end{aligned}
$
ただし, $H$ は学習データを 5 式に入力して得られた特徴表現の集合, $S$ はその得点の集合である.
## 3.3 データセット
本研究では,我々が国立情報学研究所(NII)にて公開している代々木ゼミナールの国語長文読解問題データセットを用いる2).このデータセットは,各受験者の答案文と採点者によって付与された点数のペアのデータで構成される. 図 2 に本研究で対象とする記述問題の具体例を示す. 本データセットでは, 各問題に対して複数の採点項目が存在し, 各項目はそれぞれの採点項目に基づいて独立に人手で採点が行われ, 項目点が付与されている. 例えば,図 2 では, A, B,C,Dの4つの採点項目が存在し, それぞれ 2 点, 2 点, 3 点, 3 点が項目点として付与されている。本実験ではこれらの採点項目をそれぞれ独立の問題として扱い,各項目ごとに 3.1 節で述べた採点モデルを訓練し,点数を予測し評価を行う. 本研究では 2022 年 1 月時点の版として公開されている 12 問(計 37 項目)を用いた.
## 3.4 実験設定
3.1 節で述べたように,自動採点モデルのエンコーダーとして事前学習済み BERT [8] を使用し, CLS トークンに付与される値を答案の特徴べクトルとして採用した ${ }^{3)}$. 参考のため実験で使用したモデルの採点精度を付録 $\mathrm{A}$ に示す。データは学習用,テスト用としてそれぞれ 250 件,250 件に分割を行った。学習用データは更に 5 分割を行い 4 セットを訓練用データ (200 件),1セットを開発用データ(50 件)とし,学習用のデータを 5 セット作成した. 学習に用いたハイパーパラメーターの詳細は付録 B に示す.また,採点誤差を表す関数 Err として,Root
表 1 Posterior (Post.),Trustscore(Trust.),ガウス過程回帰(GP)のそれぞれについて,評価セットで目標値の Root Mean Square Error (RMSE) を達成できるような確信度の閾値を推定し,テストセットのフィルタリングを行った時の RMSE(上段)と自動採点網羅率 [\%](下段)の変化. 値は全問題の平均値を表し,土記号は全問題の標準偏差を表す.
Mean Square Error (RMSE) を採用する.また,少量の開発セットの下で,実験結果を安定させるために開発用データ 5 セットを統合した 250 件のデータを用いて閾値を推定した (付録 C).
## 3.5 結果
この実験では 2 節で述べた手順によって,目標とする採点精度を達成できるような確信度の閾値 $\tau$ を検証セットから推定し,その閾値を用いてテストセットに対する予測のフィルタリングを行う.実験では,フィルタリングを行った時に自動採点を行った答案の割合(自動採点網羅率)と,人手採点に一切間違いがなかったと仮定した時の全体の採点精度を求めた. 結果は表 1 である. 目標とする採点精度が非常に高い時( $0.00 \sim 0.02 )$ は,確信度によるフィルタリングによって採点誤りを取り除き目標とする採点品質を安定的に実現することは困難であることが示された. 一方,許容可能な採点誤差をさらに緩く設定すると (0.04~),検証セットで決めた閾值を用いてフィルタリングを行うことで目標の採点精度を実現することが可能であることが示唆される.また,いずれの手法も,同目標誤差の下でのフィルタリング後の RMSE の值はおおむね同程度であるが,手法間で自動採点網羅率には大きな差があることが読み取れる。また,採点誤差および自動採点網羅率ともに標準偏差の值は大きく, 問題ごとに結果に差があることが示されている.
## 3.6 議論
実験では一定量の学習データを用いてモデルを訓練し,推論結果のうち信頼性の低かった答案を人が採点することを想定した. しかし,現実の採点現場においては採点にかけられるコストは一定であるた
め,学習用データの人手採点コストと信頼性の低い答案の人手採点コストはトレードオフの関係にある. すなわち,学習データを増やすとモデルの採点精度は向上し,各得点予測に対する信頼性は全般に向上するが,一方で低信頼度の答案の採点にかけられるコストはその分減少するためより多くの答案を自動採点しなければならない。このように人を含めた系における全体の採点品質を最大化しつつ採点コストを最小化するためには,学習用データの作成にかかる採点コストと,信頼性の低い答案の採点にかけるコストのバランスを最適化する必要がある. この問題の解決に向けて,今後はアクティブラーニングの導入による human-in-the-loop 型の自動採点を想定することで学習データの作成コストと低信頼予測の再採点コストを動的に決定する方法の構築を進めていくことを予定している。
## 4 おわりに
近年,自動採点システムの採点精度は大きく向上しているが,教育現場へのさらなる応用を進めるためには信頼性の向上が不可欠である. 本研究では,舟山ら [7] が提示した確信度を用いた自動採点タスクを拡張し,所望の採点誤りの範囲内で自動採点を行う枠組みを提示することで,採点システムの信頼性の向上に取り組んだ.実験では,既存の確信度推定手法と自動採点モデルを組み合わせることで,目標値の範囲内に採点誤りを抑えつつ自動採点を行える可能性を示した. 今後は,アクティブラーニングの活用により学習データの採点コストと信頼性の低い答案の採点コストのバランスを最適化することで,自動採点システムのさらなる信頼性の向上を図りつつ採点コストの最小化を目指す。
## 謝辞
本研究は,科研費 JP19K12112 の助成を受けたも
のです.また,実際の模試データを提供していただいた学校法人高宮学園代々木ゼミナールに感謝します.
## 参考文献
[1] Peter Foltz, Darrell Laham, and T. Landauer. The Intelligent Essay Assessor: Applications to Educational Technology. Interactive Multimedia Electronic Journal of Computer-Enhanced Learning, Vol. 1, No. 2, pp. 939944, 1999.
[2] Yigal Attali and Jill Burstein. Automated Essay Scoring with E-rater v.2.0. Journal of Technology, Learning, and Assessment, Vol. 4, No. 3, p. 31, 2006.
[3] Tomoya Mizumoto, Hiroki Ouchi, Yoriko Isobe, Paul Reisert, Ryo Nagata, Satoshi Sekine, and Kentaro Inui. Analytic Score Prediction and Justification Identification in Automated Short Answer Scoring. In Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 316-325, 2019.
[4] Kaveh Taghipour and Hwee Tou Ng. A Neural Approach to Automated Essay Scoring. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1882-1891, November 2016.
[5] Brian Riordan, Andrea Horbach, Aoife Cahill, Torsten Zesch, and Chong Min Lee. Investigating neural architectures for short answer scoring. In Proceedings of the 12th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 159-168, 2017.
[6] Oleg Sychev, Anton Anikin, and Artem Prokudin. Automatic grading and hinting in open-ended text questions. Cognitive Systems Research, Vol. 59, pp. 264-272, 2020.
[7] Hiroaki Funayama, Shota Sasaki, Yuichiroh Matsubayashi, Tomoya Mizumoto, Jun Suzuki, Masato Mita, and Kentaro Inui. Preventing critical scoring errors in short answer scoring with confidence estimation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: Student Research Workshop, pp. 237-243, Online, July 2020. Association for Computational Linguistics.
[8] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4171-4186, June 2019.
[9] Heinrich Jiang, Been Kim, Melody Y. Guan, and Maya R. Gupta. To Trust Or Not To Trust A Classifier. In Samy Bengio, Hanna M. Wallach, Hugo Larochelle, Kristen Grauman, Nicolò Cesa-Bianchi, and Roman Garnett, editors, Proceedings of Advances in Neural Information Processing Systems 31, pp. 5546-5557, 2018.
[10] Stig Johan Berggren, Taraka Rama, and Lilja Øvrelid. Regression or classification? automated essay scoring for Norwegian. In Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 92-102, Florence, Italy, August 2019. Association for Computational Linguistics.
[11] Carl Edward Rasmussen. Gaussian Processes in Machine Learning, pp. 63-71. Springer Berlin Heidelberg, Berlin, Heidelberg, 2004.
[12] Jacob R. Gardner, Geoff Pleiss, David Bindel, Kilian Q. Weinberger, and Andrew Gordon Wilson. Gpytorch: Blackbox matrix-matrix gaussian process inference with gpu acceleration, 2021.
## A 実験に用いたモデルの採点精度
実験に用いた自動採点モデルの Quadratic Weighted Kappa (QWK) と RMSE を示す. 值は各問題ごとに, その問題の全項目を平均したものを示す.
表 2 分類モデルとガウス過程回帰の $\mathrm{QWK}$
表 3 分類モデルとガウス過程回帰の RMSE
表 4 分類モデル学習に用いたハイパーパラメータ
表 5 ガウス過程回帰の学習に用いたハイパーパラメータ学習率 $1.00 \mathrm{E}-01$
最大エポック数 30
## C 少量データにおける閾値の推定
2 節で述べたように,開発セットを用いて閾値の推定を行う必要がある. 開発セットのサイズが大きいほど安定的に閾値を決めることが可能であると考えられるが,答案の採点コストを考えると実際の教育現場において開発セットに用いることができるデータの量は多くはないことが想定される.本実験においても,各 50 件開発証データから目標を達成するための閾値を安定的に推定することは難しい. そこで,本害験では検証用データ 5 セットを統合し 250 件としたものを用いて閾值の推定を行った. その間値を用いて各 5 セットの学習データで訓練したモデルのテストデータに対する採点結果のフィルタリングを行った.
## B ハイパーパラメータ
分類モデルとガウス過程回帰の学習に用いたハイパーパラメータは次の通りである. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E4-2.pdf | # 絵本の言語分析 :
## ブックスタート・セカンドブック事業の対象書籍の比較を通して
\author{
近藤可奈子 ${ }^{1}$ 内田諭 $^{2}$ \\ ${ }^{1}$ 九州大学共創学部 ${ }^{2}$ 九州大学大学院言語文化研究院 \\ kondo.kanako.545@s.kyushu-u.ac.jp, uchida@flc.kyushu-u.ac.jp
}
## 概要
本研究の目的は, 幼児のいる家庭での読書習慣の形成を目的としたブックスタート事業とセカンドブック事業で配布対象となっている絵本における出現語彙の違いを明らかにすることである.ひらがなテキストの形態素解析として, 精度比較の結果, GiNZA (ver. 5.1.0)を用いることで,スペースありの絵本の原文テキストについてカタカナ語の前処理をすることで, 単語区切りで $96.1 \%$, 品詞付与で $94.0 \%$ の精度が見込まれるため,これを利用することとした. 語彙分析の結果, ブックスタート事業の対象絵本では, 身体的な表現や具体性の高い表現が多いことが明らかとなり, セカンドブック事業の対象絵本では,思考に関わる表現や時間把握などに関わるより認知的に高度な表現が多く出現することが明らかとなった。
## 1 はじめに
OECD(経済協力開発機構)が 2018 年に実施した PISA(国際学習到達度調查)において, 日本の読解力は 15 位となり, 前調査年度の 8 位から大幅に下落した. 日本児童の読解力低下は国内でも問題となっており, その原因の一つは読書量の減少だとする主張もあり, 2018 年度の調査では, 読書習慣のある生徒の方が読解力を測る問題における平均点が高いことも明らかにされた(『産経新聞』2019 年 12 月 3 日の記事より).子どもの読書離れは以前から問題視されており, その懸念を背景に 2001 年「子どもの読書活動の推進に関する法律」が制定され, 基本理念や国・地方公共団体の責務が明示された。
このような状況を背景に, 幼児のいる家庭での読書習慣を促進することを目的として絵本を対象者に配布する「ブックスタート事業」や「セカンドブック事業」が各自治体で開始された.これらの事業は地方自治体の単位で行われ,選定される絵本は地域によって異なる。そのため, どのような絵本がどのような基準で選ばれているかは明らかではない。そこで本研究では, これらの事業の配布対象となっている書籍のリストを収集し,語彙分析をすることでその特徴を示す. これにより, 特にマスターリストが存在しないセカンドブック事業(後述)における絵本の選定に貢献することを目指す。
自然言語処理分野における絵本の分析は, ひらがなの形態素解析精度の向上の研究 $[1,2]$ や, 自然言語処理技術を応用した絵本推奨システムの開発[3], 対象年齢の推定[4]などが行われている. 本稿では特にひらがなの形態素解析について最新の日本語 NLP ライブラリである GiNZA[cf. 5]と, MeCab べースの Python ライブラリである janome を用いて精度比較を実施する。
## 2 絵本普及のための事業の概要
## 2.1 ブックスタート事業
子どもの読書習慣向上を目指した活動は数多く実施されているが,主に各自治体や公共図書館が主体となって実施する「ブックスタート事業」もその一つである.ブックスタートとは,各自治体において乳幼児とその保護者を対象に絵本や読み聞かせ体験などをプレゼントする事業で, 1992 年に Share books with your baby!というキャッチフレーズのもと,イギリス・バーミンガム市で始まった。日本では「子ども読書年」である 2000 年にその活動が紹介されたのをきっかけに, 2001 年に本格的な実施へと踏み出した. 現在は NPO ブックスタートの支援により, 全国 1,087 (2021 年 12 月 31 日現在) の市区町村自治体の公的事業として実施されている. 森ら(2011)は,
7 年間ブックスタート事業に取り組んでいる自治体と未だ取り組んでいない自治体において,小学 1 年生の子どもを持つ保護者を対象にアンケート調査を行った. 当調査により,「子どもの読書習慣が高まる,子どものさまざまな本への興味が高まる,(中略)保護者の図書館利用頻度が高まる,(中略)保護者による読み聞かせが多くなる」等の結果が得られ, ブックスタート事業は子どもの読書習慣や保護者の行動へ影響を与えることが示された[6].
## 2.2 セカンドブック事業
ブックスタートのフォローアップ事業として行われているのが「セカンドブック事業」である.対象年齢が 0 歳览とされるブックスタートに対し, セカンドブックは大多数の自治体で 3 歳前後もしくは小学 1 年生とされる. 前者は先述の通り 1,000 以上の自治体が実施している一方で, 後者は 176 の自治体でしか行われていないのが現状である(NPOブックスタートの資料より).第一の要因は,セカンドブックの実施にかかる絵本の費用や事業運営を行うためのスタッフの人件費等であると考えられる.また, ブックスタートに関しては, NPOブックスタートが三年毎に開く「絵本選考会議」において選ばれた 30 冊の絵本が対象リストとして公開されるが,セカンドブックに同様のものは存在せず,事業の普及の障壁になっていると考えられる。
## 3 ひらがな文章の形態素解析
## 3.1 絵本の形態素解析に関する先行研究
絵本のテキストの大部分はひらがなで構成され, また単語や文節区切りで空白を含むという点で特殊である. 藤田ら(2014)は絵本と一般コーパスを比較した場合, 前者では $74.5 \%$ がひらがな, $7.8 \%$ が空白であったのに対し,一般コーパスである BCCWJではそれぞれ 49.2\%, 1.3\%であることを示している[2]. これまで言語モデルを用いた形態素解析の手法[1] や空白区切りや句読点, ひらがな化したデータ, さらに絵本そのもののデータを学習に使う手法などが提案され[2], 精度の向上を報告している. さらに,絵本の分析の課題として, 表記の摇孔[3], 固有名詞の扱い[2]などの問題が指摘され, 数量的な分析の基礎となる形態素解析での課題が多い。
本稿は,形態素解析の精度向上を目的としたものではなく, ブックスタート事業およびセカンドブッ
ク事業で用いられている絵本の言語的特徴を明らかにすることを目的としているため,これらの点には深く立ち入らず, 既存の形態素解析プログラムの精度を比較した上で, 最もパフォーマンスが良いものを利用して分析を進める。
## 3.2 分析精度の比較
既存の形態素解析プログラムで精度が高いものを利用するため, Python の NLP ライブラリである GiNZA (ver. 5.1.0)と janome(ver. 0.4.1)を用いて精度比較を実施する.形態素解析の実行環境は Google Colaboratory を利用する. GiNZA のフレームワークとして spaCy (ver. 3.2.1)を利用し, 辞書として ja-ginza-electra (GiNZA ver. 5.1.0)を指定した。また, janome は mecab-ipadic-2.7.0 を内包している.
## 3.2.1 評価データ・評価方法
評価データは後述する自作の絵本コーパスからランダムに 10 冊(コーパス全体の約 $10 \%$ あたる 8,515 文字分のデータ)を選定したものを利用し, 絵本のテキストに含まれる空白の有無(例:「11ぴきののら衩こがいました」vs「11ぴきののらねこがいました」)の影響についても調查した。「単語区切り」と「品詞付与」について, GiNZA の分析結果を基本として人手で確認した(判断に迷う部分は筆者らで合議して決定した)。ただし, 形態素解析器のポリシーによる違いによって生じる差異については吸収できる形でアノテーションした。例えば,
「おさとう」は GiNZA では「お(接頭辞)+さとう (名詞) 」, janome では「お(接頭詞)+さとう (名詞)」となり「お」の品詞が異なるが,どちらも正答として扱った。また,「とびかかろう」は GiNZA では「とびかからう(動詞)」,janome では
語区切りが異なるが,これらはそれぞれのプログラムで一貫して用いられる区切りであるため, どちらの場合も正答として扱った. なお, GiNZA の出力には pos と tag があるが, 品詞の照合に際してはより詳細な情報が得られる $\operatorname{tag}$ の最初の区分を利用した。例えば,「名詞-普通名詞—一般」が解析結果であつた場合,最初の区分である「名詞」を照合対象とした.
## 3.2.2 評価結果
スペースあり(絵本の原文のまま)とスペースなし (原文データからスペースを一括削除)のそれぞれについて, GiNZA, janome の精度評価結果を表 1 に示す.
表 1 形態素解析の精度比較
検証の結果, 単語区切り・品詞付与どちらの場合も GiNZAを用いて絵本の原文のままスペースありで形態素解析を実施したものが最も精度が高い結果となった ${ }^{\text {ii. }}$ GiNZA の場合, スペースなしの場合でもスペースありの場合と遜色のない結果となったことは特筆に値するだろう。なお, spaCy の辞書で ja-core-news-sm (3.2.0)を指定した場合, 複合動詞 (例: かけ+こむ) や複合語(例:お十かあさん) の区切りが細かくなるという点を除いて結果は同一であったが, 語彙分析に際しては複合形式を単一単位として扱うほうが望ましいため, 本稿の分析では辞書としてja-ginza-electra を利用する.
## 3.3 ひらがな解析の精度向上の手法提案
絵本のテキストの分析精度を上げる手法として,藤田ら(2014)は固有名詞(例:「ぐり」,「ぐら」 など)を辞書に登録することで精度の向上が図れると提案している。これに加えて, 本稿では「リュックサック」,「ボール」などのカタカナ語を, 事前に辞書を用いて,ひらがなからカタカナに変換する前処理を提案する。評価データを観察すると,このようなカタカナ語の誤分析が多い. 例えば, 「べっどのうえでかすてらをたべた」という文は,「べっ (名詞) どの(連体詞)うえ(名詞)でか寸(動詞)てら(名詞)を(助詞)たべ(動詞) た(助動詞)」のように誤分析されるが,「ベッドのうえでカステラをたべた」とカタカナにすると「ベッド
(名詞) の(助詞) うえ(名詞)で(助詞)力ステラ (名詞) を(助詞) たべ(動詞) た(助動詞)」と正しく分析される。本稿のデータではカタカナ語の変換を実施した場合, GiNZAを用いると単語区切りで $96.1 \%$, 品詞付与で $94.0 \%$ まで精度が向上した.
## 4 特徴語の分析
## 4.1 データセット
ブックスタート事業, セカンドブック事業の対象絵本の特徴を明らかにするために,全国で配布されている絵本のリストをインターネットおよび図書館等への問い合わせによって入手し,採用件数を集計した. 最終的に,ブックスタート事業を実施している 24 自治体,セカンドブック事業を実施している 30 自治体のリストを集約し,いずれも 3 地域以上で掲載されているものを分析の対象とした.その結果,「ブックスタート絵本コーパス」として 25 冊 $(4,345$文字),「セカンドブック絵本コーパス」として 29 冊(80,884 文字)が対象となった. これらの絵本のテキスト情報を手入力で入力し,テキストファイルとして保存した. 3 節での実験結果を受けて, 絵本のスペースありデータ(原文のまま)をGiNZA で解析し, 品詞ごとに出現語彙を集計した.
## 4.2 高頻度語・特徵語の抽出
平ら(2012)は絵本の高頻度語を分析し, ランダムに売れ筋の絵本を選択した場合のカバー率 (20 冊程度で上位 1,000 語, 150 冊程度で上位 2,000 語をカバ一) や, ウェブ日誌法のテキストデータと比較して幼肾語(まんま,ねんねなど)の出現率が低いことなどを示している[7]. 一方, 対象年齢別の語彙の違いやその特徴までは論じていない. 以下では, 0 歳览向けの絵本が多く含まれるブックスタート絵本コ一パスと 3 歳 6 歳监向けの絵本が多く含まれるセカンドブック絵本コーパスの高頻度語および特徴語を抽出し,その違いについて考察する。高頻度語はブックスタート絵本コーパスでは頻度 5 以上(形容詞は 3 以上),セカンドブック絵本コーパスでは頻度 30 以上(形容詞は頻度 20 以上)のものを抜き出した(ただし,誤解析と思われるものは省く)。また, 特徴語の抽出にあたっては Python の SciPy (ver.
1.4.1)を利用して $\chi$ 二乗検定を実施し, $p<=0.05$ のものを特徴語として認定した(*で記す)。
## 4.3 ブックスタート絵本コーパスの特徴語
ブックスタート絵本コーパスで出現する名詞の高頻度語および特徴語は以下の通りである。
【名詞】おかあさん(24)*,あかちゃん(21)*,こども(11)*,おく(11)*, くつ(10), かお(9)*, ぱん(9)*, こんど(8)*, なか(7), おとうさん(7),数こ(6),おなか(6)*,みち(6)*,たまご(6)*,かくれんぼ(6), いぬ(5), みんな(5), うさぎ(5), ぞう(5), ふわふわ(5), てんてん(5), ぱっぱ(5)
「おかあさん」「あかちゃん」「おとうさん」など,乳児が日常生活において頻繁に語りかけられると考えられる名詞や「かお」「おなか」など身体部を指す名詞が上位にある. 小椋・綿巻(1999)は,日本の幼览の早期表出語彙 50 語において, 普通名詞では身体部分を示す語が最多であるという結果を示しており, 絵本での高頻度語はこの観察と符合する[8].
【動詞】いる $(28)^{*}$, くる $(17)^{*}$, でる $(7)^{*}$, はこぶ(7)*, こぼす $(7)^{*}$, よぶ $(6)^{*}$, くっつく(6)*,にげる $(6)^{*}$ ,のせる $(5)^{*}$ ,あける (5)*
また,動詞では「くる」「でる」「はこぶ」など移動を表すものや具体的な動作を示すものが多い.
【形容詞】いい(17)*, おいしい(8)*, いろいろ(4)*, おおきい(3), きれい(3)*
形容詞については, 「いい」「おいしい」「きれい」 など肯定的な語が上位に複数含まれる.
【副詞】きゅっ(12)*, よく(10)*, どうぞ(10)*, ぎゅう $(8)^{*}$, ぴ上ーん(8)*, わん(6)*, また(5), びり(5)*
副詞として分析された語をみると,「きゅつ」「ぎゅう」「ぴょーん」「わん」など擬音語が頻繁に見られる。
## 4.4 セカンドブック絵本コーパスの特徴語
次にセカンドブック絵本コーパスの高頻度語および特徴語について品詞別に考察する。
【名詞】こと(155)*, ライオン(81)*, かえる(79)*, ところ(66)*,
うち(63)*, もの(62)*, さま(55), とき(53), 中(52), わに(51),
こえ(50),おうち(48), ねこ(48), 川(48), オオカミ(45), しつぽ
(42), はなし(42), め(40), き(39), どうぶつ(39), なか(39), ひ
と(39), まえ(39), りゅう(39), ベッド(39),つぎ(38), ホネ(38),
とら(37), もも(35), こども(31), しま(31)
名詞では「オオカミ」「りゅう」「とら」など,一般的な日常生活においては身近な存在でない動物を表す名詞が上位に多く含まれる.また,「もの」「とき」など抽象的な名詞も上位にある。絵本の対象年齢が上がるため, 子どもたちが想像できる範囲がより拡大されることが理由であると考えられる.また,「中」,「川」など簡単な漢字の単語も含まれている.
【動詞】いう(401)*, いる(363), くる(257), 寸る(256), なる(230), ある(180),いく(140),みる(131),やる(107),しまう(99),おもう(73), たべる(66), くれる(56), きく(53), わかる(52), つく(47), あるく(40), だす(40),かける(38),でる(38),はじめる(38),みえる (34),できる(33),まつ(32),もつ(32)
「いる」「なる」「ある」など抽象的な状態動詞や 「みる」「おもう」などの感覚・思考動詞が頻繁に見られることがわかる. O’Grady(2005)は,子どもの発話において最も頻繁に出現するのは「走る」「遊ぶ」「乗る」などの行為に関する動詞で,「思う」
「信じる」などの感覚的な動詞は子どもにとって習得が難しいものとして位置づけており [9], これらの絵本は子どもの認知的な成長につながるよいインプットとなることが示唆される.
【形容詞】いい(80), ない(67), ちいさい(66), おおきな(50), おおきい(29), 大きい (25), くろい(24), ながい(23), うまい(22),大きな(20), すごい(19), はやい(18)
形容詞は特徴語と認定されるものはなかったが, ブックスタート絵本コーパスと比較して, 次元や色彩,味覚, 速度など様々な属性を表す語が観察された。
【副詞】もう(82)*, そう(59)*, どう(50), まだ(36), とても(34), みんな(33),また(30), すこし(29), こう(25), 寸゙っと(24)
副詞では「とても」「すこし」など程度を表す語や 「もう」「ずっと」など時の流れを表す語など,より認知的に高度な副詞が多く見られた。
## 5 まとめ
本論文では自作したブックスタート絵本コーパスとセカンドブック絵本コーパスについて GiNZAを用いて語彙分析を実施し,それぞれの特徴を明らかにした. 前者には身体的・具体的な表現が多い一方,後者には抽象的でより認知的に高度な表現が多いことが明らかとなった. 比較的小規模なデータでの検証ではあるが,対象年齢別の特徴が明確に現れており,セカンドブック事業のための絵本リスト作成に示唆を与えるものであると考える。特に,心理・思考の描写のある絵本や時間把握能力が必要となる絵本が適していることが示唆される.
## 謝辞
本研究の成果の一部は JSPS 科研費 JP $18 \mathrm{H} 00693$ の助成を受けたものです.
## 参考文献
1. 工藤拓, 市川宙, Talbot, D., 賀沢秀人(2012)「Web 上のひらがな交じり文に頑健な形態素解析」『言語処理学会第 18 回年次大会発表論文集』1272-1275.
2. 藤田早苗, 平博順, 小林哲生, 田中貴秋(2014)「絵本のテキストを対象とした形態素解析」『自然言語処理』21(3), 515-539.
3. 藤田早苗, 服部正嗣, 小林哲生, 奥村優子, 青山一生(2017)「絵本検索システム「ぴたりえ」〜子どもにぴったりの絵本を見つけます〜」『自然言語処理』 24(1), 49-73.
4. 藤田早苗, 小林哲生, 平博順, 南泰浩, 田中貴秋 (2014)「絵本を基にした対象年齢推定方法の検討」『人工知能学会全国大会論文集第 28 回全国大会』3D4-4.
5. 松田宽(2020)「GiNZA-Universal Dependencies によ了実用的日本語解析」『自然言語処理』27(3), 695-701.
6. 森俊之, 谷出千代子, 乙部貴幸, 竹内惠子, 高谷理恵子,中井昭夫(2011)「ブックスタート経験の有無が子どもの生活習慣や読書環境等に及ぼす影響」『仁愛大学研究紀要人間学部篇』10, 61-67.
7. 平博順, 藤田早苗, 小林哲生 (2012)「絵本テキストにおける高頻度語彙の分析」『情報処理学会関西支部支部大会』 F-103.
8. 小椋たみ子, 綿巻徹(1999)「早期表出・理解語彙の日米比較」『日本教育心理学会第 41 回総会発表論文集』 141 .
9. O'Grady, W. (2005) How children learn language. Cambridge University Press. (内田聖二監訳(2008)『子どもとことばの出会い: 言語獲得入門』研究社) | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E4-3.pdf | # 画像描写問題における学習者作文の誤り訂正
田中健斗 ${ }^{1}$ 西村太一 ${ }^{1}$ 南條浩輝 ${ }^{2}$ 白井圭佑 ${ }^{1}$ 亀甲博貴 ${ }^{2}$
1 京都大学大学院情報学研究科 2 京都大学学術情報メディアセンター
${ }^{1}$ tanaka.kento.s07@kyoto-u.jp
${ }^{1}$ \{nishimura.taichi43x, shirai.keisuke. $64 x$ \}@st.kyoto-u.ac.jp
${ }^{2}$ nanjo@media.kyoto-u.ac.jp ${ }^{2}$ kameko@i.kyoto-u.ac.jp
## 概要
本研究では,画像描写問題における学習者作文の誤りを訂正する新しいタスクを提案する。本タスクでは,文法的な誤りだけでなく,画像描写問題特有の意味論・語用論に関する誤りの訂正が求められる. 画像と学習者作文を入力に取り,誤りを訂正した文を生成するべースラインを構築した. 実験結果では,文法誤り訂正 (Grammatical Error Correction; GEC) で訂正が困難な意味論・語用論の誤りを訂正できることを確認し,画像を参照する提案手法の有用性を確認した。
## 1 はじめに
外国語教育において,コミュニケーション能力を重視した 4 技能の育成が重視されている. 4 技能のうちの「話す」「書く」という産出能力の評価は難しいタスクである。これは,学習者の多様な発言・作文に対応する必要があるためである. 本研究では,学習者に画像を見せて関連する文を産出させる「画像描写問題 $\perp^{1)}$ に着目し, 学習者作文の自動評価の研究を行う.
学習者は画像描写問題を通して,即時的に考えを述べる能力を身につけることができる.また,画像により作文の自由度が制限されるので,添削基準が確立され,添削コストは削減される。しかし,画像描写問題は明確な利点が多くある一方で,自動評価に取り組んだ研究例は少ない。
本稿では,画像描写問題における学習者作文の誤りを訂正するシステム (図 1)を作成したので,それについて述べる.
図 1 画像描写問題の誤りを訂正するシステム.
## 2 関連研究
近年,学習者作文の誤り訂正のための Shared task である CoNLL-2014 [1] や BEA-2019 [2] が整備され,文法誤り訂正 (Grammatical Error Correction; GEC) が盛んに研究されている. Zhao ら [3] は,誤りを含む文を訂正文に翻訳する機械翻訳ベースの GEC 手法において,訂正文は入力文の多くがコピーされる傾向に着目し, Transformer にコピー機構を備えた手法を提案している。一方で Omelianchuk ら [4] は, コーパス構築にコストを要する機械翻訳ベースの GEC 手法の精度向上が難しい点に着目し, 系列ラべリングの手法を用いた GECToRを提案した。
GEC は文法上の誤りの訂正を目指すものであり,意味論または語用論に関する誤りは原理的に訂正できない.例えば,“there is a bench on glass”には文法上の誤りはないため, GEC では訂正できない. “glass”を "grass” と訂正するには,世界に対する背景知識やコンテクストが必要である。コンテクストには,この文の前にある文章だけではなく,書かれた状況 (画像) も含まれる. 画像描写問題における誤り訂正は,コンテクストとして画像の情報を利用することで,このような誤りの訂正を目指すものである.
表 1 データセットの統計情報.
## 3 データセットの構築
画像描写問題における学習者作文訂正のために,学習者作文とその訂正文のペアを収集した。具体的には,画像描写問題における英作文を収集し,英文添削の専門家による添削を実施した。
## 3.1 学習者作文の収集
本研究では, 主に日本の高校生に画像描写問題に取り組んでもらい,学習者作文を収集した ${ }^{2)}$. 画像描写問題では,画像と画像内の枠部分 (赤枠で囲む) を提示し,その部分について 1 文の英語で描写することを求めた。
問題に使った画像は, RefCOCOg [5] から選出した. RefCOCOg は, MSCOCO [6] の 26,711 枚の画像の中の 54,822 個の物体に対する 85,474 個の参照表現 ${ }^{3}$ からなるデータセットである。問題に使用する画像,及び特定の物体は画像のカテゴリ (e.g., 人,食べ物,車) に偏りが生まれないように 120 枚を人手で選出した. この 120 枚の画像に対し, 651 文の学習者作文を得た。
## 3.2 専門家による添削
次に,日本語を十分に理解する英文添削の専門家に,収集した学習者作文の誤りの訂正を依頼した. その際,元の作文に限りなく近い構文での,文法上の誤りの訂正(文法的な添削)および画像の内容にふさわしくない表現誤りの訂正(写真との関連性における添削)を依頼した.誤りが著しく多く添削が困難な文が 7 文あり,それらは訂正されなかった。表 1 に学習者作文と添削結果の統計情報を示す.図 2 に訂正例を示す。
## 4 画像描写の誤り訂正
本研究では,3節で述べたデータセットを用いて,学習者による画像描写の誤りを訂正するベースラインモデルを構築し,その評価を行う。具体的には,画像 $I$ と学習者作文 $L$ から,適切に訂正された文 $C$
図 2 専門家による添削例. (赤枠で囲まれた部分について描写した作文を学習者に求めた)
を出力する問題とし,エンコーダ・デコーダモデルでモデル化する.モデルの概要を図 3 に示す.詳細は次に述べる。
## 4.1 エンコーダ
画像エンコーダ.画像エンコーダでは画像 $I$ の特徵量を抽出する。学習者は複数の物体を描写することが多く,各物体を基にした特徴量を抽出するために,注意機構 $[7,8]$ をモデルに取り入れる。画像 I から Faster-RCNN [9] を用いて物体を抽出し, ResNet-101 [10]を用いて, 物体領域の特徴量 $\boldsymbol{O}=\left(\boldsymbol{o}_{1}, \ldots, \boldsymbol{o}_{k}, \ldots, \boldsymbol{o}_{K}\right) \in \mathbb{R}^{d_{v} \times K}$ を獲得する. また,物体の位置関係を考慮するために,4 次元の位置座標 (バウンディングボックス)を $d_{e}$ 次元の特徴量 $\boldsymbol{P}=\left(\boldsymbol{p}_{1}, \ldots, \boldsymbol{p}_{k}, \ldots, \boldsymbol{p}_{K}\right)$ に拡張した. 抽出した物体 $\boldsymbol{V}=\left(\boldsymbol{v}_{1}, \ldots, \boldsymbol{v}_{k}, \ldots, \boldsymbol{v}_{K}\right) \in \mathbb{R}^{d_{e} \times K}$ は, $\boldsymbol{O}$ と $\boldsymbol{P}$ の合計を取って,次のように表現できる。
$
\begin{aligned}
\boldsymbol{V} & =\left(\boldsymbol{v}_{1}, \ldots, \boldsymbol{v}_{K}\right) \\
& =\left(\boldsymbol{W}_{o} \boldsymbol{o}_{1}+\boldsymbol{p}_{1}, \ldots, \boldsymbol{W}_{o} \boldsymbol{o}_{K}+\boldsymbol{p}_{K}\right)
\end{aligned}
$
$\boldsymbol{W}_{o} \in \mathbb{R}^{d_{e} \times d_{v}}$ は全結合層の重みを表す.ここで述べた画像の特徴量抽出方法を本論文では,Bottom-up と呼ぶ。また,ResNet-152を用いて,画像全体から特徵量 $\boldsymbol{v}^{\prime} \in \mathbb{R}^{d_{e}}$ を抽出する手法も Global として試した.
学習者作文エンコーダ. 事前学習済みの BERT [11] を用いて,学習者作文 $L$ から特徴量 $\hat{\boldsymbol{e}} \in \mathbb{R}^{d_{e}}$ を抽出する.学習者作文 $L$ は WordPiece Tokenizer を用いてサブワードに分割し,BERT により特徴量 $\left(\boldsymbol{e}_{1}, \ldots, \boldsymbol{e}_{n}, \ldots, \boldsymbol{e}_{N}\right) \in \mathbb{R}^{d_{e} \times N}$ を獲得する.各特徴量を平均プーリングすることで文レベルの特徵量 $\hat{\boldsymbol{e}}$ とする.
$
\hat{\boldsymbol{e}}=\frac{1}{N} \sum_{i=1}^{N} \boldsymbol{e}_{i}
$
注意機構. エンコーダで獲得した物体の特徴量 $V$ と学習者作文の特徴量 $\hat{\boldsymbol{e}}$ を基に,注意機構は各物体
図 3 提案する誤り訂正モデルの概要図。(画像中の赤枠は画像エンコーダが特徴量を取り出す際に参照した領域)
の学習者作文に関する重み $\hat{v}$ 算出する。 [12] らの手法に倣い,画像の特徴量 $\hat{\boldsymbol{v}}$ は,
$
\hat{\boldsymbol{v}}=\sum_{k=1}^{K} \alpha_{k} \boldsymbol{v}_{k}
$
のように算出する。また,重み $\alpha_{k}$ は,
$
\begin{aligned}
\alpha_{k} & =\frac{\exp \left(\tau_{k}\right)}{\sum_{j=1}^{K} \exp \left(\tau_{j}\right)} \\
\tau_{k} & =\boldsymbol{W}_{v e}\left(\operatorname{ReLU}\left(\boldsymbol{W}_{v} \boldsymbol{v}_{k}\right) \odot \operatorname{ReLU}\left(\boldsymbol{W}_{e} \hat{\boldsymbol{e}}\right)\right)
\end{aligned}
$
のように算出する.ただし,๑はアダマール積を指し, $\boldsymbol{W}_{v} \in \mathbb{R}^{d_{e} \times d_{e}}, \boldsymbol{W}_{e} \in \mathbb{R}^{d_{e} \times d_{e}}, \boldsymbol{W}_{v e} \in \mathbb{R}^{1 \times d_{e}}$ は全結合層の重みを表す 4$)$ .また,画像エンコーダに “Global”を用いた場合,注意機構は適用されず,画像の特徴量は $\hat{v}$ の代わりに $v^{\prime}$ となる。
## 4.2 デコーダ
学習者作文と画像の特徵量 $(\hat{\boldsymbol{e}}, \hat{\boldsymbol{v}})$ を基に,LSTM を用いて訂正文を生成する.LSTM の隠れ状態 $\boldsymbol{h}$ の初期值は次のように算出する.
$
\boldsymbol{h}=\operatorname{ReLU}\left(\boldsymbol{W}_{f} \hat{\boldsymbol{v}}\right) \odot \operatorname{ReLU}\left(\boldsymbol{W}_{g} \hat{\boldsymbol{e}}\right),
$
$\boldsymbol{W}_{f}, \boldsymbol{W}_{g} \in \mathbb{R}^{d_{e} \times d_{e}}$ は全結合層の重みを指す。
## 4.3 損失関数
画像 $I$ と学習者作文 $L$ を大力に取り, 訂正文 $C$ を出力するように,次の損失関数 $\mathscr{L}$ を最小化する。
$
\mathscr{L}=-\sum_{D_{\text {train }}} \log p(C \mid \boldsymbol{h} ; \boldsymbol{\theta})
$
$D_{\text {train }}$ は訓練データを指し, $\boldsymbol{\theta}$ はモデルのパラメー タを指す。
## 5 実験
画像描写作文の誤りを訂正する実験を実施する。
## 5.1 実験設定
擬似データによる事前学習. 誤り訂正の精度を高めるために,大規模で容易に入手可能な画像キャプションに擬似的な誤りを生成することで,訓練データを拡張する。本研究では,GEC の擬似的誤り生成手法 [13] を用いて, MS-COCO のキャプションから誤り文を生成した。ここで構築した擬似デー タ5)を用いてモデルの事前学習を実施する. 3 節で収集したデータセットは,事前学習されたモデルの fine-tuning に用いる. データは画像ごとに訓練デー タ/開発データ/テストデータに 6:2:2 の割合で分割した.
ハイパーパラメータ. 最適化手法には Adam [14] を使用し,ミニバッチサイズは事前学習時に 64, fine-tuning 時に 8 とした. 次元 $d_{v}$ と $d_{e}$ は, ResNet と BERT の出力する特徴量の次元に合わせて,それぞれ 2,048 と 768 としている.また,学習率は $5.0 \times 10^{-5}$ とした.
評価尺度. GEC の標準的な評価尺度である ERRANT [15] と GLEU [16] を用いた評価を実施する.これらの評価は,システムが画像を参照した訂正の評価については十分でないため,今後改善する必要があると考えている.
モデル. 提案手法と比較するモデルとして,既存の GEC モデルの GECToR を用いる。また,提案手法では,次のモデルを用いて実験を実施した。
・ $\mathbf{L - C}$ : 学習者作文 $L$ のみを用いて,訂正文 $C$ を生成する ${ }^{6}$.
- LI-C: 学習者作文 $L$ と画像 $I$ を用いて, 訂正文 $C$ を生成する4.1で述べた通り,画像の特徴量抽出は,Global と Bottom-up をそれぞれ適用する。
5)訓練用に画像 40,186 枚,キャプション 201,059 文,開発用に画像: 5,000 枚,キャプション 25,014 文を用いた。
6) L-C モデルの fine-tuning 時のみ学習率を $1.0 \times 10^{-3}$ とした.
図 4 提案手法による訂正文と既存の GEC モデル GECToR が出力する訂正文の比較. 学習者作文との差分を赤字で示す. (画像中の赤枠を中のものを参照した作文を学習者に求めた)
## 5.2 定量評価.
表 2 に,ERRANT で算出した適合率,再現率, $F_{0.5}$値と GLEU の値を示す.
GECToR との比較. GECToR と比較すると,LI-C モデルは ERRANT の再現率,GLEU において性能を上回った一方で,ERRANT の適合率, $F_{0.5}$ 值では下回る結果となった。これは,GECToR が訂正箇所を最小限に抑える一方で,LI-C モデルは学習者作文を改変し, 画像を基にした文を生成する傾向にあることが原因にあると考えられる。学習者作文の構文・語彙に近い訂正を実現するために,コピー機構 [3] を取り入れることが解決策の一つにある.
また, GECTOR と L-C モデルは, どちらも画像を活用しないが,精度に差が生まれた。これは, GECToR が大規模なコーパスを用いて学習されていることから明らかである。
画像の特徵量. LI-C モデルは全ての評価値において,L-C モデルの性能を上回った。これは,誤り訂正における画像の情報の有用性を示す。また,画像の特徵量抽出では, “Bottom-up” が全ての評価値において “Global” の性能を上回った. 画像内の物体を考慮した特徴量の抽出が,学習者作文を訂正する上で有用であったことがわかる.
## 5.3 定性評価.
提案手法LI-C (Bottom-up) による訂正文と GECToR が出力する訂正文の比較を図 4 に示す. GECToR が表 2 GEC の評価尺度による評価. 最良の結果を太字で示す.
画像の情報を活用できていない一方で,提案手法は画像に関連する学習者の誤りを訂正できていることがわかる ((a)“air”を “fighter”院正). また,提案手法では位置関係の訂正もできた ((b)“under”を “by” に訂正). 一方で,学習者の描写内容を反映できていない誤り訂正の失敗例も確認した ((c)“wine glass” を “conversation” に訂正). モデルにコピー機構を設けることで,学習者作文の構文・語彙をより考慮した訂正文生成を行うことが解決策の一つに考えられる。
## 6 おわりに
外国語学習者による画像描写の自動評価に取り組んだ. 具体的には,学習者作文の誤りを画像情報を用いつつ訂正する方法を研究した. 画像と学習者による画像描写,そして,専門家による訂正文から構成されるデータセットを整備し,それを用いて画像描写問題における学習者作文の自動訂正ベースラインを構築した。画像描写の誤り訂正について画像が有用であることを確認した.また,GECでは訂正できない誤りを本手法が訂正できることを確認した。
## 謝辞
本研究は JSPS 科研費 $19 K 12119$ の助成を受けたも
のである.
## 参考文献
[1] Hwee Tou Ng, Siew Mei Wu, Ted Briscoe, Christian Hadiwinoto, Raymond Hendy Susanto, and Christopher Bryant. The CoNLL-2014 shared task on grammatical error correction. In Proc. of CoNLL, pp. 1-14, 2014.
[2] Christopher Bryant, Mariano Felice, Øistein E. Andersen, and Ted Briscoe. The BEA-2019 shared task on grammatical error correction. In Proc. of BEA, pp. 52-75, 2019.
[3] Wei Zhao, Liang Wang, Kewei Shen, Ruoyu Jia, and Jingming Liu. Improving grammatical error correction via pre-training a copy-augmented architecture with unlabeled data. In Proc. of NAACL, pp. 156-165, 2019.
[4] Kostiantyn Omelianchuk, Vitaliy Atrasevych, Artem Chernodub, and Oleksandr Skurzhanskyi. GECToR grammatical error correction: Tag, not rewrite. In Proc. of BEA, pp. 163-170, 2020.
[5] Junhua Mao, Jonathan Huang, Alexander Toshev, Oana Camburu, Alan Yuille, and Kevin Murphy. Generation and comprehension of unambiguous object descriptions. In Proc. of CVPR, pp. 11-20, 2016.
[6] Tsung-Yi Lin, Michael Maire, Serge Belongie, Lubomir Bourdev, Ross Girshick, James Hays, Pietro Perona, Deva Ramanan, C. Lawrence Zitnick, and Piotr Dollár. Microsoft coco: Common objects in context. In Proc. of ECCV, pp. 740-755, 2014.
[7] Peter Anderson, Qi Wu, Damien Teney, Jake Bruce, Mark Johnson, Niko Sünderhauf, Ian Reid, Stephen Gould, and Anton Van Den Hengel. Vision-and-language navigation: Interpreting visually-grounded navigation instructions in real environments. In Proc. of CVPR, pp. 3674-3683, 2018
[8] Kelvin Xu, Jimmy Ba, Ryan Kiros, Kyunghyun Cho, Aaron Courville, Ruslan Salakhudinov, Rich Zemel, and Yoshua Bengio. Show, attend and tell: Neural image caption generation with visual attention. In Proc. of ICML, pp. 20482057, 2015.
[9] Shaoqing Ren, Kaiming He, Ross Girshick, and Jian Sun. Faster r-cnn: Towards real-time object detection with region proposal networks. In Proc. of NeurIPS, pp. 91-99, 2015 .
[10] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. In Proc. of CVPR, pp. 770-778, 2016.
[11] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proc. of NAACL, pp. 4171-4186, 2019.
[12] Qing Li, Qingyi Tao, Shafiq Joty, Jianfei Cai, and Jiebo Luo. VQA-E: Explaining, elaborating, and enhancing your answers for visual questions. In Proc. of ECCV, pp. 552567, 2018.
[13] Abhijeet Awasthi, Sunita Sarawagi, Rasna Goyal,
Sabyasachi Ghosh, and Vihari Piratla. Parallel iterative edit models for local sequence transduction. In Proc. of EMNLP-IJCNLP, pp. 4259-4269, 2019.
[14] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Proc. of ICLR, 2015.
[15] Christopher Bryant, Mariano Felice, and Ted Briscoe. Automatic annotation and evaluation of error types for grammatical error correction. In Proc. of ACL, pp. 793-805, 2017.
[16] Courtney Napoles, Keisuke Sakaguchi, Matt Post, and Joel Tetreault. Ground truth for grammatical error correction metrics. In Proc. of ACL-ICJNLP, pp. 588-593, 2015. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E4-4.pdf | # 日本語能力試験に基づく日本語文の難易度推定
中町 礼文 ${ }^{1}$ 佐藤 敏紀 ${ }^{1}$ 西内 沙恵 ${ }^{2}$ 浅原 正幸 ${ }^{2}$ 奥村 学 ${ }^{3}$
${ }^{1}$ LINE 株式会社 2 国立国語研究所 3 東京工業大学
\{akifumi .nakamachi, toshinori.sato\}@linecorp.com
\{snishiuchi, masayu-a\}@ninjal.ac.jp
oku@pi.titech.ac.jp
## 概要
急増する在留外国人に向けての日本語の学習支援や,「やさしい日本語」の整備という社会的課題がある. 特に, 在留外国人の増加に伴い, 日本語教師の負担が増大しており, 学習支援の自動化は急務である. 本研究では, 非母語話者の日本語運用能力の評価試験として広く用いられている日本語能力試験 (JLPT) の習熟度基準に準拠した日本語文の難易度推定の自動化に取り組む. まず, JLPT の過去の試験問題から評価用データを作成し, JLPT の学習参考書から訓練用データを作成した. さらに, 作成したデータをもとに, JLPT の習熟度基準に基づいた文の難易度の推定器を作成した. 我々の作成した推定器は評価データによる評価で高い相関を示した。
## 1 はじめに
在留外国人の $76 \%$ は, 日常でのコミュニケーションで日本語を用いている [1]. 一方で, 日本語教師の数は横ばい [2] であり, 計算機による日本語の学習・教育支援の自動化が急がれている. 日本語の難易度判定は, 非母語話者の理解力に合わせたテキスト提示を行う際のフィルターや, 作文練習の自動支援など, 日本語の教育支援に幅広く活用される. 例えば, コミュニケーションアプリケーション上で, 日本語の記述練習の支援を行うことや, ニュースなどの情報配信サービス上で文の難易度を提示することで,在留外国人の日本語での日常生活に即した学習を支援できる.
テキストの難易度推定の既存研究として, 英語におけるリーダビリティの研究では, 単語の平均音節数や, 平均文長などをもとに文章の難易度を評価する FKGL[3] を始め, 多数の評価方法が開発されている. また, CEFR-J に基づく英語の文章の難易度を評価する手法 $[4,5]$ などもあるが, 英語と日本語は言語的性質が異なるため, 日本語の難易度評価は英語の難易度評価とは異なる点が多い. 日本語の難易度評価の既存研究としては, 平均文長や単語難易度などの基本的な統計量をもとに文章の難易度を推定する回帰式 $[6,7,8,9,10]$ が多数存在している. 李 [9] は, BCCWJ から独自にコーパスを作成し, 平均文長や,漢語率などの統計量から文章の難易度を推定する回帰式を作成し,ニュースなどの一般文書の難易度評価実験を行った. また, 国語教育を対象とした文章の難易度判定システムとして, 日本語の教科書を用いた大規模なコーパスの n-gram や統計的言語モデルに基づく特徴量を利用して, 初等教育の学年を推定する手法 $[11,12]$ がある. また, 日本語の語彙の難易度判定システムとして, Sunakawa ら [13] は, 人手で単語難易度の辞書を作成した. Nishihara ら [14] は,単語難易度の辞書を自動で構築した。
日本語の難易度推定の既存研究では, 単語レベルの難易度推定や, 文章単位のリーダビリティとしての難易度推定が行われているが, 非母語話者の記述練習などの目的では文単位の評価が望ましいと考えた. 特に, 文章単位の難易度推定では, 使用している特徵量として, 主に文章の単純な統計量のみを考慮しており, 文法や文脈などの情報を十分に加味したものは存在していない. また, 非母語話者向けの文章の難易度判定の既存研究では, 独自の尺度で難易度を推定している。これらは,学習者が自身の能力評価に用いる日本語能力試験(JLPT)の習熟度基準とは直接的な対応関係がなく, 難易度の評価結果が直感的ではない. さらに, 日本語文の難易度評価や教材自動作成のための言語資源で, 最新の JLPT の習熟度基準に準拠しているものはそもそも存在しておらず,旧習熟度基準のラベル付きコーパスについても公開されているものは存在しない. そこで, 本研究では,単文の難易度を JLPT の習熟度基準に準拠した難易度で推定するため, JLPT の過去の試験問題や学習参
表 1 JLPT の習熟度基準
考書からラベル付きコーパスを作成する. 作成したコーパスをもとに, 文の難易度推定器の作成する。
## 2 JLPT の習熟度基準
本研究では,コーパスから日本語文の難易度を推定する. 難易度推定結果を直感的に理解しやすくするため, 非母語話者の日本語運用能力を図る試験として広く用いられている JLPT の習熟度基準に準拠するよう, JLPT の過去試験や学習参考書から文の難易度ラベル付きコーパスを作成する. そこで, まず JLPT の習熟度基準について説明する。
JLPT では, 日本語の運用能力を上級, 中級, 初級の 3 段階で定義している. 上級の能力は, 現実の生活の幅広い場面で使われる日本語の理解ができることを示す. 初級の能力は, 学習者が日本語教室内で学ぶレベルの日本語の理解ができることを示す. 中級は, 初級から上級へ過渡的な級である. また, 3 つ級を分割し, N1 から N5 の 5 段階で能力を評価している.
表 1 に, JLPT の定義する習熟度基準を示した. 上級の $\mathrm{N} 1, \mathrm{~N} 2$ では, 新聞や論説をはじめとする高度な文章の読解力と, 自分の意見の記述力など, 高度な日本語運用能力を評価する. また, 初級の N4, N5 では,日本語の初学者の学習状況を評価する. $\mathrm{N} 1$ または超級と呼ばれる段階では, 全ての難解なテキストが N1 と表現されるため, N1 の内部でも難易度に大きな差表 22012 年過去問の統計情報
があるという課題がある。
## 3 JLPT の習熟度基準に基いたデー 夕作成
JLPT の習熟度基準に基づいた文の難易度を予測するため, JLPT の過去の公式試験問題と, 学習参考書を購入し, スキャンを行った. スキャンした画像データから, $\mathrm{OCR}^{1)}$ で文字を抽出し, 抽出した文字から文を構成した. 主に, 語彙・文法の問題や解説文に単文が多く含まれていたため, 本研究ではそれらの文を抽出した。
OCR による抽出後の後処理として, 文のルビを削除し, 文分割を行った. 文分割において, 括弧"「", "」"で囲まれた文章は, 単文として扱った. また, 試験問題の冒頭では, 会話者の名前や問題番号があるが, それらは取り除いた. 参考書について, 外国人向けの参考書であったので, 外国語を取り除く後処理も行なっている。
## 3.1 JLPT の試験問題を用いた評価データ
JLPT の習熟度基準に準拠した難易度を評価するため, 販売されている 2012 年の試験問題集 [15] から問題文の抽出を行った. 試験問題のうち, 語彙, 文法,読解問題の問題文や解答選択肢の文や, 読解問題の文章から文を抽出した. 初級 (N4, N5) はひらがなや簡単な漢字のみの短い文が多くあり, 上級 $(\mathrm{N} 1, \mathrm{~N} 2)$ では漢字などが自然に用いられた比較的長い文が多く存在している. 表 2 より, 文内の漢字比率について, 特に N5 には, ほとんど漢字が含まれていない傾向が確認できる. また, 初級の問題は語彙, 文法などの学習中の知識を問う問題が多いため, 表 2 のように上級と比べて多くのサンプルを取得できた. 一方で, 上級は語彙・文法ではなく読解力を問う問題が多いため, 抽出できたサンプルが少ない.
## 3.2 試験参考書を用いた訓練データ
データを拡張するため, 試験問題に比べて豊富に存在する JLPT の学習参考書から 3.1 節と同様に文の抽出を行った. 学習参考書は, 上級では文法項目を
1) https://clova.line.me/clova-ocr/
表 3 訓練データの統計情報
簡潔に説明するための短めの例文が多く含まれていた. また初級では, 学習者の漢字の学習促進のため,簡単な漢字は文内でルビつきの状態で用いられていた. 表 3 でも, 表 2 と比較して, 全体的に文長が短く,中〜初級の漢字の使用比率が高くなっている。
## 4 機械学習による難易度推定
## 4.1 実験設定
学習参考書より作成したデータセットを用いて,文の難易度の推定器を作成する. 推定器を JLPT の過去の試験問題より作成した評価データで評価する。
モデルへの入力として, 文から作成したベクトルと, 文章の難易度推定で用いられている, 文長と漢字の比率を与える. まず, 文からべクトルを作成する手法を次に示す。
1. BERT Emb: 日本語の BERT $^{2}$ ) の max-pooling
2. TF-IDF: 訓練データで作成した TF-IDF
3. BM25: 訓練データで作成した Okapi BM25[16]
4. jRead: jReadability [9] で用いられた特徴量
ある単語の出現頻度は, そのまま使うと文書の長さに従った值になる.この問題を緩和するため, 重要度の高い単語に重み付けを行える TF-IDF や BM25 による文のベクトル化を行う。また, 文脈を考慮するため BERT による max-pooling によるによる文のベクトル化を行う. また, 既存研究との比較として, jReadability.net で用いられている, 文長, 漢語の比率,和語の比率, 動詞の比率, 助詞の比率からなる, 5 つの文の統計量を文のベクトルとする $j R e a d$ を用いた比較実験も行う. $j \operatorname{Read}$ の比較実験では, 文長, 漢字比率は $\mathrm{jRead}$ に包含されているため結合しない. また, それぞれの入力について, 単語難易度情報の有無による性能差を検証するため, 単語難易度情報を入力データに結合した実験 (+ JEV) も行う. 日本語教育語彙表3)を用いて, 入力文内の単語について, 各単語難易度の出現頻度を計算した 6 次元の頻度ベクトル
表 42012 年度過去試験のテキストによるモデルの評価
を単語難易度情報として用いる。
それぞれ, 作成した問題文の特徵量から JLPT の N1 から N5 の難易度を推定するように, LightGBM ${ }^{4}$ の推定モデルの訓練を行う. 難易度は, 離散値なので判別 (clf) も行うが, 同様に大小関係があるため, 平均二乗誤差を最小化する回帰 (reg) としても訓練を行う. LightGBM を用いたモデルは, Optuna5)を用いて訓練データの交差検証によるチューニングを行う. また, 既存研究との比較のため, jRead については, 線形回帰モデル (lin reg)も実装する.
## 4.2 実験結果
作成したモデルの評価指標として, 平均絶対誤差 (MAE), ピアソンの相関係数 (Pearson), スピアマンの順位相関係数 (Spearman), 難易度予測の正解率 (Acc), F1 スコアを表 4 に示す. 回帰モデル (reg) の実験結果については, 回帰結果を四捨五入した値を擬似的なラベルとみなして, 擬似ラベルとの評価指標を計算した. また, 比較のため, 公開されている文章の難易度評価システムである jReadability.net ${ }^{6}{ }^{6}$ [9] で, リー ダビリティスコアを測定し, リーダビリティスコアと難易度との相関係数も計算した. jReadability.net について, 相関係数以外の指標は尺度が異なるため表記していない.
文章ではなく文単位の予測にとって, jReadによるモデルや jReadability.net の回帰式では十分ではない
mean(ISHAP value|) (average impact on model output magnitude)
図 1 TF-IDF + JEV (reg) による shap 值
表 5 BERT Emb + JEV (reg) 表 6 BERT Emb + JEV (clf) の混同行列
の混同行列
ことが示された. また, 同一の特徴量での reg と clf の比較として, 自動評価では reg が clf より精度が高い傾向が見られた. また, 単語難易度の情報は文難易度の予測においても重要であることが確認された。
## 4.3 難易度推定モデルの分析
入力文において, どの単語や統計情報が予測にとって重要かを分析するため, TF-IDF + JEV で作成した回帰モデルに対して, SHAP[17] による特徴量の寄与率を分析した. 図 1 より, 漢字や文字数などの単純な統計量は文章の難易度推定と同様に, 文の難易度推定においてもある程度重要であることを確認した. また, 文の難易度推定にとって, 単語の難易度情報も重要であることも確認した. また, "です", "ます"といった丁寧語の文末表現は, 初級のような教科書上のテキストに出やすい傾向があった. 丁寧語の文末表現は, 初級の推定において活用される傾向が高かったため, 敬語の文末表現の寄与率が高まる傾向が現れたと考えられる。
表 5 では, MAE において最も精度の高かった, BERT Emb + JEV を用いた回帰モデルの出力結果を四捨五入した擬似的なラベルの混同行列を示している. 表 5 のように, 回帰タスクとして訓練を行った結果, N1 の推定がほぼ適切には行えていないことが確認された. 一方で, 表 6で示した, BERT Emb + JEVを用いた判別モデルの混同行列では, N1 や N5 など難表 7 BERT Emb + JEV を用いた回帰モデルの誤判別例正解予測入力文
$1 \mathrm{~N} 1 \quad \mathrm{~N} 4$ 待っておいでになります
2 N1 N2 そして、日本人のやきものに対する思いとか愛着は、食器のみならず、種類の豊富さにあらわれているといってもいいでしょう。
3 N2 N4 いつも「ジミック」のプリンターをご愛用いただき、ありがとうございます。
4 N3 N4 明日 (30日)の約束ですが、会議に出なければならなくなりました。
5 N4 N2 約束を明日に変えられるかどうか
6 N4 N3 自転車やオートバイは、公園の入り口にとめてください。
7 N4 N5 ふねでにもつをおくります。
8 N5 N4 このまちにはゆうめいなビルがあります。
易度の両端の予測については回帰に比べて高精度だが, 全体的には誤判別が増加している。
表 7 に, BERT Emb + JEV を用いた回帰モデルの誤判別の事例を示している.上級や中級を初級と誤判別していた事例の多くは, 表 7 の例 1, 3,4 のように,手紙やパンフレットなどの, 挨拶や簡単な伝達事項の連絡文など, 定型的な表現の文であった. 定型表現は, 2 章で示したように, JLPT の初級の表現であるが, 前後の文脈の兼ね合いで上級の問題にも一定程度含まれる. 定型表現が上級にも含まれる影響で, 例 5 のように初級のテキストを上級に誤判別している可能性がある. また, 例 2, 6, 7, 8 のように, 隣接する難易度での推定ミスが多く存在している。
## 5 おわりに
本研究では, 非母語話者の日本語の学習支援に向けて, 文の難易度を JLPT の習熟度基準に従って推定するため, JLPT の試験問題や学習参考書から, 難易度ラベル付きコーパスを作成した. さらに, 作成したコーパスから, 文脈情報を加味できる特徵量を用いた文難易度の推定器を作成した. 推定器の評価を行った結果, 難易度ラベルと高い相関を持つ推定が行えることを確認した. さらに, 誤判別例や混同行列を用いたエラー分析により, 文難易度の推定に関して, 本質的な課題として基礎的な文はある程度どの難易度にも出現しうることや, 文難易度を予測するためのコーパス設計上の課題を示した. 今後の課題として,さらなるデータの拡張を行うことで, 基礎的な文の影響を低減させることや, 順序を考慮したモデルの活用などによる推定モデルの改善や, N1 以上の習熟度基準の定義やその推定に取り組む。
## 参考文献
[1] 出入国在留管理庁. 在留支援のためのやさしい日本語ガイドライン, 2020. https://www.moj.go.jp/isa/ support/portal/plainjapanese_guideline.html.
[2] 文化庁. 令和 2 年度国内の日本語教育の概要, 2021. https://www.bunka.go.jp/tokei_hakusho_ shuppan/tokeichosa/nihongokyoiku_jittai/r02/.
[3] J. Peter Kincaid, Robert P. Fishburne Jr., Richard L. Rogers, and Brad S. Chissom. Derivation of New Readability Formulas (Automated Readability Index, Fog Count and Flesch Reading Ease Formula) for Navy Enlisted Personnel. Technical report, Defence Technical Information Center Document, pp. 8-75, 1975.
[4] 林正頼, 石井康毅, 高村大也, 奥村学, 投野由紀夫. 英語学習者の英作文から CEFR レベル別基準特性の特定. 言語処理学会第 22 回年次大会, pp. 781-784, 2016.
[5] 林正頼, 笹野遼平, 高村大也, 奥村学. 誤り傾向と文の容認性に着目した英作文のレベル判定. 情報処理学会研究報告, No. 7, pp. 1-7, 2016.
[6] 川村よし子, 北村達也. 日本語学習者のための文章と難易度判定システムの構築と運用実験. Journal CAJLE, No. 14, pp. 18-30, 2013.
[7] Yuka Tateisi, Yoshihiko Ono, and Hisao Yamada. A Computer Readability Formula of Japanese Texts for Machine Scoring. In Proceedings of the 12th Conference on Computational Linguistics, pp. 649-654, 1988.
[8] 柴崎秀子. リーダビリティー研究と「やさしい日本語」.日本語教育, Vol. 158, pp. 49-65, 2014.
[9] 李在鎬. 日本語教育のための文章難易度に関する研究. 早稲田日本語教育学, No. 21, pp. 1-16, 2016.
[10] Jun Liu and Yuji Matsumoto. Sentence Complexity Estimation for Chinese-speaking Learners of Japanese. In Proceedings of the 31st Pacific Asia Conference on Language, Information and Computation, pp. 296-302, 2017 .
[11] Satoshi Sato, Suguru Matsuyoshi, and Yohsuke Kondoh. Automatic Assessment of Japanese Text Readability Based on a Textbook Corpus. In Proceedings of the Sixth International Conference on Language Resources and Evaluation, pp. 654-660, 2008.
[12] 佐藤理史. 均衡コーパスを規範とするテキスト難易度測定. 情報処理学会論文誌, Vol. 52, No. 4, pp. 1777-1789, 2011.
[13] Yuriko Sunakawa, Jae-Ho Lee, and Mari Takahara. The Construction of a Database to Support the Compilation of Japanese Learners' Dictionaries. Acta Linguistica Asiatica, Vol. 2, No. 2, pp. 97-115, 2012.
[14] Daiki Nishihara and Tomoyuki Kajiwara. Word Complexity Estimation for Japanese Lexical Simplification. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 3114-3120, 2020.
[15] 日本語能力試験公式ウェブサイト. 『日本語能力試験公式問題集』1日本語能力試験 JLPT, 2012. https://www.jlpt.jp/samples/sampleindex.html.
[16] Stephen E. Robertson, Steve Walker, Susan Jones, Micheline Hancock-Beaulieu, and Mike Gatford. Okapi at
TREC-3. In Proceedings of The Third Text REtrieval Conference, pp. 109-126, 1994.
[17] Scott M Lundberg and Su-In Lee. A Unified Approach to Interpreting Model Predictions. In Advances in Neural Information Processing Systems, pp. 4768-4777, 2017.
## A データ作成に使用した書籍情報
## A. 1 評価データ
\\
表 9 評価データ作成箇所
言語知識: 問 4 の解答選択肢の文
言語知識: 問 8 (1), (2), 問 9-12 の問題文章と解答選択肢の文
言語知識: 問 8 (2) の解答選択肢の文
言語知識: 問 10-13 の問題文章と解答選択肢の文
N3 言語知識 (文字・語彙): 問 1-4 の問題文
言語知識 (文字・語彙): 問 5 の解答選択肢の文
言語知識 (文法・読解): 問 1 の問題文
言語知識 (文法・読解): 問 4 (1) (3) (4), 問題 5,6 の問題文章と解答選択肢の文
N4 言語知識 (文字・語彙): もんだい $1,2,3$ の問題文言語知識 (文字・語彙): もんだい 4 の問題文と解答選択肢の文
言語知識 (文字・語彙): もんだい 5 の解答選択肢の文
言語知識 (文法・読解): もんだい 1 の問題文
言語知識 (文法・読解): もんだい 4 (1), (3), (4), もんだい 5 の問題文と解答選択肢の文
言語知識 (文法・読解): もんだい 4 (2) の解答選択肢の文
N5 言語知識 (文字・語彙):もんだい 1-3 の問題文言語知識 (文字・語彙): もんだい 4 の解答選択肢の文
言語知識 (文法・読解):もんだい 1 の問題文言語知識 (文法・読解): もんだい 4 (1), (3), もんだい 5 の問題文章と解答選択肢の文
評価データの作成のため, JLPT の 2012 年の公式過去試験問題集を購入した.
- 国際交流基金, 日本国際教育支援協会. 日本語能力試験公式問題集 N1. 凡人社. 2012.
- 国際交流基金, 日本国際教育支援協会. 日本語能力試験公式問題集 N2. 凡人社. 2012.
- 国際交流基金, 日本国際教育支援協会. 日本語能力試験公式問題集 N3. 凡人社. 2012.
- 国際交流基金, 日本国際教育支援協会. 日本語能力試験公式問題集 N4. 凡人社. 2012.
- 国際交流基金, 日本国際教育支援協会. 日本語能力試験公式問題集 N5. 凡人社. 2012.
また,これらの書籍に掲載されている実際の試験問題は,日本語能力試験公式ウェブサイト7) より取得できる. 実際に評価データの作成に使用した箇所を表 9 に示す. 抽出したデータのうち, 文内に空欄が存在したが, 空欄は空欄を埋めずに使用した. 作成した訓練データのサンプルを表 8 に示す.
## A. 2 訓練データ
表 10 訓練データの例
JLPT の習熟度基準に準拠した学習参考書から訓練デー タを作成した。
- 佐々木仁子, 松本紀子. 日本語総まとめ $\mathrm{N} 1$ 語彙英語・ベトナム語版. アスク出版, 2019.
・佐々木仁子, 松本紀子. 日本語総まとめ $\mathrm{N} 1$ 文法英語・ベトナム語版. アスク出版, 2019.
- 佐々木仁子, 松本紀子. 日本語総まとめ $\mathrm{N} 1$ 読解英語・ベトナム語版. アスク出版, 2019.
・佐々木仁子, 松本紀子. 日本語総まとめ $\mathrm{N} 2$ 語彙英語・ベトナム語版. アスク出版, 2018.
- 佐々木仁子, 松本紀子. 日本語総まとめ $\mathrm{N} 2$ 文法英語・ベトナム語版. アスク出版, 2018.
- 佐々木仁子, 松本紀子. 日本語総まとめ $\mathrm{N} 2$ 読解英語・ベトナム語版. アスク出版, 2018.
- 佐々木仁子, 松本紀子. 日本語総まとめ N3 語彙英語・ベトナム語版. アスク出版, 2018.
- 佐々木仁子, 松本紀子. 日本語総まとめ N3 文法英語・ベトナム語版. アスク出版, 2018.
- 佐々木仁子, 松本紀子. 日本語総まとめ N3 読解英語・ベトナム語版. アスク出版, 2018.
- 佐々木仁子, 松本紀子. 日本語総まとめ $\mathrm{N} 4$ 漢字・ことば英語・ベトナム語版. アスク出版, 2018.
- 佐々木仁子, 松本紀子. 日本語総まとめ $\mathrm{N} 4$ 文法・読解・聴解英語・ベトナム語版. アスク出版, 2018.
・佐々木仁子, 松本紀子. 日本語総まとめ N5 かんじ・ ことば・ぶんぽう・読む・聞く英語・ベトナム語版. アスク出版, 2018.
後処理の都合上, 主に文法の解説のための例文を抽出して使用した. 具体的には, $N 1,2,3$ については, 文法の教科書の全ての解説例文を抽出している. また, N4 は, 読解や文法の使い方の説明文と, 読解問題の文章を抽出した. N5 については, 書籍前半の語彙と,「聞く」パート以外の, 全ての語彙・文法などの使用例と, 読解問題の文章を抽出している. 作成した訓練データのサンプルを表 10 に示す.
| NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E4-5.pdf | # 模範答案のみを利用した日本語小論文採点支援システム
江島知優
岡山大学大学院自然科学研究科
chihiro.100522@s.okayama-u.ac.jp
## 概要
記述式問題の自動採点では近年,BERT (Bidirectional Encoder Representations from Transformers) 等を用いた機械学習によるモデルが提案されている. 本研究では BERT の tokenizer を利用して小論文の bag of words を作成し,模範解答で訓練されたニューラルネットワークを通すことで得られたべクトルを用いて自動採点を行うシステムを作成した.このシステムに対して 100 字から 800 字の日本語小論文デー タを用意し,インドメインで学習を行った手法と One-shot learning を応用した手法について評価実験により精度を求める.
## 1 はじめに
一般に小論文の採点はルーブリックや模範解答などを利用して人手で行われている. しかしたくさんの答案を人手で採点するとなると採点者の負担が非常に大きくなるため自動採点システムの作成が必要である. 記述式問題の自動採点では項目反応理論に基づく能力推定値を活用した手法 [1] や IDF の評価手法 [2] などさまざまな手法が提案されている. 近年では BERT [3] を用いた手法 [4] や Neural Attention モデルを利用した手法 [5] も提案されている. 実験に用いられているデータセットに注目してみても 100 文字以下の短答式記述問題と呼ばれるものを対象として確信度推定を行う手法 [6] や外国人の日本語学習者の文章を対象としたトランズダクティブ学習手法の研究 [7] など多様な研究が行われている.日本人が書いた日本語小論文では答案ごとの文章量や文章力に大きな差がつかないため, 文章中に出現する単語に注目した自動採点システムを作成することが考えられる. 本論文では竹内らの参照文書を利用した小論文採点手法 [8] でも利用されている小論文データから BERT の tokenizer を利用して bag of words を作成し,模範解答で訓練されたニュー ラルネットワークとサポートベクター回帰 (SVR :
\author{
竹内孔一 \\ 岡山大学学術研究院自然科学学域 \\ takeuc-k@okayama-u.ac.jp
}
Support Vector Regression)を組み合わせたモデルを提案し 100 文字から 800 文字の長い小論文に対して性能の分析をするための評価実験を行った.
また,実際に小論文自動採点を行う際に同課題同設問の採点済み小論文を多数集めることは難しいため, One-shot learning の考え方を応用して自動採点を行うことにも取り組んだ. One-shot learning は少数のデータで学習する手法であり Matching Network[9] や Siamese Neural Network[10] どの方法がある. データの分布を推定する手法 [11] なども提案されている. 本研究では 1 つの模範解答と同課題他設問の答案をもとに One-shot learning を実施し,精度評価を行った.
学習データとテストデータのみでの採点手法との違いとして,1つの模範答案を利用するということが本研究の最大の特徴である.
## 2 小論文自動採点システム
本研究では 1 点から 5 点の小論文に対して自動採点システムを作成した. 図 1 に作成した自動採点システムの概要を示す. 各小論文に対して BERT の tokenizerを利用して 32000 次元の bag of words ベクトルを作成する. bag of words ベクトルでは小論文中に出現した単語はその回数を値とし,出現しない単語の値は 0 とする. 次にニューラルネットワークの教師データとして 5 点の模範答案 1 つとネガティブサンプリングを行うために 0 点とした同課題他設問の答案 $\mathrm{k}$ 各 1 つの計 3 答案で同様に bag of words を作成する.この教師データで訓練されたニューラルネットワークに bag of words ベクトル 32000 次元を大力として与え lepoch 学習を行うことで中間層 768 次元のベクトルを得る. これを SVRへの入力として最終的な推定点数を求める. この際の推定点数には丸め処理を行い, 1 点から 5 点の整数値としている.また,データの可視化のために UMAP を用いて次元削減した結果を 2.1 節で述べる.
BERT
tokenizerの
図 1 BERT の tokenizer を利用した自動採点システム
図 2 「自然科学の構成と科学教育」設問 1 で模範答案での学習なし (左) と学習あり (右) の UMAP
## 2.1 UMAP
本研究では実験の前段階として UMAP[12]による可視化を行った. UMAP は次元削減のための多様体学習技術であり, データの可視化や学習の前処理に応用されている. 図 2 に「自然科学の構成と科学教育」設問 1 で bag of words 32000 次元ベクトルと, 模範答案および同課題他設問の答案を教師データとしてニューラルネットワークで学習後の 768 次元ベクトルそれぞれの UMAPを示す. 2 つの UMAP を比較すると学習後のものでは低い点数の小論文データが図の左下部分に集中し, 各点数ごとの分離が容易になっているため精度の向上が期待できる.
## 3 評価実験
本章では評価実験に使用した小論文,実験設定,評価尺度,実験結果を説明し結果の分析を行う。
## 3.1 小論文データ
小論文データとして 2016 年から 2017 年にかけて実施した講義の受講者の解答データを用いる.「グローバリゼーションの光と影」,「自然科学の構成と科学教育」,「東アジア経済の現状」,「批判的思考とエセ科学」の 4 つの講義からなり, それぞれの講義に対して各 3 つの設問が用意されている. これらの答案は理解力・論理性・妥当性・文章力の 4 観点について人手で 1 点から 5 点までの 5 段階で採点されている. 今回はこの 4 観点のうち理解力に対して実験を行った. 小論文データの数は「グローバリゼー ションの光と影」が 328 , 「自然科学の構成と科学教育」が 327 ,「東アジア経済の現状」および「批判的思考とエセ科学」が 290 である.
## 3.2 実験設定
bag of words を作成するために Mecabを利用した日本語訓練済みの HuggingFaceBERT ${ }^{1}$ を BERT の言語モデルとして使用した. このモデルの語彙サイズは 32000 であるので 32000 次元の bag of words が作
成できる. 今回は大きく 2 つの実験を行った. 1 つ目はインドメインで 2 つの手法を比較する実験である. 2 章で述べた小論文自動採点システムについての精度評価を行う. 比較対象として模範答案で学習させる前の 32000 次元の bag of words でも同様の実験を行った. この実験では採点対象の設問の小論文データを $8: 2$ に分割し, 8 割をSVR の学習データ, 2 割をテストデータとして利用している.
2 つ目の実験は One-shot learning の手法を小論文自動採点に応用するというものである. 実験 1 でも使用した模範答案と同課題他設問の答案に対してニューラルネットワークの中間層 768 次元のベクトルを求めSVR を学習させる. この実験ではテストデータとして採点対象の設問の全小論文データを利用している.
## 3.3 評価尺度
本節では今回作成したシステムの評価尺度を説明する. 人手で採点した結果と採点支援システムの出力した結果を入力とし, Accuracy, Correlation, 重み付きカッパ係数 (QWK: Quadratic Weighted Kappa) およびRMSEでの評価を行う. Accuracy の計算式を式 (1)(2)に示す.
$
\begin{aligned}
e q(a, b) & = \begin{cases}1 & (a=b) \\
0 & (a \neq b)\end{cases} \\
\text { Accuracy } & =\frac{\sum_{i=1}^{n} e q\left(A_{i}, B_{i}\right)}{n}
\end{aligned}
$
小論文のデータ数を $n, i$ 番目の点数データを $A_{i}, B_{i}$ とする. Accuracy は人手の採点点数とシステムの推定点数の一致率を表し 1 に近いほど一致率が高いと言える.
Correlation は 2 つの結果の相関係数を算出する指標である。人手の採点結果とシステムの推定点数の一方で高く点数をつけたものはもう一方でも高くつけているか, 低いものは低く点数付けしているかどうかを測る. 式 (3)(4)(5)(6) に示す.
$
\begin{aligned}
\operatorname{Cov}(C S, V S) & =\sum_{i=1}^{E}\left(C S_{i}-\overline{C S}\right)\left(V S_{i}-\overline{V S}\right) \\
\sigma_{c s} & =\sum_{i=1}^{E}\left(C S_{i}-\overline{C S}\right) \\
\sigma_{v s} & =\sum_{i=1}^{E}\left(V S_{i}-\overline{V S}\right)
\end{aligned}
$
$
\text { Correlation }=\frac{\operatorname{Cov}(C S, V S)}{\sigma_{c s} \sigma_{v s}}
$
人手で採点したデータの集合を $C S$ ,システムで採点したデータの集合を $V S$ とする. $C S$ と VSの共分散は式 (3) により求められ,式 (4)で $C S$ の式 (5) で $V S$ の標準偏差をそれぞれ算出する. これらより相関係数は (6) によって表すことができる。.ここで $E$ は採点する小論文のデータ数である. Correlation は 2 つ採点結果の関係性の強さを表し, 1 に近いほど関係性が強い.
次に QWK について説明する. QWK は 2 つの採点結果の点数の差の 2 乗を重み付けし, ズレが大きいほど大きなぺナルティを与える指標である. 式 (7)(8) に示す.
$
\begin{gathered}
\operatorname{byChance}(a, b)=\frac{\operatorname{num}(a) \times \operatorname{num}(b)}{n} \\
Q W K=1-\frac{\sum_{a, b=1}^{5} o b(a, b) \times|a-b|^{2}}{\sum_{a, b=1}^{5} \operatorname{byChance}(a, b) \times|a-b|^{2}}
\end{gathered}
$
1 人の採点者が $a$ と採点した回数を $\operatorname{num}(a)$ とし, 2 人の採点者が $a, b$ と採点した回数を $o b(a, b)$ で表す.QWK は 1 に近いほど実際の点数とシステムの推定点数との相関が強いといえる.
最後に RMSE について式 (9)に示す。これは $2 \supset$ の採点結果の点数の平均の差を表す評価指標である. RMSE は 0 に近いほど平均の差が小さいことを表す.
$
R M S E=\sqrt{\frac{\sum_{i=1}^{n}\left|A_{i}-B_{i}\right|^{2}}{n}}
$
## 3.4 実験結果
小論文の各設問に対して Accuracy, Correlation, QWK,RMSEをそれぞれ算出した. 表 1 では小論文を 32000 次元の bag of words に変換したものを SVR への入力とした結果と,その 32000 次元べクトルを採点対象の模範答案と同課題他設問の答案を用いて学習して得た 768 次元のベクトルを SVRへの入力とした結果を示している. また表 2 には模範答案 1 つと同課題他設問の解答文書 2 つで SVR を訓練し, One-shot learning を行った際の結果を示す.
## 3.5 分析
インドメインでの結果より bag of words 32000 次元のベクトルを採点対象の模範答案と同課題他設問
表 1 インドメインで 8:2 学習を行った際のシステムの評価
表 2 One-shot learning を行った際のシステムの評価
の答案を用いて学習した手法が bag of words の学習なしで SVRへの入力とした場合よりも平均 QWKが 0.037 向上するなど 4 つの評価指標すべてで精度向上が確認できた. 特に短い文章では単語が得点に与える影響が大きく,QWK が向上したと考えられる。 UMAPに関してもこの結果より 2.1 節でも述べたように UMAP を参照することでシステムの精度向上が期待できるといえる。
また,One-shot learning を利用した手法では,「自然科学の構成と科学教育」の設問 1 が QWK0.412,「批判的思考とエセ科学」の設問 1 が QWK0.416 というように 100 文字以内の小論文に対して精度が高くなっており,短い文章に対して本手法が有効であることを示した. One-shot learning でもインドメインでの結果と同様に短い文章では高得点の文章に同一の単語が登場しやすく精度が高くなったと考えることができる.その一方で制限文字数が長い設問については具体例を挙げて議論させるものも多
く,精度が悪くなってしまった。この問題に対しては attentionを利用した機構を新たに設ける等の検討をしていきたい。
## 4 おわりに
本研究では BERT の tokenizer の bag of words を用いた小論文自動採点システムを作成し Accuracy, Correlation,QWK および RMSE といった評価指標を用いて性能評価を行った.bag of words 32000 次元のベクトルを学習なしで SVRへの入力とした場合と比較すると,採点対象の模範答案と同課題他設問の答案を用いて学習した場合において 12 の設問の平均 QWK が向上する等,本手法が小論文自動採点に有効であることを示した.また,同様に模範答案と同課題他設問の答案を用いての One-shot learning にも取り組んだが制限文字数が長い設問において精度が悪くなるといった問題が見られたため今後の検討課題としたい.
## 謝辞
本研究の遂行にあたって岡山大学運営費交付金機能強化経費「小論文、エッセイ等による入学試験での学力の三要素を評価するための採点評価支援システムの開発導入」の助成を受けた。
## 参考文献
[1] 内田優斗, 宇都雅輝. 項目反応理論に基づく能力推定値を活用した短答記述式問題自動採点手法. 言語処理学会第 26 回年次大会発表論文集, 2020 .
[2] 大野雅幸, 泉仁宏太, 竹内孔一, 小畑友也, 田口雅弘,稲田佳彦, 飯塚誠也, 阿保達彦, 上田均. 小論文自動採点データ構築と理解力および妥当性評価手法の構築 . 言語処理学会第 24 回年次大会, pp. 368-371, 2018.
[3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding, 2018.
[4] 平尾礼央, 新井美桜, 嶋中宏希, 勝又智, 小町守. 複数項目の採点を行う日本語学習者の作文自動評価システム. 言語処理学会第 26 回年次大会発表論文集, pp. 1181-1184, 2020
[5] 清野光雄竹内孔一. ニューラルネットワークを利用した日本語小論文の自動採点の検討. FIT2019 講演論文集, 2019 .
[6] 舟山弘晃. 記述式答案自動採点のための確信度推定手法の検討. 言語処理学会第 26 回年次大会発表論文集, 2020.
[7] 佐藤俊. 評価データのクラスタリングを用いた記述式答案自動採点のためのトランズダクティブ学習.言語処理学会第 26 回年次大会発表論文集, 2020.
[8] 竹内孔一, 大野雅幸, 泉仁宏太, 田口雅弘, 稲田佳彦,飯塚誠也, 阿保達彦, 上田均. 研究利用可能な小論文データに基づく参照文書を利用した小論文採点手法の開発. 情報処理学会論文誌ジャーナル 62 巻 9 号, pp. 1586-1604, 2021.
[9] Oriol Vinyals, Charles Blundell, Timothy Lillicrap, Koray Kavukcuoglu, and Daan Wierstra. Matching networks for one shot learning. In NeurIPS, 2016.
[10] Gregory Koch, Richard Zemel, and Ruslan Salakhutdinov. Siamese neural networks for one-shot image recognition. In ICML Deep Learning workshop, 2015.
[11] Shuo Yang, Lu Liu, and Min Xu. Free lunch for few-shot learning: Distribution calibration. In ICLR, 2021.
[12] Leland McInnes, John Healy, and James Melville. Umap:uniform manifold approximation and projection for dimension reduction. In Journal of Open Source Software 3, 2018 . | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E5-1.pdf | # 映像からのストーリー生成: イベント選択器と文生成器の同時学習
西村太一 ${ }^{1}$ 橋本敦史 ${ }^{2}$ 牛久祥孝 2 森信介 ${ }^{3}$
1 京都大学大学院 情報学情報学研究科 2 オムロンサイニックエックス株式会社
3 京都大学 学術情報メディアセンター
taichitary@gmail.com \{atsushi.hashimoto,yoshitaka.ushiku\}@sinicx.com
forest@i.kyoto-u.ac.jp
## 概要
本研究では,映像からストーリーを生成すること,つまり,映像から記述すべき重要なイベントを過不足なく検出し,その説明文を生成することを目的とする。この課題は, Dense Video Captioning (DVC) として取り組まれてきたが,既存モデルは主に映像から密にイベントを予測することに焦点を当てており,ストーリー性について考慮したものではなかった。 そこで本研究では,映像からストーリー を生成する上で従来の方法と異なるアプローチを取る.それは,既存の DVC モデルの密な出力をイべント候補の集合とみなし,この集合から適切なイベントを選択しつつ文を生成する手法である.実験では,提案手法と従来モデルを比較して優れた性能を示しただけでなく,正しくストーリーを生成できていることも分かった.
## 1 はじめに
数秒から数十秒の映像からその説明文を生成することを目的とする Video Captioning は,近年急速に発展を遂げてきた $[1,2,3]$. 一方で, 比較的長い映像をもとに,映像からストーリーを生成すること,つまり映像から記述すべき重要なイベントを検出し, その説明文を生成すること,は未だ発展途上の挑戦的な課題である。この技術を確立できれば,自然言語をクエリとした動画のイベントの検索も可能となるし, 出力したイベントと文の組み合わせは動画の概要を把握する上でも有用であろう. 本研究では,映像からストーリーを生成する課題に取り組む。
この課題は, Vision and Language 分野において Dense Video Captioning [4] (DVC) として定式化され取り組まれており,近年は Transformer [5] をべース
図 1 本研究の課題の概要. 既存の DVC モデルが出力したイベント候補集合からストーリーを構成する上で欠かせないイベントを選択しつつ文を生成する。
にしたモデルが提案されている [6,7]. しかし,こうしたモデルは入力の映像について密にイベントを予測することに焦点を当て取り組まれており,ストー リー性について考慮したものではなかった. Fujuta ら [8] によると,100を超えるような過剩なイベントの出力を行うことが報告されている. これは検索の観点からは有用であるかもしれないが,人が読んで理解するようなストーリー性の観点からは不適切であろう。
そこで本研究では,映像からストーリーを生成するために,従来の方法と異なるアプローチを取る。 それは,既存のDVC モデルの出力をイベント候補の集合と見なし,この集合から適切なイベント列を抽出するという方法である (図 1). 節 2 ではこのアプローチがストーリー生成に有効であることを既存の DVC モデルの出力をもとに議論し,この分析をもとに,節 3 にてイベントを候補から選択するイベント選択器と選択したイベントから文を生成する文生成器を同時学習する手法を提案する.
実験では,DVC においてよく利用されるデータセットの 1 つである YouCook2 [9]を用いて提案手法を評価した。その結果,従来の DVC モデルと比較して正しくストーリーを生成できていることが分かった.
## 2 既存の DVC モデルの出力の分析
既存の DVC モデルは正解のイベント数を大幅に超過してイベントを出力することが Fujita ら [8] によって指摘されている. そこで,我々は出力のイべント集合から正しいイベントを選択できれば正しいストーリーが得られるのではないかと考えた。これを検証するため,映像中の正解のイベントに対して, DVC モデルの出力集合の中で最もイベント間の重なり,つまり temporal Intersection over Union (tIoU) が大きいものを選択した時の評価結果を調査する.本研究ではこの手法をオラクルと呼ぶこととする. なお,データセットとしては YouCook2 [9]を用いて, DVC モデルとして PDVC [7] を検証に用いる. PDVC を選んだのは, 現状このモデルが DVC において最も性能が高く, イベント候補数 $N$ をあらかじめ設定できるからである1).
評価尺度. 評価には,DVC の評価によく利用される 2 種類の評価尺度を用いる. 1 つ目は DVC そのものと共に提案されたもので,本研究ではdvc_eval [4] と呼ぶ. この評価尺度では, 予測したイベント集合と正解のイベント集合の全ての組み合わせの tIoU を計算し, それが閾値 $\theta \in\{0.3,0.5,0.7,0.9\} を$超えた場合に METEOR [10] や CIDEr-D [11] などの文の自動評価尺度を計算し,その平均を取ることで評価される。この評価尺度は個々の予測イベントに対するイベント自体や生成文の正しさは評価できるが,動画全体でのストーリー性を考慮する仕組みにはなっていない。これを解決する評価尺度として,我々は SODA [8] も評価する。この評価尺度では,正解のイベントと予測イベントの間で動画全体のストーリー性を考慮したスコア (tIoU と文の自動評価尺度の積) が最大となる対応関係を動的計画法を用いて探索し評価を行う. 動画全体のストーリー性を評価するのに適しているため, 本研究では dvc_eval より SODAを重視する。
## 2.1 評価結果
定量的評価. 表 1 にオラクルの評価結果を,表 2 にイベントの予測結果を示す. PDVC と比較して,両方の評価尺度で高い性能を示している. イベント予測結果において強調すべき点として, 閾値が 0.7
1)PDVC では,イベント候補数 $N$ を設定してモデルを学習し,予測時はイベントの確信度スコアが高い順に並び替えて $K$ 個選択する. $N$ は十分に大きい数が設定される $(N=100)$. なお,Kも予測対象である.表 1 オラクルと PDVC の DVC 評価結果.
表 2 オラクルと PDVC のイベント予測結果.
から 0.9 にかけてオラクルの評価結果が大きく下がることである。つまり,正解のイベントに対してオラクルの選択をしても, tIoU が 0.9 を超えるものは多くないことが分かる.
オラクルのイベントの IIOU の分布. 図 2 にオラクルと正解のイベント間での IIoU の分布を示す.学習データ,検証データともに $N$ を十分に増やすと,オラクルの選択するイベントの tIoU は大きくなることが分かる.例えば, $N=100$ において,オラクルの選択するイベントの tIoU の平均はそれぞれ 74.6\%,70.4\%であり,多くのイベントが 0.7 から 0.9 の間にあることが分かる。
## 3 提案手法
前節の分析において,イベント候補の中には正解のイベントと高い tIoU を持つイベントが存在し,それを選ぶことができれば正しいストー リーが得られることが分かった. これに基づき,本節では,イベントを選択するイベント選択器とそれに対応する文を生成する文生成器を同時に学習しストーリーを生成する手法を提案する. 図 3 に提案手法の概要を示す. 入力としてイベント候補列 $\boldsymbol{X}=\left(\boldsymbol{x}_{1}, \boldsymbol{x}_{2}, \ldots, \boldsymbol{x}_{n}, \ldots, \boldsymbol{x}_{N}\right)$ が与えられる. 期待する出力は, $\boldsymbol{X}$ 中のオラクルで選ぶイベントの添字とそれに対応する文の組 $(\boldsymbol{C}, \boldsymbol{Y})=\left(\left(c_{1}, \boldsymbol{y}_{1}\right), \ldots,\left(c_{t}, \boldsymbol{y}_{t}\right), \ldots,\left(c_{T}, \boldsymbol{y}_{T}\right)\right)$ である $(T$ はイベント数). 提案手法は, $t$ 番目においてイベントを1つ選択し,それに対応する文を生成する。この処理をイベント選択器がイベントの出力を終了するまで再帰的に繰り返す。
図 2 オラクルにより選択されたイベントの tIoU のヒストグラム。
## 3.1 イベント選択器
イベントのエンコード,イベント選択器は,入力のイベント系列 $\boldsymbol{X}$ の中から正しいイベントを選択することを目的とする,イベント選択器は Event Encoder と Event Transformer の 2 つのモジュールからなる. Event Encoder は入力の各イベント $\boldsymbol{x}_{n}$ を中間表現 $e_{n}$ へ変換する. 本研究では, Event Encoder として,映像の事前学習モデルの 1つである Howto100M [12] によって学習済みの MIL-NCE モデル [13] を用いる.
イベントの選択. 次に,イベント間の関係性を考慮するために, $\boldsymbol{e}_{n}$ に Positional Encoding (PE) と各イベントの情報 (開始時間, 終了時間)を埋め込んだべクトルと共に加算した後, Event Transformer へ入力する.この Event Transformer は MART [14] を基にしており,前に選択したイベントの情報を記憶する役割を持つメモリベクトル $V_{t}^{l}$ が Transformer $の ~ l$ 層ごとに入っている点が通常の Transformer と異なっている. Event Transformer の出力 $\boldsymbol{h}_{n}$ とメモリベクトル $V_{t}^{l}$ を用いて,以下のように $n$ 番目のイベントが選択される確率 $p\left(n \mid \boldsymbol{V}_{t}^{l}, \boldsymbol{X}\right)$ を計算する.
$
\begin{aligned}
\boldsymbol{V}_{t} & =\max \left(\boldsymbol{V}_{t}^{1}, \ldots, \boldsymbol{V}_{t}^{l}, \ldots, \boldsymbol{V}_{t}^{L}\right) \\
p\left(n \mid \boldsymbol{V}_{t}^{l}, \boldsymbol{X}\right) & =\frac{\exp \left(\left(\boldsymbol{h}_{n}^{t}\right)^{T} \boldsymbol{V}_{t}\right)}{\sum_{i} \exp \left(\left(\boldsymbol{h}_{i}^{t}\right)^{T} \boldsymbol{V}_{t}\right)}
\end{aligned}
$
ここで, $\max (\cdot)$ はべクトルの要素ごとの最大値を取る、イベント選択器は, 学習時は Gumbel softmax [15]を用いてイベントを 1 つ選択する。これにより, イベントの選択を微分可能なまま処理でき,End-toend の学習が可能となる. 推論時は $p\left(n \mid \boldsymbol{V}_{t}^{l}, \boldsymbol{X}\right)$ の値が最大となるイベントを選択して文生成器へ送る.
## 3.2 文生成器
文生成器は選択されたイベントに対応する文を生成する。ここで,選択されたイベントの添字を $\hat{c}_{t}$ とすると,イベントベクトルは $\boldsymbol{h}_{\hat{c}_{t}}$ と書ける. 文生成器は, まず $t$ 番目のイベントに対応する文 $\boldsymbol{y}_{t}$ の単語列を訓練済みの GloVe [16] を介して単語の分散表現へ変換する. 次に,これらを $\boldsymbol{h}_{\hat{c}_{t}}$ の次元数と同じになるように 2 層の多層パーセプトロンによって変換し, $\boldsymbol{h}_{\hat{c}_{t}}$ および PE と加算する. 最後に, Event Transformer ど同様にメモリを持つ Senence Transformer へ入力し,その出力を softmax 層を通すことで出力単語の条件付き確率分布を得る.
## 3.3 メモリの更新
Event Transformer と Sentence Transformer のメモリモジュール $V_{t}^{l}, S_{t}^{l}$ は別々に更新することも可能である.しかし,直感的には,相互的に情報を共有することが映像全体で一貫したストーリーの出力を得るのに有効だろうと考えられる。これを実現するために,我々はメモリモジュールを以下の式に則って更新する.
$
\begin{aligned}
& \hat{\boldsymbol{V}}_{t}=f_{1}\left(\boldsymbol{V}_{t}\right) \odot \sigma\left(g_{2}\left(g_{1}\left(\boldsymbol{S}_{t}\right)\right)\right) \\
& \hat{\boldsymbol{S}}_{t}=g_{1}\left(\boldsymbol{S}_{t}\right) \odot \sigma\left(f_{2}\left(f_{1}\left(\boldsymbol{V}_{t}\right)\right)\right)
\end{aligned}
$
ここで, $f_{*}(\cdot), g_{*}(\cdot)$ は 1 層の線形層, $\odot, \sigma$ はアダマー ル積およびシグモイド関数を表す。得られた $\hat{V}_{t}$ と $\hat{S}_{t}$ をそれぞれの新たなメモリベクトルとして $t+1$番目の処理に活用する.
## 3.4 学習
2 つの損失関数の和を計算してモデル全体を学習させる.1つ目は,イベント選択器を学習させるためのもので,以下の式で表される負の対数尤度 $L_{e}$ を最小化する。
$
L_{e}=-\sum_{(\boldsymbol{X}, \boldsymbol{C})} \log p\left(\boldsymbol{C} \mid \boldsymbol{X}, \boldsymbol{V}_{1}^{l}, \ldots, \boldsymbol{V}_{T}^{l}\right)
$
2 つ目は, 文生成器を学習させるためのもので, $t$番目の文 $\boldsymbol{y}_{t}$ に対し以下の負の対数尤度 $L_{s}$ を最小化する。
$
L_{s}=-\sum_{(\boldsymbol{X}, \boldsymbol{C}, \boldsymbol{Y})} \sum_{t} \log p\left(\boldsymbol{y}_{t} \mid \boldsymbol{h}_{\hat{c}_{t}}, \boldsymbol{S}_{<t}^{l}\right)
$
## 4 実験
データセット.実験では,学習および評価のデー タセットとして,YouCook2 [9]を利用した。この
図 3 提案手法の概要図.
表 3 提案手法と比較モデルの DVC 評価結果.
データセットは, YouTube 上の料理動画に対してイベントと対応する文のアノテーションがされたデータセットである (イベントの数は 3 から 16). YouCook2 ではテストセットが公開されていない.先行研究との公平な比較を行うために, 以下の結果は全て検証セットでの評価結果である.
比較モデル. 比較モデルとして,提案手法と同様に Transformer をべースとした DVC 手法である Masked Transformer [6] と PDVC [7] を採用した.また,イベントの候補数 $N$ は 100 として設定した.
## 4.1 定量評価
表 3 に評価結果を示す. 提案手法はベースラインの手法よりも高い性能を,とりわけSODA において顕著な差が見られた. また,メモリの更新方法を比較すると,共有して更新する方が別々に更新するよ
りも概ね高い性能を示すことも分かった。
## 4.2 定性評価
図 4(付録) に Ground Truth に加えオラクル, PDVC,提案手法の予測結果を示す. PDVC はストーリー性を無視したイベント予測を行っているのに対し,提案手法は動画全体を考慮して,イベント間の重なりを少なくかつ正しく予測できていることが分かる. また, 出力文を比較しても, 提案手法はいくつかの材料の認識の失敗はあるが,ストーリー性に沿った文章を生成できていることが分かる (混ぜる $\rightarrow$ 入れる $\rightarrow$ 浸ける $\rightarrow$ 揚げる).
## 5 まとめ
本研究では,映像からストーリーを生成することを目的とする. 既存の DVC モデルの出力を分析したところ,出力からうまくイベントを選べば正しいストーリーを得られることが分かった。この分析をもとに,イベントを選択するイベント選択器と文を生成する文生成器を同時学習するモデルを提案した. 実験では,提案手法が既存手法と比較して正しくストーリーを生成できていることが分かった.
## 謝辞
本研究は JSPS 科研費 JP21J20250 の助成を受けたものです.
## 参考文献
[1] Ganchao Tan, Daqing Liu, Meng Wang, and Zheng-Jun Zha. Learning to discretely compose reasoning module networks for video captioning. In Proceedings of the International Joint Conference on Artificial Intelligence (IJCAI), 2020.
[2] Jeff Donahue, Lisa Anne Hendricks, Marcus Rohrbach, Subhashini Venugopalan, Sergio Guadarrama, Kate Saenko, and Trevor Darrell. Long-term recurrent convolutional networks for visual recognition and description. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2015.
[3] Yangyu Chen, Shuhui Wang, Weigang Zhang, and Qingming Huang. Less is more: Picking informative frames for video captioning. In Proceedings of the European Conference on Computer Vision (ECCV), 2020.
[4] Ranjay Krishna, Kenji Hata, Frederic Ren, Li Fei-Fei, and Juan Carlos Niebles. Dense-captioning events in videos. In Proceedings of the International Conference on Computer Vision (ICCV), 2017.
[5] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Proceedings of the Advances in Neural Information Processing Systems (NeurIPS), 2017.
[6] Luowei Zhou, Yingbo Zhou, Jason J. Corso, Richard Socher, and Caiming Xiong. End-to-end dense video captioning with masked transformer. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018.
[7] Teng Wang, Ruimao Zhang, Zhichao Lu, Feng Zheng, Ran Cheng, and Ping Luo. End-to-end dense video captioning with parallel decoding. In Proceedings of the International Conference on Computer Vision (ICCV), 2021.
[8] Soichiro Fujita, Tsutomu Hirao, Hidetaka Kamigaito, Manabu Okumura, and Masaaki Nagata. SODA: Story oriented dense video captioning evaluation flamework. In Proceedings of the European Conference on Computer Vision (ECCV), 2020.
[9] Luowei Zhou, Chenliang Xu, and Jason J Corso. Towards automatic learning of procedures from web instructional videos. In Proceedings of the AAAI Conference on Artificial Intelligence (AAAI), 2017.
[10] Satanjeev Banerjee and Alon Lavie. METEOR: An automatic metric for $\mathrm{mt}$ evaluation with improved correlation with human judgments. In Proceedings of the ACL Workshop on Intrinsic and Extrinsic Evaluation Measures for Machine Translation and/or Summarization, 2005.
[11] Ramakrishna Vedantam, C. Lawrence Zitnick, and Devi Parikh. CIDEr: Consensus-based image description evaluation. In Proceedings of the IEEE Conference on Com- puter Vision and Pattern Recognition (CVPR), 2015
[12] Antoine Miech, Dimitri Zhukov, Jean-Baptiste Alayrac, Makarand Tapaswi, Ivan Laptev, and Josef Sivic. HowTo100M: Learning a text-video embedding by watching hundred million narrated video clips. In Proceedings of the International Conference on Computer Vision (ICCV), 2019.
[13] Antoine Miech, Jean-Baptiste Alayrac, Lucas Smaira, Ivan Laptev, Josef Sivic, and Andrew Zisserman. End-to-end learning of visual representations from uncurated instructional videos. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2020.
[14] Jie Lei, Liwei Wang, Yelong Shen, Dong Yu, Tamara Berg, and Mohit Bansal. MART: Memory-augmented recurrent transformer for coherent video paragraph captioning. In Proceedings of the Annual Meeting of the Association for Computational Linguistics (ACL), 2020.
[15] Eric Jang, Shixiang Gu, and Ben Poole. Categorical reparameterization with gumbel-softmax. In The International Conference on Learning Representations (ICLR), 2017.
[16] Jeffrey Pennington, Richard Socher, and Christopher D. Manning. GloVe: Global vectors for word representation. In Proceedings of the Empirical Methods in Natural Language Processing (EMNLP), 2014.
提案手法
## Ground Truth
(1) Add flour eggs baking soda salt and pepper to the bowl and stir
(2) Add cold water to the bowl and stir
(3) Cover the shrimp in the batter and breadcrumbs
(4) Place the shrimp into a pan of hot oil
(5) Remove the shrimp from the pan
## PDVC
(1) Mix flour and pepper in a bowl and mix
(2) Coat the chicken in the flour mixture
(3) Fry the chicken in the oil
## オラクル
(1) Add flour and mix to a bowl and mix
(2) Mix the ingredients in the bowl
(3) Place the chicken in the batter
(4) Fry the chicken in the oil
(5) Remove the soup from the oil
## 提案手法
(1) Mix flour pepper and beer together
(2) Add flour and corn flour to the bowl and mix Place the chicken in the batter
(3) Coat the shrimp in the flour and the batter
(4) Fry the fish in the oil
図 4 Groud Truth,オラクル選択,PDVC,そして提案手法によるイベントの予測結果およびストーリーの比較. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E5-2.pdf | # 文スタイル識別器による重みづけを用いた 条件付き画像キャプション生成
松田 洋之 ${ }^{1}$ 大谷 まゆ ${ }^{2}$ 脇本 宏平 ${ }^{2}$
黒田 和矢 ${ }^{2}$ 中山 英樹 1
1 東京大学大学院情報理工学系研究科
2 株式会社サイバーエージェント
\{matsuda, nakayama\}@nlab.ci.i.u-tokyo.ac.jp
\{otani_mayu, wakimoto_kohei, kuroda_kazuya\}@cyberagent.co.jp
## 概要
条件付き画像キャプション生成は,画像と条件を入力として,画像の説明文(キャプション)を生成するタスクである. 本研究では,事前に学習したキャプション生成器の出力と, それとは別に学習した識別器の出力を混合して, 所望のスタイル属性を持つキャプションを生成する. その際, 識別器が出力する文スタイルの付与度に応じて,キャプション生成器の出力を適切に調整して混合を行う手法を提案する。
## 1 はじめに
条件付き画像キャプション生成は画像キャプション生成を拡張したものであり,画像に加えて,入力に新たな条件を追加する. このタスクでは,生成されるキャプションを条件により制御することを目標とする.
本研究では,文のスタイルを条件として入力に加える. 画像キャプションデータセットを用いて,画像キャプションの文スタイルを制御する研究は広く行われている. しかし, 先行研究の多くはスタイルを制御する機構がモデルの構造に依存しており,使用できるキャプション生成モデルが制限される. そのため, 既存のキャプション生成モデルの活用が妨げられている。事前学習済みモデルを使用できる手法も存在するが,スタイルの制御機構を学習するために事前学習済みモデルの出力を必要とする。この場合,使用する事前学習済みモデルを変更すると,新たにスタイル制御の機構を学習する必要がある.
条件付き文生成の研究では,事前学習済みモデルへの依存度を下げたスタイル制御の手法 (FUDGE)
[1] が提案されている。この手法では,事前学習済みモデルを再学習せず,文スタイル識別器の情報を追加で利用する.そこで本研究では,この手法を画像キャプション生成に応用する。
事前学習済み画像キャプション生成器は,スタイル付きキャプションのデータによって学習されていないため,スタイル付きキャプションを構成する単語の出力確率を過小評価すると考えられる. 本研究では,推論時に事前学習済みキャプション生成器の出力を変化させることによって, 出力確率の過小評価を抑える機構を提案する。
## 2 関連研究
関連研究の一つに, 条件付き文生成がある. CTRL [2] では,文のスタイルを表す Control Code を条件として多様な文の生成を可能にしているものの, データが大規模(140GB)なために学習コストが大きい.
近年では,学習コストを下げるため,事前学習済みモデルを再学習せずに生成文を制御する研究が行われている. PPLM [3] では,所望のスタイルを持つ単語が出力されやすくなるように,事前学習済み Transformer [4] の内部状態を更新している。GeDi [5], FUDGE [1] では, 事前学習済み言語モデルの出力を変化させ,所望のスタイルを持ちやすい単語の生成確率を引き上げることによって生成文を制御する。
条件付き画像キャプション生成の先行研究では, スタイル付き画像キャプションの公開データセット [6,7], が用いられている. Mathews ら [6] は,2つの RNN を用意し,一方にスタイルの付かないキャプションを生成する役割を,もう一方にスタイル付き
キャプションを生成する役割を持たせている. Gan ら [7] は1つの LSTM で生成を行うが, LSTM のパラメータをスタイルに共通の部分とスタイルに固有の部分に分けている.
MS COCO を代表とするスタイルの付かない大規模なデータセットに比べ,スタイル付きキャプションのデータ数は少ない1). そのため,スタイル付き画像キャプションのペアデータを必要としない手法が提案されている $[7,9,10,11,12]$.
## 3 手法
本研究では, 条件付き文生成の先行研究 (FUDGE [1])の手法を用いて,事前学習済みモデルの単語の出力のうち, スタイルが付与されやすい単語の確率を高めるように補正する (3.1). さらに,デコードの途中で,将来完成する文にスタイルが付与される可能性が低いと判断される場合,事前学習済みモデルの影響力を調整する手法を新たに提案する (3.2).
## 3.1 文スタイル識別器による重みづけ
本研究では,画像キャプション生成に用いる言語モデルは自己回帰的であると仮定する。画像を $I$, スタイル条件 $a$ を大力として,単語数 $n$ のキャプション $X=\left(x_{1}, \ldots, x_{n}\right)$ を生成するスタイル付き画像キャプション生成器 $p(X \mid I, a)$ は,
$
p(X \mid I, a)=\prod_{t=1}^{n} p\left(x_{t} \mid I, a, x_{\leq t-1}\right)
$
と表される $\left(x_{\leq t-1}:=\left(x_{1}, \ldots, x_{t-1}\right)\right)$ ここで, $p\left(x_{t} \mid I, a, x_{\leq t-1}\right)$ は, 自己回帰的スタイル付き画像キャプション生成器である. ベイズの定理を用いると,
$
p\left(x_{t} \mid I, a, x_{\leq t-1}\right)=\frac{p\left(a \mid I, x_{\leq t-1}, x_{t}\right) p\left(x_{t} \mid I, x_{\leq t-1}\right)}{p\left(a \mid I, x_{\leq t-1}\right)}
$
と変形できる.ここで,分子は $x_{t}$ に依存しないから,
$
p\left(x_{t} \mid I, a, x_{\leq t-1}\right) \propto p\left(a \mid I, x_{\leq t-1}, x_{t}\right) p\left(x_{t} \mid I, x_{\leq t-1}\right)
$
と表せる. $p\left(a \mid I, x_{\leq t-1}, x_{t}\right)=p\left(a \mid I, x_{\leq t}\right)$ は,時点 $t$ までの出力単語と画像を大力として,将来完成されるキャプションがスタイル条件 $a$ を満たすかどうかを識別する識別器である. $p\left(x_{t} \mid I, x_{\leq t-1}\right)$ は,スタイルなし画像キャプション生成器である.
1)例えば, MS COCO [8] にはスタイルのないキャプションが 1,026,459含まれるのに対して, Senticap [6] に含まれる positive スタイルのキャプション数は 4,892 である.式 3 より, スタイルなし画像キャプション生成器が学習済みのとき,スタイル付き画像キャプションを生成するためには,識別器のみを学習すればよい. 本手法では, 画像はキャプションスタイルに関与しないという仮定のもと識別器を近似し, 時点 $t$ までの生成文のみを入力して,スタイル $(a)$ の付与度合いを予測する識別器 $D_{a}$ を用いる。すなわち,
$
D_{a}\left(x_{\leq t}\right):=p\left(a \mid x_{\leq t}\right) \simeq p\left(a \mid I, x_{\leq t}\right)
$
とする。また,今後スタイルなし画像キャプション生成器を $C$ で表すことにすると,式 3 は,
$
\begin{aligned}
C\left(x_{t} \mid I, x_{\leq t-1}\right) & :=p\left(x_{t} \mid I, x_{\leq t-1}\right) \\
p\left(x_{t} \mid I, a, x_{\leq t-1}\right) & \underset{\sim}{\sim} D_{a}\left(x_{\leq t}\right) C\left(x_{t} \mid I, x_{\leq t-1}\right)
\end{aligned}
$
と表せる.
## 3.2 動的 Softmax Temperature
本研究では,式 6 における画像キャプション生成器 $C$ に事前学習済みモデルを用いる。 $C$ はスタイルなしデータセットのみで学習されているため,スタイル付きのキャプションに用いられる単語の生成確率を極端に低く見積もる可能性がある. その場合,式 6 による生成において, 識別器 $D_{a}$ による補正の影響力が弱まり,スタイルが付与されづらくなると考えられる。
これを回避するためには, 生成器 $C$ の予測に温度パラメータ $T$ を導入することで, $C$ の出力を制御する手法が考えられる. 温度パラメータは言語モデルの出力するロジットをスケール変換するハイパーパラメータであり,高いほど単語の生成確率の分布はなめらかになる.これにより, $C$ の出力を制御し,識別器 $D_{a}$ による補正の影響力を相対的に調整できる.その一方で,適切な温度パラメータは状況ごとに異なり,適切な值の設定は困難である。
そこで本研究では, 温度パラメータを生成中の文のスタイルの付与度合いによって制御する機構を導入し,事前のパラメータ探索がなくても,適切な割合で生成器と識別器を混合する手法を提案する.
事前学習済み画像キャプション生成器 $C$ が出力するロジットを $C_{\text {logit }}$ で表す. 温度パラメータ $T$ を導入したときのキャプション生成器を $C_{T}^{\prime}$ で表すと,
$
\begin{aligned}
C_{T}^{\prime}\left(x_{t} \mid I, x_{\leq t-1}\right) & :=\operatorname{softmax}_{T}\left.\{C_{\text {logit }}\left(x_{t} \mid I, x_{\leq t-1}\right)\right.\} \\
& :=\frac{\exp \left(\frac{C_{\text {logit }}\left(x_{t} \mid I, x_{\leq t-1}\right)}{T}\right)}{\sum_{x_{t}^{\prime} \in \mathscr{V}} \exp \left(\frac{C_{\text {logit }}\left(x_{t}^{\prime} \mid I, x_{\leq t-1}\right)}{T}\right)}
\end{aligned}
$
と表される. 温度パラメーター $T$ を適切に調整するために, $T$ をスタイル識別器の出力確率の逆数 $1 / D_{a}$ で置き換え,
$
\begin{aligned}
& C_{1 / D_{a}}^{\prime}\left(x_{t} \mid I, x_{\leq t-1}\right) \\
& =\operatorname{softmax}_{1 / D_{a}}\left.\{C_{\text {logit }}\left(x_{t} \mid I, x_{\leq t-1}\right)\right.\} \\
& =\frac{\exp \left.\{D_{a}\left(x_{\leq t-1}\right) C_{\text {logit }}\left(x_{t} \mid I, x_{\leq t-1}\right)\right.\}}{\sum_{x_{t}^{\prime} \in \mathscr{V}} \exp \left.\{D_{a}\left(x_{\leq t-1}\right) C_{\text {logit }}\left(x_{t}^{\prime} \mid I, x_{\leq t-1}\right)\right.\}} \\
& \text { し, } \\
& p\left(x_{t} \mid I, a, x_{\leq t-1}\right) \underset{\sim}{\infty} D_{a}\left(x_{\leq t}\right) C_{1 / D_{a}}^{\prime}\left(x_{t} \mid I, x_{\leq t-1}\right)
\end{aligned}
$
$
\text { とし, }
$
によって単語 $x_{t}$ を生成する. $C_{1 / D_{a}}$ 中で用いる $D_{a}$ は時点 $t-1$ において計算されたものであることに注意されたい.
$D_{a}$ は識別器の出力確率を表すから, $0 \leq D_{a} \leq 1$ である。 スタイル付与度 $D_{a}\left(x_{\leq t-1}\right)$ が 0 に近づくほど, $C_{1 / D_{a}}^{\prime}$ は平坦な確率分布になる. その結果,式 12 において相対的にスタイル付与度 $D_{a}\left(x_{\leq t}\right)$ の高い単語が生成されやすくなる. スタイル付与度 $D_{a}\left(x_{\leq t-1}\right)$ が 1 に近づくほど, $C_{1 / D_{a}}^{\prime}$ の分布は本来の確率分布 $C$ に近づく. その結果,式 12 において相対的に $C_{1 / D_{a}}^{\prime}\left(x_{t} \mid I, x_{\leq t-1}\right)$ が優先され, 画像の内容に沿った単語が出力されやすくなる。
## 3.3 学習と推論
学習時には,スタイル付きキャプションとスタイルなしキャプションを用いて, 文スタイル識別器 $D_{a}$ を学習する.推論時には,式 12 に基づいてデコードを行う. 本来であれば, $p\left(x_{t} \mid I, a, x_{\leq t-1}\right)$ を得るために,モデル $C$ の語彙 $\mathscr{V}$ 中の単語 $x_{t} \in \mathscr{V}$ すべてについて $D_{a}\left(x_{\leq t}\right)$ を計算する必要がある. 先行研究の FUDGE と同様,計算を効率的に行うために, $C\left(x_{t} \mid I, x_{\leq t-1}\right)$ の出力確率が高い順に $k$ 個を抽出し,抽出した単語についてのみ, $D_{a}\left(x_{\leq t}\right)$ を計算する。 それ以外の単語については, $D_{a}\left(x_{\leq t}\right)=0$ であるとみなす。
## 4 実験
【実験設定: データセット】 SentiCap [6], FlickrStyle10K [7]を用いた. 前者には positive, negative の,後者には humorous, romantic のスタイル付きキャプションが含まれている. SentiCap データセットは訓練データ, 検証データ, テストデータに既に分かれている2)ため,その分け方に従った。
2)訓練,検証,テストの順に,positive キャプションが 2380 , 493,2019 件,negative キャプションが 2039,429,1509 件と
FlickrStyle10K データセットは,一部のデータ(訓練データ 7000 件)のみが公開されている. 本研究では,この 7000 件のデータセットを再度訓練データ $(72 \%)$, 検証データ $(18 \%)$, テストデータ $(10 \%)$ にランダムに分割した。
【実験設定: モデル】事前学習済み画像キャプション生成器として, CATR ${ }^{3)}$ を用いた。文スタイル識別器には, 入力次元数 768 , 隠れ状態次元数 300 の 1 層GRUを用いた. CATR は,トークナイズ手法とし $\tau$, huggingface transformers [13] $の$ bert-base-uncased 4) 相当のものを使用している.そのため GRU における単語埋め込みべクトルは bert-base-uncased の学習済みベクトルを利用した。
【実験設定: 手法】ベースラインとして,事前学習済み画像キャプション生成器のみによる推論 (original)を採用し,式 6 による推論(FUDGE),式 12 による推論手法 (dynamic) と比較した. デコード方法には,条件付き文生成の先行研究で採用されている貪欲法を用いた。推論を効率的に行うため,文スタイル識別器 $D_{a}$ に入力する単語は,キャプション生成器 $C$ の出力確率の高い 200 単語に限った.
【実験設定: 学習・推論・評価】訓練データを用いて,文スタイル識別器のみを学習する。検証データを用いて算出したクロスエントロピー損失が最も低いものを最良モデルとして選び,推論に利用した。評価指標としては,BLEU-1 (B-1), BLEU-3 (B-3) [14], METEOR (M) [15], ROUGE_L (R) [16], CIDEr (C) [17], SPICE (S) [18], discriminator score (dsc), classification score (cls), perplexity (ppl), Self-BLEU-4 (SB-4) [19] を用いた.
## 4.1 実験結果
生成キャプションの定量的評価を表 1 に示す. 4 データ全てにおいて, discriminator score, classification score の値が original, FUDGE に比べて改善している. このことから,提案手法によりスタイルが付与されやすくなっていることがわかる.
dynamic はスタイルが付与されやすいが,参照文との比較により評価を行う指標(BLEU,METEOR, ROUGE_L,CIDEr,SPICE)のほとんどでベースラインを下回った. 提案手法において, 生成器 $C$ の影響が弱まると画像に沿ったキャプションが生成されにくくなることが主な原因であると思われる。ま
表 1 生成キャプションの評価. discriminator score は, 文スタイル識別器 $D_{a}$ の文末の出力の平均值である. classification accuracy では,文スタイル識別器 $D_{a}$ とは別に,完成文のみを入力として文スタイルを持っているかどうかを判定する文スタイル識別器を, BERT に訓練データを用いて学習した. テストデータを 1 文ごとに識別器に入力し, 出力確率が 0.5 以上となるものの割合を求めた。 perplexity は,事前学習済みキャプション生成器 $C$ によって計算した。
discriminator score
positive reference
positive pred dynamic
positive pred fudge
positive pred original
negative reference
negative pred dynamic
negative pred fudge
negative pred original
図 1 キャプションの生成結果の例. 生成に成功した例と生成に失敗した例を一つずつ挙げる. デコード時にスタイル識別器 $D$ が出力した確率を単語ごとに色を付けることで表しており,色と確率の対応関係は図中の discriminator score が表している.
た,スタイルの付与に大きく寄与する単語であっても,その単語が参照文に存在しない場合指標が改善しにくいことも原因の一つであると考えられる. dynamic の手法を用いた場合, METEOR による評価は, positive データで original, FUDGE の手法を, negative データで original の手法を上回った. METEOR は参照文の類義語を考慮して評価を行うため,スタイルの付与に寄与する単語が評価されやすいことが理由として挙げられる。
perplexity は dynamic が最も高く, Self-BLEU は dynamic が最も低い.このことは, dynamicでは生成されるキャプションが事前学習モデルにより生成されるものとは異なり,より多様になっていることを示唆している.
positive, negative のスタイル識別器を用いて生成した結果の一例を図 1 に示す. 2 つの画像とも, FUDGE の生成文はスタイルの付与に失敗している. その一方で, dynamic は original, FUDGE とは異なる文を生成している。上の画像では,"beautiful"という positive な単語が出現しており,スタイルの付いたテキストを生成できている。一方で,下の画像の
ように,生成に失敗したものもある. dynamic の推論では,計算を効率的に行うために,キャプション生成器 $C$ の出力確率上位 200 語のみを文スタイル識別器 $D_{a}$ に入力している。この上位 200 語にスタイルの強い単語が含まれない場合であっても,この 200 語から単語を生成する必要があるため,スタイルづけの弱い単語が生成される可能性がある. そのような生成が続くと,画像の内容に沿わず,かつスタイルづけの弱い文が生成される.
## 5 おわりに
本研究では,事前学習済み画像キャプション生成器の出力と, 文スタイル識別器の出力を混合して,所望のスタイル属性を持つキャプションを生成した. また,動的 Softmax Temperature を新たに提案し,スタイルが生成文に付与されやすくなることを確認した. 生成文の主観的評価と,条件付きキャプション生成の先行研究との比較評価が今後の課題である.
## 参考文献
[1] Kevin Yang and Dan Klein. FUDGE: Controlled Text Generation With Future Discriminators. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 3511-3535. Association for Computational Linguistics.
[2] Ari Holtzman, Jan Buys, Maxwell Forbes, Antoine Bosselut, David Golub, and Yejin Choi. Learning to Write with Cooperative Discriminators. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1638-1649. Association for Computational Linguistics.
[3] Sumanth Dathathri, Andrea Madotto, Janice Lan, Jane Hung, Eric Frank, Piero Molino, Jason Yosinski, and Rosanne Liu. Plug and play language models: A simple approach to controlled text generation. In International Conference on Learning Representations.
[4] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is All you Need. In Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc.
[5] Ben Krause, Akhilesh Deepak Gotmare, Bryan McCann, Nitish Shirish Keskar, Shafiq Joty, Richard Socher, and Nazneen Fatema Rajani. GeDi: Generative Discriminator Guided Sequence Generation. In Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 4929-4952. Association for Computational Linguistics.
[6] Alexander Mathews, Lexing Xie, and Xuming He. SentiCap: Generating image descriptions with sentiments. In Proceedings of the Thirtieth AAAI Conference on Artificial Intelligence, AAAI'16, pp. 3574-3580. AAAI Press.
[7] Chuang Gan, Zhe Gan, Xiaodong He, Jianfeng Gao, and Li Deng. StyleNet: Generating Attractive Visual Captions with Styles. In 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 955-964.
[8] Tsung-Yi Lin, Michael Maire, Serge Belongie, James Hays, Pietro Perona, Deva Ramanan, Piotr Dollár, and C. Lawrence Zitnick. Microsoft COCO: Common Objects in Context. In David Fleet, Tomas Pajdla, Bernt Schiele, and Tinne Tuytelaars, editors, Computer Vision- ECCV 2014, Lecture Notes in Computer Science, pp. 740-755. Springer International Publishing.
[9] Alexander Mathews, Lexing Xie, and Xuming He. SemStyle: Learning to Generate Stylised Image Captions Using Unaligned Text. In 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 85918600 .
[10] Cheng-Kuan Chen, Zhufeng Pan, Ming-Yu Liu, and Min Sun. Unsupervised Stylish Image Description Generation via Domain Layer Norm. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 33, pp. 81518158 .
[11] Longteng Guo, Jing Liu, Peng Yao, Jiangwei Li, and Hanqing Lu. MSCap: Multi-Style Image Captioning With Unpaired Stylized Text. In 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pp. 4199-4208.
[12] Wentian Zhao, Xinxiao Wu, and Xiaoxun Zhang. MemCap: Memorizing Style Knowledge for Image Captioning. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, pp. 12984-12992.
[13] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Remi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, prefix=von useprefix=true family=Platen, given=Patrick, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander Rush. Transformers: Stateof-the-Art Natural Language Processing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45. Association for Computational Linguistics.
[14] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: A Method for Automatic Evaluation of Machine Translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318. Association for Computational Linguistics.
[15] Satanjeev Banerjee and Alon Lavie. METEOR: An Automatic Metric for MT Evaluation with Improved Correlation with Human Judgments. In Proceedings of the ACL Workshop on Intrinsic and Extrinsic Evaluation Measures for Machine Translation and/or Summarization, pp. 65-72. Association for Computational Linguistics.
[16] Chin-Yew Lin. ROUGE: A Package for Automatic Evaluation of Summaries. In Text Summarization Branches Out, pp. 74-81. Association for Computational Linguistics.
[17] Ramakrishna Vedantam, C. Lawrence Zitnick, and Devi Parikh. CIDEr: Consensus-based image description evaluation. In 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 4566-4575.
[18] Peter Anderson, Basura Fernando, Mark Johnson, and Stephen Gould. SPICE: Semantic Propositional Image Caption Evaluation. In Bastian Leibe, Jiri Matas, Nicu Sebe, and Max Welling, editors, Computer VisionECCV 2016, pp. 382-398. Springer International Publishing.
[19] Yaoming Zhu, Sidi Lu, Lei Zheng, Jiaxian Guo, Weinan Zhang, Jun Wang, and Yong Yu. Texygen: A benchmarking platform for text generation models. In The 41st International ACM SIGIR Conference on Research \& Development in Information Retrieval, SIGIR '18, pp. 10971100. Association for Computing Machinery. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E5-3.pdf | # 動画キーフレーム物語生成手法の提案
佐藤俊 $1 *$ 佐藤汰亮 $1 * \quad$ 鈴木潤 $1 \quad$ 清水伸幸 2
1 東北大学 2 ヤフー株式会社
\{shun.sato.p8, tasuku.sato.p6\}@dc.tohoku.ac.jp jun.suzuki@tohoku.ac.jp
nobushim@yahoo-corp.jp
## 概要
本稿では言語画像横断型タスクの一つとして提案した動画キーフレーム物語生成タスクに対してベースラインとなる手法を提案する。このタスクでは,指定した数の「キーフレーム」とそれに対応する「説明文」を用いて,絵コンテのように動画を中身を瞬時に把握可能な要約を生成することが目的である.我々は既存の動画要約データセットである ActivityNet Captions を拡張したデータセットを用いて,教師あり学習に基づくべースラインを構築し,性能評価及び分析を行った。
## 1 はじめに
近年スマートフォンのようなカメラ搭載型デバイスの普及により,あらゆる人が容易に動画を投稿できるようになったことで,動画コンテンツの総量は爆発的に増えつつある ${ }^{1)}$.こうした背景から,人間が即座に動画のおおよその内容を把握し, 特定の目的に適/不適の判断をしたい場面が増えている. 例えば,大量の動画の中から (1) 視聴したい好みの動画を見つける場面,(2)特定のシーンノ物/事象を含む動画のみを抽出したい場合,などである。 この状況に対処するために動画の中身を適切に要約する技術への期待が高まっている. 過去の動画要約の研究としては,動画の中から重要と思われるフレームを抽出するキーフレーム検出タスク $[1,2,3]$ や動画全体や動画をシーンごとに分割したセグメン卜に対して説明文を付与する動画説明文生成タスク $[4,5,6,7]$ などがあげられる.
これらの先行研究に対して,動画の内容を瞬時に理解できる要約を第一要件においた動画要約タスクとして,我々はこれまでに動画キーフレーム物語生成タスクを提案した [8].このタスクでは 1 つの動
* 第一,第二著者の本論文への貢献は同等である
1) 付録 A に詳細を示す.画に対し,重要と思われるフレーム (キーフレーム) を抽出した上でそれぞれのフレームを説明する文を付与し,動画を絵コンテのような形で要約することで,動画の中身を瞬時に理解可能な要約を行う.文献 [8] では,動画説明文生成タスクのデータセットである ActivityNet Captions に対してキーフレームを決定するためのアノテーションを付与し,動画キー フレーム物語生成タスクのためのデータセットを構築した. 本研究ではこのデータセットを用いた教師あり学習に基づいたアプローチで動画キーフレーム物語生成タスクのベースラインモデルを構築し,その性能評価と分析を行う.
## 2 関連研究
動画説明文生成の手法としては動画全体に対して説明文を付与する手法 $[9,10]$ やセグメントと呼ばれる動画をシーンごとに分割したものに説明文を付与する Dence Video Captioning と呼ばれる手法がある $[6,11,12,13,7]$. 本研究の提案法は Dence Video Captioning の方法論をべースにし,動画キーフレー ム物語生成タスクを解くために発展させた方法と位置づけることができる. Chen ら [14] は強化学習を用いて説明文とともに動画を表現する上で重要なフレームを数枚提示する手法を提案している。
文献 [8] では,1つの動画に対してその内容を表現する上で重要と思われるキーフレームのアノテー ションとその説明文を付与したデータを作成し,動画を数枚のキーフレームと説明文で絵コンテのように瞬時に理解可能な形で要約する動画キーフレー ム物語生成タスクの枠組みを提案した。このデータセットにより,Chen らの手法と類似のシステムを教師あり学習のアプローチで構築できるようになったとも言える。本研究では,このデータセットを用いて動画キーフレーム物語生成タスクを解くベースラインモデルを構築する。
図 1 動画キーフレーム物語生成タスクに用いるデータセットの概要. 各動画は $M$ 個の説明文とそれぞれの説明文に対応する $K$ 個のキーフレームについてのアノテー ションを持つ. キーフレームの最小単位は $0.5 \mathrm{~s}$ となっている.
## 3 動画キーフレーム物語生成タスク
本章では動画キーフレーム物語生成タスクのタスク全体の定義とその評価方法について述べる。
## 3.1 タスクの定義
$\mathbf{x}$ を 1 つの動画とし $\mathbf{y}=\left(y_{1}, \ldots, y_{N}\right)$ を動画 $\mathbf{x}$ 内のキーフレームとする.ここで $y_{i}$ は動画 $\mathbf{x}$ の冒頭から数えてi番目のキーフレームを指し $N$ は事前にシステムの外で決められたシステムが出力すべきキー フレーム浐明文の数を表している, $\mathbf{z}=\left(z_{1}, \ldots, z_{N}\right)$ はシステムが出力する $N$ 個のキーフレームに対する説明文を表す. すなわち $z_{i}$ は $i$ 番目のキーフレー ム $y_{i}$ を説明する文となっている.
要約として出力すべきキーフレーム/説明文の数 $N$ についてはビデオの長さ, 要約の用途など状況に応じて変化することが想定される。またそれをシステムが自動的に決定することは困難であるため, $N$ は動画ごとに事前に人間が決定することを前提としている. 出力する要約の数については文書要約においても同様の議論がなされている [15]. したがって,動画キーフレーム物語生成タスクは動画 $\mathbf{x}$ と出力すべき要約の数 $N$ を受け取り, $N$ 個のキーフレー ムと説明文を出力する $\mathscr{T}:(\mathbf{x}, N) \rightarrow(\mathbf{y}, \mathbf{z})$ のように記述される.
## 3.2 評価方法
動画キーフレーム物語生成タスクではシステムが $N$ 個のキーフレームと説明文のぺア $\left.\{\left(y_{i}, z_{i}\right)\right.\}_{i=1}^{N}$ を出力する. 本節ではキーフレームと説明文のそれぞれについて評価する方法を記述する。
## 3.2.1 キーフレームの評価方法
図 1 に今回用いるデータセットに付与されているアノテーションの概要を示した。それぞれの動画は $M$ 個のセグメントとそれを説明する説明文が付与されている。またそれぞれのセグメントごとに対応する $K$ 個のキーフレームに関するアノテーションがつけられている.
付録 B の図 3 に本タスクの評価全体の概要を示す. ここで $\mathbf{A}=\left(A_{1}, \ldots, A_{N}\right)$ は時系列順のセグメントを表す。上述の通り 1 つのセグメント $A_{i}$ は複数のキーフレームに関するアノテーションをもち, 1 つのキーフレームを $a \in A_{i}$ として表記する. 同様に $\mathbf{p}=\left(p_{1}, \ldots, p_{N}\right)$ はシステムが予測したキーフレー ムの位置を表す. システムは事前に指定した $N$ 個のキーフレームを出力するが,正解の数 $M$ が $N$ よりも大きい場合には $M$ 個の正解から $N$ 個選んでできる ${ }_{M} C_{N}$ 通りの組み合わせから最適なものを探索する。
次に文献 [8] に従い式 (1) で記述される評価のための aligned key-frame matching (AKM) スコアを導入する.
$
\mathrm{AKM}_{\mathrm{ex}}=\max _{\mathbf{p}^{\prime} \in \Gamma(\mathbf{p})}\left.\{\frac{1}{N} \sum_{i=1}^{N} \max _{a \in A_{i}}\left.\{\mathrm{~m}_{\mathrm{ex}}\left(p_{i}^{\prime}, a\right)\right.\}\right.\}
$
ここでマッチング関数 $\mathrm{m}_{\mathrm{ex}}(\cdot, \cdot)$ は 2 つのフレームを受け取り,それらが完全に同じときに 1 ,それ以外の場合には 0 を返す関数である.Г(.) は大力系列の順番を入れ替えた順列集合を表す. $p_{i}^{\prime}$ は $\mathbf{p}^{\prime}$ の中の $i$ 番目の要素であり, 式 (1) は解答候補 $A_{i}$ 中の $1 \supset$ の $a$ と予測 $p_{i}$ とのマッチングの中で最大の值を取るという操作を $N$ 回繰り返し,その平均值がもっとも大きくなるときの値をその予測に対するスコアとする。
また上記の式 (1) のマッチングの条件を緩和した以下の式 (2) で表されるマッチング関数 $\mathrm{m}_{\mathrm{cos}}(\cdot, \cdot)$ を用いた $\mathrm{AKM}_{\cos }$ も評価指標として用いる.
$
\mathrm{m}_{\cos }\left(\mathbf{v}_{p}, \mathbf{v}_{a}\right)=\max \left(0, \operatorname{Cos}\left(\mathbf{v}_{p}-\overline{\mathbf{v}}, \mathbf{v}_{a}-\overline{\mathbf{v}}\right)\right)
$
ここで $\mathbf{v}_{p}$ と $\mathbf{v}_{a}$ はそれぞれ予測と正解のキーフレー ムの画像の特徵べクトルを表す。产は評価対象動画内の特徴べクトルの平均とする。式 (2) の詳細については付録 B に記載した
## 3.2.2 説明文の評価方法
説明文の評価には METEOR [16] を用いる. METEOR は動画説明文生成タスクにおける説明文
の評価指標として一般的に用いられるものの一つであり,本研究でもそれに則って評価を行う。
## 4 実験
本章では実験に用いるデータおよびモデルの詳細,実験結果について述べる。
## 4.1 データセット
今回実験には,1 章で述べたように文献 [8] で提案したデータセットを用いる. データセットの訓練/開発データの分割は ActivitytyNet Captions の分割の仕方に従い,訓練データの数が 7,727 個,開発データの数が 4,282 個となっている. ActivitytyNet Captions では評価データは公開されていないため本章では開発データ上での性能を報告する. また各動画ごとの生成する説明の個数 $N$ については, 4 とした. ただしデータについているセグメント/説明文のアノテーションが 4 個未満の場合には,その数を $N$ とした.
## 4.2 ベースラインモデル
動画キーフレーム物語生成はキーフレームの選択とその説明文の生成を同時に行う必要がある. しかし,これらを同時に実行することはモダンなニュー ラルモデルを用いても容易ではない,そこで我々はこのベースラインとなるシステムの推論/生成の過程を多段階に分割して構築した. 図 2(a) にモデル全体の概要を示した. 本システムは次の 4 つの要素から構成される。
(Step1: セグメント抽出モジュール) 動画を入力として動画を内容ごとにいくつかのフレームをまとめたセグメントに分割する. このモジュールでは $N$ 個以上の候補を生成する。
(Step2: 説明文生成モジュール) Step1 のモジュールから出力されたセグメントを受け取り,それぞれのセグメントに対して説明文を生成し,そのぺアを出力とする.
(Step3: 候補選択モジュール) セグメント/説明文のペアを受け取り,それらの中からできるだけ時間的重複が発生しないように事前に決めた数 $N$ 個を選択する. したがって出力は $N$ 個のセグメント/説明文のペアとなる。
(Step4: キーフレーム検出モジュール) 与えられた $N$個のセグメント/説明文の情報を用いてセグメントの中から説明文が示す内容にマッチするキーフレー
ムを予測する。このモジュールの出力がシステム全体のキーフレームと説明文の予測結果となる.
## 4.2.1 各モジュールの実装
本節では上記のシステムを構成する各モジュール群の実装について詳細を述べる。まず初めに,本研究では動画を連続したフレームの集合としてとらえる. Zhou ら [7] の設定に従い,動画はフレームごとに ResNet200 [17] と BN-Inception [18] を用いて画像特徴量に変換する。またフレームはデータセットのアノテーションに合わせて $0.5 \mathrm{~s}$ ごとに離散的にサンプリングを行っている.
Step1 と Step2 のモジュールは Zhou らが動画説明文生成タスクのために提案している Masked Transformer Model (MTM) [7]を用いる. 図 2(b) に MTM の概要を示している. MTM は動画内部からセグメント抽出を行いそれと同時にセグメントの内容に対応する説明文を生成する。本研究では MTM が出力するセグメントを Step1, 説明文を Step2 の出力として扱う。
MTM はありえそうなセグメントハキーワードの候補をできる限り多く出力するため,Step3 では動的計画法を用いてこれらの中から $N$ 個を選択する. また動的計画法のパス決定の決定にはセグメント/説明文の尤度を用いる.
Step4 のキーフレーム検出には Neural Sequence Detector Model (SeqM) を用いる。図 2(C) に SeqM の概要を示している.このモジュールの中ではまず入力されたセグメント内部の各フレームを画像特徴量に変換する.同様に入力された説明文を BERT [19] で特徴量に変換し, 最終的に画像特徴量と連結して,双方向 LSTM(Bi-LSTM) で実装された系列処理層に入力する.系列処理層では各フレームに対してそのフレームがキーフレームか否かの 2 值分類を行う.このとき予測確率がもっとも高いフレームをシステムの最終的なキーフレームの予測とする. 各モジュールのパラメータは付録 Cに記載した。
## 4.3 実験結果
表 1 にベースラインモデルの性能値を示す. 比較対象として,動画内部のフレームの中からランダム
(a)
(b)
(c)
図 2 動画キーフレーム物語生成モデルの概要; (a) 動画キーフレーム物語生成モデルの全体の流れ, (b) Masked Transformer Model [7] (c) Neural Sequence Detector Model.
表 2 Step3 および Step4 において用いるモジュールに関する分析. オラクルは正解のセグメントを入力した場合,予測.DP は動的計画法, 予測. Greedy は貪欲法で上位 $N$ 個の候補を選択した場合のシステムの出力結果を表す.
候補選択キーフレーム検出評価指標
に 1 秒分のセグメントを選択し,そのセグメントに対して説明文を生成した場合の METEOR,そのセグメントの中からランダムに選択したフレームをキーフレームの予測とした時の $A K M_{e x}$ と AKM $\cos$ をランダムの性能値として記載した. この結果から提案したベースラインモデルがランダムの結果よりも性能値が高く,キーフレーム検出およびその説明文生成についてデータセットを教師信号として活用できていることがわかった. ${ }^{2}$ またモデルの出力例については付録 Eに記載した。
## 5 分析
本章では提案した動画キーフレーム物語生成モデルのシステム構成について検討する。
## 5.1 候補選択モジュール (Step3)
表 2 に Step3 の候補選択モジュールとしてセグメントと説明文の候補の中から動的計画法と貪欲法を用いて上位 $N$ 個を選択した場合の結果を示す. オラクルは正解の説明文を入力した場合のキーフレー ム検出と説明文生成の評価値である. 動的計画法と貪欲法の結果を比べると動的計画法を用いた場合の
2) METEOR の值は先行研究と比較しても妥当な値である. 詳細については付録 D に記載した予測が優れていることがわかった.これは一般的に動的計画法が貪欲法と異なり, 厳密な最適解に到達できることから直感的な結果と言える.
また結果からキーフレーム検出および説明文生成の両方でオラクルの結果と予測値の間に大きな差があり,モデル全体の性能には改善の余地があると言える。
## 5.2 キーフレーム検出モジュール (Step4)
表 2 にキーフレーム検出モジュールの系列処理層として Transformer [20] と Bi-LSTMを用いた場合の結果を記載した. $A K M_{\mathrm{ex}}$ および $\mathrm{AKM}_{\mathrm{cos}}$ のいずれの評価指標でも Bi-LSTMを用いた場合の方がキー フレーム検出の性能値が高いことがわかる。近年多くのタスクにおいて優れた性能を発揮している Transformer であるが,それらの多くは大規模データセットを用いた訓練による部分が大きい,今回扱ったデータセットは相対的に小規模であり,直接的な系列処理アーキテクチャである Bi-LSTM の方がキーフレーム検出に適していたと考えられる.
これらの結果を踏まえて表 1 では動的計画法と Bi-LSTM を用いたモデルを本タスクのベースラインとして選出した。
## 6 結論
本研究では,動画キーフレーム物語生成タスクのために必要な複数の機能を組み合わせたべースラインとなるモデルを提案し, その構成要素について分析を行った. 提案したモデルは一定の性能を示したものの,生成されるキャプションの質やキーフレー ムの検出についていずれもオラクルの性能値と大きな差があった. 各機能を構成する個別のモジュールの性能向上や全体のアーキテクチャの見直しを行いさらなる性能改善を今後の課題としたい.
## 参考文献
[1] W. Wolf. Key frame selection by motion analysis. In 1996 IEEE International Conference on Acoustics, Speech, and Signal Processing Conference Proceedings, Vol. 2, pp. 1228-1231 vol. 2, 1996.
[2] Sourabh Kulhare, S. Sah, Suhas Pillai, and R. Ptucha. Key frame extraction for salient activity recognition. In 23rd International Conference on Pattern Recognition (ICPR), pp. 835-840, 2016.
[3] X. Yan, Syed Zulqarnain Gilani, Hanlin Qin, Mingtao Feng, L. Zhang, and A. Mian. Deep keyframe detection in human action videos. ArXiv, Vol. abs/1804.10021, , 2018.
[4] Oriol Vinyals, A. Toshev, S. Bengio, and D. Erhan. Show and tell: A neural image caption generator. In IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 3156-3164, 2015.
[5] Kelvin Xu, Jimmy Ba, Ryan Kiros, Kyunghyun Cho, Aaron Courville, Ruslan Salakhudinov, Rich Zemel, and Yoshua Bengio. Show, attend and tell: Neural image caption generation with visual attention. In Francis Bach and David Blei, editors, Proceedings of the 32nd International Conference on Machine Learning, Vol. 37 of Proceedings of Machine Learning Research, pp. 2048-2057, Lille, France, 07-09 Jul 2015. PMLR.
[6] Ranjay Krishna, Kenji Hata, Frederic Ren, Li Fei-Fei, and Juan Carlos Niebles. Dense-captioning events in videos. In International Conference on Computer Vision (ICCV), 2017.
[7] Luowei Zhou, Yingbo Zhou, Jason J. Corso, Richard Socher, and Caiming Xiong. End-to-end dense video captioning with masked transformer. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2018.
[8] 晃太郎北山, 潤鈴木, 伸幸清水. 動画キーフレーム物語生成タスクの提案とデータセットの構築.人工知能学会全国大会論文集, Vol. JSAI2021, No. 0, pp. 4I4GS7e03-4I4GS7e03, 2021.
[9] Subhashini Venugopalan, Marcus Rohrbach, Jeffrey Donahue, Raymond Mooney, Trevor Darrell, and Kate Saenko. Sequence to sequence - video to text. In 2015 IEEE International Conference on Computer Vision (ICCV), pp. 4534-4542, 2015.
[10] Subhashini Venugopalan, Huijuan Xu, Jeff Donahue, Marcus Rohrbach, Raymond Mooney, and Kate Saenko. Translating videos to natural language using deep recurrent neural networks. In Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1494-1504, Denver, Colorado, MayJune 2015. Association for Computational Linguistics.
[11] Jingwen Wang, Wenhao Jiang, Lin Ma, Wei Liu, and Yong $\mathrm{Xu}$. Bidirectional attentive fusion with context gating for dense video captioning. In 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 71907198, 2018.
[12] Yehao Li, Ting Yao, Yingwei Pan, Hongyang Chao, and Tao Mei. Jointly localizing and describing events for dense video captioning. In 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 74927500, 2018.
[13] Xiujun Li, Xi Yin, Chunyuan Li, Pengchuan Zhang, Xiaowei Hu, Lei Zhang, Lijuan Wang, Houdong Hu, Li Dong, Furu Wei, Yejin Choi, and Jianfeng Gao. Oscar: Objectsemantics aligned pre-training for vision-language tasks. In Andrea Vedaldi, Horst Bischof, Thomas Brox, and JanMichael Frahm, editors, Computer Vision - ECCV 2020, pp. 121-137, Cham, 2020. Springer International Publishing.
[14] Yangyu Chen, Shuhui Wang, Weigang Zhang, and Qingming Huang. Less is more: Picking informative frames for video captioning. In Vittorio Ferrari, Martial Hebert, Cristian Sminchisescu, and Yair Weiss, editors, Computer Vision - ECCV 2018, pp. 367-384, Cham, 2018. Springer International Publishing.
[15] P. Over and J. Yen. An introduction to DUC 2003: Intrinsic evaluation of generic news text summarization systems, 2003.
[16] Alon Lavie and Abhaya Agarwal. METEOR: An automatic metric for MT evaluation with high levels of correlation with human judgments. In Proceedings of the Second Workshop on Statistical Machine Translation, pp. 228231, Prague, Czech Republic, June 2007. Association for Computational Linguistics.
[17] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. In 2016 IEEE Conference on Computer Vision and Pattern Recognition, pp. 770-778, 2016.
[18] Sergey Ioffe and Christian Szegedy. Batch normalization: Accelerating deep network training by reducing internal covariate shift. In Francis Bach and David Blei, editors, Proceedings of the 32nd International Conference on Machine Learning, Vol. 37 of Proceedings of Machine Learning Research, pp. 448-456, Lille, France, 07-09 Jul 2015. PMLR.
[19] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[20] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017.
図 3 キーフレームに関する評価の概要. $\mathbf{A}=\left(A_{1}, \ldots, A_{N}\right)$ は正例のキーフレーム集合を表し,それぞれの $A_{i}$ は $\mathrm{K}$ 個の正解のキーフレーム $\left(a_{i 1}, \ldots, a_{i K}\right)$ を持つ. $\mathbf{p}=\left(p_{1}, \ldots, p_{N}\right)$ はシステムが予測した $N$ 個のキーフレー ムを表す. $\Gamma(\mathbf{p})$ は予測されたキーフレームの順番を入れ替えて作られる順列を表す.キーフレームの評価においては
## A 動画データに関する統計情報
動画投稿サイト Youtube では毎分合計 500 時間以上の動画アップロードされていると報告されている. ${ }^{3)}$
## B 評価方法の詳細
式 (1) で表されるマッチング関数 $\mathrm{m}_{\mathrm{ex}}(\cdot, \cdot)$ は予測と正解のキーフレームの間に完全一致を要求しているが,セグメント内部では類似したフレームが複数あることが想定され, 正解の候補が複数あったとしても完全に同じフレームを当てるのは容易でないことが考えられる。そこで我々は AKM スコアのマッチング関数 $\mathrm{m}_{\mathrm{ex}}(\cdot, \cdot)$ の代わりに制限を緩和した式 (2)で表されるマッチング関数 $\mathrm{m}_{\mathrm{cos}}(\cdot, \cdot)$ を用いた $\mathrm{AKM}_{\cos }$ も評価指標の 1 つとして導入する.
$\mathrm{m}_{\mathrm{cos}}(\cdot, \cdot)$ は $\mathrm{m}_{\mathrm{ex}}(\cdot, \cdot)$ と異なり,異なる位置のフレー ムであっても正解のキーフレームと類似したフレー ムを選択できていれが 1 に近い値をとる.
また図 3 で示す評価全体では全ての組み合わせの探索を行うと膨大な計算コストがかかるため, AKM スコアを用いた動的計画法によって効率的な探索を
3) https://www.statista.com/statistics/259477/
hours-of-video-uploaded-to-youtube-every-minute/.
図 4 システムの予測と正解のキーフレームと説明文と実例
行う.
## C モデルのパラメータ
MTM の実装およびハイパーパラメータについては MTM を提案している Zhou ら [7] が公開しているもの ${ }^{4)}$ に従った.
表 3 に SeqM のパラメータを記載した. SeqM で用いる ResNet200と BN-inception の次元数はそれぞれ 512 次元とし, 説明文のテキストの特徴量として用いる BERT の次元数は 768 次元とした.最終的には,この 3 つの特徴量を連結した 1792 $(=512+512+768)$ 次元のベクトルを SeqM の入力とした.
## D METEOR の值の妥当性
本研究で説明文の生成を担っている MTM の提案論文 [7] では ActivityNet Captions を Dence Video Captioning のデータセットとして扱い,MTMを用いて説明文を生成している. その論文における説明文の METEOR の值は 9.56 であり,本研究での METEOR が妥当な値であることを示している.
## E モデルの出力例
図 4 にシステムの出力と対応するキーフレームおよび説明文の正解の実例を示す.
| NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E5-4.pdf | # 機械・人の双方が言語で概念を説明可能な Few-shot 画像分類
西田光甫 西田京介 西岡秀一
日本電信電話株式会社 NTT 人間情報研究所
}
\{kosuke.nishida.ap, kyosuke.nishida.rx, shuichi.nishioka.gd\}@hco.ntt.co.jp
## 概要
人は自然言語による説明から新しい概念を学び, さらに概念を自然言語によって説明できる。この能力を機械学習モデルで実現することは,人と人工知能が共生する社会の実現のために重要である. 本研究は few-shot 画像分類を用いて,モデルが新しい概念に関する説明を理解・生成することに挑戦した。本研究はテキストデコーダによる説明の生成と,テキストエンコーダによる説明の入力により few-shot 画像分類の性能を改善する初の研究である. 評価実験により,提案手法は既存研究の分類精度を上回り,かつ人の説明からの学習および内部表現の説明を精度良く行うことを確認した。
## 1 はじめに
人はテキストを読むことで新たな概念を効率的に学ぶことができる [1]. 機械学習のタスクあるいはデータに自然言語による説明を与えて学習に利用することは,人のような効率と精度を両立する人工知能の実現に向けて重要な課題である [2]. また,深層学習モデルは black box であるため内部表現を自然言語によって説明することも重要である [3].
本研究では few-shot 画像分類問題を題材に,人が説明として与えた言語情報から新たな概念を獲得し,さらにモデル内で特徴量として表現されている概念を機械が言語によって説明することに取り組む. 本研究の設定は,モデルが画像キャプションを追加情報として利用可能とする. この設定は,人が少ないデータを用いて他者に知識を教える際,演繹的に言語で説明することに相当する。
本研究では, 図 1 に示す LIDE (Learning from Image and DEscription) を提案する. LIDE は画像エンコー ダ,テキストデコーダ,テキストエンコーダ,画像分類器によって構成される. 画像エンコーダが出力する画像特徴量に基づいてデコーダがテキストを生成することで,LIDE はモデルの内部表現を自然言語によって説明できる.テキストエンコーダは生成したキャプションあるいは人が与えたキャプションをテキスト特徴量に変換し,画像分類器は画像とテキスト特徴量の双方に基づいた分類を行う.
評価実験により LIDE は既存手法を上回る画像分類精度を達成した。また,人の説明の入力により性能がさらに向上すること,生成した説明の品質が画像分類の正否と相関を持つことを確認した。本研究の貢献は,マルチモーダル特徴量を few-shot 画像分類問題で利用することで,1)言語によって説明された概念の学習可能性,2) モデルの内部表現の言語による説明可能性をそれぞれ検証した点にある.
## 2 問題設定および関連研究
$N$-way $K$-shot 画像分類本問題では,多数のクラスが含まれるデータセットが,クラスの重複が無いように $\mathscr{T}_{\text {train }}, \mathscr{T}_{\text {dev }}, \mathscr{T}_{\text {test }}$ に分割されている. 各サブセットから,少数の $N$ クラス,学習サンプル (サポート,各クラス $K$ 個),評価サンプル(クエリ,各クラス $M$ 個)をサンプリングしてタスクとする。この問題はメタ学習の一種であり,訓練時に $\mathscr{T}_{\text {train }}$ からサンプリングした複数個のタスクを用いてモデルを訓練する。 その後,テスト時に新規の概念を $\mathscr{T}_{\text {dev }}$ あるいは $\mathscr{T}_{\text {test }}$ のサポートから学習し,クエリに対する性能を評価する。
代表的手法は Prototypical Network(ProtoNet) [4] である. ProtoNet は訓練・テスト時の個別タスクに対する学習をクラスプロトタイプの計算で代替する. $h_{k}^{c}$ をクラス $c$ の $k$ 番目のサポートの特徴量, クラス $c$ のプロトタイプを $z^{c}=\frac{1}{K} \sum_{k} W_{\text {proto }} h_{k}^{c}$ とする。訓練時は $\sigma_{\text {train }}$ のクエリに関する損失 $L_{\text {class }}$ を最小化することで,モデルパラメータを更新する
$
L_{\text {class }}=-\frac{1}{K M} \sum_{i} \sum_{c} y_{i}^{c} \log \frac{\exp \left[s\left(z^{c}, h_{i}\right)\right]}{\sum_{c^{\prime}} \exp \left[s\left(z^{c^{\prime}}, h_{i}\right)\right]} .
$
$W_{\text {proto }}$ は学習可能な重み, $y_{i}^{c} \in\{0,1\}, h_{i}$ は $i$ 番目のクエリの真のラベルおよび特徴量である。 スコア関数は $s\left(z^{c}, h_{i}\right)=z^{c \top} W_{\text {proto }} h_{i}$ と定義する. テスト時
図 1 LIDE の全体像. 画像エンコーダが出力する特徴量を基に,テキストデコーダがキャプションを生成する. テキストエンコーダは機械の生成キャプションとユーザの生成キャプションどちらかを受け付けテキスト特徴量に変換する.両モーダルの特徴量を特徵融合モジュールが統合し,予測モジュールが画像分類の予測確率を出力する.
は $\mathscr{T}_{\text {dev,test }}$ のサポートを用いてプロトタイプのみ更新することで個別のタスクを学習し,クエリを用いて個別のタスクにおける性能を評価する。
言語情報を用いた few-shot 画像分類モデル ProtoNetをべースに言語情報を用いて画像分類の性能を高める試みが取り組まれてきた.ProtoNet は図 1 における画像エンコーダと予測モジュールのみを用いるモデルに相当する. LSL [5] は,画像エンコーダの過学習を防ぐため, エンコーダの出力特徴量に基づいて画像キャプションを生成するテキストデコーダを導入し, 生成テキストの損失を訓練の正則化項として利用した. RS-FSL [6] は,デコーダを GRU [7] から双方向 Transformer [8] に変更した.
L3 [9] は中間表現を自然言語によって表現することを目的としており,ProtoNet にテキストデコー ダ・エンコーダを導入した.23 は画像表現からデコードした自然言語記述をエンコードした表現のみを使って画像分類を行うことで,デコーダの出力を画像分類の根拠として解釈できる. しかし,説明性を備えた一方で精度が低下する問題が残った。
## 3 提案手法
LIDE の構成および訓練・テスト手法について述べる. なお, 従来研究と同様に, 未知クラスの画像分類に影響が出るため大量の画像データによる画像エンコーダ・分類器の事前学習は行わない.
## 3.1 モデル
画像エンコーダ従来研究と同様に 4 層の CNN (事前学習無し)を用いる. 画像を入力として受け取り, 画像特徵べクトルとして $h_{\text {img }}$ を出力する.
テキストデコーダ 3 層の単方向 Transformerを用いる.まず, $h_{i m g}$ をテキスト特徴空間に写像する
$
f_{I 2 T}\left(h_{i m g}\right)=\operatorname{Linear}\left(\operatorname{LayerNorm}\left(h_{i m g}\right)\right)
$
LayerNorm は Layer Normalization [10]を示す. 得られた表現をテキストデコーダに長さ 1 の系列として渡し,テキストデコーダでは自己回帰的に $j$ 番目のトークン $t_{j}$ を以下の確率 $p_{j}$ に従い生成する
$
p_{j}=\operatorname{Pr}\left(t_{j} ; f_{I 2 T}\left(h_{i m g}\right), t_{0: j-1}\right) .
$
テキストエンコーダ BERT [11]を用いる。テキストを WordPiece [12] でトークナイズした系列を入力として受け取り, 最終層の隠れ状態の系列 $H_{B E R T}$ を出力する。言語特徴べクトル $h_{\text {text }}$ を取得するため,テキストデコーダのトークン生成確率 $p_{j}$ を用いた重み付きプーリングを行う
$
h_{\text {text }}=\frac{1}{\sum p_{j} w_{j}} \sum p_{j} w_{j} h_{B E R T, j}
$
トークンがストップワードの場合 $w_{j}=0$, それ以外は 1 とする. また,デコーダの代わりに人がキャプションを与えた際は全トークンで $p_{j}=1$ とする.
重み付きプーリングはテキストデコーダの確信度の低い出力の影響を抑えることで,生成文の品質の低さによる画像分類精度の低下を防ぐことを目的とする. さらに,テキスト生成の離散的操作のために通常はテキストエンコーダの勾配をテキストデコー ダに渡すことができないが,重み付きプーリングでは画像分類から得られる損失を重み $p_{j}$ を経由してテキストデコーダに伝播させることが可能となる.
特徵融合モジュール LIDE の画像分類器は特徵融合と予測モジュールから成る. 特徴融合モジュー ルは,単一モーダル特徴のみを予測に用いる既存研究と異なり, $h_{\text {img }}$ と $h_{\text {text }}$ をマルチモーダル特徴 $h_{m m}$ に融合する. $f_{T 2 I}$ をテキスト特徴から画像特徴空間への写像として, $h_{m m}$ を下記の様に求める
$
\begin{aligned}
{\left[w_{\text {img }} ; w_{\text {text }}\right] } & =\operatorname{softmax}\left(\operatorname{Linear}\left(\left[h_{\text {img }} ; h_{\text {text }}\right]\right)\right) \in \mathbb{R}^{2} \\
h_{\text {mm }} & =w_{\text {img }} h_{\text {img }}+w_{\text {text }} f_{T 2 I}\left(h_{\text {text }}\right)
\end{aligned}
$
[;] はべクトル連結を表す。 $f_{T 2 I}$ には活性化関数を ReLU とした 3 層の FFNNを用いた。
予測モジュール ProtoNet [4] を用いる. 特徴量 $h$ はマルチモーダル特徴量 $h_{m m}$ に置き換える.
## 3.2 訓練時およびテスト時のアルゴリズム
損失関数画像分類のために 2 種類の損失関数を用いる. $L_{\text {class,gold }}$ は画像特徴量と真のテキストから計算した損失である. $L_{\text {class,gen }}$ は画像特徴量と生成したテキストから計算した損失である. テキスト生成の損失として, teacher-forcing とクロスエントロピー損失で計算した $L_{\text {text }}$ を用いる.
また,多様な言語表現を獲得するために対照学習を行う. クラス $c$ のサポートサンプルの真および生成キャプションの表現を $v_{\text {gold }}^{c}, v_{\text {gen }}^{c}$ とする. cosine 類似度で計算した対照学習の損失を $L_{c n t r}$ とする
$
\begin{aligned}
L_{\text {cntr }} & =\frac{1}{2 N} \sum_{c} \log \frac{\exp \left[\cos \left(v_{\text {gold }}^{c}{ }^{\top} v_{\text {gen }}^{c}\right) / \tau\right]}{\sum_{c^{\prime}} \exp \left[\cos \left(v_{\text {gold }}{ }^{\top} v_{\text {gen }}^{c^{\prime}}\right) / \tau\right]} \\
& +\frac{1}{2 N} \sum_{c^{\prime}} \log \frac{\exp \left[\cos \left(v_{\text {gold }}^{c^{\prime}} v_{\text {gen }}^{c^{\prime}}\right) / \tau\right]}{\sum_{c} \exp \left[\cos \left(v_{\text {gold }}^{c} v_{\text {gen }}^{c^{\prime}}\right) / \tau\right]} .
\end{aligned}
$
以上を合計した $L$ を損失関数とする
$
\begin{gathered}
L=L_{\text {class }, g o l d}+L_{\text {class,gen }}+\lambda_{\text {text }} L_{\text {text }}+\lambda_{\text {cntr }} L_{\text {cntr }} . \\
\tau, \quad \lambda_{\text {text }}, \lambda_{\text {cntr }} \text { はハイパーパラメータである } .
\end{gathered}
$
事前学習 [6,13] と同様,訓練データのみを用いた事前学習を行う. 事前学習は few-shot ではない通常の画像分類として解く. 損失は $L_{\text {class, gold }}+L_{\text {text }}$ である.
言語生成訓練時は貪欲法とランダムサンプリングによってキャプションを生成する. ランダムサンプリング時は各時刻で top 20 の単語をサンプリングして生成する. テスト時,人からキャプションが与えられない場合はテキストデコーダの生成をテキストエンコーダに渡す.この際, length penaltyを 0.5 , ビーム幅を 5 としたビームサーチを行ってスコアが最大となる生成文をテキストエンコーダに渡す。
## 4 評価実験
## 4.1 実験設定
データセット Caltech-UCSD Birds (CUB) $[14,15]$ を 5-way 1-shot 分類問題として用いた。本データは 200 種の鳥の品種をクラスとしており, 1 種に対して 40-60 枚の画像がある. 200 種の画像は 100 種が訓練用,50 種が開発用,50 種がテスト用である,
比較手法画像のみを用いる ProtoNet [4],画像特徵量からデコードしたテキストの特徴量のみを基に分類を行う L3 [9],テキスト情報を正則化項としてのみ用いる LSL [5],RS-FSL [6] を利用した。
表 2 LIDEで導入した各手法と BERT の事前学習の効果
評価指標(画像分類) 従来研究と同様に 5-way 1-shot 画像分類を 600 回行った際の平均分類精度を示す. また,画像表現 $h_{\text {img }}$ とテキスト表現 $h_{\text {text }}$ が分布する多様体について,局所内在次元 $[16,17]$ および主成分分析の累積寄与率が $90 \%$ を達成する次元数を測り,両モーダルの内部表現を分析する.
評価指標(説明可能性) デコーダが生成したキャプションについて BLEU 4 [18], METEOR [19],
さらに,生成キャプションが予測の根拠として機能しているか,キャプションの正確さと予測の正確さの相関を Spearman の順位相関係数を用いて評価する. 評価指標の詳細については補足資料に示す.
## 4.2 言語情報を用いた画像分類の評価
## LIDE は比較手法の画像分類精度を上回るか?表 1 に結果を示す. LIDE は全比較手法,特に言語表現を正則化項としてのみ利用する LSL や RS-FSL の性能を上回った,L3 と異なり,LIDE はテキスト 表現の利用と画像分類性能の向上を両立した.
LIDE で導入した各手法は有効か? 表 2 に LIDE の各手法を除いた結果を示す。提案した対照学習,重み付きプーリング,貪欲法とランダムサンプリングの組合せは全て性能向上に貢献した.
BERT の事前学習は有効か? 表 2 に示すように,我々の予想と反し,LIDE は BERT の事前学習を除いた場合でも既存研究の分類精度(表 1)を上回った. CUB データセットは鳥の品種に限定されるため,訓練データのみでテキスト空間を十分に学習できるためと考える.より広範囲なドメインでの検証は今後の課題とする。
## 高品質のキャプションを人が与えることで予測 は改善するか? モデルが生成したキャプションの 代わりに真のキャプションを入力する実験をした.
表 4 特徴空間の次元数.
CUB では 1 画像に複数の真のキャプションがあるため, 生成キャプションに対する bi-gram precision が最も高いものをユーザの入力キャプションとした. 表 3 に示す通り,機械が生成したキャプションを入力する場合に比べて,真のキャプションを入力することでさらに性能が改善した。
## なぜテキスト表現は画像分類に貢献するのか?画像・テキスト表現のそれぞれが分布する多様体 について,局所内在次元と主成分分析の累積寄与率 $90 \%$ を達成する次元数を調査した. 表 4 に示す通 り,テキスト表現は画像表現に比べて潜在的に小さ な次元の多様体に分布していることがわかる. 画像 には多くの情報が含まれるが,キャプションは興味 のある情報にのみ言及する。今回はキャプションが 鳥の記述であるため,キャプションからは鳥の分類 のために重要な情報のみを持つ特徴量を抽出できる と考えられる. なお, 局所内在次元が低いほど汎化 された表現であり, few-shot 分類の性能が高くなる という報告 [21]があり,本研究の結果と一致する.
## 4.3 説明可能な機械学習としての評価
## 生成したキャプションは予測の説明として機能
するか? 生成したキャプションが正確でなければ説明として不十分である. 表 5 に生成と真のキャプションの文字列の重なりによる各指標値を示す. 上限値は MSCOCO [22] を用いた教師あり事前学習を行なった CNN-LSTM モデルである [23]. LIDE は小規模な CUB データセットのみを訓練データに用いているが,上限值と比較しても METEOR で 2.0 ポイント,ROUGE で 3.3 ポイントの下落に留まっており,品質の高いキャプションが生成できている。
次に,生成したキャプションが正しい・誤っているときは分類結果も正しい・誤っていることがモデルの説明と分類結果の一貫性の観点からは望ましい.そこで,キャプションの評価值と画像分類の正否の関係を調査したところ,正の相関があった。 LIDE からテキストエンコーダを除き画像表現のみで分類させた場合(LSL 相当)の相関値は低下する表 5 生成キャプションの評価値と分類結果との相関. $\dagger: p<0.1, *: p<0.05$, ** $: p<0.01$
ことから,LIDE におけるテキストエンコーダおよび特徴融合モジュールの導入が説明可能性に大きく貢献していることが分かる.
なお本実験では,先行研究との比較のために画像エンコーダの構造と訓練用画像データを制限した. これらの制限を除くことで,説明可能な機械学習モデルとしての性能は向上すると考えられる。
キャプション生成の課題はなにか? キャプションの出力例を図 2 に示す.モデルは鳥の特徵を捉えてキャプションを生成している一方で,構文が類似しており,言及する部位とその色だけが異なるような画一的なキャプションになっている。特に 2 枚目の画像は 'red face' のような珍しい特徴を持っているが,生成したキャプションは言及できていない。多様なキャプションの生成が今後の課題である.
図 2 生成事例。
## 5 おわりに
本研究は,few-shot 画像分類問題を題材に,機械学習モデルが新規の概念を自然言語の説明から獲得し,またモデルの挙動を自然言語によって説明することに取り組んだ。本研究の貢献を以下に示す.
本研究の独自性. 提案手法の LIDE はテキストデコーダによる説明の生成と,テキストエンコーダによる説明の入力によって few-shot 画像分類の性能を改善する初めての研究である。
本研究の重要性. 自然言語の説明から概念を学習し,また概念を自然言語によって説明することは,人には可能であるが人工知能にはまだ難しい領域のひとつである. 本研究は人と人工知能の共生社会の実現に向け,人と同じように学び説明する機械学習モデルの開発に貢献し得ると考える。
## 参考文献
[1] Sahil Chopra, Michael Henry Tessler, and Noah D Goodman. The first crank of the cultural ratchet: Learning and transmitting concepts through language. In CogSci, pp. 226-232, 2019.
[2] Swaroop Mishra, Daniel Khashabi, Chitta Baral, and Hannaneh Hajishirzi. Cross-task generalization via natural language crowdsourcing instructions. arXiv preprint arXiv:2104.08773, 2021.
[3] Hui Liu, Qingyu Yin, and William Yang Wang. Towards explainable nlp: A generative explanation framework for text classification. In ACL, pp. 5570-5581, 2019.
[4] Jake Snell, Kevin Swersky, and Richard Zemel. Prototypical networks for few-shot learning. In NIPS, Vol. 30, pp. 4077-4087, 2017
[5] Jesse Mu, Percy Liang, and Noah Goodman. Shaping visual representations with language for few-shot classification. In ACL, pp. 4823-4830, 2020.
[6] Mohamed Afham, Salman Khan, Muhammad Haris Khan, Muzammal Naseer, and Fahad Shahbaz Khan. Rich semantics improve few-shot learning. arXiv preprint arXiv:2104.12709, 2021.
[7] Kyunghyun Cho, Bart Merrienboer, Caglar Gulcehre, Fethi Bougares, Holger Schwenk, and Yoshua Bengio. Learning phrase representations using rnn encoderdecoder for statistical machine translation. In EMNLP, pp. 1724-1734, 2014.
[8] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. In NIPS, pp. 5998-6008, 2017.
[9] Jacob Andreas, Dan Klein, and Sergey Levine. Learning with latent language. In NAACL-HLT, pp. 2166-2179, 2018.
[10] Jimmy Lei Ba, Jamie Ryan Kiros, and Geoffrey E Hinton. Layer normalization. arXiv preprint arXiv:1607.06450, 2016.
[11] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In NAACL-HLT, pp. 4171-4186, 2019.
[12] Mike Schuster and Kaisuke Nakajima. Japanese and korean voice search. In ICASSP, pp. 5149-5152, 2012.
[13] Yan Wang, Wei-Lun Chao, Kilian Q Weinberger, and Laurens van der Maaten. Simpleshot: Revisiting nearestneighbor classification for few-shot learning. arXiv preprint arXiv:1911.04623, 2019.
[14] Catherine Wah, Steve Branson, Peter Welinder, Pietro Perona, and Serge Belongie. The caltech-ucsd birds-200-2011 dataset. 2011.
[15] Scott Reed, Zeynep Akata, Honglak Lee, and Bernt Schiele. Learning deep representations of fine-grained visual descriptions. In CVPR, pp. 49-58, 2016.
[16] Elizaveta Levina and Peter Bickel. Maximum likelihood estimation of intrinsic dimension. In NIPS, Vol. 17, 2005.
[17] Laurent Amsaleg, Oussama Chelly, Teddy Furon, Stéphane Girard, Michael E. Houle, Ken-ichi
Kawarabayashi, and Michael Nett. Estimating local intrinsic dimensionality. In KDD, p. 29-38, 2015.
[18] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In ACL, pp. 311-318, 2002.
[19] Satanjeev Banerjee and Alon Lavie. METEOR: An automatic metric for MT evaluation with improved correlation with human judgments. In Intrinsic and Extrinsic Evaluation Measures for Machine Translation and/or Summarization@ACL, pp. 65-72, 2005.
[20] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out@ACL, pp. 74-81, 2004.
[21] Dong Hoon Lee and Sae-Young Chung. Unsupervised embedding adaptation via early-stage feature reconstruction for few-shot classification. In ICML, Vol. 139, pp. 60986108, 2021.
[22] TY Lin, M Maire, S Belongie, J Hays, P Perona, D Ramanan, P Dollar, and CL Zitnick. Microsoft coco: Common objects in context. In ECCV, pp. 740-755, 2014.
[23] Tseng-Hung Chen, Yuan-Hong Liao, Ching-Yao Chuang, Wan-Ting Hsu, Jianlong Fu, and Min Sun. Show, adapt and tell: Adversarial training of cross-domain image captioner. In ICCV, pp. 521-530, 2017.
[24] Sachin Ravi and Hugo Larochelle. Optimization as a model for few-shot learning. In ICLR, 2017.
[25] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.6980, 2014.
[26] Adam Paszke, Sam Gross, Soumith Chintala, Gregory Chanan, Edward Yang, Zachary DeVito, Zeming Lin, Alban Desmaison, Luca Antiga, and Adam Lerer. Automatic differentiation in pytorch. In Autodiff@NIPS, 2017.
[27] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander M. Rush. Transformers: State-of-the-art natural language processing. In ACL: System Demonstrations, pp. 38-45, 2020.
[28] Steven Bird, Ewan Klein, and Edward Loper. Natural Language Processing with Python. O'Reilly Media, Inc., 2009.
[29] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. JMLR, Vol. 21, pp. $1-67,2020$.
## A Few-shot 画像分類の詳細
$N$-way $K$-shot 画像分類は,データから $N$ クラス・ $K$ サポート,M クエリをサンプリングすることで 1 タスクを作成する。 $N$-way $K$-shot 画像分類の訓練時は,複数の $N$ クラス分類タスクをバッチサイズ個独立にサンプリングして同時に学習する episodic training [24] を行う. テスト時では複数の $N$ クラス分類タスクにおける平均性能を評価する。
## B 実験設定の詳細
## B. 1 実装
実験には NVIDIA Quadro RTX 8000 (48GB) GPU 1 枚を用いた. ハイパーパラメータを表 6 に示す. 最適化手法には Adam [25] を用いた。実装には PyTorch [26] と Transformers [27] を用いた. ストップワードの定義には NLTK [28] を用い, 'bird’を追加した. 画像の前処理及び画像エンコーダの構成は先行研究 [5] と同一である. トークナイザとテキストエンコーダは BERT-base-uncased を用いた. テキストデコーダは事前学習済みエンコーダデコーダである T5-base [29] のデコーダと同じ構成としたが,事前学習済みパラメータは用いなかった。
## B. 2 局所内在次元の推定
表 4 に示した局所内在次元は,データ点 $x$ の近傍でのデータ多様体の次元を示す. 局所内在次元は最尤法を用いて
$
\operatorname{LiD}(x)=-\left.\{\frac{1}{n_{n n}} \sum_{i=1}^{n_{n n}} \log \left(\frac{r_{i}(x)}{r_{n_{n n}}(x)}\right)\right.\}^{-1}
$
と推定できる. ここで, $n_{n n}$ は近傍数であり,既存研究同様に 20 と設定した. $r_{i}$ は点 $x$ とその第 $i$ 近傍点のユークリッド距離である.評価実験においては,テストデータ点における局所内在次元の平均を推定値とした.
## B. 3 一貫性の評価
表 5 では生成したキャプションの正確さと画像分類の予測の正確さの相関を調査するため,Spearman の順位相関係数を用いた. テストデータ 2953 枚に対してキャプション生成を行い,それぞれの指標でキャプションを評価した. キャプション評価値の昇順でデータを 30 のビンに分割し,ビンごとに画像分類の平均精度を求めることで,相関を調べた。 | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E5-5.pdf | # 複数映像の抽象化を要するキャプション生成
高橋力斗 Chu Chenhui 黒橋禎夫
京都大学情報学研究科
\{r-takahashi, chu, kuro\}@nlp.ist.i.kyoto-u.ac.jp
## 概要
本研究では,新たな映像キャプション生成タスクとして抽象的映像キャプション生成を提案する。抽象的キャプション生成は,複数の映像を入力として,それらの映像全てに共通する内容を説明する文を生成するタスクである。このタスクでは,モデルは複数の映像に含まれる情報を抽象化し表現することが求められる。提案タスクのための新たなデータセットを構築し,モデルによる実験を行った.実験の結果,抽象的キャプション生成タスクは挑戦的なタスクであることが分かった.
## 1 はじめに
映像キャプション生成は,単一の映像を入力として,映像の説明文を生成するタスクである [1][2]. このタスクでは,モデルは与えられた映像に対して詳細かつ正確な説明を出力することが求められる。
本研究では新たな映像キャプション生成タスクとして,抽象的映像キャプション生成を提案する. 抽象的映像キャプション生成は,複数の映像を入力として,それらの映像全てに共通する内容を説明する文を生成するタスクである.
抽象的映像キャプション生成タスクでは,モデルは複数の映像に含まれる情報を抽象化し表現することが求められる。 したがって,抽象的映像キャプション生成タスクはモデルの情報抽象化能力を測る指標となることが期待される。また,抽象的映像キャプション生成タスクによってモデルが学習した抽象的な表現は,クラスタリングされた動画群に対する自動ラベル付与や,テキスト・動画をクエリとした動画検索などに応用できる。
本研究では抽象的映像キャプション生成データセットの構築及びそのデータセットを用いた実験を行った。データセットの構築では,既存の映像キャプションデータセットをもとにして,動画検索・テキスト含意認識・クラウドソーシングを用い
図 1 構築したデータセットの一例.
て構築を行った. 図 1 に構築したデータセットの一例を示す.実験では,構築したデータセットを用いてモデルを訓練し,抽象的映像キャプション生成を行った. モデルに複数の動画を入力するための工夫として,動画特徴量を類似度で重み付けして結合し,モデルに入力した. 実験の結果,抽象的映像キャプション生成は挑戦的なタスクであることが分かった.
## 2 関連研究
ここ数年で,映像キャプション生成に利用できるデータセットが数多く提案されている。分割されていない長い動画に対して複数のキャプションを付与しているデータセットとして, ActivityNet Captions [3],YouCook2 [4] などがある。 10 秒程度に分割された短い動画とキャプションを収集した大規模データセットとして, HowTo100M [5], VATEX [6], MSR-VTT [7], MSVD [8] が有名である。本研究では,抽象的映像キャプション生成のデータセットを構築する際に VATEX データセットを利用した。
動画と言語を繋ぐ埋め込みモデルとして CLIP4Clip [9] がある. CLIP4Clip は動画埋め込みとテキスト埋め込みを同じ表現空間で学習するモデルである。動画の各フレームの画像と動画キャプションを同時に入力し, 出力する動画特徴量とテキスト
図 2 データセットの構築手順.
特徵量が類似するようにモデルを訓練する.本研究では CLIP4Clip をデータセット構築の際に用いる動画埋め込みモデルとして利用した。
## 3 データセットの構築
抽象的映像キャプション生成は既存の映像キャプションデータセットで訓練・評価することができないため,新たにデータセットを構築した. 図 1 に構築したデータセットの一例を示す. 構築したデータセットは次のもので構成される.
・動画グループ: 2-6 件の動画が含まれる動画群
・手動キャプション: 人手によって付与したキャプション
・シードキャプション: 自動的に付与したキャプション
・シードキャプションとの一致度スコア
- 自動スコア
- 手動スコア
キャプションは動画グループ内の全ての動画に共通する内容を説明する英文である.シードキャプションとの一致度スコアは動画グループ内の各動画に対して付与されるスコアであり,シードキャプションと動画の内容一致度を表すスコアである. シードキャプションとの一致度スコアには,自動スコアと手動スコアがある.
手動キャプションはデータセットの正解ラベルとしての利用を想定している. シードキャプション及び各動画に対応するスコアは,モデルの訓練及びテスト時に利用することを想定している.例えば,正解ラベルである手動キャプションに加えて,シードキャプションの内容をスコアで重み付けして学習させることで,モデルに抽象的キャプション生成をより効率的に学習させることが期待できる. また, 手動スコアが高いシードキャプションについては,テスト時の正解ラベルとしても利用できる.
データセットの構築手順を図 2 に示す. 既存の映像キャプションデータセットである VATEX データセットを使用し,いくつかの処理を行なってデータセットを構築した. 最初に, VATEX データセット内の動画に対して類似動画検索を行うことで,複数動画とシードキャプションからなるデータセットを構築した. その後,テキスト含意認識とクラウドソーシングを用いてデータセットにシードキャプションとの一致度スコア及び手動キャプションを付与した。また,VATEX データセットにおける訓練データ・検証データ・テストデータに対してそれぞれ処理を行ったものを,構築したデータセットの訓練データ・検証データ・テストデータとした. 以下でデータセット構築のために行った処理の詳細を述べる.
## 3.1 類似動画検索によるデータセット構築
既存の映像キャプションデータセットである VATEX データセットに対して類似動画検索を行い,動画グループに対してシードキャプションを付与したデータセットを構築した。類似動画検索を用いてデータセットを作る手順は次のとおりである.
1. 動画埋め込みモデルを用いて, VATEX データセット内の動画の特徴量を抽出する。
2. $\mathrm{k}$ 近傍法を用いて,検索元となる動画に類似する動画を VATEX データセット内から上位 6 件集めて一つの動画グループとする.
3. 検索元の動画に付与されていた英語キャプション 10 件の中で最も語数が少ないものをシードキャプションとし,動画グループに付与する.
動画埋め込みモデルには CLIP4Clip [9]を用いた. CLIP4Clip による埋め込みでは,動画全体を一つの特徴べクトルに変換する。したがって,動画の特徴ベクトルの集合に対して $\mathrm{k}$ 近傍法を適用することで類似動画を検索することが可能である. $\mathrm{k}$ 近傍法を
実行するツールには Faiss ${ }^{1)}$ [10] を用いた.
## 3.2 シードキャプションとの一致度スコア の自動付与
テキスト含意認識を用いた処理によって,動画グループ内の各動画に対してシードキャプションとの一致度スコアを自動的に付与した. シードキャプションは,元々は動画グループ内の動画とは異なる動画に対して付与されていた説明文である. そのため, シードキャプションは動画グループ内の動画の内容と食い違っている可能性がある. 動画に対してスコア付けを行うことで,シードキャプションに合わない動画を動画グループから除外することができる.また,モデルの訓練時にシードキャプションの内容を用いる場合,自動スコアに応じて重み付けをした学習を行える。
テキスト含意認識は,二つのテキスト間の含意関係を判定するタスクである。 あるテキストが正しいと仮定した場合に,もう一つのテキストが正しいと言えるかを判定する. 動画グループ内のある動画に VATEX データセット内で元々付与されていたキャプションが正しいと仮定した場合にシードキャプションが正しいと言えるならば,シードキャプションはその動画の内容を正しく説明していると考えられる。
テキスト含意認識を用いて動画に対して自動スコアを付与する手順は次の通りである。
1. シードキャプション $c^{\prime}$ と, 動画グループ内の動画に VATEX データセットで元々付与されていたキャプション $c_{1}, c_{2}, \ldots, c_{10}$ を準備する.
2. テキスト含意認識モデルを用いてキャプション $c^{\prime}$ とキャプション $c_{1}$ の含意関係を判定する. キャプション $c_{2}, \ldots, c_{10}$ それぞれについても同様の操作を行う.
3. テキスト含意認識で含意関係にあると判定されたキャプションの数を動画のスコアとする.
テキスト含意認識を行うモデルには,テキスト含意認識で高い性能が報告されている SemBERT [11]を用いた. 全ての動画に対して自動スコアを付与した後に,自動スコアが 0 である動画は動画グループから排除した。また,動画の排除によって動画グルー プ内の動画数が 1 件以下となったデータはデータセットから排除した。
## 3.3 シードキャプションとの一致度スコア の手動付与
クラウドソーシングを用いて,動画グループ内の各動画に対してシードキャプションとの一致度スコアを手動で付与した. 手動でのスコア付けの目的は,モデルの訓練・テスト時に利用できる情報の付与である. モデルの訓練時にシードキャプションの内容を用いる場合,人手によって付与したスコアに応じて重み付けした学習を行える。また,手動スコアが高い動画が多く含まれるシードキャプションについては,テストデータの正解ラベルとしての利用も期待できる.
シードキャプションと動画の組をクラウドワー カーに見せ,シードキャプションが動画を正しく説明しているかどうかを Yes,No で回答してもらった. シードキャプションと動画の組一つにつき 3 名のクラウドワーカーに回答してもらい,Yes と回答したクラウドワーカーの人数を手動スコアとした.
シードキャプションは複数の動画の共通内容を説明する抽象的なキャプションであると想定している.この想定を考慮し,シードキャプションが動画の一部分のみを説明している場合でも Yes と答え, シードキャプションが動画内容と食い違う場合のみ No と回答するようクラウドワーカーに指示した.
## 3.4 手動キャプション付与
クラウドソーシングを利用して, 3.1 節で準備した動画グループに対して手動でキャプション付与を行った. 手動で動画にキャプションを付与する目的は,シードキャプションよりもより信頼性の高いキャプションを集め,データセットの正解ラベルとして利用することである.
クラウドワーカーにデータセット内の動画グルー プを提示し,全ての動画に共通する内容を説明する抽象的なキャプションを記述してもらった。キャプションの信頼度や統一性を高めるため,次のようなルールを定めた.
・動画に現れていない内容を補完したキャプションを書かない.
・複数の動画の内容を列挙しただけのキャプションを書かない.
・動画に現れる人や物の数を合計したキャプションを書かない。
表 1 構築したデータセットの統計.
## 3.5 データセットの統計
構築したデータセットの統計を表 1 に示す. キャプション数は,シードキャプション及び手動キャプションの数の合計である. 動画数は, データセットの各動画グループに含まれる動画数を重複を含めて合計したものである. 構築したデータセットの詳しい統計及び分析については付録 A に記す。
## 4 実験
## 4.1 実験設定
構築したデータセットを用いて,抽象的映像キャプション生成の実験を行った. 本実験では, 2 件の動画のみを入力としてキャプションを生成した. データセットの正解ラベルは手動キャプションとした.
## 4.2 提案モデル
抽象的キャプション生成を行うモデルには,双方向 LSTM をエンコーダ, 単方向 LSTM をデコーダとする Encoder-Decoder モデルを用いた。また,動画の埋め込みには行動認識モデルとして有名な I3D [12] を使用した。
モデルに対して複数の動画を同時に入力するために,各動画の各フレームの特徴ベクトルをコサイン類似度で重み付けし, 各フレームごとに結合したものをモデルの入力とした. 図 3 に入力する動画が 2 件の場合の前処理の説明図を示す. 前処理の具体的な手順は次のとおりである。
1. 一つ目の動画特徵量 $R^{(1)}$ と, 二つ目以降の動画特徵量 $R^{(2)}, R^{(3)}, \ldots$ の各フレームについて特徴べクトルの類似度を計算し, 類似度行列 $A_{12}, A_{13}, \ldots$ を作成する。類似度の計算にはコサイン類似度を用いる。
2. 類似度行列と動画特徴量の積 $R^{(2)}=A_{12} \cdot R^{(2)}$ を計算する。 $R^{\prime(3)}$ 以降についても同様に計算する.
3. $R^{(1)}, R^{(2)}, R^{\prime(3)}, \ldots$ を同じフレームについて結合し,新たな動画特徴量 $V$ とする。
図 3 動画特徴量の前処理(二つの動画の場合)
表 2 実験で得られた各種スコア. 参考として VATEXによる映像キャプション生成のスコアを記載している.
各動画の特徴量は 1,024 次元の特徴ベクトルの時系列データで表現される. 入力する動画が 2 件の場合,前処理によって得られる動画特徴量 $V$ は動画特徴量 $R^{(1)}$ と同様のフレーム数を持ち, 各フレームの特徴ベクトルの次元は 2,048 である.
## 4.3 実験結果
実験結果を表 2 に示す. Abstractive と書かれた行には,抽象的映像キャプション生成を行わせた結果得られた各種スコアを記している. VATEXと書かれた行には,VATEX の論文中で示されている,今回の実験で用いたモデルと同様の構造を持つモデルでの VATEX データセットを用いた映像キャプション生成の各種スコアを記している。
VATEX データセットを用いた映像キャプション生成と比べて, 抽象的映像キャプション生成のスコアが顕著に低い.この結果から, 抽象的映像キャプション生成が挑戦的なタスクであることが分かった.
## 5 おわりに
本稿では抽象的映像キャプション生成のデータセット構築及び実験について述べた。データセットの構築では,VATEX データセットをもとに動画検索,テキスト含意認識及びクラウドソーシングを用いて構築を行った. 実験では,モデルに対して複数の動画を入力し, 抽象的キャプション生成を行った. 実験結果から,抽象的キャプション生成が挑戦的なタスクであることが分かった.
今後は抽象的映像キャプション生成タスクを解くより良いモデルを提案する予定である。具体的には,モデルに複数のエンコーダを用いたり,シードキャプションや自動スコア・手動スコアを利用してモデルを訓練することで精度向上が期待できる.
## 謝辞
本研究は富士通株式会社の助成を受けたものである.
## 参考文献
[1] Alok Singh, Thoudam Doren Singh, and Sivaji Bandyopadhyay. Nits-vc system for vatex video captioning challenge 2020. arXiv preprint arXiv:2006.04058, 2020.
[2] Ziqi Zhang, Yaya Shi, Chunfeng Yuan, Bing Li, Peijin Wang, Weiming $\mathrm{Hu}$, and Zheng-Jun Zha. Object relational graph with teacher-recommended learning for video captioning. In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition, pp. 1327813288, 2020.
[3] Ranjay Krishna, Kenji Hata, Frederic Ren, Li Fei-Fei, and Juan Carlos Niebles. Dense-captioning events in videos. In Proceedings of the IEEE international conference on computer vision, pp. 706-715, 2017.
[4] Luowei Zhou, Chenliang Xu, and Jason J Corso. Towards automatic learning of procedures from web instructional videos. In Thirty-Second AAAI Conference on Artificial Intelligence, 2018.
[5] Antoine Miech, Dimitri Zhukov, Jean-Baptiste Alayrac, Makarand Tapaswi, Ivan Laptev, and Josef Sivic. Howto100m: Learning a text-video embedding by watching hundred million narrated video clips. In Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 2630-2640, 2019.
[6] Xin Wang, Jiawei Wu, Junkun Chen, Lei Li, Yuan-Fang Wang, and William Yang Wang. Vatex: A large-scale, high-quality multilingual dataset for video-and-language research. In Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 4581-4591, 2019.
[7] Jun Xu, Tao Mei, Ting Yao, and Yong Rui. Msr-vtt: A large video description dataset for bridging video and language. In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 5288-5296, 2016.
[8] David Chen and William B Dolan. Collecting highly parallel data for paraphrase evaluation. In Proceedings of the 49th annual meeting of the association for computational linguistics: human language technologies, $\mathrm{pp}$. 190-200, 2011.
[9] Huaishao Luo, Lei Ji, Ming Zhong, Yang Chen, Wen Lei, Nan Duan, and Tianrui Li. Clip4clip: An empirical study of clip for end to end video clip retrieval. arXiv preprint arXiv:2104.08860, 2021.
[10] Jeff Johnson, Matthijs Douze, and Hervé Jégou. Billionscale similarity search with gpus. arXiv preprint arXiv:1702.08734, 2017.
[11] Zhuosheng Zhang, Yuwei Wu, Hai Zhao, Zuchao Li, Shuailiang Zhang, Xi Zhou, and Xiang Zhou. Semanticsaware bert for language understanding. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, pp. 9628-9635, 2020.
[12] Joao Carreira and Andrew Zisserman. Quo vadis, action recognition? a new model and the kinetics dataset. In pro- ceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 6299-6308, 2017.
## A データセットの統計及び分析
本節には,抽象的映像キャプション生成のために構築したデータセットの統計・分析を記す. 構築したデータセットの動画件数ごとのデータサイズを表 3 に示す. 訓練データ・検証データ・テストデータのいずれにおいても,動画を 2 件含むデータが最も多い。また,動画の件数が多いデータほど,データサイズが少ない傾向にある.
自動付与・手動付与されたスコアに対する動画数の内訳をそれぞれ表 4 ,表 5 に示す. 自動スコアに関しては,いずれのデータについてもスコアが 1 の動画が最も多く,スコアが高い動画ほど数が少ない傾向にある.手動スコアに関しては,いずれのデー タについてもスコアが 2 以上の動画がデータ全体の 95\%以上を占めている. 手動スコアの内訳から, シードキャプションは総じて動画の内容を正しく説明していると考えられる。
表 3 データサイズの内訳(動画グループ内の動画数).
表 4 動画数の内訳(自動スコア).
表 5 動画数の内訳(手動スコア).
| NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E6-1.pdf | # 抽象度を制御可能な エンティティレベルの画像キャプション生成
加藤駿弥 Chenhui Chu 黒橋 禎夫
京都大学
\{s-kato, chu, kuro\}@nlp.ist.i.kyoto-u.ac.jp
## 概要
画像キャプション生成は近年盛んに研究されてきたが, 先行研究は正確性, 多様性, 差別化を重視し, 抽象度は軽視してきた. 本研究では, Inverse Document Frequency (IDF) とエンティティレベルの含意関係認識を用いて, 抽象度を制御可能なエンティティレべルの画像キャプション生成手法を提案する. 含意関係認識を用いて抽象度を評価したところ, 先行研究と比べ, 提案手法は抽象度をより制御可能になり, 具体的なキャプションの生成において $15.7 \%$ の精度向上が確認された。
## 1 はじめに
画像キャプション生成は与えられた画像を正しく説明する分を生成するタスクであり, 物体, 物体間の関係などを正しく理解する必要がある. また,画像全体のキャプションを生成する研究 [1] だけでなく, Dense Captioning のようにエンティティに対してキャプションを生成する研究 $[2,3,4]$ も行われている.
従来のキャプション生成に関する研究は,より正確もしくは多様なキャプションを生成することに焦点を当てており, 抽象度の制御を軽視してきた. しかし, 人間は視覚情報を言語化するとき,物体認識を行うだけではなく, 常識などをもとに認識した物体や物体間の関係を具体的な概念と結びつけて形容する. 例えば, 図 1 のようにスーツを着てネクタイを締め, 革靴を履いている男性は, 常識をもとに「男性」 だけではなく「ビジネスマン」という概念と結びつけられる。
本研究では, エンティティレベルにおける物体認識のようなより抽象的なキャプションと常識推論がいるより具体的なキャプションの生成を制御することを目指す. そのために, IDF と含意関係認識を
図 1 抽象的,具体的なキャプションの例
用いた抽象度の制御するためのデータセットの構築手法を提案する. 提案手法の概要を図 2 に示す.具体的には,まず, エンティティには複数のキャプションが付与されており,これを 1 つの文書とみなしてキャプション生成に含まれる uni-gram の IDF を計算する。次に,あるエンティティにつけられた複数のキャプションの中で, IDF とその他のキャプションに対して含意関係である割合の和が高いものを Fine(具体的), そうでないものを Coarse(抽象的) であるとラベル付けすることで, 各エンティティにおける Coarse/Fine なキャプションを生成するためのデータセットを構築する。
実験の結果, 先行研究と比べてより抽象度を制御可能になったことを示した. そして, 先行研究では単一エンティティのみで学習していたが, 本研究では複数エンティティも含めて学習させ, 単一エンティティと同様に抽象度を制御可能になったことを示した.
## 2 前提知識
エンティティレベルの画像キャプション生成には, $\mathrm{Li}$ ら [5] の研究がある. まず, $\mathrm{Li}$ ら [5] はエンティティレベルの多様なキャプション生成というタスクを提案した.このタスクはエンティティのキャプションを生成するタスクで, 複数の正解キャプションがある点で Dense Captioning とは違う.
また, ターゲットエンティティと同じ画像に含まれる他のエンティティ (neighbors) の情報を考慮す
図 2 提案手法の概要
図 3 E-C2F のアーキテクチャ
るための E-Attn という新たな Attention 機構を提案し,それを組み込んだ E-C2F というモデルを提案した. E-C2F のアーキテクチャを図 3 に示す. E-C2F は 2 階層構造のモデルであり, Coarse と Fine という 2 つの抽象度の違うキャプションを生成できる.この 2 階層構造により,データセットのキャプションを Coarse と Fine に分割する必要があるが, Li ら [5] はキャプションごとの bi-gram の IDF の和を用いて分割した. E-C2F は提案されたエンティティレベルの多様なキャプション生成タスクにおいて SOTAを達成した. 注意点として Li ら [5] は複数エンティティはデータセットから除いた.
## 3 提案手法
## 3.1 IDF と含意関係認識を用いた分割
先行研究には以下の 3 つの問題点がある.
・Li ら [5] は, 同一エンティティに付与されているキャプションからそれらのペアを全通り作り, ペアの中で bi-gram の IDF の和が小さいキャプションを Coarse, 大きいキャプションを Fine と
した. しかしこの手法は, あるペアでは Coarse となったキャプションが, 別のペアでは Fine となってしまうことがあり,データセットに一貫性がない.
・IDF の和で計算しているため, キャプションの語数が長いほどスコアが高くなる.
・bi-gram の IDF を計算しているため, キャプションが 1 単語だとスコアが 0 となる.
これらを改善するため, uni-gram の IDF と含意関係認識を用いた Coarse, Fine の分割手法を提案する.
## 3.1.1 IDF
先行研究では, エンティティに付与されているキャプションを 1 つの文書とみなし, bi-gram の和を用いて Coarse, Fineを分割したが, 本研究では uni-gram のIDFを用いる.
## 3.1.2 含意関係認識
キャプションの抽象度の高低を予測するため,含意関係認識を用いる. 既存の含意関係認識モデルは文で事前学習されているため, エンティティのデータセットでの fine-tuning が必要である. 本研究では, エンティティの含意関係認識データセットとしてChu ら [6] のデータセットを用いる.このデータセットは 2 つのキャプション (pharse1, phrase2) を alternation, forward entailment, reverse entailment, equivalence, independence の 5 クラスに分類したが, NLI は neutral, entailment, contradiction の3クラスであるのでそのまま fine-tuning できない. ここでは, 表 1 のようにマッピングを行った. 表中の Forward はデータセットの phrase1 を前提, phrase2 を仮説にしたもので, Reverse は逆である.
図 4 複数エンティティの定義 (緑: ターゲットエンティティ,ピンク: neighbors)
## 3.1.3 Coarse, Fine の分割
まず Chu ら [6] がアノテーションしたデータにラベルを付与する.アノテーションしてないデータについては, fine-tuning した RoBERTa でラベルを付与する.ここで, Chu らの手法と同様に stop words は除外する. 次に, 含意関係認識において,キャプションが前提のとき, 含意関係となる割合を計算する. さらに, uni-gram の IDF を計算し, キャプション中の単語の IDF の最大値をIDF のスコアとする.ここで含意関係認識と IDF の寄与が同一になるようにIDF のスコアを正規化する. 最後に含意関係の割合とIDF のスコアの和を計算する。
## 3.2 複数エンティティのキャプション生成
次に複数エンティティに焦点を当てる. $\mathrm{Li}$ ら [5] は複数エンティティはデータセットから除いている. 本研究では, 図 4 のように, ターゲットエンティティを複数の bounding box 結合したものと定義し, neighbors はその他のエンティティにターゲットの複数エンティティを加えたものと定義する。
## 4 実験
## 4.1 実験設定
本研究では, 画像からのエンティティの特徴べクトル抽出は ResNet-152[7] を用いた. データセットは Flickr30k Entities[8]を用いた. Flickr30k Entitiesに表 2 データセットの統計と fine-tuning の結果
は約 3 万枚の画像があり,それぞれの画像に 5 つのキャプションが付与されている. そしてキャプション中のフレーズと画像中のエンティティが紐づけられている. エポック数は 40 で統一し, 他の設定は Li ら [5] に従った. 本研究では正確性, 多様性, 抽象度の評価をした. 正確性の評価指標として, BLEU, METEOR, ROUGE_L, CIDEr を用いた. 多様性の評価指標として, LSA, self-CIDEr, n-gram, DIV-nを用いた.抽象度の評価指標として, 含意関係の割合を用いた。 モデルには 4.2 で fine-tuning した RoBERTaを用いた.
## 4.2 含意関係認識のための fine-tuning
含意関係認識モデルには SNLI[9], MNLI[10], FEVER-NLI[11], ANLI (R1, R2, R3)[12] で事前学習済み RoBERTa-Large ${ }^{1)}$ を用いた. データセットの統計と fine-tuning した結果が表 2 である. fine-tuning 前の RoBERTa の精度は $67 \%$ であったが, fine-tuning により,テストデータにおいて $91 \%$ の精度を達成した。
## 4.3 単一エンティティのキャプション生成
Coarse, Fine の数をおおよそ等しくするため, 本研究では提案手法の閾値を 0.55 とした. まず正確性,多様性の評価を行った. 単一エンティティのキャプション生成の正確性と多様性の実験結果を表 3 に示す.データセットが異なるので直接的な比較はできない. 提案手法により, 正確性は少し低下したが, 多様性は非常に向上した. 提案手法の Fine の正確性が低い原因として,より具体的なキャプションを生成するタスクの難易度が高いことが考えられる。
次に抽象度の評価を行った. E-C2F の生成した Fine のキャプションと, 提案手法の生成した Fine のキャプションに対して含意関係認識を適用し, それぞれのキャプションを前提, 仮定としたときに含意関係である割合を比較した. E-C2F から生成されたキャプションが前提で提案手法から生成されたキャプションが仮定のとき,含意関係となるものは $3.5 \%$ であったのに対し, 逆は $19.2 \%$ であった. よって提案手法により,より具体的なキャプションを生成でき
1) https://huggingface.co/ynie/roberta-large-snli_mnli_ fever_anli_R1_R2_R3-nli
表 3 正確性と多様性の結果
表 4 生成されたキャプションの例
ることが示された
生成されたキャプションの例を表 4 の左に示す.先行研究と比較して, より抽象的, 具体的なキャプションを生成することを達成した。
## 4.4 複数エンティティのキャプション生成
Coarse, Fine の数をおおよそ等しくするため, 本研究では提案手法の閾値を 0.55 とした. まず正確性,多様性の評価を行った. 複数エンティティのキャプション生成の正確性と多様性の実験結果を表 3 に示す. 単一エンティティに比べ, 多様性は近い值を得ているが, 正確性は低下した. 原因として複数エンティティのキャプション生成のほうが考慮する情報が多く, より難易度が高いことが考えられる. また単一エンティティに比べ, データが少ないので語彙数が少なくなっている.
次に抽象度の評価を行った. E-C2F は複数エンティティをデータセットから除いており, 単一エンティティのような比較ができないので, 生成された Coarse, Fine のキャプションで比較実験を行った. Coarse が前提で Fine が仮定のとき,含意関係となるものは 3.9\%であったのに対し, 逆は 47.2\%であった.単一エンティティではあるが, E-C2F で同様の実験を行ったところ, Coarse が前提で Fine が仮定のとき,含意関係となるものは $7.1 \%$ であっのに対し, 逆は 23.6\%であった. よって提案手法により, E-C2F に比べ, 抽象度を制御可能であることが示された.
生成されたキャプションの例を表 4 の右に示す.先行研究と比較はできないが, 抽象的, 具体的なキャプションを生成することを達成した。
## 5 おわりに
本研究では, IDF と含意関係認識を用いて抽象度を制御可能なエンティティレベルのキャプション生成手法を提案し, 従来の手法より多様性を向上させ, より具体的なキャプションを生成可能にし, 抽象度の制御を可能にした. またエンティティの抽象度を制御可能にすることで, 常識推論の導入, そして画像全体の深い理解に繋がると考える. 今後の展望として, 本研究の手法を画像全体に拡張することが挙げられる。
## 謝辞
本研究は富士通株式会社の助成を受けたものである。
## 参考文献
[1] Matteo Stefanini, Marcella Cornia, Lorenzo Baraldi, Silvia Cascianelli, Giuseppe Fiameni, and Rita Cucchiara. From show to tell: A survey on deep learning-based image captioning. In arXiv, 2021.
[2] Justin Johnson, Andrej Karpathy, and Li Fei-Fei. Densecap: Fully convolutional localization networks for dense captioning. In CVPR, 2016.
[3] Linjie Yang, Kevin Tang, Jianchao Yang, and Li-Jia Li. Dense captioning with joint inference and visual context. In CVPR, 2017.
[4] Guojun Yin, Lu Sheng, Bin Liu, Nenghai Yu, Xiaogang Wang, and Jing Shao. Context and attribute grounded dense captioning. In CVPR, 2019.
[5] Linwei Li, Xiangyu Lin, Chenhui Chu, Noa Garcia, Yuta Nakashima, and Teruko Mitamura. Achieving entity-level diverse caption generation via attention over neighbors. Computer Vision and Image Understanding (under review).
[6] Chenhui Chu, Vinicius Oliveira, Felix Giovanni Virgo, Mayu Otani, Noa Garcia, and Yuta Nakashima. The semantic typology of visually grounded paraphrases. Computer Vision and Image Understanding, Vol. 215, No. 103333, 2022.
[7] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. In CVPR, 2016.
[8] Bryan A. Plummer, Liwei Wang, Christopher M. Cervantes, Juan C. Caicedo, Julia Hockenmaier, and Svetlana Lazebnik. Flickr30k entities: Collecting region-to-phrase correspondences for richer image-to-sentence models. In ICCV, 2015 .
[9] Samuel R. Bowman, Gabor Angeli, Christopher Potts, and Christopher D. Manning. A large annotated corpus for learning natural language inference. In EMNLP, 2015.
[10] Samuel R. Bowman Adina Williams, Nikita Nangia. A broad-coverage challenge corpus for sentence understanding through inference. In NAACL, 2018.
[11] Yixin Nie, Haonan Chen, and Mohit Bansal. Combining fact extraction and verification with neural semantic matching networks. In AAAI, 2019.
[12] Yixin Nie, Adina Williams, Emily Dinan, Mohit Bansal, Jason Weston, and Douwe Kiela. Proceedings of the 58th annual meeting of the association for computational linguistics. In ACL, 2020.
## A 提案手法のスコアの例
提案手法のスコアの例を表 5 に示す.
表 5 提案手法のスコアの例
| NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E6-2.pdf | # 文字情報を考慮したシーン画像検索
宮脇峻平 ${ }^{1}$ 長谷川拓 ${ }^{2}$ 西田京介 ${ }^{2}$ 加藤拓真 ${ }^{1}$ 鈴木潤 1,3
${ }^{1}$ 東北大学 ${ }^{2} \mathrm{NTT}$ 人間情報研究所 ${ }^{3}$ 理化学研究所
\{shumpei.miyawaki.q1, takuma.kato.r3\}@dc.tohoku.ac.jp jun.suzuki@tohoku.ac.jp
\{taku. hasegawa.ps, kyosuke.nishida.rx\}@hco.ntt.co.jp
## 概要
本研究では,Vision and Language の分野で,テキストと視覚領域の意味表現を紐づけるための手法として注目される,画像とテキストを独立したモデルでエンコードするデュアルエンコーダ型の検索モデルを用いて画像検索に取り組む. デュアルエンコーダでは,特に画像エンコーダが画像中の文字情報であるシーンテキストと視覚情報を融合して理解できているかどうかが明らかでないことから, TextCaps [1] を用いて画像検索を行い,シーンテキストの影響について調査を行う.実験の結果より, シーンテキストと周辺視覚情報の融合的な理解を助けるモデル化が効果的であることを示す.
## 1 はじめに
計算機によるテキストや視覚情報の適切な理解を実現することは, 人工知能研究における最終目的の一つである. Vision and Language の分野では,この目的の実現に向けてテキストと視覚領域の意味表現の紐付けを行うための方法論が研究されている。一般的に,1) テキストと視覚情報を連結して一つの Transformer [2] ベースのモデルに入力し,異なるモダリティ間でアラインメントを学習するクロスエンコーダ,2) 画像・テキストに関する二つの独立したエンコーダを用いて対照学習の枠組みを導入してアラインメントを学習するデュアルエンコーダ,の二つの方法論が広く用いられる. クロスエンコーダは異なるモダリティの理解を行いやすいが,画像検索などの高速かつ大規模な推論が必要なタスクには適していないことが知られている [3].
本研究では,高速に推論可能なデュアルエンコー ダを用いてシーンテキストと視覚領域の意味表現を適切に紐づけることを目的として, 画像中の文字情報を考慮する画像検索モデルを提案する.本研究の貢献は以下の通りである.
・デュアルエンコーダを対象に,画像中の文字情報と視覚情報を融合して理解するための拡張を行い,シーンテキストを周辺視覚情報から読むための事前学習を提案する。
・クロスエンコーダを用いた先行研究と同様に,実験結果から画像中の文字情報と周辺視覚情報の融合的な理解がモデルの検索性能に有効な影響を示すことを明らかにした。
## 2 関連研究
## 2.1 デュアルエンコーダによる検索手法
オープンドメイン質問応答タスクでは,Karpukhin ら [4] が提案したデュアルエンコーダを用いた密なベクトル意味空間での類似度に基づく検索手法であ
る Dense Passage Retrieval(DPR)が広く用いられており,デュアルエンコーダにおけるモダリティの関係性についても研究されている $[5,6]$.
デュアルエンコーダを用いた検索手法は画像検索でも研究されており $[3,7,8,9]$, Jia ら [8] はWEB から収集した画像とテキストのペアからなる大規模な学習データを用いることで,線形演算可能なテキストと視覚情報の埋め込み表現を学習している.
またクロスエンコーダについても研究されており [10,11, 12, 13], UNITER [11] は Transformer [2] の注意機構を用いてテキストと視覚領域のクロスモー ダルなアラインメントを学習している。
さらに多言語を考慮したモデルも注目されており [14, 15], Huang ら [16] はデュアルエンコーダの枠組みを用いて多言語マルチモーダル検索における事前学習法を提案している.
## 2.2 画像中の文字情報のモデル化
標識や商品名など我々の身の回りにはシーンを説明するために有効なテキスト情報が溢れており,
図 1 ベースラインモデルの概要
シーンテキストは類似するシーン画像に対してより詳細な意味情報を提供する $[17,18]$. 先行研究ではシーンテキストの意味情報として,テキストの言語情報や視覚情報だけでなく, 文字単位の特徵量 (PHOC) [19] やレイアウト [20, 21, 22, 23], シーンテキスト間の位置情報 [24] などが使用される。しかしデュアルエンコーダによる画像中の文字情報と周辺視覚情報の融合した理解については明らかでなく,特にシーンテキストをモダリティの対象としない CLIP [7] では画像中の文字情報と物体の視覚情報の意味的な紐付けが難しい [25, 26].
また撮影場所や生産地などに依存するシーンテキストはゼロショットの語彙となる場合があるため [1], 先行研究におけるシーンテキストはテキストエンコーダが持つ語彙とは異なるものとして扱われる [27, 28, 24]. また大規模なテキストコーパスを用いて事前学習を行うことでシーンテキストの語彙を広くカバーするモデルも提案されている [23].
その他,シーンテキスト検出・検索タスクでは, 従来より注意機構 [29] や Connectionist Temporal Classification (CTC) ロス [30] などが使用される. Wang ら [31] は CTC ロスに加え,シーンテキストおよび視覚表現のクロスモーダルな類似関係をモデル化するシーンテキスト検索モデルを提案している.
## 3 文字情報を考慮した画像検索
本章では,高速に推論可能なデュアルエンコーダを用いて画像中の文字情報を考慮した画像検索モデルを提案する。
## 3.1 ベースラインモデル
本研究ではデュアルエンコーダにおける詳細なアラインメントを学習することを目的として,画像全体を入力する CLIP [7] ではなく,Faster R-CNN を用いた物体検出器 [32] により分割された物体領域を扱う LightningDOT [3] をべースラインモデルとして用いる(図 1). 画像・テキストエンコーダには, UNITER [11] および BERT [33]を用いる.
LightningDOT では,画像 $\boldsymbol{v}$ とキャプション $\boldsymbol{w}$ のペアからなるデータセット $D$ をそれぞれ画像エンコーダ $E_{v}$ およびテキストエンコーダ $E_{w}$ に入力する。 そして,ベクトル化された二つの CLS べクトルについて,対応するぺアに対して内積值 $\operatorname{sim}(\boldsymbol{w}, \boldsymbol{v})=E_{w}\left(\boldsymbol{w}_{\mathrm{CLS}}\right)^{\top} E_{v}\left(\boldsymbol{v}_{\mathrm{CLS}}\right)$ が高くなるようモデルパラメータを最適化する Cross Modal Retrieval (CMR)を行う(式1)。お負例の選択についてはインバッチネガティブサンプリングを採用し,ミニバッチ $B$ 内の他の画像とキャプションをそれぞれ負例として扱うこととする.
$
\begin{gathered}
\mathscr{L}_{C M R}(B)=\frac{1}{2 B} \sum_{b=1}^{B} \mathscr{L}_{T R}^{\left(v_{b}\right)}+\mathscr{L}_{I R}^{\left(w_{b}\right)} \\
\mathscr{L}_{I R}^{\left(w_{b}\right)}=-\log \frac{\exp ^{\operatorname{sim}\left(\boldsymbol{w}_{b}, \boldsymbol{v}_{b}\right)}}{\sum_{k=1}^{B} \exp ^{\operatorname{sim}\left(\boldsymbol{w}_{b}, \boldsymbol{v}_{k}\right)}} \\
\mathscr{L}_{T R}^{\left(v_{b}\right)}=-\log \frac{\exp ^{\operatorname{sim}\left(\boldsymbol{v}_{b}, \boldsymbol{w}_{b}\right)}}{\sum_{k=1}^{B} \exp ^{\operatorname{sim}\left(\boldsymbol{v}_{b}, \boldsymbol{w}_{k}\right)}}
\end{gathered}
$
CMR の他,[MASK] に置き換えられたトークン $\boldsymbol{w}_{m}$ を周辺テキスト $\boldsymbol{w}_{\backslash m}$ および視覚情報 $\boldsymbol{v}_{C L S}$ から予測する Visual Masked Language Modeling (VMLM)
1)(式 2)また $\mathbf{0}$ ベクトルに置き換えられた物体領域のベクトル表現 $\boldsymbol{v}_{m}$ を周辺視覚情報 $\boldsymbol{v}_{\backslash m}$ およびテキスト情報 $\boldsymbol{w}_{C L S}$ から予測する Semantic Masked Region Modeling(SMRM)2)(式 3)を行う3).
$
\begin{aligned}
& \mathscr{L}_{M L M}(\theta)=-\mathbb{E}_{(\boldsymbol{w}, \boldsymbol{v}) \sim D} \log P_{\theta}\left(\boldsymbol{w}_{m} \mid \boldsymbol{w}_{\backslash m}, \boldsymbol{v}_{\mathrm{CLS}}\right)(2) \\
& \mathscr{L}_{M R M}(\theta)=-\mathbb{E}_{(\boldsymbol{w}, \boldsymbol{v}) \sim D} f_{\theta}\left(\boldsymbol{v}_{m} \mid \boldsymbol{v}_{\backslash m}, \boldsymbol{w}_{\mathrm{CLS}}\right)
\end{aligned}
$
## 3.2 シーンテキストと周辺視覚情報の理解
先行研究における画像中の文字情報を組み込んだクロスモーダルモデルについては,クロスエンコー ダを用いた手法が広く研究される [17, 23, 20, 21, 22]一方で,画像中の文字情報がデュアルエンコーダに与える影響については明らかでない. そこで本研究では, LightningDOT [3] の画像エンコーダである UNITER [11] を対象に,シーンテキストを新たなモダリティの対象として考慮する(図 1).
## Masked Scene-Text Modeling (MSM)
シーンテキストに対して物体の視覚情報やキャプションとの適切なアラインメントをデュアルエンコーダに学習させるため, 3.1 節で説明した VMLM を拡張し,シーンテキストに対してマスク予測に基づく最適化を行う ${ }^{4)}$. ここではシーンテキストのテキスト情報のみをマスクすることにより,モデルが「周辺の視覚情報からシーンテキストを読む」ことが期待できる。具体的には $t$ をマスクするトークン数として,マスクするインデックスを $\boldsymbol{m} \in \mathbb{N}^{t}$ とし,マスクされたシーンテキストのトークン列を $s_{m}$ ,マスクされていない周辺文脈としてのシーンテキストのトークン列を $s_{\backslash m}$ とし, 式 4 の negative log-likelihoodを最小化する.
$
\mathscr{L}_{M S M}(\theta)=-\mathbb{E}_{(\boldsymbol{w}, \boldsymbol{v}, \boldsymbol{s}) \sim D} \log P_{\theta}\left(\boldsymbol{s}_{m} \mid \boldsymbol{s}_{\backslash m}, \boldsymbol{v}, \boldsymbol{w}_{\mathrm{CLS}}\right)
$
## 4 実験設定
画像中の文字情報を考慮した画像検索を行うため,アノテータによって画像中のテキストを読
1)Devlin ら [33] の設定に従い,入力トークン列のうち $15 \%$ のトークンに対して,うち $80 \%$ をマスクトークン [MASK] に置換,10\%をランダムなトークンに置換,残り $10 \%$ は置換なしとして処理を行う。
2)SMRM では,0にマスクされた物体領域のベクトル値を予測する Masked Region Feature Regression,およびマスクされた物体領域の物体クラスを予測する Masked Region Classification の二つのサブタスクからなる $[3,11]$.
3)各イテレーションで無作為にタスクを一つ選択する。
4)VMLM と同様に Devlin ら [33] と同様の設定で行った.表 1 学習データセット
表 2 TextCaps の開発セットにおける検索性能
解するように生成された ${ }^{5}$ TextCaps [1] を利用する (表 1). TextCaps [1] では,キャプションと画像のぺアに加え, Rosseta-en [34]を用いたシーンテキストの情報がデータとして与えられる 6 ) 。学習時のパラメータについては Appendix. A. 1 を参照されたい.
## 5 実験
## 5.1 文字情報を考慮する検索モデルの評価
3.2 節で説明した,画像中の文字情報を視覚情報として考慮するための手法について評価した(表 2).評価指標は,キャプションをクエリとした画像検索(IR)および画像をクエリとしたキャプション検索(TR)の両方について,Recall@kを用いた。また表 2 には,TextCaps [1] で学習された STARNet [18] の検索性能を同時に示す. さらに 2.2 節で述べたように,テキストエンコーダが持つ語彙ではシーンテキストを多くカバーすることが難しい $[27,28,24]$ ため,テキストエンコーダの語彙数を増やした多言語 BERT [33] の評価も行った ${ }^{7)}$.
表 2 より,シーンテキストを新たなモダリティとして画像エンコーダに入力した場合に,英語 BERT および多言語 BERT の両設定で検索性能が大幅に向上した.これは TextCaps [1] がシーンテキストに
5) Mafla ら [18]は,TextCaps における少なくとも一つのシーンテキストに言及するというバイアスについて言及している。
6) TextCaps [1] は,シーンテキストを含む画像およびシーンテキストに言及するキャプションが,それぞれ $96.9 \%$ および $81.3 \%$ と高く(COCO [35] では,それぞれ $12.7 \%$ および $2.7 \%$ ), 評価セットには訓練および開発データ中に含まれない OCRトークンが 2901/6329 個と多く含まれる.
7)なお英語 BERT および多言語 BERT の語彙数は,それぞれ 28,996, 119, 547 である.
表 3 視覚情報に対するアブレーション
& $\checkmark$ & - & 15.7 & 35.0 & 45.8 & | 19.7 & 42.1 & 53.0 \\
言及するキャプションデータであるというバイアス [18] が要因であると考えられるが,少なくともシーンテキストを含むデータセットに対してシーンテキストと周辺視覚情報を融合するモデル化が効果的であることを示している. また 3.2 節で述べた MSM については,多言語 BERT を用いた場合に検索性能が向上した.MSMによる画像中の文字情報のモデル化について 5.2 節で詳細な評価を行う。
## 5.2 視覚情報に対するアブレーション
5.1 節では,視覚情報として画像中の文字情報を考慮することで検索性能が改善することを示した。本節では,視覚情報として画像中の文字情報(ST) および物体の視覚情報(IMG)の融合的な理解ができているか調査するため, 視覚情報のモダリティ選択についてアブレーションを行った(表3)。
表 3 より,画像エンコーダに入力するモダリティを, IMG・ST のみとした場合にモデルの検索性能が大きく低下したことから, 画像エンコーダから画像中の文字情報および周辺視覚情報が共存した視覚情報がエンコードされることが分かる.またSTのみを対象とする場合に,MSM ありの検索性能が MSM なしに比べて高い值を示したことから,MSM による事前学習がシーンテキストをモデル化するために有効な手法であることが分かる。一方 IMG のみを対象とする場合に,MSM ありの検索性能が低くなった結果は,テキストエンコーダから出力されるキャプションに対して,テキストとしての情報を持つ ST との親和性が IMG よりも高くなったのが原因と考えられる. このことから,キャプションと物体の視覚情報におけるクロスモーダルな関係を損なうことなく, シーンテキストを視覚情報として融合できるような工夫が今後必要となる.表 4 シーンテキストとキャプションのトークン重複数に対する検索結果(MSMあり)
## 5.3 トークン重複数別の検索性能の変化
シーンテキストが TR・IR に与える影響について更なる調査を行うため,キャプションとの親和性が高くなる要因の一つであるトークンの重複数に対する検索性能を,TextCaps [1] の開発セットを用いて Accuracy@k で評価した ${ }^{8}$ )(表 4).
表 4 から,TRではキャプションとのトークン重複数が多くなるほど検索性能が高い値を示したことから,シーンテキストとキャプション間で重複するトークンが,画像中の文字情報とキャプションの親和性を高める要因の一つであることが分かる。また IRにおいてトークン重複数に依存しない結果を示したのは,トークン重複数と検索対象である視覚情報のモダリティ間の差異や,シーンテキストには権限性の低い文字情報が多く含まれることが原因と考えられる。
## 6 おわりに
本研究では TextCaps [1]を対象に,画像中の文字情報をデュアルエンコーダに組み込んだ際の影響について調査を行った. 実験の結果より,デュアルエンコーダにおいてもシーンテキストが有効であることを示すと同時に,シーンテキストのモデル化について MSM が効果的であることを示した.
今後の展望としては,クロスモーダルな意味関係についてより詳細な紐付けを行う工夫を模索したい. また Jia ら [8] のような大規模な学習データを用いた影響や,TextCaps 以外の評価データについても同様効果があるかどうかデータ横断的な調査を行いたい. 本研究で得られた知見は,文字情報の理解に強い Vision and Language の事前学習モデルの構築や,事前学習モデルに基づく大規模かつ高速な画像検索の重要な基礎・応用課題に貢献できる.
8)なおシーンテキストは spaCyを用いて (“ADJ","ADV","NOUN","PROPN","VERB”) の内容語からなる品詞に限定した.
## 参考文献
[1] Sidorov Oleksii, Hu Ronghang, Rohrbach Marcus, and Singh Amanpreet. Textcaps: A dataset for image captioning with reading comprehension. In ECCV, pp. 742-758, 2020.
[2] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In NeurIPS. Curran Associates, Inc., 2017.
[3] Siqi Sun, Yen-Chun Chen, Linjie Li, Shuohang Wang, Yuwei Fang, and Jingjing Liu. LightningDOT: Pre-training visual-semantic embeddings for real-time image-text retrieval. In NAACL-HLT, pp. 982-997, 2021.
[4] Vladimir Karpukhin, Barlas Oguz, Sewon Min, Patrick Lewis, Ledell Wu, Sergey Edunov, Danqi Chen, and Wen-tau Yih. Dense passage retrieval for open-domain question answering. In EMNLP, pp. 6769-6781, 2020.
[5] Ruiyang Ren, Shangwen Lv, Yingqi Qu, Jing Liu, Wayne Xin Zhao, QiaoQiao She, Hua Wu, Haifeng Wang, and Ji-Rong Wen. PAIR: Leveraging passage-centric similarity relation for improving dense passage retrieval. In ACL, pp. 2173-2183, 2021.
[6] Yingqi Qu, Yuchen Ding, Jing Liu, Kai Liu, Ruiyang Ren, Wayne Xin Zhao, Daxiang Dong, Hua Wu, and Haifeng Wang. RocketQA: An optimized training approach to dense passage retrieval for open-domain question answering. In NAACL-HLT, pp. 5835-5847, 2021.
[7] Radford Alec, Wook Kim Jong, Hallacy Chris, Ramesh Aditya, Goh Gabriel, Agarwal Sandhini, Sastry Girish, Askell Amanda, Mishkin Pamela, Clark Jack, Krueger Gretchen, and Sutskever Ilya. Learning transferable visual models from natural language supervision. In ICML, pp. 8748-8763, 2021.
[8] Chao Jia, Yinfei Yang, Ye Xia, Yi-Ting Chen, Zarana Parekh, Hieu Pham, Quoc V. Le, Yun-Hsuan Sung, Zhen Li, and Tom Duerig. Scaling up visual and vision-language representation learning with noisy text supervision. In ICML, pp. 4904-4916, 2021.
[9] Lu Yuan, Dongdong Chen, Yi-Ling Chen, Noel Codella, Xiyang Dai, Jianfeng Gao, Houdong Hu, Xuedong Huang, Boxin Li, Chunyuan Li, Ce Liu, Mengchen Liu, Zicheng Liu, Yumao Lu, Yu Shi, Lijuan Wang, Jianfeng Wang, Bin Xiao, Zhen Xiao, Jianwei Yang, Michael Zeng, Luowei Zhou, and Pengchuan Zhang. Florence: A new foundation model for computer vision. CoRR.
[10] Jiasen Lu, Dhruv Batra, Devi Parikh, and Stefan Lee. Vilbert: Pretraining task-agnostic visiolinguistic representations for visionand-language tasks. In NeurIPS, pp. 13-23, 2019.
[11] Chen Yen-Chun, Li Linjie, Yu Licheng, El Kholy Ahmed, Ahmed Faisal, Gan Zhe, Cheng Yu, and Liu Jingjing. UNITER: universal image-text representation learning. In ECCV, pp. 104-120, 2020.
[12] Li Xiujun, Yin Xi, Li Chunyuan, Zhang Pengchuan, Hu Xiaowei, Zhang Lei, Wang Lijuan, Hu Houdong, Dong Li, Wei Furu, Choi Yejin, and Gao Jianfeng. Oscar: Object-semantics aligned pretraining for vision-language tasks. In ECCV, pp. 121-137, 2020.
[13] Pengchuan Zhang, Xiujun Li, Xiaowei Hu, Jianwei Yang, Lei Zhang, Lijuan Wang, Yejin Choi, and Jianfeng Gao. Vinvl: Revisiting visual representations in vision-language models. In CVPR, pp. 5579-5588, 2021.
[14] Minheng Ni, Haoyang Huang, Lin Su, Edward Cui, Taroon Bharti, Lijuan Wang, Dongdong Zhang, and Nan Duan. M3p: Learning universal representations via multitask multilingual multimodal pre-training. In CVPR, pp. 3977-3986, 2021.
[15] Mingyang Zhou, Luowei Zhou, Shuohang Wang, Yu Cheng, Linjie Li, Zhou Yu, and Jingjing Liu. Uc2: Universal cross-lingual crossmodal vision-and-language pre-training. In CVPR, pp. 4155-4165, 2021.
[16] Po-Yao Huang, Mandela Patrick, Junjie Hu, Graham Neubig, Florian Metze, and Alexander Hauptmann. Multilingual multimodal pre-training for zero-shot cross-lingual transfer of vision-language models. In NAACL-HLT, pp. 2443-2459, 2021.
[17] Zhengyuan Yang, Yijuan Lu, Jianfeng Wang, Xi Yin, Dinei Florencio, Lijuan Wang, Cha Zhang, Lei Zhang, and Jiebo Luo. Tap: Text-aware pre-training for text-vqa and text-caption. In CVPR, pp. 8751-8761, 2021.
[18] Andres Mafla, Rafael S. Rezende, Lluis Gomez, Diane Larlus, and Dimosthenis Karatzas. Stacmr: Scene-text aware cross-modal retrieval. In WACV, pp. 2220-2230, 2021.
[19] Jon Almazán, Albert Gordo, Alicia Fornés, and Ernest Valveny. Word spotting and recognition with embedded attributes. IEEE, pp. 2552-2566, 2014.
[20] Yiheng Xu, Minghao Li, Lei Cui, Shaohan Huang, Furu Wei, and Ming Zhou. Layoutlm: Pre-training of text and layout for document image understanding. In SIGKDD, pp. 1192-1200, 2020.
[21] Yang Xu, Yiheng Xu, Tengchao Lv, Lei Cui, Furu Wei, Guoxin Wang, Yijuan Lu, Dinei A. F. Florêncio, Cha Zhang, Wanxiang Che, Min Zhang, and Lidong Zhou. Layoutlmv2: Multimodal pre-training for visually-rich document understanding. In ACL/IJCNLP, pp. 2579-2591, 2021.
[22] Ryota Tanaka, Kyosuke Nishida, and Sen Yoshida. Visualmrc: Machine reading comprehension on document images. In AAAI, pp. 13878-13888, 2021.
[23] Ali Furkan Biten, Ron Litman, Yusheng Xie, Srikar Appalaraju, and R. Manmatha. Latr: Layout-aware transformer for scene-text VQA. CoRR, 2021.
[24] Jing Wang, Jinhui Tang, Mingkun Yang, Xiang Bai, and Jiebo Luo. Improving ocr-based image captioning by incorporating geometrical relationship. In CVPR, pp. 1306-1315, 2021.
[25] Gabriel Goh, Nick Cammarata $\dagger$, Chelsea Voss $\dagger$, Shan Carter, Michael Petrov, Ludwig Schubert, Alec Radford, Chris Olah. Multimodal neurons in artificial neural networks. Distill, 2021.
[26] David A. Noever and Samantha E. Miller Noever. Reading isn't believing: Adversarial attacks on multi-modal neurons. CoRR, 2021.
[27] Amanpreet Singh, Vivek Natarajan, Meet Shah, Yu Jiang, Xinlei Chen, Dhruv Batra, Devi Parikh, and Marcus Rohrbach. Towards VQA models that can read. In CVPR, pp. 8317-8326, 2019.
[28] Ronghang Hu, Amanpreet Singh, Trevor Darrell, and Marcus Rohrbach. Iterative answer prediction with pointer-augmented multimodal transformers for textvqa. In CVPR, 2020
[29] Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. In ICLR, 2015.
[30] Alex Graves, Santiago Fernández, Faustino J. Gomez, and Jürgen Schmidhuber. Connectionist temporal classification: labelling unsegmented sequence data with recurrent neural networks. In ICML, pp. 369-376, 2006
[31] Hao Wang, Xiang Bai, Mingkun Yang, Shenggao Zhu, Jing Wang, and Wenyu Liu. Scene text retrieval via joint text detection and similarity learning. In CVPR, pp. 4558-4567, 2021.
[32] Peter Anderson, Xiaodong He, Chris Buehler, Damien Teney, Mark Johnson, Stephen Gould, and Lei Zhang. Bottom-up and top-down attention for image captioning and visual question answering. In CVPR, pp. 6077-6086, 2018.
[33] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In NAACL-HLT, pp. 4171-4186, 2019.
[34] Fedor Borisyuk, Albert Gordo, and Viswanath Sivakumar. Rosetta: Large scale system for text detection and recognition in images. In SIGKDD, pp. 71-79, 2018.
[35] Xinlei Chen, Hao Fang, Tsung-Yi Lin, Ramakrishna Vedantam, Saurabh Gupta, Piotr Dollár, and C. Lawrence Zitnick. Microsoft COCO captions: Data collection and evaluation server. CoRR, Vol. abs/1504.00325, , 2015 .
## A 参考情報
## A. 1 学習パラメータ
4 章で説明したモデルの学習設定を図 5 に示す.
## 表 5 実験設定
| NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E6-3.pdf | # Visually-Guided Named Entity Recognition by Grounding Words with Images via Dense Retrieval
Wang Yao ${ }^{1} \quad$ Naoki Yoshinaga ${ }^{2}$
${ }^{1}$ The University of Tokyo $\quad{ }^{2}$ Institute of Industrial Science, the University of Tokyo
yao-w@tkl.iis.u-tokyo.ac.jp ynaga@iis.u-tokyo.ac.jp
}
\begin{abstract}
We can verbally communicate with others since words are grounded with real-world meanings such as entities. In this study, instead of multimodal natural language processing (NLP) that assumes supplemental images along with text, we propose to ground each word in the text with images via dense retrieval (vokenization) to solve text-only NLP tasks using multimodal NLP models. We focus on named entity recognition (NER) and modify the existing NER model to refer to the retrieved images. We evaluated our methodology on two multimodal named-entity recognition datasets and confirmed the advantage of the proposed framework.
\end{abstract
## 1 Introduction
Humans learn language from experience based on sense including feeling, smelling, and especially looking. Multimodal natural language processing (MNLP) has been thereby studied to consider multimodal input in existing NLP tasks such as machine translation [1], multimodal NER [2], and video captioning [3]. Multimodal NLP is motivated to address two challenges in NLP: lexical ambiguity, and out of vocabulary words. With images, people can easily understand the meanings of footballs (soccer or American football) which are sometimes unclear from text-only input. Images can also provide rich knowledge of rare and unseen words.
Current studies in multimodal NLP, for example, in multimodal machine translation, show that visual information is indeed useful for improving the quality of outputs (here, translation) [4]. However, recent research shows that visual content is not as useful as expected and it might play the role of regularization [5]. The current multimodal NLP suffers from two limitations: data sparsity and the utility of images on the task. The biggest multimodal dataset is
Figure 1 Applying multimodal NLP models to text-only NLP tasks via image retrieval.
still far smaller than the text-only counterpart. For example, in multimodal machine translation, multi30k [1] (29k training pairs) vs. ParaCrawl (51M training pairs for v5 fr-en [6]). The utility of the supplied images needs to be doubted as well. In real-world situations, the irrelevant text-image pairs account for a very large proportion. The supplied images do not always include all information in the text and sometimes images are just used to be ironic or make a funny.
In this paper, we purposed to exploit using dense image retrieval [7] to ground each word in the text with images to provide visual information for text-only NLP tasks (Figure 1). Considering image pool as an extra knowledge base, our framework can be viewed as a recently popular knowledge-based NLP that utilizes instance-wise knowledge via retrieval [8].
We evaluate our multimodal framework on the multimodal NER (MNER) task. We first train a dense retriever based on the text-image pair of the training split in the datasets, twitter-2015 [9], and twitter-2017 [2]. Then we use dense retrieval to retrieve images as visual input to the multimodal NER to train a multimodal NER model.
## 2 Related Work
In this section, we first review multimodal named entity recognition. We next introduce pre-trained language and vision models followed by cross-modal dense retrieval, both of which are used in our method.
Multimodal Named Entity Recognition (MNER): MNER is a new challenge generated from NER. Formally, given a sentence $S$ and its associated image $V$ as input, the goal is to classify entities in $S$ to the predefined types.
Moon et al. [10] first introduced the MNER task and proposed a modality attention module at the input of a NER network. To solve the problem of irrelevance between image and text, Sun et al. [11] purposed a text-image relation propagation-based BERT model which reaches the stateof-the-art performance.
Pretrained Language and Vision Model: Incorporating different modalities to improve representation learning is very popular after pretraining and self-supervision become a fashion. In computer vision, Clip [12] proposed the idea of language supervision; training on image-text pair via contrastive learning can help a lot on zero-shot image classification. In NLP, although research by Tan et al. [7] shows that vision-and-language pre-trained models now can hardly get improvement in text-only tasks, some research like imagination [13] in machine translation also shows the potential of using visual information to benefit text-only tasks.
Cross-modal Dense Retrieval: Dense retrieval is a key technique in the text-only Question Answering (QA) task [14]. The idea of dense retrieval is to generate a new representation for both query and key in a shared subspace. Cross-modal dense retrieval is very similar to text-only dense retrieval. The difference is that the gap between different modalities is much bigger. To solve this problem, Tan et al. [7] proposed vokenization to ground words instead of sentences with images via dense retrieval.
## 3 Preliminaries
This section introduces how vokenization ground words with real-word images in our retrieval-based multimodal NLP.
## 3.1 Vokenization
The main idea of vokenization [7] is to learn a crossmatching model that can map text and image to the shared subspace from a text-image dataset and then build a "vokenizer" that can ground a given word with images using maximum inner product search (MIPS). The crossmatching model consists of two independent encoders for image encoder $_{\text {img }}$ and text encoder ${ }_{\text {lang }}$. The model takes an image $v$ as input and a sentence $s$ composed of a sequence of tokens $w_{1}, w_{2}, \ldots, w_{3}$. The output $r_{\theta}\left(w_{i}, v ; s\right)$ is the relevance score between the token $w_{i} \in S$ and image $v$. The relevance socre is the inner product of the language features $f_{\theta}\left(w_{i} ; s\right)$ and the visual feature $g_{\theta}(v)$. The formulation is:
$
r_{\theta}\left(w_{i}, v ; s\right)=f_{\theta}\left(w_{i} ; s\right)^{\top} g_{\theta}(v)
$
Since two encoders do not project image and text into the same dense space, the cross-matching model applies two multi-layer perceptrons (MLP) $w_{m l p}$ and $v_{m l p}$. Then the language features $f_{\theta}\left(w_{i} ; s\right)$ and visual features $g_{\theta}(v)$ can be computed by
$
\begin{aligned}
f_{\theta}\left(w_{i} ; s\right) & \left.=w_{m l p}\left(\operatorname{encoder}_{l a n g}\left(w_{i}\right)\right)\right) \\
g_{\theta}(v) & =v_{m l p}\left(\operatorname{encoder}_{i m g}(v)\right)
\end{aligned}
$
The model is then optimized by maximizing the relevance score of these aligned token-image pairs in image-text datasets. Given this cross-matching model, the retrieval problem could be formulated as a maximum inner product search.
## 4 Methodology
We proposed to first annotate text-only NLP tasks with images via vokenization, and then use the retrieved images to turn the original input into multimodal input. Then we add two modifications to an existing text-only model to effectively utilize the retrieved images. We concretely explain the modifications using a BERT-CRF NER model [15] as an example, since in this study we evaluate our framework on NER.
## 4.1 Retrieving images for words in inputs
First, we use the text-image pairs in the training split to train the vokenizer we have explained in Section 3.1. We retrieve images for words in the task inputs using the trained vokenizer and some pool of images (in this case, all images
Figure 2 Multimodal BERT-CRF NER model with multiple image inputs.
in the training dataset). We then obtain multimodal input with a sentence $S$ composed by tokens $\left.\langle w_{1}, w_{2}, \ldots, w_{i}\right.\rangle$ and a series of retrieved images $x<v_{1}, v_{2}, \ldots, v_{i}>$ that correpond to every word $w_{i}$ one by one.
## 4.2 Modification to Multimodal Model
Here, we introduce two types of modifications on BERTCRF [15] to take a series of retrieved images as input: 1) Fuse Model 2) Visual Attention Model (Figure 2). In the following, we explain these two modifications.
## 4.2.1 Fuse Model
BERT-CRF model is a variant of BERT by adding a CRF layer after representation learning.
$
\begin{array}{r}
\qquad f_{\theta}\left(w_{i} ; s\right)=\operatorname{BERT}(s) \\
\text { Output }=\operatorname{CRF}\left(f_{\theta}\left(w_{i} ; s\right)\right)
\end{array}
$
We first extract text and image representation with pretrained models from the input series of images. In this case, we take ResNet [16] as a pre-trained vision model.
$
g_{\theta}\left(v_{u} ; x\right)=\operatorname{ResNet}(x)
$
To alleviate the visual bias for different words, we ap-
Table 1 The detailed information of two MNER datasets.
plied a gate $\lambda \in[0,1]$ to weigh the expected importance of retrieved image representation for each word.
We then learn word representation by
$
\left.f_{\theta}\left(w_{i} ; s\right)=(1-\lambda) \cdot f_{\theta}\left(w_{i} ; s\right)+\lambda \cdot g_{\theta}\left(v_{u} ; x\right)\right)
$
Finally, we fed the fused word representation to the CRF layer.
## 4.2.2 Visual Attention Model
We further integrate a visual attention module based on multi-head attention [17] to the fuse model.
$
\operatorname{Attention}(Q, K, V)=\operatorname{Softmax}\left(\frac{Q K^{\top}}{\sqrt{d_{k}}}\right)
$
Query vector is generated from the word representations and both key and value are generated from visual representations.
## 5 Experiment and Analysis
We evaluate our methodology on the NER task based on the BERT-CRF model.
We choose two multimodal NER datasets @ $[2,9]$ to test our methodology. Following the common settings in [18], we labeled them as twitter-2015 and twitter-2017. Table 4 shows the detailed information.
The multimodal NER dataset provides image-text pair that can test the difference between our joint model using a given image and using vokenized images. We take the whole image part as candidates for the vokenizer.
For implementation detail, we trained our crossmatching model for vokenizer using ResNet152 and BERT as the backbone of the image encoder and the text encoder. We then add two linear multi-layer perceptrons $m l p_{0}$ and $m l p_{1}$ which have two fully-connected layers with 256-dimensional intermediate outputs (followed by ReLU activation) and 64-dimensional final outputs, which mean we project two types of vectors to a 64-dim dense space.
To do fast retrieval, we built the vokenizer with FAISS [19]. We trained our cross-matching model on the training split of the dataset. In other words, we use only the image-text pairs in the training split. In validation and test,
Table 2 Results of NER and our retrieval-based multimodal NER.
Table 3 Ablation test.
we only use retrieved images as visual information rather than given images in the original dataset.
## 5.1 Results
In Table 2, we compared different methods on both twitter-2015 and twitter-2017 datasets with $F_{1}$ scores of different types of entities, total precision, recall, and weighted average $F_{1}$ score. Based on the result, we can find that in most cases, our methods can slightly improve the text-only model. In our cases, adding an attention mechanism cannot improve the performance of the multimodal NER model. Simply using the fuse model (Section 4.2.1) is more effective.
## 5.2 Analysis
To investigate the effectiveness of using the images retrieved by the vokenizer, we also consider using the given images to train our model. Table 3 shows the results. In both datasets, the model using vokenized images can outperform the model using the original image which means that vokenization may help solve the irrelevance between image and text.
We also compared our model with the given images with the state-of-the-art multimodal NER model. Table 4 shows that our proposed method still has an over 3\% gap between the state-of-the-art MNER model, which means our method may not be good enough to incorporate visual information with textual information.
Table 4 Comparison to the SOTA multimodal NER model.
## 6 Conclusions
In this paper, we first point out two challenges of multimodal NLP: data sparsity and the utility of images on the task. To overcome these challenges, We introduce using a dense retriever to ground words in inputs of text-only NLP tasks with images. Moreover, to use more than one image (usually, normal multimodal models assume a single image), we also proposed two easy multimodal models which can incorporate a series of images to guide the final prediction. The experimental results demonstrate that our method could consistently provide useful information in the two different multimodal NER datasets.
There are several future directions for this work. First, considering the performance comparison with the stateof-the-art MNER model, our model is still not that good to capture and incorporate visual information. Second, in this paper, we only consider using about $6 \mathrm{k}$ images in the MNER dataset as candidates for very limited retrieval. For a better study, we may collect a larger image-text dataset (e.g., Twitter dataset) to better understand the effectiveness of vokenization. Last but not the least, since the result only shows the difference in metrics, we have to dig more into the cases in the future study.
## Acknowledgement
This work was supported by JSPS KAKENHI Grant Number JP21H03494 and JST CREST Grant Number JPMJCR19A4.
## References
[1] Desmond Elliott, Stella Frank, Khalil Sima'an, and Lucia Specia. Multi30k: Multilingual english-german image descriptions. In Proceedings of the 5th Workshop on Vision and Language, pp. 70-74. Association for Computational Linguistics, 2016.
[2] Di Lu, Leonardo Neves, Vitor Carvalho, Ning Zhang, and Heng Ji. Visual attention model for name tagging in multimodal social media. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1990-1999, Melbourne, Australia, July 2018. Association for Computational Linguistics.
[3] Ranjay Krishna, Kenji Hata, Frederic Ren, Li Fei-Fei, and Juan Carlos Niebles. Dense-captioning events in videos. In Proceedings of the IEEE international conference on computer vision, pp. 706-715, 2017.
[4] Quanyu Long, Mingxuan Wang, and Lei Li. Generative imagination elevates machine translation. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 5738-5748, Online, June 2021. Association for Computational Linguistics.
[5] Zhiyong Wu, Lingpeng Kong, Wei Bi, Xiang Li, and Ben Kao. Good for misconceived reasons: An empirical revisiting on the need for visual context in multimodal machine translation. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 6153-6166, Online, August 2021. Association for Computational Linguistics.
[6] Marta Bañón, Pinzhen Chen, Barry Haddow, Kenneth Heafield, Hieu Hoang, Miquel Esplà-Gomis, Mikel L. Forcada, Amir Kamran, Faheem Kirefu, Philipp Koehn, Sergio Ortiz Rojas, Leopoldo Pla Sempere, Gema RamírezSánchez, Elsa Sarrías, Marek Strelec, Brian Thompson, William Waites, Dion Wiggins, and Jaume Zaragoza. ParaCrawl: Web-scale acquisition of parallel corpora. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4555-4567, Online, July 2020. Association for Computational Linguistics.
[7] Hao Tan and Mohit Bansal. Vokenization: Improving language understanding with contextualized, visual-grounded supervision. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 2066-2080, Online, November 2020. Association for Computational Linguistics.
[8] Vladimir Karpukhin, Barlas Oguz, Sewon Min, Patrick Lewis, Ledell Wu, Sergey Edunov, Danqi Chen, and Wentau Yih. Dense passage retrieval for open-domain question answering. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6769-6781, Online, November 2020. Association for Computational Linguistics.
[9] Qi Zhang, Jinlan Fu, Xiaoyu Liu, and Xuanjing Huang. Adaptive co-attention network for named entity recogni- tion in tweets. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 32, No. 1, Apr. 2018
[10] Seungwhan Moon, Leonardo Neves, and Vitor Carvalho. Multimodal named entity recognition for short social media posts. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 852-860, New Orleans, Louisiana, June 2018. Association for Computational Linguistics.
[11] Lin Sun, Jiquan Wang, Kai Zhang, Yindu Su, and Fangsheng Weng. RpBERT: A text-image relation propagationbased BERT model for multimodal NER, 2021.
[12] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, Gretchen Krueger, and Ilya Sutskever. Learning transferable visual models from natural language supervision. In ICML, 2021.
[13] Desmond Elliott and Ákos Kádár. Imagination improves multimodal translation. In Proceedings of the Eighth International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 130-141, Taipei, Taiwan, November 2017. Asian Federation of Natural Language Processing.
[14] Kenton Lee, Ming-Wei Chang, and Kristina Toutanova. Latent retrieval for weakly supervised open domain question answering. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 6086-6096, Florence, Italy, July 2019. Association for Computational Linguistics.
[15] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[16] K. He, X. Zhang, S. Ren, and J. Sun. Deep residual learning for image recognition. In 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 770-778, Los Alamitos, CA, USA, jun 2016. IEEE Computer Society.
[17] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, pp. 5998-6008, 2017.
[18] Jianfei Yu, Jing Jiang, Li Yang, and Rui Xia. Improving multimodal named entity recognition via entity span detection with unified multimodal transformer. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 3342-3352, Online, July 2020. Association for Computational Linguistics.
[19] Jeff Johnson, Matthijs Douze, and Hervé Jégou. Billionscale similarity search with gpus. arXiv preprint arXiv:1702.08734, 2017. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E6-4.pdf | # 動画タイトルを用いたサムネイル画像の自動選択手法の提案
嘉田 紗世 ${ }^{1}$ 山野陽祐 ${ }^{1}$ 新美 茜 ${ }^{1}$ 田森秀明 1 小海則人 ${ }^{1}$ 岡崎 直観 ${ }^{2}$ 乾 健太郎 3,4
1 株式会社朝日新聞社 2 東京工業大学 3 東北大学 4 理化学研究所
\{kada-s, yamano-y, niimi-a, tamori-h, kokai-n\}@asahi.com,
okazaki@c.titech.ac.jp, inui@tohoku.ac.jp
## 概要
本研究では,動画のフレームから動画タイトルに関連した最適なサムネイル画像を自動で選択する手法を提案する。さらに,隣接するフレーム間の相関が高いという動画の特徵(㔯長性)に対応し,性能を向上させるための手法についても言及する。本手法は画像とテキストのマルチモーダルな事前学習済みモデルを利用し,学習データに動画自体を必要としない. 先行研究と性能を比較し, 有効性を確認した.また,朝日新聞社の動画を使った実験で,構築したパイプラインの有効性を示した.
## 1 はじめに
サムネイルは画像や動画の情報量を削減したもので,ユーザの第一印象を左右する。 ゆえに,その品質は重要である。一方,サムネイルの素材となるフレームを選ぶ作業(以下,サムネイル選択と呼ぶ) は労力を要するため,動画を大量に制作する現場では,効率化の観点からサムネイルの自動生成に対する期待が高い。
サムネイル選択の自動化では,動画とサムネイルのパラレルデータを用いた教師あり学習でモデルを構築するアプローチが考えられる. しかし現状,動画制作者によって手動で作成された動画・サムネイルデータは少なく, 特に日本語のデータセットは筆者らの知る限り, 存在しない. そこで本研究では, それらの代替として,画像とテキストのパラレルデータを用いたモデルを利用する。このようなデー タセットは日本語でも存在し ${ }^{1)}$, 特に朝日新聞社では,掲載された過去の記事から大規模かつ効率的にデータセットを構築することが可能である.
タイトルは動画制作者が動画を端的に説明する
ために付与したものであるため,動画とそのタイトルの間には,動画(画像の集合)からテキストへのマルチモーダルな「要約」の関係が成り立つと考えられる。そこで,タイトルとの関連性が高いフレー ムは動画の主題を表すと考え,画像とテキストの類似度を測るモデルを用いてサムネイルを選択する。 さらに,動画の冗長性の排除を狙いとしたピーク検出2) と,複数のサムネイル候補の相対的な順位を考慮するランキング学習についても検討した. なお,本研究は,サムネイル画像として適切なフレームを動画から選択する作業の支援を目的としている.
事前に画像とテキストのパラレルデータで学習したモデルで各フレームと動画タイトルの類似度を計算し, 最も類似度が高いフレームをサムネイルとする手法の有効性を, 先行研究との性能を比較することにより確認した。また,朝日新聞社の報道動画を使った実験では,ピーク検出により動画の冗長性を排除し,効果的にサムネイル候補(キーフレーム) を抽出できることや,ランキングモデルを組み合わせることで性能が向上したことを確認した.
## 2 関連研究
サムネイル選択手法として,美的品質と代表性などの視覚情報に基づく手法が提案されている. 代表的な手法として, Song らの研究 [2] がある. Song らは,暗い・ボケといった低品質のフレームの破棄,視覚的に類似したフレームのクラスタに基づく重複フレームの破棄, 抽出したキーフレームの美的品質及び代表性(キーフレームを含むクラスタサイズから算出)による評価,という手順でサムネイル選択を行った. 本研究では報道動画での実応用を見据え,視覚情報に加えて動画の主題との関連性も重視する. そこで, Song らとは異なり, 動画のタイトル情報を活用する手法を検討する。
図 1 提案手法の概要. CLIP によりフレームとタイトルの類似度を計算する. ピーク検出によって冗長性を排除し, キーフレームを抽出する.CLIP で計算した類似度,ランキングモデルの結果を組み合わせ,キーフレームを順位付ける。
タイトル情報を活用する先行研究に $\mathrm{Yu}$ らの研究 [3]がある. Yu らは,視覚情報に加えて動画のタイトルや説明文,および動画中の音声を用いた埋め込み表現を学習したモデルを構築し,このモデルにより生成された動画を表すべクトルと最も類似度が高いフレームをサムネイルとして選択した. 本研究では,動画を学習データに用いる手法とは異なり,画像とテキストのマルチモーダル事前学習済みモデルを活用したサムネイル選択手法を提案する。
## 3 提案手法
図 1 亿本手法の概要を示す. 前述のとおり,動画の主題をよく表すフレームを選択するために,画像とテキストの類似度を測るモデルを用いる. 本研究では Contrastive Language-Image Pre-Training (CLIP) [4] を採用する (3.1 節)。しかし,動画中には同じようなフレームが多数存在することから, CLIP のみでサムネイルとなるフレームを選び出すのは困難である.そこで,テキストとの類似度に加えてピーク検出を導入する(3.2 節)。さらに,編集者の画像評価を再現するランキングモデルを構築し,より最適なサムネイルを候補から選択する(3.3 節)。
なお,本研究では動画から一つ以上のサムネイルを抽出する。一つ以上とするのは,本手法で選択した複数のフレームからサムネイルを人手で選択するという,実際の業務フローを想定するためである.
## 3.1 CLIP
CLIP は,2021 年に OpenAIが提案したニューラルネットワークである. 大量の画像・テキストペアの対照学習を通してマルチモーダルな埋め込み表現を学習し, 多くのタスクにおいてゼロショット学習で優れた精度を達成している. CLIPを使用することで画像とテキストをそれぞれ特徴量としてべクトル化し,その類似度を計算できる。本研究で CLIP を用いる理由は,画像とテキストの対応関係を直接学習することで,その相互理解に向けたより汎用的なモデルが構築できると期待できるからである.タイトルに基づくサムネイル選択を実現するには,物体認識モデルの利用も考えられる.しかし, 本研究の主な対象である報道動画においては,主題を表しているが即物的でないタイトル (例: 「晚秋の尾瀬,金色に輝く今だけ見られる景色」)も含まれているため,従来の物体認識モデルだけでは不十分である.そこで,テキストの文脈を考慮できるモデル構築が可能な CLIPを採用し, CLIP で計算される各フレームとタイトルの類似度 (以下,CLIP スコアと呼ぶ)をサムネイル選択に利用する.与えられた動画の各フレームの CLIP スコアを算出し, CLIP スコアがより高いものを動画の主題をよく表すフレームとする。
## 3.2 ピーク検出によるキーフレーム抽出
罙長性を排除しつつ CLIP スコアの高いフレームを取得するため,以下の手順でピーク検出を行い, キーフレームを抽出する。
1. CLIP スコアを時系列データとする
2. CLIP スコアの移動平均を算出
3. CLIP スコアの移動平均からピークを検出
4. ピークの近傍からキーフレームを抽出
概要を図 2 に示す. 手順 1 でプロットした CLIP スコアに対して, 手順 2 で移動平均を算出して外れ値を除去する。手順 3 では,移動平均が極大となるフレームを見つける。手順 4 では,手順 3 で抽出したフレームの前後 30 枚から, 同一シーン内で CLIP スコアが最大のフレームを抽出する.
この段階では,キーフレーム間の順位は CLIP スコアから決定する.また,再生時間は動画毎に異なるため,抽出されるキーフレーム数は不定である.
図 2 キーフレーム抽出の概要. 凡例と本文中の手順 1~ 4 は対応している.
## 3.3 ランキングモデル
サムネイルは動画の顔であるため,動画の主題を表すだけでなく,ユーザの興味を引くフレームを動画制作者は選択したい。そこで, 3.2 節で抽出された複数のキーフレームに対し,より良い画像を順位付けするランキングモデルを構築する。このランキングモデルの学習データには,朝日新聞デジタルの記事に含まれる画像と,その表示順を利用する.記事に複数の画像が付与されているとき,それらの画像は編集者の考える優先度順に並べられる. この順序を学習させ,編集者の画像評価を再現するモデルを構築する。
キーフレームの最終スコア $x$ は CLIP スコアでの順位 $m$ ,ランキングモデルでの順位 $n$ を考慮し,以下の式から算出する.
$
x=2^{-m}+2^{-n}
$
ここでは,どちらかの順位が高ければ $x$ が高くなるスコア付けをする. なお, $x$ が等しい場合,ランキングモデルの順位を優先してフレームを採用する。
## 4 実験
本研究では,2つの実験を通じて提案手法を評価する. 4.1 節では, 先行研究との性能比較により, 各フレームと動画タイトルとの関連性によるサムネイル選択の有効性を検証する4.2 節では,本研究の主な応用先である朝日新聞社の報道動画を用いて,提案手法の有効性を検証する. 実験は以下の設定で行う.
- CLIP: 全フレームから CLIP スコアの上位 $k$ 個を選択
-CLIP+peak: 3.2 節の手法でキーフレームを抽出・順位付けし,上位 $k$ 個を選択
- CLIP+peak+rank: 3.2 節の手法で抽出したキー フレームを式(1)から算出した最終スコアで順位付けし,上位 $k$ 個を選択
なお,4.1 節では単純に CLIP スコアによるサムネイル選択の性能を評価するため,CLIP の結果のみを示す.
## 4.1 先行研究との性能比較
この実験では,正解フレームとの一致に基づいた評価を行うため,正解フレームを収録した Yahoo データセット3)を用い,Song ら,Yu らの手法と性能を比較する。評価指標として,Yuらの実験で採用されたものを用いる。
データセット Yahoo データセットには,動画制作者が生成したサムネイルに対応するフレーム番号が含まれており,そのフレームを正解とする。Yu らの実験で使用された 71 件の評価データを特定できなかったため,Yahoo データセットの 429 件の動画(取得できた動画のうち,タイトルが英語のもの)からランダムに 71 件の動画を評価データとして抽出し,性能評価に用いる。評価データセットは 5 つ作成し,5 回の実験の平均値を結果として示す.
評価指標 $\mathrm{Yu}$ らの指標に従い,最上位 $(k=1)$ のサムネイル候補 $c$ が正解フレーム $f^{*}$ と一致する場合に予測が正しいと見なし,適合率によって性能評価を行う. 2 枚の一致は,VGG16 モデル [5] で抽出した特徴量の近さから判定する. VGG16 モデルの実装は Keras のものを用いた ${ }^{4)}$ .動画内には類似したフレームが存在することを考慮し,閾值 $\theta$ 以下で一致とみなす。与えられた $\theta$ に対して,サムネイル候補 $c$ と正解フレーム $f^{*}$ の間に,
$
\left.\|v\left(f^{*}\right)-v(c)\right.\|_{2}^{2} \leq \theta
$
という関係が成り立つとき,サムネイル候補 $c$ の抽出は正しい(真陽性)と判定する.ここで, $v($.$) は$ VGG16 で計算されたフレームの特徴ベクトルを表す. $\theta$ の值を変えながら適合率を計算する。
CLIP モデル Yahoo データセットのタイトルは英語のため,OpenAI 提供の CLIP を使用する5).
実験結果表 1 に Song ら,Yu らのモデルと, CLIPでのサムネイル選択の実験結果を示す. CLIP による選択は, $\theta=\{750,1000\}$ では先行研究よりも性能が劣るが,より厳密な評価である $\theta=500$ では
3) https://github.com/yalesong/thumbnail
4) https://keras.io/ja/applications/
5) https://github.com/openai/CLIP
表 1 Yahoo データセットにおける性能. Song ら,Yu らの手法を CLIP スコアのみを用いた手法と比較した.
先行研究よりも性能が高い.この結果から,タイトル及び CLIP スコアがサムネイル選択に有効であることが分かった.
## 4.2 報道動画での実験
データセット朝日新聞社 YouTube アカウントで 2021 年 9〜 11 月に公開された動画を使用する. 長時間のノーカット会見や,制作フローが違うと考えられるマンガ動画は対象から除外した。 さらに,サムネイルに対応するフレームが動画内に存在しない動画を破棄し,204 本の動画を評価対象とした(平均再生時間 81.4 秒). サムネイルに対応するフレームの有無と正解フレーム番号は目視で確認した.
評価指標 3 節で述べた実際の業務フローを想定し, 本手法で予測した上位 $k$ 個 $(k \in\{1,3,5\})$ の候補のうち,少なくとも一つが正解フレームと一致する場合に予測が正しいとみなす. 4.1 節同様,真陽性は式(2)によって判定する. 簡単のため $\theta=500$ の結果のみを示す.
CLIP モデル日本語の動画に適用するため,日本語の CLIP モデルを構築した. データセットとして,朝日新聞デジタルに掲載された記事に含まれる画像とテキストから作成したパラレルデータ,計 548,117件を用いた. テキストには, 画像キャプションと見出しを使用しており,1 枚の画像に対して 2 つのパラレルデータを作成した. 実装は Moein のものを用いだ). Text Encoder には Sentence-BERT [6], Image Encoderには Vision Transformer [7] を使用した.
キーフレーム抽出 3.2 節の手順による. 手順 2 における移動平均の窓幅は,全フレーム数 $N$ を用いて, $\left.\lfloor\frac{N}{10}+0.5\right.\rfloor$ とした. 手順 3 では, 移動平均線の極大値を検出する。ここで,極大値同士の距離 distance および極大值前後の高低差 prominence はそれぞれ, distance $\geq 60$, prominence $\geq 0.008$ とし, これらのパラメータは実験的に決定した. 手順 4 では,検出したピークと異なるシーンのフレームの抽
6) https://github.com/moein-shariatnia/OpenAI-CLIP表 2 構築したパイプラインの性能検証結果.朝日新聞社の動画を評価に用いた。
出を防ぐため,ニューラルネットワークを用いたシーン境界検出 [8]を行い,その結果を利用した。
ランキングモデルモデルは CatBoost [9],損失関数は StochasticRank [10] を使用した. 学習データには朝日新聞デジタルの記事画像と表示順序情報 70,737 件 ( 1 記事の画像が $5 \sim 10$ 枚の記事 11,379 件分)を使用した. 画像の特徴量は Vision Transformer で抽出した。評価尺度として $\mathrm{nDCG}^{0} 5$ を用い,テストデータで $\mathrm{nDCG} @ 5=0.855$ と確認した.
実験結果 3 つの実験設定での性能評価の結果を表 2 に示す. CLIP のみでは,動画の冗長性から,似通ったフレームが選択されてしまい, $k$ を 3 や 5 に増やしても性能があまり上がらない. CLIP+peak の結果から,ピーク検出によるキーフレーム抽出は多様で適切なサムネイルを選択するのに効果的であることが示された. なお,ピーク検出で得られたキーフレーム数の平均値は 8.6 であった. さらに, CLIP+peak+rank において, $k=\{3,5\}$ では約 $2 \%$ の性能向上が確認できた. 以上の結果から,提案手法が実際の業務フローに役立つ可能性が示唆される.
## 5 おわりに
本研究では,画像とテキストの類似度,ピーク検出,ランキング学習を使って最適なサムネイル画像を選択する手法を提案した. 実験から,画像とテキストのマルチモーダル事前学習済みモデルを用いたサムネイル選択の有効性を示した。 また,ピーク検出,ランキングモデルを組み合わせることで,性能が向上することが示唆された.
本研究の今後の課題として,動画制作現場における実証実験が挙げられる. 特に, 本手法で不正解となったフレームに対して,動画制作者の主観的な評価を行い,実運用における性能検証を進めたい。また,現状では計算に GPU を用いているが,実運用では限られた計算資源で,短時間で大量の処理が必要となる。処理パイプラインの軽量化をしつつ,サー ビスとしての完成度の向上に取り組みたい.
## 参考文献
[1] 吉川友也, 重藤優太郎, 竹内彰一. Stair captions:大規模日本語画像キャプションデータセット.言語処理学会第 23 回年次大会, pp. 537-540, 2017.
[2] Yale Song, Miriam Redi, Jordi Vallmitjana, and Alejandro Jaimes. To click or not to click: Automatic selection of beautiful thumbnails from videos. In Proceedings of the 25th ACM International on Conference on Information and Knowledge Management, pp. 659-668, 2016.
[3] Zhifeng Yu and Nanchun Shi. A multi-modal deep learning model for video thumbnail selection. arXiv preprint arXiv:2101.00073, 2020.
[4] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, et al. Learning transferable visual models from natural language supervision. arXiv preprint arXiv:2103.00020, 2021.
[5] Karen Simonyan and Andrew Zisserman. Very deep convolutional networks for large-scale image recognition. arXiv preprint arXiv:1409.1556, 2014.
[6] Nils Reimers and Iryna Gurevych. Sentence-bert: Sentence embeddings using siamese bert-networks. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing. Association for Computational Linguistics, 112019.
[7] Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, et al. An image is worth $16 \times 16$ words: Transformers for image recognition at scale. In International Conference on Learning Representations, 2020.
[8] Tomáš Souček and Jakub Lokoč. Transnet v2: An effective deep network architecture for fast shot transition detection. arXiv preprint arXiv:2008.04838, 2020.
[9] Anna Veronika Dorogush, Vasily Ershov, and Andrey Gulin. Catboost: gradient boosting with categorical features support. arXiv preprint arXiv:1810.11363, 2018.
[10] Aleksei Ustimenko and Liudmila Prokhorenkova.
Stochasticrank: Global optimization of scale-free discrete functions. In International Conference on Machine Learning, pp. 9669-9679. PMLR, 2020. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E6-5.pdf | # 実況発話ラベル予測モデルにおける 状況認識素性の活用
上田佳祐 ${ }^{1,2}$ 石垣達也 1 小林一郎 1,3 宮尾祐介 ${ }^{1,2}$ 高村大也 1
1 産業技術総合研究所 2 東京大学 3 お茶の水女子大学
\{ueda.keisuke, ishigaki.tatsuya, takamura.hiroya\}@aist.go.jp
koba@is.ocha.ac.jp yusuke@is.s.u-tokyo.ac.jp
## 概要
本稿では実況発話ラベル予測問題として,とくにレーシングゲーム実況に対する発話ラベル予測問題に着目し,レース状況やレーシングカーの状況を認識する新たな素性を用いた予測モデルを提案する.既存研究で取り組まれている 1) 実況テキストが与えられテキストに対する発話ラベルを予測する設定,2) 実況テキストは与えられず対象時刻の発話ラベルを予測する設定の 2 つ問題を扱う.レーシングゲーム実況において実況者は,“プレイヤー第 1 コーナー抜けて一気に加速” といった実況発話を行う。この発話では,プレイヤーの運転する車という言及対象に対し,一気に加速するという動作に関する言及がペアとして述べられている。 ラベル予測問題を正しく解くためには,カーブを抜けるというレースの状況や,レーシングカーの速度といった車両に関する状況を正しく認識することが重要である. そこで,本研究では,レース状況や,速度などの車両の状況に関する状況認識素性を発話ラベル予測に活用する.実験より状況認識素性が特に後者のタスクに有効であることが分かった。
## 1 はじめに
多くのスポーツやゲーム映像には表 1 に示すような実況が付与される. 実況者はレースの進捗やイベントを正しく認識し,適切な言及対象や発話内容をリアルタイムに決定した上で,“ターン 1 ,しっかりブレーキ”といった発話を行う.視聴者は映像を視聴しながら実況を聞くことで,よりイベントを理解し,映像を楽しむことが出来る。
従来,サッカー,野球,レーシングゲーム等を主な対象とし,実況テキストを自動生成する研究が行われている。一方,上田ら [1] は特にレーシング
& \\
表 1 レーシング実況発話とその発話ラベルの例. 上から 3 発話は空撮映像に対し実況者が付与した実況,末尾 3 発話はドライバー視点の映像に対しプレイヤー自身が付与した実況である。
ゲームの実況テキストの言及対象や内容を表現した発話ラベルを予測する問題に着目し,1) 実況テキストが与えられ,発話ラベルを予測する問題 (対象発話ラベル予測),2)過去の発話と次の発話タイミングが与えられ,発話ラベルを予測する問題 (未来発話ラベル予測) を提案している。前者は発話テキストに対する言語理解問題であり,実況テキストの要約といった下位タスクへの応用を想定している.後者は未来の発話内容を予測するプランニング問題と捉えられ,実況自動生成への応用を想定している.
本研究では従来モデルに対し,レース状況を認識するための素性を追加し,その効果を検証する。既存発話ラベル予測モデルでは,2つの問題に対する共通の入力素性として,直前の発話テキストおよび発話ラベル,実況者が視聴した映像カメラの視点ラベル,レース開始からの時間経過時間ラベルを入力として用いる。一方,実際の実況においては,“ ターン 1、しっかりブレーキ”といった発話のようにレーシングカーの動きに関する言及が多く見られ
る. 特に未来発話ラベル予測においては,レーシングカーの速度やブレーキの踏み込みといったレース状況を捉える素性はラベル予測の重要な手がかりとなる. そこで本研究では従来用いられてきた素性に加え,レース状況やレーシングカーに関する状況を捉える素性を用いる。具体的には,実況対象のレー シングカーの速度,ハンドル角度,ラップタイムといった車両の状況に関する素性および周回数,0から 1 の区間で表現されたレースの進捗状況などレー スの進行状況を認識する素性を提案する.実験より提案素性を用いた予測モデルは特に対象発話ラベル予測において,性能を向上させることが分かった.
## 2 関連研究
実況テキストを対象とした研究は,主に言語生成の分野において, サッカー $[2,3,4]$, 野球 [5], ゲーム映像 [6] などを対象に行われている。一方,実況発話のラベル予測の研究は, レーシングゲーム映像に対する実況データ [6] を対象としたもののみである.
本稿における対象発話ラベル予測は,発話テキストに対するラベル予測であり,従来,電話応答発話 [7] やメール [8]を対象とした言語理解タスクとして取り組まれている. 従来,「質問」「意見」といった言語行為論 $[9,10]$ に基づくラベル設計を用いるのが一般的であるが,レーシングゲームに対してはそのまま適用できない、レーシングゲーム実況に適用可能な発話ラベルとしては,Ishigaki ら [6] が実況テキストの特徴分析に用いたラベルアノテーションを用いる。一方,未来発話ラベル予測タスクは,「次に何について言及するか」を決定する従来の言語生成研究におけるプランニング [11,12] の問題と捉えることができ,将来的には言語生成問題への応用を想定している.
発話ラベル予測問題は, 分類問題もしくは系列夕グ付け問題として定式化され,近年はニューラルネットワークによる手法 [1] が用いられる。 入力の観点からは多くはテキストのみを扱う手法 [13] であるが,映像や発話音声を用いる手法 [14] が存在する. 本研究では, 上田らの提案したマルチモーダルなエンコーダを拡張し,レーシングカーやレースに関する状況を認識するための素性を導入する。
## 3 発話ラベル予測
本節では対象発話ラベル予測および未来発話ラべル予測の問題の入力と出力について定義する. その
表 2 レース状況素性の一覧. 最後の 2 つのパラメータについては Ishigaki ら [6] によって計算されたものである.
後,提案モデルについて述べる.
## 3.1 入力と出力
対象発話ラベル予測問題はラベル付与対象とするテキストを主な入力として扱う.上田ら [1] はさらに, 補助的な入力として, 直前の発話テキストおよび発話ラベル,カメラの視点情報として「ヘリコプター視点」もしくは「ドライバー視点」のいずれかを取る視点ラベル,さらにレースのスタートから終了までの時間を 4 分割し,それぞれ序盤,中盤の前半および後半, 終盤としたレース進捗に関する離散ラベルも用いた.レース序盤ではサーキットの特徴について述べられやすく,終盤ではラップタイムについて述べられやすい. よって,このような離散ラベルはラベル予測問題に対して効果的であると考える. 本研究では従来の提案素性に加え,レーシングゲーム Assetto Corsa の APIを用いて表 2 に示す情報を用いる。これらのデータは二值もしくは連続值で表現される。例えば,現在のラップの進捗は 0.0 から 1.0 までの間の連続値を取り,ピットに入っているか否かの情報は二值を取る。これらをレースゲー 厶映像の録画開始時刻から 1 秒ごとに取得し,ラべル分類時刻の過去 10 秒分の数値列をレース状況を捉える素性として用いる. 未来発話ラベル予測問題の入力は上述した素性から対象発話テキストを除いたものとなる.
いずれのモデルも既存研究 [6] で定義されたラベルを出力する. ラベル定義を表 3 に示す. 実況発話においては,サーキットやレーシングカーなどの言及対象および,タイムやレーシングカーの具体的な動きといったより詳しい内容を含めることが重要である. よって,ラベルは言及対象について表現する
} & 例 \\
表 3 サブラベルの一覧 [6]. ラベルは 2 つのサブラベルの組み合わせとして定義される。
図 1 対象発話を与える設定の予測モデル. 次の発話ラベルを予測する設定では,このモデルから「対象発話」が除去される.
サブラベルおよび具体的な内容を定義したサブラベルの 2 種類のペアを 1 つのラベルとして表現し,合計 40 ラベルが定義される. 例えば,“ここは華麗な追い抜き,決めていく。”という発話であれば,“ プレイヤーの車動き”というラベル出力が正解となる. 1 つの発話に複数のラベルが付与されることを許容するマルチラベル分類の設定となる.
## 3.2 提案予測モデル
次に図 1 に示す提案ラベル予測モデルについて述べる. このモデルは,上田ら [1] の手法に提案素性を追加したモデルである. 2 つの問題設定においてほぼ同様のエンコーダで入力ラベルやテキストを読み込む.ただし,未来発話ラベル予測タスクでは対象発話テキストを入力として与えない. 以後, 対象発話テキスト予測モデルについて述べる.
まず,テキストデータは単語列で表現する。すなわち,対象発話テキスト $T=\left.\{w_{1}, \ldots, w_{u}\right.\}$, 直前の発話テキスト $T^{\prime}=\left.\{w_{1}^{\prime}, \ldots, w_{u^{\prime}}^{\prime}\right.\}$ となる. なお,対象発話がレース全体の最初の発話である場合は,直前の発話ラベルは与えられない。
$T$ は, MeCabにより分かち書きをした後に,各トークンに対応する埋め込み表現へと変換され,単語ベースの双方向 LSTM [15] で読み込む: $\overrightarrow{\mathbf{h}}_{i}=$ $\operatorname{LSTM}\left(\overrightarrow{\mathbf{h}_{i-1}}, \operatorname{emb}\left(w_{i}\right)\right)$ および蒙 $=\operatorname{LSTM}\left(\overleftarrow{\mathbf{h}_{i+1}}, \operatorname{emb}\left(w_{i}\right)\right)$. ここで, emb は対象の単語の埋め込み表現を返す関数である. さらに, ベクトル $\overrightarrow{\mathbf{h}_{i}}, \overleftarrow{\mathbf{h}_{i}}$ を結合して, ベクトル $\mathbf{h}_{i}$ を得る: $\mathbf{h}_{i}=\left[\overrightarrow{\mathbf{h}_{i}} ; \overleftarrow{\mathbf{h}_{i}}\right]$. 合計 $u$ 個の縦ベクトル $\mathbf{h}_{i}^{T}$ を横方向に並べて,行列 $\mathbf{H}$ を得る: $\mathbf{H}=\left[\mathbf{h}_{1}^{T} \cdots \mathbf{h}_{u}^{T}\right]$.直前の発話テキスト $T^{\prime}$ についても別の双方向 LSTM で同様に読み込み,行列 $\mathbf{H}^{\prime}$ を得る.LSTM の隠れ状態の行列 $\mathbf{H}$ は,次に深さ $r$ の自己注意機構 [16] に渡される:
$
\begin{aligned}
\mathbf{A} & =\operatorname{Softmax}\left(\mathbf{W}_{2} \tanh \left(\mathbf{W}_{1} \mathbf{H}\right)\right), \\
\mathbf{M} & =\mathbf{A H}^{T} .
\end{aligned}
$
ここで,A は自己注意機構の重み行列であり,行列 $\mathbf{W}_{1}, \mathbf{W}_{2}$ を用いて推定される. $\mathbf{W}_{1}, \mathbf{W}_{2}$ のサイズは, LSTM の隠れ状態の次元数を $d_{l s t m}$, 自己注意機構の深さを $r$ として,それぞれ $d_{a} \times 2 d_{l s t m}, r \times d_{a}$ となる.ここで, $d_{a}$ は自己注意機構の重みを推定するニューラルネットワークの行列のサイズを制御するパラメータである. 自己注意機構の出力である行列 $\mathbf{M}$ のサイズは $r \times 2 d_{l \text { stm }}$ となる. 行列 $\mathbf{M}$ の各行要素は以下のように結合べクトル $\mathbf{t}$ に変換される: $\mathbf{t}=\left[\mathbf{m}_{1} ; \ldots ; \mathbf{m}_{r}\right]$. ここで, $\mathbf{m}_{i}$ は行列 $\mathbf{M}$ の第 $i$ 行目成分を表す。このようにして得られた $\mathbf{t}$ を対象発話テキスト $T$ に対する最終的なエンコーダ出力とする.直前の発話テキスト $T^{\prime}$ に対しても同様に別の自己注意機構で読み込み,エンコーダ出力 $\mathbf{t}^{\prime} を$ 得る。
構造化データについては, 既存研究 [1] の提案素性である視点ラベル $D_{1}$, 時間ラベル $D_{2}$, 直前の発話ラベル $D_{3}$ に加え本研究ではレーシングカーおよびレース状況に関する状況認識素性を数値列データ $E_{1}, \ldots, E_{e}$ も用いる. これらはそれぞれ別のエンコー ダによって分散表現に変換し,結合べクトルをエンコーダの最終出力とする.視点情報データ $D_{1}$ は実況者の視聴した映像に関する情報を表現し,“空撮視点”,“ドライバー視点”のいずれかを取り,時間情報データ $D_{2}$ はレース開始から終了までの時間を 4 分割した区間のうち,分類対象発話の発話時刻の
区間を表す. 本研究で追加する状況認識素性は,分類対象発話の発話時刻から過去 10 秒分を 1 秒ごとに取得し大きさ 11 のベクトルとして表現する.
既存素性 $D_{n}$ および提案素性 $E_{l}$ は, one-hot 表現 $\mathbf{d}_{n}$ および $e_{l}$ とし,埋め込み表現に変換する: $\mathbf{d}_{n}^{\prime}=$ $\mathbf{d}_{n} \mathbf{W}_{n}+\mathbf{b}_{n}, \mathbf{e}_{l}^{\prime}=\mathbf{e}_{l} \mathbf{W}_{l}+\mathbf{b}_{l}$. そして $, \mathbf{t}, \mathbf{t}^{\prime}, \mathbf{d}_{1}^{\prime}, \ldots, \mathbf{d}_{3}^{\prime}$ を結合し, この結合べクトルのサイズがラベル種類数と同一サイズのベクトルとなるよう重み行列 $W_{3}$ で線形変換する:p $=\operatorname{sigmoid}\left(\left[\mathbf{t} ; \mathbf{t}^{\prime} ; \mathbf{d}_{1}^{\prime} ; \mathbf{d}_{2}^{\prime} ; \mathbf{d}_{3}^{\prime} ; \mathbf{e}_{1}^{\prime}, \ldots ; \mathbf{e}_{L}^{\prime}\right]\right)$.最終的に sigmoid 関数によって各次元が確率値となるよう正規化され,各ラベルに対するスコアを表現するベクトル $\mathbf{p}$ を得る.
なお,未来発話ラベル予測タスクにおいては,上式から $\mathbf{t}$ が除去されスコアを表現するべクトル $\mathbf{p}$ を得る.スコアが閾値 $t$ 以上のラベルを最終的に出力する. $t$ は開発セットでの $\mathrm{F}$ 値が最も高くなるよう調整する.また,上記の予測モデルは二值交差エントロピー損失を最小化するよう学習される。
## 4 実験
提案素性の効果を確認するため,それらを用いない既存手法 [1] と比較する。また,ヒューリスティックによるベースラインとして,データセットにおいて出現頻度が上位 $k$ 個のラベルをすべての発話に付与する単純な手法とも比較する。 データセットにおける $k$ の平均値は 1.44 であるため, $k=1$ および $k=2$ の設定をべースラインとして用いる.
実験には Ishigaki ら [6] のアノテーションデータを用い,訓練データを $80 \%$ ,評価データを $20 \%$ とし 5 分割交差検定により評価した. 各分割で訓練デー タとして用いるデータのうち $25 \%$ を開発データとしてハイパーパラメータの調整に使用し,残りのデー タをモデルの訓練に用いた. 視点ラベル,時間ラベル, 直前ラベル, 状況認識素性それぞれの埋め込み層の行列サイズは, $2 \times 10,4 \times 10,24 \times 10,11 \times 10$ とした. その他の学習に用いたパラメータなどは既存手法 [1] と同様のものを用いた.
## 5 結果
結果を表 4 に示す. 表の上から順にベースライン手法,未来発話ラベル予測タスク,対象発話ラベル予測タスクでの各モデルの評価値を示す.
未来発話ラベル予測タスクにおいては,従来研究で用いられていた素性のみを用いるモデルは $\mathrm{F}$ 值において. 298 と低い值を示すが,レース状況素性を加
表 4 対象発話ラベル予測タスク及び未来発話ラベル予測タスクでの性能評価.
えると. 307 に向上した. さらに,レース状況素性のみを用いたモデルは. 357 と従来素性との組み合わせモデルよりも性能が高い。これは,従来素性の中にはむしろ性能を劣化させる素性が含まれている可能性や学習データの不足の可能性が考えられる. 今後,従来素性および提案素性の適切な組み合わせ手法やデータ拡張手法について検討したい。
レース状況認識素性の追加により,未来発話ラべルの予測性能が向上した例について述べる。“インをキープしながら曲がっていく。”という発話に対しては “実況対象の車動き変化あり”という予測ラベルが正解となる.このラベルを正しく予測するためには,プレイヤーの車の走行状況を正しく認識する必要がある.提案素性に含まれるハンドルの角度が与えられたことで,モデルがプレイヤーの車の走行状況を認識でき,この発話についてラベルを正しく予測出来た.
対象発話ラベル予測タスクにおいては,発話テキストのみを用いるモデルが $\mathrm{F}$ 值において性能が最も高く,レース状況素性の追加による性能向上は確認できなかった.これは既存研究 [1] においても議論されているが,発話ラベルはその対象の発話テキス卜に大きく依存しており,他の追加情報は大きな手がかりとならないにも関わらずモデルのパラメータが増大し学習が難しくなるものと考えられる。
## 6 おわりに
本研究ではレーシング実況を対象とした発話ラベル予測問題について,レース状況やレーシングカー の状況と捉える素性を用いる手法を提案した. 実験より,発話テキストを入力として用いない未来発話ラベル予測タスクにおいて,状況認識素性の追加による性能向上を確認した。
## 謝辞
この成果は, 国立研究開発法人新エネルギー・産業技術総合開発機構 (NEDO) の助成事業 (JPNP20006) の結果得られたものである. 産総研の AI 橋渡しクラウド $(\mathrm{ABCI})$ を利用し実験を行った.
## 参考文献
[1] 上田佳祐, 石垣達也, 小林一郎, 宮尾祐介, 高村大也.実況における発話ラベル予測. 情報処理学会自然言語処理研究会 2021-NL-251 (1), pp. 1-6, 2021.
[2] Kumiko Tanaka-Ishii, Koiti Hasida, and Itsuki Noda. Reactive content selection in the generation of real-time soccer commentary. In Proceedings of the 17th International Conference on Computational Linguistics (COLING1998), 1998.
[3] Yasufumi Taniguchi, Yukun Feng, Hiroya Takamura, and Manabu Okumura. Generating live soccer-match commentary from play data. Proceedings of the AAAI Conference on Artificial Intelligence (AAAI2019), Vol. 33, No. 1, pp. 7096-7103, 2019.
[4] Mitsumasa Kubo, Ryohei Sasano, Hiroya Takamura, and Manabu Okumura. Generating live sports updates from twitter by finding good reporters. In 2013 IEEE/WIC/ACM International Joint Conferences on Web Intelligence (WI) and Intelligent Agent Technologies (IAT), Vol. 1, pp. 527-534, 2013.
[5] Byeong Jo Kim and Y. Choi. Automatic baseball commentary generation using deep learning. Proceedings of the 35th Annual ACM Symposium on Applied Computing, pp. 1056-1065, 2020.
[6] Tatsuya Ishigaki, Goran Topic, Yumi Hamazono, Hiroshi Noji, Ichiro Kobayashi, Yusuke Miyao, and Hiroya Takamura. Generating racing game commentary from vision, language, and structured data. In Proceedings of the 14th International Conference on Natural Language Generation (INLG2021), pp. 103-113, 2021.
[7] Andreas Stolcke, Klaus Ries, Noah Coccaro, Elizabeth Shriberg, Rebecca Bates, Daniel Jurafsky, Paul Taylor, Rachel Martin, Carol Van Ess-Dykema, and Marie Meteer. Dialogue act modeling for automatic tagging and recognition of conversational speech. Computational Linguistics, Vol. 26, No. 3, pp. 339-374, 2000.
[8] Tatsuro Oya and Giuseppe Carenini. Extractive summarization and dialogue act modeling on email threads: An integrated probabilistic approach. In Proceedings of the 15th Annual Meeting of the Special Interest Group on Discourse and Dialogue (SIGDIAL2014), pp. 133-140, June 2014.
[9] John Langshaw Austin. How to do things with words. William James Lectures. Oxford University Press, 1962.
[10] John R. Searle. Speech Acts: An Essay in the Philosophy of Language. Cambridge University Press, 1969.
[11] Karen Kukich. Design of a knowledge-based report generator. In Proceedings of 21st Annual Meeting of the Association for Computational Linguistics (ACL1983), pp. 145-150, June 1983.
[12] Ratish Puduppully, Li Dong, and Mirella Lapata. Datato-text generation with content selection and planning. In Proceedings of the 33rd AAAI Conference on Artificial Intelligence (AAAI2019), pp. 6908-6915, 2019.
[13] Hamed Khanpour, Nishitha Guntakandla, and Rodney Nielsen. Dialogue act classification in domainindependent conversations using a deep recurrent neural network. In Proceedings of the 26th International Conference on Computational Linguistics: Technical Papers (COLING2016), pp. 2012-2021, 2016
[14] Paul Pu Liang, Yao Chong Lim, Yao-Hung Hubert Tsai, Ruslan Salakhutdinov, and Louis-Philippe Morency. Strong and simple baselines for multimodal utterance embeddings. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL2019), pp. 2599-2609, June 2019.
[15] Sepp Hochreiter and Jürgen Schmidhuber. Long shortterm memory. Neural Computation, Vol. 9, No. 8, pp. 1735-1780, 1997.
[16] Lin Zhouhan, Feng Minwei, dos Santos Cicero Nogueira, Yu Mo, Xiang Bing, Zhou Bowen, and Bengio Yoshua. A structured self-attentive sentence embedding. In Proceedings of the International Conference on Learning Representations (ICLR), 2017. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E7-1.pdf | # 日本語版 CoLA の構築
染谷大河 大関洋平
東京大学
\{taiga98-0809, oseki\}@g.ecc.u-tokyo.ac.jp
## 概要
近年、ニューラル言語モデルが自然言語の統語知識をどれほど有しているかを、容認性判断課題を通して検証する研究が行われてきている。しかし、このような言語モデルの統語的評価を行うためのデー タセットは、主に英語を中心とした欧米の諸言語を対象に構築されてきた。本研究では、既存のデー タセットの問題点を克服しつつ、このようなデー タセットが構築されてこなかった日本語を対象とした初めてのデータセットである JCoLA (Japanese Corpus of Linguistic Acceptability)を構築した上で、それを用いた言語モデルの統語的評価を行った。
## 1 はじめに
近年、ニューラル言語モデルの成長は著しく、特に Transformer [1] をべースとしたモデルは、様々なタスクで高い精度を発揮している $[2,3]$ 。一方、理論言語学の分野においては、伝統的に自然言語には一種の統語構造が存在しているということが主張されており $[4,5]$ 、その構造の姿を解明すべく研究が進められている。確かに、先述のニューラル言語モデルは多くの自然言語処理タスクにおいて非常に高い精度を発揮することが確認されているものの、如何にしてこれらのタスクを解いているのか、特にこれらのニューラル言語モデルが自然言語の統語知識をどれほど有しているのかについては多くが分かっていない。
このような背景から、近年ではニューラル言語モデルが実際にどれほどの統語知識を獲得しているのかを検証する研究が盛んに行われている [6,7,8,9,10,11]。しかし、その多くは英語を中心とした欧米の限られた言語を対象とした検証に終始し、性質の異なる言語に対象を拡張した検証は多くは行われておらず $[12,9]$ 、中でも幅広い統語現象を扱った包括的な検証はごく限られた言語でしか行われていない $[13,14,15,16]$ 。本研究では、そのような状況に鑑みて、既存のデータセットの問題点を解決しつつ、幅広い統語現象について言語モデルの統語的評価を行う日本語データセットである JCoLA (Japanese Corpus of Linguistic Acceptability)を構築し、それを用いた言語モデルの性能検証を行う。
## 2 言語モデルの統語的評価
容認性判断課題とは、提示された文が容認可能 (文法的)か容認不可能(非文法的)かの判断を下す課題である。近年、この容認性判断課題を用いた言語モデルの統語知識の検証が多く行われている。 こうした研究の端緒となった Linzen et al. (2016) [6] では、言語モデルが英語の主述の一致 (subject-verb agreement)を捉えることができるかを以下のようなミニマルペアを用いて検証し、実際に LSTM 言語モデルが主述の一致を一定程度解くことができる統語知識を有していることが確認された。
(1) a. The keys to the cabinet are on the table. $\mathrm{b} *$ The keys to the cabinet is on the table.
このような文脈から、より広範囲の統語現象を扱い、かつデータの規模としても大きいデータセットの開発も進んでいる。Warstadt et al. (2019) [13] は、英語を対象とした大規模な言語理解ベンチマークである GLUE [2] に含まれるデータセットの一つとして、理論言語学のジャーナル論文や教科書から例文を抽出し、言語モデルの 2 值分類性能をテストする大規模データセットである CoLA (Corpus of Linguistic Acceptability)を構築したが、CoLAを用いて言語モデルの統語知識を検証するためには、言語モデルとは別に容認性の予測を出力するための分類器等を学習する必要があった。したがって、このような方法では得られた予測の良し悪しが言語モデルがテキストから学習した内部表現によるものなのか、分類器を教師ありで学習する際に獲得した表現によるものなのかが必ずしも明確ではないとい
う問題があることが指摘されている。この問題点を克服すべく、Warstadt et al. (2020) [14] は、島の制約 (island constraint) や動詞の項構造 (argument structure) をはじめとした 12 の現象を扱うミニマルペアを自動生成してまとめた大規模データセット BLiMP (The Benchmark of Linguistic Minimal Pairs for English) を構築した。これにより、言語モデルが正例に対して、負例よりも高い尤度を付与する確率分布を学習できていれば、言語モデルはそのミニマルペアの容認度の違いを正しく捉えているという仮定のもと、個別の分類器を学習することなく、言語モデルの出力を直接用いてその統語知識の検証を行うことが可能となった。
一方で、以上の言語モデルの統語知識を検証する試みは、その大多数が英語を対象としたものである。一部の研究で対象を英語以外にも拡張した検証 $[9,12,17,18]$ が行われてはいるが、主述の一致等の限られた統語現象を対象にした検証にとどまっており、幅広い統語現象を対象とし、かつ英語以外で検証を行った研究は非常に限られている $[16,15]$ 。特に日本語においては自然言語処理の分野で広く使われる言語モデルの統語知識を評価するべンチマー クとなるようなデータセットは存在していない。1) このような状況では、言語モデルが英語等の一部の言語だけではなく、自然言語一般の統語現象を捉えられているかどうかについての明確な証拠を得ることはできない。本研究では、そのような現状に鑑みて JCoLA (Japanese Corpus of Linguistic Acceptability)を構築し、 それを用いて既存言語モデルの統語的評価を行う。 また、JCoLA は理論言語学のジャーナル論文から抽出した容認度と統語現象のアノテーションが付いた例文(2,323 文)と、それをもとに構築したミニマルペア(369ペア)を収録したデータセットである。 したがって複雑な統語現象を扱い、かつミニマルペアの形で提示できるという特徴を併せ持っており、既存のデータセットの問題点を克服したデータセットとなっている(表 1)。
表 1 既存の統語的評価用大規模データセットと JCoLA
1) Futrell et al. (2019)[10] と概ね同じタイトルである Futrell et al. (2018)[19] においては、日本語の否定極性項目についての議論が行われている。
## 3 JCoLA の構築
## 3.1 データ収集
言語モデルが理論言語学で重要とされている統語現象を捉えられているかを検証するため、本研究では東アジア・東南アジア言語の言語学のジャーナルとして著名な JEAL (Journal of East Asian Linguistics) に 10 年間(2006 年から 2015 年)で掲載された 133 本の論文の中で、特に日本語の統語論を扱っている論文 28 本を対象とし、その論文で提示されている全てのデータポイント(2,323 文)を抽出した。ここでの「全てのデータポイント」は、脚注や付録を含む本文の全ての日本語の例文の中で、構造分析のために提示された例文を除いたもののことである。
## 3.2 タイプ分類
単純な全データポイントに対する正解率による比較に終始することなく、個別の統語現象ごとのモデル評価を可能にするため、前節で抽出した例文を統語現象のタイプによって分類した。本研究では、全データポイントを 3 つの粒度で分類する。分類の名称については、BLiMP [14]を参考にした。
まず、大分類として各データポイントが問題としている容認性判断の性質や、本文中での提示のされ方に基づいて 8 種類に分類した。
## ACCEPTABILITY
特定の解釈・文脈に依存しない容認性判断。
## INTERPRETATION
特定の文脈・解釈に依存する容認性判断。
## Coreference
指示詞や照応形の共参照に関する容認性判断。
## LEXICAL
統語現象一般ではなく、特定の語彙項目に関する容認性判断。
## FOOTNOTE
論文の脚注で提示されている例文。
## APPENDIX
論文の付録で提示されている例文。
## RePEAT
既に提示された例文の繰り返しであることが、本文で明示的に断られている例文。
## VARIATION
既に提示された例文と比べ、理論構築に無関係な要素のみにしか違いがない例文。
次に、中分類として各データポイントがどのような統語現象を扱っているのかに基づく分類を行った(phenomenon)。中分類は、基本的に BLiMP における 12 の現象に OTHERS を加えたものであるが、今回対象とする日本語のデータに合わせてその一部を変更した (付録 A)。また、データポイントが二つ以上の現象に分類されうると判断された場合には、 phenomenon-2 を用意して分類した。ただし、言語モデルの統語現象ごとの評価の際には phenomenon の分類が優先される。
最後に、小分類として中分類 (phenomenon)よりさらに粒度の細かい、個別の統語現象ごとに 39 種類の分類を行った (paradigm)。これにより、エラー 分析の際により粒度の細かい分析が可能となる。
## 3.3 ミニマルペアの作成
まず、前節でタイプ分類が行われたデータセットのうち、以下の全ての条件を満たすものを抽出する。
- 非文として提示されている(?や*などのマーキングがされている)もの。ただし、?などのマー キングがされつつも、本文中で正例としてみなされているものは除く。
-大分類が variation、repeat、footnote、appendix $の$ いずれでもないもの。
・中分類が others でないもの。
次に、言語学の論文において提示された全ての負例には、対応する正例が存在するという仮定のもと [20]、以上により抜き出された負例のぞれぞれに対応する正例を、論文の中から採用するか、本文の内容を確認しつつ筆者が作例することにより構築した。この際、解釈により容認度が変わる例は、 JCoLA に含めない不適切な例として、ミニマルペア構築の対象外とした。また、重複している例文や、語彙項目が異なるのみで検証対象が同じである例文も除外した。以上の手順により、合計で 369 ペアのミニマルペアが作成された(表 2、付録 B)。
## 4 実験
## 4.1 言語モデル
以上で構築した JCoLA のミニマルペアを用いて、 Kuribayashi et al. (2021) [21] で学習済みの言語モデルを評価する。モデルの種類は、2つの異なるサイ表 2 中分類ごとのミニマルペアの数
ズの GPT-2 言語モデル(Trans-LG: 400M パラメー タ、Trans-SM: 55M パラメータ)と LSTM 言語モデル、さらに 3-gram、4-gram、5-gram 言語モデルの合計で 6 種類である。それぞれの言語モデルは、学習データ量2) ・学習ステップ数(100、1,000、10,000、 $100,000)$ ・ランダムシード(3 種類)を変えた複数の設定で学習された (ただし、n-gram 言語モデルは学習データ全体で学習された)。また、学習データとしてはニュース記事と日本語版ウィキぺディアに含まれる約 5,000,000 文からなるコーパスが用いられた。3)
## 4.2 評価方法
ミニマルペアの正例に負例よりも高い尤度を付与できた場合に正解とみなし、各言語モデルの JCoLA における正解率を算出する。その際、系列長の違いを考慮するために、Lau et al. (2017) [24] で提案された正規化関数の一つである、MeanLPを用いて尤度を算出する ( $|X|$ はサブワード単位の文の長さ)。
$
\text { MeanLP }=\frac{\log p(X)}{|X|}
$
## 5 結果
全学習データを用い、100,000 学習ステップの学習を行った 3 種類のニューラル言語モデルと 5 -gram 言語モデルの全ミニマルペアに対する正解率を図 1 にまとめた。全ての言語モデルにおいて、正解率は $70 \%$ 程度に留まっている。したがって、JCoLA は複
2)各モデルについて、学習データのうち $1 / 100(\mathrm{SM})$ を用いて学習されたもの, 1/10(MD) を用いて学習されたもの, 全て (LG)を用いて学習されたものの 3 種類が用意された。
3)学習コーパス内の各文は、MeCab [22]により国語研短単位に分割された上で、Byte Pair Encoding(BPE)[23]を用いてサブワード単位に分割されている (vocab $=100,000$ 、character coverage $=0.9995$ )。
図 2 中分類ごとの正解率。LSTM・Trans-SM・Trans-LG は、全学習データ・100,000 学習ステップの設定で学習されたものである。エラーバーは 3 つのランダムシードの標準偏差である。
図 1 全ミニマルペアに対する正解率。LSTM・Trans-SM・ Trans-LG は、全学習データ・100,000 学習ステップの設定で学習されたものである。エラーバーは 3 つのランダムシードの標準偏差である。
雑な統語現象の理解が求められ、ゆえに既存の言語モデルではその容認度の差を捉えるのが難しいミニマルペアを収録したデータセットであることが示唆される。
また、各中分類 (phenomenon) ごとの正解率を見ると、言語モデルが捉えられている統語現象と必ずしも捉えられていない統語現象が存在することが明らかになった(図 2)。まず、語の活用等を扱う morphology や名詞句内の構造を扱う nominal structure 等においては、5-gram 言語モデルを含め全ての言語モデルが高い精度を示したが、これは (2) のような比較的狭い範囲の情報のみを用いて正解することが可能な例が含まれていることが要因と考えられる。
(2) a. 私が昨日見た人は素敵だった。 $\mathrm{b} *$ 私が昨日見たの人は素敵だった。
一方、filler-gap や verbal agreement では各モデル精度が低下しているが、これらは先ほどより長距離の依存関係を伴う統語現象である。verbal agreement の例としては、以下のような主語敬語 (subject honorification) の例がある。
(3) a. 伊藤先生がメアリーをお集めになった。 b*私がメアリーをお集めになった。
(3) を正解するためには、主語と述語の一致関係を捉え、「お褒めになった」という表現が、一人称主語では許されないということを正しく理解する必要があるが、このような日本語の一致現象を言語モデルは必ずしも捉えることができないということが明らかになった。
以上より、英語を中心とした欧米の言語を対象とした既存研究では、一定の統語知識を備えていることが確認され、かつ様々な下流タスクで高い性能を発揮する LSTM・Transformer ベースの言語モデルも、N-gram 言語モデルが学習する以上の統語知識を必ずしも得ることができていないことが明らかになった。特に、日本語特有の表現である敬語表現等を含め、比較的長距離の依存関係を伴う統語現象についての精度が低いことが確認された。
## 6 おわりに
本研究では、既存のデータセットの問題点を解决しつつ、日本語を対象とした統語的評価のための初めてのデータセットである JCoLAを構築した。 JCoLA を用いた評価では、LSTM・Transformer ベー スのモデルも長距離の依存関係を伴う統語現象を捉えきれないことが示唆された。JCoLAを用いたより詳細な言語モデルの統語的評価、及びデータセットの規模の拡大は今後の課題としたい。
## 謝辞
本論文は、筆者が東京大学の卒業研究として行った内容を記したものです。また、本研究は JST さきがけ JPMJPR21C2 の支援を受けたものです。
## 参考文献
[1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł Ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I Guyon, U V Luxburg, S Bengio, H Wallach, R Fergus, S Vishwanathan, and R Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30, pp. 5998-6008. Curran Associates, Inc., 2017.
[2] Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel R. Bowman. GLUE: A multi-task benchmark and analysis platform for natural language understanding. In International Conference on Learning Representations, 2019.
[3] Alex Wang, Yada Pruksachatkun, Nikita Nangia, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel R. Bowman. Superglue: A stickier benchmark for general-purpose language understanding systems. CoRR, Vol. abs/1905.00537, , 2019.
[4] Noam Chomsky. Syntactic structures. Mouton, 1957.
[5] Martin B H Everaert, Marinus A C Huybregts, Noam Chomsky, Robert C Berwick, and Johan J Bolhuis. Structures, not strings: Linguistics as part of the cognitive sciences. Trends Cogn. Sci., Vol. 19, No. 12, pp. 729-743, December 2015.
[6] Tal Linzen, Emmanuel Dupoux, and Yoav Goldberg. Assessing the ability of LSTMs to learn Syntax-Sensitive dependencies. Transactions of the Association for Computational Linguistics, Vol. 4, pp. 521-535, December 2016.
[7] Rebecca Marvin and Tal Linzen. Targeted syntactic evaluation of language models. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 11921202, Brussels, Belgium, 2018. Association for Computational Linguistics.
[8] Ethan Wilcox, Roger Levy, Takashi Morita, and Richard Futrell. What do RNN language models learn about Filler-Gap dependencies? In Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 211-221, Brussels, Belgium, November 2018. Association for Computational Linguistics.
[9] Kristina Gulordava, Piotr Bojanowski, Edouard Grave, Tal Linzen, and Marco Baroni. Colorless green recurrent networks dream hierarchically. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 1195-1205, New Orleans, Louisiana, June 2018. Association for Computational Linguistics.
[10] Richard Futrell, Ethan Wilcox, Takashi Morita, Peng Qian, Miguel Ballesteros, and Roger Levy. Neural language models as psycholinguistic subjects: Representations of syntactic state. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 32-42, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[11] Rui P Chaves. What don't RNN language models learn about Filler-Gap dependencies? Proceedings of the Society for Computation in Linguistics, Vol. 3, No. 1, pp. 20-30, 2020.
[12] Shauli Ravfogel, Yoav Goldberg, and Francis Tyers. Can LSTM learn to capture agreement? the case of basque. In Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 98-107, Brussels, Belgium, November 2018. Association for Computational Linguistics.
[13] Alex Warstadt, Amanpreet Singh, and Samuel R Bowman. Neural network acceptability judgments. Transactions of the Association for Computational Linguistics, Vol. 7, pp. 625-641, November 2019.
[14] Alex Warstadt, Alicia Parrish, Haokun Liu, Anhad Mohananey, Wei Peng, Sheng-Fu Wang, and Samuel R Bowman. BLiMP: The benchmark of linguistic minimal pairs for english. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 377-392, December 2020.
[15] Beilei Xiang, Changbing Yang, Yu Li, Alex Warstadt, and Katharina Kann. CLiMP: A benchmark for Chinese language model evaluation. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 2784-2790, Online, April 2021. Association for Computational Linguistics.
[16] Daniela Trotta, Raffaele Guarasci, Elisa Leonardelli, and Sara Tonelli. Monolingual and cross-lingual acceptability judgments with the Italian CoLA corpus. In Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 2929-2940, Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics.
[17] Aixiu An, Peng Qian, Ethan Wilcox, and Roger Levy. Representation of constituents in neural language models: Coordination phrase as a case study. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 2888-2899, Hong Kong, China, November 2019. Association for Computational Linguistics.
[18] Aaron Mueller, Garrett Nicolai, Panayiota Petrou-Zeniou, Natalia Talmina, and Tal Linzen. Cross-linguistic syntactic evaluation of word prediction models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, Stroudsburg, PA, USA, 2020. Association for Computational Linguistics.
[19] Richard Futrell, Ethan Wilcox, Takashi Morita, and Roger Levy. RNNs as psycholinguistic subjects: Syntactic state and grammatical dependency. September 2018.
[20] J Sprouse, C T Schütze, and D Almeida. A comparison of informal and formal acceptability judgments using a random sample from linguistic inquiry 2001-2010. Lingua, Vol. 134, pp. 219-248, September 2013.
[21] Tatsuki Kuribayashi, Yohei Oseki, Takumi Ito, Ryo Yoshida, Masayuki Asahara, and Kentaro Inui. Lower perplexity is not always human-like. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 5203-5217, Online, August 2021. Association for Computational Linguistics.
[22] Takumitsu Kudo. Mecab : Yet another part-of-speech and morphological analyzer. 2005.
[23] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics.
[24] Jey Han Lau, Alexander Clark, and Shalom Lappin. Grammaticality, acceptability, and probability: A probabilistic view of linguistic knowledge. Cogn. Sci., Vol. 41, No. 5, pp. 1202-1241, July 2017.
## A 中分類 (phenomenon) の基準
CONTROL/RAISING
コントロール (control) や繰り上げ (raising) 構文に関する容認
性え判断。コントロール動詞と V-V 複合動詞を形成できる動詞の種颣に関する容認性判断等が含まれる。
a. 夾々損权る。
(Kishimoto, 2012)
主語の性筫が動調の形態に反旺される現象や、動詞が主語の性筫に制約
を与えるような現象に
例えば、主語敬語 (subject honorification) に閲する容認性判
断等が含まれる。
*メメアリーが伊藤先生をお隹めになった。
(Kishimoto, 2012)
NOMINAL STRUCTURE
BLiMP で、限定詞 (determiner) と名河の一致に関する例文では、ょり一般に名詞句の内部構造に関わる容認性判断を含む中分類として, NOMINAL STRUCTURE を採用した。
例えぱ、「の」の分布に関する容認性判断等が含まれる。
(9) a. 私が昨日見た人。
b. *私か昨日見たの人
(Saito et al., 2008)
MORPHOLOGY BLiMP では、例文を、IREGULAR FORMS としてまとめている JCOLA ではより幅広く形態論に閲する容認性判断を含む中分類として MORPHOLOGY を採用した
例えぱ、形容動詞の活用纪関する容認性判断等が含まれる。
a. ぞの粒子は計测可能を゙とジョンは思っている。
b. *その粒子は計測可能なとジョシは思っている。 (Sudo, 2015)
OTHERS
BLiMP を元汅して作成した以上の中分類のい゙゙れても当てはまらな基ういて分類している。例えば、比較表垷に関する容認性判断等が含
れる。
(11) a. ジョンはベッドが長い以上揹が高い
(Sudo, 2015)
## B JCoLA のミニマルペア例
& & \\
| NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E7-2.pdf | # 大規模振り仮名注釈付きコーパスを用いた 同形異音語の読み分類
佐藤文一 ${ }^{1}$ 吉永直樹 ${ }^{2}$ 喜連川優 ${ }^{3,2}$
${ }^{1}$ 東京大学大学院情報理工学系研究科/国立国会図書館 ${ }^{2}$ 東京大学生産技術研究所 ${ }^{3}$ 国立情報学研究所
\{fsato0609, ynaga, kitsure\}@tkl.iis.u-tokyo.ac.jp
## 概要
視覚障害者は,漢字交じりの文書を音声で聞いているが,読み誤りが起きると理解が困難になる。このため, 漢字の振り仮名の自動付与の精度向上が強く望まれている. 本研究では,振り仮名が付与された国立国会図書館の書誌データのタイトルや校正済みの点字データなどを活用し, 機械学習のための振り仮名付きコーパスを半自動構築し,書誌のタイトル数約 1650 万,約 3.4 億文字,青空文庫の本数 1944 冊,約 5200 万文字を公開した.このコーパスをもとに 203 語の同形異音語の出現頻度を分析し,その中から東北大学の事前学習済み BERT に含まれる語彙の 93 語, 読みの総数 223 個に対して転移学習による読み推定を行い,コーパスの有効性を確認した。
## 1 はじめに
「読書バリアフリー法」が施行され, 誰も取り残されない社会の実現に向けた具体策として,読むことに困難がある児童生徒向けにマルチメディアディジー教科書が製作・提供されている[1]. これらを制作するために,漢字交じりの文書を正しく読み上げられるよう読みを付与する必要がある. 例えば,「表に出る」を「ひょうにでる」と読み上げられると理解が困難になる.視覚障害者が使用する画面読み上げソフトウェアでも同様の現象が起きるが,誤った漢字の読みを繰り返し聞くことは望ましくない.
このような背景から, 漢字の振り仮名の自動付与精度の更なる向上が強く望まれている。近年, 自然言語処理では, BERT [2]に代表される汎用事前学習済みモデルを用いて,転移学習の枠組みで様々な自然言語処理タスクが低コストで解かれるようになった.しかしながら, 同形異音語(読み方が複数ある単語)の読みを分類問題として機械学習で扱うためには,読みに曖昧性がある漢字ごとに正しい振り仮名が付いた学習事例が必要となる,そのため,機械学習の適用に耐えうる規模の言語資源を整備することが依然,求められている。
このような背景から,我々はこれまで校正済みの振り仮名データを利用して振り仮名注釈付き日本語コーパスを半自動構築する取組を進めている[3]. しかし,データサイズとしては,国立国会図書館の提供する書誌データ[4]に含まれる幅広い年代の図書・雑誌のタイトルとタイトルの分かち書きされた振り仮名から作成した「書誌コーパス」(タイトル数約 1650 万,約 3.4 億文字)に大きく偏っており,多様なテキストに読みを自動付与する学習データとしては不十分であった.
そこで本研究では, これまでに構築した振り仮名付きコーパスのうち, 青空文庫[5]の公開作品のテキストデータと視覚障害者情報総合ネットワーク「サピエ」[6]が視覚障害者に提供している点字データから作成した「青空文庫コーパス」について規模を改善する。具体的には,振り仮名を付与する本の数を増やすと共に,見出しを抽出し,テキストを章単位に分割することで,点字の途中にある長文の注解等と青空文庫の文のぺアのマッチングミスが伝播することを防ぎ, 収集率 (注釈が付与できた文字の割合) を改善した。さらに,旧仮名使い,踊り字,大字の漢数字に対応して,漢字振り仮名の語彙数を大幅に増やすことで収集率を改善した。得られたコーパスのうち,収集率が $90 \%$ 以上の本 1944 冊,約 5200 万文字を青空文庫コーパスとして前述の書誌コーパスと合わせて NDL Labから公開した $[7,8]$.
実験では,本研究で構築したコーパスを用いて BERT による振り仮名の自動付与を行い,コーパスの有用性の評価を行う。具体的に, 東北大学の事前学習済み BERT[9]を利用した転移学習により, 93 種類,読みの総数 223 個の同形異音語に対して,読み推定の実験を行い,コーパスの有用性を評価した.
## 2 関連研究
日本語の漢字の読み推定は, 形態素解析, 仮名漢字変換, 音声合成などのタスクと関連して, 主に機械学習を適用するための学習データをどう構築するかに焦点を当てて研究が行われている $[10,11,12]$.
羽鳥らは Web から教師なし学習によって獲得した単語・読みのペアと, 辞書を用いて, 読み推定を行う手法を提案している[10]. 高橋らは仮名漢字変換のログを,ノイズを含んだ注釈データとみなして単語分割・読み推定の学習データとして利用する手法を提案している[11]. 西山らは同形異音語の各読みに対応する読みの曖昧性のない同義語に注目し,各読みの例文を収集する手法を提案している[12]. これら既存の手法を用いて得られた注釈データはラベルに少なからずノイズが含まれるため,学習ベー スで読み推定の精度を改善する際に本質的な限界がある。
読み推定と同様に, 単語単位の分類問題として定式化される語義曖昧性解消タスクでは, 近年, 事前学習済みモデルである BERT の利用による性能改善が報告され始めている $[13,14]$. 読み推定でも BERT により計算される文脈化単語埋め込みを用いて似た文脈で出てくる単語の類似性を捉えることが有効であると期待される. 我々も,これまで少数の同形異音語に対して人手で読み推定の正解ラベルを付与したデータセットを用いて BERT で読み推定の予備実験[15]を行い, その効果を確認したが,学習データの構築コストが課題であった.
本研究では, 既存の言語資源を組み合わせて深層学習の適用に耐えうる規模の振り仮名注釈コーパスを半自動構築する. 得られたコーパスを用いて実際に BERT による読み推定を行い, その有効性を評価する。
## 3 振り仮名注釈付コーパスの構築
本節では,文(書)レベルで読みが付与されたテキストを利用して, 振り仮名注釈付きコーパスを半自動構築する手法を説明する. 具体的には, 国立国会図書館の提供する書誌データと青空文庫を用いる.書誌データでは,書誌のタイトル(例えば「吾輩は猫である」)に対し,「わがはいわねこである」のように振り仮名が付与されている. 一方, 青空文庫では,本全体に対して「サピエ」により点字で読みが付与されている(以下, 点字データ). 我々は,漢字仮名交じり文とその分かち書きされた振り仮名のペアを作成し, 事前に収集した漢字に対する振り仮名候補に基づく文字レベルのマッチングを行い,本コーパスを構築している。
## 3.1 文字種毎の振り仮名候補の収集
3.4 節の振り仮名注釈の作成のために, 各文字種 (漢字, 記号, 英字, カタカナ, 数字) の各単語に対して,辞書をもとに振り仮名候補を収集した。具体的には, 下記の形態素解析辞書の「表層」と「読み」から, 形態素を単語とみなして単語とその読みを収集した。
- MeCab[16]のIPA 辞書, MeCab-ipadic-neologd [17], 国語研究所の現代書き言葉 UniDic と現代話し言葉 UniDic [18], sudachi [19]
また作成したコーパスに加えて, 約 280 万件の著者名・団体名とその振り仮名のある書誌データからもコーパスを作成し, その振り仮名候補も追加している. 結果として, 漢字の語彙として 250 万語以上を収集することができた。
## 3.2 前処理
書誌データは, 近代から現在までの幅広い年代に出版された書誌のタイトルを含むため, 下記の前処理を行なっている.
- 英数字を半角に, カタカナを全角に正規化.
- 英文と繁体字・Hangul 文字を含むタイトルの除去(日本と中国で共通の漢字だけのタイトルは除去できていない)。
- 旧字体の漢字 (472 文字) を新字体に変換.
青空文庫の漢字仮名交じりのテキストに対しては,下記の前処理を行っている.
- 英数字を半角に, カタカナを全角に正規化.
- ルビ, 入力注を削除.
- JIS X 0213 の面区点番号を漢字の文字に変換.
- 見出し, ルビとその漢字のデータを収集.
点字データに対しては, 次の前処理を行っている.
- 点字の BES, BSE, BET のバイナリーデータを仮名のテキストに変換.
- 旧仮名を新仮名に変換(例:「くあれ」->「かれ」).
- 目次から, 本のタイトルとページを抽出.
- インデントから見出しを抽出.
- 表紙, 目次, 注記, 注解, 奥付を削除.
## 3.3 パタンマッチングによる文ペア抽出
青空文庫については文単位で読みとの対応がついていないため, 以下の手順で対応する文ぺアを抽出した.
まず,前処理で得られた目次の情報から,青空文庫の本と点字の本のペアを, さらに見出しの情報から,章単位で文章と読みのぺアを抽出した。最終的に, この章単位のぺアから, 文単位のぺアを次の手順で抽出する. 形態素解析を用いて青空文庫のテキストを読みに変換し, 点字のテキスト(点字読み) とのパタンマッチングを行う. 青空文庫と点字の本は, 現代仮名遣いにした訳者や版が異なっていたり,片方だけに注解が含まれていたり, 形態素解析器から得られる仮名等の不一致があるが, レーベンシュタイン距離の情報と句読点の位置を手掛かりにペアの文を抽出する. 点字の文と対応づけられた青空文庫の読みを元の漢字仮名交じり文に戻すことにより,漢字仮名交じり文と点字の仮名の文単位でのペアが得られる。
## 3.4 振り仮名注釈の作成
前節までで得られた文と読みのペアについて,漢字仮名交じり文を文字種単位で分割し, 各単語に対して振り仮名を付与する. 漢字・記号・数字は 3.1 節で作成した振り仮名候補の中に該当の振り仮名があるかを調べ,さらに平仮名等は, 1 文字ずつ振り仮名を割り当てる.書誌データでは「底力」が「そこじから」と記述され, 点字データでは「京都へ」が 「きょーとえ」と記述されるように,分かち書きされた振り仮名は, 現代仮名遣いと一部異なっているため $[20,21,22]$, 表層と読みが一致しない平仮名 (例:「へ」と「え」,「は」と「わ」等)の対応付けを行っている. 更に次の処理を行っている.
- 漢数字の大字 (例:「弐萬」と複数読み(例 :「二二」「十二三」)への対応.
- 繰り返し文字 (〉、ડ゙ド) ・踊り字に対応.
- 漢字(単語)の部分は, 部分文字列の振り仮名候補辞書から生成したラティスのグラフ探索 (深さ優先探索) で処理.
- 漢字の送り仮名で,「何にでも」の「何」が 「な」「なに」のように漢字の読み候補だけから読みが確定できない場合に, 後続する文字も考慮した読みの対応付け。表 1 青空文庫コーパスの作家数等
以上により構築された振り仮名付きテキストに対して, コーパス特有の後処理を行い,収集率を改善した. 具体的には,書誌コーパスに対しては,「コ ーヒ-」->「コーヒー」のように,'-'を長音一'に変換している。青空文庫コーパスの点字データの作成時期が古いデータは, データ構造が統一されていないため, 目次や注記等の修正・削除の一部を手作業の後処理で行っている.
後処理で数箇所修正することにより, 収集率が 100\%になる点字の本, 約 450 冊に対して修正を行い, コーパスの注釈が正しく付与されていることを確認した.
コーパスの公開後もこの節の手法で拡張しており,青空文庫コーパスの $90 \%$ 以上の収集率での公開時と公開前後での作家数等を示したのが表 1 である. 次節の実験はこの公開後のデータを用いて行っている.更新したコーパスは今後, [8]で公開予定である.
## 4 読み分類実験
本節では,前節で得られた本コーパスから,同形異音語の出現数を調査した結果と, 同形異音語の読みのクラス分類の実験結果を報告する.
## 4.1 同形異音語の出現数の調査
対象の同形異音語として,書誌データの「文字・読みの基準」[21]を参考にして 203 種類[付録]を選び, その読みの出現数を調査した. 「国立駅」のように 「国立」と「駅」からなる複合語は基本的に,読みが一つに確定するので, 出現数から除外した.
表 2 のドメインの「書誌」「青空」は,該当のコ一パスを示している. 「東北大 $\mathrm{v} 1 \cdot \mathrm{v} 2 」$ は, 東北大学の 2 種類の事前学習済み BERT のどの語彙に含まれているかを示している。
最大の出現数の単語は,「変化」の 88,322 個で,最小は「日供」の0 個, 出現数が 30 個以上の単語は 197 個であった. 頻度にばらつきはあるが,全体的には機械学習のデータ数としては十分と思われる.
表 2 同形異音語の出現数
& & 合計 & 読み0 & 書誌 & 青空 & 読み1 & 書誌 & 青空 \\
また, 各読みの出現数はドメインによって大きな差があることが確認された. 青空文庫コーパスの出現数の少ない読みとしては, 国立(こくりつ,くにたち),表(ひょう)がある.ちなみに「国立駅は大正 15 年開業」である. 書誌コーパスの出現数の少ない読みとしては, 大分 (だいぶ) であった. 一方,書誌コーパスは,「競売(けいばい: 法律用語)」,
「口腔(こうくう:慣用読み,医学) 」,「礼拝(らいはい: 仏教・神道)」,「現世(げんせ:仏教)」 の出現頻度から, 用途別の読みもある程度カバーしていることを確認した. 用途については[21]を参考にした.
## 4.2 同形異音語の読みのクラス分類の実験
東北大学の事前学習済み BERT (v2) を使用して,同形異音語の読み推定をクラス分類として定式化して以下の方法で分類器の学習を行った.
BERT の転移学習を使う手法である. token 数は学習最大 128 に制限した。学習, 推論は, huggingface_transformers[23]の例を参考に,固有表現,品詞分類で使われる token classification で, 複数の同形異音語の読みのクラス分類を行った. 各単語の読み毎にラベルを割り当てている。例えば,表(ひょう), 表(おもて), 角(かく), 角(つの)を, それぞれ $1,2,3,4$ のラベルを割り当てる. 該当しない単語は, ラベル 0 を割り当てる. BERT に token 列とラベル列を入力し, 推論の出力値の最大のインデックス(ラベル)を得ることにより, 同形異音語の読みの予測值が得られる。書誌と青空文庫コーパスを結合し,得られたコーパスを学習・開発・テストデータとして 6:2:2 の割合で分割し, かつ, 各読みも同じ割合で分割して実験を行った.表 3 書誌・青空文庫コーパスでの読み分類結果
& 読み0 & 読み 1 & & & & & & - accuracy & \\
表 3 では, 書誌と青空文庫の両方のコーパスを結合して使用している. 同形異音語の数は, 93 種類[付録]で, 読みのラベルの総数は 223 個である. 表 3 は, その抜粋である。表 3 の「正解数 0 」は,「読み $0 」$ の「出現数」の中で,予測が正解になった数が「正解数 0」である. 表 3 の「外れ」は, 予測した読みのラベルが, ラベル 0 になった個数である.この「はずれ」の数が少ないので, 全体からは除外した。
表 3 の結果から,「大分」「表」のように意味の異なる読みに対しては,読みのクラス分類ができていることを確認した。
## 5 おわりに
本論文では, 振り仮名注釈付きコーパスを用いて, 203 種類の同形異音語の出現数を調查し, その中の 93 種類に対して読みのクラス分類を BERT により転移学習により行った. 得られた結果から, 本コー パスは意味の異なる読みを区別するのに対して有効であり, 一度に複数の同形異音語を学習・推論できるのは大きな利点であることを確認できた. 今後は,読みの分類の精度の改善, 事前学習済み BERT に含まれない語彙に対しても読みの分類ができる手法の検討,また,ドメインを拡張も行いたいと考えている. 今後も視覚障害当事者の観点から, 視覚障害者の情報障害の課題に取り組んでいきたい.
## 謝辞
青空文庫コーパスの作成と公開にあたっては,全国視覚障害者情報提供施設協会及び日本点字図書館のご理解とご協力を賜りました。この場を借りて御礼申し上げます。
## 参考文献
1. 令和 3 年版障害者白書(全体版)- 内閣府 https://www8.cao.go.jp/shougai/whitepaper/r03hak usho/zenbun/index-pdf.html
2. Devlin, Jacob, et al. "Bert: Pre-training of deep bidirectional transformers for language understanding." arXiv preprint arXiv:1810.04805 (2018).
3. 佐藤文一, 吉永直樹, 喜連川優. "書誌データ・青空文庫・点字データを用いた振り仮名注釈付き日本語コーパスの構築." 研究報告アクセシビリティ (AAC) 2021.13 (2021) : 1-8.
4. 国立国会図書館サーチが提供する OAI-PMH https://iss.ndl.go.jp/information/api/api-lists/oaipmh_info/
5. 青空文庫 Aozora Bunko
https://www.aozora.gr.jp
6. サピエとは
https://www.sapie.or.jp/sapie.shtml
7. 国立国会図書館の書誌データから作成した振り仮名のデータセット https://github.com/ndllab/huriganacorpus-ndlbib
8. 青空文庫及びサピエの点字データから作成した振り仮名のデータセット
https://github.com/ndl-lab/huriganacorpus-aozora
9. GitHub - cl-tohoku_bert-japanese BERT models for Japanese text https://github.com/cl-tohoku/bertjapanese
10. 羽鳥潤, 鈴木久美. "機械翻訳手法に基づいた日本語の読み推定." (2011).
11. 高橋文彦, 森信介. "仮名漢字変換ログを用いた単語分割・読み推定の精度向上." 研究報告自然言語処理(NL)2014.15(2014): 1-10.
12. 西山浩気, 山本和英, 中嶋秀治. "読み曖昧性解消のためのデータセット構築手法." 人工知能学会全国大会論文集第 32 回全国大会 (2018). 一般社団法人人工知能学会, 2018.
13. 曹鋭, et al. "BERT を利用した教師あり学習による語義曖昧性解消." 言語資源活用ワークショップ発表論文集= Proceedings of Language
Resources Workshop. No. 4. 国立国語研究所, 2019.
14. 新納浩幸, 馬ブン."BERT の Masked Language Model を用いた教師なし語義曖昧性解消." 言語処理学会第 27 回年次大会発表論文集
$
\text { (2021) : 1039-1042. }
$
15. 佐藤文一, 喜連川優. "事前学習済夕 BERT の単語埋め込みベクトルによる同形異音語の読み誤りの改善(福祉情報工学)." 電子情報通信学会技術研究報告 $=$ IEICE technical report: 信学技報 119.478 (2020) : 17-21.
16. MeCab: Yet Another Part-of-Speech and Morphological Analyzer https://taku910.github.io/mecab/
17. GitHub - neologd/mecab-ipadic-neologd: Neologism dictionary based on the language resources on the Web for mecab-ipadic https://github.com/neologd/mecab-ipadic-neologd
18.「UniDic」国語研短単位自動解析用辞書最新版ダウンロード
https://ccd.ninjal.ac.jp/unidic/download
19. GitHub - WorksApplications_Sudachi A Japanese Tokenizer for Business https://github.com/WorksApplications/Sudachi
20. 書誌データ $\mathrm{Q \& A} \mid$ 国立国会図書館一National Diet Library https://www.ndl.go.jp/jp/data/faq/index.html
21. 文字・読办の基準 | 国立国会図書館一National Diet Library
https://www.ndl.go.jp/jp/data/catstandards/characte rs/index.html\#yomi
22. 『点訳のてびき第 4 版』(特定非営利活動法人全国視覚障害者情報提供施設協会, 2019 年 2 月発行)
23. GitHub - huggingface_transformers Transformers State-of-the-art Machine Learning for Pytorch, TensorFlow, and JAX
https://github.com/huggingface/transformers
## 付録
出現数を調查した同形異音語(203 種類)
## 1.東北大事前学習済み BERT $\mathrm{v 1 \cdot \mathrm{v} 2$ 両方の語彙 $(87)$}
'表', '角', '大分', '国立', 人人気', '市場', '気質', '役所', '上方', '上手', '下手', '人事', '金星', '仮名', '内面', '礼扯', '遺言', '口腔, '後世', '骨', '一途', '一言', '最中', '一目', '係', '足跡', '今日', '明日', '生物', '変化', '大事', '水車', '一見', '一端', '大家', '心中', '書物', '一角', '一行', '一時', '一定', '一方', '一夜', '下野', '化学', '火口', '花弁', '玩具', '強力', '金色', '経緯', '故郷 ', '紅葉', '行方', '根本', '左右', '山陰', '十分', '上下', '身体', '水面', '世論', '清水', '大手', '大人', '大勢', '中間', '日向', '日時', '夫婦', '牧場', '末期', 利益', '工夫', '一味', '魚', '区分', '施行', '施工', '転生', '博士', '法華', '真面目', '眼鏡', '文字', '文書', '律令'
## 2.東北大事前学習済み BERT v1 の語彙(10)
'教化', '見物', '清浄', '谷間', '追従', '墓石', '大文字', '漢書', '作法', '兵法'
## 3.東北大事前学習済み BERT v2 の語彙(6)
'現世', '日中', '夜中', '前世', '二人', '立像'
## 4.東北大事前学習済み BERTに含まれない語彙(102)
'大人気', '半月', '黒子', '外面', '競売', '開眼', '求道', '血脈', '施業', '借家', 頭蓋骨', '法衣', '昨日', '水柱', '風車', '寒気', '背筋', '逆手', '色紙', '生花', '白髪', '貼付', '一回', '一期', '一月', '一所', '一寸', '一声', '一石', '一日', '一分', , 一文', ,一片 ', '何時', '何分', '火煙', '火傷, '火床', '火先', 火火筒', '芥子', ,気骨', '銀杏', '元金', '五分', '後々', '後生', '御供', '細々', '細目', '三位', '疾風', '菖蒲', '世人', '世路', '船底', '早急', '相乗', '造作', '他言', '東雲', '頭数', '二重', '日供', '日次', '日暮', '日来', '梅雨', '風穴', '仏語, '分別', '面子', '木目', '目下', '夜直', '夜来', '夜話', '野鬼', '野馬', '野分', '野辺', '野面', '野立 ', '冷水', '連中', 飛沫', 翡翠', '餃子', '一足', '意気地', '一昨日', “一昨年', '十八番', '十六夜', '明後日', '石綿', '公文', '読本', '仏国', '古本', '町家', '遊行' | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E7-3.pdf | # BPersona-chat:
A Coherence-Filtered Japanese-English Dialogue Corpus
Yunmeng Li $^{1}$ Jun Suzuki ${ }^{1,3}$ Makoto Morishita ${ }^{2,1}$ Kaori Abe ${ }^{1}$
Ryoko Tokuhisa ${ }^{1}$ Ana Brassard ${ }^{3,1}$ Kentaro Inui $^{1,3}$
${ }^{1}$ Tohoku University ${ }^{2}$ NTT ${ }^{3}$ Riken AIP
li.yunmeng.r1@dc.tohoku.ac.jp
}
\begin{abstract}
Researchers have focused on translating casual texts such as chats in different forms from formal texts in recent years. We strive to improve the accuracy of chat translation while obtaining smooth and natural translations; however, the parallel corpora used for chat translation models are still very limited. In this research, we translated the existing monolingual dialogue corpora, Persona-chat and JPersona-chat, to construct a Japanese-English dialogue corpus named BPersona-chat. To ensure the quality of the corpus, we filter out incoherent dialogues from the Persona-chat dataset via crowdsourcing. Finally, we applied BPersona-chat to classifiers that can judge whether a pair of chats is accurate and natural for evaluations.
\end{abstract
## 1 Introduction
With the development of natural language processing technology, machine translation models have gained sound performances in translating official documents such as news, academic papers, and legal files for languages with abundant resources. In recent years, researchers have turned their attention to translating colloquial dialogues with the existing methods for document translation. However, it has been pointed out that the sentence-level system and the document-level system are not entirely qualified for translating chats due to the unique characteristics of chats such as multi-speakers or information omitted [1,2]. Considering the differences between documents and dialogues, when translating chats, we also have to pay attention to the coherence of dialogues in addition to the correctness of words and grammar. Hence, we need to evaluate chat translation based not only on the traditional BLEU [3] score but also on the coherence and consistency in the flow of chats. Consequently, we built classifiers to evaluate the transla-
Figure 1 An example of evaluating a bilingual chat. The classifier is predicting the type of $2 \mathrm{~A}$ referring to $1 \mathrm{~A}, 1 \mathrm{~B}$ and $2 \mathrm{~B}$.
tion of chats to improve the performance of chat translation in our previous research [4].
In the previous research, we trained Japanese-English classification models to evaluate whether the translated response is accurate and coherent with respect to the chat flow. Figure 1 shows the system for translating and evaluating the translated response between two speakers using English and Japanese. In this system, 1B is the translation of $1 \mathrm{~A}$ provided by a human, and $2 \mathrm{~A}$ is the translation of $2 \mathrm{~B}$ provided by a human or generated by a machine translation model. The classifier can predict the type of $2 \mathrm{~A}$ with the reference data $1 \mathrm{~A}, 1 \mathrm{~B}$, and $2 \mathrm{~B}$, which are from the parallel corpus.
To test the performance of our classifiers, we first applied the in-domain test data from OpenSubtitles2018 [5, 6]. Nevertheless, the classifiers did not show strong agreement when predicting the human-translated data. Considering the quality and characteristics of OpenSubtitles2018, we decided to apply out-of-domain test data to check the performance of the classifiers.
Unfortunately, parallel corpora capable of chat translation are very limited. In particular, parallel corpora containing chats, such as OpenSubtitles, also contains numerous other types of data that are not suitable for evaluating chat translation. There are topical question-and-answer dialogue parallel corpora from past research, including data
with specific scenes and topics. Nevertheless, the topic of the dialogue is too strong to fit in our precondition of casual conversations. Therefore, to achieve our purpose, we decided to build a parallel dialogue corpus for evaluation in this research.
In order to solve this problem, we translated the existing monolingual corpus into bilingual to build a Japanese-English parallel dialogue corpus, named BPersona-chat. Since Persona-chat has noises, we selected understandable and coherent dialogues from the monolingual dataset through crowdsourcing for chat translation to ensure the quality.
To test the performance, we applied the BPersona-chat data to the classifiers. As a result, most human-translated data can be correctly recognized as coherent translations by the classifiers. The total accuracy is at most $95.57 \%$, which is $12.65 \%$ higher than the highest accuracy from our previous results. The accuracy of the human-translated dialogue is at most $97.17 \%$. These results show the performance and generality of our built classifiers. At the same time, they also show the correctness and coherence of the parallel data we built.
## 2 Related Work
To build an ideal parallel dialogue corpus containing high-quality chats, we surveyed existing dialogue corpora. We listed the existing corpora with a focus on their topics, domains, and languages.
BConTrasT and BMELD In the chat translation task of WMT2020 ${ }^{1}$ [1], the organizers provided participants with an English-German parallel corpus, BConTrasT, containing the dialogue data only. The corpus is based on the Taskmaster-1 corpus [7], originally monolingual English language. It includes task-based dialogues in six domains, for example, ordering the pizza or making reservations. The organizers selected a subset of this dataset and translated it into German at the AI-powered Human-refined translation company, Unbabel $2^{2)}$.
Similar to BConTrasT, the BMELD dataset [2] is based on the English dialogue dataset in the MELD [8]. The authors crawled the corresponding Chinese translations from MELD and then manually post-edited them according to the dialogue history of the native Chinese speakers.
Table 1 An example of an incoherent chat from Persona-chat [10].
Business Scene Dialogue Corpus The Business Scene Dialogue (BSD) [9] corpus is a Japanese-English business conversation corpus that includes half of the monolingual scenarios initially written in Japanese and the other half written initially in English.
Persona-chat and JPersona-chat The Persona-chat dataset [10] contains multi-turn dialogues conditioned on personas. Each dialogue was performed between two crowdsourcing workers assuming artificial personas. The persona given to each worker is described by three to five profile sentences, such as "I like to ski," "I am an artist," "I eat sardines for breakfast daily."
Similarly, the JPersona-chat dataset [11], which includes multi-turn conditioned on given personas. is collected in Japanese.
In existing parallel dialogue corpora, dialogue data in BConTrasT and BSD occurred in a specific topic scene, such as meal ordering or business negotiation. We found that some dialogues were similar in Q\&A format or formal texts that did not meet our standard casual conversations. However, the need for casual conversation data in BMELD is mainly in Chinese, therefore unsuitable for the models we trained in previous research [4]. For our motivation, we believe that Persona-chat and JPersona-chat are the most appropriate to build new Japanese-English parallel dialogue corpora. Note that dialogues in both corpora do not have a set topic context despite having a set personality premise. Most of these speakers discussed a given personality trait, including but not limited to self-introduction, hobby, and others.
## 3 Methods and Experiments
## 3.1 Crowdsourcing
We found that Persona-chat contains low-quality conversational data when we manually checked them. These
data have incoherent parts of dialogues, unnatural change of topics, misunderstandings in the foreword, leading to an inability to continue chatting. Table 1 shows an example of incoherent chat from Persona-chat. The noise will significantly impact our results since we want to construct a dialogue database that features a natural and smooth chat with translations. Hence, we prioritized rating Personachat data with crowdsourcing.
We expected to eliminate incoherent or unnatural conversations when rating the Persona-chat data for subsequent translation work finally. However, it is hard to define "incoherence" clearly due to the complexity of the dialogue. In this research, we opted to focus on the overall dialogue from macro vision instead of treating a tiny error as incoherent. We assumed that if there are incongruent connections that influence dialogue comprehension, dialogue is incoherent. To make the crowdsourcing task easier to understand, we informed the workers with the following rules:
We defined "not meshing well (incoherent)" as
- questions are ignored,
- there are unnatural topic changes,
- one is not addressing what the other said,
- responses seem out of order,
- or is hard to follow in general.
Minor issues (grammar or spelling errors) are acceptable when they do not affect chat flow.
Based on these criteria, we invited crowdsourcing workers to label incoherent chats. We chose Amazon Mechanical Turk as our platform for crowdsourcing. As the Persona-chat we wanted to filter is in English, we set the basic qualification types to confirm that they were native English speakers or had adequate English proficiency, living in an English environment for prolonged periods. Since dialogues are ambiguous and the benchmark rules of this experiment are subjective, we first performed a qualification round before conducting a full round of experiments. We excluded some workers whose criteria were outliers by comparing workers' scores. We also ensured that workers entering the full round had positive and effective feedback using the control question. In the full round, we selected 1,500 dialogue datasets from Persona-chat. For each crowdsourcing task, we gave five chats to ten workers. If a worker marks a chat as not-meshing, it is recorded as one point of negative comments; otherwise, it is recorded as one point of positive comments. Finally, we selected high-quality dialogue data from the top 200 conversations with the highest positive ratings. These 200 conversations were marked as good by at least seven of the ten workers.
## 3.2 Translating
We obtained the top-ranked 200 chats considered natural and smooth by crowdsourcing workers from the 1,500 dialogues of Persona-chat.
The top 200 chats are coherent with easy-to-follow flows compared to those rated less. Table 2 shows one of the top 200 chats that were rated higher by crowdsourcing workers and translated by professional translators afterward. For constructing the Japanese-English bilingual corpus, we translated 200 chats from Persona-chat and 250 chats from JPersona-chat. We commissioned professional translators who are proficient in both Japanese and English to ensure the quality of the translation. To ensure that translators could take into account the correctness of translation and the coherence of dialogue, we put the following precautions for translators.
First, we asked translators to translate the chats based on the personas (profile sentences) to ensure the tone and role preference was similar to the original utterances. Secondly, considering the characteristics of the Japanese language, we allowed translators to modify the translated dialogue in English to keep it remain fluent and natural. For example, they could append subjects and phrases, or change the tone of sentences, as shown in Table 3. Finally, we requested translators to avoid translationese. Translators could choose appropriate English words instead of direct transliteration when encountering specific Japanese words. For example, “サラサラした髮” can be translated as "smooth hair". Same for translation from English to Japanese. As a result, we obtain a parallel corpus with 450 dialogues, named BPersona-chat. In total, there are 5,708 utterances.
## 4 Results and Analysis
In the previous research, when applying classifiers on the test data extracting from OpenSubtitles2018, the classifiers could not correctly predict $2 \mathrm{~A}$ that were taken from the corpus, which were supposed to be translated by human translators [4]. We consider the behavior is possibly related to the low quality of OpenSubtitles2018. Accord-
Table 2 An example of the top 200 coherent chat from Persona-chat, rated by crowdsourcing workers.
Table 3 An example of adding sentences and changing tones when translating the original Japanese dialogue to English.
Table 4 Accuracy of classifiers on predicting whether $2 \mathrm{~A}$ is model-translated or human-translated with two datasets.
ing to our previous research, data from OpenSubtitles2018 might contain utterances in one pair that is not a chat but a speech; there might be just a single speaker instead of two speakers or multiple speakers. In addition, the utterances may not initially be in Japanese or English. This is because the OpenSubtitles2018 is a corpus of multi-lingual movie subtitles. Data in OpenSubtitles2018 does not have to come from English movies or Japanese movies. Furthermore, the subtitles are collected using the OpenSubtitles website ${ }^{3)}$, which means the subtitles do not have to be translated by professional translators. Considering the above reasons, the low quality of OpenSubtitles2018 may influence the test results.
Regarding the quality and contents of OpenSubtitles2018, we applied BPersona-chat to the classifiers to confirm the performance. As the classifiers can only predict a pair of utterances instead of the full dialogue, we split each dialogue into 5, 229 pairs of two utterances.
The prediction results on BPersona-chat are shown in Table 4. Compared to the highest accuracy $82.92 \%$ in the previous research, the highest accuracy with BPersonachat is $95.57 \%$, which is $12.65 \%$ higher.
With respect to the accuracy for the human-translated label, the highest accuracy with BPersona-chat (97.17\%) significantly outperformed that with OpenSubtitles 2018 $(72.77 \%)$. Also, the highest accuracy for model-translated label with BPersona-chat (95.70\%) has slightly higher accuracy than that with OpenSubtitles2018 (93.38\%).
Overall, BPersona-chat can be used for evaluating Japanese-English chat translation systems as out-ofdomain data. The classifiers we have created before can gain good results with BPersona-chat on predicting the human-translated chats.
## 5 Conclusion and Future Work
In conclusion, we built a Japanese-English parallel dialogue corpus, BPersona-chat. The BPersona-chat is translated by professional translators based on Persona-chat and JPersona-chat. Compared to task-oriented dialogue datasets, such as BConTrast and Business Scene Dialogue, the BPersona-chat is a chit-chat dialogue corpus containing colloquial chats in Japanese and English. To ensure the chats from Persona-chat are high-quality casual chats, we evaluated 1,500 chats from it and picked the top 200 chats via crowdsourcing. Finally, we applied the data to the classifiers we had built before. Compared to our previous results, we gained a significant improvement on predicting the human-translated data with BPersona-chat.
## Acknowledgements
This work was supported by JSPS KAKENHI Grant Number JP19H04425 and JP20J21694.
## References
[1] M. Amin Farajian, António V. Lopes, André F. T. Martins, Sameen Maruf, and Gholamreza Haffari. Findings of the WMT 2020 shared task on chat translation. In Proceedings of the Fifth Conference on Machine Translation, pp. 65-75, 2020.
[2] Yunlong Liang, Fandong Meng, Yufeng Chen, Jinan Xu, and Jie Zhou. Modeling bilingual conversational characteristics for neural chat translation, 2021.
[3] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics.
[4] Yunmeng Li, Ryo Fujii, Makoto Morishita, Jun Suzuki, and Inui Kentaro. Towards detecting errors: Classifying model-generated output in chat translation. In Proceedings of NLP2021, pp. A3-4, 2021.
[5] Pierre Lison and Jörg Tiedemann. OpenSubtitles2016: Extracting large parallel corpora from movie and TV subtitles. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC'16), pp. 923-929, 2016.
[6] Pierre Lison, Jörg Tiedemann, and Milen Kouylekov. OpenSubtitles2018: Statistical rescoring of sentence alignments in large, noisy parallel corpora. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), pp. 1742-1748, 2018.
[7] Bill Byrne, Karthik Krishnamoorthi, Chinnadhurai Sankar, Arvind Neelakantan, Daniel Duckworth, Semih Yavuz, Ben Goodrich, Amit Dubey, Andy Cedilnik, and Kyu-Young Kim. Taskmaster-1: Toward a realistic and diverse dialog dataset, 2019.
[8] Soujanya Poria, Devamanyu Hazarika, Navonil Majumder, Gautam Naik, Erik Cambria, and Rada Mihalcea. Meld: A multimodal multi-party dataset for emotion recognition in conversations, 2019.
[9] Mat̄̄ss Rikters, Ryokan Ri, Tong Li, and Toshiaki Nakazawa. Designing the business conversation corpus. In Proceedings of the 6th Workshop on Asian Translation, pp. 54-61, Hong Kong, China, November 2019. Association for Computational Linguistics.
[10] Saizheng Zhang, Emily Dinan, Jack Urbanek, Arthur Szlam, Douwe Kiela, and Jason Weston. Personalizing dialogue agents: I have a dog, do you have pets too?, 2018.
[11] Hiroaki Sugiyama, Masahiro Mizukami, Tsunehiro Arimoto, Hiromi Narimatsu, Yuya Chiba, Hideharu Nakajima, and Toyomi Meguro. Empirical analysis of training strategies of transformer-based japanese chit-chat systems, 2021.
Figure 2 A preview of Amazon Mechanical Turk Working Screen. There are five chats in total.
## A Appendix
## A. 1 Detail of Crowdsourcing
Figure 2 shows the working screen of Amazon Mechanical Turk workers. The instruction of the task is shown at the top of the page. In total, there are five chats per assignment. Each chat has a checkbox question at the bottom. If the worker thinks the chat is not meshing well, she or he can tick on the checkbox. At the bottom of the page, there is a check question to check the validity of answers. In the end, workers can write down their advice through the feedback box. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E7-4.pdf | # 選択体系機能言語学に基づく日本語敬語コーパスの構築と検証
Muxuan Liu 小林一郎
お茶の水女子大学
\{liu.muxuan, koba\}@is.ocha.ac.jp
## 概要
日本語は,話者間の社会的地位によって発話文の表現が異なり,それは敬語の使い方の違いに顕著に現れている。日本語は,他の外国語と違い多くの敬語の種類が存在し,機械翻訳や対話システムにおいて,その意味の違いを正しく処理を行うことはとても重要である。しかし,社会的立場を踏まえて敬語を取り扱うようなコーパスは未だ存在しない. 本研究では,このような背景を踏まえ,社会集団の価値や共通の認識に基づいた状況下における言語使用を表現する選択体系機能言語学に則り, 社会的地位関係の情報を含む敬語コーパス(KeiCO コーパス)を構築した.また,BERTを用いた識別課題を行い,構築したコーパスの性能を検証した。
## 1 はじめに
現代日本語には,「-なさる」「おに゙゙-なさる」などの尊敬語や,「おにご-する」「おにご-申し上げる」などの謙譲語が存在する.このような敬語の表現に着目した機械処理の研究はすでに多く行われている [1-5]. 敬語には決まった文法変換規則があるため,この文法規則を用いて簡単な敬語の訂正や補助的なシステムを作ることが可能である.しかし,現実生活においての敬語の使い方は複雑であり, 敬語の生成は, 話者間の社会的地位, 親密さ, 場面などを考慮する必要がある. 敬語の使用について,大規模コーパスを用いて多くの用例から敬語使用の実態を分析するのが一般的だが,実際,言語使用域,対話者間の社会的な役割関係, 対話の手段など, 社会集団の言語使用に関する詳細な情報を含むコーパスが存在しない, それゆえ, 社会的要因を考慮して適切な敬語を使用する機械学習モデルを構築することは容易ではない.
そこで本研究では,これらの問題点を踏まえ,社会集団における言語使用の観点から言語分析を行う選択体系機能言語学に基づき, より詳細な社会的要因に関する分析情報を含む日本語敬語コーパス(KeiCO コーパス)の構築と検証を試みる.また,構築した KeiCOコーパスを一つの言語資源として公開する予定である.
## 2 選択体系機能言語学
選択体系機能言語学 (Systemic Functional Linguistics, SFL:詳細は付録 A. 1 を参照)では,言語体系は,意味層,語彙・文法層,表現層というそれぞれ異なる種類の記号体系が同心円的に階層性を成し, コンテクストによって包括されているとされ,社会集団の価値や共通の認識に基づいた状況下における言語使用を表現する包括的なモデルとなっている (付録:図 2 参照)、コンテクスト層は,言語の使用域を示す「活動領域(フィールド)」,話者間の社会的関係を示す「役割関係 (テナー)」, 使用する媒体を示す「伝達様式(モード)といった3つの特性の下,状況を定義している,言語体系には,それらコンテクストの 3 つの特性それぞれに対応する観念構成的意味, 対人関係的意味,テキスト形成的意味の 3 つのメタ機能が働いており,選択体系網からの言語資源の選択に制約を与えることによって, 状況に適した発話が形成される. 本研究では, 言語生成時に含まれる隠れた情報を得るために,各文に対して,上記 3 点のコンテクスト要素を含む注釈を付与している.とくに,取り扱う敬語は,対人関係的意味を反映して語彙・文法層内に記される叙述の選択体系網から選択された素性に基づき表出される。
図 1 に叙述の選択体系網を示す. 本研究では,この選択体系網に定義される素性を,敬語コーパスへの注釈として用いる。
## 3 KeiCOコーパス
日本語敬語コーパス「KeiCOコーパス」の構築において,敬語に関する書籍 [6] やインターネット上の記事などから敬語表現を含む原文として収集し, クラウドソーシングにより日本語母語話者のアノ
図 1 : 叙述の選択体系網
テータ 40 名に,SFLの素性を注釈として敬語のレベルの付与を依頼した. 各アノテータには約 75 の原文が割り当てられ,原文の意味を維持しつつ,できる限り他の敬語レべルに書き替えてもらった.書き換えが難しい箇所は空欄のままを許可する指示をした.また,書き換え後の文に指定した敬語のレべルを参考にレベルスコアを付けてもらった.上記の作業を終えた後, さらに 20 名の日本語母語話者のアノテータに注釈の正しさを検証を依頼し, 明らかな誤りは手作業での修正を求めた.
このように作成したコーパスは 10,007 文からなり,敬語を処理する機械学習や統計解析のためのコーパスとして,また,日本語学習用教材などとして利用可能である.
表 1 に,KeiCO コーパスの概要を示す. 1 行目は SFL の叙述に関する選択体系網の素性が注釈として示されている。1列目のコーパス文に対して,それぞれの注釈は, 0 または 1 の値が付与されている. 1 はその注釈に該当することを示し,0 はその逆を示している. 各注釈の詳細な定義を,3.1 節に示す.
## 3.1 構成とアノテーション
KeiCO コーパスでは,各文に対して,敬語のレべル,書き言葉,話し言葉,尊敬語,謙譲語,丁寧語と言語使用域(フィールド)の 7 種類の注釈が付与されている.詳細な定義を以下に示す.
## 3.1.1 敬語のレベル
敬語の選択は,主として役割関係(テナー)に反映して行われる。テナーには,社会的地位による上下関係(例,上司と部下,先生と生徒,等)や人間関係の親密さ(例,友人,知り合い,等)といった社会的対人関係も含まれる。
これにより,コーパス中に表現される相手への尊敬の程度は,テナーによって規定可能であると考える. KeiCO コーパスでは,尊敬の程度をテナーを反映した 4 つのレベルを設定した.各レベルを以下のように定義する.
Level 1 : 最高レベルの尊敬度ニュースや,非常にフォーマルな講演,正式的なビジネスメールなどでよく使われる敬語のレベルである.最高レベルの尊敬度に属する文では,日本語の文法規則に従い,動詞が尊敬や謙譲を表す形に変形されることや,それ自体が尊敬の意味を持つ言葉が使われることが一般的である. また,尊敬語と謙譲語を組み合わせた敬語連結の形にもなり得る.
Level 2 : 第ニレベルの尊敬度ビジネスレター,一般的な学術・ビジネス講演, サービス業などで広く使われる. 文法規則に従い,動詞が尊敬や謙譲を表す形に変形されるが,敬語連結の形が少ない.
Level 3 : 第三レベルの尊敬度複雑な動詞変形は使われず,殆どが丁寧語や美化語のみ使われる。
Level 4 : 第四レベルの尊敬度敬語は全く使用されない. レベル 3 よりもカジュアルな表現で,美化語や省略語,ネット用語が登場することもある。
## 3.1.2 書き言葉・話し言葉
敬語はテナーの影響のみならず,伝達様式(モー ド)の影響により,選択される表現が異なる。モー ドには,広義的に多様な伝達媒体によるものもその範疇に含まれ,SNS,電話,メールなどが挙げられるが,狭義的に話し言葉と書き言葉だその範疇とみなされる.KeiCO では文章の敬語校正などのタスクにも適応性があるように,モードに対する素性を書き言葉と話し言葉と定義し注釈付を行なった. 一般に,書き言葉は「だ・である調」,話し言葉は「です・ます調」であると言われている。しかし,現実の場面,例えばビジネスメールの作成などでは,そのような決まりはない。様々な用途へのコーパスの適応性を高めるために,KeiCO コーパスでは書き言葉に略語や方言を含まず,文法規則に従い,文語的な表現が多い言葉と定義した。また,話し言葉は略語や方言,感嘆詞なども含んだ口語的表現が使われる言葉と定義した ${ }^{1)}$.
1)森山 [7]によれば,書き言葉と話し言葉の境界は曖昧であり,人それぞれ定義が異なるという.実際に,日本語母語者にとっても,外国人日本語学習者にとっても,適切な使い分けは容易なことではない
表 1: KeiCO コーパスの概要
& 1 & 1 & 0 & 0 & 1 & 0 & 相談 \\
## 3.1.3 尊敬語・謙譲語・丁寧語
SFL の叙述に関する選択体系網の素性に基づき,尊敬語,謙譲語と丁寧語の 3 つの尊敬表現を注釈として利用する.尊敬語は,話し手が話題の主体である人物を尊重する意思を表現し・尊敬される人の行動,物,名前にも使われる.謙譲語は,話し手が自分の言動を一段下に下げ,聞き手に敬意を示す意思を示す. 丁寧語は,主に「です・ます」など助動詞の語尾編かを促し,話題を美化し,言葉に敬意を込めるために使われる.
## 3.1.4 活動領域
活動領域(フィールド)は,言語の使用域を示し,会話の場面,あるいは,話題を意味する.敬語は, ビジネス文書や講演会など特定の活動領域においてその使用が影響される。そのことを考慮し,KeiCO コーパスでは注釈に具体的な活動領域を示す注釈を付与している. 現在, KeiCO コーパスでは 122 の種類の活動領域をその選択肢としている。(付録:表 5 参照)
## 4 KeiCO コーパス解析
KeiCO の特徴的統計量を表 2 に示す.
## 4.1 統計的分析
KeiCO おける語彙の使用について,最も基礎的な情報である延べ語数と異なる語数を確認し, $K$ 特性値を求めた。
$K$ 特性値 (characteristic $K$ ) は,ユール [8] によって提案された語彙の豊富さを示す指標であり,数値が小さいほど語彙の豊富さが高いことを示す. $K$ 特性值は, 単語の出現頻度がポアソン分布に従うと仮定
している.いま, 延べ語数が $N$, 異なり語数が $V$ である文章の中に, $m$ 回出現した単語数を $V(m, N)$ とした時, $K$ 特性値は式(1)で定義される.
$
K=10^{4} \times \frac{\sum_{\text {all } m}\left[m^{2} V(m, N)\right]-N}{N^{2}}
$
KeiCO において,敬語のレベルの上昇とともに $K$特性値は高くなるが,レベル 2 の短文数が他のレべルに比べ少ないため,レベル 2 は他のレベルより語彙の豊富さが高いと言う結果となった. また,語彙に関する使用について,硬い印象のある漢語に注目し, 1 文に含まれる漢語の平均数を求めた. 結果として,敬語レベルの上昇により漢語の使用量が増えていくことが確認できた.
## 4.2 敬語素性の分類精度
KeiCO コーパスを用いて,コーパス内の注釈に対する分類精度を検証した.分類モデルは,東北大学で構築された汎用日本言語モデル $\mathrm{BERT}_{B A S E}{ }^{2)}$ を使用し,KeiCO コーパスを用いてファインチューニングされ作成されている。 KeiCOコーパス全体を学習データ,検証データ,評価データに $6: 2: 2$ の割合で分割し,エポック数を 30 とした。
表 3 に,KeoCO コーパスの各素性に対する分類精度を表す。コーパスから $0.01,0.1,1$ (total) の割合(約 100 文,1000 文,10000 文)でランダム抽出し, データ量から分類精度への影響を確認する。
結果として,話し言葉,尊敬語,謙譲語,丁寧語は高い分類精度を収める一方で,敬語レベル,書き言葉はやや低い精度になった. また,データ量が 10 倍に増加する平均精度増加率について,敬語レべル,尊敬語,丁寧語は高い一方,書き言葉,話し言
2) https://huggingface.co/cl-tohoku/bert-base-japanese
表 2: レベル別の統計結果
& 延べ語数 & 異なり語数 & $k$ 特性値 \\
Level 2 & 2046 & 16.4 & 2.1 & 33476 & 3897 & 136.23 \\
Level 3 & 2694 & 15.2 & 1.8 & 40980 & 4448 & 130.28 \\
Level 4 & 2683 & 13.5 & 1.6 & 36233 & 4315 & 129.80 \\
表 3: KeiCO コーパスにおける各素性の分類精度 (10 回平均)
葉,謙譲語は非常に低い増加率になった。その中,特に話し言葉は負の平均精度増加率になっている.
尊敬語,丁寧語尊敬語,丁寧語について,分類精度, 平均精度増加率が高い理由は, 文法的特徴が文中に表出しているため,特徴の識別が容易であったためと考える。
話し言葉,謙譲語今回,コーパス中,話し言葉と謙譲語が一方のラベルに偏っているため (付録:表 4 参照), 分類モデルがうまく学習できなかったことが平均精度増加率が低い原因に繫がったと考えている。
敬語レベル 3.1.1 節で述べたように,敬語のレベルは細かく 4 つに分類されるため,他の 2 值分類タスクより精度が劣ったと考えることも自然である。 また高い精度増加率はコーパス中のレベルがバランスよく数が揃えられ,タスクの精度向上に貢献できたとも言える。
書き言葉 3.1.2節で述べたように,書き言葉と話し言葉の境界は曖昧であり明確な注釈づけは難しい. 分類精度向上のためには,複数のアノテータのコンセンサスを用いるなど工夫が必要だと考える.
## 5 おわりに
本研究は,選択体系機能言語学に基づき,話し手と聞き手の社会的地位の情報を反映した,日本語敬語コーパス「Keicoコーパス」を作成した.KeiCO コーパスは,様々な活動領域の下での話者間の社会的役割を踏まえ,伝達様式も考慮して,コーパスに注釈付がされており, 汎用性の高い言語資源とし $\tau$, 機械翻訳の精度の向上, 日本語作文の自動評価・自動修正や文体変換など,様々なタスクに役に立つことを期待している.今回,未対応の課題として,(1) 各ラベルの短文数が均衡ではない点, (2) 書き換えた文の中には,敬語のレベルに合わせた難易度となる適切な語彙に変換されなかったものもあるため,語彙の豊富さに関しては再検討の余地がある点,などが挙げられる。今後,KeiCO コーパスの短文数を増やし,名詞の書き換えなどを重点的に行うつもりである.
## 参考文献
[1] 李国慶, 吉野孝. 外国人向け敬語文理解支援システムの開発. 電子情報通信学会技術報告, pp. 7-12, 2015.
[2] 飛鳥井元晴, 岸義樹. 敬語文章変換システムの作成. 第 77 回全国大会講演論文集, Vol. 2015, No. 1, pp. 177-178, 2015.
[3] 徳丸瑞稀, 川村華峰, 岡村奈々花, 仲山友海, 中野美由紀. ルールベースに基づくビジネスシーンにおける敬語変換手法の検討. 情報処理学会第 82 回全国大会, pp. 409-410, 2020.
[4] P Resmi and C Naseer. A deep learning approach for polite dialogue response generation. In proceedings of the International Conference on Systems, Energy Environment (ICSEE) 2019, August 16, 2019.
[5] Tong Niu and Mohit Bansal. Polite dialogue generation without parallel data. CoRR, Vol. abs/1805.03162, , 2018.
[6] 坂本達, 西方草志. 敬語のお辞典. 三省堂, 2009.
[7] 森山卓郎. 話し言葉と書き言葉を考えるための文法研究用語・12 (特集スキル話しことばと書きことばー新・言文一致のエクササイズ). 国文学解釈と教材の研究, Vol. 48, No. 12, pp. 15-22, oct 2003.
[8] George Udny Yule. The Statistical Study of Literary Vocabulary. Cambridge: At the University Press, 1944.
[9] 小林一郎. 意味へのアプローチ:ハリデー言語学の観点から. 認知科学, Vol. 24, No. 1, pp. 8-15, 2017.
[10] 角岡賢一, 飯村龍一, 五十嵐海理, 福田一雄, 加藤澄.
機能文法による日本語モダリティ研究 (龍谷大学国際社会文化研究所叢書). くろしお出版, 2016.
## A 付録
## A. 1 選択体系機能言語学
選択体系機能言語学 (Systemic Functional Linguistics, SFL)は,文化人類学者の Malinowski の考えにロンドン言語学派の Firth が影響を受け, Firth に師事した M.A.K.Halliday によって確立された言語理論である。他の言語学と SFL との大きな違いは,多くの言語学が多様な意味を包括的に扱うことを避け,言語の意味の取り扱いを限定し,文法の側面に焦点をあてるのに対して, SFL はその理論の中に社会集団の中における文化的背景までを含むコンテクストを導入し,社会の中における言語の機能面から言語体系の考察を行なっていることである. SFLにによって示される言語体系を図 2 に示す.言語体系の各層は選択体系網と呼ばれる選択肢からなるネットワークによって言語資源に関する選択の制約が表現されている。また,階層間は実現規則(realization
図 2: 選択体系機能言語学による言語体系 statements)と呼ばれる制約条件によって有機的に連結されている.SFLによる選択体系網を使った言語資源の体系化とその選択の手続きが,そのまま文生成のアルゴリズムとして適用可能とみなされ,1980 年代には 「システミック文法」と呼ばれて自然言語文生成の主要な言語理論として用いられた.
表 4: KeiCO コーパスにおける各素性の割合
表 5: KeiCO コーパス内の活動領域一覧
& 47 \\
| NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E8-1.pdf | # 『日本語日常会話コーパス』の設計と特徴
小磯花絵 ${ }^{1}$ 天谷 晴香 ${ }^{1}$ 石本 祐一 ${ }^{1}$ 居關 友里子 ${ }^{1}$ 臼田 泰如 ${ }^{1}$ 柏野和佳子 ${ }^{1}$川端 良子 ${ }^{1}$ 田中 弥生 ${ }^{1}$ 伝 康晴 ${ }^{2}$ 西川 賢哉 1 渡邊 友香 ${ }^{1}$
1 国立国語研究所 2 千葉大学
\{koiso, h-amatani,yishi, iseki, usuda, waka, kawabata\}@ninjal .ac.jp
\{yayoi,nishikawa,yuwatanabe\}@ninjal.ac.jp den@chiba-u.jp
## 概要
本稿では 2022 年 3 月に一般公開する 200 時間規模の『日本語日常会話コーパス』(CEJC) の設計と特徴について報告する. CEJC は多様な場面・多様な話者による現実の日常会話をバランスよく格納し,映像まで含めて公開する点に特徴のあるコーパスである. CEJC 全体には音声・映像・転記・形態論情報(長短二種)が,うち 20 時間については更に係り受け情報, 談話行為情報, 韻律情報が提供される.
## 1 はじめに
2016 年度より国立国語研究所共同研究プロジェクト「大規模日常会話コーパスに基づく話し言葉の多角的研究」では 200 時間規模の『日本語日常会話コーパス』(Corpus of Everyday Japanese Conversation, CEJC)の構築を進めてきた [1]. CEJC は,(1) 日常生活で交わされる会話を対象とすること,(2)多様な場面・多様な話者による会話をバランスよく格納すること,(3) 映像まで含めて公開することを特徴とする. 大規模な日常会話を映像まで含めて公開するのは世界的に見ても新しい取り組みである. 2018 年に 50 時間のデータをモニター公開し $[2,3]$, 広く研究に活用されてきたが,2022 年 3 月に 200 時間全体を本公開する. 2 節と 3 節で CEJC 本公開版の設計と特徴をそれぞれ報告する。
## 2 CEJC の設計
## 2.1 収録法
多様な会話をバランスよく収録するために, British National Corpus の話し言葉のパートの収録法 $[4,5]$ を参考に次の 2 つの方法で会話を収録した。
個人密着法性別・年齢をバランスさせた協力者 40 名に,できるだけ多様な場面・話者との会話を収録してもらった. CEJC 200 時間のうち約 185 時間をこの収録法で収集した(表 1).
特定場面法個人密着法で収録された会話のバランスを検証し,不足する会話の種別を特定した上で [6],その不足を補うために,仕事中の会議会合を約 10 時間,中高生の雑談・打合せ等を約 5 時間,計 15 時間をこの収録法で収集した。
表 1 調査協力者の属性と収録データの規模
} & \multicolumn{3}{|c|}{ 男性 } & \multicolumn{3}{|c|}{ 女性 } \\
## 2.2 コーパスの構成
CEJC の構成を図 1 に示す.
& \\
図 1 CEJC の構成
表 2 収録に用いた機材と公開時の映像・音声ファイルの形式
*1 基本収録で複数の映像ソースがある場合,1つの映像データとして合成したものも公開(図 2 参照)
$* 2$ 基本構成 3 台の場合. 他の構成の場合には異なることがある.
*3 会話全体の音声データに問題がある場合,個々人の音声を合成した音源を公開
200 時間に対して,映像・音声データ,転記テキスト,短単位情報(人手修正),長単位情報(自動解析)を提供する。また個人密着法で収録した会話の中から 20 時間を選別してコアとし,人手修正・付与した複数のアノテーションを提供する。規模は,200 時間全体について,会話数 577,延べ話者数 1675 名, 異なり話者数 862 名, 約 240 万語(短単位),コア 20 時間について,会話数 52 ,延べ話者数 169 名,異なり話者数 135 名,約 25 万語である.
## 2.3 映像・音声データ
収録に用いた機材と公開時のファイル形式を表 2 に示す. 図 2 にあるように,原則最大 3 台のカメラを用いて収録した. これら複数の映像を 1 つに合成した映像も作成して提供する.移動時の収録には 1 台のカメラを用い,周囲の様子などを中心に記録した. 電話会話などで映像がないこともある. 音声については,各話者が身に付けた IC レコーダーにより当該話者の音声を記録すると同時に,会話の場の中心に置いた IC レコーダーで会話全体の音声を記録した. 会話全体の音声データに問題がある場合,個々人の音声を合成した音源を作成して公開する。映像・音声データについては収録の状況等により久損もある。収録の詳細は [7]を参照のこと。
図 2 映像データの例. 左の映像は PIXPRO SP360 で,右上下の映像は GoPro 2 台で撮影したもの.
## 2.4 転記テキスト
転記テキストは, 発話単位 [8] と転記単位(発話単位を知覚可能なポーズなどにより区切った単位) という 2 種類の単位を採用し,ELAN / Praatを活用し映像・音声を参照しながら作成した。漢字仮名まじり表記を基本とし,言いさしや言い間違い,非語彙的な母音の延伸,笑いなどを表すタグによって会話に生じる諸現象を表現する [9]. 発音の情報については次節「形態論情報」を参照のこと。
## 2.5 アノテーション
形態論情報形態論情報として短単位情報と長単位情報を提供する $[10,11]$ 。短単位情報は,転記を対象に形態素解析器 MeCab と形態素解析用辞書 UniDic で解析した上で,コーパス全体を対象に人手修正した.語彙素・語形が一意に同定できない語 (例:色紙「シキシ/イロガミ」)は音を聴取した上で特定した。転記のタグを利用して得られる言い間違いを含む実際の発音(例:「(Wジューリョー|柔道)」であれば「ジューリョー」)の情報も提供する。長単位情報は,人手修正された短単位情報を基本に自動解析した上で,コア 20 時間分を人手修正した.
係り受け情報コアを対象に,発話単位を範囲に文節間の係り受け関係の情報を自動で付与した上で人手修正した. BCCWJ-DepPara の基準 [12] に準じ,通常の係り受けの "D",フィラーや言いよどみなど係り先が決められないものの"F" などのラベルを付与した [13].
談話行為情報コアを対象に,ISO 24617-2 [14]をベースに日常会話用に整備した基準に基づき, 発話単位ごとに人手で付与した [15]. 各発話が担う談話機能の情報,および関係を結ぶ発話間の関係を示す依存関係情報が提供される.前者は意味的・語用論
図 3 性別・年齢ごとの延べ話者数と語数(短単位)の分布
的レベルの情報(例:質問,応答,注意獲得,感謝) と,インタラクションレベルの情報(例:修復,会話の開始・終結)からなる.
韻律情報コアに含まれる157名の主たる話者 (店員など一時的に会話に参加するものを除く)のうち,方言の使用状況や音声の質を考慮して 151 名を選別した上で,『日本語話し言葉コーパス』用に整備した X-JToBI [16] の簡略版に準拠して韻律情報を付与した [17]. アクセント句・イントネーション句の境界情報や,句末の音調などが提供される.
会話・話者に関するメタ情報会話に関するメタ情報として,会話形式,話者数,会話が行われた場所,会話中の活動,話者間の関係性,備考情報が,話者に関するメタ情報として,年齢(5 歳刻み),性別,出身地(都道府県,外国の場合は国),居住地 (同),職業,協力者からみた関係性(個人密着法のみ),備考情報が提供される。
検索システム全文検索システム「ひまわり」が同梱されるほか,オンライン検索システム「中納言」 での検索環境(音声再生機能付き)も提供される.「ひまわり」では観察支援システム FishWatchr を統合することで,検索した箇所や転記テキストの任意の位置の映像を簡単に閲覧することができる [18].
## 2.6 データ公開方針
映像・音声・転記テキストの公開に際し,同意書に記した条件に基づき,個人情報等の観点から次の通り加工した. 話者の名前, 所属組織名, 自宅 - 所属組織の住所・電話番号,マイナンバーなどの個人識別符号,および本人が公開を希望しない箇所は,転記テキストで仮名あるいは「*」で伏せ字化し,該当箇所の音声をビープ音で置換した。映像については,収録・公開の同意を得た話者については顔にボカシなどの処理は加えずに公開する.ただし,名札など個人情報を含むものや収録・公開の同意を得
ていない第三者の容貌などが写り込んだ場合については,肖像権や個人情報保護法などを参考に法的・倫理的な観点から問題を整理した上で公開方針を定め,必要と判断した箇所にボカシ処理を加えた. 公開方針の詳細は [19]を参照のこと。
## 3 CEJC の特徵
## 3.1 話者の属性
100 時間の会話を対象とする『名大会話コーパス』 は,現在公開されている日本語母語話者の会話コー パスの中では最も規模の大きなものだが,話者の大半が女性であり約半数が 20 代と,話者の性別・年齢に強い偏りが見られる [3]. CEJC はこうした偏りが生じないよう,2.1 節で言及した通り協力者の選定や収録法などを工夫した。そこで本節では,CEJC に収められている話者の属性(性別・年齢)に偏りがないかを検証する。
性別・年齢ごとに見た延べ話者数と語数の分布を図 3 に示す. CEJC の大半を占める個人密着法では,成人の調査協力者を中心に,友人や同僚,家族などとの会話を収録しているため,必然的に協力者と同世代の話者が多く含まれることになる。図 3 から, 20 代以上の成人について,40 代・50 代の男性が若干少なく女性が多いなどの多少の違いは見られるものの,いずれの世代の男女とも約 100 人以上の話者, 15 万以上の語を含んでおり,概ねバランスよく収録できていることが分かる。一方,未成年者については成人と比べて数が少ない,個人密着法が成人中心の収録法であるため,特定場面法により中高生を対象に友達同士の雑談や部活動の打合せなど 5 時間弱の会話を補ったことから,少なくとも 10 代についてはある程度含まれているが,10歳未満のデー タはかなり限られる。そこで未成年者のデータ拡充のために,2022 年度より,子どもを主対象とする映像付きコーパスを構築するプロジェクトを新たに開
図 4 会話形式・会話の人数・場所・活動に関する CEJC と行動調査の比較:会話件数で見た場合
図 5 会話形式・会話の人数・場所・活動に関する CEJC と行動調査の比較 : 会話時間で見た場合
始する予定である [20].
## 3.2 会話の属性
CEJC の構築に先立ち,普段われわれがどのような種類の会話をどの程度行っているかの指標を得るために,会話行動調査を実施した [21]. 調査では,約 250 人の成人を対象に,起床から就寝までの間に行った全ての会話について,いつ,どこで,誰と,何をしながら,どのような種類の会話を行ったか, などをたずねた。本節ではこの調査結果と比較しながら CEJC のバランスについて検証する.
図 $4 \cdot 5$ に,会話形式・場所・活動・会話の人数に関する CEJC と行動調査の分布を示す. 図 4 は会話の件数で見た場合,図 5 は会話の総時間で見た場合の比較である。なお活動については 1 つの会話に複数付きうるため重複して算出している.
会話形式図 4 の件数で見ると, CEJC では行動調査よりも雑談が少し多く用談相談は少ない傾向だが,図 5 の時間で見るとバランスよく収録できていることが分かる ${ }^{(1)}$.
会話の人数会話形式とは逆に,会話の人数については,件数で見るとバランスよく収録できているが,時間で見ると CEJC は行動調査より 5 人以上の会話の時間が短い傾向が見られる. [21] から,5人以上の場合,1~5 時間の長い会話が多く含まれることが分かっているが,CEJC では多くの会話を収録しバリエーションを確保するために,収録会話を上
(1) 行動調査から現実の日常生活では 5 分未満の短い用談相談が多く,必然的に会話の件数に対し総時間は短くなる.限約 1 時間としている.こうした選定基準が 5 人以上の会話時間の抑制につながっている.
場所・活動場所と活動について, CEJCでは行動調査よりも,自宅・職場での家事雑事・仕事中の会話が若干少なく,飲食店などの商業公共施設や友人宅・実家などの室内での私的活動(友人との付き合いやレジャー活動,課外活動等)中の会話が多い傾向が見られる. 2.1 節で述べたように,個人密着法での収録状況を検証し,職場での仕事中の会話が行動調査よりも少ない傾向にあったことから,特定場面法において仕事中の会議会合約 10 時間を収録した.この増補によりかなりの改善が見られたが,行動調査と同水準となるには致らなかった. なお,自宅での会話数・会話時間が行動調査よりも少ない傾向が見られるが,これはコーパス中の会話のバリエーションを増やすために,あえて自宅での会話を減らしたことによる.
このように行動調査と比べて若干の差はあるものの,会話の形式,会話の人数,場所,活動の観点から CEJC は総じて多様な会話をある程度バランスよく格納していると言うことができるだろう。
## 4 おわりに
本稿では 2022 年 3 月に公開する CEJC の設計と特徴について報告した. オンライン検索システム 「中納言」での無償公開と,映像・音声・転記・アノテーション等を含むコーパス全体の有償公開を行う. 詳細については以下を参照されたい。
https://www2.ninjal.ac.jp/conversation/cejc.html
謝辞本研究は国語研共同研究プロジェクト「大規模日常会話コーパスに基づく話し言葉の多角的研究」の成果を報告したものである.会話収録にご参加くださった皆さまに感謝します.
## 参考文献
[1] 小磯花絵, 居關友里子, 臼田泰如, 柏野和佳子, 川端良子, 田中弥生, 伝康晴, 西川賢哉.『日本語日常会話コーパス』の構築. 言語処理学会第 23 回年次大会発表論文集, pp. 775-778, 2017. https://www.anlp.jp/proceedings/ annual_meeting/2017/pdf_dir/B5-4.pdf.
[2] 小磯花絵, 天谷晴香, 石本祐一, 居關友里子, 臼田泰如, 柏野和佳子, 川端良子, 田中弥生, 伝康晴, 西川賢哉. プロジェクト報告書 3 『日本語日常会話コーパス』モニター公開版コーパスの設計と特徴. 2019. https://www2.ninjal.ac.jp/ conversation/report/report03.pdf.
[3] 小磯花絵, 天谷晴香, 居關友里子, 臼田泰如, 柏野和佳子, 川端良子, 田中弥生, 伝康晴, 西川賢哉. 『日本語日常会話コーパス』モニター版の設計・評価・予備的分析. 国立国語研究所論集, Vol. 18, pp. 17-33, 2020. http://doi.org/10.15084/00002540.
[4] S. Crowdy. The BNC spoken corpus. In G. Leech, G. Myers, and J. Thomas, editors, Spoken English on computer: Transcription, mark-up and application, pp. 224235. Longman, Harlow, U.K., 1995.
[5] Lou Burnard and Guy Aston. The BNC handbook. Edinburgh University Press, Edinburgh, U.K., 1998.
[6] Hanae Koiso, Yasuharu Den, Yuriko Iseki, Wakako Kashino, Yoshiko Kawabata, Ken'ya Nishikawa, Yayoi Tanaka, and Yasuyuki Usuda. Construction of the Corpus of Everyday Japanese Conversation: An interim report. In Proceedings of the 11th edition of Language Resources and Evaluation Conference, pp. 4259-4264, Miyazaki, Japan, 2018. https://aclanthology.org/ L18-1672.
[7] 田中弥生, 柏野和佳子, 角田ゆかり, 伝康晴, 小磯花絵. 『日本語日常会話コーパス』の構築: 会話収録法に着目して. 国立国語研究所論集, Vol. 14, pp. 275-292, 2018. http://doi.org/10.15084/00001424.
[8] JDRI. 発話単位ラベリングマニュアル version 2.1, 2017. http://www.jdri.org/resources/ manuals/uu-doc-2.1.pdf.
[9] 臼田泰如, 川端良子, 西川賢哉, 石本祐一, 小磯花絵.『日本語日常会話コーパス』における転記の基準と作成手法. 国立国語研究所論集, Vol. 15, pp. 177-193, 2018. http://doi.org/10.15084/00001602.
[10] 小椋秀樹, 小磯花絵, 冨士池優美, 宮内佐夜香, 小西光, 原裕. 『現代日本語書き言葉均衡コーパス』形態論情報規程集第 4 版(上), 2011. http: //doi.org/10.15084/00002855.
[11] 小椋秀樹, 小磯花絵, 冨士池優美, 宮内佐夜香, 小西光, 原裕. 『現代日本語書き言葉均衡コーパス』形態論情報規程集第 4 版(下), 2011. http: //doi.org/10.15084/00002856.
[12] 浅原正幸, 松本裕治. 『現代日本語書き言葉均衡コー パス』に対する文節係り受け・並列構造アノテー ション. 自然言語処理, Vol. 25, No. 4, pp. 331-356, 2018. https://doi.org/10.5715/jnlp.25.331.
[13] 浅原正幸, 若狭絢。『日本語日常会話コーパス』に対する係り受け情報アノテーション. 言語処理学会第 28 回年次大会発表論文集, 2022.
[14] ISO 24617-2. Language resource management — semantic annotation framework (SemAF) — Part 2: Dialogue acts, 2012.
[15] Yuriko Iseki, Keisuke Kadota, and Yasuharu Den. Characteristics of everyday conversation derived from the analysis of dialog act annotation. In Proceedings of the 22nd Conference of the Oriental COCOSDA, pp. 1-6, 2019. https://ieeexplore. ieee.org/document/9041235.
[16] 五十嵐陽介, 菊池英明, 前川喜久雄. 韻律情報. 日本語話し言葉コーパスの構築法, pp. 347-453. 国立国語研究所, 2006.
[17] 小磯花絵, 菊池英明, 山田高明. 『日本語日常会話コーパス』への韻律ラベリングーラベリングの設計と日常会話の韻律の特徴一. 人工知能学会研究会資料, Vol. SIG-SLUD-B903, pp. 34-39, 2020.
[18] 山口昌也.「日常会話コーパス」活用環境の構築. 言語資源活用ワークショップ 2018 発表論文集, 2018. http://doi.org/10.15084/00001668.
[19] 小磯花絵, 伝康晴. 『日本語日常会話コーパス』デー 夕公開方針 : 法的・倫理的な観点からの検討を踏まえて. 国立国語研究所論集, Vol. 15, pp. 75-89, 2018. http://doi.org/10.15084/00001597.
[20] 小磯花絵, 居關友里子, 柏野和佳子, 角田ゆかり, 田中弥生, 宮城信. 子どもの会話コーパスの構築に向けて. 言語資源活用ワークショップ発表論文集, Vol. 5, pp. 157-163, 2020. http://doi.org/10.15084/ 00003155.
[21] 小磯花絵, 土屋智行, 渡部涼子, 横森大輔, 相沢正夫, 伝康晴. 均衡会話コーパス設計のための一日の会話行動に関する基礎調査. 国立国語研究所論集, Vol. 10, pp. 85-106, 2016. http: //doi.org/10.15084/00000810. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E8-2.pdf | # UD_English-EWT とのつきあい方
金山博 大湖 卓也
日本アイ・ビー・エム株式会社東京基礎研究所
\{hkana, ohkot \}@jp.ibm.com
## 概要
Universal Dependencies (UD) の各言語のコーパスは、構文解析器の訓練と評価の両面で広く使われている。英語のコーパスの中で最も頻繁に使われている UD_English-EWT は、作成の経緯から、口語的な文や書き誤り、特殊な文字列なども含まれており、訓練・評価の両面で支障がある。本稿では、現状のデータの性質と問題点を紹介するとともに、メタデータを用いてノイズを除去したコーパスを用いて構文解析器を訓練した際の変化を調べる。
## 1 はじめに
Universal Dependencies (UD) $[9,10]$ は、多言語の構文構造を表現するために、17 種の品詞タグと 37 種の関係ラベルを用いた依存構造を定義し、それに基づいたツリーバンク(以下ではコーパスと記す) を作成する世界的なプロジェクトである。 2021 年末現在、122 言語に対する 217 種のコーパスが公開されており、Stanza[11]、UDPipe[14]、Spacy[4] や Trankit[8] などの構文解析器 (文区切り・単語区切り・品詞タグ付け・依存構造解析)の訓練および評価に用いられている。
UD のコーパスは、一つの言語に対して複数個が存在し得るため、「UD_言語名-種別」の形式で名付けられている。日本語の場合は UD_Japanese-GSD, UD_Japanese-BCCWJなどのコーパスが公開されており [17]、それぞれ文体、サイズ、作成の経緯やライセンス形態が異なっており、利用者は目的に応じて使い分けることになる。
英語のコーパスは現在 11 種が公開されているが、 そのうち UD_English-EWT(以下 UD-EWT)が主たるコーパスス ${ }^{1)}$ として作成・利用されてきていた。現在も github 上 $^{2}$ でアノテーションのあり方について
1)2017 年以前はUD_English(無印)として事実上の英語の標準コーパスであった。
2) https://github.com/UniversalDependencies/UD_ English-EWT/表 1 EWT コーパスのジャンルと文数。
アクティブな議論が続いており、改良やバグ修正が行われている。しかしながら、2 節に記すような経緯もあり、英語のメインとなるコーパスとしては質と量の面で課題が残っている。
本稿では、UD-EWT を訓練や評価に利用するにあたっての注意点を挙げるとともに、コーパスを変換して書き誤りを減らすことによる解析器の性能向上を試みる。
## 2 EWT コーパスの成り立ち
English Web Treebank (EWT) は、2012 年より LDC3) で公開されているコーパスであり、様々なジャンルの web 上のテキストデータに対して OntoNotes コー パス [5] に類似した形式の項構造のアノテーションを付与したものである。EWT が作られたきっかけは、OntoNotes やPenn Treebank [7] の中で主に使われるデータが、Wall Street Journal (WSJ) などのニュー ス記事であり、現実世界の言語現象を充分に反映できていないという問題に対処するためである。そこでEWT は、表 1 のように複数の分野からテキストを収集した。但し、EWT の文数は約 1.7 万文と、 10 万文以上に拡張された OntoNotes v5 と比べると遙かに小さい。
ニュース記事と異なる分野のテキストが含まれることにより、現れる構文要素の分布にも特徴がある。WSJ と比較して、倒置や通貨表現が出現する割合は半分以下である一方で、呼格や間投詞は 20 倍以上出現すると報告されている [13]。また、ドイツ語、フランス語などの欧米言語のコーパスにおいて
3) Linguistic Data Consocium.
名詞句となっている文や、文末にピリオド等が無い文の割合が極端に小さいのと比べ、UD-EWT では比較的バランスが取れていることが観察された [18]。
EWT は後に Stanford Dependencies [2] の依存構造の形式に変換され [13]、さらに UD の CoNLL-U フォーマットに変換され、UD-EWT として公開されている。その後、拡張依存構造が加えられ [12]、現在に至る。
WSJ のコーパスに対する品詞タグ付けタスクの精度は 2010 年の段階で $97 \%$ 以上と飽和状態にあり [6]、くだけた文体などの難しい事象が残っているテキストが、その後のシェアドタスク [16] の題材として好適であった。また、UD の初期より商用利用が可能な CC BY-SA のライセンス形式で配布された数少ないコーパスであった4)ことも、UD-EWT の普及を進めたと考えられる。
2015 年の UD v1 の公開以来、アノテーションについては多数の改良がなされてきた。特に 2017 年の UD v2 が導入された際には大幅な変更が加えられた。一方で、文の追加・削除や文区切りはほぼフリーズされており、2021 年公開の UD v2.8 で連続する空白が取り除かれたなど軽微な変更に留まっている。
## 3 コーパス内の事象
EWTコーパスは表 1 に示したような複数のジャンルのテキストを含むため、Penn Treebankなどニュース記事から作成されたコーパスには稀であった現象が見つかる。
まず、インフォーマルな文体として、表 2 の (1) のように機能語を簡略化したものや、さらには前置詞の “to”を “2”, “for”を “4" と書く事象などが見られる。コーパス上ではこれらの lemma は正しい表記に変換されている。また、"gotta”は (2) のように複数語トークン (MWT) として表現され、その構成要素の lemma は本来の “get”, "to” となっている。(3) のような文末のスマイリーがある場合、関係ラベル discourse を用いて文の主辞に係る。
(4) は “your”を“ur”と表記した例であるが、その lemma が “you” であることと関係ラベルを用いて所有格代名詞であることが表現されている。同じ “ur” でも (5) のように“you are”を縮めた場合もあり、解析の際には文脈に応じて判断しなければならない。
表 2 UD-EWT の中でインフォーマルな文体に見られる語の例。ここでは CoNLL-U フォーマットのうち ID、表層、lemma、UPOS、係り先、関係ラベルのみを示す。
表 3 書き誤りの例。
さらに、表 3 の例のような書き誤りが見られる。 (6) は典型的なスペルミスであり、(7) はアポストロフィが欠落している5)。(8) は、アノテーション自体は正常だが、原文では“decidewhether”と空白が欠落していた。逆に (9) は、動詞 “survive” の途中に空白が挿入され “surv ive”となっていた部分へのアノテーションで、UD の規約に従って goeswith のラべルで繋がれる 2 語となっている。(10) は連続する 5 語のうち 3 語にスペルの誤りがある6)。
ウェブサイトの URL(EWTに 194 件出現)や e メールアドレス (10件) の場合、空白が含まれないので一語として認識することは容易7) だが、ファイル名(60 件以上)には “Sanders Letter 4_28_00.doc” のように空白を含むものもあり、一語とみなすか否かなどはコーパス内でも摇れがある。
また、特に e メール由来のコーパスには、区切り線 “-- - - - - - - - - - - - --”や、“| | Tana.Jones@xxy|||yzz.com ||”のような表の一部と思われるものなど、自然言語を逸脱したものも数多く見受けられる。
5)これが書き誤りなのか、書き手の意図した文体なのかを区別する明確な基準は無い。
6)解読するアノテータさんの苦労が偲ばれる。
7)コーパスにアノテーションを付与する際にも、また構文解析器にとっても。
## 4 EWT コーパスの問題点
本節では、3 節で紹介したような事象により、 コーパスを構文解析器の訓練や評価に用いる際に弊害が生じるケースを指摘する。
## 4.1 標準形への訂正による問題
表 2 , 表 3 で見たように、くだけた記法や書き誤りがあった場合、正しい8) 形を想定した単語区切りや lemma がアノテートされて、それに基づいた品詞や依存構造が付与されている。
この原文と単語区切りのぺアを用いて単語区切りを訓練すると、(8)のようなケースにより、空白が無くても単語を区切ろうとするモデルが作成される。UDPipe v1 [15] を UD-EWT v2.9 で訓練させたところ、“McDonalds”を “McDonald”と“s”に分割できるようになっていた ${ }^{9)}$ 一方で、英字と数字が混在する製品名などの文字列が過剩に分割される傾向があった。
より大きな問題となるのが lemma の扱いである。本来は活用語の原形を与えるためのもので、辞書で対応するか、未知語に対して規則を作るか訓練させることにより解決する (英語の場合、's’’ ’ed'を外すなど)。UD-EWT の lemma にスペルチェッカー の要素が含まれているため、モデルが複雑になるほか、予期しない副作用が起きる。UDPipe のモデルで UD-EWT のテストデータを解析した結果の中では、“canon”に対して“canion”、“fares”に対して “fary”という lemmaを与えるなど、深刻なエラーが生じていた。
## 4.2 文区切り推定の困難さ
UD-EWT には文書や段落を区切る情報が付与されているが、ニュース記事の例 (11) やe-メールの例 (12) の中には、以下のような単位がそれぞれ一つの段落として含まれている。
(11) Photo from Technology News Wiki Media Foundation, the group behind the Wikipedia ...
(12) Best regards, John Smith
(11) は “Photo from Technology News" が一つめの文、それ以降が次の文となっているが、表層上は句読点などの手がかりは入っていない。(12)も、“Best
regards,"が一つの文となっており、名前の部分は別の文となっている。元の「現実世界の」文書に存在した HTML タグや改行などが失われていると推測されるが、これらを文区切りのタスクとして解決することは困難である。(12) と類似するケースは UD-EWT の訓練・テストデータの双方に含まれるので、訓練させることはできるが、その結果のモデルは UD-EWTへのバイアスがかかったものと言える。
## 4.3 MWT の特殊性
UD-EWT v2.6 以前では、トークンと語は一対一で対応していたが、UD-EWT v2.7 以降で複数語トークン (MWT) が導入され、“I'm” や“don't” などの縮退形が 1 トークン・2 語として扱われるようになった。 しかし、その他にも、(5)のように空白を持たないが複数の語に分割されるケースも MWT となっているため、トークナイズ・単語区切り・文の正規化などの処理が混在する状況となっている。これは、ドイツ語・フランス語等の UDにおいて MWTが前置詞十冠詞の縮退形に限られているのと異なる。特に、MWT は文字毎のオフセットや空白の有無を表現する手段が無いので、利用の際には注意が必要である。
## 5 ノイズ除去の実験
UD-EWT v2.8では、書き誤りや空白の欠落といったノイズがある場合に本来の表記を示す情報が MISC フィールドに付加され、v2.9 ではそれがさらに拡充された。この情報を利用すれば、UD-EWT に含まれるこの種のノイズを除去することができる。本節では、ノイズを除去したコーパスで解析器を訓練した場合の変化を調べる。
## 5.1 コーパスの変換
UD-EWT の dev ブランチ(2021 年 12 月 20 日現在)の訓練・検証データに対して、表 4 (作例) のように、 3 種類の変換を行う。まず、MISC フィールドで CorrectForm が指定されている場合(訓練デー タ中に 533 件存在)、表層形をその表記に改める。 また、CorrectSpaceAfter=Yes が存在する場合(同 81 件)、直後に空白を挿入する。goeswith ラベルで繋がる 2 語(3 語以上や、XPOS タグが ADD の場合を除く) に対しては、それらを 1 語に結合して、原文の空白を除去する (同 39 件)。このようにして各語の表層部分と、文全体の表層形も書き換えることに
表 4 ノイズ除去の例。MISC フィールドと goeswith ラベルを用いて左(品詞タグは省略)から右に変換する。
より、ノイズを除去したコーパスを作成し、これを UD-EWT-clean と呼ぶ。
## 5.2 モデルの再訓練と実験結果
UD-EWT v2. 9 と、UD-EWT-clean を用いて、以下の 3 つの解析器の訓練を行った。
・UDPipe v1 [15] のトークナイザー、品詞タグ付け、係り受け解析。UD v2.5 の訓練に使われたパラメータと embedding を使用。
・BERT [3] を用いた内製の品詞タグ付け器10)。
- Stanza [11] v1.3 の、トークナイザー、MWT、 lemma、品詞タグ付け、係り受け解析のモデル。 それぞれを以下の 3 つのデータで評価する。
EWTUD-EWTv2.9のテストデータの 2,077 文。 news 上記のうち、ニュース記事からなる 284 文。 ON OntoNotes コーパスを UD 形式に変換 [1] したコーパスのテストデータ 9,971 文。
UD の各指標 (F1 值)を表 5 に示す。UDPipe においては、ノイズ除去により EWT のテストデータ上の一部の評価值は微減してしまった。これは、EWT のテストデータ中の訓練データと類似した事象に対応できなくなったためだと思われる。一方、EWTとは独立に作られた ON のデータでは、UDPipe, BERT PoS では全指標においてノイズ除去による効果が出ている11)。比較的インフォーマルな文が少ない news については EWT とON の中間程度となっている。なお、全体的に、Lemma についてはノイズ除去の効果が大きい。これは、書き誤りの要素を排除することにより 4.1 節で見たようなエラーが防げていることによる。但し、Stanza の結果はUDPipe と逆の傾向にある。この原因は調査中である。
10)単語区切り済みの入力に対してXPOS を付与する。
11)EWT の訓練・テストデータの性質によらずに性能を比較できるので、この結果は特に重要だと考えている。表 5 UD EWT v2.9 と clean で訓練した際の結果。太字は有意差をもって高い側の値を示す。
## 6 まとめ
本稿では、UD_English-EWT のコーパスについて、 その成り立ちや含まれる事象、そして分析を難しくする要素を紹介した。また、書き誤り等のノイズを除去したコーパスを作成し、それを解析器の訓練に用いたところ、解析器と評価データによっては、ノイズを除去することにより性能が高まることがわかった。UD-EWTに閉じて訓練・テストを行うシェアドタスクの状況と異なり、実用の場面を考慮して構文解析器を設計・評価する際には、コーパスの性質や問題点を考慮して、ベンチマークの方法に留意する必要があることが示唆される。
## 参考文献
[1] Marie-Catherine de Marneffe, Bill MacCartney, and Christopher D. Manning. Generating typed dependency parses from phrase structure parses. In Proceedings of the Fifth International Conference on Language Resources and Evaluation (LREC'06), Genoa, Italy, May 2006. European Language Resources Association (ELRA).
[2] Marie-Catherine De Marneffe and Christopher D Manning. Stanford typed dependencies manual. Technical report, Technical report, Stanford University, 2008.
[3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[4] Matthew Honnibal, Ines Montani, Sofie Van Landeghem, and Adriane Boyd. spaCy: Industrial-strength Natural Language Processing in Python, 2020.
[5] Eduard Hovy, Mitchell Marcus, Martha Palmer, Lance Ramshaw, and Ralph Weischedel. OntoNotes: The 90\% solution. In Proceedings of the Human Language Technology Conference of the NAACL, Companion Volume: Short Papers, pp. 57-60, New York City, USA, June 2006. Association for Computational Linguistics.
[6] Christopher D. Manning. Part-of-speech tagging from 97\% to 100\%: is it time for some linguistics? In Proceedings of the 12th international conference on Computational linguistics and intelligent text processing - Volume Part I, CICLing'11, pp. 171-189, Berlin, Heidelberg, 2011. Springer-Verlag.
[7] Mitchell P. Marcus, Beatrice Santorini, and Mary Ann Marcinkiewicz. Building a large annotated corpus of English: The Penn Treebank. Computational Linguistics, Vol. 19, No. 2, pp. 313-330, 1993.
[8] Minh Van Nguyen, Viet Dac Lai, Amir Pouran Ben Veyseh, and Thien Huu Nguyen. Trankit: A light-weight transformer-based toolkit for multilingual natural language processing. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: System Demonstrations, pp. 80-90, Online, April 2021. Association for Computational Linguistics.
[9] Joakim Nivre, Marie-Catherine de Marneffe, Filip Ginter, Yoav Goldberg, Jan Hajič, Christopher Manning, Ryan McDonald, Slav Petrov, Sampo Pyysalo, Natalia Silveira, Reut Tsarfaty, and Daniel Zeman. Universal Dependencies v1: A multilingual treebank collection. In Proceedings of the 10th International Conference on Language Resources and Evaluation (LREC 2016), Portorož, Slovenia, 2016.
[10] Joakim Nivre, Marie-Catherine de Marneffe, Filip Ginter, Jan Hajič, Christopher D. Manning, Sampo Pyysalo, Sebastian Schuster, Francis Tyers, and Daniel Zeman. Universal Dependencies v2: An evergrowing multilingual treebank collection. In Proceedings of the 12th Language Resources and Evaluation Conference (LREC 2020), pp.
4034-4043, Marseille, France, May 2020. European Language Resources Association.
[11] Peng Qi, Yuhao Zhang, Yuhui Zhang, Jason Bolton, and Christopher D. Manning. Stanza: A python natural language processing toolkit for many human languages. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 101-108, Online, July 2020. Association for Computational Linguistics.
[12] Sebastian Schuster and Christopher D. Manning. Enhanced English Universal Dependencies: An improved representation for natural language understanding tasks. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC'16), pp. 23712378, Portorož, Slovenia, May 2016. European Language Resources Association (ELRA).
[13] Natalia Silveira, Timothy Dozat, Marie-Catherine de Marneffe, Samuel Bowman, Miriam Connor, John Bauer, and Christopher D. Manning. A gold standard dependency corpus for English. In Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC-2014), 2014.
[14] Milan Straka. UDPipe 2.0 prototype at CoNLL 2018 UD shared task. In Proceedings of the CoNLL 2018 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies, pp. 197-207, Brussels, Belgium, October 2018. Association for Computational Linguistics.
[15] Milan Straka, Jan Hajič, and Jana Straková. UDPipe: trainable pipeline for processing CoNLL-U files performing tokenization, morphological analysis, POS tagging and parsing. In Proceedings of the 10th International Conference on Language Resources and Evaluation (LREC 2016), Portorož, Slovenia, 2016. European Language Resources Association.
[16] Daniel Zeman, Filip Ginter, Jan Hajič, Joakim Nivre, Martin Popel, and Milan Straka. CoNLL 2018 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies. In Proceedings of the CoNLL 2018 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies, Brussels, Belgium, 2018.
[17] 浅原正幸, 金山博, 宮尾祐介, 田中貴秋, 大村舞, 村脇有吾, 松本裕治. Universal Dependencies 日本語コーパス. 自然言語処理, Vol. 26, No. 1, pp. 3-36, 2019.
[18] 金山博, 岩本蘭, 村岡雅康, 大湖卓也, 宮本晃太郎. 名詞句の処理に頑健な構文解析器. 言語処理学会第 27 回年次大会予稿集, March 2021. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E8-3.pdf | # 訪問場所表現グラウンディングのためのアノテーション
大友寬之 ${ }^{1}$ 大内啓樹 1,2 星野智紀 ${ }^{1}$ 井手佑翼 ${ }^{1}$ 渡辺太郎 ${ }^{1}$
1 奈良先端科学技術大学院大学 2 理化学研究所
\{otomo.hiroyuki.ob7, hiroki.ouchi\}@is.naist.jp
\{hoshino.tomoki. ho6, ide.yusuke.ja6, taro\}@is.naist.jp
## 概要
新たなタスク「訪問場所表現グラウンディング」 を提案する. 文章中の人物が訪れた場所の言語表現を抽出し,地図上にグラウンディングすることを目的とする。ここれが可能になれば,旅行プランニングなど多様なアプリケーションへの展開が期待できる.その第一歩として, 本稿ではデータセット構築のためのアノテーション基準を策定する.実際にアノテーション実験を行い,比較的高い作業者間アノテーション一致率が得られることがわかった.
## 1 はじめに
古来から人間は地球上のさまざまな場所を訪れ, その記憶を自然言語で書き留めてきた。旅行記や紀行文はその代表であり,訪れた場所での個人的な経験や感想が記述される.これらの文書を計算機によって読み解き, 訪問場所に関する言語表現と地図上の位置を紐付け,そこで個人が何を経験したのかを抽出できれば,旅行プランニングや観光地ナビゲーションをはじめ多様なアプリケーションへ有効活用できる情報源になると期待できる.特に昨今のコロナ禍により壊滅的な打撃を受けた観光業の再興のため, 位置情報と紐づく主観情報(その場所の体験談や感想)は重要な役割を担う。
本研究では,訪問場所を表す言語表現を地図上へグラウンディングすることを見据え,そのデータセット構築のためのアノテーション基準を策定することを目的とする.具体的には,旅行ブログを対象テキストとし, 著者が実際に訪れた場所(地名や施設名)を複数の作業者にアノテーションしてもらう.ここで重要なのは,「著者が実際にその場所を訪れたかどうか」の判断である.この判断には周辺文脈を読み解く必要があり,時には明示的に書かれていない情報を推測しないと正確に判断できない事例も少なくない. そこで,作業者間のアノテーショ
ン一致率を算出し,どのような事例でアノテーションの一致/不一致が生じるかを分析する. 実験結果として, 全体では比較的高い一致率が得られることがわかった。事例分析の結果,個人の経験に関する言及と一般的な言及が同一文中に混在する場合に不一致が起きやすくなることがわかった.
## 2 訪問場所表現グラウンディング
## 2.1 問題設定と技術的焦点
本稿で提案するタスク「訪問場所表現グラウンディング」を図 1 に示す. 大力文章中で著者が訪れた場所を表す場所参照表現を抽出(ラベリング)し,地図上の適切な位置(緯度・経度)に紐付けること (グラウンディング)を目的とする。例えば図 1 において,著者は「西本願寺」と「銀閣寺」を訪れており,それらを地図上にグラウンディングしている.
本タスクの技術的なポイントは,著者が実際にその場所を訪れたか否かの判定にある。つまり,著者の行動の事実性を文脈から判断する必要がある.例えば図 1 中の「京都」は,場所を参照する言語表現であるが,著者の訪問経験を意味しているわけではなく,一般的な事実への言及であるため,地図にはグラウンディングしない.
ここで,あるタイプのテキストには位置情報が付与されていることもあり,わざわざ本タスクを行う必要はないのではないかという指摘もありうる. たしかに Twitter などのマイクロブログテキストには位置情報が付与されている場合もある. しかしながら,位置情報付きツイートの割合は 1 パーセントに満たないという報告がある [1]. また,著者が発信している場所と文章中で言及している場所は異なる場合も多く, これは本質的な問題である。これらの問題を鑑みると,場所参照表現を正確に抽出し,地図上に紐付けるためのタスク設計およびデータ整備,システム開発は有用であると言える。
図 1 訪問場所表現グラウンディングの概略図
## 2.2 先行研究との関係
関連する研究分野の一つに「場所参照表現解析 (Geoparsing, Toponym Resolution)」[2, 3, 4, 5, 6] が挙げられる。このタスクでは,テキスト中に現れる場所参照表現を抽出し, 各表現に位置情報(緯度・経度)を付与する.典型的には位置情報付き地名・施設名辞書を用いることを前提とし,該当する項目を場所参照表現で辞書引きして位置情報を取得するため,エンティティリンキング (Entity Linking) [7] の一種として捉えることもできる. これらの基本設定に加え,本研究では著者が実際にその場所を訪問したかどうかを問題とする。この新たな視点の導入によって,場所参照表現の周辺文脈をより正確に読み解かなければタスクを解くことはできない.特に,前述したような図 1 中の「京都」の例のように,事実性 (時制,アスペクト,モダリティ)を正確に解析し,一般的な言及なのか著者の実体験に関する言及なのかを峻別する必要がある.このような点から,従来の場所参照表現解析と比べ,本タスクでは意味解析の要素が色濃く要求される点が特色である.
もう一つの関連研究分野として「経験マイニング (Experience Mining)」 [8, 9, 10] が挙げられる.このタスクでは,商品やサービスなどの事物の利用に関する個人の経験を文章から抽出する.経験マイニングでも事実性解析などの意味解析が重要を役割を担う点は我々の提案タスクと共通する。しかしながら,我々の提案タスクは経験マイニングには収まらない問題を含んでいる。それは地図へのグラウンディングである.テキストの世界と地図の世界を繋ぐマルチモーダル処理を目的とする点が明確に異なる. 将来的には,訪問場所における個人の経験や感想を地図上に重ね合わせて表示することによって,拡張地図 (Augmented Map) の生成を目指す。そのための第一歩として,本稿では訪問場所参照表現のアノテーションを行う.
## 3 アノテーション実験
本節では,訪問場所参照表現の人手によるアノテーション実験を行い,作業者間アノテーション一致率をはじめとする種々の分析を行う。
## 3.1 アノテーションの概要
アノテーション作業として,(1) 場所参照表現の抽出と (2) その場所に訪れたと文中で言及しているか否かを表すラベルを付与する。一つ目の作業では,文章中に現れる地名・施設名などの場所参照表現のテキスト範囲を文字単位で同定する。二つ目の作業では,同定済みの場所参照表現の指し示す場所を,文章の著者が実際に訪れ,かつ,文中で訪れていることに言及している場合はVISIT のラベルを付与し,それ以外は OTHER のラベルを付与する。
## 3.2 アノテーションの手順
2 名のアノテーション作業者が実際の作業を行った. データとして,KNB コーパス [11]を利用した. KNB コーパスは 249 記事,4,186 文から構成される解析済みブログコーパスであり,係り受けや固有表現などのアノテーション情報が含まれる。また, KNB コーパスに含まれる記事は,京都観光,携帯電話,スポーツ,グルメのいずれかのテーマで執筆されている. 本稿では京都観光に属する 81 件の記事の内,「旅行記」に該当する記事 29 件をアノテー ション対象の文章とした.KNB コーパスに含まれる各記事の 1 行目はテーマ名とタイトルを表しており,2 行名以降が本文を表している.そこで,旅行記 29 件の各記事の 2 行目以降をアノテーション対象とし,全体の文数は 455 となった. アノテーションツールとして doccano1)を用いた。なお,アノテー ション作業中に場所参照表現かどうかわからない表現があった場合,検索エンジンを用いて調べてよいこととした.
表 1 アノテーションされたラベルの数
作業者 A 作業者 B
表 2 作業者間アノテーション一致率 ( $\mathrm{F}_{1}$ 値)
VISIT OTHER VISIT+OTHER
$\begin{array}{lll}78.33 & 69.71 & 75.00\end{array}$
## 4 結果と考察
表 1 は,2名の作業者によってラベル付けされた VISIT と OTHER の数を表している.
## 4.1 作業者間アノテーション一致率
表 2 は作業者間のアノテーション一致率を表している. 本実験では,一致率として $\mathrm{F}_{1}$ 値を採用する. $\mathrm{F}_{1}$ 值を算出するにあたり,2 名の作業者によるアノテーションのラベルおよびスパンの両方が一致していれば真陽性(True Positive)とみなす。表 2 中のVISIT は,アノテーション結果が VISIT のラベルについて一致率を調べた結果であり, OTHER も同様である。また,表 2 中の VISIT+OTHER は,VISIT と OTHER の両方のラベルの一致率について調べた結果である.
この結果は比較的高い数値であると解釈できる.本アノテーション作業では「実際に著者がその場所を訪れたか」の判断がポイントとなるが,これは事実性(時制,アスペクト,モダリティ情報)の認識に深く関わる。この認識は個人の主観によって摇れる。例えば関連するものとして,日本語 TimeBank のアノテーション作業が挙げられ,概ね 6 割ほどの作業者間アノテーション一致率であったとの報告がある [12]. もちろん, 本稿でのアノテーション作業と異なるため公平な比較はできないが,全体でも 7 割を超える一致率であり,最も重要な VISIT の一致率は 8 割に迫るため悪くない数値であると言える。
## 4.2 固有表現の再現率
実際に本アノテーション(場所参照表現の抽出とラベル付与)を自動化する場合,シンプルな方法として,第一段階目で場所参照表現を抽出し,続いて第二段階目で抽出済み場所参照表現をVISIT や OTHER に分類するといった二段階処理(これは典型表 3 固有表現の再現率
的な Entity Linking や Entity Typing と同じ方法)が考えられる。そこで本節では,第一段階目の場所参照表現抽出のために,一般的な固有表現抽出システムを用いるとどの程度場所参照表現を抽出できるか, その再現率の目安を付けるための分析を行う. さらに,固有表現抽出システムとの比較のため,人手による固有表現のアノテーションの再現率も確認する.
本稿では固有表現抽出システムとして spaCy2)の ja_core_news_lg $\mathrm{g}^{3}$ を用い,モデルの予測結果のうち, FAC,LOC,GPE,ORGのいずれかのラベルを自動付与された言語表現のみをシステム出力(以下,自動 NER)とした。なお,FAC,LOC,GPE,ORG以外のラベルとして予測されたアノテーションは全体の $3 \%$程度であり,システム出力に含まれない.また,人手によってラベル付けされたデータセットとして, KNB コーパスの固有表現アノテーションを用いた.固有表現アノテーションのうち,ラベルが LOCATION もしくは ORGANIZATION の言語表現をシステム出力 (以下,人手 NER)とした. 作業者 2 名によるアノテーションを正解データとして各アノテーションで再現率を計算し,その平均を本節で報告する。
表 3 はラベルごとの再現率を表している。自動 NER において,VISIT+OTHER の再現率が 7 割程度という結果から,固有表現抽出システムが抽出できていない場所参照表現が 3 割程度存在することがわかる. 言い換えると,一般的なサイズの固有表現デー タセットを用いた NER モデルの学習・構築では十分に場所参照表現を抽出できないことが示唆された.したがって,場所参照表現の追加アノテーションデータを用いた NER モデルのファインチューニングや,地名・施設名辞書を用いた新たな手法を考案することによって, 場所参照表現の抽出精度を高めていくことが今後の技術的課題である。
## 4.3 事例の分析
本節では,アノテーション結果のより詳細な分析を行い,現状の到達点や改善点を洗い出す. 2 名の
(a) アノテーションが一致した例
日曜日友人二人を誘って、 ${ }_{\text {VISIT/VISIT }}^{\text {伏見 }}$ の酒蔵見学に行ってきた。朝 10 時、京阪中書島駅で降りて、 5 分程歩くと、月桂冠大倉記念館がある。
VISIT/VISIT
(b) アノテーションが不一致だった例
嵐山に行くのには、寮の前から嵐山行きのバスが都合よく出ているので、それに乗っかればいいだけだが、この際、 $\underset{\text { OTHER/OTHER }}{\text { 京都 }}$ の路面電車もぜひ試してみたいと考えて、京福電鉄を使うルートで行くことにした。
(c)一方の作業者のみによってラベルが付与された例
作業者によってアノテーションされた各事例を,(a) アノテーションが一致した例, (b) 不一致だった例, (c)一方の作業者のみによってラベルが付与された例に分類する. アノテーションが一致した例は 234 件, 不一致だった例は 52 件, 一方の作業者のみによってラベルが付与された例は 52 件確認された.表 4 の上段に示すように,基本的な場所参照表現の抽出とラベル付与は作業者間で概ね一致していることが確認された.
表 4 の中段に,作業者間でアノテーションの判断に不一致が起きた事例を示す.ここでは,文の前半では地名に関する一般的なことを述べているが,後半では著者の経験に言及している。つまり,文頭の 「嵐山に行くのには」の部分は一般的なことを述べている。一方, 文末の「行くことにした。」という述語は著者の経験を述べており, その目的語はゼロ代名詞として扱われている(省略されている)が「嵐山」である.このように,異なる述語との兼ね合いを正確に読み解く必要があるような事例では, 作業者間でVISIT,OTHER のどちらを付与するか判断が分かれやすい傾向が見られた。
表 4 の下段に,一方の作業者のみによってラベルが付与される事例を示す。「五十塔」は「仁和寺」の敷地内に存在する目立つランドマークである。このようなランドマークに対してもアノテーションするかどうかの判断が作業者間で分かれたと考えられる. 類似の例として,「東大寺」の敷地内にある「大仏」や「渋谷駅前」の「ハチ公」などが考えられる。 これらの例のように,ある施設の敷地(領域)内に存在するランドマークもアノテーションするか否かを明確化する必要性が示唆された。
## 5 おわりに
本稿では,新たなタスク「訪問場所表現グラウンディング」を提案し,そのためのアノテーション実験を行った. 結果として,アノテーション作業者間で比較的高い一致率を得ることができた。また,事例の分析によって, アノテーション基準のさらなる明確化の必要性も示唆された. 今後, これらの知見をもとにアノテーション基準を改善した後,大規模なテキストへのアノテーション作業に取り掛かり,本タスクのデータセットを構築する予定である.
## 謝辞
本研究は JSPS 科研費 JP19K20351 の助成を受けたものである.
## 参考文献
[1] Stuart E Middleton, Lee Middleton, and Stefano Modafferi. Real-time crisis mapping of natural disasters using social media. IEEE Intelligent Systems, Vol. 29, No. 2, pp. 9-17, 2013.
[2] Jochen L Leidner. An evaluation dataset for the toponym resolution task. Computers, Environment and Urban Systems, Vol. 30, No. 4, pp. 400-417, 2006.
[3] Jochen L Leidner. Toponym resolution in text: Annotation, evaluation and applications of spatial grounding of place names. Universal-Publishers, 2008.
[4] Grant DeLozier, Jason Baldridge, and Loretta London. Gazetteer-independent toponym resolution using geographic word profiles. In Twenty-Ninth AAAI Conference
on Artificial Intelligence, 2015.
[5] Koji Matsuda, Akira Sasaki, Naoaki Okazaki, and Kentaro Inui. Annotating geographical entities on microblog text. In Proceedings of The 9th Linguistic Annotation Workshop, pp. 85-94, Denver, Colorado, USA, June 2015. Association for Computational Linguistics.
[6] Davy Weissenbacher, Arjun Magge, Karen O'Connor, Matthew Scotch, and Graciela Gonzalez-Hernandez. SemEval-2019 task 12: Toponym resolution in scientific papers. In Proceedings of the 13th International Workshop on Semantic Evaluation, pp. 907-916, Minneapolis, Minnesota, USA, June 2019. Association for Computational Linguistics.
[7] Wei Shen, Jianyong Wang, and Jiawei Han. Entity linking with a knowledge base: Issues, techniques, and solutions. IEEE Transactions on Knowledge and Data Engineering, Vol. 27, No. 2, pp. 443-460, 2014.
[8] Kentaro Inui, Shuya Abe, Kazuo Hara, Hiraku Morita, Chitose Sao, Megumi Eguchi, Asuka Sumida, Koji Murakami, and Suguru Matsuyoshi. Experience mining: Building a large-scale database of personal experiences and opinions from web documents. In 2008 IEEE/WIC/ACM International Conference on Web Intelligence and Intelligent Agent Technology, Vol. 1, pp. 314-321. IEEE, 2008.
[9] Keun Chan Park, Yoonjae Jeong, and Sung Hyon Myaeng. Detecting experiences from weblogs. In Proceedings of the 48th Annual Meeting of the Association for Computational Linguistics, pp. 1464-1472, Uppsala, Sweden, July 2010. Association for Computational Linguistics.
[10] Yunzhong Liu, Yi Chen, Jiliang Tang, and Huan Liu. Context-aware experience extraction from online health forums. In 2015 International Conference on Healthcare Informatics, pp. 42-47. IEEE, 2015.
[11] 橋本力, 黒橋禎夫, 河原大輔, 新里圭司, 永田昌明. 構文・照応・評価情報つきブログコーパスの構築. 自然言語処理, Vol. 18, No. 2, pp. 175-201, 2011.
[12] Masayuki Asahara, Sachi Yasuda, Hikari Konishi, Mizuho Imada, and Kikuo Maekawa. BCCWJ-TimeBank: Temporal and event information annotation on Japanese text. In Proceedings of the 27th Pacific Asia Conference on Language, Information, and Computation (PACLIC 27), pp. 206-214, Taipei, Taiwan, November 2013. Department of English, National Chengchi University. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
E8-4.pdf | # JGLUE: 日本語言語理解ベンチマーク
栗原健太郎 ${ }^{1}$ 河原大輔 1 柴田知秀 2
1 早稲田大学理工学術院 2 ヤフー株式会社
${ }^{1}$ \{kkurihara@akane., dkw@\}waseda.jp
${ }^{2}$ tomshiba@yahoo-corp.jp
## 概要
計算機による言語理解を目指して、複数種類の言語理解タスクを包括的に解くことによってモデルを評価、分析することが盛んに行われている。英語の言語理解ベンチマークである GLUE [1]を先駆けとして、中国語版の CLUE [2] やフランス語版の FLUE [3] などの英語以外の言語でもベンチマークの公開が進んでいる一方で、日本語においてはこのようなベンチマークは存在しない。本研究では、一般的な日本語理解能力を測ることを目的とし、翻訳を介することなく、日本語で一から言語理解ベンチマーク JGLUE を構築する。JGLUE によって日本語自然言語処理における言語理解研究の促進を図る。
## 1 はじめに
高性能な言語理解モデルの研究開発が目下、活発に行われている。言語理解モデルの改良には、言語理解の能力を様々な観点から評価し分析するためのベンチマーク (データセット群) が必要である。英語においては、GLUE (General Language Understanding Evaluation) [1] が構築、公開されている。GLUEである程度の高スコアを達成できる言語理解モデルが開発されると、より難易度の高いベンチマークとして SuperGLUE [4] などが構築され、ベンチマーク構築と言語理解モデル開発の好循環が生まれている。
このような英語における言語理解研究活性化の潮流に乗じて、中国語版の CLUE [2]、フランス語版の FLUE [3]、韓国語版の KLUE [5] などの各言語におけるベンチマークの構築や、XGLUE [6] などの多言語ベンチマークの構築が進んでいる。
日本語においては、現在のところ、GLUE のようなベンチマークは存在せず、多言語ベンチマークにおいても日本語データは少数しか含まれていない。個々の日本語データセットは構築されているが、翻訳を介した構築手法を用いているか、特定のドメイ
ンを対象にしているものが多い。例えば、JSNLI [7] や JSICK [8] などは、英語のデータセットからの機械翻訳あるいは人手翻訳によって構築されている。 いずれの翻訳手法でも翻訳文の不自然さや日本との文化差が大きな問題となる。また、JRTEコーパス [9] や運転ドメイン QA データセット [10] は、ホテルレビューや運転行動を対象としたデータセットであり、一般的なドメインの言語理解能力を測るのには向かない。
本研究では、一般的な日本語理解能力を測ることを目的とし、翻訳を介することなく、日本語で一から言語理解ベンチマーク JGLUE を構築する。 JGLUE は、文章分類、文ペア分類、QA の 3 種類のタスクから構成し、GLUE および SuperGLUE のタスクを幅広くカバーするように設計した (表 1)。本べンチマークによって日本語における言語理解研究が活性化することを期待する。
## 2 JGLUE の構築
JGLUE は、表 1 のとおり、文章分類、文ペア分類、 QAのタスクから構成する。以下では、各タスクのデータセットの構築方法について説明する。各デー タセットの構築はクラウドソーシング1)を用いて行う。ただし、文章分類タスクの一つである JCoLA (日本語容認性判断データセット) [11] は東京大学大関研究室から提供される予定であり、本稿では説明しない。
1) Yahoo!クラウドソーシングを用いた。
図 $1 \mathrm{JSTS}$ ・JNLI の構築フロー (画像の出典: いらすとや , ONWA イラスト )
表 2 JSTS・JNLI の例: 由来について、A, B, C はそれぞれ (JSTS-A, JNLI-A), (JSTS-B), (JSTS-C, JNLI-C) に含まれる文ぺアであることを示す。
## 2.1 MARC-ja
文章分類タスクの一つとして、多言語商品レビューコーパス MARC (Multilingual Amazon Reviews Corpus) [12] を使用してデータセットを構築する。
MARC は、通信販売サイト「アマゾン」における商品レビューとそれに対する 1~5 の 5 段階の評価をまとめたコーパスであり、英語や日本語などの複数言語で公開されている。JGLUE においては、 MARC の日本語部分を使用し、容易に判断可能な問題にするために、 5 段階の評価のうち 3 を除く 4 つの評価について、1,2を“negative”、4,5を“positive” に変換して用いた 2 值分類タスクとする。
MARC における問題点として、positive な内容のレビューに対して低評価がついている場合など、内容と評価が乘離したデータが含まれている場合があることが挙げられる。これらのデータには、レビュー内容と明らかに異なるラベルが割り振られるため、データセットの品質を低下させる。
評価に用いる dev/test データについては高品質なものにするために、 positive, negative 判定タスクをクラウドソーシングで実施する。多数決により正解ラ
ベルを振り直すとともに、票が割れる事例については除去する。
評価指標には精度 (acc) を用いる。
## $2.2 \mathrm{JSTS \cdot \mathrm{JNLI}$}
文ペア分類タスクについては、意味的類似度計算 (Semantic Textual Similarity, STS) データセット JSTS および自然言語推論 (Natural Language Inference, NLI) データセット JNLI を構築する。
STS は文ペアの意味的な類似度を推定するタスクである。正解の類似度は、 0 (意味が完全に異なる)~ 5 (意味が等価) の間の値として付与されるのが一般的である。NLI は、前提文と仮説文の文ペアが与えられたときに、前提文が仮説文に対してもつ推論関係を認識するタスクである。推論関係としては「含意 (entailment)」「矛盾 (contradiction)」「中立 (neutral)」の 3 值で定義されるのが一般的である。
STS, NLI タスクは GLUE において、それぞれ STS-B [13], MultiNLI [14] データセットが含まれている。日本語では、NLI データセット SNLI (Stanford NLI) [15] を機械翻訳した JSNLI [7]、STS/NLI データセット SICK [16] を人手翻訳した JSICK [8] がある。
しかし、1節で述べたように、これらには翻訳に由来する問題があるため、本研究では日本語で一から構築する。
JSTS と JNLI の文ペアは基本的に、YJ Captions Dataset [17] (以下、YJ Captions と呼ぶ) から抽出する2)。SICK や JSICK と同様に、JSTS と JNLIを構成する文ペアの大部分は重複しており、同じ文ぺアに対する類似度と推論関係の関係を分析することができる。JSTS における類似度は STS-B と同様に $0 \sim 5$ の実数値とし、JNLI における推論関係は MultiNLI などと同様に上記の 3 值とする。
JSTS と JNLI の構築フローを図 1 に示す。基本的
ションを文ペアとし、クラウドソーシングによって類似度 (図 1 の JSTS-A) および entailment と neutral の NLI 事例 (図 1 の JNLI-A) を得る。しかし、ある画像に対する 2 つのキャプションからは類似度の低い文ぺアと contradiction 関係をもつ文ぺアを収集することが難しいという問題がある。そこで、異なる画像に対するキャプションから類似度の低い文ペアを収集し(図1のJSTS-B)、contradiction 関係については、あるキャプションに対して矛盾する文をワー カに作文してもらうことによって収集する (図19 JNLI-C)。作文で収集した contradiction 関係の事例についてもワーカに類似度を付与してもらう (図1の JSTS-C)。
以上の手続きによって獲得した JSTS-A, B, C の 3 つで JSTS、また JNLI-A, C の 2 つで JNLIを構築した。表 2 に JSTS と JNLI の例を示す。
JSTS の評価指標には、STS-B と同様に Pearson および Spearman 相関係数を用いる。JNLI の評価指標には、MultiNLI と同様に精度を用いる。
## 2.3 JSQuAD
QA タスクとして機械読解タスクの一つである SQuAD の日本語版と、次節で説明する CommonsenseQA の日本語版を構築する。
機械読解タスクは文書を読み、それに関する質問に対して答えるというタスクである。多くの機械読解評価セットは英語で構築されているが、その他の言語での機械読解評価セット ( [20] など) や多言語の評価セット ( [21] など) が構築されている。
2) YJ Captions は MS COCO Caption Dataset [18] の日本語版で、 MS COCO [19] に含まれる画像に日本語のキャプションを 5 文ずつクラウドソーシングで付与することによって構築されている。
[タイトル] 東海道新幹線
1987 年(昭和62 年)4月 1 日の国鉄分割民営化により、JR東海が運営を継承した。西日本旅客鉄道 (JR西日本) が継承した山陽新幹線とは相互乗り入れが行わ
れており 2020 年 (令和 2 年) 3 月現在、東京駅新大阪駅間の所要時間は最速 2 時間 21 分、最高速度 $285 \mathrm{~km} / \mathrm{h}$ で運行されている。
質問: 2020 年、東京〜新大阪間の最速の所要時間は答え: 2 時間 21 分
質問: 東海道新幹線と相互乗り入れがされている路線はどこか?
答え: 山陽新幹線
図 $2 \mathrm{JSQuAD}$ の例
問題: 電車に人が乗り降りする場所を何という?
選択肢: 駅, 鉄道会社, 線路, 空港, 港
図 3 JCommonsenseQA の構築フロー
日本語ではクイズを対象にした機械読解評価セット [22] や運転ドメインの評価セット [10] が構築されているが、一般ドメインのものはない。そこで、 Wikipediaを用いて一般ドメインの評価セットを構築する。構築は基本的に SQuAD 1.1 [23] にならう。
まず、 $\left(\mathrm{ayuki}^{3}\right.$ )を用いて、高品質な記事 10,000 記事を選出し、そこからランダムに 822 記事を選ぶ4)。次に、記事を段落に分割し、ワーカに各段落を提示し、段落を理解できれば答えられるような質問とその答えを書いてもらう。図 2 に JSQuAD の例を示す。
評価指標は SQuAD にならい、Exact match (EM) と $\mathrm{F}^{5}$ をを用いる。
## 2.4 JCommonsenseQA
JCommonsenseQA は、CommonsenseQA [24] の日本語版データセットであり、常識推論能力を評価するための 5 択 QA 問題で構成する。JCommonsenseQA は、CommonsenseQA と同様に、知識ベース Concept-
3) Nayuki は Wikipedia 内のハイパーリンクに基づき、記事の品質を推定するものである。https://www.nayuki.io/
4)例えば「熊本県」「フランス料理」などの記事がある。
5)英語では F1 は単語単位で計算されているが、日本語で形態素単位で計算すると採用する形態素解析器によって值が異なってしまうので文字単位で計算する。
表 3 JGLUEによる各種モデルの評価結果
& \multicolumn{2}{|c|}{} & & \multicolumn{2}{|c|}{} & \multicolumn{2}{|c|}{} \\
Net [25]をシードとし、クラウドソーシングを用いて構築する。ConceptNet は、2つの概念 (concept) と、 その間の関係 (relation)を表す 3 つ組からなる多言語知識ベースである。3つ組は方向性を持ち、例えば (新幹線, AtLocation, 駅) のように、(source concept, relation, target concept)として表される。
JCommonsenseQA の構築フローを図 3 に示す。まず、source と、それに対して同じ relationを持つ target 3 つからなる集合 (Question Set, QS) を ConceptNet から収集する。次に、各 $\mathrm{QS}$ に対して、1つの target のみが解答となる問題文の作成と、 2 つの誤り選択肢の追加をクラウドソーシングで行う。
評価指標には CommonsenseQA と同様に精度を用いる。
## 3 JGLUE を用いたモデル評価
## 3.1 実験設定
実験に用いた事前学習モデルを付録の C に示す。 ファインチューニングはタスク/データセットに応じて以下のように行った6)。
・文章分類タスクと文ペア分類タスク: [CLS] トークンに対する分類/回帰問題を解く。
- JSQuAD: 各トークンに対して答えのスパンの開始/終了となるかどうかの分類問題を解く7)。
-JCommonsenseQA: 質問と各選択肢を連結し、多肢選択式問題を解く。
dev セットで最適なハイパーパラメータを探索し、最適なハイパーパラメータで test セットで性能を算出した。実験に用いたハイパーパラメータを付録の
6)Hugging Face 社の transformers を用いた。https://github. com/huggingface/transformers
7) XLM-RoBERTa BASE と XLM-RoBERTa LARGE $^{2}$ はトークナイザとして Unigram 言語モデルを利用しており、トークンの区切りと答えのスパンの開始/終了が一致しないことが多く、性能が出ないため対象から除いた。
D に示す。
## 3.2 結果
表 3 に各種モデルのスコアならびにヒューマンスコアを示す。ヒューマンスコアはデータ構築と同様、クラウドソーシングを用いて算出した。モデルの性能の比較は以下のようにまとめることができる。
・全般的には XLM-RoBERTa これは LARGE サイズであることと、事前学習のテキストとして Wikipedia よりも大規模な Common Crawl を使っていることが考えられる。
・基本単位について、サブワード単位と文字単位を比較すると一貫してサブワード単位の方が精度が高い。
$\cdot$ JCommonsenseQA は Wikipedia には記載されにくい常識的な知識を要求することから、 Common Crawl を用いたモデルの精度が高い。
・JCommonsenseQA 以外についてはべストなモデルは人間のスコアと同等または超えている。
公開されているモデルは事前学習のテキスト、学習時間、トークナイザなどの条件が異なるため、精度向上にどの要素が効いているか、厳密には判断できない。今後、他の条件を揃えて例えばトークナイザのみを変えた場合の比較などを行う予定である。
## 4 おわりに
本論文では日本語における言語理解ベンチマー ク JGLUE の構築について述べた。JGLUE v1 は 2022 年 3 月に公開する予定である。JGLUE を用いて、事前学習モデルの包括的な評価や、より難しい評価データの構築が進むことを期待している。今後は GLGE [26] のような生成系タスクや FLEX [27] のような Few-shot タスクのデータセットなどを構築する予定である。
## 謝辞
本研究はヤフー株式会社と早稲田大学の共同研究により実施した。
## 参考文献
[1] Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel Bowman. GLUE: A multi-task benchmark and analysis platform for natural language understanding. In EMNLP2018 Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 353-355, Brussels, Belgium, November 2018. Association for Computational Linguistics.
[2] Liang Xu, Hai Hu, Xuanwei Zhang, Lu Li, Chenjie Cao, Yudong Li, Yechen Xu, Kai Sun, Dian Yu, Cong Yu, Yin Tian, Qianqian Dong, Weitang Liu, Bo Shi, Yiming Cui, Junyi Li, Jun Zeng, Rongzhao Wang, Weijian Xie, Yanting Li, Yina Patterson, Zuoyu Tian, Yiwen Zhang, He Zhou, Shaoweihua Liu, Zhe Zhao, Qipeng Zhao, Cong Yue, Xinrui Zhang, Zhengliang Yang, Kyle Richardson, and Zhenzhong Lan. CLUE: A Chinese language understanding evaluation benchmark. In COLING2020, pp. 4762-4772, Barcelona, Spain (Online), December 2020.
[3] Hang Le, Loïc Vial, Jibril Frej, Vincent Segonne, Maximin Coavoux, Benjamin Lecouteux, Alexandre Allauzen, Benoit Crabbé, Laurent Besacier, and Didier Schwab. FlauBERT: Unsupervised language model pre-training for French. In LREC2020, pp. 2479-2490, Marseille, France, May 2020. European Language Resources Association.
[4] Alex Wang, Yada Pruksachatkun, Nikita Nangia, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel Bowman. SuperGLUE: A stickier benchmark for general-purpose language understanding systems. In $\mathrm{H}$. Wallach, H. Larochelle, A. Beygelzimer, F. d'Alché-Buc, E. Fox, and R. Garnett, editors, Advances in NeuralIPS, Vol. 32. Curran Associates, Inc., 2019.
[5] Sungjoon Park, Jihyung Moon, Sungdong Kim, Won Ik Cho, Ji Yoon Han, Jangwon Park, Chisung Song, Junseong Kim, Youngsook Song, Taehwan Oh, Joohong Lee, Juhyun Oh, Sungwon Lyu, Younghoon Jeong, Inkwon Lee, Sangwoo Seo, Dongjun Lee, Hyunwoo Kim, Myeonghwa Lee, Seongbo Jang, Seungwon Do, Sunkyoung Kim, Kyungtae Lim, Jongwon Lee, Kyumin Park, Jamin Shin, Seonghyun Kim, Lucy Park, Alice Oh, Jung-Woo Ha, and Kyunghyun Cho. KLUE: Korean language understanding evaluation. In Thirty-fifth Conference on NeuralIPS Datasets and Benchmarks Track (Round 2), 2021.
[6] Yaobo Liang, Nan Duan, Yeyun Gong, Ning Wu, Fenfei Guo, Weizhen Qi, Ming Gong, Linjun Shou, Daxin Jiang, Guihong Cao, Xiaodong Fan, Ruofei Zhang, Rahul Agrawal, Edward Cui, Sining Wei, Taroon Bharti, Ying Qiao, Jiun-Hung Chen, Winnie Wu, Shuguang Liu, Fan Yang, Daniel Campos, Rangan Majumder, and Ming Zhou. Xglue: A new benchmark dataset for cross-lingual pre-training, understanding and generation, 2020.
[7] 吉越卓見, 河原大輔, 黒橋禎夫. 機械翻訳を用いた自然言語推論データセットの多言語化. 情報処理学会研究報告第 244 回自然言語処理研究会, pp. 1-8, 2020.
[8] 谷中瞳, 峯島宏次. JSICK: 日本語構成的推論・類似度データセットの構築. 人工知能学会全国大会論文集, Vol. JSAI2021, pp. 4J3GS6f02-4J3GS6f02, 2021.
[9] Yuta Hayashibe. Japanese realistic textual entailment corpus. In LREC2020, pp. 6827-6834, Marseille, France, May 2020. European Language Resources Association.
[10] Norio Takahashi, Tomohide Shibata, Daisuke Kawahara, and Sadao Kurohashi. Machine comprehension improves domainspecific Japanese predicate-argument structure analysis. In MRQA2019, pp. 98-104, Hong Kong, China, November 2019.
[11] 染谷大河, 大関洋平. 日本語版 CoLA の構築. 言語処理学会第 28 回年次大会, 2022.
[12] Phillip Keung, Yichao Lu, György Szarvas, and Noah A. Smith. The multilingual Amazon reviews corpus. In EMNLP2020, pp. 4563-4568, Online, November 2020.
[13] Daniel Cer, Mona Diab, Eneko Agirre, Inigo Lopez-Gazpio, and Lucia Specia. Semeval-2017 task 1: Semantic textual similarity multilingual and crosslingual focused evaluation. In SemEval2017, 2017.
[14] Adina Williams, Nikita Nangia, and Samuel Bowman. A broadcoverage challenge corpus for sentence understanding through inference. In NAACL2018, pp. 1112-1122, New Orleans, Louisiana, June 2018. Association for Computational Linguistics.
[15] Samuel R. Bowman, Gabor Angeli, Christopher Potts, and Christopher D. Manning. A large annotated corpus for learning natural language inference. In EMNLP2015, pp. 632-642, Lisbon, Portugal, September 2015. Association for Computational Linguistics.
[16] Marco Marelli, Stefano Menini, Marco Baroni, Luisa Bentivogli, Raffaella Bernardi, and Roberto Zamparelli. A SICK cure for the evaluation of compositional distributional semantic models. In LREC2014, pp. 216-223, Reykjavik, Iceland, May 2014. European Language Resources Association (ELRA).
[17] Takashi Miyazaki and Nobuyuki Shimizu. Cross-lingual image caption generation. In ACL2016, pp. 1780-1790, 2016.
[18] Xinlei Chen, Hao Fang, Tsung-Yi Lin, Ramakrishna Vedantam, Saurabh Gupta, Piotr Dollar, and C. Lawrence Zitnick. Microsoft COCO captions: Data collection and evaluation server, 2015.
[19] Tsung-Yi Lin, Michael Maire, Serge Belongie, Lubomir Bourdev, Ross Girshick, James Hays, Pietro Perona, Deva Ramanan, C. Lawrence Zitnick, and Piotr Dollár. Microsoft COCO: Common objects in context, 2015.
[20] Yiming Cui, Ting Liu, Wanxiang Che, Li Xiao, Zhipeng Chen, Wentao Ma, Shijin Wang, and Guoping Hu. A span-extraction dataset for Chinese machine reading comprehension. In EMNLPIJCNLP2019, Hong Kong, China, November 2019.
[21] Patrick Lewis, Barlas Oguz, Ruty Rinott, Sebastian Riedel, and Holger Schwenk. MLQA: Evaluating cross-lingual extractive question answering. In ACL2020, Online, July 2020.
[22] 鈴木正敏, 松田耕史, 岡崎直観, 乾健太郎. 読解による解答可能性を付与した質問応答データセットの構築. 言語処理学会第 24 回年次大会, 2018.
[23] Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, and Percy Liang. SQuAD: 100,000+ questions for machine comprehension of text. In EMNLP2016, pp. 2383-2392, Austin, Texas, November 2016.
[24] Alon Talmor, Jonathan Herzig, Nicholas Lourie, and Jonathan Berant. CommonsenseQA: A question answering challenge targeting commonsense knowledge. In NAACL2019, Minneapolis, Minnesota, June 2019.
[25] Robyn Speer, Joshua Chin, and Catherine Havasi. Conceptnet 5.5: An open multilingual graph of general knowledge. AAAI2017, Vol. 31, No. 1, Feb. 2017.
[26] Dayiheng Liu, Yu Yan, Yeyun Gong, Weizhen Qi, Hang Zhang, Jian Jiao, Weizhu Chen, Jie Fu, Linjun Shou, Ming Gong, Pengcheng Wang, Jiusheng Chen, Daxin Jiang, Jiancheng Lv, Ruofei Zhang, Winnie Wu, Ming Zhou, and Nan Duan. GLGE: A new general language generation evaluation benchmark. In ACLIJCNLP 2021 Findings, Online, August 2021.
[27] Jonathan Bragg, Arman Cohan, Kyle Lo, and Iz Beltagy. FLEX: Unifying evaluation for few-shot NLP. In NeurIPS2021, 2021.
表 4 事前学習モデルの詳細
& 日本語 Wikipedia \\
## A JCommonsenseQA の例
JCommonsenseQA の例を図 4 に示す。
問題: 会社の最高責任者を何というか?
選択肢: 教師, 部長, 社長, 部下, バイト
問題: スープを飲む時に使う道具は何?
選択肢:スプーン,メニュー, 血, フォーク,はし
図 4 JCommonsenseQA の例
## B各データセットのラベル分布
MARC-ja, JSTS, JNLI のラベルの分布を表 5 - 7 に示す。
## C 事前学習モデル
実験に用いた事前学習モデルの詳細を表 4 に示す。
## D ハイパーパラメータ
実験に用いたハイパーパラメータを表 8 に示す。
表 8 実験に用いたハイパーパラメータ
(中括弧内の数字はハイパーパラメータサーチをして最適なものを選んだことを示す)
## E 学習データ量を変えた時の精度変化
学習データ量を 0.75 倍、 0.5 倍に変えて精度がどのように変わるかを調べた。モデルは最も精度がよかったモデルを利用した。結果を図 5 に示す。いずれのデータセットでも精度はほぼ飽和しており、構築した学習データ量が十分であることがわかる。
図 5 学習データ量を変えた時の精度変化 (dev セット) | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F1-1.pdf | # 症例報告を対象とした個人情報匿名化のための 病名の識別と評価
細谷 健登 北橋 竜雄
株式会社インテック
\{hosoya_kento, kitahashi_tatsuo\}@intec.co.jp
## 概要
本稿では, データ利活用を見据えて, 営業日報などのテキストデータから個人情報に相当する用語を識別, 除去することを目的に症例報告コーパスを用いて, 固有表現認識による病名識別精度の改善および実用性を重視した固有表現認識の評価方法について提案する. 固有表現認識を個人情報の匿名化に活用する際には, 精度が $100 \%$ とはならない以上, 人の手による確認作業が必要になるため, そのことを前提としてどれだけ目的の固有表現の存在を示せるかの評価指標を提案する. 症例報告のような専門的な内容のコーパスにおける固有表現認識の改善方法として,そのドメインコーパスのみを用いた分散表現のモデルを作成し, 固有表現認識の学習に加えることで精度を向上させる手法を提案する。
## 1 はじめに
近年様々な分野において, 営業日報やコールセンターの応対記録, 臨床データなどのテキストデータの利活用が進んでいる, しかし, 個人情報の取り扱いや情報漏えい防止に関する各種法令およびガイドラインが強化されていく中で, データの活用には個人情報や機微情報の匿名化が必要となっている. 構造化データの場合は個人情報の位置の特定は比較的容易のため, $\mathrm{k}$-匿名化 [1] 等の確立された手法で自動的に行うことは可能である.一方,テキストデータのような非構造化データの場合, どこに個人情報が埋め込まれているかわからないため, 匿名化するには手作業で行わなければならないが, その作業負荷は大きい. これがテキストデータの利活用が進まない一つの要因となっている. これらの作業の負荷軽減のために, 個人情報の自動マスキングというタスクのコンペティションが行われる [2] など, 固有表現認識の活用が求められている.本研究では, 機微情報として病名に注目した固有表現認識を行う. 病名は非常にセンシティブな情報であるため, 機微情報として扱う必要性があるためである. 機微情報である病名を自動的に識別することにより, 匿名化の作業負荷軽減を図ることができる.しかし, 人名や地名などは固有表現認識のためのデータセットが充実し始めているが [3], 病名についてはそのようなデータセットが少なく,一般的に使用することのできる固有表現認識のためのコーパスは確立されていない. 本研究においては, 病名の識別のため, 奈良先端科学技術大学院大学ソーシャル・ コンピューティング研究室 (SOCIOCOM) より提供される MedTxt-CR: 症例報告 (Case Reports) コーパス [4] を用いて病名の固有表現認識モデルを構築し,さらにモデルの精度向上のための手法を提案する。
固有表現認識を個人情報の識別に活用する際に,課題となる点として精度の問題がある. 個人情報の識別では限りなく $100 \%$ に近い精度が求められるが,固有表現認識の精度を $100 \%$ にすることは困難であり, 実際に固有表現認識を活用する場合には, 人の目で確認するという作業が必要となる [5]. 一般的に使用される固有表現認識の精度評価では, 固有表現のアノテーションを正確に予測できた場合のみが正解となり,その正解数に応じて精度の計算を行う. しかし, 個人情報を匿名化する場合は, 予測したアノテー ション位置が完全である必要性は高くない. 予測したい部分の一部でもアノテーションされていれば,手作業で修正することは容易であるためである. そのため本稿では, より実用性を重視し, どれだけ目的の固有表現の存在を示せるかについての固有表現認識の評価方法を提案する。
## 2 関連研究
## 2.1 固有表現認識
固有表現認識は文中の固有表現の位置を識別し, それらのラベルを予測する自然言語処理技術である. 固有表現とは人名, 地名, 団体名などの固有名詞や,時刻や数量などのあらかじめ定義された表現の総称である. 文書中の固有表現を正しく認識することは, 情報抽出や情報検索などの自然言語処理の応用において重要となる.
固有表現認識の多くの研究は系列ラベリングによる手法に基づいており,近年では BERT[6]を用いた事前学習によるニューラル言語モデルを用いた BIO タグ付けによる手法において高い精度が確認されている.
## 2.2 MedTxt-CR: 症例報告 (Case Reports) コーパス
MedTxt-CR: 症例報告 (Case Reports) コーパスは, J-Stage でオープンアクセス公開されている症例報告論文 PDF から OCR 抽出したテキストのコーパスである [4]. OCR エラーによる非文を削除した OCR 抽出テキスト全文書 (3148 件), および単語レベルの OCR エラー修正・NERアノテーション [7] 済みの頻度バランスサブセット (224 件) が提供されているおり, NER アノテーションは病名/症状, 臟器/部位, 特徵/尺度, 変化, 時間表現など, 症例にかかわる様々なアノテーションがされている. 本研究では, 特に病名の識別に注目するため, NERアノテーション済みのテキストから病名/症状のアノテーションのみを残し, その他のアノテーションを除去したものを用いる.
## 3 実験
ニューラル固有表現認識の精度は文字や単語の埋め込みの手法に影響される. 本実験では単語埋め込みの手法を変化させ, 固有表現認識モデルを作成する.また, 本研究における, 固有表現認識モデルには,固有表現認識タスクにおいて高い精度が報告されている, Bi-LSTM + CRF[8] を用いる。
## 3.1 ベースラインモデル
ベースラインモデルとして, 埋め込み表現に文字ベースの言語モデルを使って単語分散表現を構築する Akbik らの手法 (Flair embedding)[9] を用いる。また比較のため, 一般的に高い精度が出るとされる Flair embedding と BERT の分散表現を組み合わせた
ものでも実験を行う.ここで, BERT の事前学習モデルとしては情報通信研究機構データ駆動知能システム研究センターより公開されている NICT BERT 日本語 Pre-trained モデル BPE あり [10]を使用する.
## 3.2 提案手法: ドメインコーパスのみを用 いた分散表現の作成
BERT 等の事前学習モデルを用いる手法の場合,事前学習モデルの学習には大量のデータが必要になるため, 基本的に Wikipedia など, 一般的に見られるテキストを使用して学習が行われている. しかし, 症例報告のようなあるドメインに特化したコーパスを用いる場合, そのドメイン内でのみ見られる単語が多く使用されており, 事前学習モデルでは補い切れないという問題がある. 本研究ではその問題の解決のために, 入力する単語埋め込みに事前学習モデルの分散表現に加え, ドメインコーパスのみを用いて学習した分散表現を加えることで精度の向上を図る. ドメインコーパスにおける分散表現の学習には Word2Vec[11]を用いる. 本実験では, 下記の通りに入力する単語埋め込みを組み合わせたもので実験を行う.
- Flair embedding + Word2Vec
- BERT + Word2Vec
- Flair embedding + BERT + Word2Vec
## 3.3 症例報告コーパスの追加アノテー ション
学習データ量を増やすため, OCR 抽出テキスト全文書から NERアノテーション済みの頻度バランスサブセットに使用されていない文書を取り出し, 手動でアノテーションを行った. アノテーションの手がかりとして, SOCIOCOM で提供される万病辞書 (MANBYO_202106)を用いた形態素解析結果 [12], および標準病名マスター病名検索結果 [13] を元に実施した. 今回追加でアノテーションしたのは 159 件である.ここでアノテーションしたコーパスを学習データに追加し, ベースモデルと同様の手法で学習を行った。
## 3.4 提案評価指標
本実験で作成したモデルの評価指標として, F1 值に加えて実用性を重視した評価指標 (正解指示率) を用いる. 正解指示率では, テストデータのアノテーションにおいて,一部でもアノテーションがされている場合には正解としてカウントする. テス
を識別
## 正解 長与甲型肝硬変と急性アルコール性肝炎と判明した。 \\ 予測 長与甲型肝硬変と急性アルコール性肝炎と判明した。
(c) 1 つの正解部分を 2 つに分けて識別
正解長与甲型肝硬変と急性アルコール性肝炎と判明した。
予測長与甲型肝硬変と急性アルコール性肝炎と判明した。
(d) 2 つの正解部分をまとめて識別
図1 正解指示率において正解とするアノテーション例トデータ内の正解アノテーション数を $N_{c}$, 予測したアノテーション数を $N_{p}$ とし, 正解アノテーションを $s_{c i}\left(b_{c i}, e_{c i}\right)\left(i=1,2, \ldots, N_{c}\right)$, 予測したアノテー ションを $s_{p j}\left(b_{p j}, e_{p j}\right)\left(j=1,2, \ldots, N_{p}\right)$ と表すとする.ここで $, b, e$ はそれぞれアノテーションの開始位置, 終了位置である. このとき, 正解指示率 Score は
$
\begin{aligned}
\text { Score } & =\frac{\sum_{i=1}^{N_{c}} f\left(s_{c i}, S_{p}\right)}{N_{c}} \\
S_{p} & =\left.\{s_{p 1}, s_{p 2}, \ldots, s_{p N_{p}}\right.\} \\
f\left(s_{c i}, S_{p}\right) & = \begin{cases}1 & \exists s_{p j}\left(b_{p j}, e_{p j}\right) \in S_{p} \\
& :\left(b_{c i} \leq b_{p j} \leq e_{c i}\right) \cup\left(b_{c i} \leq e_{p j} \leq e_{c i}\right), \\
0 & \text { otherwize }\end{cases}
\end{aligned}
$
と表される.
図 1 に正解指示率で正解とするアノテーションの例を示す.
## 4 結果
表 1 に固有表現認識の結果を示す. ※を付与したものが提案手法である。
ベースラインの手法と比較すると埋め込みの手法を複数組み合わせた場合は精度が高くなることがわかる. F1 值について比較すると, 提案手法である Flair+W2V, BERT+W2V の結果は, Flair+BERT には劣るものの, ベースラインを上回る精度となり, Flair+BERT+W2V と 3 つを組み合わせた場合が最も高いという結果になった. また, 正解指示率について比較すると, Flair+BERT, および BERT+W2V が同等の値で最も高いという結果となった.表 1 実験結果
新たにアノテーションをしたデータを追加した場合の結果については, F1 值および正解指示率ともに減少するという結果となった.これは, 提供されている NER アノテーション済みの頻度バランスサブセットと新規でアノテーションしたデータでアノテーションの規準が統一されていなかったためであると考えられる。
## 5 おわりに
本稿では症例報告コーパスにおける病名の識別モデルの構築と実用のための固有表現認識の評価指標を提案した. 症例報告コーパスでの病名の識別では,単語埋め込みにドメインコーパスより学習した分散表現を追加することで, 固有表現認識の精度を向上させる手法を提案した. 固有表現認識の評価において正解指示率を用いることで, どの程度目的の固有表現の存在を示すことができるのかの指標となるため, 匿名化に必要なタスクについても固有表現認識モデルの有用度を示すことができる。
個人情報の匿名化について実用化を意識した場合の課題として, まず提案評価指標においての精度を 100\%に近づける必要がある. そのための今後の展望として, モデルの学習方法工夫だけでなく, 辞書やルールベースの手法を組み合わせることでより精度を向上させることが挙げられる. また, データの不足を補うために, 同基準によるアノテーションデータを拡充するための作業フローの整備をしていく必要があると考えられる。
## 謝辞
本研究を行うにあたり, 症例報告コーパスのデー タを提供いただいた奈良先端科学技術大学院大学ソーシャル・コンピューティング研究室の皆様に心より感謝いたします。
## 参考文献
[1] Pierangela Samarati and Latanya Sweeney. Protecting Privacy when Disclosing Information: k-Anonymity and its Enforcement through Generalization and Suppression. Technical report, Computer Science Laboratory, SRI International, 1998.
[2] Nishika 株式会社. 判例の個人情報の自動マスキングコンペ振り返り,2021. https://note.com/ nishika_inc/n/n78447a423abe\#N58Rd.
[3] 近江崇宏. Wikipedia を用いた日本語の固有表現抽出のデータセットの構築. 言語処理学会第 27 回年次大会, 2021.
[4] MedTxt-CR: 症例報告 (Case Reports) コーパス, 2020. https://sociocom.naist.jp/medtxt/cr/.
[5] 荒牧英治, 奥村学. 医療言語処理. コロナ社, 2017.
[6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding, 2019.
[7] Shuntaro Yada, Ayami Joh, Ribeka Tanaka, Fei Cheng, Eiji Aramaki, and Sadao Kurohashi. Towards a Versatile Medical-Annotation Guideline Feasible Without Heavy Medical Knowledge: Starting From Critical Lung Diseases. Proceedings of The 12th Language Resources and Evaluation Conference, pp. 4567-4574, 2020.
[8] Zhiheng Huang, Wei Xu, and Kai Yu. Bidirectional LSTMCRF Models for Sequence Tagging, 2015.
[9] Alan Akbik, Duncan Blythe, and Roland Vollgraf. Contextual String Embeddings for Sequence Labeling. Proceedings of the 27th International Conference on Computational Lingistics, pp. 1638-1649, 2018.
[10] NICT BERT 日本語 Pre-trained モデル, 2020. https: //alaginrc.nict.go.jp/nict-bert/.
[11] Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient Estimation of Word Representations in Vector Space, 2013
[12] 万病辞書 Manbyo-Dictionary, 2021. https:// sociocom.naist.jp/manbyou-dic/.
[13] 標準病名マスター病名検索, 2021. http://www. byomei.org/Scripts/Search/index_search.asp. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F1-2.pdf | # 入れ子型固有表現に対する変分情報ボトルネック法の適用
原田宥都 渡辺太郎
奈良先端科学技術大学院大学
\{harada.yuto.hq4, taro\}@is.naist.jp
## 概要
大規模に事前学習された言語モデルは豊富な意味情報や構文情報を学習しているが,個々のタスクでそれらの全ての情報が必要であるとは限らない. 本研究では,言語モデルの持つ情報のうち,特定の夕スクで重要な情報を取り出す手法として「変分情報ボトルネック法」を用い,これを特に「入れ子型固有表現認識タスク」に適用するための手法を提案する. 実験を通して,提案モデルでは入力特徴の次元を削減することで予測精度が向上することを確認した. また分析の結果,入れ子レベルの深さに応じて,固有表現の予測に重要な情報が異なることを示した.
## 1 はじめに
ELMo [1] や BERT [2] など,巨大な言語資源を用いて訓練された大規模な言語モデルは,特定のタスクに依存しない方法で学習が行われているが,それらは言語に関する汎用的な表現を獲得しているため,近年では様々なタスクにおける最先端の性能に貢献している。
汎用的な埋め込み表現は様々なタスクに役立つ一方で,次元数の大きいものが多く,特定のタスクにおいてはそのような大きな次元数は必要がない可能性もある。タスクを解く上で重要な情報のみを取り出し,適切な次元数へ圧縮することができれば,モデルが入力特徴にフィットしやすくなり,性能が向上することが期待される。また,残された情報を分析することで,そのタスクにおいてどのような情報が重要なのか,という知見を得ることができ,更なる性能向上に役立てることができる。
本研究では,自然言語処理タスクの一つである入れ子型固有表現認識を対象として, 事前学習済み言語モデルに含まれる情報についての調査を行う.
入れ子型固有表現とは,一つの固有表現が,内部に複数の固有表現を含んでいるものを指す. 図 1 に
図13層に入れ子になった固有表現の例
示した例のように,それぞれの固有表現が階層的な構造となっているため,より内側の入れ子レベルの固有表現はスパンが短く,より外側の入れ子レベルの固有表現はスパンが長いという特徴を持つ. 本研究では,異なる入れ子レベルにおいて予測に必要な情報はそれぞれ異なるのではないか,という仮定を置き,各入れ子のレベルにおいて,予測に必要な情報を単語埋め込みから保存する手法を提案する。提案手法では,単語埋め込みから特定の情報のみを保存するために,変分情報ボトルネック法 [3] を用いる.
変分情報ボトルネック法とは,情報ボトルネックの原理に基づくアイデアであり,ニューラルネットワークの入力表現を,予測精度を保ちながら次元圧縮することのできる手法である。
本研究では,この変分情報ボトルネック法をエンコーダとして利用し,入れ子型固有表現認識に適用した. 3 種類の提案モデルについて実験による性能評価を行い,2つの提案モデルがベースラインの性能を上回った. また学習したエンコーダの分析を通して,各入れ子レベルにおいて予測に重要な情報がどのように異なるかを可視化することができた.
## 2 関連研究
## 2.1 入れ子型固有表現認識
入れ子型固有表現認識 (Nested Named Entity Recognition, Nested-NER)は,情報抽出のタスクの一つであり,[4]によって提案され,近年盛んに研究されている。例えば既存のアプローチとして,入れ
子構造を明示的に捉えるようなモデル設計をした特徴べースのアプローチが存在している $[5,6,7,8]$. また,レイヤードモデルを用いたアプローチ $[9,10]$ も有効であることが分かっている.これらの研究では,入れ子を扱わない一般的な NER モデルを積み重ねることで,段階的に大きな固有表現を抽出することにより,入れ子になった固有表現を扱うことができる. [11]ではさらにレイヤードモデルにおける誤差の伝搬などの問題にも対処し, 最先端の性能を達成している.
## 2.2 情報ボトルネック法
情報ボトルネック法(Information Bottleneck)とは,情報理論の分野に起源を持つ手法であり,近年では機械学習において利用されている。 ある信号 $x \in X$ から別の信号 $y \in Y$ を予測する際に,予測に無関係である冗長な情報を取り除いた $X$ の圧縮表現 $T$ を見つけることが目的であり, 次のように記述できる.
$
\mathscr{L}_{I B}=\beta I(X, T)-I(T, Y)
$
$I(-,-)$ は相互情報量を示している.これは, $I(X, T)$ をなるべく最小化しながら $I(Y, T)$ を最大化すること,つまり, 圧縮表現 $T$ が $X$ についての情報を最大限破棄しつつも,T が $Y$ を予測するために必要な情報は最大限保持するということを意味している.
## 2.3 変分情報ボトルネック法
[3] において (1) の効率的な変分推定が提案されており,以下のように導出されている。
$\mathscr{L}_{V I B}=\beta \underset{x}{\mathbb{E}}\left[\operatorname{KL}\left[p_{\theta}(t \mid x), r(t)\right]\right]+\underset{t \sim p_{\theta}(t \mid x)}{\mathbb{E}}\left[-\log q_{\phi}(y \mid t)\right]$
ここで $r(t)$ は $p(t)$ の変分近似、 $q_{\phi}(y \mid t)$ は $p(y \mid t)$ の変分近似である。 $p_{\theta}(t \mid x)$ と $q_{\phi}(y \mid t)$ は独自のパラメータセットを持つニューラルネット,つまりエンコーダとデコーダであることを意味している.
## 2.4 情報ボトルネック法の自然言語処理へ の応用例
情報ボトルネック法は,近年,自然言語処理の分野においても様々な問題解決やモデルの分析の手法として利用されている。構文解析 [12], 要約 [13],低資源の状況における言語モデルの正則化 [14], Transformer モデルの各層の間でトークンの表現がどのように変化しているかの分析 [15],といった事例がある.特に,変分情報ボトルネック法を構文解析タスクに適用した [12] は,特定のタスクのために単語埋め込み表現を専門化させるという汎用性の高い手法であり, 本研究ではこれを参照し,変分情報ボトルネック法を入れ子型固有表現認識タスクに適用する.
## 3 提案手法
## 3.1 ベースライン
我々の入れ子型固有表現認識モデルは,基本的なニューラル・レイヤード・アーキテクチャである Layered-BiLSTM-CRF モデル [10] を参考にしている.図 2 に概要を示したが,それぞれの入れ子レベルに対応して系列ラベリングモデルを学習させ,それらをパイプライン的に積み重ねることで,入れ子型の固有表現を認識する。
ベースラインモデルにおいては,文中の単語は BERT によって単語埋め込み表現へマッピングされ,1層目の入力として用いられる. 2 層目以降においては,下の層の BiLSTM の出力を受け取り,入力として用いる.
## 3.2 変分情報ボトルネック法の適用
本研究では,テキスト $x$ が,事前学習済み言語モデルによって得られた $M$ 次元のべクトル表現として人力されるものとする $\left(x \in \mathbb{R}^{M}\right)$. また,圧縮表現 $t$ も $N$ 次元のベクトルであるとする $\left(t \in \mathbb{R}^{N}\right) . x$ から圧縮表現 $t$ へマッピングする VIB エンコーダ $p_{\theta}(t \mid x)$ は, [3] と同じく, 平均 $\mu(x, \theta)$ 分散 $\sigma^{2}(x, \theta)$ を持つ $\mathrm{N}$ 次元の正規分布で与えられるとし,デコー ダ $q_{\phi}(y \mid t)$ は softmax 関数を通して得られるカテゴリカル分布として,$f(t, \phi)$ とおく. $r(t)$ はデフォルトで正規分布 $\mathcal{N}(0,1)$ とする. この時,式 2 の右辺の第一項は $\mathcal{N}\left(\mu, \sigma^{2}\right)$ と $\mathcal{N}(0,1)$ との KL ダイバージェンスなので
$
\beta \mathrm{KL}[p, r]=-\frac{\beta}{2}\left(|\mu|^{2}+N\left(\sigma^{2}-\log \sigma^{2}-1\right)\right)
$
となり, 式 2 の右辺の第二項は, $x, y$ をデータから, $t$ を再パラメータ化トリック [16] によってサンプルすることで,
$
\operatorname{CrossEnt}(f(\mu(x, \theta)+\sigma(x, \theta) \epsilon, \phi), y)
$
## Model 2
## Model 3
Baseline
図 2 提案モデルのアーキテクチャの概要
となる.ここで $\epsilon \sim \mathcal{N}(0,1)$ である.
## 3.3 提案モデル
モデル 1 : 低層モデル低層モデルでは,VIB エンコーダによる埋め込み表現 $r_{1}$ を 1 層目にのみ入力するため, 1 層目の BiLSTM の出力 $h_{1}$ と 2 層目以降の出力 $h_{i}$ は
$
\begin{array}{r}
h_{1}=\operatorname{BiLSTM}\left(r_{1}\right) \\
h_{i}=\operatorname{BiLSTM}\left(h_{i-1}\right)
\end{array}
$
となる. この場合,VIB エンコーダは, 1 層目の固有表現を予測するために必要な情報をなるべく残すように学習する.そのため,上の層になるほど VIB エンコーダの影響は薄れる。
モデル 2 : 独立モデル独立モデルでは, 全ての層で VIB エンコーダによる埋め込み表現のみを用い
$
h_{i}=\operatorname{BiLSTM}\left(r_{i}\right)
$
となる。この場合,各層で異なる VIB エンコーダを学習するため, VIB エンコーダはその層において必要な情報のみを保存するように学習する。
モデル 3 : 独立十伝搬モデル独立十伝搬モデルでは,VIB エンコーダによる圧縮表現を全ての層に入力し,2 層目以降は下の層 BiLSTM の出力を用いるため, 1 層目の BiLSTM の出力 $h_{1}$ と 2 層目以降の出力 $h_{i}$ は
$
\begin{array}{r}
h_{1}=\operatorname{BiLSTM}\left(r_{1}\right) \\
h_{i}=\operatorname{BiLSTM}\left(h_{i-1}, r_{i}\right)
\end{array}
$
となる.この場合, 2 層目以降の VIB エンコーダは,下の層から伝搬してくる情報と,本当にその層で必要な情報の差分を保存するように学習する。
## 4 実験
## 4.1 実験設定
データセット提案モデルを ACE2005コーパス [17] 上で評価した.
入れ子型固有表現認識のデータセットとして用いられるコーパスとしては他にも GENIA コーパスなどが知られるが,深い入れ子レベルを持つ固有表現が多く存在しているため,ACEコーパスを採用している。また,学習用データとして用いるには数が少ないため,入れ子レベル 4 以上の固有表現は今回は
図 3 Integrated Gradients による VIB エンコーダにおける単語重要度の可視化の例
表 1 提案モデルの性能比較(F1-score)
用いなかった. コーパスの統計についての詳細は,表 A(付録)に示した.
パラメータ設定 BiLSTM-CRF のハイパーパラメータとして,バッチサイズを $100 ,$ 隠れユニットの数を 200,学習率を 0.0045 とした。また VIB エンコーダについて,圧縮比率 $\beta$ を 0.00001 ,学習率を 0.0001 とした. 圧縮次元数 $d$ は $384,192,96,12$ を試した.
## 4.2 結果と考察
各提案モデルの F1 スコアによる性能の比較を表 4.1 に示す. 提案モデルは全て 192 次元に圧縮した場合の結果である. それぞれのベースラインと比較すると,モデル 1 (低層モデル)とモデル 3(独立十伝搬モデル)が,いずれもベースラインの性能を上回っている. 特にモデル 1 において性能が改善されているのは,大きな次元数を持つ入力特徵適切な次元数へ圧縮することが,性能の改善に有用であるからだと考えられる. モデル2(独立モデル)は他のモデルに性能が劣るが,下の層から受け渡される情報がなくともある程度の精度は維持できるということがわかった. レイヤー 2 , レイヤー 3 においては,いずれもモデル 3 のスコアが最も高く, ベー スラインを大幅に改善している。これは,それぞれの層において,下の層からの情報だけでは不足している部分を VIB エンコーダによる入力が補った影響であると考えられる。
Integrated Gradients[18] を用いて,モデル 2 で学習済みの VIB エンコーダの挙動を可視化した結果の一例を図 3 に示している。 それぞれの VIB エンコーダ
は各層のラベルを予測するために必要な情報のみを残すように学習しており,テキストへのハイライトは入力単語の重要度を算出したものである. モデル 1 では特に名詞一単語,またそれを導くような冠詞に強く着目すること,モデル 2 では長めのスパンを持つ名詞句や,それらを導くような単語に強く着目すること, モデル 3 ではモデル 2 の特徴に加えて,助動詞や動詞などの文構造に関わる情報を捉え,それらの重要度を低く付けること,といったそれぞれの傾向があることを確認した.
また,Conductance[19]を計算することにより, VIB エンコーダが BERT の情報から破棄した部分と残した部分をヒートマップとして可視化した例を,図 B(付録)として示している. それぞれの列は約 50 例の単語を, 行は VIB エンコーダに BERT 出力層が入力された直後の 768 のニューロンにおける特徴の重要度を表している。 それぞれのレイヤーにおいてのみ着目される特徴がある,とする仮定は,このようなヒートマップを通して定量的に評価することが可能であり,これについては現在調査中である.
## 5 おわりに
本研究では,変分情報ボトルネック法を入れ子型固有表現認識に適用するための手法を提案した. 提案モデルは,大規模な言語モデルによる埋め込み表現を適切に次元圧縮することで,ベースラインの性能を改善することができた。また,残された情報を Integrated Gradients や Conductance といった手法よって分析・可視化することで,タスクにとって必要な情報はどのようなものであるかについての知見を得ることができ,解釈性の向上に寄与した.
## 謝辞
本研究は JSPS 科研費 JP20K23325 の助成を受けたものである.
## 参考文献
[1] Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, and Luke Zettlemoyer. Deep contextualized word representations. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 2227-2237. Association for Computational Linguistics, June 2018.
[2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186. Association for Computational Linguistics, June 2019.
[3] Alex Alemi, Ian Fischer, Josh Dillon, and Kevin Murphy. Deep variational information bottleneck. In Proceedings of the International Conference on Learning Representations, 2016.
[4] Jenny Rose Finkel and Christopher D. Manning. Nested named entity recognition. In Proceedings of the 2009 Conference on Empirical Methods in Natural Language Processing, pp. 141-150. Association for Computational Linguistics, August 2009.
[5] Bailin Wang, Wei Lu, Yu Wang, and Hongxia Jin. A neural transition-based model for nested mention recognition. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 10111017. Association for Computational Linguistics, OctoberNovember 2018.
[6] Wei Lu and Dan Roth. Joint mention extraction and classification with mention hypergraphs. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 857-867. Association for Computational Linguistics, September 2015.
[7] Aldrian Obaja Muis and Wei Lu. Labeling gaps between words: Recognizing overlapping mentions with mention separators. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 2608-2618. Association for Computational Linguistics, September 2017.
[8] Bailin Wang and Wei Lu. Neural segmental hypergraphs for overlapping mention recognition. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 204-214. Association for Computational Linguistics, October-November 2018.
[9] Beatrice Alex, Barry Haddow, and Claire Grover. Recognising nested named entities in biomedical text. In Biological, translational, and clinical language processing, pp. 65-72. Association for Computational Linguistics, June 2007.
[10] Meizhi Ju, Makoto Miwa, and Sophia Ananiadou. A neural layered model for nested named entity recognition. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Compu- tational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 1446-1459. Association for Computational Linguistics, 2018.
[11] Jue Wang, Lidan Shou, Ke Chen, and Gang Chen. Pyramid: A layered model for nested named entity recognition. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 5918-5928. Association for Computational Linguistics, 2020.
[12] Xiang Lisa Li and Jason Eisner. Specializing word embeddings (for parsing) by information bottleneck. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 2744-2754, Hong Kong, China, 2019. Association for Computational Linguistics.
[13] Peter West, Ari Holtzman, Jan Buys, and Yejin Choi. BottleSum: Unsupervised and self-supervised sentence summarization using the information bottleneck principle. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3752-3761. Association for Computational Linguistics, 2019.
[14] Rabeeh Karimi Mahabadi, Yonatan Belinkov, and James Henderson. Variational information bottleneck for effective low-resource fine-tuning. In International Conference on Learning Representations, 2021.
[15] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017.
[16] Diederik P. Kingma and Max Welling. Auto-Encoding Variational Bayes. In 2nd International Conference on Learning Representations, ICLR 2014, Banff, AB, Canada, April 14-16, 2014, Conference Track Proceedings, 2014.
[17] Christopher Walker, Stephanie Strassel, Julie Medero, and Kazuaki Maeda. Ace 2005 multilingual training corpus. In Linguistic Data Consortium, Philadelphia 57., 2006.
[18] Mukund Sundararajan, Ankur Taly, and Qiqi Yan. Axiomatic attribution for deep networks. In Proceedings of the 34th International Conference on Machine Learning, Vol. $\mathbf{7 0}$ of Proceedings of Machine Learning Research, pp. 3319-3328, 2017.
[19] Kedar Dhamdhere, Mukund Sundararajan, and Qiqi Yan. How important is a neuron? In ICML, 2019.
## A 付録: ACE2005 コーパスの統計的
詳細
## B 付録:VIB エンコーダにおける ニューロンの重要度の可視化
| NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F1-3.pdf | # HTML 構造を補助情報として利用する 日本語ブログ記事からの固有表現抽出
植 塁 ${ }^{1}$ 數見 拓朗 ${ }^{2}$ 小泉和之 ${ }^{1}$
1 横浜市立大学大学院 2 株式会社サイバーエージェント
}^{1}\left.\{}.$ w205607d,zumi\}@yokohama-cu.ac.jp ${ }^{2}$ kazumi_takuro@cyberagent.co.jp
## 概要
Web 上のテキストからの固有表現抽出では, HTML タグが除去され自然言語のテキストのみが利用されていることが多い. 本研究では, HTML 構造を補助情報として利用する固有表現抽出手法を提案する。提案手法は複数あり,グラフニューラルネットワークを用いて HTML 構造を読み取るアプロー チの手法と,単語と HTML タグの系列を既存の固有表現抽出モデルに入力するアプローチの手法に分けられる.また,ブログ記事を用いた実験を通して,提案手法の中でも BERT と Graph Attention Networks を組み合わせた手法と BERT に HTML タグを入力する手法の 2 つが優れた性能を持つことを示す.
## 1 はじめに
現在,Web 上には様々なテキストが蓄積されており,その 1 つとしてブログ記事が挙げられる. 2000 年以降のブログサービスの急速な普及に伴い,日々増加する大量の記事から有用な情報を抽出する技術が求められ,盛んに研究されている $[1,2,3,4]$.
本研究では,HTMLテキストとして記述された日本語ブログ記事からの固有表現抽出を扱う. HTML テキストからの固有表現抽出に関する先行研究では,前処理として HTML タグを除去し自然言語のテキストのみを利用していることが多い $[5,6]$. そこで本研究では,HTML 構造を補助情報として利用する固有表現抽出手法を提案しその有効性を検証する。
本研究では複数の手法を提案するが,それらは大きく 2 種類に分けられる. 1 つ目は,既存の固有表現抽出モデルに HTML タグをトークンとして入力する単純なアプローチである. 2 つ目は,グラフニューラルネットワークを用いて HTML 構造情報を処理するモジュールと既存の固有表現抽出モデル
を用いて自然言語情報を処理するモジュールとを組み合わせるアプローチである.
レシピに関するブログ記事を対象とした実験を行い,提案手法を用いて HTML 構造を補助情報として活用することで既存手法に比べて性能が向上することを確認した.提案手法の中でも特に,BERT [7] と Graph Attention Networks [8] とを組み合わせた手法と,BERT に HTML タグをトークンとして入力する手法の 2 つが高い性能を示すことを確認した.
## 2 関連研究
近年,ニューラルネットワークを用いた固有表現抽出モデルが注目を集め盛んに研究されている. Lample et al. [9] は双方向の LSTM と Conditional Random Field (CRF) を組み合わせた BiLSTM-CRF モデルを提案し,この手法は現在の固有表現抽出の主流となり様々な自然言語データに適用されている. また,自然言語処理分野において汎用的なモデルである BERT [7] をべースにした手法が,いくつかのデータセットにおいて最高性能を記録する [10] などして注目を集めている. Web 上のテキストを扱った研究の例として, Duc et al. [6] が提案した Web 上から固有表現を収集するシステムでは, Google 検索によって収集した Web ページに対して HTML タグを削除した上で固有表現抽出モデルが適用されている.
## 3 手法
## 3.1 HTML タグをトークンとして入力する アプローチ
提案手法 1 : BiLSTM-CRF with Tag この提案手法では,HTML テキストを「単語と HTML タグが入り混じった系列」と見なし,それを埋め込みべクトル系列に変換し BiLSTM-CRF [9] に入力する. 例えば
「今日は<b>ハンバーグ</b>を作る」という文があった場合, 先行研究では HTML タグを除去した系列「今日ハは/ハンバーグにを/作る」を BiLSTM-CRF に入力する場合が多い(例えば [5]など)が,この提案手法では「今日/は/<b>>/ハンバーグ|</b>/を/作る」というそのままの系列を入力する.各トークンの埋め込みべクトルは, 単語については東北大学の研究グループによる日本語 Wikipedia エンティティベクトル [11]で初期化した上でファインチューニングを行い,各種 HTML タグについては乱数で初期化した上で学習させる。なお,HTML タグ内の属性は全て事前に除去し利用せず,開始タグと終了タグは区別して扱う。
提案手法 2: BERT with Tag この提案手法では,前項の手法と同様に HTMLテキストを「単語と HTML タグが入り混じった系列」と見なし,そのまま BERT [7]に入力する.単語の埋め込みベクトルと BERT 内部の Transformer Encoder [12] のパラメー タについては東北大学の研究グループによる事前学習済み BERT モデル [13] で初期化した上でファインチューニングを行い,各種 HTML タグの埋め込みべクトルは乱数で初期化した上で学習させる.
## 3.2 グラフニューラルネットワークを用い て HTML 構造を読み取るアプローチ
本節では,グラフニューラルネットワーク (GNN) を用いて HTML 構造情報を処理するモジュールと既存の固有表現モデルを用いて自然言語情報を処理するモジュールとを組み合わせるアプローチの提案手法を 3 つ説明する.
HTML テキストのグラフ表現 Document Object Model (DOM) [14] は,マークアップされたテキストをツリー構造で表現し操作する仕組みである. HTML テキストは HTML タグでマークアップされたテキストであるため,DOM を用いることでツリー構造のグラフとして表現することができ,これを本論文では DOM グラフと呼ぶこととする.DOM グラフのノードは要素ノードとテキストノードの 2 つに大別できる。例えば「<h1>見出し</h1>」という HTMLテキストは,要素ノード「h1」とテキストノード「見出し」がエッジで繋がった DOM グラフとして表される. 本研究で扱うブログ記事の HTML テキストとそれをDOM グラフとして表したものを図 1 の左側に示す.
GNN によるノード埋め込み抽出したい固有表現はグラフ中の一部のテキストノードに含まれる. そこで本節の提案手法では,GNNを利用しHTML 構造情報を考慮した上で各テキストノードをべクトルに埋め込むことを考える。まず,ノード埋め込みを行う様々な GNN の共通事項を述べる。ノー ド集合 $V$ とエッジ集合 $E$ の組からなるグラフ $G$ において,各ノードの特徵量ベクトル $\boldsymbol{x}_{v}[v \in V]$ を用意する. 最終的な出力は各ノードの埋め込みべクトル $\boldsymbol{y}_{v}^{\mathrm{GNN}}[v \in V]$ である. また,内部に学習可能なパラメータ $\Theta$ を持ちグラフ構造を考慮した変換を行う関数 $f(\cdot ; G, \Theta)$ をレイヤ数の分だけ複数用意する. この関数 $f$ はグラフ上の近傍ノードの特徴量ベクトルを集約するように構成され,具体形は手法によって異なる。また, $\sigma$ を活性化関数とし,ネットワークのレイヤ数は $L$ とする。そして,次式のように更新していくことで,ノードの特徵量 $X_{V}:=\left[x_{1}, x_{2}, \ldots, x_{|V|}\right]^{T}$ を埋め込み表現 $Y^{\mathrm{GNN}}:=\left[\boldsymbol{y}_{1}^{\mathrm{GNN}}, \boldsymbol{y}_{2}^{\mathrm{GNN}}, \ldots, \boldsymbol{y}_{|V|}^{\mathrm{GNN}}\right]^{T}$ に変換する.
$
\begin{aligned}
& \boldsymbol{X}^{(0)}=\boldsymbol{X}_{V} \\
& \boldsymbol{X}^{(l)}=\sigma\left(f\left(\boldsymbol{X}^{(l-1)} ; G, \Theta^{(l)}\right)\right)[l=1,2, \ldots, L-1] \\
& \boldsymbol{Y}^{\mathrm{GNN}}=\boldsymbol{X}^{(L)}=f\left(\boldsymbol{X}^{(L-1)} ; G, \Theta^{(L)}\right)
\end{aligned}
$
次に,本節の 3 つの提案手法それぞれで利用する Graph Convolutional Networks (GCN) [15], GraphSAGE [16], Graph Attention Networks (GAT) [8] について説明する. GCNでは,まずグラフ $G$ の全ノードに自己ループ (自分自身と接続するエッジ)を追加する。 その状態での隣接行列を $\widehat{\boldsymbol{A}}$, 次数行列を $\widehat{\boldsymbol{D}}$ とする. GCN では, 式 (2), (3) の関数 $f$ として, 次式の $f_{\mathrm{GCN}}$ を用いてノード特徴量を変換する。
$
f_{\mathrm{GCN}}(\boldsymbol{X})=\widehat{\boldsymbol{D}}^{-\frac{1}{2}} \widehat{\boldsymbol{A}} \widehat{\boldsymbol{D}}^{-\frac{1}{2}} \boldsymbol{X} \boldsymbol{W}
$
ここで重み行列 $\boldsymbol{W}$ は学習対象のパラメータである. GraphSAGE では複数のモデルが提案されており, その中で本研究では GraphSAGE-mean (GSAGE) を利用する. このモデルでは, 式 (2), (3) の関数 $f$ として,次式の $f_{\mathrm{GSAGE}}$ を用いて各ノードの特徴量ベクトル $v \in V$ を変換する.
$
f_{\mathrm{GSAGE}}\left(\boldsymbol{x}_{v}\right)=\boldsymbol{W}_{1} \boldsymbol{x}_{v}+\boldsymbol{W}_{2} \operatorname{MEAN}\left(\left.\{\boldsymbol{x}_{u} \mid u \in \mathcal{N}^{\prime}(v)\right.\}\right)
$
ここで重み行列 $\boldsymbol{W}_{1}, \boldsymbol{W}_{2}$ は学習対象のパラメータであり,MEAN は平均べクトルをとる操作を表す。また, $\mathcal{N}^{\prime}(v)$ はノードvの近傍ノードをランダムサンプリングして得られる集合であり,これは計算コス
トの削減を目的としている,GATでは,式 (2) の関数 $f$ として, 次式の $f_{\mathrm{GAT}}$ を用いて各ノードの特徴量ベクトル $v \in V$ を変換する.
$
\begin{aligned}
& f_{\mathrm{GAT}}\left(\boldsymbol{x}_{v}\right)=\operatorname{CONCAT}\left(\boldsymbol{h}_{v}^{(1)}, \boldsymbol{h}_{v}^{(2)}, \ldots, \boldsymbol{h}_{v}^{(K)}\right) \\
& \boldsymbol{h}_{v}^{(k)}=\sum_{u \in \mathcal{N}(v)} \alpha_{v u}^{(k)} \boldsymbol{W}^{(k)} \boldsymbol{x}_{u} \\
& \alpha_{v u}^{(k)}=\frac{\exp e_{v u}^{(k)}}{\sum_{u^{\prime} \in \mathcal{N}(v)} \exp e_{v u^{\prime}}^{(k)}} \\
& e_{v u}^{(k)}=\operatorname{LReLU}\left(\boldsymbol{a}^{(k)^{T}} \operatorname{CONCAT}\left(\boldsymbol{W}^{(k)} \boldsymbol{x}_{v}, \boldsymbol{W}^{(k)} \boldsymbol{x}_{u}\right)\right)
\end{aligned}
$
ここで重み行列 $\boldsymbol{W}^{(1)}, \boldsymbol{W}^{(2)}, \ldots, \boldsymbol{W}^{(K)}$ と縦べクトル $\boldsymbol{a}^{(1)}, \boldsymbol{a}^{(2)}, \ldots, \boldsymbol{a}^{(K)}$ は学習対象のパラメータであり, K は Multi-head Attention のヘッド数である.また, $\mathcal{N}(v)$ はノード $v$ の近傍ノードの集合であり,LReLU は活性化関数 Leaky ReLU [17] である.
提案手法 3, 4, 5 : BERT + GCN, GSAGE, GAT 提案手法 3, 4, 5 は,言語情報を処理する BERT 部と HTML 構造情報を処理するGNN 部で構成される. その概要図を図 1 に示す. BERT 部では,HTML タグを除去して自然言語のみとなったテキストのサブワード系列 $w_{1}, w_{2}, \ldots, w_{N}$ を BERT に入力し,さらに出力次元が固有表現ラベル数となるように線形変換を行い,ベクトル系列 $\boldsymbol{y}_{1}^{\mathrm{BERT}}, \boldsymbol{y}_{2}^{\mathrm{BERT}}, \ldots, \boldsymbol{y}_{N}^{\mathrm{BERT}}$ を得る.これを行列 $\boldsymbol{Y}^{\mathrm{BERT}}:=\left[\boldsymbol{y}_{1}^{\mathrm{BERT}}, \boldsymbol{y}_{2}^{\mathrm{BERT}}, \ldots, \boldsymbol{y}_{N}^{\mathrm{BERT}}\right]^{T}$ にまとめる。 GNN 部では,まず HTMLテキストを DOM グラフで表現し,ノード特徴量 $\boldsymbol{x}_{v}[v \in V]$ としてノード種別 (h1 要素ノード, $\mathrm{p}$ 要素ノード, ...,テキストノード)の One-Hot ベクトルを用意する.このグラフを式(1),(2), (3) からなる GNNに入力し,ノー ド埋め込み表現 $\boldsymbol{Y}^{\mathrm{GNN}}:=\left[\boldsymbol{y}_{1}^{\mathrm{GNN}}, \boldsymbol{y}_{2}^{\mathrm{GNN}}, \ldots, \boldsymbol{y}_{|V|}^{\mathrm{GNN}}\right]^{T}$ を得る.ここで,埋め込み次元は固有表現ラベル数と一致するようにしておく. BERT 部の出力 $\boldsymbol{Y}^{\text {BERT }}$ と GNN 部の出力 $\boldsymbol{Y}^{\mathrm{GNN}}$ を合わせるために, サブワードと DOM グラフ上のノードの対応を表す行列 $\boldsymbol{I}_{\text {Word,Node }}$ を用意する. この行列の第 $i, j$ 成分は「第 $i$ サブワードが第 $j$ ノードに含まれていれば 1 でそ
提案手法の最終的な出力とする.
$
\boldsymbol{Y}^{\mathrm{BERT}+\mathrm{GNN}}=\boldsymbol{Y}^{\mathrm{BERT}}+\boldsymbol{I}_{\mathrm{Word}, \mathrm{Node}} \boldsymbol{Y}^{\mathrm{GNN}}
$
$Y^{\mathrm{BERT}}$ と $Y^{\mathrm{GNN}}$ とをこのように組み合わせることで,各サブワードに対して BERT が出力したスコアベクトルに,そのサブワードが属するノードの埋め込み表現ベクトルが足し合わされ,言語情報と HTML 構造情報とを両方とも利用した固有表現抽出が行わ表 1 各モデルの F1 スコア
& \\
BiLSTM with Tag & 75.3 & 54.4 & 77.6 \\
BERT (既存手法) & 78.5 & 72.5 & 80.2 \\
BERT with Tag & 80.2 & 72.6 & $\mathbf{8 6 . 9}$ \\
BERT + GCN & 80.3 & 76.4 & 80.8 \\
BERT + GSAGE & 80.9 & 76.6 & 80.4 \\
BERT + GAT & $\mathbf{8 1 . 2}$ & $\mathbf{7 8 . 0}$ & 81.6 \\
れる。ここで,上記の GNN 部に GCN, GSAGE, GAT を用いた 3 パターンの提案手法をそれぞれ BERT + GCN, BERT + GSAGE, BERT + GAT と呼ぶ.
## 4 実験と考察
## 4.1 データセット
本節では,提案手法の性能評価実験のために構築したデータセットについて述べる。まず,ブログサービス「アメーバブログ1)」上の料理レシピに関する 2 つのブログ $\mathrm{A}, \mathrm{B}{ }^{2}$ から,それぞれ 100 個ずつの記事を HTML テキストとして取得した. 次に,株式会社サイバーエージェントから提供を受けたアノテーションシステム Orion Annotator [18] を利用し,その 200 記事に 3 種類の固有表現「料理」「材料」「分量」をアノテーションした.
## 4.2 実験設定
前項で構築したデータセットを比率 $6: 2: 2$ で Train, Valid, Test に分割し,Train で訓練を行い Valid で八イパーパラメータをチューニングすることで,提案手法 $1,2,3,4,5$ それぞれのモデルを作成した. また,比較のために, HTML タグを除去したテキス卜を利用する BiLSTM-CRF, BERT のモデル(すなわち提案手法 1,2 から HTML タグを削除したモデル) も作成した. そして,この7つのモデルを Test セッ卜に適用し,F1 スコアで性能を評価・比較した。なお,同様の実験をブログ $\mathrm{A}, \mathrm{B}$ それぞれの 100 記事のみを含むデータセットに対しても行った。
## 4.3 実験結果と考察
実験結果を表 1 に示す. 表中の評価値において, BiLSTM with Tag が BiLSTM を上回っていることと,
図 1 提案手法 3, 4, 5 の概要図. GNN 部に GCN, GSAGE, GAT レイヤを用いた手法をそれぞれ BERT + GCN, BERT + GSAGE, BERT + GAT と呼ぶ. 図中の A ではノード特徴量としてノード種別の One-Hot ベクトルを持つグラフを作成している.B では各テキストノードに含まれる文を BERT のトークナイザでサブワード化している.Cでは各サブワードの BERT 出力ベクトルに対してそのサブワードが属していたノードの GNN 埋め込みべクトルが足し合わされている.
BERT with Tag, BERT + GCN, BERT + GSAGE, BERT + GAT が BERT を上回っていることから,提案手法を用いて HTML 構造を補助情報として活用することで既存手法に比べて性能が向上することを確認した.また,提案手法の中でも特に,BERT + GAT と, BERT with Tag の 2 つが高い性能を示している.
BERT + GCN, BERT + GSAGE, BERT + GAT はいずれも GNNを用いて HTML 構造情報を読み取るが,表 1 で性能を比較すると BERT + GAT が他 2 つを上回っている.これは, GAT が持つ Multi-head Attention 機構によるものだと考えられる. HTMLテキストのDOM グラフには,異質なノードが混在している. 例えば,太字を表す $\mathrm{b}$ ノード, 画像の存在を表す img ノード, 段落を表す $\mathrm{p}$ ノード, ハイパー
このようなノードの異質性に対して Attention 機構の「異なる近傍ノードに異なる重みを与えて集約する」という仕組みが有効に作用したと考えられる.
また,ブログ B のみを対象とした実験では,ブログ A とは異なり BERT with Tag の性能が BERT +GATを上回っている. ここで,固有表現のうち HTML の開始タグ(<b> や<p>など)の直後に現れているもの比率を調べたところ,ブログ A では 20.4 $\%$, ブログ B では $52.0 \%$ であったため,ブログ B で
は固有表現が開始タグの直後に現れやすい傾向があると言える.BERT + GAT では HTML 情報を DOM として扱うため, 開始タグとその中の単語との位置関係を参照することはできず,先程のような傾向を利用することはできない. 一方 BERT with Tag では HTML タグと単語の系列を BERTに入力するため, 先程のような傾向を学習し利用することができる.このことが,ブログ B において BERT with Tag が BERT + GAT を上回った理由の 1 つとして考えられる。
## 5 おわりに
本研究では,Web上のテキストを対象とした固有表現抽出タスクにおいて, HTML 構造を補助情報として利用する手法を提案した。そして,レシピに関するブログ記事を対象とした実験を通して提案手法の有効性を検証した。提案手法は複数あり, 単語と HTML タグの系列を既存の固有表現抽出モデルに入力するアプローチの手法と,GNNを用いて HTML 構造情報を読み取るアプローチの手法に分けられる. 今後の課題として, どちらのアプローチがどのような特徴を持つ HTML テキストに有効であるかを明らかにするため,様々なブログでデータセットを構築し性能評価実験を行うことが挙げられる。
## 参考文献
[1] Tetsuya Nakatoh and Sachio Hirokawa. Extraction of Tourist Behavior Contexts from Blog by Verbs and Their Objects. In Proceedings of the 2012 IIAI International Conference on Advanced Applied Informatics, 2012.
[2] 齋藤邦子, 鈴木潤, 今村賢治. CRF を用いたブログからの固有表現抽出. 言語処理学会第 13 回年次大会発表論文集, 2007.
[3] 堀達也, 白井清昭. ブログページからのウェブサイト情報・作成者情報の抽出. 言語処理学会第 21 回年次大会発表論文集, 2015.
[4] 池田流弥, 安藤一秋. 深層学習によるブログ記事からの土産の品名・店名抽出. 言語処理学会第 25 回年次大会発表論文集, 2019.
[5] 近江崇宏. Wikipedia を用いた日本語の固有表現抽出のデータセットの構築. 言語処理学会第 27 回年次大会発表論文集, 2021 .
[6] Nguyen Tuan Duc, Danushka Bollegala, 石塚満. エンティティペア間類似性を利用した潜在関係検索. 情報処理学会論文誌, Vol. 52, No. 4, pp. 1790-1802, 2011.
[7] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 2019.
[8] Petar Veličković, Guillem Cucurull, Arantxa Casanova, Adriana Romero, Pietro Liò, and Yoshua Bengio. Graph Attention Networks. In International Conference on Learning Representations, 2018.
[9] Guillaume Lample, Miguel Ballesteros, Sandeep Subramanian, Kazuya Kawakami, and Chris Dyer. Neural Architectures for Named Entity Recognition. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 2016.
[10] Xiaoya Li, Xiaofei Sun, Yuxian Meng, Junjun Liang, Fei $\mathrm{Wu}$, and Jiwei Li. Dice Loss for Data-imbalanced NLP Tasks. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, 2020.
[11] 日本語 Wikipedia エンティティベクトル. https: //github.com/singletongue/WikiEntVec.
[12] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems, 2017.
[13] 日本語 BERT 訓練済みモデル. https://github.com/ cl-tohoku/bert-japanese.
[14] WHATWG. DOM Living Standard. https://dom. spec. whatwg.org/.
[15] Thomas N Kipf and Max Welling. Semi-supervised classification with graph convolutional networks. In International Conference on Learning Representations (ICLR), 2017.
[16] William L Hamilton, Rex Ying, and Jure Leskovec. Inductive representation learning on large graphs. In Neural Information Processing Systems, 2017.
[17] Andrew L. Maas, Awni Y. Hannun, and Andrew Y. Ng. Rectifier nonlinearities improve neural network acoustic models. In Proceedings of the International Conference on Machine Learning, 2013.
[18] 上辻慶典. アノテーションを支える Orion Annotator の紹介. CyberAgent 秋葉原ラボ技術報告, Vol. 2, pp. 32-37, 2019.
[19] Diederik P. Kingma and Jimmy Ba. Adam: A Method for Stochastic Optimization. In International Conference on Learning Representations, 2015.
## A 実験設定の詳細
ここでは,本文の 4.2 に記載しなかった実験設定の詳細について述べる。
まず,提案手法 $1,2,3,4,5$ と HTML タグを利用しない BiLSTM-CRF, BERT の計 7 つの手法の訓練において共通で,エポック数を 10 , バッチサイズを 1, オプティマイザを Adam [19] とした. 学習率は, BiLSTM を用いる 2 つの手法では 0.001 とし, BERT を用いる 5 つの手法では 0.00001 とした. また,全ての実験は NVIDIA T4 (16GB) を利用して実行した.
BiLSTMを用いる 2 つ手法においては,ハイパーパラメータとして隠れ状態べクトルの次元を 10,50,100,150,200 の中から選択した.
グラフニューラルネットワークを用いる 3 つの提案手法では, レイヤの数と各レイヤの出力次元をハイパーパラメータとしてチューニングした. レイヤの数の候補値は, GCN と GSAGE では $2,3,4$ 層とし, GAT では 2,3 層とした. 出力次元の候補值は $16,32,64,128,256$ とした. なお,組み合わせを減らす目的で, 同一モデルの各レイヤの出力次元は同じ値とした. ただし, 最後のレイヤの出力次元は固有表現ラベル数で固定した. また, GAT の Multi-head Attention のヘッド数は, 2 層のモデルでは順に 4,6 で固定し, 3 層のモデルでは順に $4,4,6$ で固定した. また, GATの最終レイヤでは, [8] に倣って式 (6)の CONCAT の部分を平均ベクトルをとる操作に置き換えている。
## B 実験結果の詳細
各手法の F1 スコアを記した表 1 に Precision と Recall の評価值を追記したものを表 2 に示す.
表 2 各モデルの F1 スコア, Precision, Recall
| NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F1-4.pdf | # 静的および動的な埋め込みに基づくエンティティの曖昧性解消
大葉大輔 1,2 山田育矢 ${ }^{2,3}$ 吉永直樹 4 豊田正史 ${ }^{4}$
1 東京大学 ${ }^{2}$ Studio Ousia ${ }^{3}$ RIKEN ${ }^{4}$ 東京大学生産技術研究所
oba@tkl.iis.u-tokyo.ac.jp ikuya@ousia.jp \{ynaga,toyoda\}@iis.u-tokyo.ac.jp
## 概要
エンティティの曖昧性解消タスクでは,各エンティティを埋め込み表現としてパラメタ化した上で曖昧性解消モデルの学習を行うことが有効である (Yamada et al. 2021) が,パラメタ化対象外のエンティティの曖昧性解消は行えない。本稿では,エンティティの説明文やエンティティを含む文からエンティティの埋め込み表現を動的に推定し,学習済み曖昧性解消モデルを拡張する手法を提案する.実験では,評価データに出現する候補エンティティ全てをパラメタ化した上で訓練された既存モデルらと同等またはそれ以上の性能が得られることを示した。
## 1 はじめに
入力テキストに含まれるエンティティのメンションを知識ベース (KB) のエントリに分類する Entity Disambiguation (ED) は,文書分類や質問応答等の言語処理タスクや,テキストからの KB 構築等の情報抽出タスクにおける重要な前処理の一つである [1].近年,ED モデルのパラメタとして分類候補のエンティティ集合に埋め込み表現を与えた上で, Wikipedia のハイパーリンクを正解データとする大量の学習データを用いた訓練を行うことで EDを高精度に解けるようになった $[2,3,4,5,6,7]$. しかし,埋め込み表現は訓練時にパラメタ化の対象となる一部のエンティティに対してのみ学習されるため,その他エンティティ (未知エンティティ)のメンションは曖昧性を解消できない,実際,多くの既存システムは,評価時の正解候補エンティティすべてをパラメタ化した上で訓練および評価を行っている。
対して,エンティティの説明文とエンティティを言及する文のエンコード結果を近づける学習により zero-shot で ED を解く方法 $[8,9]$ は未知エンティティの曖昧性解消を可能とする。しかし,埋め込み表現に基づいた上述の方法より性能が低い上 [10],各メンションについて,その候補エンティティの数
図 1 提案手法の概要. エンティティの説明文 (Description) やエンティティを言及する文 (Sentence with hyperlink) からその埋め込み表現を推定し, ED モデルのエンティティ埋め込み表現行列 (Entity Embeddings) を補完する。
だけエンコーダの順伝搬計算を必要とする.
本稿では,訓練時にパラメタ化されたエンティティの静的な埋め込み表現と,テキストから推定した動的な埋め込み表現を相補的に用いることを提案 (§3) し,静的なエンティティ表現に基づくED モデル [7] (§2)を拡張する(図 1). 具体的には,まず高頻度エンティティに限定した形で ED モデルを構築し, Wikipediaのハイパーリンクを正解とするデー 夕を用いて訓練を行う (§3.1). 次にエンティティの埋め込み表現を動的に推定する 2 種類のエンコーダを訓練する (§ 3.2). そして低頻度エンティティの埋め込み表現を推定し,ED モデルのパラメタ(エンティティの埋め込み表現行列)を拡張する (§3.2). これにより学習時にパラメタ化されない未知エンティティを含む評価データでも,精度の高い静的なエンティティ表現に基づく EDを適用出来る.
代表的な評価データ (AIDA-CoNLL, MSNBC, AQUAINT, ACE2004, WNED-CWEB, WNED-WIKI)用いた実験では,提案手法により,正解候補エンティティが既知な状態で訓練を行う既存手法と同等またはそれ以上の性能が得られることを示す (§4).
## 2 事前知識
本節では,我々が基盤とする Yamada ら [7] の Global Model(以降 $\mathbf{Y}_{\mathbf{G}}$ )を説明する. $\mathbf{Y}_{\mathbf{G}}$ は BERT $_{\text {LARGE }}$ [11]を基盤とする現在の最高精度のモデルである. テキストの単語とエンティティのトークン列を入力に取り (§2.1), 各エンティティトークンに対応する BERT の出力を基に曖昧性解消を行う (§2.2). 以降,単語とエンティティの語彙セットを $V_{w}, V_{e}$ ,埋め込み表現の次元を $H$ とする.
## 2.1 入力表現
$\mathbf{Y}_{\mathbf{G}}$ では,入力テキストの単語トークン列とその内のエンティティに対応するトークン列を結合し, 単語トークン列の先頭と末尾に特殊トークンの [CLS] と [SEP] を挿入する.この時,各トークンは以下 3 種の埋め込み表現の和により表現される:
Token embedding: 各単語およびエンティティに対応. 表現行列は $\mathbf{A} \in \mathbb{R}^{\left|V_{w}\right| \times H}$ および $\mathbf{B} \in \mathbb{R}^{\left|V_{e}\right| \times H}$.
Type embedding: トークンの種類(単語かエンティティか) に対応. $\mathbf{C}_{w} \in \mathbb{R}^{H}$ および $\mathbf{C}_{e} \in \mathbb{R}^{H}$.
Position embedding: 入力系列中の単語トークンの位置に対応. 位置 $i$ にある単語およびエンティティの位置埋め込みは, $\mathbf{D}_{i} \in \mathbb{R}^{H}$ および $\mathbf{E}_{i} \in \mathbb{R}^{H}$ とする. 複数トークンで構成されるエンティティについては対応する位置埋め込みを平均する。
## 2.2 曖昧性解消
$\mathbf{Y}_{\mathrm{G}}$ は Masked Language Model (MLM) [11] の要領でエンティティの曖昧性解消を行う. より具体的には,メンションに該当する入力エンティティトー クンを [MASK] に置き換え,対応する BERT の出力 $\mathbf{h}_{e} \in \mathbb{R}^{H}$ からエンティティの推定を行う:
$
\begin{aligned}
\mathbf{m}_{e} & =\text { layernorm }\left(\operatorname{gelu}\left(\mathbf{W}_{f} \mathbf{h}_{e}+\mathbf{b}_{f}\right)\right) \\
\hat{\mathbf{y}} & =\operatorname{softmax}\left(\mathbf{B m}_{e}+\mathbf{b}_{o}\right)
\end{aligned}
$
$\mathbf{W}_{f} \in \mathbb{R}^{H \times H}, \mathbf{b}_{o}, \mathbf{b}_{f} \in \mathbb{R}^{H}$ はパラメタであり, gelu は活性化関数 [12], layernorm は層正則化 [13] を表す.
訓練エンティティトークンを一定確率で [MASK] に置換し,対応する推定結果 $\hat{\mathbf{y}}$ の対数尤度を最大化させる最適化を行う. Wikipedia のハイパーリンクを正解ラベルと見なした訓練データを使用する。
推論 $\mathbf{Y}_{\mathrm{G}}$ は推論を逐次的に行う.まず全エンティティトークンをマスクし, 各 [MASK] に対応するエンティティを推定する (式 2). 次に $\hat{\mathbf{y}}$ の最大確率が最も高い [MASK] を,その推定結果のエンティティトークンに置き換えて新しい入力を得る.この処理を全 [MASK] が曖昧性解消されるまで繰り返す。
## 2.3 問題点
$\mathbf{Y}_{\mathrm{G}}$ は多くの評価データ (§ 4.1) で最高精度を達成している [7] が, $V_{e}$ 外のエンティティは学習時に埋め込み表現としてパラメタ化されないため曖昧性解消が行えない. 全てのエンティティを $V_{e}$ に含める場合,訓練時の計算量が大幅に増加するだけでなく特に低頻度エンティティに関するデータの過踈性が問題になる. また,こうした制約から $\mathbf{Y}_{G}$ を含む先行研究の多く $[2,3,4,5,6,7]$ は訓練の段階で評価データに出現する全メンションのリンク先候補エンティティの集合を $V_{e}$ に定め, エンティティの埋也込み行列 $\mathbf{B} \in \mathbb{R}^{\left|V_{e}\right| \times H}$ を学習し評価に使用している. しかし, 訓練の段階で評価データに現れる全メンションを知っている設定は非現実的である.
## 3 提案
前節の問題点を踏まえ,訓練時のパラメタ化対象外のエンティティの埋め込み表現を動的に推定することを提案する. まず前節で導入した $\mathbf{Y}_{G}$ を基盤に, Wikipedia で頻出する一定数のエンティティ $V_{e}^{\prime}$ にのみ静的な埋め込み表現を与え, その $V_{e}^{\prime}$ に閉じた ED モデルの訓練を行う (\$ 3.1). 次にその他エンティティ $V_{e}^{\prime \prime} \notin V_{e}^{\prime}$ の埋め込み表現を別途推定し(§ 3.2), 訓練済みモデルの静的な埋め込み表現行列を拡張する (§3.2). これにより, 頻出エンティティに関しては高い性能への寄与が報告されている静的な埋め込み表現を保証しつつ,他のエンティティが出現する評価データについても同じ ED モデルで曖昧性解消が行える。
## 3.1 高頻度エンティティに限定した訓練
実装後に拡張可能な形式で $\mathbf{Y}_{\mathrm{G}}$ の再定義 $\left(\mathbf{Y}_{\mathrm{G}}^{\prime}\right)$ を行う. エンティティ埋め込み行列 $\mathbf{B}$ のみを補完するため,項 $\mathbf{b}_{o}$ (式 2)を取り除く.また高頻度エンティティ $V_{e}^{\prime}$ のみで表現行列 $\mathbf{B}^{\prime} \in \mathbb{R}^{\left|V_{e}^{\prime}\right| \times H}$ を構成する:
$
\hat{\mathbf{y}}=\operatorname{softmax}\left(\mathbf{B}^{\prime} \mathbf{m}_{e}\right)
$
訓練 $\mathbf{Y}_{\mathrm{G}}$ と同じくWikipediaのハイパーリンクを正解データとして,エンティティトークンを $30 \%$ の確率で [MASK] に置換し,[MASK] に対応する推定結果 $\hat{\mathbf{y}}$ (式 3) の対数尤度を最大化させる最適化を行う.
## 3.2 エンティティ表現の推定エンコーダ
異なる言語資源に基づく 2 つのエンコーダを用いてエンティティの埋め込み表現を動的に推定する。 エンコーダは訓練済み $\mathbf{Y}_{\mathrm{G}}^{\prime}$ (§3.1)を基盤とする:
Description-based Encoder エンティティ $e_{i}$ の説明文を § 2.1 と同じ方法で $\mathbf{Y}_{\mathrm{G}}^{\prime}$ の入力表現とし, [CLS] に対応する BERT の出力表現 $\mathbf{h}_{\mathrm{CLS}}$ からエンティティ $e_{i}$ の埋め込み表現を推定する:
$
\hat{\mathbf{e}}_{\mathrm{DESC}_{i}}=\mathbf{W}_{\mathrm{DESC}} \mathbf{h}_{\mathrm{CLS}}+\mathbf{b}_{\mathrm{DESC}}
$
$\mathbf{W}_{\text {DESC }} \in \mathbb{R}^{H \times H}$ および $\mathbf{b}_{\text {DESC }} \in \mathbb{R}^{H}$ は学習パラメタ.
Hyperlink-based Encoder エンティティのハイパーリンクを含む文集合を用いて埋め込み表現を推定する。まず, $e_{i}$ のハイパーリンクを含む文を [SEP]を挟んで連結したものを 82.1 における単語トークン列とする。次に,エンティティトークン列のうち $e_{i}$ に該当するものを [MASK] に置換し,各 [MASK] に対応する BERT の出力 $\left[\mathbf{h}_{\text {MASK }_{1}} \ldots \mathbf{h}_{\text {MASK }_{\mathrm{N}}}\right]$ の平均から埋め込み表現を推定する:
$
\begin{aligned}
\overline{\mathbf{h}}_{\mathrm{MASK}} & =\frac{1}{N} \sum_{j}^{N} \mathbf{h}_{\mathrm{MASK}_{j}} \\
\hat{\mathbf{e}}_{\mathrm{HL}_{i}} & =\mathbf{W}_{\mathrm{HL}} \overline{\mathbf{h}}_{\mathrm{MASK}}+\mathbf{b}_{\mathrm{HL}}
\end{aligned}
$
$\mathbf{W}_{\text {HL }} \in \mathbb{R}^{H \times H}$ および $\mathbf{b}_{\mathrm{HL}} \in \mathbb{R}^{H}$ は学習パラメタ.
訓練訓練済み $\mathbf{Y}_{\mathrm{G}}^{\prime}(\S 3.1)$ におけるエンティティ埋め込み表現行列 B' を教師信号とし,エンティティ $e_{i}$ に該当するインデックスの埋め込み表現と, エンコーダが推定した埋め込み表現 $\hat{\mathbf{e}}_{i}$ の平均二乗誤差を最小化する. 埋め込み表現行列 $\mathbf{B}^{\prime}$ のみ固定し, 高頻度エンティティ $V_{e}^{\prime}$ に関する Wikipedia エントリから抽出した説明文 (概要) およびそれらのハイパー リンクを含む文を学習データに用いて訓練する。
推定表現のアンサンブル最終的に,上記の異なるエンコーダから推定された埋め込み表現を平均化することで一つのエンティティ埋め込み表現とする.これにより,2つの異なる言語資源に含まれる情報を利用できるようにする。
エンティティ表現の推定と補完高頻度エンティティ集合に含まれないエンティティ集合 $V_{e}^{\prime \prime} \notin V_{e}^{\prime}$ の埋め込み表現を上記エンコーダで推定し, 訓練済み $\mathbf{Y}_{\mathrm{G}}^{\prime}$ (§ 3.1)の埋め込み表現行列 $\mathbf{B}^{\prime}$ (式 3)を補完する $\left(\mathbf{B}^{\prime \prime \prime} \in \mathbb{R}^{\left|V_{e}^{\prime}+V_{e}^{\prime \prime}\right| \times H}\right) . \mathbf{Y}_{\mathrm{G}}^{\prime}$ は追加のエンティティ集合に対しても同様の推論が行える:
$
\hat{\mathbf{y}}=\operatorname{softmax}\left(\mathbf{B}^{\prime \prime \prime} \mathbf{m}_{e}\right)
$
表 1 AIDA-CoNLL における In-KB Mico-F1. 最も性能が良い $2 つの$ 数値に太字,下線の順で印をつけた。
## 4 実験
Yamada ら [7] の $\mathbf{Y}_{\mathrm{G}}$ (§2) に提案手法を実装し, 評価データ中の全候補エンティティの埋め込み表現をパラメタに持った上で訓練された既存システム $[3,4,5,6,7]$ と同等の性能が得られるか確認する.
## 4.1 実験設定
実装まず, BERT $_{\text {BASE }}$ [11]を基に,Wikipedia 上の頻出エンティティ $\left|V_{e}^{\prime}\right|=1 \mathrm{M}$ に限定した $\mathbf{Y}_{\mathrm{G}}$ の再定義 ( $\mathbf{Y}_{\mathrm{G}^{\prime}}{ }^{\prime}$ および訓練 (§3.1) を行う. 評価データで使用される約 $270 \mathrm{~K}$ 件の正解候補エンティティうち, $V_{e}^{\prime}$ のカバレッジは $55.9 \%$, 既存システムは $100 \%$ である。次に,訓練済み $\mathbf{Y}_{\mathrm{G}^{\prime}}$ と Wikipediaを用いて提案エンコーダを訓練した後, 未知エンティティ $V_{e}^{\prime \prime} \notin V_{e}^{\prime}$ の埋め込みを推定し $\mathbf{Y}_{\mathrm{G}^{\prime}}$ を拡張する (§3.2).
評価データ Ganea \& Hofmann (2017) [3] の設定に倣い, AIDA-CoNLL [14], MSNBC, AQUAINT, ACE2004, WNED-CWEB, WNED-WIKI [15] を用いる.また,メンション表層に対する各エンティティへの被リンク事前確率 [3] に基づいて, 正解候補エンティティ集合を各メンションに割り当てる(KB+YAGO) [14]. 式 7 における推論の際には,候補エンティティ集合に対応するインデックスの埋め込み表現行列のみを用いて内積計算および softmax を実行する. AIDA-CoNLLでは異なる候補エンティティ集合 PPRforNER [16] を使用した評価も行う.
評価指標 micro-F1 值を報告する。
Fine-Tuning AIDA-CoNLLでは,提案手法により拡張した $\mathbf{Y}_{\mathrm{G}}^{\prime}$ を付属訓練セットを用いて Fine-tuning した評価も行う. Yamada ら [7] と同様にエンティティの埋め込み表現行列を固定,またエンティティトークンを $90 \%$ の確率でマスクして, 出力 $\hat{\mathbf{y}}$ (式 7) の対数尤度を最大化させる. その他ハイパーパラメタの探索空間は Devlin ら [11] と同じものを用いた.
表 2 AIDA-CoNLL 以外のデータにおける Micro-F1 值. 最も性能が良い 2 つの数値に太字,下線の順で印をつけた,
表 3 エンティティの動的な埋め込み表現を部分的に用いた時の AIDA-CoNLL における Micro-F1 値の変化.
表 4 未知エンティティメンションに関する Precision. また, 未知エンティティの hyperlink-based emb. を推定する際に使用出来たハイパーリンク文の数 (\# sentences) によってメンションを分類し各々で precisionを算出した. Baseline は被リンク事前確率 [3] 最大のエンティティを選択する。
## 4.2 実験結果
AIDA-CoNLL およびその他評価データにおける実験結果を表 1 , 表 2 に示す. 提案モデルは WIKIおよび ACE2004において最高性能であり,他の評価デー タでは Yamada ら [7]を除く全システムに優った.総合して,提案モデルの基盤である Yamada ら [7] のモデルが最も優れていたが,提案モデルは MSNBC を除く全評価データで $1 \mathrm{pt}$. 以内に迫った.
比較システム $[3,4,5,6,7]$ と異なり, 提案モデルは評価データの約 $60 \%$ の候補エンティティについてしか訓練を行なえていない。加えて,Yamada ら [7] は,提案モデルが基盤とする $\mathrm{BERT}_{\text {base }}$ よりも大きな $\mathrm{BERT}_{\text {large }}$ を基盤としている (§2). 提案手法がこれらシステムと同等またはそれ以上の性能を得たことは,エンティティの埋め込み表現の推定および補完が一定の水準で達成されていることを示す.
## 4.3 考察
推定表現のアンサンブルの影響動的な埋め込み表現の平均化 (§ 3.2) の影響を観るため,いずれかのエンコーダで推定された埋め込み表現のみを用いて $\mathbf{Y}_{\mathrm{G}}[7]$ の拡張を行い,AIDA-CoNLL で評価し
た (表 3). 僅かではあるが,いずれの場合も一貫して性能が低下しており,埋め込み表現の平均化により異なる性質を補い合っていることが推測される.
未知エンティティの曖昧性解消性能訓練対象外のエンティティをどの程度曖昧性解消できているのか確認するために,全評価データ (§ 4.1)の中で,未知エンティティ $\notin V_{e}^{\prime}$ をラベルに持つメンションについて precisionを計算した (表 4). 動的なエンティティ埋め込み表現の種類に関わらず約 8 割の未知エンティティが正しく曖昧性解消されていた。一方, その中でも Hyperlink-based な埋め込み表現が最も効果的であるという傾向は,既知エンティティを含めた結果の傾向(表 3)に反していることから,同埋め込み表現は既知エンティティ $V_{e}^{\prime}$ の正しい曖昧性解消を惑わせる影響もあることを示唆している。
エンコードに使用する文の数の影響 Hyperlinkbased emb. の質と,そのエンコードに使用できるエンティティを言及する文の数の関係を分析するため,その文の数に基づいて未知エンティティおよびそれらをラベルに持つメンションを大まかに分類し,それぞれで precision を計算した (表 4),表より, エンティティを言及する文が 3 文以上利用できる場合はそこからエンコードされた埋め込みは全ての埋め込みの中で最も質のよい表現であった. 反対に, 2 文以下の場合はエンティティの頻度に依存しない説明文の利用が最も効果的であった. 今後,エンティティの頻度に応じて両埋め込み表現に重みをつけてアンサンブルするといった改善が考えられる。
## 5 おわりに
本稿では,未知エンティティの埋め込み表現を動的に推定し, 静的な埋め込み表現に基づく曖昧性解消モデルを拡張する方法を提案した (§3). 実験 (§4) では,提案手法を用いて拡張したモデルが,評価データで使用される全エンティティの埋め込みをパラメタ化して訓練しているモデルらと同等またはそれ以上の性能を得られることを示した。また,提案手法による未知エンティティの曖昧性解消への有効性と,動的な埋め込みの品質改善の余地を示した。
## 参考文献
[1] Johannes Welbl, Pontus Stenetorp, and Sebastian Riedel. Constructing datasets for multi-hop reading comprehension across documents. Transactions of the Association for Computational Linguistics, Vol. 6, pp. 287-302, 2018.
[2] Ikuya Yamada, Hiroyuki Shindo, Hideaki Takeda, and Yoshiyasu Takefuji. Joint Learning of the Embedding of Words and Entities for Named Entity Disambiguation. In Proceedings of the 20th SIGNLL Conference on Computational Natural Language Learning, pp. 250-259, 2016.
[3] Octavian-Eugen Ganea and Thomas Hofmann. Deep Joint Entity Disambiguation with Local Neural Attention. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 2619-2629, 2017.
[4] Phong Le and Ivan Titov. Improving Entity Linking by Modeling Latent Relations between Mentions. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1595-1604, 2018.
[5] Samuel Broscheit. Investigating Entity Knowledge in BERT with Simple Neural End-To-End Entity Linking. In Proceedings of the 23rd Conference on Computational Natural Language Learning, pp. 677-685, 2019.
[6] Thibault Févry, Nicholas FitzGerald, Livio Baldini Soares, and Tom Kwiatkowski. Empirical Evaluation of Pretraining Strategies for Supervised Entity Linking. In Automated Knowledge Base Construction, 2020.
[7] Ikuya Yamada, Koki Washio, Hiroyuki Shindo, and Yuji Matsumoto. Global Entity Disambiguation with Pretrained Contextualized Embeddings of Words and Entities. arXiv preprint arXiv:1909.00426, 2021.
[8] Lajanugen Logeswaran, Ming-Wei Chang, Kenton Lee, Kristina Toutanova, Jacob Devlin, and Honglak Lee. Zero-Shot Entity Linking by Reading Entity Descriptions. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3449-3460, 72019.
[9] Ledell Wu, Fabio Petroni, Martin Josifoski, Se- bastian Riedel, and Luke Zettlemoyer. Scalable zero-shot entity linking with dense entity retrieval. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6397-6407, 2020.
[10] Nicola De Cao, Gautier Izacard, Sebastian Riedel, and Fabio Petroni. Autoregressive Entity Retrieval. In International Conference on Learning Representations, 2021.
[11] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, 2019.
[12] Dan Hendrycks and Kevin Gimpel. Gaussian Error Linear Units (GELUs). arXiv preprint arXiv:1606.08415v3, 2016.
[13] Jimmy Lei Ba, Jamie Ryan Kiros, and Geoffrey E Hinton. Layer Normalization. arXiv preprint arXiv:1607.06450v1, 2016.
[14] Johannes Hoffart, Mohamed Amir Yosef, Ilaria Bordino, Hagen Fürstenau, Manfred Pinkal, Marc Spaniol, Bilyana Taneva, Stefan Thater, and Gerhard Weikum. Robust Disambiguation of Named Entities in Text. In Proceedings of the Conference on Empirical Methods in Natural Language Processing, pp. 782-792, 2011.
[15] Zhaochen Guo and Denilson Barbosa. Robust Named Entity Disambiguation with Random Walks. Semantic Web, Vol. 9, No. 4, pp. 459-479, 2018.
[16] Maria Pershina, Yifan He, and Ralph Grishman. Personalized Page Rank for Named Entity Disambiguation. In Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, p. 238-243, 2015. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F2-1.pdf | # 情報抽出技術を用いた JCoLA の拡張に向けて
染谷大河 1 進藤 裕之 ${ }^{2,3}$ 大関 洋平 1
1 東京大学 2 奈良先端科学技術大学院大学
${ }^{3}$ MatBrain 株式会社
\{taiga98-0809, oseki\}@g.ecc.u-tokyo.ac.jp
shindo@is.naist.jp
## 概要
近年多くの場面で活躍するニューラル言語モデルが、自然言語に内在する統語構造をどれほど理解しているのかを検証する研究が盛んである。しかし、検証のためのデータセットを言語学論文の例文をもとに作成する際には、人手での例文抽出が不可欠であり、それゆえにデータセットの規模を容易に拡大することができないという課題があった。本研究では、情報抽出の技術を言語学の分野に応用し、理論言語学の論文や教科書等から自動で例文を抽出することで、複雑な統語現象を扱いつつ、かつ大規模であるという特徴を併せ持つ初めてのデータセットの構築を試みる。
## 1 はじめに
近年、翻訳や文章要約、文法誤り訂正等さまざまな場面で、ニューラル言語モデルが活躍している。特に Transformer [1] をべースとしたモデルの精度は非常に高く、様々なタスクで高い精度を発揮している $[2,3]$ 。一方、理論言語学の分野では、自然言語には一種の統語構造が存在しているということが伝統的に主張されてきている $[4,5]$ 。確かに、先述のようなニューラル言語モデルは多くの自然言語処理夕スクで高性能を発揮し、多くのアプリケーションの基盤となっているが、そのようなニューラル言語モデルが自然言語の統語構造をどれほど理解しているのかについては、未だ多くが分かっていない。
このような背景から、ニューラル言語モデルが実際にどれほどの統語知識を獲得しているのかを検証する研究が盛んに行われている。近年は、特に言語モデルの統語的評価を行うための大規模なデータセットを作った上で、それを用いて言語モデルを評価する研究が盛んになってきている $[6,7,8,9]$ 。そのような研究の例としては、Warstadt et al. (2019) [6]
や Trotta et al. (2021) [8] のように、より複雑な統語現象を取り扱う理論言語学のジャーナル論文や教科書から例文を抽出することによりデータセットを作成するという方法がある。これにより、自動生成により作成されたデータセットに比べて、より複雑な統語現象を扱うデータセットを作成することができる一方で、例文の抽出作業は人手で行う必要があるため、自動生成の場合と比べてそのデータセットの規模に課題があった。また、このようなデータセッ卜を日本語で作成した例がなかったことなどから、理論言語学のジャーナル論文をもとに JCoLA [10] が構築されたが、依然データセットの規模の問題は解決されていない。
そこで本論文では、情報抽出の技術を言語学の分野に応用し、理論言語学の論文や教科書等から自動で例文を抽出する試みを紹介する。これにより、理論言語学で議論されている複雑な統語現象を扱いつつ、かつ大規模であるという特徵を併せ持つ初めてのデータセットの構築が可能になる。
## 2 言語モデルの統語的評価
近年は、Linzen et al. (2016) [11]を端緒として、統語的評価用のデータセットを用いて、言語モデルがどれほどの統語知識を獲得しているのかを検証する研究が盛んである。Warstadt et al. (2019) [6] は、理論言語学のジャーナル論文や教科書から例文を抽出し、言語モデルの 2 値分類性能をテストする大規模データセットである CoLA (Corpus of Linguistic Acceptability) ${ }^{1)}$ を構築した。CoLAなどの言語学の論文中の例文から構築されているデー タセット $[6,8]$ は、理論言語学の論文や教科書から例文を抽出しているため、理論言語学で扱われている複雑な統語現象 (Class III judgments, Marantz
1)英語を対象とした大規模な言語理解ベンチマークである GLUE [2] に含まれるデータセットの一つともなっている。
表 1 既存の統語的評価用大規模データセットと JCoLA
2005 [12]; Linzen and Oseki 2018 [13] 参照)を対象とした評価が可能になっているものの、例文の抽出を人手で行っているため、その規模を容易に拡大していくことが困難であるという特徴があった。一方、Warstadt et al. (2020) [7] は、ミニマルペアを自動生成してまとめた大規模データセット BLiMP(The Benchmark of Linguistic Minimal Pairs for English) を構築した。BLiMPなど例文の自動生成を行うことで構築されたデータセット $[14,7,15]$ は、自動生成をおこなっているためそのデータセットの規模が大きく、さらにその拡大も容易であるが、ある特定のパターンにより例文が生成されるため、複雑な統語現象を扱うことができないという問題点があった。
一方で、以上の言語モデルの統語知識を検証する試みは、その大多数が英語を対象としたものである。一部の研究で対象を英語以外にも拡張した検証 $[16,17,18,15]$ が行われてはいるが、幅広い統語現象を対象とし、かつ英語以外で検証を行った研究は非常に限られている $[8,9]$ 。特に日本語においては自然言語処理の分野で広く使われる言語モデルの統語知識を評価するベンチマークとなるようなデー タセットは存在しておらず、言語モデルが英語等の一部の言語だけではなく、自然言語一般の統語現象を捉えられているかどうかについての明確な証拠を得ることはできない状況であると考えられる。
そのような背景から、染谷・大関 (2022) [10] では理論言語学のジャーナル論文から例文を手動で抽出することで、日本語を対象とした言語モデルの統語的評価用データセット JCoLA (Japanese Corpus of Linguistic Acceptability)を作成した。しかし、その作業の性質上データセットの規模の拡張が難しいという問題点は解決することはできず、総例文数は 2,323 文にとどまった(表 1)。
本論文では、すでに化学分野等の論文から自動で図表等の情報を抽出するために用いられている情報抽出の技術を言語学の分野に応用し、理論言語学の論文から自動で例文を抽出する試みを紹介する。これにより、理論言語学で議論されている複雑な統語現象を扱いつつ、かつ大規模であるという特徴を併せ持つ初めてのデータセットの構築が可能となる。
## 3 JCoLA の拡張
## 3.1 データ収集
本研究では、東アジア・東南アジア言語の理論言語学のジャーナルとして著名な JEAL (Journal of East Asian Linguistics) 、また世界的に著名な理論言語学のジャーナルである LI (Linguistic Inquiry) と NLLT (Natural Language Linguistic Theory)のそれぞれにおいて 2006 年から 2020 年の 15 年間で掲載された論文の中で、特に日本語の統語論を扱う論文を対象として、それらの論文に含まれる例文の自動抽出を行う。
これにより、理論言語学の分野で頻繁に議論されているような、複雑な統語現象 (Class III judgments, Marantz 2005[12]; Linzen and Oseki 2018[13] 参照) を伴う例文を収集することができると考えられる。また、レイアウトの異なる複数のジャーナルを対象とすることで、各ジャーナルごとのレイアウトの差異に堅牢な情報抽出モデルの学習が可能となる。
## 3.2 訓練・評価用データの作成
前節で収集した論文 PDF はそのままでは情報抽出モデルの訓練・評価用データとして直接的に用いることは出来ず、情報抽出モデルの入力として適切な形式にするには、PDFからテキストを抽出し、かつどの範囲が抽出すべき例文に該当するのかのアノテーションを行うことが必要となる。本研究では、 PDF に対して直接アノテーションを行い、結果をテキスト形式で取り出すことができる PDFAnno [19] を用いて、論文PDFからアノテーション済みのテキストを抽出する2)。具体的には、論文 PDF 上の各ページごとに例文として抜き出すべき行の範囲のアノテーションを行った上で、本文とアノテーションを PDF に埋め込まれている単語ごとの座標情報と共にテキストに出力する。そして、その出力テキストを行単位に分割することで、情報抽出モデルの訓練・評価用データを用意する。
2) PDFAnno のインターフェースについては、付録 A を参照されたい。
## 3.3 例文抽出
## 3.3.1 問題設定
化学分野等では、すでに固有表現抽出や関係抽出の技術を用いて論文から情報抽出を行う試みがある。本研究ではその情報抽出の技術を言語学分野に危用することで、言語学論文からの例文の自動抽出を試みる。
ここで、論文 PDF から例文を抽出するためには、前節で用意されたアノテーション済みデータについて、例文が含まれる行の範囲を予測する必要があるが、本研究では、固有表現抽出の手法として一般的な BIO-tagging の手法 $[20,21]$ の変種である BIEOS-tagging の手法を用いて例文が含まれる行のスパン予測を行う。具体的には、例文の先頭となる行に B (Beginning)、例文中となる行に I (Inside)、例文の範囲外には $\mathrm{O}$ (Outside)、例文の最終行に $\mathrm{E}$ (End)、さらに 1 行からなる例文の行に S (Single) というラベルを予測するモデルを学習することにより、例文が含まれる行のスパンを予測し例文を抽出する。
## 3.3.2 モデルアーキテクチャ
固有表現抽出を行うモデルとしては、ゲート付き畳み込みニューラルネットワーク (GCNN; Gated Convolutional Neural Network) [22] ${ }^{3)}$ と CRFを組み合わせたモデルを使用する。
本研究で用いる GCNN の隠れ状態 $\boldsymbol{h}_{0}, \cdots, \boldsymbol{h}_{L}$ は以下のように計算される。
$
\boldsymbol{h}_{l}\left(\boldsymbol{h}_{l-1}\right)=\boldsymbol{h}_{l-1} \otimes \sigma\left(\boldsymbol{h}_{l-1} * W+b\right)
$
ここで、 $\boldsymbol{W}, \mathrm{b}$ は学習されるパラメータであり、 $\boldsymbol{h}_{0}$ は、入力ベクトル系列 $\boldsymbol{X}=x_{0}, \cdots, x_{N}$ に相当する。 また、 $\sigma$ はシグモイド関数であり、 $\otimes$ はアダマール積を表す。
また CRF (linear-chain CRF) は、GCNNにより得られた入力系列の特徴ベクトルを入力とし、最も尤度が高い BIEOS ラベルの系列を出力するモデルである。
$
P\left(\boldsymbol{y} \mid \boldsymbol{h}_{t}, \boldsymbol{W}, b\right)=\frac{\prod_{t=i}^{n} \exp \left(\boldsymbol{W}^{y_{t-1}, y_{t}} \boldsymbol{h}_{t}+b\right)}{\sum_{\boldsymbol{y}^{\prime}} \prod_{t=i}^{n} \exp \left(\boldsymbol{W}^{y_{t-1}, y_{t}} \boldsymbol{h}_{t}+b\right)}
$
ここで、 $\boldsymbol{W}, \mathrm{b}$ は学習されるパラメータである。
3)ゲート関数は本論文とは異なり、 $h_{l}\left(\boldsymbol{h}_{l-1}\right)=\left(\boldsymbol{h}_{l-1} * W+b\right) \otimes$ $\sigma\left(\boldsymbol{h}_{l-1} * V+C\right)$ で隠れ状態が計算される。ただし、 $\boldsymbol{W}, \boldsymbol{V}, b, c$ は学習されるパラメータである。
ラベルの予測の際には、1) 各行の単語列の埋め込み行列と単語の座標情報の埋め込み行列の連結を入力として、GCNNを用いて各行に対応する特徵ベクトル $\boldsymbol{h}_{\text {row }}^{1}, \cdots, \boldsymbol{h}_{\text {row }}^{N}$ を計算したのちに、2)さらにその各行の特徴べクトルを入力として、GCNN を用いて周辺の行の情報を考慮した各行のより良い特徴べクトル $\boldsymbol{h}_{\text {row }}^{\prime 1}, \cdots, \boldsymbol{h}_{\text {row }}^{\prime N}$ を計算し、3) 最後に、そのべクトルを入力として CRFで BIEOS ラベル $y_{1}, \cdots, y_{N}$ の予測を行う。情報抽出モデル全体のアーキテクチャについては、付録 B を参照されたい。
また、モデルのアーキテクチャについては今後検証を進めていく段階で変更する可能性も考えられる。例えば、GCNN の部分を双方向 LSTM (Bidirectional Long Short-Term Memory) モデルに変更することなどが考えられるが、モデルの最終的な選定は今後の課題としたい。
## 3.3.3 予備実験
$\mathrm{JEAL} \cdot \mathrm{LI} ・ \mathrm{NLLT}$ の各論文の 2 年間(2006 年-2007 年)で収録されている日本語統語論に関する論文すべて(各 5 報の合計 15 報、合計 381 ページ)を学習・訓練データとして、予備実験を行った。全 381 ページのうち $90 \%$ を学習データ、残りの $10 \%$ を評価データとした。すべてのデータについて、例文の先頭となる行に B (Beginning)、例文中となる行に I (Inside)、例文の範囲外には O (Outside)、例文の最終行に E (End)、さらに 1 行からなる例文の行に S (Single) のラベル付けがされている。学習は 10 エポック行った。
表 2 予備実験の結果
タグレベルとスパンレベルでの結果を表 2 に示す。ここで、タグレベルでの評価では、ある行のモデルの予測が正解のラベルと一致していたら正解と見做されており、スパンレベルの評価では、ある例文の範囲全体に対するモデルの予測が正解のラベルと完全一致した場合にのみ正解と見做されている。
スパンレベルの評価を見ると、15 報という少量なデータにも関わらず 8 割程度の精度を達成できているという結果になった。また、タグレベルでの評価において S-example の精度が悪くなっているのは、 その事例数が少ないためと考えられ、学習データを増やすことによって解決し得る問題であると考えられる。
## 3.4 後処理
前節までにより、対象の論文から例文が自動で抽出されるが、一般に言語学の論文の例文は以下のような形で提示される。
(1) Taroo-ga Hanako-ni/*o au.
Taroo-Nom Hanako-Dat/Acc see
'Taroo sees Hanako.' (Takahashi, 2006) [23]
各行はそれぞれ上から 1) 例文、2) グロス4)、3) 英語訳に対応する。このように、各行はそれぞれ性質の異なるテキストとなっているため、抽出後に後処理的に分割が必要となる。また、英語で書かれた論文を対象とする際には、例文は漢字やひらがなではなくローマ字を用いて提示されているため、それらを漢字平仮名混じりの例文へと変換する必要がある。 さらに、(1) の例文には-ni/*o という部分があるが、「に」を用いるのは文法的だが、「を」を用いるのは
う。」は正文であるが「太郎は花子を会う。」は非文であるということを、この 1 行で示している。こちらについても、データセットに含めるためには後処理的に 1 行から 2 文への変換を行う必要がある。
## 3.5 今後の展望
以上で紹介した手法を用いて、その規模に課題を抱えている JCoLA[10] の例文数を、まずは既存の言語学論文の例文に基づくデータセット $[6,8]$ に匹敵する 10,000 文規模に拡張する予定である。その後、必要に応じてさらにデータセットの規模を拡大していく予定である。
一方、言語学の論文には純粋な統語的制約の違反によって容認不可能とされている例に加えて、ある特定の解釈をすることができないという意味において容認不可能とされている例もある。
ここで、(2)は「ジョン」が「書いた」という動作の主体であると解釈される場合にのみ容認不可能な例であるが、言語モデルにこの文の容認度を予測させる際に、ある特定の解釈を強制することは難しく、 したがってデータセットに含めるのが必ずしも適切ではない例となる。以上のような例への対応については、今後の検討事項としたい。
## 4 おわりに
本論文では、すでに他分野で応用が進んでいる情報抽出の技術を言語学の分野に応用し、理論言語学の論文から自動で例文を抽出することで、言語モデルの統語的評価のためのデータセットを作成する試みを紹介した。既存の言語モデルの統語的評価用データセットは、例文を手動で抽出していたことによりデータの規模を容易に拡大できないという課題 $[6,8]$ や、例文を自動で生成していたことにより必ずしも複雑な統語現象を対象にした検証ができるデータセットではないという課題 $[7,9]$ を抱えていた。
本論文で紹介した言語学論文からの例文の自動抽出が実現すれば、理論言語学の論文で問題となっているような複雑な統語現象を扱い、かつ大規模であるという既存のデータセットにはなかった特徴を持つ言語モデルの統語的評価のためのデータセットを作成することが可能になるだろう。
## 謝辞
本研究は、JST さきがけ JPMJPR21C2 の支援を受けたものです。
## 参考文献
[1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł Ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I Guyon, U V Luxburg, S Bengio, H Wallach, R Fergus, S Vishwanathan, and R Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30, pp. 5998-6008. Curran Associates, Inc., 2017.
[2] Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel R. Bowman. GLUE: A multi-task benchmark and analysis platform for natural language understanding. In International Conference on Learning Representations, 2019.
[3] Alex Wang, Yada Pruksachatkun, Nikita Nangia, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel R. Bowman. Superglue: A stickier benchmark for general-purpose language understanding systems. CoRR, Vol. abs/1905.00537, ,
2019.
[4] Noam Chomsky. Syntactic structures. Mouton, 1957.
[5] Martin B H Everaert, Marinus A C Huybregts, Noam Chomsky, Robert C Berwick, and Johan J Bolhuis. Structures, not strings: Linguistics as part of the cognitive sciences. Trends Cogn. Sci., Vol. 19, No. 12, pp. 729-743, December 2015.
[6] Alex Warstadt, Amanpreet Singh, and Samuel R Bowman. Neural network acceptability judgments. Transactions of the Association for Computational Linguistics, Vol. 7, pp. 625-641, November 2019.
[7] Alex Warstadt, Alicia Parrish, Haokun Liu, Anhad Mohananey, Wei Peng, Sheng-Fu Wang, and Samuel R Bowman. BLiMP: The benchmark of linguistic minimal pairs for english. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 377-392, December 2020.
[8] Daniela Trotta, Raffaele Guarasci, Elisa Leonardelli, and Sara Tonelli. Monolingual and cross-lingual acceptability judgments with the Italian CoLA corpus. In Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 2929-2940, Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics.
[9] Beilei Xiang, Changbing Yang, Yu Li, Alex Warstadt, and Katharina Kann. CLiMP: A benchmark for Chinese language model evaluation. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 2784-2790, Online, April 2021. Association for Computational Linguistics.
[10] 染谷大河, 大関洋平. 日本語版 CoLA の構築. 言語処理学会第 28 回年次大会, 2022.
[11] Tal Linzen, Emmanuel Dupoux, and Yoav Goldberg. Assessing the ability of LSTMs to learn Syntax-Sensitive dependencies. Transactions of the Association for Computational Linguistics, Vol. 4, pp. 521-535, December 2016.
[12] Alec Marantz. Generative linguistics within the cognitive neuroscience of language. Vol. 22, No. 2-4, pp. 429-445, 2005.
[13] Tal Linzen and Yohei Oseki. The reliability of acceptability judgments across languages. Glossa: a journal of general linguistics, Vol. 3, No. 1, 2018.
[14] Rebecca Marvin and Tal Linzen. Targeted syntactic evaluation of language models. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 11921202, Brussels, Belgium, 2018. Association for Computational Linguistics.
[15] Aaron Mueller, Garrett Nicolai, Panayiota Petrou-Zeniou, Natalia Talmina, and Tal Linzen. Cross-linguistic syntactic evaluation of word prediction models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, Stroudsburg, PA, USA, 2020. Association for Computational Linguistics.
[16] Kristina Gulordava, Piotr Bojanowski, Edouard Grave, Tal Linzen, and Marco Baroni. Colorless green recurrent networks dream hierarchically. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 1195-1205, New Orleans, Louisiana, June 2018. Association for Computational Linguistics.
[17] Shauli Ravfogel, Yoav Goldberg, and Francis Tyers. Can LSTM learn to capture agreement? the case of basque. In Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 98-107, Brussels, Belgium, November 2018. Association for Computational Linguistics.
[18] Aixiu An, Peng Qian, Ethan Wilcox, and Roger Levy. Representation of constituents in neural language models: Coordination phrase as a case study. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 2888-2899, Hong Kong, China, November 2019. Association for Computational Linguistics.
[19] Hiroyuki Shindo, Yohei Munesada, and Yuji Matsumoto. PDFAnno: a Web-based Linguistic Annotation Tool for PDF Documents. In Nicoletta Calzolari (Conference chair), Khalid Choukri, Christopher Cieri, Thierry Declerck, Sara Goggi, Koiti Hasida, Hitoshi Isahara, Bente Maegaard, Joseph Mariani, Hélène Mazo, Asuncion Moreno, Jan Odijk, Stelios Piperidis, and Takenobu Tokunaga, editors, Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Miyazaki, Japan, May 7-12, 2018 2018. European Language Resources Association (ELRA).
[20] Lance Ramshaw and Mitch Marcus. Text chunking using transformation-based learning. In Third Workshop on Very Large Corpora, 1995.
[21] Lev Ratinov and Dan Roth. Design challenges and misconceptions in named entity recognition. In Proceedings of the Thirteenth Conference on Computational Natural Language Learning (CoNLL-2009), pp. 147-155, Boulder, Colorado, June 2009. Association for Computational Linguistics.
[22] Yann N. Dauphin, Angela Fan, Michael Auli, and David Grangier. Language modeling with gated convolutional networks. In Proceedings of the 34th International Conference on Machine Learning - Volume 70, ICML'17, p. 933-941. JMLR.org, 2017.
[23] Daiko Takahashi. Apparent parasitic gaps and null arguments in japanese. J. East Asian Ling., Vol. 15, No. 1, pp. 1-35, 2006.
[24] Yasutada Sudo. Hidden nominal structures in japanese clausal comparatives. J. East Asian Ling., Vol. 24, No. 1, pp. 1-51, 2015.
[25] Hideki Kishimoto. Ditransitive idioms and argument structure. J. East Asian Ling., Vol. 17, No. 2, pp. 141-179, 2008.
## A PDFAnno のユーザーインターフェース
図 1 PDFAnno のインターフェース。例文の範囲を PDF に直接アノテーションできる。論文は Kishimoto (2008) [25]。
B モデルアーキテクチャ
図 2 情報抽出モデル全体のアーキテクチャ。Coord. はPDF 文書に埋め込まれている単語の座標情報である。 | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F2-2.pdf | # 物理モデル自動構築に向けた変数アノテーションツールの開発
加藤 祥太 加納 学
京都大学大学院情報学研究科
katou. shouta.23v@st.kyoto-u.ac.jp
manabu@human.sys.i.kyoto-u.ac.jp
## 概要
製造業におけるデジタルツイン実現に不可欠な物理モデルの構築には多大な労力を要する.この問題を解決するために,著者らは,文献情報から物理モデルを自動で構築するシステム(Automated physical model builder; AutoPMoB)の開発を目指している. AutoPMoB の実現に向けた複数の要素技術の開発には専用のデータセットが必要である. 本研究では,文献中の変数の記号とその定義を含むデータセットを作成するためのアノテーションツールを開発した。開発したツールを用いてプロセスの物理モデルに関する論文 28 報に含まれる変数の記号とその定義をまとめたデータセットを作成した.
## 1 はじめに
化学や鉄鋼などのプロセス産業において,物理や化学の法則に基づく物理モデルはプロセスの設計や運転に必要不可欠である. 物理モデルの構築にはプロセスに関する深い理解と専門知識に加えて精度向上のための試行錯誤的な取り組みが必要なため, 多大な労力を要するという問題がある.
著者らはこの問題を解決するために,文献情報から物理モデルを自動で構築する人工知能 (Automated physical model builder; AutoPMoB)の開発を目指している. AutoPMoB は,1)文献データベースから対象プロセスに関する文書を収集し,2)文書の形式を HTML 形式に変換し,3)物理モデル構築に必要な情報(数式,変数,実験データなど)を抽出し,4)複数の文書から抽出した情報の同義性を判定して表現を統一し,5)その情報を統合して所望の物理モデルを構築する。
AutoPMoB を実現するためには上述の 5 つのタスクを実行するための要素技術を開発する必要がある. 著者らはこれまでにタスク 3 に関連する変数を正確に抽出する手法の開発 [1] やタスク 4 に関連する数式群の同義性判定手法の開発に取り組んでき
た [2]. さらなる要素技術を開発するためにはプロセスに関する文献に情報を付与したデータセットが必要である.本稿では,変数の定義抽出と同義性判定の技術の開発に必要なデータセットを作成する.
従来の変数の定義抽出に関連する研究 $[3,4,5,6]$ は,Wikipedia の記事や arXiv.org に掲載されている論文を対象としており,HTML 文書中の math タグが付与された要素や TeX 文書中の数式をスペースで区切ることで得られるトークン,記述子などに対応する定義を抽出していた. プロセスに関する文献では,単一の記号で表される変数に加えて下付き文字がついた変数や複数の記号で表される変数などが登場するが,従来の研究ではプロセスに関する文献はほとんど扱われていない。また,従来の研究で用いることを想定したアノテーションツールがいくつか存在するが,工学分野の文献に特化したツールはなく,上述の変数と定義に特化したデータセットも存在しない.
そこで,本研究では,工学分野の文書から変数の記号を自動で抽出するアルゴリズムを提案し,抽出した変数の記号に対応する定義を付与する際に役立つアノテーションツールを開発する。 さらに,そのツールを用いてプロセス関連の論文に対してアノテーションをおこなう.
## 2 変数を意味する記号の抽出方法
科学文書中の数式を対象とした研究の多くは HTML 形式または TeX 形式の文書を扱っている.数式は, HTML 形式の文書では Mathematical Markup Language (MathML) 形式で, TeX 形式の文書ではコマンドを用いて記述されるため,それらから数式は容易に抽出できる. HTML 形式の文書が Web ペー ジで入手可能であること,PDF 形式の文書を HTML 形式に変換するツールが開発されていることを踏まえ,本稿では HTML 形式の文書を対象とする。なお, $\mathrm{LT}_{\mathrm{E}} \mathrm{XML}[7]$ のようなソフトウェアで TeX 形式の文書を HTML 形式に変換することも可能である.
プロセスの物理モデルに関する文献では, $T$ のように単一の記号で表される変数だけでなく, $T_{\mathrm{R}} や$ $\hat{y} , \Delta E$ のように複数の記号で表される変数も存在する.このような変数を表す記号を自動で抽出するためのアルゴリズムを Algorithm 1 に示す.
この変数記号抽出アルゴリズムでは,まず, HTML 形式の文書 $d$ に含まれる msup タグが付与された要素(上付き文字がついた記号)の一覧 $\mathscr{E}_{\text {msup }}$ を取得する (1 行目). 各要素の上付き文字に該当する記号列がすべて立体(ローマン体)でない場合,その要素が累乗を表すと判断し, $d$ に含まれる当該要素と同じ文字列を記号 ^を用いた表記に置換する (2-8 行目).これにより累乗と付加的な情報を表す上付き文字を区別する(例えば, $T^{\mathrm{R}}$ は
1 つの変数であるが, $T^{R}$ は $T$ の乗である).次に, $d$ から math タグが付与された要素の一覧 $\mathscr{E}_{\text {math }}$ を得る (9 行目). HTML 形式の文書における math タグが付与された要素は, TeX 形式の文書における数式環境(\begin\{equation\}...lend\{equation\}, } \begin\{eqnarray\}...lend\{eqnarray\},\$..\$など) } に対応する. $\mathscr{E}_{\text {math }}$ の各要素について, 複数の記号が連続した文字列( $\Delta E$ や $\delta t$ など)のみが存在する場合,その文字列を変数として抽出し,同じ文字列を $d$ から削除する(11 行目から 18 行目). 最後に,上述の処理をした $d$ から math タグが付与された要素の一覧 $\mathscr{E}_{\text {math }}^{\prime}$ を得て,各要素に含まれる変数を抽出する (19 行目から 24 行目).ここで抽出される変数は 1 つの記号,または 1 つの記号に上付き文字,下付き文字,上下の装飾(‘など)のいずれか,あるいはそれらの組み合わせがついた文字列である.
## 3 アノテーションツール
科学文書中の変数を表す記号(変数記号)に対して定義(変数定義)を付与する際には,文書中の変数記号を特定し,変数定義に該当する名詞句を割り当てる. 本稿ではこの作業の実行者をアノテータと呼ぶ. 著者らは,アノテータが文書中の変数記号と変数定義をまとめたデータを作成するためのツールを開発した。
本ツールを用いる際,各変数記号に対して文中の変数定義と正しい変数定義を入力する必要がある.これは,文中の変数定義が変数記号の意味として必要十分ではない場合があるからである.例えば, $C_{\mathrm{A}}$ and $C_{\mathrm{B}}$ are concentrations of $\mathrm{A}$ and B. という文において,変数記号は $C_{\mathrm{A}}$ と $C_{\mathrm{B}}$ であり,それに対応する正しい変数定義は concentration of A と concentration of B であるが,文中の変数定義はいずれも concentrations of A and B である. 文中の変数定義(concentrations of A and B)を抽出してから,それが必要十分かを識別し処理することで正しい定義 (concentration of A と concentration of B)を得る定義抽出手法を今後開発していく予定である.
アノテーションツールの使用画面を図 1 に示す.最初に画面上部で対象とする文書を選択する(1).本ツールは Algorithm 1 に従って選択された文書から変数記号を自動で抽出しIDを付与する. 画面左側には文書中のテキストが表示される(2),各変数記号が MATH_ID の文字列に置換されたテキスト (Processed text)と元のテキスト(Original text)の 2
## Annotation tool
Processed text
## III. CSTR Process Description
In this paper, we consider the control problem of an ideal jacketed Continuously Stirred Tank Reactor (CSTR) system (Fig.1), where the following exothermic and irreversible firstorder reaction is taking place:
$\mathrm{A} \rightarrow \mathrm{B}(7)$
With a kinetic rate law:
-MATH $\_0000=$ MATH_0015 $($ MATH_0016)MATH_0001 = MATH_0002exp
Under the assumptions of constant volume, perfect mixing inside the reactor and constant reacting mixture heat capacity, one may write down the following mass balance for species $A$, as well as an overall energy balance for the reactor:
$\frac{\text { dMATH_0001 }}{\text { dMATH_0019 }}=$ invalid-markup $($ MATH_0003 - MATH_0001) - MATH_001s
$\frac{\text { dMATH_0016 }}{\text { dMATH_0019 }}=$ invalid-markup $\left(\right.$ MATH_0004 - MATH_0016) $-\frac{\text { MATI }}{\text { MATH_002' }}$
Under the assumptions of uniform temperature of the jacket fluid inside the circulation tubes and constant water heat capacity, an energy balance for the jacket may also be written down:
$\frac{\text { dMATH_0008 }}{\text { dMATH_0019 }}=$ MATH_0009invalid-markup $($ MATH_0012 - MATH_0008) +
In equations (7)-(1) MATH_0019 is the time, MATH_0025 are concentrations, MATH_0016 represents temperatures, MATH_0008 is the jacket temperature, MATH_0006 is used for specific heat capacities, MATH_0020 represents volumetric flow rate, MATH_0011 is overall effective mass of the heating/cooling system, MATH_0021 is reactor volume, MATH_0022 represents densities, MATH_0007 is the heat exchange surface, MATH_0013 is heat capacity of water, MATH_0024 is power input to the heater, MATH_0012 is temperature of cooling water and MATH_0023 is the heat transfer coefficient. The numerical values taken from [8] (see, [9] for more details on CSTR). A linear model will be developed around the steady-state operating point. The linearization will be respect to MATH_0001 and MATH_0016,
Original text $(2)$
Choose variable No.
26
HTML format: <mi>u</mi>
TeX format: $\mathbf{u}$
Select the sentence including the variable definition.
$
\text { The goal is to contr... }
$
[
0 :
"The goal is to control the reactor composition by manipulating the cool rate through the control signal MATH_0026."
Input the variable definition in the sentence.
the control signal
[
๑ : "the control signal"
]
Input the correct variable definition.
the control signal
$\checkmark$
○ : "the control signal"
]
& & \\
図 1 アノテーションツールの使用画面
種類を表示可能である. アノテーションは 1 変数記号単位でおこなう。アノテータは,画面右側でアノ
テーションをする変数記号を選択してから(3),変数定義を表す名詞句が含まれる文を選択し(4),
文中の変数定義と正しい変数定義を手作業で入力する (5). 複数の文に変数定義が登場する場合,それらをすべて抽出する。 選択した文の数と入力した文中の変数定義の数が異なるときや選択した文に変数定義が含まれないときには警告文が出力される.入力が終了したら Save ボタンを押して情報をファイル(xlsx 形式)に保存する(6). 変数定義が存在する文がなければ文を選択せずに Save ボタンを押し,変数定義が存在する文がない,という情報を保存する.保存された情報は画面上で確認できる。
各変数記号に対して以下の 8 つの情報を保存する.
## $\cdot$ ID
- 変数記号の文字列 (HTML 形式)
・変数記号の文字列 (TeX 形式)
- 文中の変数定義
- 正しい変数定義
・変数定義が存在する文の番号
- 変数定義が存在する文の文字列
- 正しい変数定義が抽出可能か否か(文中の変数定義と正しい変数定義が一致するか)
本アノテーションツールは Python で実装し, UIには Streamlit [8] を,テキストの文分割には Stanza [9] を使用した。
## 4 データセット作成
連続槽型反応器 (CSTR) に関する論文 10 報, 熱交換器に関する論文 7 報, 晶析プロセスに関する論文 11 報を対象に,開発したツールを使用して変数記号と変数定義を含むデータセットを作成した. これらの論文は PDF 形式で入手したため, InftyReader [10] で TeX 形式に変換したのちに,もとの論文を再現するように人手で修正し, LATEXML で修正後の TeX 形式の論文を HTML 形式に変換した。
作成したデータセットの統計情報を表 1 に示す.抽出された変数の総数は 1,094 , 文中に変数定義が存在する変数の数は 680 , 文中に存在する変数定義と正しい変数定義とが少なくとも 1 つ一致した変数の数は 513 であった. 論文単位の変数の数の最小値は 16, 最大値は 96, 平均値は 39 であった.
このデータセットはアノテータ 1 名(第一著者) が作成した. 作業ぺースは論文に含まれる変数の数によるが,1 報あたり約 30 分であった. ツールを用いずに上述の 8 つの情報を手作業で保存する場合,表 1 データセットの統計情報. $V$ は変数集合, $V_{\mathrm{ext}}$ は文中に変数定義が存在する変数の集合, $V_{\mathrm{cor}}$ は文中の変数定義と正しい変数定義が一致した変数の集合である. $|V|$ は $V$ に含まれる要素数を表す。
論文 1 報あたりの処理時間は 1 時間以上だったため, 本ツールによって大幅に作業を効率化できた.今後は, 複数名のアノテータで上述の 3 つのプロセス以外のプロセスに関する論文と書籍を対象にしてアノテーションをおこない,データセットを拡張する予定である。
## 5 おわりに
本研究では,製造プロセスの物理モデルに関する文献に含まれる変数を表す記号(変数記号)とその定義(変数定義)からなるデータセットを作成する作業を効率化するアノテーションツールを開発した. 作業者(アノテータ)は本ツールによって自動で抽出される変数記号に対して,変数定義を手作業で入力する。開発したツールを用いて製造プロセス関連の論文 28 報に対して変数記号と変数定義を含むデータセットを作成した. 本ツールとデータセットは公開予定である.
開発したツールは今後も改良を続けていく,具体的には以下の機能を追加予定である.
PDF 形式の文書の扱い本稿では, PDF 形式の文書を $\mathrm{TeX}$ 形式に変換したが,数式や本文の一部が正しく変換されなかったため, 手作業で修正した. 今後, PDF 形式の文書を入力として扱えるように, TeX 形式への変換精度の改善に取り組む予定である.
定義の候補の提示現状,アノテータは本文から定義に該当する名詞句を探し出す必要がある. アノテータがより効率的に定義を発見するためには,定義の候補を出力することが有効であると考えられる. アノテータの負担を軽減するために,変数定義の抽出技術を組み合わせ,定義候補を提示できるようにする予定である.
## 謝辞
本研究は JSPS 科研費 JP21K18849 および JST 次世
代研究者挑戦的研究プログラム JPMJSP2110の助成
を受けたものです。
## 参考文献
[1] Shota Kato and Manabu Kano. Identifier information based variable extraction method from scientific papers for automatic physical model building. PSE Asia, Paper No. 210043, 2020.
[2] 張純朴, 加藤祥太, 金上和毅, 加納学. ルールベース手法による数式群の同義性判定. 言語処理学会第 27 回年次大会発表論文集, pp. 279-282, 2021.
[3] Giovanni Yoko Kristianto, Goran Topić, and Akiko Aizawa. Extracting textual descriptions of mathematical expressions in scientific papers. D-Lib Magazine, Vol. 20, No. 11, 2014.
[4] Moritz Schubotz, Alexey Grigorev, Marcus Leich, Howard S Cohl, Norman Meuschke, Bela Gipp, Abdou S Youssef, and Volker Markl. Semantification of identifiers in mathematics for better math information retrieval. In SIGIR 2016 - Proceedings of the 39th International ACM SIGIR Conference on Research and Development in Information Retrieval, pp. 135-144, 2016.
[5] Moritz Schubotz, Leonard Krämer, Norman Meuschke, Felix Hamborg, and Bela Gipp. Evaluating and improving the extraction of mathematical identifier definitions. In Conference and Labs of the Evaluation Forum (CLEF), Dublin, Ireland, pp. 82-94, 2017.
[6] Hwiyeol Jo, Dongyeop Kang, Andrew Head, and Marti A Hearst. Modeling mathematical notation semantics in academic papers. In Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 3102-3115. Association for Computational Linguistics, 2021.
[7] Bruce Miller. ${ }^{2} T_{E} X M L$ The Manual-A ${ }^{2} T_{E} X$ to XML/HTML/MathML Converter, Version 0.8.3. https: //dlmf.nist.gov/LaTeXML/, 2018. (Accessed on 2021/11/06).
[8] Streamlit - the fastest way to build and share data apps. https://streamlit.io/. (Accessed on 01/10/2022).
[9] Peng Qi, Yuhao Zhang, Yuhui Zhang, Jason Bolton, and Christopher D. Manning. Stanza: A python natural language processing toolkit for many human languages. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 101-108, Online, July 2020. Association for Computational Linguistics.
[10] M. Suzuki, F. Tamari, R. Fukuda, S. Uchida, and T. Kanahori. Infty: An integrated ocr system for mathematical documents. In Proceedings of the 2003 ACM Symposium on Document Engineering, p. 95-104, 2003. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F2-3.pdf | # MioGatto による数式グラウンディングデータセットの構築
朝倉卓人
東京大学
takuto@is.s.u-tokyo.ac.jp宮尾祐介
東京大学
yusuke@is.s.u-tokyo.ac.jp相澤彰子
国立情報学研究所
aizawa@nii.ac.jp
## 概要
計算機を用いた科学技術文書の読解には,数式内の 1 つ 1 つの記号の意味をグラウンディングできることが重要である.現実の科学技術文書においては数式内の記号の意味は必ずしも一定ではなく, 同じ記号が複数の意味で用いられるため,グラウンディングの際には記号間の共参照関係も明らかにする必要がある. 本研究では arXiv.org から選んだ 15 本の科学論文を対象に, 数式内の記号の共参照関係を明示的にアノテーションしたコーパスの構築を行った. その結果, 数式内の記号の曖昧性は狭い範囲に絞っても存在するほど複雑だが,共参照関係は高いアノテータ間一致率を保ちながらラベル付け可能であることが示された.
## 1 はじめに
論文や専門書などの科学技術文書に書かれた知識を,検索・数式処理・定理証明支援などの計算機を応用した諸技術を用いて十分に活用するためには,文書中の自然言語テキストのみならず数式についても解析を行うことが必須である. そして, 自然言語中の数式解析を行うには,数式内に現れる 1 つの文字や記号(トークン)がどのような意味で用いられているのかを明らかにする必要がある.著者らはこれまでに,この部分の処理を数式グラウンディングとして定式化・提案してきた $[3,4]$. このタスクは各数式トークンに対してそれぞれ文脈に応じた説明を付与する説明アライメントタスク(図 1)と, まったく同じ意味で用いられているトークンとそうでないトークンを判別する共参照解析タスクの 2 つの性質を併せ持つ.
計算機による科学技術文書理解の達成には,数式グラウンディングの自動化が必要である. 自動化手法の開発を目指し, 著者らはまず実際にグラウンディングされたデータの観察・分析・学習・評価のため人の手によるグラウンディング結果のアノテー
図 1 説明アライメント
ションを付したコーパス構築に取り組んだ。一般に共参照情報のアノテーションは特に高コストであるため [12] 著者らは専用のアノテーションツール MioGatto ${ }^{1)}$ を開発してデー夕構築プロセスを効率化した [5]. その上で,実際に MioGatto を用いて 11 名の学生アノテータとともに計 15 本の科学論文について,それらの論文中の数式のすべての数式識別子出現に対するアノテーションを行った.
本稿では,この数式グラウンディングデータセットのこれまでの構築手順を紹介するとともに,得られたアノテーション付きコーパスの概要と分析結果について報告する。構築したデータセットは SIGMathLing リポジトリ2)にて配布している.
## 2 関連研究
文書中の数式理解に資することを目的とするデー タセットは,複数提案されてきた。 arXMLiv デー タセット [10] はプリプリントサーバ $\operatorname{arXiv.org}{ }^{3}$ に収録されている 150 万本以上の科学論文を, 様々な研究用途の計算機プログラムで扱いやすいよう $\mathrm{LAT}_{\mathrm{E}} \mathrm{XML}$ [11] を用いて XHTML 文書に変換した巨大な文書コーパスである。文書中の数式部分は
LATEXML の機能により機械的にプレゼンテーション MathML [6] に変換されているが, 基本的に通常の $\mathrm{LAT}_{\mathrm{E}} \mathrm{X}$ マークアップに含まれるのと同じ「見た目」 に関する情報がエンコードされているに過ぎず,特にそれ以上に踏み込んだ情報は付加されてはいない.それでも数式を含む文書の貴重な言語資源として広く活用されており, MioGatto の入力形式もこの arXMLiv の XTHML の仕様 [9] に準じている.
科学技術文書の数式部分について,各トークンに説明を付与したアノテーション付きコーパスはいくつか提案されている. NTCIR-10では Math Pilot 共通タスクの一部として自然言語テキスト内にあるトー クンの定義を抽出する Math Understanding サブタスクが提案され, その開発・評価のために arXMLiv データセットに含まれるXHTML 文書内の数式に人手で説明が付与されたデータセットが提供された [1]. また類似のタスクは数式内の 1 つ 1 の識別子に対して説明を付与する MathAlign タスクとしても定式化されており, 同じく arXiv.org に収録されている 116 本の論文の中から,合わせて 584 の識別子に説明を与えたデータセットも存在する [2].
ある程度以上の長さのある現実の科学技術文書では,しばしば数式トークンは 1 つの文書内においても複数の意味で用いられる $[3,4]$. 例えば機械学習分野の教科書 PRML [7] の第 1 章では, 太字の $\mathbf{y}$ は同じ章の中で少なくとも 4 つの意味で用いられている (表 1)。そのため文書中の数式理解には, こうした同一文書内のトークン間の共参照関係を明らかにすることが必要だが,数式トークンの共参照関係が明示的にラベル付けされたデータセットは知られていない. 本研究では, 本文にある程度の長さがあり数式も豊富なものを中心として 15 本の科学論文を選定し, それらに現れる合計 12,352 個の数式識別子出現すべてについて,各論文内での共参照関係を明示的にアノテーションしたデータセットを構築した.
表 1 PRML [7]第 1 章における $\mathbf{y}$ の曖昧性
## 3 アノテーションの目的と方法
数式グラウンディングの自動化には, 手法の構築と評価のためにデータセットが必須である. 統計モ
デルを構築して自動化を実現するには一般に大量の教師データが必要になる. 最初はルールベースでデータを増やす場合にも,ルールの検討には実際の文書における数式トークンの使われ方を観察する必要があり, やはりある程度のデータが要ることに変わりはない. またいずれにしても評価用のデータは必要である. 本研究では, グラウンディング自動化の第一歩として実際の科学論文を対象に次の 2 種類の情報をすべて人手でアノテーションした(図2).
数学概念数式中のトークンが参照する概念. 実際のアノテーションデータとしては,単純な説明 (description) に加えて, 数学的な型やアリティ,制約条件などの付加的な属性を付与することができる.
グラウンディング情報源人間がグラウンディングを行う際に,その根拠として利用できるテキストスパン.数学的に定義や宣言にあたる箇所が該当する. 例えば図 2 の最初の $f$ は実数関数にグラウンディングされるが, その根拠となる情報源は直前の “a real-valued function”である.
図 2 アノテーションした情報: 数式中の各トークンをそれぞれの参照する数学概念に紐付ける. その際の根拠となるテキストスパンをグラウンディング情報源と呼ぶ.例文テキストは英語版 Wikipedia ${ }^{4)}$ より.
4) https://en.wikipedia.org/wiki/Integral
各数式トークンの出現に直接説明をアノテーションする代わりに,文書ごとにアノテータが作成する数学概念の一覧(数学概念辞書と呼ぶ)に定義される概念 ID をラベル付けすることで,共参照関係を明示したデータセットを構築することができる. すなわち, 同じ概念 ID と紐づく出現同士は共参照関係にある一方で,異なる ID と紐づくものは共参照関係にない。こうしたアノテーションを実現するために,実際のアノテーションにおいては著者らが開発した専用のアノテーションツール MioGatto を用いた (図 3). MioGatto は (1) 数学概念辞書の作成, (2) 各出現への数学概念 ID の紐付け, (3) 各出現に対応するグラウンディング情報源のスパン位置のアノテーションを GUI 操作のみで素早く行うことができるように設計されている [5].
図 3 MioGatto の操作画面. 画面の左側にアノテーション対象の論文の本文があり, 右側のサイドバーに MioGatto の提供する情報やアノテーション操作に必要なボタン類が配置されている.
データセット構築にあたっては, arXiv.org に $\mathrm{LAT}_{\mathrm{E}} \mathrm{X}$文書ソース付きで収録されている英文論文の中から, ある程度以上の数式が用いられているものを選んでアノテーションを行った. こうした英文で数式を含む科学論文を正しく読解してアノテーションを行うには,それぞれの論文の分野について専門的な知識を要することから, 様々な分野の専門知識を持つ学生 (主に大学院生と学部生) の中から協力者を募集した (付録 $\mathrm{A})$. 参加アノテータにそれぞれの背景知識・興味に合った論文を arXiv.org 收録論文の中から選定してもらい, 選ばれた論文を MioGattoを用いてアノテーションするための前処理を行った. この前処理には論文著者によるオリジナルの $\mathrm{LAT}_{\mathrm{E}} \mathrm{X}$文書を $\mathrm{IAT}_{\mathrm{E}} \mathrm{XML}$ で XML に変換する作業と, 著者の誤った数式マークアップを修正する作業(付録 B) が含まれる. 各アノテータには MioGatto の使用法を説明するとともに,実際のアノテーションに必要な論文 XHTML データ,アノテーションデータの雛形, 手順書5)を提供し, 同手順書にしたがってアノテーション作業を実施してもらった. アノテーションの結果得られたデー夕は著者らが内容を確認の上, その後の分析を行った。
今回アノテーションの対象としたのは,選定した論文内で用いられているすべての数式の,すべての数式識別子の出現である. ここで数式識別子とは数式トークンの一種で,変数・関数・定数を表す単一の文字 $(x$ や $\theta$ )または短い名前 $(\sin なと ゙)$ のことである. 数式内には識別子以外にも演算子 (+など) や数値といったトークンもあるが,アノテーション対象が多くなり過ぎることを防ぐため今回は識別子に対象を絞っている. またグラウンディング情報源については, 論文内でアノテータが発見できたものすべてをアノテーションした. 1 つの概念に紐付く情報源が論文内に複数箇所ある場合や,ある概念に紐付く情報源が 1つもない場合もあるため, ラベル付けする情報源の数には制約を設けなかった.
## 4 構築済みデータセットの分析
NLP ・数理論理学・代数学・天文学などの分野の科学論文合わせて 15 本について, すべての数式識別子出現に対する手動アノテーションを完了した (表 2)、データセット全体では合計 12,354 個の識別子出現があり, そのすべてに数学概念が割り当てられた. またグラウンディング情報源にあたるテキストスパンは計 938 個収集できた。各論文について識別子の「種類」数を, 対応する概念辞書の「概念」数で割ると,識別子の種類ごとに平均いくつの意味で用いられているかが算出できるが,その平均値は全体を通して 2.09 であった. また識別子の種類ごとに使われる回数が異なるので, 出現数を考慮して加重平均したものが表 2 の「平均候補」数である.これは実際のアノテーション時に, 各出現に対して数学概念を割り当てる際にアノテータが目にした選択肢の数の平均値に相当する. そのため「平均候補」 の数が大きいほど識別子の曖昧性の度合いが高く, アノテーションの難易度も高かったと解釈できる.
s-Guide
表 2 アノテーション結果.「番号」は説明のための便宜的な論文 ID,「単語」は本文の単語数,「種類」は識別子の種類数, 「出現」は識別子の出現数,「概念」は概念辞書に登録された項目数,「平均候補」は辞書項目数の識別子出現回数に応じた加重平均, 「情報源」はグラウンディング情報源の数. 具体的な文献情報は付録 A に掲載する。
## 4.1 アノテータ間一致率
本研究でアノテーション対象としたのは専門性の高い科学論文であるので,同一の文書に対してアノテーション可能な人員を複数名確保するのは容易でない. しかしアノテーションの正確性・再現性を確認するため, 論文 1 については計 5 名のアノテータで独立にアノテーションを実施し,アノテー夕間一致率の算出を行った (表 3). 概念辞書の作成はアノテータ A が担い,他はその辞書を用いて概念の割当や情報源のアノテーションを行った. アノテータにより作業精度に多少ばらつきがあるが, 数学概念の一致率・Cohen の $\kappa$ 値 [8] を算出すると十分に高い值となっている. またグラウンディング情報源も高い頻度で重複しており,人間が情報源とみなすテキストスパンはよく一致することがわかった.
## 4.2 スコープの切替位置と情報源
ある数式識別子の出現に対して割り当てられた数学概念が, 同じ識別子種の直前の出現に割り当てられた概念と異なる場合, その 2 つの識別子出現の間にスコープの切替があると言う.数式グラウンディングを行うには,1つの文書内のすべてのスコープの切替位置を特定する必要があり, これが自動化において最も挑戦的な部分である. 今回構築したデータセットでは,論文 15 本の中で合計 2,378 回のスコープ切替があった. このうち 1 つのセクショ表 3 アノテータの役割と一致率. 上 3 行に各アノテータの役割, 中 2 行に数学概念の一致率, 下 2 行に情報源の数を示す。一致率・重複率は対アノテータ A の値である.
ンの中でスコープ切替が起こっているものは 2,129 回 $(89.5 \%$ )であったことから, 文書内の単一のセクションという狭い範囲に絞ってみても数式識別子には曖昧性があることがわかった。
またグラウンディング情報源とされたテキストスパンと,それぞれと紐付けられている数式識別子の出現との位置関係についても分析を行った. アノテーションされた計 938 個のグラウンディング情報源のうち $76.5 \%$ にあたる 718 個が数式識別子よりも先行する位置に存在していた。また各情報源とそれと紐付く数式識別子出現(最も距離が近いもの)の距離を,間に挟まる単語の数で計数すると,平均して 14.7 単語であった. ただし, 情報源・識別子間の距離はばらつきが大きく, 距離の中央値はすべての論文で $0 \sim 4$ 単語の範囲にあり, 典型的な情報源は対応する識別子出現の直前数単語以内に存在する.
## 5 結論と今後の展望
本研究では多様な分野の科学論文 15 本について, グラウンディング情報を人手でアノテーションしたデータセットを構築した。その中ではすべての識別子出現に説明といくつかの付加情報がラベル付けされるとともに,各論文内で識別子間の共参照関係が明示的になっている. さらにこうしたデータセットは必ずしも言語資源構築を専門としないアノテータによる作業でも構築可能であることを示した.
今後は概念辞書の作成のみを人手で行い,論文中の識別子出現に対してその概念辞書のうちの適当な項目を自動で割り当てる半自動化を行う。これにより効率よく提案データセットを量的に拡張し,ひいてはグラウンディング全体の自動化を達成する.
## 謝辞
本研究は JST ACT-X (JPMJAX2002) の支援を受けて実施しました. 日頃より実りある議論をしている Michael Kohlhase 教授と André Greiner-Petter 氏に感謝します.また MioGatto の改善を手伝ってくださった石井太河氏と, 本研究に参加いただいたすべてのアノテータの方々にも感謝します.
## 参考文献
[1] Akiko Aizawa, Michael Kohlhase, Iadh Ounis. "NTCIR-10 Math Pilot Task Overview." Proceedings of NTCIR-10. 2013.
[2] Maria Alexeeva, Rebecca Sharp, Marco A. Valenzuela-Escárcega and Kadowaki, Jennifer Kadowaki, Adarsh Pyarelal, Clayton Morrison. "MathAlign: Linking Formula Identifiers to their Contextual Natural Language Descriptions". Proceedings of the 12th Language Resources and Evaluation Conference (LREC 2020).
[3] 朝倉卓人, André Greiner-Petter,相澤彰子,宮尾祐介. 『数学概念への数式グラウンディングのためのデータセット』. 言語処理学会第 26 回年次大会予稿集 (NLP2020).
[4] Takuto Asakura, André Greiner-Petter, Akiko Aizawa, Yusuke Miyao. "Towards Grounding of Formulae." In Proceedings of First Workshop on Scholarly Document Processing (SDP 2020).
[5] Takuto Asakura, Yusuke Miyao, Akiko Aizawa, Michael Kohlhase. "MioGatto: A Math Identifieroriented Grounding Annotation Tool." In 13th MathUI Workshop at 14th Conference on Intelligent Computer Mathematics (MathUI 2021).
[6] Ron Ausbrooks et al. Mathematical Markup Language (MathML) 3.0 Specification. 2014. https: //www.w3.org/TR/MathML3/.
[7] Christopher M Bishop. Pattern Recognition and Machine Learning. 2006.
[8] Jacob Cohen. "A coefficient of agreement for nominal scales." Educational and Psychological Measurement. 1960.
[9] Deyan Ginev, Heinrich Stamerjohanns, Bruce R. Miller, and Michael Kohlhase. 'The IATEXML Daemon: Editable Math on the Collaborative Web." Intelligent Computer Mathematics. 2011.
[10] Deyan Ginev. arXMLiv:2020 dataset, an HTML5 conversion of arXiv.org. SIGMathLing. 2020. https://sigmathling.kwarc.info/resources/ arxmliv-dataset-2020/.
[11] Bruce Miller. $\mathrm{AT}_{\mathrm{E}} \mathrm{XML}$ The Manual-A $\mathrm{LAT}_{\mathrm{E}} \mathrm{X}$ to XML/HTML/MathML Converter, Version 0.8.3. 2018. https://dlmf.nist.gov/LaTeXML/.
[12] Bruno Oberle. "SACR: A Drag-and-Drop Based Tool for Coreference Annotation." In Proceedings of the 11th International Conference on Language Resources and Evaluation (LREC 2018).
## 付録 A アノテータの募集方法とアノテーション対象の論文
数式を含む英文科学論文の読解を伴うアノテーションタスクは一般のクラウドソーシングでは実現が難しいため, 本研究に参加するアノテータは, ソーシャル・ネットワーキング・サービスも活用しㄱ) 広く理工系分野を専攻する学生の中から募集し,直接謝金を支払って作業に従事してもらった.実際のアノテーションに従事した学生は, 分野としては自然言語処理を専門とする者が最多だが, 他にも数理論理学・代数学・物理学・天文学などを専攻する者もいた。参加アノテータの身分としては大学院生(修士課程)が最も多く, 大学院生 (博士課程) や学部生, さらにはそれよりも若い参加者もいた. アノテーション対象の論文は arXiv.org に LATEX 文書ソース付きで収録されているものの中から,参加アノテータの専門と論文中の数式の数を考慮して選定した(表 A)。
表 A アノテーション対象論文. 論文の通し番号は本文の表 2 の番号と対応している.
& 1808.02342 & cs.IT \\
## 付録 B 前処理における数式マークアップの修正
MioGatto は単純に入力 XHTML 文書のタグ情報を参照することでアノテーション対象となるトークナイズされた識別子を認識している. 入力 XHTML 文書の夕グ構造は LATEXML で変換する前の論文著者による ${ }^{\mathrm{AT}} \mathrm{E} \mathrm{E}$ ソースの記述のされ方によって決定されているため, 大元の $\mathrm{IAT}_{\mathrm{E}} \mathrm{X}$ ソースの数式マークアップが誤っていると正しく識別子を認識することができない。そのため,このようなマークアップミスは前処理において修正を行った.この過程で修正された誤ったマークアップのほとんどは大きく 3 種類に分類できる. 第一は数式でない部分に対して(単に強調などでイタリック体の出力を得る目的で)数式モードが使用されているケースである. 第二は逆に数式であるはずの部分がテキストとしてマークアップされているケースである.例えば数式内で FNN のような関数名を使用する際に \text\{FNN\} と記述されていると,その部分は数式識別子ではなくテキストと扱われてしまう.第三は本来はひとまとまりの識別子が,1 文字ごとの識別子の積であるものとしてマークアップされているケースである. 例えば正弦関数は $\mathrm{L} \mathrm{T}_{\mathrm{E}} \mathrm{X}$ では \$要があるが,これが単に $\$ \sin \$$ と記述されていると $s, i, n$ はそれぞれ別々の変数として認識され,全体としては 3 変数の積となってしまう. 実際に IATEXML の出力では各変数間に不可視の乗算記号 (Invisible Times, U+2062) が挿入された状態となってしまい,意図された数式とは明確に異なるものとなる.
| NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F2-4.pdf | # ユーザの興味があるカテゴリに応じた NER システム構築フレームワーク
芝原 隆善 1,2 大内 啓樹 1 山田 育矢 ${ }^{2,3}$ 西田 典起 ${ }^{2}$
}
寺西裕紀 ${ }^{2}$ 古崎 晃司 2,4 渡辺太郎 1 松本 裕治 ${ }^{2}$
1 奈良先端科学技術大学院大学 ${ }^{2}$ 理化学研究所 ${ }^{3}$ Studio Ousia ${ }^{4}$ 大阪電気通信大学
\{shibahara.takayoshi.sk4, hiroki.ouchi, taro\}@is.naist.jp
\{takayoshi.shibahara, hiroki.ouchi, ikuya.yamada, noriki.nishida, hiroki.teranishi, kouji.kozaki, yuji.matsumoto\}@riken.jp ikuya@ousia.jp kozaki@osakac.ac.jp
## 概要
異なるユーザーは異なる固有表現のカテゴリに関心を持つ. そのため本論文ではユーザーが関心を持つ固有表現を抽出可能な固有表現抽出システムを構築するフレームワークを提案する. このフレームワークでは,まずユーザーに関心のある固有表現力テゴリをシソーラスから選択してもらい,次に選択されたカテゴリを含むシソーラス全体のカテゴリ情報を活用した Distant Supervision を行い固有表現抽出モデルを学習する. 本論文では UMLS シソーラスと MedMentions コーパスを利用したいくつかの実験を通じて提案フレームワークの有効性を確認した。
## 1 導入
固有表現抽出: Named Entity Recognition (NER) は自然言語処理の基本タスクの 1 つであり, 質問応答 [1], 関係抽出 [2], Entity Linking [3], 対話システム [4]など様々なタスクで応用されている.
本論文は,「異なるユーザは異なる固有表現 (Named Entity: NE) のカテゴリに興味を持つ」という着眼点に立っている. 例えば, 疫学者と薬学者が COVID-19 関連論文を調査する場合を考えてみる。疫学者は人間集団ごとの症状に関心を持ち, 症状や人々の特徴 (性別,民族性,年齢など) に関する固有表現を求めるだろう. 一方薬学者はコロナウイルスやその関連薬の作用機序に関心を持ち, 解剖学的構造や化学物質に関連する固有表現に注目するだろう.
しかし,既存の固有表現認識手法では異なるカテゴリを欲するユーザーの要求に柔軟に対応できな
2. シソーラスに基づいてDistant Supervisionする
Coronavirus disease cause a pneumonia especially for the elderly. It is caused by cytokine from white blood cell.
3. NERモデルをDistant Supervisionデータセットで学習する
図1タスクの全体像
い. 通常 NER システムは,固有表現カテゴリがあらかじめ定義されたデータセットを用いて構築される. それゆえ,ユーザにとって関心のある固有表現カテゴリが予め定義されたデータセットが存在しなければ,それらの固有表現は抽出されない. 各ユー ザが興味のある固有表現カテゴリを人手でアノテー ションすることもできるが,これには大変なコストと時間がかかってしまう。
そこで本論文では,ユーザが興味をもつ固有表現を抽出可能な NER システム構築フレームワークを提案する(図 1).まず,このフレームワークでは各ユーザーに興味のある固有表現カテゴリをシソー ラスから選択してもらう。そして,その選択されたカテゴリに基づき,Distant Supervision によりテキス卜を擬似的にアノテーションし,その擬似アノテー ションを用いてシステムを学習させる. その結果, システムはユーザの関心のある固有表現を抽出することができるようになる.
しかしながら Distant Supervision NER の問題とし
て, Unlabeled Entity Problem が指摘されている [5]. Unlabeled Entity Problem とは,シソーラスにない未知の固有表現を Distant Supervision でラベル付けすることが難しいという問題である.
我々はこの Unlabeled Entity Problem を擬似負例の信頼性の問題であると考える. 従来の研究では,信頼性の低い擬似負例がもたらす影響を割り引くために,擬似負例の一部は本来正例であると仮定して NER タスクを実行していた. 本研究では,シソー ラスのカテゴリ情報を利用して,より信頼性の高い擬似負例を擬似データセットに追加し (3 節), 擬似負例の信頼性の低さの問題を緩和する。また,本フレームワークの有効性を検証するために,タスクと実験設定を提案・定式化する. 本論文ではいくつかの実験を通じて提案法の有効性を確認した。
要約すると,我々の貢献は主に以下の 3 つである.
・本論文は,ユーザーの興味に応じた固有表現を抽出するオーダーメイドの NER システムを構築するためのフレームワークを開発した最初の研究である.
・Unlabeled Entity Problem を解決するために,シソーラスのカテゴリ情報を有効に活用する新しい手法を提案した.
・「ユーザが興味を持つ固有表現カテゴリに応じたNER システム構築」の状況をシミュレートできるタスクと実験設定を策定・実施した。
## 2 タスク設定
提案法は Distant Supervision NER (DS NER) に基づいている. 固有表現抽出: Named Entity Recognition (NER) は $n$ 長の単語列: $X=\left.\{w_{j}\right.\}_{j=1}^{n} \in V^{n}$ に対し $m$ 個のスパンとそれらのラベル: $Y=\left.\{\left(s_{i}, e_{i}, l_{i}\right) \in\right.$ $[0 . . n-1] \times[1 . . n] \times L\}_{i=0}^{m-1}$ を事前に定義されたラべル集合: $L$ から予測するタスクとして形式的には定義される. 通常の教師あり設定ではアノテーションされたデータセットを元に学習するが, DS NER では,文書と用語集から構築される擬似データセットを利用することでアノテーションを省く.擬似デー タセット: $\left.\{X_{k} \in V^{*}, \tilde{Y}_{k}=\left.\{\left(\tilde{s}_{k i}, \tilde{e}_{k i}, \tilde{l}_{k i}\right)\right.\}_{i=0}^{m_{k}-1}\right.\}_{k=1}^{|D| 1)}$ は文書: $\mathscr{D}=\left.\{X_{k}\right.\}_{k} \subset V^{*}$ と用語集 $g: T \rightarrow L$ から構築される.ただしここで $T \subset V^{*}$ は用語集の中で記述される用語の集合である. 用語集 $g$ は文書 Dに対
$ は $k$ 番目の文に含まれているスパンの個数である.
}
する文字列マッチによって擬似データの構築に利用される。しかし, このDS NER のタスク設定には, Unlabeled Entity Problem [5] と呼ばれる問題がある.これは,用語集の被覆率が低いために,擬似データセット中の固有表現が見逃され,学習モデルがこれらのラベル付けされていないスパンを無視してしまうという問題である。例えば,使用した用語集に新しい化学物質が記述されていない時に, DS NER モデルがこの化学物質を見逃すという可能性がある。この問題に対処するため,先行研究では信頼性の低い擬似負例が与える影響を割り引き,擬似負例の一部が本来正例であると仮定して NER タスクを実行している。具体的には, lenient CRF [6] , Self-Training [7], PU 学習 [8], 擬似負例スパンのアンダーサンプリング [5] によって疑似負例に正のラベルを予測する手法が知られている。しかし,これらの擬似負例の影響を割り引く手法は,本来負例であるスパンまで固有表現として予測してしまうという危険性がある.
本研究では,ユーザーが選択したカテゴリ $L$ に応じて用語集を作成することで,ユーザーごとにオーダーメイドな NER モデルを実現する。ここでシソーラスは Directed Rooted Tree DRT $=(C, E, r)$ であるとする。つまり, シソーラスは, 概念の集合 $C$, $C$ 上の辺としての is-a 関係の集合 $E$ ,ルートノー ド $r$ からなるものとする. 本研究では $L$ だけではなくDRTを利用して負例のカテゴリ $L_{n e g}$ を作成し, $L_{n e g}$ と $L$ 両方の語句を含む用語集 $g^{\prime} を$ 利用した Distant Supervisionを行う.このことにより提案手法がシソーラス全体の情報やクラス間の排他的な関係を捉えられるようになることを目指す ${ }^{2}$. ここで $L_{n e g}$ は $L$ と組み合わせることでシソーラス全体を被覆するように定義する。つまり $L$ に含まれるいずれかの概念の子孫の全ては $L$ によって被覆されているので,負例カテゴリ $L_{n e g}$ を $L$ によって被覆されていないDRTに含まれる概念の最小の集合とする3). 例えばユーザーが \{"Diseases or Symptoms", "Age"\}を正例の概念として選んだ場合,提案手法は $L_{n e g}$ として $\{$ "Sex, "Chemical", "Anatomical Structure"\}
2)より形式的には,提案手法のタスク設定は用語集 $g^{\prime}: T \cup T_{n e g} \rightarrow L \cup L_{n e g}$ が負例クラス $L_{n e g}$ を含んでいるという点で通常の Distant Supervision と異なっている. ただし $T_{\text {neg }}$ は $L_{\text {neg }}$ に含まれる語句の集合である.
3)形式的には $L_{n e g}$ は $L^{\prime}$ を利用して次のように定義でき 3. $L^{\prime}=\left.\{a \mid l \in L \wedge(l, a) \in E^{*}\right.\} L_{n e g}=\left.\{c \mid l^{\prime} \in L^{\prime} \wedge\left(l^{\prime}, p\right) \in\right.$ $\left.E \wedge(c, p) \in E \wedge l^{\prime} \neq c \wedge c \notin L^{\prime}\right.\}$ ただし $E^{*}$ は $E$ の反射推移閉包であるとする。
図 2 Pseudo Dataset Construction
を選ぶ(図1).
文字列マッチによってこの負例カテゴリ $L_{n e g}$ を利用して得られた擬似負例は,確害に $L$ に含まれないカテゴリであることが保証されるので,単純に辞書マッチしなかったという従来の擬似負例よりもより負例として正しいことが期待される. また負例クラスを利用することで Distant Supervision NER モデルが本来の負例に対して過剩な固有表現の予測を行うという,従来の Unlabeled Entity Problem 対策手法の欠点を補うことができると考えられる. 例えば先の例であれば,Distant Supervision NER モデルが本来 Chemical であるスパンに対して, Disease or Syndrome とラベル付けすることを防ぐことができると期待される.
## 3 手法
## 3.1 擬似データセット構築
擬似データセットを構築する手順を,図 2 亿記述する. (i) シソーラスから $L , L_{n e g}$ の各カテゴリの用語リストを構築する。例えば,UMLS は固有表現のカテゴリを階層構造で定義しており,階層を推移的に利用することで各カテゴリの用語リストを容易に得ることができる。また,用語のリストに対し, inflector ${ }^{4}$ という python ライブラリを用いて, 用語リスト上の各用語の複数形・単数形を追加する. (ii) $L , L_{n e g}$ の用語リストを用いて, 用語からカテゴリへの対応付け (用語集) $g, g^{\prime}$ を計算する. ただし,複数のクラスに含まれる曖昧な用語がある ${ }^{5)}$.このような曖昧な用語を用語集から削除することで,エ
4) https://github.com/ixmatus/inflector
5)例えば,AAA は Abdominal Aortic Aneurysms という病名の頭文字であると同時に, APP gene という遺伝子名の別名でもある。
ラー伝搬を低減する. (iii) ラベルの付与されていないコーパスに対して Noun Phrase (NP) Chunker を適用し,擬似アノテーションの対象となる候補スパンを獲得する。(iv) (ii) の用語集 $g , g^{\prime}$ と (iii) の候補 NPチャンクとの間に文字列マッチアルゴリズムを適用し,対象の NP チャンクの末尾部分文字列に基づいて分類する. 文字の大小で異なる用語が存在する場合は大文字と小文字を区別して NP チャンクを分類し,そうでない場合は区別せずに分類する。
## 3.2 スパン分類モデル
本研究では BERT による符号化を利用した簡素なスパン分類モデルを利用しており, $n$ トー クンからなる文 $X=\left.\{w_{j} \in V\right.\}_{j=1}^{n}$ の候補スパン $(s, e) \in[0 . . n-1] \times[1 . . n]$ をラベル集合: $\left.L \cup\left.\{“ O^{\prime \prime}\right.\}^{6}\right)$ に分類する.
まず,BERT の最終隠れ層: $v=\left.\{v_{j}\right.\}_{j=1}^{n}$ を利用し入力文を符号化する7).この符号化べクトルに対し Dropout を適用した: $\tilde{v}=\operatorname{Dropout}(v)$. Dropout の後で,スパンの開始位置と終了位置のベクトルを連結したスパン表現を分類した: $\hat{y}=\operatorname{Softmax}\left(W^{T}\left(\tilde{v}_{s} \oplus \tilde{v}_{e}\right)+b\right)$. この予測確率に対し交差エントロピーを利用して学習を行った. ただ ᄂ, $\mathrm{Li}$ ら [5] と同様に擬似ラベルが O である,つまりいかなる用語集の用語にもマッチしなかったスパンに対して,そのロスを事前に定義された確率で無視することで擬似負例のノイズを軽減する。
## 3.3 前処理 - 後処理
前処理として,NER データセットをスパン分類データセットに変換する.長さがあらかじめ定義された最大長より小さいスパンを列挙し,ラベルを付ける.NER データセットでラベル付けされているスパンにはそのラベルを付与し,そうでないスパンには $\mathrm{O}$ ラベルを付与する。
後処理として,予測時にスパンの分類スコアをスパン重複のない NER 出力に変換する. 具体的には,学習したモデルによって予測される最尤確率の高い順に,貪欲に列挙されたスパンを埋めていく.ただし,最大尤度のラベルが O であったり $L_{n e g}$ に含まれるスパンは予測に利用しない。
\cup\{“ O "\}$ である.
7)トークンの最後に位置するサブワードのベクトルをトークンの表現として利用した。
}
Chunker Match $\quad 29.8116 .7821 .4762 .0036 .2245 .73$
Span Classif. w/ N.U. 24.1922 .9423 .5451 .7051 .2551 .47 +Thesaurus Negatives 24.0423 .3523 .6952 .6053 .6453 .12
表 1 MedMentions で指定された 21 クラスを選択したときの NER スコア: Strict はスパン完全一致,Lenient はスパン部分一致で評価.
## 4 実験設定
1 節で述べたような「ユーザにシソーラスから興味のあるクラスを選択してもらう」状況を模倣した実験を行う.本論文では,シソーラスとして UMLS (2021AA 版) [9]を,DS NER の評価には MedMentions コーパス [10]を利用する. UMLS は生物医学分野のシソーラスで, 127 のクラス (Semantic Types) と 16,132,274 の用語を持つ. MedMentions は, 4,392 の生物医学論文抄録に 352,496 のスパンが UMLS の概念に対応付けられるようにアノテーションされている Entity Linking/NER 用のコーパスである. train/dev/test の文書数はそれぞれ2,635/878/879 である. train 部分のデータセットは Distant Supervision の擬似アノテーションの対象として, dev/test の分割は正解アノテーションまま利用する.ただし,評価時にユーザが興味のあるクラスのみを対象とするため,ユーザが興味のない (と実験上仮定する)クラスは dev/test データから除外している。
## 5 結果
表 1 の実験では MedMentions [10] が指定する 21 のクラスをユーザーが UMLS から選択したと仮定し評価を行った ${ }^{8)}$. 具体的には Strict/Lenient NER P./R./F. を文字列マッチ,Distant Supervision のベースライン, 提案法で比較した. Strict/Lenient NER P./R./F. は,スパン完全一致 (Strict) またはスパン部分一致 (Lenient) のどちらかで計算された Precision/Recall/F1 スコアである. Chunker Match の行は,擬似データセット構築に利用した NP chunker を利用した文字列マッチ手法のスコアを示している. Span Classif. w/ N.U.の行は, Li ら [5] のように擬似負例をアンダー サンプリングすることで Unlabeled Entity Problem に対処したスパン分類モデルにおけるスコアを示す.
また, +Thesaurus Negativesの行は, Span Classif. w/ N.U. に追加してシソーラスに基づいたより信頼できる負例 ${ }^{9}$ を利用した場合のスコアを示している。
Baseline モデル (Span Classif.) を文字列マッチ手法と比べた時 Recall が向上していることがわかる.これは擬似負例のアンダーサンプリングにより,擬似負例のスパンに対して正のラベルを予測できているためであると考えられる。提案手法は,ベースラインと比較して,Strict 設定では F1 の差が小さく,Precision が若干低下するが, Lenient 設定では Precision, Recall ともに向上することが示された. Distant Supervsion によるアノテーションでは,表 1 の Chunker Match の行にあるように,完全なスパン一致を得ることは非常に困難である. したがって, Lenient 設定に着目すると、この結果はシソーラスを用いた負例カテゴリの利用の有効性を示していると言える。
## 6 結論
本論文においてユーザーがシソーラスから選択した固有表現を認識するフレームワークを示した。本研究では私達は擬似正例だけでなく, 擬似負例に着目し,より負例として信用でき,難しい擬似負例の重要性を明らかにした。また本害験は関心のある固有表現だけではなく,それらの固有表現と排他的なカテゴリ活用の重要性を明らかにした。
今後の課題としては,より具体的で粒度の細かい固有表現を取得したり DBPedia [11]のような巨大シソーラスで見られるシソーラスのノイズに対応するなどが考えられる。また,Mention レベルと Entity レベルの間にはスパン情報の大きな違いがあり、文字列マッチのみでは限界がある。そのため,少量のアノテーションを組み合わせていくのことも有用だと考えられる $[12,13]$.
## 謝辞
本研究は JSPS 科研費 JP19K20351 の助成を受けたものである.
9)シソーラスを利用した擬似負例の信用性の改善は実際に碓認された (付録 $\mathrm{A}$ ).
## 参考文献
[1] Mahboob Alam Khalid, Valentin Jijkoun, and Maarten de Rijke. The impact of named entity normalization on information retrieval for question answering. In Advances in Information Retrieval, pp. 705-710. Springer Berlin Heidelberg, 2008.
[2] Tianyi Liu, Xinsong Zhang, Wanhao Zhou, and Weijia Jia. Neural relation extraction via Inner-Sentence noise reduction and transfer learning. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 2195-2204, Brussels, Belgium, 2018. Association for Computational Linguistics.
[3] Yaming Sun, Lei Lin, Duyu Tang, Nan Yang, Z Ji, and Xiaolong Wang. Modeling mention, context and entity with neural networks for entity disambiguation. IJCAI, 2015.
[4] Kevin Bowden, Jiaqi Wu, Shereen Oraby, Amita Misra, and Marilyn Walker. SlugNERDS: A named entity recognition tool for open domain dialogue systems. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Miyazaki, Japan, May 2018. European Language Resources Association (ELRA).
[5] Yangming Li, Lemao Liu, and Shuming Shi. Empirical analysis of unlabeled entity problem in named entity recognition. September 2020.
[6] Zhanming Jie, Pengjun Xie, Wei Lu, Ruixue Ding, and Linlin Li. Better modeling of incomplete annotations for named entity recognition. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 729-734, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[7] Chen Liang, Yue Yu, Haoming Jiang, Siawpeng Er, Ruijia Wang, Tuo Zhao, and Chao Zhang. BOND: BERT-Assisted Open-Domain named entity recognition with distant supervision. In Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery \& Data Mining, KDD '20, pp. 1054-1064, New York, NY, USA, August 2020. Association for Computing Machinery.
[8] Minlong Peng, Xiaoyu Xing, Qi Zhang, Jinlan Fu, and Xuanjing Huang. Distantly supervised named entity recognition using Positive-Unlabeled learning. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 2409-2419, Florence, Italy, July 2019. Association for Computational Linguistics.
[9] Olivier Bodenreider. The unified medical language system (UMLS): integrating biomedical terminology. Nucleic Acids Res., Vol. 32, No. Database issue, pp. D267-270, January 2004.
[10] Sunil Mohan and Donghui Li. MedMentions: A large biomedical corpus annotated with UMLS concepts. p. 13, 2018.
[11] Jens Lehmann, Robert Isele, Max Jakob, Anja Jentzsch, Dimitris Kontokostas, Pablo N Mendes, Sebastian Hellmann, Mohamed Morsey, Patrick Van Kleef, Sören Auer, and Others. Dbpedia-a large-scale, multilingual knowledge base extracted from wikipedia. Semantic web, Vol. 6, No. 2, pp. 167-195, 2015.
[12] Lukas Lange, Michael A Hedderich, and Dietrich Klakow. Feature-dependent confusion matrices for low-resource NER labeling with noisy labels. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP), Stroudsburg, PA, USA, 2019. Association for Computational Linguistics.
[13] Haoming Jiang, Danqing Zhang, Tianyu Cao, Bing Yin, and Tuo Zhao. Named entity recognition with small strongly labeled and large weakly labeled data. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), Stroudsburg, PA, USA, 2021. Association for Computational Linguistics.
図 3 教師あり設定との比較: 提案手法とデータセット量を変えたときの教師ありモデルに対する完全マッチ (Strict) と部分マッチ (Lenient) に基づくNER F1 スコア
表 2 カテゴリを一つずつ選んだときの Lenient P./R./F.: それぞれの行は文字列マッチ,Distant Supervision におけるべー スライン,提案手法を示す (表 1 と同様). 列はそれぞれの UMLS カテゴリ (T***)を関心のあるカテゴリとして選択したときの lenient NER P./R./F. スコアを示す.
## A 追加実験
MedMentions [10] で指定された 21 クラスを着目クラスとして選択した際の追加実験として,擬似負例の負例としての正しさを Negative NP P./R. で確認した. Negative NP P./R. とは Gold で固有表現とアノテーションされていない $\mathrm{NP}^{10)}$ を負例の正解としたとき,作成された擬似負例がこれに一致する割合としての Precision/Recall である. 辞書マッチしなかった NP スパンの擬似負例としての Negative NP P./R. は 58.00/59.57 となった。一方でシソーラスに基づいた負例カテゴリを用いた擬似負例の Negative NP P./R. は 78.25/29.91 となった. 我々の提案したシソーラスに基づく擬似負例は Negative NP Recall では劣るが,Negative NP Precision では改善している.
このことから確かに,我々のシソーラスに基づく擬似負例はより信頼性の高いものになっているといえる. 更にシソー ラスを利用した擬似負例は NP Chunker を利用しているので句や NP になっていない,明らかに固有表現でない擬似負例を含まない. 負例として信頼性が高くより識別が難しい擬似負例が,表 1 でみられた精度改善をもたらしていると考えられる
また,図 3 における実験では,教師ありデータ量を変化させて教師ありモデルの精度を確認し,擬似負例のアンダーサンプリングとシソーラスに基づいた擬似負例を用いた提案のスパン分類モデルと比較した. その結果,完全教師ありの設定と比較して, Lenient $\mathrm{f} 1$ では $20 \%$ 近くスコアが減少した. しかし, 提案手法では,800~900 文の人手アノテーションと同等の Lenient f1 が得られることが分かった.また,Strict f1 では,完全教師ありモデルとの間で $48 \%$ 近い差が生じた. この結果は,Distant Supervsion モデルでは,スパン範囲を正確に捉えることが困難であることを示唆している.この困難は Entity レベルと Mention レベルの間の違いに原因があると考えられる。例えば,“water” が化学物質として登録されていて,擬似アノテーションの対象文に “purified water”があった場合,“water”までを取るべきか “purified water”までを取るのが良いのかが分からないというような困難である。このような Mention と Entity の間の違いに対処するには少量のアノテーションを組み合わせることも必要だと考えられる.
表 2 は,シソーラス上の 10 個の概念から 1 つずつ着目する概念を選択しDistant Supervision を行った際の, lenient P./R./F. の比較を行ったものである. 擬似負例のアンダーサンプリングだけのベースラインでは,Precision を犠牲に Recall を増加させている. しかし,Unlabeled Entity に対して固有表現ラべルを予測するため,過剩に固有表現を予測しやすく,f1 スコアが低下することが多い。擬似負例のアンダーサンプリングだけのべースラインと比較すると,シソーラスに基づいた擬似負例を利用したモデルはより頑健であり,T062を除いた全てで $\mathrm{f1}$ を向上させることができた. しかし,T022,T033, T037,T058,T062では,Recallが文字列マッチの水準よりも低下している。その結果,T022,T037,T062 の f1 スコアが減少した。これは負例クラスの追加により, Unlabeled Entity に対する固有表現のラベル予測が過剰に妨げられているためだと考えられる。
10)より正確には,固有表現と NP のスパンが完全一致するとは限らないため,固有表現と部分一致しないNPを評価対象にした. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F2-5.pdf | # Pre-trained Transformer による 引用文脈を考慮した引用ネットワーク埋め込み
大萩雅也 ${ }^{1}$ 相澤彰子 ${ }^{2,1}$
1 東京大学大学院 2 国立情報学研究所
ohagi-masaya999@g.ecc.u-tokyo.ac.jp aizawa@nii.ac.jp
## 概要
論文間の引用関係を表した引用ネットワークをべクトル空間に投影することで得られる論文の埋め込みは論文推薦や論文分類など研究支援に関する様々なタスクに役立てることができる。この埋め込みに関する研究は多くあるが、引用関係に付随する引用の目的を取り込んだ埋め込みに焦点を当てた研究は多くない。そこで我々は、論文を引用する際に記述される文章である引用文脈を引用の目的の情報源であると捉える。そして Pre-trained モデルの一種である SciBERT を、被引用論文を引用元論文と引用文脈から予測するタスクで訓練することで引用文脈を捉えた引用ネットワーク埋め込みを作るモデルを作成する。実験を通して提案手法は引用論文推薦、論文分類上で既存手法を超える性能を示した。
## 1 はじめに
論文を引用するという行為は、その分野における研究の進展、そしてその中に自分の研究をどう位置づけるかを示すという点において論文執筆の際には不可欠なものである。そして論文間の引用関係はこの世に存在する数多くの論文の間にどのような関係性が存在するかを突き止めるための鍵の一つとなっており、それぞれの論文をノード、論文間の引用関係をエッジと捉えた時それらは引用ネットワークと呼ばれるグラフを構成する。さらにこのグラフをべクトル空間に投射することで得られたそれぞれの論文の埋め込みは論文推薦 [1]、論文の可視化 [2]、もしくは論文の分類 [3] など研究活動を支援するための様々なタスクに役立てることができる。
このべクトル空間への投射は引用ネットワーク埋め込みと呼ばれ数多くの先行研究 [4] が存在するが、どのような目的である論文が別の論文を引用しているかに注目した研究は数少ない。引用とは常に肯定的なものではなく、時には過去の研究に対する批判を目的として行われるものであり、さらに、 ACL-ARC [5] データセットでは引用の目的を 6 種類に分類しているように単純な肯定/否定で捉えられるものでもない。これらの引用目的を考える上で重要となるのが引用文脈である。
引用を行う際に引用記号 ([5] など) とともに記述される文章である引用文脈は引用の目的を特定する上で重要な役割を果たしており [6]、その引用文脈をエッジの特徴として論文埋め込みに取り込んだ引用ネットワーク埋め込みは多様な引用の目的を取り入れたものとしてより正確に論文間の関係を捉えることが期待される。しかしながらその重要性、応用可能性にもかかわらず十分な数の既存研究が存在するとは言いがたい。
以上に基づき、我々は本研究で Pre-trained Transformerを活用した新たなモデルを提案する。我々は引用元論文とその論文内の引用文脈から被引用論文を予測させる Masked Paper Prediction(MPP) 夕スクを提案し、そのタスクを用いて SciBERT [7]を fine-tune することで引用文脈を考慮した引用ネットワーク埋め込みを作成した。さらに損失関数として、特定の引用文脈による被引用論文だけでなく引用関係にあるその他の近隣ノードにも注意を配る Structure-Aware Cross-Entropy Loss を提案する。
実験の結果、我々の手法は二つの引用ネットワー ク上での引用論文推薦と論文分類において (1) 引用文脈を考慮した引用ネットワーク埋め込みの先行研究である hyperdoc2vec [8] を超える性能を示し、(2)引用文脈を考慮しない引用ネットワーク埋め込みの state-of-the-art である RotatE [9] と匹敵する性能を出した。我々の手法は引用ネットワークだけでなくレビューサイトでの user2item のグラフ [10] などエッジに文章情報を持つその他のグラフへの応用可能性が期待される。
## 2 提案手法
## 2.1 引用文脈を考慮した引用ネットワーク
我々が対象とする引用ネットワークは \{引用元論文, 引用文脈, 被引用論文\} のトリプルの集合として捉えられる。それぞれの論文はネットワーク内の論文の集合 $V$ に属し、論文間の引用関係は引用文脈という文章情報を特徴にもつ、論文ノード間のエッジとして捉えられる。本研究の目標はこの引用ネットワークのグラフ構造と、エッジの特徴としての引用文脈を捉えた論文埋め込みを作り出すことである。
## 2.2 既存手法: hyperdoc2vec
引用文脈を考慮した引用ネットワーク埋め込みの代表的な既存手法としては word2vec [11]を応用した hyperdoc2vec [8] が挙げられる。この手法は後続の研究 [12] にとってもその基礎となる重要なものであるが、この手法には (1) 4.1 節での RotatE との比較からわかるようにグラフ構造を捉える力が弱く、そして (2) ネットワーク埋め込みのコーパスのみを訓練に用いているため大規模コーパスを用いて事前学習したモデルに比べて言語知識や学術知識に乏しいという 2 つの問題点が存在する。
## 2.3 提案手法
既存手法の問題を解決するために、Transformer [13] を用いナレッジグラフ埋め込みで高い性能を上げた CoKE Model [14]を参考に、これを引用文脈を考慮するように拡張した新たな手法を提案する。提案手法は学術論文上で事前学習された SciBERTを Masked Paper Prediction という我々の提案タスクで訓練することで引用ネットワークのグラフ構造と引用文脈の両方を学習することを目的とする。
Masked Paper Prediction は引用元論文と引用文脈から被引用論文を予測するタスクであり、概略を図 1 に示す。具体的な手順としては、引用ネットワーク内のそれぞれのトリプル \{引用元論文, 引用文脈, 被引用論文\}に対し、我々はまず引用文脈をトークナイズする。そして引用文脈内の引用記号の部分 ([1] や(Devil et al. 2019) など)をマスクトークンで置き換え、そのトークン列と引用元論文 id を連結したものをSciBERT に入力する。そして SciBERT から出力された埋め込み列のうち、マスクされたトークンの場所に相当する位置の出力を linear 層に入力するこ
図 1 提案手法の概略
とで被引用論文を予測する。さらに、正解ラベルとの間の損失を用いてモデル全体を訓練することで、 それぞれのトリプル内の関係をモデルに学習させていく。損失関数には Cross-Entropy Loss、もしくは我々が新しく提案した Structure-Aware Cross-Entropy Loss を使用する。
CoKE Model はネットワークのグラフ構造を捉える能力があることが [14] で示されており、我々の手法はその点で hyperdoc $2 \mathrm{vec}$ のグラフ構造に対する弱さを補うことが期待される。さらに、SciBERT の学術論文に対する専門知識と言語知識を活用することで引用文脈のより良い埋め込みが期待される。
## 2.4 損失関数
我々のモデルで用いられる損失関数は CrossEntropy loss (CE) と新たに提案する Structure-Aware Cross-Entropy Loss (SACE) の 2 種類である。まず通常の $\mathrm{CE}$ は以下の数式で定義される。
$
\begin{aligned}
& \operatorname{loss}\left(x, d_{\text {cited }}\right)=-\log \left(\frac{\exp \left(x\left[d_{\text {cited }}\right]\right)}{\sum_{j} \exp (x[j])}\right) \\
& =-x\left[d_{\text {cited }}\right]+\log \left(\sum_{j} \exp (x[j])\right)
\end{aligned}
$
$\mathrm{CE}$ はある論文 $\mathrm{A}$ が特定の引用文脈で引用している論文 B とそれ以外の論文を区別することができるが、論文 B 以外の論文 $\mathrm{A}$ と引用関係にある論文 $\mathrm{C}, \mathrm{D}$ も完全な誤りと見なしてしまう。しかしながら我々の手法は引用ネットワークのグラフ構造を学習することが目的の一つであるため、隣接する論文に報酬を与えることはその学習に有用であると考えられる。hyperdoc2vec をべースとして Structure-Aware な引用論文推薦を提案した [12] は入力に隣接する論文を付け加えることでこれを達成したが、我々は損失関数で実現することを目的として以下の数式からなる SACE を提案する。 $d_{\text {citing }}$ は引用元論文、 $d_{\text {cited }}$ は被引用論文、 $N\left(d_{\text {citing }}\right)$ は引用元論文の隣接論文を表し、 $\gamma$ は被引用論文と隣接論文のどちら
を重視するかのハイパーパラメータである。なお、 $N\left(d_{\text {citing }}\right)=1$ の時は通常の Cross-Entropy Loss を用いた。今回の実験では $\gamma=0.8$ とした。
$
\begin{aligned}
& \operatorname{loss}\left(x, d_{\text {cited }}\right)=-\gamma \log \left(\frac{\exp \left(x\left[d_{\text {cited }}\right]\right)}{\sum_{k} \exp (x[k])}\right) \\
& -\frac{(1-\gamma)}{\left|N\left(d_{\text {citing }}\right)\right|-1} \sum_{j \in\left(N\left(d_{\text {citing }}\right) / d_{\text {cited }}\right)} \log \frac{\exp (x[j])}{\sum_{k} \exp (x[k])}
\end{aligned}
$
## 3 実験
## 3.1 評価タスク
本研究では二つの評価タスクを用いた。一つ目は引用元論文と引用文脈から被引用論文を予測する引用論文推薦であり、提案手法の訓練タスクである Masked Paper Prediction と類似のタスクである。このタスクで我々はモデルが引用ネットワーク内のトリプルを正確に捉えられているかを評価する。二つ目はそれぞれの論文が扱っているタスク (機械翻訳、要約等) を引用ネットワークを用いて予測する論文分類である。このタスクはノードの埋め込みがネットワークのグラフ構造をどれほど捉えられているかを評価するために従来研究で用いられており $[15,4]$ 、それぞれの埋め込みがどれほどグラフ構造を捉えられているかを評価する。
## 3.2 データセット
実験では二つの引用ネットワークを用いた。まず一つ目は FullTextPeerRead[16] と呼ばれる、ACL, ICLR, NIPS 上のネットワークであり、二つ目は ACL Anthology Sentence Corpus と呼ばれる、ACL 上のコーパスから我々が作成したネットワークである。Appendix にそれぞれのデータセットの詳細を載せる。簡潔にいうと、AASC の方が FullTextPeerRead よりサイズが大きく、またネットワークの凝集度を表す Clustering Coefficiency が AASC は 0.135 であるのに対して FullTextPeerRead は 0.149 であることから後者の方がグラフ構造を活かした推論がしやすいと言える。それぞれのネットワークは訓練データ、評価データに分割され、訓練データを引用ネットワーク埋め込みの作成に、評価データを引用論文推薦タスクの評価に用いた。さらに、論文分類タスクのデータセットの作成にはそれぞれの論文が取り組んでいるタスクを抽出する必要があり、AASC のアノテーションに
は NLP-TDMS [17] 内で定義されている主要な NLP タスクのリスト、FullTextPeerRead のアノテーションには paperswithcode 内の機械学習のタスクのリストを用いて論文のタイトルとアブストラクトから文字列一致でタスクを抽出した。
## 3.3 ベースライン
ベースラインとしては、hyperdoc2vec と RotatE[9] の 2 つの手法を用いた。前者は 2.2 節で紹介した、引用文脈を考慮した引用ネットワーク埋め込みの既存手法である。後者はは複素数空間上のベクトルとしてノードを、空間上の回転としてエッジを表現する手法であり、引用文脈を考慮しない引用関係の有無のみを含む引用ネットワークの埋め込みを作成するために用いた。我々は RotatE とその他の手法の比較によって引用文脈を特徵として用いることが埋め込みの性能向上につながるかどうかを検証する。
## 3.4 実験設定
提案手法においては、バッチサイズを 16 、学習率を 5e-5 に設定した上で、5 エポックの訓練を行った。論文埋め込みはランダムに初期化したものを用いた。引用文脈の長さとしては、引用記号が含まれる文章とその前後一文を抜き出した上で、トークナイズした際のサブワードが引用記号の前後それぞれ 125 トークンに収まるように文章を切り出した。 ベースラインの実験設定はそれぞれの論文に従った。また、論文分類タスクに関しては先行研究 [8] に従いそれぞれのモデルから論文の埋め込みを取り出した上で、SVMを用いて訓練、評価を行った。
## 4 結果
## 4.1 実験結果
表 1,2 に示す通り、提案手法は hyperdoc2vec に比べて両タスク、両データセットにて高い性能を出しておりその有用性が確認できる。特に引用論文推薦における性能の向上は顕著であり、SciBERT を用いたことによって我々の手法が二つの論文の間の橋渡しとしての引用文脈をより正確に捉えることができるようになったことがわかる。さらに、論文分類における性能の向上からは提案手法がより正確にグラフ構造を捉えることに成功していることがわかる。
次に、Cross-Entropy Loss (CE) と我々の提案した
Structure-Aware Cross-Entropy Loss (SACE)を比べてみると、引用論文推薦において SACE を用いたモデルは CE を用いたものに比べて FullTextPeerRead では性能が下がっており、AASC では性能が上がっている。これは二つのネットワークの違いに起因すると考えられる。性能向上した AASCでは、3.2 節に書いたように、グラフ構造を活かした推論がしやすく、SACE は引用文脈だけでなく周囲のグラフ構造を意識した訓練を行う損失関数であるためその効果が出たものと考えられる。ただ FullTextPeerRead においてもSACE を活用することによる埋め込みの変化はあるものと思われ、論文分類におけるSACEを用いた提案手法の性能向上はグラフ構造をより意識した訓練方法の有用性を示している。
最後に我々の手法とRotatE を論文分類上で比較すると、FullTextPeerRead では我々の手法がより高い性能を収めており、ここからは引用文脈を考慮することによって論文の埋め込みがより他の論文との関係、そして論文が取り組むタスクに関する情報を捉えることに成功していることが見てとれる。ただ AASC においては RotatE の方がわずかではあるが高い性能を出しており、全ての条件に一貫する有用性まで示すことはできなかった。
表 2 論文分類の結果
## 4.2 Ablation Study
前節の通り、提案手法は既存手法である hyperdoc2vec に対して有意な性能向上を果たしたが、提案手法は既存手法に対して (1) Transformer の活用、 (2) 事前学習の活用という二つの違いが存在し、どちらがより性能向上に貢献したかは定かでない。 よって我々は (1) 事前学習なしの Transformer Model、 (2) 学術知識を持たない Pre-trained Transformer Model
である BERT [18]、(3) SciBERT の 3 つを比較する Ablation Study を行った。引用論文推薦、論文分類における実験結果を表 3、4 に示す。まず BERT base と SciBERT base を比べると、FullTextPeerRead では SciBERT base の方が性能が上がっているものの、 AASC では BERT base のモデルの方が性能が高くなっており、二つのモデルの間にはどちらかが全ての条件において優れていると言えるほどの差は存在しない。よって、提案手法の性能向上は論文に関する学術知識というよりは、言語一般に関する知識によるものであると考えられる。さらに、事前学習をしない場合とその他のモデルを比べてみると、事前学習をしない場合はかなり性能が落ちており、ベースラインである hyperdoc 2 vec にも劣る結果となっている。ここからは、提案手法の性能向上は Transformer Model からだけではなく、それを事前学習による言語知識と組み合わせた際にのみ得られるということが見てとれた。
## 5 おわりに
本論文では Pre-trained Transformerを用いて引用文脈を考慮したネットワーク埋め込みを作成する新たな手法を提案した。この手法は引用論文推薦と論文分類に対して高い性能を発揮し、既存手法に対する優位性を示した。本研究では埋め込みの汎用的な評価を目指して論文分類での評価を行ったが、引用文脈の直接的な有用性に焦点を当てた評価タスクの導入は我々の手法の実用性を示す上で重要な一歩になると考える。さらに、引用ネットワーク以外にエッジに文章情報を特徵として持つネットワークにその適用範囲を広げることも重要な指針の一つである。
## 参考文献
[1] Chanathip Pornprasit, Xin Liu, Natthawut Kertkeidkachorn, Kyoung-Sook Kim, Thanapon Noraset, and Suppawong Tuarob. ConvCN: A CNN-Based Citation Network Embedding Algorithm towards Citation Recommendation, p. 433-436. Association for Computing Machinery, New York, NY, USA, 2020.
[2] Han Tian and Hankz Hankui Zhuo. Paper2vec: Citationcontext based document distributed representation for scholar recommendation. CoRR, Vol. abs/1703.06587, , 2017.
[3] Petar Veličković, Guillem Cucurull, Arantxa Casanova, Adriana Romero, Pietro Liò, and Yoshua Bengio. Graph attention networks. In International Conference on Learning Representations, 2018.
[4] Zonghan Wu, Shirui Pan, Fengwen Chen, Guodong Long, Chengqi Zhang, and Philip S. Yu. A comprehensive survey on graph neural networks. IEEE Transactions on Neural Networks and Learning Systems, Vol. 32, No. 1, p. 4-24, Jan 2021.
[5] David Jurgens, Srijan Kumar, Raine Hoover, Dan McFarland, and Dan Jurafsky. Measuring the evolution of a scientific field through citation frames. Transactions of the Association for Computational Linguistics, Vol. 6, pp. 391-406, 2018.
[6] Simone Teufel, Advaith Siddharthan, and Dan Tidhar. Automatic classification of citation function. In Proceedings of the 2006 Conference on Empirical Methods in Natural Language Processing, EMNLP' 06 , p. 103-110, USA, 2006. Association for Computational Linguistics.
[7] Iz Beltagy, Kyle Lo, and Arman Cohan. SciBERT: A Pretrained Language Model for Scientific Text. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3615-3620, Hong Kong, China, November 2019. Association for Computational Linguistics.
[8] Jialong Han, Yan Song, Wayne Xin Zhao, Shuming Shi, and Haisong Zhang. hyperdoc2vec: Distributed representations of hypertext documents. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 23842394, Melbourne, Australia, July 2018. Association for Computational Linguistics.
[9] Zhiqing Sun, Zhi-Hong Deng, Jian-Yun Nie, and Jian Tang. Rotate: Knowledge graph embedding by relational rotation in complex space. In International Conference on Learning Representations, 2019.
[10] Lu Lin and Hongning Wang. Graph attention networks over edge content-based channels. In Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery \& Data Mining, pp. 1819-1827, 2020.
[11] Tomás Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. In Yoshua Bengio and Yann LeCun, editors, 1st International Conference on Learning Representa- tions, ICLR 2013, Scottsdale, Arizona, USA, May 2-4, 2013, Workshop Track Proceedings, 2013.
[12] Yang Zhang and Qiang Ma. Doccit2vec: Citation recommendation via embedding of content and structural contexts. IEEE Access, Vol. 8, pp. 115865-115875, 2020.
[13] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017.
[14] Quan Wang, Pingping Huang, Haifeng Wang, Songtai Dai, Wenbin Jiang, Jing Liu, Yajuan Lyu, Yong Zhu, and Hua Wu. Coke: Contextualized knowledge graph embedding. arXiv preprint arXiv:1911.02168, 2019.
[15] Bryan Perozzi, Rami Al-Rfou, and Steven Skiena. Deepwalk: Online learning of social representations. In Proceedings of the 20th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, KDD '14, pp. 701-710, New York, NY, USA, 2014. ACM.
[16] Chanwoo Jeong, Sion Jang, Hyuna Shin, Eunjeong Park, and Sungchul Choi. A context-aware citation recommendation model with bert and graph convolutional networks, 2019.
[17] Yufang Hou, Charles Jochim, Martin Gleize, Francesca Bonin, and Debasis Ganguly. Identification of Tasks, Datasets, Evaluation Metrics, and Numeric Scores for Scientific Leaderboards Construction. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5203-5213, Florence, Italy, July 2019. Association for Computational Linguistics.
[18] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
## A 提案手法における入力埋め込み
本節では提案手法における入力埋め込みの作成方法をモデルに関する詳細として説明する。我々がベースとしている SciBERT の入力埋め込みはトー クン埋め込み、位置埋め込み、セグメント埋め込みの合計によって構成されるが、提案手法の入力埋め込みはトークン埋め込み、位置埋め込み、トークンタイプ埋め込みの 3 つの埋め込みの合計によって構成される。トークン埋め込みは引用文脈内の単語埋め込み、もしくはネットワーク内の論文埋め込みに対応するものであり、大力の際にトークンの埋め込みの辞書として機能する。単語埋め込みに関しては SciBERT のそれを流用し、論文埋め込みに関してはランダムに初期化したものを用いた。位置埋め込みはトークンの位置を表すためのものであり、これも SciBERT のものを流用した。最後に、トークンタイプ埋め込みは単語埋め込みと論文埋め込みを区別するためのものでありそのトークンが単語の場合はトークンタイプ 0 に対応する埋め込みが、論文の場合はトークンタイプ 1 に対応する埋め込みが足し合わされる。この埋め込みもまたランダムに初期化したものを用いた。
## B 論文分類における論文埋め込み
本節では実験における論文分類の詳細設定としてそれぞれのモデルに対する論文埋め込みの抽出方法を説明する。まず既存研究である hyperdoc2vec に関して説明すると、hyperdoc $2 \mathrm{vec}$ には IN vector と OUT vector と呼ばれる 2 種類の論文埋め込みが存在し、今回は実験による検討の結果、それぞれの論文に対応する OUT vectorを論文埋め込みとして用いた。また、ベースラインとして用いた RotatE は静的な論文埋め込みを訓練する手法であり、その埋め込みを用いた。最後に我々の提案手法における抽出方法を説明する。提案手法は SciBERT をべースとしており、例えば入力に用いるトークン埋め込みを論文埋め込みとして用いることは可能であるが今回は複数の手法を検討した結果以下の工程を用いて埋め込みを取得することとした。ここで埋め込みを抽出したい論文を論文 $\mathrm{A}$ とすると、まず我々は埋め込みの訓練に用いたデータから論文 $\mathrm{A}$ を被引用論文とするデータ (そのようなデータがない場合は論文 $\mathrm{A}$ が引用元論文であるデータ)を集める。そしてそれぞれのデー タを訓練である Masked Paper Prediction と同様の変換方法を用いて入力系列としたのちに SciBERT に入力する。そして SciBERT から出力された埋め込みのうち入力系列内の論文 $\mathrm{A}$ に対応する位置の出力埋め込みの平均を全てのデータに対して取ることでこれを論文 $\mathrm{A}$ の埋め込みとしてみなした。
## C データセット間の比較
表 5 に今回我々が用いた 2 つの引用ネットワークの詳細が記載されている。まずAASCが ACL の論文のみで構成されているのに対し、FullTextPeerRead(以下 FTPR) は ACL だけでなくICLR,NIPS の論文も含んでおり、機械学習全般の論文をターゲットとしている。ノード数、エッジ数からは FTPR の方が AASC よりサイズが小さいことがわかるが、連結成分の数からは FTPR がより分離されたネットワークであることがわかる。平均最短経路長 (今回は連結なノード間でのみ計測した) は AASC の方が FTPR より長く、さらにネットワークの凝集度を表すクラスタリング係数は AASC の方が高い。ここからは AASC が FTPR に比べてノード間の距離が近く、そしてネットワークにおける関係性の密度が高く凝集性が高いということが見て取れる。ネットワーク上
係があるならノード A、C の間にも関係が成り立ちやすいという特性を活かしたものであり、AASC はこの特性が強いためネットワーク構造を用いた推論を行いやすいデータセットであると考えられる。
表 5 ネットワーク分析の指標によるデータセットの比較
## D 謝辞
本研究の一部は JST CREST JPMJCR1513 の支援を受けたものである。 | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F3-1.pdf | # 引用済み論文の情報を用いた引用論文推薦
田中陸斗 ${ }^{1}$ 杉山弘晃 ${ }^{2}$ 平博順 3 有田朗人 ${ }^{3}$ 堂坂浩二 ${ }^{1}$
1 秋田県立大学 ${ }^{2} \mathrm{NTT}$ コミュニケーション科学基礎研究所 ${ }^{3}$ 大阪工業大学
\{b20p025, dohsaka\}@akita-pu.ac.jp, h.sugi@ieee.org
\{hirotoshi.taira, m1m21a02\}@oit.ac.jp
## 概要
近年の爆発的な学術論文数の増加により,引用論文推薦のニーズが高まっている. 本稿では, 関連研究セクションに着目し,セクション内に既にいくつかの引用が付与されている状況を想定した引用論文推薦手法を提案する. 本手法は,引用を付与すべき箇所 (引用マーカー) が与えられたときに,引用マー カー前後の単語 (引用コンテキスト) と引用済み論文の情報を使って引用すべき論文を推薦する. 手法は2つのフェーズから成る. フェーズ 1 では, 事前に, 引用コンテキストと対応する引用論文の距離が近くなるように SentenceBERT のモデルを学習する. このモデルを使って,与えられた引用コンテキストと距離の近い論文をいくつか候補とする. フェーズ 2 では,事前に,同じ論文内で引用されている論文同士の距離が近くなるように SentenceBERT のモデルを学習しておき,このモデルと引用済み論文の情報を使って,フェーズ 1 の候補論文をさらに適した順位になるようにリランキングする.フェーズ 2 によって,フェーズ 1 に比べて論文推薦の Recall, MRR の値がともに上昇することが示された.
## 1 はじめに
学術論文を執筆する際,論文中の主張を裏付けるために適切な引用を行うことは重要である。しかし, 近年論文数が爆発的に増加し, 引用すべき適切な論文を見つけることは非常に労力のかかる作業となっている.こうした中,研究者の論文執筆支援を目的とした研究が進められてきた。成松ら $[1,2]$ は,研究者の論文執筆における関連研究の引用および生成に関わる統合的な執筆支援を目的として, 関連研究に関わる様々な既存のタスクを統合した新たなデータセット構築方法および 5 つのタスクを定義した. 本稿では,その中の引用論文推薦タスクに着目する。これは与えられたテキストに対して適切な表 1 局所的引用論文推薦の入力と出力の例 This is a good speedup trick because 入力 common words are accessed quickly. This use of binary Huffman code for the hierarchy is the same with $[\mathrm{X}]$.
1. Distributed representations of phrases and their compositionality(2013)
出力
2. Efficient estimation of word representations in vector space(2013)
引用論文を推薦するタスクであり,大域的引用論文推薦と局所的引用論文推薦に分類される [3]. 大域的引用論文推薦では,論文本文全体または要旨を入力するのに対し, 局所的引用論文推薦では, 引用コンテキストと呼ばれる一文,あるいは単語列を入力する。本稿では,局所的引用論文推薦のタスクを扱う. 表 1 に例を示す. 入力は [4]より引用した. [X] は引用を付与すべき場所であり,これを引用マー カーと呼ぶ. この例では,引用コンテキストを $[\mathrm{X}]$ を含む一文と定義し, $[\mathrm{X}]$ に入る引用論文を推薦している.
本稿では,関連研究セクションに着目し,セクション内で既にいくつかの引用が付与されている状況を想定する.セクション内で 1 つの引用マー カーが与えられるとき,その引用マーカーに入るべき引用論文を,引用コンテキストと既に引用されている論文の情報を用いて推薦する手法を提案する.本手法では,引用コンテキストや論文の埋め込み表現を求める際,文の埋め込み表現の構築に特化した BERT である SentenceBERT(以下 SBERT)[5]を用いる.
局所的引用論文推薦の従来研究として, 杉本ら [6] は,引用コンテキストと推薦する候補の論文の文章の双方を独立に BERT[7] で埋め込み,候補の論文をコサイン類似度でランク付けするモデルを提案しているが,この研究では主に引用コンテキスト
に焦点を当てており,いくつか引用が付与されている状況は想定していない。また,候補の論文は BM25[8] を用いて上位 2,048 本の論文としているが,本手法では BM25を用いていないため, 性能の比較は行えない. Zhang ら [9] は, 原稿の一部に適切な引用が付与されている状況を想定した引用論文推薦を行っている. 文書の特徴べクトルを表現できるように Word2Vec[10] を拡張したアルゴリズムである Paragraph Vector[4]を使用して文書の埋め込み表現や,引用済みの論文の埋め込み表現を計算して引用論文推薦に取り入れている.これに対し,提案手法では, 引用コンテキストや論文の埋め込み表現を求める際, 従来研究で用いられた BERT や Paragraph Vectorに代わり,SBERTを用い評価を行った。
以下において,2 節で提案手法を示す. 3 節で, データセット並びに評価方法を説明し, 評価結果について考察する. 最後に,4 節で結果についてまとめる.
## 2 提案手法
本手法は,与えられた引用コンテキストに対して,引用すべき候補論文をいくつか出力するフェー ズ 1 と, 既に引用されている論文の情報を使って,候補論文をさらに適した順位に並び替えるフェーズ 2 から構成される。
## 2.1 フェーズ 1: 候補選択
このフェーズでは,SBERTを使用し,引用コンテキストと対応する引用論文(以下,正例)の距離が, それ以外の論文(以下,負例)の距離よりも近くなるように, 引用テキストと論文の埋め込み表現を学習する。論文の入力は,タイトルとアブストラクトを結合させたものとした. 損失関数には,以下の式で表されるトリプレット損失関数を使用した [11].
$
\text { Loss }=\max \left.\{\left(\left.\|C-P^{+}\right.\|-\left.\|C-p^{-}\right.\|+\epsilon\right), 0\right.\}
$
ここで, $C$ は引用コンテキストの埋め込み,$p^{+}$は正例の埋め込み, $p^{-}$は,負例の埋め込みを示す. 負例はランダムに選択した. また,元論文 [5]に従い, $\|・\|$ はユークリッド距離を使用し,マージン $\epsilon$ は 1 とした.
フェーズ 1 では,このモデルを用いて,引用コンテキストに対応する候補論文を $\mathrm{k}$ 件取得する. 以下の手順にしたがって推論を行う。
1. 引用コンテキストをモデルに入力し,埋め込み
を得る。
2. 論文のタイトルとアブストラクトを結合したものをモデルに入力し,埋め込みを得る。
3. 1 の埋め込みと, 2 の埋め込みのコサイン類似度を計算する。
引用コンテキストと論文プール内の各論文とのコサイン類似度を計算し, 高い順に $\mathrm{k}$ 件の論文を取得し,その引用コンテキストの候補とする。
## 2.2 フェーズ 2: リランキング
このフェーズでは,SBERTを用いて,同じ関連研究セクション内で引用されている論文同士の距離が,それ以外の論文との距離よりも近くなるような埋め込み表現を学習する. フェーズ 1 では引用コンテキストと論文の距離を学習していたが,このフェーズでは論文同士の距離を学習する.論文の入力には,タイトルと要旨を結合させたものを使用する。
学習時の一例として,ある関連研究セクション内に論文 $\mathrm{a}, \mathrm{b}, \mathrm{c}$ が引用されている場合を考える.a に着目すると,a と bおよび a と $\mathrm{c}$ の距離がそれぞれランダムに選んだ論文の距離よりも近くなるように学習を行う. 今回の例では,得られる組み合わせは (a,b), (a,c), (b,c) の三組である.
損失関数にはトリプレット損失関数を使用した. フェーズ 1 と同様に, 距離はユークリッド距離を使用し, $\epsilon$ の値は 1 とした.このモデルを用いて, フェーズ 1 で得られた $\mathrm{k}$ 件の候補論文をリランキングする.
推論の概要を図 1 に示す.この図は, 同じ関連研究セクション内で引用されている論文を $\mathrm{A}, \mathrm{B}$, C とし,マスクした箇所に引用すべき候補論文を, フェーズ 1 で $d_{1}, d_{2}, d_{3}, d_{4}$ の 4 件取得した例である. 以下の手順にしたがって推論を行う.
1. 関連研究セクション内でマスクされてない被引用論文(図では $A, B, C$ )のタイトルと要旨を結合させたものをそれぞれモデルに入力し,埋め込みを得る。
2. フェーズ 1 で取得した各候補論文(図では $\left.d_{1} \sim d_{4}\right)$ のタイトルと要旨を結合させたものをそれぞれモデルに入力し,埋め込みを得る。
3. 1 の各埋め込みと, 2 の各埋め込みのコサイン類似度を計算し,一番高いスコアをその候補論文のスコアとする.
図 1 フェーズ 2 の概要
最後に,各候補論文を 3 のスコアが高い順に並び替えて,上位 $\mathrm{k}$ 件を推薦する。 図では, $d_{1}, d_{2}, d_{3}$, $d_{4}$ の順位だったが,リランキングを行うことで $d_{3}$, $d_{4}, d_{2}, d_{1}$ の順位に変更されている.
## 3 実験
## 3.1 データセット
研究者の学術論文の執筆支援を目的として,小山ら [12] によって作成されたデータセットを使用する.このデータセットには, ArXivから取得した論文の関連研究セクションが約 3 万件と,セクション内の被引用論文のタイトル,要旨が含まれている.被引用論文数の平均は 2.6 件で,最大值は 43 件である. また,引用コンテキストは引用マーカーから前後 50 単語を結合させたものと定義する.
全関連研究セクションのうち, 引用論文数が 2 件未満のものを削除した約 13000 件を使用する.これを訓練データ,検証データ,テストデータにそれぞれ約 10400,1300,1300 ずつに分割する.また,引用コンテキストの数は訓練データ,検証データ,テストデータそれぞれで約 77000,9800,9500である。 このうち,フェーズ 1 で使用するテストデータの数は,関連研究セクション 1 つにつき 1 件の被引用論文をマスクするため, 関連研究セクション数と同じ約 1300 件となる. 論文プールの総数は約 38000 件である.
## 3.2 評価手法
提案した論文推薦システムが既存の論文の引用をどの程度予測できるかを測定する.本稿では,推薦された候補の上位 5 件と上位 10 件に対して Recall と MRRを計算して評価する. Recall の計算方法を以下に示す.
$
\text { Recall@k }=\frac{\left|\alpha \cap p_{k}\right|}{|\alpha|}
$
ここで, $\mathrm{k}$ は考慮する上位ランキングの数, $\alpha$ は正解の被引用論文集合, $p_{k}$ は上位 $\mathrm{k}$ 件の推薦リストである.
また,MRR の計算方法を以下に示す。
$
M R R=\frac{1}{|U|} \sum_{u \in U} \frac{1}{k_{u}}
$
ここで,uはあるテストデータ,Uはテストデー タ全体, $k_{u}$ はテストデータ $u$ の推薦リストのうち,最初に $u$ の正解の論文が現れた順位である.
## 3.3 結果と考察
フェーズ 1 を使用した場合の結果を表 2 に示す. この結果は,フェーズ 1 において,引用コンテキス卜 1 件に対して負例の数を変化させた場合の性能の比較を行い, Recall@10 で最も性能がよかったものを採用した.負例の変化による性能を比較したものを結果を表 3 に示す。負例を増やすことで性能が上昇していることが確認できるが,負例の数が 7 件を
表 2 フェーズ 1 単体での結果
表 3 フェーズ 1: 負例の数による性能の比較
超えるとほぼ変化が見られない.また,負例の数が 10 件になるとスコアが低下していることから,負例の数は 7 件で学習が十分であり, これ以上の負例の増加は過学習を起こす可能性があると考えられる。
フェーズ 1 の上位 5 件と上位 10 件までの性能が, フェーズ 2 で向上するか否かで,提案手法の有効性を示す.フェーズ 2 を用いて,フェーズ 1 で取得した候補論文をリランキングした結果を表 4 に示す。取得した候補論文数により,性能が変化することが確認できる. 最も性能が良かったのは候補論文数が 80 件のときだが,それ以外でもフェーズ 1 の結果を上回っている. このことから, 既に引用されている論文の情報を使用することが有効に働くことが分かった。
## 4 おわりに
本稿では,関連研究セクション内にいくつか引用が付与されている状況を想定した引用論文推薦手法を提案した. この手法は, 関連研究セクション内で,引用を付与すべき 1 つの引用コンテキストが与えられるとき,引用すべき論文を,2つのフェーズに分けて推薦する。フェーズ 1 では,SBERTを用いて, 引用コンテキストに適切な引用すべき候補論文をいくつか出力した. フェーズ 2 では,候補論文を既に引用されている論文の情報を使って, さらに適した順位に並び替えた. フェーズ 2 のリランキングにより,フェーズ 1 単独の場合と比べて性能が良くなったことから,引用済み論文の情報を用いることにより引用論文推薦の性能が向上することが示された。
今後の課題として,提案手法と同様に,引用済み論文の情報を使用した論文推薦の従来手法 [9] と比較し, 従来手法で使った Paragraph Vector と本手法表 4 フェーズ 2: フェーズ 1 で取得した候補論文数による性能の比較
で使った SBERT の効果の差異を考察することがある. その際,従来手法は本稿で使用したものと異なるデータセットを使っているため,従来研究のデー タセットに揃えて提案手法と比較したい。また,本手法では,論文の情報としてタイトルと要旨のみを使用しているが,著者などの他の情報を取り入れる手法の検討も考えられる.
## 謝辞
本研究の遂行にあたり, ご助言・ご協力をいただきました,電気通信大学小山康平氏,NTTコミュニケーション科学基礎研究所成松宏美氏,電気通信大学南泰浩教授, 工学院大学大和淳司教授, 名古屋大学東中竜一郎教授, 農研機構菊井玄一郎チーム長に感謝いたします。また,日頃より丁寧にご指導してくださった秋田県立大学石井雅樹准教授,伊東嗣功助教に感謝いたします.
## 参考文献
[1] 成松宏美, 小山康平, 堂坂浩二, 田盛大悟, 東中竜一郎, 南泰浩, 平博順. 学術論文における関連研究の執筆支援のためのタスク設計およびデータ構築. 言語処理学会第 26 回年次大会, 2021.
[2] Hiromi Narimatsu, Kohei Koyama, Kohji Dohsaka, Ryuichiro Higashinaka, Yasuhiro Minami, and Hirotoshi Taira. Task Definition and Integration for ScientificDocument Writing Support. In Proceedings of the 1st Workshop on Scholarly Document Processing, 2021.
[3] Michael Färber and Adam Jatowt. Citation recommendation: approaches and datasets. International Journal on Digital Libraries, Vol. 21, pp. 375-405, 2020.
[4] Q. V. Le and T. Mikolov. Distributed representations of sentences and documents. ICML, 2014.
[5] Nils Reimers and Iryna Gurevych. Sentence-BERT: Sentence embeddings using siamese BERT-networks. In Proceedings of Empirical Methods in Natural Language Processing (EMNLP), 2019.
[6] 杉本海人, 相澤彰子. BERT-based Bi-Ranker による文
脈を考慮した引用論文推薦. 言語処理学会第 26 回年次大会, 2021 .
[7] J. Devlin, M.-W. Chang, K. Lee, and K. Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding,. In Proceedings of NAACL-HLT, 2019.
[8] Stephen Robertson and Hugo Zaragoza. The probabilistic relevance framework: $\mathrm{Bm} 25$ and beyond. Foundations and Trends in Information Retrieval, Vol. 3, No. 4, pp. 333-389, 2009.
[9] Y. Zhang and Q. Ma. Doccit2vec: Citation recommendation via embedding of content and structural contexts. IEEE, 2020.
[10] Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. arXiv preprint arXiv:1301.3781, 2013.
[11] J. Wang, Y. Song, T. Leung, C. Rosenberg, J. Wang, J. Philbin, B. Chen, and Y. Wu. Learning Fine-grained Image Similarity with Deep Ranking. In Proceedings of CVPR, 2014.
[12] 小山康平, 南泰治, 成松宏美, 堂坂浩二, 東中竜一郎,田盛大悟, 平博順. 学術論文における関連研究の執筆支援のための被引用論文の推定. 言語処理学会第 26 回年次大会, 2021. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F3-2.pdf | # 変数の記号と定義に関する情報を活用した変数定義抽出手法
沼本真幸 加藤祥太 加納学
京都大学大学院情報学研究科
\{numoto.masaki.32z, katou.shouta.23v\}@st.kyoto-u.ac.jp
manabuQhuman.sys.i.kyoto-u.ac.jp
## 概要
プロセス産業では様々な問題解決にプロセスの物理モデルが活用されている.物理モデルを構築するためには,複数の文献に含まれる数式と変数を把握し,統合する必要があり,多大な労力を要する。我々の目標はこの工程の自動化である。本研究ではその一環として化学プロセス関連文献からの変数定義抽出手法の開発に取り組む. 化学プロセス関連文献では変数の記号と定義の用い方に特徴があるが,従来手法ではこの特徴を活用できない。我々はこの点に注目し,新たな変数定義抽出手法を提案する. 3 つの化学プロセスに関する論文計 28 報を対象に提案手法と従来手法の性能を検証した結果,2つのプロセスで提案手法がより高い正解率を達成した。
## 1 はじめに
プロセス産業では,プロセスの設計や運転に関わる様々な問題の解決にあたって, 物理モデルに基づいて検討を加えるというアプローチが広く利用されている。しかし,現実の現象を正確に表現できる物理モデルの構築は多大な労力を要するため, その効率化が望まれている。我々は,複数の文献から必要な情報を抽出,統合し,物理モデルを自動構築する人工知能 (Automated physical model builder; AutoPMoB) の開発に取り組んでいる. 文献から抽出する重要な情報の一つに数式があるが,複数の文献から抽出した数式を統合するためには,数式中の変数の定義の把握が不可欠である. そこで本研究では,AutoPMoB の要素技術として,変数の定義を文献から自動的に抽出する技術の開発に取り組む.
変数定義抽出に関連する先行研究はいくつか存在する. Kristianto らは,サポートベクトルマシン (SVM) を用いて文献中の数学的表現の説明を抽出する手法を提案した [1]. Pagel と Schubotz は,文献中の数式に含まれる identifier の定義を抽出するランキ
ングベースの手法を提案した [2]. 以上の研究では,抽出対象となる定義あるいは説明の周辺の文章に関する情報の活用が主軸になっている. Stathopoulos らによる研究 [3] では,変数の記号や定義自体に関する情報を活用しているが,定義となる語彙が事前に判明していることが前提とされている.いずれの手法も,問題設定に大きな差異がある,抽出性能が不十分であるなどの理由により, AutoPMoB の要素技術としての採用が難しい。
本研究で対象とする化学プロセス関連文献の間では,変数の記号と定義の用い方に多くの共通点がある。この点に注目し,変数の記号と定義に関する情報を活用した変数定義抽出手法を提案する。また,性能の評価指標を整備し,化学プロセスに関する論文 28 報から作成したデータセットを用いて, Kristianto らによる手法 [1] と提案手法の性能を比較する。
## 2 問題設定
本研究では文献中に単独で存在する変数を扱い,数式中にのみ現れる変数は対象外とする。.例えば,
$
x+y=z \text {, where } x \text { is } X \text { and } y \text { is } \mathrm{Y} \text {. }
$
においては, $x, y$ が定義抽出対象であり,zは対象外である.文献中の記号列から変数を判別する方法を付録 A に示す.単一の文献中では同じ変数が異なる記号で表されることはないと仮定する。
本研究では,文献中に定義が存在する変数に対してはその定義を抽出し,それ以外の変数に対しては何も抽出しない,というタスクに取り組む.ただし,ある変数の定義が単一の文献中に複数存在する場合,そのいずれかを抽出すればよいとする。
データセット 3 つの化学プロセスに関する英語論文計 28 報 (連続槽型反応器 [Continuous Stirred Tank Reactor; CSTR] 10 報,晶析プロセス [Crystallization; CRYST] 11 報,多管式熱交換器 [Shell and Tube Heat Exchanger; STHE] 7 報)を用いて,文献中に定義が
存在する変数に対してその定義をアノテーションしたデータセットを作成した.各プロセスのデー タセットをそれぞれ $\mathscr{D}_{\mathrm{CSTR}}, \mathscr{D}_{\mathrm{CRYST}}, \mathscr{D}_{\mathrm{STHE}}$ と表す. データセットに含まれる変数の数は, $D_{\text {CSTR }}$ :121 個, $\mathscr{D}_{\mathrm{CRYST}}: 205$ 個, $D_{\mathrm{STHE}}: 215$ 個である. データセットは訓練用とテスト用に分割する.分割方法は 4.2 節で述べる.
## 3 提案手法
本手法では,ある変数 $v$ の定義の候補を抽出したのち,抽出した候補が正しい定義かどうかを判定する. $v$ の定義の候補となるのは, $v$ と同じ文中に存在する全ての名詞句である.ただし, $v$ を含む名詞句には次の処理を施す。
1. $v$ が名詞句の末尾にのみ存在する場合,vを削除した名詞句を定義の候補とする。
2. それ以外の場合,定義の候補としない。
これは,例えば“temperature $T$ ” が $T$ の定義の候補として抽出された時, “temperature”を新たに定義の候補とするための処理である. 本研究では, 文分割には Stanza [4], 名詞句抽出には Stanford Parser [5] を使用する. 次に, $v$ の定義の候補それぞれについて 3 つの特徵量 $x_{1}, x_{2}, x_{3} \in[0,1]$ を生成し, 式 (1)により score $\in[0,1]$ を計算する.
$
\text { score }=\frac{m_{1} x_{1}+m_{2} x_{2}+m_{3} x_{3}}{m_{1}+m_{2}+m_{3}}
$
$m_{1}, m_{2}, m_{3}$ は特徵量の重みを表す. score が最も高く, かつ閾値 $t$ を超えている候補を正しい定義と判定する. ただし,複数の候補が正しい定義と判定された場合, 主辞が一致する別の候補に含まれる候補は除外する. 主辞の抽出方法は付録 B に示す. 以上の処理を文献の本文中に現れる全ての変数に対して行う.
特徵量 1 : 定義らしさ定義の候補の中には定義として自然な名詞句と, 不自然な名詞句が存在する.この「定義らしさ」を特徵量化するため,まずは次の手順で辞書 $D_{1}$ を生成する。
1. 訓練用データセットの正例から変数の定義を取得し,主辞を抽出する。
2. 抽出した全ての主辞を見出し語化する.
3. 得られた見出し語群から重複を取り除いたものを辞書 $D_{1}$ とする。
手順 2 について, 定義の主辞の語形 (単数形か複数形か) の区別は定義らしさの評価に不要であるため,見出し語化する. 見出し語化には Stanza [4]を用いる. 辞書 $D_{1}$ には, “temperature”, “concentration”, “volume”といった見出し語が集められる。 ある変数 $v$ の定義の候補 $c$ に対して, 特徴量 $x_{1}$ を次の手順で生成する.
1. $c$ の主辞を抽出し,その見出し語 $h$ を得る.
2. $h \in D_{1}$ のとき $x_{1}=1$, それ以外は $x_{1}=0$ とする.
## 特徵量 2 : 慣習的な変数記号の選び方か否か 化
学プロセスに関する文献では,変数記号の選び方に, temperature には $T$ を, concentration には $C$ を対応させるといった特定の慣習がある.変数とその定義の候補との間にこのような慣習的な関係が成り立つ場合,その候補が正しい可能性は高いと推測できる. この「慣習的な変数記号の選び方か否か」を特徵量化するため,まずは次の手順で辞書 $D_{2}$ を生成する。
1. 訓練用データセットの正例から,変数の記号と定義の組を取得する。
2. 変数の記号から上付き文字や下付き文字等の修飾的な記号を除去した記号 (主記号)を取得する。
3. 変数の定義の主辞を抽出し, 見出し語化する.
4. 2 で得られる記号と,3で得られる主辞の見出し語の組を作る.
5. 得られた全ての組から重複を取り除いたものを辞書 $D_{2}$ とする.
手順 3 について, 定義の主辞の語形は対応する主記号の選び方に影響しないと仮定し, 見出し語化する.辞書 $D_{2}$ には, “ $T$ : temperature", “ $C$ : concentration”, “ $V$ : volume” など,慣習的な変数記号の選び方を表す組が集められる.以降ではこのような組を「主記号-主辞ペア」と呼ぶ. ある変数 $v$ とその定義の候補 $c$ の組に対して, 特徴量 $x_{2}$ を次の手順で生成する.
1. $v$ と $c$ から主記号-主辞ぺア $p$ を生成する.
2. $p \in D_{2}$ のとき $x_{2}=1$, それ以外は $x_{2}=0$ とする.
特徵量 3 : 変数と定義の位置関係変数とその定義の候補が文献中の近い位置に存在するとき,その組が正しい組である可能性は高いと考えられる。しかし, 変数とその定義の候補の間のトークンの数を特徴量として採用するには問題がある.例えば,変数 $v_{1}, v_{2}$ の定義がそれぞれ $D E F_{1}, D E F_{2}$ であることが以下のように表現されているとする.
$v_{1}$ is $D E F_{1}$ and $v_{2}$ is $D E F_{2}$.
このとき, $v_{2}$ と $D E F_{2}$ の間には 1 つのトークン “is" が存在する。一方, $v_{2}$ と $D E F_{1}$ の間にも 1 つのトー クン “and” が存在する. そのため, トークンの数のみではどちらの組が正しいか判別できない. そこで,パターンマッチングを取り入れてこの問題を緩和する.
まずは次の手順で辞書 $D_{3}$ を生成する.
1. 訓練用データセットの正例から変数とその定義の組を取得し,訓練用データセットの本文からその組の間の文字列を抽出する。
2. 出現頻度の高い文字列上位 $N$ 個を取り出し, 辞書 $D_{3}$ とする.
辞書 $D_{3}$ には, “is”,“represents”といった,変数とその定義の間によく出現する表現が集められる。 ある変数 $v$ とその定義の候補 $c$ の組に対して, 特徴量 $x_{3}$ を次の手順で生成する。
1. $v$ と $c$ の間の文字列 $e$ を取得する.
2. $v$ と $c$ の間のトークンの数を $d$ とする. ただし, $e \in D_{3}$ のとき $d=0$ とする.
3. 特徴量 $x_{3}$ を式 (2) で計算する.
$
x_{3}=f(\Delta)=\exp \left(-\frac{1}{2} \frac{\Delta^{2}-1}{\sigma^{2}}\right) \quad \Delta=d+1
$
式 (2) は $\Delta$ を正規化する式であり,Pagel と Schubotz により提案されたものである [2]. $\sigma$ は関数 $f$ の形を決定するパラメータである.
## 4 実験
## 4.1 評価指標
真陽性 (TP),偽陽性 (FP),偽陰性 (FN),真陰性 (TN) を以下のように定義する.ただし, FP については二種類定義する.
$\mathrm{TP}$ :文献中に定義が存在する変数に対して,正しい定義のみを抽出した場合
$\mathrm{FP}^{(1)}$ :文献中に定義が存在する変数に対して,誤った定義を一つでも抽出した場合
$\mathrm{FP}^{(2)}$ :文献中に定義が存在しない変数に対して,誤った定義を抽出した場合
$\mathrm{FN}$ :文献中に定義が存在する変数に対して,何も抽出しなかった場合
$\mathrm{TN}$ :文献中に定義が存在しない変数に対して,何も抽出しなかった場合
定義を抽出した変数のうち正しく定義を抽出した割合 (Pre.),文献中に定義が存在する変数のうち正し
く定義を抽出した割合 (Rec.),Pre. とRec. の調和平均 (F1), 正解率 (Acc.) を以下のように定義する.
$
\begin{gathered}
\text { Pre. }=\frac{T P}{T P+F P^{(1)}+F P^{(2)}} \\
\text { Rec. }=\frac{T P}{T P+F P^{(1)}+F N} \\
F 1=2 \times \frac{P r e . \times R e c .}{P r e .+R e c .} \\
\text { Acc. }=\frac{T P+T N}{T P+F P^{(1)}+F P^{(2)}+F N+T N}
\end{gathered}
$
手法の性能の優劣は $A c c$. により判断する.
## 4.2 実験設定
性能比較対象となる従来手法として,Kristianto らによるSVM を用いた手法 [1] を採用する。変数とその定義の候補の組を提案手法と同じ手順で生成し,各組の正誤を SVM で判定する.SVM のパラメータは Kristianto らと同じ值を用いる.
提案手法のパラメータは, $m_{1}=1, m_{2}=1, m_{3}=$ $4, \sigma=2, t=0.6, N=10$ に設定する. これは,予備実験によって定めた組み合わせである.
$\mathscr{D}_{\mathrm{CSTR}}, \mathscr{D}_{\mathrm{CRYST}}, \mathscr{D}_{\text {STHE }}$ をそれぞれ訓練用とテスト用に論文単位で分割する。 $\mathscr{D}_{\mathrm{CSTR}}$ と $\mathscr{D}_{\mathrm{CRYST}}$ からはそれぞれ 3 報,D DSTHE からは 2 報をテスト用とする。 データセットの分割はランダムに 10 通り行い,各評価指標の平均を比較する。
## 4.3 結果と考察
実験結果表 1 に実験結果を示す. 従来手法 (SVM) に比べて提案手法 (Proposed) は Rec. が高い傾向があり,特に $D_{\mathrm{CSTR}}$ では,提案手法が従来手法を $17.5 \%$ 上回った. Pre. に注目すると,D DSTR では
は従来手法の方が $17.3 \%$ 高かった. Acc. に注目すると, D CSTR では提案手法が従来手法を $15.4 \%$ 上回ったが,D DTHE では従来手法の方が $2.8 \%$ 高かった.
名詞句抽出の性能従来手法と提案手法はともに,3節で述べた方法によって抽出した名詞句が定
表 1: 実験結果 (表示は\%)
(a) CSTR
(b) CRYST
(c) STHE
図 1: 訓練に使用した論文数と Acc.の関係
表 2: $c_{\mathrm{TP}}$ と $c_{\mathrm{FP}}$ の数と Acc. $[\%]$ の $X_{0}$ からの変動
義の候補となる. しかし, 名詞句抽出は完璧ではないため, 定義が文献中に存在していても候補として抽出されない場合があった. $\mathscr{D}_{\text {CSTR }}, \mathscr{D}_{\text {CRYST }}, \mathscr{D}_{\text {STHE }}$ のテスト用データセットにおいて,定義が文献中に存在する変数のうち定義を候補に含む変数の割合はそれぞれ $82.5 \%, 76.3 \%, 57.9 \%$ であった. D STHE $に$対して従来手法と提案手法の Rec. が低くなる一因は,名詞句抽出の性能の低さにあると考えられる。
特徵量 1 と 2 の効果提案手法により正しいと判定された定義の候補のうち,実際に正しい候補を $c_{\mathrm{TP}}$ ,実際は誤っている候補を $c_{\mathrm{FP}}$ とする.次の $4 \supset$ の場合について, $c_{\mathrm{TP}}$ と $c_{\mathrm{PP}}$ の数および Acc. を比較することで, $x_{1}$ と $x_{2}$ が抽出性能にもたらす効果を調べた.
$
\begin{aligned}
& X_{0}: x_{3} \text { のみを用いる }\left(x_{1}=x_{2}=0 \text { とする }\right) \text { 場合 } \\
& X_{1}: x_{1} \text { と } x_{3} \text { を用いる }\left(x_{2}=0 \text { とする }\right) \text { 場合 } \\
& X_{2}: x_{2} \text { と } x_{3} \text { を用いる }\left(x_{1}=0 \text { とする }\right) \text { 場合 } \\
& X_{1,2}: x_{1}, x_{2}, x_{3} \text { を用いる場合 }
\end{aligned}
$
$X_{1}, X_{2}, X_{1,2}$ における $c_{\mathrm{TP}}$ と $c_{\mathrm{PP}}$ の数と Acc.の, $X_{0}$ からの変動を表 2 に示す. $X_{1}, X_{2}$ では, $X_{0}$ より $c_{\mathrm{FP}}$ の数が少なく, $x_{1}$ と $x_{2}$ が $c_{\mathrm{FP}}$ を減少させることがわかる.ただし, $x_{1}$ は「定義らしさ」を備えた候補の score を一様に増加させてしまうために,新たに $c_{\mathrm{FP}}$ を発生させる場合もある. $c_{\mathrm{FP}}$ を減少させる効果に比べると, $x_{1}$ と $x_{2}$ の $c_{\mathrm{TP}}$ を増加させる効果は小さ
た,どのデータセットにおいても, $X_{1,2}$ のAcc.は $X_{1}$ と $X_{2}$ の Acc. よりも高く, $x_{1}$ と $x_{2}$ を合わせて用いることが性能向上に有効であることが示された.
## 訓練用データセットのサイズと性能の関係 訓練用データセットに含まれる論文数を変化させて Acc. を算出した結果を図 1 に示す. 従来手法では,訓練に用いる論文数を増やすとAcc. が増加する傾向 があったが,提案手法では,2 報以上を訓練に用い たときのAcc. は論文数によってほとんど変化しな かった. この違いは, 従来手法では正例と負例の両方を訓練に用いるために大きな訓練用データセット が必要となる一方で,提案手法では正例のみを訓練 に用いるために,小さな訓練用データセットで抽出規則を学習できることに起因すると考えられる。
## 5 おわりに
本研究では,変数の記号と定義に関する情報を活用した変数定義抽出手法を提案した. 連続槽型反応器, 晶析プロセス,熱交換器に関する論文計 28 報を用いて従来手法と提案手法の性能を比較した結果,提案手法の正解率が連続槽型反応器に対しては $15.4 \%$ ,晶析プロセスに対しては $3.5 \%$ 従来手法を上回った。一方,熱交換器に対しては従来手法の正解率が提案手法より $2.8 \%$ 高かった. 今後の主な課題を以下に挙げる。
パラメータの最適化今回の実験では,提案手法のパラメータは最適化されていない。 パラメータの自動的な最適化を手法に組み込むことで,性能の改善が見込まれる。
名詞句抽出の改善熱交換器に関する論文中の 4 割程度の変数については, 名詞句抽出の性能が低いために定義抽出に失敗している. Lin らは構文解析を数学的表現が含まれる文章に対応させることが有効であることを示している [6]. 同様に構文解析器を改善し, 名詞句抽出の性能を向上させることで変数定義抽出性能の向上が見込まれる。
## 謝辞
本研究は JSPS 科研費 JP21K18849 および JST 次世
代研究者挑戦的研究プログラム JPMJSP2110の助成
を受けたものです。
## 参考文献
[1] Giovanni Yoko Kristianto, Goran Topic, and Akiko Aizawa. Extracting textual descriptions of mathematical expressions in scientific papers. D-Lib Magazine, Vol. 20, No. 11, p. 9 , 2014.
[2] Robert Pagel and Moritz Schubotz. Mathematical language processing project. In Joint Proceedings of the MathUI, OpenMath and ThEdu Workshops and Work in Progress track at CICM, No. 1186, Aachen, 2014.
[3] Yiannos Stathopoulos, Simon Baker, Marek Rei, and Simone Teufel. Variable typing: Assigning meaning to variables in mathematical text. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 303-312, New Orleans, Louisiana, June 2018. Association for Computational Linguistics.
[4] Peng Qi, Yuhao Zhang, Yuhui Zhang, Jason Bolton, and Christopher D. Manning. Stanza: A Python natural language processing toolkit for many human languages. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, 2020.
[5] Dan Klein and Christopher D Manning. Accurate unlexicalized parsing. In Proceedings of the 41st annual meeting of the association for computational linguistics, pp. 423-430, 2003.
[6] Jason Lin, Xing Wang, Zelun Wang, Donald Beyette, and Jyh-Charn Liu. Prediction of mathematical expression declarations based on spatial, semantic, and syntactic analysis. In Sonja Schimmler and Uwe M. Borghoff, editors, Proceedings of the ACM Symposium on Document Engineering 2019, Berlin, Germany, September 23-26, 2019. ACM, 2019.
## A 定義抽出対象となる変数
数学的表現が Mathematical Markup Language (MathML) 形式で記載された HTML 形式の文献から, math タグが付与された要素の一覧 $\varepsilon_{\text {math }}$ を取得する。 $\varepsilon_{\mathrm{math}}$ の各要素のうち, 次のいずれかに該当するものを定義抽出対象となる変数と定義する.
・複数の記号が連続した文字列 (e.g. $\Delta E, \delta t$ )
・1つの記号に上付き文字,下付き文字,上ルビ,下ルビのいずれか,あるいはその組み合わせが付与された文字列
## B 主辞抽出方法
名詞句の主辞は,以下の手順で抽出する。
1. 名詞句に対して係り受け分析を行い,係り受けグラフを生成する.
2. 係り受けグラフの始点となっている単語が名詞であれば,それを主辞とする。
係り受け分析には Stanford Parser [5] を使用する. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F3-3.pdf | # 複数文献間の変数の同義性判定に向けた ProcessBERT の構築
金上和毅 加藤祥太 加納 学
京都大学大学院情報学研究科
\{kanegami.kazuki.55z, katou.shouta.23v\}@st.kyoto-u.ac.jp
manabu@human.sys.i.kyoto-u.ac.jp
## 概要
プロセス産業において重要な役割を果たす物理モデルの構築には,膨大な量の文献調査や精度向上のための試行錯誤などの多大な労力が要求される. そこで著者らは,物理モデルを自動で構築するシステムの開発を目指し,複数の要素技術の開発に取り組んでいる. 本研究では,その内の一つである複数文献間における変数の同義性を判定する手法を開発するとともに,その精度向上に向け,化学工学ドメインに特化した言語モデル(ProcessBERT)を構築した. 化学プロセスに関する論文計 28 報を用いて, ProcessBERT と他の言語モデルの同義性判定の性能を比較した結果,ProcessBERTが他モデルを上回る性能を発揮した。
## 1 はじめに
化学や鉄鋼などのプロセス産業では,プロセスの設計や運転に物理モデルに基づくプロセスシミュレータが用いられている. しかし, 物理モデルの構築にはプロセスに関する深い理解と専門知識だけでなく, 精度向上のための試行錯誤的な取り組みが必要とされる. 本研究の最終目的は, 文献デー タベースから必要な文献を収集し,それらからモデル構築に必要な情報(数式,変数,実験データ) を抽出し,所望のモデルを構築するという工程を自動でおこなうシステム (Automated Physical Model Builder; AutoPMoB)を開発することである.著者らは, AutoPMoB の実現に向けて, 複数の要素技術の開発に取り組んでいる [1]. 本研究では, その内の一つである複数文献間における変数の同義性を判定する手法を開発する。
2018 年に Devlin らによって提案された BERT[2] は,様々な自然言語処理タスクにおいて当時最高の精度を達成した. 以降, 精度を維持しつつ大幅なパラメータ削減を実現した ALBERT[3] や,より大規模なコーパスを用いた学習をおこなうことで大幅な精度向上を達成した RoBERTa[4] など,様々な改良型モデルが提案されている。また,ある特定のドメインにおける自然言語処理タスクを解く場合, Wikipedia などの一般的なドメインのテキストを用いて構築された言語モデルよりも,その特定のドメインのテキストを用いて構築された言語モデルの方が優れた精度を達成できることが報告されている $[5,6,7,8]$.
本稿では,化学工学ドメインに特化した言語モデルである ProcessBERT を構築する。そして,言語モデルの埋め込みべクトルを用いる手法とファインチューニング済みモデルを用いる手法で同義性判定をおこない,ProcessBERT の性能を検証する。また, オリジナルの BERT と科学技術関連のテキストで学習した SciBERT[7] と性能を比較する。
## 2 ProcessBERT
## 2.1 コーパス
Elsevier 社が提供する Elsevier Research Product APIs[9] を用いて,化学工学に関連する 17 のジャー ナルから約 13 万報の論文を収集した. 使用したジャーナルとジャーナルごとの論文数を表 1 に示す. 収集した論文から論文の抄録と本文(図表を除く)にあたる部分のテキストを抽出して化学工学ドメインに特化したコーパス (ChemECorpus) を構築した. ChemECorpus にはタイトル,著者情報,キーワード,参考文献,付録は含まれない。 ChemECorpus の総単語数は約 7 億語 (4.0GB) である.
## 2.2 事前学習
事前学習済みの BERT $_{\mathrm{BASE}}[2]$ に対し, ChemECorpus を用いて以下の手順で追加の事前学習をおこなった。
表 1 ChemECorpus 構築に用いたジャーナルと論文数
1. バッチサイズを 64 とし,最大長が 128 のシーケンスを用い,2つの事前学習タスク (Masked Language Model, Next Sentence Prediction)を 900,000 ステップにわたり実行した.
2. バッチサイズを 8 とし,最大長が 512 の長いシーケンスを用い,1. と同じタスクを 100,000 ステップにわたり追加で実行した。
また,学習回数の違いによるモデルの性能差を検証するため,ステップ数のみを 2 倍にして事前学習をおこなったモデル (ProcessBERT double )も構築した.計算には Google Cloud Platform[10] で利用できる 8 コアの TPU v3を使用した. ProcessBERT の事前学習には約 13 時間を要した。
事前学習には,Devlin らが Github 上で公開しているプログラム [11](run_pretraining.py)を使用した. また,事前学習時に指定する語彙やハイパーパラメータは,BERT $\mathrm{BASE}_{\mathrm{BAS}}$ と同じものを使用した.
## 3 実験
## 3.1 データセット
晶析プロセス (Crystallization; CRYST), 連続槽型反応器 (Continuous Stirred Tank Reactor; CSTR), 多管式熱交換器(Shell and Tube Heat Exchanger; STHE)に関する論文をそれぞれ 11,10,7 報収集し,本文中から変数定義に相当する名詞句を抽出した. 次に,同一プロセスの異なる 2 つの論文間ですべての変数定義のペアを作成し,ペアごとに同義(1)もしくは非同義(0)のラベルを手動で付与した. プロセスごとの同義と非同義のペアの数を表 2 に示す. いずれのプロセスも,同義のペアの割合が小さい不均衡データであるため,以下のようにして各プロセスのトレーニング用およびテスト用のデータセットを作成した。
トレーニング用 3.2 .2 の検証における学習回数を一定にするため,データの総数が 2,500 になるように非同義のペアをランダムにサンプリングする.
テスト用同義のペアの数が全体の $10 \%$ になるように非同義のペアをランダムにサンプリングする.
表 2 各プロセスの論文数と同義および非同義のペア数
## 3.2 検証方法
ProcessBERT および ProcessBERT double の性能を検証するため, BERT BASE および SciBERT[7]を比較対象とし,以下の 2 通りの検証をおこなう。
## 3.2.1 変数定義の類似度による同義性判定
図 1 に示すように,モデルから得られる単語の埋め込みベクトルを使用して 2 つ変数定義の類似度を計算し,その同義性を判定する。
まず,2つの変数定義を表すべクトルを以下の手順で得る。
1. 変数定義にあたる名詞句をモデルに入力し, モデル内に 12 層ある Transformer Encoder から, ストップワード(冠詞,前置詞,等位接続詞など)に該当しない単語の埋め込みべクトルを抽出する. 抽出した単語の数を $n$ 個, $j$ 層目の Transformer Encoder から出力された $i$ 番目の単語の埋め込みベクトルを $v_{i, j}$ とする。 $(1 \leq i \leq n, 1 \leq j \leq 12)$
2. 変数定義を表すべクトル $\boldsymbol{d}$ を以下の式にしたがって計算する。
$
\boldsymbol{d}=\frac{1}{n} \sum_{i=1}^{n}\left(\frac{1}{12} \sum_{j=1}^{12} \boldsymbol{v}_{i, j}\right)
$
次に,得られた 2 つの変数定義を表すべクトルのコサイン類似度(変数定義の類似度)を算出する。この値が間値を超えた場合,2つの変数が同義であると判定する.
## 3.2.2ファインチューニング済みモデルによる同義性判定
3.1 のトレーニング用データセットのうち 2 プロセス分を用いてモデルのファインチューニングをおこなう。次に,得られたモデルを用いて残り 1 プロセスのテスト用データセットに対する性能を検証する.これを計 3 回おこない,すべてのプロセスで検証する.
なお,ファインチューニングには,Devlin らが提供するプログラム [11](run_classifier.py)を使用する. 2 つの名詞句が同義であるか否かを分類するというタスクは, Microsoft Research Paraphrase Corpus(MRPC)[12]を用いたタスクとほぼ同様の内容であるため, run_classifier.py 実行時の引数 (TASK_NAME)には"MRPC"を指定する。
MRPC タスクにおける BERT モデルのファイン
図 1 変数定義の類似度による同義性判定
図 2 MRPC タスクにおける BERT モデルのファインチューニング時の処理 [2]
チューニング時の処理を図 2 に示す.まず,2つの変数定義の名詞句を [SEP] トークンで繋ぎ,先頭に [CLS] トークンを付加した単語列をモデルに入力する. その後, [CLS]トークンに対応する最終層の埋め达みべクトル $C\left(\in \mathbb{R}^{768}\right)$ と重み行列 $W\left(\in \mathbb{R}^{2 \times 768}\right)$ から,「同義」および「非同義」の2 クラスの予測値 $\operatorname{softmax}\left(C W^{T}\right)$ を計算する。「同義」のクラスの予測値が「非同義」のクラスの予測値より大きい場合, 2つの変数が同義であると判定する.
## 3.3 結果と考察
## 3.3.1 結果
変数定義の類似度による同義性判定の検証結果として,Youden's Index[13]を閾値とした時の F1 値を表 3 に示す. CRYST のデータセットに対しては,
SciBERT が最高値となったが,他の 2 プロセスおよび全プロセスをまとめたデータセット(All)に対しては, ProcessBERTが最高値を達成した.
ファインチューニング済みモデルによる同義性判定の検証結果として, F1 值を表 4 に示す. いずれのデータセットに対しても,ProcessBERT, ProcessBERT $_{\text {double }}$ ともに, 最高値が他モデルを下回った.
表 3 変数定義の類似度による同義性判定の検証における各モデルの $\mathrm{F} 1$ 值
表 4 ファインチューニング済みモデルによる同義性判定の検証における各モデルの F1 値
## 3.3.2 考察
事前学習用に構築した ChemECorpus のサイズ(7 億語)は,過去に提案された多くのドメイン特化 BERT モデルの事前学習に使われたコーパスと比較して小さい (SciBERT[7]: 32 億語,BioBERT[5]: 45 億語, PubMedBERT[8]: 31 億語). サイズの小さい ChemECorpus では, 化学工学ドメインにおける専門的な知識を十分に学習できていない可能性が考えられる. また, 先行研究 [8] では, 事前学習において一般的なドメインのコーパスで学習された $\mathrm{BERT}_{\mathrm{BASE}}$ を用いずに,一から事前学習をおこなうことで,より性能の高いモデルが得られるとされている.今後,十分なサイズのコーパスを構築し,一から事前学習をおこなうことでより高性能な言語モデルが得られる可能性がある.
ファインチューニング済みモデルによる同義性判定の検証において,CSTR のデータセットに対する $\mathrm{F} 1$ 值が,他の 2 プロセスの結果と比較して明確に小さくなっている.結果を精査したところ,この検証では 2 つの名詞句を構成する単語がほぼ同一であるペアのみを同義と判定する傾向があった. 同義であ
る2つの名詞句を構成する単語が大きく異なるペアが他プロセスと比較して多かったことが,CSTR のデータセットにおける性能が低下した原因であると考えられる。これについては,トレーニング用デー タとテスト用データの分割を各プロセスのデータセットごとにおこない,各プロセスにおける変数定義の表記摇れをモデルが学習することで対応できる可能性がある. その検証をおこなうには,現時点では正例のデータ数が不足しているため, 今後は正例のデータ数が十分に確保されたデータセットの構築を進める必要がある。
ら,学習回数を増やしても ProcessBERT の性能は向上しないことが分かった. この結果は, 先行研究 [6] の内容と符合するものである.
## 4 おわりに
本研究では, 複数文献間における変数の同義性判定に向けた一つのアプローチとして, 約 13 万報の化学工学関連の論文から構築された ChemECorpus を用いて ProcessBERTを構築した. BERT BASE と SciBERT を比較対象として,変数定義の類似度を用いる手法とファインチューニング済みモデルを用いる手法による 2 通りの検証をおこなったところ,前者の手法において,ProcessBERTを用いた場合の同義性判定が最高の精度を達成することが示された.
今後は,正例のデータ数が十分に確保されたデー タセットの構築を進めていく. また, 化学工学関連のテキストを追加で収集して ChemECorpusを拡張した上で, BERT $_{\mathrm{BASE}}$ から追加で学習するのではなく一から事前学習をおこなうことで, ProcessBERT の更なる改良を図る。
## 謝辞
本研究は JSPS 科研費 JP21K18849 および JST 次世代研究者挑戦的研究プログラム JPMJSP2110 の助成を受けたものです.
## 参考文献
[1] S. Kato and M. Kano. Identifier information based variable extraction method from scientific papers for automatic physical model building. PSE Asia Paper No. 210043, 2020.
[2] J. Devlin, M. Chang, K. Lee and K. Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 1, pp.4171-4186, 2019.
[3] Z. Lan, M. Chen, S. Goodman, K. Gimpel, P. Sharma and R. Soricut. ALBERT: A Lite BERT for Self-supervised Learning of Language Representations. arXiv preprint arXiv:1909.11942, 2019.
[4] Y. Liu, M. Ott, N. Goyal, J. Du, M. Joshi, D. Chen, O. Levy, M. Lewis, L. Zettlemoyer and V. Stoyanov. RoBERTa: A Robustly Optimized BERT Pretraining Approach. arXiv preprint arXiv:1907.11692, 2019.
[5] J. Lee, W. Yoon, S. Kim, D. Kim, S. Kim, C.H. So and J. Kang. BioBERT: a pre-trained biomedical language representation model for biomedical text mining. Bioinformatics, 36(4), pp.1234-1240, 2020.
[6] E. Alsentzer, J. Murphy, W. Boag, W.H. Weng, D. Jindi, T. Naumann and M. McDermott. Publicly Available Clinical BERT Embeddings. Proceedings of the 2nd Clinical Natural Language Processing Workshop, pp.72-78, 2019.
[7] I. Beltagy, K. Lo and A. Cohan. SciBERT: A Pretrained Language Model for Scientific Text. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp.36153620, 2019.
[8] Y. Gu, R. Tinn, H. Cheng, M. Lucas, N. Usuyama, X. Liu, T. Naumann, J. Gao and H. Poon. DomainSpecific Language Model Pretraining for Biomedical Natural Language Processing. ACM Transactions on Computing for Healthcare, pp.1-23, 2021.
[9] Elsevier Developer Portal. https://dev. elsevier.com/. (Accessed on 2022/1/12).
[10] Cloud Computing Services | Google Cloud. https: //cloud. google.com/. (Accessed on 2022/1/12).
[11] GitHub-google-research/bert: TensorFlow code and pre-trained models for BERT. https:// github.com/google-research/bert. (Accessed on 2022/1/12).
[12] W.B. Dolan and C. Brockett. Automatically constructing a corpus of sentential paraphrases. In Proceedings of the Third International Workshop on Paraphrasing (IWP2005), 2005.
[13] W.J. Youden. Index for rating diagnostic tests. Cancer, 3(1), pp. 32-35, 1950. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F3-4.pdf | # 被引用論文の表現も利用した引用文生成
有田朗人 ${ }^{1}$ 杉山 弘晃 ${ }^{2}$ 堂坂浩二 ${ }^{3}$ 田中陸斗 ${ }^{3}$ 平博順 ${ }^{1}$
${ }^{1}$ 大阪工業大学大学院 ${ }^{2} \mathrm{NTT}$ コミュニケーション科学基礎研究所 ${ }^{3}$ 秋田県立大学
m21a02@oit.ac.jp h.sugi@ieee.org
\{dohsaka,B20P025\}@akita-pu.ac.jp
## 概要
本研究では,論文執筆者支援に必要な技術の一つとして引用文自動生成の精度向上に取り組んだ。高精度な引用文生成のためには, 引用元と引用先の論文の関係性,引用する際の文脈といった情報や,引用文生成時の適切な文の表現パターンの学習が必要である.しかし,深層学習を利用した引用文生成では,学習時の入力データサイズの制限から引用文直前の 1 文を利用したり,論文のアブストラクトが利用されることが多かった. そのため,本研究では,引用文と類似した被引用論文中の文も引用文生成の学習に使用することで,入力データ量を抑えつつ,高精度な引用文生成モデルの学習を試みた。
## 1 はじめに
出版される科学技術論文数は増加の一途を辿っている. 近年, $\operatorname{arXiv}[1]$ を始めとするプレプリントサーバの利用も進み,論文執筆時に引用すべき文献の量が一段と増加している. しかし, 1 人の研究者が論文調査にかける時間は限られるため, 論文執筆時に,引用すべき論文が抜け落ちてしまう危険が,年々増加している可能性がある. 我々は,これまで論文執筆支援の枠組みについて考察し,論文支援に必要な技術がいくつかのフェーズに分かれることを明らかにしている [2]. 本研究ではそのフェーズの一つである引用文生成技術について取り上げる.
引用文生成技術は,それまでの文脈を与える論文テキストと引用先論文のテキストを入力とし, 文脈にあった適切な引用文を自動生成する技術である. 従来, 深層学習を用いた引用文生成手法がいくつか提案されている. 例えば, Xing らは, sequence to sequence モデルの一種である, Pointer-Generator Networks [3] を利用した手法 [4] を提案している. Pointer-Generator Networks は, デコーダ部分で新たに単語を生成するだけでなく,学習に使用される引用元テキスト中の未知語も利用することで引用文生成精度を向上させようとしている.
また,Jia-Yan らは,引用文中で複数の論文を引用する場合にも対応するため,複数箇所の入力情報をコンパクトに扱うことができる Fusion-in-Decoder [5] を利用している.さらに,引用文生成精度を高めるため,論文引用の際の「引用意図」を自動判定し,引用意図カテゴリ [6] も学習・識別の入力とすることで引用文生成を試みている [7].
高精度な引用文生成のためには,引用元と引用先の論文の関係性,引用する際の文脈といった情報や,引用文生成時の適切な文の表現パターンの学習が必要である.しかし,深層学習を利用した引用文生成では,学習時に入力される1データに対する情報は,それほど大規模なものは使用できないため,従来の研究では, 引用の文脈情報として, 引用文直前の 1 文を利用したり,論文のアブストラクトが利用されることが多かった. また,被引用論文の情報としても,被引用論文の本文全てを利用することは困難で,被引用論文のアブストラクトが利用されることが多かった.
しかし,論文のアブストラクトを学習の入力とした場合,引用文で実際に使用される具体的な表現が情報として含まれにくく,高精度な引用文生成が実現しにくいと考えられる。 そのため, 本研究では,引用文と類似した被引用論文中の文も引用文生成の学習に使用することで,入力データ量を抑えつつ,高精度な引用文生成モデルの学習を試みた。
## 2 提案手法
本研究では,従来の複数論文を引用する場合にも対応した引用文生成モデル [7] をべースとし,より高精度な引用文生成が実現するため, 被引用論文中の文の表現も引用文生成モデルの学習に使用する.本研究の提案手法の概要を図 1 に示す.
提案手法では,引用文の直前の文,引用意図カテ
図 1 提案手法
図 2 本研究で扱う用語について
ゴリ,被引用論文中の,引用文に文類似度が近い文集合を入力とし,正解の引用文を生成させるような学習を Fusion-in-Decoder [5] を用いて行う。
Jia-Yan らの手法 [7] では, 被引用論文の情報として,被引用論文のアブストラクトが用いられていたのに比べ,提案手法では,被引用論文中の文の情報も学習することで,引用文の文の表現がより的確なものになることが期待される.
なお,本研究で使用する「引用文 $\rfloor$, 「引用論文概要」等の用語の関係を図 2 に示す。
## 3 評価実験
## 3.1 評価用データ
評価用データには, Xing らが作成した citation generation データセット [4]を用いた. このデータセットは, ACL Anthology Network(AAN) コーパス [8]中の 1000 件の論文の引用文に対し, 引用文献情報
と引用文正解をアノテーションしたデータセットである. 1000 件の論文のうち, 600 件が訓練データ, 400 件がテストデータである.
ただし,我々が確認したところ,一部のテストデータが訓練データに含まれていることが確認されたため,本研究では,重複した 103 件のデータを訓練データから除外して実験を行った。
## 3.2 実験設定
引用直前文は,引用文直前の 2 文を使用した.
被引用論文の文については,被引用論文の概要を除く論文本文全体のテキストから引用文に類似性の高い文を抽出して使用した. SentenceBERT[9]を用いて得られた文べクトルについて,引用文とコサイン類似度で類似度 0.6 以上の上位 6 文を使用した。類似度 0.6 以上の文が 6 文ない場合は,類似度上位 3 文を学習時に使用した. テスト時は,引用文直前文と類似度の高い上位 6 文を入力に使用した。これらの類似文は,学習時,テスト時ともに文を連結して大力とした.
引用意図カテゴリは,生成する引用文の傾向を引用意図カテゴリで狭めることで,より意図する知識が抽出されること, 引用意図カテゴリごとにおける特徴的な単語がより多く生成され,精度が上がるのではないかと考え利用した.め,あらかじめ引用文に対して Cohan らの引用意図推測モデル [6] を利用し, 引用意図カテゴリを擬似的に付与したものを用いた.
実験では,学習,識別モデルとして Fusion-inDecoder [5] を用い, 引用文生成モデルの事前学習済みモデルに,T5[10]を用いた。
## 3.3 実験結果
実験結果を表 1 に示す.まず,被引用論文の概要と本文どちらが精度に貢献しているかを検証するため,引用側の情報を引用論文概要にして,被引用論文の情報をアブストラクト,論文本文の類似文に変更した場合の実験を行った. ROUGE-1 の評価で 0.15 ポイントとわずかに,被引用論文の内容を入力した時が高かった. しかし, ROUGE-2, ROUGE-L の評価ではそれぞれ 0.06 ポイント, 1.1 ポイント低い結果となった.
このことから,被引用文の内容と被引用論文の概要にはほとんど違いがない,もしくは,引用論文の概要と被引用論文の概要, 引用論文の概要と被引用
表 1 実験結果
図 3 提案手法による引用文生成の例
引用文直前文 (入力):
Such an extraction-based definition of summarization has also been quite common in most existing general summarization work \#OTHEREFR. By definition in order to generate an impact summary of a paper, we must look at how other papers cite the paper, use this information to infer the impact of the paper, and select sentences from the original paper that can reflect the inferred impact.
被引用論文中の類似文 (入力):
We believe that similar improvements can be achieved on other discourse annotation tasks in the scientific literature domain. For such information access and retrieval purposes, the relevance of a citation within a paper is often crucialin particular,we plan to investigate the use of scientific attribution information for the citation function classification task. To demonstrate the use of automatic scientific attribution classification, we studied its util- ity for one well known discourse annotation taskIn bibli- ographic information retrieval, anchor text, i.e., the context of a citation can be used to charac- terise (index) the cited paper using terms out- side of that paperIn particular, we plan to investigate the use of scientific at- tribution information for the citation function classification task.
引用文 (正解):
This is because in citations, the discussion of the paper cited is usually mixed with the content of the paper citing it, and sometimes also with discussion about other papers cited \#REFR.
提案手法による引用文生成の結果:
This paper, use the citation-based approach of \#REFR to select sentences from the original paper that reflect the impact of the paper.
論文の内容それぞれの関係においては大きく違いがないということが考えられる。
次に, 引用論文の直前文を固定し, 被引用論文の概要と内容どちらが精度に貢献しているかを検証した. ROUGE-1, ROUGE-2, ROUGE-L スコアは, 本文を使用した方がそれぞれ 2.64 ポイント, 1.29 ポイント, 2.41 ポイントとすべて向上する結果となった.この結果から,引用文の内容を取り入れることで精度が上がるのではないかと考えられる.ただし, 引用文の本文の情報が加わったから精度が上がったのではなく, 引用文直前文がセットで入力されがことで精度が向上してのではないかと考えている.
図 3 に本提案手法による引用文生成の結果の例を示す. 引用文直前文をキーとし検索をかけたことで,今回の例においては"citation","paper"という共通キーワードが入力データにおいて複数回登場していることから,重要な単語としての引用文の生成で利用されやすくなったことが要因で, 精度が向上したと考えられる。
## 4 おわりに
本研究では,引用論文の引用文直前文と,被引用論文の内容から引用論文の引用文の直前文と類似している文を新たに学習データに含め,組み合わせることで,引用文生成の精度向上を実現した.今後は,ROUGE 以外の人手等の評価,より大規模な引用文データセットによる評価なども行っていきたいと考えている.
## 謝辞
本研究の遂行にあたり,ご助言・ご協力をいただきました,NTTコミュニケーション科学基礎研究所成松宏美氏,電気通信大学南泰浩教授,工学院大学大和淳司教授,名古屋大学東中竜一郎教授,農研機構菊井玄一郎チーム長に感謝いたします。
## 参考文献
[1] Gerry McKiernan. arxiv.org: the los alamos national laboratory e-print server. International Journal on Grey Literature, Vol. 1, pp. 127-138, 2000.
[2] Hiromi Narimatsu, Kohei Koyama, Kohji Dohsaka, Ryuichiro Higashinaka, Yasuhiro Minami, and Hirotoshi Taira. Task definition and integration for scientific-
document writing support. In Proceedings of the Second Workshop on Scholarly Document Processing, pp. 18-26, Online, June 2021. Association for Computational Linguistics.
[3] A. See, Peter J. Liu, and Christopher D. Manning. Get to the point: Summarization with pointer-generator networks. In ACL, 2017.
[4] Xinyu Xing, Xiaosheng Fan, and Xiaojun Wan. Automatic generation of citation texts in scholarly papers: A pilot study. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 61816190, Online, July 2020. Association for Computational Linguistics.
[5] Gautier Izacard and Edouard Grave. Leveraging passage retrieval with generative models for open domain question answering. In EACL, 2021.
[6] Arman Cohan, Waleed Ammar, Madeleine van Zuylen, and Field Cady. Structural scaffolds for citation intent classification in scientific publications. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3586-3596, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[7] Jia-Yan Wu, Alexander Te-Wei Shieh, Shih Ju Hsu, and Yun-Nung Chen. Towards generating citation sentences for multiple references with intent control. ArXiv, Vol. abs/2112.01332, , 2021.
[8] Dragomir R. Radev, Pradeep Muthukrishnan, Vahed Qazvinian, and Amjad Abu-Jbara. The acl anthology network corpus. Language Resources and Evaluation, pp. 1-26, 2013.
[9] Nils Reimers and Iryna Gurevych. Sentence-bert: Sentence embeddings using siamese bert-networks. ArXiv, Vol. abs/1908.10084, , 2019.
[10] Colin Raffel, Noam M. Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei $\mathrm{Li}$, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. ArXiv, Vol. abs/1910.10683, , 2020. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F3-5.pdf | # 引用要否判定タスクにおける モデルの性能評価とデータの妥当性分析
小山康平 1 小林恵大 ${ }^{1}$ 成松宏美 ${ }^{2}$ 南泰浩 ${ }^{1}$
1 電気通信大学 ${ }^{2} N T T$ コミュニケーション科学基礎研究所
k2131071@edu.cc.uec.ac.jp k1810249@edu.cc.uec.ac.jp
hiromi.narimatsu.eg@hco.ntt.co.jp minami.yasuhiro@is.uec.ac.jp
## 概要
学術論文の執筆および査読支援を目的として,引用の不足や余分な引用を自動で検出する引用要否判定タスクを課題とした研究が行われている. 引用要否判定は主に,公開された学術論文の引用情報を正解として,その引用情報を自動的に削除することで構築した文がタスクの評価に用いられる。しかしながら,そのように構築されたデータセットは,執筆中の原稿において引用要否を判定する場合よりも,簡単なタスクになっていることが懸念される.例えば,引用があることが前提の記述パタンや引用情報を除いたことにより不完全な文になるなどである。 そこで,本研究では,実用環境におけるモデルの性能を正しく評価することを目的として,タスク評価用データの妥当性分析を行なった. 結果として,自動で構築した引用要否判定タスクの評価用データセットは明確な特徴を持つものも多く含まれていることがわかった。
## 1 はじめに
公開される学術論文の数は年々増加しており [1]研究者はこれまで以上に早いスピードで論文化し公開することが求められている。一方,研究者が学術論文を執筆する際には,多数の関連研究を読み,一文一文に気を配りながら適切に引用することも求められており, 研究者の負担は増している. 論文執筆に慣れた研究者であれば,それらの作業を効率よく行うことができるが,そうでない場合には,執筆に関わる負担は大きい。また執筆した論文をチェックする共著者や査読者への負担の影響も大きい.
こうした背景から,論文執筆支援に関わる様々な研究が行われている。具体的には,既に検索済みの論文の閲読時間削減を目的とした論文要約 $[2,3,4]$
や,未検索の論文の効率的な検索を目的とした参考文献推薦 [5],論文執筆の効率化を目的とした引用要否判定 [6,7],被引用文献割り当て [8],引用文生成 $[9,10]$ などである.本研究では,論文チェックにおいて最初に必要となる引用要否判定に着目し,そのタスクの判定精度向上を目指す。
引用要否判定タスクとは,論文中の任意のある文に対して引用が必要か必要でないかを推論するタスクである. 基本的には根拠が必要な文が引用の必要な文であるため,既存研究の多くは入力された一文に対して引用の要否を判定するタスクを扱ってきた [11]. その精度は9 割程度と非常に高い. 一方, Amjad らは引用の前後の文脈によって, criticizing, basis,comparison などの引用の目的を推定するタスクの精度が変わることを指摘している [12]. 引用要否判定タスクも前後の文脈の入力により,さらなる精度の向上が期待できる.
しかしながら,支援システムを目的とするとき,真にこれらの精度が得られているかは注意深く分析する必要がある.具体的には,引用要否判定タスクが,引用箇所をそのまま取り除いているために,不完全な文かどうかや,引用をする際の明らかなパタンが,判定精度を高めている可能性が示唆される。 そこで本稿では,引用要否判定を正しく評価し,その判定精度を向上させることを目的として,現在の引用要否判定タスクのデータの妥当性分析を行う.実際には,成松らが,論文執筆支援システムの構築を目的として公開したデータセット [13]を用いて, その性能を評価し,正解・不正解となるデータのパタンから,性能の妥当性を検証する。
## 2 関連研究
引用論文推薦の前段階として,引用の要否を判定する研究が行われている [11,14]. 引用要否判定
タスクとは,論文中の各文に対して,引用が必要かどうかを当てるタスクである. 初期の研究では, サポートベクターマシン (SVM) や決定木を使ったモデルで判定器を学習する方法が提案されてきた $[15,16]$. 彼らは,ACLをはじめとする論文デー タベースから構築したデータセットを用いて評価を行なっていた. 近年では, 公開される論文数の増加に伴い,より大規模な論文データベースからデー タを作成できるようになった. ARC [17]などは特に幅広く使われている大規模データセットである. これによりデータ量が必要な深層学習をべースとする手法も提案されてきている [18]. Bonab らは, Word2Vec による単語の分散表現を入力とし, CNN を用いた引用要否判定モデルを提案している [19]. また,Färber らは,Glove による単語分散表現を入力とし, RNN と CNNを組み合わせて引用要否を判定するモデルを提案している [11]. 従来の SVM や決定木を用いる手法と比較し, 高い精度が得られている. さらに,さまざまな自然言語処理のタスクで高い性能を発揮している大規模汎用言語モデルの一つである BERT [20]を用いた研究もある.堂坂らは,BERTを引用要否判定タスクの少量のデータで転移学習することで, Bonab らが公開した Citation Worthiness データセット [19]にて, CNNをベースとする手法よりも高い精度が得られ,F 値で 0.7 に到達することを示している. 成松らは, arXiv の論文を対象にデータセットを構築し, BERTで評価をした結果, $\mathrm{F}$ 値で 0.9 を達成しており, 高い精度で要否の判定が可能であることを示している [13].
しかしながら,いずれの研究においても,そのデータの妥当性については検証されていない. 実際に執筆支援システムとして引用要否判定を用いるには,実用時に近いデータでの性能評価が求められるが,自動で構築したデータには,不完全な文や引用があることを示唆する文字列など,モデルが判定しやすい特徴を含むことが懸念される。そこで,本研究では,統合的な執筆支援システムの実現を目的として構築されたデータセット $[21,13]$ からタスク用データを構築し,大規模汎用言語モデルを用いてその性能を評価するとともに,より実用に近い環境で評価できるタスクデータ設計の指針について議論する.表 1 入力テキストとラベルの例 (引用要の場合)
表 2 引用要否判定データ量
## 3 データセットの構築
文脈の要否による性能の違いも評価するために,統合的な執筆支援を目的として構築されたデータセット [13]をもとに,引用要否判定タスク用のデー タを構築した. 基本的な構築方法は, 過去に著者らが引用文と被引用文のぺア適正を判定するために構築したデータセット [22] と同様である.
Tex のソースが公開されている論文を AxCell [23] のリストから選択し,Tex のファイルに対して以下の手順で加工して構築する。
1. section\{\}タグの情報を用いて関連研究の章の本文を抽出
2. Tex 記号をもとに図表や注釈を本文から除去
3. nltkライブラリでテキストを文単位に分割
5. 引用を含んでいた文を引用要,そうでない文を不要に分類
なお,文脈の有無による精度比較も可能とするため, 判定対象の文の前後もコンテキストとわかる様にデータセットに含めた. 今回作成したデータの量は表 2 となった。
## 4 性能評価
## 4.1 実験設定
引用が必要か不要かの 2 値分類の性能を,3つの大規模汎用言語モデルを用いて評価する。汎用言語モデルとして最初に成功を納めた BERT [20] と,事前学習でより長い文が学習されている RoBERTa [24] に加えて,科学論文の文章を対象に BERTを事前学習した SciBERT [25]を用いる. いずれの手法においても,公開されている事前学習済みのモデルに対して, SentenceClassification の形式で転移学習した.
表 3 引用要否判定タスクの結果
また,引用要否判定の学習に文脈情報が効果的であるかを確かめるために,推論対象の直前の一文・直後の一文をそれぞれ入力に追加し学習をすることで精度を比較する。これらの追加の文脈は,対象の文とセパレータ記号でつなげて入力とする.
## 4.2 実験結果
結果を表 3 に示す. 手法や文脈の有無によらず, 0.9 に近い精度が得られている. モデルとしては,前後の文の入力によらず RoBERTa が最も高い精度を示した。転移学習に用いたデータサイズは手法間で同じであるため,事前学習の効果が大きいと考えられる。
## 5 データの妥当性分析
引用要否判定タスクの精度は,0.9 に近く,システムの性能としては十分に見える。しかしながら,自動で構築したデータには,不完全な文や引用があることを示唆する文字列などモデルが判定しやすい特徴を含んでいる可能性が考えられる。 そこで,(1)引用記号を含む文に特有の単語 N-gram の出現パタンがないかの調査,(2) 正例・負例内の不完全な文の数および不完全な文を除いた時の性能の評価,の 2 点を行う。
## 5.1 正例・負例に特有の文字列調査
モデルが,正例(引用を含む文)・負例(引用を含まない文)の文中に表れる特有のパタンを特徴量として分類をしている可能性がないかを調べる。その目的は,実用において入力されるデータと,タスク評価用データで人工的に作成した入力データとの違いとそれによる影響の調査である。例えば,今回用いたデータには “According to a method to 〜” というような引用があることを明示している文も判定対象に含まれる。しかしながら,実用のシーンで
は,“According to 〜”の部分は入力されることはなく,後半の文節のみが入力されると考えられる。 そこで,このような引用の要が明示的な文に表れる文字列の特徵やそれによる影響を調べる。具体的には,正例,負例ごとに 1-gram,2-gram の出現頻度を調査し,片方のみに突出して表れる語については,明示的なパタンであるとする.
特に出現率が高い 1-gram と 2-gram をプロットした図を (図 1,2 ) に示す。横軸は引用を含む文における出現率,縦軸は引用を含まない文における出現率,を表している。引用を含む文に現れる傾向が強い “For example” などは直後に他者の論文に対する言及が予想されるため,引用が含まれる文であることが明確な文となっている可能性が示唆される.一方,引用が含まれない文では “our work” や"this paper”などのパタンが出現する傾向が強い. 実際に,自分の研究に対する意見を述べる場合に,“our work”を含むことが多く,このような文では引用が不要であることが多い,以上のことから,評価用データには,実用時よりも簡易に判定可能なデータになっている可能性が高いことがわかる.したがって,実用時の判定対象に含まれていないことが想定される文字列のパタンについては,評価用データセットから削除することが必要と考えられる。
## 5.2 不完全な文の調査
引用のスタイルはさまざまで, “According to Devlin et al. 〜 [1]” と書く場合もあれば, “According to [1],〜”のように引用記号を名詞の代わりに使用する場合もある。そのため,引用箇所を取り除くことで,入力される文が不完全になる可能性もある. そこで,不完全な文が推論に与える影響を調査するために,名詞の欠落を判定する推論モデルである非文判定器を作成する. 非文判定器は BERT の事前学習済みモデルを転移学習することで作成する。学習デー タには, $\operatorname{arXiv} の$ APIを使用して取得した 30,846 件の論文のアブストラクトを使用する。これらのアブストラクトを文単位に分割し,そのままの文を正例,名詞となる単語をランダムに消去した文を負例とする。学習した非文判定器 (精度は表 4 に記載) で引用要否判定のテストデータを完全な文・不完全な文に分類し,それぞれの文を用いて引用要否判定夕スクの精度を算出する。
非文判定器によって分類された完全な文と不完全な文ごとの引用要否判定タスクの結果を表 5 に示
図11-gram の出現率
表 4 非文判定器の性能
す. 不完全な文と判定された文の Recall と F 值が完全な文を大きく上回る結果となった. これは,名詞の欠落をヒントにモデルが引用要否判定を行っていることを示唆している.
## 6 考察と今後の展望
本稿では,論文中のある文に対して引用が必要か必要でないかを推論するタスクである引用要否判定タスクを行った. モデルの種類や入力文脈などの条件を変えて精度を比較したところ, RoBERTaが最も良い精度を示し, 入力文脈が長いほうが精度の高いモデルを作成できた.このことから, 適切な事前学習と引用前後の文脈情報は引用要否判定タスクに対して効果的であると考えられる. 入力する文脈長を調整し,適切な入力の形式を調査することが今後の課題である.
データセットを実用時の条件に近づけるために,妥当性分析を行った. 引用が含まれていることが明示的な文はデータセットに適さないため, どのような明示的な引用のパタンが存在するかを N-gram を用いて調査した. 結果, 複数の明示的引用を伴いゃすいパタンが,引用を含む文では出現率が高いことを確認した. これらのパタンで,明示的な引用文を簡単に発見できる可能性がある. 引用の消去による名詞の欠落がモデルの推論に影響を与えるかを確か
図 2 2-gram の出現率
表 5 非文判定後のデータを用いた引用要否判定の結果
めるために,非文判定機を用いてテストデータを完全な文と不完全な文に分けて,引用要否判定タスクを行った. 不完全な文であると推論された文の要否判定の精度が高かったことから,不完全な文は推論に影響を与えることが示唆される. 引用要否判定タスクを実用に近い条件にするためにも,不完全な文や明示的な引用文をデータセットから見つけ出す必要がある. 今後は,より実用を考慮したタスク設計を行い,論文執筆者支援を続けたい。
## 謝辞
研究の遂行にあたり,ご助言をいただきました,秋田県立大学堂坂浩二教授, NTT コミュニケーショ之科学基礎研究所杉山弘晃氏,東中竜一郎氏,大阪工業大学平博順教授, 工学院大学大和淳司教授, 農研機構菊井玄一郎チーム長に感謝いたします。
## 参考文献
[1] 桑原真人. 各国の論文数の推移から見えるもの. 日本物理学会誌, Vol. 72, No. 4, pp. 246-251, 2017.
[2] Simone Teufel and Marc Moens. Articles summarizing scientific articles: Experiments with relevance and rhetorical status. Computational Linguistics, Vol. 28, No. 4, pp. 409-445, 2002.
[3] Michihiro Yasunaga, Jungo Kasai, Rui Zhang, Alexander Fabbri, Irene Li, Dan Friedman, and Dragomir Radev.
ScisummNet: A large annotated corpus and contentimpact models for scientific paper summarization with citation networks. In Proceedings of AAAI 2019, 2019.
[4] Chenxin An, Ming Zhong, Yiran Chen, Danqing Wang, Xipeng Qiu, and Xuanjing Huang. Enhancing scientific papers summarization with citation graph. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 35, No. 14, pp. 12498-12506, May 2021.
[5] Xiaomei Bai, Mengyang Wang, Ivan Lee, Zhuo Yang, Xiangjie Kong, and Feng Xia. Scientific paper recommendation: A survey. IEEE Access, Vol. 7, pp. 9324-9339, 2019.
[6] Michael Färber, Alexander Thiemann, and Adam Jatowt. To cite, or not to cite? detecting citation contexts in text. In Gabriella Pasi, Benjamin Piwowarski, Leif Azzopardi, and Allan Hanbury, editors, Advances in Information Retrieval, pp. 598-603, Cham, 2018. Springer International Publishing.
[7] Rakesh Gosangi, Ravneet Arora, Mohsen Gheisarieha, Debanjan Mahata, and Haimin Zhang. On the use of context for predicting citation worthiness of sentences in scholarly articles. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4539-4545, Online, June 2021. Association for Computational Linguistics.
[8] Michael Färber and Adam Jatowt. Citation recommendation: approaches and datasets. International Journal on Digital Libraries, Vol. 21, , 122020.
[9] Xinyu Xing, Xiaosheng Fan, and Xiaojun Wan. Automatic generation of citation texts in scholarly papers: A pilot study. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 61816190, Online, July 2020. Association for Computational Linguistics.
[10] Qingqin Wang, Yun Xiong, Yao Zhang, Jiawei Zhang, and Yangyong Zhu. Autocite: Multi-modal representation fusion for contextual citation generation. In Proceedings of the 14th ACM International Conference on Web Search and Data Mining, WSDM '21, p. 788-796, New York, NY, USA, 2021. Association for Computing Machinery.
[11] Michael Färber, Alexander Thiemann, and Adam Jatowt. To cite, or not to cite? detecting citation contexts in text. In Gabriella Pasi, Benjamin Piwowarski, Leif Azzopardi, and Allan Hanbury, editors, Advances in Information Retrieval, pp. 598-603, Cham, 2018. Springer International Publishing.
[12] Amjad Abu-Jbara, Jefferson Ezra, and Dragomir Radev. Purpose and polarity of citation: Towards NLP-based bibliometrics. In Proceedings of the 2013 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 596-606, Atlanta, Georgia, June 2013. Association for Computational Linguistics.
[13] Hiromi Narimatsu, Kohei Koyama, Kohji Dohsaka, Ryuichiro Higashinaka, Yasuhiro Minami, and Hirotoshi Taira. Task definition and integration for scientificdocument writing support. In Proceedings of the Second Workshop on Scholarly Document Processing, pp. 18-
26, 2021.
[14] Hamed Bonab, Hamed Zamani, Erik Learned-Miller, and James Allan. Citation worthiness of sentences in scientific reports. 072018.
[15] Kazunari Sugiyama, Tarun Kumar, Min-Yen Kan, and Ramesh C Tripathi. Identifying citing sentences in research papers using supervised learning. In 2010 International Conference on Information Retrieval \& Knowledge Management (CAMP), pp. 67-72. IEEE, 2010.
[16] Qi He, Daniel Kifer, Jian Pei, Prasenjit Mitra, and C Lee Giles. Citation recommendation without author supervision. In Proceedings of the fourth $\mathrm{ACM}$ international conference on Web search and data mining, pp. 755764, 2011.
[17] Steven Bird, Robert Dale, Bonnie Dorr, Bryan Gibson, Mark Joseph, Min-Yen Kan, Dongwon Lee, Brett Powley, Dragomir Radev, and Yee Fan Tan. The ACL Anthology reference corpus: A reference dataset for bibliographic research in computational linguistics. In Proceedings of the Sixth International Conference on Language Resources and Evaluation (LREC'08), Marrakech, Morocco, May 2008. European Language Resources Association (ELRA).
[18] Rakesh Gosangi, Ravneet Arora, Mohsen Gheisarieha, Debanjan Mahata, and Haimin Zhang. On the use of context for predicting citation worthiness of sentences in scholarly articles. CoRR, Vol. abs/2104.08962, , 2021.
[19] Hamed Bonab, Hamed Zamani, Erik Learned-Miller, and James Allan. Citation worthiness of sentences in scientific reports. In The 41st International ACM SIGIR Conference on Research \& Development in Information Retrieval, pp. 1061-1064, 2018.
[20] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding, 2019.
[21] 成松宏美, 小山康平, 堂坂浩二, 田盛大, 東中竜一郎,南泰浩悟, 平博順. 学術論文における関連研究の執筆支援のためのタスク設計およびデータ構築. 言語処理学会第 27 回年次大会発表論文集, pp. C6-4, 2021.
[22] 小山康平, 南泰浩, 成松宏美, 堂坂浩二, 田盛大悟, 東中竜一郎, 平博順. 学術論文における関連研究の執筆支援のための被引用論文の推定. 言語処理学会第 26 回年次大会, 2021.
[23] Marcin Kardas, Piotr Czapla, Pontus Stenetorp, Sebastian Ruder, Sebastian Riedel, Ross Taylor, and Robert Stojnic. Axcell: Automatic extraction of results from machine learning papers. arXiv preprint arXiv:2004.14356, 2020.
[24] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach, 2019.
[25] Iz Beltagy, Kyle Lo, and Arman Cohan. SciBERT: A pretrained language model for scientific text. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3615-3620, Hong Kong, China, November 2019. Association for Computational Linguistics. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F4-1.pdf | # 参考文献分類タスクのデータセット整備とクラスタリングを用いた 分類手法の検討
細川諒真 ${ }^{1}$ 大和淳司 ${ }^{1}$ 東中竜一郎 ${ }^{2}$
${ }^{1}$ 工学院大学 情報学部
2 日本電信電話株式会社
}
j318244@ns. kogakuin. ac.jp, jy@acm. org
ryuichiro. higashinaka. tp@hco.ntt.co.jp
## 概要
科学論文執筆支援を目的として,関連研究をまとまりに分ける手法に取り組んでいる。本研究では,論文の参考文献とパラグラフが対応したデータセットを作成し BERT, BioBERT, SciBERT の各言語モデルを利用して参考文献のクラスタリングを行った。論文のデータセットはオンライン論文アーカイブである PMC から取得した論文を使用して作成した.各 BERT モデルで参考文献の Embedding を行いクラスタリングを行った場合のクラスタリング精度は BioBERT が BERT よりも優位であったが, 2,200 論文分の参考文献のペアのクラスタ異同を学習させると BERT による手法の精度は向上し, モデル間のクラスタリング精度差は減少することを示した。
## 1 はじめに
近年,科学論文の数は急激に増加しており,科学論文執筆の補助を行うことについての研究も盛んに行われている. 成松らの論文では,科学論文執筆支援におけるタスクを定義しており,それぞれの段階で必要なタスクについてまとめられている[1]. 本研究では, 成松らの定義した引用文献分類タスクに取り組む。このタスクは,論文で引用している文献リストを対象に,これらをカテゴリ別に分類するタスクである。これは, 論文執筆支援において, 論文の参考文献群が与えられたときに, それぞれの文献を適切なクラスタに分類し, 関連研究のセクションを書きやすくすることを目的とするタスクである. 本稿では,このタスクの精度向上のために,参考文献のクラスタリングを行うためのデータセットの作成と, データセットを用いてクラスタリング実験を行う。
## 2 提案手法
本研究では,実際の論文データを収集し,その論文の関連研究のパラグラフのそれぞれで引用されている参考文献を列挙することで,参考文献のクラスタの正解データを作成する。また, 参考文献群の論文番号と Abstract をベクトル化したデータとの対応したデータセットを作成する。参考文献群の Abstract のデータをもとにクラスタリングを行い,実際の論文のパラグラフと生成したクラスタとの精度を評価する。本研究では自然言語処理モデルとしてBERT とそれを利用した SciBERT, BioBERT の 3 種類を使用し,文書のベクトル化を行う BERT は, 2018 年に開発された大規模なデータを用いる双方向 Transformer による事前学習モデルである[2]. SciBERT は, Semantic Scholar の科学論文を 114 万件用いて学習を行った BERT モデルである[3]. BioBERT は,オリジナルの BERT と同じ英語版の Wikipedia, BookCorpus, に加えて PubMed に掲載されている論文のアブストラクトから取得した 45 億単語と PMC の論文から取得した 135 億単語を用いて学習を行ったモデルである[4]. 本研究では, PubMed の論文で 100 万ステップ学習した BioBERTv1.1 を利用する。学習に利用しているデー タが SciBERT とは異なり, BioBERT は,より生物医学領域に特化している。
## 3 実験手順
## 3. 1 データセット作成
本研究では, 論文のデータセットとして医学分野のオンライン論文アーカイブである PMC から論文
データを取得した. 対象とする論文は, 著者らが進めている関連テーマの研究領域をモデルケースとした. 具体的には, PMC から Artificial Intelligence, Deep Learning, Image Recognition に関する論文の $x m l$ データを 194,787 件取得した. 取得したデータの中から article-type が research-article であり, Background のセクションで始まる論文を 12,178 件抽出した. PMC の論文では, article-type が case-report となっている症例報告が多数あるためこのような絞り込みを行った。また,抽出した論文に参考文献として登録されている論文の Abstract を PubMed から 122,555 件取得した. 12,178 件の論文デー夕に対して,コンピュータ科学分野における関連研究のセクションに対応していると考えた Background のパラグラフごとに対応した参考文献群のデータを作成した. 作成したパラグラフと参考文献群の対応データの内,参考文献の登録されているパラグラフが 2 件以上であり,参考文献の Abstract が PubMed から取得できていない参考文献が 2 件以下であり, 取得できない参考文献によりパラグラフに対応した参考文献が 0 件になることのないデータを 2,752 件作成した. 参考文献数の平均は 15 件であり, PubMed から取得できていない参考文献が 2 件までならば妥当なクラスタリングができると判断した.
また, 参考文献群の 122,555 件の Abstract に対して BERT, SciBERT, BioBERT を使用して文書の Embedding を行いそれぞれ 768 次元のベクトルに変換したデータセットを作成した.
表 1 参考文献群データの例
表 1 に作成したパラグラフと対応した参考文献群デ一夕の例を示す.
## 3. 2 手法
本研究では, 実験を 3 つ実施した,一つ目は, 参考文献の Abstract のベクトルと用いた手法である. 二つ目は,BertForSequenceClassification を利用して BERT モデルに参考文献 2 つが同じクラスタに所属しているか学習させる方法である. 三つ目は, 参考文献の Abstract ベクトル 2 つに元論文の Abstract ベクトルを連結し多層パーセプトロンに学習させる方法である.
## 3.2.1 Abstract のベクトルを用いた手法
実験 1 では, 3.1 節で作成した論文データセットに対して,クラスタ数を与えて k-means 法を利用して参考文献の Abstract のベクトルを用いてクラスタリングを行う.クラスタリング精度の評価として, 佐藤らの論文[5]でも用いられていた Purityを用いる. Purity の定義式は, $\mathrm{N}$ をクラスタリングの要素数, $\left.\{C_{i}\right.\}$ は生成した各クラスタ, $\left.\{A_{j}\right.\}$ は正解のクラスタとすると以下の式で定義される.
$
\begin{gathered}
\text { Purity }=\sum_{i} \frac{\left|C_{i}\right|}{N} \max _{j} \operatorname{Precision}\left(C_{i}, A_{j}\right) \\
\operatorname{Precision}(C, A)=\frac{|C \cap A|}{|C|}
\end{gathered}
$
本実験では, Abstract のベクトルとして 3.1 節で作成した BERT, BioBERT, SciBERT の 3 種類のベクトルをそれぞれ利用してクラスタリングを行う.比較用に参考文献のクラスタを要素 0 のクラスタが発生しないようにランダムに割り振った Random のクラスタリングを行う. 実験 1 では, データセット全てに対する 2,752 論文のクラスタリングと実験 2,3 と同じテストデータの 276 論文のクラスタリングを行う.
## 3. 2. 2 参考文献間の距離を用いた手法
実験 2 では, BertForSequenceClassificationを利用して, 3 種類の BERT モデルに論文の参考文献 2 つの Abstract とその 2 つの参考文献が同じクラスタに所属しているかどうかを表すラベルとの関係を学習させた. このラベルは 1 ならば同じクラスタに所属していることを表し, 0 ならば同じクラスタに所属していないことを表す. 本実験では, 2,752 件の論文の内 2200 論文から作成した参考文献のペア 360,834 件を学習データ, 276 論文から作成した参考文献のペア 46,570 件をテストデータ, 276 論文から作成した 45,754 件を検証データとした. 学習データの内 $38 \%$ にな 138,083 件がラベル 1 であり, 残りの
図 1 実験 1 の 2752 論文に対するクラスタリング精度の評価
図 3 実験 2 のクラスタリング精度の評価 62\%がラベル 0 であり若干の偏りが見られるため, クラスの重みを付け学習させた. 学習後の BERT モデルに対して,テストデータの論文の参考文献を 2 つ入力することでラベルの予測に使用する logit0, logit1 の値を取得する. logit0 と logit1 の值の高いほうがラベルの值の予測結果となる. logit0 と logit1 の值にソフトマックス関数を適用することで正規化した logit0の値を参考文献間の距離とした. この参考文献間の距離値を用いて, k-means 法と階層的クラスタリングを行う. Purityを用いてクラスタリング精度の評価をする.
## 3.2. 3 多層パーセプトロンを用いた手法
実験 3 では, 3.1 節で作成した BERT による参考文献 2 つの Abstract と元論文の Abstract を新たに BERT で変換して得たベクトルを連結し, 2,304 次元のデータとして 2 つの参考文献が同じクラスタに所属しているかどうかを表すラベルとの関係を学習させる. 本実験では, 実験 2 と同じ 2,200 論文から作成した 360,834 件を学習データとし, 実験 1,2 と同じ 276 論文をテストデータとする. 入力層に 2,304 ノー ド,中間層に 1,000 ノード,出力層に 2 ノード配置したネットワークを構成する. 損失関数には Negative Log Likelihood (NLL) Loss を使用する.中間層の活性化関数にシグモイド関数と ReLU 関数を用いた 2 つのモデルを作成し, 出力はログソフトマックス関数を使用した. 参考文献間の距離を用いて, k-means 法
図 2 実験 1 の 276 論文に対するクラスタリング精度の評価
図 4 実験 3 のクラスタリング精度の評価
と階層的クラスタリングを行う. Purityを用いてクラスタリング精度の評価をする。
## 4 実験結果
表 2 実験 2 のクラスタリング例 1
表 3 実験 2 のクラスタリング例 2
図 1, 2, 3, 4 に各実験のクラスタリング精度を Purity で評価したときの結果を示す. 図 3,4 中の hierarchy は,階層的クラスタリングによってクラスタリングした際の結果を Purity で評価した結果を示す. 表 2 , 3 に,クラスタリング例を示す. Purity と実際の正解のクラスタに対応した,予測のクラスタを右に示す.予測クラスタのオレンジ色は正解クラスタと同一のものを表す。
## 5 考察
図 1,2 の結果より, 3.2.1 節の参考文献の Abstract を BERT モデルごとにベクトルへ変換したクラスタリングの精度は, BioBERT を利用してベクトルに変換したものが最も高いことが確認できる。これは,本実験で用いた論文データが PMC の医療論文であるため, 医療分野の語彙に特化したモデルである BioBERT の方が他の 2 つのモデルより文章の特徴をつかむことができたからだと考えられる. 図 3 より,実験 1 より高い Purity を示したことから, 学習することによりクラスタリングの精度が上昇したことが確認できる. 実験 1 では各 BERT モデル間の Purity の差が大きかったが, 実験 2 では BERT モデル毎の差が小さくなっていることが確認できる. このことから, 実験 2 で 2,200 論文分の 360,834 件の文章のぺアを学習することでモデル間の語彙の差が縮まり, ラベルの予測の差が付きにくくなったと考えられる.図 4 の結果より, 学習データに論文の Abstract を追加して 2,304 次元のデータとして学習させたが, 実験 2 の各モデルより高い精度ではないことを示した. このことから, 実験 3 では適切なモデルを構成できていない可能性があることが考えられる.
また, 本研究のクラスタリングでは, 1 つの参考文献は 1 つのクラスタにしか所属することはないが,実際の論文では, 参考文献が複数のクラスタに所属することもある. 複数クラスタに所属している要素が存在した場合, その要素のクラスタを予測する際には該当するどのクラスタに分類しても正解となってしまう. そのために, Purity の値を高く見積もっている可能性があり, 今後の検証が必要である.
## 6 おわりに
本研究では, 参考文献のクラスタリングを行うためのデータセットを作成し, 3 つのクラスタリング手法を提案した. BERT モデルに参考文献 2 つと同じクラスタに所属しているかどうかのラベルを学習させることで, クラスタリング精度が上昇することを示した. 今後の課題としては, 参考文献の重複を許すクラスタリングを行うことや,人間によるクラスタリング結果との精度の比較などが考えられる。 クラスタリング精度の評価に関しては, 本研究では Purity のみを用いて評価してきたが,他に, Inverse
Purity と F 值が知られている.これらの值を用いて評価することも可能であると考えられる. BERT モデルに関しては, 本研究では 3 種類のモデルを使用した. 他のモデルを用いることでクラスタリング精度の上昇を図ることもできると考えられる。
## 謝辞
ご議論いただいた NTT コミュニケーション科学基礎研究所杉山弘晃氏,成松宏美氏,農研機構菊井立一郎チーム長, 大阪工業大学平博順准教授, 電気通信大学南泰浩教授, 秋田県立大学堂坂浩二教授に感謝します。
## 参考文献
[1] Hiromi Narimatsu, Kohei Koyama, Kohji Dohsaka, Ryuichiro Higashinaka, Yasuhiro Minam, Hirotoshi Taira, "Task Definition and Integration for Scientific-Document Writing Support", Proceedings of the Second Workshop on Scholarly Document Processing, pp.18-26, June2021. [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee,Kristina Toutanova, "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding", Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics:Human Language Technologies, Volume 1 (Long and Short Papers), pages 4171-4186. May2019.
[3] Iz Beltagy, Kyle Lo, Arman Cohan, "SciBERT: A Pretrained Language Model for Scientific Text", Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pages 3615 - 3620, Nov2019.
[4] Jinhyuk Lee, Wonjin Yoon, Sungdong Kim, Donghyeon Kim, Sunkyu Kim, Chan Ho So, Jaewoo Kang," BioBERT: a pre-trained biomedical language representation model for biomedical text mining", arXiv:1901.08746v4, Oct2019.
[5] 佐藤進也, 高橋公海, 松尾真人, “特徴抽出を目的とした文書クラスタからの一貫性阻害要素除去” , 情報処理学会論文誌データベース (TOD) 6(3), 1-12, 2013-06-28. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F4-2.pdf | # 学術論文 PDF からの関連研究章と引用情報の抽出による 論文執筆支援のためのデータセット構築
小林恵大 ${ }^{1}$ 小山康平 1 成松宏美 ${ }^{2}$ 南泰浩 1
1 電気通信大学 ${ }^{2} \mathrm{NTT}$ コミュニケーション科学基礎研究所
\{k1810249,k2131071\}@edu.cc.uec.ac.jp
hiromi.narimatsu.eg@hco.ntt.co.jp minami.yasuhiro@is.uec.ac.jp
## 概要
我々は論文執筆支援を目的とした研究用データセットの拡充を目指し,PDF 形式の論文から本文および引用に関わる情報を抽出する。従来のデータセットは,本文抽出および引用箇所と引用情報の対応付けが容易な Tex 形式の論文をソースとして構築されていた。しかしながら,一般に公開されている論文の多くは PDF 形式であり,Tex 形式の論文を元に構築されたデータセットは量も分野も限られている. 本課題に対し,PDFを対象として同様のデータを構築することで,データセット拡充を行う. 構築したデータにおいて本文抽出および引用の対応付けを評価した結果,PDF 形式の論文からも Tex 形式をもとにしたときと近い精度となった。これにより,従来より多くの論文を対象としたデータセットの構築ができることを示した。
## 1 はじめに
科学技術の発展に伴い, 学術論文の数が急速に増加している.そのため,研究者が研究方針検討時に既存研究の調査や,論文執筆時に文章の適切な引用を行うことが困難になっている。
上記のような研究者の負担を削減するために,様々な目的でタスクが定義され研究がなされてきた. 論文の閲読時間削減を目的とした論文要約 $[1,2,3]$ や,論文の効率的な検索を目的とした参考文献推薦 [4], 論文執筆の効率化を目的とした引用要否判定 [5, 6], 被引用文献割り当て [7],引用文生成 $[8,9]$ などである.
一方,執筆支援システムの実用化の観点では,論文執筆を行う研究者が直面する複数の課題に対して統合的に支援できることが期待されている. しかしながら,学術論文執筆支援を目的とした各タスクは独立して研究されており,それぞれのタスクの評価に用いられているデータセットも異なっている。 それゆえに,統合的な論文執筆支援システムとして評価することができない.
本課題に対し, Narimatsu ら [10] は, 同一のデータソースから構築した複数のタスク評価用データセッ卜を構築し,公開している.彼らは,様々なタスクのデータを自動的に作れるよう,Tex ソースが公開されている論文を対象にデータセットを構築している. Tex のソースを対象とすることで,タスクデー タを自動的に構築することが可能であるが,Tex のソースが公開されている論文は数量や分野が限られている.たとえば,Tex のソースを公開している代表的なサイトである arXiv は, 物理学, 計算機科学,数学が主であり ${ }^{1)}$ ,他の分野の論文は少ない.
そこで,本研究では,Tex のソースが公開されておらず PDF のみしかない論文も対象に,論文執筆支援に向けたデータを自動的に構築することを目的とする。具体的には, Narimatsu ら [10] と同様に,関連研究の章に着目し, 統合的な論文執筆支援システムを評価可能なデータセットを PDF から構築する2).
タスクデータ3)の構築には,関連研究の章の本文抽出,本文で引用されている引用文献の情報(タイトルや著者情報)の取得および引用文との対応付け,引用文献情報を用いた論文取得が必要である. しかし,TexのソースではなくPDF から同様のデー タセットを作るためには以下の課題がある.
章タイトルの識別.PDFでは章タイトルを表す記号は特にないため,フォントの種別や大きさなどの
1) arXiv submission rate statistic https://arxiv.org/help/stats/ 2020_by_area/index
2) CC BY 4.0 の下でライセンスされている論文 PDF から構築したデータセット,および任意の論文 PDF を入力としてデー タセットを構築するためのソースコードを以下に公開予定である. https://github.com/citation-minami-lab
3) タスクデータの詳細は付録 Aを参照のこと。
視覚情報で識別する必要がある.
抽出した本文のクリーニング,PDFでは,章の本文として抽出したテキストに,ヘッダ・フッタ・脚注・数式,図表中の文字列が不自然に挿入され,自然言語処理においてノイズとなる.
引用記号と被引用文献の対応付け.Tex では,引用記号(以下「引用アンカ」とする)と被引用文献は,lcite のような引用を表すタグに囲まれた文字列と bibファイルを照合することで容易に取得できる。しかしながら,PDF の場合には,明確なタグはなく簡単に対応付けができない.
本稿では,上記の課題を解決するために,既存の PDF からの本文抽出と, 引用アンカ検出,参考文献抽出において性能が高い複数のツールを組み合わせ,さらにそれらの精度を高める手法を導入する。
## 2 関連研究
論文の PDF から情報抽出を行う既存手法について, 本研究で関連する, 本文抽出と参考文献情報抽出および引用アンカ対応付けに絞って説明する.本文抽出. GROBID [11] は,CRF モデルを用いて,章タイトル,本文の抽出や数式,図表の認識を行うツールとして提案されているがその精度は高くな (4). PDFBoT [12] は pdf2htmlEX5)を使用して PDF 論文を HTML に変換することで得られるテキストの特徴量を用いて,ルールベースにより章タイトル, 脚注, 図表, タイトル, 著者, 所属, ディスプレイモードの数式を除去した本文のみを抽出する。 このツールは章タイトルや参考文献の章を除去するため本研究の目的に直接使用することはできないが,部分的な利用は可能である.
参考文献情報の抽出・引用アンカ対応付け。参考文献情報の抽出ができるツールとして,ParsCit [13], CERMINE [14], GROBID [11] が提案されている. Tkaczyk ら [15] らは,その中でも GROBID が参考文献情報を高い精度で抽出可能なことを示した。これらのツールは引用アンカの検出,引用アンカと引用対象の文献の対応付けも行うが,GROBID ではその精度は高くなく ${ }^{5}$, CERMINE,ParsCit では精度の評価自体がされていない. Ahmad ら [16] は,本文中の引用アンカを, Gosangi ら [6] は, ACL-Anthology Reference Corpus [17] 中の引用アンカを高精度で検出する手法を提案している.
論文執筆支援を目的とした研究においても, PDF から評価用データを構築しているものがある $[18,19]$.これらの研究は, CiteSeerX ${ }^{6}$ を用いて本文および引用アンカの対応付けを行なっているが, CiteSeerX では本文として引用アンカ周辺のテキストしか取得できない。
上記の通り,本文抽出および参考文献情報抽出の両方で高い精度が得られている手法はない。そのため,本研究では本文抽出に PDFBoT [12],参考文献情報抽出に GROBID [11],引用アンカーの検出に Ahmad ら [20] および Gosangi ら [6] の手法と,それぞれ高い精度が得られている手法を用いる。
## 3 データセット作成の手法
関連研究の章の本文抽出と, 本文で引用された文献情報の抽出および対応付けについて詳説する.
## 3.1 関連研究の章の本文抽出
関連研究の章の本文を抽出するためには,章タイトルに基づき,本文区間を認識する必要がある。そのため,pdf2htmlEX ${ }^{7}$ を用いて,PDF を HTML 形式に変換し,HTML のタグとして得られたテキストの座標情報,フォントの種類・サイズ情報を用いて章タイトルを抽出する。 その準備として,初めに,本文の抽出に必要のない<a>,<img>,<span>のタグを除去し,本文のフォントサイズや,行の先頭の $\mathrm{x}$ 座標,行間隔などの統計情報を取得する。
続いて,章タイトル “Related Work(Study)” とその次の章タイトルを検出し,その二つの章タイトルの間の関連研究の章の本文範囲のテキストを抽出する. 章番号 (Section Number) は範囲検出の大きな手がかりとなるため,その有無により以下の通り場合分けをして検出する.
章番号が付与されている場合: "Introduction"は多くの論文が 1 番目の章として設置しているため,その行の先頭の文字列のスタイルを論文の章番号のスタイルとして特定する.そのスタイルを持った文字列と “Related Work(Study)” から始まる行を関連研究の章タイトルとして検出する. そして,関連研究の章タイトルと章番号が連続し,フォントの種類が一致する行を次の章タイトルとする.
章番号が付与されていない場合: 本文のフォントサイズよりも大きく,“Related Work(Study)” から始
まる行を関連研究の章タイトルとして取得する。 そして,関連研究の章タイトルとフォントのサイズが等しい行を次の章タイトルとして検出する.
上記手法により,“ shown in Related Work section.” のように参照目的で本文中に含まれる章タイトルを誤って検出するケースを減らす8)。
以上で抽出した本文には,言語処理上問題となるノイズが含まれるため,以下でその除去を行う.
ヘッダ・フッタ・脚注の除去一般にヘッダ・フッタ・脚注は本文のフォントサイズより小さいため, PDFBoT [12] と同様に,本文のフォントサイズより $1 \mathrm{px}$ 以上小さい行を除去する.
キャプションの除去本文の途中に挟まれた図表のキャプションは,誤って本文のテキストとして抽出されることが多い. そこで,図表のキャプションである,「Table」「Figure」「Fig.」から始まる行を除去する。ただし,本文中の上記文字列を誤って除去しないよう,これらの文字列を含む行とその上の行の行間が本文の行間よりも広いものだけ除去する。 また, Ahmed ら [21] と同様に, 複数行のキャプションの場合,1,2 行目の行間よりも大きな間隔をキャプションの切れ目と考え,そこまでを除去する。
の数式ではなく,ディスプレイモードで記述された数式のみを除去する.PDFBoT と同様に,数式や図に含まれる行は本文よりも始点の $\mathrm{x}$ 座標が右に寄っていると仮定し,それらを除去する。
表の除去論文から画像認識モデルにより表の箇所を抽出する手法 [20] を用いて表の除去を行う. 具体的には,論文 PDFを pdf2image ${ }^{9)}$ を使用して画像形式に変換し,モデルへ入力する。そして,モデルが表として検出した範囲にマージン $10 \mathrm{px}$ 加えた範井に存在する行を除去する。
## 3.2 引用アンカの検出
引用アンカの形式は論文によって様々である. そのため,過去に提案された次の 2 つの正規表現による検出手法 $[16,6]$ を組み合わせて引用アンカを検出する.前者 [16] は,引用アンカを高い精度で検出可能である.また,前者では検出対象でないものが後者 [6] では対象とされている。 さらに,検出対象の拡大のため,後者 [6] の正規表現に一部改良を加えた ${ }^{10)}$.
8)上記手法で使用する正規表現は付録 B を参照のこと
9) https://pypi.org/project/pdf2image/
10)これらの正規表現の詳細は付録 $\mathrm{C}$ を参照のこと.
## 3.3 参考文献の章の解析および 引用論文情報の取得
参考文献の章から著者やタイトルの情報を抽出し,それに対応づく引用論文の情報を取得する.章の解析には GROBID [11] を使用する. GROBID は,入力された論文 PDF に対して,参考文献の章を文献毎に分割し,著者,タイトル,年などのタグ付けを行う.ただし,文献が「[1]」のような数字形式の引用アンカを使用している場合,GROBID では文献毎の分割に失敗すると,失敗した文献以降の文献の順番と実際の順番が誤った対応付けになることがある.これを回避するため,引用アンカが数字形式の論文の場合は,HTML から参考文献の章を抽出し,各文献毎に分割した文字列を GROBID に入力することで解析を行った. その後,GROBID により抽出された参考文献のタイトルを外部検索 API へ入力し,一致する文献がヒットした場合に,アブストラクトを取得し引用論文の情報とする。
## 3.4 引用アンカと引用論文の対応付け
数字形式の引用アンカにはその数字と一致する順番の参考文献の項目を対応づける.数字形式以外の引用アンカでは,引用アンカから年を抽出した後 $\lceil$ et al」,「and」,「\&」から後ろの文字列を除去して第一著者名を取得する.その情報と解析した参考文献のタグとを照合し,一致した文献を対応づける。
## 4 評価
提案手法により構築したデータセットの有効性を,関連研究の章テキストの抽出精度および参考文献の解析精度により評価する。
## 4.1 関連研究の章の抽出の性能
先行研究の Narimatsu ら [10], 及び GROBID [11] と比較し,関連研究の章タイトル検出,本文の抽出・ノイズ除去の精度を評価した。評価指標には,本文抽出,ノイズ除去を同時に評価できる Word Error Rate (WER) と Sentence Error Rate (SER) を用いた. Axcell [22] の論文リストから無作為に選択した論文の中から,関連研究の章を含む 113 件を評価データとした. それらの論文から手作業でノイズを除去した関連研究の章の文章を正解データとした。
## 4.1.1 関連研究の章タイトルの検出数の評価
初めに,各手法の関連研究の章タイトルの検出の成功・失敗件数を調べた (表 1).
表 1 各手法での 113 件の論文に対する関連研究の章タイトルの検出成功・失敗件数
Tex のソースでは章タイトルが陽にタグで示されているため, Narimatsu らは全ての関連研究の章タイトルの検出に成功している. また,提案手法の失敗件数は 3 件であり,十分な検出精度を達成できた.
## 4.1.2 本文抽出・ノイズ除去の精度評価
本文抽出・ノイズ除去精度の評価では,GROBID が抽出した本文に含まれる,独自のタグや文字列を全て削除した. また,Narimatsu らの手法が抽出する本文の引用アンカは Tex のタグ形式であるため, PDF から作成した正解データと差異がある. そこで,各手法において抽出した本文から全ての引用アンカを消去し, 条件を揃えた. 正解文中の引用アンカはそのままであるため,3手法ともWER,SER は実際の値より増えるが,同条件での比較ができる。
以上の条件で提案手法・GROBID ・ Narimatsu らの手法全てで関連研究の章タイトルの検出に成功した評価データのみを使用して評価した (表 2).
表 2 引用アンカ除去を行なった条件での本文抽出,ノイズ除去精度の WER,SERによる評価
結果より,提案手法の WER,SER が最も低かった. Narimatsu ら手法の WER,SER が最も高い原因は,Tex形式を扱うことによるものである.Tex の記号で図表や注釈などは除去していたが,著者らが独自に設定したコマンドでコメントアウトされた文字列が完全には除去しきれていなかった. GROBID の主なエラーは,本文に含まれるべき単語・文の欠落や,図表の検出の失敗であった。これらに対し,提案手法の主なエラーは,HTML 形式に変換したこととによるもので,表記を整えるために単語の途中に挿入された<span>タグが適切に処理できず,単語途中へスペースが挿入されることがあった.
次に,提案手法と GROBID で,引用アンカを消去せずに実際の WER,SER の値を算出した (表 3).
表 3 提案手法と GROBID の本文抽出,ノイズ除去精度の WER,SER による評価
結果より,提案手法の WER が 0.01 程度, SER も 0.05 程度と共に GROBID よりも低いことから, 正確な関連研究章の本文抽出,ノイズ除去が達成できていると言える。
## 4.2 参考文献のタイトル抽出件数の評価
引用文献情報の抽出および引用アンカとの対応付けについて, Narimatsu らと比較する. 評価には, Narimatsu らがデータセットの構築に使用した Axcell の論文リストから,無作為に選択した 2,786 件の論文を使用した,各手法により,これらの論文の本文の引用アンカ検出,引用文献情報抽出,引用アンカ対応付けを行う。そして引用アンカに対応付けられた文献タイトルを, arXiv API にて入力して検索し,一致する文献がヒットした件数で評価した (表 4).
表 4 抽出した参考文献タイトルを,arXiv API に入力して検索し,検索結果の文献が入力と一致した件数
結果より,提案手法の一致件数は Narimatsu らの 87\%ほどであり,彼らと近い精度を示した.PDFからの引用文献情報抽出および引用アンカ対応付けでは,Texソースとは異なり明示的なタグが無いため,提案手法は十分な性能を達成できたと言える。
## 5 おわりに
本稿では,論文執筆支援の複数のタスクを評価可能なデータセットを論文 PDF から作成する手法を提案した. そして,提案手法の各プロセスの評価では, 本文抽出精度では先行研究に対して優れた結果を示した.引用文献抽出および引用アンカとの対応付けの評価では,Texソースを対象とした先行研究に近い精度を示した. 今後は,本手法による新たなデータセットの構築,およびそれを用いて複数の論文執筆支援タスクに取り組みたい。
## 謝辞
研究の遂行にあたり,ご助言・ご協力をいただきました,NTTコミュニケーション科学基礎研究所杉山弘晃氏, 東中竜一郎氏, 秋田県立大学堂坂浩二教授, 大阪工業大学平博順教授, 工学院大学大和淳司教授, 農研機構菊井玄一郎チーム長に感謝いたします。
## 参考文献
[1] Simone Teufel and Marc Moens. Articles summarizing scientific articles: Experiments with relevance and rhetorical status. Computational Linguistics, Vol. 28, No. 4, pp. 409-445, 2002.
[2] Michihiro Yasunaga, Jungo Kasai, Rui Zhang, Alexander Fabbri, Irene Li, Dan Friedman, and Dragomir Radev. ScisummNet: A large annotated corpus and contentimpact models for scientific paper summarization with citation networks. In Proceedings of AAAI 2019, 2019.
[3] Chenxin An, Ming Zhong, Yiran Chen, Danqing Wang, Xipeng Qiu, and Xuanjing Huang. Enhancing scientific papers summarization with citation graph. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 35, No. 14, pp. 12498-12506, May 2021.
[4] Xiaomei Bai, Mengyang Wang, Ivan Lee, Zhuo Yang, Xiangjie Kong, and Feng Xia. Scientific paper recommendation: A survey. IEEE Access, Vol. 7, pp. 9324-9339, 2019.
[5] Michael Färber, Alexander Thiemann, and Adam Jatowt. To cite, or not to cite? detecting citation contexts in text. In Gabriella Pasi, Benjamin Piwowarski, Leif Azzopardi, and Allan Hanbury, editors, Advances in Information Retrieval, pp. 598-603, Cham, 2018. Springer International Publishing.
[6] Rakesh Gosangi, Ravneet Arora, Mohsen Gheisarieha, Debanjan Mahata, and Haimin Zhang. On the use of context for predicting citation worthiness of sentences in scholarly articles. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4539-4545, Online, June 2021. Association for Computational Linguistics.
[7] Michael Färber and Adam Jatowt. Citation recommendation: approaches and datasets. International Journal on Digital Libraries, Vol. 21, 122020.
[8] Xinyu Xing, Xiaosheng Fan, and Xiaojun Wan. Automatic generation of citation texts in scholarly papers: A pilot study. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 61816190, Online, July 2020. Association for Computational Linguistics.
[9] Qingqin Wang, Yun Xiong, Yao Zhang, Jiawei Zhang, and Yangyong Zhu. Autocite: Multi-modal representation fusion for contextual citation generation. In Proceedings of the 14th ACM International Conference on Web Search and Data Mining, WSDM '21, p. 788-796, New York, NY,
USA, 2021. Association for Computing Machinery.
[10] Hiromi Narimatsu, Kohei Koyama, Kohji Dohsaka, Ryuichiro Higashinaka, Yasuhiro Minami, and Hirotoshi Taira. Task definition and integration for scientificdocument writing support. In Proceedings of the Second Workshop on Scholarly Document Processing, pp. 18-26, Online, June 2021. Association for Computational Linguistics.
[11] Grobid. https://github.com/kermitt2/grobid, 2008-2021.
[12] Changfeng Yu, Cheng Zhang, and Jie Wang. Extracting body text from academic pdf documents for text mining. In KDIR, 2020.
[13] Isaac Councill, C. Lee Giles, and Min-Yen Kan. ParsCit: an open-source CRF reference string parsing package. In Proceedings of the Sixth International Conference on Language Resources and Evaluation (LREC'08), Marrakech, Morocco, May 2008. European Language Resources Association (ELRA).
[14] Dominika Tkaczyk, Paweł Szostek, Piotr Dendek, Mateusz Fedoryszak, and Łukasz Bolikowski. Cermine - automatic extraction of metadata and references from scientific literature. 042014.
[15] Dominika Tkaczyk, Andrew Collins, Paraic Sheridan, and Joeran Beel. Machine learning vs. rules and out-of-thebox vs. retrained: An evaluation of open-source bibliographic reference and citation parsers. In Proceedings of the 18th ACM/IEEE on Joint Conference on Digital Libraries, JCDL '18, p. 99-108, New York, NY, USA, 2018. Association for Computing Machinery.
[16] Riaz Ahmad and Muhammad Tanvir Afzal. Cad: an algorithm for citation-anchors detection in research papers. Scientometrics, Vol. 117, pp. 1405-1423, 2018.
[17] Steven Bird, Robert Dale, Bonnie Dorr, Bryan Gibson, Mark Joseph, Min-Yen Kan, Dongwon Lee, Brett Powley, Dragomir Radev, and Yee Fan Tan. The ACL Anthology reference corpus: A reference dataset for bibliographic research in computational linguistics. May 2008.
[18] Jian Wu, Athar Sefid, Allen Ge, and C. Giles. A supervised learning approach to entity matching between scholarly big datasets, 122017.
[19] Dwaipayan Roy, Kunal Ray, and Mandar Mitra. From a scholarly big dataset to a test collection for bibliographic citation recommendation, 2016.
[20] Ángela Casado-García, César Domínguez, Jónathan Heras, Eloy J. Mata, and Vico Pascual. The benefits of close-domain fine-tuning for table detection in document images. In DAS, 2020.
[21] Muhammad Waqas Ahmed and Muhammad Tanvir Afzal. Flag-pdfe: Features oriented metadata extraction framework for scientific publications. IEEE Access, Vol. 8, pp. 99458-99469, 2020.
[22] Marcin Kardas, Piotr Czapla, Pontus Stenetorp, Sebastian Ruder, Sebastian Riedel, Ross Taylor, and Robert Stojnic. AxCell: Automatic extraction of results from machine learning papers. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 8580-8594, Online, November 2020. Association for Computational Linguistics.
表 5 タスクデータの具体例
## 付録 A: タスクデータの形式
本研究で作成する,タスクデータの具体例を表 5 に示す. Narimatsu ら [10] と同様の形式であり,各要素は以下を表す。
- Title... 対象となる論文のタイトル
・Sentences... 関連研究の章本文を文単位に分割したリスト
- AnswersCitationWorthiness... 関連研究の章の各文に引用がつけられている場合は"1",そうでなければ"0"としたリスト
- CitedNumberList... 各文の引用件数のリスト
- CitationAnchorList... 各文に含まれる引用アンカのリスト
- CitedPaperIndexList... 各文の引用の番号のリストであり,この番号が CitedPaperTitle, CitedPaperArXivID, CitedPaperText のキーと対応する
- CitedPaperTitle... 被引用文献のタイトルの辞書
- CitedPaperArXivId...arXiv API から一致する文献が取得できた被引用文献の arXiv 独自の ID の辞書 (外部検索 API に arXiv API を使用した時のみ)
- CitedPaperText... 外部検索 API から取得できた被引用文献のアブストラクトの辞書
## 付録 B: 章タイトル検出のための正規表現
3.1 章で使用した章タイトルの検出のための正規表現を表 6 に示す. 手法 1 において, Title_Style はその論文の章タイトルのスタイルの文字, RW_Title_Font_Fam は関連研究の章タイトルのフォントの種類,Next_Style は関連研究の章の次の数字または英字である。手法 2 において, Font_Larger_Than_BodyText は本文より大きいフォントサイズ,RW_Title_Font_Size は関連研究の章タイトルのフォントサイズである.
## 付録 C: 引用アンカ検出のための正規表現
3.2 章で使用した引用アンカ検出のための正規表現について説明する.最初に Ahmed ら [16] の手法を用いて作成した正規表現を表 7 に示す.ここで,表 6 章タイトル検出のための正規表現
手法 1.
Related Work(Study) Section (大文字小文字を区別しない) <div class=".\{0,60\}">Title_Style(relatedls*(work|study|studies)(.||s)*) Next Section (大文字小文字を区別しない) <div class=".\{0,30\}RW_Title_FontFam. $\{0,30\} ">$ Next_Style $\mid$ s*.?(|s)*手法 2.
Related Work(Study) Section (大文字小文字を区別する)
<div class=".\{0,30\}Font_Larger_Than_BodyText. $\{0,30\} ">$ $\mathrm{R}[\mathrm{eE}][\mathrm{LL}][\mathrm{aA}][\mathrm{tT}][\mathrm{eE}][\mathrm{dD}] \mathrm{s} *([\mathrm{wW}][\mathrm{oO}][\mathrm{rR}][\mathrm{kK}] \mid$
[sS][[tT][uU][dD][yY][[sS][tT][uU][dD][iI][[eE][sS])(.||s)*
Next Section (大文字小文字を区別しない)
<div class=".\{0,30\}RW_Title_Font_Size. $\{0,30\}$ ">(.||s)*
表 7 Ahmad ら [16] の手法を元に作成した引用アンカ検出のための正規表現
\# 数字形式 (大文字小文字を区別しない)
regexNum1 = ' $[$ ' + Tag_Value + ' $]$ '
regexNum $2=>\left[\mid s^{*}\left([1-9][0-9 \text { lu2013|-]*|s*[,;;|u2013](|s||])* })^{\prime}+1\right.\right.$
[1-9][0-9]*|s*(1-[1-9][09]*)?]]|[[1-9][0-9]*|]?|s** +1
'[--lu2013]।s*|[?[1-9][0-9]*|s*i]
regexNum $=$ regexNum $1+$ ' $\mid$ ' + regexNum 2
\# 数字形式以外 (大文字小文字を区別しない)
regexStr $1=$ ' $\backslash[\mid$ sA-Za-z0-91,\&l..;;+V(1)--]*' + First_Author +1
regexStr $2=$ ' $\backslash\left[[A-Z a-z 0-9|-\& 1, ;::| s \backslash .(1)]^{*}+\right.$ First_Author +1
'[A-Za-Z|-I,|s]*(|sand|s|\&)[A-Za-Z|-I,\&:As|[())]*|s' + Year +1
'|s[I)A-Za-z0-91-\&l,:Иs|(]*|]'
regexStr $3=$ ' $\backslash\left([\mid \text { sA-Za-z0-9〉,\&l..; } ;+\Lambda-]^{*}\right.$ ' + First_Author +1
'[0-9|-\&|+|s|,;;|.A[]*' + Year + ' [|sA-Za-z0-9\&|-I.|,,;|+|_]*|)'
regexStr4 = ' $\backslash\left([\mathrm{A}-\mathrm{Za}-\mathrm{Z} 0-9 \mathrm{l}-\& \mathrm{l}, ;: \mid \mathrm{sl} .]^{*}{ }^{*}+\right.$ First_Author +1
'[A-Za-ZI-I,|s]*(|sand|s|\&)[A-Za-ZI-I,\&:^s|[]*|s' + Year +I
'|s[A-Za-Z0-91-\&1,:Иs]*|)'
regexStr $=$ regexStr $1+{ }^{\prime} \mid$ ' regexStr $2+1$
' $\mid$ ' + regexStr $3+$ ' ' + regexStr 4
表 8 Gosangi ら [6] の手法を元に作成した引用アンカ検出のための正規表現
Tag_Value は参考文献の章から抽出した各文献の数字形式の引用アンカ, First_Author は参考文献の章から抽出した各文献の著者のラストネーム,Year は各文献の出版年である。これらの正規表現を参考文献の件数分生成し,マッチングを行う.次に,Gosangi ら [6] の手法を用いて作成した正規表現を表 8 に示す.この正規表現には,[Kobayashi, 2021],Kobayashi [2021] のような形式の引用アンカが検出できるような変更を新たに加えている.以上の正規表現は Python で動作する。 | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F4-3.pdf | # 材料科学論文の表の意味解釈データセットの構築
加藤明彦 1 近藤修平 1 進藤裕之 ${ }^{1,2}$ 渡辺太郎 2
1 奈良先端科学技術大学院大学 データ駆動型サイエンス創造センター
2 奈良先端科学技術大学院大学情報科学研究科
\{kato.akihiko.ju6, shuhei-k, shindo, taro\}@is.naist.jp
## 概要
本研究では材料科学論文の表の意味解釈, 即ち,セルに記載されている物性や単位の検出とリンキングを行うタスクに取り組む。そこでモデル構築の基盤となる言語資源として,近年の高分子論文集の論文約 200 本に含まれる全ての表に対して注釈を行った網羅的なデータセットを構築した。また,文字レベルの系列ラベリングと辞書マッチングを組み合わせた解析を行ったので合わせて報告する.
## 1 はじめに
日々多数出版される科学技術論文の全てを人手で読解する事は物理的に不可能であるため,論文から自動で情報抽出を行う技術の研究開発が求められる. 特に, 論文の表には実験に関する情報が整理されているため, 表からの情報抽出は重要な研究課題である. たとえば高分子化学の論文では, 実験によって合成されたポリマー(重合体)の物性値や実験条件が表に記載されているため, これらの情報を表から抽出したいというニーズがある(図 1).ここでポリマ一の例としては,ポリアセチレンやポリエステルが挙げられ, 物性值とは, 融点や引張弾性率など,ポリマーの持つ特性情報を指す。
上記を踏まえ, 本研究では, 材料科学論文の表からの情報抽出において最も重要なタスクの 1 つである, 表中のセルの意味解釈に取り組む. このタスクでは, 主にヘッダ部分のセルに記載されている物性や単位といったエンティティの表層文字列(メンション)を検出した上
図 1 表の意味解釈の例.
で, 材料科学分野に特化したエンティティ辞書への紐付けを行う.たとえば図 1 の表中の枠線で囲ったセルには, エンタルピー変化 (エンティティ名: enthalpy_change)という物性の表層文字列である $\Delta \mathrm{H}_{\mathrm{i}}$ と,その単位の表層文字列である $10^{2} \mathrm{~mJ} \mathrm{~g}^{-1}$ が出現している. 表の意味解釈ではこれらの各表層文字列が物性および単位のメンションであることを予測し,かつ,前者を enthalpy_change エンティティに紐付け,後者を基本単位のべき乗の積に分解する必要がある(図 1).
しかし, 材料科学分野において,表の意味解釈のための言語資源はあまり存在しておらず,一定以上の規模のアノテーションを付与したデータセットの入手は困難である. そこで本研究では, 材料科学分野に現れる単位や物性の辞
書を構築した上で, 近年の高分子論文集 ${ }^{11}$ の論文約 200 本に含まれる全ての表に対して意味解釈アノテーションを行った網羅的なデータセッ卜を構築した。また,文字レベルの系列ラベリングと辞書マッチングを組み合わせた解析を行ったのでその結果も合わせて報告する.
## 2 関連研究
Web ページ中の表の意味解析に取り組んだ研究として [1] が挙げられる.彼らは表の列のタイプ(アルバムのリリース日などの属性名) と, 列のペアの関係を予測するという課題に取り組んでいる.また,予測するラベルの候補としては,知識べースのオントロジーに登録されているものを用いている. 彼らはこの課題に取り組むために,テーブル内およびテーブル間の文脈情報の両方を考慮した新しいテーブル表現の学習手法を提案している. 本研究は, Web ページではなく論文中の表を扱っている点,また, 列ではなく, 表のセル内に出現しているエンティティのリンキングを行っている点において [1] とは異なる.
材料科学論文からの情報抽出に関する研究としては [2] が挙げられる.彼らは XML 形式の論文中の表からルールベースで構造化データを抽出している。一方, 本研究では PDF 形式の論文中の表を解析対象としており,また,エンティティ・メンションの検出を系列ラベリングとして定式化して機械学習ベースのモデルを用いている点において [2] とは異なる.
材料科学分野に限らず,学術文書一般からの情報抽出については,論文間の関係性を予測する研究 [3] や,個々の論文に記載されている知見を抽出する事を目的とした研究がある.後者についてはキーフレーズ抽出とキーフレーズ間の関係抽出に関する Shared task [4] も実施されている. また, PDF や画像など, 非構造化文書中の表の構造解析については,テーブル画像と対応する構造化 HTML 表現を収録したデータセットを [5] が公開している. なお, 本研究で
1) https://main.spsj.or.jp/c5/koron/koron.php取り組んでいる表の意味解釈は, 表の構造解析の下流タスクとして位置づけられる。
## 3 材料科学論文の表のセルの意味解釈
本タスクでは,入力として受け取ったセル文字列中に出現している物性や単位(以下,組立単位)の表層文字列の範囲を予測し(メンション検出), 辞書中の特定のエンティティへの紐付けを行う。ここで組立単位とは,複数の基本単位のべき乗の積で構成される単位のことであり,たとえば図 1 の $10^{2} \mathrm{~mJ}^{-1}$ という組立単位は $10^{2},(\text { milli joule })^{1}, \mathrm{~g}^{-1}$ という 3 つの構成要素の積に分解できる ${ }^{2)}$. 図 1 からも分かるように,単位の意味解釈とは,基数,基本単位,指数などのカテゴリに情報を埋めていくタスクである.特に基本単位については,あらかじめ材料科学分野の辞書に登録してある単位一覧から特定の単位を選択する問題となる。
## 4 データセットの構築
## 4.1 アノテーション仕様の策定
材料科学論文の表には,合成した物質(高分子など)の物性(融点など)や高次構造情報 (数平均分子量など), 基本単位や指数などの各種数量表現の他にも,実験手法や,物質の合成時に用いる溶媒や触媒などがしばしば記載され
料科学論文から収集したセルを整理して,本研究でアノテーション対象とする材料科学分野のエンティティ・タイプの一覧を作成した(表 1).
## 4.2 各タイプのエンティティ辞書の 作成
次に,表から検出したエンティティを紐付けるために,材料科学分野に特化したエンティティの辞書を各タイプについて構築した。辞書の構築にあたっては,まずPoLyInfo から,単位,物性,実験手法等,各タイプに属するエン
表 1 検出対象とするエンティティタイプ一覧と本研究で構築したコーパスにおける出現数.
ティティの一覧を収集した。これだけでは網羅率が十分ではないと考えられるため, 表の意味解釈アノテーション(4.3 節)において, 各タイプの辞書に紐付けることができないエンティティの内, Wikidata ${ }^{4}$ にリリク可能なものを辞書に追加した。辞書中の各エンティティについては, ID, 正式名, 同義語リスト(当該エンティティが取りうる表層文字列のリスト)を収録している。
## 4.3 高分子化学論文の表に対する意味解釈アノテーション
第 3 に,高分子論文集 ${ }^{5)}$ の 2004 年 1 月 2013 年 3 月(Vol.61~Vol.70)の論文約 200 本に含まれる全ての表に対して以下のアノテーションを行った。まず各セルにおいて,検出対象とするいずれかのタイプ(表 1)を有するエンティティが出現している場合, セル文字列中のスパンと, 当該エンティティの辞書 ID を注釈する.単位についてはスパンを注釈した後に, 基本単
位や基数のべき乗の積への分解アノテーション (3 節)を行った。この分解作業の目的は以下の 2 点である. 第 1 の目的は,組立単位間の相互変換を可能にすることによって,各物性に紐づく単位の複数の表記方法の比較・照合を行うことにある. 第 2 の目的は, 構成要素中の接頭辞や基本単位をエンティティ辞書に紐付けることで,組立単位の意味内容を理解することにある.なお,表のセルに対してアノテーションを行う際には, PDFのアノテーションツールである PDFAnno [6] を用いた。
## 5 解析手法
本節では 4 節で構築したデータセットを学習データとして用い、セルの意味解釈を行うモデルの訓練と評価を行う。
セル文字列の解析は,(1) 文字レベルの系列ラベリングと, (2) 辞書マッチングによるエンティティ・リンキングの 2 ステップで行う.まず (1)ではセルの文字系列を入力として,系列ラベリングによってエンティティのスパンを同定する。ただし物性と高次構造情報については全エンティティを単一のラベルに集約したものを用いる。また,単位についても,基本単位に属する全エンティティを単一のラベルに集約する. 次に (2)では,スパンが同定されたエンティティの内, 物性, 高次構造情報, または基本単位であると予測されたものを入力として,辞書マッチングによるエンティティ・リンキングを行う.各エンティティを別々のラベルとして扱えば,文字レベルの系列ラベリングのみで解析を行うことも可能だが,物性または高次構造情報のエンティティ総数は約 140 種類,基本単位のエンティティ総数も約 80 種類と多く,データスパースネスの影響が無視できないことから, 上述の様にパイプライン型のモデルを採用している. また, 系列ラベリングのタグ付けスキームは BIEOS 方式とし,スパンが取りうるラベル集合は,表 1 に示したエンティティ・タイプ一覧に基づいて定めた。ネットワーク構造としては,畳み込みネットワークに
skip-connection [7] を入れたブロックを $\mathrm{N}$ 層 6),積層したものの上に線形層と CRF 層 [8] を持つアーキテクチャーを採用した。
## 5.1 辞書マッチング
辞書マッチングでは,系列ラベリングで同定したエンティティ・メンションを,各候補エンティティに紐づく同義語辞書とマッチさせることで、エンティティ・リンキングを行う.ただしメンションと同義語の完全一致を必要条件にすると Recall が低下するため,メンションが同義語を部分文字列として含むならば,当該エンティティを候補に加えるものとする.また,辞書のどのエンティティのどの同義語ともマッチしなかった場合はリンキングに失敗したと判定する。
## 6 実験
構築したデータセットを学習データとテストデータが約 4:1 となるように分割を行った結果,学習データが 3,046 事例,テストデータが 762 事例となった. なお, 各表の各セルの(文字列,タグ系列)を 1 事例としている. 確率的勾配降下法を用い,学習率を 0.001 として 30 工ポック学習を行った後にテストデータでの評価を行った結果を表 2 に示す. まず数量表現については,基本単位に属する主要なエンティティや,指数,基数などについて $90 \%$ を超える $\mathrm{F} 1$值が得られた。次に物性や高次構造情報については,エンティティによって $\mathrm{F} 1$ 值にばらつきが見られた。これらのカテゴリでは基本単位に比べて表記摇れの度合いが大きいため, 辞書マッチングが上手く機能しないケースがより多く発生していると考えられる.第 3 に,実験手法や溶媒については F1 值が 50\%前後に留まっており, Precisionに比べて Recall が低い傾向が見られた。ただしこれらのタイプについては, ドメイン知識を活用することである程度,網羅率の高いエンティティ辞書と同義語辞書を編纂可能であると期待されるため,辞書素性の活用
=5$ を採用した。
}
表 2 セルの意味解釈モデルの実験結果. 一部のエンティティ・タイプのみを示している.
} & 指数 & 0.989 & 0.966 & 0.977 \\
等によって性能を向上させることができると考えられる。
## 7 おわりに
本研究では材料科学論文の表から物性や単位を検出し,辞書への紐付けを行うタスクに取り組んだ。まずモデル構築の基盤となる言語資源として,高分子論文集の論文約 200 本に含まれる全ての表に対して意味解釈アノテーションを行った網羅的なデータセットを構築した. 次に,文字レベルの系列ラベリングと辞書マッチングを組み合わせた解析を行った。今後は表の複数のセルを考慮した大域的なモデルの有効性を検討する予定である.
## 謝辞
本研究の一部は, 国立研究開発法人新エネルギー・産業技術総合開発機構(NEDO)の助成による.
## 参考文献
[1] Daheng Wang, Prashant Shiralkar, Colin Lockard, Binxuan Huang, Xin Luna Dong, and Meng Jiang. Tcn: Table convolutional network for web table interpretation. Proceedings of the Web Conference 2021, Apr 2021.
[2] Hiroyuki Oka, Atsushi Yoshizawa, Hiroyuki Shindo, Yuji Matsumoto, and Masashi Ishii. Machine extraction of polymer data from tables using xml versions of scientific articles. Science and Technology of Advanced Materials: Methods, 1(1):12-23, 2021.
[3] Kelvin Luu, Xinyi Wu, Rik Koncel-Kedziorski, Kyle Lo, Isabel Cachola, and Noah A Smith. Explaining relationships between scientific documents. arXiv preprint arXiv:2002.00317, 2020.
[4] Isabelle Augenstein, Mrinal Das, Sebastian Riedel, Lakshmi Vikraman, and Andrew McCallum. SemEval 2017 task 10: ScienceIE - extracting keyphrases and relations from scientific publications. In Proceedings of the 11th International Workshop on Semantic Evaluation (SemEval-2017), pages 546555, Vancouver, Canada, August 2017. Association for Computational Linguistics.
[5] Xu Zhong, Elaheh ShafieiBavani, and Antonio Jimeno Yepes. Image-based table recognition: data, model, and evaluation. In Computer Vision-ECCV 2020: 16th European Conference, Glasgow, UK, August 23-28, 2020, Proceedings, Part XXI 16, pages 564-580. Springer, 2020.
[6] Hiroyuki Shindo, Yohei Munesada, and Yuji Matsumoto. Pdfanno: a web-based linguistic annotation tool for pdf documents. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), 2018.
[7] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 770-778, 2016.
[8] John Lafferty, Andrew McCallum, and Fernando CN Pereira. Conditional random fields: Probabilistic models for segmenting and labeling sequence data. 2001. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F4-4.pdf | # 研究データ利活用の促進に向けた 論文における URL による引用の分類
角掛正弥 1 松原茂樹 1,2
1 名古屋大学大学院情報学研究科 2 名古屋大学情報連携推進本部
tsunokake.masaya.z3@s.mail.nagoya-u.ac.jp matubara@nagoya-u.jp
## 概要
論文における研究データの引用を識別・解析することは,研究データリポジトリの拡充や研究デー タの検索,推薦,評価などに繋がる.論文において URL による引用の多くが研究データを参照している. 本論文ではそのような引用に対し,参照先リソースが研究で果たす役割とその種類,および,引用した理由を求める分類問題に取り組む. 提案する手法では従来手法のフレームワークに,節タイトルや脚注の文を入力素性として追加する。データセットを作成し,提案手法の有効性を検証した。
## 1 はじめに
オープンサイエンスは,論文や研究データ1)など研究資源の共有や利活用を促進する活動である.この方策にリポジトリの整備が挙げられる. 論文についてはリポジトリが整備され,論文検索サービスも普及しアクセス性向上に寄与してきた. 近年, 研究データについてもそれら2)の整備が進んでおり,アクセス性向上や利活用が注目されている.
研究データリポジトリ整備には,研究データの登録やそのメタデータの生成が必要となる. これらの作業を可能な限り自動化することで,リポジトリ整備の効率化や登録される研究データの増加が期待できる.この実現のために,論文における研究データの引用の活用が考えられる. 引用には,研究データの名称や用途など,メタデータとして記載すべき情報が記されることが多い. 加えて,既存のメタデー タには存在しない情報 [4] も得られる可能性がある.
1)研究データの定義は文脈ごとに様々であるが [1], 本研究では研究の過程で生成/使用されるデジタルオブジェクト (e.g.,計測/試験データ,プログラム,ソフトウェア)を想定する。 これは ACM が定める “artifact”[2] に近い。
2)リポジトリの例:Zenodo , Mendeley Data 検索サービスの例 : DataCite Search , Google Dataset Search[3]
しかし,論文等の文献を対象とした引用(文献引用)とは異なり,研究データの引用方法は多様でありその識別が求められる。
本研究では,論文における URLによる引用(URL 引用)に着目し,研究データの引用の識別・解析を目指す. URL 引用の例を図 1 に示す. URL引用では論文以外にも多様なリソース (e.g., データセット,ソフトウェア,ホームページ,記事)が参照される. URL引用の解析は研究データの識別に繋がるうえ, 文献引用に比べ自由度の高い URL引用の実態を解明する効果も期待できる。
本論文では,論文における URL引用について下記を求める分類手法を提案する.
1. URL で参照するリソースが研究で果たす役割
2. URL で参照するリソースの種類
3. 著者がその引用を行った理由/目的
Zhao ら [5] は同様の問題に対しマルチタスク学習による分類手法を提案している. 具体的には, 引用箇所の周囲の単語列 (引用文脈)を BERT[6] に入力し,得られた埋め込み表現を各タスク用の分類層に投入する. 本論文で提案する手法では,新たな分類の素性として節タイトルと URL が記載された脚注を加える。また,参考文献を介した URL引用も新たに分類対象としている。
## 2 関連研究
## 2.1 引用分類
論文における引用は一様ではなく,長年分析の対象であった [7, 8, 9]. Garfield[7] は著者が引用を行う理由を考察し, 15 種類の動機を挙げている. Moravcsik ら [8] は, 確認的・否定的, 概念的・操作的など 2 項対立的な分類を 4 種類定義し, 引用を調査した。また,引用を自動分類する手法が提案されている [10,11,12,13]. Teufel ら [10] は引用機能(著
本文でのURLの記載
parsing tasks in the SPMRL 2013/2014 shared tasks and establishes new state-of-the-art in Basque and Swedish. We will release our code at https://ntunlpsg.github.io/project/parser/ptrconstituency-parser
## 脚注でのURLの記載
dependently. We first collect the raw texts from the MSD website ${ }^{3}$, and obtain 2601 professional and 2487 consumer documents with 1185 internal links among them. We then split each document
${ }^{3}$ https://www.msdmanuals.com/
※傍線部は引用文 second model is a neural network trained using Keras (Chollet et al., 2015). The network passes the attribute vector through two dense layers, one
François Chollet et al. 2015. Keras. https:// keras.io.
図 1 URL引用の例
者が被引用論文を引用した理由)の観点から引用を分類する手法を提案した. Cohan ら [13] は引用を背景情報の提示,手法等の利用などに分類する手法を提案すると共に,大規模なデータセットを作成した. その他に, 引用の意義や引用対象の種類など様々な観点の分類が存在する [14].
Ding ら [15] は,引用をその内容に基づき分析/分類するこれらのアプローチを Content-based Citation Analysis(CCA) として整理した. CCA は論文の要約や推薦,検索等の応用が存在する [15]. また,引用機能は学術動向の分析 $[11,12]$ や引用文の自動生成 [16],論文の被引用数予測 [12] も寄与している.
## 2.2 研究データの引用
近年,論文における研究データの引用方法について統一的な慣習を定める動きがある。例えば, FORCE11 は "Data Citation Principles”[17] や “Software Citation Principles”[18] を宣言している。一方で,慣行に従わない多くの引用も存在する [19]. そのため, 論文から研究データの参照を自動的に識別する試みがある [20]. 例えば,論文の文章からデータセットの名称やそれに言及する文字列を特定する研究 $[21,22,23]$, ソフトウェアに対して同様のアプローチを採る研究 $[24,25,26]$ が存在する. 明示的な引用から研究データを識別する試みもあり, Ikoma ら [27] は Reference 節から言語資源を指す書誌情報の特定を目指した. URL引用は研究データ参照の手がかりにもなる [24] ことから,研究データを参照する URL の識別も行われている [28].
## 2.3 URL 引用の分類
論文における URL引用の増加を受け,URLで参照されたリソースの活用を目指す研究も存在する.例えば,生医学分野のオンラインリソース検索システム [29] や自然言語処理分野の情報ポータル [30] の構築において, URL が論文から抽出されている. Nanba[31] は論文から URL とそれを表すタグを分散表現を基に抽出する手法を提案している.
各 URL 引用を分類する研究も存在する. Zhao ら [5] は広範な学術リソースの検索/推薦システムや知識グラフの構築に向け, URL引用に対し 2.1 節で述べた CCA を適用した,具体的には,引用文脈から,参照先リソースの引用元論文における役割や引用機能を求める分類手法を提案した.
本研究では研究データのメタデータ生成を見据え, Zhao らの方法を発展させる. Zhao らが定義したリソースの役割のうち, Material と Method が研究データに相当する. この分類タスクを解くことで,研究データの引用の識別に加え, 役割や引用の理由など研究活動におけるその研究データの利用に関した情報を取得できる.URL引用は書誌情報が列挙される文献引用に比べて提供される情報が少なく曖昧性が高い。これを解析可能にすることは学術コミュニティにとっても有意義だと考えられる.
## 3 問題設定
本研究の分類タスクでは,各 URL 引用に対し,参照したリソースが研究で果たす役割 (Resource Role)とその種類(Resource Type)および引用機能(Citation Function)を求める. Zhao ら [5] の設定では,Resource Roleを一般/詳細の 2 階層で定義していたが,本研究では詳細な Resource Roleを Resource Type と捉え再定義している ${ }^{3)}$. 同じ URLであっても著者によって意図している参照先リソースは変わり得るため,いずれのタスクも引用文脈等から判断する必要がある。
分類対象の URL 引用はその実施方法から (1) 本文での URL の記載,(2) 脚注での URL の記載,(3) 参考文献の書誌情報への URL の記載に大別できる.図 1 に例 ${ }^{4}$ を示す. Zhao ら [5] が分類対象としていたのは (1),(2)のみであった.しかし,Web 上のリ
3)研究データのメタデータ生成等への応用を考慮した場合には,Zhao らの定義した詳細な Resource Role は種類と捉えるのが自然と考えたためである.
4) (2),(3) では本文上の対応する周辺文が引用文脈に相当する.
表 1 Resource Role と Resource Type の一覧
表 2 Citation Function の一覧
ソースを引用する際に,参考文献として引用しその書誌情報へ URL を併記するケースも存在する.参考文献としての提示が推奨される場合もあることから (3) も考慮する必要がある.
Resource Role/Type の分類ラベルの一覧を表 1 に示す.リソースの種類によって果たしうる役割が定まるため, Resource Role と Resource Type の間には対応関係が存在する。なお分類ラベルは,研究データのメタデータ生成を見据え,Zhao ら [5] の設定を基本とし一部を変更している。また,URL引用の中には複数のリソースが同時に参照されている場合がある.この場合,特定のラベルに分類できないため,対応するラベルとして「Mixed」を設けた。「Mixed」 は一部の文献引用分類にも存在するラベルである [32,16]. Citation Function の分類先ラベルの一覧を表 2 に示す.これは Zhao らの設定と同一である.
## 4 提案手法
本節では提案手法について記述する。Zhao ら [5] は同様の分類タスクに対し,SciResCLF という枠組みを提案している.SciResCLFでは引用文脈を事前
図 2 提案手法のアーキテクチャ
学習済み BERT[6] へ入力し, [CLS] の埋め込みを各タスク用の分類層へ投入する。また,各タスクのクロスエントロピーの加重和を用いてモデル全体を学習する。この枠組みに対し,本論文では,グロー バルな文脈情報として引用箇所の節タイトル,および,脚注のテキストを用いた分類を提案する。
Jurgens ら [12] は文献引用において引用が出現する節と引用機能の間に関係性があることを報告している。本タスクにおいても,URL引用が行われた節の情報が分類に寄与すると考え,節タイトルを活用する. ${ }^{5)}$ また,URL引用の中には,本文中では参照先リソースを明示せず脚注にのみ記述する場合がある.そのため,URL引用の分類においては脚注のテキストも重要な素性になると考えられる。
提案手法のアーキテクチャを図 2 に示す. 本手法では,節タイトル,引用文脈,脚注の文 ${ }^{6}$ を [SEP] で連結し入力とする. そして Zhao らと同様にマルチタスク学習の枠組みでモデル全体を学習していく.
## 5 実験
## 5.1 データセットの作成
実験用データセットを作成した。2000~2021 年の ACL, NAACL,EMNLP における本会議論文を ACL Anthology ${ }^{7}$ から収集し,PDFNLT ${ }^{8}$ [33] でテキスト化した。収集論文は 15,761 件であった。論文テキストに対し, $\mathrm{URL}^{9}$ ),脚注を参照する本文上の脚注番号,参考文献の引用アンカーを検出した.検出結果を用いて 3 節で述べた 3 種類の URL 引用に対
5)例えば,引用箇所が導入に当たる節である場合,リソースの役割が Supplement,引用機能が Introduce である可能性が高いと考えられる。
6)脚注を用いないURL引用,および,URLのみを単体で脚注で記載していた場合は, $[\mathrm{SEP}]$ と脚注の文は連結しない.
7) https://aclanthology.org/
8) https://github.com/KMCS-NII/PDFNLT-1.0
9)“http://",“https://”,“ftp://” のいずれかで始まる文字列
図 3 作成したデータセットにおけるラベルの分布
図 4 データセットの例
& & \\
提案手法 & 0.613 & 0.255 & 0.446 \\
- w/o 脚注の文 & $0.512(\downarrow)$ & $0.279(\uparrow)$ & $0.371(\downarrow)$ \\
し,本文上の対応する段落文を引用文脈として抽出した. ランダムに選択した 65 件の論文を用いて引用箇所の特定精度を評価した結果,適合率が 0.995 (199/200),再現率が 0.948 (199/210) であった.
抽出した引用文脈を用いて自然言語処理の専門家がアノテーションを行った. データセットは 865 件の URL 引用(論文 287 編)を含む. 図 3 にラベルの分布を示す ${ }^{10)}$. 図 4 にデータセットの例11)を示す.
## 5.2 実験設定
作成したデータセットを用いて。提案手法の分類性能を検証した.データセットはランダムに分割し,学習セットを 519 件,検証セットを 173 件,テストセットを 173 件とした. ベースラインは Zhao ら [5]の SciResCLFである. ベースライン, 提案手法ともに入力のエンコーダとして SciBERT[34]を採用した. 損失関数には各タスクのクロスエントロピーロ
10)記載方法別の内訳は,脚注が 0.79 ,本文が 0.11 ,参考文献の書誌情報が 0.10 であった.
11)Zhao ら [5] と同様に,引用箇所や引用に用いた URL 自体を [CITE] に置き換えている.
スの加重和を用いた。最適化関数は Adam[35] である. 両手法ともに,各ハイパーパラメータの候補について最大で 50 エポック分学習し, 各エポックで検証セットに対する分類性能を算出した ${ }^{12)}$ 。各タスクについて,検証セットでの分類性能が最良であったモデルをテストセットへ適用し,手法を評価した. 分類性能の評価にはマクロ平均 $\mathrm{F} 1$ 值を用いた.
## 5.3 実験結果
実験結果を表 3 に示す. Resource Role/Type の分類において,提案手法はベースラインの性能を上回った. 表 3 における提案手法より下の行では,各素性を除いた場合の結果を示している13). 表 3 より, Resource Role の分類においては節タイトル,脚注ともに有効であることがわかる. Citation Function の分類では,脚注が素性として有効な一方で,節タイトルは分類性能を悪化させている. Resource Type の分類では各素性を抜くことで性能が向上しており,両者とも単体での使用は有効であることがわかる. これらの結果はタスクごとに有効な素性の組み合わせが異なることを示しており,引用文脈以外の素性を加えるアプローチとマルチタスク学習との組み合わせ方法について今後検証していく必要がある.
## 6 おわりに
本論文では,論文における URL引用に対し,(1)参照されたリソースが研究で果たす役割,(2) 参照されたリソースの種類,(3)引用が行われた理由を求める分類問題に取り組んだ. 既存研究ではマルチタスク学習に基づく分類手法が提案されていたが,入力には引用文脈のみを用いていた。本論文では,節タイトルと脚注のテキストを入力素性として用いる分類手法を提案した。実験結果から Resource Role の分類において提案手法の有効性を確認した.
12)詳細は実装とともに付録へ記載
13)数值が提案手法より下回る場合は“ $(\downarrow)$ ”を,上回る場合は “(个)”を付与している.
## 謝辞
本研究は,一部,科学研究費補助金(基盤研究
(B))(No. 21H03773)により実施したものである.
## 参考文献
[1] The Australian National Data Service. What is research data, 2017 (202201 閲覧).https://www.ands.org.au/__data/assets/pdf_file/0006/ 731823/Whatis-research-data.pdf.
[2] Association for Computing Machinery. Artifact review and badging - version 2.0, 2021 (2022-01 閲覧). https://www.acm.org/publications/ policies/artifact-review-badging.
[3] Dan Brickley, Matthew Burgess, and Natasha Noy. Google dataset search: '19: The World Wide Web Conference, pp. 1365-1375, 2019.
[4] Shunsuke Kozawa, Hitomi Tohyama, Kiyotaka Uchimoto, and Shigeki Matsubara. Collection of usage information for language resources from academic articles. In Proceedings of the 7 th International Conference on Language Resources and Evaluation (LREC 2010), pp. 1227-1232, 2010
[5] He Zhao, Zhunchen Luo, Chong Feng, Anqing Zheng, and Xiaopeng Liu. A context-based framework for modeling the role and function of on-line resource citations in scientific literature. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 5206-5215, 2019
[6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, 2019.
[7] Eugene Garfield. Can citation indexing be automated? In Statistical association methods for mechanized documentation, Symposium Proceedings, pp. 189-192, 1964.
[8] Michael J. Moravcsik and Poovanalingam Murugesan. Some results on the function and quality of citations. Social Studies of Science, Vol. 5, No. 1, function and qualit
[9] Ina Spiegel-Rosing. Science studies: Bibliometric and content analysis. Social Studies of Science, Vol. 7, pp. 97-113, 1977
[10] Simone Teufel, Advaith Siddharthan, and Dan Tidhar. Automatic classification of citation function. In Proceedings of the 2006 conference on empirical methods in natural language processing, pp. 103-110, 2006.
[11] Amjad Abu-Jbara, Jefferson Ezra, and Dragomir Radev. Purpose and polarity of citation: Towards nlp-based bibliometrics. In Proceedings of the 2013 conference of the North American chapter of the association for computational linguistics: Human language technologies, pp. 596-606, 2013.
[12] David Jurgens, Srijan Kumar, Raine Hoover, Dan McFarland, and Dan Jurafsky. Measuring the evolution of a scientific field through citation frames. Transactions of the Association for Computational Linguistics, Vol. 6 , pp. 391-406, 2018.
[13] Arman Cohan, Waleed Ammar, Madeleine van Zuylen, and Field Cady. Structural scaffolds for citation intent classification in scientific publications. In Proceedings of the $\mathbf{2 0 1 9}$ Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Tech nologies, Volume 1 (Long and Short Papers), pp. 3586-3596, 2019
[14] 柴田大輔, 芳鐘冬樹. 学術文献における引用分類の観点. 情報知識学会誌, Vol. 26, No. 3, pp. 277-296, 2016.
[15] Ying Ding, Guo Zhang, Tamy Chambers, Min Song, Xiaolong Wang, and Chengxiang Zhai. Content-based citation analysis: The next generation of citation analysis. Journal of the association for information science and technology, Vol. 65, No. 9, pp. 1820-1833, 2014
[16] Yubin Ge, Ly Dinh, Xiaofeng Liu, Jinsong Su, Ziyao Lu, Ante Wang, and Jana Diesner. BACO: A background knowledge- and content-based framework for citing sentence generation. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 1466-1478, 2021.
[17] Data Citation Synthesis Group. Joint Declaration of Data Citation Principles. FORCE11, 2014. https://doi.org/10.25490/a97f-egyk.
[18] Arfon M Smith, Daniel S Katz, and Kyle E Niemeyer. Software citation principles. PeerJ Computer Science, Vol. 2, p. e86, 2016.
[19] James Howison and Julia Bullard. Software in the scientific literature: Problems with seeing, finding, and using software mentioned in the biology literature. Journal of the Association for Information Science and Technology Vol. 67, No. 9, pp. 2137-2155, September 2016.
[20] Frank Krüger and David Schindler. A literature review on methods for the extraction of usage statements of software and data. Computing in Science Engineering, Vol. 22, No. 1, pp. 26-38, 2020.
[21] Ayush Singhal and Jaideep Srivastava. Data extract: Mining context from the web for dataset extraction. International Journal of Machine Learning and Computing, Vol. 3, No. 2, pp. 219-223, 2013
[22] Daisuke Ikeda and Yuta Taniguchi. Toward automatic identification of dataset names in scholarly articles. In Proceedings of the 8th International Congress on Advanced Applied Informatics (IIAI-AAI), pp. 379-382, 2019.
[23] Animesh Prasad, Chenglei Si, and Min-Yen Kan. Dataset mention extraction and classification. In Proceedings of the Workshop on Extracting Structured Knowledge from Scientific Publications (ESSP), pp. 31-36, 2019.
[24] Caifan Du, Johanna Cohoon, Patrice Lopez, and James Howison. Softcite dataset: A dataset of software mentions in biomedical and economic research publications. Journal of the Association for Information Science and Technology, Vol. 72, No. 7, pp. 870-884, 2021
[25] David Schindler, Benjamin Zapilko, and Frank Krüger. Investigating software usage in the social sciences: A knowledge graph approach. In Proceedings of the 17th European Semantic Web Conference Semantic Web (The Semantic Web), pp. 271-286, 2020.
[26] Kai Li and Erjia Yan. Co-mention network of R packages: Scientific impact and clustering structure. Journal of Informetrics, Vol. 12, No. 1, pp. 87-100, 2018.
[27] Tomoki Ikoma and Shigeki Matsubara. Identification of research data references based on citation contexts. In Proceedings of the 22nd International Conference on Asia-Pacific Digital Libraries (ICADL 2020), pp. 149-156, 2020.
[28] Masaya Tsunokake and Shigeki Matsubara. Classification of URLs citing research artifacts in scholarly documents based on distributed representations In Proceedings of 2nd Workshop on Extraction and Evaluation of Knowledge Entities from Scientific Documents (EEKE2021) at JCDL2021, pp. 20-25, 2021
[29] Yasunori Yamamoto and Toshihisa Takagi. OReFiL: an online resource finder for life sciences. BMC bioinformatics, Vol. 8, No. 1, pp. 1-8, 2007.
[30] Monarch Parmar, Naman Jain, Pranjali Jain, P Jayakrishna Sahit, Soham Pachpande, Shruti Singh, and Mayank Singh. NLPExplorer: Exploring the universe of NLP papers. Advances in Information Retrieval, Vol. 12036, pp. 476-480, 2020.
[31] Hidetsugu Nanba. Construction of an academic resource repository. In Proceedings of Toward Effective Support for Academic Information Search Workshop at ICADL 2018, pp. 8-14, 2018.
[32] John Cullars. Citation characteristics of italian and spanish literary monographs. The Library Quarterly, Vol. 60, No. 4, pp. 337-356, 1990.
[33] Takeshi Abekawa and Akiko Aizawa. SideNoter: Scholarly paper browsing system based on PDF restructuring and text annotation. In Proceedings of the 26th International Conference on Computational Linguistics: System Demonstrations (COLING 2016), pp. 136-140, 2016.
[34] Iz Beltagy, Kyle Lo, and Arman Cohan. SciBERT: A pretrained language model for scientific text. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3615-3620, 2019
[35] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Proceedings of the 3rd International Conference for Learning Representations (ICLR), 2015.
[36] Mark Neumann, Daniel King, Iz Beltagy, and Waleed Ammar. ScispaCy: Fast and robust models for biomedical natural language processing. In Proceedings of the 18th BioNLP Workshop and Shared Task, pp. 319-327, 2019 .
[37] Adam Paszke, Sam Gross, Francisco Massa, Adam Lerer, James Bradbury, Gregory Chanan, Trevor Killeen, Zeming Lin, Natalia Gimelshein, Luca Antiga, Alban Desmaison, Andreas Kopf, Edward Yang, Zachary DeVito, Martin Raison, Alykhan Tejani, Sasank Chilamkurthy, Benoit Steiner, Lu Fang, Junjie Bai, and Soumith Chintala. PyTorch: An imperative style, high-performance deep learning library. In Advances in Neural Information Processing Systems 32 (NeurIPS 2019), pp. 8024-8035, 2019.
## A 分類ラベルの設定に関する補足
研究データのメタデータ生成を想定する場合,一定の具体性を持ったリソースの種類を定義しその分類可能性を検証したい. しかし,Zhao ら [5] の設定では Material(Resource Roleの 1つ)に対応するリソースの種類が Data のみであった. 500 件の引用を対象とした調査と議論のうえで, Data を Dataset, Knowledge, DataSourceへ分割した.
## B 実験設定の詳細
実験では,両手法ともに下記のハイパーパラメー タの組み合わせを試した。
・バッチサイズ : $16,32,64$
・学習率:1.0e-4, 5.0e-5, 1.0e-5, 5.0e-6
-引用文脈の範囲 ${ }^{14)}$ : 1 文,前後 1 文を含めた 3 文,前後 2 文を含めた 5 文
・ドロップアウト率: $0.0,0.3,0.6$
- 入力の最大系列長 : 256
学習は最大で 50 エポック行うが, 10 回以内に検証セットに対する最小ロスを更新しなかった場合は学習を終了する。また,ロスにおける各タスクの重みは等しく 1.0 としている. 引用文脈の文分割には ScispaCy $^{15)}$ [36] を用いた. なお,入力に加えている脚注は URL が記載されている 1 文としている. 実装には,PyTorch[37]16を用いた。
14)本論文では,前後 2 文を引用文脈に含む場合であっても,同じ段落に含まれる文までに制限した。
15) https://github.com/allenai/scispacy
16) https://pytorch.org/docs/1.8.1/ | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F5-1.pdf | # 明治維新期以降の日本の流行歌における 歌詞のアクセントと旋律の分析
森口 桃歌 1 河瀬 彰宏 1
1 同志社大学文化情報学部
\{moriguchi.momoka, kawase\}@dh.doshisha.ac.jp
## 概要
一般に,歌を伴う音楽において,歌詞の文節と旋律の拍節との間に不一致があるとき,歌詞が聞き取りにくくなる.これまでに,日本の歌謡曲・J-POP の歌詞のアクセントと旋律の関係や,この関係性の経年変化については実証的に明らかにされてこなかった. 本研究では,日本の流行歌における,歌詞のアクセントと旋律の関係の変遷を明らかにすることを目的とし,1868 年から 2010 年までの期間の計 647 曲に対して, 計量的な観点からアクセントと旋律の関係性を比較した. 分析の結果,1910-30 年代, 70-90 年代, 2000 年代では, アクセントと旋律の関係が異なる傾向にあることを明らかにした.
## 1 はじめに
## 1.1 背景
一般に,歌を伴う音楽においては,歌詞の文節とメロディの拍節との間に不一致があるとき,聞き取りにくさや歌いにくさが生じる.村尾・疇地 (1998) によれば,このような文節と拍節の不一致に対して, 中高年の人々は, 違和感をおぼえるという [1].山崎(2017)は,昨今のポピュラー音楽において歌詞が聞き取りにくい場合に,日常会話の言葉の抑揚や文節の区切りと音楽の間に乘離があることが原因であると考察している. その一方で,民謡やわらべ歌,歌謡曲は音韻とメロディが一致しており,歌詞が聞き取りやすいと考察している [2]. 北村 (2006) は,2000 年頃の日本語のポップスが英語らしいリズムや音に聞こえることを指摘している. 元々の日本語の歌は,1つの音符に対して 1 拍で歌われていた. しかし, 英語圈の音楽の影響から,1つの音符に対して 2 拍で歌ったり, 本来は 2 拍の単語が二重母音化したり,韻を踏んだりした歌が増加している傾向
を指摘している。また,それが従来の日本歌謡にはない新鮮さを感じさせ,歌がかっこよく聞こえ,日本語らしくない歌が流行する要因のひとつであると考察した [3].
## 1.2 関連研究
堤・平賀(2014)は,日本語の歌詞を持つ音楽において,言葉の本来の抑揚や律動がメロディに影響をもたらす可能性があると考えた.そして,唱歌と童謡を対象に,日本語の歌詞のアクセントと旋律の関係の分析を行った. アクセントの高低と旋律の上下を照合した結果,唱歌と童謡のジャンルでは,アクセントと旋律の一致度は比較的高く, 歌いやすいことが示唆された [4]. 鈴木(2016)は,山田耕笮が提唱した「アクセント理論」[5]が作品の中でどれだけ実践されていたかを,山田の歌曲 136 曲を対象に分析した.「アクセント理論」とは, 日本語のアクセントと旋律の一致を考え出した山田の作曲理論のことである.対象の 136 曲を開始期(1910 年),懐疑期(1911-1916年),提唱期(1917-1926年),熟期(1927 年以降)の 4 期に区分し,提唱期を転換期として分析を行った. その結果, 提唱期以降,「アクセント理論」に従った作品が徐々に主流となっていたことを確認した [6]. 疇地(2007)は,1960 年代から 1990 年代までの流行歌・J-POP の歌詞の音数律の変遷や,各年代のリズムの特徵を明らかにするために, わらべ歌の典型リズムとの比較を行った. その結果, 1960 年代はわらべ歌の典型リズムに沿うものが主流であったが,1970 年代以降,わらべ歌の典型リズムとは異なる,新しいパターンが使用されていたことを明らかにした [7].
以上の研究から,日本の歌謡の歌詞の聞き取りやすさ, 歌いやすさについて, 旋律とアクセントに着眼した場合に,年々聞き取りにくかったり,歌いにくかったりする楽曲が時代とともに増加している
ことが指摘されてきた。そして,複数の事例研究において,日本の歌謡曲・J-POP における歌詞と音価の関係や,童謡・唱歌における歌詞のアクセントと旋律の関係が確認されてきた. しかし,日本の歌謡曲・J-POP の歌詞のアクセントと旋律の関係や,この関係の経年変化については,実証的な観点からは,明らかにされてこなかった。本研究の目的は,日本の流行歌における,歌詞のアクセントと旋律の関係の時代的変遷を明らかにすることである. 本研究を通じて,アクセントと旋律の当てはまり方がどのような法則に基づき変容してきたかが明らかになることで,歌詞の聞き取りやすさに関する判断指標が得られるものと考えられる. とりわけ,堤・平賀 (2014)[4] が提示した,童謡や唱歌といった他ジャンルとの比較の可能性や, 山田耕笮の「アクセント理論」[5]をより精緻にモデル化することに寄与すると考えられる。
## 2 分析方法
## 2.1 分析データ
本研究では,『日本のうた』(1998-2014)の第 1 集から第 9 集に収録されている 1868 年から 2010 年までの楽曲から, 各年代 5 曲ずつを選出した, 計 647 曲を扱った. 本研究は, 経年変化を明らかにするために,1868 年から 2010 年までを表 1 に示した 13 期の年代に区分した.
## 2.2 分析手順の概略
本研究では,日本の流行歌における,歌詞のアクセントと旋律の関係の時代変遷を明らかにするために,以下の手順で分析を実施した:
1. 楽譜作成アプリケーション MuseScore3を用いて,『日本のうた』第 1-9 集に収録されている楽譜の主旋律と歌詞を入力し, MusicXML 形式のデータを作成した。
2. MusicXML データに対して,旋律データの音高から高低差を算出し, 歌詞データの形態論情報との対応関係をデータベース上でマージした。歌詞データの解析には,MeCab 0.9964,2021 年 12 月 1 日時点の mecab-ipadic-neologd を用いた.
3.『新明解アクセント辞典』を用いて,歌詞デー タに出現する名詞のアクセントの高低を参照し,旋律の上行・下行と対照することで,アクセントと旋律の完全一致,一致,不一致の頻度
を集計した。
4. 年代ごとに使用されるアクセントの高低と旋律の一致の大小関係を明らかにするために,アクセントと旋律の一致傾向を年代ごとに区分したクロス集計表を作成し, $\chi^{2}$ 検定の残差分析を実施した。
5. 各年代とアクセント型, 一致の頻度の対応関係を明らかにするために,年代・アクセント型・一致傾向の 3 項目間に対して,多重対応分析を実施した。
## 2.3 アクセントの抽出方法
本研究では,歌詞データに出現する名詞に対して,アクセントの高低を入手するために,『新明解日本語アクセント辞典』を参照し,名詞を平板型・尾高型・中高型・頭高型の 4 つのアクセント型に分類した. そして,アクセントの高低が変化する箇所と,旋律の上下の一致度を求めた. ただし,アクセントの種類が複数存在する語,辞書に未掲載の語, 1 拍の語は,集計対象から除外した.
日本語の撥音・促音・長音は,カナ 2 字で 1 拍と数えるが,本研究では,堤・平賀 (2014) [4] と同様に,カナ 2 字の撥音・促音・長音については,2 拍として集計した。仮に,撥音・促音・長音に対して,1 つの音符に 2 拍分の文字が割り当てられた場合, 1 つの音符を分割して撥音・促音・長音部にも同じ高さの音を割り当てた.また,カナ 1 字に対して,2 つ以上の音が割り当てられている場合, 2 つ目以降の音は考慮せず,1つ目の音のみを扱った。
## 2.4 音程一致, 不一致の判断方法
アクセントと旋律の一致,不一致は,堤・平賀 (2014)[4] に基づき,完全一致,一致,不一致の 3 段階に区分して判断した. 完全一致とは,アクセントが変化するとき,音高も同じように変化しているものである。一致とは,アクセントが変化するとき,音高は変化しないものである. 不一致とは,アクセントが変化するとき,アクセントの変化に逆らって音高が変化するものである。
## 3 分析結果
## 3.1 アクセントと旋律の一致度の結果
年代と完全一致・一致・不一致の頻度に対して, $\chi^{2}$ 検定の残差分析を行った結果を表 1 に示した.
表 1 について, $\chi^{2}=84.36, p<0.05$ となり,有意水準 $\alpha=0.05$ を大きく下回ったため,年代ごとでアクセントと旋律の一致度に差があることが明らかになった. ただし, 効果量として, Cramerの連関係数 $V=0.103$ となり,関連が弱かった. 表 1 において,調整済み残差の絶対値が 1.96 よりも大きい値について,有意に多いものを $\boldsymbol{\Delta}$ ,有意に少ないものを $\nabla$ を用いて示した。
残差分析の結果,歌詞のアクセントと旋律の上下について,完全一致する傾向は,1916 年から 1935 年までは有意に多く,1896 年から 1905 年,1976 年から 1995 年までは有意に少なかった。一致する傾向は,1896 年から 1905 年,1986 年から 1995 年は有意に多く,1926 年から 1935 年,1946 年から 1955 年,1966 年から 1975 年までの断続的な時期において有意に少なかった. 不一致の傾向は,1916 年から 1925 年,1956 年から 1965 年までが有意に少なく,唯一 2006 年から 2010 年において有意に多かった.
## 3.2 多重対応分析の結果
図 1 は,年代・アクセント型・一致傾向の 3 項目間に対して,多重対応分析を実施した 2 次元プロットの結果である. 図中の青文字は年代,赤文字はアクセント型,緑文字は一致の判断を示している。 2 軸の累積寄与率は, $20.33 \%$ であった。
図 1 より,中高型アクセントは,原点から離れており,近接する 1966 年から 1975 年, 1976 年から 1985 年との関連が読み取れた. また, 尾高型アクセントは,1916 年から 1925 年と関連があること,一
図1 多重対応分析の結果
致傾向について,一致と 1936 年から 1945 年, 1986 年から 1995 年の各年代との関連が読み取れた。不一致の傾向については,2 次元プロットの中心にあることから,大小の偏りが小さいことが視覚的に確認できた。
## 4 考察
$\chi^{2}$ 検定の残差分析の結果より,1916 年以前の楽曲では,アクセントと旋律の上下の一致を意識した作曲がなされていなかった状況が推測できる。しかし,1896 年から 1905 年にかけてアクセントと旋律の上下が完全に一致する傾向が少なかったものの,部分的に一致する傾向が多かったことから,この時期の楽曲には,歌詞が聞き取りにくい,いわゆる不自然な拍節が用いられる楽曲が少なかったと考えられる。 そして,1916 年から 1935 年にかけて,アクセントと旋律を一致させた楽曲が多いことが明らかになった. 鈴木(2016)[6] は,この時期の山田耕筰の創作傾向として「アクセント理論」に従う楽曲が徐々に増加していたことを指摘していたが,本研究の分析結果から,その傾向は,山田作品に限定されず,1917 年以降の歌謡曲についても適用されており,アクセントと旋律を一致させようとした楽曲が時代の潮流であったことが明らかになった。
1976 年以降には,アクセントと旋律が完全に一致する楽曲が減少する傾向が確認された。この現象は,北村(2006)[3] や山崎(2017)[2] が指摘するように,1970 年以降に日本語を英語らしく歌う楽曲が増加したこと,疇地(2007)[7] が示したリズムパターンの変化とも相互に関係していると考えられる. 特に,アクセントと旋律の一致が減少したことは,当時の楽曲の歌詞の聞き取りにくさに影響して
いたと考えられる。
また, 1896 年から 1935 年にかけてアクセントと旋律が一致した楽曲が主流だった時代があり,その後,1936 年以降に一致した楽曲が減り,1976 年以降さらに減ったことが明らかになった。このことから,アクセントと旋律の不一致も,歌詞の聞き取りにくさと関連があると考えられる. しかし, 1986年から 1995 年において,アクセントと旋律が一致する楽曲が一時的に多いことがわかった. とりわけ,中高型アクセント(第 1 拍が低く,その後は高くなり,語が終わる前に低くなるアクセント)の一致が多かったことから,1986 年から 1995 年の歌謡曲・ J-POP は,1985 年までに創作された聞き取りにくい歌詞を回避するように,旋律の上下の変化が少ない楽曲が多く創作されていると考えられる。
## 5 おわりに
## 5.1 結論
本研究では, 日本の流行歌における歌詞のアクセントと旋律の関係の時代的変遷を明らかにするために,『日本のうた』(野ばら社)の全 9 集から抽出した計 647 曲を対象に分析を害施した. その結果, 1916 年以前は,アクセントと旋律を一致させることを意識した楽曲が少ないことがわかった. 1896 年から 1905 年にかけて, 聞き取りやすさという点で,不自然な楽曲は少なかったことが明らかになった. 1916 年から 1935 年の間は,アクセントと旋律が完全に一致する楽曲が多いことから,アクセントと旋律を一致させることを意識的に重視した楽曲が多かったことが明らかになった. 1976 年以降は,アクセントと旋律が一致する楽曲が減少し,歌詞が聞き取りにくい楽曲が多いことが明らかになった. しかし, 1986 年から 1995 年にかけて, アクセントと旋律が一致した楽曲が一時的に増加したことから,アクセントに対して,旋律の上下の変化があまり生じない歌詞が当てられている傾向があったことがわかった.
## 5.2 今後の課題
本研究では,1868 年から 2010 年までの日本の流行歌のアクセントと旋律の関係の変遷について明らかにできた. 本研究は,年代比較を行ったが,ジャンル比較を行うことで,ジャンルごとでのアクセントの違いや,歌い方の差異など,新しい視点での結果が得られると考えられる。また,本研究は『日本のうた』に掲載されている楽曲の一部を抜粋したため, 曲数をさらに増やし, 年代区分を多く設けることによって,より詳細な経年変化を追うことができるものと考えられる。
本研究は,日本語の名詞に限定して分析を行ったが,80 年代に多用されてきた日本語以外の語彙についても対象の範囲を広げることにより,日本音楽における歌詞と旋律の対応関係について,精緻な結果が得られるものと考えられる。
## 謝辞
本研究は,JSPS 科研費 18K18336,21K12587 の助成を受けた. また, 本研究の実施にあたり, ご協力をいただいた同志社大学文化情報学部の波多野賢治教授と伊藤紀子准教授に謝意を表する.
## 参考文献
[1] 村尾忠廣, 疇地希美. 90 年代おじさんの歌えない若者の歌その 2一弱化モーラによる配字シンコペーションとおじさんの音楽情報処理. 情報処理学会研究報告音楽情報科学, Vol. 98, No. 74, pp. 31-38, 1998.
[2] 山崎晶. ポピュラー音楽の歌詞における意味内容の変化一音韻論とメディア論の観点から一. 人間学研究, Vol. 17, pp. 1-11, 2017.
[3] 北村美樹. J-pop の音韻的考察. 中京英文学, No. 26, pp. $1-23,2006$.
[4] 堤彩香, 平賀譲. 日本語の音韻と旋律の関係について〜童謡・唱歌を中心に. 情報処理学会研究報告音楽情報科学, Vol. 105, No. 5, pp. 1-6, 2014.
[5] 山田耕筰 (後藤暢子, 團伊玖磨, 遠山一行編). 山田耕筰著作全集 2. 岩波書店, 2001.
[6] 鈴木亜矢子. 山田耕筰の日本歌曲とアクセント理論 : 一演奏の視点からみた分析一. 東京音楽大学大学院論文集, Vol. 1, No. 2, pp. 90-106, 2016.
[7] 疇地希美. J-pop: リズムと歌詞の入れ込みのルールの変遷. 音楽教育実践ジャーナル, Vol. 5 , No. $1, \mathrm{pp}$. 25-31, 2007. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F5-2.pdf | # Universal Graph based Relation Extraction
Qin Dai $^{1}$, Benjamin Heinzerling ${ }^{2}$, Kentaro Inui ${ }^{1,2}$
${ }^{1}$ Tohoku University, Japan
${ }^{2}$ RIKEN Center for Advanced Intelligence Project, Japan
\{daiqin, inui\}@ecei.tohoku.ac.jp
\{benjamin.heinzerling\}@riken.jp
}
\begin{abstract}
This paper explores how the Distantly Supervised Relation Extraction (DS-RE) can benefit from the use of a Universal Graph (UG), the combination of a Knowledge Graph (KG) and a large-scale text collection. Specifically, authors always omit the Background Knowledge (BK) that they assume is well known by human readers, but would be essential for a machine to identify relations between entities. To address this issue, existing work utilizes reasoning paths over a KG as BK to fill the "gaps" for DS-RE. However, KGs are often highly incomplete, and this could hinder their effectiveness. To tackle the sparsity problem of the KGbased paths, we propose to leverage multi-hop paths over a UG as extra evidences for DS-RE. To effectively utilize UG for DS-RE, we also propose two training strategies: (1) Path Type Adaptive Pretraining, and (2) Path Type-wise Local Loss. Experimental results on the commonly used NYT10 dataset prove the robustness of our methods and achieve a new state-ofthe-art result on the dataset. The DS-RE toolkit based on this work is available at https:// github.com/baodaiqin/UKG-RE.
\end{abstract
## 1 Introduction
Relation Extraction (RE) is an important task in Natural Language Processing (NLP). RE can be formulated as a classification task to predict a predefined relation $r$ from entity pair $\left(e_{1}, e_{2}\right)$ annotated evidences such as 1 and 2 .
One obstacle that is encountered when building a RE system is the generation of a large amount of manually annotated training instances, which is expensive and time-consuming. For coping with this difficulty, Mintz et al. (2009) propose Distant Supervision (DS) to automatically generate training samples via linking KGs to texts. They assume that if a relation triplet $\left(e_{1}, r, e_{2}\right)$ is in a $\mathrm{KG}$, then all sentences that contain $\left(e_{1}, e_{2}\right)$ (hereafter, sentence evidences) express the relation $r$. It is well known that the DS assumption is too strong and inevitably accompanies the wrong labeling problem, such as the sentence evidences (1 and 2) below, which fail to explicitly express may_treat and place_lived relation.
(1) To evaluate initial combination therapy with metformin plus Colesevelam $\mathbf{H C I}_{e_{1}}$, in drug-naive Hispanic patients with Type 2 Diabetes $_{e_{2}} \ldots$
(2) He is now finishing a documentary about Winnipeg $_{e_{2}}$, the final installment of a personal trilogy that began with "Cowards Bend the Knee" (a 2003 film that also featured a hapless hero named Guy Maddin ${ }_{e_{1}}$ ).
Therefore, there could be a large portion of entity pairs that lack such informative sentence evidences that explicitly express their relation. This makes Distantly Supervised Relation Extraction (DS-RE) further challenging (Sun et al., 2019).
For compensating the lack of informative sentence evidences, Quirk and Poon (2017) utilize syntactic information to extract relation from neighboring sentences. Zeng et al. (2017) apply two-hop textual paths as extra evidences for DS-RE. Recently, Dai et al. (2019) utilize multi-hop paths connecting a target entity pair (hereafter, path) over a KG as extra evidences for DS-RE and report a significant performance gain. An example of such multi-hop KG path can be seen in Figure 1, where $p_{1}$ depicts a multi-hop KG path of the form of $e_{1}$ $\xrightarrow{\text { component_of }} e_{3} \xrightarrow{\text { may_treat }} e_{2}$. The $\mathrm{KG}$ path is used for predicting the relation between a target entity pair $\left(e_{1}, e_{2}\right)$, which is not explicitly described in the sentence evidence 1. However, KGs are often highly incomplete (Min et al., 2013) and may be too sparse to provide enough informative paths
Figure 1: Overview of our UG-based framework, where Colesevelam HCl and Type 2 Diabetes are the target entities, COLESEVELAM ..., Colestipol and hyperglyceridemia are intermediate entities, each UG path consists of multiple hops and each hop represents a KG relation (such as "Colestipol may treat hyperglyceridemia") or Text (or Textual) relation (such as TR1 and TR2), which is the sentence containing two (target or intermediate) entities.
in practice, which may hamper the effectiveness of multi-hop paths.
Given this background, this work proposes to utilize multi-hop paths over a Universal Graph (UG) as extra evidences for DS-RE. Here, we define a $\mathrm{UG}$ as a joint graph representation of both KG and a large text collection (hereafter, Text), where each node represents an entity from KG or Text, and each edge indicates a KG relation or Textual relation, as shown in Figure 1. The path $p_{2}$ in the figure is an example of UG path, comprising a textual edge TR1, a KG edge may_treat, and another textual edge TR2. By augmenting the original $\mathrm{KG}$ with textual edges, one can expect far more chances to find informative path evidences between any given target entity pairs, because the number of such textual edges is likely to be much larger than the number of KG edges (Note that one can collect as many textual edges as needed from a raw text corpus with an entity linker). Extending a KG to a UG, therefore, may allow a DS-RE model to learn richer distant supervision signals.
Motivated by this, in this work, we address how one can make effective use of UG for DS-RE. How- ever, we observe that a straightforward extension of the KG based model (Dai et al., 2019) to the UG setting tends to allocate the majority of attention to only a limited set of UG paths such as short KG paths and miss out the learning from a wide range of UG paths ( $\S 3.1$ ), which hinders performance gain. In order to alleviate the negative effect of the attention bias, we propose two training (or debiasing) strategies: (1) Path Type Adaptive Pretraining (\$3.2); and (2) Path Type-wise Local Loss (\$3.3). Experimental results on the commonly used NYT10 (Riedel et al., 2010) datasets prove that: (1) UG paths have the potential to bring performance gain for DS-RE as compared with the KG paths; (2) the proposed training methods are effective to fully exploit the potential of UG paths for DS-RE because the proposed methods significantly and consistently outperform several baselines and achieve a new state-of-the-art result on the dataset. The DS-RE toolkit based on this work is available at https://github.com/baodaiqin/UKG-RE.
Figure 2: Path type and attention
Figure 3: Average attention weights across different path types.
## 2 Base Model
We select the DS-RE model proposed by Dai et al. (2019) as our base model and extend it into our UG setting. Given a target entity pair $\left(e_{1}, e_{2}\right)$, a bag of corresponding sentence evidences $S_{r}=\left.\{s_{1}, \ldots, s_{n}\right.\}$ and a bag of UG paths $P_{r}=$ $\left.\{p_{1}, \ldots, p_{m}\right.\}$, the base model aims to measure the probability of $\left(e_{1}, e_{2}\right)$ having a predefined relation $r$ (including the empty relation NA). The base model consists of four main modules: KG Encoder, Sentence Evidence Encoder, Path Evidence Encoder and Relation Classification Layer, as shown in Figure 1 (Please see the paper (Dai et al., 2021) for details.)
## 3 Proposed Method
## 3.1 Problem of Attention Bias
While extending the KG-based base model (Dai et al., 2019) into UG setting, we observe that the base model tends to allocate more attention to KG paths as compared to Textual paths (i.e., the path comes form Text) and Hybrid paths (i.e., the path comes from both Text and KG), as shown in Figure 3. We consider that this would be because paths including Textual relations (i.e., Textual and Hybrid paths) are comparatively much more implicit than KG paths, but which does not necessarily mean the former is not useful. For instance, in Figure 1, the complex Hybrid path $p_{2}$ is useful for predicting (Colesevelam_HCl, may_treat, Type_2_Diabetes), because $p_{2}$ implies a plausible line of reasoning " Colesevelam $\mathbf{H C l}$ alternative_to Colestipol may_treat hyperglyceridemia strong_link_to Type 2 _Diabetes". However, due to the attention bias mentioned above, the base model allocates low attention $\left(a_{2}^{\prime} \approx\right.$
Figure 4: Average attention weights across different path types.
$\left.8.0 \times 10^{-36}\right)$ on the informative path, and thus fails to learn from such implicit but useful evidences.
## 3.2 Path Type Adaptive Pretraining
As shown in Figure 3, the base model tends to bias toward KG paths. This indicates that the base model mainly relies on KG paths, as a result, it is incapable of capturing informative features from Textual and Hybrid paths.
To address this issue, we propose a debiasing strategy called Path Type Adaptive Pretraining. In this strategy, we pretrain the base model sequentially using Textual, Hybrid, and KG Paths as path evidences, and then finetune it with all types of UG paths (see the paper (Dai et al., 2021) for details).
## 3.3 Path Type-wise Local Loss Training
Similarly, we also propose another training strategy called Path Type-wise Local Loss to reduce the negative effect of the attention bias. As shown in Figure 4. the path type-wise local loss measures the cross-entropy between the prediction from each type of UG paths (e.g., Hybrid path) and the target relation (e.g., place_lived). We denote this loss as $L_{\text {type }}$ (e.g., $L_{\text {Hybrid }}$ ) and calculate it via Equation 1,
$
L_{\text {type }}=\operatorname{CrossEntropy}\left(Y, W^{T} H_{\text {type }}\right)
$
where $W$ is the representation matrix of relations with width equal to the number of relations and height equal to path feature dimension, $Y$ is matrix of one-hot encoded target relations and $H$ is the feature of one type of UG paths (e.g., $H_{\text {Hybrid }}$ ).
The overall loss of the UG based DS-RE model (denoted as $L$ ) consists of the entire UG path loss $\left(L_{U G}\right)$, KG path loss $\left(L_{K G}\right)$, Textual path loss ( $\left.L_{\text {Textual }}\right)$ and Hybrid path $\operatorname{loss}\left(L_{\text {Hybrid }}\right)$, which
Figure 5: Precision-Recall curves on NYT10 dataset, where "Sent+KG" is the base model, which uses both sentence evidences and KG paths. "Sent+UG" is the extension of KG paths with UG paths, "Sent+UG+Pretrian" represents the pretraining strategy described in S3.2, "Type-wise LocLoss" does the training strategy described in S3.3, and "AUC" denotes the area under curve.
Figure 6: Precision-Recall curves of previous sate-ofthe-art methods and our proposed model on NYT10 dataset.
is calculated via Equation 2, where $\beta$ is a hyperparameter denoting the weight of each loss.
$
L=L_{U G}+\beta_{1} L_{K G}+\beta_{2} L_{\text {Textual }}+\beta_{3} L_{\text {Hybrid }}
$
## 4 Experiments
## 4.1 Data
We evaluate our proposed framework on the NYT10 dataset (Riedel et al., 2010). The statistics of the dataset is summarized in Table 1 in Appendix (see the paper (Dai et al., 2021) for details).
## 4.2 Results and Discussion
The results shown in Figure 5 indicate that: (1) "Sent+UG" does not have obvious advantages than "Sent+KG", illustrating that due to the biases discussed in $\$ 3.1$, simply applying UG paths on the base model has limited effect on performance gain; (2) our proposed training strategies "Sent+UG+Pretrain" and "Type-wise LocLoss" can effectively take advantage of the rich UG paths for DS-RE because they beat the strong baseline "Sent+KG" on the commonly used DS-RE dataset. In addition, although "Type-wise LocLoss" and "Sent+UG+Pretrain" are equally effective, the former has better operability in practice, because the former could avoid retraining whenever new UG paths comes. Case Study please see Appendix for case study.
## Comparison with State-of-the-art Baselines
on NYT10. To demonstrate the effectiveness of our proposed model, we also compare it against the following baselines on NYT10 dataset: Mintz (Mintz et al., 2009), MultiR (Hoffmann et al., 2011), MIMLRE (Surdeanu et al., 2012), PCNN (Zeng et al., 2015), PCNN+ATT (Lin et al., 2016), BGWA (Jat et al., 2018), PCNN+HATT (Han et al., 2018), RESIDE (Vashishth et al., 2018), DISTRE (Alt et al., 2019), Sent+KG (Dai et al., 2019) and UGDSRE (Dai et al., 2021). The results shown in Figure 6 indicate that: our model (i.e., "Typewise LocLoss") can effectively take advantage of the rich UG paths for DS-RE because it beats several strong baselines and achieves a new state-ofthe-art AUC score, especially when the recall is greater than 0.4 on the commonly used DS-RE dataset.
Broad Impact. Reasoning over UG (i.e., the combination of $\mathrm{KG}$ and textual corpus) has profound effects on many NLP applications and AI systems, because different from the manually created KG, textual corpus contains tremendous amount of relational facts that are absent in the KG. This work could be seen as a very preliminary attempt towards exploiting the potential of UG-based reasoning for a subtask of NLP.
## 5 Conclusion
We have introduced UG paths as extra evidences for the task of DS-RE from text. In order to fully take advantage of the rich UG paths, we have proposed two training (or debiasing) strategies: Path Type Adaptive Pretraining and Path Type-wise Local Loss Training. We have conducted experiments on NYT10 datasets and the results show the effectiveness of our framework for DS-RE.
## Acknowledgement
This work was supported by JST CREST Grant Number JPMJCR20D2, Japan.
## References
Christoph Alt, Marc Hübner, and Leonhard Hennig. 2019. Fine-tuning pre-trained transformer language models to distantly supervised relation extraction. arXiv preprint arXiv:1906.08646.
Qin Dai, Naoya Inoue, Paul Reisert, Takahashi Ryo, and Kentaro Inui. 2019. Incorporating chains of reasoning over knowledge graph for distantly supervised biomedical knowledge acquisition. In Proceedings of the 33nd Pacific Asia Conference on Language, Information and Computation (PACLIC33), pages 19-28, Hakodate, Japan. Waseda Institute for the Study of Language and Information.
Qin Dai, Naoya Inoue, Ryo Takahashi, and Kentaro Inui. 2021. Two training strategies for improving relation extraction over universal graph. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pages 3673-3684.
Xu Han, Pengfei Yu, Zhiyuan Liu, Maosong Sun, and Peng Li. 2018. Hierarchical relation extraction with coarse-to-fine grained attention. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pages 2236-2245.
Raphael Hoffmann, Congle Zhang, Xiao Ling, Luke Zettlemoyer, and Daniel S Weld. 2011. Knowledgebased weak supervision for information extraction of overlapping relations. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies-Volume 1, pages 541-550. Association for Computational Linguistics.
Sharmistha Jat, Siddhesh Khandelwal, and Partha Talukdar. 2018. Improving distantly supervised relation extraction using word and entity based attention. arXiv preprint arXiv:1804.06987.
Yankai Lin, Shiqi Shen, Zhiyuan Liu, Huanbo Luan, and Maosong Sun. 2016. Neural relation extraction with selective attention over instances. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), volume 1, pages 2124-2133.
Bonan Min, Ralph Grishman, Li Wan, Chang Wang, and David Gondek. 2013. Distant supervision for relation extraction with an incomplete knowledge base In Proceedings of the 2013 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 777-782.
Mike Mintz, Steven Bills, Rion Snow, and Dan Jurafsky. 2009. Distant supervision for relation extraction without labeled data. In Proceedings of the Joint Conference of the 47th Annual Meeting of the ACL and the 4th International Joint Conference on Natural Language Processing of the AFNLP: Volume 2-Volume 2, pages 1003-1011. Association for Computational Linguistics.
Chris Quirk and Hoifung Poon. 2017. Distant supervision for relation extraction beyond the sentence boundary. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, pages 1171-1182.
Sebastian Riedel, Limin Yao, and Andrew McCallum. 2010. Modeling relations and their mentions without labeled text. In Joint European Conference on Machine Learning and Knowledge Discovery in Databases, pages 148-163. Springer.
Huan Sun et al. 2019. Leveraging 2-hop distant supervision from table entity pairs for relation extraction. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pages 410-420.
Mihai Surdeanu, Julie Tibshirani, Ramesh Nallapati, and Christopher D Manning. 2012. Multi-instance multi-label learning for relation extraction. In Proceedings of the 2012 joint conference on empirical methods in natural language processing and computational natural language learning, pages 455-465. Association for Computational Linguistics.
Shikhar Vashishth, Rishabh Joshi, Sai Suman Prayaga, Chiranjib Bhattacharyya, and Partha Talukdar. 2018. Reside: Improving distantly-supervised neural relation extraction using side information. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pages 1257-1266.
Daojian Zeng, Kang Liu, Yubo Chen, and Jun Zhao. 2015. Distant supervision for relation extraction via piecewise convolutional neural networks. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pages 1753-1762.
Wenyuan Zeng, Yankai Lin, Zhiyuan Liu, and Maosong Sun. 2017. Incorporating relation paths in neural relation extraction. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pages 1768-1777.
## A Appendix
## A. 1 NYT10 Statistics
Table 1: Statistics of datasets in this work, where $\mathbf{R}$ and EP stand for the target Relation and Entity Pair, $\#_{1} / \#_{2}$ represent the number of training and testing data respectively.
## A. 2 Case Study
\\
Table 2: $\quad$ Some examples of attention distribution over paths from "Sent+UG" (Base) and "Sent+UG+Ranking+Pretrain" (Prop.), where $\mathcal{V}$ (or $\boldsymbol{X}$ ) represents the correct (or incorrect) prediction of the target relation.
We conduct case study on a biomedical dataset (Dai et al., 2021) and NYT10 dataset (Riedel et al., 2010). Table 2 shows the UG path examples that are scored with highest ("High") or lowest (or lower than $1.0 \times 10^{-3}$ ) ("Low") attention by the base model and our proposed framework. The paths in the table generally mean "Beta-2... Gene $\xrightarrow{\text { is_responsible_for }}$ Catecholamine $\xrightarrow{\text { is_the_chemical_class_of }}$ Epinephrine may_treat Asthma" and "San_Francisco $\xrightarrow{\text { contains }} \quad$ Fort_Point $\xrightarrow{\text { equal_status Bay_Area contains }}$ Noe_Valley", and thus can be seen as the useful path evidences for identifying gene_associated_with_disease and /location/contains relation respectively. These examples indicate that our proposed training strategies could help the base model attend such informative UG paths so that it can correctly identify the target relation. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F5-3.pdf | # 畳み込みニューラルネットワークを用いた表ラベリングによる 固有表現認識と関係抽出
Youmi Ma 平岡達也 岡崎直観
東京工業大学
\{youmi.ma@nlp., tatsuya.hiraoka@nlp., okazaki@\}c.titech.ac.jp
## 概要
本稿では,BERT に基づく固有表現抽出と関係抽出の新しい手法として,固有表現と関係のラベルを表現する 2 次元の表を画像と見なし,胃み込みニューラルネットワークを用いて表の要素(ラべル)を予測する手法(TabERT-CNN)を提案する。実験結果から,提案手法は既存手法である TabERT と同程度の性能,すなわち現在の最高性能に匹敵する性能を示した.また,BERTの内部パラメータを更新しなくても提案手法は高い性能を発揮する一方,既存手法はパラメータ更新を省略すると性能が低下することから,BERT の内部で固有表現や関係ラべルの依存関係を獲得している可能性が示唆される。
## 1 はじめに
固有表現認識(NER)と関係抽出(RE)は,文中で固有表現に言及している箇所の認識と, 固有表現スパン間の関係を抽出するタスクである。近年, BERT [1] などの事前学習済みモデルから文脈付き埋め込み表現を取り出し, NER と REに特化した層を積み重ねることで,性能を向上させた例が多く報告されている [2,3,4, 5, 6,7]. そのため, NERとREの研究では, 事前学習済みモデルの上に積み重ねる層の設計に焦点が当てられる.
NER とREを BERTを用いた表埋め問題(table filling)[8] として解くモデルとして,TabERT が提案された [9]. 表埋めによる NER とRE は, 図 1 に示すように,表の対角要素に固有表現 (NE), 非対角要素に関係のラベルを予測することで,NER と RE を統一的に解く. TabERT は,BERTをエンコー ダとして用いた埋め込み表現に bi-affine 変換を適用し,表の非対角要素を同時に予測する。この手法はシンプルでありながら,提案当時の最高性能を達成した。一方で,予測された関係ラベル間の依存関係
図 1 Table-Filling の概要. セル内の $\perp$ は対応する関係がないことを示す.
を考慮していない. Maら [9] の論文では関係ラベルの予測の順番を工夫する実験を行ったが,ラベルを独立に予測する手法と有意な差が生まれなかった。
本稿では, 表埋めにおける要素間の依存関係を考慮した手法として,TabERT-CNN を提案する。 TabERT-CNN は,2 次元の表のセルを画素,表全体を画像と見なし,画像・物体認識でよく用いられる 2 次元の畳み込みニューラルネットワーク (CNN) により表埋め行う. BERT の出力に CNN を適用することにより,近傍のセルの局所的な情報とラべル間の依存関係が考慮されると期待される。また, CNN の層を積み重ねることで,依存関係を考慮できる範囲を拡張し,離れたセル間の依存関係を取り込むことができる.
実験では, CoNLL04 [10], ACE051) と ADE [11]デー タセットを用いる。評価実験では,TabERT-CNN は TabERT に匹敵する性能を示したが,両手法の明確な性能差は見られなかった。これは,BERTを NER と RE に適応させるための fine-tuning 過程において,固有表現や関係ラベルの予測に関する依存関係を BERT の内部で獲得しているためであると考える。この仮説を検証するため,fine-tuning 時に
BERT 内部のパラメータを更新/固定することによる性能を比較する。 さらに,BERT から埋め込み表現を取り出す層の位置を変える実験を行う。その結果,BERT の内部パラメータを更新しなくても TabERT-CNN は高い性能を発揮する一方で,TabERT 等の手法ではパラメータ更新を行わないと性能の大幅な低下が見られることから,トークンやラベル間の依存関係が BERT の内部で考慮されている可能性が示唆される.
## 2 提案手法
NER とREの目的は, 自然文で書かれた単語列 $S=w_{1}, w_{2}, \cdots, w_{n}$ から固有表現と関係の組 $\left(a_{0}\left.\langle t_{0}\right.\rangle, r, a_{1}\left.\langle t_{1}\right.\rangle\right)$ を抽出することである. ただし $a_{0}, a_{1}$ はそれぞれ一つ以上の $w_{i}, i \in\{1, \cdots, n\}$ からなる $\mathrm{NE}$ を表し, $t_{0}, t_{1}$ は $a_{0}, a_{1}$ に対応する $\mathrm{NE}$ ラべルである. $r$ は NE の組 $a_{0}, a_{1}$ の関係ラベルを表す. $\mathrm{NE}$ と関係ラベルの集合をそれぞれ, $\mathscr{E} , \mathscr{R}$ とする.本稿では, TabERT に基づいて表埋め [8]を用いた新しい手法を提案する. 提案手法の説明の前に,まず TabERTを紹介する。
## 2.1 TabERT
長さ $n$ の入力に対し, $n \times n$ の行列 $\boldsymbol{Y}$ の要素を予測することで,NER とREを同時に解く. 図 1 に示すように, 行列の対角要素 $Y_{i, i} \in \mathscr{\&}$ は, $i$ 番目のトークンに対応する $\mathrm{NE}$ のラベルを表し, 非対角要素 $Y_{i, j} \in \mathscr{R}$ は, $i$ 番目のトークンから $j$ 番目のトークンへの関係ラベルである。ここで,NE ラベルは BILOU 表記 [12] に基づいて付与される. 関係ラベルは向きを区別するものを採用し,行に対応する要素から列に対応する要素の関係の方向と定義する。また, NE が複数の単語にまたがる場合,NEを構成する全ての単語の要素に対して関係ラベルを付与する。例えば図 1 では,関係
London) に対応する $Y_{1,5}$ と (Smith, London) に対応す
応する $Y_{5,1}$ と (London, Smith) に対応する $Y_{5,2}$ には LIVEIN が付与される.
TabERT では,表の上三角部分だけを埋めることで NER とREを実行する $[13,14]$. 具体的には, BERT の出力から系列ラベリング問題で NER を解き,表の対角部分を埋める。この結果を基に,関係を示す非対角部分を同時に埋める.
## 2.2 TabERT-CNN
提案手法は TabERT [9] と同じく表埋めアーキテクチャを採用するが,ラベル間の依存関係を考慮するために 2 次元 CNN を用いる. 提案手法 (TabERT-CNN)は,TabERT と同様に表の上半分を使い,NE のラベル表記に BILOU 表記を採用する.
単語埋め込みは,事前学習済みの BERT モデルにより生成する. NER や RE でラベリングを行う単位は単語であるので,既存手法 $[3,9]$ に倣い,単語 $w_{i}$ の埋め込みをそのサブワード $t_{\mathrm{start}(i)}, \cdots, t_{\mathrm{end}(i)}$ の埋め込みの最大値プーリングとして計算する。
$
\boldsymbol{e}_{w_{i}}:=\max \left(\boldsymbol{e}_{t_{\text {start }(i)}}, \cdots, \boldsymbol{e}_{\operatorname{end}(i)}\right)
$
出力 ( $d_{\mathrm{emb}}$ は出力の要素数), $\max (\cdot)$ は最大值プー リング関数である. 従って, $\boldsymbol{e}_{w_{i}} \in \mathbb{R}^{d_{\mathrm{mb}}}$ である.
予測モデルでは,画像・物体認識で広く用いられる 2 次元 CNN [15]を,局所的な周辺情報を考慮した表埋め問題に応用する. 2 次元 CNN で表の各要素の表現をエンコードすることで,カーネルサイズの範囲にある周辺単語の依存関係を考慮できる. また,CNNの層を積み重ねることにより,依存関係を考慮できる範囲を拡張できる.
具体的には,まず全ての単語対 $\left(w_{i}, w_{j}\right)$ に対し, $w_{i}, w_{j}$ の埋め込みを結合したべクトルを図 1 (右) に示す順に並べ,テンソル $\mathrm{E} \in \mathbb{R}^{n \times n \times d_{\mathrm{emb}}}$ を構築する.これを $\mathrm{CNN}$ の人力 $\mathrm{H}^{(0)}$ とする.
$
\mathrm{H}_{i, j,:}^{(0)}=\boldsymbol{h}_{i, j}^{(0)}:=\mathrm{E}_{i, j,:}=\left[\boldsymbol{e}_{w_{i}} ; \boldsymbol{e}_{w_{j}}\right] .
$
ここで,[ $[\cdot \cdot]$ はべクトルの連結を表す。表の各要素 $\mathrm{H}_{i, j,:}^{(0)}$ の次元数(チャネル数)は $2 d_{\mathrm{emb}}$ であり,これを $d_{0}$ と書くことにする。
次に, 前の層の出力から次の層の出力を計算する. $\left(w_{i}, w_{j}\right)$ に対応する $l$ 層目の出力値 $\mathrm{H}_{i, j,:}^{(l)}=\boldsymbol{h}_{i, j}^{(l)} \in \mathbb{R}^{d_{l}}$ は, $l-1$ 層目の出力值 $\mathrm{H}^{(l-1)} \in \mathbb{R}^{n \times n \times d_{l-1}}$ に, サイズが $d_{h} \times d_{w}$ のカーネル $\mathrm{K}^{(l)} \in \mathbb{R}^{d_{l} \times d_{h} \times d_{w}}$ とバイアス項 $\boldsymbol{b}^{(l)} \in \mathbb{R}^{d_{l}}$ を用いた畳み込み演算で計算する( $d_{l}$ は $l$層目の出力のチャネル数である).
$
\mathrm{H}_{i, j,:}^{(l)}=\boldsymbol{h}_{i, j}^{(l)}:=\boldsymbol{b}^{(l)}+\sum_{c=0}^{d_{l-1}}\left(\mathrm{~K}_{c,:,:}^{(l)} \circ \mathrm{H}_{:, ., c}^{(l-1)}\right)_{i, j}
$
ここで, $\mathrm{K}_{c,:: ;}^{(l)} \in \mathbb{R}^{d_{h} \times d_{w}}, \mathrm{H}_{:,,, c}^{(l-1)} \in \mathbb{R}^{n \times n}$ である. $\boldsymbol{P} \circ \boldsymbol{Q}$ は二次元相互相関を計算する演算であり,P $\in$ $\mathbb{R}^{(2 a+1) \times(2 b+1)}$ の場合,式 (4)により定義する.
$
(\boldsymbol{P} \circ \boldsymbol{Q})_{x, y}:=\sum_{h=-a}^{a} \sum_{w=-b}^{b} P_{a+h, b+w} Q_{x+h, y+w} .
$
表 1 NER と RE の実験結果. RE と RE+はそれぞれ固有表現ラベルを考慮しない関係抽出と固有表現ラベルを考慮した関係抽出の $\mathrm{F} 1$ スコアである。†は $\mathrm{BERT}_{\mathrm{BASE}}$ ,†は BERT $_{\text {LARGE }} , \diamond は ~ A L B E R T_{\text {XXLARGE }}$ [16] を用いた結果であ
スコアのマクロ平均である.
CNN の最終層( $L$ 層目)の出力の要素数を RE のラベル数とし $\left(d_{L}=|\mathscr{R}|\right)$, 関係ラベルを予測する.
$
\hat{Y}_{i, j}=\operatorname{softmax}\left(\mathrm{H}_{i, j,:}^{(L)}\right)
$
固有表現ラベルは, $\mathrm{H}^{(L)}$ に対して $\boldsymbol{W}^{(\mathrm{ent})} \in \mathbb{R}^{|\mathscr{E}| \times|\Re|}$ と $\boldsymbol{b}^{(\mathrm{ent})} \in \mathbb{R}^{|\mathscr{E}|}$ による線形変換を通して予測する.
$
\hat{Y}_{i, i}=\operatorname{softmax}\left(\boldsymbol{W}^{(\mathrm{ent})} \mathrm{H}_{i, i,:}^{(L)}+\boldsymbol{b}^{(\mathrm{ent})}\right)
$
学習時は, 式 (5)と (6) で計算されるラベルの予測確率分布と,正解のラベルの one-hot 表現との交差エントロピーの総和を目的関数とする.
## 3 実験と考察
## 3.1 実験結果
提案手法(TabERT-CNN)の性能を確認するため, CoNLL04 [10], ACE05 と ADE [11] の三つのデータセットで実験し,その性能を表 1 に示した. データの前処理・分割は,既存研究に従う $[3,7]$.
表 1 から,TabERT-CNN は CoNLL04 と ADE において,事前学習済みモデルを揃えた場合,TabERT に匹敵する性能を示した. なお,両データセットにおける TabERT-CNN や TabERT の性能は,他の手法と比較しても最高性能に近い. ところが,CNN でセル間の依存関係を組み込んでも,TabERT-CNN の性能は比較手法である TabERTを上回らなかった。
## 3.2 考察
TabERT-CNN が TabERT の性能を上回らなった理由として, NER とRE タスクの fine-tuning の過程で, トークンやラベル間の依存関係を BERT の内部で獲得していることが考えられる. この仮説を検証するため,BERT の内部のパラメータを fine-tuning 時に固定/更新する場合の比較を行う.併せて,NER と RE の層を接続する BERT の層を位置を変えながら, NER とREの性能の変化を調べる.この実験では,提案手法の他に TabERT [9] と SpERT [3] を用いる.
SpERT [3] は,事前学習済み BERT モデルの出力を用いて,NER と REをスパンおよびスパン間の分類問題として解く手法である。訓練データに含まれるスパンや関係を正例,ランダムにサンプリングしたスパンや関係を負例として,分類モデルを学習する.SpERT は予測モデルの設計が単純であるため, BERT 内部の働きを分析しやすいと思われる.
実験設定 BERT $_{\mathrm{BASE}}[1]$ の異なる層の出力をサブワード埋め込みとして予測モデルに与え,学習を行う.なお,学習時には,事前学習済み BERT のパラメータを固定するかどうかを区別する. CoNLL04 [10] の訓練データでモデルを学習し, 開発データで評価を行った結果を表 2 と表 3 に示す.
パラメータ更新による影響表 2 と表 3 に示すように,BERT 内部のパラメータの更新を省略すると,全ての手法で性能の低下が見られる.特に,BERT のパラメータを固定した SpERT は性能の低下が著しく, BERT の構造の中でタスクに特化したパラメータが獲得されていると考えられる. これに対し, TabERT-CNN は BERT のパラメータを固定しても,比較的高い性能を示した. この結果から,計算資源などの制約により事前学習済みモデルのパラメータ更新が難しい場合,TabERT-CNN は TabERT やSpERT よりも高い性能を発揮すると期待される. なお,BERT のパラメータを固定した場合,10 層目以上(特に 12 層)の埋め込み表現を元に NER と RE を行うと,全ての検討対象において性能の低下が見られた。これは,BERTの上位階層がタスクに特化した情報を持つため [17], 事前学習タスクであるマスク単語予測に特化しすぎていると考えられる.
BERT の階層位置による影響 BERT のパラメー タを更新する場合に関して,埋め込みを取り出す層を横軸,F1 スコアを縦軸に描画したグラフを図 2 に示す. 図 2 により, BERT のより上位の層の出力
表 2 BERT 内部のパラメータを固定/更新する場合の固有表現認識の F1 スコア(CoNLL04 検証データ)。
表 3 BERT 内部のパラメータを固定/更新する場合の関係抽出の F1 スコア(CoNLL04 検証データ).
を用いることは,全ての手法において性能の向上に寄与する。特に 0 層目から 6 層目までは,埋め込みの深層化による性能の向上幅が大きい. ところが, 8 層目以降では性能の向上は緩やかになる。埋め込みを取り出す層による性能差は,NERよりもREの方が顕著である。これは,単語対の主語・動詞関係などの長距離依存関係をエンコードするためには, BERT の中位以上の層が必要であるという,Jawahar ら [18] の報告と一致する.
CNN の効果図 2 に示すように,BERT の下位層の出力を用いる場合,TabERT-CNN は他の手法よりも顕著に高い性能を発揮する. TabERT-CNN は 2 次元の CNNを用いてトークンの周辺の情報をエンコードできるため,文脈情報の統合が進んでいない下位層を埋め込み表現として採用すると,CNNによる局所的な特徴の統合の効果が明確に現れるためと考えられる。しかし, 用いる埋め込みが上位層になるにつれ,他の比較手法に対する TabERT-CNN の性能上の優位性は徐々に失われる. TabERT-CNN は,入力トークンのエンコードに軽量なアーキテクチャを採用した場合や,エンコーダの内部のパラメータを更新できないような状況において,優れたアーキテクチャであると考えられる。
## 4 おわりに
本稿では,事前学習済み学習済みモデル BERT の上に,CNNで NER とREを同時に解く新しい手法 (TabERT-CNN)を提案した. TabERT-CNNは,表埋めアーキテクチャに基づいており,表のセルを画
図 2 BERT の各層の出力を埋め込みとして用いた場合の各モデルの性能(BERT はパラメータ更新あり),評価には CoNLL04 検証データを用いた。
素,表全体を画像とみなし,画像・物体認識でよく用いられる 2 次元 CNNを用いて NER と RE のラべルを予測する. CoNLL04, ACE05, ADEデータセットにおける評価実験では, TabERT-CNN は既存手法である TabERT に匹敵する性能を示した. TabERT と TabERT-CNN の間に明確な性能差は見られなかった原因を探るため, fine-tuning 時に BERT 内部のパラメータを更新/固定することによる性能比較を行った. その実験結果によると, BERT の内部パラメータを更新しなくても TabERT-CNN は高い性能を発揮する一方で,TabERT 等の手法ではパラメータ更新を行わないと性能の大幅な低下が見られることから,トークンやラベル間の依存関係が BERT の内部で考慮されている可能性が示唆された.
今後は, TabERT-CNNのさらなる軽量化として,畳み込み演算の空間方向とチャネル方向への分割や,軽量な BERT モデルとの統合を検討したい.
## 謝辞
この成果は,国立研究開発法人新エネルギー・産業技術総合開発機構(N E D O)の委託業務 (JPNP18002)の結果得られたものです.
## 参考文献
[1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (NAACL), pp. 4171-4186, 2019.
[2] David Wadden, Ulme Wennberg, Yi Luan, and Hannaneh Hajishirzi. Entity, relation, and event extraction with contextualized span representations. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 5784-5789, 2019.
[3] Markus Eberts and Adrian Ulges. Span-based joint entity and relation extraction with transformer pre-training. In 24th European Conference on Artificial Intelligence (ECAI), 2020.
[4] Ying Lin, Heng Ji, Fei Huang, and Lingfei Wu. A joint neural model for information extraction with global features. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 7999-8009, 2020.
[5] Jue Wang and Wei Lu. Two are better than one: Joint entity and relation extraction with table-sequence encoders. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1706-1721, 2020.
[6] Zexuan Zhong and Danqi Chen. A frustratingly easy approach for entity and relation extraction. In North American Association for Computational Linguistics (NAACL), 2021.
[7] Zhiheng Yan, Chong Zhang, Jinlan Fu, Qi Zhang, and Zhongyu Wei. A partition filter network for joint entity and relation extraction. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 185-197, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics.
[8] Makoto Miwa and Yutaka Sasaki. Modeling joint entity and relation extraction with table representation. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1858-1869, 2014.
[9] Youmi Ma, Tatsuya Hiraoka, and Naoaki Okazaki. Named entity recognition and relation extraction using enhanced table filling by contextualized representations. 自然言語処理, Vol. 29, No. 1, p. to appear, March 2022.
[10] Dan Roth and Wen-tau Yih. A linear programming formulation for global inference in natural language tasks. In Proceedings of the Eighth Conference on Computational Natural Language Learning (CoNLL-2004) at HLT-NAACL 2004, pp. 1-8, 2004.
[11] Harsha Gurulingappa, Abdul Mateen Rajput, Angus Roberts, Juliane Fluck, Martin Hofmann-Apitius, and Luca Toldo. Development of a benchmark corpus to support the automatic extraction of drug-related adverse effects from medical case reports. Journal of Biomedical Informatics, Vol. 45, No. 5, pp. 885-892, 2012. Text Mining and Natural Language Processing in Pharmacogenomics.
[12] Lev Ratinov and Dan Roth. Design challenges and misconceptions in named entity recognition. In Proceedings of the Thirteenth Conference on Computational Natural Language Learning (CoNLL-2009), pp. 147-155, 2009.
[13] Pankaj Gupta, Hinrich Schütze, and Bernt Andrassy. Table filling multi-task recurrent neural network for joint entity and relation ex- traction. In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers (COLING), pp. 2537-2547, 2016.
[14] Meishan Zhang, Yue Zhang, and Guohong Fu. End-to-end neural relation extraction with global optimization. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1730-1740, 2017
[15] Alex Krizhevsky, Ilya Sutskever, and Geoffrey E Hinton. Imagenet classification with deep convolutional neural networks. In F. Pereira, C. J. C. Burges, L. Bottou, and K. Q. Weinberger, editors, Advances in Neural Information Processing Systems, Vol. 25. Curran Associates, Inc., 2012.
[16] Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, and Radu Soricut. Albert: A lite bert for self-supervised learning of language representations. In International Conference on Learning Representations (ICLR), 2020.
[17] Anna Rogers, Olga Kovaleva, and Anna Rumshisky. A primer in BERTology: What we know about how BERT works. Transactions of the Association for Computational Linguistics, Vol. 8 , pp. 842-866, 2020
[18] Ganesh Jawahar, Benoît Sagot, and Djamé Seddah. What does BERT learn about the structure of language? In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3651-3657, Florence, Italy, July 2019. Association for Computational Linguistics.
[19] Xiaoya Li, Fan Yin, Zijun Sun, Xiayu Li, Arianna Yuan, Duo Chai, Mingxin Zhou, and Jiwei Li. Entity-relation extraction as multi-turn question answering. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 1340-1350, 2019
[20] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In International Conference on Learning Representations (ICLR), 2019
表 4 実験に用いられた各データセットの統計的情報.
表 5 TabERT-CNN のハイパーパラメータの概要.
## A データセット
本稿で用いられたデータセットの基本情報を表 4 に示す。なお,全ての実験における報告値は,ランダムシードが異なる 5 つの試行結果の平均である.
CoNLL04 は,新聞記事から集めたデータセットである。訓練・検証・テスト集の分割は既存研究 $[13,3]$ に従う.§3.1では,まず訓練データと検証データでハイパーパラメータを選択してから, 訓練データと検証データをあわせて訓練を行い,得られたモデルの性能をテストデータを用いて評価する。 § 3.2 では,訓練データでモデルを学習し,検証デー タでモデルの性能を評価する。
ACE05 は,新聞・フォーラムを含む多様なドメインから集めたデータセットである. Wadden ら [2] の前処理スクリプトを用いて,既存研究と同じ分割を作成する $[19,7,5,9]$. なお,配布されたデータのうち,head 要素として記述された箇所を固有表現のスパンとして扱う.
ADE は薬品の使用に関する医療レポートから集めたデータセットである. 既存研究に従い $[3,7]$, 固有表現からオーバラップのある部分を取り除き,性能の測定は 10 分割交差検証を用いる [3].
## B ハイパーパラメータ
TabERT-CNN におけるハイパーパラメータとその值を表 5 に示す。ただし,訓練時に使われた学習率のスケジューラは,まず学習率をゼロから表に示した値まで $\{$ ウォームアップ期間 $\} \times\{$ エポック数 $\}$ のエポックをかけて線形に上昇させ,次に線形で減衰
(a) 固有表現抽出の F1 スコア.
(b) 関係抽出の F1 スコア.
図 3 fine-tuning 時に BERT のパラメータを更新/固定する場合の CoNLL04 検証集における性能.(更新あり)/ (固定)はそれぞれ fine-tuning 時に BERT のパラメータを更新/固定する場合の性能である。
させるものである. また,NER とREのモデルとと事前学習済みの BERT モデルに対して,異なる学習率を用いて訓練する。訓練時のパラメータ更新は, AdamW [20] を用いる.
## C パラメータ更新による影響(続)
表 2 と表 3 に示した実験結果を図 3 に示す. 図により,TabERT-CNN は BERT モデルのパラメータ更新を行わなくても,一定の性能を示した。なお,図3からも,パラメータ更新なしの上位階層(特に 12 層)の出力を使う場合,全検討対象において性能低下が確認できた. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F5-4.pdf | # ニューラル言語モデルによる一対多関係知識の記憶と操作
長澤春希 ${ }^{1}$ Benjamin Heinzerling ${ }^{2,1}$ 乾健太郎 ${ }^{1,2}$
1 東北大学 2 理化学研究所
haruki.nagasawa.s8@dc.tohoku.ac.jp
benjamin.heinzerling@riken.jp inui@ecei.tohoku.ac.jp
## 概要
ニューラル言語モデル(NLM)による一対多関係知識の記憶と操作の能力について,集合演算を考慮した新しい調査手法を考え,「分類問題」と「生成問題」の2つのアプローチに基づくモデルの振る舞いを調べる研究を進めている。本稿では,調査方法のデザインを論じるとともに,これまで得られた結果として,NLM に一対多関係知識を記憶させることは一定程度可能であるが、集合操作をさせるには別途特別な学習の枠組みが必要であるという示唆が得られたことを報告する。
## 1 はじめに
近年,自然言語処理分野の多くのタスクで, BERT[1] などの深層ニューラルネットワーク技術を用いたモデルが採用されている. またこれらの深層ニューラル言語モデル(NLM)のパラメータ学習は,事前学習とファインチューニングの 2 つの過程で行うことが主流となっている。これについて大量のテキストデータを用いた事前学習過程で,文法などの言語知識を獲得しているとされる。
また,NLM は事前学習過程において,エンティティやイベントに関する世界知識の獲得も行なっていることが明らかになっている [2]. このうち,例えば国と首都のような特定の関係のインスタンスを以下では関係知識と呼ぶ. ニューラル言語モデルは事前学習の過程でかなり広範な関係知識をテキスト集合から獲得している可能性がある.
こうした背景から NLM を知識べースと見なしてその能力を調べる研究や NLM と既存知識べースを統合する研究が広がっている (Language Models as Knowledge Bases) [2, 3, 4, 5, 6]. ただし,こうした研究では,これまでのところ関心の対象は一対一対応の関係知識に留まっており,多対多関係の知識について扱いが簡単でないということ以外明らかにされ
図 1 一対多関係知識の記憶と操作のイメージ
ていない [2]. 一方,世界に関する知識には,「出演俳優と出演映画」関係のような,多対多関係の知識も多い [3]. 従って,NLMを知識べースと見なすには,NLM が多対多関係知識をどの程度正確に記憶できるか,また記憶した知識の操作(例えば,多対多関係のインスタンスに属する集合の間の演算)がどの程度可能か,といった能力を精緻に確認する必要がある。そこで本研究では,その第一歩として,一対多関係の知識を人工的に生成したデータセットを構築し,これに対する NLM の記憶と操作の能力を組織的に調べた。
ここで調べたいのは図 1 に示すような記憶と操作の能力である。「記憶」の能力とは,NLMに〈息子〉関係や〈娘〉関係のような多対多関係のインスタンスを教示した場合に,その教えたインスタンスの情報を NLM に問い合わせて取り出すことができるかである。「操作」の能力としては,例えば図 1 のように,ある人の〈息子〉の集合と〈娘〉の集合を教示した NLM から,その和集合 (〈子ども〉の集合) を取り出すことができるか,といったように「記憶した集合間の演算を要する問い合わせ」にどの程度答えることができるかを考える。
本研究では,親子関係等の人間関係について関係インスタンスの集合を人工的に合成し,表 1 に示すような記憶と操作の課題を設計して,NLM の能力を調べた。
データを人工的に合成するのは,統制したデー
表 1 一対多関係知識の集合演算的扱い. モデル内部に特定の知識が格納されている前提のもとで,"期待する出力"に示すような出力が達成されれば,一対多関係知識に対する集合操作能力が獲得されたと考えられる。
& 和集合の取得 & (子どもとして、) 息子と娘の名前を全て出力 \\
タで NLM の能力を調べることがまずは重要だと考えたためである。実世界のデータを使った extrinsic な評価は,統制したデータによる intrinsic な評価によって NLM の基本的な能力が明らかになった後に行っていきたい.
## 2 調査手法
## 2.1 用語定義
本研究で登場する用語と意味を定義する。
一対多関係知識 1 つ主語 (subject)に対し,特定の関係 (relation) を満足する目的語 (objects) が複数存在するような世界知識のことを指す.
(例:Taro has children named Ichiro, Jiro.)
個別要素一対多関係知識において,主語と目的語を一対一対応の形式で結んだ個別の関係知識を指す.
(例:Taro has a child named Ichiro.)
個別教示一対多関係知識を構成するそれぞれの要素について,一対一対応の形式で個別に言語モデルに学習させること.
$($ 例 : Who is the child of Taro? $\rightarrow$ Ichiro.)
集合教示一対多関係知識全体を言語モデルに学習させること。
(例: Who are the children named Taro? $\rightarrow$ Ichiro, Jiro.)
## 2.2 調査手法の決定
本研究では,事前学習済み NLM に対し,一対多関係知識を明示的に学習させた際の振る舞いを調査する. これについて具体的に「分類問題」と「生成問題」の 2 つのアプローチを考える. この概念図を図 2 に示す.具体的な調査方法については,言語モデルを用いた穴埋め形式と,生成モデルを用いた回答文生成形式の 2 つが考えられる. 前者については代表的な先行研究 [2] でも用いられており,モデルの予測分布から最も確率值の高いものをモデルの回答として扱っていた. 本研究はこれに倣い, 確率の高い上位 $\mathrm{N}$ 個の目的語を,一対多関係知識に対するモデルの回答とする. 本研究では,このアプローチ方法を 「分類問題」と呼ぶこととする.
また後者については seq-to-seq モデル [7] を用いることで,複数の目的語を過不足なく生成できるかどうかを考える。本研究では,このアプローチ方法を 「生成問題」と呼ぶこととする.
## 3 実験
本論文で報告する実験結果については,主に表 1 の「集合の取得」と「和集合の取得」とする.
## 3.1 実験データ
本実験では NLM の記憶精度を正確に管理できるようにするため,学習データを独自に用意した.具体的には,Wikidata[8] から父親とその子ども (2-4 人)の名前を取得したものを利用した。また使用する人物名について,次の条件を満たすような調整を行った。(i) 同姓同名の父親 (主語) が存在しない. (ii) 目的語の表層が重複する場合,区別できるように名前の後ろに id 番号を付与.
また分類問題においては上記の条件を満足しながら,関係知識データを人工的に作成し,追加した.各実験で用いた学習データの具体例を AppendixA の表 3 に掲載する。
なお本研究では,明示的に学習させた関係インス
図 2 調査手法概念図. 本研究では一対多関係知識について, 生成問題と分類問題の 2 つのアプローチを取る. 生成問題 (上段) では複数の目的語を漏れなく生成することを目的とする. 分類問題 (下段) では言語モデルの出力を, 目的語数次元に変換する分類器に渡す. その後閾値を用いてマルチクラス分類問題の形式へと変換し,複数の目的語を取得する.
タンスの「記憶」と「操作」のみを考えることとする. 従って,学習データとして登場していない関係インスタンスに対する汎化能力などの測定は行わない.
## 3.2 A: 分類問題
ここでは,先述の「確率分布から上位 $\mathrm{N}$ 個の目的語を取得する」方法を考える.出力すべき要素を予測確率分布から判別できるかどうかについて,1つ 1 つの目的語を独立したクラスとして扱うマルチクラス分類問題の形式を考える。主に一対多関係知識について個別教示を行い,最終的にどのような分布が出力されるかを調査する。
NLM として,事前学習済み RoBERTa base[9]を使用した. 加えて,このモデルの最終隠れ層の値を目的語数次元のベクトルに変換する線形層を用いた.推論時にはこの線形層の出力の Softmax を取り,閾值 ${ }^{1}$ より大きいものを 1 ,そうでないものを 0 に置き換えることで,マルチクラス分類問題の形式に変換した。
## 3.2.1 実験 A-1: 個別教示によるモデルの振る舞い
本実験では主語と特定の関係からなる入力クエリに対し,目的語を 1 つ予測する個別教示 (例:「Who is the child of Yamada Taro?」に対し「28 (Ichiro のクラス番号)」を予測するよう学習)を全ての目的語について行うことで,個別要素の記憶を図った。この 「記憶」の元で NLM の「操作」能力を計測した. 具体的には,目的語集合を問う入力に対し,複数の目的語を過不足なく予測できているかを測った (例: $\lceil$ Who are the children of Yamada Taro?」に対し「28, 29, 30 (Ichiro, Jiro, Saburo のクラス番号)」が予測できているか).
また関係の種類を複数 (〈子ども〉,〈友人〉,〈同
僚〉など) 学習させることで,主語と目的語の共起関係だけでなく,関係の種類にも注目して出力すべき個別要素を選別できるかを検証した。データについては,子どもが $\mathrm{N}$ 人いる主語に対して,その関係に対する目的語を $\mathrm{N}$ 人作成するといった形で機械的な追加を行なった。
結果として,関係の種類に注目して正解の目的語を過不足なく予測できることが確認された (図 3,個別要素の記憶精度及び集合の取得精度を示す).従って主語と関係の種類の両方に注目し,いくつの個別要素を出力すべきか,言い換えればどの目的語集合を出力すべきかを正しく判断できていると考えられる。一方で,図としては掲載していないが,目的語集合の取得が難しい関係の種類の存在も確認された。
図 3 個別要素の記憶精度 (1to1) と集合の取得精度 (1toN)
## 3.2.2 実験 A-2:〈関係の種類〉の和集合の取得
ここでは意味の近い関係の目的語集合を統合する操作,すなわち表 1 における「和集合の取得」や図1のような出力が可能かを調査する実験を行なった. 具体的には〈息子〉,〈娘〉関係知識を個別教示した上で,これらを〈子ども〉としてまとめて出力することができるかを調査した。また関係の種類に着目した統合ができているかを確認するため,子ど
## も集合に含まれるべきではない〈友人〉関係も同時 に学習させた。
息子と娘が"子ども"であることをモデルに学習させる素朴な方法として,一定数の主語をサンプルし,その息子と娘インスタンスについて,son (daughter) テンプレート ("Who is the son (daughter) of S?") と child テンプレート ("Who is the child of S?") の両方を利用した学習を行った。
結果として,childrenを尋ねるクエリに対し,息子と娘の両方を取得することが可能であることが確認された (表 2). 事前学習済みモデルであれば, child テンプレートを用いずとも,半数以上のインスタンスについて,"子ども"として息子と娘の両方を出力できることが明らかとなった。また child テンプレートの使用率を大きくすることで,和集合の取得率も向上することが確認された.
なお今回検証したのは上記 1 パターンのみであるが,和集合の取得が可能かどうかについては,関係の種類の包含関係を事前学習済みモデルがどれ程適切に扱うことができるかで結果が大きく左右されることが考えられた。
& \\
## 3.3 B: 生成問題
一対多関係知識を扱うもう 1 つのアプローチとして, 事前学習済み BART base[10] を用いた回答テキストの生成を考え,集合教示と個別教示の両方を行なった.
## 3.3.1 実験 B-1: 個別教示によるモデルの振る舞い
ここでは個別教示による学習を行い,目的語を統合して出力することが可能かを調査した. 個別教示については"S has a child named <mask>"に対し,子どもの名前を 1 つ生成させる学習を行った。
結果として,個別要素は全て正しく記憶できるがそれらを統合して出力することは難しいということが明らかになった。具体的には,個別教示のみを行う設定であると複数目的語を出力させるクエリ (S has children named <mask>) に対しても,目的語を 1 つしか出力できないことが確認された.
## 3.3.2 実験 B-2: 個別教示と集合教示
実験 B-1 (3.3.2 節) の個別教示に加え,一定数の主語に対し,集合教示を行った場合のモデルの振る舞いを調査した。集合教示としては,「S has children named <mask>」の入力文に対し, 子ども全員分の名前をカンマつなぎで出力させる形式を取った.
この場合でも実験 B-1 (3.3.1 節) で確認されたように,全ての個別要素の記憶は問題なく達成できた. しかしながら,明示的に集合教示を行ったインスタンスに対してのみ目的語を複数出力する結果となり,集合を取得するという汎化能力の獲得には至らなかった。
従って「記憶している関係知識に対し,ある種の集合的な操作をすること」を生成問題の枠組みで達成するためには,他に特別な学習方法を用意する必要があることが示唆された.
## 4 おわりに
本研究では一対多関係知識に対するニューラル言語モデルの振る舞いを,分類問題と生成問題の $2 \supset$ の観点から調査した. 本論文で調査した限りではどちらの手法についても,一対多関係知識を言語モデルで扱うことは現状難しいという結論に至った.
分類問題では特定のテンプレートを用いて個別要素を記憶させることで,一対多関係知識をマルチクラス分類問題の枠組みで取り扱える可能性があることを示した。一方で複数の目的語に対する集合演算的な操作については,率直には達成されないことが明らかになった。
生成問題については個別要素の記憶は可能だが,複数個の目的語を出力することは達成されなかった. 記憶された要素に対する集合演算的な操作を学習させるための,何らかの枠組みが必要となることが示された.
以上 2 点の結果を踏まえ,保存された個別要素に対する集合演算能力を獲得できれば,一対多関係知識に対しても十分に対応できると考えられる.これについて, 集合の扱いとして Deep Sets[11], Set Transformer[12], 学習手法として Meta Learning $[13,14]$ などを参考に,上記能力の獲得が実現されるかどうかを引き続き調査していく所存である.
## 謝辞
本研究は JSPS 科研費 21 K17814 および JST, CREST,JPMJCR20D2 の助成を受けたものです.
## 参考文献
[1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: pre-training of deep bidirectional transformers for language understanding. In Jill Burstein, Christy Doran, and Thamar Solorio, editors, Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, NAACL-HLT 2019, Minneapolis, MN, USA, June 2-7, 2019, Volume 1 (Long and Short Papers), pp. 4171-4186. Association for Computational Linguistics, 2019.
[2] Fabio Petroni, Tim Rocktäschel, Sebastian Riedel, Patrick S. H. Lewis, Anton Bakhtin, Yuxiang Wu, and Alexander H. Miller. Language models as knowledge bases? In Kentaro Inui, Jing Jiang, Vincent Ng, and Xiaojun Wan, editors, Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, EMNLP-IJCNLP 2019, Hong Kong, China, November 3-7, 2019, pp. 2463-2473. Association for Computational Linguistics, 2019.
[3] Benjamin Heinzerling and Kentaro Inui. Language models as knowledge bases: On entity representations, storage capacity, and paraphrased queries. In Paola Merlo, Jörg Tiedemann, and Reut Tsarfaty, editors, Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, EACL 2021, Online, April 19 - 23, 2021, pp. 1772-1791. Association for Computational Linguistics, 2021.
[4] Gerhard Weikum, Xin Luna Dong, Simon Razniewski, and Fabian M. Suchanek. Machine knowledge: Creation and curation of comprehensive knowledge bases. Found. Trends Databases, Vol. 10, No. 2-4, pp. 108-490, 2021.
[5] Tara Safavi and Danai Koutra. Relational world knowledge representation in contextual language models: A review. CoRR, Vol. abs/2104.05837, , 2021.
[6] Simon Razniewski, Andrew Yates, Nora Kassner, and Gerhard Weikum. Language models as or for knowledge bases. CoRR, Vol. abs/2110.04888, , 2021.
[7] Ilya Sutskever, Oriol Vinyals, and Quoc V. Le. Sequence to sequence learning with neural networks. In Zoubin Ghahramani, Max Welling, Corinna Cortes, Neil D. Lawrence, and Kilian Q. Weinberger, editors, Advances in Neural Information Processing Systems 27: Annual Conference on Neural Information Processing Systems 2014, December 8-13 2014, Montreal, Quebec, Canada, pp. 3104-3112, 2014.
[8] Denny Vrandečić and Markus Krötzsch. Wikidata: a free collaborative knowledgebase. Communications of the ACM, Vol. 57, No. 10, pp. 78-85, 2014.
[9] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke
Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized BERT pretraining approach. CoRR, Vol. abs/1907.11692, , 2019.
[10] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Dan Jurafsky, Joyce Chai, Natalie Schluter, and Joel R. Tetreault, editors, Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, ACL 2020, Online, July 5-10, 2020, pp. 7871-7880. Association for Computational Linguistics, 2020.
[11] Manzil Zaheer, Satwik Kottur, Siamak Ravanbakhsh, Barnabás Póczos, Ruslan Salakhutdinov, and Alexander J. Smola. Deep sets. CoRR, Vol. abs/1703.06114, , 2017.
[12] Juho Lee, Yoonho Lee, Jungtaek Kim, Adam R. Kosiorek, Seungjin Choi, and Yee Whye Teh. Set transformer: A framework for attention-based permutationinvariant neural networks. In Kamalika Chaudhuri and Ruslan Salakhutdinov, editors, Proceedings of the 36th International Conference on Machine Learning, ICML 2019, 9-15 June 2019, Long Beach, California, USA, Vol. 97 of Proceedings of Machine Learning Research, pp. 3744-3753. PMLR, 2019.
[13] Chelsea Finn, Pieter Abbeel, and Sergey Levine. Modelagnostic meta-learning for fast adaptation of deep networks. In Doina Precup and Yee Whye Teh, editors, Proceedings of the 34th International Conference on Machine Learning, ICML 2017, Sydney, NSW, Australia, 6-11 August 2017, Vol. 70 of Proceedings of Machine Learning Research, pp. 1126-1135. PMLR, 2017.
[14] Pride Kavumba, Benjamin Heinzerling, Ana Brassard, and Kentaro Inui. Learning to learn to be right for the right reasons. In Kristina Toutanova, Anna Rumshisky, Luke Zettlemoyer, Dilek Hakkani-Tür, Iz Beltagy, Steven Bethard, Ryan Cotterell, Tanmoy Chakraborty, and Yichao Zhou, editors, Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, NAACL-HLT 2021, Online, June 6-11, 2021, pp. 3890-3898. Association for Computational Linguistics, 2021.
## A 各実験における学習データの具体例
ここに,4つの実験で用いた学習データの例と,そのデータを用いて学習したモデルに対して期待する出力例を示す. 本研究では,表中に示す学習データによって「個別要素の記憶」と「集合演算能力」の獲得を図った. そして,その学習の元で「期待するモデルの挙動例」列に示すような,複数の目的語を出力する能力,すなわち一対多関係知識を適切に扱う演算能力が実際に獲得されているかを調査した.
表 3 各実験における学習データ例
& \\
## B 分類問題の正答率および閾値算出について
図 3 では個別教示による記憶精度と,それを元にした集合取得の正答率を共に示している.前者の記憶精度については,"Who is the \{relation\} of S?"の入力クエリに対して出力する確率分布において,最も確率値の高い目的語が,正解の $\mathrm{N}$ 個の目的語のいずれかである場合に正解とした.
後者の正答率については,まず"Who are the \{relation \} of S?"を入力クエリとし,モデルの出力分布を得た. Softmax 関数を適用し,各クラスに割り当てられた値を確率として解釈できるよう変換した. この分布を元に閾値を設定し,閾値を上回るクラスを 1 ,そうでないものを 0 としてマルチクラス分類問題の形式に変換した (図 2 の下段参照).
なお間値の設定については,チェビシェフの不等式を利用した. 具体的には 1 つのクラスを $x$, そのクラスに割り当てられた確率を $p(x)$, および Softmax 関数を適用した分布の平均値, 標準偏差をそれぞれ $\bar{x}, s$ とした時に式 (1)を満たすものを外れ値,すなわち取得する目的語として算出した.
$
p(x)>\bar{x}+s
$ | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F5-5.pdf | # 重畳型駄酒落ユーモアにおける 常識的知識グラフを用いた潜在表現抽出
井上蒼一朗谷津元樹森田武史
青山学院大学理工学部情報テクノロジー学科
a5818014@aoyama.jp \{yatsu,morita\}@it.aoyama.ac.jp
## 概要
機械による言語的なユーモアの認識能力を向上させるため,駄酒落ユーモアのうち潜在的な表現を含む重畳型駄酒落の検出手法を提案する.提案手法は背景知識の獲得のため常識的知識を豊富に含む大規模知識グラフを活用する。本稿では,定性的評価実験において確認された,検出の成功事例,および失敗事例における主な失敗要因について説明する。
## 1 はじめに
近年機械がユーモアを表出・理解することに対する関心が高まっている。また,機械がユーモアな表現を表出・理解することでそれに接するユーザの生活の質を向上させることが報告されている. 人間のコミュニケーションは,画一的な形式によらず自由であり駄酒落やなぞかけに代表される言語的なユー モア含んでいる。 ユーモアな表現を機械が理解することによって人間同士の会話に近い自然な対応をすることができる.
## 1.1 研究課題と目的
ユーモアはジェスチャーなどを用いる身体的なユーモアと,駄酒落やなぞかけに代表される言語的なユーモアに大きく分類される. 中でも駄酒落は比較的に認識が容易であり年齢層を問わず親しみやすいものと考えられる. 知識グラフや自然言語処理技術を用いて駄酒落ユーモアの検出や理解の有効性を高めるためには下記の課題が存在する. 後述する滝澤の研究 [1] によれば,駄酒落には併置型駄酒落と重畳型駄酒落の 2 つの分類が存在する.以下にそれぞれの例文と構造を示す.
併置型駄酒落
(1) ふとんが吹っ飛んだ
この例は「ふとん」と「吹っ飛ん」が,音韻的に類似しているため駄酒落であると認識することができる。
重胃型駄酒落
(2) 怪我がなくても大分県
しかしこの例は併置型のように音の類似するぺアがないことから従来の手法では検出が困難である。例文 (2)では,「怪我」と「大分」の間に何らかの潜在的表現を媒介する関係があると予測できる。その場合,外部の知識を用いることでその潜在的な表現及び関係を見出すことができる。すなわち,「『怪我』は『痛い』という性質を持つ」という関係性である。このとき,潜在的な表現である「痛い(イタイ)」は文内の「大分(オオイタ)」に音韻的に部分一致するので,上記の文を駄酒落文として認識することができる. 本研究は重畳型䭾酒落に存在するこのような潜在的な表現及び文内の語との関係性を後述する ConceptNet などの大規模知識グラフを用いて発見することを目的とする。
## 2 関連する研究と技術
はじめに,大規模知識グラフについて述べる。主要な大規模知識グラフとして著名なのが DBpedia[1] やWikidata[2] であり,セマンティック Web 技術によるフリーの知識べースであり,コミュニティベー スで作成され,他のオープンデータとのリンクを持つリソースから構成されている。
ConceptNet[3,4] とはDBpedia,Wikidata と同様に集合知を知識源とした大規模な知識グラフである. ConceptNet は,DBpedia や Wikidataのような RDF による表現に類似した構造を持つ. Turtle や N-Triples といった具象構文ではデータが構成されていないものの,RDFトリプルと同一視できる三つ組による抽象的な構造を表現している. 4.4 節に述べる API は JSON-LD 形式により具象化された Linked Data との親和性の高い知識表現を返す. 知識収集源は,
表 1 䭾酒落データベース [荒木 2018] における併置型・重胃型駄酒落の収録件数及び割合併置型駄酒落重畳型駄酒落件数 $67835(98.4 \%) \quad 1103(1.6 \%)$
WordNet, DBpedia, OpenCyc などの Linked Open Data に加え gamification に基づく知識収集サイトなど多岐にわたる. ConceptNet は主要な大規模知識グラフに比べるとトリプル数,リソース数は劣る (DBpedia との比較では,トリプル数 8500 万以上に対し約 2100 万,リソース数約 2.28 億に対し約 800 万) が,十分な規模を持つと考える。
次に, 本研究で認識の対象とする駄酒落文を収載するデータセットについて述べる. 駄酒落デー タベース $[5,6]$ はユーモアの面白さの評価に利用できる標準的なデータセットの確立を目指して構築された,Web 上の駄酒落を収録するコーパスである. Web 上に存在する駅酒落のクローリングを行い 68938 件の駄酒落文を収集・分類することにより構築された. 併置型駄酒落と重畳型駄酒落は表 2 のように分類されている。最新の版 [6] では,3名の被験者による面白さのスコアの付与が行われている.
駄酒落の検出・理解を目的とする手法の基礎に関わる提案は以前から行われている。滝澤 [7] は駄酒落を理解するシステムの構築の一環として併置型駄酒落と重畳型䭾酒落を音素列や長さの一致などを基に分類し明確な基準を初めて提示している。また,併置型の駄酒落検出器の構成図を示しプロトタイピングを行っている. しかし,この論文では実際のシステムをなにも実装しておらず,併置型駄酒落のみの検出が対象であり重畳型駄酒落の検出についての手法の提案がなされていない. 本研究では滝澤の分類に基づいて重畳型駅酒落を対象とする検出手法の提案を行う.
谷津ら [8] は本研究の目的と同様に,ユーザによる発話をユーモアとして検出することを目的に韻文ユーモアである駄酒落の教師あり学習に基づく検出手法を提案している. 具体的には入力文中に音韻的に類似する 2 つの区間の有無を子音の音韻類似度を用いて判定し, bag of words とともに特徴量としている.この論文では駄酒落の型を分類して音韻類似を用いて駄酒落を検出しているが併置型駄酒落を対象にした特徵量を同様に重胃型駄酒落にも適用しているため重畳型駄酒落を正確に検出できていない. そこで本論文では重胃型駄洒落の構造に着目した検
図 1 システム構成図
出手法を新たに提案する.
## 3 提案
提案システムの構成を図 3 に示す.システムは内容語抽出部,潜在表現抽出部及び潜在表現候補取得部から構成される。駄酒落文が入力されると内容語抽出部 (3.1 節)を用いて形態素解析が行われ,内容語形態素が得られる。次に潜在表現抽出部 (3.2 節) が,潜在表現候補取得部 (3.3 節)を用いて内容語形態素ごとに知識グラフから関連リソースを探索し, リソースの探索に成功した場合に編集距離べースの音韻類似度関数を用いて潜在表現の抽出を試みる。潜在表現の抽出に成功した場合は重畳型駄酒落の検出に成功となり,失敗した場合は他の関連リソー ス・内容語形態素について再度探索をする。すべての内容語形態素及び関連リソースについて潜在表現が抽出できなかった場合,重畳型駄酒落の検出は失敗となる。
## 3.1 内容語抽出部
内容語とは,名詞,形容詞及び動詞などにおいて実質的かつ語彙的な意味を持つ語を指す. GiNZA[] を用いた形態素解析を行っている。内容語のみを抽出するために,品詞を次のカテゴリー,すなわち名詞-普通名詞, 名詞-固有名詞, 動詞-一般, 感動詞-一般,副詞-一般, 形容詞一一般のいずれかに属するものに制限した。また,計算量の削減及び単独で意味をなさない記号を排除するためにストップワードを用いている。次のストップワードを指定した:[ ]() - / . ,=はのがに.
## 3.2 潜在表現抽出部
潜在表現抽出部では,内容語に対応する関連リソースより潜在表現として適切なものを抽出する。潜在表現として適切であるためには,内容語と関連リソースのラベルとの間に音韻類似性が成立する必要がある。音韻類似性を検出するためには 4.5 節に述べるレーベンシュタイン距離に基づく類似度関数を用いる。関連リソースを抽出できるまでリソースの取得を反復する必要があるが,繰り返しの実装方法として幅優先探索を基にした再帰関数を用いる.再帰関数においては,潜在表現候補の取得,音韻類似度関数による潜在表現の判定,検出を行えなかった場合の探索対象の拡大,及び探索深さの制限による終了条件のチェックを行う. 本モジュールの疑似コードを付録 A に示す。
## 3.3 潜在表現候補取得部
潜在表現候補取得部では,潜在表現抽出部において指定された内容語に対応する関連リソースまたは指定の内容語の関連リソースにさらに関連するリソースの探索を大規模知識グラフにおいて行う. 潜在表現抽出部の find_latent_expressions 関数において depth が 1 のときにfind_latent_expression_candidates 関数に与えられた引数 org_res_label に相当する内容語のリソースは関連リソースに含まないものとする。例えば,「卵」という内容語のリソースに対し「鮭」 という関連リソースが取得されて, 潜在表現抽出部における再帰によって(depth=2 となる)さらに 「鮭」より関連リソースを取得する場合「卵」が取得可能であっても,内容語リソースと一致する「卵」 は取得しない. 本研究では大規模知識グラフとして ConceptNet 5[?] を使用する. ConceptNet 5 はオープンソースソフトウェアとして Web API を備えたサー バーの実装を Githubに公開している1)。提案手法では大規模知識グラフの知識源としてこの APIを用いる. 本モジュールの疑似コードを付録 B に示す.
## 4 評価と考察
提案手法を用い,駄酒落データベース [5] に収録された 1103 件の重畳型駄酒落のうち,3名の面白さスコアの平均值が 2.66 を上回ることを要件として絞り込んだ 131 件のうち,さらに潜在表現が明らか
に常識的知識として存在すると判断可能な 22 件を対象に検出実験を行った.その結果, ConceptNet 中に関連表現は存在するが,音韻類似や言語の表記体系の違いにより検出できない例が 9 件確認された。
## 4.1 事例別の考察
本節では,認識の成功及び失敗の事例を対象に個別的に定性的評価を行い,今後の手法改良に繋がると考えられる発見について述べる。
## 4.1.1 成功例文
$\cdot$この鮮の卵,いくら?
この例の内容語抽出を行うと「鮭,卵,いくら」になる。それぞれの単語の関連リソースを探索し自身の親リソース以外の内容語形態素結果と音韻類似の比較を行う.すると,「いくら」の関連リソースに MadeOf(いくら-MadeOf - 卵)という関係性で 「卵」が存在し音韻類似の比較を行った結果,入力文中の「卵」と完全一致する。したがって,「卵」という言葉が潜在的な語として抽出することが可能となり検出成功となる.
・食べ物が体の中でかくれんぼ. もう,胃一かい?内容語抽出を行うと「食べ物,体,中,かくれんぼ,胃」になる.探索した関連リソースと左記の各内容語形態素との音韻類似の比較を行うと,「胃」に対し PartOf(胃 - PartOf - 体)という関係性で存在する「体」が完全一致する。したがって,「体」を潜在表現とした検出が成功する。
・煙とともに灰さようなら
内容語抽出を行うと「煙,灰」になる。探索した関連リソースと左記の各内容語形態素との音韻類似の比較を行うと,「灰」に対し RelatedTo (灰-RelatedTo 一煙)という関係性で存在する「煙」が完全一致する.したがって,「煙」を潜在表現とした検出が成功する。
## 4.1.2 音韻類似の検出漏れや表記体系の違いによる 失敗 \\ ・一番頭を使う作業は農作業!
内容語抽出を行うと,「頭,使う,作業,農作業」となる.「頭」という単語から「脳」という単語は取れているがそれらを音韻類似の比較を行う際に潜在表現として検出できていない. 原因として,音韻類似の比較の仕方が編集距離ベースであるため, 文字数が異なる単語(この例では「脳」「「ウ」と「農
作業」「ノウサギョウ」)を比較すると部分的には一致していても類似度の値(式 (4.5.1)により, $\operatorname{sim}($ “脳”,“農作業”) =0. 25)が文字数が一致する場合よりも著しく低くなってしまう。
・これを運ぶの?うん,そう.」く運送>内容語抽出を行うと,「運ぶ,うん」となる。「運ぶ」 の関連リソースに「貨車」,「貨車」の関連リソースに「運送」があるが,音韻類似度比較の対象が形態素単位であるため,「うん,そう」のように途中に読点がある場合違う単語として処理されてしまい,音韻類似の比較を行うことができない. 今後の課題として文全体の読みあるいはその部分との音韻類似の比較を可能にする必要があると考えられる。
## 4.1.3 ConceptNet 中の関連リソース不足による 失敗
・オリンピックなんて,銅でもいい.
「オリンピック」という言葉の ConceptNet 上の関連リソースにおいて「銅」という言葉が存在しなかった. Wikidataを探索した場合正解に相当する関連りソースとして発見されたため,異なる知識グラフについての実装は今後の課題といえる.
## ・天気予報によると,雨だす!
「天気予報」という言葉の ConceptNet 上の関連リソースにおいて「アメダス」という言葉が存在しなかった. DBpediaを探索した場合正解に相当する関連リソースとして発見されたため, 異なる知識グラフについての実装は今後の課題といえる.
## 4.1.4 関連リソースが想定できるものの取得が困難 な例
・虫退治は,アースとあさって
ConceptNet, DBpedia や Wikidata いずれの大規模知識グラフ中にも「虫退治」に用いられる商品という意味での「アース」が関連リソースに存在しないため,潜在表現候補の抽出ができない。
## 5 おわりに
本研究の目的は,大規模知識グラフである ConceptNetを用いて潜在的な音韻類似の対を含む駄酒落文を検出することである. 目的を達成するための提案手法として, ConceptNetを用いて各単語の関連リソースを取得しそれぞれの単語との音韻類似度を求めることで,しきい值以上となった単語を潜在表現をとして抽出した. 研究を進めていく中で,関連リソースの探索の仕方や音韻類似度の比較において,手法を見直さなければならない点がいくつか見受けられた。
## 5.1 今後の課題
4 節の考察を経て得られた課題は 4 つである. 1 つ目は音韻類似度の比較を行う際に比較対象となる単語の文字数が異なる場合正確な比較ができないという点である.比較の方法が編集距離べースであるため文字数が異なる場合,音韻的には近くともしきい値が低くなってしまい,関連がない単語として処理されてしまう.今後は,音韻類似度の比較を文字数に関わらず子音の類似度を測ることのできるシステムを実装することで 1 つ目の課題を解決することができると考える. 2 つ目の課題は英語表記及びローマ字表記の単語の比較ができないという点である. 関連リソースの探索を行うと,実際に WEB 上ではローマ字表記の単語を経由すれば理想の単語にたどり着くことができたが,ローマ字表記の単語はひらがなに変換することができないためしきい値を超えることができない,今後は,英語表記及びロー マ字表記の単語をひらがなに変換する方法を考え構築する必要があると考える.3つ目は関連候補の出現数上限の制限により求める関連リソースの取得が困難,という点である。潜在表現候補の上限がデフォルト值で 20 件として指定されており, API に渡すクエリパラメータを指定して調整することは可能であるが上限数を増やすと他の例文の潜在表現検出結果が正解と異なる結果となる。 そのため, 潜在表現候補の上限地値の適切な指定方法を構築することが今後の課題といえる. 4 つ目は例文中に読点がある場合違う単語として処理され,音韻類似の比較を行うことができないという点である. 本研究の対象とした例文に,読点の前後の文字列を結合すると単語として成立するケースが存在したが,単語として処理することができないことから潜在表現の抽出は失敗となった. 今後は,読点を省く処理を行いさらに前後の文字列をつなぎ合わせることで 1 つの単語として見なすことができるような仕組みを考えることが必用であると考える.
## 謝辞
本研究は JSPS 科研費 (基盤研究 (C)21K12007) の助成を受けたものである.
## 参考文献
[1] C. Bizer, J. Lehmann, G. Kobilarov, S. Auer, C. Becker, R. Cyganiak, and S. Hellmann. Dbpedia - a crystallization point for the web of data. Journal of Web Semantics, Vol. 7, No. 3, pp. 154-165, 2009.
[2] D. Vrandečić and M. Krötzsch. Wikidata: A free collaborative knowledgebase. Communications of the ACM, Vol. 57, No. 10, pp. 78-85, 2014.
[3] Robyn Speer, Joshua Chin, and Catherine Havasi. Conceptnet 5.5: An open multilingual graph of general knowledge. In Thirty-first AAAI conference on artificial intelligence, 2017.
[4] Robyn Speer and Catherine et al. Havasi. Representing general relational knowledge in conceptnet 5. In Proceedings of the 8th International Conference on Language Resources and Evaluation, pp. 3679-3686, 2012.
[5] 荒木健治, 佐山公一, 内田ゆず, 谷津元樹. 駄酒落デー タベースの拡張及び分析. 人工知能学会第 2 種研究会ことば工学研究会資料, SIG-LSE-B803-1, pp. 1-15, 2018.
[6] 荒木健治, 佐山公一, 内田ゆず, 谷津元樹. 駄酒落データベースを用いた面白さの評価及び分析. 人工知能学会第 2 種研究会ことば工学研究会資料, SIG-LSE-B902-4, pp. 63-76, 2019.
[7] 滝澤修. 記述された「併置型駄洒落」の音素上の性質.自然言語処理, Vol. 2, No. 2, pp. 3-22, 1995.
[8] 谷津元樹, 荒木健治. 子音の音韻類似性及び svm を用いた駄酒落検出手法. 知能と情報 (日本知能情報ファジィ学会誌), Vol. 28, No. 25, pp. 833-844, 2016.
## A find_latent_expression 関数の疑似コード
Function find_latent_expresion
Input (org_res_label, res_list, cwml, depth, latent_expression_cand_dict)
Output (latent_expressions, latent_expression_cand_dict)
latent_expressions と related_res_list を初期化
if depth $>2$ :
return latent_expressions, latent_expression_cand_dict
for $r$ in res_list:
lecd, rr_list $=$ find_latent_expression_candidates( $r$, org_res_label, depth)
for key_word, val_set in lecd.items():
if key_word が空でない and latent_expression_cand_dict のキーに key_words が存在しない:
latent_expression_cand_dict[key_word] = val_set
else:
latent_expression_cand_dict[key_word] を val_set との和集合とする
related_res_listに (rr_list) を加える
for cwm in cwml:
latent_expressions $=$ detect_latent_expression(cwm, latent_expression_cand_dict)
if latent_expressions が空でない:
return latent_expressions, latent_expression_cand_dict
for $i=0$ to length of related_res_list-1 :
if org_res_label が空文字列である:
org_res_label $=$ cwml[i]
return find_latent_expression(org_res_label, related_res_list[i], cwml,
depth+1, latent_expression_cand_dict)
return []$,\{\} \quad / *$ 探索中断 */
## B find_latent_expression_candidates 関数の疑似コード
Function find_latent_expression_candidates
Input (res,org_res_label)
Output (latent_expression_cand_dict,related_res_list)
辞書 latent_expression_cand_dict とリストrelated_res_listを初期化
$\mathrm{E}=$ 知識グラフから res が含まれる全てのトリプルを取得
for e in $E$ :
subject, relation, object $=\mathrm{e}$
if searching_res_label が latent_expression_cand_dictのキーに存在しない:
latent_expression_cand_dict[org_res_label] = \{\}
if res == subject \& object のラベルが日本語である:
object を latent_expression_cand_dict[org_res_label] と related_res_list に追加
else if res == object \& subject のラベルが日本語である:
subject を latent_expression_cand_dict[org_res_label]と related_res_list に追加
return latent_expression_cand_dict, related_res_list | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F6-1.pdf | # 中間文生成によるスタイル変換のためのパラレルデータ拡張
大澤功記䛊パーシ・イヴ
早稲田大学大学院情報生産システム研究科
koki.osawa@akane.waseda.jp yves.lepage@waseda.jp
## 概要
自然言語処理におけるスタイル変換とは,文書を特定のスタイルを持つ別の文書に意味を保ちながら変換するタスクである。近年の研究では,教師あり学習を活用したスタイル変換が一般的であるが,データセットが不足している。本研究では,特定のスタイルに依存しない中間文の生成によるパラレルデータ拡張法を提案し,その有効性及び一般性を検証した。実験では,Grammarly Yahoo Answers Formality Corpus と FlickrStyle10K に対してデータ拡張を行い,元データ及び拡張済みデータでスタイル変換モデルを学習し,BLEUによる評価と統計的有意性の検証を行った. 実験より,平均編集距離が小さい文対において提案法の有効性が示された.
## 1 背景
自然言語処理におけるスタイル変換とは,与えられた文書を特定のスタイルを持つ別の文書に意味を保ちながら変換するタスクである,スタイルは,個人や集団の持つ意味を表現する方法という直感的な概念であるとされ (Mcdonald et al., 1985) [1], 例として, 丁寧さ (formality) や平易さ (simplicity) がある.近年の研究では,深層学習を活用したスタイル変換が一般的であるが,利用可能なパラレルデータが少ないためデータセットの不足が問題となっている。深層学習によるスタイル変換は,主に教師あり学習と教師なし学習からなり, 教師あり学習によるスタイル変換では,ニューラル機械翻訳に使用されていた時系列モデルが一般的に活用され (Niu et al., 2018; Xu et al., 2012) [2] [3],これを踏まえてマルチタスキングやデータ拡張の研究が行われている. 教師なし学習によるスタイル変換では,強化学習や敵対的生成ネットワークが活用されているが (Gong et al., 2019; Yang et al., 2018) [4] [5] , 現在でも教師あり学習がより高いスコアを上げている. Zhang ら (2020) [6] は,丁寧さのスタイル変換における機械翻訳モデルの逆翻訳を活用したパラレルデータ拡張法を提案した。当手法では,機械翻訳モデルが訳として丁寧な文章を出力することを利用する。 パラレルでないカジュアルな文に対して機械翻訳による逆翻訳を行い,対応する丁寧な文を取得する.実験により, 丁寧さのスタイル変換におけるデータ変換において最先端の結果を得たことが示された. しかし, データ拡張のためのモデルの学習コストが高いことや,丁寧さという特定のスタイルにしか手法を適用できないことが問題点として挙げられる。
本研究では,特定のスタイルに依存しない大規模な拡張文対の生成が可能なパラレルデータ拡張法を提案する。提案法は,中間文生成モデルを用いたパラレルデータ拡張法であり,スタイル変換におけるパラレルデータにおいて対応する文章が類似した意味を持つことを利用する.実験では,Grammarly Yahoo Answer Formality Corpus (GYAFC) (Rao et al., 2018) [7] と FlickrStyle10K (Chuang et al., 2017) [8] に対してデータ拡張を適用し,元データのみ及び拡張済みデータで学習させたスタイル変換モデルを BLEU によって比較評価することで提案法の有効性を検証した。結果として,適切な数の拡張文対を加えた元データにより学習されたモデルで BLEU が向上し,統計的有意性が示された。また,考察より中間文生成に用いる文対のペアの平均編集距離が小さい場合に有効な拡張文対が生成されることがわかり,平均編集距離が 2 以下の文対において提案法が特に有効であることが示された。
## 2 先行研究
## 2.1 テキストモーフィング
テキストモーフィング (Huang et al., 2018) [9] とは,2 入力文より意味的にそれらの間に存在する文を生成するタスクである。このタスクは,文章の意味を制御した滑らかな変化を伴う文章の生成を目的とする. テキストモーフィングの例を表 1 に示す.
表 1 テキストモーフィングの例 ([9] より引用)
$S_{\text {start }}$ : The noodles and pork belly was my favourite .
$S_{1}: \quad$ The pork belly was my favourite
$S_{2}$ : The pork was very good
$S_{3}$ : The stuff was very good .
$S_{3}$ : The stuff is very friendly
$S_{\text {end }}: \quad$ Love how friendly the stuff is !
## 2.2 中間文生成によるモーフィング
Wang ら (2019) [10] は,中間文の生成によるテキストモーフィングを提案した。ここで中間文とは,2 入力文に対して中間の意味を持つ文章を意味する. midgenerator はその中間文を生成するモデルであり,学習済みのオートエンコーダから生成された中間文を用いて微調整された GPT-2 (Radford et al., 2019) [11] である. 当論文では, 中間文の評価のために BERTScore (Zhang et al., 2020) [12] を用いた BERTScore Distance が定義された. BERTScore Distance は式 1 により計算される.
$
d_{B}(A, B)=1-B E R T \operatorname{score}(A, B)
$
また,微調整にはパープレキシティが 30 以下かつ GECToR (Omelianchuk et al., 2020) [13] よって訂正されなかったもので式 2 を満たす 5000 の開始文,終端文及び中間文が使用された.
$
\left|d_{B}\left(S_{\text {start }}, S_{\text {middle }}\right)-d_{B}\left(S_{\text {middle }}, S_{\text {end }}\right)\right|<0.05
$
実験により,従来手法と比較して当手法が意味を考慮したより直線的な中間文生成を行えることが示された. 直線的とは埋め込み空間上で中間文が開始文と終端文がなす直線に近いことを意味する。
## 3 提案手法
## 3.1 提案手法
本研究では,スタイル変換における新たなパラレルデータ拡張法として,中間文の生成を活用する方法を提案する。提案手法の概要を図 1 に示す.
提案手法は,以下の 3 つの処理を行いパラレルデータを拡張する。
1. 一方のスタイルから 2 文を取得してそれらの中間文を生成する
2. もう一方のスタイルから対応する 2 文を取得してそれらの中間文を生成する
3. 生成された 2 つの中間文を対応付けて拡張デー タとする
図 1 提案手法の概要
本手法は,データセットから文対のペアを取得し,中間文の生成によりデータ拡張を行うが, $n$ 個の文対を持つパラレルデータにおいて取得される文対のペアは ${ }_{n} \mathrm{C}_{2}$ であり,元データに対して 2 次に比例する量の拡張データが取得可能である.
## 3.2 提案手法における類推関係
本手法は,スタイル変換のパラレルデータが対応する文対が類似する意味を持つことを利用する.以下の式に提案手法における類推関係を示す.
$
\begin{aligned}
\text { 文 }_{i} & \leftrightarrow \text { 文 }_{i}^{\prime} \\
\text { 文 }_{i}: \text { 文 }_{i j}: \text { 文 }_{j} & \leftrightarrow \text { 文 }_{i}^{\prime}: \text { 文 }_{i j}^{\prime}: \text { 文 }_{j}^{\prime} \\
\text { 文 }_{i j} & \leftrightarrow \text { 文 }_{i j}^{\prime}
\end{aligned}
$
ここで,文 $i_{i}$ と文 $i_{i}$ が与えられ対応する文対であり, 文 ${ }_{i j}$ は文と文 $_{j}$ の, 文 ${ }_{i j}^{\prime}$ は文 ${ }_{i}^{\prime}$ と文 ${ }_{j}^{\prime}$ の中間文を表す。このとき,文 ${ }_{i}$ と文 $i_{i}^{\prime}$ と文と文 $_{j}^{\prime}$ は類似した意味を持つため,それぞれの意味的な中間文である文 $i j$ と文 $i_{i}$ は類似する意味を持つ.
## 3.3 新規性・有効性
本手法の新規性は,パラレルデータ拡張に類推関係を用いることに加え,文書生成モデルが生成した文でデータ拡張を行うことである。また,有効性として学習コストが低いこと,特定のスタイルに依存しない方法であることと二次に比例する数の拡張文対が取得できることが挙げられる.
## 4 実験
## 4.1 データセット
実験には,GYAFC (Rao et al., 2018) [7] と FlickrStyle10k (Chuang et al., 2017) [14]を使用した.
GYAFC GYAFC は, 1 文あたりの単語数が 5 語から 25 語までの意味が対応するカジュアルな文と丁寧な文の対からなる,丁寧さのスタイル変換のためのパラレルコーパスである。このコー パスは,データセットは,エンターテインメントと音楽 (Entertainment\&Music) 及び家族と人間関係 (Family\&Relationship) の二つのカテゴリからなる. なお,このデータセットは,学習用データ,検証データとテストデータに予め分けられている (Rao et al., 2018). GYAFC に含まれる文対の例を表 2 に, GYAFC の各カテゴリの文対の数を表 3 に示す.
表 2 GYAFC のEM カテゴリに含まれる文対の実例
丁寧 1 I am entirely off or does that help.
表 3 GYAFC の各カテゴリの文対の数
FlickrStyle10K FlickrStyle10k (Chuang et al., 2017) [14] は, Flickr30K (Hodosh et al., 2013) [8] を基に構築された,スタイルを明示的に制御したキャプション生成モデルによるデータセットである.このデータセットには,合計で 10,000 枚の画像が含まれており,各画像にはロマンチックなキャプションとユー モラスなキャプション対が付属する. 現在では, 7,000 枚分のみが利用可能である.Li ら (2018) [15] は,スタイル変換に本データセットを使用することを提案した. Guo ら (2019) [16] に従って,本研究の実験では,6,000 の文対を学習,500 の文対を検証, 500 の文対をテストに使用した. FlickrStyle10K に含まれる文対の例を表 4 に示す。
表 4 FlickrStyle10kに含まれる文対の実例
ロマンチック 1 A man uses rock climbing to conquer the high. ユーモラス 1 A man is climbing the rock like a lizard.
## 4.2 実験方法
実験は,データ拡張部と評価部から構成される。 データ拡張部元データから取得した全ての文対の組合せのうち,単語レベルの平均編集距離が小さい組合せに対して中間文を生成し,拡張文対を取得した. 実験のデータ拡張部の概要を図 2 に示す. なお,生成する中間文対の数は使用するデータの規模を基準に設定し,GYAFC の場合は 50,000, Flickr の場合は 5,000 の中間文対を拡張した.
図 2 データ拡張部の概要
評価部元データに一定量の拡張データを加えた複数の場合でスタイル変換モデルを学習し,BLEU (Panineni et al., 2002) [17] による評価を行なった.
GYAFC では,元データのみ及び $10,000 , 20,000$ , 30,000,50,000 の拡張文対を元データに加えた場合で Transformer (Vaswani et al., 2017) [18] にカジュアルから丁寧へのスタイル変換を学習させた。なお,モデルは 8 つの注意へッドと 4 層の 512 次元の隠れ層を持ち,512 次元の単語べクトルにより 32 の文対をバッチとして 0.0005 の学習率で学習された。
FlickrStyle10Kでは元データのみ及び $1,000,2,000$, 3,000,5,000 の拡張文対を元データに加えた場合で GRU (Chung et al., 2014) [19] にロマンチックからユーモラスへのスタイル変換を学習させた。なお, モデルは 2 層の 512 次元の隠れ層を持ち, 128 次元の単語ベクトルにより 8 の文対をバッチとして 0.00005 の学習率で学習された。
なお,モデルは OpenNMT-py ${ }^{1}$ (Klein et al., 2017) [20] 上のものを用いた。また,BLEU の測定には Sacrebleu $^{2}$ (Post et al., 2018) [21] を使用し,MosesDecoder $^{3)}$ (Koehn et al., 2007) [22] 上のツールによりモデルの統計的有意性を検証した。
## 5 実験結果と考察
## 5.1 実験結果
GYAFC の各カテゴリにおけるデータ拡張前及び拡張後の BLEUを表 5 に, FlickrStyle10K におけるデータ拡張前及び拡張後の BLEUを表 6 に示す。なお,有意性の検証により, $p<0.05$ となり有意と認められたモデルを以下の表において太字で示す.
1) https://github.com/OpenNMT/OpenNMT-py
2) https://github.com/mjpost/sacrebleu
3) https://github.com/moses-smt/mosesdecoder
表 5 GYAFCにおける拡張前及び拡張後の BLEU
表 6 FlickrStyle10K における拡張前及び拡張後の BLEU
実験より,GYAFC の両カテゴリにおいて BLEU が向上し,提案手法が有効であることが示された. しかし,拡張文対を増やしすぎた場合には BLEU が低下した. FlickrStyle10K でも同様に BLEU が向上したが,拡張文対を増やしすぎた場合には BLEU が低下した。また,有意性の検証では,F\&R カテゴリの元データと 20,000 の拡張文対で学習したモデルが $p<0.05$ となり有意性が示された.
## 5.2 考察
BLEU が低下した要因として,拡張文対数が増えたことにより開始文対と終端文対の平均編集距離が大きくなり,生成された中間文の意味が対応しなかったことが考えられる. GYAFC の E\&M カテゴリに含まれる文対の組合せと,平均編集距離ごとに生成された中間文対の例を表 7,8 に示す.
表より,平均編集距離が大きい中間文対が小さい中間文対に比べて意味が対応していないと直感的に評価できる.生成された中間文対の定量的評価のために,GYAFC の E\&M カテゴリにおける実験で生成した中間文対に対して, SentenceBERT (Reimers et al., 2019) [23] を用いて意味を考慮した文章べクトルを取得し,平均編集距離ごとにコサイン類似度を算出した. 編集距離ごとの類似度を図 3 に示す.
図 3 各平均編集距離における類似度表 7 GYAFC の E\&M カテゴリにおいて平均編集距離が 5 の文対の組合せから生成された中間文対の実例
表 8 GYAFC の E\&M カテゴリにおいて平均編集距離が 20の文対の組合せから生成された中間文対の実例
\\
\cline { 2 - 4 } & 文 $_{i j}$ & you can talk to her but not the guy! \\
\cline { 2 - 4 } & 文 $_{j}$ & \\
\cline { 2 - 3 } & 文 $_{i j}^{\prime}$ & I can talk to her to explain it. \\
\cline { 2 - 3 } & 文 $_{j}^{\prime}$ & \\
図より,中間文生成に使用する開始文対と終端文対の平均編集距離が近い場合において生成された中間文対の意味が類似することが示された. また,平均編集距離が大きくなるにつれて中間文対の類似度の平均が下がり,分散が大きくなることがわかった. GYAFC の E\&M カテゴリの元データでは,対応する文対のコサイン類似度の平均値は 0.787 となったため,平均編集距離が 1.5 程度の文対ぺアで提案法が有効だと考えられる。
## 6 おわりに
本研究では,特定のスタイルに依存しない大規模なデータ拡張法として,中間文生成を活用したパラレルコーパス拡張法の提案を行った。
実験により,GYAFC では適切な数の拡張文を加えた元データにより学習されたモデルで BLEU が向上し,拡張文対が多すぎる場合には BLEU が低下した. FlickrStyle10K でも同様に BLEU は向上したが,拡張文対が多すぎる場合には BLEU が低下した。また,有意性の検証では GYAFC の F\&R カテゴリにおいて 20,000 の拡張文対を元データに加えた場合で有意性が示された。考察より,中間文生成に用いる文対のペアの平均編集距離が小さい場合に有効な拡張文対が生成されることがわかり,平均編集距離が 2 以下の文対において提案法が特に有効であることが示された,今後の展望として,拡張文対のより良い抽出法の検討や機械翻訳での応用が考えられる。
## 参考文献
[1] David D. McDonald and James D. Pustejovsky. A computational theory of prose style for natural language generation. In Second Conference of the European Chapter of the Association for Computational Linguistics, Geneva, Switzerland, March 1985. Association for Computational Linguistics.
[2] Xing Niu, Sudha Rao, and Marine Carpuat. Multi-task neural models for translating between styles within and across languages. In Proceedings of the 27th International Conference on Computational Linguistics, pp. 1008-1021, Santa Fe, New Mexico, USA, August 2018. Association for Computational Linguistics.
[3] Wei Xu, Alan Ritter, Bill Dolan, Ralph Grishman, and Colin Cherry. Paraphrasing for style. In Proceedings of COLING 2012, pp. 2899-2914, Mumbai, India, December 2012. The COLING 2012 Organizing Committee.
[4] Hongyu Gong, S. Bhat, Lingfei Wu, Jinjun Xiong, and Wen mei W. Hwu. Reinforcement learning based text style transfer without parallel training corpus. In NAACL, 2019.
[5] Zichao Yang, Zhiting Hu, Chris Dyer, Eric P. Xing, and Taylor Berg-Kirkpatrick. Unsupervised text style transfer using language models as discriminators. In NeurIPS, 2018 .
[6] Yi Zhang, Tao Ge, and Xu Sun. Parallel data augmentation for formality style transfer. In Proceedings of ACL 2020, pp. 3221-3228, Online, July 2020. Association for Computational Linguistics.
[7] Sudha Rao and Joel Tetreault. Dear sir or madam, may I introduce the GYAFC dataset: Corpus, benchmarks and metrics for formality style transfer. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 129-140, New Orleans, Louisiana, June 2018. Association for Computational Linguistics.
[8] Micah Hodosh, Peter Young, and Julia Hockenmaier. Framing image description as a ranking task: Data, models and evaluation metrics. Journal of Artificial Intelligence Research, Vol. 47, pp. 853-899, 2013.
[9] Shaohan Huang, Yuehua Wu, Furu Wei, and M. Zhou. Text morphing. ArXiv, Vol. abs/1810.00341, , 2018.
[10] Pengjie WANG, Liyan WANG, and Yves LEPAGE. Generating the middle sentence of two sentences using pretrained models: a first step for text morphing. 言語処理学会第 27 回年次大会発表論文集, p. 1481-1485, 2021.
[11] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, et al. Language models are unsupervised multitask learners. OpenAl blog, Vol. 1, No. 8, p. 9, 2019.
[12] Tianyi Zhang*, Varsha Kishore*, Felix Wu*, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert. In International Conference on Learning Representations, 2020.
[13] Kostiantyn Omelianchuk, Vitaliy Atrasevych, Artem Chernodub, and Oleksandr Skurzhanskyi. GECToR grammatical error correction: Tag, not rewrite. In Pro- ceedings of the Fifteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 163170, Seattle, WA, USA $\rightarrow$ Online, July 2020. Association for Computational Linguistics.
[14] Chuang Gan, Zhe Gan, Xiaodong He, Jianfeng Gao, and Li Deng. Stylenet: Generating attractive visual captions with styles. 2017 IEEE Conference on CVPR, pp. 955964, 2017.
[15] Juncen Li, Robin Jia, He He, and Percy Liang. Delete, retrieve, generate: a simple approach to sentiment and style transfer. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 1865-1874, New Orleans, Louisiana, June 2018. Association for Computational Linguistics.
[16] Longteng Guo, Jing Liu, Peng Yao, Jiangwei Li, and Hanqing Lu. Mscap: Multi-style image captioning with unpaired stylized text. In 2019 IEEE/CVF Conference on CVPR, pp. 4199-4208, 2019.
[17] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. BLEU: a method for automatic evaluation of machine translation. In Proceedings of ACL 2002, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics.
[18] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in NIPS 2017, Vol. 30. Curran Associates, Inc., 2017.
[19] Junyoung Chung, Caglar Gulcehre, Kyunghyun Cho, and Yoshua Bengio. Empirical evaluation of gated recurrent neural networks on sequence modeling. In NIPS 2014 Workshop on Deep Learning, p. no page number, 2014.
[20] Guillaume Klein, Yoon Kim, Yuntian Deng, Jean Senellart, and Alexander Rush. OpenNMT: Open-source toolkit for neural machine translation. In Proceedings of ACL 2017, System Demonstrations, pp. 67-72, Vancouver, Canada, July 2017. Association for Computational Linguistics.
[21] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Brussels, Belgium, October 2018. Association for Computational Linguistics.
[22] Philipp Koehn, Hieu Hoang, Alexandra Birch, Chris Callison-Burch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, Chris Dyer, Ondřej Bojar, Alexandra Constantin, and Evan Herbst. Moses: Open source toolkit for statistical machine translation. In Proceedings of ACL 2007, pp. 177-180, Prague, Czech Republic, June 2007. Association for Computational Linguistics.
[23] Nils Reimers and Iryna Gurevych. Sentence-BERT: Sentence embeddings using Siamese BERT-networks. In Proceedings of EMNLP-IJCNLP 2019, pp. 3982-3992, Hong Kong, China, November 2019. Association for Computational Linguistics. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F6-2.pdf | # 応用を考慮した包括的な言い換えの類型: 現在の類型と課題
渡邊晃一朗 1,2 藤田響平 ${ }^{3}$ 永田基樹 ${ }^{3}$ 森遼太 ${ }^{3}$ 小代義行 ${ }^{3}$
1 東京大学大学院教育学研究科 ${ }^{2}$ 理化学研究所 ${ }^{3}$ 株式会社 pluszero
kouichirou-watanabe495@g.ecc.u-tokyo.ac.jp
\{fujita.kyohei, nagata.motoki, mori.ryota,ojiro.yoshiyuki\}@plus-zero.co.jp
## 概要
自然言語処理において、これまで言い換えの重要性は指摘されてきた。そして言い換えを理解するために、文法や意味において同一であると考えられる言語表現の対の関係の類型の作成が行われてきた。 しかし、意図まで考慮した上で、実際の応用の中で言い換えとみなしたい言語表現の対を考慮した類型の作成はなされてはこなかった。本研究では、応用において言い換えとみなす言語表現の対を考慮した言い換えの類型の提案を行う。応用を考慮した際、平易化においては難易度の調整を伴った言い換え、質問応答においてはある発話に後続する発話を想定した言い換えがそれぞれ必要であり、これらを包括的に扱うための類型を本研究では提案する。
## 1 はじめに
自然言語処理の分野では同じ意味を有するが異なる表記である言語表現の対を「言い換え」であると定義していた [1]。しかし、質問応答などの実際の応用を考えた時、厳密には同じ意味を有さないものの応用の観点から言い換えであるとみなしうるような言語表現の対が存在する。意味が同一ではないものの何らかの観点から言い換えであるとみなしうる言語表現の対の間の差異は “pragmatic difference” と呼ばれており [1]、その存在は指摘されてきたものの、Kovatchev ら [2] が “textual paraphrase" という語句を使ったように、意図などのようなテキストそれ自体からは考慮できないものを考慮した言い換えはこれまでの研究では十分に扱われてこなかった。以下、本研究では、意味としては同一でなくとも、何らかの観点から同一であると認識できる言語表現の対が言い換えであると定義し、実際の応用において言い換えとしてみなしうるものを考慮した言い換えの類型を提案する。ここでの応用は質問応答や平易化などを考慮している。質問応答での言い換えを考えた際には、ある発話の意味の同一性のみではなく、その後に続くと想定される発話の同一性を考慮することが必要である。このように、何らかの点で同一性があると考えられる言語表現の対を言い換えとして考慮する。
これまでの自然言語処理の分野において、以下で挙げるように言い換えの類型の提案がなされてきた。まず文法的な観点からの言い換えの類型を提案したものとしては、Dras [3] や Fujita [4] の研究が挙げられる。これらの研究は、文法の観点から考えられうる言い換えの類型を整理したもので、基本的に意味を考慮した言い換えを扱っていない。意味も含めて言い換えの類型を整理した研究として、まず挙げられるのが Bhagat ら [1] の研究である。Bhagat ら [1] は意味の観点から言い換えとみなせるものも含めて、25 個の類型に整理した。Vila ら [5] の研究は、基本的にこの Bhagat ら [1] が提唱した 25 個の類型を基礎として行われ、各類型の定義の精緻化を行った。最新の言い換えの類型として Kovatchev ら [2] が提案した Extended Paraphrase Typology (EPT) は Bhagat ら [1] が意味を考慮しているのに加えて、談話のレベルまで考慮した言い換えの類型である。
本研究は、応用として考えられるデータを出発点に、実際の応用で言い換えとみなした言語表現の対を考慮した言い換えの類型を提案する。既存研究では、実際の応用を考えた上での言い換えは考慮されていなかった。Kovatchev ら [2] が “textual paraphrase”を考慮すると述べていたように、基本的にテキストの表現とそれが表現する意味が同じであるとみなせる言語表現の対のみを既存研究は扱ってきた。本研究は、テキストが表現する意味が同じではないが応用の観点から考えたときに言い換えとみなしたいものを言い換えとして同定することを目的とする。そこで、Microsoft Research Paraphrase Corpus [6] のようにこれまでの言い換えのコーパスが表現として似ているものをある程度自動的に収集
しそれを基に構築されたのに対し、人手でデータを収集することから始め、言い換えとみなしたい言語表現の対を集めその類型を記述する。
## 2 方法と提案する類型
本研究は、以下の 2 つの段階で構成される:
1. 言い換えの類型の整理
2. データのアノテーション
まず、既存研究で提案された言い換えの類型を整理し、それらに新たな類型を加える形で包括的な言い換えの類型を作成した。この類型を用いて、応用において用いられるデータに対してアノテーションを行った。このアノテーション時にそれまでで作成された類型に該当しないような言い換えが存在した時、それを包括できるような類型を新たに追加した。結果として本研究で提案する類型を表 1 に示している。各層は複数の類型に共通するような区別にはなっておらず、単純に上下関係を意味する。
データとしては、応用を考慮して以下のものを扱った:
1. 質問応答システムにおける応答が同じと考えられる発話
2. 教科書における同一概念の説明
質問応答については、その意図と回答が同一であることが望まれる質問群にある質問がお互いに言い換えであるとみなして収集した。教科書においては、異なる校種間、特に小学校と中学・高校の教科書において同一の概念の説明を行っている部分を主に取り上げた。これは応用として平易化を主に考慮しており、特に同一概念の説明の平易化を主に扱ったデータとして本研究で扱っている。
データのアノテーションは、言い換えとみなしたい言語表現の対をデータから抽出しにれを抽出対と呼ぶ)、一方に対し言い換えの類型を適用して他方に変換するということを複数回行った。この時、 1 回の変換で 1 つの類型を適用し、既存の類型で変換が不可能だと判断された場合、新しい類型の追加を行った。例えば、以下のような抽出対を考える1):
1a 沿岸や沖合いにおける水産資源管理の試みに加えて、人工孵化による放流を行う栽培漁業が注目されるようになった。
1b 沿岸や沖合いにおける水産資源管理の試み
1)本論文では、言い換えとみなす対を示した時、その間で差異がある部分を太字で示す。
に加えて、魚のたまごから稚魚を育てて放流する栽培漁業が注目されるようになった。
で行われる:
1.「本質的意味の活用」のうち「含意関係の活用 (動詞)」を適用: 沿岸や沖合いにおける水産資源管理の試みに加えて、魚のたまごから稚魚を育てて放流を行う栽培漁業が注目されるようになった。
2.「抽象-具体」のうち「既存語彙資源で可」の下位類型「ドメイン適合不要」を適用: 沿岸や沖合いにおける水産資源管理の試みに加えて、魚のたまごから稚魚を育てて放流する栽培漁業が注目されるようになった。
以上の手続きを経て結果として、得られた抽出対の数は 179 対、合計の変換の回数は 1074 回であった。本研究では、複数人で協議しつつアノテーションを行った。
## 3 議論
## 3.1 類型の敷衍
本研究で特に重要と位置付ける以下の類型を例を挙げながら詳述する:
1. 語義
2. 応答
語義については、ある語句に対して、その類義語や上位・下位語を扱うだけでなく、それの辞書的な語義で置き換えることで言い換えをしていると考えられるような事例があることが実際に教科書で見られた。以下に例を挙げる:
2a 夏の季節風は、とくに東アジアから南アジアにかけて多くの雨をもたらすため、雨季そのものをモンスーンということもある。
2b 夏の季節風は、とくに東アジアから南アジアにかけて多くの降水をもたらすため、夏の雨が多い時期そのものをモンスーンということもある。
この例は、「雨季」をその語義で置き換えた言い換えである。
この例ではある語句をその語義を変換することなく置き換えれば言い換えが成立するが、加えて前後の文脈に応じて補うように追加で変換を行う必要が
表 1 言い換え類型: Bhagat ら [1] と EPT [2] の列はこれら既存研究に存在したかを示し、新規の列は本研究で新たに提案された類型であるかを示している。
ある場合がある。以下に例を挙げる:
3a 温度が一定のとき、一定量の気体の圧力 $\mathrm{P}$ は気体の体積 V に反比例する。
3b 温度が一定のとき、一定量の気体の圧力 $\mathbf{P}$ が 2 倍、 3 倍となっていくとき、気体の体積 $\mathbf{V}$ が 2 分の 1 倍、 3 分の 1 倍となる。
この例では「反比例」をその語義によって言い換え
ていると考えられるが、「一定量の気体の圧力 $\mathrm{P}\rfloor や$「気体の体積 V」といった表現を補わなければならない。このような例を考慮すると、自動的な言い換えを生成する際には語義に応じた処理が必要であると考えられ、その処理の必要性の有無を類型に反映している。
このような語義を用いた言い換えは異なる校種間の教科書を比較した際に見られ、テキストの難易
度を操作する平易化において有用であると考えられる。
次に、応答については、考慮される対のみだけでなく、その前後の文脈の同一性を考慮したような言い換えを考慮している。以下に例を挙げて示す:
4a 具体的な停止位置はどこなのか
4b 具体的な停止位置を教えて
この例では一方は疑問文、もう一方は命令文であり文法的な類型とその意味は異なるが、想定される応答が同じであることから言い換えとみなしうる。特に質問応答を応用として考慮すると、異なる発話の対の同一性はそれらに続く応答の同一性から得られうる。このように、本研究で提案する言い換えの類型は、考慮される対のみだけでなく、その前後の文脈の同一性を考慮したような言い換えを考慮している。この応答を考慮した言い換えは質問応答における自動応答において有用であると考えられる。
## 3.2 今後の展開
現在の類型において、より詳細な類型が必要である部分を議論する。ここでは「例外系」の中でも特に「追加・削除」という類型を取り上げる。この追加・削除という類型は既存研究で提案された類型でも存在し、本研究でもそれを継承したが、明確にどのような類型であるのかについては言及されてこなかった2)。
追加・削除と考えられるような対の関係について、まだ十分に議論を尽くしているとは言えない状況である。特に、追加・削除されるものにどのようものがあるのかについての知見はまだ得られていない。追加・削除により生じる対の間の意味の差異は先行研究でも “content loss” と呼ばれて存在が指摘されていた [5] が、言い換えとみなしうる対において起きている content loss の体系的な整理はなされていない。言語表現の変換をする際には content loss は必然的に起きうるものであり、content loss の体系的な整理を目指して、既存研究で提案されてきたコーパスも踏まえた上で、追加・削除とみなされる対のより詳細な類型の構築をすることが今後の課題として挙げられる。この追加・削除という類型には少なくとも主に 2 つの類型が存在する。1つ目は意味に大
2)類似した類型として同じく「例外系」の 1 つの類型である 「省略」が存在するが、与えられた対から変更部分が自明に復元可能であるものを省略、そうでないものを追加・削除として分類した。
きな変更がない場合であり、2つ目は意味に大きな変更があるものの応用の観点からは言い換えとみなしたい場合である。
まず、追加・削除がなされても意味に大きな変更がない場合の例を挙げる:
$5 a$ 近くの植物などとの距離はどの程度で大丈夫か
$\mathbf{5 b}$ 近くの植物との距離はどの程度で大丈夫か
この例のように「など」のような語句の追加・削除は対の間で大きな意味の差異を生まないと考えられる。
一方で追加・削除がなされると意味に大きな変更があるものの応用の観点からは言い換えとみなしたい場合は以下のような場合である:
6a 許容範囲内の-とはどの程度の-を指すか
6b -とはどの程度の-を指すか。
この例の「許容範囲内の」のように、追加・削除と分類される対の中で大きく意味が異なるような対が存在する。
その他、言語特有の問題も挙げられる。以下に例を示す:
$7 a$ 点検の時の注意点は何か。
$7 b$ 点検時の注意点は何か。
この例のような「の」の追加・削除については、対の間で意味内容が大きく変わらない。このような機能語の追加・削除については個別言語に依存する部分があり、英語が主に考慮されていた既存研究では十分に考慮されてきたとは言えない。実際の応用においては個別言語に適した類型を用いる必要があり、本研究においては日本語特有の追加・削除の類型を検討する必要がある。
## 4 おわりに
本研究では、既存の言い換えの類型を整理した上で、応用を考慮した新たな言い換えの類型を提案した。議論の部分で述べた通り、今後はより詳細な類型を立てることが必要であるため、今後はデータの収集と類型の精緻化を、特に追加・削除の部分について行っていく。本研究で提案した言い換えの類型を基礎として、今後は自動対話や平易化のシステムの構築を行うことを予定している。
## 謝辞
本研究は株式会社 pluszero との共同研究「言い換えに関する研究」の助成を受けたものです。また、 データのアノテーションにおいては井上峻之介氏と杉本智紀氏のご協力を頂きました。
## 参考文献
[1] Rahul Bhagat and Eduard Hovy. What is a paraphrase? Computational Linguistics, Vol. 39, No. 3, pp. 205-218, 2013.
[2] Venelin Kovatchev, Antònia Martí, and Maria Salamó. Etpc: A paraphrase identification corpus annotated with extended paraphrase typology and negation. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation, pp. 1384-1392, 2018.
[3] Mark Dras. Tree Adjoining Grammar and the Reluctant Paraphrasing of Text. Macquarie University, 1999.
[4] Atsushi Fujita. Automatic Generation of Syntactically WellFormed and Semantically Appropriate Paraphrases. Nara Institute of Science and Technology, 2005.
[5] Marta Vila, Antònia Martí, and Horacio Rodríguez. Is this a paraphrase? what kind? paraphrase boundaries and typology. Open Journal of Modern Linguistics, Vol. 4, pp. 205-218, 2014.
[6] William Dolan and Chris Brockett. Automatically constructing a corpus of sentential paraphrases. In Proceedings of the Third International Workshop on Paraphrasing, pp. $9-16,2005$. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F6-3.pdf | # 供述調書に現れる数量表現の推論テストセットの構築
小谷野華那 ${ }^{1}$ 谷中瞳 $^{2}$ 峯島宏次 ${ }^{3}$ 福田浩司 4 橋爪宏典 5 戸次大介 ${ }^{1}$
1 お茶の水女子大学 2 東京大学 3 慶應義塾大学
4 日本電気株式会社 ${ }^{5} \mathrm{NEC}$ ソリューンョンイノベータ株式会社
\{koyano.kana, bekki\}@is.ocha.ac.jp hyanaka@is.s.u-tokyo.ac.jp
minesima@abelard.flet.keio.ac.jp \{h.fukuda,h_hashidume\}@nec.com
## 概要
昨今の自然言語処理の発展により、刑事手続きにも意味解析の応用が試みられている。供述調書では頻出する数量表現の意味を正しく処理することが求められる。また数量表現が現れる文の推論では、含意と推意の間で判定が異なり、平叙文と否定文、条件文では含意関係が反転する場合がある。そこで本研究では、供述調書に現れる数量表現に対して、高度な意味アノテーションを付与した数量表現コーパス、および数量表現の推論テストセットの構築を行い、ベースライン実験による評価を行なった。
## 1 はじめに
昨今の自然言語処理の発展により、刑事手続きの文書にも意味解析技術の応用が試みられている。供述調書には数量表現が頻出するため、数量表現の意味を正しく処理することは特に重要である。そのような用途に供する言語処理技術を開発し、正しく評価するために、実テキストの数量表現の理解を問うデータセットが求められている。
含意関係認識(自然言語推論)は、前提文が真であるとき、仮説文が必ず真(=含意)か、必ず偽 (=矛盾)か、どちらともいえない(=中立)かを判定するタスクであり、テキスト間の言語理解の基礎をなすタスクの一つである。推論を構成する関係には、含意 (entailment) と推意 (implicature) がある。例えば、次の前提文 (1) と仮説文 (2)を考えよう。
(1) 男性が道端に 4 人座っていた。
(2)男性が道端に 5 人座っていた。
(1)を少なくとも 4 人座っていた」と解釈すればこの推論の含意ラベルは中立になる。しかし、Grice の量の格率 $[1]$ より、もし話者が 5 人座っていたことを知っていたとすればそう言うはずなので、わざ
わざ(1)のように述べたということは「5 人目は存在しない」と考えられ、推意ラベルは矛盾になる。
このように数量表現が現れる文間の推論では数詞の違いや数量表現の用法によって含意と推意の間で判断が異なるため、両者を区別して考える必要がある。また、平叙文と否定文、条件文では判定ラベルが反転するという特徴もある。
そこで本研究では、刑事手続きに関連する実テキストのうち数量表現を含む文と、NPCMJ[2] から抽出した否定文、条件文を用いて、数量表現の分類や用法などについて高度な意味アノテーションを付与した数量表現コーパスを構築する。さらに、数量表現コーパスをもとに、数量表現の推論テストセットを構築する。本稿では、数量表現コーパスと推論テストセットの設計と、ベースライン実験の評価結果について報告する。構築したデータセットは、研究利用可能な形式で公開する予定である。
## 2 関連研究
英語では、数量表現を含む推論テストセット [3] があり、含意、矛盾、中立の 3 つのカテゴリに 2,532 件ずつ計 7,596 件の文ペアが含まれている。しかしこの推論テストセットに対しては、数量表現の推論が単純なテンプレートに基づいて構築されているため、いくつかのヒューリスティックスで大部分の問題(全体の約 $82 \%$ )を解くことができてしまうという批判がある [4]。また、英語の scalar implicature のデータセットとしては [5] があるが、このデータセットはテンプレートから自動で構築されており、文は比較的単純なものが多い。
日本語の推論データセットとしては、形式意味論テストセットの JSeM [6]、英語 SNLI [7] の日本語版である JSNLI [8]、英語 SICK [9] の日本語版である JSICK [10]、旅行情報サイトの評判という実テキストからクラウドソーシングで構築された JRTEC [11]
などがあるが、日本語の数量表現の統語的・意味的な多様性は十分に考慮されていない。
成澤ら [12] は、日本語の含意関係認識において数量表現が問題になる事例に焦点を当て分析を行い、数量表現の規格化のためのモジュール実装と評価を行なった。成澤らは、数量表現が出現する文ペアを 7 つのカテゴリに分類し、正しく含意関係を判定するために必要な処理について述べているが、数量表現自体の分類や、数詞の違いによる含意ラベルと推意ラベルの判定の違いについては言及していない。
本研究では、実テキストにおける日本語の数量表現に高度な意味アノテーションを付与した数量表現コーパスを構築し、そのコーパスをもとに推論ペアを作成し、含意と推意の両方のラベルを付与した推論テストセットを構築する。
## 3 数量表現の意味と推論
## 3.1 数量表現の分類
助数辞の分類飯田 [13] によると、助数辞は分類辞、単位形成辞、計量辞の 3 つに分類される。これに加えて、数量表現には時間や系列の中の順序を表す「3 月」「1 番」のような序数辞(順序数詞)[14] を伴うものがある。そこで、本研究では、飯田の 3 分類と序数辞を合わせた 4 分類を用いる。各助数辞の例を表 1 に示す。
表 1 各分類ごとの助数辞の例とアノテーション件数
助数辞の分類には、表層形から一意に定まらず、文脈や用法によって分類が変わる助数辞も存在する。たとえば、「会議室は建物の 3 階にある」に現れる「階」は序数辞であるが、「ここから 3 階のぼったところに会議室がある」に現れる「階」は計量辞である。前者は特定の位置を指しているのに対し、後者は 3 フロア分上の階に上がるという意味であり、会議室が 3 階に位置しているという意味ではない。
数量表現の出現位置岩田 [15] は、名詞 $\mathrm{N}$ についてその数とカテゴリー情報を数量表現 $\mathrm{Q}$ が表すものについて、日本語百科事典で定義されている $\mathrm{Q}$ ノ $\mathrm{NC}$ 型、 $\mathrm{N} / \mathrm{QC}$ 型、 $\mathrm{NCQ}$ 型、 $\mathrm{NQC}$ 型の 4 分類に加えて、述部型、デ格型の 2 分類を新たに追加してい
る。本研究ではこれに加えて、新たに数量表現の出現位置として、「3 回行った」のように動詞 Vを意味的に修飾する QV 型、イベント名詞句 Nv を修飾する NvCQ 型、いわゆる代名詞的用法の「3 人は」 など $\mathrm{N}$ が脱落しているもの、「1 時間(で) 500 円」「1 ヶ月に 1 回」のように時間表現と数量詞が連続する QtQ 型、イディオム・慣習的用法を追加し、数量表現の出現位置について分析を行なった。出現位置の例を表 2 に示す。
表 2 出現位置の例とアノテーション件数
数量表現の用法岩田が研究対象とした数量表現 $\mathrm{Q}$ の用法に加えて、本研究では、名詞 $\mathrm{N}$ を修飾する数量表現 $\mathrm{Q}$ の用法について新たに 3 つの分類を追加し、動詞 Vを修飾する数量表現 $\mathrm{Q}$ の用法として 3 つの分類を追加した。さらに、Nvを修飾する数量表現 $\mathrm{Q}$ の用法とイディオム用法を追加した。用法の分類とその例を表 3 に示す。
表 3 用法の分類の例とアノテーション件数
## 3.2 数量表現の推論
意味論と語用論の区別推論を構成する関係には含意と推意が存在し、含意ラベルと推意ラベルで判断が異なる場合がある。含意では、前提文と仮説文に意味論的に含まれる情報のみから推論を行なっている。これに対して推意では、通常の会話が協調の原則に従って進行していることから、Grice の会話
の格率 [1] にみられるように、文脈や発話者の意図を考慮して、発話に含まれていない情報でも成立すると推測することがある。そのため、推意は含意と異なる判定になる場合がある。
下方含意文脈 $M$ が $N$ の下位概念とすると、通常は下位概念を含む文 $\varphi(M)$ は上位概念を含む文 $\varphi(N)$ を含意する。数量表現の場合、例えば、「200 人」は「100人」の下位概念であり、「会場に 200 人いる」が真であれば「会場に 100 人いる」も真である。しかし、否定文や条件文の前件などのいわゆる下方含意文脈では、含意関係が反転し、上位概念を含む文 $\varphi(N)$ が下位概念を含む文 $\varphi(M)$ を含意する場合がある。例えば、「会場に 100 人はいなかった」 は「会場に 200 人はいなかった」を含意する。
## 4 数量表現のアノテーション
## 4.1 供述調書テキストデータ
刑事手続きの実テキストとして、実際の事件記録に沿った教材として作成された法務総合研究所作成の事件記録教材を用いる $[16,17]$ 。本教材には、一冊ごとに、一つの事件を対象として刑事手続上で作成される事件記録が掲載されている。事件の発生時期・場所、登場する人物、団体、地名等は,いずれも実際の事件と関係のない架空のものであるが、取扱状況報告書、被害者、加害者に対する供述調書、被害届、被害状況確認報告書などが、実際の事件記録に沿った形式で編集されているので、検察官が供述間の整合性の確認や矛盾有無を議論する過程を模擬的に検討することが可能である。
本研究でサンプリングしたデータは被害者、加害者に対する供述調書が中心であるが、被害者と加害者間の供述内容が不整合であるケースを取り上げている。特に、数量表現の不一致にもとづく不整合が多くみられるため、数量表現間の正確な推論が重要となる応用領域の一つである。
## 4.2 数量表現コーパスの構築
本研究では、供述調書テキストデータに含まれる数量表現 613 件と NPCMJ[2] から抽出した否定文、条件文に含まれる数量表現 81 件の計 694 件について、言語学の素養のある大学院生 1 名がアノテー ションを行なった。
タグ付け文中に現れる数量表現に<num>タグを付与し、 3 章で述べた助数辞の分類、出現位置、用法についてアノテーションを行った。文中に複数の数量表現が現れる場合は、数量表現 1 つに<num>夕グを付与した。また、数量表現のうち、代名詞的用法、数詞 1 を含むもの、遊離数量詞、一定期間に関する数量表現、数量表現が修飾する名詞がなく裸で出てくるもの、「のうち」や「含め」などの要素数に関する記述があるもの、数量詞修飾がついているもの、イディオム、漢数字、否定表現について、それぞれ区別できるようアノテーションを行なった。
コーパスに含まれる助数辞の分類は表 1 、出現位置は表 2、用法は表 3 に示したものを使用した。
## 5 数量表現の推論テストセット
## 5.1 推論テストセットの作り方
前提文は、4 節でアノテーションを行なった文を用い、仮説文は(3)のように<num>タグが付与されている数量表現について(4)のように意味を変えない最小の節を取り出し、数詞の変更を行い数量詞修飾を付与することで作成した。
(3) 私は,20 年位前にスリで<num>3 回</num>位警察に逮捕され,1度は刑務所に入ったこともありましたが,その後は真面目に生活していました。
(4)私は、スリで 10 回以上警察に逮捕された。
前提文 $T$ 中の数詞に対して、数詞が 20 未満の場合は、マイナス 1 の数詞に置き換えた仮説文 $H_{-}$と、 プラス 1 の数詞に置き換えた仮説文 $H_{+}$の 2 つを作成し、推論テストセットを構築した。数詞が 20 以上の前提文に対しては、数詞をプラスマイナス 5 ずつ行い、 $H_{-} H_{+}$を作成した。数詞が大きいケース (例:2万 5000 円)については、一番大きい桁(例: 2 万)の数字を基準にプラスマイナス 1 を行い仮説文を作成した。表 4 の1つ目の例のように、数量表現に「くらい」などの数量詞修飾がついている場合は、上記のルールに従って仮説文を作成すると判定ラベルが全て中立になってしまうため、そのような場合は非文にならない範囲で推意ラベルがなるべく中立にならないように数字を変更した。また、表 4 の2つ目のように、数量詞修飾を追加すると非文になる場合は、意味が変わらないように語順を入れ替えて仮説文を作成した。本研究では、イディオム的用法は数詞の変更や数量詞修飾を追加すると非文になるため、推論テストセットからは除外している。
& 推意ラベル & & 推意ラベル \\
表 5 日本語 BERT を用いたベースライン実験の結果(正答率)
上記のルールで作成した推論テストセットに対して、アノテータ1名が判定ラベルを付与した。
## 5.2 テストセットの概要
本研究で作成した推論データセットには 1124 件の文ペアが含まれており、各文ぺアに対して含意ラベルと推意ラベルをそれぞれ付与している。推論テストセットの統計情報を表 6 に、前提文と仮説文の例を表 4 に示す。含意ラベルで中立になるものについて、推意ラベルでは矛盾になる場合があるため、各ラベルの矛盾と中立の数が異なっている。
表 6 推論テストセットの統計情報
## 5.3 ベースライン実験
現状の標準的な言語処理技術がどの程度、数量表現の理解を必要とする推論を扱えるのかを評価するため、日本語 BERT [18] をべースラインモデルとして評価実験を行った。実験では、学習データとして JSICK(5000 件)、JSNLI(53 万件)を用いた。表 5 に含意関係認識モデルの評価結果を示す。全体としては JSICKを学習した場合よりも JSNLIを学習した場合の方が日本語 BERT の正答率が高い傾向がある
が、両方とも 5 割を下回っていた。とくに、含意の正答率が 6 割を超えたのに対して、矛盾と中立の正答率は 4 割を下回ったことから、既存のデータセットでモデルを学習すると含意と予測してしまう傾向が示唆される。学習データの違いによる正答率の違いとしては、含意ラベル、推意ラベルの両方とも JSICK より JSNLIを用いた場合の方が矛盾の正答率が上がっており、これは JSNLI の方が学習データの件数が多いことが理由として考えられる。
## 6 おわりに
本研究では、供述調書内の数量表現を含む文と NPCMJ から抽出した否定文、条件文を用いて、数量表現の分類や用法などの高度な意味アノテーションを付与した数量表現コーパスの構築と推論テストセットの構築を行った。ベースライン実験として日本語 BERT の評価を行い、本研究で構築した数量表現の推論テストセットが、現状の言語処理技術において挑戦的な課題であることを確認した。今後は、数量表現コーパスと推論データセットの拡張を進めるとともに、構築したデータセットを用いて現在の含意関係認識システムの分析と評価を進めていく。
謝辞本研究の一部は、日本電気株式会社・お茶の水女子大学の共同研究「捜査資料内のテキスト意味解析に関する研究」、JST CREST JPMJCR20D2、
JST さきがけ JPMJPR21C8 の支援を受けたものである。
## 参考文献
[1] Stephen Levinson. Pragmatics. Cambridge University Press, 1983.(S. レヴィンソン『英語語用論』,安井稔・奥田夏子訳, 研究社出版, 1990)
[2] NINJAL. NINJAL Parsed Corpus of Modern Japanese. (Version 1.0). Technical report, National Institute for Japanese Language and Linguistics, 2016. https://npcmj.ninjal.ac.jp/.
[3] Aakanksha Naik, Abhilasha Ravichander, Norman Sadeh, Carolyn Rose, and Graham Neubig. Stress test evaluation for natural language inference. In Proceedings of the 27th International Conference on Computational Linguistics, pp. 2340-2353, Santa Fe, New Mexico, USA, August 2018. Association for Computational Linguistics.
[4] Nelson F. Liu, Roy Schwartz, and Noah A. Smith. Inoculation by fine-tuning: A method for analyzing challenge datasets. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 2171-2179, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[5] Paloma Jeretic, Alex Warstadt, Suvrat Bhooshan, and Adina Williams. Are natural language inference models IMPPRESsive? Learning IMPlicature and PRESupposition. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8690-8705, 2020.
[6] Ai Kawazoe, Ribeka Tanaka, Koji Mineshima, and Daisuke Bekki. An inference problem set for evaluating semantic theories and semantic processing systems for japanese. In New Frontiers in Artificial Intelligence, pp. $58-65,2017$
[7] Samuel R. Bowman, Gabor Angeli, Christopher Potts, and Christopher D. Manning. A large annotated corpus for learning natural language inference. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 632-642, 2015.
[8] 吉越卓見, 河原大輔, 黒橋禎夫. 機械翻訳を用いた自然言語推論データセットの多言語化. 第 244 回自然言語処理研究会, 2020.
[9] Marco Marelli, Stefano Menini, Marco Baroni, Luisa Bentivogli, Raffaella Bernardi, and Roberto Zamparelli. A SICK cure for the evaluation of compositional distributional semantic models. In Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC'14), pp. 216-223, 2014.
[10] 谷中瞳, 峯島宏次. JSICK: 日本語構成的推論 - 類似度データセットの構築. 第 35 回人工知能学会全国大会, 2021 .
[11] Yuta Hayashibe. Japanese realistic textual entailment corpus. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 6827-6834, 2020.
[12] 成澤克麻, 渡邊陽太郎, 水野淳太, 岡崎直観, 乾健太郎. 数量表現を伴う文における含意関係認識の課題分析. 言語処理学会第 18 回年次大会発表論文集, 2012.
[13] 飯田隆. 日本語と論理. NHK 出版, 2019.
[14] 奥津敬一郎. 拾遺日本文法論. ひつじ書房, 1996.
[15] 岩田一成. 日本語数量詞の諸相. くろしお出版, 2013.
[16] 法務総合研究所. 事件記録教材: 法科大学院教材. 第 15 号 (窃盗被疑事件). 法曹会, 2014.
[17] 法務総合研究所. 事件記録教材: 法科大学院教材. 第 15 号 (暴行機凝事件). 法曹会, 2014.
[18] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), 2019. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F6-4.pdf | # ニューラルモデルとタブロー法を用いた自然言語推論 のモデル理論的な定式化
佐治 礼仁 1 加藤 芳秀 2 松原 茂樹 1,2
1 名古屋大学大学院情報学研究科 2 名古屋大学情報連携推進本部
saji.ayahito.y7@s.mail.nagoya-u.ac.jp
## 概要
自然言語推論とは,2つのテキストの間に成立する推論的関係を同定するタスクである. Saji ら [1] は,ニューラルモデルに基づく自然言語推論システムと記号操作的な証明手法であるタブロー法を組み合わせた手法を提案したが,その理論的限界は明らかではない. 本論文では,Saji らの手法をモデル理論的に定式化し,その定式化に基づいて,手法の性質とその限界を明らかにする。
## 1 はじめに
自然言語推論とは,2つのテキスト(一方を前提,他方を仮説と呼ぶ)の間に成り立つ推論的関係を同定するタスクである.論理的知識や常識的知識を用いて前提から仮説が導出可能である場合は含意,前提と仮説が両立しえない場合は矛盾, そのいずれでもない場合は中立と判定する.質問応答や情報検索,テキスト要約などの幅広い分野での利用が期待されている.
近年,ニューラルモデルに基づく手法が自然言語推論において用いられている(例えば,[2])。ニュー ラルモデルは単純でありながら,SNLIコーパス [3] やMNLIコーパス [4]を用いた実験において高い正解率を達成している. しかし一方で,この手法には,判定結果に至る過程や理由を説明する能力を持たないという問題がある.ニューラルモデルの内部はブラックボックス化しており,どのような推論が行われたのかを推察することも困難である。一方,自然言語推論への記号操作的な手法(例えば, $[5,6,7]$ )が提案されている.この手法は,ニューラルモデルによる手法と異なり, 結果に至る推論過程が人間にとって理解可能であるという利点が挙げられる. また,この手法における記号操作は一般に,形式論理学や言語学による裏付けが与えられてお
り,そのような推論を行った根拠を与えることができる.
Saji ら [1] はこの二つの手法を組み合わせ,ニュー ラル自然言語推論モデルに,記号操作的手法のような推論過程を明示化する性質を付加する手法を提案している.この手法は, 形式論理の証明法の一つであるタブロー法をその背景としているが,その理論的限界は明らかにされていなかった。
そこで本論文では, モデル理論的に Saji らの手法を定式化し,その定式化に基づいて,この手法の理論的限界を明らかにする. 具体的には Saji らの手法について,ある種の健全性が成立する一方で,完全性が成立しないことを示す.
## 2 ニューラルモデルとタブロー法を 用いた自然言語推論
## 2.1 タブロー法の概略
本節では,Saji らのタブロー法について説明する。 このタブロー法は,自然言語文と真偽値の対の集合が与えられたとき,その集合中のすべての文にその対となる真偽値を割り当てることが可能か否かを証明する。自然言語推論とタブロー法の関係は次のように整理されている. ${ }^{1)}$
- 前提,仮説が共に真となるような真偽値割り当てが存在しないことが証明されるとき,それは前提と仮説が矛盾の関係にあることを意味する。
・前提が真,仮説が偽となるような真偽値割り当てが存在しないことが証明されるとき,前提が真であるならば仮説も真となるのは必然である,すなわち,前提が仮説を含意することを意味する。
・どちらの証明もできない場合は,前提と仮説は中立の関係にあることを意味する。
タブロー法では,与えられた文,真偽値の対の集合をもとに, タブローと呼ばれる木構造を構成する. タブローのノードのラベルは, 3 つ組 $(s, X): Y$ であり,エントリと呼ばれる。これは,文 $s$ が真偽值として $X$ を取らなければならないという制約を示しており, $Y$ は,このエントリに対して後述するタブロー規則が適用されたか否かを表すフラグである. 真偽値は,Tか $\mathrm{F}$ のいずれかであり,それぞれ真と偽を表す.フラグは,0か 1 のいずれかであり, 0 はタブロー規則が未適用, 1 は適用済みであることを表す. 初期タブローは,与えられた自然言語文と真偽値の対に対して,規則が適用されていないことを示す值 0 をフラグとして付加したエントリから構成される.これにタブロー規則をエントリに対して繰り返し適用することによりタブローは導出される。タブロー規則の適用により,エントリが表現する制約は,より単純な文に関する制約へと分解され,新たなエントリとしてタブローに付け加えられる. タブローにおける枝分かれは場合分けに相当する. この分解により, 推論の過程が明示化される. タブロー規則は,以下の形式で表現される. ${ }^{2)}$
$
\left(C_{1,1} \wedge \cdots \wedge C_{1, n_{1}}\right) \vee \cdots \vee\left(C_{m, 1} \wedge \cdots \wedge C_{m, n_{m}}\right)
$
ただし, $C_{1,1}, \cdots, C_{1, n_{1}}, \cdots, C_{m, 1}, \cdots, C_{m, n_{m}}$ は自然言語文と真偽値の対を入力とし, 自然言語文と真偽値を出力する関数である. タブロー中に, 次のようなエントリ $(s, X): Y$ が存在するとき,それが支配するすべての葉に新たな $m$ 個の枝 $\left.\langle C_{1,1}(s, X): 0, \cdots, C_{1, n_{1}}(s, X): 0\right.\rangle, \cdots,\left.\langle C_{m, 1}(s, X)\right.$ : $\left.0, \cdots, C_{m, n_{m}}(s, X): 0\right.\rangle$ を追加する.
・すべての $C_{i, j_{i}}$ について, $C_{i, j_{i}}(s, X)$ は未定義でない. ${ }^{3)}$
- $Y=0$.
タブロー規則の適用は,適用元のエントリが表現する制約を,それと等価な制約へと変換する操作と位置づけられる。例えば, (Either Smith or Anderson signed the contract, $\mathrm{T}$ ): 0 に図 1 左の規則を適用すると,その経路の終点(タブローの葉)に2つのエントリ (Smith signed the contract, T): 0 と (Anderson signed the contract, $\mathrm{T}$ ): 0 が追加される. また,導出元のエントリである (Either Smith or Anderson signed the contract, T): 0 のフラグを 1 に変更する. 新たに追加
選言に関する規則条件法に関する規則
図 1 タブロー規則の例
された 2 つのエントリにより表現される制約は,元のエントリの制約と等価である.
## 2.1.1 タブローの閉鎖
真偽値を割り当てることができないという事実は,経路,及びタブローの閉鎖という概念により表現される。一般のタブロー法においては,経路上に真偽値のみが異なるエントリが存在することをもって閉鎖経路を定義しているが,Saji らの手法では, これに加えてニューラル自然言語推論モデルに基づく閉鎖経路を定義している. 自然言語推論モデルは,前提 $p$ と仮説 $h$ を力力とて受け取ると,それを含意 (E),中立 (N),矛盾 (C)のいずれかのクラスに分類すると想定する.以下では, $L \times L(L$ は文の集合)から $\{E, N, C\} への$ 関数を NLI システムと呼び, $N L I(p, h)=$ C といった表記を用いる. 経路上に $2 \supset$ のエントリ $\left(s_{1}, X_{1}\right): 0,\left(s_{2}, X_{2}\right): 0$ が存在し, 次のいずれかが成り立つとき,その経路は閉じているという. 以下では,これを経路の閉鎖条件と呼ぶ.
- $X_{1}=\mathrm{T} \wedge X_{2}=\mathrm{F} \wedge s_{1}=s_{2}$
- $X_{1}=\mathrm{T} \wedge X_{2}=\mathrm{T} \wedge \operatorname{NLI}\left(s_{1}, s_{2}\right)=\mathrm{C}$
- $X_{1}=\mathrm{T} \wedge X_{2}=\mathrm{F} \wedge N L I\left(s_{1}, s_{2}\right)=\mathrm{E}$
全ての経路が閉じているとき,タブローは閉じるという.タブローが閉じていることは,与えられたエントリの集合が表す制約を満たす真偽值割り当てが存在しないことに相当する。
推論過程の明示化という観点からは,タブロー規則をできる限り適用したタブローに対して閉鎖性を判定するのが望ましい,以下では,そのようなタブローを区別するために,初期タブローにタブロー規則を適用できなくなるまで適用を繰り返したタブローを終端タブローと呼ぶことにする。
前提文を T,仮説文を $\mathrm{F}$ としたときの終端タブローを含意タブローと呼び,上で述べた 1 番目のケースの証明に用いる. 前提文と仮説文の両方を $\mathrm{T}$ としたときの終端タブローを矛盾タブローと呼び, これは 2 番目のケースの証明に用いる.
## 3 モデル理論的な定式化
## 3.1 モデル
本節では,Saji らの手法を形式的に議論するために,まず,その基盤となるモデル理論的な文の解釈について定義する.次に,モデルに基づいて,タブロー規則,及び NLI システムを特徵付け,タブロー 規則により導出された終端タブローにおける NLI システムを用いた閉鎖性の判定のもつ性質を明らかにする。
まず,モデルを定義する。
定義 1 (モデル). $L$ から $\{\mathrm{T}, \mathrm{F}\}$ へ関数 $m$ をモデルと呼ぶ. ルをすべてのモデルの集合とする. モデルの集合 $M \subseteq \mathcal{M}$ に対して, $M(s)=\{m \in M \mid m(s)=\mathrm{T}\}$ と定義する。
直観的には,モデルの集合 $M(s)$ は,文 $s$ が成り立つ状況の集合とみなすことができる.
以下では,モデル集合が与えられたとき,それと整合性のとれた NLI システム及びタブロー規則がどのようなものであるかを定義し,整合性が取れているという条件の下で Saji らのタブロー法による証明の理論的限界を明らかにする。
定義 2. 次の 3 つの条件が全て成り立つとき,NLI システムはモデル集合 $M$ と整合的であるという.
- $M\left(s_{1}\right) \subseteq M\left(s_{2}\right) \Leftrightarrow N L I\left(s_{1}, s_{2}\right)=\mathrm{E}$
- $\neg\left(M\left(s_{1}\right) \subseteq M\left(s_{2}\right)\right) \wedge \neg\left(M\left(s_{1}\right) \cap M\left(s_{2}\right)=\emptyset\right) \Leftrightarrow$ $N L I\left(s_{1}, s_{2}\right)=\mathrm{N}$
- $M\left(s_{1}\right) \cap M\left(s_{2}\right)=\emptyset \Leftrightarrow N L I\left(s_{1}, s_{2}\right)=\mathrm{C}$
この定義では,含意関係をモデル集合の包含関係として,矛盾関係を互いに素な関係として捉えている.
以下では,モデルに基づいてタブローを特徴付けるが,その準備として,エントリ,タブローの経路, タブローに対応するモデルを, $M(s)$ を拡張することにより定義する。
定義 3 (エントリに対するモデル集合). タブローのエントリ $e=(s, X): Y$ に対して,$M(e)$ を次のように定義する。
$
M(e)= \begin{cases}M(s) & (X=\mathrm{T}) \\ M-M(s) & (X=\mathrm{F})\end{cases}
$
定義 4 (タブローの経路に対するモデル集合). タブローの経路 $b$ に対して,M(b)を次のように定義
する。
$
M(b)=\cap_{e \in b} M(e)
$
定義 $\mathbf{5}$ (タブローに対するモデル集合). タブロー $t$ に含まれる全ての経路の集合を $B$ とする. $M(t)$ を次のように定義する.
$
M(t)=\cup_{b \in B} M(b)
$
2 節で述べたように,Saji らの手法ではタブロー 規則の適用前後で,エントリが表現する制約が等価であることが想定されているが,これを以下のように定義する。
定義 6. $r=\left(C_{1,1} \wedge \cdots \wedge C_{1, n_{1}}\right) \vee \cdots \vee\left(C_{m, 1} \wedge \cdots \wedge C_{1, n_{m}}\right)$, $E=L \times\{\mathrm{T}, \mathrm{F}\} \times\{0,1\}, E_{r}=\{e \in E \mid r$ は $e$ に適用可能 $\}$ とする. 任意の $e \in E_{r}$ に対して次の条件が満たされるとき,タブロー規則 $r$ はモデル集合 $M$ と整合的であるという。
$M(e)=\left(M\left(C_{1,1}(e)\right) \cap \cdots \cap M\left(C_{1, n_{1}}(e)\right)\right) \cup \cdots \cup$ $\left(M\left(C_{m, 1}(e)\right) \cap \cdots \cap M\left(C_{1, n_{m}}(e)\right)\right)$ また,任意の $r \in R$ が $M$ と整合的であるとき, $R$ は $M$ と整合的であるという.
## 3.2 Saji らのタブロー法の健全性と完全性
本節では,前節で定義したモデルに基づき Saji らのタブロー法における健全性と完全性を定義する。 また,健全性について証明し,完全性について反例を示す.
ここで定義する健全性は,含意(矛盾)タブロー が閉じるならば,前提と仮説に対するモデル集合は,包含(互いに素な)関係にあるという性質である.これを前節で導入したモデルに基づき定式化すると,次のように定義できる。
定義 7 (含意タブロー・矛盾タブローの健全性). $M$ をモデル集合, $R$ を $M$ と整合的なタブロー規則の集合,NLIを $M$ と整合的である NLI システムであるとする.任意の前提文 $p$ と仮説文 $h$ について,次の条件が成り立つならば, $R$ と NLIによる閉鎖性判定は,モデル集合 $M$ において健全であるという.
・Rによって構成された含意タブローが NLI によって閉じると判定されるならば, $M(p) \subseteq$ $M(h)$ が成り立つ.
・ $R$ によって構成された矛盾タブローが $N L I$ によって閉じると判定されるならば, $M(p) \cap$ $M(h)=\emptyset$ が成り立つ.
一方で,完全性は次のように定義する。
定義 8 (含意タブロー・矛盾タブローの完全性). $M$ をモデル集合, $R$ を $M$ と整合的なタブロー規則の集合,NLIを $M$ と整合的である NLI システムであるとする。任意の前提文 $p$ と仮説文 $h$ につて,次の条件が成り立つならば, $R$ と $N L I$ による閉鎖性判定は,モデル集合 $M$ において完全であるという.
$\cdot$ $M(p) \subseteq M(h)$ が成り立つなら,Rによって構成された含意タブローが NLIによって閉じると判定される.
・ $M(p) \cap M(h)=\emptyset$ が成り立つならば, $R$ によって構成された矛盾タブローが NLIによって閉じると判定される.
## 3.2.1 健全性の証明
本節では,まず健全性を証明するための補助定理を導入し,それにも基づき健全性を証明する。
補助定理 1. $R$ が $M$ と整合的であるならば,任意の $r \in R$ の適用前のエントリの集合に対応するモデル集合と, その $r$ の適用後のエントリの集合に対応するモデル集合が等しい.
補助定理 1 は定義 6 から明らかである.
補助定理 2. $t_{\text {start }}$ を初期タブローとし, $t_{\text {trm }}$ を $t_{\text {start }}$ から導かれる終端タブローとする. $R$ が $M$ と整合的であるならば, $M\left(t_{\text {start }}\right)=M\left(t_{\text {trm }}\right)$ である.
補助定理 2 は補助定理 1 から明らかである. 含意タブローの健全性の証明は次の通りである. $R$ によって構成された含意タブロー $t_{\mathrm{trm}}$ が $N L I$ によって閉じていると判定されるとする。このとき, $t_{\mathrm{trm}}$ のすべての経路 $b$ に閉鎖条件のいずれかを満たす 2 つのエントリ $\left(s_{1}, X_{1}\right): 0,\left(s_{2}, X_{2}\right): 0$ が存在する.
・ 1 番目の閉鎖条件を満たすならば,定義 1 より $s_{1}=s_{2}$. したがって, $M\left(\left(s_{1}, \mathrm{~T}\right)\right) \cap M\left(\left(s_{2}, \mathrm{~F}\right)\right)=$ $M\left(\left(s_{1}, \mathrm{~T}\right)\right) \cap M\left(\left(s_{1}, \mathrm{~F}\right)\right)=\emptyset$.
・2 番目の閉鎖条件を満たすならば,定義 2 より $N L I\left(s_{1}, s_{2}\right)=$ Cであるが,NLI は $M$ と整合的であるので $M\left(s_{1}\right) \cap M\left(s_{2}\right)=\emptyset$. よって,定義 3 より $M\left(\left(s_{1}, \mathrm{~T}\right)\right) \cap M\left(\left(s_{2}, \mathrm{~T}\right)\right)=\emptyset$.
・ 3 番目の閉鎖条件を満たすならば,定義 2 より $N L I\left(s_{1}, s_{2}\right)=\mathrm{E}$ であるが,NLI は $M$ と整合的であるので $M\left(s_{1}\right) \subseteq M\left(s_{2}\right)$. よって,定義 3 より $M\left(\left(s_{1}, \mathrm{~T}\right)\right) \subseteq M\left(\left(s_{2}, \mathrm{~T}\right)\right)$ すなわち, $M\left(\left(s_{1}, \mathrm{~T}\right)\right) \cap M\left(\left(s_{2}, \mathrm{~F}\right)\right)=\emptyset$.
以上より, $M\left(\left(s_{1}, X_{1}\right)\right) \cap M\left(\left(s_{2}, X_{2}\right)\right)=\emptyset$. 沟えに,定
1 (Smith and Anderson didn't go out, $T$ ): 1
2 (Smith and Anderson were home, F): 1
(Smith or Anderson went out, F): 1
4 (Smith went out, F): 0
(Anderson went out, F): 0
6 (Smith was home, F): $0 \quad 7$ (Anderson was home, F): 0
図 2 タブローの完全性の反例
義 4 より $M(b)=\emptyset$ となる. したがって,定義 5 から $M\left(t_{\text {trm }}\right)=\emptyset$ である. $t_{\text {start }}$ を $t_{\text {trm }}$ の初期タブローとすると, 補助定理 2 から $M\left(t_{\text {start }}\right)=\emptyset$ である. 初期夕ブローは $(p, \mathrm{~T}): 0,(h, \mathrm{~T}): 0$ から構成されるため,定義 4, 5 から $M((p, \mathrm{~T})) \cap M((h, \mathrm{~F}))=\emptyset$. したがって, $M((p, \mathrm{~T})) \subseteq M((h, \mathrm{~T}))$. 定義 3 から $M(p) \subseteq M(h)$ である。以上より題意は満たされる。矛盾タブローの健全性も同様に証明できる。
## 3.2.2 完全性の反例
本節では,含意タブローの完全性の反例を示す.
図 2 に示す含意タブローにおいて,タブロー規則が未適用であるエントリ 4505670 真偽值はいずれもがFである。閉鎖条件においては,いずれかのエントリの真偽値が Tでなければならない.このため,この含意タブローは,どのような $N L I$ を用いても閉じていると判定されることはない。この例に対して $M$ を用意し,それと整合的で $N L I(1,2)=\mathrm{E}(\Leftrightarrow M(\boxed{1}) \subseteq M(\boxed{2})$ )であるような $N L I$ は容易に構成できるが,この $M$ 及び NLIにおいて含意タブローは閉じると判定されない。すなわち,完全性が成立しない。矛盾タブローについても同様の反例が存在する。つまり,完全性は一般に成立しない。
## 4 おわりに
本論文は,Saji らの手法をモデル理論的に定式化し,その定式化に基づいて,その性質を明らかにした。一般に,健全性は成り立つが完全性は成り立たないことを示した.現在,タブロー規則集合が特定の条件を満たすとき,完全性が成り立つようなケー スを確認しているが,今後の課題としては,そのような条件がいかなるものであるかの分析が挙げられる。
## 参考文献
[1] Ayahito Saji, Daiki Takao, Yoshihide Kato, and Shigeki Matsubara. Natural language inference using neural network and tableau method. In Proceedings of the 35th Pacific Asia Conference on Language, Information and Computation, pp. 406-414, Shanghai, China, November 2021. Association for Computational Lingustics.
[2] Qian Chen, Xiaodan Zhu, Zhen-Hua Ling, Si Wei, Hui Jiang, and Diana Inkpen. Enhanced LSTM for natural language inference. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1657-1668, Vancouver, Canada, July 2017. Association for Computational Linguistics.
[3] Samuel R. Bowman, Gabor Angeli, Christopher Potts, and Christopher D. Manning. A large annotated corpus for learning natural language inference. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 632-642, Lisbon, Portugal, September 2015. Association for Computational Linguistics.
[4] Adina Williams, Nikita Nangia, and Samuel Bowman. A broad-coverage challenge corpus for sentence understanding through inference. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 1112-1122, New Orleans, Louisiana, June 2018. Association for Computational Linguistics.
[5] Bill MacCartney and Christopher D. Manning. Natural logic for textual inference. In Proceedings of the ACL-PASCAL Workshop on Textual Entailment and Paraphrasing, pp. 193-200, Prague, June 2007. Association for Computational Linguistics.
[6] Lasha Abzianidze. A tableau prover for natural logic and language. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 2492-2502, Lisbon, Portugal, September 2015. Association for Computational Linguistics.
[7] Lasha Abzianidze. LangPro: Natural language theorem prover. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 115-120, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F6-5.pdf | # 異常検知に基づく文書のスタイル一貫性の改善
京野長彦 1 吉永直樹 2 佐藤翔悦 ${ }^{2}$
1 東京大学大学院 情報理工学系研究科 2 東京大学 生産技術研究所
\{kyono, ynaga, shoetsu\}@tkl.iis.u-tokyo.ac.jp
## 概要
文書のスタイルは文書全体で一貫していることが望ましいが,意図せず不適切なスタイルの文が混入することも多い. 本研究では,与えられたテキストのスタイル一貫性を改善するタスクを提案し,スタイル分離手法と異常検知を用いてこれを解く手法を提案する。具体的には,入力中の各文のスタイルをベクトル表現として分離し, 教師なし異常検知手法を用いて異質なスタイルで書かれた文を検出する。 その上で,検出された文を,入力中の他の文のスタイルを考慮して変換する. 予備実験として,4 種類の既存のスタイル変換データセットを用いて人工的な学習・評価データを構築し, 提案手法の評価を行った.
## 1 はじめに
我々が文章を書く際は,読み手に合わせた適切なスタイルで,文章全体を統一することが望ましい。例えば,目上の人間に送るメールでうっかり乱暴な言葉遣いをしたり,異なる地域に住む人間が理解しない方言を混ぜてしまうと, 結果として軋唓や誤解を生じることに繋がる(図 1 左).また,計算機を用いて文書を処理する際にも,一貫したスタイルの文書から学習したモデルを用いる場合が多いため, この種のスタイルの乱れによって,性能の劣化が生じ得る [1].
こうした問題を避けるため,広く特定のスタイル (例:話し言葉)から別のスタイル(例:書き言葉) への変換を目的としたテキストのスタイル変換技術が広く研究されている $[2,3,4]$. しかしながら, 既存研究においては, 入出力のスタイルを既知とした設定で文単位での変換を行う設定が多く,前述したスタイルが混在する文書のスタイル一貫性の改善に直接適用することが困難である。
そこで本研究では,一貫したスタイルの文書(以後, “多数派”) に異質なスタイルの文 (以後, “少数
図 1 異常検知に基づく文書スタイル一貫性改善タスク.入力文書中のそれぞれの文に対しスタイル表現を計算し,異常検知によって少数派を検出した後,多数派のスタイル表現を用いてスタイル変換を行う.
派”)が混入した文書を想定した上で,文書中の少数派のスタイルを多数派のものへと変換するタスクを提案する。さらに,そのタスクを実現するための手法として,1) 入力中の各文から異常検知手法を用いて少数派の文を検出した後に,2) 教師なしスタイル変換手法を用いて動的に多数派のスタイルの特徴を検出し,少数派のスタイルを変換する手法を提案する(図 1),提案手法により,スタイルを変換する対象の文や出力のスタイルを陽に指定することなく,入力テキスト全体のスタイル一貫性を改善することが可能になる.
本論文では予備実験として,既存のスタイル変換データセットである Yelp [5], GYAFC [6], Madaan らによる politeness データセット [7], Davidson らによる hate speech and offensive language データセット [8] を用いて人工的な学習・評価データを構築し,提案手法のスタイル判定・変換精度に関する分析と考察を行う。
## 2 関連研究
スタイル変換に関する既存研究では, 基本的に文単位でのスタイル変換に取り組んでおり,入出力のスタイルをそれぞれ文集合の形式で与えた上で,教師あり,または教師なしの設定で Encoder-Decoder モデルを学習するものがほとんどである $[9,10,11]$.
このシステムをスタイル一貫性の改善に用いる場合, 入力文書の中にスタイルが混在し, 変換する必要のある文がごく一部であることと,入出力のスタイルが未知で,変換に適切な文のべクトル表現を取得できないことが問題となる.
本研究と同様に,複数文入力を想定したスタイル変換手法として, Cheng らの研究が存在する [12]. しかしこの手法は,変換対象の文が予め指定されることを前提としており,変換対象の周辺文脈を考慮することに主眼を置いたものである。一方,本研究は, 入力の各文で用いられているスタイルのうち,多数派のスタイルを文書が想定するスタイルとみなすことで,既存のスタイル変換手法をスタイル一貫性の改善に利用することを目指す。
また本研究と同様に, 複数のスタイルへの対応を前提として学習するモデルとしては, Hu らの研究 [13] や, Kang らの研究 [14] が存在する. しかしこれらの研究では学習データに含まれていたスタイルのみを生成や分類の対象としている. 一方, 本研究は, 複数の入力文から動的にスタイル表現を分離するスタイル変換モデルを学習させることで,スタイルエンコーダにスタイル一般の特徵を学習させ,未知のスタイルに対してもスタイル一貫性の改善を可能とすることを目指す.
## 3 提案手法
本研究で提案するタスクは,大部分が一貫したスタイルで記述されている文書から,そのスタイルに該当しない文を自動で検出し, スタイルの統一を行うことを目標とする. 本研究では入力となる $k$ 文のうち 1 文のみが少数派スタイル,それ以外の $k-1$文が多数派スタイルであると設定した。そのため,提案手法は複数の文を入力として受け取り, 変換対象の指定および入出力スタイルの明示的な指定無しに変換を可能とする仕組みが必要となる.
## 3.1 概要
提案手法の全体像を図 2 に示す. 主に提案手法で行う処理は 1) スタイル変換の学習, 2) 文単位のスタイル表現の計算, 3) 少数派の文の検出, 4) 少数派のスタイル変換の 4 ステップである. 以下,各ステップについて説明する。
STEP1: スタイル変換モデルの学習各文にスタイルタグが付与されたデータセットを用いてスタイル変換モデル StyIns [15](3.2 節)の学習を行う.
図 2 提案モデルの全体図。訓練データ中の各文にはスタイルタグが付与されていることを前提とし, StyIns の訓練時はLOFを用いずタグから少数派の検知を行う.
STEP2: スタイル表現の計算 STEP1 で学習した StyIns のスタイルエンコーダ $E_{\text {sty }}$ を用いてテスト事例の各文からスタイル表現を計算する。
STEP3: 異常検知による少数派の検出 STEP2 で計算したスタイル表現に対して,教師なし異常検知手法である Local Outlier Factor (LOF) [16] を適用し,少数派の検出を行う.
STEP4: 少数派のスタイル変換 STEP3 で少数派と判定された文を StyIns による変換の対象,それ以外の文を多数派のスタイルを示す例としてそれぞれ StyIns に入力し,スタイル変換を行う.
## 3.2 Stylns
本研究ではスタイル変換モデルとして, 敵対的学習に基づくスタイル変換モデル StyIns [15] を採用した (図 2 下部).以下,StyIns における処理の概要を述べる。ここでは入力となる $k$ 文のうち, 目標スタイルを表す $k-1$ 文を $\boldsymbol{y}=\left.\{y_{1}, y_{2}, \cdots, y_{k-1}\right.\}$, 変換対象となる 1 文を $y_{k}$ と表記する。
1. 変換対象 $y_{k}$ をソースエンコーダ $E_{\mathrm{src}}$ に入力し文の内容を表すべクトル $h$ を計算する。
2. 目標スタイルの文集合 $y$ をスタイルエンコーダ $E_{\mathrm{src}}$ に入力し, スタイル表現ベクトルが従う正規分布の平均・分散を計算する。
3. $h$ および分布からサンプルしたスタイル表現 $z$ をデコーダ $D$ に入力し,変換後の文 $\hat{y}_{k}$ を得る.
学習時は損失として, 入力 $y_{k}$ に対する reconstruction loss, $\hat{y}_{k}$ に対し逆変換を行い $y_{k}$ との一致度から計算する cycle consistency loss, $\hat{y}_{k}$ と分類器 $C$ から変換元のスタイルに対する敵対的学習を行う adversarial style lossの3つを用いて最適化を行う.
本研究では既存研究における StyIns の実装から若干の変更点が存在する. 本来,StyIns のスタイルエンコーダは 2 文以上の入力を前提として分布を出力する仕様であった. しかし 3.1 節の STEP2 では 1 文の入力から単一のべクトルを計算する必要があるため,このエンコーダを拡張し,入力が 1 文のみの際に分布の平均をそのままスタイル表現べクトルとして出力する実装とした.
## 4 実験設定
## 4.1 データ
本研究で提案するタスクの評価には異なるスタイルが混在する文書が必要となるが,人手によるアノテーションを用いてそうしたデータを構築するのはコストが大きい,そのため本研究では,既存のスタイル変換データセットに付与されたスタイルタグを利用し, 人工的に異なるスタイルが混在した文書データを作成した上で実験を行う。
また,我々の目標は,多数派・少数派スタイルの性質を問わず入力文書のスタイルを統一することであるため,モデルが特定のデータセットのみに適応した学習をしてしまうことは望ましくない. そのため, 複数のスタイル変換データセットを用いて本研究で用いるデータセットを構築する。具体的には, Yelp [5], GYAFC [6], politeness [7] を採用する.各データセットはそれぞれ2つのスタイルを持ち, データセット中の文はどちらかのスタイルタグが付与されている. 具体的には, Yelp には肯定的・否定的なスタイルが,GYAFC には改まった・くだけたスタイルが, politeness には礼儀正しい・無礼なスタイルが存在する.
実験に用いたデータの加工手順は以下の通りである.まず,データ量の偏りを解消するため,各スタイル変換データセットから 200,000 文,4,000 文, 1,000 文を訓練・検証・テストデータ構築のための文集合としてランダムサンプルした. 各文集合内のスタイルの割合は $50 \%$ ずつである. 次にサンプルした文集合から,片方のスタイルの文を $k-1$ 件,もう一方のスタイルの文を 1 件ランダムに選択する処理を交互に繰り返し,スタイルが混在する文書を擬似的に作成した. 本実験では, $k=10$ とした. その結果, 訓練・検証・テストデータとして 100,000 件, 2,000 件,500 件の文書を元となったスタイル変換データセットごとに作成し,訓練・検証の際はこれらを結合した計 300,000 件,6,000 件を用いる.
加えて,訓練および検証データに存在しない未知スタイルに対する性能を確認するため, hate speech and offensive language (以後, offensive) [8] を用いて同様の処理を行い,500 件のテストデータを作成した.
また現実の状況では,既にスタイルが一貫している文書が入力されることも考えられる。そうした入力に対してどの程度誤検出が発生し得るかも検証するため,前述した疑似文書の作成の際に同一スタイルの文のみを $k$ 件選択した,少数派が存在しない例も各データセットにつき 500 件ずつ作成した.
入力文に対する前処理としては, GYAFC, offensive には nltk (v3.6.2)の word_tokenize 関数1) による単語分割を行い, Yelp, politenes には元のデータセットの時点で行われた単語分割結果をそのまま用いた.
## 4.2 ハイパーパラメタ
提案手法の実装にあたり,スタイル変換モデルである StyIns は著者の Yi らによる実装を改変して用いた. ${ }^{2)}$ 少数派の検知のために用いた LOF は scikit-learn (v1.0.1)の実装を用いた. ${ }^{3}$ )
StyIns に関する Yi らの設定からのハイパーパラメタの変更点としては, バッチサイズを 128 とし,語彙数を 50,000 に制限した. また元はクラス数 $M=2$ であったが,3 種類のデータセットを学習させるため, $M=6$ とした. LOFについては nearest neighbors の数は $\frac{k}{2}$, contamination の割合は自動判定とした。
## 4.3 評価
本論文では, 提案手法の評価は LOF による少数派の検出(3.1 節,STEP3)に対するものとスタイル変換結果(3.1 節,STEP4)に対するものの 2 段階に分けて行う. その理由としては, STEP3での検出に失敗した場合,誤検出された例に対するスタイル変換は意味を為さないためである. そのため, STEP4 に対する評価は,正しく少数派を選択出来ていた例に対してのみ行う。
STEP3 の評価について,4.1 節で述べたように
表 1 少数派スタイルの検出精度少数派あり $(\%)$ 少数派なし $(\%)$
我々は少数派スタイルの文が存在する場合と存在しない場合の 2 種類のテストデータを作成した. 各文書について,前者は文書中の少数派スタイルのものを正しく検知出来れば正答とし,後者は検知した少数派の件数が 0 件であれば正答とする.
STEP4 の評価は BLEU スコアとスタイル分類器によって行う. 前者については, 入力文と出力文の間で nltk.corpus_bleuを用いてスコアを計算し,内容が大きく変化していないかを検証する.後者に関しては,変換後の文がスタイル分類器によって文書中の多数派のスタイルであると分類されれば正答とする. Yi らの実験に倣い,スタイル分類器は事前学習済み BERT [17] を本実験で利用した各スタイル変換データセットに対し fine-tuning したものを用いる.事前実験におけるこの分類器の分類精度は Yelp で 96\%, GYAFC で 87\%, politeness で 88\%, offensive で 96\%であった.
## 5 結果と考察
## 5.1 少数派スタイルの検出
表 1 にLOF による少数派スタイルの文の検出精度を示す.まず,少数派スタイルを含む例については Yelpのみ $86.2 \%$ と非常に高精度であったのに対し, 他のデータセットでは $11.3 \% \sim 12.0 \%$, 少数派の検知の段階で精度が不十分であることが分かった. また,少数派を含まないテストデータについてはどのドメインも非常に精度が悪く, ほとんどの場合に実際には存在しない外れ值を検出してしまう結果となった. この理由としてはLOFによって外れ值検出を行う際に入力文数が 10 件という少数であること,LOFに入力したスタイル表現ベクトルの次元の大きさによって, LOF の計算に悪影響が出たためだと考えている.
## 5.2 スタイル変換
表 2 にスタイル変換の評価結果を示す. 4.3 節で述べた理由から,これらは表 1 (左)において検出に成功した例のみをスタイル変換した結果である。表 2 スタイル変換の評価結果
まず BLEU スコアに注目すると,どのデータセッ卜についても高水準を保っており,変換によって内容そのものが大きく変わってしまう場合は少ないと考えられる。一方,分類精度については表 1 の結果と同様,データセットによって大きく差が開く結果となった. 特に Yelp は LOFによる検出・変換ともに非常に高い精度を誇っている。
この理由としては, スタイルの中でも検出・変換が容易なものとそうでないものが存在し,スタイル表現の抽出の過程で前者による影響が大きくなりすぎてしまっているためであると考えられる.例えば,GYAFC データセットに存在したテストケースに, “the best of luck to ya !”という文が存在し,これは本来くだけたスタイル (informal) から改まったスタイル (formal)への変換を行うべき例であった. しかし実際には出力は “the worst of luck to ya!”であり, 本来 Yelp で行うべき肯定的なスタイル (positive) から否定的なスタイル (negative)への変換を行ってしまっていた。この問題を解決するため,複数スタイルを同時に扱う際のより効果的な学習方法の考案が今後の課題である.
## 6 おわりに
本研究では,一貫したスタイルのテキスト集合に異質なスタイルの文が混入した文書を想定した上で,少数派のスタイルを多数派のものへと変換する新たなタスクを提案した。そのタスクを実現する手法として,入力テキスト集合の各文から異常検知手法を用いて少数派のスタイルで書かれた文を検出し,教師なしスタイル変換手法を用いて動的に多数派スタイルの特徴を捉えた上で変換する手法を提案した. 今回報告した人工データを用いた予備実験では,一部のスタイルに対してのみ特異的に高い分類精度と変換精度が得られ,各スタイルの特徴の動的な抽出が十分に出来ているとは言い難い結果となった. 今後は多数のスタイルをより扱いやすい学習手法およびスタイルの表現手法を考案し,提案タスクにおける精度改善を図る。
## 謝辞
この研究は国立情報学研究所 (NII) CRIS と LINE 株式会社とが推進する NII CRIS 共同研究の助成を受けています。
## 参考文献
[1] Gina Neff and Peter Nagy. Talking to bots: Symbiotic agency and the case of tay. International Journal of Communication, Vol. 10, pp. 4915-4931, 2016.
[2] Eduard Hovy. Generating natural language under pragmatic constraints. Journal of Pragmatics, Vol. 11, pp. 689-719, 1987.
[3] Shrimai Prabhumoye, Yulia Tsvetkov, Ruslan Salakhutdinov, and Alan W Black. Style transfer through backtranslation. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 866-876, July 2018.
[4] Cicero Nogueira dos Santos, Igor Melnyk, and Inkit Padhi. Fighting offensive language on social media with unsupervised text style transfer. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 189-194, 2018.
[5] Juncen Li, Robin Jia, He He, and Percy Liang. Delete, retrieve, generate: a simple approach to sentiment and style transfer. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 1865-1874, 2018.
[6] Sudha Rao and Joel Tetreault. Dear sir or madam, may I introduce the GYAFC dataset: Corpus, benchmarks and metrics for formality style transfer. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 129-140, 2018.
[7] Aman Madaan, Amrith Setlur, Tanmay Parekh, Barnabas Poczos, Graham Neubig, Yiming Yang, Ruslan Salakhutdinov, Alan W Black, and Shrimai Prabhumoye. Politeness transfer: A tag and generate approach. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1869-1881, 2020.
[8] Thomas Davidson, Dana Warmsley, Michael Macy, and Ingmar Weber. Automated hate speech detection and the problem of offensive language. Proceedings of the International AAAI Conference on Web and Social Media, Vol. 11, No. 1, pp. 512-515, 2017.
[9] Harsh Jhamtani, Varun Gangal, Eduard Hovy, and Eric Nyberg. Shakespearizing modern language using copyenriched sequence to sequence models. In Proceedings of the Workshop on Stylistic Variation, pp. 10-19, 2017.
[10] Tianxiao Shen, Tao Lei, Regina Barzilay, and Tommi Jaakkola. Style transfer from non-parallel text by crossalignment. In Proceedings of the 31st International Conference on Neural Information Processing Systems, pp. 6833-6844, 2017.
[11] Vineet John, Lili Mou, Hareesh Bahuleyan, and Olga Vech- tomova. Disentangled representation learning for nonparallel text style transfer. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 424-434, 2019.
[12] Yu Cheng, Zhe Gan, Yizhe Zhang, Oussama Elachqar, Dianqi Li, and Jingjing Liu. Contextual text style transfer. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 2915-2924, 2020.
[13] Zhiting Hu, Zichao Yang, Xiaodan Liang, Ruslan Salakhutdinov, and Eric P. Xing. Toward controlled generation of text. In Proceedings of the 34th International Conference on Machine Learning, Vol. 70, pp. 15871596, 2017.
[14] Dongyeop Kang and Eduard Hovy. Style is NOT a single variable: Case studies for cross-stylistic language understanding. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 23762387, 2021.
[15] Xiaoyuan Yi, Zhenghao Liu, Wenhao Li, and Maosong Sun. Text style transfer via learning style instance supported latent space. In Proceedings of the TwentyNinth International Joint Conference on Artificial Intelligence, IJCAI-20, pp. 3801-3807, 2020.
[16] Markus M. Breunig, Hans-Peter Kriegel, Raymond T. Ng, and Jörg Sander. Lof: Identifying density-based local outliers. ACM Sigmod Record, Vol. 29, No. 2, pp. 93104, 2000.
[17] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, 2019. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F7-1.pdf | # 複数の翻訳に見られる差異の分析
本田友乃 ${ }^{1}$ 山本真佑花 ${ }^{2}$ 影浦峡 ${ }^{3}$
1,3 東京大学 2 立教大学
tomono20@g.ecc.u-tokyo.ac.jp yamamoto.mayuka@rikkyo.ac.jp
kyo@p.u-tokyo.ac.jp
## 概要
本稿では,同一の原文に対する複数の翻訳の差異を明らかにするために,2 種類の翻訳間の差異を記述するための概念と概念付与の手続きを枠組みとして定めた.この枠組みを技術文書に適用したところ,文法的な差異は広く出現しており,意味的な差異や語用論的な差異は限定的であることが明らかになった.また,構築した枠組みをもとに差異の記述を自動化するメカニズムを一部実装した。
## 1 はじめに
翻訳の質を論ずる際,評価者は,ありうる翻訳を想定し,それとの差異を暗黙のうちに考慮しているはずである. 産業翻訳の品質については, Multidimensional Quality Metrics (MQM) [1] のような指標が複数定められているものの,その前提として翻訳間にはどのような差異があり,それは何を対象としてどのような観点から観察されるかといった点を認識する重要性は意識されてこなかった。
翻訳間の差異を考慮することは,機械翻訳の自動評価にも知見を与えうる。機械翻訳の自動評価では,BLEU [2]をはじめとして参照訳との類似度をもとにした評価が主に行われているが,そこで用いられる参照訳は検討の対象とされない。不適切な評価を行わないためにも, 複数の翻訳の現実的な存在可能性の範囲を明らかにすることは重要である.
複数訳の検討は,文芸翻訳において行われているが,言語表現に着目して体系的に差異を記述しょうとするものではなく, 作品の背景や翻訳者の個性に着目した複数訳の検討が中心となっている. 翻訳指南書でも,学習の観点から複数訳を並置しその差異を示そうとする場面があるが,目的を先取りした限られた範囲の差異が指摘されるにとどまる.
以上を背景に,本稿では複数訳の差異を記述するための枠組みを構築し,それを用いて産業翻訳の文書を対象に複数訳の差異を体系的に記述する。 さらに,差異の自動同定・記述メカニズムの一部実装についても述べる。
## 2 研究対象
この課題に取り組むために,産業翻訳で扱われる文書を対象とし,目標言語文書(TD)が独立に翻訳者の個性に依存しないかたちで生成されたデー タである,ParaNatCom [3] を利用する.ParaNatCom は Nature Communications の抄録をもとに作成された英日の対訳コーパスであり, 同一の起点言語文書 (SD)に対し 3 種類の TD が付された 148 セットの文書が含まれる.表 1 に基本統計を示す。
表 1 ParaNatCom の基本統計(文数,延べ語数,異なり語数は各文書あたりの平均)
## 3 枠組みの構築
差異を記述する概念は, 翻訳方略体系 [4], 品質評価,言語学,翻訳指南書を参照しつつ,ParaNatCom に含まれる 32 文書(96 対)の分析をもとに構築した.表 2 に示すように,文法上の差異を表す Syntactic,意味上の差異を表す Semantic,語用論的な差異を示す Pragmatic の 3 カテゴリからなる.
これらの概念を TD 付与するために,以下のように記述の手続きを定める。
step 0 では [5] を参考に,以下の4つの規則に従ってSDを分割することで,文と語・句の中間的な言語単位としてチャンクを設定した。
1. 節を導く接続詞,関係詞(主語を修飾する場合は除く) の前後
表 2 差異を記述するための概念
2. to 不定詞, 前置詞, 動名詞の後に 3 語以上続く場合,それらの前(動詞が後続する場合を除く)
3. コンマ, セミコロン, ハイフン等のパンクチュエーションの後
4. 主語が 3 語以上続く場合,その後
step 1-3 の手続きは,それぞれ文,チャンク,語・句を対象としており,概念を付与する順序と判断基準を含めて決定木の形で整理した ${ }^{1)}$. step $1 \cdot 2$ は言語単位が広いため,構造を捉えるという観点から Syntactic に属する概念の一部のみを付与し, step 3 では, Syntactic の一部の概念及び Semantic, Pragmatic からそれぞれ一つずつ概念を付与する形で設定した.
また,枠組みを適用するにあたって,一貫して概念が付与されるよう, SD と TD の対応づけや TD の単位の認定方法について,以下のように整理した.
1. step 3 における SD の分割方法
(a) 原則としてSDは 1 単語ずつ分割し,各単語に対応する TD 間の差異を記述する
(b) 受動態や否定文,完了形などの用言や,SD のイディオム,その他訳対応をとることが難しい語や句については,SDを 1 単語で分割しなくてよい
(c) 記号の訳出に文字化が関わる場合や SD が記号で連結された複合語である場合は,単語中の記号の後で分割する
2. 対応づけに伴う TD の扱い
(a) 用言を伴わない機能語や同格表現で SD と独立に対応づけられない語や句は, 左の語とセットにする
(b) 用言の使用に伴う機能語で SD と独立に対応づけれない語や句は,用言(右の語) とセットにする
(c) パンクチュエーションは左の語とセットにして step 2 で観察するため,SD との直接の
## 対応づけは行わない
3. TD の単位
(a) SDの 1 単語と対応する場合,名詞の連接はまとめて 1 単語としてカウントする
(b) サ変動詞や形容動詞の語幹に助詞や動詞が付加された形の動詞は 1 単語としてカウントする
(c)()内の語や句は()も含め 1 つの単位とみなして記述する
## 4 ParaNatCom の記述
ParaNatCom に含まれる文書のうち,概念の構築で用いなかった 50 種類(150 対)の TDに対して枠組みを適用した。付与した概念の出現頻度について, step 及びカテゴリごとの分布を図 1-5に示す.
図 1 step 1 における差異の分布
図 2 step 2 における差異の分布
図 3 step 3 Syntactic における差異の分布
図 4 step 3 Semantic における差異の分布
図 5 step 3 Pragmatic における差異の分布
図 1 では,g2 Sentence structure difference の分布から,文レベルでの構造上の差異はほとんどの文書で一定程度存在することがわかる。また,g9 Cohesion difference の分布より,SD に明示的に存在しない接続詞や主語を文頭で補うといった結束性の有無による差異は,多くの文書では現れていないものの,TD 間の差異としては存在することが確認される。
図 2 では,g3 Punctuation difference の分布から,句読点やコロンなどのパンクチュエーションの打ち方に関する差異はどの文書対でも必ず生じており, 出現頻度も高いことがわかる. また, g1 Not applicable と g4 Chunk structure difference の分布より,チャンクを対象とした構造上の差異は存在するものの,相対的には少ないことがわかる. g9 Cohesion difference, g10 Unit difference の分布より,主語を明示化するといった結束性に関する差異や,節と句で訳出単位が異なるという差異が現れている文書数はわずかである.
図 3 より,step 3 の中では,Syntactic に属する概念の分布は比較的差が小さく,語や句のレベルで見た場合には文法的な差異が広く出現していることがわかる. g10 Unit difference が最も多く見られ,語や句のレベルでは訳出単位の違いがどの文書でも一定数以上存在し,比較的多く見られることがわかる。 $\mathrm{g} 5$ Phrase structure difference $や$ g12 Word form difference の分布より,句として訳出されていた場合の構造上の差異や用言の語形に関する差異も,全ての文書中に現れていることがわかる。また, step $1 \cdot 2$ とは異なり,言語単位が小さい場合には,語の訳出の仕方や省略の有無といった結束性による差異は珍しい現象ではないことが g9 Cohesion difference の分布からわかる。表記の差異を表す g7 Spelling difference と音形借用の有無による違いを表す g8 Loan difference も一定程度見られるが,この 2 つの概念は特に,抄録中における用語の訳出の差異を反映していると考えられる。また,人称や人称表現の違いを表す $\mathrm{g} 6$ Person difference は,Syntactic の中では最も観測されなかった。これは,ParaNatComのみを記述の対象としたため,論文中で用いられる人称表現のバリエー ションが限定的であり,人称表現自体の出現数が少ないことからも説明される。
図 4 より,Semantic ではどの文書にも一定以上 s6 Paraphrase が付与されており,意味的なカテゴリの中では言い換えとして説明される差異が多いことがわかる。また,s7 Semantic difference についても,s6 ほど多くは見られないものの全ての文書対で付与されており,意味的には等価であると判断される現象が比較的多く観察されたことがわかる。 その他の概念については,文書によって出現するものと出現しないものとがあった. その中で比較的多く観察された差異は, s5 Synonym やs3 Emphasis difference であり,同義関係にある語として説明される差異や,意味の焦点,強調の仕方に関する差異が現れていることがわかる. s1 Abstraction difference で表される具体・抽象に関する差異と s2 Perspective difference で表される視点に関する差異は,多くの文書で生じていることが確認できるものの,頻度としては少ない。同じ意味を表しており,かつ語の長さが異なるという現象を表す s4 Distribution difference と,同音異義
語が用いられているなど明らかに意味が異なる現象を表す s8 Semantic difference については,多くの文書で見られなかった。
図 5 より, Pragmatic の分布は偏りが大きく, p1 Not applicable で記述される差異が最も多かった. そして,他の概念で説明される差異,すなわち文書タイプへの適応による差異や情報量の違い, 異化・同化に関する差異はあまり観察されなかった. 文書外の情報を参照することで生じたと判断される差異は限定的であることがわかる.
## 5 記述の自動化
最後に,TD 間の差異を自動的に出力するための見通しとして,枠組みの一部を実装した方法と結果について簡単に述べる.
3 で構築した枠組みでは, 同一の SDを起点として 2 種類の TD 間の差異を記述したため,SD と TD の対応づけが必要である.対応づけには,単語アライメントツールの SimAlign [6] を使用し,SD の一単語に対して MeCab [7] で分かち書きされた形態素を対応づける.ただし,アライメントの精度の向上のため,TD については,3で述べた TD の対応づけやTD の単位に関するルールをもとに分かち書きを修正した. 概念の付与は 3 で定めた手続きに従って条件分岐の形で実装し,実装に必要な文法情報は, NLTK [8] と MeCabによる分析結果を利用した.
以上の手順に従って,4で記述の対象とした ParaNatCom の TDのうち,32 種類(96対)の TDについて自動的に概念の付与を行った. 4 の記述で付与した概念と, 自動的に付与された概念とが一致した割合を,正解率として計算した. 正解率の結果を表 3 に示す. 概念の数や偏りの問題もあるが,特に Syntactic に関して改善が必要であることがわかる。
表 3 自動化の正解率 (\%)
## 6 おわりに
本稿では,複数訳としてありうる範囲を明らかにする試みとして,技術文書を対象として TD 間の差異を記述する枠組みを構築し,枠組みを適用して実際に TD 間に生じている差異を記述した。また,構築した枠組みを足場として,記述の一部について自動化を行った。枠組みの構築では,差異を記述するための概念を Syntactic,Semantic,Pragmatic の $3 \supset$ のカテゴリに類型化し,概念を付与する手続きを整理した.また,差異の記述では枠組みに従って概念を付与し,対象データについて,意味的なカテゴリや語用論的なカテゴリを用いて説明できる差異は限定的であるが,文法や構造についての差異は広く生じていることを,分布に基づいて具体的に示した.自動化では,枠組みをもとに手続きの一部を実装した. 手法の見直しや,文,チャンクを対象とした記述の自動化は今後の課題である.
## 参考文献
[1] Deutsches Forschungszentrum für Künstliche Intelligenz GmbH and QTLaunchPad. Multidimensional Quality Metrics, 2005.
[2] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. BLEU: A Method for Automatic Evaluation of Machine Translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, 2002.
[3] Masao Utiyama. ParaNatCom — Parallel English-Japanese abstract corpus made from Nature Communications articles, 2019. https://www2.nict.go.jp/astrec-att/member/ mutiyama/paranatcom/.
[4] 山本真佑花, 山田優, 藤田篤, 宮田玲, 影浦峡. 又夕言語としての翻訳方略体系の構築と検証. 言語処理学会第 27 回年次大会発表論文集, pp. 1111-1116, 2021.
[5] 岡村ゆうき,山田優.「順送り訳」の規範と模範:同時通訳を模範とした教育論への試論. MITIS Journal, Vol. 1, No. 2, pp. 25-48, 2020.
[6] Masoud Jalili Sabet, François Yvon Philipp Dufter, and Hinrich Schütze. SimAlign: High Quality Word Alignments without Parallel Training Data Using Static and Contextualized Embeddings. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: Findings, pp. 1627-1643, 2020.
[7] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying Conditional Random Fields to Japanese Morphological Analysis. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing (EMNLP-2004), pp. 230-237, 2004.
[8] Steven Bird, Ewan Klein, and Edward Loper. Natural Language Processing with Python. O'Reilly Media, 2009.
[9] Francis Bond, Timothy Baldwin, Richard Fothergill, and Kiyotaka Uchimoto. Japanese SemCor: A Sense-tagged Corpus of Japanese. In The 6th International Conference of the Global WordNet Association (GWC-2012), pp. 5663,2012 .
## 付録差異を記述する概念を付与する手続き
& $\mathrm{g} 9 \cdot \mathrm{Q} 2 \mathrm{~d}$ & Q2d \\
| NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F7-2.pdf | # 機械翻訳向けプリエディットのための情報明示化方略の体系化
島田紗裕華 ${ }^{1}$ 山口大地 ${ }^{1}$ 宮田玲 ${ }^{2}$ 藤田篤 ${ }^{3}$ 佐藤理史 ${ }^{2}$
1 名古屋大学工学部 2 名古屋大学大学院工学研究科 3 情報通信研究機構
shimada.sayuka@b.mbox.nagoya-u.ac.jp
## 概要
機械翻訳向けに入力文を編集するプリエディットの作業を支援する枠組みと技術の開発が求められている。我々は,翻訳しやすく原文を編集するための指針として,原文の情報を明示化する書き換え方略に注目し,人手プリエディット事例のボトムアップな分析により,6 カテゴリ・26 サブカテゴリからなる明示化方略体系を構築した. また, 検証事例を用いて,構築した体系の網羅性を確認した.さらに,段階的に定義したプリエディットのプロセスにおける要素技術の開発の見通しを立てた。
## 1 はじめに
機械翻訳(MT)を活用する方法の 1 つとして,翻訳対象である起点テキストを事前に編集するプリエディットがある. プリエディットの有効性は様々な研究・実践において示されてきたが $[1,2,3]$, 翻訳結果を修正するポストエディットに比べて,実務翻訳での活用は十分進んでいない,入力文に対するプリエディット結果を直接出力する手法も提案されているが [4],実用場面においてプリエディットは主に人手でなされており,そのプロセスを支援する枠組みと技術の開発が求められている。我々は,人間による段階的な意志決定を支援する視点から,プリエディットのプロセスを,(1) 翻訳しにくい表現の検出,(2) 検出した表現の分類,(3) 翻訳しやすい表現に書き換えるために適用可能な方略の列挙,(4) 最適な方略の選択, (5) 方略の適用事例の生成, (6) 最適な方略適用結果の選択に分けた (図 1 参照). そして各ステップについて,人間はどのような行為を行っているか,機械による自動化は可能であるか, ということを検討しながら人間と機械の適切な役割分担を見極めることを目指している。
このプロセスを具体的に検討するにあたり,MT にとって翻訳しにくい表現とはどのようなものか,翻訳しやすくするためにどのような書き換え方法が
図 1 プリエディットのプロセスと機械翻訳の例
有効なのか,に関する言語化された指針が必要である.このような指針は制限言語などの形で定義・適用・評価されてきたが $[5,6,7]$, それらは主にルー ルベース MT や統計的 MTを対象としており, 現在主流の方式であるニューラル MT を対象とした研究は限られている $[3,8]$. そもそも挙動が予測できない MTを後段に据えるプリエディットでは,個々の書き換えにおいて翻訳品質の向上を保証することが原理的に難しい.また,書き換えによる出力の変化は,使用する MT システムにも依存する $[7,8]$. 以上を前提としつつも,我々は,ある程度一般に有効な書き換え方略を定めることは有効だと考える。
宮田・藤田 [3] は, 複数の翻訳方向・ニューラル MT システム・テキストドメインを対象とした人手プリエディット事例の観察を通じて,情報を明示化するような書き換えが翻訳品質向上において重要であると指摘した. さらに,明示化方略として,情報の追加,関係の明示,意味の限定,正規化の 4 つを提示しているが,それ以上細かい方略は定めていない. そこで我々は,プリエディット支援技術の開発に向けた第一ステップとして,明示化方略に関する詳細な体系を構築した。
本稿では,以下,人手プリエディット事例のボトムアップな分析による明示化方略の体系構築の方法と結果について報告する(2節)。また,体系の構築時に使用していない事例を用いて,体系の網羅性を
図 2 プリエディット事例におけるユニットとベストパス
予備的に検証した結果を示す(3 節)。最後に,上記プロセスを対象に,方略体系をべースとした各種の技術開発の見通しについて議論する (4節).
## 2 情報明示化方略の体系構築
## 2.1 構築方法
方略体系の構築には,宮田・藤田 [3] が収集した人手プリエディット事例データを用いた。この事例データは,MT 訳が一定の翻訳品質 ${ }^{11}$ に達するまで,作業者が試行錯誤的に起点テキストに対する最小単位の書き換え [9]を繰り返すことで構築したものである。書き換え前後の起点テキストの各ペアを事例と呼ぶ. 最初に与えられる起点テキスト(オリジナル文)とそれに対する書き換えの履歴をまとめてユニットと呼び,作業終了時に最も高い MT 品質を達成した起点テキストをベスト文と呼ぶ(図2参照). 1つのユニットにおけるプリエディットの履歴は,各事例をノードとし,書き換え前後の関係にあるノード間をエッジで結ぶことで,オリジナル文を根とする木構造として表現できる.この木構造において,オリジナル文からべスト文までの経路をベストパスと呼ぶ.
宮田・藤田 [3] は,100 のオリジナル文を対象に, 3 つ翻訳方向(日英,日中,日韓),2つの MT システム (Google 翻訳2)と $\left.\mathrm{TexTra}^{3}\right)$ ) の組み合わせの各々(計 600 ユニット)について,事例を収集している. 我々はまず,30 のオリジナル文に対応した計 180 ユニットにおけるべストパス中の事例 757 件を抽出した. 各事例は, 宮田・藤田 [3] により, 情報方略の観点から明示化,情報維持,暗示化のいずれかに分類されている. 我々は,明示化方略と分類された事例を改めて精査し, 最終的に 269 件の明示化方略事例を獲得し,体系構築の開発データとした.
各事例について,どのような表現に対して,どのような書き換えがなされ,どのような情報が明示されたかの 3 つの観点で分析し,それぞれ,対象,操作,明示内容としてラベルを付与した. 分析の過程で,操作の観点を第 1 階層,明示内容の観点を第 2 階層のカテゴリ基準とする分類体系の構造を定めた. 全事例に対して,筆頭著者がラベル付けと体系化を行い,共著者が結果を確認する,というサイクルを複数回繰り返すことで,各分類カテゴリの名称・範疇および分類基準を精緻化した.
## 2.2 構築した情報明示化方略体系
構築した明示化方略体系の全体像を表 1 に示す.明示化方略は,操作の観点から 6 カテゴリに分類され,さらに明示内容の観点から 26 サブカテゴリに細分類される。「開発」列には開発データ中の事例の頻度分布を「検証」列には後述する検証データにおける頻度分布を示す. 以下,各操作カテゴリの定義と具体例を述べる(具体例の一覧は付録を参照).
(I) 暗示的情報の表出 : 前後の文脈や外部知識を用いて,テキスト中に明言されていない情報を追加する操作である.例えば,「テルモ」から「医療機器メーカーのテルモ」への書き換え((I1) カテゴリ) や「12日は台湾の休日のため休場」から「12日は台湾の休日のため株式市場は休場」への書き換え (I2)主題)が含まれる.
(C) 連結関係の強化 : 助詞や接続詞などの語句を連結する表現や照応表現を用いて, 文間や語句間の関係を明示する操作である.例えば,(C6) 展開は,節間の順接または逆接関係について事態の展開を明示する操作を指し,「河川や湖沼が氾濫し、住宅や八イウェーが浸水しました」から「河川や湖沼が氾濫し、その結果住宅やハイウェーが浸水しました」への書き換え事例が該当する。
(B) 境界の強調:語句や節,文の区切り目を約物を使用して記号的に明示する操作である. (B2) 語句の境界に分類される例としては,「台湾国際貿易局」 を引用符で囲み「“台湾国際貿易局”」へと書き換える例が挙げられる。
(P) 語句の強調:意味や情報量が変化しない範囲で語形の変更や語句の追加を行い,語句の特定の内容を強調するような操作である。(P2) 事態性には,「政府調達協定への加盟」から「政府調達協定に加盟すること」への書き換えや,「署長」から「署長を務めていた人物」への書き換えが含まれる。
表 1 明示化方略体系と事例の頻度分布分類カテゴリ事例数
(I)暗示的情報の表出
(I1)カテゴリ $17 \quad 13$
(I2) 主題
(I3) 性 - 数
(I4)メ夕的情報
(I5) 対象
(I6)語意
(I7)補足情報
(C)連結関係の強化
(C1)時
(C2) 範囲
(C3)引用・発言
(C4) 参照
(C5)並列
(C6) 展開
(C7) 修飾
(C8) 背景
(B)境界の強調
(B1)引用・発言内容の範囲
(B2)語句の境界
(P) 語句の強調
(P1)発音
(P2) 事態性
(P3) ニュアンス
(L)語義の絞り込み
(L1)語義
(L2) 意味
(N) 正規化
(L)語義の絞り込み:語の多義性を解消する操作である. (L1) 語義は語義曖昧性の解消に関するもので,「はんらん」を「汇濫」と書き換えるような事例が該当する. (L2) 意味は語句をより狭義の表現へ書き換えて語句の意味を明示するカテゴリである. $「 141$ バーツとなった」から「141 バーツを記録した」へ書き換える事例が該当する。
(N)正規化:より一般的・標準的・辞書的な表記文体に書き換える操作である. 他のカテゴリと異なり, 明示内容ではなく操作の観点から下位分類を定めた. 例えば,(N1) 漢字の使用は,「ひきこもり」から「引きこもり」への書き換えを含む。
## 3 明示化方略体系の予備的検証
2.1 節で説明したプリエディット事例データから,検証データを用意し,構築した明示化方略体系の網羅性を検証した. 開発データに含まれないオリジナル文 15 文に対する計 90 ユニットのベストパスに含まれる書き換え事例 363 件から,明示化であると判断した事例 247 件を抽出し, 検証データとした.
これらの全事例を,事前に定めた方略の定義に基づき, 筆頭著者が方略体系の各カテゴリに分類し,判断に迷った事例について共著者が確認した. 表 1 の「検証」列に分類結果を示す. 247 件のうち 239 件をいずれかのカテゴリに分類することができた.分類できなかった事例が 8 件(約 4 \%)に留まったことから,構築した方略体系は明示化方略の種類を広くカバーできていると言える。
分類できなかった事例の一部を表 2 に示す. 1 つ目の例では,「アジアと欧州市場でドルは」という主題とそれに対する述部「すでに上昇していた」の位置を近づけることで主述関係が明確化されており, (C) 連結関係の強化に分類できるものの,その下位分類を定めることができなかった. 2 つ目の例は,文中で列挙された要素が「3つ」であるという情報を明示していることから,(I) 暗示的情報の表出に含まれる.しかし,下位分類はいずれも語句の内容に関する明示化を対象としており,表現自体の位置づけに関わる本事例は分類できなかった。これらの事例を網羅できるよう,新しいカテゴリの追加や既存カテゴリの定義・範疇の見直しが必要である.
また,分類可能ではあったが,体系構築の際にあまり想定していなかった特徴を持つ事例もあった.「増加」を「増産」に書き換える事例は,増加させる対象が生産量であるという情報を追加したものであり, (I) 暗示的情報の表出> (I5) 対象に分類できたものの,このカテゴリでは元々,「売る」を「持株を売る」に書き換えるような要素の単純な追加のみを想定していた。
最後に,事例数が比較的多い分類カテゴリとして, (P) 語句の強調における $(\mathrm{P} 2)$ 事態性と $(\mathrm{P} 3)$ ニュアンスについて述べる. (P2) 事態性は, 語句の事態性を明示する書き換え操作である。これに分類した事例の特徴は大きく2つに分けることができる.一方は「政府調達協定への加盟」から「政府調達協定に加盟すること」への書き換えのように動作性・能動性を強調するもの,他方は「パニック」を「パニック状態」へ書き換えるように状態性・受動性を強調するものである.(P3) ニュアンスは,情報量があまり変化しない語形の変更や語句の追加を想定しており, 他の分類カテゴリのいずれにも分類しにく
表 2 構築した明示化方略体系で分類できなかった事例
書き換え前書き換え後
& \\
い事例を消極的に含めることができるように定義していた。例えば「低位株」から「超低位株」へ,程度に関するニュアンスを強める書き換えは,このカテゴリに含まれる.プリエディットの操作をなるべく具体的に言語化するという目的をふまえると, (P2) 事態性と (P3) ニュアンスについては,より詳細に下位分類を展開したり特定の特徴を認定し新たなカテゴリを立てたりすることが必要だろう.ただし, 体系の利用の観点からは,このような詳細化・拡張により,体系が不必要に複雑になる可能性がある点に注意しなければならない。
## 4 プリエディット技術の開発方針
構築した明示化方略体系に基づいて,1 節で提示したプリエディットのプロセスの各ステップに関する技術開発の見通しを述べる(図 1 参照)。
(1) 翻訳しにくい表現(本研究では,明示化可能表現)の検出と (2) 検出した表現の分類には, 明示化可能表現の体系が必要である. 2, 3 節におけるプリエディット事例の分析過程で抽出・列挙された明示化対象の表現を適度な抽象度でまとめ上げながら,体系を構築する。このとき例えば,(C) 連結関係の強化> (C6) 展開の事例において観察された「因果関係をつなぐ連用中止接続」という明示化可能表現を,単に「連用中止接続」と抽象化すると,明示化方略が適用できない多くの表現も該当してしまう点に注意が必要である.
明示化可能表現の自動検出・分類には,各種の既存手法が適用可能である. 特定の言語表現パターンで定義できる場合は,ルールベースの方法 [10]が適している. また,機械学習を用いた系列ラベリング問題として定式化することもできる. 機械学習に必要なアノテーション済みの大規模なプリエディットデータは整備されていないが, BERT [11] などの事前学習済み言語モデルを活用することで,比較的小規模な教師データでも一定の精度が得られる可能性がある。また,MT 結果を利用できる設定であれば,翻訳誤り箇所を推定しそれに対応した原文箇所を同定する手法 [12] や折り返し翻訳を用いて原文中の翻訳しにくいテキストスパンを検出する手法 [13] を組み合わせることで,特に書き換えが必要な表現への絞り込みが期待できる。
(3) 適用可能な方略の列挙のためには, 明示化可能表現と明示化方略の対応表を事前に定義する。ただし, 1 つの表現に対して,複数の方略が適用可能な場合もあるため, (4) 最適な方略(あるいはその組み合わせ)を選択する必要がある。これに対して,対応表にあらかじめ方略の優先度を付与しておく方法や個々の明示化可能表現に対して動的に方略の優先度を定める方法がある。後者の方法については,複数の方略でプリエディットを最後まで行い, 各々に対する MT 結果も考慮しながら品質推定の手法を用いて,優先度を求める方法も考えられる。
(5) 方略の適用事例の生成,(6) 最適な方略適用結果の選択については, 現時点で自動化に向けた見通しは十分立っていない。例えば,(N) 正規化> (N5)体言止めの回避であれば,HaoriBricks3 [14] など既存の自然言語処理ツールで実現できる。また,(L)語義の絞り込み > (L1) 語義は, 語義曖昧性解消のテーマで長年取り組まれてきた研究成果 $[15,16]$ を生かせるだろう. しかし, (I) 暗示情報の表出をはじめ,明示化方略を適用するためには,対象文に書かれていない文脈情報や外界知識が必要となることが多く, 完全な自動化は容易ではない. まずは, 人間の役に立つ候補の提示を目指すのが現実的である.
## 5 おわりに
本研究では,プリエディットにおける明示化に焦点を当て,書き換えの操作と明示内容の観点から階層化した明示化方略体系を構築した. 予備的な検証結果から, 構築した体系の比較的高い網羅性を示せたが,さらに異なる条件での本検証結果をふまえた体系の見直しが必要である.
また,明示化方略体系をべースとしたプリエディット支援技術の開発の見通しを提示した. 今後は要素技術の開発を進めると同時に,機械的にできること・できないことを見極め, 翻訳の効率と品質の向上に効果的なワークフローの定義を目指す.
## 謝辞
本研究は科研費 (課題番号 : 19K20628, 19H05660)
および KDDI 財団調査研究助成(課題名:平易な文化財情報を執筆・翻訳する技術)の支援を受けた。
## 参考文献
[1] Yusuke Hiraoka and Masaru Yamada. Pre-editing plus neural machine translation for subtitling: Effective preediting rules for subtitling of TED talks. In Proceedings of Machine Translation Summit XVII, pp. 64-72, Dublin, Ireland, 2019.
[2]土井惟成. プリエディット手法としての産業日本語に関する一考察. Japio YEAR BOOK 2020, pp. 324-330, 2020.
[3] Rei Miyata and Atsushi Fujita. Understanding pre-editing for black-box neural machine translation. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics (EACL), Online, 2021.
[4] Sneha Mehta, Bahareh Azarnoush, Boris Chen, Avneesh Saluja, Vinith Misra, Ballav Bihani, and Ritwik Kumar. Simplify-then-translate: Automatic preprocessing for black-box translation. In Proceedings of the 34th AAAI Conference on Artificial Intelligence (AAAI), New York, USA, 2020.
[5] Arendse Bernth and Claudia Gdaniec. MTranslatability. Machine Translation, Vol. 16, No. 3, pp. 175-218, 2001.
[6] Sharon O'Brien and Johann Roturier. How portable are controlled language rules? In Proceedings of the Machine Translation Summit XI, pp. 345-352, Copenhagen, DK, 2007.
[7] Rei Miyata, Anthony Hartley, Cécile Paris, Midori Tatsumi, and Kyo Kageura. Japanese controlled language rules to improve machine translatability of municipal documents. In Proceedings of the Machine Translation Summit XV, pp. 90-103, Miami, Florida, USA, 2015.
[8] Shaimaa Marzouk. An in-depth analysis of the individual impact of controlled language rules on machine translation output: A mixed-methods approach. Machine Translation, Vol. 35, pp. 167-203, 2021.
[9] 藤田篤, 柴田知秀, 松吉俊, 渡邊陽太郎, 梶原智之. 言い換え認識技術の評価に適した言い換えコーパスの構築指針. 言語処理学会第 21 回年次大会ワークショップ自然言語処理におけるエラー分析発表論文集, 2015 .
[10] 白井諭, 池原悟, 河岡司, 中村行宏. 日英機械翻訳における原文自動書き替え型翻訳方式とその効果. 情報処理学会論文誌, Vol. 36, No. 1, pp. 12-21, 1995.
[11] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional Transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT), pp. 41714186, Minneapolis, Minnesota, USA, 2019.
[12] Lucia Specia, Frédéric Blain, Marina Fomicheva, Erick
Fonseca, Vishrav Chaudhary, Francisco Guzmán, and André F. T. Martins. Findings of the WMT 2020 shared task on quality estimation. In Proceedings of the 5th Conference on Machine Translation (WMT), pp. 743-764, Online, 2020.
[13] Kiyotaka Uchimoto, Naoko Hayashida, Toru Ishida, and Hitoshi Isahara. Automatic detection and semi-automatic revision of non-machine-translatable parts of a sentence. In Proceedings of the 5th International Conference on Language Resources and Evaluation (LREC), pp. 703708, Genoa, Italy, 2006.
[14] 佐藤理史. HaoriBricks3: 日本語文を合成するためのドメイン特化言語. 自然言語処理, Vol. 27, No. 2, pp. 411-444, 2020.
[15] Roberto Navigli. Word sense disambiguation: A survey. ACM Computing Surveys, Vol. 41, No. 2, pp. 1-69, 2009.
[16] Michele Bevilacqua, Tommaso Pasini, Alessandro Raganato, and Roberto Navigli. Recent trends in word sense disambiguation: A survey. In Proceedings of the 30th International Joint Conference on Artificial Intelligence (IJCAI), Survey Track, pp. 4330-4338, Online, 2021.
## 付録
表 3 に情報明示化方略体系の各カテゴリの事例を載せる。実際の書き換え事例からテキストを部分的に抜粋した。
表 3 情報明示化方略の例
\\
(B)境界の強調
(B1)引用・発言内容の範囲来週 12 日の理事会で、連銀準備再評価の政府改定案について協議する、と述べた。
(B2)語句の境界
(P) 語句の強調
(P1) 発音
(P2)事態性
(P3) ニュアンス
(L)語義の絞り込み
(L1)語義
(L2)意味
(N) 正規化
(N1)漢字の使用
(N2)省略回避
(N3)体言止め回避
(N4) 句点挿入
台湾国際貿易局の広報担当者
“職親制度”
WT O の政府調達協定への加盟には合意する
医療機器メーカーのテルモから発売された血糖測定器
河川や湖沼のはんらん
141 バーツとなった。
ひきこもり
連銀
単位は億円。
業者名、申込方法、料金などを問い合わせ「来週 12 日の理事会で、連銀準備再評価の政府改定案について協議する」、と述べた。
“台湾国際貿易局” の広報担当者
“職親制度(しょくおやせいど)”
WT O の政府調達協定に加盟することには合意する
医療機器メーカーのテルモから新発売された血糖測定器
河川や湖沼の氾濫
141 バーツを記録した。
引きこもり
連邦銀行
単位は億円です。
業者名、申込方法、料金などを問い合わせましょう。 | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F7-3.pdf | # 言語実務における専門用語の扱いと NLP における専門用語処理
影浦峡
東京大学
kyo@p.u-tokyo.ac.jp
## 概要
翻訳産業や特許管理、専門文献管理など、単言語・多言語の技術言語実務において、専門用語の扱いは重要な位置を占めている。自然言語処理 (NLP) の分野においても、単言語・多言語専門用語の自動抽出、シソーラス構築、定義抽出等、専門用語処理に関する研究は、持続的になされ、発展してきた。 ところが、後者の技術は、前者において、あまり利用されていない。本稿では、技術言語実務における専門用語の扱いの基本的な性格を確認し、NLPにおける専門用語処理が技術言語実務に実際に使われるために考慮すべき課題を整理する。
## 1 はじめに
翻訳産業や特許管理、専門文献管理など、単言語・多言語の技術言語実務において、専門用語の扱いは重要な位置を占めている。例えば世界知的所有権機関(WIPO)には充実した専門用語管理部門が存在し、知財関係の多言語専門用語データベースを構築・維持・管理している 1 )。大規模な専門用語データベースとしては、米国医学図書館が管理している医学領域の $\mathrm{SNOMED}^{2)}$ や欧州の $\mathrm{IATE}^{3)}$ なども広く知られている。
翻訳実務において専門用語の扱いは重要な要素であり(Bowker 2015)、こうした多言語専門用語デー タが活用される他、翻訳サービス企業(TLP)は、社として及び/あるいはプロジェクトに対応して、専門用語データベースを蓄積し管理していることが多い(Warburton 2021)。翻訳の品質評価基準においても、しばしば専門用語は独立した評価の軸として定義されている(DFKI/QTLaunchPad 2005)。自然言語処理(NLP)の分野においても、単言語
や多言語での専門用語の自動抽出 (Kageura \& Umino 1996; Haylen \& de Hertog 2015)、異形処理 (Daille 2017)、シソーラス構築や定義抽出等、専門用語処理に関する研究は持続的になされており、技術的な発達が見られている。実験評価レベルでの専門用語処理のパフォーマンスは一般に向上している。そして、単言語あるいは多言語の用語抽出をはじめ専門用語処理応用に関する少なからぬ論文で、冒頭に、専門用語の急増に伴い人手での専門用語管理は限界に達しているといったことが言われ、言語実務における専門用語の扱いを補佐するあるいは代替するものであることが緩やかに示唆されている。それにも拘わらず、専門用語処理に関する NLP の技術は、言語実務における専門用語の扱いでは、パターンマッチと頻度のような基本的なもの以外、あまり導入されていない。これは、評価も含む現在の NLPにおける専門用語処理研究が言語実務の要請を反映していないことを示唆している。この背景を踏まえ、本稿では、技術言語実務における専門用語の扱いの基本的な性格を確認し、NLPにおける専門用語処理が技術言語実務に実際に使われるために考慮すべき課題を整理する。
## 2 専門用語の位置づけ
## 2.1 理論的位置づけ
「専門用語」という概念は、分野の専門概念を表現するという観点から機能的に析出されたものであり、喻えて言うと Brassica oleracea や Felis catus のようなカテゴリではなく、「青菜」や「ペット」のようなカテゴリである。個別の専門用語が専門用語として認定される前提条件として、「専門語彙」という概念が要請される。概念的には、専門語彙は専門用語に先行する(Kaguera 2015)。
言語単位としては語・句に相当し、多くの言語で多くが複合語であるが、形と概念の関係及び形の摇れの範囲において、化合物の表記のように完全に人
工的な記号・命名体系と一般語との間に位置づけられる。専門用語としての機能を担うため、表現の同一性が人工的な記号・命名体系と近いかたちで求められる。また、分野の専門概念を表現することが第一義的な存在根拠であることに対応し、いわゆるテキストの文脈に(短期的には)依存しない。専門用語が機能的カテゴリとして認識され専門用語として独立した扱いを受けるのは、専門用語がテキストとは独立に分野に帰属するものとして存在するという認識を前提としている。
以上から、専門用語に関しては専門語彙が理論的に中核的な存在となる。専門語彙は、オントロジー や認識論と関連しつつもそれを構成する用語が言語的な単位としてあるという点でそれらとは独立であり、言語的な単位として現れるけれども概念を表すために存在するという点で言語学が捉える言語的対象ではない(Rey 1995)。
## 2.2 言語実務における位置づけと要請
言語実務においては、こうした専門語彙・専門用語の理論的位置づけに対応した扱いがなされる。主な点を以下にまとめておこう。具体性を持たせるため、言語実務として、技術文書や専門文書の翻訳を想定する。
1. 専門用語はテキストと独立なので、言語実務においては、分野やテーマに対応して、専門語彙そのものが管理の対象となる。持続的に専門翻訳を行う組織において、多言語専門語彙データの利用・構築・管理は必須であり、前提である。
(a) 実際的観点からは、その分野のそれなりにまとまった専門語彙データがどの言語においてもまったく存在しないということはほぼないと考えてよい。ただし、ある言語において基本データが存在しないため、別言語での基本データが存在する専門語彙についてその言語で初期データから構築することはありうる。
(b)「新たな専門用語」というとき、第一義的には、専門語彙データに登録されていない用語を意味する。未登録のものを登録するかどうかは、専門語彙データの管理基準に依存する。語彙データそのものの位置づけと性格、基幹言語におけるその用語のステータス、他言語における対応する用語のステータス等が考慮される。 (c) 能動的に(翻訳フェーズで同定された未登録用語の報告を受けてではなく)語彙デー タを拡張するために参照する文書情報源は、それぞれの語彙データの位置づけと性格に応じて決められる。
2. 専門用語はテキストと独立なので、実際に文書を翻訳するフェーズでは、テキストの文脈を踏まえた意味の等価性の維持という翻訳の基本的基準ではなく、起点言語の用語に対応する目標言語の用語を原則としてそのまま用いることが求められる。
(a) 起点言語文書に現れる専門用語はタイプ・ トークンともにすべて同定しなくてはならない。
(b) 専門用語の「翻訳」は、等価性を保った上で目標言語としてより自然な表現を求め定めるという行為ではなく、対応する用語の一貫した適用としてなされる。同定された専門用語に対して、妥当な専門語彙データに存在する目標言語の用語を利用することが専門用語の「翻訳」作業になる。
(c) 最初に参照する専門語彙データに登録されていない用語の目標言語側用語を求めるためには、それ以外の、当該分野の語彙デー タを順に探索し決定する。それらにも用語が登録されていないときには専門文書を探索する。なお、翻訳の際に出現した未登録用語は、語彙データ構築管理部門に報告される。
(d) 用語は生成されるのではなく選択され一貫して用いられるという前提を踏まえた上で、一般的な言語単位と比べて狭い範囲の特定のバリエーションが許容される (Rogers 1997)。
## 3 NLP における専門用語処理
ここでは、NLPにおける専門用語処理の現状をまず簡単に要約し、次に、言語実務の要請から考えられるタスクとそれに求められる要件を考え、NLPにおける専門用語処理の現状をそれとの対比で確認する。議論を拡散させないために、用語抽出を想定する。
## 3.1 専門用語処理の現状
NLP における専門用語処理応用として基本的なものは、テキストからの用語抽出である。ほとんどの場合、専門分野のテキスト・コーパス(と一般的な参照コーパス)から、何らかの手がかりで用語候補を抽出するもので、手がかりとしては、コーパス内の頻度、レファレンス・コーパスと分野コーパスの出現の偏り、複合要素の結束性、複合要素の組合せ可能性、出現文脈の偏りなどが用いられており (Kageura \& Umino 1996; Heylen \& de Hertog 2015)、文脈の偏り評価の流れで、最近では要素のベクトル表現等が活用されている(Terryn 2021)。
評価は、個別に評価用の参照リストを用いる場合と、評価用タグ付きコーパスを利用する場合がある。評価用タグ付きコーパスも複数作られている (Hätty et al. 2017; Terryn et al. 2018; Zadeh \& Schumann 2014)。そして、こうした評価用コーパスを利用したシェアドタスクが提供され、異なる手法が評価されることもなされている(Terryn et al. 2020)。評価に当たってはF1-measure 等が用いられることが一般的である。
## 3.2 言語実務から定義した専門用語処理
NLP としてなされている専門用語処理を離れ、 2.2 で述べた、言語実務における専門用語の扱いの位置づけと要請を考慮して、テキストからの用語抽出タスクそしてそれに対する要請を定義してみると、包括的ではないが、以下のようなものが考えられよう。
1. テキストからの用語抽出は、専門語彙データを更新するフェーズと、翻訳において用語を同定するフェーズで、有効でありうる。
2. 専門語彙データの更新を想定した用語抽出を考える場合
(a) 更新対象となる専門語彙データの存在は前提となり、「新たな用語」の抽出が評価の対象となる場合、語彙データに存在しないことが基準となる。抽出タスクとしても、更新対象となる語彙データを資源として用いることは可能であるだけでなく当然求められることになる。従って、特定の語彙デー タを想定しその属性を考慮した上での抽出タスクが定義される。
(b) 抽出の元になる文書データは、更新対象と
なる語彙データの性質に対応したものを選択する必要がある。「分野コーパス」一般では適切でないことがある。語彙データに対応した分野コーパスの構築タスクが単に外から与えた分野コーパス構築と異なるものとして定義することができる。
(c) 候補の選択は文書・テキストの出現に基づいてなされるとしても、登録の決定は語彙データの性格との関係でなされる。従って、抽出と選択のフェーズは明確に区別される。抽出の結果は、選択の候補列挙としてなされる必要があり( $n$-best だけでなくその際にどのような情報を提供するかも評価対象となりうるだろう)、選択フェーズのタスクがそれを引き継いで定義される。
(d) 評価は、更新対象となる専門語彙データの属性の観点から、新規性だけでなく、一貫性や新規追加用語の活用可能性、体系性等を含め、なされる必要がある。
3. 翻訳時の起点言語文書における用語同定を想定した用語抽出を考える場合
(a) その文書に現れる用語をすべて抽出するタスクとして定義される。従って、F1-score といった指標は不適切であり、漏れは 0 であることを前提とするか、あるいは漏れる要素の一貫性がどこまで明示されるかも評価される必要がある。
(b) 専門語彙データを想定し、マッチングを含めた抽出として定義することが自然である。
(c) その際に、専門用語において許容されるバリエーションも含めた名寄せ同定タスクが有効である。
(d) その文書が扱う主題が属する分野の用語とそれ以外の分野の用語を区別するタスクを考えることができる。
## 3.3 専門用語処理の状況
3.1 で概観した専門用語処理の現状を、タスク及びその要請として言語実務の観点から定義した専門用語処理の範囲と比較すると、基本的に、オーソドックスな NLP における専門用語の処理は、言語実務で想定されるタスクや要件を考慮していない、 それらに対応していないことがわかる。
いくつかのタスクについて例外はあり(Sasaki et
al. 2005; Iwai et al. 2016)、またフィルタリングのタスクなどは注目されてはじめているが、専門用語処理の研究は、それが言語実務を想定しそれへの応用を本気で想定するならば、まだ本格的に始まってもいないと言うことができる。
## 4 おわりに
本稿では、言語実務の観点から専門用語の扱いの実際とそこにおける要請の主なものを導入し、現在主流の専門用語抽出を概観した上で、それが言語実務の観点から要請される処理のタスク定義や要件とどの程度合致しているかを評価した。一部を除いて、とりわけ標準的なアプローチは、言語実務から要請される要件とかなり乘離していることが確認された。
言語実務の観点から定義された専門用語処理の夕スクは、これまでなされてきた用語処理と比べて具体的な文書集合や専門語彙データへの依存性が高い。それゆえ、それらは個別対応であって科学的ではない、ということではない。そもそも、言語学的な抽象の方向で捉えられた言語表現とその処理は、世界に存在する認識上有意味な内容を担った言語表現の蓄積への対応という、言語実務が取り組んでいる問題と、最初から乘離している。そして、理論言語学の展開は、存在との対応における有意味性を担う言語表現一般の性質の特徴付けに関するメタ科学的な検討とは別のものであり、後者が、論理実証主義の失敗移行、総合的蘇生に成功していないことは、特に後者の場当たり性や科学性を意味するものではまったくない。
専門用語は言語の側からは機能的バリエーションとして捉えられ、概念とその体系という自律的な世界を構成するため、命題的内容や知識の構成まで総合的に含めたメタ科学的な言語表現の有意味性の範囲を扱う文書の処理の観点からは、その比較的扱いやすい構成要素として存在する。その点で、言語処理において、何でもいいからあり得た表現が入ってくれば処理するというあり方に、存在の認識として有意味な言語表現を扱うというあり方を付加する問題を検討するためにも有用な応用であろう。
## 謝辞
本研究は JSPS 科研費補助金基盤 (S) 19H05660 の助成を受けたものです.
## 参考文献
Bowker, L. 2015. "Terminology and translation," In Kockaert, H. J. and Steurs, F. (eds.) Handbook of Terminology. Vol. 1. Amsterdam: John Benjamins. pp. 304-323.
Daille, B. 2017. Term Variation in Specialised Corpora: Characterisation, Automatic Discovery and Applications. Amsterdam: John Benjamins.
Deutsches Forschungszentrum für Künstliche Intelligenz GmbH and QTLaunchPad. 2005. Multidimensional Quality Metrics.
Hätty, A., Tannert, S. and Heid, U. 2017. "Creating a gold standard corpus for terminological annotation from online forum data," Language, Ontology, Terminology and Knowledge Structures Workshop 2017, 8 pp.
Heylen, K. and de Hertog, D. 2015. "Automatic term extraction," In Kockaert, H. J. and Steurs, F. (eds.) Handbook of Terminology. Vol. 1. Amsterdam: John Benjamins. pp. 203-221.
Iwai, M., Takeuchi, K., Ishibashi, K. and Kageura, K. 2016. "A method of augmenting bilingual terminology by taking advantage of the conceptual systematicity of terminologies," Computerm 2016, pp. 30-40.
Kageura, K. 2015. 'Terminology and lexicography," In Kockaert, H. J. and Steurs, F. (eds.) Handbook of Terminology. Vol. 1. Amsterdam: John Benjamins. pp. 45-59.
Kageura, K. and Umino, B. 1996. "Methods of automatic term recognition: A review," Terminology 3(2), pp. 259289.
Rey, A. 1995. Essays on Terminology. Amsterdam: John Benjamins. [Sager, J. C. (trans.)]
Rogers, M. 1997. "Synonymy and equivalence in speciallanguage texts: A case study in German and English texts on genetic engineering," In Trosborg, A. (ed.) Text Typology and Translation. Amsterdam: John Benjamins, pp. 217-245.
Sasaki, Y., Sato, S. and Utsuro, T. 2005. "Automatic compilation of terminological lexicon using the Web," Proceedings of the 11th Annual Meeting of the Association for Natural Language Processing, pp. 895-898. (in Japanese)
Terryn, A. R., Hoste, V. and Lefever, E. 2018. "A gold standard for multilingual automatic term extraction from
comparable corpora: Term structure and translation equivalents," LREC 2018, pp. 1803-1808.
Terryn, A. R., Hoste, V., Drouin, P. and Lefever, E. 2020. "TermEval 2020: Shared task on automatic term extraction using the annotated corpora for term extraction research (ACTER) dataset," Computemm 2020, pp. 8594.
Terryn, A. R., Hoste, V. and Lefever, E. 2021. "HAMLET: Hybrid adaptable machine learning approach to extract terminology," Terminology 27(2), pp. 254-293.
Warburton, K. 2021. The Corporate Terminologist. Amsterdam: John Benjamins.
Zadeh, B. Q. and Schumann, A.-K. 2014. "The ACL RD-TEC: A dataset for benchmarking terminology extraction and classification in computational linguistics," Computerm 2014, pp. 1862-1868. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F8-1.pdf | # 疑似問題による常識推論能力の改善と関連タスクへの効果
大村和正 黒橋禎夫
京都大学大学院情報学研究科
\{omura,kuro\}@nlp.ist.i.kyoto-u.ac.jp
## 概要
本研究では,常識推論の中でも基本的な出来事の間の蓋然的関係を推論する能力の改善に取り組む.既存のデータ構築手法をベースに,テキストから蓋然的関係を持つ基本的なイベント表現の組を自動抽出し,これをもとに疑似問題を大規模に自動生成することで,常識推論能力の改善を試みる. 実験の結果,疑似問題により常識推論タスクの性能が向上すること,蓋然的関係知識を転移することで談話関係解析に効果があることを示した。
## 1 はじめに
人間は文章を読む時,記述された出来事から引き起こされる状況を推論することで内容の理解を深める. また,対話においては,相手の発話から次の展開を推論することで文脈に沿った自然な応答を返す.このように,人間は観測される出来事と蓋然的関係を持つ出来事の推論を日常的に行っており,これは言語理解において重要な能力のひとつである.
蓋然的関係 (Contingency) は,ある事象に対してある程度次に起こりうる事象との間に成立する関係である. Penn Discourse Tree Bank[1]においては主要な談話関係のひとつとして扱われており,因果関係や前提条件などの談話関係を下位分類に含む。
近年,計算機による言語理解の実現に向けて,この蓋然的推論に焦点を当てた言語資源が盛んに構築されている $[2,3,4,5,6]$. これらの言語資源は基本的な出来事に対象を絞り,ある種の常識推論能力を問う. 深層学習モデルの発展に伴い, 自然言語推論をはじめとする基礎的な言語理解力は飛躍的に向上しているものの, 計算機は人間と比べてこの常識推論能力に乏しいことが実験的に示されている.
本研究では, 京都大学常識推論データセット $(\mathrm{KUCI})^{1)}$ を利用し, 常識推論能力の改善に取り組む. KUCI は日本語の QA データセットのひとつで
1) https://nlp.ist.i.kyoto-u.ac.jp/?KUCI
図 $1 \mathrm{KUCI}$ に含まれる常識推論問題の例.太字は正解選択肢である。
あり,図 1 のような,基本的な出来事の間の蓋然的関係を問う多肢選択式問題約 10 万問から成る [7]. ウェブテキストから原因と結果の関係を持つ基本的なイベント表現の組を抽出し,クラウドソーシングで確認した後,これをべースに問題を生成するという半自動的な構築手法が特徵である。
このタスクにおいても,計算機と人間の間に正答率の開きがあることが示されている.また,定性評価の結果,計算機はごく基本的なイベント間の蓋然的関係についても誤答している例が散見された.この問題は素朴には,訓練データを拡張し,カバレッジを向上させることで軽減できると考えられる. しかし,データ構築時にクラウドソーシングを利用しているため,同様の手法でデータを倍々に拡張していくことはコスト面から現実的でない.
我々は,データ拡張のボトルネックとなっているクラウドソーシングを省略し,正解が保証されていない疑似問題を組み合わせることで改善を試みる。抽出元のウェブテキストは容易に拡張可能であり, クラウドソーシング以外は自動処理であるため,大規模な疑似問題を生成することができる。これにより,訓練データのカバレッジ不足を補う。
蓋然的推論が言語理解において重要であるならば,蓋然的関係知識を転移することでその他のタスクにおいても改善が期待できる.主要な英語のデー タセットは転移可能性が検証されてきた $[8,9,10,11]$一方で,この常識推論データセットについては探索の余地がある,我々は,転移学習による関連タスクへの効果を定量的に評価し,蓋然的関係知識の汎用性を検証する。
## 2 関連研究
大規模な事前学習の枠組みにより,常識推論を含む様々な自然言語処理タスクで先例のない性能が達成されている [12].このような汎用的な言語理解力の改善とは別に,常識推論能力の改善に向けたアプローチもこれまでに数多くとられてきた。
ひとつは自動生成した訓練データを利用するもので,我々のアプローチもこれに該当する。例えば, Ye らは, Wikipedia と ConceptNet[13] から自動生成した 1,600 万問規模の多肢選択式穴埋め問題に対して追加の事前学習を行った [14]. 人手で構築された言語資源 (ConceptNet) を必要とするものの,エンティティレベルの常識推論タスク (CommonsenseQA[15] および Winograd Schema Challenge[16]) において性能の向上が確認されている. Staliunaite らは,ウェブテキストから談話標識を手がかりに因果関係を持つ節の組を抽出し, 負例を言語モデルから生成することで, COPA[2] に対するデータ拡張を行った [17].常識的な因果関係の推論能力の改善に焦点を当てており,関連タスクへの影響は検証していない。
その他のアプローチとして,常識推論に向けた既存の言語資源から知識を転移するものがある. 例えば,常識推論に向けたベンチマークの 1 つである Social IQA[9] および WinoGrande[10]を中間タスクとして解くことで, Winograd Schema Challenge および COPA に対する性能の向上が報告されている $[9,10]$. Pruksachatkun らは, CosmosQA[18] や HellaSwag[19] といった複雑な常識推論を必要とするデータセットが転移元のタスクとして効果的であることを実験的に示した [11]. また,類似のアプローチとして,複数の常識推論データセットでマルチタスク学習 [20] を行う手法 [21], 常識知識ベースを外部知識として組み込む手法 [22] などが提案されている.
## 3 アプローチ
## 3.1 疑似問題の生成手法
我々のアプローチは, 京都大学常識推論データセット (KUCI) の構築手法をべースにデータ拡張のボトルネックとなっているクラウドソーシングを省略することで,大規模な疑似問題を自動生成するというものである. KUCI に含まれる常識推論問題の生成手法は,大まかに以下の 4 ステップから成る (図 2).
図 2 KUCI に含まれる常識推論問題と疑似問題の生成手法の概要図.
1. 格フレーム [23] から高頻度な述語項構造 (コアイベントと呼ぶ)を獲得する
2. 蓋然的関係を表す談話標識で接続され,節間に係り受けの曖昧性がなく,前件・後件ともにコアイベントを含む節の組 (蓋然的基本イベントペアと呼ぶ) をテキストから抽出する
3. 抽出されたイベントペアが蓋然的関係を持つか否かをクラウドソーシングで確認する
4. 蓋然的関係を持つと判断されたイベントペアをベースに,これと中程度に類似するイベントペアの後件から誤り選択肢を無作為に抽出することで問題を生成する
この手法において,ステップ 3を省略することで問題の自動生成が可能となる (図 2 (3)). コアイベントを獲得する際の頻度に関する閾値や誤り選択肢の抽出条件など,手法のパラメータは KUCI の構築時と同じ値に設定する.
## 3.2 蓋然的基本イベントペアの自動抽出
3.1 節の手法に従って蓋然的基本イベントペアの自動抽出を行った. 抽出元のテキストは,ウェブから収集した日本語 33 億文から成るコーパスを利用した. このコーパスと KUCI の構築時に利用したウェブコーパスとの間に文の重複はない。この結果, 83.2 万組の蓋然的基本イベントペアが自動抽出された. Omura らの報告では,クラウドソーシングによって約 $1 / 3$ のイベントペアが除かれているため [7],約 50 万組のイベントペアは有効であることが期待される。
## 3.3 リークへの対処
大規模テキストから訓練データを生成する際の懸念として Data Contamination の問題がある [24]. テキスト中に評価データと同一もしくは酷似した文が含まれているために意図せず教師信号を学習し,性能が過大評価されてしまうというものである.
本研究では,評価データに含まれる問題の生成元となったイベントペア (ベースと呼ぶ) と酷似するものをヒューリスティックにもとづき除去することで対処する.具体的には,単語の並びおよびコアイベントの組にもとづくフィルタリングを適用する.
## 単語の並びにもとづくフィルタリング
ベースと重複する単語の並びの長さが,ベースの単語数の $80 \%$ を超えるものを除く.
## コアイベントの組にもとづくフィルタリング
ベースに含まれるコアイベントの組と同じコアイベントの組を含むイベントペアを除く。
上記のフィルタリングを適用した結果, 77.4 万組の蓋然的基本イベントペアが獲得された. これらのイベントペアから問題を生成した結果,77.2万問の疑似問題が生成された. 無作為に選択した 50 問を著者が評価した結果,36 問が解答可能であった.
## 4 計算機による解答実験
疑似問題による効果を検証するため,深層学習モデルによる KUCI および関連タスクの解答実験を行った. 本研究では, 関連タスクとして談話関係解析および日本語 Winograd Schema Challenge (JWSC)[25] を対象とした.
## 4.1 モデル
本研究では, BERT モデル [26] および XLMRoBERTa(XLM-R) モデル [27] の性能を検証した。 BERT は,日本語 Wikipedia 全文で事前学習した NICT BERT 日本語 Pre-trained モデル (BPE あり)2)を利用した,XLM-R は,Wikipedia および CC-100[28] から成る大規模多言語コーパスで事前学習した XLM-RoBERTaLARGE モデル³)を利用した.
## 4.2 実験設定
常識推論前述のとおり,KUCIを用いて常識推論能力を評価した. タスクは 4 択問題で,訓練用,
2) https://alaginrc.nict.go.jp/nict-bert/index.html
3) https://huggingface.co/xlm-roberta-large開発用,テスト用にそれぞれ 83,127 問,10,228 問, 10,291 問を含む.各選択肢のスコアは,文脈と選択肢の組を特殊な記号で区切って入力し,先頭トークンのベクトル表現をスカラーに線形変換することで算出する。訓練時は,softmax 関数で正規化した各選択肢のスコアと正解選択肢を 1 とする one-hot vectorの間の交差エントロピー誤差を最小化するように学習する。なお,疑似問題を加える時は,常識推論問題の交差エントロピー誤差 $L_{C I}$ と疑似問題の交差エントロピー誤差 $L_{\text {Pseudo }}$ の重み付き和
$
L=L_{C I}+\lambda L_{\text {Pseudo }}
$
を最小化する。
談話関係解析データセットは京都大学ウェブ文書リードコーパス (KWDLC)[29,30]を利用した. KWDLC は様々な文書の冒頭 3 文をウェブから収集することで構築されており,その規模は 6,445 文書から成る。これらの文書には,クラウドソーシングを用いて節間に談話関係がラベル付けされている。 さらに,このうち 500 文書には専門家によるラベルも付与されている. 本研究では,専門家ラベルのない節ぺア 37,491 組を訓練データに利用し,専門家ラベルが付与された節ぺア 2,320 組の分類精度を 5 分割交差検証で評価した,タスクは「談話関係なし」 を含む 7 值分類であり,Devlin らが提案した文ぺア分類の設定 [26] で fine-tuning した.
JWSC WSC は文中の照応詞が指示する先行詞を 2 つの候補から選択するタスクである [16]. JWSC は訓練データ 1,322 文とテストデータ 564 文から成り,開発データは用意されていないため 5 分割交差検証を行った. 先行詞に含まれるトークンのベクトル表現の平均をその先行詞のベクトル表現とみなし,正解の先行詞と照応詞のベクトル表現の間のコサイン類似度を 1 に近づけるように学習した。
表 $1 \mathrm{KUCI}$ の正解率. 異なる 3 つのシード值で fine-tuning した結果の平均と標準偏差を記載している.
やはりメダルを獲れば
a. 応援に熱が入る
b. 話題になる
c. 代替出場が決定する
d. 彼の大会になる霧が晴れると、
a. 景色が素晴らしい
b. 川の音がすごい
c. 雪遊びも楽しそうだ
d. 写真写りがいまいちだ
図 3 疑似問題により BERT モデルが正答するようになった問題例. 太字は正解選択肢であり,赤字は以前の誤答選択肢である.
表 2 KWDLC に対する談話関係解析の結果. 評価指標は「談話関係なし」を除いた micro-average で算出した. 5 分割交差検証を異なる 3 つのシード値で行い,その結果の平均と標準偏差を記載している。 また,矢印は多段階の fine-tuningを表す.
表 $3 \mathrm{JWSC}$ の正解率. 5 分割交差検証を異なる 3 つのシード値で行い,その結果の平均と標準偏差を記載している.†は一部訓練実行時に学習が進まなかったこと (degenerate run $[8,11]$ )を表す.
& \\
## 4.3 実験結果
常識推論タスクの実験結果を表 1 に示す. 疑似問題を加えることで,BERT モデルと XLM-R モデルともに正解率が 3~4\%向上している. また, 図 4 にモデルの学習曲線を示す. 疑似問題は KUCI の訓練データと比べて低品質であるものの,性能の向上に寄与することが分かる.
疑似問題で訓練したモデルが正答するようになった問題例を図 3 に示す. これらの基本的な蓋然的関係を問う問題に正答するようになったほか,全ての選択肢に低いスコアを付けて消去法的に誤り選択肢を選んでいたような問題に対する改善なども見られた. 疑似問題によって KUCI の訓練データのカバレッジ不足が補われていると考えられる.
図 4 KUCIの開発データに対する BERT モデルと XLM-R モデルの学習曲線. 訓練データ不足のために学習が進まなかった結果については省略している。
関連タスクについて,まず,表 2 に談話関係解析の実験結果を示す. KUCI および疑似問題を中間タスクとして解くことで,談話関係解析に効果があることが分かる. 問題の生成元となっている蓋然的基本イベントペアは,KNP[32]によって「原因・理由」 または「条件」の談話関係を持つと自動解析されたものであるため,これらの談話関係の知識が上手く転移されたと考えられる。
次に,JWSC に対する解答実験の結果を表 3 に示す. BERT モデルは,疑似問題を中間タスクとして解くことによる性能の悪化が見られる.照応先が文外にあるために理解が困難な問題が生成されることを防ぐ目的で,指示詞を含むイベントペアを除外しているため,訓練の途中で指示詞に関する知識が忘却されてしまうことが原因だと考えられる。一方で,XLM-R モデルにおいては,疑似問題による性能の悪化は見られなかったが,一部訓練時に学習が進まない現象 (degenerate run $[8,11]$ ) が見られた. デー タが小規模である場合によく見られる現象であり,中間タスクによってこの問題を軽減できることが報告されている $[8,11]$ が,本研究でも同様の結果が確認された。
## 5 おわりに
本研究では,大規模に自動生成した疑似問題による常識推論能力の改善と,関連タスクへの影響の検証に取り組んだ.今後は,現状の計算機モデルが誤答する問題の定性的分析を進め,より深い言語理解を問うデータの構築を検討する。
## 謝辞
本研究は,(公財) 日本漢字能力検定協会の支援を受けた。
## 参考文献
[1] Rashmi Prasad, Nikhil Dinesh, Alan Lee, Eleni Miltsakaki, Livio Robaldo, Aravind Joshi, and Bonnie Webber. The Penn Discourse TreeBank 2.0. In Proc. LREC2008.
[2] Melissa Roemmele, Cosmin Bejan, and Andrew Gordon. Choice of Plausible Alternatives: An Evaluation of Commonsense Causal Reasoning. In Proc. AAAl2011 Spring Symposium.
[3] Nasrin Mostafazadeh, Nathanael Chambers, Xiaodong He, Devi Parikh, Dhruv Batra, Lucy Vanderwende, Pushmeet Kohli, and James Allen. A Corpus and Cloze Evaluation for Deeper Understanding of Commonsense Stories. In Proc. NAACL2016.
[4] Rowan Zellers, Yonatan Bisk, Roy Schwartz, and Yejin Choi. SWAG: A Large-Scale Adversarial Dataset for Grounded Commonsense Inference. In Proc. EMNLP2018.
[5] Maarten Sap, Ronan Le Bras, Emily Allaway, Chandra Bhagavatula, Nicholas Lourie, Hannah Rashkin, Brendan Roof, Noah A. Smith, and Yejin Choi. ATOMIC: An Atlas of Machine Commonsense for If-Then Reasoning. In Proc. AAAI2019.
[6] Jena D. Hwang, Chandra Bhagavatula, Ronan Le Bras, Jeff Da, Keisuke Sakaguchi, Antoine Bosselut, and Yejin Choi. COMETATOMIC 2020: On Symbolic and Neural Commonsense Knowledge Graphs. In Proc. AAAI2021.
[7] Kazumasa Omura, Daisuke Kawahara, and Sadao Kurohashi. A Method for Building a Commonsense Inference Dataset based on Basic Events. In Proc. EMNLP2020.
[8] Jason Phang, Thibault Févry, and Samuel R. Bowman. Sentence Encoders on STILTs: Supplementary Training on Intermediate Labeled-data Tasks. CoRR, Vol. abs/1811.01088, , 2018.
[9] Maarten Sap, Hannah Rashkin, Derek Chen, Ronan Le Bras, and Yejin Choi. Social IQa: Commonsense Reasoning about Social Interactions. In Proc. EMNLP2019.
[10] Keisuke Sakaguchi, Ronan Le Bras, Chandra Bhagavatula, and Yejin Choi. WinoGrande: An Adversarial Winograd Schema Challenge at Scale. In Proc. AAAI2020.
[11] Yada Pruksachatkun, Jason Phang, Haokun Liu, Phu Mon Htut, Xiaoyi Zhang, Richard Yuanzhe Pang, Clara Vania, Katharina Kann, and Samuel R. Bowman. Intermediate-Task Transfer Learning with Pretrained Language Models: When and Why Does It Work? In Proc. ACL2020.
[12] Alex Wang, Yada Pruksachatkun, Nikita Nangia, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel R. Bowman. SuperGLUE: A Stickier Benchmark for General-Purpose Language Understanding Systems. In Proc. NeurIPS2019.
[13] Robyn Speer, Joshua Chin, and Catherine Havasi. ConceptNet 5.5: An Open Multilingual Graph of General Knowledge. In Proc. AAAI2017.
[14] Zhi-Xiu Ye, Qian Chen, Wen Wang, and Zhen-Hua Ling. Align, Mask and Select: A Simple Method for Incorporating Commonsense Knowledge into Language Representation Models. CoRR, Vol. abs/1908.06725, , 2019.
[15] Alon Talmor, Jonathan Herzig, Nicholas Lourie, and Jonathan Berant. CommonsenseQA: A Question Answering Challenge Targeting Commonsense Knowledge. In Proc. NAACL2019.
[16] Hector J. Levesque. The Winograd Schema Challenge. In Proc. AAAI2011 Spring Symposium.
[17] Ieva Staliunaite, Philip John Gorinski, and Ignacio Iacobacci. Improving Commonsense Causal Reasoning by Adversarial Training and Data Augmentation. In Proc. AAAI2021.
[18] Lifu Huang, Ronan Le Bras, Chandra Bhagavatula, and Yejin Choi.
Cosmos QA: Machine Reading Comprehension with Contextual Commonsense Reasoning. In Proc. EMNLP2019.
[19] Rowan Zellers, Ari Holtzman, Yonatan Bisk, Ali Farhadi, and Yejin Choi. HellaSwag: Can a Machine Really Finish Your Sentence? In Proc. ACL2019.
[20] Rich Caruana. Learning Many Related Tasks at the Same Time with Backpropagation. In Proc. NeurIPS1995.
[21] Nicholas Lourie, Ronan Le Bras, Chandra Bhagavatula, and Yejin Choi. UNICORN on RAINBOW: A Universal Commonsense Reasoning Model on a New Multitask Benchmark. In Proc. AAAI2021.
[22] Bill Yuchen Lin, Xinyue Chen, Jamin Chen, and Xiang Ren. KagNet: Knowledge-Aware Graph Networks for Commonsense Reasoning. In Proc. EMNLP2019.
[23] Daisuke Kawahara, Daniel Peterson, Octavian Popescu, and Martha Palmer. Inducing Example-based Semantic Frames from a Massive Amount of Verb Uses. In Proc. EACL2014.
[24] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language Models are Few-Shot Learners. In Proc. NeurIPS2020.
[25] 柴田知秀, 小浜翔太郎, 黒橋禎夫. 日本語 Winograd Schema Challenge の構築と分析. 言語処理学会第 21 回年次大会論文集 (NLP 2015).
[26] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proc. NAACL2019.
[27] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised Cross-lingual Representation Learning at Scale. In Proc. ACL2020.
[28] Guillaume Wenzek, Marie-Anne Lachaux, Alexis Conneau, Vishrav Chaudhary, Francisco Guzmán, Armand Joulin, and Edouard Grave. CCNet: Extracting High Quality Monolingual Datasets from Web Crawl Data. In Proc. LREC2020.
[29] Daisuke Kawahara, Yuichiro Machida, Tomohide Shibata, Sadao Kurohashi, Hayato Kobayashi, and Manabu Sassano. Rapid Development of a Corpus with Discourse Annotations using Two-stage Crowdsourcing. In Proc. COLING2014.
[30] Yudai Kishimoto, Shinnosuke Sawada, Yugo Murawaki, Daisuke Kawahara, and Sadao Kurohashi. Improving CrowdsourcingBased Annotation of Japanese Discourse Relations. In Proc. LREC2018.
[31] 岸本裕大, 村脇有吾, 河原大輔, 黒橋禎夫. 日本語談話関係解析:タスク設計・談話標識の自動認識・コーパスアノテー ション. 自然言語処理, Vol. 27, No. 4, 2020.
[32] Sadao Kurohashi and Makoto Nagao. A Syntactic Analysis Method of Long Japanese Sentences Based on the Detection of Conjunctive Structures. Computational Linguistics, Vol. 20, No. 4, pp. 507534, 1994.
表 7 アンサンブルモデルの談話関係ごとの True Positive および Positive の数. 異なる 3 つのシード値で fine-tuning したモデルを Seed Averaging によってアンサンブルした結果を記載している.
} & KWDLC & 155 & $18 / 33$ & $28 / 38$ & $0 / 8$ & $3 / 16$ & $47 / 76$ & 56.1 & 40.4 & 47.0 \\
## A 実験の詳細
## A. 1 ハイパーパラメータ
fine-tuning に関するハイパーパラメータの詳細は以下のとおりである.
表 4 ハイパーパラメータの詳細 (KUCI).
表 5
XLM-R は学習率を低く設定することで学習が安定したため,BERT の学習率より低く設定している.表 6 KUCI の開発データに対する BERT モデルの正答数・誤答数の混同行列. 異なる 3 つのシード値で fine-tuning したモデルを Seed Averaging によってアンサンブルした結果を記載している。
} & 正答 & 7,902 & 979 \\
## B 疑似問題の効果の詳細
## B. 1 常識推論問題の正答数の変化
KUCI の開発データに対する BERT モデルの正答数・誤答数の混合行列を表 6 に示す。
## B. 2 談話関係解析結果の詳細
談話関係ごとの分類結果を表 7 に示す.
## C フィルタリングの適用例
3.3 節のフィルタリングの適用例を述べる。例えば,図 1 の問題のベースは「お腹が空いたので $\rightarrow$ ファミレスで食事する」であり,「お腹が空く $\rightarrow$ ファミレスで食事する」というコアイベントの組を含む. これに対し,イベントペア「お腹が空いたので $\rightarrow$ 友達とファミレスで食事する」は\{お腹, が, 空いた, ので, ファミレス, で, 食事, する\}という 8 単語の並びが重複し,ベースの単語数 (8) の $80 \%$ を超える.また,同じコアイベントの組を含むため,両方のフィルタリングによって除かれる。 | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F8-2.pdf | # 医学生物学論文解析のための談話依存構造ツリーバンクの構築
西田典起
理化学研究所 AIP
noriki.nishida@riken.jp
}
図 1 医学生物学論文要旨に対する談話依存構造の例.
ンクが訓練データおよび評価用データとして不可欠 である。しかし,既存の談話構造ツリーバンクのサ イズおよびドメインに関するカバレッジは十分とは 言い難い。例えば,談話構造解析の研究で最もよく 用いられている RST-DT コーパス [17] には 385 文書 の談話構造しかアノテーションされておらず,明ら かにサイズが少ない.SciDTB コーパス [18]には自然言語処理分野の 798 論文要旨に対する談話依存構造がアノテーションされているが,分野によって語彙や論旨の展開傾向は大きく異なるため, SciDTBで 訓練した解析システムによる他分野の論文要旨に対 する解析精度は大きく低下してしまう。また,本プ ロジェクトの一環として著者らは COVID-19 に関連 する医学生物学論文要旨 300 件に対して人手で談話依存構造を付与し, COVID-19 Discourse Dependency Treebank (COVID19-DTB) [19] として公開したが,そ のサイズはまだまだ小さく,さらに拡張していく必要がある。
本プロジェクトの目的は,医学生物学分野の論文 に対する談話構造解析法およびその応用の研究開発 に有用な,高品質で既存のコーパスに比べて大規模 な談話依存構造ツリーバンクを構築,整備,公開す
ることである. 医学生物学論文に焦点をあてること にはいくつかの利点がある。一つは,論文の文章は SNS やブログ等の文章よりも論旨が明確で論理的で あることが期待されており, 談話構造の研究対象と して望ましい. また,膨大な医学生物学論文から有用な情報を抽出して体系化する医療知識獲得技術の 開発は社会的に喫緊の課題であり, 医学生物学論文 を対象に談話構造解析システムを開発することの意義は大きい.
本稿では, GENIAコーパス [20] に収録されてい る論文要旨 1,999 件に対して談話依存構造を付与す るための詳細について説明する,具体的には,談話依存構造のフレームワークとアノテーションプロセ スの詳細,現状のツリーバンクに基づく統計情報に ついて説明する。
## 2 談話依存構造のフレームワーク
## 2.1 EDU 分割ルール
本プロジェクトのアノテーションでは,まず論文要旨を Elementary Discourse Unit (EDU) と呼ばれる節 (clause) レベルのテキストスパンに分割するところから始める. 各 EDU は連続した単語列からなっており,EDU 間にオーバーラップはない。あるテキストスパンが EDU の基準を満たすかどうかは, 主に動詞 (述語) に基づいて判断する. ただし, “in spite of" や“due to” などのディスコースマーカーを伴う句については,独立の EDU として認める. 結果的に,以下のようなケースでは $\mathrm{EDU}$ 分割を行う1).
1. 主節,並列節
2. 接続詞で結合される従属節
3. 分詞構文 (participle clause)
4.「目的」「結果」の意の to 不定詞, “in order to”節, so that 節
5. 副詞的役割の「前置詞 + 動名詞」
6. 名詞を後置修飾する \{分詞, to 不定詞,「前置詞 + 動名詞」\}
7. 関係節
8. 同格の that 節
9. 動詞を含む相関従属節 (correlative subordinators)
10. ディスコースマーカーを伴う句
1)各ケースの例については紙面のスペース状省略するが,公開しているガイドライン (+アノテーションツール)で見ることができる: https://norikinishida.github.io/tools/ discdep/Biomed-DTB-annotation-guideline.pdf
図 2 Elaborationと Additionによる談話依存構造の例.
Carlson ら (2001) のマニュアル [17] に倣い,本プロジェクトでも以下のようなケースでは独立した EDU とは認めない. 前節の基準を満たす場合でも, これらの例外に該当する場合は EDU 分割しない。
1. 動詞の主語・目的語・補語や,前置詞の目的語としての節 (clausal subject, clausal object, clausal complement)
(1) $[$ Making computers smaller often means sacrificing memory.]
(2) [He is interested in climbing Everest.]
2. 分裂文・疑似分裂文 (強調構文), 外置構文など
(3) [It is sleep deprivation that exacerbates health problems.]
## 2.2 談話依存関係
本プロジェクトでは,談話関係を13クラスにカテゴライズする.各談話関係クラスの意味や対応するディスコースマーカーの例を表 1 に載せる。これらは, SciDTB や RST-DT, Penn Discourse Treebank [21], ISO 24617-8 [22] などをもとに, 実際のアノテーション作業を通してアノテーション方針の一貫性が高くなるように設計した。
Root 論文要旨の談話依存構造では,Root 関係の子は研究目的や主要な報告内容について記述しているEDUになる。すなわち,論文要旨のなかで最も中心的な EDU である.
Elaboration と Addition Elaboration と Addition は最も一般的で頻度の高い談話関係であり, これらの違いは二つの EDU が従属的な関係にあるか,等位的な関係にあるかである。 三つ以上の EDU が添加・累加・系列・同列の関係にある場合は,一つ前の EDU から直後の EDU に順番に接続していくことによってチェインを構成する. 図 2 に Elaboration と Additionを用いた例を示す。
表 1 本コーパスで採用する談話関係とその意味,代表的なディスコースマーカー.
\\
基本談話関係表中の Comparison から MannerMeans までは既存コーパスにおける談話関係の定義とほぼ同様である。
マクロ談話関係 Background と Findings はすこし特殊であり,論文要旨における研究背景と研究結果・結論に対応する領域 (セクション)を指し示すためのマクロな視点の談話関係とする。したがって, これらのクラスが一つの論文要旨中で複数回出現することは原則ない.
Textual-Organization と Same-Unit TextualOrganization はタイトルやタグ等を指し示すためのものである. Same-Unit は EDU の埋め込みによって分離して非連続になってしまった EDUを結合するために用いる.
## 2.3 典型的な談話依存構造
医学生物学系の論文要旨に限らないが,談話依存構造には分野ごとに典型的な構造の傾向がある. 一般的に論文要旨では大きくわけて (1) 背景 (Background), (2) 目的 (Objectives), (3) 手法, 実験設計 (Methods), (4) 結果,考察,結論 (Results, Discussion, Conclusions) を含んでいる. 実際,論文要旨中でこれらの項目ごとに見出し (e.g., "Background:", “Results:") を設けている論文も数多く存在する.
大多数の論文要旨では,上記の順番通りに項目を説明している. それらは図 3 のような談話依存構造になる。また,工学系では少ないが,医学生物学などの分野では研究によって発見された知見や事例そ
図 3 典型例 1
図 4 典型例 1 (b)
のものを論文 (論文要旨) の中心的な情報として置き,論文要旨はその知見と意義について記述していることがある。そのような場合は,談話依存構造は図 5 のようになる.
## 3 アノテーションプロセス
医学生物学論文要旨の読解および談話依存構造のアノテーションはそれぞれ高度な専門知識と技能を要求するため, 信頼性の高いツリーバンクを作成するためにはアノテーションプロセスに工夫が必要になる. 本プロジェクトでは,まずアノテーションガイドラインとブラウザ上で動くアノテーションツー ルを整備した ${ }^{2)}$ .本ツールは SciDTB の著者ら [18] によるツールをもとに改変を行った。
本プロジェクトでは,アノテーションプロセスを
図 5 典型例 2
(1) 選別フェイズ,(2)修練フェイズ,(3) 拡張フェイズの 3 段階に分けた。選別フェイズでは,アノテー ション作業や当該分野について一定の習熟度がある 10 人のワーカーに対してガイドラインを配布し, GENIA コーパス中からランダムにサンプリングされた 20 件の論文要旨に対して 10 人のワーカーと著者によってアノテーションを行った.そして,著者による談話依存構造を正解データとし,各ワーカー の Labeled Attachment Score (LAS) を計算し,LAS が高い上位 5 名を選別した。本フェイズにおける LAS は $31.28 \%$ から $79.89 \%$ と開きが非常に大きく,上位 5 名の平均 LAS は $75.20 \%$ であった.
次の修練フェイズでは, GENIA から新たにランダムサンプリングした 20 件に対して,前フェイズで選別された 5 名のワーカーと著者によって再度アノテーションを行った. 実際のアノテーションに入る前に,疑問点やアノテーションツールに関する要望を把握するために各ワーカーと会議を行い,ガイドラインやツールに対して適宜変更を行った。また,本フェイズでは Google Form と Google Spreadsheetを用いてワーカーが疑問点等を投稿し, 著者らと迅速にディスカッションできるようにした. 再度著者によるアノテーション結果を正解として各ワーカーのアノテーション結果の LAS と定性的な質が水準を満たすまで本フェイズを繰り返した。本フェイズの結果, 最高 LAS は 82.13 に上昇し, 5 名の平均 LAS も 76.28 に上昇した.
最後の拡張フェイズでは,修練フェイズの基準をクリアしたワーカーと著者によって, GENIA からランダムサンプリングされた数百件に対するアノテー ションを行った. 本フェイズでは,各ワーカーはそれぞれ異なる論文要旨集合に対してアノテーションを行う,アノテーション一致率の計算については,著者によってすべての論文要旨をアノテーションすることで行う予定である.
## 4 統計情報
本節では,作成中のツリーバンク (GENIA-DTB) の統計的な情報を既存の談話依存構造ツリーバンクである SciDTB [18] と比較する. 本プロジェクトでは現在拡張フェイズが進行中のため, 完了した修練
表 2 本プロジェクトで構築中の GENIA-DTB と SciDTB の統計情報. アスタリスクは構築途上であることを示す.
図 6 談話関係の分布の比較.
フェイズまでのデータを対象に統計情報を求める.
表 2 から, GENIA の論文要旨のほうが SciDTB の論文要旨よりも長い傾向があることがわかる. しかし,談話依存関係の長さ (親と子の間の距離) の平均については両コーパスでほぼ等しく,談話依存関係の長さは文書長に強く依存しないことがわかる. また,Root EDUの子,すなわち論文要旨中で最も中心的な EDU の位置は GENIA-DTB ではわずかに後方に位置する傾向があることがわかる.談話関係の分布については,図6から,GENIA-DTB では Addition と Same-Unit の頻度が SciDTB よりも多いことがわかる.これらの結果から, 医学生物学論文要旨は,自然言語処理論文要旨よりも長く, 節の埋め込みによる複雑な文の構造を持ち,より等位的な情報の追加が多いことがわかる.このことは,医学生物学分野を対象にした談話依存構造ツリーバンクを構築することの意義を示唆している.
## 5 今後の計画
今後は,拡張フェイズを引き続き行い,来年度上半期中での合計 1,999 件のアノテーション収集を目指す.また,COVID19-DTBを今回のアノテーションフレームワークにあわせて更新し, GENIA-DTB と将来的に統合することを計画している。
## 謝辞
本研究は JSPS 科研費 21K17815 の助成を受けたものです。本研究の一部は、JST、AIP 日独仏 AI 研
究、JPMJCR20G9 の支援を受けたものである。
## 参考文献
[1] Nicholas Asher and Alex Lascarides. Logics of Conversation. Cambridge University Press, 2003.
[2] Tsutomu Hirao, Yasuhisa Yoshida, Masaaki Nishino, Norihito Yasuda, and Masaaki Nagata. Single-document summarization as a tree knapsack problem. In Proceedings of the 2013 Conference of Empirical Methods in Natural Language Processing (EMNLP), pp. 1515-1520, 2013.
[3] Sujian Li, Liang Wang, Ziqiang Cao, and Wenjie Li. Textlevel discourse dependency parsing. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (ACL), pp. 25-35, 2014.
[4] Mathieu Morey, Philippe Muller, and Nicholas Asher. A dependency perspective on RST discourse parsing and evaluation. Computational Linguistics, Vol. 44, No. 2, pp. 197-235, 2018.
[5] Wenpeng Hu, Zhangming Chan, Bing Liu, Dongyan Zhao, Jinwen Ma, and Rui Yan. GSN: A graph-structured network for multi-party dialogues. In Proceedings of the Twenty-Eighth International Joint Conference on Artificial Intelligence (IJCAI), pp. 5010-5016, 2019.
[6] Zhouxing Shi and Minlie Huang. A deep sequential model for discourse parsing on multi-party dialogues. In Proceedings of the Thirty-Third AAAI Conference on Artificial Intelligence (AAAI), pp. 7007-7014, 2019.
[7] Annie Louis, Aravind Joshi, and Ani Nenkova. Discourse indicators for content selection in summarization. In Proceedings of the SIGDIAL 2010 Conference, pp. 147156, 2010 .
[8] Yasuhisa Yoshida, Jun Suzuki, Tsutomu Hirao, and Masaaki Nagata. Dependency-based discourse parser for single-document summarization. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, pp. 1834-1839, 2014.
[9] Parminder Bhatia, Yangfeng Ji, and Jacob Eisenstein. Better document-level sentiment analysis from RST discourse parsing. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 2212-2218, 2015 .
[10] Greg Durrett, Taylor Berg-Kirkpatrick, and Dan Klein. Learning-based single-document summarization with compression and anaphoricity constraints. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (ACL2016), pp. 1998-2008, 2016.
[11] Jiacheng Xu, Zhe Gan, Yu Cheng, and Jingjing Liu. Discourse-aware neural extractive text summarization. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 50215031, 2020 .
[12] Yangfeng Ji and Noah A. Smith. Neural discourse structure for text categorization. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 996-1005, 2017.
[13] Elisa Ferracane, Su Wang, and Raymond J. Mooney. Leveraging discourse information effectively for author- ship attribution. In Proceedings of the The 8th International Joint Conference on Natural Language Processing (IJCNLP), pp. 584-593, 2017.
[14] Suzan Verberne, Lou Boves, Nelleke Oostdijk, and PeterArno Coppen. Evaluating discourse-based answer extraction for why-question answering. In Proceedings of the 30th annual international ACM SIGIR conference on Research and development in information retrieval (SIGIR), pp. 735-736, 2007.
[15] Peter Jansen, Mihai Surdeanu, and Peter Clark. Discourse complements lexical semantics for non-factoid answer reranking. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (ACL), pp. 977-986, 2014.
[16] Chris Quirk and Hoifung Poon. Distant supervision for relation extraction beyond the sentence boundary. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics (EACL), pp. 1171-1182, 2017.
[17] Lynn Carlson, Daniel Marcu, and Mary Ellen Okurowski. Building a discourse-tagged corpus in the framework of Rhetorical Structure Theory. In Proceedings of the 2nd SIGdial Workshop on Discourse and Dialogue, 2001.
[18] An Yang and Sujian Li. SciDTB: Discourse dependency treebank for scientific abstracts. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 444-449, 2018.
[19] Noriki Nishida and Yuji Matsumoto. Out-of-domain discourse dependency parsing via bootstrapping: An empirical analysis on its effectiveness and limitation. Transactions of the Association for Computational Linguistics. to appear.
[20] J.-D. Kim, T. Ohta, Y. Tateisi, and J. Tsujii. GENIA corpus -A semantically annotated corpus for bio-textmining. Bioinformatics, Vol. 19, No. suppl1, pp. 180-182, 2003.
[21] Rashmi Prasad, Nikhil Dinesh, Alan Lee, Eleni Miltsakaki, Livio Robaldo, Aravind Joshi, and Bonnie Webber. The Penn Discourse TreeBank 2.0. In Proceedings of the Sixth International Conference on Language Resources and Evaluation, 2008.
[22] Harry Bunt and Rashmi Prasad. ISO DR-Core (ISO 246178): Core concepts for the annotation of discourse relations. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (ACL 2016), 2016. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F8-3.pdf | # マイクロブログからの消失エンティティの検知
赤崎 智 1 吉永 直樹 2 豊田 正史 ${ }^{2}$
1 東京大学大学院 情報理工学系研究科 2 東京大学生産技術研究所
\{akasaki, ynaga, toyoda\}@tkl.iis.u-tokyo.ac.jp
## 概要
人物や作品,イベント等のエンティティに関する行動や意思決定を補助するため,閉店する施設や終了するサービス等の現実世界から消失するエンティティに着目し,それらをマイクロブログから検知する新しいタスクに取り組む. 我々は消失エンティティが特有な文脈を伴うことに着目し,それらを高精度に収集できるように distant supervision の手法を改良する。また,収集したデータを使ってエンティティ認識モデルを学習する際に, 単語分散表現をマイクロブログ投稿で追加学習し与えることで,大域的な特徴を考慮する. 実験により提案手法が精度良く消失エンティティを検知できることを確認する。
## 1 はじめに
我々は,人物や作品,イベントといった現実世界を構成するエンティティの変化を意識して,日々の行動や意思決定を行っている. これらのエンティティの中でも特に重要なのが,その消失1)に関する情報である。例えば,一般人であれば興味関心のある施設や店舗等の閉店情報や近日中に終了するイベントをいち早く知る必要があり, 企業であれば終了するサービス等を網羅することが業界内外のトレンド分析等に繋がる.また,エンティティを集積する知識べースにおいても,消失したというエンティティの状態を更新することが必要である.
エンティティの消失を捉える方法として,知識ベース等のエンティティ辞書を用意し,それらの出現頻度を監視する手法が考えられる。しかし,エンティティは消失しても言及され続ける場合があったり,逆に長期間言及されていなくてもそれが消失ではない他の要因であったりするため, 何をもってエンティティが消失したかを判断するかが難しい.
これを踏まえ,本研究は公式情報やニュース,個
1)本研究では簡便のため、エンティティの存在が実世界からなくなること (例: 人の死没,店の閉店)を,消失とみなす。人の体験に至るあらゆる情報が発信されるマイクロブログを対象に,消失エンティティを検知するタスクに取り組む. 我々はユーザがマイクロブログで消失エンティティに言及する際,消失を示唆する特有の文脈 (表 1)を使うことに着目する。これらの文脈を効率的に収集するため,知識べースと時系列テキストから半教師あり学習でラベル付きデータを生成する time-sensitive distant supervision (TDS) [1] を改良して用いる. 具体的には,知識べースに記述されたエンティティの消失タイミングを文脈収集時に考慮し,なるべくノイズが混入しないょうにする。
収集したデータを用いて,NERによる消失エンティティ認識モデルを構築する。この際,消失エンティティがマイクロブログ上でバーストして出現しやすいことに着目し,これらの複数投稿を用いて単語分散表現を追加学習し, NER モデルの追加特徵として与えより頑健なエンティティ認識を行う.
実験ではマイクロブログである Twitter から,改良した TDS で訓練データを収集し,提案する NER モデルを学習する. 人手で構築したテストデータに対しモデルを適用することで消失エンティティの認識を評価し,提案手法の有効性を確認する。
## 2 消失エンティティ
本節では消失エンティティを,赤崎ら [1] の新エンティティの定義を参考に定義する.赤崎らは,現実世界に新しく現れたエンティティは最初に現れてから世間に周知されるまでの過程があり [2], その過程において特有な表現を伴って言及されることを報告している. 我々は消失エンティティも同様に消失した時点だけでなくそれまでの過程で,予定や前兆を示す特有な表現が文脈に現れる (表 1)ことに着目し,以下のように消失エンティティを定義した:
消失文脈読み手がエンティティの消失を認知していないことを,書き手が仮定している文脈
消失エンティティ消失文脈で現れるエンティティ
表 1: TDS で Twitter から収集した消失エンティティデータセットの統計 ( 英語)と消失文脈の例
この消失文脈を捉えることで,死没した人物等の既に消失したエンティティだけでなく,終了前のイベントや施設,サービス等の事前にその消失を知ることが重要なエンティティも早期に認識できる.
## 3 関連研究
我々が定義する消失エンティティを認識する研究は存在しないが,本節では関連研究を概観する。
エンティティについての知識を抽出するために, テキスト中のエンティティを知識ベースのエントリと対応付ける Entity Linking [3] タスクがある. 消失の情報も対応付けた先から抽出できるが,知識べー スの更新は遅いため早期に知識が取り出せず [4], また低頻度なエンティティについては対応付けるエントリがそもそも存在しないという問題がある.
テキスト中に出現するエンティティの様々なイベント (例: 人物の出生や結婚,死没)を認識するイベント抽出 $[5,6,7,8]$ や,その期間 (例: 人物の存命期間)を同定する時間的穴埋めタスク $[9,10]$ がある. しかし,これらが扱うイベントの種類はごく僅かであり,多様なエンティティの消失に対応できない。
我々とは対照的に,赤崎ら $[1,11]$ は現実世界に新しく現れる新エンティティを発見するタスクに取り組んだ。彼らは新エンティティが現れる際に特有の文脈を伴うことに着目し,それらをマイクロブログ投稿の時系列を利用し収集する TDS を提案した。
## 4 提案手法
## 4.1 改良 TDS に基づく消失文脈の収集
赤崎ら [1] の TDS はマイクロブログ等の時系列テキストのタイムスタンプを利用し,知識ベースのエンティティの特定の文脈を収集する手法である. 彼らは新エンティティに特有の文脈に着目し, Wikipedia の各エンティティについて,それがマイクロブログの時系列で最初に現れた投稿を新エン
ティティの文脈とみなし収集した。これを消失エンティティの収集に当てはめると,エンティティについて時系列で最後の投稿を集めることになるが,消失エンティティは新エンティティと異なり実際に消失した後も言及が続くため,消失とは関係のない文脈が集まってしまう.そこで我々は,消失の大まかなタイミングを考慮し精度良く消失文脈を収集するよう TDS を改良する,具体的な手順は以下である:
Step 1: 消失エンティティ候補の収集まず, Wikipedia の記事タイトルをエンティティとして収集する。この時,実際に消失しているエンティティのみを集めるため,Wikipedia の「廃止された事物一覧 $\left.{ }^{2}\right.\rfloor$ からエンティティとその廃止年を収集する。 ここから,廃止年と Twitter 上で最初に出現した年が同一であるエンティティ及び,曖昧さ回避の記事が存在するエンティティを除去する。これは,訓練データに新エンティティや同名異義のエンティティが混ざることで文脈が污染されることを防ぐ。
Step 2: 消失文脈の収集収集した各エンティティについて,廃止年の Twitter 上で最も出現頻度が高かった日の投稿を上限 100 件まで収集する。これは,廃止年に最も関心を得たタイミングの投稿は消失文脈を含むという仮定に基づいている。
以上で収集した文脈を正例としそのまま NER モデルを訓練してしまうと,モデルは訓練事例のエンティティ文字列を検出するよう学習してしまい [12],文脈を識別する能力が欠如する。そのため,赤崎らは各エンティティについて,収集した文脈とは異なる文脈の投稿を負例としてサンプルし,モデルが文脈を識別しエンティティを認識できるよう工夫した. 我々も同様に正例として集めた各エンティティと消失文脈について,それの廃止年よりも前年の投稿,すなわち確実に消失していない時点の投稿を非消失文脈として同数サンプルし負例とする。
2) https://en.wikipedia.org/w/index.php?title=Category: Disestablishments_by_year
図 1: マイクロブログを利用した単語分散表現の追加学習 (右) とそれを用いた消失エンティティの認識 (左)
## 4.2 消失エンティティの検知
収集したデータを用いて消失エンティティを認識する NER モデルを訓練する。消失エンティティはその数自体が少なく,収集したデータもある程度ノイズを含むためモデルの学習が不安定になる. そこで我々はマイクロブログにおいて消失エンティティが観測される時にバーストしやすい現象に着目し, それらの投稿から得た特徴をモデルに入力し頑健な学習を行う。以下で単語分散表現を利用した特徵抽出と,それを組み込む提案モデルについて説明する:
## マイクロブログを用いた単語分散表現の追加学習
前述した通り複数投稿から特徴を抽出したいが,モデルのテスト時に認識対象のエンティティは不明であるため,関連する投稿を大規模な Twitter 投稿から選択することは難しい. そこで我々は,多くの深層学習モデルが単語分散表現をモデルに入力することに着目し,これを消失エンティティを検出する日付の Twitter 投稿で追加学習することを提案する (図 1 右). 追加学習は投稿群を入力とする教師なし学習であり関連投稿も抽出する必要がない上,得られる分散表現は検出日の Twitter 投稿によく現れる単語や共起を反映しており有用な特徴となっている.
具体的には我々はまず,前節でデータを収集した期間以前の投稿を用いてべースとなる単語分散表現 $v_{\text {base }}$ の事前学習を行う. 次に,前節で収集したデータの正例負例の全投稿の日付を列挙し, 各日付 $d$ の投稿を用いて $v_{\text {base }}$ を追加学習し, $v_{d}$ を得る.
追加学習済単語分散表現を用いた系列ラベリング
我々は, 系列ラベリングで NER を行う Akbik ら [13] の手法を認識モデルとして用いる. このモデルは,入力文の各単語を文字ベース Bi-LSTM 言語モデルでエンコードし, 事前学習済単語分散表現 $v_{\text {base }}$ と合わせて Bi-LSTM に入力しCRF 層で予測を行う.
我々はもう一つ Bi-LSTMを準備し, 入力投稿の投稿日 $d$ における追加学習済の $v_{d}$ を各単語毎に入力し, 得られた各時刻の出力を元の Bi-LSTM の出力と連結し $\mathrm{CRF}$ 層に入力する (図 1 左). これにより, モデルは各単語に関する Twitter 上の大域的な情報も考慮することができ,頑健な予測が可能となる。
## 5 実験
## 5.1 データ
我々は 4.1 節の手法を研究室で 2011 年から収集している 50 億投稿規模の Twitter アーカイブに適用し, 英日の言語のデータセットを構築した. まず, Step 1を実施し, Wikipedia の廃止された事物一覧から 2012 年から 2019 年の記事を収集した.この際,廃止ページに記載された記事のカテゴリを人手で粗いタイプに分類し (英語 6 種, 日本語 5 種), それらをエンティティに付与した. この時, PeRSON と CREATIVE WORK タイプのエンティティ数が他のタイプのものより極端に多かったため, それぞれ 1000 件にダウンサンプルした. 次に Step 2 を実施し, 各エンティティについて正例と負例を収集した。我々はこの内の 2018 年までのデータを訓練データ, 2019 年のデータを後述のテストデータとして用いた.表 1,4 に構築した訓練データの内訳をタイプ別に示す. 訓練データの $10 \%$ 開発データとして用いた。
我々は適切な評価を行うため,テストデータを人手で以下の手順で作成した. 英日両言語において,
2019 年の各エンティティの正例からランダムに 3 投稿を抽出し, 主著者を含めた 3 人のアノテータに各投稿が消失文脈を含むか判定させ, 2 人以上が含むと判定した投稿をテストデータの正例として採用した。また負例を用いて同手順で各投稿が非消失文脈を含むか判定させ,正例と同数テストデータの負例として採用した。これにより,英語の消失エンティティ 357 件と文脈 1,922 件,日本語の消失エンティティ 235 件と文脈 1,326 件を得た (表 5,6). Fleiss's Kappa による判定者内一致は英語が 0.722 , 日本語が 0.786 で両者ともに十分に高く, 我々の消失エンティティの定義が適切であることを示している.
## 5.2 モデル
我々は以下の 3 つのモデルを比較に用いる:
改良 TDS + 追加学習: 提案手法で構築したデータを用いて,提案モデルを訓練した。
改良 TDS: 提案手法で構築したデータを用いて Akbik らのモデルを訓練した. 本モデルは追加学習した単語分散表現を用いない.
ベースライン: TDSを 4.1 節の改良なしで行いデー タを構築し (手順の詳細は A. 2 参照),それを用いて Akbik らのモデルを訓練した.
## 5.3 実験設定
我々は構築したデータの各投稿から URL,ハッシュタグ,ユーザ名を除去し,日本語については MeCab (ipa 辞書) を,英語については spaCyを用いてトークナイズした. Akbik らの NER モデルは Keras (ver.2.3.1)を用いて実装し,パラメータは Akbik らが推奨するものと同じとした. 文字べース Bi-LSTM 言語モデルは 2011 年 3 月 11 日から 2011 年 12 月 31 日の英語 20 億投稿, 日本語 8 億投稿を用いて訓練した. 同様の投稿を用いて,300 次元の単語分散表現 $v_{\text {base }}$ を fastText [14]を用いて訓練した.訓練及びテストデータの投稿の日付 $d$ の投稿 (平均 200 万投稿) を用いて $v_{\text {base }}$ を追加学習し, $v_{d}$ を獲得した. 我々は開発データで $\mathrm{F}$ 值が最大になるエポックの NER モデルをテストデータに適用した.
## 5.4 結果
我々は各モデルを英日のテストデータの各投稿に適用し,NER の最もシンプルな評価手法である CoNLL-2003 [15] のスキーマを用いて評価した.
表 2: 各モデルの評価 (英日)
(a) 英語
(b) 日本語
表 3: 改良 TDS + 追加学習のタイプ別評価 (英日)
表 2 に各モデルの $\mathrm{F}$ 値を示す.これより,英日いずれのデータにおいて二つの提案手法がベースラインの性能を大きく上回っていることがわかる. ベースラインは文脈を収集する際に消失タイミングを考慮しない結果,ノイズとなる文脈が訓練データに混入し性能が大幅に下がったと考えられる。二つの提案手法を比べると,追加学習した単語分散表現を用いた方が数值が向上しており,これは単一の入力投稿からは判定が難しいエンティティでも,大域的な情報を考慮して検知できていることを示している。
表 2 に,改良 TDS + 追加学習のタイプ別の結果を示す. 英日ともに PERSON タイプの精度が良く, これは人物自体がエンティティ表層から容易に認識可能であるからと考えられる。一方で英語の CREATIVE wORk や Service\&Product, 日本語の Event タイプは精度が低く,これらのタイプは TDS で構築した学習データにノイズが多いことを示唆している。
## 6 おわりに
本研究はマイクロブログから消失エンティティを検知するタスクに取り組んだ. エンティティの消失のタイミングが不明瞭であることに対応するため, TDS を改良し精度良く消失文脈を収集した。データ数が少なく認識モデルの学習が安定しないことに対応するため,単語分散表現をマイクロブログ投稿で追加学習する手法を提案した. 実験の結果,提案手法は高精度に消失エンティティを検知した。
## 謝辞
本研究は JSPS 科研費 JP21H03494 の助成を受けたものです.
## 参考文献
[1] Satoshi Akasaki, Naoki Yoshinaga, and Masashi Toyoda. Early discovery of emerging entities in microblogs. In Proceedings of the 28th International Joint Conference on Artificial Intelligence (IJCAI), pp. 4882-4889, 2019.
[2] David Graus, Daan Odijk, and Maarten de Rijke. The birth of collective memories: Analyzing emerging entities in text streams. Journal of the Association for Information Science and Technology, Vol. 69, No. 6, pp. 773-786, 2018.
[3] Wei Shen, Jianyong Wang, and Jiawei Han. Entity linking with a knowledge base: Issues, techniques, and solutions. IEEE Transactions on Knowledge and Data Engineering, Vol. 27, No. 2, pp. 443-460, 2014.
[4] Zhaohui Wu, Yang Song, and C Lee Giles. Exploring multiple feature spaces for novel entity discovery. In Proceedings of the 30th AAAI Conference on Artificial Intelligence (AAAI), pp. 3073-3079, 2016.
[5] Alan Ritter, Oren Etzioni, and Sam Clark. Open domain event extraction from twitter. In Proceedings of the 18th ACM SIGKDD international conference on Knowledge discovery and data mining (KDD), pp. 1104-1112, 2012.
[6] Thien Huu Nguyen and Ralph Grishman. Event detection and domain adaptation with convolutional neural networks. In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (ACL-IJCNLP), pp. 365-371, 2015.
[7] Jing Lu and Vincent Ng. Joint learning for event coreference resolution. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 90-101, 2017.
[8] Jian Liu, Yubo Chen, Kang Liu, Wei Bi, and Xiaojiang Liu. Event extraction as machine reading comprehension. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language
Processing (EMNLP), pp. 1641-1651, 2020.
[9] Heng Ji, Ralph Grishman, Hoa Trang Dang, Kira Griffitt, and Joe Ellis. Overview of the tac 2010 knowledge base population track. In Third text analysis conference (TAC 2010), Vol. 3, pp. 3-3, 2010.
[10] David McClosky and Christopher D Manning. Learning constraints for consistent timeline extraction. In Proceedings of the 2012 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning (EMNLP-CoNLL), pp. 873-882, 2012.
[11] Satoshi Akasaki, Naoki Yoshinaga, and Masashi Toyoda. Fine-grained typing of emerging entities in microblogs. In Findings of the Association for Computational Linguistics: EMNLP, pp. 4667-4679, 2021.
[12] Leon Derczynski, Eric Nichols, Marieke van Erp, and Nut Limsopatham. Results of the WNUT2017 shared task on novel and emerging entity recognition. In Proceedings of the 3rd Workshop on Noisy User-generated Text (WNUT), pp. 140-147, 2017.
[13] Alan Akbik, Duncan Blythe, and Roland Vollgraf. Contextual string embeddings for sequence labeling. In Proceedings of the 27th International Conference on Computational Linguistics (COLING), pp. 16381649, 2018.
[14] Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. Enriching word vectors with subword information. Transactions of the Association for Computational Linguistics, Vol. 5, pp. 135146, 2017.
[15] Erik Tjong Kim Sang and Fien De Meulder. Introduction to the conll-2003 shared task: Languageindependent named entity recognition. In Proceedings of the 7th Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, (NAACLHLT), pp. 142-147, 2003.
表 4: TDS で Twitter から収集した消失エンティティデータセットの統計 ( 日本語) と消失文脈の例
表 5: TDS で Twitter から収集した消失エンティティデータセットのテストデータ統計 (英語)
表 6: TDS で Twitter から収集した消失エンティティデータセットのテストデータ統計 (日本語)
## A 付録
## A. 1 データセット統計
表 4,5,6 に紙面の都合で記載しきれなかったデー タセットの統計情報を示した.
## A. 2 ベースライン (赤崎らの TDS)
紙面の都合で記載しきれなかったベースラインの TDS 手法について説明する. 赤崎らは新エンティティのデータセットを作成するため, Wikipedia の各エンティティについて, Twitter で最初に 10 回以上リツイートされた日の時系列で最初の 100 件の投稿を正例として収集した. 負例については各エンティティについて,正例を集めた日から一年後の投稿を新規文脈でないとみなし,負例として正例と同数サンプルした。
我々はこれを消失エンティティに当てはめ,時系列を逆にして収集した. すなわち, Wikipediaの廃止
された事物一覧の各エンティティについて,Twitter で最後に 10 回以上リツイートされた日の時系列で最後の 100 件の投稿を正例として収集した. 負例については各エンティティについて,正例を集めた日から一年前の投稿を消失文脈でないとみなし,負例として正例と同数サンプルした. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
F8-4.pdf | # 対象を考慮した日本語「愚痴」データセットの構築
伊藤和浩村山太一 矢田竣太郎 若宮翔子 荒牧英治
奈良先端科学技術大学院大学
}
\{ito.kazuhiro.ih4, murayama.taichi.mk1,s-yada,wakamiya, aramaki\}@is.naist.jp
## 概要
愚痴(complaints)は,現実が自分の期待に反しているときに行われる基本的な言語行為である。愚痴に関連するデータセットはいくつか構築されているが,愚痴が向けられている対象についてのラベルを含むデータセットはまだ存在しない. 本研究では, Twitter から収集したテキストに対して対象ラベルの付与を含むアノテーションを施した愚痴データセットを構築し,分析した。このデータセットを用いて愚痴テキストの分類の実験を行ったところ,テキストが愚痴かどうかを識別する二值分類タスクで Accuracy 90.9,愚痴の対象ラベルを当てるマルチクラス分類タスクで Accuracy $65.4 を$ 達成した.
## 1 はじめに
愚痴(complaints)は人間の基本的な言語行為であり [1],語用論においては「ある状態,製品,組織, または出来事に対して,現実と期待との間の否定的な不一致を表現するために用いられる基本的な発話行為」と定義されている [2]. 愚痴を分析することは,人間の基本的な振る舞いの理解に寄与するだけでなく, 企業の商品やサービスの改善に役立つなど様々な利点がある. そのため, 心理学 [3] や言語学 [4],マーケティング [5] などの分野で,愚痴について多くの研究が行われてきた。
近年,自然言語処理分野においても愚痴に関連する研究が行われている. 例えば,Twitter の企業アカウントへ寄せられた投稿にサービスカテゴリ (食品,車,電気製品など)のラベルを付与した complaints データセットが構築されている [6]. また,Trosborg による区分け [7] に基づき complaints の深刻度を 4つのラベル (No explicit reproach, Disapproval, Accusation, Blame) で付与した不満データセットも構築されている [8]. 他にも,商品・サービスに対する不満を収集する不満買取センターのデータに基づくコーパスが構築されている [9]. 不満の対象がラベルには含
まれるが,データの性質上,対象は商品・サービスに限定されている.以上のように,愚痴に関連するテキストを収集したデータセットやコーパスはいくつか構築されているものの,一般的な愚痴の対象ラベルが付与されたデータセット構築は行われていない.
愚痴の話題や深刻度を識別すること(「何を」についての情報)が愚痴の性質の解明に役立つのと同様に,愚痴が向けられている対象を明らかにすること(「誰に」についての情報)も愚痴の分析に有用であると考え,本研究では,愚痴の対象を付与したデータセットを構築する.具体的には,Twitter のツイートテキストに,愚痴か否かのラベルと,愚痴の対象を表す 5 つのラベルを付与した愚痴データセットを構築・分析する。さらに,構築した愚痴データセットを用いて愚痴テキストの分類の実験を行う.
## 2 データセット
## 2.1 データ収集
本研究では,Twitter の日本語ツイートを用いてデータセットを構築した.Twitter ではユーザが愚痴を吐く行動がよく見られる。 さらに,愚痴と関連する abuse [10] や hate speech [11], offensive language [12] や complaints [6] などのデータセット構築にも Twitter のツイートが利用されている.
まず,TwitterAPIを用いて,2006 年 3 月 26 日〜 2021 年 9 月 30 日までの「\#愚痴」を含む 64,313 件のツイートを収集した。次に,URLを含むものやテキストが重複するもの,リツイート,そして botによるツイートを除外した。なお, bot によるツイートの判定は,投稿時に使用されたアプリケーションにより行った. 具体的には, Twitter for iPad, Twitter for iPhone, Twitter Web App, Twitter Web Client, Keitai Web 以外からのツイートは botによるツイートである可能性が高いとみなし,全て除外した。その後,残りのツイートテキスト (以降,テキスト)から全ての
表 1 対象ラベルごとのテキスト例
\\
ハッシュタグを削除し,30 文字以下のツイートを除外した. 最後に,投稿月ごとの層別サンプリングを行い,7,573 件のテキストを取得した.
## 2.2 アノテーション
7,573 件のテキストに対して愚痴ラベルと対象ラベルのアノテーションを行った. 本研究で作成したアノテーションガイドラインに従って,3名のアノテーターが,それぞれ 2,524 件または 2,525 件のテキストに対して,以下の手順でラベルを付与した.
First Stage テキストが愚痴であるか,そうでないかを識別する.愚痴である場合は POSITIVE ラベル,そうでない場合は NEGATIVE ラベルを付与する.
Second Stage POSITIVE ラベルが付与されたテキストについて,愚痴の対象を分類する.発信者を含む場合をSELF,発信者を含まない場合を OTHER,特定の人(1 人 $2 , 3$ 人)に向けられている場合は SPECIFIC,集団の人々に向けられている場合は COLLECTIVE とし,これらの組み合わせで定義された 4 つの分類ラベルを付与する. これら4つのラベルに加え,対象が人間以外の場合は NON-HUMAN ラベルを付与する. さらに,対象が一意に定まらない場合や不明瞭な場合は NEGATIVE ラベルを付与した.
-SELF-SPECIFIC: 発信者自身
-SELF-COLLECTIVE: 発信者を含む集団
- OTHER-SPECIFIC: 特定の他者
・OTHER-COLLECTIVE: 発信者を含まない集団
- NON-HUMAN: 人間以外(動物,天候,概念など)
アノテーションの結果,7,573 件のテキストのうち,6,418 件には POSITIVE,残りの 1,155 件には NEGATIVE のラベルが付与された. また, 愚痴の対
象ラベルごとのデータ数は,SELF-SPECIFIC が 426 件,SELF-COLLECTIVE が 42 件, OTHER-SPECIFIC が 3,866 件, OTHER-COLLECTIVE が 648 件, NONHUMAN が 1,436 件であった. SELF-COLLECTIVE のテキスト数が他のラベルと比べて少ない理由として,自分を含む集団が愚痴の対象になる場面では,自分 (SELF-SPECIFIC) 他人 (OTHER-SPECIFIC または OTHER-COLLECTIVE)のいずれかのみを対象として愚痴が表出される傾向がある可能性が考えられる. 対象ラベルごとの例を表 1 に示す.
3名のアノテーション結果のサンプルと, 異なる1名のアノテーターによる結果との一致率を Cohen's Kappa により求めた. その結果, 二値分類 (POSITIVE または NEGATIVE)では 0.798,6 ラべル分類(愚痴の対象 5 ラベルまたは NEGATIVE)では 0.726 となり,十分に信頼できる値となった。
## 2.3 データセット分析
## 2.3.1 文字数
ラベルごとの文字数の統計量を表 2 に示す. デー タセット全体の文字数の平均は 79.9 字, 中央值は 78.0 字であった. 最も文字数が少なかったラベルは SELF-SPECIFIC (平均 75.8 字, 中央値 72.5 字), 最も多かったラベルは OTHER-COLLECTIVE(平均 87.8 字,中央値 89.0 字)であった.自身に関する愚痴は状況説明が比較的少ない一方,他の集団に関する愚痴は説明的になる傾向が一因であると推測される.
(a) 固有名詞
(d) 感動詞
(b) 代名詞
(e) 数詞
(c) 終助詞
図 1 ラベルごとに集計した,総語数に対する品詞ごとの割合
さらに, POSITIVE の方が NEGATIVE に比べて文字数が多かった(POSITIVE は平均 82.0 字, NEGATIVE は平均 68.3 字). これは対象が不明瞭なものは NEGATIVE とするアノテーションルールにより,説明がほとんどない短い投稿が NEGATIVE に振り分けられたためであると推測される.
## 2.3.2 品詞
ラベルごとの品詞の傾向を分析するために,総語数に対する品詞ごとの割合を求めた. 形態素解析には $\mathrm{MeCab}^{1)}$ を用いた. 図 1 に集計結果を示す. 特徴的な傾向が見られた結果について議論する。
固有名詞の割合(図 1a)は,NON-HUMAN や NEGATIVE で相対的に高い一方,SELF-SPECIFIC, SELF-COLLECTIVE やOTHER-SPECIFIC で低い. 自分や特定の他者に関係する愚痴は,対象を固有名詞で明言することを避け,隠す傾向があると推測できる. 固有名詞(太字)を含む NON-HUMAN の例を以下に示す.
・アクションテレビってスカパーのチャンネル,日本語吹き替えのを流せや!
・皆さんも知っていると思いますが,大阪府の高校の臨時休校延長決まった〜今年就活やのに, , , 動き出すんが遅くなるやん
代名詞の割合(図 1b)は,SELF-COLLECTIVE や OTHER-SPECIFIC で高く, NON-HUMANで低い. 対象が人ではない NON-HUMAN の場合,代名詞を用いずに対象を明示する傾向が読み取れる。代名詞 (太字)を含む OTHER-SPECIFIC の例を以下に示す。
・いち社会人としてあのメール文は間違ってると思うんだけど. お前て $\mathrm{w}$ 来いて $\mathrm{w}$ そんなん言われてわかりましたってなるかよ. テメェが来い
終助詞(〜ね,〜よ,〜かしら,〜もん,など) の割合(図 1c)は,OTHER-SPECIFIC と OTHERCOLLECTIVE で高く, NEGATIVE では低い. POSITIVE 全体では $2.38 \% を$ 占めるのに対し, NEGATIVE においては $1.45 \%$ 留まることから,終助詞は愚痴であることを示す重要な特徴量になると考えられる. 終助詞(太字)を含む OTHER-SPECIFIC の例を以下に示す.
・わたしが居ないとミルクしまってある場所すらわかんないのかよ
・病んでる自慢してかまってもらえて可愛い女の子はいいですねー. ブスはかまってもらえないのですよー
感動詞(すみません,あーあ,ww,など)の割合 (図 1d)は,SELF-SPECIFIC,SELF-COLLECTIVE, OTHER-SPECIFIC で高く, OTHER-COLLECTIVE, NON-HUMAN で低い. 自身と直結する対象の場合はより主観的な表現になり, 感動詞も増加する傾向があると考えられる. 感動詞(太字)を含む OTHER-SPECIFIC の例を以下に示す.
・ほんとさ,意味わかんないよね携帯いじるなら家でもいいのになんでうちの家来る必要あるの?言っとくけどそんな暇じゃないよ我
・しつこい. ああしつこい.わたしも断り方わるいんだろな. ああしつこい....
数詞の割合(図 1e)は, 感動詞と逆の傾向が見ら
れ, NON-HUMAN で比較的高く, SELF-SPECIFIC や SELF-COLLECTIVE で低い. 感動詞と関連して, 自身と対象との心理的な距離が大きい場合,客観的な事実を含む愚痴になりやすいことが示唆される.数詞(太字)を含む NON-HUMAN の例を以下に示す.
・カップ式自販機で、10 円つり銭切れが表示されていたので、130 円投入し、80 円のコーヒー 買ったらお釣り 50 円全部 10 円玉で出やがった事
## 3 実験
構築した愚痴データセットを用いて,愚痴か否かを識別する二値分類タスク(アノテーションの First Stage に対応)と,愚痴の対象ラベルを予測するマルチクラス分類タスク (アノテーションの Second Stage に対応)を実施した。
## 3.1 設定
データ,15\%をテストデータに分割した. 機械学習モデルには, Long-Short Term Memory (LSTM) [13] と Bidirectional Encoder Representations from Transformers (BERT) [14]の 2 種類を用いた. なお,BERT モデルは,東北大学が公開している日本語版 Wikipedia で事前学習を行ったモデル2)をファインチューニングしたものを採用した. 検証データでの結果に基づき,各モデルに対して下記のパラメータを採用した. LSTM モデルについて,単語埋め込みの次元数は 10,隠れ層のレイヤー数は 128 ,損失関数はクロスエントロピー, 最適化手法は Stochastic Gradient Descent (SGD), 学習率は 0.01 , エポック数は 100 とした. BERT モデルについて,ツイートごとの最大トークン数は 128 , バッチ数は 32 , 最適化手法は Adam,学習率は $1 \mathrm{e}-5$, エポック数は 10 とした.
## 3.2 結果と考察
## 3.2.1 二値分類タスク
二値分類タスクの結果は,LSTM モデルでは Accuracy $85.7 \%$, F 値 $91.7 \%$, AUC $69.8 \%$ となり, BERT モデルでは Accuracy $90.9 \%$, F 値 $94.8 \%$, AUC 73.0 \%となった. スコアの高かった BERT モデルの混同行列のテストデータ件数に対する割合はそれ
図 2 マルチクラス分類タスクにおける BERT モデルの結果
ぞれ True Positive $84.0 \%$ ,False Positive $7.3 \%$ ,False Negative $1.8 \%$, True Negative $6.9 \%$ となり,エラー の中では False Positive が比較的多い結果となった.
## 3.2.2 マルチクラス分類タスク
マルチクラス分類タスクの結果,LSTM モデルの Accuracy は 47.6 \%,BERT モデルの Accuracy は $65.4 \%$ となった. スコアの高かった BERT モデルについてラベル同士の識別結果を図 2 に示す. SELF-COLLECTIVE に分類されたツイートは存在しない一方で,OHTER-SPECIFIC や NON-HUMAN に多くのツイートが分類された。これはデータセットの中のラベルごとのツイート数の偏りが反映されていると考えられる.ラベルごとの偏りに関する改善案としてデータ数の少ない SELF-COLLECTIVE のラベルを SELF-SPECIFIC と統合することや,層別サンプリングしたものをモデルの学習に利用することなどが挙げられる.
## 4 おわりに
本研究では,愚痴の対象ラベルが付与されたデー タセットを構築し,内容の分析および機械学習モデルによる分類の実験を行った. 実験の結果,BERT モデルにおいて,愚痴か否かを識別する二値分類夕スクでは Accuracy 90.9,愚痴の対象を識別するマルチクラス分類タスクでは Accuracy 65.4 であった.
今後の展開として, ソーシャルメディア上の特定の集団内での愚痴の量を測定し,異なる集団や時期ごとの比較分析を想定している。また,ソーシャルメディアに限らず,職場の日報テキストなどの材料から愚痴やその対象を特定し,ウェルビーイングとの関連を調査する研究への展開も検討している.
## 謝辞
本研究の一部は,JST,AIP-PRISM,JPMJMI21J2
の支援を受けたものである.
## 参考文献
[1] John Langshaw Austin. How to do Things with Words. Oxford University Press, 1975.
[2] Elite Olshtain and Liora Weinbach. 10. complaints: A study of speech act behavior among native and non-native speakers of hebrew. In The Pragmatic Perspective: Selected papers from the 1985 International Pragmatics Conference.
[3] Robin M. Kowalski. Complaints and complaining: functions, antecedents, and consequences. Psychological bulletin, Vol. 119 2, pp. 179-96, 1996.
[4] Camilla Vásquez. Complaints online: The case of tripadvisor. Journal of Pragmatics, Vol. 43, No. 6, pp. 1707-1717, 2011. Postcolonial pragmatics.
[5] Chul min Kim, Shinhong Kim, Subin Im, and Changhoon Shin. The effect of attitude and perception on consumer complaint intentions. Journal of Consumer Marketing, Vol. 20, pp. 352-371, 2003.
[6] Daniel Preoţiuc-Pietro, Mihaela Gaman, and Nikolaos Aletras. Automatically identifying complaints in social media. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5008-5019, Florence, Italy, July 2019. Association for Computational Linguistics.
[7] Anna Trosborg. Interlanguage Pragmatics: Requests, Complaints, and Apologies. De Gruyter Mouton, 2011.
[8] Mali Jin and Nikolaos Aletras. Modeling the severity of complaints in social media. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 2264-2274, Online, June 2021. Association for Computational Linguistics.
[9] Kensuke Mitsuzawa, Maito Tauchi, Mathieu Domoulin, Masanori Nakashima, and Tomoya Mizumoto. Fkc corpus : a japanese corpus from new opinion survey service. In In proceedings of the Novel Incentives for Collecting Data and Annotation from People: types, implementation, tasking requirements, workflow and results, pp. 11-18, Portorož, Slovenia, 2016.
[10] Zeerak Waseem and Dirk Hovy. Hateful symbols or hateful people? predictive features for hate speech detection on Twitter. In Proceedings of the NAACL Student Research Workshop, pp. 88-93, San Diego, California, June 2016. Association for Computational Linguistics.
[11] Valerio Basile, Cristina Bosco, Elisabetta Fersini, Debora Nozza, Viviana Patti, Francisco Manuel Rangel Pardo, Paolo Rosso, and Manuela Sanguinetti. SemEval-2019 task 5: Multilingual detection of hate speech against immigrants and women in Twitter. In Proceedings of the 13th International Workshop on Semantic Evaluation, pp. 54-63, Minneapolis, Minnesota, USA, June 2019. Association for Computational Linguistics.
[12] Marcos Zampieri, Shervin Malmasi, Preslav Nakov, Sara Rosenthal, Noura Farra, and Ritesh Kumar. SemEval-2019 task 6: Identifying and categorizing offensive language in social media (OffensEval). In Proceedings of the 13th International Workshop on Semantic Evaluation, pp. 7586, Minneapolis, Minnesota, USA, June 2019. Association for Computational Linguistics.
[13] Sepp Hochreiter and Jürgen Schmidhuber. Long shortterm memory. Neural computation, Vol. 9, No. 8, pp. 1735-1780, 1997.
[14] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
G1-1.pdf | # レシピ分野における動作対象の状態変化を考慮した データセットの構築と検索モデルの提案
白井 圭佑 ${ }^{1}$, 橋本 敦史 ${ }^{2}$, 牛久祥孝 ${ }^{2}$, 栗田修平 ${ }^{3}$, 亀甲 博貴 ${ }^{4}$, 森 信介 4
1 京都大学大学院情報学研究科, ${ }^{2}$ オムロンサイニックエックス株式会社,
${ }^{3}$ 理化学研究所 AIP, ${ }^{4}$ 京都大学学術情報メディアセンター
shirai.keisuke.64x@st.kyoto-u.ac.jp,
\{atsushi . hashimoto, yoshitaka.ushiku\}@sinicx.com,
shuhei.kurita@riken.jp, \{kameko, forest\}@i.kyoto-u.ac.jp
## 概要
実世界で言語的な指示を理解し行動するエージェントは,その行動によって環境が現在の状態からどのような状態に変化するかを理解出来る必要がある. 本研究では,料理ドメインにおいてこの問題を調查する為に, goal state identification by retrieval (GSIR) タスクを提案する。このタスクでは, 視覚的な現在の状態と言語的な対象物と動作の情報を入力とし,動作後の視覚的な状態の検索を行う. 実験の為に, ウェブから日本語の 200 レシピを収集し,これを基に Recipe-GSIR データセットを作成した. 本論文では, 本タスクにおけるべースラインモデルとその発展モデルも提案し, それらの実駼結果を報告する。
## 1 はじめに
言語的な指示を理解し,それに基づいた行動を取る自律エージェントの構築は自然言語処理における一つの目標である [1]. 手順書に記述された一連の指示を遂行する場合には, 各指示文を理解し,それ対応した行動を実行する必要がある.しかし,これには各動作によってその対象物の状態がどのように変化するかを理解する能力が求められる。1)
本研究では,この問題に対処し, goal state identification by retrieval (GSIR) タスクを提案する.ここでは,動作後の状態が視覚的な情報として存在すると仮定し,それを検索によって候補の中から特定することを目指す. 入力としては, 視覚的な現在の状態の情報と言語的な動作とその対象物の情報が利用可能であるとする. 本タスクは, 動作による対象物の状態の変
1)例えば, "じゃがいも"を"切る"ことによって," じゃがいも” は切られた状態に遷移することをモデルが理解する必要がある.
図 1 GSIR タスクの概要図。
化を考慮しなければならないという点で困難であるといえる. 本研究では料理ドメインに限定し, ウェブから収集した 200 レシピを基に, Recipe-GSIR データセットを作成した.このデータセットでは,レシピから抽出した動作とその対象物の単語列に対し, 付属の調理動画からサンプルした画像を用いることで, 動作前後の視覚的な状態の情報の付与を行った, また, 言語側のアノテーションはレシピ固有表現とレシピフローグラフ [2]を基に行った. さらに, 本研究では, 対象とする料理をサラダに限定してデータセットを構築した. 本論文では, 図 1 亿示すように,共有埋め込み空間の学習によって GSIR タスクを解く. 同時に,ベースラインモデルとレシピフローを利用した発展的なモデルも提案し,最後にそれらの定量的な評価を行う。
## 2 データセット
Recipe-GSIR データセットの構築の為に, まずクラシル2)からサラダ 200 レシピの収集を行った.ここで, 収集した各レシピは, それぞれ材料リスト, 調理手順書, 調理動画から成る. 表 1 亿収集した材料リス
2) https://www.kurashiru.com (2021/12/14).
表 1 材料リストと調理手順書の統計情報.
トと調理手順書の統計情報を示す3). 収集したデー タに対して, (i) レシピ固有表現 (r-NE) の付与, (ii)レシピフローグラフ (r-FG) の付与, (iii) r-FG から抽出した調理動作と対象物への動作前後の画像の付与を行うことでデータセットの構築を行った. 以降では,各アノテーション手順について説明する.
## 2.1 レシピ固有表現 (r-NE)
まず,材料リストと調理手順書上の単語に r-NEの付与を行った. r-NE タグには, 森ら [2] の提案した 8 タグを用いた. この中で, Ac, F, T の 3 タグは本研究において重要であるため, 簡潔に説明する. Ac は調理者による動作のことを指し, 食材による動作 (Af) と区別する.F は食材を指し, 材料, 中間生成物, 最終生成物はこれに含まれる。Tは調理に用いられる道具を指し, 包丁や電子レンジ等がこれに該当する.
## 2.2 レシピフローグラフ (r-FG)
次に, r-NEに対して r-FGの付与を行った.ここで, r-FG [2,4] とは, r-NE を頂点とし, それらの関係を辺とする有向非循環グラフである. r-FG ラベルには, 森ら [2] の提案した 13 ラベルを用いた. この中で, Targ と Dest の 2 ラベルは本研究において重要であるため, 簡潔に説明する. Targ は基本的に $\mathrm{F}$ を始点とし, $A c$ を終点とすることで, 食材 $(F)$ に対する動作 (Ac) を表現する. Targ は Acを始点に取ることも可能であり,この場合は始点側の Ac はその動作によって生成された中間生成物を表す. 一方で, Dest は F や Tを始点とし, Acを終点とすることで, 動作 (Ac) が行われる方向又は場所としての食材 $(F)$ や道具 $(T)$ を表現する. Targ と同様に, Dest も Ac を始点に取ることが可能であり,この場合も Ac は中間生成物を表す.
ここまでに付与した $\mathrm{r}-\mathrm{NE} と \mathrm{r}-\mathrm{FG} を$ 基に, 調理動作とそれに紐づく対象物 (食材) と場所の情報を抽出する.これは, Targ の終点の単語列を調理動作, 始点の単語列を食材として抽出することで実現出来る.同様に, Acを終点に持つ Dest の始点の単語列を場所として抽出を行う. 以降では,これによって得られた調理動作, 食材, 場所からなる 3 項組を GSIR タスク
表 2 画像のアノテーション数.、は付与された要素を,同行の数はそれに対応する 3 項組の総数を, それぞれ示す.
における言語的な情報として用いる。
本研究では, さらにこの 3 項組を細粒度なものに変換することを考える. ここで, 細粒度とは 3 項組内の 1 動作が同時に 1 食材のみを取る場合を指すものとする. 例えば, "レタスときゅうりを切る"という指示文では, 1 つの動作"切る"の対象として 2 つの食材"レタス"と"きゅうり"があるが, これは(切る,レタス), (切る,きゅうり)のように食材毎に動作を分割することで細粒度な組が得られる. しかし, 文書全体を通して r-FG からの細粒度な 3 項組の自動抽出を行うには, 各動作が生成する中間生成物の個数を把握する必要がある. 例えば, 動作"切る"は $n$ 個の食材に対して $n$ 個の切られた食材を生成するが, 動作"盛り付ける"は対象とする食材の数に関わらず 1 つの盛り付けられた食材を生成する筈である. 従って, 本研究では前者と後者の動作を区別し, 収集したレシピから手動で作成したそれぞれのリストを用いることで, 細粒度な 3 項組の自動抽出を行った. これによって, 合計 3,705 組の細粒度な 3 項組が得られた。
## 2.3 細粒度な画像アノテーション
最後に, これらの 3 項組に対して動作前後の画像の付与を行った. アノテーション候補の画像としては, 同一のレシピの調理動画から 3FPS でサンプルした画像のみを用いた. アノテーションの際は, より対象の状態の変化がわかるように画像を選択した4)また, 対象の食材が $75 \%$ 以上見えない場合, 又は対象の動作が動画内に存在しない場合には, 画像を付与す
4)例えば,"レタスを切る"という動作に対しては, 動作前の画像としては切られる前のレタスの画像が, 動作後の画像としては切られた後の状態のレタスのものが, それぞれ付与される.
図 2 共有埋め込みモデルの概要図.
る代わりに欠損値を記録した. 表 2 に本ステップによって得られたアノテーション数を示す.
## 3 実験
## 3.1 GSIR タスク
GSIR タスクでは, 言語的な情報として調理動作 $a$ と $K$ 個の属性 $\left.\{t_{1}, \cdots, t_{K}\right.\}$ が与えられた時, 動作後の視覚的な状態 $s_{\text {after }}$ を候補となる $N$ 個の画像の集合 $\left.\{s_{1}, \cdots, s_{N}\right.\}$ から特定することが目的である.ここで, 候補の $N$ 個の画像の中には重複がないものとする. また, $a$ と $\left.\{t_{1}, \cdots, t_{K}\right.\}$ に加え, 動作前の視覚的な情報 $s_{\text {before }}$ も入力として用いることが可能であるとする. 本研究では, 2.2 節の細粒度な 3 項組に含まれる調理動作を $a$ とし, 対象物 $o$ と場所 $d$ をそれぞれ $\left(t_{1}, t_{2}\right)=(o, d)$ とする. また, 2.3 節で付与した動作前後の画像をそれぞれ $s_{\text {before }}, s_{\text {after }}$ として用いる.
## 3.2 共有埋め込みモデル
本研究では, 図 2 のように, 共有埋め込みモデル [5] を学習することで GSIR タスクを解く. まず, $a, o, d$ と $s_{\text {before }}$ を基に動作後の対象物 $o$ の状態を表す $\hat{h}_{o}$ を計算し,それを共有埋め込み空間上へ埋め込む. 同時に, 検索候補 $\left.\{s_{1}, \cdots, s_{N}\right.\}$ も同空間へ埋め込み, 対応する動作後の画像 $s_{\text {after }}$ の検索を行う. 以下では, これらの具体的な計算について説明する.
$s_{\text {after }}$ はまず, 畳み込みニューラルネットワーク $(\mathrm{CNN})$ を用いて特徵量 $h_{i}^{\text {after }} \in \mathbb{R}^{d_{i}}$ の抽出を行い, $\hat{h}_{i}$ を以下のように計算する。
$
\hat{h}_{i}=W_{2}^{I}\left(\operatorname{ReLU}\left(W_{1}^{I} h_{i}^{\text {after }}+b_{1}^{I}\right)\right)+b_{2}^{I},
$
ここで, $W_{1}^{I}, W_{2}^{I} \in \mathbb{R}^{d_{i} \times d_{i}}, b_{1}^{I}, b_{2}^{I} \in \mathbb{R}^{d_{i}}$ は学習可能な重みである. 次に, Miech ら [6] に従い, 共有埋め込み空間上の表現 $\hat{h}_{i}$ を以下のように計算する.
$
\begin{aligned}
h_{v} & =\left(W_{3}^{I} \hat{h}_{i}+b_{3}^{I}\right) \circ \sigma\left(W_{4}^{I}\left(W_{3}^{I} \hat{h}_{i}+b_{3}^{I}\right)+b_{4}^{I}\right) \\
\tilde{h}_{v} & =\frac{h_{v}}{\left.\|h_{v}\right.\|_{2}}
\end{aligned}
$
ここで, $\sigma$ はシグモイド関数, 。は要素ごとの積であ $り, W_{3}^{I} \in \mathbb{R}^{d_{e} \times d_{i}}, W_{4}^{I} \in \mathbb{R}^{d_{e} \times d_{e}}, b_{3}^{I}, b_{4}^{I} \in \mathbb{R}^{d_{e}}$ は学習可能な重みである.
3 項組 $a, o, d$ は埋め込み行列を用いて $d_{v}$ 次元のベクトルに変換し, それらを双方向長短期記憶 (BiLSTM) ネットワーク [7] を用いることで $d_{t}$ 次元のべクトル $h_{a}, h_{o}, h_{d}$ にそれぞれ変換する. 動作前の視覚的な状態 s before は CNN を用いて特徴量 $h_{i}^{\text {before }} \in \mathbb{R}^{d_{i}}$ を抽出し, 以下のように $\hat{h}_{i}^{\text {before }} \in \mathbb{R}^{d_{t}}$ へ変換する。
$
\hat{h}_{i}^{\text {before }}=W_{1}^{T} h_{i}^{\text {before }}+b_{1}^{T} \text {, }
$
ここで, $W_{1}^{T} \in \mathbb{R}^{d_{t} \times d_{i}}$ と $b_{1}^{T} \in \mathbb{R}^{d_{t}}$ は学習可能な重みである.これらから, 動作後の対象物の状態 $\hat{h}_{o}$ を以下のように計算する。
$
\hat{h}_{o}=W_{3}^{T}\left(\operatorname{ReLU}\left(W_{2}^{T}\left[h_{a} ; h_{o} ; h_{d} ; h_{i}^{\text {before }}\right]+b_{2}^{T}\right)\right)+b_{3}^{T} \text {, }
$
ここで, ; は結合であり, $W_{2}^{T} \in \mathbb{R}^{4 d_{t} \times 4 d_{t}}, W_{3}^{T} \in \mathbb{R}^{d_{t} \times 4 d_{t}}$, $b_{2}^{T} \in \mathbb{R}^{4 d_{t}}, b_{3}^{T} \in \mathbb{R}^{d_{t}}$ は学習可能である. 最後に, 共有埋め込み空間上の表現 $\hat{h}_{o}$ を以下のように計算する.
$
\begin{aligned}
h_{t} & =\left(W_{4}^{T} \hat{h}_{o}+b_{4}^{T}\right) \circ \sigma\left(W_{5}^{T}\left(W_{4}^{T} \hat{h}_{o}+b_{4}^{T}\right)+b_{5}^{T}\right) \\
\tilde{h}_{t} & =\frac{h_{t}}{\left.\|h_{t}\right.\|_{2}}
\end{aligned}
$
ここで, $W_{4}^{T} \in \mathbb{R}^{d_{e} \times d_{t}}, W_{5}^{T} \in \mathbb{R}^{d_{e} \times d_{e}}, b_{4}^{T}, b_{5}^{T} \in \mathbb{R}^{d_{e}}$ は学習可能なパラメータである.
共有埋め込み空間上における $\tilde{h}_{t}$ と $\tilde{h}_{v}$ の距離は以下のように計算する.
$
D\left(\tilde{h}_{t}, \tilde{h}_{v}\right)=\left.\|\tilde{h}_{t}-\tilde{h}_{v}\right.\|_{2}
$
これを基に, $n$ 個の組 $\left(\left(\tilde{h}_{t, 1}, \tilde{h}_{v, 1}\right), \cdots,\left(\tilde{h}_{t, n}, \tilde{h}_{v, n}\right)\right)$ に対して以下の Triplet Loss [8] を最小化するように重みの調整を行う。
$
\begin{aligned}
\mathscr{L}=\sum_{i=1}^{n} \quad & \left.\{\max \left(D_{i, i}-D_{i, j}+\delta, 0\right)\right. \\
+ & \left.\max \left(D_{i, i}-D_{k, i}+\delta, 0\right)\right.\} .
\end{aligned}
$
表 3 Recipe-GSIR データセットにおける実験結果. 、は入力に用いた要素を意味する. また, 1 行目はランダムサーチにおける結果である。
ここで, $D_{i, j}=D\left(\tilde{h}_{t, i}, \tilde{h}_{v, j}\right)$ であり, $\delta$ はマージンを指す. 式 (9) において, $D_{i, i}$ は正例の組における距離であり $, D_{i, j}, D_{k, i}$ はそれぞれ負例の 3 項組と動作後の画像に対する距離である. 本研究では, 負例はミニバッチ内からのサンプリングで獲得する.
レシピフローを考慮したモデル. 2.2 節で説明した通り,r-FG から抽出した対象物 $o$ や場所 $d$ は調理動作 (Ac) を表す単語列となる場合がある.この場合には具体的な対象物や場所の情報が与えられなくなるため, 検索がより困難になるという問題がある.これに対処するために, r-FG のフローを利用し, 過去にその Ac タグを動作 $a$ として用いた際に得られた動作後の状態 $\hat{h}_{o}$ を, 中間生成物として $h_{o}$ や $h_{d}$ に用いることが考えられる.このレシピフローを利用したモデルの精度も 3.4 節で報告する。
## 3.3 実験設定
モデルパラメータ. BiLSTM の隠れ層の次元は 256 とし, 1 層のものを用いた. 他の次元サイズはそれぞれ $\left(d_{v}, d_{t}, d_{i}, d_{e}\right)=(496,512,2048,128)$ とした. CNN には事前学習済みの ResNet-152 [9] を, 重みを固定して用いた. 学習可能な重みは AdamW [10] を,初期学習率 $1.0 \times 10^{-5}$ として用いた. また, エポック数は 100 に設定した他, 無作為に抽出した 4 レシピに含まれるサンプルからミニバッチを構成した.式 (9)の $\delta$ は実験的に 0.1 に設定した.
評価. 学習と評価には, 動作後の画像が付与されている 3,036 例を用いた. ここで, 3,036 例の内 484 例は動作前の画像が付与されていないが, それらには $h_{i}^{\text {before }}$ の代わりに零べクトルを用いることで欠損値を表現した. モデルの評価は 10-分割交差検定により行った. この際, データセット全体の $90 \%$ を学習データに, 残りの $10 \%$ をテストデータとして分割した. 評価指標には Recall@k(R@k) と Median $\operatorname{rank(MedR)}$ を用いた.
## 3.4 実験結果
表 3 に実験結果を示す. まず, 動作前の画像のみ $(2$行目) からでも, ある程度の検索が可能であることがわかる. しかし, 3 行目の結果との比較から, これよりは調理動作の 3 項組を用いた方がより高い精度を実現するとわかる。これは, 動作前の画像のみを用いる場合には, 同様の背景を持つ画像を対象に絞ることが可能であるが, どれが動作後のものとして適当かまでは判別出来ないことが原因だと考えられる.次に, 3,4 行目の比較から, r-FG のフローを用いることでさらなる精度向上の実現が可能だとわかる.これは, 過去に推定した $\hat{h}_{o}$ を $h_{o}$ や $h_{d}$ として扱うことが効果的であることを示唆している.これに加えて, 5 行目の結果から,フローを用いるか動作前の画像を用いるかでは後者の方が精度が高いことがわかる.これは, 前者ではフローから推定した現在の対象物の状態の情報を用いているのに対し, 後者では直に現在の視覚的な状態を利用出来るためだと思われる. 最後に, 6 行目の結果から, 入力として利用可能な全ての情報を用いた場合に最も高い検索精度が実現出来ることがわかる.これに関しては,動作前の画像が付与されていない例に関しては,フローから推定した情報がより効果的に働く為だと考えられる。
## 4 おわりに
本研究では, GSIR タスクを提案し, 料理ドメインにおいて Recipe-GSIR データセットの構築を行った. また, ベースラインモデルの提案に加え, レシピフローを用いた発展的なモデルも提案し, それらの検索精度を定量的に評価した. 今後の方向としては, フローグラフから抽出した 3 項組だけでなく, BERT 等を用いて文書上のコンテキストを考慮した表現も利用した精度向上が考えられる. また, 別の方向として,候補からの検索ではなく動作後の状態を表す画像を直接生成する方向も考えられる.
本研究は JSPS 科研費 21 H04910 および JST さきが
け JPMJPR20C2 の支援を受けたものである.
## 参考文献
[1] Terry Winograd. Understanding natural language. Cognitive psychology, Vol. 3, No. 1, pp. 1-191, 1972.
[2] Shinsuke Mori, Hirokuni Maeta, Yoko Yamakata, and Tetsuro Sasada. Flow graph corpus from recipe texts. In Proceedings of the Ninth International Conference on Language Resources and Evaluation, pp. 2370-2377, 2014.
[3] Graham Neubig, Yosuke Nakata, and Shinsuke Mori. Pointwise prediction for robust, adaptable japanese morphological analysis. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 529-533, 2011.
[4] Hirokuni Maeta, Tetsuro Sasada, and Shinsuke Mori. A framework for procedural text understanding. In Proceedings of the 14th International Conference on Parsing Technologies, pp. 50-60, 2015.
[5] Antoine Miech, Dimitri Zhukov, Jean-Baptiste Alayrac, Makarand Tapaswi, Ivan Laptev, and Josef Sivic. Howto100m: Learning a text-video embedding by watching hundred million narrated video clips. In Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 2630-2640, 2019.
[6] Antoine Miech, Ivan Laptev, and Josef Sivic. Learning a text-video embedding from incomplete and heterogeneous data. arXiv preprint arXiv:1804.02516, 2018.
[7] Alex Graves and Jürgen Schmidhuber. Framewise phoneme classification with bidirectional lstm and other neural network architectures. Neural networks, Vol. 18, No. 5-6, pp. 602-610, 2005.
[8] Vassileios Balntas, Edgar Riba, Daniel Ponsa, and Krystian Mikolajczyk. Learning local feature descriptors with triplets and shallow convolutional neural networks. In Proceedings of the British Machine Vision Conference, pp. 119.1-119.11. BMVA Press, September 2016.
[9] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 770-778, 2016.
[10] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In Proceedings of the 7th International Conference on Learning Representations, 2019.
[11] Guillaume Lample, Miguel Ballesteros, Sandeep Subramanian, Kazuya Kawakami, and Chris Dyer. Neural architectures for named entity recognition. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 260-270, 2016.
[12] Yoko Yamakata, Shinsuke Mori, and John A Carroll. English recipe flow graph corpus. In Proceedings of the 12th Language Resources and Evaluation Conference,
表 4 r-NE タグと各タグのアノテーション数.
表 5 r-NE タグの推定結果.
## A r-NE/r-FG アノテーション
表 4 に r-NE タグの一覧と各タグのアノテーション数を示す. 表において, 食材や分量のアノテーション数が特に多い理由としては, それらが材料リストに常に含まれれている為である. r-NE のアノテー ション結果がどの程度自動的に推定出来るかを調査するために, r-NE の推定を固有表現認識 (NER) タスクとして捉え, BiLSTM-CRF モデル [11]を用いて学習と評価を行った.この際, 評価指標には精度, 再現率, $\mathrm{F}$ 値を用いた. 表 5 に 10-分割交差検定による結果を示す. 結果から, 学習後の NER モデルは非常に高い精度で r-NE タグを推定出来ていることがわかる.これは, 対象のデータが料理ドメインの中でも特にサラダに限定している為, 複数のレシピに出現する特定の動作 $(A c)$ や食材 (F) の推定が比較的容易であったからだと考えられる。
表 6 に r-FG ラベルの一覧と各ラベルのアノテー ション数を示す. 表において, Targ ラベルのアノテー ション数が最も多い結果となったがこれは先行研究 [4] と同じ傾向である. r-FG ラベルのアノテー ション結果がどの程度自動的に推定出来るかを調査するために, r-FG の推定を最大全域木の推定問題として捉元, 先行研究 [4] と同様に Chu-Liu/Edmonds $ア$ ルゴリズムを用いて推定した. この際, 前田ら [4] と同様の特徴量を用いて学習と評価を行った.この際,評価指標には精度, 再現率, $\mathrm{F}$ 値を用いた. 表 7 に 10分割交差検定による結果を示す. この結果は, 先行研究 $[4,12]$ と比較して高い精度であるといえる. 考えられる理由としては, 調理手順書のみを対象としている先行研究 $[4,12]$ と異なり,材料リスト上の表現から調理手順書上の表現にも r-FG ラベルのアノテーションを行っている為, それらの一部のラベルの推定が比較的容易であったからだと思われる.表 $6 \mathrm{r}-\mathrm{FG}$ ラベルと各ラベルのアノテーション数.
表 7 r-FG ラベルの推定結果.
表 8 アノテーション一致率
## B アノテーション一致率
本研究では, 1 人のアノテーターによって 2 節の全アノテーションが行われた. アノテーションの一貫性を調査するために, 別のアノテーターに無作為に選択した 10 レシピのアノテーションを依頼し, 既にアノテーション済みのものを正解ラベルとして捉えることで, 精度, 再現率, $\mathrm{F}$ 值を用いて一致率を計算した. 表 8 にその結果を示す. 表から, r-NE のアノテーションは非常に高い割合で一致していることがわかる.これは, r-NEに関しては,アノテーション時にまずNER モデルによる推定結果を提示し, 誤りを訂正するようにアノテーターに依頼していたため, 元々の NER モデルによる推定が高精度であったことが理由だと考えられる. 次に, r-FGのアノテー ションでは少し一致率が低下しているが, これはアノテーション時に頂点としての材料リストと調理手順書に含まれる全ての NE と辺としてのラベルが候補となることを考慮すると,一致率として高いといえる. 最後に, 画像のアノテーション結果では, r-FG の時からさらに一致率が低下していることがわかる.しかし,これも同様に, 調理動画からサンプリングした全ての画像が候補となること, 動作前後の画像として適当なものが一つとは限らない5)ことを考慮すると,この一致率は十分に高いといえる。
5)複数の画像が同時に基準を満たす場合がある。 | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
G1-2.pdf | # 実体験を考慮した性格特性推定システムの構築
安積佑和 ${ }^{1}$ 奥村紀之 ${ }^{2}$
1 大手前大学 2 大阪市立大学
## 概要
本研究では,ソーシャルメディアからの性格特性推定のために,被験者実験により収集した実体験と性格特性検査のための質問紙項目への回答(数値) を活用する手法について検討している.被験者実験においては,Big Five(主要 5 因子検査)への回答 (数値)の他に,質問項目に該当する過去の実体験, または実体験がない場合は想定される状況について回答させた. 収集した実体験例を基に Twitter の口グから実体験例の拡張を行い,Word2Vec,Doc2Vec, Sentence BERT による性格特性の推定手法を構築している.
## 1 はじめに
2019 年末以降,世界的に新型コロナウイルス感染症が流行している。コロナ禍における自宅学習や在宅勤務などのライフスタイルの変化に伴い, うつや不安に関する報告も増加傾向にある $[1,2,3]$. これらの調査ではコロナ禍以前のうつや不安を訴える人の傾向と比較し, パンデミックにおけるその傾向はより強いものであると述べられている。そこで, ソーシャルメディアなどの発言履歴などから, 在宅を余儀なくされている人々のうつや不安の兆候を抽出することができれば,メンタルヘルスの改善の一助となる可能性があると考えられる。
本研究では,ソーシャルメディアの記述を定量的に扱い,発言者のうつや不安の傾向を捉えるため,性格検査に基づく手法を検討している. 本研究で対象とする性格特性の検査手法には, 主要 5 因子検査 (Big Five)の一つである NEO-FFI を採用している.
藤倉ら [4] は音声対話やツイートの特徵が Big Five の各要素の分類に結びつくことを示している. 那須川ら [5,6] は内容語だけでなく, 助詞やひらがなの使用状況も性格と関係し,何を表現するかだけでなく,どう表現するかにより性格が反映することを示している. 我々は,より人間らしい性格推定を行う
ため,実際の被験者が質問紙項目へ回答する際の基準となった実体験に基づく手法を提案する.
## 2 関連研究
本研究では,性格特性の推定に Big Five を使用する. 2.1 節では Big Five について述べ,2.2 節では本研究のベースラインとなる性格特性の抽出手法について解説する。
## 2.1 Big Five
性格特性を測る際の指標である Big Five は特性論 [7] の考え方であり,開放性 (Openness), 誠実性 (Conscientiousness), 外向性 (Extraversion), 調和性 (Agreeableness), 情緒不安定性 (Neuroticism) からなる 5 つの大きなパーソナリティ特性で人間を捉えようとする。
Big Five を測定するための尺度は Costa と McCrea による NEO-PI-R をはじめとして多数開発されている. 日本語においては下仲ら [8] による NEO-PI-R 日本語版,村上ら [9] による主要 5 因子性格検査,和田 [10] による Big Five 尺度などがある。 さらに,下仲ら [11] は 240 項目からなる NEO-PI-R の質問項目を 60 項目に短縮した日本版 NEO-FFI を開発している.これは各因子 12 項目合計 60 個の質問項目からなっている. 各質問で最も当てはまらない 0 点から最も当てはまる 4 点の 5 段階で回答し, 最終的には各因子最低 0 点から最高 48 点が算出される. 本研究では,下仲らの日本版 NEO-FFIを使用して性格特性の検査,アンケート,および性格特性の推定を行う.
## 2.2 既存の性格推定手法
山下ら [12] の研究では, 性格情報を反映した発話文生成を行っており, 発話文生成に利用された性格推定手法をべースラインとして採用している.
この手法では本校で対象とする下仲らの日本版 NEO-FFIを用いており,各質問項目にキーワードを
設けている。性格推定をするテキスト中にそのキー ワードが入っているか,またはキーワードが否定形に係っているかを見て得点の上下を行う. 各因子が 0 点から 48 点で表されることから, 中心の 24 点を基準とし, そこから点数の増減を行い, 各因子の推定値を算出している。
## 3 実体験を考慮した性格特性推定手法
本研究では,統計的な情報による性格特性の抽出ではなく,人間の実体験に基づく推定手法を提案する. 以下,性格推定の実体験の収集,実体験の拡張,性格特性推定の手法について述べる.
## 3.1 実体験の収集アンケート
NEO-FFI の各質問項目に,人間であればどのように回答するかと考えた場合,被験者の実体験に基づいた判断が必要となる. ソーシャルメディアへの書き込みを投稿者の実体験とみなすことができれば,投稿者の判断基準に沿う性格特性の推定が可能となると考えられる。そこで,NEO-FFI の各質問項目に対し, $0 \sim 4$ 点の得点を判断するに至った具体的な実体験をアンケートにより収集する。
被験者 17 名に対し, 日本版 NEO-FFI の各質問項目への回答 (数値) に加え, 以下の 3 項目について回答させるアンケートを実施した。図 1 の例を示す.
1. 各質問項目に対し $0 \sim 4$ 点の 5 段階の得点 (NEO-FFI で要求される各質問項目に対する $0 \sim 4$ 点の 5 段階の得点)
2. 実体験の有無 (実体験があるかをはい,いいえの 2 択で回答)
3. 実体験の記入 (自由記述で回答. 複数の実体験がある場合は,体験毎に改行し文を区切る.実体験がない場合は,改行の数値を選んだ根拠を記入. 根拠は可能な限り実生活に基づくものとする)
図 1 「私は心配性ではない」という質問項目に関する実体験の回答例.
アンケートを実施した結果,不適切な回答や,記入した点数と実体験の内容の不一致などの問題が確認された.以下に不適切な回答の例を示す.
1. 自由記述で実体験とは言えない回答が含まれる.
「特になし」や「あまり考えたことがなかった」 など.
2. 得点(回答の数値)と自由記述の実体験の内容の不一致がある.
例えば,「私は心配性ではない」という質問項目に対し,「面接やテストなど練習、復習していないと心配症になる」という回答に 3 点が付与されたり,「数は少ないが将来を見据えた決断時は心配面は比較的薄い。」という回答に 1 点が付与されるなど,実体験と数値の関係が反転しているものがある。(質問紙の逆転項目 ${ }^{1)}$ に多い.)
3. 実体験の自由記述の一文中に性格検査の得点 (数値)と合う内容,合わない内容の両方が含まれる。
例えば「よく緊張したり,神経過敏になったりする.」という質問項目に対し,「部活動の試合前は緊張しないが,就職活動の面接前は緊張した.」ような回答がある.
4. 自由記述で実体験らしい回答が少なくなる質問項目がある.
「私のことを自分勝手で,自分のことしか考えていない人間だと思っている人がいる」や「私を冷たく計算高いと見ている人がいる」といった回答者が人にどのように思われているかを問われる質問項目では実体験では判断しづらく,回答が少ない傾向がある.
これらの問題点に対し,2名での判定を行い,除外, 修正の判断を行った. 得点と実体験が一致していないものについては 2 名で協議を行い,点数をそのまま採用するか反転させるかを判断した. 収集された実体験の文数, 不適切として除外した数, 点数を反転させた数,文章を修正した数を表 1 に示す.
表 1 收集した実体験を補正した内訳
## 3.2 ソーシャルメディアからの実体験の自動拡張
実体験は千差万別であり,種々のソーシャルメディアから文章を取得したとしても,必ずしも適切に実体験リストとの関連が計算できるとは限らない.そこで,NEO-FFI に回答したことがあるソーシャルメディアユーザの書き込みを利用し, NEO-FFI の各質問項目との類似性から実体験の自動拡張を考える. 奥村ら [13] が収集した 483 名分の性格検査の結果, および Twitter から収集したツイートを使用し,実例を自動で拡張する.ツイートから抽出した実体験には,そのユーザが回答した NEO-FFI の得点(数値)が付与されているため,NEO-FFI の質問項目に対する実体験として数値を取得することが可能となる.
実体験の自動拡張の前処理として,本稿で収集した実体験と拡張に利用するツイートは形態素解析により分割する必要がある. 形態素解析器は $\mathrm{MeCab}^{2}$ [14]を使用し, 辞書には ipadic-Neologd[15], [16],[17]を使用している.
実体験とツイートの類似度の算出には, Word2Vec[18], Doc2Vec[19], Sentence BERT[20] の 3 種類のモデルを使用し,モデルの適切さを評価する. Word2vec のモデルは, SNS データ, 日本語 Wikipedia,自動収集ウェブページから作成された 「日本語大規模 SNS+Webコーパスによる単語分散表現モデル [21]」, Doc2Vec でのモデルは日本語 Wikipedia から作成された「日本語 Wikipedia で学習した Doc2Vec モデル $\left.\left.{ }^{3}\right)\right.\lrcorner$, Sentence BERT のモデルは日本語 Wikipedia から作成された「cl-tohoku/bertbase-japanese-whole-word-masking $\left.{ }^{4)}\right.\lrcorner$ を利用した.なお,Doc2 Vec と Sentence BERT で利用したものは Wikipedia のモデルであるが,本稿の実験においては,ツイートによるファインチューニングは実施していない.
図 2 実体験拧張の手順.
図 2 に示した手法により,実体験の拡張を行う。
2) https://taku910.github.io/mecab/
3) https://yag-ays.github.io/project/pretrained_doc2vec_wikipedia/
4) https://github.com/cl-tohoku/bert-japanese/tree/v 1.0次節以降,実体験の拡張数と,性格傾向の性能の関係を検証する。なお,図 2 における各モデルの類似度については, 予備実験により最適と判定した数值を使用している。
## 4 性格特性の推定手法
前節までの検証実験において,Word2Vec のモデルでは類似度の値が高くなり文間の類似度の差が抽出しづらいという問題があり, Sentence BERT のモデルでは,筆者らの実験環境において計算時間がかかりすぎてしまうという問題があった. そのため,以降の性格特性の推定実験においては,Doc2Vec のモデルを採用している。検証には,Word2Vec, Doc2Vec,Sentence BERT の 3 種のモデルで拡張した実体験例を使用する. 性格特性の推定が可能な類似度の閾値は,本稿の著者自身のテキストを利用し,最も著者の性格傾向に合う閾値として 0.5 を設定している.
図 3 性格推定の手順.
Doc $2 \mathrm{Vec}$ を利用し,入力文と全ての実体験例との類似度を測定する.このとき,類似度が 0.5 未満となった大力文については性格特性の推定にしょうしないものとしている. この得点の算出方法により,性格推定で得られる得点に変動を持たせることができる.
## 4.1 実体験の拡張個数と性格傾向推定の正確性
この節では実体験の拡張個数を変化させて性格推定を行い,性格推定に必要な実例の拡張個数を検討する.性格特性の推定モデルとして,使用する実体験例は少ない方が計算量の面で優位となるため,拡張に必要な最小限の文数のみを使用できるよう検証を行う。
実体験例を拡張する個数による変化を調査するため,NEO-FFI の各質問項目に対し, 10 文 50 文まで 10 文刻みで調査した.この際,改行を 1 文として性
格特性の推定を実施している. 実体験例の拡張に使用する文例はランダムに抽出している。 そのため,拡張に使用した各モデルに対し,各文数で 10 回ずつ性格推定を行った. 10 回試行後, 各因子での最高得点から最低得点の差は個数ごとに算出した平均值を表 2 である。なお,拡張に使用する文数の検証には計算時間の問題から Sentence BERT は使用していない.
表 2 最低得点と最低得点の差の平均值
さらに,上記の結果から拡張文数を 100 文 500 文の 100 文刻みで再調査した. 各手法, 各個数で 10 回ずつ性格推定を行った. 10 回試行した結果,各因子での最高得点から最低得点の差を個数ごとに算出した平均値を表 3 に示す.
表 3 最低得点と最低得点の差の平均値
この結果から,100 文から 300 文にかけて差が小さくなり,300 文から 500 文にかけて差が大きくなることがわかる。そのため,1つの質問項目につき 300 文程度の実体験例の拡張が妥当だとわかった.
表 4 全ての手法の比較
表 4 に筆者のテキストを用いた性格特性の推定結果と山下らの手法,および実体験に基づく推定手法の結果を示している.
## 4.25 名分の性格特性の推定
実体験例を使用した性格特性の推定モデルの検証として,奥村らの使用していた NEO-FFI の解答結果と各回答者の Twitter のログを利用し,性格特性の抽出を行った. 実際の性格検査の得点から推定した得点の差を集計し,絶対値に変換. 各手法で平均をした値を表 5 に示す.
表 55 名分の性格特性推定結果の比較. A から E でそれぞれの被験者を表す. 各数值は,Big Five の OCEAN の各因子の推定値と実際の回答結果との差の絶対値を算出し, 5 因子の平均として表示している.
この結果から,Word2Vecを利用して実体験例を拡張したモデルが良好であることが分かる。これは,Word2Vecのモデルのみ SNS を利用したモデルを利用しているため, Wikipedia で構築した Doc2Vec および Sentence BERT のモデルよりも類似度を算出しやすかった可能性がある。そのため,ファインチューニングを施したモデルを利用した実験を行う必要があると考えられる。
## 5 おわりに
本研究ではソーシャルメディアの記述を定量的に扱い,発言者のうつや不安の傾向を捉えるため,実体験に基づく性格特性の推定手法を検討した. ソー シャルメディアをべースとしたユーザ自身の実体験に基づく性格特性の抽出を行うため,従来手法に比べ良好な結果が得られている。一方で,計算資源による制約のため,類似度算出の際に十分な検証ができていない. 今後の課題として, Doc2Vec, Sentence BERT のファインチューニングを実施したモデルによる性格特性の推定モデルの検証や,ソーシャルメディアを利用して構築されたモデルの検証があげられる。
## 謝辞
本研究の実施に際して,性格特性検査のためのアンケートにご協力いただいた皆様にこの場を借りて感謝の意を表します。
## 参考文献
[1] Edmond Pui Hang Choi, Bryant Pui Hung Hui, and Eric Yuk Fai Wan. Depression and anxiety in hong kong during covid-19. Environmental Research and Public Health, 2020.
[2] Selçuk Özdin and Şükriye Bayrak Özdin. Levels and predictors of anxiety, depression and health anxiety during covid-19 pandemic in turkish society: The importance of gender. Social Psychiatry, 2020.
[3] Mark Shevlin, Orla McBride, Jamie Murphy, Jilly Gibson Miller, Todd K. Hartman, Liat Levita, Liam Mason, Anton P. Martinez, Ryan McKay, Thomas V. A. Stocks, Kate M. Bennett, Philip Hyland, Thanos Karatzias, and Richard P. Bentall. Anxiety, depression, traumatic stress and covid-19-related anxiety in the uk general population during the covid-19 pandemic. BJPsych Open, 2020.
[4] 藤倉将平, 小川義人, 菊池英明. 音声対話および twitter におけるユーザのパーソナリティ自動推定.言語処理学会第 19 回年次大会発表論文集, 2013.
[5] 那須川哲哉, 上條浩一, 山本眞大, 北村英哉. 日本語における筆者の性格推定のための言語的特徴の調査.言語処理学会第 22 回年次大会発表論文集, 2016.
[6] 那須川哲哉, 上條浩一. 日本語における筆者の性格推定の取組み. 言語処理学会第 23 回年次大会発表論文集, 2017
[7] 小塩真司. はじめて学ぶパーソナリティ心理学. ミネルヴァ書房, 2010 .
[8] 下仲順子, 中里克治, 権藤恭之, 高山緑. 日本版 neo-pi-r の作成とその因子的妥当性の検討. 性格心理学研究, 1998 .
[9] 村上宣寛, 村上千恵子. 主要 5 因子性格検査の世代別標準化. 性格心理学研究, 1999.
[10] 和田さゆり. 性格特性を用いた bigfive 尺度の作成.心理学研究, 1996.
[11] 下仲順子, 中里克治, 権藤恭之, 高山緑. 日本版 neo-pi-r, neo-ffi 使用マニュアル. 東京心理株式会社, 1999.
[12] 山下紗苗, 奥村紀之. 性格情報を反映した発話文生成. 人工知能学会全国大会論文集, 2021 .
[13] 奥村紀之, 金丸裕亮, 奥村学. 感情判断と bigfive を用いたブログ著者の性格推定に関する調査. 人工知能学会全国大会論文集, 2015 .
[14] 工藤拓, 山本薫, 松本裕治. Conditional random fields を用いた日本語形態素解析. 情報処理学会, 2004.
[15] Sato Toshinori. Neologism dictionary based on the language resources on the web for mecab, 2015.
[16] 佐藤敏紀, 橋本泰一, 奥村学. 単語分かち書き用辞書生成システム neologd の運用—文書分類を例にして一. 自然言語処理研究会研究報告, pp. NL-229-15.情報処理学会, 2016 .
[17] 佐藤敏紀, 橋本泰一, 奥村学. 単語分かち書き辞書 mecab-ipadic-neologd の実装と情報検索における効果的な使用方法の検討. 言語処理学会第 23 回年次大会 (NLP2017), pp. NLP2017-B6-1. 言語処理学会, 2017.
[18] Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vec- tor space. In ICLR Workshop Papers, 2013.
[19] Quoc Le and Tomas Mikolov. Distributed representations of sentences and docuents. In International Conference on Machine Learning, 2014.
[20] Nils Reimers and Iryna Gurevych. Sentence-bert:sentence embeddings using siamese bert-networks. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing, 2019.
[21] 松野省吾, 水木栄, 榊剛史. 日本語大規模 sns+web コーパスによる単語分散表現のモデル構築.人工知能学会全国大会論文集, Vol. JSAI2019, pp. 4Rin113-4Rin113, 2019. | NLP-2022 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |