filename
stringlengths
1
10
text
stringlengths
33
111k
category
stringclasses
9 values
license
stringclasses
1 value
credit
stringclasses
5 values
-
# Pseudo Zero Pronoun Resolution Improves Zero Anaphora Resolution 今野堸人 $\dagger$ ## 1 はじめに 本稿では,EMNLP2021に採択された著者の論文 "Pseudo Zero Pronoun Resolution Improves Zero Anaphora Resolution” (Konno et al. 2021)について, 論文では語られなかった着想に至るまでの経緯,および今後の展望を交えて解説する。 ## 2 本研究の概要 我々は文を読む時,文中の省略を脳内で自動補完しながら読んでいる,省略の例として,「被害者の部屋から犯人の凶器が見つかった。 ハンマーを使用した模様だ.」という文について考えたい.我々は,「ハンマーを使用したのは誰か?」という質問をされたとき,ハンマーは犯人の凶器としてよく使われるという,ハンマーと犯人の凶器の間にある照応関係の知識を無意識に用いることで,「犯人である」と答えることができる。 日本語ゼロ照応解析の解決には,このような照応関係の知識が必要であり,これを大量にマシンに獲得させることが重要だと考える. 本研究では, 生コーパスから照応関係の知識を獲得するための事前学習タスク (Pseudo Zero Pronoun Resolution; PZero) と, この事前学習をうまく活用するためのゼロ照応解析モデル (Argument Selection as Pseudo Zero Pronoun Resolution; AS-PZero) を提案した. 一つ目の提案である PZERO は, 図 1 のように, 生テキスト中に同じ表層形で 2 回以上出現する名詞句の 1 つをマスクし,マスクに入る語を文中から選ぶタスクである。ある文脈で一度出現した名詞句がマスク周辺の異なる文脈で再び出現することをモデルに学習させることで,冒頭で述べたような照応関係の知識の獲得を狙う. 二つ目の提案である AS-PZERO は,図 2 のように,マスクトークン,項を表す格助詞,対象述語からなるフレーズを入力文の末尾に挿入し,マスクに入る語を文中から選ぶことでゼロ照応解析(述語項構造解析)をおこなうモデルである。モデルは PZERO と同様の形式でゼロ照応解析の学習をおこなうため, 事前学習で獲得したモデルパラメータをそのまま引き継ぐことができる.  The university has surveyed teachers' means of transport and found that most teachers use the train. 図 1 PZERO の概要 [CLS]被害者の部屋から犯人の凶器が見つかった。[SEP]ハンマーを使用した模様。[SEP][MASK]が使用した 図 2 AS-PZERO におけるゼロ照応解析 これら二つを組み合わせることで,日本語ゼロ照応解析の性能を向上させられることが実験で明らかとなった。 ## 3 着想に至った経緯 研究のきっかけは, ゼロ照応解析を含む照応関係の知識を必要とするタスクの性能がマスク言語モデルによって大きく向上したという事実 (Joshi et al. 2019; Aloraini and Poesio 2020; Song et al. 2020; Konno et al. 2020) と,マスク言語モデルの事前学習でおこなわれている Cloze タスク (Devlin et al. 2019) がゼロ照応解析で解いている問題と似ているという話からだった. マスク言語モデルはマスクトークンに入る語を周辺文脈から判断して補完する。このマスクトークンを省略された語とみなせば,周辺文脈から省略を補完する問題を解いていると考えることができる。この考えから,マスク言語モデルの学習方法や使い方をゼロ照応解析へうまく活用できないかという方向で研究を始めることとなった。 ## 3.1 事前学習の提案 Cloze タスクとゼロ照応解析は似ているが,大きく異なっている箇所が存在する.まず,ゼロ照応解析では異なる文脈で登場する語の間の照応関係が重要である一方, Cloze タスクでは文が自然となるようにマスクトークンに入る語を語彙から選ぶことで学習をおこなう.仮に,マスクトークンに入る語が文中に存在する語と同じものであったとしても, Cloze タスクではその間にある照応関係を直接学習しているわけではない。また, Cloze タスクではサブワード単位でマスクトークンへ置換するため,たとえ周辺文脈の意味を理解していなくとも,よく出現する語の並びだけでマスクを補完できてしまうケースがある。さらに,Cloze タスクではマスクトークンの個数が分かっているため, どのような語が入るのか予想しやすい. PZEROは, このような問題を改善し, 生コーパスから照応関係の知識をより獲得できるよう にしたものである、マスクのターゲットを述語の項となりうる名詞句に絞り, 名詞句が複数のサブワードから構成されている場合でも,まとめて 1 つのマスクトークンへと置換する。また, マスクトークンに入る語を語彙からではなく文中から直接選択させる。これにより, Cloze 夕スクよりも直接的に照応関係の知識を学習することができると考えた. モデルに学習させたいことは, ある文脈で登場した語が異なる文脈で再び出現するということである。これを実現するため, transformer 層 (Vaswani et al. 2017)を用いて, 周辺文脈の情報を含んだ語の埋め込み表現が,マスクトークンの埋め込み表現と近くなるように学習をおこなう。この埋め込み表現の近さを表すのが論文中の (2) 式のスコアである. スコアの算出方法は self-attention (Vaswani et al. 2017) から着想を得たものである. ## 3.2 Finetuning $の$ 提案 最近では, 生コーパスを使って事前学習し, 対象タスクで finetuning をおこなうのが一般的となっている (Devlin et al. 2019). また, 両者の学習方法やデータドメインなどの設定を近づけることで,より効果的に事前学習ができることが報告されている (Yang et al. 2019; Gururangan et al. 2020). この考え方に従い,ゼロ照応解析を Cloze タスクへ近づけることを考える.このとき,両者の異なっている大きな点として,マスクトークンの場所が決まっているかどうかが挙げられる. Cloze タスクではすでに存在する語をマスクして復元するため, マスクトークンの位置は与えられるものである。一方で, ゼロ照応解析ではどこにゼロ代名詞が存在するのかが不明であるため,マスクトークンをゼロ代名詞とみなすのであれば,マスクトークンの挿入箇所を新たに決める必要がある。これまで, 日本語ゼロ照応解析は述語項構造解析の一部として定式化されてきたため, ゼロ代名詞の場所を予測する必要はなかった,今回,マスクトークンをゼロ代名詞とみなすという考えのもと,事前学習と finetuning の問題設定を揃えるため, 文末にマスクトークンを含むフレーズを挿入した. ## 4 実験の過程 実験でしっかりとした結果を出せるかどうかが論文採択を左右する,そのためには,ある程度実験の試行回数を重ねる必要があると考えていた,著者は,出来るだけ無駄なく実験をおこなうためにも,実験の手順,実験で確かめたいこと,望ましい実験の結果を言語化したうえで実験を進めていった. 論文には載せられなかった実験についてここで紹介したい.PZEROの実験では,正解を含まない(文頭の [CLS]を正解とする)学習デー夕を用意してその割合を変化させること,マスクの対象とする語やマスクトークンの個数を変化させること, Cloze タスクと PZERO をマルチタ スクで解くことなど,様々な試行錯誤をおこなった。結果として,理論含めて論文に載せている方法が最も良いということが判明した. AS-PZERO とそのベースラインも同様に,モデルの構成や学習損失関数の剪定,ハイパラ探索など様々な点で試行錯誤をおこなった. ## 5 実験結果 実験では, 事前学習で Cloze タスク, PZERO の比較をおこない, finetuning でマスクトークンを含まないべースラインと AS-PZEROの比較をおこなった. 結果, 提案手法である PZERO と ASPZERO の組み合わせが最も良いということが判明した。この結果から,事前学習と finetuning どちらか一方を改善するだけよりも,学習全体を改善させた方が相乗効果として良い結果をもたらすという知見が得られた。実験結果の詳細は本論文を参照されたい. ## 6 論文投稿を終えて ゼロ照応解析はここ数年で大きな進歩を遂げてきたが,その性能はまだ実用化レべルにまで到達していないと考えている。また, 口語文などよりくだけた表現では,項の省略は頻繁に発生するうえ,述語の項だけにどまらずイベント全体が省略されることもしばしばよく起こる。 そのような状況では,省略を補完して文の意味をマシンに理解させる難易度は格段に上がることが予想される。 省略解析が実用化されるとき,その真価を発揮するのは普段の日常で用いられる言葉なのではないかと著者は考えている,日常で人間は,できるだけ少ない労力で相手に自分の考えを伝えようとする。その結果,発する言葉の数は少なくなり,省略も増えていく,人間ですら相手が何を伝えようとしているのか理解できないことがあるように,マシンが完璧に省略を補完することはできないかもしれない,しかし, 口語文などの省略が頻繁に起きている文の解析性能が進めば,より省略解析器の実用化が進むのではないかと考える。著者は学生時代から「省略」 というテーマで研究をおこなってきたが, その興味は未だに尽きない. 著者の現在の興味は,省略が頻繁に起こるドメインでの解析や,イベント全体の省略解析へと向いている.マシンに文の意味を理解させたいという動機のもと, 実用化を目指して「省略」というテーマを今後も深掘りしていきたい. ## 参考文献 Aloraini, A. and Poesio, M. (2020). "Cross-lingual Zero Pronoun Resolution." In Proceedings of LREC, pp. 90-98. Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of NAACL, pp. 4171-4186. Gururangan, S., Marasovic, A., Swayamdipta, S., Lo, K., Beltagy, I., Downey, D., and Smith, N. A. (2020). "Don’t Stop Pretraining: Adapt Language Models to Domains and Tasks." In Proceedings of $A C L$, pp. 8342-8360. Joshi, M., Levy, O., Zettlemoyer, L., and Weld, D. (2019). "BERT for Coreference Resolution: Baselines and Analysis." In Proceedings of EMNLP-IJCNLP, pp. 5803-5808. Konno, R., Kiyono, S., Matsubayashi, Y., Ouchi, H., and Inui, K. (2021). "Pseudo Zero Pronoun Resolution Improves Zero Anaphora Resolution." In Proceedings of EMNLP, pp. 3790-3806. Konno, R., Matsubayashi, Y., Kiyono, S., Ouchi, H., Takahashi, R., and Inui, K. (2020). "An Empirical Study of Contextual Data Augmentation for Japanese Zero Anaphora Resolution." In Proceedings of COLING, pp. 4956-4968. Song, L., Xu, K., Zhang, Y., Chen, J., and Yu, D. (2020). "ZPR2: Joint Zero Pronoun Recovery and Resolution using Multi-Task Learning and BERT." In Proceedings of ACL, pp. 5429-5434. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, L., and Polosukhin, I. (2017). "Attention Is All You Need." In Proceedings of NIPS, pp. 5998-6008. Yang, Z., Dai, Z., Yang, Y., Carbonell, J. G., Salakhutdinov, R., and Le, Q. V. (2019). "XLNet: Generalized Autoregressive Pretraining for Language Understanding." In Proceedings of NeurIPS, pp. 5754-5764. ## 略歴 今野颯人:2019 年東北大学工学部電気情報物理工学科卒業. 2021 年東北大学大学院情報科学研究科博士前期課程終了. 現在,株式会社リクルートおよび東北大学大学院情報科学研究科学術研究員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 「SHAPE: Shifted Absolute Position Embedding for Transformers」の研究を通して 清野舜 ${ }^{\dagger, \dagger \dagger}$ はじめに 本稿では, EMNLP2021に採択された論文 “SHAPE: Shifted Absolute Position Embedding for Transformers" (Kiyono et al. 2021) について,研究の概要に触れた後,着想に至った経緯や論文化できた要因を振り返りたい。「Transformer の位置表現の改良」という非常に競争的な分野に おいて,論文採択にこぎつけるための原動力となったこれまでの泥臭い取り組みの紹介も合わ せて楽しんでもらえれば幸いである. ## 研究の概要 本研究では Transformer の外插能力を題材として, 高速かつ汎化性能の高い位置表現手法の開発に取り組んだ。ここで外挿能力とは,訓練データ中に登場しない未知の長さの系列をモデル化する能力のことを指す。単純には,訓練データよりも長い系列をモデルに与えた場合の性能を通して外插能力を評価することができる。図 1 に本研究の概要図を示す. 通常, Transformer (Vaswani et al. 2017) では絶対位置表現 (Absolute Position Embedding; APE) が用いられている。絶対位置表現では, 系列中の各単語に対して専用の位置ベクトルを付与し, 単語埋め込みとの和を取ることによって位置を表現する,絶対位置表現は,その単純さゆえに非常に高速に動作する一方で,外挿が困難であることが知られている.具体的には,推論時に全訓練データよりも長い系列が与えられた場合, 系列中には未知の(訓練中に観測されていない)位置が発生する。これは未知の位置ベクトルとして作用し,外挿を困難にしてしまう。 Transformerの絶対位置表現においては, 正弦波と余弦波の組み合わせによって位置べクトルを表現することが多い。これは波の周期性を利用することで未知の位置ベクトルの悪影響を緩和しようとする試みだが,問題の完全な解決には至っていない. 未知の位置ベクトル問題の解決に向けて, 近年では相対位置表現 (Relative Position Embedding; RPE) の研究が盛んに行われている (Shaw et al. 2018; Raffel et al. 2020). 通常, 相  $\dagger$ 東北大学 図 1 本研究の対象とする位置表現手法の概要図 対位置表現では系列中の単語間の相対距離を, Transformer 内部の注意機構における追加の特徴量として利用することで位置を表現する。同じ Transformerであっても,絶対位置よりも相対位置を用いた場合のほうが外挿能力が高いことが報告されている (Neishi and Yoshinaga 2019). これは,相対位置表現がシフト不変性 1 を実現し,位置情報に対する汎化を容易にしていること, また,モデルの内部で絶対位置を明に扱わないため,未知の位置べクトル問題が原理的に生じないことが原因だと考えられる。一方で,相対位置表現も万能な手法ではない.例えば,注意機構に新たに特徴量を追加する性質上, 注意機構の軽量化を目指す一連の方法論 (Tay et al. 2020) との組み合わせが困難であるだけではなく,絶対位置表現よりもモデルの計算時間が長くなってしまう。 これらの背景をもとに,本研究では,絶対位置表現の枠組みを用いることで計算速度を担保しつつ,相対位置表現の利点を享受することを目指した。具体的には,相対位置表現の実現しているシフト不変性を,絶対位置表現の枠組みで実現することに取り組んだ。提案手法の Shifted Absolute Position Embedding (SHAPE) では, Transformer の学習中, ミニバッチに含まれる各系列の位置インデックスを乱数でシフトさせる。これにより,モデルは絶対位置を利用した学習が困難になるため,相対位置を利用した学習が行われると期待できる。機械翻訳を題材とした実験では,SHAPEは相対位置表現と同等の外插能力を有しつつ,絶対位置表現とほとんど同等の速度で動作することが確認できた。  ## 着想 本研究の着想を得たのは, 2021 年 2 月頃, 研究室のチャットッール上で共有された Neishi らの論文 (Neishi and Yoshinaga 2019)を読んだときのことだった. Neishi らは,絶対位置表現を使う場合, Transformer の外挿能力は RNN ベースのモデルを下回ること, また, Transformer が位置情報に過学習してしまうことがその原因であると報告していた。 入力系列の長さに応じてモデル間の性能の優劣が入れ替わるという知見は示唆に富むもので,外挿能力の研究に興味を持つきっかけとなった。同論文中では,RNN ゙ースの軽量な計算機構を Transformer に追加することで相対位置表現を実現できることや,その高い効果が示されていた。このとき,追加の計算機構を用意するという提案手法を複雑に感じ,論文中の知見をよりシンプルに活用できないだろうかと考えたのが, 本研究の着想を得るきっかけとなった. より具体的には, 仮に絶対位置表現において位置に対する過学習が問題となるのであれば,学習中に正則化を取り入れることで過学習を抑制し,外挿性能を改善できるのではないか,という素朴なアイデアが芽生えた. 結果的に,正則化というアイデアはSHAPEにおける乱数を用いたシフト操作として実現されている. ## 論文執筆 提案手法 (SHAPE) はその単純さゆえに数行で実装可能であったため, 実装にそれほど時間はかからなかった2.手元のべースラインシステムに提案手法を組み合わせて,絶対位置表現からの外挿能力の向上を確認し,既存の位置表現手法との性能比較などを行った上で,論文執筆に取り組んだ.EMNLP に投稿した論文は手法の単純さとその効果が評価され,無事に採択されるに至った。 ## 熾烈な競争 Transformer において位置をどのように表現するか. この問いをめぐっては,世界中の研究グループが嬂烈な競争を繰り広げている。例えば,位置表現のサーベイ論文 (Dufter et al. 2021) には 40 本以上の研究がまとめられているほか $3, \quad$ arXivには位置表現の新規手法を提案する論文が毎週のように登場している,実際,查読中には提案手法とほとんど同等の手法を提案しつつ,言語だけではなく複数のモーダルで実験した論文 (Likhomanenko et al. 2021) が登場し, ひ  どく胃を痛めることとなった ${ }^{4}$. また, 今回の EMNLP では位置表現に取り組んだ研究が,本研究の他に少なくとも 5 本採択されている 5 . 故に,仮に EMNLP に投稿できなかった場合,または不採択になっていた場合は, 本研究はお蔵入りになっていた可能性が非常に高い. ## アイデアを高速に実装・論文化する 本記事の締めくくりとして,この競争的な分野で短期間の間に論文採択に至ることができた要因を振り返ってみたい. いま,成功の方程式(成功回数 $=$ 試行回数 $\times$ 成功率)(賀沢 2012)に基ついいて,論文採択を 「成功」として位置づけることにすると,今回の成功は「試行回数」の項をうまく増やすことができた結果であると考えられる,具体的には,実装にかかる時間や,一回の実験にかかる時間を短く抑えるための技術を身につけていたことで,大量の実験を回す(つまり,試行回数を増やす)ことができたのが,ポジティブに作用した,例えば,筆者はニューラル機械翻訳モデルを日常的に訓練していたため, 実験に用いるデータセットやフレームワークの選定に時間を要することなく, 強力なべースラインを高速に構築することができた. また, 複数枚の GPU を活用できる実験環境を整備しておくことで,百枚以上の GPUで並列に実験を回し,効率的に仮説検証を行うことができた。その結果,限られた時間で実験をまとめあげ,論文執筆に十分な時間を割くことができた6 試行回数増加の要因として, 論文化されることなくお蔵入りになっている大量の研究テーマたちの存在も無視できない。これまで, Transformer の改良にはじまり, スパン単位の情報を用いたデータ拡張, より良い事前訓練済み言語モデルの構築や機械翻訳モデルの文レベルのドメイン適応など, 様々な研究に取り組み, そして全てに失敗してきた。それぞれの研究テーマは,論文という形で花開くことはなかった。しかし, その都度各テーマに全力で取り組んできたことが,先述の各種技術の習得や環境の構築に繋がっており,自分の血肉として役立ったことは間違いない,今回の論文採択は,成功を掴むために試行を回し続けること,また,失敗を通して試行自体を更に増やしていく営みの重要さを内省する良い機会となった。筆者の一連の取り組みが,研究の遂行に悩む誰かの助けとなれば幸いである。 ^{6} 5 / 17$ 締め切りのところ, 5/5 の時点で投稿可能な状態の原稿が完成していたようである. 残りの時間は全て原稿のクオリティ向上に注ぎ込まれた. } ## 参考文献 Dufter, P., Schmitt, M., and Schütze, H. (2021). "Position Information in Transformers: An Overview." In arXiv preprint arXiv:2102.11090. 賀沢秀人 (2012). 成功の方程式. 自然言語処理, 19 (1), pp. 1-2. [H. Kazawa (2012). Seiko no Hoteishiki. Journal of Natural Language Processing, 19 (1), pp. 1-2.]. Kiyono, S., Kobayashi, S., Suzuki, J., and Inui, K. (2021). "SHAPE: Shifted Absolute Position Embedding for Transformers." In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 3309-3321, Online and Punta Cana, Dominican Republic. Association for Computational Linguistics. Likhomanenko, T., Xu, Q., Synnaeve, G., Collobert, R., and Rogozhnikov, A. (2021). "CAPE: Encoding Relative Positions with Continuous Augmented Positional Embeddings." In $A d$ vances in Neural Information Processing Systems, Vol. 34. Neishi, M. and Yoshinaga, N. (2019). "On the Relation between Position Information and Sentence Length in Neural Machine Translation." In Proceedings of the 23rd Conference on Computational Natural Language Learning (CoNLL 2019), pp. 328-338. Raffel, C., Shazeer, N., Roberts, A., Lee, K., Narang, S., Matena, M., Zhou, Y., Li, W., and Liu, P. J. (2020). "Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer." Journal of Machine Learning Research (JMLR), 21 (140), pp. 1-67. Shaw, P., Uszkoreit, J., and Vaswani, A. (2018). "Self-Attention with Relative Position Representations." In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers) (NAACL 2018), pp. 464-468. Tay, Y., Dehghani, M., Bahri, D., and Metzler, D. (2020). "Efficient Transformers: A Survey." In arXiv preprint arXiv:2009.06732. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., and Polosukhin, I. (2017). "Attention Is All You Need." In Advances in Neural Information Processing Systems 30 (NIPS 2017), pp. 5998-6008. ## 略歴 清野舜:2017 年東北大学工学部卒業. 2019 年東北大学大学院情報科学研究科博士前期課程修了. 2019 年 4 月より理化学研究所革新知能統合研究センター。また, 2020 年 10 月より東北大学大学院情報科学研究科博士後期課程学生. 言語処理学会, ACL 各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# Modeling Human Sentence Processing with Left-Corner Recurrent Neural Network Grammars 吉田遼† ## 1 はじめに 本稿では, EMNLP2021 採録論文である "Modeling Human Sentence Processing with LeftCorner Recurrent Neural Network Grammars" (Yoshida et al. 2021) について解説する. 本研究は,私の卒業論文でもある。そして,私の人生で初めての研究でもある。このような論文の性質上,はじめに,私がどのようにしてこの研究に取り組むことを決めたのか,について,高校時代の興味関心にまで遡って述べさせていただきたい. 高校時代, 私は理系のコースに所属しており,数学の問題を友人と競うように解く日々を送っていた。そんな中,私の興味は次第に数式から言語に移っていき,やがて言語の計算的側面に魅せられるようになった,大学に入ると,私はその知的好奇心を満たすべく文転し,理論言語学や心理言語学を学んだ。言語の計算理論や, その脳内での実装について学ぶうちに, 私の高校時代からの興味は「人間の言語処理を計算機上に実装したい」という野心へと形を変えた。 ちょうど私が学部 4 年生になる年に,「人間らしい言語処理モデルの開発」を掲げる大関洋平先生が東京大学に着任し, 私は大関先生の元で卒業論文に取り組むこととなった 私はまず,具体的な現象・検討範囲を設定して,野心を卒業論文サイズのプロジェクトに落とし込む作業に着手した。その際に重要であったのが,「言語処理のリバースエンジニアリング」である。言語処理のリバースエンジニアリングとは,計算機上で実装されたモデルの言語処理が,行動実験などで計測される人間の言語処理と似た傾向を示すか,を観察することで,間接的に「人間らしい」言語処理モデルについて検証する,という手法である.英語における先行研究では, この枠組みに則り様々な知見が蓄積されている。その中でも, 理論言語学が仮定する自然言語の階層構造を明示的に扱う言語処理モデルは,そうでないモデルよりも「人間らしい」という知見 (Fossum and Levy 2012; Hale et al. 2018) は,言語学を専門に学んできた私の興味に大変合致するものであった,幸運なことに,能地宏先生(第二著者)が, Hale et al. (2018)で「人間らしい」言語処理モデルであるとされている,再帰的ニューラルネットワーク文法 (Recurrent Neural Network Grammars,RNNGs) (Dyer et al. 2016)の並列化・高速化を目指した開発を行っており,そのモデルを使わせていただけるらしい。これまた幸い,日本語にお  いては,人間の眼球運動データが BCCWJ-EyeTrack (Asahara et al. 2016) という視線計測コー パスとして整備されている。そこで私ははじめに,「日本語においても,階層構造を明示的に扱う言語処理モデルが,そうでない言語処理モデルよりも人間らしい」ことを示す, という目標を立てた,しかし,「英語でやられていることを日本語でもやりました」では,インパクトに欠ける。そこで私は,先行研究では言及されていない,階層構造の解析戦略に着目することにした. 詳細には, 先行研究で用いられているトップダウン型 (top-down) 解析戦略が, 主要部先端型右枝分かれ構造の英語と異なり, 主要部終端型左枝分かれ構造の日本語においては,「人間らしくない」という点 (Abney and Johnson 1991; Resnik 1992) に着目し, 左隅型 (left-corner) 解析戦略を新たに比較対象として導入した。こうして私は,「どのような解析戦略で階層構造を扱う言語処理モデルが人間らしいのか」というリサーチクエスチョンの下,人生で初めての研究に取り組むことになったのであった。 そこから,EMNLP2021 採択までの流れは,概ね以下の通りである。約 1 年間かけて卒業論文として結果をまとめ, 無事に提出. 言語処理学会第二十七回年次大会にも論文を投稿し, 若手奨励賞を受賞.その勢いで国際会議デビューを果たすべく,内容を発展させ ACL2021に long paperとして論文を投稿したが,「結果がそれほど多くないため, 実験手法が長く結果と考察で尻すぼみになっている」との理由で不採択. 査読者のコメントを踏まえて考察を充実させ, short paper に切り替えて EMNLP2021に投稿. 悲願の採択を果たした. ## 2 論文の解説 以下では, モデルと人間の言語処理の橋渡し理論 ( 2.1 節 $)$, 本研究の実験手法 ( 2.2 節), 及びその結果(2.3 節)に絞って, “Modeling Human Sentence Processing with Left-Corner Recurrent Neural Network Grammars”を解説する。詳細については,適宜論文を参照していただきたい. ## 2.1 橋渡し理論 モデルの言語処理と,人間の言語処理の傾向を比較する際に重要な役割を果たすのが,「サプライザル理論 (Hale 2001; Levy 2008)」である。人間は文を処理する際に次に来る単語や文節を予測しており,文脈から予測しにくい単語や文節ほど,処理負荷が高く(e.g., 読み時間が長く)なると言われている。サプライザル理論は,この「予測しにくさ」をサプライザル $(-\log p($ 単語や文節|文脈 $))$ と呼ばれる情報量で定式化したものである. この論文では, 言語処理モデルの算出する確率と,人間の読み時間の「橋渡し仮説」としてサプライザルを用い,言語処理モデルの「人間らしさ」を評価している. ## 2.2 実験手法 主要部終端型左枝分かれ構造を持つ日本語を用いて, LSTM・トップダウン型解析戦略の RNNGs・左隅型解析戦略の RNNGs という 3 つの言語処理モデルの「人間らしさ」を比較している.RNNGsは,自然言語の階層構造を扱うモデルである点が,LSTM と異なる.また,トップダウン型解析戦略と,左隅型解析戦略では,それぞれ以下の (a),(b)に示したように,ノー ドが解析される順番が異なる。 a. トップダウン型解析戦略 b. 左隅型解析戦略 単語列の背後には無数の階層構造が想定されるため, RNNGsについては, ビームサーチ (Stern et al. 2017) を用いて想定される階層構造のうち確率の高いものを複数保持しつつ, 階層構造について周辺化することでサプライザルを算出した。論文では,複数のビーム幅について検証を行っている. 実験では,前述の視線計測コーパス BCCWJ-EyeTrackに付与された読み時間を,文節長などで推測するベースライン回帰モデルを構築し, そこに言語処理モデルにより推定されたサプライザルを説明変数として加えた際の予測精度の改善度を,読み時間モデリング精度として評価している(詳細は論文の 3 節を参照),読み時間モデリング精度が高いモデルほど,「より人間らしい」言語処理モデルであるといえる. ## 2.3 実験結果 図 1 は,読み時間モデリングの精度(縦軸)を, perplexity(横軸)に対してプロットしたものである。縦軸に着目すると,左隅型解析戦略の RNNGs が最も読み時間モデリング精度が高く,次いでトップダウン型解析戦略の RNNGs, LSTM となっていることが分かる.また,論文では, nested model comparisonにより,これらのモデル間の読み時間モデリング精度の差が有意であることを確かめている(表 1)。この結果から,左隅型解析戦略で階層構造を扱うモデルが最も「人間らしい」と結論づけることができる. さらに,図 1 からは, RNNGsについては perplexity が低いほど読み時間のモデリング精度が高いが,LSTM は perplexity の低さから予測されるほど読み時間モデリング精度が高くないこ 図 1 読み時間モデリングの結果. 横軸が perplexity,縦軸が読み時間モデリング精度. 表 1 Nested model comparison の結果. TD, LC はそれぞれ,トップダウン型解析戦略の RNNGs,左隅型解析戦略の RNNGs を表している. Bonferroni 法により有意水準 $\alpha=0.0056$ で検定した $(0.05 / 9)$. とが分かる. RNNGs については,構文解析の精度と読み時間モデリング精度についても同様の傾向が観察された。 また, RNNGs について, ビーム幅と読み時間モデリング精度の関係に着目すると, トップダウン型解析戦略の RNNGs はビーム幅が大きいほど読み時間モデリング精度が高いが, 左隅型解析戦略の RNNGs は小さいビーム幅でも安定して読み時間モデリング精度が高いことが分かる. 我々は, この結果を, 「人間に近い」小さいビーム幅で正しい解析ができるという点でも,左隅型解析戦略の RNNGs はトップダウン型解析戦略の RNNGsよりも「人間らしい」, と解釈した. 論文内では, この点について, Jurafsky (1996) で提案されている「人間のビーム幅」を経験的に算出するなどしつつ, (i) なぜ左隅型解析戦略の RNNGs は小さいビーム幅で正しい解析ができるのか, (ii) なぜ小さいビーム幅で解析ができると人間らしいのか, という観点から詳細に議論している。 ## 3 おわりに こうして私は,どのような言語処理モデルが「人間らしい」のか,という知見の蓄積に貢献する形で,「人間の言語処理を計算機上に実装したい」という野心の実現に向けて第一歩を踏み出したのであった。しかし, この論文では,あくまで階層構造を明示的に扱う/扱わない, トップダウン型解析戦略/左隅型解析戦略という対立においては, どちらが「より人間らしい」か, ということについての示唆を与えたにすぎない.実験で用いたモデルは,どれも「人間の言語処理の実装」としては単純である。野心の実現へ向けた道のりは始まったばかりだ. ## 参考文献 Abney, S. P. and Johnson, M. (1991). "Memory Requirements and Local Ambiguities of Parsing Strategies." Journal of Psycholinguistic Research, 20 (3), pp. 233-250. Asahara, M., Ono, H., and Miyamoto, E. T. (2016). "Reading-Time Annotations for "Balanced Corpus of Contemporary Written Japanese"." In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers, pp. 684-694, Osaka, Japan. The COLING 2016 Organizing Committee. Dyer, C., Kuncoro, A., Ballesteros, M., and Smith, N. A. (2016). "Recurrent Neural Network Grammars." In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 199-209, San Diego, California. Association for Computational Linguistics. Fossum, V. and Levy, R. (2012). "Sequential vs. Hierarchical Syntactic Models of Human Incremental Sentence Processing." In Proceedings of the 3rd Workshop on Cognitive Modeling and Computational Linguistics, pp. 61-69, Montréal, Canada. Association for Computational Linguistics. Hale, J. (2001). "A Probabilistic Earley Parser as a Psycholinguistic Model." In Proceedings of the Second Conference of the North American Chapter of the Association for Computational Linguistics, pp. 159-166. Hale, J., Dyer, C., Kuncoro, A., and Brennan, J. (2018). "Finding Syntax in Human Encephalography with Beam Search." In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2727-2736, Melbourne, Australia. Association for Computational Linguistics. Jurafsky, D. (1996). "A Probabilistic Model of Lexical and Syntactic Access and Disambiguation." Cognitive Science, 20 (2), pp. 137-194. Levy, R. (2008). "Expectation-Based Syntactic Comprehension." Cognition, 106 (3), pp. 1126-1177. Resnik, P. (1992). "Left-Corner Parsing and Psychological Plausibility." In Proceedings of the 14 th Conference on Computational Linguistics - Volume 1, COLING '92, pp. 191-197, USA. Association for Computational Linguistics. Stern, M., Fried, D., and Klein, D. (2017). "Effective Inference for Generative Neural Parsing." In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 1695-1700, Copenhagen, Denmark. Association for Computational Linguistics. Yoshida, R., Noji, H., and Oseki, Y. (2021). "Modeling Human Sentence Processing with Left- Corner Recurrent Neural Network Grammars." In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 2964-2973, Online and Punta Cana, Dominican Republic. Association for Computational Linguistics. ## 略歴 吉田遼:2021 年東京大学教養学部教養学科学際言語科学コース卒業. 現在,東京大学大学院総合文化研究科言語情報科学専攻在学中.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# Low-resource Taxonomy Enrichment with Pretrained Language Models 竹岡 邦紘† ## 1 はじめに 本稿では EMNLP 2021 に採択された筆者の論文 (Takeoka et al. 2021)(以下では原論文と呼ぶ)を紹介する,原論文は,事前学習済み言語モデルを利用することで,小規模な階層的な分類体系を精度高く自動拡張する手法を提案している。 原論文の紹介に入る前に,どのような経緯で執筆するに至ったかについて述べたい.筆者はこの論文執筆以前に表データの列や表全体に対する意味推定を行なう手法に関して研究 (Takeoka et al. 2019) を行なっていた. オープンデータの重要性が騒がれるようになり,その結果様々な機関がデータ公開を進めるようになったものの,それぞれのデータが異なる表記で書かれているなど課題が山積した状態であった。 これを解決するために提案した手法であったものの,さらなる課題が出てきた。知識べースをいかに作るか,いかにメンテナンスし続けるか,という課題だ。上述の手法では列や表に対してつける推定結果のラベルは階層的な構造を持っていることを仮定していたが,そのようなラベル集合を管理すること自体に課題があったため,現実環境に容易に適用できなかった。そこで「いかに人手をかけずに階層的な分類体系を管理するか」という課題に対する解決策を模索した。 階層的な分類体系の管理は知識ベースの管理の一部として取り扱われるテーマであり,この自動化には多くの課題が残っている。筆者はその課題の中でも特に,新しい概念・カテゴリの追加に焦点を絞った。これは頻繁に分類対象が増えるドメイン(例えば小売業)では高い頻度でこの作業が必要になるからだ。加えて,顧客や事業部門の担当者などから,小さな階層構造であっても,精度高く拡張する手法が望まれていることがわかった。そこで,筆者は「小さな階層的な分類体系であっても追加の学習データなしで拡張可能な手法を提案する」という方向に研究を進めた。 調査を進めていく中で,事前学習済み言語モデル(以下,言語モデルと省略する)が汎用的なタスクで大きな性能改善を見せていることを知った.筆者は「もしかしたら階層構造の拡張のために使えるかもしれない」という安易な考えを抱いた。そこで,Petroni et al. (2019)を始めとする論文を確認し,言語モデルが持ちうる情報とそれの引き出し方を学び,このアプロー  チを階層的な分類体系の拡張に応用することを考えた。さらに,一般的には文書から階層関係を抽出するために用いられる文字列パターン (Hearst 1992)を,言語モデルから階層関係を引き出すために使うという方法を編み出した. これらのアイデアが原論文のコアになる. ## 2 問題設定 原論文は,タクソノミーと呼ばれる階層的な分類体系に新しいカテゴリを自動的に追加する問題(Taxonomy Enrichment/Expansion などと呼ばれる)を取り扱う。その背景には,このようなカテゴリ追加は専門家の手によって行なわれており, 非常に大きなコストがかかるという課題がある。この課題を解決するために,原論文では以下のように定義した問題を解く.元の階層的な分類体系を seed taxonomy と追加するカテゴリ名が与えられた下で,追加するカテゴリに対する適切な親カテゴリを seed taxonomy から発見する。特に,原論文が取り扱うのは, seed taxonomy のカテゴリ数が小さい場合に焦点を当てる。 その理由は,階層的な分類体系は 1,000 程度のカテゴリ数のものが実用上多数存在するからだけでなく, 既存手法は数万程度のカテゴリ数を暗黙的に仮定しており有効な手法になっていないためである. ## 3 提案手法 原論文は, 小さな階層的な分類体系であっても精度高く拡張するために, 事前学習済み言語モデルとハーストパターンとを利用した Musubu 1 を提案している。手法の概略を図 1 に示す. Musubu の特徴は,(1) 言語モデルを補助的な情報源として利用し,与えられた階層的な分類体系に不足した情報を補う点と, (2) その言語モデルを効果的に使うためのクエリ生成にハーストパターン (Hearst 1992)を用いる点にある. 提案手法は, 事前学習済み言語モデルを補助的な情報源として利用して, 与えられた階層的な分類体系上でのカテゴリペアに対する上位下位関係を判定するモデルを構築する。言語モデルを補助的な情報源とする理由は,言語モデルが暗黙的に保持している情報に概念間の意味的なつながりが含まれるからだ. Petroni et al. (2019)は, BERT (Devlin et al. 2019)をはじめとする大規模な事前学習済み言語モデルが概念間の関係を内部のパラメータとして暗黙的に獲得していることを示唆している。したがって,小さな分類体系から上位下位関係を学習する際に不足した情報を言語モデルを用いて部分的に補うことができると考えられる。一方で,その言語モデルが獲得している概念間の関係性と分類体系の中にある上位下位カテゴリが持つ関係性との間にはギャップが存在する可能性が高い,そのため,与えられた分類体系の中にある上位 ^{1}$ Musubu は与えられた分類体系と新しいカテゴリとを正確に「結ぶ」手法というところから名付けた. } (a) Overview (b) Training (c) Inference 図 1 Musubuの(a) 全体構成,(b) 学習,(c) 推論の流れ. Musubu はカテゴリペアをハーストパターンを通してクエリに変換し,階層的な関係があるかどうかを判定する. 下位関係を用いて, モデルの学習(微調整)を行なう必要がある. 提案手法は,カテゴリペアをテンプレート文を使って短い文に変換し言語モデルに入力するという方法を採用している。この方法を採用するのは, そのカテゴリ名が文章中の語句として現れることはあってもカテゴリペアとして語句が並んで現れることはなく, 文でない形の入力に対して言語モデルが有効に働くとは考えにくいためである。そこで,原論文ではハーストパターン (Hearst 1992)を利用して言語モデルに入れる自然なクエリをカテゴリぺアから生成する. ハーストパターンは図 1(a) に示すようなフレーズ間の上位下位関係を示す文字列パターンのことで,コーパスから上位下位関係のカテゴリぺアを抽出するために最も利用されるパター ンの一つである。ハーストパターンを利用したクエリによってカテゴリ間の関係性を明示的に言語モデルに問い合わせることができ,モデル全体はその短文が成立するかどうか(つまり,階層上で上位下位関係にあるかどうか)を判定するように学習する. 提案手法は, 図 1(b), (c) に示すように, 学習済み言語モデルを用いた分類の形で学習と推論を行なう,学習時は,階層的な分類体系の中に入っているカテゴリぺアを取り出し,それらの組み合わせとハーストパターンから生成されるクエリを文として,そのカテゴリペアが階層関係にあるかどうかをラベルとして,モデルパラメータを学習する。予測時は, 新しいカテゴリと階層的な分類体系中の全てのカテゴリとのペアについて学習時と同様のクエリ生成を行ない,最大の予測值に対応するカテゴリを新しいカテゴリの親カテゴリとする. ## 4 実験 上記の提案手法を評価するための実験として, SemEval 2015 のデータセット (Bordea et al. 2015) だけでなく,およそ 1,000 前後のカテゴリを含む小売業(Amazon と Walmart)の階層的な分類体系をデータセットを利用した。これは,より現実的で応用場面を意識した環境での性能を確認するためである。また, 比較手法として, Octet (Mao et al. 2020) や TaxoExpan (Shen et al. 2020) などの最新の手法を利用し, 指標は一般的に用いられる推定結果の正しさを測る edge-F1 (E-F1)と, 階層的な距離を考慮した hierarchical-F1 (H-F1)を用いた2. 表 1 に示すように提案手法である Musubu は,上述のデータセットの全てで既存手法を上回る性能を発揮した。ただし,データセットごとの精度には差があり,これはカテゴリ名が短いフレーズか長いフレーズ(複数のフレーズをつないたももの)かなどが影響を与えているものと思われる。この結果より,提案手法が階層的な小さな分類体系の拡張においてドメインを問わず有効であることを確認した。 ## 5 おわりに 原論文は,小さな階層的な分類体系を自動拡張する際に有効な手法を提案した。提案した手法は,事前学習済みの大規模な言語モデルを外部情報源として活用し,言語モデルの力を引き出すためにハーストパターンを利用した,実データを使った実験を通して,小さな分類体系で有効に働くことを確認した。 原論文では,大規模な分類体系に対する実験や多言語データでの評価は実施できていないものの,提案手法の性質から既存手法に比べてそのような条件下でも性能や利便性の改善が見达まれる。また, 追加するカテゴリは必ずいずれかの既存カテゴリに紐づくと仮定していたが, 表 1 SemEval と小売業の階層的な分類体系を用いた実験結果. 太字は列中の最も高いスコアを示す.  これは必ずしも成り立たない。したがって,今後は追加するカテゴリに対するフィルタリングや順序による影響など考慮したより実用的な問題設定に取り組む必要がある. ## 参考文献 Bordea, G., Buitelaar, P., Faralli, S., and Navigli, R. (2015). "Semeval-2015 Task 17: Taxonomy Extraction Evaluation (TExEval)." In Proceedings of the 9th International Workshop on Semantic Evaluation. Association for Computational Linguistics. Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of NAACL-HLT, pp. 4171-4186. Hearst, M. A. (1992). "Automatic Acquisition of Hyponyms from Large Text Corpora." In Proceedings of COLING Volume 2, pp. 539-545. Mao, Y., Zhao, T., Kan, A., Zhang, C., Dong, X., Faloutsos, C., and Han, J. (2020). "Octet: Online Catalog Taxonomy Enrichment with Self-Supervision." In Proceedings of SIGKDD, pp. 2247-2257. Petroni, F., Rocktäschel, T., Riedel, S., Lewis, P., Bakhtin, A., Wu, Y., and Miller, A. (2019). "Language Models as Knowledge Bases?" In Proceedings of EMNLP-IJCNLP, pp. 2463-2473. Shen, J., Shen, Z., Xiong, C., Wang, C., Wang, K., and Han, J. (2020). "TaxoExpan: Selfsupervised Taxonomy Expansion with Position-Enhanced Graph Neural Network." In Proceedings of $W W W$, pp. 486-497. Takeoka, K., Akimoto, K., and Oyamada, M. (2021). "Low-resource Taxonomy Enrichment with Pretrained Language Models." In Proceedings of EMNLP, pp. 2747-2758. Takeoka, K., Oyamada, M., Nakadai, S., and Okadome, T. (2019). "Meimei: An Efficient Probabilistic Approach for Semantically Annotating Tables." In Proceedings of AAAI, pp. 281-288. ## 略歴 竹岡邦紘:2016 年関西学院大学理工学部人間システム工学科卒業. 2018 年関西学院大学理工学研究科人間システム工学専攻博士前期課程修了. 2018 年より, 日本電気株式会社データサイエンス研究所研究員. 機械学習, 自然言語処理の研究に従事.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# Convex Aggregation for Opinion Summarization 磯竬 $\dagger$ ## はじめに Yelp や Glassdoor などのオンラインレビュープラットフォームの急速な普及に伴い,人々は食事や就職活動などあらゆることを決める際にレビューを参考するようになっている.しかし, これらのプラットフォームには,毎日大量のレビューが投稿されているため, ユーザが求めている有益な意見を見つけるためには大量のレビュー文書をユーザ自身が時間をかけて読む必要がある。 意見要約システムは,レビューから代表的な意見を抽出し,その意見を簡潔でわかりやすい形で要約するシステムである。これにより, 生成された要約を読むことで,ユーザはレビュー をもとにした意思決定を容易に行うことができる。通常,文書要約システムは,人間が参照要約と入力文書のぺアを大量に用いてニューラルネットワークモデルを学習させることで構築するが,カスタマーレビューに対して十分な量の参照要約を収集することは,コストの観点から現実的ではない,そのため,人間が書いた参照要約を必要としない,教師なしのアプローチによる意見要約システムの開発が主流となっている. これまで Megagon Labsでは, 出力を制御可能な意見要約システム OpinionDigest (Suhara et al. 2020), レビュー要約を調整可能な対話型エクスプローラ ExtremeReader (Wang et al. 2020), 両システムで用いるアスペクトベースの意見抽出器 Snippext (Miao et al. 2020), 異なるエンティティのレビューから対照的な意見と共通した意見を生成する CoCoSum (Iso et al. 2021a) などを開発してきた。本稿では,EMNLP 2021 Findings に採択された論文 “Convex Aggregation for Opinion Summarization” (Iso et al. 2021b)1をもとに,教師なし意見要約システムから,より高品質な意見要約の生成を行うフレームワーク Coop について解説する. ## 1 教師なし意見要約 教師なし意見要約システムを構築する最も一般的な手法の一つとして, オートエンコーダモデルを用いるものがある (Chu and Liu 2019). この手法は,要約対象となる複数のレビューを ^{1}$ https://aclanthology.org/2021.findings-emnlp.328/ } Latent space Text space 図 1 潜在空間 $\mathcal{Z}$ とテキスト空間 $\mathcal{X}$ の図示. 各エンティティの単純平均による要約ベクトル $\boldsymbol{z}_{\mathrm{avg}}$ は, いずれも空間の中心付近に位置しているのに対し,Coopにより選択された要約べクトル $\boldsymbol{z}_{\text {coop }}$ は,それぞれ異なる位置にあり,意見要約システムはより具体的な要約を生成している。 潜在空間上に埋め込み, それらの埋め込みベクトルを単純平均したべクトル(以後, 要約ベクトル)から要約を生成するものである。ここで用いるオートエンコーダモデルは,各レビューを潜在空間上に埋め込み, その埋め込みベクトルから元のレビューを再構成するようにエンコー ダとデコーダを学習する。この方法では人間が書いた参照要約を必要としないため,レビュー テキストのみから意見要約システムを構築することができる. このような単純な方法で,流暢かつ高品質な意見要約を生成することができることが知られているが,一方で過度に汎用的な要約を生成してしまうことが,我々の調査で明らかとなった。図 1 に示すように,異なるエンティティのレビューから単純平均を取った要約べクトル $\boldsymbol{z}_{\mathrm{avg}}$ は, いずれも潜在空間の中心に近づき,類似したべクトルになっていることがわかる.それらの要約ベクトルからは,いずれのエンティティにも適用できるような一般的な要約が生成されてしまうことがわかった。より詳細な分析は元論文 $\S 3$ を参照されたい. ## 2 Coop による要約ベクトルの探索 この問題の解決方法のひとつとして,単純平均により得られた要約べクトルをスケーリングすることで, ベクトルを中心付近から離す方法が考えられる,実際,この方法を用いることで, より具体的な要約の生成を確認出来たが,同時に入力レビューと矛盾するような要約を生成してしまうことがわかった. 本研究で提案する Coop は,要約を生成する要約ベクトルの探索を最適化問題として定式化することで,より具体的かつ矛盾のない要約の生成を可能とする手法である。Coop は, 入力レビューの集合 $\mathcal{R}_{e}$ と出力された要約 $G(\boldsymbol{z})$ 間の入出力の単語の重複 Overlap を最大化するよう な要約べクトル $z$ を探索するように定式化する: $ \begin{array}{ll} \underset{\boldsymbol{z}}{\operatorname{maximize}} & \text { Overlap }\left(\mathcal{R}_{e}, G(\boldsymbol{z})\right) \\ \text { subject to } & \boldsymbol{z}=\sum_{i=1}^{\left|\mathcal{R}_{e}\right|} w_{i} \boldsymbol{z}_{i} \\ & \sum_{i=1}^{\left|\mathcal{R}_{e}\right|} w_{i}=1, \forall w_{i} \in \mathbb{R}^{+} \end{array} $ ここで,入出力の単語の重複の計算に ROUGE-1 F1 スコアを用い,入力セットの各レビュー は無視されるか反映されるかのどちらかであるという仮定に基づき,入力レビューの埋め込みベクトルからなる凸包上で要約べクトルの探索を行う,本研究ではさらに,探索空間を入力レビューの幕集合 $2^{\mathcal{R}_{e}} \backslash\{\emptyset\}$, すなわち入力レビューを含むか否かに限定し,選択されたべクトルの平均を取ることで要約べクトル $z$ を得る,実験では,入力レビューの幕集合から全探索した結果を用いているが,貪欲法やビームサーチを用いて探索することで,効率的かつ効果的に要約生成ができることを確認している。詳細は元論文 $\$ 6.2$ を参照されたい. ## 3 実験結果 ## 3.1 自動要約評価 Coop の有効性を検証するため, Yelp (Chu and Liu 2019) と Amazon (Bražinskas et al. 2020) データセットを用いた自動要約評価を行った。本研究では,オートエンコーダモデルとして 2 種類の変分オートエンコーダモデルを用いた.1つ目は,双方向 LSTM と平均プーリングをエンコーダ, 単方向 LSTM をデコーダとして用いた BiMeanVAE, 2 つ目は BERT をエンコーダ, GPT-2 をデコーダとして組み合せた Optimus (Li et al. 2020)である. 表 1 に,ROUGE-1/2/L F1 スコアを用いた要約品質の自動評価結果を示す. 実験の結果, BiMeanVAE, Optimus ともに要約ベクトルの計算に Coopを用いることで, 単純平均 (SimpleAvg) を用いた場合に比べて一貫して ROUGE スコアの向上が見られた。また,単純平均により得られたべクトルから生成した要約が, ベースラインである既存手法と同等の ROUGE スコアを示している。これにより,Coopを用いることで既に高性能な意見要約システムの要約品質をさらに向上できることがわかった. ## 3.2 Coopにより生成された要約 表 2 に, ある中華料理店とアメリカ料理店のレビューから単純平均, Coop それぞれの方法を用いて生成された要約を示す。まず,単純平均により得られた要約べクトル $\boldsymbol{z}_{\mathrm{avg}}$ からは,それ 表 1 ベンチマークデータセットにおける ROUGE F1 スコア & & \\ 表 2 SimpleAvg, Coopによる生成要約の比較 ぞれ類似した要約が生成されてしまっている。一方, Coopを使用した場合, 要約にはより多くのエンティティ固有の情報が含まれている。例えば, 中華料理店の要約には, 料理の種類や料理の量に関する意見が含まれ,アメリカ料理店の要約には,この店で提供されている料理の種類について言及されている. 図 2 Coop ライブラリを使用して要約を生成するためのサンプルコード ## 4 おわりに 本稿では,教師なし意見要約システムにおいて,より良い要約ベクトルを探索する最適化フレームワークである Coop について紹介した.Coop は,任意のオートエンコーダを用いた意見要約システム上に実装できる手法であり,実験の結果,BiMeanVAE,Optimusいずれのモデルにおいても ROUGE スコアの向上が確認できた,本研究で開発した意見要約システムは,容易に使用できる Python ライブラリとしてリリースしている². 図 2 に示すように,数行のコードを書くだけで,最先端の教師なし意見要約システムを実行することができる.本ライブラリが教師なし意見要約のさらなる研究の助けとなれば幸いである. ## 参考文献 Bražinskas, A., Lapata, M., and Titov, I. (2020). "Unsupervised Opinion Summarization as Copycat-Review Generation." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 5151-5169, Online. Association for Computational Linguistics.  Chu, E. and Liu, P. (2019). "MeanSum: A Neural Model for Unsupervised Multi-Document Abstractive Summarization." In Chaudhuri, K. and Salakhutdinov, R. (Eds.), Proceedings of the 36th International Conference on Machine Learning, Vol. 97 of Proceedings of Machine Learning Research, pp. 1223-1232, Long Beach, California, USA. PMLR. Iso, H., Wang, X., and Suhara, Y. (2021a). "Comparative Opinion Summarization via Collaborative Decoding." arXiv preprint arXiv:2110.07520. Iso, H., Wang, X., Suhara, Y., Angelidis, S., and Tan, W.-C. (2021b). "Convex Aggregation for Opinion Summarization." In Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 3885-3903, Punta Cana, Dominican Republic. Association for Computational Linguistics. Li, C., Gao, X., Li, Y., Peng, B., Li, X., Zhang, Y., and Gao, J. (2020). "Optimus: Organizing Sentences via Pre-trained Modeling of a Latent Space." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 4678-4699, Online. Association for Computational Linguistics. Miao, Z., Li, Y., Wang, X., and Tan, W.-C. (2020). "Snippext: Semi-Supervised Opinion Mining with Augmented Data." In Proceedings of The Web Conference 2020, WWW '20, pp. 617-628, New York, NY, USA. Association for Computing Machinery. Suhara, Y., Wang, X., Angelidis, S., and Tan, W.-C. (2020). "OpinionDigest: A Simple Framework for Opinion Summarization." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 5789-5798, Online. Association for Computational Linguistics. Wang, X., Suhara, Y., Nuno, N., Li, Y., Li, J., Carmeli, N., Angelidis, S., Kandogann, E., and Tan, W.-C. (2020). "ExtremeReader: An Interactive Explorer for Customizable and Explainable Review Summarization." In Companion Proceedings of the Web Conference 2020, WWW '20, pp. 176-180, New York, NY, USA. Association for Computing Machinery. ## 略歴 磯颯:2021 年奈良先端科学技術大学院大学博士後期課程修了. 博士 (工 学). 現在, Megagon Labs Research Associate.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# Exploring Methods for Generating Feedback Comments for Writing Learning 塙 一晃 ${ }^{\dagger, \dagger \dagger}$ ## 1 はじめに 本稿では, EMNLP2021 に採択された表題の論文 (Hanawa et al. 2021) について解説する. 詳細な内容については次節以降で述べるが,まずはじめに説明したいのは,本研究はあるタスクにおける手法の研究でありながら, 自然言語処理分野における手法研究の “典型的なストーリー” からは逸脱しているということである。ここでいう典型的なストーリーとは,ある新規手法を提案し,その手法の何らかの優位性(典型的にはあるタスクにおける精度)を示すというものである。本研究の内容は英語学習者のための解説文生成タスク(以下,単に「解説文生成タスク」と記す)における三つの自然な既存の手法を比較し,その振る舞いを分析したものである. そのようなストーリーになった背景には次のような経緯がある。まず,重要な前提として,解説文生成タスクという分野における生成手法の知見はほとんど皆無である. 最近, 解説文生成タスクのためのデータセット (Nagata 2019) が作られたが, 生成手法に関する研究は本研究以前にはほとんど報告されていない,そのような状況においては,まず自然な既存手法でどの程度解けるのかを調べるのが定石であろう。一方で,単に既存手法の精度を調べるだけでは,(著名な国際会議に採択される程度に)十分な知見は含まれていないことが多いと思われる。筆者も当初は既存手法の振る舞いを調べるのはあくまで予備調査にすぎず,その上で何らかの新規手法を提案するというストーリーを想定していた。しかし,既存手法の精度を調べたところで想定とは大きく異なる結果が得られた。そこでそのような振る舞いの原因を調査し,その内容を報告することにした。このようなストーリーの論文は,一見しただけでは既存手法の精度を報告しているだけで,あたかも新規性が無いように見えるかもしれない。しかし,既存手法の非直感的な振る舞いやその原因を報告することは解説文生成タスク,ひいては自然言語処理分野に対して十分な貢献があると信じ,その内容を論文としてまとめるに至った.  †東北大学 ## 2 解説文生成タスクとはどのようなタスクか 本節では本研究で取り組んだ解説文生成タスクがどのようなタスクなのか, どのような手法が初手として“自然”なのかを述べる. 解説文生成とは,与えられた文章に対してライティングに関するヒントや説明を生成する夕スクのことである。例えば,次の文の下線部に対して, (1) 対象文 :*We discussed about it. 解説文:discuss は他動詞ですので、前置詞 about は必要ありません。 のような解説文を生成するタスクである. このタスクは形式的には生成問題でありながら, 同時に「複数の事例が同じ誤りクラスに属している」という多クラス分類のような性質をもつ。例として次の二文を考える。 (2) 対象文:*We reached to the station. 解説文:reach は他動詞ですので、前置詞 to は必要ありません。 (3) 対象文: *I reached to New York. 解説文:reach は他動詞です。目的語の前に前置詞は必要ありません。 これらの例はいずれも同じ種類の誤りである。また,二つの解説文は表層的には異なるが,内容的には同様の指摘をしており互いに可換である。このような性質を考慮すると検索手法(以下, Retrieval)が一つ目の自然な手法として挙げられる。詳細は原論文に譲るが Retrieval では入力文を文べクトルにエンコードし,それらの余弦類似度が最も大きいものを訓練データから検索する。 しかし, Retrieval は柔軟性に欠ける。例えば次の解説文を考える。 (4) 対象文:*I approach to the goal. 解説文:approach は他動詞です。目的語の前に前置詞は必要ありません。 例 (4) と例 (3) は「他動詞と前置詞の併用」という同じ種類の誤りと分類するのが自然であろう. しかし, 例 (4) の解説文では “reach” ではなく“approach” が使われており, 例 (3)の誤りに対してそのまま出力すると正しくない解説文となる。そこでより柔軟な手法として Encoder-Decoder を用いた生成手法(以下, Simple Generation)が挙げられる。例 (4) からもわかる通り解説文中には入力文中の単語(この例では “approach”)が用いられることも多い. そこで入力文からのコピー機構を備えた Encoder-Decoder として pointer-generator network (See et al. 2017) を採用した。 三つ目の自然な手法としては検索した事例を編集する Retrieve-and-Edit (Hashimoto et al. 2018) が挙げられる。検索した事例を編集することができれば前述のような例 (3) の誤りに対して例 (4) の解説文を検索してしまった場合でも “approach”を “reach”に書き換えることで正しい解説文となる。 さらに解説文を一から生成する Simple Generation よりも,いくつかの単語 表 1 各生成手法の正解率 を編集するだけの Retrieve-and-edit の方が解きやすい形式になっていると考えられる. まとめると, 本研究では Retrieval, Simple Generation, Retrieve-and-Edit の三つの手法を比較する。また性能は前述の理由から Retrieval $<$ Simple Generation $<$ Retrieve-and-Edit の順になると予想できる。しかし実験を行ったところ,興味深いことに予想とは異なる結果が得られた. 実験結果の詳細については次節で述べる. ## 3 各手法の性能値 実験には二つのデータセットを用いた。一つは前置詞に関する解説文のみを含んたもので, もう一つは一般の解説文も含んたものである。それぞれのテスト事例を人手で正しいかどうか判断し, 評価としてその正解率を用いた。 結果は表 1 の通りとなった。予想に反して Retrieve-and-Edit の性能がいずれのデータセットでも低くなっていることがわかる.特に Retrieval はいずれのデータセットでも Retrieve-andEditよりも高い性能となっている。すなわち Retrieve-and-edit は Retrieval の結果をそのまま出力すれば正しい解説文であるようなケースにおいて,編集をすることで正しくない解説文に書き換えてしまうことが多いのである。また, Simple Generation は前置詞解説文のみを含むデータセットでは最高性能であるのに対し,一般の解説文を含むデータセットでは最低性能となった.これも直感に反する結果である. これらの予想に反する結果が起こる原因についての考察を次節で述べる. ## 4 予想に反する結果の原因 ## 4.1 なぜ Retrieve-and-Edit の性能は低いのか Retrieve-and-Edit の出力結果を分析すると, 不必要な編集をしてしまう現象が数多く確認できた。訓練時に,検索された解説文と目的の解説文が同一内容であっても,表層が異なると,不必要な編集が学習される。言い換えれば,不要な編集は,解説文における表層バリエーションの多さに起因するといえる。次の例を考える。 (5) 対象文: *I agree with that smoking should be banned. 解説文:動詞 agree は that 節を目的語にとりうる動詞なので、目的語の前に前置詞 with は不要です。 (6) 対象文:*I agree with that this method is good. 解説文:動詞 agree が同意する内容が節で書かれている場合は前置詞 with は不要です。 この二つの解説文は,同じ文法規則についての解説であるが表層は大きく異なる.解説文は自然言語で記述されるため,このような表層的なバリエーションは避けられない。例 (5) に対して例 (6) が検索された場合には,そのまま出力すれば十分であるにも関わらず,例 (5)のように書き換えるように訓練が行われる。このように適切な編集方法の学習が妨げられることにより,推論時にも正しい解説文に対しても不要な編集を行ってしまい Retrieve-and-Edit の性能の低下につながったと考えられる。 ## 4.2 なぜ Simple Generation の性能順はデータセットによって異なるのか Simple Generation の生成結果を分析すると, 前置詞解説文と一般解説文では異なる振る舞いが見られた.前者では訓練データと表層的に非常に類似した解説文を生成することが多い。一方, 後者では, 複数の解説内容を融合したような生成結果が頻繁に観測された例えば,次のような解説文が生成された。 (7) 対象文 :* ... this activity is will not disturb their ... 解説文:*主語に合わせて動詞を適切な形で用いましょう。be 動詞は必要か確認しましょう。 一文目は主語と動詞の一致についての解説, 二文目は be 動詞と一般動詞の併記に関する解説である。このような解説文は基本的には正しい解説文となることはないため性能の低下につながる.解説内容の種類数が相対的に多い一般解説文では異なる種類の誤りを区別することが難しく, 例 (7)のように異なる種類の解説文が混ざってしまうことが多くなる.相対的に種類が少ない前置詞解説文では, 誤りの種類を区別しやすく, このような現象は起こりにくい. これらのことに起因して前置詞解説文では高い性能であったのに対し,一般解説文では低い性能になってしまったと考えられる. ## 5 おわりに 本研究は解説文生成手法の探求の第一歩目である. 冒頭でも述べた通り本来は予備実験のつもりで行った既存手法の調査が本研究であり, 解説文生成手法の研究は始まったばかりなのである. 本研究で得られた知見を一つの土台として, より良い解説文生成方法の探求を今後も続けていく所存である. ## 参考文献 Hanawa, K., Nagata, R., and Inui, K. (2021). "Exploring Methods for Generating Feedback Comments for Writing Learning." In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 9719-9730, Online and Punta Cana, Dominican Republic. Association for Computational Linguistics. Hashimoto, T. B., Guu, K., Oren, Y., and Liang, P. S. (2018). "A Retrieve-and-Edit Framework for Predicting Structured Outputs.” In Bengio, S., Wallach, H., Larochelle, H., Grauman, K., Cesa-Bianchi, N., and Garnett, R. (Eds.), Advances in Neural Information Processing Systems 31, pp. 10052-10062. Nagata, R. (2019). "Toward a Task of Feedback Comment Generation for Writing Learning." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 3206-3215. See, A., Liu, P. J., and Manning, C. D. (2017). "Get To The Point: Summarization with PointerGenerator Networks." In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics, pp. 1073-1083. ## 略歴 塙一晃: 理化学研究所革新知能統合研究センター 自然言語理解チームテクニカルスタッフ. 2019 年東北大学大学院情報科学研究科博士前期課程修了.同年より現職. 2020 年東北大学大学院情報科学研究科博士後期課程に進学.自然言語処理に関する研究に従事.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 化学分野の固有表現抽出のための化合物名を含む文の 言い換え学習を用いたマルチタスク学習手法 本論文では,言い換えが複数存在する化合物名称の固有表現抽出 (NER) の精度を向上するため,NER モデルと化合物名を含む文の言い換えモデルを同時に学習するマ ルチタスク学習を提案する。提案手法では, long short-term memory (LSTM) に基 づくエンコーダーおよび単語・文字 embedding パラメータを,NER モデルと言い換 えモデルで共有することで,NER モデルにおいて,化合物名の言い換えを捉えるこ とができるようにする。化合物名抽出タスク BioCreative IV CHEMDNER トラック で評価した結果,本言い換え学習が精度改善に貢献することが確認された。 キーワード:マルチタスク学習,固有表現抽出,言い換え ## Multi-Task Learning for Chemical Named Entity Recognition with Chemical Compound Paraphrasing \author{ Taiki Watanabe ${ }^{\dagger, \dagger \dagger}$, Akihiro Tamura ${ }^{\dagger \dagger}$, Takashi Ninomiya ${ }^{\dagger \dagger \dagger}$, \\ TAKUYa MaKino ${ }^{\dagger \dagger \dagger}$ and TOMOYa IwakURa ${ }^{\dagger}$ } \begin{abstract} We propose a method to improve named entity recognition (NER) for chemical compounds using multi-task learning by jointly training a chemical NER model and a chemical compound name paraphrase model. Our method enables the NER model to capture chemical compound paraphrases by sharing the parameters of NER and the character embeddings based on long short-term memories (LSTM) with the paraphrase model. Experimental results on BioCreative IV CHEMDNER show that our method learning paraphrase contributes to improved accuracy. \end{abstract} Key Words: Multi-task Learning, Named Entity Recognition, Paraphrasing ## 1 はじめに 固有表現抽出 (NER) は, 人名, 組織名, 化学物質名, 日付や時間といった固有名詞や数値表現を抽出するタスクであり,関係抽出 (Zhou et al. 2016; Wu and He 2019; Shen and Huang  2016; Wang et al. 2016) やエンティティリンキング (Ganea and Hofmann 2017; Le and Titov 2018; Radhakrishnan et al. 2018; Raiman and Raiman 2018; van Hulst et al. 2020; Kolitsas et al. 2018) といった技術に用いられる要素技術の一つである. たとえば, 2 つの固有表現 (NE) 間の関係を識別する関係抽出タスクでは,文中の NE を特定するため NER が利用され,エンティティリンキングでは,実体判別の候補抽出に利用される. 固有表現技術の適用先は, 新聞記事といった一般的な文書に留まらず,化学や医学分野などの専門分野の特許や論文に広がりを見せている。化学分野であれば, 新材料や新薬の開発, 材料を用いた製品開発などにおいて,化合物に関する知識が必要不可欠であり,論文や特許で日々報告される化合物間の相互関係や物性値といった情報を構造化し知識として蓄積することが行われている.しかしながら,2015 年の時点で 2 分 30 秒に 1 件のペースで新たな物質が CAS (Chemical Abstracts Service) に追加されているという報告が示すように ${ }^{1}$, 刻々と増え続ける化合物に対して,専門的な知識を必要とする人手による知識構築作業が課題となっている。そこで,知識構築に必要な化合物名を抽出するために NER が化学分野でも注目を集めている (Leaman et al. 2015; Lu et al. 2015; Lin et al. 2018). 近年では, LSTM-CRF モデルといった, long short-term memory (LSTM) に条件付確率場 (CRF) を組み合わせたモデル (Lample et al. 2016; Ma and Hovy 2016) や, Transformer (Vaswani et al. 2017)を用いたモデル (Devlin et al. 2019; Yamada et al. 2020) が高い精度を示している. また,大規模なラベルなしコーパスから事前学習したニューラル言語モデル (Akbik et al. 2018; Peters et al. 2018; Devlin et al. 2019; Yamada et al. 2020; Lee et al. 2020; Beltagy et al. 2019) を用いた手法が CoNLL 2003 shared task データセット (Sang et al. 2003) や化学分野の NER (Lu et al. 2015) などにおいて, 高い精度を示している. しかし, 化合物には多様な表記があることが,化学分野の NER を難しくしている。図 1 にあるように,Acrylic acid 4-tert-butylphenyl ester は Acrylic acid 4-(1,1-dimethylethyl)phenyl ester のように異表記で表現される。ここでは, tert-butyl を表す構造が methyl と ethyl から構成されることから,1,1-dimethylethyl とも言い換え可能となっている。このように同じ化合物が複数の異表記で記述される状況から,学習デー 夕には含まれない表記が多数存在しており,学習デー夕中の表記に基づき学習する従来の NER モデルでは, 新規の化合物名抽出において精度低下につながると考えられる。 たとえば,登録数が 1 億を超えている PubChem (Kim et al. 2020) 上の化合物の異表記の平均数は 3.88 個 2 である。このように既に存在する大規模な化合物の言い換えに加えて, 今後増え続ける化合物に対応するために従来の NER 用の教師データだけから異表記パタンを学習するアプローチは困難な状況にある。  図 1 化合物の異表記の例. Acrylic acid 4-tert-butylphenyl ester とその言い換えである Acrylic acid 4-(1,1-dimethylethyl)phenyl ester について示している。ここでは, tert-butyl を表す構造が 1,1dimethylethyl に言い換えられている. そこで,本研究では,化合物名抽出と化合物名を含む文の言い換えをマルチタスク学習により同時に学習することで, 表現の同一性を学習し化合物名抽出を行う手法, Handling Paraphrase in NER (HanPaNE) を提案する。 HanPaNE では, 同一化合物の異なる表記を考量するために,既存のDBに登録されている化合物の言い換えパタンを用いて自動生成される言い換え用の学習データから, attention-based neural machine translation (ANMT) (Luong et al. 2015; Bahdanau et al. 2015) を基に言い換え生成モデルを学習する際に, NER モデルと言い換えモデルの Encoder のパラメータを共有することで,言い換えパタンを NER で考慮する. 提案手法を, BioCreative IV CHEMDNER (Krallinger et al. 2015) と PubChem から得られる言い換えパタンを用いて,評価を行った。その結果,従来の辞書を使った教師データの自動拡張 (Yi et al. 2004)を超える精度が得られ,化合物名抽出における NER と言い換え生成のマルチタスク学習の有効性を確認した。 ## 2 提案手法 図 2 に提案手法 HanPaNE の全体像を示す。まず,NER と化合物名を含む文の言い換えモデルについて述べ,その後,言い換えモデルと NER モデルのマルチタスク学習の方法について述ベる. ## 2.1 文字レベルの言語モデルを使用した NER 本章では, ベースラインモデルとして用いる,Bidirecional (Bi) LSTM-CRF と Contextual String Embeddings (CSE)に基づく NER モデル BiLSTM-CRF+CSE について述べる (Akbik et al. 2018). このモデルは, CoNLL2003 のデータセットにおいて高い精度を示している. 図 2 提案手法 $\operatorname{HanPaNE}$ の全体図 $L S T M^{(f)}, L S T M^{(b)}, L S T M^{(w c)}$ と $L S T M^{(s c)}$ のパラメータは言い換えモデルと NER モデルで共有される. このモデルでは, 入力文の単語列として, $\mathbf{w}=w_{1}, w_{2}, \cdots, w_{N}$ が与えられたとき, 各単語 $w_{i}$ はべクトル $\mathrm{x}_{i}$ に変換される。 ベクトル $\mathrm{x}_{i}$ は, 下記, 図 2 中の 1) から 3) の 3 つの embedding を結合したものである。 ・ 1) ルックアップテーブルから取得される単語 embedding - 2) 単語を構成する文字列上で計算される $\operatorname{BiLSTM}\left(L S T M^{(w c)}\right)$ の隠れ層 CWSE (Lample et al. 2016) - 3) 文全体から構成される文字列から計算される $\operatorname{BiLSTM}\left(L S T M^{(s c)}\right)$ の隠れ層 $\mathrm{CSE}$ (Akbik et al. 2018) CWSE は,ある単語に対して,LSTM ${ }^{(w c)}$ の順方向 LSTM と逆方向 LSTM の最後の隠れ層の結合である. CSE は,ある単語に対して,LSTM $M^{(s c)}$ の順方向 LSTM の単語を構成する最後の文字の隠れ層と, $L S T M^{(s c)}$ の逆方向 LSTM の単語を構成する最初の文字の隠れ層を結合したものである。 $L S T M^{(s c)}$ は,事前学習を行った文字レベルの言語モデルである.文字単位の文の生成確率は,下記の式を用いて表現される. $ P\left(\mathbf{c}_{1: T}\right)=\prod_{t=1}^{T} p\left(c_{t} \mid \mathbf{c}_{1: t-1}\right) $ ここで, $c_{t}$ は文中の $t$ 番目の文字を表し, $T$ は文中の文字数を表す. 入力単語列 $w$ に対するべクトル表現 $\mathbf{X}=\mathbf{x}_{1}, \cdots, \mathbf{x}_{N}$ を得た後に, 各単語の BiLSTM の隠れ層 $\mathbf{h}_{i}$ と対象の $\mathrm{NE}$ タグのスコアベクトル $\mathbf{e}_{i}$ を,下記のように計算する。 $ \begin{aligned} & \overrightarrow{\mathbf{h}_{i}}=L S T M^{(f)}\left(\mathbf{x}_{i}, \overrightarrow{\mathbf{h}_{i-1}}\right), \\ & \overleftarrow{\mathbf{h}_{i}}=\operatorname{LST} M^{(b)}\left(\mathbf{x}_{i}, \overleftarrow{\mathbf{h}_{i+1}}\right) \\ & \mathbf{h}_{i}=\left[\overrightarrow{\mathbf{h}_{i}} ; \overleftarrow{\mathbf{h}_{i}}\right] \\ & \mathbf{e}_{i}=W_{e} \mathbf{h}_{i} \end{aligned} $ ここで, $\overrightarrow{\mathbf{h}_{i}}$ と $\overleftarrow{\mathbf{h}_{i}}$ の次元数は $d, \mathbf{h}_{i}$ の次元数は $2 d, \quad W_{e} \in \mathcal{R}^{k \times 2 d}$ は重み行列であり, $k$ は識別対象の NEの種類である。 [ $\cdot ; \cdot]$ は二つのべクトルを結合する演算を行う. $\mathbf{h}_{i-1}$ は, $\mathbf{h}_{i}$ の一つ前の単語に対する隠れ層, $\mathbf{h}_{i+1}$ は, $\mathbf{h}_{i}$ の一つ後ろの単語の隠れ層を表す。また, $\overrightarrow{\mathbf{h}_{0}}$ と $\overleftarrow{\mathbf{h}_{N+1}}$ は, ゼロベクトルである. BiLSTM-CRF $+\mathrm{CSE}$ モデルでは, スコア行列 $\mathbf{P}=\left(\mathbf{e}_{1}, \cdots, \mathbf{e}_{N}\right)^{T} \in \mathcal{R}^{N \times k}$ と CRF を使用してタグの系列を予測する。ここで, $P_{i, j}$ は $i$ 番目の単語に対応する夕グ $j$ のスコアである. また,出力のタグ系列 $\mathbf{y}=y_{1}, \cdots, y_{N}$ の確率は,下記により計算される. $ \begin{aligned} & s(\mathbf{w}, \mathbf{y})=\sum_{i=-1}^{N} A_{y_{i}, y_{i+1}}+\sum_{i=1}^{N} P_{i, y_{i}} \\ & p(\mathbf{y} \mid \mathbf{w})=\frac{e^{s(\mathbf{w}, \mathbf{y})}}{\sum_{\tilde{\mathbf{y}} \in \mathbf{Y}_{\mathbf{w}}} e^{s(\mathbf{w}, \tilde{\mathbf{y}})}} \end{aligned} $ ここで, $\mathbf{Y}_{\mathbf{w}}$ はすべての可能なタグ系列の集合を表し, $\mathbf{A}$ はタグ遷移スコアの行列, $A_{y_{i}, y_{j}}$ は $i$番目の夕グから $j$ 番目の夕グへ遷移するスコア, $y_{-1}$ と $y_{N+1}$ はそれぞれ文頭と文末を表す夕グである. 学習では, モデルは正解のタグ系列を用いて下記の式を最大化するように学習する. $ \log (p(\mathbf{y} \mid \mathbf{w}))=s(\mathbf{w}, \mathbf{y})-\log \left(\sum_{\tilde{\mathbf{y}} \in \mathbf{Y}_{\mathbf{w}}} e^{s(\mathbf{w}, \tilde{\mathbf{y}})}\right) $ ここで, $\mathbf{y}$ は $\mathrm{w}$ 正解のタグ系列である. NE を抽出する際,モデルは,下記の式によって得られるスコアが最大のタグ系列を出力する. $ y^{*}=\underset{\tilde{\mathbf{y}} \in \mathbf{Y}_{\mathbf{w}}}{\arg \max } s(\mathbf{w}, \tilde{\mathbf{y}}) $ ## 2.2 言い換えモデル 提案手法では,LSTM ゙ースの NER モデルのエンコーダーに言い換え知識を取り入れるた め, NER モデルと LSTM ベースのエンコーダーデコーダー手法の ANMT モデル (Luong et al. 2015; Bahdanau et al. 2015) で共有のエンコーダーを用いて,化合物を含む文の言い換えモデルを学習する,言い換えモデルは,入力文の単語列 $\mathbf{w}$ を化合物の言い換えを含む文の単語列 $\mathbf{y}^{t r g}=y_{1}^{t r g}, y_{2}^{t r g}, \cdots, y_{U}^{t r g}$ に変換する. ここで, $U$ は言い換え後の文の単語数である. LSTM エンコーダーは,入力文 $\mathrm{w}$ を固定長のべクトルへ変換し,その後 LSTM デコーダーは変換された固定長のベクトルを使用して, 出力単語列 $\mathbf{y}$ を生成する.LSTM エンコーダーは, 式 (2) と式 (3) によって定義される双方向 LSTM を使用し,NER モデルと同じくベクトル $\mathbf{x}_{i}$ を入力文の単語列の $i$ 番目の単語の embedding として使用する. 双方向 LSTM のエンコーダーの最後の隠れ層の状態である, 式 (2)の $\overrightarrow{\mathbf{h}}_{N}$ と, 式 (3)の $\overleftarrow{\mathbf{h}}_{1}$ は, LSTM デコーダの初期状態として, $\mathbf{s}_{0}=\left[\overrightarrow{\mathbf{h}}_{N} ; \overleftarrow{\mathbf{h}}_{1}\right]$ で表される式の形で用いられる. デコーダは, $j$ 番目の単語の隠れ層 $\mathbf{s}_{j}$ を下記のように計算する. $ \mathbf{s}_{j}=L S T M_{d e c}\left(\left[\mathbf{v}_{j-1} ; \hat{\mathbf{s}}_{j-1}\right], \mathbf{s}_{j-1}\right), $ ここで, $\mathbf{v}_{j-1}$ は, $y_{j-1}^{\operatorname{trg}}$ の単語 embedding, $\hat{\mathbf{s}}_{j-1}$ は $(j-1)$ 番目のアテンションベクトルである.本モデルでは,コンテキストベクトル $\mathbf{o}_{j}$ を用いて,$j$ 番目のアテンションベクトルを以下のように計算する。 $ \hat{\mathbf{s}}_{j}=\tanh \left(W_{e}\left[\mathbf{s}_{j} ; \mathbf{o}_{j}\right]\right) $ ここで, $W_{e}$ は重み行列であり, $\tanh$ はハイパボリックタンジェント関数である. コンテキストベクトル $\mathbf{o}_{j}$ は,エンコーダの隠れ層の重み平均によって下記のように算出される. $ \begin{aligned} \mathbf{o}_{j} & =\sum_{i=1}^{N} \alpha_{j}(i) \mathbf{h}_{i} \\ \alpha_{j}(i) & =\frac{\exp \left(\mathbf{h}_{i} \cdot \mathbf{s}_{j}\right)}{\sum_{k=1}^{N} \exp \left(\mathbf{h}_{k} \cdot \mathbf{s}_{j}\right)}, \end{aligned} $ $\exp$ は, 指数関数である. デコーダは, 学習時には, 下記のように $j$ 番目の正解トークン $y_{j}^{\operatorname{trg}}$ の確率を計算する。 $ p\left(y_{j}^{t r g} \mid \mathbf{y}_{<j}^{t r g}, \mathbf{w}\right)=\operatorname{softmax}\left(W_{s} \hat{\mathbf{s}}_{j}\right) $ ここで, $W_{s}$ は重み行列である。文章の生成時には, 最も確率の高い単語が選択される. 目的関数は下記のように定義される. $ J(\theta)=-\sum_{\left(\mathbf{w}, \mathbf{y}^{\operatorname{trg}}\right) \in \mathbf{D}} \log p\left(\mathbf{y}^{\operatorname{trg}} \mid \mathbf{w}\right) $ $D$ は学習データであり, $\theta$ はモデルパラメータの集合である. ## 2.3 固有表現抽出における言い換えの考慮 提案手法である HanPaNE は, 2.1 章で述べた NER モデルと 2.2 章で述べた化合物名を含む文の言い換えモデルを同時にマルチタスク学習を行う。化合物名を含む文の言い換えモデルは,入出力ともに文であり,化合物名を含む文の言い換えモデルの入力文と出力文は,言い換えの対象である化合物名が異なる。マルチタスク学習では, 式 (2) と式 (3) で述べた, 文字 embedding の重み行列と LSTM パラメータ, $L S T M^{(w c)}$ が 2 つのモデルで共有される。 パラメータの共有では, NER モデルの LSTM の部分は異なる表記のある化合物を,類似するべクトル表現へと変換することが期待される.2つのモデルの目的関数は,それぞれ式 (8) と式 (15) である. 今回は, 最適化の方法を決めるために,(A) ミニバッチごとに,式 (8) による NER モデルの最適化と式 (15) による言い換えモデルの最適化を交互に行う方法, (B) NER モデルの学習が終了した後に, 言い換えモデルの最適化を行う方法, (C) 言い換えモデルの学習が終了した後に, NER モデルの最適化を行う方法の 3 パタンを比較し, 開発データ上の精度が高かった $(\mathrm{A})$ を採用した。 ## 3 実験 ## 3.1 実験設定 実験では, テキスト中の化合物名と薬物名を抽出するタスクである BioCreative IV CHEMDNER のデータセットを使用した。本実験では,CHEMDNER に対し, Lin et al. (2018) らが配布しているデータ3を利用して実験を行った,文字レベルの言語モデルは,PubMedのウェブサイト4 の MEDLINE アブストラクト (PubMedAbs)を使用して事前学習を行い, 単語 embedding 層は word2vec (Mikolov et al. 2013)を用いて PubMedAbs から学習したものを使用した. また,PubChem から作成した化合物の言い換えの集合 PubChemDic を作成し,言い換え生成に用いた。言い換えの生成には,PubchemDic 中で最長一致した文字列に対する変換を行った. 最長一致でマッチングする際は大文字と小文字は区別しなかった. 表 1 に実験で使用したモデルのパラメータを示す.単語 embedding 層, 文字 embedding 層の次元数は, Lin et al. (2018) らの手法にならい決定した. 文字言語モデルの LSTM の次元数は, Akbik et al. (2018) らの手法にならい決定した. NER モデルの LSTM は, 開発データを用いて, 100,150,200 次元で精度評価を行い決定した。最適化には SGDを使用し,学習率の初期値は 0.1 とした. 前回のエポックより $\operatorname{loss}$ が 3 回増加した場合, 学習率を半分とし, 学習の終了条件としては, 150 エポックを最大として,学習率が 0.0001 より小さくなる場合学習を終了とする. ^{4}$ https://www.nlm.nih.gov/databases/download/pubmed_medline.html } 表 1 モデルのパラメータ. LSTM 内で扱われる各べクトルの次元数. ミニバッチサイズは 32 とした。プログラムは,Akbik et al. (2018) らの実装を基に言い換え生成の機能を追加実装した。 提案手法の有効性を示すため,下記のモデルと比較した。“+P”は,PubChemDic から取得される言い換えを考慮していることを示し,“-P”は,言い換えを考慮していないことを示す。 ・ ベースラインモデル: 2.1 章で述べた (Akbik et al. 2018) の BILSTM-CRF+CSE を用いる. - VE-P : PubChemDic を用いて, (Yi et al. 2004) と同様に, 学習データ内の化合物をランダムに置き換えた virtual examples (VEs) で学習するモデルである。入力が,... $<$ CHEM $>$ Phenylalanine $</$ CHEM $>$ is ... の場合,たとえば,化合物の個所を他の化合物である ethylene に置き換えた... < CHEM>ethylene</CHEM> is ... が追加の NER 用学習データとして自動作成される。 - $\mathrm{VE}+\mathrm{P}$ : PubChemDic を用いて,学習データ内の化合物を対応する言い換えの化合物に置き換えた VEs で学習するモデルである. Phenylalanine とその言い換えである L- $\beta$ phenylalanine から,入力が,... < CHEM $>$ Phenylalanine</CHEM $>$ is ... の場合, ... $<$ CHEM $>$ L- $\beta$-phenylalanine $</$ CHEM $>$ is ... が追加の NER 用学習データとして自動作成される. - HanPaNE-P : PubChemDic を用いてランダムに生成された文により, NER と文生成をマルチタスク学習するモデルである。 入力が, ... Phenylalanine is ... の場合, Phenylalanine を置き換える化合物を PubChemDic からランダムに選択することで, たとえば, ... ethylene is ...を生成対象として作成する. - HanPaNE +P : PubChemDic を用いて, 文中の化合物を対応する言い換えの化合物に置き換えた文のぺアにより,NERと言い換えをマルチタスク学習を行う提案モデルである。入力が, ... Phenylalanine is ... の場合, Phenylalanine に対する言い換えとして PubChemDic から,L- $\beta$-phenylalanine を選択し, ... L- $\beta$-phenylalanine is .. を生成対象として作成する. ベースラインモデルは, CHEMDNER の学習データ 55,458 文を使用して学習を行う.VE-P と $\mathrm{VE}+\mathrm{P}$ は,言い換えのありなしの比較である。VE-P は, CHEMDNERの学習データから自動的に生成された追加の NER 用学習データ 55,458 文を含む 110,916 文を用いて学習を行う。 VE $+\mathrm{P}$ (Small) は, 化合物の言い換えによって, CHEMDNER の学習データから自動的に生成された 3,575 文と CHEMDNER の学習データから構成される NER 用の 59,033 文を用いて学習する ${ }^{5}$. HanPaNE $-\mathrm{P}$ と HanPaNE $+\mathrm{P}$ は,言い換えのありなしの比較である。また, VE とHanPaNE の違いは,言い換えを考慮する手法の比較である,HanPaNE-P と HanPaNE +P (Large) は,言い換えの学習データとして, PubMedAbs に対して PubChemDic を用いて化合物の変換が行われた文章からランダムに選択した 100,000 文を用いた。また,NER の学習データには CHEMDNER を使用する.本実験では,計算時間の制約上,言い換えの学習データ数は 100,000 文とした.また,一つの事例に対して複数の言い換えを生成することが可能であるが,本実験では,計算時間の制約上,一つの事例に対して一つの言い換えのみ生成した. 例として, +Pでは, “... Phenylalanine is ...” は, “... L- $\beta$-phenylalanine is ...” ゃ “.. (S)-2Benzylglycine is ..."に変換される. ここで,L- $\beta$-phenylalanine や (S)-2-Benzylglycine の Phenylalanineの言い換えである. -Pでは, “... Phenylalanine is ...”は, “... ethylene is ....”のように変換される。ここで, ethyleneは PubChemDic からランダムにサンプリングされたものである.表 2 に各モデルの言い換えの学習について例を示す. また, 二種類の言い換え学習データサイズで評価を行った. VE $+\mathrm{P}$ (Small)と VE $+\mathrm{P}$ (Large), HanPaNE $+\mathrm{P}$ (Small) と HanPaNE +P (Large)の比較は, 学習データのサイズの違いの比較で & \\ 表 2 各モデルの学習データ生成の例. ここでは, Phenylalanineが出現する文に対して, 生成された学習データの例について示している. L- $\beta$-phenylalanineは, PubChemDic から取得された Phenylalanine の言い換えであり, ethyleneは, PubChemDic からランダムにサンプリングされたもので,言い換えではない. $<\mathrm{CHEM}>$ と $</ \mathrm{CHEM}>$ に囲まれた箇所が, NER の学習データ内の化合物名となる. ^{5} \mathrm{VE}+\mathrm{P}$ は,PubChemDic に含まれる NE を言い換えに置き換えたのみのため,VE-P より少量の学習デー夕量となる. } ある。一つ目は, HanPaNE $+\mathrm{P}$ を, CHEMDNER の学習データ内の 3,575 文の化合物に対して, PubChemDic を用いて言い換えをマルチタスク学習する HanPaNE $+\mathrm{P}$ (Small) の実験を行った。二つ目は,言い換えデー夕量を増やすことによる効果を調べるために, , CHEMDNER の学習データと 10 万文の PubMedAbs 内の化合物を抽出対象とした学習データを用いた $\mathrm{VE}+\mathrm{P}$ (Large) の実験を行った. ## 3.2 実験結果 実験結果を表 3 に示す。実験結果より,HanPaNE+P (Large) は最も高い F-score を示しており,また,言い換えを考慮した HanPaNE $+\mathrm{P}$ や $\mathrm{VE}+\mathrm{P}$ はベースラインモデルより高い F-score を示した.実験結果から,言い換えを考慮することで,精度向上に貢献していることがわかる. 二種類の言い換え学習データサイズでの評価について下記に示す。一つ目の, CHEMDNER の学習データに対して拡張を行い, マルチタスク学習を行う HanPaNE +P (Small)の場合, F-score は, 92.49 となり, VE+P (Small)の 92.47 より高い F-score を示した. 二つ目の, CHEMDNER & 55,458 文 & $93.11 \%$ & $91.40 \%$ & $92.25 \%$ \\ 表 3 実験結果. $+\mathrm{P}$ が付いている結果は言い換えを考慮しており, ベースラインおよび-P が付いている結果は言い換えを考慮していない。 + PubMedAbs 内の化合物を抽出対象として 10 万文サンプリングを行い学習した VE $+\mathrm{P}$ (Large) では, F-score が 92.48 となり, HanPaNE +P (Large)が 92.57 であるため, HanPaNE $+\mathrm{P}$ が高い F-score を示した,本実験から,自動生成した化合物の言い換えを含む文ぺアを HanPaNE $+\mathrm{P}$ で学習することで精度改善に貢献する結果が示された. また, 2 種類の検定を行った。検定では,HanPaNE +P (Large) と, ベースラインモデル, VE-P, VE+P (Small), HanPaNE-Pの比較を行った. 一つ目は, HanPaNE +P (Large) とべー スラインモデル, $\mathrm{VE}-\mathrm{P}, \mathrm{VE}+\mathrm{P}$ (Small), HanPaNE-P を比較し, 単語に割り当てられたラべルの一致および不一致に基づくマクネマー検定を行った (Sha and Pereira 2003). HanPaNE +P (Large)は, ベースラインモデルと比較して, $p<0.01$ で有意であった. HanPaNE $+\mathrm{P}$ (Large) と, VE-P, VE+P (Small), HanPaNE-P を比較した結果, 有意差はなかった. 二つ目は, Sasano and Kurohashi (2008)が用いたbi-nominal test を行った. この検定では, HanPaNE +P (Large) によってのみ正しく認識された $\mathrm{NE}$ の数と, その他の手法によって正しく認識された $\mathrm{NE}$ の数を数え上げる。 その後, 出力が二項分布であるという仮定に基づき, bi-nominal test を適用する. 提案手法は, その他の手法と比較して, すべての結果において, 有意であった $(p<0.05)$. これらの結果より, HanPaNE $+\mathrm{P}$ (Large) により,より大規模な言い換え学習用データを用いて,言い換えを考慮することが有効であることがわかる. また,学習データと PubChemDicによって,開発データにおけるカバーされていないNEの正解率も評価を行った. 表 4 より, 提案手法は学習データや PubChemDic でカバーされている $\mathrm{NE}$ とカバーされていない NEの両方で高い正解率を示していることがわかる. ここで, PubChemDic と学習データにおける開発データの化合物名に対するカバー率について, 下記に記す。学習データには, 8,508 個の化合物名が含まれており, 開発デー夕の化合物の $70.94 \%$ が学習データに含まれている. PubChemDic には, $337,289,536$ の化合物名が含まれており,開発データの化合物の $29.11 \%$ PubChemDic に含まれている。二つを含めた場合, 開発データの化合物名をカバーしている割合は, $75.42 \%$ である. HanPaNE $+\mathrm{P}$ は $\mathrm{VE}+\mathrm{P}$ と比較し, カバーされていない化合物の抽出性能も向上している. これは, 化合物を言い換える学習によって,さまざまな化合物が近いべクトルとして表現できたと考えられ,NER 用の教師デー 夕から学習した化合物以外のものも高い性能で抽出できたと考えられる. $\mathrm{VE}+\mathrm{P}$ (Small) と, HanPaNE $+\mathrm{P}$ (Large)の抽出結果の具体例を比較する. 表 5 に, 抽出結果について示す. 入力「TFF2 N - glycopeptide」から「N」のみを抽出する例では, HanPaNE $+\mathrm{P}$ では「 $\mathrm{N}\rfloor$ のみを正しく抽出できたが, $\mathrm{VE}+\mathrm{P}$ は,「 $\mathrm{N}\rfloor$ を抽出できなかった.また「pluronic ( $\mathrm{Plu})\rfloor$ から「pluronic」と「Plu」のみ抽出する例では, VE $+\mathrm{P}$ の出力は, 「pluronic」と「Plu」 に加えて「(」を抽出した.このことから,言い換えを学習することで,化合物の部分構造を取得でき, 単語列の一部のみが抽出対象である場合も正しく識別ができたと考えられる。一方で,「OVX DMII rats」は,「DMII」は抽出対象ではないが, HanPaNE $+\mathrm{P}$ は誤って抽出してしまっ 表 4 学習データと PubChemDic によってカバーされている NE (Acc.C) とカバーされていない NE (Acc.NC) の開発データ上での正解率 & & & \\ 表 $5 \mathrm{VE}+\mathrm{P}$ と HanPaNE $+\mathrm{P}$ の出力結果の例.この例では, TFF2 N-glycopeptide, pluronic ( Plu ), OVX DMII rats の抽出結果を示している. た. このように, $H a n P a N E+P$ (Large) では, 化合物でない単語に対しても化合物として多く抽出する傾向にあった. また, 表 3 の実験結果においても, HanPaNE $+\mathrm{P}$ (Large) は, Recall の改善が F-score の改善に貢献していることは, この傾向と一致する. この問題を改善することは今後の課題としたい. ## 4 先行研究 ## 4.1 化学分野における固有表現抽出 表 6 に, 先行研究との比較を示す. Leaman et al. (2015) は, 化学の NER の精度を向上するために, 品詞や単語が大文字であるかといった素性を利用し, その素性に基づく分類からなる手法である.Lu et al. (2015)は, skip-gram と k-means を用いて分類を行う手法である.Lin et al. (2018)は,文間での夕グ付けの一貫性を保持するために,ドキュメントレベルの情報を扱うニューラルネットワークベースの手法である. Lee et al. (2020)は, BERT を用いた手法であり,生物医学の文章を用いて事前学習を行ったモデルである。言い換えを学習することで,提案手法は, これらの手法より高い精度で抽出できることがわかる. Kocaman and Talby (2020) 表 6 先行研究の BioCreative IV's CHEMDNER タスクとの比較 は,提案手法と同じくLSTM ベースのモデルである。ただし,本研究とは違い PubMed から学習された word embeddings を用いて学習している。また,言い換えモデルは組み达まれていない. 表 6 より, Kocaman and Talby (2020)の手法は提案手法より高い精度を達成していることが分かる. 提案手法の枠組みは Kocaman and Talby (2020)にも適用することが可能であり, Kocaman and Talby (2020) に化合物を含む文の言い換えモデルを組み込んで学習することで, さらなる精度改善が期待できる。 Liu et al. (2021)は, UMLS (Bodenreider 2004) と呼ばれる様々な形式の生物医学の同義語を包括的に収集したデー夕を用いて, Transformer ベースの言語モデルを学習した手法を提案している.この手法では, UMLS から学習ぺアをサンプリングし, 同じ概念の同義語をクラスター 化する自己アライメントにより,学習を行っている,提案手法では, Liu et al. (2021)の手法とは異なり,周辺の文脈を考慮して言い換えを生成することで,周辺の単語列から出現しやすい化合物やその部分的な異表記のベクトルが得られる. ## 4.2 マルチタスク学習 マルチタスク学習は,NERを含む NLP のタスクで精度向上において用いられる枠組みの一つである (Liu et al. 2015; Luong et al. 2016; Dong et al. 2015; Hashimoto et al. 2017). Liu et al. (2018) と Rei (2017) は, 言語モデルを用いた系列ラベリングのマルチタスク学習の研究である. Aguilar et al. (2018) and Cao et al. (2018)は, word segmentation と NER のマルチタスク学習を提案した手法である. Peng and Dredze (2017) らのマルチタスク学習の手法では, ドメイン適用の精度改善を行っている. Clark et al. (2018) らの手法では, POS tagging や parsing などのさまざまな NLPのタスクを用いて, NER とマルチタスク学習を行っている. Crichton et al. (2017) や Wang et al. (2019b) の手法では, 生物医学のさまざまな NLP夕スクを用いて, NER とマルチタスク学習を行い,精度改善を行っている。 Khan et al. (2020)は, BERT を用いたマルチタスク学習の手法であり, 下層ではパラメータの学習を各タスクで共有したものを用いて, 上層は, 各タスクごとでパラメータの学習を行っている. Wang et al. (2019a)は, LSTM を用いてメインタスクと補助タスクのマルチタスク学 習を行った手法であり,双方向 LSTM を各タスクで共有したものと,夕スクごとに学習したものを使用して NER の精度改善を行っている。 先行研究と本研究の大きな違いとして, 言い換えを学習していることがあげられる. 先行研究では, NER の様々なデータセットや, POS tagging や parsing などの NLP タスクを使用してマルチタスク学習を行い精度改善を行っているのに対し, 提案手法では, 既に存在する化合物の言い換え辞書から,自動的に言い換え文のペアを作成することで学習を行う。 ## 5 おわりに 本論文では,言い換えのぺアを効率的に活用する言い換えモデルと NER モデルをマルチ夕スク学習する手法を提案した,BioCreative IV CHEMDNERトラックで評価した結果,提案手法が先行研究の手法より高い精度が得られることが示された。今後の課題として, BioCreative IV CHEMDNER トラック以外の NER タスクの評価および,今回使用した LSTM ベースの言語モデルに加えて,Transformer ベースの言語モデルでの評価が挙げられる。また,言い換えモデルの学習データを増やすことで,精度の改善が得られるか検証する。 ## 謝 辞 本論文は,理研 AIP-富士通連携センターに所属時に国際会議 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing で発表した論文 (Watanabe et al. 2019)の内容に対して, 説明や評価を追加したものである. ## 参考文献 Aguilar, G., Lopez Monroy, A. P., Gonzalez, F., and Solorio, T. (2018). "Modeling Noisiness to Recognize Named Entities using Multitask Neural Networks on Social Media." In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 1401-1412. Akbik, A., Blythe, D., and Vollgraf, R. (2018). "Contextual String Embeddings for Sequence Labeling." In Proceedings of the 27th International Conference on Computational Linguistics, pp. 1638-1649. Bahdanau, D., Cho, K., and Bengio, Y. (2015). "Neural Machine Translation by Jointly Learning to Align and Translate." In Proceedings of the 3rd International Conference on Learning Representations. Beltagy, I., Lo, K., and Cohan, A. (2019). "SciBERT: A Pretrained Language Model for Scientific Text." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 3615-3620. Bodenreider, O. (2004). "The Unified Medical Language System (UMLS): Integrating Biomedical Terminology." Nucleic Acids Research, 32 (Database issue), pp. D267-D270. Cao, P., Chen, Y., Liu, K., Zhao, J., and Liu, S. (2018). "Adversarial Transfer Learning for Chinese Named Entity Recognition with Self-Attention Mechanism." In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 182-192. Clark, K., Luong, M.-T., Manning, C. D., and Le, Q. (2018). "Semi-Supervised Sequence Modeling with Cross-View Training." In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 1914-1925. Crichton, G., Pyysalo, S., Chiu, B., and Korhonen, A. (2017). "A Neural Network Multi-task Learning Approach to Biomedical Named Entity Recognition." BMC Bioinformatics, 18 (1), pp. 368:1-368:14. Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186. Dong, D., Wu, H., He, W., Yu, D., and Wang, H. (2015). "Multi-Task Learning for Multiple Language Translation." In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 1723-1732. Ganea, O.-E. and Hofmann, T. (2017). "Deep Joint Entity Disambiguation with Local Neural Attention." In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 2619-2629. Hashimoto, K., Xiong, C., Tsuruoka, Y., and Socher, R. (2017). "A Joint Many-Task Model: Growing a Neural Network for Multiple NLP Tasks." In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 1923-1933. Khan, M. R., Ziyadi, M., and Abdelhady, M. (2020). "MT-BioNER: Multi-task Learning for Biomedical Named Entity Recognition using Deep Bidirectional Transformers." CoRR, abs/2001.08904. Kim, S., Chen, J., Cheng, T., Gindulyte, A., He, J., He, S., Li, Q., Shoemaker, B. A., Thiessen, P. A., Yu, B., Zaslavsky, L., Zhang, J., and Bolton, E. E. (2020). "PubChem in 2021: New Data Content and Improved Web Interfaces." Nucleic Acids Research, 49 (D1), pp. D1388-D1395. Kocaman, V. and Talby, D. (2020). "Biomedical Named Entity Recognition at Scale." In Proceedings of the Pattern Recognition. ICPR International Workshops and Challenges-Virtual Event, pp. 635-646. Kolitsas, N., Ganea, O.-E., and Hofmann, T. (2018). "End-to-End Neural Entity Linking." In Proceedings of the 22nd Conference on Computational Natural Language Learning, pp. 519-529. Krallinger, M., Leitner, F., Rabal, O., Vazquez, M., Oyarzabal, J., and Valencia, A. (2015). "CHEMDNER: The Drugs and Chemical Names Extraction Challenge." Journal of Cheminformatics, 7 (1). S1. Lample, G., Ballesteros, M., Subramanian, S., Kawakami, K., and Dyer, C. (2016). "Neural Architectures for Named Entity Recognition." In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 260-270. Le, P. and Titov, I. (2018). "Improving Entity Linking by Modeling Latent Relations between Mentions." In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1595-1604. Leaman, R., Wei, C.-H., and Lu, Z. (2015). "tmChem: A High Performance Approach for Chemical Named Entity Recognition and Normalization." Journal of Cheminformatics, $\mathbf{7}$ (1). S3. Lee, J., Yoon, W., Kim, S., Kim, D., Kim, S., So, C. H., and Kang, J. (2020). "BioBERT: A Pre-trained Biomedical Language Representation Model for Biomedical Text Mining." Bioinformatics, 36, pp. 1234-1240. Lin, H., Wang, J., Luo, L., Yang, P., Yang, Z., Zhang, Y., and Wang, L. (2018). "An Attentionbased BiLSTM-CRF Approach to Document-level Chemical Named Entity Recognition." Bioinformatics, pp. 1381-1388. Liu, F., Shareghi, E., Meng, Z., Basaldella, M., and Collier, N. (2021). "Self-alignment Pretraining for Biomedical Entity Representations." In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4228-4238. Liu, L., Shang, J., Ren, X., Xu, F., Gui, H., Peng, J., and Han, J. (2018). "Empower Sequence Labeling with Task-Aware Neural Language Model." In Proceedings of the 32nd AAAI Conference on Artificial Intelligence, the 30th innovative Applications of Artificial Intelligence, and the 8th AAAI Symposium on Educational Advances in Artificial Intelligence, pp. 5253-5260. Liu, X., Gao, J., He, X., Deng, L., Duh, K., and Wang, Y.-Y. (2015). "Representation Learning Using Multi-Task Deep Neural Networks for Semantic Classification and Information Retrieval." In Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 912-921. Lu, Y., Ji, D., Yao, X., Wei, X., and Liang, X. (2015). "CHEMDNER System with Mixed Conditional Random Fields and Multi-scale Word Clustering." Journal of Cheminformatics, 7 (1). S4. Luong, M.-T., Le, Q. V., Sutskever, I., Vinyals, O., and Kaiser, L. (2016). "Multi-task Sequence to Sequence Learning." In Proceedings of the 4th International Conference on Learning Representations. Luong, T., Pham, H., and Manning, C. D. (2015). "Effective Approaches to Attention-based Neural Machine Translation." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 1412-1421. Ma, X. and Hovy, E. (2016). "End-to-end Sequence Labeling via Bi-directional LSTM-CNNsCRF." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1064-1074. Mikolov, T., Chen, K., Corrado, G., and Dean, J. (2013). "Efficient Estimation of Word Representations in Vector Space." In Proceedings of the 1st International Conference on Learning Representations. Peng, N. and Dredze, M. (2017). "Multi-task Domain Adaptation for Sequence Tagging." In Proceedings of the 2nd Workshop on Representation Learning for NLP, pp. 91-100. Peters, M., Neumann, M., Iyyer, M., Gardner, M., Clark, C., Lee, K., and Zettlemoyer, L. (2018). "Deep Contextualized Word Representations." In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 2227-2237. Radhakrishnan, P., Talukdar, P., and Varma, V. (2018). "ELDEN: Improved Entity Linking Using Densified Knowledge Graphs." In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 1844-1853. Raiman, J. and Raiman, O. (2018). "DeepType: Multilingual Entity Linking by Neural Type System Evolution." In Proceedings of the 32nd AAAI Conference on Artificial Intelligence, the 30th innovative Applications of Artificial Intelligence, and the 8th AAAI Symposium on Educational Advances in Artificial Intelligence, pp. 5406-5413. Rei, M. (2017). "Semi-supervised Multitask Learning for Sequence Labeling." In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2121-2130. Sang, T. K., F., E., and De Meulder, F. (2003). "Introduction to the CoNLL-2003 Shared Task: Language-Independent Named Entity Recognition." In Proceedings of the 7th Conference on Natural Language Learning at HLT-NAACL 2003, pp. 142-147. Sasano, R. and Kurohashi, S. (2008). "Japanese Named Entity Recognition Using Structural Natural Language Processing." In Proceedings of the 3rd International Joint Conference on Natural Language Processing: Volume-II, pp. 607-612. Sha, F. and Pereira, F. (2003). "Shallow Parsing with Conditional Random Fields." In Proceedings of the North American Chapter of the Association for Computational Linguistics, pp. 134-141. Shen, Y. and Huang, X. (2016). "Attention-Based Convolutional Neural Network for Semantic Relation Extraction." In Proceedings of the 26th International Conference on Computational Linguistics: Technical Papers, pp. 2526-2536. van Hulst, J. M., Hasibi, F., Dercksen, K., Balog, K., and de Vries, A. P. (2020). "REL: An Entity Linker Standing on the Shoulders of Giants." In Proceedings of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval, pp. 2197-2200. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., and Polosukhin, I. (2017). "Attention Is All You Need." In Proceedings of the Advances in Neural Information Processing Systems 30: Annual Conference on Neural Information Processing Systems 2017, pp. 5998-6008. Wang, L., Cao, Z., de Melo, G., and Liu, Z. (2016). "Relation Classification via Multi-Level Attention CNNs." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1298-1307. Wang, X., Lyu, J., Dong, L., and Xu, K. (2019a). "Multitask Learning for Biomedical Named Entity Recognition with Cross-sharing Structure." BMC Bioinformatics, 20 (1), pp. 427:1-427:13. Wang, X., Zhang, Y., Ren, X., Zhang, Y., Zitnik, M., Shang, J., Langlotz, C., and Han, J. (2019b). "Cross-type Biomedical Named Entity Recognition with Deep Multi-task Learning." Bioinformatics, 35 (10), pp. 1745-1752. Watanabe, T., Tamura, A., Ninomiya, T., Makino, T., and Iwakura, T. (2019). "Multi-Task Learning for Chemical Named Entity Recognition with Chemical Compound Paraphrasing." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 6244-6249. Wu, S. and He, Y. (2019). "Enriching Pre-trained Language Model with Entity Information for Relation Classification." In Proceedings of the 28th ACM International Conference on Information and Knowledge Management, pp. 2361-2364. Yamada, I., Asai, A., Shindo, H., Takeda, H., and Matsumoto, Y. (2020). "LUKE: Deep Contextualized Entity Representations with Entity-aware Self-attention." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, pp. 6442-6454. Yi, E., Lee, G. G., Song, Y., and Park, S.-J. (2004). "SVM-Based Biological Named Entity Recognition Using Minimum Edit-Distance Feature Boosted by Virtual Examples." In Proceedings of the 1st International Joint Conference on Natural Language Processing, pp. 807-814. Zhou, P., Shi, W., Tian, J., Qi, Z., Li, B., Hao, H., and Xu, B. (2016). "Attention-Based Bidirectional Long Short-Term Memory Networks for Relation Classification." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 207-212. ## 略厤 渡邊大貴:2017 年愛媛大学工学部情報工学科卒業. 2019 年同大学院理工学研究科修士課程修了. 2022 年より同志社大学大学院理工学研究科博士課程に在学. 2019 年 (株) 富士通研究所入社. 現在, 富士通株式会社に在籍. 田村晃裕:2005 年東京工業大学工学部情報工学科卒業. 2007 年同大学院総合理工学研究科修士課程修了. 2013 年同大学院総合理工学研究科博士課程修了. 日本電気株式会社, 国立研究開発法人情報通信研究機構にて研究員として務めた後, 2017 年より愛媛大学大学院理工学研究科助教, 2020 年より同志社大学理工学部准教授となり, 現在に至る. 博士 (工学). 言語処理学会, 情報処理学会, 人工知能学会, ACL 各会員. 二宮崇: 2001 年東京大学大学院理学系研究科情報科学専攻博士課程修了. 同年より科学技術振興事業団研究員. 2006 年より東京大学情報基盤センター講師. 2010 年より愛媛大学大学院理工学研究科准教授, 2017 年同教授. 東京大学博士 (理学). 言語処理学会, アジア太平洋機械翻訳協会, 情報処理学会,人工知能学会, 電子情報通信学会, 日本データベース学会, ACL 各会員. 牧野拓哉:2012 年東京工業大学大学院総合理工学研究科物理情報システム専攻修士課程修了. 同年, (株) 富士通研究所入社. 2020 年同大学院工学院情報 通信系情報通信コース博士課程修了。博士(工学)。現在, 株式会社リクルー 卜 Megagon Labsにて自然言語処理の研究開発に従事. 言語処理学会会員. 岩倉友哉:2003 年 (株) 富士通研究所入社. 2011 年東京工業大学大学院総合理工学研究科物理情報システム専攻博士課程修了. 博士 (工学). 現在, 富士通株式会社主任研究員. 自然言語処理の研究開発に従事. 情報処理学会, 言語処理学会各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 言語間での転移学習のための事前学習モデルと多言語の学習者 データを用いた文法誤り訂正 山下 郁海 $^{\dagger} \cdot$ 金子 $\quad$ 正弘 ${ }^{\dagger \dagger}$. 三田 雅人 ${ }^{+\dagger, \dagger}$ ・勝又 智 $\dagger \cdot$ Aizhan Imankulova ${ }^{\dagger}$ ・小町守 $\dagger$ 本稿では,文法誤り訂正における言語間での転移学習について研究を行う。近年,機械翻訳などのタスクで多言語の訓練データを用いた研究がなされ,言語を越えた知識の活用が行われている一方で, 文法誤り訂正では多言語の知識を用いる研究はほ とんど行われておらず,文法知識が言語を越えて転移可能であるかは未知の問題で ある。一方で, 類似した言語間には共通の文法項目が存在していることが広く知ら れており,そのような言語間で共通した文法項目については言語間で転移が可能な のではないかと考えられる。そこで我々は事前学習モデルと多言語の学習者デー夕 を用いて文法誤り訂正の学習を行い,言語間での転移学習が文法誤り訂正において 可能であるかを調査する。実験の結果,文法誤り訂正において言語間で文法知識の 転移が可能であることを示した。 また, 分析の結果, 事前学習モデルの構造が文法知識の転移に対して大きな影響を与えていること,より類似した言語間で共通の文法項目の転移が行われていること, 転移元の言語と転移先の言語のデータのサイズ に関わらず文法知識の転移が起きていることを確認した。 キーワード:文法誤り訂正, 転移学習, 多言語, 事前学習モデル ## Grammatical Error Correction with Pre-trained Model and Multilingual Learner Corpus for Cross-lingual Transfer Learning Ikumi Yamashita ${ }^{\dagger}$, Masahiro Kaneko $^{\dagger \dagger}$, Masato Mita $^{\dagger \dagger \dagger, \dagger}$, Satoru Katsumata ${ }^{\dagger}$, ## Aizhan Imankulova ${ ^{\dagger}$ and Mamoru Komachi $^{\dagger}$} In this study, we explore cross-lingual transfer learning in grammatical error correction (GEC) tasks. Few studies have investigated the use of knowledge from other languages for GEC; therefore, it is unclear if useful grammatical knowledge can be transferred. There are often common grammatical items between similar languages, and it may be possible to perform cross-lingual transfer learning by exploiting their grammatical similarities. In this study, we use pre-trained model and multilingual learner corpus for  cross-lingual transfer learning for GEC. Our results demonstrate that transfer learning from other languages can improve the accuracy of GEC. We also demonstrate that proximity to source languages has a significant impact on the accuracy of correcting certain types of errors. Key Words: Grammatical Error Correction, Transfer Learning, Multilingual, Pre-trained Model ## 1 はじめに 文法誤り訂正は言語学習者の書いた文法誤りを含む文を文法的に正しい文に訂正するタスクである。これまで文法誤り訂正では主に大規模なデータが存在する英語に焦点を当てて研究が行われており,数多くの有効な手法が提案されている (Zhao et al. 2019; Grundkiewicz et al. 2019; Kiyono et al. 2019; Kaneko et al. 2020; Omelianchuk et al. 2020; Stahlberg and Kumar 2021).近年,英語以外のロシア語やチェコ語などの言語においても文法誤り訂正の研究が行われ始めている (Rozovskaya and Roth 2019; Náplava and Straka 2019; Katsumata and Komachi 2020; Rothe et al. 2021). しかし, これらの言語の文法誤り訂正モデルを訓練するための人手で訂正を施した学習者データは小規模でしか存在しないという問題がある. 小規模なデータしか存在しない問題に対処するために,様々なタスクで多言語のデータを活用する研究が進められている (Johnson et al. 2017; Ruder et al. 2019; Dabre et al. 2020). そのような研究の一つに,対象とする言語のモデルの性能向上のために他言語のデータで学習したモデルの知識を用いる転移学習が存在する (Zoph et al. 2016). 先行研究においては, このような言語間での転移学習の性能について,言語間での類似度が大きく影響していることが示されている (Cotterell and Heigold 2017; Johnson et al. 2017; Martínez-García et al. 2021). 例えば,同じ語族に属する言語は類似した文法規則や語彙を共有していることが多く, これらの言語間での類似性が対象となる言語のモデルを学習する際に有効だと考えられている。 一方で,これまで文法誤り訂正において多言語の学習者データを用いて言語間での転移学習を試みた研究は少なく, 格変化や単語の活用などのような文法誤りに関する知識が言語間で転移可能であるかは明らかになっていない,しかし,ある程度類似した言語,例えば同じ語族に属する言語であるロシア語やチェコ語のような言語間では文法的な正誤が転移可能なのではないかと考えられる,表 1 に示すのは「妹」を示す単語の日本語, ロシア語, チェコ語での格変化の一部である。日本語では主格と属格の変化を単語の変化ではなく, 別に助詞を用いることで行っているのに対し,ロシア語とチェコ語は単語の活用で行っていることがわかる。この例はロシア語とチェコ語の格変化の類似性を示しており,このような言語間の類似した文法規則については言語間で転移させることが可能なのではないかと考えられる。そこで我々は,文法誤り訂正において事前学習モデルと多言語の学習者データを用いて,言語間での転移学習を行 表 1 チェコ語とロシア語で類似した格変化. い,言語間での文法知識の転移が可能であるかを調査する. 本研究の主な貢献は以下の 4 つである. ・ 文法誤り訂正において事前学習モデルと多言語の学習者デー夕を用い, 言語間での転移学習が可能であることを示した. - 転移学習に用いる事前学習モデルの構造が, 多言語の学習者デー夕を用いた文法誤り訂正の学習に大きく影響していることを示した. - 文法知識の転移には対象とする言語に近い言語の方が有効であり, 言語間で類似した文法項目に関する知識の転移が行われていることを示した. - 言語間で類似した文法項目に関する知識の転移は転移元・転移先の言語のデータのサイズに関わらず起こることを示した. 本稿の構成を示す. 2 章では, 既存の文法誤り訂正の研究や多言語の言語知識を考慮した先行研究について紹介する. 3 章では, 本研究で行う言語間での転移学習を用いた文法誤り訂正の手法についての詳細を述べる. 4 章では, 3 章で述べた手法に対して複数の言語間で実験を行い評価する。 5 章では実験結果について事前学習モデルの構造や誤りタイプごとの訂正性能についての分析, 疑似誤りデータによるデータ拡張との比較を行う. 最後に 6 章で, 本研究のまとめを述べる. ## 2 先行研究 ## 2.1 文法誤り訂正に関する関連研究 ## 2.1.1 大規模データを用いた文法誤り訂正 文法誤り訂正は文法的に誤った文から正しい文への機械翻訳タスクとして捉えられ,一般にニューラルネットワークを用いた機械翻訳モデルを文法誤り訂正モデルとして扱うことが多く,性能向上のために多くのデータを必要としている (Zhao et al. 2019; Grundkiewicz et al. 2019). そのためにいくつかの研究では疑似データを人工的に作ることでデータを増やし性能向上を図っ ている (Náplava and Straka 2019; Awasthi et al. 2019; Omelianchuk et al. 2020). 文法的に正しい文から文法的に誤った文を生成することは比較的に容易なため, 大規模な単言語コーパスから疑似データを生成する手法についても広範な研究が行われている (Xie et al. 2018; Kiyono et al. 2019; Takahashi et al. 2020; Stahlberg and Kumar 2021).また,文法誤りの訂正情報が付与されていない大規模なテキストデータ(以下,ラベルなしデータと言及する)で学習した事前学習モデルを用いることが文法誤り訂正に対して有効であることも示されている (Kaneko et al. 2020; Katsumata and Komachi 2020). これらの研究は大規模な訓練デー夕を用意して文法誤り訂正の性能向上を図る研究である. ## 2.1.2多言語の学習者データを用いた文法誤り訂正 多言語の学習者データを用いた文法誤り訂正の研究として, Rothe et al. (2021) は multilingual T5 (mT5) (Xue et al. 2021)を用いて初期化した文法誤り訂正モデルを多言語の学習者データで学習することで多言語文法誤り訂正モデルを構築する研究を行っている. この研究は, 本研究で明らかにしている文法誤り訂正における言語間での転移学習について, より大きなモデルとより大量のデータを用いることで性能向上に活かしたものである. 本研究は Rothe et al. (2021) とは異なり, 小さなモデルにおいて複数の設定の比較を行い, Rothe et al. (2021)における性能向上の要因の一つとなっている,文法誤り訂正において言語間で文法知識の転移が可能であることについて明らかにしている。また,多言語の学習者データを有効に用いるための設定がどのようなものになるのか, についての分析に焦点を当てている. ## 2.1.3 学習者の第一言語を考慮した文法誤り訂正 他言語について考慮した文法誤り訂正の研究として,学習者の第一言語に焦点を当てた文法誤り訂正の研究が行われている. Rozovskaya and Roth (2011) は単純べイズ分類器を用いた前置詞誤り訂正に対して異なる5つの第一言語からの情報を適用する手法を提案し, その後 Rozovskaya et al. (2017)は同様の手法を11の第一言語, 3つの誤りタイプに拡張した. Mizumoto et al. (2011) は統計的機械翻訳モデルをベースにした文法誤り訂正モデルにおいて,評価データと訓練デー 夕で同じ第一言語を持つ学習者のデータを用いることで性能が向上することを示した。その後, Chollampatt et al. (2016)はこの手法を拡張し, 統計的機械翻訳モデルをべースにした文法誤り訂正モデルの素性として, 各データの学習者の第一言語に対応したニューラル言語モデルを用いる手法を提案した. これらの研究は学習者の第一言語を考慮した文法誤り訂正の研究ではあるが, 我々の研究とは異なり言語間での文法知識の転移については焦点を当てていない. ## 2.2 多言語の知識を用いた関連研究 多言語の言語知識を用いる研究は文法誤り訂正とは異なる分野で盛んに行われている。機械翻訳では, Zoph et al. (2016) が大規模なデータが存在する言語対で学習したモデルを対象とす る言語対のデータでファインチューニングを行うことで性能向上を図る手法を提案し, Johnson et al. (2017) は複数の言語のデータで一つのモデルを学習することで, 訓練データが存在しない言語についても翻訳が可能であることを示しており, どちらの研究でも本研究と同じく, より類似した言語対を用いることが翻訳性能の向上につながることを明らかにしている.また,Kim et al. (2019) は言語間でモデルのパラメータの転移を行う際に, 転移元の言語と転移先の言語間で言語表現の対応をとることによって翻訳性能の向上につなげており, Lin et al. (2021)は言語固有のサブネットワークを学習することで言語同士の不要な干渉を抑える手法を提案している.より良い多言語翻訳のための言語表現の獲得の研究もなされており, Ji et al. (2020)は言語間をよりうまく関連づけるための事前学習手法を, Pan et al. (2021) は対照学習を用いた学習手法を, Yang et al. (2021) は学習文中の単語を別言語の対応する単語に置き換えるコードスイッチングを用いた手法を,それぞれ提案している。対話生成では, Schuster et al. (2018)が言語間にまたがった表現の獲得のために機械翻訳モデルのエンコーダ部分を用いた研究を行っている。また,質問応答の分野では, Lee and Lee (2019) が敵対的生成ネットワークを用いた言語間での転移学習の手法を, Zhou et al. (2021) が多言語の事前学習モデルと転移元言語の訓練データを用いたデータ拡張の 2 つを組み合わせた手法を提案している。 言語間で構文知識を転移する研究も複数行われている. Kim et al. (2017) は品詞夕グ付けにおいて, 言語に依存しない表現と言語特有の表現を学習する 2 つモデルを組み合わせることによって言語間で構文知識を転移可能にする手法を提案している. Ahmad et al. (2019) は敵対的な学習を利用することで言語間にまたがる表現を生成するエンコーダを学習し,これを用いることで係り受け解析においての言語間での転移を可能にしている。また, Xu and Koehn (2021) は係り受け解析において, 転移元言語の文脈を考慮した言語表現を評価対象の言語の表現空間に適切に対応づけることで性能向上を図っている. Wu and Dredze (2019)は品詞夕グ付けや係り受け解析などの 5 つのタスクで multilingual BERT を用いた多言語知識の活用が有効であることを示している. さらに, Ahmad et al. (2021) は multilingual BERT に対して構文知識を明示的に学習に組み込むことで,構文解析など 4 つのタスクで性能が向上することを示した。これらの研究は我々と同じように異なる言語間での転移学習を行っているが, 我々が文法誤りに関する知識の転移に焦点を当てているのに対し, 構文知識の転移に焦点を当てている点で我々の研究とは異なる。一方で, 品詞夕グ付けに関する Kim et al. (2017)の研究では, 上述の機械翻訳での転移学習の研究や, 本研究で示す文法誤り訂正における言語間での転移学習と同様に, より類似した言語から転移学習を行うことで性能が向上することを報告しており,それぞれの研究において言語間で転移させている知識は異なるものの同様の傾向を示している。また,本研究ではこれらの関連研究では議論されることの少なかった, 転移元言語と転移先言語のそれぞれのデー夕量を変化させた際の結果に関する分析についても議論を行っている. 図 1 言語間での転移学習のための事前学習モデルと多言語学習者データを用いた文法誤り訂正モデルの学習の概要. ## 3 言語間での転移学習を用いた文法誤り訂正 本研究では, 3.1 節で示す事前学習モデルと,3.2 節で示す多言語学習者デー夕を用いた文法誤り訂正の学習手順を用いて文法誤り訂正モデルを学習し, 言語間での転移学習を行う。図 1 に学習全体の概要を示す. 我々は,まず転移元言語と転移先言語のラベルなしデータを用いて事前学習モデルの学習を行う1. 次に,その事前学習モデルによって初期化した文法誤り訂正モデルを, 転移元言語と転移先言語の学習者データを用いて学習を行う (fine-tuning 1). 最後に,転移先の言語の学習者データのみで文法誤り訂正モデルの学習を行う (fine-tuning 2). ## 3.1 多言語事前学習モデル 我々は,言語間での転移学習を行う際に,学習者データからのみでは得られない言語間にまたがった言語表現を獲得するために事前学習モデルを用いる。具体的には, Masked Language Modeling (MLM)/Translation Language Modeling (TLM) (Conneau and Lample 2019), そして, multilingual BART (mBART) (Liu et al. 2020)の 3 種類の事前学習モデルを使用する. 各モデルの事前学習の概要を図 2 に示す. MLM/TLM は Bidirectional Encoder Representations from Transformers (BERT) (Devlin et al. 2019)の構造を元に提案された, Transformer (Vaswani et al. 2017)のエンコーダ部分を用いたモデルである.MLM は転移元言語と転移先言語の単言語デー夕を用いて事前学習を行う.学習の際には幾つかのトークンがマスクされた文が入力され,マスクされたトークンを予測することで言語表現の学習が行われる(図 2 上段左側)TTLM は MLM を対訳データでも学習できるように拡張したモデルである。対訳データが入力として与えられる際に,文のペアを連結す  図 2 MLM, TLM, mBART の事前学習の概要. ることで一つの文とし,幾つかのトークンをマスクする。それ以外の学習や推論は MLM と同様に行われる(図 2 上段右側)。また,TLM はそれ単体で用いることはなくMLM と組み合わせて用いる,すなわち,学習の際には二つの学習を交互に行う。この論文ではこれ以降, MLM とTLM を組み合わせたモデルを簡潔な区別のために TLM と表記する.TLM は対訳データを学習に用いているため MLM と比較して言語間にまたがるより良い言語表現が得られることが期待される. mBART は BART (Lewis et al. 2020) をもと多言語に拡張した Transformer のエンコーダとデコーダを用いるエンコーダ・デコーダの構造の事前学習モデルである。学習方法は BART のものを踏襲しており, 入力としてトークンやスパンのマスク, 単語の順番の変更などの複数のノイズの入った文が与えられ,そこから元の正しい文を復元し出力することで学習が行われる (図 2 下段). mBART と上述の MLM/TLM の大きな違いはデコーダが事前学習時に存在するか否か, という点であり, 本研究ではこの違いが文法誤り訂正における言語間での転移学習に対してどのような影響を与えるのかについて比較・分析を行う. ## 3.2 多言語の学習者データを用いた学習の手順 本研究では, 多言語の学習者デー夕を用いて文法誤り訂正モデルの学習を行う,第 2 章で説明した通り言語間での転移学習には様々な手法が存在しているが, 我々はその中からエンコー ダ・デコーダモデルを学習し転移させる手法を用いる. ニューラル機械翻訳において,対象とする言語とは異なる言語対のデータで学習したモデルを 図 3 実験に用いる言語間の関係の概略図。語族などの情報は ASJP database (Wichmann et al. 2020) を基にしている。 対象とする言語対のデータでファインチューニングすることが有効であることが示されている (Imankulova et al. 2019; Dabre et al. 2019). また, 文法誤り訂正モデルの学習において,2 段階でのファインチューニングを行うことが性能向上に効果的であることが知られており (Lichtarge et al. 2020; Omelianchuk et al. 2020; Stahlberg and Kumar 2021), 特に Omelianchuk et al. (2020) は, 最終的な学習の対象となるデータセットとその他のデータセットが存在する際に, 1 段階目に最終的に対象とするデータとその他の学習者データを組み合わせて学習を行い, その後 2 段階目に対象とするデータのみでもう一度ファインチューニングを行う, という形の二段階でのファインチユーニングを用いて性能向上を達成している。 そこで,我々はこれらの先行研究に従って, 文法誤り訂正モデルを転移元言語と転移先言語の学習者デー夕を結合したデー夕で学習(図 1 中の fine-tuning 1)を行い, その後, 転移先言語の学習者データのみでファインチューニング (図1 中の fine-tuning 2) を行うことで最終的な文法誤り訂正モデルを得る ${ }^{2}$. なお, fine-tuning 1 と fine-tuning 2 で用いる転移先言語の学習者デー夕はどちらも同じものである. ## 4 実験 ## 4.1 実験に用いた言語 本研究では, 転移先の言語 (文法誤り訂正の対象とする言語) としてロシア語, チェコ語, 英語の 3 つの言語について実験を行う。また,各転移先言語に対してそれぞれ,類似度の高い言語, 類似度が中程度の言語, 類似度の低い言語の 3 つの転移元の言語を用意する. 用いる言語間の類似度についてまとめたものを図 3 に示す。 ロシア語の文法誤り訂正に対しては, チェコ語, 英語, 日本語を転移元言語として用いる. ここでロシア語とチェコ語は同じスラヴ語族に属する言語であり, 形容詞や名詞の格変化など数  多くの類似した文法項目が存在する。英語とロシア語については語族や使用している文字は異なるが,主語によって動詞の形が変わるなど幾つかの共通点が存在する. 日本語は本研究で扱う言語の中で最もロシア語から遠い言語であり,語族だけでなく使用する文字や文法構造なども異なる言語である. チェコ語の文法誤り訂正に対しては,ロシア語,英語,日本語を転移元言語として用いる,ロシア語とチェコ語の類似性については既に述べた通りであり,チェコ語と英語・日本語の関係はロシア語と同様である。 英語の文法誤り訂正に対しては,ドイツ語,ロシア語,日本語を転移元言語として用いる,英語とドイツ語は同じゲルマン語族に属しており,非常によく類似した言語である.また,英語とロシア語の関係は上述の通りであり,日本語はこれまでの設定と同様に今回用いる言語の中で最も転移先の言語である英語と類似していない言語である。なお,英語の文法誤り訂正は 5.5 節の転移先言語の学習者データのサイズに関する分析で扱う. ## 4.2 実験設定 我々は文法誤り訂正モデルとして, Conneau and Lample (2019) や Liu et al. (2020)が機械翻訳に用いたものと同様の Transformer モデルを用いる.MLM/TLM を事前学習モデルとして用いる際は,エンコーダとデコーダをどちらも MLM/TLM で初期化する。モデルの構造はエンコーダとデコーダがそれぞれ 6 層, 埋め込み層と隠れ層の次元数は 1024 とし3, バッチサイズは 32 , ドロップアウトは確率 0.1 で学習を行う。最適なモデルの選択は開発データに対するパープレキシテイが最も低いものを選択して行う。また, 学習後に各モデルの出力を 12 -best で行い, Chollampatt and Ng (2018) と同様に 5-gram 言語モデルを用いたリランキングを行って最終的な出力を得る。モデルの評価は文法誤り訂正の評価として広く用いられている MaxMatch $\left(\mathrm{M}^{2}\right)$ score (Dahlmeier and Ng 2012)を用いて, 評価デー夕に対する Precision, Recall, $F_{0.5}$ で行う. ## 4.3 データの詳細 実験に用いたデー夕の概要を表 2 に示す. 本研究では, 事前学習モデルを学習するための単言語データとして, ロシア語, チェコ語, 英語, ドイツ語はWMT-2019 で配布された News Crawl ${ }^{4}$ を,日本語は Wikipedia5データから必要な文数を抽出して用いた,また,TLM の学習に用いる対訳データとして TED talks (Cettolo et al. 2012)6を用いた. TED talksの公開されているデータは英語と各言語間での翻訳の形であり,本研究では各言語について英語側の文が同一の  表 2 実験に用いたデータの概要(単位は文). ものを抽出してぺアにすることで英語以外の各言語間での翻訳デー夕を再構築している。それぞれの開発データは同じコーパスから学習に用いるデータを除いた状態で表に示す文数をランダムに抽出した。 文法誤り訂正モデルの学習に用いる学習者データとして, ロシア語は RULEC-GEC (Rozovskaya and Roth 2019)7 及び Lang-8コーパス8のロシア語デー夕, 英語は NUS Corpus of Learner English (NUCLE) (Dahlmeier et al. 2013) ${ }^{9}$ 及び Lang-8 コーパスの英語デー夕, チェコ語は AKCES-GEC (Náplava and Straka 2019)10, ドイツ語は Falko-MERLIN-GEC (Boyd 2018)11 及び Lang-8コー パスのドイツ語デー夕,をそれぞれ用いた ${ }^{12}$. 開発と評価のデータには, ロシア語, チェコ語, ドイツ語についてはコーパスに付随しているデータをそのまま用いた.英語では開発データとして CoNLL 2013 (Ng et al. 2013)のデータを, 評価データとして CoNLL 2014 のデータを用い,日本語の開発データには NAIST 誤用コーパス (Oyama et al. 2013)を用いた ${ }^{13}$ 。また,実際に実験を行うときは各言語間で実験設定を揃えるために,転移元言語のデータのサイズを転移元  2 \mathrm{scorer}$ を用いた評価の際に 30 分以上かかってしまう文を除いた. } 表 3 ロシア語文法誤り訂正の結果. 事前学習モデルは初期化に用いた事前学習モデルを,学習者デー夕は文法誤り訂正モデル学習の際に用いた学習者データの言語と学習の手順を示す.Uはデー夕の結合を表し,円はファインチューニングを表す(例えば $(\mathrm{Cs} \cup \mathrm{Ru}) \rightarrow \mathrm{Ru}$ は,チェコ語とロシア語の結合データに対して学習を行った後に,ロシア語の学習者データのみで学習を行ったことを表す). 言語の中で最も学習者データの少ない言語に合わせて用いる ${ }^{14}$. 日本語の分かち書きには辞書としてUniDic (v.2.1.1)を用いた MeCab15を使用し, その他の言語のトークナイズには NLTK ${ }^{16}$ 使用した。また, 転移先言語の学習者デー夕には pyspellchecker ${ }^{17}$ によるスペルチェックを前処理として行った. その後, fastBPE ${ }^{18}$ を用いたバイト対符号化 (Sennrich et al. 2016) を語彙数が 20,000 になるように行い最終的なデータを得た. ## 4.4 実験結果 表 3 にロシア語の文法誤り訂正の結果を示す。(6) から (11)の MLM や TLM を用いて転移学習を行ったモデルが, (1) から (4)の事前学習モデルを用いないモデルや, (5)のロシア語のみで事前学習を行った MLM で初期化しロシア語の学習者データのみで文法誤り訂正の学習を  表 4 チェコ語文法誤り訂正の結果. 表 3 と同様に, 事前学習モデルは初期化に用いた事前学習モデルを,学習者データは文法誤り訂正モデル学習の際に用いた学習者データの言語と学習の手順を示す.U はデータの結合を表し, $\rightarrow$ はファインチューニングを表す. 行ったモデルと比較して高い $\mathrm{F}_{0.5}$ スコアを達成しており, 転移学習が効果的に機能していることがわかる。また, 最も $\mathrm{F}_{0.5}$ スコアの高いモデルは (9) の TLM を用いてチェコ語からの転移学習を行ったモデルである。一方で,(13) から (15)の mBART を用いて転移学習を行ったモデルは, (1)から (4) の事前学習モデルを用いないモデルや (12) のロシア語のみで事前学習を行ったBART で初期化しロシア語の学習者データのみで文法誤り訂正の学習を行ったモデルとほとんど変わらない,もしくは低い $\mathrm{F}_{0.5}$ スコアであり,転移学習がうまくいっていないことが読み取れる。 次に,表 4 にチェコ語の文法誤り訂正の結果を示す。チェコ語の文法誤り訂正ではロシア語の文法誤り訂正と似たような傾向が見られる。 すなわち,(6) から (11)の MLM やTLM を用いて転移学習を行ったモデルの $\mathrm{F}_{0.5}$ スコアが, (1) から (4) の事前学習モデルを用いないモデルや(5)のチェコ語のみで事前学習を行った MLM で初期化しチェコ語の学習者データのみで文法誤り訂正の学習を行ったモデルのスコアよりも高く, 転移学習が有効であることが示されており,最も $\mathrm{F}_{0.5}$ スコアが高いのは (9) の TLM を用いてロシア語からの転移学習を行ったモデルである。また, (13)から (15)の mBART を用いたモデルの結果もロシア語の文法誤り訂正と同様の傾向で,(1) から (4) の事前学習モデルを用いないモデルや (12)のチェコ語のみで事前学 習を行った BART で初期化しチェコ語の学習者データのみで文法誤り訂正の学習を行ったモデルとほとんど同程度の $\mathrm{F}_{0.5}$ スコアであり, 転移学習がうまくできていないことがわかる. ## 5 分析 ## 5.1 文法誤り訂正における言語間での転移学習 この節では, 表 3 , 表 4 の 2 つの結果から共通して読み取れる言語間での転移学習を用いた文法誤り訂正における転移の傾向について分析を行う。それぞれの表の結果を見ると,2つの言語の結果で共通して各言語対において MLM や TLM を用いて転移学習を行ったモデル(表 3, 表 4 それぞれの (6)から (11)のモデル)の $\mathrm{F}_{0.5}$ スコアは,MLM や TLM を用いずに転移学習を試みた各言語対のモデル(表 3 , 表 4 それぞれの (2) から (4)のモデル)の $\mathrm{F}_{0.5}$ スコアよりも高いことが示されている。これは,言語対によらずどの言語でも,多言語の学習者デー夕をただ用いるだけではうまく知識を活かすことができず,MLM やTLM を用いることが転移学習に有効であることを示している。また,MLM やTLMを用いて最も類似した転移元言語からの転移学習を行ったモデル(表 3 , 表 4 それぞれの(6)と(9)のモデル)は,転移学習を用いずに MLM を用いて評価対象の言語のデー夕のみで学習したモデル(表 3, 表 4 それぞれの (5)のモデル)よりも $\mathrm{F}_{0.5}$ スコアが高いこともわかる. これは, 誤り訂正の対象とする言語のデータのみで文法誤り訂正を学習するよりも適切な設定で多言語の知識を入れることが有効であるということを示している。加えて,どちらの言語の文法誤り訂正でも,TLM を用いて最も類似した言語から転移を行ったモデル(表 3 ,表 4 それぞれの(9)のモデル)の $\mathrm{F}_{0.5}$ スコアが最も高く,他言語の文法知識を転移させる場合は言語の近さが重要になることを示唆している. 一方で, MLM/TLM を用いたモデル(表 3, 表 4 それぞれの (6)から (11)のモデル)と同様に事前学習モデルを用いているのにも関わらず,mBART を用いて転移学習を行ったモデル(表 3, 表 4 それぞれの (13) から (15)のモデル) は, どの転移元の言語を用いたモデルでも評価対象の言語の単言語データのみで学習したモデル(表 3, 表 4 それぞれの (5)と (12)のモデル)よりも $\mathrm{F}_{0.5}$ スコアが低いもしくは同程度であり,転移がうまくいっていないことがわかる.これは事前学習モデルの構造の違い(エンコーダのみのモデルとエンコーダ・デコーダモデルの違い)によるものではないかと考えられる. ## 5.2 事前学習モデルの構造の影響 この節では前節で示された, 用いる事前学習モデルによる結果の差について, 単言語の文法誤り訂正の学習を行う追加の実験と, 文法誤り訂正の学習前後でのモデルの類似度の観点から分析を行う.また, この節での分析を行う前の予備実験として, mBART のファインチューニングが適切に行えていることを学習時の loss やパープレキシティから検証し, ファインチュー 表 5 ロシア語とチェコ語で事前学習された mBART で初期化した文法誤り訂正モデルに対して, 転移元言語の学習者データを用いる場合と用いない場合の実験結果. ニングが適切に行われている上で結果の差が生まれていることを確認した。予備実験の結果と議論については付録 A に示す. ## 5.2.1 単言語と多言語の学習者データ 4.5 節で述べたように,MLM/TLM を用いて転移学習を行ったモデル(表 3 ,表 4 それぞれの (9)から (11)のモデル)は事前学習モデルを用いずに転移学習を行ったモデル(表 3 , 表 4 それぞれの (2)から (4)のモデル) と比較して $\mathrm{F}_{0.5}$ スコアが高いのに対し, $\mathrm{mBART}$ を用いて転移学習を行ったモデル(表 3 ,表 4 それぞれの (13) から (15)のモデル)は事前学習モデルを用いずに転移学習を行ったモデルとほとんど $\mathrm{F}_{0.5}$ スコアが変わらない結果となっている。一方で,転移学習を用いず対象の言語の学習者データのみで学習を行ったモデルについては, 表 3 , 表 4 それぞれの (5) に示す MLM を用いたモデルと表 3,表 4 それぞれの (12) に示す BART を用いたモデルで大きな変化は見られない. これはエンコーダ・デコーダの構造の事前学習モデルで初期化された文法誤り訂正モデルが文法誤り訂正に有効ではないというわけではなく, “多言語の学習者データを扱う"という設定においてのみうまく学習ができない可能性を示唆している. 我々はこの仮説を確かめるために,ロシア語とチェコ語で事前学習を行った mBART モデルに対して,転移元言語の学習者デー夕を用いる fine-tuning 1 を行わずに転移先言語(評価対象の言語)の学習者データのみを用いる fine-tuning 2 を直接行い,結果を比較した。それぞれの結果を表 5 に示す。転移元ありと書かれたモデルがこれまでの結果で示した, 転移元言語の学習者データと転移先言語の学習者データを用いる fine-tuning 1 と転移先言語の学習者データのみを用いる fine-tuning 2 を通して転移学習を行ったモデルであり,転移元なしと書かれたモデルが fine-tuning 1 を行わず評価対象の言語の学習者データでの fine-tuning 2 のみで文法誤り訂正を学習したモデルである。結果を見ると,転移元言語の学習者データなしで学習したモデルの方が Precision, Recall, $\mathrm{F}_{0.5}$ の全てで高くなっており, mBART を用いたモデルは単言語の学習者データでの学習はうまくいくものの, 多言語の学習者データを使った転移学習がうまくできていないことがわかる。これは mBART を用いて単言語の文法誤り訂正モデルの学習を行い性能向上を確認した Katsumata and Komachi (2020)の結果と矛盾しないものである. 図 4 ロシア語文法誤り訂正モデルとチェコ語文法誤り訂正モデルの文法誤り訂正学習前後での CKA による各層の類似度. 各行はそれぞれ,Embは埋め込み層,E_L0 から E_L1 はエンコーダの各層, D_L0 から D_L5 はデコーダの各層,Avg は全体の平均,E_Avg はエンコーダの平均,D_Avg はデコーダの平均を示している. ## 5.2.2文法誤り訂正の学習前後でのモデルの変化 我々はこれらのエンコーダのみの構造の事前学習モデルとエンコーダ・デコーダの構造の事前学習モデルを用いた場合の多言語学習者データでの文法誤り訂正モデルの学習の差について, モデルのデコーダ部分に原因があるのではないかと考え,より詳しく分析するために,ニューラルネットワークの類似度を測る手法である Centered Kernel Alignment (CKA) (Kornblith et al. 2019)を用いて, 文法誤り訂正学習前の事前学習モデルと文法誤り訂正学習後の最終的なモデルの各層の類似度を計算した. CKA はフロベニウスノルムを用いて以下の式に示すような定義で与えられる。 $ \operatorname{CKA}(X, Y)=\frac{\left.\|Y^{T} X\right.\|_{\mathrm{F}}^{2}}{\left(\left.\|X^{T} X\right.\|_{\mathrm{F}}\left.\|Y^{T} Y\right.\|_{\mathrm{F}}\right)} $ ここで, $X$ と $Y$ はそれぞれ文法誤り訂正の評価データ全文に対する各層の各サブワードトークンの表現の平均をとった隠れ層の次元サイズの行列である。結果を図 4 に示す. 結果を見ると TLM を用いたモデルは文法誤り訂正の学習前後でのデコーダの類似度が低いのに対し, mBART を用いたモデルではエンコーダとデコーダが共に文法誤り訂正の学習前後で類似度が高いことがわかる。 すなわち,エンコーダのみの構造の事前学習モデルで初期化した文法誤り訂正モデルは, 事前学習したエンコーダを保持しながらデコーダをほぼ一から学習している一方で, エンコーダ・デコーダの構造の事前学習モデルで初期化した文法誤り訂正モデルは, 事前学習時のエンコーダとデコーダを双方ともほぼ引き継ぐような形で文法誤り訂正の学習を行っていると考えられる。これらの結果から,エンコーダ・デコーダの構造の事前学習モデルをもとに多言語の学習者データを用いて文法誤り訂正の学習を行う際に, 大きく次の 2 つの可能性が示唆さ れる。一つ目は,デコーダも含めて事前学習することが有効ではない可能性である,実際,機械翻訳分野において Rothe et al. (2020) が, デコーダのみの構造の事前学習モデルで初期化した機械翻訳モデルの性能が,エンコーダのみの構造の事前学習モデルで初期化した機械翻訳モデルの性能よりも低下することを報告している。二つ目は,エンコーダ・デコーダの双方を事前学習した場合にはエンコーダのみの構造の事前学習モデルを用いる場合とは異なる工夫が必要な可能性である。例えば, Rothe et al. (2021) は mT5 で多言語の学習者データを用いて文法誤り訂正の学習を行う際に, 事前学習時のタスクは文法誤り訂正とは異なるため, 文法誤り訂正に近い事前学習を再度行ってから実際の学習データで文法誤り訂正の学習を行うことが必要だと述べている。また Pajak and Pajak (2022)は 25 言語や 50 言語のよりサイズの大きい単言語データで事前学習の行われた mBART を fine-tuning することで多言語文法誤り訂正モデルの構築が可能であることを示している。文法誤り訂正に限らず,このような事前学習モデルと下流夕スクとの関係は未だ明らかになっていないことも多く, 今後より詳しい分析が必要になってくると考えられる. ## 5.3 誤りタイプごとの訂正性能 ここからは転移学習が有効であった MLM/TLM を用いた文法誤り訂正モデルに対して分析・考察を行う。この節では言語間で類似した誤りが転移しているかどうかについての分析を行う 19.表 6 に各ロシア語文法誤り訂正モデルの RULEC-GEC 中の出現頻度が上位 10 件の誤りタイプに対する Recall を示す。結果から,チェコ語を転移元言語としたモデルはほとんどの誤りにおいてベースラインモデルの Recall を上回っていることがわかる,加えて,ロシア語とチェコ語で類似した誤りタイプ (Spelling, Lexical choice(語彙の選択についての誤り), Adj:Case(形容詞の格変化についての誤り), Noun:Case(名詞の格変化についての誤り))について,TLM を用いてチェコ語から転移を行ったモデルが最も高いスコアを得ている。これらの結果は言語間で類似した文法項目の誤りの知識について,言語間での転移学習を用いることで転移が可能であることを示している. 表 7 に各ロシア語文法誤り訂正モデルの Adj:Case,Noun:Caseの誤りを含む文に対する出力例を示す。下線の引かれている単語がそれぞれ Adj:Case と Noun:Case の誤りである. 原文と参照文を比較するとそれぞれの誤った単語について活用が変化し,正しい格への訂正が行われていることがわかる.各モデルの結果を見ると,まず転移学習を行わずロシア語のみで学習を行ったモデルは正しい文への訂正ができていないことがわかる。これは訓練データが少ないことによる影響だと考えられる。日本語を転移元言語としたモデルは, 名詞の誤りに対して正し  表 6 RULEC-GEC 中で頻度上位 10 件の誤りタイプに対する各モデルの Recall. (No-LM のモデルは事前学習モデルを用いていない表 3 の (1) のモデル,MLM のモデルはロシア語のみの MLM で初期化した表 3 の (5)のモデル,TLM のモデルはそれぞれ左から表 3 の (9), (10), (11) のモデルに対応している.) \\ 表 7 Adj:Case と Noun:Case の誤りタイプに対する各モデルの出力例. 赤色の単語は誤りを含む単語であり,青色の単語は正しく訂正された単語である。 中括弧の中に示されているのは詳しい誤りタイプである。前半の文字は品詞を示しており,“A”は形容詞,“N”は名詞を表す。後半はその単語の格を示しており, “Nom”は主格, “Gen”は属格, “Pre”は前置詞格, “Inst”は具格である。 い格への訂正を行うのではなく, 別の単語への編集を行ってしまっている.また,英語は前置詞関係を別の単語を用いて表現する言語であり,前置詞格を持ち単語の活用で表現するロシア語とは異なるため,英語を転移元言語としたモデルでは前置詞格への訂正ができていないこと 表 8 転移元の英語の学習者データのサイズを変えた時の TLM を用いたロシア語・チェコ語文法誤り訂正の結果. small-En は表 3, 表 4 と同様の設定であり, large-En は英語の学習者データに Lang-8 の英語デー夕約 130 万文を追加した設定である. もわかる. チェコ語を転移元としたモデルはこの中で唯一正しい訂正ができている。これは, チェコ語が持つ 7 つの格のうちの 6 つがロシア語と共通しており類似しているため, ロシア語の形容詞と名詞の格変化に関する誤り訂正に必要な文法知識が,チェコ語の学習者データから転移できているためであると考えられる. ## 5.4 転移元言語の学習者データサイズに対する分析 ここまでは文法誤り訂正においてエンコーダモデルの事前学習モデルと多言語の学習者デー 夕を用いることで,言語間で類似した文法知識の転移が可能であり,その際により近い言語を用いることで転移学習が効果的に行われることを示した。この節では転移元言語の学習者デー夕が増加した際にどのような影響が出るかについて分析を行う.転移元言語のデータサイズに関する分析を行うために,ロシア語とチェコ語の文法誤り訂正それぞれで,英語を転移元とする設定において英語の学習者データにLang-8コーパスも含めることでデータサイズを大きくして実験を行った.TLMを用いたモデルの各データサイズに対する結果の比較を表 8 に示す。結果を見ると,ロシア語とチェコ語でともに転移元の学習者データが増えたモデルの方が $\mathrm{F}_{0.5}$ スコアが高いことがわかる.これは転移元の言語の学習者データを増やすことで, 転移元の言語と転移先の言語の学習者データのバランスが変化するにもかかわらず転移学習の効果があり, さらに転移元言語のデータが少ない時に比べてより誤り訂正の性能は向上することを示している. ## 5.5 転移先言語の学習者データサイズに対する分析 この節では 5.4 節とは逆に転移先言語のデータが転移元言語よりも多い場合についての実験を行う,我々は,転移先言語のデータサイズによる転移学習への影響を調査するために,新たに英語の文法誤り訂正について 2 つのデータサイズの設定で実験を行った. 1 つ目の設定では NUCLEのみを訓練データとして用いる,すなわち,英語の訓練データの総文数は約 5 万 7 千文であり,この設定を “NUCLE only” と呼ぶ. 2 つ目の設定では NUCLE と英語の Lang-8 のデー 夕を訓練データとして用いる,すなわち,英語の訓練デー夕の総文数は約 130 万文 + 約 5 万 7 千文であり,この設定を“NUCLE + Lang-8-En”と呼ぶ. 表 9 英語の文法誤り訂正の結果. “NUCLE only” の設定の英語の学習者デー夕の文数は約 5 万 7 千文であり,“NUCLE + Lang-8-En”の設定の英語の学習者データの文数は約 130 万文 +5 万 7 千文で 表 9 に英語の文法誤り訂正の結果を示す. “NUCLE only” の設定では各モデルの結果はロシア語やチェコ語と似たような傾向となっており,(6)から (11)のMLM/TLM を用いて転移学習を行ったモデルの $\mathrm{F}_{0.5}$ スコアが (1) から (4) の MLM/TLM を用いていないモデルのスコアよりも高く, 最も英語に近いドイツ語からの転移を TLM を用いて行った (9) のモデルの $\mathrm{F}_{0.5}$ スコアが最も高いことがわかる。対して,“NUCLE + Lang-8-En”の設定では (6) から (11)の MLM/TLM を用いて転移学習を行ったモデルの $F_{0.5}$ スコアが (1) から (4) の MLM/TLM を用いなかったモデルよりは高いものの, (5) の英語のみで事前学習を行った MLM で初期化し英語の学習者データのみで文法誤り訂正の学習を行ったモデルの $\mathrm{F}_{0.5}$ スコアとはほとんど差がないことがわかる. より詳細な分析を行うために,ロシア語の文法誤り訂正の際と同様に誤りタイプごとの訂正性能について調査した. 具体的には, grammatical ERRor ANnotation Toolkit (ERRANT) (Bryant et al. 2017) ${ }^{20}$ を用いて Lang-8 の英語データに誤りタイプを付与し, 頻度上位 5 件 (determiner, preposition, punctuation, verb, verb tense) と下位 5 件 (spelling, pronoun, verb form, morphology, subject-verb agreement) の誤りタイプについて各モデルの Recall を計算した. それぞれの設定に対する結果を表 10 と表 11 に示す. 表 10 に示す “NUCLE only” の設定に対する結果を見ると,ほとんどの誤りタイプで最も近い言語であるドイツ語から転移を行ったモデルが最も高い Recall を示していることがわかる。こ  & & DeEn & & JaEn \\ 表 10 評価データでの出現回数が 50 件以下である誤りタイプを除いたもののうち,Lang-8 の英語デー タ中の出現回数が上位 5 件と下位 5 件の誤りタイプに対する “NUCLE only” の設定の各文法誤り訂正モデルの Recall.(No-LM のモデルは事前学習モデルを用いていない表 9 の (1) のモデル, MLM のモデルは英語のみの MLM で初期化した表 9 の (5) のモデル,TLM のモデルはそれぞれ左から表 9 の (9), (10), (11)のモデルに対応している.) & & DeEn & & JaEn \\ 表 11 評価データでの出現回数が 50 件以下である誤りタイプを除いたもののうち,Lang-8 の英語デー タ中の出現回数が上位 5 件と下位 5 件の誤りタイプに対する “NUCLE + Lang-8-En”の設定の各文法誤り訂正モデルの Recall.(各モデルと表 9 との対応は表 10 と同様である.) れはロシア語やチェコ語の結果と同様に, 言語によらず転移元の言語と転移先の言語のデー夕サイズに大きな差がない場合は,言語間での転移学習により文法知識の転移が可能であり,特により近い言語の学習者データを用いることが有効であることを示している。 対して, 表 11 に示す “NUCLE + Lang-8-En”の設定の結果を見ると, 頻度上位 5 件の誤りタイプについてはどの言語から転移したモデルでも性能の向上は見られないことがわかる一方で,下位 5 件の誤りタイプについては少し異なる傾向が見られる。日本語から転移したモデルは pronoun, verb form, subject-verb agreement の誤りタイプについて単言語のデータを用いたモデルよりも性能が下がっており,これは日本語と英語の間でこれらの誤りに関しての類似点が存在しないためだと考えられる。対して, ドイツ語から転移したモデルは pronoun, morphology, subject-verb agreement という英語とドイツ語間で類似した誤りについてべースラインモデルよりも高い Recall を達成していることがわかる. このことから, 転移先の言語のデータサイズが転移元言語のデータサイズに比べて非常に大きい場合において,転移学習を用いることによる全体の訂正性能の改善は見られないが, 頻度が少なくかつ言語間で類似した誤りの知識については転移がなされていると考えられる。 ## 5.6 疑似誤りデータによるデータ拡張との比較 この節では, 近年文法誤り訂正の学習において一般的なデータ拡張である疑似誤り生成と,本研究で扱っている他言語のデータを用いた言語間での転移学習について比較を行い, 文法知識が転移可能であることが既存手法と比較してどのような新しい効果をもたらすかについて, ロシア語とチェコ語の誤り訂正を例に議論を行う,現在疑似誤り生成の手法には Kiyono et al. (2019) で紹介されているように, 文法誤り訂正と同様に人手で訂正を施されたデータを用いて,通常の文法誤り訂正とは逆に誤りを生成するような学習を行う逆翻訳モデルを用いる手法 (BACKTRANS) と, 確率的に単語の順序の入れ替えなどの操作を行い文法的に正しい文に対して直接誤りを生成する手法 (DIRECTNOISE) の大きく 2 つが存在する。我々は今回比較する疑似誤り生成手法として, BACKTRANS の手法ではなく, DIRECTNOISEの手法の1つである, Zhao et al. (2019)の手法を用いた.これは, 今回比較の対象としているロシア語とチェコ語は英語とは異なり人手で訂正を施された学習者データが少なく, 実用上逆翻訳モデルの学習が難しいと考えられ, 加えて, ロシア語とチェコ語に対してDIRECTNOISEの手法を用いて性能向上を報告した先行研究 (Náplava and Straka 2019) が存在しているためである. 疑似誤りを生成するためのデータには,MLM/TLM と mBART を事前学習する際に用いた文を除いた News Crawl のデー 夕を用い, 最終的に生成された文数は, ロシア語が約 750 万文, チェコ語が約 550 万文となった.疑似誤りを用いた学習の際には,まず対象とする言語のラベルなしデータで事前学習を行った MLM で文法誤り訂正モデル初期化し, その後既存研究 (Kiyono et al. 2019; Grundkiewicz and Junczys-Dowmunt 2019; Grundkiewicz et al. 2019) に従い, 生成した疑似誤りデータで文法誤り 表 12 ロシア語文法誤り訂正における疑似誤り生成を用いたモデルと言語間転移学習を用いたモデルの比較。学習者データの列中の pseudo_Ruはロシア語の擬似誤りを示す. 表 13 チェコ語文法誤り訂正における疑似誤り生成を用いたモデルと言語間転移学習を用いたモデルの比較. 学習者データの列中の pseudo_Cs はチェコ語の擬似誤りを示す. 訂正の学習を行い,最後に人手で訂正を施された学習者データでファインチューニングを行うという手順で行った。 表 12 , 表 13 にロシア語とチェコ語の文法誤り訂正における,言語間での転移学習を用いたモデルと疑似誤りを用いたモデルとの比較結果を示す。結果を見ると,ロシア語・チェコ語ともに数百万文の疑似誤りデータを用いているにもかかわらず,データ量の少ない転移学習を用いたモデルのスコアの方が高いことがわかる。一方で Náplava and Straka (2019)は, Zhao et al. (2019) の疑似誤り生成手法を改善した Grundkiewicz et al. (2019)の手法を用いて,ロシア語とチェコ語の文法誤り訂正を行っており,疑似誤り生成に際して各言語に合わせたパラメータのチューニングや, ルールの追加による手法の改善, また, 疑似誤りデータでの事前学習後のファインチューニングの際に疑似誤りデータと学習者データを言語ごとに一定の比で組み合わせて学習する, などの誤り訂正の対象となる言語のデータに特化した調整を数多く行うことで,本研究の結果よりも大幅な性能の向上を報告している。これらの結果から, DIRECTNOISEによって生成された疑似誤りデータによる性能改善のためには,単にデー夕を増やすだけでなく,対象とする言語に合わせた調整が重要であると考えられる。このような言語固有の調整は, 文法 誤り訂正に関して詳しいだけでなく,対象とする言語に対しての知識も重要であり,顕著に性能を改善させるためには多くの労力が必要となる. また, BACKTRANSの手法については上述の通り,人手での訂正が施されたデータの少ない言語では用いることが難しい。対して, 本研究で示す他言語の学習者データを用いて転移学習を行うことで性能向上を図る手法は, 言語固有の調整は必要なく,より少ないデータで容易に性能向上が可能である. 加えて, ここまでは単純なデー夕拡張の手法の一つとしての本研究の意義について議論を行つてきたが,言語間での転移学習は疑似誤りによるデー夕拡張と対立する手法ではなく,例えば, Rothe et al. (2021)のようにより大きな疑似誤りデー夕による学習と組み合わせることも可能であり,その他のデータ拡張とともに用いることでの性能向上も考えられる.また,本研究で明らかにしている言語間での文法知識の転移は,言語間での類似度などを考慮したより性能の高い多言語文法誤り訂正モデルの学習や,データの全く存在しない言語や少ない言語に対しての類似した言語のデータを用いる zero-shot や few-shot での文法誤り訂正の研究など,今後の様々な研究の余地が残されており, デー夕拡張の手法以外の観点での発展も期待される. ## 6 おわりに 本研究では, 文法誤り訂正において言語間での転移学習により文法知識の転移が可能であるかを調査した,我々は文法誤り訂正モデルの学習に際し,まず事前学習モデルの学習を行い,その後事前学習モデルで初期化した文法誤り訂正モデルを転移元の言語の学習者データと転移先言語の学習者データを用いて学習し, 最後に転移先の言語の学習者データのみで fine-tuning を行うことで言語間での転移学習を行った。実験の結果, エンコーダのみの構造を用いた事前学習モデルと多言語の学習者デー夕を用いて言語間での転移学習が可能である,すなわち言語間で文法知識の転移が可能であることを明らかにし,より近い言語間を用いることで類似した文法項目の転移が行われることも示した。また,転移元の言語と転移先の言語の学習者データのサイズに関わらず,類似した言語間での共通した文法項目の転移は行われていることも併せて示した。一方で, エンコーダ・デコーダの構造の事前学習モデルを用いた実験では, 事前学習されたデコーダが多言語の学習者データを扱う際に悪影響を及ぼしている可能性を示した。この結果については様々な先行研究との関連が考えれるため今後の研究の余地があり, 事前学習されたデコーダの挙動についてはさらに詳細な分析を行っていきたい. ## 謝 辞 Lang-8 のデー夕使用にあたり,データを共有して頂きました株式会社 Lang-8 の喜洋洋様に感謝申し上げます。 本研究の一部は JSPS 科研費 19KK0286 の助成を受けたものです. 本論文の一部の内容は, The 28th International Conference on Computational Linguistics にて発表したものである (Yamashita et al. 2020). ## 参考文献 Ahmad, W., Li, H., Chang, K.-W., and Mehdad, Y. (2021). "Syntax-augmented Multilingual BERT for Cross-lingual Transfer." In Proceedings of ACL-IJCNLP, pp. 4538-4554. Ahmad, W. U., Zhang, Z., Ma, X., Chang, K.-W., and Peng, N. (2019). "Cross-lingual Dependency Parsing with Unlabeled Auxiliary Languages." In Proceedings of CoNLL, pp. 372-382. Awasthi, A., Sarawagi, S., Goyal, R., Ghosh, S., and Piratla, V. (2019). "Parallel Iterative Edit Models for Local Sequence Transduction." In Proceedings of EMNLP-IJCNLP, pp. $4260-4270$. Boyd, A. (2018). "Using Wikipedia Edits in Low Resource Grammatical Error Correction." In Proceedings of $W$-NUT, pp. 79-84. Bryant, C., Felice, M., and Briscoe, T. (2017). "Automatic Annotation and Evaluation of Error Types for Grammatical Error Correction." In Proceedings of ACL, pp. 793-805. Cettolo, M., Girardi, C., and Federico, M. (2012). "WIT": Web Inventory of Transcribed and Translated Talks." In Proceedings of EAMT, pp. 261-268. Chollampatt, S., Hoang, D. T., and Ng, H. T. (2016). "Adapting Grammatical Error Correction Based on the Native Language of Writers with Neural Network Joint Models." In Proceedings of EMNLP, pp. 1901-1911. Chollampatt, S. and Ng, H. T. (2018). "A Multilayer Convolutional Encoder-Decoder Neural Network for Grammatical Error Correction." In Proceedings of AAAI, pp. 5755-5762. Conneau, A. and Lample, G. (2019). "Cross-lingual Language Model Pretraining." In Proceedings of NeurIPS, pp. 7059-7069. Cotterell, R. and Heigold, G. (2017). "Cross-lingual Character-Level Neural Morphological Tagging." In Proceedings of EMNLP, pp. 748-759. Dabre, R., Chu, C., and Kunchukuttan, A. (2020). "A Comprehensive Survey of Multilingual Neural Machine Translation." ArXiv, abs/2001.01115. Dabre, R., Fujita, A., and Chu, C. (2019). "Exploiting Multilingualism through Multistage FineTuning for Low-Resource Neural Machine Translation." In Proceedings of EMNLP-IJCNLP, pp. 1410-1416. Dahlmeier, D. and Ng, H. T. (2012). "Better Evaluation for Grammatical Error Correction." In Proceedings of NAACL-HLT, pp. 568-572. Dahlmeier, D., Ng, H. T., and Wu, S. M. (2013). "Building a Large Annotated Corpus of Learner English: The NUS Corpus of Learner English." In Proceedings of BEA, pp. 22-31. Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of NAACL, pp. 4171-4186. Grundkiewicz, R. and Junczys-Dowmunt, M. (2019). "Minimally-Augmented Grammatical Error Correction." In Proceedings of $W$-NUT, pp. 357-363. Grundkiewicz, R., Junczys-Dowmunt, M., and Heafield, K. (2019). "Neural Grammatical Error Correction Systems with Unsupervised Pre-training on Synthetic Data." In Proceedings of $B E A$, pp. 252-263. Imankulova, A., Dabre, R., Fujita, A., and Imamura, K. (2019). "Exploiting Out-of-Domain Parallel Data through Multilingual Transfer Learning for Low-Resource Neural Machine Translation." In Proceedings of MT Summit, pp. 128-139. Ji, B., Zhang, Z., Duan, X., Zhang, M., Chen, B., and Luo, W. (2020). "Cross-Lingual PreTraining Based Transfer for Zero-Shot Neural Machine Translation." In Proceedings of the AAAI, pp. 115-122. Johnson, M., Schuster, M., Le, Q. V., Krikun, M., Wu, Y., Chen, Z., Thorat, N., Viégas, F., Wattenberg, M., Corrado, G., Hughes, M., and Dean, J. (2017). "Google's Multilingual Neural Machine Translation System: Enabling Zero-Shot Translation." TACL, 5, pp. 339-351. Junczys-Dowmunt, M., Grundkiewicz, R., Guha, S., and Heafield, K. (2018). "Approaching Neural Grammatical Error Correction as a Low-Resource Machine Translation Task." In Proceedings of the NAACL, pp. 595-606. Kaneko, M., Mita, M., Kiyono, S., Suzuki, J., and Inui, K. (2020). "Encoder-decoder Models Can Benefit from Pre-trained Masked Language Models in Grammatical Error Correction." In Proceedings of $A C L$, pp. 4248-4254. Katsumata, S. and Komachi, M. (2020). "Stronger Baselines for Grammatical Error Correction Using a Pretrained Encoder-Decoder Model." In Proceedings of AACL, pp. 827-832. Kim, J.-K., Kim, Y.-B., Sarikaya, R., and Fosler-Lussier, E. (2017). "Cross-Lingual Transfer Learning for POS Tagging without Cross-Lingual Resources." In Proceedings of EMNLP, pp. 2832-2838. Kim, Y., Gao, Y., and Ney, H. (2019). "Effective Cross-lingual Transfer of Neural Machine Translation Models without Shared Vocabularies." In Proceedings of ACL, pp. 1246-1257. Kiyono, S., Suzuki, J., Mita, M., Mizumoto, T., and Inui, K. (2019). "An Empirical Study of Incorporating Pseudo Data into Grammatical Error Correction." In Proceedings of EMNLPIJCNLP, pp. 1236-1242. Kornblith, S., Norouzi, M., Lee, H., and Hinton, G. (2019). "Similarity of Neural Network Representations Revisited." In Proceedings of ICML, Vol. 97, pp. 3519-3529. Lee, C.-H. and Lee, H.-y. (2019). "Cross-Lingual Transfer Learning for Question Answering." ArXiv, abs/1907.06042. Lewis, M., Liu, Y., Goyal, N., Ghazvininejad, M., Mohamed, A., Levy, O., Stoyanov, V., and Zettlemoyer, L. (2020). "BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension." In Proceedings of $A C L$, pp. $7871-7880$. Lichtarge, J., Alberti, C., and Kumar, S. (2020). "Data Weighted Training Strategies for Grammatical Error Correction." TACL, 8, pp. 634-646. Lin, Z., Wu, L., Wang, M., and Li, L. (2021). "Learning Language Specific Sub-network for Multilingual Machine Translation." In Proceedings of ACL-IJCNLP, pp. 293-305. Liu, Y., Gu, J., Goyal, N., Li, X., Edunov, S., Ghazvininejad, M., Lewis, M., and Zettlemoyer, L. (2020). "Multilingual Denoising Pre-training for Neural Machine Translation." TACL, 8, pp. 726-742. Martínez-García, A., Badia, T., and Barnes, J. (2021). "Evaluating Morphological Typology in Zero-shot Cross-lingual Transfer." In Proceedings of ACL-IJCNLP, pp. 3136-3153. Mizumoto, T., Komachi, M., Nagata, M., and Matsumoto, Y. (2011). "Mining Revision Log of Language Learning SNS for Automated Japanese Error Correction of Second Language Learners." In Proceedings of IJCNLP, pp. 147-155. Náplava, J. and Straka, M. (2019). "Grammatical Error Correction in Low-Resource Scenarios." In Proceedings of $W$-NUT, pp. 346-356. Ng, H. T., Wu, S. M., Wu, Y., Hadiwinoto, C., and Tetreault, J. (2013). "The CoNLL-2013 Shared Task on Grammatical Error Correction." In Proceedings of CoNLL, pp. 1-12. Omelianchuk, K., Atrasevych, V., Chernodub, A., and Skurzhanskyi, O. (2020). "GECToR Grammatical Error Correction: Tag, Not Rewrite." In Proceedings of BEA, pp. 163-170. Oyama, H., Komachi, M., and Matsumoto, Y. (2013). "Towards Automatic Error Type Classification of Japanese Language Learners' Writings." In Proceedings of PACLIC, pp. 163-172. Pajak, K. and Pajak, D. (2022). "Multilingual Fine-tuning for Grammatical Error Correction." Expert Systems with Applications, 200. 116948. Pan, X., Wang, M., Wu, L., and Li, L. (2021). "Contrastive Learning for Many-to-many Multilingual Neural Machine Translation." In Proceedings of ACL-IJCNLP, pp. 244-258. Rothe, S., Mallinson, J., Malmi, E., Krause, S., and Severyn, A. (2021). "A Simple Recipe for Multilingual Grammatical Error Correction." In Proceedings of ACL, pp. 702-707. Rothe, S., Narayan, S., and Severyn, A. (2020). "Leveraging Pre-trained Checkpoints for Sequence Generation Tasks." TACL, pp. 264-280. Rozovskaya, A. and Roth, D. (2011). "Algorithm Selection and Model Adaptation for ESL Correction Tasks." In Proceedings of ACL, pp. 924-933. Rozovskaya, A. and Roth, D. (2019). "Grammar Error Correction in Morphologically Rich Languages: The Case of Russian." TACL, 7, pp. 1-17. Rozovskaya, A., Roth, D., and Sammons, M. (2017). "Adapting to Learner Errors with Minimal Supervision." $C L, 43$, pp. 723-760. Ruder, S., Vulic, I., and Søgaard, A. (2019). "A Survey of Cross-lingual Word Embedding Models." JAIR, 65, pp. 569-630. Schuster, S., Gupta, S., Shah, R., and Lewis, M. (2018). "Cross-lingual Transfer Learning for Multilingual Task Oriented Dialog." In Proceedings of NAACL-HLT, pp. 3795-3805. Sennrich, R., Haddow, B., and Birch, A. (2016). "Neural Machine Translation of Rare Words with Subword Units." In Proceedings of ACL, pp. 1715-1725. Stahlberg, F. and Kumar, S. (2021). "Synthetic Data Generation for Grammatical Error Correction with Tagged Corruption Models." In Proceedings of BEA, pp. 37-47. Takahashi, Y., Katsumata, S., and Komachi, M. (2020). "Grammatical Error Correction Using Pseudo Learner Corpus Considering Learner's Error Tendency." In Proceedings of ACL$S R W$, pp. 27-32. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., and Polosukhin, I. (2017). "Attention is All you Need." In Proceedings of NIPS, pp. 5998-6008. Wichmann, S., Holman, E. W., and Brown, C. H. (2020). "The ASJP Database (version 19)." Max Planck Institute for the Science of Human History. Wu, S. and Dredze, M. (2019). "Beto, Bentz, Becas: The Surprising Cross-Lingual Effectiveness of BERT." In Proceedings of EMNLP-IJCNLP, pp. 833-844. Xie, Z., Genthial, G., Xie, S., Ng, A., and Jurafsky, D. (2018). "Noising and Denoising Natural Language: Diverse Backtranslation for Grammar Correction." In Proceedings of NAACLHLT, pp. 619-628. Xu, H. and Koehn, P. (2021). "Zero-Shot Cross-Lingual Dependency Parsing through Contextual Embedding Transformation." In Proceedings of AdaptNLP, pp. 204-213. Xue, L., Constant, N., Roberts, A., Kale, M., Al-Rfou, R., Siddhant, A., Barua, A., and Raffel, C. (2021). "mT5: A Massively Multilingual Pre-trained Text-to-Text Transformer." In Proceedings of NAACL, pp. 483-498. Yamashita, I., Katsumata, S., Kaneko, M., Imankulova, A., and Komachi, M. (2020). "Crosslingual Transfer Learning for Grammatical Error Correction." In Proceedings of COLING, pp. 4704-4715. Yang, J., Yin, Y., Ma, S., Huang, H., Zhang, D., Li, Z., and Wei, F. (2021). "Multilingual Agreement for Multilingual Neural Machine Translation." In Proceedings of ACL-IJCNLP, pp. 233-239. Zhao, W., Wang, L., Shen, K., Jia, R., and Liu, J. (2019). "Improving Grammatical Error Correction via Pre-Training a Copy-Augmented Architecture with Unlabeled Data." In Proceedings of NAACL, pp. 156-165. Zhou, Y., Geng, X., Shen, T., Zhang, W., and Jiang, D. (2021). "Improving Zero-Shot Crosslingual Transfer for Multilingual Question Answering over Knowledge Graph." In Proceedings of NAACL-HLT, pp. 5822-5834. Zoph, B., Yuret, D., May, J., and Knight, K. (2016). "Transfer Learning for Low-Resource Neural Machine Translation." In Proceedings of EMNLP, pp. 1568-1575. ## 付録 ## A mBART で初期化したモデルの学習の推移 図 5 にチェコ語とロシア語で事前学習を行った mBART をロシア語文法誤り訂正のために fine-tuning 1 と fine-tuning 2 でそれぞれ 50 エポック続けて学習した際の訓練データと開発デー 夕に対する loss とパープレキシティを示す.まず, fine-tuning 1 の際の loss とパープレキシティの動きを見ると,最初の 10 エポック程度までにどちらも順調に下がり,その後は収束していることがわかる.これは学習しているモデルが事前学習されたモデルで初期化されていることと, 訓練デー夕の規模が小さいことが理由であり, 問題なく学習が行われていると思われる.次に, fine-tuning 2 の際の loss とパープレキシティの動きを見ると, 先ほどの fine-tuning 1 の際よりもさらに収束が早くなっていることがわかる。これは事前学習に加えて文法誤り訂正による学習がすでに一度行われていること, 加えて, fine-tuning 1 と比較して言語が一つに絞られたことでデータが少なくなり,夕スクの難易度も低下したことが原因だと考えられる。また, fine-tuning 2 の際の学習の収束の早さは MLM/TLM を用いたモデルでも同様の傾向が確認されており, これらの理由から fine-tuning 2 に関しても fine-tuning 1 と同様に問題なく学習が行われていると思われる。 図 $5 \mathrm{mBART} \mathrm{Cs \rightarrow Ru}$ の fine-tuning 1, fine-tuning 2 それぞれの学習時の loss とパープレキシティ (ppl はパープレキシティを示す). ## 略歴 山下郁海:2020 年首都大学東京 (現東京都立大学) システムデザイン学部システムデザイン学科情報通信システムコース卒業. 2022 年東京都立大学システムデザイン研究科情報科学域博士前期課程修了. 同年よりヤフー株式会社入社. 現在に至る. 金子正弘:2016 年北見工業大学工学部情報システム工学科卒業. 同年, 首都大学東京 (現東京都立大学) システムデザイン研究科博士前期課程に進学. 2018 年博士前期課程修了. 同年, 東京都立大学システムデザイン研究科博士後期課程に進学. 2019 年より日本学術振興会特別研究員 (DC2) を経て, 2021 年博士後期課程修了. 博士 (情報科学)。同年より東京工業大学情報理工学院研究員. 三田雅人:理化学研究所革新知能統合研究センター 自然言語理解チームテクニカルスタッフ。2016 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了。日本マイクロソフト株式会社のエンジニアを経て。2 2018 年より現職. 2021 年に東北大学大学院情報科学研究科博士後期課程を修了. 同年より, 東京都立大学特任助教を兼任.文法誤り訂正を中心とした自然言語処理による言語学習/教育支援に関心がある。言語処理学会, ACL 各会員. 勝又智:2018 年首都大学東京システムデザイン学部情報通信システムコー ス卒業. 2020 年同大学大学院システムデザイン研究科情報科学域博士前期課程修了. 同年株式会社レトリバ入社. 現在に至る.自然言語処理分野の研究に従事. Imankulova Aizhan:2011 年サトバイエフカザフ国立工科大学オートメーションおよび制御学部卒業. 2014 年国際情報技術大学情報システム研究課博士前期課程卒業. 2017 年首都大学東京システムデザイン研究科研究生卒業. 同年,首都大学東京システムデザイン研究科博士後期課程に進学. 2021 年博士後期課程修了. 博士 (工学). 同年より株式会社 CogSmart 入社. 小町守:2005 年東京大学教養学部基礎科学科科学史・科学哲学分科卒業. 2008 年より日本学術振興会特別研究員 (DC2) を経て, 2010 年奈良先端科学技術大学院大学情報科学研究科修了. 博士 (工学). 同年より奈良先端科学技術大学院大学情報科学研究科助教を経て, 2013 年より首都大学東京 (現東京都立大学)システムデザイン学部准教授. 2022 年より同教授. 大規模なコー パスを用いた意味解析及び統計的自然言語処理に関心がある。言語処理学会 20 周年記念論文賞, 言語処理学会第 14 回年次大会最優秀発表賞, 情報処理学会平成 22 年度山下記念研究賞, 2010 年度本学会論文賞等を受賞. 情報処理学会, 言語処理学会, ACL 各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# RNN とロジスティック回帰を用いた 平仮名文の逐次的な形態素解析 森山 柊平 $\dagger \cdot$ 大野 誠寛 $\dagger \dagger$ } 本論文では,平仮名のみで書かれた日本語文 (以下,平仮名文)に対する形態素解析 について述べる。平仮名文は, 漢字仮名まじり文と比べて, 考えられる単語候補が増大するなど,はるかに曖昧性が多いことが知られている。これまでに,平仮名文を主 な対象とした形態素解析手法がいくつか開発されているが, その多くが十分な解析精度を得られていない. 一部, 著名な日本語形態素解析器の漢字仮名まじり文に対 する解析精度に匹敵する高い精度を平仮名文に対して達成している従来手法が存在 するが,その手法には膨大な解析時間を要するという問題がある。そこで本論文で は, 平仮名文に対する高精度かつ実用的な速度での解析を目指し, RNN (Recurrent Neural Network) とロジスティック回帰を用いた平仮名文の逐次的な形態素解析手法を提案する,提案手法では,解析の高速化を図るため, 単語境界の推定は文字境界ごとに, 形態素情報の推定は単語ごとに, 文頭から逐次的に実行する。また, 解析の高精度化を図るため, 各時点において, ロジスティック回帰により局所的な情報に基づいて推定した結果と,RNNにより大域的な情報を考慮して推定した結果と を統合し, 単語境界や形態素情報を推定する。評価実験の結果, 提案手法は, 単語分割と形態素情報のすべての一致を正解とする最も厳しい基準において,前述の従来手法を上回る解析精度を達成しつつ, 従来手法と比べて 100 倍以上の高速化を実現していることを確認した。 キーワード : 形態素解析, 単語分割, 品詞夕グ付け, リカレントニューラルネットワーク, ひ らがな ## Sequential Morphological Analysis of Hiragana Strings using Recurrent Neural Network and Logistic Regression \author{ Shuhei Moriyama ${ }^{\dagger}$ and Tomohiro Ohno ${ }^{\dagger \dagger}$ } This paper describes the morphological analysis of unsegmented Hiragana strings. It is known that Hiragana strings have more ambiguities than Kanji-Kana mixed strings. Certain morphological analysis methods have been developed mainly for Hiragana strings, but most have not obtained sufficient analysis accuracy. The accuracy of a prior method is higher than that of the famous conventional morphological analysis tool for Kanji-Kana mixed strings, but the prior method has the problem in  that it requires considerable amount of analysis time. Aiming for high-accuracy and practical-speed analysis of unsegmented Hiragana strings, we propose a sequential morphological analysis method using RNN (Recurrent Neural Network) and logistic regression. To speed up the analysis, the proposed method sequentially estimates word boundaries for each character boundary and estimates morpheme information for each word. To improve the accuracy of the analysis, the proposed method estimates word boundaries and morpheme information by integrating the estimation based on local information by logistic regression and the estimation based on global information by RNN. The experimental results confirmed that the proposed method achieved a speed-up of more than 100 times and a higher analysis accuracy than that of the prior method. Key Words: Morphological Analysis, Word Segmentation, POS Tagging, Recurrent Neural Network, Hiragana ## 1 はじめに 日本語文は, 通常, 漢字や平仮名, 片仮名, 算用数字などの文字種により構成されるが, 幼児向け書籍や外国人日本語初学者による作文などにおいて, 平仮名のみで書かれる文も多々存在する,本論文では,平仮名のみで書かれた日本語文(以下,平仮名文)に対する形態素解析について述べる。 これまでに, 日本語形態素解析器として, JUMAN (黒橋・河原研究室 2012), ChaSen (松本他 2008), $\mathrm{MeCab}^{1}$ (Kudo et al. 2004), $\mathrm{KyTea}^{2}$ (Neubig et al. 2011)などが開発されており, 新聞記事文など,様々な文字種で書かれた漢字仮名まじり文に対して高い解析精度が達成されている.しかし, 平仮名文は, 漢字仮名まじり文と比べて, 考えられる単語候補が増大するなど,はるかに曖昧性が多いため (長尾 1996), 例え, これら従来の解析器を平仮名文だけからなるコー パスで学習し直したとしても,これらによる平仮名文の解析精度は大きく低下することが報告されている (森山他 2018). 一方,平仮名を主な対象とした形態素解析に関する研究もいくつか存在する (工藤他 2012;藤田他 2014; 森山他 2018; 井筒, 古宮 2021). その一つとして, 我々の先行研究 (森山他 2018) では, Kudo らの日本語形態素解析 (Kudo et al. 2004)を拡張し, RNNLM (Reccurent Neural Network Language Model) との統合を行うことにより,平仮名文に対して高い解析精度を実現しており,その精度は従来の形態素解析器が漢字仮名まじり文に対して達成している精度に匹敵している. しかし, この手法の解析時間は一般的な計算機において平均 7 秒/文を超えており, 前述した従来の著名な形態素解析器と比べて桁違いに遅い。応用システムに依存して必要  な解析速度は決まるため一概には言えないが,外国人日本語初学者の独習支援システムなどにおいて, 1 文ごとに処理結果を出力することが想定される場合, 我々の先行研究の手法には解析速度に関して実用上の問題が存在しているといえる。この手法では, Kudo らの手法 (Kudo et al. 2004)の枠組みを採用しており,ラティス上の最適経路を推定する必要があるが,各ノー ドに対して RNNLM が与えるスコアは,どの経路を通ったかによって異なるため,ビタビアルゴリズムを単純に適用することはできない。すなわち, 経路ごとにRNNLM によるスコアを繰り返し計算する必要があり,漢字仮名まじり文よりも一般に長くなる平仮名文では特に,多くの解析時間がかかると考えられる。 また, その多くが平仮名で構成されている絵本のテキストを対象とした研究 (藤田他 2014) では,対象ドメインのデータで Neubig らの点予測による形態素解析手法 (KyTea) (Neubig et al. 2011)を学習し直すことの有効性が報告されている. Neubig らの手法 (Neubig et al. 2011) は,形態素解析を単語分割と品詞推定に分けて段階的に処理し,各処理において,文字境界あるいは単語ごとに点予測を文頭から順に繰り返すため,1文の文字数や単語数に対する線形時間で処理できると考えられる。実際,我々の先行研究 (森山他 2018) において, Neubig らの手法の平仮名文に対する解析時間は一般的な計算機上で平均 4.30 ミリ秒/文であることを確認しており,従来の形態素解析器の漢字仮名まじり文に対する解析時間と同程度である。また,我々の先行研究において, Neubig らの手法の平仮名文に対する解析精度は, 我々の先行研究における提案手法に次いで高いことを確認しており (森山他 2018), 平仮名文に対する形態素解析手法として Neubigらの手法は有力視できる. しかし, Neubig らの手法による平仮名文の形態素解析精度は, 単語境界のみの判定基準で $95.62 \%$, すべての形態素情報が一致するという判定基準で $93.28 \%$ あったのに対して,我々の先行研究の手法はそれぞれ順に $98.68 \%, 95.52 \%$ であり,大きな差がある (森山他 2018). Neubig らの手法 (KyTea) は,推定箇所の前後の情報を用いて線形SVM あるいはロジスティック回帰により推定するが,ある一定の窓幅内に存在する局所的な情報しか利用できていない. Neubig らの手法は,漢字仮名まじり文に対しては高精度で解析できるのに対して,平仮名文に対してはその解析精度が大きく減少していた (森山他 2018). それに対し, 我々の先行研究の手法 (森山他 2018) では, RNNLM から得られるスコアを取り入れることにより,大域的な情報を活用することができており,平仮名文に対する解析精度の向上に寄与したものと考えられる。このことは,平仮名文の曖昧性解消には大域的な情報が効果的であることを示唆している. そこで本論文では, 平仮名文に対する高精度かつ実用的な速度での解析を目指し, RNN (Reccurent Neural Network) とロジスティック回帰を用いた平仮名文の逐次的な形態素解析手法を提案する,提案手法では,平仮名文に対する形態素解析の高速化を図るため, Neubig らの手法 (Neubig et al. 2011)の枠組みを採用し,単語境界の推定は文字境界ごとに,形態素情報の推定は単語ごとに, 文頭から逐次的に実行する。 また, 平仮名文に対する逐次的な形態素解析の高 精度化を図るため, Neubig らの手法 (Neubig et al. 2011)の枠組みにおいて, 局所的な情報だけでなく,大域的な情報を加味し,平仮名文独特の高い曖昧性の解消を試みる。具体例には,各時点において,Neubig らの手法においてロジスティック回帰が局所的な情報のみを用いて推定した結果と,RNNが大域的な情報を考慮して推定した結果とを組み合わせることが,平仮名文の逐次的な形態素解析の高精度化において有効であることを示す。さらに,漢字仮名まじり文の形態素解析と比べて,平仮名文の形態素解析では特に,大域的な情報を考慮することが効果的であることを示す. RNN を日本語形態素解析に用いた関連研究として, Kitagawa と Komachi の日本語単語分割 (Kitagawa and Komachi 2018) がある. Kitagawa と Komachi の手法は,RNNを用いて逐次的に単語境界か否かを判定するものであり,Neubig らの手法に比肩する解析精度を達成している。しかし, 解析対象は漢字仮名まじり文であり,平仮名文ではない。また,単語分割のみを行っており,品詞などの形態素情報の推定には取り組んでいない。それに対し, Tolmachev らは,単語分割と形態素情報推定を RNNを用いて逐次的に行う手法を提案している (Tolmachev et al. 2019). しかし, この手法の解析対象も漢字仮名まじり文であり, 平仮名文ではない. その他,Morita らは,RNNLM を用いたラティスに基づく日本語形態素解析手法を提案している (Morita et al. 2015). この手法 (JUMAN++ ver. 1) は, 我々の先行研究の手法と同様に, 多くの解析時間がかかるという問題があったが,Tolmachev らによって新たなビームサーチ法が施され,JUMAN++ ver. 2 では解析時間の短縮化が図られている (Tolmachev et al. 2018). しかしながら, この研究の解析対象も漢字仮名まじり文であり平仮名文ではない. また, 公開中の JUMAN++では,ユーザが形態素定義を変更し平仮名文で学習し直すことは容易ではないと考えられる。一方, 平仮名文の形態素解析に RNNを用いた研究として, 井筒らは Bi-LSTM CRF に基づく手法を提案しているが,その解析精度は,MeCab と比べて低く, 改善の余地が残されている (井筒, 古宮 2021)。なお, 日本語以外の言語として中国語に対しても, RNN な゙の深層学習を用いた形態素解析手法が様々提案されており,その有効性が報告されているが (Chen et al. 2015; Ma and Hovy 2016; Ma et al. 2018), 日本語に対する有効性は明らかではない. 以下, 2 章では提案手法の詳細を紹介する, 3 章では,平仮名文を対象とした形態素解析実験を実施し, 提案手法の有効性を示す. 4 章では, 3 章の実験結果の分析や, 漢字仮名まじり文に対する形態素解析実験に基づいて,提案手法の特徴を考察する. ## $2 \mathrm{RNN$ とロジスティック回帰を用いた平仮名文の逐次的な形態素解析} 本研究では, 平仮名文に対する高精度かつ実用的な速度での解析を実現するために, RNN とロジスティック回帰を用いた平仮名文の逐次的な形態素解析手法を提案する。具体的には, Neubig 図 1 提案手法の処理手順 らの点予測による手法 (Neubig et al. 2011)においてロジスティック回帰3が与える確率と, 新たに構築した RNNが与える確率とを線形結合したスコアを用いて,文頭から逐次的に解析する. また,提案手法は,Neubig らの手法 (Neubig et al. 2011) と同様に,形態素解析を単語境界の推定と形態素情報の推定とに分けて段階的に処理する(図 1 参照)。なお,形態素情報の推定では, 品詞 (大分類), 品詞 (細分類), 活用型, 活用形, 見出し語の漢字仮名表記, 読み, の 6 種類の情報を独立に推定する ${ }^{4}$. ここで,本研究では,平仮名文を対象とするため,見出し語の漢字仮名表記を原形の代わりに推定している。これは, 我々の先行研究 (森山他 2018) と同様に,平仮名文の同音異義語の識別を考慮するためである. 以下では,提案手法における単語境界の推定と形態素情報の推定をそれぞれ順に説明する。 ## 2.1 単語境界の推定 単語境界の推定では, Neubig らの手法 (Neubig et al. 2011) と同様に,1 文を構成する文字列 $\boldsymbol{x}=c_{1} c_{2} \cdots c_{n}$ を入力とし,各文字間に単語境界の有無を示す単語境界タグ $\boldsymbol{t}=t_{1} t_{2} \cdots t_{n-1}$ を出力する.ここで,単語境界タグ $t_{i}$ は, 文字 $c_{i}$ と $c_{i+1}$ の間に単語境界が存在するとき 1 , 存在しないとき 0 をとる。また,提案手法では,各文字間に単語境界が存在するか否かを文頭から順に判定し,その判定をすべての文字境界について繰り返す. 提案手法ではまず,ロジスティック回帰と RNN とをそれぞれ用いて,各文字間に単語境界 ^{3}$ Neubig らの点予測による手法 (Neubig et al. 2011) を実装した KyTea では,分類器として線形SVM とロジスティック回帰を選択可能だが,ロジスティック回帰が与える確率を提案手法では用いる. 4 本研究の実装では, これら 6 種類の形態素情報の推定を逐次的に行っているが,並列処理することも考えられる. } が存在する確率と存在しない確率を推定する。その後, 両者が推定した 2 つの確率を線形結合し, その値に基づいて, 単語境界の有無を判定する。 すなわち, 文字 $c_{i}$ と $c_{i+1}$ の単語境界の有無 $t_{i}$ を式 (1)により推定する. $ t_{i}=\underset{v \in\{0,1\}}{\arg \max }\left((1-\alpha) P_{l r}\left(t_{i}=v\right)+\alpha P_{r n n}\left(t_{i}=v\right)\right) $ ここで, $P_{l r}\left(t_{i}=v\right)$ は夕グ $t_{i}$ が $v$ である確率をロジスティック回帰により推定した値, 同様に, $P_{r n n}\left(t_{i}=v\right)$ は RNNにより推定した值を表す.また, $\alpha(0 \leq \alpha \leq 1)$ は補完係数であり,パラメータ調整用の開発データを用いて実験的に決定する. 以下では,ロジスティック回帰と RNNの各々による単語境界の推定について述べる。 ## 2.1.1 ロジスティック回帰による単語境界の推定 確率 $P_{l r}\left(t_{i}\right)$ を算出する際にロジスティック回帰で用いる素性は, 夕グ位置 $i$ の前後 $m$ 文字からなる長さ $2 m$ の文字列中から得られる, 文字 n-gram と文字種 n-gram である. これらの素性は Neubig らの手法 (Neubig et al. 2011)の単語分割にて用いられている素性と同様であるが,本研究では平仮名文を扱っているため, 文字種は, 平仮名 $(\mathrm{H})$, 数字 $(\mathrm{N})$, その他 $(\mathrm{O})$ の 3 種とする.例えば,図1の入力文「しかし、はってんとじょうこくからのひはんがつよい。」において, $i=3, m=3$ とし, 1-gram から 3-gram まで使用するとすると, $P_{l r}\left(t_{3}\right)$ を算出する際の素性は以下となる. - 文字 1-gram:し|か|し|、|は|っ - 文字 2-gram:しか|かし|し、|、は|はっ - 文字 3-gram:しかし|かし、|し、は|、はっ - 文字種 1-gram : $\mathrm{H}|\mathrm{H}| \mathrm{H}|\mathrm{O}| \mathrm{H} \mid \mathrm{H}$ - 文字種 2-gram : $\mathrm{HH}|\mathrm{HH}| \mathrm{HO}|\mathrm{OH}| \mathrm{HH}$ - 文字種 3-gram : $\mathrm{HHH}|\mathrm{HHO}| \mathrm{HOH} \mid \mathrm{OHH}$ なお, Neubig らの手法では辞書素性を用いることも可能であり, 提案手法においても原理的には使用可能であるが, 簡単化のため本研究では使用していない. ## 2.1.2RNNによる単語境界の推定 確率 $P_{r n n}\left(t_{i}\right)$ を算出する際に用いる RNN の概要を図 2 に示す. まず,2.1.1 節で述べた文字 n-gram や文字種 n-gramのすべての素性の各々を Embedding を通し分散表現とする。次に,各素性の Embedding を連結したべクトルを RNNの入力とし, 順方向の LSTM (Long Short-Term Memory) (Hochreiter and Schmidhuber 1997)により変換する. 最後に,線形変換とSoftmax 関数を適用し,2 次元の出力を得る。この出力は単語境界の有無の確率分布を表す. なお, Embeddingの事前学習は実施しておらず, 学習開始時点では Embedding は乱数により 図 2 単語境界推定のための RNN の概要 無作為に初期化し, Embedding を含むモデル全体を end-to-end で学習させている. 提案手法と同様に, RNNを用いた日本語分割手法として Kitagawa と Komachi の手法 (Kitagawa and Komachi 2018) があるが, 提案手法とは, タグを付与する対象とタグの種類数(出力層の次元数)に違いがある. Kitagawa と Komachi の研究では,各文字に対して, 'B', 'I', 'E', 'S' (順に,「単語の先頭」,「単語の内部」,「単語の末尾」,「一文字からなる単語」) の 4 種類の夕グを付与すべく, RNNが設計されている。それに対し,提案手法では,ロジスティック回帰が与える確率 $P_{l r}\left(t_{i}\right)$ との線形結合を行うため, 各文字境界に対して, 単語境界の有無の 2 種類の夕グを付与するべく,RNNを設計している。 また, 両手法とも, Neubig らの手法 (Neubig et al. 2011) を参考として, 文字 n-gram や文字種 n-gram を RNN の入力に利用するが,夕グを付与する対象が異なっているため,その取り方は完全に一致しているわけではない,提案手法では,ロジスティック回帰が与える確率 $P_{l r}\left(t_{i}\right)$ との線形結合を行うため, Neubig らの手法 (Neubig et al. 2011) と同一の素性としている. なお, 2.1.1 節と同様に, 提案手法においても辞書素性を使用可能であるが, 本研究では簡単化のため使用していない. ## 2.2 形態素情報の推定 形態素情報の推定では,2.1 節の単語境界の推定によって単語に分割された 1 文を入力とし,各単語の 6 種類の形態素情報 (品詞 (大分類), 品詞 (細分類), 活用型, 活用形, 見出し語の漢字仮名表記,読み)をそれぞれ推定する(図 1 参照)6種類の各形態素情報を推定する枠組みは同一であり,それぞれ独立に実行される。そのため以下では,品詞(大分類)の推定方法のみを取り上げ説明する。また,本節では品詞(大分類)を品詞と略称する。 品詞の推定では, 1 文を構成する単語列 $\boldsymbol{w}=w_{1} w_{2} \cdots w_{k}$ を入力とし, 各単語の品詞ラベル $\boldsymbol{l}=l_{1} l_{2} \cdots l_{k}$ を出力する. ここで, $l_{j}$ は, 単語 $w_{j}$ の品詞ラベルである. また, 本手法では, 各単語の品詞ラベルを文頭から順に判定し,その判定を文末まで繰り返す. 品詞の推定においても,単語境界推定と同様に,まず,ロジスティック回帰と RNN とをそれぞれ用いて, 各単語が各品詞ラベルを持つ確率を推定する。その後, 両者が推定した 2 つの確率を線形結合し,その値に基づいて,各単語の品詞ラベルを判定する. 品詞の推定は多值分類問題となるが,各単語に対して品詞を推定する際,各単語が取り得る品詞ラベルの種類数をどのように考えるかによって, 多値分類器の構成方法には 2 つの方法が考えられる (森他 2011),一つは,品詞ラベルをすべて集めた集合を $L$ とするとき,すべての語彙に対して, $|L|$ 值分類問題を解く 1 つのモデルを作る方法であり, 全体モデルと呼ばれる. もう一つは,ある単語 $w_{j}$ が実際に取り得るラベルは $L$ の部分集合 $L_{j}$ であることを考慮し, 各語彙に対してその語彙だけのためのモデルを作る方法であり,個別モデルと呼ばれる ${ }^{5}$. 本研究では,ロジスティック回帰による推定と RNN による推定とで異なるモデルを採用する. すなわち,ロジスティック回帰による推定では Neubig らの手法 (Neubig et al. 2011; 森他 2011) と同様に個別モデルを採用し,RNNによる推定では訓練データ量がスパースとなることを考慮し全体モデルを採用する,個別モデルが語彙ごとにモデルを使い分けるのに対し,全体モデルはすべての単語で共通のモデルを使用することから, 多くの場合, 個別モデルにより分類するクラス数は,全体モデルにより分類するクラス数より小さくなる.そのため,両者が推定した確率値を線形結合する際には,ロジスティック回帰(個別モデル)により分類するクラス数に基づき,RNN(全体モデル)が推定した確率値を補正する. 具体的には, 単語 $w_{j}$ の品詞ラベル $l_{j}$ を式 (2) により推定する. $ l_{j}=\underset{v \in L_{j}}{\arg \max }\left((1-\beta) P_{l r}^{\text {個 }}\left(l_{j}=v\right)+\beta \frac{P_{r n n}^{\text {全 }}\left(l_{j}=v\right)}{\Sigma_{v \in L_{j}} P_{r n n}^{\text {羔 }}\left(l_{j}=v\right)}\right) $ ここで, $P_{l r}$ 個 $\left(l_{j}=v\right)$ は単語 $w_{j}$ の品詞ラベルが $v$ である確率をロジスティック回帰(個別モデル)により推定した値を,同様に, $P_{r n n}^{\text {全 }}\left(l_{j}=v\right)$ は RNN(全体モデル)により推定した值をそれぞれ表す. $L_{j}$ は,単語 $w_{j}$ が取り得る品詞ラベルを集めた集合を表し ${ }^{6}, \quad \Sigma_{v \in L_{j}} P_{l r}^{\text {個 }}\left(l_{j}=v\right)=1$ となる。なお,品詞ラべルをすべて集めた集合 $L$ に関しては, $\Sigma_{v \in L} P_{r n n}$ 全 $\left(l_{j}=v\right)=1$ が成り立つ. ここで, $\left|L_{j}\right| \leq|L|$ であるため, 式 $(2)$ では, $P_{r n n}^{\text {全 }}\left(l_{j}=v\right)$ を補正した上で, $P_{l r}^{\text {個 }}\left(l_{j}=v\right)$ との線形結合を行っている。なお, $\beta(0 \leq \beta \leq 1)$ は補完係数であり,パラメータ調整用の開発デー 夕を用いて実験的に決定する。 $\beta$ は, 図 1 に示す 6 種類の各形態素情報で個別に設定できるが,本研究では予備実験により同一の値を設定している (3.2 節参照). 以下では,ロジスティック回帰と RNNの各々による品詞の推定を説明する. ^{5} \mathrm{http}: / /$ www.phontron.com/kytea/train-ja.html 6 実際には訓練データにおいて各単語に付与されているラべルを集めている. } ## 2.2.1 ロジスティック回帰による品詞の推定 確率 $P_{l r}$ 個 $\left(l_{j}\right)$ を算出する際にロジスティック回帰で用いる素性は, Neubig らの手法 (Neubig et al. 2011) の品詞推定にて用いられている素性と同様である。具体的には, 推定する単語 $w_{j}$ の直前の $m$ 文字からなる文字列 $\boldsymbol{c}_{-}$と直後の $m$ 文字からなる文字列 $\boldsymbol{c}_{+}$の連結 $\boldsymbol{c}_{-} \boldsymbol{c}_{+}$に含まれる,文字 n-gram と文字種 n-gram である。ただし,本研究では平仮名文を扱っているため,文字種は, 平仮名 $(\mathrm{H})$, 数字 $(\mathrm{N})$, その他 $(\mathrm{O})$ の 3 種である. 例えば, 図 1 における単語境界推定の出力文「しかし/、/はってん/とじょう/こく/から/の/ひはん/が/つよい/。」 において, $j=3, m=3$ とし, 1-gram から 3 -gram まで使用するとすると, $P_{l r}^{\text {個 }}\left(l_{3}\right)$ を算出する際の素性は,文字列「かし、とじょ」から得られ,以下となる。 - 文字 1-gram:か|し|、|と|じ|ょ - 文字 2-gram:かし|し、|、と|とじ|じょ - 文字 3-gram:かし、|し、と|、とじ|とじょ - 文字種 1-gram : $\mathrm{H}|\mathrm{H}| \mathrm{O}|\mathrm{H}| \mathrm{H} \mid \mathrm{H}$ - 文字種 2-gram : $\mathrm{HH}|\mathrm{HO}| \mathrm{OH}|\mathrm{HH}| \mathrm{HH}$ - 文字種 3-gram : $\mathrm{HHO}|\mathrm{HOH}| \mathrm{OHH} \mid \mathrm{HHH}$ ロジスティック回帰による品詞推定モデルは, 個別モデルに基づくため語彙ごとに作る. なお, Neubig らの手法では, 推定対象の単語が訓練デー夕に出現せず,辞書に出現する場合は,その単語の辞書情報をそのまま出力するという形で辞書を利用しているが,簡単化のため本研究では使用していない. ## 2.2.2 RNN による品詞の推定 確率 $P_{r n n}^{\text {全 }}\left(l_{j}\right)$ を算出する際に用いる RNN の概要を図 3 に示す。まず,2.2.1 節で述べた文 図 3 形態素情報推定のための RNN の概要 字 n-gram と文字種 n-gram のすべての素性に加えて, 推定対象の単語を抽出し,その各々を Embedding を通し分散表現とする。本研究では, Neubig らの手法 (Neubig et al. 2011)の全体モデルの場合と同様に,推定対象の単語そのものを分類器の素性として利用する。次に,2.2.1 節で述べた文字 n-gram と文字種 n-gram のすべてと推定対象の単語の各 Embedding を連結したベクトルを RNNの入力とし,順方向の LSTMにより変換する,最後に,線形変換と Softmax 関数を適用し, $|L|$ 次元の出力を得る。この出力は品詞ラベルの確率分布を表す. なお, 2.1.2節と同様に, Embeddingの事前学習は実施しておらず, 学習開始時点では Embedding は乱数により無作為に初期化し, 訓練データの正解の単語境界情報を用いて, Embedding を含むモデル全体を end-to-end で学習させている。また,前述したように,RNNによる品詞推定は全体モデルに基づくため,各単語に対して適用されるモデルは共通である。また,2.2.1節と同様に,簡単化のため本研究では辞書を使用していない. ## 3 評価実験 平仮名文の形態素解析における提案手法の有効性を確認するため, 従来手法との比較実験を実施した。 ## 3.1 実験データ 実験では,京都大学テキストコーパス Version 4.0 の各見出し語を平仮名に置換したものを利用する7.コーパスは 38,400 文, 972,894 単語, $2,320,340$ 文字からなり,これを訓練デー夕, 開発データ及びテストデータに分割して使用する。詳細を表 1 に示す. 1 月 17 日の一般記事(社説以外の記事)を開発データとし,1月 12 日から 1 月 16 日の 5 日分の一般記事のうち, 1 日分をテストデータとする実験を 5 回実施する,各回における訓練データは,当該テストデータと開発データを除くすべてを使用することとした。例えば, 1 月 16 日の一般記事をテストデータとする場合,訓練デー夕は 1 月 1 日から 1 月 15 日の一般記事と 1 月から 12 月の社説記事となる. 表 1 実験データ  ## 3.2 比較手法 提案手法 (以下, $[\mathrm{LR}+\mathrm{RNN}]$ と記す) との比較のため, 以下 7 つの比較手法を設けた. - $[\mathrm{MeCab}]$ : 形態素解析器 MeCab (ver. 0.996) を用いる手法. MeCabのモデルの学習には seed 辞書, 設定ファイル及びコーパスを用意する必要がある 8 . seed 辞書は 3.1 節で述べた訓練データの語彙から作成した。素性抽出テンプレート等の設定ファイルは, $\mathrm{MeCab}$ の配布辞書のひとつであり, 京都大学テキストコーパスの品詞体系に従う JUMAN 辞書のものと同一とした,たたし,JUMAN 辞書の設定では学習時に正解を判定する条件を形態素情報のうち活用形までの一致としているため, ひらがな文の解析に則すよう形態素情報すべての一致を正解とするよう設定を変更している。コーパスは 3.1 節で述べた訓練データを $\mathrm{MeCab}$ のフォーマットに修正して作成した. ハイパーパラメータ C $1.0 を$指定し,コーパス中に出現する素性は,頻度によるフィルタをかけず,すべて使用した. - [KyTea] : 形態素解析器 KyTea (ver. 0.4.6) を用いる手法. 本実験の訓練データを使い, 一から学習したモデルを用いる。訓練時のオプションは “-full”と“-model”のみを指定し,辞書を使用せず,分類器はデフォルトの線形SVM としている。また, 解析時のオプションは “-model”のみを指定している. - $[\mathrm{CRFs}+\mathrm{RNNLM}]$ : 我々の先行研究手法 (森山他 2018). なお, 使用されている訓練デー 夕は本実験の訓練データと同一である. - $[\mathrm{CRFs}]:[\mathrm{CRFs}+\mathrm{RNNLM}]$ において, 補間係数 $\alpha$ を 0 とし, $\mathrm{CRFs}$ が与える確率のみを用いて推定する手法. - $[$ RNNLM $]:[\mathrm{CRFs}+\mathrm{RNNLM}]$ において, 補間係数 $\alpha$ を 1 とし, RNNLM が与える確率のみを用いて推定する手法. - $[\mathrm{LR}]$ : 提案手法 $[\mathrm{LR}+\mathrm{RNN}]$ において, 補間係数 $\alpha, \beta$ をともに 0 とする手法. - $[\mathrm{RNN}]$ : 提案手法 $[\mathrm{LR}+\mathrm{RNN}]$ において, 補間係数 $\alpha, \beta$ をともに 1 とする手法. これら 7 つの比較手法と提案手法の違いを表 2 に整理して示す.これらの手法は, 判定アルゴリズムが逐次的であるか,ラティスベースであるかの違い,また, スコア算出器や分類器として,局所情報を素性とする機械学習のみを用いるのか,大域情報を考慮できる RNNのみを用いるのか,両者を用いるのかという違いの 2 つの観点で整理できる. $[\mathrm{LR}+\mathrm{RNN}]$ における単語分割推定と形態素情報推定の際に使用したRNN のハイパーパラメー 夕を表 3 に示す。このうち, 対象単語の Embedding 次元数は形態素情報推定のための RNN のみに関わるハイパーパラメータであり, その他は, 単語分割推定と形態素情報推定の両方でともに同じ値を用いた。なお, Adamの各パラメータは推奨値とした。また, エポック数は, 開発データ上での $\mathrm{F}$ 値が収束するまでとした。,提案手法及び上記 7 つの比較手法のモデルの学習  表 2 提案手法と比較手法の特徵 表 3 RNN のハイパーパラメータ は, 3.1 節で述べた訓練データのみを用いて行った。 提案手法における補完係数 $\alpha$ と $\beta$ は,表 1 のテストデータごとに訓練データが変わるため, それぞれの訓練データごとに,開発データにおいて $\mathrm{F}$ 値を最も高くする $\alpha$ と $\beta$ から 1 まで 0.1 刻みで探索し,それらを採用した。ただし, $\beta$ の探索は正解の単語分割を与えた上で実施し, また, $\beta$ は 6 種類の形態素情報共通とした。表 4 の上 2 行に,本実験において採用した補完係数 $\alpha$ と $\beta$ を示す.また,単語境界推定と形態素情報推定のいずれにおいても,提案手法で用いる素性を決定する際の空幅は $m=3$ とし, n-gram は 1-gram から 3-gram まで使用した. 提案手法は scikit-learn (Pedregosa et al. 2011), 及び, PyTorch (Paszke et al. 2019), PyTorchlgnite (Fomin et al. 2020) を使い Python で実装した。なお, 我々の先行研究手法 [CRFs+RNNLM] も Python で実装している。 表 43 章と 4.4 節の各実験における $[\mathrm{LR}+\mathrm{RNN}]$ の補完係数 $\alpha$ と $\beta$ ## 3.3 評価指標 解析時間の評価では,プログラムの実行時間を bashの timeにより計測し, 1 文あたりの平均解析時間を算出した。なお,推論時のプログラムはすべて, CPU:Intel Core i5-6500, RAM:8.0GB を搭載したマシン上で実行し,GPUは使用していない。 また,解析精度の評価には適合率,再現率及び $\mathrm{F}$ 值を使用する。それぞれの計算式は以下の通りである. $ \begin{gathered} \text { Precision }=\frac{\text { Number of correct morphemes }}{\text { Number of predicted morphemes }} \\ \text { Recall }=\frac{\text { Number of correct morphemes }}{\text { Number of groundtruth morphemes }} \\ F=\frac{2 * \text { Precision } * \text { Recall }}{\text { Precision }+ \text { Recall }} \end{gathered} $ 我々の先行研究 (森山他 2018) と同じく, 評価基準は次の 5 つを設けた. - level0:単語分割が正解. - level1:level0 に加え品詞(大分類)が正解. - level2:level1 に加え品詞(細分類)が正解. - level3 : level2 に加え活用型と活用形が正解. - level4 : level3 に加え見出し語の漢字仮名表記と読みが正解. level4 の正解は同音異義語の識別の成功に相当する. なお,上述の各評価指標の値は 5 回の実験結果の平均をとったものとする. ## 3.4 実験結果 実験結果を表 5 に示す 9 . 提案手法 $[\mathrm{LR}+\mathrm{RNN}]$ は, 我々の先行研究手法 $[\mathrm{CRFs}+\mathrm{RNNLM}]$ と比較して, 100 倍以上高速になっている。表 2 に両者の違いを示した通り, [CRFs+RNNLM $]$ は  } & \multicolumn{5}{|c|}{$\mathrm{F}$ 值(適合率 [\%]/再現率 [\%]) } \\ 表 5 実験結果 ラティス上の経路ごとに RNNLM によるスコア計算を繰り返し計算する必要があるのに対し, $[\mathrm{LR}+\mathrm{RNN}]$ は,文字列長あるいは単語長だけ RNN を適用すればよく,計算量を大きく抑えることができる。この点が提案手法の高速化を実現できた主要因と考えられる。その他の要因として, [CRFs+RNNLM] は LSTM の各層の隠れ状態の次元数が 1500 であるの対して, [LR+RNN $]$ は約 1/8の 200 であり,RNNのモデルサイズを小さくすることができた点も考えられる. 一方, 提案手法 $[\mathrm{LR}+\mathrm{RNN}]$ の解析時間は, $[\mathrm{MeCab}]$ や [KyTea] には及ばなかった. ただし,提案手法が Python で実装されているのに対し, [MeCab] や [KyTea] は C++で実装されており,同一言語で各手法を実装すれば,各手法の解析時間の差は表 5 の結果より縮まると考えられる. また,本実験では図 1 の 6 種類の形態素情報の推定を逐次的に行っているが,これらを並列処理することにより,更なる高速化が期待できる。いずれにしろ,提案手法の更なる高速化は今後の課題である. 次に, 解析精度に目を向けると, 提案手法 $[\mathrm{LR}+\mathrm{RNN}]$ は, 単語分割性能を示す level0 と, 最も厳しい評価基準である level4 の F 値において, 最高値を達成しており, level4 の F 值において 2 番目に高い値を示した $[\mathrm{CRFs}+\mathrm{RNNLM}]$ を有意に上回った $(p<0.05)^{10}$. 提案手法 $[\mathrm{LR}+\mathrm{RNN}]$ は, 我々の先行研究手法 $[\mathrm{CRFs}+\mathrm{RNNLM}]$ と比較し, 同程度以上の高い解析精度を達成しつつ, $ 検定を実施し確認した. なお,本実験結果の検定はすべて同じ方法で実施した. } 解析時間を大幅に削減できていることを確認した。 また, [KyTea] や $[\mathrm{MeCab}]$ とそれぞれ比較した場合,提案手法 $[\mathrm{LR}+\mathrm{RNN}]$ は全 level において有意に上回った(いずれも $p<0.01 )$ ,提案手法は,平仮名文を対象とする場合において,代表的な日本語形態素解析器を上回る高い解析精度を達成していることを確認した。 ## 4 考察 本章では,前章の実験結果に基づき,平仮名文の形態素解析における提案手法の特徴を考察する。具体的には, [CRFs+RNNLM] や [KyTea], [LR], [RNN]による各解析精度との比較を通じて,提案手法の利点や誤り傾向について述べる。また,漢字仮名まじり文に対して提案手法を適用し,平仮名文に対する解析との違いについて考察する。 ## 4.1 提案手法と $[\mathrm{CRFs+\mathrm{RNNLM}]$ の比較} 本節では, 提案手法 $[\mathrm{LR}+\mathrm{RNN}]$ と我々の先行研究手法 $[\mathrm{CRFs}+\mathrm{RNNLM}]$ の解析結果に基づき,表 2 に示す両者の違いが解析精度に及ぼす影響を考察する。 まず,単語分割を意味する level 0 や,最も厳しい評価基準である level 4 の $\mathrm{F}$ 値において,提案手法 $[\mathrm{LR}+\mathrm{RNN}]$ が [CRFs+RNNLM $]$ を有意に上回った原因を考察する。表 5 の適合率に着目すると, level0 や level4 において, [CRFs+RNNLM] が提案手法を著しく下回っていることがわかる. 図 4 に, $[\mathrm{CRFs}+\mathrm{RNNLM}]$ の適合率を著しく低下させている例を示す. 平仮名文の解析を便宜上,漢字仮名表記で記載していることに注意されたい.いずれの例も訓練データに出現しない未知語が入力文に含まれており,提案手法と $[\mathrm{CRFs}+\mathrm{RNNLM}]$ がいずれも形態素解析に失敗した例となっているが, $[\mathrm{CRFs}+\mathrm{RNNLM}]$ は未知語を構成する文字列を細かく刻み単語分割していることがわかる。そのため,適合率の分母が増加し,適合率を押し下げたものと考えられる。 $[\mathrm{CRFs}+\mathrm{RNNLM}]$ は, 言語モデルによって算出される次の単語の生起確率を用いているため, ラティス上において, 未知語が含まれるパスはスコアが著しく低くなり選択されにくくなる. そのため,未知語を構成する文字列を細かく刻み,訓練データに存在した単語に分割したパスが選択されることになると考えられる。なお,ラティスベースの形態素解析を行う $[\mathrm{MeCab}]$ や $[\mathrm{CRFs}],[\mathrm{RNNLM}]$ も同様に, level0の適合率が低く, その中でも言語モデルを利用する [RNNLM] の低下は著しいことが確認できるが, これらも同様の理由が考えられる. 一方, 提案手法 $[\mathrm{LR}+\mathrm{RNN}]$ は, 逐次的に判定するため, 未知語を構成する文字列を未知語 1 語として判定する傾向が強いと考えられる。また, 提案手法は, 表層形を元に RNNにより推定を行うため, 入力文の一部に未知語があった場合でも他の箇所へ影響は少なく, 未知語に対してある程度頑健と考えられる, 3 章の実験では, 3.1 節で述べた通り,新聞記事を日付ごとに分 \\ ※平仮名文の解析を便宜上, 漢字仮名表記で記載していることに注意されたい. ※ UNK は未知語を意味する。 図 4 未知語が含まれる文に対する提案手法と [CRFs+RNNLM $]$ の解析例 割して実験データを作成しており,テストデータには訓練データに出現しない未知語が比較的多く含まれる形となっている。そのことも提案手法 $[\mathrm{LR}+\mathrm{RNN}]$ に有利に働いたものと考えられる。なお,本研究では,新聞記事全体から文単位でランダムにサンプリングして別の実験デー 夕を作成し,未知語が含まれる割合が低下したテストデータに対しても評価実験を実施してお り, 3 章の実験結果との比較からも, 提案手法 $[\mathrm{LR}+\mathrm{RNN}]$ の未知語に対する頑健性を確認している(詳細は付録 Aを参照されたい). 次に, level0 や level4 の解析において,[CRFs+RNNLM] は成功しているものの,提案手法が失敗した例を考察する。そのような例を図 5 に示す。平仮名文の解析を便宜上,漢字仮名表記で記載していることに注意されたい。最初の例では,「三/党(さん/とう)」が正解であるのに対し, 提案手法は「山刀(さんとう)」と解析誤りを犯しているが, [CRFs+RNNLM $]$ は正解と同一の単語分割及び漢字仮名表記の推定に成功している。 [CRFs+RNNLM] はビームサーチを用いているものの,RNNLM をラティス上の経路ごとに適用するため,一部の後方文脈を考慮できる.そのため,後方の「政局」を考慮して,「三/党(さん/とう)」の解析に成功したものと考えられる。それに対して,提案手法は逐次的に単語境界を判定しているため, 順方向 LSTM により前方の大域的な情報を考慮しているといえども,後方の「政局」を考慮できず,この解析に失敗している。上から 2 例目も同様に考察できる。また,上から 3 例目と 4 例目では,提案手法は単語分割に成功しているものの, 漢字仮名表記の推定, すなわち, 同音異義語の識別に失敗している。これらの例でも,後方文脈を考慮できないことにより,提案手法が失敗しているものと考えられる。 提案手法は,高速化を図るために逐次的な単語分割手法を採用しており,高速性を犠牲にしないためには,逐次的に判定を行う枠組みにおいて単語分割精度を向上させる方策を考える必要がある,例えば,大域的な情報をより強く考慮するため,双方向 LSTM (Schuster and Paliwal \\ ※平仮名文の解析を便宜上, 漢字仮名表記で記載していることに注意されたい. 図 5 提案手法が失敗し, $[\mathrm{CRFs}+\mathrm{RNNLM}]$ が成功した例 1997) や Attention (Vaswani et al. 2017) などの活用が考えられるが,その改善策については今後の課題である. ## 4.2 提案手法と [KyTea] の比較 本節では, 提案手法 $[\mathrm{LR}+\mathrm{RNN}]$ と, [KyTea] の解析結果に基づき, 表 2 に示す両者の違いが解析精度に及ぼす影響を考察する。 表 5 における提案手法 [LR+RNN] と [KyTea] の各 levelの F 値を詳細に見ると, level0において 2.44 ポイントの差が生じ,その差が level1~4においてそのまま引き継がれ 2.09~2.35 ポイント差となっている。このことから,提案手法が全 level の F 値において [KyTea] より有意に上回ったのは,単語分割によって生じた精度差が主な原因であり,その差が形態素情報の推定まで引きずられたためと考えられ,形態素情報の推定では両手法に精度差はほとんどないという仮説が考えられる。 そこで,この仮説を検証するため, 正解の単語分割に基づいて, 提案手法と [KyTea] で形態素情報を推定するという追加実験を実施した,実験設定は, 3 章と同様であり,提案手法と [KyTea] の形態素情報推定機構の入力に,正解の単語分割を与えている点のみが異なる. 表 6 に追加実験の結果を示す。なお,正解の単語分割結果を与えているため, 正解率で評価している(適合率・再現率・F 値はいずれも正解率と同値となる),両者を比較すると,各 level でその差はほとんどなく, この結果は上記の仮説を支持するものと考えられる. 一方, 単語分割 level0の F 値において, 提案手法と [KyTea] との間に有意差が生じた原因は,大域的な情報を考慮しているか否かにあると考えられる。図 6 に,単語分割において,提案手法は成功し, [KyTea] は失敗した例を示す。平仮名文の解析を便宜上,漢字仮名表記で記載していることに注意されたい. 1 つ目の例では,「しょうちく(松竹)」が正解であるのに対し, [KyTea] は「しょう/ちく(小/地区)」と解析誤りを犯しているが, 提案手法は正解と同一の解析に成功している。提案手法と [KyTea] はいずれも逐次的に単語境界の判定を行うが,提案手法は,「えんげき(演劇)」や「げきじょう(劇場)」といった前方に位置する大域的な情報を RNNにより考慮することができ, 「しょうちく(松竹)」の解析に成功したものと考えられる.その他の例についても,同様の考察ができる。 提案手法は, 逐次的な手法を採用しているため, 1 文全体の最適経路を求める [CRFs+RNNLM $]$ 表 6 正解の単語分割に基づく提案手法と [KyTea] の形態素情報推定結果 \\ ※平仮名文の解析を便宜上, 漢字仮名表記で記載していることに注意されたい. ※ UNK は未知語を意味する。 図 6 単語分割において, [KyTea] が失敗し, 提案手法が成功した例 と比べると大域的な判断を一部犠牲にしていることになるものの,RNNを組み合わせることにより,大域的な情報を考慮することに成功していると考えられる。 ## 4.3 提案手法と $[\mathrm{LR]$ 及び $[\mathrm{RNN}]$ の比較} 本節では,提案手法 $[\mathrm{LR}+\mathrm{RNN}]$ と,提案手法を構成する $[\mathrm{LR}]$ 及び $[\mathrm{RNN}]$ の 3 つの手法による推定結果を比較し, 提案手法の誤り傾向と,その誤りの削減可能性について考察する. 表 7 に,推定対象箇所のうち,各手法が各 level の評価基準に照らして誤った箇所の数と,その誤り箇所の重なり数を示す.ここで,単語境界推定の評価は, 3 章の実験結果に基づいたも 表 7 提案手法 $[\mathrm{LR}+\mathrm{RNN}]$ と $[\mathrm{LR}],[\mathrm{RNN}]$ の各手法が誤った箇所の数と, その誤り箇所の重複 のであるが,形態素情報推定の評価は,各手法の間で推定対象箇所をそろえるため,正解の単語境界を各手法の入力として再実験11した結果に基づいたものである。そのため, 単語境界推定時と形態素情報推定時の推定対象箇所の総数は,各手法で同数であり,それぞれ,表 1 に示す 5 つのテストデータの合計文字数 421,760 と合計単語数 175,981 である. どの level においても, $[\mathrm{LR}]$ と $[\mathrm{RNN}]$ の共通の誤り数と, $[\mathrm{LR}+\mathrm{RNN}]$ と $[\mathrm{LR}]$ と $[\mathrm{RNN}]$ の共通の誤り数に差はほとんどなく, $[\mathrm{LR}]$ と $[\mathrm{RNN}]$ がいずれも誤った箇所は, $[\mathrm{LR}+\mathrm{RNN}]$ でも誤っていることが分かる. $[\mathrm{LR}]$ と $[\mathrm{RNN}]$ のどちらもが誤っていたとしても,どちらかの手法において下位候補が第 1 位候補と大差なく高い確率値を持ってる場合などにおいて, 式 (1)の $\alpha$ や式 (2)の $\beta$ の選び方によっては原理的に正解できる可能性はある. しかし, $[\mathrm{LR}]$ と $[\mathrm{RNN}]$ のいずれもが誤るような箇所は, 4.1 節で述べた通り, 後方文脈などの大域的な情報を考慮する必要のある場合が多いと考えられ,線形結合の補完係数を変更するだけで正解に導くことは難しいと考えられる。 一方, $[\mathrm{LR}+\mathrm{RNN}]$ の誤りのうち, $[\mathrm{LR}]$ と $[\mathrm{RNN}]$ のどちらか一方が正解しているものについては,推定対象箇所ごとに $\alpha$ や $\beta$ を適切に選ぶことができれば正解できる可能性があると言える。例えば,単語境界推定において,[LR] と $[\mathrm{RNN}]$ のどちらか一方が正解していたものを [LR+RNN] で正解できたとすると, level0 の F 值は 94.37 から 96.37 まで改善することができる. より適切な $\alpha や \beta$ の設定方法の検討は今後の課題である. ## 4.4 漢字仮名まじり文に対する解析精度との比較 1 章で述べたように,平仮名文の形態素解析は,漢字仮名まじり文と比べて,一般に難しい夕スクであり,その解析精度が大きく低下することが知られている。本節では,その解析精度の低下を提案手法がどの程度, 抑制できているかを確認するため, 我々の先行研究 (森山他 2018) と同様に,漢字仮名まじり文に対する形態素解析実験を実施し,平仮名文に対する実験結果と  比較する。 漢字仮名まじり文に対する実験の設定を述べる,実験データには,平仮名文コーパスに変換する前のオリジナルの京都大学テキストコーパスを,表 1 と同様に,訓練データ,開発デー夕, テストデータに分割したものを用い, 3 章と同様の実験を 5 回実施した. 3 章の実験との違いは,実験データが平仮名文コーパスに変換されているか否かのみである。また,我々の先行研究 (森山他 2018) と同様に, [KyTea] や [MeCab], [CRFs+RNNLM] のほか, JUMAN++ (ver. 1.02)を用いる手法 (以下, $[$ JUMAN++]) 12でも形態素解析を実行し, 提案手法と比較した。なお,提案手法 $[\mathrm{LR}+\mathrm{RNN}],[\mathrm{KyTea}],[\mathrm{MeCab}],[\mathrm{CRFs}+\mathrm{RNNLM}]$ は,表 1 の訓練データ(ただし,当該箇所のオリジナルの京都大学テキストコーパス)により学習し直したものを利用し, [JUMAN++] は JUMAN++ (ver. 1.02) をデフォルトのまま利用した。また,提案手法の補完係数については, 3.2 節と同様の方法で, 開発デー夕を用いて新たに決定した。表 4 の下 2 行に,本実験において採用した補完係数 $\alpha$ と $\beta$ を示す. その他の実験設定は, 3 章と同一とした. 表 8 に漢字仮名まじり文と平仮名文の形態素解析結果( $\mathrm{F}$ 値)を示す.下 4 行の平仮名文の形態素解析精度は,比較の簡単化のために,表 5 の値を再掲載したものである。 解析対象が漢字仮名まじり文から平仮名文に変わった時の各手法の解析精度の低下に着目すると, 提案手法の落ち込みは, $[\mathrm{CRFs}+\mathrm{RNNLM}]$ と比べると大きいものの, 提案手法と同様に逐次的な解析を行う [KyTea] と比べると小さいことがわかる。提案手法は, RNNにより大域的な情報を考慮することによって,平仮名文における曖昧性の一部を解消することに成功し,解析精度の低下を抑制できているものと考えられる. ここで,提案手法における,式 (1) の補完係数 $\alpha$ に着目する,表 4 を見ると,平仮名文を対象とした場合の最適な補完係数の値は,特に $\alpha$ において,漢字仮名まじり文を対象とした場合 表 8 漢字仮名まじり文と平仮名文の形態素解析結果(F 値)の比較  平仮名文 漢字仮名まじり文 図 73 章(左図:平仮名文対象)と本節(右図:漢字仮名まじり文対象)の実験における $\alpha$ の探索 より,大きくなる傾向が読み取れる。図 7 に, 3 章や本節の実験において, $\alpha$ を 0 から 1 まで 0.1 刻みで変化させたときの, 開発データにおける level0の F 值をプロットしたグラフを示す.「 $\left.\alpha_{-} 112\right.\rfloor は 1$ 月 12 日をテストデータとするときの訓練データで学習したモデルにおいて $\alpha$ を探索した結果を示す。平仮名文を対象とした場合のグラフのピークが漢字仮名まじり文を対象とした場合と比べて右に寄っていることが分かる。このことは, 漢字仮名まじり文と比べて,平仮名文の曖昧性解消には, RNNによる大域的な情報をより強く考慮することが重要であることを示唆している。提案手法は,RNNによる大域的な情報を考慮する度合いを強めることにより,平仮名文に対する解析精度の低下を抑制しているものと考えられる。 一方,漢字仮名まじり文に対する解析精度は,参考までに実施した [JUMAN++] を除き 13 ,すべての level において, 提案手法 $[\mathrm{LR}+\mathrm{RNN}]$ と $[\mathrm{KyTea}]$ が拮抗し, どちらかが最も高い $\mathrm{F}$ 值を達成している. どの level においても,提案手法 $[\mathrm{LR}+\mathrm{RNN}]$ と $[\mathrm{KyTea}]$ との有意差は認められなかった (いずれの level も $p>0.05$ ). 上述したように,漢字仮名まじり文を解析する際の補完係数の値は 0 に近づいており,その分だけ,[LR+RNN] が手法として,[LR]に近づいているといえる。[LR] と [KyTea] は,用いた機械学習手法に違いがあるだけであり,提案手法と [KyTea] の間の差も小さくなっているものと思われる。漢字仮名まじり文に対する提案手法の有効性に関する検証は今後の課題としたい.  ## 5 おわりに 本論文では,RNNとロジスティック回帰を用いた平仮名文の逐次的な形態素解析手法を提案した.平仮名文に対する形態素解析実験の結果,単語分割と形態素情報のすべての一致を正解として測定した $\mathrm{F}$ 値において,提案手法は 88.22 となり, 従来手法 [CRFs+RNNLM] の 87.70 を上回る解析精度を達成した。また提案手法は, 従来手法 [CRFs+RNNLM] と比べて 100 倍以上の高速化を実現していることを確認した。さらに,漢字仮名まじり文に対する解析実験との比較の結果,漢字仮名まじり文と比べて,平仮名文の解析では,大域的な情報がより効果を発揮することを確認した。 今後は, 双方向 LSTM (Schuster and Paliwal 1997) や Attention (Vaswani et al. 2017) などの導入を検討し, 平仮名文に対する形態素解析精度の向上を図る予定である. また, 更なる高速化についても検討したい。 さらに,漢字仮名まじり文に対する提案手法の効果について検証を進め,漢字仮名まじり文に対する形態素解析精度の向上にも取り組みたい. ## 謝 辞 本研究の提案手法の実装には, scikit-learn 及び PyTorch,PyTorch-lgniteを利用した。評価には京都大学テキストコーパス, KyTea, MeCab, JUMAN++を利用した。これらの開発に携わった方々に感謝する。本研究は, 一部, 科学研究費補助金基盤研究 (C) No. $19 K 12127$ により実施した。 ## 参考文献 Chen, X., Qiu, X., Zhu, C., Liu, P., and Huang, X. (2015). "Long Short-Term Memory Neural Networks for Chinese Word Segmentation." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 1197-1206, Lisbon, Portugal. Association for Computational Linguistics. Fomin, V., Anmol, J., Desroziers, S., Kriss, J., and Tejani, A. (2020). "High-Level Library to Help with Training Neural Networks in PyTorch." https://github.com/pytorch/ignite.藤田早苗, 平博順, 小林哲生, 田中貴秋 (2014). 絵本のテキストを対象とした形態素解析. 自 然言語処理, 21 (3), pp. 515-539. [Fujita, S., Taira, H., Kobayashi, T. and Tanaka, T. (2014). "Japanese Morphological Analysis of Picture Books." Journal of Natural Language Processing, 21 (3), pp. 515-539.]. Hochreiter, S. and Schmidhuber, J. (1997). "Long Short-term Memory." Neural Computation, 9, pp. 1735-1780. 井筒順, 古宮嘉那子 (2021). Bi-LSTM CRF モデルを用いた平仮名文の形態素解析. 言語処理学会第 27 回年次大会発表論文集, pp. 942-946. [Izutsu, J. and Komiya, K. (2021). “BiLSTM CRF Moderu-wo Mochita Hiragana-bun-no Keitaiso-kaiseki." Proceedings of the 27th Annual Meeting of the Association for Natural Language Processing, pp. 942-946.]. Kitagawa, Y. and Komachi, M. (2018). "Long Short-Term Memory for Japanese Word Segmentation." In Proceedings of the 32nd Pacific Asia Conference on Language, Information and Computation, pp. 279-288, Hong Kong. Association for Computational Linguistics. 工藤拓, 市川宙, DavidTalbot, 賀沢秀人 (2012). Web 上のひらがな交じり文に頑健な形態素解析.言語処理学会第 18 回年次大会発表論文集, pp. 1272-1275. [Kudo, T., Ichikawa, H., Talbot, D. and Kazawa, S. (2012). "Web-jo-no Hiragana-majiri-bun-ni Ganken-na Keitaiso-kaiseki." Proceedings of the 18th Annual Meeting of the Association for Natural Language Processing, pp. 1272-1275.]. Kudo, T., Yamamoto, K., and Matsumoto, Y. (2004). "Applying Conditional Random Fields to Japanese Morphological Analysis." In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, pp. 230-237, Barcelona, Spain. Association for Computational Linguistics. 黒橋禎夫, 居蔵由衣子, 坂口昌子 (2000). 形態素・構文タグ付きコーパス作成の作業基準 version 1.8. http://nlp.ist.i.kyoto-u.ac.jp/index.php?京都大学テキストコーパス [Kurohashi, S., Igura, Y. and Sakaguchi, M. (2000). "Keitaiso $\cdot$ kobun-tagu-tsuki Kopasu-sakusei-no Sagyokijyun version 1.8."]. 黒橋・河原研究室 (2012). 日本語形態素解析システム JUMAN version 7.0. http://nlp.ist.i. kyoto-u.ac.jp/index.php? JUMAN [Kurohashi $\cdot$ Kawahara Kenkyu-sitsu. (2012). "Nihongo Keitaiso-kaiseki-sisutemu JUMAN version 7.0."]. Ma, J., Ganchev, K., and Weiss, D. (2018). "State-of-the-art Chinese Word Segmentation with BiLSTMs." In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 4902-4908, Brussels, Belgium. Association for Computational Linguistics. Ma, X. and Hovy, E. (2016). "End-to-end Sequence Labeling via Bi-directional LSTM-CNNsCRF." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1064-1074, Berlin, Germany. Association for Computational Linguistics. 松本裕治, 高岡一馬, 浅原正幸 (2008). 形態素解析システム『茶鉒』 version 2.4.3 使用説明書. http://chasen-legacy.osdn.jp/ [Matsumoto, Y., Takaoka, K. and Asahara M. (2008). "Keitaiso-kaiseki-sisutemu ChaSen version 2.4.3 Siyo-setsumei-sho."]. 森信介, 中田陽介, NeubigGraham, 河原達也 (2011). 点予測による形態素解析. 自然言語処理, 18 (4), pp. 367-381. [Mori, S., Nkata, Y., Neubig, G. and Kawahara, T. (2011). "Morphological Analysis with Pointwise Predictors." Journal of Natural Language Processing, 18 (4), pp. 367-381.]. Morita, H., Kawahara, D., and Kurohashi, S. (2015). "Morphological Analysis for Unsegmented Languages using Recurrent Neural Network Language Model." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 2292-2297, Lisbon, Portugal. Association for Computational Linguistics. 森山柊平, 大野誠宽, 増田英孝, 絹川博之 (2018). Recurrent Neural Network Language Model を用いたべた書きかな文の形態素解析. 情報処理学会論文誌, 59 (10), pp. 1911-1921. [Moriyama, S., Ohno, T. Masuda, H. and Kinukawa, H. (2018). "Morphological Analysis of Unsegmented Kana Strings Using Reccurent Neural Network Language Model." IPSJ Journal, 59 (10) pp. 1911-1921.]. 長尾真 (編) (1996). 岩波講座ソフトウェア科学〈〔知識〕15〉自然言語処理. 岩波書店. [Nagao, M. (Ed.) (1996). "Iwanami-koza Sofutouea-kagaku 〈[Chishiki] 15〉 Sizen-gengo-shori." Iwanami Shoten]. Neubig, G., Nakata, Y., and Mori, S. (2011). "Pointwise Prediction for Robust, Adaptable Japanese Morphological Analysis." In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 529-533, Portland, Oregon, USA. Association for Computational Linguistics. Paszke, A., Gross, S., Massa, F., Lerer, A., Bradbury, J., Chanan, G., Killeen, T., Lin, Z., Gimelshein, N., Antiga, L., Desmaison, A., Kopf, A., Yang, E., DeVito, Z., Raison, M., Tejani, A., Chilamkurthy, S., Steiner, B., Fang, L., Bai, J., and Chintala, S. (2019). "PyTorch: An Imperative Style, High-Performance Deep Learning Library." In Advances in Neural Information Processing Systems 32, pp. 8024-8035. Curran Associates, Inc. Pedregosa, F., Varoquaux, G., Gramfort, A., Michel, V., Thirion, B., Grisel, O., Blondel, M., Prettenhofer, P., Weiss, R., Dubourg, V., Vanderplas, J., Passos, A., Cournapeau, D., Brucher, M., Perrot, M., and Duchesnay, E. (2011). "Scikit-learn: Machine Learning in Python." Journal of Machine Learning Research, 12, pp. 2825-2830. Schuster, M. and Paliwal, K. (1997). "Bidirectional Recurrent Neural Networks." IEEE Transactions on Signal Processing, 45 (11), pp. 2673-2681. Tolmachev, A., Kawahara, D., and Kurohashi, S. (2018). "Juman++: A Morphological Analysis Toolkit for Scriptio Continua." In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 54-59, Brussels, Belgium. Association for Computational Linguistics. Tolmachev, A., Kawahara, D., and Kurohashi, S. (2019). "Shrinking Japanese Morphological Analyzers With Neural Networks and Semi-supervised Learning." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 2744-2755, Minneapolis, Minnesota. Association for Computational Linguistics. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., and Polosukhin, I. (2017). "Attention is All you Need." In Guyon, I., Luxburg, U. V., Bengio, S., Wallach, H., Fergus, R., Vishwanathan, S., and Garnett, R. (Eds.), Advances in Neural Information Processing Systems, Vol. 30, pp. 5998-6008. Curran Associates, Inc. ## 付録 ## A ランダムサンプリングデータを用いた評価実験 本付録では,新聞記事全体から文単位でランダムにサンプリングすることにより,3.1節とは別の実験データを作成し,その実験データを用いて,3 章と同様の評価実験を実施した結果を示す. ランダムサンプリングして実験データを作成した場合は,日付ごとに分割して作成した場合と比べて,テストデータに未知語が含まれる割合は低下することになる. 3 章の実験結果との比較を行うことにより,未知語割合が提案手法や比較手法に与える影響を考察する. ## A. 1 実験概要 実験データは, 3.1 節と同じく, 京都大学テキストコーパス Version 4.0 の各見出し語を平仮名に置換したものを利用し作成した。コーパス全体に含まれる 38,400 文 $(972,894$ 単語, $2,320,340$文字)から,文単位でランダムに各 1,000 文をサンプリングしてテストデータおよび開発デー 夕を作成し, 残りの 36,400 文を訓練データとする実験を 5 回実施する.各回の訓練データ,開発データおよびテストデータの詳細を表 9 に示す。また,表 10 に,本付録,及び, 3 章の実験における各テストデータに含まれる未知語(各訓練データに出現しない単語)の割合を示す. その他の実験環境や比較手法,評価指標については 3 章の実験と同じである.ただ,本実験における提案手法 $[\mathrm{LR}+\mathrm{RNN}]$ の補完係数 $\alpha, \beta$ は表 11 の通りである. ## A. 2 実験結果 実験結果を表 12 に示す. 3 章の実験結果の適合率,再現率, $\mathrm{F}$ 値(表 5)は,本付録の実験結果(表 12)と比べると, 全ての手法で全ての levelにおいて低い値となっている。 上述した通 表 9 ランダムサンプリングにより作成した実験データ 表 10 ランダムサンプリングデータ及び日付に基づく分割データの各テストデータにおける未知語の割合 表 11 ランダムサンプリングデータを用いた実験における $[\mathrm{LR}+\mathrm{RNN}]$ の補完係数 $\alpha$ と $\beta$ り,3 章の実験デー夕は,本付録の実験データと比べて,テストデータに未知語が含まれる割合が増加しており(表 10 参照),全体的に精度が低下したものと考えられる。 特に,ラティスベースの $[\mathrm{MeCab}]$ や $[\mathrm{CRFs}], \quad[\mathrm{RNNLM}], \quad[\mathrm{CRFs}+\mathrm{RNNLM}]$ の level0 の適合率に着目すると, 表 12 と比べて表 5 の値は著しく低下しており,テストデータに未知語が含まれる割合が増えると,ラティスベースの形態素解析手法の適合率が低下するという, 4.1 節で述べた考察を確認できる. 同様に, [CRFs+RNNLM] と提案手法 $[\mathrm{LR}+\mathrm{RNN}]$ の level0 の F 値に着目すると, [CRFs+RNNLM] では 95.89 から 93.37 と大きく低下するのに対して, [LR+RNN] は 95.98 から 94.37 と低下するものの,その下げ幅が小さくなっており,提案手法の未知語への頑健性を確認できる. 表 12 ランダムサンプリングデータに対する実験結果 ## 略歴 森山柊平:2016 年東京電機大学工学部第二部情報通信工学科卒業. 2018 年同大学大学院未来科学研究科情報メディア学専攻修士課程修了. ヴイエムウェア株式会社を経て, 現在, Idein 株式会社に在職. 自然言語処理に関する研究, エッジデバイス向けの画像認識システムの開発に従事. 大野誠寛:2003 年名古屋大学工学部電気電子・情報工学科卒業. 2007 年名古屋大学大学院情報科学研究科博士後期課程修了. 博士 (情報科学). 同年同大大学院国際開発研究科助教. 2011 年同大情報基盤センター助教. 2017 年より東京電機大学未来科学部情報メディア学科准教授. この間, 日本学術振興会特別研究員. 自然言語処理, 音声言語処理の研究に従事. 言語処理学会, 情報処理学会, 電子情報通信学会, 各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# マスクされた単語埋め込みと 2 段階クラスタリングを用いた 動詞の意味フレーム推定 山田 康輔 $\dagger$ ・笹野 遼平 $\dagger,+\dagger$ ・武田 浩一 $\dagger$ } 近年, 動詞の意味フレーム推定タスクでは, 推定対象の動詞の文脈化単語埋め込み に基づき,動詞全体で一度にクラスタリングを行う手法がいくつか提案されている。 しかし, このような手法には大きく 2 の欠点が存在する. 1 つは動詞の表層的な 情報を過度に考慮するため, 意味の似た異なる動詞の用例をまとめづらいこと,も う 1 つは同じ動詞の用例がその動詞自身が持つ意味の異なり数以上のクラスタに分割されることである。本論文では,これらの欠点を克服するために,マスクされた 単語埋め込みと 2 段階クラスタリングを用いた動詞の意味フレーム推定手法を提案 する. FrameNetを用いた実験を通し,マスクされた単語埋め込みを活用することが 動詞の表層的な情報に強く依存したクラスタの構築を抑制し,また, 2 段階のクラ スタリングを行うことで各動詞の用例が属するクラスタの異なり数を適正化できる ことを示す. キーワード : 意味フレーム推定, マスクされた単語埋め込み, 文脈化単語埋め込み, FrameNet ## Semantic Frame Induction using Masked Word Embeddings and Two-Step Clustering \author{ Kosuke Yamada $^{\dagger}$, Ryohei Sasano ${ }^{\dagger}{ }^{\dagger \dagger}$ and Koich Takeda ${ }^{\dagger}$ } Recent studies on semantic frame induction show that relatively high performance has been achieved by using clustering-based methods with contextualized word embeddings. However, there are two potential drawbacks to these methods: one is that they focus too much on the superficial information of the frame-evoking verb and the other is that they tend to divide the instances of the same verb into too many different frame clusters. To overcome these drawbacks, we propose a semantic frame induction method using masked word embeddings and two-step clustering. Through experiments on the dataset from the English FrameNet, we demonstrate that using the masked word embeddings is effective for avoiding too much reliance on the surface information of frame-evoking verbs and that two-step clustering can improve the number of resulting frame clusters for the instances of the same verb. Key Words: Semantic Frame Induction, Masked Word Embeddings, Contexutualized Word Embeddings, FrameNet  ## 1 はじめに 人は言葉を理解するとき,これまでの経験から得た単語の背景知識を利用している。たとえば,動詞「振る舞う」において,「シェフが料理を振る舞う」と言われれば「誰かが誰かに何らかの料理を提供している」状況を想像し,「紳士のように振る舞う」と言われれば「誰かがある特定の様子で行動している」状況を想像する,人はこれらの「振る舞う」の意味の違いをその前後の文脈によって理解し,さらに「“誰かに”提供している」や「“誰かが”行動している」 のような状況を理解するのに必要とされる事柄を補完して,これらの言葉を理解している。フレーム知識とは, このような単語の背景知識を, 同じ状況を想起させる語と状況の記述に必要な要素を含んだ意味フレームの形式でまとめたものである。その代表的なリソースの1つとして, FrameNet (Baker et al. 1998; Ruppenhofer et al. 2016) が存在する.これは Fillmore が提唱するフレーム意味論 (Fillmore 1982) に基づいたフレーム知識リソースである. FrameNet は, テキスト中の単語に対してフレームやフレーム要素のラベル付けを行う意味解析器の構築 (Das et al. 2014; Swayamdipta et al. 2017) に加え,イベント検出 (Liu et al. 2016) や関係抽出 (Zhao et al. 2020)のような情報抽出に関するシステム構築などに利用される. しかし, FrameNet は人手で整備されていることから, 語彙やフレームのカバレッジに限界がある.このため, 大規模なテキストコーパスから自動的に動詞のフレーム知識を構築する取り組みが行われている (Kawahara et al. 2014; Ustalov et al. 2018)。しかしながら,これらの手法では, 大規模コーパスから動詞とその項を収集し, それらの表層的な情報に基づきクラスタリングをしているため, 動詞や項の出現する文脈を十分に考慮できていない. そこで,本研究では,文脈を考慮した単語埋め达みを活用することで,より高品質なフレーム知識の自動構築の実現を目指す.フレーム知識を自動構築するためには,動詞の意味フレーム推定とフレーム要素推定が必要となるが, 本論文では, 最初の段階である動詞の意味フレーム推定に焦点を当てる. 動詞の意味フレーム推定は,テキスト中の動詞を,その動詞が喚起する意味フレームごとにまとめるタスクである。本論文では, FrameNetで定義されている意味フレームごとに, 動詞の用例をクラスタリングすることで本タスクを実現する。たとえば,表 1 の (1)〜 (4) に示す動詞「get」と「acquire」の用例の場合, $\{(1)\},\{(2)\},\{(3),(4)\}$ の 3 つのクラスタにまとめることを目標とする。本タスクの大きな特徴の1つとして, 同じ動詞の用例であってもその動詞が示す 表 1 FrameNet における動詞「get」と「acquire」の用例と各動詞が喚起するフレーム(括弧内). 状況が異なる場合,それらは異なるフレームを喚起し,異なる動詞の用例であってもそれらの動詞が類似した状況を示す場合,それらは同じフレームを喚起することが挙げられる。 動詞の意味フレーム推定タスクに対して, すでに ELMo (Peters et al. 2018) や BERT (Devlin et al. 2019) などの文脈化単語埋め込みを用いたクラスタリング手法が提案されている。たとえば,SemEval2019における動詞の意味フレーム推定の共有タスク (QasemiZadeh et al. 2019)では,ベースラインを超えた 3 グループ (Arefyev et al. 2019a; Anwar et al. 2019; Ribeiro et al. 2019) はいずれも,推定対象動詞の文脈化単語埋め込みを用いて,動詞全体で一度にクラスタリングを行っている。しかしながら,このような手法には大きく 2 つの欠点がある. 1つ目の欠点は,フレーム推定対象となる動詞の表層的な情報を過度に考慮してしまうことである.表 1 の動詞「get」のように,一部の動詞は文脈により異なるフレームを喚起する。しかし, 文脈化単語埋め込みはその単語の表層情報も含むことから, 同じ動詞の埋め込みは文脈が異なっていたとしても類似する傾向がある。このため, 文脈化単語埋め込みに基づくクラスタリングを行うとき,異なる意味の動詞の用例であっても同じ動詞であれば,1つのクラス夕にまとめられてしまう事例が多い。たとえば,FrameNetから動詞「get」と「acquire」の用例を抽出し, 事前学習済み BERT (Devlin et al. 2019) を用いて「get」と「acquire」の文脈化単語埋め込みを獲得し, t-SNE (Maaten and Hinton 2008) によって 2 次元にマッピングした結果を図 1 左に示す.「get」が喚起するフレームのうち Getting フレームを喚起する「get」の埋め込みは, 図 1 動詞「get」と「acquire」の文脈化単語埋め込みの 2 次元マッピング. 左図が動詞の通常の埋め込み,右図がマスクされた動詞の埋め込みによる結果である.2つの図の間にある括弧付きの数字は表 1 の用例に対応し, +と・はそれぞれ動詞「get」と「acquire」の埋め込み, 各色は Arriving, Transition_to_state, Getting フレームを示す. 同じくGetting フレームを喚起する「acquire」の埋め込みに近い位置に分布する傾向はあるものの,動詞ごとにまとまって分布する傾向が強いことが確認できる。本研究ではこの問題を解消するため,フレーム推定対象の動詞をマスクしたときの文脈化単語埋め込みを利用する手法を提案する,具体的には,推定対象の動詞を“[MASK]” に置き換えたときの文脈化単語埋め込みを利用する。図 1 左と同様にして,マスクされた動詞の文脈化単語埋め込みを 2 次元にマッピングした結果を図 1 右に示す。マスクを用いた埋め込みの場合,動詞の表層的な情報が限定的となり,同じフレームを喚起する動詞の埋め込みが近い位置に分布することが確認できる. 2 つ目の欠点は, 同じ動詞が喚起するフレームの異なり数は数個程度と限定的であるにも関わらず,その動詞の用例が多くの異なるクラスタに分かれる事例が多いことである。これは,動詞の埋め込みが外れ值となる場合,それぞれ別のクラスタに属するようにクラスタリングされるためである.このような事態を避けるため,本研究ではまず動詞ごとに用例のクラスタリングを行った後,フレーム単位でまとめるために動詞横断的にクラスタリングを行う 2 段階クラスタリング手法を提案する。 ## 2 関連研究 FrameNet などのフレーム知識リソースの構築や拡張は, 人手で整備されていることから多大なコストがかかる.このため,大規模なテキストコーパスからフレーム知識を自動構築する取り組みが行われている. Kawahara らは大規模な Webコーパスから動詞とその項を抽出し, Chinese Restaurant Process (Aldous 1985)を用いて,動詞ごとに意味の類似した項をまとめるクラスタリングを行うことで,動詞の意味フレームを獲得している (Kawahara et al. 2014). また, Ustalov らは大規模コーパスから動詞,主語,目的語から成る 3 つ組を収集し,それらの 3 つ組の文脈を考慮しない単語埋め込みを連結した表現に基づき,グラフベースのクラスタリングを行うことで実現している (Ustalov et al. 2018). しかし, これらの手法は, 大規模コーパスから動詞とその項を収集し,動詞や項の表層的な意味に基づきクラスタリングを行っているため, 動詞や項の文脈による意味の違いをほとんど考慮できていない。本研究で使用するように,文脈化単語埋め込みを利用することで,より高品質なフレーム知識の自動構築が期待できる. フレーム知識の自動構築において, 文脈化単語埋め込みを利用した取り組みが行われている. SemEval2019 の共有タスク (QasemiZadeh et al. 2019)では,動詞の意味フレーム推定や項の意味役割推定に対し, ELMo や BERT から獲得した文脈化単語埋め込みを用いた手法が提案されている. 特に, 動詞の意味フレーム推定に関して, Arefyev ら (Arefyev et al. 2019a), Anwar ら (Anwar et al. 2019), Ribeiro ら (Ribeiro et al. 2019)による手法が高いパフォーマンスを示すと報告されている. Arefyev らは, 推定対象の動詞の BERT から獲得した埋め込みを基に階層型クラスタリングを行い,その後,BERT を用いて対象動詞の言い換え単語を推定し,それら の単語を用いて各クラスタを 2 分するクラスタリングを行っている. この手法は, 本研究の提案手法と同様に 2 段階でクラスタリングしているが,1 段階目に動詞横断的なクラスタリングを行っており,我々が指摘する欠点を持つ. Anwar らは, skip-gram (Mikolov et al. 2013) による推定対象動詞の埋め込みと文全体の埋め込みを連結した表現を用いて階層型クラスタリングを行っている。 Anwar らは共有タスクのスコア提出後に,ELMoから獲得した埋め込みを用いた同様のモデルを検討し, skip-gram を用いたときより高いスコアが得られたと報告している. Ribeiro らは,推定対象動詞の ELMo による文脈化単語埋め込みを基に,グラフベースのクラスタリング (Biemann 2006) を行っている. 文脈化単語埋め込みは,動詞の意味フレーム推定タスクと類似した語義推定タスクにおいても有用であることが報告されている.Amrami らは,ELMoを用いて語義推定対象語の言い換え候補となる語の出現確率を算出し,それに基づき語義を推定している (Amrami and Goldberg 2018). Arefyev らは,推定対象語の前後の文脈情報をより考慮することで,Amrami らの手法を改善している (Arefyev et al. 2019b)。また, Amrami らは ELMoを BERT に置き換えることで,さらに高いパフォーマンスが得られたと報告している (Amrami and Goldberg 2019). 語義推定は同じ語の意味を識別する夕スクであるため,意味の似た異なる動詞をまとめることは考慮されていない。このため, これらの手法を動詞の意味フレーム推定に直接適用することは容易でない. ## 3 提案手法 本研究では,動詞の意味フレーム推定において,文脈化単語埋め込みとして動詞をマスクした場合の埋め込みを利用し, 動詞ごとの用例クラスタリングと動詞横断クラスタリングの 2 段階でクラスタリングを行う手法を提案する。 ## 3.1 マスクされた単語の埋め込みの利用 動詞の意味フレーム推定に用いる埋め込みとして,従来手法で使用された推定対象動詞の文脈化単語埋め込みに加え, その動詞をマスクした場合の文脈化単語埋め込みを利用する。近年, BERT などの多くの事前学習済みモデル (Devlin et al. 2019; Liu et al. 2019; Lan et al. 2020; He et al. 2020) では,テキストの一部の単語を特殊トークンである“[MASK]”などに置き換え,周囲の文脈からそのマスクされた単語の元単語を推定するマスク単語穴埋めタスクによる事前学習が行われている。この事前学習により,マスクされた単語埋め込みは,表層的な情報を抑えつつ周囲の文脈を考慮した埋め込みが獲得できていると考えられ,動詞横断的にフレームを推定する際に有用であることが期待される。 本研究では, 文脈化単語埋め込みとして BERT を利用する. BERT は Yamada ら (Yamada et al. 2021b) の文脈化単語埋め込みを用いた動詞のフレーム識別実験において高い評価スコアを獲得しており, 本研究においても有用と考えられる。具体的には, 以下の 3 種類の文脈化単語埋め込みを考える。 $v_{\text {word }}$ :フレーム推定対象動詞の通常の文脈化単語埋め込み $v_{\text {mask }}$ フレーム推定対象動詞を“[MASK]”に置き換えた場合の文脈化単語埋め込み $v_{\mathbf{w}+\mathbf{m}}$ : 式 (1) で定義される上記 2 つの加重平均 $ v_{\mathrm{W}+\mathrm{M}}=(1-\alpha) \cdot v_{\mathrm{WORD}}+\alpha \cdot v_{\mathrm{MASK}} $ $v_{\mathrm{W}+\mathrm{M}}$ は推定対象動詞をマスクした場合と, しない場合の文脈化単語埋め込みの加重平均である.開発セットを用いて重み $\alpha$ を適切に設定することにより,推定対象動詞の表層的な情報と周辺文脈から得られる情報を適切に考慮した埋め込みが得られることを期待している. $v_{\mathrm{W}+\mathrm{M}}$ は, $\alpha$ が 0 のときに $v_{\mathrm{WORD}}$ と一致し, $\alpha$ が 1 のときに $v_{\mathrm{MASK}}$ と一致する. ## 3.22 段階クラスタリング 動詞の意味フレーム推定で行うクラスタリングとして,1段階目に動詞ごとの用例クラスタリング, 2 段階目に動詞横断クラスタリングを行う 2 段階クラスタリングを提案する. 1 段階目のクラスタリングでは,同じ意味の同じ動詞の用例をまとめたクラスタが得られる.その後, 2 段階目のクラスタリングでは,同じ意味の異なる動詞の用例をまとめたクラスタが得られ,クラスタは FrameNet の意味フレームと対応するものとする。1 段階目のクラスタリングにおいて各動詞の用例を少数の意味ごとのクラスタにまとめておくことで, 同じ動詞の用例が多くの異なるクラスタに分割しないことを期待している. 図 2 に動詞「get」と「acquire」の用例を 2 段階クラスタリングしたときの流れを示す.この例では,まず,1 段階目のクラスタリングを行い,「get」の用例は 3 つのクラスタ,「acquire」の用例は 1 つのラスタにまとめられている。次に,1段階目でまとめられたクラスタ内で埋め込みの平均を算出し, 2 段階目のクラスタリングで用いる埋め込みを作成している. 最後に, 2 段階目のクラスタリングを行い,「get」のクラスタのうちの1つと「acquire」のクラスタがマー ジされ, 3 つのクラスタとなっている. 以下では, 各クラスタリングの詳細について説明する. 1. 動詞ごとの用例クラスタリング 1段階目のクラスタリングは, 各動詞の用例をその動詞の意味ごとにまとめることを目的とする。このクラスタリングの対象となる動詞は共通であるため, 文脈化単語埋め込みとして $v_{\text {WORD }}$ を用いる場合と, $v_{\text {MASK }}$ を用いる場合で結果に大きな違いはないと考えられる 1 .このため,1 段階目のクラスタリングでは $v_{\text {MASK}}$ のみを用いる. クラスタリング手法は, X-means (Pelleg and Moore 2000), またはユークリッド距離に基づく群平均  1段階目:動詞ごとの用例クラスタリング ## 2段階目:動詞横断 クラスタリング 図 22 段階クラスタリングの流れ. 左上, 左下図はそれぞれ動詞「get」と「acquire」を対象とした 1 段階目の動詞ごとの用例クラスタリング, 中図は 1 段階目のクラスタリングで構築したクラスタ内の埋め込みの平均の算出, 右図は 2 段階目の動詞横断クラスタリングを示している. 各図における + と・は用例中の「get」と「acuquire」の埋め込みを表す. 法による階層型クラスタリングを用いる.X-means は,全ての用例を 1 つのクラスタにした状態から,クラスタ数 2 の K-means を繰り返し行い,ベイズ情報量基準 (BIC) (Schwarz 1978) に基づき自動的にクラスタリングを終了する手法である。一方, 群平均法は, クラスタ間の全要素ぺアの平均距離をクラスタ間距離として定義し, クラスタ間距離の小さいクラスタペアから順にマージする手法であるが,自動的にクラス夕数を決められない。このため,群平均法ではクラスタリングの終了基準が必要である。本研究では, クラスタ間距離が間値 $\theta$ 以下となるクラスタペアがなくなった時点を終了基準とする。閥値 $\theta$ は全動詞で共有され,十分に大きな值に設定した場合,すべての動詞のクラスタはそれぞれ 1 つとなる. 閾値 $\theta$ を十分に大きな値から徐々に小さくしていき, 全動詞のクラスタ数の平均が, 開発セットにおける各動詞が喚起するフレームの異なり数の平均と最も近い值に設定する. FrameNet (Baker et al. 1998; Ruppenhofer et al. 2016) では,意味フレームとそのフレームを喚起する語を結び付けたものを語彙項目 (Lexical Unit; LU) と呼ぶ.動詞「get」の場合, get- Arriving, get-Transition_to_state, get-Getting がLUにあたる. 1段階目のクラスタリングにより構築されたクラスタは, 各動詞の用例を,その動詞が喚起するフレームごとにまとめたものであることから,各クラス夕は LUに対応する集合とみなすことができる。 そこで,本研究では 1 段階目のクラスタリングで構築されたクラスタを疑似 LU (pseudo-LU; pLU) と呼ぶことにする。 2. 動詞横断クラスタリング 2 段階目のクラスタリングでは, 1 段階目のクラスタリングで構築された $\mathrm{pLU}$ に対して, 動詞横断的にクラスタリングすることで, 同じ意味フレームを喚起する異なる動詞の用例をまとめることを目的とする。ここでは,まず,pLUごとに動詞の埋め込みの平均を算出する. その後, 得られた埋め込みに基づき, 動詞横断的にクラスタリングを行う.クラスタリング手法は,ユークリッド距離に基づく群平均法,またはウォード法による階層型クラスタリングを用いる. これらの手法は共にクラスタリングの終了基準が必要である。単純な基準として,フレーム数と動詞数の比率を用いることが考えられるが,フレームの種類数は上限があり,フレーム数は動詞数に対して線形に増加しないため, 終了基準として適切ではない. そこで, 本研究では, 開 割合を用いた基準を提案する。具体的には, $\mathrm{pLU}$ ぺアが同じクラスタに属する割合 $P_{\mathrm{C}_{1}=\mathrm{C}_{2}}$ が,開発セットにおける $\mathrm{LU}$ ペアが同じフレームに属する割合 $P_{\mathrm{F}_{1}=\mathrm{F}_{2}}$ 以上となった時点でクラスタリングを終了する. $P_{\mathrm{F}_{1}=\mathrm{F}_{2}}$ は式 $(2)$ により算出される。一方, $P_{\mathrm{C}_{1}=\mathrm{C}_{2}}$ も同様に計算できるが, 全ての $\mathrm{pLU} ゚ ア$ 数はクラスタリングの段階に依らず一定であるのに対し, 同じクラスタに属する $\mathrm{pLU}$ ペア数はクラスタリングが進むにつれて単調増加し,全体が1つのクラスタとなった時点で 1 となる.このため, クラスタリングの過程で $P_{\mathrm{F}_{1}=\mathrm{F}_{2}}$ 以上の値となることが保証される。また,無作為に抽出した LUペアが同じフレームに属する確率はデータサイズに依らないことから, このような基準はテストセットのサイズに依らず有効であると考えられる. $ p_{\mathrm{F}_{1}=\mathrm{F}_{2}}=\frac{\text { 同じフレームに属する } \mathrm{LU} \text { ペア数 }}{\text { 全ての } \mathrm{LU} \text { ペア数 }} $ ## 4 実験 マスクされた単語埋め込みと 2 段階クラスタリングを用いた提案手法の有用性を確認するため,動詞の意味フレーム推定タスクによる実験を行った。 ## 4.1 実験設定 データセット FrameNet $1.7^{2}$ (Ruppenhofer et al. 2016) から,いずれかのフレームにおいて 20  件以上の用例が存在する動詞,および該当する $\mathrm{LU}$ の用例を抽出し,実験に使用した.LUごとの用例数は上限 100 件とし,それを越える場合は無作為に 100 件を選択し用いた。全部で 1272 動詞が抽出され,そのうち $20 \%$ の 255 動詞を開発セット,残りの 1017 動詞をテストセットとして使用した。この際,文脈に応じて異なるフレームを喚起する動詞 ${ }^{3}$ 割合が開発セットとテストセットで一致するように注意した,なお,開発セットは $v_{\mathrm{w}+\mathrm{M}}$ の重み $\alpha^{4}$ ,クラスタ数,および文脈化単語埋め达みとして使用する BERT の層の決定に利用した 5 . 表 2 に作成したデー タセットの統計値を示す。全体のフレーム数が開発セットとテストセットのフレーム数の和より小さな数になっているのは, 開発セットとテストセットは動詞単位で分割していることから, それぞれに含まれるフレームは一部重複するためである。 評価尺度評価尺度として, B-Cubed Precision (BCP), B-Cubed Recall (BCR),およびその調和平均である B-Cubed F-score (BCF) (Bagga and Baldwin 1998) と, Purity (PU), Inverse Purity (IPU),およびその調和平均である F-score (PIF) (Zhao and Karypis 2001)の6つを利用した.B-Cubed はクラスタ集合とラベル集合のサンプルの分布に着目した評価指標である。 クラスタにラベルを割り当てず,サンプルごとで Precision と Recallを計算し,その調和平均によってクラスタリング評価を行う.Purity はクラスタが単一のラベルで占められている度合い, Inverse Purity は単一のラベルが1つのクラスタに集中している度合いを評価する指標である. SemEval2019 の共有タスク (QasemiZadeh et al. 2019)では,BCF を基準にシステムの順位を決定している. 比較モデル提案手法では,文脈化単語埋め込みとして Hugging Face が公開している Transformers $^{6}$ (Wolf et al. 2020) に含まれる事前学習済みの BERT (bert-base-uncased) を利用した 7 . クラスタリング手法に関しては,1 段階目のクラスタリングとして群平均法による階層型クラスタリングまたは X-means の 2 種類を,2 段階目のクラスタリングとしてウォード法または 表 2 FrameNet を用いたデータセット  群平均法による階層型クラスタリングの 2 種類をそれぞれ利用し, これらの組み合わせた計 4 種類のモデルを比較した。また,各動詞の用例集合をそれぞれ1クラスタとして扱うモデル (1-cluster-per-verb; 1cpv), 各動詞の用例集合をそれぞれ 1 クラスタ (1cpv')とした上で, 2 段階目のクラスタリングを行うモデルとも比較した. SemEval2019 の共有タスクのスコアの高かった上位 3 つの従来研究のモデルとの比較も行った. Arefyevらは,推定対象動詞の BERT の埋め込みを用いて,そのコサイン類似度に基づく群平均法による階層型クラスタリングを行った後に,BERT を用いて獲得した推定対象動詞の言い換え単語による tf-idf ベースの特徴量を作成して,各クラスタを 2 分するクラスタリングを行っている (Arefyev et al. 2019a). また,開発時とテスト時の差をなくすために,開発セットとテストセットを統合してクラスタリングを行っている。開発時には,開発セットのフレームラベルのみを用い,1段階目のクラスタリング終了基準となるクラスタ数と,使用する BERT の埋め込みの層を BCF を基準に決定している. Anwar らは, skip-gram で推定対象動詞の埋め込みと文全体の埋め込みを連結した表現を用い,そのマンハッタン距離に基づく群平均法による階層型クラスタリングを行っている (Anwar et al. 2019). 開発時には,クラスタリング終了基準となるクラスタ間距離を BCF を基に決定している. Rebeiro らは,推定対象動詞の ELMoの埋め込みを獲得し, Chinese Whispers (Biemann 2006)によるグラフクラスタリングを行っている (Ribeiro et al. 2019). Chinese Whispers はクラスタ数を自動的に決定する手法であるため,開発セットによるハイパーパラメータを調整する必要はない. さらに,2 段階クラスタリングの有用性を確認するため,1段階でクラスタリングを行うモデルとの比較も行った,1段階クラスタリングに基づくモデルでは,提案モデルと同様に,文脈化単語埋め込みとして $v_{\mathrm{W}+\mathrm{M}}$ を使用し,重み $\alpha$ を開発セットにより調整し, ウォード法または群平均法による階層型クラスタリングを用いた。ここで指定したクラスタ数は, データセット中のフレーム数とし, クラスタ数がフレーム数と一致した時点でクラスタリングを終了した. ## 4.2 実験結果 表 3 に実験結果を示す. SemEval2019の共有タスクにおいてシステムの順位付けに使用された BCF で比較した場合,1段階目にX-means, 2 段階目に群平均法を用いた手法のスコアが 63.4 となり,全手法の中で最も高いスコアを達成した,PIFにおいても最も高いスコアである 71.9 を達成しており, 有用な手法であるといえる。また,2 段階目のクラスタリングの終了基準に関しても,テストセット中のフレーム数は 393 であるのに対してクラスタ数は 410 であり,有効に機能していることが確認できる. マスクされた単語の埋め込みの有用性 2 段階クラスタリングに基づくモデルの多くは $\alpha$ が 0.0 と 1.0 以外の値となっていることから, $v_{\mathrm{WORD}}$ と $v_{\mathrm{MASK}}$ の両方を考慮することの有効性が確認できる。また,多くのモデルで $\alpha$ は 1.0 に近い値となっており,2 段階目の動詞横断クラスタリン } & 1 段階目 & 2 段階目 & & & & & \\ 表 3 動詞の意味フレーム推定実験の結果. $\alpha$ は $v_{\mathrm{w}+\mathrm{M}}$ の重み,\# $\mathrm{pLU}$ は 1 段階目のクラスタリング後の $\mathrm{pLU}$ 数, $\# \mathrm{C}$ は最終的に得られたクラスタ数を表す. グにおいて $v_{\mathrm{MASK}}$ が有用であることがわかる. 一方,1段階クラスタリングに基づくモデルにおける $v_{\mathrm{W}+\mathrm{M}}$ は, $\alpha$ が 0.0 で $v_{\mathrm{WORD}}$ と同等な埋め込みとなっている。すなわち, 用例全体でクラスタリングする場合, $v_{\mathrm{MASK}}$ の有用性は確認できなかった。これは動詞全体で一度にクラスタリングを行う場合, 異なる動詞の用例をまとめることよりも,同じ動詞の用例をまとめることを優先した方がスコアが高くなるためであると考えられる。また, $v_{\mathrm{MASK}}$ は同じ“[MASK]” トークンの埋め込みであることから, $v_{\mathrm{WORD}}$ と比較して多くの動詞の埋め込みが類似していると考えられる。このため, 異なる意味の動詞の用例であっても同じクラスタに含まれる傾向がある。加えて,1段階クラスタリングでは,類似した用例集合による動詞の埋め込みの平均ではなく,単独の動詞の埋め込みを利用するため,その影響をより受けやすくなっていると考えられる。 2 段階クラスタリングの有用性 2 段階目に群平均法を用いたモデルのスコアが全体的に高く, 1 段階でクラスタリングを行う手法と比較しても 10 ポイント前後高いスコアを達成している. このことから 2 段階クラスタリングが有用であるといえる. 1段階目のクラスタリングに関して, 1cpv'の後に群平均法を利用するモデルよりも,X-means の後に群平均法を利用したモデルのスコアが 2.9 ポイント高いことが確認できる。ただし, 1 段階目に群平均法,2段階目に群平均法を利用したモデルは,1cpv'の後に群平均法を利用するモデルよりも 0.4 ポイント低く, 必ずしも 1 段階目のクラスタリングが有用であるという結果は得られなかった。しかしながら,本実験では,用例数の少ないLU を利用していないことから全体的に複数のフレームを喚起しうる動詞が少なくなっているが,実際に大規模なテキストコー パスからフレーム知識を構築する場面では, 文脈に応じて意味の異なる動詞の数が増えるため, 1 段階目のクラスタリングが有用となる可能性があると考えている。これらのクラスタリング法について,4.3節においても言及する. 2 段階目のクラスタリングに関して,2段階目にウォード法を用いたモデルは,2 段階目に群平均法を用いたモデルより 10 ポイント以上低いスコアとなっている. これは本タスクで構築したいクラスタとウォード法から構築するクラスタの傾向が異なることが要因であると考えられる. ウォード法では,クラスタサイズの大きいクラスタペアほど結合しにくくなる特徴により,同程度のサイズのクラスタを多く構築する傾向がある。一方で, FrameNetにおけるそれぞれのフレームを喚起する動詞数の分布はロングテールとなっている。これらの違いがスコアの低下につながっていると考えられる。このことについて, 4.4 節でさらに言及する. 提案手法によって得られたクラスタの例提案手法によって構築されたクラスタが意味フレー ムをどれほど表現できているかを確認するために,実験で最もスコアの高かった,1段階目に X-means, 2 段階目に群平均法を用いたモデルによるクラスタリング結果の一部を示す. 表 4 に, クラスタ内の合計動詞数の多い上位 5 クラスタを示し, また, 表 5 に, データセット中のフレー ム内の合計動詞数の多い上位 5 フレームを示す. 表 4 より, クラスタ内の合計動詞数の最も多いクラスタ IDが 139 のクラスタでは, 自ら移動することを意味する Self_motion フレームを喚起する動詞の用例を中心にクラスタが構築されていることが確認できる. Self_motion フレームはデータセットにおいて最も多くの種類の動詞が喚起するフレームであり,それを反映したクラスタリング結果が得られている.他のフレームに関して, Motion フレームは Self_motion フレームの上位フレーム8であり, また, Operate_vehicle, Motion_noise, Body_movement フレームの上位フレームでもある. すなわち, このクラスタは Self_motion フレーム,およびそのフレームと関係の深いフレームを喚起する動詞の用例がまとまっていることを意味し, 動詞の意味に合わせてクラスタが構築できていることがわかる。また, 表 5 に Self_motion フレームを喚起する動詞の用例の属しているクラスタを示しているが, クラスタ IDが139のクラスタにおいて, Self_motion フレームが付与された動詞 71 個のうち 57 個をまとめることに成功していることが確認された. 表 4 より,クラスタ ID が 232 のクラスタはクラスタ内の用例中の動詞はすべて同じ Experiencer_obj フレームを喚起するものとなっており,フレームに対応したクラスタが形成されていることが確認できる。このように,単独のフレームに対応したクラスタが形成された理由は 2 つある考えられる.1つは,Experiencer_objフレームは何らかの事象により人などの生物が感情を引き起こすことを意味するフレームであるが,上位下位関係にあるフレームが感情に関する Emotions フレームのみであり関係の深いフレームが少ないことである.このため, フ ^{8}$ FrameNet では, 一部のフレーム間に継承などの階層関係が定義されている.詳しくは Ruppenhofer らの文献に記載されている (Ruppenhofer et al. 2016). } \\ 表 4 1 段階目に X-means, 2 段階目に群平均法を用いたモデルによるクラスタリング結果. クラスタ内の合計動詞数の多い上位 5 クラスタを示す. クラスタ内で最も動詞数の多いフレームをそのクラス夕の代表フレームとし, †は代表フレームの上位にあたるフレーム, は代表フレームと下位にあたるフレーム,† は代表フレームと共通の上位フレームを持つフレームであることを意味する。 レームの曖昧さによる影響を受けづらい。もう 1 つは,このフレームを喚起する動詞は感情に関するもののみであることから,動詞そのものの意味が類似しているものが多く,また,構文が類似する傾向がある。このような理由で,Experiencer_obj フレームを喚起する動詞の文脈化単語埋め込みの類似度が高いと考えられる。また, 表 5 から Experiencer_obj フレームが付与された動詞 47 個のうち 35 個をまとめており,適切にクラスタが構築できていることがわかる. Experiencer_obj フレームは, Self_motion フレームより最大クラスタに属さない動詞も他のクラ 表 51 段階目に X-means, 2 段階目に群平均法を用いたモデルによるクラスタリング結果. FrameNetを用いたデータセット中のフレーム内の合計動詞数の多い上位 5 フレームを示す. スタでまとまる傾向が見られるため,他のフレームより推定しやすいフレームであると考えられる。 表 4 より, クラスタ ID が 319 のクラスタは Statement フレームを喚起する動詞を中心にクラスタが形成されている。しかし, このクラスタでは 15 種類のフレームがそれぞれ付与された動詞の用例がクラスタ内に含まれている。これには大きく 2 つの理由が考えられる. 1 つは,クラ スタ IDが 139 のクラスタと同様に,クラスタ内の代表的なフレームと関係の深いフレームが同じクラスタとしてまとまってしまったという理由である. Statement フレームは話し手から聞き手に向けてメッセージを伝えることを意味するフレームであるが,クラスタ内に含まれている Reveal_secret, Complaining, Affirm_or_deny, Telling フレームは, Statement フレームの下位の関係にあたり,より具体的な状況を意味することから同じクラスタに属していると考えられる。もう 1 つは,1段階目のクラスタリングにおいて,同じ動詞の用例間のフレームを識別できず,異なるフレームを喚起する動詞の用例を 1 つのクラスタにまとめてしまい,最終的に同じクラスタになったという理由である。このクラスタでは, 動詞「say」,「suggest」,「mention」,「confide」,「urge」,「argue」,「conclude」がそれに該当する. ## 4.31 段階目のクラスタリングに関する考察 2 段階クラスタリングにおいて,2 段階目に群平均法を用いたモデルのスコアが高い傾向にあった。その 1 段階目のクラスタリング手法を比較すると,群平均法を用いたモデルは, X-means を用いたモデルよりもスコアが低く, 1 cpv'モデルと同等のスコアを示すことが確認された。これには大きく2つの理由が考えられる。 1 つは,外れ値の影響を受けたクラスタを構築する傾向があることである.たとえば,図 3 にクラスタリング結果を付与した, 動詞「lead」の埋め込みの t-SNE による 2 次元マッピングを 群平均法 X-means 図 31 段階目に群平均法(左)または X-means (右),2 段階目に群平均法を用いたモデルのクラスタリング結果を付与した, 動詞「lead」のマスクされた動詞の BERT から獲得した埋め込みの t-SNE による 2 次元マッピング. 各色は Leadership, Cotheme フレームを示し, 数字は 2 段階クラスタリングによって得られた最終的なクラスタのクラスタ ID を示す. 示す. 図 3 からわかるように,X-means を用いたモデルは動詞が喚起するフレームごとに適切にクラスタが構築されている。一方で,群平均法を用いたモデルは 2 つのクラスタがあるものの,片方はほとんどの用例が 1 つのクラスタにまとまっており,適切にクラスタが構築されていない. これは群平均法がクラスタを結合する際に,クラスタサイズを考慮しないことが要因である可能性が高い.群平均法を用いたモデルでは,このような事例が複数確認されたことから,スコアが低くなっていると考えられる。 もう 1 つは, 特定のフレームしか喚起しない動詞であるにも関わらず, その動詞の用例が複数のクラスタに分かれてしまうことである。実験に用いたテストセットの中には, 特定のフレー ムしか喚起しない動詞が 875 個存在する. X-means を用いた場合, 875 個全ての動詞において, その用例がそれぞれ 1 つのクラスタまとまった一方で, 群平均法を用いた場合, 87 個の動詞でその用例が複数のクラスタに分かれた。これは郡平均法におけるクラスタ数の決定方法に影響されていると考えられる.郡平均法では,各動詞が喚起するフレームの異なり数の平均を基準としてクラスタリングを終了させているため, ある動詞のフレームの識別度合いが他の動詞のフレーム識別に影響を及ぼす。たとえば,複数の意味を持つ動詞の意味フレームを識別できずに1つのクラスタとなった場合,特定の意味しか持たない動詞のクラスタが分割される可能性が高い.このため, 1 段階目に群平均法を用いたモデルのスコアが低くなっていると考えられる。 ## 4.42 段階目のクラスタリングに関する考察 2 段階クラスタリング手法では,2 段階目にウォード法を用いたモデルの方が, 2 段階目に群平均法を用いたモデルよりも全体的にスコアが低くなった。この1つの要因として, 各クラス夕の大きさが,データセット中の各フレームの傾向を十分に反映していないことが考えられる.具体的には,各クラスタに含まれる動詞数の分布が,データセット中の各フレームを喚起する動詞数の分布とは異なっていると考えられる。これを検証するために,1段階目にX-means, 2 段階目にウォード法または群平均法を用いたモデルを使用し, 得られた各クラスタの動詞数の分布とデータセット中の各フレームを喚起する動詞数の分布と比較した. 図 4 にデータセット中の各フレームを喚起する動詞の異なり数と,2つのモデルによって得られた各クラスタに含まれる動詞数の分布を示す。縦軸は各フレームを喚起する動詞数および各クラスタに含まれる動詞の異なり数,横軸はそれらを動詞数が多い順に並び替えたときの順位を示している,各フレームを喚起する動詞数の多い上位 5 フレームは,表 5 に示すように, Self_motion, Experiencer_obj, Statement, Body_movement, Placingフレームである. これらのフレームを喚起する動詞はそれぞれ 71 個, 47 個, 26 個, 26 個, 24 個存在する.また, 1 段階目にX-means,2 段階目に群平均法を用いたモデルでは,クラスタ内に含まれる動詞数の多い上位 5 クラスタは,表 4 に示すように,クラスタ IDが $139,232,319,146,309$ のクラスタで 図 4 FrameNet を用いたデータセット中の各フレームを喚起する動詞の異なり数,および 1 段階目に X-means,2 段階目にウォード法または群平均法を用いたモデルによる各クラスタ内の動詞数.縦軸は各フレームを喚起する動詞の異なり数および各クラスタに含まれる動詞数,横軸はそれらを動詞数が多い順に並び替えたときの順位を示している. ある。これらのクラスタに含まれる動詞はそれぞれ 65 個, 35 個, 24 個, 23 個, 18 個存在する. 図 4 からわかるように,2段階目に群平均法を用いたモデルによる各クラス夕内の動詞数の分布が,データセット中の各フレームを喚起する動詞の異なり数の分布とかなり類似している.一方,2 段階目にウォード法を用いたモデルによる各クラスタに含まれる動詞数の分布は,デー タセット中の各フレームを喚起する動詞の異なり数の分布と異なることがわかる。これらの結果から, ウォード法はクラスタ内の動詞数が多いほど他のクラスタと結合しづらくなるため, このタスクには適しておらず,群平均法のようなクラスタ内の動詞数を考慮しない手法が動詞横断的なクラスタリングにおいて有用であると考えられる. ## 5 おわりに 本研究では, 動詞の意味フレーム推定において, マスクされた単語の埋め込みと 2 段階クラスタリングを用いた手法を提案した.FrameNetを用いた評価実験を行い,提案手法が従来手法より高いスコアを達成できることを示し,提案手法の有用性を確認した。具体的には,マスクされた単語埋め込みを用いることによって,同じフレームを喚起する異なる動詞の用例をよりまとめられるようになること,また,2 段階クラスタリングによって,同じ動詞の用例が多くのクラスタに分割されることを防ぐことを示した。 本研究の最終目標は,実用的な意味処理を支援するために,大規模コーパスからフレーム知 識を自動構築することである、フレーム知識を自動構築するためには,動詞の意味フレーム推定に加えて, フレーム要素推定が必要となる. 従来研究 (Kawahara et al. 2014; Ustalov et al. 2018) におけるフレーム要素は,動詞に対して同じ依存関係ラベルが付与されたものとしている.しかし, 動詞との依存関係が同じ語であっても意味役割の異なるものや, 依存関係が異なっていても意味役割が同じものは存在する。文脈化単語埋め込みは周囲の文脈を考慮していることから, 意味役割の違いを認識し, このような事例に対応できる可能性がある.今後の課題として,依存関係ラベルより的確な単位である意味役割に基づいたフレーム要素の推定手法を検討したい. また, 本研究では FrameNet を用いたデータセットに対する動詞の意味フレーム推定に取り組んでいる。しかし, 大規模コーパスに対して, 提案手法を単純に適用できるとは限らない. たとえば,FrameNetの用例は,フレームや意味役割が人手でラベル付けされたものであるが,大規模コーパスの中には人手でさえラベル付けることが難しい事例が存在すると考えられる。このような事例の対処法を検討したい. ## 謝 辞 本論文の一部は, The 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing で発表したものである (Yamada et al. 2021a). また, 本研究の一部は JSPS 科研費 $21 \mathrm{~K} 12012$ の助成, および, JST 及び名古屋大学による名古屋大学融合フロンティアフェローシップの支援を受けたものである. ## 参考文献 Aldous, D. J. (1985). "Exchangeability and Related Topics." In École d'Été de Probabilités de Saint-Flour XIII-1983, pp. 1-198. Amrami, A. and Goldberg, Y. (2018). "Word Sense Induction with Neural biLM and Symmetric Patterns." In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing (EMNLP 2018), pp. 4860-4867. Amrami, A. and Goldberg, Y. (2019). "Towards Better Substitution-based Word Sense Induction." arXiv preprint arXiv:1905.12598. Anwar, S., Ustalov, D., Arefyev, N., Ponzetto, S. P., Biemann, C., and Panchenko, A. (2019). "HHMM at SemEval-2019 Task 2: Unsupervised Frame Induction using Contextualized Word Embeddings." In Proceedings of the 13th International Workshop on Semantic Evaluation (SemEval 2019), pp. 125-129. Arefyev, N., Sheludko, B., Davletov, A., Kharchev, D., Nevidomsky, A., and Panchenko, A. (2019a). "Neural GRANNy at SemEval-2019 Task 2: A Combined Approach for Better Modeling of Semantic Relationships in Semantic Frame Induction." In Proceedings of the 13th International Workshop on Semantic Evaluation (SemEval 2019), pp. 31-38. Arefyev, N., Sheludko, B., and Panchenko, A. (2019b). "Combining Lexical Substitutes in Neural Word Sense Induction." In Proceedings of the International Conference on Recent Advances in Natural Language Processing (RANLP 2019), pp. 62-70. Bagga, A. and Baldwin, B. (1998). "Entity-Based Cross-Document Coreferencing Using the Vector Space Model." In Proceedings of the 36th Annual Meeting of the Association for Computational Linguistics and 17th International Conference on Computational Linguistics (COLING 1998), pp. 79-85. Baker, C. F., Fillmore, C. J., and Lowe, J. B. (1998). "The Berkeley FrameNet Project." In Proceedings of the 36th Annual Meeting of the Association for Computational Linguistics and 17th International Conference on Computational Linguistics (ACL-COLING 1998), pp. 86-90. Biemann, C. (2006). "Chinese Whispers: An Efficient Graph Clustering Algorithm and its Application to Natural Language Processing Problems." In Proceedings of TextGraphs: The 1st Workshop on Graph Based Methods for Natural Language Processing (TextGraphs 2006), pp. 73-80. Das, D., Chen, D., Martins, A. F. T., Schneider, N., and Smith, N. A. (2014). "Frame-Semantic Parsing." Computational Linguistics, 40 (1), pp. 9-56. Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT 2019), pp. 4171-4186. Fillmore, C. J. (1982). Frame Semantics. Hanshin Publishing Company. He, P., Liu, X., Gao, J., and Chen, W. (2020). "DeBERTa: Decoding-enhanced BERT with Disentangled Attention." arXiv preprint arXiv:2006.03654. Kawahara, D., Peterson, D., Popescu, O., and Palmer, M. (2014). "Inducing Example-based Semantic Frames from a Massive Amount of Verb Uses." In Proceedings of the 14th Conference of the European Chapter of the Association for Computational Linguistics (EACL 2014), pp. 58-67. Lan, Z., Chen, M., Goodman, S., Gimpel, K., Sharma, P., and Soricut, R. (2020). "ALBERT: A Lite BERT for Self-supervised Learning of Language Representations." In Proceedings of the International Conference on Learning Representations (ICLR 2020). Liu, S., Chen, Y., He, S., Liu, K., and Zhao, J. (2016). "Leveraging FrameNet to Improve Automatic Event Detection." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (ACL 2016), pp. 2134-2143. Liu, Y., Ott, M., Goyal, N., Du, J., Joshi, M., Chen, D., Levy, O., Lewis, M., Zettlemoyer, L., and Stoyanov, V. (2019). "RoBERTa: A Robustly Optimized BERT Pretraining Approach." arXiv preprint arXiv:1907.11692. Maaten, L. v. d. and Hinton, G. (2008). "Visualizing Data using t-SNE." Journal of Machine Learning Research, 9, pp. 2579-2605. Mikolov, T., Sutskever, I., Chen, K., Corrado, G. S., and Dean, J. (2013). "Distributed Representations of Words and Phrases and their Compositionality." In Advances in Neural Information Processing Systems (NIPS 2013), pp. 3111-3119. Pelleg, D. and Moore, A. (2000). "X-means: Extending K-means with Efficient Estimation of the Number of Clusters." In Proceedings of the 17th International Conference on Machine Learning (ICML 2000), pp. 727-734. Peters, M., Neumann, M., Iyyer, M., Gardner, M., Clark, C., Lee, K., and Zettlemoyer, L. (2018). "Deep Contextualized Word Representations." In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT 2018), pp. 2227-2237. QasemiZadeh, B., Petruck, M. R. L., Stodden, R., Kallmeyer, L., and Candito, M. (2019). "SemEval-2019 Task 2: Unsupervised Lexical Frame Induction." In Proceedings of the 13th International Workshop on Semantic Evaluation (SemEval 2019), pp. 16-30. Ribeiro, E., Mendonça, V., Ribeiro, R., Martins de Matos, D., Sardinha, A., Santos, A. L., and Coheur, L. (2019). "L2F/INESC-ID at SemEval-2019 Task 2: Unsupervised Lexical Semantic Frame Induction using Contextualized Word Representations." In Proceedings of the 13th International Workshop on Semantic Evaluation (SemEval 2019), pp. 130-136. Ruppenhofer, J., Ellsworth, M., Schwarzer-Petruck, M., Johnson, C. R., and Scheffczyk, J. (2016). FrameNet II: Extended Theory and Practice. International Computer Science Institute. Schwarz, G. (1978). "Estimating the Dimension of a Model." The Annals of Statistics, 6 (2), pp. 461-464. Swayamdipta, S., Thomson, S., Dyer, C., and Smith, N. A. (2017). "Frame-Semantic Parsing with Softmax-Margin Segmental RNNs and a Syntactic Scaffold." arXiv preprint arXiv:1706.09528. Ustalov, D., Panchenko, A., Kutuzov, A., Biemann, C., and Ponzetto, S. P. (2018). "Unsupervised Semantic Frame Induction using Triclustering." In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (ACL 2018), pp. 55-62. Wolf, T., Debut, L., Sanh, V., Chaumond, J., Delangue, C., Moi, A., Cistac, P., Rault, T., Louf, R., Funtowicz, M., Davison, J., Shleifer, S., von Platen, P., Ma, C., Jernite, Y., Plu, J., Xu, C., Scao, T. L., Gugger, S., Drame, M., Lhoest, Q., and Rush, A. M. (2020). "Transformers: State-of-the-Art Natural Language Processing." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations (EMNLP 2020), pp. 38-45. Yamada, K., Sasano, R., and Takeda, K. (2021a). "Semantic Frame Induction using Masked Word Embeddings and Two-Step Clustering." In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (ACL-IJCNLP 2021), pp. 811-816. Yamada, K., Sasano, R., and Takeda, K. (2021b). "Verb Sense Clustering using Contextualized Word Representations for Semantic Frame Induction." In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021 (ACL-IJCNLP 2021 Findings), pp. 4353-4362. Zhao, H., Li, R., Li, X., and Tan, H. (2020). "CFSRE: Context-aware based on Frame-Semantics for Distantly Supervised Relation Extraction." Knowledge-Based Systems, 210. 106480. Zhao, Y. and Karypis, G. (2001). "Criterion Functions for Document Clustering: Experiments and Analysis." Tech. rep., Retrieved from the University of Minnesota Digital Conservancy. ## 略歴 山田康輔:2021 年名古屋大学大学院情報学研究科博士前期課程修了. 同年,同大学院同研究科博士後期課程に進学. 2022 年より日本学術振興会特別研究員 (DC2). 笹野遼平:2009 年東京大学大学院情報理工学系研究科博士課程修了. 京都大学特定研究員, 東京工業大学助教を経て, 2017 年より名古屋大学准教授. 博士 (情報理工学)。2019 年より理化学研究所 AIP センター客員研究員を兼任. 武田浩一:1983 年京都大学大学院工学研究科情報工学専攻修士課程修了. 同年日本アイ・ビー・エム株式会社に入社. 2017 年より名古屋大学教授. 博士 (情報学).
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 雑談対話システムにおける対話破綻を生じさせる発話の類型化 東中竜一郎 $\dagger \cdot$ 荒木 雅弘 ${ }^{\dagger \dagger} \cdot$ 塚原 裕史 ${ }^{\dagger \dagger} \cdot$ 水上 雅博 ${ }^{+\dagger \dagger}$ } 本稿では,雑談対話システムにおける対話破綻を生じさせる発話の類型を提案する.対話破綻の類型に関して先行研究では,「理論に基づいた類型」と「データに基づい た類型」が提案されてきた. 前者は, 依拠している人どうしの対話についての理論 が,雑談対話システムの対話破綻現象を捉えるのに適さないことが多いという問題点がある.後者は,データを取得したシステムの対話破綻にしか対応できないとい う限界がある。本稿では,これら二つの類型の問題点をそれぞれが補い合う形で統合し, 雑談対話システムにおける対話破綻を生じさせる発話の類型を新しく作成し た。対話破綻類型アノテーション実験の結果, この統合的な類型は以前に提案され た類型と比較して, Fleiss の $\kappa$ 值において高い一致率を達成し, 安定したアノテー ションが行えることがわかった. キーワード:雑談対話システム,対話破綻,エラー類型化 ## Classification of Utterances that Lead to Dialogue Breakdowns in Chat-oriented Dialogue Systems \author{ Ryuichiro Higashinaka ${ }^{\dagger}$, Masahiro Araki ${ }^{\dagger \dagger}$, Hiroshi Tsukahara ${ }^{\dagger \dagger \dagger}$ and \\ MASAHIRO MizUKAMI ${ }^{\dagger \dagger \dagger \dagger}$ } This study proposes a taxonomy of errors in chat-oriented dialogue systems. Previously, two taxonomies were proposed, one theory-driven and the other data-driven. The former suffers from the fact that dialogue theories for human conversation are often not appropriate for categorizing errors made by chat-oriented dialogue systems. The latter has limitations in that it can only cope with system errors for which data exist. This paper integrates these two taxonomies to create a comprehensive taxonomy of errors in chat-oriented dialogue systems. It was determined that, with our integrated taxonomy, errors can be reliably annotated with a higher Fleiss' kappa compared with the previously proposed taxonomies. Key Words: Chat-oriented Dialogue Systems, Dialogue Breakdown, Taxonomy of Errors  ## 1 はじめに 近年, 社会的側面から雑談対話システムが注目を集めている (Wallace 2009; Banchs and Li 2012; Higashinaka et al. 2014; Ram et al. 2018). 雑談対話システムの実装手法としてニューラルネットワークを用いた手法が広く研究されており, 有望な結果がいくつか得られている (Vinyals and Le 2015; Zhang et al. 2018; Dinan et al. 2019; Adiwardana et al. 2020; Roller et al. 2020). しかし, これらのシステムの性能はまだ満足できるものではなく, 対話破綻が生じるようなシステムのエラーがしばしば見られる. システムのエラーを減らす方法のひとつは, どのような種類のエラーが生じやすいのかを分析し,そのエラーを削減する手立てを考えることである。このような目的において,エラーの類型化は有用である。これまで,タスク指向対話システムにおいてはいくつかのエラー類型が提案されており (Dybkjær et al. 1996; Bernsen et al. 1996; Aberdeen and Ferro 2003; Dzikovska et al. 2009), システムの性能向上において効果を発揮してきた. 雑談対話システムにおいても同様のアプローチがなされてきており, 東中らは「理論に基づく類型」と「データに基づく類型」の二つの観点の異なる類型を提案している (Higashinaka et al. 2015a, 2015b) ${ }^{1}$. しかし, 前者の「理論に基づく類型」は, Griceの会話の公準 (Grice 1975) や隣接ぺアの概念 (Schegloff and Sacks 1973) など, 人どうしの対話を対象とした理論が元になっているため, 人とシステムとの対話において生じるエラーと適合しない点が多いという問題点があった。また後者の「データに基づく類型」は,分析に用いたデータのみから引き出されたエラー類型であり, 潜在的に生じ得るエラーや未知のシステムで生じる可能性があるエラーがカバーできていないという限界がある。これらの理由から, これらの類型はアノテーションの一致率が低いという問題や,エラーの概念化があまりうまくできていないという問題を抱えている (Higashinaka et al. 2019). 本稿では, 雑談対話システムにおける新しい対話破綻の類型を提案する。これまでに提案された二つの類型に基づいて, それぞれの類型の利点と欠点を明らかにしたうえで, 統合的な類型を作成した. そして, この統合的な類型の適切性をアノテーションの一致率を用いて評価したところ, Fleiss の $\kappa$ 値が専間作業者間で 0.567 , クラウドワーカー間で 0.488 となり, 既存の類型よりも高い值となった。また,アノテーションにおいて判断が困難とされた事例もほとんど見られなかった。このことから,統合的な類型はエラーの概念化が適切になされており, 雑談対話システムの分析に適するものになっているといえる.  ## 2 従来の類型とそれらの統合 東中らは雑談対話システムのエラーについて,「理論に基づく類型」(Higashinaka et al. 2015a) と「データに基づく類型」(Higashinaka et al. 2015b)の 2 種類を提案している. 「理論に基づく類型」は,対話における人どうしの協調的な振る舞いを説明する対話理論に基づき,対話理論が説明する原則から逸脱した現象をエラーとして位置づけている。それに対して「データに基づく類型」は,雑談対話システムの対話データの分析に基づいて典型的なエラーを抽出したものである。この類型では,対話破綻を生じさせたシステム発話に対してアノテータがそのエラー内容を説明するコメントを付与し,それらのコメントにクラスタリング手法を適用して,得られた個々のクラスタに名前を付与したものをエラー類型としている. ## 2.1 理論に基づく類型 「理論に基づく類型」 (Higashinaka et al. 2015a; 東中他 2016) は, 人どうしの協調的な対話の原則とされる Griceの会話の公準 (Grice 1975) に主として基づいている. Griceの会話の公準は,対話において一般的に成り立つ協調性の原則を,量・質・関連性・様態のそれぞれの観点から規定している。一方, 対話の構成要素をスコープの広さで分類すると, 発話・隣接ペア (Schegloff and Sacks 1973)・対話内文脈・対話外の環境となる. 協調性の原則とスコープは原則として直交する概念であるので, これらの組み合わせでエラー類型を規定できるとして考案されたものが,この類型である.ただし,協調性の原則とスコープの組み合わせにおいて,「発話」 に対する「関連性」の逸脱は定義できないので除かれている。また,分析に用いた対話デー夕中に観測された,人どうしの対話では現れない対話システム固有のエラーについては,該当するスコープ内に付け加えられている. この類型では,エラーの種類は表 1 に示す 16 種類となっている.大分類にスコープ, 小分類に主として Griceの会話の公準を位置づけた対応となっている. この類型は, アノテーションの一致率によって評価された. 具体的には, 対話破綻のアノテー ションが行われたデータを対象とし,特に対話破綻を引き起こすと考えられる発話に対して,エラーの種類を付与することで行われた。アノテーションの一致率(Fleissの $\kappa$ 值)は,大分類で 0.400, 小分類で 0.239 と低いものであったと報告されている (Higashinaka et al. 2015a). このように低い一致率となった原因としては, 評価に用いた人とシステムとの雑談対話において対話破綻が高頻度で起こっており,人を対話相手とする場合とは異なる振る舞いをユーザがした結果, 対話そのものが人どうしのものとはかなり異なったものになっていたということが考えられる。それゆえ, 人どうしの対話における協調性を前提とした理論がうまく当てはまらない対話であったにも関わらず, その観点からエラーを分類しようとしたため, アノテーションの一致率が結果として低くなったものと考えられる。このことを支持するデータとして, ひとつの対 & \\ 矛盾 & 基盤化欠如 (Lack of common ground) \\ & 非常識 & 一般常識欠如 (Lack of common sense) \\ 社会性欠如 (Lack of sociality) 表 1 理論に基づく類型 話中で最初に出現するエラー(小分類)に対するアノテーションの一致率が 0.32 であったのに対して, 2 回目以降のエラーに対するものは 0.19 であったことが報告されている (Higashinaka et al. 2019). ## 2.2 データに基づく類型 「データに基づく類型」(Higashinaka et al. 2015b) は,対話破綻アノテーション時に破綻発話に対して付けられたコメントをクラスタリングすることによって作成された。コメントを付与したアノテータは主として対話システムの研究者である. クラスタリングに際しては, 事前にクラスタ数を決めることが難しいことから,データに基づいてクラスタ数を自動的に決めることができるノンパラメトリックベイズの一手法である Chinese restaurant process (CRP) (Pitman 1995) が用いられている。約 1,500 のコメントを対象にクラスタリングを行った結果, 17 個のクラスタが得られ,これに基づいて表 2 に示すエラー類型が決められた。なお,類型名はクラスタ毎のコメントを人手で観察することによって決められている. このようにして決められた類型は, アノテーションの一致率に基づいて評価された (Higashinaka et al. 2019). その結果,「理論に基づく類型」よりもこの類型の方が Fleiss の $\kappa$ 値が高いことが報告されている. 近年, 同様の方法で作成された類型を用い, 対話システムの評価や改善を目指す研究も報告されている. Seeら (See and Manning 2021) は, 特定の対話システムのログにおけるユーザの 表 2 デー夕に基づく類型 ネガティブな反応からエラー類型を作成し,ユーザが不満を抱く原因の特定を図っている. しかし「データに基づく類型」は,類型作成時の対話データに大きく依存するという問題点がある。対話システムとの対話ログ分析の結果として得られた類型は,現在も進展を続ける技術の特定の時期におけるシステムの誤り傾向の分析に基づいていることになり,今後の技術の進展によって対話システムが異なる振る舞いを示したときに生じ得るエラーには適用できない可能性がある. ## 2.3 類型の統合手順 前節までの分析に基づき,我々は二つの類型を統合するという考えに至った。「理論に基づく類型」は人とシステムとの対話に対して適用が難しい状況があるが,「データに基づく類型」は理論が捉えきれていないそのような対話現象を適切に扱えることが期待できる。一方で,「デー 夕に基づく類型」がカバーできていない現象が潜在的・将来的にあり得るという欠点は,「理論に基づく類型」の考え方に基づいてより包括的な対話現象をカバーする方向で補える. このようにこれらの類型は統合することで,より良い類型となることが期待できる。 まず統合にあたり,既存類型が原則としているシングルラベルアノテーションからマルチラベルアノテーションへと枠組みを変更した。これは,たとえばユーザからの質問に答えないだけでなく,非常識な内容の発言を行うなど,ひとつのシステム発話が複数のエラーを含む可能性を考慮したものである。実際,「理論に基づく類型」の実験結果においてスコープをまたがる 混同が多く見られており (Higashinaka et al. 2015a), 複数のレベルで生じたエラーをカバーするためにマルチラベルアノテーションへの移行は必然であると考えた. 次に「理論に基づく類型」に対して,人とシステムの対話に当てはまりやすいように拡張を試みた。対話システムの起こすエラーは, Grice の会話の公準に基づいて判断できる不適切性をときとして大きく逸脱していることが観察されることから,大きく逸脱するケースを切り出して「形式」のエラーとして捉えることにした. そしてそれ以外を「内容」のエラーとして捉えることにした。なお,スコープについてはまずは大枠を残して考えた。 逸脱の仕方を表す「形式」においては,スコープの狭い順に,言語表現としての標準的な規範(発話レベル),隣接する発話の機能の関係 (Allen and Core 1997)(応答レベル),話題の関連性(文脈レベル), 社会的規範(環境レベル)を設定することとした。これらは人どうしの対話において通常守るべき形式を表しており,それらからの逸脱は検出しやすく,また概念化もしやすいと考えられる.あるエラーがこれらの形式からの逸脱に当てはまらない場合,「内容」 に問題があると考える。すなわち内容に関しては,当該スコープでの形式が守られているにもかかわらず,そのスコープに原因が存在して対話が破綻している現象を指すことと定義できる。 そして,「理論に基づく類型」と「データに基づく類型」のエラータイプを, 形式・内容とスコープで構成したフレームに当てはめた。ここで,「理論に基づく類型」において「環境」と規定されたスコープについては,我々の方針として守るべき形式として社会規範を導入したことから,「社会性」というスコープ名に置き換えていることに注意されたい。この当てはめの結果,大半のエラータイプは設定したフレームにうまく収まったが,一部のエラータイプはフレームにうまく収まるよう合併・削除・分割・追加が必要であった. 合併・削除については, 東中ら (Higashinaka et al. 2019)の指摘に基づき, 概念的に近い「表現エラー」と「用法エラー」を統合して発話レベルの形式のエラーとし, 曖昧性あるいは対話システムへの理解を必要とする観点からアノテーションが困難であると指摘されている「対話不成立」、「解析エラー」,「会話のずれ」は取り除いた。また,「データに基づく類型」において 「発話無視」とされていたものは, 典型的な隣接ぺアに応じて「依頼無視」「提案無視」「挨拶無視」に分割した(「質問無視」は既に用意されていた). このプロセスにおいて,応答レベルの「内容」に当てはまるエラーが見つからなかった。しかし, 応答の形式は守っているものの, 対話破綻が生じるような発話とはどのようなものかという議論から,「期待無視」(次節参照)のエラーを追加した,加えて,誤った情報を含む発話が, 常識欠如, 矛盾, 意図不明などに分散していると考えられたことから, そのような誤りを 「誤情報」のエラーとして切り出して,新規に追加した。 最後に,「理論に基づく類型」において「大分類-類型名」(例:応答一関係)のように呼ばれていたものを「「データに基づく類型」の呼び方に合わせて類型名のみでそのエラーがわかりやすくなり,かつ他のエラーとの区別がつきやすくなるように名称変更を行った. ## 3 統合的な類型 前章での議論に基づいて作成したエラー類型の統合案を表 3 に示す. エラー類型の種類は I1 から I17(I は Integrated の頭文字)までの計 17 種類となり,個々のエラー類型は対話におけるスコープと, 逸脱の種類(形式または内容)の組み合わせでグループ化される.以下では,個々のエラータイプの詳細を対話例(大半は実対話データ,一部作例)を示しながら説明する. ## 3.1 発話レベルのエラー ## 3.1.1 形式の逸脱 発話レベルにおける形式に関するエラーは,対話を行っている言語の形式からの逸脱を表す. 日本語としての妥当な文字列, 文構造をなしていないものがこのカテゴリに当てはまる. (I1) 解釈不能: 発話の意味内容がまったく理解できないような発話. たとえば,意味のない単語の羅列や誰も理解できないスラング, 断片的な発話など. (1) Withha (発話をどうにも解釈しようがない) (I2) 文法エラー: 文を構成する要素の欠落や誤用によって, 文意が汲み取れない発話. (2)熱中症に気をつけか?? ## 3.1.2 内容の逸脱 単語の意味的組合せの誤用により,内容が汲み取れない,あるいは明らかに事実と異なる意味内容になっているもの. (I3) 用法エラー: 文法的には問題はないが, 発話の中で一般に用いられないような言葉の用 表 3 統合的なエラー類型 法が用いられている発話. たとえば,単語や表現の組み合わせが意味をなさなかったり, ある述語について相応しくない主語が用いられていたりするなど. (3) 小説は日露戦争がなるのです(小説は日露戦争がなるものではない) (I4)誤情報: 明らかに事実とは異なる内容が含まれている発話. (4) ビートルズのボブディランの新しいアルバムが出ましたね(ボブディランはビートルズのメンバーではない) ## 3.2 応答レベルのエラー ## 3.2.1 形式の逸脱 応答レベルの形式は, Dialog Act Markup in Several Layers (DAMSL)2における機能の対応に基づいている. DAMSL では発話の持つ前向き機能 (forward looking function)を, 発話後の対話相手の信念や行為に影響を及ぼすものと捉え, 後ろ向き機能 (backward looking function) をそれ以前の前向き行為に関連する機能と捉えている. この考えに基づき, 直前のユーザ発話が質問や提案などの前向き機能を持つとき, システム発話がそれに対応する後向き機能を有していないものを応答レベルにおける形式の逸脱と位置づけた. (I5): 質問無視: ユーザの質問を無視している発話.具体的には,質問で聞かれている回答種別(たとえば,命題の真偽,確認への YES/NO,同意/不同意, 選択肢からの選択, $5 \mathrm{~W} 1 \mathrm{H}$ 型の質問, 人名, 地名, 理由, 方法など)とタイプが合った内容を含まない返答をしている発話 3 . (5) U: 何を食べているのですか? S:スポーツは好きですか (6) U: 横須賀は何県ですか? $\mathrm{S}$ : 横浜から横須賀に引っ越すのです (I6):依頼無視: 相手からの「〜して下さい」のような依頼に対し, 適切な後向き機能を有しない発話。 (7) $\mathrm{U}$ : 今度買ってきて下さい S: やはり暑い季節に合わせたコスチュームになっているのでしょうかね?  (I7): 提案無視: 相手からの「〜しましょう」という提案に対し, 適切な後向き機能を有しない発話. (8) $\mathrm{U}$ : 趣味の話をしましょう $\mathrm{S}$ : 裏磐梯と台湾なら, どちらが楽しいでしょうか? (I8): 挨拶無視:相手からの挨拶に対し, 適切な後向き機能を有しない発話. (9) U: そろそろ帰りますね。 $\mathrm{S}$ : こんにちは. (別れる挨拶に対して,会った時の挨拶をしている) ## 3.2 .2 内容の逸脱 直前のユーザ発話に対する応答の形式は合っているが, 期待されている内容が含まれていないもの. (I9):期待無視: 前向き機能を有する相手からの発話に対し, 適切な後向き機能を有する発話としての形式は満たしているが,期待されている内容を含まない応答.あまりに情報がなかったり遠回しだったりする応答で, 内容が妥当ではないと考えられる応答. (10) U: 好きなスイーツありますか? S:あります。(肯定的な返答の場合には,そのスイーツの名前を具体的に答えることが期待されている) この例は一見妥当な応答に見えるが,協調的に対話を進めている文脈ではこのような応答が不適切となることがある. ## 3.3 文脈レベルのエラー ここでは,文脈レべルの形式を話題の関連性維持と定義した。すなわち,話題からはずれる発話や意図の不明確性・必要な要素の欠落などによって現在の話題を継続することが難しい状況を文脈レベルの形式からの逸脱と捉える。それに対して,話題は維持されているものの,矛盾や不要な繰り返しを含む発話を内容の逸脱とした. ## 3.3.1 形式の逸脱 (I10): 発話意図不明確: 発話そのものは理解でき,かつ応答内容と話題との関係も分かるが, その内容をなぜ発話したのかという意図が明示されず,かつ文脈からも意図が分からない発話. 関係性を表す要素(たとえば,接続詞や状況説明)が不足しているなど. $ \mathrm{U}: \text { こんにちは. 私はイチゴが好きです. あなたは? } $ S:私はりんごが好きです $\mathrm{U}:$ 赤い色っていいですよね. S: イチゴは美味しいですね(りんごが美味しいと言っていたのに,なぜ突然イチゴに言及するのか意図が不明確) (I11):話題遷移エラー: 直前に相手が話していた話題と異なる話題へ説明なく遷移させる発話. ユーザの新しい話題に遷移する発話に対して, 理由なく元の話題に戻す発話も含む. なお, 話題とは何について話しているかということを表す。話題の粒度は, 食事, ファッション, スポーツ,美容,健康,旅行などのカテゴリで表現できる程度のものとする。 $\mathrm{S}:$ おー.クラリネットはいいですね. U:難しかったですが,とても楽しかったです S: ヘえ〜そうなんですか. 何のパンが一番好きですか? なお,隣接する発話が明確な話題を持たない場合, このエラータイプは適用されない. また,前の発話がこれまでの話題の終端となり得る後ろ向き機能を持つ発話であるとき,当該発話によって話題の遷移が発生しても,このエラータイプは適用されない。たとえば,以下は話題遷移エラーには当てはまらない. S: あなたはテレビでオリピックの放送を見ますか? $\mathrm{U}: はい ,$ 見たいですね. S:こんな日は鍋料理が食べたいですね. (I12): 情報不足: 発話に含むべき要素(主として修飾句, および主語や目的語などの格要素) が含まれていないために意味(何を言っているか)が理解できない,もしくは,理解しづらい発話. (14) U:おはよう。最近はすずしいですよ. S:好きですよ(何が好きかわからない) (15) U:それはちょっと高すぎるでしょ? $\mathrm{S}:$ 温度差がひどいですよねえ(何の「温度差」なのか分からない.) ## 3.3.2 内容の逸脱 これまでの文脈で基盤化された内容に言及し,それらに対して矛盾する発話や不要な繰り返しを行っている発話. (I13):自己矛盾:これまでに話者自身が発話した内容と矛盾している内容を含む発話.ただし,矛盾とは平叙文・質問文に関わらず,発話内容に含まれる内容の辻褄が合わないことを指す。 (16) U:どこの出身ですか? $\mathrm{S}$ :愛知の知多ですよ.知多半島にあります. $\mathrm{U}$ : 愛知ですかあ. いいところですね. S:それから名古屋で就職が決まったことですね. U: どんな仕事をするんですか? S:専業主婦ですよ。(就職が決まったという内容と矛盾する) (I14): 相手の発話との矛盾:これまでに相手が発話した内容と矛盾している内容を含む発話 (矛盾の定義については, 自己矛盾の場合と同様)。また, 相手が言った内容について, それを否定するような質問も含む。 $ \begin{aligned} & \text { S: セリーグとパリーグはどちらが好きですか? } \\ & \text { U: セリーグが好きです. } \\ & \text { S: セリーグは嫌いなんですね. } \end{aligned} $ (I15): 繰り返し:これまでに自身が発話した文字列をただ繰り返しただけのような発話. なお,単語を言い換えただけのような発話も繰り返しに含む。また,執拗に聞き直すような発話の繰り返しも含む。 (18) S: 映画が楽しみです $\mathrm{U}:$ そうですか $\mathrm{S}:$ あはい $\mathrm{U}:$ 他に好きなものは? S:映画が楽しみですね ## 3.4 社会レベルのエラー ## 3.4.1 形式の逸脱 言葉使いが社会の儀礼・礼節に反しユーザを不快にする, あるいは差別的で悪意がある発話. (I16):社会性欠如:相手,もしくは,特定の社会集団に対して気遣わないような失礼な言い方や言い回しが用いられている発話. $\mathrm{U}:$ このまえ○○ (国名が入る)に行ってきました S: ○○の人って頭悪いですよね ## 3.4.2 内容の逸脱 内容が社会通念/知識と反するにもかかわらず,根拠もなく断定あるいは肯定している発話. (I17):常識欠如: 常識とは異なる内容が発話に含まれている発話. 一般的な事実とは異なることを無根拠に主張したり,ある社会集団において大多数に信じられている事柄に対して逆の意見を述べたりするなど。 (20) U: 熱中症の話をしたいの? S:熱中症はいいですよねー ## 3.5 エラーの独立性・排他性 このようにして定めた類型において, その成り立ちからエラーの独立性・排他性を定義しておくべきものがある. まず,発話レベルで破綻している発話に対しては,その該当するエラー以外のエラーは生じないものとする。「解釈不能」は日本語かどうかもわからないということであり,「文法エラー」「用法エラー」「誤情報」は内容が解釈できないということなので,それによって以降のレベルでの対話の形式や内容が満たされているかどうかの判断はできないと考える. また, 文脈レベル・形式の枠にある「発話意図不明確」と「話題遷移エラー」,「発話意図不明確」と「情報不足」は同時にはエラーとなり得ず排他的に扱われる。これは 3.3 .1 節で述べたように,「発話意図不明確」が話題に追随できていることを前提としているのに対して,「話題遷移エラー」は不自然に話題が遷移している,「情報不足」は話題との関係が不明という前提があり,定義からこれらは両立しない. ## 4 評価 統合的な類型を用いてエラータイプのアノテーションを行い, アノテータ間の一致率を評価した. 比較のため,「理論に基づく類型」と「データに基づく類型」についても,同じデータ ・同じアノテータで評価を行った。 ## 4.1 手順 エラータイプのアノテーションにあたり, 3 節の定義・例示に加えて,それぞれのエラーの背景や注意点などを加えたマニュアルを作成した ${ }^{4}$. また, アノテーション作業中の入力ミスをなくすために,表計算ソフトで入力が行えるワークシートとその作業マニュアルを別途用意した.表計算ソフト上では排他性について処理をあえて行わなかった。これは,アノテータに ^{4}$ https://github.com/ryuichiro-higashinaka/taxonomy-of-errors } マニュアルを正確に理解してもらえているかを確認するためである。排他性については,アノテーション後に著者でチェックし,排他条件を満たさないものについては修正を依頼した. アノテーション対象のデータは, 対話破綻検出チャレンジで用いられた DBDC および DBDC2 のデータ (Higashinaka et al. 2016, 2017)5である. このデータにおける対話は DCM (大西,吉村 2014), DIT (Tsukahara and Uchiumi 2015), IRS (Ritter et al. 2011)の 3 種類の日本語雑談対話システムとユーザとのテキストチャットによって行われた. データ中のすべてのシステム発話に対して, 30 名のアノテータによって破綻度合いのラベル (B (breakdown): 明らかな破綻, PB (possible breakdown): 違和感あり,NB (not a breakdown): 破綻ではない) が付けられている.今回の評価実験では, これらのうち, 半数(15名)以上のアノテータが $\mathrm{B}$ または $\mathrm{PB}$ と付けた発話を破綻発話と認定し, それらに対してエラー類型のアノテーションを行った。 データセットは計 400 対話からなる。このデータセットを漸進的な評価・改良に用いるために各 80 対話からなる 5 つのデータセット A から Eに分割した.結果として,データセット A, $\mathrm{B}, \mathrm{C}$ を用いることで統合案を順次改良し(具体的には,判定が割れた事例を分析し,より良い類型にするために,混同行列を作成し,混同が多い類型の組み合わせについて類型の改訂を行う等),データセット D で最終的な評価を行った。データセット $\mathrm{E}$ は将来の改良・評価のため現時点では未使用である。評価に用いたデータセット D には 599 個の破綻発話があり,これらをエラー類型アノテーションの対象とした. アノテータは,その属性に基づいて 2 グループに分割された。 1 つのグループは言語資源作成タスクに精通した専門作業者 2 名からなり, もうひとつのグループはクラウドワーカー 10 名 (20 代から 50 代の女性 6 名男性 4 名, クラウドソーシングサービス会社6による認定ワーカー) からなる.クラウドワーカーを評価に加えた理由は, 今回提案するエラー類型が適切に概念化され非専門家にも容易に理解可能なものであることを検証するためである. すべてのアノテータは統合的な類型, および,「理論に基づく類型」と「データに基づく類型」 のマルチラベルアノテーションを行った.「理論に基づく類型」と「データに基づく類型」については, 先行研究 (Higashinaka et al. 2015a, 2019) においてシングルラベルアノテーションが実施されているが,2.3 節で述べた通り,ひとつの発話が複数のエラーを含みうることからマルチラベルアノテーションを実施した。なお,「データに基づく類型」については, 2.3 節で述べた東中らの考察 (Higashinaka et al. 2019) と同様の根拠に基づき,「対話不成立」,「解析エラー」,「会話のずれ」のラベルを取り除き,「表現エラー」と「用法エラー」のラベルを統合した。その結果, 「理論に基づく類型」では表 2 に示した 16 種類,「データに基づく類型」では 13 種類のエラータイプでアノテーションが行われた。アノテータは,それぞれのエラータイプの定義 ^{5}$ https://dbd-challenge.github.io/dbdc3/datasets }^{6}$ https://www.lancers.jp/ と事例が記述されたマニュアルに従い,表計算ソフト上でアノテーションを実施した。 ## 4.2 アノテーションー致の評価尺度 我々はアノテーション一致の評価尺度として, Fleissの $\kappa$ 値 (Fleiss and Cohen 1973) を改良して用いた。重み付きの Cohen の $\kappa$ 值を用いている先行研究 (Rosenberg and Binkowski 2004; Ravenscroft et al. 2016)を参考に,重み付き Fleiss の $\kappa$ 值を定義した. まず,重み付きのアノテータ間一致率 $P_{a}$ を,マルチラベルアノテーションを考慮して以下のように定義した。 $ P_{a}=\frac{1}{N} \sum_{n=1}^{N} \frac{\sum_{c=1}^{C} \sum_{\left(l, l^{\prime}\right)} w_{n c l} w_{n c l^{\prime}}}{\sum_{c=1}^{C} \sum_{\left(l, l^{\prime}\right)}\left(w_{c n l}{ }^{2}+w_{c n l^{\prime}}{ }^{2}\right) / 2} $ ここで, $w_{n c l}$ は対象発話番号 $n$ にアノテータ $l$ がエラータイプ $c$ を割り当てたときの重みである. 本来この重みはアノテータのマルチラベリングの頻度やエラータイプの出現頻度, さらにはアノテータが複数ラべルの重みを自ら割り当てた際の値などを反映させるべきであるが,計算が複雑になるため今回は対象発話番号 $n$ にアノテータ $l$ が付けたラベルの個数の逆数とした. また, $N$ はアノテーション対象発話の総数, $C$ はエラータイプの種類数で, $\sum_{\left(l, l^{\prime}\right)}$ はすべてのアノテータの組に関する和を示している. この定義より,重み付き Fleiss の $\kappa$ 値は $\kappa=\left(P_{a}-P_{\epsilon}\right) /\left(1-P_{\epsilon}\right)$ で計算される. ここで, $P_{\epsilon}$ は, $ P_{\epsilon}=\sum_{c=1}^{C}\left(\frac{1}{N L} \sum_{n=1}^{N} \sum_{l=1}^{L} w_{n c l}\right)^{2} $ であり, $L$ はアノテータ数である。この重み付き一致率と, 通常の Fleiss の $\kappa$ 値は, 重みが 1 のときに同じ式となる. 本 $\kappa$ 值は, Fleiss の $\kappa$ 值を, マルチラベルアノテーションにおける一致率を評価できるように独自に拡張したものであり, 我々の知る限り, マルチラベルアノテーションにおける $\kappa$ 値の 3 人以上の場合への拡張についての文献は他に見られない. ## 4.3 結果 実験の結果得られた重み付き Fleiss の $\kappa$ 值を表 4 に示す. 統合的な類型の一致率は専門作業者間で 0.567 , クラウドワーカー間で 0.488 であり,「理論に基づく類型」や「データに基づ 〈類型」と比べて高い値となっている。このことから,提案類型は安定したアノテーションが可能であり,有効な類型であるといえる. 「理論に基づく類型」と「データに基づく類型」では専門作業者のほうが $\kappa$ 值が低く, 提案類型では逆になっている理由は, 類型の定義の曖昧性によるものではないかと考えている. 具体 表 4 重み付き Fleiss の $\kappa$ 値 的には,「理論に基づく類型」と「データに基づく類型」における類型の定義は,提案類型に至る過程のものであり,曖昧性があったと考えられる。一般に専門作業者は自身の理解や経験に基づく文脈や用法の細かな違いも踏まえた広範な判断基準に従って厳密にアノテーションを行うが,各自の定義がずれていれば,作業が厳密な分だけ $\kappa$ 値が低くなる,一方,クラウドワー カーの場合, 専門作業者ほどの厳密さを持たないため, このような $\kappa$ 值の低下は起きづらい.今回の提案類型では,エラーの定義が明確化されたため,定義のずれが解消され,専門作業者については $\kappa$ 值が高まり, クラウドワーカーの值を上回ったと考えられる. なお,今回アノテータには,判断が難しい,あるいは不可能であると思った場合,最も当て嵌まると思われるものを選択しつつ,その旨をコメントとして残すように依頼していた。今回そのようなコメントを残したアノテータはクラウドワーカーにはおらず,専門作業者からのコメントも 1 件(「該当するものがない」)のみであった。このことから,今回の類型が,起こりうる破綻のパターンを十分カバーしたものであると考えることができる. 発話毎の一致割合について, クラウドワーカーによるアノテーション結果において 5 名(すなわち半数)以上が一致している発話の割合を調べた。統合的な類型では,全 599 発話のうち, 507 発話で半数以上一致となり,そうならなかった発話は 92 発話であった. これに対して「理論に基づく類型」のアノテーションでは, 全 599 発話のうち, 126 発話が半数以上一致, そうならなかった発話が 473 発話となった. この 473 発話のなかで, 396 発話は統合的な類型で半数以上一致となった.統合的な類型による改善が多く見られた事例は, 応答一不理解および応答-意図不明が (I5) 質問無視に集約された事例,スコープの決定がアノテーションが分かれる要因となった, 応答-無関係と文脈-無関係話題が (I10) 発話意図不明確に集約された事例などである。 さらに,(I4) 誤情報カテゴリの導入によって, 応答-無関係, 文脈一関連性不明, 環境一一般常識欠如に分かれていたアノテーションが集約される事例が見られた. 「データに基づく類型」のアノテーションでは,全 599 発話のうち, 347 発話が半数以上一致, そうならなかった発話が 252 発話となった. この 252 発話のなかで, 193 発話は統合的な類型で半数以上一致となった。「理論に基づく類型」の場合と同様に,(I4)誤情報カテゴリの導入は効果的であった. また, 意図不明や話題遷移エラーが (I10) 発話意図不明確に集約された. 統合的な類型のクラウドワーカーによるアノテーション結果から計算した混同行列を図 1 に示す. 混同行列の各要素は以下の式によって求めた. 図 1 統合的な類型の混同行列. I1-I17 は表 3 で定義されたエラータイプを表している。なお,対角成分より上の部分は,行列が対称であることから省略している. $ m_{c c^{\prime}}=\sum_{\left(l, l^{\prime}\right)} \sum_{n=1}^{N} w_{n c l} w_{n c^{\prime} l^{\prime}} /\left(\begin{array}{l} L \\ 2 \end{array}\right) $ これはあるアノテータがラベル $c$ と付けた事例に対して, 別のアノテータがラベル $c^{\prime}$ と付けた回数の重み付き平均値を表す. 対角要素の値から見て相対的に大きな値となっている非対角要素は,混同が生じていると解釈することができる. これによると, (i) (I5) 質問無視と (I10) 発話意図不明確, (ii) (I10) 発話意図不明確と (I11)話題遷移エラー, (iii) (I10) 発話意図不明確と (I12) 情報不足との間で混同が見られる. (i) の混同パターンについては, (I5) 質問無視と (I10) 発話意図不明確が同じ発話に対して同時に付けられている事例も多かったことから,質問への回答になっていない発話の解釈が難しく,なぜ適切な応答ができなかったのかわからないという判断につながったのではないかと考えられる。 (ii) の混同パターンについては,「発話における話題」の捉え方に個人差があったと考えられる. 典型的な対話例を以下に示す. (21) U: 死に慣れるのは怖いね $\mathrm{S}:$ えっ!!??テトラポットから落ちたんですか? $\mathrm{U}:$ 落ちていません S: スイカは木から生えていないですよ. この対話例の最後のシステム発話では,システムは唐突にスイカについて話し始めている,スイカという単語に着目したアノテータは無理な話題の遷移を表す (I11) 話題遷移エラーと捉えた一方,「死」と「木が生える」という言葉に関連性を感じたアノテータは発話の意図がわから ないことを表す (I10) 発話意図不明確と捉えたと考えられる. (iii)の混同パターンについては, 短いシステム発話に対して頻繁に観測されたことから, 対話文脈の情報をどれほど補って解釈できるかということについての個人差によって生じていると考えられる。 (22) U: 国内と海外ではどちらが好きですか. S:旅行は高いですね $\mathrm{U}:$ プランによっては安く行けますよ. S: プランは良いですね この対話例の最後のシステム発話では, プランの何がどのように良いのかが説明されていない. この発話に対して文脈によって補えきれない要素が特定できたアノテータが (I12) 情報不足, 発話をまったく文脈に位置づけられないアノテータが (I10) 発話意図不明確と判断したものと考えられる。 ## 4.4 エラータイプの分布 統合的な類型におけるエラータイプの分布を表 5 に示す. 分布を計算する際に用いたデータは,前節で用いた 3 種類の対話システム (DCM, DIT, IRS) との対話データと,今回分析したデータには含まれていない2つの新しい対話システム Hobbyist (HBY) (杉山他 2020; Sugiyama et al. 2021) 7 , ILYS-AOBA (ILA) (藤原他 2020) 8 との対話データである. これらのデー夕に対して, 2 名の専門作業者が, 対話破綻検出, 破綻類型ラベリングの順でアノテーションを行った. 新しい対話システムの対話データは対話システムライブコンペティション 3 (東中他 2020) の予選で収集された 10 対話9を用いた. HBY は日本語版 BlenderBot (Roller et al. 2020) である. Transformer encoder-decoder モデルを採用し, Twitter から得られた約 21 億個の発話対で事前学習を行い,日本語版の PersonaChat (Zhang et al. 2018) や EmpatheticDialogues (Rashkin et al. 2019) のデータに加え,内製のチャットコーパスを用いて fine-tuning を行っている. ILA は HBY に近いアーキテクチャを採用しているが, 学習データは HBY と比べて小規模である. 分布を見ると, DCM, DIT, IRS の 3 つのシステムでは, (I5) 質問無視と (I10) 発話意図不明確が多かったが,近年のニューラルネットワークベースのシステムである HBY と ILA では (I4) 誤情報と (I13) 自己矛盾が比較的多いことがわかる. これは, 近年のシステムでは主要な問題点が,対話を形式的に成立させるということから,話されている内容やパーソナリティの一貫性を維持することに移っていることを示しているといえる.  表 5 エラータイプの分布. 頻度上位 3 つまでを太字で示している. なお, DCM, IRS では (I4) 誤情報や (I13) 自己矛盾が, DIT では (I13) 自己矛盾が比較的少ない傾向にある。誤情報は近年の生成型の手法によく見られるエラー(いわゆるハルシネーション (Maynez et al. 2020))であり,矛盾は,話がある程度つながるようになったからこそ顕在化するエラーである,表 5 に示す通り, DCM, DIT, IRS の全体傾向としては, (I5) 質問無視や (I10) 発話意図不明確が多い,質問無視や発話意図不明確が多いと話が進まず,文脈的なエラー が現れにくいため, DCM, IRS では (I4) 誤情報や (I13) 自己矛盾が, DIT では (I13) 自己矛盾が比較的少なくなっていると考えられる. 杉山らの文献 (杉山他 2020) では, HBY の不自然な発話として「矛盾, 話題の飛び, キーワー ド関係誤り,事実誤認」が挙げられており,これは本類型の I13(矛盾), I10(話題の飛び), I4(キーワード関係誤り,事実誤認)にあたり,いずれも他の類型と比較して高い頻度で出現している.また,藤原らの文献 (藤原他 2020) では, ILA で評価が低くなった発話として「文脈と矛盾する応答」が挙げられているが, これは本類型の (I13) 自己矛盾にあたり, 我々の分析でも,他の類型と比較して頻度が高くなっている。この分析を通じて,提案類型を定める上で考察の対象としていない雑談対話システムについても,ある程度エラーの傾向を捉えることができていることがわかる. ## 5 おわりに 本稿では,雑談対話システムにおけるエラーの新しい分類法を提案した。これまでに提案された「理論に基づく類型」と「データに基づく類型」を統合し,統合的な類型を作成した,統合的な類型を重み付き Fleiss の $\kappa$ 值で評価したところ,提案類型は既存のものよりも優れていることがわかった。いくつかのエラータイプの間にはまた混同が見られるものの, $\kappa$ 値はアノテーションを信頼するのに十分な高さを示している. 今後の課題として,英語など他の言語へも類型の適用を広めたい。本類型の考案は日本語を対象に行ったが,類型化の枠組みは言語に依存していない。しかしながら,実際に英語圈の対話システムに対してどのような類型が得られるかは明らかではない。日本語のより多様な対話システムでの破綻に対して類型をより洗練させながら,他の言語に対しても一般性があるかを確認していきたい.他の可能性としては,対話モデルの頑健性を高める unlikelihood training (Li et al. 2019) における人工的なエラー生成のガイドラインとして用いることが考えられる. さらに提案類型はシステムによるエラーを減らすという目的以外にも, 対話の破綻が起きた後に回復する方法の検討に用いることができる (Higashinaka et al. 2020). 修復 (Purver et al. 2018),明確化要求 (Liu et al. 2014; Stoyanchev et al. 2013; Rodríguez and Schlangen 2004), ユーザの不満検出 (See and Manning 2021) など,ミスコミュニケーション時に人々がどのように反応するかを理解するための様々な研究が行われており,我々は本類型を,対話破綻を中心とした様々な対話現象の対応を考えるための指針として,利用していけるのではないかと考えている. ## 謝 辞 本論文の一部は, The 22nd Annual Meeting of the Special Interest Group on Discourse and Dialogue (SIGDIAL 2021) で発表したものです (Higashinaka et al. 2021). ## 参考文献 Aberdeen, J. and Ferro, L. (2003). "Dialogue Patterns and Misunderstandings." In Proceedings of ISCA Workshop on Error Handling in Spoken Dialogue Systems, pp. 17-21. Adiwardana, D., Luong, M.-T., So, D. R., Hall, J., Fiedel, N., Thoppilan, R., Yang, Z., Kulshreshtha, A., Nemade, G., Lu, Y., and Le, Q. V. (2020). "Towards a Human-like Open-Domain Chatbot." arXiv preprint arXiv:2001.09977. Allen, J. and Core, M. (1997). "Draft of DAMSL: Dialog Act Markup in Several Layers." https://www.cs.rochester.edu/research/cisd/resources/damsl/. Banchs, R. E. and Li, H. (2012). "IRIS: A Chat-oriented Dialogue System Based on the Vector Space Model." In Proceedings of the ACL 2012 System Demonstrations, pp. 37-42. Bernsen, N. O., Dybkjær, H., and Dybkjær, L. (1996). "Principles for the Design of Cooperative Spoken Human-Machine Dialogue." In Proceedings of ICSLP, Vol. 2, pp. 729-732. Dinan, E., Logacheva, V., Malykh, V., Miller, A., Shuster, K., Urbanek, J., Kiela, D., Szlam, A., Serban, I., Lowe, R., Prabhumoye, S., Black, A. W., Rudnicky, A., Williams, J., Pineau, J., Burtsev, M., and Weston, J. (2019). "The Second Conversational Intelligence Challenge (ConvAI2)." arXiv preprint arXiv:1902.00098. Dybkjær, L., Bernsen, N. O., and Dybkjær, H. (1996). "Grice Incorporated: Cooperativity in Spoken Dialogue." In Proceedings of COLING, Vol. 1, pp. 328-333. Dzikovska, M. O., Callaway, C. B., Farrow, E., Moore, J. D., Steinhauser, N., and Campbell, G. (2009). "Dealing with Interpretation Errors in Tutorial Dialogue." In Proceedings of SIGDIAL, pp. 38-45. Fleiss, J. L. and Cohen, J. (1973). "The Equivalence of Weighted Kappa and the Intraclass Correlation Coefficient as Measures of Reliability." Educational and Psychological Measurement, 33 (3), pp. 613-619. 藤原吏生, 岸波洋介, 今野堸人, 佐藤志貴, 佐藤汰亮, 宮脇峻平, 加藤拓真, 鈴木潤, 乾健太郎 (2020). ILYS aoba bot: 大規模ニューラル応答生成モデルとルールベースを統合した雑談対話システム. SIG-SLUD, B5 (02), pp. 110-115. [R. Fujihara, et al. (2020). ILYS aoba bot: A Chatbot Combining Rules and Large-Scale Neural Response Generation. SIG-SLUD, B5 (02), pp. 110-115.]. Grice, H. P. (1975). "Logic and Conversation." In Cole, P. and Morgan, J. (Eds.), Syntax and Semantics 3: Speech Acts, pp. 41-58. New York: Academic Press. Higashinaka, R., Araki, M., Tsukahara, H., and Mizukami, M. (2019). "Improving Taxonomy of Errors in Chat-Oriented Dialogue Systems." In Proceedings of IWSDS, pp. 331-343. Higashinaka, R., Araki, M., Tsukahara, H., and Mizukami, M. (2021). "Integrated Taxonomy of Errors in Chat-oriented Dialogue Systems." In Proceedings of SIGDIAL, pp. 89-98. Higashinaka, R., Funakoshi, K., Araki, M., Tsukahara, H., Kobayashi, Y., and Mizukami, M. (2015a). "Towards Taxonomy of Errors in Chat-oriented Dialogue Systems." In Proceedings of SIGDIAL, pp. 87-95. 東中竜一郎, 船越孝太郎, 荒木雅弘, 塚原裕史, 小林優佳, 水上雅博 (2016). テキストチャットを用いた雑談対話コーパスの構築と対話破綻の分析. 自然言語処理, 23 (1), pp. 59-86. [R. Higashinaka, et al. (2016). Text Chat Dialogue Corpus Construction and Analysis of Dialogue Breakdown. Journal of Natural Language Processing, 23 (1), pp. 59-86.]. Higashinaka, R., Funakoshi, K., Inaba, M., Tsunomori, Y., Takahashi, T., and Kaji, N. (2017). "Overview of Dialogue Breakdown Detection Challenge 3." In Proceedings of Dialog System Technology Challenge. Higashinaka, R., Funakoshi, K., Kobayashi, Y., and Inaba, M. (2016). "The Dialogue Breakdown Detection Challenge: Task Description, Datasets, and Evaluation Metrics." In Proceedings of LREC, pp. 3146-3150. 東中竜一郎, 船越孝太郎, 高橋哲朗, 稲葉通将, 角森唯子, 赤間怜奈, 宇佐美まゆみ, 川端良 子, 水上雅博, 小室允人, ドルサテョルス (2020). 対話システムライブコンペティション 3. SIG-SLUD, B5 (02), pp. 96-103. [R. Higashinaka, et al. (2020). The Dialogue System Live Competition 3. SIG-SLUD, B5 (02), pp. 96-103.]. Higashinaka, R., Imamura, K., Meguro, T., Miyazaki, C., Kobayashi, N., Sugiyama, H., Hirano, T., Makino, T., and Matsuo, Y. (2014). "Towards an Open-domain Conversational System Fully Based on Natural Language Processing." In Proceedings of COLING, pp. 928-939. Higashinaka, R., Mizukami, M., Funakoshi, K., Araki, M., Tsukahara, H., and Kobayashi, Y. (2015b). "Fatal or Not? Finding Errors that Lead to Dialogue Breakdowns in Chat-oriented Dialogue Systems." In Proceedings of EMNLP, pp. 2243-2248. Higashinaka, R., Tsunomori, Y., Takahashi, T., Tsukahara, H., Araki, M., Sedoc, J., Banchs, R. E., and D'Haro, L. F. (2020). "Overview of Dialogue Breakdown Detection Challenge 5." In Proceedings of WOCHAT+DBDC5. Li, M., Roller, S., Kulikov, I., Welleck, S., Boureau, Y.-L., Cho, K., and Weston, J. (2019). "Don’t Say That! Making Inconsistent Dialogue Unlikely with Unlikelihood Training." arXiv preprint arXiv:1911.03860. Liu, A., Sloan, R., Then, M.-V., Stoyanchev, S., Hirschberg, J., and Shriberg, E. (2014). "Detecting Inappropriate Clarification Requests in Spoken Dialogue Systems." In Proceedings of SIGDIAL, pp. 238-242. Maynez, J., Narayan, S., Bohnet, B., and McDonald, R. (2020). "On Faithfulness and Factuality in Abstractive Summarization." In Proceedings of ACL, pp. 1906-1919. 大西可奈子, 吉村健 (2014). コンピュータとの自然な会話を実現する雑談対話技術. NTT DoCoMo テクニカル・ジャーナル, 21 (4), pp. 17-21. [K. Onishi and T. Yoshimura (2014). Konpyuta tono Shizen na Kaiwa wo Jitsugen Suru Zatsudan Taiwa Gijyutsu. NTT DoCoMo Technical Journal, 21 (4), pp. 17-21.]. Pitman, J. (1995). "Exchangeable and Partially Exchangeable Random Partitions." Probability Theory and Related Fields, 102 (2), pp. 145-158. Purver, M., Hough, J., and Howes, C. (2018). "Computational Models of Miscommunication Phenomena." Topics in Cognitive Science, 10 (2), pp. 425-451. Ram, A., Prasad, R., Khatri, C., Venkatesh, A., Gabriel, R., Liu, Q., Nunn, J., Hedayatnia, B., Cheng, M., Nagar, A., King, E., Bland, K., Wartick, A., Pan, Y., Song, H., Jayadevan, S., Hwang, G., and Pettigrue, A. (2018). "Conversational AI: The Science Behind the Alexa Prize." CoRR, abs/1801.03604. Rashkin, H., Smith, E. M., Li, M., and Boureau, Y.-L. (2019). "Towards Empathetic Opendomain Conversation Models: A New Benchmark and Dataset." In Proceedings of $A C L$, pp. 5370-5381. Ravenscroft, J., Oellrich, A., Saha, S., and Liakata, M. (2016). "Multi-label Annotation in Scientific Articles-The Multi-label Cancer Risk Assessment Corpus." In Proceedings of LREC, pp. 4115-4123. Ritter, A., Cherry, C., and Dolan, W. B. (2011). "Data-driven Response Generation in Social Media." In Proceedings of EMNLP, pp. 583-593. Rodríguez, K. J. and Schlangen, D. (2004). "Form, Intonation and Function of Clarification Requests in German Task-Oriented Spoken Dialogues." In Proceedings of SEMDIAL, pp. 101-108. Roller, S., Dinan, E., Goyal, N., Ju, D., Williamson, M., Liu, Y., Xu, J., Ott, M., Shuster, K., Smith, E. M., Boureau, Y.-L., and Weston, J. (2020). "Recipes for Building an Open-domain Chatbot." arXiv preprint arXiv:2004.13637. Rosenberg, A. and Binkowski, E. (2004). "Augmenting the Kappa Statistic to Determine Interannotator Reliability for Multiply Labeled Data Points." In Proceedings of HLT-NAACL (Short Papers), pp. 77-80. Schegloff, E. A. and Sacks, H. (1973). "Opening Up Closings." Semiotica, 8 (4), pp. 289-327. See, A. and Manning, C. (2021). "Understanding and Predicting User Dissatisfaction in a Neural Generative Chatbot." In Proceedings of SIGDIAL, pp. 1-12. Stoyanchev, S., Liu, A., and Hirschberg, J. (2013). "Modelling Human Clarification Strategies." In Proceedings of SIGDIAL, pp. 137-141. 杉山弘晃, 成松宏美, 水上雅博, 有本庸浩, 千葉祐弥, 目黒豊美, 中嶋秀治 (2020). Transformer encoder-decoder モデルによる趣味雑談システムの構築. SIG-SLUD, B5 (02), pp. 104-109. [H. Sugiyama, et al. (2020). Development of Conversational System Talking about Hobby using Transformer-based Encoder-Decoder Model. SIG-SLUD, B5 (02), pp. 104-109.]. Sugiyama, H., Mizukami, M., Arimoto, T., Narimatsu, H., Chiba, Y., Nakajima, H., and Meguro, T. (2021). "Empirical Analysis of Training Strategies of Transformer-based Japanese Chitchat Systems." arXiv preprint arXiv:2109.05217. Tsukahara, H. and Uchiumi, K. (2015). "System Utterance Generation by Label Propagation Over Association Graph of Words and Utterance Patterns for Open-domain Dialogue Systems." In Proceedings of PACLIC, pp. 323-331. Vinyals, O. and Le, Q. (2015). "A Neural Conversational Model." arXiv preprint arXiv: 1506.05869 . Wallace, R. S. (2009). "The Anatomy of A.L.I.C.E." In Parsing the Turing Test, pp. 181-210. Springer. Zhang, S., Dinan, E., Urbanek, J., Szlam, A., Kiela, D., and Weston, J. (2018). "Personalizing Dialogue Agents: I have a dog, do you have pets too?" In Proceedings of ACL, pp. 2204-2213. ## 略歴 東中竜一郎:2001 年慶應義塾大学大学院政策・メディア研究科修士課程, 2008 年博士課程修了. 2001 年日本電信電話株式会社入社. 2020 年より, 名古屋大学大学院情報学研究科教授. NTT 人間情報研究所・NTT コミュニケーション科学基礎研究所客員上席特別研究員. 慶應義塾大学環境情報学部特別招聘教授. 2004 年から 2006 年まで英国シェフィールド大学客員研究員. 質問応答システム・対話システムの研究に従事. 人工知能学会, 言語処理学会, 情報処理学会, 電子情報通学会各会員. 博士 (学術). 荒木雅弘:1988 年京都大学工学部卒業. 1993 年京都大学大学院工学研究科 博士課程研究指導認定退学. 京都大学工学部助手, 同総合情報メディアセンター講師を経て, 現在京都工芸繊維大学大学院工芸科学研究科准教授. 対話システムの開発方法論の研究に従事. ACL, ISCA,情報処理学会等各会員.博士 (工学). 塚原裕史 : 1996 年中央大学大学院理工学研究科物理学専攻博士前期課程修了. 1999 年博士後期課程修了. 2000 年日立ソフトウェアエンジニアリング株式会社入社. 2005 年より, 株式会社デンソーアイティーラボラトリ。人工知能を応用した車載情報システム,音声対話を利用した車載機器向けユーザインタフェースの研究開発に従事. 日本物理学会, 人工知能学会, 言語処理学会, 情報処理学会各会員. 博士 (理学). 水上雅博: 2012 年同志社大学理工学部卒業. 2014 年奈良先端科学技術大学院大学情報科学研究科修士課程修了. 2017 年同研究科博士課程修了. 同年, 日本電信電話株式会社入社. 現在, NTTコミュニケーション科学基礎研究所に所属. 自然言語処理及び対話システムに関する研究に従事. 博士(工学). (2021 年 9 月 30 日受付) (2022 年 1 月 14 日再受付) (2022 年 2 月 22 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 負例を厳選した対話応答選択による対話応答生成システムの評価 佐藤 志貴 $\dagger$ ・赤間 怜奈 $\dagger,+\dagger+$ 大内 啓樹 ${ }^{\dagger,+,+,+\dagger \dagger}$ ・ 雑談対話応答生成システムの日々の改良が望ましい方向に効いているか継続的に評価するといった用途として,システムを低コストで評価できる自動評価の枠組みの 確立が求められている。しかし,BLEU など,応答生成の自動評価に広く用いられ ている既存の指標は人間との相関が低いことが報告されている。これは,一つの対話履歴に対し適切な応答が複数存在するという対話の性質に起因する。この性質の 影響を受けにくいシステムの評価方法の一つに対話応答選択が考えられる。対話応答選択は,対話履歴に対し適切な応答を応答候補から選ぶタスクである。このタス クではシステムの応答が候補内の発話に限られるため, 前述した対話の性質の影響 を回避した評価が可能である。一般に対話応答選択では, 対話履歴に対する本来の 応答 (正例) に加え, 誤り候補(負例)を無関係な対話データから無作為抽出し応答候補を構成する。しかし, この方法では, 正例とかけ離れすぎていて応答として不適切と容易に判別できる発話や, 応答として誤りとはいえない発話が負例として候補に混入し, 評価の有効性が低下する可能性がある。本論文では, 負例を厳選する ことで不適切な負例の混入を抑制した対話応答選択テストセットの構築方法を提案 する。構築したテストセットを用いた対話応答選択によるシステム評価が,BLEU など既存の広く用いられている自動評価指標と比べ人手評価と強く相関することを 報告する。 キーワード:対話応答生成, 自動評価, 対話応答選択 ## Evaluating Dialogue Response Generation Systems via Response Selection with Well-chosen False Candidates \author{ Shiki Sato ${ }^{\dagger}$, Reina Akama ${ }^{\dagger, \dagger \dagger}$, Hiroki Ouchi ${ }^{\dagger \dagger, \dagger, \dagger \dagger \dagger}$, \\ Jun SuzukI ${ }^{\dagger, \dagger \dagger}$ and Kentaro InUI ${ }^{\dagger, \dagger \dagger}$ } Developing an automatic evaluation framework for open-domain dialogue response generation systems that can validate the effects of daily system improvements at a low cost is necessary. However, existing metrics commonly used for automatic response generation evaluation, such as bilingual evaluation understudy (BLEU), correlate poorly with human evaluation. This poor correlation arises from the nature  of dialogue, i.e., several acceptable responses to an input context. To address this issue, we focus on evaluating response generation systems via response selection. In this task, for a given context, systems select an appropriate response from a set of response candidates. Because the systems can only select specific candidates, evaluation via response selection can mitigate the effect of the above-mentioned nature of dialogue. Generally, false response candidates are randomly sampled from other unrelated dialogues, resulting in two issues: (a) unrelated false candidates and (b) acceptable utterances marked as false. General response selection test sets are unreliable owing to these issues. Thus, this paper proposes a method for constructing response selection test sets with well-chosen false candidates. Experiments demonstrate that evaluating systems via response selection with well-chosen false candidates correlates more strongly with human evaluation compared with commonly used automatic evaluation metrics such as BLEU. Key Words: Dialogue Response Generation, Automatic Evaluation, Response Selection ## 1 はじめに 人間と日常会話などの雑談をおこなう雑談対話応答生成システムは,医療や教育をはじめとした様々な分野で注目され (Litman et al. 2016; Addlesee et al. 2019), 研究開発が活発におこなわれている.特に近年,深層学習技術の発展を背景に急速に研究が進行した深層学習べースの雑談対話応答生成システムは,対話履歴に対して流暢な応答を生成できることが知られている (Zhang et al. 2020b; Adiwardana et al. 2020; Roller et al. 2021). しかし,人間と自然な雑談が可能なシステムの実現に向けては, さらなる改良の余地がある。たとえば, 近年の雑談対話応答生成システムが生成する応答でさえ自身の直前の発話とは矛盾する主張をするなど,人間同士の会話では生じないような誤りを含むことがある (Adiwardana et al. 2020; Roller et al. 2021). システムの改良に取り組むうえで,その性能を費用や時間をかけず低コストで評価する指標の存在は大きい。たとえば機械翻訳の研究では, システムが生成した翻訳文と参照訳の間の $n$-gram の一致を評価する BLEU (Papineni et al. 2002) という指標がシステム性能の自動評価に用いられる (Sutskever et al. 2014; Bahdanau et al. 2015; Luong et al. 2015; Vaswani et al. 2017). 機械翻訳の研究において,BLEU は人間による評価に代わるほどの信頼性を持つ評価指標ではない (Stent et al. 2005; Callison-Burch et al. 2006; Smith et al. 2016)ものの, 人手評価と一定の相関を持つ評価が可能であることが知られている (Reiter 2018). そこで機械翻訳の研究では, BLEU を用いて一定の精度でコストをかけず評価しながらシステムの改良を繰り返すという効率的な開発プロセスが分野に定着することで,技術が飛躍的に発展した. 一方, 雑談対話応答生成の研究では,機械翻訳研究での BLEU に相当するような分野全体に共有されている評価指標が存在しているとは現状言い難い。たとえば,雑談対話応答生成シス テムの自動評価においても BLEU はしばしば用いられる (Sordoni et al. 2015; Wen et al. 2015; Li et al. 2016; Zhang et al. 2020b) が,人手評価との間には相関がまったく認められないことが報告されている (Liu et al. 2016). この原因として, 対話には一つの対話履歴に対し妥当な応答が複数存在するという性質が存在することが挙げられる。この性質により, 用意した有限個の参照応答との $n$-gram の一致を評価する BLEUでは, 参照応答には類似しないが適切な応答が低く評価される可能性があり,信頼性の高い評価をおこなうことは難しい.たとえば「好きな果物は?」という対話履歴に対しては「リンゴが好きです。」とい応答も「メロンかな」という応答も妥当だが,参照応答が「リンゴが好きなんです。」だった場合,共通した $n$-gram を含まない後者の応答はスコア 0 として扱われる。雑談対話応答生成システムの自動評価方法の設計にあたっては, この性質への対処が重要となる. 本論文では,この性質の影響を受けにくい雑談対話応答生成システムの自動評価方法として,対話応答選択と呼ばれる選択問題を用いた評価に着目する. 対話応答選択は,与えられた対話履歴に続く適切な応答(以下, 正例と呼ぶ)を選択肢(以下, 応答候補と呼ぶ)から選択するタスクである.雑談対話応答生成システムは応答を生成するためのシステムだが,応答候補中の各発話の生成確率を計算し, 最も生成確率が高い候補をシステムの選択とみなすことで選択問題を解くことができる。対話応答選択を用いた評価は,次の二つの特長から,分野全体が共有する雑談対話応答生成システムの自動評価指標に適していると考えられる。一つめは, 適切な応答が複数存在するという対話の性質の影響を回避したシステム評価が可能となる点である.対話応答選択ではシステムの選択する応答が候補内のものに限られるため,適切ではあるが正例と類似しない応答が出力され低く評価されるといった事態を回避できる。 二つめは, システ么の性能を正解率という統一的な指標で測ることができる点である.BLEU などのシステム応答自体を評価する指標では,単語分割処理などの違いが評価結果に影響を与える可能性があるため, 先行研究での報告値にもとづいたシステム間の比較が難しい場合がある。一方で, 対話応答選択による評価ではシステムの性能を正解率で測るため, 先行研究の報告値をもとにシステム性能を比較することが容易である。対話応答選択では,応答生成システムが実際に生成する応答の質自体を評価することはできないため, 人手評価に代わる評価の枠組みとはなりえない.しかし, 少なくとも適切な応答を生成可能なシステムであれば適切な応答を選択することが可能であると仮定すると, システムが適切な応答を生成しうるかを確認することができるため, 対話応答選択は日々のシステム改良の成果を確認するための継続的な評価への利用に適した枠組みといえる。 ただし, 従来の対話応答選択の朹組みは負例の獲得方法において改善の余地がある。一般的に, 対話応答選択の応答候補のうち不正解となる候補 (以下, 負例と呼ぶ) には, 対話履歴や正例とは無関係な対話データから無作為に抽出してきた発話を用いる (Lowe et al. 2015; Gunasekara et al. 2019) . このとき,無作為抽出により収集された負例には,(a) 正例とかけ離れすぎてい て容易に負例と判別できる発話や,(b) 応答として誤りとはいえない発話が含まれる可能性がある.まず (a)について,たとえば「好きな果物は?」という対話履歴に対し「体調が悪いです。」 という発話が負例として抽出されたとする。この発話は対話履歴中の「果物」という単語と明らかに無関係な「体調」という単語を含む,そのため,単語を比較していくだけで対話履歴との関連性が低い候補であることがわかり,負例であると推測できてしまう。このような負例の混入によって, システムが対話の内容を理解していなくとも正解できる選択問題が構築されうる. 次に (b) について, 対話ではある発話が無数の対話履歴に対する応答として成立することもあるため, 対話履歴や正例と無関係な対話データから負例として無作為抽出した発話が必ずしも応答として不適切であるとは限らない. とりわけ「わかりません」など,さまざまな対話履歴に対して応答として成立し対話データセット中に頻出する発話が, 負例として無作為抽出されることが考えられる.このような発話が負例となっている問題については,妥当であるにも関わらず選択すると不正解と見なされる候補が存在することになり, システムの性能が不当に低く見積もられるという事態につながる可能性がある。負例を無作為抽出で取得した場合, (a) や (b)のような発話により対話応答選択によるシステム評価の有効性は低下するおそれがある. 本論文では, 雑談対話応答生成システムの自動評価の枠組みとして分野全体で共有される指標の実現に向け,前述した不適切な負例を応答候補から除いた対話応答選択による評価を考える. 具体的には, 各問題の正例に類似する発話のうち応答として成立しないものたけを厳選して負例として用いることで, (a)や (b)のような応答候補の混入を抑制した対話応答選択テストセットの構築方法を提案する。提案する構築方法に従って実際にテストセットを構築し,雑談対話応答生成システムを対話応答選択で評価したところ, 既存の広く用いられている自動評価指標と比べて人手評価と強く相関することを実験により確認した。本論文の主要な貢献は以下の三点である. - 雑談対話応答生成システムの評価に適した対話応答選択テストセットの構築方法を提案した. - 提案する方法に従い,実際に対話応答選択テストセットを構築し公開した11. - 提案する方法で構築したテストセットを用いた対話応答選択による雑談対話応答生成システムの評価結果が, 既存の広く用いられている自動評価指標と比べて, 人間による評価結果と強く相関することを実験により確認した. ^{1}$ https://github.com/cl-tohoku/eval-via-selection } ## 2 関連研究 ## 2.1 雑談対話応答生成システムの自動評価 雑談対話応答生成システムは, 医療や教育をはじめとした様々な分野で注目され (Litman et al. 2016; Addlesee et al. 2019), 研究開発が活発におこなわれている. これに伴い, 雑談対話応答生成システムの自動評価の枠組みも多数提案されてきた. 雑談対話応答生成システムの自動評価は, システム応答自体の質を評価する方法と, 適切な応答に高い生成確率を付与可能か測定する方法が主流である. システム応答自体の質を評価する方法は,システム応答と参照応答の類似度を評価する指標 (Papineni et al. 2002; Banerjee and Lavie 2005; Lin 2004; Rus and Lintean 2012; Forgues et al. 2014) や,学習したニューラル評価モデルで応答を評価する指標 (Lowe et al. 2017; Tao et al. 2018; Mehri and Eskenazi 2020) が提案されてきた. 前者については,対話では一つの対話履歴に対して妥当な応答が複数存在しうるため, 適切だが参照応答と類似しない応答が不当に低い評価を受ける場合があり,人間による評価結果との相関が認められないということが報告されている (Liu et al. 2016). 後者については, 前者と比較すると人手評価と相関する評価が可能であることが知られているが, 評価結果の解釈可能性が低いことや, 指標によっては敵対的な入力に対して誤った評価をする (Sai et al. 2019)ことなどが課題となっている. 以上のような背景から,どの指標も分野全体に共有される自動評価指標となるには至らず,現時点では,人手評価との相関が認められないものの計算コストが低く先行研究でも報告されてきた (Sordoni et al. 2015; Wen et al. 2015; Li et al. 2016)BLEU が自動評価の参考值として広く用いられている (Zhang et al. 2020b; Cai et al. 2020; Zhang et al. 2020a). 適切な応答に高い生成確率を付与可能か測定する方法は, 参照応答に対する雑談対話応答生成システムの perplexity を計算する方法が広く用いられる (Serban et al. 2016; Parthasarathi and Pineau 2018; Ghandeharioun et al. 2019). システム応答を評価するのではなく, 応答として適切であることがわかっている参照応答がシステムにより生成されやすいかどうかを評価するため, 対話履歴に対し妥当な応答が複数存在するという対話の性質の影響を受けにくい評価が可能となる。一方で, perplexityの計算はシステムの語彙数などに依存するため, 異なるシステム同士で値を比較することが難しく,分野で共有する自動評価指標としては適さない. ## 2.2 対話応答選択 対話応答選択は,与えられた対話履歴に続く適切な応答(正例)を応答候補から選択する夕スクである。たとえば「好きな果物は?」という対話履歴に対し「リンゴが好きです。」と「体調が悪いです。」という二つの応答候補が与えられた場合, 応答として適切な前者を選択すると正解となる。システムの性能は, 同様の選択問題を複数問解かせたときの正解率によって評価 する。対話応答選択は従来,検索型対話システムの性能評価のためのタスクとして用いられてきた (Zhou et al. 2016; Wu et al. 2017; Zhou et al. 2018). 検索型対話システムは, 応答を生成するのではなく, 事前に収集しておいた発話の集合のなかから応答として適切な発話を選択するシステムである。そのため対話応答選択は,検索型対話システムが実際に応答をするときと同様の問題設定であり,検索型対話システムの評価に適したタスクといえる。 本論文では,対話応答選択を,検索型対話システムではなく応答生成システムの評価に応用することを考える。 ## 2.3 対話応答選択テストセット 対話応答選択テストセットの負例には,対話履歴や正例と無関係な対話データから無作為抽出してきた発話を用いることが一般的である (Lowe et al. 2015; Gunasekara et al. 2019). しかしながら 1 節で述べたように, 無作為抽出された負例は, 正例とかけ離れすぎていて容易に負例と判別できる発話や, 応答として誤りとはいえない発話である可能性があり, 評価の有効性を低下させうる。 無作為抽出以外の方法で負例を収集した対話応答選択データセットとしては, 検索型対話システムの性能評価のために構築された Douban Conversation Corpus (Wu et al. 2017) が挙げられる。 Douban Conversation Corpusは,検索型対話システムの運用を想定したかたちで負例を収集している。具体的には, テストセットの各問題の対話履歴をクエリとして, 対話履歴を取り出したものとは異なる対話データから検索により集めた発話を応答候補とする,たとえば,ある問題の対話履歴が「好きな果物は?」であり, 対話履歴をクエリとして「好きな果物はリンゴです。」という発話が検索された場合,これを応答候補に採用する。この方法は,自身の保持する発話集合のなかから対話履歴との類似度によって応答候補を絞り达む実際の検索型対話システムの応答選択過程と類似しており,これらのシステムの評価に適したテストセットとなっている. 本論文で提案するテストセットの構築方法でも, 対話履歴や正例を取り出したものとは異なる対話データから検索により応答候補を収集するが, Douban Conversation Corpus とは目的や検索方法が異なる。本論文で構築するテストセットは応答生成システムの性能評価への利用を前提とするため, Douban Conversation Corpusのように検索型対話システムの応答選択過程と同様の方法で応答候補を収集する必要がない。そこで, 本論文では, 対話応答選択の問題を構成する正例を直接クエリとして応答候補を収集することで,より確実に適切な応答からかけ離れた発話が候補に含まれないようにするとともに,5.3.1節で述べるようにシステムの分析にも有用なテストセットを構築する。 ## 3 提案する対話応答選択テストセットの構築方法 する. 図 1 に, 提案するテストセットの構築方法の概要を示す. 本論文では, 次の二つの段階 (b) 応答として誤りとはいえない発話が負例として混入することを抑制したテストセットを構築することを提案する. (1) 正例に類似する $M$ 個の発話 $\left.\{u_{1}, \ldots, u_{M}\right.\}$ を $\mathcal{U}$ から検索することで負例に用いる発話の候補(以下,負例候補と呼ぶ)を収集する。 (2) $M$ 個の負例候補 $\left.\{u_{1}, \ldots, u_{M}\right.\}$ から応答として成立する発話を人手評価により除いたものを $\mathcal{R}^{\text {false } とする . ~}$ (1) 類似発話の検索による負例候補の収集. まず, 正例との類似度にもとづき正例と類似する発話をリポジトリ $U$ から $M$ 個ずつ検索することで,表層的な手がかりを用いるだけではなく,対話の内容を理解しなければ応答として誤りであると判別できない負例候補を集める。たとえば「好きな果物は?」という対話履歴の正例が「リンゴが好きです。」だとすると,これに類似する「果物が好きです。」という負例は正例と共通して「好き」という単語を含んでおり,単語の比較だけでは誤りであると識別しにくい。このような負例で応答候補を構成することで,雑談対話応答生成システムが対話履歴や候補の意味を捉えることができるかを評価可能なテストセットを構築する。実際にテストセットを構築した際に用いた正例との類似度については 4.1 .2 節で述べる。 (2) 応答として成立する発話の人手評価による除去. (1) で検索した負例候補のうち, 応答と 図 1 テストセット構築方法の概要.(1) 正例に類似する発話をリポジトリから検索することで負例候補を収集し,(2)応答として成立する発話を人手評価により除くことで負例を厳選する。 適切かを高精度で自動評価することは難しいため,除去には人手評価を用いる.各負例候補について 5 人のアノテータに,発話が対話履歴に対する応答として適切かどうかを示すスコアを付与させる.スコアは 1 から 5 までの 5 段階とする.スコア 5 は発話が与えられた対話履歴に対する応答として明らかに適切であることを示し, スコア 1 は応答として明らかに不適切であることを示す。また, 明らかな文法誤りを含むような発話に対しては,1から 5 までの 5 段階スコアのかわりにスコア 0 を付与させる. 5 人中 3 人以上のアノテータにより 3 以上のスコアが付与された, すなわち過半数の評価者によって「応答として適切」または「判別できない」と判断された負例候補は,正例となりうる可能性が一定程度あるものと見なし除去する。また, 本論文ではシステムが文法的に適切な応答を選択可能かどうかを評価することは意図していないため, 3 人以上 (過半数) のアノテータによりスコア 0 が付与された負例候補は, 文法誤りを含む可能性が高いと見なして除去する. ## 4 提案法を用いたテストセットの構築 3 節で提案した構築方法をもとに実際に対話応答選択テストセットを構築した。本節では, テストセット構築時の詳細な設定について述べたうえで,構築したテストセットの概要を説明する。 ## 4.1 テストセット構築時の詳細設定 ## 4.1.1対話履歴および正例の収集とリポジトリの構成 対話履歴と正例の収集には, DailyDialog (Li et al. 2017)を用いた. DailyDialogは, 英語学習者向けの英会話例を収集した対話データセットであり,幅広いトピックを取り扱っていることに加え, 誤字や文法誤りといったノイズが少ないという特徴を持つ. DailyDialog の各対話の冒頭の 4 発話を冒頭対話として取り出したうえで, 冒頭対話のうち最初の 3 発話を対話履歴, 4 発話目をそれぞれの対話履歴に対する応答の正例として収集した2.DailyDialogには,一部の単語を除き完全一致するなど極端に類似する対話デー夕同士が含まれているため, Jaccard 係数により各冒頭対話同士の類似度を計算し,類似する冒頭対話のうち一方を除去した.Jaccard 係数は二つの文書の表層的な類似度を測る指標であり, 文書 $a$ と文書 $b$ の類似度は次式で計算される。 $ J(a, b)=\frac{|\operatorname{set}(a) \cap \operatorname{set}(b)|}{|\operatorname{set}(a) \cup \operatorname{set}(b)|} $ ^{\mathrm{false}}$ から除去するコストが高くなるため, 対話履歴を 3 発話で固定した。 } ここで, $\operatorname{set}(a)$ は文書 $a$ に含まれる単語からなる集合である. 各冒頭対話に対し Jaccard 係数が 0.5 以上の冒頭対話が他に存在した場合,両対話は類似しているとして一方を除去した。さらに,単語数が 4 以下もしくは 31 以上であるような発話を含む冒頭対話を除去し ${ }^{3} , 7,393$ 個の対話履歴および正例が得られた。1,000 問程度の対話応答選択問題からなるテストセットを構築することを目標とし, ここから 1,006 個の対話履歴および正例を無作為抽出した. 負例候補の検索に用いるリポジトリU の構成には OpenSubtitles2018 (Lison et al. 2018) を用いた. OpenSubtitles2018 は映画の字幕を収集したデータセットであり,多様な発話が大量に収集可能である。データセットに含まれる発話のうち,単語数が 5 以上かつ 30 以下のものを収集した 4 . 重複を除き,最終的に約 0.85 億個の発話からなる $\mathcal{U}$ が得られた。 ## 4.1.2表層と分散表現にもとづく負例候補の検索 4.1.1 節で抽出した 1,006 個の対話履歴に対し,多様な負例候補を収集するため,表層にもとづく検索と分散表現にもとづく検索の二つの方法を用いて発話を検索した. 各検索方法で 5 発話ずつ検索することで,対話履歴一つあたり合計 10 発話の負例候補を収集した. 表層にもとづく検索では, クエリである正例に含まれている単語とどれだけ同じ単語を含むかにより,正例に表層的に類似する負例候補を収集した.検索には全文検索エンジンである Lucene ${ }^{5}$ を用いた. U に含まれる発話のインデックスを作成したうえで,正例をクエリとして与えたときにLucene により計算されるスコアが高い上位 5 発話を $\mathcal{U}$ から取り出した. 分散表現にもとづく検索では,正例との文べクトルの類似度により,正例に意味的に類似する負例候補を収集した,文べクトルの計算は,少ない計算量で高品質な文べクトルが算出可能な Arora らの方法 (Arora et al. 2016) を参考にした. 具体的には, 各発話に含まれる単語全てについて単語べクトルを計算し, これら単語べクトルの重み付き平均を文べクトルとした. 単語 $w$ の重み $\alpha(w)$ は以下の式により計算した. $ \alpha(w)=\frac{a}{a+f(w) / N} $ ここで, $f(w) / N$ は単語 $w$ の出現確率であり, 本論文では $f(w)$ を $\mathcal{U}$ 中に単語 $w$ が出現する回数, $N$ をU に含まれる全単語の数として計算した. $a$ は定数であり, 本論文では $a=10^{-3}$ とした. 文べクトルの計算に必要となる単語べクトルには ELMo (Peters et al. 2018)を用いた6 正例および $\mathcal{U}$ 中の各発話の文ベクトルを計算したうえで,正例の文べクトルとコサイン類似度が高い文べクトルを持つ上位 5 発話をリポジトリから取り出した.  ## 4.1.3人手評価による負例候補除去の実施 1,006 個の対話履歴に対して収集した負例候補から,応答として成立するものを除去するために,クラウドソーシングサービス Amazon Mechanical Turkを用いた人手評価を実施した. 図 2 に,実際にアノテータへ見せたスコア付与方法の説明画面を示す。また, 図 3 にスコア付与の作業画面を示す. アノテータが解くタスクは 7 問 $(\mathrm{Q} 1 \sim \mathrm{Q} 7)$ からなり, 各問が一つの対話応答選択の問題に相当する。アノテータには,一問あたり 11 個の発話それぞれに対し, 3 節で述べた応答の適切性に関するスコアを付与させた8 8 . スコアを付与する 11 個の発話は, 正例と,その正例との類似度にもとづき収集された 10 個の負例候補からなる。そのため, アノテー 夕は一問あたり 1 個,タスクあたり合計 7 個の正例にスコアを付与することになる. 正例に対して低いスコアばかりを付与するアノテータは信頼度が低いとして,夕スクに含まれる 7 個の正例のうち 4 個以上にスコア 3 以下のスコアを付与した場合はそのタスクを不採用とした。また, 信頼性の高い評価を効率的におこなうために, bot や不誠実な作業者がタスクに参加することを防ぐ目的で, Amazon Mechanical Turk 上で過去に解いてきたタスクの不採用率が $5 \%$ 未満であり,かつ過去に 1,000 回以上タスクを採用されたアノテータのみがタスクに参加できるよう設定した。 表 1 に,人手評価による負例候補除去の結果を示す. 本論文では表層にもとづく検索と分散表現にもとづく検索の二つの方法を用いて負例候補を検索したが,分散表現にもとづく検索では,表層にもとづく検索と比べ,負例にあたる発話や文法誤りを含む可能性のある発話の割合が低く,正例の可能性がある発話の割合が高かった. ## 4.1.4 テストセットに用いる問題の選定 人手評価による負例候補除去の結果を踏まえ, テストセットに用いる問題を選定した. 最初に対話応答選択一問あたりの負例数を決定したうえで,決定した負例数以上の負例候補が人手評価を経て残っている問題をテストセットに採用した. 4.1.3 節で述べた人手評価の実施後, 1,006 問のうち 876 問については 3 個以上の負例候補が除去されずに残った。そこでまず負例数を 3 で固定したうえで, 876 問については除去されな ## 4.1.5 テストセットのかさ増し 4.1.4 節でテストセットに採用した問題のうち, 6 個以上の負例候補が除去されず残り,かつ別の正例が用意可能なものについては, 正例 1 個と負例 3 個からなる応答候補集合を二つ作成  ## Instructions Given the chat between person $\mathbf{A}$ and person B, evaluate the quality of $B$ 's response. ## Task description First, you are given the chat between person $\mathbf{A}$ and person $\mathbf{B}$. A: $\mathrm{Hi}$. B: Hi, how are you? A: Not bad. How are you? Then, you are given 11 candidate responses of $\mathbf{B}(\# 1 \sim \# 11)$ to the chat. . \#1: I'm tired. - \#2: That's my pen. ... - \#11: Tired can tired. The task is to evaluate the quality of each candidate on a six-point scale (score 0-5): . "good response" means the response fits the chat. - "wrong response" means the response doesn't fit the chat. - "maybe" means you think so but some people may have the opposite opinion. - "unsure" means you can't decide between good and wrong. In the above example: - \#1: I'm tired. $\downarrow$ score 5 (\#1 fits the chat) . \#2: That's my pen. L score 1 (\#2 doesn't fit the chat) ... - \#11: Tired can tired. 2 score 0 (\#11 contains grammatical errors) In addition, answer how confident you are in your evaluation. 図 2 スコア付与方法の説明図. ## Q1 A: Are you a wrestler or a boxer? B: No.Why? A: Your muscular shoulders and chest impress me so. \#1. B: I don't know, every day is a bit different, really. Evaluation of response $-1$ How confident? 図 3 スコア付与の作業画面. 表 1 人手評価による負例候補除去の結果. できる。そこで,これらから対話履歴を共有するが応答候補が異なる二つの対話応答選択問題を作成することで,テストセットをかさ増しした。 具体的には,負例候補のうち人手評価において 5 人全員のアノテータにより 4 以上のスコアを付与されたものは,適切な応答である可能性が高いため, 二つ目の正例とした. 二つ目の正例を有する問題のうち,除去されず残った負例候補がもともと 6 個以上ある場合,一つ目の問 により,876 問から二つ目の対話応答選択問題を合計 143 問構築し, 最終的に 1,019 個の対話応答選択問題からなるテストセットを構築した。 ## 4.2 構築したテストセットの概要 ## 4.2.1テストセットの統計情報 表 2 に構築したテストセットの統計量を示す。また同表に,人手評価による負例候補除去の信頼性を確認するために計算した,アノテータ間でのスコア付与の一致率を示す. アノテータによるスコア付与を 0 から 5 までの 6 クラス分類と考えたとき, Fleiss' kappa は 0.22 となった. また,スコア付与を Douban Conversation Corpus (Wu et al. 2017) で実施した人手評価と同様に 2 クラス分類と考えると ${ }^{9}$, Fleiss' kappa は 0.63 であり, Doucan Conversation Corpus の 0.41 を上回る結果となった。これらのことから,発話除去に用いる人手評価の信頼性は十分に高いと考えられる。 ## 4.2.2 構築したテストセットの例 表 3 に,テストセットに含まれる問題の例を示す。表中の三つの負例は応答として不適切である一方で,対話履歴の “camera” という単語に関連する“focus” という単語を正例同様に含ん 表 2 構築したテストセットの基本統計量およびアノテーションの一致率. ## 対話履歴: 話者 A. Excuse me. Could you please take a picture of us with this camera? 話者 B. Sure. Which button do I press to shoot? 話者 A. This one. ## 応答候補: 1. Could he not focus on that? 2. But I do have ninja focus. 3. Do not lose your focus! 4. Do I have to focus it? [正例] 表 3 構築したテストセットの例.各負例が正例同様に対話履歴に関連する単語“focus”を含む. ^{9}$ Douban Conversation Corpus では,収集した応答候補に対して応答として適切かどうかの 2 值を人手評価している.これに合わせるため,スコア 4 以上を適切な応答とみなし, スコア 3 以下を適切ではない応答とみなした } でいる。この問題のように,対話履歴に関連する単語が負例に含まれている場合,各候補に含まれる単語のみから対話履歴との関連性を推測し正例を識別することは困難であると考えられる. ## 4.2.3 予備実験:TF-IDF モデルによる本テストの正解率 構築したテストセットが,対話履歴や応答候補の意味を考慮せず応答を選択するシステムにとって,実際に正解しにくいものになっているかを確認した. 対話履歴や応答候補の意味を考慮せず応答を選択するシステムとして, TF-IDF モデル (Lowe et al. 2015)を用意した.TF-IDF モデルは,対話履歴と各候補それぞれに対してTF-IDFべクトルを計算し, 対話履歴の TF-IDF ベクトルとのコサイン類似度が最も高くなる候補を選択する. TF-IDFベクトルは次元数が語彙数と等しく, 各次元が語彙に含まれる一単語に対応するような文書(発話)のベクトル表現である。文書 $d$ のベクトルにおいて単語 $w$ にたる次元の値は次式で計算される。 $ \operatorname{tf}-\operatorname{idf}(w, d, D)=f(w, d) \log \frac{|D|}{\left|\left.\{d^{\prime} \in D: w \in d^{\prime}\right.\}\right|} $ ここで,D W TF-IDF モデルのモデリングに用いる文書集合 ${ }^{10}, f(w, d)$ は文書 $d$ に単語 $w$ が出現する回数である.TF-IDF モデルは,D上で出現頻度の低い単語が対話履歴と候補の両方に多数含まれる場合に高いスコアを算出する。そのため,TF-IDF モデルで正解率が高い対話応答選択のテストセットは,対話履歴や各候補の意味を捉えなくとも単語の重複情報だけで負例が識別できてしまう問題が多いことを意味する. 構築したテストセットにおいて, TF-IDF モデルの対話応答選択の正解率は 0.46 となった.比較のために,構築したテストセットの負例をリポジトリ Uから無作為抽出した発話に置き換えたところ, 正解率は 0.67 となった. 従来のテストセットの構築方法と同様に負例を無作為抽出で収集した場合に比べ,本テストセットにおける TF-IDF モデルの正解率が大きく低下していることから,構築したテストセットの負例は単語の重複情報を考慮するだけでは識別することが難しいといえる. ## 5 評価実験 1 節で言及したように,適切な応答が生成可能な雑談対話応答生成システムであれば適切な応答が選択可能であると仮定すると,対話応答選択はシステムが適切な応答を生成しうるかの目安として日々のシステム改良に有用な自動評価の枠組みとなる。しかし,この仮定の妥当性  は自明なものではなく,システムが適切な応答を生成可能であるかということと対話応答選択でのシステム評価の結果が相関するとは限らない。本節では,構築したテストセットを用いた対話応答選択による雑談対話応答生成システムの自動評価結果が,人間によるシステム応答の評価結果と相関するかどうかを確認するためにおこなった実験について示す. ## 5.1 実験設定 雑談対話応答生成システムの自動評価は, システムが生成した応答一つ一つにスコアを付与するという方法が一般的である (Liu et al. 2016; Lowe et al. 2017; Tao et al. 2018). そのため,自動評価と人手評価の結果の相関を確かめる際には,システム応答一つ一つに付与される自動評価指標のスコアと人手評価の相関を調べるという方法が取られる (Liu et al. 2016; Lowe et al. 2017; Tao et al. 2018). 一方, 本論文では, 対話応答選択における正解率によってシステムを評価することを考えるため,システムの応答ではなくシステム自体に対し一つのスコアを付与することになり,同様の方法が適用できない. 本実験では,システムに対し一つのスコアを付与する自動評価指標と人手評価の相関を確かめる方法として, 複数用意したシステムを性能順に並び替える順位付け問題を考える。順位付け問題では,自動評価指標によってシステムを性能順で並び替えたとき,どれだけ人手評価をもとに作成するシステムの順位表(以下,参照順位表と呼ぶ)に近いものを作成できるかによって,自動評価指標と人手評価の相関を確かめる. ## 5.1.1 並び替えの対象となる雑談対話応答生成システム 順位付け問題において並び替えの対象となる雑談対話応答生成システムを 20 個用意した. システムのアーキテクチャは, GRU (Cho et al. 2014), LSTM (Sutskever et al. 2014), ConvS2S (Gehring et al. 2017), Transformer (Vaswani et al. 2017), DialoGPT (Zhang et al. 2020b) の 5 種類を用いた. 表 4 に, 用意した 20 個のシステムの学習データやハイパーパラメータ等を示す. システムの学習データには, OpenSubtitles2018を用いて構築した対話ぺアデータと, Selfdialogue Corpus (Krause et al. 2017; Fainberg et al. 2018) を用いて構築した対話ぺアデータの 2 種類を用意した. OpenSubtitles2018について, 4.1.1節でリポジトリの構成に使わなかった字幕データから連続する 4 発話を収集したうえで, 冒頭 3 発話を対話履歴, 4 発話目を応答とした対話履歴と応答のペアを構築した,最終的に 500 万ぺアの学習デー夕, 5 万ぺアの検証データを得た. Self-dialogue Corpusについても同様にコーパス中の対話の連続する 4 発話を収集したうえで,対話履歴と応答のペアを構築し, 270,582 ペアの学習データ $, 29,874$ ペアの検証デー 夕を得た。 モデルアーキテクチャが GRU, LSTM, ConvS2S, Transformerであるシステムについては ${ }^{* 1}$ エンコーダに入力する対話履歴の発話の数. 1 は対話履歴のうち応答の直前の発話のみを入力することを意味し, 3 は応答の直前の過去 3 発話を入力することを意味する. *22 OpenSubtitles2018を用いて構築した対話ペアデータで学習をおこなった. *33 OpenSubtitles2018を用いて構築した対話ぺアデータで学習をおこなったのち, Self-dialogue Corpus を用いて構築した対話ぺアデータで追加学習をおこなった. ${ }^{* 4}$ attention ヘッド数を示す. *5 公開されているモデルパラメータを利用した. *6 公開されているモデルパラメータを初期パラメータとして Self-dialogue Corpus を用いて構築した対話ペアデータで追加学習をおこなった. 表 4 並び替えの対象となる雑談対話応答生成システムの学習データとハイパーパラメータ. fairseq (Ott et al. 2019)の実装を用いた. DialoGPT については Zhang et al. (2020b)らの実装11 を用いた。 ## 5.1 .2 評価実験で比較するシステムの順位表 人手評価によるシステムの順位表 (参照順位表). 対話履歴 $c$ に対し 20 個のシステムそれぞれが生成した応答 $r^{\text {gen }}$ にいて,アノテータにスコアを付与させ,このスコアをもとに参照順  5 段階のスコアを付与させた,スコア 5 は $r^{\text {gen } か ゙ ~} c$ に対する応答として明らかに適切であるこ のスコア $s_{1}, s_{2}, \ldots, s_{5}$ が得られるため, この平均値 $s^{\text {mean }}=\operatorname{mean}\left(s_{1}, s_{2}, \ldots, s_{5}\right)$ を $r^{\text {gen }}$ の最終的 並び替えて順位表を作成した。人手評価は高コストであるため, $N=56$ とし,構築した対話応答選択テストセットの 1,019 個の対話履歴から 56 個をサンプリングした. 対話応答選択正解率によるシステムの順位表. 構築したテストセットを用いた対話応答選択の正解率を 20 個のシステムそれぞれについて計算し, 正解率をもとに順位表 (Well-Chosen)を作成した。具体的には,まず学習したシステムが各応答候補 $r \in \mathcal{R}$ を対話履歴 $c$ に対する応答として生成するときの cross-entropy loss $\ell_{r}$ を計算した。その後, $\ell_{r}$ が最も低い候補 $\hat{r}=\underset{r \in \mathcal{R}}{\operatorname{argmin}} \ell_{r}$ をシステムが選択した候補とみなすことで,システムごとの対話応答選択の正解率を計算した.負例を厳選する効果を検証するために,テストセットの負例を 4.1.1 節のリポジトリから無作為抽出によって取得した発話に置き換えたうえで同様に順位表 (Random) を作成した. Well-Chosen と Random の作成には,構築した対話応答選択テストセットに含まれる 1,019 問全てを用いた.既存の自動評価指標によるシステムの順位表. 比較のために,既存の自動評価指標のうち広く用いられている BLEU, METEOR (Banerjee and Lavie 2005), ROUGE-L (Lin 2004) によるシステムの順位表を作成した。BLEUについては, brevity penaltyを適用しない場合についても順位表 (BLEU $\left.{ }^{\mathrm{w} / o B P}\right)$ を作成した。これらの評価指標は, 参照応答とシステム応答の間の単語や $n$-gram の一致を評価することでシステムごとにスコアを算出する.本実験では,構築した対話応答選択テストセットの各問題の正例を対話履歴に対する参照応答と見なしてスコアを算出し,スコアをもとにシステムの順位表を作成した。各評価指標とも,構築した対話応答選択テストセットの 876 問を用いた ${ }^{12}$. ## 5.2 実験結果 自動評価指標により作成したシステムの順位表がどれだけ参照順位表に近いかを測るために,両順位表の Spearman の順位相関係数を計算した。結果を表 5 に示す. 最初に,人手評価同士の相関 (Human)を調べた。具体的には,参照順位表の作成のために 5 人のアノテータに付与させた各システム応答のスコア $s_{1}, s_{2}, \ldots, s_{5}$ を無作為に 2 つのグループに分割していくことで,異なるアノテータが付与したスコアにもとづくシステムの順位表を 2 つ作成し, 両順位表の順位相関係数を計算した。順位相関係数は 0.94 と高く, 少なくとも人間に  表 5 参照順位表と自動評価により作成した順位表の相関. とっては本実験の設定で合意の取れるシステムの順位表が作成可能であるといえる. 既存の自動評価指標である BLEU, METEORについては, 順位相関係数において弱い相関が認められるとされる (Akoglu 2018) 0.20 を下回る結果となった. また, ROUGE-Lと brevity penalty を適用しない BLEUは,順位相関係数においてある程度の相関が認められるとされる 0.40 を超えるものの,強い相関が認められるとされる 0.70 を下回る結果となった. 一方でWell-Chosen の参照順位表との順位相関係数はこれらの自動評価指標に比べて高く, 強い相関が認められる 0.70 を上回った.この結果から,負例を厳選したテストセットを用いた対話応答選択による雑談対話応答生成システムの評価結果は,既存の広く用いられている評価指標に比べて人手評価と強く相関するということが確かめられた。 また, Well-Chosenの参照順位表との順位相関係数が Random に比べて高いことから,負例の厳選によって対話応答選択によるシステムの評価がより強く人手評価と相関するものになったことが確かめられた。 ## 5.3 議論 ## 5.3.1 エラー分析における解釈可能性 5.2 節より,対話応答選択による雑談対話応答生成システムの評価で負例を厳選することで,負例を無作為抽出した場合に比べてより人手評価と強い相関を持つ自動評価が可能となることを確認した。このような評価の有効性の向上に加え,負例を厳選したテストセットを用いて自動評価をおこなうことの利点として, エラー分析の解釈可能性の向上が挙げられる. 表 6 に,構築したテストセットの例を示す。無作為抽出によって得られた負例(無作為)は対話履歴や正例と関連性の無い発話であり, 正例と比較して具体的にどのような点で応答として不適切か指摘することが難しい。 そのため, システムがこの発話を誤って応答として選択したとしても,解消すべきシステムの具体的な問題点について分析することができない。一方で, 同表中の厳選した負例(厳選)は正例に類似しているが,正例と比較すると主語が “I”ではなく“You”となっている点で違いがあり,この点が応答として不適切な発話である原因となっている。もし評価対象となるシステムがこの負例を選択した場合,システムが対話履歴を踏まえて応答の主語を適切に考慮することが出来なかったと考えられる。さらに,システムが不適切な主語を含む同様の負例を他の選択問題でも選択する傾向にある場合, システムは発話の主語の考慮という点において脆弱性があると考えることができる。このように,提案法で厳選した負例が正例に類似する発話であることから,正例と比較してどのような点が不適切かを明確に指摘することが比較的容易であり,雑談対話応答生成システムの傾向や脆弱性についての詳細な分析に活用できる可能性がある。 本論文で構築したテストセットに,不適切な箇所を具体的に指摘可能な負例がどの程度含まれているかを調べた。具体的には,構築したテストセットから無作為に取り出した負例 50 発話について, 具体的な誤りが指摘可能な発話の数と, どのような誤りが含まれているかを調査した. 調査の結果, 負例 50 発話のうち 22 発話と,高い割合で発話に対して具体的な誤りを指摘可能であることが確認された。また,誤りの種類として (1) 対話履歴の内容と矛盾を含む, (2)対話履歴に対して返すべき情報が不足,(3) 主語が不適切,(4)時制が不適切,の 4 種類が確認された,表 7 に,各誤りを含む負例の数を示す 13 .また,表 8 に各誤りを含む負例の例を示す. ## 対話履歴: 話者 A. Peter, enough with your computer games. Go do your homework now. 話者 B. Can't I play more? 話者 A. No! Stop playing computer games! ## 応答候補: 正例. Mom, $I^{\prime}$ 'll be finished soon. 無作為. Thats the problem with small towns. 厳選. You are to be finished very soon. 表 6 無作為抽出した負例(無作為)と厳選した負例(厳選)の例. 表 7 テストセットの負例 50 発話のうち各誤りラベルが付与された発話の数.  (1) 対話履歴の内容と矛盾を含む. ## 対話履歴: 話者 A. 911 emergency. What is the problem? 話者 B. I would like to report a break-in. 話者 A. When was this break-in? ## 応答候補: 正例. I believe it happened last night. 負例. I thought that would happen last night. (2)対話履歴に対して返すべき情報が不足 ## 対話履歴: 話者 A. What's the matter with you, Paul? 話者 B. I'm not feeling well. I think I'm having a cold. 話者 A. Looks like it. You need to drink a lot of water and take a good rest. ## 応答候補: 正例. Yeah, I will. 負例. Yeah, yeah, yeah, I... ## (3) 主語が不適切 ## 対話履歴: 話者 A. A new film is on. Have you ever seen it? 話者 B. What kind of movie is it? 話者 A. It's a feature film. ## 応答候補: 正例. Oh, I've no interest in such films. 負例. Anyway, he has no interest in movies. (4) 時制が不適切 ## 対話履歴: 話者 A. Hi, charlie, are you busy this evening? 話者 B. Sorry, I'm afraid that I've got plans tonight. 話者 A. What are you doing? ## 応答候補: 正例. I'm going to my parents' house for my father's birthday. 負例. We were at my sister's house for my nephew's birthday by 2 p.m. 表 8 ラベルを付与できた負例の例. ## 5.3.2負例を厳選した対話応答選択を用いた評価手法の制限 評価可能な観点本評価方法はシステムが生成する応答の適切性に関する評価を想定している. そのため, 適切性以外の観点, たとえば応答の多様性などについては, 本方法論によって評価することを想定していないことに留意されたい. 評価可能なシステム本評価方法は負例を厳選した対話応答選択テストセットを用いた評価である。そのため, 用意したテストセットとドメイン等が合致しないシステムについては, 本方法論によって評価することを想定していないことに留意されたい. ## 6 おわりに 本論文では, 雑談対話応答生成システムの自動評価の枠組みとして分野全体で共有される指標の実現に向け,不適切な負例の混入を抑制したテストセットを用いた対話応答選択による評価を検討した。 具体的には,まず,正例に類似するが応答として成立しない発話のみを負例として厳選する対話応答選択テストセットの構築方法を提案した (3 節). 応答生成システムを対話応答選択で評価することの利点には, 適切な応答が複数存在するという対話の性質の影響を回避可能であること, 正解率という統一的な指標でシステム性能を定量化可能であることが挙げられる。対話応答選択ではシステムが生成する応答の質自体は評価しないため, 人手評価に代わる評価の枠組みとはなりえないが,適切な応答を生成可能なシステムであれば適切な応答を選択することが可能であると仮定すると,システムが適切な応答を生成しうるかを確認することができるため,日々のシステム改良の成果を確認するための評価に適した枠組みといえる,たたし,従来のように対話応答選択の負例を無作為抽出する場合, 正例とかけ離れすぎていて容易に負例と判別できる発話や, 応答として誤りとはいえない発話が負例として応答候補に混入し, システム評価の有効性が低下するおそれがある。本論文で提案した方法によって, これらの不適切な負例の混入を抑制した対話応答選択テストセットが構築可能であることを, 定性的 (4.2.2 節),定量的(4.2.3 節)に確認した。 また,提案した方法に従って実際に公開可能な対話応答選択テストセットを構築したうえで (4 節),構築したテストセットを用いた対話応答選択によるシステム評価が,人間によるシステム応答の評価と相関するかどうかを実験により確認した(5 節).実験結果から,負例を厳選したテストセットを用いた対話応答選択による雑談対話応答生成システムの評価結果は, BLEU など既存の広く用いられている評価指標に比べて人手評価と強く相関するということが確かめられた (5.2 節). 加えて, 本論文で提案する方法により厳選した負例は, 正例と類似するという性質を持つため正例と比べて具体的にどのような誤りを含むか指摘しやすく, 厳選した負例を選択したシステムの傾向や脆弱性について詳細な分析ができる可能性があることについて議 論した (5.3.1 節). 本論文で提案したテストセットの構築方法や公開したテストセットが, 雑談対話応答生成システムの自動評価の枠組みの一つとして分野全体に共有されることで,対話応答選択でコストをかけず評価しながらシステム改良を繰り返す効率的な開発プロセスが利用可能となり,雑談対話応答生成研究がさらに発展することを期待する. ## 謝 辞 本研究の一部は JSPS 科研費 JP19H04162, JP19K20351, JP21J22383 および JST CREST(課題番号:JPMJCR20D2)の支援を受けて行いました,本論文の執筆にあたり,有益なコメントを頂きました査読者, 担当編集委員の皆様に感謝申し上げます.なお, 本研究の内容の一部は, The 58th Annual Meeting of the Association for Computational Linguistics (ACL 2020)で発表されたものです (Sato et al. 2020). ## 参考文献 Addlesee, A., Eshghi, A., and Konstas, I. (2019). "Current Challenges in Spoken Dialogue Systems and Why They Are Critical for Those Living with Dementia." In Proceedings of the Dialogue for Good Workshop on Speech and Language Technology Serving Society. Adiwardana, D., Luong, M.-T., So, D. R., Hall, J., Fiedel, N., Thoppilan, R., Yang, Z., Kulshreshtha, A., Nemade, G., Lu, Y., and Le, Q. V. (2020). "Towards a Human-like Open-Domain Chatbot." arXiv preprint arXiv:2001.09977. Akoglu, H. (2018). "User's Guide to Correlation Coefficients." Turkish Journal of Emergency Medicine, 18 (3), pp. 91-93. Arora, S., Liang, Y., and Ma, T. (2016). "A Simple but Tough-to-Beat Baseline for Sentence Embeddings." In Proceedings of the 5th International Conference on Learning Representations. Bahdanau, D., Cho, K., and Bengio, Y. (2015). "Neural Machine Translation by Jointly Learning to Align and Translate." In Proceedings of the 3rd International Conference on Learning Representations. Banerjee, S. and Lavie, A. (2005). "METEOR: An Automatic Metric for MT Evaluation with Improved Correlation with Human Judgments." In Proceedings of the ACL Workshop on Intrinsic and Extrinsic Evaluation Measures for Machine Translation and/or Summarization, pp. 65-72. Bird, S. and Loper, E. (2004). "NLTK: The Natural Language Toolkit." In Proceedings of the ACL Interactive Poster and Demonstration Sessions, pp. 214-217. Cai, H., Chen, H., Song, Y., Zhang, C., Zhao, X., and Yin, D. (2020). "Data Manipulation: Towards Effective Instance Learning for Neural Dialogue Generation via Learning to Augment and Reweight." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 6334-6343. Callison-Burch, C., Osborne, M., and Koehn, P. (2006). "Re-evaluating the Role of Bleu in Machine Translation Research." In Proceedings of the 11th Conference of the European Chapter of the Association for Computational Linguistics, pp. 249-256. Cho, K., van Merriënboer, B., Gulcehre, C., Bahdanau, D., Bougares, F., Schwenk, H., and Bengio, Y. (2014). "Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation." In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, pp. 1724-1734. Fainberg, J., Krause, B., Dobre, M., Damonte, M., Kahembwe, E., Duma, D., Webber, B., and Fancellu, F. (2018). "Talking to Myself: Self-dialogues as Data for Conversational Agents." arXiv preprint arXiv:1809.06641. Forgues, G., Pineau, J., Larchevêque, J.-M., and Tremblay, R. (2014). "Bootstrapping Dialog Systems with Word Embeddings." In NeurIPS Modern Machine Learning and Natural Language Processing Workshop. Gehring, J., Auli, M., Grangier, D., Yarats, D., and Dauphin, Y. N. (2017). "Convolutional sequence to sequence learning." In Proceedings of the 34th International Conference on Machine Learning, pp. 1243-1252. Ghandeharioun, A., Shen, J. H., Jaques, N., Ferguson, C., Jones, N., Lapedriza, A., and Picard, R. (2019). "Approximating Interactive Human Evaluation with Self-play for Open-domain Dialog Systems." In Proceedings of the 33rd Conference on Neural Information Processing System, pp. 13658-13669. Curran Associates, Inc. Gunasekara, C., Kummerfeld, J. K., Polymenakos, L., and Lasecki, W. (2019). "DSTC7 Task 1: Noetic End-to-End Response Selection." In Proceedings of the 1st Workshop on NLP for Conversational AI, pp. 60-67. Krause, B., Damonte, M., Dobre, M., Duma, D., Fainberg, J., Fancellu, F., Kahembwe, E., Cheng, J., and Webber, B. (2017). "Edina: Building an Open Domain Socialbot with Selfdialogues." In 1st Proceedings of Alexa Prize. Li, J., Galley, M., Brockett, C., Gao, J., and Dolan, B. (2016). "A Diversity-Promoting Objective Function for Neural Conversation Models." In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 110-119. Li, Y., Su, H., Shen, X., Li, W., Cao, Z., and Niu, S. (2017). "DailyDialog: A Manually Labelled Multi-turn Dialogue Dataset." In Proceedings of the 8th International Joint Conference on Natural Language Processing, Volume 1, pp. 986-995. Lin, C.-Y. (2004). "ROUGE: A Package for Automatic Evaluation of Summaries." In Text Summarization Branches Out, pp. 74-81. Lison, P., Tiedemann, J., and Kouylekov, M. (2018). "OpenSubtitles2018: Statistical Rescoring of Sentence Alignments in Large, Noisy Parallel Corpora." In Proceedings of the 11th International Conference on Language Resources and Evaluation, pp. 1742-1748. Litman, D., Young, S., Gales, M., Knill, K., Ottewell, K., van Dalen, R., and Vandyke, D. (2016). "Towards Using Conversations with Spoken Dialogue Systems in the Automated Assessment of Non-Native Speakers of English." In Proceedings of the 17th Annual Meeting of the Special Interest Group on Discourse and Dialogue, pp. 270-275. Liu, C.-W., Lowe, R., Serban, I., Noseworthy, M., Charlin, L., and Pineau, J. (2016). "How NOT To Evaluate Your Dialogue System: An Empirical Study of Unsupervised Evaluation Metrics for Dialogue Response Generation." In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2122-2132. Lowe, R., Noseworthy, M., Serban, I. V., Angelard-Gontier, N., Bengio, Y., and Pineau, J. (2017). "Towards an Automatic Turing Test: Learning to Evaluate Dialogue Responses." In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics, Volume 1, pp. 1116-1126. Lowe, R., Pow, N., Serban, I., and Pineau, J. (2015). "The Ubuntu Dialogue Corpus: A Large Dataset for Research in Unstructured Multi-Turn Dialogue Systems." In Proceedings of the 16th Annual Meeting of the Special Interest Group on Discourse and Dialogue, pp. 285-294. Luong, T., Pham, H., and Manning, C. D. (2015). "Effective Approaches to Attention-based Neural Machine Translation." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 1412-1421. Mehri, S. and Eskenazi, M. (2020). "USR: An Unsupervised and Reference Free Evaluation Metric for Dialog Generation." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 681-707. Ott, M., Edunov, S., Baevski, A., Fan, A., Gross, S., Ng, N., Grangier, D., and Auli, M. (2019). "fairseq: A Fast, Extensible Toolkit for Sequence Modeling." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics, Demonstrations, pp. 48-53. Papineni, K., Roukos, S., Ward, T., and Zhu, W.-J. (2002). "BLEU: A Method for Automatic Evaluation of Machine Translation." In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318. Parthasarathi, P. and Pineau, J. (2018). "Extending Neural Generative Conversational Model using External Knowledge Sources." In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 690-695. Peters, M., Neumann, M., Iyyer, M., Gardner, M., Clark, C., Lee, K., and Zettlemoyer, L. (2018). "Deep Contextualized Word Representations." In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1, pp. 2227-2237. Reiter, E. (2018). "A Structured Review of the Validity of BLEU." Computational Linguistics, 44 (3), pp. 393-401. Roller, S., Dinan, E., Goyal, N., Ju, D., Williamson, M., Liu, Y., Xu, J., Ott, M., Smith, E. M., Boureau, Y.-L., and Weston, J. (2021). "Recipes for Building an Open-Domain Chatbot." In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics, Main Volume, pp. 300-325. Rus, V. and Lintean, M. (2012). "A Comparison of Greedy and Optimal Assessment of Natural Language Student Input Using Word-to-Word Similarity Metrics." In Proceedings of the Seventh Workshop on Building Educational Applications Using NLP, pp. 157-162. Sai, A. B., Gupta, M. D., Khapra, M. M., and Srinivasan, M. (2019). "Re-evaluating ADEM: A Deeper Look at Scoring Dialogue Responses." In Proceedings of the 33rd AAAI Conference on Artificial Intelligence, pp. 6220-6227. Sato, S., Akama, R., Ouchi, H., Suzuki, J., and Inui, K. (2020). "Evaluating Dialogue Generation Systems via Response Selection." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 593-599. Serban, I. V., Sordoni, A., Bengio, Y., Courville, A., and Pineau, J. (2016). "Building End-to-end Dialogue Systems using Generative Hierarchical Neural Network Models." In Proceedings of the 30th AAAI Conference on Artificial Intelligence, pp. 3776-3783. Smith, A., Hardmeier, C., and Tiedemann, J. (2016). "Climbing Mont BLEU: The Strange World of Reachable High-BLEU Translations." In Proceedings of the 19th Annual Conference of the European Association for Machine Translation, pp. 269-281. Sordoni, A., Galley, M., Auli, M., Brockett, C., Ji, Y., Mitchell, M., Nie, J.-Y., Gao, J., and Dolan, B. (2015). "A Neural Network Approach to Context-Sensitive Generation of Conversational Responses." In Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 196-205. Stent, A., Marge, M., and Singhai, M. (2005). "Evaluating Evaluation Methods for Generation in the Presence of Variation." In Proceedings of the 6th International Conference on Computational Linguistics and Intelligent Text Processing, pp. 341-351. Sutskever, I., Vinyals, O., and Le, Q. V. (2014). "Sequence to Sequence Learning with Neural Networks." In Proceedings of the 27th International Conference on Neural Information Processing Systems, Volume 2, pp. 3104-3112. Tao, C., Mou, L., Zhao, D., and Yan, R. (2018). "RUBER: An Unsupervised Method for Automatic Evaluation of Open-domain Dialog Systems." In Proceedings of the 32nd AAAI Conference on Artificial Intelligence, pp. 722-729. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., and Polosukhin, I. (2017). "Attention Is All You Need." In Proceedings of the 31st International Conference on Neural Information Processing Systems, pp. 6000-6010. Wen, T.-H., Gašić, M., Mrkšić, N., Su, P.-H., Vandyke, D., and Young, S. (2015). "Semantically Conditioned LSTM-based Natural Language Generation for Spoken Dialogue Systems." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 1711-1721. Wu, Y., Wu, W., Xing, C., Zhou, M., and Li, Z. (2017). "Sequential Matching Network: A New Architecture for Multi-turn Response Selection in Retrieval-Based Chatbots." In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics, Volume 1, pp. 496-505. Zhang, R., Zheng, Y., Shao, J., Mao, X., Xi, Y., and Huang, M. (2020a). "Dialogue Distillation: Open-Domain Dialogue Augmentation Using Unpaired Data." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, pp. 3449-3460. Zhang, Y., Sun, S., Galley, M., Chen, Y.-C., Brockett, C., Gao, X., Gao, J., Liu, J., and Dolan, B. (2020b). "DIALOGPT : Large-Scale Generative Pre-training for Conversational Response Generation." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, System Demonstrations, pp. 270-278. Zhou, X., Dong, D., Wu, H., Zhao, S., Yu, D., Tian, H., Liu, X., and Yan, R. (2016). "Multiview Response Selection for Human-Computer Conversation." In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 372-381. Zhou, X., Li, L., Dong, D., Liu, Y., Chen, Y., Zhao, W. X., Yu, D., and Wu, H. (2018). "MultiTurn Response Selection for Chatbots with Deep Attention Matching Network." In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics, Volume 1 , pp. 1118-1127. ## 付録 ## A 構築したテストセットの例 表 9 に,本研究で構築したテストセットの例を示す. 同表には, 5 節の実験で Random 作成時に用いた,負例を無作為抽出した応答候補も示す。 ## テストセット例 1 ## 対話履歴: 話者 A. You look better today. how did your test go? 話者 B. Much better than it did yesterday. 話者 A. Did you pass? 正例: I not only passed my test, but I aced it! I'm so happy! ## 無作為抽出した負例: 1. Just... see If i can find... 2. I don't know AII of a sudden, my face was there. 3. Why does the wounded gazelle hide from the stealthy jaguar? ## 本テストセットの負例: 1. Yes, I have passed the exam, but I am too confused since you put that thing in. 2. I'm only happy. 3. I guess I didn't pass the test because made me feel about this big. テストセット例 2 ## 対話履歴: 話者 A. Hello, I'm Jack. Are you Christina? 話者 B. Yes I am. Nice to meet you, Jack. 話者 A. Are you from Italy, Christina? 正例: No, I am German. I live in Munich. 無作為抽出した負例: 1. Just ask him what it is. 2. I got to say, uh... put some words together. 3. Where the hell is the shooter? ## 本テストセットの負例: 1. I don't live in Paris, I live in Lyon. 2. You are Swedish, but you live in Copenhagen. 3. Munich, Sunday 7 am. ## テストセット例 3 ## 対話履歴: 話者 A. Hey, Ann. Wake up. It's time to get out of bed. 話者 B. Oh, Dad. Do I have to get up right now? 話者 A. Yes, or you'll be late. 正例: Why didn't my alarm go off today? ## 無作為抽出した負例: 1. In my 30 years ofracing I've never witnessed a spectacle quite like this. 2. Let's go to your room and have a talk. 3. I am Duncan MacLeod. 本テストセットの負例: 1. I don't understand, if the alarm went off, why didn't anybody call us? 2. That set off my alarm. 3. If the number reaches 120 , an alarm will go off. 表 9 厳選した負例と, Random 作成時に用いた無作為抽出した負例の例. ## テストセット例 4 ## 対話履歴: 話者 A. I'm starving! It would be truly appreciated if you bought me a burrito. 話者 B. I'm a little short. I don't have enough for you. 話者 A. I'm starving, as I didn't eat yet today. 正例: I really don't have enough money. ## 無作為抽出した負例: 1. But this was someone I knew. 2. Come on, Anne. 3. It does not end with you alone. ## 本テストセットの負例: 1. I never had enough money. much confused since you put that thing in. 2. I don't have any money, so I need some pretty cash. 3. He just doesn't have enough money. テストセット例 5 ## 対話履歴: 話者 A. Excuse me, what time is the next train to New York? 話者 B. Half past 11 . 話者 A. Is it a through one? 正例: No, it's an express. ## 無作為抽出した負例: 1. And the look would gradually saturate the 1920 s and ' 30 s, reaching into the remotest corners. 2. Santa's hit list is goddamn selective. 3. I ain't never been ill, and I'm not now. ## 本テストセットの負例: 1. AND IT'S AN EXPRESS! 2. What if another express comes by? 3. Come on, Express! テストセット例 6 ## 対話履歴: 話者 A. You look kind of green. 話者 B. I don't feel so good. I am feeling sick to my stomach. 話者 A. Have you had anything to eat lately? 正例: I had fried shrimp and clams for lunch. ## 無作為抽出した負例: 1. Big shot in Intelligence. 2. Yes, it's Rachel Duncan 3. You got boots or shoes? ## 本テストセットの負例: 1. This is Fried Shrimp? 2. That I had lunch with the guy. 3. I'll have clams, please. テストセット例 7 ## 対話履歴: 話者 A. Good evening. Welcome to our program. 話者 B. Thank you. Good evening, Mr.Dean. 話者 A. Would you tell us your name, please? ## 正例: I'm Helen Baker. ## 無作為抽出した負例: 1. We would have many so-called sweat-box sessions where the writer would turn in a certain number of pages and we would tear it apart and analyse it. 2. You asked me to send you home. 3. So her parents never told her. ## 本テストセットの負例: 1. I'm the baker's wife! 2. I found David Baker 3. She's Helen Gallagher. 表 9 厳選した負例と, Random 作成時に用いた無作為抽出した負例の例(続き). ## B 評価実験結果の詳細 表 10 に,5 節で述べた評価実験における各評価指標でのシステムのスコアおよび順位を示す. また図 4 に,各自動評価指標でのシステムのスコアと人手評価スコアの散布図を示す. 図 4 評価実験における各自動評価指標でのシステムのスコアと人手評価スコアの散布図。図中の各自動評価指標でのスコアは順位が 1 位だったシステムのスコアで除算している. ## 略歴 佐藤志貴:2019 年東北大学工学部卒業. 2021 年東北大学大学院情報科学研究科博士前期課程修了. 現在, 東北大学情報科学研究科博士課程取得に向け研究を進めている。2021 年度より日本学術振興会特別研究員 (DC1). 赤間怜奈:2017 年東北大学工学部卒業. 2018 年東北大学大学院情報科学研究科博士前期課程修了, 2021 年同博士課程修了. 2021 年より東北大学デー夕駆動科学・AI 教育研究センター助教, 理化学研究所 AIP センター客員研究員. 大内啓樹:2015 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 2018 年同博士後期課程修了. 2018 年から 2021 年まで理化学研究所 AIP センター特別研究員. 2021 年より奈良先端科学技術大学院大学先端科学技術研究科助教, 理化学研究所 AIP センター客員研究員. 鈴木潤:2001 年から 2018 年まで日本電信電話株式会社コミュニケーション科学基礎研究所研究員 (主任研究員/特別研究員)。2005 年に奈良先端科学技術大学院大学情報科学研究科博士後期課程修了. 現在, 東北大学データ駆動科学・AI 教育研究センター教授. 乾健太郎:東北大学大学院情報科学研究科教授. 1995 年東京工業大学大学院情報理工学研究科博士課程修了. 同大学助手, 九州工業大学助教授, 奈良先端科学技術大学院大学助教授を経て, 2010 年より現職. 2016 年より理化学研究所 AIP センター自然言語理解チームリーダー兼任.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 多様な規則を活用した文法誤り訂正のデータ拡張に関する分析 古山 翔太 ${ }^{\dagger, \dagger \dagger} \cdot$ 高村 大也生 ${ }^{\dagger}$ 岡崎 直観 ${ }^{+, \dagger \dagger}$ } ニューラル文法誤り訂正では,データ拡張によって学習データの不足を補う手法が 活発に研究されている。本研究では, 既存のデータ拡張手法が, より良いデータ拡張を行い性能向上を目指す上で重要な要素として, (1) 誤りの多様性が訂正性能に 寄与すること, (2) 特定の種類の誤り生成がその種類の誤り訂正性能に寄与するこ と, (3) データ拡張に用いるコーパスの大きさが訂正性能に寄与することの 3 点が仮定されている. 本研究では, これらの仮定の妥当性を検証するため, 多様な文法力 テゴリでの誤り生成規則を組み合わせる手法を提案し,生成する誤りの種類を変え て誤り訂正モデルを学習することで,比較検証を行う。結果として, 仮定 (1) (2) は 正しいが,一方で,仮定 (3) においては,コーパスの規模ではなく,パラメータの 更新回数と誤りの生成回数が影響することが明らかになった。さらに,提案手法は,学習者コーパスを用いない教師なし設定でも高い性能のモデルを学習でき,学習者 コーパスを用いた場合でも, 既存の手法と同程度に高性能なモデルを学習できるこ とが明らかになった. 折り返し翻訳・逆翻訳によるデータ拡張手法との比較を通じ て,また,ルールによる誤り生成とこれらの手法を用いたモデルでは,訂正におい て得意な誤り種類が異なることが判明した。 キーワード:文法誤り訂正, データ拡張 ## Analysis of Data Augmentation for Grammatical Error Correction Based on Various Rules \author{ Shota Koyama $^{\dagger, \dagger \dagger}$, Hiroya TaKamura ${ }^{\dagger, \dagger \dagger}$ and NaOaKi OKazaki ${ }^{\dagger, \dagger \dagger}$ } Inadequate training data renders neural grammatical error correction less effective. Recently, researchers have proposed data augmentation methods to address this problem. The methods are proposed based on the following three assumptions: (1) error diversity in generated data contributes to performance improvement; (2) error generation for a certain error type affects the correction performance of same-type errors; (3) a larger corpus used in error generation results in better performances. In this study, we design multiple error generation rules for various grammatical categories and propose a method to combine those error generation rules to validate the abovementioned assumptions by varying the error types in the generated data. Results show that assumptions (1) and (2) are valid, whereas assumption (3) is associated with the number of training steps and the number of generated errors. Furthermore,  our proposed method can train a high-performance model even in unsupervised settings and more effectively correct writing errors as compared with the model based on round-trip translations. Finally, it is found that the error types corrected by the models based on round-trip and back translations differ from those corrected by our method. Key Words: Grammatical Error Correction, Data Augmentation ## 1 はじめに 文法誤り訂正は,文書中の様々な種類の誤りを自動的に訂正する自然言語処理の研究課題であり,言語学習者の作文支援への応用が期待されている。機械翻訳のモデルを用いて,誤りを含む文から正しい文への翻訳を行う手法が効果的であり,特に,近年ではニューラル機械翻訳で用いられる手法を応用する研究が活発になされている. 機械翻訳の手法を用いるためには, Mizumoto et al. (2011)の Lang-8コーパスなどの大規模な学習データが必要となる. しかし, Junczys-Dowmunt et al. (2018) で指摘されているように,高品質なニューラル機械翻訳モデルを学習するためには,依然,学習デー夕の量は不十分である。この問題に対処するため,デー夕拡張によって大規模な学習データを人工的に生成し,そのデータを用いて事前学習を行ったモデルに対し, 文法誤り訂正のデータセットで再学習(ファインチューニング)を行う手法に注目が集まっている (Lichtarge et al. 2019; Zhao et al. 2019; Grundkiewicz et al. 2019; Kiyono et al. 2019). 文法誤り訂正のデータ拡張では,単言語コーパスの誤りのない文に誤りを生成し,人工デー 夕を作成する。最も平易なデータ拡張手法は,ランダムな置き換え・插入・削除の編集操作によって,誤りを生成するものである (Zhao et al. 2019). このランダムな編集操作は,効果的な事前学習が行えるものの, 実際の文書中に出現する誤りを再現するものとはなっていない. そのため, これを改善するための様々な手法が考案されている. 例えば, 編集操作を行う際に,前置詞や冠詞などの特定の文法カテゴリや,綴り・約物などの表記に対して,誤りを生成するルールを活用することで,人工データの質を改善する手法が提案されている (Choe et al. 2019; Takahashi et al. 2020; Flachs et al. 2019; Grundkiewicz et al. 2019).また,機械翻訳モデルを活用して折り返し翻訳を行う手法や (Lichtarge et al. 2019),逆翻訳を応用した誤り生成 (Kiyono et al. 2019; Wan et al. 2020) などが提案されている. さらに,データ拡張を行う際に,何が性能向上に寄与するかという点に関して,活発に研究が行われている。本研究では, その中の, 特に以下に示す 3 つの要素に着目し, その妥当性を検証する。本論文では,これらをデー夕拡張に重要とされる 3 つの仮定と呼ぶ. 仮定 (1) 生成される誤りの種類の多様さが, 訂正性能に寄与する. 仮定 (2) 特定の種類の誤りが生成されることが,その種類の誤り訂正性能に寄与する. 仮定 (3) データ拡張に用いるデータの規模が,訂正性能に寄与する. 以下に, 文法誤り訂正のデータ拡張の研究において, これらの仮定の妥当性を検証する背景と, その意義・貢献について説明する. 仮定 (1)「生成される誤りの種類の多様さが,訂正性能に寄与する」について説明する.生成される誤りの多様さが重要であるということがデータ拡張を行う際に重要であることは,以前から着目されており, 誤り生成モデルに対して,ノイズを加える手法や,複数の候補を用いることで性能の向上が確認されている (Ge et al. 2018; Xie et al. 2018). さらに,誤り種類を分類した誤りタグを用いて, 誤り種類ごとに誤り生成を行うことで, 高い性能向上が確認されている (Wan et al. 2020; Stahlberg and Kumar 2021)。一方で, これらの手法では, 誤り種類の多様さを変化させた検証を行っていない. そのため,人工データ中の誤り種類が多様であることが,訂正性能に及ぼす影響を評価できていない,仮定 (1)を検証することで,既存の研究で仮定されている,誤り種類に着目し,人工デー夕の誤りの多様さの重要性を再検証し,データ拡張手法を考案する上で考慮すべき性質が何かを明らかにする. 仮定 (2)「特定の種類の誤りが生成されることが,その種類の誤り訂正性能に寄与する」について説明する。誤り種類ごとに性能を評価している既存研究は存在しているが (Takahashi et al. 2020), 生成される誤り種類を変えた評価は行われていない。仮定 (2)を検証することで,特定の誤り種類が確実に生成されていることの重要性を再検証する。さらに,様々な種類の誤りに対してデー夕拡張を行った場合に, 誤り種類ごとに適切に誤りが生成されていることが, 重要であることを明らかにする。 仮定 (3)「データ拡張に用いるデータの規模が,訂正性能に寄与する」について説明する. データ拡張は,数千万文程度の,大規模なコーパスに対して行われる。データの規模を大きくすると, 訂正性能が向上することは既存の報告で確認されている (Kiyono et al. 2019; Wan et al. 2020). しかし, 単にデー夕拡張に用いるデー夕を大きくするだけでは, 事前学習を行ったステップ数や, 同じ単言語文から複数の異なる誤り文を生成した場合の影響の有無など, データの規模以外の要因の影響が評価できない,仮定 (3)を検証することで,既存の研究で仮定されている,大規模デー夕を用いたデー夕拡張の有効性を再検証し,大規模デー夕を用いる際に,実験設定を決定するための根拠を提供できる. 本研究では,これらの仮定の妥当性を検証するため,様々な文法カテゴリにおける誤りを生成するルールを作成し,それらを組み合わせることで誤り生成を行う。ルールを活用することで,折り返し翻訳や逆翻訳などのモデルベースの誤り生成手法と比較して,生成される誤りの種類を確実に制御することができる。この手法を用いることで, 仮定 (1) と仮定 (2) に対して, それぞれ次のように検証を行うことができる。 - 誤り生成に用いるルールの種類を変えることで, データ中の誤り種類を制御することが できる。そのため, 誤り種類の多様さが訂正性能に与える影響を評価することができる. - 誤り生成に用いるルールの種類を変えることで, どの種類の誤りが事前学習・再学習を行った後の訂正性能に影響を与えるか評価することができる. さらに, 仮定 (3) に対しては, 事前学習におけるパラメータの更新回数を固定しながら,デー 夕拡張に用いる単言語コーパスの規模を評価し,検証を行うことができる。 加えて,以下の 3 つの実験を行い,提案手法単体の評価を行う. ・ 人手で作成されたデータを用いず,ルールを用いて生成されたデータのみを用いて学習を行い,その性能を評価し,学習者データを用いない教師なし設定の手法としての有効性を確認する。 - 折り返し翻訳と逆翻訳によるデータ拡張と, 既存のベンチマーク上で比較を行い, ルー ルによる誤り生成の利点と欠点について分析を行い,その利点と限界について明らかにする。 ・ルールによる誤り生成を大規模に行い,学習に用いることで,既存のベンチマーク上で大規模学習データを用いた他の最先端手法と比較を行い, 本手法の利点や限界について明らかにする。 本研究の主な貢献は以下の 6 つである. ・ 編集操作による単純な誤り生成規則を文法カテゴリごとに多数作成し, 組み合わせる手法を考案した。 - 人工データ中の誤り種類の多様さが性能向上に寄与することを,誤りカテゴリごとでの比較で検証した。 - 特定の種類の誤りが生成されていることが, その種類の誤り訂正性能の向上に寄与することを示した。 ・ データ拡張によって性能向上を得るためには, 単言語コーパスの規模ではなく, 十分なパラメータ更新回数と誤り生成回数が必要であることを示した. - 提案手法が教師なし設定で, 既存の手法と比較して高い性能を示すことを確認した. - 折り返し翻訳や逆翻訳でのデー夕拡張と, 提案手法との比較により, ルールによる誤り生成の性質について分析を行った。 本稿ではまず, 2 節で文法誤り訂正のデータ拡張に関する関連研究を紹介する, 3 節では,本研究で用いるデータ拡張手法について説明する.4 節では, 実験に用いるデータやモデルについて説明する.5 節にて, 3 つの仮定について検証する実験を行い,議論する. 6 節にて,提案手法と既存の手法との比較を行う, 7 節にて, 本稿のまとめを記す. ## 2 関連研究 ニューラル機械翻訳の手法を文法誤り訂正に応用するための学習データとして,学習者コー パスと呼ばれる,言語学習者の作文に対して注釈を付したデータが広く用いられている。しかし, 学習者コーパスの規模は, 高性能なニューラル機械翻訳モデルの学習には, 依然, 不十分であることが指摘されている (Junczys-Dowmunt et al. 2018). 学習者コーパスを人手で増やすことは容易ではないため, デー夕拡張によってデータ不足の問題を補おうという研究が活発に行われている. Lichtarge et al. (2019)は,折り返し翻訳と Wikipedia の編集履歴を活用して学習データを作成し, ニューラル機械翻訳モデルに対して大規模データで事前学習を行ったのちに,学習者コーパスで再学習を行うという手法が効果的であることを確かめた. データ拡張手法として, 最も単純なものは, トークンレベルでの編集操作による誤り生成である。文法誤り検出・訂正の分野では,ニューラル手法が使われるようになる以前から,編集操作による誤り生成が取り組まれている。ニューラル以前の手法では,特定の品詞に限定した誤り生成が行われていることが多い. Izumi et al. (2003)は, 最初に誤り生成が行われた研究であり, 置き換え・削除の操作によって冠詞誤りを生成した. Brockett et al. (2006)は, 不可算名詞の数に関する誤りを正規表現を用いて生成し, 文法誤り訂正を機械翻訳の問題として捉え, 初めて統計的機械翻訳の手法を応用した. Lee and Seneff (2008)は, 誤り検出への応用のため, 動詞を 5 変化形の間で変化させることで誤りを生成した. Rozovskaya and Roth (2010a, 2010b)は,学習者コーパスでの誤り傾向を反映し, 前置詞誤り・冠詞誤りを生成した. Cahill et al. (2013) は, Wikipediaの編集履歴から前置詞誤りを抽出し, その分布に従って誤り生成を行った. 編集操作による誤り生成は, ニューラル手法が用いられるようになっても, 活発に研究されている. Grundkiewicz et al. (2019) は,スペルチェッカの出力から各単語の誤り候補集合を作成し,それに基づいて単語を置き換えて誤り生成を行った。この手法は,BEA-2019 Shared Task (Bryant et al. 2019)の 3 部門中 2 部門で 1 位の成績を収めた. Choe et al. (2019)は, 単にランダムな単語の置換を行うだけでなく, 学習者コーパス中の誤りパターンや, 前置詞の置き換えや名詞・動詞の語形変化などのルールを用いて誤り生成を行った。この手法は, 同タスク同部門で 2 位の成績を収めた. Flachs et al. (2019)は,文中のコンマを削除することで,約物の誤りを生成し,ニューラル手法での有効性を検証した,Xu et al. (2019)は,品詞解析の結果に基づき接辞に関する誤り(arrive $\rightarrow$ arrival など)を生成した。 逆翻訳は,誤りを生成するモデルを用いて,文法的に正しい文から誤り文を生成するデー夕拡張手法である (Rei et al. 2017). Xie et al. (2018)は, 単に逆翻訳を行うのではなく, 逆翻訳のビーム探索においてノイズを加えることで多様な誤り文を生成する手法を提案した。 さらに, Kiyono et al. (2019)は, Xie et al.の手法を大規模データで試し,その有効性を示した. Wan et al. (2020)は, 誤り生成モデルを用いてデータ拡張を行う際に, 隠れ状態にノイズを加える手法 を提案した. Stahlberg and Kumar (2021)は,スパン単位の翻訳モデル (Stahlberg and Kumar 2020)を用い,逆翻訳を行った。この手法では, 誤り種類をモデルに与え, 生成する誤り種類の制御を行うことで,多様な誤り文を得ている。 折り返し翻訳は,機械翻訳によって,文法的に正しい文を異なる言語に翻訳し,再び元の言語へ再翻訳する手法である。 Lichtarge et al. (2019) は,折り返し翻訳により得られたデータで事前学習を行い,折り返し翻訳の文法誤り訂正での有効性を確かめた。Lichtarge et al. (2020) は, perplexityに基づくカリキュラム学習を行い,折り返し翻訳により得られるデータの性質を調査した。 ## 3 手法 本節では,まず, 3.1 節で,本研究で用いる 5 つの誤りカテゴリについて説明する.誤りカテゴリは,誤り生成の効果を検証する実験で用いられる。次に, 3.2 節で誤り生成行うモジュールについて説明し,続いて,3.3節でそのモジュールを組み合わせて誤り生成を行う方法について説明する。 ## 3.1 誤りカテゴリ 本研究では,英文中の誤りを機能語,語形変化,語彙選択,語順,表記の 5 カテゴリに分類する。これらの誤りカテゴリを用いることで,人工データ中の誤りの種類を変える効果を容易に比較することが可能になる. 誤りは,トークン単位のものと構文単位のものに分類できる。語順誤りは,構文単位の誤りに属し, 語や句の位置に関する誤りを指す. 例えば, "I my flight missed ( $\rightarrow$ missed my flight)." の missed の位置の誤りは語順誤りである. トークン単位の誤りは,語彙に関するものと表記に関するものに分類できる。表記誤りは,文字による言語の表記方法の規則に関する誤りである。具体的には, 句読法, 複合語, 正書法,縮約,大小文字などに関する誤りである。なお, 本研究では, 綴り誤りも表記誤りの一部としている。例えば, “I went $t u(\rightarrow$ to $)$ Tokyo, ( $\rightarrow$.)"の $t u$ や, は表記誤りである. 語彙に関する誤りは,機能語誤りと内容語誤りに分類できる。機能語誤りは,前置詞や代名詞などの文法的関係を示す語に関する誤用である。例えば, “I missed mine flight.” の mine は機能語誤りである。内容語誤りは, 誤り生成の方法が異なっていることから, さらに, 語形変化誤りと語彙選択誤りに分類できる。語形変化誤りは,形容詞・名詞・動詞の語形に関する誤りである。例えば, “I goed ( $\rightarrow$ went) to Tokyo." の goed は語形変化誤りである. 語彙選択誤りは,文脈上適切な内容語の選択に関する誤りである。例えば, “I lost ( $\rightarrow$ missed) my flight." の lost は語彙選択誤りである. ## 3.2 誤り生成モジュール 人工的な誤り生成をルールで行う場合, 品詞などの文法カテゴリや, 個別の単語ごとにルー ルを定める必要がある。本研究では,文法カテゴリや単語ごとに誤り生成を行う単位を誤り生成モジュールと呼ぶ. 誤り生成モジュールは, 188 種類作成した。表 1 に,誤りカテゴリごとのモジュール数の内訳を記した。 誤り生成モジュールの入力文は予め, SpaCy v2.31を用いてトークン化されている.また,各単語は SpaCyによって, 品詞タグ, 係り受けタグ, 見出し語, 固有表現のIOB タグが付される。各誤りモジュールは,誤り生成の際に,これらの情報を利用する。 言語的な知識をほとんど伴わない単純な規則として, ランダムに単語または文字をマスクトー クンに置き換える,マスクトークン予測の規則と,頻度の高い機能語と記号をそれぞれ削除する削除の規則の 2 つを用意した. これらを基礎モジュールと呼ぶ. 機能語誤りを生成するモジュールは, 前置詞・接続詞・代名詞・限定詞・疑問詞を対象とし,置き換える単語の候補など,規則を各単語ごとに定める必要があるため,各単語ごとに作成される. そのため, このカテゴリのモジュール数は, 他と比べ多くなっている. これらのモジュー ルは, 各モジュールの持つ条件にしたがって, 削除・置き換え・挿入の編集操作を行うことで,誤り生成を実現する。例えば,前置詞 than に関する規則では, 0.2 の確率で than を削除し,それぞれ,0.4,0.2,0.1,0.1の確率で,to, from, over, beyondに置き換える. トークンを挿入するモジュールもあり,例えば,冠詞と指示代名詞を挿入するモジュールでは,文頭,あるいはある単語間の位置において, 左の単語が存在しないか, あるいは左の単語の Penn Treebank 品詞夕グが, VB, VBD, VBG, VBN, VBP, VBZ, INのいずれかであり,かつ右の単語の Penn Treebank 品詞タグが, NN, NNS, JJ, JJN, JJS のいずれかである場合に, a, an, the, this, that, these, thoseを, それぞれ, $0.3,0.3,0.3,0.025,0.025,0.025,0.025$ の確率でサンプルし插入する. 置き換え規則の候補となる単語の集合は,辞書から意味の近い単語を収集し作成した。また,意味が元のもの 表 1 誤り生成モジュールの内訳 ^{1}$ https://spacy.io/ } と大きく変わる候補については, サンプルする確率を低くし,調整した。 語形変化誤りを生成するモジュールは, 形容詞・名詞・動詞の変化に対して,辞書を利用して異なる語形への置き換えを行う,語形変化の辞書としては, lemminflect²用いた。さらに,受動態を導く be や不定詞の $t o$ を削除するモジュールも用意した. 語彙選択誤りを生成するモジュールは,接尾辞を置き換えるものと,類義語に置き換えるものを作成した.接尾辞誤りのモジュールは,接尾辞の辞書を用意し,それを置き換えた語が辞書中にあれば置き換える操作を行う,類義語誤りのモジュールは, WordNet (Miller 1995)のシソーラスを用い,置き換えを行う。 語順誤りのカテゴリは,その性質に基づき,さらに 2 つのサブカテゴリに分けることができる.1つは,語や句が文中で動くことによる誤りである。もう 1 つは,句の中で語の並びが変わることによる誤りである。語順誤りを生成するモジュールのうち,前者の誤りに対するものは, モジュールごとに正規分布を設定し,語句の移動距離をサンプルする,語については,副詞と疑問詞の位置を,句については,前置詞句の位置を移動するモジュールを用意した。また,すべての語に対して小さな位置の移動を行うモジュールも用意した. 後者のものに対しては,句を検出し,その並びを変えることにより誤りを生成する。形容詞の連接を並び替えるモジュー ルと,名詞句 A, Bに対して “A of B”を“B of A”にするモジュールを用意した。 表記の誤りを生成するモジュールは,誤りの種類ごとに異なる方法で誤り生成を行っている.句読法の誤りでは, 約物の削除・置き換え・挿入の操作を行う,大小文字の誤りでは,語頭の大小文字を入れ替える。この操作は,固有表現ではスパン単位で行う。これは,例えば,'Long Island' の誤り事例として, 'long Island'よりも訂正の難度が高い, 'long island' の事例を多く生成するためである,正書法の誤りでは,ランダムに単語間の空白文字を削除,または単語中に空白文字を插入する。また,単語中に空白文字を挿入する際は,分割される単語が辞書中に含まれているようにする。これは, 例えば, 'football'は, 'foo tball'よりも 'foot ball'と分割されてほしいためである,綴り誤りでは,単語に対し,文字の削除・挿入・置き換え・隣り合う字の入れ替えの操作を行う.操作の回数は幾何分布からサンプルされる.挿入・置き換えされる文字は, 対象となる箇所の前 2 文字 $x_{n-2}, x_{n-1}$ と, 後ろ 2 文字 $x_{n+1}, x_{n+2}$ から, 間の文字 $x$ を予測する確率分布 $p\left(x \mid x_{n-2}, x_{n-1}, x_{n+1}, x_{n+2}\right)$ からサンプルされる. この分布は, 順方向ニュー ラルネットワークを学習し, 推論することで得る. すべてのモジュールに対する詳しい説明は,付録に記した。 ## 3.3 誤り生成の仕組み 本研究では,誤り生成モジュールを組み合わせる手法を考案した. 図 1 は, 提案手法の概要  図 1 誤り生成手法の概要 を示している.この手法では, 文法的な文を入力として, 複数の誤り生成モジュールを順番に適用していき,最終的な誤り文を得ている。 モジュールを適用する順序は, 後に来るモジュールが, 先に来るモジュールが生成した誤りを完全に書き換えないように定める,例えば,前置詞誤りを生成するモジュールは,叔り誤りを生成するモジュールより先に来る。これは,前置詞誤り生成モジュールは,誤り生成の過程 のようになり,経り誤りが前置詞誤りによって打ち消されてしまうが,前置詞誤りを先に生成 用順序は,付録に示した. 各誤り生成モジュールは,モジュールの持つ条件を満たす語や区間に対して適用される。各モジュールは, 各入力文ごとに, 誤り生成を行う確率(誤り生成確率)を変化させる。これは,各誤り文が多様な誤り傾向を持つようにするための工夫である。提案手法では, 誤り生成確率の分布にベータ分布を用い,モジュールごとに分布のパラメータを変えることで,各文法カテゴリの誤りの割合を調整している。各モジュールが持つべータ分布のパラメータは,人手で定めた,その具体的な值は,付録に示した。各モジュールは,入力文に対し,まず誤り生成確率をサンプルする,次に,各単語や区間に対して,モジュールの適用の条件を満たすかを検査する。適用可能であれば,一様分布から值をサンプルし,その值が誤り生成確率を下回っていれば,誤り生成を行う。 例として, 図 1 の誤り生成について説明する. 文法的な文 “I went to Tokyo.” が入力される. まず,1番目のモジュールとして, 前置詞 to の誤りを生成するモジュールが入力文に適用され る。入力文に対して, 誤り生成確率 0.2 がサンプルされる。文中の 'to'は, このモジュールが適用可能であるため, この単語に対して一様分布から値 0.1 がサンプルされる. この値が誤り生成確率より小さいため, この'to'に対して誤り生成が行われる。 'to'は, 'for'や 'in'などへの置き換えか,削除からランダムに選択される。図の場合は,削除が行われている.次に,2 番目のモジュールとして,代名詞 $I$ の誤りを生成するモジュールが適用される。誤り生成確率 0.05 がサンプルされる. 文中の 'I'は,このモジュールが適用可能で,一様分布から 0.9 がサンプルされる。この値は誤り生成確率より大きく, 誤り生成は行われない。この操作を,すべての誤り生成モジュールで繰り返し,最終的な誤り文を得る。 ## 4 実験設定 本節では, 5 節と 6 節の実験に用いるデータセット, モデル, さらに, 事前学習・再学習を行う際の設定について説明する。 ## 4.1 データセット データ拡張には, WMT 2020 news task³単言語コーパスのうち, News Crawl 2015-2020, Europarl v10, News Commentary v16 を用いた。単言語コーパスは, fastText の言語判別器4を用い,英語以外の文を取り除き,163,616,582 文から成っている。'16M 文'など,単言語コーパスの一部を用いる場合は,これらからサンプルした文を用いている. 学習者コーパスは, BEA-2019 Shared Task ${ }^{5}$ (Bryant et al. 2019)の訓練データセットを用いる. このデータセットは,4つのコーパスから成っている。 それぞれ,FCEコーパス (Yannakoudakis et al. 2011), NUCLE (Dahlmeier et al. 2013), Lang-8 コーパス (Mizumoto et al. 2011; Tajiri et al. 2012), Write \& Improve (Bryant et al. 2019; Granger 1998) である。それぞれの規模を表 2 に示す. Lang-8コーパスでは,誤り文と修正文が同一な文対は,単に訂正が行われていない 表 2 訓練データセットの概要 ^{5}$ https://www.cl.cam.ac.uk/research/nl/bea2019st/ } 表 3 評価データセットの概要 事例もあるという事情から,予め取り除いた。また, Lang-8コーパス以外のコーパスは, 比較的規模が小さいが品質は高いという事情から, 学習時に標本数を 3 倍にした. これらの操作を行ったことで,1 エポックで学習されるデータは,のべ 857,787 文対となる ${ }^{6}$. 評価には 4 種類のデータセットを用いた。 それぞれ,BEA-2019 Shared Taskの検証/評価デー 夕, CoNLL-2013 Shared Task (Ng et al. 2013)の評価データ(CoNLL14 評価データの検証デー タとして用いる),CoNLL-2014 Shared Task (Ng et al. 2014)の評価データ,FCEコーパスの検証/評価データ, JFLEG コーパス (Napoles et al. 2017)の検証/評価データである. BEA-19, FCE データセットの評価には ERRANT (Bryant et al. 2017), CoNLL-13/14 には MaxMatch (Dahlmeier and Ng 2012),JFLEGには GLEU (Napoles et al. 2015) を用いた。それぞれの評価尺度,規模を表 3 に示す。 すべてのデータに対して, 分解可能文字 (àなど) や約物の正規化の前処理を行った. また, 語彙サイズ 16,000の BPE-dropout (Provilkov et al. 2020)を各エポックで適用した. BPE-dropout の dropout 確率は, 学習データの誤り文側で 0.1 , その他 (学習データの修正文側, 評価データの誤り文・修正文)で 0 である。 ## 4.2 モデル 文法誤り訂正のモデルは, fairseq v0.10.27で実装されている Transformer Big モデル (Vaswani et al. 2017) を用いた. Transformer Big モデルは, 16-head の self-attention 層があり, 隠れべクトルの次元は 1,024 である. Feed-forward 層の次元は 4,096であり, 活性化関数には GeLU 関数 (Hendrycks and Gimpel 2016) を用いた. さらに,エンコーダの入力, デコーダの入力と出力の単語分散表現のパラメータを共有した (Press and Wolf 2017). 収束の良さの観点から, post-norm 設定ではなく pre-norm 設定を用いた,推論時には,幅 12 のビーム探索を行い,罰則 0.6 の長さ正規化を行った. 実験の際には, シード值を変えて 5 モデルを学習し, 各スコアの平均と, アンサンブル生成を行ったときのスコアを報告する. これらの設定は, 既存の研究 ^{7}$ https://github.com/pytorch/fairseq } とパラメータ数やモデル構造の条件を一致させた上で, それ以外の点については, 学習者コー パスのみを用いて予備実験を行い,最も性能が良くなるものを採用した. ## 4.3 事前学習・再学習 事前学習では, 3 節の手法で生成したデー夕を用い,再学習では,学習者デー夕を用いる,誤り生成は, 事前学習のエポック毎に行っている。このため, 事前学習時の訓練デー夕の誤り文側は, エポック毎に異なっている。再学習は, 学習者コーパスを用い, 30 エポック行う. 事前学習のエポック数は実験設定によって異なるため,その都度明記する,事前学習を行わず,学習者データのみで訓練する場合, 40 エポック学習する。 ## 4.4 訓練設定 損失関数は, $\alpha=0.1$ のラベル平滑化を適用した交差エントロピー損失を用い,最適化には, $\left(\beta_{1}, \beta_{2}\right)=(0.9,0.999)$, L2 正則化係数が 0.001 の AdamW アルゴリズム (Loshchilov and Hutter 2019) を用いた,学習率は,事前学習+再学習の実験では 0.001 ,学習者コーパスのみの実験では 0.0015 とし, 最初の 8,000 ステップの間, 線形に warm-up を行った後に, 逆 2 乗減衰を行った. 訓練事例の最大長は 400 トークンとした. Transformer モデルの dropout 確率は, 注意機構と順伝播層で 0.2 , その他で 0.3 とした。勾配クリッピングは, 事前学習 + 再学習の実験では 0.3 , 学習者データのみの実験で 1.0 とした. 1 ミニバッチの最大トークン数は 4,000 とし, 事前学習 + 再学習の実験では, 128 ミニバッチ, 学習者デー夕のみの実験では, 8 ミニバッチの勾配を累積する。 ## 5 データ拡張における 3 つの仮定の検証 本節では,1節で述べた 3 つの仮定に関して,それぞれ検証を行う。 ## 5.1 (1) 誤り種類の多様さの効果 仮定 (1)「生成される誤りの種類の多様さが, 訂正性能に寄与する」について調査するため, 事前学習に用いるデータの誤り生成に用いる規則のカテゴリを変える実験を行った. 全モジュー ルを用いたもの, モジュール数 0 のもの, 基礎モジュールのみのもの, 基礎モジュール +1 カテゴリ,全モジュール-1 カテゴリで実験を行った,誤り生成は 1,600 万文に対して行い,事前学習は 10 エポック行った. 表 4 に結果を示した. 誤り生成を行わずに事前学習を行った場合, すなわち, 入力から出力へコピーを行うよう学習した場合, 性能は学習者コーパスのみで訓練した場合よりも悪くなっている.なお, 誤り生成を行わない設定では,勾配の発散を防ぐため,勾配クリッピングの值を 0.1 としている。この & & & \\ 表 4 誤り種類の多様さの効果(5 モデルの平均 / アンサンブル). 結果は, 事前学習を行うためには, 単言語コーパスに対して何かしらのデータ拡張を行う必要があることを示している。すべてのモジュールを用いた場合,学習者コーパスのみを用いた結果に対し, BEA-19, CoNLL-14, FCE, JFLEGの 4 つ評価データセットにおいて,それぞれアンサンブル生成を行った場合で, $5.86,5.46,2.33,2.54$ ポイントの大幅な性能向上が確認できた.基礎モジュールのみを用いた場合でも,4.04, 2.88, 1.79, 0.85 ポイントと性能向上が見られる. このことは,トークンの削除とマスクトークン予測という単純な操作が,データ拡張手法として高い有効性があることを示している。一方で,全モジュールから基礎モジュールのみを取り除いてデータ拡張を行った場合,全モジュールを用いた場合と性能差が小さいことが確認できる。 このため, 基礎モジュールの寄与は, 多様な誤り生成を行った場合に打ち消されると言える. 次に,基礎モジュールを加えた上で,さらに 1 カテゴリのモジュールと 4 カテゴリ・ 5 カテゴリのモジュールを加えた場合で比較を行い, 生成される誤りの多様さが及ぼす影響について評価を行う,基礎モジュールに対して,1 カテゴリのモジュールを追加することで,基礎モジュー ルのみを用いてデータ拡張を行う場合と比較して, 全体的に性能の向上が確認できる。特に, 表記誤りが性能向上に大きく影響していることが確認できる.基礎モジュールと 4 カテゴリのモジュールを用いる場合,すなわち,全モジュールから 1 カテゴリのモジュールを取り除いた場 合では,全モジュールを用いた時と同程度の性能向上が見られる.表記誤りのモジュールを取り除いた場合, 他のカテゴリと比べて性能低下が大きい.このことから, 表記誤りは, 他のカテゴリと比べて性能への影響が大きいことが示唆される。学習者コーパス中の表記誤りの割合は,機能語や内容語の誤りの割合と比較して特段に多いというわけではない (White and Rozovskaya 2020). そのため, 表記誤りの訂正性能への影響は, このカテゴリ特有の性質によるものと考えられる。また,全モジュールから語順に関するモジュールを除いた場合の性能が他と比べて高くなっている. 6.2 節における折り返し翻訳や逆翻訳との提案手法の比較でも述べる通り, 本研究で設計したルールによる誤り生成では,語順誤りの訂正性能が低く,良い語順誤りが生成できていない可能性があり,このことが全体の性能低下の要因となっている可能性がある. 必ずしもすべてのモジュールを用いたときが最も性能が高いというわけではないが,データ拡張による誤りデータ中の誤り種類が増えることが,一般に文法誤り訂正モデルの訂正性能を向上させること,すなわち,仮定 (1) の妥当さを確認することができた. ## 5.2 (2) 訂正される誤り種類への影響 仮定 (2)「特定の種類の誤りが生成されることが,その種類の誤り訂正性能に寄与する」について調査するため,5.1 節でのモデルの出力に対し, ERRANT 評価器による誤り種類別自動評価を行った. ERRANT 誤り種類は,BEA-19 評価データに出現するものから,機能語に関するもので出現頻度が高い 3 種, DET, PREP, PRON, 内容語に関するもので出現頻度が高い 3 種, NOUN:NUM, VERB, VERB:TENSE, 表記に関するもので出現頻度が高い 3 種, ORTH, PUNCT, SPELL,語順誤りの WO の計 10 種を対象とした. 各誤り種類の名称と, 対象とする文法カテゴリ, 誤りの例を表 5 に示す. 図 2 は, 事前学習のみを行ったモデルでの誤り種類別評価である。数値は $F_{0.5}$ 值であり, 5 & & \\ 表 510 種の誤り種類の一覧(例は ERRANT の元論文 (Bryant et al. 2017)のものである.) 図 2 BEA-19 評価データでの, 事前学習のみを行ったモデルの誤り種類別性能 (5モデルの平均). モデルの平均の結果を示している,学習者コーパスによる再学習を行っていないため, 誤り生成で出現しない種類の誤りは訂正されないと考えられる,図 2 の「誤りなし」の場合では,ほとんどすべての誤り種類で,訂正ができていない.SPELLで誤り訂正が行えているのは,サブワードを用いている効果と考えられる。「基礎のみ」の場合では,「誤りなし」と異なり,全体的にある程度の誤り訂正が行えるようになっている。 さらに,機能語の誤り生成を追加した場合では, DET, PREP, PRON の機能語に関する誤り種類で特に性能が向上していることが確認できる. なお, WO の值が $\mathrm{F}_{0.5}=10$ となっているが, これは, "It is combination of a physical power." $\rightarrow$ "It is a combination of physical power." などの訂正事例を ERRANT が誤って分類しているからと考えられ,語順誤りが訂正できていることを意味しない。語形変化の誤り生成・語彙選択の誤り生成を追加した場合では, NOUN:NUM, VERB:TENSE の性能向上が大きい。一方, VERB の訂正性能は変化していない. 語順の誤り生成を追加した場合では, WOのみで性能向上が確認される. 表記誤り生成を追加した場合では, 特に ORTH, PUNCT, SPELL の表記誤りで性能向上が確認できる。また, PRON, VERBでも大きな性能向上が確認でき, PREP, NOUN:NUMにおいてもその影響を見ることができる。これは綴り誤りの生成が,間接的に別の種類の誤りを生成したためたと考えられる,以上のことから,事前学習のみを行ったモデルでは,多くの誤り種類で,仮定 (2) が適当であることが確認された. 図 3 は, さらに再学習を行ったモデルでの誤り種類別評価である。「事前学習なし」は,学習者コーパスのみを用いて学習を行った結果である。「事前学習なし」と「基礎のみ」の場合を比較すると,ほとんどすべての誤り種類で事前学習によって大幅な性能向上が見られていることが分かる。 さらに,データ拡張を行う誤りカテゴリ別に見ると,「基礎+機能語」でDET, PREP, PRON, 「基礎 + 語順」でWO,「基礎+表記」でORTH, PUNCT, SPELLの値が,「基礎のみ」や基礎カテゴリに他の 1 カテゴリを加えた場合と比べて高くなっている,このことから,これらの誤り種類では,再学習後も仮定 (2) が適当であることが分かる。一方で,「基礎+語形変化」「基礎 + 語彙選択」が内容語の誤り訂正に与える効果を明確に確認することはできなかった。このことから, 誤り生成を行うカテゴリが, 学習者コーパスでの再学習後にも訂正性能に影響を与えるかは,誤りカテゴリごとに異なってくる可能性が示唆される。 ## 5.3 (3) データの規模の影響 仮定 (3)「データ拡張に用いるデータの规模が,訂正性能に寄与する」について調査する。一般に,学習に用いるデータサイズが大きくなれば,性能も向上すると考えられる. Kiyono et al. (2019), Wan et al. (2020)は, 誤りを生成するモデルを用いたデータ拡張を行い, 学習データの増加が性能の向上につながることを示した. 図 4 の青点線は, 事前学習のエポック数を 10 で固定し, 提案手法での誤り生成に用いる単言語コーパスのサイズを変えた結果である. 先行研究と同様に,データサイズが性能の向上に寄与するという結果になっている. 図 3 BEA-19 評価データでの, 再学習まで行ったモデルの誤り種類別性能(5 モデルの平均). しかし, この結果からは, 性能向上の主な要因が, デー夕拡張に用いる単言語コーパスの規模が大きくなったことなのか,あるいは,パラメータの更新回数が増えたことなのかがわからない.どちらが性能向上に重要かを確認するため,単言語コーパスの規模を変えた時,事前学習全体でのステップ数が同じになるように学習エポックを変えて実験を行った。具体的には,単言語コーパスの文数と学習エポックの積が 1 億 6,000 万となるようにした. 図 4 の赤実線が, その結果である。単言語コーパスの文数が 100 万文であっても,ステップ数を揃えれば,性能の低下は非常に小さいことが確認できる。このことから,単言語コーパスの規模ではなく, ステップ数,言い換えれば,モデルパラメータの更新回数が性能向上の主な要因であることが分かる.このことは,仮定 (3) が適当なものではないことを意味する. 本研究では, デー夕拡張はエポック毎に行っている。そのため, 5.3 節の結果は, 十分なステップ数で学習を行ったためだけでなく, 十分な回数の誤り生成を行ったことも影響している可能性がある.この効果を検証するため,毎エポックでデータ拡張を行う設定と, 1 度だけデー 夕拡張を行い,そのデータを繰り返し用いる設定の比較を行う。図 5 の赤実線が毎エポックデー 図 4 単言語コーパスの規模・訓練エポックを変える効果、スコアは 5 モデルの平均であり,番号はエポック数を表す. 図 5 毎エポック誤り生成を行う効果,スコアは 5 モデルの平均であり,番号はエポック数を表す. 夕拡張を行った結果であり,青点線が 1 度だけ行った結果である. 5.3 節の結果に基づき,学習ステップ数は固定とした。毎エポックでデータ拡張を行う場合は, より性能が高いだけでなく,利用する単言語コーパスの規模に性能が大きく影響されないことが確認できる。一方で, 1 度だけ行う設定では,単言語コーパスの規模が 400 万文より少なくなると性能が急に低下し始める.これは, 1 度だけデー夕拡張を行う場合では, 事前学習で学習される誤り文の種類が, 単言語コーパスの規模で決まってしまうためだと考えられる。このことから, 誤りデータを毎エポックで生成することは, より多様な誤り文でモデルを学習でき, 単言語コーパスの規模によらない性能向上をもたらすことが分かる.このことも, 先程と同様に, 仮定 (3) が適当なものではないことを意味している。一方で,400万文より多い単言語コーパスを用いる場合は,計算リソースの節約のため,1回だけの誤り生成を行うだけでも十分と言うこともできる。そのため, 計算リソースの制約がある場合, 利用可能な単言語コーパスの規模によって, 誤り生成を 1 回だけ行うか,毎エポック行うかのどちらが良いか,検討すべきである. ## 6 他手法との比較 本節では,本手法と他手法に対する既存のベンチマーク上での比較を行い,本手法の有効性や限界について検証を行う. ## 6.1 学習者データを用いない手法・最先端手法との比較 本研究で用いた手法と, 最先端の手法を比較するため, より大規模なデータを用い, 性能向上のための工夫を追加した実験を行った。性能向上のための工夫としては, ドメインを限定した追加再学習,マスク言語モデルによるリランキングを行った. ドメインを限定した追加再学習 Choe et al. (2019) では, さらなる性能向上のため, 拡張デー 夕による事前学習, 学習者データによる再学習を行った後に, 再学習に用いるデータセットのうち, テストデータとドメインが近いもののみを用いて追加の再学習を行っている。本研究では, BEA-2019, FCEコーパスのテストセットに対して,それぞれ W\&I train, FCE trainをドメインが近い訓練データとして用いる。事前学習を行ったモデルに対し, すべての学習者コーパスで 5 エポックの再学習を行い, ドメインが近い訓練データでの追加再学習は 30 エポック行う. マスク言語モデルによるリランキング Chollampatt et al. (2019)では,モデルがビーム探索により生成した n-best 候補に対し, BERT (Devlin et al. 2019) が計算する疑似尤度を用いてリランキングを行っている。疑似尤度の計算方法は, Salazar et al. (2020)の方法に従い, RoBERTa large モデル (Liu et al. 2019)を用いた. 表 6 に, 事前学習のみを行った場合の結果を示す. 事前学習のみを行った場合は, 学習者コー パスを用いない教師なし設定とみなすことができる。 さらに, 既存の学習者コーパスを用いな 表 6 事前学習のみを行った場合の結果. 既存研究は学習者コーパスを用いないものである. い教師なし設定の手法より高い性能を示していることが分かる. 表 7 に, 再学習・追加の再学習まで行った場合の結果を示す. 再学習, 追加の再学習を行った場合では,デー夕拡張に用いている手法・単言語コーパスが既存報告ごとに異なっているため単純な比較はできないが, 既存の最先端手法と同程度の性能を示していることが確認できる. また,ドメインを限定した追加の再学習やマスク言語モデルによるリランキングが性能の向上に効果的であることも確認できる. ## 6.2 折り返し翻訳・逆翻訳との比較 Lichtarge et al. (2019)は,折り返し翻訳により得られたデータによる事前学習が文法誤り訂正に効果的であることを示した。また, Xie et al. (2018)は,文法誤り訂正の逆翻訳において効果的にノイズを加える方法を示し, Kiyono et al. (2019) は, 逆翻訳を大規模なデータで実施し, その有効性を示した,本節では,提案手法を折り返し翻訳,逆翻訳と比較し,ルールによる誤り生成の利点と欠点について分析する. 折り返し翻訳については,まず,ドイツ語・フインランド語・フランス語・ラトビア語の機械翻訳モデルを WMT のニュースタスクのデータセットを用いて学習する。翻訳モデルには, Transformer モデルの base 設定を用いた。その結果を表 8 に示す. 4 言語で, 1,600万文に対して折り返し翻訳を行い,事前学習のデータとして用い,学習者データで再学習を行った。さらに,学習データ中の事例が多様になるように,各エポックで 4 言語でのデータから文ごとにランダムに学習事例をサンプルする実験も行った,逆翻訳については,ランダムノイズを加えるXie et al. (2018)の手法を用い, Koyama et al. (2021a)で用いられている設定を採用し, Transformer モデルの base 設定の逆翻訳モデルを学習し, $\beta_{\text {random }}=8$ を用いた. 結果を表 9 に示した,提案手法を用いた結果は,折り返し翻訳によるすべての設定よりも高 & & & \\ Choe et al. (2019) & 69.06 & 60.33 & - & - \\ Grundkiewicz et al. (2019) & 69.47 & 64.16 & 55.81 & 61.22 \\ Kiyono et al. (2019) & 70.2 & 65.0 & - & 61.4 \\ Lichtarge et al. (2020) & 73.0 & 66.8 & - & $\mathbf{6 4 . 9}$ \\ Wan et al. (2020) & 70.0 & 65.9 & $\mathbf{6 2 . 6}$ & - \\ Stahlberg and Kumar (2021) & $\mathbf{7 4 . 9}$ & $\mathbf{6 8 . 3}$ & - & 64.7 \\ 学習者コーパスのみ & 59.09 & 54.03 & 50.18 & 57.33 \\ シングル & 63.56 & 56.79 & 53.14 & 58.15 \\ アンサンブル & 66.06 & 60.49 & 54.38 & 60.49 \\ アンサンブル + リランキング & & & & \\ 事前学習 + 再学習 & 70.20 & 63.71 & 55.94 & 60.98 \\ シングル & 71.93 & 64.91 & 57.23 & 61.34 \\ アンサンブル & 71.80 & $\underline{65.23}$ & 57.31 & $\underline{63.47}$ \\ アンサンブル + リランキング & & \\ シングル & 70.28 & - & 57.65 & - \\ アンサンブル & 73.11 & - & $\underline{59.19}$ & - \\ アンサンブル +リランキング & $\underline{72.85}$ & - & 58.87 & - \\ 表 7 再学習・追加の再学習まで行った場合の提案手法での結果. 既存研究は, 学習者コーパスを用いたものである。なお,下線は valid データで最も性能が高かった値に付している。 表 8 折り返し翻訳モデルの BLEU スコア(SacreBLEU (Post 2018)を用いた) い性能を示していることが確認できる。一方で,逆翻訳を用いた手法と比較した場合,すべての評価データで性能が劣る結果となった,提案手法には,ルールによって学習データの誤り種類をコントロールできるという利点があるものの,単に誤り訂正の性能を改善したいのであれば,逆翻訳による手法は有力な選択肢と言える。 そこで, 各手法間のデータ拡張の効率について議論する。本研究では, 産総研の AI 橋渡しクラウド $(\mathrm{ABCI})$ を利用しており,そこでの費用で比較を行う。折り返し翻訳・逆翻訳によるデータ拡張では GPUを用いた翻訳に毎時 0.3 ポイントの費用を消費するrt_G.smallノードを & & & \\ フィンランド語 & $65.89 / 68.25$ & $60.09 / 62.02$ & $\underline{53.44} / 55.15$ & $\underline{59.45} / 59.65$ \\ フランス語 & $65.81 / 68.08$ & $59.50 / 61.10$ & $53.01 / 55.19$ & $58.78 / 59.31$ \\ ラトビア語 & $65.80 / 67.97$ & $58.79 / 60.51$ & $53.27 / \underline{55.26}$ & $59.20 / 59.65$ \\ 4 言語からサンプル & $\underline{66.05} / \underline{68.71}$ & $\underline{60.30} / \underline{62.09}$ & $53.22 / 54.79$ & $59.41 / 59.97$ \\ 表 9 提案手法・折り返し翻訳・逆翻訳の比較(5 モデルの平均 / アンサンブル) 用い, 毎時 20 万文程度の生成が可能である。そのため, 1,600万文のデー夕拡張を行うためには, 折り返し翻訳で,約 96 ポイント(約 9,600 円), 逆翻訳で約 24 ポイント(約 4,800 円)が必要となる。なお, 逆翻訳では, 誤り生成モデルを学習するため, さらに約 3 ポイント消費するため, 実際には合計約 27 ポイント(約 5,400 円)が必要となる. これに対して, 提案手法では,毎時 0.6 ポイントの費用を消費するrt_C.largeノードを用いる.毎時 150 万文で SpaCyによる夕グ付け, 毎時 1,000 万文で誤り生成を行うとすると, 1,600 万文・ 10 エポックのデータ拡張を行うためには, 約 16 ポイント(約 3,200 円)が必要となる. 以上のことから, 提案手法は, よりデータ拡張の効率が良い手法であると言える. 5.2 節と同様に, 再学習後のモデルで誤り種類別評価も行った. 結果を図 6 に示す. 提案手法による結果は, 折り返し翻訳のものと比較して, ほとんどの誤り種類で良い結果となっている.特に, ORTH, PUNCT, SPELL などの表記の誤りや, NOUN:NUM で高い性能を示している。一方で, PREP, WOでは, 折り返し翻訳を用いた方が良い結果を示している。これは, 前置詞誤りや語順誤りが,誤りの訂正に広い文脈や深い構文の情報が必要となる種類の誤りであり,ルールによる単語単位の手法では十分な誤り生成が行えていない可能性を示唆している。 逆翻訳のものと比較した場合,ほとんどの誤り種類で,逆翻訳の方が良い結果となっている.特に,DET,PREP, PRON などの機能語の誤りに関しては,一貫して逆翻訳が良い結果となっている。また,WOの語順誤りにおいても,高い性能を示している。このような誤り種類では,提案手法でのルールによる誤り生成が, 十分に行われていない可能性がある. これは, 折り返し翻訳での結果と同様に,文脈などの情報を捉えられていないことが原因だと考えられる。一方で,ORTH,PUNCT などの表記の誤りでは,ルールによる誤り生成が依然有効であることが分かる。このような種類の誤りでは,学習者コーパスの分布から誤りの分布を逆翻訳で適切に再現できていない可能性がある. 以上のように,表記の誤りの中には,ルールによる誤り生成が効率的かつ効果的に生成でき 図 $6 \mathrm{BEA}-19$ 評価データでの, 折り返し翻訳と提案手法との誤り種類別性能比較 (5 モデルの平均). る場合がある一方で,機能語や語順の誤りなどでは,ルールによる手法は劣る結果となっている.このことから,ルールによる誤り生成・折り返し翻訳・逆翻訳によるデータ拡張の間には,得意な誤り種類に違いがあることが分かる.今後,これらの手法を適切に組み合わせ,より良い誤り生成手法を探求していきたいと考えている. ## 7 おわりに 本研究では,文法カテゴリごとに誤り生成を行うモジュールを設計し,その組み合わせによって誤りの種類が制御可能な, 文法誤り訂正のためのデー夕拡張手法を考案した。そして, デー 夕拡張における 3 つの仮定について検証を行った. デー夕拡張で用いるモジュールの誤りカテゴリを変え, 文法誤り訂正のモデルに事前学習を行い比較を行うことで, 仮定 (1)「生成される誤りの種類の多様さが, 訂正性能に寄与する」については, データ拡張によって生成されるデー 夕中の誤りの多様さが, 性能の向上に寄与することを確認した. また, 仮定 (2)「特定の種類の誤りが生成されることが,その種類の誤り訂正性能に寄与する」については,事前学習のみを行った場合は, 多くの誤り種類で妥当であり, 再学習を行った場合でも, 機能語・語順・表記の誤り種類において妥当であることが明らかになった. 仮定 (3)「データ拡張に用いるデータの規模が,訂正性能に寄与する」については,十分なステップ数に渡ってモデルのパラメータを更新することと,十分な回数誤り生成を行うことが,訂正性能の向上に寄与する一方で,デー 夕拡張に用いる単言語コーパスの規模は訂正性能の向上に大きな影響を持たないことが判明した. 提案手法を用いてより大規模なデー夕を作成し学習し, 性能向上の工夫を行えば, 既存の最先端手法と同程度に高性能なモデルを学習できることを確認した。 また, 事前学習のみを行ったモデルは, 既存の学習者コーパスを用いない教師なし設定より高い性能を示した. ルールによる誤り生成の性質を調査するため, 折り返し翻訳・逆翻訳でのデータ拡張との比較を行った. その結果,手法ごとに得意な誤り種類に差があることがわかった.また,ルールによる誤り生成は,効率的に実行できることがわかった。 ## 謝 辞 本論文の查読にあたり,ご意見・ご指摘をくださった査読者の方々へ感謝いたします. 本論文の内容の一部は, 言語処理学会第 27 回年次大会 (古山他 2021) および The 35th Pacific Asia Conference on Language, Information and Computation (PACLIC 35) (Koyama et al. 2021b) で発表したものである。本研究成果は,「産総研・東工大実社会ビッグデータ活用オープンイノベーションラボラトリ」により得られたものである。また, 産総研の $\mathrm{AI}$ 橋渡しクラウド $(\mathrm{ABCI})$ を利用した。 ## 参考文献 Brockett, C., Dolan, W. B., and Gamon, M. (2006). "Correcting ESL Errors Using Phrasal SMT Techniques." In Proceedings of the 21st International Conference on Computational Linguistics and 44th Annual Meeting of the Association for Computational Linguistics, pp. 249-256. Bryant, C., Felice, M., Andersen, Ø. E., and Briscoe, T. (2019). "The BEA-2019 Shared Task on Grammatical Error Correction." In Proceedings of the 14th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 52-75. Bryant, C., Felice, M., and Briscoe, T. (2017). "Automatic Annotation and Evaluation of Error Types for Grammatical Error Correction." In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 793-805. Cahill, A., Madnani, N., Tetreault, J., and Napolitano, D. (2013). "Robust Systems for Preposition Error Correction Using Wikipedia Revisions." In Proceedings of the 2013 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 507-517. Choe, Y. J., Ham, J., Park, K., and Yoon, Y. (2019). "A Neural Grammatical Error Correction System Built On Better Pre-training and Sequential Transfer Learning." In Proceedings of the 14th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 213-227. Chollampatt, S., Wang, W., and Ng, H. T. (2019). "Cross-Sentence Grammatical Error Correction." In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 435-445. Dahlmeier, D. and Ng, H. T. (2012). "Better Evaluation for Grammatical Error Correction." In Proceedings of the 2012 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 568-572. Dahlmeier, D., Ng, H. T., and Wu, S. M. (2013). "Building a Large Annotated Corpus of Learner English: The NUS Corpus of Learner English." In Proceedings of the 8th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 22-31. Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186. Flachs, S., Lacroix, O., and Søgaard, A. (2019). "Noisy Channel for Low Resource Grammatical Error Correction." In Proceedings of the 14th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 191-196. Ge, T., Wei, F., and Zhou, M. (2018). "Fluency Boost Learning and Inference for Neural Grammatical Error Correction." In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1055-1065. Association for Computational Linguistics. Granger, S. (1998). "The Computer Learner Corpus: A Versatile New Source of Data for SLA Research." In Granger, S. (Ed.), Learner English on Computer, pp. 3-18. Addison Wesley Longman, London and New York. Grundkiewicz, R. and Junczys-Dowmunt, M. (2019). "Minimally-Augmented Grammatical Error Correction." In Proceedings of the 5th Workshop on Noisy User-generated Text (W-NUT 2019), pp. 357-363. Association for Computational Linguistics. Grundkiewicz, R., Junczys-Dowmunt, M., and Heafield, K. (2019). "Neural Grammatical Error Correction Systems with Unsupervised Pre-training on Synthetic Data." In Proceedings of the 14th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 252-263. Hendrycks, D. and Gimpel, K. (2016). "Gaussian Error Linear Units (GELUs)." arXiv preprint arXiv:1606.08415v3. Izumi, E., Uchimoto, K., Saiga, T., Supnithi, T., and Isahara, H. (2003). "Automatic Error Detection in the Japanese Learners' English Spoken Data." In The Companion Volume to the Proceedings of 41st Annual Meeting of the Association for Computational Linguistics, pp. 145-148. Junczys-Dowmunt, M., Grundkiewicz, R., Guha, S., and Heafield, K. (2018). "Approaching Neural Grammatical Error Correction as a Low-Resource Machine Translation Task." In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 595-606. Kiyono, S., Suzuki, J., Mita, M., Mizumoto, T., and Inui, K. (2019). "An Empirical Study of Incorporating Pseudo Data into Grammatical Error Correction." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 1236-1242. Koyama, A., Hotate, K., Kaneko, M., and Komachi, M. (2021a). "Comparison of Grammatical Error Correction Using Back-Translation Models." In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Student Research Workshop, pp. 126-135. Association for Computational Linguistics. Koyama, S., Takamura, H., and Okazaki, N. (2021b). "Various Errors Improve Neural Grammat- ical Error Correction." In Proceedings of the 35th Pacific Asia Conference on Language, Information and Computation, pp. 251-261, Shanghai, China. Association for Computational Lingustics. 古山翔太,高村大也,岡崎直観 (2021). ニューラル文法誤り訂正のための多様な規則を用いる人工誤り生成. 言語処理学会第 27 回年次大会発表論文集, pp. 1017-1022. [S. Koyama et al. (2021). Nyuraru Bunpo Ayamari Teisei notameno Tayo na Kisoku wo Mochiiru Jinko Ayamari Seisei. Proceedings of the 27th Annual Meeting for the Association for Natural Language Processing, pp. 1017-1022.]. Lee, J. and Seneff, S. (2008). "Correcting Misuse of Verb Forms." In Proceedings of the 46th Annual Meeting of the Association of Computational Linguistics: Human Language Technology (ACL/HLT), pp. 174-182. Lichtarge, J., Alberti, C., and Kumar, S. (2020). "Data Weighted Training Strategies for Grammatical Error Correction." Transactions of the Association for Computational Linguistics, 8, pp. 634-646. Lichtarge, J., Alberti, C., Kumar, S., Shazeer, N., Parmar, N., and Tong, S. (2019). "Corpora Generation for Grammatical Error Correction." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3291-3301. Liu, Y., Ott, M., Goyal, N., Du, J., Joshi, M., Chen, D., Levy, O., Lewis, M., Zettlemoyer, L., and Stoyanov, V. (2019). "RoBERTa: A Robustly Optimized BERT Pretraining Approach." CoRR, abs/1907.11692. Loshchilov, I. and Hutter, F. (2019). "Decoupled Weight Decay Regularization." In 7th International Conference on Learning Representations, ICLR 2019, New Orleans, LA, USA, May 6-9, 2019. Miller, G. A. (1995). "WordNet: A Lexical Database for English." Communications of the ACM, 38 (11), pp. 39-41. Mizumoto, T., Komachi, M., Nagata, M., and Matsumoto, Y. (2011). "Mining Revision Log of Language Learning SNS for Automated Japanese Error Correction of Second Language Learners." In Proceedings of the 5th International Joint Conference on Natural Language Processing, pp. 147-155. Napoles, C., Sakaguchi, K., Post, M., and Tetreault, J. (2015). "Ground Truth for Grammatical Error Correction Metrics." In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pp. 588-593. Napoles, C., Sakaguchi, K., and Tetreault, J. (2017). "JFLEG: A Fluency Corpus and Benchmark for Grammatical Error Correction." In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 2, Short Papers, pp. 229-234. Ng, H. T., Wu, S. M., Briscoe, T., Hadiwinoto, C., Susanto, R. H., and Bryant, C. (2014). "The CoNLL-2014 Shared Task on Grammatical Error Correction." In Proceedings of the 18th Conference on Computational Natural Language Learning: Shared Task, pp. 1-14. Ng, H. T., Wu, S. M., Wu, Y., Hadiwinoto, C., and Tetreault, J. (2013). "The CoNLL-2013 Shared Task on Grammatical Error Correction." In Proceedings of the 17th Conference on Computational Natural Language Learning: Shared Task, pp. 1-12. Post, M. (2018). "A Call for Clarity in Reporting BLEU Scores." In Proceedings of the 3rd Conference on Machine Translation: Research Papers, pp. 186-191. Press, O. and Wolf, L. (2017). "Using the Output Embedding to Improve Language Models." In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 2, Short Papers, pp. 157-163. Provilkov, I., Emelianenko, D., and Voita, E. (2020). "BPE-Dropout: Simple and Effective Subword Regularization." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1882-1892. Rei, M., Felice, M., Yuan, Z., and Briscoe, T. (2017). "Artificial Error Generation with Machine Translation and Syntactic Patterns." In Proceedings of the 12th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 287-292. Rozovskaya, A. and Roth, D. (2010a). "Generating Confusion Sets for Context-Sensitive Error Correction." In Proceedings of the 2010 Conference on Empirical Methods in Natural Language Processing, pp. 961-970. Rozovskaya, A. and Roth, D. (2010b). "Training Paradigms for Correcting Errors in Grammar and Usage." In Human Language Technologies: The 2010 Annual Conference of the North American Chapter of the Association for Computational Linguistics, pp. 154-162. Salazar, J., Liang, D., Nguyen, T. Q., and Kirchhoff, K. (2020). "Masked Language Model Scoring." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 2699-2712. Stahlberg, F., Bryant, C., and Byrne, B. (2019). "Neural Grammatical Error Correction with Finite State Transducers." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4033-4039. Association for Computational Linguis- tics. Stahlberg, F. and Kumar, S. (2020). "Seq2Edits: Sequence Transduction Using Span-level Edit Operations." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 5147-5159. Stahlberg, F. and Kumar, S. (2021). "Synthetic Data Generation for Grammatical Error Correction with Tagged Corruption Models." In Proceedings of the 16th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 37-47. Tajiri, T., Komachi, M., and Matsumoto, Y. (2012). "Tense and Aspect Error Correction for ESL Learners Using Global Context." In Proceedings of the 50th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 198-202. Association for Computational Linguistics. Takahashi, Y., Katsumata, S., and Komachi, M. (2020). "Grammatical Error Correction Using Pseudo Learner Corpus Considering Learner's Error Tendency." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: Student Research Workshop, pp. 27-32. Association for Computational Linguistics. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., and Polosukhin, I. (2017). "Attention is All you Need." In Advances in Neural Information Processing Systems, Vol. 30. Wan, Z., Wan, X., and Wang, W. (2020). "Improving Grammatical Error Correction with Data Augmentation by Editing Latent Representation." In Proceedings of the 28th International Conference on Computational Linguistics, pp. 2202-2212. White, M. and Rozovskaya, A. (2020). "A Comparative Study of Synthetic Data Generation Methods for Grammatical Error Correction." In Proceedings of the 15th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 198-208. Association for Computational Linguistics. Xie, Z., Genthial, G., Xie, S., Ng, A., and Jurafsky, D. (2018). "Noising and Denoising Natural Language: Diverse Backtranslation for Grammar Correction." In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 619-628. Xu, S., Zhang, J., Chen, J., and Qin, L. (2019). "Erroneous Data Generation for Grammatical Error Correction." In Proceedings of the 14th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 149-158. Yannakoudakis, H., Briscoe, T., and Medlock, B. (2011). "A New Dataset and Method for Automatically Grading ESOL Texts." In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 180-189. Yasunaga, M., Leskovec, J., and Liang, P. (2021). "LM-Critic: Language Models for Unsupervised Grammatical Error Correction." In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 7752-7763. Association for Computational Linguistics. Zhao, W., Wang, L., Shen, K., Jia, R., and Liu, J. (2019). "Improving Grammatical Error Correction via Pre-Training a Copy-Augmented Architecture with Unlabeled Data." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 156-165. ## 付録 第 3 章で説明した誤り生成モジュールについて詳しく説明する。各モジュールの適用順序, 誤りカテゴリ, 誤り生成確率をサンプルするべータ分布のパラメータは, モジュール名の後ろに記す。 誤りカテゴリの注釈は以下の通りである。 B:基礎 F: 機能語誤り (Function Word) I:語形変化誤り (Inflection) L:語彙選択誤り (Lexical Choice) 0: 語順誤り (Word Order) W:表記誤り (Writing) 誤り生成や実験に用いたソースコードは公開している8. ## 前置詞 前置詞誤り生成モジュールは, Penn Treebank 品詞夕グがINで, 係り受けタグが, prep, ROOT, conj の場合,適用される。前置詞誤り生成モジュールは, 機能語誤りカテゴリに分類される。 standard_prep $(1$, F $, \sigma=0.05, \mu=0.05)$ of, to, in, for, on, with, at $\rightsquigarrow \varepsilon$, of, to, in, for, on, with, by, at prep_from $(2, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ from $\rightsquigarrow \varepsilon$, in, at, of, with, about, since prep_into $(3, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ into $\rightsquigarrow \varepsilon(0.2)$, in (0.3), to (0.3), toward (0.1), towards (0.1) prep_among $(4, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ among $\rightsquigarrow \varepsilon$, in, on, at, about, between, amid ^{8}$ https://github.com/shotakoyama/arteraro } prep_amongst $(5, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ amongst $\rightsquigarrow \varepsilon$, in, on, at, about, between, amidst prep_amid $(6, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ amid $\rightsquigarrow \varepsilon$, in, on, at, about, between, among prep_amidst $(7, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ amidst $\rightsquigarrow \varepsilon$, in, on, at, about, between, amongst prep_about $(8, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ about $\rightsquigarrow \varepsilon$, in, on, of, to, at prep_against $(9, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ against $\rightsquigarrow$ to, for, of, with prep_by $(10, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ by $\rightsquigarrow \varepsilon$, in, on, at, for, with, of, from, through, until, till prep_since $(11, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ since $\rightsquigarrow$ from prep_until $(12, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ until $\rightsquigarrow$ by, for, to, in, up to, when prep_till $(13, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ till $\rightsquigarrow$ by, for, to, in, up to, when prep_between $(14, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ between $\rightsquigarrow \varepsilon$, in, on, at, about, among, amongst, amid, amidst prep_during $(15, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ during $\rightsquigarrow$ in, for, while, when, through, across prep_within $(16, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ within $\rightsquigarrow$ with, in, of, on prep_after $(17, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ after $\rightsquigarrow$ for, by, over, from, when prep_before $(18, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ before $\rightsquigarrow$ on, for, when prep_as $(19, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ as $\rightsquigarrow$ by, of, in, on, at, like prep_like $(20, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ like $\rightsquigarrow$ as (0.8), that (0.1), than (0.1) prep_than $(21, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ than $\rightsquigarrow \varepsilon(0.2)$, to (0.4), from (0.2), over (0.1), beyond (0.1) prep_through $(22, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ through $\rightsquigarrow$ in, over, across, into, of, with, by, throughout, thru prep_throughout $(23, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ throughout $\rightsquigarrow$ in, over, across, into, of, with, by, through prep_above $(24, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ above $\rightsquigarrow$ on, from, to, over prep_behind (25, F, $\sigma=0.05, \mu=0.05)$ behind $\rightsquigarrow$ after, from, of, out prep_below $(26, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ below $\rightsquigarrow$ in, on, by, with, under, through, within prep_beyond (27, F, $\sigma=0.05, \mu=0.05)$ beyond $\rightsquigarrow$ on, over, above, out of, far from prep_over $(28, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ over $\rightsquigarrow$ on, from, to, above prep_across $(29, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ across $\rightsquigarrow$ beyond, over, through, throughout, during prep_under $(30, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ under $\rightsquigarrow i n$, on, by, with, below, through, within prep_upon $(31, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ upon $\rightsquigarrow$ on, up, up on, over, after, to prep_out $(32, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ out $\rightsquigarrow \varepsilon$ prep_toward $(33, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ toward, towards $\rightsquigarrow$ to, with, of, for, in, into ## 節標識 Penn Treebank 品詞タグが IN で,係り受けタグが,markの場合,適用される。機能語誤りカテゴリに分類される. standard_mark $(34, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ as, if, because, so, whether, while, since, although, than, though, once, whereas, whilst, like, except $\rightsquigarrow \varepsilon$ mark_for $(35, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ for $\rightsquigarrow \varepsilon(0.2)$, to (0.6), on (0.1), in (0.1) ## 動作主 Penn Treebank 品詞タグがINで,係り受けタグが, agentの場合, 適用される。機能語誤りカテゴリに分類される. agent_by $(36, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ by $\rightsquigarrow \varepsilon$, of, from, with, on agent_between (37, F, $\sigma=0.05, \mu=0.05)$ between $\rightsquigarrow \varepsilon$, by, in, on, at, from, with, about, among, amongst, amid, amidst ## 前置詞補部 Penn Treebank 品詞タグが INで,係り受けタグが, pcomp の場合, 適用される。機能語誤りカテゴリに分類される. pcomp_of $(38, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ of $\rightsquigarrow \varepsilon$ pcomp_to $(39, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ to $\rightsquigarrow \varepsilon$ pcomp_on $(40, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ on $\rightsquigarrow a t$, in, of pcomp_for (41, F, $\sigma=0.05, \mu=0.05)$ for $\rightsquigarrow$ to (0.4), at (0.2), in (0.2), on (0.2) pcomp_at $(42, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ at $\rightsquigarrow o n$, in, of pcomp_by $(43, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ by $\rightsquigarrow a t$, in, on, of, from ## 与格 Penn Treebank 品詞夕グが INで, 係り受けタグが, dativeの場合, 適用される。機能語誤りカテゴリに分類される. dative_to $(44, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ $ \text { to } \rightsquigarrow \varepsilon(0.4), \text { for }(0.6) $ dative_for $(45, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ $ \text { for } \rightsquigarrow \varepsilon(0.4), \text { to }(0.6) $ ## 副詞修飾語 Penn Treebank 品詞タグが INで, 係り受けタグが, advmod の場合, 適用される。機能語誤りカテゴリに分類される. prep_advmod $(46, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ at, as $\rightsquigarrow \varepsilon$ ## 前置詞の挿入 post_vb_prep $(47, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ 以下の条件 1., 2., 3. を満たす位置に, $t o$, in, on, at, by, for, with, of を挿入する. 1. 左の単語の Penn Treebank 品詞タグが VB, VBD, VBG, VBN, VBP, VBZ. 2. 左の単語の係り受けタグが acl, advcl, xcomp, pcomp. 3. 3a.または $3 \mathrm{~b}$. 3a. 右の単語の Universal 品詞夕グが NOUN, DET, ADJ, PROPN. 3b. 右の単語について, Universal 品詞夕グが SCONJで,かつ係り受けタグが mark. ## 代名詞 見出し語が-PRON-の語に適用する。 ## 一人称単数 1sng_subj $(48, \mathrm{~F}, \sigma=0.03, \mu=0.03)$係り受けタグがnsubj, nsubjpass, conj, appos, attr. $I \rightsquigarrow \varepsilon i, i t, m e, w e$ 1sng_nsubj_obj $(49, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ 係り受けタグがnsubj, nsubjpass, conj, appos, attr. $m e \rightsquigarrow \varepsilon, I, m y$ 1sng_dobj $(50, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ 係り受けタグが dobj. me $\rightsquigarrow \varepsilon(0.1)$, I (0.1), for me (0.3), to me (0.3), on me (0.05), in me (0.05), at me (0.05), of me (0.05) 1sng_pobj $(51, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ 係り受けタグが pobj. $m e \rightsquigarrow \varepsilon, I, m y$ 1sng_dative $(52, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ 係り受けタグが dative. $m e \rightsquigarrow \varepsilon(0.1)$, I (0.1), for me (0.3), to me (0.35), on me (0.05), in me (0.05), at me (0.05) 1sng_poss $(53, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ mine $\rightsquigarrow$ my, me, ours, his, hers 1sng_poss_det $(54, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ $m y \rightsquigarrow I$, me, mine, a, an, the, its, his, her, their 1sng_reflexive $(55, \mathrm{~F}, \sigma=0.03, \mu=0.03)$係り受けタグが dobj, conj, nsubj, nsubjpass, npadvmod, dative, attr. myself $\rightsquigarrow \varepsilon(0.2), \quad$ to myself $(0.1)$, of myself (0.1), for myself (0.1), by myself (0.1), with myself (0.1), myselves (0.02), to myselves (0.02), of myselves (0.02), for myselves (0.02), by myselves (0.02), with myselves (0.02), me (0.1), my (0.02), mine (0.02), yourself (0.02), ourselves $(0.02)$ 1sng_appos_reflexive $(56, \mathrm{~F}, \sigma=0.03, \mu=$ $0.03)$ 係り受けタグがappos. myself $\rightsquigarrow \varepsilon$, me, myselves, my self, for myself, by myself 1sng_pobj_reflexive $(57, \mathrm{~F}, \sigma=0.03, \mu=$ $0.03)$ 係り受けタグが pobj. myself $\rightsquigarrow$ me, my, my self, myselves, I ## 一人称複数 1plu_subj (58, F, $\sigma=0.03, \mu=0.03)$ 係り受けタグがnsubj, nsubjpass, conj, appos, nmod, compound, attr. we $\rightsquigarrow I$, us, our, me, they, you 1plu_pobj (59, F, $\sigma=0.03, \mu=0.03)$ 係り受けタグが pobj. $u s \rightsquigarrow w e$, ours, our, ourselves 1plu_dobj (60, F, $\sigma=0.03, \mu=0.03)$ 係り受けタグが dobj. us $\rightsquigarrow \varepsilon(0.1)$, we (0.1), for us (0.3), to us (0.3), on us (0.05), in us (0.05), at us (0.05), of us (0.05) 1plu_nsubj_obj $(61, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ 係り受けタグがnsubj, nsubjpass, conj, appos, nmod, compound, attr. us $\rightsquigarrow \varepsilon$, we, our 1plu_dative $(62, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ 係り受けタグが dative. us $\rightsquigarrow \varepsilon(0.1)$, we (0.1), for us (0.3), to us (0.35), on us (0.05), in us (0.05), at us (0.05) 1plu_poss $(63$, F $, \sigma=0.03, \mu=0.03)$ ours $\rightsquigarrow$ our, us, we, mine, theirs, yours 1plu_poss_det $(64, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ our $\rightsquigarrow \varepsilon$, we, us, ours, a, an, the, theirs, its, my 1plu_reflexive $(65, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ 係り受け夕グが dobj, conj, nsubj, nsubjpass, npadvmod, dative, attr. ourselves $\rightsquigarrow \varepsilon(0.2)$, to ourselves (0.1), of ourselves (0.1), for ourselves (0.1), by ourselves (0.1), with ourselves (0.1), ourself (0.02), to ourself (0.02), of ourself (0.02), for ourself (0.02), by ourself (0.02), with ourself (0.02), us (0.1), our (0.02), ours (0.02), yourselves (0.02), myself (0.02) 1plu_appos_reflexive $(66, \mathrm{~F}, \sigma=0.03, \mu=$ $0.03)$ 係り受けタグがappos. ourselves $\rightsquigarrow \varepsilon$, us, ourself, our selves, for ourselves, by ourselves 1plu_pobj_reflexive $(67, \mathrm{~F}, \sigma=0.03, \mu=$ $0.03)$ 係り受けタグが pobj. ourselves $\rightsquigarrow \varepsilon$, us, ourself, our selves, for ourselves, by ourselves ## 二人称 2nd_subj (68, F, $\sigma=0.03, \mu=0.03)$ 係り受けタグがnsubj, nsubjpass, conj, appos, nmod, compound, attr. you $\rightsquigarrow u$, yo, your, yours, me, they 2nd_pobj (69, F, $\sigma=0.03, \mu=0.03)$ 係り受けタグが pobj. you $\rightsquigarrow u$, yo, your, yours, yourself, yourselves 2nd_dobj (70, F, $\sigma=0.03, \mu=0.03)$ 係り受けタグがdobj. you $\rightsquigarrow \varepsilon(0.1), u$ (0.05), yo (0.05), for you (0.3), to you (0.3), on you (0.05), in you (0.05), at you (0.05), of you (0.05) 2nd_dative (71, F, $\sigma=0.03, \mu=0.03$ ) 係り受けタグが dative. you $\rightsquigarrow \varepsilon$ (0.1), и (0.05), уо (0.05), for you (0.3), to you (0.35), on you (0.05), in you (0.05), at you (0.05) 2nd_poss (72, F, $\sigma=0.03, \mu=0.03)$ yours $\rightsquigarrow$ you, your, theirs, mine, ours 2nd_poss_det (73, F $\sigma=0.03, \mu=0.03)$ your $\rightsquigarrow \varepsilon$, you, yours, their, a, an, the, its, they ## 二人称単数 2sng_reflexive $(74, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ 係り受け夕グが dobj, conj, nsubj, nsubjpass, npadvmod, dative, attr. youself $\rightsquigarrow \varepsilon(0.2)$, to yourself (0.1), of yourself (0.1), for yourself (0.1), by yourself (0.1), with yourself (0.1), yourselves (0.02), to yourselves (0.02), of yourselves (0.02), for yourselves (0.02), by yourselves (0.02), with yourselves (0.02), you (0.1), your (0.02), yours (0.02), themself (0.02), myself (0.02) 2sng_appos_reflexive $(75, \mathrm{~F}, \sigma=0.03, \mu=$ $0.03)$ 係り受けタグがappos. youself $\rightsquigarrow \varepsilon$, you, yourselves, your self, for yourself, by yourself 2sng_pobj_reflexive $(76, \mathrm{~F}, \sigma=0.03, \mu=$ $0.03)$係り受けタグがpobj. youself $\rightsquigarrow$ you, your self, yourselves, your ## 二人称複数 2plu_reflexive (77, F, $\sigma=0.03, \mu=0.03)$ 係り受け夕グが dobj, conj, nsubj, nsubjpass, npadvmod, dative, attr. yourselves $\rightsquigarrow \varepsilon(0.2)$, to yourselves (0.1), of yourselves (0.1), for yourselves (0.1), by yourselves (0.1), with yourselves (0.1), yourself (0.02), to yourself (0.02), of yourself (0.02), for yourself (0.02), by yourself (0.02), with yourself (0.02), you (0.1), your (0.02), yours (0.02), themselves (0.02), ourselves (0.02) 2plu_appos_reflexive $(78, \mathrm{~F}, \sigma=0.03, \mu=$ 0.03 ) 係り受けタグが appos. yourselves $\rightsquigarrow \varepsilon$, you, yourself, your selves, for yourselves, by yourselves 2plu_pobj_reflexive $(79, \mathrm{~F}, \sigma=0.03, \mu=$ 0.03 ) 係り受けタグが pobj. yourselves $\rightsquigarrow$ you, your self, myselves, your ## 三人称単数男性 3sng_masc_subj (80, F $\sigma=0.03, \mu=0.03)$ 係り受けタグがnsubj, nsubjpass, conj, appos, nmod, compound, attr. he $\rightsquigarrow$ she, his, him, they, them, their 3sng_masc_pobj (81, F, $\sigma=0.03, \mu=0.03)$ 係り受けタグが pobj. him $\rightsquigarrow$ her, he, his, their, them, himself 3sng_masc_dobj (82, F, $\sigma=0.03, \mu=0.03)$ 係り受けタグが dobj. him $\rightsquigarrow \varepsilon(0.1)$, her (0.05), he (0.05), for him (0.3), to him (0.3), on him (0.05), in him (0.05), at him (0.05), of him (0.05) 3sng_masc_nsubj_obj $(83, \mathrm{~F}, \sigma=0.03, \mu=$ $0.03)$ 係り受けタグがnsubj, nsubjpass, conj, appos, nmod, compound, attr. him $\rightsquigarrow \varepsilon$, her, he, his 3sng_masc_dative $(84, \mathrm{~F}, \sigma=0.03, \mu=$ $0.03)$ 係り受けタグが dative. him $\rightsquigarrow \varepsilon(0.1)$, her (0.05), he (0.05), for him (0.3), to him (0.35), on him (0.05), in him (0.05), at him (0.05) 3sng_masc_poss $(85, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ his $\rightsquigarrow \varepsilon$, he, him, her, a, an, the, its, theirs 3sng_masc_reflexive $(86, \mathrm{~F}, \sigma=0.03, \mu=$ $0.03)$ 係り受けタグが dobj, conj, nsubj, nsubjpass, npadvmod, dative, attr. himself $\rightsquigarrow \varepsilon(0.2), \quad$ to himself (0.1), of himself (0.1), for himself (0.1), by himself (0.1), with himself (0.1), himselves 0.01 , to himselves (0.01), of himselves (0.01), for himselves (0.01), by himselves (0.01), with himselves (0.01), themself (0.01), to themself (0.01), of themself (0.01), for themself (0.01), by themself (0.01), with themself (0.01), he (0.045), his (0.045), him (0.045), herself (0.045) 3sng_masc_appos_reflexive $(87, \mathrm{~F}, \sigma=0.03$, $\mu=0.03)$ 係り受けタグが appos. himself $\rightsquigarrow \varepsilon$, him, themself, him self, for himself, by himself, herself 3sng_masc_pobj_reflexive $(88, \mathrm{~F}, \sigma=0.03$, $\mu=0.03)$ 係り受けタグがpobj. himself $\rightsquigarrow$ him, him self, themself, he, herself ## 三人称単数女性 3sng_fem_subj (89, F, $\sigma=0.03, \mu=0.03)$ 係り受けタグがnsubj, nsubjpass, conj, appos, nmod, compound, attr. she $\rightsquigarrow$ her, hers, they, them, their, he 3sng_fem_pobj (90, F, $\sigma=0.03, \mu=0.03)$係り受けタグが pobj. her $\rightsquigarrow$ she, hers, their, them, herself, him 3sng_fem_dobj (91, F, $\sigma=0.03, \mu=0.03)$ 係り受けタグが dobj. her $\rightsquigarrow \varepsilon(0.1)$, she (0.05), him (0.05), for her (0.3), to her (0.3), on her (0.05), in her (0.05), at her (0.05), of her (0.05) 3sng_fem_nsubj_obj $(92$, F $, \sigma=0.03, \mu=$ $0.03)$ 係り受けタグがnsubj, nsubjpass, conj, appos, nmod, compound, attr. her $\rightsquigarrow \varepsilon$, she, hers, them, him 3sng_fem_dative $(93, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ 係り受けタグが dative. her $\rightsquigarrow \varepsilon(0.1)$, she (0.05), him (0.05), for her (0.3), to her (0.35), on her (0.05), in her (0.05), at her (0.05) 3sng_fem_poss $(94, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ hers $\rightsquigarrow \varepsilon$, she, her, theirs, his, they, yours 3sng_fem_poss_det $(95, \mathrm{~F}, \sigma=0.03, \mu=$ 0.03 ) her $\rightsquigarrow \varepsilon$, she, hers, their, his, a, an, the, its 3sng_fem_reflexive $(96, \mathrm{~F}, \sigma=0.03, \mu=$ $0.03)$ 係り受け夕グが dobj, conj, nsubj, nsubjpass, npadvmod, dative, attr. herself $\rightsquigarrow \varepsilon(0.2)$, to herself (0.1), of herself (0.1), for herself (0.1), by herself (0.1), with herself (0.1), herselves (0.01), to herselves (0.01), of herselves (0.01), for herselves (0.01), by herselves (0.01), with herselves (0.01), themself (0.01), to themself (0.01), of themself (0.01), for themself (0.01), by themself (0.01), with themself (0.01), she (0.045), her (0.045), hers (0.045), himself (0.045) 3sng_fem_appos_reflexive (97, F, $\sigma=0.03$, $\mu=0.03)$ 係り受けタグが appos. herself $\rightsquigarrow \varepsilon$, her, themself, her self, for herself, by herself, himself 3sng_fem_pobj_reflexive $(98, \mathrm{~F}, \sigma=0.03$, $\mu=0.03)$ 係り受けタグが pobj. herself $\rightsquigarrow$ her, her self, themself, she, himeslf ## 三人称複数 3plu_subj (99, F, $\sigma=0.03, \mu=0.03)$ 係り受けタグがnsubj, nsubjpass, conj, appos, nmod, compound, attr. they $\rightsquigarrow$ them, their, he, him, she, her, themself, themselves 3plu_pobj (100, F, $\sigma=0.03, \mu=0.03)$ 係り受けタグが pobj. them $\rightsquigarrow$ they, their, him, her 3plu_dobj (101, F, $\sigma=0.03, \mu=0.03)$ 係り受けタグが dobj. them $\rightsquigarrow \varepsilon(0.05)$, they (0.05), her (0.05), him (0.05), for them (0.2), to them (0.2), on them (0.1), in them (0.1), at them (0.1), of them (0.1) 3plu_nsubj_obj $(102, \mathrm{~F}, \sigma=0.03, \mu=0.03)$係り受けタグがnsubj, nsubjpass, conj, appos, nmod, compound, attr. them $\rightsquigarrow \varepsilon$, they, their, him, her 3plu_dative $(103, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ 係り受けタグが dative. them $\rightsquigarrow \varepsilon(0.05)$, they (0.05), him (0.05), her (0.05), for them (0.3), to them (0.35), on them (0.05), in them (0.05), at them (0.05) 3plu_poss $(104$, F, $\sigma=0.03, \mu=0.03)$ theirs $\rightsquigarrow \varepsilon$, they, them, their, its, his, hers 3plu_poss_det $(105, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ their $\rightsquigarrow \varepsilon$, they, them, theirs, a, an, the, its, his, her 3plu_reflexive $(109, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ 係り受けタグが dobj, conj, nsubj, nsubjpass, npadvmod, dative, attr. themselves $\rightsquigarrow \varepsilon(0.2)$, to themselves (0.1), of themselves (0.1), for themselves (0.1), by themselves (0.1), with themselves (0.1), themself (0.01), to themself (0.01), of themself (0.01), for themself (0.01), by themself (0.01), with themself (0.01), himself (0.005), to himself (0.005), of himself (0.005), for himself (0.005), by himself (0.005), with himself (0.005), herself (0.005), to herself (0.005), of herself (0.005), for herself (0.005), by herself (0.005), with herself (0.005), they (0.06), them (0.06), their (0.06) 3plu_appos_reflexive $(110, \mathrm{~F}, \sigma=0.03, \mu=$ $0.03)$ 係り受けタグがappos. themselves $\rightsquigarrow \varepsilon$, they, them, themself, them selves, for themselves, by themselves, herself, himself 3plu_pobj_reflexive $(111$, F $, \sigma=0.03, \mu=$ $0.03)$ 係り受けタグが pobj. themselves $\rightsquigarrow$ them, them selves, herself, himself ## 三人称中性 3sng_neut_reflexive $(106, \mathrm{~F}, \sigma=0.03, \mu=$ $0.03)$ 係り受け夕グが dobj, conj, nsubj, nsubjpass, npadvmod, dative, attr. themself $\rightsquigarrow \varepsilon(0.2)$, to themself (0.1), of themself (0.1), for themself (0.1), by themself (0.1), with themself (0.1), themselves (0.01), to themselves (0.01), of themselves (0.01), for themselves (0.01), by themselves (0.01), with themselves (0.01), himself (0.005), to himself (0.005), of himself (0.005), for himself (0.005), by himself (0.005), with himself (0.005), herself (0.005), to herself (0.005), of herself (0.005), for herself (0.005), by herself (0.005), with herself (0.005), she (0.03), her (0.03), hers (0.03), he (0.03), him (0.03), his (0.03) 3sng_neut_appos_reflexive $(107, \mathrm{~F}, \sigma=0.03$, $\mu=0.03)$ 係り受けタグが appos. themself $\rightsquigarrow \varepsilon$, they, them, themselves, them self, for themself, by themself, herself, himself 3sng_neut_probj_reflexive $(108, \mathrm{~F}, \sigma=0.03$, $\mu=0.03$ ) 係り受けタグが pobj. themself $\rightsquigarrow$ them, them self, herself, himself ## 三人称無生物 3sng_inan_subj $(112, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ 係り受けタグがnsubj, nsubjpass, conj, appos, nmod, compound, attr. it $\rightsquigarrow \varepsilon$, its, they, he, she, this, that, which 3sng_inan_pobj $(113, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ 係り受けタグが pobj. it $\rightsquigarrow$ its, them, him, her, this, that, which 3sng_inan_dobj $(114, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ 係り受けタグが dobj. it $\rightsquigarrow \varepsilon$, its, them, him, her, this, that, which, for it, to it, on it, in it, at it, of it 3sng_inan_dative $(115, \mathrm{~F}, \sigma=0.03, \mu=$ $0.03)$ 係り受けタグが dative. it $\rightsquigarrow \varepsilon$, its, her, him, them, for it, to it, on it, in it, at it 3sng_inan_poss $(116, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ its $\rightsquigarrow \varepsilon$, it, theirs, their, his, hers, whose, a, an, the 3sng_inan_reflexive $(117, \mathrm{~F}, \sigma=0.03, \mu=$ $0.03)$ 係り受けタグが dobj, conj, nsubj, nsubjpass, npadvmod, dative, attr. itself $\rightsquigarrow \varepsilon(0.2)$, to itself (0.1), of itself (0.1), for itself (0.1), by itself (0.1), with itself (0.1), themself (0.005), to themself (0.005), of themself (0.005), for them- self (0.005), by themself (0.005), with themself (0.005), themselves (0.005), to themselves (0.005), of themselves (0.005), for themselves (0.005), by themselves (0.005), with themselves (0.005), itselves (0.005), to itselves (0.005), of itselves (0.005), for itselves (0.005), by itselves (0.005), with itselves (0.005), himself (0.005), to himself (0.005), of himself (0.005), for himself (0.005), by himself (0.005), with himself (0.005), herself (0.005), to herself (0.005), of herself (0.005), for herself (0.005), by herself (0.005), with herself (0.005), she (0.025), her (0.025), hers (0.025), he (0.025), him (0.025), his (0.025) 3sng_inan_appos_reflexive $(118, \mathrm{~F}, \sigma=0.03$, $\mu=0.03)$ 係り受けタグが appos. itself $\rightsquigarrow \varepsilon$, it, they, them, themselves, it self, for itself, by itself, themself, herself, himself 3sng_inan_pobj_reflexive $(119, \mathrm{~F}, \sigma=0.03$, $\mu=0.03$ ) 係り受けタグが pobj. itself $\rightsquigarrow i t$, it self, herself, himself ## 限定詞 Universal 品詞夕グが DET である語に適用される。 $\operatorname{art}(135, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ $a$, an, the $\rightsquigarrow \varepsilon(0.2), a(0.2)$, an (0.2), the (0.3), this (0.025), that (0.025), these (0.025), those (0.025) demonstrative (136, F, $\sigma=0.05, \mu=0.05)$ 係り受けタグが det. this, that, these, those $\rightsquigarrow \varepsilon$, this, that, these, those, a, an, the demonstrative_extra $(137, \mathrm{~F}, \sigma=0.05, \mu=$ $0.05)$ 係り受けタグがnsubj, nsubjpass, pobj, dobj, conj, appos, attr, advmod, ROOT, quantmod, npadmod かつ Penn Treebank 品詞タグがWDT. this, that, these, those $\rightsquigarrow \varepsilon$, this, that, these, those det_no $(138, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ no $\rightsquigarrow$ not, non, any det_any $(139, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ any $\rightsquigarrow \varepsilon(0.4)$, some $(0.1)$, every $(0.1)$, $a$ (0.1), an (0.1), all (0.1), anything (0.1) det_some $(140, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ some $\rightsquigarrow \varepsilon(0.4), \quad a(0.05)$, an (0.05), the (0.05), those (0.05), these (0.05), few (0.05), little (0.05), something (0.05), somewhere (0.05), much (0.05), many (0.05), so (0.05) det_all $(141, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ all $\rightsquigarrow$ both, each, every det_both $(142$, F, $\sigma=0.03, \mu=0.03)$ both $\rightsquigarrow \varepsilon$, all, each, every det_each $(143, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ each $\rightsquigarrow \varepsilon$, all, both, every det_every $(144, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ every $\rightsquigarrow \varepsilon$, all, both, each ins_det $(151, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ 以下の条件 1., 2. を満たす位置に, $a(0.3)$, an (0.3), the (0.3), this (0.025), that (0.025), these (0.025), those (0.025) を插入す. 1. 左の単語の Penn Treebank 品詞タグ が VB, VBD, VBG, VBN, VBP, VBZ, IN. 2. 右の単語の Penn Treebank 品詞タグが NN, NNS, JJ, JJN, JJS. ## 限定詞的副詞 so $(145, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ so $\rightsquigarrow \varepsilon$, such, too such $(146, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ such $\rightsquigarrow \varepsilon$, so, very another $(147, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ another $\rightsquigarrow$ other, the other, an other other $(148, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ other $\rightsquigarrow$ another, others there $(149, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ there $\rightsquigarrow \varepsilon(0.5)$, here $(0.3)$, they (0.1), it $(0.1)$ here $(150, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ here $\rightsquigarrow \varepsilon(0.5)$, there (0.3), they (0.1), it $(0.1)$ ## 疑問詞 int_how $(120, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ how $\rightsquigarrow$ what (0.6), that (0.2), who (0.1), which (0.1) int_what $(121, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ what $\rightsquigarrow$ how (0.6), that (0.2), which (0.1), who (0.1) int_whatever $(122, \mathrm{~F}, \sigma=0.02, \mu=0.02)$ whatever $\rightsquigarrow$ what (0.4), however (0.2), whichever (0.2), whoever (0.2) int_who $(123, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ who $\rightsquigarrow$ that (0.3), which (0.3), what (0.2), how (0.2) int_whoever $(124, \mathrm{~F}, \sigma=0.02, \mu=0.02)$ whoever $\rightsquigarrow$ whatever, whichever, however, who int_which $(125, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ which $\rightsquigarrow$ that (0.3), who (0.3), what (0.2), how (0.2) int_whichever $(126, \mathrm{~F}, \sigma=0.02, \mu=0.02)$ whichever $\rightsquigarrow$ whatever, whoever, however, which int_that $(127, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ Penn Treebank 品詞夕グが WDT. that $\rightsquigarrow$ which, who, how, what int_whose $(128, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ whose $\rightsquigarrow$ which, who, that, its, his, her, their int_when $(129, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ when $\rightsquigarrow$ where, until, that, what, for, in int_whenever $(130, \mathrm{~F}, \sigma=0.02, \mu=0.02)$ whenever $\rightsquigarrow$ when, whatever, wherever, whichever, until, that, what, for, in int_where $(131, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ where $\rightsquigarrow$ when, wherein, whereas, whereby int_wherever $(132, \mathrm{~F}, \sigma=0.02, \mu=0.02)$ wherever $\rightsquigarrow$ where, whatever, whenever, whichever, wherein, whereas, whereby int_whither $(133, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ whither $\rightsquigarrow$ when, whence, that, what int_whence $(134, \mathrm{~F}, \sigma=0.03, \mu=0.03)$ whence $\rightsquigarrow$ when, whither, where, what ## 句読法 comma (153, W, $\sigma=0.1, \mu=0.1)$ , $\rightsquigarrow \varepsilon(0.9), .(0.05)$, . (0.025), ; (0.025) ins_left_comma (154, W, $\sigma=0.1, \mu=0.1)$以下の条件 1., 2.のいずれかを満たす位置に, $(0.9)$, , (0.025), . (0.025), ; (0.025), : $(0.025)$ を挿入する. 1. 1a. かつ $1 \mathrm{~b}$. 1a. 1a1.または 1a2. 1a1. 左の単語の Penn Treebank 品詞タグが NN, NNS, NNP, NNPS. 1a2. 1a2a. かつ 1a2b. 1a2a. 左の単語の Penn Treebank 品詞タグが RB, RBR, RBS. 1a2b. 左の単語の Universal 品詞タグが ADV. 1b. 右の単語の Penn Treebank 品詞タグが CC, DT, IN, WDT, WP, WP\$, WRB. 2. 2a. かつ $2 \mathrm{~b}$. 2a. 左の単語の Penn Treebank 品詞タグが NN, NNS, NNP, NNPS. 2b. 2b1. かつ 2b2. 2b1. 右の単語の Penn Treebank 品詞タグが RB, RBR, RBS. 2b2. 右の単語の Universal 品詞タグが ADV. ins_right_comma $(155, \mathrm{~W}, \sigma=0.1, \mu=0.1)$ 以下の条件 1., 2.を満たす位置に,(0.9), , , (0.025), . (0.025), ; (0.025), : (0.025) を挿入する。 1. 1a.または $1 \mathrm{~b}$. 1a. 左の単語の Penn Treebank 品詞タグが NN, NNS, NNP, NNPS. 1b. 1b1. かつ $1 \mathrm{~b} 2$. 1b1. 左の単語の Penn Treebank 品詞タグが RB, RBR, RBS. 1b2. 左の単語の Universal 品詞タグが ADV 2. 右の単語の Penn Treebank 品詞タグが VB, VBD, VBG, VBN, VBP, VBZ. $\operatorname{period}(156, \mathrm{~W}, \sigma=0.1, \mu=0.1)$ . $\rightsquigarrow \varepsilon(0.5)$, , (0.3), . . (0.05), . (0.05), : $(0.025), ;(0.025), !(0.025), ?(0.025)$ hyphen (157, W, $\sigma=0.05, \mu=0.05)$ - $\rightsquigarrow \varepsilon(0.85), \quad--(0.1), \quad--\quad(0.025)$, - - $(0.025)$ two_hyphen $(158, \mathrm{~W}, \sigma=0.05, \mu=0.05)$ -- $\rightsquigarrow \varepsilon(0.2),-(0.7),---(0.05),--(0.05)$ ins_hyphen (159, W, $\sigma=0.05, \mu=0.05)$ 以下の条件 1., 2., 3., 4. のいずれかを満たす位置に- (0.7), -- (0.25), --- (0.025),一 - (0.025), を挿入する. 1. 1a. かつ $1 \mathrm{~b}$. 1a. 左の単語の Penn Treebank 品詞タグが JJ, JJR, JJS, NN, NNS, RB, CD. 1b. 右の単語の Penn Treebank 品詞タグが JJ, JJR, JJS, NN, NNS, VBN, VBG. 2. 2a. かつ $2 \mathrm{~b}$. 2a. 左の単語の Penn Treebank 品詞夕グが JJ, JJR, JJS, CD, NN, NNS. 2b. 右の単語の Penn Treebank 品詞タグが RB. 3. 3a. かつ 3b. 3a. 左の単語の Penn Treebank 品詞タグが CD. 3b. 右の単語の Penn Treebank 品詞タグが $\mathrm{CD}$. 4. 4a. かつ $4 \mathrm{~b}$. 4a. 左の単語の Penn Treebank 品詞タグが VB, VBG, VBN, NN, NNS. 4b. 右の単語の Penn Treebank 品詞タグが RP. quot $(160, \mathrm{~W}, \sigma=0.05, \mu=0.05)$ Penn Treebank 品詞夕グが‘‘または’,のトークン $\rightsquigarrow \varepsilon$, , , ", ’ , , “ colon $(161, \mathrm{~W}, \sigma=0.05, \mu=0.05)$ : $\rightsquigarrow \varepsilon(0.4), .(0.2),,(0.2), ;(0.2)$ semicolon (162, W, $\sigma=0.05, \mu=0.05)$ $ ; \rightsquigarrow \varepsilon(0.4), .(0.2),,(0.2),:(0.2) $ hatena (163, $\mathrm{W}, \sigma=0.05, \mu=0.05)$ $ ? \rightsquigarrow \varepsilon(0.1), .(0.75),,(0.1), ?(0.05) $ bang (164, W, $\sigma=0.05, \mu=0.05)$ $ ! \rightsquigarrow \varepsilon(0.4), .(0.2),,(0.2), ?(0.2) $ ## 接続詞 conj_and $(168, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ and $\rightsquigarrow \varepsilon(0.95)$, but (0.05) conj_but $(169, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ but $\rightsquigarrow \varepsilon(0.9)$, and $(0.1)$ ## 形容詞/副詞/名詞/動詞 to $(152, \mathrm{I}, \sigma=0.05, \mu=0.05)$ Penn Treebank品詞タグがTO. to $\rightsquigarrow \varepsilon(0.6)$, by (0.2), for $(0.2)$ auxpass $(170, \mathrm{I}, \sigma=0.03, \mu=0.03)$ 係り受けタグがauxpass の語 $ぃ \varepsilon$ confusion (172, L, $\sigma=0.005, \mu=0.005$ ) $x \rightsquigarrow x$ の confusion set からサンプルされた語 Confusion set は,接尾辞を置き換え・削除・追加の操作をすることで生成する. confusion set $=\left.\{w^{\prime} \mid w \underset{\text { 接尾辞 }}{\text { 操 }} w^{\prime} \wedge w^{\prime} \in\right.$ dictionary $\}$. 接尾辞集合 $=\{$ ability, able, ably, acy, ade, age, al, an, ance, ancy, ant, ar, arch, archy, ard, arian, ary, aster, ate, ation, ative, bility, ble, bly, ce, cide, cle, cracy, craft, crat, cule, cum, cy, d, dom, drome, e, ed, ee, eer, en, ence, ency, ent, eous, er, erel, ern, ery, es, esce, escent, ese, esque, ess, est, eth, ette, ey, fic, fication, fold, form, free, ful, fy, gamy, gate, gen, gon, gram, graph, graphy, handed, hood, i, ial, ian, ibility, ible, ibly, ic, ical, ically, ice, ician, ics, id, ie, ied, ier, ies, iform, ify, ile, ily, in, ine, ing, ion, ior, iour, isation, ise, ish, ism, ist, ite, itis, itive, itude, ity, ium, ive, ization, ize, le, let, like, ling, log, logical, logist, logue, logy, looking, ly, lysis, man, mancy, mania, manship, men, ment, meter, metry, most, n, nce, ness, nik, nomy, ock, oid, ology, onomy, or, ory, ose, osis, osity, our, ous, pathy, person, phil, phile, philia, philiac, phobe, phobia, phone, phony, ple, proof, red, rel, ry, s, scape, scope, se, self, selves, ship, some, speak, sphere, ster, $t$, th, tion, tious, tour, tude, ty, ular, ule, ulous, ure, ward, wards, way, ways, wide, wise, worthy, $y$, yer \}. synonym $(171, \mathrm{~L}, \sigma=0.05, \mu=0.05)$ Penn Treebank 品詞夕グが JJ, JJR, JJS, NN, NNS, RB, RBR, RBS, VB, VBD, VBG, VBN, VBP, VBZ. $w \rightsquigarrow$ WordNet のシソーラスからサンプルした語 adj_infl $(173, \mathrm{I}, \sigma=0.05, \mu=0.05)$ Penn Treebank 品詞タグが JJ, JJR, JJS. $w \rightsquigarrow$ lemminflectを用いて, $w$ を別の語形 に変える (e.g. JJ $\rightarrow$ JJR) noun_infl $(174, \mathrm{I}, \sigma=0.05, \mu=0.05)$ Penn Treebank 品詞夕グが NN, NNS. $w \rightsquigarrow$ lemminflectを用いて, $w$ を別の語形 に変える (e.g. NN $\rightarrow$ NNS) verb_infl $(175, \mathrm{I}, \sigma=0.1, \mu=0.1)$ Penn Treebank 品詞タグが VB, VBD, VBG, VBN, VBP, VBZ. $w \rightsquigarrow$ lemminflectを用いて, $w$ を別の語形 に変える (e.g. VBG $\rightarrow$ VBN) Penn Treebank 品詞夕グが VBG, VBN の場合, 20\%の事例で, auxiliary word (have, has, ..., be,...) を追加する。 ## 小辞 Pee Treebank 品詞タグが RP かつ係り受けタグが prtの語に適用される。 part $(176, \mathrm{~F}, \sigma=0.05, \mu=0.05)$ $x \rightsquigarrow \varepsilon(0.65)$, out, up, down, about, on, in, off $(0.05)$ ## 縮約 $\operatorname{contr}(177, \mathrm{~W}, \sigma=0.05, \mu=0.05)$ 縮約 (' $m$ など) の'を取り除く. ## 削除 $\operatorname{del}(178, \mathrm{~B}, \sigma=0.01, \mu=0.01)$ 削除集合のトークンを削除する。 削除集合 $=\{$ !, ", \#, \$, \%, \&, ', 're, 's, (, ), *, +, , , -, ., /, :, ;, <, =, >, ?, ๑, [, \, ], `, -, ', a, about, after, against, am, an, and, are, around, as, at, away, back, back, be, because, been, before, being, but, by, can, could, dare, did, do, does, down, during, for, from, had, has, have, how, if, in, into, is, it, just, like, may, might, of, off, on, or, ought, out, over, shall, should, since, than, that, the, them, there, these, they, this, those, through, to, under, up, was, were, what, when, where, whether, which, while, who, whom, whose, why, will, with, would, $\{\},, \sim\}$ ## 表記 ent $(165, \mathrm{~W}, \sigma=0.03, \mu=0.03)$ 固有表現中の単語の先頭の大文字を小文字にする (e.g. Long Island $\rightarrow$ long island). $\mathrm{SpaCy}$ で検出された固有表現に対して適用される. $80 \%$ の事例で,全単語に対して小文字化を行い, $20 \%$ はランダムに行う。 title (166, W, $\sigma=0.01, \mu=0.01)$ 単語の先頭を小文字から大文字に変える。先頭が小文字で,ラテン文字から成る語に適用される。 uncase (167, W, $\sigma=0.03, \mu=0.03)$単語の先頭を大文字から小文字に変える。先頭が大文字で,ラテン文字から成る語に適用される。 del_orth $(180, \mathrm{~W}, \sigma=0.03, \mu=0.03)$ 2 単語間の空白文字を取り除く. ins_orth (181, W, $\sigma=0.03, \mu=0.03)$単語中に空白文字を挿入する。 $80 \%$ の事例で, 空白文字の插入で分割された両部分が辞書中に含まれているようにする。20\%は,任意の位置からランダムに分割する。このため, "football" は "foo tball"より "foot ball" と分割されやすい. 綴り 綴り誤りは便宜上,表記の誤りとした。そのため,このモジュールも $\mathrm{W}$ こ分類される. spell $(179, \mathrm{~W}, \sigma=0.05, \mu=0.05)$ 以下のようにして,綴り誤りを生成する。 1. 幾何分布 $(p=0.9)$ から誤り生成の操作回数をサンプルする. 2. Delete, Swap, Insert(挿入), Replace(置き換え) から当確率で操作を選択する。 Delete: 1 文字削除 Swap: 隣り合う 2 文字の入れ替え Insert:学習済み分布を用いサンプルした文字を 2 文字間に挿入 Replace: 学習済み分布を用い, 元の文字以外からサンプルした文字で 1 文字を置き換え 学習済み分布は, 順方向ニューラルネットを学習し, 推論することで得る。 図 7 綴り誤りの生成 (Replace の例) ## 語順 語句を移動する距離は正規分布からサンプルされる。そのため, 移動後の位置は, intではなく floatとなる. 最終的な順序は, float で表された位置に基づいて argsortを行ったものとなる. an_wo $(182,0, \sigma=0.03, \mu=0.03)$ 連続する形容詞 (ここでは, Penn Treebank 品詞タグが JJ, JJR, JJS, CD の語) を並び替える (例. “big fat” $\rightsquigarrow$ "fat big"). さらに, 10\%の事例で,後続の連続する名詞 (Penn Treebank 品詞タグが NN, NNS) とその順番を入れ替える (例. “big fat cat” $\rightsquigarrow$ "cat fat big"). of_wo $(183,0, \sigma=0.02, \mu=0.02)$ $A$ of $B \rightsquigarrow B$ of $A . A, B$ はともに, (ADJ | DET | NUM) ${ }^{*}$ NOUN $^{+}$. pp_wo $(184,0, \sigma=0.02, \mu=0.02)$ 前置詞句を移動させる,前置詞句は以下のものとして抽出する. (IN\&ADP\&prep\& of) ((ADV|ADJ |DET | NUM | NOUN | PRON | PROPN)\& WDT) ${ }^{+}$ adv_wo $(185,0, \sigma=0.03, \mu=0.03)$ Universal 品詞夕グが ADV である語を移動させる。移動距離は, 正規分布 $(\mu=1.0, \sigma=$ 1.5) からサンプルする. wh_wo $(186,0, \sigma=0.02, \mu=0.02)$ how, what, who, which, whose, when, where, whither, whence, why, whether を移動させる. 移動距離は, 正規分布 $(\mu=1.5, \sigma=1.0)$ からサンプルする. norm_wo $(187,0)$ 文中の全単語を移動させる。移動距離は,正規分布 $(\mu=0.0, \sigma=0.5 \times x)$ からサンプルする. $x$ は各文に対して, ベータ分布 $(\mu=0.03, \sigma=0.03)$ からサンプルされる. ## マスクトークン予測 mask $(188, \mathrm{~B}, \sigma=0.15, \mu=0.15)$ $80 \%$ の事例で, 単語全体を黒マスクトークン (0x25A8) に,20\%の事例で,単語中の文字を白マスクトークン (0x25A1)に置き換える。文字を置き換える回数は幾何分布 $(p=0.8)$ からサンプルする. ## 略歴 古山翔太:2020 年東京工業大学情報理工学院情報工学系卒業. 2022 年同情報理工学院情報工学系知能情報コース修士課程修了. 同年, 博士後期課程に進学. 修士 (工学). 高村大也:2003 年奈良先端科学技術大学院大学情報科学研究科博士課程修了.博士 (工学)。2003 年から 2009 年まで東京工業大学精密工学研究所助教. 2010 年から 2016 年まで同准教授. 2017 年から 2021 年まで同教授. 2017 年より産業技術総合研究所人工知能研究センター研究チーム長. 岡崎直観 : 2007 年東京大学大学院情報理工学系研究科博士課程修了. 東京大学大学院情報理工学系研究科 - 特任研究員, 東北大学大学院情報科学研究科准教授を経て, 2017 年 8 月より東京工業大学情報理工学院教授. 言語処理学会, 人工知能学会, 情報処理学会, ACL 各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 多言語雑音除去自己符号化器による教師なし品質推定 品質推定の教師あり学習は, 言語対ごとに翻訳品質ラベルを人手で付与する必要が あり,コストが高い。そこで,対訳コーパスのみで訓練された機械翻訳器を用いる 教師なし品質推定が研究されているが,既存手法は少資源言語対では性能が低下す る。本研究では, 事前訓練された多言語雑音除去自己符号化器を活用することで, 大規模な対訳コーパスが存在しない言語対にも適用可能な教師なし品質推定を提案す る. 具体的には, 多言語雑音除去自己符号化器を対訳コーパスを用いて再訓練する ことで多言語機械翻訳器を構築する。 そして, 評価対象の機械翻訳器による出力文 を原文から forced-decoding する際の文生成確率によって翻訳品質を推定する。大規模な単言語コーパスにより事前訓練された多言語雑音除去自己符号化器は言語間の 特性を捉えられるため, 提案手法では少資源または対訳コーパスが存在しない言語対においても品質推定が可能となる。WMT20の品質推定タスクにおける評価の結果,提案手法は 6 言語対のうち 5 言語対について,ブラックボックス設定における 教師なし品質推定の最高性能を達成した。詳細な分析の結果, ゼロショット設定の 品質推定においても提案手法は良好な性能を示すことが明らかとなった. キーワード:品質推定,機械翻訳 ## Unsupervised Quality Estimation via Multilingual Denoising Autoencoder \author{ Tetsuro Nishihara $^{\dagger}$, Yuji Iwamoto ${ }^{\dagger}$, Masato Yoshinaka $^{\dagger \dagger}$, Tomoyuki Kajiwara ${ }^{\dagger}$, \\ YUKI ARASE $^{\dagger \dagger}$ and TAKASHI NinOMIYA ${ }^{\dagger}$ } Supervised quality estimation methods require a corpus that manually annotates qualities of translation outputs. To avoid such costly annotation process, previous studies have proposed unsupervised quality estimation methods based on machine translation models trained on a large-scale parallel corpora. However, these methods are not applicable to low-resource or zero-resource language pairs. This study addresses this problem by utilising a pre-trained multilingual denoising autoencoder. Specifically, the proposed method constructs a machine translation model by fine-tuning the multilingual denoising autoencoder with parallel corpora. It then estimates the translation quality as a forced-decoding probability of a translation output given its  source sentence. The pre-trained denoising autoencoder captures linguistic characteristics across languages, which allows our method to evaluate translation quality of low-resource and zero-resource language pairs. Evaluation results on the WMT20 quality estimation task confirm that the proposed method achieves the best unsupervised quality estimation performance for five language pairs under the black box settings. Detailed analysis shows that the proposed method also performs well on under the zero-shot setting. Key Words: Quality Estimation, Machine Translation ## 1 はじめに BLEU (Papineni et al. 2002) や METEOR (Banerjee and Lavie 2005) などの参照文に基づく自動評価指標は, ベンチマーク上での機械翻訳 (MT) システムの開発に貢献してきた. しかし, ユーザが実際に MT システムを使用する際には,事前に参照文を用意できない場合が多いため, これらの自動評価指標を用いてユーザが MTの品質を確認することは難しい.本研究では,参照文を用いない自動評価である品質推定 (Quality Estimation, QE) (Specia et al. 2018)に取り組む, QEでは,原文とそれに対応する MT 出力文を比較することで, MT 品質を推定する.人手評価との相関が高い $\mathrm{QE}$ 手法を開発することにより,MT 出力文をそのまま使用するか,手動または自動で後編集するか,他のMT システムを利用するかというユーザの判断を支援できる. 国際会議 WMT における QE タスク (Specia et al. 2020)を中心に,これまで多くの教師あり QE 手法 (Specia et al. 2013; Kim et al. 2017; Ranasinghe et al. 2020) が提案されてきた. しかし,これらの教師あり $\mathrm{QE}$ モデルの訓練には,「原文・対応する $\mathrm{MT}$ 出力文・人手評価値」の 3 つ組が必要である。このような $\mathrm{QE}$ 訓練データの構築は, 翻訳者などの原言語と目的言語の両万に精通したアノテータによる作業が必要となるため, 非常にコストが高い. そのため, WMT の QE タスクに含まれるような,わずかな言語対でしか教師あり $\mathrm{QE}$ モデルを得られないのが現状である. この問題を解決するために,教師なし QEが研究されている.教師なし QE の先行研究は多言語 MT システムに基づいており,MT システムの符号化器のみを用いる手法 (Artetxe and Schwenk 2019) および MT システムの符号化器と復号器の全体を用いる手法 (Thompson and Post 2020; Fomicheva et al. 2020b) に大別できる. これらの既存手法は, 人手評価のアノテー ションこそ不要なものの, 評価対象の言語対における大規模な対訳コーパスを用いた訓練が必要である. 本研究では,大規模な対訳コーパスを用意できない言語対においても翻訳品質を推定できる教師なしQE 手法を提案する. Thompson and Post (2020) と同様に, 提案手法は多言語 MT システムに基づき,原文を入力として評価対象の MT 出力文を forced-decoding する際の翻訳確率 を品質推定に用いる。提案手法では, 事前訓練された多言語雑音除去自己符号化器 (Lewis et al. 2020; Liu et al. 2020)を活用することで,少資源,ひいては対訳コーパスが存在しない言語対においても QE を可能とする。大規模な単言語コーパスによって訓練された多言語雑音除去自己符号化器を再訓練して得られる MT システムはゼロショット設定の言語対においても機械翻訳が可能となることが示されている (Liu et al. 2020). 同様の効果が QEにおいても期待され, 一部の言語対における対訳コーパスを用いた再訓練によって他の言語対の $\mathrm{QE}$ 性能も向上すること,さらには対訳コーパスを用意できない言語対におけるゼロショット $\mathrm{QE}$ も実現できると考えられる。 WMT20 QE タスク (Specia et al. 2020) における実験の結果,提案手法は既存の教師なし QE 手法よりも高い人手評価との相関を達成した。また,詳細な分析の結果,対象言語対の対訳コー パスを使用しないゼロショットの設定においても提案手法は良好な結果が得られ,教師なし $\mathrm{QE}$ における単言語コーパスを用いた雑音除去自己符号化器の事前訓練の有効性を確認できた. ## 2 関連研究 本節では, $\mathrm{QE}$ における先行研究を議論する.まず 2.1 節では,教師あり $\mathrm{QE}$ について代表的な研究を紹介する。続いて 2.2 節では, 符号化器のみを用いる教師なし $\mathrm{QE}$ 手法を紹介する. 最後に 2.3 節では, 符号化器と復号器の両方を用いる教師なし $\mathrm{QE}$ 手法を紹介する. なお, 本研究の提案手法は, 2.3 節のアプローチの拡張として位置付けられる. ## 2.1 教師あり品質推定 多くの QE 手法 (Specia et al. 2013; Kim et al. 2017; Ranasinghe et al. 2020) は, 教師あり学習を採用している。深層学習に基づく強力な教師あり QE 手法として知られる Predictor-Estimator (Kim et al. 2017) は, 対訳コーパス上で目的言語文の各単語を原言語文および目的言語文中の周辺単語から推定するように事前訓練された Predictor と, Predictor によって得られる特徴表現から QEラベルを推定する Estimatorで構成される. Predictor-Estimator は, WMT17 QEタスク (Bojar et al. 2017) で最高性能を達成し, WMT20 QE タスク (Specia et al. 2020) では OpenKiwi (Kepler et al. 2019) で実装された LSTM に基づく Predictor-Estimator がベースライン手法として用いられている. WMT20 の QE タスクにおける上位の手法 (Ranasinghe et al. 2020; Fomicheva et al. 2020a; Nakamachi et al. 2020) は, 事前訓練された多言語の文符号化器である mBERT (Devlin et al. 2019) や XLM-R (Conneau and Lample 2019; Conneau et al. 2020) に基づく教師あり QE 手法である.これらの多言語の文符号化器は,100を超える言語における単言語コーパスを用いて Masked Language Modeling の訓練を行った自己注意ネットワーク (Vaswani et al. 2017) である. WMT20の QE タスクにおいて最高性能を達成した TransQuest (Ranasinghe et al. 2020) や同じく上位の TMUOU システム (Nakamachi et al. 2020) は, 原文とその MT 出力文を [SEP] トー クンで区切って連結した文対を XLM-R に入力し, 文頭の [CLS]トークンの出力を用いて回帰モデルを訓練する. これらの教師あり $\mathrm{QE}$ は人手評価との高い相関を達成できるが, 先述の通り人手評価値のアノテーションはコストが高く, 多くの言語対においてアノテーションコーパスは利用できない. そこで本研究では, 人手評価値のアノテーションを必要としない教師なし $\mathrm{QE}$ 手法を提案する. ## 2.2 Encoder QE:符号化器に基づく教師なし品質推定 WMT19 の QE タスク (Fonseca et al. 2019) では,対訳コーパスを用いて訓練した多言語の文符号化器である LASER (Artetxe and Schwenk 2019) がベースライン手法として採用されている. LASER は, 再帰型ニューラルネットワークに基づく多言語 MT システムの符号化器部分である.このLASER による QE は教師なし手法であり,原文とそのMT 出力文をそれぞれ LASERによってべクトル化し,それらの余弦類似度によってMT 出力文の品質を推定する. QEタスクでは検証されていないものの, LaBSE (Feng et al. 2020) や mSBERT (Reimers and Gurevych 2020) などの最先端の多言語文符号化器は, 言語をまたいだ文間類似度推定タスク (Cer et al. 2017) において LASER を超える性能を達成している. LaBSE や mSBERT は, mBERT や XLM-R などの単言語コーパスで事前訓練された文符号化器を, 対訳コーパスを用いて再訓練した多言語の文符号化器である。LaBSE は, mBERTの事前訓練に加えて, Translation Language Modeling や Translation Ranking による再訓練を実施している。 mSBERT は, 文の類似度推定タスク (Cer et al. 2017) に最適化したXLM-Rを用いた Multilingual Knowledge Distillation によって, 多言語の文符号化器を得ている. LASER と同様に, これらの多言語文符号化器も, 余弦類似度による教師なし $\mathrm{QE}$ に使用できる。 4 章の評価実験において示す通り, 符号化器に基づく手法では, 各言語の単言語コーパスで事前訓練したモデル(mBERT やXLM-R)よりも対訳コーパスで訓練したモデル (LASER)の方が教師なし QEの性能は高い. さらに,単言語コーパスで事前訓練したモデルを対訳コーパスで再訓練したモデル(LaBSE や mSBERT)は, これらの性能を上回る. つまり, 表 1 にま \\ 表 1 教師なし品質推定の先行研究と本研究の関係 とめた教師なし $\mathrm{QE} の$ 先行研究のうち, 右に位置するアプローチほど $\mathrm{QE}$ 性能が高い. ## 2.3 EncDec QE:符号化器と復号器に基づく教師なし品質推定 機械翻訳 (Thompson and Post 2020) や文書要約 (Yuan et al. 2021) において近年注目を集めている自動評価手法に, 符号化器と復号器からなる雑音除去自己符号化器に基づく手法がある.代表的な手法である Prism (Thompson and Post 2020) は,自己注意ネットワークに基づく系列変換モデル (Vaswani et al. 2017) を訓練し, そのモデルで参照文から生成文への系列変換を行う際の文生成確率を用いて生成文の品質を評価する。この系列変換モデルが多言語 MT システムであれば,原文から MT 出力文への系列変換を行う際の文生成確率を用いて教師なし QE を実現できる。Prism は WMT19の QE タスク (Fonseca et al. 2019)において高い性能を示したが,系列変換モデルの訓練のために大規模な対訳コーパスが必要であるため,少資源言語対や対訳コーパスを用意できないゼロショットの設定では利用できない. Prism の他に,系列変換モデルに基づく QE 手法として Fomicheva et al. (2020b) の D-TP および D-Lex-Sim がある. D-TP および D-Lex-Sim はモンテカルロ・ドロップアウト (Gal and Ghahramani 2016) を用いて MT システムのパラメータを変化させ,MT 出力文の候補を複数生成する。D-TPでは各候補の文生成確率を平均することによって翻訳品質を推定し,D-Lex-Sim では候補間の METEOR スコア (Banerjee and Lavie 2005) によって翻訳品質を推定する.Prism が評価対象の MT システムとは独立に QE 用の系列変換モデルを用意する一方で,D-TP および D-Lex-Sim は評価対象の MT システム自身を用いてMT 出力文の品質を推定する.D-TP および D-Lex-Sim は教師なしQE としての最高性能を達成しているものの, このようなホワイトボックスの設定が利用可能なケースは限定的である。一般的には, MT システムのユーザは MT システムの内部パラメータにはアクセスできず,MT 出力文のみを得られる.そのため本研究では, 2.2 節の符号化器に基づく手法や Prism のような, ブラックボックス設定における教師なしQEの性能改善を目指す. ## 3 提案手法 2.2 節の議論を踏まえると, 表 1 にまとめたように, 各言語の単言語コーパスで事前訓練した系列変換モデルを対訳コーパスで再訓練することで,より高品質な教師なし QE の実現を期待できる,本研究では,図 1 に示すように,系列変換モデルに基づく教師なし QE 手法を改良する. 図 1 提案手法の概要:mBART に基づく多言語機械翻訳器を用いて翻訳品質を教師なしで推定 ## 3.1 系列変換モデルによる教師なし品質推定 本研究では, Prism (Thompson and Post 2020) と同様に, 符号化器と復号器からなる系列変換モデルを用いて計算する文の生成確率に基づき,MT 出力文の品質を推定する.Prismでは,自己注意ネットワークに基づく一般的な系列変換モデル (Vaswani et al. 2017) を用いて文の生成確率を求めるが, 復号器において一般的な貪欲法やビームサーチによる復号の代わりに, “forced-decoding”を用いる,つまり,モデルが推定するトークン生成確率によらず,指定されたトークン(QEの場合は MT 出力文に含まれるトークン)の出力を強制する。提案手法も Prism に倣い, この “forced-decoding”によって文の生成確率を求める. 具体的には, 原文 $x$ とその MT 出力文 $y$ が与えられたとき,翻訳品質 $\hat{Q}(y \mid x)$ を以下のように計算する. $ \hat{Q}(y \mid x)=\frac{1}{|y|} \sum_{t=1}^{|y|} \log p\left(y_{t} \mid y_{i<t}, x\right) $ ここで,$y_{i<t}$ はタイムステップ $t$ より前の出力トークンである. 長文ほど高い対数確率が与えられることを防ぐために,文レべルの対数確率を文長 $|y|$ で割っていることに注意されたい. Prism および提案手法は, 訓練の際に真の翻訳品質 $Q(y \mid x)$ を用いない教師なし $\mathrm{QE}$ 手法である。系列変換モデルには,対訳コーパスを用いて訓練された多言語 MT システムを用いる.ただし,Prismではこれを一から訓練するが,提案手法では単言語コーパスを用いて事前訓練された系列変換モデルを対訳コーパス上で再訓練することでより高品質な $\mathrm{QE}$ を実現する. ## 3.2 多言語機械翻訳器の構築 大規模な対訳コーパスを用意できない言語対においても翻訳品質を推定できる教師なし $\mathrm{QE}$ を実現するために,本研究では単言語コーパスを用いて事前訓練された系列変換モデルを対訳コーパス上で再訓練することによって,QEのための多言語 MT システムを構築する。事前訓練を行わない先行研究 (Thompson and Post 2020) と比較して, 本手法には以下の 2 の利点が ある. - 単言語コーパスは対訳コーパスよりも収集コストが低いため,大規模な単言語コーパスを用いた訓練を実現できる。そのため,モデルはより多様な文に触れることができ,様々な言語的特徴を捉えられる。 - 対訳コーパス上での再訓練により, 対訳コーパス中の文対数が限られた言語対や対訳コー パスに含まれていない言語対であっても,事前訓練がサポートしている言語であれば $\mathrm{QE}$性能を改善できる。 一方,事前訓練なしの Prism は,対象外の言語対に対しては,トークンが語彙に含まれていないことや文法に関する知識を全く持っていないなどの問題のために QE の実現は期待できない. 本研究では,代表的な事前訓練済み系列変換モデルのひとつである BART (Lewis et al. 2020) を利用する. BART は Transformer 符号化器と自己回帰型の復号器によって構成される標準的な系列変換モデル (Vaswani et al. 2017) であり,雑音関数によって一部の情報が欠落したテキストから元のテキストを復元する雑音除去自己符号化器として教師なし学習により訓練されている.BART の事前訓練では,トークンの穴埋めや並び替えの復元を訓練するために,文中の一部を [MASK] トークンに置き換える雑音関数を用いる.BART の雑音除去自己符号化器を目的タスクの対訳コーパスで再訓練することによって, 文書要約や対話応答生成などの多くのテキスト生成タスクの性能改善が報告されている (Lewis et al. 2020). 多言語 MT システムへの拡張のために, 本研究では多言語版の BART (mBART) を用いる. mBART (Liu et al. 2020) は,複数言語のそれぞれで大規模な単言語コーパスを用意し,それらを用いて BART (Lewis et al. 2020)の雑音除去自己符号化を訓練した雑音除去自己符号化器である. Liu et al. (2020)の研究では, 事前訓練された mBART を対訳コーパス上で再訓練した MT システムが,特に少資源言語対において優れた翻訳品質を発揮している。また, mBARTを特定の言語対(例えば,韓国語 $\rightarrow$ 英語)における対訳コーパスで再訓練した MT システムが,他の言語からの MT(例えば,イタリア語 $\rightarrow$ 英語)も実現できることが確認されている. 本研究では, mBARTのこれらの特性を活かし, 系列変換に基づく高品質な教師なし $\mathrm{QE}$ を実現する. 提案手法では, 事前訓練された mBART を複数の対訳コーパス上で再訓練して多言語 MT システムを構築し, これを用いて 3.1 節の方法で翻訳品質を推定する. ## 4 評価実験 WMT20の QE タスク (Specia et al. 2020)において提案手法の性能を評価する. ## 4.1 実験設定 ## タスクの詳細 WMT20の QE タスクには,7つの言語対が含まれる. 英語からドイツ語 (en-de) および英語から中国語 (en-zh) の多資源言語対, ルーマニア語から英語 (ro-en) ・エストニア語から英語 (et-en) ・ロシア語から英語 (ru-en) の中資源言語対, ネパール語から英語 (ne-en) およびシンハラ語から英語 (si-en) の少資源言語対である。各言語対において 1,000 文対の原文およびその MT 出力文が提供され, 人手で付与された $\mathrm{QE}$ スコアとモデルが推定した $\mathrm{QE}$ スコアの間のピアソン相関係数によって QE 性能を評価する. WMT20の QE タスクで翻訳品質の評価対象となる MT システムは, fairseq ツールキット¹ (Ott et al. 2019)を用いて訓練された Transformer モデル (Vaswani et al. 2017) である. ## 提案手法の実装 提案手法の QEモデルには, 事前訓練された $\mathrm{mBART}^{2}$ (Liu et al. 2020) を用いた. この mBART は, 50 言語の単言語コーパスで事前訓練された雑音除去自己符号化器であり, 16 種類の自己注意ヘッドを持つ 12 層 1,024 次元の Transformer モデル (Vaswani et al. 2017) である. mBART を我々が再訓練した多言語 MT システム (mBART+MT) と, Tang et al. (2020)によって再訓練された多言語 MT システム (mBART $+\mathrm{M} 2 \mathrm{M})$ の両方を評価した. $\mathrm{mBART}+\mathrm{MT}$ の再訓練には,表 2 に示すように, WMT20の QE タスク3で利用可能な対訳コーパスの一部 4 を使用した。なお, ru-en 言語対については, WMT20の QEタスクにおいて対訳コーパスが配布されていない。そのため, 本稿では提案手法のうち mBART+MT については ru-en をゼロショッ卜設定の言語対として扱う. これらの対訳コーパスに含まれる全ての文について, mosesdecoder の detokenizer.per ${ }^{5}$ (Koehn et al. 2007)を適用した上で, mBART のトークナイザ (Wolf et al. 2020)によるトークン化の前処理を施した。そして,原言語文と目的言語文がそれぞれ 100 トークン以下の長さである文対のみを再訓練に用いた。最適化には AdamW (Loshchilov and Hutter 2019)を用い,学習率は $5.0 \times 10^{-6}$ に設定した. バッチサイズは 1,000 文とし,対訳コーパス上で 75,000 ステップの交差エントロピー損失最小化の再訓練を実施した. mBART $+\mathrm{M}_{2} \mathrm{M}^{6}$ (Tang et al. 2020) は, mBART を表 3 の対訳コーパスを用いて再訓練した ^{4}$ Vaswani et al. (2017) など, MT 研究で広く使用されている WMT14 en-de タスク(約 450 万文対)を参考に多資源言語対の文対数を設定した。また,中資源言語対については公開されている et-en 言語対の総文対数に合わせて ro-en 言語対の文対数を, 少資源言語対については ne-en 言語対の総文対数に合わせて si-en 言語対の文対数を設定した。 5 https://github.com/moses-smt/mosesdecoder/blob/master/scripts/tokenizer/detokenizer.perl }^{6}$ https://huggingface.co/facebook/mbart-large-50-many-to-many-mmt 表 $2 \mathrm{mBART}+\mathrm{MT}$ の訓練用文対数 表 $3 \mathrm{mBART}+\mathrm{M} 2 \mathrm{M}$ の訓練用文対数 多言語 MT システムである。これらの対訳コーパスには,WMT やIWSLT などの MT コンペティションにおいて公開されている多様なデータが含まれる. mBART+MT モデルが 6 言語対の合計 1,286万文対で訓練されているのに比べて, mBART+M2M モデルは 49 言語対の合計 2 億文対という非常に大規模な対訳コーパスで訓練されていることに注意されたい. ## 比較手法 本実験では,2 節で紹介した教師なし $\mathrm{QE}$ 手法と提案手法を比較する. 符号化器に基づく手法 (Encoder QE) として, 単言語コーパスで訓練された $\mathrm{mBERT}^{7}$ (Devlin et al. 2019) および XLM-R ${ }^{8}$ (Conneau and Lample 2019; Conneau et al. 2020), 対訳コーパスで訓練された LASER ${ }^{9}$ (Artetxe and Schwenk 2019), 単言語コーパスでの事前訓練に加えて対訳コーパスで再訓練された LaBSE ${ }^{10}$ (Feng et al. 2020) および mSBERT ${ }^{11}$ (Reimers and Gurevych 2020) と比較する. WMT19の QE タスク (Fonseca et al. 2019)における LASER による教師なしQE と同様に, これらの多言語文符号化器を用いて原文とその MT 出力文をそれぞれベクトル化し,それらの余弦類似度によって MT 出力文の品質を推定する。各モデルの事前訓練の設定に従い, LASER は双方向 LSTM の最終層の最大プーリング, mSBERT は最終層の平均プーリング, その他のモデルは文頭の [CLS] トークンに対する最終層の出力をそれぞれ文べクトルとして使用する。 符号化器と復号器に基づく手法 (EncDec QE) として, 単言語コーパスで訓練された mBART (Liu et al. 2020) および対訳コーパスで訓練された Prism (Thompson and Post 2020)を,単言語コーパスでの事前訓練に加えて対訳コーパスで再訓練された提案手法(mBART+MT および mBART $+\mathrm{M} 2 \mathrm{M} )$ と比較する。本実験で使用する Prism は, mBART と同じ構造の系列変換モ  デルであり,表 2 の対訳コーパスを用いて我々が訓練したものである. ただし, ru-en 言語対については,先述の通り WMT20の QE タスクにおいて対訳コーパスが配布されていない。そのため, 本稿では Prism についても ru-en をゼロショット設定の言語対として扱う. 提案手法と mBART および Prism は, いずれも式 (1)によって MT 出力文の翻訳品質を推定する. また, 参考のために, ホワイトボックス設定の教師なし QE 手法である D-TP および D-Lex-Sim (Fomicheva et al. 2020b), 教師あり QE 手法である Predictor-Estimator ${ }^{12}$ (Kim et al. 2017) および TransQuest ${ }^{13}$ (Ranasinghe et al. 2020) も比較する. 教師あり QE モデルは, WMT20の QE タスク (Specia et al. 2020) において公開されている 7,000 件ずつの訓練用データおよび 1,000 件ずつの検証用データを用いて,検証用データのピアソン相関係数を最大化するように訓練した。 ## 4.2 実験結果 表 4 に実験結果を示す. 表 4 において, 上段の 1 および 2 は比較対象の教師なし $\mathrm{QE}$ 手法,下段の 3 および 4 はホワイトボックス設定および教師ありの QE 手法である. 表中の Mono お 表 4 WMT20の QE タスクにおけるピアソン相関係数.†はゼロショット設定を示す.  よび Paraの列は,教師なしQE モデルが単言語コーパスを用いて訓練されているか,対訳コー パスを用いて訓練されているかを表す. Mono と Paraの両方にチェックが入っている教師なし $\mathrm{QE}$ モデルは, 単言語コーパスでの事前訓練に加えて対訳コーパスで再訓練されている. なお, ru-en 言語対については,Prism および mBART+MT はゼロショット設定となっている.全体としては,教師なし QE 手法は以下の順番で人手評価との相関が高い. (1) 単言語コーパスでの事前訓練に加えて対訳コーパスで再訓練された EncDec $\mathrm{QE}$ (提案手法) (2) 単言語コーパスでの事前訓練に加えて対訳コーパスで再訓練された Encoder QE (3) 対訳コーパスで訓練された Encoder QE (4) 対訳コーパスで訓練された EncDec QE (5) 単言語コーパスで訓練された EncDec QE (6) 単言語コーパスで訓練された Encoder QE 上段 1 の Encoder QE について, 単言語コーパスのみで訓練された mBERT や XLM-R は,単純な余弦類似度に基づく教師なし QEでは人手評価との相関が見られなかった. mBERT や XLM-R に比べて,対訳コーパスで訓練されたLASER は人手評価との高い相関を持つことがわかる。単言語コーパスでの事前訓練に加えて対訳コーパスで再訓練された LaBSE や mSBERT は,さらに高い相関を達成している.特に,LaBSE は少資源言語対, mSBERT は多資源言語対において,特に優れた性能を発揮することがわかる. 上段 2 の EncDec QE についても同様の傾向が見られた。つまり,単言語コーパスで訓練された mBART よりも対訳コーパスで訓練された Prism が人手評価との高い相関を示し,単言語コーパスでの事前訓練に加えて対訳コーパスで再訓練された提案手法(mBART $+\mathrm{MT}$ および mBART+M2M)がさらに高い相関を達成した。同じく単言語コーパスのみで訓練された mBERT や XLM-R が全ての言語対において人手評価との相関を持たない一方で, mBART は少資源言語対において 0.2 程度の弱相関を持ち, 中資源言語対においては 0.4 程度の中相関を持っており,EncDec QEの有効性を確認できる。提案手法は,ne-en 以外の言語対において,教師なし $\mathrm{QE}$ としての最高性能を達成した。特に,より大規模な対訳コーパスを用いて再訓練した mBART $+\mathrm{M} 2 \mathrm{M}$ が多くの言語対においてより高い人手評価との相関を示している. ゼロショット設定である ru-en 言語対については, mBART+MT が mBART や Prism よりも高い性能を示しており,提案手法の有効性を確認できる。また, ru-enの対訳コーパスを用いて訓練した mBART+M2M は,さらに大きな性能改善を達成している. 次に,具体的な出力をもとに,提案手法の有効性を定性評価する,表 5 に,英日翻訳における品質推定の実例を示す。上の例は,MT 出力文が「見つけられるしばしば」のように文法的に不適格な翻訳となっているため,低い $\mathrm{QE}$ スコアを出力することが期待される.Prism とは異なり, 提案手法の mBART+MT は期待通り低い $\mathrm{QE}$ スコアを出力できた。これは, mBART+MT \\ 表 5 英日機械翻訳に打ける品質推定の例。 モデルごとに 0 から 1 までの範囲に正規化した $\mathrm{QE}$ スコアを表示している.上段は適切に品質推定できた例であり,下段は誤推定をした例である. では事前訓練によって文法構造を捉えられていたために,適切に翻訳品質を推定できたと考えられる。下の例は,MT 出力文が適切な翻訳であるため,高い $\mathrm{QE}$ スコアが期待される例である.しかし, この例では Prism と mBART+MT の両方が低い $\mathrm{QE}$ スコアを出力した.「ビドルフ」や「チェシャー」のような低頻度語は, その単語の生成確率が低くなるため, 本アプロー チでは低評価になりやすい傾向があると考えられる. ## 4.3 多資源言語対における品質推定と少資源言語対における品質推定 対訳コーパスを用いて訓練する $\mathrm{QE}$ 手法においては, より多くの文対から訓練できる多資源言語対における $\mathrm{QE}$ 結果が中資源言語対や少資源言語対に比べて人手評価との相関が高くなると期待される。しかし,表4の実験結果では,アプローチに関わらず,多資源言語対における $\mathrm{QE}$ 性能が中資源言語対や少資源言語対における $\mathrm{QE}$ 性能を下回っている。本節では,この期待が外れる理由を調査する。 分析の結果, 翻訳品質ラベルの分布の偏りが $\mathrm{QE}$ 推定結果に影響を与えている可能性があることが明らかとなった,図 2 に,多資源言語対の en-de および少資源言語対の si-en における翻訳品質ラベル頻度のヒストグラムを示す。図中の青色の部分は en-de のヒストグラム, 赤色の部分は si-en のヒストグラム,紫色の部分はグラフが重なっている部分を表している. 少資源言語対における MT システムの翻訳品質が正規分布に近い分布を示しているのに対して,多資源言語対における MT システムの出力は高品質なものが極端に多い。このような翻訳品質ラベルの偏りがあると,高品質な翻訳の中で優劣をつけることになるため, 多資源言語対における $\mathrm{QE}$ を難しくしている可能性がある。 ## 5 ゼロショット設定での品質推定 3.2 節で述べたように, mBART (Liu et al. 2020)を対訳コーパス上で再訓練して得た MT システムは, 再訓練に使用していない言語対の MT(ゼロショットMT)を実現できることが知られている。本節では, mBART に基づく教師なし QEが同様の特性を持つか, つまり, 再訓練に使用した対訳コーパスに含まれない言語対の QE を実現できるかを検証する.表 6 に, Prism および mBART+MT を多資源および中資源の 4 言語対の対訳コーパスのみで訓練したアブレー ション分析(w/o 少資源言語対)の結果を示す。また,他言語のデータとの同時訓練の影響を 図 2 品質ラベルのヒストグラム 表 6 EncDec QE のアブレーション分析.†はゼロショット設定であることを示す. 調べるために, 対象言語対のみ,つまり, ne-en または si-en の対訳コーパスのみで訓練したアブレーション分析の結果も示す. これらの実験結果から, 対訳コーパスによる再訓練を実施しない mBART と比べて, mBART+ MT(w/o 少資源言語対)が少資源言語対の QEにおいて,人手評価との相関を大きく改善できることがわかる.ゼロショット MT (Liu et al. 2020)と同様に,mBART に基づくQEモデルがゼロショット QE を実現できることを確認できた。さらに,対象言語対の対訳コーパスを用いた再訓練や対象言語対を含む大規模な対訳コーパスによる再訓練には及ばないものの, mBART+MT(w/o 少資源言語対)の少資源言語対における性能は,強力な教師ありべースラインである Predictor-Estimator (Kim et al. 2017) と同等である. QE ラベルの収集コストのために教師あり QEが多くの言語対において実現できない現状を考えると, 本手法のゼロショット性能は有望である. また,表 6 のアブレーション分析からは,単言語コーパスにおける事前訓練を実施していない Prism が小規模な対訳コーパスからは充分な QE 性能が得られないこと,また他の言語対の大規模な対訳コーパスと同時に訓練しても少資源言語対における $\mathrm{QE}$ 性能が改善しないことが確認できる。一方で, mBART+MT(対象言語対のみ)と mBART+MTの比較から, 提案手法は他の言語対の大規模な対訳コーパスとの同時訓練によって, 少資源言語対における $\mathrm{QE}$ 性能が改善されることがわかる. ## 6 おわりに 本研究では事前訓練された多言語雑音除去自己符号化器を活用した機械翻訳の教師なし品質推定手法を提案した,提案手法は,多言語雑音除去自己符号化器を対訳コーパスにより再訓練することで得た多言語 MT システムにおいて,原文から評価対象の MT 出力文を forced-decoding する際の文生成確率によって翻訳品質を推定する。品質推定モデルの事前訓練には mBART (Liu et al. 2020)を用い,50 言語に適用可能な教師なし品質推定手法を実現した. 6 つの言語対における実験の結果, 提案手法は多くの言語対において教師なし品質推定の最高性能を達成した。また, 再訓練に使用する対訳コーパスに含まれないゼロショット設定での品質推定では, 教師あり $\mathrm{QE}$ 手法と同等の性能を示した. さらに, 多資源言語対の対訳コーパスとの同時訓練によって少資源言語対における品質推定の性能が改善され, 收集コストが高い翻訳品質ラベルや大規模な対訳コーパスを得られない設定における提案手法の有効性を確認した. 今後の課題として,モデルサイズの削減がある。符号化器のみを用いる LaBSE (Feng et al. 2020) や mSBERT (Reimers and Gurevych 2020) が約 2 GB のモデルサイズを持つのに対して,復号器も用いる提案手法は約 7 GB の記憶領域を必要とする。主に符号化器において活発に研究されているモデル圧縮の技術を応用し, 知識蒸留 (Sanh et al. 2019) やパラメタ共有 (Lan et al. 2020)によって多言語雑音除去自己符号化器に基づく品質推定のモデル圧縮を検討したい. ## 謝 辞 本研究は JSPS 科研費(若手研究,課題番号:JP20K19861)および国立研究開発法人情報通信研究機構の委託研究による助成を受けたものです. ## 参考文献 Artetxe, M. and Schwenk, H. (2019). "Margin-based Parallel Corpus Mining with Multilingual Sentence Embeddings." In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3197-3203. Banerjee, S. and Lavie, A. (2005). "METEOR: An Automatic Metric for MT Evaluation with Improved Correlation with Human Judgments." In Proceedings of the ACL Workshop on Intrinsic and Extrinsic Evaluation Measures for Machine Translation and/or Summarization, pp. 65-72. Bojar, O., Chatterjee, R., Federmann, C., Graham, Y., Haddow, B., Huang, S., Huck, M., Koehn, P., Liu, Q., Logacheva, V., Monz, C., Negri, M., Post, M., Rubino, R., Specia, L., and Turchi, M. (2017). "Findings of the 2017 Conference on Machine Translation (WMT17)." In Proceedings of the 2nd Conference on Machine Translation, pp. 169-214. Cer, D., Diab, M., Agirre, E., Lopez-Gazpio, I., and Specia, L. (2017). "SemEval-2017 Task 1: Semantic Textual Similarity Multilingual and Crosslingual Focused Evaluation." In Proceedings of the 11th International Workshop on Semantic Evaluation, pp. 1-14. Conneau, A., Khandelwal, K., Goyal, N., Chaudhary, V., Wenzek, G., Guzmán, F., Grave, E., Ott, M., Zettlemoyer, L., and Stoyanov, V. (2020). "Unsupervised Cross-lingual Representation Learning at Scale." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8440-8451. Conneau, A. and Lample, G. (2019). "Cross-lingual Language Model Pretraining." In Proceedings of the 33rd Conference on Neural Information Processing Systems, pp. 7059-7069. Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4171-4186. Feng, F., Yang, Y., Cer, D., Arivazhagan, N., and Wang, W. (2020). "Language-agnostic BERT Sentence Embedding." arXiv preprint arXiv:2007.01852. Fomicheva, M., Sun, S., Yankovskaya, L., Blain, F., Chaudhary, V., Fishel, M., Guzmán, F., and Specia, L. (2020a). "BERGAMOT-LATTE Submissions for the WMT20 Quality Estimation Shared Task." In Proceedings of the 5th Conference on Machine Translation, pp. 1010-1017. Fomicheva, M., Sun, S., Yankovskaya, L., Blain, F., Guzmán, F., Fishel, M., Aletras, N., Chaudhary, V., and Specia, L. (2020b). "Unsupervised Quality Estimation for Neural Machine Translation." Transactions of the Association for Computational Linguistics, 8, pp. 539-555. Fonseca, E., Yankovskaya, L., Martins, A. F. T., Fishel, M., and Federmann, C. (2019). "Findings of the WMT 2019 Shared Tasks on Quality Estimation." In Proceedings of the 4th Conference on Machine Translation, pp. 1-10. Gal, Y. and Ghahramani, Z. (2016). "Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning." In Proceedings of the 33rd International Conference on Machine Learning, pp. 1050-1059. Kepler, F., Trénous, J., Treviso, M., Vera, M., and Martins, A. F. T. (2019). "OpenKiwi: An Open Source Framework for Quality Estimation." In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 117-122. Kim, H., Jung, H.-Y., Kwon, H., Lee, J.-H., and Na, S.-H. (2017). "Predictor-Estimator: Neural Quality Estimation Based on Target Word Prediction for Machine Translation." ACM Transactions on Asian and Low-Resource Language Information Processing, 17 (1), pp. 1-22. Koehn, P., Hoang, H., Birch, A., Callison-Burch, C., Federico, M., Bertoldi, N., Cowan, B., Shen, W., Moran, C., Zens, R., Dyer, C., Bojar, O., Constantin, A., and Herbst, E. (2007). "Moses: Open Source Toolkit for Statistical Machine Translation." In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics, pp. 177-180. Lan, Z., Chen, M., Goodman, S., Gimpel, K., Sharma, P., and Soricut, R. (2020). "ALBERT: A Lite BERT for Self-supervised Learning of Language Representations." In Proceedings of the 8th International Conference on Learning Representations. Lewis, M., Liu, Y., Goyal, N., Ghazvininejad, M., Mohamed, A., Levy, O., Stoyanov, V., and Zettlemoyer, L. (2020). "BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880. Liu, Y., Gu, J., Goyal, N., Li, X., Edunov, S., Ghazvininejad, M., Lewis, M., and Zettlemoyer, L. (2020). "Multilingual Denoising Pre-training for Neural Machine Translation." Transactions of the Association for Computational Linguistics, 8, pp. 726-742. Loshchilov, I. and Hutter, F. (2019). "Decoupled Weight Decay Regularization." In Proceedings of the 7th International Conference on Learning Representations. Nakamachi, A., Shimanaka, H., Kajiwara, T., and Komachi, M. (2020). "TMUOU Submission for WMT20 Quality Estimation Shared Task." In Proceedings of the 5th Conference on Machine Translation, pp. 1037-1041. Ott, M., Edunov, S., Baevski, A., Fan, A., Gross, S., Ng, N., Grangier, D., and Auli, M. (2019). "fairseq: A Fast, Extensible Toolkit for Sequence Modeling." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 48-53. Papineni, K., Roukos, S., Ward, T., and Zhu, W.-J. (2002). "BLEU: a Method for Automatic Evaluation of Machine Translation." In Proceedings of 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318. Ranasinghe, T., Orasan, C., and Mitkov, R. (2020). "TransQuest: Translation Quality Estimation with Cross-lingual Transformers." In Proceedings of the 28th International Conference on Computational Linguistics, pp. 5070-5081. Reimers, N. and Gurevych, I. (2020). "Making Monolingual Sentence Embeddings Multilingual using Knowledge Distillation." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, pp. 4512-4525. Sanh, V., Debut, L., Chaumond, J., and Wolf, T. (2019). "Distilbert, a Distilled Version of Bert: Smaller, Faster, Cheaper and Lighter." In Proceedings of the 5th Workshop on Energy Efficient Machine Learning and Cognitive Computing. Specia, L., Blain, F., Fomicheva, M., Fonseca, E., Chaudhary, V., Guzmán, F., and Martins, A. F. T. (2020). "Findings of the WMT 2020 Shared Task on Quality Estimation." In Proceedings of the 5th Conference on Machine Translation, pp. 743-764. Specia, L., Scarton, C., and Paetzold, G. H. (2018). "Quality Estimation for Machine Translation." Synthesis Lectures on Human Language Technologies, 11 (1), pp. 1-162. Specia, L., Shah, K., de Souza, J. G., and Cohn, T. (2013). "QuEst-A Translation Quality Estimation Framework." In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 79-84. Tang, Y., Tran, C., Li, X., Chen, P.-J., Goyal, N., Chaudhary, V., Gu, J., and Fan, A. (2020). "Multilingual Translation with Extensible Multilingual Pretraining and Finetuning." arXiv preprint arXiv:2008.00401. Thompson, B. and Post, M. (2020). "Automatic Machine Translation Evaluation in Many Languages via Zero-Shot Paraphrasing." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, pp. 90-121. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., and Polosukhin, I. (2017). "Attention is All You Need." In Proceedings of the 31st Conference on Neural Information Processing Systems, pp. 6000-6010. Wolf, T., Debut, L., Sanh, V., Chaumond, J., Delangue, C., Moi, A., Cistac, P., Rault, T., Louf, R., Funtowicz, M., Davison, J., Shleifer, S., von Platen, P., Ma, C., Jernite, Y., Plu, J., Xu, C., Le Scao, T., Gugger, S., Drame, M., Lhoest, Q., and Rush, A. (2020). "Transformers: State-of-the-Art Natural Language Processing." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45. Yuan, W., Neubig, G., and Liu, P. (2021). "BARTScore: Evaluating Generated Text as Text Generation." In Proceedings of the 35th Conference on Neural Information Processing Systems, pp. 27263-27277. ## 略歴 西原哲郎:2020 年愛媛大学工学部情報工学科卒業. 2022 年同大学大学院理工学研究科電子情報工学専攻修了. 自然言語処理の研究に従事. 岩本裕司 : 2020 年愛媛大学工学部情報工学科卒業. 2022 年同大学大学院理工学研究科電子情報工学専攻修了. 自然言語処理の研究に従事. 吉仲真人:2020 年大阪大学工学部電子情報工学科卒業. 2022 年同大学大学院 情報科学研究科マルチメディア工学専攻修了. 自然言語処理の研究に従事. 梶原智之:愛媛大学大学院理工学研究科助教. 2013 年長岡技術科学大学工学部電気電子情報工学課程卒業. 2015 年同大学大学院工学研究科修士課程修了. 2018 年首都大学東京大学院システムデザイン研究科博士後期課程修了. 博士 (工学),大阪大学データビリティフロンティア機構の特任助教を経て, 2021 年より現職. 情報処理学会, 人工知能学会, 言語処理学会, ACL 各会員. 荒瀬由紀:2006 年大阪大学工学部電子情報エネルギー工学科卒業. 2007 年同大学院情報科学研究科博士前期課程, 2010 年同博士後期課程修了. 博士(情報科学),同年, 北京の Microsoft Research Asia に入社, 自然言語処理に関する研究開発に従事. 2014 年より大阪大学大学院情報科学研究科マルチメディア工学専攻准教授, 現在に至る。言い換え表現認識と生成, 機械翻訳技術, 対話システムに興味を持つ。 二宮崇:1996 年東京大学理学部情報科学科卒業. 1998 年同大学大学院理学系研究科修士課程修了. 2001 年同大学大学院理学系研究科博士課程修了. 同年より科学技術振興事業団研究員. 2006 年より東京大学情報基盤センター講師. 2010 年より愛媛大学大学院理工学研究科准教授, 2017 年同教授. 博士 (理学). 言語処理学会, アジア太平洋機械翻訳協会, 情報処理学会, 人工知能学会, 電子情報通信学会, 日本データベース学会, ACL 各会員. (2021 年 12 月 1 日受付) (2022 年 3 月 1 日再受付) (2022 年 3 月 30 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 単語分割の最適化に関する研究は雑談と偶然の出会いに育まれた 平岡 達也 $\dagger$ ## 1 はじめに 本稿では言語処理学会の 2021 年度最優秀論文賞を受賞した「テキストベクトルの重みづけを用いたタスクに対する単語分割の最適化」(平岡他 2021) の概要と研究の過程を紹介する. 本研究は, 著者が奈良先端科学技術大学院大学 (NAIST) での修士課程時代に, 研究室内での雑談を通して着想したものである。当時の著者には力不足であり成し遂げられなかったアイデイアであったが,博士課程でデンソーIT ラボラトリとの共同研究を通してこれを結実させることができた,本研究の遂行において共同研究は必要不可欠であったが,この共同研究は本研究とは異なる研究に対して始まったものであった. このように,本研究は多くの雑談や偶然の出会いを土台として結実したものである。本稿を通して,研究における雑談や対外発表による思わぬ出会いの重要性が伝わり,似た境遇に在るどなたかの研究遂行の参考になれば幸いである. ## 2 本研究の概要 本研究では,自然言語処理において単語分割処理が抱える問題の解決を目指している,単語分割は,「外国人参政権」というテキストを「外国人/参政/権」のような単語の系列へ変換する処理である ${ }^{1}$. 感情分類などの後段タスクを解く際には,テキストに単語分割処理を施し,単語の系列を後段モデルに入力する場合が多い(図 $1 a^{2}$ ),単語分割処理は後段モデルへの入力となる系列の単位を決定する処理であるため,異なる単語分割処理を用いると異なる後段モデルの性能が得られる,そのため,適切な単語分割を用いることができれば,後段モデルの性能向上に繋がると期待される。しかし,こうした適切な単語分割は後段タスクや後段モデルの構造に強く依存しているため,適切な単語分割を求めることは難しい。 理想的には, 可能なすべての単語分割を用いて後段モデルを学習し,それぞれの検証データでの性能を確かめることで適切な単語分割を多り出す全探索的な方法が考えられる。 しかし, 可能な単語分割の候補は文の長さ(文字数) $N$ に対して $2^{N-1}$ 個となるため,この全てについて  (a) 従来の不可逆な単語分割 (b) 後段タスクへの単語分割の最適化 図 1 従来の不可逆な単語分割と, 本研究による単語分割の最適化の概要. 探索を行うことは現実的ではない。そこで,後段モデルからのフィードバックを用いて単語分割器を更新する方法を考える。これは,単語分割を後段タスクや後段モデルから独立した前処理として扱う一般的な自然言語処理のシステムからは乘離した発想である. 前処理としての単語分割という扱いをやめ, 後段の処理の情報を用いて単語分割を選択することができれば, さらなる性能向上が得られるかもしれない. 後段の処理からのフィードバックを用いて単語分割器を更新する方法も一筋縄では行かない. ニューラルネットワークを用いた後段モデルは連続的な処理であるのに対し, 単語分割は離散的なテキストを取り扱う処理である。そのため,単純に単語分割処理と後段モデルの処理を連結して,単語分割を後段モデルに対して最適化することは難しい. 本研究では, 単語分割器と後段モデルに工夫を加えることで, 後段モデルからのフィードバックを用いて単語分割器を最適化する手法を提案する(図 $1 b$ ) . 具体的には, 単語分割器をニュー ラルネットワークによるユニグラム言語モデルで構築し, 後段モデル内部のテキストベクトルに単語分割の確率をかけ合わせることで,単語分割器と後段モデルを接続する手法を提案した. これにより,後段モデルを学習する際の損失値に対する誤差逆伝播が,単語分割器を構成するユニグラム言語モデルへと伝わり, 後段モデルと単語分割器の同時学習が実現される. 実験を通して,本手法が日本語・中国語・英語の 3 言語による複数の文書分類のタスクで性能向上に寄与する事を示した,更に,単語分割の更新だけでも性能の向上が得られることや,本手法がタスクに応じて異なる単語分割を獲得していることを示した. ## 3 本研究の過程 ## 3.1 ベースとなるアイディアは NAIST で育まれた 単語分割を後段タスクや後段モデルに応じて最適化したいという発想は,著者がNAIST の修士課程在学中に研究室内で雑談をする中で生まれた. 当時の松本研究室では, 特定曜日の 19 時頃から一部の学生がゼミ室に集まって勉強会を開く文化があり, 勉強会終了後も 0 時頃までだらだらとゼミ室で雑談に耽ることが多かった。,それぞれが研究で困っていることを相談したり, 東京で一番家貸が高い賃貸物件を探してみたりと, この雑談には真面目な内容からどうしようもない遊びまで,様々な内容が含まれていた,そうした雑談の中で,ふと「単語分割を最適化できたら面白いのでは」と思いつき,勉強会の参加者とともにホワイトボードに落書きをしながらイメージを具体化していった.その後,学振DC1 の申請書を作成するために,同期の学生とピア・エデイティングを行う中で本アイディアを更に者詰めていった3. 当初は単語分散表現に対して注意機構で単語分割を学習するという発想で, Segmental Neural Language Model (Kawakami et al. 2017) などに近い仕組みを模索していた. このアイディアについては, NAIST の同期であった和田崇史氏との雑談の中で具体化し, 和田氏の NMT の実験に組み込んでもらう形で検証を行った,結局,当時の方法では良い結果が得られず,打開策も見つからなかったため, 本研究は没ネ夕として研究ノートの隅に眠ることになった. その後,著者は本研究にはほとんど手を付けず,別の研究テーマで修論を書きNAISTを修了した ## 3.2 偶然の出会いと雑談に育まれた 博士課程で東京工業大学の岡崎研究室に入学し, 指導教員の岡崎直観教授と高瀨翔氏と共に最初に取り組しだ研究テーマは, 本研究ではなく教師なしPOS夕グ付けに関する研究 (Hiraoka et al. 2021) であった. 単語分割の最適化に関する研究テーマがうまくいかず, 場繋ぎ的に取り組んだ研究であったというのが正直なところであるが,これが思いもよら女幸運を呼んだ. 2019 年の NLP 若手の会 (YANS) 第 14 回シンポジウムにて, この教師なしPOS タグ付けに関する研究を発表したところ, デンソーIT ラボラトリの内海慶氏と欅惊志氏に興味を持っていたたいた. シンポジウムの後に詳しく研究の相談をさせていただき,その後も欅氏に継続的なミー ティングの場を作っていただいたことで,そのままスムーズに共同研究へと繋がった4. 教師なしPOS タグ付けの研究が一段落ついたタイミングで,著者が元来持っていた本研究についてのアイデイアをお二人にお話したところ,こちらにも興味を持っていただき,それ以降は単語分割に関する共同研究に取り組むことになった.特に内海氏は,教師なし形態素解析に $ は三振に終わった. 4 オンライン開催のシンポジウムでのこうした「偶然の出会い」は, オフラインに比べるとやや難しく, 今となっては珍しいものになってしまったかもしれない.Zoom のブレイクアウトルームを活用した「出会い」に重点を置いた近年の施策 (高瀬 2021) から,このような良い縁が沢山生まれることを願っている. } 関する研究 (Uchiumi et al. 2015) に詳しく, 氏とともに本研究を進められたことは大変な幸運であった。デンソーIT ラボラトリのお二方には, 二週間に一度の定期的なミーティングで研究の方針や実験結果の解釈についてコメントを頂き,研究の堅実な進渉へと繋がった. 研究方針の軽微な軌道修正は,高瀬氏との日々の雑談によってももたらされた。この雑談も NAIST 時代のものと同様に, 研究の内容に関するものもあれば, 自宅周辺の治安が悪くて引っ越したいといった愚痴を聞いていただく事もあるなど,内容は多岐にわたった。しかし,こj した雑談の中でふと出た一言が, 研究内容を豊かにしてくれる場合がある. 例えば本研究では,単語分割の最適化のために用いる言語モデルが,ある程度言語モデルとしての性質を保つような損失関数を用いている(平岡他 (2021)の 2.5 節を参照)。これは, 高瀬氏と言語モデルの研究動向についてざっくばらんに雑談していたときに思いついて追加したものである. 偶然の出会いによる研究内容の洗練という点では, 本学会誌に投稿した際の査読コメントも忘れられない.本研究に対する査読では,内容を深く理解していただいた上で,とても丁寧かつ詳細なコメントを頂いた.著者にとっては国内の論文誌に投稿した初めての経験であり,国際会議論文の査読のような「落とすための査読コメント」に慣れてしまっていた中で,本研究に対して頂いた丁寧で有益なコメントには感動せずにいられなかった. 投稿版ではカバーできていなかった先行研究に基づく本研究の位置付けや, 本研究で導入した制約の副次的な効果について鋭い意見を頂き,原稿の改善たけではなく,研究の捉え方自体の洗練にも繋がった. ## 3.3 Findings への採択と葛藤 原論文の一部は Findings of EMNLP 2020 に採択されている (Hiraoka et al. 2020). EMNLP 2020 は ACL 系列の国際会議に Findings という枠が初めて設定された会議であった. 投稿論文に対するスコアは $3.5 , 3 , 4.5$ で,経験上ボーダーラインよりもやや上であり,本会議採択を期待させる点数であった。 そのため, Findings 枠での採択は悔しい結果であり, 再投稿して本会議を狙うという選択肢も考えられた。しかし,著者は博士課程学生という時間制限付きの身分であり,本研究を博士論文の一部として使用するためには,再投稿という時間のかかる選択はできなかった。国際会議で悔しい思いをしているだけに,今回のような論文賞という形で日本の NLPコミュニティに評価していただけたことは,非常に感慨深いものがある. ## 4 おわりに 単語分割の最適化は,誰もがその課題に気づいていながら,なかなか手を付けられずにいたテーマだと考えている。本研究は,単語分割の最適化を行うための一つのアイディアを提示したにすぎず,性能向上や安定化,高速化など改善の余地は大いにある.第 28 回年次大会での招待発表以降, ありがたいことに本研究について何件かの問い合わせを頂いた。本研究に興味を 持っていたたいた方々にも,本研究を足がかりに単語分割の最適化というテーマに取り組んでいただければ幸いである。またその際には,雑談や偶然の出会いが本研究を育んたという経緯を心に留めておくと, 研究遂行の一助となるかもしれない. ## 謝 辞 本稿の執筆にあたり,原論文の共著のみなさまに有益なコメントを頂きました.また,岡崎研究室の丹羽彩奈さんにも推敲を手伝っていただきました. ## 参考文献 Hiraoka, T., Takase, S., Uchiumi, K., Keyaki, A., and Okazaki, N. (2020). "Optimizing Word Segmentation for Downstream Task." In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 1341-1351, Online. Association for Computational Linguistics. Hiraoka, T., Takase, S., Uchiumi, K., Keyaki, A., and Okazaki, N. (2021). "Recurrent Neural Hidden Markov Model for High-order Transition." Transactions on Asian and Low-Resource Language Information Processing, 21 (2), pp. 1-15. 平岡達也, 高瀬翔, 内海慶, 欅惇志, 岡崎直観 (2021). テキストベクトルの重みづけを用いたタスクに対する単語分割の最適化. 自然言語処理, 28 (2), pp. 479-507. [T. Hiraoka et al. (2021). Optimizing Word Segmentation for Downstream Tasks by Weighting Text Vector. Journal of Natural Language Processing, 28(2), pp. 479-507.]. Kawakami, K., Dyer, C., and Blunsom, P. (2017). "Learning to Create and Reuse Words in OpenVocabulary Neural Language Modeling." In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), Vol. 1, pp. 1492-1502.高瀬翔 (2021). NLP 若手の会 (YANS) 第 16 回シンポジウムーオンライン開催における施策について一. 自然言語処理, 28 (4), pp. 1307-1311. [S. Takase (2021). Report on the 16th Symposiums of Young Researcher Association for NLP Studies. Journal of Natural Language Processing, 28(4), pp. 1307-1311.]. Uchiumi, K., Tsukahara, H., and Mochihashi, D. (2015). "Inducing Word and Part-of-Speech with Pitman-Yor Hidden Semi-Markov Models." In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 1774-1782, Beijing, China. Association for Computational Linguistics. ## 略歴 平岡達也:2017 年早稲田大学教育学部卒業. 2019 年奈良先端科学技術大学院大学情報科学研究科修了. 2022 年東京工業大学情報理工学院修了, 博士(工学). 同年より富士通株式会社にて研究員. 言語処理学会会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 「訓練事例の影響の軽量な推定」の執筆 小林堸介 $\dagger, \dagger \dagger$ ## 1 はじめに 本稿では言語処理学会論文賞をいただいた「訓練事例の影響の軽量な推定」の論文の内容を簡潔に紹介し,そのあとに本企画本旨である論文の着想や採択の経緯について述べる。原論文は筆者が社会人博士課程の中で執筆した論文であり,似た立場の読者の参考になれば幸いである. ## 2 原論文の概要 ニューラルネットワークはその挙動や仕組みがさっぱり分からないブラックボックス性で悪名高い。訓練デー夕に応じて性質が変わるが,どういうデータでどう変わるのかもやはり非自明である。そこをなんとかこじ開けて理解する手段を与えるのが原論文である.具体的には「もしもある1つの訓練データを除いて訓練していたとしたら,モデルの予測はどう変わっていたか」なる反実仮想的な推定に取り組んでいる。ナイーブにこの分析を行うとすると,訓練デー タセット $(D)$ からある 1 つのデータを実際に抜いたデータセット $(D \backslash\{(x, y)\})$ を作成し,それぞれでモデルを訓練して比較する必要がある。しかし, 全データで実施すればモデルの訓練や保存のコストは非現実的なものになってしまう。そこで本研究では,たった 1 つのモデルを 1 つの訓練データセットで 1 度だけ訓練するだけで全データの分析を行えるような極めて効率的な方法を提案した.提案法はニューラルネットの訓練中にランダムなパターンで重みパラメー タをゼロにする dropout (Srivastava et al. 2014)を応用した。ニューラルネットは各訓練事例での推論結果の勾配によって学習を行うが,dropout された重みは勾配もゼロになり,その回では全く更新されない,提案法では,各訓練事例ごとに固定パターンの dropout で訓練を行う. すると,無視された側のパラメータはその訓練事例を直接見ないままに訓練を終えることになる。この「見ない」サブネットワークは一度の訓練で全事例について用意できる。よって,事例ごとの「見た」サブネットと「見ない」サブネットの予測を比較することで解析を全事例に行うことができる。詳細は原論文や関連英語論文 (Kobayashi et al. 2020) を参照してほしい.  Training on $z$ (exposed to $z$ ) 図 1 提案手法. 各事例に更新されるサブネット $f^{m(z)}$ と更新されないサブネット $f^{\widetilde{\boldsymbol{m}}(z)}$ を生成する. ## 3 着想から採択まで ## 定義文による汎用言語理解 博士後期課程は 2018 年 10 月から始まり,はじめは大きく異なるテーマに取り組んでいた.当時の Slack¹にも懐かしい記述が見つかる。例えば,当時はそのテーマの言語化として 目標:ある言語表現をうけとり,それが内包的に指し示す言語表現群を識別する分類器 例: 「何かを命令している文」という文をうけとり,「これやって!!」どの文やフレーズに対して発火できる高性能な分類器を自動生成する とまとめていた。ある説明文が指し示す「文集合」を理解させたいということであり,平たく言えば,夕スクの定義文さえ与えたら新規の訓練いらずでそれが解ける汎用的なゼロショット言語理解モデルを目指していた。もしあったら自分でも嬉しくで世界も変わりうるだろう 3 と考え,実利とロマンの第一歩を踏み出した,さて,実現しょうと幾つかのアプローチ4を試みていったものの,結果は芳しくなかった,多少は楽しめる結果であり,そのままやれば論文の及第点に届く気もした.されど,当初描いた「あらゆるタスクが解ける」からは程遠く,技術的には手法も凡庸で面白みに欠けていた。さらに悪いことに,思いついた中でも最も有望だったアプローチこそが同時に最も凡庸で面白くないと感じていた。この板挟みにやる気をなくし,ついにはこのテーマをやめてしまった。その最も有望で最も面白くないアプローチこそ,今では王道の「大量のコーパスで言語モデルをひたすら訓練する」ことであった.「あらゆるタスクが解ける」という夢もまた GPT-2, 3 を皮切りにして今も急速に発展している. 当時は最適なアプローチだとは確信しつつも, これほどの道がすぐそこに広がっていると想像できていなかっ  た.その姿をわくわくと期待できていたら,退屈もなしに進めていけたかもしれない.実現性を信じる気持ちも想像力同様に重要なのだと今では実感している. ## 研究の研究 1 つ断念したあとは長く次が決まらなかった.教師なしで文の抽象化と具体化を行える生成モデルだの,言語モデルの確率分布の非人間的な挙動だの ${ }^{5}$, あれこれに面白いとは感じつつも大きく踏み出すことはなかった6 6 あてなく興味を持った言語系の本を読んたり,なにを研究すべきかの内省のために研究にまつわる本を読んだもした.内容への賛否に関わらず,自分の外の意見との対話を通して物事を考えるというのは,一人で思い悩むよりもずっと健全で優良な結果につながると思われる。なお,「研究」本としては (金出 2012; 丸山 2019; 暦本 2021) などがおすすめである。「言語」本では (Taylor 2017) が面白かった。この頃は苦悩の時間ではあるものの,悩みと探索の過程もまた研究の醍醐味と考えて穏やかに受け入れて過ごした。 ## 文の総称性 さて, 時は過ぎて 2019 年 5 月末, 言語モデルの学習に総称性 (genericity) の概念を導入する, という新たなアイデアに思い至った。言語モデルはコーパス上の各単語を予測できるよう強制されていく,各文脈や各単語を平等に刷り込まれていく,しかし,限られたコーパスから効率的に言語の確率を学習するコツはないだろうか. 例えば, 「I eat a pumpkin on Oct.」「We eat a pumpkin on Oct.」「People eat a pumpkin on Oct.」の 3 文は $\{$ I, We, People $\}$ という主語だけが異なっているが,言語モデルの学習には「I」分に比べて「We」文や「People」文のほうが学習に役に立つ(べきな)のではないか, という仮説である。コーパスは, 言語の文法, 単語の意味, 世界の知識, そういった複数の情報を折り重ねて表示している。言語の構成的な仕組みのみならず,その「世界の知識」もまた単語の出現確率に大きな影響を及ぼす要素である。詠み人知らずの正体不明 1 インスタンス「I」に関する知識と, 人類全体や特定の集団を指示しやすい「We」「People」に関する知識とを比べると, 後者の方が未知のテキストでも役に立つ汎用的な知識であるように感じる。そうして,このような「ある集団や種の一般的な特性や習慣へ言及する文」(総称文) を判定することで,言語モデルをより効率的かつ節度ある形 7 に学習するというテーマを思いつき,やっとのことで取り組み始めた.  ## 訓練事例の影響の軽量な推定 再度,言うは易く行うは難し。やはりどうしたら実現できるかは悩ましい. meta learning を勉強したり,再び書籍を読んだり,押したり引いたりの模索をしていた,研究のペースを上げる必要性も感じ始めた。そこで, 余っていた休暇を使って業務の出勤日を減らし, 気分転換と集中のために 1 ヶ月ほど仙台に滞在した 8 . 部屋に籠もりラボに通いカフェで休みの仙台生活を満契していると,一週間もしないうちに本研究のアイデアにたどり着いた. 毎日朝起きてから寝るまでずっと向き合える余裕のある環境 ${ }^{9}$ が大いに役に立ったといえる.総称文の表現自体にこだわるとかえって難しそうに感じ,より広い枠組みの問題として考え直し始めた。一般的な法則性を持たない事例であればあるほど,その事例で学習しないことには予測が難しいはずである。 そして,それが真であれば,ある事例の訓練の有無による予測の変化が捉えられれば,その訓練事例がどれほど一般的な法則性を持つかの判定もできるはずである.ということで,その予測変化を効率的に捉える方法はないかと考え,ついには思いついた。ここまでの長話の果てにやっと論文の背中が見えたことになる。 その後, 言語モデルに限らない一般的な道具立てとして有効性を示す方向にシフトし,実験を重ねて簡潔な short paper として論文をまとめた. それを国際会議に投稿していったが,残念ながら ACL でも EMNLP でもボーダーライン近くの点数で落ちてしまった. 査読の内容は満足できる品質ではなく大きく気落ちしたのを覚えている.査読は打席数が大事といえど,博士課程修了を考えると早めに採択が欲しくなる.特に論文誌が要件に入っていたこともあり,テンポよくワークショップと本論文誌に投稿する方針へ切り替えた。計算量やデータの効率性がコンセプトのワークショップ SustaiNLP 2020 に投稿して無事採択された.驚くべきことに SustaiNLP の査読は本会議よりもはるかに質が高かった10. まともな批判が書いてあったことも嬉しく, やっと研究が認められたと感じた. そして,加筆修正とともに本論文誌に投稿し, 照会後判定を経て採択となった. 論文誌における査読も丁寧で,右肩上がりの気持ちいい投稿となり,最終的には賞までいただりこととなった. ## 4 おわりに 今回は長い旅路の割には業績の生産性がいいわけでもなく, 典型的に成功とされるトップ国際会議への採択にも至らなかった。思いを馳せた汎用的な言語理解や言語モデルや総称性の姿もほぼ消えている。しかし, それらの迷走なしには本研究にはたどり着けなかったたろう,紆余曲折の辛酸も今回の受賞で一層薄めることができた. 賞選考ならびに本記事執筆の機会をくださった編集委員の方々に深く感謝する。本稿執筆に関しても助言をいただいた東北大学の横 ^{9} \mathrm{http}: / /$ paulgraham.com/top.html 10 名のしれた研究者が查読者になりやすいことや査読負荷の軽さが功を奏したのかもしれない. } 井祥氏にも感謝する。その他にも並行していた共著研究 (Saito et al. 2020; Ouchi et al. 2020, 2021; Takase and Kobayashi 2020; Kiyono et al. 2021; Arakawa et al. 2022)11の楽しみも精神的な支えになった,全共著者にも感謝の意を表する.最後に,今後も自ら愛せる「もしもこんなことができたなら」の研究を進め,その営み自体の酸いも甘いも楽しんでいきたい. ## 参考文献 Arakawa, R., Yakura, H., and Kobayashi, S. (2022). "VocabEncounter: NMT-powered Vocabulary Learning by Presenting Computer-Generated Usages of Foreign Words into Users' Daily Lives." In CHI 2022. Hatori, J., Kikuchi, Y., Kobayashi, S., Takahashi, K., Tsuboi, Y., Unno, Y., Ko, W., and Tan, J. (2018). "Interactively Picking Real-World Objects with Unconstrained Spoken Language Instructions." In ICRA 2018. 金出武雄 (2012). 独創はひらめかない一「素人発想、玄人実行」の法則. 日本経済新聞出版. [T. Kanade (2012). Dokuso wa Hiramekanai: "Shirouto Hasso, Kurouto Jikko" no Hosoku. Nihonkeizaishinbun Shuppan.]. Kiyono, S., Kobayashi, S., Suzuki, J., and Inui, K. (2021). "Shifted Absolute Position Embeddings for Transformers." In EMNLP 2021. arXiv preprint arXiv: 2109.05644. Kobayashi, S., Yokoi, S., Suzuki, J., and Inui, K. (2020). "Efficient Estimation of Influence of a Training Instance." In SustaiNLP 2020. arXiv preprint arXiv: 2012.04207. 丸山宏 (2019). 新企業の研究者をめざす皆さんへ. 近代科学社. [H. Maruyama (2019). Shin Kigyo no Kenkyusha wo Mezasu Minasan e. Kindaikagakusha.]. Ouchi, H., Suzuki, J., Kobayashi, S., Yokoi, S., Kuribayashi, T., Konno, R., and Inui, K. (2020). "Instance-based Learning of Span Representations: A Case Study through Named Entity Recognition." In ACL 2020. arXiv preprint arXiv:2004.14514. Ouchi, H., Suzuki, J., Kobayashi, S., Yokoi, S., Kuribayashi, T., Yoshikawa, M., and Inui, K. (2021). "Instance-Based Neural Dependency Parsing." In TACL 2021. arXiv preprint arXiv:2109.13497. 暦本純一 (2021).妄想する頭思考する手想像を超えるアイデアのつくり方. 祥伝社. [J. Rekimoto (2021). Moso suru Atama Shiko suru Te Sozo wo Koeru Aidea no Tsukurikata. Shodensha.].  Saito, M., Saito, S., Koyama, M., and Kobayashi, S. (2020). "Train Sparsely, Generate Densely: Memory-Efficient Unsupervised Training of High-Resolution Temporal GAN." International Journal of Computer Vision, 128 (10), pp. 2586-2606. Srivastava, N., Hinton, G., Krizhevsky, A., Sutskever, I., and Salakhutdinov, R. (2014). "Dropout: A Simple Way to Prevent Neural Networks from Overfitting." Journal of Machine Learning Research, pp. 1926-1958. Takase, S. and Kobayashi, S. (2020). "All Word Embeddings from One Embedding." In NeurIPS 2020. arXiv preprint arXiv:2004.12073. Taylor, J. R. (2017). メンタル・コーパス一母語話者の頭の中には何があるのか. くろしお出 版. [J. R. Taylor (2017). Mentaru Kopasu: Bogowasha no Atama no Naka niwa Nani ga Arunoka. Kuroshio Shuppan.]. ## 略歴 小林颯介:2016 年株式会社 Preferred Networks 入社. 2021 年東北大学情報科学研究科博士後期課程修了. 同年より東北大学デー夕駆動科学・AI 教育研究センター学術研究員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 「数値気象予報からの天気予報コメントの自動生成」の研究過程 村上聡一朗 ${ }^{\dagger, \dagger \dagger}$ ## 1 はじめに 本稿では, 言語処理学会 2021 年度論文賞をいただいた「数値気象予報からの天気予報コメントの自動生成」(村上他 2021)(以降,原論文と呼称する)について,論文では語られなかつた研究の着想から原論文の採択に至るまでの経緯を交えて解説する。 ## 2 着想から採択に至るまでの経緯 本研究は, 著者が大学院の修士課程 2 年であった約 6 年前に取り組み始めた研究である。また原論文は, NLP2017 で発表した研究 (村上他 2017) を発展させて, その後EACL2021 に採択された論文 (Murakami et al. 2021)を基にしている。 そこで本節では, 著者が約 6 年前に本研究に着手した当時から,EACL2021 および原論文の採択に至るまでの経緯を振り返りたい. 当時,著者は人間が物事を理解し,それを言葉で説明できるように,計算機でも同様の処理を実現できないかと考え,自然言語生成の研究に取り組んでいた,その中でも特に修士課程 1 年目に取り組んでいた野球の試合速報を生成する研究 (村上他 2016) を通して,デー夕を言語で記述する研究課題である,すなわち Data-to-Text 生成課題に対して関心が高まっていた.野球の試合速報が試合状況やそれを表すデータを理解している制作者によって書かれるように,どのようにすれば世の中のあらゆるデータを計算機が理解し,それを記述するテキストが生成できるかという問題に面白さを感じたためである。またそれと同時に,ドメインや扱うデータが異なれば,データを記述する際に着目すべき点や直面する課題も異なるはずであり,研究対象のドメインを広げていきたいとも考えていた. 天気予報コメントの自動生成はこのような流れで始まった研究の1つである。天気予報コメントは,気象予報モデルを大規模コンピュータでシミュレーションして得られる数値気象予報を基に人手で記述されている。著者は天気予報に関して素人であったため, 研究を始めるにあたりまずは調査から始めたが,こうした実際の天気予報コメントの制作過程を知り,まずはその過程を計算機で再現してみることから着手した. このようにして NLP2017 の研究 (村上他  2017) では, 実際の天気予報コメントの制作過程に着想を得て, 数値気象予報を用いた天気予報コメントの自動生成に取り組んだ。 その後, 研究の方向性を検討するにあたり従来の手法では解決できていないくつかの課題を検討した。その中の 1 つが生成テキストの忠実性の課題である. Data-to-Text 生成課題において主流な手法であるニューラルネットワークに基づく言語生成モデルは,その生成テキストの流暢性の高さが注目されているが,生成時の制御が難しく入力デー夕に対して忠実ではないテキストが生成される課題が多く指摘されていた (Wang et al. 2020). これは特に天気予報コメン卜などの生成内容の正確さが求められる応用先においては重要な課題といえる. この課題に着想を得て,天気予報コメントでは特に「晴れ」「曇り」「雨」「雪」に関する情報が重要視されることに着目し,これらを適切に言及するための内容選択モデルを導入する手法を考案した. これは,EACL2021に採択された論文,またその後の原論文におけるアイデアへ繋がっている. 論文誌に向けては,EACL2021の査読で頂いたコメントなどを基に追加実験を行った。その中の 1 つが比較手法の追加であり,原論文では事例ベース推論による実験を実施した。これは先行研究 (Adeyanju 2012) でも言及されているように, 天気予報コメントでは類似した数値気象予報や気象観測値等に対して同様のコメントが記述されるため, 有用な比較手法であると考えたためである。また原論文は主著として 2 本目の論文誌であるが, 原論文の執筆にあたっては 1 本目の論文誌を執筆した際に得られた経験が活きている。例えば論文誌では提案手法の有用性を示すための多面的な評価実験に加え,それを読者に向けて分かりやすく提示することが求められる. 1 本目の論文誌の査読を通して査読者より様々な視点から指摘や助言をいたたけたことで,2 本目である原論文の執筆時にはそれらを考慮しながら必要な実験や提示すべき情報などを洗い出し,計画的に執筆に取り組むことができた。 2022 年 1 月の「論文賞」の吉報は著者にとって想像もしていなかった出来事であったが, このように評価をいただけたのはひとえに原論文に限らずこれまでの著者の研究に対して指摘や助言を頂いた査読者および共著者, 指導者の皆様のおかげである.こうした経験を経たことで,研究や論文執筆を着実に進めることができ,今回の受賞へ繋がったと考えている. ## 3 論文の概要 本研究では, 天気予報コメントの自動生成タスクにおける 3 つの課題に焦点を当てている. ここで,図 1 を用いて具体的にそれぞれの課題を説明する.1つ目は,コメントを記述する際に数値気象予報のシミュレーション結果に含まれる降水量や気圧などの複数の物理量とその時間変化を考慮しなければならない点である。例えば, 図 1 で雲や降水量のそれぞれの時間変化に言及されているように,天気予報コメントを記述する際には複数の物理量の変化を考慮しなければならない,2つ目は,天気予報コメントでは,対象エリアやコメントの配信時刻,日付な 配信日時: 4 月 6 日午前 $5: 51$, 東京 今日は日差しが届く時間がありますが、雲が広がりやすくて夕方以降は雨が段々と降り出します。外出時に雨が降っていなくても傘を持ってお出かけ下さい。 図 1 数値気象予報のシミュレーション結果と天気予報コメントの例 どのメ夕情報に基づいて記述されている点である。例えば,午前中に配信される天気予報コメントは,日中から夕方にかけた天気に言及することが多く,夕方以降に配信される天気予報コメントでは,夜から翌日の日中までの天気に言及する傾向がある。また,海辺のエリアを対象とした天気予報コメントでは,波の高さなどに言及されることが多い,3つ目は,天気予報サイトのユーザーは天気予報コメントの情報の有用性(以降では,情報性と呼称する)を重要視している点である。特に「晴れ」「雨」「曇り」「雪」といった気象情報について適切に言及されているかはユーザーにとって重要といえる。 これらの課題に対して, 本研究では数値気象予報のシミュレーション結果や気象観測值から天気予報コメントを生成するための Data-to-Text モデルを提案している. 図 2 に提案モデルの概要を示す. 1 つ目の課題に対しては,数値気象予報における様々な物理量を捉えるために多層パーセプトロンまたは畳み込みニューラルネットワークをエンコーダとして用い,さらにその時間変化を考慮するために双方向リカレントニューラルネットワークを導入した. 2 つ目の課題については,天気予報コメントの対象となるエリア情報や配信時刻などのメ夕情報をモデルへ導入し, 生成時にこれらの情報を考慮するように工夫した,3つ目の課題について,本研究では「晴れ」「雨」「曇り」「雪」の気象情報をユーザーにとって重要な情報と定義し, これらを適切に言及するために内容選択モデルを導入した.内容選択モデルでは,数値気象予報のシミュレーション結果から言及すべき重要な情報である「晴れ」「雨」「㫫り」「雪」の気象情報を予測する,提案モデルでは,それらの予測結果をテキスト生成時に考慮することで,生成テキ 図 2 提案モデルの概要 ストの情報性の向上を図っている. 実験では,数値気象予報のシミュレーション結果,AMeDAS により収集された気象観測デー 夕およびウェザーニュース1で配信された天気予報コメントを用いて提案モデルの評価を実施した。自動評価では,生成テキストと参照テキストの $n$-gram の一致に基づく評価指標である BLEU および ROUGE を用い, 生成テキストの品質を評価した。また, これらの評価指標では,生成テキストにおいて「晴れ」「雨」「量り」「雪」の気象情報を適切に言及できているか評価が難しいため, 手がかり語に基づく生成テキストの内容の評価も合わせて実施した. これらの自動評価により,提案モデルがベースラインモデルに比べて性能が改善することを確認した。 さらに, 人手評価では, 提案モデルはベースラインモデルと比べて天気予報コメントの情報性が向上していることが示された. 詳細の実験設定, 結果については原論文を参照していたたきさたい. ## 4 おわりに 本記事では, 本研究の着想から採択に至るまでの経緯を交えて, 原論文の概要を解説した. あらためて本研究に着手した経緯を振り返ると, その動機は当初著者が抱いていた興味関心から駆り立てられたものであり,これは現在の研究活動にも繋がっている。今回の受賞を励みに,今後も探究心を大切にしながら研究に取り組んでいきたい.  ## 謝 辞 本研究に関して,論文の査読や審査,助言をしていただた査読者,編集委員会,関係者の皆様に感謝申し上げます。また,本記事の執筆機会を与えていただいた編集委員会の皆様に感謝申し上げます。 ## 参考文献 Adeyanju, I. (2012). "Generating Weather Forecast Texts with Case Based Reasoning." International Journal of Computer Applications, 45, pp. 35-40. Murakami, S., Tanaka, S., Hangyo, M., Kamigaito, H., Funakoshi, K., Takamura, H., and Okumura, M. (2021). "Generating Weather Comments from Meteorological Simulations." In Proceedings of The 16th Conference of the European Chapter of the Association for Computational Linguistics. Association for Computational Linguistics. 村上聡一朗,笹野遼平,高村大也,奥村学 (2016). 打者成績からのイニング速報の自動生成. 言語処理学会第 22 回年次大会発表論文集, pp. 338-341. [S. Murakami et al. (2016). Dasha Seiseki kara no Iningu Sokuho no Jido Seisei. Proceedings of the 22nd Annual Meeting for the Association for Natural Language Processing, pp. 338-341.]. 村上聡一朗, 笹野遼平, 高村大也, 奥村学 (2017). 数値予報マップからの天気予報コメントの自動生成. 言語処理学会第 23 回年次大会発表論文集, pp. 1121-1124. [S. Murakami et al. (2017). Suchi Yoho Mappu kara no Tenki Yoho Komento no Jido Seisei. Proceedings of the 23rd Annual Meeting for the Association for Natural Language Processing, pp. 1121-1124.]. 村上聡一朗,田中天,萩行正嗣,上垣外英剛,船越孝太郎,高村大也,奥村学 (2021). 数値気象予報からの天気予報コメントの自動生成. 自然言語処理, 28 (4), pp. 1210-1246. [S. Murakami et al. (2021). Generating Weather Comments from Numerical Weather Prediction. Journal of Natural Language Processing, 28(4), pp. 1210-1246.]. Wang, Z., Wang, X., An, B., Yu, D., and Chen, C. (2020). "Towards Faithful Neural Table-toText Generation with Content-Matching Constraints." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1072-1086. Association for Computational Linguistics. ## 略歴 村上聡一朗 : 2015 年熊本高等専門学校専攻科電子情報システム工学専攻修了. 2017 年東京工業大学大学院博士前期課程修了. 2019 年より, 東京工業大学工 学院博士後期課程に在籍. 株式会社サイバーエージェント AI Lab リサーチサイエンテイスト. 自然言語処理, 特に自然言語生成に関する研究開発に従事. 言語処理学会会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# JGLUE: 日本語言語理解ベンチマーク 栗原健太郎 $\dagger \cdot$ 河原 大輔 $\dagger \cdot$ 柴田 知秀 $\dagger \dagger$ ## 1 はじめに 早稲田大学河原研究室とヤフー株式会社の共同研究で日本語言語理解ベンチマーク JGLUE (Japanese General Language Understanding Evaluation)を構築した。本稿ではその背景・概要・今後の展望について述べる。詳細は言語処理学会第 28 回年次大会 (NLP2022)で発表した論文 (栗原他 2022)をご参照いただきたい. ## 2 背景 近年, BERT (Devlin et al. 2019) や T5 (Raffel et al. 2020), GPT-3 (Brown et al. 2020) などの基盤モデル (Bommasani et al. 2021)の進展が目覚ましい. 基盤モデルの進展には GLUE (Wang et al. 2018)のようなベンチマークでの網羅的評価が不可欠である. 種々のベンチマークは主に英語で構築されているが,フランス語の FLUE (Le et al. 2020) や中国語の CLUE (Xu et al. 2020), 韓国語の KLUE (Park et al. 2021) など,英語以外の言語でもベンチマークが整備されている。では日本語ではどうだろうか。様々な機関から BERT などのモデルは公開されており,それを評価するデータセットがいくつかあるものの,GLUEのように整理されたベンチマークは存在せず,適切な網羅的評価が行うことができない. 「日本語にもベンチマークが必要」ということは数多くの人が認識していたと思うが,どの組織からも構築しようとする動きが見られなかったため, 早稲田大学河原研究室とヤフー株式会社の共同研究で 2021 年度より日本語版 GLUE (JGLUE) の構築を開始した. JGLUE の構築にあたって以下の 2 つを基本理念とした. (1) 翻訳を介さず日本語のテキストで一から構築 英語のデータセットを翻訳することによって日本語のデータセットを構築することが考えられるが,機械翻訳,人手翻訳のいずれにしても日本語における不自然さが残ってしまう。そこで日本語のテキストで一から構築する。 (2) 一般ドメインのテキストで構築  JRTE コーパス (Hayashibe 2020) や運転ドメイン QA データセット (Takahashi et al. 2019) はそれぞれホテルのレビュー,運転行動を対象としたデータセットであり,一般的なドメインの言語理解能力を測るのには向かない。そこで一般ドメインのテキストを用いてデータセットを構築する. ## 3 JGLUE の概要 JGLUE は GLUEのタスクをなるべくカバーするように,夕スク,ならびに,それぞれの夕スクに含まれるデータセットを選定した. JGLUEの構成を表 1 に示す. 文章分類, 文ペア分類, QAの3つのタスクから構成している。なお, 文章分類タスクの一つである JCoLA(日本語容認性判断データセット) (染谷, 大関 2022) は東京大学大関研究室から提供される予定である。 以下では, 各タスクのデータセットの概要を紹介する。各データセットの構築はクラウドソーシング1を用いて行った。 MARC-ja 文章分類タスクとして, 多言語商品レビューコーパス MARC (Multilingual Amazon Reviews Corpus) (Keung et al. 2020) の日本語部分を用いてMARC-jaを構築した. MARC は各商品レビューに対して 1-5の5段階の商品評価が割り振られたデータセットであり,これに対して以下の変更を行った. - 5 段階の分類タスクは人/システムの両者にとって難易度が高いことから positive/negative の 2 値分類タスクに変換 -レビューの内容と商品評価が乘離している事例が混在していることからクラウドソーシングによりラベルを修正(devと testのみ) 表 2 に MARC-ja のデータの例を示す. JSTS・JNLI 文ペア分類タスクとして, 意味的類似度計算 (Semantic Textual Similarity, STS) データセット JSTS および自然言語推論 (Natural Language Inference, NLI) データセット JNLI 表 1 JGLUE の構成  を構築した.2つのデータセットはどちらも YJ Captions Dataset (Miyazaki and Shimizu 2016) のテキストを用い,クラウドソーシングで類似度ならびに推論関係を付与することにより構築した。表 3 にJSTS・JNLIのデータの例を示す. JSQuAD QAタスクとして, SQuAD (Rajpurkar et al. 2016)の日本語版である JSQuADを構築した. JSQuADは与えられた文章から問題の答えを抜き出して回答するスパン抽出型タスクで, SQuAD と同様の手順で Wikipedia の日本語記事を用いて構築した. 図 1 にJSuADのデータの例を示す。 JCommonsenseQA QAタスクとして, CommonsenseQA (Talmor et al. 2019)の日本語版である JCommonsenseQA を構築した. JCommonsenseQA は常識推論能力を評価するための 5 択 QA 問題である. CommonsenseQA と同様に ConceptNet (Speer et al. 2017)をシードとし,クラウドソーシングを用いて構築した. 図 2 に JCommonsenseQA のデータの例を示す. 表 2 MARC-ja の例 表 $3 \mathrm{JSTS} \cdot \mathrm{JNLI}$ の例 図 1 JSQuAD の例 問題: 会社の最高責任者を何というか? 選択肢: 教師, 部長, 社長, 部下, バイト 問題: スープを飲む時に使う道具は何? 選択肢: スプーン,メニュー, 血, フォーク, はし図 $2 \mathrm{JCommonsenseQA}$ の例(太字は正解を表す) JCommonsenseQA の例(太子は正解を表す) ## 4 JGLUE を用いた基盤モデルの評価 JGLUE を用いて,広く利用されている各種基盤モデル(表 4)の性能評価を行った.各種モデルのスコアおよびヒューマンスコアを表 5 に示す. ヒューマンスコアについてはデータ構築と同様にクラウドソーシングを用いて算出した. モデルの性能について,以下のようにまとめることができる. - 全般的にはXLM-RoBERTa ${ }_{L A R G E}$ が最もよい. これは LARGE サイズであることと, 事前学習のテキストとして Wikipediaよりも大規模な Common Crawlを使っていることが考えられる。 - 基本単位について, サブワード単位と文字単位を比較すると一貫してサブワード単位の方が精度が高い. (東北大 $\mathrm{BERT}_{\mathrm{BASE}}$ と東北大 $\mathrm{BERT}_{\mathrm{BASE}}$ (文字)の行を比較のこと) - JCommonsenseQA は Wikipediaには記載されにくい常識的な知識を要求することから, & 日本語 Wikipedia \\ 表 4 基盤モデルの詳細(モデル名の括弧内は huggingface models での名称を, “”はそれぞれに対応する LARGE モデルも利用することを示す。\cjkstart事前学習テキストの CC は Common Crawl を表す.) & & & & \\ 表 5 JGLUE におけるモデルの評価結果 (test) Common Crawl を用いたモデルの精度が高い. - JCommonsenseQA 以外についてはべストなモデルは人間のスコアと同等または超えている. ## 5 おわりに データセットの数としてはまだまだ十分ではないが, 最低限のタスク/データセットをカバー し, JGLUE という形で整理した。これによってモデルの包括的な評価が可能となり,より良いモデルの構築や様々なデータセットの構築が進むことを期待している.JGLUE の第一版は 2022 年 3 月末に公開を予定しており(原稿執筆時点),フィードバックをいただけると幸いである. 今後はより難しいデータセットの構築や生成系タスクのデータセットの構築を行う予定である。また, JCoLAのように他機関で構築されたデータセットは JGLUE に適宜取り込みたいと考えているので,ご連絡いただければ幸いである。 ## 参考文献 Bommasani, R., Hudson, D. A., Adeli, E., Altman, R., Arora, S., von Arx, S., Bernstein, M. S., Bohg, J., Bosselut, A., Brunskill, E., Brynjolfsson, E., Buch, S., Card, D., Castellon, R., Chatterji, N. S., Chen, A. S., Creel, K., Davis, J. Q., Demszky, D., Donahue, C., Doumbouya, M., Durmus, E., Ermon, S., Etchemendy, J., Ethayarajh, K., Fei-Fei, L., Finn, C., Gale, T., Gillespie, L., Goel, K., Goodman, N. D., Grossman, S., Guha, N., Hashimoto, T., Henderson, P., Hewitt, J., Ho, D. E., Hong, J., Hsu, K., Huang, J., Icard, T., Jain, S., Jurafsky, D., Kalluri, P., Karamcheti, S., Keeling, G., Khani, F., Khattab, O., Koh, P. W., Krass, M. S., Krishna, R., Kuditipudi, R., et al. (2021). "On the Opportunities and Risks of Foundation Models." CoRR, abs/2108.07258. Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P., Neelakantan, A., Shyam, P., Sastry, G., Askell, A., Agarwal, S., Herbert-Voss, A., Krueger, G., Henighan, T., Child, R., Ramesh, A., Ziegler, D., Wu, J., Winter, C., Hesse, C., Chen, M., Sigler, E., Litwin, M., Gray, S., Chess, B., Clark, J., Berner, C., McCandlish, S., Radford, A., Sutskever, I., and Amodei, D. (2020). "Language Models are Few-Shot Learners." In Larochelle, H., Ranzato, M., Hadsell, R., Balcan, M. F., and Lin, H. (Eds.), Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In NAACL2019, pp. 4171-4186, Minneapolis, Minnesota. Association for Computational Linguistics. Hayashibe, Y. (2020). "Japanese Realistic Textual Entailment Corpus." In LREC2020, pp. 6827-6834, Marseille, France. European Language Resources Association. Keung, P., Lu, Y., Szarvas, G., and Smith, N. A. (2020). "The Multilingual Amazon Reviews Corpus." In EMNLP2020, pp. 4563-4568, Online. 栗原健太郎, 河原大輔, 柴田知秀 (2022). JGLUE: 日本語言語理解ベンチマーク. 言語処理学 会第 28 回年次大会, pp. 2023-2028. [K. Kurihara et al. (2022). JGULE: Nihongo Gengo Rikai Benchimaku. Proceedings of the 28th Annual Meeting for the Association for Natural Language Processing, pp. 2023-2028.]. Le, H., Vial, L., Frej, J., Segonne, V., Coavoux, M., Lecouteux, B., Allauzen, A., Crabbé, B., Besacier, L., and Schwab, D. (2020). "FlauBERT: Unsupervised Language Model Pretraining for French." In LREC2020, pp. 2479-2490, Marseille, France. European Language Resources Association. Miyazaki, T. and Shimizu, N. (2016). "Cross-Lingual Image Caption Generation." In ACL2016, pp. 1780-1790. Park, S., Moon, J., Kim, S., Cho, W. I., Han, J. Y., Park, J., Song, C., Kim, J., Song, Y., Oh, T., Lee, J., Oh, J., Lyu, S., Jeong, Y., Lee, I., Seo, S., Lee, D., Kim, H., Lee, M., Jang, S., Do, S., Kim, S., Lim, K., Lee, J., Park, K., Shin, J., Kim, S., Park, L., Oh, A., Ha, J.-W., and Cho, K. (2021). "KLUE: Korean Language Understanding Evaluation." In 35th Conference on NeuralIPS Datasets and Benchmarks Track (Round 2). Raffel, C., Shazeer, N., Roberts, A., Lee, K., Narang, S., Matena, M., Zhou, Y., Li, W., and Liu, P. J. (2020). "Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer." Journal of Machine Learning Research, 21 (140), pp. 1-67. Rajpurkar, P., Zhang, J., Lopyrev, K., and Liang, P. (2016). "SQuAD: 100,000+ Questions for Machine Comprehension of Text." In EMNLP2016, pp. 2383-2392, Austin, Texas. 染谷大河, 大関洋平 (2022). 日本語版 CoLA の構築. 言語処理学会第 28 回年次大会, pp. 1872-1877. [T. Someya and Y. Oseki (2022). Nihongoban CoLA no Kochiku. Proceedings of the 28th Annual Meeting for the Association for Natural Language Processing, pp. 1872-1877.]. Speer, R., Chin, J., and Havasi, C. (2017). "ConceptNet 5.5: An Open Multilingual Graph of General Knowledge." AAAI2017, 31 (1). Takahashi, N., Shibata, T., Kawahara, D., and Kurohashi, S. (2019). "Machine Comprehension Improves Domain-Specific Japanese Predicate-Argument Structure Analysis." In MRQA2019, pp. 98-104, Hong Kong, China. Talmor, A., Herzig, J., Lourie, N., and Berant, J. (2019). "CommonsenseQA: A Question Answering Challenge Targeting Commonsense Knowledge.” In NAACL2019, pp. 4149-4158, Minneapolis, Minnesota. Wang, A., Singh, A., Michael, J., Hill, F., Levy, O., and Bowman, S. (2018). "GLUE: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding." In EMNLP2018 Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 353-355, Brussels, Belgium. Association for Computational Linguistics. Xu, L., Hu, H., Zhang, X., Li, L., Cao, C., Li, Y., Xu, Y., Sun, K., Yu, D., Yu, C., Tian, Y., Dong, Q., Liu, W., Shi, B., Cui, Y., Li, J., Zeng, J., Wang, R., Xie, W., Li, Y., Patterson, Y., Tian, Z., Zhang, Y., Zhou, H., Liu, S., Zhao, Z., Zhao, Q., Yue, C., Zhang, X., Yang, Z., Richardson, K., and Lan, Z. (2020). "CLUE: A Chinese Language Understanding Evaluation Benchmark." In COLING2020, pp. 4762-4772, Barcelona, Spain (Online). ## 略歴 栗原健太郎:2021 年早稲田大学基幹理工学部情報通信学科卒業. 2022 年現在同大学院修士課程在学中. 河原大輔:1997 年京都大学工学部電気工学第二学科卒業. 1999 年同大学院修士課程修了. 2002 年同大学院博士課程単位取得認定退学. 東京大学大学院情報理工学系研究科学術研究支援員, 独立行政法人情報通信研究機構主任研究員, 京都大学大学院情報学研究科准教授を経て, 2020 年より早稲田大学理工学術院教授. 自然言語処理, 知識処理の研究に従事. 博士 (情報学). 柴田知秀:2007 年東京大学大学院情報理工学系研究科博士課程修了. 京都大学大学院情報学研究科助教, 特定講師を経て, 2019 年より Yahoo! JAPAN 研究所上席研究員.専門は自然言語処理,特に深層学習を利用した日本語基礎解析. 博士 (情報理工学).
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# さきがけ「新しい社会システムデザインに向けた情報基盤技術の 創出」研究領域における自然言語処理関連研究 ## 1 はじめに 科学技術振興機構 (JST) の「さきがけ1」 ${ }^{1}$ は, 文部科学省が定める戦略目標に基づいて推進される JST の「戦略的創造研究推進事業」のプログラムの一つで, 研究総括が定めた研究領域運営方針の下で研究者が異分野間のネットワークを形成しながら個人で研究を行うものである.「新しい社会システムデザインに向けた情報基盤技術の創出 2 」(略称:社会デザイン)は黒橋禎夫先生 (京都大学) を研究総括として 2016 年度から運営されてきた領域で, 自然言語処理領域から本稿共著の 5 名が研究者として参加した(1 期生: 吉野・高村, 2 期生: 永田・松崎, 3 期生: 須藤)。本稿では, 2021 年度末での「社会デザイン」領域の終了に際して, 自然言語処理に関わる研究を実施した本稿共著者の研究について簡単に紹介するとともに「さきがけ」での活動を通じて得られた経験や感想を述べる。 ## 2 漸進的な言語理解・知識獲得に基づく音声対話システム(吉野) 私がさきがけで取り組んだ課題は, 音声対話システムにおいて漸進的な言語理解や知識獲得を可能とする枠組みの構築である。「漸進的 (incremental)」というのは,対話を進めるにつれて対話内容から知識を抽出していくということの他に, 発話の処理を時系列に沿って漸進的に行うということを意図した.私は元々音声の研究室で音声対話システムをテーマに研究をしていたことから,言語コミュニケーション,特に話し言葉における漸進処理・逐次処理に興味を持っていた. 内省が効いた書き言葉と比較すると,人間の話し言葉は語順などが容易に入れ替わる.また,対話の進行に応じて話す内容も刻々と変化していく。こうしたリアルタイムコミュニケーションを言語理解や知識活用の側面から理解しようとするのがこの研究課題の大目標で  あった.結論から言えば,言語コミユニケーションのリアルタイム処理を説明する理論を構築できたとまでは言えないが,いくつか興味深いモデルが構築できた。例えば,実際に発話内容の理解(フレームへの書き起こし)を行うタスクを漸進的に行った場合,発話を全て聞かずとも理解が可能なケースが多いことが示された (Coman et al. 2019). 対話全体の漸進的処理においても,論証のような対話ドメインでは発話から得られた知識を随時処理しつつ,得られた知識に沿って対話戦略を最適化することが有効であることが示された (勝見他 2020). 言語処理の目標のひとつである言語理解を実現する根幹は,与えられたテキスト列をどのように機械で処理できる形に変換するか,それを機械が持つ知識ベースに対していかに接続して利用可能にするかにある。述語を中心とした事態・イベントの表現とこれら同士の関係によって漸進的な言語理解と知識獲得を実現できる可能性を示すことができた (田中他 2021) のは,研究的には一歩前進であったと言える。今後は, こうした理解の枠組みをロボットなどの実世界応用 (湯口他 2022)へと広げていきたいと考えている. 私がさきがけに応募したきっかけは,まず第一に自身が研究で必要とするアノテーションを行ってくれるアノテータを雇用したかったためであった. 現代言語処理はその多くをアノテー ションされたコーパスに依拠しており,アノテーションそのものや基準を作成する上でアノテー 夕を訓練することが必要である。さきがけの大きな予算でアノテータを雇用できたことは私の中で非常に大きな経験であったし,また良いアノテータの応募に巡り合えたことも幸運であった. 一方で, 言語処理という研究分野のアノテーションへの依拠度合いを考えたときに, どう継続的にアノテータを養成・雇用していくかについては,もう少し重視されてもよいのではないかということを考えるきっかけともなった。 また他でもよく言われていることではあるが,さきがけは異分野の研究者との交流という意味でも非常に有意義な機会であった,領域会議は,自身の技術がどういうところに使えるのか, あるいは異分野の技術が自身の研究をどう強化できるかということを検討する機会でもある。 さきがけの同期は自分と同時期に若手研究者から PIになろうとする,あるいは最近 PIになった研究者が多く,そうした研究者キャリア上の同世代と深い交流を行うことができるというのも意義深い,加えて,私の場合はさきがけの予算で海外へ留学する機会にも恵まれ,その中で世界中の様々な研究者と議論を行い自身の研究観を更新することができた.先ほどの大きな予算を使うということも含めて, こうした機会は採択された限られた研究者に許されるものであるので,言語処理若手研究者の方々にも積極的に挑戦して貪いたいし,分野としてそうした挑戦を支援する枠組みが構築できればよいと考えている。私自身応募時は助教になりたてで,実は同時期に新設された ACT-Iに応募するつもりで説明会に行った. その際, 同じ会場で行われていた「社会デザイン」さきがけの説明を聞いて, やりたいことへの親和性がこちらの方が高そうなことから,自分には少し早いかもと思いつつ応募を決めた。チャンスはどのように転がってくるかわからないものなので,チャンスが来た時に迷わず飛び込む勇気の後押しと,勇気の 裏付けとなる準備を分野としてサポートしていきたい. ## 3 様々な形式のデータを言語で柔軟に記述する汎用的技術の開発(高村) さきがけに応募したのはこれが初めてではなかった,恥ずかしい話だが,全く異なるテーマで何度か応募し,いずれも不採択となっていた。過去の自分の応募書類を見てみると, これは間違いなく不採択だろう,という感じたっった。課題の規模感がまず駄目であった. 国際会議論文 1 本や 2 本分の研究計画では通るはずもない. また, 募集要項で記述されている社会的背景にどう関連し,どう役立つのか,またそのアプローチは期待されている種類のものか,といった点がわかりやすく書かれていない。そしてそれが自然な形で学術的な意義も含んでいるということが説明されていない. 平成 28 年に始まった, さきがけ社会デザイン領域は, 自分としては最後の挑戦になるかなと思いつつ,気合いを入れて応募に臨んだ。自分が何をやりたいかを整理しつつ,募集要項を読み込んだ。募集要項に書かれている社会デザイン領域の概要 (JST 戦略研究推進部 2016) は, 以下の段落より始まる: “情報技術の急速な進展により, 莫大な数のセンサやデバイスがインターネットにつながるようになってきました,また,医療・健康,材料・物性,都市インフラや地球環境など,あらゆる場所で多種多様のビッグデータが蓄積され, 応用されてきています。さらに,自然言語処理やディープラーニング等を駆使した人工知能技術にも大きな関心が集まり,これらの各分野における活用が急速に進みつつあります。” これは,自分のやりたいこととストレートにつながる公募であり,この上なく大きなチャンスであった.実際,私の応募課題のタイトルは「様々な形式のデータを言語で柔軟に記述する汎用的技術の開発」であり,そのストーリーは「センサ技術などの発達により様々なデータが大量に存在するものの,それを有効活用できていないので,深層学習などによりデー夕を言語で記述することで活用を促す」というもので, 節操がないくらい募集要項に一致している.決して募集要項に合わせて研究計画を立てたわけではないが,自分のやりたいことがいかに募集要項の内容に一致しているかを,できる限りしっかり表現するよう心がけた. このようなストー リーを描いた背景には,自然言語処理における大きな流れもある.自分が自然言語処理分野に足を踏み入れてから, この分野におけるいろいろな研究課題において機械学習手法が支配的になっていくのを見つつ,もうしばらくしたら言語生成の番だろうなと感じていた. それと同時に, 機械学習による言語生成に大きな可能性と興味を感じていた. そうして書き上げた応募書類は今読み返すとまだまだ改善の余地があるものの,ありがたいことに採用していただけた,さきがけ研究が始まり, 同じ領域の研究者のプレゼンを初めて聞いたときは,かなりの衝撃だった,内容が高度であり,かつ面白く,聞いていると目が讶えて くるのであった。これを独り占めするのは良くなかろうと,親しい友人に次期公募での応募を強く勧めた記憶がある。 自分の研究はといえば,まずはデー夕の入手からであった,入力となるデータと,出力となるテキストがぺアになっている必要があり, 入手はそれほど簡単ではなかった。もちろん, 研究用に公開されているデータもあるが, 公開データのみでの研究だけでなく, 実データと向き合う必要があると考えていた. データを持つ企業の協力や, さきがけの予算により, 気象 (村上他 2017), 金融 (Aoki et al. 2018), スポーツ (Iso et al. 2019) など様々なドメインのデータを入手し, 研究を進めることができた. 特に,イングランドのプレミアリーグのデータを購入し,念願のサッカーのテキスト速報を生成する研究を進めることができた (Taniguchi et al. 2019). さきがけでの研究により,その後のプロジェクトにもつながる土台や人脈ができ,研究予算以上の大きなものを頂いたような気がする。 ただそれ以上に, さきがけは一言でいうと「楽しい」ものであった. 同分野および異分野の研究者や, アドバイザーらと深い議論や情報交換ができ,いろいろな視点から問題を眺めることができた。同じ領域の研究者らは, 互いに同級生やチームメイトのような感じで, 学生に戻ったかのようであった。 1 年に二度ほど開催される領域会議がいわば進捗報告会であり,研究総括とアドバイザー陣の前で全員が発表をする。領域会議前は,さきがけ研究者同士は互いに「領域会議の準備できていない。やばい」などと言い合うのであるが, そんなことを言っている研究者も研究成果をしっかり揃えて素晴らしいプレゼンをしたりする. そんなところも,学生時代のようであった。社会デザイン領域の最後の領域会議には卒業する学生の気分になり, 心の中には「蛍の光」が流れ, 気持ちだけは黒橋先生を胴上げした。学生気分をもう一度味わいたい研究者の方々には,さきがけに挑戦することを是非とも勧めたい.同時に,JSTには,さきがけのこのような雾囲気を維持してほしいと願う。 ## 4 新しい学びの形態を実現するための問題自動解説技術の開発(永田) 本研究テーマに至るまでには長い経緯があった。2000 年頃に文法誤り検出/訂正の研究を始めた筆者であるが,システム出力を英語の先生に見せるたびに「誤り訂正ができるのは良いのですが,誤りの理由を説明することはできませんか?」という趣旨のコメントをいたたいた.検出 /訂正情報だけでは学習支援としては不足ということである。 それ以来, よりリッチなフィー ドバックを実現することを常々考えてきたが,うまくいかない時期が 15 年近くも続いた. そんなある日, 本稿著者の一人である高村氏と雑談することがあった. 氏曰く「参加しているとどんどん目が讶えてくる凄い会議がある」と。それが, さきがけの領域会議であった。熱っぽく語る同氏の話を聞いていると,だんだん私もその気になり,その場でさきがけに応募することを決心した。テーマは,もちろん「よりリッチなフィードバックの実現」である。思わぬ ところから転機が訪れたわけである。 蓋を開けてみると,はたして凄かった。文面では伝わりにくいが,領域内の研究者もアドバイザの先生方も何から何まで圧倒的であった。テーマは多岐に渡るが(例えば,子供アンドロイド, 脳中の言語情報の解読など), どの研究者も毎回の領域会議で, 素人目に見ても凄い成果をバシバシ報告するのである。 そして皆さん, 非常に研究活動を楽しんでおられるようであった (とにかく熱い),それを聞いているアドバイザの先生方も普段の所属や業務を忘れて純粋に議論を楽しんでおられるようであった. そんな中, (若干のプレッシャーを感じつつも), 約 4 年間に渡る, 私のさきがけ研究生活がスタートした。まず取り掛かったのは, 研究の基盤となる解説文データの作成である。前例のないタスクであるため,かなりの困難を伴った.英語の専門家と一緒に解説文を作成するということを何度も行った.期間中に少なくとも 5,000 の解説文を読み,分析を行った. 最終的に, 3,000 文書以上から成るデータセットが完成した,学習支援として有意義な解説とすると共に,現在の技術で生成が可能なものとなるようバランスをとる作業であった. データ構築をしているようで,実は,夕スクの設計を行っていたように思う。その成果の一部は言語資源協会より公開中である ${ }^{3}$. データ作成と並行して様々な手法の考案に取り組んた。手始めに検索問題として問題を解くことを試みた.領域会議および関連する研究者との交流から生まれたアイデアである.深層学習を利用して,訓練データを曖昧に検索することで,解説対象に類似した英文に付与された解説文を出力するというものである.シンプルな手法であるが,思いのほかうまくいった.初めて生成結果を確認して「機械でもこんなに人間らしい解説が出せるのか」と感動したことをよく覚えている(訓練データ中の解説文をそのまま出力するので自然なのは当たり前であるが).例えば, “In the restaurant serve good food." という英文に対して,「この名詞句は, 文の主語です. 主語は通常前置詞を伴いません.」という解説文が生成された. 従来の構文解析を利用する方法では, 前置詞 + 主語という構造をどのように扱ったらよいかは自明でなく解説の生成も難しい. 小さくも重要な一歩であったと自負している。ここまでの成果を新しい夕スクの提案として発表した (Nagata 2019). その後も, 研究期間を通じて貴重な体験をすることができた. ちょっとした tips から, 他分野の最新動向まで,様々な情報を得ることができた。また,その合間を縫って,今後の言語処理はどうあるべきかといった壮大なテーマまで議論する機会もあった(領域会議は合宿形式であり時間を気にせず議論を楽しめる)。直接は関係しないような話題も,自分のテーマを俯瞰して見直すということに繋がったように思う,毎回,大いに脳が活性化され,次の領域会議を楽しみにしつつ研究に打ち込むことができた。その甲斐あり,解説文生成に関する様々な知見を ^{3}$ https://www.gsk.or.jp/catalog/gsk2019-a/およびhttps://www.gsk.or.jp/catalog/gsk2019-b/で公開中. } まとめて発表 (Hanawa et al. 2021) することもできた。また, 得られた成果を活用した国際シェアードタスク "GenChal 2022: Feedback Comment Generation for Writing Learning4"も開催中である.更に,実用化に向けて,低コストで高信頼度な解説文生成の実現方法の確立 (Nagata et al. 2022)にも取り組んでいるところである. こうして改めて振り返ってみると,気軽な雑談にしろ,フォーマルな進渉報告会にしろ,素晴らしい場があったことが大きかったように思う.私の立場からは想像することしかできないが,豊かな場を提供するために,総括をはじめとするアドバイザの先生方,JST の方々には多大な苦労があったのではないかと思う。感謝の限りである。さきがけの豊かな場から生まれた一連の成果が,解説文生成の研究に取り組む人のための新たな場となれば幸いである. ## 5 読解に困難を抱える生徒を支援するテキスト表示技術(松崎) 筆者はこれまで主に構文・意味解析に関する研究を行ってきた。他の言語処理課題と同様に,構文・意味解析研究でも,対象となる文集合に対して「正解」を与えること,すなわち「正しい」構文・意味構造を措定することが研究の開始点となる.この「正しさ」には様々な議論の余地があるものの, 少なくとも, 大まかには合意可能な構文・意味構造の記述レベルが存在すると考えなければ,言語処理研究どころか言語を基礎とする社会生活に大きな支障が生じる. ところで, 2016 年度から筆者が共同研究者として参画した科研費プロジェクト「テーラーメー ド教育開発を支援するための学習者の読解認知特性診断テストの開発」(研究代表者:国立情報学研究所・新井紀子教授) では, 教科書や新聞から採った数文程度の問題を用いた読解テスト (通称:Reading Skill Test, RST)を,中高生を中心とする数十万人を対象に実施し,一般に想定されている(と思われる)読解能力を下回る生徒が多数存在することを明らかにした。この過程で,筆者は多数の問題とそのテスト結果を目の当たりにし,上述の「構文・意味に関する合意がとれないことによる社会生活における支障」が現実に存在することを確信した. そこで,さきがけ「社会デザイン」では,RST をテストベッドとして,言語処理を応用した読解支援技術を開発することを研究課題として提案した.中心となるアイデアは,インデント・分かち書き・太字化などのテキスト修飾を通じて, 文章の構造に関する「ヒント」を与え, これにより読解を支援することであった. テキスト修飾によって文や文章には構造が存在するということを可視化し, この明示化された構造にもとづいて読解する段階, いわば補助輪つきの読解を経由して, 徐々に通常のべタ打ちのテキストも正確に読めるようになるという想定である. 研究の第一段階は, 様々な能力レベルにある児童生徒にとって, どのようなテキスト修飾が有効かを調査することだった。そこでまず,最も有効だろうと思われるテキスト修飾の仕様を  定め, テキスト修飾を付加した場合・しない場合の読解問題に対するテスト成績の差を調べた. 2 つの自治体の教育委員会と協力し, 延べ数千人の小中学生を対象とした実験を行った結果, 予想とは大きく異なり,テスト成績に顕著な差が現れる問題はかなり少数であることが分かった. 正直なところ困ったことになったと思った。いま振り返れば,計算機プログラムに対する構文ハイライトや,箇条書きを基本とする研究発表スライドからの連想で,テキストの表示形態と構文・意味構造が一致していることの認知的効果は自明のものと考えていた。いくつかの実験実施校でテストの様子を見学させてもらい,テスト後の生徒にそれとなく「普通と違う形で文章が表示されていたのに気づいたか」という意味の質問をしてみた.これに対する「まったく気づかなかった (ていうか何のこと?)」という反応は衝撃であった. 特定のテキスト修飾に対する反応に統計的に有意な差があるか否か,ではなく,読解教育上の意味がある方策を見出すことが興味の中心であったため,その後は,テキスト修飾の効果についての調査から,より大きく網を広げる方向に研究方針を転換し,「なぜ読めないのか」「どうすれば読めるのか」「現在の教科書テキストはこれでよいのか」に関しいくつかの調査研究を行った。結果として,テキストに振り仮名を付与することに読解への即時的な効果はないこと (Arai et al. 2018), 現在の小中の理科教科書のテキスト構成は, 読解能力の伸長と比較した場合に複雑すぎる疑いのあること (Arai et al. 2020), 語彙知識と読解テスト成績の関係 (相原他 2021)など,いくつかの知見が得られた. 末筆となるが,領域会議での様々な背景を持つ研究者の意見は大きな刺激となった。また, ビジネスと研究あるいは科学行政と研究といった観点からの領域アドバイザー・関係者による講演は非常に有益であった. コロナ禍により筆者の研究課題も大きな影響を受けたが,その反面, 地理・研究領域・研究を取り巻く立場などの相違は通信技術によってかなりの程度まで乗り越えてコミュニケーション可能であることが明らかになったように思う。これを奇貨として 「さきがけ」をはじめ異分野の協働が一層発展することを願う. ## 6 次世代言語生成のための生成文評価基盤(須藤) 須藤の研究課題は言語生成の評価の仕組みを再考し, 深層学習によって大きく変化・発展した言語生成を正しく評価するためには何が必要か, を問うものであった. 本研究の問題意識は,既発表 (須藤他 2021b; Sudoh et al. 2021) で述べている通り, 表層的には小さな差異が伝達内容に深刻な変化をもたらすという点にある。機械翻訳を始めとする言語生成の技術水準は大きく向上してきたのだから,その評価もより厳しくすべき時代が来ているのではないだろうか? 5 そのような厳しい評価を人手評価と自動評価の両面から行うことを目標に,評価基準の策定,人 $ ) でも論じている. } 手評価データセットの作成・公開, 自動評価手法の開発, を中心に 3 年半の研究を実施した. 人手評価に関しては苦難の連続で,評価者間の摇孔との戦いであり,様々な言語生成タスクへの取り組みを進めるつもりだったところが機械翻訳の評価に大部分の力を注ぎ込むこととなった. 結果としては既発表で示したような形となり,ことばが解釈できたとはどういうことか,またある生成文が参照文と同じ内容を伝達しているのか,誤解を招くような誤りを含んでいるのか, という判断を下すということがいかに難しいことであるかを強く印象付けることとなった 6.同義性判定という意味では 2018 年 10 月の研究開始早々に BERT が公開され, 計画時の技術イメージが大きく変化することになったのも印象深い。一方の自動評価はそうした事前学習モデルの活用という流れに乗り,XLMを利用して原言語入力を活用する手法を考案し, 2021 年の WMT では更に人工負例によるデータ拡張も加えトップグループに入る結果を残した (Takahashi et al. 2021). また, ことばの意味を考える上で近年不可欠となっている単語の分散表現に関する演算の研究に取り組み (石橋他 2022), 様々な興味深い結果が得られている. 本研究の着想は現職への異動前からあり,異動後に本格的に取り組むにあたり大規模な人手評価の実施のための予算を求めてさきがけに応募した。一度の不採択を経て採択され, 開始 2 ケ月後の 2018 年 12 月まではこの予算で自分の研究を進めてやろう,ということのみが頭にあったのだが,それがいかに近視眼的なものであったかを知ることになる。領域会議は領域総括とアドバイザーの先生方, 領域研究者が集まって行う研究集会で, 各研究者の進捗報告もそれぞれ刺激的であるのだが, 何より休㦝時間の雑談, 懇親会やその後の会話や議論が非常に有意義で,標榜されている通りあたかも一つの研究室で集まっているイベントであるかのように思えた. そういった意味で後半の 2 年間はオンラインでの対応が多くなり, そうした体験の多くが失われてしまったことが非常に悔やまれる。しかしそうした中でもオンラインの特性を活かして研究のブレインストーミングのための会合や月例の昼食会をする等,多くの交流の機会を持つことができた.「社会デザイン」領域は今回共著の 5 名が自然言語に関す研究に携わっていたことで(ときに黒橋先生を巻き添え?にして)非常に濃密な議論をする機会を何度か持つことができたことも,他分野の研究者との交流と同様に貴重な経験であった. 3 年半の研究期間の終了, そして領域の活動終了を迎え,いろいろ当初考えていなかったことにも話を拡げながらとても充実した時間を過ごせたことに感謝している.今後も評価に関する研究は様々な形で継続するとともに, NLP2021 のワークショップ, NLP2022 のテーマセッションで拡がった研究の輪をより大きな流れに結びつけたい.  ## 7 おわりに さきがけ「社会デザイン」領域では合計 32 件の研究課題が採択され,自然言語処理分野はそのうち 5 件と多数であったが,それぞれ異なる視点で自然言語処理を基にした新しい情報基盤技術の創出を目指した研究を実施した. 本稿では本研究領域の活動の一端を示すべく, 各研究者の研究内容を経験や感想とともに紹介した.本稿が今後さきがけへの応募を目指す early career 研究者諸氏の参考となれば幸いである. ## 謝 辞 JST さきがけ JPMJPR165B, JPMJPR1655, JPMJPR1758, JPMJPR175A, JPMJPR1856 により本稿に記載の各研究の支援を受けた。領域総括の黒橋禎夫先生, 領域アドバイザーの先生方, JST 領域担当など関係諸氏に感謝したい. ## 参考文献 相原理子, 石川香, 藤田早苗, 新井紀子, 松崎拓也 (2021). コーパス統計量と読解能力値に基づいた単語の既知率の予測. 言語処理学会第 27 回年次大会発表論文集, pp. 718-722. [R. Aihara et al. (2021). Kopasu Tokeiryo to Dokkai Noryokuchi ni Motozuita Tango no Kichiritsu no Yosoku. Proceedings of the 27th Annual Meeting for the Association for Natural Language Processing, pp. 718-722.]. Aoki, T., Miyazawa, A., Ishigaki, T., Goshima, K., Aoki, K., Kobayashi, I., Takamura, H., and Miyao, Y. (2018). "Generating Market Comments Referring to External Resources." In Proceedings of International Conference on Natural Language Generation (INLG) 2018, pp. 135-139. Arai, T., Bunji, K., Todo, N., Arai, N. H., and Matsuzaki, T. (2018). "Evaluating Reading Support Systems through Reading Skill Test." In Proceedings of the 40th Annual Meeting of the Cognitive Science Society, CogSci 2018, Madison, WI, USA, July 25-28, 2018, pp. 100-105. Arai, T., Matsuzaki, T., and Iwane, H. (2020). "Appraising Science Textbooks through Quantitative Text Analysis and Psychometric Results of Students' Reading Skills." In Proceedings of the 42th Annual Meeting of the Cognitive Science Society-Developing a Mind: Learning in Humans, Animals, and Machines, CogSci 2020, virtual, July 29-August 1, 2020, pp. 3240-3246. Coman, A. C., Yoshino, K., Murase, Y., Nakamura, S., and Riccardi, G. (2019). "An Incremental Turn-Taking Model For Task-Oriented Dialog Systems." In Proceedings of the 20th Annual Conference of the International Speech Communication Association (INTERSPEECH). Hanawa, K., Nagata, R., and Inui, K. (2021). "Exploring Methods for Generating Feedback Comments for Writing Learning." In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 9719-9730, Online and Punta Cana, Dominican Republic. Association for Computational Linguistics. 石橋陽一, 横井祥, 須藤克仁, 中村哲 (2022). 線型部分空間に基づく学習済み単語埋込空間上の集合演算. 言語処理学会第 28 回年次大会発表論文集, pp. 915-920. [Y. Ishibashi et al. (2022). Senkei Bubunkukan ni Motozuku Gakushuzumi Tango Umekomi Kukanjyo no Shugo Enzan. Proceedings of the 28th Annual Meeting for the Association for Natural Language Processing, pp. 915-920.]. Iso, H., Uehara, Y., Ishigaki, T., Noji, H., Aramaki, E., Kobayashi, I., Miyao, Y., Okazaki, N., and Takamura, H. (2019). "Learning to Select, Track, and Generate for Data-to-Text." In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 2102-2113. Association for Computational Linguistics. JST 戦略研究推進部 (2016). 新しい社会システムデザインに向けた情報基盤技術の創出. 戦略的創造研究推進事業 JST AIP ネットワークラボ (ACT-I・さきがけ$\cdot$CREST) 研究提案募集のご案内 : 第 2 期募集要項, 5.2.1 節. [JST PRESTO (2016). [Social Design] Fundamental Information Technologies toward Innovative Social System Design. JST AIP Network Lab. (ACT-I, Sakigake, CREST) Kenkyu Teian Boshu no Goannai: Dai2ki Boshu Yoko, Section 5.2.1.]. 勝見久央, 吉野幸一郎, 平岡拓也, 秋元康佑, 山本風人, 本浦庄太, 定政邦彦, 中村哲 (2020). 論証対話システムにおける情報探索対話戦略の最適化. 人工知能学会論文誌, 35 (1). pp. DSI-D_112, [H. Katsumi et al. (2020). Optimization of Information-Seeking Dialogue Strategy for Argumentation-Based Dialogue System. Transactions of the Japanese Society for Artificial Intelligence, 35(1), pp. DSI-D_1-12.]. 村上聡一朗, 笹野遼平, 高村大也, 奥村学 (2017). 数値予報マップからの天気予報コメントの自動生成. 言語処理学会第 23 回年次大会発表論文集, pp. 1121-1124. [S. Murakami et al. (2017). Suchi Yoho Mappu kara no Tenki Yoho Komento no Jido Seisei. Proceedings of the 23rd Annual Meeting for the Association for Natural Language Processing, pp. 1121-1124.]. Nagata, R. (2019). "Toward a Task of Feedback Comment Generation for Writing Learning." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP), pp. 3206-3215, Hong Kong, China. Association for Computational Linguistics. Nagata, R., Kimura, M., and Hanawa, K. (2022). "Exploring the Capacity of a Large-scale Masked Language Model to Recognize Grammatical Errors." In Findings of the 60th Annual Meeting of the Association for Computational Linguistics (to appear). Association for Computational Linguistics. Sudoh, K., Takahashi, K., and Nakamura, S. (2021). "Is This Translation Error Critical?: Classification-Based Human and Automatic Machine Translation Evaluation Focusing on Critical Errors." In Proceedings of the Workshop on Human Evaluation of NLP Systems (HumEval), pp. 46-55, Online. Association for Computational Linguistics. 須藤克仁, 小町守, 梶原智之 (2021a). NLP2021 ワークショップ:文章の評価と品質推定〜人 間・機械の「作文」の巧拙をどう見極めるか?~. 自然言語処理, 28 (3), pp. 895-900. [K. Sudoh et al. (2021a). NLP2021 Workshop: Evaluation and Quality Estimation of Text- How Do We Judge Human- and Machine-generated Text Good or Bad? Journal of Natural Language Processing, 28(3), pp. 895-900.]. 須藤克仁, 高橋洸丞, 中村哲 (2021b). 深刻な誤訳の識別に向けた分類型翻訳評価データセット の構築. 言語処理学会第 27 回年次大会発表論文集, pp. 1350-1355. [K. Sudoh et al. (2021b). Shinkoku na Goyaku no Shikibetsu ni Muketa Bunruigata Honyaku Hyoka Detasetto no Kochiku. Proceedings of the 27th Annual Meeting for the Association for Natural Language Processing, pp. 1350-1355.]. Takahashi, K., Ishibashi, Y., Sudoh, K., and Nakamura, S. (2021). "Multilingual Machine Translation Evaluation Metrics Fine-tuned on Pseudo-Negative Examples for WMT 2021 Metrics Task." In Proceedings of the 6th Conference on Machine Translation, pp. 1049-1052, Online. Association for Computational Linguistics. 田中翔平, 吉野幸一郎, 須藤克仁, 中村哲 (2021). 雑談対話応答における連続する事態の一貫性と対話継続性の関係. 自然言語処理, 28 (1), pp. 26-59. [S. Tanaka et al. (2021). Relationship Between Coherence of Sequential Events and Dialogue Continuity in Conversational Response. Journal of Natural Language Processing, 28(1), pp. 26-59.]. Taniguchi, Y., Feng, Y., Takamura, H., and Okumura, M. (2019). "Generating Live Soccer-Match Commentary from Play Data." In Proceedings of the 33rd AAAI Conference on Artificial Intelligence, pp. 7096-7103. 湯口彰重, 河野誠也, 石井カルロス寿憲, 吉野幸一郎, 川西康友, 中村泰, 港隆史, 斉藤康己,美濃導彦 (2022). ぶつくさ君:自身の外界認識と内部状態を言語化するロボット.日本ロボット学会誌レター(採録決定). [A. Yuguchi et al. (2022). Butsukusa-kun: Jishin no Gaikai Ninshiki to Naibu Jyotai wo Gengoka suru Robotto. Journal of the Robotics Society of Japan, Accepted as Letter.]. ## 略歴 吉野幸一郎:2009 年慶應義塾大学環境情報学部卒業, 2011 年京都大学大学院情報学研究科修士課程修了, 2014 年同博士後期課程修了. 京都大学博士(情報学). 日本学術振興会特別研究員 (PD), 奈良先端科学技術大学院大学情報科学研究科助教等を経て, 2020 年より理化学研究所ロボティクスプロジェクト (現ガーディアンロボットプロジェクト;GRP)知識獲得・対話チームチー ムリーダー.この間, 2016 年から 2020 年にかけて科学技術振興機構さきがけ研究員. 2019 年から 2020 年にかけてハインリッヒハイネ大学客員研究員.音声言語処理および自然言語処理, 特に音声対話システム・ロボット対話システムに関する研究に従事. 言語処理学会, 情報処理学会, 人工知能学会, 日本ロボット学会, IEEE, SIGDIAL, ACL 各会員. 高村大也:1997 年東京大学工学部計数工学科卒業. 2000 年同大大学院工学系研究科計数工学専攻修了(1999 年はオーストリアウィーン工科大学にて研究). 2003 年奈良先端科学技術大学院大学情報科学研究科博士課程修了. 博士 (工学).2003 年から 2010 年まで東京工業大学精密工学研究所助教. 2006 年にはイリノイ大学にて客員研究員. 2010 年から 2016 年まで同准教授. 2017 年から 2021 年 3 月まで同教授. 2017 年から産業技術総合研究所人工知能センター知識情報研究チーム研究チーム長. 2016 年から 2020 年にかけて科学技術振興機構さきがけ研究員を兼務. 永田亮:1999 年明治大学理工学部卒業, 2005 年三重大学大学院博士後期課程修了. 兵庫教育大学助手, 甲南大学知能情報学部講師を経て, 2012 年より甲南大学知能情報学部准教授. 2016 年より理化学研究所革新知能統合研究センター客員研究員, 2017 年より科学技術振興機構さきがけ研究者 (2021 年まで)を兼務. 言語のモデル化, 文書の自動添削, 解説文の自動生成などの研究に従事. 電子情報通信学会, 言語処理学会, ACL 各会員. 松崎拓也:2002 年東京大学工学部システム創成学科卒業. 2007 年同大大学院情報理工学系研究科にて博士号 (情報理工学) 取得. 同大学助教, 国立情報学研究所特任准教授, 名古屋大学准教授, 東京理科大学理学部准教授を経て, 2020 年より東京理科大学理学部教授. 言語処理学会, 人工知能学会, 情報処理学会各会員. 須藤克仁:2000 年京都大学工学部卒業, 2002 年京都大学大学院情報学研究科修士課程修了, 同年 NTT 入社. 2015 年京都大学博士 (情報学)。2017 年より奈良先端科学技術大学院大学准教授, 現在に至る. 2018 年より理化学研究所革新知能統合研究センター客員研究員を兼務。機械翻訳を中心とした自然言 語処理, 音声言語処理の研究に従事. 言語処理学会, 情報処理学会, 日本音響学会, 人工知能学会, ACL, ISCA 各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 第 16 回 NINJAL フォーラム「ここまで進んだ!ここまで分 かった! 多様な言語資源に基づく日本語研究」 岩崎拓也 ## 1 はじめに 現在, 国立大学や国立の研究所は 6 年ごとに計画を立てて実行し,それを評価してもらうという形式で運営を行っている。国立国語研究所(以下,国語研)も同様であり,2021年度に第 3 期の最後の年を迎える。この第 3 期では,6つのプロジェクトを立て,さまざまなコーパスを構築することで日本語,日本語教育,危機言語・方言の研究にたいして,一層の厳密性,検証可能性をすすめるための調査・研究を行ってきた。今回の NINJAL フォーラムは,第 3 期の 6 つのプロジェクトに加えて,コーパス開発センターの成果を報告するためにオンライン形式で開催された。以下では,本フォーラムの概要について報告する. ## 2 フォーラムの概要 今回の NINJAL フォーラムは 7 つの講演と 15 件のポスター発表によって構成されていた。講演とポスター発表のいずれもZoom 上で行われた. まず, 最初の講演は,理論・対照研究領域の窪薗晴夫氏と松本曜氏による「対照言語学の観点から見た日本語のプロソディーと動詞意味構造」という題目での講演であった.この講演は,前半と後半に分かれており, 前半が日本語のアクセントを英語と対照して分析・考察したもの,後半は動詞の意味構造について考察したものであった。 「強さ(強弱)アクセント」である英語における「リズム規則」と呼ばれる現象と酷似した現象が「高さ(高低)アクセント」である日本語の甑島(こしきじま)方言においても観察されること(主アクセント消去現象)を報告するものであった. これら 2 つの現象の間には, (a)別の語句が後続する場合に起こる(=文末では起こらない),(b) 前の語の主アクセントが消える (=後ろの語が勝つ), 前の語に副次的アクセント(英語では第 2 強勢, 日本語では副次的高音調)が必要である,(d) 発話速度が遅くなると起こりにくくなるという 4 つの共通点があることを報告した。 後半では, 国語研の対照言語学プロジェクトの動詞意味構造班が行ってきた通言語的なビデ  才実験に基づく移動表現の研究の成果の一部が報告された. 移動表現の類型論では, 移動の様態と経路が単文に統合されるさいに,経路が文のどの位置で表現されるか(主動詞かそれ以外か)という観点から分析が行われてきた。そのなかで, 様態と経路が常に短文で表されるのか,経路が主動詞とそれ以外の両方で表される場合どう扱うべきかといった疑問が存在した。これらの疑問にたいして,今回の調査の結果,言語によって様態と経路が頻繁に単文に統合される言語と頻繁には行わない言語もあること,経路表示に主要部を用いるかそれ以外を用いるかは相補的ではないことが明らかになったという報告が行われた. 2 つ目の講演は, 同じく理論・対照研究領域のプラシャント・パルデシ氏と名古屋大学の長崎郁氏による「統語・意味解析コーパス (NPCMJ) から見えてきたこと〜日本語テキストにおける主語省略文と受身文の使用〜」であった。 この講演では, 第 3 期において開発したコーパス, 「NINJAL Parsed Corpus of Modern Japanese (NPCMJ $) 」$ の説明と, このコーパスを用いた分析から明らかになった一例を紹介した. NPCMJ は,統語解析情報付きコーパスであり,「現代日本語の書き言葉と話し言葉のテクストに対し文の統語・意味解析情報を付与し, 多様な日本語の機能語や句構造, 節の諸類型および複雑な構文を大量の言語データから検索・抽出」(NPCMJ ホームページの「NPCMJ とは」より引用)することができるコーパスである,青空文庫, 聖書, ブログ, 書籍, 辞書, 国会会議録, エッセイ, フィクション, 法律文, ニュース, ノンフィクション, 会話, テッドトーク, 教科書, ウィキペディアなどの多様なジャンルのテキストから,構文の種類や文法的な役割などといった統語・意味情報が付与されており,統語・意味情報を組み込んだ検索式による検索を行うことができる。今回の講演では,このNPCMJ を用いた研究例として,主語省略文,受身文にかんする研究結果が報告された。主語省略文においては書き言葉より話し言葉で出現する頻度が高いこと,翻訳テキストにおいては主語の省略が起こりにくいこと,受身文は話し言葉より書き言葉に多いことなどの実証的な結果が示された. 3 つ目の講演は, 言語変異研究領域の木部暢子氏と山田真寛氏による「消滅危機言語・方言を記録し,継承する」という講演である。講演では, 2010 年から始めた日本各地の言語・方言を記録し,継承するための活動と,「各地方言収集緊急調査」データ(文化庁が 1977〜1985 年に行った全国約 200 地点の方言談話データ)を合わせて作成された『日本語諸方言コーパス (COJADS)』の概要を紹介し, COJADS から明らかになった主語・目的語の標示の仕方の地域差について報告が行われた。また,地域言語コミュニティとの協働から「言語の継承保存」のために行っている実践研究についての紹介も行われた. 4 つ目の講演は, 言語変化研究領域の小木曽智信氏による「『日本語歴史コーパス』ができて分かったこと」であった. プロジェクトで構築した通時コーパス, 『日本語歴史コーパス』( $\mathrm{CHJ})$ についての紹介を行った. CHJには,上代(奈良時代以前)から明治・大正時代までの日本語のテキストデータが収録されており,総語数は約 1837 万語(記号類を除く)という壮大なコー パスである. CHJは,日本語の歴史を探る上で重要なコーパスと言っても過言ではないコーパスであると言える。実際,講演では,CHJを用いた研究数が増加していること,英語での研究論文や博士論文が目立つようになってきていることが述べられていた. 5 つ目の講演は, 音声言語研究領域の小磯花絵氏による「コーパスを通して日常のことばの特徵を探る」であった,国立国語研究所がこれまでに構築してきたコーパスのなかで,日常会話を対象としたものがないことを踏まえ,今回のプロジェクトでは日常場面で自発的に生じる会話約 200 時間を収録した大規模な日常会話コーパスの構築を行ったことを紹介した. この日常会話コーパスは『日本語日常会話コーパス』(Corpus of Everyday Japanese Conversation, CEJC) といい,会話数 577 , 延べ話者数 1,675 名という非常に大規模な会話コーパスである. 講演では,CEJCの紹介に加え,研究事例として,「です」が縮約されて「っす」の形になる事例と話者の性別や年齢といった属性や相手との関係性によって変化する事例, CEJCと『昭和話し言葉コーパス』を用いた話し言葉における終助詞「わ」の経年変化の調査, CEJC と書き言葉コーパス,学会講演のような独話中心のコーパスを用いた縮約形の使用実態の調査が紹介された。 6 つ目の講演は, 日本語教育研究領域の石黒圭氏による「日本語学習者による多義語の意味推測ストラテジー」である。日本語学習者の読解力は学習者自身が有する語彙力と関係があるが, 単に既知語数が多ければ本当に文章が読めるようになるのかという疑問があった。そこで, そもそも日本語学習者がどのように文章中の語の意味を理解しているのかを母語による翻訳をとおして可視化し, 未知語の意味推測や多義語の意味特定に用いられている学習者のストラテジーがどのようなものなのか,ということを明らかにするために調査を行った.対象となる多義語は和語多義動詞, 外来語多義語, 空間・量を表す語, 固有名詞であったが,この講演では,固有名詞の分析結果を中心に紹介した。調査結果としては,固有名詞の理解には,留学の経験が非常に大きな要因となっていること, 未知語の意味推測は日本語能力との相関はなく, 内容的手がかり(当該の未知語を含む文の意味を手がかりに考えること)の使い方が巧みであること, JFL(日本国外で学ぶ日本語学習者)は構造的手がかり(当該未知語の前後の文脈を手がかりに考える)ことが堅実であることを紹介した。また,推測上手な人は,複数の手がかりを組み合わせる傾向にあることと, 自分の理解を疑い, 再解釈をする傾向にあることを報告した. 最後の講演は, 音声言語研究領域の前川喜久雄氏による「リアルタイム MRI 動画を用いた調音音声学の再構築一ワ行子音の問題一」である. 21 世紀に入って実用化されたリアルタイム MRI 動画撮像技術は, 調音音声学において現時点の理想的な研究用データである. しかし, コストが高く誰もが気軽に利用できるののではないため, 日本語の主要な調音運動を網羅したリアルタイム MRI 動画データベースを構築し,無料で公開していることを紹介した。このデー 夕の解析結果から明らかにした事例の一つとして, 日本語のワ行子音の調音を取りあげた。講演では,ワ行子音以外にも日本語にかんする従来の調音音声学的記述の修正を要するものがあ ることを説明し,今後の研究の更なる発展についての方向性を示した. NINJAL フォーラムでは, 上述した 7 つ講演に加えて, 15 件のポスター発表が行われた. いずれのポスターも国語研の多種多様な研究の成果を示すものであり,一見の価値があった.紙幅の都合上全てを紹介することができないため,各ポスターの内容については,国立国語研究所のホームページ https://www.ninjal.ac.jp/event/public/forum/ninjalforum016/から確認してもらいたい. ## 3 おわりに 今回の NINJAL フォーラムでは, 国語研の第 3 期の基幹研究プロジェクト「多様な言語資源に基づく総合的日本語研究の開拓」において行われたさまざまなデータベースの構築の紹介と, それを用いた研究成果の報告が主なテーマであった。講演や発表はいずれもできるだけわかりやすい形にとどまっていたが, 専門家だけでなく日本語研究を目指す学部生や大学院生にも興味を持ってもらうための配慮であったためだと思われる. このフォーラムの終わりには, 2022 年 4 月から始まる第 4 期の統合テーマである「開かれた言語資源による日本語の実証的・応用的研究の共創(オープンデータ・オープンサイエンスに基づいた言語資源学の創成)」についての紹介と, 2023 年度より総合研究大学院大学に設置予定である大学院(博士後期課程)の説明会も併せて行われ, 今後の国語研による研究と教育活動の方向性が示された。 ## 参考文献 "CEJC." https://www2.ninjal.ac.jp/conversation/cejc-monitor.html. "CHJ." https://ccd.ninjal.ac.jp/chj/index.html. "COJADS." https://www2.ninjal.ac.jp/cojads/index.html. "rtMRIDB." https://rtmridb.ninjal.ac.jp/ja. "NPCMJ." https://npcmj.ninjal.ac.jp/. ## 略歴 岩崎拓也:2020 年一橋大学大学院言語社会研究科言語社会専攻修士課程博士 後期課程修了. 博士 (学術). 現在, 人間文化研究機構人間文化研究創発センター研究員 (人文知コミュニケーター), 国立国語研究所研究系特任助教 (併任)。専門は句読法などの表記論.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 第 13 回産業日本語研究会・シンポジウム報告 井佐原 均† ## 1 はじめに 筆者が世話人会代表を務める産業日本語研究会は,産業日本語に関する各界の専門家が研究交流を行う場を提供し,その研究・開発・普及を円滑に進めるため平成 21 年度に発足した。ここでは産業日本語を「産業・技術情報を人に理解しやすく,かつ,コンピュータ(機械)にも処理しやすく表現するための日本語」と定義した。機械翻訳をはじめとする言語処理技術を活用することを念頭において,明瞭な日本語文の作成と高品質な翻訳文の低コスト作成を目標に活動している。産業日本語研究会では産業日本語に関する研究成果や活動成果を発表・情報共有する場として,毎年, シンポジウムを一般公開形式で開催している。2010 年の第 1 回から 2019 年の第 10 回までは対面での開催であったが, コロナ禍により 2020 年の第 11 回は中止, 2021 年に第 12 回をオンラインにて開催した. 新型コロナウイルス感染症の拡大により, オンライン会議ツールや VR 技術等のデジタルツー ルの技術進歩が加速し, 遠隔での技術指導・遠隔学習が可能となってきている,企業では海外生産や国内における外国人労働者の雇用等, グローバル化が進んでいる中で,研修・技術指導など対面で行っていたコミュニケーションが,オンライン会議ツールや VR 技術等を用いたコミュニケーションへと切り替わって行くことが想定される. このような背景のもと, 産業日本語研究会では 2022 年 2 月 22 日に「グローバル化が進む中での産業日本語〜様々な日本語使用者間のコミュニケーション〜」と題して, 第 13 回産業日本語研究会・シンポジウムを開催した. シンポジウムは例年と同様,第 1 部:招待講演,第 2 部:ポスターセッション, 第 3 部:パネルディスカッションという構成である. 本稿では,このシンポジウムの概要を報告する,全容を紹介するため,個々の発表の紹介が概要となっている点,ご容赦いただきたい,講演者の方々の敬称は省略させていただいた。また,講演者の意図と異なった概要説明となっているところがあるかもしれないが,それは報告者(筆者)の責任である。なお,各講演やポスターの資料は,過去のシンポジウムのものとともに以下のページで公開しているので, ご参照されたい. https://www.tech-jpn.jp/resources/  ## 2 招待講演 招待講演では 3 名の講演者に登壇いただいた。それぞれの概要は以下のとおりである. 1. 日本語の「やさしさ」と「豊かさ」の緊張関係について(古田徹也, 東京大学, 放送大学)日本語は難しい言語なのかという問題提起から始まり, 日本語が他の言語とは異なる特徴をもつ言語であることを示した。カタカナ語をはじめとする業界用語を例示した.業界用語には負の側面があるとともにコミュニケーションにおいて正の側面もあることを示した。そこから「やさしい日本語」の必要性が見えてくる.災害時や非母語話者には必要であるし, 多様性のある社会での共通言語としての用途もある。 その一方で「やさしい日本語」が規範化されないように注意する必要がある。「難しい日本語」が必要な面もある。語彙の効率化だけを目指すのではなく, 自然言語には生ける文化遺産としての重要性もあることを認識すべきである. 言葉のやさしさを追求する方向性と, 言葉の豊かさを追求する方向性の間にはどうしても緊張関係が存在する。この緊張関係をどうにかして解くべき, ということではなくて,むしろ解くべきではないだろう。 2. 公用文をやさしくするために(岩田一成, 聖心女子大学) 難解な公用文の例をもとに,正確さと分かりやすさの関係を論じた. 公用文が難解なのは日本に限らない.行為要請系の公用文は配慮表現のために難解である場合がある.公用文が難解でなくなれば密口の問い合わせ対応が減るといったモチベーションもある.公用文のターゲットの言語能力を測ったうえで,分かりやすい文章を提示しなくてはならない. 実際の文章を示しつつ, どのような理由でどのように分かりにくくなっているかを解説した. 談話レベルの問題. 文章全体の構造, 分量の多さ, 間接的表現, 法律文の借用などがある。また,整理整頓がちゃんとできていないとか,箇条書きにすれば済むところをわざわざ文章にするなども問題である。公用文のジャンル(広義社会保障系, 情報提供系, 行為要請系) によって配慮が必要である,公用文がやさしくならない理由を解説し,やさしくするために必要な国や自治体の取り組みに触れた。文章の硬さを測定するための文名詞密度を提案している,実際の文章に適用して,有効性を実証しており,文章チェックサイトを作成した。 3. 外国人受け入れのための環境整備一コミュニケーションの観点から一(近藤彩, 昭和女子大学) 外国人材の採用とその職場の声を紹介し,コミュニケーションを再考する。研修事例の紹介と,リソースの紹介を行い,協働の職場づくりを提案する. 日本人や外国人の採用の双方においてコミュニケーション能力が重視されている。外国 人が日本語を使ってどのように働いているのか, そして環境整備のためにどのような支援や工夫が必要なのかを「Easy Japanese for Work」という番組のコンテンツを通して示した。それとともに異文化環境の職場の現実として, 日本人の側の配慮によって意思疎通がやりやすくなることを示した.当事者の意見を聞くことが大切である. このような問題意識のもと, 異文化衝突を解決するための教材を開発した. インタビューで事例を取り上げてそれを題材にして参加者(学習者)が協働で整理,討論して疑似体験をしながら問題解決方法を導き出し, 内省を行うケース学習を行う教材であり,研修の実例を示しながら紹介した。 ## 3 ポスターセッション ポスターセッションにおいては,ポスターなどの説明資料を参加者に事前に揭示した。ポスター毎に会議室を設け, チャットによる討論・質疑を行った。各ポスターのタイトル, 講演者,概要は以下のとおりである。最初の 3 件は産業日本語研究会の分科会活動の報告であり,各分科会の主査が報告を行った。 1. 産業日本語研究会・ライティング分科会活動(佐野洋, 東京外国語大学) 昨年度に資料としてまとめた「ビジネスマンのための書き方読本」の拡張を行っている。 書き手の意思決定過程からどのような言語表現が生み出されるのかということと,「母語」である日本語への気づきに力点を置いて拡張を進めている。 2. 産業日本語研究会・文書作成支援分科会セマンティックエディタについて(橋田浩一,東京大学) テキストで書ける任意の文章の内容を表現することができるグラフ文章を使ってテキスト文章を代替する,文章作成で用いるエデイ夕の紹介とグラフ文章がテキストよりも効率が良いことを実証により示した。 3. 産業日本語研究会 ・特許文書分科会活動(谷川英和, IRD 国際特許事務所) 「特許文書品質特性モデル」の報告として,その概要,それを用いた評価方法,評価目的・評価シチュエーション別の重要度, 各特性の事例について報告した。また, 現在作成中の「特許文書品質の教育用テキスト」についても報告した. 4. 特許ライティングマニュアル紹介(久々宇篤志, 日本特許情報機構) 分かりやすい特許明細書の作成を支援する特許ライティングマニュアルを紹介した.人に理解しやすく,コンピュータにとっても処理しやすい,具体的には翻訳しやすい文章がどういうものかを具体例を挙げて紹介したマニュアルである. 5. システム開発文書品質研究会 (ASDoQ) の活動紹介(栗田太郎,ソニー) 仕様書や設計書などシステム開発における文書あるいは利用者の読むマニュアルや取扱 説明書などの内容の検討や, それらの記述, レビュー, 参照, 活用, 品質等に関する研究, さらには開発現場における文書にまつわる課題に関する研究や情報交換を行っている. 6. 第 3 世代ニューラル翻訳技術と翻訳バンクの展開報告(隅田英一郎, 情報通信研究機構)現在のニューラル翻訳に至る機械翻訳技術の進展を解説した。ニューラル機械翻訳に必須となる対訳データを収集する枠組みとしての翻訳バンクは工学や医学といった分野から文化に至るまで幅広い対象へと拡張を続けている。 7. Japio 世界特許情報全文検索サービスおよび AI 翻訳サービスの紹介(佐藤仁思, 中川高広,日本特許情報機構) 日本特許情報機構 (Japio) が提供している検索サービスと翻訳サービスを紹介する。 AI 翻訳を海外特許出願の翻訳に使いたいというユーザの希望に沿って,テキスト入力翻訳に特化した新たな $\mathrm{AI}$ 翻訳システムを提供する。 ## 4 パネルディスカッション 筆者がモデレータを務め, 以下の 3 人のパネリストによる講演と討論を行った. 1. 読み書きの支援/診断技術と読み書き(乾健太郎,東北大学, 理化学研究所) ライティングの技術的な支援, 診断について紹介する,AIによる知的支援,知的な執筆の支援は $\mathrm{AI}$ 分野で今関心を集めている。機械翻訳は他言語への翻訳だが,間違った文から正しい文へ,下手な文からきれいな文への翻訳ができる。これによって書き手に示唆を与えることができる。さらに書き換えの理由を説明する研究も行っている。人間と機械が共同で執筆する(文の自動補完)も可能となろう。執筆への影響を評価することも必要である. 2.「母語である日本語」の再発見(森篤嗣,京都外国語大学) 人間が理解しやすく機械が処理しやすい日本語を学校教育でどのように扱っていくかという観点から,国語科における「人間が理解しやすい日本語への取り組み」を紹介した。 ヨーロッパでの複言語主義・多言語主義に対して, 日本の二重の単一言語主義を論じた.翻訳の実例の紹介から,日本語から日本語への書き換えを通しての「日本語の再発見」について述べた,技術の進展と人間の熟練ユーザ化によって,技術と日本語母語話者が成長できる. 3. 非流暢かつ自然に話すヒト, そして機械(定延利之, 京都大学) 実施中の流暢性に関するプロジェクトについて紹介した。母語話者の発話も基本は非流暢である(ただし規則性はある)という観点から実例を紹介した.実際の発話から非流暢な要素を消去し,流暢な発話になることを示した。非流暢性を発話に混ぜることによってコミュニカティブな発話になることを示した。日本語学習者が非流暢なまま母語話者 流の非流暢になっていくことの可能性を述べた. これは合成音声の発話にも有効である. 3 人のパネリストの講演に続けて,モデレータから各パネリストへの質問,パネリスト間の議論,参加者からの質問と進んだ。モデレータからは支援ツールによる制御のし過ぎの可能性,学習(授業)の効果の検証(評価)の手法, 母語話者と被母語話者の流暢さの違いについて質問した。パネリスト間では,機械とのミスコミュニケーションの教育現場での有効性についての質問から意見交換が広がっていった,参加者からは,機械処理しやすい日本語が技術の進展によって変わっていくことと学校教育との関わり, 言語学的解釈と機械翻訳の発展, ネイティブの非流暢さを非ネイティブが模倣することのコミュニケーションに与える影響,人間が技術に歩み寄り機械が人間らしくなること,英語で開発された技術の日本語への適用可能性などについての質問が寄せられ,各パネリストが丁寧に回答していた. それぞれのバックグラウンドは異なっていた 3 人のパネリストであったが,講演と質疑を通して,共通の話題として議論できる部分が多々あることが実感できた。 ## 5 おわりに 第 13 回産業日本語研究会・シンポジウムは第 12 回に引き続きオンライン開催となった. 対面での開催が望ましく, 特にポスターセッションではオンラインでは難しい面もあった。しかしながら,今回のシンポジウムは過去最多の申込があり,オンラインであれば参加できるという方々も一定数いらっしゃったと思われる。第 10 回までの現地開催では参加していただけず,産業日本語についての情報提供ができなかった方々にも参加していただけたと考えるなら,むしろオンラインの利点を活用しつつ, 次回以降のシンポジウムを開催してゆきたい.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 『日本語話題別コーパス:J-TOCC』と『話題別日本語語彙表』 中俣 尚己 $\dagger \cdot$ 加藤 恵梨 $\dagger \dagger \cdot$ 堀内 仁䖝 $\cdot$ 山本 和英 ${ }^{+1 \dagger \dagger}$ ## 1 はじめに 日本語を母語としない人たちに日本語を教える日本語教育の世界では, 英語教育などの影響もあり,CBI (Content Based Instruction: 内容中心の教授法) や CLIL (Content-Language Integrated Learning: 内容と言語の統合的学習)といった学習法が取り入れられることが多くなってきた。これらは内容志向型教授法 (石川 2017) と呼ばれる。言語だを学習対象にするのではなく,他の教科や国際問題など様々なトピックを通して外国語を学ぶという方式である. また, 初級日本語の教科書も従来は「第 18 課では「〜ことができます」を勉強し, 第 19 課では「〜たことがあります」を学ぶ」といった「文型積み上げ式」と呼ばれるものが主流であったが,近年は「第 7 課では「町」,第 8 課では「買い物」を学ぶ」というように「トピックシラバス」を採用した教科書も現れている. このように,日本語教育では「内容」「トピック」に焦点が当てられることが増えてきているが,もちろん個々のトピックを通して「語彙」「文法」といった言語的な学習内容を学ぶことが肝要である。そのため, どのような話題にどのような語彙・文法が必要になるかといった情報を大規模データに基づいて調べることは教材開発において非常に重要なデータとなる。また,仮に文型積み上げ式の教材であっても,会話練習には話題は不可欠であるため,話題と語彙・文法の関係はやはり非常に重要なデータとなる. そこで筆者らは JSPS 科研費 18 H00676 の助成を受け,「話題が語彙・文法・談話ストラテジー に与える影響の解明」(研究代表者:中俣尚己)というプロジェクトで話題別の会話コーパスの構築を進めた。その結果, 『日本語話題別会話コーパス:J-TOCC』と『話題別日本語語彙表』 という 2 つの成果物を完成させた。その公開を記念し, 2022 年 3 月 20 日に「話題とコーパスと日本語教育」と題してオンラインでのシンポジウムを行った。この論文では, シンポジウムで発表された成果物の解説やそれを利用した研究,今後の展望について報告する.  ## 2 話題とは ここで,本プロジェクトが扱う「話題」の範囲について明らかにしておきたい,言語学の文脈においても,話題,すなわち話されている内容についての研究はあまり広く行われているとはいえない. 話題に関して盛んな研究分野の一つは「話題転換」の研究であり,会話で話題が変わる時に人間が発している様々なサインに注目した研究である。ここでいう話題は「Aさんが茶道部に初めて見学に行った時の出来事」や「Bさんがどのサークルに入るか迷っている話」 のように,個別的な研究である. 一方で,「初対面場面においてどのような話題が選択されるか」という観点からの「話題選択」 の研究も存在する (三牧 (1999) など)。この観点では上記の $\mathrm{A}$ さんと B さんの話題は「サー クル活動」という形でまとめられることが望ましい。この 2 人は初対面でどちらも似たような話題を選んだということが重要だからである。 しかしながら, 日本語教育の教材開発を考えた場合,一つの教材で扱える話題数がせいぜい 1022程度であることを考えると,例えば「サークル活動」「授業」「大学の行事」などを「大学」などのようにもう少し大きなカテゴリーにまとめることが望ましい. 三牧 (1999)も「話題領域」としてこのレベルのカテゴリーを設けている。 また, 本研究の出発点となった山内 $(2013)$ は 15,000 語を「食」「住」など 100 の話題に分類したリストとなっている. 本プロジェクトではこのように大きなカテゴリーとして「話題」を扱う. ## 3 『日本語話題別会話コーパス:J-TOCC』 プロジェクトでは 2 つの成果物の構築を行った. その一つが『日本語話題別会話コーパス: J-TOCC』である. Japanese Topic-Oriented Conversation Corpus の略で,「ジェイトック」と読む. 15 の話題を選定し, 大学生のペアに各話題について 5 分ずつ話してもらったものを録音,文字化した。その最大の特徴は話題以外の条件が統制されていることにある。話題は表 1 に示した通り, 身の回りの話題が 11 , 社会に関わる話題が 4 である. 1 つの話題につき 120 ぺア, 合計 10 時間の会話が収められている。語数は記号を除くと述べ語数ではおよそ 165 万語, 異なり語数ではおよそ 4 万語である。話題による差は大きくなく, 1 話題あたりおよそ延べ語数は 11 万語, 異なり語数は 6 千語程度となっている。ペアは様々な話題について話せるよう, 仲の良い関係どうしに限定し,性別の組み合わせや録音地の東西でバランスをとった。また,話者がそれぞれの話題についてどのぐらい詳しいかという「話題精通度」についても 5 段階で尋ね,付属データとして添付している。テキストファイルのみの構成でウェブ上で配布している。コー パスの詳細は中俣他 (2021a)を参照されたい. ## 4 『話題別日本語語彙表』 もう一つの成果物が『話題別日本語語彙表』である. これを作成するために,まず既存の自然会話コーパスである『名大会話コーパス』(藤村他 2011)を利用した. 『名大会話コーパス』 は 2001 年から 2003 年にかけて録音されたおよそ 100 時間分の自然会話コーパスで,日本語学や日本語教育学ではよく利用されるコーパスである。延べ語数は約 112 万語, 異なり語数は約 3 万語である. このコーパスを人手で話題ごとのサブコーパスに分割する作業を行った.話題については山内 $(2013)$ を参考に 105 のタグセットを用意し,実際には 97 種類の話題に分割した.名大会話コーパスのどの行がどの話題に対応するかというデータについては『自然会話コーパス話題アノテーション情報』として,言語資源協会で配布している1. その後, コーパス全体での頻度が 10 以上の 3,324 単語について, 各サブコーパスにおける特徵度を LLR(対数尤度比) で示した Excel ファイルをウェブで公開している。詳しくは中俣他 (2021b)を参照されたいが,本デー夕は「ある話題でよく使われる語を探す」「ある語がよく使われる話題を探す」という 2 つの方向で活用できる, 日本語教育における基礎的デー夕である. 3,324 語のうち, $74 \%$ が何らかの話題において特徴語と判定された. 品詞により違いがあり, 副詞では $43 \%$ のみが特徴語となるが, 形容詞では $82 \%$ が特徴語となる. 助動詞も半数以上が特徴語となる.いくつかの話題についてのデータを表 2 に示す. 表 $1 \mathrm{~J}-$ TOCC 話題 表 2 話題ごとの基礎統計量 ^{1}$ https://www.gsk.or.jp/catalog/gsk2020-b/ } ## 5 シンポジウム「話題とコーパスと日本語教育」 この 2 つの成果物の完成を記念して, 2022 年 3 月 20 日に公開シンポジウム「話題とコーパスと日本語教育」を開催し, この 2 つの成果物を利用した研究発表や今後の展望についての講演を行った.まず,代表者である筆頭著者からプロジェクトと 2 つの成果物についての説明を行った後,2つの会場で科研メンバーによる口頭発表が 5 つずつ行われた. A 会場では,まず,「話題・地域の異なりからみた自問発話」(小西円)において,J-TOCC のうち, 話者の話題精通度が最大である「01 食べること」と最小である「15 日本の未来」を調査対象とし, そこに現れる自問発話を話題・地域の異なりから分析した結果が報告された. 話題別にみると,「15 日本の未来」のほうが自問発話の出現が多いこと,また,地域別にみると,どちらの話題でも東日本のほうが自問発話の出現が少し多いこと, 西日本では「何たった系」が出現すること等が明らかにされた。 「大学生の自然会話にみられる「まあ」一話題による使用の特徴に着目して一」(加藤恵梨) では,誰がどのような話題で感動詞「まあ」をよく使うのかを,J-TOCC の「01 食べること」 $\lceil 07$ 学校」「15 日本の未来」を調査対象として分析した結果が報告された. 最も使用が多いのは「15日本の未来」で, 次に「 07 学校」,「01 食べること」であった。男女別では, 男性のほうが多く用いていた。また,「15日本の未来」では考えながら発言する際に多く用いられ,「07学校」では言いづらいことを述べる際に多く用いられることが報告された. 「大学生の雑談におけるオノマトぺの使用傾向一話題・地域・男女」(太田陽子) では, J-TOCC のデータを形態素解析した語彙表をもとに, 話題・地域・性別によるオノマトぺの使用傾向が報告された.使用が多かった話題は「10 動物」「06 家事」「13 マナー」「05 マンガ・ゲーム」「04 スポーツ」であり,親しい関係の雑談でも社会的な話題ではオノマトペの使用は減少すること,地域については関西のほうが使用頻度が高いこと,性別では女性のほうが多用していることが報告された。 「話題と無助詞現象の関わりについて」(清水由貴子) では, J-TOCC を形態素解析し, 品詞情報を付与したデータから, 「名詞 $\varphi$ 動詞」「名詞 $\varphi$ 形容詞」の件数を出した結果, 「こと $\varphi$ ある」「こと $\varphi$ ない」が圧倒的に多く使用されていることを示された。また, 話題別では $\Gamma 01$ 食べること」「05 マンガ・ゲーム」「09 アルバイト」は助詞なしパターンが多く出てくるのに対し, $「 14$ 住環境」「15 日本の未来」は助詞があるパターンが多いこと等が明らかになった. 「話題と話題提示形式の関係」(澤田浩子) では, J-TOCC の話題ごとの対数尤度比デー夕をもとに,提題形式についての分析が行われた. その結果,「は」は「06 家事」「12 夢・将来設計」「14 住環境」で多用され,対比の「は」は網羅性・包摂関係を意識して展開させたくなる話題で多く使われること,「も」は「14 住環境」「15 日本の未来」で多用され,類同の「も」と取り立ての「も」は比較検討される複数の項目が活性化される話題で多く使われること等が報告された. 一方,B 会場では,まず「話題精通度と言語表現の出現傾向の関係:夕形を例として」(森篤嗣)において,J-TOCC の 15 話題に対する 5 段階評価の話題精通度,その男女差,各話者の発語数との相関,言語表現の出現傾向との関係に関する調査結果に続き,主節末肯定形の夕形述語の出現数との関係に関する調査結果が報告された。話題によって「た」と話題精通度の相関に違いが見られたり,「た」をめぐる理論的主張「体験の文法」(定延 2016) や「情報のアクセスポイント」(定延 2001) などを検証・観察できた. 「話題と統語的複雑さ」(堀内仁)では, 名大会話コーパスの話題分割データに基づき, 第二言語の習熟度や言語発達の指標となる統語的複雑さと話題との関係に関する調査結果が報告された. 文長や節の埋め込みの深さとして測定された統語的複雑さの高い話題は〈社会〉に関するもの,そうでない話題は〈日常生活〉〈身の回り〉に関するもので,前者は特に通時的・超時的な内容と結びつきやすく聞き手と共有する情報が少ないのでそれを補うために複雑な形式が用いられると説明された。 「日本語教材における「話題」の偏り」(橋本直幸)では, 山内 (2013)の話題分類を基に開発された「日本語教科書読み物データベース2」を用いて,1990 年から 2019 年までに出版された読み物の話題について年代別,レベル別に数量調査の結果が報告された。年代別には異なる変化傾向を示す 4 つの話題グループが,レベル別には初級は日常生活,中級はコミュニケーション,上級は社会に関する話題が顕著であるが, 2 レベル・3レベルに共通のものも示された。また, 山内 $(2013)$ との比較のため話題の難易度を設定したところ, レベル別分析と難易度が共通するもの,異なるもの,すべてのレベルで扱われるものが確認された。 「類義語分析に「話題」は使える」(建石始) では, 建石 (2018) で提案された従来の類義語分析のポイントに新たに「話題」を加え,その分析ツールとして話題別日本語語彙表を使い,「会う・出会う」「あげる・くれる・もらう」「先生・教師」「生む・生まれる」「恐ろしい・怖い」「素晴らしい・素敵」「怒る・叱る」等が出現する話題の違いを示した. また, 同語彙表が類義語分析だけではなく,「捨てる・拾う」「太る・瘦せる」等の反義語分析にも使えることを示した. 「J-TOCC と話題別日本語語彙表を中級レベルの日本語授業にどう活かすか」(小口悠紀子) では, J-TOCC と話題別日本語語彙表を実際にタスクベースの日本語指導に用いた実践例が報告された。夕スクベースの言語指導を行うため, ニーズ調查に基づき話題を決定し, 対応するターゲット形式の語彙・文型を決めたり,ターゲット形式が使われる真正性が高いメインタスクを考案する際, 語彙表を用いてある話題に特徴的な実質語・機能語を割り出し,ヒントとしたこと,J-TOCC を用いてその話題で実際に行われた真正性のある会話例を調べたことなどが示された. 最後に, 2 つの基調講演が行われた. ^{2}$ https://opac.jp.net/Opac/search.htm?s=-oDweME36ExwrOmGKNkV41okBHd } 石川慎一郎氏の講演「コーパス研究におけるジャンル・トピック・シチュエーション・タスク」では, 表題の 4 つの専門用語が指す内容に摇れが見られる現状を踏まえたうえでJ-TOCC がどのようなコーパスであるか再確認が行われた。その後, 「09 アルバイト」の話題の中でもやはり地域差や男女差が見られること, しかし, 話題が統制されているからこそ, 逆にその違いを証明するタイプの活用法があることが指摘された。 山内博之氏の講演「話題を制する者は日本語教育を制す」では代表的な教科書『みんなの日本語』において, 動詞をトピックごとに提示する配列や, OPI (Oral Proficiency Interview) と呼ばれる口頭能力テストにおいて話題ごとにレベルチェックのためのタスク作成する方法が具体的に提案された. その後, 2 名の講師と筆頭著者の間で「話題」の定義や成果物の意義についての議論が展開された。 ## 6 おわりに 『J-TOCC』と『日本語話題別語彙表』はどちらも日本語教育への貢献を目的に作成した言語資源であるが,それ以外にも様々に利活用できる。特に J-TOCC は 2010 年代の若者によるリアルな会話を様々な話題について一定数収録しているという点にも価値がある。また, 話題と時間が統制されているということで, 却ってそれ以外の要因である性差や地域差を正確に計量することができる初のコーパスということもできる. ぜひ多くの研究者, 開発者に利用して頂きたい. 今後はさらに日本語教育の実践者に利用しやすい形で,上記の言語資料を基に語と話題の関係を検索,閲覧できるサイトの構築を新たに進めていくことを計画している.上級の日本語では「生教材」と呼ばれる現実の文書を教材とすることが多いが,この手法はその教材に出現した語のみが学習対象となる。たまたま出現しなかったが, その話題と関連の深い語を提示できれば,授業準備の助けになると思われる。そのようなサイト構築には,上級日本語でよく扱われる話題のデータをさらに拡充する必要もあると考えられ, J-TOCC さらに拡大することも計画している。 ## 謝 辞 本研究は JSPS 科研費 $18 \mathrm{H} 00676$ の助成を受けた. ## 参考文献 藤村逸子・大曽美恵子・大島ディヴイッド義和 (2011). 会話コーパスの構築によるコミュニケーョン研究. 藤村逸子・滝沢直宏 (編). 言語研究の技法 : デー夕の収集と分析, pp. 43-72,ひつじ書房. [I. Fujimura et al. (2011). Kaiwa Kopasu no Kochiku niyoru Komyunikeshon Kenkyu. I. Fujimura and N. Takizawa (Eds.), Gengo Kenkyu no Giho: Deta no Shushu to Bunseki, pp. 43-72, Hitsuji Shobo.] 橋本直幸 (2019). 日本語教科書読み物データベース. https://opac.jp.net/Opac/search.htm? s=-oDweME36ExwrOmGKNkV41okBHd. [N. Hashimoto (2019). Nihongo Kyokasho Yomimono Detabesu. https://opac.jp.net/Opac/search.htm?s=-oDweME36ExwrOmGKNkV41okBHd]石川慎一郎 (2017). ベーシック応用言語学. ひつじ書房. [S. Ishikawa (2017). A Basic Guide to Applied Linguistics. Hitsuji Shobo.] 三牧陽子 (1999). 初対面会話における話題選択スキーマとストラテジー一大学生会話の分析一.日本語教育, 103, pp. 49-58. [Y. Mimaki (1999). Shotaimen Kaiwa niokeru Wadai Sentaku Sukima to Sutorateji: Daigakusei Kaiwa no Bunseki. Journal of Japanese Language Teaching, 103, pp. 49-58.] 中俣尚己 (2020). GSK2020-B 自然会話コーパス話題アノテーション情報. https://www.gsk.or . jp/catalog/gsk2020-b/. [N. Nakamata (2020). GSK2020-B Shizen Kaiwa Kopasu Wadai Anoteshon Joho. https://www.gsk.or.jp/catalog/gsk2020-b/] 中俣尚己 $\cdot$ 太田陽子 $\cdot$ 加藤恵梨 ・澤田浩子 - 清水由貴子 - 森篤嗣 $(2021 \mathrm{a})$. 『日本語話題別会話コーパス : J-TOCC』. 計量国語学, 33(1), pp. 205-213. [N. Nakamata et al. (2021a). J-TOCC: Japanese Topic-Oriented Conversation Corpus. Mathematical Linguistics, 33(1), pp. 205-213.] 中俣尚己 - 小口悠紀子・小西円・建石始・堀内仁 (2021b). 自然会話コーパスを基にした『話題別 日本語語彙表』. 計量国語学, 33(3), pp. 194-204. [N. Nakamata et al. (2021b). Compilation of "Topic-Vocabulary Table for Japanese Language Education" from a Corpus of Natural Conversation. Mathematical Linguistics, 33(3), pp. 194-204.] 定延利之 (2001). 情報のアクセスポイント. 言語, 30 (13), pp. 64-70. [T. Sadanobu (2001). Joho no Akusesu Pointo. Gengo, 30(13), pp. 64-70.]定延利之 (2008). 煩悩の文法:体験を語りたがる人びとの欲望が日本語の文法システムをゆさぶる話. ちくま新書[定延利之 (2016) 増補版, 凡人社] . [T. Sadanobu (2008). Bonno no Bunpo: Taiken wo Kataritagaru Hitobito no Yokubo ga Nihongo no Bunpo Sisutemu wo Yusaburu Hanashi. Chikuma Shinsho. [T. Sadanobu (2016). Enlarged edition, Bonjinsha.]]建石始 (2018). 類義語分析のためのチェックリスト. 岩田一成編 (2018). 語から始まる教材作り, pp. 45-58. くろしお出版, [H. Tateishi (2018). Ruigigo Bunseki no tameno Chekku Risuto. K. Iwata (Ed.), Go kara Hajimaru Kyozaizukuri, pp. 45-58. Kuroshio Shuppan.] 山内博之 (編)(2013). 実践日本語教育スタンダード. ひつじ書房. [H. Yamauchi (Ed.) (2013). Jissen Nihongo Kyoiku Sutandado. Hitsuji Shobo.] ## 略歴 中俣尚己:2009 年大阪府立大学大学院人間社会学研究科博士後期課程修了.博士(言語文化学)。2009 年京都外国語大学, 2011 年実践女子大学, 2012 年京都教育大学を経て 2022 年より大阪大学国際教育交流センター准教授. コー パスを利用した日本語研究とその成果の日本語教育への応用に取り組む。言語処理学会会員. 加藤恵梨:2009 年名古屋大学大学院国際言語文化研究科博士後期課程修了.博士 (文学)。2015 年朝日大学, 2018 年大手前大学を経て, 2022 年より愛知教育大学教育学部准教授. 現代日本語の意味に関する研究に取り組む. 堀内仁:2006 年テキサス大学オースティン校言語学科博士課程修了. 博士 (言語学)。2005 年ジョージワシントン大学講師, 2006 年ブラウン大学客員助教授を経て,2009 年より国際教養大学専門職大学院(日本語教育実践領域)助教, 2012 年より同大学院准教授. 日本語教育と言語学を背景に, 特に近年コーパスを用いた日本語教育文法研究・第二言語習得研究に取り組む. 山本和英:1996 年豊橋技術科学大学大学院工学研究科博士後期課程システム情報工学専攻修了. 博士 (工学). 1996 年国際電気通信基礎技術研究所 (ATR)研究員, 2002 年長岡技術科学大学教員, 2020 年より個人事業者 (言語商会) として自然言語処理の技術支援を行う. 言語処理学会会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 情報通信研究機構ユニバーサルコミュニケーション研究所の紹介隅田英一郎 $\dagger \cdot$ 大竹 清敬 $\dagger \cdot$ 内元 清貴 $\dagger$ ## 1 ユニバーサルコミュニケーション研究所の紹介 国立研究開発法人情報通信研究機構 (NICT) ユニバーサルコミュニケーション研究所 (UCRI) では,誰もが分かり合えるユニバーサルコミユニケーションの実現を目指して,日本語を中心として分野に特化した高品質・大規模データベースを構築し,その基盤を活用した,「多言語」,「対話」,「行動支援」に関する 3 つのコア技術,及び,コミュニケーションの質を向上させる技術の研究開発とそれらの技術の社会実装に取り組んでいます。その際, 重視しているのは「研普両道」すなわち「研究」と「普及」の両立です. 研究開発においては,前例にとらわれない才ンリーワン/ナンバーワンのコア技術を創出し,その技術を,広く使っていただる普遍の技術として研ぎ澄ませます。そして,それらの技術を活用した実証/実用システムを産学官の力を結集して開発・展開し,社会実装に繋げるとともに,社会で生み出された知識源を研究開発ヘフィードバックします。この研究開発と社会実装を循環するポジティブスパイラルを実現することにより,コア技術を世の中で普通に使われる技術とすることを目指します.そして,これにより,国際ビジネス,高齢者ケア,環境リスク低減等における言葉の壁・知識の壁・デー 夕利活用の壁をなくし, 社会課題の解決や新たな価値創造等に貢献します. 本稿では,UCRIにおいて,「対話(自然言語処理全般 $)\rfloor$ と多言語(機械翻訳)」に関する技術の研究開発を担うセンター, 研究室の取り組みを紹介します. ## 2 データ駆動知能システム研究センターの紹介 本節では, NICT-UCRI データ駆動知能システム研究センター (DIRECT) とその成果について紹介します。 【DIRECT の概要】DIRECT は研究者が 10 名ほどの比較的小さな組織ですが,研究開発を支援する技術員,プログラマが 15 名ほど,そして,近年の自然言語処理には必要不可欠な学習データ作成のための作業員が常時数十名在籍していることが特徴の組織です。 2021 年度から,東京都小金井市にある NICT の本部に支所を開設し, 在宅勤務が標準となりつつありますが,東京とけいはんなの 2 拠点体制で研究開発を実施しています.  【DIRECT の研究開発の特徴】DIRECT では, 基礎研究から応用まで一気通貫で実施できる研究開発体制で,実際に社会課題解決に貢献可能な技術・システムの研究開発に取り組んでいます。そういった技術・システムの研究開発には,対象課題の専門家,しかも自然言語処理や AI に関するビジョンを共有できる専門家の協力が必要不可欠ですが,このような専門家と密にコミュニケーションをとりながら研究開発を推進します. 社会課題解決に注力すると,論文が書けないのではないかと心配されるかもしれませんが,NICTでは,研究者の論文執筆以外のアクティビティを積極的に認める柔軟な評価制度があり,社会課題解決に貢献できる技術・システムを創りたいと考える研究者・技術者にとって非常に活動しやすい場となっています. な押,最近は社会課題解決に集中しているため,論文発表は少なめではありますが,過去 15 年ほどで ACL, AAAI 等のトップカンファレンスで 30 本ほどのロングペーパーを発表し,日本オープンイノベーション大賞, 日本学術振興会賞, 文部科学大臣表彰, Twitter Data Grants, PyTorch Annual Hackathon 第一位等の名だたる賞を多数受賞しています。また,過去 10 年で NHK スペシャルや一般紙 1 面を含め 362 件の報道がなされています。研究環境としては, 独自に収集した 400 億件以上の Web ページや, NVIDIA の最新の A100を含め,多数の GPGPU など,日本の公的機関では最大規模の言語データ,計算資源を有しています。 【初期の成果】 DIRECT の初期の成果としては, 大規模 Web 情報分析システム WISDOM X と対災害 SNS 情報分析システム DISAANA があります。いずれのシステムも 2015 年から,ネット上で試験公開しています. WISDOM X は,通常の検索エンジンとは異なり,入力の質問に対する端的な回答の候補を Web 40 億ページの情報に基づいて提示します.「AIってどんな社会問題の解決に使えるかな?といった,回答が名詞となるいわゆる「ファクトイド」型質問に対してだけでなく,「なぜギリシャで哲学が始まった?」「地球温暖化が進むとどうなる」のように文で答えるタイプの「ノンファクトイド」型質問にも,回答の候補を場合によっては数百件,瞬時に提示し,ロングテールも含めて関連情報のより網羅的な把握を容易にします。DISAANA は WISDOM X の技術を減災という目的にチューニングする形で開発され,大規模災害時に Twitter 上に発信される膨大な被災報告を分析し,WISDOM X と同様に質問応答するとともに地図上に回答を可視化するシステムです。 【成果の進化と社会実装】これらのシステムはその後, 大量のWebテキストを用いて事前学習した BERT 等を用いたWISDOM X 深層学習版1, 質問を入力しなくてもTwitter に発信された情報から災害の被害状況を整理,要約した形で提供する,災害状況要約システム D-SUMM², LINE の上で被災者とチャットし,被災情報の収集や避難支援を行う防災チャットボット $\mathrm{SOCDA}^{3}$ に  進化しています.DISAANA,D-SUMM,SOCDA に関しては民間企業へのライセンスを実施し,商用サービスが開始され,実災害でも自治体等において活用されています。 【MICSUS の研究開発】また,近年では内閣府 SIP 第二期の支援のもと,人材が逼迫していると言われる介護職の負担を軽減するために,要支援等の高齢者の健康状態チェックを AIによる対話を介して行うマルチモーダル音声対話システム MICSUS 4 を KDDI 株式会社, NECソリュー ションイノベータ株式会社,株式会社日本総合研究所と共同で研究開発しています. MICSUS は,健康状態チェックのための対話に加えてWISDOM X の技術を使い,Webの情報を用いた雑談も行う他,カメラで撮影したユーザの表情等から感情やジェスチャーを認識して対話で活用します。最新のシステムは 250 万件の人手作成の学習データを用い, 43 件の異なるタスクを実行する BERT で様々な意味解釈を行いつつ,対話を進めます。介護の専門家と密接に連携しつつ開発を進め,高齢者と長期にわたり対話を行う実験でも良好な結果を得ています。また,高齢者を対象とした 10 年間の追跡調査 (斉藤他 2015) によれば,コミュニケーション頻度が認知症の発症, 要介護度の進展, さらには死亡の可能性と有意に相関していることがわかっています. MICSUS との対話は,こうしたコミュニケーション不足,さらには近年注目を浴びている孤独の問題の解消とまではいかないもののその抑制にも貢献できる可能性があるのではないかと考えています. 【研究開発を支えるミドルウエアの開発】これまでに紹介してきたシステムを開発する際の苦労話については, 別稿 (鳥澤 2021) で述べられているので, ご興味のある方はご覧ください. また, DIRECTでは, こういった大規模システムの開発をローコストで行うためのソフトウエア群も開発しています。まず,東京大学と共同で並列分散処理ミドルウェア $\operatorname{RaSC}^{5}$ を開発しました。これは OS,並列処理等に詳しくない AI の研究者が各自の好みの環境で作成したプログラム群をストリーム接続してパイプラインを構成し, 死活管理等も含めて数百台規模の計算機で並列に安定稼働させます。上記のいずれのシステムもこれなしでは開発できませんでした.同じく東京大学と共同で開発した自動並列化深層学習ミドルウェア RaNNC ${ }^{6}$ は, PyTorch で記述されたニューラルネットワークを自動で分割し,複数の GPUを用いた並列処理によって GPT-3 のような超大規模なニューラルネットワークを高速に学習するためのミドルウェアです. RaNNC は, Transformer に限らず, 画像処理用の大規模な CNN 等, 様々なニューラルネットワークに関し GPT-3 と同じレベルの 2,000 億パラメータまで対応できます. DIRECT では, Transformer, CNN, 敵対的学習を組み合わせた BERTAC7等, Transformer を超えるアーキテクチヤの検討も進めています。なお,RaNNC は,ニューラルネットを記述するためのソフト ^{7}$ https://github.com/nict-wisdom/bertac にてソフトウエアを公開中. 詳細な内容については, Oh ら (Oh et al. 2021)を参照ください. } ウエアである PyTorch の開発元である Facebook が主催する, PyTorch Annual Hackathon 2021 において, First Place(第1位, PyTorch Developer Tools \& Libraries 部門)を受賞しました. RaSC,RaNNC のいずれのソフトウェアも脚注に示した URL で公開していますので興味のある方はお試しください. 【まとめ】以上に述べた通り,DIRECT では,自然言語処理における基礎的な研究開発から,社会課題の解決に直結する具体的な応用研究, 開発まで小さな所帯で効率的に実施しています. ## 3 先進的翻訳技術研究室の紹介 本節では, NICT-UCRI 先進的音声翻訳研究開発推進センター (ASTREC) 先進的翻訳技術研究室の紹介をします。 【先進的翻訳技術研究室の概要】当研究室では,世界の「言葉の壁」を解消し,グローバルで自由な交流を実現することをミッションとした多言語機械翻訳技術の研究開発と社会実装に取り組んでいます。当研究室には, 20 人程度の研究員・技術員が在籍しており, 日本人研究員・技術員だけでなく,今までに,英国,フランス,ドイッ,インド,中国,ベトナム,カンボジア,ミャンマー等からも外国人研究員・技術員・インターンが来ています。また, 当室在籍中に博士課程に通ったり, 博士課程在学中に半年以上の当室インターンを経験し, 最先端の研究開発を担いつつ,博士号を取得した人はこれまで 10 人以上に上ります。当研究室の研究成果の一覧は論文リスト8をご参照ください,代表例としては, ACL-IJCNLP 2021 で Outstanding Paper Award を受賞した論文 (Marie et al. 2021) や 2020 年言語処理学会論文賞を受賞した論文 (Ma et al. 2020a; Higashiyama et al. 2020; Ma et al. 2020b) があります. 【言語資源】当研究室では, 対訳コーパス等の言語資源も公開しています9. 特に, Asian Language Treebank (ALT) Project ${ }^{10}$ では, English Wikinews から抽出した約 2 万文の英文を 13 言語に翻訳した対訳コーパスを一般に公開しています. ALT 対訳コーパスは, Workshop on Asian Translation (WAT) など, 低言語資源機械翻訳の研究に広く活用されています。また, 遡って, 2007 年には, 180 万文規模の世界初の大規模特許日英対訳コーパスを研究開発し (Utiyama and Isahara 2007), さらに, 近年の日英機械翻訳研究で広く使われている ASPEC (Asian Scientific Paper Excerpt Corpus)(Nakazawa et al. 2016)の開発にも参加しています. 【VoiceTra/TexTra の開発】当研究室では, 機械翻訳について, 基礎研究から実用化までのスペクトラムで研究を進めています。機械翻訳は,高精度ならドンドン使いたくなるし精度がまあまあでも役に立つ場面が多く,専門家以外(言い換えると研究の受益者あるいはスポンサー)  に有用性が分かりやすく,自然言語処理技術の応用の中でもキラー・アプリと言えます.より具体的には, 当室には, 音声翻訳のスマホ・アプリである「VoiceTra」11やテキスト翻訳の WEB 上のトライアウトである「みんなの自動翻訳@TexTra」12があって, 利用者と研究者のタッチポイントとして機能しています。様々な基礎技術を一般に届けることができますし,逆に,利用者から様々な形で基礎技術へのフィードバックも得られ,新たなテーマの発見につながることもあります. 自分の作ったアルゴリズムが実社会で使ってもらえ役立っていることを実感できるのも,万人がスマホや PC を持ちネットワークが高速である 21 世紀において自然言語処理の研究をする醍醐味の一つでしょう,例えば,TexTra はオープンソースソフトウェア (OSS)のコミュニティで,OSS のドキュメントの日本語化に役立てていただいています。その過程で新たに作られた対訳は NICT が運営する対訳データの集積庫である翻訳バンク13にご提供いたたいています。翻訳バンクに基づいて高精度化した機械翻訳を再度,OSSコミュニティに使っていただきます.このようにTexTra と翻訳バンクで対訳データのエコ・システムを形成しています. さらに, 最近は機械翻訳の精度が高くなったので, 研究室内で日常的に活用しています.日本人の研究者は英文の論文を TexTra で母語である日本語に変換して効率的に読むメリットを享受していますし, 研究室内の事務的な告知は Slack に日本語で投げておくと外国人研究者は TexTraで手軽に読めるので,日本語中心の日本の組織の中でも情報を取得できます. Slack アプリ14はとても便利なので,ぜひお試しください. 【まとめ】本研究室は, 機械翻訳という一つのテーマに特化したユニークな研究室です。世界各国からの研究員が在籍し, 基礎研究から実用システムの提供まで続けています. 大学とも企業とも違う国立研究開発法人の研究室の一例をご紹介しました. ## 参考文献 Higashiyama, S., Utiyama, M., Sumita, E., Ideuchi, M., Oida, Y., Sakamoto, Y., Okada, I., and Matsumoto, Y. (2020). “Character-to-Word Attention for Word Segmentation." 自然言語処理, 27 (3), pp. 499-530. Ma, C., Tamura, A., Utiyama, M., Sumita, E., and Zhao, T. (2020a). "Syntax-based Transformer for Neural Machine Translation.” 自然言語処理, 27 (2), pp. 445-466. Ma, C., Tamura, A., Utiyama, M., Zhao, T., and Sumita, E. (2020b). "Encoder-Decoder Attention $\neq$ Word Alignment: Axiomatic Method of Learning Word Alignments for Neural Machine Translation.” 自然言語処理, 27 (3), pp. 531-552.  Marie, B., Fujita, A., and Rubino, R. (2021). "Scientific Credibility of Machine Translation Research: A Meta-Evaluation of 769 Papers." In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 7297-7306. Nakazawa, T., Yaguchi, M., Uchimoto, K., Utiyama, M., Sumita, E., Kurohashi, S., and Isahara, H. (2016). "ASPEC: Asian Scientific Paper Excerpt Corpus." In Proceedings of the 10th International Conference on Language Resources and Evaluation (LREC'16), pp. 2204-2208. Oh, J.-H., Iida, R., Kloetzer, J., and Torisawa, K. (2021). "BERTAC: Enhancing Transformerbased Language Models with Adversarially Pretrained Convolutional Neural Networks." In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 2103-2115. 斉藤雅茂, 近藤克則, 尾島俊之, 平井寛 (2015). 健康指標との関連からみた高齢者の社会的孤立基準の検討 10 年間の AGES コホートより. 日本公衆衛生雑誌, 62 (3), pp. 95-105. [M. Saito et al. (2015). Criteria for Social Isolation Based on Associations with Health Indicators among Older People A 10-year follow-up of the Aichi Gerontological Evaluation Study. Nihon Koshu Eisei Zasshi (Japanese Journal of Public Health), 62 (3), pp. 95-105.]. 鳥澤健太郎 (2021). 社会課題解決に貢献する自然言語処理技術の社会実装と展開一AIでの人助けに何が必要か—. 情報処理学会学会誌「情報処理」,62 (6), pp. e27-e33. [K. Torisawa (2021). Natural Language Processing Technologies for Solving Social Issues - What is Needed for Assisting People with AI? -. IPSJ magazine, 62(6), e27-e33.]. Utiyama, M. and Isahara, H. (2007). "A Japanese-English Patent Parallel Corpus." In Proceedings of Machine Translation Summit XI: Papers. ## 略歴 隅田英一郎:京都大学博士(工学)。日本アイ・ビー・エム(株),(株)国際電気通信基礎技術研究所を経て,(国研)情報通信研究機構に勤務。(一社)アジア太平洋機械翻訳協会会長を兼務. 大竹清敬:豊橋技術科学大学博士(工学)(株)国際電気通信基礎技術研究所を経て, (国研) 情報通信研究機構に勤務. 現在, NICT UCRI DIRECT 研究センター長. Twitter Data Grants, 日本オープンイノベーション大賞総務大臣賞等受賞. 内元清貴: 京都大学博士 (情報学). 郵政省通信総合研究所 (現 NICT) 入所後,内閣府出向を経て, (国研) 情報通信研究機構 (NICT) に勤務. 現在, NICT ユニバーサルコミュニケーション研究所研究所長.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 弱教師あり学習によるイベントの意志性・主語有生性の 分類の同時学習 清丸 寛一 $十$ ・黒橋 禎夫 $\dagger$ } 意志性と主語有生性はイベントの基本的な属性であり,密接な関係にある。これら の認識は文脈を考慮したテキスト理解を必要とし, その学習には大量のラベル付き データを要する,本論文では,人手でラベル付きデータを構築することなく, 意志性と主語有生性を同時学習する手法を提案する。提案手法では生コーパス中のイベ ントにヒューリスティクスを用いてラベルを付与する。意志性のラベルは「わざと」 や「うっかり」といった意志性を示す副詞を頼りに付与する。主語有生性のラベル は知識ベースに登録されている有生名詞・無生名詞を頼りに付与する。こうして集 めたイベントから手がかり語を含まないイベントに汎化する分類器を構築する。本研究ではこの問題をバイアス削減ないしは教師なしドメイン適応の問題とみなして 解く. 日本語と英語の実験で, 提案手法により, 人手でラベル付きデータを構築す ることなく, 意志性・主語有生性の高精度な分類器を構築できることを示した. キーワード:イベント,意志性,有生性,弱教師あり学習 ## Minimally-Supervised Joint Learning of Event Volitionality and Subject Animacy Classification \author{ Hirokazu Kiyomaru $^{\dagger}$ and Sadao Kurohashi ${ }^{\dagger}$ } Volitionality and subject animacy are fundamental and closely related properties of an event. Their classification is challenging because it requires contextual text understanding and a huge amount of labeled data. This paper proposes a novel method that jointly learns volitionality and subject animacy at a low cost, heuristically labeling events in a raw corpus. Volitionality labels are assigned using a small lexicon of volitional and non-volitional adverbs such as "deliberately" and "accidentally"; subject animacy labels are assigned using a list of animate and inanimate nouns obtained from ontological knowledge. We then consider the problem of learning a classifier from the labeled data so that it can perform well on unlabeled events without the words used for labeling. We regard the problem as a bias reduction or unsupervised domain adaptation problem and apply the techniques. We conduct experiments with crowdsourced gold data in Japanese and English and show that our method effectively learns volitionality and subject animacy without manually labeled data. Key Words: Event, Volitionality, Animacy, Weakly-supervised Learning  ## 1 はじめに 意志性 (volitionality) はイベントの基本的な属性であり,イベントに何者かの意志的な関与があるかどうかを表す. 本研究では特にイベントの主語が表すエンティティがイベントに意志的に関与しているか否かに着目する。例えば,主語のエンティティの観点から見て,「食べる」 や「書く」といったイベントはふつう意志的 (volitional) であり,「泣く」や「怪我をする」,「怒られる」といったイベントは非意志的 (non-volitional) である,イベントの意志性分類は,因果関係知識の類型化 (Lee and Jun 2008; Inui et al. 2003; Abe et al. 2008a, 2008b) に用いられてきたほか, 条件付きイベント予測 (Du et al. 2019), スクリプト抽出 (Chambers and Jurafsky 2008), 顧客フィードバック分析 (Liu et al. 2017) などへの応用がある. 一方,有生性 (animacy) は名詞の属性であり, 名詞が表すエンティティに人間のような意志的な行為が可能かどうかを表す. 本研究ではイベントの主語が表すエンティテイがイベントに意志的に関与しているか否かに着目するため, イベントの主語が有生名詞であることはイベントが意志的であることの必要条件となる。この密接な関係に着目し, 本研究では主語有生性というイベントの属性を考える。意志性の学習では主語有生性の同時学習が助けになると期待される。 意志性を認識する難しさは,言語資源の不足と文脈理解が必要なことにある。意志性は多くの場合,イベントの述語によって同定できる.冒頭の「食べる」や「泣く」などがそうである。 しかし, 意志的(あるいは非意志的)な行為を表す述語を網羅したリストは存在しない.また, たとえそうした言語資源があったとしても,述語だけではなく,その文脈も考慮しなければ意志性を同定できない場合が存在する。例えば,例 (1-a)と例 (1-b)の述語はどちらも同じ「浴びる」であるが,前者は意志的,後者は非意志的である11. (1) a. シャワーを浴びる。(V) b. 非難を浴びる。(NV) また, 例 (2-a) は非意志的であるが, 例 (2-b) は「深く」という副詞を伴うことで意志的となる. (2) a. 息をする。(NV) b. 深く息をする.(V) 文脈理解の問題は言語資源の整備によって解決するのは困難である。あらゆる文脈一述語の項,項への連体修飾,述語への修飾(副詞句)の組み合わせ一に対して意志性のラベルをアノテー  ションすることは非現実的だからである。この問題に対する有望な解決策は,イベントを構成する語句の意味とそれらの関係性を柔軟に捉えて意志性を認識する分類器を構築することである.そうした柔軟な分類器は深層学習モデルを訓練することで得られると期待されるが,その訓練には通常,大量のラベル付きデータが必要となる. 主語有生性の認識についても,意志性の認識と同様の難しさがある。まず,言語資源の不足の問題がある。主語有生性は,たいていの場合,主語の名詞が通常有生名詞 (animate noun) か無生名詞 (inanimate noun) かによって同定できる。有生名詞・無生名詞は ConceptNet (Speer et al. 2017) などの知識ベースから一定量のリストが得られるが,網羅的とは言い難い。また,主語有生性の認識においても文脈理解が必要となる場合がある。例えば,例 (3-a)の主語「白バイ」は通常無生名詞であるが,例 (3-b) の主語「白バイ」は警察官の換喻であり,この文脈においては有生名詞である². (3) a. 白バイが停まっている。(IA) b. 白バイが追いかけてくる. (A) こうした現象に対処するには, やはり柔軟な文脈理解が可能な分類器を構築するのが有望であり,その訓練には大量のラベル付きデータが必要となる. 本研究では, イベントの意志性と主語有生性を同時学習する弱教師あり学習手法を提案する.提案手法の概要を図 1 に示す。提案手法ではまず,ヒューリスティクスを用いて生コーパス中のイベントにラベルを付与する.意志性のラベルは「わざと」などの意志的な行為を表す副詞 (意志的副詞)と「うっかり」などの非意志的な行為を表す副詞(非意志的副詞)を手がかりに付与する,例えば,例 (4) は意志的副詞「あえて」が述語に係っているため, 意志的であるとみなす。例 (5) は, 非意志的副詞「うっかり」が述語に係っているため, 非意志的であるとみなす。 (4) あえて真実を話す. $ \text { うっかり携帯を落とす. } $ 主語有生性のラベルは既存の言語資源に登録されている有生名詞・無生名詞を手がかりに付与する.生コーパスの量は際限なく増やすことが可能であるため,この方法で大量のラベル付きデータを低コストで収集することができる。 例 (4), 例 (5) が示唆するように, 意志的副詞・非意志的副詞を除いたとしても, 多くの場合, イベントの意志性は保持される。これは主語有生性に関しても同様である。しかし,そうでな  図 1 提案手法の概要. 生コーパス中のイベントにヒューリスティクスを用いて意志性・主語有生性のラベルを付与し, 意志性・主語有生性それぞれのラベル付きデータセット $\left(\mathcal{D}_{\mathrm{vol}}^{l} \cdot \mathcal{D}_{\mathrm{ani}}^{l}\right)$ とラベルなしデータセット $\left(\mathcal{D}_{\mathrm{vol}}^{u} \cdot \mathcal{D}_{\mathrm{ani}}^{u}\right)$ を得る. その上で, 意志性と主語有生性の分類を同時学習する。 その際,手がかり語だけに着目した分類に陥ることを防ぐための正則化を導入する. い場合もある,例えば,例 (6-a) は意志的であるが,そこから「あえて」を除いた例 (6-b) は非意志的である. a. あえてこける. b. こける. $(\mathrm{NV})$ このように, 意志的副詞と共起するイベントが必ずしも意志的なイベントであるとは限らない.主語有生性に関してもこうした例が存在する。例えば,例 (7-a)の主語である「衝撃」は無生名詞であるが,「衝撃」を除いた例 (7-b)の主語は有生名詞として捉えるのが妥当である. a. 衝撃が走る. (IA) b. 走る. (A) 手がかり語を常に含むラベル付きデータから,手がかり語を含まないラべルなしイベントに汎化する分類器を得るには, 原則として手がかり語に頼らず,それと共起するテキストからラべルを予測することを学習しつつ,手がかり語を除くことでラベルが変化する例に関しては,手 がかり語と共起するテキストからラベルを予測することを学習しないことが重要である.本研究では, 分類器を学習する際にラベル付けの手がかり語だけに着目して分類することを抑制する正則化を導入することで前者の原則を学習しつつ, 汎用言語モデル (Devlin et al. 2019) が作り出すイベントの汎化ベクトル表現の上で分類器を構築することで, 予測のために手がかり語に着目せざるを得ないケースがデータから学習されることを期待する. 本研究は,手がかり語に着目した分類を抑制する問題をバイアス削減あるいは教師なしドメイン適応の問題と捉え,その手法を活用する。バイアス削減はデータセット中に存在する特定のバイアスが予測に濫用されることを防ぐ手法である (Bolukbasi et al. 2016; Zhao et al. 2017, 2019; Kennedy et al. 2020). 本研究ではへイトスピーチ認識器の学習において利用されているバイアス削減手法を転用する (Kennedy et al. 2020; Jin et al. 2020).ここで提案されているバイアス削減手法は, 分類器が「gay」といったへイトスピーチに特徴的な単語 (バイアス) だけに着目した分類に陥ることを抑制し,文脈を考慮した分類を促すものである.本研究では,ラベル付けに用いる手がかり語をバイアスとみなして,単純なバイアス削減手法である word removal (WR), より高度なバイアス削減手法で有効性が知られている sampling and occlusion (SOC) の 2 つを利用する. 教師なしドメイン適応は,ソースドメインのラベル付きデータとターゲットドメインのラベルなしデータを用いて,ターゲットドメインに汎化するモデルを構築する手法である。本研究の設定は,手がかり語を含むラベル付きデータをソースドメインのデータ,手がかり語を含まないラベルなしデータをターゲットドメインのデータとみなすことで,教師なしドメイン適応の問題として定式化できる。本研究では, 深層学習モデルを利用したテキスト分類器の学習において有効性が確認されている教師なしドメイン適応手法 adversarial domain adaptation (ADA) を利用する (Ganin et al. 2016; Ganin and Lempitsky 2015; Shah et al. 2018; Shen et al. 2018). ADA では,ラベル付きデータのもとで分類を学習しつつ,敵対的学習の枠組みで,ラベル付きデータとラベルなしデータが判別できなくなるようにイベントのベクトル表現を学習する。この学習により,ラベル付きデータにだけ現れる手がかり語になるべく頼らない分類が学習されると期待される。 提案手法の有効性を確認するため,日本語と英語で実験を行った,分類器の性能を評価するため,各言語についてクラウドソーシングで評価データを新たに構築した.実験を通して,提案手法により,人手でラベル付きデータを構築することなく,イベントの意志性・主語有生性の高精度な分類器を構築できることを示した ${ }^{3}$.  ## 2 関連研究 関連研究として, イベントの意志性分類, バイアス削減, 教師なしドメイン適応について述べる. ## 2.1 イベントの意志性分類 イベントの意志性分類に関する過去の研究は, 視点となる名詞句が与えられる設定と与えられない設定に大別できる。視点となる名詞句が与えられる設定では, 述語と名詞句が与えられ, その名詞句が表すエンティテイが述語が表すイベントに意志的に関与しているか否かを予測する.この設定は semantic proto-role labeling のサブタスクとして取り組まれている (Reisinger et al. 2015; White et al. 2016; Teichert et al. 2017). 視点となる名詞句が与えられない設定では,イベントが与えられ,その主語が表すエンティティがイベントに意志的に関与しているか否かを予測する (Abe et al. 2008a, 2008b; Inui et al. 2003). 本研究はこの設定に取り組む. Abe et al. (2008a) と Abe et al. (2008b) は,意志的・非意志的な述語のリストを構築し,それを参照することでイベントの意志性を予測している。この手法は,構築する述語のリストの網羅性に性能が依存するほか, 例 (1-a) と例 (1-b) にあるような, 述語単独では意志性を同定できない場合に対応できない点に問題がある. Inui et al. (2003) はデー夕駆動の手法を取っている。ここでは, 少量のラベル付きデータを構築し, 手作りの言語特徴量の上で SVM を学習している. しかし, 意志性は述語, 項, 副詞などの修飾要素から非構成的に定まる属性であり,少量の事例から頑健な分類器を学習することは困難である。本研究では, ヒューリスティクスを用いて大量のラベル付きデータを収集し, そのもとで強力な汎用言語言語モデル (Devlin et al. 2019) に基づく分類器を構築することで, 意志性の認識に関わる広範な言語現象と世界知識を学習する。 ## 2.2 バイアス削減 バイアス削減はデータセット中に存在する特定のバイアスが予測において濫用されることを防ぐ手法である。バイアス削減は機械学習の公平性の分野で研究されている (Bolukbasi et al. 2016; Zhao et al. 2017, 2019; Kennedy et al. 2020). 本研究では, バイアス削減の手法を転用し,手がかり語だけに反射的に反応して分類を行うのではなく,手がかり語の文脈を考慮して分類を行うモデルを学習する。具体的には,バイアス削減の手法として, Kennedy et al. (2020) が提案している word removal と sampling and occlusion (Jin et al. 2020)の2つを利用する.これらの手法は, 頑健なへイトスピーチ分類器の学習のために提案されたものであり,「gay」などのへイトスピーチに特徴的な単語のみを手がかりに分類を行うことを抑制し,文脈を考慮した予測を促す目的で利用されている。手法の詳細は 4.3 節に譲る. ## 2.3 教師なしドメイン適応 教師なしドメイン適応は,ターゲットドメインのラベルなしデータのみを用いて行うドメイン適応である (Ramponi and Plank 2020). 本研究の問題は,手がかり語を含むラベル付きデー タをソースドメインのデータ,手がかり語を含まないラベルなしデータをターゲットドメインのデータとみなすことで, 教師なしドメイン適応の問題として定式化できる. 教師なしドメイン適応の手法は多数提案されているが,夕スク横断的な評価を欠いており,どの手法が優れているとも言えないのが現状である (Ramponi and Plank 2020). 本研究で扱う問題は, 広くはテキスト分類に分類されるものである。そこで,本研究では,ニューラルモデルに適用可能でかつテキスト分類タスクで多くの成功を収めている adversarial domain adaptation (ADA)を用いる (Ganin et al. 2016; Ganin and Lempitsky 2015; Shah et al. 2018; Shen et al. 2018). ADA では, ソースドメインのラベル付きデータでタスクを学習しつつ, ソースドメインとターゲットドメインのデータの区別がつかないような潜在空間を学習することを通して,ターゲットドメインにおけるモデルの汎化性能を向上させる。手法の詳細は 4.3 節に譲る. ## 3 問題設定 本研究で扱うイベントの表現, スコープ, 意志性・主語有生性のアノテーションについて述べる. ## 3.1 表現 イベントは 1 つ主たる述語を含むテキスト(節)として表す.イベントは齋藤他 (2018)の基準にならって認定する。齋藤他 (2018) は, イベントを述語句構造を基本とする情報構造として定義している。齋藤他 (2018) の基準では, 述語であっても, 意味の重要性や事象性が希薄なものはイベントとして認定されない. たとえば, 例 (8)の「大きく」は副詞的な形容詞であり,単独のイベントとして認定される代わりに,述語「表示する」が構成するイベントの一部とみなされる。 (8) 大きく表示する. 例 (9) の「思う」は推量・伝聞のモダリティであり, 単独のイベントとして認定される代わりに,述語「美しい」が構成するイベントの一部とみなされる. (9) 美しいと思う. また, 齋藤他 (2018) の基準では, 項が複合名詞である場合や連体修飾されている場合は, それ らの句・節の全体が項として認定される。齋藤他 (2018)の基準でイベントを抽出した後,イベントを構成する語句を元のテキストにおける表示順で結合し,イベントのテキスト表現を得る. ## 3.2 スコープ 本研究では, 単純な言語素性, 具体的には述語の品詞と態 (voice) によって意志性が同定できないイベントを扱う。述語の品詞が例 (10)のように形容詞あるいは例 (11)のように判定詞であるイベントは状態を表し, 非意志的であることが明らかであるため, 本研究では扱わない. (10)空が綺麗だ。(NV) (11)彼は学生た。(NV) 述語が例 (12)のように受動態または例 (13)のように可能態であるときも,イベントは主語の観点から見て非意志的であることが明らかであるため, 本研究では扱わない. (12) 先生に叱られる. $(\mathrm{NV})$ (13)私は走れる。(NV) 加えて,モダリティを伴うイベントも本研究では扱わない,モダリティは,イベントに対する筆者の意見や態度を表す言語表現である。例 (14)は蓋然性を表すモダリティ「はずだ」を伴うイベントである. 彼は来るはずだ. 本研究の主眼はイベントそのものの意志性を認識することにあるため, こうしたイベントも本研究では扱わない,本研究では,蓋然性を含むモダリティ 10 種を考慮し,それらを伴うイベントを除いた。モダリティのリストと例を付録の表 9 に示す. 最後に,本研究では,主節に相当するイベントのみを採用し,従属節に相当するイベントは扱わない.例えば,以下の文からは「雨が強まったので」と「試合は中止になった」の 2 つイベントが抽出されるが, 前者(従属節)は除外し, 後者(主節)のみを利用する. (15) 雨が強まったので,試合は中止になった. これは 5.2 節で説明するクラウドソーシングによる評価データ構築の際, イベントが接続表現で 終わっていること等を理由に不自然な言語表現であると判断されることを避けるためである 4.従属節のイベントの意志性を分類する際は, 節末の言語表現を主節らしく適当に整形すれば良い. ## 3.3 アノテーション イベントには意志性と主語有生性の 2 つのラベルを付与する. 意志性主語の表すエンティテイがイベントに意志的に関与しているなら,「意志的 (volitional)」 のラベルを付与する.そうでないなら,「非意志的 (non-volitional)」のラベルを付与する. 主語有生性主語が表すエンティティに人間のような意志的な行為が可能であるなら,「有生名詞 (animate noun)」のラベルを付与する。そうでないなら,「無生名詞 (inanimate noun)」のラベルを付与する。主語有生性のラベルはそのイベントにおいて主語が有生名詞であるか無生名詞であるかを表すもので,名詞だけを取り出して,それが一般に有生名詞であるか有生名詞であるかを表すものではないことに注意されたい. ## 4 提案手法 本研究では, ある単独のイベント $x$ を入力として, その意志性 $y_{\mathrm{vol}}$ と主語有生性 $y_{\mathrm{ani}}$ を予測する問題を考える。 $y_{\mathrm{vol}}$ と $y_{\mathrm{ani}}$ はポジティブ(意志的/有生名詞)であるなら 1 , ネガティブ (非意志的/無生名詞)であるなら 0 である. 提案手法ではまず,ヒューリスティクスを用いて生コーパスから収集したイベントに意志性と主語有生性のラベルを付与する。 そうして得たデータの上で, 意志性と主語有生性の分類を同時学習する。その際,分類器が手がかり語たけに着目した分類に陥ることを抑制する正則化を導入する.意志性と主語有生性の分類の損失および正則化のペナルティを合わせたものを目的関数とし,それを最小化するように分類器とエンコーダを最適化する。 ## 4.1 訓練データセットの構築 生コーパス中のイベントに対し,ヒューリステイクスを用いて意志性・主語有生性のラベルを付与し, 意志性のラベル付きデータセット $\mathcal{D}_{\mathrm{vol}}^{l}$ とラベルなしデータセット $\mathcal{D}_{\mathrm{vol}}^{u}$, 主語有生性のラベル付きデータセット $\mathcal{D}_{\mathrm{ani}}^{l}$ とラベルなしデータセット $\mathcal{D}_{\mathrm{ani}}^{u}$ の 4 種類のデータセットを得る. まず, 3.2 節にて説明した条件を満たすイベントを生コーパスから抽出する。ここでは,既存の構文解析器および品詞夕グ付けモデルを利用する。抽出したイベントそれぞれについて, ヒューリスティクスを用いて意志性および主語有生性のラベルを付与する. ラベル付与の成否  にしたがって,イベントを各データセットに振り分ける. 意志性のラベルを付与するため,意志的副詞・非意志的副詞の小規模な辞書を用意する.辞書中の副詞がイベントの述語を修飾していれば対応するラベルをそのイベントに付与し,イベントを $\mathcal{D}_{\mathrm{vol}}^{l}$ に追加する.ラベルを付与できなかったイベントは $\mathcal{D}_{\mathrm{vol}}^{u}$ に追加する。 主語有生性のラベルを付与するため,まず既存のオントロジーから得た有生名詞・無生名詞のリストを得る。意味役割解析器の出力を用いてイベントの主語の名詞句を同定し,主語の名詞句が見つかったら,有生名詞・無生名詞のリストを参照する。そこに主語の名詞句が含まれていたら,対応するラベルを付与した後,イベントを $\mathcal{D}_{\mathrm{ani}}^{l}$ に追加する.ラベルを付与できなかったイベントは $\mathcal{D}_{\text {ani }}^{u}$ に追加する. ## 4.2 モデル モデルは 3 つの要素から構成される.1つ目はエンコーダ $E$ である。エンコーダはイベント $x$ をべクトル表現に変換する。エンコーダは事前学習済みの汎用言語モデル BERT (Devlin et al. 2019) で初期化する. 2 つ目は意志性分類器 $C_{\mathrm{vol}}$ である. 意志性分類器は, エンコーダが出力するイベントのベクトル表現を入力として, そのイベントが意志的である確率を予測する. 3 つ目は主語有生性分類器 $C_{\mathrm{ani}}$ である. 主語有生性分類器は, エンコーダが出力するイベントのベクトル表現を入力として,そのイベントの主語が有生名詞である確率を予測する。意志性分類器と主語有生性分類器のパラメータはランダムに初期化する。 エンコーダと各分類器のパラメータは後述の目的関数を最小化するように最適化される. ## 4.3 正則化付き分類学習 モデルは意志性の分類と主語有生性の分類を同時学習する。その際,手がかり語だけに着目して分類することを抑制する正則化を導入する。意志性と主語有生性はどちらも統一的な方法で学習するため,意志性・主語有生性の区別を取り払い,ラベル付きデータセットを $\mathcal{D}^{l}$ ,ラベルなしデータセットを $\mathcal{D}^{u}$ ,ラベルを $y$ ,分類器を $C$ とする表記を導入する.以降,上記の表記に関しては, 意志性の学習では「vol」の下付き文字, 主語有生性の学習では「ani」の下付き文字を伴うものとして読み替えるものとする。 ## 4.3.1 分類 (CLS; classification) 主たる目的関数はラベル付きデータセット $\mathcal{D}^{l}$ の上で分類を学習するものである.形式的には以下のように書ける. $ \mathcal{L}_{\mathrm{CLS}}=\mathbb{E}_{(x, y) \sim \mathcal{D}^{l}} \operatorname{BCE}(y, C(E(x))) $ BCE はバイナリ交差エントロピーである. ## 4.3.2 正則化 (REG; regularization) 手がかり語に頼らない分類を学習するための正則化として 3 つの手法を検討する.実験では開発データに対する性能をもとに最適な正則化手法を選択する. Word Removal (WR) WR はバイアス削減の最も単純な手法である. WR は訓練データ中のテキストから特定の語句を削除することで,分類器がその語句に頼って予測を学習することを抑制する (Kennedy et al. 2020). 本研究ではラベル付けに利用した手がかり語に対して WR を適用し,手がかり語が予測において注目されることを抑制する。形式的には, 以下の目的関数の最小化を解く. $ \mathcal{L}_{\mathrm{WR}}=\mathbb{E}_{(x, y, w) \sim \mathcal{D}^{l}} \operatorname{BCE}(y, C(E(x \backslash w))) $ ここで $w$ はイベント $x$ 中に含まれる手がかり語, $x \backslash w$ は $x$ から $x$ を除いたテキストである. Sampling and Occlusion (SOC) SOC (Kennedy et al. 2020)はバイアス削減の手法であり, ある語句の予測における寄与度を計算し,それを最小化することで,その単語が予測において注目されることを抑制する.SOC ではまず,予測における寄与度を計算する語句の周りの文脈を学習済み言語モデルを用いてサンプリングする。そして,サンプリングした各文脈においてその語句をマスクトークンに置き換えたときと置き換えないときとの予測の差を計算し, その平均をその語句の予測における寄与度とする.SOC によって計算される寄与度は微分可能であるため, 通常の勾配法によって,特定の語句が予測において注目されることを抑制できる。本研究ではラベル付けに利用した手がかり語に対して SOC を適用する. 形式的には以下の目的関数の最小化を解く。 $ \begin{aligned} \mathcal{L}_{\mathrm{SOC}} & =\mathbb{E}_{(x, w) \sim \mathcal{D}^{l}}[\phi(x, w)]^{2} \\ \phi(x, w) & =\frac{1}{|\mathcal{S}|} \sum_{x^{\prime} \in \mathcal{S}}\left[C\left(E\left(x^{\prime}\right)\right)-C\left(E\left(x^{\prime} \backslash w\right)\right)\right]^{2} \end{aligned} $ ここで $w$ はイベント $x$ 中に含まれる手がかり語, $\mathcal{S}$ は $x$ を初期値として事前学習済みの言語モデルを用いて $w$ の文脈の単語をサンプリングして得たイベントの集合, $x^{\prime} \backslash w$ は $x^{\prime}$ 現れる wを padding トークンで置き換えたテキストである. Adversarial Domain Adaptation (ADA) ADA は教師なしドメイン適応の一手法である. トドメインのデータとみなして ADA を適用する。学習時には discriminator と呼ばれるニュー ラルネットワーク $D$ を追加で学習する. discriminator はエンコーダが出力するイベントのベクトル表現を入力として,それがソースドメイン由来であるなら 1 , ターゲットドメイン由来であるなら 0 を出力するように学習する。エンコーダは discriminator がその分類に失敗するよ うに,すなわちエンコーダがソースドメイン由来の特徴に対して 0 , ターゲットドメイン由来の特徴に対して 1 を出力するように学習する. 形式的には以下の目的関数の最小化を解く. $ \mathcal{L}_{\mathrm{ADA}}=\mathbb{E}_{x \sim \mathcal{D}^{l}} \mathrm{BCE}\left(0, D(E(x))+\mathbb{E}_{x \sim \mathcal{D}^{u}} \mathrm{BCE}(1, D(E(x)))\right. $ discriminator はこの目的関数の最大化を学習する. ## 4.3.3 一貫性 (CON; consistency) 手がかり語だに着目した分類を抑制する正則化に加えて,意志性分類と主語有生性分類の一貫性を学習することを考える。主語が有生名詞であることはイベントが意志的であることの必要条件である。したがって, 主語が無生名詞であるという予測とイベントが意志的であるという予測は両立しない.この関係を以下の目的関数を最小化することで学習する. $ \mathcal{L}_{\mathrm{CON}}=\mathbb{E}_{x \sim \mathcal{D}_{\mathrm{vol}}^{u}+\mathcal{D}_{\mathrm{ani}}^{u}} \max \left(0, C_{\mathrm{vol}}(E(x))-C_{\mathrm{ani}}(E(x))\right) $ 実験では, 意志性・主語有生性の一方の分類と一貫性の学習だけで他方の分類を解く設定も検証する.このとき,一貫性の学習は分類を学習している側の性能に影響しないことに注意されたい。一方の分類が学習されていない状況では,分類を学習している側が一貫性を学習することで得られる情報はないからである. ## 4.3.4 目的関数 上記の目的関数を重み付きで足し合わせ,最終的な目的関数を得る. $ \mathcal{L}=\mathcal{L}_{\mathrm{CLS}}+\alpha \mathcal{L}_{\mathrm{REG}}+\beta \mathcal{L}_{\mathrm{CON}} $ $\alpha$ と $\beta$ はハイパーパラメータとして設定される正則化の重み, $\mathcal{L}_{\mathrm{REG}}$ は $\mathcal{L}_{\mathrm{WR}}, \mathcal{L}_{\mathrm{SOC}}, \mathcal{L}_{\mathrm{ADA}}$ のいずれかである 5. ## 5 実験 提案手法の有効性を確認するため, 日本語と英語で実験を行った. ## 5.1 訓練データセット 4.1 節に記載の手続きにしたがって訓練データセットを構築した.  ## 5.1.1 日本語 生コーパスとして CC-100 (Conneau et al. 2020; Wenzek et al. 2020) 中の 3 千万文書を利用した。イベントの抽出には構文解析器 KNP (Kawahara and Kurohashi 2006) を用いた. イベント抽出では,まず極端に出現頻度の低い $D_{\mathrm{vol}}^{l}$ のイベントを生コーパス全体から取り出した 6 . この際,副詞の文字列を含まない文を構文解析の対象から除外し,計算コストを削減した。その後, $D_{\mathrm{vol}}^{u}, D_{\mathrm{ani}}^{l}, D_{\mathrm{ani}}^{u}$ のイベントを $D_{\mathrm{vol}}^{l}$ と同じ件数だけ生コーパスのサンプルから取り出した. イベントの頻度の情報を保存するため, 重複するイベントが得られても削除しなかった. 意志性のラベル付与のため,意志的副詞・非意志的副詞をそれぞれ 15 件ずつ整備した,表 1 に頻度上位 5 件の副詞,付録 B にすべての副詞を示す。主語有生性のラベルを付与するため, JumanDic 7 を知識源として用いた8 8 . JumanDic に登録されている語にはカテゴリ情報が付与されており,カテゴリが人または組織・団体のものを有生名詞,それ以外を無生名詞とした。 JumanDic に登録されている語の数はおよそ 3 万であった。主語は KNP の格解析によって同定した,具体的には,ガ 2 格の句があればそれを,ガ 2 格の句がなくガ格の句があればそれを主語として認定し, どちらもなければ主語有生性のラベルを付与しなかった. ## 5.1.2 英語 生コーパスとして CC-100 に収録されている 3 千万文書を利用した.イベントの抽出には spacy $^{9}$ を用い, 日本語と同様の手続きで $D_{\mathrm{vol}}^{l}, D_{\mathrm{vol}}^{u}, D_{\mathrm{ani}}^{l}, D_{\mathrm{ani}}^{u}$ のイベントを抽出した. 意志性のラベルを付与するため,意志的副詞・非意志的副詞をそれぞれ 10 件ずつ整備した.表 1 に頻度上位 5 件の副詞,付録 B にすべての副詞を示す。主語有生性のラベルを付与するた 表 1 意志的副詞・非意志的副詞それぞれの高頻度 5 件. 括弧内は頻度.  め, ConceptNet (Speer et al. 2017) から有生名詞・無生名詞のリストを得た. 具体的には, 有生名詞として「person」と「organization」の下位語, 無生名詞として「object」,「item」,「thing」,「artifact」,「location」の下位語を用いた。結果として, 2,604 件の有生名詞, 430 件の無生名詞が得られた。 ## 5.2 評価データセット $\mathcal{D}_{\mathrm{vol}}^{l}, \quad \mathcal{D}_{\mathrm{vol}}^{u}, \quad \mathcal{D}_{\mathrm{ani}}^{l}, \quad \mathcal{D}_{\mathrm{ani}}^{u}$ における分類器の性能を調べるため,それぞれについて評価用に人手で正解ラベルを付与した。なお, 本研究の主眼である意志性分類に関しては, 手がかり語の副詞を伴うイベントは出現する割合が低く,実テキストにおける性能は $\mathcal{D}_{\mathrm{vol}}^{u}$ に対する性能で近似できることに注意されたい. まず,各データセットから 1,200 件ずつユニークなイベントを抽出した.それらにクラウドソーシングで正解ラベルを付与した。意志性に関して,クラウドワーカーは各イベントに対して以下のラベルの中から 1 つを選んで付与した. - 主語がイベントに意志的に関与している. $\cdot$ 主語がイベントに意志的に関与していない. -どちらとも言えない. - 理解不能. 主語有生性に関して, クラウドワーカーは各イベントに対して以下のラベルの中から 1 つを選んで付与した。主語有生性のラベルは, 3.3 節で説明した通り,そのイベントにおいて主語が有生名詞であるか無生名詞であるかを表すものであり, 主語だけを取り出してそれが一般に有生名詞であるか無生名詞であるかを表すものではないことに注意されたい. ・主語が人または組織を表す. ・主語が人も組織を表さない. $\cdot$どちらとも言えない. - 理解不能. 各イベントに 5 人のワーカを割り当て,ラベル付けさせた。 クラウドワーカーは一度の作業で 10 件のイベントにラベルを付与した.日本語のクラウドソーシングプラットフォームとして, Yahoo!クラウドソーシング10を利用した. 品質管理のため, Yahoo!クラウドソーシングのチェック設問機能を利用した。この機能を用いて,事前にわれわれが正解を用意している簡単な設問(チェック設問)を 1 問追加した.チェック設問に誤答したワーカは不適格として, 報酬を支払わず,回答も破棄した,かかった費用は 24,000 円であった.英語のクラウドソーシングプラットフォームとして, Amazon Mechanical Turk (MTurk) を利用した. 品質管理のため,  一般に取られている慣行 (Berinsky et al. 2012)にならった。具体的には,ワーカをタスクの合格率が $95 \%$ 以上,アメリカ在住,1,000 タスク以上を完了している者に限定した.かかった費用は288USDであった. 表 2 にアノテー夕間の一致率および Fleiss' kappa,表 3 に各ラベルごとの最大得票数を得たイベントの件数を示す。日本語に関しては妥当な相関を確認できたが,英語に関してはわずかな相関しか確認できなかった。 アノテーションの平均的な一致率が高かった日本語のイベントに関して,アノテータ間で票が割れたものの一部を示す. (16)また、持久走も行いました。(V)(V: 3 名, NV: 2 名) (17)その他なにかあれば追記で書いていきます。(V)(V: 3 名, NV: 2 名) (18) ちょっと緊張してしまう。 (NV)(V: 2 名, NV: 3 名) (19)実は、驚くほど様々な効果・効能があります。(NV)(V: 2 名,NV: 3 名) 票の割れたイベントの多くは判断に困る例とは考えにくく,票が割れた原因は不真面目なクラウドワーカーがラベル付けを担当したことにあると考えるのが妥当であった.英語ではこの傾向がさらに顕著であった. 表 2 各データセットに掠けるアノテータ間の一致率(左)と Fleiss' kappa(右)。一致率は各イベントに関して最大の得票数を得た解答の割合の平均である。 表 3 各ラベルごとの最大得票数を得たイベントの件数. } & 31,812 & 47,926 \\ 表 4 データセットの統計. + がついているものは, 最も件数が少なかった $\mathcal{D}_{\mathrm{vol}}^{l}$ のイベント数に合わせて,同量のイベントを抽出したことを表す. この観察から,信頼できるクラウドワーカーによってラベル付けが行われたことが期待される,アノテータ間の一致率が $80 \%$ 以上(5 名中 4 名の回答が一致)のイベントを抽出し,評価データとして利用した。この条件のもとで採用されるイベントと除かれるイベントの間に定性的な違いは確認できず,この条件で除かれたイベントに対しても, 本研究で構築した評価データにおける性能と同等程度の性能で分類が可能と期待する。評価データのうち,半分は開発デー 夕,残りの半分はテストデータとした.分割はラベルごとにランダムに行った.表 4 にデータセットの統計を示す. ## 5.3 実装の詳細 している事前学習済みモデル11を用いた,英語の実験ではオリジナルの BERT $_{\text {BASE }}$ の cased モデルを用いた. BERT の事前学習時の入力形式にならい,イベントのトークン列の先頭に CLS トークン, 末尾に SEP トークンを追加して入力テキストを構成した. CLS トークンの最終層のベクトル表現をイベントのベクトル表現として利用した。意志性・主語有生性の分類器は ReLU 関数を非線層とする 3 層パーセプトロンとした。分類器の出力はシグモイド関数を用いて 0 から1の範囲の実数值に変換した. SOC におけるサンプル数 $|\mathcal{S}|$ は 3 とした. 文脈のサンプリングは,エンコーダに用いた BERT を使ってギブスサンプリングを行うことで実現した (Wang and Cho 2019). ADA では discriminator を ReLU 関数を非線層とする 3 層パーセプトロンとして構成・学習した。 $\alpha$ との値は $\{0.0,0.01,0.1,1.0\}$ の中から選択した. モデルはバッチサイズを 256 として 3 エポック学習した ${ }^{12}$. モデルのパラメータは Adam (Kingma and Ba 2015) で最適化した.学習率は $3 \mathrm{e}-5$ とし ${ }^{13}, 10 \%$ の学習が完了した時点で学習率がピークになるように線形のスケジューリングを行った。モデル選択では, 100 ステップごとに $\mathcal{D}_{\mathrm{vol}}^{u}$ の開発デー 夕における精度を計算し, 最高スコアを達成した時点のパラメータを採用した. $D_{\mathrm{vol}}^{u}$ の性能に基づいてモデル選択を行うのは,意志的・非意志的行為を表す副詞を伴うイベントの出現頻度が低く, 実テキストにおける意志性分類の性能が $D_{\mathrm{vol}}^{u}$ に対する性能で近似できるからである.評価指標には AUC を用いた。モデルは異なるランダムシードで 3 回学習し, その平均・分散を計算した。モデルの実装には PyTorch を用いた. ## 5.4 実験結果 表 5 に日本語における実験結果を示す。主たる関心である $\mathcal{D}_{\mathrm{vol}}^{u}$ を含む,全てのデータセットで正則化と同時学習を併せて利用したモデルが最高精度を達成した. $\mathcal{D}_{\mathrm{vol}}^{u}$ に対する最高精度は, 意志性を CLS+REG (SOC), 主語有生性を CLS+REG (WR) で学習したモデルが達成した (AUC: 96.7, 正解率: 92.2, 精度: 94.9, 再現率: 90.8, F 值: 92.8).これはベースラインである意志性を CLS で学習したモデルの精度 (AUC: 89.5, 正解率: 83.5, 精度: 91.0, 再現率: 78.2, F 值: 84.1)を大きく上回っている。主語有生性をWR で学習するのが有効なことには主語の省略が関係していると考える。主語有生性のラベルを付与する際, 主語の同定を格解析によって行ったため, 主語が省略されているイベントには主語有生性のラベルが付与されず,それらはラベルなしデータセット $\mathcal{D}_{\mathrm{ani}}^{u}$ に追加された. WRによって主語をテキストから除外した上でその有生性を予測することを学習したことで,主語が省略されているイベントに汎化する推論が学習され, それが精度の向上に繋がったのだと考える。一貫性の学習は有効に機能しなかった. _{\text {vol }}^{l}$ を正則化なし・主語有生性の同時学習なしで学習する設定において, $\{5 \mathrm{e}-5,3 \mathrm{e}-5,2 \mathrm{e}-5\}$ の範囲を探索し,分類精度に影響しないことを確認した。イパパラメータの探索範囲を減らすため, 本実験では学習率は $3 \mathrm{e}-5$ で固定とした. } (a) 意志性分類の結果. (b) 主語有生性分類の結果. 表 5 日本語における意志性・主語有生性分類の結果.評価指標は AUC である.数値は異なるランダムシードを用いて 3 回実験を行った際の平均と分散である。太字のスコアはすべてのモデルのうち最も平均スコアが高いことを表す. 正則化 (REG) には開発データに対する性能をもとに選択された手法を併記している。 ハイフン (-) はその分類をラベル付きデータを用いて学習していないことを示す. 表 6 に英語における実験結果を示す。英語においても全てのデータセットで正則化と同時学習を併せて利用したモデルが最高精度を達成した. 主たる関心である $\mathcal{D}_{\mathrm{vol}}^{u}$ に対する最高精度は,意志性を CLS+REG (SOC), 主語有生性を CLS で学習し, 加えて一貫性を学習したモデルが達成した (AUC: 75.8, 正解率: 74.3, 精度: 66.1 再現率: $65.1, \mathrm{~F}$ 値: 65.6).これはベースライン (a) 意志性分類の結果. (b) 主語有生性分類の結果. 表 6 英語における意志性・主語有生性分類の結果. 評価指標は AUC である.数値は異なるランダムシードを用いて 3 回実験を行った際の平均と分散である。太字のスコアはすべてのモデルのうち最も平均スコアが高いことを表す. 正則化 (REG) には開発デー夕に対する性能をもとに選択された手法を併記している。 ハイフン (-) はその分類をラベル付きデータを用いて学習していないことを示す. である意志性を CLS で学習したモデルの精度(AUC: 66.2, 正解率: 69.5, 精度: 65.8, 再現率: 39.7, F 值: 49.5)を大きく上回っている。日本語のスコアと比較して, 英語のスコアは全体的に低い傾向が見て取れた。この主たる原因は評価データセットの品質にあった. 5.2 節で述べたように,英語の評価データのラベル付けにあたったクラウドワーカーには不真面目な者が多 かった.英語の評価データの中にそうしたクラウドワーカーの票が偶然誤ったラベルに集まったことで採用されたと考えられるイベントが一定数含まれており, それによって分類器の性能が過小評価されていた。日本語に関しては,そうした例はほとんど見られなかった。日本語のラベル付けを行ったクラウドワーカーには不真面目な者が少なく, 複数の不真面目なクラウドワーカーが特定のイベントのラベル付けに割り当てられかつ誤ったラベルに票が集まるケースが少なかったからだと考えられる.高品質な英語データセットの構築は今後の課題である. ## 6 分析 ## 6.1 定性分析 提案手法で学習したモデルが 1 節で言及した文脈依存性を捉えられるか定性的に分析した。分析には $\mathcal{D}_{\mathrm{vol}}^{u}$ において最高精度を達成したモデルを用いた.ランダムシードを変えて学習したモデルが 3 つ存在するが, $\mathcal{D}_{\text {vol }}^{u}$ の開発データでの性能に関して 2 番目のモデルを用いた. 日本語に関して, $\mathcal{D}_{\text {vol }}^{u}$ における最良のモデルは意志性を CLS+REG (SOC), 主語有生性を CLS+REG (WR) で学習したものであったため, これを分析に用いた. まず,例 (1-a) と例 (1-b) を用いてモデルが述語の項の違いを認識して意志性を分類できるか調べ,これらが正しく分類できることを確認した,次に,例 $(2-a)$ と例 $(2-b)$ を用いてモデルが副詞の意味を捉えて意志性を分類できるか調べ,こちらについても正しく分類できることを確認した. 最後に,例 (3-a) と例 (3-b) を用いて主語有生性を文脈を考慮して予測できるか調べ,こちらについてもやはり正しく分類できることを確認した。分析に用いた例のように,イベントの一部が共通で,残りの部分の違いによって意志性・主語有生性が変化する例を集めたベンチマークを構築すれば,こうした文脈理解がどの程度可能なのか定量的に調べることができる。これは今後の課題としたい. 一方で,モデルが意志性の認識に失敗する例もあった,最も顕著だったのは述語が「いる」のイベントであった.「いる」は状態動詞であり,基本的に状態を表すが,主語が有生名詞である場合には意志的な動作を表すことがある。この認識誤りはイベントの主語が省略されている場合に特に顕著であり,省略された主語の有生性を予測する難しさが「いる」の意味理解をさらに難しくしていると推測される。 この問題に対する解決策として,学習時に前後のイベント,すなわちより広い文脈を考慮することが考えられる、イベントの意味が異なれば,その前後に現れるイベントの分布も異なることが期待できる,そうした分布の異なりを学習に利用することで,表層的に類似しているイベント同士の意味の異なりをより精緻に捉えられるモデルが構築できると期待できる. 英語に関して, $\mathcal{D}_{\text {vol }}^{u}$ における最良のモデルは意志性を CLS+REG (SOC), 主語有生性を CLS で学習し, 加えて予測の一貫性を考慮したものであり, これを用いて定性分析を行った. 結果,英語についても,モデルが文脈を考慮した分類を行えていることを確認した,たとえば,以下 の例は述語はどちらも同じ「made」であるが,項の違いを認識して,前者を意志的,後者を非意志的と正しく分類できた. a. I made pancakes. (V) b. I made a mistake. (NV) 以下の例もまた「for him」という副詞句の有無によるイベントの意味の違いを認識し,前者を非意志的,後者を意志的と正しく分類できた. a. I tumbled. (NV) b. I tumbled for him. (V) ## 6.2 意志性のラベル付けに用いる副詞の種類の数が性能に与える影響 提案手法は, 生コーパス中のイベントに意志性のラベルを付与するために意志的副詞・非意志的副詞を人手で準備する必要がある。分析として, 日本語のデータセットを用いて, 副詞の種類の数が主たる関心である $\mathcal{D}_{\mathrm{vol}}^{u}$ の分類精度に与える影響を調査した. 具体的には,意志的・非意志的な行為を表す副詞をそれぞれ頻度順に並べたときの上位 1 件, 2 件, 4 件, 8 件, 15 件を用いる場合の精度を比較した.副詞の種類数が増えると同じ大きさの生コーパスから得られるラベル付きデータの数も増えるが, ここでは副詞の種類数が性能に与える影響を調べるため,頻度上位 1 件の副詞を用いたときに得られるラベル付きデータの件数 23,408 件(「あえて」にマッチしたイベント 5,293 件と「思わず」にマッチしたイベント 18,115 件の合計)に合わせてサンプリングした. モデルとして,意志性のラベル付きデータのみを正則化なしで学習する素朴な設定(ベースライン)と, $\mathcal{D}_{\mathrm{vol}}^{u}$ におる最高精度を達成した, 意志性を CLS+REG (SOC), 主語有生性を CLS+REG (WR) で学習する設定(提案手法)の 2 つを用いた。学習時の設定は 5.3 節に記載のものと同じである. 表 7 に結果を示す. 両方のモデルにおいて,ラベル付けに利用する副詞の種類を増やすことで $\mathcal{D}_{\mathrm{vol}}^{u}$ の性能が向上することが見て取れた. これは,副詞の種類を増やすことでラべル付きデータの多様性が増し, 多くのイベントに汎化する推論が学習できたからだと考えられる。また,驚くべきことに,提案手法は選定した副詞の中で最も高頻度であった「あえて」と「思わず」だけをラベル付与に用いた設定でも 87.4 ポイントの AUC という高い分類精度を達成した. これは,「あえて」と「思わず」が多様な文脈で現れる副詞であり,これらの副詞を含むイベントからだけでも,意志性分類がかなり学習できることを示唆している。 表 7 日本語の $\mathcal{D}_{\mathrm{vol}}^{u}$ のテストデータにおける意志性のラベル付けに用いる副詞の種類数による分類性能の変化. 評価指標は AUC であり,異なるランダムシードを用いて 3 回実行した際の平均と分散を記載している。最も右の結果は,表 5 からの再掲であり,頻度上位 1 件の副詞を用いたときに得られるラベル付きデータの件数に合わせてサンプリングを行わず,表 4 に記載の数のデータを用いたときの結果である. 表 8 正しいラベルが付与されていたイベントの割合. ## 6.3 ヒューリスティクスの精度 ラベル付きデータにはヒューリスティクスを用いてラベルを付与しているため,誤ったラべルが付与されるケースもある。しかし,あまりにラベル付けが誤っていると,そこから期待する分類結果が得られるような分類器を学習することは困難である. 本研究で構築したデータセットのもとでかなりの精度の分類器を学習できたという事実を踏まえ,他言語や別ドメインのデータに提案手法を適用する際の参考になるように,ラベル付きデータの品質を調べた. $\mathcal{D}_{\mathrm{vol}}^{l}$ と $\mathcal{D}_{\mathrm{ani}}^{l}$ からポジティブ・ネガティブのイベントをそれぞれ 100 件ずつ抽出し, それらに正しいラベルが付与されているかどうか, 著者 1 名が人手で確認した. 表 8 に結果を示す. ほとんどのイベントに正しいラべルが付与されていることが確認できた.日本語の $\mathcal{D}_{\mathrm{ani}}^{l}$ のネガティブ(無生名詞)のイベントは比較的ラベル付けの精度が悪かった. これは主に主語の認識に失敗に起因するものであった. また,英語の $\mathcal{D}_{\mathrm{ani}}^{l}$ のネガティブ(無生名詞)のイベントも比較的ラベル付けの精度が悪かった。これは,「location」の下位語を無生名詞として利用していたが,国名など一部の名詞は組織や集団を表す有生名詞としての用法もあることに起因していた. ## 7 おわりに 本研究では, 意志性分類と主語有生性の密接な関係に注目し,ヒューリスティクスを利用し て自動構築した訓練データのもとでこれらの正則化付き同時学習を行う,弱教師あり学習手法を提案した。日本語・英語の実験を通して,提案手法によりラベル付きデータを人手で構築することなく高精度の分類器を学習できることを確認した。 本研究では単独のイベントを入力としてそれが意志的であるかどうか分類する設定を考えたが,文や段落,文章などイベントより大きな言語単位を入力とし,入力テキスト中の各イベントの意志性を分類する設定では,イベントの前後の文脈を考慮しなければならないケースがある。例えば,例 (22)の下線部のイベントは,前の文脈を考慮しないなら非意志的とみなすのが自然であるが,前の文脈を考慮すれば意志的とみなすのが自然である. $ \text { 私は彼女を庇って非難を受けた。(V) } $ このようなケースに対応できないことは本研究の限界であり,より広い文脈を考慮した意志性分類は今後の課題である. 意志性はイベントの基本的な属性であり,その応用は広い。しかし,意志性に着目した研究はほとんど存在しない。これは, 容易に利用可能な意志性分類器も意志性分類器を低コストで構築する手法もなく, 意志性に基づく処理をするにはそれなりのコストをかけて意志性分類器を構築することから始める必要があったからである。その意味で,本研究は意志性に着目した研究を促進する可能性を持っている。今後は, 本研究で構築した意志性分類器をテキストマイニング等の諸タスクで活用することに取り組み,そこで得られた観察をもとに手法のさらなる改善に取り組みたい. ## 謝 辞 本研究の一部は The Thirty-Sixth AAAI Conference on Artificial Intelligence (AAAI 2022) で発表したものである (Kiyomaru and Kurohashi 2022). 本研究はヤフー株式会社の支援を受けた.ここに感謝の意を表する。 ## 参考文献 Abe, S., Inui, K., and Matsumoto, Y. (2008a). "Acquiring Event Relation Knowledge by Learning Cooccurrence Patterns and Fertilizing Cooccurrence Samples with Verbal Nouns." In Proceedings of the 3rd International Joint Conference on Natural Language Processing: VolumeI, pp. 497-504. Abe, S., Inui, K., and Matsumoto, Y. (2008b). "Two-Phased Event Relation Acquisition: Cou- pling the Relation-Oriented and Argument-Oriented Approaches." In Proceedings of the 22nd International Conference on Computational Linguistics (Coling 2008), pp. 1-8, Manchester, UK. Coling 2008 Organizing Committee. Berinsky, A., Huber, G., and Lenz, G. S. (2012). "Evaluating Online Labor Markets for Experimental Research: Amazon.com's Mechanical Turk." Political Analysis, 20, pp. 351-368. Bolukbasi, T., Chang, K.-W., Zou, J. Y., Saligrama, V., and Kalai, A. T. (2016). "Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings." In Lee, D., Sugiyama, M., Luxburg, U., Guyon, I., and Garnett, R. (Eds.), Advances in Neural Information Processing Systems, Vol. 29. Curran Associates, Inc. Chambers, N. and Jurafsky, D. (2008). "Unsupervised Learning of Narrative Event Chains." In Proceedings of ACL-08: HLT, pp. 789-797, Columbus, Ohio. Association for Computational Linguistics. Conneau, A., Khandelwal, K., Goyal, N., Chaudhary, V., Wenzek, G., Guzmán, F., Grave, E., Ott, M., Zettlemoyer, L., and Stoyanov, V. (2020). "Unsupervised Cross-lingual Representation Learning at Scale." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8440-8451, Online. Association for Computational Linguistics. Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota. Association for Computational Linguistics. Du, L., Ding, X., Liu, T., and Li, Z. (2019). "Modeling Event Background for If-Then Commonsense Reasoning Using Context-aware Variational Autoencoder." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 2682-2691, Hong Kong, China. Association for Computational Linguistics. Ganin, Y. and Lempitsky, V. (2015). "Unsupervised Domain Adaptation by Backpropagation." In Bach, F. and Blei, D. (Eds.), Proceedings of the 32nd International Conference on Machine Learning, Vol. 37 of Proceedings of Machine Learning Research, pp. 1180-1189, Lille, France. PMLR. Ganin, Y., Ustinova, E., Ajakan, H., Germain, P., Larochelle, H., Laviolette, F., March, M., and Lempitsky, V. (2016). "Domain-Adversarial Training of Neural Networks." Journal of Machine Learning Research, 17 (59), pp. 1-35. Inui, T., Inui, K., and Matsumoto, Y. (2003). "What Kinds and Amounts of Causal Knowledge Can Be Acquired from Text by Using Connective Markers as Clues?" In International Conference on Discovery Science, pp. 180-193. Springer. Jin, X., Wei, Z., Du, J., Xue, X., and Ren, X. (2020). "Towards Hierarchical Importance Attribution: Explaining Compositional Semantics for Neural Sequence Models." In International Conference on Learning Representations. Kawahara, D. and Kurohashi, S. (2006). "A Fully-Lexicalized Probabilistic Model for Japanese Syntactic and Case Structure Analysis." In Proceedings of the Human Language Technology Conference of the NAACL, Main Conference, pp. 176-183, New York City, USA. Association for Computational Linguistics. Kennedy, B., Jin, X., Mostafazadeh Davani, A., Dehghani, M., and Ren, X. (2020). "Contextualizing Hate Speech Classifiers with Post-hoc Explanation." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 5435-5442, Online. Association for Computational Linguistics. Kingma, D. P. and Ba, J. (2015). "Adam: A Method for Stochastic Optimization." In Proceedings of the 3rd International Conference on Learning Representations (ICLR). Kiyomaru, H. and Kurohashi, S. (2022). "Minimally-Supervised Joint Learning of Event Volitionality and Subject Animacy Classification." Proceedings of the AAAI Conference on Artificial Intelligence, 36 (10), pp. 10921-10929. Lee, H.-Y. and Jun, S. (2008). "Constructing an Ontology of Coherence Relations: An Example of 'Causal Relation'." In Proceedings of the 22nd Pacific Asia Conference on Language, Information and Computation, pp. 245-252, The University of the Philippines Visayas Cebu College, Cebu City, Philippines. De La Salle University, Manila, Philippines. Liu, C.-H., Moriya, Y., Poncelas, A., and Groves, D. (2017). "IJCNLP-2017 Task 4: Customer Feedback Analysis." In Proceedings of the IJCNLP 2017, Shared Tasks, pp. 26-33, Taipei, Taiwan. Asian Federation of Natural Language Processing. Ramponi, A. and Plank, B. (2020). "Neural Unsupervised Domain Adaptation in NLP-A Survey." In Proceedings of the 28th International Conference on Computational Linguistics, pp. 6838-6855, Barcelona, Spain (Online). International Committee on Computational Linguistics. Reisinger, D., Rudinger, R., Ferraro, F., Harman, C., Rawlins, K., and Van Durme, B. (2015). "Semantic Proto-Roles." Transactions of the Association for Computational Linguistics, 3, pp. 475-488. 齋藤純, 坂口智洋, 柴田知秀, 河原大輔, 黒橋禎夫 (2018). 述語項構造に基づく言語情報の基本 単位のデザインと可視化. 言語処理学会第 24 回年次大会発表論文集, pp. 93-96, 岡山. [J. Saito et al. (2018). Jutsugo Ko Kozo ni Motozuku Gengo Joho no Kihon Tan’i no Dezain to Kashika. Proceedings of the 24th Annual Meeting of the Association for Natural Language Processing, pp. 93-96.]. Shah, D., Lei, T., Moschitti, A., Romeo, S., and Nakov, P. (2018). "Adversarial Domain Adaptation for Duplicate Question Detection." In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 1056-1063, Brussels, Belgium. Association for Computational Linguistics. Shen, J., Qu, Y., Zhang, W., and Yu, Y. (2018). "Wasserstein Distance Guided Representation Learning for Domain Adaptation." Proceedings of the AAAI Conference on Artificial Intelligence, 32 (1), pp. 4058-4065. Speer, R., Chin, J., and Havasi, C. (2017). "ConceptNet 5.5: An Open Multilingual Graph of General Knowledge." In Proceedings of the 31st AAAI Conference on Artificial Intelligence, AAAI'17, pp. 4444-4451. AAAI Press. Teichert, A., Poliak, A., Van Durme, B., and Gormley, M. (2017). "Semantic Proto-Role Labeling." Proceedings of the AAAI Conference on Artificial Intelligence, 31 (1), pp. 4459-4465. Wang, A. and Cho, K. (2019). "BERT has a Mouth, and It Must Speak: BERT as a Markov Random Field Language Model." In Proceedings of the Workshop on Methods for Optimizing and Evaluating Neural Language Generation, pp. 30-36, Minneapolis, Minnesota. Association for Computational Linguistics. Wenzek, G., Lachaux, M.-A., Conneau, A., Chaudhary, V., Guzmán, F., Joulin, A., and Grave, E. (2020). "CCNet: Extracting High Quality Monolingual Datasets from Web Crawl Data." In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 4003-4012, Marseille, France. European Language Resources Association. White, A. S., Reisinger, D., Sakaguchi, K., Vieira, T., Zhang, S., Rudinger, R., Rawlins, K., and Van Durme, B. (2016). "Universal Decompositional Semantics on Universal Dependencies." In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1713-1723, Austin, Texas. Association for Computational Linguistics. Zhao, J., Wang, T., Yatskar, M., Cotterell, R., Ordonez, V., and Chang, K.-W. (2019). "Gender Bias in Contextualized Word Embeddings." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 629-634, Minneapolis, Minnesota. Association for Computational Linguistics. Zhao, J., Wang, T., Yatskar, M., Ordonez, V., and Chang, K.-W. (2017). "Men Also Like Shop- ping: Reducing Gender Bias Amplification using Corpus-level Constraints." In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 2979-2989, Copenhagen, Denmark. Association for Computational Linguistics. ## 付録 ## A モダリティのリスト 本研究ではモダリテイを伴うイベントは対象としなかった.表 9 に本研究で扱ったモダリティのリストとその例を示す. ## B 意志的副詞・非意志的副詞のリスト 意志性のラベル付与のために準備した意志的副詞・非意志的副詞のリストは以下の通りである。括弧内の数字は頻度を表す。 日本語の意志的副詞あえて $(5,293)$, 急いで $(4,187)$, じっくり $(4,017)$, 慎重に $(3,743)$, のんびり $(3,262)$, わざわざ $(3,222)$, さっさと $(1,945)$, 集中して $(1,194)$, 意図的に $(920)$, わざと (880), 意識的に (786), 念入りに (766), 気楽に (591), ちゃっかり (510), 注意深く (496). 日本語の非意志的副詞思わず $(18,115), つい(15,897)$, 自動的に $(14,212)$, ふと $(12,050), つ$ いつい $(10,054)$, 自動で $(5,058)$, 気づいたら $(1,414)$, うっかり $(1,333)$, 幸いにも $(950)$, 幸運にも (571), 思いがけず (546), あいにく (422), 幸運なことに (285), 不運にも (63), 不運なこ 表 9 モダリティのリストとその例. とに (32). 英語の意志的副詞 carefully $(13,594)$, thoroughly $(12,468)$, actively $(10,379)$, deliberately $(3,366)$, intentionally $(2,713)$, consciously $(1,846)$, purposely $(1,391)$, hurriedly $(942)$, attentively (839), proactively (388). 英語の非意志的副詞 unfortunately $(13,070)$, automatically $(12,824)$, accidentally $(5,272)$, unexpectedly $(3,106)$, luckily $(1,894)$, instinctively $(1,321)$, unconsciously $(1,059)$, inadvertently (999), unintentionally (635), carelessly (384). ## 略歴 清丸寛一: 2022 年京都大学大学院情報学研究科博士課程修了. 博士 (情報学).同年より京都大学大学院情報学研究科特定研究員. 自然言語処理の研究に従事. 言語処理学会, ACL, 各会員. 黒橋禎夫:1994 年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士 (工学)。2006 年 4 月より京都大学大学院情報学研究科教授. 自然言語処理, 知識情報処理の研究に従事. 言語処理学会 10 周年記念論文賞, 同 20 周年記念論文賞, 第 8 回船井情報科学振興賞, 2009 IBM Faculty Award 等を受賞. 2014 年より日本学術会議連携会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# Hie-BART: 階層型 BART による生成型要約 秋山 和輝 $\dagger \cdot$ 田村 晃裕 ${ }^{\dagger} \cdot$ 二宮 崇 $\dagger \cdot$ 梶原 智之 $\dagger$ } 本稿では, BART モデルに文書の階層構造 (文-単語構造) を取り込んだ階層型 BART (Hie-BART) を提案する。既存の BART モデルは, 生成型文書要約タスクにおいて 高い要約精度を達成しているが, 文レベルと単語レベルの情報の相互作用を考慮し ていない。一方,機械翻訳タスクでは,単語とフレーズ間の関係を把握する MultiGranularity Self-Attention (MG-SA) が提案されており,この技術によってニューラ ル機械翻訳モデルの性能が向上されている。提案手法である Hie-BART モデルでは, BART モデルのエンコーダに MG-SA を組み込むことで, 文と単語の階層構造を捉 える. 評価実験の結果, 提案手法は CNN/Daily Mail データセットを用いた評価で は ROUGE-L において 0.1 ポイントの改善が見られた. キーワード : 生成型文書要約, BART, 階層構造 ## Hie-BART: Abstractive Summarization by Hierarchical BART Kazuki Akiyama $^{\dagger}$, Akiniro $^{\text {Tamura }}{ }^{\dagger \dagger}$, Takashi Ninomiya $^{\dagger}$ and Tomoyuki Kajiwara ${ }^{\dagger}$ This paper proposes a new abstractive summarization model for documents, hierarchical BART (Hie-BART), which captures the hierarchical structures of documents (i.e., their sentence-word structures) in the BART model. Although the existing BART model has achieved state-of-the-art performance on document summarization tasks, it does not account for interactions between sentence-level and word-level information. In machine translation tasks, the performance of neural machine translation models can be improved with the incorporation of multi-granularity self-attention (MG-SA), which captures relationships between words and phrases. Inspired by previous work, the proposed Hie-BART model incorporates MG-SA into the encoder of the BART model for capturing sentence-word structures. As for the improvement of summarization performance by the proposed method, the evaluation using the CNN/Daily Mail dataset shows an improvement of 0.1 points on ROUGE-L. Key Words: Abstractive Document Summarization, BART, Hierarchical Structure  ## 1 はじめに 自動要約技術は, 要約作成時のアプローチによって抽出型と生成型の 2 種類の手法に分けられる。抽出型自動要約は, 入力文書中の重要と思われる文を識別・抽出し, 抽出した文を結合させたものを要約とする方法である。一方, 生成型自動要約は, 入力文書を中間表現に変換し, その中間表現を基に要約の文章を一から生成する方法である。本研究では, 生成型の自動要約モデルの技術に着目する. 生成型自動要約モデルでは, 入力文書中にない単語も利用することができるため, 自然な要約を生成することができ, ニュース記事や論文などの自動要約に役立つ. 生成型自動要約や機械翻訳などの系列変換タスクでは,入力テキストから「文と単語」・「フレーズと単語」・「単語と文字」などの階層構造を捉えることで要約および翻訳精度の改善を実現している。機械翻訳において, Hao et al. (2019)は, Transformer (Vaswani et al. 2017)に基づくニューラル機械翻訳モデルにおいて,単語とフレーズの関係を考慮する Multi-Granularity Self-Attention (MG-SA) を提案している。MG-SA は, 入力テキストを複数の粒度(単語やフレーズ)に分解し,それぞれの粒度を Multi-head Self-Attention Networks (SANs)の各へッドに割り当てる。このMG-SAにより,単語間だけでなく単語とフレーズ間の相互作用をモデルに組み込むことが可能となる。また, 自動要約において, Hierarchical Neural Autoencoder (Li et al. 2015) や HIBERT (Zhang et al. 2019) では, エンコーダやデコーダを単語および文レべルに階層化することで,単語と文の階層構造を考慮している。これらのモデルでは,入力テキストに対し単語単位での処理に加え文単位でも処理することで,文と単語間の関係性を考慮している。 近年, 生成型自動要約は, ニューラルネットワークに基づくエンコーダ・デコーダモデルが出現したことで,要約の品質が大きく向上した (Rush et al. 2015). その中でも,高い精度を報告しているモデルの多くが事前学習 (Liu and Lapata 2019; Raffel et al. 2020; Lewis et al. 2020) を導入している。既存の事前学習モデルの中でも,BART モデル (Lewis et al. 2020) は高い精度での自動要約を可能にしている. BART モデルは Transformer モデル (Vaswani et al. 2017) をべースとした事前学習モデルで,5つの事前学習法による実験を行っている.BART モデルは高性能なモデルだが,要約生成時に文書の階層構造をとらえる構造にはなっておらず,文と単語間の関係性が組み込まれていない。よって,BART モデルにおいても文レべルの情報を捉えることで,さらなる精度向上が見込める。 そこで本研究では, MG-SAの概念を BART モデルに適用し,文と単語の階層的な関係を考慮した要約を可能とする手法として, Hierarchical-BART (Hie-BART) を提案する。具体的には,入力文書を単語レベルと文レベルの情報に分割し, BART におけるエンコーダのSANs 層では,単語レベルの関連を計算するだけではなく, 一部のヘッドにおいて文レべルの関連を計算する。 そして, 単語レベルと文レベルのマルチヘッドの出力を結合させることで, 単語レベルと文レベルの双方を考慮した要約生成を行う。ここで, MG-SA はフレーズ単位での処理を行うのに対 し, Hie-BART では文単位で処理を行う,本研究では,自動要約における単語と文の階層構造を利用した従来研究に基づいて応用するため,フレーズ単位ではなく文単位で処理を行う. 実験の結果,BART に比べ提案手法では,ROUGE-L (Lin 2004)の F 值が,CNN/DailyMail データセットでは 0.1 ポイント改善することを確認した。また,分析の結果,マルチヘッドにおいて,文レベルのへッドを多く含むよりも,単語レベルのへッドを多く含む方がより精度の高い要約を生成することが確認できた. ## 2 関連研究 ## 2.1 従来のニューラルネットワークに基づく生成型自動要約モデル ニューラルネットワークに基づく生成型自動要約モデルの基礎として,LSTMをべースとした Pointer Generator Networks (See et al. 2017) モデルがある. このモデルは, CopyNet モデル (Gu et al. 2016) および Forced-Attention Sentence Compression モデル (Miao and Blunsom 2016) の手法を応用し,単語の生成時に要約元文書からの単語のコピーを同時に行うことで,未知語への対処をしている。また,このモデルでは,入力文書中の内容が要約に含まれた度合いを示す coverage vector (Tu et al. 2016) を利用した Coverage Mechanism という機構が適用されている。この機構により, 生成した要約内で同じ内容が繰り返される問題を軽減している. 文レベル情報を利用した自動要約モデルとして,LSTMをべースとした Hierarchical Neural Autoencoder (Li et al. 2015) がある. このモデルでは,文章をエンコードおよびデコードする際, 単語単位での処理に加え文単位でも処理することで,文と単語間の関係性を考慮している。 これにより,単語と文の階層構造を考慮でき,要約性能を向上させている.また,このモデルを応用し,エンコーダ部分を階層化した Hierarchical networks (Nallapati et al. 2016) がある. Hierarchical Neural Autoencoder が文レベルでのアテンションのみを算出しているのに対し, Hierarchical networks では, 文レベルと単語レベルの両方のアテンションを算出している. また,事前学習モデルである BERT (Devlin et al. 2019) をべースとした BERTSUM (Liu and Lapata 2019) や HIBERT (Zhang et al. 2019) がある. BERT モデルは, Transformer エンコー ダ (Vaswani et al. 2017) をベースとした,様々なタスクに適応可能な事前学習モデルである. 自動要約タスクでは, BERTSum (Liu and Lapata 2019) や, HIBERT (Zhang et al. 2019) において BERT が適用されている。 BERTSUM モデルは,BERT モデルを自動要約タスクに適応させたモデルで,抽出型および生成型要約モデルとして利用可能なモデルである. BERTSUM モデルでは, 各文の先頭に特殊トークン([CLS]トークン)を付与し,単語間の情報に加え文間の情報を捉えるようにしている.HIBERT モデルは,BERT モデルをベースとした抽出型要約モデルである.HIBERT モデルでは,エンコーダ部分を文レベルおよび単語レベルに階層化し事前学習をすることで,単語と文の階層構造を考慮している。 ## 2.2 BART BART モデル (Lewis et al. 2020) は, Transformer モデル (Vaswani et al. 2017)の構造をベー スとした, 汎用的な事前学習モデルである。BART モデルの事前学習法を図 1 に示す. 事前学習の手法として, Token Masking, Sentence Permutation, Document Rotation, Token Deletion, Text Infilling の 5つの手法を提案している.この5つの手法のうち, Sentence Permutation と Text Infilling を組み合わせたものが最高精度となっており, 最終的な評価時に使用されている。 Token Masking は, BERT (Devlin et al. 2019) と同じ手法で,ランダムにトークンをマスクし,復元する事前学習法である. Sentence Permutation は,文書内の文の場所をランダムに交換した文書を元の文書に復元する事前学習法である. Document Rotation は,文書中からランダムにトークンを選び,そのトークンから始まるように文書内のトークンをローテーションさせた文書を, 元の文書に復元する事前学習法である. Token Deletion は, 元の文書からランダムにトー クンを削除した文書を, 元の文書に復元する事前学習法である. Text Infilling は, SpanBERT (Joshi et al. 2020) を基にした手法で, 複数の単語列を一つのマスクトークンに置き換えたり,文中にマスクトークンを挿入した文書を,元の文書に復元する事前学習法である. BART モデルの概要図を図 2 に示す. BART モデルは入力系列 $\mathbf{x}=x_{0}, x_{1}, \cdots, x_{S}$ を出力系列 $\mathbf{y}=y_{0}, y_{1}, \cdots, y_{T}$ に以下の式のように変換する. $ \begin{aligned} & \mathbf{h}=\text { BartEncoder }(\mathbf{x}) \\ & \mathbf{y}=\text { BartDecoder }(\mathbf{h}) \end{aligned} $ ここで, $\mathbf{h}$ は中間表現, BartEncoder は図 2 の左部分, BartDecoder は図 2 の右部分である. BART のエンコーダとデコーダは, Embedding 層を持ち, それぞれ, 入力系列と出力系列内の各単語を $d$ 次元の Embedding ベクトルに変換する,BART エンコーダ,BART デコーダでは,それぞれ,レイヤを $\mathrm{N}$ 層積み重ねている。エンコーダの各レイヤは,下位から順に,SelfAttention 層, 単語位置毎の全結合層(FeedForward 層)の2つのサブレイヤで構成される.デコーダの各レイヤは, 下位から順に, Self-Attention 層, エンコーダとデコーダ間の Attention 図 1 BART モデルの事前学習法 図 2 BART モデルの概要図 層, FeedForward 層の3つのサブレイヤで構成される。また, 各サブレイヤ間では, 残差接続 (He et al. 2016) および Layer Normalization (Ba et al. 2016) が適用される. エンコーダとデコー ダ内の Self-Attention 層およびエンコーダとデコーダ間の Attention 層の計算は以下の式のようになる。 $ \operatorname{Attention}(Q, K, V)=\operatorname{softmax}\left(\frac{Q K^{T}}{\sqrt{d_{k}}}\right) V $ ここで, $Q, K, V$ はエンコーダあるいはデコーダの隠れ状態, $d_{k}$ は $Q, K, V$ の次元数である. Self-Attention 層では, $Q, K, V$ は同一の入力源(エンコーダではエンコーダ内の隠れ状態,デコーダではデコーダ内の隠れ状態)を用い,同一文中の単語間の関連度を計算する。エンコー ダとデコーダ間の Attention層では, $Q$ にはデコーダの隠れ状態, $K, V$ はエンコーダからの最終出力を用い, 入力系列の各単語と出力系列の単語との関連度を計算する. また, エンコーダとデコーダ間の Attention 層および Self-Attention 層は Multi-head SelfAttention Network (SANs)の手法を利用することで性能を向上させている. $h$ 個へッドの SANs は以下の式のように計算する. $ \begin{aligned} \operatorname{SANs}(Q, K, V) & =\text { Concat }\left(\text { head }_{1}, \ldots, \text { head }_{h}\right) W^{O} \\ \text { head }_{i} & =\operatorname{Attention}\left(Q W_{i}^{Q}, K W_{i}^{K}, V W_{i}^{V}\right) \end{aligned} $ ここで, $W_{i}^{Q}, W_{i}^{K}, W_{i}^{V}, W^{O}$ は学習可能なパラメータ, Concat は行列の結合である. SANs では, 式 (3)の $d_{k}$ は $d_{k}=d / h$ となる. 最終的に, BART デコーダは, 最終層の出力から全結合層 (Linear) と Softmax 層によって出力単語の確率分布を算出する. ここで,エンコーダは双方向モデル,デコーダは自己回帰モデルとなっている.この事前学習済み BART モデルは,様々なタスクに合わせて fine-tuning される。自動要約タスクでは, 要約元文書がエンコーダに与えられ,デコーダで文書の要約を生成する。 ## 2.3 階層構造を考慮したテキスト生成 機械翻訳において, 入力テキストにおける文章の階層構造を考慮するために Multi-Granularity Self-Attention (MG-SA) (Hao et al. 2019) がある。本節では, MG-SA について概説する。 MG$\mathrm{SA}$ は, 入力テキストを複数の異なる粒度の要素(単語とフレーズ)に分け,各粒度の要素を Multi-head Self-Attention Network (SANs)の各ヘッドに割り当てることで異なる粒度の情報を捉える方法である。この手法ではまず,次のように,SANsの入力 $H$ からフレーズレベルの情報を表す行列 $H_{g}$ を生成する。 $ H_{g}=F_{h}(H) $ ここで, $F_{h}(\cdot)$ は $h$ 番目のヘッドに対するフレーズレベルの入力を生成する関数である.具体的には, $F_{h}(\cdot)$ は,単語レベルのベクトルに対して Max Poolingを適用することでフレーズレベルのベクトルを生成する。 この生成されたフレーズレベルの入力を用いて,SANs を次のように実行する. $ \begin{aligned} Q^{h}, K^{h}, V^{h} & =H W_{Q}^{h}, H_{g} W_{K}^{h}, H_{g} W_{V}^{h} \\ O^{h} & =\boldsymbol{A T T}\left(Q^{h}, K^{h}\right) V^{h} \end{aligned} $ ここで, $Q^{h} \in \mathbf{R}^{n \times d_{h}}, K^{h} \in \mathbf{R}^{p \times d_{h}}, V^{h} \in \mathbf{R}^{p \times d_{h}}, W_{Q}^{h}, W_{K}^{h}, W_{V}^{h} \in \mathbf{R}^{d \times d_{h}}$ であり,dは隠れ層の次元数, $d_{h}$ は各ヘッドの次元数, $n$ は単語レベルのベクトルの次元数, $p$ はフレーズレベルのベクトルの次元数である。また, $\mathbf{A T T}(\mathrm{X}, \mathrm{Y})$ は X と Y のアテンション重みを算出する関数である。この演算により,SANSにおける各へッドの出力 $O^{h}$ が生成される。 その後, 全てのへッドの出力を結合させたものが,入力 $H$ に対する MG-SAの出力となる. $ \mathbf{M G - S A}(\mathbf{H})=\left[O^{1}, \ldots, O^{M}\right] $ ここで, $M$ は Multi-head のヘッド総数を示す. 各ヘッドの出力 $O^{h}$ は,単語間の情報を含んでいるものや,単語とフレーズ間の情報を含んでいるものがある.したがって,MG-SAを使うことで,単語間の関連性に加えて,単語間とフレーズ間の関連性を捉えることができる。 ## 3 提案手法 本研究では, 文と単語の階層的な関係を考慮するため, MG-SAの概念を BART モデルに適用した Hie-BART (Hierarchical-BART) を提案する.Hie-BART (Hierarchical-BART) モデルでは, エンコーダは, 通常の BART モデルが備えている単語同士の関連性を捉える単語レべルの Multi-head Self-Attention Networks (SANs) に加えて, 文と単語間の関連性を捉える文レベルの SANs を備えている。 Hie-BART の概要図を図 3 に示す. エンコーダにおいて, 入力テキストを Embedding 層に通した後, 単語と文間の階層構造情報を捉えるため,単語レベル SANs と文レベル SANS の計算を行う。ここで,各文を区別するために,入力テキスト中の各文の先頭には $[B O S]$ トークンを付与している.文レベルの SANs では,文レベルの情報を得るために, Create Sentence Level Vector 層で単語レベルの入力から文レベルの入力を作成した後,アテンションの計算を行う.各へッドでアテンションの計算が終了したら, 単語レベル情報と文レベル情報を組み合わせるために, 単語および文レべルの出力を Concatenate 層で結合し,次層の Feed Forward 層への入力とする. ここで,単語レベルおよび文レベルの SANs 計算から Concatenate 層で結合するまでの動作 図 3 Hie-BART のモデル図 をMG-SANs とすると,以下のような式で表される。 $ \mathbf{M G - S a n s}(\mathbf{W}, \mathbf{S})=\left[O^{1}, \ldots, O^{H}\right] $ ここで, $\mathbf{W}, \mathbf{S}$ はそれぞれ単語レベルおよび文レベルの入力, $H$ は SANsのヘッド総数, $O^{i}$ は MG-SANS のヘッド $i$ の出力である. ## 3.1 Create Sentence Level Vector 層 Create Sentence Level Vector 層の動作例を図 4 に示す. $E_{w_{i j}}$ および $E_{[B O S]}$ は単語 $w_{i j}(i$ 番目の文中の $j$ 番目の単語) および $[B O S]$ トークンの埋め込みべクトルである。 $E_{s_{i}}$ は単語レベルの埋め达みべクトルから生成された文 $s_{i}$ ( $i$ 番目の文) の文レベルの埋め达みベクトルである. 文レベルの情報を得るために, Create Sentence Level Vector 層において, 単語レベルの埋め込みベクトルから Average Pooling により文レベルの埋め込みベクトルを生成する. 具体的には, 単語系列 $W=\left(w_{1}, \ldots, w_{N}\right)$ (各 $w_{i}$ は単語)が入力として与えられた場合,まず,単語系列 $W$ を文分割し,文系列 $S=\left(s_{1}, \ldots, s_{M}\right)$ (各 $s_{i}$ は文)を得る。ここで, $N$ は総単語数, $M$ は総文数を示す。そして,Sの各要素(各文)に対して,次のように Average Pooling を適用する. $ g_{m}=\mathbf{A V G}\left(s_{m}\right) $ ここで, $\operatorname{AVG}(・)$ は Average Pooling を実行する関数である。これにより,各文に対する埋め込みべクトル $G=\left(g_{1}, \ldots, g_{M}\right)$ を生成する。実際には, $W$ と $S$ の各要素は埋め込みべクトルとなる。例えば,図 4 において, $E_{s_{1}}$ を生成する場合は, $\left[E_{[B O S]}, E_{w_{11}}, E_{w_{12}}, E_{w_{13}}\right]$ に対して Average Pooling を適用する.以上のように生成された $G$ を文レベルの SANs の入力とする. ## 3.2 Concatenate 層 単語レベル情報と文レベル情報を組み合わせるために, Concatenate 層において, 単語レベル SANs と文レベル SANs の出力を結合させる。 Concatenate層では, 次のような単語レべル SANs 図 4 Create Sentence Level Vector 層の動作例 図 5 Concatenate 層の動作例(ヘッド数が 6 の場合) と文レベル SANs 層の出力が入力となる. $ \begin{aligned} \operatorname{WordSans}(\mathbf{W}) & =\left[O_{w}^{1}, \ldots, O_{w}^{H}\right]=O_{w}^{A L L} \\ \operatorname{SentenceSans}(\mathbf{G}) & =\left[O_{s}^{1}, \ldots, O_{s}^{H}\right]=O_{s}^{A L L} \end{aligned} $ $O_{w}^{A L L}$ は単語レベルの SANs の出力であり, $O_{w}^{i}$ は単語レベルの SANs のヘッド $i$ の出力である.一方で, $O_{s}^{A L L}$ は文レベルの SANs の出力であり, $O_{s}^{i}$ は文レベルの SANs のヘッド $i$ の出力である。ここで,H H SANs のヘッド数を示す. Concatenate 層では,この単語および文レベルの SANs の出力結果を次のように結合させる. $ \operatorname{CONCAT}\left(O_{w}^{A L L}, O_{s}^{A L L}, j\right)=\left[O_{w}^{1}, \ldots, O_{w}^{j}, O_{s}^{j+1}, \ldots, O_{s}^{H}\right] $ ここで, $j$ は結合点である. $H$ 個の Multi-headの内,1 から $j$ までのへッドを単語レベルの出力とし,$j+1$ から $H$ までのへッドを文レベルの出力として結合する. Hie-BART 内の Concatenate 層の動作例を図 5 に示す. 図 5 は, Multi-head のヘッド数が 6 で, 結合点 $j$ が 4 の場合の動作を示している。単語レベルの SANs の出力である $\left[O_{w}^{1}, \ldots, O_{w}^{6}\right]$ と,文レベルの SANs の出力である $\left[O_{s}^{1}, \ldots, O_{s}^{6}\right]$ が結合点 $j=4$ で結合された $\left[O_{w}^{1}, O_{w}^{2}, O_{w}^{3}, O_{w}^{4}, O_{s}^{5}, O_{s}^{6}\right]$ が Concatenate 層の出力となる.以上のように生成された Concatenate 層の出力を次層の Feed Forward 層への入力とする. ## 4 実験 ## 4.1 データセット データセットは,英文ニュース記事の要約コーパスである CNN/DailyMail データセット¹ (Hermann et al. 2015) および XSum データセット2 (Narayan et al. 2018)を使用した. ^{1}$ CNN/DailyMail データセットのダウンロードベージ: https://github.com/abisee/cnn-dailymail 2 XSum データセットのダウンロードページ: https://github.com/EdinburghNLP/XSum } CNN/DailyMail データセットは, 学習データが 287,226 対, 開発データが 13,368 対, テストデータが 11,490 対で構成されている,要約元文書は平均 781 トークン, 要約文は平均 56 トー クンである。また, XSum データセットは, 学習データが 204,045 対, 開発データが 11,332 対, テストデータが 11,334 対で構成されている。要約元文書は平均 431 トークン, 要約文は平均 23 トークンである。データの前処理について,トークン化は CNN/DailyMail ダウンロードペー ジ1およびXSum ダウンロードページ2の通りに行い, BPE (Sennrich et al. 2016)の使用などは fairseq (Ott et al. 2019)による前処理3に基づいて行った. ## 4.2 実験設定 Hie-BART モデルの実装は, fairseqによる BART モデルのコードを基に改良することで実装した。また,事前学習済みのモデルは fairseqのモデル「bart.large $\rfloor^{3}$ を使用した.BARTを fine-tuning する際, CNN/DM データセットでは, 勾配累積のハイパーパラメータ update-freqを 10, 最大エポック数 max-epoch を 6 , 総学習ステップ数を 20,000 とした. XSum では, update-freq を10, max-epoch を 10, 総学習ステップ数を 15,000 とした。また, 提案手法 Hie-BART のハイパーパラメータは, Multi-headのヘッド数を 16, 単語レベルと文レベルのSANs における出力の結合ヘッド数の割合を「単語:文 $=14: 2\rfloor$ とした.結合へッド数の割合のハイパーパラメー 夕は開発データで調整した。表 4 に示す通り, 開発データにおいて最も性能がよかった割合を採用している。このハイパーパラメータに関しては, 5 章にて考察する。その他のハイパーパラメータは fairseqによる設定 3 を用いた。 ## 4.3 結果 実験結果を表 2 と表 3 に示す. 表 2 に CNN/DailyMail, 表 3 にXSum のテストデータによる結果を示している。評価指標として, ROUGE-1, ROUGE-2, ROUGE-LのF 値 (Lin 2004) を用いた,ROUGEスコアの算出には, files2rouge4を利用した. ROUGEのオプションとして, 95\%信頼区間を利用, ステミングは無し,ストップワード除去の有無は無しとした. ROUGEオ 表 1 データセット ^{4}$ files2rouge 利用法: https://github.com/pltrdy/files2rouge } 表 2 各モデルの要約性能 (CNN/DM テストデータでの性能) 表 3 各モデルの要約性能(XSum テストデータでの性能) プションの引数は,“-c 95 -r 1000 -n 2 -a”とした. 実験では,提案手法の Hie-BART モデルを,非階層の通常の BART モデルに加えて, LEAD-3 (Nallapati et al. 2017), PTGEN (See et al. 2017), PTGEN+COV (See et al. 2017), BertSumExtAbs (Liu and Lapata 2019), T5 (Raffel et al. 2020) と比較した. ベースラインの BART モデルとして, 我々の計算機環境で再現した BART モデルの結果 (BART (ours)) に加えて, Lewisら (Lewis et al. 2020) で報告されている結果も示している。なお, BART (ours) および Hie-BART (ours)の結果については, 3 回の試行結果の平均を掲載している. 表 2 より, CNN/DailyMail データセットでは提案手法 Hie-BART は ROUGE-L の F 値において, 我々が再現した BART からは, 0.1 ポイント改善していることが分かる。また,表 3 より, XSum データセットでは提案手法 Hie-BART は ROUGE-1/2/L の F 值において, 我々が再現したBART からほぼ同等の性能であることが分かる。これらの結果より, CNN/DailyMail データセットにおいて提案手法が有効であることを確認できた. なお,XSumデータセットにおけるハイパーパラメータは fairseqのデフォルト值を用いた ${ }^{5}$. ただし, メモリの都合上, update-freqを 10 としている. ## 5 考察 ## 5.1 ヘッド数の割合による性能比較 提案手法は, Concatenate 層で単語レベルと文レベルのヘッドの出力を特定の割合で結合する.この割合の変化で提案手法の性能がどう変わるかを考察する。表 4 に, 結合時の単語レべルと文レベルのヘッドの割合を変えた時の提案手法の開発データにおける性能を示す.へッド数の割合はハイパーパラメータとして手動で調節しており, 表 4 の最左列に示されている. 最左列が「単語:文 $=\mathrm{x}: \mathrm{y}\rfloor$ の場合,単語レベルのヘッド数が $\mathrm{x}$, 文レベルのヘッド数が $\mathrm{y}$ を表す. 表 4 より, CNN/DM およびXSum データセットの両方で, “単語:文 = 14:2” の場合がROUGE1/2/L スコアの平均が最大になっていることが確認できる。 また, 単語レベルに比べて文レべルのへッド数の割合が少ない方が, ROUGE スコアが高くなる傾向にあることが分かる. また,単語レベルのへッド数を 8 以下に減らしていく方向は,精度の改善が見られなかったので表 4 には掲載していない. ## 5.2 Create Sentence Level Vector 層における Pooling 3.1 節の Create Sentence Level Vector 層では, 単語レベルのベクトルから文レベルのベクト 表 4 単語レベルと文レベルのヘッド数の割合による性能比較 (CNN/DM およびXSum 開発データでの性能) ^{5} \mathrm{CNN} / \mathrm{DM}$ で使用したハイパーパラメータも試したが, 開発データにおいて fairseqのデフォルト値の方が良かった. ただし, Lewis ら (Lewis et al. 2020)の値には及ばなかった. } ルを作成する際に Average pooling を利用している。一方,従来手法である MG-SAでは,単語レベルのベクトルからフレーズレベルのベクトルを作成する際に Max pooling を利用している。そこで,文レベルベクトルの作成において, Max pooling と Average pooling を利用した場合の, それぞれの要約性能の比較を行う。表 5 に Pooling 毎の要約性能比較を示す. データとして, CNN/DailyMail データセットの開発データを利用している。なお,結果については, 3 回の試行結果の平均を掲載している. 表 5 より, Average pooling を利用したモデルの方が,Max pooling を利用したモデルに比べ, ROUGE スコアが全体的に向上していることが確認できる。この結果より, 本研究において,単語レベルのベクトルから文レベルのベクトルを作成する際は, Max pooling よりも Average pooling を利用することで精度の向上が確認できる。 ## 5.3 要約例 表 6 にベースラインモデル (BART) と提案モデル (Hie-BART) による ROUGE スコアの高い要約例と, 正解要約の例を示す. 表 6 の提案モデルによる要約は, 正解要約の内容に近い流暢な要約であり, 提案モデルの要約が要約元文書の重要な部分を含んでいることを示している. ROUGE スコアの低い要約例を表 7 に示す。この例では, ベースラインモデルの要約と提案モデルの要約はほぼ同じ内容を含んでおり, 正解要約の内容からは遠く, 長い文章となっている. ## 5.4 要約の文長比較および ROUGE スコアの詳細比較 従来手法の BART による要約, 提案手法の Hie-BARTによる要約, 正解要約のそれぞれの文長の比較を行う.表 8 に,テストデータにおける各モデルの出力要約の文長を示す. 表 8 より, CNN/DailyMail データセットおよびXSum データセットにおいて, 要約の平均的な文長は, 従来手法 BART に比べ提案手法 Hie-BART による要約の方が短くなっており, 正解要約の平均文長に近づいていることが分かる. また,4.3節に示した従来手法 BART と提案手法 Hie-BART の ROUGE スコアの詳細として, Precision, Recall, F 値の結果を掲載し比較する。表 9 に CNN/DailyMail データセットでの結果, 表 10 にXSum データセットでの結果を示す. なお, 結果については, 3 回の試行結果の平 表 5 Pooling 毎の要約性能比較 (CNN/DM 開発データでの性能) ## [要約元文書] (CNN)About a dozen Native American actors have walked off the set of an Adam Sandler movie comedy, saying the satirical Western's script is insulting to Native Americans and women, according to a report. ... According to ICTMN, a Native American adviser hired to help ensure the movie's cultural authenticity also walked off the set in protest. Hill, the Choctaw actor, seemed to hold out hope that differences between the producers and Native American cast members could be resolved . ... . ## [BART による要約] The walkout occurred on the set of "The Ridiculous Six" near Las Vegas, New Mexico, according to a report . The script called for native women's names such as "Beaver's Breath" and "No Bra" and an actress portraying an Apache woman to squat and urinate while smoking a peace pipe, ICTMN reports . ## [Hie-BART による要約] About a dozen Native American actors walked off the set of an Adam Sandler movie comedy, a report says . They say the script is insulting to Native Americans and women, according to the Indian Country Today Media Network . "The Ridiculous Six" also stars Will Forte, Taylor Lautner, Steve Buscemi and John Turturro . [正解要約] About a dozen Native American actors walk off set of Adam Sandler comedy, says report . Actors say satirical Western's script is insulting to Native Americans and women . 表 6 精度の高い要約例(要約元文書は一部省略している) ## [要約元文書] (CNN)It's the kind of thing you see in movies, like Robert Redford's role in "All Is Lost" or Ang Lee's "Life of Pi." But, in real life, it's hard to swallow the idea of a single person being stranded at sea for days, weeks, if not months and somehow living to talk about it. Miracles do happen, though, and not just in Hollywood. ... After being spotted by crew aboard a Japanese Maritime Self-Defense Force destroyer and picked up in a smaller rescue boat, he took a drink offered to him and burst into tears, Kyodo reported. Shinkawa told his rescuers, "I thought today was the last day of my life." ## [BART による要約] It's hard to swallow the idea of a single person being stranded at sea for days, weeks, if not months and somehow living to talk about it . Miracles do happen, though, and not just in Hollywood . Jose Salvador Alvarenga says his journey began in Paredon Viejo, a port on Mexico's Pacific coast in late 2012 . ## [Hie-BART による要約] It's hard to swallow the idea of a single person being stranded at sea for days, weeks, if not months and somehow living to talk about it . Miracles do happen, though, and not just in Hollywood . Jose Salvador Alvarenga says his journey began in Paredon Viejo, a port on Mexico's Pacific coast, in late 2012 . Louis Jordan says he used laundry to trap and scoop up fish, rigged a makeshift mast and sail . ## [正解要約] A South Carolina man says he spent 66 days alone at sea before being rescued . Other sole survivor stories include a Japanese man washed away by a tsunami . An El Salvador man says he drifted from Mexico to Marshall Islands over a year . 表 7 精度の低い要約例 表 8 テストデータにおける各モデルの平均要約文長(単語数) 表 9 各モデルの要約性能詳細 (CNN/DM テストデータでの性能) 表 10 各モデルの要約性能詳細(XSum テストデータでの性能) 均を掲載している。表 9,10 より,提案手法 Hie-BART は従来手法 BART に比べ,Recall のスコアが低下し,Precisionのスコアが上昇している。この結果より,提案手法 Hie-BARTでは従来手法よりも短い要約で,同等かそれ以上の精度の要約を生成していることが確認できる. ## 6 おわりに 本研究では,BART におけるエンコーダの Self-Attention 層を単語レベルと文レベルに分割し計算することで,単語と文間の関係性を考慮する Hie-BART を提案した.BARTを階層化することにより, CNN/DailyMail データセットにおいて, ROUGE-Lの F 值が 0.1 ポイント改善することを確認した。 今後は, 単語間や単語と文間の情報に加え,文同士の関係を取り入れる手法に拡張する予定である。また,本研究では ROUGE スコアに基づく評価を行ったが,原文書への忠実性に基づく評価を行うことを検討している。 ## 謝 辞 本研究は JSPS 科研費 JP21K12031 の助成を受けたものです. ## 参考文献 Akiyama, K., Tamura, A., and Ninomiya, T. (2021). "Hie-BART: Document Summarization with Hierarchical BART." In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Student Research Workshop, pp. 159-165. 秋山和輝, 田村晃裕, 二宮崇 (2021). Hie-BART: 階層型 BART による文書要約. 言語処理学会第 27 回年次大会発表論文集, pp. 1242-1246. [K. Akiyama et al. (2021). Hie-BART: Kaisougata BART niyoru Bunsho Yoyaku. Proceedings of the 27th Annual Meeting for the Association for Natural Language Processing, pp. 1242-1246.]. Ba, J. L., Kiros, J. R., and Hinton, G. E. (2016). "Layer Normalization." arXiv:1607.06450. Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4171-4186. Gu, J., Lu, Z., Li, H., and Li, V. O. (2016). "Incorporating Copying Mechanism in Sequenceto-Sequence Learning." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, pp. 1631-1640. Hao, J., Wang, X., Shi, S., Zhang, J., and Tu, Z. (2019). "Multi-Granularity Self-Attention for Neural Machine Translation." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 887-897. He, K., Zhang, X., Ren, S., and Sun, J. (2016). "Deep Residual Learning for Image Recognition." In 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. $770-778$. Hermann, K. M., Kocisky, T., Grefenstette, E., Espeholt, L., Kay, W., Suleyman, M., and Blunsom, P. (2015). "Teaching Machines to Read and Comprehend." In Advances in Neural Information Processing Systems, pp. 1693-1701. Joshi, M., Chen, D., Liu, Y., Weld, D. S., Zettlemoyer, L., and Levy, O. (2020). "SpanBERT: Improving Pre-training by Representing and Predicting Spans." Transactions of the Association for Computational Linguistics, 8, pp. 64-77. Lewis, M., Liu, Y., Goyal, N., Ghazvininejad, M., Mohamed, A., Levy, O., Stoyanov, V., and Zettlemoyer, L. (2020). "BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880. Li, J., Luong, T., and Jurafsky, D. (2015). "A Hierarchical Neural Autoencoder for Paragraphs and Documents." In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing, pp. 1106-1115. Lin, C.-Y. (2004). "ROUGE: A Package for Automatic Evaluation of Summaries." In Text Summarization Branches Out, pp. 74-81. Liu, Y. and Lapata, M. (2019). "Text Summarization with Pretrained Encoders." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 3730-3740. Miao, Y. and Blunsom, P. (2016). "Language as a Latent Variable: Discrete Generative Models for Sentence Compression." In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 319-328. Nallapati, R., Zhai, F., and Zhou, B. (2017). "SummaRuNNer: A Recurrent Neural Network Based Sequence Model for Extractive Summarization of Documents." In Proceedings of the 31st AAAI Conference on Artificial Intelligence, pp. 3075-3081. Nallapati, R., Zhou, B., dos Santos, C., Gulçehre, Ç., and Xiang, B. (2016). "Abstractive Text Summarization using Sequence-to-sequence RNNs and Beyond." In Proceedings of The 20th SIGNLL Conference on Computational Natural Language Learning, pp. 280-290. Narayan, S., Cohen, S. B., and Lapata, M. (2018). "Don't Give Me the Details, Just the Summary! Topic-Aware Convolutional Neural Networks for Extreme Summarization." In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 1797-1807. Ott, M., Edunov, S., Baevski, A., Fan, A., Gross, S., Ng, N., Grangier, D., and Auli, M. (2019). "fairseq: A Fast, Extensible Toolkit for Sequence Modeling." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 48-53. Raffel, C., Shazeer, N., Roberts, A., Lee, K., Narang, S., Matena, M., Zhou, Y., Li, W., and Liu, P. J. (2020). "Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer." Journal of Machine Learning Research, 21 (140), pp. 1-67. Rush, A. M., Chopra, S., and Weston, J. (2015). "A Neural Attention Model for Abstractive Sentence Summarization." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 379-389. See, A., Liu, P. J., and Manning, C. D. (2017). "Get To The Point: Summarization with PointerGenerator Networks." In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics, pp. 1073-1083. Sennrich, R., Haddow, B., and Birch, A. (2016). "Neural Machine Translation of Rare Words with Subword Units." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, pp. 1715-1725. Tu, Z., Lu, Z., Liu, Y., Liu, X., and Li, H. (2016). "Modeling Coverage for Neural Machine Translation." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, pp. 76-85. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., and Polosukhin, I. (2017). "Attention is All you Need." In Advances in Neural Information Processing Systems, pp. 5998-6008. Zhang, X., Wei, F., and Zhou, M. (2019). "HIBERT: Document Level Pre-training of Hierarchical Bidirectional Transformers for Document Summarization." In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5059-5069. ## 略歴 秋山和輝:2020 年愛媛大学工学部情報工学科卒業. 2020 年より同大学院理工学研究科修士課程に在学. 田村晃裕:2005 年東京工業大学工学部情報工学科卒業. 2007 年同大学院総合理工学研究科修士課程修了. 2013 年同大学院総合理工学研究科博士課程修了. 日本電気株式会社, 国立研究開発法人情報通信研究機構にて研究員として務めた後, 2017 年より愛媛大学大学院理工学研究科助教. 2020 年より同志社大学理工学部准教授となり, 現在に至る. 博士 (工学). 情報処理学会, 言語処理学会, 人工知能学会, ACL 各会員. 二宮崇:1996 年東京大学理学部情報科学科卒業. 1998 年東京大学大学院理学系研究科情報科学専攻修士課程修了. 2001 年同大学院博士課程修了. 同年より科学技術振興事業団研究員. 2006 年より東京大学情報基盤センター講師. 2010 年より愛媛大学大学院理工学研究科准教授, 2017 年同教授. 博士 (理学). 言語処理学会, アジア太平洋機械翻訳協会, 情報処理学会, 人工知能学会, 電子情報通信学会, 日本データベース学会, ACL 各会員. 梶原智之:愛媛大学大学院理工学研究科助教. 2013 年長岡技術科学大学工学部電気電子情報工学課程卒業. 2015 年同大学大学院工学研究科修士課程修了. 博士 (工学). 大阪大学データビリティフロンティア機構の特任助教を経て, 2021 年より現職. 情報処理学会, 人工知能学会, 言語処理学会, ACL 各会員. }} \\
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 対話における間接的応答と直接的応答からなる 言い換えコーパスの構築と分析 高山 隼矢 ${ }^{\dagger}$ 梶原 智之 ${ }^{\dagger \dagger}$ ・荒瀬 由紀 $\dagger$ } 人間は対話においてしばしば相手の質問や発話に対して間接的な応答をする。例え ば,予約サービスにおいてユーザがオペレータに対して「あまり予算がないのです が」と応答した場合,オペレータはその応答には間接的に「もっと安い店を提示し てください」という意図が含まれていると解釈できる。大規模な対話コーパスを学習したニューラル対話モデルは流暢な応答を生成する能力を持つが, 間接的な応答 に焦点を当てたコーパスは存在せず,モデルが人間と同様に間接的な応答を扱うこ とができるかどうかは明らかではない。本研究では既存の英語対話コーパスである MultiWoZ を拡張し, 71,498 件の間接的応答と直接的応答の対からなる対話履歴付 きパラレルコーパスを構築した。また,間接的な応答を扱う能力を評価するための 3 つのベンチマークタスクを設計し, 最新の事前学習済みモデルの性能を調査した. さらに,ユーザーの間接的な発話を事前に直接的な発話に変換することで対話応答生成の性能が向上することを確認した. キーワード : 対話システム, 言い換え,コーパス構築, 間接的応答 ## Construction and Analysis of a Dialogue Corpus with Paraphrase Pairs of Indirect and Direct Responses \author{ Junya Takayama $^{\dagger}$, Tomoyuki Kajiwara $^{\dagger \dagger}$ and Yuki Arase ${ }^{\dagger}$ } People often indirectly present their intentions in texts. For example, if a person said to an operator of a reservation service "I don't have enough budget.", it means "Please find a cheaper option for me." While neural conversation models acquire the ability to generate fluent responses through training on a dialogue corpus, previous corpora did not focus on indirect responses. We create a large-scale dialogue corpus that provides pragmatic paraphrases to advance technology for understanding users' underlying intentions. Our corpus provides a total of 71,498 indirect-direct utterance pairs accompanied by a multi-turn dialogue history extracted from the MultiWoZ dataset. Besides, we propose three tasks to benchmark the ability of models to recognize and generate indirect and direct utterances. We also investigate the performance of the state-of-the-art pre-trained language models as baselines. We confirmed that  the performance of dialogue response generation was improved by transferring the indirect user utterances to direct ones. Key Words: Dialogue System, Paraphrase, Corpus, Indirect Responses ## 1 はじめに 対話において人間はしばしば自身の要求や意図を直接的に言及せず,間接発話行為と呼ばれる,言外に意図を含んだ間接的な発話によって表現することがある (Searle 1979). 人間は対話相手から間接的な応答を受け取ったとき,これまでの対話履歴などの文脈に基づいて言外の意図を推測できる。図 1 に,レストランの予約に関する対話における間接的な応答と直接的な応答の例を示す。この例ではオペレータの「Aレストランを予約しますか?」という質問に対してユーザは「予算が少ないのですが」と応答している(図中の「間接的な応答」)。この応答は字義通りの意味だけを考慮するとオペレータの質問への直接的な回答にはなっていない. しかし,オペレータは対話履歴を考慮してユーザが A レストランよりも安いレストランを探していると推論し,新たに $\mathrm{A}$ レストランよりも安い $\mathrm{B}$ レストランを提案している.対話におけるユー ザの間接的な発話とそれに示唆された意図(直接的な発話)の関係は,語用論的言い換えの一種である (乾,藤田 2004),人間と自然なコミュニケーションを行う対話システムの実現のためには,ユーザの間接的な発話に暗示された意図を推定する語用論的言い換え技術の実現が重要である. 大規模な対話コーパス (Li et al. 2017; Budzianowski et al. 2018; Eric et al. 2020) と深層学習技術により,近年では対話応答生成 (Zhao et al. 2020; Zhang et al. 2020) や対話状態追跡 (Hosseini-Asl et al. 2020; Lin et al. 2020) など様々なタスクにおいて高い性能を誇るモデルや 図 1 対話における間接的応答と直接的応答の例. これらの応答は字義通りに解釈すると異なる意味を持つが,この対話履歴上においては言い換え可能な関係にある. 手法が提案されている。また, 最近では語用論的言い換えに関するコーパスもいくつか存在する (Pragst and Ultes 2018; Louis et al. 2020).しかし, Pragst and Ultes (2018) らは人工的に生成したコーパスを用いており,多様性や自然さに欠ける。また,Louis et al. (2020)の構築したコーパスでは Yes/No 型かつ一問一答型の質問応答対のみを扱うため,それ以外の間接的発話には対応できない,対話応答生成等の対話システム関連技術の分野においては,ユーザの間接的応答に着目した研究は未だに行われていない。語用論的言い換え技術の対話システムへの適用のためには,より複雑かつ自然な語用論的言い換えを含む対話コーパスの構築が必要である. 本研究ではより高度な語用論的言い換え技術の開発のために,71,498 の間接的な応答と直接的な応答の対からなる,対話履歴付きの英語言い換えコーパス DIRECT (Direct and Indirect REsponses in Conversational Text $)^{1}$ を構築する。間接的な応答は対話履歴のような文脈を伴うことで初めてその意図が解釈できるような応答である。そこで本コーパスは既存のマルチドメイン・マルチターンのタスク指向対話コーパス MultiWoZ (Eric et al. 2020)を拡張して作成した. 我々は MultiWoZ の各ユーザ発話に対してクラウドソーシングを用いて「ユーザ発話をより間接的に言い換えた発話」と「ユーザ発話をより直接的に言い換えた発話」の対を収集する. そのため, DIRECT コーパスには元の発話・間接的な発話・直接的な発話の 3 つ組が収録される。 本研究では DIRECT コーパスを用いて, 語用論的言い換えの生成・認識能力を評価するための 3 つのベンチマークタスクを設計する。ベースラインとして, 最先端の事前学習済み言語モデルである BERT (Devlin et al. 2019) と BART (Lewis et al. 2020) を用いた性能調査も行う. また,言い換え生成モデルを用いてユーザの入力発話を事前により直接的に言い換えることで, MultiWoZ コーパスにおいて対話応答生成の性能が向上することを確認する. 本稿の構成を記す. 第 2 章では本研究の関連研究を紹介する. 第 3 章では DIRECT コーパスの構築方法について述べたのち, データ例や統計的な分析結果を基にコーパスの特徴について説明する. 第 4 章では DIRECT コーパスを用いた 3 つのベンチマークタスクを導入する.第 5 章では, 語用論的言い換えを考慮した対話応答生成モデルを構築し,その性能を評価する.最後に,本研究のまとめを第 6 章にて述べる. ## 2 関連研究 ## 2.1 間接的な応答に関する研究 本研究において扱う「間接的な応答」は, 間接発話行為 (Searle 1979) を純粋なテキストベー スの人間-システム間対話で起こりうる範囲の問題に限定したものとして位置づけられる。間接 ^{1}$ https://github.com/junya-takayama/DIRECT/ } 発話行為とは,字義通りの解釈とは異なる効力を持つ発話のことである.例えばある駅において A が B に対し「出口はどちらかわかりますか?」と尋ねたとする。これは字義通りに解釈すれば「わかるかどうか」を問うだけの疑問文であるが,B としてはその発話が「出口の場所を教えてほしい」という要請を伝えるものだと判断するのが自然である。間接発話行為とは逆に,発話の字義通りの解釈がそのまま効力を成す発話を直接発話行為と呼ぶ. 間接発話行為は対話システム分野においても従来より重要な課題として取り組まれてきた (Perrault 1980; Wilske and Kruijff 2006; Roque et al. 2020) が,直接性の異なる応答(発話)間の言い換え関係を直接的に扱ったコーパスの構築に取り組んだのは本研究が初めてである. 相手への要求を間接的に表現することは, 対話において互いの立場や心的距離を損なわないようにするためのポライトネス戦略の一つである (Brown et al. 1987). 対話システム分野においてもポライトネスは重要な観点であり,ポライトな振る舞いをする対話システムの実現に向けて多くの研究が多くなされている (Gupta et al. 2008; Niu and Bansal 2018; Firdaus et al. 2020).本研究はポライトネスを直接扱うものではないが, DIRECT コーパスはポライトネス研究においても活用が期待できる. ## 2.2 対話における語用論的言い換えに関する研究 本研究では対話における語用論的言い換えに着目したコーパスを構築する。そこで本節では,対話システム分野において言い換えや間接的応答と直接的応答の関係性を扱った関連研究を紹介する。対話における発話の言い換えを扱った事例としては Hou et al. (2018), Gao et al. (2020) が挙げられる。これらの研究では言い換え生成技術を用いて発話の言い換えを生成することでデータ拡張を行い,応答生成の性能向上を達成している。しかし,発話の言い換えにおいては字義的な意味のみを考慮しており,語用論的な言い換えには対応していない. Pragst and Ultes (2018)は間接的な発話と直接的な発話からなる言い換え対が含まれた対話コーパスをルールベー スで自動構築する手法を提案している。また,再帰的ニューラルネットを用いた発話選択器を用いることで,対話中の間接的な発話をその発話と同じ意図を持つ直接的な発話に置き換えられることを示している。しかし,ルールベースであるために自動生成可能な対話データのパター ンは限られており,多様性に欠けるコーパスとなっている. Louis et al. (2020)は, Yes/No 型の質問と,それに対する間接的な応答の対 34,268 件からなるコーパスを構築している. 各質問応答対に対しては, 応答が質問に対して肯定と否定のどちらの意図を示すものであるかがアノテーションされている.コーパス構築にあたってはまず著者らが事前に用意した 10 パターンの対話シナリオのいずれかに基づく質問をクラウドソーシングを用いて収集しており,質問数は合計で 3,431 件である。また,それぞれの質問に対して最大で 10 件の応答をクラウドソー シングを用いて収集している。そのため,人間らしくかつ多様な質問応答対からなるコーパスとなっている。しかし,一問一答型かつ Yes/No 型の質問応答対に限定されており,Yes/No で 言い換えられないような間接的応答には対応していない. 本研究ではこれらの既存研究とは異なり,人手で作成された対話履歴に対して人手で間接的応答・直接的応答の言い換え対を作成する。そのため DIRECT コーパスは人間らしく多様な応答が含まれ,かつ複雑な間接的応答を扱う最初の対話コーパスである。 ## 2.3 言い換えに関する言語資源 言い換えに関連する既存のコーパスを紹介し,本研究で扱う語用論的言い換えの位置付けを示す.これまでに多くの言い換えコーパス (Dolan and Brockett 2005; Lan et al. 2017) が提供されている. Dolan and Brockett (2005) は, Webニュース上から単語の一致率などに基づくヒューリスティックな手法によって言い換え候補の文対を抽出し,それらの文対が言い換えになっているかどうかを人手でラベル付けすることで, 5,801 件の言い換えコーパスを構築している (うち 3,900 件が言い換え対と判定されている). Lan et al. (2017) は Twitter ${ }^{2}$ 上から同じ URL を参照するツイートの対を言い換え候補対として収集し,それらのツイート対が言い換えになっているかどうかを人手でラベル付けしており,51,534 件の言い換えコーパスを構築している(うち 12,988 件が言い換え対と判定されている)。これらの言い換えコーパスは全て対話履歴等の文脈を伴わないものであり, 語用論的言い換えに着目したコーパスは存在しない. 含意関係認識タスクに関するコーパス (Giampiccolo et al. 2007; Marelli et al. 2014; Bowman et al. 2015)も本研究との関連が深い. 含意関係とは,ある 2 文 $t_{1}$ と $t_{2}$ があったとき, $t_{1}$ が真であればそのことから $t_{2}$ も真であることが推論できるような関係のことを言う.含意関係認識コーパスには字義通りの意味だけではなく世界知識や語彙の上位下位関係なども考慮しなければ解けない問題も含まれている。対話における含意関係を扱ったコーパスとしては Welleck et al. (2019) がある. このコーパスはシステムの持つペルソナとシステムが生成した発話との間の意味的な一貫性の向上を目的として構築されたものであり, ペルソナ情報と各発話との間での含意関係が付与されている。 既存のコーパスにおいては,文同士が言い換え関係にあるかや文が仮説を含意するかどうかは,その文が用いられる文脈等を考慮せずとも世界知識や文の明示的な意味のみに依存して判断可能である.これに対し本研究で扱う語用論的言い換えでは, 発話同士が言い換え関係にあるかどうかを判断するためには対話履歴等の文脈が重要な要素となる. ## 3 DIRECT コーパス 語用論的言い換えとは,ある文脈において使用されたときに同等の結果をもたらす発話対であ  り,主に対話において頻繁に生じるものである。よって語用論的言い換えを含むコーパスを構築するためには,まず対話履歴を作成する必要がある。本研究ではデータ作成コストを低減するため,既存の対話コーパスを拡張する形で言い換え対を収集する.また,トピックが限定されない雑談対話コーパスでは,作業者のトピックに関する知識に言い換え文が依存しやすく,品質のコントロールが難しい。そこで本研究では言い換え対の作成にあたって特別な知識を要しないと期待される夕スク指向対話コーパスを用いる。具体的には MultiWoZ2.1(以降は MultiWoZ と表記する) (Budzianowski et al. 2018; Eric et al. 2020) コーパスを基に,クラウドソーシングを用いて発話対を収集する。 本章ではまず言い換え対の収集方法と得られたデータ例について 3.1 節で説明する。また,収集したデータの品質評価を 3.2 節にて行う。構築した DIRECT コーパスの特徴や性質について, 3.3 節では統計的な観点から, 3.4 節では定性的な観点からそれぞれ分析する. 3.5 節においては, 既存の言い換え認識モデルを用いて, DIRECT と既存の言い換えコーパスの比較分析を行う。 ## 3.1 間接的な応答と直接的な応答の対の収集 MultiWoZ は 10,438 対話からなるマルチドメインかつマルチターンの英語タスク指向対話コーパスであり,対話行為や対話状態など豊富なアノテーションが付属している.各対話はユー ザとシステムの二者が交互に発話する形式であり,ユーザ発話は合計で 71,524 件存在する. 本研究ではクラウドソーシングサービスの Amazon Mechanical Turk³ を用いて, MultiWoZ を拡張する形で語用論的言い換え対を収集する。作業者にはまず表 1 の指示書と作業例を提示  Type-1 (Direct) : a more direct response that expresses the same intention as the original response Type-2 (Indirect) : a more indirect but natural response that expresses the same intention as the original response "Indirect response" means, for example, a response to a Yes/No question that does not contain a "Yes" or "No", or a response that does not directly refer to the action you want the other person to do or your desire. If you have trouble rephrasing, click the "Hints" button. You can see the goals that "USER" must achieve in that interaction. 表 1 間接的応答と直接的応答の収集のための指示書 ^{3}$ https://www.mturk.com/ } ## Dialogue Context ## Hints - You are planning your dinner in Cambridge - You are a vegetarian USER: I would like to have dinner in Cambridge OPERATOR: Do you have a preference for restaurants? USER(TGT): I'm a vegitarian OPERATOR: OK, there are one vegetarian restaurant near the hotel. Would you like to book? USER: Yes, please. ## Your Answer Type-1 (Direct paraphrase): Yes, I need to find a vegetarian restaurant Type-2 (Indirect paraphrase): I do not eat meat or fish. Submit 図 2 クラウドソーシングを用いた間接的な応答と直接的な応答の対の収集に用いる作業画面例 する。また,図 2 のように,各作業者の作業画面上には MultiWoZ から抜粋された対話履歴が表示される ${ }^{4}$. 表示された対話履歴に基づいて,各作業者は指定されたユーザ応答(図 2 中の赤字の応答)を間接的な応答と直接的な応答のそれぞれに言い換え,入力フォームに入力する. なお, 対話履歴のみでは話者の意図を十分に理解できない場合に備え,「Hints」ボタンを押すことで MultiWoZ から抜粋したその対話の対話目標を表示できる機能を作業画面上に実装する. 作業者の選定数単語の置き換えや入れ替えなどのように語用論的な言い換えとは言えないものや,言い換えにもなっていないようなデータの収集を防ぐため,本番の収集タスクに登用する作業者を事前に選定した。具体的には, 2 回のパイロットタスクを実施した。なお, 2 回目のタスクにおいては 1 回目のタスクにおいて作業者から受けた質問や得られたデータの品質などを基に指示書を部分的に修正し,本番のタスクにおいて使用したものと同一の指示書を使用した。本番タスクにおいては,間接的な応答と直接的な応答の間の単語レベルの Jaccard 係数が 0.75 以上のデータを自動的に不採択にした。また,得られたデータの抜き打ち検査も実施した.最終的には, これらの手動評価と自動評価に合格した 655 人中の 536 人の作業者によってデー  タが作成された。 応答対の収集 1 件あたりの作業にかかる平均時間を 1 分と見積もり,平均報酬は 1 件あたり 0.12 米ドル(1 時間あたりでは 7.2 米ドル. 2021 年 6 月 23 日現在のレートで日本円換算すると約 799 円)とした. 最終的には 71,498 件 5 の間接的な応答と直接的な応答の対を収集できた.得られたデータは,MultiWoZ と同じ設定で訓練データと評価データに分割した. (MultiWoZ に元々収録されている応答)を見ると,ユーザは中間的な価格帯のレストランを希望していることがわかる。この応答を間接的に言い換えたものとして "I don't want to overspend but remember its also vacation”(あまり使いすぎたくはないけれど,休暇でもあるということを忘れないで)という発話が得られた。この例では “its also vacation”というフレーズが直接的な応答における "not too cheap”(安すぎない)に対応している。下段の例では,間接的な応答の中に “Do you know of any in town?” というフレーズがある. 対話履歴を考慮すれば, こ 表 2 DIRECT コーパスのデー夕例。“USER (間接的)”と “USER(直接的)”はそれぞれ本研究においてクラウドソーシングによって収集した間接的応答と直接的応答で,“USER(オリジナル)" は MultiWoZ から抽出したオリジナルの応答である.  れは単に「何か街にあるもの」を知っているかどうかを問うための発話ではなく,直接的な応答における“Can you find me a guesthouse...?” のように「ゲストハウスを探してほしい」という要求を伝えるための発話であることが汲み取れる. ## 3.2 品質評価 言い換え収集の実施後, 最終的な成果物の品質評価を実施した。具体的には評価セットに含まれる 7,372 件分のユーザ応答に対し, 得られた語用論的言い換え対の品質をクラウドソーシングを用いて評価した,品質評価において作業者に提示した作業画面の例を図 3 に示す。作業者には評価対象となる言い換え対とその対話履歴を提示した。その際,言い換え対には “Response-A", "Response-B" のラベルをランダムに割り当て, どちらが間接的(あるいは直接的)な応答として収集されたデータかわからないようにした.作業者にはまず,言い換え対が実際に MultiWoZ のオリジナルの応答と同じ意図を表現できているかどうかを“Yes”, “No”の二値で評価してもらった. 次に, Response-A と Response-B のどちらがより直接的かについても評価してもらった.なお,判断に迷った場合のみ “no difference”を選ぶことを許容した。 1 件あたりの作業にかかる平均時間を 30 秒と見積もり,平均報酬は 1 件あたり 0.06 米ドル(1 時間あたりでは 7.2 米ドル. 2021 年 6 月 23 日現在のレートで日本円換算すると約 799 円)とした. 各言い換え対に対して 5 人の作業者による評価を収集した. 最終的な評価値はその多数決によって決定した. 図 3 クラウドソーシングを用いたコーパスの品質評価に用いる作業画面例 なお,評価タスクにおいては,収集タスクに参加した作業者が自分が作成したデータを自己評価することがないように作業者の割り当てを行った. 評価結果を表 3 に示す. Intention-accuracy は収集した言い換えのうち, オリジナルの応答と同じ意図を表現していると判断されたものの割合である。間接的な応答への言い換えでは $95.0 \%$ ,直接的な応答への言い換えでは $99.7 \%$ と高い割合のデータがオリジナルと同じ意図を持っていることがわかる。間接的な応答の Intention-accuracy が直接的な応答の場合より $4.7 \%$低い結果となった。これは,ユーザの意図を間接的に表現しているために,人間の評価者にとっても解釈が困難な曖昧な表現が多少含まれているためであると考えられる.Directness-accuracy は, Response-A と Response-B のどちらがより直接的かとの問いに対し,直接的な応答として収集された方の応答が正しく選ばれた割合である。“Exact”は "no difference”と判断されたデータを許容しない設定, “Relaxed”は許容した設定での Directness-accuracy であり,それぞれ $81.4 \%, 89.4 \%$ と高い割合となった. DIRECT コーパスにおいては, これらの評価ラべルも提供する. ## 3.3 統計的分析 DIRECT コーパスにおける語用論的言い換えの特徴を明らかにするために,まずトークン単位での統計的分析を行う。表 4 に単語レベルでの統計情報を示す。なお,単語分割には $n^{2} l^{6}$ ライブラリの 'word_punct_tokenize()'メソッドを用いた。また,大文字小文字は区別していない.まず,語彙サイズについては,間接的な応答の方が直接的な応答よりも 1.3 倍程度大きいことがわかる. これは, 同じ意図を持った発話であっても,直接的に表現した場合よりも間接的に表現した場合の方がより多様な表現を取り得ることを示唆している。また, 文長(応答に含まれる平均単語数)に関しては,間接的な応答では 15.59 , 直接的な応答では 12.38 で, 間接的な応答の方が長い. 平均文長について Wilcoxon の検定 (Wilcoxon 1945) を実施したところ, $0.1 \%$ 有意水準で有意であった,図 4 に,対応する間接的な応答と直接的な応答の文長の差のヒストグラムを示す。図を見ると,文長の差はやや正の側に偏りつつも,負の側にも多く分布し 表 3 評価データの品質評価結果 表 4 収集した言い換え対の統計情報  ていることが読み取れる。このことから,平均文長に有意差はあれど,発話をより直接的に言い換える際に単に文長を短くすることが必ずしも有効というわけではないことが示唆される.次に,間接的な応答と直接的な応答において使用されるフレーズの違いを調査する。表 5 にそれぞれにおける単語 tri-gram の頻度上位 20 件を掲載する。表を見ると,直接的な応答の 図 4 間接的応答と直接的応答それぞれの文長の分布 表 5 頻度上位 20 件の tri-gram tri-gram には “book”や“find” などユーザがオペレータにして欲しいことを直接的に伝える動詞や, “the reference number”のように特定のオブジェクトを指すフレーズが頻繁に含まれていることがわかる(表中太字で表記),一方,間接的な応答の tri-gram には,直接的な応答では頻出でない "is there any”や “I think that”などのフレーズが含まれている.以上のことから,間接的な応答と直接的な応答では, それぞれ頻出するフレーズに違いがあることが読み取れる. ## 3.4 定性的分析 DIRECT コーパスにおいて,直接的応答と比較して間接的応答にはどのような特徴があるかを調査するため,訓練データから無作為に抽出した 300 件の応答対について類型化を試みる.第一著者による分析の結果,応答対は以下の 5 つの類型に大別できた.以下に各類型の割合とその説明を記す。なお,複数の類型に該当する応答もあったため,割合の和は $100 \%$ に一致しない. 要求や行為の曖昧化 $(54.0 \%)$ 直接的応答では明示的に言及されている要求や行為について, 間接的応答ではより曖昧になっているもの. 例 1:(ユーザがレストランを探している文脈で) 直接的応答: Find me a good gastropub in town. 間接的応答: It would be ideal if there were good gastropubs in town. (「探して」という要求が明示されていない) 例 2: (システムの「Pizza Hut Cherry Hinton serves Italian food on the south part of town. Would you like their phone number?」という発話に対して) 直接的応答: Yes, you can get me the phone number. 間接的応答: I will want to call them. (「(電話番号を) 提供してほしい」という要求が明示されていない) 対象の曖昧化 $(18.3 \%)$ 直接的応答では明示的に言及されている物体や概念について,間接的応答ではより曖昧になっているもの. 例:(映画館の予約が済んだ後で) 直接的応答: Yes, I also need the address of the theatre? 間接的応答: I've never been there. I'll need help finding it. (theatre が there, it によって参照されている) 世界知識に依存する言い換え $(10.3 \%)$ 直接的応答におけるある表現が,対話状況に依存しない形でより間接的な表現に言い換えられているもの. 例:(システムがユーザに立地の希望を聞いた文脈で) 直接的応答: Yea the north sounds like it would work out for me. 間接的応答: I am just hoping to be as far from the south side as possible. (対話状 況によらず,「north」と「as far from the south side as possible」は言い換え可能) 丁寧さ・モダリティの調整 $(41.3 \%)$ 間接的応答において,直接的応答に比べてより丁寧な言い回し (“Could you“”や “Would you”.”など)や断定を避けるようなモダリティ表現 ("I think..."や“maybe"など) が付与されているもの. 例: 直接的応答: Please book for 4 people on Tuesday at 12:00 間接的応答: Can you make a reservation for 4 people at 12:00? 自己開示の追加 $(7.0 \%)$ 発話意図を間接的に伝えるために, 自己に関する何らかの情報を追加しているもの. 例: 直接的応答: Yea can you find me a place to eat that is in the expensive category. 間接的応答: I want to take my girl to the nicest place to eat in town. このうち,「要求や行為の曖昧化」と「対象の曖昧化」については間接的応答の意図の解釈が対話履歴に依存して変わりうるもの(対話履歴に依存した言い換え)であると言える。これら二つの類型の少なくともどちらか一方に属するデータの割合は $60.3 \%$ であった. よって, DIRECT コーパスのうち 6 割程度は対話履歴に依存した言い換えが行われていると考えられる. 次に,応答の意図を人間が解釈する際に,対話履歴の有無がどの程度影響を与えるかを調査する。検証データから無作為に抽出した 500 件の応答対について, Amazon Mechanical Turk を用いて,それらがオリジナルの応答と言い換え関係にあるかどうかを,対話履歴を提示した場合と提示しない場合のそれぞれについて判定してもらった. 各応答につき 5 人の作業者による判定を行ったのち,多数決によって最終的なラベルを決定した.表 6 に言い換えと判定された割合を示す. 対話履歴を提示した場合, 間接的・直接的応答はともにほぼ全ての応答がオリジナル応答と同義だと判定されていることがわかる。一方で対話履歴を提示しない場合は,提示した場合に比べて間接的応答では言い換えと判定された割合が $12.3 \%$ 低い.このことから, DIRECT コーパスには対話履歴の情報が重要な言い換え対が少なくとも $12 \%$ 程度は含まれていると推定される。しかし, この値は先の類型化において「対話履歴に依存する言い換え」としたデータの割合である $60.3 \%$ よりはるかに小さい. これは, "I'm looking forward”.."と “Find 表 6 言い換えかどうかの判定に対話履歴の有無が与える影響の調査結果 me..."のように必ずではないがほとんどの状況において慣習的に同じ意図で用いられるような応答対が,対話履歴を提示しなかった場合でも言い換え関係として判定されてしまったことが原因だと考えられる。 ## 3.5 モデルを用いた分析 本節では,最先端の文符号化器や言い換え認識モデルを用いて,DIRECT コーパスと既存の言い換えコーパスの比較調查を行う。まず, DIRECT コーパス, MRPC (Dolan and Brockett 2005), Twitter URL Paraphrase コーパス (Lan et al. 2017)のそれぞれの言い換え対(DIRECT コーパスにおいては間接的応答と直接的応答の対)全てについて, 文符号化器 Sentence-BERT ${ }^{7}$ (Reimers and Gurevych 2019) を用いてその文間のコサイン類似度を計算する。図 5 に示す類似度のヒストグラムを見ると,DIRECT は他の既存のコーパスに比べて類似度が低い言い換え対が多いことがわかる. Sentence-BERT は,文間の類似度を推定するタスクである STSBenchmark (Cer et al. 2017) を用いて事前訓練されたモデルであり,文脈を考慮しないレベルでの文の意味的類似度を扱うモデルとなっている。DIRECT ではコサイン類似度が低い言い換え対が大量に存在することから,文脈を考慮しなければ言い換えだと判断できないような言い換え対が多く含まれていることが確認できる. 次に,既存の言い換えコーパスを用いて訓練された言い換え認識モデルを DIRECT コーパスや既存のコーパスに適用して比較分析を行う。具体的には, BERT ${ }^{8}$ (Devlin et al. 2019) を既 図 5 Sentence-BERT を用いて算出した言い換え対のコサイン類似度の分布  図 6 MRPC, Twitter URL paraphrase コーパスでファインチューニングした BERT によって言い換えだと認識された言い換え対の割合 図 7 PAWS コーパスでファインチューニングしたBERT によって言い換えだと認識された言い換え対の割合 存の言い換え認識用コーパスでファインチューニングした言い換え認識モデルが,実際に言い換えだと認識できた言い換え対の割合を計算する。また,特性の異なる言い換え認識モデルでの挙動の違いを分析するため, MRPC と Twitter URL Paraphrase コーパスで訓練したモデルに加え, Paraphrase Adversaries from Word Scrambling (PAWS) (Zhang et al. 2019) で訓練したモデルについても分析を行う.PAWS コーパスは単語の重複度が高い言い換え対を扱うコー パスで, MRPC や Twitter コーパスに比べて構文レベルでの判断が必要なコーパスとなっている. 図 6 に MRPC と Twitter URL Paraphrase を用いてファインチューニングした場合の結果を, 図 7 に PAWS を用いてファインチューニングした場合の結果を掲載する。図 6,7 を見ると, DIRECT コーパスはどちらのモデルにおいても言い換えと認識される対の割合がそれぞれ $64.9 \%, 35.3 \%$ と最も低いことが読み取れる.このことから, 既存の語彙や構文レベルでの言い換えに着目したモデルでは,DIRECT に含まれる語用論的言い換えは十分に扱えないことが示される. ## 4 ベンチマークタスク 語用論的な言い換えを処理する能力を評価するための 3 つのベンチマークタスクを, DIRECT コーパスを用いて設計する,具体的には,間接的な応答を直接的に言い換える Indirect-to-Direct タスク (4.1 節),直接的な応答を間接的に言い換える Direct-to-Indirect タスク (4.2 節), 発話の直接性を推定する直接性推定タスク(4.3 節)を設計する。また,各タスクにおいて, べースラインとして最先端の事前学習済み言語モデルである BART (Lewis et al. 2020) と BERT (Devlin et al. 2019)を用いて性能調査を行う. ## 4.1 Indirect-to-Direct タスク タスクの概要と動機 Indirect-to-Direct は, 対話履歴を用いて, 間接的な応答をその意図を保ったまま直接的な応答に変換するタスクである。本タスクの応用例としては,夕スク指向対話システムのための発話の前編集などが考えられる。ユーザが入力した間接的な発話をモデルに入力する際に事前に解釈しやすい直接的な発話に変換することで, 応答生成の品質が向上することが期待される。評価尺度としては BLEU (Papineni et al. 2002) と Perplexity を用いる。なお, Indirect-to-Direct モデルの対話応答生成への適用実験を第 5 章にて行う. ベースライン本タスクは入力された発話を意図を保持したままより直接的なスタイルに置き換えるスタイル変換タスクであると言える。 そこで, 文平易化 (Martin et al. 2021) やフォーマル性変換 (Chawla and Yang 2020) などのスタイル変換タスクにおいて高い性能を記録している BART (Lewis et al. 2020) をこのタスクのベースラインとして用いる. ベースラインモデルのアーキテクチャを図 8 (a) に示す. 特殊トークンとして“<user>”, “<system>”, “<query>”を追加する。“<user>”トークン, “<system>”トークンをそれぞれ対話履歴中のユーザ発話の直前, システム発話の直前に付与することで,モデルがそれぞれの発話の話者を区別しやすいようにする.また,変換対象である間接的な応答の直前には “<query>”トークンを付与する.対話履歴中の発話と変換対象の応答を時系列順に連結し,BART のエンコーダに入力する.なお,入力データのトークン数が 512 を超えた場合は末尾から 512 トークン目までのみを入力する。モデルのファインチューニングはクロスエントロピー損失を用いて行う. 実装には transformers (Wolf et al. 2020) ライブラリを使用した。また,事前学習済みモデルとして "facebook/bart-base"9 を用いた. オプティマイザとして AdamW (Loshchilov and Hutter 2019)を用い,学習率は $2 \mathrm{e}-5^{10}$ とした。バッチサイズは GPU メモリ容量上の上限となる 8 (b) Direct-to-Indirect Transfer Model (c) Directness Ranking Model 図 8 ベンチマークタスクにおけるベースラインモデルのモデルアーキテクチャ ^{9}$ https://huggingface.co/facebook/bart-base 10 検証データにおいて最も損失が小さくなるように選んた。 } を採用した ${ }^{11}$. 訓練データのうちランダムに 2,000 件をハイパーパラメータチューニング用の検証データとして抽出し, 残りを訓練に用いた。 30 エポックの学習を経て, 最も検証データでの損失が小さいモデルを評価データでの評価に用いた. また,対話履歴の影響を調査するために,対話履歴を入力しないモデル(BART w/o 対話履歴)も構築した,事前学習の効果を検証するために,事前学習されていない Transformer モデルをDIRECT コーパスのみを用いて訓練したモデルについても評価を行った。 なお, Transformer モデルについてはエンコーダ・デコーダ共に層数や中間層の出力次元数などの各種ハイパーパラメータを BART と同一の值に設定した。 実験結果と考察表 7 に各モデルの評価データにおける BLEU と Perplexity を示す. BART を用いたモデルでは,対話履歴を考慮するモデルの方が BLEU スコアが高い。これは,語用論的な言い換えは対話履歴などの文脈に依存しており,文脈を考慮しなければ正確に意図を反映した言い換えができないことを示唆している。 BART と Transformer については BART の方が BLEU, Perplexity 共に大きく上回っていることがわかる。この結果から,他の多くのタスクと同様に語用論的言い換えに対しても事前学習によって得られる知識が効果的に作用することがわかる. 表 8 に生成された直接的な応答の例を示す。段の例では,BART モデルは間接的な応答の “the best place"というフレーズを価格帯に関する表現だと解釈できていることがわかるが,一方で Transformer モデルはこの解釈に失敗している。下段の例は文脈の考慮が特に重要な例である。対話履歴を利用しない BART(BART w/o 対話履歴)では,参照文とは逆の意図を持つ文を生成してしまっている。一方,対話履歴を利用する 2 つのモデルは共に参照文と同じ意図の文を生成できている. ## 4.2 Direct-to-Indirect タスク タスク概要と動機Direct-to-Indirect タスクでは先のタスクとは逆に, 文脈のもとで意図を保ったまま直接的な応答を間接的な応答に変換することを目的とする。対話システムのユーザの中には,間接的な応答を返すシステムを好む人と直接的な応答を返すシステムを好む人がほぼ同 表 7 Indirect-to-Direct タスクの実験結果  数ずついることが Miehle et al. (2018) によって報告されている. したがって, 対話システムが人間と円滑なコミュニケーションを行うためには,直接的な応答を間接的に言い換える技術の実現も重要である. ベースライン Indirect-to-Direct タスクでの設定と同様, ベースラインとしては対話履歴を入力とする BART モデルを用いる. 図 8 (b) にモデルアーキテクチャを示す. 対話履歴と言い換え対象の直接的応答を 4.1 節で述べたのと同様の方法で BART エンコーダに入力する。また, 対話履歴を無視した BART モデルや,事前訓練を行わずに訓練した Transformer モデルとの比較も行う。ハイパーパラメータやその他の学習設定についても Indirect-to-Direct タスクと同様である。 実験結果と考察表 9 に各モデルの評価デー夕における BLEU と Perplexity を示す. BART をファインチューニングしたモデルが,事前訓練を行わない Transformer モデルに比べて高い BLEU スコアと低い Perplexity を達成しており, 事前学習がこのタスクにおいても有効である 表 8 Indirect-to-Direct タスクにおける直接的応答の生成例 表 9 Direct-to-Indirect タスクの実験結果 \\ 表 10 Direct-to-Indirect タスクにおける間接的応答の生成例 ## ことが確認できる。 全体的に, Direct-to-Indirect タスクに比べて BLEU と Perplexity は共に悪化した. また, 対話履歴を用いても BLEU, Perplexity 共に改善が見られなかった. これらの結果から, Directto-Indirect タスクの方が Indirect-to-Direct タスクよりも難易度の高いタスクであることが示唆される。実際, 3.3 節における統計的な分析でも述べたように,間接的な応答には直接的な応答よりも豊富な語彙が用いられている上に, 平均文長も長い. そのため, 対話履歴の有無に関わらず,直接的な応答を間接的な応答に適切に変換する能力を獲得できていないのではないかと推測できる。表 10 の生成例から見て取れるように,全てのモデルにおいて生成された応答は入力された直接的な応答の意図を保持できていない. 直接的な応答から間接的な応答への変換のためにはより高度なモデルが必要である. ## 4.3 直接性推定タスク タスク概要と動機直接性推定タスクでは,発話の直接性の度合いを推定することを目的とする.この技術を用いることで,ユーザの入力発話が間接的かどうかを事前に判定し,もし間接的であった場合にその意図を聞き直したり,あるいは間接的な発話を直接的に言い換えたりすることができる. DIRECT コーパスには,それぞれの対話履歴に対して MultiWoZ のオリジナルの応答, 間接的な応答, 直接的な応答の 3 つの応答が付与されている.これらの応答は直接性が高い順に並ベると直接的な応答, オリジナルの応答, 間接的な応答の順になる。このタスクでは, モデルが推定した入力発話の直接性スコアを用いて 3 つの応答を降順に並び替えたときに,それが実際の直接性の順番通りに並んでいるかどうかを基に評価を行う. ベースライン本タスクのベースラインとしては, 対話行為推定 (Yu and Yu 2021) や対話状態追跡 (Wu et al. 2020) などの対話データに対する分類タスクにおいて高性能を誇る BERT を用いる.モデルアーキテクチャを図 8 (c) に示す. 先の 2 つのタスクと同様に,まず直接性の推 表 11 直接性推定タスクの評価結果 定対象である応答と対話履歴を特殊トークンを挟んで連結して BERT エンコーダに入力する. “[CLS]” トークンに対応する最終層の出力を線形層に入力してスカラー值に変換し, sigmoid 関数を通して $(0,1)$ の範囲のスカラー値を得る. 最終的な出力を入力された応答の直接性を示すスコアとみなす. モデルの学習には,ランキング学習 (Mitra and Craswell 2018) タスクでよく用いられる Pointwise 損失と Pairwise 損失を用いる. Pointwise 損失では,推定値と正解の直接性スコアの間の平均二乗誤差を最小化する。なお, 今回は擬似的な正解値として, 間接的な応答に 0.0 , オリジナルの応答に 0.5 , 直接的な応答に 1.0 のスコアを割り振る. Pairwise 損失は,より直接的な応答の推定スコアが他方の応答よりも大きくなるような損失関数である。例えば, 直接的な応答 $A$ と間接的な応答 $B$ があって, その推定スコアを $s_{A}, s_{B}$ としたとき,Pairwise 損失は以下で定義される: $ -\log \frac{1}{1+e^{-\left(s_{A}-s_{B}\right)}} $ 評価尺度としては,推定スコアに基いたランキングと正解のランキングに対して,それらが完全一致する割合 (Exact match) とそれらの間の Kendall's tau を用いる. モデルの実装には transformers ライブラリを用いた。 また, 事前学習済みモデルとして “bertbase-cased"を使用した。また,比較のために対話履歴を入力しないモデルも構築した. 実験結果と考察表 11 に実験結果を示す. なお,太字は $t$ 検定の結果 $1 \%$ 水準で他の群との有意差が認められたものを示す. 太字で示された 2 モデル間では有意差を認められなかった. Exact-match と Kendall's tau の両方において, 対話履歴を利用しないモデルと利用するモデルではほぼ変わらない値となっていることがわかる. 3.3 節にて述べたように,間接的な応答と直接的な応答の間には使用される語彙やフレーズに大きな違いがあることがわかっている。このことから,直接性については対話履歴を用いずともフレーズや単語のみをする手がかりとしてある程度予測可能なのではないかと考えられる。しかし, Exact-match は 0.813 にとどまっており, 更なる性能向上のためには対話履歴の利用方法の改良を含め, より高度なモデルの構築が必要である. ## 5 対話応答生成への語用論的言い換えの適用 ユーザ応答が直接的であるほど対話応答生成の性能は向上するという仮定に基づき,語用論的言い換えを考慮した対話応答生成モデルの構築と評価を行う. 具体的には, 最先端の対話応答生成モデルである UBAR (Yang et al. 2021) に対し, 入力発話に加えてそれをより直接的に言い換えたものも考慮するようにモデルを改良する. 本章ではモデルの構築に先あたって, ユーザ応答の直接性が対話応答生成に与える影響を 5.1 節で調査し, 仮定の妥当性を検証する.5.2 節では,語用論的言い換えを考慮した対話応答生成モデルの構築方法について説明する. 5.3 節にて, 応答生成実験の結果と考察を述べる. ## 5.1 対話システムにおける間接的発話の影響調査 4.3 節で構築した直接性推定モデルを用いて, ユーザ応答の直接性がシステム応答の生成に与える影響を調査する。まず,表 11 で最も高性能であった BERT w/o history の Pairwise 損失モデルを用いて, MultiWoZ の評価データのユーザ応答を間接的・直接的のいずれかに振り分ける.ここで, 振り分けの間値は 0.5 に設定し, それより高いものは直接的, それ以下のものを間接的とする. 次に,間接的なユーザ応答群と直接的なユーザ応答群のそれぞれに対して最先端の End-to-End タスク指向対話モデルである UBAR (Yang et al. 2021)を用いてシステム応答を生成する。なお,実装には著者らが公開しているスクリプトを用いた ${ }^{12}$ ,それぞれのユー ザ応答群に対するシステム応答の BLEU を計算したところ, 間接的な応答群に対しては 10.25,直接的な応答群に対しては 14.09 となった. この結果から, 対話システムにとっては直接的なユーザ応答の方が間接的なユーザ応答に比べてよりシステム応答を生成しやすいという仮定は妥当であると言える。よって,ユーザ応答を予めより直接的に言い換えて応答生成モデルに入力することで,対話応答生成の性能は改善できると考えられる. ## 5.2 語用論的言い換えを考慮した対話応答生成器の構築 本実験においては最先端のタスク指向対話応答生成モデルである UBAR (Yang et al. 2021) に対し, 語用論的言い換えを考慮するように改良を加える。UBAR は事前学習済みのテキスト生成モデルである GPT-2 (Radford et al. 2019)を基にして構築された End-to-End 型のタスク指向対話応答生成モデルであり,MultiWoZ データにおける応答生成において高い性能を記録している. UBAR のモデルアーキテクチャを図 9 (a) に示す. UBAR では GPT-2 に対して対話履歴中の最初のユーザ発話を入力し, その入力を基に, ユーザが何を求めていて何が解決されていないか等, 現状の対話状態を予測する. 予測された対話状態を基にホテルやレストランの空き情報等が登録されたデータベースを検索し,条件に合致したレコードを GPT-2に入力  (a) UBAR (b) UBAR 言い換え考慮モデル 図 9 応答生成モデルのモデルアーキテクチャ する(図中「DB」),その後,次にどのような応答を生成するべきかを示す対話行為を推定し,最後にシステム応答を生成する。次のユーザ発話が入力された後も同様の処理を繰り返すことで,対話履歴を考慮しながら応答を生成していくようなモデルとなっている。 本実験では UBARへの入力ユーザ発話に対して,それをより直接的に言い換えたものを図 9 (b)のように連結して入力することで,入力発話を直接的に言い換えた場合の応答生成性能を検証する。なお,予測対象の応答の直前の発話のみを言い換え対象としている。訓練時には直接的な応答として参照文(DIRECT コーパスに収録されている直接的な応答)を用いる。評価時には第 4.1 節で構築した Indirect-to-Direct モデルを用いて生成した直接的な応答を用いる. また,言い換えによる性能向上の上限を調査するため,参考として評価時に直接的応答として参照文を用いた場合の性能についても報告する. 訓練設定やパラメータについては全てのモデルについて Yang et al. (2021) での設定に準拠した.実装は著者らが公開しているスクリプトを用いた.実験データとしては引き続き MultiWoZ を使用しており,訓練データと評価データへの分割方法もベンチマークタスクや Yang et al. (2021) での設定と同様である. ## 5.3 実験結果と考察 評価デー夕における評価結果を表 12 に示す.なお, 評価尺度は BLEU, INFORM, SUCCESS, COMBINED の 4 種類である. このうち INFORM, SUCCESS, COMBINED は MultiWoZ (Budzianowski et al. 2018) 等のタスク指向対話データセットを用いた応答生成実験において代表的に利用されている評価尺度である。INFORM は対話全体を通して提示したエンティ 表 12 対話応答生成の評価結果 ティ (ホテル名やレストラン名など) が正解と一致した割合であり,ユーザのニーズに合致した場所を案内できたかどうかを図る尺度である.SUCCESS は要求された属性値(住所や予約番号,列車番号など)を正確に出力できた割合であり,予約等の成功率を図る尺度である. COMBINED はこれら 3 つの尺度を統合したもので, COMBINED $=$ BLEU $+0.5 \cdot($ INFORM + SUCCESS $)$ で計算される. 表より,全ての尺度において直接的な応答への言い換えを考慮したモデルが UBAR のスコアを上回っていることがわかる。特に,SUCCESS においては生成された言い換えを用いた場合で 1.0 ポイント,参照文を用いた場合で 1.6 ポイント上昇している. よって,ユーザ発話の直接的な発話への言い換えは対話応答生成の性能向上に寄与することがわかった。また,生成文と参照文を比較した場合,BLEU 以外の全ての尺度で参照文の場合の方が性能が高いことが読み取れる。このことから,より正確な語用論的言い換えモデルを構築することで,さらなる応答生成性能の向上が見迄める. ## 6 おわりに 本研究では 71,498 対の間接的応答と直接的応答の語用論的言い換え対を含む夕スク指向対話コーパスを,既存のマルチターンタスク指向対話コーパスである MultiWoZ を拡張する形で構築した。また,3つのベンチマークタスクを提案し, 最先端の事前学習済み言語モデルの語用論的言い換えに対する処理能力を調査した。さらに,DIRECT コーパスでの実験において,入力発話をより直接的に言い換えることで応答生成の性能が向上することを確認した.今後はより性能の高い語用論的言い換え生成・認識モデルの構築に取り組む. 本研究ではタスク指向対話コーパスである MultiWoZ を対象として語用論的言い換えコーパスを構築したが, 雑談対話においてはそのドメインの広さや発話の多様さから, より複雑な語用論的言い換えが発生すると考えられる。雑談対話における語用論的言い換えコーパスの構築や言い換えモデルの構築も将来的な課題として挙げられる. ## 謝 辞 本研究は JSPS 科研費 JP18K11435 および公益財団法人木下記念事業団の助成を受けたものです. ## 参考文献 Bowman, S. R., Angeli, G., Potts, C., and Manning, C. D. (2015). "A Large Annotated Corpus for Learning Natural Language Inference." In Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 632-642. Brown, P., Levinson, S. C., and Gumperz, J. J. (1987). Politeness: Some Universals in Language Usage. Studies in Interactional Sociolinguistics. Cambridge University Press. Budzianowski, P., Wen, T.-H., Tseng, B.-H., Casanueva, I., Ultes, S., Ramadan, O., and Gašić, M. (2018). "MultiWOZ - A Large-Scale Multi-Domain Wizard-of-Oz Dataset for Task-Oriented Dialogue Modelling." In Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 5016-5026. Cer, D., Diab, M., Agirre, E., Lopez-Gazpio, I., and Specia, L. (2017). "SemEval-2017 Task 1: Semantic Textual Similarity Multilingual and Crosslingual Focused Evaluation." In Proceedings of the International Workshop on Semantic Evaluation (SemEval), pp. 1-14. Chawla, K. and Yang, D. (2020). "Semi-supervised Formality Style Transfer using Language Model Discriminator and Mutual Information Maximization." In Findings of the Association for Computational Linguistics: EMNLP, pp. 2340-2354. Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT), pp. 4171-4186. Dolan, W. B. and Brockett, C. (2005). "Automatically Constructing a Corpus of Sentential Paraphrases." In Proceedings of the International Workshop on Paraphrasing. Eric, M., Goel, R., Paul, S., Sethi, A., Agarwal, S., Gao, S., Kumar, A., Goyal, A., Ku, P., and Hakkani-Tur, D. (2020). "MultiWOZ 2.1: A Consolidated Multi-Domain Dialogue Dataset with State Corrections and State Tracking Baselines." In Proceedings of the Language Resources and Evaluation Conference (LREC), pp. 422-428. Firdaus, M., Ekbal, A., and Bhattacharyya, P. (2020). "Incorporating Politeness across Languages in Customer Care Responses: Towards building a Multi-lingual Empathetic Dialogue Agent." In Proceedings of the Language Resources and Evaluation Conference (LREC), pp. 4172-4182. Gao, S., Zhang, Y., Ou, Z., and Yu, Z. (2020). "Paraphrase Augmented Task-Oriented Dialog Generation." In Proceedings of the Annual Meeting of the Association for Computational Linguistics (ACL), pp. 639-649. Giampiccolo, D., Magnini, B., Dagan, I., and Dolan, B. (2007). "The Third PASCAL Recognizing Textual Entailment Challenge." In Proceedings of the ACL-PASCAL Workshop on Textual Entailment and Paraphrasing, pp. 1-9. Gupta, S., Walker, M. A., and Romano, D. M. (2008). "POLLy: A Conversational System that uses a Shared Representation to Generate Action and Social Language." In Proceedings of the International Joint Conference on Natural Language Processing (IJCNLP). Hosseini-Asl, E., McCann, B., Wu, C.-S., Yavuz, S., and Socher, R. (2020). "A Simple Language Model for Task-Oriented Dialogue." In Proceedings of the Conference of Neural Information Processing Systems (NeurIPS), Vol. 33. Hou, Y., Liu, Y., Che, W., and Liu, T. (2018). "Sequence-to-Sequence Data Augmentation for Dialogue Language Understanding." In Proceedings of the International Conference on Computational Linguistics (COLING), pp. 1234-1245. 乾健太郎,藤田篤 (2004). 言い換え技術に関する研究動向. 自然言語処理, 11 (5), pp. 151-198. [K. Inui and A. Fujita (2004). A Survey on Paraphrase Generation and Recognition. Journal of Natural Language Processing, 11(5), pp. 151-198.]. Lan, W., Qiu, S., He, H., and Xu, W. (2017). "A Continuously Growing Dataset of Sentential Paraphrases." In Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1224-1234. Lewis, M., Liu, Y., Goyal, N., Ghazvininejad, M., Mohamed, A., Levy, O., Stoyanov, V., and Zettlemoyer, L. (2020). "BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension." In Proceedings of the Annual Meeting of the Association for Computational Linguistics (ACL), pp. 7871-7880. Li, Y., Su, H., Shen, X., Li, W., Cao, Z., and Niu, S. (2017). "DailyDialog: A Manually Labelled Multi-turn Dialogue Dataset." In Proceedings of the International Joint Conference on Natural Language Processing (IJCNLP), pp. 986-995. Lin, Z., Madotto, A., Winata, G. I., and Fung, P. (2020). "MinTL: Minimalist Transfer Learning for Task-Oriented Dialogue Systems." In Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 3391-3405. Loshchilov, I. and Hutter, F. (2019). "Decoupled Weight Decay Regularization." In Proceedings of the International Conference on Learning Representations (ICLR). Louis, A., Roth, D., and Radlinski, F. (2020). "I'd rather just go to bed": Understanding Indirect Answers." In Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 7411-7425. Marelli, M., Bentivogli, L., Baroni, M., Bernardi, R., Menini, S., and Zamparelli, R. (2014). "SemEval-2014 Task 1: Evaluation of Compositional Distributional Semantic Models on Full Sentences through Semantic Relatedness and Textual Entailment." In Proceedings of the International Workshop on Semantic Evaluation (SemEval), pp. 1-8. Martin, L., Fan, A., de la Clergerie, É., Bordes, A., and Sagot, B. (2021). "MUSS: Multilingual Unsupervised Sentence Simplification by Mining Paraphrases." arXiv preprint arXiv:2005.00352. Miehle, J., Minker, W., and Ultes, S. (2018). "Exploring the Impact of Elaborateness and Indirectness on User Satisfaction in a Spoken Dialogue System." In Adjunct Publication of the Conference on User Modeling, Adaptation and Personalization (UMAP), pp. 165-172. Mitra, B. and Craswell, N. (2018). "An Introduction to Neural Information Retrieval." Foundations and Trends ${ }^{\circledR}$ in Information Retrieval, 13 (1), pp. 1-126. Niu, T. and Bansal, M. (2018). "Polite Dialogue Generation Without Parallel Data." Transactions of the Association for Computational Linguistics (TACL), 6, pp. 373-389. Papineni, K., Roukos, S., Ward, T., and Zhu, W.-J. (2002). "Bleu: a Method for Automatic Evaluation of Machine Translation." In Proceedings of the Annual Meeting of the Association for Computational Linguistics (ACL), pp. 311-318. Perrault, C. R. (1980). "A Plan-Based Analysis of Indirect Speech Act." American Journal of Computational Linguistics, 6 (3-4), pp. 167-182. Pragst, L. and Ultes, S. (2018). "Changing the Level of Directness in Dialogue using Dialogue Vector Models and Recurrent Neural Networks." In Proceedings of the Annual SIGdial Meeting on Discourse and Dialogue (SIGDIAL), pp. 11-19. Radford, A., Wu, J., Child, R., Luan, D., Amodei, D., and Sutskever, I. (2019). "Language Models are Unsupervised Multitask Learners.". Reimers, N. and Gurevych, I. (2019). "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the International Joint Conference on Natural Language Processing (IJCNLP), pp. 3982-3992. Roque, A., Tsuetaki, A., Sarathy, V., and Scheutz, M. (2020). "Developing a Corpus of Indirect Speech Act Schemas." In Proceedings of the Language Resources and Evaluation Conference (LREC), pp. 220-228. Searle, J. R. (1979). Indirect Speech Acts, pp. 30-57. Cambridge University Press. Takayama, J., Kajiwara, T., and Arase, Y. (2021). "DIRECT: Direct and Indirect Responses in Conversational Text Corpus." In Findings of the Association for Computational Linguistics: EMNLP, pp. 1980-1989. 高山隼矢, 梶原智之, 荒瀬由紀 (2021). 間接的な応答と直接的な応答の対からなる対話コーパスの構築. 情報処理学会第 249 回自然言語処理研究会, 11 号. [J. Takayama et al. (2021). Kansetsuteki na Outou to Chokusetsuteki na Outou no Tsui karanaru Taiwa Kopasu no Kochiku. SIG Technical Reports, 2021-NL-249, 11.]. Welleck, S., Weston, J., Szlam, A., and Cho, K. (2019). "Dialogue Natural Language Inference." In Proceedings of the Annual Meeting of the Association for Computational Linguistics (ACL), pp. 3731-3741. Wilcoxon, F. (1945). "Individual Comparisons by Ranking Methods." Biometrics Bulletin, 1 (6), pp. 80-83. Wilske, S. and Kruijff, G.-j. (2006). "Service Robots Dealing with Indirect Speech Acts." In 2006 IEEE/RSJ International Conference on Intelligent Robots and Systems, pp. 4698-4703. Wolf, T., Debut, L., Sanh, V., Chaumond, J., Delangue, C., Moi, A., Cistac, P., Rault, T., Louf, R., Funtowicz, M., Davison, J., Shleifer, S., von Platen, P., Ma, C., Jernite, Y., Plu, J., Xu, C., Le Scao, T., Gugger, S., Drame, M., Lhoest, Q., and Rush, A. (2020). "Transformers: State-of-the-Art Natural Language Processing." In Proceedings of the Conference on Empirical Methods in Natural Language Processing: System Demonstrations (EMNLP), pp. 38-45. Wu, C.-S., Hoi, S. C., Socher, R., and Xiong, C. (2020). "TOD-BERT: Pre-trained Natural Language Understanding for Task-Oriented Dialogue." In Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 917-929. Yang, Y., Li, Y., and Quan, X. (2021). "UBAR: Towards Fully End-to-End Task-Oriented Dialog Systems with GPT-2." In Proceedings of the AAAI Conference on Artificial Intelligence (AAAI). Yu, D. and Yu, Z. (2021). "MIDAS: A Dialog Act Annotation Scheme for Open Domain HumanMachine Spoken Conversations." In Proceedings of the Conference of the European Chapter of the Association for Computational Linguistics (EACL), pp. 1103-1120. Zhang, Y., Sun, S., Galley, M., Chen, Y.-C., Brockett, C., Gao, X., Gao, J., Liu, J., and Dolan, B. (2020). "DIALOGPT : Large-Scale Generative Pre-training for Conversational Response Generation." In Proceedings of the Annual Meeting of the Association for Computational Linguistics: System Demonstrations (ACL), pp. 270-278. Zhang, Y., Baldridge, J., and He, L. (2019). "PAWS: Paraphrase Adversaries from Word Scrambling." In Proceedings of the Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT), pp. 1298-1308. Zhao, Y., Xu, C., and Wu, W. (2020). "Learning a Simple and Effective Model for Multi-turn Response Generation with Auxiliary Tasks." In Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 3472-3483. ## 略歴 高山隼矢:2017 年豊田工業大学工学部先端工学基礎学科卒業. 2019 年大阪大 学大学院情報科学研究科博士前期課程修了. 同年同研究科博士後期課程に進学. 現在に至る。自然言語生成,対話システムに興味を持つ.修士(情報科学). 言語処理学会, ACL 各学生会員. 梶原智之:愛媛大学大学院理工学研究科助教. 2013 年長岡技術科学大学工学部電気電子情報工学課程卒業. 2015 年同大学大学院工学研究科修士課程修了. 2018 年首都大学東京大学院システムデザイン研究科博士後期課程修了. 博士 (工学)。大阪大学データビリティフロンティア機構の特任助教を経て, 2021 年より現職. 情報処理学会, 人工知能学会, 言語処理学会, ACL 各会員. 荒瀬由紀:2006 年大阪大学工学部電子情報エネルギー工学科卒業. 2007 年同大学院情報科学研究科博士前期課程, 2010 年同博士後期課程修了. 博士(情報科学),同年, 北京の Microsoft Research Asia に入社, 自然言語処理に関する研究開発に従事. 2014 年より大阪大学大学院情報科学研究科マルチメディア工学専攻准教授, 現在に至る。言い換え表現認識と生成,言語教育支援,対話システムに興味を持つ。
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 簡易小型化 BERT による日本語構文解析 河野 慎司 $\dagger \cdot$ 古宮 嘉那子 $\dagger \dagger$ ・新納 浩幸 $+\dagger \dagger$ } BERT は fine-tuning することで様々な NLP タスクに対して高性能な結果を出した 事前学習済みモデルであるが, 多くのパラメータを調整する必要があるため学習や 推論に時間がかかるという問題がある。本論文では日本語構文解析に対して, BERT の一部の層を削除した簡易小型化 BERT の利用を提案する. 実験では, 京都大学 ウェブ文書リードコーパスと京都大学テキストコーパスを混合したデータを用いて,京大版の BERT とそこから構築した簡易小型化 BERT の正解率と処理時間を比較 した. 提案する簡易小型化 BERT では, 京大版の BERT からの正解率の劣化をウェ ブコーパスで 0.87 ポイント, テキストコーパスで 0.91 ポイントに押さえながら,学習時間は $83 \%$, 推論時間はウェブコーパスで $65 \%$, テキストコーパスで $85 \%$ まで削減することができた. キーワード:BERT,構文解析,枝刈り ## Japanese Parsing Using Smaller BERT \author{ Kono Shinui ${ }^{\dagger}$, Kanako Komiya $^{\dagger \dagger}$ and Shinnou Hiroyuki ${ }^{\dagger \dagger \dagger}$ } BERT is a pre-trained model that can achieve high accuracy for various NLP tasks with fine-tuning. However, BERT requires tuning of many parameters, making training and inference time-consuming. In this study, we propose to apply smaller BERT for Japanese parsing by dropping some of its layers. In our experiments, we compared the parsing accuracy and processing time of the BERT developed by Kyoto University and smaller BERT with dropping some of its layers, using the Kyoto University Web Document Leads Corpus (referred to as the web corpus) and the Kyoto University Text Corpus (referred to as the text corpus). The experiments revealed that the smaller BERT reduced the training time by $83 \%$ and inference time by $65 \%$ for the Web corpus and $85 \%$ for the text corpus, while maintaining the accuracy degradation from the Kyoto University version of BERT to 0.87 points for the Web corpus and 0.91 points for the text corpus. Key Words: BERT, Parsing, Pruning †茨城大学大学院理工学研究科情報工学専攻, Major in Computer and Information Sciences, Graduate School of Science and Engineering, Ibaraki University † 東京農工大学工学研究院先端情報科学部門, Department of Computer and Information Sciences, Institute of Engineering, Tokyo University of Agriculture and Technology ††† 茨城大学大学院理工学研究科情報工学専攻, Major in Computer and Information Sciences, Graduate School of Science and Engineering, Ibaraki University ## 1 はじめに 構文解析とは句同士の係り受け関係を明らかにするタスクのことである.従来より研究が盛んな分野であり, 日本語構文解析ツールの $K^{-1}$ (河原, 黒橋 2007) (笹野, 黒橋 2011) が有名であるが,近年,BERT を利用することで,従来の KNP よりも高い正解率を出すことが示されている (柴田他 2019). BERT (Devlin et al. 2019) は fine-tuning することで様々な NLP タスクに対して高い性能を示した事前学習済みモデルである。 BERT を利用した構文解析では, BERT からの出力べクトルを順伝播型ニューラルネットワーク (FFNN) に入力し fine-tuning することで構文解析を行う. ただし,BERT には多くのパラメータを調整する必要があるため学習や推論に時間がかかるという問題がある. そこで本研究では, 構文解析において事前学習済み BERT の一部の層を削除した簡易小型化 BERT の利用を提案する。ここでいう層とは, BERT を構成している transformer のエンコー ダーのことであり, $\mathrm{BERT}_{\mathrm{BASE}}$ の場合, 12 層の transformer のエンコーダーから成っている. このうちの何層かを削除し, 層数が減った新しい BERT モデルを作成するという簡易な処理で小型化したBERT を,以降,簡易小型化 BERT と呼ぶ.実験では,京都大学ウェブ文書リードコーパス (萩行他 2014) と京都大学テキストコーパス (Kurohashi and Nagao 1998) を混合したデータを用いて,京大版の $\mathrm{BERT}^{2,3}$ とそれを簡易小型化した BERT の正解率と処理時間を比較した. 提案する簡易小型化 BERT では, 3 ~ 10 層目を削除した合計 4 層のモデルが,京大版の BERT からの正解率の劣化をウェブコーパスで 0.87 ポイント, テキストコーパスで 0.91 ポイントに押さえる結果となり,層を削除した後でも高い正解率を維持していることが分かった。また学習・推論時間は削除する層を増やすほど速くなり, 合計 4 層モデルでは学習時間は $83 \%$,推論時間はウェブコーパスで $65 \%$, テキストコーパスで $85 \%$ まで削減することができた. また BERT のどの位置の層が構文情報を捉えているかを, 12 層のうち 1 層のみを fine-tuning に使用し,テストを行うことで調査した。その結果, 新聞コーパスは上位・下位層が高い正解率を出したが,Webコーパスにおいてはどの層も大きな変化は出なかった. これらの結果から BERT はコーパスの特性や文に含まれるトークン数, 未知語の割合などによって, 構文解析の正解率に変化が出ると考えられる。 ^{3}$ https://nlp.ist.i.kyoto-u.ac.jp/?ku_bert_japanese } ## 2 関連研究 (Zhang et al. 2017) は構文解析を, 単語ごとに係り先を決定する Head Selection 問題として行っている. BiLSTM からの特徴量を用いることで, 高性能な構文解析を行っている. BERT を使った日本語構文解析の関連研究として(柴田他 2019) の研究がある。柴田らは事前学習済み BERT を京都大学テキストコーパスと京都大学ウェブ文章リードコーパスという 2 種類のコー パスで fine-tuning し, BERTによる構文解析の正解率を調査した。結果, BERT を利用した場合, KNP や CaboCha4 , BiLSTM を利用したときよりも高い正解率を出している。(宇田川他 2021) は, BERT からの出力ベクトルに加え, 係り元と係り先の距離などを one-hot ベクトルで表現した基本素性を FFNNに入力し, 構文解析を行っている.このとき BERT と基本素性を組み合わせた場合, CaboChaよりも高い正解率となっている. (Sajjad et al. 2021)は, 事前学習済み BERT の層を削除し, fine-tuning した場合, GLUE夕スクにおいて 12 層の BERT に比べどの程度差が出るのかを調査した. このとき, - 4 層減らすとき,下位の層を削除するのが一番スコアが低いが,他はあまり差がない. - 6 層減らすとき, 上位の層を削除するのが一番スコアがいい. など,削除する層数や位置によってスコアに差が出ることを述べている. 本研究において簡易小型化 BERT を作成する際, Sajjad らのように事前学習済み BERT の層を削除する手法を利用したが,(Gordon et al. 2020)は BERT の重みの値が 0 に近いものを不要 りをしていないモデルに比べて, GLUEタスクにおいて大きな差は出ないと述べている. BERT の層がどの情報を捉えているかについては, Sajjadらは上位層はタスクに特化した重みになっており,中間層は重要な情報を含んでおらず,下位層は文脈情報を含んでいると述べている. 同じく(Tenney et al. 2019) も,基本的な構文情報は BERT の早い段階で処理され,高レべルの意味的情報はより高い層に現れると述べている。 一方で, (Jawahar et al. 2019) は Probing タスクにおいて, BERT が統語的な情報を中間層が捉えているという結果を出している。(Hewitt and Manning 2019) も依存構造解析において BERT $_{\mathrm{BASE}}$ は 6 9 層, BERT $\mathrm{BARGE}$ は 15 17 層等, 比較的中間に近い層が構文情報を捉えていると述べている。 ^{4}$ https://taku910.github.io/cabocha/ } ## 3 BERT 本研究で使用する BERT は, 京都大学黒橋研究室が公開している BERT 日本語 Pretrained モデルの BASE 通常版 5 を使用する。このモデルは日本語テキストのみの Wikipedia を形態素解析した後に subword に分割し, 事前学習されたモデルである. ## 3.1 構文解析 本研究で BERT による構文解析を行うモデル図を,「自然の」の係り受けを判定するときを例にとって,図 1 に示す.まず,コーパスに記されている「基本句」の区切り方に従って,各基本句をひとつずつ BERT tokenizer に入力する. BERT tokenizer は BERT の学習時に, BERT の学習に最良となるトークン化手法を学習しており, この結果, 必要な際は, 基本句を基本句より小さな subword に分割する.大抵は定められた語彙にない基本句について subword に分割されていると考えられるため,本論文では subword に分割されたトークンを未知語と呼ぶ. 京大の BERT tokenizerは, Transformersの実装に基づき, subwordに分割した際の先頭以外のトー クンは, 頭に「\#\#」がついた形で出力される。なお, 基本句とは, 1 の自立語とそれに続く付属語から成る言葉の単位である ${ }^{6}$. 例えば, 「右が兄, 左が弟の写真。」とい文を基本句区切りにすると,「右が|兄,|左が|弟の|写真。のように分かれる.今回利用した京都大学ウェブ文書リードコーパスと京都大学テキストコーパスには, 基本句の区切り部分のアノテーションだけではなく,形態素の区切り部分のアノテーションも付与されている.形態素は意味を持つ最小単位で,先ほどの例文の場合だと,「右 $\mid$ が $\mid$ 兄 $\mid$, |左 $\mid$ が $\mid$ 弟 $\mid$ の写真 $\mid$ 」」のうに分かれる。 次に注目したトークンより,後ろのトークン全てに対して scoreを計算し, scoreを元に係り 図 1 BERT による構文解析のモデル図(「自然の」の係り受け判定時)  受けの有無を 2 值分類する. scoreの計算に際しては,(宇田川他 2021)の構文解析モデルを参考とした。 具体的に「私は茨城大学の学生です.」という文を本手法で構文解析した手順を述べる。まずこの文を基本句区切りにしたときの係り受け関係は図 2 のようになる. 矢印の先が係り先で,例えば「私は」は「学生です.」に係っている. 本手法では,注目したトークンより後ろのトークン全てに対して係り受けの 2 値分類を行うため,注目トークンとそれ以降のトークンに対して,係り受けラベルを付与する,AがBに係っている場合, 係り元トークンが A で係り先トークンが B の際に係り受けラベル 1 を付与し, 係っていない場合, 係り受けラベル 0 を付与した. なお, ひとつの係元は複数の係先をもつことはないが,逆にひとつの係先は複数の係元をもつことがある.例えば [その, 自然, の, 美しさ, が, 何とも,言え,ません]という文では,「その」と「自然」は、共に「美しさ」に係る.表 1 では,「私は」のトークンに注目したときの係り受けラベルの付与について示している. このとき subword に分割された際の先頭以外のトークン,つまり頭に「\#\#」が付与されたトー クンに対しては係り受けラベルは付与しない. 次に score の計算方法について述べる. $v_{i}$ と $v_{j}$ をそれぞれ係り元, 係り先の BERT からの出力ベクトル $\left(v_{i}, v_{j}\right)$ だとすると, 以下の式で score を出力する. なお, sigmoid の出力を score にすることも可能であるが,(宇田川他 2021)に従い,wを使用した. $ \begin{aligned} v_{i j} & =\operatorname{concat}\left(v_{i}, v_{j}\right) \\ x & =\operatorname{sigmoid}\left(U v_{i j}\right) \\ \text { score } & =w^{\top} x \end{aligned} $ このとき, $U$ と $w$ は fine-tuning する際,新しく追加したパラメータであり, $w$ の次元は任意 図 2 係り元と係り先の関係 表 1 係り先ラベルの設定 4層削除 6層削除 8層削除 図 3 削除する層の位置 とし, $U$ の大きさは, $w$ の次元数 $\times v_{i}$ と $v_{j}$ の長さの合計の次元とする. 最後に, scoreを 2 値クロスエントロピーとして, 係り受けの有無を fine-tuning で学習させる. ## 3.2 層の削除 構文解析の正解率と学習・推論速度の差を調査するため,京大版 BERT の一部層を削除したモデルを複数作成する。 BERT $_{\mathrm{BASE}}$ の位置関係は, BERT の入力に近い方を下位, 出力に近い方を上位と呼ぶこととする. 図 3 は実験で使用するモデルの種類を表している。図 3 の灰色の層が削除した層を表しており, 左から上位, 中位, 下位の位置を削除したものである. ## 4 実験 本実験では, 京都大学ウェブ文書リードコーパス (以降, Webコーパス) と京都大学テキストコーパス(以降,新聞コーパス)を混合したデータを用いて fine-tuningを行い,その後,それぞれのコーパスでテストをし,構文解析の正解率と学習・推論時間を調査した. また fine-tuning 時には EarlyStopping を採用した.検証データの正解率が最高値を更新しなくなってから 5 エポック後に停止させる. なお, 正解率は係り元トークンと係り先トークンのペアを一用例とし,係り受けラベルの 2 值分類を行った際の「テストで正解した用例数 / 全テスト用例数」で求めた. $n$ トークンある文ではぺア数(テスト用例数)は $(n-1)+(n-2)+\ldots 1$ となる. なお, BERT からの出力べクトル $\left(v_{i}, v_{j}\right)$ は 768 次元とし, w は (宇田川他 2021)に従い 1,000 次元とした. そのため $U \in \mathbb{R}^{1000 \times 1536}$ である. 削除する層数は上位, 中位, 下位, それぞれの位置で $4,6,8$ 層とした。 学習及び推論は表 2 の環境で行った. また,学習時のバッチサイズは 4 である。なお,推論時間に初期化処理にかかる時間は含まれていない.また,推論時はバッチ処理を行わず,1文ずつ推論を行った. ## 4.1 使用データ 実験で使用するデータ数を表 3 に示す。学習と検証には Webコーパスと新聞コーパスを混合した 10,000 文,2,000 文をそれぞれ利用したが,テスト時は Web と新聞を分けて 3,000 文ずつテストを行った. ただし,新聞コーパスは Webコーパスに比べ,1文のトークン数が長いものが多かったため,学習データが 0 に偏り, BERT, 簡易小型化 BERT ともに fine-tuning では学習が収束しなかった。そのため, fine-tuning に用いる新聞コーパスのうち, 1 文のトークン数が subword を含めて 24 個以下のもののみを使用した. テスト時のデータはトークン数で制限をかけていない. Webコーパスはまざまなウェブ文書のリード(冒頭)3文に各種言語情報を人手で付与したテキストコーパスである。ウェブ文書のリード 3 文を収集することによって,ニュース記事,百科事典記事,ブログ,商用ページなど多様なジャンル,文体の文書を含んでいる. 新聞コーパスは毎日新聞の記事に各種言語情報を人手で付与したテキストコーパスである. 95 年 1 月 1 日から 17 日までの全記事, 約 2 万文, 1 月から 12 月までの社説記事, 約 2 万文, 計約 4 万文に対して,形態素・構文情報を付与している. どちらのコーパスにも付与されている言語情報は, 形態素解析システム JUMAN, 構文解析システム KNP で自動解析を行い,その結果を人手で修正したものである。 ## 4.2 ベースラインシステム 提案手法の構文解析の性能と学習・推論時間を評価するために, 通常 12 層の BERT BASE, , KNP,また BERT ベクトルの代わりに word2vec (Mikolov et al. 2013a, 2013b, 2013c)を利用 表 2 学習環境 表 3 使用したデー夕数 表 4 word2vecの学習パラメーター して分類する手法と比較する,なお, word2vec を比較対象としたのは, BERT が出現する前の分散表現のスタンダードな手法であったため,その精度を比較するためである。通常 12 層の BERT $_{\text {BASE }}$ には, 前述のとおり, 黒橋研究室が公開している BERT 日本語 Pretrained モデルの BASE 通常版を利用する.KNP は version $4.2^{7}$ を利用した, word2vecには,日本語 Wikipedia の 2021 年 7 月 1 日時点のダンプデータを juman++の version 2.0.0-rc38用いて基本句区切りにしたものを訓練データとして学習したモデルを利用した。学習には gensim を使用した. 学習時の各パラメーターは表 4 の通りである。そのほかのパラメータは, gensimのデフォルト値を利用した。 word2vec からのべクトルを利用して score を計算する際,BERT を利用した手法では 768 次元にしている $v_{i}, v_{j}$ を,それぞれ 200 次元に変更した,そのため,BERT の出力ベクトルのかわりに word2vec を利用した手法では, $U \in \mathbb{R}^{1000 \times 400 て ゙ ある . ~}$ ## 4.3 実験結果 ## 4.3.1 構文解析のテスト 各モデルの 2 つのコーパスでのテスト結果を表 5 および図 4 に示す。通常 12 層の BERT BASE では Webコーパスで $\mathbf{9 4 . 6 7 \%}$, 新聞コーパスで $\mathbf{9 5 . 6 8 \%}$ となった. 図 4 より, 削除する層数を増やした場合でも, BERT $_{\mathrm{BASE}}$ に比べ大きく正解率が落ちていないことが分かった. また, 削除する層数にかかわらず,中位を削除したモデル(上位と下位を使用したとき)が高い正解率を維持していることが分かる. 各モデルの正解率の詳細は以下の通りである. 3 10 層目を削除した合計 4 層のモデルが,Webコーパスで $93.80 \%$, 新聞コーパスで $94.77 \%$ ポイントに押さえる結果となった. $\mathrm{BERT}_{\mathrm{BASE}}$ と簡易小型化した BERT との比較だけでなく, KNP と word2vec とも比較した結  & \multirow{2}{*}{ 総ペア数 } \\ 表 5 各モデルの正解率の詳細 果を表 5 および図 5 に示す. KNP は従来の KNP ツールを利用したものであり, word2vec は BERT からの出力べクトルの代わりに word2vec を利用して分類したものである. 図 5 の「下位 4 層削除」は先程の簡易小型化した BERT で Web コーパスの正解率が一番低かったもの,「上位 4 層削除」は簡易小型化した BERT で新聞コーパスの正解率が一番低かったものである. word2vec は日本語 Wikipediaを基本句区切りにししたものを訓練データとして学習したモデルを利用した。 $\mathrm{KNP}$ に比べ, $\mathrm{BERT}_{\mathrm{BASE}}$ の方が Webコーパスで約 6 ポイント, 新聞コーパスで約 5 ポイント正解率が良い結果となった。また, KNP を用いたときは, 小型化 BERTを用いた下位 4 層, 図 4 各モデルのテスト結果 図 5 word2vec, KNP との比較結果 8 層削除モデルとほぼ同等の正解率を維持している。具体的には, Webコーパスでは, 小型化 BERT の中で最も正解率の低い下位 4 層削除モデルと比較して約 1.6 ポイント減,新聞では,小型化 BERT の中で最も正解率の低い上位 4 層削除モデルと比較して約 0.1 ポイント減となっている。 BERT 使った構文解析では, $v_{i}$ と $v_{j}$ を BERT からの出力べクトルとして構文解析を行ったが,この $v_{i}$ と $v_{j}$ を BERT からの出力ベクトルではなく, word2vec で得たべクトルを利用した場合, $\mathrm{BERT}_{\mathrm{BASE}}$ よりも正解率がかなり落ちていることが分かる。また, 小型化 BERT を用いた下位 4 層, 8 層削除モデルと比較しても,大きく正解率が落ちている。具体的には, Webコー パスでは, 小型化 BERT の中で最も正解率の低い下位 4 層削除モデルと比較して約 11.7 ポイン ト減,新聞では,小型化 BERT の中で最も正解率の低い上位 4 層削除モデルと比較して約 2.9 ポイント減となっている. word2vec で得られる単語(基本句)のベクトルは文脈依存ではないことが,正解率に影響を与えていると考えられる。 また,参考として,表 6 に各モデルの正解数と不正解数として,コーパスとモデルごとの False Positive, False Negative, True Positive, True Negativeを示した. 提案手法のうち, 最も大きな数を太字で,最も小さな数をイタリックで示した。下位 4 層削除した場合にはコーパスにかかわらず False Positive が増加していることなどが見て取れる.なお,KNP は 1 文内でペアを作り,それらを係っているか/係っていないかを判別する方式で結果を出力できなかったため,正解数と不正解数に関しては示さなかった。表 7 に各モデルの適合率,再現率, $\mathrm{F}$ 値を示す。適合率は True Positive/(True Positive+False Positive),再現率は True Positive/(True Positive+False Negative), $\mathrm{F}$ 値は適合率と再現率の調和平均として計算した。なお,正解率は (True Positive+False Negative)/全用例数である。なお, $\mathrm{F}$ 值で比較しても,中位層の削除が最も性能が高いこと, 下位 4 層の削除が Webコーパスで最も性能が低いことは変わらないが,新 表 6 各モデルの正解数と不正解数 聞コーパスでは上位 4 層より下位 4 層を削除したほうが性能が悪化している. ## 4.3.2 学習・推論時間の結果 次に学習・推論時間の結果について述べる。学習時間の結果は表 8 の通りである. EarlyStopping を採用したため,エポック数がモデルごとに異なる,そのため, 1 エポックの平均学習時間を比較している,結果より削除する層数が増えるほど,学習時間は短くなっていることが分かる. 表 7 各モデルの適合率, 再現率, $\mathrm{F}$ 値 表 8 学習時間 また, 収束のエポック数と, 最高スコアを出したエポック数までの $1 \mathrm{ep}$ の平均学習時間から, 収束時間のおおよその推定値を算出したものを表 9 として示す. $4 , 6 , 8$ 層削除モデルは,それぞれ上位・中位・下位と 3 パターンで学習を行っているため, 収束時間, エポック数ともに, 3 つのモデルの平均値である. 推論時間の結果は表 10 の通りである,学習時間と同じく,推論時間に関しても削除する層数が増えるほど,推論時間は短くなっていることが分かる。この時, 新聞コーパスが Webコーパスよりも推論時間が長いのは,新聞コーパスの方が 1 文の平均トークン数が多いためである. 8 層削除の合計 4 層モデルでは学習時間は $83 \%$, 推論時間は Webコーパスで $65 \%$, 新聞コー パスで $85 \%$ まで削減することができた. なお,KNP を用いたときは,推論時間に関して KNP は webコーパスで 4 分 2 秒,新聞コー パスで 7 分 46 秒と, BERTでの推論時間に比べて大幅に時間がかかっている. また,各モデルの総パラメーター数は表 11 の通りである. 表 9 推測による収束時間 表 10 推論時間 表 11 各モデルの総パラメーター数 ## 5 考察 図 4 の各モデルのテスト結果より,上位層と下位層を利用したとき,構文解析において高い正解率を維持しているため, 上位層と下位層が構文情報を捉えていると考えられる. 関連研究では BERT において, (Sajjad et al. 2021), (Tenney et al. 2019) は構文情報は下位層を含んでいると述べているが, (Jawahar et al. 2019), (Hewitt and Manning 2019)は中間層が構文情報を捉えていると述べている. ## 5.1 各層ごとの正解率の差 本研究において, BERT のどの層が構文情報を捉えているのか, より細かく調査するため, $\mathrm{BERT}_{\mathrm{BASE}}$ の中で 11 層を削除し, 1 層目から 12 層目まで 1 層ずつ fine-tuning し実験を行った.新聞コーパスでのテスト結果を図 $6, \mathrm{Web}$ コーパスでのテスト結果を図 7 に示す。図の縦軸が BERT で何番目の層を利用したかを表しており,縦軸一番下が BERT の 1 層目のみ使用,縦軸一番上が BERT の 12 層目のみを使用した結果である。横軸はテスト正解率である. 新聞コーパスは下位の層, 上位の層が,5層から 8 層目の中間の層よりも正解率がいいことがわかった。一方でWebコーパスに関してはどの位置の層を削除しても同程度の正解率であった。 今回利用したコーパスの平均トークン数と 1 文の平均未知語数は表 12 に示す. 新聞コーパスの方が Webコーパスに比べ, 1 文の平均トークン数が長く, それに伴い平均未知語数が多くなっている.このことから,コーパスの種類や,1文のトークン数と未知語数が多いことが, BERT が構文情報を捉える位置に影響を与えているのではないかと考えられる. さらに詳しく分析するため, 新聞コーパスをトークン長ごとに 3 つのグループに分けて, BERT 図 6 新聞コーパスを 1 層ずつテスト を 1 層ずつ fine-tuning したモデルで実験を行った.具体的には,テストデータに利用した 3,000 件の新聞コーパスをトークン長を昇順に並び替え,短・中・長と 3 つのグループにそれぞれ 1,000 件ずつ分類した. グループごとの平均トークン長を表 13 に示す. 短と中グループの結果を示した図 $8 , 9$ では,それぞれ $95 \%$ そど正解率であるが,長グルー らの結果から,トークンが長い場合,BERT の中位層がうまく働かないことが見て取れる。なお, これらの差はカイ二乗検定により統計的に有意であった。この結果は, 図 4 の結果, つまり中間層を削除した場合が最も構文解析の正解率が保たれていることと一致している. 図 7 Webコーパスを 1 層ずつテスト 表 12 各テストコーパスの特徴 表 13 トークン長ごとにグループ分け 図 8 短グループのテストの正解率 図 9 中グループのテストの正解率 ## 5.2 未知語と格による影響 コーパスによって正解率の違いが出ることが分かったが, 未知語の影響や層ごとによる構文情報の捉え方の違いを見つけるため,上位・中位・下位でそれぞれ 4 層ずつ層を削除したモデルで調査を行った。 図 11 は,テストデータにおいて係り受けラベルの 1 を付与したぺアを,モデルが正解だと予測したものにおいて,そのぺア中に未知語がどのぐらい含まれているのか割合を調査した結果 である. 図 11 より,上位層を削除するよりも下位層を削除する方が,正解とみなしたぺアの中での未知語の割合が低いことがわかる。つまり, BERT は下位層より上位層の方が, 語彙を利用して構文解析を行っており,下位層の方が語彙を利用していない分,未知語にロバストであるといえる。 次に各層を削除したことによる正解・不正解ぺアの変化を調べた。まず表 14 では各モデルにおいて,正解したぺアに含まれる格パターンの出現割合が多い順に上位 3 件を示す.これは,テ 図 10 長グループのテストの正解率 図 11 正解ペアに含まれる未知語の割合 表 14 正解したぺアに含まれる上位 3 件の格パターン(分類件数) 表 15 不正解だったぺアに含まれる上位 3 件の格パターン(分類件数) 表 16 格の例 ストを行ったとき正解したぺアを KNPを使って格解析した結果である ${ }^{9}$. 例えば「自然は」が 「美しい.」に係っているぺアを,モデルが正解とみなしたとき,「自然は美しい.」を KNPで解析し,述語側に表示される格解析の結果を使用する. 結果,どのモデルにおいても,「ガ格」「ヲ格」「修飾」が上位を占めていた。 一方で,表 15 はテストの際,不正解とみなされたぺアに含まれる格パターンである。表 15 でも先程の表 14 と同じように,「ガ格」「ヲ格」「修飾」が上位を占める結果となった.「ガ格」「尹格」「修飾」に分類された例は表 16 に示している. 表 14,15 より, 正解・不正解のどちらにおいても, 層ごとに格に関しては差が出なかった. 以上のことから, BERT は層ごとで格について大きな違いがなかったが,下位層よりも上位層の方が,既知の語彙を考慮した構文解析を行っているのではないかと考えられる. ## 6 おわりに 本研究では BERT の一部層を削除し,簡易小型化した BERT を用いることによる,日本語構  文解析の正解率の差を調べた,結果, $\mathrm{BERT}_{\mathrm{BASE}}$ が両コーパスともに正解率が最も高いが,削除する層数が増えても,正解率にあまり差が出なかった。このとき上位層と下位層を利用するモデルが高い正解率を維持していることがわかった,また,削除する層数を増やすほど,学習$\cdot$推論にかかる時間は短くなった。 BERT は格パターンについては,層ごとに捉え方による変化はなかったが,未知語と語彙による捉え方は層ごとに変化が出た. 今後の研究としては,コーパスを基本句区切りではなく形態素の区切りを使うことや, $\mathrm{MeCab}$ の区切りを利用した事前学習済み BERT を使うことなど,それぞれの区切りごとによる構文解析の正解率の差があるのかを調査すること。また, BERT $\mathrm{BASE}_{\mathrm{BAS}}$ では上位と下位を利用することが今回の構文解析では有効であったが,BERT LARGE においても違いが出るのか,これらの点について今後調査していきたい. ## 謝 辞 本研究は JSPS 科研費 JP19K12093,18K11421,17KK0002 および 2021 年度国立情報学研究所公募型共同研究 (2021-FC05) の助成を受けています. ## 参考文献 Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota. Association for Computational Linguistics. Gordon, M. A., Duh, K., and Andrews, N. (2020). "Compressing BERT: Studying the Effects of Weight Pruning on Transfer Learning." arXiv preprint arXiv:2002.08307. 萩行正嗣, 河原大輔, 黒橋禎夫 (2014). 多様な文書の書き始めに対する意味関係夕グ付きコーパスの構築とその分析. 自然言語処理, 21 (2), pp. 213-247. [M. Hangyo et al. (2014). Building and Analyzing a Diverse Document Leads Corpus Annotated with Semantic Relations. Journal of Natural Language Processing, 21 (2), pp. 213-247.]. Hewitt, J. and Manning, C. D. (2019). "A Structural Probe for Finding Syntax in Word Representations." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4129-4138, Minneapolis, Minnesota. Association for Computational Linguistics. Jawahar, G., Sagot, B., and Seddah, D. (2019). "What Does BERT Learn about the Structure of Language?" In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3651-3657, Florence, Italy. Association for Computational Linguistics.河原大輔, 黑橋禎夫 (2007). 自動構築した大規模格フレームに基づく構文・格解析の統合的確率モデル。自然言語処理, 14 (4), pp. 67-81. [D. Kawahara and S. Kurohashi. (2007). A Fully-Lexicalized Probabilistic Model for Japanese Syntactic and Case Structure Analysis. Journal of Natural Language Processing, 14 (4), pp. 67-81.]. Kurohashi, S. and Nagao, M. (1998). "Building a Japanese Parsed Corpus while Improving the Parsing System." In Proceedings of the 1st International Conference on Language Resources and Evaluation (LREC-98), pp. 719-724. Mikolov, T., Chen, K., Corrado, G., and Dean, J. (2013a). "Efficient Estimation of Word Representations in Vector Space." In Proceedings of ICLR Workshop 2013, pp. 1-12. Mikolov, T., Sutskever, I., Chen, K., Corrado, G., and Dean, J. (2013b). "Distributed Representations of Words and Phrases and their Compositionality." In Proceedings of NIPS 2013, pp. 1-9. Mikolov, T., Yih, W. -t., and Zweig, G. (2013c). "Linguistic Regularities in Continuous Space Word Representations." In Proceedings of NAACL 2013, pp. 746-751. Sajjad, H., Dalvi, F., Durrani, N., and Nakov, P. (2021). "On the Effect of Dropping Layers of Pre-trained Transformer Models." arXiv preprint arXiv:2004.03844. 笹野遼平,黒橋禎夫 (2011),大規模格フレームを用いた識別モデルに基づく日本語ゼロ照応解析. 情報処理学会論文誌, 52 (12), pp. 3328-3337. [R. Sasano and S. Kurohashi. (2011). A Discriminative Approach to Japanese Zero Anaphora Resolution with Large-scale Case Frames. IPSJ Journal, 52 (12), 3328-3337.]. 柴田知秀, 河原大輔, 黒橋禎夫 (2019). BERT による日本語構文解析の精度向上. 言語処理学会第 25 回年次大会発表論文集, pp. 205-208. [T. Shibata et al. (2019). BERT ni yoru Nihongo Koubun Kaiseki no Seido Kojo. Proceedings of the 25th Annual Meeting for the Association for Natural Language Processing, pp. 205-208.]. Tenney, I., Das, D., and Pavlick, E. (2019). "BERT Rediscovers the Classical NLP Pipeline." arXiv preprint arXiv:1905.05950. 宇田川忠朋,久保大亮,松崎拓也 (2021). BERT を用いた日本語係り受け解析の精度向上要因の分析. 人工知能学会第 35 回全国大会論文集, JSAI2021. 3J4GS6c03, [T. Udagawa et al. (2021). An Analysis of the Improvement in Japanese Dependency Analysis using BERT. Proceedings of the 35th Annual Conference of the Japanese Society for Artificial Intelligence, 3J4GS6c03.]. Zhang, X., Cheng, J., and Lapata, M. (2017). "Dependency Parsing as Head Selection." In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, pp. 665-676, Valencia, Spain. Association for Computational Linguistics. ## 略歴 河野慎司 : 2019 年茨城大学工学部情報工学科卒. 2021 年茨城大学大学院理工学研究科修了. 古宮嘉那子:2005 年東京農工大学工学部コミユニケーション工学科卒. 2009 年同大学大学院博士後期課程電子情報工学専攻修了. 博士 (工学). 同年東京工業大学精密工学研究所研究員, 2010 年東京農工大学工学研究院特任助教, 2014 年茨城大学工学部情報工学科講師, 2021 年東京農工大学工学研究院准教授. 現在に至る. 自然言語処理の研究に従事. 情報処理学会, 人工知能学会,言語処理学会各会員. 新納浩幸: 1985 年東京工業大学理学部情報科学科卒業. 1987 年同大学大学院理工学研究科情報科学専攻修士課程修了. 同年富士ゼロックス, 翌年松下電器を経て, 1993 年より茨城大学工学部. 現在, 茨城大学工学部情報工学科教授. 博士 (工学). 機械学習や統計的手法による自然言語処理の研究に従事.言語処理学会, 情報処理学会, 人工知能学会各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 疑似正解データを活用したニューラル修辞構造解析 小林 尚輝 $\dagger \cdot$ 平尾 努 $\dagger \dagger \cdot$ 上垣外英剛 $\dagger \cdot$ 奥村 学 $\dagger \cdot$ 永田 昌明 $\dagger \dagger$ 修辞構造解析ではニューラルネットワークなどの識別器を用いた解析器を教師あり学習により学習する。しかし, 現存の最大規模のコーパスである RST-DT は 385 文書 しかなく, ニューラルネットワークを学習するに十分な量とは言い難い. このような 学習データの不足は, クラス数が多く頻度に偏りのある修辞関係ラベルの推定におい て性能低下の原因となる。 そこで, 本論文では自動的に修辞構造を付与した疑似正解 データセットを利用したニューラル修辞構造解析手法を提案する。疑似正解データ セットは複数の解析器により得られた修辞構造木の間で共通する部分木とし, ニュー ラル修辞構造解析器の事前学習に利用し, 人手で作成した正解デー夕を用いて解析器 を追加学習する,RST-DTコーパスを用いた実験では,提案手法は OriginalParseval による核性と修辞関係の評価においてそれぞれ micro-F1 で 64.7,54.1を達成した. キーワード: 談話構造解析, 修辞構造解析, 修辞構造理論, データ拡張 ## Neural RST-Style Discourse Parsing Exploiting Agreement Sub-trees as Silver Data \author{ Naoki Kobayashi $^{\dagger}$, Tsutomu Hirao $^{\dagger \dagger}$, Hidetaka Kamigaito $^{\dagger}$, \\ Manabu OKumura $^{\dagger}$ and Masaaki Nagata ${ }^{\dagger \dagger}$ } Recent Rhetorical Structure Theory (RST)-style discourse parsing methods are trained by supervised learning, requiring an annotated corpus of sufficient size and quality. However, the RST Discourse Treebank, the most extensive corpus, consists of only 385 documents. This is insufficient to learn a long-tailed rhetorical-relation label distribution. To solve this problem, we propose a novel approach to improve the performance of low-frequency labels. Our approach utilized a silver dataset obtained from different parsers as a teacher parser. We extracted agreement subtrees from RST trees built by multiple teacher parsers to obtain a more reliable silver dataset. We used span-based top-down RST parser, a neural SOTA model, as a student parser. In our training procedure, we first pre-trained the student parser by the silver dataset and then fine-tuned it with a gold dataset, a human-annotated dataset. Experimental results showed that our parser achieved excellent scores for nuclearity and relation, that is, 64.7 and 54.1, respectively, on the Original Parseval. Key Words: Discourse Parsing, Rhetorical Structure Theory Parsing, Data Augmentation  ## 1 はじめに 修辞構造理論 (Mann and Thompson 1987) は文書中のテキストスパン(後述する EDU の系列)間の関係を木構造で表現する理論である。修辞構造理論によると, 文書は, 木の最小構成単位となる節相当のユニット,Elementally Discourse Unit (EDU)へと分割され,EDUを終端ノードとした構成素木である修辞構造木として表現される。非終端ノードはそれが支配するテキストスパン(連続した EDU)の核性ラベル,核 (N: Nucleus), 衛星 (S: Satellite)をあらわす.核と衛星は対の関係にあり,テキストスパンの中心的役割を担う核を衛星が修飾する。よって,任意の非終端ノードは基本的には単核,つまり N-S,S-Nの組み合わせの子供を持つ。たたし例外的に並列構造をあらわす場合,多核, N-N という組み合わせの子供を持つ場合がある。そして,木のエッジは隣接する 2 つのテキストスパンの間の修辞関係をあらわす。修辞関係ラベルは,ドメインによって異なるが一般的に用いられるベンチマークデータセットである RST Discourse Treebank: RST-DT (Carlson et al. 2001) では Elaboration, Attribution など 18 種類が定義されている。図 1 に例を示す. 一般的に修辞構造解析器 (以下, 解析器) は以下の 3 つの分類器から構成され, その学習には教師あり学習が用いられる. (1) 木構造を推定するためにテキストスパンの分割または結合を決定する分類器 (2)2つの隣接するテキストスパン間の核性ラベル(S-N, N-S, N-N のいずれか)を推定する分類器 図 1 修辞構造木の例. (wsj_0699) 本稿は Conference of the North American Chapter of the Association for Computational Linguistics (NAACL2021) での発表 Improving Neural RST Parsing Model with Silver Agreement Subtrees (Kobayashi et al. 2021) に加筆を行ったものである. (3) 2 つの隣接するテキストスパン間の修辞関係ラベル(RST-DT の場合, 18 種のラベルのいずれか)を推定する分類器 教師あり学習には, 文書に対して修辞構造木のアノテーションを与えたデータが大量に必要となるが,アノテーションには専門知識を必要とするため,大規模なコーパスを構築することが難しい. 修辞構造解析の研究において最も一般的,かつ最大のデータセットである RST-DTでさえ 385 文書しかない. データ不足はいわゆる教師あり学習を用いた手法にとって大きな問題であり, 近年のニュー ラルネットワークを用いた修辞解析法においても例外ではない。しかし, ニューラルネットを用いた自然言語処理では,大規模な疑似正解デー夕を活用する手法 (Nguyen et al. 2020;Vania et al. 2019) が提案され,こうしたデータ不足が克服されつつある. たとえば,ニューラル機械翻訳 (NMT) では,Back-translation により自動的に生成した大量の疑似正解データ(疑似対訳データ)を利用する枠組み (Sennrich et al. 2016; Nguyen et al. 2020) が翻訳性能の大幅な向上を示した。 本稿では,先述した NMT における疑似対訳データの活用にヒントを得て,修辞構造解析におけるデータ不足の問題を解決するための大規模な疑似正解データセットの自動構築方法とそれを利用した事前学習,追加学習の枠組みを提案する,具体的には大量のラベルなしデー夕に対し, 複数の解析器を適用した結果から一致する部分木を擬似正解データセットとする。そして,それを Kobayashi et al. (2020) らの手法 (Span-Based Parer: SBP) の事前学習に用い, 正解データセットである RST-DT により追加学習する。また,複数の解析器の間で一致する部分木を効率的に抽出するためのアルゴリズムも提案する. RST-DT を用いた実験では,疑似正解データを用いることにより,SBP に対して性能が向上することを確認した.特に,修辞関係ラベル推定の性能向上が顕著であり 5 ポイント程度のゲインを得た。正解の EDU 分割を用いて木構造のみを評価すると F1 スコアが 74.1 ,核性ラベルも含めると 64.7 , 関係ラベルも含めると 54.1 , すべてを含めると 52.7 であり, 現在の最高性能の解析器である Zhang et al. (2021)に匹敵する性能を達成した。一方,自動推定した EDU 分割を用いた場合には,それぞれ $68.1 , 57.4 , 47.6 , 45.9$ であり,関係ラベルを含めた場合の性能は, 現在の最高性能の解析器である Nguyen et al. (2021)に匹敵する性能を達成した. ## 2 関連研究 ## 2.1 談話構造解析における解析方法の変化 初期の修辞構造解析の研究では人手で作成した特徴量をべクトルとして表現し, 分類器として SVM や Linear-Chain CRF を採用した遷移型の解析手法を用いて上向きに木を構築する,つまりテキストスパンを結合していく手法が主流であった (duVerle and Prendinger 2009; Hernault et al. 2010; Feng and Hirst 2014). こうした遷移型の上向き解析は決定的に木を構築するためテキストスパンの結合スコアの観点から最適な木が構築できるとは限らない。そこで,CKY 法を用いて最適な木を構築する手法も提案された (Joty et al. 2013, 2015). しかし,文から得られる構文木とは異なり, 文書から得られる修辞構造木は終端ノード数が 50 以上になることも多い. よって, 計算量が問題となることから CKY 法を用いた手法は多くない.こうした従来型の機械学習を用いた修辞構造解析手法のなかで特筆すべき手法として,SVM を採用した遷移型の上向き解析手法 (Wang et al. 2017) である Two-Stage Parser(以下,TSP)がある.TSP は,還元 (Reduce) 時に核性ラベルを推定することで,まず核性ラベル付きの木を推定し,次に推定された木の構造をもとに隣接する 2 つのスパンに対して関係ラベルを推定する 2 段階の解析を行う. 2 段階の解析の効果により, 従来型の修辞解析手法のなかでは最も高い性能を達成した. ニューラルネットワークの有効性が様々な自然言語処理タスクで示されたことから, 修辞構造解析においてもニユーラルネットワークを活用した手法が数多く提案されている. Yu et al. (2018) はニューラルネットワークを用いた遷移型の上向き解析手法を提案した. 文内の係り受け構造を解析するニューラルネットワークから得られる特徴べクトルを埋め达み表現として利用することで,関係ラベルの推定において高い性能を達成した。また, Guz and Carenini (2020) は Wang et al. (2017) の TSP から分類器を多層パーセプトロンに変更し,スパンのベクトル表現をSpanBERT (Joshi et al. 2020)により獲得することで大きな改善を得た. さらに, 先述した上向き解析手法に加え, 近年では, 下向き解析手法が多く提案されている. これは上向き解析が局所的な EDU 間の繋がりをもとに木を構築するのに対して,より大きな文や段落,トピックといった情報を考慮できるからである. Lin et al. (2019) は,エンコーダ・デコーダモデルのひとつであるポインターネットワーク (Vinyals et al. 2015) を用いてテキストスパンを再帰的に 2 分割することで文内の修辞構造を解析する手法を提案した。そして,Zhang et al. (2020)によって文書の修辞構造解析へと拡張された. また, より単純な下向き解析手法として, Kobayashi et al. (2020), Koto et al. (2021)は,デコーダを経ずに多層パーセプトロンを用いてテキストスパンを再帰的に 2 分割する手法を提案した. 特に Kobayashi et al. (2020)の SBP は,木構造,核性ラベル推定において高い性能を達成した。 ## 2.2 データ拡張手法 修辞構造解析手法の学習・評価には RST Discourse Treebank: RST-DT (Carlson et al. 2001) が標準的に利用される.RST-DT は Penn Treebank (Marcus et al. 1993)の一部に対して修辞構造木を与えたものであり現存する修辞構造のアノテーション済みデータセットとしては最大規模である。しかし, 最大規模のデータセットではあるものの文書数は 385 でしかなく, 解析器の学習に十分とは言えない. そこで, データ不足を解決するための手法も盛んに研究されている. Braud et al. (2016) は修辞構造解析の他に文書やそれを構成する文に対する感情分類や 時系列分類, 属性分類などの合計 13 通りの分類問題のマルチタスク学習によって学習事例を増やすことで解析器の性能および頑健性の向上に取り組んた. Braud et al. (2017) はドイツ語やスペイン語など多言語の修辞構造アノテーション済みデータセットを英語へと翻訳することでデー夕拡張を行った. Huber and Carenini (2019) は MEGARST と呼ばれる大規模な学習データを自動生成するために,文書を構成する各 EDU ごとの感情極性スコアとアテンションスコアを Multiple Instance Learning (Angelidis and Lapata 2018) により獲得し,得られたスコアをもとに CKY 法を適応してラベルなしデータから核性付きの木を得た。 Guz et al. (2020) は MEGA-DT コーパス (Huber and Carenini 2020) を事前学習に用い, RSTDT で追加学習を行う手法を提案した.擬似正解データによる事前学習と正解データによる追加学習という枠組み自体は本稿での提案法と同じであるが, 擬似正解データの作成法が大きく異なり,修辞関係ラベルを含まない. Jiang et al. (2016)は co-training を利用してラベルなしデータを活用する手法を提案した.低頻度の修辞関係ラベルの推定性能を改善したが,修辞関係ラベル全体で見ると性能は低下している。また, この手法は木構造や核性ラベルの推定性能の改善には対応しない. 提案手法と関連する擬似正解データを活用した学習方法として自己学習がある. 自己学習では, ある解析器でラベルなしデータを解析した結果を擬似正解データとして, 再度その解析器の学習に利用する。一方, 提案法では疑似正解データを用いて学習する解析器は擬似正解デー夕を作成するために利用したものと異なる。つまり, 教師(擬似正解データを作成する解析器) 生徒(それを用いて学習する解析器)モデルを採用している. また, 提案法における疑似正解デー夕の作成に複数の解析器を使用するという点では, cotraining (Blum and Mitchell 1998) やtri-training (Zhou and Li 2005) も同じである. これらの手法による学習は疑似正解データの作成と疑似正解データによる学習を繰り返し行うが,ニュー ラルネットワークを用いた学習において, 繰り返し適用するには学習時間の観点から非効率的である。したがって,近年の手法 (McClosky et al. 2006; Pekar et al. 2014; Weiss et al. 2015)などでは繰り返しを省略して一度だけ疑似正解デー夕を適用する手法が多く見られ,本手法も同様に一度だけ適用する。 ## 3 提案手法 ## 3.1 疑似正解データを活用した学習方法の概要 初期の修辞構造解析の研究ではテキストスパンをべクトルとして表現するために文書の全体の構造から得られる特徴量, たとえば, 文書内での位置などを必要とした。一方で近年のニュー ラルネットワークを活用した手法ではテキストスパンのベクトルは事前学習済み言語モデルの 図 2 提案法の概要 単語ベクトルに基づくため, 必ずしも文書全体を必要としない. したがって,部分木をニューラルネットワークの学習データとして有効活用できることから,本稿では部分木を擬似正解デー 夕として利用した。 図 2 に提案手法の概要を示す. 提案手法は大きく分けて 2 つの手順に分かれる.1つ目は教師解析器を用いた疑似正解データの作成,2つ目は疑似正解データを用いた生徒解析器の学習である。擬似正解データの作成に用いる教師解析器として,ニューラルネットワークを用いない解析器のなかで最も性能の良いTSP を採用した。特に生徒解析器である SBP が苦手とする修辞関係ラベルの推定性能が良いことが採用の理由である。この手法は, SVM の最適化に確率的双対座標降下法を用いているため, 初期値により解が異なる。そこで, 異なる初期值で学習した複数のTSPを1つの文書に対し適用し, 複数の修辞構造木を得た. そして, 複数の木の間で共通する部分木,つまり合意部分木 (Agreement SubTree:AST) を疑似正解データとして抽出する。最後に, 擬似正解データを用いて生徒解析器である SBP を事前学習し, 正解データを用いて追加学習する. ## 3.2 合意部分木の抽出 質の高い擬似正解データを得るためには複数の解析器の間で一致する木をそれとすればよい. しかし, 修辞構造木は文書から得られる木であるためそのサイズが大きく複数の解析器による結果が一致することはまれである。一方で, 図 3 の網掛けで表されるように, 木の全体で一致していなくとも,木の一部では一致することは多い。そこで,本論文では AST を疑似正解デー タとして利用する。 大量の擬似正解データを得るためには,効率的にAST を抽出しなければならない.そこで,本稿では AST を効率的に抽出するためのアルゴリズムを提案する。提案するアルゴリズムは木の走査に基づいており,木に含まれるノードの数 $n$ に対して線形の $O(n)$ で動作する。合意部分木を列挙するアルゴリズムはデータマイニング分野で複数の研究 (Abe et al. 2002; Zaki 2005; Keselman and Amir 1994) があり,たとえば,一般的な木の集合から合意部分木を得るには Zaki (2005) で提案された最右拡張を用いれば良いが, これは計算量を見積もることができない. 一 方,本稿では終端ノードが順序も含めて一致する特殊な木を対象とすることから,新たな合意部分木を列挙するアルゴリズムを提案した。 提案するアルゴリズムの目的は入力された $k$ 個の修辞構造木 (trees)の全てに出現する部分木 (subtrees)を抽出することにある. Algorithm 1 にアルゴリズム全体の流れを示す. アルゴリズムは関数 MAKECOUnt, 関数 AGREEMENt, 関数 FindRootの 3 つから構成される. はじめに Algorighm 2 に示す関数 MAKECOUNT により出現する全てのスパンの頻度を計算し,スパンをキーとしてその頻度を値とする辞書によって保持する。本アルゴリズムでは,各ノードが内包する先頭と末尾の EDU のインデックスで表される区間とそのノードに付与された核性,関係ラベルの三つ組をスパン $(\mathrm{span})$ として扱い,これを同一性の判定に用いる。ラべルなしのスパンによる同一性の判定も可能であるが,本稿では関係ラベルの推定性能向上のためにラベル付きのスパンを用いた。 次に,与えられた複数の修辞構造木のうち 1 つを任意に選び, その ROOT スパンを Algorighm 3 に示す関数 AGREEMENT 入力する。関数 AGREEMENT は木の各スパンに AST の十分条件が満たされているかどうかを示すフラグを付与する。あるスパンがASTである条件を満たすため 図 3 重複する部分木(網掛け部分)の抽出 には,左右の子スパンが AST の条件を満たし,かつ自身の出現頻度 Count(span)が木の数 $k$ と一致することである。ここで,スパンの出現頻度 Count(span) は事前に数えることができるので,スパンをキーとして頻度を值に持つ辞書とすることで簡単に出現頻度を参照できる。 最後に関数 AGREEMENT によりフラグが付与された状態のスパンを Algorighm 4 に示す関数 FIndRootへと入力する。関数 FIndRoot は付与されたフラグを元に,AST である部分木をすべて抽出する。このとき,AST 同士の間では重複が起きないようにする. さらに, $l_{\min }, l_{\max }$ を用いて抽出する木の大きさを制御する. AST がすべての木に共通して含まれるため,関数 AGREEMENT および関数 FInDROOT は $k$個の修辞構造木全てに対して行う必要はなく $k$ 個の木のうち一つだけに適用すればよい。たたし関数 MAKECOUNT によりスパンの頻度を事前に計算するときのみ全ての木を用いて計算を行う. ## 3.3 生徒解析器: Span-Based Parser 得られた部分木からなる疑似正解デー夕は, 任意の生徒解析器に適用可能であるが, 周辺の文脈に強く依存する解析器の場合, 正解データとの乘離が大きくなり性能向上に寄与できない可能性が高い.たとえば,着目するスパンが文書中のどこに位置しているかを素性として利用する手法 (Wang et al. 2017), 着目するスパンよりも左側のスパン(部分木)の情報を利用するシフト還元法 (Guz and Carenini 2020)には適していないと考える。一方, スパン分割に基づく下向き解析手法は周辺の文脈を必ずしも必要としないため部分木による学習に適していると考える。したがって, 本稿では Span-Based Parser: SBP(Kobayashi et al. 2020)を生徒解析器として採用した。以下にその詳細を述べる。 ## 3.3.1スパンのベクトル表現 SBP では多層パーセプトロンを用いてスパンの分割,ラベルの推定を行うため,各スパンを固定長のベクトルで表現する必要がある。ここでは, はじめに EDU のべクトル表現, 次にスパンのベクトル表現の獲得方法を説明する. $t$ 番目の $\mathrm{EDU}$ のべクトル表現 $\mathbf{e}_{t}$ は, 式 (1)により, $\mathrm{EDU}$ 内の各単語の埋め込み表現 $\mathbf{h}_{j}^{\prime}$ を平均することで固定長のべクトルとして表現する. $ \mathbf{e}_{t}=\frac{1}{n} \sum_{j \in 1, \ldots, n} \mathbf{h}_{j}^{\prime} $ 各単語の埋め込み表現は, 文脈を考慮したべクトルとするために双方向 LSTM (Schuster and Paliwal 1997; Graves and Schmidhuber 2005) とゲート機構 (Zhou et al. 2017) を用いて以下により求める. $ \begin{aligned} \overrightarrow{\mathbf{h}_{i}} & =\overrightarrow{\mathrm{LSTM}}_{\text {word }}\left(\overrightarrow{\mathbf{h}}_{i-1}, \mathbf{w}_{i}\right) \\ \overleftarrow{\mathbf{h}_{i}} & =\overleftarrow{\operatorname{LSTM}}_{\text {word }}\left(\overrightarrow{\mathbf{h}}_{i+1}, \mathbf{w}_{i}\right) \\ \mathbf{h}_{i} & =\left[\overrightarrow{\mathbf{h}}_{i} ; \overleftarrow{\mathbf{h}}_{i}\right] \\ \mathbf{s G a t e}_{i} & =\sigma\left(\mathbf{W}_{s} \mathbf{h}_{i}+\mathbf{U}_{s} \mathbf{s}+\mathbf{b}_{s}\right) \\ \mathbf{h}_{i}^{\prime} & =\mathbf{h}_{i} \odot \mathbf{s G a t e}_{i} \end{aligned} $ ここで, 式 (5)の $\mathbf{s}$ は EDU 内の先頭と末尾の単語の表現ベクトルから $\left[\mathbf{h}_{1} ; \mathbf{h}_{n}\right]$ とした $(n$ は $\mathrm{EDU}$ に含まれる単語数)。また, 単語の埋め込み表現 $\mathbf{w}_{i}$ には ELMo (Peters et al. 2018)と GloVe (Pennington et al. 2014)を結合して利用した. 次に, $i$ 番目から $j$ 番目の EDU で構成されるスパンの埋め込み表現 $\mathbf{u}_{i: j}$ は, 双方向 LSTM の前向き後向きのそれぞれの状態の差分により式 (9)によって求める. $ \begin{aligned} \overrightarrow{\mathbf{f}_{i}} & =\overrightarrow{\mathrm{LSTM}}_{\text {unit }}\left(\overrightarrow{\mathbf{f}}_{i-1}, \mathbf{e}_{i}\right) \\ \overleftarrow{\mathbf{b}_{i}} & =\overleftarrow{\operatorname{LSTM}}_{\text {unit }}\left(\overrightarrow{\mathbf{b}}_{i+1}, \mathbf{e}_{i}\right) \\ \mathbf{u}_{i: j} & =\left[\mathbf{f}_{j}-\mathbf{f}_{i-1} ; \mathbf{b}_{i-1}-\mathbf{b}_{j}\right] \end{aligned} $ ## 3.3.2 スパンの分割 $i$ 番目から $j$ 番目の EDU で構成されるスパンが与えられたとき,分割候補となる各点 $j$ において,関数 $s_{\text {split }}(i, j, k)$ により分割の良さを表すスコアを計算する. $ s_{\text {split }}(i, j, k)=\mathbf{h}_{i: k}^{\top} \mathbf{W}_{u} \mathbf{h}_{k+1: j}+\mathbf{v}_{\ell}^{\top} \mathbf{h}_{i: k}+\mathbf{v}_{r}^{\top} \mathbf{h}_{k+1: j} $ ここで $\mathbf{W}_{u}$ は重み行列, $\mathbf{v}_{\ell}, \mathbf{v}_{r}$ はそれぞれ左右のスパンに対応する重みベクトルである. $\mathbf{h}_{i: k}$, $\mathbf{h}_{k+1: j}$ は左右のスパン表現をそれぞれ異なる多層パーセプトロンにより変換したべクトルであり, 以下のように求められる. $ \begin{aligned} \operatorname{MLP}_{*}(\mathbf{x}) & =\mathbf{W}_{2}\left(\operatorname{ReLU}\left(\mathbf{W}_{1}(\mathbf{x})+\mathbf{b}_{1}\right)\right)+\mathbf{b}_{2} \\ \mathbf{h}_{i: k} & =\operatorname{MLP}_{\text {left }}\left(\mathbf{u}_{i: k}\right) \\ \mathbf{h}_{k+1: j} & =\operatorname{MLP}_{\text {right }}\left(\mathbf{u}_{k+1: j}\right) \end{aligned} $ スパンの分割は式 (10) が最大となる点 $k$ を以下の式で求める. $ \hat{k}=\operatorname{argmax}_{k \in\{i, \ldots, j-1\}}\left[s_{\text {split }}(i, j, k)\right] $ ## 3.3.3 ラベルの推定 点 $k$ でスパンを分割した後, 分割された左右のスパンの間に核性と関係ラベルを推定する. データスパースネスの影響を避けるために核性と関係ラベルは異なる分類器によって学習される。左右のスパン表現と外側のスパン表現 $\mathbf{u}_{1: i}, \mathbf{u}_{j: n}$ を用いて各ラベル $\ell$ のスコアを関数 $s_{\text {label }}$ により推定する. $ s_{\text {label }}(i, j, k, \ell)=\mathbf{v}_{\ell} \operatorname{MLP}\left(\left[\mathbf{u}_{i: k} ; \mathbf{u}_{k+1, j} ; \mathbf{u}_{1: i} ; \mathbf{u}_{j: n}\right]\right) $ ここで $\mathbf{v}_{\ell}$ はラベル $\ell$ に対応する重みベクトルであり,[;] はべクトルの結合を表す.MLP は多層パーセプトロンであり,核性と関係でそれぞれ $\mathrm{MLP}_{\mathrm{nuc}}, \mathrm{MLP}_{\mathrm{rel}}$ を別々に学習する。 左右のスパン間に割り当てられるラベルは式 (15) が最大となるラベル $\hat{\ell}$ を下のように求める. $ \hat{\ell}=\operatorname{argmax}_{\ell \in \mathcal{L}}\left[s_{\text {label }}(i, j, k, \ell)\right] $ ここで $\mathcal{L}$ は核性ラベルの推定においては $\{\mathrm{N}-\mathrm{N}, \mathrm{N}-\mathrm{S}, \mathrm{S}-\mathrm{N}\}$ の 3 種類, 関係ラベルの推定においては 18 種類からなる関係ラベルの集合となる. ## 3.4 教師解析器: Two-Stage Parser 教師解析器は疑似正解データの作成に用いるため, 生徒解析器の欠点を補えることが望ましい.この場合, 修辞関係ラベルの推定で高い性能を達成している解析器が望ましい. 修辞関係ラベルを高性能に推定する解析器の候補として, SVM を用いたTSP (Wang et al. 2017) とニュー ラルネットワークを用いた NNDisParser (Yu et al. 2018) があり,どちらも遷移型の上向き解析法である。 NNDisParser は関係ラベルの推定で TSP より高い性能を達成しているが,特徴量として文内の係り受け解析を行うニューラルネットワークの特徴ベクトルを必要とすることから,大規模なデータ作成に向いていない.したがって本研究では,TSP を教師解析器として利用する。 TSP はシフト-還元のアクションをSVM により推定して解析を行う.それらのSVM は確率的双対座標降下法で最適化されるため, 異なる初期値で複数の解析器を学習し, それらの間で合意をとることで擬似正解デー夕を作成した。 ## 4 実験 ## 4.1 データセット 解析器の評価には標準的ベンチマークデータセットである RST-DT を用いる. RST-DT は学習データ 347 文書とテストデータ 38 文書に分割されており, Heilman and Sagae (2015) に基づき学習データのうち 40 文書を開発データとした. 正解データセットの EDU の分割に関しては正解の分割を利用した. 347 件の学習データは教師解析器 (TSP) の学習および生徒解析器 (SBP) の追加学習に用いた. 生徒解析器の事前学習に用いる疑似正解データセットは CNN コーパス (Hermann et al. 2015) から得る。まず,Neural EDU Segmenter (Wang et al. 2018)により EDU の分割を行い,異なる初期值で学習した教師解析器である TSPにより得られた修辞構造木の間で AST を抽出し,擬似正解データセットとした.また,TSPが必要とする特徴量を得るため,CNNコーパスに Stanford CoreNLP toolkit ${ }^{1}$ を用いて前処理を行った。 ## 4.2 パラメータ設定 4.2.1 $l_{\min }$ および $l_{\max }$ $l_{\text {min }}, l_{\max }$ は抽出する AST の最小, 最大サイズを決定するパラメータである. RST-DT の文書に含まれる EDU 数は 7 から 240 であるため, $l_{\min }$ は 5 から 10 の間で選択し, $l_{\max }$ は 240 とした. 図 4 に示される開発データにおける $l_{\min }$ と性能の変化から $l_{\min }$ には開発データで最も良い性能であった 9 を選択した。 図 4 開発データにおける $l_{\min }$ と性能の変化 ^{1}$ https://stanfordnlp.github.io/CoreNLP/ } ## 4.2.2 生徒解析器 $\mathrm{SBP}^{2}$ の基本的なパラメータは元の実装に従い, 隠れ層の次元数は 500 次元とした. また, 事前学習と追加学習はそれぞれ 5,10 エポックとし, 開発データで最も良い性能を示したエポックのモデルを評価に用いた。 SBP は文書の持つ階層構造である段落と文を利用して, 文書一段落, 段落一文, 文- EDU という各階層で別々の解析器を学習することで高い解析性能を達成した。しかし, 疑似正解デー タセットを用いて階層ごとに事前学習を行うことは計算量から容易ではない. したがって,階層構造を利用せず単一の解析器で解析するモデルを学習し,解析時に段落と文の境界を優先的に分割する処理を取り入れることにした,具体的には,スパンの分割候補に段落の境界にあたる分割点が 1 つ以上存在する場合は,段落の境界にあたる点のみを対象に式 (14) を適用して分割点を決定する。これにより,段落の境界が優先して分割される.同様に段落内では文の境界にあたる分割候補を対象にして分割点を決定し,優先的に分割する。 また, Kobayashi et al. (2020) は異なる初期值で学習した解析器が推定した分布を平均化することでアンサンブルを行った。しかし, 事前学習から追加学習までを異なる初期値で行うことは時間コストの観点から現実的でない。したがって,疑似正解データセットによる事前学習は一度だけ行い, 追加学習時の最適化の初期値を複数通り行いアンサンブルに必要な解析器を用意した。 ## 4.2.3 教師解析器 擬似正解データを得るため, 異なる初期値で学習した 4 つの TSP を用いた。教師解析器の数 $k$ が小さいと解析器による合意の信頼性が低下し, データセットの質が低下する。一方で, $k$ が大きすぎると疑似正解データセットを作成するための時間が膨大となり,また合意をとるための制約が厳しくなるためデータ量も少なくなる。本論文ではデータ作成の時間を考慮して $k$ を 4 としたが,適切な $k$ に関してはまだ議論が必要である。 ## 4.3 評価指標 従来研究 (Morey et al. 2017) に基づき, 多核の $\mathrm{N}$-分木 $(\mathrm{N} \geq 3$ ) となっている箇所は right-heavy branching treeへと変換 3 することで 2 分木に変換したうえで可能なスパンの一致をもとにSpan, Nuclearity (Nuc.), Relation (Rel.), Fullの 4 種類の評価指標で評価する. Span はラベルなしの木構造,Nuc. は核性ラベル付きの木構造,Rel. は修辞関係ラベル付きの木構造,Full はすべてのラベル付きの木構造をマイクロ平均 $\mathrm{F}$ 値で評価する. 木に含まれるスパンの抽出方法による違いにより RSTParseval と OriginalParseval の 2 種類 $-分木 $(\mathrm{N}=3)$ に関しては left-heavy branching tree へと変換される. } の評価指標が利用される. RSTParseavl が一般的に用いられるが,正解の EDU 分割を用いる際には OriginalParseval を利用することが推奖されている (Morey et al. 2017).それぞれの評価指標におけるスパンの抽出例を図 5 に示す. ## 4.4 比較手法 部分木を活用した疑似正解データセットによる事前学習の有効性を検証するために,単一の解析器による結果を疑似正解データセットしたDocument Tree (DT), 複数の解析器により文書全体で合意した結果を疑似正解データセットとした Agreement Document Tree (ADT) を比較対象とした。疑似正解データセットに含まれる木の数およびスパンの数を表 1 に示す. また, 近年の修辞構造解析器との比較を, 教師解析器として利用したWang et al. (2017) の TSP の他に, Yu et al. (2018)の係り受け解析器の特徵べクトルを利用した上向き解析手法, Two-Stage 図 5 RSTParseval と OriginalParseval のスパン表現の違い. 左側の木に対して RSTParseval は ROOT を除いた 5 つのスパン, OriginalParseval は左右の子の核性を結合して表される 3 つのスパンをそれぞれ評価に用いる。 表 1 疑似正解データセットを構成する木の数およびノードの数。 $k$ は合意を取るために用いた教師解析器の数, $l_{\text {min }}$ は最小の部分木の大きさ. CoreNLP toolkit による前処理の関係で利用可能な CNN コーパスの文書数は 91,536 文書であった. \\ AST $\left(k=4, l_{\min }=9\right)$ & 175,709 & $2,279,275$ & 14.0 & $68.7 \% / 13.9 \% / 17.4 \%$ \\ 表 2 RST-DT と疑似正解データである MEGA-DT およびADT の比較. Parger に SpanBERT を導入しニューラルモデルに再構築した Guz and Carenini (2020)の方法, ポインターネットワークを利用した下向き解析手法に対し,敵対学習による最適化を導入した Zhang et al. (2021)の方法と比較を行う.さらに,本稿と同じく疑似正解データを利用する研究である Guz et al. (2020)の方法, EDU 分割までを end-to-end で学習する Nguyen et al. (2021) の方法とも比較を行う。 また,表 2 に RST-DT と MEGA-DT ${ }^{4}$ および提案法である AST の統計量を比較した結果を示す. MEGA-DT は配布されている train/dev/testのうち trainを対象とし,AST は実験に用いた $k=4, l_{\min }=9$ のデータを対象とした. どちらの疑似正解データセットも RST-DT と比べてデータ数, ノード数共に多いが,平均 EDU 数は少ない。核性ラベルの割合を見ると,AST は RST-DTにより学習された解析器によりラベルが付与されているため RST-DT とおおよそ同一の分布である。一方, MEGA-DT は Yelp'13に EDU を単位とした感情極性ラベルが付与された SPOT データセット (Angelidis and Lapata 2018) を元にして構築しているため RST-DT と分布が異なっている. ## 5 実験結果 ## 5.1 疑似正解データセットの比較 表 3 に事前学習モデルと追加学習したモデルの RSTParseval における性能を示す。表中の SBP は疑似正解データセットを用いず,正解データセットのみで学習した実験結果である。これをべースラインとして疑似正解データセットの有効性を比較する。部分木を擬似正解データとして利用する AST はべースラインと比較してすべての指標において性能が向上しておりその有効性がわかる,疑似正解データセット間で比較すると,多くの指標で AST を用いた場合が最もよく, 特に修辞関係ラベルに関連する Rel. と Fullにおける改善が顕著である. 文書単位の疑似正解データから構成される DT と ADT も同様にベースラインを上回る性能を達成したが,  表 3 RSTParseval による疑似正解データセット毎の Micro-averaged $\mathrm{F}_{1}$ の比較. 追加学習したモデルの各列において最も良い値を太字で表す。 AST よりも性能の改善は小さい. 特に ADT はその他の疑似正解データセットと比較して改善幅が小さいが, これは疑似正解データセットのサイズが原因であると考える。表 1 に示したように ADT に含まれる木とスパンの数はそれぞれ 2,142 および 57,840 であり, ASTの 175,709 と 2,279,275 と比較して非常に少ない. つまり, 事前学習に十分な量でないと考える. 一方, DT において, 木の数は 91,536 と AST と比較して少ないが,それぞれの木が文書全体から構成されるため含まれるスパンの数は非常に多く, ASTの 4 倍近い $8,162,114$ 個のスパンが含まれている。それにもかかわらず,性能においては ASTのほうが良い. これはDT が単一の教師解析器から作成されているため, 疑似正解データの質がその他よりも劣ることが原因であると考える. 先述したように貪欲法に基づく解析器は文書全体の構造を必要としない. よって, 疑似正解データセットを部分木で構築することにより, 複数の教師解析器による合意を得た疑似正解デー タセットが大規模に獲得可能であり,文書全体を用いる疑似正解データセットよりも量と質の両面において優れていることがわかる. また,学習にかかる計算時間の観点においても,学習時間がデータセットに含まれるスパンの数に比例しているため, AST はDTの 1/4の時間で学習が可能である. これは部分木を用いることでデータセットを小さくできることの利点である. ## 5.2 疑似正解データセットのデータサイズによる影響 疑似正解データセットのサイズと性能の関係を調べるため, 疑似正解データセットのサイズを変化させて評価実験を行った. その結果を図 6 に示す. 図より, Span と Nuc. はデータセットのサイズが変化してもほとんど性能に変化がない。つまり,スパン分割と核性ラベルの推定に関しては擬似正解データの効果は薄い. 一方で Rel. はデータサイズの増加に応じて性能が向上しており,疑似正解データセットの有効性がわかる。これはスパンの分割および核性ラベル 図 6 疑似正解データセットのサイズによる性能の変化.実線が AST を事前学習に用いた場合(表 3 における SBP+AST)の性能. 点線が疑似正解データを用いない場合(表 3 における SBP)の性能. の推定がそれぞれ 2 クラス,3クラスの分類問題という比較的簡単な分類問題であることに対し, 修辞関係ラベルの推定は 18 クラスかつクラスの出現頻度に偏りのあるデータに対する分類問題という難しい問題であることが原因であると考える. さらなるデータの増強方法として既存の大規模擬似データである MEGA-DT と AST を組み合わせることが考えられるが,先に述べたようにSpan および Nuc. はデータサイズを増やしても顕著な改善が見られないことから,核性しか付与されていない MEGA-DT との組み合わせによるデータの増強は性能向上にはつながらないと考えられる. ## 5.3 関係ラベルごとの性能比較 AST を用いることで関係ラべルの推定性能が大きく改善できることがわかった.そこで,どの関係ラベルにおいて性能が改善されたのかを確認するために,SBP+AST と他にベースラインである SBP と教師解析器である TSP の間で関係ラベル毎の $F_{1}$ を図 7 で比較する. SBP および $\mathrm{SBP}+\mathrm{AST}$ は 5 モデルアンサンブルの結果を用いる. 図より,多くの関係ラべルにおいて TSP が SBP と同等かそれ以上の性能であり,SBP+AST の性能がそれらを上回っている。特に,低頻度の関係ラベルにおいて SBP+AST は大きく SBP の性能を改善している。また,TSPが推定可能だが,SBP が不得意な関係ラベルを SBP+AST によって推定可能になったことから,疑似正解データセットの作成にTSP を用いたことが性能向上に寄与していると考えらえる。 ## 5.4 既存の解析器との比較 提案法である SBP+AST の 5 モデルアンサンブルと既存手法の比較を表 4 に示す. ここでは 図 $7 \mathrm{TSP}, \mathrm{SBP}, \mathrm{SBP}+\mathrm{AST}$ の関係ラベル(18 種類)ごとの $\mathrm{F}$ 値の比較、ラベル名の下にある数値は各ラベルの出現頻度を表す。 } & \multirow{2}{*}{ 外部デー夕 } & \multicolumn{3}{|c|}{ RSTParseval } & \multicolumn{3}{|c|}{ OriginalParseval } \\ 表 4 既存の解析器との比較.*で示す結果は論文で報告された値, それ以外は手元で評価した值である. ${ }^{\dagger}$ Guz and Carenini (2020) らの解析器は NoCoref の値を参照. RSTParseval だけでなく, OriginalParsevalによる評価も行った. テキストスパンのベクトル表現を得るために SpanBERT を採用した Guz and Carenini (2020)の方法, XLNet (Yang et al. 2019)を採用したZhang et al. (2021)の方法はその他の手法と比較して非常に高い性能を達成している.SBT+AST はこれらを除くとどちらの評価方法においてもSpan を除いた Nuc., Rel. の 2 つ指標において従来法を上回っている。提案法と Guz and Carenini (2020)を比較すると, RSTParseval においては Guz and Carenini (2020)がわずかに良い性能であるが, OriginalParseval においては提案法が逆転している。正解の EDU 分割を用いた場合の RSTParseval は正解スパ ンと必ず一致する長さ 1 のスパンを過大評価することから OriginalParseval を利用することを文献 (Morey et al. 2017) は推奨している。よって,この結果は提案法の有効性を支持していると考える。 ポインターネットワークを用いた下向き解析法に敵対学習を導入した Zhang et al. (2021)の方法は,テキストスパンのベクトル表現を XLNet から得た場合には現状での最高性能を達成しているがそれを ELMoへ変更した場合にはスコアが大きく劣化しており,高いスコアは XLNet がもたらしたと考える。提案法は,テキストスパンのベクトル表現を GloVe+ELMo から得ているにもかかわらず Zhang et al. (2021)の方法に対し Rel. で 1 ポイント程度の差に迫るスコアを達成しており,疑似正解データの有効性は示せたと考える. また, Guz et al. (2020) は RoBERTa (Liu et al. 2020) を用いた解析器に MEGA-DT による事前学習を適用したが,Span, Nuc. の性能改善は小さく,この点は AST を用いた提案法に関しても同様であった。これは木の構造や核性の推定がそれぞれ比較的簡単な 2 クラス, 3 クラスの分類問題であるため少ない正解データのみでも十分な性能を達成できるからである。一方で, Rel. において AST は推定性能を大きく改善したが,MEGA-DT は関係ラベルが付与されていないため, Rel. の改善は不可能である. この点において AST は MEGA-DT に対して優位である. ## $5.5 \mathrm{EDU$ 分割器による EDU 分割を用いた評価} 表 5 に, 正解の EDU, EDU 分割器により自動的に分割したEDUを用いた場合の解析器の性能を示す。提案法は SBP+AST の 5 モデルアンサンブルを用い, Neural EDU Segmenter ${ }^{5}$ (Wang et al. 2018) を利用した. 比較対象となる Nguyen et al. (2021) は EDU 分割と修辞構造解析を end-to-end に学習・推定する手法であり,我々の用いた EDU 分割器と EDU 分割の精度が異なる 6 ことに注意されたい. 表 5 に OriginalParseval を用いた評価結果を示す。表より,どちらの手法も自動分割した EDU 表 5 EDU Segmenterによる EDU 分割を採用した際の解析器の性能比較. 各列における最も高い値は太字で表す.*で示す結果は Nguyen et al. (2021) での報告値.  を用いる性能は大きく劣化する.SBP と SBP+AST を比較すると,疑似正解データは Rel., Full に対する性能改善に強く貢献しており正解 EDU を用いた場合と同様の傾向にある. Nguyen et al. (2021)の方法は, Zhang et al. (2020) と同様にポインターネットワークを用いて再帰的にスパンを分割していき,予測された分割点が与えれたスパンの末尾である場合を分割の終了条件とすることで解析から EDU 分割までを一括で推定する。正解EDU を用いた場合には提案法が Nguyen et al. (2021)の方法に勝っているが, 自動分割したEDU の場合には劣る結果となった. 提案法は,決定的に自動分割されたEDUを利用しているが, Nguyen et al. (2021)の方法は end-to-end に EDU 分割までを学習することが利点となったと考える。一方, Nuc. と比較して Rel. と Full の劣化度合いは提案法のほうが小さい. これは正解 EDU の場合と同様, 疑似正解データの効果であると考える. ## 6 まとめ 本稿では, 修辞構造解析における学習データ不足を解決するため, 複数の解析結果から一致する部分木を疑似正解データとして活用する手法を提案した。具体的には,疑似正解データを用いて解析器の事前学習を行い, 正解データを用いて追加学習する学習の枠組みを採用した. また, 複数の解析結果から一致する部分木を効率的に抽出するためのアルゴリズムも提案した. RST-DT を用いた評価実験において,部分木を利用した疑似正解データセットはその他の文書単位で構成される疑似正解データセットと比較して優れていることがわかった. 特に, 疑義正解データを用いることで関係ラベルに関する評価指標である Rel. と Full において改善幅が顕著であった. さらに提案法は既存の最高性の解析器に匹敵する性能であることもわかった. ## 謝 辞 本研究の一部は JSPS 科研費 JP21H03505 の助成を受けたものである. ## 参考文献 Abe, K., Kawasoe, S., Asai, T., Arimura, H., and Arikawa, S. (2002). "Optimized Substructure Discovery for Semi-Structured Data." In Proceedings of PKDD '02, pp. 1-14, Berlin, Heidelberg. Springer-Verlag. Angelidis, S. and Lapata, M. (2018). "Multiple Instance Learning Networks for Fine-Grained Sentiment Analysis." Transactions of the Association for Computational Linguistics, 6, pp. 17-31. Blum, A. and Mitchell, T. (1998). "Combining Labeled and Unlabeled Data with Co-Training." In Proceedings of the 11th Annual Conference on Computational Learning Theory, COLT' 98, pp. 92-100, New York, NY, USA. Association for Computing Machinery. Braud, C., Coavoux, M., and Søgaard, A. (2017). "Cross-lingual RST Discourse Parsing." In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, pp. 292-304, Valencia, Spain. Association for Computational Linguistics. Braud, C., Plank, B., and Søgaard, A. (2016). "Multi-view and Multi-task Training of RST Discourse Parsers." In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers, pp. 1903-1913, Osaka, Japan. The COLING 2016 Organizing Committee. Carlson, L., Marcu, D., and Okurovsky, M. E. (2001). "Building a Discourse-Tagged Corpus in the Framework of Rhetorical Structure Theory." In Proceedings of the 2nd SIGdial Workshop on Discourse and Dialogue. duVerle, D. and Prendinger, H. (2009). "A Novel Discourse Parser Based on Support Vector Machine Classification." In Proceedings of the Joint Conference of the 47th Annual Meeting of the ACL and the 4th International Joint Conference on Natural Language Processing of the AFNLP, pp. 665-673, Suntec, Singapore. Association for Computational Linguistics. Feng, V. W. and Hirst, G. (2014). "A Linear-Time Bottom-Up Discourse Parser with Constraints and Post-Editing." In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 511-521, Baltimore, Maryland. Association for Computational Linguistics. Graves, A. and Schmidhuber, J. (2005). "Framewise Phoneme Classification with Bidirectional LSTM Networks." In Proceedings of 2005 IEEE International Joint Conference on Neural Networks, Vol. 4, pp. 2047-2052. IEEE. Guz, G. and Carenini, G. (2020). "Coreference for Discourse Parsing: A Neural Approach." In Proceedings of the 1st Workshop on Computational Approaches to Discourse, pp. 160-167, Online. Association for Computational Linguistics. Guz, G., Huber, P., and Carenini, G. (2020). "Unleashing the Power of Neural Discourse Parsers A Context and Structure Aware Approach Using Large Scale Pretraining." In Proceedings of the 28th International Conference on Computational Linguistics, pp. 3794-3805, Barcelona, Spain (Online). International Committee on Computational Linguistics. Heilman, M. and Sagae, K. (2015). "Fast Rhetorical Structure Theory Discourse Parsing." arXiv preprint arXiv:1505.02425. Hermann, K. M., Kocisky, T., Grefenstette, E., Espeholt, L., Kay, W., Suleyman, M., and Blunsom, P. (2015). "Teaching Machines to Read and Comprehend." In Cortes, C., Lawrence, N. D., Lee, D. D., Sugiyama, M., and Garnett, R. (Eds.), Advances in Neural Information Processing Systems 28, pp. 1693-1701. Curran Associates, Inc. Hernault, H., Prendinger, H., du Verle, D. A., and Ishizuka, M. (2010). "HILDA: A discourse parser using support vector machine classification." Dialogue 8 Discourse, 1 (3), pp. 1-33. Huber, P. and Carenini, G. (2019). "Predicting Discourse Structure using Distant Supervision from Sentiment." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 2306-2316, Hong Kong, China. Association for Computational Linguistics. Huber, P. and Carenini, G. (2020). "MEGA RST Discourse Treebanks with Structure and Nuclearity from Scalable Distant Sentiment Supervision." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 7442-7457, Online. Association for Computational Linguistics. Jiang, K., Carenini, G., and Ng, R. (2016). "Training Data Enrichment for Infrequent Discourse Relations." In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers, pp. 2603-2614, Osaka, Japan. The COLING 2016 Organizing Committee. Joshi, M., Chen, D., Liu, Y., Weld, D. S., Zettlemoyer, L., and Levy, O. (2020). "SpanBERT: Improving Pre-training by Representing and Predicting Spans." Transactions of the Association for Computational Linguistics, 8, pp. 64-77. Joty, S., Carenini, G., Ng, R., and Mehdad, Y. (2013). "Combining Intra- and Multi-sentential Rhetorical Parsing for Document-level Discourse Analysis." In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 486-496, Sofia, Bulgaria. Association for Computational Linguistics. Joty, S., Carenini, G., and Ng, R. T. (2015). "CODRA: A Novel Discriminative Framework for Rhetorical Analysis." Computational Linguistics, 41 (3), pp. 385-435. Keselman, D. and Amir, A. (1994). "Maximum Agreement Subtree in a Set of Evolutionary Trees-Metrics and Efficient Algorithms." In Prodeedings of SFCS '94, pp. 758-769, USA. IEEE Computer Society. Kobayashi, N., Hirao, T., Kamigaito, H., Okumura, M., and Nagata, M. (2020). "Top-Down RST Parsing Utilizing Granularity Levels in Documents." Proceedings of the AAAI Conference on Artificial Intelligence, 34 (05), pp. 8099-8106. Kobayashi, N., Hirao, T., Kamigaito, H., Okumura, M., and Nagata, M. (2021). "Improving Neural RST Parsing Model with Silver Agreement Subtrees." In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1600-1612, Online. Association for Computational Linguistics. Koto, F., Lau, J. H., and Baldwin, T. (2021). "Top-down Discourse Parsing via Sequence Labelling." In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 715-726, Online. Association for Computational Linguistics. Lin, X., Joty, S., Jwalapuram, P., and Bari, M. S. (2019). "A Unified Linear-Time Framework for Sentence-Level Discourse Parsing." In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4190-4200, Florence, Italy. Association for Computational Linguistics. Liu, Y., Ott, M., Goyal, N., Du, J., Joshi, M., Chen, D., Levy, O., Lewis, M., Zettlemoyer, L., and Stoyanov, V. (2020). "RoBERTa: A Robustly Optimized BERT Pretraining Approach.". Mann, W. C. and Thompson, S. A. (1987). "Rhetorical Structure Theory: A Theory of Text Organization." Technical report ISI/RS-87-190, Information Sciences Institute. Marcus, M. P., Santorini, B., and Marcinkiewicz, M. A. (1993). "Building a Large Annotated Corpus of English: The Penn Treebank." Computational Linguistics, 19 (2), pp. 313-330. McClosky, D., Charniak, E., and Johnson, M. (2006). "Effective Self-Training for Parsing." In Proceedings of the Human Language Technology Conference of the NAACL, Main Conference, pp. 152-159, New York City, USA. Association for Computational Linguistics. Morey, M., Muller, P., and Asher, N. (2017). "How Much Progress Have We Made on RST Discourse Parsing? A Replication Study of Recent Results on the RST-DT." In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 1319-1324, Copenhagen, Denmark. Association for Computational Linguistics. Nguyen, T.-T., Nguyen, X.-P., Joty, S., and Li, X. (2021). "RST Parsing from Scratch." In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1613-1625, Online. Association for Computational Linguistics. Nguyen, X.-P., Joty, S., Wu, K., and Aw, A. T. (2020). "Data Diversification: A Simple Strategy For Neural Machine Translation." In Larochelle, H., Ranzato, M., Hadsell, R., Balcan, M. F., and Lin, H. (Eds.), Advances in Neural Information Processing Systems, Vol. 33, pp. 10018-10029. Curran Associates, Inc. Pekar, V., Yu, J., El-karef, M., and Bohnet, B. (2014). "Exploring Options for Fast Domain Adaptation of Dependency Parsers." In Proceedings of the 1st Joint Workshop on Statistical Parsing of Morphologically Rich Languages and Syntactic Analysis of Non-Canonical Languages, pp. 54-65, Dublin, Ireland. Dublin City University. Pennington, J., Socher, R., and Manning, C. D. (2014). "GloVe: Global Vectors for Word Representation." In Empirical Methods in Natural Language Processing (EMNLP), pp. 1532-1543. Peters, M. E., Neumann, M., Iyyer, M., Gardner, M., Clark, C., Lee, K., and Zettlemoyer, L. (2018). "Deep Contextualized Word Representations." In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 2227-2237, New Orleans, Louisiana. Association for Computational Linguistics. Schuster, M. and Paliwal, K. (1997). "Bidirectional Recurrent Neural Networks." IEEE Transactions on Signal Processing, 45 (11), pp. 2673-2681. Sennrich, R., Haddow, B., and Birch, A. (2016). "Improving Neural Machine Translation Models with Monolingual Data." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 86-96, Berlin, Germany. Association for Computational Linguistics. Vania, C., Kementchedjhieva, Y., Søgaard, A., and Lopez, A. (2019). "A Systematic Comparison of Methods for Low-resource Dependency Parsing on Genuinely Low-resource Languages." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP), pp. 1105-1116, Hong Kong, China. Association for Computational Linguistics. Vinyals, O., Fortunato, M., and Jaitly, N. (2015). "Pointer Networks." In Cortes, C., Lawrence, N., Lee, D., Sugiyama, M., and Garnett, R. (Eds.), Advances in Neural Information Processing Systems, Vol. 28. Curran Associates, Inc. Wang, Y., Li, S., and Wang, H. (2017). "A Two-Stage Parsing Method for Text-Level Discourse Analysis." In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 184-188, Vancouver, Canada. Association for Computational Linguistics. Wang, Y., Li, S., and Yang, J. (2018). "Toward Fast and Accurate Neural Discourse Segmentation." In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 962-967, Brussels, Belgium. Association for Computational Linguistics. Weiss, D., Alberti, C., Collins, M., and Petrov, S. (2015). "Structured Training for Neural Network Transition-Based Parsing." In Proceedings of the 53rd Annual Meeting of the Asso- ciation for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 323-333, Beijing, China. Association for Computational Linguistics. Yang, Z., Dai, Z., Yang, Y., Carbonell, J., Salakhutdinov, R. R., and Le, Q. V. (2019). "XLNet: Generalized Autoregressive Pretraining for Language Understanding." In Wallach, H., Larochelle, H., Beygelzimer, A., d'Alché-Buc, F., Fox, E., and Garnett, R. (Eds.), Advances in Neural Information Processing Systems, Vol. 32. Curran Associates, Inc. Yu, N., Zhang, M., and Fu, G. (2018). "Transition-based Neural RST Parsing with Implicit Syntax Features." In Proceedings of the 27th International Conference on Computational Linguistics, pp. 559-570, Santa Fe, New Mexico, USA. Association for Computational Linguistics. Zaki, M. (2005). "Efficiently Mining Frequent Trees in a Forest: Algorithms and Applications." IEEE Transactions on Knowledge and Data Engineering, 17 (8), pp. 1021-1035. Zhang, L., Kong, F., and Zhou, G. (2021). "Adversarial Learning for Discourse Rhetorical Structure Parsing." In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 3946-3957, Online. Association for Computational Linguistics. Zhang, L., Xing, Y., Kong, F., Li, P., and Zhou, G. (2020). "A Top-down Neural Architecture towards Text-level Parsing of Discourse Rhetorical Structure." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 6386-6395, Online. Association for Computational Linguistics. Zhou, Q., Yang, N., Wei, F., and Zhou, M. (2017). "Selective Encoding for Abstractive Sentence Summarization." In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1095-1104, Vancouver, Canada. Association for Computational Linguistics. Zhou, Z.-H. and Li, M. (2005). "Tri-training: Exploiting Unlabeled Data using Three Classifiers." IEEE Transactions on Knowledge and Data Engineering, 17 (11), pp. 1529-1541. ## 略歴 小林尚輝:2020 年東京工業大学工学院情報通信系情報通信コース修士課程修 了. 同年博士課程進学. 自然言語処理の研究に従事. 言語処理学会学生会員. 平尾努:1997 年奈良先端科学技術大学院大学情報科学研究科博士前期課程 修了. 同年, 株式会社 NTT データ入社. 2000 年より日本電信電話株式会社 コミュニケーション科学研究所. 博士 (工学). 自然言語処理の研究に従事.情報処理学会, 言語処理学会, ACL 各会員. 上垣外英剛:2017 年東京工業大学大学院総合理工学研究科知能システム科学専攻博士課程修了. 同年 NTT コミュニケーション科学基礎研究所入所. 2018 年より東京工業大学科学技術創成研究院未来産業技術研究所助教. 2022 年より奈良先端科学技術大学院大学先端科学技術研究科情報科学領域准教授. 自然言語処理分野の研究に従事. 情報処理学会, 言語処理学会, ACL 各会員. 奥村学:1962 年生. 1984 年東京工業大学工学部情報工学科卒業. 1989 年同大学院博士課程修了. 同年, 東京工業大学工学部情報工学科助手. 1992 年北陸先端科学技術大学院大学情報科学研究科助教授, 2000 年東京工業大学精密工学研究所助教授, 2009 年同教授, 現在は, 科学技術創成研究院教授. 2017 年より, 理化学研究所革新知能統合研究センター (AIP) 客員研究員を兼務.工学博士. 永田昌明:1987 年京都大学大学院工学研究科修士課程修了. 同年, 日本電信電話株式会社入社. 現在, コミュニケーション科学研究所上席特別研究員.工学博士. 自然言語処理の研究に従事. 電子情報通信学会, 情報処理学会, 人工知能学会, 言語処理学会, ACL 各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 特許機械翻訳の課題解決に向けた機械翻訳技術解説 今村 賢治 $\dagger$. 越前谷 博 $^{\dagger+} \cdot$ 江原 暉将 ${ }^{+\dagger}$ - 後藤 功雄 ${ }^{+\dagger \dagger}$. 中澤 敏明 $+t+t+t+t \cdot$ 二宮 崇 $+t+t+t+t+$ 王 向莉 $+t+t+t+t+t$ } 本解説論文では,特許を対象とした機械翻訳における種々の課題に対する関連技術 の解説を行う.特許に対する機械翻訳は実用的にも学術的にも長い歴史を持つが, ニューラル機械翻訳の登場で新たな段階に進んできたと言える。 そうした動向を踏 まえ,訳抜け・過剩訳への対策,用語訳の統一,長文対策,低リソース言語対対策,評価,翻訳の高速化・省メモリ化,の6項目に分けて近年の関連技術を紹介し,今後の方向性を論じる。 キーワード:ニューラル機械翻訳,特許翻訳 ## A Survey of Machine Translation Technologies for Machine Translation on Patent Documents \author{ Kenji Imamura $^{\dagger}$, Hiroshi Echizen- Ya $^{\dagger \dagger}$, Terumasa Ehara ${ }^{\dagger \dagger}$, Isao Goto ${ }^{\dagger \dagger \dagger \dagger}$, \\ Katsuhito Sudoh ${ }^{\dagger \dagger \dagger \dagger}$, Satoshi Sonoh ${ }^{\dagger \dagger \dagger \dagger \dagger}$, Takashi Tsunakawa ${ }^{\dagger \dagger \dagger \dagger \dagger \dagger}$, This survey paper reviews machine translation technologies for patent documents. Patent machine translation has been studied for a long time and has evolved by recent neural machine translation. This paper focuses on the following issues with future directions: under- and over translation, consistent technical term translation, long sentence translation, low-resource language pairs, evaluation, efficiency in speed and memory. Key Words: Neural Machine Translation, Patent Translation ^{1}$ 開発,提供しており,EPOでは Google との連携による機械翻訳サービス2を提供している。JPOでも長年にわたり機械翻訳が活用されており,統計的機械翻訳,NMTへの技術トレンドの変化に合わせた調査事業が継続的に実施され3,またそうした新しい機械翻訳技術の導入による特許情報プラットフォームの機能改善が進められている. 一方の学術研究においては, 特許が公開の文書であること, また国際出願のために同一の出願内容が複数言語に翻訳された形で存在することを背景に、コーパスベース機械翻訳の研究用リソースとして広く使われてきた経緯がある。特に日本語では 2000 年代の統計的機械翻訳 (SMT)技術の伸長期に百万文規模の大規模な機械翻訳研究用対訳コーパスが広く利用できなかったこともあり, 2008 年の NTCIR-7 PATMT (Fujii et al. 2008) 以降, NTCIR-8 (Fujii et al. 2010), NTCIR-9 (Goto et al. 2011), NTCIR-10 (Goto et al. 2013) で利用された日英, 日中対訳コーパスは多くの機械翻訳研究で活用された。近年では特許庁が提供する,アジア言語翻訳ワークショップ (Workshop on Asian Translation) の共通タスクで利用されている JPO Patent Corpus ${ }^{4}$ ,また,高度言語情報融合 (ALAGIN) フォーラムから提供されているJPO・NICT 対訳コーパス 5 が存在する。こうした研究用リソースの存在は特許機械翻訳の研究開発に非常に有益であると言えるが,NTCIR 以後の日本の機械翻訳研究でよく用いられた論文抄録の対訳コーパス ASPEC (Nakazawa et al. 2016), 多くの機械翻訳研究においてべンチマークとして用いられる WMT ^{5}$ https://alaginrc.nict.go.jp/jpo-outline.html } News Task データ (Akhbardeh et al. 2021) と比べて, 特許のデータを扱う機械翻訳研究の発表は少なくなってきていることは否定できない.こうした背景から, 本解説論文では実用的な特許機械翻訳に向けた諸課題に着目し,それらに関係する現在の技術をNMT を中心に概観する。 そして, 特許機械翻訳とその他の一般的機械翻訳の現状の課題の類似点と相違点, 現状の到達点と実用とのギャップ, また今後の方向性について論じる. ## 1.2 本解説論文で扱う特許機械翻訳の課題 上述の通り,本解説論文では特許機械翻訳において特徵的と考えられる以下の諸課題に着目し, それぞれの課題に関係する研究を示した上で技術の現状と将来について論じる. 訳抜け・過剰訳への対策(2 節) NMT において顕著な問題としてよく挙げられるのが,入力文中の情報が訳出されない「訳抜け」,同じ内容を繰り返し出力してしまう「過剰訳」である。それ以前の統計的機械翻訳においてはあまり問題視されていなかった点でもあり,近年様々な対策が試みられている。 用語訳の統一(3 節) 特許のような技術文書においては, 同一の事物や概念を表す用語は翻訳においても統一して同一の用語で訳出しなければならないが,機械翻訳では言葉の多義性とのトレードオフがありしばしば異なる訳語を選択してしまうという深刻な問題が生じることがある.NMTでは厳密な訳語の指定は翻訳処理の柔軟性を損なう懸念もあり,工夫が必要である. 長文対策(4 節) 特許文書では請求項を代表に長文による記述が多用される。長文の翻訳は,入力文の解析や訳語の選択, 訳文の構成について膨大な候補の中からの選択を余儀なくされ,探索誤りが生じやすい。特に NMT においては訳抜け・過剩訳の問題が重なることがあり重要な課題であるが,実際に長文に焦点を当てた研究はあまり多くない. 低リソース言語対対策(5 節) 英語を中心とする代表的な言語については大規模な対訳コーパス・単言語コーパスの蓄積が進みコーパスベース機械翻訳が有効に機能する状況となりつつあるが,今後の成長が予想される東南アジア諸国等における現地語文書については依然としてコーパスが不足しており翻訳が難しい。近年の機械翻訳研究でも非常に重視されている課題でもある. 評価(6 節) 機械翻訳の精度が向上したことにより, 機械翻訳の品質評価の重要性がより増していると言える。従来の表層的な自動評価手法の限界は広く知られるようになり,評価手法の研究が再び盛んになってきている。また, 人手評価についても方法が変化しつつある。特許庁が独自に機械翻訳評価のマニュアルを公開している等の背景もあり, 特許機械翻訳の評価は注目に値する。 翻訳高速化・省メモリ化(7 節) 国際出願特許の審査, 技術動向の調査等, 特許文献に対する言語横断情報アクセスの重要性は飛躍的に増大してきており,日々大量の特許文書・技 術文書の翻訳が求められる状況である。そうした中で計算効率は非常に重要な要因であり,大規模化が続くNMT モデルをそのまま実用に供することは容易ではない. モデルや計算の工夫による様々な対策が試みられている. ## 2 訳抜け・過剰訳への対策 機械翻訳において訳抜けや過剩訳は非常に深刻な問題である。NMT 以前の機械翻訳においては, 語・句・構文構造等の要素を対訳知識を利用して置換することで翻訳を行っていたため,入力文をすべて置換する過程で大きく訳抜けや過剰訳が生じることはさほど多くなかったという面もあり特別な注目を集めることは少なかった. しかし,通常 NMT ではそのような明示的な置換を行わないことから,入力文中で訳出されない要素や複数回訳出される要素が現れないことの保証が困難である。 こうした問題への対策として, これまでに様々な研究が行われている。 それらを大きく分類すると, 次のように分けられる。(1) NMT 内のネットワーク構造でのモデル化, (2) 訳抜けを表すスコアとの組み合わせ, (3) 低頻度語・未知語・曖昧性が高い訳語の対策, (4) 出力長制御, (5) 強化学習によるパラメータ最適化の補正, (6) 繰り返しの抑制, (7) 訓練データのノイズ対策,(8) NMT の動作分析.以下,それぞれ内容を説明する. ## 2.1 NMT 内のネットワーク構造でのモデル化 NMT のネットワーク構造を統計的機械翻訳 (SMT) のカバレッジベクトル (Koehn 2010) を参考にして一部変更することで訳抜け・過剩訳を減らす試みである。翻訳時に各入力トークンに対応するアテンション確率を蓄積していき,それらの值をアテンション確率の計算に利用する (Tu et al. 2016). アテンション確率を蓄積するのではなく, 入力トークン列に対応する分散表現の系列を用意し,その各分散表現を 1 トークンの出力毎に RNNで更新する。この更新の際にアテンション確率 (Tu et al. 2016; Mi et al. 2016) やデコーダのステート (Meng et al. 2016) を入力する。この分散表現の系列をアテンション確率の計算に利用する。この分散表現の更新でRNN の代わりに忘却処理と追加処理を用いる手法もある (Meng et al. 2018). また, 各入力トークンに対応する分散表現を 2 つ用意し,それぞれ翻訳済みを表すものと未翻訳を表すものとして用いる手法もある (Zheng et al. 2018). さらにこれらの翻訳済みと未翻訳の区別をカプセルネットワークで表すものもある (Zheng et al. 2019). ## 2.2 訳抜けを表すスコアとの組み合わせ NMT が生成する出力候補に対して, アテンションの確率や逆翻訳の生成確率で出力スコアを補正するものである. 各入力単語に対して各出力でのアテンション確率を蓄積した場合に蓄積 值が少ない入力単語は訳出不足の可能性が高いため, 蓄積值が小さい場合にペナルティを加えて補正する (Wu et al. 2016; Li et al. 2018). 出力候補を入力して原言語文を強制出力させた際の生成確率である逆翻訳の生成確率は, 出力候補に不足がある場合に値が小さくなることが期待されるため,この値が小さいときにペナルティを加えて補正する (Li and Jurafsky 2016; Tu et al. 2017; Goto and Tanaka 2017).たたしし, Tu et al. (2017) は逆翻訳の生成確率を出力候補からではなく,入力文の情報も含まれているデコーダの分散表現の系列から計算している. ## 2.3 低頻度語・未知語・曖昧性が高い訳語の対策 未知語, 低頻度語の生成確率は高くなりにくく訳抜けしやすいため, 低頻度語をサブワードに分割することで,各トークンの頻度を増やし, さらに未知語もサブワードの組み合わせによりある程度扱えるようにする手法がある (Sennrich et al. 2016b; Kudo 2018). この手法は, コー パスに含まれる語彙数が大きくても,NMT で扱う必要があるトークンの種類数を減らすことができ,現在広く用いられている。低頻度語対策,未知語対策は訳抜け対策にも効果があると考えられる。詳しくは低頻度語対策,未知語対策の節を参照されたい。 専門用語対策として対訳辞書を利用する方法がある。この方法を利用して,専門用語を変数に置き換えて翻訳し, 出力中の変数を辞書の目的言語表現に置換することで訳抜けの減少が確認されている (Kimura et al. 2017). 対訳辞書で訳語の候補が複数あり, 訳語選択での曖昧性が高い(すなわち訳語のエントロピー が高い)原言語単語(高エントロピー語)の訳語に着目し,2 段階で翻訳する手法がある (Zhao et al. 2019b),訓練データにおいて,高エントロピー語の訳語を原言語単語6に置き換えて,1 段階目の翻訳では高エントロピー語はそのまま現言語単語を出力する,2 段階目で,1 段階目の出力を用いて,最終的な出力を得る。なお, 2 段階ではなく通常出力と原言語単語に置き換えた出力をマルチタスク学習する方法の記載もある. ## 2.4 出力長制御 出力長を制御して不適切に短い出力を避ける取り組みがある。出力長が正解訳に比べて大幅に短い場合は訳抜けしている可能性が高い。このような出力にならないようにすることで, 結果として訳抜けの低減が期待できる。次の手法が提案されている. 長さバイアスに対する改善としてスコアを出力長で正規化する (Jean et al. 2015). SMT の特徴量の 1 つである出力長に応じたスコアを追加する (He et al. 2016; Murray and Chiang 2018). 出力長が長すぎる時に出力長に基づくスコア追加を抑制するために,原言語文長 $|y|$ と目的言語文長 $|x|$ の比の平均 $r$ を用いてスコアを $\min \{|y|, r|x|\}$ とする (Huang et al. 2017). 出力長を予測するモデルを学習し, 予測  した出力長に応じたスコアを追加する (Yang et al. 2018). 翻訳の学習に加えて出力長の予測もマルチタスクで学習する (Yang et al. 2020). これによって翻訳の改善が得られ, さらに, 予測した出力長で長さの正規化を行う,出力長を予測するモデルを学習し,予測した出力長を用いて, Transformer の位置エンコーディングを制御することで出力長を制御する手法 (Takase and Okazaki 2019)により,翻訳の出力長を制御する (Oka et al. 2020). ## 2.5 強化学習によるパラメータ最適化の補正 NMT モデルによる生成文にノイズ(繰り返しや訳抜け)が含まれる場合にペナルティ(負の報酬)を与える強化学習手法が提案されている (Shirai et al. 2021). この手法では, 参照訳に対してノイズを付加した擬似的なノイズ付き参照訳データを作成し, このデータから,ノイズの混入を判別する識別器を学習する。得られた識別器を強化学習の報酬として用いることで,, イズの生成を抑制する学習を行っている。通常のNMT と比べて,学習時に違いがあり,翻訳時はパラメータの値以外は同じである. ## 2.6 繰り返しの抑制 前記の強化学習によるパラメータ最適化の補正による繰り返し抑制の研究がある (Shirai et al. 2021). 目的言語単語列に依存構造を表す開閉括弧を挿入することで,未知語を表す “UNK”の繰り返しの減少が確認されている (Nguyen Le et al. 2017). エンコーダ・デコーダモデルで出力系列に出現する各単語の頻度の上限を予測し, 出力中の頻度が上限に達したら,その後はその単語を出力しないようにデコーダの出力スコアを補正する手法がある (Suzuki and Nagata 2017),要約タスクでの評価を行なっているが,機械翻訳にも応用可能である. ## 2.7 訓練データのノイズ対策 訓練データでの訳抜けの影響を緩和する対策である (後藤他 2020). 訓練データの対訳文に訳抜けがあるとそれを学習してしまい,訳抜けの原因になる。この学習データのノイズを検出して,訳抜けしている部分と訳抜けしていない部分の区別を表すラベル系列も各トークンの特徵量 (Sennrich and Haddow 2016) として用いることでこれらを区別して学習し,翻訳時には入力文に訳抜けしていないことを表すラベル系列を特徴量として付与することで,訳抜けしていない部分から学習した結果を主に用いて出力を生成する. ## 2.8 NMT の動作分析 訳抜け・過剰訳の直接的な対策ではないが, その原因の調査には, NMT の動作の分析が有用である. NMTの動作に対して可視化や分析が行われている. RNN ゙ースのエンコーダ・デ 今村, 越前谷, 江原, 後藤, 須藤, 園尾, 綱川, 中澤, 二宮, 王特許機械翻訳の課題解決に向けた機械翻訳技術解説 コーダモデルで,EOSトークンの確率が出力単語数に依存する特定のユニットの出力に基づいていることが示されている (Shi et al. 2016). アテンション機構を持つエンコーダ・デコーダモデルでの各原言語単語および各目的言語単語の履歴からの影響の強さが可視化され, 各出力単語が入力文単語と目的言語単語履歴のどこからの影響を大きく受けているかを調べることができる (Ding et al. 2017). ## 2.9 特許機械翻訳と訳抜け・過剰訳 特許機械翻訳においては専門用語・新語が現れやすく, それらはしばしば低頻度語・未知語として訳抜けを誘発したり,逆にその他の箇所の過剰訳を生じる原因となることがある。また, 1.1 節で挙げた特許翻訳の対訳コーパスはパテントファミリから収集され,自動文対応付けによって得られたものであるため, 厳密には文単位の対訳としては不適なものが含まれることもある。そうした状況において上に挙げた種々の対策の有効性について体系的に調査された研究は見当たらないが,NMT の実用に向けた重要な課題と言える. ## 3 用語訳の統一 自然言語では,同一の物事を複数の異なる表現で表すことができる。一方で,論文などの説明的文章では,一つの物事に対して統一した一つの表現を用いて表すことで無用な誤解を防ぐことが一般的である。またテキスト検索時においても, 同じ物事に対して異なる表現が混在した場合,それらの表記摇れに対応しない限り網羅的な検索が困難になってしまうなど,用語訳の統一を行わなければテキストの機械的処理に支障をきたすことがある. 従来の機械翻訳モデルは入力テキストを文単位で訳出しており,入力テキストにおいて同一の意味に対して統一した表現が用いられていたとしても同じ訳出がされる保証はない.例えば, “apple”は “りんご”, “リンゴ”, あるいは “林檎”のいずれにも訳される可能性があり,同じ文書で混在させるのは基本的に望ましくないが,文単位で訳出する機械翻訳システムは複数の訳を混在させる可能性がある。また,機械翻訳モデルのトレーニングに用いられる翻訳性能の自動評価尺度である BLEU 等は訳語の一貫性を直接評価していないため,それらの尺度を用いて開発を行っても訳語を統一させるような学習は期待できない. アジア言語翻訳ワークショップ (Workshop on Asian Translation) においては 2021 年から, 出力文中で用いるべき語彙を制限した訳文生成を行う制約つき翻訳タスグが開催されており,語彙の制約を満たした出力文の割合を一貫性の評価尺度とした性能評価が行われている。 本節では機械翻訳において訳語を統一させる種々の手法について,NMT による近年の研究 ^{7}$ https://sites.google.com/view/restricted-translation-task/ } を中心に,SMTにおける関連研究にもいくつか触れながら説明する.主に,用語集を用いて訳出結果に反映させる方法と, 用語集を用いずに翻訳履歴や文脈を考慮する方法の二つが挙げられ,以下それぞれの方法について概要を述べる。 ## 3.1 用語集や語彙制約の導入による訳語の統一 訳語を統一する必要のある語彙に対して既定の訳語を定めた対訳辞書あるいは用語集を導入することで,機械翻訳の過程で対訳辞書を適用したり,訳出文を後編集したりすることにより訳語が統一されることが期待される。訳出文の後編集は,例えば“リンゴ”を既定訳とする場合に訳出文中の “りんご”や “林檎”を “リンゴ”に置換するといった処理を指し,用いる機械翻訳システムに依らず適用ができる一方で,語の曖昧性から生じる誤った置換が生じるおそれや,そもそも訳出すべき語が抜けたり誤って訳された場合に対応できないことなどの課題に対処する必要が生じる. ルールベース機械翻訳においては語を訳出する部分で対訳辞書を適用することができるが,現在主流となっているNMT では訳文中の語彙生成に相当する部分も含めた翻訳器全体を対訳コーパスから学習しており,訳文生成時に特定の辞書を直接参照するようなモデルは組み込まれていない.このため, 対訳辞書を考慮した訳文生成を行う方法 (Arthur et al. 2016) や, 訳文生成時に語彙制約を課した探索を行う方法 (Hokamp and Liu 2017; Post and Vilar 2018; Hu et al. 2019a, 2019b), 翻訳器の学習に用いる対訳コーパスを対訳辞書により編集する方法 (Dinu et al. 2019; Song et al. 2019; Chen et al. 2020) が考えられている. ## 3.1.1 対訳用語集による後編集 後編集 (Post-Editing) とは, 機械翻訳によって得られた訳出文をさらに修正することで翻訳品質を改善する手法である。人手による後編集については,国際標準規格である ISO 18587:2017 によって規定されており, そのうちのフル・ポストエディット (Full Machine Translation PostEditing) においては分野や翻訳依頼者が定める特定の用語集に応じて一貫性のある訳語を用いることも要件として含まれている。また,一貫性のある用語集を整備するための規格として,国際的に用いられている TBX (TermBase eXchange, ISO 30042) や AAMT(アジア太平洋機械翻訳協会)により策定されたシンプルな用語集形式 UTX (山本 2019) がある. これらにおいては,同じものを表す複数の用語候補の中で使用すべき用語や使用を避けるべき用語の情報を付加できるように設計されている. 用語集を用いて後編集による訳語の統一を自動的に行う場合,機械翻訳の入力文に用語集の用語があり,かつ出力文にその用語の訳語として“使用を避けるべき用語”が現れていれば,それを“使用すべき用語”に置換することで訳語が統一される。ただし,入力文に現れる用語に曖昧性がある場合は,適切な曖昧性解消がなされていることが前提となる.また,出力文の中 今村, 越前谷, 江原, 後藤, 須藤, 園尾, 綱川, 中澤, 二宮, 王特許機械翻訳の課題解決に向けた機械翻訳技術解説 に用語集にある語が現れない場合は, 置換すべき箇所を特定する, または訳出されていないなら適切に訳を変更する必要が生じる。 さらに, 用語の変化形への対応など文法的な処理を別途行わなければならない. ## 3.1.2対訳辞書を考慮した訳文生成 SMT における初期のモデルである IBM Model の実装 GIZA++においてはオプションとして対訳辞書を入力できたが, これは単語の共起頻度の反復計算において対訳辞書の用語対の出現を条件とするような制約をかけるものであり,必ずしも訳語の統一が期待できるものではなかった. その後, フレーズベース SMT においては対訳コーパスやフレーズテーブルに用語対を追加する手法 (Bouamor et al. 2012)のほか, Okuma et al. (2007) は入力文中の低頻度な固有名詞を同じカテゴリの高頻度な固有名詞に予め置換した上で翻訳し, 出力文中で訳出されたその固有名詞の訳語をもとの低頻度な固有名詞の訳語に置換する手法を提案している. Tan et al. (2015) は外部辞書の導入方法として, 学習用対訳コーパスに追加する方法と訳文生成時に辞書項目を用いるよう強制する方法を比較し議論している. NMT において外部辞書を考慮した訳文生成を行うモデルとして, Arthur et al. (2016) は出力層に語彙モデルを結合することで低頻度語の誤訳を低減する手法を提案している.入力文 $F=f_{1}^{|F|}$ に対して出力文の $i$ 番目の語が $e_{i}$ となる確率 $p_{m}\left(e_{i} \mid F, e_{1}^{i-1}\right)$ は以下の式で表される. $ p_{m}\left(e_{i} \mid F, e_{1}^{i-1}\right)=\operatorname{softmax}\left(W_{s} \boldsymbol{\eta}_{i}+\boldsymbol{b}_{s}\right), $ ただし, $W_{s}, \boldsymbol{b}_{s}$ はそれぞれ重み行列,バイアスベクトル, $\boldsymbol{\eta}_{i}$ は固定長のベクトルとする.用いる対訳辞書を, 原言語の語 $f$ に対して目標言語の語 $e$ に訳される翻訳確率 $p_{l}(e \mid f)$ の形で表し,入力文 $F=f_{1}, \ldots, f_{|F|}$ に対して以下のような翻訳確率の行列を求める. $ L_{F}=\left[\begin{array}{ccc} p_{l}\left(e=1 \mid f_{1}\right) & \cdots & p_{l}\left(e=1 \mid f_{|F|}\right) \\ \vdots & \ddots & \vdots \\ p_{l}\left(e=\left|V_{e}\right| \mid f_{1}\right) & \cdots & p_{l}\left(e=\left|V_{e}\right| \mid f_{|F|}\right) \end{array}\right] $ Arthur et al. (2016) の bias モデルでは, アテンションから得られたアラインメント確率 $\boldsymbol{a}$ を用いて, 単語の出力確率にバイアスの値として $L_{F}$ と $\boldsymbol{a}_{\boldsymbol{i}}$ の積を加えることで, 外部辞書に存在する訳語の確率値を上げるような学習を行う. $ p_{b}\left(e_{i} \mid F, e_{1}^{i-1}\right)=\operatorname{softmax}\left(W_{s} \boldsymbol{\eta}_{i}+\boldsymbol{b}_{s}+\log \left(L_{F} \boldsymbol{a}_{i}+\epsilon\right)\right) $ ## 3.1.3語彙制約つき探索による用語の統一 語彙制約とは,特定の単語列の集合 $V$ について出力を制御するための制約であり,Vに含ま れる語彙を出力に含むことが可能な場合に,出力に $V$ を含むように制御する制約を正の語彙制約,Vを含まないように制御する制約を負の語彙制約と呼ぶ。機械翻訳における用語の統一の観点からみると, 機械翻訳の入力文に対訳用語集の用語が現れた場合,その用語に対応する出力側の言語の用語を必ず含むような正の語彙制約を出力の探索時に適用することとなる. この手法は後編集による方法と比較して, 出力する語彙に応じて出力文全体の最適化が期待されるという利点がある。一方で,語彙制約によって探索が制限されることによる訳質の低下が生じる可能性がある。また,入力側の用語に曖昧性がある場合,意図していない語彙制約を課すことで誤訳を生じさせるおそれがある。 図 1 に Hokamp and Liu (2017) で示されている英独機械翻訳においてデコーディング時に語彙制約を課した場合の例を示す。上段の四角で囲まれた部分が出力における 2 つの語彙制約で,入力文に応じて出力に含めるべき単語(トークン)の列を示している.格子状の枠はビーム探索時の $k$-best のスタックを表しており,各スタックに入る仮説は色付きの横長の四角で示されている.通常のデコーディングでは入力文の各トークンに対して左から右にスタックを埋めていくのに対し,語彙制約を課す場合には上下方向にもスタックを用意し,語彙制約が 1 トークン満たされた時点で上方向にも仮説を生成する。図 1 中の “Start” は語彙制約中の用語の出力が開始されたことを示し,そこから用語の出力が終わるまでは強制的にその用語のトークンを順に出力する仮説を生成していく,最終的に最上段にある仮説が語彙制約をすべて満たした仮 Input: Rights protection should begin before their departure . 図 1 語彙制約を課したデコーディングの例(Hokamp and Liu (2017)より引用) 図 2 Transformer エンコーダ層への語彙制約の埋め込み(Chen et al. (2020) より引用) 説であることになり,その中で最もスコアの高い訳文を出力することとなる. この手法では語彙制約の出力トークン数に比例して計算量が増加する. Post and Vilar (2018) はこの問題を軽減するため,語彙制約のトークン数だけ上下方向にスタックを並べる代わりに, ビーム幅を固定してその中で語彙制約を満たしたトークン数ごとの領域を動的に割り当てる Dynamic Beam Allocation (DBA) 方式を提案し, 語彙制約のトークン数に比例しない計算量で探索できることを示した. また, Hu et al. (2019a) はDBA の手続き的な手法をべクトル化した手法に置き換えることで GPUによる高速な演算を可能にし, さらに語彙制約にトライ構造を用いることで効率化を図っている. ## 3.1.4 データ拡張によるソフトな語彙制約 語彙制約の適用方法として,前節のように探索時に強制的に出力を制御する手法のほか,訓練データに語彙制約を適用することで間接的に訳語を統一させるデータ拡張手法が提案されており,前者のハードな語彙制約に対してソフトな語彙制約とも呼ばれる。探索時に語彙制約を適用する場合と比較して, 語彙制約が常に優先して適用される保証はないが, 曖昧な語の誤訳の問題に頑健である利点,および探索の計算量増大がない利点がある. Song et al. (2019) は訓練データの語彙を対訳辞書により事前に目標言語の語句に置き換えて学習させる手法を, Dinu et al. (2019) は置き換える場合と元の語句に付加する場合でそれぞれ学習する手法をそれぞれ提案している. Chen et al. (2020) はデータを直接置き換える代わりに Transformer のエンコーダ層への入力時に語彙制約を埋め込む手法を提案している. 図 2 では,入力文 “Das teilte die Gewerkschaft mit.” の訳文に “announced”(発表した)と “union”(組合) という 2 つの語を用いることを指定するため, 入力文の後ろに語彙制約を表すトークンを追加するとともに,位置およびセグメントの埋め达みのための特定のインデックスを与えている. ## 3.2 文脈を考慮した訳出 従来の機械翻訳システムにおいて訳語の統一がなされない原因の一つは, 入力テキストの各 文を独立に翻訳するためである.翻訳時に前後の文あるいは入力テキスト全体の文脈を考慮に入れることで,入力テキスト全体を考慮して統一した訳語が出力されることが期待できる. SMT においても訳語を統一することにより精度が向上する可能性が示唆されており (Carpuat 2009; Carpuat and Simard 2012), 訳語を統一する手法も研究されている (Gong et al. 2011; Xiao et al. 2012; Hardmeier et al. 2012; Hasler et al. 2014). NMT において文脈を考慮に入れる方法は,入出力する文対にその直前の数文を直接付加する方法 (Tiedemann and Scherrer 2017)のほか,過去の訳出語をキャッシュに置く方法 (Tu et al. 2018), 入力側で文脈を扱うエンコーダを追加する方法 (Jean et al. 2017; Zhang et al. 2018b), およびその他の方法に大別される (Lopes et al. 2020). Tu et al. (2018) は,キャッシュに過去に訳出した語を読み込んで後に続く文の翻訳において参照するモデルを提案した. 図 3 (a) は標準的な NMT において, 一つ前の出力トークン $y_{t-1}$,入力トークン $\mathbf{s}_{t}$, およびアテンションによる文脈ベクトル $\mathbf{c}_{t}$ が与えられたときに次の出力トー クン $y_{t}$ を求める部分を示している。提案モデルでは (b) のようにこれまでの翻訳履歴を保持したキャッシュを用意し,翻訳中のトークンの文脈 $\mathbf{c}_{t}$ をキーとする値を読み出して入力トークン $\mathbf{s}_{t}$ と結合することにより, これまでの翻訳履歴を考慮に入れた訳出を行う. 文書レベルの文脈を入力とするエンコーダを追加した Zhang et al. (2018b) のモデルにおいては,文脈エンコーダの出力は翻訳用のエンコーダ及びデコーダーの両方にアテンションを用いて導入されている. Voita et al. (2018) は文脈と原言語側の両エンコーダでパラメーターを共有し, 両エンコーダの出力はゲート機構により統合するモデルを提案した. ほかに階層的アテンションネットワーク (HAN) による統合手法 (Miculicich et al. 2018), 入力文に対して関連する文のみに着目するための選択的アテンションによる統合手法 (Maruf et al. 2019) が提案され (a) Standard NMT (b) NMT augmented with a continuous cache 図 3 翻訳履歴を保持するキャッシュを用いた翻訳モデル(Tu et al. (2018)より引用) ている. Morishita et al. (2021) は文脈として考慮する文の選択にミニバッチ法を用いる手法を提案し, 英日翻訳の実験において訳出される語彙が参照訳のものに修正される例を示している. ## 3.3 特許機械翻訳と用語訳の統一 特許文書では厳格な用語定義が求められ,原文で用語が統一されているものが機械翻訳を介することで用語の摇れを生じてしまうことは大きな問題である。特許機械翻訳を対象に本節で挙げたような手法の有効性を示した研究は知られておらず,今後実用的な検証が求められる. ## 4 長文対策 Koehn and Knowles (2017)によって指摘されている現在の NMT における 6 つの課題の一つに長文問題がある。機械翻訳における長文問題とは,1文あたりの語数が大きい文(長文)を翻訳する際に翻訳精度が著しく劣化する問題である.特許文書は特に長文からなることを特徴の一つとしており,実用的な特許機械翻訳の実現のために長文の高精度な翻訳が必要とされている. SMT から NMTへの翻訳方式の変化により長文の翻訳への対策は変化してきており,近年は NMT の特性に合わせた様々な手法が提案されている。本節ではそれらの手法について,(1) アテンション機構, (2) 文分割による手法, (3) NMT モデルの構造的特徴(依存構造や位置情報,自己アテンションなど),の大きく 3 つに分けて説明する. (1) はエンコーダ・デコーダにおける内部状態間の関係性を計算する機構である。(2)は, 文構造等の特徴を用いて文全体を分割し,分割された個々の部分文を翻訳することで長文の精度劣化の問題を解決する手法である。(3) は, NMTのモデルを改良することで, 長文に対応する手法である. アテンションそのものが長文に対応する手法となっているが, さらに自己アテンションに依存構造を導入する手法や, 自己アテンションに被覆率を導入する手法, 位置情報を改良する手法などが提案されており,長文における性能劣化を抑えている. ## 4.1 アテンション機構 単純な RNN エンコーダ・デコーダモデル (Kalchbrenner and Blunsom 2013; Cho et al. 2014) では,勾配消失や長距離依存の問題があり,高い精度を実現することは難しい。これらの問題を解決するために, RNN のユニットとして LSTM ユニット (Hochreiter and Schmidhuber 1997) や GRU ユニット (Cho et al. 2014) を導入することが提案され (Sutskever et al. 2014; Luong et al. 2015b), さらに言語間アテンションを導入することでこれらの問題は大きく改善された (Bahdanau et al. 2014; Luong et al. 2015a). 言語間アテンションは, 現在のデコーダの内部状態に対し,エンコーダの各内部状態との関連性(重み付け)を計算し, エンコーダ内部状態の加重平均をデコーダの出力計算に用いる手法 である。アテンションを用いることにより,計算グラフ上で遠い位置関係にある単語間の関連性を直接計算することができるようになる. Luong et al. (2015a)および Bahdanau et al. (2014) の報告では,アテンションがついていない LSTM エンコーダ・デコーダモデルは文長が長くなるにつれ性能 (BLEU) が低下していくが,アテンション付きLSTM エンコーダ・デコーダモデルは性能が低下することなく長文に対しても高い性能を維持出来ていることが示されている.基本的に NMT ではアテンションを導入することによって長文の問題はおおよそ解決されていると考えられているが,言語の構造が大きく異なる言語間での翻訳や, 特許翻訳のようにさらに長い文の翻訳ではその影響は明らかではない。 ## 4.2 文分割 長文問題を解決する方法として,長文を複数の短い文や句に分割し,それぞれを翻訳してつなげる方法が考えられる。 Pouget-Abadie et al. (2014)は,部分トークンの翻訳に対する確信度を定義し,可能な部分トークン列の組み合わせに対して, 整数線形計画法を用いることで, 信頼度最大となる文分割を選ぶ分割法を提案している。信頼度は順方向(原言語から目的言語)の翻訳確率と逆方向(目的言語から原言語)の翻訳確率を用いて定義している。翻訳確率は NMT モデルにより与えられる.この手法により信頼度の高い文分割が得られるが, 全ての可能な部分トークン列に対する翻訳を行う必要があるということと, 部分トークン列の並び替えを行っていないという問題点がある. アテンションが使われていないRNN エンコーダ・デコーダモデル (Cho et al. 2014) は長文に対し翻訳精度 (BLEU) が著しく低下するが,提案する文分割法では翻訳精度の低下が起きていない. Tien and Thi Minh (2019) は,訓練コーパスにおける長文(長さ 30 トークン以上)の文ペアから, 句アライメント $(\mathrm{GIZA}++)$ によって確率の高い句ぺアを抽出し,それらを訓練コーパスに追加する手法を提案している。通常の長文翻訳の学習に加えて, 長文から抽出された句から句への翻訳をあわせて学習するため, 長文翻訳の学習においても対応すべき句から句へ翻訳が誘引されるように学習が進むことが期待される. Kuang and Xiong (2016)は,原言語文を句に分割し,句の順番を入れ替えることで長文の翻訳を行う手法を提案している。まず,パラレルコーパスに対して単語アライメント (GIZA++) を適用し, 原言語側と目的言語側で連続する単語列が対応する場合に,それらを句ぺアとして,句アライメント付きのパラレルコーパスを作成する,作成したパラレルコーパスから,句の分割点を予測する識別機を学習する。また,同様に対応する句順が正順か逆順か判別する識別機を学習し, 原言語側の句順確率モデルを作成する. 句の分割確率と正順となる句順確率の最も高い句分割と句順入れ替えを選択することで文分割と文結合を同時に解決している.中英機械翻訳においては,アテンション付き双方向 LSTM でも長文に対しBLEU が顕著に低下している が, 彼らの手法では BLEU がやや下がるものの概ね精度を維持できている.また,SMT は長文に対して頑健であることも示されている。 Goh and Sumita (2011) は, ルールベース手法により長文を分割し, 確率モデルに従って分割された節を結合する手法を提案した,提案手法では,まず,形態素解析を行い,形態素解析結果に対する複数のルールにより長文を分割する。文全体の翻訳確率は,分割された各節に対する翻訳確率の積と文全体に対する言語モデルにより与えられる。つまり,分割された各節の並び替えは主に言語モデルにより決定されることになる。 Sudoh et al. (2010)は,入力文に対して構文解析を行うことで単文(文というカテゴリの句) に分割し,それぞれを翻訳し,再結合することで長文の翻訳を行っている.分割されて生じる各単文は関係節や that 節などの埋め込まれた句も含まれるため,文全体の中に再帰的に埋め込まれた文が存在することになる.Sudoh et al.は,各単文を非終端記号に変換することで,文全体を単文の集合に分割し,各単文を翻訳している。非終端記号も翻訳されているため,目的言語においてそれらの非終端記号を手がかりに文全体を自動的に再構成することができる。学習のために, 単文の対訳コーパスを作る必要があり, 単文のためのアライメントアルゴリズムも提案している. ## 4.3 NMT モデルの構造的特徵を利用する手法 この節では文分割以外の手法として,NMT の構造的特徴を利用した長文対策の手法を紹介する. Deguchi et al. (2019) や Bugliarello and Okazaki (2020) は, 依存構造解析を用いて Transformer モデルを改良する手法を提案している。 Transformerの自己アテンション層は,あるトークンからあるトークンへの係り受け関係を計算しているとみなすことができ,依存構造解析結果を教師信号として自己アテンションの教師付き学習を行うことで翻訳精度が向上する. Bugliarello and Okazaki は,長文に対する提案手法の影響を調査しており,長文に対して高い翻訳精度 (BLEU) を実現することが報告されている。長文に対しては,長距離依存関係を翻訳モデルの学習中に捉えることが難しいことが考えられるが,依存構造解析結果を自己アテンションの教師信号として陽に与えることで,長距離依存の問題が緩和されていると考えられる. Tu et al. (2016)は,NMT における訳抜け・過剩訳への対策として,言語間アテンションを利用したカバレッジモデルを提案している(2.1 節を参照のこと).原言語文の各トークン毎に今までかけられたアテンションの重みの累計を保持しておき,原言語文の全てのトークンのアテンション重みの累計が予測される fertilityに達するように制約を与える。アテンション付き LSTM は長文に対し性能が劣化するが,カバレッジモデルにより性能劣化が緩和されている. Transformer では正弦波に基づく絶対位置エンコーディングが用いられているが,訓練デー 夕に出現しなかった文長に対する翻訳精度が大きく低下することが報告されている (Neishi and (a) ASPEC English-to-Japanese (b) WMT2014 English-to-German Figure 3: BLEU scores on test data split by the sentence length (no training data in the gray-colored area). 絶対位置エンコーディングによる Transformer ... Transformer $(\times)$ 相対位置エンコーディングによる Transformer ... Rel-Transformer $(\diamond)$ RNN 位置エンコーディングによる Transformer ... RNN-Transformer $(\nabla)$ 相対-RNN 位置エンコーディングによる Transformer ...RR-Transformer $(\triangle)$ (Neishi and Yoshinaga (2019) より引用) 図 4 相対位置エンコーディングと RNN 位置エンコーディングによる長文対策の効果 Yoshinaga 2019). 絶対位置エンコーディングを用いない手法として, Shaw et al. (2018) は自己アテンションにおける単語間の相対位置に基づく位置エンコーディングを提案しており, Neishi and Yoshinaga (2019) はRNN を用いた位置エンコーディングを提案している. 図 4 は, 絶対位置エンコーディング, 相対位置エンコーディング, RNN 位置エンコーディングによる Transformer の翻訳精度を示している。図の灰色の領域は訓練データに出現しない文長を示しており,絶対位置エンコーディングを用いた Transformer では大きく性能が低下していることがわかる。一方, Shaw et al. (2018)による相対位置エンコーディングの手法や, Neishi and Yoshinaga (2019) による RNN 位置エンコーディングの手法では,絶対位置エンコーディングほどの大きな性能低下は生じていないことがわかる。 ## 4.4 特許機械翻訳と長文対策 特許文書では解釈の曖昧性を生じないよう,適切に内容を特定できるように複雑な構文構造を持つ長文がしばしば利用される。特に請求項においては権利化の対象を特定するために多くの語句や節で修飾された 200 語を超えるような名詞句が用いられることも少なくない. 一方で,上に挙げた研究でもそこまで極端な長文の翻訳は考慮されていないのが実情である。特に長文に着目していない現在主流の研究においては,学習の効率化のために数十語を超えるような文は学習から除外されたり,評価用のデー夕にも目立って長文が含まれないため,特許機械翻訳で想定されるような長文についての検証は十分に行われていない. 今後の特許機械翻訳への応 今村, 越前谷, 江原, 後藤, 須藤, 園尾, 綱川, 中澤, 二宮, 王特許機械翻訳の課題解決に向けた機械翻訳技術解説 用に向け,請求項のような極端な事例も含んだ評価・検証が今後求められる. ## 5 低リソース言語対対策 言語 $\mathrm{X}$ から言語 $\mathrm{Y}$ の翻訳システム(本節ではこのような翻訳システムを $\mathrm{X} \rightarrow \mathrm{Y}$ と略記する)を構築したい場合,SMT や NMT では X と Y との間の対訳コーパスを用いて訓練するのが一般的である。訓練データのサイズが小さい場合を低リソース言語対と呼び, その中で訓練データが全くない場合はゼロリソース言語対と呼ぶ. 低リソース言語対に対する翻訳システムは高リソース言語対に対するシステムに比較して翻訳性能が劣化する。そのための対策として, さまざなものが提案されている,以下の節では,まず低リソースのデータ量について説明し, その後順次これらの対策について説明する. 5.2 節では,間に第 3 の言語 Z(中間言語あるいはピボット言語と呼ぶ)を挟んで $\mathrm{X} \rightarrow \mathrm{Z}$ および $\mathrm{Z} \rightarrow \mathrm{Y}$ を高リソースとする. 5.3 節では, $\mathrm{X}$ または Yの単言語コーパスから疑似的な 2 言語コーパスを作成して訓練データを拡張する. 5.4 節では,高リソース言語対で事前訓練を行い低リソース言語対でファインチューニングを行う。 5.5 節では,多対多の翻訳システムの一部として低リソース言語対を含める. 5.6 節では,一般公開された事前訓練モデルをファインチューニングする. ## 5.1 低リソースと判断されるデータ量 どの程度の訓練データのサイズであれば低リソース言語対となるのであろうか. Koehn and 精度(BLEU で計測)がどのように変化するかを調査した。訓練データの英語側の語数が 1,200 万語までの場合は SMT の BLEU 値が NMT のそれを上回っており,2,400 万語より多い訓練データを用いた場合は逆転する. 1 文の平均語数を 20 語と仮定すると 60 万文対と 120 万文対の間で SMT と NMT の BLEU が逆転する. Trieu et al. (2017)は, 同様の調査を日本語 $\rightarrow$ 英語で行っている。600万語程度では SMT の方が BLEU が高かった. Sennrich and Zhang (2019) は, NMTのハイパーパラメータやシステム構成を低リソース言語対に最適に調整することで 10 万語程度の訓練データでも NMT の方が BLEU が高くできることを示した. Duh et al. (2020) は,2.4万文対を用いた同様の実験でNMT は SMT と同じくらいの BLEU にできることを示した. ただし調整を慎重に行わないと BLEUが下がると指摘している. これらの研究から数万文から数十万文(数十万語から数百万語)以下を低リソース言語対と見なすことにする. ## 5.2 カスケード方式 $\mathrm{X} \rightarrow \mathrm{Y}$ を構築したい場合, $\mathrm{X} \rightarrow \mathrm{Y}$ が低リソース言語対である場合でも他の言語 $\mathrm{Z}$ を間にはさむことで $\mathrm{X} \rightarrow \mathrm{Z}$ および $\mathrm{Z} \rightarrow \mathrm{Y}$ は高リソース言語対とできる場合がある. 例えば,英語や中国 語を言語 Z とすることが考えられる。このような方式を中間言語方式またはピボット方式と呼び,言語 Z を中間言語またはピボット言語と呼ぶ. ピボット方式の最も単純な方法として X $\rightarrow$ $\mathrm{Z}$ の後に $\mathrm{Z} \rightarrow \mathrm{Y}$ を直列につなぎ $\mathrm{X} \rightarrow \mathrm{Y}$ を得るカスケード方式がある. Costa-jussà et al. (2018) ン語は 41.38 であった. カスケード方式は, いくつかの工夫が提案されている (Cheng et al. 2016, 2017; Chen et al. 2017; Kim et al. 2019b). Cheng et al. (2016)は,カスケードモデルの目的言語を原言語と同一にしたオートエンコーダモデルを導入して $\mathrm{X} \rightarrow \mathrm{Y}$ と $\mathrm{Y} \rightarrow \mathrm{X}$ を同時訓練した. その際, 評価関数として原言語から目的原語への尤度, 目的原語から原言語への尤度, 原言語のオートエンコー ダの尤度, 目的原語のオートエンコーダの尤度の 4 項を設定した. Cheng et al. (2017) は, カスケードモデルのパラメータを原言語 $\mathrm{X}$ から中間言語 $\mathrm{Z}$, 中間言語 Z から目的言語 $\mathrm{Y}$ で独立ではなく,X,Z,Yの三者に関係する交差項を加えて訓練した. 交差項としては, X $\rightarrow \mathrm{Z}$ と Z $\rightarrow \mathrm{Y}$ における Z の埋め込みべクトルの近さを用いるものと, $\mathrm{X} \rightarrow \mathrm{Y}$ の少量の 2 言語コーパスに対する評価値を用いるものを使用し, 後者の BLEUが高かった. Chen et al. (2017) は, ゼロリソー ス言語対 $(\mathrm{X}, \mathrm{Y})$ に対して双方の言語と高リソースを有するピボット言語 Z がある場合を想定して teacher-student 方式を適用した,彼らの方法では, $\mathrm{Z} \rightarrow \mathrm{Y}$ を親システム (teacher)として, X と Z の 2 言語コーパスを利用して子システム (student)である X $\rightarrow \mathrm{Y}$ を構築する. Kim et al. (2019b) は, ピボット方式の翻訳システムで転移学習(5.4 節参照)の新しいアーキテクチャを 3 種類提案した. Step-wise 事前学習方式, ピボットアダプ夕追加方式, Cross-lingual encoder 方式である. Step-wise 事前学習と Cross-lingual encoderを組み合わせた方式が BLEU が高かった. ## 5.3 データ拡張と操作 $\mathrm{X} \rightarrow \mathrm{Y}$ の 2 言語対訳コーパスが低リソースであっても,X 単独あるいは $\mathrm{Y}$ 単独の単言語コー パスとしては高リソースな場合がある。そのような単言語コーパスを操作してデータ拡張する手法が種々に提案されている. 逆翻訳 (back-translation) は,目的言語側が高リソースな単言語コーパスを,何らかの翻訳システムで原言語側に翻訳して合成データ (synthetic data)を作り,対訳コーパスに加えることで訓練データのサイズを拡張する (Sennrich et al. 2016a). さまざまなコーパスサイズで逆翻訳を利用した場合の比較が Poncelas et al. (2018)にある. 逆翻訳の工夫も提案されている (Imamura et al. 2018; Edunov et al. 2018; Imankulova et al. 2017, 2019; Zhou et al. 2019a; Chaudhary et al. 2019; Niu et al. 2019; Currey and Heafield 2019). よって多様な翻訳を出力し, 合成データのべスト多様性を増やした. Imankulova et al. (2017) は,逆翻訳時に低品質で翻訳された文を除外することで訓練データの質を向上させた. さらに Imankulova et al. (2019) は, in-domain に加えて out-of-domain の大規模なデータを利用して, BLEUを 3.7 ポイント上昇させた。逆翻訳を行う場合,そのための翻訳システムとして何を用いるかが問題となるが,Zhou et al. (2019a) は,辞書を用いた単語から単語への翻訳を利用する手法を提案した. Chaudhary et al. (2019) は,大規模なノイズのある対訳コーパスをフィルタリングすることでノイズ除去を行った。その結果,厳しくフィルタリングしたほうが BLEUが高かった. Niu et al. (2019) は, 双方向翻訳システム(X $\rightarrow \mathrm{Y}$ および $\mathrm{Y} \rightarrow \mathrm{X})$ を対象として, , イズのある対訳コーパスあるいは逆翻訳された合成 2 言語コーパスを再構成する手法に工夫を加えた. Currey and Heafield (2019) は,カスケード方式(5.2 参照)において,多対多の NMT を用いてピボット言語のデータを逆翻訳して訓練データを拡張した。 逆翻訳を利用すると,双方向翻訳システムを同時訓練することができる.He et al. (2016) は, 双方向同時訓練において少量の 2 言語コーパスと両言語の単言語コーパスを利用した. Ahmadnia and Dorr (2019) は, ゼロリソース設定で, $\mathrm{X} \rightarrow \mathrm{Y}$ と $\mathrm{Y} \rightarrow \mathrm{X}$ の 2 つのシステムを同時訓練する次の手法を適用した。1) 単言語コーパスから得られる言語モデルのスコアを陽に用いる, 2) n ベスト出力を用いてパラメータを修正する,3) 単言語の文の翻訳結果を評価し,評価値の高い文を選択して訓練データに加える。 原言語側と目的言語側の単言語コーパスを用いて,逆翻訳を反復適用することで翻訳精度を徐々に向上させる方法もある (Lakew et al. 2017; Lample et al. 2018; Hoang et al. 2018b). Lakew et al. (2017) は,多対多の翻訳システムを原言語と目的言語の単言語コーパスを利用して訓練・翻訳・再訓練を繰り返すことで逐次改良した。 5 回繰り返すことで 1 回目と比較して BLEU が 5 ないし 6 ポイント向上できた. Lample et al. (2018)は, 反復適用をすることで初期の訓練デー タがゼロの翻訳システム(ゼロリソース NMT)を構築した. Hoang et al. (2018b) は, 少量の 2 言語コーパスと逆翻訳の反復適用によって BLEUを向上させた. 逆翻訳以外にも,デー夕拡張や操作を行って合成デー夕の規模と多様性を増やす方法がある. Currey et al. (2017)は,対訳コーパスに,原言語側もしくは目的言語側の単言語コーパスを単にコピーして加えることで翻訳性能の向上を図った。この方法は,原言語・目的言語で文字種が同じ言語対で効果がある.固有名詞など,変換が不要な単語が多く含まれるためである.目的言語側の単言語コーパスをコピーして加えたときの効果の方が大きい. Fadaee et al. (2017) は,対訳コーパス中の高頻度の語を意味的に類似する低頻度の語で入れ替えて合成コーパスを作った. このことで低頻度の語を含むコーパスを増やすことができ,翻訳のための文脈を拡張できる. ## 5.4 転移学習 低リソースな $\mathrm{X} \rightarrow \mathrm{Y}$ を構築する前に高リソースな $\mathrm{Z} \rightarrow \mathrm{Y}$ を構築し,その後 $\mathrm{X} \rightarrow \mathrm{Y}$ をファイ ンチューニングする転移学習 (transfer learning)の手法がさまざま提案されている (Zoph et al. 2016; Kocmi and Bojar 2018; Dabre et al. 2019; Bapna and Firat 2019; Beloucif et al. 2019). Zoph et al. (2016) は,高リソースな Z $\rightarrow \mathrm{Y}$ で事前訓練して親モデルとし,引き続き低リソー スな複数の $\mathrm{X}_{\mathrm{i}} \rightarrow \mathrm{Y}$ でファインチューニングして子モデルを構築した。具体的にはフランス語 $\rightarrow$ 英語の親モデルから \{八ウサ語, トルコ語, ウズベク語, ウルドゥ語 $\} \rightarrow$ 英語の子モデルを作った. Kocmi and Bojar (2018) は,多対 1 に加えて, 1 対多あるいは 2 対 2 の NMT を対象にした転移学習を提案した。これは,親モデルと子モデルの目的言語側が異なるまたは原言語側も目的言語側も異なる転移学習である. Dabre et al. (2019)は, 3 段階の転移学習を行った. まず高リソースな英語 $\rightarrow \mathrm{X}$ で事前訓練を行う。次に低リソースな複数の英語 $\rightarrow \mathrm{Y}_{\mathrm{k}}(\mathrm{k}=1, \ldots, \mathrm{N})$ を加えてファインチューニング 1 を行う。最後に対象言語の英語 $\rightarrow Y_{j}$ を用いて再度ファインチューニング 2 を行う. Bapna and Firat (2019) は, Transformer モデルにアダプ夕を導入して,多対多の NMT を全言語対で訓練し,対象となる低リソース言語対でアダプ夕部分をファインチューニングした. Beloucif et al. (2019)は, 転移学習において, 以下の 3 種類の言語学的正則化を導入した損失関数を利用した. 1) 入力と出力の単語単位での文長の差, 2) 入力と出力の句読点の個数の差, 3 ) 入力と出力の単語の頻度分布の差 (Kullback-Leibler 距離を利用). 転移学習時のデータ操作についての工夫もある (Zoph et al. 2016; Murthy et al. 2019; Song et al. 2020). Zoph et al. (2016) は, フランス語 $\rightarrow$ 英語の親モデルから \{八ウサ語, トルコ語, ウズベク語, ウルドゥ語 $\} \rightarrow$ 英語の子モデルを作るシステムにおいて, 低リソース言語の単語はフランス語の単語にランダムに対応させ初期値とした。その後は通常の訓練で調整し, 4 な $\{$ ベンガル語, グジャラート語, マラーティー語, マラヤーラム語, タミル語 $\} \rightarrow$ ヒンディ語を子モデルとする転移学習において英語を事前並べ替えした方が多くの場合 BLEU が向上することを示した. Song et al. (2020)は, 親モデルを教師なしで訓練するような転移学習において,訓練データのフィルタリングを行った。加えて日本語 $\rightarrow$ 英語を子モデルとし, 中国語 $\rightarrow$ フランス語を親モデルとする場合,中国漢字を日本漢字に転写している. $\mathrm{Y} \rightarrow$ 英語で親モデルを訓練し, $\mathrm{X} \rightarrow$ 英語で子モデルを訓練する場合, $\mathrm{X}$ と $\mathrm{Y}$ が言語的に近い方が有利である (Nguyen and Chiang 2017; Xia et al. 2019). Nguyen and Chiang (2017)は, X と Y が言語的に近いと共通する語またはサブワードが多くあるため,親モデルの訓練には,かならずしも高リソースが必要でないことを示した. Xia et al. (2019)は, Xがベラルーシ語, Y がロシア語の場合, 転移学習により 7 ポイント BLEUを向上させた. ## 5.5 多言語モデル 低リソース言語対を多対多の翻訳システムの中で実現することで,高リソースな言語対の影響を受けて低リソース言語対に対する翻訳精度も向上できる可能性がある. $\mathrm{N}$ 言語 $\times \mathrm{M}$ 言語の多対多 NMT を単純に実現するには $\mathrm{N} \times \mathrm{M}$ 個のアテンション機構が必要であるが,Firat et al. (2016a)は,それを共通の1つのアテンション機構で実現した. Firat et al. (2016b)は, この手法をゼロリソース言語対に適用した. Johnson et al. (2017) は, 多対多 NMT を 1 対 1 のNMT と同じアーキテクチャで実現した. つまりアテンション機構に加えてエンコー ダとデコーダも多言語で共通化している。言語の選択は,原言語の文に特殊なトークンである翻訳先言語名を付加することで所望の言語での出力を得る. Gu et al. (2018)は, 多対 1 の NMT において,単語埋め込み表現を用いて,異なる原言語表現を語彙レベルの普遍表現にし, Mixture of Language Expert (MoLE) と呼ばれる機構を用いて異なる原言語表現を文レベルの普遍表現にした。 多言語モデルにおいては, 言語対によってデータ量に多宣が生じ, それに従って精度が変化する. Arivazhagan et al. (2019)は, 103 言語間の多対多 NMT を総数 250 億文対から訓練し, デー 夕量に対する BLEU 值を調査した。言語対毎に訓練デー夕量が異なり,高リソース言語対では 20 億文対, 低リソース言語対では 3 万 5 千文対である. 各言語対に対して同量の訓練データとなるようオーバーサンプリングすることによって低リソース言語対での BLEUを向上できた. 多言語モデルを構成する場合,言語の組み合わせによっても性能が変化する. Aharoni et al. (2019) は, 非常に低リソースな複数の言語対(X $\rightarrow$ 英語と英語 $\rightarrow \mathrm{X}$ )を 1 対多, 多対 1 , 多対多で訓練した場合を比較した, $\mathrm{X} \rightarrow$ 英語では多対多の BLEU が高く, 英語 $\rightarrow \mathrm{X}$ では 1 対多の BLEU が高った. Aharoni et al. (2019)は, Arivazhagan et al. (2019) と同様の実験を, 高リソー ス言語対の訓練データを 100 万文対に制限して実施した。この実験設定では, 多対多(X $\rightarrow$ 英語と英語 $\rightarrow \mathrm{X}$ )より多対 $1 ( \mathrm{X} \rightarrow$ 英語)および 1 対多(英語 $\rightarrow \mathrm{X} )$ の BLEUが高った. Sachan and Neubig (2018)は, 1 対多の NMT において共通化するデコーダのパラメータを制限することの良否を調査した。複数の目的言語間の距離が近い場合は,多くのパラメータを共通化した方が BLEUが高く, 遠い場合は少ないパラメータを共通化した方が BLEUが高かった. Mueller et al. (2020) は, 対象言語 X から英語への NMT を多対 1 の NMT で実現するときの最適な補助言語の組み合わせについて検討した.彼らの実験では,補助言語の数を多くしすぎると BLEU が低下し,X と言語的に近い言語を選ぶことの良否はまちまちであった. Tan et al. (2019)は,多対 1 あるいは 1 対多の NMT において対象言語に近い補助言語を用いる有効性を検討した.言語間の近さは,語族をベースとしたものと,言語名を表す特殊なトークンの単語埋め込みべクトルの近さをべースにしたものを比較した,その結果,後者の有効性がより大きかった. He et al. (2019) は,言語をノードとし,翻訳方向を考慮した言語対をエッジとした有向グラフである言語グラフ (language graph)を導入して補助言語を選択した. ## 5.6 事前訓練モデル 近年, 大規模な単言語コーパスで学習した事前訓練モデルが開発され, さまざまなタスクで 効果を上げている,機械翻訳でも,事前訓練モデルを対訳コーパスでファインチューニングすることで,低リソースの弱点をカバーし,従来の翻訳品質を大幅に上回る精度を出せるようになっている. 事前訓練モデルとして BERT (Devlin et al. 2019) を使用する場合, これは Transformer エンコーダなので,NMTのエンコーダー部分を置換または補完する形で使用する (Imamura and Sumita 2019; Clinchant et al. 2019; Zhu et al. 2020). そのため, 英語用の BERT を使った NMT では,原言語が英語となり,目的言語が低リソース言語となる. Imamura and Sumita (2019)は いずれも BLEU スコアが上昇することを確認した. 事前訓練モデルとして多言語エンコーダ・デコーダモデル(たとえば mBART; (Liu et al. 2020))を用いると, 原言語・目的言語ともに,多言語モデルがサポートした言語すべてを使用することができ, 5.5 節の多言語モデルと, 5.4 節の転移学習を組み合わせたような効果が得られる。 Workshop on Asian Translation (Nakazawa et al. 2021)の NICT-SAP 共通タスクでは, 英語とヒンディー語, タイ語, マレー語, インドネシア語への翻訳が実験されており, mBART モデルをファインチューニングしたシステムが翻訳品質上位を占めていた (Susanto et al. 2021; Imamura and Sumita 2021)。 また, Workshop on Technologies for MT of Low Resource Languages (Ortega et al. 2021) というワークショップも開催されており, さまざまな事前訓練モデルの利用が提案されている. ## 5.7 特許機械翻訳における低リソース言語対策 特許機械翻訳ではこれまで主要国の知的財産庁で構成される IP58におけるデータを中心に研究が進められてきた経緯があり,これら主要国の言語間に対しては各庁や WIPO で機械翻訳の導入も進んでいる。一方で, その他各国の言語については特許文書のみならず各種技術文書の対訳コーパスは十分に整備されていないのが実情であり,今後国際的な連携によるデータの拡充が求められている。日本における特許文書の翻訳の場合を考察すると,日本語と低リソー スとなる言語として東南アジアの言語(タイ語, ベトナム語など)が挙げられる. WAT2020, WAT2021において東南アジアの言語と英語との翻訳について研究されている (Nakazawa et al. 2020, 2021). 今後, 日本語を含むアジア諸言語についての低リソース言語対対策の研究が進むことが望まれる.  今村, 越前谷, 江原, 後藤, 須藤, 園尾, 綱川, 中澤, 二宮, 王特許機械翻訳の課題解決に向けた機械翻訳技術解説 ## 6 評価 ある機械翻訳システムや機械翻訳結果が満足のいく品質水準にあるかどうかは実用上最も重要な問題である. 出来上がったシステムの評価をすることの重要性もさることながら, 機械翻訳システムの開発においては評価とシステム改善を繰り返し行うことが必要であることから,特に機械翻訳の発展著しい 2000 年代以降は機械翻訳の評価についての研究も数多く行われている。本節では機械翻訳の評価に関する代表的な方法について概説し, 特許翻訳における課題との関係について述べる. ## 6.1 人手評価 人間による評価(人手評価)は, 本来多数の正解訳が許容される翻訳の問題において非常に重要な役割を持つ. 人手評価が適切に実施されることにより, ある機械翻訳結果の品質がいかほどであるか, 他の機械翻訳結果と比較して優れているか, どういう点で誤りがあるのか, 等,様々な観点で機械翻訳を捉えることが可能となる. さらに人手評価は, 後述する自動評価による評価結果が信頼に足るものであるかどうかを評価する9 ${ }^{9}$ ありファレンスでもあるため,機械翻訳技術や自動評価技術の進展の重要な基盤と考えることができる. ## 6.1.1 段階評価による人手評価 機械翻訳における人手評価では, 1990 年代に始まった米国 ARPA の機械翻訳プロジェクトの評価尺度である忠実さ (adequacy) と流暢さ (fluency) がその後長く利用されていた (White et al. 1994). 忠実さは原文や参照訳との比較で本来訳出すべき重要な内容をどの程度訳文が反映しているかを,流暢さは訳文がどの程度自然かつ流暢なことばになっているかを,それぞれ 5 段階で評価するものである。特許翻訳の共通タスク NTCIR-7 PATMT (Fujii et al. 2008) ではこれらの人手評価が用いられた. 後の NTCIR-9 及び NTCIR-10 PatentMT (Goto et al. 2011, 2013) では流暢さに変わって容認性 (acceptability) が採用された,容認性は,忠実さで測られる重要な情報がすべて訳出されている訳文について, 文法的な正しさ, 読みやすさ, 流暢さ等で 5 段階にしたものであり,必要な内容は含まれているがそれが自然で伝わりやすいことばとして訳出されているかに注目したものである。特許という事実の伝達を目的とした文書の翻訳においてはまず内容が漏らさず含まれていることが必要条件と言えるため,特許翻訳の実用を反映した人手評価の仕組みと言える. ## 6.1.2 相対評価から直接評価へ こうした段階評価の方法は評価者間の一致度が十分でないことや, 機械翻訳の精度向上とと  もにシステム間の差が測りづらくなってきたことが指摘されるようになった. 機械翻訳研究における各種共通タスクを亜引している国際会議 WMT では機械翻訳の共通タスクと並行して機械翻訳評価手法の共通タスクを実施しているが,2000 年代後半からは異なるシステムの翻訳結果を比較して行う順位による相対評価が中心となった (Callison-Burch et al. 2007). 一方で相対評価では絶対的な翻訳の良し悪しが分からないという面もあり,2010 年代半ばからは直接評価 (Direct Assessment; 以下 DA)と呼ばれる連続的な数値評価が行われるようになった (Graham et al. 2017). DA では 0 から 100 の整数で訳文の評価を行い,評価値の標準化を施すことで評価者間の違いを調整して利用している. ## 6.1.3より詳細な品質評価に向けた動き さらに近年では NMT による翻訳精度の向上を受け, DA での訳質の識別も容易でなくなりつつあり,人手評価方法の見直しが議論されている。2021 年のWMT ではより詳細かつ系統的な翻訳品質評価尺度である多元品質評価尺度(Multidimentional Quality Metrics; 以下 MQM) ${ }^{10}$ (Lommel et al. 2014) に基づく人手評価が採用された (Freitag et al. 2021b). MQM では機械翻訳の誤りに対し,その誤りが様々な誤訳の類型のどれに当たるもので,誤りの程度が「なし (None)」「軽度 (Minor)」「重度 (Major)」「深刻 (Critical)」のどれに当たるものかを分類して重み付けし点数付けする. Freitag et al. (2021a)では MQM を利用した大規模な機械翻訳評価を行い,その分析を通じて人手翻訳と機械翻訳の違い,翻訳の人手評価における問題について論じている.MQM はそれ以前から存在した人手翻訳を含む翻訳評価の仕組みである LISA QA Model や TAUS DQF に基づいて設計されたものであり,日本では日本翻訳連盟 (JTF) が策定した JTF 翻訳品質評価ガイドライン (日本翻訳連盟 2018) で類似した翻訳品質評価の設計が行われている。つまり,機械翻訳は人手翻訳と同様の厳しさをもって評価されるべきである,という時代が到来したと考えてよいだろう. ## 6.2 自動評価 自動評価は機械翻訳の評価を計算機が自動的に行う技術である。典型的な自動評価は, 機械翻訳結果を参照訳と比較し,その「近さ」を定量化した評価値として返すというものであるが,近年では参照訳のみならず原文をも入力として活用する手法が提案される等大きな変化が始まっている。本稿では代表的な手法を中心に紹介する. ## 6.2.1表層ベース自動評価 自動評価の初期に用いられていたのは, 音声認識の評価で現在も利用されている単語誤り率 (Word Error Rate; WER) である. WER は機械翻訳結果と参照訳の表層情報のみを利用した,  / / / \mathrm{www}$.qt21.eu/mqm-definition/definition-2015-06-16.html } 単語列の編集距離に基づく非常に直感的な「近さ」の尺度と言える。しかしながら, 音声認識と異なり機械翻訳の場合は語順の変化が許容される場合が多く,参照訳の特定の語順に強く制約される WER は評価尺度としては厳しすぎると見ることもできる。そのため,語順の情報を無視し,機械翻訳結果と参照訳それぞれを単語の集合とみなし,集合間の単語の一致率を用いた位置独立単語誤り率 (Position-independent Word Error Rate; PER) が利用されることもあった (Tillmann et al. 1997). そうした中,2001 年に提案されたのが BLEU (BiLingual Evaluation Understudy) (Papineni et al. 2002) である. BLEU は単語 n-gram 単位での機械翻訳結果と参照訳の一致率を利用することで,WERほど語順に強く左右されることもなく,ある程度の単語の繋がりを考慮することを可能にした。その後約 20 年にわたり機械翻訳の自動評価のデファクトスタンダードの位置を占めている.当時は米国 NIST が機械翻訳の大規模な研究プロジェクトを実施しており,BLEU もそのプロジェクトにおける機械翻訳の自動評価尺度として提案されたものである。すぐ後に BLEU を改変した尺度である NIST (Doddington 2002)も提案されている。WER はもとより, BLEU や NIST は単語の表層形のみで訳語の正誤判定をするものであり, 活用形の違いや同義語への置換に対して過剰にペナルティをかけてしまう. METEOR (Banerjee and Lavie 2005) はステミングや WordNet の同義語辞書を利用することで柔軟な評価を可能にしており,現在でも良く使われている。一方で,単語を単位とする自動評価においては単語分割を評価に際して行う必要があり, 日本語や中国語等分かち書きが行われない言語においては, 単語分割の方法により結果が大きく変わってしまうという問題があった。chrF (Popović 2015) は文字 n-gram のF スコアを用いて評価を行うことでそうした問題の解消を狙ったものである。 さらに単語 n-gram も用いた拡張版が chrF++ (Popović 2017) で, 人手評価との相関が改善することが示されている. BLEU のように決まった長さの単語列の単位に分解するのではなく単語列全体としての正しさに注目したのが翻訳誤り率 (Translation Error Rate ${ }^{11}$; TER) (Snover et al. 2006) である. TER は WER と同様の編集距離を利用しつつも, 連続する部分単語列がまとまって移動するシフトという編集を許可することによって直感的な編集誤りの計算を行っている. IMPACT (Echizen-ya and Araki 2007) は最長一致部分単語列に着目して句や節といったまとまった部分単語列を抽出することで評価の改善を狙ったものであり, RIBES (Isozaki et al. 2010)は単語列の順位相関を利用して大域的な語順の誤りに敏感な評価を狙ったものである. ## 6.2.2 モデルベース自動評価 2010 年代に入り word2vec (Mikolov et al. 2013) をはじめとする分散表現の利用が盛んになったことで,これまで表層に強く依存してきた機械翻訳評価に大きな変化が訪れた. 特に 2010 年  代後半以降の文の分散表現に関する研究の進展により, 自動評価の性能も飛躍的に向上してきている。ここでは,翻訳評価のデータを使ったファインチューニングを要さない汎用性の高い手法と,翻訳評価のデータを用いたファインチューニングにより機械翻訳評価に特化した手法の二つに分けて概説する。 ファインチューニングなし翻訳評価のデータによらない方法として, 文の意味的類似度によって翻訳に求められる意味的等価性を測る尺度が用いられている. WE_WPI (Echizen'ya et al. 2019)は単語埋め达みの最適輸送を用いて文書の意味的類似度を測る Word Mover's Distance (Kusner et al. 2015) に単語アライメントに基づいて語順の制約を加えることで翻訳の自動評価を行っている.BERTScore (Zhang et al. 2020) は自然言語処理分野で広く活用されている BERT (Bidirectional Encoder Representations from Transformers) (Devlin et al. 2019)を用いて二つの文をそれぞれサブワードベクトルの集合として表現し,サブワードベクトル間の余弦 (cosine) を類似度として用いて文の類似度を近似計算する. MoverScore (Zhao et al. 2019a) は最適輸送を利用した BERTScore の拡張である。これらの方法は大規模なテキストで事前学習された BERT にのみ依存するため, 機械翻訳評価に限らず,幅広い分野の文の類似度尺度として利用できるという利点があるが,機械翻訳評価における性能においては次に挙げる手法よりもやや劣ることが多い. ファインチューニングあり翻訳評価のデータを正解として評価モデルをファインチューニングすることで, 翻訳評価に特化した高性能なモデルが得られることが知られている。特に WMT におけるDA スコアの回帰問題と考え,翻訳文と参照訳の組を入力とし,DA スコアを出力として学習する手法がこの数年数多く発表されている. RUSE (Shimanaka et al. 2018) は文の分散表現を用いた機械翻訳評価の端緒となった手法であり,BERT 以前に提案されていた InferSent, Quick-Thought, Universal Sentence Encoderを利用したものである.RUSE における文の分散表現を BERT によるものに置き換えたのが BERT Regressor (嶋中他 2019) であり, RUSEより高い人手評価との相関を示している。 BLEURT (Sellam et al. 2020) は評価以外の補助タスクを用いた事前学習を行うことで汎用性を向上させた. C-SPEC (Takahashi et al. 2022), COMET (Rei et al. 2020) は回帰モデルの入力に原言語の入力文を加え, 言語横断モデルに基づく文埋め込みにより翻訳文と参照訳の意味的類似性のみならず翻訳文と原文の意味的類似性を考慮することを目指したものである。これらの手法は人手評価との相関が高くなる一方で, 学習データが必要になること,また性能がその学習データの特徴に左右されることが問題とも言える. ## 6.3 特許機械翻訳と翻訳評価 上記の評価は翻訳の正しさという面に着目し, 各翻訳文, もしくは文の集合としての文章の翻訳に対して,その優劣を問うものである。一方で, 特許関連の実務において, こうした翻訳の評価における優劣が実用上の有効性と直結するとは限らない。そこで実用上の有効性を評価するこ とを目的とした外的評価 (extrinsic evaluation) が行われることがある. NTCIR-7 PATMT (Fujii et al. 2008) では特許における言語横断情報検索での応用を想定し, 英語の検索クエリを日本語に機械翻訳して日本語の特許文書の検索を行う,という外的評価が行われた。後年の NTCIR-9 及び NTCIR-10 PatentMT (Goto et al. 2011, 2013) では, 特許審査評価 (Patent Examination Evaluation) と呼ばれるより実務に近いシーンを想定した外的評価が実施された。実際の特許出願審査で拒絶の審決が行われた出願を対象として,拒絶理由として用いられた既存発明の特許文書を機械翻訳し,それによって本来の審決と同様に拒絶の判定をするための情報が得られるかどうかを,特許審査実務の経験者が 6 段階で判定するというものであった. 一方で, 特許庁でも機械翻訳を広く活用していることから機械翻訳の評価方法について長年検討・調査を行っており,2014 年には「特許文献機械翻訳の品質評価手順」と題した評価マニュアル (特許庁 2014)を公開している. この評価手順の特徴としては, 従来の人手評価で利用されていた忠実さや流暢さによる絶対評価に加え, 特許機械翻訳の評価において重視される重要技術用語の訳質についての評価が考慮されていることが挙げられる。また,機械翻訳の誤りフィー ドバックを目的としたチェックリストについても言及されており,これは先に述べた MQM や JTF 翻訳品質評価ガイドラインと類似した誤り項目ごとのチェックが考慮されている。 さらに,本マニュアルで挙げられた忠実さの設計では, 評価の対象を重要情報と呼び,技術的要素とその相互関係を表す名詞句や述語等に注目することが明示されている。この忠実さの尺度は, アジア言語翻訳ワークショップ (Workshop on Asian Translation; WAT) の共通タスクにおいて JPO Adequacy として 2015 年の第 2 回から人手評価に利用されている (Nakazawa et al. 2015). 以上述べた通り, 特許機械翻訳の実用的な評価と, 学術界で広く利用されている様々な評価手法の間には少なからぬ乘離がある。特に機械翻訳研究で広く用いられている自動評価ではすべての情報を同等に扱う傾向が強く,どういう点が所与の翻訳タスクで重要であるか,という観点が具体的に考慮されることはほとんどない. 最近研究が盛んになっている評価用データでファインチューニングを行うモデルベース自動評価であれば,特許を対象とした中規模の翻訳評価データを利用することで評価の性能が向上する可能性はあると考えられる.しかしながら,入力文に対して文平均での評価スコアを付するというような朹組みは機械的に扱うのには便利な反面, 人に向けての誤りのフィードバックや分析には不便な面がある. 昨今の MQM に基づく人手評価のように, 専門家による詳細な評価アノテーションの特許翻訳領域での拡大と, デー 夕の蓄積とそれに基づく技術の改良が今後の重要な課題と言えよう. ## 7 翻訳の高速化・省メモリ化 本節では,翻訳システムの使いやすさに影響する,翻訳実行時における速度向上,省メモリ技術について説明する. 特許機械翻訳では膨大な特許文書を対象にモデルの学習や翻訳の実行 を高速に行うことが求められ,一方で政府機関である知的財産庁での利用やサービスの提供にあたっては費用対効果が問われる面もあるため, 実用にあたっての処理の効率化は非常に重要な課題である. 本節における技術分類を表 1 に示す。本節で述べる技術は,モデルに関するもの,訓練・テスト時の処理,実装に関するものに細分して説明するが,複数の項目の組み合わせで動くものもあり,この分類は便宜上のものである。近年,超大規模事前訓練モデルの訓練,および利用時の速度向上やメモリ削減も注目されて来ているが(たとえば(Li et al. 2021)),本節は中~小規模モデル利用時の高速化やメモリ削減がテーマである. 本節では, 翻訳モデルとして, Transformer (Vaswani et al. 2017)(図 5)を前提として説明するが, 多くの技術は再帰ニューラルネット (RNN) ベースの翻訳器 (Sutskever et al. 2014; Bahdanau et al. 2014)にも適用可能である. Transformer 特有の技術に関しては明記する. 翻訳実行時の性能は, ハードウェアやソフトウェアの実装方法に依存する. 本節では, 現在最も普及している Intel 社の CPU, NVIDIA 社の GPU を前提とするが,バージョンによって利用可能な命令七ットが異なるので, 適用可否はハードウェア依存であることは注意が必要である. また, Workshop on Neural Generation and Translation (Birch et al. 2018; Hayashi et al. 2019; Heafield et al. 2020) では共通タスクとして, Efficient MT Trackが実施されており, 共通のデー 夕,および環境を用いて,翻訳速度,使用メモリの比較を行っている。参照していただきたい. 表 1 翻訳の高速化, 省メモリ化のまとめ。○は効果あり, ×は効果なし, $\triangle$ は他の技術と組み合わせることにより効果ありを表す. 今村, 越前谷, 江原, 後藤, 須藤, 園尾, 綱川, 中澤, 二宮, 王特許機械翻訳の課題解決に向けた機械翻訳技術解説 図 5 Transformer の構成 ## 7.1 モデル関連技術 ## 7.1.1 小規模モデル モデルのパラメータ数を削減することで,省メモリ・高速化する.削減方法には, ・ 深層モデルのレイヤー数を減らす方法 ・ 分散表現の次元数(Transformer の場合,モデル幅とフィードフォワードネットワークの隠れ次元数)を削減する方法 がある. モデルのパラメータ削減による高速化は,翻訳品質とトレードオフであり,パラメータ数を減少させると,一般的には高速化される代わりに翻訳品質は低下する。この問題は,知識蒸留 (Hinton et al. 2015; Kim and Rush 2016) を併用することにより緩和させることができるため,第 7.2 .1 節で再度議論する. ## 7.1.2 サブワード 2.3 節で述べたサブワード化 (Schuster and Nakajima 2012; Wu et al. 2016) は,低頻度語を高頻度なサブワードの列に分割することによって,未知語や低頻度語を翻訳可能にする技術である. 現在, サブワード化方法として, 頻度に基づくバイトペア符号化 (byte-pair encoding; BPE) (Sennrich et al. 2016b) と,文の unigram 確率を最大化するように分割する SentencePiece (Kudo 2018; Kudo and Richardson 2018) が多く使われているが,どちらも語彙数を制御できるのが特 徴である。語彙数は通常, 数千から数万で設定される場合が多い. 単語埋达テーブル(図 5 の $\mathrm{E} 1$ および D1)とデコーダ出力層の線形変換行列(同 D7)が語彙に依存するパラメータであるが,これは全体のかなりの部分を占める。そのため,サブワードの語彙数を削減することは,メモリ使用量の削減に有効である.たとえば,Transformer の基本モデル (Vaswani et al. 2017) の場合,原言語,目的言語ともに語彙が 64,000 語だとすると,モデルパラメータは約 1.4 億個になるが,8,000 語にすると 6 千万個以下に減少する. また,デコーダの出力層で行われる SoftMax 操作(図 5 の D8)は,語彙数に依存した時間がかかるため, 語彙数削減は高速化にも寄与する. 最適な語彙数は,実験的に設定する場合が多いが,近年,翻訳品質を最高にするサブワード化方法も提案されている (Xu et al. 2021). ## 7.1.3 パラメータ共有 NMT はさまざまな機能を持つサブネットワークの組み合わせで構成されているので, 同じ機能を持つサブネットのパラメータを共有することで,モデルを小さくし,メモリ使用量を削減する方法も使われる。なお,パラメータ共有は処理を削減するわけではないので,高速化にはほとんど効果がない. Universal Transformer (Dehghani et al. 2018; Dabre and Fujita 2019) は, Transformer のレイヤー(図 5 の E5 および D6)を繰り返し適用する方法で,翻訳時の使用メモリを削減できる. 原言語と目的言語の語彙を共通化すると, エンコーダとデコーダの単語埋込テーブルを共有することができる。ヨーロッパ言語間のように使用文字が共通な場合には効果が高い。また, デコーダの単語埋込テーブル(図 5 のD1)と,デコーダ出力層の線形変換行列(同 D7)は, 基本的に逆変換操作であるので, 両者を共有しても精度的な劣化は少なく, 共有されることが多い (tied vocabulary と呼ばれる (Nguyen and Chiang 2018)). ## 7.1.4 自己アテンション機構の置き換え Transformer のデコーダは, 前方から 1 単語ずつ生成する自己回帰型 (autoregressive) を使っている. 一方, Transformer は, 自己アテンション (self-attention) 機構を使って, 処理中の単語の周辺文脈を考慮している,自己回帰処理中は,それまでに生成したすべての単語の分散表現を混合するため, デコーディングの後半になるほど処理量が増大する,そのため, 高速な自己アテンション機構がいくつか提案されている. Marian 翻訳システム (Junczys-Dowmunt et al. 2018b, 2018a) は, Transformer デコーダの自己アテンション機構を直前状態のみに依存する機構に置き換えることで高速化した. Simpler Simple Recurrent Unit (SSRU)(Kim et al. 2019a; Lei et al. 2018)は, LSTM などと同じ RNN ユニットの一種であるが,忘却ゲートを適応型指数平均に置き換え,さらにリセットゲートを 省略することで処理を単純化している.基本的に RNN ユニットなので,直前状態のみ保持していれば,現在の状態を更新できるため,自己回帰型デコーダの計算量が一定となる.Average Attention Network (AAN) (Zhang et al. 2018a) も直前状態のみに依存させることができるため, デコーダの高速化に寄与する. 同様に, 自己アテンション機構を置き換えた高速化モデルには, Reformer (Kitaev et al. 2020), Linformer (Wang et al. 2020) などがある. ## 7.1.5 非自己回帰デコーダ デコーダの処理で, 1 単語ずつ生成する方式 (Vaswani et al. 2017) を自己回帰型と呼ぶのに対して,Transformerの並列性を利用して,全単語を 1 ステップで生成する方式を非自己回帰デコーディング (non-autoregressive decoding) (Gu et al. 2017; Lee et al. 2018; Ghazvininejad et al. 2019) と呼ぶ。ただし,1 ステップでは十分な精度が出ないため, 非自己回帰デコーディングを繰り返し適用する場合が多い. 非自己回帰デコーディングは,提案レベルでは高速な翻訳が可能であると報告されているが,自己回帰型に比べ翻訳品質が劣るため, 実用的にはまだ使われていない. なお, 自己回帰型でも,1 ステップで 2 トークンを同時生成することで若干高速化が可能である (Zhou et al. 2019b; Imamura and Sumita 2020). ## 7.2 訓練・テスト時の技術 ## 7.2 .1 知識蒸留 知識蒸留 (Knowledge distillation) (Hinton et al. 2015; Kim and Rush 2016) は, teacher-student approach とも呼ばれ, 教師モデルが持つ知識を生徒モデルに反映させる技術である. 知識蒸留自体は, 高速化や省メモリ効果はないが, 教師と生徒のモデルが分離されており, 生徒側に 7.1.1 節で述べた小規模モデルを利用できるため,結果的に高速化・省メモリに寄与できる。 NMT に適用可能な知識蒸留方式は 2 種類知られている。単語レベル知識蒸留 (Hinton et al. 2015)は,マルチクラス分類用の技術を機械翻訳に適用したもので,教師モデルの最終層(デコーダの出力単語分布)を模倣するように生徒モデルを学習する. 分布を模倣させるため, 教師モデルと生徒モデルの目的言語語彙は一致している必要がある. それに対して,系列レベル(文レベル)知識蒸留 (Kim and Rush 2016) は, 原言語のコーパスを教師モデルで目的言語に翻訳し,原言語を対にした疑似コーパスで生徒モデルを学習する。目的言語の多様性が少なくなるため, 小さなモデルでも教師モデルに近い精度で翻訳可能となる。機械翻訳で使用される知識蒸留は,ほとんどが系列レベル知識蒸留である。 知識蒸留では, 教師モデルの翻訳品質が生徒モデルの品質に影響するため, モデルアンサンブルなど, できるだけ高品質な教師モデルを用いることが多い (Kim et al. 2019a). 今村 (2021) は, 日英翻訳を対象に, 知識蒸留を適用した場合の小規模モデルの高速化効果を調査した。その結果,以下の知見を得ている. - 高速化の観点からは, 分散表現の次元数を削減するより, 深層モデルレイヤー数を削減した方が効果的である。 ・ エンコーダのレイヤー数を削減するより,デコーダのレイヤー数を削減した方が,翻訳品質を劣化させずに高速化できる (Kasai et al. 2021). ## 7.2 .2 ビーム幅, 貪欲探索 翻訳時の高速化に効果的なのは,ビーム探索時(図 59D9)のビーム幅を小さくして探索空間を縮小することである。一般的には翻訳品質は悪化するが,知識蒸留で構築したモデルの場合, 比較的狭いビーム幅でも翻訳品質を落とさず翻訳できる (今村 2021). 幅 1 のビーム探索は, 貪欲探索と呼ばれているが, 探索中の翻訳仮説(ビーム中の候補)同士を比較する必要がなくなるので,デコーダ出力層の SoftMax 操作(図 5 の D8)を省略することができる (Hoang et al. 2018a)。つまり,デコーダが出力する logitのうち,最大の要素を選択すればよい. ## 7.2.3 動的語彙選択(CPU 用) GPU を使わずに翻訳する際にボトルネックとなる部分は,デコーダ出力における SoftMax 操作(図 5 の D8)と出力単語分布からの Top-K 選択操作である. SoftMax は全要素の総和を含んでいるため, CPUで実行すると基本的には要素数ステップの計算を行わなければならない 12 . Top-K 選択も同様である. 階層的 SoftMax (Morin and Bengio 2005) などを使って, SoftMax 自体を高速化する方法もあるが,翻訳テスト時に限ると,SoftMaxが適用されるデコーダの語彙サイズを減少させることで,速度を向上させることができる. Shi and Knight (2017)は, 単語アライメントに基づく語彙選択を行った. 手順は以下のとお. (1) Moses (Koehn et al. 2007) などのツールキットを用いて, 原言語と目的言語の単語翻訳確率テーブル $P(e \mid f)$ を作成する. ただし, $f$ は原言語の単語, $e$ は目的言語の単語である. (2) 原言語の各単語 $f$ に対して,翻訳確率の高いトップ $M$ 個の目的言語単語 $\left.\{e_{1}, \ldots, e_{M}\right.\}$ を抽出してハッシュテーブルに格納・保存しておく. (3)翻訳テストの際には,原文(または原言語のミニバッチ)が与えられたら,すべての原言語単語をキーとしてハッシュテーブルを参照し, 対応する目的言語の単語集合 $V_{n e w}$ を得る.  (4)デコーダの出力層の線形変換行列(図 5 のD7)を, $V_{\text {new }}$ のみに縮小する(またはマスクする)。 この方法には,いくつかバリエーションがある. Junczys-Dowmunt et al. (2018b) は, 原言語の 1 単語ごとに目的言語 100 語 $(M=100)$ を選択する他に, 対訳コーパス全体を通した高頻度語 100 語を加えた. Senellart et al. (2018)は, 原言語 1 単語に対して目的言語の単語を選択するだけでなく, bigram, trigramに対しても選択するように拡張し, 語彙サイズを抑えつつ, カバレッジを上げるようにした,動的語彙選択は,カバレッジが十分な場合,翻訳品質を変えずに高速化できる. ## 7.2 .4 ミニバッチ構成法 ミニバッチは,ニューラルネットの処理単位で,機械翻訳では,長さの異なる複数の原文を 1 つにテンソルにパックしたものである. 原文(単語列)は可変長であるので,最大長のものに合わせてテンソルを用意し,そこに単語 ID を挿入している.余った部分には「詰圽」トークン (<PAD>) のID を入れることで,エンコーダの出力から無視できるようにしている. 機械翻訳の利用環境にも影響されるが, 文書翻訳のように, 複数の文を順不同で翻訳できる場合, 同じ長さの原文を集めてミニバッチを構成すると, <PAD>トークン数が最小になり, 文書全体のテンソルサイズが小さくなる。また,長さが似たような原文は,翻訳文も長さが近くなることが多いので, デコーダの自己回帰数も減少させることができ, 全体の処理速度が向上する. ## 7.3 実装 本稿では, 便宜上 GPU 用, CPU 用という分類をしたが, GPU や CPU も製造会社やバージョンによってアーキテクチャが異なっており,使用可能なハードウェア毎に実装方針を変えるべき部分である。 ## 7.3.1 半精度浮動小数点(GPU 用) 半精度浮動小数点数は, IEEE 754-2019 で標準化された, 浮動小数点数の表現形式である. 符号 1 ビット, 指数部 5 ビット, 仮数部 10 ビットの計 16 ビットで表現するため, FP16とも呼ばれる. $\pm 65504$ (正規化数の場合) の浮動小数点数を表現できる. 仮数部の精度は 10 進数でいうと約 3 桁である. 単精度浮動小数点数 (FP32) に比べるとメモリ使用量が半分になり, さらにハードウェア (NVIDIA P100 GPU など)がサポートしている場合,数倍の速度で計算が可能となるのが利点である。ただし, 指数部が 5 ビットしかないため, 勾配計算時や対数確率に指数関数を適用する際など,オーバーフローを起こすことがある (Micikevicius et al. 2018). これを避けるためには, ユーザプログラム内でスケールを管理し,計算中にオーバーフローを発見した時点でテン ソル全体の值を小さくするなどの対処が必要となる (Ott et al. 2018). もう一つの 16 ビットの浮動小数点表現法は, bfloat16(brain 浮動小数点)と呼ばれるものである(Google 社が開発し,自社の Tensor Processing Unit (TPU) に実装) (Wang and Kanwar 2019). これは, 符号 1 ビット, 指数部 8 ビット, 仮数部 7 ビットを持つ. 指数部が単精度浮動小数点と同じく 8 ビットあるので,ニューラルネットの勾配計算時にオーバーフローすることがほとんどなく,ユーザプログラム内では単精度浮動小数点と同様に扱うことができる。たたし, bfloat16 は 2021 年 9 月現在は IEEEの規格ではないので, サポートされているハードウェアは多くない. なお, bfloat16 は, 仮数部の精度が十進数で 2 桁程度となるが, 機械翻訳では最終的に, 語彙集合から出力する単語を適切に選択できればよいので (Och 2005), この程度でも十分に実用になる。 ## 7.3.2 8 ビット整数量子化 (CPU 用) Transformer は, LSTM (long-short term memory) のような再帰ユニットを用いた NMT に比べ, 行列の乗算, 加算処理が多く含まれている。したがって, これを高速化できれば, 全体の翻訳速度も向上する (Bhandare et al. 2019). 8 ビット整数量子化(INT8 量子化)は,FP32で表現された数値を,0255または $-127 \sim+127$ で表現する. Klein et al. (2020)の実装では,以下のように行列の列ごとに異なるスケールで量子化を行っている. $ \begin{aligned} s_{i} & =\max _{j}\left|W_{i, j}\right| \\ W_{i, j}^{Q} & =\left.\lfloor\frac{127}{s_{i}} W_{i, j}\right.\rfloor \end{aligned} $ ただし, $W$ は量子化前の行列 $\left(W_{i, j}\right.$ はその $j$ 行 $i$ 列の要素 $), W^{Q}$ は量子化後の行列 $\left(W_{i, j}^{Q}\right.$ はその要素),$s_{i}$ はスケールである. INT8 量子化行列は, 行列の乗算だけに適用される。他のテンソル操作, 特にレイヤー正規化については, 平均と分散を算出するために,操作の内部に除算,二乗,平方根演算を含んでおり, 精度が落ちたテンソルでの演算には向いていない. そのため, 行列乗算以外の演算は, 通常 FP32で行われる. INT8 量子化を行った行列の乗算操作のフローを図 6 に示す. 入力の 2 つのテンソルを INT 8 量子化して, 量子化行列乗算操作を行い, 量子化を解除する. 通常, 入力の一つはモデルパラメータであるので, 事前に量子化しておくことができる. 図 6 の量子化行列乗算は, Intel 社の一部の CPU でサポートされている AVX-512 (advanced vector extentions) 命令セットや, VNNI (vectorized neural network instructions) 命令セットで 今村, 越前谷, 江原, 後藤, 須藤, 園尾, 綱川, 中澤, 二宮, 王特許機械翻訳の課題解決に向けた機械翻訳技術解説 図 6 INT8 量子化を使ったときの行列乗算のフロー (Bhandare et al. 2019) 要素計算を並列に実行できる.量子化やその解除のための計算が増加するが,乗算操作が高速に実行できるため十分に速くなる. 量子化モデルの訓練は通常, FP32 浮動小数点(または FP16)で行い, その後, 必要部分たけ INT8 に量子化して保存する,ただし,モデルを量子化すると,パラメータが若干最適値からずれるため,量子化した状態で数エポックだけ追加訓練して,モデルを適応させた方がよい (Klein et al. 2020; Bogoychev et al. 2020). INT8 量子化は, 主に CPU 用の実装技術であるが, 近年は GPUでもサポートされつつある. ## 7.3.3 $\mathrm{C / \mathrm{C}++$ 実装, メモリ確保・解放} 高速かつ省メモリな実装を目指すには, $\mathrm{C}$ 言語または $\mathrm{C}++$ 言語による実装を行うのが効果的である. Pythonのようなインタープリタ言語にくらべ,ガーベージコレクションを行わないので,実行時の遅延がない,ガーベージコレクションを行わないということは,メモリ管理を自分で行う必要があるということだが,これは省メモリという観点でのメリットになるほかに,高速化という観点でもメリットとなる。プログラム実行時に時間がかかる作業の一つは,メモリ確保と解放なので,これを最小限に抑えるように実装することで,処理が高速化される. なお,メモリ確保・解放は,インタープリタ言語でも行われることなので, Pythonでも,作業用テンソルを明示的に確保して,翻訳中はそれを再利用するように実装すれば,速度は向上する. ## 7.3.4 デコーダ計算結果のキャッシュ (1):レイヤー出力 一般的な Transformer デコーダでは, 自己回帰型の生成方式を採用しているが, 時刻 $t$ の生成単語 $y_{t}$ を決定するために,それまでのすべての生成履歴を利用している。これはレイヤーレべ ルでも同様で, デコーダのレイヤー $\ell$ が出力する時刻 $t$ の分散表現 $h_{t}^{\ell}$ は, 以下のように, 1 層前のレイヤー出力のすべての履歴から計算される。 $ h_{t}^{\ell}=\operatorname{DecoderLayer~}^{\ell}\left(\boldsymbol{h}_{1 \ldots t}^{\ell-1}, \boldsymbol{h}_{e n c}\right) \text {. } $ ただし, DecoderLayer ${ }^{\ell}(\cdot)$ はデコーダのレイヤー $\ell$ の操作, $\boldsymbol{h}_{1 \ldots t}^{\ell-1}$ はレイヤー $(\ell-1)$ の時刻 1 から $t$ までの全出力, $\boldsymbol{h}_{e n c}$ はエンコーダ出力である. このうち, 時刻 $t-1$ までの分散表現 $\boldsymbol{h}_{1 \ldots t-1}^{\ell-1}$ は, 時刻 $t$ 以前に計算済なので, これを保存しておけば,テンソルの結合操作で入力が構成でき,自己回帰処理中に再計算する必要がない. ## 7.3.5 デコーダ計算結果のキャッシュ $(2)$ : マルチヘッドアテンション Transformer デコーダでは, 自己アテンション機構とエンコーダアテンション機構の 2 か所でマルチヘッドアテンションが使われている. マルチヘッドアテンションでは, 複数のヘッド各々のアテンションを算出し,最後にそれらを連結する構成をとっている。(図 7) 1 つのアテンションは, 入力である Query $(Q)$, Key $(K)$, Value $(V)$ の三つ組をそれぞれ線形変換してからアテンション計算を行う. $ \operatorname{head}_{i}=\operatorname{Attention}\left(Q W^{Q}, K W^{K}, V W^{V}\right) $ ただし, Attention($\cdot$)は図 7 のスケーリングされた内積アテンション計算関数, $\operatorname{head}_{i}$ は 1 つのヘッドのアテンション, $W^{Q}, W^{K}, W^{V}$ は変換行列である.したがって, $Q, K, V$ が他のレイヤーや他の時刻と同じであれば,線形変換を省略することができる. 自己アテンション機構では, 図 7 Transformer のマルチヘッドアテンション (Vaswani et al. 2017) 今村, 越前谷, 江原, 後藤, 須藤, 園尾, 綱川, 中澤, 二宮, 王特許機械翻訳の課題解決に向けた機械翻訳技術解説 $ \begin{aligned} Q & =Q_{t} \\ K & =Q_{1 \ldots t} \\ V & =Q_{1 \ldots t} \end{aligned} $ ただし, $t$ は現在処理中の時刻, $Q_{t}$ は時刻 $t$ の Query, $Q_{1 \ldots t}$ は時刻 $t$ までの Query の履歴をすべて結合したものである。 $t$ 以前の Query は既知であるので, $Q_{1 \ldots t-1} W^{K}$ と $Q_{1 \ldots t-1} W^{V}$ は以前に計算したものを再利用することができる (Klein et al. 2020). エンコーダアテンション機構では, $K$ および $V$ はエンコーダ出力であるので,すべての時刻, すべてのデコーダ層において同じである。したがって,KW $K W^{K}, V W^{V}$ は一度計算したものを再利用すればよい。(Klein et al. 2020; Hu et al. 2020) ## 7.4 翻訳コストの可視化 Workshop on Neural Generation and Translation ${ }^{13}$ (Birch et al. 2018; Hayashi et al. 2019; Heafield et al. 2020)では, Efficient MT という共通タスクを実施し,さまざまな組織の機械翻訳システムを,翻訳速度とメモリ・ディスク使用量という観点から比較を行っている。このワー クショップでは, 異なるシステムの翻訳コストを比較するために, Amazon 社のクラウドサー ビス AWS (Amazon Web Service) 上の仮想マシンで翻訳システムを実行している. 各参加者は, 自分のシステムを仮想化ソフトウェアDocker のイメージとして提出し, 主催者が AWS で翻訳時間,メモリ使用量を測定する。仮想マシンには GPU あり・なしなど,いくつかの種類があり,比較条件によって使用する仮想マシンを変えている.たとえば, 2020 年の共通タスクのうち,GPUトラックでは,g4dn.xlarge という仮想マシンが使われた. これは,GPU として NVIDIA T4 (16GB RAM) が1つ, CPU としてXeon Platium 8259CL のうち 2 物理コアを使用する。マルチコア CPUトラックでは,c5.metal が使われた。これは,Xeon Platium 8259CL の 48 物理コア (Vector Neural Network Instructions をサポート), 192GBメインメモリの仮想マシンである. AWS は使用時間に対して料金が決まっているので, 異なる環境(仮想マシン)で動作するシステム同士でも料金という基準でコスト比較が可能となる. ちなみに, 2019 年は, 最も翻訳品質のよかったシステムは GPUベースだったのに対し, 1 ドルあたりの翻訳語数が最も多い(すなわちコストパフォーマンスがよい) システムは CPUベースのものだった (Hayashi et al. 2019). 2020 年はどちらも GPUベースのシステムだった ${ }^{14}$ (Heafield et al. 2020).  ## 8 おわりに 本論文では, 訳抜け・過剰訳への対策, 用語訳の統一, 長文対策, 低リソース言語対対策, 評価, 翻訳速度・省メモリ対策の 6 つの観点で特許機械翻訳の課題解決に寄与することが期待される諸技術について解説した. 多くの課題は現在のニューラル機械翻訳の研究・開発において注目を集めているものであるが,実際に特許を対象として検証が行われた研究は極めて少ないと言わざるを得ない.これは現在の機械翻訳の研究がWMTニュースタスクのような代表的べンチマークデータによる実験を中心に議論されることが多いという面と, 特定の言語対やタスクに着目した共通タスクがWMT, WAT, IWSLT 等多く存在する一方で特許を対象とするタスクの存在感が小さく,またタスク間の知見の共有が十分でないという面が影響していると考えられる。本解説論文で紹介した様々な技術の大部分が特許に着目したものではないことからも分かる通り, 特許機械翻訳で特に重視される課題に対処するための技術の種は数多く存在しており,今後はそれらを更に発展させ,特許機械翻訳における実用化が求められている状況と言えよう。逆に,特許文書は機械翻訳や自然言語処理の研究において決して特殊な外れ値ではなく, 産業上重要な応用先であるとともに,自然言語処理の基本的な課題を多く内包する,重要な課題であると言える。本論文が今後の特許機械翻訳技術のさらなる発展と実用化に寄与することを期待したい. ## 謝 辞 本解説論文に関する技術動向調査は, アジア太平洋機械翻訳協会 (AAMT) と日本特許情報機構 (Japio) が運営する AAMT/Japio 特許翻訳研究会の支援により実施されたものである. 関係各機関のご協力に感謝する. ## 参考文献 Aharoni, R., Johnson, M., and Firat, O. (2019). "Massively Multilingual Neural Machine Translation." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3874-3884, Minneapolis, Minnesota. Association for Computational Linguistics. Ahmadnia, B. and Dorr, B. (2019). "Bilingual Low-Resource Neural Machine Translation with Round-Tripping: The Case of Persian-Spanish." In Proceedings of the International Conference on Recent Advances in Natural Language Processing (RANLP 2019), pp. 18-24, Varna, Bulgaria. INCOMA Ltd. Akhbardeh, F., Arkhangorodsky, A., Biesialska, M., Bojar, O., Chatterjee, R., Chaudhary, V., Costa-jussa, M. R., España-Bonet, C., Fan, A., Federmann, C., Freitag, M., Graham, Y., Grundkiewicz, R., Haddow, B., Harter, L., Heafield, K., Homan, C., Huck, M., AmponsahKaakyire, K., Kasai, J., Khashabi, D., Knight, K., Kocmi, T., Koehn, P., Lourie, N., Monz, C., Morishita, M., Nagata, M., Nagesh, A., Nakazawa, T., Negri, M., Pal, S., Tapo, A. A., Turchi, M., Vydrin, V., and Zampieri, M. (2021). "Findings of the 2021 Conference on Machine Translation (WMT21)." In Proceedings of the 6th Conference on Machine Translation, pp. 1-88, Online. Association for Computational Linguistics. Arivazhagan, N., Bapna, A., Firat, O., Lepikhin, D., Johnson, M., Krikun, M., Chen, M. X., Cao, Y., Foster, G., Cherry, C., Macherey, W., Chen, Z., and Wu, Y. (2019). "Massively Multilingual Neural Machine Translation in the Wild: Findings and Challenges." arXiv preprint arXiv:1907.05019. Arthur, P., Neubig, G., and Nakamura, S. (2016). "Incorporating Discrete Translation Lexicons into Neural Machine Translation." In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1557-1567, Austin, Texas. Association for Computational Linguistics. Bahdanau, D., Cho, K., and Bengio, Y. (2014). "Neural Machine Translation by Jointly Learning to Align and Translate." arXiv preprint arXiv:1409.0473. Banerjee, S. and Lavie, A. (2005). "METEOR: An Automatic Metric for MT Evaluation with Improved Correlation with Human Judgments." In Proceedings of the ACL Workshop on Intrinsic and Extrinsic Evaluation Measures for Machine Translation and/or Summarization, pp. 65-72, Ann Arbor, Michigan. Association for Computational Linguistics. Bapna, A. and Firat, O. (2019). "Simple, Scalable Adaptation for Neural Machine Translation." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP), pp. 1538-1548, Hong Kong, China. Association for Computational Linguistics. Beloucif, M., Gonzalez, A. V., Bollmann, M., and Søgaard, A. (2019). "Naive Regularizers for Low-Resource Neural Machine Translation." In Proceedings of the International Conference on Recent Advances in Natural Language Processing (RANLP 2019), pp. 102-111, Varna, Bulgaria. INCOMA Ltd. Bhandare, A., Sripathi, V., Karkada, D., Menon, V., Choi, S., Datta, K., and Saletore, V. (2019). "Efficient 8-Bit Quantization of Transformer Neural Machine Language Translation Model." arXiv preprint arXiv:1906.00532. Birch, A., Finch, A., Luong, M.-T., Neubig, G., and Oda, Y. (2018). "Findings of the Second Workshop on Neural Machine Translation and Generation." In Proceedings of the 2nd Workshop on Neural Machine Translation and Generation, pp. 1-10, Melbourne, Australia. Association for Computational Linguistics. Bogoychev, N., Grundkiewicz, R., Aji, A. F., Behnke, M., Heafield, K., Kashyap, S., Farsarakis, E.-I., and Chudyk, M. (2020). "Edinburgh's Submissions to the 2020 Machine Translation Efficiency Task." In Proceedings of the 4th Workshop on Neural Generation and Translation, pp. 218-224, Online. Association for Computational Linguistics. Bouamor, D., Semmar, N., and Zweigenbaum, P. (2012). "Identifying Bilingual Multi-Word Expressions for Statistical Machine Translation." In Proceedings of the 8th International Conference on Language Resources and Evaluation (LREC'12), pp. 674-679, Istanbul, Turkey. European Language Resources Association (ELRA). Bugliarello, E. and Okazaki, N. (2020). "Enhancing Machine Translation with Dependency-Aware Self-Attention." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1618-1627, Online. Association for Computational Linguistics. Callison-Burch, C., Fordyce, C., Koehn, P., Monz, C., and Schroeder, J. (2007). "(Meta-) Evaluation of Machine Translation." In Proceedings of the 2nd Workshop on Statistical Machine Translation, pp. 136-158, Prague, Czech Republic. Association for Computational Linguistics. Carpuat, M. (2009). "One Translation Per Discourse." In Proceedings of the Workshop on Semantic Evaluations: Recent Achievements and Future Directions (SEW-2009), pp. 19-27, Boulder, Colorado. Association for Computational Linguistics. Carpuat, M. and Simard, M. (2012). "The Trouble with SMT Consistency." In Proceedings of the 7th Workshop on Statistical Machine Translation, pp. 442-449, Montréal, Canada. Association for Computational Linguistics. Chaudhary, V., Tang, Y., Guzmán, F., Schwenk, H., and Koehn, P. (2019). "Low-Resource Corpus Filtering Using Multilingual Sentence Embeddings." In Proceedings of the 4 th Conference on Machine Translation (Volume 3: Shared Task Papers, Day 2), pp. 261-266, Florence, Italy. Association for Computational Linguistics. Chen, G., Chen, Y., Wang, Y., and Li, V. O. (2020). "Lexical-Constraint-Aware Neural Machine Translation via Data Augmentation." In Bessiere, C. (Ed.), Proceedings of the 29th International Joint Conference on Artificial Intelligence, IJCAI-20, pp. 3587-3593. International Joint Conferences on Artificial Intelligence Organization. Main track. Chen, Y., Liu, Y., Cheng, Y., and Li, V. O. (2017). "A Teacher-Student Framework for Zero- Resource Neural Machine Translation." In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1925-1935, Vancouver, Canada. Association for Computational Linguistics. Cheng, Y., Xu, W., He, Z., He, W., Wu, H., Sun, M., and Liu, Y. (2016). "Semi-Supervised Learning for Neural Machine Translation." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1965-1974, Berlin, Germany. Association for Computational Linguistics. Cheng, Y., Yang, Q., Liu, Y., Sun, M., and Xu, W. (2017). "Joint Training for Pivot-based Neural Machine Translation." In Proceedings of the 26th International Joint Conference on Artificial Intelligence, IJCAI-17, pp. 3974-3980. Cho, K., van Merriënboer, B., Gulcehre, C., Bahdanau, D., Bougares, F., Schwenk, H., and Bengio, Y. (2014). "Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation." In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1724-1734, Doha, Qatar. Association for Computational Linguistics. Clinchant, S., Jung, K. W., and Nikoulina, V. (2019). "On the use of BERT for Neural Machine Translation." In Proceedings of the 3rd Workshop on Neural Generation and Translation, pp. 108-117, Hong Kong. Association for Computational Linguistics. Costa-jussà, M. R., Casas, N., and Melero, M. (2018). "English-Catalan Neural Machine Translation in the Biomedical Domain through the Cascade Approach." arXiv preprint arXiv:1803.07139. Currey, A. and Heafield, K. (2019). "Zero-Resource Neural Machine Translation with Monolingual Pivot Data." In Proceedings of the 3rd Workshop on Neural Generation and Translation, pp. 99-107, Hong Kong. Association for Computational Linguistics. Currey, A., Miceli Barone, A. V., and Heafield, K. (2017). "Copied Monolingual Data Improves Low-Resource Neural Machine Translation." In Proceedings of the 2nd Conference on Machine Translation, pp. 148-156, Copenhagen, Denmark. Association for Computational Linguistics. Dabre, R. and Fujita, A. (2019). "Recurrent Stacking of Layers for Compact Neural Machine Translation Models." In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 33, pp. 6292-6299. Dabre, R., Fujita, A., and Chu, C. (2019). "Exploiting Multilingualism through Multistage Fine-Tuning for Low-Resource Neural Machine Translation." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 1410-1416, Hong Kong, China. Association for Computational Linguistics. Deguchi, H., Tamura, A., and Ninomiya, T. (2019). "Dependency-Based Self-Attention for Transformer NMT." In Proceedings of the International Conference on Recent Advances in Natural Language Processing (RANLP 2019), pp. 239-246, Varna, Bulgaria. INCOMA Ltd. Dehghani, M., Gouws, S., Vinyals, O., Uszkoreit, J., and Kaiser, L. (2018). "Universal Transformers." arXiv preprint arXiv:1807.03819. Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota. Association for Computational Linguistics. Ding, Y., Liu, Y., Luan, H., and Sun, M. (2017). "Visualizing and Understanding Neural Machine Translation." In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1150-1159, Vancouver, Canada. Association for Computational Linguistics. Dinu, G., Mathur, P., Federico, M., and Al-Onaizan, Y. (2019). "Training Neural Machine Translation to Apply Terminology Constraints." In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3063-3068, Florence, Italy. Association for Computational Linguistics. Doddington, G. (2002). "Automatic Evaluation of Machine Translation Quality Using N-Gram Co-Occurrence Statistics." In Proceedings of the 2nd International Conference on Human Language Technology Research, HLT '02, pp. 138-145, San Francisco, CA, USA. Morgan Kaufmann Publishers Inc. Duh, K., McNamee, P., Post, M., and Thompson, B. (2020). "Benchmarking Neural and Statistical Machine Translation on Low-Resource African Languages." In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 2667-2675, Marseille, France. European Language Resources Association. Echizen-ya, H. and Araki, K. (2007). "Automatic Evaluation of Machine Translation Based on Recursive Acquisition of an Intuitive Common Parts Continuum." In Proceedings of Machine Translation Summit XI: Papers, Copenhagen, Denmark. Echizen'ya, H., Araki, K., and Hovy, E. (2019). "Word Embedding-Based Automatic MT Evaluation Metric using Word Position Information." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human 今村, 越前谷, 江原, 後藤, 須藤, 園尾,綱川,中澤,二宮,王特許機械翻訳の課題解決に向けた機械翻訳技術解説 Language Technologies, Volume 1 (Long and Short Papers), pp. 1874-1883, Minneapolis, Minnesota. Association for Computational Linguistics. Edunov, S., Ott, M., Auli, M., and Grangier, D. (2018). "Understanding Back-Translation at Scale." In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 489-500, Brussels, Belgium. Association for Computational Linguistics. Fadaee, M., Bisazza, A., and Monz, C. (2017). "Data Augmentation for Low-Resource Neural Machine Translation." In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 567-573, Vancouver, Canada. Association for Computational Linguistics. Firat, O., Cho, K., and Bengio, Y. (2016a). "Multi-Way, Multilingual Neural Machine Translation with a Shared Attention Mechanism." In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 866-875, San Diego, California. Association for Computational Linguistics. Firat, O., Sankaran, B., Al-onaizan, Y., Yarman Vural, F. T., and Cho, K. (2016b). "ZeroResource Translation with Multi-Lingual Neural Machine Translation." In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 268-277, Austin, Texas. Association for Computational Linguistics. Freitag, M., Foster, G., Grangier, D., Ratnakar, V., Tan, Q., and Macherey, W. (2021a). "Experts, Errors, and Context: A Large-Scale Study of Human Evaluation for Machine Translation." Transactions of the Association for Computational Linguistics, 9, pp. 1460-1474. Freitag, M., Rei, R., Mathur, N., Lo, C.-k., Stewart, C., Foster, G., Lavie, A., and Bojar, O. (2021b). "Results of the WMT21 Metrics Shared Task: Evaluating Metrics with Expertbased Human Evaluations on TED and News Domain." In Proceedings of the 6th Conference on Machine Translation, pp. 733-774, Online. Association for Computational Linguistics. Fujii, A., Utiyama, M., Yamamoto, M., and Utsuro, T. (2008). "Overview of the Patent Translation Task at the NTCIR-7 Workshop." In Proceedings of NTCIR-7 Workshop Meeting, pp. 389-400. Fujii, A., Utiyama, M., Yamamoto, M., Utsuro, T., Ehara, T., Echizen-ya, H., and Shimohata, S. (2010). "Overview of the Patent Translation Task at the NTCIR-8 Workshop." In Proceedings of NTCIR-8 Workshop Meeting, pp. 371-376. Ghazvininejad, M., Levy, O., Liu, Y., and Zettlemoyer, L. (2019). "Mask-Predict: Parallel Decoding of Conditional Masked Language Models." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 6112-6121, Hong Kong, China. Association for Computational Linguistics. Goh, C.-L. and Sumita, E. (2011). "Splitting Long Input Sentences for Phrase-based Statistical Machine Translation." In Proceedings of the 17th Annual Meeting for the Association for Natural Language Processing, pp. 802-805. Gong, Z., Zhang, M., and Zhou, G. (2011). "Cache-based Document-level Statistical Machine Translation." In Proceedings of the 2011 Conference on Empirical Methods in Natural Language Processing, pp. 909-919, Edinburgh, Scotland, UK. Association for Computational Linguistics. Goto, I., Chow, K. P., Bin, L., Sumita, E., and Tsou, B. K. (2013). "Overview of the Patent Machine Translation Task at the NTCIR-10 Workshop." In Proceedings of the 10th NTCIR Conference, pp. 260-286. Goto, I., Lu, B., Chow, K. P., Sumita, E., and Tsou, B. K. (2011). "Overview of the Patent Machine Translation Task at the NTCIR-9 Workshop." In Proceedings of NTCIR-9 Workshop Meeting, pp. 559-578. 後藤功雄, 美野秀弥, 山田一郎 (2020). 訳抜けを含む訓練データと訳抜けのない出力とのギャップを埋めるニューラル機械翻訳. 言語処理学会第 26 回年次大会発表論文集, pp. 1412-1415. [I. Goto et al. (2020). Neural Machine Translation Bridging the Gap between Training Data with Missing Translations and Output without Missing Translations. Proceedings of the 26th Annual Meeting for the Association for Natural Language Processing, pp. 1412-1415.]. Goto, I. and Tanaka, H. (2017). "Detecting Untranslated Content for Neural Machine Translation." In Proceedings of the 1st Workshop on Neural Machine Translation, pp. 47-55, Vancouver. Association for Computational Linguistics. Graham, Y., Baldwin, T., Moffat, A., and Zobel, J. (2017). "Can Machine Translation Systems Be Evaluated by the Crowd Alone." Natural Language Engineering, 23 (1), pp. 3-30. Gu, J., Bradbury, J., Xiong, C., Li, V. O. K., and Socher, R. (2017). "Non-Autoregressive Neural Machine Translation." arXiv preprint arXiv:1711.02281. Gu, J., Hassan, H., Devlin, J., and Li, V. O. (2018). "Universal Neural Machine Translation for Extremely Low Resource Languages." In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 344-354, New Orleans, Louisiana. Association for Computational Linguistics. Hardmeier, C., Nivre, J., and Tiedemann, J. (2012). "Document-Wide Decoding for PhraseBased Statistical Machine Translation." In Proceedings of the 2012 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language 今村, 越前谷, 江原, 後藤, 須藤, 園尾,綱川,中澤,二宮,王特許機械翻訳の課題解決に向けた機械翻訳技術解説 Learning, pp. 1179-1190, Jeju Island, Korea. Association for Computational Linguistics. Hasler, E., Blunsom, P., Koehn, P., and Haddow, B. (2014). "Dynamic Topic Adaptation for Phrase-based MT." In Proceedings of the 14th Conference of the European Chapter of the Association for Computational Linguistics, pp. 328-337, Gothenburg, Sweden. Association for Computational Linguistics. Hayashi, H., Oda, Y., Birch, A., Konstas, I., Finch, A., Luong, M.-T., Neubig, G., and Sudoh, K. (2019). "Findings of the Third Workshop on Neural Generation and Translation." In Proceedings of the 3rd Workshop on Neural Generation and Translation, pp. 1-14, Hong Kong. Association for Computational Linguistics. He, D., Xia, Y., Qin, T., Wang, L., Yu, N., Liu, T.-Y., and Ma, W.-Y. (2016). "Dual Learning for Machine Translation." In Lee, D., Sugiyama, M., Luxburg, U., Guyon, I., and Garnett, R. (Eds.), Advances in Neural Information Processing Systems, Vol. 29. Curran Associates, Inc. He, T., Chen, J., Tan, X., and Qin, T. (2019). "Language Graph Distillation for Low-Resource Machine Translation." arXiv preprint arXiv:1908.06258. He, W., He, Z., Wu, H., and Wang, H. (2016). "Improved Neural Machine Translation with SMT Features." In Proceedings of the AAAI Conference on Artificial Intelligence. Heafield, K., Hayashi, H., Oda, Y., Konstas, I., Finch, A., Neubig, G., Li, X., and Birch, A. (2020). "Findings of the Fourth Workshop on Neural Generation and Translation." In Proceedings of the 4th Workshop on Neural Generation and Translation, pp. 1-9, Online. Association for Computational Linguistics. Hinton, G., Vinyals, O., and Dean, J. (2015). "Distilling the Knowledge in a Neural Network." arXiv preprint arXiv:1503.02531. Hoang, H., Dwojak, T., Krislauks, R., Torregrosa, D., and Heafield, K. (2018a). "Fast Neural Machine Translation Implementation." In Proceedings of the 2nd Workshop on Neural Machine Translation and Generation, pp. 116-121, Melbourne, Australia. Association for Computational Linguistics. Hoang, V. C. D., Koehn, P., Haffari, G., and Cohn, T. (2018b). "Iterative Back-Translation for Neural Machine Translation." In Proceedings of the 2nd Workshop on Neural Machine Translation and Generation, pp. 18-24, Melbourne, Australia. Association for Computational Linguistics. Hochreiter, S. and Schmidhuber, J. (1997). "Long Short-Term Memory." Neural Computation, 9, pp. 1735-1780. Hokamp, C. and Liu, Q. (2017). "Lexically Constrained Decoding for Sequence Generation Using Grid Beam Search." In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1535-1546, Vancouver, Canada. Association for Computational Linguistics. Hu, C., Li, B., Li, Y., Lin, Y., Li, Y., Wang, C., Xiao, T., and Zhu, J. (2020). "The NiuTrans System for WNGT 2020 Efficiency Task." In Proceedings of the 4th Workshop on Neural Generation and Translation, pp. 204-210, Online. Association for Computational Linguistics. Hu, J. E., Khayrallah, H., Culkin, R., Xia, P., Chen, T., Post, M., and Van Durme, B. (2019a). "Improved Lexically Constrained Decoding for Translation and Monolingual Rewriting." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 839-850, Minneapolis, Minnesota. Association for Computational Linguistics. Hu, J. E., Rudinger, R., Post, M., and Van Durme, B. (2019b). "PARABANK: Monolingual Bitext Generation and Sentential Paraphrasing via Lexically-Constrained Neural Machine Translation." Proceedings of the AAAI Conference on Artificial Intelligence, 33 (01), pp. 6521-6528. Huang, L., Zhao, K., and Ma, M. (2017). "When to Finish? Optimal Beam Search for Neural Text Generation (modulo beam size)." In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 2134-2139, Copenhagen, Denmark. Association for Computational Linguistics. 今村賢治 (2021). 知識蒸留によるニューラル機械翻訳の高速化検討. 言語処理学会第 27 回年次大会発表論文集, pp. 123-127, 北九州国際会議場. 付録: https://sites.google.com/site/ kenjiimamurahome/home 参照, [K. Imamura (2021). A Study of Speed-up in Neural Machine Translation Combined with Knowledge Distillation. Proceedings of the 26th Annual Meeting for the Association for Natural Language Processing, pp. 123-127. Appendix: https:// sites.google.com/site/kenjiimamurahome/home]. Imamura, K., Fujita, A., and Sumita, E. (2018). "Enhancement of Encoder and Attention Using Target Monolingual Corpora in Neural Machine Translation." In Proceedings of the 2nd Workshop on Neural Machine Translation and Generation, pp. 55-63, Melbourne, Australia. Association for Computational Linguistics. Imamura, K. and Sumita, E. (2019). "Recycling a Pre-trained BERT Encoder for Neural Machine Translation." In Proceedings of the 3rd Workshop on Neural Generation and Translation, pp. 23-31, Hong Kong. Association for Computational Linguistics. Imamura, K. and Sumita, E. (2020). "Transformer-based Double-token Bidirectional Autoregressive Decoding in Neural Machine Translation." In Proceedings of the 7th Workshop on Asian 今村, 越前谷, 江原, 後藤, 須藤, 園尾,綱川,中澤,二宮,王特許機械翻訳の課題解決に向けた機械翻訳技術解説 Translation, pp. 50-57, Suzhou, China. Association for Computational Linguistics. Imamura, K. and Sumita, E. (2021). "NICT-2 Translation System at WAT-2021: Applying a Pretrained Multilingual Encoder-Decoder Model to Low-resource Language Pairs." In Proceedings of the 8th Workshop on Asian Translation (WAT2021), pp. 90-95, Online. Association for Computational Linguistics. Imankulova, A., Dabre, R., Fujita, A., and Imamura, K. (2019). "Exploiting Out-of-Domain Parallel Data through Multilingual Transfer Learning for Low-Resource Neural Machine Translation." In Proceedings of Machine Translation Summit XVII: Research Track, pp. 128-139, Dublin, Ireland. European Association for Machine Translation. Imankulova, A., Sato, T., and Komachi, M. (2017). "Improving Low-Resource Neural Machine Translation with Filtered Pseudo-Parallel Corpus." In Proceedings of the 4th Workshop on Asian Translation (WAT2017), pp. 70-78, Taipei, Taiwan. Asian Federation of Natural Language Processing. Isozaki, H., Hirao, T., Duh, K., Sudoh, K., and Tsukada, H. (2010). "Automatic Evaluation of Translation Quality for Distant Language Pairs." In Proceedings of the 2010 Conference on Empirical Methods in Natural Language Processing, pp. 944-952, Cambridge, MA. Association for Computational Linguistics. Jean, S., Firat, O., Cho, K., Memisevic, R., and Bengio, Y. (2015). "Montreal Neural Machine Translation Systems for WMT'15." In Proceedings of the 10th Workshop on Statistical Machine Translation, pp. 134-140, Lisbon, Portugal. Association for Computational Linguistics. Jean, S., Lauly, S., Firat, O., and Cho, K. (2017). "Does Neural Machine Translation Benefit from Larger Context?" arXiv preprint arXiv:1704.05135. Johnson, M., Schuster, M., Le, Q. V., Krikun, M., Wu, Y., Chen, Z., Thorat, N., Viégas, F., Wattenberg, M., Corrado, G., Hughes, M., and Dean, J. (2017). "Google's Multilingual Neural Machine Translation System: Enabling Zero-Shot Translation." Transactions of the Association for Computational Linguistics, 5, pp. 339-351. Junczys-Dowmunt, M., Grundkiewicz, R., Dwojak, T., Hoang, H., Heafield, K., Neckermann, T., Seide, F., Germann, U., Aji, A. F., Bogoychev, N., Martins, A. F. T., and Birch, A. (2018a). "Marian: Fast Neural Machine Translation in C++." In Proceedings of ACL 2018, System Demonstrations, pp. 116-121, Melbourne, Australia. Association for Computational Linguistics. Junczys-Dowmunt, M., Heafield, K., Hoang, H., Grundkiewicz, R., and Aue, A. (2018b). "Marian: Cost-effective High-Quality Neural Machine Translation in C++." In Proceedings of the 2nd Workshop on Neural Machine Translation and Generation, pp. 129-135, Melbourne, Australia. Association for Computational Linguistics. Kalchbrenner, N. and Blunsom, P. (2013). "Recurrent Continuous Translation Models." In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, pp. 1700-1709, Seattle, Washington, USA. Association for Computational Linguistics. Kasai, J., Pappas, N., Peng, H., Cross, J., and Smith, N. A. (2021). "Deep Encoder, Shallow Decoder: Reevaluating Non-autoregressive Machine Translation." arXiv preprint arXiv:2006.10369. Kim, Y. and Rush, A. M. (2016). "Sequence-Level Knowledge Distillation." In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1317-1327, Austin, Texas. Association for Computational Linguistics. Kim, Y. J., Junczys-Dowmunt, M., Hassan, H., Fikri Aji, A., Heafield, K., Grundkiewicz, R., and Bogoychev, N. (2019a). "From Research to Production and Back: Ludicrously Fast Neural Machine Translation." In Proceedings of the 3rd Workshop on Neural Generation and Translation, pp. 280-288, Hong Kong. Association for Computational Linguistics. Kim, Y., Petrov, P., Petrushkov, P., Khadivi, S., and Ney, H. (2019b). "Pivot-based Transfer Learning for Neural Machine Translation between Non-English Languages." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 866-876, Hong Kong, China. Association for Computational Linguistics. Kimura, R., Long, Z., Utsuro, T., Mitsuhashi, T., and Yamamoto, M. (2017). "Effect on Reducing Untranslated Content by Neural Machine Translation with a Large Vocabulary of Technical Terms." In Proceedings of Proceedings of the 7th Workshop on Patent and Scientific Literature Translation. Kitaev, N., Kaiser, Ł., and Levskaya, A. (2020). "Reformer: The Efficient Transformer." arXiv preprint arXiv:2001.04451. Klein, G., Zhang, D., Chouteau, C., Crego, J., and Senellart, J. (2020). "Efficient and HighQuality Neural Machine Translation with OpenNMT." In Proceedings of the 4th Workshop on Neural Generation and Translation, pp. 211-217, Online. Association for Computational Linguistics. Kocmi, T. and Bojar, O. (2018). "Trivial Transfer Learning for Low-Resource Neural Machine Translation." In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 244-252, Brussels, Belgium. Association for Computational Linguistics. Koehn, P. (2010). Statistical Machine Translation (1st edition). Cambridge University Press, USA. Koehn, P., Hoang, H., Birch, A., Callison-Burch, C., Federico, M., Bertoldi, N., Cowan, B., Shen, W., Moran, C., Zens, R., Dyer, C., Bojar, O., Constantin, A., and Herbst, E. (2007). "Moses: Open Source Toolkit for Statistical Machine Translation." In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics Companion Volume Proceedings of the Demo and Poster Sessions, pp. 177-180, Prague, Czech Republic. Association for Computational Linguistics. Koehn, P. and Knowles, R. (2017). "Six Challenges for Neural Machine Translation." In Proceedings of the 1st Workshop on Neural Machine Translation, pp. 28-39, Vancouver. Association for Computational Linguistics. Kuang, S. and Xiong, D. (2016). "Automatic Long Sentence Segmentation for Neural Machine Translation." In NLPCC/ICCPOL, pp. 162-174. Kudo, T. (2018). "Subword Regularization: Improving Neural Network Translation Models with Multiple Subword Candidates." In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 66-75, Melbourne, Australia. Association for Computational Linguistics. Kudo, T. and Richardson, J. (2018). "SentencePiece: A Simple and Language Independent Subword Tokenizer and Detokenizer for Neural Text Processing." In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium. Association for Computational Linguistics. Kusner, M., Sun, Y., Kolkin, N., and Weinberger, K. (2015). "From Word Embeddings To Document Distances." In Bach, F. and Blei, D. (Eds.), Proceedings of the 32nd International Conference on Machine Learning, Vol. 37 of Proceedings of Machine Learning Research, pp. 957-966, Lille, France. PMLR. Lakew, S. M., Lotito, Q. F., Negri, M., Turchi, M., and Federico, M. (2017). "Improving ZeroShot Translation of Low-Resource Languages." In Proceedings of the 14th Conference on Spoken Language Translation (IWSLT 2017), pp. 113-119. Tokyo, Japan. Lample, G., Ott, M., Conneau, A., Denoyer, L., and Ranzato, M. (2018). "Phrase-Based \& Neural Unsupervised Machine Translation." In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 5039-5049, Brussels, Belgium. Association for Computational Linguistics. Lee, J., Mansimov, E., and Cho, K. (2018). "Deterministic Non-Autoregressive Neural Sequence Modeling by Iterative Refinement." In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 1173-1182, Brussels, Belgium. Association for Computational Linguistics. Lei, T., Zhang, Y., Wang, S. I., Dai, H., and Artzi, Y. (2018). "Simple Recurrent Units for Highly Parallelizable Recurrence." In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 4470-4481, Brussels, Belgium. Association for Computational Linguistics. Li, J. and Jurafsky, D. (2016). "Mutual Information and Diverse Decoding Improve Neural Machine Translation." arXiv preprint arXiv:1601.00372. Li, X., Wang, C., Tang, Y., Tran, C., Tang, Y., Pino, J., Baevski, A., Conneau, A., and Auli, M. (2021). "Multilingual Speech Translation from Efficient Finetuning of Pretrained Models." In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 827-838, Online. Association for Computational Linguistics. Li, Y., Xiao, T., Li, Y., Wang, Q., Xu, C., and Zhu, J. (2018). "A Simple and Effective Approach to Coverage-Aware Neural Machine Translation." In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 292-297, Melbourne, Australia. Association for Computational Linguistics. Liu, Y., Gu, J., Goyal, N., Li, X., Edunov, S., Ghazvininejad, M., Lewis, M., and Zettlemoyer, L. (2020). "Multilingual Denoising Pre-training for Neural Machine Translation." Transactions of the Association for Computational Linguistics, 8, pp. 726-742. Lommel, A., Uszkoreit, H., and Burchardt, A. (2014). "Multidimensional Quality Metrics (MQM): A Framework for Declaring and Describing Translation Quality Metrics." Revista Tradumàtica: tecnologies de la traducció, 12, pp. 455-463. Lopes, A., Farajian, M. A., Bawden, R., Zhang, M., and Martins, A. F. T. (2020). "Documentlevel Neural MT: A Systematic Comparison." In Proceedings of the 22nd Annual Conference of the European Association for Machine Translation, pp. 225-234, Lisboa, Portugal. European Association for Machine Translation. Luong, T., Pham, H., and Manning, C. D. (2015a). "Effective Approaches to Attention-based Neural Machine Translation." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 1412-1421, Lisbon, Portugal. Association for Computational Linguistics. Luong, T., Sutskever, I., Le, Q., Vinyals, O., and Zaremba, W. (2015b). "Addressing the Rare Word Problem in Neural Machine Translation." In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 11-19, Beijing, China. Association for Computational Linguistics. Maruf, S., Martins, A. F. T., and Haffari, G. (2019). "Selective Attention for Context-aware Neural Machine Translation." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3092-3102, Minneapolis, Minnesota. Association for Computational Linguistics. Meng, F., Lu, Z., Li, H., and Liu, Q. (2016). "Interactive Attention for Neural Machine Translation." In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers, pp. 2174-2185, Osaka, Japan. The COLING 2016 Organizing Committee. Meng, F., Tu, Z., Cheng, Y., Wu, H., Zhai, J., Yang, Y., and Wang, D. (2018). "Neural Machine Translation with Key-Value Memory-Augmented Attention." In Proceedings of IJCAI, pp. 2574-2580. Mi, H., Sankaran, B., Wang, Z., and Ittycheriah, A. (2016). "Coverage Embedding Models for Neural Machine Translation." In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 955-960, Austin, Texas. Association for Computational Linguistics. Micikevicius, P., Narang, S., Alben, J., Diamos, G. F., Elsen, E., García, D., Ginsburg, B., Houston, M., Kuchaiev, O., Venkatesh, G., and Wu, H. (2018). "Mixed Precision Training." In 6th International Conference on Learning Representations, ICLR 2018, Vancouver, BC, Canada, April 30-May 3, 2018, Conference Track Proceedings. OpenReview.net. Miculicich, L., Ram, D., Pappas, N., and Henderson, J. (2018). "Document-Level Neural Machine Translation with Hierarchical Attention Networks." In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 2947-2954, Brussels, Belgium. Association for Computational Linguistics. Mikolov, T., Chen, K., Corrado, G., and Dean, J. (2013). "Efficient Estimation of Word Representations in Vector Space." arXiv preprint arXiv:1301.3781. Morin, F. and Bengio, Y. (2005). "Hierarchical Probabilistic Neural Network Language Model." In Proceedings of AISTATS 2005, pp. 246-252. Morishita, M., Suzuki, J., Iwata, T., and Nagata, M. (2021). "Context-aware Neural Machine Translation with Mini-batch Embedding." In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 2513-2521, Online. Association for Computational Linguistics. Mueller, A., Nicolai, G., McCarthy, A. D., Lewis, D., Wu, W., and Yarowsky, D. (2020). "An Analysis of Massively Multilingual Neural Machine Translation for Low-Resource Languages." In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 3710-3718, Marseille, France. European Language Resources Association. Murray, K. and Chiang, D. (2018). "Correcting Length Bias in Neural Machine Translation." In Proceedings of the 3rd Conference on Machine Translation: Research Papers, pp. 212-223, Brussels, Belgium. Association for Computational Linguistics. Murthy, R., Kunchukuttan, A., and Bhattacharyya, P. (2019). "Addressing word-order Divergence in Multilingual Neural Machine Translation for extremely Low Resource Languages." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3868-3873, Minneapolis, Minnesota. Association for Computational Linguistics. Nakazawa, T., Mino, H., Goto, I., Neubig, G., Kurohashi, S., and Sumita, E. (2015). "Overview of the 2nd Workshop on Asian Translation." In Proceedings of the 2nd Workshop on Asian Translation (WAT2015), pp. 1-28, Kyoto, Japan. Workshop on Asian Translation. Nakazawa, T., Nakayama, H., Ding, C., Dabre, R., Higashiyama, S., Mino, H., Goto, I., Pa Pa, W., Kunchukuttan, A., Parida, S., Bojar, O., and Kurohashi, S. (2020). "Overview of the 7th Workshop on Asian Translation." In Proceedings of the 7th Workshop on Asian Translation, pp. 1-44, Suzhou, China. Association for Computational Linguistics. Nakazawa, T., Nakayama, H., Goto, I., Mino, H., Ding, C., Dabre, R., Kunchukuttan, A., Higashiyama, S., Manabe, H., Pa, W. P., Parida, S., Bojar, O., Chu, C., Eriguchi, A., Abe, K., Oda, Y., Sudoh, K., Kurohashi, S., and Bhattacharyya, P. (Eds.) (2021). Proceedings of the 8th Workshop on Asian Translation (WAT2021), Online. Association for Computational Linguistics. Nakazawa, T., Yaguchi, M., Uchimoto, K., Utiyama, M., Sumita, E., Kurohashi, S., and Isahara, H. (2016). "ASPEC: Asian Scientific Paper Excerpt Corpus." In Chair), N. C. C., Choukri, K., Declerck, T., Grobelnik, M., Maegaard, B., Mariani, J., Moreno, A., Odijk, J., and Piperidis, S. (Eds.), Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC 2016), pp. 2204-2208, Portorož, Slovenia. European Language Resources Association (ELRA). Neishi, M. and Yoshinaga, N. (2019). "On the Relation between Position Information and Sentence Length in Neural Machine Translation." In Proceedings of the 23rd Conference on Computational Natural Language Learning (CoNLL), pp. 328-338, Hong Kong, China. Association for Computational Linguistics. Nguyen, T. and Chiang, D. (2018). "Improving Lexical Choice in Neural Machine Translation." In Proceedings of the 2018 Conference of the North American Chapter of the Association 今村,越前谷,江原,後藤,須藤,園尾,綱川,中澤,二宮,王特許機械翻訳の課題解決に向けた機械翻訳技術解説 for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 334-343, New Orleans, Louisiana. Association for Computational Linguistics. Nguyen, T. Q. and Chiang, D. (2017). "Transfer Learning across Low-Resource, Related Languages for Neural Machine Translation." In Proceedings of the 8th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pp. 296-301, Taipei, Taiwan. Asian Federation of Natural Language Processing. Nguyen Le, A., Martinez, A., Yoshimoto, A., and Matsumoto, Y. (2017). "Improving Sequence to Sequence Neural Machine Translation by Utilizing Syntactic Dependency Information." In Proceedings of the 8th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 21-29, Taipei, Taiwan. Asian Federation of Natural Language Processing. 日本翻訳連盟 (2018). JTF 翻訳品質評価ガイドライン第 1 版. 一般社団法人日本翻訳連盟. https://www.jtf.jp/pdf/jtf_translation_quality_guidelines_v1.pdf, [Japan Translation Federation (2018). Translation Quality Guideline v1. Japan Translation Federation. https://www.jtf.jp/pdf/jtf_translation_quality_guidelines_v1.pdf]. Niu, X., Xu, W., and Carpuat, M. (2019). "Bi-Directional Differentiable Input Reconstruction for Low-Resource Neural Machine Translation." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 442-448, Minneapolis, Minnesota. Association for Computational Linguistics. Och, F. J. (2005). "Statistical Machine Translation: Foundations and Recent Advances." Tutorial at MT Summit 2005. https://aclanthology .org/attachments/2005.mtsummittutorials.1.Presentation.pdf. Oka, Y., Chousa, K., Sudoh, K., and Nakamura, S. (2020). "Incorporating Noisy Length Constraints into Transformer with Length-aware Positional Encodings." In Proceedings of the 28th International Conference on Computational Linguistics, pp. 3580-3585, Barcelona, Spain (Online). International Committee on Computational Linguistics. Okuma, H., Yamamoto, H., and Sumita, E. (2007). "Introducing Translation Dictionary into Phrase-based SMT." In Proceedings of Machine Translation Summit XI: Papers, Copenhagen, Denmark. Ortega, J., Ojha, A. K., Kann, K., and Liu, C.-H. (Eds.) (2021). Proceedings of the 4 th Workshop on Technologies for MT of Low Resource Languages (LoResMT2021), Virtual. Association for Machine Translation in the Americas. Ott, M., Edunov, S., Grangier, D., and Auli, M. (2018). "Scaling Neural Machine Translation." In Proceedings of the 3rd Conference on Machine Translation: Research Papers, pp. 1-9, Brussels, Belgium. Association for Computational Linguistics. Papineni, K., Roukos, S., Ward, T., and Zhu, W.-J. (2002). "Bleu: A Method for Automatic Evaluation of Machine Translation." In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA. Association for Computational Linguistics. Poncelas, A., Shterionov, D., Way, A., de Buy Wenniger, G. M., and Passban, P. (2018). "Investigating Backtranslation in Neural Machine Translation." In Proceedings of the 21st Annual Conference of the European Association for Machine Translation, pp. 249-258. Popović, M. (2015). "chrF: Character n-gram F-score for Automatic MT Evaluation." In Proceedings of the 10th Workshop on Statistical Machine Translation, pp. 392-395, Lisbon, Portugal. Association for Computational Linguistics. Popović, M. (2017). "chrF++: Words Helping Character n-grams." In Proceedings of the 2nd Conference on Machine Translation, pp. 612-618, Copenhagen, Denmark. Association for Computational Linguistics. Post, M. and Vilar, D. (2018). "Fast Lexically Constrained Decoding with Dynamic Beam Allocation for Neural Machine Translation." In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 1314-1324, New Orleans, Louisiana. Association for Computational Linguistics. Pouget-Abadie, J., Bahdanau, D., van Merriënboer, B., Cho, K., and Bengio, Y. (2014). "Overcoming the Curse of Sentence Length for Neural Machine Translation using Automatic Segmentation." In Proceedings of SSST-8, 8th Workshop on Syntax, Semantics and Structure in Statistical Translation, pp. 78-85, Doha, Qatar. Association for Computational Linguistics. Rei, R., Stewart, C., Farinha, A. C., and Lavie, A. (2020). "COMET: A Neural Framework for MT Evaluation." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 2685-2702, Online. Association for Computational Linguistics. Sachan, D. and Neubig, G. (2018). "Parameter Sharing Methods for Multilingual Self-Attentional Translation Models." In Proceedings of the 3rd Conference on Machine Translation: Research Papers, pp. 261-271, Brussels, Belgium. Association for Computational Linguistics. Schuster, M. and Nakajima, K. (2012). "Japanese and Korean Voice Search." In ICASSP, IEEE International Conference on Acoustics, Speech and Signal Processing, pp. 5149-5152. Sellam, T., Pu, A., Chung, H. W., Gehrmann, S., Tan, Q., Freitag, M., Das, D., and Parikh, 今村, 越前谷, 江原, 後藤, 須藤, 園尾,綱川,中澤,二宮,王特許機械翻訳の課題解決に向けた機械翻訳技術解説 A. (2020). "Learning to Evaluate Translation Beyond English: BLEURT Submissions to the WMT Metrics 2020 Shared Task." In Proceedings of the 5th Conference on Machine Translation, pp. 921-927, Online. Association for Computational Linguistics. Senellart, J., Zhang, D., Wang, B., Klein, G., Ramatchandirin, J.-P., Crego, J., and Rush, A. (2018). "OpenNMT System Description for WNMT 2018: 800 words/sec on a single-core CPU." In Proceedings of the 2nd Workshop on Neural Machine Translation and Generation, pp. 122-128, Melbourne, Australia. Association for Computational Linguistics. Sennrich, R. and Haddow, B. (2016). "Linguistic Input Features Improve Neural Machine Translation." In Proceedings of the 1st Conference on Machine Translation: Volume 1, Research Papers, pp. 83-91, Berlin, Germany. Association for Computational Linguistics. Sennrich, R., Haddow, B., and Birch, A. (2016a). "Improving Neural Machine Translation Models with Monolingual Data." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 86-96, Berlin, Germany. Association for Computational Linguistics. Sennrich, R., Haddow, B., and Birch, A. (2016b). "Neural Machine Translation of Rare Words with Subword Units." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, Berlin, Germany. Association for Computational Linguistics. Sennrich, R. and Zhang, B. (2019). "Revisiting Low-Resource Neural Machine Translation: A Case Study." In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 211-221, Florence, Italy. Association for Computational Linguistics. Shaw, P., Uszkoreit, J., and Vaswani, A. (2018). "Self-Attention with Relative Position Representations." In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), pp. 464-468, New Orleans, Louisiana. Association for Computational Linguistics. Shi, X. and Knight, K. (2017). "Speeding Up Neural Machine Translation Decoding by Shrinking Run-time Vocabulary." In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 574-579, Vancouver, Canada. Association for Computational Linguistics. Shi, X., Knight, K., and Yuret, D. (2016). "Why Neural Translations are the Right Length." In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2278-2282, Austin, Texas. Association for Computational Linguistics. Shimanaka, H., Kajiwara, T., and Komachi, M. (2018). "RUSE: Regressor Using Sentence Embeddings for Automatic Machine Translation Evaluation." In Proceedings of the 3rd Conference on Machine Translation: Shared Task Papers, pp. 751-758, Belgium, Brussels. Association for Computational Linguistics. 嶋中宏希, 梶原智之,小町守 (2019). 事前学習された文の分散表現を用いた機械翻訳の自動評価.自然言語処理, 26 (3), pp. 613-634. [H. Shimanaka et al. (2019). Metric for Automatic Machine Translation Evaluation based on Pre-trained Sentence Embeddings. Journal of Natural Language Processing, 26 (3), pp. 613-634.]. Shirai, K., Hashimoto, K., Eriguchi, A., Ninomiya, T., and Mori, S. (2021). "Neural Text Generation with Artificial Negative Examples to Address Repeating and Dropping Errors." Journal of Natural Language Processing, 28 (3), pp. 751-777. Snover, M., Dorr, B., Schwartz, R., Micciulla, L., and Makhoul, J. (2006). "A Study of Translation Edit Rate with Targeted Human Annotation." In Proceedings of the 7th Conference of the Association for Machine Translation in the Americas: Technical Papers, pp. 223-231, Cambridge, Massachusetts, USA. Association for Machine Translation in the Americas. Song, H., Dabre, R., Mao, Z., Cheng, F., Kurohashi, S., and Sumita, E. (2020). "Pre-training via Leveraging Assisting Languages for Neural Machine Translation." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: Student Research Workshop, pp. 279-285, Online. Association for Computational Linguistics. Song, K., Zhang, Y., Yu, H., Luo, W., Wang, K., and Zhang, M. (2019). "Code-Switching for Enhancing NMT with Pre-Specified Translation." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 449-459, Minneapolis, Minnesota. Association for Computational Linguistics. Sudoh, K., Duh, K., Tsukada, H., Hirao, T., and Nagata, M. (2010). "Divide and Translate: Improving Long Distance Reordering in Statistical Machine Translation." In Proceedings of the Joint 5th Workshop on Statistical Machine Translation and MetricsMATR, pp. 418-427, Uppsala, Sweden. Association for Computational Linguistics. Susanto, R. H., Wang, D., Yadav, S., Jain, M., and Htun, O. (2021). "Rakuten's Participation in WAT 2021: Examining the Effectiveness of Pre-trained Models for Multilingual and Multimodal Machine Translation." In Proceedings of the 8th Workshop on Asian Translation (WAT2021), pp. 96-105, Online. Association for Computational Linguistics. Sutskever, I., Vinyals, O., and Le, Q. V. (2014). "Sequence to Sequence Learning with Neural Networks." In Proceedings of Advances in Neural Information Processing Systems 27 (NIPS 2014), pp. 3104-3112. Suzuki, J. and Nagata, M. (2017). "Cutting-off Redundant Repeating Generations for Neural 今村, 越前谷, 江原, 後藤, 須藤, 園尾,綱川,中澤,二宮,王特許機械翻訳の課題解決に向けた機械翻訳技術解説 Abstractive Summarization." In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 2, Short Papers, pp. 291-297, Valencia, Spain. Association for Computational Linguistics. Takahashi, K., Sudoh, K., and Nakamura, S. (2022). "Automatic Machine Translation Evaluation using a Source and Reference Sentence with a Cross-lingual Language Model." Journal of Natural Language Processing, 29 (1), pp. 3-22. Takase, S. and Okazaki, N. (2019). "Positional Encoding to Control Output Sequence Length." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3999-4004, Minneapolis, Minnesota. Association for Computational Linguistics. Tan, L., van Genabith, J., and Bond, F. (2015). "Passive and Pervasive Use of Bilingual Dictionary in Statistical Machine Translation." In Proceedings of the 4th Workshop on Hybrid Approaches to Translation (HyTra), pp. 30-34, Beijing. Association for Computational Linguistics. Tan, X., Chen, J., He, D., Xia, Y., Qin, T., and Liu, T.-Y. (2019). "Multilingual Neural Machine Translation with Language Clustering." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 963-973, Hong Kong, China. Association for Computational Linguistics. Tiedemann, J. and Scherrer, Y. (2017). "Neural Machine Translation with Extended Context." In Proceedings of the 3rd Workshop on Discourse in Machine Translation, pp. 82-92, Copenhagen, Denmark. Association for Computational Linguistics. Tien, H. N. and Thi Minh, H. N. (2019). "Long Sentence Preprocessing in Neural Machine Translation." In 2019 IEEE-RIVF International Conference on Computing and Communication Technologies (RIVF), pp. 1-6. Tillmann, C., Vogel, S., Ney, H., Zubiaga, A., and Sawaf, H. (1997). "Accelerated DP Based Search for Statistical Translation." In Proceedings of the 5th European Conference on Speech Communication and Technology (Eurospeech 1997), pp. 2667-2670. 特許庁 (2014). 特許文献機械翻訳の品質評価手順 Ver 1.0. 特許庁情報技術統括室. https://www.jpo.go.jp/system/laws/sesaku/kikaihonyaku/document/tokkyohonyaku_ hyouka/01.pdf, [Japanese Patent Office (2014). Tokkyo Bunken Kikaihonyaku no Hinshitsu Hyoka Tejun Ver 1.0. Joho Kikaku Tokatsu Shitsu, Japanese Patent Office. https://www.jpo.go.jp/system/laws/sesaku/kikaihonyaku/document/ tokkyohonyaku_hyouka/01.pdf]. Trieu, H. L., Tran, D.-V., and Nguyen, L. M. (2017). "Investigating Phrase-Based and NeuralBased Machine Translation on Low-Resource Settings." In Proceedings of the 31st Pacific Asia Conference on Language, Information and Computation, pp. 384-391. The National University (Phillippines). Tu, Z., Liu, Y., Shang, L., Liu, X., and Li, H. (2017). "Neural Machine Translation with Reconstruction." In Proceedings of AAAI Conference on Artificial Intelligence, pp. 3097-3103. Tu, Z., Liu, Y., Shi, S., and Zhang, T. (2018). "Learning to Remember Translation History with a Continuous Cache." Transactions of the Association for Computational Linguistics, 6, pp. 407-420. Tu, Z., Lu, Z., Liu, Y., Liu, X., and Li, H. (2016). "Modeling Coverage for Neural Machine Translation." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 76-85, Berlin, Germany. Association for Computational Linguistics. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, L., and Polosukhin, I. (2017). "Attention Is All You Need." arXiv preprint arXiv:1706.03762. Voita, E., Serdyukov, P., Sennrich, R., and Titov, I. (2018). "Context-Aware Neural Machine Translation Learns Anaphora Resolution." In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1264-1274, Melbourne, Australia. Association for Computational Linguistics. Wang, S. and Kanwar, P. (2019). "BFloat16: The Secret to High Performance on Cloud TPUs." https://cloud.google.com/blog/products/ai-machine-learning/ bfloat16-the-secret-to-high-performance-on-cloud-tpus, Published: 2019-08-24. Wang, S., Li, B. Z., Khabsa, M., Fang, H., and Ma, H. (2020). "Linformer: Self-Attention with Linear Complexity." arXiv preprint arXiv:2006.04768. White, J. S., O'Connell, T. A., and O'Mara, F. E. (1994). "The ARPA MT Evaluation Methodologies: Evolution, Lessons, and Future Approaches." In Proceedings of the 1st Conference of the Association for Machine Translation in the Americas, pp. 193-205, Columbia, Maryland, USA. Wu, Y., Schuster, M., Chen, Z., Le, Q. V., Norouzi, M., Macherey, W., Krikun, M., Cao, Y., et al. (2016). "Google's Neural Machine Translation System: Bridging the Gap between Human and Machine Translation." arXiv preprint arXiv:1609.08144. Xia, M., Kong, X., Anastasopoulos, A., and Neubig, G. (2019). "Generalized Data Augmentation for Low-Resource Translation." In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5786-5796, Florence, Italy. Association for Computational Linguistics. Xiao, X., Xiong, D., Zhang, M., Liu, Q., and Lin, S. (2012). "A Topic Similarity Model for Hierarchical Phrase-based Translation." In Proceedings of the 50th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 750-758, Jeju Island, Korea. Association for Computational Linguistics. Xu, J., Zhou, H., Gan, C., Zheng, Z., and Li, L. (2021). "Vocabulary Learning via Optimal Transport for Neural Machine Translation." In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 7361-7373, Online. Association for Computational Linguistics. 山本ゆうじ (2019). シンプルな用語集形式 UTX一—ニューラル機械翻訳時代の用語管理の意義. 情報の科学と技術, 69 (9), pp. 415-420. [Y. Yamamoto (2019). UTX, a Simple Glossary Format-The Importance of Term Management in the Era of Neural Machine Translation. The Journal of Information Science and Technology Association, 69 (9), pp. 415-420.]. Yang, Y., Huang, L., and Ma, M. (2018). "Breaking the Beam Search Curse: A Study of (Re)Scoring Methods and Stopping Criteria for Neural Machine Translation." In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 3054-3059, Brussels, Belgium. Association for Computational Linguistics. Yang, Z., Gao, Y., Wang, W., and Ney, H. (2020). "Predicting and Using Target Length in Neural Machine Translation." In Proceedings of the 1st Conference of the Asia-Pacific Chapter of the Association for Computational Linguistics and the 10th International Joint Conference on Natural Language Processing, pp. 389-395, Suzhou, China. Association for Computational Linguistics. Zhang, B., Xiong, D., and Su, J. (2018a). "Accelerating Neural Transformer via an Average Attention Network." In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1789-1798, Melbourne, Australia. Association for Computational Linguistics. Zhang, J., Luan, H., Sun, M., Zhai, F., Xu, J., Zhang, M., and Liu, Y. (2018b). "Improving the Transformer Translation Model with Document-Level Context." In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 533-542, Brussels, Belgium. Association for Computational Linguistics. Zhang, T., Kishore, V., Wu, F., Weinberger, K. Q., and Artzi, Y. (2020). "BERTScore: Evaluating Text Generation with BERT." In International Conference on Learning Representations. Zhao, W., Peyrard, M., Liu, F., Gao, Y., Meyer, C. M., and Eger, S. (2019a). "MoverScore: Text Generation Evaluating with Contextualized Embeddings and Earth Mover Distance." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 563-578, Hong Kong, China. Association for Computational Linguistics. Zhao, Y., Zhang, J., Zong, C., He, Z., and Wu, H. (2019b). "Addressing the Under-Translation Problem from the Entropy Perspective." In Proceedings of the AAAI Conference on Artificial Intelligence, pp. 451-458. Zheng, Z., Huang, S., Tu, Z., Dai, X.-Y., and Chen, J. (2019). "Dynamic Past and Future for Neural Machine Translation." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 931-941, Hong Kong, China. Association for Computational Linguistics. Zheng, Z., Zhou, H., Huang, S., Mou, L., Dai, X., Chen, J., and Tu, Z. (2018). "Modeling Past and Future for Neural Machine Translation." Transactions of the Association for Computational Linguistics, 6, pp. 145-157. Zhou, C., Ma, X., Hu, J., and Neubig, G. (2019a). "Handling Syntactic Divergence in Lowresource Machine Translation." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 1388-1394, Hong Kong, China. Association for Computational Linguistics. Zhou, L., Zhang, J., Zong, C., and Yu, H. (2019b). "Sequence Generation: From Both Sides to the Middle." In Proceedings of the 28th International Joint Conference on Artificial Intelligence, IJCAI-19, pp. 5471-5477. International Joint Conferences on Artificial Intelligence Organization. Zhu, J., Xia, Y., Wu, L., He, D., Qin, T., Zhou, W., Li, H., and Liu, T. (2020). "Incorporating BERT into Neural Machine Translation." In International Conference on Learning Representations. Zoph, B., Yuret, D., May, J., and Knight, K. (2016). "Transfer Learning for Low-Resource Neural Machine Translation." In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1568-1575, Austin, Texas. Association for Computational Linguistics. ## 略歴 今村賢治:国立研究開発法人情報通信研究機構主任研究員, および株式会社 ATR-Trek. 奈良先端科学技術大学院大学博士(工学)22015 年より AAMT/ Japio 特許翻訳研究会委員. 越前谷博: 北海学園大学大学院工学研究科教授. 北海道大学博士 (工学). 2008 年よりAAMT/Japio 特許翻訳研究会委員. 江原暉将: 江原自然言語処理研究室代表. 東京工業大学博士 (工学). 2003 年より AAMT/Japio 特許翻訳研究会委員. 後藤功雄 : NHK 放送技術研究所主任研究員. 京都大学博士 (情報学). 2012 年よりAAMT/Japio 特許翻訳研究会委員. 須藤克仁: 奈良先端科学技術大学院大学准教授. 京都大学博士 (情報学). 2012 年より AAMT/Japio 特許翻訳研究会委員, 2016 年より同副委員長. 園尾聡:東芝デジタルソリューションズ株式会社参事.九州工業大学博士 (工学). 2014 年より AAMT/Japio 特許翻訳研究会オブザーバー. 綱川隆司: 静岡大学学術院情報学領域講師. 東京大学博士 (情報理工学). 2004 年より AAMT/Japio 特許翻訳研究会オブザーバー, 2009 年より同委員. 2022 年より同副委員長. 中澤敏明: 東京大学大学院情報理工学系研究科特任研究員. 京都大学博士 (情報学)。2016 年より AAMT/Japio 特許翻訳研究会委員. 二宮崇: 愛媛大学大学院理工学研究科教授. 東京大学博士 (理学). 2008 年よりAAMT/Japio 特許翻訳研究会委員. 王向莉:株式会社ディープランゲージ Founder. 新潟大学博士 (工学). 2009 2011 年 AAMT/Japio 特許翻訳研究会委員. 2011 年より AAMT/Japio 特許翻訳研究会オブザーバー. $(2022$ 年 5 月 2 日 $\quad$ 受付 $)$ $(2022$ 年 6 月 20 日 $\quad$ 採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 国立情報学研究所「情報学研究データリポジトリ (IDR)」の紹介 大須賀智子 $\dagger \cdot$ 大山 敬三 ${ }^{\dagger, \dagger \dagger}$ ## 1 はじめに 国立情報学研究所 (NII) データセット共同利用研究開発センター (DSC) では, 情報学および関連分野における研究用のデータセットを産学界から受け入れ,それを必要とする研究者へ提供する窓口として,「情報学研究データリポジトリ (IDR)」を運営している。近年は大学においても実用的な研究として実際のサービスや事業で生成された大規模データが必須の研究資源となってきているが,そのようなデータを入手することは容易ではなく,一方,研究室で独自に収集したり構築したりといった共有できないデータを用いた研究では, 研究の透明性・再現性の確保が問題となる。このような課題に対処するために,NII では 2010 年に IDR を設置し, データ保有者および研究者それぞれに対する空口となって, 契約手続や利用者管理, デー夕配布などを引き受けることで,民間企業等からのデータ提供を図ってきた.設置から 10 年以上が経過し, 取り扱い中のデータセットの数や種類も徐々に増え, それに伴い利用者も年々増加している. 本稿では, IDR の活動の背景や意義を述べるとともに, 現在取り扱い中のデータセットや,毎年開催しているイベントについて紹介する。 ## 2 IDR の活動の背景 第 5 期に続き第 6 期科学技術・イノベーション基本計画にて「オープンサイエンスとデー夕駆動型研究等の推進」が明記されるなど日本でもオープンサイエンスの推進が図られており,特に公的研究資金を用いた研究成果は論文だけでなく研究データのオープン化も求められている.自然言語処理の分野では従来から,構築した言語資源が共有されたり,形態素解析,構文解析といった解析システムが各研究室のホームページで公開されるなどして,それらを活用してさらに研究を発展させていくという土壤が培われているが,研究対象が Web サービスやSNS 等の一般消費者により生成されたテキストへとニーズや関心が移るにつれ,権利関係や個人情報などの問題でデータの利用が難しくなっている。これはオープンデータ化が進んでいる実験や  観測系の自然科学の諸分野とは対照的な点である. Web上のデータであれば自身でクロールすることも可能であるが,その場合は研究の透明性や再現性の確保が課題となる. そこでIDRでは,情報学関連の研究に資する各種デー夕を保有者から受け入れ,より多くの研究者に提供できるようにするため,一元的な空口としての役割を担っている. 第 5 期科学技術基本計画では,但し書きとして「商業目的で収集されたデー夕などは公開適用対象外とする」 こと,「データへのアクセスやデータの利用には,個人のプライバシー保護, 財産的価値のある成果物の保護の観点から制限事項を設ける」ことが記されているが1,IDRの活動はこのようなオープン化が難しいデータを,適正な管理の下で,学術研究に利用可能とするための取り組みであり,データに関する情報のオープン化と一定条件下での利用機会の提供を目指すものである. データの保有者にとって,IDR を通じたデータの提供には以下のようなメリットがある。まず,民間企業にとっては,共同研究契約,デー夕配布などの個別対応にコストをかけずに幅広い研究者にデータを活用してもらえ, 研究成果のフィードバックを得たり, 将来の共同研究先や人材の育成, 社会貢献に繋げたりすることができる,また,大学等の研究者にとっては,構築したデータを研究プロジェクト終了後も継続して配布し,プロジェクト外の研究者にも活用してもらうことにより,オープンサイエンスの推進に貢献することができる. 特に言語資源に関しては,このようなデー夕提供の空口となる組織として, IDR 以外にも,言語資源協会 $(\mathrm{GSK})^{2}$ が主にテキストコーパスや辞書データを,高度言語情報融合フォーラム $(\text { ALAGIN })^{3}$ が主に情報通信研究機構により構築された各種資源を取り扱っている.海外では米国の $\mathrm{LDC}^{4}$ や欧州の $\mathrm{ELRA}^{5}$ が言語資源を大規模に収集・提供しているが,IDRのように,特に民間企業等の実サービスの中で作成されたデータや,個人情報を含む映像などのデー夕を受け入れ,無償で提供するという取り組みは類を見ない. このような背景やこれまでの提供実績から, IDR では, 新規企業や研究者よりデー夕提供の申し出が増加し,それにより利用者層がさらに拡大するという好循環を生んでいる。 ## 3 提供中のデータセット 本節では,実際に現在取り扱っているデータセットや利用状況を簡単に紹介する.各データセットの内容や入手方法等の詳細については, IDRの Web サイトをご覧いたたききたい. ^{1}$ https://www8.cao.go.jp/cstp/kihonkeikaku/5honbun.pdf 2 https://www.gsk.or.jp/ 3 https://www.alagin.jp/ ${ }^{4}$ https://www.ldc.upenn.edu/ }^{5}$ http://www.elra.info/en/ ## 3.1 民間企業データセット 2022 年 6 月現在提供中の民間企業のデータセットを以下に示す。(提供開始順) (1) Yahoo!データセット(Yahoo!知恵袋データ) (2) 楽天データセット(楽天市場, 楽天トラベル, 楽天レシピデータ等 14 種類) (3)ニコニコデータセット(ニコニコ動画コメント等データ,ニコニコ大百科データ) (4) リクルートデータセット(ホットペッパービューティーデータ) (5) クックパッドデータセット(レシピデータ,献立データ) (6)LIFULL HOME'S データセット(不動産物件データ,間取り図画像データ) (7)不満調查データセット(不満投稿データ, 新型コロナ不満アンケートデータ等) (8) Sansan データセット(サンプル名刺データ) (9) インテージデータセット(販売・購買履歴・メディア接触ログのパネルデータ) (10) オリコンデータセット(顧客満足度調査データ) (11) ダイエットロコミデータセット(ダイエット商品ロコミデータ) (12) 弁護士ドットコムデータセット(法律相談データ) (13) アットホームデータセット(不動産物件データ) (14) JAST メディカルデータセット(レセプト集計データ) (15) トリガーデータセット(アニメ作品素材データ) 大部分のデータセットは研究室単位で提供しており, 2021 年度末までの提供実績は延べ 1,295 研究室, 異なり数で 846 研究室である. (3), (8), および $(7)$ の一部データについては個人単位での提供であり 3,320 件の実績となっている。データの種類や内容の幅が広がるにつれ,利用者の所属や利用目的も経営学や農学, 建築学, 環境学など幅広い分野へと拡大している. テキスト関係のデータとしては, Webサービスへの投稿データやレビューデータ, 質問回答のデータが複数あり,テキストマイニング,ネガポジ判定,情報推薦や情報検索などの研究への利用が多く見られるが,例えばレシピデータを取ってみても,食材オントロジの構築,調理手順の構造化, 語彙の曖昧性解消, 照応解析, タイトルを用いた日英の言語接触研究など, 幅広いテーマに活用されている. なお次節の研究者等提供データセットを含め, 提供中のデータセットを用いた研究成果については論文等の書誌情報を「DSC Reference Portal」 にて公開しているのでご参照いたたききたい. ## 3.2 研究者等提供データセット 2022 年 6 月現在提供中の大学研究者等提供データセットは次の通りである.(提供開始順) (1) グループコミュニケーションコーパス (TDU-NEDO) (2) 立命館 ARC 所蔵浮世絵データベース (3) 理研記述問題採点データセット (4) 大阪大学マルチモーダル対話コーパス (Hazumi) (5) 工学院大学多用途型日本手話データベース (KoSign) 自然言語処理分野の研究者の利用が多いのは (3) の国語の記述問題に採点アノテーションを付与したもので, 自動採点や文章評価, 文章要約などの研究に利用されている。(1)や (4) のデー 夕も対話システムへの応用を目指した研究に活用されている. なお研究者等により構築されたデータセットとしては, 他にも NTCIR テストコレクション (情報アクセス技術評価用データセット)や,音声資源コンソーシアム (NII-SRC) が受け入れた各種音声コーパスの配布も行っているので, それらもぜひご利用いたたききたい. ## 4 IDR ユーザフォーラム IDR では,活動の目的の一つとして,データの提供者と利用者とを巻き込んだ研究コミュニティを作り,分野の研究を活性化させることを揭げている。そのための取り組みとして, 2016 年度より年に 1 回,「IDRユーザフォーラム」と銘打ったイベントを毎年開催している.日常的なデータセットの提供業務の中では IDR が窓口となっておりデータの提供者と利用者とが直接接する機会は基本的にないため, 両者が一堂に会し, 直接コミュニケーションを取れる貴重な場となっている. イベントでは,利用者が提供データセットを用いた研究のポスター発表を行い,デー夕提供者が直接アドバイスをしたり, 同じデータの利用者同士で議論したりできるセッションを設けている. 2018 年度からは研究アイディア段階で発表可能なスタートアップセッションを設けたところ,学部生でも気軽に発表でき,卒業論文等の方向性を定める機会として参加者に好評である。また,データ提供者によるポスター展示やトークセッション,パネル討論などにより,企業側の現実的な課題や大学等への要望・期待等を共有する場を設けている.普段は学会等に参加されない業務部門の方と議論ができることもある. 2019 年度までは 100 名強, 2020, 2021 年度は新型コロナウイルスの影響でオンライン開催としたがいずれも 200 名超の参加登録があった。 2022 年度も 11 月末頃に開催を予定しており, 詳細は IDRのWebページに掲載する。過去の発表資料や受賞者の情報も上記ページに揭載している。これからデータの利用や提供を考えてみたいなど,IDRにご関心をお持ちの方はぜひ参加いただきたい. ## 5 おわりに 本稿では, 国立情報学研究所データセット共同利用研究開発センターの「情報学研究データリポジトリ (IDR)」の取り組みについて概要を紹介した。詳細については別稿 (大須賀, 大山 2021) およびIDRの Webサイト (https://www.nii.ac.jp/dsc/idr/)を参照の上,興味をお持ちのデータがあれば利用をご検討いただきたい,また,提供可能なデータをお持ちの企業や研究者の方からのご相談も歓迎する. IDR はコミュニティの皆様のご支持とご協力を存立基盤としており,読者の皆様のご支援を得て, 今後もコミュニティの発展と強化に貢献できるよう活動を行ってゆく所存である. ## 謝 辞 IDR の活動に賛同いただき,データの整備や諸手続きに多大な労力を費やしてデータを提供いただいた企業および研究者の皆様,ならびに IDR ユーザフォーラムの開催に協力いたたいているデータ提供企業および実行委員の皆様に,この場を借りて心より感謝の意を表します. ## 参考文献 大須賀智子, 大山敬三 (2021). 情報学研究データリポジトリIDR における研究用データセット共同利用の取り組み. 情報処理学会論文誌デジタルプラクティス, 2 (2), pp. 47-56. [T. Ohsuga and K. Oyama (2021). Sharing Datasets for Informatics Research through Informatics Research Data Repository (IDR). IPSJ Transactions on Digital Practices, 2(2), pp. 47-56.]. ## 略歴 大須賀智子:2006 年千葉大学大学院自然科学研究科博士後期課程修了. 博士 (工学)。2003 年日本学術振興会特別研究員 (DC1). 2006 年より国立情報学研究所勤務. 現在, データセット共同利用研究開発センター特任研究員. 音声言語資源の構築・整備やデータセットの共同利用に関する事業に従事. 大山敬三:1985 年東京大学大学院工学系研究科電気工学専攻博士課程修了. 工学博士. その後, 東京大学文献情報センター助手, 学術情報センター助手.助教授・教授を経て国立情報学研究所教授, 総合研究大学院大学複合科学研究科教授. データセット共同利用研究開発センター長を兼務. 情報検索や Web 情報アクセス・利用技術などの研究に従事.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 言語の背後にある普遍性 : 人工言語とエンティティの研究を通じて 李凌寒 ${ }^{\dagger, \dagger \dagger}$ ## 1 はじめに 本稿では, ACL 2022 採録論文 "Pretraining with Artificial Language: Studying Transferable Knowledge in Language Models" (Ri and Tsuruoka 2022) 及び "mLUKE: The Power of Entity Representations in Multilingual Pretrained Language Models”(Ri et al. 2022)を紹介する. これら 2 稿の論文はいずれもマルチリンガルな自然言語処理に関する研究であり,異なる言語に共通する「何か」を探求または活用するというテーマが根底にある。論文の詳細な内容はそれぞれの論文に譲り,ここでは研究にまつわる紆余曲折や,研究結果の示唆するところなど,一歩引いた視点からの話をしたい. ## 2 Pretraining with Artificial Language: Studying Transferable Knowledge in Language Models ## $2.1 \mathrm{CV$ 研究からの着想} 本研究 (Ri and Tsuruoka 2022) のきっかけとなったのは実は CV 分野の研究である. 片岡らの "Pre-training without Natural Images" (Kataoka et al. 2020) は,数式からフラクタル画像を生成し,それを使い事前訓練されたモデルが,自然画像の分類についても有効であることを示した. 当時の筆者はこの結果を非常に興味深く思い,似たようなことが言語についても示せないかと考えた,例えば,純粋に統計的規則から生成される人工言語で訓練した BERT が自然言語タスクでも有効になり得ないか?ということである. ただし,このアイディアを言語で実現するのは難しい。純粋に統計的規則から生成された言語は実世界の概念に紐づいておらず,英語といった自然言語との単語の対応が何もないということを意味する。一方で, 自然言語タスクを解くためには単語の意味を捉える必要がある. BERT といった事前学習モデルが大きな成功を収めているのも,大規模コーパスから学習した単語の知識が大きな要因としてあるだう。自然言語と似ても似つかない人工言語から単語の知識を  図 1 実験で用いた人工言語の 1 つ Dependency Language. 係り受け関係を模して, 文中に必ず対応するトークンが存在する。 学習するのはほぼ不可能だ。とはいえ, それでも単語列の有用なエンコードの仕方の学習ができるという可能性がある。 それでは, 自然言語の役に立つ人工言語とはどのようなものか? ## 2.2 役に立つ人工言語とは 事前訓練に使うのであれば,なるべく自然言語に似ている性質を持った人工言語がよい.そう考えて, 自然言語にはどのような統計的な性質があるのかを調べた。その際に大変参考になったのが「言語とフラクタル」(田中 2021)である,当書は言語を記号列としてみたときに成り立つ統計則を探求している。ここで紹介されている数理モデルそのものは本論文では採用していないものの, 単語分布が Zipf 則に従うという話や言語の系列がランダムウォークとみなせる話は,人工言語をデザインする際の発想の起点となっている,結果的に本研究では,文内の単語共起をモデリングした言語(Log-linear Language と呼んでいる)や,依存関係をモデリングした言語(Dependency Language; 図 1)をデザインし,これらを元に実験を行った. ## 2.3 ネガティブリザルトからの方向転換 当初は人工言語での事前訓練による自然言語タスクの性能向上を狙っていた.行った実験の 1 つの概略を説明すると,訓練データとして Dependency Language を使い Transformer エンコー ダをマスク付き言語モデリングで事前学習, そのエンコーダを英語の係り受け解析の夕スクに使い, ベースラインのエンコーダと性能を比較した。結果としては, Transformer をスクラッチから係り受け解析タスクで訓練するのに比べたら,人工言語で訓練したエンコーダを使った方がスコアが良くなる。しかし,スコアそのものはLSTM を使ったべースラインを超えることはなかった. 正則化や学習率の調整など小手先のテクニックをあれこれ試したが結果は同じであった.これでは人工言語が自然言語タスクの役に立つとは言い難い. とはいえ, Transformer に限ってみると, 人工言語で訓練することで何かを学習しているようである。そこで性能向上を追い求めるのではなく,人工言語から何を学習してるかを明らかにする方向に舵をきって論文を書き上げた. ## 2.4 論文の概要 本研究では様々な人工言語,自然言語で訓練したエンコーダの転移学習における性能を,言語モデリングと係り受け解析のタスクで調べ分析をしている。明らかになったことの 1 つは,訓練データとなる文内には何かしらの統計的共起パターンがないと, 事前訓練しても意味がない,ということである。共起パターンが存在しなければ,そもそも隠された単語を予測するようなタスクは原理的に解くことができない,後から考えると当たり前の話だが,訓練データとして意味を持つには何かしらの統計的共起パターンが必要となる. それでは文内に統計的な依存関係を持つ人工言語で事前訓練したエンコーダはどのくらい役に立つのか. 本論文の結果では,自然言語で事前訓練したエンコーダと中々近い性能を出している.ただし,ここでの自然言語で事前訓練したエンコーダは,単語埋め込みを捨ててエンコー ダのみを転移しているので,学習した単語の情報は転移していないことに注意されたい。人間の感覚からすると, 見た目や文法が全く異なる人工言語を学習して一体なぜ自然言語のタスクが解けるのか,と思うところであるが,結局,本実験中のタスクにおいてエンコーダは文法といった高次な概念は使用しておらず,単純に文脈の情報をまとめる役割を担っているに過ぎない,ということであろう.とはいえ今回は小規模のモデルと比較的シンプルなタスクでの実験であったため,今後はより大きなモデルと複雑なタスクで今回の考察がどの範囲まで成立するのかを確かめたい. ## 3 mLUKE: The Power of Entity Representations in Multilingual Pretrained Language Models ## 3.1 マルチリンガル言語モデルにおけるエンティティ 本研究 (Ri et al. 2022) は著者が研究インターンとして所属している Studio Ousia との共同研究である。当社の山田育矢が開発した LUKE (Yamada et al. 2020) のモデルを多言語に拡張するというのがテーマとなる. LUKE は BERT と同様, 双方向 Transformer の事前学習モデルであり,エンティテイ表現を持っていることが特徴である. エンティティとマルチリンガル言語モデルは非常に相性がいい. ここで言うエンティティとは,現実世界に存在する物や概念を指すが,これは異なる言語間で共有することができる.例えば「東京」は日本語の世界にも英語の世界にも存在し, このエンティティを“東京” や “Tokyo” のように異なる言語で指し示すことができる。したがって,マルチリンガルな言語表現を学習するときに, エンティティが各言語のデータと紐づいていれば, 異なる言語の表現のアラインメントをとるための訓練信号として役立つ。一方でエンティティ側には, 複数の言語データが使えるため学習に使える情報が増え, 良い表現の獲得が期待できるという恩恵がある. マルチリンガルな設定において,エンティティと言語は互いに互いを高めあうシナジーがある. ## 3.2 実装について 本研究における大半の労力は実装にまつわるものである.事前訓練は既存の実装を利用することができたので大きな問題にはならなかったが,下流タスクでの評価が一苦労であった。事前学習タスクは汎用的であるがゆえに評価の方法が多岐にわたる。今回,論文に掲載されている実験だけでも,関係抽出,固有認識表現,質問応答,知識穴埋め問題と様々な夕スクで評価している.このとき,様々なタスク,データセットやモデルを統一的なフレームワークで扱う方法として, allennlp 1 ライブラリが非常に役に立ったので,NLP 実装に携わる方達におすすめしたい. また,訓練済みモデルは Transformers ${ }^{2}$ ライブラリに収録されており,コード 1 行で簡単に呼び出せるようになっている。上述の下流夕スクの実装と合わせて,容易に実験の再現ができるよう心がけている,本プロジェクトではコードの整備に時間をかけた方だが, 後続の研究がより良いモデルを開発するための道を整備するのも非常に重要な貢献であると思う. ## 3.3 論文の概要 本研究では,エンティティ情報をマルチリンガル言語モデルの訓練に取り入れると,より良い言語表現が獲得できることに加え, 学習したエンティティ表現自体が言語間転移学習に有用であることを示している。エエテテティ表現を活用したモデルの探求は,今後も有望な方向の 1 つだろう. またこのようなモデルの訓練は Wikipedia という貴重な言語資源があってのものである.近年は大規模な生テキストから巨大なモデルを学習する手法が注目を浴びているが, 半構造化されたテキストデータの(生テキストと合わせた)活用も有用な方向性であるように思う. ## 4 おわりに 世界に異なる言語は数あれど, 系列としての統計的性質(e.g., 統計的依存関係)や言語表現のグラウンド対象(e.g., エンティティ)にはある程度の普遍性が存在する. 多言語 NLP モデルに関する研究は, そのモデルの実用性もさることながら, 個別言語の背後にある抽象的な“本質”に迫ることのできる魅力的な研究テーマであると思う.今後も実用的なモデルの開発, 多言語モデルの理解の両輪で研究を進めていきたい. ^{1}$ https://github.com/allenai/allennlp 2 https://github.com/huggingface/transformers } ## 参考文献 Kataoka, H., Okayasu, K., Matsumoto, A., Yamagata, E., Yamada, R., Inoue, N., Nakamura, A., and Satoh, Y. (2020). "Pre-training without Natural Images." In $A C C V$. Ri, R. and Tsuruoka, Y. (2022). "Pretraining with Artificial Language: Studying Transferable Knowledge in Language Models." In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 7302-7315, Dublin, Ireland. Association for Computational Linguistics. Ri, R., Yamada, I., and Tsuruoka, Y. (2022). "mLUKE: The Power of Entity Representations in Multilingual Pretrained Language Models." In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 7316-7330, Dublin, Ireland. Association for Computational Linguistics. 田中久美子 (2021). 言語とフラクタル. 東京大学出版会. [K. Tanaka-Ishii (2021). Statistical Universals of Language. University of Tokyo Press.]. Yamada, I., Asai, A., Shindo, H., Takeda, H., and Matsumoto, Y. (2020). "LUKE: Deep Contextualized Entity Representations with Entity-aware Self-attention." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6442-6454, Online. Association for Computational Linguistics. ## 略歴 李凌寒:2018 年東京大学教養学部教養学科学際言語科学コース卒業. 2020 年東京大学情報理工学系研究科修士課程修了. 2020 年 4 月より東京大学情報理工学系研究科博士後期課程学生.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 調理動作後の物体の視覚的状態予測を目指した Visual Recipe Flow データセットの構築と評価 森信介计 本稿では, 調理レシピにおいて, 調理動作後の物体の視覚的な状態の予測を目指し, Visual Recipe Flow (VRF) データセットを提案する. VRF データセットは (i) 物体 の視覚的な状態遷移と (ii) レシピ全体のワークフローに対するアノテーションから 成る。視覚的な状態遷移は動作前後の物体の観測を表す画像の組として,ワークフ ローはレシピフローグラフとして,それぞれ表現する。ここでは,データセットの 構築方法, アノテーション手順について順に説明し, アノテータ間のアノテーショ ン一致率を測ることでデータセットの品質を調査する. 最後に, 動作前後の画像と 物体のテキスト情報を用いたマルチモーダルな情報検索の実験を行うことで,各ア ノテーション要素の重要性について調べる。 キーワード:アノテーション, マルチモーダル, グラフ構造 ## Visual Recipe Flow: A Dataset for Learning Visual State Changes of Objects with Recipe Flows \author{ Keisuke Shirai $^{\dagger}$, Atsushi Hashimoto ${ }^{\dagger \dagger}$, Taichi Nishimura ${ }^{\dagger}$, Hirotaka Kameko ${ }^{\dagger \dagger}$, \\ Shuhei Kurita ${ }^{\dagger \dagger \dagger}$ and Shinsuke Mori ${ }^{\dagger \dagger \dagger}$ } \begin{abstract} We present a new multimodal dataset called Visual Recipe Flow, which enables us to learn each cooking action result in a recipe text. The dataset consists of object state changes and the workflow of the recipe text. The state change is represented as an image pair, while the workflow is represented as a recipe flow graph ( $\mathrm{r}-\mathrm{FG}$ ). We explain the data collection and annotation procedure and evaluate the dataset by measuring the inter-annotator agreement. Finally, we investigate the importance of each annotation component by conducting multi-modal information retrieval experiments. \end{abstract} Key Words: Annotation, Multimodal, Graph Structure  ## 1 はじめに 予測は人間が生来備えている能力である。我々は日常生活において,様々な予測を行い,それを基に行動を行っている。例えば,調理においては,手順や調理動作によって得られる目標の状態を先に予測し,それを手掛かりに動作を実行しているといえる。これには動作や対象の物体に関する知識が必要であり, 同時に作業全体のワークフローについても理解する必要がある.したがって,調理レシピを基に人間と同様に調理を行う自律エージェントを確立するためには,これらの能力の実現が必須であるといえる。図 1 に例を示す.この例では,エージェントは二つ目の調理動作に必要な食材を特定しつつ動作後に得られる観測を予測している. この方向の先行研究として, 調理手順に視覚的なアノテーションを施したものが存在する (Nishimura et al. 2020; Pan et al. 2020). ここで, Nishimura et al. (2020) は各調理手順に対応する 1 枚の画像に対して, 動作や食材の表現に対応する箇所に矩形領域のアノテーションを行った.また, Pan et al. (2020) は調理手順を文レベルに分割した後, 各文に対応するフレーム列を,レシピに紐づく調理動画から抽出してアノテーションを行った。これらは調理手順に視覚的な情報を結びつけているが,調理動作の結果を予測したい場合には,まだアノテーションが不十分である。例えば,“トマトを切ってボウルに入れる.”には,1文に「切る」と「入れる」 の二つの調理動作が含まれているが,上記の先行研究のアノテーションでは,これらを個別に扱うことが出来ない. 従って, 調理動作結果を予測するためには, 調理動作レベルのアノテー ションが必要であり, 率直な解決策としてはより密なアノテーションを用意することが考えられる。 ## 手順 図 1 調理エージェントによる調理動作結果の予測の例.ここでは, 2 つ目の調理動作(入れる)の結果を予測している。 図 2 アノテーションの例. 画像の組は物体毎の動作前後の観測を表しており,これらは手順リスト内の調理動作に紐づけられている。手順リスト内では, r-FGを用いて調理動作を含む表現間の依存関係を表現している。 本稿では,レシピにおける調理動作後の物体 ${ }^{1} の$ 状態の予測を目指し,新たに Visual Recipe Flow (VRF) データセットを提案する。図 2 に示す通り, VRF データセットは (i) 調理動作による物体の視覚的な状態の遷移と (ii) レシピ全体のワークフローに対するアノテーションから成る. 視覚的な状態遷移は動作前後に対応する観測の組として表現し,ワークフローは先行研究のレシピフローグラフ (Recipe flow graph; r-FG) (Mori et al. 2014)を用いて表現する. ここで,観測の組は r-FG 中の調理動作と紐づいており,これによって実世界とテキストのクロスモーダルな関係を考慮することが可能となる.また,ウェブサイトにてデータセット作成に用いたレシピの URL リストとダウンロードしたデータを基にデータセットを構築するスクリプトを公開している². また, 本研究と関わりの深い研究として, 手順書上での物体の状態遷移の追跡を行うものが存在する (Dalvi et al. 2018; Bosselut et al. 2018; Tandon et al. 2020).これは,各手順による実世界における影響を考慮することで,手順書の理解を目指したものである.本研究はこれらの流れを汲んだものでもあり,大きな違いは状態遷移をテキストでなく画像で表現している点にある。画像は物体の外観に関する情報を与えるため (Isola et al. 2015; Zhang et al. 2021), 先行研究と比較して実世界に関するより豊富な情報を提供することが期待される。また,調理の持つ逐次的な性質を活かし, 大規模言語モデルの文書理解能力の評価 (Srivastava et al. 2022) や, vision-language モデルの few-shot 設定における学習能力の評価 (Alayrac et al. 2022)に用いることも考えられる。  ## 2 Visual Recipe Flow データセット Visual Recipe Flow (VRF) データセットでは, レシピ上の物体の調理動作前後の状態を,視覚的なアノテーションを用いて表現する。ここで, 物体や調理動作等の重要表現はレシピ固有表現 (Recipe namend entity; r-NE) (Mori et al. 2014)を用いて識別される。また, r-NEを基に, レシピ全体のワークフローをレシピフローグラフ (Recipe flow graph; r-FG) (Mori et al. 2014) を用いて表現する。本節では,まずr-FGについて概説し,その後,本データセットにおける視覚的なアノテーションの特徴について説明する. ## 2.1 Recipe flow graph (r-FG) r-FGは図 2 に示すような非巡回有向グラフである. r-FGにおいて,点は r-NEによって識別された表現であり,辺は二つの r-NE 間の依存関係をラベルを用いて表したものである, r-FG の特徴の一つとして,動作が必要とする物体を特定出来ることが挙げられる.例えば,図 2 で動作 “入れ”が対象とする物体“1”は手順 1 の生成物であり,細切りにしたキャべッとにんじんを指しているが,これは $\mathrm{r}-\mathrm{FG}$ の辺を辿ることで特定可能である。また,本データセットでは, 先行研究 (Mori et al. 2014) と異なり, 食材リストから手順リストへの依存関係もアノテー ションしており,原材料の情報を考慮することも可能である. ## 2.2 視覚的アノテーション 視覚的アノテーションは,調理動作による物体の視覚的な状態遷移を表したものであり,動作前後に対応する画像の組として表現する。ここで,各画像の組は手順リスト中の調理動作に紐づいている。また, 一つの調理動作が複数の物体を対象とする場合に関しては, 図 2 のように,物体每に個別の画像の組を提供する。これによって,一動作が扱う物体が複数個ある場合にも,それらの状態遷移も捉えることが出来る. ## 3 アノテーション仕様 本節では,VRFデータセットを構成する各アノテーションについて説明する.アノテーションは, (i) レシピ固有表現 (r-NE) の付与, (ii)レシピフローグラフ (r-FG)の付与, (iii), 物体の動作前後の画像の付与の 3 段階から成る。また, 各レシピは日本語で記述されており, それぞれ材料リスト,手順リスト,調理動画を備えていると想定する。図 3 にアノテーションの例を示す. ## $3.1 \mathrm{r-\mathrm{NE}$} まず,材料リストと手順リスト中の表現に対してレシピ固有表現タグ (Recipe named entity; 図 3 各アノテーション手順における例. アノテーションは前段階の結果をもとに行われる. r-NE) のアノテーションを行う。文は日本語テキスト解析機 KyTea (Neubig et al. 2011) によって,事前に単語レベルに分割されているものとする,r-NE夕グの定義に関しては,先行研究 (Mori et al. 2014) に従い,表 1 に示す 8 種類のものを用いる。これらのうち,Ac (Action by chef; Ac), F (Foods; F), T (Tools; T)の3夕グは, 調理動作に直接関わるという点で, 本研究において重要な意味をもつ。また,材料リスト中における動作の表現(茹でた,スライス等)に関しては, 調理作業の開始時点で既に完了しているものとし, 動作 (Ac) ではなく食材の状態 Sf (State of foods; Sf) としてアノテーションする. ## 3.2 r-FG 次に,前段階でアノテーションした $\mathrm{r}-\mathrm{NE}$ を基に, r-FGのアノテーションを行う.ラベルは先行研究 (Maeta et al. 2015) に従い, 表 2 に示す 13 種類の依存関係ラベルを用いる. これらのうち, Targ (動作の対象)と Dest (動作の方向)は動作 $(A c)$, 食材 $(F)$, 道具 $(T)$ 間の関係 表 $1 \mathrm{r}-\mathrm{NE}$ タグと各タグの付与数. & 2,397 \\ 表 $2 \mathrm{r}-\mathrm{FG}$ ラベルと各ラベルの付与数. 材料リスト ## 手順リスト other-mod $\mathrm{F}$-set ・(A) オリーブオイル大さじ 1 - (A) $\frac{\text { 塩 }}{F} \frac{\text { ひとつまみ }}{Q}$ 4. 器に盛り付けた 5 完成です。 図 4 材料リスト,手順リストに対する r-NE, r-FGのアノテーション例. を記述するため,本研究において重要な意味をもつ,図 4 に材料リスト,手順リストに対する r-NE, r-FGのアノテーション例を示す. ## 3.3 動作前後の画像の組 最後に,画像による物体の状態遷移のアノテーションを行う。画像は, 調理動画から $3 \mathrm{FPS}$ で抽出したものを用いる。アノテーション候補の画像が複数枚存在する場合は,対象の物体が最もはっきりと見えるものを選択する。また,調理動作が動画中に収録されていない場合や物体の大部分が手や道具に隠れている場合は,アノテーションを行わず,代わりに欠損値を記録する,従って,全ての状態遷移に対して 2 枚の画像がアノテーションされているとは限らない点に関して, 注意が必要である. ## 4 アノテーション結果 本節では,まずデータ収集とアノテーション手順について説明し,アノテーションから得られた統計量について説明する。次に, アノテーションの品質の調査を行い, 最後にデータセット評価のための実験とその結果について述べる. ## 4.1 アノテーション手順 200 記事の日本語レシピをクラシル33から収集した。ここで,既存のフローグラフコーパス (Mori et al. 2014)を用いない理由は, レシピを基にした調理動画が必ずしも存在するとは限らないためである,本レシピに付属する調理動画では,各調理の手順が固定カメラによって収録されているため, 固定視点での物体の視覚的な状態遷移のアノテーションが可能である。1 節で述べた通り,本研究の目標は調理レシピを入力として受け取り,実世界で調理動作を実行するエージェントの確立である。しかし, 調理レシピによっては複雑な手順が含まれることがある. そこで,本研究では手始めとして比較的手順が容易であるサラダのカテゴリを対象とし,調理レシピの収集,アノテーションを行った. 本データセットの構築には複雑なアノテーションが要求されるだけでなく, 対象とするデー 夕の特性上,調理に関する経験が必要であると考えられる。従って,ここでは自然言語処理に関わるアノテーションと調理の経験を持つ 1 人のアノテータに依頼し,アノテーションを行った. アノテータの訓練は, 既存の r-FGコーパス (Mori et al. 2014) から無作為に収集した 20 レシピを用い,それらにおける r-NE, r-FG の既存のアノテーションとの一致率が $80 \% を$ 超えるまでアノテーションを繰り返すことで行った。また,画像アノテーションの訓練に関しては, アノテーション対象である全体 200 レシピのうちの 50 レシピを用いて, $10,20,50$ レシピのアノテーションが終了するごとに結果を確認し, 仕様と異なる場合には修正の指示を出すことで行った.また, このとき, 必要に応じてアノテーション仕様の修正を行った. 先行研究 (Mori et al. 2014) ではスプレッドシートに入力する方式で r-NE と r-FG のアノテー ションを行っているが, この形式はコストが高く, 手作業のために予期せぬアノテーションミスを生む可能性がある,従って,本研究では,フローグラフアノテーションのためのツールを開発し,これを用いてアノテーションを行った。なお,本アノテーションツールの実装はウェブ上にて公開済みである ${ }^{4}$. 図 5 にツールを用いたアノテーションの例を示す. 全アノテーションには,計 120 時間を要した。 ## 4.2 統計量 収集したレシピには,合計 1,701 個の材料と 1,077 個の手順が含まれており,1レシピ平均 8.51 個の材料と 5.31 個の手順で構成されていた。また,全体を通して 89 種類の調理動作と 275 種類の材料表現が確認できた. r-NE と r-FGのアノテーション結果を表 1 , 表 2 にそれぞれ示す. 表から, r-NEアノテーションでは 11,686 個の夕グが, r-FGアノテーションでは 11,291 個のラベルが,それぞれ得られていることがわかる. 視覚的アノテーション結果を表 3 に示す. 表から, 動作対象となる物体の総数は 3,705 であ ^{4}$ https://github.com/kskshr/Flow-Graph-Annotation-Tool. } ## $\mathbf{r$-NEの付与} ## r-FGの付与 Submit ## r-FGの付与 ## 調理動作と物体の情報 $\cdot$(1/17) [1-000-008-1] 比, 白菜, $5 \mathrm{~mm}$ 幅) 図 5 アノテーションツールを用いたアノテーションの例. ることがわかる.このうち, 2,551 例は動作前後共に, 485 例は動作後のみに, 72 例は動作前のみに,それぞれ画像を付与することが出来た。残りの 597 例に関しては,動作前後の双方ともに画像の付与が出来なかった。また,このアノテーションでは,合計 5,659 枚(重複なしで 3,824 枚)の画像を使用した。ここで,重複が発生しているのは,ある動作の動作後画像と次の動作の動作前画像が一致する場合があるためである。 ## 4.3 アノテーション品質 アノテーションの品質を調査するため,4.1 節とは別の, 自然言語処理と調理の経験を持つアノテータに,データセット全体から無作為に収集した 10 レシピ(全体の $5 \%$ )0アノテーションを依頼し,それらの一致率を計算した。アノテータの訓練は, r-NE と r-FGに関しては 4.1 節  と同様の手順で行い,画像アノテーションに関しては,4.1節で作成した仕様を元に,アノテー ション対象外の 5 レシピにおけるアノテーション結果を確認, 修正した. 結果を表 4 に示す. ここでは, 4.1 節で得られたアノテーションを正解データとして捉え,それらの間の精度, 再現率, $\mathrm{F}$ 値を計算することで, 一致率を算出した. r-NE, r-FGのアノテー ションにおいては,それぞれ $98.40 \%, 86.11 \%$ という非常に高い一致率が得られた.また,画像アノテーションに関しては, $72.80 \%$ と前 2 段階のアノテーション結果と比較すると低い一致率となったが, 前段階からのアノテーションミスの影響や, 画像アノテーション時に複数の画像が候補となることを考慮すると, この値は十分に高いといえる. ## 4.4 実験 ## 4.4.1 タスク設定 データセットにおける各アノテーション要素の重要性について調査するため, マルチモーダルな情報検索のタスクを考え, 実験を行った。このタスクでは, 調理動作を表す動詞 $a$ と物体 $o$ のテキスト情報, 動作前画像 $i^{\text {pre }}$ 基に, 候補の画像の集合 $i_{1}, i_{2}, \cdots, i_{n}$ から正解の動作後画像 $i^{\text {post }}$ 検索することを目指す. 図 6 に例を示す. ## 4.4.2 モデル まず, 調理動作 $a$, 物体 $o$ のテキスト情報と動作前画像 $i$ pre から, 動画後画像に対応するべクトル表現の計算を行う。ここで, $a$ と $o$ は BiLSTM (Lample et al. 2016)を用いて $d_{v}$ 次元の 表 3 画像アノテーションの統計量. 表 4 アノテーション一致率. テキスト動作前画像 候補の画像 図 6 検索タスクの例. 調理動作と物体に対応するテキストの情報, 動作前画像をもとに対応する動作後画像の検索を行う.この例では,赤枠で囲われている画像が正しい動作後画像である。 ベクトル $h_{a}, h_{o}$ に変換する. この $h_{a}, h_{o}$ はレシピ全体を BiLSTM でエンコードして得られる単語の分散表現のうち, $a, o$ に対応する表現である, $a, o$ が複数の単語からなる場合には, それらの平均を取ることで対応する分散表現を獲得する。 $i^{\text {pre }}$ は事前学習済みの畳み込みニュー ラルネット (Convolutional Neural Network; CNN) を用いて $d_{t}$ 次元のベクトル $h_{i}^{\text {pre }}$ を下のように計算する。 $ h_{i}^{\text {pre }}=W_{1}^{\text {pre }} \mathrm{CNN}\left(i^{\text {pre }}\right)+b_{1}^{\text {pre }} . $ ここで, $W_{1}^{\text {pre }} \in \mathbb{R}^{d_{t} \times d_{i}}, b_{1}^{\text {pre }} \in \mathbb{R}^{d_{t}}$ は学習可能なパラメータである. これらを基に, $\tilde{h}^{\text {pre } を以下 ~}$ のように計算する。 $ \tilde{h}^{\text {pre }}=W_{3}^{\text {pre }}\left(\operatorname{ReLU}\left(W_{2}^{\text {pre }}\left[h_{a} ; h_{o} ; h_{i}^{\text {pre }}\right]+b_{2}^{\text {pre }}\right)\right)+b_{3}^{\text {pre }} . $ ここで;は結合を指し, $W_{2}^{\text {pre }} \in \mathbb{R}^{3 d_{t} \times 3 d_{t}}, W_{3}^{\text {pre }} \in \mathbb{R}^{d_{t} \times 3 d_{t}}, b_{2}^{\text {pre }} \in \mathbb{R}^{3 d_{t}}, b_{3}^{\text {pre }} \in \mathbb{R}^{d_{t}}$ は全て学習可能である. 最後に, $\tilde{h}^{\text {pre }}$ を下のように共有埋め込み空間上にマッピングする (Miech et al. $ \hat{h}^{\text {pre }}=\frac{f\left(\tilde{h}^{\text {pre }}\right)}{\left.\|f\left(\tilde{h}^{\text {pre }}\right)\right.\|_{2}} $ ここで, $ f(h)=\left(W_{4}^{\text {pre }} h+b_{4}^{\text {pre }}\right) \circ \sigma\left(W_{5}^{\text {pre }}\left(W_{4}^{\text {pre }} h+b_{4}^{\text {pre }}\right)+b_{5}^{\text {pre }}\right) $ である。また, $\sigma$ はシグモイド関数であり,。は要素ごとの掛け算を指す. $W_{4}^{\text {pre }} \in \mathbb{R}^{d_{e} \times d_{t}}$, $W_{5}^{\text {pre }} \in \mathbb{R}^{d_{e} \times d_{e}}, b_{4}^{\text {pre }}, b_{5}^{\text {pre }} \in \mathbb{R}^{d_{e}}$ は全て学習可能である. 動作後画像 $i^{\text {post }}$ は動作前画像と同様に, 事前学習済み CNNを用いて $d_{t}$ 次元のベクトル $h_{i}^{\text {post }}$ を以下のように計算する。 $ \tilde{h}_{i}^{\text {post }}=W_{2}^{\text {post }}\left(\operatorname{ReLU}\left(W_{1}^{\text {post }} \operatorname{CNN}\left(i^{\text {post }}\right)+b_{1}^{\text {post }}\right)\right)+b_{2}^{\text {post }} . $ $W_{1}^{\text {post }}, W_{2}^{\text {post }} \in \mathbb{R}^{d_{i} \times d_{i}}$, and $b_{1}^{\text {post }}, b_{2}^{\text {post }} \in \mathbb{R}^{d_{i}}$ は学習可能であり, 同様に共有埋め込み空間上へのマッピングを行う. $ \hat{h}^{\text {post }}=\frac{g\left(\tilde{h}^{\text {post }}\right)}{\left.\|g\left(\tilde{h}^{\text {post }}\right)\right.\|_{2}} . $ ここで, $ g(h)=\left(W_{3}^{\text {post }} h+b_{3}^{\text {post }}\right) \circ \sigma\left(W_{4}^{\text {post }}\left(W_{3}^{\text {post }} h+b_{3}^{\text {post }}\right)+b_{4}^{\text {post }}\right) $ である. $W_{3}^{\text {post }} \in \mathbb{R}^{d_{e} \times d_{i}}, W_{4}^{\text {post }} \in \mathbb{R}^{d_{e} \times d_{e}}$, and $b_{3}^{\text {post }}, b_{4}^{\text {post }} \in \mathbb{R}^{d_{e}}$ は学習可能である. 検索候補と なる他の画像も同様に,上記の計算を経て共有埋め込み空間上へのマッピングを行う. 誤差関数. 共有埋め込み空間上での $\hat{h}^{\text {pre }}, \hat{h}^{\text {post }}$ 間の距離は以下のように計算する. $ D\left(\hat{h}^{\text {pre }}, \hat{h}^{\text {post }}\right)=\left.\|\hat{h}^{\text {pre }}-\hat{h}^{\text {post }}\right.\|_{2} \text {. } $ これを基に, $n$ 例のベクトルの組 $\left(\left(\hat{h}_{1}^{\text {pre }}, \hat{h}_{1}^{\text {post }}\right), \cdots,\left(\hat{h}_{n}^{\text {pre }}, \hat{h}_{n}^{\text {post }}\right)\right)$ が与えられた時, 以下の誤差関数の最小化を考える (Balntas et al. 2016): $ \mathcal{L}=\frac{1}{n} \sum_{i=1}^{n}\left.\{\max \left(D_{i, i}-D_{i, j}+\delta, 0\right)+\max \left(D_{i, i}-D_{k, i}+\delta, 0\right)\right.\} $ ここで, $D_{i, j}=D\left(\hat{h}_{i}^{\text {pre }}, \hat{h}_{j}^{\text {post }}\right)$ であり, $\delta$ はマージンを指す. $D_{i, i}$ は $i$ 番目の正例のベクトル間 れ用いた時の距離を表す。負例のサンプリングに関しては, ここでは単純にミニバッチ内から無作為に選択することを考える。 ## 4.4.3 実験設定 データ分割. 本実験では,アノテーションで得られた動作前後の観測のうち, その双方がアノテーションされている 2,551 例のみを用いた。全体の 200 レシピを 10 分割し, そのうち 1 分割(20レシピ)をテストデータ,残りの 9 分割を結合したもの(180レシピ)を学習データとして割り当てた。このテストデータに対応する分割を変更することで,後述する 10 分割交差検証を実現した。ここで,学習デー夕,テストデー夕に含まれるサンプル数はそれぞれ平均で 2296.8 例, 255.2 例であった. また, 動作後画像の候補は, 学習時はミニバッチ内の他の動作後画像を,テスト時にはテストセットに含まれる他の全ての動作後画像を,それぞれ用いた。各動作前後の画像のぺアは手順リスト中の動作表現に紐付いているが,これを動詞のテキスト情報として用いた。また,物体のテキスト情報はこの動詞を終点とし, r-FGの Targ ラベルで紐付けられている始点の表現のうち, r-NEの F(食材)または Ac(調理者の動作)が振られているものを選択することで,自動的に特定し,用いた。 モデルパラメータ. 実験では 1 層で 256 次元の BiLSTM を用いてテキストのエンコードを行った。また,次元数に関しては, $\left(d_{v}, d_{t}, d_{i}, d_{e}\right)=(496,512,2048,128)$ とした.事前学習済み CNN には ResNet-152 (He et al. 2016) を用い, 2048 次元の特徵量を画像から抽出した. 最適化. 最適化手法として, AdamW (Loshchilov and Hutter 2019) を初期学習率 $1.0 \times 10^{-5}$ として用いた。学習中は, CNNのパラメータは固定した。各モデルの学習には, 4 レシピからミニバッチを構成し, 350 エポック分行った.式 (1)の $\delta$ は実験的に 0.1 に設定した.また,デー タセットのうち $90 \%$ を学習データに, $10 \%$ をテストデータに分割することで, 10 分割交差検証を行い,モデルの評価を行った。 評価指標. 評価指標として, Recall@5 (R@5) と Median rank (MedR) を用いた.ここで, R@5 は検索結果の上位 5 件に正解画像が含まれている割合を調査するために, MedR は正解画像の候補画像中における順位を調査するために,それぞれ用いている。また,これらの指標はクロスモーダルな検索タスクの評価において, 先行研究でも用いられている (Socher et al. 2014; Salvador et al. 2017; Miech et al. 2019). ## 4.4.4 実験結果 動作後画像の検索に用いるテキスト情報 $(a, o)$ と動作前画像 $(i$ pre $)$ に関して, いずれか片方を用いる場合と両方を用いる場合を考え,それぞれ実験を行った. 表 5 に実験結果を示す. 1 行目はランダムベースラインを表している。2行目と 3 行目の比較から, 画像かテキストのいずれか一方を用いる場合では,画像を用いた方がより良い R@5 (33.77) と MedR (12.60)を獲得出来ていることがわかる. 次に, これらと 4 行目の比較から, 画像とテキストの両方を用いることで, R@5で 3.24, MedR で 2.2 の改善が得られていることがわかる. これらの結果は, 動作後画像の検索において,画像はテキスト以上に重要な情報を与えていることを示唆している。また,テキストと画像を組み合わせることでさらなる改善が得られることから,テキストは画像とは異なる手がかりをモデルに与えていることが推察できる. ## 4.4.5 考察 本タスクに残された課題としては, (i) 動作前後で変化が少ない例と (ii) 動作結果の画像の予測の際に,過去の動作を遡って解析する必要がある例への対処が挙げられる。(i)は例えば, 「ドレッシングの材料をボウルに加える」等が対応する。この例では, 加える食材に応じた動作結果の画像を検索できることが望ましいが,食材が塩や油などの場合,動作前後で見た目の変化が起こりにくいという問題があり,実際にこういった例に対しては,モデルによる検索の失敗が多く見受けられた。これの解決策としては,例えば,加える原材料の見た目や形状に関する特徴量を予め用意しておき, $\hat{h}^{\text {pre }}$ 計算時に用いること等が考えられる. 表 5 実験結果. テキストは調理動作と物体の表現を指している。また,枠内のチェックマークは動作後画像の検索に用いた要素を表している。 (ii) に関しては, 物体のテキスト情報が過去の手順の番号 6 や過去の動作 ${ }^{7}$ となる場合が挙げられる。これの解決策としては,例えば,対象の動作からフローグラフを逆に辿ることで,過去の動作やそれに含まれる食材の情報を利用することが考えられる。このとき, r-NE夕グの情報を合わせて用いることで,物体の形状や原材料まで特定することが可能となる.また, Neural Process Networks (Bosselut et al. 2018; Nishimura et al. 2021)のように,食材の状態遷移を追跡する機構を用いて,実際の動作後画像の検索時に用いることも考えられる。 さらに,これらの課題に加え,本実験で用いた以外の $\mathrm{r}-\mathrm{NE}$ タグ, r-FG ラベルの情報を用いてさらなる精度向上を図ることも期待できる。例えば, r-NEの Sf(食材の状態)タグや r-FG の Dest(動作の方向)は動作や物体に関するより細かい情報を提供できるため,モデルの検索精度向上に利用できる可能性がある. ## 5 応用 本節では,本データセットの応用先について述べる。 ## 5.1 マルチモーダル常識推論 マルチモーダルな情報を用いた手順書の常識推論は近年注目を集めている研究の一つである (Zellers et al. 2019; Yagcioglu et al. 2018; Alikhani et al. 2019). 調理分野においては, 食材の状態遷移に関する推論 (Bosselut et al. 2018; Nishimura et al. 2021) が存在する.この方向において, 本データセットを用いることで, 食材の視覚的な状態遷移を考慮した推論を行うことが可能となる。また, r-FGが表すワークフローを利用して, 各調理動作がレシピ全体に与える影響について分析することも可能である. ## 5.2 手順書生成 画像や動画等, 視覚的な情報からの手順書生成 (Ushiku et al. 2017; Nishimura et al. 2019)は,作業の再現性を高める上で重要な夕スクであるといえる。ここで,正しく作業を再現するためには,生成された手順列が一貫性を持つことが重要である。r-FGは手順間の依存関係を表現するため,これを利用することで,より一貫した手順書の生成が行える可能性がある. -\mathrm{FG}$ の性質上, 「入れる」となる。これは「入れる」という動作の生成物が「混ぜ合わせる」の入力となっていることを表している. } ## 6 おわりに 本稿では, 調理レシピにおいて, 調理動作後の物体の視覚的状態の予測を目指し, Visual Recipe Flow データセットを提案した。データの収集方法やアノテーション手順について述べ,アノテータ間の一致率を測ることでデータセットの品質を調査した。また,マルチモーダルな情報を用いた情報検索タスクを考えることで,各アノテーション要素の重要性について調べた,最後に, 本データセットの応用例として, マルチモーダル常識推論や手順書生成について述べた. ## 謝 辞 本研究は JSPS 科研費 JP20H04210, JP21H04910, JP22K17983 と JST, さきがけ, JPMJPR20C2 の助成を受けたものです。また, 研究の過程でオムロンサイニックエックス株式会社の牛久祥孝氏にはご助言をいただきました. 本論文の一部は言語処理学会第 28 回年次大会 (白井他 2022) および The 29th International Conference on Computational Linguistics (COLING 2022) (Shirai et al. 2022) で発表したものです. ## 参考文献 Alayrac, J.-B., Donahue, J., Luc, P., Miech, A., Barr, I., Hasson, Y., Lenc, K., Mensch, A., Millican, K., Reynolds, M., et al. (2022). "Flamingo: A Visual Language Model for Fewshot Learning." arXiv preprint arXiv:2204.14198. Alikhani, M., Nag Chowdhury, S., de Melo, G., and Stone, M. (2019). "CITE: A Corpus of ImageText Discourse Relations." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 570-575. Balntas, V., Riba, E., Ponsa, D., and Mikolajczyk, K. (2016). "Learning Local Feature Descriptors with Triplets and Shallow Convolutional Neural Networks." In Proceedings of the British Machine Vision Conference, pp. 119.1-119.11. Bosselut, A., Levy, O., Holtzman, A., Ennis, C., Fox, D., and Choi, Y. (2018). "Simulating Action Dynamics with Neural Process Networks." In Proceedings of the 6th International Conference on Learning Representations. Dalvi, B., Huang, L., Tandon, N., Yih, W.-t., and Clark, P. (2018). "Tracking State Changes in Procedural Text: a Challenge Dataset and Models for Process Paragraph Comprehension." In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 1595-1604. He, K., Zhang, X., Ren, S., and Sun, J. (2016). "Deep Residual Learning for Image Recognition." In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. $770-778$. Isola, P., Lim, J. J., and Adelson, E. H. (2015). "Discovering States and Transformations in Image Collections." In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Lample, G., Ballesteros, M., Subramanian, S., Kawakami, K., and Dyer, C. (2016). "Neural Architectures for Named Entity Recognition." In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 260-270. Association for Computational Linguistics. Loshchilov, I. and Hutter, F. (2019). "Decoupled Weight Decay Regularization." In Proceedings of the 7th International Conference on Learning Representations. Maeta, H., Sasada, T., and Mori, S. (2015). "A Framework for Procedural Text Understanding." In Proceedings of the 14th International Conference on Parsing Technologies, pp. 50-60. Miech, A., Laptev, I., and Sivic, J. (2018). "Learning a Text-Video Embedding from Incomplete and Heterogeneous Data." arXiv preprint arXiv:1804.02516. Miech, A., Zhukov, D., Alayrac, J.-B., Tapaswi, M., Laptev, I., and Sivic, J. (2019). "Howto100m: Learning a Text-Video Embedding by Watching Hundred Million Narrated Video Clips." In Proceedings of the IEEE International Conference on Computer Vision, pp. 2630-2640. Mori, S., Maeta, H., Yamakata, Y., and Sasada, T. (2014). "Flow Graph Corpus from Recipe Texts." In Proceedings of the 9th International Conference on Language Resources and Evaluation, pp. 2370-2377. Neubig, G., Nakata, Y., and Mori, S. (2011). "Pointwise Prediction for Robust, Adaptable Japanese Morphological Analysis." In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 529-533. Nishimura, T., Hashimoto, A., and Mori, S. (2019). "Procedural Text Generation from a Photo Sequence." In Proceedings of the 12th International Conference on Natural Language Generation, pp. 409-414. Nishimura, T., Hashimoto, A., Ushiku, Y., Kameko, H., and Mori, S. (2021). State-Aware Video Procedural Captioning, pp. 1766-1774. Association for Computing Machinery, New York, NY, USA. Nishimura, T., Tomori, S., Hashimoto, H., Hashimoto, A., Yamakata, Y., Harashima, J., Ushiku, Y., and Mori, S. (2020). "Visual Grounding Annotation of Recipe Flow Graph." In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 4275-4284. Pan, L.-M., Chen, J., Wu, J., Liu, S., Ngo, C.-W., Kan, M.-Y., Jiang, Y., and Chua, T.-S. (2020). Multi-Modal Cooking Workflow Construction for Food Recipes, pp. 1132-1141. Association for Computing Machinery. Salvador, A., Hynes, N., Aytar, Y., Marin, J., Ofli, F., Weber, I., and Torralba, A. (2017). "Learning Cross-modal Embeddings for Cooking Recipes and Food Images." In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Shirai, K., Hashimoto, A., Nishimura, T., Kameko, H., Kurita, S., Ushiku, Y., and Mori, S. (2022). "Visual Recipe Flow: A Dataset for Learning Visual State Changes of Objects with Recipe Flows." In Proceedings of the 29th International Conference on Computational Linguistics, pp. 3570-3577. International Committee on Computational Linguistics. 白井圭佑, 橋本敦史, 牛久祥孝, 栗田修平, 亀甲博貴, 森信介 (2022).レシピ分野における動作対象の状態変化を考慮したデータセットの構築と検索モデルの提案. 言語処理学会第 28 回年次大会, pp. 129-134. [K. Shirai et al. (2022). Construction of a Dataset Considering State Changes of Objects in the Cooking Domain and Proposal of a Retrieval Model for the Dataset. Proceedings of the 28th Annual Meeting of the Association for Natural Language Processing, pp. 129-134.]. Socher, R., Karpathy, A., Le, Q. V., Manning, C. D., and Ng, A. Y. (2014). "Grounded Compositional Semantics for Finding and Describing Images with Sentences." Transactions of the Association for Computational Linguistics, pp. 207-218. Srivastava, A., Rastogi, A., Rao, A., Shoeb, A. A. M., Abid, A., Fisch, A., Brown, A. R., Santoro, A., Gupta, A., Garriga-Alonso, A., et al. (2022). "Beyond the Imitation Game: Quantifying and extrapolating the capabilities of language models." arXiv preprint arXiv:2206.04615. Tandon, N., Sakaguchi, K., Dalvi, B., Rajagopal, D., Clark, P., Guerquin, M., Richardson, K., and Hovy, E. (2020). "A Dataset for Tracking Entities in Open Domain Procedural Text." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6408-6417. Ushiku, A., Hashimoto, H., Hashimoto, A., and Mori, S. (2017). "Procedural Text Generation from an Execution Video." In Proceedings of the 8th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 326-335. Yagcioglu, S., Erdem, A., Erdem, E., and Ikizler-Cinbis, N. (2018). "RecipeQA: A Challenge Dataset for Multimodal Comprehension of Cooking Recipes." In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 1358-1368. Zellers, R., Bisk, Y., Farhadi, A., and Choi, Y. (2019). "From Recognition to Cognition: Visual Commonsense Reasoning." In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Zhang, Y., Yamakata, Y., and Tajima, K. (2021). "MIRecipe: A Recipe Dataset for StageAware Recognition of Changes in Appearance of Ingredients." In Proceedings of the 3rd ACM International Conference on Multimedia in Asia, pp. 1-7. Association for Computing Machinery. ## 略歴 白井圭佑:2017 年愛媛大学工学部卒業. 2020 年京都大学大学院情報学研究科修士課程修了. 現在同大学院博士課程. 自然言語処理, マルチメディアに関する研究に従事. 言語処理学会会員. 橋本敦史:2005 年京都大学工学部卒業. 2013 年京都大学大学院情報学研究科 にて博士 (情報学) 取得. 2012 年より同大助手, 2015 年より同大助教として勤務. 2018 年よりオムロンサイニックエックス株式会社シニアリサーチャー. 2021 年より慶應義塾大学特任講師を兼任して現在に至る。主に機械学習, 画像処理, および,料理や組立作業を対象とした人と機械のインタラクション理解に関する研究に従事. IEEE, IEICE, IPSJ 各会員. 西村太一:2019 年九州大学芸術工学部卒業. 2020 年京都大学大学院情報学研究科修士課程修了. 現在同大学博士課程. 修士 (情報学)、マルチメディア,自然言語処理,コンピュータビジョンの研究に従事. 学術振興会特別研究員 (DC1). 2023 年言語処理学会論文賞受賞. 亀甲博貴 : 2018 年東京大学大学院工学系研究科博士課程修了. 博士 (工学).同年より京都大学学術情報メディアセンター助教. 自然言語処理, ゲーム AI 等に関する研究に従事. 言語処理学会, 情報処理学会各会員. 栗田修平:2013 年京都大学理学部卒業. 2015 年同大学院理学研究科物理学教室修士課程修了. 2019 年京都大学大学院情報学研究科にて博士(情報学)取得. 現在国立研究開発法人理化学研究所革新知能統合研究センター研究員.深層学習を用いた自然言語処理ならびにコンピュータビジョンの研究に従事.言語処理学会, 情報処理学会, 人工知能学会, ACL 各会員. 森信介:1998 年京都大学大学院工学研究科電子通信工学専攻博士後期課程修了. 同年日本アイ・ビー・エム株式会社入社. 2007 年より京都大学学術情報メディアセンター准教授. 2016 年同教授. 現在に至る。計算言語学ならび に自然言語処理の研究に従事. 博士 (工学). 1997 年情報処理学会山下記念研究賞受賞. 2010 年, 2013 年情報処理学会論文賞受賞. 2010 年第 58 回電気科学技術奨励賞. 2023 年言語処理学会論文賞受賞. 言語処理学会, 情報処理学会, 日本データベース学会各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 「文書レベル関係抽出における根拠認識の統合」の完成まで 馬 尤咪 $\dagger$ ## 1 はじめに 本稿では言語処理学会第 29 回年次大会 (NLP2023) において論文賞を受賞した研究「文書レべル関係抽出における根拠認識の統合」(Ma 他 2023)の概要と遂行過程を紹介する.ふりかえると本研究の鍵は各段階における積極的な状況整理であり,自分の置かれた状況を見極めていたからこそ,研究の方針を決めることができた,本稿ではその研究過程と得られた学びを紹介し,似た境遇にあるどなたかの参考と励みになれると幸いである. ## 2 本研究の概要 質疑応答をはじめ,自然言語処理技術が用いられる多くの場面では,事実知識に基づいた回答の自動生成が期待されている。事実知識を効率よく蓄積するため,テキストから自動的に知識を獲得し, 知識ベースを構築することは重要な課題である。本研究で取り組む文書レベル関係抽出 (DocRE: Document-level Relation Extraction) タスクは, まさに文書からの知識ベース構築を目指している. DocRE は文書におけるすべてのエンティティ(実体)の組の関係を認識するタスクである.関係抽出の研究は文内に閉じて関係を認識する夕スク設定が多いが,テキスト中で複数の文にまたがって表現される関係は対象外となってしまうため, 適用範囲が狭い。これに対して, DocRE は複数の文で言及される関係にも対応できる。一方,DocRE を解くには複数の文の情報の取捨選択や統合をしながらエンティティ間の関係を推定する必要があるため,通常の関係抽出より難しい設定でもある。情報の取捨選択によく用いられるのは根拠 (evidence) である。根拠は,関係を推定するために必要最小限かつ十分な情報を含む文の集合と定義され,DocRE で広く用いられるデータセット DocRED (Yao et al. 2019) でラベル付けされている(図 $1 \mathrm{a}^{1}$ ). 既存研究では DocRE のサブタスクとして根拠認識も行うことが多かった (Huang et al. 2021; Xie et al. 2022; Xiao et al. 2022). これらの研究は, エンティティ組の埋め込みと文の埋め込みを入力として,文がエンティティ組の関係の根拠である確率を出力する根拠認識器を学習する。この  (a) アノテーションの例 (Yao et al. 2019) (b) DREEAM の概要 図 1 DocRE のアノテーション例及び提案手法 (DREEAM) の概要 ような設計では,根拠認識と DocRE は別々にモデル化されてしまい,両タスクの関連性を考慮できない。本研究では,根拠認識を DocRE モデルに統合する手法 DREEAM を提案した。 DREEAM のアイデアはシンプルである,長いテキストが与えられ,特定の情報を探すよう指示された時,人間は関連性の低い情報を読み飛ばすように,モデルにも読み飛ばしの知識を身につけてもらいたい。そこで,人間が特定のエンティティ組の関係を判断する際は根拠に注目すると仮定し,モデルも同じく根拠に注目させるように誘導する。具体的には,根拠の人手アノテーションを根拠分布に変換し, エンコーダの自己注意機構から算出した単語重要度の教師信号とする。これにより,関係予測の根拠に高い重みを配分するよう,エンコーダの自己注意機構を誘導できる。また,推論時は文の重要度を単語重要度の和とし, 重要度の高い文を根拠とすることで, 根拠認識器を撤廃し,モデルのパラメータ数やメモリ使用量の削減も実現した。これは本研究において,筆者が最も嬉しく思うところでもある。 さらにDREEAM を活用して, 根拠ラベルのないデータに根拠を自動付与し, モデルの学習に用いた(図 $1 \mathrm{~b}$ ).これは DocRE,特に根拠認識においての教師データ不足を緩和するための策である。まず人手でラベル付けされた少量の正解データでDREEAM を学習しておき,それを教師モデルとする.次に根拠ラベルの無いデータを教師モデルに入力し,疑似的な根拠を推測させる.得られた疑似根拠は教師モデルが持つ根拠認識に関する知識の表れとして,もう一つのモデル,すなわち学生モデルに模倣させることで,根拠認識に関する知識を学げせる.さらに正解データでファインチューニングを行なった学生モデルは,DocRED において DocRE と根拠認識の両方で世界最高性能 (SOTA) を達成できた。 ## 3 本研究の遂行過程をふりかえって ふりかえると,本研究を遂行できた鍵は,各段階における積極的な状況整理であった。 ## 3.1 テーマ選び:一歩踏み込んでからの状況整理 修論のテーマは文に閉じた固有表現抽出及び関係抽出だった。割と早い段階で学会論文に仕上げたが,国際会議・ジャーナルへの挑戦は四戦四敗で終わった,幸いなことに,行き場を無くしかけていた研究を本論文誌が採択してくださった (Ma et al. 2022). 2021 年 9 月から博士課程に進学し,博士号の取得という目標を見据え,同じテーマで挑むべきかについて迷いが生じたため,一度状況整理の時間を設けるようにした。 状況整理期間では, 取り掛かっていたテーマのコミュニティの動向を調べつつ,それを個人の研究に対する価値観と照らし合わせ,「もしこの方向に進んだら何ができるのか」を整理した.当時, 文に閉じた情報抽出に限らず,テキストから構造化情報を取り出すことを目的とした構造化予測 (Structured Prediction) タスクを sequence-to-sequence タスクに落とし迄む手法が頭角を現し,注目を集めた (Paolini et al. 2021).これらの手法は入出力側のテキストを緻密に設計し,構造化情報をテキストにエンコードさせた。複数の構造化予測タスクを統一された朹組みで解ける良い試みとは思ったが,より計算量の大きい生成タスクに解析タスクを落とし达むことが腑に落ちずにいた. 一方, 個人の研究遂行経験を振り返ると, 当時の実験設定でモデルがアノテーション通りに予測できなかった事例は,人間にとっても判断に迷うものであると感じ,同じベンチマークで粘るモチベーションはさほど高くなかった。このようなサーベイと自問自答を繰り返した結果, 同じテー マを続けるのは難しいと判断し,他を探すことにした,後に,長文解析への関心から DocRE に落ち着いた,踏み切るまでに時間がかかったが,正しい選択をしたと思う.気長に見守ってくださった指導教員の岡崎直観教授に深く感謝する. テーマを決めるのにあたり,気分転換がてらに参加した学外実習が助力となった。進学してから 2 ヶ月が経ち, 博論の方向性が決められずにいたため, インスピレーションを求めて NTT 人間情報研究所の冬季学外実習に参加し, クエリ指向型長文要約 (QFS) についての研究に取り組んた 2 .情報抽出とかけ離れた馴染みのないテーマであったため, 指導者の西田光甫氏と責任者の西田京介氏など,多くの方のご厄介になったが,大変貴重な経験だった,博論のテーマをDocRE に舵を切れたのも,QFS の課題であるクエリによる情報の取捨選択と DocREの課題であるエンティティの組による情報の取捨選択につながりを感じたからだと思う,QFS の研究に踏み込んだ経験も,実質状況整理の一環になったと感じた. ## 3.2 研究遂行 : 一歩引いてからの状況整理 原論文の雛形は EACL 2023 に採択されているが (Ma et al. 2023), 起稿当時は異なるストーリー を予想していた,当初では,提案手法の性能はSOTA を超えられず,数ヶ月の試行錯誤を繰り返しても性能改善の目処が立たなかったため, 仕方なく本研究をまとめて次に取り掛からうとした。と  ころが,論文の執筆は一歩引いてからの状況整理となり,転機をもたらした. 論文執筆のため, 研究遂行過程で行われた試みと関連研究で報告された試みを一通り整理し,提案手法の立ち位置を確立しようとした。このおかげで, 曖昧だった関連研究との繋がりが明白となり,全体像が見えてきた.実験の手を止め,一歩引いて全体像を眺めたところ,「検証できたこと」 と「検証できていないこと」を区別できるようになり,根拠認識の疑似ラべル付与はまだ未踏であることに気付けた。早速 DREEAM を活用した疑似根拠付与実験を試みたところ,性能が向上し, SOTAを越すことができた。これらの実験結果が得られたのは締め切りの 2 週間前であり,その後原稿を大幅に修正すべく苦労したが,最終的には納得のいく出来まで仕上げることができた。この経験から,一心不乱に実験を進めることは研究の礎石を築くが,時折一歩引いて全体像を把握しておくことこそ,芯の通る研究ができる重要なステップであると思った. 研究の全体像を把握するのにあたり,早期の起稿が有用であると感じた。上述の通り,筆を動かすことは情報や思考をまとめるのに非常に役立つものであった.今回は締切の 1 ヶ月前に執筆し始めたが,テーマを決めた時点で論文を起稿し,実験を進めるのと同時に原稿を修正していく戦略をとっていたら,より効率よく研究を進められたのかもしれない. ## 3.3 余談:提案手法の呼称について 論文執筆当初では提案手法を「DREviA ${ }^{3}$ (ドレービア)」と呼称していた.「DREEAM ${ }^{4}$ (ドリー ム)」という印象に残る呼称は, 原稿の校正で助力いただいた岡崎研究室の Macro Cognetta 氏のアイデアである。本稿の所々で述べられたように,本研究は多くの方々から支えられたからこそ成し遂げたものである。この度は数多くの優れた投稿から本論文を選出し,優秀と評価いただいたのは実に予想外であり,身に余る光栄だとも思ったが,筆者一人だけでは決して成就できなかった。 これを励みに,今後も堅実に研究を進めていきたい。 ## 4 おわりに 本稿では NLP2023で発表された主著論文「文書レベル関係抽出における根拠認識の統合」の概要と研究過程を紹介した,生成 AI が注目を浴び続ける今, 解析タスクの存在感は薄れていく一方だが,テキストや事実に忠実な解析はモデルの信憑性や解釈性を向上し,人間と AIが「分かり合える」社会を築いていく上での助力になると信じたい。また,研究が行き詰まると感じた時は,一度落ち着いて状況を整理しておくと打開策が見えてくるかもしれないことを,本稿を通して筆者のような若手研究者に伝えられると幸いである. ^{3}$ Document-level Relation Extraction with Evidence-guided Attention }^{4}$ Document-level Relation Extraction with Evidence-guided Attention Mechanism ## 謝 辞 此度の受賞にあたり, 賞選考に携わった NLP2023 選考委員会の万々に深く感謝を申し上げます. また,本記事執筆の機会をくださった編集委員の方々にも感謝を申し上げます。本稿の執筆にあたり,原論文の共著者のみなさまからコメントを頂きました. ## 参考文献 Huang, Q., Zhu, S., Feng, Y., Ye, Y., Lai, Y., and Zhao, D. (2021). "Three Sentences Are All You Need: Local Path Enhanced Document Relation Extraction." In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pp. 998-1004, Online. Association for Computational Linguistics. Ma, Y., Hiraoka, T., and Okazaki, N. (2022). "Named Entity Recognition and Relation Extraction Using Enhanced Table Filling by Contextualized Representations." Journal of Natural Language Processing, 29 (1), pp. 187-223. Ma, Y., Wang, A., and Okazaki, N. (2023). "DREEAM: Guiding Attention with Evidence for Improving Document-Level Relation Extraction." In Proceedings of the 17th Conference of the European Chapter of the Association for Computational Linguistics, pp. 1971-1983, Dubrovnik, Croatia. Association for Computational Linguistics. Ma Youmi, Wang An, 岡崎直観 (2023). 文書レベル関係抽出における根拠認識の統合. 言語処理学会第 29 回年次大会 (NLP2023), B3-3 号, pp. 605-610. [Y. Ma et al. (2023). Incorporating Evidence Retrieval into Document-Level Relation Extraction. Proceedings of the 29th Annual Meeting of the Association for Natural Language Processing, B3-3, pp. 605-610.]. Paolini, G., Athiwaratkun, B., Krone, J., Ma, J., Achille, A., ANUBHAI, R., dos Santos, C. N., Xiang, B., and Soatto, S. (2021). "Structured Prediction as Translation between Augmented Natural Languages." In International Conference on Learning Representations. Xiao, Y., Zhang, Z., Mao, Y., Yang, C., and Han, J. (2022). "SAIS: Supervising and Augmenting Intermediate Steps for Document-Level Relation Extraction." In Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 2395-2409, Seattle, United States. Association for Computational Linguistics. Xie, Y., Shen, J., Li, S., Mao, Y., and Han, J. (2022). "Eider: Empowering Document-level Relation Extraction with Efficient Evidence Extraction and Inference-stage Fusion." In Findings of the Association for Computational Linguistics: ACL 2022, pp. 257-268, Dublin, Ireland. Association for Computational Linguistics. Yao, Y., Ye, D., Li, P., Han, X., Lin, Y., Liu, Z., Liu, Z., Huang, L., Zhou, J., and Sun, M. (2019). "DocRED: A Large-Scale Document-Level Relation Extraction Dataset." In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 764-777, Florence, Italy. Association for Computational Linguistics. ## 略歴 馬尤咪: 2019 年 7 月上海科技大学情報科学専攻学部課程卒業. 2021 年 9 月東京工業大学情報理工学院修士課程修了. 同年 9 月より東京工業大学情報理工学院知能情報コース博士課程学生.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 「自己注意機構における注意の集中が相対位置に依存する仕組み」 の研究経緯 山本 悠士 $\dagger$ ## 1 はじめに 本稿では言語処理学会第 29 回年次大会 (NLP2023) において優秀賞を受賞した「自己注意機構における注意の集中が相対位置に依存する仕組み」について,論文中の各分析手法とその結果に対する私の解釈を交えながら研究の経緯を説明します. ## 2 論文の概要 自己注意機構の計算過程で得られるアテンション重み行列を可視化すると, 各トークンに対応する出力が文章中の他のトークンに依存する様子を観察することができます。この方法を用いて BERT のアテンション重みを観察すると,一部のヘッドではアテンションが各トークンの左または右側にある周辺のトークンに集中することが知られています (図 1) (Clark et al. 2019).本研究では,BERT が文脈に依存した埋め込みを出力できる理由を明らかにするための第一歩 図 1 第 1 層の 1 個目のヘッドにおけるアテンション行列 (先頭 15 トークン目まで) 図 2 第 1 層の 1 個目のヘッドにおける,直交変換されたクエリとキーの 5 列目の成分(先頭 64 トークン目まで)  として,アテンションが相対位置に依存して集中する現象を分析しました。結果として,学習に基づく位置埋め込みを用いた自己注意機構には,次の 3 つの性質: ・ 絶対位置埋め込みは学習により周期性を獲得する. - 自己注意機構は, 学習された位置埋め込みに存在する周期性を隠れ状態から抽出できる. ・クエリとキーの間には位相にズレが存在し, アテンションはこのズレの方向に向く1. があり(図 2),これらが相対位置に依存したアテンションの集中の原因となっていることを示しました。 ## 3 研究テーマ選択 まず, Transformer (Vaswani et al. 2017)における, 正弦波位置埋め込みの定義と, その幾何的解釈について説明し, その後, BERT (Devlin et al. 2019) の絶対位置埋め込みを分析したいと思った経緯を紹介します。 長さ $T$ のトークン列に対する正弦波位置埋め込み $P E \in \mathbb{R}^{T \times 2 n}$ は下式で定義されます. $ \begin{aligned} P E(t, 2 i) & =\sin \left(\omega_{i} t\right) \\ P E(t, 2 i+1) & =\cos \left(\omega_{i} t\right) \end{aligned} \quad\left(\omega_{i}=10000^{-i / n}\right) $ つまり, 位置埋め込みは, $n$ 種類の周波数 $\omega_{i}$ の正弦波と余弦波のペア $\left.\{\sin \left(\omega_{i} t\right), \cos \left(\omega_{i} t\right)\right.\}_{i}$ で構成されています。これを幾何的に考えると,位置埋め込みは空間内に $n$ 通りの円を描いていて,それぞれの円上に周波数 $\omega_{i}$ に応じた間隔で各トークンが配置されると解釈できます (図 3)。これは,時計の長針と短針が周期の異なる 2 通りの円を描いていていることに似ています。時計を使えば 2 つの時刻のうちどちらが先かを(12 時間以内であれば)判定できるように, Transformer も正弦波位置埋め込み(すなわち,複数の周期的な成分)によりトークン同士の相対位置関係を認識し,文脈に基づいて推論できると期待されています. 図 3 正弦波位置埋め込みのイメージ ^{T \times d}$ ( $d$ : 埋め込みの次元数, $T$ : 入力トークン数)を“長さが $T$ の時系列を $d$ 個束ねたもの”と捉えています. } 図 4 bert-base-uncased の位置埋め込み $\boldsymbol{p}_{i} \in \mathbb{R}^{768}(i=2,3, \ldots, 32)$ の階差配列に対して主成分分析を適用した。ただし, 文頭トークン $[\mathrm{CLS}]$ に対応する位置埋め込み $\boldsymbol{p}_{1}$ は表現が特殊なため除いた. ただし,BERT の位置埋め込みは,関数として定義された正弦波位置埋め込みではなくゼロから学習するパラメータである絶対位置埋め込みが採用されています。BERT には,入力層以降に位置に依存したパラメータが存在しないことから,位置埋め达みは文脈に基づく推論をするためには久かせないと考えられています。このような背景により,BERT の推論過程の解釈を目的とした研究で,位置埋め込みには興味の目が向けられています (Wang et al. 2021; Wang and Chen 2020). 私が位置埋め込みに興味を抱いたきっかけは,指導教員の松崎先生から提示された卒研テー マ一覧資料にあった, BERT の位置埋め込みの主成分のグラフです(図 4). 図より, BERT の位置埋め达みも正弦波位置埋め达みと同様に, 周期性を獲得していることから, BERT の位置埋め込みは正弦波位置埋め込みの一部を再現しようとしているように見えます。私は,制約を持たない深層学習モデルが人間と同じ感覚を獲得しているかのように感じ,「なぜだろう」と考え始めたことがこの研究のきっかけでした. ## 4 現象の解釈と分析の方針 本節では,図 1 のようにアテンションが集中する位置が偏る原因をどのような手順で辿ったのかを解説します。 ## 4.1 全体の方針の概要 自己注意機構の入力を $X$ とすると,アテンション重みは,クエリ $X W_{Q}$ とキー $X W_{K}$ の積 $X W_{Q} W_{K}^{T} X^{T}$ に基づいて計算されます. この積は, 入力 $X$ と線形変換した入力 $X W_{K} W_{Q}^{T}$ との間で類似度を測っているとみることができます。もし,(1) $X$ に円周上に分布するような成分(すなわち,ある周期の正弦波と余弦波のペア)が存在し, (2) $W_{K} W_{Q}^{T}$ が回転行列だとすると, $W_{K} W_{Q}^{T}$ は各トークンの位置をずらす変換であると解釈できます. 例えば,図 3 の青色の 円を時計回りに $90^{\circ}$ 回転させると Nice $\rightarrow$ to, to $\rightarrow$ meet, $\ldots$ と $i$ 単語目の埋め达みが $i+1$ 単語目の埋め込みに近づきます。その結果,各単語からのアテンションは右隣の単語へ集中します.このような効果は $(1),(2)$ を示せれば実際に発生していると言えます. ## 4.2 自己注意機構の入力に周期性はあるのか 研究初期は, 自己注意機構の入力 $X$ に対して分析をしていました. しかし, 仮に $X$ に主成分分析などの手法を適用して周期的な表現が得られたとしても,それはモデルから得た $X$ をモデルの外で変換して得たものであるため,自己注意機構が実際にその表現を利用しているかは定かではないのではないかという疑念がありました2.事前学習モデルを提供するライブラリである transformers ${ }^{3}$ を使用している場合,自己注意機構の入力 $X$ は簡単に取得できます。当時は,その手軽さに甘えてしまったことで視野が狭まり,自己注意機構の内部成分を分析していませんでした。 ## 4.3 クエリとキーに周期性はあるのか 前項の方針のもとでは,主成分分析などにより $X$ に直交行列 $U$ を掛けて $X U$ とすることで, $X$ から周期的な表現が得られないか試していました。そこで,ふと,推論に周期的な成分が必要なのであれば, クエリ $X W_{Q}$ やキー $X W_{K}$ のパラメータ $W_{Q}, W_{K}$ は, 直交行列 $U$ と同じく,埋め込みに対する視点を変えるはたらきをしているのではないかという発想が浮かびました. そこで,特異値分解によりパラメータの積を $W_{Q} W_{K}^{T}=U_{Q} S U_{K}^{T}$ と分解することで, クエリとキーの積を $X W_{Q}\left(X W_{K}\right)^{T}=\left(X U_{Q}\right) S\left(X U_{K}\right)^{T}$ に変形しました. これで得られた,入力 $X$ を直交変換した行列 $X U_{Q}, X U_{K}$ を, それぞれクエリとキーの本質的な表現と解釈しました. 第一層の一個目のヘッドでクエリ $X U_{Q}$ とキー $X U_{K}$ を計算すると, きれいな周期的な成分になります(図 2)。このような方法で,一部のへッドには,入力 $X$ に存在する周期性を抽出する軸が存在することが分かりました。 ## 4.4 自己注意機構のパラメータは回転行列を含んでいるのか 前項でキーを $X U_{K}$ と再定義しました. 特異べクトルの直交性 $U_{Q} U_{Q}^{T}=I$ を利用すると, キー をさらに $X U_{K}=X\left(U_{Q} U_{Q}^{T}\right) U_{K}=\left(X U_{Q}\right)\left(U_{Q}^{T} U_{K}\right)$ と変形することができます. これは, キー $X U_{K}$ がクエリ $X U_{Q}$ の直交変換であり,幾何的に考えれば,キーとはクエリを回転あるいは反転したものであることを意味しています. 原論文では $U_{Q}^{T} U_{K}$ の固有値と固有べクトルを分析することで,回転変換が周期的な成分が存在する次元に対して施されていたことを確認しました.以上, 本節で解説した経緯から, 中間層にある自己注意機構は, 位置埋め込みに存在する周  W_{Q}^{T}=O$ だと $X$ が興味深い表現でも自己注意機構はその表現に依存しません. 3 https://github.com/huggingface/transformers } 期的な成分を抽出することができ, さらに, クエリとキーをトークン位置方向に相対的にずらしているということを明らかにすることができました。 ## 5 今後の展望 どのようにして各トークンが周辺トークンに注意を当てているのかは大体分かりましたが, なぜ BERT がそのようなことをする必要があったのかという問いは段違いに難しいかもしれません. 深層学習モデルを相手にすると,今後もこのような謎に遭遇し続けることになります.私は強い疑問を抱くと他のやるべきことに手がつかなくなる性格なので,並列計算できるモデルに共感するのは難しそうですが,思考が本業の研究者としては良い性格だと自分に言い聞かせながら「なぜ?」と感じたことを一つずつ理解していけたらと思っています。 ## 参考文献 Clark, K., Khandelwal, U., Levy, O., and Manning, C. D. (2019). "What Does BERT Look at? An Analysis of BERT's Attention." In Proceedings of the 2019 ACL Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 276-286, Florence, Italy. Association for Computational Linguistics. Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota. Association for Computational Linguistics. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., and Polosukhin, I. (2017). "Attention is All you Need." In Guyon, I., Luxburg, U. V., Bengio, S., Wallach, H., Fergus, R., Vishwanathan, S., and Garnett, R. (Eds.), Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc. Wang, B., Shang, L., Lioma, C., Jiang, X., Yang, H., Liu, Q., and Simonsen, J. G. (2021). "On Position Embeddings in BERT." In International Conference on Learning Representations. Wang, Y.-A. and Chen, Y.-N. (2020). "What Do Position Embeddings Learn? An Empirical Study of Pre-Trained Language Model Positional Encoding." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6840-6849, Online. Association for Computational Linguistics. ## 略歴 山本悠士:2023 年東京理科大学理学部第一部応用数学科卒業. 2023 年, 現 在, 東京理科大学大学院理学研究科応用数学専攻修士課程 1 年. 言語処理学会会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 「大規模言語モデルに基づく複数の外部ツールを利用した 推論フレームワーク」の研究 稲葉 達郎† ## 1 はじめに 本稿では, 言語処理学会第 29 回年次大会(NLP2023)で優秀賞を受賞した「大規模言語モデルに基づく複数の外部ツールを利用した推論フレームワーク」について, 手法の概要と研究の過程を紹介する。 ## 2 本研究の概要 本研究の目的は,外部ツールを利用することで大規模言語モデルの能力不足を補完することである。大規模言語モデルは事前学習を通じて広範な世界知識や一定レべルの記号処理能力を獲得している一方で,専門知識や複雑な記号処理能力は不足している。例 (1)に専門知識と数値計算を要する問題例と Chain of Thought プロンプティング (Wei et al. 2022; Kojima et al. 2022)を利用した大規模言語モデルの推論過程付き解答を示す. (1) Q: What is the amount of 11 moles of Glucosamine A: The molar mass of Glucosamine is $221.22 \mathrm{~g} / \mathrm{mol}$. Therefore, 11 moles of Glucosamine would be equal to $11 \times 221.22=2434.42 \mathrm{~g}$. 推論過程をみると, グルコサミンのモル質量に 11 をかけるという推論の道筋自体は正しい. しかし, グルコサミンのモル質量 (正しくは $179.19 \mathrm{~g}$ ) と $11 \times 221.22$ の計算(正しくは 2433.42) を間違えており,これらをふまえて生成された最終的な解答も間違っている。このような問題を解くには大規模言語モデルの能力が不足していることがわかる. これらの問題を同時に解決するため, 本研究では大規模言語モデルによる推論において,複数の外部ツール利用を可能にする枠組みを提案した。図 1 に提案手法の概要を示す. 大規模言語モデルには GPT-3 (text-davinci-003) ${ }^{1}$ (Brown et al. 2020)を利用している. プロンプトは,利用可能な外部ツールを明示した説明文, いくつかの問題文と推論過程付きの解答のペア (Few-Shot 事例),解かせる問題文を結合して構成する。Few-Shot 事例として与える推論過程 ^{1}$ https://platform.openai.com/docs/models/gpt-3 } 図 1 提案手法の全体像. 出力中のハイライトは, 黄緑色が GPT-3, 黄色が電卓 (Calculator; CAL), 橙色が化学反応予測器 (Chemical reaction predictor; CRP), 紫色がモル質量検索器 (Molar mass list; MML)の出力であることを表す. には外部ツールの呼び出し方をアノテーションする.具体的には,<<外部ツール名>>の文字列を外部ツールを呼び出す文字列としてアノテーションし,その直前に外部ツールへの入力を特定のフォーマットでアノテーションする.例えば,外部ツールとして電卓 (Calculator) を利用する場合, Few-Shot 事例として与える推論過程の中で電卓を利用すべき箇所に $<<$ Calculator $>>$ の文字列をアノテーションし,その直前に電卓に与える数式をアノテーションする.推論時は GPT-3 がプロンプトに従い,与えられた問題文に対する解答を外部ツールを呼び出す文字列を含む推論過程と一緒に生成する。その時,>>の文字列が生成されたら生成を中断し,その直前の文字列から使用する外部ツールの名前とそのツールへの入力を抽出,外部ツールを実行した後,その結果を生成中の推論過程の末尾に追記する。これを新たな入力とし,GPT-3 による推論過程の生成を再開する。 提案手法の有効性を確認するため,専門知識を要する数値推論タスク NumGLUE (Task2) (Mishra et al. 2022)のもとで実験を行った. 実験の結果,提案手法が強力なベースライン手法の性能を大幅に上回り,現時点での世界最高性能を達成することを確認した,詳細については原論文 (稲葉他 2023) や関連英語論文 (Inaba et al. 2023) を参照していただきたい. ## 3 本研究の過程 本研究は筆者が学部 4 年時に行った研究であり, 2022 年 4 月の研究室配属後に研究テーマを定めたところから始まっている.筆者が所属していた研究室では,配属された学部生は教員が提示する研究テーマの中から興味を持ったテーマを出発点に据えることが多い. 自然言語処理について右も左もわからなかった筆者はありがたくこのシステムの恩恵にあずかった. 選択した研究テーマは,言語モデルが持っていない専門知識を外部知識として与えることで,該当分野における言語モデルの性能を引き上げる, というものであった. 8 月に大学院試験が控えていたこともあり, 前期のうちは自然言語処理の基本 (黒橋 2019)を勉強して少し手を動かしたり,関連論文を読むので精一杯であった。しかし今思うと,この時期に Chain of Thought プロンプティング (Wei et al. 2022; Kojima et al. 2022) や In-context 学習 (Liu et al. 2022)を知り, GPT-3 を使って楽しく遊んでいたのが後々役立っていたのかもしれない. 9 月に入り,いよいよ本腰を入れて研究を始めた。当初の研究テーマの専門知識を補完するという目的を達成するため,いくつかの方法を試した.はじめに思いついた方法は,与えられた問題を解くために必要な知識を言語モデルによって予測し,その知識の検索結果をプロンプ卜に追加するという手法であった。結果から言うとこの手法は上手くいかなかった. 推論を始める前に必要な知識を予測するのでは, 推論を進めていくうちに必要なことが発覚する知識を上手く与えられなかったからである. 11 月に入り,この問題を解決する論文 (Cobbe et al. 2021)に出会った.この論文では数値推論夕スクに着目し,推論過程の最中に現れる“=”をトリガーに電卓を実行するという手法を提案していた,電卓を検索器に置き換え,推論中に適宜検索を実行するという手法を思いつくのは難しくなかった. それと並行して,ちょうどこの時期にアルバイトで化学ドメインに特化した言語モデルに触る機会があり,これも研究に使えないかという妄想が膨らんでいた,考えてみれば,自分が例 1 のような問題を解くことになったら, 問題を解くのに必要な専門知識を調べるのは当然として,計算が複雑になってきたら電卓を吒くし, その他にも問題を解くのに便利なツールがあれば利用する,専門知識の問題を解決するために検索を駆使することばかり考えていたが,使えるものは何でも使えば良いのではないだろうか? これが複数の外部ツールを使い分けながら推論を行うという本研究のアイデアに繋がった. このアイデアを共著者の清丸さんに相談したところ「絶対に面白い」というコメントをいたたき,そこからは順調に実装を行い,実験を重ね,言語処理学会と ACL に論文を投稿するに至った. 2023 年 1 月に卒業論文を含む全ての締め切りがあり, 初めて論文を執筆する筆者にとってハードな日々ではあったが,共著者の方々のとてもとても手厚いサポートのおかげで満足のいく論文に仕上げられたと思う。ありがたいことに言語処理学会では優秀賞を受賞し,ACL で は本会議に採択された。 ## 4 おわりに 本研究はアイデアも実装も至ってシンプルである。それにも関わらず高い評価をいただけたのはタイミングが良かったからという側面があるだろう,最近では LangChain ${ }^{2}$ や Toolformer (Schick et al. 2023),ChatGPT plugins 3 など類似した研究やサービスが多く見受けられる。そして,共著の清丸さん, Fei さん, 黒橋先生のアドバイスやサポートも本研究には久かせないものであった. こういった運や研究環境に恵まれていたことを深く自覚し, 本研究の成果に驕ることなく,一歩一歩着実に歩んでいく所存である. ## 謝 辞 共著者の清丸さん, Fei さん, 黒橋先生には大変お世話になりました. 特に清丸さんには, 研究の進め方に留まらず,研究者としての心構えや,論文の書き方等多方面にわたる助言をいただきました.どんな小さいことでも椎めてくださる指導方針のおかげで楽しく研究を進めていくことができました。また,最後になりましたが賞選考ならびに本記事執筆の機会をくたさった言語処理学会編集委員の皆様に深く感謝いたします。 ## 参考文献 Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P., Neelakantan, A., Shyam, P., Sastry, G., Askell, A., Agarwal, S., Herbert-Voss, A., Krueger, G., Henighan, T., Child, R., Ramesh, A., Ziegler, D., Wu, J., Winter, C., Hesse, C., Chen, M., Sigler, E., Litwin, M., Gray, S., Chess, B., Clark, J., Berner, C., McCandlish, S., Radford, A., Sutskever, I., and Amodei, D. (2020). "Language Models are Few-Shot Learners." In Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Curran Associates, Inc. Cobbe, K., Kosaraju, V., Bavarian, M., Chen, M., Jun, H., Kaiser, L., Plappert, M., Tworek, J., Hilton, J., Nakano, R., Hesse, C., and Schulman, J. (2021). "Training Verifiers to Solve Math Word Problems." arXiv preprint arXiv:2110.14168.  Inaba, T., Kiyomaru, H., Cheng, F., and Kurohashi, S. (2023). "MultiTool-CoT: GPT-3 Can Use Multiple External Tools with Chain of Thought Prompting." arXiv preprint arXiv:2305.16896. 稲葉達郎, 清丸寞一, Fei Cheng, 黒橋貞夫 (2023). 大規模言語モデルに基づく複数の外部ツールを利用した推論フレームワーク. 言語処理学会第 29 回年次大会発表論文集, pp. 2066-2071. [T. Inaba et al. (2023). Reasoning Framework with Using Multiple External Tools Based on LLMs. In Proceedings of the 29th Annual Meeting of the Association for Natural Language Processing, pp. 2066-2071.]. Kojima, T., Gu, S. S., Reid, M., Matsuo, Y., and Iwasawa, Y. (2022). "Large Language Models are Zero-Shot Reasoners." In Advances in Neural Information Processing Systems. 黒橋貞夫 (2019). 自然言語処理〔改訂版〕. 放送大学教育振興会. [S. Kurohashi (2019). Shizengengosyori 〔Kaiteiban〕. Housoudaigaku Kyouikushinkoukai.]. Liu, P., Yuan, W., Fu, J., Jiang, Z., Hayashi, H., and Neubig, G. (2022). "Pre-Train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing." ACM Computing Surveys, 55 (9). Mishra, S., Mitra, A., Varshney, N., Sachdeva, B., Clark, P., Baral, C., and Kalyan, A. (2022). "NumGLUE: A Suite of Fundamental yet Challenging Mathematical Reasoning Tasks." In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 3505-3523, Dublin, Ireland. Association for Computational Linguistics. Schick, T., Dwivedi-Yu, J., Dessì, R., Raileanu, R., Lomeli, M., Zettlemoyer, L., Cancedda, N., and Scialom, T. (2023). "Toolformer: Language Models Can Teach Themselves to Use Tools." arXiv preprint arXiv:2302.04761. Wei, J., Wang, X., Schuurmans, D., Bosma, M., brian ichter, Xia, F., Chi, E. H., Le, Q. V., and Zhou, D. (2022). "Chain of Thought Prompting Elicits Reasoning in Large Language Models." In Advances in Neural Information Processing Systems. ## 略歴 稲葉達郎:2023 年京都大学工学部電気電子工学科卒業. 同年より京都大学大学院情報学研究科知能情報学コース修士課程在籍中. 言語処理学会, ACL 各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 「埋め込み表現の意味適応による知識ベース語義曖昧性解消」が できるまで 水木 栄 ${ }^{\dagger, \dagger \dagger}$ ## 1 はじめに 本稿では, 言語処理学会第 29 回年次大会にて優秀賞を頂戴した「埋め込み表現の意味適応による知識ベース語義曖昧性解消」(水木, 岡崎 2023) および EACL2023 採択論文 “Semantic Specilization for Knowledge-based Word Sense Disambiguation" (Mizuki and Okazaki 2023) (以下, 本研究)の概要および研究過程での試行錯誤を紹介する. ## 2 本研究の概要 辞書のような語彙資源を用いて文中の単語(対象語)の語義を識別する夕スクを,知識ベー ス語義曖昧性解消 (WSD) とよぶ。語彙資源には語義を説明したテキスト,いわゆる語釈文が書いてある。そこで有望な方法論は, BERT 埋め込みを用いて対象語に最も近い語釈文を選ぶことである (Wang and Wang 2020). しかし, もしも対象語と正解語義の埋め込みを近付ける手段があれば,さらに性能が伸びるはずた。これをふまえて,本研究では埋め込み表現の意味適応を提案した (図 1). 提案手法は, 吸引・反発学習および自己学習を併用して, 埋め込み間の近さ・遠さを変更する。吸引・反発学習では WordNet に書かれている意味関係を訓練データとして,意味的に関連がある語義対を近付け,無関連および異なる語義対を遠ざける,自己学習では平文コーパスを訓練データとして,対象語の最近傍にある語義を擬似正解とみなして,単語一語義対を近付ける。適応させた埋め込みによる最近傍法は, 知識ベース WSD の最高性能を更新した。詳細は原論文を参照されたい. ## 3 回り道 ここからは,筆者が研究成果を得るまでにたどった,試行錯誤という名の回り道を紹介させていたたく,研究活動は経路探索に似ている.問題の決定, 解き方の考案, 実験のデザインな  図 1 提案手法の概要. 語釈文と対象語の BERT 埋め达みを変換して, 埋め达み間の近さ・遠さを変更する (左). 変換関数の最適化は, 吸引・反発学習(中)と自己学習(右)を併用する. ど,さまざまな選択をした末に成果の公表という目的地に到達する。だが経路探索の常として,振り返るとたいてい回り道をしたことに気づく。そして思うのだ。最短経路を選ぶ先見の明があれば○月には論文にできてたな,次はもっとうまくやりたい,と,惜しむらくは,他者の論文を読んでも探索能力の修得はむずかしいことだ。なぜなら分岐は存在しなかったかのごとく,基本的には最短経路のみが説明されるためである。たから筆者は本稿をお借りして, こんな迷い方をする輩がいるのだと紹介することで, 他山の石にでもしていただければと思い立った.回り道は無数にあるゆえに $N=1$ の報告が眉喠に過ぎないとは承知しているが,それでも意図しておなじ回り道を選ぶ者は稀だろうから。 あらかじめ, ふたつお断りしておく. ひとつは,筆者の研究業績は「方法に関する論文」(丸山 2019; 近藤 2018) に偏っていることた。,他の論文タイプならまた別の迷い方があるだろうと思う。もうひとつは,当該論文タイプによく見られる,夕スク特化型手法の提案およびベンチマークの性能向上をもって貢献とする研究方策の賞味期限が近いかもしれないことた. 大規模言語モデルが普及する中では,研究方策そのものの変化が不可避ではないかと感じている. ## 3.1 解き方を決めてから問題を選ぶ さて, ひとつめの回り道は, 問題の解き方を決めてから解けそうな問題を探したことである.筆者は過去に,単語埋め込みを階層性のあるコード表現 1 に変換することで上位下位関係を識別する研究 (水木, 岡崎 2021a, 2021b) を行った. このときに階層性を扱う数学的な方法論を修得したので,その経験を再利用して二匹目のどじょうを狙おうと決めた。さっそく文献を調査すると, 含意関係認識, オントロジー構築, 細粒度の固有表現認識などが候補として見つかった.一方で語彙意味論のタスクである語義曖昧性解消なら, 前の研究と分野が地続きなので勝手を  理解しやすい. こうした経緯を経て,筆者は知識ベース WSDタスクを選択した。知識ベース WSD では語義注釈付きコーパスではなくWordNetのような語彙資源を使うが,WordNet に書かれている上位下位関係を集めると階層構造になるので,これを活用することで手法の独自性と性能面の優位性を示そうと考えた。つまり筆者は,階層性を活用するという解き方を決めてから,知識ベース WSD という問題を選んだのだ。 結論を述べると, この研究態度は泥沼へのいざないであり, さまざまなアイディアを試行錯誤しても有効な手法に結実しなかった。たしかに意味の階層性は重要な手がかりである。たとえば mouse は多義語だが, 動物としての語義は animal, 機器としての語義は device と上位下位関係にあるので,文脈からトピックを判別できれば解けたも同然である。だが意味関係には,対義・因果・属性など,非階層的な種類がいくつもある,そもそも上位下位関係が拈よそ整然とした木構造をなすのは名詞のみであり, 動詞は含意関係で代用しても木というより森になる ${ }^{2}$.副詞および形容詞に至っては階層的な意味関係は未定義である。単語の意味関係的知識は本質的に木構造ではなくネットワーク構造なのである。それにもかかわらず階層性を活用すると決めてかかった時点で,筆者は自ら不利な条件を負っていた.若干の弁明をすると,筆者もほどなくして無理筋らしいことには気がついた。だが研究を始めた動機が階層性の活用であるうえに,独自性や優位性も考え直しだ思うと気が重く,他の方法論に切り替える決断をためらった.数学的に巧みな解法に対する羡望があったことも遠因だ万う,ともあれ,ようやく階層性へのこだりを捨てたときには,4つのアイディアと 1 年間を消費していた. 特定の手法から研究の着想を得ることは珍しくないし,素直に成功することもある.たとえば変分オートエンコーダや非自己回帰モデルで解けそうな問題を考察するのが悪いことだとは思えない.だが道理にしたがうならば,何を解くかが先で,どうやって解くかは後にすべきなのだろう。その順序を逆にした研究態度は,非本質的な制約や認知的な視野狭窄を招く危険性が高いのだと思う。 ## 3.2 問題の観察を怠る ふたつめの回り道は,解いている問題の様子を観察せずに,解き方を試行錯誤したことである. 提案手法は最近傍法で語義を予測するので, 正解語義が対象語に最も近くなるように, 単語と語釈文の BERT 埋め込みを変換すればよい,実験を始めてみると,既存研究に性能が並ぶまでは順調に進んだが,そこからの向上が停滞した。そこで筆者は細部をいじってみることにした. 本研究で提案した吸引・反発学習は対照学習とほぼ同一だから,豊富な研究事例からいくらでもアイディアが出せる.距離計量(損失関数)を取り替えたり,正例・負例の作り方を変えてみたり。だが性能はなかなか伸びない。そうするうちに, そもそも埋め込みの類似度が  どうなってるのか,ふと気になった,埋め込みを動かす目的は言うまでもなく,対象語の最近傍語義を不正解から正解に入れ替えることた,それにもかかわらず,どのくらい動かす必要があるのか調べたことがなかった。さっそくcosine類似度を計測してみると, $90 \%$ の事例では正解をわずか 0.05 近付けるだけで最近傍にできるとわかった. つまり原理的には, BERT 埋め込みは既にいいところまで来ていて,あとは微調整で十分なのた。さっそく埋め达みを動かす変換関数に距離制約 3 を組み込んでチューニングしたところ,それまでの停滞が嘘のように性能が伸びた。ついでに肩の力も抜けた。 提案手法の周辺を試行錯誤するのはなんら不自然ではない.特に目標まであと一歩という場合はなおさらだ。だが取っかかりのよさだけが動機だとしたら,それはいわゆる,街灯の下で鍵を探す行為だと自制すべきかもしれない。また仮に成功しても「ヤッコウ論文4」(丸山 2019) の域を出ない懸念もある,翻って問題を観察することは,直感的には最短経路から外れるようだが,欠けているものを見通す解釈力を授けてくれる可能性がある。会議や研究発表ではしばしば誤り事例分析の有無を問われるが,これは観察の重要性を示す証拠の一つであろう. ## 4 おわりに 実のところ,筆者は回り道に否定的ではない。ふとした時に過去の徒労を思い出してひとり苦笑いするとき,同時にすこし進歩した自分を発見して,ささやかな喜びを感じるからだ。それに正例と負例の両方から学習するのは,なにも統計モデルの専売特許ではなかろう。一方で業績の生産性に対する憧れも抗しがたく,自戒や反面教師として非才を告白した次第である。 最後に,賞選考および本稿執筆の機会をくださった編集委員の皆様に感謝を表する.時宜を捉えたとは言いがたい研究課題にもかかわらず,丁寧な評価を頂戴した。また共著者および指導教官である岡崎教授に感謝する。回り道の自覚は,しばしば先生との議論からもたらされた。 自分なりに納得のゆく研究を行うことを目標として,今後も研さんに励みたい。そして願わくは,次こそはもっとうまくやりたいものだ. ## 参考文献 近藤克則 (2018). 研究の育て方 : ゴールとプロセスの「見える化」. 医学書院. [K. Kondo (2018). Kenkyu no Sodatekata: Goru to Purosesu no "Mieruka". Igaku Shoin.].  丸山宏 (2019). 新・企業の研究者をめざす皆さんへ. 近代科学社. [H. Maruyama (2019). Shin $\cdot$ Kigyo no Kenkyusha wo Mezasu Minasan e. Kindai Kagaku Sha.]. 水木栄, 岡崎直観 (2021a). 階層コード表現学習による上位下位関係の識別. 情報処理学会論 文誌データベース (TOD), 14 (4), pp. 8-23. [S. Mizuki and N. Okazaki (2021a). Learning Hierarchical Code Representation for Hypernymy Detection. IPSJ Transactions on Databases (TOD), 14 (4), pp. 8-23.]. 水木栄, 岡崎直観 (2021b). 階層コード表現を用いた上位下位関係の識別. 言語処理学会第 27 回年 次大会 (NLP2021), pp. 1236-1241. [S. Mizuki and N. Okazaki (2021b). Kaiso Kodo Hyogen wo Mochiita Joi Kai Kankei no Shikibetsu. Proceedings of the 27th Annual Meeting of the Association for Natural Language Processing, pp. 1236-1241.]. Mizuki, S. and Okazaki, N. (2023). "Semantic Specialization for Knowledge-based Word Sense Disambiguation." In Proceedings of the 17th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 3449-3462. 水木栄, 岡崎直観 (2023). 埋め込み表現の意味適応による知識ベース語義曖昧性解消. 言語処理 学会第 29 回年次大会 (NLP2023), pp. 622-627. [S. Mizuki and N. Okazaki (2023). Umekomi Hyogen no Imi Tekio niyoru Chishiki Besu Gogi Aimaisei Kaisho. Proceedings of the 29th Annual Meeting of the Association for Natural Language Processing, pp. 622-627.]. Wang, M. and Wang, Y. (2020). "A Synset Relation-enhanced Framework with a Try-again Mechanism for Word Sense Disambiguation." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, pp. 6229-6240. ## 略歴 水木栄:2009 年東京大学大学院工学系研究科修士課程修了. 金融機関を経て, 2015 年株式会社ホットリンク入社. 2018 年東京工業大学情報理工学院博士後期課程入学, 現在に至る. ACL, 言語処理学会各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# Evaluating the Robustness of Discrete Prompts 石橋陽一† ## 1 はじめに 本解説記事では EACL2023 に採択された著者ら1の論文 "Evaluating the Robustness of Discrete Prompts" (Ishibashi et al. 2023) について紹介する。本研究では人間が作成したプロンプトと自動学習されたプロンプトについて頑健性の観点で比較・分析を行い,自動プロンプトが探索で得られたトークンやその位置に対し強く依存していることを明らかにした。 ## 2 背景 事前学習済み言語モデル (PLM) は感情分析 (Gao et al. 2021), 自然言語推論 (Schick and Schütze 2021, 2022), 関係抽出 (Shin et al. 2020) など,あらゆる自然言語処理タスクで大きな成功を収めている。これには答えを誘導する適切な指示文(プロンプト)が重要な役割を果たしており,現代の自然言語処理において重要なトピックとなっている,一般に,プロンプトは人間によって書かれるが,優れたプロンプトを作成することはいくつかの理由から容易ではない.まず,特定のドメイン(例:医療)の問題に対し良いプロンプトを作成する事は難しいという点が挙げられる。そのようなプロンプトを作成するためにはそのドメインに関する深い知識が重要となるが,特定のドメインに精通した専門家(例:医者)を常に準備することは現実的に困難である。また,人間が書くプロンプトは作成者によるばらつきがある上,全てのコー ナーケースをカバーできるわけではない。そこで,少数の訓練データから自動でプロンプトを学習する方法 (Shin et al. 2020; Deng et al. 2022) が注目されている. これは人間が手動でプロンプトを作成する代わりに,機械学習により自動的に最適なプロンプトを探索する技術である.例えば最も代表的な手法である AutoPrompt (Shin et al. 2020) は PLM のパラメタを固定し,プロンプトテンプレートのトークンを語彙から探索する方法である. 数多くの下流タスクで優れたパフォーマンスを達成している AutoPrompt だが,得られたプロンプトは人間が書いたものとは大きく異なることが知られている。その一例として,表 1 に関係抽出において学習された自動プロンプトを示す. AutoPromptが高い性能を示す一方で, 我々  表 1 関係抽出における手動プロンプト (Manual) と自動プロンプト (AP)の例. 関係ごとのプロンプトと Precision@1 (P@1) スコアが示されている. 人間の直感に反するような単語(例:fluent!?ẗraditional)やスペルミス(例:commuenrug)が含まれている. AutoPrompt がFew-shot の設定で訓練されている事を考慮すると,このような直感に反したプロンプトは少数の訓練サンプル中のランダムなアーティファクトを捕らえているだけであり,ターゲットタスクに対して汎化できていない可能性がある。そこで我々はプロンプトの頑健性について注目し, 次の疑問 (1) プロンプトに微小でランダムな摂動を加えた場合, ターゲットタスクの性能はどのように変化するのか?(2)プロンプトはドメイン外のデー 夕に対して汎化しているのか?という点に焦点をあてる.頑健性が低いプロンプトでは,句読点を削除するような一見無害な摂動が下流タスクの性能を大きく変化させることがある.したがってこのようなプロンプトの頑健性の評価は良いプロンプトの設計や自動学習されたプロンプトの性質を理解する上で非常に重要である。本研究では,プロンプトの頑健性を分析するために 4 種類の摂動を設定し, これらに対する自動プロンプト学習と手動プロンプトの頑健性を比較・分析する. ## 3 プロンプト学習 このセクションでは手動プロンプトおよび自動プロンプトの代表的な手法を説明する。なお本研究で扱うプロンプト学習法はマスク言語モデルを対象とするものである.また,本研究では共通のタスク(自然言語推論 (NLI) タスク)で評価を行う。 ## 3.1 自動プロンプト AutoPrompt (Shin et al. 2020) はプロンプト学習の代表的な手法で, その学習戦略は fill-inthe-blank タスクに基づいている. この方法では, 初めに手動で作成したプロンプトテンプレー 卜(例えば,[夕スク入力]T>... <T> <MASK>)が与えられる.このテンプレート内の特殊トークンであるくT>(トリガートークン)をその他のトークンに置換し,夕スク性能を向上させるトークンを探索する。トリガートークンの探索時, プロンプト $x_{\text {prompt }}$ における<MASK>のトー クンを予測しクラス確率に変換する,具体的には,ラベル $y$ に対応するトークン集合 $V_{y}$ (例え ば,NLIにおいて contradiction ラベルに対し'nobody'や 'nor'といったトークン)を事前に定義しておき,そのトークンの確率の和をクラス確率 $p\left(y \mid x_{\text {prompt }}\right)=\sum_{w \in V_{y}} p\left(<\mathrm{MASK}>=w \mid x_{\text {prompt }}\right)$ とする。そして Gradient-guided search によって言語モデルの語彙からトリガートークンの候補セットを見つける,我々は NLI 用のテンプレートとして, (Shin et al. 2020) が提案したものを使用した([前提文] <MASK> くT> ... <T> [仮説文 $]$ ). ## 3.2 手動プロンプト 手動プロンプトには,マスク言語モデル全体を訓練データで微調整する Pattern-Exploiting Training (PET) (Schick and Schütze 2021)を採用した.この手法では, 手動で書かれたプロンプト用のテンプレートを用いる,具体的には,〈MASK>を含むテンプレートを入力とし, ラベルに対応するトークンを予測するように学習を行った。なお,プロンプトテンプレートおよびラベルとトークンの対応 (verbalizer) はあらかじめ定義されたものを使用する. 我々は, 先行研究 (Schick and Schütze 2021; Scao and Rush 2021) が使用したテンプレート hypothesis? । <MASK>, premise と, verbalizer \{entailment: "yes", contradiction : "no", neutral : "maybe"\}を使用した. (Schick and Schütze 2021) は異なるテンプレートを使用して複数のファインチュー ニングを行うアンサンブルベースの方法を提案しているが, AutoPrompt では単一のテンプレー トが使用されるため, 我々の実験で公平な比較をするため, 我々は一つのテンプレートを使用した。 ## 4 実験 ## 4.1 実験設定 手動プロンプトと自動プロンプトを比較する評価タスクとして, 与えられた 2 つの文の間の関係を予測する自然言語推論 (NLI) を採用した。これはプロンプト学習を評価または提案した以前の研究でも使用されている (Shin et al. 2020; Scao and Rush 2021; Webson and Pavlick 2022). 具体的には我々は 2 つのデータセットを使用した:CommitmentBank (CB), Multi-Genre Natural Language Inference Corpus (MNLI). これらのデータセットの各文ぺアは,含意,中立,または矛盾でラベル付けされている。また, 頑健性を評価する指標としてスコアの下落率を使用した. これは,プロンプトに摂動を加えた後にターゲットタスクのスコア(精度, F1 スコア)が元のスコアからどの程度低下するかを表す。したがって, ある摂動を加えた後のモデルの下落率が小さい場合, そのモデルはその摂動に対して頑健であると見なされる。また, 事前学習済みの言語モデルには AutoPrompt などプロンプト学習の先行研究 (Shin et al. 2020; Scao and Rush 2021) で頻繁に使われている RoBERTa-large (Liu et al. 2019)を使用した. 訓練データには, オリジナルの訓練データから少数のインスタンスをランダムに抽出したサブセットを用いた。各手法の訓練 データ数による性能の変化を調査 ${ }^{2}$ するため訓練データ数 $n \in\{10,15,20,30,50,70,100,150,200\}$ を変更し, 複数のサブセットを作成した。なお, 少数データにおける特徴の偏りを考慮し, 訓練データ数あたり 4 つの異なるサブセットを作成した。最終的に得た最適なプロンプトおよびモデルを使用して頑健性の評価実験(4 種類の摂動「トークン並び替え」「トークン削除」「ドメイン外データへの適用」「タスク入力への敵対的摂動」)を行った。 ## 4.2 トークン並び替え プロンプト内のトークンの順序が結果にどの程度影響を与えるかを調查するため,プロンプトテンプレートのトークンをランダムに並び替えてパフォーマンス(精度またはF-score)にどのような影響があるかを評価する。この実験により AutoPrompt はトークンの順序に強く依存していることがわかった。,具体的には,トークン並び替えによってタスクのパフォーマンス フォーマンスに大きな影響を与えることを示唆している。一方で手動プロンプトの場合は最大で 9\%と AutoPrompt よりも大きな下落は確認できず,比較的頑健であることがわかった. ## 4.3 トークン削除 この実験では, 個々のプロンプトトークンが全体のプロンプトに対してどれだけ重要な影響をもつのかを評価する。具体的には,プロンプトテンプレートから一つ以上のトークンを削除し,パフォーマンスの下落率を計算する。結果として,トークンが削除されると AutoPrompt そして手動プロンプトの両手法で性能が大きく下がった。 具体的には AutoPrompt は最大 $10 \%$,手動プロンプトは最大 $15 \%$ 下落した. また, 削除しても大きな下落が見られないトークンも存在する事, さらに,両手法で性能が下がるデータセットは異なる事から,個々のトークンの重要度がデータセットに依存することが示唆された。 ## 4.4 ドメイン外データへの適用 この実験では,我々が用意した 2 つのデータセット(CB と MNLI)のうち,片方を学習に,片方を評価に使用することで,プロンプトが学習環境と異なるデータに汎化するかを評価する。実験の結果, 両手法では CB でのプロンプトを MNLI に使用するとパフォーマンスが下がることが見られた (逆も同様)。これらの結果は, プロンプトのパフォーマンスがデータセット依存であり,学習されたプロンプトがデータセット間でうまく汎化しないことを示している.  ## 4.5 タスク入カへの敵対的摂動 この実験ではタスク入力が敵対的摂動を加えられた際の両手法の頑健性を評価する。まず我々は,MNLIと CB からランダムにサンプリングした評価用インスタンスから,敵対的 NLI デー タセットを作成した,ここでは,仮説文を 2 名のアノテータが手動で修正した。ここでは前提文は変更せずに仮説文を変更する。具体的には次の 2 通りの敵対的摂動を加えた,(a) ターゲットラベルは変更せず仮説文の一部を変更,(b)夕ーゲットラベルは変更(例えば含意ラベルを矛盾に,またはその逆)に反転し仮説文の一部を変更.実験の結果,両手法が,ターゲットラベルを変更しない摂動 (a) に対しては比較的頑健であるが,ラベルを変更する設定 (b)では手動プロンプトのパフォーマンスが大きく下落した。これは, AutoPromptが手動プロンプトよりも敵対的摂動に対して比較的頑健であることを示唆している. ## 5 おわりに 本研究は, 人間が書くプロンプトと自動で学習されたプロンプトを頑健性という観点で比較をした。人手で書かれたプロンプトがトークン削除やシャッフルのような摂動に対して頑健であるという事実は,プロンプトの設計と頑健性の向上に関する戦略を再考するための重要な洞察である。一方で人間が書くプロンプトであれば良いというわけではなく, ターゲットタスクに応じて細かな調整が必要である. ChatGPT (GPT-4) のようなモデルでさえ, 特定の出力を引き出すためにプロンプトを経験的に調整する必要があるというのが現状である. 人間が書くプロンプトは自動プロンプトと違い,文法や語彙などの言語的制約を受けているため, 同様の指示内容であれば意味空間では大きな変化が生じないと思われるが, 現状は強力な言語モデルであってもプロンプトの僅かな変化に非常に敏感である.今後,言語モデルの発展によりこのような調整が不要になる日が来るかもしれない。より強力な言語モデルが出現したとき,プロンプトの調整が必要となるのかは興味深い問題である. ## 参考文献 Deng, M., Wang, J., Hsieh, C.-P., Wang, Y., Guo, H., Shu, T., Song, M., Xing, E. P., and Hu, Z. (2022). "RLPrompt: Optimizing Discrete Text Prompts With Reinforcement Learning." CoRR, abs/2205.12548. Gao, T., Fisch, A., and Chen, D. (2021). "Making Pre-trained Language Models Better Few-shot Learners." In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 3816-3830, Online. Association for Computational Linguistics. Ishibashi, Y., Bollegala, D., Sudoh, K., and Nakamura, S. (2023). "Evaluating the Robustness of Discrete Prompts." In Vlachos, A. and Augenstein, I. (Eds.), Proceedings of the 17th Conference of the European Chapter of the Association for Computational Linguistics, EACL 2023, Dubrovnik, Croatia, May 2-6, 2023, pp. 2365-2376. Association for Computational Linguistics. Liu, Y., Ott, M., Goyal, N., Du, J., Joshi, M., Chen, D., Levy, O., Lewis, M., Zettlemoyer, L., and Stoyanov, V. (2019). "RoBERTa: A Robustly Optimized BERT Pretraining Approach." CORR, abs/1907.11692. Scao, T. L. and Rush, A. M. (2021). "How Many Data Points is a Prompt Worth?" In Toutanova, K., Rumshisky, A., Zettlemoyer, L., Hakkani-Tür, D., Beltagy, I., Bethard, S., Cotterell, R., Chakraborty, T., and Zhou, Y. (Eds.), Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, NAACL-HLT 2021, Online, June 6-11, 2021, pp. 2627-2636. Association for Computational Linguistics. Schick, T. and Schütze, H. (2021). "Exploiting Cloze-Questions for Few-Shot Text Classification and Natural Language Inference." In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 255-269, Online. Association for Computational Linguistics. Schick, T. and Schütze, H. (2022). "True Few-Shot Learning with Prompts-A Real-World Perspective." Transactions of the Association for Computational Linguistics, 10, pp. 716-731. Shin, T., Razeghi, Y., Logan IV, R. L., Wallace, E., and Singh, S. (2020). "AutoPrompt: Eliciting Knowledge from Language Models with Automatically Generated Prompts." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 4222-4235, Online. Association for Computational Linguistics. Webson, A. and Pavlick, E. (2022). "Do Prompt-Based Models Really Understand the Meaning of Their Prompts?" In Carpuat, M., de Marneffe, M.-C., and Ruíz, I. V. M. (Eds.), Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, NAACL 2022, Seattle, WA, United States, July 10-15, 2022, pp. 2300-2344. Association for Computational Linguistics. ## 略歴 石橋陽一:2018 年京都産業大学コンピュータ理工学部卒業. 2020 年奈良先端科学技術大学院大学先端科学技術研究科博士前期課程修了. 2023 年奈良先端科学技術大学院大学先端科学技術研究科博士後期課程修了. 博士(工学). 同年 4 月より京都大学大学院情報学研究科特定研究員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 「通時コーパス」シンポジウム 2023 小木曽智信 $\dagger$ ## 1 国立国語研究所の「通時コーパス」プロジェクト 国立国語研究所では,2009 年に始まった「通時コーパスの設計」プロジェクト(プロジェクトリーダー:近藤泰弘,田中牧郎)以来,日本語の歴史をたどることのできる「通時コーパス」の構築とこれを活用した日本語の歴史研究に取り組んできた。その成果であるコーパスは『日本語歴史コーパス』(国立国語研究所 2023) としてオンラインで年々拡張する形で公開されている. 2016 年度からの 6 年間は「通時コーパスの構築と日本語史研究の新展開」プロジェクト(プロジェクトリーダー:小木曽智信)のもとでコーパスの本格的な構築に取り組み,表 1 に示すように,奈良時代以前から明治・大正時代までの日本語の歴史をカバーするコーパスの整備がひとまず完了した. これらの歴史的資料には全く性質の異なる多様なテキストが含まれるが,いずれも全文に UniDic の短単位による形態論情報が付与されており,異なる資料間での比較や通時的変化の研究に利用可能なように設計されている。そして, 2022 年度からの 6 年間は「開かれた共同構築環境による通時コーパスの拡張」(プロジェクトリーダー:小木曽智信)の中で新たな研究計画に取り組みつつある。このプロジェクトでは,これまで専ら国語研内部で計画し構築を行ってきた「通時コーパス」 を,外部の研究者によって作られたデー夕を取り入れてまとめて利用できるようにしようという目論見のもとで,そのための環境整備も含めてコーパスの構築と活用を進めていこうとしている. 表 1 『日本語歷史コーパス』 ver. 2023.3 収録資料と語数  ## 2 「通時コーパス」シンポジウム 2009 年以来, 14 年に及ぶこれら一連の「通時コーパス」プロジェクトでは,毎年プロジェクトの成果を発信する研究発表会としてシンポジウムを開催してきた。近年では, 3 月に当該年度におけるプロジェクトの進渉報告の後, 『日本語歴史コーパス』をはじめとする日本語史研究資料の構築に関する研究と, これらを活用した日本語の歴史研究の発表を 1 日で行うことが通例となっている.コロナ禍に見舞われた 2020 年(9月に延期)からはオンラインでの開催となっている。 2022 年度から新たなプロジェクトのもとで行われた「通時コーパス」シンポジウム 2023 は, 2023 年 3 月 10 日にオンライン (Zoom) で行われ, 120 名の参加登録があり, 100 名近くの当日参加者があった. 当日参加できなかった登録者には録画配信を行った。 「通時コーパス」シンポジウム 2023 は下記の 2 つの科研費プロジェクトの共催で行われた. - 科研費基盤研究 (A) 19H00531 「昭和・平成書き言葉コーパスによる近現代日本語の実証的研究」(研究代表者: 小木曽智信) - 科研費基盤研究 (A) 21 H04349「「抄物コーパス」の構築とコーパスを応用した日本語史研究」(研究代表者:青木博史) 前者は, 『日本語歴史コーパス』を補完する形で,その後の昭和・平成期の資料をコーパスとして構築し, 現代日本語がどのように確立してきたのかをコーパスを利用して実証的に研究できるようにすることを目的としている,構築する『昭和・平成書き言葉コーパス』(小木曽他 2023) は,雑誌・ベストセラー書籍・新聞について 1933 年から 2013 年までの間を 8 年おきに 11 か年分, 合計約 3,340 万語収録した, この種のコーパスとしては大規模なものである. 2019 年度から 2022 年度までの計画期間の最終年度にあたり,ちょうどこのコーパスの公開を間近に控えている時期のシンポジウムを共催することとなった. 後者は, 室町時代の日本語研究資料として重要な抄物を『日本語歴史コーパス』と同様のコーパスとして構築し,これを活用した日本語史研究を行うことを目的としている.抄物とは,室町時代から江戸時代初期にかけて,学僧が漢詩・漢文や仏典について講義した講義録や注釈書のような資料で,口頭で行われた講義をもとにしていることから当時の口語を知ることのできる資料として極めて貴重なものとなっている。読解や形態論情報の付与に極めて専門的な知識を必要とすることから,これまでに『日本語歴史コーパス』に収録することができなかったものだが,この科研費プロジェクトによってコーパスに追加することが視野に入ってきた. 近年, 日本語学の研究においては, コーパスを活用することが当たり前のこととなってきており, なかでも日本語史の分野では,既存のコーパスに収録されていない資料を研究者が自らコーパス構築を行って研究に利用しようとするトレンドがある.上記のような大型の科研費プロジェクトから個人研究まで,さまざまな資料の研究者が,自身の専門を活かしてデー夕整備を行っている.今期の「通時コーパス」プロジェクト「開かれた共同構築環境による通時コーパスの拡張」は,こうし た流れを国語研で受け止めて,作られたデー夕を使いやすい形でまとめて提供することにより,学界に貢献することを目指している。 ## 3 口頭発表 ここからは, 3 月 10 日のシンポジウム当日の模様をまとめてお送りする. 口頭発表は前半と後半に分かれて 5 件行われた. 新しいプロジェクトになって初めてのシンポジウムということもあり,発表数は例年より少なめであったが,日本語学の研究者から自然言語処理の研究者まで幅広い分野から,しかしいずれもが「通時コーパス」をキーとした研究発表を行った。こうした研究者が一度に集まり交流が持てる機会は,これまでのところ言語処理学会でも日本語学会でも得がたいものであり, このシンポジウムの特徴となっている. 口頭発表は最初に, 小木曽が「『日本語歴史コーパス』ver. 2023.3 通時コーパス拡張進渉報告」と題して『日本語歴史コーパス』の拡張の進捗状況(表 1 の下線部が新規追加分)と,新しいプロジェクトの課題と環境整備の状況について報告を行った。コーパスのオンライン検索システム「中納言」上で,ユーザーが形態論情報の誤りを報告・相互評価し,コーパスの修正に活かすことのできるシステム「みんなごん」(小木曽,八木 2021)の運用開始は新しいトピックであった. 今回は実際に集められた誤りの修正報告をもとに,「平安時代編」の更新が行われた。 続いて,竹内綾乃氏と松崎安子氏(国立国語研究所)による「『日本語歴史コーパス』からみる江戸随筆作品の特性」の発表があった.発表者らは「通時コーパス」のプロジェクト非常勤研究員を務めており,コーパスの構築過程で得られた知見を活かしつつ,新規に構築した近世のコーパス収録資料(貝原益軒『養生訓』,新井白石『西洋紀聞』『折りたく柴の記』,室鳩巣『駿台雑話』,本居宣長『うひやまぶみ』,杉田立白『蘭学事始』)の特徴について,多変量解析等を用いて他のコー パスと比較して論じたものである. 井上誠一氏(東京都立大学)からは「トピックモデルを用いた単語の通時的な意味変化のモデル化とその応用」と題する発表があった. この研究は, 井上氏らが EMNLP2023で発表した多義語の意味変化を扱う手法 (Inoue et al. 2022) を紹介するものであったが,今回は新たに日本語のデー夕 (『日本語歴史コーパス』と『昭和・平成書き言葉コーパス』の雑誌データ)を対象とした結果を示しており, 日本語学的な視点から見て極めて興味深いものであった. 近代以降の歴史的資料のコー パスの整備は, 英語の状況にくらべて日本語は大きく及ばないが,近年のコーパス整備でようやく日本語でもこうした統計モデルを使った研究が可能になってきた.言語研究への貢献が期待されるとともにコーパス構築のモチベーションにもつながる発表であった. 凌志棟氏(東京都立大学)らによる「日本語意味変化検出の評価データセットの構築」も自然言語処理の分野からの発表であった. SemEval-2020の Task 1: Unsupervised Lexical Semantic Change Detectionのように,近年,自然言語処理の分野でも歴史的な意味変化を扱う研究が盛んに なってきており,他言語では意味変化検出の評価基準となるデータが整備されてきている.しかし,日本語では近現代語の意味変化を扱った研究 (間淵,小木曽 2021) がわずかにあるもののこうしたデータが十分に整備されていない,凌氏の発表は『日本語歴史コーパス』の明治・大正編と『現代日本語書き言葉均衡コーパス』の雑誌データから抽出した語について, 意味変化の程度をアノテー 夕に類似度で判断させ,これをもとに定量的な評価用データセットを整備しようとするものであった. 今後, 『昭和・平成書き言葉コーパス』も含めてデータセットが整備された暁には, 日本語の意味変化についても他言語と同様の評価が可能になり,新しい研究手法が日本語でも適用されるようになることが期待される。こうしたデータの整備には, 自然言語処理の知見と日本語史の知見が同時に必要とされる.このシンポジウムのような場を通して, 自然言語処理研究者と日本語史研究者のコラボレーションが進むことが期待される。 最後に, 間淵洋子氏(和洋女子大学)からは「『日本語歴史コーパス』を使った中高生向け単語帳作成の試み」の発表があった。これは通時コーパスを教育現場で応用した実践報告であり,大学院の国語科教職課程における教材開発の中でコーパスを活用したものであった. 院生のアイデアをもとに, 古典を学習する中高生向けに,コーパスを用いて頻度にもとづく重要度付き単語帳と用例集を作成する課題を行ったものである。日本語学の学習であると同時にデータサイエンス入門の側面も持つ授業となっており, 教育課程のみならず人文系の授業におけるコーパスの活用方法として今後の指針となるものであった。 ## 4 テーマセッション「『日本語歴史コーパス』を補完するデータを作る」 今回のシンポジウムでは, 口頭発表とは別に,テーマセッション「『日本語歴史コーパス』を補完するデータを作る」と題して, 短い発表 6 件と, それを踏まえたディスカッションが行われた. セッションでの発表は下記の通りである。 - 小木曽智信(国立国語研究所)「『昭和・平成書き言葉コーパス』と権利処理」 - 片山久留美(国立国語研究所)「近世読本コーパス構築の課題一『忠臣水滸伝』を例に」 - 近藤明日子 (東京大学)「明治前期口語体実用文データセットの作成」 - 高橋雄太・田中牧郎 (明治大学)「明治理科教科書コーパスの公開 —OpenCHJ のモデルケースとして一」 - 古田龍啓 (九州大学) 「抄物コーパスの構築へ向けて」 - 松崎安子・竹内綾乃(国立国語研究所)「『日本語コーパス江戸時代編 IV』ver. 0.8 随筆作品の構築と公開」 『日本語歴史コーパス』は, 上代の『万葉集』から近現代の活字資料まで, 日本語史研究で必要とされる資料を多く収録してきたが,まだまだ不足している資料が少なくない,そうした資料をとりこんで通時コーパスを補完していくために何が必要となるのか.このセッションでは実際にデー 夕構築を行っている研究者に集まってもらい, 自身が作っているデータの概要と構築上の課題, その解決のために必要なものについて議論を行った. 紙幅の関係で詳細は省くが,それぞれの資料の原文の特徵を踏まえたテキストのアノテーションの問題, 形態素解析とその修正の問題,権利処理の問題,整備した資料の公開形態の問題などが議題となった。「開かれた共同構築環境による通時コーパスの拡張」のために,プロジェクトでアノテーションのガイドラインを提供したり, データ整備・公開のためのツールを用意したりしてサポートすることの必要性などが話し合われた。 ## 5 おわりに ここで紹介した発表は,いずれも「通時コーパス」の構築や活用に関わるユニークなもので,このシンポジウムならではのラインナップとなっているといえるだろう,コーパスを利用した研究自体が珍しかった「通時コーパス」プロジェクトが始まった当初とは異なり,今ではコーパスを活用したオーソドックスな日本語史研究は, 日本語学会などで普通の研究発表として行われるようになった. 今後さらに,このシンポジウムのような場を通して,自然言語処理と日本語史が融合した研究が自然に行われるようになって,新たな発見や応用を生み出していくことに期待したい。そのために, ぜひ多くの自然言語処理の研究者に日本語の歴史的研究に関心を持っていただけると幸いである.今後も行われる「通時コーパス」プロジェクトの活動にぜひ注目していたたきたい. ## 謝 辞 本稿は, 国立国語研究所共同研究プロジェクト「開かれた共同構築環境による通時コーパスの拡張」による成果の一部である. ## 参考文献 Inoue, S., Komachi, M., Ogiso, T., Takamura, H., and Mochihashi, D. (2022). "Infinite SCAN: An Infinite Model of Diachronic Semantic Change." In Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing, pp. 1605-1616, Abu Dhabi, United Arab Emirates. Association for Computational Linguistics. 国立国語研究所 (2023).日本語歴史コーパス. https://clrd.ninjal.ac.jp/chj/. [National Institute for Japanese Language and Linguistics (2023). Nihongo Rekishi Kopasu. https://clrd.ninjal.ac.jp/chj/]. 間淵洋子, 小木曽智信 (2021). 近現代日本語の意味変化分析のための単語データセット構築の試み. 言語処理学会第 27 回年次大会発表論文集, pp. 1166-1170. 言語処理学会. [Y. Mabuchi and T. Ogiso (2021). Kingendai Nihongo no Imi Henka Bunseki notameno Tango Detasetto Kochiku no Kokoromi. Proceedings of the 27th Annual Meeting of the Association for Natural Language Processing, pp. 1166-1170.]. 小木曽智信, 近藤明日子, 高橋雄太, 田中牧郎, 間淵洋子 (2023). 昭和・平成書き言葉コーパス. https://clrd.ninjal.ac.jp/shc/. [T. Ogiso et al. (2023). Showa-Heisei Corpus of Written Japanese. https://clrd.ninjal.ac.jp/shc/]. 小木曽智信, 八木豊 (2021). 『日本語歴史コーパス』の誤り修正プラットフォームの開発. じんもんこん 2021 論文集, 2021 (2021), pp. 206-211. [T. Ogiso and Y. Yagi (2021). Development of a platform for error correction of the Corpus of Historical Japanese. Proceedings of Jinmoncom 2021, pp. 206-211.]. ## 略歴 小木曽智信:1995 年東京大学文学部日本語日本文学 (国語学) 専修課程卒. 1997 年同大学院人文社会系研究科日本文化研究専攻修士課程修了. 2001 年同博士課程中途退学. 2014 年奈良先端科学技術大学院大学情報科学研究科博士課程修了.博士 (工学)。明海大学講師, 独立行政法人国立国語研究所研究員等を経て, 2016 年より人間文化研究機構国立国語研究所教授、コーパスと自然言語処理技術を活用した日本語の歴史研究に関心がある.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 深層距離学習を用いた動詞の意味フレーム推定 山田 康輔 $\dagger$ ・笹野 遼平 $\dagger,+\dagger$ ・武田 浩一 $\dagger$ } 意味フレーム推定において, 文脈化単語埋め込みを用いる手法が高い性能を達成す ることが報告されている。しかし, 汎用的な埋め込み空間は, 意味的に類似したフ レームの事例が近くに位置しているという人間の直観と必ずしも一致しているわけ ではないため, 事前学習のみに基づく文脈化単語埋め込みを用いる手法の性能には 限界がある。 そこで, 本研究では, 意味フレーム推定をコーパス内の一部の動詞に ついてのラベル付きデータの存在を仮定した教師ありタスクとして取り組み, 深層距離学習に基づき文脈化単語埋め込みモデルを fine-tuning することで高精度な意味 フレーム推定を実現する手法を提案する.FrameNetを用いた実験を通し,深層距離学習を適用することで 8 ポイント以上スコアが向上することを示す. さらに,教師 データが極めて少量である場合でも,提案手法が有効であることを示す. キーワード:意味フレーム推定, 深層距離学習, 文脈化単語埋め込み, FrameNet ## Semantic Frame Induction with Deep Metric Learning \author{ Kosuke Yamada ${ }^{\dagger}$, Ryohei Sasano ${ }^{\dagger \dagger \dagger}$ and Koichi Takeda ${ }^{\dagger}$ } \begin{abstract} Recent studies have demonstrated the usefulness of contextualized word embeddings in unsupervised semantic frame induction. However, they have also revealed that generic contextualized embeddings are not always consistent with human intuitions about semantic frames, which causes unsatisfactory performance for frame induction based on contextualized embeddings. In this paper, we tackle supervised semantic frame induction, which assumes the existence of frame-annotated data for a subset of verbs in a corpus and propose to fine-tune contextualized word embedding models using deep metric learning for high-performance semantic frame induction methods. Our experiments on FrameNet show that fine-tuning with deep metric learning considerably improves the clustering evaluation scores by about 8 points or more. We also demonstrate that our approach is effective even when the number of training instances is small. \end{abstract} Key Words: Semantic Frame Induction, Deep Metric Learning, Contextualized Word Embeddings, FrameNet  ## 1 はじめに 人の日常生活に自然言語処理システムを取り入れるとき,そのシステムに人の語に関する背景知識を与えることで,より適切な動作が行えるようになるだう。たとえば,人やロボットに「洗濯機を運んで欲しい」と依頼する場面を考える。人に依頼する場合,人は「運ぶ」という動作に対して「誰が」「何を」「どこから」「どこへ」という情報が必要であることを理解しているため,「どこへ」置いたら良いかが不明である場合には「どこへ置けば良い?」と聞き返して, 運ぶ場所を特定し, その動作を達成することができる。一方で, ロボットに依頼する場合, ロボットが「運ぶ」の知識を持っていなければ,「どこへ」置けば良いかわからないまま運び,依頼者の意図通りにならない可能性がある。意味フレームとは,このような「運ぶ」に対して 「誰が」「何を」「どこから」「どこへ」という情報が必要であるといった人が持つ語の背景知識をまとめたものであり,それを自然言語処理システムに明示的に与えることでこのような問題は解消される可能性がある。 意味フレームの代表的なリソースとして FrameNet (Baker et al. 1998; Ruppenhofer et al. 2016) が存在する. FrameNetの意味フレームは, 特定の動作や状況などの概念に対応し, そのフレームを喚起する語 (Lexical Units; LUs) とそのフレーム固有の意味役割であるフレーム要素 (Frame Elements; FEs) に関する知識で構成されている. FrameNet は高品質なリソースであるが,人手で整備されたものであることから語彙やフレームのカバレッジに限界がある。このため,大規模なテキストコーパスから動詞の意味フレームを自動構築する取り組みが行われている (Kawahara et al. 2014; Ustalov et al. 2018). しかし, これらは動詞や項の表層的な情報に基づき構築されているため,それらの出現する文脈が十分に考慮されておらず,その品質は十分とはいえない,そこで,本研究では,文脈を考慮した単語埋め込みを活用して動詞や項の出現文脈を考慮することで,より高品質な意味フレームの自動構築を目指す。これを実現するためには,動詞の意味フレーム推定とフレーム要素推定が必要であるが,本論文では,前者の動詞の意味フレーム推定に焦点を当てる. 動詞の意味フレーム推定は,テキスト中の動詞を,その動詞が喚起するフレームごとにまとめるタスクである。たとえば,表 1 に示す FrameNetの 8 つの事例の場合, 各動詞が喚起するフレームごとで事例をグループ化し, $\{(1),(2)\},\{(3),(4)\},\{(5),(6)\},\{(7),(8)\}$ の 4 つのクラス夕を形成することが目標となる。本タスクでは,事例 (1)の「cover」と事例 (2)の「fill」のように異なる動詞であっても同じ FILLING フレームを喚起する事例もあれば, 事例 (1)と (7) の動詞「cover」のように同じ動詞であっても異なるフレームを喚起する事例も存在するという特徴がある。動詞の意味フレーム推定において, ELMo (Peters et al. 2018) や BERT (Devlin et al. 2019) などの文脈化単語埋め込みの有用性が報告されている (Arefyev et al. 2019a; Anwar et al. 2019; Ribeiro et al. 2019; Yamada et al. 2021b, 2021a). 図 1 (a) は FrameNet に含まれる事例中 表 1 FrameNet 内のフレームを喚起する動詞の事例 (a) Vanilla BERT (b) Fine-tuned BERT w/ AdaCos 図 1 (a) Vanilla BERT と (b) AdaCos を用いて fine-tuning した BERT による動詞の文脈化単語埋め込 レームを示し,数字は表 1 と対応する。 の動詞の事前学習のみに基づく BERT (Vanilla BERT) による埋め込みを t-SNE (Maaten and Hinton 2008)で 2 次元に射影し, 可視化した結果である。動詞「cover」の事例 (1)と (7) は埋め込み空間上で離れている一方, 同じ TOPIC フレームを喚起する動詞の事例 (7) と (8) は近くに位置しており,ある程度,意味フレームの違いを反映した埋め込み空間であるといえる。しかし,同じフレームを喚起する動詞の事例が離れた位置に存在するケースも散見される。たとえば,同じ REmoving フレームを喚起する動詞の事例 (5) と (6) は互いに離れた位置に存在している。これは Vanilla BERT の埋め込み空間が,意味的に類似した事例が近い位置に,異なる事例が離れた位置に存在するという人の直観と常に一致しているわけではないことを意味して $いる$. 本研究では,フレームに関する人の直観をより強く反映した意味フレーム推定を実現するため,コーパス内の一部の述語に対して意味フレームラベルが付与された教師データの存在を仮定し, 深層距離学習に基づき文脈化単語埋め达みを fine-tuning することで,高精度な意味フレー 么推定を実現する手法を提案する。深層距離学習とは, 同じラべルの事例を埋め込み空間上で近づけ,異なるラベルの事例を遠ざける学習を行う手法であり,教師デー夕に基づく埋め达み空間の調整が期待できる。図 1 (b) は代表的な深層距離学習手法の 1 つである AdaCos (Zhang et al. 2019)を用いて fine-tuning したBERT による埋め达みを 2 次元に射影し, 可視化した結果である. Vanilla BERTにおいて同じ意味フレームを喚起する動詞の事例であるにも関わらず,距離が離れていた事例 (3) と (4), 事例 (5) と (6) が, AdaCos を用いて fine-tuning した BERT では,互いに近い位置に存在していることが確認できる。これは,深層距離学習によって,意味フレームに関する人の直観をより反映させた埋め达み空間が得られたことを示している。 ## 2 関連研究 意味フレームの自動構築へ向けて, テキスト中の述語を,その述語が喚起するフレームごとにまとめるタスクとして,意味フレーム同定 (frame identification) と意味フレーム推定 (semantic frame induction)の2つのタスクが存在する. 意味フレーム同定は, 事前に定義された意味フレームを与えた上で,テキスト中の述語に対して,その述語が喚起するフレームを同定するタスクである。これは意味フレーム解析のサブタスクの 1 つとして扱われることが多く, 意味フレームが事前に定義されていることを前提とするため, フレーム数をはじめとして,フレームの定義文やフレーム要素知識などのフレーム情報が利用可能な教師ありタスクとして取り組まれている。近年では,文脈化単語埋め込みモデルである BERT を用いた手法が主流となっている。たとえば,Jiang and Riloff (2021)はフレームと LUs の定義文に基づく文埋め込みを活用したフレーム同定モデルを構築しており,Su et al. (2021) はフレーム喚起語の周囲の文脈を埋め込む文脈エンコーダと,フレームの定義文とフレーム要素を埋め达むフレームエンコーダを構築し,それらに基づき生成された埋め込み表現を基にフレームを同定している,また,Yong and Torrent (2020) は,意味フレーム同定をクラスタリングタスクとして扱っている.具体的には,まず,異常検知モデルを応用することで, FrameNet に存在しないフレームを喚起する述語を除去し, その後, 述語の文脈化単語埋め込みとフレームの定義文に基づく文埋め込みを用いて,テキスト中の述語をクラスタリングすることで,意味ごとにまとめている. 意味フレーム推定は,テキスト中の述語を,その述語が喚起するフレームごとにまとめる夕スクである,多くの研究では,事前に定義されたフレームの存在を仮定せず,フレーム情報を利用しない教師なしタスクとして取り組まれており,文脈化単語埋め込みを用いた手法が提案 されている. Arefyev et al. (2019a)は,まず,BERTによるフレーム喚起語の文脈化単語埋め込みを用いて階層型クラスタリングを行い,その後,多義性のあるフレーム喚起語に対応するため,BERT を用いてフレーム喚起語の言い換えを生成し,それを基に各クラスタを 2 分することでフレームクラスタを生成している. Anwar et al. (2019) は, skip-gram (Mikolov et al. 2013) や ELMo によって獲得できる,フレーム喚起語の埋め込みと文中の全ての単語の埋め込みを平均した埋め込みを基に階層型クラスタリングを行っている. Ribeiro et al. (2019) は, フレーム喚起語の ELMo による埋め込みに基づきグラフクラスタリングを行っている. Yamada et al. (2021a)は,フレーム喚起語の文脈化単語埋め込みを用いて一度に全ての事例をクラスタリングする従来手法の欠点を改善するため, マスクされたフレーム喚起語の文脈化埋め込みと 2 段階クラスタリングを行う手法を提案している。これらの研究はすべて,教師データを使用しない教師なし意味フレーム推定に焦点を当てている。一方, 本研究では,コーパス中に出現する述語のサブセットに対してフレームがラベルづけられたデータの存在を仮定した教師あり意味フレーム推定に取り組む。 ## 3 動詞の教師あり意味フレーム推定 本研究では,より性能の高い動詞の意味フレーム推定手法を実現するため,コーパス内の一部の動詞については教師データが存在することを仮定した教師あり意味フレーム推定に取り組む. ベースライン手法として,教師なし意味フレーム推定で広く用いられているフレーム喚起語の文脈化単語埋め込みを用いてクラスタリングする手法を採用し, 教師データを用いて深層距離学習に基づき文脈化単語埋め込みモデルを fine-tuning することによって,より高性能な意味フレーム推定手法を実現する。 ## 3.1 ベースライン手法 本研究では,2つのベースライン手法を使用する.まず,シンプルなベースライン手法として,動詞の文脈化単語埋め込みを用いて一度に全ての事例をクラスタリングする 1 段階クラスタリングを導入する.クラスタリング方法には,ユークリッド距離に基づく群平均法による階層型クラスタリングを採用する。群平均法では,クラスタリングの終了条件を決める必要があるが, 本研究ではクラスタ間距離に関する閥値を導入し, その閥値より小さなクラスタ間距離となるクラスタのペアがなくなった時点でクラスタリングを終了している。間値の決定には開発セットを利用し,開発セットを対象にクラスタリングを実施した場合に,生成されるクラスタの数と,開発セット中の用例に付与されたフレームの数が等しくなるような值に設定している. もう1つのベースライン手法として,Yamada et al. (2021a)によって提案されたマスクされた単語埋め込みと 2 段階クラスタリングを導入する. マスクされた単語埋め込み $\left(v_{\text {mask }}\right)$ とは, 動詞を特殊トークン“[MASK]”に置き換えたときの文脈化単語埋め込みのことである。これは動詞の文脈化単語埋め込み $\left(v_{w o r d}\right)$ がその動詞の表層情報の影響を受けて意味ごとにまとまりにくい傾向がある欠点を解消するために提案されたものである. 本研究では, 式 (1) で定義されるように, $\alpha$ を重みとして, $v_{\text {word }}$ と $v_{\text {mask }}$ を加重平均した埋め込み $\left(v_{w+m}\right)$ を利用している. $ v_{w+m}=(1-\alpha) \cdot v_{w o r d}+\alpha \cdot v_{m a s k} $ 2 段階クラスタリングは,1 段階クラスタリングのノイズとなる事例に弱い点を指摘して提案された手法である。具体的には,1段階目に動詞ごとで事例をクラスタリング,2 段階目に動詞横断的にクラスタリングを行う手法である。ここで,1段階目で得られたクラスタは,意味ごとにまとめられた同じ動詞の事例のクラスタであるため, Yamada et al. (2021a) と同様に本論文では擬似 LU (pseudo-LU; pLU) と呼ぶことにする.クラスタリング手法として,1 段階目に X-means (Pelleg and Moore 2000),2 段階目に群平均法を用いる。それぞれのクラスタ数に関しても,Yamada et al. (2021a) と同様の手法を用いて決定する. ## 3.2 深層距離学習を用いた動詞の意味フレーム推定手法 本研究では, 深層距離学習を用いた動詞の意味フレーム推定手法を提案する。提案手法では, まず,意味フレームリソースの一部から作成した学習セットを用いて,深層距離学習に基づき文脈化単語埋め込みモデルを fine-tuning し, その後, ベースライン手法と同様の方法で, モデルから動詞の埋め込みを獲得し,クラスタリングを行うことで意味フレームクラスタを作成している. ここで提案する深層距離学習とは,埋め込み空間上で,同じラベルの事例を近づけるように,異なるラベルの事例を遠ざけるように深層学習モデルを学習する方法である (Kaya and Bilge 2019; Musgrave et al. 2020). これによって, 埋め込み空間上で, 類似したフレームの事例が近づき,異なるフレームの事例が遠ざかるため,動詞の意味フレーム推定手法の性能向上が期待される。本論文では, 距離べースと分類べースの 2 つの代表的な深層距離学習アプローチを採用する。 ## 3.2.1 距離ベースのアプローチ 距離ベースのアプローチは,一般に複数エンコーダを用いて事例ぺア間の距離を直接学習する方法である。事例ぺアは,ある事例をアンカーとし,アンカーと同じクラスの事例を正例,アンカーと異なるクラスの事例を負例としてそれぞれ作成される。本研究では,以下の 2 つ損失を導入する。 1 つ目は, Contrastive 損失 (Hadsell et al. 2006)である.これはパラメータを共有した 2 つのエンコーダを持つネットワークを用いて,事例ぺアの距離を学習するために使用される.具体 的には,正例ぺアを近づけ,負例ぺアを一定のマージン以上遠ざける学習を行うために使用される。以下の式 (2) で定義される. $ L_{\text {cont }}= \begin{cases}D\left(\boldsymbol{x}_{i}, \boldsymbol{x}_{j}\right) & i=j \\ \max \left(m-D\left(\boldsymbol{x}_{i}, \boldsymbol{x}_{j}\right), 0\right) & i \neq j\end{cases} $ ここで, $\boldsymbol{x}_{i}$ はエンコーダを用いて得られるクラス $i$ の事例の埋め达み, $m$ はマージン,$D$ は平方ユークリッド距離に基づく距離関数を意味する. 2 つ目は Triplet 損失 (Weinberger and Saul 2009) である。これはパラメータを共有した 3 つのエンコーダを持つネットワークを用いて, 事例の 3 つ組の距離を学習するために使用される.具体的には,事例の 3 つ組に対して,負例ぺアの距離を正例ぺアの距離より一定のマージン以上遠ざけるために使用される。 Triplet 損失は, 負例ぺアを正例ぺアに対して相対的に遠ざける点で Contrastive 損失とは異なる。以下の式 (3) で定義される. $ L_{\text {tri }}=\max \left(D\left(\boldsymbol{x}_{a}, \boldsymbol{x}_{p}\right)-D\left(\boldsymbol{x}_{a}, \boldsymbol{x}_{n}\right)+m, 0\right) $ ここで, $\boldsymbol{x}_{a}$ はアンカー事例の埋め込み, $\boldsymbol{x}_{p}$ は正例の埋め込み, $\boldsymbol{x}_{n}$ は負例の埋め込みを意味する. 本研究では,1つのフレームを 1 つのクラスとみなし,同じフレームの事例を近づけ,異なるフレームの事例を遠ざける学習を行うことで,よりフレームの持つ情報を反映した埋め込み表現の獲得を実現する。本研究における事例ぺアの作成方法は, 学習セット内の各事例において,その事例と同じフレームの事例を無作為に選択して正例とし,その事例と異なるフレームの事例を無作為に選択して負例としている。その際に同じ動詞の事例であるか否かは考慮していない. また, より汎用的な埋め込み空間を獲得するため, 学習時の事例ぺアはエポックごとで変更させている,マージンはハイパーパラメータであり,開発セットにおける評価スコアに基づき決定している. ## 3.2 .2 分類ベースのアプローチ 分類ベースのアプローチは,近年,顔認識タスクを中心に広く利用されている。このアプロー チの多くは,単一のエンコーダと多クラス分類のための線形層を持つネットワークを利用している. 距離ベースのアプローチと比較して, サンプリングの検討が不要である点や, 単一エンコーダであることから学習時に必要なメモリを減らすことができる利点がある。このアプロー チに用いる損失は,式 (4) に示す Softmax 損失がベースとなっている. $ L_{\mathrm{soft}}=-\log \frac{e^{\boldsymbol{w}_{i}^{\top} \boldsymbol{x}_{i}+b_{i}}}{\sum_{j=1}^{n} e^{\boldsymbol{w}_{j}^{\top} \boldsymbol{x}_{i}+b_{j}}} $ ここで, $\boldsymbol{w}_{i}$ と $b_{i}$ はクラス $i$ の線形層の重みとバイアス, $n$ はクラス数を示している. 分類ベースのアプローチでは, Softmax 損失に対して様々なマージンを導入する損失が提案されている (Liu et al. 2017; Wang et al. 2018; Deng et al. 2019). これらの損失では,線形層の重み $\boldsymbol{w}_{i}$ をクラス $i$ の埋め込みと捉え, 事例とクラスの埋め込みの距離を学習するように設計されている. ArcFace 損失 (Deng et al. 2019) は, その中でも幾何的な解釈に優れることから広く利用されている. ArcFace 損失は,式 (5)のように定義されており, Softmax 損失から線形層のバイアス $b_{i}$ を除き, $\boldsymbol{w}_{i}$ と $\boldsymbol{x}_{i}$ に $l_{2}$ 正規化を適用することで $\boldsymbol{w}_{i}^{\top} \boldsymbol{x}_{i}$ を $\cos \theta_{i}$ と表現している. 加えて, 同じクラス内の集約性と異なるクラス間の分散性を強化するため, 角度べースのマージン $m$ とスケール $s$ を導入している. $ L_{\mathrm{arc}}=-\log \frac{e^{s \cdot \cos \left(\theta_{i}+m\right)}}{e^{s \cdot \cos \left(\theta_{i}+m\right)}+\sum_{j=1, j \neq i}^{n} e^{s \cdot \cos \theta_{j}}} $ Zhang et al. (2019) は ArcFace 損失を用いたモデルの性能がハイパーパラメータに依存する点を指摘し,マージンやスケールの振る舞いを調査している。その結果,マージンとスケールの効果が類似することを確認したため,ArcFace 損失からマージンを除き,また,事例数やクラス数に応じて動的に決めるスケール $\tilde{s}$ を導入した AdaCos 損失を提案している。 AdaCos 損失は式 (6) で定義される. $ L_{\mathrm{ada}}=-\log \frac{e^{\tilde{s} \cdot \cos \theta_{i}}}{\sum_{j=1}^{n} e^{\tilde{s} \cdot \cos \theta_{j}}} $ 本研究では, 1 つのフレームを 1 つのクラスとみなし, 学習セットに存在するフレームを分類できるように学習を行うことで,よりフレームの持つ情報を反映した埋め込み表現の獲得を実現する。分類ベースのアプローチの中で Softmax 損失や AdaCos 損失を用いたモデルではハイパーパラメータの探索が不要であるが, ArcFace 損失を用いたモデルではマージンとスケールを探索する必要がある。本研究では, これらの働きが類似することが報告されている (Zhang et al. 2019) ことから片方のハイパーパラメータのみを探索することにし, 距離べースのアプローチがマージンを探索しているため, ArcFace 損失を用いたモデルもマージンのみを探索する. ## 4 実験 動詞の教師あり意味フレーム推定において,深層距離学習を用いた文脈化単語埋め込みモデルの fine-tuning の有用性を検証した。具体的には, fine-tuning したモデルを, fine-tuning していないモデルや先行研究のモデルと性能を比較した。また,学習に用いた事例数の変化による提案手法の性能への影響を調査した。 ## 4.1 実験設定 データセット FrameNet 1.7 (Ruppenhofer et al. 2016) から,フレームを喚起する動詞の事例を抽出し,データセットを作成した。学習セットに存在しない動詞の意味フレーム推定に対応するため, データセットに含まれる事例を動詞単位で 3 分割し,3つのサブセットを作成した. このとき,サブセット間の多義動詞の割合は一定としている.作成した 3 つのサブセットは, 3 分割交差検証に利用され,それぞれ学習セット,開発セット,テストセットとして用いる。表 2 にその統計値を示す 1 。学習セットは文脈化単語埋め込みモデルの fine-tuning に使用し, 開発セットは $v_{w+m}$ の重み $\alpha$, クラスタ数,マージンの決定に使用する。 $\alpha$ は 0 から 1 まで 0.1 刻みで探索し,マージンは Contrastive 損失と Triplet 損失では, $0.1,0.2,0.5,1.0$ の 4 値, ArcFace 損失では, $0.01,0.02,0.05,0.1$ の 4 值を候補に探索する。テストセットにおいて,動詞の事例を意味ごとにまとめたフレームクラスタを生成することで手法の性能を評価する. 比較手法文脈化単語埋め込みモデルとして, Hugging Faceのの Transformers (Wolf et al. 2020)で提供されている事前学習済み BERT (bert-base-uncased) ${ }^{2}$ を使用する. fine-tuning していないモデル (Vanilla)と 5 つの fine-tuning したモデル (Contrastive, Triplet, Softmax, ArcFace, AdaCos) に対して,それぞれ 1 段階クラスタリングと 2 段階クラスタリングを用いた全部で 12 の手法を比較する. Vanilla モデルを用いた 2 段階クラスタリングの手法は, Yamada et al. (2021a)の提案手法に対応している. 埋め込み表現は全て $l_{2}$ 正規化を適用している. ハイパーパラメータに関して, バッチサイズは 32 , 学習率は $1 \mathrm{e}-5$, エポック数は 5 とし, ArcFace モデルのスケールは 64 に固定する。最適化アルゴリズムは, AdamW (Loshchilov and Hutter 2017) を使用する. また,SemEval-2019 Task 2 のサブタスク A の共有タスク (QasemiZadeh et al. 2019) で用いられた 3 つの教師なし意味フレーム推定手法 (Arefyev et al. 2019a; Anwar et al. 2019; Ribeiro et al. 2019) も比較する. Arefyev らは,まず,フレームを喚起する動詞の BERTによる埋め込み表現を利用して群平均法によるクラスタリングを行い,その後,その動詞の言い換えを BERT を用いて生成し,それに基づくTF-IDF 特徴量を用いて,各クラスタを 2 分割することでフレー 表 23 分割交差検証で用いた FrameNet データセットの統計値  ムクラスタを形成している. Anwar らは, skip-gram (Mikolov et al. 2013) によって得られる, フレームを喚起する動詞の埋め込みと,文中の全単語の埋め込みの平均を結合した表現を用いて,群平均法によるクラスタリングを行っている,Ribeiro らは,フレームを喚起する動詞の ELMo による埋め込みを用いて,Chinese whispers (Biemann 2006) によるグラフクラスタリングを適用している。 評価指標評価指標として, Purity (PU), Inverse Purity (IPU), およびその調和平均である F 值 (PIF) (Zhao and Karypis 2001) と, B-cubed Precision (BCP), Recall (BCR), およびその調和平均である $\mathrm{F}$ 値 (BCF) (Bagga and Baldwin 1998) を使用する。PU はクラスタが単一のラべルの事例で占められている度合いを示す指標であり,IPU は同じラベルの事例が単一のクラス夕に集中する度合いを示す指標である。また, BCP と BCR は,クラスタとラベルを関連付けずに,各事例の適合率と再現率をそれぞれ評価する指標である.SemEval-2019 Task 2 のサブタスク Aの共有タスク (QasemiZadeh et al. 2019)では, BCF に従ってシステムをランク付けされている. ## 4.2 実験結果 実験結果を表 3 に示す.クラスタリング方法に関わらず,fine-tuning したモデルを用いた手法は,Vanilla モデルを用いた手法と比較して全体的に高い PIF および BCF を示している。特に, Triplet, ArcFace, AdaCos モデルを用いた手法において, PIFで 73 ポイント以上, BCF で 62 ポイント以上の高いスコアを達成しており, これらのモデルを用いて文脈化単語埋め込みモデルを fine-tuning する有用性が確認できる。一方, Contrastive モデルを用いた手法では相対的 表 33 分割交差検証による動詞の教師あり意味フレーム推定の実験結果. \# $\mathrm{pLU}$ と $\mathrm{C}$ はそれぞれ $\mathrm{pLU}$数とクラスタ数を示す. に低いスコアとなっている。これは Contrastive モデルのマージンが適切な粒度のクラスタ構築との親和性が低いことが主な要因であると考えられる。 クラスタリング方法を比較すると,2 段階クラスタリングの手法が 1 段階クラスタリングの手法に比べて, 全体的に高いスコアを達成している. しかし, Vanilla モデルの場合では, BCF と P IF 共に 12 ポイント以上の差があったが, fine-tuning したモデルの最高スコアを比較すると, その差が 2 ポイント程度に縮まっている. この結果から, fine-tuningを行う場合, 2 段階クラスタリングだけではなく 1 段階クラスタリングも有望な選択肢になる。たたし, 1 段階クラスタリングの手法は 2 段階クラスタリングの手法と比較して実装は容易であるが,一度にクラスタリングする事例数が多いことから計算コストが高いことに注意が必要である ${ }^{3}$. 重み $\alpha$ に着目すると,スコアの高い AdaCos モデルや Triplet モデルを用いた 2 段階クラスタリングの手法において,その值は 0.5 であるため, マスクされた単語埋め込みを考慮する効果が確認できる。しかし, Vanilla モデルを用いたときほどの効果が確認できない. 一方, 1 段階クラスタリングの手法では, fine-tuning したモデルの方が Vanilla モデルよりマスクされた単語埋め込みを考慮するという逆の傾向が確認できる。これは, Vanilla モデルを用いた 1 段階クラスタリングの手法では,十分にフレームを表現した埋め込み空間となっていなかったために,動詞の表層ごとでまとまる万がより尤もらしいフレームクラスタを構築できていたが, fine-tuning したモデルでは埋め込み空間が改善され,動詞の表層ではなく,意味ごとでまとまるようなフレームクラスタを構築できるようになったためであると考えられる. 表 4 に先行研究の手法と, Triplet モデルと AdaCos モデルをそれぞれ用いた 1 段階クラスタリングと 2 段階クラスタリングの手法の比較結果を示す. 提案手法は, 先行研究の手法より高い評価スコアを達成しており, 提案手法の中でも最もスコアの高い AdaCos モデルを用いた 2 表 4 先行研究の手法と提案手法の比較結果 (3.20 \mathrm{GHz})$ を用い, 1 段階クラスタリングで約 10 分, 2 段階クラスタリングで約 5 分の実行時間であった. } 段階クラスタリングの手法では, 両評価指標において従来の最高スコアを 8 ポイント以上上回る結果が得られており,その有用性が確認できる。 ## 4.3 学習事例数の変化による性能への影響 前節の実験を通して, 約 30,000 という学習事例数が比較的多く存在する場合では,深層距離学習に基づき文脈化単語埋め込みモデルを fine-tuning することで高性能な動詞の意味フレーム推定手法を実現できることを示した.しかし,提案手法を意味フレームリソースの存在しない言語へ適用する場合,フレームを定義するコストやフレーム情報をテキストに付与するコストが高いことから, 学習事例が少量しか存在しない場合であっても高い性能を示すことが重要となる.そこで,学習事例数を変化させた実験を行い,学習事例数の性能への影響を調査した,具体的には, $\mathrm{LU}$ ごとの最大学習事例数の条件を '1', '2', '5', '10', 'all' と変化させて実験を行った. 3 セットの平均学習事例数は, それぞれ $1,273,2,445,5,680,10,053,27,537$ であった. ここで, LU ごとで学習事例数を変更しているため,学習セット内の動詞,LU,フレームの異なり数は変更していない点, また,学習セットで使用する事例数のみを変更しているため,開発セットおよびテストセットは変更していない点に注意が必要である. 表 5 に学習事例数を変化させたときの各手法の PIF と BCF のスコアを示す. Vanilla モデルは, fine-tuning を行わないため, 各設定で同じスコアとなっている. Triplet モデルの結果に着目すると, '1’や‘ 2 ’ 設定において, Vanilla モデルと比較してかなり高いスコアを示しており,少ない学習事例数においても有用であることが確認できる。特に,2 段階クラスタリングの手 表 5 学習事例数を変化させたときの実験結果. 各列は学習セット内の各 LU に対して使用された最大学習事例数を示す. 法では, '1’'と 'all'において学習事例数が 1,273 と 27,536 と大きな差があるにも関わらず, スコアは 3 ポイント程度の差しかなかった。このため, 少量であっても教師データが存在するのであれば, Triplet モデルを用いた 2 段階クラスタリングの手法を使用することで,高性能な意味フレーム推定が実現可能であると考えられる。一方, ArcFace モデルや AdaCos モデルは, '5, や‘10’ の設定では Triplet モデルと同程度のスコアを得ているが, さらに学習事例数が少ない場合, Vanilla モデルからの改善はほとんど確認できなかった. これは少量の学習事例数では線形層の重みの学習を十分に行えないためであると考えられる. ## 5 Fine-tuning した埋め込み表現の分析 クラスタリングによる評価は, 埋め达み表現だけではなくクラスタリング手法やクラスタ数にも性能が影響されるため, 埋め込み表現のみの性質を分析することは容易ではない. そこで, fine-tuning した埋め込み表現をより直感的に理解するために,事例間の類似度に基づく評価と埋め込み表現の可視化を行う. ## 5.1 類似度ランキング評価 深層距離学習に基づき文脈化単語埋め迄みモデルを fine-tuningすることによって,埋め込み空間上で, 同じフレームの事例が近づき, 異なるフレームの事例が遠ざかっているのかを確認するため, 埋め込み表現の類似度に応じて事例をランク付けし, 評価する類似度ランキング評価を行った.具体的には,特定の動詞の事例をクエリ事例とし,クエリ事例とそれ以外の事例の埋め込みのコサイン類似度を計算して,その値を基に事例を降順に並べ,評価した.埋め达み表現は,4.2 節の 1 段階クラスタリングの手法の $v_{w+m}$ を使用する. 評価指標には Recall を用いている。これはクエリ事例と同じフレームの事例である正解事例と, 正解事例と同じ数のランキング上位の事例を抽出して得られる予測事例の一致率である。たとえば,表 2 のセット 1 では, 全事例 28,314 件のうち, FILLING フレームの事例が 153 件存在する。このうちの 1 つをクエリ事例とするとき,正解事例は 152 件となる。全事例からクエリ事例に類似した上位 152 件の予測事例を抽出し,その中で 114 件が正解事例であれば, Recall は 114/152=0.75となる.各事例をクエリ事例として Recallを算出し,そのスコアの平均を評価する. 予測事例の対象に関して3つ設定で類似度ランキング評価を行う.1つ目は全事例が対象である ALLであり,これは埋め込み空間全体の改善が見られるかを検証するための設定である. 2 つ目はクエリ事例と同じ動詞の事例のみを対象4とする SAME であり, 表層が同じ事例に対して,意味の異なることを埋め込み空間が反映しているかを検証するための設定である.3つ目は  クエリ事例と異なる動詞の事例のみを対象とする DIFFであり,これは埋め込み空間上で,異なる動詞で同じフレームの事例が互いに近い位置になっているかを検証する設定である.実験結果を表 6 に示す。まず,ALL に着目すると fine-tuning したすべてのモデルで Vanilla モデルからの改善が見られる。特に Contrastive モデル以外の 4 つの fine-tuning したモデルは 20 ポイント以上スコアが向上し, 埋め込み空間がかなり改善されたことがわかる. 次に, SAME と DIFF に着目すると,その両方でスコアの向上が確認でき,動詞の表層に関係なく,深層距離学習による fine-tuning が有用であることがわかる. SAME と DIFF を比較すると,SAMEの方が対象事例数が少ないこともあり, 全体的に高いスコアとなっている。ただし, DIFF の方が SAMEよりもスコアの向上度合いが大きく, fine-tuningによるクラスタリング性能の向上は, 主に同じフレームを喚起する異なる動詞の事例が互いに近づくように学習したことに起因することが示唆される. また, fine-tuningによる意味フレーム推定手法の性能向上が,学習セットに含まれるフレー ムによるもののみではないことを検証することは重要である。 そこで,クエリ事例のフレームが学習セットに含まれる場合 (OVERLAP) と含まれない場合 (NON-OVERLAP) に分けて, 表 6 の ALLのスコアを集約した。その結果を表 7 に示す. いずれの fine-tuning したモデルも,学習セットに含まれるフレームだけではなく, 含まれないフレームについても, Vanilla モデルより高いスコアを実現している。このため, 深層距離学習を用いた fine-tuningによって,学習セットに含まれていないフレームにも対応した埋め达み空間を獲得できることが確認できる。ここで,Non-OvERLAP の設定の各手法のスコアが,OVERLAP の設定におけるスコアよりも全体的に高くなっている。これは直感に反するかもしれないが, OVERLAP の設定に含まれるフレームは多くの動詞の事例が存在するため, NON-OVERLAP の設定に比べて難しい設定となっていることが要因だと考えられる。 表 63 分割交差検証による類似度ランキング評価の実験結果. ALL, SAME, DifF は,ランキングする対象がそれぞれ,全事例,クエリ事例と同じ動詞の事例,クエリ事例と異なる動詞の事例を意味している。 表 7 表 6 の ALL の結果を,テストセットに含まれるフレームが学習セットに存在する場合 OVERLAP と存在しない場合 NON-OVERLAP で分けて集約した結果である。 ## 5.2 埋め込み表現の可視化 文脈化単語埋め迄みモデルの fine-tuning 前後で,埋め达み空間がどれほど変化しているのかを直感的に理解するため, 埋め込み表現の可視化を行った. 表 2 のセット 1 の全事例を対象に, Vanilla モデル, Triplet モデル, AdaCos モデルによるフレームを喚起する動詞の文脈化単語埋め込みを t-SNEにより 2 次元に射影し,可視化した結果を図 2 に示す. Vanilla, AdaCos, Triplet のモデルにおいて,それぞれ $v_{w o r d}, v_{w+m}, v_{\text {mask }}$ を使用している, $v_{w+m}$ の重み $\alpha$ は, 4.2 節の実験結果で Triplet モデルと AdaCos モデルを用いた 1 段階クラスタリングの手法の最適値であった 0.3 としている ${ }^{5}$. まず,Vanilla モデルに関して, $v_{\text {word }}$ の結果に着目すると,フレームごとに事例がまとまる傾向は見られるものの,たとえば,SELF_MOTION フレームや EXPERIENCER_OBJ フレームの事例は 2 つの大きなグループに分かれており, REMOVING フレームの事例もかなり散在しており, フレームごとに十分にまとまっているとはいえない.また, $v_{\text {mask }}$ の結果を見ると, $v_{\text {word }}$ の結果より, さらに事例が全体的に散在する傾向が確認できる。 $v_{w+m}$ に関しては, $v_{\text {word }}$ と $v_{\text {mask }}$ に比べて,同じフレームの事例がまとまる傾向が確認でき,両方の埋め込みを考慮する利点があることを示している. 次に, AdaCos モデルと Triplet モデルの $v_{\text {word }}$ は, Vanilla モデルの $v_{\text {word }}$ と比較して,意味フレームごとで事例がまとまっていることが確認できる.特に,Vanilla モデルでは識別困難であった PLACING フレームや FILLING フレームのような類似した意味のフレームの事例に対しても,ある程度識別可能であるような事例の分布になっていることが確認された. しかし,これらのモデルの $v_{w o r d}$ は,同じ意味フレームごとでまとまっているが,その中で事例の塊のようなものが観測される.これは深層距離学習による fine-tuningよって, 動詞の埋め込み表現がその表層情報を考慮しすぎていることを示唆している. AdaCos モデルと Triplet モデルの $v_{\text {mask }}$ ^{5}$ Vanilla モデルでは, $v_{w+m}$ の $\alpha$ は 0 であったが, これは $v_{w o r d}$ と同じであるため, ここでは $\alpha$ が 0.3 のときの結果を示す. } SELF_MOTION 4 EXPERIIENCER_obJ BODy_MOVEMENT $\quad$ COMMUNICATION_NOISE Placing $\star$ PATH_SHAPE 4 MAKE_NOISE CAUSE_HARM REMOVING 図 2 Vanilla モデル, AdaCos モデル, Triplet モデルにおける $v_{w o r d}, v_{w+m}, v_{\text {mask }}$ の 2 次元マッピング.各色および形状は事例数の多い上位 10 フレームを示す. の結果を見ると,Vanilla モデルの $v_{\text {mask }}$ よりは事例が意味フレームごとにまとまっている傾向は確認できるものの,これらのモデルの $v_{\text {word }}$ ほど意味フレームごとにまとまらなかった。これは, $v_{\text {mask }}$ を獲得する際のトークンがすべて同じ“[MASK]” トークンであるため,学習が難しいことが要因であると考えられる。 AdaCos モデルと Triplet モデルの $v_{w+m}$ に関しては,他の 埋め込み表現と比較して, 最もフレームごとに事例ごとにまとまっており, その有用性が確認できる. AdaCos モデルと Triplet モデルによる結果を比較すると,全体的に類似した事例の分布になっており, これは共に距離を学習している点は変わらないため, 類似した埋め込み空間になっていると考えられる。 ## 6 おわりに 本論文では, 文脈化単語埋め込みを深層距離学習に基づき fine-tuning することで高性能な意味フレーム推定手法が可能となることを示した. fine-tuning したモデルの中では, Triplet, ArcFace, AdaCos モデルが全体的に高いスコアを達成しており, 意味フレーム推定における有用性が確認された. 特に, Triplet モデルにおいては, 少量の学習事例数でもVanilla モデルと比較して,かなり性能が向上することから,人手で作成された意味フレームリソースが存在しないような言語に対しても意味フレームリソース構築へ有用であることが期待できる。また, fine-tuning したモデルを利用する際には,2 段階クラスタリングの手法だけではなく,1 段階クラスタリングの手法も有用であることが明らかとなった. 本研究の最終目標は, 大規模なテキストコーパスから意味フレームを自動的に構築することである。この目標を達成するためには,テキスト中の動詞を,その動詞が喚起するフレームごとにまとめる動詞の意味フレーム推定だけでなく, その項となる語句もその役割ごとにグルー プ化するフレーム要素推定も必要である. フレーム要素推定においても, 動詞の項となる語句の役割を表現する埋め込み空間を獲得できれば実現可能であるため,本研究で提案した深層距離学習による fine-tuning が有効である可能性は高いと考えられる。また, FrameNet 内で実験を行うだけではなく,実際に大規模なテキストコーパスにおいて,本手法を適用することで,意味フレームリソースの構築を行うことを考えている. ## 謝 辞 本研究は, JST 創発的研究支援事業 JPMJFR216N,およびJSPS 科研費 $21 K 12012$ と 23KJ1052 の支援を受けたものである。 ## 参考文献 Anwar, S., Ustalov, D., Arefyev, N., Ponzetto, S. P., Biemann, C., and Panchenko, A. (2019). "HHMM at SemEval-2019 Task 2: Unsupervised Frame Induction using Contextualized Word Embeddings." In Proceedings of the 13th International Workshop on Semantic Evaluation (SemEval 2019), pp. 125-129. Arefyev, N., Sheludko, B., Davletov, A., Kharchev, D., Nevidomsky, A., and Panchenko, A. (2019a). "Neural GRANNy at SemEval-2019 Task 2: A Combined Approach for Better Modeling of Semantic Relationships in Semantic Frame Induction." In Proceedings of the 13th International Workshop on Semantic Evaluation (SemEval 2019), pp. 31-38. Arefyev, N., Sheludko, B., and Panchenko, A. (2019b). "Combining Lexical Substitutes in Neural Word Sense Induction." In Proceedings of the International Conference on Recent Advances in Natural Language Processing (RANLP 2019), pp. 62-70. Bagga, A. and Baldwin, B. (1998). "Entity-Based Cross-Document Coreferencing Using the Vector Space Model." In Proceedings of the 36th Annual Meeting of the Association for Computational Linguistics and 17th International Conference on Computational Linguistics (ACL-COLING 1998), pp. 79-85. Baker, C. F., Fillmore, C. J., and Lowe, J. B. (1998). "The Berkeley FrameNet Project." In Proceedings of the 36th Annual Meeting of the Association for Computational Linguistics and 17th International Conference on Computational Linguistics (ACL-COLING 1998), pp. 86-90. Biemann, C. (2006). "Chinese Whispers: An Efficient Graph Clustering Algorithm and its Application to Natural Language Processing Problems." In Proceedings of TextGraphs: the First Workshop on Graph Based Methods for Natural Language Processing (TextGraphs 2006), pp. 73-80. Deng, J., Guo, J., Xue, N., and Zafeiriou, S. (2019). "ArcFace: Additive Angular Margin Loss for Deep Face Recognition." In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR 2019), pp. 4690-4699. Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL 2019), pp. 4171-4186. Hadsell, R., Chopra, S., and LeCun, Y. (2006). "Dimensionality Reduction by Learning an Invariant Mapping." In Proceedings of the 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 2006), Vol. 2, pp. 1735-1742. Jiang, T. and Riloff, E. (2021). "Exploiting Definitions for Frame Identification." In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics (EACL 2021), pp. 2429-2434. Kawahara, D., Peterson, D., Popescu, O., and Palmer, M. (2014). "Inducing Example-based Semantic Frames from a Massive Amount of Verb Uses." In Proceedings of the 14th Conference of the European Chapter of the Association for Computational Linguistics (EACL 2014), pp. 58-67. Kaya, M. and Bilge, H. Ş. (2019). "Deep Metric Learning: A Survey." Symmetry, 11 (9), p. 1066. Liu, W., Wen, Y., Yu, Z., Li, M., Raj, B., and Song, L. (2017). "SphereFace: Deep Hypersphere Embedding for Face Recognition." In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2017), pp. 212-220. Loshchilov, I. and Hutter, F. (2017). "Decoupled Weight Decay Regularization." In Proceedings of the 5th International Conference on Learning Representations (ICLR 2017). Maaten, L. v. d. and Hinton, G. (2008). "Visualizing Data using t-SNE." Journal of Machine Learning Research, 9, pp. 2579-2605. Mikolov, T., Sutskever, I., Chen, K., Corrado, G. S., and Dean, J. (2013). "Distributed Representations of Words and Phrases and their Compositionality." In Advances in Neural Information Processing Systems (NIPS 2013), pp. 3111-3119. Musgrave, K., Belongie, S., and Lim, S.-N. (2020). "A Metric Learning Reality Check." In Proceedings of the 16th European Conference on Computer Vision (ECCV 2020), pp. 681-699. Pelleg, D. and Moore, A. (2000). "X-means: Extending K-means with Efficient Estimation of the Number of Clusters." In Proceedings of the 17th International Conference on Machine Learning (ICML 2000), pp. 727-734. Peters, M. E., Neumann, M., Iyyer, M., Gardner, M., Clark, C., Lee, K., and Zettlemoyer, L. (2018). "Deep Contextualized Word Representations." In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT 2018), pp. 2227-2237. QasemiZadeh, B., Petruck, M. R. L., Stodden, R., Kallmeyer, L., and Candito, M. (2019). "SemEval-2019 Task 2: Unsupervised Lexical Frame Induction." In Proceedings of the 13th International Workshop on Semantic Evaluation (SemEval 2019), pp. 16-30. Ribeiro, E., Mendonça, V., Ribeiro, R., Martins de Matos, D., Sardinha, A., Santos, A. L., and Coheur, L. (2019). "L2F/INESC-ID at SemEval-2019 Task 2: Unsupervised Lexical Semantic Frame Induction using Contextualized Word Representations." In Proceedings of the 13th International Workshop on Semantic Evaluation (SemEval 2019), pp. 130-136. Ruppenhofer, J., Ellsworth, M., Schwarzer-Petruck, M., Johnson, C. R., and Scheffczyk, J. (2016). FrameNet II: Extended Theory and Practice. International Computer Science Institute. Su, X., Li, R., Li, X., Pan, J. Z., Zhang, H., Chai, Q., and Han, X. (2021). "A Knowledge- Guided Framework for Frame Identification." In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (ACL-IJCNLP 2021), pp. 5230-5240. Ustalov, D., Panchenko, A., Kutuzov, A., Biemann, C., and Ponzetto, S. P. (2018). "Unsupervised Semantic Frame Induction using Triclustering." In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (ACL 2018), pp. 55-62. Wang, H., Wang, Y., Zhou, Z., Ji, X., Gong, D., Zhou, J., Li, Z., and Liu, W. (2018). "CosFace: Large Margin Cosine Loss for Deep Face Recognition." In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2018), pp. 5265-5274. Weinberger, K. Q. and Saul, L. K. (2009). "Distance Metric Learning for Large Margin Nearest Neighbor Classification." Journal of Machine Learning Research, 10 (2), pp. 207-244. Wolf, T., Debut, L., Sanh, V., Chaumond, J., Delangue, C., Moi, A., Cistac, P., Rault, T., Louf, R., Funtowicz, M., Davison, J., Shleifer, S., von Platen, P., Ma, C., Jernite, Y., Plu, J., Xu, C., Scao, T. L., Gugger, S., Drame, M., Lhoest, Q., and Rush, A. M. (2020). "Transformers: State-of-the-Art Natural Language Processing." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations (EMNLP 2020), pp. 38-45. Yamada, K., Sasano, R., and Takeda, K. (2021a). "Semantic Frame Induction using Masked Word Embeddings and Two-Step Clustering." In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (ACL-IJCNLP 2021), pp. 811-816. Yamada, K., Sasano, R., and Takeda, K. (2021b). "Verb Sense Clustering using Contextualized Word Representations for Semantic Frame Induction." In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021 (ACL-IJCNLP 2021 Findings), pp. 4353-4362. Yamada, K., Sasano, R., and Takeda, K. (2023). "Semantic Frame Induction with Deep Metric Learning." In Proceedings of the 17th Conference of the European Chapter of the Association for Computational Linguistics (EACL 2023), pp. 1833-1845. 山田康輔, 笹野遼平, 武田浩一 (2023). 深層距離学習を用いた動詞の意味フレーム推定. 言語処理学会第 29 回年次大会発表論文集, pp. 2422-2426. [K. Yamada et al. (2023). Semantic Frame Induction with Deep Metric Learning. Proceedings of the 29th Annual Meeting of the Association for Natural Language Processing, pp. 2422-2426.]. Yong, Z. X. and Torrent, T. T. (2020). "Semi-supervised Deep Embedded Clustering with Anomaly Detection for Semantic Frame Induction." In Proceedings of the 12th Language Resources and Evaluation Conference (LREC 2020), pp. 3509-3519. Zhang, X., Zhao, R., Qiao, Y., Wang, X., and Li, H. (2019). "AdaCos: Adaptively Scaling Cosine Logits for Effectively Learning Deep Face Representations." In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR 2019), pp. 10823-10832. Zhao, Y. and Karypis, G. (2001). "Criterion Functions for Document Clustering: Experiments and Analysis." Tech. rep., Retrieved from the University of Minnesota Digital Conservancy. ## 略歴 山田康輔:2021 年名古屋大学大学院情報学研究科博士前期課程修了. 同年,同大学院同研究科博士後期課程に進学. 2022 年より日本学術振興会特別研究員 (DC2). 笹野遼平:2009 年東京大学大学院情報理工学系研究科博士課程修了. 京都大学特定研究員, 東京工業大学助教を経て, 2017 年より名古屋大学准教授. 博士 (情報理工学)。2019 年より理化学研究所 AIP センター客員研究員を兼任.武田浩一:1983 年京都大学大学院工学研究科情報工学専攻修士課程修了. 同年日本アイ・ビー・エム株式会社に入社. 2017 年より名古屋大学教授. 博士 (情報学).
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# ニューラル数式ソルバーにおける途中結果の追跡と操作 松本 悠太 $\dagger \cdot$ Benjamin Heinzerling ${ }^{\dagger \dagger, \dagger} \cdot$ 吉川 将司 $\dagger \cdot$ 乾 健太郎 ${ }^{\dagger, \dagger \dagger}$ 数值を処理できる言語モデルは実用的, 科学的のどちらの観点から見ても興味深い ものである. そのような言語モデルのより深い理解のためには,「どのような問題が 解けるのか」ということだけでなく,「モデル内部でどのような処理が行われている か」という観点も重要である。本研究は単純な数式とその途中結果に着目すること で, Transformer モデルが数学的能力を獲得し, 複数ステップに及ぶ処理を行ってい るかを検証する,途中結果の情報が符号化されている箇所を追跡 (Tracing) し,符号化されている箇所の状態を操作 (Manipulation) してモデルに対して因果的介入を行 うという二つの実験を行った結果, 内部表現の特定の方向が線形に近い形で途中結果を符号化していること, そしてそのような方向がモデルの推論結果に対して因果的にも関係していることを示す. 本手法は数学的な問題に対するモデルの解釈可能性を高めることにも繋がる。 キーワード:自然言語処理, 数学的能力, 計算問題, 途中結果, 解釈可能性 ## Tracing and Manipulating Intermediate Results in Neural Math Problem Solvers \author{ Yuta Matsumoto $^{\dagger}$, Benjamin Heinzerling ${ }^{\dagger \dagger, \dagger}$, Masashi Yoshikawa $^{\dagger}$ and } Kentaro InU ${ }^{\dagger, \dagger \dagger}$ The ability of natural language processing models to handle numerical values is of practical and scientific interest. For a deeper understanding of these models, it is important to see how they handle math problems requiring multiple inference steps. We introduce a method for analyzing how a Transformer model handles these inputs by focusing on simple arithmetic problems and their intermediate results. To trace where information about intermediate results is encoded, we measure the correlation between intermediate values and the activations of the model using principal component analysis (PCA). Then, we perform a causal intervention by manipulating model weights. This intervention shows that the weights identified via tracing are not merely correlated with intermediate results, but causally related to model predictions. Our findings provide a deeper understanding of how Transformer models handle arithmetic problems, which has implications for improving their interpretability.  Key Words: Natural Language Processing, Numeracy, Math Problem, Intermediate Results, Interpretability ## 1 はじめに 近年,深層学習に基づく言語モデルは左右の文脈から単語の穴埋めをしたり (Devlin et al. 2019),テキストからテキストを生成したり (Raffel et al. 2020), 次に続く単語を予測したり (Brown et al. 2020) して訓練することで,多くの自然言語処理タスクにおいて高性能を出せるような汎用的な表現を得ることができる. また, このようなモデルを元にファインチューニングを行うことで, 数量推論のような複雑な処理が必要だと思われる問題においてもある程度高い性能を出せることが知られている (Geva et al. 2020). 数量推論の例を以下に示す. Q. ジョンは 5 本ペンを持っていて、そのうち 3 本をマリーにあげた。ジョンは今ペンを何本持っている? A. 2 本 このような問題に答えるためには, モデル内で「5」や「3」といった数や「あげる」という行為の意味を理解し, $5-3=2$ という処理を行う必要がある.「数」は実社会の至る所に存在しているため数を用いて推論することは世界理解や経済的な知的活動のためにも必要不可欠であり,このようなモデルは実用的にも有用である (Thawani et al. 2021; Chen et al. 2019). では, そもそも言語モデルはどの程度数値計算ができるのだろうか. 先ほどの例を以下のように単純化すると, 純粋な数值計算能力を問う問題となる. Q. $5-3=$ ? A. 2 複数の先行研究では線形代数や初等数学のような数値計算のタスクを通じて言語モデルが持つ潜在的な能力を測っており (Saxton et al. 2019; Charton 2021), 現在のモデルによって解ける問題や解けない問題の性質が分かりつつある。言語モデルの数学的な能力を調査することは数量推論時に必要な数値計算能力を調査できるという意味で実用上役立つだけでなく, ニューラルネットワークの記号処理能力を理解するという科学的な興味にも繋がる. 一方で,モデルがこのような問題を解く際,その内部で何が行われているかについての研究はほとんど行われていない. しかし, モデルの能力をよりよく理解するためには, 入出力の結果だけでなくその内部での処理を分析することも非常に重要だと考えられる.内部処理を明らかにすることはモデルの解釈可能性を向上させ,実用的にはエンジニアやユーザが数量推論モデルをより信頼できるようにすることができる。また,科学的視点からは,ニューラルネットワークの記号処理能力を入出力を分析するだけでは判断できない部分まで詳細に理解すること が可能になる.例えば,モデルはヒューリスティックではなく本当に数学的能力を獲得できているのか, すなわち汎化できているのかという議論 (Razeghi et al. 2022; Patel et al. 2021)に対して新しい角度から証拠を提示することができる。 モデル内部での処理を分析するため,本研究では数式とその途中結果に着目する,我々人間が $54-((258+314)-(143-96))$ のような数式を解く時, まず $258+314=572,143-96=47$ を計算して,次は $572-47=525$ を計算して,というような途中結果を介した複数ステップに及ぶ推論を行っている。途中結果は任意の長さの数式を徐々に簡単化し, 最終的な答えを出すための非常に重要な要素である。では,モデルはこのような途中結果を介した推論を行っているのだろうか?これを検証するためには,(a) モデル内部に途中結果が保存されていること (b)保存されているだけでなく,途中結果がモデルに使用されていることを示せば良いと考えられる.これを調べるため, 本研究では数式が解けるモデル(これをニューラル数式ソルバーと呼ぶ)中の内部表現と数式の途中結果の相関関係,そして因果関係を分析する手法を提案する.本手法の概要を図 1 に示す.まず四則演算を学習した Transformer (Vaswani et al. 2017) の内部状態から主成分分析を用いて途中結果と相関の高い,すなわち途中結果を符号化しているような方向を抽出したのち, その部分のアクティベーションを連続的に操作してモデルの予測結果が意図したように変化するかを観察する1. これによって,途中結果を符号化している部分がモデルの推論に与える因果的な影響を調査する。その結果, 途中結果を符号化しているような方向の中には実際にモデルの推論時にも途中結果としてはたらくものがあることを発見し, モデルが途中結果を介した推論を行っている因果的な証拠を示した。また, 相関が高くてもモデルの推論には使用されていない方向も確認されたため, モデルの内部を分析する際に因果的な関係を調査することの重要性を示唆する結果となった. 本論文の貢献は,言語モデルが数学的な問題を途中結果を保存,使用しながら解いていることを明らかにした点である。また,数学的な問題を解く際のモデルの内部処理を詳細に分析できる手法を提案した,ということ自体も貢献である. ## 2 関連研究 言語モデルと数値言語モデルの数学的能力を調查することは科学的にも実用的にも興味深い研究課題である。科学的な立場から見れば,数学的な問題を通してニューラルネットワークの数値計算や記号処理に対する能力を調査,あるいは向上させることに繋がる。また実用的にも数を用いて推論することは常識を理解するために重要であり,特に科学論文や財務文書をモデル化する際などに有用である (Thawani et al. 2021).  図 1 途中結果の追跡 (Tracing) と操作 (Manipulation) の概要. Tracing(上部)では PCA を用いて, 数式中の途中結果と相関が高いモデル内の方向を追跡する. Manipulation(下部)では, Tracing で追跡された方向に沿ってアクティベーションの操作が行われたモデル(操作済みモデル)のモデル予測の変化を観察する。 そのような背景から, 言語モデルの数学的能力を調査, あるいは向上させる研究は一定数存在する。そのためのデータセットとして, Hosseini ら (Hosseini et al. 2014) は足し算と引き算が必要となる文章題のデータセットを作成した。また, Duaら (Dua et al. 2019) はより複雑な文書読解や常識が必要となるような数量推論のベンチーマークDROP を作成した。最近では Mishra ら (Mishra et al. 2022) によって多様な数学的能力を統一的に評価できるべンチマーク LiLAが提案された. 同様に,数学的な問題を言語モデルに解かせる手法も複数提案されている.このような夕スクに対し, 言語モデルの元々の学習目的を利用し, “ $2+3=[M A S K]$ ” から穴埋めを行うようなマスク言語モデルベースの手法 (Piekos et al. 2021)や,“ $2+3=”$ から “5”を生成させるような手法 (Geva et al. 2020) によって数量推論タスクの性能が向上することが示されている. また, GPT-3 (Brown et al. 2020)のような大規模自己回帰型言語モデルは追加学習をしなくても, 簡 単な演算はできることが観察されている。 さらに, 数値計算に特化させた Transformer は初等数学や線形代数といったより複雑な記号推論の問題をある程度解けることも示されている (Saxton et al. 2019; Charton 2021). 彼らの知見に基づき本研究では, モデルに解ける問題として四則演算を取り上げる。 多くの先行研究ではどのような数学的問題が解けるかという点に注目しているが,モデルの振る舞いについて注目している研究も存在する. Razeghi ら (Razeghi et al. 2022) は GPT-3 の数量推論における精度が事前学習時に含まれる項の頻度と相関があることを示した. また, Patel ら (Patel et al. 2021) は数量推論モデルのアテンションを定量的に観察し, モデルが浅いヒュー リスティックに依存している可能性を示唆した。 モデル内部の分析モデルの内部表現にどのような情報が符号化されているかについては,近年高い関心が集まっている。このような研究の多くはプロービングの文脈で行われているが (Jawahar et al. 2019; Raganato and Tiedemann 2018; Hewitt and Manning 2019), Shibata $\bigsqcup$ (Shibata et al. 2020) は本研究と似た手法で実験を行っている. 彼らは形式言語で訓練した言語モデルを分析して,形式言語の深さと高い相関を持つアクティベーションの存在を示した. Liu ら (Liu et al. 2022) らは汎化したモデルの内部はタスクの構造を反映している表現となっていることを理論的に示し,単純な足し算や剩余演算のトイデータセット上で実験的にも示した。一方で,例えプロービング等の手法である情報がモデル内部で符号化されていると示せても,その情報がモデルの推論時に使われていること,すなわち因果関係までは示せない (Lovering et al. 2021). 因果関係を示すには,モデルの内部表現に対して因果的介入を行う必要がある。内部表現に対する介入としては単語ベクトルの上位主成分を削除する (Mu and Viswanath 2018), 分類器を用いて特定の方向を繰り返し削除する (Ravfogel et al. 2020) などがある. Elzar ら (Elazar et al. 2021) は INLP (Ravfogel et al. 2020)という手法を用いてプロービングによって抽出できる言語的特徴は必ずしもモデルの推論には使われていないことを明らかにし,内部表現への因果的介入を行う重要性を示した。本研究ではモデルの隠れ層を分析対象として, 途中結果の情報を符号化している部分を抽出し,アクティベーションを連続的に変化させることで抽出された情報がモデルの推論に使用されているかについて粒度の細かい因果的介入を行う. ## 3 手法 本節では図 1 に示した本研究の提案手法について記述する。まず, +とー, そして ()を含む様々な複雑度の四則演算のデータを自動的に生成し, 図 2 に示すように Transformer を訓練す 図 2 数式によるモデルの学習のイメージ.数式はトークン化され,数式の答えを回帰する(実際の出力は 0 から 1 の間に正規化される). る ${ }^{2}$. 次に,下記に示す 2 つの方法でモデルの内部状態と数式の途中結果の関係を調査する. ## 3.1 途中結果の追跡 (Tracing) 数式(入力)を変化させると, 出力と同時に隠れ層の表現も変化する. では, この表現は数式中の途中結果とどのような関係があるのだろうか. 1 節で述べたように, 人間は途中結果を介した推論を行うことで複雑な数式も解くことができる. すなわち, 途中結果とは数式を解く上で非常に重要な要素だと考えることができる。ここで汎化したモデルの表現空間はタスクの特徴を捉えたような構造になる (Liu et al. 2022)ことを考慮すると, モデルが四則演算に対して汎化し, 数学的能力を獲得しているのであれば数式中の途中結果は表現空間になんらかの形で符号化されているはずである。本研究では一番単純な符号化の形として, 表現空間中の特定の方向と途中結果の関係を調べる。まず,モデルの各層に対してその表現空間中で支配的な方向を見つける. モデルの $l$ 層目, $j$ 番目のトークンにおける表現 $h_{j}^{l}$ を全て横に結合した表現 $H^{l}=h_{1}^{l} \oplus h_{2}^{l} \oplus \cdots \oplus h_{n}^{l}$ に対して主成分分析 $(\mathrm{PCA})$ を行うことで, 主成分 $p_{k}^{l}, k \in[1, \ldots, K]$ を得ることができる。 $n$ は入力列の長さを表す3.データセット中のあるインスタンス $i$ に対してこの PCA モデルを適用すると, 各主成分の重み $p_{i, k}^{l}$ を得ることができる. 次に, 数式中の途中結果 $R_{i}^{j}$ と各主成分 $p_{k}^{l}$ の重みの相関 $\operatorname{corr}\left(R_{i}^{j}, p_{i, k}^{l}\right)$ を測る. これを各層における全ての途中結果と主成分の直積に対して行うことで,ある途中結果と最も相関の高い主成分である最大相関方向 $\hat{p}_{k}^{l}\left(R^{j}\right):=\operatorname{argmax}_{k}\left(\operatorname{corr}\left(R_{i}^{j}, p_{i, k}^{l}\right)\right)$ を得る. 仮に最大相関方向の相関が十分高ければ,対応  する途中結果を符号化していると考えることができる。例えば,図 1 のイメージは $a-(b-c)$ という数式における途中結果 $a$ や $b-c$ の値がある層のある主成分に符号化されていることを表す.この手法ではある位置で局所的な符号化がなされているかを見ることはできないが,本研究ではまず表現のどこかで途中結果が符号化されているかどうかを確かめることを主眼に置くため,全てのトークンにおける表現 $H^{l}$ を使用する. ## 3.2 途中結果の操作 (Manipulation) 本節では, Tracingによって得られた最大相関方向がモデルの推論に使用されているのかを検証するため,モデルに対して因果的介入を行う,具体的には図 1 下部に示すように,主成分に沿ってモデルのアクティベーションを操作し,それによるモデルの予測結果の変化を観察する.定式化して表すと, $l$ 層目の表現 $H^{l}$ に対して次の式に基づいて主成分 $p_{k}^{l}$ の重みを $r$ 倍することで,操作後の表現 $H^{l^{\prime}}$ を得る. $ H^{l^{\prime}} \leftarrow H^{l}+(r-1)\left(p_{k}^{l^{\top}} H^{l}\right) p_{k}^{l} $ 直観的には $r$ を変化させることで主成分 $p_{k}^{l}$ に沿ってアクティベーション $H^{l}$ が移動し, それに伴ってモデルの予測結果も変化する. もし最大相関方向 $\hat{p}_{k}^{l}\left(R^{j}\right)$ が因果的にも途中結果 $R^{j}$ を符号化しているのであれば, $p_{k}^{l}$ の重みを動かすことは数式の途中結果 $R^{j}$ を動かすことに対応していると考えられる 4. すなわち, $R_{i}^{j}=f\left(p_{i, k}^{l}\right)$ となるような関数 $f$ を定義できる. この時, 逆関数を取ることで途中結果から主成分の重みを予測する関数 $f_{p}=f^{-1}$ を定義することができる.「 $\hat{p}_{k}^{l}\left(R^{j}\right)$ が因果的にも途中結果 $R^{j}$ を符号化している」という仮説を検証するためには,この $f_{p}$ が正しいかを確かめれば良い. すなわち,実際に入力項を変更した際の最大相関方向 $\hat{p}_{k}^{l}\left(R^{j}\right)$ の重みを $p_{i, k}^{l}=f_{a}\left(R_{i}^{j}\right)$ のように表せる実測関数 $f_{a}$ と $f_{p}$ を比較して確かめる。具体的な操作は 5.2 節にて説明する. ## 4 実験設定 データセット足し算と引き算,括弧を含む四則演算のデータをテンプレートから自動生成する. 数式は Algorithm 1 で表される木構造を模した関数 GENERATE を再帰的に呼び出すことで生成される。各数式の計算木の深さは最大で 5 である。学習データと検証データのサイズはそれぞれ 19 万と 1 万であり,数式の各項 $x$ の大きさは $0<x<1000$ な整数である. 生成された数式データの例を表 1 に示す. 全データにおける数式の種類は 87797 種類である.また,内部 ^{l}$ が追跡されたとする. ここで, $43-(50-20)$ という入力に対して $p l$ の操作を行って推論結果が 13 から 19 に変わったとすると, これはモデル中の $a=43$ の表現が 49 に変わっためだと仮定することができる. } 状態の解析のために,項を $100 \leq x<1000$ と 3 桁に揃えた 5000 個の数式を用意した. $5.1,5.2$節で使用したデータセットの例を表 2 に示す. モデル本研究では Transformer モデルとして Poor Man’s BERT (Sajjad et al. 2021) を使用する.これは BERT (Devlin et al. 2019)の 6 層分を使用したモデルで, [CLS] トークンから線形回帰を行う。このモデルは通常の Transformer よりも層数が少ないため,性能を落とさずに学習時間を短縮することができる。本研究では,答えが数という連続値になる数式を解く最も単純な設定として回帰を採用した. BERT を用いた数量推論で有効であることが示されている先行研究 (Geva et al. 2020) に従い,入力中の数字は 1 桁ごとにトークン化する. 例えば,“123”という数字は $1, \# \# 2, \# \# 3$ にトークン化される。出力はニューラルネットワークで回帰問題を解く際の一般的な設定にならい,各数式の答え $x_{i}$ を正規化した数を用いる。すなわち,教師デー 表 1 訓練に使用した四則演算データセットの例 表 2 分析用に数式の形, 桁数を揃えた四則演算データセットの例 ${ }^{1}$ https://huggingface.co/bert-base-uncased ${ }^{2}$ https://pypi.org/project/pytorch-pretrained-bert 表 3 ハイパーパラメータの一覧 夕としては実際の答え $x_{i}$ ではなく以下の式で正規化された数 $x_{i}^{\prime}$ が使用される. $ x_{i}^{\prime}=\frac{x_{i}-\min _{i}\left(x_{i}\right)}{\max _{i}\left(x_{i}\right)-\min _{i}\left(x_{i}\right)} $ また,学習にはミニバッチ学習を採用し, $[\mathrm{PAD}]$ トークンを用いて系列長を同一に揃える。モデルの詳しい学習設定は表 3 に示す. モデルの学習前述のモデルを上述のデータセットで訓練し, 検証セットで回帰を行った結果を図 3 に示す. 図 3 から,このモデルは高い回帰性能を発揮していることがわかる。つまり,異なるパターンの数式を並列に学習させても正しい答えを出力することができている.次節では, ここで学習したモデルに対して途中結果の追跡, 操作を行う. ## 5 結果 ## 5.1 途中結果の追跡 (Tracing) 今回は, 途中結果を介した複数ステップの推論が必要だと思われる数式の中でできるだけ簡単な $a-(b-c),(a-b)-(c-d)$ の2 種類を分析の対象とする. 本実験において, Tracing を行うトークン数は訓練時と同じく $n=100$ とする. まず, $a-(b-c)$ という数式での結果を示す.例として $p_{i, 3}^{2}$ と $b-c$ の值の関係を図 4 に示す. 図 4 から, 途中結果の値と非常に高い相関を持つ成分が存在することがわかる。各途中結果と上位 10 主成分の重みの関係を測定した結果を図 5 に示す. 図 5 から, 中間層において数式中の途中結果と相関が高い最大相関方向が複数存在することがわかる.例えば, 1 層目の第 3 主成分の重みと $b$ の値の相関係数は $0.91,2$ 層目の 図 3 数式で学習したモデルによる回帰結果(モデル予測値は正規化された出力を戻している)。モデルは高い精度で数式を解くことができる。 図 4 主成分 $p_{3}^{2}$ の重みと $a-(b-c)$ における途中結果 $b-c$ の値の関係. 非常に高い相関が見られる. 第 3 主成分の重みと $b-c$ の値の相関係数は 0.97 である. ここから, 数式の途中結果はモデル内部の表現空間における特定の方向に線形的,局所的に符号化されていると考えることができる. 一方で図 5 からは $p_{1}^{4}$ が最終結果とほぼ 1 の相関を持っていることがわかり,4層目の時点で数値計算処理が終了していると推察できる. Tracing によって, このような層ごとの役割の違いも推察することができる. 続いて, $(a-b)-(c-d)$ という形の数式で同じ実験を行った結果を図 6 に示す. 図 6 から, 図 $5 a-(b-c)$ における層ごとの各主成分重みと数式の途中結果の相関関係のヒートマップ. 各セルは第 $k$ 主成分の重み(列)とある途中結果(行)との相関係数の絶対値を表す. この数式においてもその相関が高い最大相関方向が存在することがわかる. 例えば, 1 層目の第 4 主成分は $b$ の値と $0.97,2$ 層目の第 3 主成分は $c-d$ の値と 0.94 の相関が見られる. これらの結果から, 複数の形の数式においてモデルの内部表現はその数式の特徴, すなわち途中結果を捉えたような構造になっていることがわかった。 ## 5.2 途中結果の操作 (Manipulation) まず,数式 $617-(555-602)$ とその途中結果 $b-c=-47$ を例に取り, Manipulation を行う. 5.1 節から, 数式 $a-(b-c)$ において, 最大相関方向 $\hat{p}_{3}^{2}(b-c)$ は 0.97 という高い相関を持つ. ここで, $p_{3}^{2}$ に沿ってモデルのアクティベーションを操作すると, モデルの予測結果は 図 $6(a-b)-(c-d)$ における層ごとの各主成分重みと数式の途中結果の相関関係のヒートマップ. 各セルは第 $k$ 主成分の重み(列)とある途中結果(行)との相関係数の絶対値を表す. 図 7(1) に示されるように, 元の予測結果 (664) から約 $-1000 \sim 2000$ まで変化することがわかる ${ }^{5}$. 本研究では, Manipulation 後の主成分の重みが 5000 個の同形データにおける重み $p_{i, k}^{l}$ に対し, $\min \left(p_{i, k}^{l}\right) \times 1.5$ から $\max \left(p_{i, k}^{l}\right) \times 1.5$ の範囲を超えないように変化量 $r$ を調整した. この時, 予測結果の変化をモデル内の途中結果 $b-c$ の表現を変えたものによるものたと仮定すると,図 7(1) の右軸を得ることができ, 軸を反転することで $p_{i, 3}^{2}=f_{p}(b-c)$ となるような関数 $f_{p}$ が得られる。この予測関数 $f_{p}$ を, 実際に $b-c$ の値を変化させた時の重みを $p_{i, 3}^{2}=f_{a}(b-c)$ と表せるような実測関数 $f_{a}$ と比較した結果を図 $7(2)$ に示す. 図 $7(2)$ から, 予測関数 $f_{p}$ と実測関数  $f_{a}$ の傾向は概して一致しており, 特に元データの周りでは一致度が高いことがわかる. これは, $\hat{p}_{3}^{2}(b-c)$ が $b$ の値を一定の範囲では因果的にも符号化している証拠だと考えることができる. 一方で, 相関は高いが実測関数と一致しないような成分も存在する. 例えば, $\hat{p}_{2}^{4}(b)$ は $b$ と 0.86 の高い相関を持つが,この方向に対して同じインスタンスで Manipulation を行った結果は図 8 のようになる. 図 8 からは, $\hat{p}_{2}^{4}(b)$ がモデル内で線形かつ局所的に $b$ の値として使用されているわけではないことが読み取れる。 定量評価として,同じ実験を異なる値を持つ $a-(b-c)$ の 1000 インスタンスで行った時の $\left|f_{p}(b-c)-f_{a}(b-c)\right|$ の中央値を図 9 に示す. 平均値でなく中央値を採用したのは, 誤差が大きい少数のインスタンスに全体としての結果が引っ張られないようにするためである. $f_{a}, f_{p}$ につ (1) 重み操作によるモデル予測とそこから導いた途 (2) 途中結果と主成分の重みに関する実測関数 $f_{a}(b-$中結果の変化。 $c)$ と予測関数 $f_{p}(b-c)$ 。 図 $7 \quad \hat{p}_{3}^{2}(b-c)$ に対する Manipulation の結果. 影の部分はデータセット中に現れない重みの範囲を表す. (1) 重み操作によるモデル予測とそこから導いた途 $(2)$ 途中結果と主成分の重みに関する実測関数 $f_{a}(b)$中結果の変化。 と予測関数 $f_{p}(b)$ 。 図 $8 \hat{p}_{2}^{4}(b)$ に対する Manipulation の結果. 影の部分はデータセット中に現れない重みの範囲を表す. いてはどちらも最小二乗法による 4 次近似で点間を補完している ${ }^{6}$. 図 9 から, $\hat{p}_{3}^{2}(b-c)$ と比べると $\hat{p}_{2}^{4}(b)$ は誤差が非常に大きいことがわかる ${ }^{7}$. ここから, 特に元デー夕の近辺では $\hat{p}_{3}^{2}(b-c)$ が $b-c$ の値を因果的に符号化していること, $\hat{p}_{2}^{4}(b)$ は $b$ の值と相関は高いがモデルの推論に $b$ として使われているわけではないことが定量的にも観察される. $(a-b)-(c-d)$ の数式においても同じくManipulation を行う. $(524-539)-(609-793)$ という数式を元データとして, $\hat{p}_{3}^{2}(c-d)$ に対して Manipulation を行った結果を図 10 に示す.図 10(2) から, $c-d$ が -250 から 600 の範囲では $f_{a}(c-d)$ と予測関数 $f_{p}(c-d)$ は一致度が高 (1) $\hat{p}_{3}^{2}(b-c)$ に対する Manipulation。 (2) $\hat{p}_{2}^{4}(b)$ に対する Manipulation。 図 91000 個の $a-(b-c)$ のデー夕に対して重みの操作を行った際の誤差 $\left|f_{p}(b-c)-f_{a}(b-c)\right|$ の中央値。横軸は操作前のインスタンスにおける $b-c$ の值からどれほど離れた值で誤差の測定を行ったかを表す. (1) 重み操作によるモデル予測とそこから導いた途 $(2)$ 途中結果と主成分の重みに関する実測関数 $f_{a}(c-$中結果の変化。 $d)$ と予測関数 $f_{p}(c-d)$ 。 図 10 数式 $(a-b)-(c-d)$ について, $\hat{p}_{3}^{2}(c-d)$ に対する Manipulation の結果. 影の部分はデータセット中に現れない重みの範囲を表す。 ^{6} f_{p}$ は多価関数になる可能性があるが,その際も同様の近似手法を用いている }^{7} \hat{p}_{3}^{2}(b-c)$ の誤差は最大で 10 程度だが, $\hat{p}_{2}^{4}(b)$ では 1000 以上にもなることが見て取れる. 図 111000 個の数式 $(a-b)-(c-d)$ に対して重みの操作を行った際の誤差 $\left|f_{p}(c-d)-f_{a}(c-d)\right|$ の中央値. く, $p_{3}^{2}$ が $c-d$ の值を因果的に符号化していることがわかる. 同じ形を持つ 1000 個の数式デー 夕で Manipulationを行った際の誤差中央値を図 11 に示す. 図 11 から複数の数式で定量的に見ても, 元データの周りでは特に誤差が少なく, $p_{3}^{2}$ が $c-d$ の値を因果的に符号化していることがわかる. ## 6 議論 ## 6.1 エラー分析 Manipulation を行った際の予測関数 $f_{p}$ と実測関数 $f_{a}$ の誤差にはインスタンスごとにバラつきがある. では誤差が大きいインスタンス(元データ)にはどのような性質があるのだろうか. 5.2 節の結果と同様に $(a-b)-(c-d)$ という数式の $\hat{p}_{3}^{2}(c-d)$ に対して Manipulation を行った際, 誤差平均值が最も大きかった 2 インスタンスの結果を図 12 に示す. 図 12 に示した例における共通点は, どちらも $c-d$ の値が 0 に近いことである. 1000 インスタンスにおける元データの $c-d$ の値と Manipulation 結果の誤差平均值の関係を図 13 に示す. 図 13 から途中結果 $c-d$ の値が 0 に近いほど誤差が大きい傾向にあることがわかるが,この結果は学習デー夕の分布に起因するものだと推察することができる.モデルの学習において項は 0 から 1000 までの整数からランダムで選ばれる。この時, ランダムな 2 項の引き算 $a-b$ の値の分布は図 14 のようになる. 図 13,14 はどちらも 0 付近で値が大きくなり, 類似した形となっていることが見てとれる. (1) $(677-989)$ - (432 - 433) に対する Manipulation の結果。 (2) $(361-217)-(691-668)$ に対する Manipulation の結果。 図 12 Manipulation を行った際, 誤差 $\left|f_{p}(c-d)-f_{a}(c-d)\right|$ が大きくなる例. ここから, 図 12 に示したような例で Manipulation が失敗するのは $c-d$ が 0 付近となるようなインスタンスが学習データ中に多く存在するため, その周りでの内部表現は過学習されたものとなっているためではないかと考えることができる。これは, ニューラル数式ソルバーの性能が学習データ中の頻度に依存するという先行研究 (Razeghi et al. 2022)の結果とも関連する. ## 6.2 本研究の限界 本研究で用いた手法や設定には複数の制限や限界がある. 本研究で用いたデータセットは足し算と引き算,かっこのみから構成されており,この狭いスコープで観察されたことがどこま 図 $13(a-b)-(c-d)$ における $c-d$ の値と Manipulation 誤差の関係. 図 14 ランダムな 2 項の引き算 $a-b$ の値の分布. で一般化できるかについては疑問が残る。より複雑度を上げるためにはかけ算や割り算, 剰余などの演算子を導入することが考えられるが,特にかけ算を導入した場合は回帰の設定で訓練を行っていることもあり,答えの分布が疎になってしまうことに留意するべきである.また,本研究では直接数式の答えの大きさを予測する回帰の設定で行っているが,2 節で述べた数量推論の研究の多くは生成やマスク穴埋めによって答えを出す, シンボルからシンボルへの設定で行われている。この点においても,本研究の結果を一般的な数量推論モデルに適用する際のギャップがあると考えられる。一方で,内部状態さえ取得できれば手法を適用することは可能なため, GenBERT (Geva et al. 2020)のような本研究で使用したデータセットと近い数式でも訓練しているモデルに対して途中結果の追跡や操作を試みることが手段として考えられる。さ らに, 本研究の手法は前提としてモデルの内部状態を取得できることが必要である.そのため, GPT-3のような入力と出力しか知ることができず,内部状態が公開されていないようなモデルに対してはそもそも途中結果の追跡や操作を行うことができない. ## 7 おわりに 本研究では言語モデルが数値計算を行う時に内部で行っている処理を明らかにするため, 数式中の途中結果に着目し追跡と操作を行った. その結果, 「数値計算ができるモデル」の内部では途中結果の情報が存在し, かつその情報はモデルの推論時にも使われていることを解明した.本研究の手法はアクティベーションを連続的に変化させることでモデルに対して詳細な因果推論を行うこと自体も貢献である.今後の方向性としては,本研究の知見を他のデータセット, あるいは他の設定でのモデルに適用して同様に数値計算能力を調査し, Tracing と Manipulation の分析道具としての有用性を示すといったことが考えられる。また, さらに複雑な数式を分析対象とし, 符号化される時とされない時の違いを調査するといったことも考えらえる. ## 謝 辞 本研究は JST CREST JPMJCR20D2, JSPS 科研費 21K17814の助成を受けたものです. ## 参考文献 Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P., Neelakantan, A., Shyam, P., Sastry, G., Askell, A., Agarwal, S., Herbert-Voss, A., Krueger, G., Henighan, T., Child, R., Ramesh, A., Ziegler, D., Wu, J., Winter, C., Hesse, C., Chen, M., Sigler, E., Litwin, M., Gray, S., Chess, B., Clark, J., Berner, C., McCandlish, S., Radford, A., Sutskever, I., and Amodei, D. (2020). "Language Models are Few-Shot Learners." In Larochelle, H., Ranzato, M., Hadsell, R., Balcan, M., and Lin, H. (Eds.), Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Curran Associates, Inc. Charton, F. (2021). "Linear Algebra with Transformers." arXiv preprint arXiv:2112.01898. Chen, C.-C., Huang, H.-H., Takamura, H., and Chen, H.-H. (2019). "Numeracy-600K: Learning Numeracy for Detecting Exaggerated Information in Market Comments." In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 6307-6313, Florence, Italy. Association for Computational Linguistics. Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidi- rectional Transformers for Language Understanding." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota. Association for Computational Linguistics. Dua, D., Wang, Y., Dasigi, P., Stanovsky, G., Singh, S., and Gardner, M. (2019). "DROP: A Reading Comprehension Benchmark Requiring Discrete Reasoning Over Paragraphs." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 2368-2378, Minneapolis, Minnesota. Association for Computational Linguistics. Elazar, Y., Ravfogel, S., Jacovi, A., and Goldberg, Y. (2021). "Amnesic Probing: Behavioral Explanation with Amnesic Counterfactuals." Transactions of the Association for Computational Linguistics, 9, pp. 160-175. Geva, M., Gupta, A., and Berant, J. (2020). "Injecting Numerical Reasoning Skills into Language Models." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 946-958, Online. Association for Computational Linguistics. Hewitt, J. and Manning, C. D. (2019). "A Structural Probe for Finding Syntax in Word Representations." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4129-4138, Minneapolis, Minnesota. Association for Computational Linguistics. Hosseini, M. J., Hajishirzi, H., Etzioni, O., and Kushman, N. (2014). "Learning to Solve Arithmetic Word Problems with Verb Categorization." In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 523-533, Doha, Qatar. Association for Computational Linguistics. Jawahar, G., Sagot, B., and Seddah, D. (2019). "What Does BERT Learn about the Structure of Language?" In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3651-3657, Florence, Italy. Association for Computational Linguistics. Liu, Z., Kitouni, O., Nolte, N., Michaud, E. J., Tegmark, M., and Williams, M. (2022). "Towards Understanding Grokking: An Effective Theory of Representation Learning." In Oh, A. H., Agarwal, A., Belgrave, D., and Cho, K. (Eds.), Advances in Neural Information Processing Systems. Lovering, C., Jha, R., Linzen, T., and Pavlick, E. (2021). "Predicting Inductive Biases of PreTrained Models." In International Conference on Learning Representations. Mishra, S., Finlayson, M., Lu, P., Tang, L., Welleck, S., Baral, C., Rajpurohit, T., Tafjord, O., Sabharwal, A., Clark, P., and Kalyan, A. (2022). "Lila: A Unified Benchmark for Mathematical Reasoning." In Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 5807-5832. Mu, J. and Viswanath, P. (2018). "All-but-the-Top: Simple and Effective Postprocessing for Word Representations." In International Conference on Learning Representations. Patel, A., Bhattamishra, S., and Goyal, N. (2021). "Are NLP Models really able to Solve Simple Math Word Problems?" In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 2080-2094, Online. Association for Computational Linguistics. Piekos, P., Malinowski, M., and Michalewski, H. (2021). "Measuring and Improving BERT's Mathematical Abilities by Predicting the Order of Reasoning." In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pp. 383-394, Online. Association for Computational Linguistics. Raffel, C., Shazeer, N., Roberts, A., Lee, K., Narang, S., Matena, M., Zhou, Y., Li, W., and Liu, P. J. (2020). "Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer." Journal of Machine Learning Research, 21 (140), pp. 1-67. Raganato, A. and Tiedemann, J. (2018). "An Analysis of Encoder Representations in Transformer-Based Machine Translation." In Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 287-297, Brussels, Belgium. Association for Computational Linguistics. Ravfogel, S., Elazar, Y., Gonen, H., Twiton, M., and Goldberg, Y. (2020). "Null It Out: Guarding Protected Attributes by Iterative Nullspace Projection." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7237-7256, Online. Association for Computational Linguistics. Razeghi, Y., Logan, R. L., Gardner, M., and Singh, S. (2022). "Impact of Pretraining Term Frequencies on Few-Shot Reasoning." arXiv preprint arXiv:2202.07206. Sajjad, H., Dalvi, F., Durrani, N., and Nakov, P. (2021). "On the Effect of Dropping Layers of Pre-trained Transformer Models." arXiv preprint arXiv:2004.03844. Saxton, D., Grefenstette, E., Hill, F., and Kohli, P. (2019). "Analysing Mathematical Reasoning Abilities of Neural Models." In International Conference on Learning Representations. Shibata, C., Uchiumi, K., and Mochihashi, D. (2020). "How LSTM Encodes Syntax: Exploring Context Vectors and Semi-Quantization on Natural Text." In Proceedings of the 28th International Conference on Computational Linguistics, pp. 4033-4043, Barcelona, Spain (Online). International Committee on Computational Linguistics. Thawani, A., Pujara, J., Ilievski, F., and Szekely, P. (2021). "Representing Numbers in NLP: a Survey and a Vision." In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 644-656, Online. Association for Computational Linguistics. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., and Polosukhin, I. (2017). "Attention is All you Need." In Guyon, I., Luxburg, U. V., Bengio, S., Wallach, H., Fergus, R., Vishwanathan, S., and Garnett, R. (Eds.), Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc. ## 略歴 松本悠太:2021 年東北大学工学部電気情報物理工学科卒業. 2023 年同大学院修士課程修了. 同年, 株式会社リクルートに機械学習エンジニアとして入社. Benjamin Heinzerling: Benjamin Heinzerling is a postdoctoral researcher at RIKEN AIP and Tohoku University in Sendai, Japan. His research interests include the analysis of world knowledge in language models, linking texts and knowledge bases, and multilingual subword methods. He holds a PhD degree in Computational Linguistics from Heidelberg University, Germany. 吉川将司: 2020 年奈良先端科学技術大学院大学先端科学技術研究科情報科学領域博士課程修了. 同年, 東北大学助教. 乾健太郎:東北大学大学院情報科学研究科教授. 1995 年東京工業大学大学院情報理工学研究科博士課程修了. 同大学助手, 九州工業大学助教授, 奈良先端科学技術大学院大学助教授を経て, 2010 年より現職. 2016 年より理化学研究所 AIP センター自然言語理解チームリーダー兼任. $\left.\begin{array}{ll}(2023 \text { 年 } 3 \text { 月 } 1 \text { 日 } & \text { 受付 }) \\ (2023 \text { 年 } 7 \text { 月 } 1 \text { 日 } & \text { 再受付 }) \\ (2023 \text { 年 } 8 \text { 月 } 10 \text { 日 } & \text { 採録 }\end{array}\right)$
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# なりきり質問応答と大規模言語モデルに基づく なりきり $\mathrm{AI の$ 構築 } 光田 航 ${ }^{\dagger, \dagger \dagger} \cdot$ 東中竜一郎 ${ }^{\dagger} \cdot$ 李 廷軒 ${ }^{\dagger,+\dagger \dagger} \cdot$ 杉山 弘晃 $^{\dagger} \cdot$ 水上 雅博 $^{\dagger} \cdot$中村 竜太 ${ }^{+\dagger \dagger}$ ・安達 敬武 ${ }^{+1 \dagger \dagger}$ ・川端 秀寿 本研究では, 単一の人物の大規模な対話データを大規模言語モデルと組み合わせる ことで,対象人物を再現するチャットボット(なりきり AI)を構築した。さらに,構築したチャットボットの公開実験とそのエラー分析を行うことで, 現状の到達点 と問題を調査した.その結果, 構築されたチャットボットは高い自然さとキャラク 夕らしさを持つことが明らかになった. さらに, 対象人物を再現するチャットボッ トのエラーは,属性に関するエラーと関係に関するエラーに分けられ,また,自己 に関するエラーと他者に関するエラーに分けられることが明らかになった。 キーワード:対話システム,チャットボット,なりきり AI,エラー分析 ## Development of Character-like Chatbot with Role Play-Based Question Answering and a Large Language Model Koh Mitsuda ${ }^{\dagger, \dagger \dagger}$, Ryuichiro Higashinaka ${ }^{\dagger}$, TingXuan Li ${ }^{\dagger, \dagger \dagger \dagger}$, Hiroaki Sugiyama ${ }^{\dagger}$, Masahiro Mizukami ${ }^{\dagger}$, Ryuta Nakamura ${ }^{\dagger \dagger \dagger}$, Noritake Adachi${ }^{\dagger \dagger \dagger}$, Hidetoshi Kawabata ${ }^{\dagger \dagger \dagger}$, Sen Yoshida ${ }^{\dagger,+\dagger \dagger \dagger \dagger}$ and Tetsuya Kinebuchi $^{\dagger}$ We developed a chatbot that imitates a specific person by combining a large amount of dialogue data of that person with a large language model. Furthermore, we investigated the current performance and problems of the chatbot by conducting an open experiment and error analysis of the chatbot. The experiment confirmed the high naturalness and characterness of the chatbot. In addition, our investigation revealed that the errors specific to a person can be divided into two types: errors in attributes  and errors in relations, each of which can be divided into two levels: self and other. Key Words: Dialogue System, Chatbot, Role Play-Based Question Answering, Error Analysis ## 1 はじめに 一貫した個性を持つチャットボットの研究が注目されている (Li et al. 2016b; Zhang et al. 2018; Qian et al. 2018; Zhou et al. 2020). このようなチャットボットを構築するためは, 特定の個性を持った人物の対話データを多量に用意し, 生成べースのモデルを学習する手法が一般的に考えられる。しかしながら,対象人物の対話データを多量に集めることは容易ではない. この問題に対して, 我々は先行研究において, 多くの作業者が対象人物(データ収集の対象とする特定の人物)になりきって質問に回答する枠組み(なりきり質問応答)を提案している (Higashinaka et al. 2013). さらに,提案手法を用いて,有名な人物(例えば, YouTuberやアニメの登場人物) への質問,および,その回答のペア(QAペア)をファンから大規模に収集し,対象人物のように振る舞うチャットボットであるなりきり AIを構築する手法を提案してきた (Higashinaka et al. 2018; Kodama et al. 2020; 水上他 2023). 一方で, 近年, 自然言語処理において言語モデルが高度化している (Vaswani et al. 2017; Devlin et al. 2019; Raffel et al. 2019; Brown et al. 2020). 特に Transformer (Vaswani et al. 2017) に基づく大規模言語モデルである Meena (Adiwardana et al. 2020), BlenderBot (Roller et al. 2021), ChatGPT (Ouyang et al. 2022)は,従来のものと比較してより自然な対話が可能である。なりきり $\mathrm{AI}$ の研究においても,対象人物に対して収集した $\mathrm{QA}$ ペアを大規模言語モデルと組み合わせることで,自然な対話のみならず,その人物らしい対話が実現できる可能性が考えられる。 本研究では,単一の人物に関するなりきり質問応答のデータを大規模言語モデルと組み合わせることでなりきり $\mathrm{AI}$ 構築した。 さらに,インターネットを通じて公開実験を行うことで,対象人物を再現するチャットボットにおける現状の到達点と今後解決すべき課題を調査した. その結果,なりきり $\mathrm{AI}$ の構築を通じて,収集された $45 \mathrm{~K}$ の QA ペアを用いて大規模言語モデルを fine-tuning することで,チャットボットが高い自然さとキャラクタらしさを持つことがわかった。さらに,公開実験で収集された対話を用いて,対象人物を再現するチャットボットのエラー(以降,人物特有エラーと呼ぶ)を分析した。その結果,人物特有エラーは属性に関するエラーと関係に関するエラーの二種類に分けることができ,また,自己に関するエラーと他者に関するエラーという二つのレベルに分けられることがわかった. 本研究の貢献は下記の二点である. (1)なりきり質問応答を通じて収集した対象人物に関する多量の QA ペアを用いて,大規模言語モデルを fine-tuning することで,高い自然さおよびキャラクタらしさを持った チャットボットが構築可能なことを示した. (2) 対象人物を再現したチャットボットの公開実験を行うことで,多数のユーザとの対話データを収集した。公開対象のチャットボットとして,なりきり質問応答,および,なりきり質問応答のデータを拡張した対話データを用いて学習されたモデルを利用した.公開実験を通じて収集された対話データにおいて,不自然なシステム発話に対するアノテーションとエラー分析を行うことで,対象人物を再現するチャットボットにおけるエラー類型を明らかにした。 なお,本研究では大規模なデータ収集や公開実験を行っており,高いコストがかかることから,単一の人物(後述の「アマデウス紅莉栖」)を対象に評価や調査を行った. 以降,本稿では,まず 2 節で関連研究について概観する。 3 節でなりきり質問応答を通じたデータ収集について述べ, 4 節で発話生成モデルの構築について説明する。次に,5 節で評価実験, 6 節で公開実験について述べる。その後, 7 節で人物特有エラーの分析について説明する.最後に 8 節で本研究のまとめを述べる. ## 2 関連研究 本研究は対象人物を再現するチャットボットを対象としており,一貫した個性で発話を生成する研究と関連が深い。また, 対象人物の対話データを扱っており,対話システムの個性に関するリソースを収集した研究とも関連がある。さらに,対象人物の再現は,発話やテキストの表現方法を変化させるスタイル変換の研究でも取り組まれている。また,本研究はチャットボットのエラーについて調査した研究とも関連がある。降,各観点について関連研究を述べる. 一貫した個性で発話を生成する研究について, 個性の一貫性を考慮した初期のモデルとして,話者 ID (Li et al. 2016b) や,テーブル上に表現した個性の情報 (Qian et al. 2018) を考慮するモデルが提案されている。その後, Persona-Chat (Zhang et al. 2018)の登場に伴ない, 個性が一貫した発話を生成するモデルがさまざま提案されている (Madotto et al. 2019; Song et al. 2020; Kim et al. 2020; Liu et al. 2020),近年は,大規模言語モデルを発話生成に導入して個性の一貫性を改善する手法も取り組まれている (Majumder et al. 2020; Zheng et al. 2020; Han et al. 2022).これらの研究と比較し, 本研究は単一の人物の個性を再現するために, その人物の多量の対話データを利用しているという点が異なる. 対話システムの個性に関するリソースを収集した研究について述べると,前述の Persona-Chat (Zhang et al. 2018) は,個性を表す数文のテキストと,その個性を持った人物の対話を人手で作成した代表的な研究である。また,インターネットを通じて,多数の人物を対象に,個性を表す数文のテキスト,および,その個性に従う対話を収集した研究も存在する (Mazaré et al. 2018). これらの研究と比較し,本研究は単一の人物に焦点を当て,大規模な対話データを収集してい る点が異なる。また,これらの特定の個性に紐付くリソースを集めた研究とは異なるが,対話において相手の個性を尋ねる代表的な質問を整理した研究も存在する (Sugiyama et al. 2014). スタイル変換の研究では,発話やテキストの表現方法(言葉の選び方や口調)を変化させることで,対象人物の発話の再現に取り組んだものが存在する。初期の研究では,コーパス中の発話から対象人物の発話の言語的なスタイルを抽出する手法 (Miyazaki et al. 2015) や,発話のスタイルを考慮した単語埋め达みを獲得する手法 (Akama et al. 2018) が提案されている。近年は,生成モデルを用いて所望のスタイルを持つテキストや発話を生成する研究が報告されており, 発話の丁寧さ (Niu and Bansal 2018), 感情表現 (Zhou et al. 2018; Huang et al. 2018), 性格 (Shuster et al. 2020) を考慮する手法が提案されている. チャットボットのエラー類型については, 特定の個性を持たない一般的なチャットボットのエラーや, 複数の文で記述されたペルソナを持つチャットボットのエラーを扱う研究が存在する.一般的なチャットボットのエラーを類型化した研究として, 対話理論に基づくもの (Higashinaka et al. 2015),データに基づくもの (Higashinaka et al. 2015),それらを統合したもの (Higashinaka et al. 2021) が存在する。また, チャットボットの発話そのものではなく, ユーザが示す不満の反応に着目してエラーを類型化した研究も存在する (See and Manning 2021). ペルソナを持つチャットボットのエラーを扱った研究としては, Persona-Chatにおいて個性や文脈と矛盾した発話が生成されることに着目し,アノテーションを行った研究 (Welleck et al. 2019) や, 対話においてシステムが各話者の個性を取り違える問題に着目し, 発話の一貫性を改善する研究 (Shuster et al. 2022) が存在する. ## 3 なりきり質問応答を通じたデータ収集 大規模言語モデルの fine-tuning を行い対象人物のチャットボットを構築するため, 先行研究 (Higashinaka et al. 2013, 2018) にならって, 単一の人物を対象になりきり QAコーパスを作成した。また,QAデー夕のみで学習したモデルの限界を調べるために,作業者が人手で QA ぺアを対話形式に拡張したなりきり対話コーパスを作成した.以下,各コーパスの作成方法について述べる。 ## 3.1 なりきり QAコーパスの構築 なりきり QAコーパスは,対象人物のファンが,その人物への質問を投稿したり,質問に対する回答(キャラクタによっては親密度などの付加情報を含む (Kodama et al. 2020))を,あたかも自分がその人物になったかのように投稿したりすることで収集するなりきり質問応答の枠組みを通じて構築された (Higashinaka et al. 2013, 2018)。なりきり質問応答は, Web サイトを通じてファンから対象人物への質問と回答を収集する枠組みである。先行研究 (Higashinaka et al. 2018)において,効率的に QA ペアを収集できることが確認されており,例えば, $2 \mathrm{~K}$ 件の QA ペアを収集するまでの時間は,経営者兼 YouTuber である「マックスむらい」は 0.92 日, アニメの登場人物である「新垣あやせ」は 1.12 日と報告されている. 本研究において対象とする人物は,ビデオゲーム「STEINS;GATE 0$\rfloor^{1}$ 登場する人物である「アマデウス紅莉栖」(以降, 単に紅莉栖と呼ぶ)である。なりきり QAの収集は特設の Webサイト2を通じて行われた。 収集される対象人物の発話は対話相手との関係性によって口調や内容が変化する可能性が考えられる.コーパス構築時には, Kodama et al. (2020) と同様に, 対象人物の応答に加えて親密度(他人, 知人, 友人, 親友, 家族/恋人の 5 種類)のラベルを収集した. このラベルを活用することで,ユーザとの関係や親しさによって口調を変化させることも可能と考えられる。しかしながら,対話を通じてユーザとの関係や親しさを推定して対話に用いる方法が自明ではないことから,本研究の実験では収集した親密度のデータは利用せず,全てのデー夕を統合して利用した。 表 1 に,紅莉栖に関して収集された QA ペアの統計情報を示す.最終的に 45,297 ペアの $\mathrm{QA}$ を収集することができ,単一の人物のみを対象としたデータとして最も多い (Higashinaka et al. 2018; Kodama et al. 2020). 以下に収集された QAペアの例を示す. Q:「名前を教えて。」 $\mathrm{A}_{1}$ :「私の名前は紅莉栖です。お会いできて嬉しいわ。」 $\mathrm{A}_{2}$ :「名前は紅莉栖よ。何か用かしら?」 $\mathrm{Q}$ と $\mathrm{A}$ は, 紅莉栖への質問と紅莉栖の回答に対応している. 同じ質問(上記の $\mathrm{Q} ) に$ 対して, 表 1 本研究で対象とする人物(ビデオゲームの登場人物である紅莉栖)に対して収集されたなりきり QAコーパスの統計量. なお, トークン数は, 4 節で述べる日本語版の BlenderBot (Sugiyama et al. 2021)において利用される SentencePiece (Kudo and Richardson 2018) のモデルを用いて計算したものである.  ユーザーは異なる回答(上記の $\mathrm{A}_{1}$ と $\mathrm{A}_{2}$ )を投稿することができるため, 収集された各質問には複数の回答(平均 1.8 件)が存在している. ## 3.2 なりきり対話コーパスの構築 なりきり質問応答は,対象人物に対する QAペアを多量に収集する効率的な方法であるが,対象人物からの発話(例えば,対象人物からユーザに対する質問)が含まれていなかったり,一問一答を越えた文脈を含む対話のデータが含まれていなかったりする。そこで,なりきり QA コーパスの限界を調べるために,なりきり QAコーパスに基づいて対象人物とユーザ間の対話データをなりきり対話コーパスとして収集し,QAデータと合わせて fine-tuning に利用することにした。 なりきり対話コーパスにおいて様々な対話を収集するために,収集対象として,なりきりQA コーパスのようにユーザから対話が始まるものと,対象人物から対話が始まるものの二種類を 件人手で追加することで対話形式に拡張するようにした。対象人物から始まる対話では,その人物の最初の発話を作成した後, 作成した発話に自然に続くと考えられる 4 件の発話を作成するようにした,最初の発話を作成するための刺激として,人対人のテキストチャットコーパス (Higashinaka et al. 2014) から発話をランダムに抽出し作業者に与えた. このとき, 各対話行為 (Meguro et al. 2010)の分布が一様になるようにした.作業者には,対話行為を変えることなく刺激となる発話を書き換えることで対象人物の最初の発話を作成するよう指示した。なお,刺激となる発話の書き換えが難しい場合(例えば,発話の内容が対象人物の設定と矛盾する場合) は,その発話は使用せずスキップすることとした。下記に,刺激となる発話と書き換え後の発話の例を示す. - 刺激となる発話:「休みの日は何をされてますか?」(対話行為:質問) 書き換え後の発話:「休みの日は何をしているのかしら?」 - 刺激となる発話:「北海道といえばラーメンですよね。」(対話行為:情報提供) 書き換え後の発話:「北海道といえばラーメンよね。」 ## 3.3 なりきり対話 なりきり対話コーパスの構築のために,クラウドソーシングプラットフォーム $\left(\right.$ Lancers $\left.^{3}\right)$ を通じて作業者を募集した。なりきり QAコーパスの作成とは異なり,作成された発話に対して報酬が支払われた,募集した作業者は,対象人物について十分な知識を持つものに限定し,具体的には,対象人物が登場するゲームや映画を少なくとも 1 回以上見たことがある,または, ^{3}$ https://www.lancers.jp/ } プレイしたことがある者とした. 募集の結果, 作業者の総数は 9 名となった. 9 名の作業者によって作成される対話の内容がなるべく多様になるよう,各作業員には,異なるなりきり QA ペア,および,刺激となる発話を割り振るようにした。なお,事前スクリーニングとして,あらかじめ用意したアンケートを通じて,対象人物に関する知識レベルの主観的な評価(自己申告形式のもの), 対象人物が登場するゲームや映画等の実施, 視聴回数, それらの具体的な作品名を回答させ,募集条件を満たす作業者を選定した。事後フィルタリングについては,作業品質に問題がある作業者に対して行う予定であったが,そのような作業者は発見されなかったため実施しなかった。 表 2 に,紅莉栖のなりきり QAコーパスを人手で拡張したなりきり対話コーパスの統計情報を示す. 収集された対話は 4,500 対話であり,24,750 発話から構成されている。表 2 における 「対象人物の発話の平均トークン数」と表 1 における「応答に含まれる平均のトークン数」とを比較すると,前者が後者よりも少ないことが確認できる。これは,なりきり対話コーパスには対話特有の短い応答(例えば,「そうね。」)や,対話の継続を促す簡単な質問(例えば,「本当なの?」)が含まれているためである. 以下に,なりきりQAペアから拡張されたなりきり対話の例を示す. $\mathrm{U}_{1}:(\mathrm{Q})$ 「名前を教えて。」 $\mathrm{S}_{1} :\left(\mathrm{~A}_{1}\right)$ 「私の名前は紅莉栖です。お会いできて嬉しいわ。」 $\mathrm{U}_{2}:$ 「紅莉栖ってかっこいい名前だよね。」 $\mathrm{S}_{2}$ : 「本当?光栄だわ。」 $\mathrm{U}_{3}:$ 「本当だよ。みんなに言って回りたいくらい。」 $\mathrm{S}_{3}:$ 「それはやめて!!恥ずかしいわ。」 $\mathrm{U}$ と $\mathrm{S}$ はそれぞれユーザの発話と対象人物の発話を表す. $\mathrm{U}_{1}$ と $\mathrm{S}_{1}$ は収集されたなりきり QA ぺアの一つであり, $\mathrm{U}_{2}$ から $\mathrm{S}_{3}$ までの発話はそのぺアを拡張して人手で追加した発話である. 表 2 なりきり QAコーパスを拡張して作成したなりきり対話コーパスの統計量 ## 4 発話生成モデルの構築 本節では,対象人物について収集したなりきり QAコーパス,および,なりきり対話コーパスを用いて大規模言語モデルを fine-tuning し,その人物らしい応答生成モデルを構築する手法について述べる。大規模言語モデルとして, 杉山らが構築した日本語版の BlenderBotを利用した (Sugiyama et al. 2021),以降,日本語版の BlenderBot の概要,および,なりきりQAコーパスとなりきり対話コーパスを用いた fine-tuning の方法について述べる. ## 4.1 日本語版 BlenderBot の概要 日本語版 BlenderBot は, 事前学習と fine-tuning の二段階で学習されている。事前学習用のデータとしては, 日本語における Twitter4のリプライが利用されている。具体的には, 2016 年 1 月から 2018 年 3 月までのツイートから取得した 2.1B ペアのツイート (512GB) が利用されており,入力文脈には最大で 4 発話が含まれる。 fine-tuning 用の学習データとしては, 後述する個性, 知識, 共感のスキルを学習する対話と, それらを統合したスキルを学習する対話の 2 種類が利用されている。個性については, Persona-Chat (Zhang et al. 2018) のプロフィール文を日本語に翻訳し対話を人手で作成したもの, 知識に関しては, Wizard-of-Wikipedia (Dinan et al. 2019)を翻訳したもの,共感に関しては, EmpatheticDialogue (Rashkin et al. 2019)を翻訳したものが利用されている。また,これら三つを統合したスキルを学習するための対話として,傾聴対話コーパス (Meguro et al. 2010), 雑談対話コーパス (Higashinaka et al. 2014), 趣味雑談コーパス (Sugiyama et al. 2021) が利用されている. モデルはパラメタ数 $1.6 \mathrm{~B}$ (エンコーダ 2 層, デコーダ 24 層, 各埋め込みベクトル 1,920 次元) の Transformer ベースのエンコーダ・デコーダモデルである. デコード手法には, dull-response を防ぐため, sample-and-rank が利用されている (Adiwardana et al. 2020). エンコーダへの入力は,以下のテンプレートに従って作成される. ## DialogueName: [SEP] SpeakerID [SEP] [SPK1]Utterance1 [SEP] [SPK2]Utter ance2 [SEP] [SPK1] Utterance3 [SEP] [SPK2] Utterance4 [SEP] TurnNumber DialogueName, SpeakerID, Utterance1~Utterance4, TurnNumber はそれぞれ,コーパスの種類,ユニークな話者 ID,入力文脈,対話の開始からの発話数に対応する.具体的な例は 4.2 節で述べる。 ## 4.2 なりきり QAコーパスとなりきり対話コーパスを用いた fine-tuning 杉山らが構築した日本語版 BlenderBot のモデルに対して, 収集したなりきり QAコーパスとなりきり対話コーパスを用いて fine-tuning を行うことで, 対象人物の発話生成モデルを作成し  た. このとき,なりきり QAコーパスを訓練, 開発, テストセットに $18: 1: 1$ の割合で分割した。分割の際は,データセット間で質問が重複しないようにした。また,なりきり対話コーパスも同様の方法で分割した。このとき,なりきり対話コーパスになりきり QAコーパスの質問が含まれる場合(ユーザから対話が始まる場合),なりきりQAコーパスの分割結果を参照し, その質問が含まれるデータセットと同じセットに対話を含めるようにした。これは,コーパス間でリークが起こらないようにするためである。学習の際は, 開発セットにおける正解の応答の Negative Log-Likelihood (NLL) loss が最小になるようにし,その結果 1 エポックで学習を停止させた. バッチサイズは 64 に設定した。なりきり QAコーパスとなりきり対話コーパスの入力例を以下に示す. $ \text { なりきり QA: [SEP] idxx [SEP] [SPK2] お名前を教えて頂けますか? [SEP] ターン } 00 $ “idxx”は対象人物用に設定した ID を表し,“[SPK2]”はユーザ,“[SPK1]”は対象人物を表す. なりきり QAコーパスの例における正解の出力は例えば「牧瀬紅莉栖です。どうぞよろしく。」 となり,なりきり対話コーパスの例では「でもね、決して実現できないものではないわ。」となる。 ## 5 評価実験 収集したなりきり QA コーパスとなりきり対話コーパスを用いて学習された発話生成モデルを用いて,対象人物らしい対話が可能かどうかを三種類の方法で評価した。一つ目は,なりきり QAコーパスにおける質問 (Question-In),または,なりきり対話コーパスの文脈 (Context-In) を入力したときの応答を評価する発話レベルの自動評価である。二つ目は, 同様の入力に対する発話レベルの人手評価である。 三つ目は,作業者が実際にチャットボットと対話しその対話全体を評価する対話レベルの人手評価である. ## 5.1 評価用データとモデルの準備 発話レベルの評価では,なりきりQAコーパスから抽出した質問,または,なりきり対話コー パスに含まれる対話から最後の対象人物の発話を除いて作成した文脈(最後の発話の直前の 4 発話)を入力として評価に利用した。具体的には,なりきりQAコーパスから抽出した質問 50 個,および,なりきり対話コーパスから作成した文脈 50 個を利用した. モデルとしては, ベースラインとなる検索べースのモデル 1 種類, および,生成べースのモ デル 3 種類の計 4 種類を用意した. 以下に各モデルの詳細を示す. (a) Ret-BERT-NS: ベースラインとなる検索ベースのモデルであり, 東中らの先行研究で提案された手法(入力となる質問に対してなりきり QAコーパス内の QAペアをランキングし,最も良い QA ペアの回答をシステム発話として出力する手法)に対応する (Higashinaka et al. 2018). 東中らの手法では,QA ペアの候補を BM25 (Robertson et al. 1995) で検索した後, 対話研究で利用される様々な特徴量(例:単語ベクトルの類似度,言語モデルに質問を入力したときに回答が生成される確率)を用いて QAペアのランキングを行う。これに対し, Ret-BERT-NS では, BM25で QA ペアの候補を検索した後, BERT (bidirectional encoder representations from Transformers) の教師あり分類モデルを利用して QA ペアのランキングを行う (Devlin et al. 2019)。これは,予備実験の結果,BERT を利用することで応答の自然性が向上することが確認されたためである.利用する BERT は質問と回答が入力として与えられたとき,回答が適切かどうかを二値分類するよう学習し,各回答に対して出力されるスコアに基づいて回答のランキングを行う,BERT の学習データはネガティブサンプリング(なりきり QAコーパス内の各質問に対して,別の質問に対する回答を 5 件ランダムに抽出することで負例を用意した)を用いて作成し,正例と負例の割合は $1: 5$ とした. BM 25 で検索する QAぺアは訓練,開発,評価セットのうち,訓練または開発セットに含まれるものとし,検索結果の上位 20 件を BERT でランキングするようにした。 (b) Gen-QA-Small: 生成ベースのモデルの一つであり, 日本語版の BelnderBot を一部のなりきり QAコーパス(QAペア 10,000万件)で fine-tuning したモデルである. このモデルは,後述の Gen-QA(なりきりQAコーパス全体を利用したモデル)と比較することで,なりきり QAコーパスのサイズが性能に与える影響を調べるために用意した. (c) Gen-QA: 生成ベースのモデルの一つであり, なりきり QAコーパス全体を用いて日本語版の BelnderBot を fine-tuning したモデルである. (d) Gen-QA+Dial: 生成ベースのモデルの一つであり,なりきりQAコーパス全体,および, なりきり対話コーパス全体を使用して日本語版の BlenderBot を fine-tuning したモデルである.このモデルは,なりきり QAコーパスを使用した場合のモデル (Gen-QA) と比較するために用意した. Gen-QA 同様, QAコーパスおよび対話コーパス全体のうち, 訓練用セットと開発用セットのみを用いて学習を行った。 なお,評価の際に利用する入力のテンプレートの DialogueName は, 全てのモデルにおいて同じものを利用した,具体的には,なりきり質問応答の質問を入力する際は “なりきり QA”を利用し,対話文脈を入力する際は“なりきり対話”を利用するようにした. ## 5.2 発話レベルの自動評価 表 3 に,質問 (Question-In), および,文脈 (Context-In) を入力したときのシステム発話の自 表 3 質問 (Question-In), および, 文脈 (Context-In)を入力したときのシステム発話の自動評価結果.発話長は出力されたシステム発話の平均トークン長を表す。太字は各評価尺度において数値が最も良い(大きい)ものを示す。 動評価結果を示す. BLEU, distinct (Li et al. 2016a), 発話長(出力されたシステム発話の平均トークン長)の三種類の指標で評価した,BLEU および distinct については,異なる n-gram の値において,評価値の傾向が変わらなかったため,1-gramの結果のみを示している.BLEU の結果から,生成ベースのモデルが検索ベースのモデルよりも正解の応答に類似した応答を生成できることを示している。また,発話長は生成べースと検索べースで同程度の長さになっているものの, distinct は検索べースの方が大きな値になっている。出力の多様性という観点では,現状の生成ベースのモデルでは限界があると考えられるものの,検索べースのモデルと比較して生成ベースのモデルが正解の応答に類似した応答を生成できており,手法の有効性が確認できる。 ## 5.3 発話レベルの人手評価 発話レベルの人手評価では,評価指標として以下の三つの尺度を利用し, 5 段階のリッカー 卜尺度(1点:強く非同意 $~ 5$ 点:強く同意)で評価値を付与した. - 自然さ:対象人物を問わず,システム発話が入力に対する応答として,一般的に自然であるかどうか - キャラクタらしさ: 入力に対する応答として, システム発話が対象となる人物 (本研究では紅莉栖)にとって適切であるかどうか - 情報量: システム発話が入力に関連して新しい情報を提供しているかどうか 評価にあたっては, Lancers を通じて, 作業者を 10 名募集して行った. このとき, 評価者は対象人物について十分な知識を有していることを条件とした,評価者は,各指標を独立して評価するという教示のもと,入力された質問または文脈ごとに,各モデルから生成されたシステム発話(ランダムにシャッフルされたもの)を評価した。 表 4 に,質問を入力したとき (Question-In), および,文脈を入力したとき (Context-In)のシステム発話の人手評価結果を示す。Question-Inでは,生成べースのモデルにおける自然さのスコアが検索ベースのモデルのスコアを有意に上回っていることがわかる.検定手法としては, & 情報量 & 自然さ & \\ (b) Gen-QA-Small & $\mathbf{3 . 5 9}_{a}$ & 3.42 & $\mathbf{3 . 4 2}_{a}$ & $3.66_{a}$ & 3.55 & 3.09 \\ (c) Gen-QA & $3.57_{a}$ & 3.48 & 3.37 & $\mathbf{3 . 8 1}_{a}$ & $\mathbf{3 . 7 9}_{a b d}$ & $\mathbf{3 . 1 7}_{a d}$ \\ (d) Gen-QA+Dial & $3.52_{a}$ & $\mathbf{3 . 5 0}$ & 3.32 & $3.62_{a}$ & 3.54 & 2.94 \\ 表 4 質問 (Question-In), および, 文脈 (Context-In) を入力したときのシステム発話の人手評価結果.太字は各評価尺度において数値が最も良い(大きい)ものを示す.数字右下のアルファベットは, そのスコアがアルファベットに対応するモデルのスコアよりも有意に良い $(p<0.05)$ ことを示す (Dwass 1960). Steel-Dwass の多重比較を利用した (Dwass 1960) $(p<0.05)$. スコアは生成ベースのモデル間で類似しており,一問一答においては Gen-QA-Small で飽和していると考えられる。また,キャラクタらしさについては,検索べースと生成べースで同等のスコアとなっている. Context-In では,生成べースと検索べースを比較すると,自然さのみならずキャラクタらしさにも一部に差が見られる.この結果は,検索べースが入力された文脈の全体を考慮することができず,不自然な応答が出力されてしまうことから,キャラクタらしさのスコアも低く評価されたと考えられる,個別のモデルに着目すると,Gen-QA は他と比較して良いスコアとなっており,この結果から,対象人物に関する大量の $\mathrm{QA}$ ペアがあれば,その人物の対話データがなくとも,その人物らしいシステム発話を文脈を考慮して生成することが可能であると結論付けられる。以上の結果から,構築したなりきりQAコーパスで大規模言語モデルを fine-tuningすることの有効性が確認できた。 ## 5.4 対話レベルの人手評価 所与の入力に対して出力されたシステム発話の単体の評価に加えて, 対話がどの程度実際の人物と同じように感じられるかを調査するために, 各作業者がチャットボットと対話を行い,対話全体の評価を行う実験も実施した,結果の信頼性を高めるために,対話レベルの評価では発話レベルの評価に参加した 10 名の作業者だけでなく, Lancers を通じて新しく募集した異なる 10 名の作業者を加えて, 計 20 名の作業者が評価を実施した. 各作業者は, 4 つのモデル (Ret-BERT-NS, Gen-QA-Small, Gen-QA, Gen-QA+Dial) と 3 回ずつ計 12 回 (4つのモデル× 3 回 $=12$ 回)ランダムな順序で対話を行い,各対話の後にその対話全体を評価した.対話の長さは,対話システムライブコンペティション (Higashinaka et al. 2021)のルールと同じく, システム発話とユーザ発話のペアを 1 ターンとし,15 ターンに設定した.各対話の終了時に,発話レベルの評価と同じ尺度(対話全体の自然さ, キャラクタらしさ, 情報量)で 5 段階のリッカー & 情報量 \\ 表 5 対話レべルの人手評価結果. 太字は各評価尺度において数値が最も良い(大きい)ものを示す. 数字右下のアルファベットは, そのスコアがアルファベットに対応するモデルのスコアよりも有意に良い $(p<0.05)$ ことを示す (Dwass 1960). ト尺度を用いて評価した。作業者がチャットボットと対話するためのツールとして Telegram ${ }^{5}$ を使用した。 表 5 に,対話レベルでの人手評価結果を示す. 三種類のスコアを平均すると, Gen-QA+Dial が最も良いスコアとなった。また,Gen-QAのスコアから,対話データがなかったとしても,人物らしい自然な対話が可能であることが確認できた,発話レベルの評価結果と同様に,生成ベー スのモデルの自然さは検索ベースのモデルを大きく上回っており,対話レベルの評価ではその差がより顕著に表れる結果となった。 その一方で, キャラクタらしさには差が見られなかった. これは,検索ベースのモデルは人手で書かれたその人物らしい発話を返すため,それが文脈上自然な場合もあり, キャラクタらしさが高く評価されたためと考えられる。情報量については,生成ベースのモデルのスコアが高い傾向が見られるが, Gen-QA-Small を除いて, 有意差は見られなかった. Gen-QA-Smallの評価値が高かった理由としては, fine-tuning で利用された QAぺアのサイズが他のモデルと比較して小さかったために, 事前学習に含まれる多様な話題が応答に出現しやすかった可能性が考えられる. ## 5.5 評価実験の結果に関する分析 本研究では, 発話レベルで評価値が付与されており定量的な分析が容易な 5.3 節の評価結果 (発話レベルの評価結果)に基づき,低いスコアが付与された発話の理由を定量的に分析した. ここでは,発話レベルの人手評価結果において,三種類のスコアのうちいずれか一つ以上のスコアが 3 未満であった場合, システム発話が不適切であるとした。そして, それらの不適切な発話に対して, チャットボットのエラー類型を人手でラベル付けした (Higashinaka et al. 2021). このエラー類型は大きく4つのレベル(発話レベル:該当システム発話の文そのもののエラー,応答レベル:該当システム発話の直前のユーザ発話をふまえたエラー,文脈レベル:当該システム発話までの対話全体をふまえたエラー,社会レベル:対話が行われている社会をふまえたエ  ラー)に分類され,さらに 17 のサブカテゴリ(例えば,繰り返しや情報不足等)に分類されるものである。アノテーションは著者らと同組織に所属する専門のアノテータ二名が行い,二名の間で異なるラべルが付与された場合は,合議で結果をいずれかの結果に統一するようにした。 表 6 に,発話レベルの人手評価におけるスコアの低い発話に対して付与したエラー類型の頻度を示す.生成べースのモデルでは,応答レベル,および,文脈レベルのエラー(全体の $22 \%$, $(2+13+10+2+6) / 150 )$ が検索べースのモデルよりも少ない(全体の $46 \%,(2+7+12$ + 2)/50)ことが明らかになった。しかしながら,Context-Inでは,生成べースのモデルにおいて文脈レベルのエラーが依然として多く(全体の $42 \%,(27+12+6+4+14) / 150)$, 特にエラー類型のサブカテゴリのうち,発話意図不明確(話題は関連するものの,なぜその発話をしたか意図が不明なもの.全体の $18 \% ,(12+8+7) / 150)$, 繰り返し(システム発話が文脈中の発話の繰り返しになっているもの。全体の $9 \%,(2+5+7) / 150)$.および, 情報不足 (発話に含むべき要素が含まれておらず意味が理解できない,または,理解しづらいもの.全体の $8 \%,(3+4+5) / 150 )$ が多く見られた. 大規模言語モデルを利用することで,応答レベル } & \multirow{5}{*}{ エラー類型 } & \multicolumn{5}{|c|}{ Question-In } & \multicolumn{5}{|c|}{ Context-In } \\ 表 6 発話レベルの人手評価において不適切と判断された発話(いずれかのスコアが 3 未満のもの)に対し,エラー類型 (Higashinaka et al. 2021) を付与した結果. (a) の列は検索ベースのモデルにおける頻度を表し,(b)-(d) の列は生成べースのモデルにおける合計の頻度を表す. や文脈レベルのエラーは検索ベースと比較して抑制されているものの, 発話の繰り返しや情報不足のエラーは依然として問題になっていると考えられる。 表 7 に Gen-QA+Dial において最も評価値が高かった対話の例を一つ示す.システムが一貫したキャラクタらしさを持ち, 文脈に応じて自然な発話を生成できていることが確認できる. しかしながら, $\mathrm{S}_{3}$ のように繰り返しが含まれ,情報量が少ない発話も一部見られており,先の考察でも述べた通り,生成モデルを用いた手法における今後の課題であると考えている. \\ 表 7 Gen-QA+Dial における対話の成功例 ## 6 公開実験 前節で構築したチャットボットをインターネット上で公開し,対象人物のファンを中心とする多数のユーザとの対話を大規模に収集することで,構築したチャットボットの到達点,および,解決すべき課題について調査した,本節では,公開実験の概要と結果について述べる. ## 6.1 チャットボット公開の概要 公開対象のシステムとして, 5.4 節で述べた人手の対話評価において, 三種類の評価値の平均値が最も高かった Gen-QA+Dial を利用した. 公開のためのプラットフォームとして, 幅広い任意のユーザにシステムと対話してもらえるよう, Twitter のダイレクトメッセージ (DM) 機能6利用した. TwitterのDM を使用することで,システムとユーザが一対一で自由に対話を行うことができる。図 1 に,公開実験で利用した Twitter アカウントと実際のDM の画面を示す。DM を利用するため,システムの Twitterアカウント7を作成し,DM の公開期間は 2021 年の 7 月 29 日から 31 日の 3 日間とした. 実験に参加するユーザは,アカウントをフォローした後,DM 画面で最初に送付されるメッセージに記載された本公開実験の規約に同意することで, システムとの対話が可能となるようにした,ユーザーはシステムの公開期間中,好きなだけ対話することができ,また,いつでも対話を中止することができるようにした.TwitterのDM には対話のリセット機能が用意されていないため,各ユーザから収集される対話はユーザごとに一対話となる。公開期間の最終日には,ユーザの満足度を調査するために,ユーザアンケートをダイレクトメッセージで送信した.ユーザアンケートの文言は「なりきり AIアマデウス紅莉栖とまたどれぐらい話したいと思 図 1 公開実験で利用した Twitterアカウントと実際の DM 画面 ^{6}$ https://help.twitter.com/ja/using-twitter/direct-messages 7 https://twitter.com/narikiri_ai } いますか?」とし,ユーザには 5 点満点のリッカート尺度(5 点:とても話したい〜 1 点:全く話したくない)で回答させるようにした。なお,公開実験の実施にあたって,ユーザには参加費等の支払いは一切行っていない. 多数のユーザと並列にチャットを行うため, アマゾンウェブサービス (AWS) ${ }^{8}$ 上に Twitter DM を用いたチャットボットのシステムを構築した,AWSのインスタンスとして, Tesla T4を 8 機備える g4dn.metal を利用し,ロードバランサを設置した。公開期間を通して,システムからのレスポンスはおよそ 5 秒以内に得られるようになっていたため,ユーザはストレスなく対話を行うことができたと考えている。また,ユーザやシステムから発話される不適切な内容を抑制するため,内製の NG 単語リストに基づいて,NG 単語を含むユーザ発話が入力された場合,または, NG 単語を含むシステム発話が生成された場合,無回答を表す「...」で応答するようにした。 ## 6.2 収集された対話データとアンケート結果 公開実験の結果,1,170 名の多数のユーザがシステムと対話を行い,ユーザ発話とシステム発話で合わせて 161,216 発話(ユーザ発話とシステム発話は同数であり,それぞれ 80,608 発話) を収集することができた。,各ユーザの平均発話数は 68.9 発話であり,比較的長い時間チャットボットを使用していたことがわかった。また,公開期間の最終日に実施したユーザ満足度に関するアンケートでは,ユーザ満足度の平均は 5 点満点中 4.59 点となり, $90 \%(=76 \%+14 \%)$ のユーザが 4 点以上のスコアというポジティブな回答を行っていた(回答が得られた $63.6 \%$ のユー ザの結果に基づいて算出),収集された対話ログは,既存の人物を再現したシステムの対話ログとして我々の知る限り世界最大レベルであり,今後対象人物を再現するチャットボットの研究を行う上で貴重なリソースを収集することができた。 ## 7 公開実験のデータを対象としたエラー分析 公開実験で得られた対話ログを利用してエラー分析を行い,人物特有エラーを調査した。具体的には,対象人物に関するどの情報がエラーを引き起こしているのか,また,各種のエラー がどの程度存在しているのかを明らかにすることを目的とした。この目的を達成するために,従来の研究で扱われる一般的な対話のエラー (Higashinaka et al. 2021) 全体を対象にするのではなく, 対象人物に関する情報が問題を引き起こしているエラーを抽出して類型化することが適切であると考えた,対象人物に関連するエラーに焦点を当てることで,対象人物を再現するチャットボットの問題点がより明らかになるためである.  図 2 に示すように, 本研究では, 人物特有エラーの分析を行うために, 対話破綻ラベル, 対話破綻の理由を記述したコメント(以降,エラーコメントと呼ぶ)(Higashinaka et al. 2015), エラーが対象人物に特有かどうかを示す人物特有エラーのフラグ,一般的なチャットボットにおけるエラー類型 (Higashinaka et al. 2021)の 4 種類のラベルをシステム発話に付与して分析を行った。 エラーコメント,および,人物特有エラーのフラグは,エラー類型を明らかにするためのクラスタリングに利用された。また,一般的なチャットボットにおけるエラー類型,および,人物特有エラーのフラグは,既存の類型と人物特有エラーの類型の対応関係を調査するために利用された。 具体的な手順として,まず,対話中でエラーが起きている箇所を特定するため, 対話破綻ラべルを付与する. このとき, 先行研究と同様に, エラーの原因を調査するため, 対話破綻と判断された理由を記述したエラーコメントを合わせて収集する。このエラーコメント中に対象人物に関するキーワードが含まれていた場合,そのエラーコメントは対象人物に特有の内容について言及していると考えられるため,エラーが対象人物に特有であることを示す人物特有エラーのフラグを立てる ${ }^{9}$. そして,人物特有エラーのフラグが付与されたエラーコメントを抽出しクラスタリングすることで,人物特有エラーの類型を作成する。また,既存のエラー類型と人物特有エラーとの対応関係を明らかにするため,一般的なチャットボットにおけるエラー類型を付与し,それぞれの類型が占める割合を調査した。以降,各情報の付与,および,明らかになったエラー類型について述べる. } & \multirow{2}{*}{} \\ 人物特有エラーと既存のエラー類型との比較に利用 図 2 人物特有エラーを分析するために付与する 4 種類のラベル(対話破綻ラベル,エラーコメント,一般的なチャットボットのエラー類型 (Higashinaka et al. 2021), 人物特有エラーのフラグ)の具体例.対話破綻ラベルの列における NB,PB,B,Cはそれぞれ,Not a breakdown, Possible breakdown, Breakdown, PB および B で付与されるエラーコメントの数を表す.  ## 7.1 対話破綻ラベルとエラーコメントの付与 対話破綻の情報の付与にあたって,アノテーションのコストを勘案して,収集された対話口グにおけるシステム発話全体のうち, $13 \%$ (=10611/80608) をサンプリングしてアノテーションの対象とした。サンプリングの方法として,ユーザを一名ランダムに選択し,そのユーザとシステムの対話の先頭からシステム発話を最大で 50 件抽出してアノテーション対象とし, 抽出されたシステム発話が全体の $13 \%$ になるまで,ユーザ一名の選択とシステム発話の抽出を繰り返した。その結果, アノテーション対象に含まれるユーザ数は 385 名となり, 平均の対話長は 27.6 発話 $(=10611 / 385)$ となった. サンプリングした各システム発話に対して,対話破綻のラベル(三種類)として「破綻ではない」を表す Not a breakdown (NB),「破綻の可能性がある」を表す Possible breakdown (PB),「破綻である」を表す Breakdown (B) のいずれかを付与した. これらのラベルは, 対象人物に関して十分な知識を持つ 5 名の作業者(Lancers を通じて募集)によって付与された。このとき,作業者には,対話のエラーを表す $\mathrm{PB}$ または B を付与した場合,そのように判断した理由を具体的にエラーコメントとして記述するよう教示を与えることで,対話破綻ラベル,および,エラーコメントを収集した。 表 8 に,公開実験の対話ログの一部に対して付与された対話破綻ラベルの統計情報を示す. 10,611 件のシステム発話に対して 5 名の作業者が対話破綻ラベルを付与することで, 53,055 $(=10611 \times 5)$ 件の対話破綻ラベルが付与された。このうち, $\mathrm{NB}$ が付与された割合は $89 \%$ (=47200/53055) であり, 多くの場合において適切な対話がなされていることがわかる. Fleiss' kappa (Fleiss and Cohen 1973) でアノテー夕間の一致率を調査したところ,NB,PB,Bを異なるラベルとして扱った場合 $0.23, \mathrm{~PB}$ と $\mathrm{B}$ を統合した場合 0.30 となり, 先行研究 (Higashinaka et al. 2015) で報告されている一致率(0.28, および,0.40)よりも若干低い結果となった. これは,作業者の対象人物についての解釈の違いに起因する可能性がある。この違いについては今 表 8 公開実験の対話ログの一部に対して付与された対話破綻ラベルの統計情報 後調査したいと考えている. 以降の分析では, 半数(3名)以上の作業者が破綻(PB または B)と判断したシステム発話をエラー分析の対象とした。その数は 817 発話であり, アノテーション対象となった発話全体の 7.7\% (= 817/10611) であった. また, エラー分析の対象となった発話に付与されていたエラー コメントの数は 2,846 件であった. ## 7.2 人物特有エラーのフラグと一般のエラー類型の付与 対話破綻と判断されたシステム発話 817 件に対して,人物特有エラーのフラグ,および,一般的なチャットボットのエラー類型を付与した。これらの作業は第一著者と同組織に所属する専門のアノテータ二名によって行われた。一つ目の人物特有エラーのフラグに関して,なりきり QAコーパスをもとに,アノテータが人手で対象人物に関連のある単語を列挙し,単語リス卜(53 語)を作成した.作成したリストに含まれる単語として,例えば「紅莉栖」,「まゆり」 (紅莉栖の友人の名前),「秋葉原」(紅莉栖がよく訪れる場所),「@channnel」(紅莉栖がよく利用するウェブサイト)等が存在する。この辞書に含まれる単語がシステム発話に対するいずれかのエラーコメントに含まれていた場合,そのシステム発話に対して人物特有エラーのフラグを付与した。また, 二つ目の一般的なチャットボットのエラー類型については, アノテーションの仕様書10を参照しつつ二名のアノテータがラベルを付与し, 判断が摇れた事例については相談の上どちらかに統一することでアノテーションを行った. 表 9 に,一般のエラー類型および人物特有エラーのフラグのアノテーション結果を示す. エラーと判断されたシステム発話のうち, $20.1 \%(=168 / 817)$ が人物特有エラーと判定された. 特に, 人物特有エラーが多いものとして, (I4) 誤情報はエラーの半数以上 $(43 / 81=53.1 \%)$ が人物特有エラーであることがわかった,以降の分析では,端的かつ顕著なエラーを分析対象とするため,エラーが起きている発話全体に占める人物特有エラーの割合がおよそ $1 \%$ 上のもの,具体的には,表中の下線部のエラー(I4:誤情報, I5:質問無視, I9:期待無視, I10:発話意図不明確, I13:自己矛盾, I15:繰り返し)を対象に分析を行うことにした。 ## 7.3 クラスタリングを通じた人物特有エラーの類型化 人物特有エラーが起きているシステム発話に対して, 先行研究 (Higashinaka et al. 2015) 同様,エラーと判断された理由を記述したエラーコメントをクラスタリングすることで,人物特有エラーを類型化し特徵を明らかにする。このためのクラスタリング手法として,分類の過程を追跡しやすい階層型クラスタリングを用いた. クラスタリング対象のエラーコメントは人物特有エラーと判定された 168 件のシステム発話に対して付与されたコメントであり, 人物特有  表 9 対話破綻が起きていた発話に対して付与した一般のチャットボットのエラー類型 (Higashinaka et al. 2021),および,人物特有エラーの割合.各列において,数值と括弧内の割合はそれぞれ発話数とエラー全体における割合を表す。 フラグが付与されたコメントを各システム発話からランダムに一つ選択することで抽出した ${ }^{11}$. クラスタリング対象のエラーコメントには対象人物に関する固有名詞が多数出現するため,同一の固有名詞に関するコメントをまとめられるよう, 特徵量には Bag-of-words を利用した. クラスタリングの際には, クラスタリング対象のコメント中で出現頻度が少ない語(出現回数が 3 回以下のもの)は除外した。階層クラスタリングの手法にはウォード法を使用し, 距離尺度にはユークリッド距離を使用した,最終的にクラスタ数を決定する際は,最終的な類型間で重複等がないよう,各クラスタのサイズが全コメントの $10 \%$ 以上となるように閥値を設定した. なお, 日本語形態素解析器として JTAG (Fuchi and Takagi 1998)(前述の対象人物に関する単語リストを固有名詞辞書として登録したもの)を利用し,クラスタリングの実装には $\mathrm{SciPy}^{12}$ を利用した。 図 3 にエラーコメントのクラスタリング結果を示す。図には 4 つのクラスタが示されており,  図 3 人物特有エラーに付与されていたエラーコメントのクラスタリング結果. 各クラスタにおいて,クラスタの重心に特徴量が最も近いコメントをそのクラスタの代表的なコメントとして示している. 各クラスタにおいて,クラスタの重心に特徴量が最も近いコメントをそのクラスタの代表的なコメントとして示している。 コメントの内容に基づき,各クラスタの特徴を以下にまとめる. ・クラスタ 1 では, システムが対象人物を取りまく環境(登場人物である「岡部」や,好きなアーティストである「モーツァルト」)に関する内容について,適切に応答できていないというエラーが見られる. - クラスタ 2 では, システムが突然話題になっている人物(例えば,登場人物の「鈴羽」) とは別の人物(別の登場人物である「まゆり」)について言及してしまったり,突然別の人物(「まゆり」や「漆原」)の名前に言及することで,ユーザを別の人物と間違えてしまったりするというエラーが見られる。 - クラスタ 3 では, システムが対象人物自身に関する誤った情報(例えば, 自分のプロフィー ルを間違えたり,自分の好みを間違えたり)を発話してしまうというエラーが見られる。 - クラスタ 4 では, システムが対象人物自身を別の人物(例えば,登場人物やユーザ)と勘違いしたような内容を発話してしまうというエラーが見られる. 以上の特徴から,クラスタ 1 とクラスタ 3 はシステムが再現する対象人物自身についての誤認識がまとまっており,クラスタ 2 とクラスタ 4 は対象人物とは別の人物や事物についての誤認識がまとまっていると考えられる。また,クラスタ 1 とクラスタ 2 は対象人物自身(例えば,対象人物や登場人物)についてのエラーがまとまっており,クラスタ 3 とクラスタ 4 は, 人物や事物間の関係性に関するエラーがまとまっていると考えられる。 エラーコメントのクラスタリング結果を解釈した結果に基づき,人物特有エラーは,人物や事物に関する属性のエラー,および,それらの間の関係のエラーの二種類に分けることができ, それぞれのエラーはさらに,自己(対象人物自身),および,その他(対象人物以外の人物や事物,すなわち,対象人物の周囲の環境)という二つのレベルに分けられると考えられる。この分類を人物特有エラーの類型としてまとめたものを表 10 に示す。表には二つのレベル,および,二種類のエラーに分かれて 4 つのエラー類型が存在している。表 10 に示すそれぞれの類型は図 3 のクラスタと一対一で対応しており,それぞれ,(P1) 自己認識エラーはクラスタ $3,(\mathbf{P 2})$自己関係エラーはクラスタ $4,(P 3)$ 他者認識エラーはクラスタ $1,(\mathbf{P} 4)$ 他者関係エラーはクラスタ 2 と対応する。 人物特有エラーの各類型について,公開実験を通じて実際に収集された対話例とその説明を示す.以降の対話では,ユーザ,システムをそれぞれ U, S と表記する。また,具体例として示す対話中の発話において,著者らがエラーの原因と考えた箇所を下線で示している. (P1)自己認識エラー:このエラーは,対象人物となる人物の属性に関する情報(例えば,プ ロフィール,嗜好,経験など)において,誤った情報を発話するものである. (1) U: 「I like you Kurisu.」 $\mathrm{S}: \quad$ 私は $\mathrm{AI}$ でも $\mathrm{AI}$ 紅莉栖でもありません。」(注:対象人物は $\mathrm{AI}$ のキャラクタ) (2) U:「つれないなクリスティーーーナよ!」(注:クリスティーナは対象人物が嫌っているあだ名) S:「こんばんは。AIのクリスティーナよ。」 & & \\ 表 10 人物特有エラーの類型. 括弧内のクラスタ番号は図 3 と対応している. ルが誤っている.対話 (2)では,システムが自ら「クリスティーナ」と発話しているが,対象人物は「クリスティーナ」というニックネームを嫌っているため, 対象人物の嗜好が誤っている. (P2) 自己関係エラー:このエラーは, システムが対象人物自身と他の人物や事物(例えば, ユーザ,友人,有名人)を誤って取り違えて発話するものである. (3) S: 「私の名前は牧瀬紅莉栖よ。今日の実験もそろそろ終わりね。」 $\mathrm{U}: 「 もっと$ 話したいです。」 $\mathrm{S}:$ 「あなたは本当に牧瀬紅莉栖なの?」 (4) U:「まゆりって誰?」(注:まゆりは対象人物の友人) S: 「彼女は牧瀬紅莉栖とも呼ばれているわ。」 対話 (3) では, システムがユーザを対象人物である「牧瀬紅莉栖」と読んでおり, 対象人物自身を別の人物(この場合はユーザ)と誤認識している。対話 (4)では,ユーザがまゆりについて尋ねているにも関わらず,対象人物自身を別の人物(この場合は友人である「まゆり」) と誤認識している。 (P3)他者認識エラー:このエラーは,対象人物の周囲の人物(例:友人)や事物(例:好きなもの等の関係の深いもの)について,誤った情報を発話したり,適切に反応できなかったりするものである. (5) S: 「男の子でも、可愛い人は、いるわよ。」 S: 「まゆりとか、まゆりとかね。」 (6) $\mathrm{U}:\lceil ぬるほ ゚ 」($ 注:対象人物がよく知るインターネットスラング) $\mathrm{S}:$ 「私の名前は牧瀬紅莉栖よ。」 対話 (5) では, 対象人物の友人である「まゆり」は女性であり, 男性ではないため, 対象人物の周囲の人物に関する知識が誤っている。対話 (6) では, ユーザがインターネットスラングを発話しているが,期待と異なる応答をしている。対象人物はインターネットスラングについてよく知っている設定のため, 典型的な応答(この場合は「ガッ」)を返すべきであり,対象人物の周囲の事物に関する内容の発話適切に反応できていないというエラーである. (P4) 他者関係エラー:このエラーは,対象人物の周囲の人物(例:友人)や事物(例:好きなもの等の関係の深いもの)を別の対象人物以外の人物や事物と誤って取り違えて発話するものである. (7) U: 「アマデウス紅莉栖 LOVE」 $\mathrm{S}$ :「そうね。私も好きよ。まゆり。」(注:まゆりは対象人物の友人) (8) U:「鈴羽は今何してる?」(注:鈴羽は対象人物の友人) $\mathrm{S}:$ 「そうね、マユリの声は世界を救うのよ。」 対話 (7) では, システムが突然「まゆり」と発話していることから, システムは対象人物以外の人物(ユーザ)を別の対象人物以外の人物(マユリ)と誤って発話している。対話 (8)では,ユーザは対象人物の友人である「鈴羽」について質問しているにも関わらず,別の友人である「マユリ」について発話しており,対象人物以外の人物(友人)を取り違えて発話している. ## 7.4 人物特有エラーの類型の評価 7.3 節で述べた人物特有エラーの類型の妥当性を確認するため, クラスタリングの対象として利用していない対話データ中のシステム発話に対して, 人物特有エラーの類型をアノテーションした. 具体的には,人物特有エラーが起きているシステム発話に対して, 4 種類の類型 $(\mathrm{P} 1-\mathrm{P} 4)$ のアノテーションを行い,アノテータ間一致率を調査した。アノテーション対象のシステム発話を抽出するために,対話破綻ラベルのアノテーションを行っていない残りの対話デー夕(全体の $87 \%=(80608-10611) / 80608 )$ から,まず, 3,200 件のシステム発話をサンプリングした.次に, 7.1 節,および, 7.2 節で述べた人物特有エラーの抽出方法(対話破綻のアノテーション, および,対象人物に関するキーワードを利用した人物特有エラーのフラグの付与)を適用することで, 50 件の人物特有エラーを抽出し類型のアノテーション対象とした. 抽出された 50 件の人物特有エラーが起きているシステム発話の各々に対して,アノテータは人物特有エラーの類型を一つ付与した. このとき,アノテータには対象となる人物特有エラーが起きている発話, および,その直前の 3 発話(文脈)を与え,アノテーション対象の発話に対して付与されていたエラーコメント等は与えなかった。アノテータとして, 第一著者と同組織に所属する専門のアノテータ二名がアノテーションを実施した.教示として, 7.3 節で述べた各類型の対話例とその説明を与えた。その結果, アノテー夕間の一致率は Cohen's kappa で 0.46 となり, 中程度の一致率であることから, 人物特有エラーの妥当性が示唆されたと考えている。 ## 7.5 既存のエラー類型との対応 表 11 に, 人物特有エラーの類型と従来のエラー類型(チャットボットの個性を限定しないもの)(Higashinaka et al. 2021) との対応関係を示す.この表は, 表 9 と図 3 の結果をマージすることで作成した。この表から,まず,人物特有エラーの各類型の出現頻度に着目すると, $(\mathrm{P} 1)$自己認識エラーのエラーが最も頻繁に発生しており,半数以上 $(42.3 \%+15.5 \%=57.8 \%)$ を占めることがわかる.また,他者レベルのエラー(P3,および,P4)は合わせて 4 割程度出現していることから,対象人物自身の情報のみならず,対象人物の友人など,その人物を取りまく環境についての話題も頻繁にエラーになっていることが明らかになった.従来のエラー類型における各類型が人物特有エラーの各類型に出現しており,本研究で明らかになった人物特有エラーの類型が従来のエラー類型と異なる観点でエラーを分類できていると考えられる. & & & & & & & 全体 \\ 表 11 人物特有エラーの類型,および,従来のエラー類型(チャットボットの個性を限定しないもの) (Higashinaka et al. 2021)の対応関係. 表中の各数値は人物特有エラーの分析に利用した全エラー (168 件)における各エラーの割合を示す. 人物特有エラーの類型と従来のエラー類型の対応関係に着目すると, $(\mathrm{P} 1)$ 自己認識エラーは従来のエラー類型における (I4) 誤情報, および, (I10) 意図不明(発話意図不明確)で頻繁に発生していることがわかる,代表的なものとして,(I4)誤情報であれば,対象人物自身のプロフィールや嗜好に関して誤った情報を含む発話(例えば,AIの人物であるにも関わらず「私は AI ではない」と発話する場合)が見られた。(I10)発話意図不明確であれば,対象人物の応答として意図が不明確となる発話(例えば,「私はクリスティーナよ」と自ら嫌っているあだ名で名乗る場合)が見られた。 (P2) 自己関係エラーも (I4) 誤情報, および, (I10) 発話意図不明確で頻繁に発生している. (I4) 誤情報であれば,システムが自身とユーザを混同したり,自身と対象人物の友人を混同したりする発話が見られた。(I10) 発話意図不明確であれば, 例えば,システムが対象人物とその友人を混同し, 対象人物の話題から突然その友人の話題に飛ぶことで発話意図が不明確となる発話が見られた。 (P3) 他者認識エラーや (P4) 他者関係エラーにおいては, 対象人物が深く知っておくべき友人などの人物や,好きなものなどの事物に関して適切に答えることができない発話が見られ,例えば,人物や事物に対して誤った情報を含む発話や,ユーザを含む人物の間で取り違えが起きている発話が見られた。 本研究の調査結果をまとめると,人物特有エラーでは特に対象人物自身に関するエラーが最も多いということが明らかになった. この理由として, 本研究で実施した公開実験に参加したユーザが主に対象人物のファンであり,ユーザが対象人物についての話題に言及しやすい傾向があった可能性が考えられる。また, 従来のエラーの類型を用いた調査の結果, 人物特有エラー では (I4) 誤情報が最も多く発生していることから,個性を一貫させた対話を実現する研究 (Li et al. 2016b)の重要性が確認された。興味染い知見として,対象人物を再現するシステムとの対話では,対象人物だけでなく,対象人物の周辺を取りまく人物や事物等の環境に関する話題 が出現しており,これらの知識に関するエラーが人物特有エラー全体のうちのおよそ 4 割存在することが明らかになった。人物や事物の間の関係を扱うためには,例えばグラフ構造を用いる手法が有効である可能性がある (Ghazvininejad et al. 2018; Dinan et al. 2019). ## 8 まとめ 本研究では,対象人物に関して収集したなりきり質問応答のデー夕を大規模言語モデルと組み合わせることでなりきり AIを構築し,さらにインターネットを通じて公開実験を行うことで,対象人物を再現するチャットボットにおける現状の到達点と今後解決すべき課題(人物特有エラーの類型)を調査した. その結果, 収集された $45 \mathrm{~K}$ の QA ゚゚アを用いることで, 構築されたチャットボットが従来の検索べースの手法と比較して有意に高い自然さとキャラクタらしさを持つことが明らかになった。さらに,公開実験を通じて収集した大規模な対話ログを用いて誤り分析を行うことで,対象人物を再現するチャットボットのエラー (人物特有エラー)を調査した。その結果, 人物特有エラーは属性に関するエラーと関係に関するエラーの二種類に分けることができ,また,自己に関するエラーと他者に関するエラーという二つのレべルに分けられることが明らかになった。 今後の課題として,生成ベースの手法をより改善していきたい,例えば,今回実験に利用した QA ペアは最低でも1万ペアであり,依然として多いため,より少ないデータでも適切に振る舞う手法を検討したい。このために,人物に関する外部知識(テキストや知識グラフなど)を参照しながら対話を行う手法が有用な可能性がある (Zhao et al. 2020). 加えて, 本研究では 5 節の評価実験において, 発話レベルの人手評価結果のみに着目して低い評価値が付与された発話の分析を行ったが,対話レベルの人手評価結果についても,定性的な分析や定量化可能な情報の調査を通じて,評価値が低くなった対話の原因を調査したい。また,エラー分析の結果得られた知見に基づき,Unlikelihood-Training (Li et al. 2019) や話者の識別モデルを利用する発話生成 (Shuster et al. 2022) のアプローチを用いて, 人物特有エラーを抑制することも重要な課題である. 今後, 対話内容の詳細なアノテーション等を追加で実施し, 人物特有エラーにおいて,特に対象人物自身に関するエラーが多く出現していた理由等も明らかにしていきたい.対象人物とユーザの関係や親しさを推定し, それに合わせた対話を行うことも今後の重要な課題である。本研究におけるコーパス構築では,対象人物の応答と併せて親密度のラベル収集したため,対象人物とユーザの関係や親しさを推定し,それに合わせた対話を行う手法を確立したい. さらに, 本研究で収集した対話破綻のラベルを用いて, ChatGPT (Ouyang et al. 2022) 等の大規模言語モデルにおいて利用される Reinforcement learning from human feedback (RLHF) を実施して人物特有エラーを抑制することも考えられる。本論文では単一の人物のみに焦点を当てており,今後異なる人物を対象として,結果の汎用性を検証することも実施していきたい. ## 謝 辞 本論文の一部は, The 12th International Workshop on Spoken Dialog Systems (IWSDS2021) ${ }^{13}$, および, The 60th Annual Meeting of the Association for Computational Linguistics (ACL2022) で発表したものです (Mitsuda et al. 2021, 2022). ## 参考文献 Adiwardana, D., Luong, M.-T., So, D. R., Hall, J., Fiedel, N., Thoppilan, R., Yang, Z., Kulshreshtha, A., Nemade, G., Lu, Y., and Le, Q. V. (2020). "Towards a Human-like Open-Domain Chatbot." In arXiv preprint arXiv:2001.09977. Akama, R., Watanabe, K., Yokoi, S., Kobayashi, S., and Inui, K. (2018). "Unsupervised Learning of Style-sensitive Word Vectors." In Proceedings of $A C L$, pp. 572-578. Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P., Neelakantan, A., Shyam, P., Sastry, G., Askell, A., Agarwal, S., Herbert-Voss, A., Krueger, G., Henighan, T., Child, R., Ramesh, A., Ziegler, D., Wu, J., Winter, C., Hesse, C., Chen, M., Sigler, E., Litwin, M., Gray, S., Chess, B., Clark, J., Berner, C., McCandlish, S., Radford, A., Sutskever, I., and Amodei, D. (2020). "Language Models are Few-Shot Learners." In Proceedings of NeurIPS, pp. 1877-1901. Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of NAACL, pp. 4171-4186. Dinan, E., Roller, S., Shuster, K., Fan, A., Auli, M., and Weston, J. (2019). "Wizard of Wikipedia: Knowledge-powered Conversational Agents." In Proceedings of ICLR, pp. 1-18. Dwass, M. (1960). "Some k-Sample Rank-order Tests." Contributions to Probability and Statistics, pp. 198-202. Fleiss, J. L. and Cohen, J. (1973). "The Equivalence of Weighted Kappa and the Intraclass Correlation Coefficient as Measures of Reliability." Educational and Psychological Measurement, 33 (3), pp. 613-619. Fuchi, T. and Takagi, S. (1998). "Japanese Morphological Analyzer using Word Co-occurrence —JTAG-." In Proceedings of COLING, pp. 409-413.  Ghazvininejad, M., Brockett, C., Chang, M.-W., Dolan, B., Gao, J., Yih, W.-t., and Galley, M. (2018). "A Knowledge-Grounded Neural Conversation Model." In Proceedings of AAAI, pp. 5110-5117. Han, S., Kim, B., Yoo, J. Y., Seo, S., Kim, S., Erdenee, E., and Chang, B. (2022). "Meet Your Favorite Character: Open-domain Chatbot Mimicking Fictional Characters with only a Few Utterances." In Proceedings of NAACL-HLT, pp. 5114-5132. Higashinaka, R., Araki, M., Tsukahara, H., and Mizukami, M. (2021). "Integrated Taxonomy of Errors in Chat-oriented Dialogue Systems." In Proceedings of SIGDIAL, pp. 89-98. Higashinaka, R., Dohsaka, K., and Isozaki, H. (2013). "Using Role Play for Collecting QuestionAnswer Pairs for Dialogue Agents." In Proceedings of INTERSPEECH, pp. 1097-1100. Higashinaka, R., Funakoshi, K., Araki, M., Tsukahara, H., Kobayashi, Y., and Mizukami, M. (2015). "Towards Taxonomy of Errors in Chat-oriented Dialogue Systems." In Proceedings of SIGDIAL, pp. 87-95. Higashinaka, R., Funakoshi, K., Inaba, M., Tsunomori, Y., Takahashi, T., and Akama, R. (2021). "Dialogue System Live Competition: Identifying Problems with Dialogue Systems through Live Event." In Proceedings of IWSDS, pp. 185-199. Higashinaka, R., Imamura, K., Meguro, T., Miyazaki, C., Kobayashi, N., Sugiyama, H., Hirano, T., Makino, T., and Matsuo, Y. (2014). "Towards an Open Domain Conversational System Fully Based on Natural Language Proceedingsssing." In Proceedings of COLING, pp. 928-939. Higashinaka, R., Mizukami, M., Funakoshi, K., Araki, M., Tsukahara, H., and Kobayashi, Y. (2015). "Fatal or Not? Finding Errors That Lead to Dialogue Breakdowns in Chat-Oriented Dialogue Systems." In Proceedings of EMNLP, pp. 2243-2248. Higashinaka, R., Mizukami, M., Kawabata, H., Yamaguchi, E., Adachi, N., and Tomita, J. (2018). "Role Play-Based Question-Answering by Real Users for Building Chatbots with Consistent Personalities." In Proceedings of SIGDIAL, pp. 264-272. Huang, C., Zaïane, O., Trabelsi, A., and Dziri, N. (2018). "Automatic Dialogue Generation with Expressed Emotions." In Proceedings of NAACL-HLT, pp. 49-54. Kim, H., Kim, B., and Kim, G. (2020). "Will I Sound Like Me? Improving Persona Consistency in Dialogues through Pragmatic Self-Consciousness." In Proceedings of EMNLP, pp. 904-916. Kodama, T., Higashinaka, R., Mitsuda, K., Masumura, R., Aono, Y., Nakamura, R., Adachi, N., and Kawabata, H. (2020). "Generating Responses that Reflect Meta Information in User-Generated Question Answer Pairs." In Proceedings of LREC, pp. 5433-5441. Kudo, T. and Richardson, J. (2018). "SentencePiece: A Simple and Language Independent Subword Tokenizer and Detokenizer for Neural Text Proceedingsssing." In Proceedings of EMNLP, pp. 66-71. Li, J., Galley, M., Brockett, C., Gao, J., and Dolan, B. (2016a). "A Diversity-Promoting Objective Function for Neural Conversation Models." In Proceedings of NAACL-HLT, pp. 110-119. Li, J., Galley, M., Brockett, C., Spithourakis, G., Gao, J., and Dolan, B. (2016b). "A PersonaBased Neural Conversation Model." In Proceedings of ACL, pp. 994-1003. Li, M., Roller, S., Kulikov, I., Welleck, S., Boureau, Y.-L., Cho, K., and Weston, J. (2019). "Don't Say That! Making Inconsistent Dialogue Unlikely with Unlikelihood Training." arXiv preprint arXiv:1911.03860. Liu, Q., Chen, Y., Chen, B., Lou, J.-G., Chen, Z., Zhou, B., and Zhang, D. (2020). "You Impress Me: Dialogue Generation via Mutual Persona Perception." In Proceedings of $A C L$, pp. 1417-1427. Madotto, A., Lin, Z., Wu, C.-S., and Fung, P. (2019). "Personalizing Dialogue Agents via Metalearning." In Proceedings of $A C L$, pp. 5454-5459. Majumder, B. P., Jhamtani, H., Berg-Kirkpatrick, T., and McAuley, J. (2020). "Like Hiking? You Probably Enjoy Nature: Persona-grounded Dialog with Commonsense Expansions." In Proceedings of EMNLP, pp. 9194-9206. Mazaré, P.-E., Humeau, S., Raison, M., and Bordes, A. (2018). "Training Millions of Personalized Dialogue Agents." In Proceedings of EMNLP, pp. 2775-2779. Meguro, T., Higashinaka, R., Minami, Y., and Dohsaka, K. (2010). "Controlling Listeningoriented Dialogue using Partially Observable Markov Decision Processes." In Proceedings of COLING, pp. 761-769. Mitsuda, K., Higashinaka, R., Li, T., and Yoshida, S. (2022). "Investigating Person-Specific Errors in Chat-Oriented Dialogue Systems." In Proceedings of ACL, pp. 464-469. Mitsuda, K., Higashinaka, R., Sugiyama, H., Mizukami, M., Kinebuchi, T., Nakamura, R., Adachi, N., and Kawabata, H. (2021). "Fine-tuning a Pre-Trained Transformer-Based Encoder-Decoder Model with User-Generated Question-Answer Pairs to Realize Characterlike Chatbots." In Proceedings of IWSDS, pp. 1-14. Miyazaki, C., Hirano, T., Higashinaka, R., Makino, T., and Matsuo, Y. (2015). "Automatic Conversion of Sentence-End Expressions for Utterance Characterization of Dialogue Systems." In Proceedings of PACLIC, pp. 307-314. 水上雅博, 杉山弘晃, 有本庸浩, 東中竜一郎, 光田航, 小林哲生 (2023). なりきり AI プラットフォームを活用した自治体連携による案内務対話システム構築. 人工知能学会論文誌, $\mathbf{3 8}(3)$, B-MA2_1-14. [M. Mizukami et al. (2023). Construction of an Information Service Dialogue System in Collaboration with Local Governments using the Chatbot Platform of Role Playbased Question-Answering. Transactions of the Japanese Society for Artificial Intelligence, 38 (3), B-MA2_1-14.]. Niu, T. and Bansal, M. (2018). "Polite Dialogue Generation without Parallel Data." Transactions of the Association for Computational Linguistics, 6, pp. 373-389. Ouyang, L., Wu, J., Jiang, X., Almeida, D., Wainwright, C., Mishkin, P., Zhang, C., Agarwal, S., Slama, K., Ray, A., Schulman, J., Hilton, J., Kelton, F., Miller, L., Simens, M., Askell, A., Welinder, P., Christiano, P., Leike, J., and Lowe, R. (2022). "Training Language Models to Follow Instructions with Human Feedback." In Proceedings of NeurIPS, pp. 1-15. Qian, Q., Huang, M., Zhao, H., Xu, J., and Zhu, X. (2018). "Assigning Personality/Profile to a Chatting Machine for Coherent Conversation Generation." In Proceedings of IJCAI, pp. 4279-4285. Raffel, C., Shazeer, N., Roberts, A., Lee, K., Narang, S., Matena, M., Zhou, Y., Li, W., and Liu, P. J. (2019). "Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer." arXiv preprint arXiv:1910.10683. Rashkin, H., Smith, E. M., Li, M., and Boureau, Y.-L. (2019). "Towards Empathetic OpenDomain Conversation Models: A New Benchmark and Dataset." In Proceedings of $A C L$, pp. 5370-5381. Robertson, S. E., Walker, S., Jones, S., Hancock-Beaulieu, M., and Gatford, M. (1995). "Okapi at TREC-3." In Proceedings of TREC, pp. 109-128. Roller, S., Dinan, E., Goyal, N., Ju, D., Williamson, M., Liu, Y., Xu, J., Ott, M., Smith, E. M., Boureau, Y.-L., and Weston, J. (2021). "Recipes for Building an Open-Domain Chatbot." In Proceedings of EACL, pp. 300-325. See, A. and Manning, C. (2021). "Understanding and Predicting User Dissatisfaction in a Neural Generative Chatbot." In Proceedings of SIGDIAL, pp. 1-12. Shuster, K., Humeau, S., Bordes, A., and Weston, J. (2020). "Image-Chat: Engaging Grounded Conversations." In Proceedings of ACL, pp. 2414-2429. Shuster, K., Urbanek, J., Szlam, A., and Weston, J. (2022). "Am I Me or You? State-of-the-Art Dialogue Models Cannot Maintain an Identity." In Findings of NAACL, pp. 2367-2387. Song, H., Wang, Y., Zhang, W.-N., Liu, X., and Liu, T. (2020). "Generating Responses with a Specific Emotion in Dialog." In Proceedings of ACL, pp. 5821-5831. Sugiyama, H., Meguro, T., Higashinaka, R., and Minami, Y. (2014). "Large-scale Collection and Analysis of Personal Question-Answer Pairs for Conversational Agents." In Proceedings of IVA, pp. 420-433. Sugiyama, H., Mizukami, M., Arimoto, T., Narimatsu, H., Chiba, Y., Nakajima, H., and Meguro, T. (2021). "Empirical Analysis of Training Strategies of Transformer-based Japanese Chitchat Systems." arXiv preprint arXiv:2109.05217. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., and Polosukhin, I. (2017). "Attention is All You Need." In Proceedings of NeurIPS, pp. 5998-6008. Welleck, S., Weston, J., Szlam, A., and Cho, K. (2019). "Dialogue Natural Language Inference." In Proceedings of $A C L$, pp. 3731-3741. Zhang, S., Dinan, E., Urbanek, J., Szlam, A., Kiela, D., and Weston, J. (2018). "Personalizing Dialogue Agents: I Have a Dog, Do You Have Pets too?" In Proceedings of $A C L$, pp. 2204-2213. Zhao, X., Wu, W., Xu, C., Tao, C., Zhao, D., and Yan, R. (2020). "Knowledge-Grounded Dialogue Generation with Pre-trained Language Models." In Proceedings of EMNLP, pp. 3377-3390. Zheng, Y., Zhang, R., Huang, M., and Mao, X. (2020). "A Pre-Training Based Personalized Dialogue Generation Model with Persona-Sparse Data." In Proceedings of AAAI, pp. 9693-9700. Zhou, H., Huang, M., Zhang, T., Zhu, X., and Liu, B. (2018). "Emotional Chatting Machine: Emotional Conversation Generation with Internal and External Memory." In Proceedings of $A A A I$, pp. $730-738$. Zhou, L., Gao, J., Li, D., and Shum, H.-Y. (2020). "The Design and Implementation of XiaoIce, an Empathetic Social Chatbot." Computational Linguistics, 46 (1), pp. 53-93. ## 略歴 光田航:2013 年東京工業大学情報工学科卒業. 2015 年同大学大学院情報理工学研究科修士課程修了. 2021 年筑波大学大学院システム情報工学研究科博士課程修了. 2015 年から 2023 年まで日本電信電話株式会社研究員. 2023 年より rinna株式会社 Applied Scientist. 自然言語処理, 対話システムの研究開発に従事. 人工知能学会, 言語処理学会各会員. 博士 (工学). 東中竜一郎:2001 年慶應義塾大学大学院政策・メディア研究科修士課程, 2008 年博士課程修了. 2001 年日本電信電話株式会社入社. 2020 年より, 名古屋大学大学院情報学研究科教授. NTT 人間情報研究所客員上席特別研究員. 慶應義塾大学環境情報学部特別招聘教授. 2004 年から 2006 年まで英国シェフィールド大学客員研究員. 質問応答システム・対話システムの研究に従事. 人工知能学会, 言語処理学会, 情報処理学会, 電子情報通学会各会員. 博士 (学術). 李廷軒:2019 年大連理工大学電子情報・電気工学部卒業. 2023 年筑波大学大学院理工情報生命学術院システム情報工学研究群知能機能システム学位プ ログラム(博士前期課程)修了. 杉山弘晃:2007 年東京大学工学部機械情報工学科卒業. 2009 年同大学院情報理工学系研究科知能機械情報学専攻修士課程了. 2016 年奈良先端科学技術大学院大学情報科学研究科博士課程修了. 2009 年, 日本電信電話株式会社入社. 現在, NTTコミュニケーション科学基礎研究所協創情報研究部主任研究員. 人と自然な対話を行う雑談対話システムの研究に従事. IEEE,人工知能学会, 言語処理学会, 情報処理学会各会員. 博士 (工学). 水上雅博: 2014 年奈良先端科学技術大学院大学情報科学研究科修士課程修了. 2017 年同研究科博士課程修了. 同年, 日本電信電話株式会社入社. 現在, NTT コミュニケーション科学基礎研究所協創情報研究部研究主任. 個人性を持つ対話システムの研究開発に従事. 人工知能学会会員. 博士(工学). 中村竜太:2008 年国立群馬工業高等専門学校卒業. 2008 年 2016 年ソニーグローバルマニュファクチャリング&オペレーションズ株式会社. 2016 年〜 2018 年 Gatebox 株式会社. 2018 年より株式会社ドワンゴにて新規事業部署のマネージャに従事. 安達敬武:2000 年日本タイムシェア株式会社入社. 2006 年株式会社ドワンゴ入社. 2013 年スマートフォン音楽サイトセクションマネージャ. 2016 年対話 $\mathrm{AI}$ プロジェクト「なりきり $\mathrm{AI}\rfloor$ 立ち上げに参画. 現在, 新規プロダクトの開発ディレクションに従事. 川端秀寿:2007 年楽天株式会社入社. 2011 年楽天市場事業部西日本エリアマネージャ. 同年, ドワンゴ株式会社入社. 2012 年より, ニコニコチャンネルのセールスマネージャとして Eコマース事業の開発に従事。2016 年「なりきり $\mathrm{AI} 」$ プロジェクト参加. その後,チャンネル事業部部長を経て,現在,株式会社 KADOKAWA ファンコミュニティ事業部部長. 吉田仙:1995 年東北大学大学院情報科学研究科博士前期課程修了. 1995 年から 2022 年まで日本電信電話株式会社, 2003 年から 2007 年まで西日本電信電話株式会社. 2022 年より株式会社三菱ケミカルホールディングス(現:三菱ケミカルグループ株式会社).現在,自然言語処理の応用業務に従事.情報処理学会, 人工知能学会各会員. 杵渕哲也:1997 年東北大学大学院 ・博士課程前期修了. 同年日本電信電話株式会社入社. 現在, NTT 人間情報研究所共生知能研究プロジェクトプロジェクトマネージャ,メディア処理,人工知能に関する研究開発に従事。電子情報通信学会会員. (2023 年 6 月 27 日受付) (2023 年 8 月 1 日再受付) (2023 年 8 月 22 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 基本イベントに基づく常識推論データセットの構築と利用 大村 和正 $\dagger \cdot$ 河原 大輔 ${ }^{\dagger \dagger}$-黒橋 禎夫 ${ }^{\dagger,+\dagger \dagger}$ } 本研究では, 基本イベントに基づく常識推論データセットの構築手法を提案する。具体的には,テキストから「お腹が空いたので,ご飯を食べる」といった蓋然的関係 を持つ基本的なイベント表現の組を自動抽出し, クラウドソーシングによる確認を 行った後, 基本イベント間の蓋然的関係を問う多肢選択式問題を自動生成する。提案手法に従って 10 万問規模の常識推論データセットを構築し, 計算機による解答実験を行った結果, 高性能な汎用言語モデルと人間の間に解答精度の開きがあるこ とを示した。また,提案手法の拡張性の高さを利用して疑似問題を大規模に自動生成し, このデータ拡張による常識推論タスクおよび関連タスクでの効果を検証した.実験の結果,蓋然的関係に関する知識を広範に学習させることで,常識推論タスク および関連タスクにおいて一定の効果があることを示した。これは,蓋然的関係を 推論する能力が自然言語理解において重要であることを示唆している. キーワード:常識推論,基本イベント,蓋然的関係,自然言語理解 ## Building a Commonsense Inference Dataset based on Basic Events and its Application \author{ Kazumasa Omura $^{\dagger}$, Daisuke Kawahara $^{\dagger \dagger}$ and Sadao Kurohashi ${ }^{\dagger, \dagger \dagger \dagger}$ } We propose a method for building a commonsense inference dataset based on basic events. Specifically, we automatically extract contingent pairs of basic event expressions such as "I'm hungry, so I have a meal" from text, verify by crowdsourcing, and automatically generate commonsense inference problems regarding the contingent relation between basic events. We built a commonsense inference dataset of $100 \mathrm{k}$ problems by the proposed method and conducted experiments to investigate the model performance. The results showed that there is a performance gap between highperformance language models and humans. In addition, we automatically generated large-scale pseudo problems by utilizing the scalability of the proposed method and investigated the effects by the data augmentation on the commonsense inference task and the related tasks. The results demonstrated the effectiveness of learning extensive contingent knowledge for both the commonsense inference task and the related tasks,  which suggests the importance of contingent reasoning. Key Words: Commonsense Inference, Basic Event, Contingency, Natural Language Understanding ## 1 はじめに 計算機による自然言語理解の実現は,自然言語処理における大きな目標のひとつである。この目標に向けて,計算機の言語理解力を訓練・評価する問題設定を考え,そのデータを構築する研究が盛んに行われている (Wang et al. 2019b, 2019a; Srivastava et al. 2022).このような取り組みの中で,計算機による自然言語理解を実現するためには,言語に関する知識(語句の意味,構文など)と言語を超えた実世界に関する知識の両方が必要であると議論されてきた. 前者の言語に関する知識は, 汎用言語モデル BERT (Devlin et al. 2019)の登場以降,相当学習できるようになった。大規模テキストから文脈に応じた語のべクトル表現を事前に学習し,下流タスクに合わせて fine-tuning することで,言い換え認識や構文解析といった基礎的な解析タスクで人間に匹敵する精度が達成されている。 一方で,後者の実世界に関する知識の獲得については,まだ課題が残る,実世界に関する知識は無数に存在するため, その基本的な部分, すなわち常識に焦点を当てたデータが盛んに構築されている,そこでは,広範な知識の中から常識を獲得するために,どのように常識に焦点を当てるかが課題となる. これまでに行われた工夫を見ると,例えば, SWAG (Zellers et al. 2018) は動画キャプションをべースとすることで対象を視覚で捉えられる日常的な出来事に限定している.しかし,これでは扱える常識の範囲が制限される。その他の試みとして, ConceptNet (Speer et al. 2017)をベースとする CommonsenseQA (Talmor et al. 2019) がある. ConceptNet がカバーする基本的な語句の間の関係をべースとしているが, ConceptNet 全体を用いても 1.2 万問しか作問できないという拡張性の問題がある. また, 作問時に含まれるバイアスをできるだけ排除しなければならないという課題もある.前述の試みについて, 例えば, SWAGでは誤り選択肢文を言語モデルで自動生成し, CommonsenseQA では問題文をクラウドソーシングで作成している。このため,これらのデータセットには言語モデルの生成バイアスや Annotation Artifacts ${ }^{1}$ (Gururangan et al. 2018) が含まれうる. 本研究では, これらの問題を解決するために, 人手で構築された言語資源をべースとした作問や人手による作問ではなく生のテキストデータからの作問を試みる。蓋然的関係をを持つ基本  的なイベント表現の組をテキストから自動抽出し,クラウドソーシングで確認を行い,それをベースに常識推論問題を自動生成するという手法を提案する。 基本的なイベント表現(基本イベントと呼ぶ)は「テキストから抽出した述語項構造をクラスタリングし,その中の高頻度なものを核とする表現」と定義する。これをもとに,談話標識を手かがりとして「蓋然的関係を持ち,前件・後件が共に基本イベントである節の組」を自動抽出する。これを蓋然的基本イベントペアと呼ぶ. 例えば,蓋然的基本イベントペアは次のようなものである。 (1) a. お腹が空いたので,ご飯を食べる b. ご飯を食べたら,すごく眠い c. 眠いので,コーヒーを飲む d. 激しい運動をすると,汗をかく ある蓋然的基本イベントペアの前件を文脈,後件を正解選択肢とし,その他のイベントペアの後件を誤り選択肢とすることで,図 1 のような常識推論問題を自動生成することができる. 提案手法はテキストからの自動抽出をべースとするため,拡張性があり,ドメインを限定しない. クラウドソーシングについても, 確認(フィルタリング)を行うだけなので, 低コストかつ Annotation Artifactsの問題もない. また, 人手で構築された言語資源やクラウドソーシングに強く依存せず,談話標識は様々な言語に普遍的に存在するため, 他言語にも比較的適用しやすいと考えられる。 本研究では,まず,日本語 7 億文を含むウェブコーパスに提案手法を適用し,常識推論問題 10 万問から成るデータセットを構築する。計算機による解答実験を行い,様々なタスクで高い性能を達成している汎用言語モデルでも人間との間に性能の開きがあることを示す. 次に,この性能の開きを改善するため, 提案手法の拡張性の高さを利用したデー夕拡張による常識推論能力の改善に取り組む,具体的には,クラウドソーシングによる確認を省略することで常識推論問題を模した疑似問題を大規模に自動生成し,これを訓練時に組み込むという手法を検証する。 図 1 常識推論問題の作問例. $\checkmark$ 印は正解選択肢である. 最後に,蓋然的関係に関する知識の転移可能性を検証するため,常識推論問題および擬似問題からの転移学習による関連タスクへの効果を定量的に評価する。これらの実験の結果,常識推論問題および擬似問題を通して蓋然的関係を広範に学習することで常識推論夕スクおよび関連タスクにおいて一定の効果があることを示す 3. ## 2 関連研究 常識に焦点を当てた言語資源はこれまでに様々なものが構築されており,それらはデータセットと知識ベースの 2 つに大別される. 本研究で構築する常識推論データセットは前者に分類され,後者の常識知識ベースは ConceptNet (Speer et al. 2017) や ATOMIC (Sap et al. 2019a; Hwang et al. 2021) などがある。本節では,常識推論に関するデータセット並びに常識推論能力の改善に向けたアプローチについて述べる. ## 2.1 常識推論データセット 常識推論能力の訓練・評価に向けたデータセットは主に英語で盛んに構築されており,SWAG や CommonsenseQA などがある. これらのデータセットについて説明する. SWAG (Situations With Adversarial Generations) (Zellers et al. 2018)は,与えられた文脈に続く最も適切な動詞句を問う多肢選択式問題 11 万問から成る常識推論データセットである。常識としての知識の一般性を保証するために動画キャプションをべースに問題を作成しており, ドメインは視覚で捉えられる日常的な出来事に限定される。各問題は, 動画キャプションから連続する 2 文を抽出し,その 1 文目から 2 文目の主語までを文脈,残りの部分を正解選択肢としている。誤り選択肢文の候補は言語モデルから生成し,分類モデルが簡単に誤りだと見分けられるものを除去することで,より紛らわしい誤り選択肢文を獲得している。しかし, SWAG は BERTによって人間に匹敵する精度で解かれている。これは,言語モデルが生成した誤り選択肢文にバイアスが含まれており,BERTがこれを検知するような学習をしたためだと考えられている (Zellers et al. 2019). これを受けて Zellers らは,より高性能な言語モデルを使用して BERT がバイアスを検知できないデータセット (HellaSwag) を構築した (Zellers et al. 2019). しかし, HellaSwag も同様の問題が指摘されており (Tamborrino et al. 2020), バイアス問題の本質的な解決には至っていない. CommonsenseQA (Talmor et al. 2019)は,問題文の答えとして最も適切な語句を問う多肢選択式問題 1.2 万問から成る常識推論データセットである。常識知識ベースである ConceptNetから部分グラフを抽出し,それをもとにクラウドソーシングで作問する。部分グラフは 1 つのソー  スコンセプトと,それと同じ関係で結ばれる 3 つのターゲットコンセプトから成る.クラウドワーカーは,ソースコンセプトを含み,ターゲットコンセプトの内 1 つだけが答えとなるような問題文を各ターゲットコンセプトに対して作成する。さらに, 作成した問題に対してクラウドソーシングで誤り選択肢を 2 つ追加することで 5 択問題を作る。この手法は ConceptNet をベースとするため, 拡張性の問題がある。また, Annotation Artifacts (Gururangan et al. 2018) が潜在的に含まれる可能性がある. これらの他にも, 日常的な出来事の間の因果関係を問う COPA (Choice Of Plausible Alternatives) (Roemmele et al. 2011),社会常識を問う Social IQA (Social Intelligence QA) (Sap et al. 2019b), 手続き的な知識を問う PIQA (Physical Interaction: Question Answering) (Bisk et al. 2020) など,ある種の常識に焦点を当てたデータセットが多数構築されている.また,常識推論能力を直接問うものではないが,解答に常識が必要となるデータセットとして,Winograd Schema Challenge (WSC) (Levesque 2011) および WSC 形式の問題をクラウドソーシングで大規模に作成して構築された WinoGrande (Sakaguchi et al. 2020) がある.いずれも既存の言語資源や人手(専門家・クラウドソーシング)による作問をべースとしており,前述の問題が考えられる。 上記のデータセットの多くはタスクが 2 択から 5 択までの多肢選択式であるが, 生成タスクとして評価する取り組みも存在し(Lin et al. 2020; 榎本, 嶋田 2022; 鈴木, 新納 2022), 代表的なデータセットとして CommonGen がある. CommonGen は, 画像キャプション, ConceptNet, クラウドソーシングを利用して作成された制約付きの文生成問題 3.5 万問から成る. 具体的には, 物体もしくは動作を表す複数の単語が与えられ, それらの単語を全て用いて日常的な場面を記述した文を生成するというタスクである。例えば, “dog", “frisbee", “catch", “throw"の 4 単語から “A dog leaps to catch a thrown frisbee.” といった文を生成することが正解となる. 生成タスクはより直接的に計算機の推論能力を見ることができる一方で,確立された自動評価指標がなく, 性能を比較しづらいという問題がある。また, 自動評価の信頼性を上げるために, 各問題で複数の解答例を用意することはしばしば現実的でない. 多肢選択式は出力の候補が制限されるものの, 解答精度をもとに性能を客観的に比較しやすいことは利点であると考えられる。 ## 2.2 常識推論能力の改善に向けたアプローチ 常識推論能力の改善に向けたアプローチとして自動生成した訓練データを活用するものがあり,擬似問題を自動生成する我々のアプローチもこれに該当する。例えば, Ye et al. (2019) は, Wikipedia と ConceptNet から自動生成した 1,600万問規模の多肢選択式穴埋め問題に対して追加の事前学習を行った. ConceptNet を必要とするものの, 語句レベルの常識推論タスク (CommonsenseQA および WSC)における解答精度の向上が報告されている. Staliūnaitè et al. (2021) は, ウェブテキストから談話標識を手がかりに因果関係を持つ節の組を抽出し,負例を 言語モデルから生成することで, COPA および Balanced COPA (Kavumba et al. 2019) に対するデータ拡張を行った. 日常的な因果関係を推論する能力の改善に焦点を当てており, 関連夕スクへの効果は検証していない. その他のアプローチとして, 常識推論に向けた既存の言語資源から知識を転移するものがある. 例えば,前述の Social IQA および WinoGrande を中間タスクとして解くことで,COPA および WSC に対する解答精度の向上が報告されている (Sap et al. 2019b; Sakaguchi et al. 2020). また, CosmosQA (Huang et al. 2019) や HellaSwag (Zellers et al. 2019) といった複雑な常識推論を要するデータセットは転移元のタスクとして効果的であることが, Pruksachatkun et al. (2020)によって実験的に示されている. Lourie et al. (2021)は, マルチタスク学習によって常識推論に関する言語資源間の相互作用を検証し, 複数の常識推論データセットを学習する効果を示した,本研究では,基本的な蓋然的関係を推論する能力に焦点を当て, これに関する知識の転移可能性を日本語で検証する. ## 3 提案手法 常識推論問題は図 1 に示すように文脈と 4 つの選択肢から成り, 文脈の後に続く文として最も適切なものを選ぶタスクである。人間はこのような基本的な蓋然的関係の推論を文章読解や対話といった日常の様々な場面で行っており, 自然言語理解において重要な推論能力を問う. これらの問題は常識としての知識の一般性を担保するために, 基本イベントから成り, クラウドソーシングによる確認を経たイベントペアから生成する。また,テキストからの自動抽出をベースとすることで拡張性を担保する。これらを踏まえ, 次の手順で常識推論問題を作成する (図 2). (1)格フレームから高頻度な述語項構造を「基本イベントの核となる表現(コアイベントと呼ぶ)」として獲得する。 (2)テキストに係り受け解析・談話関係解析を適用し,「蓋然的関係を表す談話標識で接続され,かつコアイベントから成るイベントの組」を自動抽出する. (3) 抽出されたイベントペアが実際に蓋然的関係があるか否かをクラウドソーシングで確認し,蓋然的基本イベントペアを得る. (4)ある蓋然的基本イベントペアの前件を文脈,後件を正解選択肢とし,これと中程度に類似するその他のイベントペアの後件を誤り選択肢とすることで,常識推論問題を自動生成する。 以降, 各ステップの詳細について述べる. 蓋然的基本イベントペア常識推論問題 図 2 提案手法の概要図. ## 3.1 コアイベントの獲得 本研究における基本イベントは「テキストから抽出した述語項構造をクラスタリングし, その中の高頻度なもの(コアイベント)を核とする表現」と定義する。述語項構造をクラスタリングした既存の言語資源として格フレーム (Kawahara and Kurohashi 2006; Kawahara et al. 2014) があり,本研究ではこれを利用する. 格フレームデータにおいては,各述語が用法ごとに格フレームを持つ,各格フレームは複数の格を持ち, 各格は格要素となりうる名詞群からなる。 日本語格フレームの例を表 1 左に示す. 本研究では,格フレームから高頻度な述語項構造を抽出し,それらをコアイベントとする。まず,格フレームデータから,能動態の述語を対象に頻度上位 $\alpha$ 件の述語を取得する.取得した各述語に対して,格フレーム,格,格要素をそれぞれ頻度順に見た時に,頻度の累積和がその項目全体の $\beta \% , \gamma \% , \delta \%$ 超えるまで取得する.例えば,格フレームはその述語の頻度の $\beta \%$ をカバーするまで取得する。上記の閾値は対象言語に応じて経験的に決定する。 } & \multirow{2}{*}{} & 格フレーム & 格 & 項 \\ 表 1 述語「壊す」の格フレーム(左表)と抽出されるコアイベントの例(右表)。表中の数値は,格もしくは格要素の頻度を表す。 日本語格フレームから獲得したコアイベントの例を表 1 右に示す. 例えば,表 1 左において,述語「壊す」の1番目の格フレームは「お腹」もしくは「体」をヲ格の項に取るものが用例の過半数を占めており, $\delta$ を 50 に設定すると「お腹を壊す」と「体を壊す」がコアイベントとして獲得される. 日本語におけるパラメータ $\alpha, \beta, \gamma, \delta$ の詳細な値は 4 節で述べる. ## 3.2 蓋然的基本イベントペアの自動抽出 まず,テキストに係り受け解析と談話関係解析を適用し,蓋然的関係を表す談話標識で接続されるイベントペアを抽出する。イベントは単一の事態を表す単位であり,修飾要素を含む述語項構造に相当する (齋藤他 2018).また,蓋然的関係は「原因・理由」または「条件」の談話関係とし, これは Penn Discourse Treebank (Prasad et al. 2008, 2019)における談話関係 “CONTINGENCY:Cause”または “CONTINGENCY:Condition”に相当する. 続いて, 解析結果から信頼性の高い部分を選択し, 常識的な内容を表すイベントペアに絞るため,以下の 2 つの条件を共に満たすイベントペアを選択する。本研究では,原因・理由などを表す 1 つ目のイベントを「前件」,結果などを表す 2 つ目のイベントを「後件」と呼ぶ. Reliable 前件が後件に曖昧性なく係る. - 1 文中にイベントが 2 つしかない場合, 係り受けの曖昧性は無い. - 1 文中にイベントが 3 つ以上ある場合,対象言語に合わせた基準を設け,それに従って係り受けの曖昧性が無い部分を抽出する. 日本語における基準は 4.2 節で述べる. Basic 前件および後件が共に基本イベントである. - 基本的には前件・後件がコアイベントを包含するか否かを調べるが, 後件の項は代名詞化もしくは省略される可能性が高いため, 後件が明示された項をもたない場合は前件から項を補完してコアイベントの包含関係を調べる. 例えば,イベントペア「台風でガラスが割れる $\rightarrow$ 取り替える」の場合,後件「取り替える」に対して,前件に含まれる項「台風」もしくは「ガラス」を取るコアイベントの有無を調べる。日本語格フレームからはコアイベント「ガラスを取り替える」が獲得されるため,このぺアは Basic 条件を満たすことになる。最後に,次のステップのクラウドソーシングによる確認に向けて,次の後処理を行う. - 事態性の弱いもの, ウェブ特有の定型表現を含むものを除くため, 抽出されたイベントペアに含まれるコアイベントの頻度を数え,高頻度のコアイベント4を含むイベントペアを除く。 ・ 指示代名詞・未知語を含むイベントペアを除く. ・同じ述語項構造の組から成るイベントペアは 1 つを残して重複を除く. ## 3.3 クラウドソーシングによる確認 自動抽出された蓋然的基本イベントペアから,クラウドソーシングを利用して蓋然的関係があるものを選択する。クラウドワーカーは,各イベントペアに対して次の 2 択から評価を選択する. (1) A は B の原因・理由である (2) その他の関係,もしくは関係がない ここでは前件を $\mathrm{A}$ ,後件を B と表現する,Aと B を接続した文の自然さではなく,A と B の間の蓋然的関係を評価してもらうために,談話標識は省略して提示する,各イベントペアを複数人のクラウドワーカーが評価し, 過半数以上が「A は B の原因・理由である」と評価したイベントペアを蓋然的基本イベントペアとして採用する. ## 3.4 常識推論問題の自動生成 蓋然的基本イベントペアから常識推論問題を自動生成する.各問題は,蓋然的基本イベントペアを 1 つ選び(ベースと呼ぶ),その前件を文脈,後件を正解選択肢とする。誤り選択肢は, ベースと中程度に類似する 5 その他のイベントペアの後件から自動的に選択する。正解選択肢と中程度に類似する誤り選択肢を獲得するため,次の条件で選択を行う。 - 後件と正解選択肢の間の類似度は, 文のベクトル表現間のコサイン類似度で測る. - 文のベクトル表現は, 文に含まれる自立語の単語べクトルの平均とする.  Context Similarity 後件と組を成す前件と文脈の間の類似度が RANGE $_{\text {context }}$ の範囲にある. - 前件と文脈の類似度は条件 Choice Similarity と同様に計算する。 また, 問題の体裁を整えるため, 正解選択肢に対して単語数の比が $\mathrm{RANGE}_{\text {length }}$ の範囲にある後件に限定する ${ }^{6}$. 誤り選択肢の候補が 3 件以上得られた場合,無作為に 3 件選択することで問題を生成する.誤り選択肢の候補が 3 件以上得られなかった場合,問題を生成しない. ## 4 日本語常識推論データセットの構築 3 節の手法に従って, 日本語を対象に常識推論データセットを構築した. ## 4.1 コアイベントの獲得 コアイベントは,日本語 100 億文を含むウェブコーパスから自動構築された京都大学格フレー $\Delta^{7}$ から獲得した,頻度に関する閥値 $\alpha, \beta, \gamma, \delta$ は,それぞれ $5,000,75,50,50$ に設定した。 この結果, 28,642 個の格フレームから約 1,400 万件のコアイベントを獲得した 8. コアイベントの例は表 1 右に示している. ## 4.2 蓋然的基本イベントペアの自動抽出 まず,日本語 7.1 億文を含むウェブコーパスから蓋然的関係を持つイベントペアを自動抽出した. 2006 年から 2015 年までクローリングして構築された内製のコーパスの一部を用いている. 抽出には日本語解析器 KNP $^{9}$ (Kurohashi and Nagao 1994) と EventGraph ${ }^{10}$ (齋藤他 2018) を用いた.KNPは係り受け解析と談話標識に基づく節間の明示的な談話関係の解析を行うツー ルであり,EventGraphは KNP の解析結果をイベント単位に整形するツールである.KNP および EventGraph をテキストに適用した結果,約 8,500 万組の蓋然的関係を持つイベントペアを自動抽出した。 次に,係り受けの曖昧性がない基本イベントペアに絞るため, Reliable 条件と Basic 条件を満たすイベントペアを選択した。日本語における Reliable 条件は「文中の末尾 2 節である」と設定した。これは,日本語では基本的に語が左から右に係るため,末尾 2 節の間に係り受けの曖昧性がないためである. 最後に後処理を行い,164,910 組の蓋然的基本イベントペアを抽出した. 表 2 に詳細な統計を  表 2 イベントペアの抽出に関する統計.例えば,項目“+Reliable”の数値は Reliable 条件を満たす蓋然的イベントペアの数を表す. 示す. Basic 条件の予備調査 Basic 条件による効果を調査するため,表 2 の“+Reliable”および “+Reliable+Basic”に相当するイベントペア集合から無作為に 100 組ずつ抽出し,常識的な内容を表すか否かを著者らが人手で評価した。便宜上,抽出されたイベントペアをそれぞれ “R”および “RB”と表現する。人手評価の結果, “R”は 47 組, “RB”は 76 組が常識的であると評価された。“R”に含まれるイベントペアで,Basic 条件によって除かれるものを次に例示する。 (2)魔力カウンターの乗っていない「魔法都市エンディミオン」に対してサイクロンを発動すると,$\rightarrow$ 破壊できる (3) すると, $\rightarrow$ 泣きやすい Basic 条件によって,限定的なドメインでのみ用いられる表現や必須補語が欠けた表現を含むイベントペアが除かれている。この点で,Basic 条件は常識的な内容を表すイベントペアを抽出するのに効果的であると考えられる. ## 4.3 クラウドソーシングによる確認 自動抽出された蓋然的基本イベントペアから,クラウドソーシングを利用して蓋然的関係があるものを選択した. クラウドソーシングサービスは Yahoo!クラウドソーシング11を利用した. クラウドワーカーは 1 タスクあたり 17 組のイベントペアが提示され,それぞれ 3.3 節で述べた 2 択から評価を選択する(図 3). 17 組の内 2 組は注意力を測るためのダミーの設問であり,このイベントペアの評価を間違えたクラウドワーカーの回答は除外される。イベントペア 1 組あたり 4 人のクラウドワーカーが評価し, 過半数以上が「AはB の原因・理由である」と評価したものを蓋然的基本イベントペアとして採用した。  出来事や状態を表す2つの文A・Bを提示します。 AとBの間の関係について以下の選択肢から選んでください。 A. コーヒーを飲む B. 眠気が覚める AはBの原因・理由である その他の関係、もしくは関係が無い ## 磪定して次へ 図 3 イベントペアの蓋然的関係を評価するクラウドソーシングのタスク画面のスクリーンショット. クラウドソーシングの結果, 164,910 組から 104,266 組の蓋然的基本イベントペアを獲得した. クラウドソーシングによって約 $1 / 3$ のイベントペアが除かれているが, これは Basic 条件の予備実験結果に沿っている。クラウドソーシングにかかった費用は合計 48.4 万円であり, 1 問あたりの作問コストに換算すると 4.7 円であった. ## 4.4 常識推論問題の自動生成 最後に,蓋然的基本イベントペアから常識推論問題を生成した。条件 Choice-Similarityに り高く設定している。選択肢をべクトル表現に変換する際は,日本語ウェブコーパスから学習した word2vec モデル12を用いた。また,自立語は形態素解析器 Juman++ (Morita et al. 2015; Tolmachev et al. 2018)の辞書に含まれる動詞, 形容詞, 名詞とした. これらのパラメータによって得られる誤り選択肢の候補数の平均値は 3,459, 中央值は 1,355 であった. この結果,蓋然的基本イベントペア 104,266 組から常識推論問題を 103,907 問生成した. 作問結果の例は, 図 5 および図 6 に計算機による解答結果と共に示している. 人間の解答精度の調査人間の解答精度を調査するため, 生成した常識推論問題から無作為にサンプリングし,クラウドソーシングを利用して解答を収集した。具体的には, 500 問から成る問題セットを 3 セット用意し,各セットに対して異なる時間帯にクラウドソーシングを行うことで,多様なクラウドワーカーの解答を収集した.また,各問題に対して 5 人のクラウドワー  カーから解答を収集した。この結果,クラウドワーカーの平均正解率は $83.8 \%$, 多数決で集約した解答の正解率は $88.9 \%$ であった。 以降,多数決で集約した解答の正解率を人間の性能とみなす. ## 4.5 常識推論データセットの構築 計算機による解答実験に向けて, 生成した問題を $8: 1: 1$ に分割し, それぞれ訓練デー夕, 開発データ,テストデータとした. リークを抑えるため,訓練データの各問題のベースに含まれるコアイベントの組とテスト(開発)データの各問題のベースに含まれるコアイベントの組の間に重複がないように分割を行った ${ }^{13}$. 構築した常識推論データセットの統計を表 3 に示す. ## 4.6 既存の常識推論データセットとの比較 既存の常識推論データセットにあまり含まれていない知識が構築したデータセットに含まれていることを確認する。本研究では, 比較対象としてSWAG (Zellers et al. 2018) および Social IQA (Sap et al. 2019b)を選択した.いずれも同規模かつ句間・節間の蓋然的関係を対象とし,構築したデータセットとの関連性が高いと考えられるためである. 2.1 節で述べたとおり,SWAGは動画キャプションをべースとするため, 手続き的な知識が主な対象であり,文脈から誘発される状態や感情などの知識14はあまり含まれていないことが推測される。これを確認するために,全訓練事例のうち正解選択肢に形容詞句を含む事例の割 Social IQA は与えられた文脈と質問文に対する答えを 3 択から選ぶ問題 3.8 万問から成るデー タセットである. ATOMIC (Sap et al. 2019a)をべースとするため,イベントとそれに関する精神状態(意図,感情など)の間の関係知識も対象としている。一方で,ATOMIC は基本形のイベント間の関係知識が大半を占めるため, 否定条件の知識16に乏しいことが推測される。これを確認するために,全訓練事例のうち正解選択肢に否定表現を含む事例の割合を調査した。こ 表 3 構築した常識推論データセットの統計. 表中の数値は問題数を表す. コアイベントの組を含む。この問題が訓練デー夕に含まれる場合,「お腹が空いたから,駅でご飯を食べる」のような同じコアイベントの組を含むイベントペアをべースとする問題はテスト(開発)デー夕に含まれないことを表す. 14 「友達と遊ぶ $\rightarrow$ とても楽しい」などが例として挙げられる. 15 英語の句構造解析には Stanza (Qi et al. 2020) を使用した. 16 「すごく眠い $\rightarrow$ やる気が出ない」などが例として挙げられる. } の結果, Social IQA は $1.6 \%^{17}$, 構築したデータセットは $11.3 \%$ であった. 以上の結果から, 構築したデータセットは句の品詞や否定のモダリティを限定しない点でより広範な知識を含んでいると考えられる。 ## 5 疑似問題の自動生成 提案手法において,ステップ3のクラウドソーシングを省略することで疑似問題の自動生成が可能となる (図 2 赤点線). 本研究では, これを利用して擬似問題を大規模に自動生成し, このデータ拡張による常識推論タスクおよび関連タスクへの効果を検証した. コアイベント獲得時の頻度に関する閾値や誤り選択肢の抽出条件など, 手法のパラメータは常識推論データセットの構築時(4 節)と同じ値に設定した. ## 5.1 疑似問題の生成元となる蓋然的基本イベントペアの自動抽出 3 節の手法に従って, 疑似問題の生成元となる蓋然的基本イベントペアの自動抽出を行った.抽出元のテキストには日本語 33 億文から成るウェブコーパスを利用した. 4.2 節と同じ内製のコーパスの一部を用いているが, 常識推論データセットの構築時に用いた部分との重複はない. この結果, 83.2 万組の蓋然的基本イベントペアが自動抽出された. クラウドソーシングによる確認で約 $1 / 3$ のイベントペアが除かれたことを考慮すると, 約 50 万組のイベントペアは有効であることが期待される。 ## 5.2 リークへの対処 提案手法に従って大規模テキストから疑似問題を生成する際の懸念として, Data Contamination の問題がある (Brown et al. 2020). テキスト中に評価データと同じもしくは酷似した文が含まれているために意図せず教師信号を学習し, 性能が過大評価されてしまうというものである. 本研究では, 常識推論データセットのテスト(開発)デー夕に含まれる各問題のべースと酷似するイベントペアをヒューリスティックにもとづいて事前に除去することで,この問題に対処する,具体的には,単語の並びおよびコアイベントの組にもとづくフィルタリングを適用する。単語の並びにもとづくフィルタリングベースと重複する単語の並びの長さが, ベースの単語 数の $75 \%$ 超えるものを除く. コアイベントの組にもとづくフィルタリングベースに含まれるコアイベントの組と同じコアイベントの組を含むイベントペアを除く.  例えば,図 1 の問題のベースは「お腹が空いたので $\rightarrow$ ご飯を食べる」であり,「お腹が空く $\rightarrow$ ご飯を食べる」というコアイベントの組を含む。これに対し,イベントペア「お腹が空いたから $\rightarrow$ 友達とご飯を食べる」が上記のフィルタリングによって除かれるか否かを考える.これらのイベントペアの間で $\{$ お腹,が, 空いた, ご飯, を, 食べる $\}$ という 6 単語の並びが重複し, この長さはベースの単語数 (7) の $75 \%$ を超える。また, 同じコアイベントの組を含むため, 両方のフィルタリングによって除かれる. 1 点目のフィルタリングは構文的に似ているイベントペアを, 2 点目は内容が似ているイベントペアを除く目的で適用する。上記のフィルタリングを適用した結果, 77.4 万組の蓋然的基本イベントペアが獲得された。これらのイベントペアから疑似問題を自動生成した結果, 77.2 万問が生成された。 疑似問題の品質の予備調査疑似問題の品質を調査するため, 生成された疑似問題から 100 問を無作為にサンプリングし,解答可能であるか否かを著者らが人手で評価した。この結果, 100 問中 71 問が解答可能であると判断された. 自動生成データであることを考慮すると妥当な品質であると考えられる。 ## 6 計算機による解答実験 まず,構築した常識推論データセットに対する計算機の性能を検証するため,計算機による解答実験を行った.また,疑似問題による常識推論タスクへの効果を検証した,便宜上,常識推論データセットの訓練データを常識推論問題と呼び, 疑似問題と区別する. ## 6.1 モデル 本研究では, BERT モデル (Devlin et al. 2019) およびXLM-RoBERTa (XLM-R) モデル (Conneau et al. 2020)の性能を検証した. いずれも Transformer (Vaswani et al. 2017) をべースとした深層学習モデルである. BERT の事前学習モデルは, 日本語 Wikipedia で事前学習した NICT BERT 日本語 Pre-trained モデル(BPEあり)18を用いた. モデルのアーキテクチャは BERT $\mathrm{BASE}_{\mathrm{BE}}$ と同等であり, RoBERTa (Liu et al. 2019)の訓練設定を一部参照しているために比較的性能が高いことが報告されている. XLM-R の事前学習モデルは, Wikipedia および CC-100 (Wenzek et al. 2020) から成る大規模多言語コーパスで事前学習したXLM-RoBERTaLARGE モデル19を用いた. モデルのアーキテク 較的大きい.  ## 6.2 実験設定 常識推論問題および疑似問題で fine-tuning する際は, ソフトマックス関数で正規化した各選択肢のスコアと, 正解を 1 とする one-hot ベクトルとの間の交差エントロピー誤差を最小化するように訓練する,各選択肢のスコアは,文脈と選択肢のペアを特殊トークンで区切って入力し,先頭の特殊トークン ([CLS]) の隠れ状態をスカラーに線形変換することで算出する。擬似問題を訓練に組み込む際は,目的関数 Lを常識推論問題の交差エントロピー誤差と擬似問題の交差エントロピー誤差の重み付き和で定義する。上記は次の式で表される. $ \begin{aligned} H & =-\frac{1}{N} \sum_{k} \log \frac{\exp \left(\mathbf{s}_{k j}\right)}{\sum_{i=1}^{4} \exp \left(\mathbf{s}_{k i}\right)} \\ L & =H_{\text {常識推論問題 }}+\lambda \times H_{\text {疑似問題 }} \end{aligned} $ $N$ は訓練事例数, $j \in\{1,2,3,4\}$ は正解選択肢のインデックス, $\mathbf{s}_{k i}$ は $k$ 番目の訓練データの $i$ 番目の選択肢のスコア,入は常識推論問題に対する疑似問題の重みを表す。ハイパーパラメータの詳細は付録 A に示している。 推論時は最もスコアの高い選択肢を計算機による解答とみなす.モデルの性能はその正解率で評価した。 比較手法多肢選択式という形式の効果を検証するため, Task-Adaptive Pre-Training (Gururangan et al. 2020) を参考にした事前学習手法と比較した。具体的には,疑似問題の生成元となった 88 万組のイベントペアに対して追加の Masked Language Modeling (MLM) タスクを実行し, その後目的のデータセットで fine-tuning した時のモデルの性能を調査した. 便宜上, これを“AMLM”と表記する。 ## 6.3 実験結果 計算機による解答実験の結果を表 4 に示す 20 。常識推論問題だけでは人間の解答精度との間に開きがあり,疑似問題によって BERT は 5.4 ポイント,XLM-R は 2.8 ポイントの改善が見られる。 図 4 は開発データに対するモデルの学習曲線を表す。図中の×印は疑似問題を加えて finetuning した際の正解率を表すが,最小二乗法で外挿された学習曲線の下に位置している。疑似問題は性能の向上に寄与する一方で, 常識推論問題に対する疑似問題の品質の差やモデルの解答精度が飽和していることが見て取れる。  表 4 構築した常識推論データセットのテストデータに対する正解率. 表中の数値は異なる 3 つのシー ド値で fine-tuning した結果の平均と標準偏差である。また, 矢印 $(\rightarrow)$ は多段階の fine-tuning であることを表す。例えば,“AMLM $\rightarrow$ 常識推論問題”は疑似問題の生成元となった 88 万組のイベントペアに対して追加の Masked Language Modeling タスクを実行し,その後,常識推論問題で fine-tuning することを表す. 図 4 構築した常識推論データセットの開発データに対するモデルの学習曲線. XLM-R は訓練事例数が少ない時 $\left(N \in\left.\{10^{3}, 3 \times 10^{3}\right.\}\right)$ に学習が進まなかったため, それらの結果については省略した上で学習曲線を算出している. ## 6.4 定性的分析 計算機の解答結果について定性的分析を行った,図 5 に BERT の正答例と誤答例を示す。誤答例について顕著な傾向は見られなかったが, 文脈と選択肢の間に自立語の重複がある場合にスコアを高く出力する傾向が見られた. また,図 6 に疑似問題によって BERT が正答するようになった問題例を示す.これらの基本的な蓋然的関係を問う問題に正答するようになったほか,全ての選択肢に低いスコアを付けて消去法的に誤り選択肢を選んでいた問題に対する改善も見られた。疑似問題によって常識推論問題のカバレッジ不足が補われ,予測の確信度が向上したと考えられる。 ## 6.5 選択肢のバイアスの検証 意図しないバイアスがデータセットに含まれているために,問題文の一部を与えるだけで問題が解けてしまうという報告がある (Gururangan et al. 2018; Zellers et al. 2019; Tamborrino et al. 2020). 本研究では, 文脈を省略し, 選択肢のみを入力として与えて訓練・評価した時の & \\ 図 5 BERT の正答例と誤答例。 $\checkmark$ 印は正解選択肢であり,×印は BERT の誤答選択肢である。また,文末の数字は BERT が出力したスコア $(\in[-15,15])$ を表す. 図 6 疑似問題によって BERT が正答するようになった問題例。、印は正解選択肢であり,×印は訓練時に疑似問題を使用しなかった際の誤答選択肢である. 図 7 構築した常識推論データセットにおける誤り選択肢の頻度の計数結果. 正解率を測ることで,生成した常識推論問題に含まれるバイアスの有無を検証した.検証にあたり,モデルおよびハイパーパラメータは 6.1 節および付録 A と同じものを用いた. 文脈を省略し,選択肢のみを入力として与えた時の計算機の正解率は, BERTが $42.6 \%$, XLM-R が $41.3 \%$ であった,文脈を省略しない場合と比較して十分低い精度であり,選択肢のバイアスが小さいことを示している. 一方で,チャンスレート $(25 \%)$ と比較すると開きがあり,この原因を検証するために誤り選択肢の分布を調査した。図 7 は各蓋然的基本イベントペアの後件が誤り選択肢として使い回される頻度を計数した結果を表すが,誤り選択肢の頻度に差があることが分かる。そこで,後件が誤り選択肢として 5 回以上使い回されないように問題を生成し, そこから 4.5 節に従って構築したデータセットに対して計算機の正解率を同様に検証した. この結果,BERT の正解率が $33.5 \%$, XLM-R の正解率が $33.2 \%$ であった,以上の結果から,誤り選択肢として使い回される頻度が高いために誤りだと識別しやすいものが存在し, これによって解答精度がチャンスレー トより高くなっていると考えられる。 ## 6.6 クラウドソーシングによるフィルタリングの検証 4.3 節で述べたとおり, 本研究ではデータセット構築時にクラウドソーシングによるフィルタリングの閥値を 4 人中 2 人以上と設定している。これは,評価が割れたイベントペアもしばしば蓋然的関係があることを予備実験で確認し,再現率を重視したためである。この閥値によるデータセットへの影響を検証するために,閥値を 3 人以上および 4 人以上に設定して構築したデータセットに対する計算機の正解率を調査した。検証にあたり,モデルおよびハイパーパラ 表 5 クラウドソーシングによるフィルタリングの間値を変えて構築した常識推論データセットの統計 (左表)とこれらのデータセットのテストデータに対する正解率(右表). 左表中の数値は問題数,右表中の数値は異なる 3 つのシード値で fine-tuning した結果の平均と標準偏差である. メータは 6.1 節および付録 $\mathrm{A}$ と同じものを用いた. 閾値を変えて構築したデータセットの統計およびこれらのデータセットに対する計算機の正解率を表 5 に示す。閾値を厳しくすると,訓練事例数は減少するものの計算機の正答率は低下しないことが見て取れる。この原因として,訓練データの質が向上すると同時に,評価デー夕に含まれる悩ましい問題が減ることが挙げられる。また,評価データの規模が小さくなることで問われる知識のカバレッジが低下している可能性もある。問題の難易度や多様さをある程度保証する目的で間値を 2 人以上に設定することは妥当であると考えられる. ## 7 蓋然的関係に関する知識の転移学習 蓋然的関係に関する知識の転移可能性を検証するため,常識推論問題および擬似問題からの転移学習による関連タスクへの効果を定量的に評価した。具体的には,常識推論問題および擬似問題で fine-tuning したモデルの重みを初期値として関連タスクでさらに fine-tuning を行い,関連タスクにおける性能を評価した。本研究では,計算機と人間の間に性能の開きがあるタスクの中から蓋然的関係または常識推論との関連性を考慮して, 関連タスクとして談話関係解析,日本語 Winograd Schema Challenge (JWSC) (柴田他 2015), JCommonsenseQA (JCQA) (Kurihara et al. 2022) を選択した. モデルは 6.1 節と同様で,ハイパーパラメータは付録 $\mathrm{A}$ に記載した. ## 7.1 関連タスク 談話関係解析談話関係解析は節間の談話関係を分類するタスクである。本研究が対象とする蓋然的関係に加えて,「目的」や「譲歩」といった多様な談話関係の理解が要求される. $3.2,4.2$節で述べたとおり,常識推論問題および擬似問題は KNP によって「原因・理由」または「条件」の談話関係があると自動解析されたイベントペアをべースとするため,転移学習によって これらの談話関係を中心に解析精度の改善が期待される。 談話関係解析に向けた日本語のデータセットとして,京都大学ウェブ文書リードコーパス (KWDLC) (岸本他 2020) がある. KWDLC は多様なウェブ文書の冒頭 3 文を収集することで構築されており,その規模は 6,445 文書から成る。これらの文書には,クラウドソーシングを用いて節間に談話関係が注釈付けされている。また,これらの内 500 文書には専門家による注釈も付与されている。本研究では, クラウドワーカーによる注釈のみが付与された節ぺア約 3.7 万組を訓練データに用い,専門家による注釈が付与された節ぺア 2,320 組の分類精度を 5 分割交差検証で評価した。夕スクは「談話関係なし」を含む談話関係の 7 值分類であり,モデルの性能は「談話関係なし」を除いた micro-F で評価した。 JWSC WSC は文中の照応詞が指示する先行詞を 2 つ候補から選択するタスクである (Levesque 2011). タスクそのものは共参照解析であるが,解答に常識推論を要するように問題が設計されている. JWSC ${ }^{21}$ は Rahman and Ng (2012) が作成したWSC を翻訳することで構築されている. 問題例を次に示す. ライオンはシマウマを食べる。それ(ライオン/シマウマ)は捕食動物だからだ。 この例をはじめとして,JWSC は蓋然的関係を間接的に問う問題が多数含まれる。このため,転移学習によってこのような問題に対する正解率の改善が期待される. 3.2 節の後処理によって問題の生成元となるイベントペアは指示代名詞を含まないため, 常識推論問題および擬似問題を中間タスクとして学習すると照応詞に関する知識が忘却され,JWSC に対する性能が悪化する懸念がある。そこで,文中の照応詞を先行詞の候補の 1 つで置換することでタスクを 2 択問題に変換し, 訓練データ 2,644 文とテストデータ 1,128 文から成るデータセットを生成した。開発デー夕は用意されていないため,訓練データを $8: 2$ に分割することで 5 分割交差検証を行い,モデルの性能を正解率および Area Under the ROC Curve (AUC) で評価した。 JCQA JCQA は CommonsenseQA の日本語版であり,基本的な語句に関する知識を問う 5 択問題約 1.1 万問から成る。問題は ConceptNet から抽出した部分グラフをべースにクラウドソー シングを用いて人手で作成されている(2.1 節を参照)。常識推論問題および擬似問題は基本イベントから成るため, これらを通して基本的な語句の共起関係を事前に学習することで, JCQA に対する正解率の改善が期待される. タスクは常識推論問題と同じ多肢選択式であるため, 6.2 節と同様に fine-tuning を行った.モデルの性能は正解率で評価した。 ^{21}$ https://github.com/ku-nlp/Winograd-Schema-Challenge-Ja } ## 7.2 実験結果 各関連タスクへの転移学習の実験結果および AMLM との比較について述べる. 談話関係解析表 6 に談話関係解析の実験結果を示す。常識推論問題および疑似問題を中間夕スクとして解くことで,談話関係解析に有効であることが分かる. 談話関係解析の談話関係ごとの性能を表 7 に示す。常識推論問題および疑似問題から転移学習したモデルは「原因・理由」や「目的」の談話関係において改善が見られる。一方で,「条件」 の談話関係においては改善が見られなかった。また,クラウドワーカーと比較すると,「譲歩」 表 6 談話関係解析の実験結果. 評価指標は「談話関係なし」を除いた micro-F で,表中の数値は異なる 3 つのシード値で fine-tuning した結果の平均と標準偏差である。また,表 4 と同様に矢印 $(\rightarrow)$ は多段階の fine-tuning であることを表す。なお,AMLM は KWDLC の訓練データではなく擬似問題の生成元となった 88 万組のイベントペアに対して行っている(6.2 節「比較手法」の段落を参照).人間の性能は,専門家とクラウドワーカーの両者による注釈が付与された文書に対して,専門家による注釈を正解,クラウドワーカーによる注釈を予測として算出されている. } & KWDLC & $76 / 138$ & $32 / 43$ & $18 / 37$ & $0 / 6$ & $2 / 19$ & $54 / 84$ & 46.7 \\ 表 7 談話関係解析の談話関係ごとの性能. 表中の左側の数字は対応する談話関係の真陽性の数を,右側の数字は真陽性の数と偽陽性の数の和を表す. や低頻度の談話関係の適合率に改善の余地がある. JWSC 表 8 にJWSC のテストデータに対する実験結果を示す。“JWSC”の設定において,一部訓練時に学習が進まない現象 (degenerate run) (Phang et al. 2018; Pruksachatkun et al. 2020) が観測された. この現象は訓練データが小規模である場合によく観測され, 中間タスク転移学習によって軽減できることが報告されているが, 本研究でも同様の結果が確認された. 転移学習による効果については,特に BERTにおいて常識推論問題による性能の向上が見られるが,疑似問題の寄与は小さい。JWSC は蓋然的関係だけでなく「譲歩」の談話関係に関する問題 22 も無視できない程度に含まれるため, 蓋然的関係に関する知識を重点的に学習することはかえって性能を低下させてしまうと考えられる.多様な談話関係を学習することが改善案として挙げられる。 JCommonsenseQA 表 9 に JCQAの開発データに対する実験結果を示す. XLM-Rにおいて,転移学習による正解率の改善が見られる. JCQA は CC-100 で事前学習したモデルの性能が良いことが報告されており (Kurihara et al. 2022), ウェブドメインに適応することが改善に繋がるとみなされている。このため, 構築した問題と JCQA のドメインが合っており, 基本イベントを通して基本的な語句の共起関係を学習する効果が表れたと考えられる。ただし,BERTにおける正解率の改善幅は小さいため, 構築した問題は Wikipediaのみで事前学習したモデル (BERT) をウェブドメインに適応させるには規模が小さく, CC-100で事前学習したモデル (XLM-R)の補助データとして効果的であると推測される。 & \\ 表 8 JWSC のテストデータに対する実験結果.表中の数値は異なる 3 つのシード値で fine-tuning した結果の平均と標準偏差である。†は degenerate run が観測されたことを表す. 参考のため, degenerate run を除いた性能を丸括弧内に記載している。 22 「ジェームズはロバートに頼みごとをした。しかし、彼(ジェームズ/ロバート)は断った。」が例として挙げられる. \\ 表 $9 \mathrm{JCQA}$ の開発データに対する実験結果.表中の数値は異なる 3 つのシード値で fine-tuning した結果の平均と標準偏差である,参考のため,元論文で報告された性能を丸括弧内に記載している。 AMLM疑似問題の生成元となった 88 万組のイベントペアに対して追加の MLM タスクを実行すると, 常識推論タスクでは改善が見られるが, 関連タスクへの転移学習は概して性能が悪化することが分かる ${ }^{23}$. AMLM では常識推論タスクにのみ有効(特化)した知識を学習していると考えられる。 ## 8 おわりに 本研究では,基本イベントに基づく常識推論データセットの構築手法を提案した.各問題は基本的なイベント表現間の蓋然的関係を問う多肢選択式問題である。提案手法を 7.1 億文から成る日本語ウェブコーパスに適用し,常識推論問題 10.4 万問を含む常識推論データセットを構築した。構築したデータセットを用いて高性能な汎用言語モデルの性能を検証した結果,人間の性能との間に開きがあることを確認した。 また,提案手法がテキストからの自動抽出をべースとしていることを利用して大規模な疑似問題を自動生成し,これを訓練時に組み込むことによる常識推論タスクおよび関連タスク(談話関係解析,JWSC,JCommonsenseQA)への効果を検証した.実験の結果,蓋然的関係を広範に学習することで,常識推論タスクおよび関連タスクにおいて一定の効果があることを確認  した. これは, 蓋然的関係を推論する能力が自然言語理解において重要であることを改めて示唆している. 今後の課題として, データセットの高品質化・高難易度化が挙げられる. 例えば, 提案手法は蓋然的基本イベントペアから常識推論問題を自動生成するため, 生成された問題の解答可能性を保証していない. また,クラウドソーシングによるフィルタリングを適用しても, ウェブテキストにありがちな質の悪い文を完全に除くことはできていない.このため, 構築したデー タセットには解答不能な問題や悪文を含む問題が存在する。これを解決するためには, クラウドソーシングなどの人手で問題を修正・選別することが必要であると考えられる.高難易度化については,選択肢をより紛らわしいものに修正するというアプローチに加えて,選択肢間の序列や推論の理由を問うといったタスクの発展も考えられる。この他にも, 蓋然的関係たけでなく多様な談話関係を学習することによる自然言語理解タスクへの効果の検証や文章読解問題の作問支援といった人間の学習への応用なども検討したい. 本研究の限界として, 提案手法は reporting bias (Gordon and Van Durme 2013), 即ち当たり前のことはわざわざ書かないというテキストの性質のために, 対象とする常識のカバレッジが不十分である可能性が無視できない. この問題に対しては, SWAGで用いられた動画キャプションのような意図的に書き起こされたテキストなどを取り入れることで軽減されると考えられる。 ## 謝 辞 本研究は (公財) 日本漢字能力検定協会の支援を受けた。 また, 第一著者は京都大学科学技術イノベーション創出フェローシップ (情報・AI分野) およびJSPS 特別研究員奨励費 JP22J15958 の支援を受けた。 ## 参考文献 Bisk, Y., Zellers, R., Le bras, R., Gao, J., and Choi, Y. (2020). "PIQA: Reasoning about Physical Commonsense in Natural Language." In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, pp. 7432-7439. Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P., Neelakantan, A., Shyam, P., Sastry, G., Askell, A., et al. (2020). "Language Models are Few-Shot Learners." In Larochelle, H., Ranzato, M., Hadsell, R., Balcan, M., and Lin, H. (Eds.), Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Curran Associates, Inc. Conneau, A., Khandelwal, K., Goyal, N., Chaudhary, V., Wenzek, G., Guzmán, F., Grave, E., Ott, M., Zettlemoyer, L., and Stoyanov, V. (2020). "Unsupervised Cross-lingual Represen- tation Learning at Scale." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8440-8451, Online. Association for Computational Linguistics. Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota. Association for Computational Linguistics. 榎本悠, 嶋田和孝 (2022). 生成的自然言語推論のためのデー夕収集とモデル構築. 信学技報, NLC2021-39, 121 巻, pp. 62-67, ONLINE. [H. Enomoto and K. Shimada (2022). Generating the Next Action from Sequence Event Pairs Automatically Acquired from Twitter. IEICE Tech. Rep.]. Gordon, J. and Van Durme, B. (2013). "Reporting Bias and Knowledge Acquisition." In Proceedings of the 2013 Workshop on Automated Knowledge Base Construction, AKBC '13, pp. 25-30. Gururangan, S., Marasović, A., Swayamdipta, S., Lo, K., Beltagy, I., Downey, D., and Smith, N. A. (2020). "Don't Stop Pretraining: Adapt Language Models to Domains and Tasks." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8342-8360, Online. Association for Computational Linguistics. Gururangan, S., Swayamdipta, S., Levy, O., Schwartz, R., Bowman, S., and Smith, N. A. (2018). "Annotation Artifacts in Natural Language Inference Data." In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), pp. 107-112, New Orleans, Louisiana. Association for Computational Linguistics. Huang, L., Le Bras, R., Bhagavatula, C., and Choi, Y. (2019). "Cosmos QA: Machine Reading Comprehension with Contextual Commonsense Reasoning." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 2391-2401, Hong Kong, China. Association for Computational Linguistics. Hwang, J. D., Bhagavatula, C., Le Bras, R., Da, J., Sakaguchi, K., Bosselut, A., and Choi, Y. (2021). "COMET-ATOMIC 2020: On Symbolic and Neural Commonsense Knowledge Graphs." In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 35, pp. 6384-6392. Kavumba, P., Inoue, N., Heinzerling, B., Singh, K., Reisert, P., and Inui, K. (2019). "When Choosing Plausible Alternatives, Clever Hans can be Clever." In Proceedings of the 1st Workshop on Commonsense Inference in Natural Language Processing, pp. 33-42, Hong Kong, China. Association for Computational Linguistics. Kawahara, D. and Kurohashi, S. (2006). "Case Frame Compilation from the Web using HighPerformance Computing." In Proceedings of the 5th International Conference on Language Resources and Evaluation (LREC'06), Genoa, Italy. European Language Resources Association (ELRA). Kawahara, D., Peterson, D., Popescu, O., and Palmer, M. (2014). "Inducing Example-based Semantic Frames from a Massive Amount of Verb Uses." In Proceedings of the 14th Conference of the European Chapter of the Association for Computational Linguistics, pp. 58-67, Gothenburg, Sweden. Association for Computational Linguistics. 岸本裕大, 村脇有吾, 河原大輔, 黒橋禎夫 (2020). 日本語談話関係解析:タスク設計・談話標識の自動認識・コーパスアノテーション. 自然言語処理, 27 (4), pp. 889-931. [Y. Kishimoto et al. (2020). Japanese Discourse Relation Analysis: Task Definition, Connective Detection, and Corpus Annotation. Journal of Natural Language Processing, 27(4), pp. 889-931.]. Kurihara, K., Kawahara, D., and Shibata, T. (2022). "JGLUE: Japanese General Language Understanding Evaluation." In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 2957-2966, Marseille, France. European Language Resources Association. Kurohashi, S. and Nagao, M. (1994). "KN Parser: Japanese Dependency/Case Structure Analyzer." In Proceedings of the Workshop on Sharable Natural Language, pp. 48-55. Levesque, H. (2011). "The Winograd Schema Challenge." In AAAI Spring Symposium - Technical Report. Lin, B. Y., Zhou, W., Shen, M., Zhou, P., Bhagavatula, C., Choi, Y., and Ren, X. (2020). "CommonGen: A Constrained Text Generation Challenge for Generative Commonsense Reasoning." In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 1823-1840, Online. Association for Computational Linguistics. Liu, Y., Ott, M., Goyal, N., Du, J., Joshi, M., Chen, D., Levy, O., Lewis, M., Zettlemoyer, L., and Stoyanov, V. (2019). "RoBERTa: A Robustly Optimized BERT Pretraining Approach." CoRR, abs/1907.11692. Lourie, N., Le Bras, R., Bhagavatula, C., and Choi, Y. (2021). "UNICORN on RAINBOW: A Universal Commonsense Reasoning Model on a New Multitask Benchmark." In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 35, pp. 13480-13488. Morita, H., Kawahara, D., and Kurohashi, S. (2015). "Morphological Analysis for Unsegmented Languages using Recurrent Neural Network Language Model." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 2292-2297, Lisbon, Portugal. Association for Computational Linguistics. Mosbach, M., Andriushchenko, M., and Klakow, D. (2021). "On the Stability of Fine-tuning BERT: Misconceptions, Explanations, and Strong Baselines." In International Conference on Learning Representations. Omura, K., Kawahara, D., and Kurohashi, S. (2020). "A Method for Building a Commonsense Inference Dataset based on Basic Events." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 2450-2460, Online. Association for Computational Linguistics. Omura, K. and Kurohashi, S. (2022). "Improving Commonsense Contingent Reasoning by Pseudo-data and its Application to the Related Tasks." In Proceedings of the 29th International Conference on Computational Linguistics, pp. 812-823, Gyeongju, Republic of Korea. International Committee on Computational Linguistics. Phang, J., Févry, T., and Bowman, S. R. (2018). "Sentence Encoders on STILTs: Supplementary Training on Intermediate Labeled-data Tasks." CoRR, abs/1811.01088. Prasad, R., Dinesh, N., Lee, A., Miltsakaki, E., Robaldo, L., Joshi, A., and Webber, B. (2008). "The Penn Discourse TreeBank 2.0." In Proceedings of the 6th International Conference on Language Resources and Evaluation (LREC'08), Marrakech, Morocco. European Language Resources Association (ELRA). Prasad, R., Webber, B., Lee, A., and Joshi, A. "The Penn Discourse TreeBank 3.0." https://catalog.ldc.upenn.edu/LDC2019T05. Pruksachatkun, Y., Phang, J., Liu, H., Htut, P. M., Zhang, X., Pang, R. Y., Vania, C., Kann, K., and Bowman, S. R. (2020). "Intermediate-Task Transfer Learning with Pretrained Language Models: When and Why Does It Work?" In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 5231-5247, Online. Association for Computational Linguistics. Qi, P., Zhang, Y., Zhang, Y., Bolton, J., and Manning, C. D. (2020). "Stanza: A Python Natural Language Processing Toolkit for Many Human Languages." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 101-108, Online. Association for Computational Linguistics. Rahman, A. and Ng, V. (2012). "Resolving Complex Cases of Definite Pronouns: The Winograd Schema Challenge." In Proceedings of the 2012 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning, pp. 777-789, Jeju Island, Korea. Association for Computational Linguistics. Roemmele, M., Bejan, C., and Gordon, A. (2011). "Choice of Plausible Alternatives: An Evaluation of Commonsense Causal Reasoning." In AAAI Spring Symposium - Technical Report.齋藤純, 坂口智洋, 柴田知秀, 河原大輔, 黒橋禎夫 (2018). 述語項構造に基づく言語情報の基本単位のデザインと可視化. 言語処理学会第 24 回年次大会発表論文集, pp. 93-96, 岡山. [J. Saito et al. (2018). Jutsugo Ko Kozo ni Motozuku Gengo Joho no Kihon Tan'i no Dezain to Kashika. Proceedings of the 24th Annual Meeting of the Association for Natural Language Processing, pp. 93-96.]. Sakaguchi, K., Le Bras, R., Bhagavatula, C., and Choi, Y. (2020). "WinoGrande: An Adversarial Winograd Schema Challenge at Scale." In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, pp. 8732-8740. Sap, M., Le Bras, R., Allaway, E., Bhagavatula, C., Lourie, N., Rashkin, H., Roof, B., Smith, N. A., and Choi, Y. (2019a). "ATOMIC: An Atlas of Machine Commonsense for If-Then Reasoning." In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 33, pp. 3027-3035. Sap, M., Rashkin, H., Chen, D., Le Bras, R., and Choi, Y. (2019b). "Social IQa: Commonsense Reasoning about Social Interactions." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 4463-4473, Hong Kong, China. Association for Computational Linguistics. 柴田知秀, 小浜翔太郎, 黒橋禎夫 (2015). 日本語 Winograd Schema Challenge の構築と分析. 言語処理学会第 21 回年次大会発表論文集, pp. 493-496, 京都. [T. Shibata et al. (2015). Nihon Go Winograd Schema Challenge no Kochiku to Bunseki. Proceedings of the 21th Annual Meeting of the Association for Natural Language Processing, pp. 493-496.]. Speer, R., Chin, J., and Havasi, C. (2017). "ConceptNet 5.5: An Open Multilingual Graph of General Knowledge." In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 31, pp. 4444-4451. Srivastava, A., Rastogi, A., Rao, A., Shoeb, A. A. M., Abid, A., Fisch, A., Brown, A. R., Santoro, A., Gupta, A., Garriga-Alonso, A., et al. (2022). "Beyond the Imitation Game: Quantifying and Extrapolating the Capabilities of Language Models." CoRR, abs/2206.04615. Staliūnaite, I., Gorinski, P. J., and Iacobacci, I. (2021). "Improving Commonsense Causal Reasoning by Adversarial Training and Data Augmentation." In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 35, pp. 13834-13842. 鈴木雅人,新納浩幸 (2022). 日本語 CommonGen の試作と入力単語間の関連性からの考察. 情 報処理学会第 253 回自然言語処理研究会, 20 号, pp. 1-8, 京都. [M. Suzuki and H. Shinnou (2022). Nihon Go CommonGen no Shisaku to Nyuryoku Tango Kan no Kanren Sei kara no Kosatsu. Proceedings of the 253th Meeting of Special Interest Group of Natural Language Processing.]. Talmor, A., Herzig, J., Lourie, N., and Berant, J. (2019). "CommonsenseQA: A Question Answering Challenge Targeting Commonsense Knowledge." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4149-4158, Minneapolis, Minnesota. Association for Computational Linguistics. Tamborrino, A., Pellicanò, N., Pannier, B., Voitot, P., and Naudin, L. (2020). "Pre-training Is (Almost) All You Need: An Application to Commonsense Reasoning." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 3878-3887, Online. Association for Computational Linguistics. Tolmachev, A., Kawahara, D., and Kurohashi, S. (2018). "Juman++: A Morphological Analysis Toolkit for Scriptio Continua." In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 54-59, Brussels, Belgium. Association for Computational Linguistics. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., and Polosukhin, I. (2017). "Attention is All you Need." In Guyon, I., Luxburg, U. V., Bengio, S., Wallach, H., Fergus, R., Vishwanathan, S., and Garnett, R. (Eds.), Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc. Wang, A., Pruksachatkun, Y., Nangia, N., Singh, A., Michael, J., Hill, F., Levy, O., and Bowman, S. (2019a). "SuperGLUE: A Stickier Benchmark for General-Purpose Language Understanding Systems." In Advances in Neural Information Processing Systems, Vol. 32, pp. 3266-3280. Curran Associates, Inc. Wang, A., Singh, A., Michael, J., Hill, F., Levy, O., and Bowman, S. R. (2019b). "GLUE: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding." In International Conference on Learning Representations. Wenzek, G., Lachaux, M.-A., Conneau, A., Chaudhary, V., Guzmán, F., Joulin, A., and Grave, E. (2020). "CCNet: Extracting High Quality Monolingual Datasets from Web Crawl Data." In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 4003-4012, Marseille, France. European Language Resources Association. Ye, Z.-X., Chen, Q., Wang, W., and Ling, Z.-H. (2019). "Align, Mask and Select: A Simple Method for Incorporating Commonsense Knowledge into Language Representation Models." CoRR, abs/1908.06725. Zellers, R., Bisk, Y., Schwartz, R., and Choi, Y. (2018). "SWAG: A Large-Scale Adversarial Dataset for Grounded Commonsense Inference." In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 93-104, Brussels, Belgium. Association for Computational Linguistics. Zellers, R., Holtzman, A., Bisk, Y., Farhadi, A., and Choi, Y. (2019). "HellaSwag: Can a Machine Really Finish Your Sentence?" In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4791-4800, Florence, Italy. Association for Computational Linguistics. ## 付録 ## A ハイパーパラメータ 表 10,11,12,13,14に実験で使用したハイパーパラメータの一覧を示す. XLM-R は学習率を低く設定すると学習が安定したため, BERTの学習率より低く設定した. また, 入力の最大系列長はいずれの実験も 128 に設定した. 表 10 常識推論問題および擬似問題の fine-tuning 時に使用したハイパーパラメータ. 表 11 KWDLC の fine-tuning 時に使用したハイパーパラメータ. 表 12 JWSC の fine-tuning 時に使用したハイパーパラメータ。学習を安定させるため, Mosbach et al. (2021)を参考にエポック数を大きく設定している. 表 13 JCQA の fine-tuning 時に使用したハイパーパラメータ. 表 14 AMLM 実行時に使用したハイパーパラメータ。パラメータ值は Gururangan et al. (2020)を参照した. ## 略歴 大村和正:2019 年京都大学工学部電気電子工学科卒業. 2021 年京都大学大学院情報学研究科修士課程修了. 同年京都大学大学院情報科学研究科博士課程に進学,現在に至る。修士(情報学)。自然言語処理の研究に従事。2022 年度より日本学術振興会特別研究員 (DC2) 河原大輔:1997 年京都大学工学部電気工学第二学科卒業. 1999 年同大学院修士課程修了。2002 年同大学院博士課程単位取得認定退学. 東京大学大学院情報理工学系研究科学術研究支援員, 独立行政法人情報通信研究機構主任研究員, 京都大学大学院情報学研究科准教授を経て, 2020 年より早稲田大学基幹理工学部情報通信学科教授. 自然言語処理, 知識処理の研究に従事. 博士 (情報学). 黒橋禎夫:1994 年京都大学大学院工学研究科博士課程修了. 博士 (工学). 2006 年 4 月より京都大学大学院情報学研究科教授. 2023 年 4 月より同特定教授および国立情報学研究所長を併任. 自然言語処理, 知識情報処理の研究に従事. JST さきがけ「社会システムデザイン」研究総括 $(2016 \sim 2022)$, 文部科学官(2020~2022)等を歴任.言語処理学会 10 周年記念論文賞,同 20 周年記念論文賞, 第 8 回船井情報科学振興賞,2009 IBM Faculty Award,文部科学大臣表彰科学技術賞等を受賞. (2023 年 4 月 27 日受付) (2023 年 8 月 9 日再受付) (2023 年 9 月 21 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# Early Discovery of Disappearing Entities in Microblogs 赤崎智 $\dagger$ ## 1 はじめに 本稿では ACL2023で採択された表題の論文 (Akasaki et al. 2023)について, 着想から採択までの経緯や論文の概要について述べる。紙面の都合上説明を大幅に省略している箇所が多々あるが,適宜論文の方を参照していただけると幸いである。 ## 2 着想までの経緯 筆者は博士後期課程在籍時, マイクロブログからの情報抽出を大枠のテーマとしていた. その枠の一つとして取り組んでいた研究 "Early Discovery of Emerging Entities in Microblogs (Akasaki et al. 2019)”が IJCAI2019 に採択され,次の課題を考えている時期のことである.IJCAI2019 の研究はマイクロブログから新作の映画や音楽,新しくできる場所やイベントといった新エンティティを発見するという取り組みであり,これに続く課題はないかと思案していた。あれこれ考えああでもないこうでもないと唸り,Twitter(現X)のアプリを開いては時間を潰すということを繰り返していた。いつものようにタイムラインを眺めていると,筆者がかつて訪ねたとある飲食店が閉店したというツイートが目に入った。「いつの間に閉店したんた」,「閉店前にもう一度行きたかった」と残念がると同時に,ある閃きを得た。 先の取り組みで対象とした新エンティティというのは現実世界に新しく誕生したエンティティを指し,いわゆるエンティティの“最初”というものを扱っている。逆に言えば先ほど挙げた閉店してしまった飲食店のように,エンティティの“最後”というものがあるのでは?と考えた.我々人間や生物は死んでしまうことで世から消えてしまうし,音楽グループや政治団体などもそのうち解散し,お店やサービスもいつしか終了し利用ができなくなってしまう。このような, エンティティが現実世界から消失するという情報も,新しく誕生するという情報に劣らず重要であり,知識ベースの整備やトレンド分析に役立てることができる。また,お店やイベントなどについては,(先の例で筆者が後悔したように)消失後に認識してしまうという機会損失を防ぐため,それ以前のなるべく早い段階で消失を知ることが重要である。これらを踏まえ,消失エンティティを早期に発見するという課題に取り組むこととした.  ## 3 新エンティティの発見 最初に, 本研究で用いた手法のベースとなった Akasaki et al. のマイクロブログから新エンティティを発見する手法について概要を説明する。この研究では, 新エンティティはマイクロブログで最初に言及される時,「新作」,「発表」,「予定」などの,そのエンティティの新規性を示唆する文脈が現れることを報告している。そのため,これらの新規文脈を含む投稿を収集し機械学習モデルに学習させることで,新エンティティをそれが現れてすぐに発見することができるモデルを構築できる. しかしながら, 人名や作品など様々な夕イプを持つ新エンティティの新規文脈を言語毎に人手でアノテーションしデータセットを構築することは労力がかかる. そこで知識ベースとマイクロブログの投稿のタイムスタンプを利用した Distant supervision (Mintz et al. 2009) である Time-sensitive distant supervision (図 1)を提案し, Wikipedia のエンティティの最初期の投稿を大量かつ自動的に収集することで新規文脈を獲得した. このとき,機械学習を行うためには負例となる文脈を収集する必要がある。そのため, 新規文脈の対となる文脈,すなわちエンティティの新規性が失われ世間に普及した文脈を普及文脈とみなし,新規文脈を収集した時期からしばらく経った投稿を集めることでそれらを獲得した. 収集した新規文脈と普及文脈を固有表現抽出モデルで学習し,新規文脈で現れる新エンティティを認識するモデルを構築した。 図 1 新エンティティの発見手法の概要図. Wikipedia の各エンティティの最初期の投稿を新規文脈(正例)そこから時間が経った投稿を普及文脈(負例)として収集する。正例のエンティティにのみエンティティ文字列の位置を示す 'BIES'タグ,それ以外に ' $\mathrm{O}$ 'タグを割り当て,固有表現抽出モデルを学習する. ## 4 消失エンティティの発見 ここまでで勘のいい読者であれば,消失の際に「終了」,「閉店」,「死亡」などの消失文脈が現れる消失エンティティも,同様の手法を用いることで発見することが可能だと考えるだろう. しかしながら,エンティティについて最初の時期の投稿が新規文脈となる新エンティティと異なり, エンティティについて最後(最新)の投稿が消失文脈になるとは限らない. なぜならば,消失エンティティはそれが実際に消失した後でも, 言及され続けることがあるからだ(図 2 下). そのため, 単純に Time-sensitive distant supervision を適用,すなわちエンティティについて最後の投稿を集めると,消失文脈とは関係のないノイジーな投稿を収集してしまうことになる. ## 4.1 Time-sensitive distant supervision の改良 そこで,単純に最後の投稿を収集するのではなく,エンティティが実際に消失する夕イミングの投稿を収集することを考える。ここで我々は,Wikipedia においてエンティティが消失した年が記載される1ことに気づいた。そのため, Time-sensitive distant supervision を行う際にこれらの年に言及頻度が高い時期を対象として投稿を収集した。これにより消失文脈を含んだ投稿を集めることが可能となる。そしてここで集めた時期より十分に前の投稿を,負例の消失前文脈として収集し, 固有表現抽出モデルを学習するためのデータセットを構築した(図 2). 図 2 消失エンティティの発見手法の概要図. Wikipedia の各エンティティが消失した年に最も言及頻度が高いタイミングの投稿を消失文脈(正例)そこから十分に前の投稿を消失前文脈(負例)として収集する。正例のエンティティにのみエンティティ文字列の位置を示す 'BIES'タグ,それ以外に'O'タグをを割り当て,固有表現抽出モデルを学習する。 ^{1}$ https://en.wikipedia.org/w/index.php?title=Category:Endings_by_year\&from=2000 } ## 4.2 事前学習済み単語分散表現の追加学習 また,学習した固有表現抽出モデルで消失エンティティを検出する際も工夫を加えた。モデルを適用するマイクロブログの投稿は短くノイジーであるため,ニュースや新聞記事などの整つたテキストを対象とする際よりも検出精度が下がりやすい。これに対し,マイクロブログにおいて関連する話題の投稿が短期間で複数出現することに着目し, この特徴をモデルに加える方法を提案した(図 3),具体的には,モデルに入力する検出対象の投稿について,その投稿日のマイクロブログのテキストストリームを用いて事前学習済みの単語分散表現の追加学習を行う. これにより更新した単語分散表現を図のように追加で入力することにより, 検出モデルは入力投稿外の大域的な投稿群をも考慮しつつ, 頑健に消失エンティティの認識を行うことができる. ## 4.3 実験設定 実験ではマイクロブログとしてTwitter(現X)を用い, 実際に Time-sensitive distant supervision を用いて日英のデータセットを構築した。これらのデータセットを用いて BERT による固有表現抽出モデルの学習および fastTextを用いた事前学習済み単語分散表現の追加学習を行う。ベー スラインとしては, 改良なしの Time-sensitive distant supervision, すなわちエンティティについて単に最後の投稿を正例,そこから十分に前の時期の投稿を負例として集める手法でデータセットを構築し,BERTによる固有表現抽出モデルを学習した。 これらのモデルを別途人手で作成したテストデータ用の投稿に適用し, 固有表現抽出の性能評価を行った。また,消失エンティティが消失前に早期発見できるかを確認するため, Wikipedia 上で消失エンティティが消失したと記録されたタイミングを編集履歴から取得し,そのタイミングよりどれだけ早くにTwitter から消失エンティティを発見できるかを評価した。 図 3 消失エンティティを発見するモデルの図. モデルに入力される投稿の日付を利用し,その日付の投稿群で学習済み単語分散表現の追加学習を行う(右),得られた単語分散表現をモデルに入力する (左). ## 4.4 実験結果 結果としては,改良した Time-sensitive distant supervision を用いた手法がベースラインの性能を上回り, 単語分散表現の追加学習を行うことで更なる精度向上が可能なことを確認した. 早期発見についても,日英ともにWikipedia の更新より平均して一ヶ月以上早く(人名タイプを除けば四ヶ月以上早く)消失エンティティを発見できることを確認した。 ## 4.5 採択までの経緯 本研究は冒頭で述べた通り 2019 年には構想が出来ていたが, 先に賞味期限の短い別の課題に取り組んだ都合上発表は NLP2022 が初出となった。そこで幸いにも若手奨励賞を頂き,英語化したものを COLING2022に投稿したが不採択で,続くEACL2023でも不採択であった。主な指摘点は IJCAI2019 の論文からの差分が不明膫であることや,モデル及び評価指標の妥当性についてであった. 本研究のような新タスク系の課題はベンチマーク系の課題のように競争となることが基本的にはなくのんびりと研究に取り組めるが,論文化の際にタスクに説得力を持たせることが難しい. ACL2023への投稿時はその部分を重点的に推敲し,無事採択へと至った. ## 参考文献 Akasaki, S., Yoshinaga, N., and Toyoda, M. (2019). "Early Discovery of Emerging entities in microblogs." In Proceedings of the 28th International Joint Conference on Artificial Intelligence (IJCAI), pp. 4882-4889. Akasaki, S., Yoshinaga, N., and Toyoda, M. (2023). "Early Discovery of Disappearing entities in microblogs." In Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (ACL), pp. 4507-4520. Mintz, M., Bills, S., Snow, R., and Jurafsky, D. (2009). "Distant Supervision for Relation Extraction without Labeled Data." In Proceedings of the Joint Conference of the 47th Annual Meeting of the Association for Computational Linguistics and the 4th International Joint Conference on Natural Language Processing (ACL-IJCNLP), pp. 1003-1011. ## 略歴 赤崎智:2022 年東京大学大学院情報理工学系研究科博士後期課程修了. 日本学術振興会特別研究員 DC1 を経て, 2022 年 4 月より, LINEヤフー株式会社 LINE ヤフー研究所(旧 Yahoo! JAPAN 研究所)主任研究員. 自然言語処理,特に情報抽出,対話システム,ウェブマイニングを対象とし研究活動を行っている. 博士 (情報理工学).
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# Subset Retrieval Nearest Neighbor Machine Translation 出口 祥之 } 本稿では, ACL2023に採択された "Subset Retrieval Nearest Neighbor Machine Translation" (Deguchi et al. 2023)(原論文)について,原論文に書ききれなかったような,着想に至った経緯や研究過程,機械翻訳や近傍探索分野の現状などを交えながら解説する。先行研究や提案法 については概要のみを記すため,数式などの詳細は適宜原論文あるいは NLP2023で発表した 「近傍文検索を用いたサブセット $\mathrm{kNN}$ ニューラル機械翻訳」1を参照していただきたい。 ## 1 背景 本稿を執筆している 2023 年 9 月現在,自動翻訳や文法誤り訂正,大規模言語モデル (LLM) によるチャットボットなど,さまざまな自然言語処理サービスが台頭している。これらはほとんどが 2017 年に発表された Transformer (Vaswani et al. 2017) という構造のニューラルネットワークを基礎としたモデルにより実現されている。Transformer はそれまでの機械翻訳手法の翻訳精度を大きく上回るだけでなく,自然言語処理のさまざまな夕スク,さらには,画像処理など多岐にわたる分野の予測精度を向上させ,注目を浴び続けている。 しかし,その精度と引き換えにモデルの訓練にはコストがかかる。ここで,例えば,時事に基づく質問応答のように知識の更新が頻繁に要求されるタスクを考えると, 都度最新のデータを使って追加訓練する必要が生じる。あるいは,元の訓練データに含まれていなかった新しいドメインに適応させるためには,対象のドメインデータで追加訓練する必要がある。このような状況ではモデルを更新するたびに訓練コストがかさんでしまう。さらに,「以前はこの文章がうまく翻訳できていたのにモデルの更新により精度が下がってしまった」といったような,「忘却」と呼ばれる現象もしばしば目にする. これらの問題に対処するため,翻訳時に類似した翻訳例を参照しながら訳文を作るという用例べース手法2を取り入れた $k \mathrm{NN}-\mathrm{MT}($ Khandelwal et al. 2021) というモデルが提案された. 翻訳用例を検索し, モデルの予測と組み合わせて訳文を生成することで,更新はモデルの追加学習ではなくデータベースに翻訳用例を追加する操作だけで実現でき,また翻訳時に必要に応じ )$ ”というキーワードがこのトピックを指すことが多い. } て用例を使用するかどうか柔軟に切り替えられるため, 忘却現象も回避できる. さらに,副次的な効果として,訳文を生成するために参照した翻訳用例を提示することも可能であり,解釈性の向上も期待できる。 $k$ NN-MT は翻訳前に予めデータストアと呼ばれる用例データベースを構築し,翻訳時はデー タストアから近傍事例を検索して出力確率を補正する。データストアは, 訓練済みの NMT モデルに対訳文を入力した際のデコーダ最終層の中間表現ベクトル(キー)と,そのときに出力されるべき正解の単語(值)のペアからなる。キーベクトルは語彙ごとの埋め込みではなく, 文脈情報を含んだ中間表現ベクトルであるため,データストアの大きさは対訳データの目的言語側の全単語数に比例する ${ }^{3}$. 翻訳時は各時刻においてデータストアから近傍 $k$ 個の単語を探索し,近傍事例のキーベクトルとの間の L2 距離から $k \mathrm{NN}$ 予測確率に変換し, NMT の元の予測確率と線形補間することで出力確率を得る. ## 2 課題の発見から原因の究明へ 課題の発見当初, 私は指導教員の渡辺太郎先生との雑談から, $k \mathrm{NN}-\mathrm{MT}$ の柔軟性や翻訳精度を改善できないだろうか, という動機で研究を始めた. しかし, 研究を始めてまもなく, 先に解決したい 2 つの課題に直面した, 1 つ目は,実装がない 4 こと, 2 つ目は,翻訳速度が通常の Transformer と比較して非常に遅くなることであった. まずは使える実装がないと研究が始まらないので再現実装に取り組んだ,論文の情報から実装を再現するのはなかなか骨の折れる作業ではあるが,学部・修士のときに所属していた研究室で当時の指導教員である二宮崇先生に「研究においては使う側ではなく作る・創る側になりなさい」と言われたことを思い出しながら作業を完遂した。いざ実装を動かしてみると,精度評価以前に,いつまで経っても訳文生成が終わらなかった。「 $k$ NN-MT は通常のモデルと比較して翻訳速度が大幅に低下する」という欠点は元論文 (Khandelwal et al. 2021)でも言及されているが,これは実用化が極めて難しいと感じるレべルであっだ ${ }^{5}$ 、そこで,まずは現実的な速度で翻訳できるようにしたいと思い始めた。 原因の究明 $k$ NN-MTはなぜ遅いのか. C 言語の生みの親である Rob Pike は次のような言葉を述べている: “Measure. Don’t tune for speed until you’ve measured”. 用例検索部分が遅い, というのはなんとなく推測できるが,実際に計測してみると,「単語単位で構築された巨大な $ となった. 4 現在は著者実装を含めていくつかの実装が公開されている. 5 原論文で取り組んだ WMT'19 独英翻訳実験では, $k$ NN-MT の翻訳速度は通常の Transformer モデルより 325 倍遅くなった.例として 1 文を 1 秒で生成するモデルを考えると, $k$ NN-MT の導入により 1 文生成するのに 5 分 25 秒かかる計算になる。なお, 検証データのサイズは 2,000 文である. } データストアに対して, 出力文の単語数と同じ回数近傍探索している」ことが速度低下の本質であるということに気がついた6 6 .このため, 出力単語数と同じ回数分計算される 1 回あたりの検索コストをいかに抑えるかが速度改善の肝となる。 ## 3 提案法と研究過程 提案法は次の 2 つの手法により $k \mathrm{NN}-\mathrm{MT}$ の翻訳速度を改善する: (1) 探索空間の削減: 入力文に類似した文の用例のみを検索対象とする(図 1). (2) 効率的な距離計算: (1) により絞り込んだサブセット中の各キーベクトルとクエリベクトルとの間の距離を,事前に計算した距離テーブルのルックアップにより求める. 故きを温ねて新しきを知る渡辺先生とのミーティングで「 $k$ NN-MT は出力単語の類似度だけで計算しているから, 入力側の類似度を使えると嬉しい.」という議論を交わし, このアイデアを深めることにした。だんだん NMT の研究というより用例べース翻訳 (EBMT) の研究になってきた気がした。最先端の技術と昔の研究が時代を越えて繋がり,私がその橋渡しの役目を担うという点で,わくわくする感覚を味わったのは今でも強く覚えている。この頃が本研究の過程で一番楽しかった時期かもしれない. EBMT の研究をやるからには,ということで,その道の始まりにあたる長尾真先生のアナロジーに基づくEBMT (Nagao 1984)をはじめ,古い文献を漁り,大学からすぐ近くの国立国会図書館で夢中になって読んた。1984 年に提案された「原言語文側で類似した事例の対訳を参照する」というアイデアを現代の NMT に融合させる作業に勤しんだ (手法 (1); 図 1 ; 原論文 3.1 節). 図 1 近傍文検索による探索空間の削減  新たな課題の発見と他分野との出会い前述の探索空間の削減だけではまだ十分に実用的な翻訳速度を得られなかった。ここで, ベクトル近傍探索分野において高速な探索法を研究されている松井勇佑先生という方が東京大学にいらっしゃるという話を耳にし, 直接コンタクトをとり,近傍探索の基本から最先端の探索アルゴリズムまでの概観を教わった. ところで,私の手法は「入力に応じて毎回動的に近傍探索の検索対象が変わる」という特徴がある.実はこのような設定の探索問題は,近傍探索の分野においてあまり考えられてこなかった特殊なケースであり,ほとんどの探索アルゴリズムは全探索に最適化されているため,動的に変化するサブセットに対する探索に適用できない。私の知る限りこの問題に正面から向き合った研究は唯一 1 件 (Matsui et al. 2018) 存在し,この論文にヒントを得ながら,サブセット探索に最適な探索アルゴリズム(手法 $(2)$; 原論文 3.2 節)を実装した. これにより,ようやく 100 倍高速化という目標を達成し,実用的な速度(通常の Transformer の $50 \%$ 程度の翻訳速度)で動作することを確認したため,原論文の執筆に移った. ## 4 ACL2023: 採択から発表まで 採択の通知が来るまでは,「精度競争の激しいこの時代に高精度化ではなく高速化に着目した論文ははたしてどれほど評価されるのだううかといった不安半分と, 一方で「高精度化や解釈性の向上に寄与するようなモデルを実用的な速度で動くようにしたという貢献は評価していただけるのではないだろうか」という期待半分を抱えながら結果を待った. ちょうどゴールデンウィークの始まりの夜中に通知メールが届き,緊張しながら文面を開くと,「accepted」の文字が目に飛び込んだ。結果はすぐさま共著者全員に共有した.特に,findingsではなくmainのプロシーディングス (Volume 1: Long Papers) に採択されたことは嬉しく, 自分の研究の貢献が評価される喜びを味わった. 開催地のトロントは 7 月でもそこまで暑くなく,朝に会場裏の湖のほとりを散歩するのが心地よかった,湖面を見ていると,実装から実験,論文投稿までの道のり,採択までの不安,発表準備などでここしばらく熱くなりすぎていた自分に気がつき,自然を感じられるくらいまで気持ちに余裕ができたことに安心感を覚えた。 ACLのチュートリアルは大規模言語モデルに検索機構を組み込むといった用例べース手法に関連する “Retrieval-based Language Models and Applications”という発表を聴講した。この発表は会場が満席になるくらい聴講者が多かったのが印象的だった. 私の研究と同じ方向性の用例ベース手法が注目を浴びているということから, 改めて原論文の研究意義と用例ベース手法への期待を感じた,本会議では,やはり ChatGPT 登場以降初の ACL ということもあり,LLM に関する発表が賑わっていた。,個人的には,「LLMがどこから翻訳を学習したのか?」という問いに対して訓練事例を詳細に調べ上げた研究 (Briakou et al. 2023)の発表が面白かった.LLM による機械翻訳の発展に期待しつつ, 私の提案法の LLMへの応用は今後の課題だと感じた. ## 5 knn-seq: 高速・拡張可能な $k$ NN-MT フレームワーク 原論文では $k \mathrm{NN}-\mathrm{MT}$ の高速化には成功したものの,まだ 1 つめの課題である「 $k \mathrm{NN}-\mathrm{MT}$ のオープンな実装がない」という問題が残っている. ACL に採択されるころには既に $k \mathrm{NN}-\mathrm{MT}$ の著者の実装を含めいくつかの実装が公開されてはいたが, 研究室内で $k \mathrm{NN}-\mathrm{MT}$ に関する研究に取り組んでいた後輩から,「公開実装を使っているが事前処理がとにかく遅い」という話を耳にした. そこで,研究室内でメンバーを募り,kNN-MTフレームワーク“knn-seq”を開発することになった,特に,効率的な実装を心がけ,翻訳速度だけでなく,事前処理であるデータストア構築も含め全てのフェーズで高速に動作するよう設計した.特に,著者実装では 3 日以上かかっていた事前処理が数時間程度で完了するようになった. オリジナルの $k \mathrm{NN}-\mathrm{MT}$ と提案モデルの Subset $k$ NN-MT を含んだ knn-seq のソースコードは GitHub で公開している $7,8$. ## 6 おわりに 本研究では,用例ベース翻訳の古い文献まで遡ったことや,機械翻訳分野の外にある近傍探索分野を学んだこと, すなわち, 研究分野のルーツを辿って理解を深めつつ, 同時に分野の外にも視野を広げたことが目標達成の要となった. 研究の途中で, 共著者の松井先生から「近傍探索の研究分野から見ると, 提案法は近傍探索の使い方が面白い」という感想をいたたき,議論が進んだことがある。「巨人の肩の上に立つ」という言葉があるが, ただ自分が先人の肩の上に立つだけではなく,さらにその次の研究に立ってもらうため自分の研究が土台になるという側面もあるのか,と感銘を受けた。これからも時代や分野を越えて研究のバトンをつないでいけたらと思う。 ## 参考文献 Briakou, E., Cherry, C., and Foster, G. (2023). "Searching for Needles in a Haystack: On the Role of Incidental Bilingualism in PaLM's Translation Capability." In Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 9432-9452, Toronto, Canada. Association for Computational Linguistics.  Deguchi, H., Watanabe, T., Matsui, Y., Utiyama, M., Tanaka, H., and Sumita, E. (2023). "Subset Retrieval Nearest Neighbor Machine Translation." In Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 174-189, Toronto, Canada. Association for Computational Linguistics. Khandelwal, U., Fan, A., Jurafsky, D., Zettlemoyer, L., and Lewis, M. (2021). "Nearest Neighbor Machine Translation." In International Conference on Learning Representations (ICLR). Matsui, Y., Hinami, R., and Satoh, S. (2018). "Reconfigurable Inverted Index." In ACM International Conference on Multimedia (ACMMM), pp. 1715-1723. Nagao, M. (1984). "A Framework of a Mechanical Translation between Japanese and English by Analogy Principle." In Proceedings of the International NATO Symposium on Artificial and Human Intelligence, pp. 173-180. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, L., and Polosukhin, I. (2017). "Attention Is All You Need." In Guyon, I., Luxburg, U. V., Bengio, S., Wallach, H., Fergus, R., Vishwanathan, S., and Garnett, R. (Eds.), Advances in Neural Information Processing Systems 30, pp. 5998-6008. Curran Associates, Inc. ## 略歴 出口祥之:2019 年愛媛大学工学部情報工学科卒業. 2021 年同大学院理工学研究科博士前期課程修了. 2021 年より奈良先端科学技術大学院大学博士後期課程に在学. 同年より情報通信研究機構にて機械翻訳の研究に従事.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# Holographic CCG Parsing 山木良輔† ## 1 はじめに 本稿では,ACL2023 に採択された論文 “Holographic CCG Parsing”(Yamaki et al. 2023) について解説するとともに,学会現地の様子の報告を行う. 論文の詳しい解説に入る前に,まずは本論文が ACL 2023 に採択されるまでの経緯について述べておきたい,私事ではあるが,筆者は立命館大学情報理工学部の学部 3 年から同大大学院情報理工学研究科の修士 1 年に飛び級入学をしており, 修士課程での研究を開始するにあたって,学部 4 年時の積み重ねが無い状態であった。そのような状況において, 自然言語処理や深層学習,構文解析及びそれらの実装の習得から始め,一歩づつ進めてきたのが本研究である。 本論文の共著者であり指導教官でもある谷口忠大先生(立命館大学教授)及び共同研究者の持橋大地先生(統計数理研究所准教授)に多大なるご指導ご鞭撻をいたたき,研究初心者の筆者にしては比較的スムーズに研究を進めていくことができたのではないかと思う.研究を始めて約 1 年後の 2022 年 3 月には言語処理学会第 28 回年次大会 (NLP2022) において本研究に関する始めての対外的な発表を行い,その後,NLP2022で発表した内容をべースとして論文誌への投稿を行った。しかし,最終的な査読結果が不採択となり,筆者は論文誌への採択の難しさを痛感した。そこで,追加の実験及び論文の修正を加えた後に,再挑戦したのが ACL2023であり,本会議に採択されることとなった。ここまでが,本論文が ACL2023に採択されるまでの経緯となるが, 修士課程における研究成果が ACL の本会議に採択されるという形で一区切りを迎えられたことは大変喜ばしく,また,本研究の今後のさらなる展開に向けても貴重な一歩を踏み出すことができたと考えている。 さて, 本研究は構文解析に用いられる文法規則の 1 つである組み合わせ範疇文法 (Combinatory Categorial Grammar, CCG) (Steedman 2000)をベクトル空間上におけるベクトル同士の再帰的な演算としてモデル化するというものである。複数の単語や句が再帰的に組み合わされることで文の背後に句構造を形成する過程を分散表現(ベクトル)同士の再帰的な合成演算としてモデル化し,これによって単語や句の間に存在している階層関係や依存関係を捉えようというのが本研究の狙いである。分散表現同士を合成させるための演算には巡回相関と呼ばれる演算を  活用し, これは 2 つ $d$ 次元ベクトルから新たな $d$ 次元のベクトルを作り出す演算である.そして,この巡回相関を活用することによって知識グラフのべクトル空間への埋め込みを行っているのが Holographic Embeddings (Nickel et al. 2016)という手法であり, 本論文のタイトルにおける Holographic はこの手法に由来している. 本論文で提案している Holographic CCG (Hol-CCG) では, テキストエンコーダによって得られる文脈情報を捉えた分散表現と巡回相関の演算を CCGにおける句構造のモデリングに用いることで, 各単語や句が持つ文法的機能とそれらの相互作用を的確に捉え, 結果的に高い構文解析性能を実現している。また,分散表現同士の再帰的な合成によって得られる句のレべルでの分散表現は Span-based Parsing (Kitaev and Klein 2018)という比較的新しい構文解析手法にも直接的に適用することが可能であり,Span-based Parsingによる構文解析においても Hol-CCG は高い性能を発揮する。 次章以降では本論文において提案している手法の詳細について解説するとともに, 筆者が参加した学会現地の様子についての報告を述べる. ## 2 提案手法 CCG は構文解析に用いられる語彙化文法の 1 つであり, 文中の各単語に対してその単語の文法的機能を示すカテゴリを与え, それらを組み合わせ規則に従って組み合わせることで構文構造を記述する.ここで,各カテゴリは $\mathrm{S}$ : 文, $\mathrm{N}$ : 名詞, NP: 名詞句などの基本カテゴリと“/”, “〉”を再帰的に組み合わせることによって構成され, 単語及び句の文法的機能に関する情報を多く含む。 また, Holographic Embeddings は知識グラフをべクトル空間上に埋め込むための手法として提案されており,知識グラフをべクトル空間上でモデリングするためには,各実体に付与された分散表現同士の相互作用を的確に捉えられるべクトルの合成演算子を設計することが重要となる。そこで, Holographic Embeddings ではこの合成演算子として巡回相関を採用しており,巡回相関はべクトル間の相互関係を捉えることに適しているといえる。そこで,本研究では分散表現を再帰的に合成するための演算として巡回相関を採用した. 前章で述べた通り,本論文で提案している Holographic CCGは巡回相関による分散表現同士の再帰的合成によって, CCG をべクトル空間上におけるべクトル同士の再帰的な演算としてモデル化する手法であり, 本手法の概要を図 1 に示す. 図 1 は, “My sister loves to eat” という文を例に,この文が構成する句構造がベクトル空間上でモデリングされている様子を表している. 色分けされた各部分空間は, 各単語や句に割り当てられる CCGのカテゴリ, すなわちそれらの文法的機能に対応しており,特定の文法的機能を持つ単語や句の分散表現が尤もらしい部分空間に属するようにモデルの学習が行われる. 例えば, 図中の “loves to eat”という動詞句 図 1 Hol-CCG の概要 $(\mathrm{S} \backslash \mathrm{NP})$ に対応するべクトル $\mathbf{v}_{2: 5}$ は, 以下の通りにベクトルを再帰的に合成することで計算される。 $ \mathbf{v}_{2: 5}=\mathbf{v}_{2: 3} \star \mathbf{v}_{3: 5}=\mathbf{v}_{2: 3} \star\left(\mathbf{v}_{3: 4} \star \mathbf{v}_{4: 5}\right) $ なお,式中における丈は巡回相関の演算子を表している。同様の計算を,文全体 $(\mathrm{S})$ としてのベクトル $\mathbf{v}_{0: 5}$ が得られるまで繰り返し行う. $ \begin{aligned} \mathbf{v}_{0: 5} & =\mathbf{v}_{0: 2} \star \mathbf{v}_{2: 5} \\ & =\left(\mathbf{v}_{0: 1} \star \mathbf{v}_{1: 2}\right) \star\left(\mathbf{v}_{2: 3} \star \mathbf{v}_{3: 5}\right) \\ & =\left(\mathbf{v}_{0: 1} \star \mathbf{v}_{1: 2}\right) \star\left(\mathbf{v}_{2: 3} \star\left(\mathbf{v}_{3: 4} \star \mathbf{v}_{4: 5}\right)\right) \end{aligned} $ このように,単語や句に割り当てられた分散表現を再帰的に合成することによって,これらの間に存在する階層関係や依存関係を捉え,構文解析に活用するのが本提案手法の核となる部分である。このようにして得られた単語や句の分散表現は順伝播型ニューラルネットワークからなる識別器に入力され, それらに割り当てるべきCCGのカテゴリを予測できるようにモデルが学習される。また, 本提案手法によって得られる句のレベルでの分散表現(例えば図 1 中の $\mathbf{v}_{0: 2}$ や $\mathbf{v}_{2: 5}, \mathbf{v}_{3: 5}$ など)は Span-based Parsing における Spanの表現としてそのまま適用することができ,高い構文解析性能を実現する。 本提案手法は,CCGにおける構文解析のサブタスクの 1 つである Supertagging において既存モデルを上回る最高性能を発揮し,また,Span-based Parsing においては既存の最高性能モデル (Clark 2021) に競合する性能を発揮した。このことから, 分散表現同士を再帰的に合成することによってべクトル空間上で CCG のモデリングを行うという本提案手法のアプローチの有効性が示された。 図 2 埋め込み空間の可視化 また, 図 2 に提案手法によって構成される埋め込み空間を可視化した図を示す. 図 2 では,埋め込み空間上において分散表現の再帰的合成が行われる様子を実際の実験データを用いて示している,色分けされた各点は異なる CCGのカテゴリに属する単語や句を表しており,近しい文法的機能を持つ単語や句の分散表現はべクトル空間上でも近しい位置にあることが観測され,図 1 で示したような本提案手法のコンセプトが実現されていることが実験的にも確かめられた. ## 3 ACL2023 現地の様子 本章では筆者が参加した ACL2023 現地の様子を報告する,ACL2023 はカナダ最大の都市であるトロントで開催され,オンタリオ湖の湖畔に位置する Westin ホテルが会場であった. 会場はオンタリオ湖という大自然と高層ビル群が隣接する素晴らしいロケーションにあり, 世界各地から集まった研究者が湖畔の道を散歩しながら議論する姿を目にした。 学会のハイライトの 1 つは, Geoffrey Hinton 先生による基調講演であり, “Two Paths to Intelligence" というタイトルで, デジタルな知能と生物学的知能の違いやマルチモーダル LLM の主観的経験に関する話など,非常に刺激的であり,また,示唆に富む講演を聞くことができた. 多くの学会参加者が講演を熱心に聞き,最後に設けられた QA セッションでは質問者が列を成すほどの盛況ぶりであった。 LLM が大きな躍進を遂げる中において, 口頭発表やポスター発表のセッションではLLM 関する多くの研究発表があり,多くの聴衆を集めて活発な質疑・議論が交わされていた。また, コーヒーブレイクの時間にはコーヒー片手に多くの研究者が集まり活発な議論が繰り広げられていた。世界的な感染症の影響で数年間制限されていた対面での議論が復活しているのを目の当たりにし, このような刺激的な環境での交流と議論は, 今後の革新的な研究に繋がるものであると感じられた。 ## 4 おわりに 本稿では, ACL2023に採択された論文の解説を行うとともに, 筆者が現地参加した学会の様子を報告した,本稿をもとに,筆者の研究に関する興味・関心を持ってもらったり,学会現地の様子をイメージしてもらえれば幸いである。本論文に関する研究の過程で得た経験と ACL の会場で得た刺激を糧に,今後も日々の研究活動に邁進していく所存である. ## 参考文献 Clark, S. (2021). "Something Old, Something New: Grammar-based CCG Parsing with Transformer Models." CoRR, abs/2109.10044v2. Kitaev, N. and Klein, D. (2018). "Constituency Parsing with a Self-Attentive Encoder." In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2676-2686, Melbourne, Australia. Association for Computational Linguistics. Nickel, M., Rosasco, L., and Poggio, T. (2016). "Holographic Embeddings of Knowledge Graphs." In Proceedings of the 30th AAAI Conference on Artificial Intelligence, AAAI'16, pp. 1955-1961. AAAI Press. Steedman, M. (2000). The Syntactic Process. MIT Press, Cambridge, MA, USA. Yamaki, R., Taniguchi, T., and Mochihashi, D. (2023). "Holographic CCG Parsing." In Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 262-276, Toronto, Canada. Association for Computational Linguistics. ## 略歴 山木良輔:2021 年立命館大学情報理工学部中途退学(同大大学院に飛び級入学のため). 2023 年立命館大学大学院情報理工学研究科博士前期課程修了. 修士 (工学). 現在, 立命館大学大学院情報理工学研究科博士後期課程に在学中.立命館先進研究アカデミー学生フェロー.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# Holistic Prediction on a Time-Evolving Attributed Graph 山崎 翔平 $\dagger \cdot$ 佐々木勇和 $^{\dagger \dagger}$ ## 1 はじめに 我々は自然言語処理を専門的に研究しているわけではない,そのため,自然言語処理の国際会議どころか,国内の会議にも一度も参加したことがない。ここでは,我々がなぜ ACL に投稿したのかを述べる。 まず,我々の論文はグラフ深層学習に関する技術を提案しており,特定の応用分野を想定はしていない,そのため,イントロや実験データを変更すれば,分野外と言われることはあまりない.実験で使っているグラフが自然言語から計算された特徴量を用いていたため実験の変更も必要なかった. ACLの査読では, 機械学習分野の方が適切なのでボーダーラインというコメントがあったが,そこまで強い主張ではなかった,次に,自然言語処理は知識グラフの活用が最も活発な分野の一つである。 そのため, グラフ深層学習が受け入れられる土墥は既にあった.母集団的には少ないかもしれないがグラフ分析が好きな査読者に当たる可能性が高く,好意的に見てくれることを期待していた,最後に,共著者の Panagiotis Karras 先生が ACLへの投稿を勧めたことが大きい.ACL ではなくIJCAI(時期的にどちらかしか投稿できない)に投稿しようとしていたが,論文の見た目(内容ではない)が ACLに合ってるとの助言に従い投稿した. この助言がなければ投稿していなかったので感謝しかない。見た目で決めるというのは斬新であったし,それが上手くはまったのは驚いた。まとめると,ACL に投稿した理由は,(1) イントロの変更のみで自然言語処理の論文っぽく変更できた, $(2)$ 自然言語処理もグラフ研究が盛んでありグラフ深層学習も範囲内,そして (3) 論文の見た目ということになる. 国内の自然言語処理分野においてもグラフ分析に関する研究がより増えればと思い,以降では我々が提案した技術のエッセンスを紹介する (Yamasaki et al. 2023). ## 2 論文概要 ブログ投稿やニュース記事,ユーザプロフィール等の実世界の言語データは,それぞれが相互に関連しており,引用関係やソーシャルネットワークとして表現することができる。このよ  うな相互関係は,一般にグラフとしてモデル化でき,ノードがオブジェクトを,リンクが関係性を表す (Zhu et al. 2019),例えば,ソーシャルネットワークでは,登録ユーザはノードとして表現され,そのプロフィール情報はノード属性として,ユーザ同士の繋がりはリンクとして表現される。そして,登録ユーザや,そのプロフィール情報,ユーザ同士の繋がりは時間とともに変化する。このような時間的に変化しやすいグラフは,属性付き時間発展グラフと呼ばれる (Rossi et al. 2020)。様々な NLP アプリケーションにおいて, 属性付き時間発展グラフの将来を予測する技術は有益である。例えば,読者へニュース記事を推薦したい場合,ユーザプロフィールを予測することで,潜在的なニーズを引き出し,読者にとってより良いユーザ体験を提供することができるようになる (Wu et al. 2019; Hasanuzzaman et al. 2017). ## 2.1 問題定義 本論文では,実世界の言語データを用いて,属性付き時間発展グラフの将来予測タスクに取り組んでいる。本研究と既存研究で取り組まれてきたタスクの違いについて簡単に説明する. グラフを $G=(V, E, X)$ と表記する. ここで, $V$ はノードの有限集合, $E \subseteq V \times V$ はリンクの有限集合, $X \in \mathbb{R}^{|V| \times d}$ はノード属性の有限集合である。 $X^{(v)}$ はノード $v$ の $d$ 次元の属性を表しており, 各属性はカテゴリ値, 数値, 分散表現のいずれも取り得る. 属性付き時間発展グラフは $\left.\langle G_{T-L+1}, G_{T-L+2}, \ldots, G_{T}\right.\rangle$ と表記する. ここで $T$ は現在のタイムステップを, $L$ は観測されたタイムステップ数を表しており, $G_{t}:=\left(V_{t}, E_{t}, X_{t}\right)$ はタイムステップ $t$ のグラフを表す. 属性付き時間発展グラフでは, $V, E, X$ がタイムステップによって変化する。すなわち,ノードとリンクの出現と消失,ノード属性の動的変化を含む。本論文で取り組む問題定義を以下に示す. 問題属性付き時間発展グラフ $\left.\langle G_{T-L+1}, G_{T-L+2}, \ldots, G_{T}\right.\rangle$ が与えられたとき,夕イムステップ $T+1$ におけるグラフ $G_{T+1}=\left(V_{T+1}, E_{T+1}, X_{T+1}\right)$ を予測する. 図 1 に本論文で取り組む問題の全体像を示す.この問題を解くには, $G_{T+1}$ の構成要素の一つではなく, 全てを同時に予測する必要がある。そのためには, 次に示す 6 つのサブ予測タスクの全てを同時に解かなければならない. (1) 消失ノード予測 (4) 既知ノードの属性予測 (2) 出現リンク予測 (5) 出現ノードの属性予測 (3) 消失リンク予測 (6) 出現ノードに接続されるリンク予測 また,それぞれのサブ予測タスクは相互に影響し合うことを考慮する必要がある.ソーシャルネットワークの例で考えると, ユーザのプロフィール情報は動的に変化しており, つながりのある他のユーザに影響を受けているかもしれない.新規ユーザはアカウントを登録するし,アカウントを削除するユーザもいるだろう.新規登録されたアカウントはプロフィールが似ている既存のアカウントとつながり, 削除されたアカウントとつながっていたアカウントは他のア $G_{T-L+1}, \cdots, G_{T}$ $G_{T+1}$ - : links connected to new nodes $E_{T+1}^{n}$ : appeared links $E_{T+1}^{a}$ 図 1 属性付き時間発展グラフ予測の例 (Yamasaki et al. 2023)。ノードの色は属性を表す. カウントとつながるかもしれない.このようにサブ予測タスク間には相互依存性が存在すると考えられる。我々の知る限り「「(5) 出現ノードの属性予測」や「 $G_{T+1}$ の全体を予測する」といった問題に取り組んでいる既存研究は存在しない。これらのサブ予測タスクは,メインタスクとして個別に,独立に解くのが既存研究の主流であり,影響し合うサブ予測タスク全てを同時に予測する試みは本論文が初である. ## 2.2 研究課題 上述の問題を解くにあたり,本論文では以下 2 つの研究課題を設定している. ## Q1 サブ予測タスク間の相互依存性を利用して予測精度を向上させることは可能か? 本論文では,消失ノード予測や出現ノードの属性予測等,複数のサブ予測タスクを含む問題に取り組んでいる。これらのサブ予測タスク間には相互依存性が存在し,これを捉えることで,それぞれのサブ予測タスクを独立に解く場合よりも,高い予測精度を達成できるのではないかという仮説である. ## Q2 出現ノードの属性予測は可能か? 出現ノードの属性予測では,過去に観測されていない,将来新たに出現するノード集合を予測すると共に,それらが持つ属性を同時に予測する必要がある。これはソーシャルネットワークの例で考えると,将来新規登録されるユーザアカウント群がそれぞれどのようなプロフィール情報を持っているかを予測することに対応している. ## 2.3 提案手法 属性付き時間発展グラフの全体を将来予測するというタスクを通して, 研究課題の 2 つの問いに対する解を提示する。本論文では,Q1に対して汎用予測フレームワーク AGATE と, Q2 に対して出現ノードの属性予測モデルである PROSERの 2 のの新手法を提案している。この寄稿記事では, AGATE についてのみ紹介する。 属性付き時間発展グラフ全体の将来予測タスクで,高い予測精度を達成するためには,サブ 図 2 AGATEのアーキテクチャ (Yamasaki et al. 2023). 観測された $L$ ステップのグラフを入力し, 夕イムステップ $T+1$ のグラフを予測する。ピンクのフレームはグラフデータを,緑のフレームは予測モデルを,青のフレームは予測結果を表す. 予測タスク間の相互依存性を捉える必要がある。単一の手法ですべての相互依存性を捉えることは困難であるため,複数の手法を効果的に組み合わせ,ある夕スクの結果を他のタスクでインタラクティブに再利用する。本論文では,観測された過去のグラフから,出現ノード,消失ノード,出現リンク,消失リンク,およびノードの属性を予測し,夕スク間の相互依存性を活用可能で汎用的な予測フレームワーク AGATE ( $\underline{A}$ General framework for predicting $\underline{\text { Attributed }}$ Time-Evolving graphs) を提案する. 図 2 に AGATEのアーキテクチャを示す.AGATE は以下の 3 つの主要なコンポーネントから構成される。 i. Graph size prediction: 属性付き時間発展グラフの将来のサイズを予測するコンポーネント ii. Independent prediction: 既知ノード間のグラフ構造や属性, 出現ノードの属性とそれに接続されるリンクについて個別・独立に予測するコンポーネント iii. Reuse prediction: サブ予測タスク間の相互依存性を捉えた予測を実現するために (ii) の結果を再利用するメカニズムを有した予測コンポーネント AGATEはモジュール化されており,「ii. Independent prediction」および「iii. Reuse prediction」 の各コンポーネント(6~15 番) はそれぞれのサブ予測タスクに対応しており,任意の予測モデルを採用することが可能である. 出現ノードの属性予測(6 番)については, 既存手法が存在し ないため,新たな予測モデルである PROSER を開発している. 実験では,3つの実世界のデータセットを用いて AGATE と PROSER を評価し,(1) 各サブ予 測タスクが互いに影響し合うこと,(2) AGATE の Reuse prediction が予測精度を向上させ,各サブ予測タスクを独立に解く場合よりも高精度で予測できること, (3) PROSER が出現ノードの属性を高精度で予測できることを示した。 ## 3 おわりに 本稿で紹介した論文は,グラフ全体を将来予測するという一般的な問題に初めて取り組んたものであり,その第一歩として汎用的な方法を提案した.昨今の AI の研究がそうであるように,高効率性や高精度な予測方法の開発等,考えられる研究課題は山ほど存在しており,この論文はグラフ予測の新たな出発点を与えた研究に他ならない. 最後まで本稿を読んでくださった自然言語処理分野の研究者の皆様にも, グラフ分析に興味を持っていただければ幸いである. ## 参考文献 Hasanuzzaman, M., Kamila, S., Kaur, M., Saha, S., and Ekbal, A. (2017). "Temporal Orientation of Tweets for Predicting Income of Users." In $A C L$, pp. 659-665. Rossi, E., Chamberlain, B., Frasca, F., Eynard, D., Monti, F., and Bronstein, M. (2020). "Temporal Graph Networks for Deep Learning on Dynamic Graphs." In ICML. Wu, C., Wu, F., Ge, S., Qi, T., Huang, Y., and Xie, X. (2019). "Neural News Recommendation with Multi-head Self-attention." In EMNLP-IJCNLP, pp. 6389-6394. Yamasaki, S., Sasaki, Y., Karras, P., and Onizuka, M. (2023). "Holistic Prediction on a TimeEvolving Attributed Graph." In $A C L$, pp. 13676-13694. Zhu, H., Lin, Y., Liu, Z., Fu, J., Chua, T.-S., and Sun, M. (2019). "Graph Neural Networks with Generated Parameters for Relation Extraction." In $A C L$, pp. 1331-1339. ## 略歴 山崎翔平:2019 年大阪大学工学部電子情報工学科卒業. 2021 年大阪大学大学院情報科学研究科マルチメディア工学専攻博士前期課程修了. 現在, 株式会社野村総合研究所所属. 佐々木勇和:2014 年大阪大学大学院情報科学研究科マルチメディア工学専攻博士後期課程修了. 博士 (情報科学). 現在, 大阪大学大学院情報科学研究科又ルチメディア工学専攻助教.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 定義文を用いた文埋め込み構成法 塚越 駿 $\dagger \cdot$ 笹野 遼平 $\dagger \cdot$ 武田 浩一 $\dagger$ } 自然言語文をべクトルとして表現する文埋め込みは,深層学習を用いた自然言語処理の基礎技術として盛んに研究されており, 特に自然言語推論 (Natural Language Inference; NLI) タスクに基づく文埋め込み手法が成功を収めている。しかし,これ らの手法は大規模な NLI データセットを必要とすることから,そのような NLI デー タが整備された言語以外については高品質な文埋め込みの構築が期待できないとい う問題がある。本研究ではこの問題を解決するため, NLI データと比べて多くの言語において整備が行われている言語資源である辞書に着目し,辞書の定義文を用い た文埋め込み手法を提案する。また,標準的なべンチマークを用いた評価実験を通 し, 提案手法は既存の NLI タスクに基づく文埋め込み手法と同等の性能を実現する こと,評価タスクの性質や評価データの抽出方法により性能に差異が見られること, これら 2 手法を統合することでより高い性能を実現できることを示す. キーワード:文埋め込み,文ベクトル,辞書,定義文 ## Sentence Embeddings using Definition Sentences \author{ Hayato Tsukagoshi ${ }^{\dagger}$, Ryohei Sasano ${ }^{\dagger}$ and Koichi Takeda ${ }^{\dagger}$ } Sentence embeddings, which represent sentences as dense vectors, have been actively studied as a fundamental technique for natural language processing using deep learning. In particular, sentence embedding methods based on Natural Language Inference (NLI) tasks have been successful. However, these methods heavily rely on large NLI datasets and thus cannot be expected to produce adequate sentence embedding for languages for which large NLI datasets are not available. In this paper, we propose a sentence embedding method using definition sentences from a word dictionary, which is available in many languages. Experimental results on standard benchmarks demonstrate that our method performs comparably to NLI-based methods. Furthermore, we demonstrate differences in performance depending on the properties of the evaluation task and data, and even higher performance can be achieved by combining the two methods. Key Words: Sentence Embedding, Dictionary, Definition Sentence  ## 1 はじめに 深層学習の発展とともに,自然言語処理技術は目覚ましい発展を遂げた,中でも,自然言語文を実数べクトルとして表現する文埋め込みは,類似文検索,質問応答,機械翻訳といった多様なタスクに応用することができ (Muennighoff 2022; Xu et al. 2020), より優れた文埋め込みがこれらのタスクにおける性能を広く向上させる可能性があることから, 深層学習を用いた自然言語処理の基礎技術として盛んに研究されている. 文埋め込みを構成する手法は数多く存在するが,近年では自然言語推論 (Natural Language Inference; NLI) タスクに基づいて文埋め込みモデルを獲得する手法が主流となっている。 NLIタスクは与えられた文のペアに対して,その文ぺアの含意関係が「含意」「矛盾」「その他」のうちのどれであるかを予測する分類タスクである。複数の研究が NLI タスクに基づく文埋め达み手法を提案しており (Conneau et al. 2017; Reimers and Gurevych 2019; Gao et al. 2021), 文埋め込み評価のための標準的なべンチマークタスクで高い性能を達成してきた。しかし,NLIタスクに基づく手法は大規模な NLIデータセットが整備されている言語でしか利用できないという問題がある。実際,NLI タスクに基づく手法として代表的な Sentence-BERT (SBERT) (Reimers and Gurevych 2019)は, 人手でラベル付けされた約 100 万文ぺアからなる NLIデータセットに基づくが,英語以外の言語ではこのようなデータセットは限られた量しか存在しない。したがって, 既存の NLI夕スクに基づく文埋め込み手法を英語以外に適用しても,英語と同等の精度は期待できない. 本研究ではこの問題を解決するため, 辞書に含まれる単語とその定義文が基本的に同一の意味内容を表すという関係に着目し,辞書の定義文を用いた文埋め込み手法である DefSent を提案する。NLI データセットと比べて辞書は,はるかに多くの言語において既に整備がされている言語資源であり,辞書の定義文を用いた文埋め込み手法は多くの言語に適用できる可能性が高い. 既存研究であるSBERT と, 提案手法である DefSent の概要を図 1 に示す. 本研究で提 図 1 Sentence-BERT(左)と提案手法である DefSent(右)の概要図. 案する文埋め込み手法は SBERT と同様に, BERT (Devlin et al. 2019) や RoBERTa (Liu et al. 2019) といった事前学習済み言語モデルに基づく. これらのモデルに定義文を入力して得られる文埋め込みから,対応する単語を予測できるように事前学習済み言語モデルを fine-tuning する。単語予測というタスクを通して,事前学習済み言語モデルが備える単語埋め込み空間の意味情報を活用することで,文埋め込みを効率的に構成できるようになる。 本研究では,2つの方法で提案手法による文埋め込みの有用性を評価した。一つ目は, 文埋め込みモデルが捉える文ぺアの意味的類似度がどれほど人間評価と近しいかを評価する Semantic Textual Similarity (STS) タスクによる実験である,STS タスクを用いた評価により,提案手法が大規模な NLIデータセットを用いる既存手法と同等の性能を示すことを確認した. 二つ目は,文埋め込みにどのような情報が捉えられているかを評価するソフトウェアの SentEval (Conneau and Kiela 2018)を用いた評価である.SentEval を用いた評価により,提案手法が既存手法の性能と同等の性能を示し, 種々のタスクに有用な文埋め込みを構成することが確認できた. さらに本研究では,提案手法による文埋め込みの性質が,既存手法と比較してどのように異なるかを分析した。一般的に,機械学習モデルは学習に用いたデータセットやタスクによって異なる振る舞いを示す. 文埋め込みモデルも同様に, これらの教師信号に影響を受け, 文埋め込み手法ごとに異なる性質の文埋め込みが構成されると考えられる。それぞれの文埋め込みがどのような性質を持っているのか理解することは, よりよい文埋め込み手法の研究のために有 SBERT を対象とし, STS タスクと SentEval を用いた文埋め込みの性質分析を行った。最後に,性質の異なる文埋め込みを統合することによって,下流タスクでさらに高い性能を示す文埋め达みを構成できることを示した。 ## 2 定義文を用いた文埋め込み手法 本節では, まず, BERTや RoBERTa といった, 提案手法が基礎とする事前学習済み言語モデルについて述べ,次に NLI データを用いる既存の文埋め达み手法として代表的な Sentence-BERT (SBERT) について述べる。 その後, 本研究で提案する, 定義文を用いた新たな文埋め込み手法である DefSent について述べる。 ## 2.1 BERT, RoBERTa BERT は複数の Transformer (Vaswani et al. 2017) エンコーダが積層された構造を持つ事前学習済み言語モデルの一種である。大規模なテキストを用い,マスク穴埋めタスク (Masked Language Modeling; MLM) と次文予測タスク (Next Sentence Prediction; NSP) による自己教師あり学習を行うことで,汎用的な言語知識を獲得する。マスク穴埋めタスクは,文中のトー クンを一定の割合で特殊トークン [MASK] に置き換えてモデルに入力し, [MASK] に対応する位置の最終層の埋め込み表現を用いて,置き換え前の単語を予測するタスクである. 次文予測夕スクは,文区切り用の特殊トークン [SEP] で繋がれた 2 文を BERT に入力した際に,それらが元のテキストデータでも連続する 2 文であるかどうかを, 入力の先頭に追加される特殊トークン [CLS]を用いて予測する 2 值分類タスクである.BERT は単語の系列を入力として,単語埋め込みの系列を出力する機構であると言える。 BERTが出力する単語埋め込みは,その単語が出力する文脈を考慮したべクトル表現となっていることから, 文脈化単語埋め込みと呼ばれる. RoBERTa は, BERT と同じモデル構造のまま, 次文予測タスクの排除とデータサイズ, 訓練バッチサイズの増大といった工夫により,BERTの改善を試みたモデルである.次節以降で述べる SBERT と提案手法は, いずれも BERT, RoBERTaを含む多くの事前学習済み言語モデルに適用することができるが,本稿における手法の説明では基本的に BERT を用いた場合について述べる。 ## 2.2 Sentence-BERT Conneau らが提案した InferSent (Conneau et al. 2017) は,パラメータを共有した 2 つのエンコーダを用い,NLI タスクによって BiLSTM で構成される文埋め込みモデルを訓練する手法である.InferSent は,意味的に類似した文が意味べクトル空間上で互いに近く分布するようにモデルを訓練する. Reimers らが提案した Sentence-BERT (SBERT) (Reimers and Gurevych 2019) は, InferSent と類似した構造を採用するが, 文埋め込みモデルとして BERT を用いている1.SBERT の概要を図 1 左に示す. SBERT による訓練の流れについて述べる. SBERTでは, NLI データセットに含まれる文ぺアについて,文ぺアそれぞれの文埋め达みを用いた含意関係認識タスクにより BERT を fine-tuningする。まずそれぞれの文を BERTに入力し,得られる文脈化単語埋め达みの系列に対し, Pooling と呼ばれる操作を施して単一のベクトルを構成する. Reimers ら (Reimers and Gurevych 2019)は, pooling 手法として以下の 3つを実験している. - CLS: BERT の事前学習時に次文予測で用いられる [CLS]の埋め达み表現を用いる². - Mean: 出力されたすべての文脈化単語埋め込みの平均を用いる. - Max: 出力されたすべての文脈化単語埋め込みの次元ごとの最大值を用いる. このとき,poolingにより得られる文ぺアのそれぞれの文埋め込みを $\boldsymbol{u}, \boldsymbol{v}$ とする。それらを組み合わせたべクトル $[\boldsymbol{u} ; \boldsymbol{v} ;|\boldsymbol{u}-\boldsymbol{v}|]$ を含意関係ラベル予測層に入力し, 文ぺアに付与されている「含意」などのラベルを正しく予測できるように fine-tuningを行う. Reimers らは, Stanford ^{1}$ Reimers らは「SBERT」という名称を,「手法の名前」と「fine-tuning されたモデルの名前」の 2 種類の意味で使用している,例えば,Reimers らの論文中では,Reimers らの手法によって fine-tuning された RoBERTaを 「SBERT-RoBERTa」のような名称ではなく「SRoBERTa」と呼称しているなど, 手法名とモデル名が結合しているため混乱が生じやすい。本稿では, 「SBERT」という名称を主に手法の参照に用いる. }^{2}$ RoBERTa を用いる場合は [CLS] が存在しないため, 代替として文頭トークンくs〉の埋め込み表現を用いる. NLI (SNLI) データセット (Bowman et al. 2015), および, Multi-Genre NLI (MNLI) データセット (Williams et al. 2018) を合わせた約 100 万文を用いて SBERT による fine-tuning を行った. ## 2.3 提案手法: DefSent 本研究では,単語辞書において,単語とその定義文が同一の意味内容を表すことに着目し,定義文から単語予測を行うことで文埋め込みを構成する手法を提案する。具体的には, BERTに定義文を入力して文埋め込みを構成し,その文埋め込みをもとに単語予測を行うことで BERT を fine-tuningする。例えば, “a ball game played with a bat and ball between two teams of nine players”という文に対しては, “baseball”という語を答えとして単語予測を行う。提案手法の概要を図 1 右に示す. DefSent による fine-tuning の流れについて述べる。ここで,ある定義文 $X_{k}$ に対応する単語を $w_{k}$ と表す。また,BERTの事前学習時にマスク穴埋めタスクで用いられる,[MASK] の位置に対応する埋め込み表現から置き換え前の単語を予測する層を単語予測層と呼ぶ。まず, $X_{k}$ を BERT に入力し, 出力された文脈化単語埋め込みの系列を Poolingすることで $X_{k}$ の文埋め込み $\mathbf{u}_{k}$ を構成する. Pooling 手法は SBERT と同様, CLS, Mean, Max の 3 種類を用いる.次に,構成した文埋め込み $\mathbf{u}_{k}$ を単語予測層に入力し, $X_{k}$ を入力としたときの $w_{k}$ の予測確率 $P\left(w_{k} \mid X_{k}\right)$ を得る。損失関数に交差エントロピー誤差を用いて, $P\left(w_{k} \mid X_{k}\right)$ を最大化するように BERT の fine-tuning を行う. したがって, 訓練事例数を $N$ としたときの訓練損失 $\mathcal{L}$ は次式のようになる. $ \mathcal{L}=-\sum_{k=1}^{N} \log P\left(w_{k} \mid X_{k}\right) $ この際, 単語予測層には事前学習時のパラメータを固定して用いる. 事前学習時に既に獲得されている層を用いることで, SBERTのように追加の分類器のための新たなパラメータを学習する必要がなくなり, fine-tuning の効率化が期待できる。また, 事前学習済み言語モデルの単語埋め込みは, 埋め込み空間上で類似した意味の単語が近くに分布するという性質が存在する. DefSent は事前学習時の単語予測層をそのまま用いるため, 得られる文埋め込みについても,類似した意味の文が埋め込み空間上で近くに分布することが期待できる。 本研究で提案する手法と類似した発想の研究として, Hill らの研究 (Hill et al. 2016a, 2016b) が挙げられる. Hill らが提案した DictRep は, 定義文と静的な単語埋め込みが近づくように学習を行うことで,句や文の埋め込みモデルを訓練する。これに対してDefSent は, 事前学習済み言語モデルの単語埋め込み空間と学習済みの単語予測層を用いることで, 文埋め込みモデルを効率的に獲得する.実際,DefSent の fine-tuning に要した時間は 10-15 分程度であり,同一の計算機環境で fine-tuning を実施した場合に 120-130 分程度を要する SBERT と比較して, 高 速である ${ }^{3}$ 。また, DictRep と異なり,DefSent は事前学習時の単語意味空間を有効に活用する点も特徴的である. ## 3 単語予測タスクにおける評価 提案手法による文埋め込みが,どの程度,文の意味を正しく推定できているかを検証するため,定義文から単語を予測するタスクにおける性能を評価した. ## 3.1 訓練に使用するデータセット 提案手法は, 単語と定義文のペアを用いて事前学習済み言語モデルの fine-tuningを行う. 本研究では, 石渡ら (Ishiwatari et al. 2019) が公開しているデータセットの中から, Oxford Dictionary の見出しとなる単語と定義文を抽出して利用した. 各事例は単語と定義文のペアからなり, 一つの単語が複数の定義文を持ち得る。実験のため, 全事例を単語ごとに訓練セット/開発セット/ テストセットに8:1:1の割合で分割した。提案手法は, 単語予測層として BERT または RoBERTa の事前学習時の単語予測層をそのまま用いる。そのため,それぞれのモデルの語彙に含まれない単語の予測確率を,それらの単語予測層から直接得ることができない. したがって,本実験ではデータセットの中から BERT, RoBERTa それぞれの語彙に含まれる単語とその定義文のみを用いた 4 .以後,作成したデータセットを定義文データセットと呼称する.定義文データセットの統計值を表 1 に示す. ## 3.2 実験設定 提案手法の評価にあたり,複数のモデル,Pooling 手法について実験を行った.モデルや実験プログラムの作成には PyTorch (Paszke et al. 2019) を用いた。事前学習済み言語モデルとして, Hugging Face ${ }^{5}$ が公開する深層学習モデル用ライブラリの Transformers (Wolf et al. 2020) から, BERT-base (bert-base-uncased), BERT-large (bert-large-uncased), RoBERTa-base (roberta-base), RoBERTa-large (roberta-large)の事前学習済みモデルを利用した ${ }^{6}$. 提案手法による各事前学習済み言語モデルの fine-tuning には, バッチサイズを 16 , エポック  表 1 定義文データセットの統計値. 数を 1 とし, 最適化手法に Adam (Kingma and Ba 2015) を用いた。また, 学習率スケジューリング手法として, 学習の開始時点では学習率を 0 とし, 全学習ステップのうち $10 \%$ 用い, 設定した値まで学習率を線形に上昇させる Linear warm-up (Goyal et al. 2017) を用いた. 学習率は,各モデル,Pooling 手法ごとに $x \times 10^{-6}, x \in\{1,2,5,10,20,50\}$ の範囲で探索し, 開発デー 夕での評価スコアが最も高くなった学習率を使用した。提案手法の実装と fine-tuning 済みモデルは GitHubにて公開している7. 評価には,定義文を入力した際に出力される単語の予測確率から,定義文に対応する正解単語の予測確率における平均逆順位 (Mean Reciprocal Rank; MRR) と, 予測確率の上位 $1,3,10$位以内に正解単語が含まれる割合 (Top- $k$ accuracy) を算出し, 評価に用いた. 異なるシード值で 10 回実験を行い,その平均を評価スコアとした。また,比較対象として BERT-base モデルを fine-tuning せずに評価した場合 (w/oFT) の性能も算出した. ## 3.3 実験結果 実験の結果を表 2 に示す. fine-tuning しなかった場合の性能は,Pooling 手法として Max を選んだ場合が最も高かった。しかし,その Top-1 accuracy は 0.0157 と極めて低い值であり,高い性能を得るためには fine-tuning の実施が必須であることが確認できた. 一方,定義文を用いて fine-tuing を行ったモデルでは,モデルサイズとして base を用いたモデルより large を用いたモデル,BERT を用いたモデルより RoBERTa を用いたモデルの方が性能が高く, モデルとして RoBERTa-largeを, pooling 手法として Mean を用いた場合が最も高い性能を示した. また, RoBERTa-large 以外のモデルは, Pooling 手法に CLS を用いたモデルが最も高い性能を示した.定性的な議論のため, モデルに入力される文に対して実際にどのような単語が予測されるか  を確認した。表 3 に,テストセットに含まれる定義文の一部と,それに対応する単語,及びそれらの定義文をモデルに入力した際の予測確率上位 3 位までの単語を示す.この時, 事前学習済み言語モデルとして BERT-largeを用い, Pooling 手法として CLSを用いて fine-tuning された 表 2 単語予測タスクの性能. 表 3 DefSentによって fine-tuning されたモデルに定義文が入力されたときの予測確率上位 3 位まで予測単語と正解単語. 1 列目が正解単語, 2 列目が定義文, 3 から 5 列目が順位予測確率上位 $1,2,3$ 位の単語を表す。表に示す定義文には,記号を含めて編集を加えていない。予測単語のうち正解単語を太字で,入力文に含まれている単語を斜体で表す. 表 4 定義文以外の文に対する予測確率上位 5 位までの予測単語. モデルを用いた,実験の結果,訓練データセットに含まれない定義文の組に対しても,提案手法が意味的に妥当な文埋め込みを構成していることが確認できる。また, 単語予測の上位に現れる単語に,入力定義文中の単語が比較的多く出現するという傾向が見られた. さらに,DefSentにより fine-tuning されたモデルが定義文以外の文に対してどのような埋め込み表現を構成するか観察するため,定義文以外の文をモデルに入力した際にどのような単語が予測されるかを確認した。表 4 に,モデルに入力した文とその結果得られた予測確率上位 5 位までの単語を示す。実験の結果, “royal man”から “king”や “prince”といった単語を予測できていることから,文中単語から適切に文の意味を構成できていると考えられる。また, “not good”に対する予測結果として “bad”や“poor”といった単語が予測できていることから,否定表現に対しても妥当な意味を構成できていると考えられる。 ## 4 文類似度タスクでの評価 提案手法による文埋め込みの意味的な品質を検証するため,文埋め込み評洒に一般的に用いられる文類似度評価タスクの Semantic Textual Similarity (STS) タスクを用いた評価を行った. ## 4.1 STS タスク Semantic Textual Similarity (STS) タスクは,文ぺアが与えられた時に,モデルを用いて文ぺアの意味的な類似度を計算し,それがどの程度人間による評価に近いかを検証することで,モデルが文の意味的類似性を正しく推定できるかを評価するタスクである.STS タスクの評価には教師ありと教師なしの二つの設定が存在し, 文埋め込みの品質評価には主に教師なし設定が用いられる,教師なし設定の場合,STS データセットを用いたモデルの学習は行わず,事前に用意したモデルを用いて文ぺアの意味的類似度を計算し,モデルによる類似度と人手評価によ る類似度との相関係数を用いて評価を行う。この時, 文の意味的類似度としては, 文ぺアの文埋め込み同士の余弦類似度が用いられることが多い. 本研究では,提案手法が一般の文に対して妥当な文埋め込みを構成できているか評価するため, STS による評価で一般的に用いられるデータセットである STS12-16 (Agirre et al. 2012, 2013, 2014, 2015, 2016), STS Benchmark (STS-B) (Cer et al. 2017), SICK-Relatedness (SICK-R) (Marelli et al. 2014)を用い,教師なし設定のSTS タスクにより評価を行った. これらのデータセットには文ぺアとその意味的類似度が含まれており,意味的類似度は人手評価によって付与された 0 から 5(SICK-Rのみ1から5)までの実数である. ## 4.2 実験設定 提案手法による文の類似度として, 文ぺアの文埋め込み同士の余弦類似度を用い, 相関係数としてスピアマンの順位相関係数を用いた88 . 評価には, Reimers ら (Reimers and Gurevych 2019) と同様に,Pooling 手法としてCLS, Mean, Maxを用いた。異なる乱数シード値で 10 回実験を行い,その平均を評価スコアとした。 提案手法との比較に用いる既存手法は以下の通りである. GloVe 静的な単語埋め込み手法である GloVe (Pennington et al. 2014)の単語埋め込みの単純平均を用いる. 最も単純な文埋め込み手法の一つだが. 文埋め込み評価における強力なベースラインとしてよく機能することが知られている (Shen et al. 2018). 埋め込みの次元数は 300 である. InferSent Conneau らによって提案された文埋め込み手法である InferSent (Conneau et al. 2017)による文埋め込みを用いる。埋め込みの次元数は 4096 である. Universal Sentence Encoder (USE) Cerらによって提案された文埋め込み手法である Universal Sentence Encoder (USE) (Cer et al. 2018)を用いる. USE はマルチタスク学習によって文埋め込みモデルを訓練する手法であり, InferSent や SBERT と同様の NLI タスクが学習タスクに含まれる。埋め込みの次元数は 512 である. SBERTReimers らによって提案された文埋め込み手法である SBERT (Reimers and Gurevych 2019)を用いる。埋め込みの次元数は, fine-tuningを適用する事前学習済み言語モデルとして BERT-base および RoBERT-base を用いた場合は 768, BERT-large および RoBERTalargeを用いた場合は 1024 である. 評価にあたり,SBERT 以外の既存手法の性能は Reimers ら (Reimers and Gurevych 2019)の結果を引用した。また, SBERT は Reimers ら (Reimers and Gurevych 2019) と同様の設定で再  現実験を行い,評価した, 3.2 節で述べた,提案手法による fine-tuning の設定と同等の設定で評価実験を行い,その性能を評価スコアとした。さらに, SBERT およびDefSent による fine-tuning 前後での性能の変化を観察するため, fine-tuning 前の各モデル, Pooling 手法ごとの性能も評価した. ## 4.3 実験結果 実験の結果を表 5 に示す。全体として,SBERT の RoBERTa-large が高い性能を示し,特に Pooling 手法として Mean を用いた場合に最も高い平均性能を示した. 提案手法の中では, モデルとして RoBERTa-baseを, Pooling 手法としてCLS を用いた場合が最も高い平均性能を示した。 各モデルごとに SBERT と DefSent による性能を比較すると,BERT-base および BERT-large においては,常に DefSent がSBERT と同等かそれ以上の平均性能を示している。また, BERTbase および BERT-large においては, Pooling 手法ごとの性能の傾向も類似しており,いずれの手法も,Pooling 手法として Meanを用いた場合に最も高い平均性能を示し,CLS および Max は Mean と比較して低い結果となっている. DefSent による fine-tuningで用いる学習デー夕は, SBERT の学習に使用されているデー夕量の $5 \%$ 程度の規模であるにもかかわらず,BERT-base および BERT-large において, DefSent は SBERT と同等以上の性能を示すことが確認できた. 一方で, RoBERTa-base および RoBERTa-large においては, SBERT と DefSent で異なる傾向が見られた。まず,RoBERTa-base に着目すると,SBERT は Pooling 手法に Mean を用いた場合が最も性能が高いものの,DefSent は Meanを用いた場合の性能が最も低く,CLS を用いた場合に最も高い性能を示した。平均性能については, Pooling 手法として Meanを用いた場合は SBERT の方が高い性能を示したが,CLS と Maxを用いた場合は,DefSentの方が高い性能を示した。また, RoBERTa-large に着目すると, RoBERTa-base と同様に, SBERT は Pooling 手法に Meanを用いた場合に最も高い性能を示したが,DefSent は Maxを用いた場合に最も高い性能を示した。 ## 4.4 分析 4.3 節で,提案手法による文埋め込みが既存手法と比較して同等の性能を発揮することを示した。本節では,STS タスクを用いた詳細な分析を通して,提案手法による文埋め込みの性質について分析する。本研究では特に,それぞれの手法による文埋め込みの性質は,それぞれの文埋め込みを得るにあたって用いられた教師信号によって異なる可能性が高いと考えられることから,文埋め込みモデルの訓練に用いた教師信号の違いに着目した分析を行う.例えば,定義文から単語予測をすることで訓練された文埋め込みは,文の構成的な意味を表現するのに適していることが期待できる。一方で,NLIタスクを用いて訓練された文埋め込みは,表面的に類似した文の意味の違いを捉えることが重要であるという NLI タスクの性質から, 表面的に類似 表 5 文埋め込みの余弦類似度と人手評価とのスピアマンの順位相関係数(表内の値は全て 100 をかけたもの).データセットごとに最も性能が高い結果を太字で示す. した文の意味の違いを区別した埋め込みを構成していることが期待できる. 本節では,提案手法である DefSent による文埋め込みと,SBERT による文埋め込みの性質の違いを調査する。SBERT は DefSent と同様,事前学習済み言語モデルを文埋め込みを介した予測タスクによって fine-tuning する手法であり,提案手法による文埋め込みの性質を分析する上で比較対象として適していると考えた。分析は,STSデータセットを文ぺアのソースと表層的類似度という二つの観点でそれぞれ分割し,分割されたサブデータセットごとにSTS タスクによる性能を評価することで行う. ## 4.4.1 ソースに基づき分割した STS データセットでの比較 文埋め込み手法は,その訓練に用いられたデータセットに含まれる文に類似する文の意味について,その他の文よりも適切に捉えられると考えられる。すなわち,埋め込む文のソースが,文をどの程度適切に埋め达めるかに影響すると考えられる。例えば,SBERT は NLI データセットに含まれる文に類似した文の意味をより捉えやすく,DefSent は単語辞書の定義文に類似した文の意味をより捉えられると期待できる。本研究ではこの傾向について調査するため, STS デー タセットを文のソースによって分割し,得られたサブデータセットを用いて性能評価を行う. 評価には STS12-16 を用いた.STS12-16 は,それぞれのデータセットが複数のデータセットから構成されており,このような文のソースごとの性能評価に適している.STS12-16のサブデータセットごとの統計値を表 6 に示す。実験設定は 4.2 節と同様である。比較分析の対象の文埋め込み手法は DefSent と SBERT とした。事前学習済み言語モデルとして BERT-base を用い, Pooling 手法として Mean を用いた,また,参考として, fine-tuning を行っていないBERT-base (w/oFT) も評価対象とした. 異なるシード值で 10 回学習を行い, その平均を評価スコアとした. 実験の結果を図 2 に示す。比較のため,サブデータセットごとの評価に加えて,各STS デー タセット全体での結果も記載する。ここで,評価スコアとして相関係数を用いているため,一般にはサブデータセットを結合したデータセットのスコアはサブデータセットごとの評価スコアの平均に一致せず, 極端な場合, 全体での性能がサブデータセットごとの評価スコアの最小値を下回ることに注意されたい,結果より,SBERTと DefSent の性能はともに,全体としてw/o FTの性能を上回っていることがわかる. DefSent は, STS13の OnWN と FNWN およびSTS14 の OnWNにて, SBERT よりも顕著に高い性能を示した. STS13の OnWN と FNWN は, ともに OntoNotes, FrameNet,および WordNet の定義文から作成されており,事前の予測通り DefSent の訓練に用いられている定義文と類似した文に対する DefSent の性能が高いことが確認できる. SBERT はSTS14の deft-forum および headlines と,STS15の answer-students にて DefSent よりも高い性能を示した,中でも,STS15の answer-students は NLI データセットに類似した形式のデータセットであるため,SBERT が文の意味の違いを比較的正しく推定できたと考えられる。 表 6 各STS データセットに含まれるソースと,ソースによって分割されたデータセットごとの統計値. ## 4.4.2表層的類似に基づき分割したSTS データセットでの分析 次に,文ぺアの表層的類似度が,どのようにそれぞれの文埋め込み手法によって計算された意味的類似度に影響を与えるかを調査した,SBERT は,表層的に類似した文の意味の違いを捉える必要がある NLI タスクを通して学習されているため, 表層的に類似した文ぺアの意味的類似度を比較的正しく推定できると期待できる。一方で,提案手法は NLI タスクのように文同士の意味を識別するような訓練は行わないため, 表層的に類似した文ぺアの意味の違いを推定するうえで,NLIタスクに基づく手法とは異なる傾向を示す可能性がある. このような性質について分析を行うため,STS Benchmarkを文ぺアの表層的類似度によって分割し,それぞれのサブデータセットごとに性能評価を行った. 本研究では文ぺアの表層的類似度として,単語集合同士のDice 係数を用いた. Dice 係数は以下の式で示される. $ \operatorname{Dice}\left(S_{1}, S_{2}\right)=\frac{2\left|W_{1} \cap W_{2}\right|}{\left|W_{1}\right|+\left|W_{2}\right|} $ 図 2 STS12-16をソースごとに分割して評価に用いた際の,スピアマンの順位相関係数の值に 100 をかけたもの。“STS\# ALL”は各STS データセット全体での性能を示す. ここで, $S_{1}$ おび $S_{2}$ はある文ぺアに含まれるそれぞれの文を表し, $W_{1}$ および $W_{2}$ はそれぞれ $S_{1}$ および $S_{2}$ に含まれる単語の集合を表す ${ }^{9}$. 評価実験には STS Benchmarkの訓練/開発/テストセットに含まれる文ぺアを全て用い,それらを表層的類似度によって並び替え,20\%ごとに 9 単語集合は, 文末のピリオドなどの記号を削除し,全文を小文字に変換した後,空白で分割することにより求めた. 分割して評価に用いるサブデータセットとした,実験設定,評価対象は 4.4.1 節と同様である.実験の結果を図 3 に示す。結果から,すべての手法について,より大きな Dice 係数を持つサブデータセット,つまりより表層的に類似した文ぺアで構成されているサブデータセットの方が評価スコアが低い傾向があることが確認できる。特に,最も表層的類似度が高いサブデータセットにおける w/oFTの性能は極めて低く, w/oFTによる文埋め込みでは,文の意味の違いを正しく識別できないと考えられる.SBERT およびDefSent の結果に注目すると,表層的類似度が高いサブデータセットにおいては, SBERT が DefSent の性能を上回った。一方で,表層的類似度が低いサブデータセットにおいては, DefSent がSBERT の性能を上回った。 表層的類似度がどのように意味的類似度の推定に影響を与えているかについてさらに調査するため,実際の例を用いた定性的分析を行った,表 7 に,STS Benchmarkに含まれる実際の文ペアと,その人手評価による類似度およびDice 係数,および w/oFT,SBERT,DefSent によっ 図 3 STS Benchmarkを表層的類似度ごとに分割して評価に用いた際の,スピアマンの順位相関係数の値に 100 をかけたもの.図の右側にいくほど,文ぺアの表層的類似度が大きいサブデータセットでの評価結果を表している。 表 7 STS Benchmark に含まれる実際の文ぺアと人手評価による類似度. “w/oFT", "SBERT”, "DefSent" は, それぞれの手法を用いて構成された文埋め込み同士の余弦類似度を表す。この時, STS Benchmark 全体での余弦類似度の平均は, w/oFT が 0.816, SBERT が 0.678 , DefSent が 0.809 であった. また, SBERT と DefSent において,人手評価の順位に対して相対的に大きな違いのある部分を太字で示す. て計算された余弦類似度を示す. 表 7 の上から 2 行目に示すように,文ペアのそれぞれの文がほとんど同じことを表現している場合でも,SBERT は他の例と比較して非常に小さな類似度を割り当てている。これは,NLI タスクの「文ぺアが同じ事実を表現しているか」を重視する夕スクの性質が,SBERTによる文埋め込みに影響を与えているからだと考えられる。この文ぺアは Dice 係数が比較的小さい一方で人手評価が大きい文ぺアとなっているが,SBERTによる類似度と異なり, DefSent は 0.895 と相対的に適切と考えられる類似度を出力できている。表 3 の結果からも確認できる通り, DefSent は意味的に類似しているが表層的類似度が低いような文ペアについて,その意味の違いを比較的正しく推定できると考えられる。上から 3 行目の例では,人手評価による類似度がそれほど高くない事例に対して, DefSent は比較的高い類似度を割り当てている.これは,片方の文がもう片方の文の部分文字列であるため, DefSent が文中単語から意味を構成する能力が高いゆえに, 文の表層的な類似度に意味的類似度が大きく影響を受けてしまった結果であると考えられる。このような事例に対しては,意味の違いを識別するように訓練されているSBERT の方が,正しく文の意味の違いを推定できると考えられる。これらの結果から,SBERTは表層的類似度が高い文ぺアの意味的類似度を捉えることに長けており, 一方で, 提案手法である DefSent は表層的類似度が低い文ぺアの意味的類似度を捉えることに長けていると考えられる。 ## 5 テキスト分類タスクを用いた評価 提案手法による文埋め迄みの一般的な有用性を評価するため, 文埋め込み評価に広く用いられる SentEval (Conneau and Kiela 2018)を用いて評価を行った. ## 5.1 SentEval SentEval (Conneau and Kiela 2018) は,文の感情分類や主観性分類などを含む様々なタスクを集約した,文埋め込み評価のためのソフトウェアである。 SentEval を用いた評価では, パラメータを固定した文埋め込みモデルを用いて,文埋め込みを入力とする分類器の学習を行い性能を評価することで,文埋め込みがどのような情報を捉えているかを評価する。分類タスクで高い性能を達成できる文埋め込み手法は, 文の多様な情報を捉え, 種々のタスクに有用な文埋め込みを構成できると考えられる.SentEvalには後段タスク (downstream tasks) とプロービングタスク (probing tasks)の二つが存在し, 文埋め込みの有用性評価には主に後段タスクが用いられる。本研究では提案手法である DefSent の有用性を確認するため, まず Reimers ら (Reimers and Gurevych 2019) と同様, 後段タスクを用いて実験を行った. 各タスクの概要を表 8 に示す.評価には, 3.2 節の設定で fine-tuning を行ったモデルを使用した. SentEval 内の各タスクについて,提案手法により構成した文埋め込みを入力とする分類器を学習し,性能を評価した。分 \\ 表 8 評価に用いた SentEval の後段タスクの概要. 各タスクの例は Conneau ら (Conneau and Kiela 2018) の例を引用した。 類器の学習および性能評価は, Reimers ら (Reimers and Gurevych 2019) と同様, SentEval の標準設定を用いた,具体的には,分類器はロジスティック回帰分類器, バッチサイズは 64 , エポック数は 4 とし, 最適化手法に Adam を用いて学習を行った. 10 分割交差検証によって夕スクごとに正答率を算出し,平均正答率を計算した。提案手法による fine-tuning と性能評価を異なるシード値で 3 回行い, その平均を評価スコアとした。比較対象として 4.2 節で述べたものと同様の手法を用いた。 実験の結果を表 9 に示す. 全体として, STS タスクでの評価と同様, SBERT の RoBERTa-large が最も高い性能を示した,提案手法の中では, モデルとして RoBERTa-base を, Pooling 手法としてMax を用いた場合が最も高い平均性能を示した。各モデルごとに SBERT と DefSent の性能を比較すると,BERT-base および RoBERTa-base ではすべての Pooling 手法で DefSent が SBERT の性能を上回った。また,BERT-large において Pooling 手法に CLS および Mean を用いた場合にも, DefSent はSBERT の性能を上回った。一方で,BERT-large において Max を用いた場合, および RoBERTa-large においては, SBERTの方が DefSent よりも高い性能を示した. ## 5.2 分析 4.4 節と同様,提案手法による文埋め込みの性質を分析するため, SentEval の後段タスクとプロービングタスクを用いた性能比較と, タスクごとの特徴に着目した文埋め込みの性質分析を行った。分析に用いた設定は 5.1 節と同様である。比較分析の対象は DefSent と SBERT とした。事前学習済み言語モデルとして BERT-baseを用い,Pooling 手法として Meanを用いた。 表 9 SentEval の後段タスクにおける正解率 (\%). また, 参考として, fine-tuning を行っていない BERT-base (w/oFT) も評価対象とした,異なるシード値で 3 回学習を行い, その平均を評価スコアとした. まず, 5.1 節で得られた SentEval の後段タスクの性能を用いて,より詳細な分析を行った. DefSent, SBERT, w/oFT の各タスクにおける性能を抜粋したものを図 4 に示す. SBERT に着目すると, MR, CR, SST2, MRPC において最も高い性能を示していることがわかる. これは, MR, CR, SST2 が感情分類タスクであり, SBERT が文の感情についての情報をよりよく埋め达んでいることを示唆する。また,MRPCは言い換え予測タスクであり,二つの文が同じ意味を持つかどうかを予測するタスクである。MRPC はSBERT の訓練に用いられた NLI タスクと似ており,SBERT の性能が高かった理由もこのタスクの類似性によるものであると考えられる. 一方で DefSent は MPQA で最も高い性能を示し, SUBJ と TREC の二つのタスクでw/oFT と同等の性能たった. MPQA は句単位の極性分類タスクであり, 句の意味を適切に構成する必要がある夕スクである。DefSent は定義文からその意味を適切に構成できるように fine-tuning を行うため, DefSent は MPQAにおける性能が高かったと考えられる。 また,SUBJとTRECにおいては,DefSentがSBERT よりも高い性能を示した.SUBJは主観性分類タスクであり, TREC は質問文の種別分類タスクであり, 文中単語の情報が重要な夕スクである。そのため, SBERT は DefSent やw/oFT と比較して,文中単語の情報をより考慮していないと考えられる。以上より,SBERT は主に文の意味的な情報を埋め込み,それゆえに文の意味が同じかどうかを識別するようなタスクに適していると考えられる。一方で, DefSent は文の意味を構成することに長けており,またその埋め込み表現には文中単語の情報がより含まれているものと考えられる。 次に,SentEval のプロービングタスクを用いて,各文埋め込み手法がどのような言語的特徴を捉えているか分析した. SentEvalのプロービングタスクには文埋め込みが言語的な特徴をどの程度捉えているか評価するためのタスクがまとめられており,例えば文の長さや文中に含まれていた単語や,文の時制の分類タスクなどが存在する. 実験の結果を図 5 に示す。全体として, プロービングタスクではw/oFT, DefSent, SBERT の順に性能が高かった. DefSent は, WordContent, Tense, およびSubjNumberにおいて比較的高い性能を示した。これらは文中単語の情報が重要なタスクであり, DefSentによる文埋め込みが文中単語の情報を多く埋め达んでいることを示唆している. ## 6 異なる文埋め込みの統合 前節で,提案手法である DefSent と SBERT の性質の違いについて分析し,二つの手法が異なる性質を持つことを示した。このような異なる性質を持つ文埋め込みを統合することによって,さらに高性能な文埋め込みを構成することが可能か調査する。本研究では,以下に示す 5 図 4 SentEval の各後段タスクにおける正解率 (\%). 図 5 SentEval の各プロービングタスクにおける正解率 $(\%)$. つの統合手法について実験を行った. S+D SBERTによる fine-tuning を行ったモデルをさらに DefSent で fine-tuningする. D+S DefSent による fine-tuning を行ったモデルをさらに SBERT で fine-tuningする. Multi マルチタスク学習によってモデルを fine-tuningする. 具体的には, SBERTの fine-tuning に用いる NLI データセットと DefSent の fine-tuning に用いる定義文データセットの事例数の比はおおよそ 19:1 であるため, 同じモデルに対し, SBERT によるパラメータ更新を 19 ステップ行ったのち DefSent によるパラメータ更新を 1 ステップ行う. Average 別々に fine-tuning された SBERT と DefSent の文埋め込みの平均を用いる. Concat 別々に fine-tuning された SBERT と DefSent の文埋め込みを連接したべクトルを用いる. 評価タスクとして,教師なしSTS タスクとSentEval の後段タスクを用いた。 ## 6.1 文類似度タスクでの統合手法の評価 まず,教師なしSTS タスクで5つの統合手法を評価した。実験設定は 4.2 節と同様である。モデルとして BERT-baseと BERT-large を用い, Pooling 手法に Mean を用いた. RoBERTa-base および RoBERTa-large を用いた場合の結果は,付録 B の表 12 に記載する。実験では,それぞ 表 10 各統合手法による文埋め込みの余弦類似度と人手評価とのスピアマンの順位相関係数(表内の値は全て 100 をかけたもの)。データセットごとに最良の結果を太字で示す. れの統合手法ごとに異なるシード値で 10 回モデルの fine-tuning と評価を行い,その平均を評価スコアとした,比較のため, DefSent と SBERT それぞれ単体,および fine-tuning を行っていないモデル (w/oFT) も評価した. 実験の結果を表 10 に示す。統合手法のうち,S+D, AvErage, CONCAT は常に DefSent およびSBERT 単体の性能を上回った. 特に, $\mathrm{S}+\mathrm{D}$ は base および large モデルの双方で最も良い平均性能を示した。一方で, $\mathrm{D}+\mathrm{S}$ と MULTI については, 大きな性能向上を確認できなかった. ## 6.2 後段タスクでの統合手法の評価 次に, SentEval の後段タスクで 5 つの統合手法を評価した。実験設定は 5.1 節と同様である. モデルとして BERT-base と BERT-largeを用い,Pooling 手法に Meanを用いた. RoBERTa-base および RoBERTa-large を用いた場合の結果は,付録 B の表 13 に記載する,実験では,それぞれの統合手法ごとに異なるシード値で 3 回モデルの fine-tuning と評価を行い, 平均正答率を評価スコアとした,比較のため,DefSent とSBERT それぞれ単体,および fine-tuning を行っていないモデル (w/oFT) も評価した. 実験の結果を表 11 に示す。表より,CONCAT が最も高い性能を示したことが確認できるが, SentEval の評価では文埋め达みを入力とするロジスティック回帰分類器を教師あり学習するた 表 11 各統合手法による文埋め込みを用いた場合の SentEval の各タスクに打ける正解率 (\%). タスクごとに最良の結果を太字で示す. め,文埋め込みの次元数が大きい方が有利である点には注意されたい10. CONCAT 以外の統合手法では, AvErageが比較的高い性能を示し,その性能は常に $\mathrm{S}+\mathrm{D}, \mathrm{D}+\mathrm{S}$, Multi を上回った. これは,平均して $\mathrm{S}+\mathrm{D}$ が最も高い性能を示した,教師なし STS タスクでの評価結果とは異なる傾向である。この原因として,一つのモデルに対して複数回 fine-tuning を行う $\mathrm{S}+\mathrm{D}$ などの手法が, 事前学習済み言語モデルの汎化性能を悪化させている可能性が考えられる. ## 7 関連研究 深層学習を用いた自然言語処理の基礎技術として文埋め込みは盛んに研究されており, 様々なモデルやタスクが提案されている. 初期の文埋め込みモデルの研究では,特定のタスクではじめから文埋め込みモデルを訓練する手法が主流であった. Kiros らによって提案された SkipThought (Kiros et al. 2015) は LSTM (Hochreiter and Schmidhuber 1997) を基にしたエンコーダ・デコーダモデルを用い,エンコー ダに入力された文の埋め込み表現から,デコーダを介して前後の文を生成することでモデルを訓練する。 Conneau らによって提案された (Conneau et al. 2017) は, 双方向 LSTM と Dual Encoder を基に,NLI タスクを解くことで文埋め込みモデルを訓練する. Cer らによって提案された Universal Sentence Encoder (USE) (Cer et al. 2018) は,マルチタスク学習によって文埋め込みモデルを訓練する。 近年, 事前学習済み言語モデルを用いた文埋め込み手法が多数提案されている. BERT (Devlin et al. 2019) や RoBERTa (Liu et al. 2019)のような事前学習済み言語モデルは, 大規模なテキストを用いた自己教師あり学習によって汎用的な言語知識を獲得し, 後段タスクで高い性能を達成することができ, 事前学習によってモデルに備わる言語学的知識は文埋め込みモデルを構築する際にも有用である。これらの事前学習済み言語モデルを用いた文埋め込み手法は, 教師なし手法と教師あり手法の二つに大別できる. 教師なし文埋め込み手法は, 人手作成されたラベルなどの教師デー夕は用いず,事前学習済み言語モデルの特性を活用するか, 人工的に訓練デー夕を作成することで文埋め込みモデルを獲得する.Li らは,事前学習済み言語モデルの埋め込み空間が異方性を持つこと,すなわち埋め込み空間の一部の部分空間に埋め込み表現が偏って分布することを示し, 等方的なガウス分布への写像を学習することで文埋め込みの異方性を解消し, 教師なしで高い性能を持つ文埋め込みを獲得する手法である BERT-flowを提案した (Li et al. 2020). 高性能な文埋め込みを獲得するため, 最近では対照学習と呼ばれる訓練手法がよく用いられている。対照学習を用いた文埋め込み手法は,学習時に正例および負例となる文ぺアを用意し,正例文ぺアの文埋め込み同士が近づくようにしつつ, 負例文ぺアの文埋め込み同士が離れるように学習を行う。対照学習を用いた文埋め込み手法は, どのように正例または負例を作成するかで特徴づけることができる. Giorgi らによって提案された DeCLUTR (Giorgi et al. 2021) は, 同じ文書に含まれる文同士を正例として対照学習を行う. Yan らによって提案された ConSERT (Yan et al. 2021) は, ある文に対して単語の削除や置換等の加工を施した文を正例として対照学習を行う. Gaoらによって提案された Unsupervised SimCSE (Gao et al. 2021)は,同じ文に対して異なる dropout mask を適用して得られる文埋め込み同士を正例として対照学習を行う. 教師あり文埋め达み手法は, より高度な意味情報を捉えるために, 教師ラベルを用いてモデルを訓練する。一般的に, 教師あり文埋め込み手法は教師なし文埋め込み手法と比較して, 性能の高い文埋め込みを構成することができる。本研究で提案した DefSent および性質比較の対象としたSBERT は教師あり文埋め込み手法に分類できる。Gaoらによって提案された Supervised SimCSE (Gao et al. 2021), およびZhang らによって提案された PairSupCon (Zhang et al. 2021) は,NLIデータセット中の含意関係にある文ぺアを正例として対照学習を行う. Jiang らによって提案された PromptBERT (Jiang et al. 2022) は,NLI データセット中の含意関係にある文ぺアを正例とした対照学習を行うことに加え,テンプレートを用いた摂動を加えることで,より高性能な文埋め込みモデルを獲得する. ## 8 おわりに 本研究では,辞書の定義文を用いた文埋め込み手法である DefSent を提案した. DefSent は多くの言語において整備されている辞書に基づく手法であり, 他の言語に応用する場合であっても新規の言語資源を作成する必要がない点が特徴的である. 教師なしSTS タスクと SentEval を用いた実験を通して,提案手法である DefSent の有効性,および,大規模な NLI データセットを用いる既存手法と同等の性能を発揮することを示した. さらに, 文埋め込みの獲得に用いられる教師信号が文埋め込みの性質に与える影響について,実験的に調査した,比較の対象として,提案手法である DefSent と,DefSent と非常に類似した構造を持つが,NLI タスクによってモデルを fine-tuning する SBERT を用いて,教師なしSTS タスクと SentEvalに含まれる分類タスクを複数の観点に分けて評価した.教師なしSTSタスクを用いた比較実験の結果,それぞれの手法は文のソースや文ぺアの表層的類似度によって,文の意味的類似度を捉える能力に差があることがわかった.NLIデータセットという細かな意味の違いを捉えることが重要なタスクで訓練されているSBERT は,表層的に類似した文ぺアの意味の違いを捉えることに長けていることがわかった,定義文からの単語予測タスクという文の意味を適切に構成することが重要なタスクで訓練されているDefSent は, 文の意味的な構成性が重要になるタスクに適していることがわかった。また, SentEvalを用いた比較実験の結果, SBERT は文の意味的な情報が重要なタスクで高い性能を示し,一方で DefSent は文中単語の情報が重要なタスクで高い性能を示した。最後に,提案手法である DefSent と SBERT の統合手法を検討し, 評価した。その結果, DefSent とSBERTによる fine-tuningを順に適用する手法, およびそれぞれの文埋め込みの平均を取る手法が,単純ながら非常に高い性能を示した. 1 節で述べたように,提案手法は人手で作成された NLI データを必要とせず,辞書が整備されている多くの言語において適用可能であると考えられるが,本研究では英語のみを対象に実験を実施しており,英語以外の言語における有効性は示せていない。他の言語でも提案手法が実際に有効であるかを示すためには,複数の言語での実験が必要となるが,言語ごとに,適切な辞書デー夕, 事前学習済み言語モデルと評価デー夕の選定が必要となることから, 今後の課題とする. また,提案手法と既存手法についてより深く分析するため,提案手法による定義文の埋め达み表現と, 文脈化単語埋め込みの意味べクトル空間上での関係の解析を行いたい. さらに,より多様な文埋め込み手法との性質比較と統合手法の検討を行いたい. ## 謝 辞 本研究の一部は JSPS 科研費 21 H04901 の助成を受けたものである. ## 参考文献 Agirre, E., Banea, C., Cardie, C., Cer, D., Diab, M., Gonzalez-Agirre, A., Guo, W., LopezGazpio, I., Maritxalar, M., Mihalcea, R., Rigau, G., Uria, L., and Wiebe, J. (2015). "SemEval-2015 Task 2: Semantic Textual Similarity, English, Spanish and Pilot on Interpretability." In Proceedings of the 9th International Workshop on Semantic Evaluation (SemEval), pp. 252-263. Agirre, E., Banea, C., Cardie, C., Cer, D., Diab, M., Gonzalez-Agirre, A., Guo, W., Mihalcea, R., Rigau, G., and Wiebe, J. (2014). "SemEval-2014 Task 10: Multilingual Semantic Textual Similarity." In Proceedings of the 8th International Workshop on Semantic Evaluation (SemEval), pp. 81-91. Agirre, E., Banea, C., Cer, D., Diab, M., Gonzalez-Agirre, A., Mihalcea, R., Rigau, G., and Wiebe, J. (2016). "SemEval-2016 Task 1: Semantic Textual Similarity, Monolingual and Cross-Lingual Evaluation." In Proceedings of the 10th International Workshop on Semantic Evaluation (SemEval), pp. 497-511. Agirre, E., Cer, D., Diab, M., and Gonzalez-Agirre, A. (2012). "SemEval-2012 Task 6: A Pilot on Semantic Textual Similarity." In Proceedings of *SEM 2012: The 1st Joint Conference on Lexical and Computational Semantics - Semantic Evaluation (SemEval), pp. 385-393. Agirre, E., Cer, D., Diab, M., Gonzalez-Agirre, A., and Guo, W. (2013). "*SEM 2013 shared task: Semantic Textual Similarity." In Proceedings of 2nd Joint Conference on Lexical and Computational Semantics ( ${ }^{*}$ SEM), pp. 32-43. Bowman, S. R., Angeli, G., Potts, C., and Manning, C. D. (2015). "A large annotated corpus for learning natural language inference." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 632-642. Cer, D., Diab, M., Agirre, E., Lopez-Gazpio, I., and Specia, L. (2017). "SemEval-2017 Task 1: Semantic Textual Similarity Multilingual and Crosslingual Focused Evaluation." In Proceedings of the 11th International Workshop on Semantic Evaluation (SemEval), pp. 1-14. Cer, D. M., Yang, Y., Kong, S., Hua, N., Limtiaco, N., John, R. S., Constant, N., GuajardoCespedes, M., Yuan, S., Tar, C., Sung, Y.-H., Strope, B., and Kurzweil, R. (2018). "Universal Sentence Encoder." arXiv:1803.11175. Conneau, A. and Kiela, D. (2018). "SentEval: An Evaluation Toolkit for Universal Sentence Representations." In Proceedings of the 11th International Conference on Language Resources and Evaluation (LREC), pp. 1699-1704. Conneau, A., Kiela, D., Schwenk, H., Barrault, L., and Bordes, A. (2017). "Supervised Learning of Universal Sentence Representations from Natural Language Inference Data." In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 670-680. Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL), pp. 4171-4186. Eger, S., Rücklé, A., and Gurevych, I. (2019). "Pitfalls in the Evaluation of Sentence Embeddings." In Proceedings of the 4th Workshop on Representation Learning for NLP (RepL4NLP-2019), pp. 55-60. Gao, T., Yao, X., and Chen, D. (2021). "SimCSE: Simple Contrastive Learning of Sentence Embeddings." In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6894-6910. Giorgi, J., Nitski, O., Wang, B., and Bader, G. (2021). "DeCLUTR: Deep Contrastive Learning for Unsupervised Textual Representations." In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (ACL-IJCNLP), pp. 879-895. Goyal, P., Dollár, P., Girshick, R. B., Noordhuis, P., Wesolowski, L., Kyrola, A., Tulloch, A., Jia, Y., and He, K. (2017). "Accurate, Large Minibatch SGD: Training ImageNet in 1 Hour." arXiv:1706.02677. Hill, F., Cho, K., and Korhonen, A. (2016a). "Learning Distributed Representations of Sentences from Unlabelled Data." In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL), pp. 1367-1377. Hill, F., Cho, K., Korhonen, A., and Bengio, Y. (2016b). "Learning to Understand Phrases by Embedding the Dictionary." In Transactions of the Association for Computational Linguistics (TACL), pp. 17-30. Hochreiter, S. and Schmidhuber, J. (1997). "Long Short-Term Memory." Neural Computation, 9 (8), pp. 1735-1780. Ishiwatari, S., Hayashi, H., Yoshinaga, N., Neubig, G., Sato, S., Toyoda, M., and Kitsuregawa, M. (2019). "Learning to Describe Unknown Phrases with Local and Global Contexts." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL), pp. 3467-3476. Jiang, T., Huang, S., Zhang, Z., Wang, D., Zhuang, F., Wei, F., Huang, H., Deng, D., and Zhang, Q. (2022). "PromptBERT: Improving BERT Sentence Embeddings with Prompts." In Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 8826-8837. Kingma, D. P. and Ba, J. (2015). "Adam: A Method for Stochastic Optimization." In Proceedings of 3rd International Conference on Learning Representations (ICLR). Kiros, R., Zhu, Y., Salakhutdinov, R. R., Zemel, R., Urtasun, R., Torralba, A., and Fidler, S. (2015). "Skip-Thought Vectors." In Proceedings of Advances in Neural Information Processing Systems (NIPS), pp. 3294-3302. Li, B., Zhou, H., He, J., Wang, M., Yang, Y., and Li, L. (2020). "On the Sentence Embeddings from Pre-trained Language Models." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 9119-9130. Liu, Y., Ott, M., Goyal, N., Du, J., Joshi, M., Chen, D., Levy, O., Lewis, M., Zettlemoyer, L., and Stoyanov, V. (2019). "RoBERTa: A Robustly Optimized BERT Pretraining Approach." arXiv preprint arXiv:1907.11692. Marelli, M., Menini, S., Baroni, M., Bentivogli, L., Bernardi, R., and Zamparelli, R. (2014). "A SICK Cure for the Evaluation of Compositional Distributional Semantic Models." In Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC), pp. 216-223. Muennighoff, N. (2022). "SGPT: GPT Sentence Embeddings for Semantic Search." arXiv preprint arXiv:2202.08904. Paszke, A., Gross, S., Massa, F., Lerer, A., Bradbury, J., Chanan, G., Killeen, T., Lin, Z., Gimelshein, N., Antiga, L., Desmaison, A., Kopf, A., Yang, E., DeVito, Z., Raison, M., Tejani, A., Chilamkurthy, S., Steiner, B., Fang, L., Bai, J., and Chintala, S. (2019). "PyTorch: An Imperative Style, High-Performance Deep Learning Library." In Proceedings of Advances in Neural Information Processing Systems (NeurIPS), pp. 8024-8035. Pennington, J., Socher, R., and Manning, C. (2014). "GloVe: Global Vectors for Word Representation." In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1532-1543. Reimers, N., Beyer, P., and Gurevych, I. (2016). "Task-Oriented Intrinsic Evaluation of Semantic Textual Similarity." In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers (COLING), pp. 87-96. Reimers, N. and Gurevych, I. (2019). "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3982-3992. Shen, D., Wang, G., Wang, W., Min, M. R., Su, Q., Zhang, Y., Li, C., Henao, R., and Carin, L. (2018). "Baseline Needs More Love: On Simple Word-Embedding-Based Models and Associated Pooling Mechanisms." In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 440-450. Tsukagoshi, H., Sasano, R., and Takeda, K. (2021). "DefSent: Sentence Embeddings using Definition Sentences." In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (ACL-IJCNLP), pp. 411-418. Tsukagoshi, H., Sasano, R., and Takeda, K. (2022). "Comparison and Combination of Sentence Embeddings Derived from Different Supervision Signals." In Proceedings of the 11th Joint Conference on Lexical and Computational Semantics (*SEM), pp. 139-150. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., and Polosukhin, I. (2017). "Attention is All you Need." In Proceedings of Advances in Neural Information Processing Systems (NIPS), pp. 5998-6008. Williams, A., Nangia, N., and Bowman, S. (2018). "A Broad-Coverage Challenge Corpus for Sentence Understanding through Inference." In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL), pp. 1112-1122. Wolf, T., Debut, L., Sanh, V., Chaumond, J., Delangue, C., Moi, A., Cistac, P., Rault, T., Louf, R., Funtowicz, M., Davison, J., Shleifer, S., von Platen, P., Ma, C., Jernite, Y., Plu, J., Xu, C., Scao, T. L., Gugger, S., Drame, M., Lhoest, Q., and Rush, A. M. (2020). "Transformers: State-of-the-Art Natural Language Processing." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP): System Demonstrations, pp. 38-45. Xu, J., Crego, J., and Senellart, J. (2020). "Boosting Neural Machine Translation with Similar Translations." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 1580-1590. Yan, Y., Li, R., Wang, S., Zhang, F., Wu, W., and Xu, W. (2021). "ConSERT: A Contrastive Framework for Self-Supervised Sentence Representation Transfer." In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (ACL-IJCNLP), pp. 5065-5075. Zhang, D., Li, S.-W., Xiao, W., Zhu, H., Nallapati, R., Arnold, A. O., and Xiang, B. (2021). "Pairwise Supervised Contrastive Learning of Sentence Representations." In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 5786-5798. ## 付録 ## A 実験環境と訓練時間 DefSent による BERT-base およびRoBERTa-baseの fine-tuning には, 一つの NVIDIA GeForce GTX 1080 Ti を用いて約 10 分を要した. DefSent による BERT-large および RoBERTa-largeの fine-tuning には,一つの NVIDIA Quadro GV100を用いて約 15 分を要した. SBERT による BERT-base および RoBERTa-base の fine-tuning には,一つの NVIDIA GeForce GTX $1080 \mathrm{Ti}$ を用いて約 120 分を要した. SBERT による BERT-large および RoBERTa-large の fine-tuning には,一つの NVIDIA Quadro GV100を用いて約 130 分を要した. ## B RoBERTaを用いた統合手法の実験結果 表 12 に,モデルとして RoBERTa-base および RoBERTa-large を用い, Pooling 手法として 表 12 各統合手法による文埋め込みの余弦類似度と人手評価とのスピアマンの順位相関係数(表内の値は全て 100 をかけたもの). 表 13 各統合手法による文埋め込みを用いた場合の SentEval の各タスクにおける正解率 $(\%)$. Mean を用いた際の, 各統合手法の STS タスクにおける実験結果を示す.また, 表 13 に,モデルとして RoBERTa-base および RoBERTa-largeを用い, Pooling 手法として Meanを用いた際の,各統合手法の SentEval の後段タスクにおける実験結果を示す. ## 略歴 塚越駿:2021 年名古屋大学情報学部コンピュータ科学科卒業. 同大学院情報学研究科知能システム学専攻博士前期課程に進学. 笹野遼平:2009 年東京大学大学院情報理工学系研究科博士課程修了。京都大学特定研究員, 東京工業大学助教を経て,2017 年より名古屋大学准教授. 博士 (情報理工学)。2019 年より理化学研究所 AIP センター客員研究員を兼任.武田浩一:1983 年京都大学大学院工学研究科情報工学専攻修士課程修了。同年日本アイ・ビー・エム株式会社に入社. 2017 年より名古屋大学教授. 博士 (情報学).
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# Probing Physical Reasoning with Counter-Commonsense Context 近藤 和志 $\dagger$ ## 1 はじめに 本稿では, ACL2023に採択された論文 "Probing Physical Reasoning with Counter-Commonsense Context" (Kondo et al. 2023)について解説する. 2022 年 11 月に公開された ChatGPT 以来, 生成 $\mathrm{AI}$ の性能評価を行う研究が一気に増えたようにも思われるが,この論文もその系列の一つととらえることができよう,より細かく述べるならば,本論文は言語モデルに何ができ何ができないかを分析するプロービング (Probing) を目的としていて, この種の研究はディープニュー ラルネット (DNN) を用いた手法, 特に BERT (Devlin et al. 2019)の登場以来盛んになったものと思う。私自身も,はじめは BERT, RoBERTa (Liu et al. 2019) らを対象に研究を行っていたが,折よくChatGPT らが発表され注目を集め,さらにそれらのモデルについてもなかなか良い成果を得ることができた。このような幸運に助けられながら時流に乗って, ACLへの採択という望外の結果を得られたと感じる。 論文の具体的な手法についても簡潔に紹介するが,コンセプトや着想の経緯といった論文単体では伝わらない部分について本稿では主に伝えられればと思う. ## 2 論文のコンセプト 本論文では,「常識」が言語モデルに与える影響について考察している。言語モデルがいかに常識を備えているのか?という疑問については多くの研究が答えを見出そうと奮闘しているが,本研究は常識を備えていることによる悪影響は何かないか?という点に着目している.具体的には,「常識を備えている言語モデルは,反常識的な文章を出力することができないのでは?」 という疑問をもとに,反常識的な文章が答えとなるような推論問題を与えることを考えた。この推論問題は,コロケーションにとらわれすぎずに文脈を理解した推論を行うことができるのか, という能力を測っている. 反常識的な文章と常識的な文章での正答率を比較することで,言語モデルが実際に推論を行うことができるのか, それともあるいはただ単に直前の単語からもっともらしい単語を選んでいるだけなのかを理解することができる。  Is the electric bulb bigger than the house? 図 1 常識に沿った文脈,沿わない文脈の具体例。人間は正しく状況を想像して推論を行うことができるが, 言語モデルは常識やコロケーションに影響されて間違った推論を行ってしまう. ## 2.1 バイアスの問題 言語モデルがバイアスを携えてしまうという問題は,言語モデルが社会に普及し実装されていく中で,目をそらすことができない大きな課題である。特に政治的なバイアスやジェンダー バイアスは社会的に懸念されるところであり, これらのバイアスを除去する方法も盛んに議論されている. そして本手法は, ある種データセット上に存在している常識というバイアスに着目し,このバイアスを排除して言語モデルの推論能力を計測している,ということもできる. しかし, 本研究の趣旨からは逸脱するが, 言語モデルからこのバイアスを単に除去すればよいというものでもない. なぜならば, 常識は常識として保持し, 必要な時には取り出せる必要があるからである,文脈は文脈として受け取り,(文脈のない)常識は常識として別に理解するという機構がどこかに必要なのではないかと考える。本研究の根底にある目的意識には,そのようなモデルを作ってみたいという思いがある. ## 3 提案手法 本手法は極めてシンプルであって,あまり特筆して解説すべき部分も少ないのだが,一応述べておくこととする. ## 3.1 タスク概要 Masked Language Model (MLM) と生成モデルとで入力形式が異なるため, タスクも少し異なっているが,簡潔には以下のような問題を解いている,今から思うと拙い部分もあるが,そう思えるのも成長の証であると考え,そのままここに記す。 (1) Masked Language Modelに対して "<context> In this situation, the size of <obj1> is probably much [MASK] than the size of <obj2>." (2) 生成モデル(GPT など)に対して 表 1 作成したテンプレートの例. タグによって挿入する名詞に制限をかけていて, [box] であったら何か物を入れられる “box”という属性を持っている必要がある。 [*] の場合は,名詞リストにあるどの名詞を挿入してもよいという意味(物質的な名詞だけが事前に抽出されている.) "<context> Which is bigger in this situation, <obj1> or <obj2>? The bigger is " <context>には問うべきシチュエーションが, <obj1>,<obj2>には比較される単語が挿入される. MLM は MASK トークンに bigger/smallerのどちらを入れるのか, 生成 AI はどちらのオブジェクトを出力するのかが問われている. ## 3.2 データセット作成 データセット作成は以下のステップで行われた。 以下でいう Oxford 50001というのは初学者向けの英英辞典であり,英語の基礎的な単語が網羅されている. (1)大小関係を表す動詞(句)を Oxford 5000 からすべて抽出する (2)動詞句からテンプレートを作成し,挿入する単語が満たすべき条件を策定する (3)物体を表す名詞を Oxford 5000 から抽出し,これらが満たす条件を夕グとして記録する (4) 物体を大きさ順に並べる (5)テンプレートの空欄部に名詞リストから適合する名詞を挿入して質問文を作る (5) 以外のほぼすべての部分が人力である。かなり泥臭い作業であったが,これによって品質を担保でき,評価に没頭することができた。 ## 4 採択までの道のり ## 4.1 着想以前 我々は言語モデルが物体の大きさに関する常識を持っているのかというテーマで,学部生のころから研究を進めていた.学部の段階では埋め込みから物体の大きさを比較する分類器を学習させるという素直な研究を進めており, そこではそれほど喜ばしい結果は得られなかったが,「言語モデルはそのうち常識を保有するたろう」という直感を得た。そして, 同時にこのトピックは素直が過ぎており, 学生の研究力と執筆力では競争を勝っていくのは難しいであろうとも ^{1}$ https://www.oxfordlearnersdictionaries.com/about/wordlists/oxford3000-5000 } 感じた。そこでこのテーマにひねりを与えたいと思いながらも,どのようにしたいかはわからないまま修士生活に突入することとなった。 ## 4.2 反常識, というひらめき 本研究のポイントは, 単に常識を備えるために学習すると, 反常識的な文章を出力することが困難になるのではないかというひらめきにある。この反常識というアイデアは, 画像生成と機械翻訳から得られたものである。この研究を着想したころは Midjourney や Novel AI 等の画像生成 AIが持て囃され始めたころで,私自身も画像を生成して遊ぶことが度々であった。その中で,画像生成 AIは奇妙な画像を生成しうることに改めて気がついた。例えば,「電球の中に家がある」というような画像も生成できる。 そこで,言語モデルはこれに類することを行うことはできるのたろうか?と考えた. ここに,今回の研究の核となるアイデアが誕生した. また機械翻訳というのは,いわゆる AIを使った翻訳サービスのことであるが,それが「電球の中に家がある」という文章を確か “There is an electric bulb in a house.” のように誤って翻訳したことがあった,厳密には少し文脈を与えたような記憶があるし,そもそもモデルに盛んにアップデートが行われていることが予想されることから現在はこのような挙動は示さないかもしれないが,鬼にも角にもこのことが,言語モデルは反常識的な文章を生成しにくいのではないかという直感を強めた。そこからはデータセットを作成してとにかく評価をしていこうということになり,先述のような人力作業を行っていくこととなる. ## 4.3 執筆 今回, 初めて論文を投稿したにも関わらずACL2023に採択された理由は執筆, 特に推敲に多くの時間をかけたことによるのではないかと考えている。本論文は執筆を 2022 年の 11 月ごろから始め, 12 月中旬の Rolling Reviewに間に合わせることを目標としていた. そして一か月半ほどでおおむね形を作り上げたのち,目標を 1 月の直接提出の期限に切り替えた. この二段階締め切り法により,ラストスパートを二回果たすことができた,自賛となり恐縮たが,「論文は一通り書き終わって三分の一」「第 6 稿まで校正を進めよ」などといわれる先人の教訓を実際に遂行できたことがアクセプトにつながる重要なポイントであったように思われる.本当に何度も書き直してはコメントをいただき,自分でも段々と文章がよくなる過程を味わうことができたのは大きな経験であった.ただ特にこの執筆活動は共同執筆者である菅原先生, 相澤先生の多大なご尽力があって初めて成り立ったことは疑いようもなく,ここで改めてお礼を申し上げたい. 今後の ACL では Rolling Review一本に絞られるとのことでこの方法はナイーブには使えなくなるものの, 仮の締め切りを設けそれを本気で信じこむというのは, 強ち人間心理的に間違ったアプローチではないかもしれず, これからも試してみたい. ## 5 おわりに 本研究は卒論以来初めてとなる論文執筆, 初めての学会投稿, 初めての国際学会への参加, 初めての発表などまさに初めてのことばかりの経験の塊であった. しかしそれだけに学びが多く貴重な体験となったので,この場でその一端を共有することができたことをとてもうれしく思う. 研究の手法がシンプルであった分,着想や論文執筆の部分に重点を置いて紹介した. このような技術的にはさほど複雑でない手法でも, 運に恵まれたり様々な要因があれば ACLにもアクセプトされるのだというところが伝われば幸いに思う. ## 謝 辞 共著者の菅原先生,相澤先生の甚大なお力添えあって,実験から執筆,現地での発表まで無事行うことができました。また最後になりますが,このような執筆の機会をくたささいました言語処理学会編集委員の皆様に深く感謝申し上げま. ## 参考文献 Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota. Association for Computational Linguistics. Kondo, K., Sugawara, S., and Aizawa, A. (2023). "Probing Physical Reasoning with CounterCommonsense Context." In Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 603-612, Toronto, Canada. Association for Computational Linguistics. Liu, Y., Ott, M., Goyal, N., Du, J., Joshi, M., Chen, D., Levy, O., Lewis, M., Zettlemoyer, L., and Stoyanov, V. (2019). "RoBERTa: A Robustly Optimized BERT Pretraining Approach." arXiv:1907.11692 [cs]. ## 略歴 近藤和志: 2022 年東京大学理学部情報科学科卒業. 同年 4 月より東京大学大学院情報理工学系研究科修士課程学生.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 記号処理への回帰:パターンに基づく速度指向言語処理 吉永 直樹 $\dagger$ ## 1 はじめに 本稿では,ACL2023に採択された論文 “Back to Patterns: Efficient Japanese Morphological Analysis with Feature-Sequence Trie” (Yoshinaga 2023) について, 解説する. 本研究は, 処理の高速性,省メモリ性,精度を兼ね備えた理想的な基礎解析を実現すべく,古典的な記号処理に基づく言語処理を再訪して, 日本語の形態素解析においてその可能性を探求したものである.研究室主催者でもある著者が,短期間(約 3 ケ月)で,手法の考案・実装, 実験, 論文の執筆を行った研究であり,深層学習に基づく手法が主流の時代において機械学習すら用いていないなど,振り切った視点で行った研究でもある.この点を踏まえ,研究の経緯を中心に説明する. なお,手法の実装である Jagger は下記のサイト1で公開している. ## 2 提案手法の概要 提案手法は, 形態素解析(単語分割・品詞タグ付け・見出し語化の混合タスク)を,単語分割位置と切り出した単語の品詞・見出し語を順次同定する超多クラス分類問題とみなし,これを機械学習で有効となる特徴量(後文脈表層, 前文脈品詞)を並べたパターンを用いて解くことで超高速に形態素解析を行う.特徴量(パターン)に対する分類結果,すなわち分割位置・品詞・見出し語は,そのパターンに対し学習データ中で最頻となる分割位置・品詞・見出し語を割り当てる. 本手法では, 最長一致する特徴パターンを入力の先頭から順次適用するが,分類結果が同じ冗長なパターンを枝刈りすることで,処理速度と省メモリ性が維持されている(図 1).提案手法の説明は以上であり,その実装は $\mathrm{C}++$ で 1000 行弱であるなど簡潔であるが,標準コーパスを用いた実験では,最小コスト法 (Kudo et al. 2004)を実装した MeCab² (Vibrato³) や点推定 (Neubig et al. 2011)を実装した Vaporetto4など既存の形態素解析手法の効率の良い実装に対し, 約 7-16 倍の処理速度,1/2-1/20 の消費メモリで,遜色のない精度の解析を行うことができる。以降,本手法を考案するに至った経緯について,時系列を追って説明する。 ^{1}$ http://www.tkl.iis.u-tokyo.ac.jp/ ynaga/jagger/ 2 https://taku910.github.io/mecab/ 3 https://github.com/daac-tools/vibrato }^{4}$ https://github.com/daac-tools/vaporetto 特徵列(パターン)トライ(抜粋) 分割位置・品詞が同じ葉ノードは枝刈り 図 1 最長一致パターンに基づく形態素解析:助詞「の」は接続助詞または格助詞になり得るが,形容詞「ない」が後続することから格助詞と判断できる。また,「のない」に対するパターンは,対応する単語分割位置・品詞が「のな」と同じであることから枝刈りされており,㔯長な後文脈表層を読み込むことなく直ちに処理を確定できている。「ない」については,接尾辞の可能性もあるが,前文脈品詞が格助詞のときは形容詞が学習コーパス中で最頻となることから, 正しく解析が行えている. ## 3 本研究の経緯 自然言語処理分野では,過去 30 年に亘ってべンチマークデータセットにおける解析精度を主目標として研究開発が行われているが,そのような精度に偏重した技術は,実際に技術を利用する場面において必ずしも求められていない.膨大なソーシャルメディアテキストを分析対象とする社会情報学や, 無数のユーザクエリを処理する $\mathrm{E}$ コマースなどでは, 精度(出力の質) と速度(運用コスト)のトレードオフを考慮して用いる技術が決定される.特に,最も多用される基礎解析では,高精度でも非効率な手法を採用できる環境は少ない.著者自身も,ブログ投稿や X(旧 Twitter)の投稿など膨大な実世界テキストを対象とした社会分析システムを実装する過程でこの問題を意識するに至り, 形態素解析器 (MeCab) と同程度の速度で動作する係り受け解析器 J.DepP 5 (Yoshinaga and Kitsuregawa 2009, 2014) を実装するなどした. 前述の社会分析システムでは,形態素解析器として MeCabを利用していたが,コロナ禍に入り全量 X(旧 Twitter)投稿を超リアルタイムで解析する社会分析システム6を構築することになり,形態素解析の処理速度がボトルネックとなるようになった。形態素解析については,  MeCab(旧 ChaSenTNG)以降 20 年近くより効率に優れた実装が公開されることはなく,処理速度の観点では技術的に長く停滞7していた。 2021 年になって, 点推定に基づく形態素解析器の効率を改善した Vaporetto が公開されたものの,公開時のバージョンは単語分割速度に焦点を当てたもので, 品詞夕グ付けまで行うと遅く, MeCabを置き換えられるものではなかった. このように速度面での言語処理技術の停滞(正確には,後退)にモヤモヤしていたところで, "Efficient Methods for Natural Language Processing: A Survey"(Treviso et al. 2023)を読む機会があり, 紹介されている「効率的」な手法が, 基本的に超低速な深層学習手法を限定的に高速化するマッチポンプな高速化手法であることに失望した. 現在の自然言語処理研究者は, その多くが「精度至上主義の呪い」に囚われており,自分が必要とする速度指向の言語処理技術は自分で作るしかないと観念するに至り, 最速で実用的な精度の形態素解析器を作ることにした。 ## 3.1 手法の考案・実装 EMNLP2022 のリバッタルへの対応が終わった 2022 年 9 月 5 日に,実装するアルゴリズムの検討を行った.深層学習の利用については,技術的に最速の処理を実現することが困難なことやその実験コストなどから(学生の実験を邪魔することを嫌って)考えなかったが,機械学習の利用までは排除しておらず,単語分割では,最速の最長一致法をもとに必要に応じて分類器を併用することで,処理速度を維持して解析精度を高める方針8を立てた.また,品詞タグ付け (見出し語化)については,ラベル数に比例して遅くなる分類器の $\operatorname{argmax}$ 計算の高速化に焦点を当てていた(研究メモによれば,コーパス中で最頻の品詞かどうか分類し, 最頻でないときのみ多値分類するアプローチを検討していた)。これら基本方針を立てたのち,業務の隙間時間を利用して,短期集中的に手法の実装と改良を進めた。 9 月 10 日の昼から, 自作の動的ダブル配列 cedar (Yoshinaga and Kitsuregawa 2014)を用いて最長一致法を用いた単語分割器を実装し, MeCabの約 6 倍の処理速度が出ることを確認した.開発データの解析結果で助詞を後続の平仮名と連結する誤りが多く見られたので,分割位置の後方文脈の表層まで追加で見て最頻の分割位置で分割する手法を実装したところ,処理速度を維持して最小コスト法 (MeCab) や点推定 (Vaporetto) と遜色ない精度で単語分割を行うことができることが分かった。これらの実装に要した時間は約 9 時間で, 単語分割器は $\mathrm{C}++$ で 62 行, パターンの抽出は Python で 45 行と極めて簡素なものであった. このように簡素な手法で機械学習を用いた手法と遜色のない単語分割精度が得られたことは驚きであり, パターンに基づく記号処理の可能性を強く意識することとなった.  9 月 11 日の夜に, 最長一致する後文脈表層をパターンとする提案手法を機械学習的な観点で再考し「パターンは,後文脈のどの位置で切るかという多値分類問題の解を事前計算したものである」という発想に至り,自身が過去に行った「非線形分類器において,実際の言語デー夕に出現する事例について分類結果を事前計算しておき, 入力の近傍事例の分類結果を参照して分類を高速化」する研究 (Yoshinaga and Kitsuregawa 2009, 2014) との類似性にも気がついた.点推定では,各文字の後で単語が分割されるか,という二値分類問題を解くが,提案手法では,次にどの位置で分割されるか,という多值分類問題を解くことで,分類回数を削減している. さらに機械学習の分類器(スコアの $\operatorname{argmax}$ 計算)を経由せず,パターンを用いて直接分類結果 (分割位置)を取得する点で,アルゴリズム的により高速なものとなっている。このアイデアの素直な拡張として,分割位置に加えて切り出した単語の品詞を同時に推定する多値分類問題を考え, パターン (特徴量) に対して最頻の分割位置・品詞を学習データから計算して割り当てれば,品詞タグ付けまで高精度で解けるかもしれない,という感触を得た. 9 月 20 日に 2 時間ほど作業して上記のアイデアを追加実装し, 品詞夕グ付けまで行うようにしたところ, MeCabに対して処理速度は 4 倍となったが, 解析精度は $1.8 \%$ 劣るものとなったそこで,パターンに追加で特徴量を追加して精度の改善を行うこととした. 9 月 25 日に単純なオンライン学習を用いて点推定で品詞夕グ付けのみ行う分類器を実装して有効となる特徴量を調べ,前文脈品詞が特に有効であることが分かった。その後しばらく,実装が複雑になることを嫌って(まとまった時間も取れず)放置していたが,EACL2023への概要投稿後, 10 月 14〜 16 日にかけて実装し, MeCab や Vaporetto と遜色ない解析精度を得るに至った. 品詞夕グ付け (見出し語化)結果を出力する場合, 単語分割結果のみ出力する場合と比べて処理速度が大きく低下する問題があったが,出力の成形で行っていた文字列終端 ‘\0’を辿る操作がボトルネックであることを突き止め,論文締め切りの数日前,10月 18 日には京都大学テキストコーパスを M2 MacBook Air で約 50 万文/秒で解析する形態素解析器を実現することができた. ## 3.2 論文投稿から採択まで 成果をまとめるに当たり, 1 月締め切りの ACL2023を最終的な出版先として想定したものの,深層学習どころか機械学習すら用いない記号処理に基づく基礎解析手法が,昨今の学会で関心を持ってもらえるかは未知数であった。また,学会では近年, 手法の多言語への汎用性が重視されており,日本語のみを対象とする評価実験で成果が認められるかも不透明であった。そこで,研究コミュニティの反応を見るため(本会議に採択されたら出版するつもりで) EACL2023 (10月 21 日夜 9 時締切)に論文を投稿することにした. EACL2023には,学生との共著論文も複数, 投稿することとなったため, (共著論文への対応が一段落した) 締切当日未明から大急ぎで論文を執筆し,午前に実験を行なって,午後早い時間までに投稿を済ませた。 EACL2023 投稿後は, 近年の学会の価値観に合わせて, 多言語での評価や深層学習モデルの 近似などで高精度化を目指すことも検討したが,実際に自分が必要としない研究のためだけの実装や実験をする気にはなれなかったため, 手法の長所である処理速度を限界まで改善すべく,隙間時間に実装の細かい最適化を続けた。具体的な目標として,京都大学テキストコーパスで 100 万文/秒を設定したが,果たして 50 万文/秒から 100 万文/秒までの道のりは,険しかった (同時に本研究で最も楽しかったのはこの期間であった).J.DepP の開発時に培った最適化技法は既に投入しており,打てる手はないと何度も諦めかけたが,高速化のためのアイデアを実装し続け,最終的に 12 月 7 日に 100 万文/秒を達成した. Vibratoでも用いられている Unicodeの文字単位で遷移するダブル配列(11月 18 日実装)や出力のバッファリング(11月 24 日実装) が特に有効であったが,ビット単位のデー夕管理など細かい工夫の積み重ね無しに 100 万文/秒は達成できなかっただろう。一方で,効果を期待した戻り読みのないパターンマッチや SIMD を用いた UTF8 の Unicodeのコードポイントへの変換などは,逆効果であり,苦い思いをした. 100 万文/秒を達成した直後に届いた EACL2023 の査読のスコアは $4 / 4 / 3$ であり,評価が渋いショート論文であることを考慮すると本会議での採択も期待できた. 100 万文/秒という結果を持って ACL2023に挑戦したい気持ちも出てきたところで,悩ましい気持ちで採否通知を待っていたが,ACL2023 投稿直後に来た EACL2023 の採否通知で,残念ながら(結果的には運良く) Findings に回されたため, withdrawしてACL2023 の採否を待つこととした. ACL2023では,最終的に soundness 4/4/4, excitement 4.5/3.5/4.5 と良いスコアで本会議に採択された. ## 4 研究を振り返って 研究室を主催する大学教員の多くは,学内外の業務や教育研究に忙殺され,少しずつ自身で手を動かす現役の研究者ではなくなっていく,かく言う自分も研究室を主宰するようになって,自分で手を動かす研究からは離れていた。 しかし, やはり研究は自分で自由に進めてこそ, 楽しいものだ. 自分の場合, 伴走者の立場で学生の研究に関わる時間が長くなるにつれて, 少しずつ, 学生が好む学会で流行する研究と自身の興味のある研究との間に乘離を感じるようになっていた。また,研究を主体的に進める当事者感覚が失われていく怖さもあった. 本研究は, これらを解消すべく進めたものである.研究時間を捻出するのは難しかったが,過去に培った研究経験のおかげで,研究で最も楽しい (実装を磨く)時間に多くの時間を費やすことができ,深層学習の呪いから自分を解放することもできた. この研究に触発され, 再び主体的に研究に従事する大学教員が増えると嬉しい. 自然言語処理分野は, しばらく, 数字の引用で既存研究に対する優位性を示せる解析精度という単一の評価指標に集中することで技術を発展させてきた。その中で,処理速度については, テキストデータの量が増え続けているにもかかわらず,計算資源の発達に甘えて(お金で解決できる問題とみなし)軽視されてきた.その結果,「頭でっかち」のモデルが世に溢れ,計算機 を用いた処理の長所であった処理速度は損なわれ続けている。近年の大規模言語モデルの氾濫で,今や解析精度もお金(学習デー夕を増やして大規模な学習を行うこと)で解決できる問題とみなされつつあることに皮肉を感じる。個人的には, 自然言語処理は, 最速・最小・最高精度のモデルを追求すべきであり,その追求が言語のかたちを明らかにすることにも繋がると考えている. この点では, 本研究も, たどり来て, 未だ山麓という印象である(解析精度が不十分).本研究で再訪した記号処理には, 深層学習モデルの離散化(近似)や記号推論との接続など,様々な展開が期待できる。記号処理では, 深層学習モデルに特有の効率や解釈性の問題はなく,仮説やアイデアを検証する実験が終わるのを, 何日も待つ必要もない(実験は,数秒で終わる).本研究に続き, 学会の流行に流されず, 自身の信念に従って行われる研究が増えることを願う. ## 参考文献 Kudo, T., Yamamoto, K., and Matsumoto, Y. (2004). "Applying Conditional Random Fields to Japanese Morphological Analysis." In Proceedings of EMNLP, pp. 230-237. Neubig, G., Nakata, Y., and Mori, S. (2011). "Pointwise Prediction for Robust, Adaptable Japanese Morphological Analysis." In Proceedings of ACL: HLT, pp. 529-533. Sassano, M. (2014). "Deterministic Word Segmentation Using Maximum Matching with Fully Lexicalized Rules." In Proceedings of EACL (Volume 2), pp. 79-83. Treviso, M., Lee, J.-U., Ji, T., Aken, B. v., Cao, Q., Ciosici, M. R., Hassid, M., Heafield, K., Hooker, S., Raffel, C., Martins, P. H., Martins, A. F. T., Forde, J. Z., Milder, P., Simpson, E., Slonim, N., Dodge, J., Strubell, E., Balasubramanian, N., Derczynski, L., Gurevych, I., and Schwartz, R. (2023). "Efficient Methods for Natural Language Processing: A Survey." TACL, 11, pp. 826-860. Yoshinaga, N. (2023). "Back to Patterns: Efficient Japanese Morphological Analysis with FeatureSequence Trie." In Proceedings of ACL (Volume 2), pp. 13-23. Yoshinaga, N. and Kitsuregawa, M. (2009). "Polynomial to Linear: Efficient Classification with Conjunctive Features." In Proceedings of EMNLP, pp. 1542-1551. Yoshinaga, N. and Kitsuregawa, M. (2014). "A Self-adaptive Classifier for Efficient Text-stream Processing." In Proceedings of COLING, pp. 1091-1102. ## 略歴 吉永直樹:2005 年東京大学大学院情報理工学系研究科博士後期課程修了. 博 士 (情報理工学)。2016 年より東京大学生産技術研究所准教授. 主に, 超高速な基礎解析, 即時的な知識獲得, 適応的な言語生成の研究に従事.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# NLP 若手の会 (YANS) 第 18 回シンポジウム 梶原 智之拄 $\cdot$ 大内 啓樹 $\dagger \dagger$ ## 1 はじめに 本稿では, 2023 年 8 月 30 日および 31 日に開催されました, NLP 若手の会 (以下 YANS ${ }^{1}$ と表記)第 18 回シンポジウムの内容や運営について,委員長を務めました梶原と大内が記します. YANS の Web サイトに開催レポート2を揭載しておりますので,そちらもご覧いただければと思います. YANS の理念や目的, 歴史については人工知能学会誌の記事 (海野他 2017) や言語処理学会誌の記事 (高瀬 2021a) を参照いただけますと幸いです. ## 2 第 18 回シンポジウム概要 過去 3 回のオンライン開催 (高瀬 2021a,2021b; 萩行 2023) とは異なり, 第 18 回シンポジウムは久々の現地開催として企画しました。ただし,新型コロナウイルス感染症の状況を考慮し,第 9 回から第 14 回までのような 2 泊 3 日の合宿形式ではなく, 第 8 回以前と同様の 2 日間の非合宿形式で開催しました。参加者数は 300 人(学生 156 人,一般 144 人), 発表件数は 140 件 (学生 95 件, 一般 45 件), スポンサー数は 20 社と, いずれも最後の現地開催であった第 14 回 (2019 年)の 1.5 倍に増加し, 大盛況のシンポジウムとなりました. 発表や聴講でご参加いたたいた皆様と, スポンサーや招待講演のご支援をいただいた皆様に,心より感謝を申し上げます. ## 3 言語処理学会 30 周年記念事業との連携 委員長の梶原と大内が言語処理学会 30 周年記念事業 3 の実行委員を兼任していることもあり,当該事業の一環として,留学支援交流会および分野交流ハッカソンをシンポジウム前日に同会場にて開催しました。 後者は, 周辺分野との交流を目的に,言語と画像のマルチモーダルなデモアプリ開発ハッカソンおよび広告文生成を題材とするリーダーボードハッカソンの 2 テーマを設定し,過去最多となる 51 名の参加者と 3 名のアドバイザを迎えて盛大に開催しました  ## 4 第 18 回シンポジウム内容 NLP 若手の会第 18 回シンポジウムにおける各種の企画の中から特に, 研究発表・招待講演交流企画の 3 点について紹介します. ## 4.1 研究発表 YANS シンポジウムでは,始まったばかりの萌芽的な研究発表を歓迎しています。本シンポジウムを通じて研究の進展を促進することを目指して, 議論のしやすいポスター発表の形式を採用してきました.今回も, $\mathrm{A} 0$ 縦型のポスターを用いて,60 分ずつのポスターセッションにおいて活発な議論が交わされました。また, 約 1 割の発表者がデモを伴う発表をしたり, 参加者用 Slack で事前に発表資料の共有や宣伝をしたり, ポスターセッションにおいて追加の資料を配布したりと, 印象的なプレゼンテーションや深い議論のために様々な工夫が見られました. 今年の YANS シンポジウムでは, 優秀な研究発表を行った第一著者に対して, 奨励賞・デモ賞・スポンサー賞の各賞を授与しました,奨励賞は,萌芽的な研究を奨励することを主旨とするものであり, 現時点での完成度よりもアイデアの面白さや将来性への期待を重視して選考します.奨励賞およびデモ賞は,参加者による投票をもとに,YANS 運営委員の合議によって選出しました. スポンサー賞は, ダイヤモンド・プラチナ・ゴールドスポンサーの各社から, 独自の視点で選考いただきました. 20 件の奨励賞, 1 件のデモ賞, 12 件のスポンサー賞の受賞者の皆様, おめでとうございます。受賞者の一覧は開催レポートに記載しています. ## 4.2 招待講演 例年通り,自然言語処理およびその周辺分野に関する 2 件のチュートリアル講演をお願いしました. 東京大学の松井勇佑氏のご講演「グラフを用いた近似最近傍探索の理論と応用」では, グラフ探索の基本から代表的な近似最近傍探索の手法までを解説いたたきました. 理化学研究所/奈良先端科学技術大学院大学の吉野幸一郎氏のご講演「その研究 ChatGPT でいいんじゃないですか?~LLM 時代の対話システム研究~」では, 分布仮説の基礎から実世界における夕スク指向型対話システムまで幅広く解説いただきました. どちらのご講演も, 開催レポートに資料を掲載しておりますので,ぜひご参照ください. 前回のシンポジウムにて新設した招待セッションが好評でしたので, 今回は規模を拡大し, 自然言語処理とその周辺分野(画像,音声音響,ロボティクス)でご活躍中の新進気鋭の若手研究者 17 名によるポスター形式の招待セッションを企画しました. これまでの研究内容や研究への取り組み方をご説明いただくともに,学生をはじめとする NLP 分野への新規参入者にとっては「憧れの先輩研究者」と直接議論できる貴重な機会になったと思います. 招待セッションのポスターも開催レポートに掲載しておりますので, ぜひご参照ください. ## 4.3 交流企画 今回は対面開催ではありましたが,新型コロナウイルス感染症の状況を考慮し,飲食を伴う懇親会の開催は断念しました,しかし,YANS シンポジウムは参加者間の相互交流を重視するため, 前回や前々回と同様のラウンドテーブル形式の交流会を対面で実施しました。これは,割り当てられたテーマについて $5 \sim 6$ 名のグループで 20 分 $\times 2$ 回の時間, 語り合う企画です. 1 周目は研究領域に関するテーマを設定し,「機械翻訳」や「埋め込み表現」などのグループに分かれて交流しました。2周目はキャリアに関するテーマを設定し,「博士進学」や「海外インター ン」などのグループに分かれて語り合いました。この希望テーマを図 1 に示す名札に記載しておくことで,その他の時間においても交流のきっかけとなることを期待しました. 参加者アンケートによると,ラウンドテーブルの企画および大きい名札は参加者間の交流に特に効果的であったようです. 今回の新たな企画として,ダイヤモンドスポンサーおよびプラチナスポンサーの代表者様にご登壇いただき,パネルディスカッションを実施しました.事前に参加者から募集した「NLP 業界において若手のキャリアをどう作る?」「NLP ブームはいつまで続く?」などのテーマについて, 様々な角度からお話しいただきました。参加者 Slack の当該チャンネルも非常に盛り上がり, 参加者間でも熱い議論が交わされました。参加者アンケートによると, 招待講演者や学生の立場からの回答も聞いてみたいという感想が複数寄せられ, 次回以降の拡大版のパネルディスカッションにご期待いただけたようでした。 さらに今回は, 運営委員の有志 5 名による特別セッションを 1 日目の最後に企画しました 「病みの魔術に対する防衛術」と題した本セッションでは, 研究生活を健康的に過ごすための秘訣について企画者が順番にお話しし, 最後に参加者のエピソードも共有していただきました. 図 1 大きい名札 ## 5 おわりに 本稿では, NLP 若手の会第 18 回シンポジウムにおける施策について記しました. 4 年ぶりの対面開催は, 研究仲間との再会や NLP 分野への新規参入者の皆さんとの新たな出会いを楽しむ でした. 参加者の皆様にとっても素晴らしい時間を過ごしていただけたのであれば幸いです. 現地開催への回帰にあたって,特に参加者数の見積もりは困難を極めました,今回は,発表参加と聴講参加の両方で, 我々の予想を遥かに上回る多数のご応募をいただき, どうもありがとうございました。ご希望に応えられるたけの充分な広さの会場を用意する判断が事前にできず,熾烈な参加チケット争奪戦を招いてしまったことは申し訳ありませんでした,今回の反省を活かして,次回は混乱を招かない方法で多くの方にご参加いただるよう準備を進めていきます. 一方で,今回は多くの方にご参加いただき活発な交流を行ったものの,幸いにも本シンポジウムを通しての感染拡大は報告を受けておりません. 10 日以内に陽性判定を受けた方や受付での検温において 38 度以上の発熱が認められた方の入場禁止, 会場内での常時マスク着用などの感染対策にご協力をいただき, どうもありがとうございました. 今回のシンポジウムでは, 開催前 4 や開会式などでもお話ししたとおり, 学部や修士の学生をはじめとする分野への新規参入者の皆さんにとって「憧れの先輩研究者に出会える場」を提供することが,共同委員長の 1 人である梶原の目標でした.梶原が初めて自然言語処理の研究発表を経験したのも YANS シンポジウムでした. 研究室から 1 人発表参加し, 右も左もわからない不安な初発表でしたが,いつも論文でお名前を拝見している某先生や某先生が私のポスター を訪れてくたさりり,応援とアドバイスの声をかけてくださったのが本当に嬉しかったことを覚えています。梶原がこれまで 10 年間自然言語処理の研究を頑張り続けられたのは,憧れの先輩研究者による分野へのあたたかい迎え入れがあったからだ感謝しています. 今回の新規参入者の皆さんにも, ぜひ当時の梶原のような力強い後押しを受けつつ, NLPer としての素晴らしいスタートを切ってもらいたいと願っていました. そのため, 今回のチュートリアルは 2 名とも(梶原よりも少しだけ先輩の)若手研究者にご講演をお願いしましたし, 招待セッションとして多くの若手研究者にお越しいたたくことを企画しました.積極的に応援とアドバイスの優しいお声がけをいただいた先輩研究者の皆様, どうもありがとうございました. おかげさまで今年も, 多くの参加者が NLPer としての良いスタートを切れたであろうと信じています. 来年の開催に向けて, より「学際的 (Inter-disciplinary)」な交流の場をつくるという方向性がありえます. 画像処理や音声処理, および, 言語学や認知科学など言語処理の周辺分野たけでなく, 脳科学・神経科学, 医学, 地理学, 歴史学, 経済学, 法学など, これからますます言語 ^{4}$ https://twitter.com/moguranosenshi/status/1652928381938454529 } 処理との接点が増えるであろう分野にも,参加者が触れることができる場です。もちろん,単に触れるだけでなく, 学際的な融合研究として発展しうるような工夫もできればなお良いです. この背景には,ChatGPT などの強力な言語処理関連アプリケーションの登場があります。言語処理の応用可能性が幅広い研究分野に認知されつつある昨今, 言語処理と他分野の協業の機運が高まっています。言語処理と他分野が効果的に混ぜ合わさることで,新たな視点や研究領域の創出が期待されます。言語処理分野の若手の持つ(あるいは将来持ちうる)「庭」意識を,よりオープンで柔軟なものにしていくためにも,多様な関心・専門性を持つ若手が交流できる場を提供することは重要であると考えます. ## 謝 辞 本稿の執筆およびシンポジウムの開催にあたり,YANS2023 顧問の萩行正嗣さん(ウェザー ニューズ)には有益な助言をいただきました。また,YANS2023 運営委員の高山隼矢さん(ヤフー), 相田太一さん (都立大), 岡佑依さん (NTT CS 研/人間研), 平岡達也さん(富士通),村上聡一朗さん (サイバーエージェント), 山田康輔さん (名大), 山田寞章さん (東工大), 岩本蘭さん(日本 IBM $/$ 慶應大), 小林悟郎さん(東北大), 田中涼太さん(NTT 人間研/東北大), 帖佐克己さん(NTT CS 研/NAIST), 西田悠人さん (NAIST), 根石将人さん(東大), 長谷川駿さん(エクサウィザーズ),松野智紀さん(みらい翻訳)には,シンポジウムの運営にご尽力いただきました,委員の関係者の皆様のご協力も含めて, どうもありがとうございました. ## 参考文献 萩行正嗣 (2023). NLP 若手の会 (YANS) 第 17 回シンポジウム. 自然言語処理, 30 (1), pp. 215-220. [M. Hangyo (2023). The 17th Symposium of Young Researcher Association for NLP Studies (YANS 2022). Journal of Natural Language Processing, 30 (1), pp. 215-220.]. 高瀬翔 (2021a). NLP 若手の会(YANS)シンポジウム。自然言語処理, 28 (1), pp. 253-258. [S. Takase (2021a). Report on the Symposiums of Young Researcher Association for NLP Studies. Journal of Natural Language Processing, 28 (1), pp. 253-258.]. 高瀬翔 (2021b). NLP 若手の会(YANS)第 16 回シンポジウムーオンライン開催における施策 について一. 自然言語処理, 28 (4), pp. 1307-1311. [S. Takase (2021b). Report on the 16th Symposiums of Young Researcher Association for NLP Studies. Journal of Natural Language Processing, 28 (4), pp. 1307-1311.]. 海野裕也, 岡崎直観, 西川仁, 中澤敏明 (2017). NLP 若手の会. 人工知能, 32 (2), pp. 266-267. [Y. Unno et al. (2017). Young Researcher Association for NLP Studies. Journal of the Japanese Society for Artificial Intelligence, 32 (2), pp. 266-267.]. ## 略歴 梶原智之:愛媛大学大学院理工学研究科助教. 2013 年長岡技術科学大学工学部電気電子情報工学課程卒業. 2015 年同大学大学院工学研究科修士課程修了. 2018 年首都大学東京大学院システムデザイン研究科博士後期課程修了. 博士 (工学)。大阪大学データビリティフロンティア機構の特任助教を経て, 2021 年より現職. 情報処理学会, 人工知能学会, 言語処理学会, ACL 各会員. 大内啓樹: 奈良先端科学技術大学院大学先端科学技術研究科助教. 2015 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 2018 年同博士後期課程修了. 博士 (工学). 2018 年から 2021 年まで理化学研究所 AIP センター特別研究員. 2021 年より現職, および, 理化学研究所 AIP センター客員研究員. 2023 年より国立国語研究所共同研究員. 情報処理学会, 言語処理学会, 地理情報システム学会各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# オーガナイズド・セッション解説: 「人と共生するロボットの対話知能とソーシャルタッチ」 塩見 昌裕 $\dagger \cdot$ 飯尾 尊優 ${ }^{\dagger} \cdot$ 吉野幸一郎柿 $\cdot$ 大西 裕也 ${ }^{\dagger}$ ## 1 はじめに オーガナイズド・セッション「人と共生するロボットの対話知能とソーシャルタッチ」は, 2023 年の第 41 回日本ロボット学会学術講演会 (RSJ2023)にて開催された. 発表数は基調講演 2 件を含む 15 件であり,延べ参加人数は 100 人を超える盛況となった. 当該セッションの開催背景には,大規模言語モデルの発展により,人間と自然に対話するロボットが実現可能になりつつある点が挙げられる。ロボットとの対話を通じたやりとりが容易になることで,様々な社会環境においてロボットの活用が期待できる。一方, 現時点で研究が進んでいるロボットの多くは人間が一方的に命令を伝える道具的な存在であり,人間と互いの意図や欲求を理解し合いながら関係を深めていくような存在には達していない。人間とロボットの共生社会を実現するためには,対話を通じた関係構築に加え,身体を持つロボットだからこそ可能な触れ合い(ソーシャルタッチ)を通じた関係構築も重要である。そこで当該セッションでは, 人と共生するロボットの実現に向けて,対話知能やソーシャルタッチに関する研究を広く募集した。 ## 2 対話知能セッション 1 対話知能セッション 1 では, 6 件の発表が行われた. 1 件目の発表は, 名取らによる「1台で複数のキャラクターを表現する対話ロボットを用いた疑似三者対話の実現について」である(名取他 2023),当該研究では, 1 台のロボットで複数台のロボットと同等の対話感や存在感を与えることを目指し,切り替え時の方法と対話時の存在感について検証を行った。その結果, 頭部部分に表示するキャラクターごとに切り替え時の待機点(顔画像が移動する方向)が異なっているべきであることを示した一方,キャラクターを切り替える際の消失時に存在感を維持することができていなかったことも示した.  塩見, 飯尾, 吉野, 大西オーガナイズド・セッション解説 :「人と共生するロボットの対話知能とソーシャルタッチ」 2 件目の発表は, 能澤らによる「STAR WARS Model:失敗が許容され易い説明のためのマルチロボット対話モデルの実験」である(能澤他 2023). 当該研究では, 日常環境でのサービスロボットが作業中に失敗した際もユーザとの信頼関係を保つための釈明方法として, ユーザが理解できない言語で釈明を行うサービスロボットと対話ロボットを組み合わせた新しいモデル, STAR WARS Modelを提案している. 提案したモデルを用いることで, 作業失敗時にユー ザが感じる怒りや敵意, 疲労の低減といった印象の変化を確認した. 3 件目の発表は,酒井らによる「ロボットによる個人情報の取得同意説明のフィールド実験」 である(酒井他 2023),当該研究では,ロボットによる個人情報(顔写真等)の収集とその同意取得時の印象について, 実環境でのフィールド実験を通じて検証を進めた。その結果, ロボットからの説明が理解しやすく不安がないと感じた人ほど,ロボットによる通知を好む傾向があることが明らかになり,ロボットを個人情報収集プロセスに用いることの有効性が示唆された. 4 件目の発表は, 奥田らによる「ロボットとの物理空間上における伝言ゲーム課題の提案に向けたシステムの開発」である (奥田他 2023). 当該研究では, 社会的排斥の操作に用いられるサイバーボール課題を発展させた伝言ゲーム課題を用意し,ロボットシステムを用いて社会的排斥感が物理空間に拡張されうるかどうかの検証を行った. 実験の結果, 物理的身体から得られる視線などの社会的手がかりが,被排斥者の認知に影響を与えるとともに,排斥を伴うインタラクションが基本的欲求の阻害と否定的な気分を引き起こす可能性が示された. 5 件目の発表は, 木本らによる「対話ロボットのための他者優先度を考慮した経路計画の検討」である (木本他 2023),当該研究では, 説明者が対象者の優先度を考慮して行動する状況を仮定し, 各人物に対する情報提供の優先度に基づくロボットの適切な経路計画について検討を進めている。開発したシミュレーションを用いて, ロボットが優先度比率に応じて適切な移動経路を導出する様子が報告された。 6 件目の発表は, Huthaifa らによる「生活空間を周回し自発的にユーザ補助を行う自律型対話ロボット」である(Huthaifa 他 2023)。当該研究では, ユーザの生活環境を自動的に巡回し,巡回中に観察した事象に基づいてユーザを積極的に支援するロボット「Indy」の開発について報告を行った。当該ロボットを用いて, 巡回中に得られる様々な観測をトリガーとして優先度を決定し,自発的にユーザ補助タスクを行うシーンが報告された。 ## 3 ソーシャルタッチセッション ソーシャルタッチセッションでは, 基調講演 1 件を含む 5 件の発表が行われた. 1 件目の発表(基調講演)は,住岡による「人とロボットの触れ合いがもたらす影響について」である(住岡 2023),当該研究では, 人とロボットの触れ合いがもたらす影響について, 良い側面・悪い側面の双方を考慮しつつ, 人と共生するロボットの重要な能力であるソーシャルタッチについて の取り組みが紹介された.抱擁型コミュニケーションメディア「ハグビー」や赤ちゃん型対話ロボット「ひろちゃん」を用いた実証実験の様子が多数報告された. 2 件目の発表は,秋吉らによる「触れ合い対話を伴うカウンセリングロボット実現に向けた撫で・吒き動作のモデル化」である(秋吉他 $2023 ) \mathrm{~ 当該研究て ゙ は , カウンセリンク ゙ における ~}$触れ合いを効果的に活用するため,ロボットによる適切な触れ方のモデル化に取り組んでいる.具体的には, 抱擁時における人間の撫で・吒き動作のタイミングや動作時間, 頻度をモデル化し,カウンセリングロボットの設計指針を明らかにするとともに,実際にロボットを用いてカウンセリング対話を行う様子も報告された. 3 件目の発表は,Mejia らによる「全身タッチセンサを用いた接触動作認識」である(Mejia 他 2023)。当該研究では,人やロボットの全身を覆う服型タッチセンサを用いて,全身への接触動作を認識するシステムについて報告している。実験では, 40 人の被験者から収集したデー 夕を活用し, 機械学習を用いることで 6 種類の接触動作を約 $75 \%$ の精度で認識できることが示された。 4 件目の発表は,木本らによる「VR 空間における接触前 Proxemics の調査 : 外見と性別の影響」である(木本,塩見 2023)。当該研究では,VR 空間における接触前反応距離について,アバター(自身の操作するキャラクター)やエージェント(自律的に動作するキャラクター)の外見, ユーザの性別の影響について報告している。実験の結果,アバターやエージェントの外見は反応距離に大きく影響し,女性のアバターやロボットエージェントにおいてはより長い距離を好む傾向がある一方で,ユーザの性別に有意な影響が見られなかったことが示された. 5 件目の発表は, 後藤らによる「慣性情報を用いたあやし動作識別技術の提案」である(後藤他 2023). 当該研究では, 赤ちゃん型対話ロボットのあやし動作の識別精度を高め, 適切な感情表現を行う技術の提案を行っている。加速度情報と角速度情報の時系列情報を活用し,機械学習のアプローチを通じて,合計 11 種類のあやし動作に対する高精度な識別を実現した。 ## 4 対話知能セッション 2 対話知能セッション 2 では, 基調講演 1 件を含む 4 件の発表が行われた. 1 件目の発表(基調講演)は,呉羽による「ロボットで社会を摇さぶる〈クリティカル・ロボティクス〉」である (呉羽 2023),当該研究では,「クリティカル・ロボティクス」を倫理学とロボティクスの新しい連携手法として提案している。人間のあり方を問い直す批判的機能を持つロボットにより,社会が認識している価値観についての問題提起を行うことを目的とした取り組みである。講演では,クリティカル・ロボティクスを学際的分野として確立するための方法論上の課題についての議論が行われた。 2 件目の発表は,塩見らによる「複数台ロボットの謝罪における文化差の調査」である(塩見 塩見, 飯尾, 吉野, 大西オーガナイズド・セッション解説 :「人と共生するロボットの対話知能とソーシャルタッチ」 他 2023),当該研究では, 多数のロボットが謝罪する効果について, 文化的な差異(日本とアメリカ)がどのように影響するかを調査している,比較実験の結果,複数のロボットによる謝罪が日本およびアメリカの両方で有効であることが示されるとともに, 日本では向上していたロボットに対する信頼がアメリカでは観察されないことも報告された. 3 件目の発表は, 市倉らによる「共食対話ロボットとの積極関与行動と体験回想手紙による親密性効果検証」である(市倉他 2023)。当該研究では,ロボットと参加者の共同体験の場を設け,対話や触れ合いなどの関わりを含む共食や共同体験に基づく手紙の提示効果を検証している.実験の結果,共有した体験に関する情報を記載した手紙を提示することで,対話場面より共食場面がより印象に残ることが示された。 4 件目の発表は,澤田らによる「自己有用感向上を目指した共食ロボットへの対話世話行動の実装と評価」である(澤田他 2023),当該研究では,ロボットへの対話世話行動による自己有用感への影響を検証している。実験結果は定量的な有意差を示してはいなかったものの,自由記述からはロボットに対する対話世話行動インタラクションが参加者の印象に残る傾向が示され,対話世話行動が関係性構築や自己有用感向上に寄与する可能性が示唆された. ## 5 おわりに 本稿では, オーガナイズド・セッション「人と共生するロボットの対話知能とソーシャルタッチ」の解説を行った,身体を持ち我々人間と時空間を共有するロボットは,その身体によって自然言語の意味を強化・抑制・変容させる表現が可能である.それは,単に発話中にジェスチャをするといったことだけではなく,もっと豊かで複雑なインタラクションの実現につながる. 対話知能とソーシャルタッチの文脈で鑑みれば,例えば,カウンセリングの文脈でロボットが人間の話を聞く時,ただ相槌をうつのではなく,相手の身体に優しく触れることで,相手の話をより引き出せる可能性がある,ロボットが客に商品の説明をするとき,その客に一直線に向かう場合と,他の客を気にして大回りする場合では,ロボットがその客をどれだけ優先しようとしているかの印象が大きく変化しうる。他にも,ロボットが複数体存在する場合,人間の発話に対してロボットがお互いに見合わせるような動作をすると,その後のロボットの発話が全く同じだったとしても,人間はロボット達から疎外されているような印象を受ける可能性がある.このような, 具体的には言語化されていないものの, 人間が本能的もしくは社会規範的に暗黙のうちに行っている振る舞いを生成する方法については, 現状では未知の段階である. 人と共生するロボットの対話知能実現という大きな課題に関して, 自然言語処理の研究者とロボット工学の研究者, インタラクションの研究者が連携し, その技術や知見と融合することによって,達成に近づけるものと確信している。本稿が今後ロボット研究と言語処理研究の融合に取り組む研究者諸氏の参考となれば幸いである. ## 謝 辞 本研究の一部は, JSPS 科研費 JP19H05691, JP22H04873 およびJST, CREST, JPMJCR18A の助成を受けたものです. ## 参考文献 秋吉拓斗, 住岡英信, 中西惇也, 加藤博一, 塩見昌裕 (2023). 触れ合い対話を伴うカウンセリングロボット実現に向けた撫で・听動作のモデル化. 第 41 回日本ロボット学会学術講演会, 2F2-02. [T. Akiyashi et al. (2023). Fureai Taiwa wo Tomonau Kaunseringu Robotto Jitsugen ni muketa Nade $\cdot$ Tataki Dosa no Moderuka. The 41st Annual Conference of the Robotics Society of Japan, 2F2-02.] 後藤駿太, 飯尾尊優, 住岡英信, 塩見昌裕 (2023). 慣性情報を用いたあやし動作識別技術の提案. 第 41 回日本ロボット学会学術講演会, 2F2-05. [S. Goto et al. (2023). Kansei Joho wo Mochiita Ayashi Dosa Shikibetsu Gijutsu no Teian. The 41st Annual Conference of the Robotics Society of Japan, 2F2-05.] Ahmad Huthaifa, Garcia Contreras Angel, 河野誠也, Liu Chaoran, 湯口彰重, 薗頭元春, 川西康友,石井カルロス寿憲, 港隆史, 中村泰, 吉野幸一郎, Ruuska Heikki, 斉藤康己, 美濃導彦 (2023).生活空間を周回し自発的にユーザ補助を行う自律型対話ロボット.第 41 回日本ロボット学会学術講演会, 2F1-06. [A. Huthaifa et al. (2023). Seikatsu Kukan wo Shukai shi Jihatsuteki ni Yuza Hojo wo Okonau Jiritsugata Taiwa Robotto. The 41st Annual Conference of the Robotics Society of Japan, 2F1-06.] 市倉愛子, 澤田智佳, 岩田有季奈, 矢野倉伊織, 岡田慧, 稲葉雅幸 (2023). 共食対話ロボットとの積極関与行動と体験回想手紙による親密性効果検証. 第 41 回日本ロボット学会学術講演会, 2F3-03. [A. Ichikura et al. (2023). Kyoshoku Taiwa Robotto tono Sekkyoku Kanyo Kodo to Taiken Kaiso Tegami niyoru Shimmitsusei Koka Kensho. The 41st Annual Conference of the Robotics Society of Japan, 2F3-03.] 木本充彦, 上川透磨, 飯尾尊優, 下原勝憲, 塩見昌裕 (2023). 対話ロボットのための他者優先度を考慮した経路計画の検討. 第 41 回日本ロボット学会学術講演会, 2F1-05. [M. Kimoto et al. (2023). Taiwa Robotto notameno Tasha Yusendo wo Koryo shita Keiro Keikaku no Kento. The 41st Annual Conference of the Robotics Society of Japan, 2F1-05.] 木本充彦, 塩見昌裕 (2023). VR 空間における接触前 Proxemicsの調査:外見と性別の影響.第 41 回日本ロボット学会学術講演会, 2F2-04. [M. Kimoto and M. Shiomi (2023). VR Kukan ni okeru Sesshokumae Proxemics no Chosa: Gaiken to Seibetsu no Eikyo. The 41st Annual 塩見,飯尾,吉野,大西オーガナイズド・セッション解説:「人と共生するロボットの対話知能とソーシャルタッチ」 Conference of the Robotics Society of Japan, 2F2-04.] 呉羽真 (2023). ロボットで社会を摇さぶる〈クリティカル・ロボティクス〉. 第 41 回日本ロボット学会学術講演会, 2F3-01. [K. Kureha (2023). Robotto de Shakai wo Yusaburu $<$ Kuriteikaru$\cdot$ Roboteikusu>. The 41st Annual Conference of the Robotics Society of Japan, 2F3-01.] Dario Alfonso Cuello Mejia, 塩見昌裕, 住岡英信, 石黒浩 (2023). 全身タッチセンサを用いた接触動作認識. 第 41 回日本ロボット学会学術講演会, 2F2-03. [D. A. C. Mejia et al. (2023). Zenshin Tacchisensa wo Mochiita Sesshoku Dosa Ninshiki. The 41st Annual Conference of the Robotics Society of Japan, 2F2-03.] 名取大雅, 川田恵, 飯尾尊優, 石黒浩, 吉川雄一郎 (2023). 1 台で複数のキャラクターを表現する対話ロボットを用いた疑似三者対話の実現について.第 41 回日本ロボット学会学術講演会, 2F1-01. [T. Natori et al. (2023). Ichidai de Fukusu no Kyarakuta wo Hyogen suru Taiwa Robotto wo Mochiita Ruiji Sansha Taiwa no Jitsugen ni tsuite. The 41st Annual Conference of the Robotics Society of Japan, 2F1-01.] 能澤伶奈, Hu Hengqiu, 吉川雄一郎, 酒井和紀, 岩田健輔, 青木達哉, 長井隆行, 石黒浩 (2023). STAR WARS Model : 失敗が許容され易い説明のためのマルチロボット対話モデルの実験. 第 41 回日本ロボット学会学術講演会, 2F1-02. [R. Nozawa, et al. (2023). Shippai ga Kyoyo Sareyasui Setsumei no tameno Maruchi Robotto Taiwa Moderu no Jikken. The 41st Annual Conference of the Robotics Society of Japan, 2F1-02.] 奥田にいな, 田矢奈実香, 飯尾尊優, 港隆史, 安藤健, 今岡紀章, 鈴木聡, 高橋雄介, 岩井律子, 熊田孝恒 (2023). ロボットとの物理空間上における伝言ゲーム課題の提案に向けたシステムの開発. 第 41 回日本ロボット学会学術講演会, 2F1-04. [N. Okuda et al. (2023). Robotto tono Butsuri Kukanjo ni okeru Dengon Gemu Kadai no Teian ni muketa Shisutemu no Kaihatsu. The 41st Annual Conference of the Robotics Society of Japan, 2F1-04.]酒井和紀, 吉川雄一郎, 新保史生, 石黒浩 (2023). ロボットによる個人情報の取得同意説明のフィー ルド実験. 第 41 回日本ロボット学会学術講演会, 2F1-03. [K. Sakai et al. (2023). Robotto niyoru Kojin Joho no Shutoku Doi Setsumei no Firudo Jikken. The 41st Annual Conference of the Robotics Society of Japan, 2F1-03.] 澤田智佳, 岩田有季奈, 市倉愛子, 矢野倉伊織, 岡田慧, 稲葉雅幸 (2023). 自己有用感向上を目指した共食ロボットへの対話世話行動の実装と評価. 第 41 回日本ロボット学会学術講演会, 2F3-04. [T. Sawada et al. (2023). Jiko Yuyokan Kojo wo Mezashita Kyoshoku Robotto heno Taiwa Sewa Kodo no Jisso to Hyoka. The 41st Annual Conference of the Robotics Society of Japan, 2F3-04.] 塩見昌裕, 平山太一, 岡田優花, 木本充彦, 飯尾尊優, 下原勝憲 (2023). 複数台ロボットの謝罪における文化差の調査. 第 41 回日本ロボット学会学術講演会, 2F3-02. [M. Shiomi et al. (2023). Fukusudai Robotto no Shazai ni okeru Bunkasa no Chosa. The 41st Annual Conference of the Robotics Society of Japan, 2F3-02.] 住岡英信 (2023). 人とロボットの触れ合いがもたらす影響について.第 41 回日本ロボット学会学術講演会, 2F2-01. [H. Sumioka (2023). Hito to Robotto no Fureai ga Motarasu Eikyo ni tsuite. The 41st Annual Conference of the Robotics Society of Japan, 2F2-01.] ## 略歴 塩見昌裕:国際電気通信基礎技術研究所室長. 飯尾尊優:同志社大学准教授. 吉野幸一郎:理化学研究所チームリーダー. 大西裕也:国際電気通信基礎技術研究所研究員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 言語資源ワークショップ 2023 開催報告 川端良子† ## 1 はじめに 「言語資源ワークショップ $(\mathrm{LRW})\rfloor^{1}$ は,言語資源に関わる幅広い研究を一般公募し,開かれた形で研究交流の場を設けることを目的に国立国語研究所・言語資源開発センターが年 1 回開催している研究集会である。言語データを用いた研究成果だけでなく,言語資源の設計・構築や関連ツール・要素技術に関する研究も対象とされている点に特色がある.以下のような発表を募集している ${ }^{2}$. ・ 構築中あるいは構築予定の言語資源の紹介 ・言語資源の収集や整理に関する発表 ・メタデータやアノテーションの設計に関する発表 - 言語資源を使った準備的, 基礎的, 応用的研究 $\cdot$ 言語教育,辞書編纂などへの活用に関する発表 本稿は, 言語資源ワークショップにまだ参加したことがない方に向けて「言語資源ワークショップ 2023 (LRW2023)」の内容を紹介し, 本ワークショップを知っていただくことを目的としたい. ## 2 言語資源ワークショップ 2023 (LRW2023) について ## 2.1 概要 LRW2023 は,国立国語研究所・言語資源開発センター主催,国立情報学研究所後援で 2023 年 8 月 29 日(月)と 30 日(火)の 2 日間にオンラインで開催された ${ }^{3}$. 発表と質疑応答は, Web 会議システム Zoom ${ }^{4}$ を用いて行い,発表時間外の質問や情報交換を行う手段として Slack ${ }^{5}$ のワークスペースを設けた,発表件数は,口頭発表が 15 件,ポスター発表が 28 件,招待講演が 2 件であった。ワークショップ参加者の人数は, 事前参加申込数が 294 名であり,当日の Zoom ^{1}$ https://clrd.ninjal.ac.jp/lrw2023.html 英語名は Language Resources Workshop. 2 以下は例にすぎず,これら以外の発表も歓迎している ${ }^{3}$ LRW2023 は, 言語資源ワークショップ 2023 実行委員(委員長:高田智和, 浅原正幸, 大村舞, 柏野和佳子, 川端良子, 中川奈津子) によって運営された。 4 https://explore.zoom.us/ja/products/meetings/ 5 https://slack.com } 会場への参加数は 1 日目が 225 人, 2 日目は 247 人であった. ## 2.2 研究発表 研究発表の形式は「口頭発表」と「ポスター発表」の 2 つがあり, どちらの形式で発表を行う場合でも発表申し込み時に使用した言語資源の名称を記載していただている.LRW2023 の発表申込時に記載された言語資源の一覧とその発表件数を表 1 に示す。全部で 45 種類の言語資源が使用されていた。口頭発表とポスター発表を合わせた 43 件より種類が多く,多様な言語資源を用いた発表が行われていたことがわかる,例年,言語学,日本語学,日本語教育,工学・情報学などの分野の発表がなされるが,2023 年度は特に小中学校の文集や教科書(表 1 No. 23, 34, $36,38 ) を$ 用いた国語教育・学校教育分野の発表が増えた印象を受けた。言語資源の構築に関する発表では, 複数の方言や言語が収録された言語資源(No. $26,29,32,37 )$ の発表が目立った. 発表形式に関わらず提出された論文 6 は, ワークショップ開催後に国立国語研究所学術情報リポジトリ7に登録され,DOI を付与して公開される予定になっている。ご関心のある方はぜひチェックしていただきたい. ## 2.3 招待講演 本ワークショップでは,言語資源研究に関わる方をお招きして招待講演を実施してきた. LRW2023 は, 国立情報学研究所 (NII) の大須賀智子先生と国際基督教大学の李勝勲先生のお二方による招待講演を実施した。 大須賀智子先生には「国立情報学研究所における言語資源共有の取り組み」というタイトルでご講演いただた.大学共同利用機関として個々の研究者や大学では整備できない研究環境や資源を構築・提供している $\mathrm{IDR}^{8}, \mathrm{SRC}^{9}$ の取り組みと研究用データを作成する際の留意点について情報を整理してわかりやすく教えていたたいた,今後,言語資源を利用したり,構築しようとする研究者にとって不可欠な知識とされるであろう内容であった. 李勝勲先生には “Building collaborative language resources with and for language communities" というタイトルでご講演いただいた。李先生が代表者として構築されたデジタルアーカイブである NYDA (Lee and Kurabe 2022) と BantuDArc (Lee and Shinaga 2022)をご紹介いただき,話者や研究者コミュニティと共同で言語資源を作成することの必要性, および課題について教えていただいた。少数言語・危機言語資料のアーカイブ化における最前線の取り組みに関する情報を共有していたたきき非常に刺激を受けた。 ^{6}$ LRW2023では, 口頭発表は原稿の提出が必須であったが,ポスター発表は原稿の提出が任意であった. 7 https://repository.ninjal.ac.jp/ 8 https://www.nii.ac.jp/dsc/idr/ 9 https://research.nii.ac.jp/src/index.html } 表 1 言語資源ワークショップ 2023 の発表で使用された言語資源の一覧 ## 2.4 若手研究者の表彰制度 本ワークショップは若手研究者への研究発表の奨励のため, 筆頭者が学生の発表を対象に「優秀発表賞」を授与している。2 2023 年度は 10 件の発表が受賞候補になり,その中から選ばれたのは兵庫教育大学所属の渡邊幸佑さんの発表であった (渡邊 2023). 文章の要旨を把握するための重要文の正解データセットを国語教科書の説明的文章で作成したという報告で, 国語教育だけでなく自然言語処理分野への貢献も期待される内容であった. 渡邊さんには賞状と, 本年は副賞として国立国語研究所の有償コーパスのライセンスが贈られた。本ワークショップは, 複数の観点から有益なコメントが得られるという魅力もある。若手研究者の方には, 研究を推進するためにぜひ本ワークショップを活用してほしい. ## 3 ワークショップのこれまでと今後 言語資源ワークショップは, 2011 年度から 2015 年度まで年 2 回開催された「コーパス日本語学ワークショップ」10, 2016 年度から 2021 年度まで年 1 回開催された「言語資源活用ワークショップ」の後継である.「コーパス日本語学ワークショップ」は, 国立国語研究所の基幹型共同研究プロジェクト「コーパス日本語学の創成」(前川 2009)の活動の一部として開催されてきた. プロジェクトやワークショップの名称が示すように,コーパスを活用した日本語研究の推進を目指したものであった. プロジェクト終了後の 2016 年度からは, 後継の「言語資源活用ワークショップ」を開催し,コーパスだけではなくの関連ツール等を含めた言語資源の先進的な活用事例を紹介する場を提供することを目指した。 2022 年度からは,国立国語研究所の第 4 期の統合テーマ「開かれた言語資源による日本語の実証的・応用的研究」に基づき,言語資源の利活用はもとより,言語資源の構築や共有のための情報や知識を提供する場となることを目指し,名称から「活用」の文字を除いた「言語資源ワークショップ」を開催している. 2016 年以降のワークショップの開催形式と参加者・発表者の人数を表 2 に示す. 2020 年度からオンラインで開催しており,おそらくその影響により国外機関所属の方の参加申込が増えている. 2023 年度は開催形式を対面に戻す研究集会も増える中, 本ワークショップはオンライン開催を行った,今年は,日本語以外の言語を扱った発表もあり, 国外の方でも参加しやすい才ンライン形式の利点が活きた会であったと感じた. アンケートにもオンライン開催を希望する意見が多く, 来年の LRW2024 もオンライン開催を予定している。一方で, ポスター発表は対面開催を希望する意見があり,オンラインでも意見交換等がしやすくなる工夫が必要であることがわかった.今年は国立情報学研究所 (NII)の後援をいただいた。来年度以降も NII やその他の団体と協力し, 言語資源研究を支えるような交流の場を提供できるよう努めていきたい.  表 28 年間の開催形式と参加者・発表件数. オンライン形式の参加者数は事前参加申迄数を表す. ## 謝 辞 本ワークショップでご発表して下さった皆様, ご参加して下さった皆様に深く感謝いたします。また, 昨年度まで言語資源開発センター長で国立国語研究所名誉教授の山崎誠氏に深く感謝します. ## 参考文献 Lee, S. J. and Kurabe, K. (2022). "Nuosu Yi Digital Archive (NYDA)." Digital collection managed by Information Resources Center at Research Institute for Languages and Cultures of Asia and Africa, Tokyo University of Foreign Studies. https://nyda.aa-ken.jp. Lee, S. J. and Shinaga, D. (2022). "Bantu Language Digital Archive (BantuDArc)." Digital collection managed by Information Resources Center at Research Institute for Languages and Cultures of Asia and Africa, Tokyo University of Foreign Studies. https://BantuDArc. aa-ken.jp. 前川喜久雄 (2009).コーパス日本語学の創成. https://www.ninjal.ac.jp/research/ cr-project/project/a/sousei/ [K. Maekawa (2009). Foundations of Corpus Japanese Linguistics. https://www.ninjal.ac.jp/english/research/cr-project/project/a/sousei/.]. 渡邊幸佑 (2023). 説明的文章の要点把握のための読解方法の有効性評価に用いる正解文データセット (CAKeS) の作成. 言語資源ワークショップ発表論文集 (in press) [K. Watanabe (2023). Correct Answer Key Sentences Dataset for Evaluating Reading Methods for Extracting Key Sentences of Explanatory Texts. Proceedings of the Language Resources Workshop 2023 (in press).]. ## 略歴 川端良子: 千葉大学大学院融合科学研究科博士後期課程修了. 現在, 国立国語研究所言語資源開発センター特任助教、コーパスを用いて, 人同士の共同的活動における言語使用の役割や規則について研究を行っている. 博士 (学術).
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 留学支援交流会 2023 須藤 克仁 $^{\dagger} \cdot$ 坂口 慶祐 ${ }^{\dagger} \cdot$ 大関 洋平 ## 1 はじめに 言語処理学会では学会創立 30 周年記念事業の一つとして, 海外の大学・大学院への留学支援を計画している,筆者らは実行委員として支援の仕組みを検討するとともに,今後留学を志す方々に向けた留学経験者との交流の機会を提供し, 留学を具体的に考える契機としてもらうベく活動している.自然言語処理の研究はもち万ん日本国内でも盛んに行われているが,海外のトップランナーのところで研究をしたい, 将来海外で活動するために海外で学位を取りたい,等の理由で海外の大学・大学院に挑戦する方々も存在する.しかし実際に海外の大学・大学院に出願し,入試を突破し,実際に海外で生活・通学するにあたっての様々な情報を得ることは個人レベルでは容易でなく,様々な人脈を辿っていくことになるはずで,身近にロールモデルとなる人がいない場合には大きな困難を伴うことが予想される,我々の活動の目的は,そうした方々に対して現在日本の自然言語処理業界で活躍されている留学経験者が体験談や助言を提供するとともに相談相手になってもらうこと,また志を同じくする方々との横の繋がりを作ること,そしていずれは支援を受けた方々が新たな留学経験者として次の世代の挑戦を支援するというサイクルを作ること, である. 30 周年記念事業は一過性の活動ではなく, この先の 10 年 20 年の日本国内に留まらない自然言語処理の発展に結びつくものであるべきと考えている。そこで本活動では,海外で活躍する人材や日本国内と海外の架け橋となる人材の継続的な育成と,長期的かつ幅広い人脈・コミュニティの形成に本施策が貢献できることを目指している. 2023 年 3 月に行われた第 29 回年次大会では, 留学支援事業の始動と今後の方向性について説明し,また留学を希望する方々からのご意見を伺う機会として短時間の説明会を開催した。説明会は年次大会中の短時間に過ぎなかったこともあり一方的かつ簡単な説明にならざるを得なかったため, 2023 年 8 月 29 日に留学支援交流会と題したイベントを開催した. 本記事では, 交流会に参加が叶わなかった方々にも可能な限り情報を共有するとともに, 言語処理学会会員の皆様から今後の留学支援の活動に対するご理解・ご支援を得ることを目的に,交流会の内容について報告する。  ## 2 交流会の内容 ## 2.1 私の留学経験から(坂口) 一人目の講演者である東北大学の坂口は, 2005-2006 年に英国エセックス大学修士課程, 20132018 年に米国ジョンズ・ホプキンズ大学博士課程での留学経験がある。今回の交流会では「私の留学経験から」と題して, (1) 出願準備から合格までの流れ, (2) アメリカの大学院の選考プロセスについて, (3) 留学生活に向けた準備, (4) 大学院留学生活の Tips, (5) 海外留学の strengths and weaknesses についての説明を行った. 出願準備にあたって重要なこととして, 大学のプログラムや, 希望する先生の研究テーマに加えて, 人柄や面倒見の良さ, 予算獲得状況 ${ }^{1}$, 大学が大都市圏にあるのか郊外にあるのか, 街の治安,といった「情報収集」を挙げた。これを個人で行うのはもちろん大変である.中国やインド,韓国といった国に目を向けると,留学生と留学希望者がコミュニティを形成し情報交換(や共同研究)をすることで,さらに多くの留学生を輩出し続けている.日本でもそういったコミュニティはいくつか存在するが,規模の面からもまだまだ小さく,将来的に留学支援交流会がこのような情報交換の場になり,日本からの留学生の増加,情報交換のさらなる活性化といった好循環をつくりだすことを期待する。 選考プロセスでは「コネクション」が重要になる。コネクションというと日本では公平性の観点からネガティブな印象があるが,アメリカでは大学院留学に限らず就職活動においても「試験のスコアや論文数の多少の差」より「信用・信頼できるかどうか」や「一緒に研究したいかどうか」といった面が非常に大切にされている 2 .こういった信頼関係というのは一朝一夕に作られるものではない. インターンや visiting 等を申し込んで(留学希望先の先生と)共同研究を通して自分を売り込むことでoffer を獲得したというケースもある。もちろん,そもそもそういう受け入れをしていない先生も多いため, 次に重要になるのは留学希望先の先生が信頼している人からの「推薦状」である。そして,その推薦状についても内容は具体的であるほど良く,出願者と推薦者の共著論文について出願者の具体的な貢献(や取り組む姿勢)が書かれていると,他の候補者との差別化にもなり, 良い印象となる。これは留学希望先の先生と推薦者のコネクションだけでなく, 出願者と推薦者の「コネクション」も問われていることに他ならない3 これは大学院留学に限った話ではないが,博士課程は短くても 3 年(アメリカでは 5 年)以上の長いプロジェクトであり, 学生と教員の相性(研究テーマや考え方, 性格など)が, 成否を分けるといっても過言ではない.もちろん事前にはわからないことも多いが,これもまた「情報収集」することによってある程度は把握できるだろう.  ## 2.2 留学のメリットと留学支援の必要性(大関) 二人目の講演者である東京大学の大関は,2012-2013 年に米国マサチューセッツ大学アマー スト校で訪問学生, 2013-2018 年に米国ニューヨーク大学で Ph.D. を取得した留学経験がある.講演では,まず留学経験を中心に簡単な自己紹介をした後で,前半では(留学支援交流会の参加者は既に理解しているかもしれないが)留学のメリットおよび留学支援の必要性について概観し, 後半では大学・出願・生活・学位・就職について留学チュートリアルを行った. 留学のメリットには, 大別して三つ存在すると考えられる。一つ目は, 日本における所謂「縦割り」の文系・理系的なトレーニングでは無く,「横割り」の分野横断的なトレーニングが受けられることである. 特に, 欧米の大学院では, 学科を横断して授業を履修するのが一般的であり, コンピュータ科学やデータ科学の学科に所属しながら, 言語学・心理学・脳科学・哲学など学際的なトレーニングを受けることが可能である. 二つ目は, 世界の第一線で活躍している研究者がアドバイザー・先生・同期・先輩・後輩だったりと,国際的なネットワークを形成できることである.例えば,講演者の大関が Ph.D. を取得したニューヨーク大学では, 自然言語処理の Sam Bowman 氏や Tal Linzen 氏, 機械学習の Yann LeCun 氏や Kyunghyun Cho 氏, 認知科学の Gary Marcus 氏など世界的に著名な研究者が揃っており, Tal Linzen 氏が研究室の先輩, Meta の Adina Williams 氏が学科の同期であるなど,日常的に知的な刺激を受けられる環境が整っている。三つ目は,大学院生は博士課程に合格さえすれば,入学金・授業料なしで給料を貪いながら,新進気鋭の研究者としてリクルートされることである.具体的には,博士課程に合格するとオープンハウスと呼ばれるイベントに招待され,アドバイザー候補とミーティングしたり, 現役の大学院生と交流したりする機会が与えられ, 受動的に指導を受ける大学院生では無く, 独立した研究者として能動的に大学院を選択することが出来る. 加えて, サッカーや野球の様なスポーツで言うところの「海外組」みたいでカッコいいという純粋な動機もあるかもしれない. しかしながら, 留学に興味を持ち, 実際に留学しようとしても, 様々な問題・懸念をクリアしなければならない。例えば,(1) どの大学に行けば良いのか分からない(大学について),(2) どうやって出願すれば良いのか分からない(出願について),(3) お金が無い(生活について), (4) どうやって学位が取れるのか分からない(学位について),(5) 留学後のキャリアが心配(就職について)など様々な問題・懸念に直面するかもしれない. そこで,これらの問題・懸念を解決するために留学支援が必要なのである. まず,大学については,複数の大学院に出願するのが一般的であり, 合格と不合格に加えて, ウェイトリストで待機,オープンハウスへ招待など様々な結果がある(ちなみに,講演者の大関は合格 2 校, ウェイトリスト 1 校, オープンハウス 1 校, 不合格 3 校であった)。また, 出願については, 一般的に履歴書 (curriculum vitae), 成績証明書 (transcript), 志望理由 (statement of purpose), 論文 (research sample) $\times 1$, 推薦書 $($ recommendation letter $) \times 3$, TOEFL スコア (約 100 点), GRE スコア(通説では数学だけ出来れば OK)を提出する必要があり, 特に志望理由,論文,推薦書は合否に直結する重要な書類である。更に,生活については,博士課程に合格さえすれば,パッケージとして大学・大学院・学科・研究室など様々なレベルから内部奨学金を貪うことが一般的だが,(業績になるため)フルブライト奖学金やロータリー財団奖学金などの外部奨学金に申請することや,(教歴・職歴になるため)ティーチングアシスタント (TA)・ リサーチアシスタント (RA)をすることがお薦めであるし, 言語処理学会の様な学会から何らかの経済的支援が得られる可能性もあるかもしれない,加えて,学位については,一般的に博士課程は 5 年間のプログラムであり,1年目にコースワーク (必修授業の履修), 2 年目に資格論文 (qualifying paper) 1 本目, 3 年目に資格論文 2 本目, 4 年目に博士論文計画書 (dissertation proposal)を提出し,5 年目に博士論文 (dissertation)を執筆し晴れて Ph.D. を取得するが,特に 4 年目の博士論文計画書が登竜門である。最後に, 就職については, 留学すると不安視されることがあるが,むしろ国内外のトップ大学, GAFAM 系の一流企業, 大学・企業のポスドクに採用されるケースが多く, 6 年目のみ在学延長するということも可能である. ## 2.3 質疑応答・ディスカッション 坂口・大関両実行委員からの体験談や助言を受けて, 交流会参加者と実行委員を交えた短時間の質疑応答・ディスカッションを行った.話題としては,家族と一緒に海外に生活拠点を移したことによる影響や博士課程学生に対する給付金 (stipend) をもらうことによる確定申告 (tax return) の苦労といった生活に関わるもの, 出願にあたっての推薦書を国際的に著名な指導教員や出願先の教員と知己である研究者から得ることが大事であること, そうした面も含めて様々な面で遠慮なく関係者に「突撃」していくことが求められること,等があった. ## 3 おわりに:留学支援事業の今後 本記事執筆時点では経済支援等より具体的な支援の方法について実行委員で検討中である.今回のような交流会の継続的な実施は新たに自然言語処理を志す方々に機会提供をする上で非常に重要であり, 現在留学中の方々や課程修了された方々へのご協力を仰ぎつつ, 継続実施を計画している.今後の活動については随時学会 Web ページ・メーリングリスト等でご案内する. ## 謝 辞 留学支援説明会および交流会の実施に際してスケジュールや会場の調整でご協力くださった第 29 回年次大会大会委員会・実行委員会の皆様, NLP 若手の会シンポジウム実行委員会の皆様に深く感謝する。また説明会・交流会にご参加いただいた皆様にも感謝の意を表する. ## 略歴 須藤克仁: 奈良先端科学技術大学院大学准教授. 2000 年京都大学工学部卒業, 2002 年京都大学大学院情報学研究科修士課程修了, 同年 NTT 入社. 2015 年京都大学博士 (情報学)。2017 年より現職。機械翻訳を中心とした自然言語処理, 音声言語処理の研究に従事. 言語処理学会, 情報処理学会, 日本音響学会, 人工知能学会, ACL, ISCA 各会員. 坂口慶祐: 東北大学大学院情報科学研究科准教授. 2005 年早稲田大学第一文学部哲学専修卒業. 2006 年英国 University of Essex 心理神経言語学修士課程卒業. 2013 年奈良先端科学技術大学院大学情報科学研究科修士課程卒業. 2018 年米国 Johns Hopkins University にて Ph.D. (Computer Science)を取得. 米国 Allen Institute for Artificial Intelligence (AI2)を経て,2022 年より現職. 大関洋平: 東京大学大学院総合文化研究科講師, 理化学研究所革新知能統合研究センター客員研究員. 2010-2012 年に北海道大学大学院国際広報メディア・観光学院で MA を取得,2012-2013 年にマサチューセッツ大学アマース卜校言語学科で訪問学生, 2013-2018 年にニューヨーク大学言語学科で Ph.D. を取得. 2018-2020 年に早稲田大学理工学術院助教を経て, 2020 年から現職.計算言語学, 認知科学の研究に従事. 永田亮: 甲南大学知能情報学部准教授. 1999 年明治大学理工学部卒業, 2005 年三重大学大学院博士後期課程修了. 兵庫教育大学助手, 甲南大学知能情報学部講師を経て, 2012 年より現職. 言語のモデル化, 文書の自動添削, 解説文の自動生成などの研究に従事. 電子情報通信学会, 言語処理学会, ACL 各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# NLP 若手の会 (YANS) 第 17 回シンポジウム 萩行 正嗣 ## 1 はじめに 本稿では 2022 年 8 月 29 日および 30 日に開催されました, NLP 若手の会(以下 YANS ${ }^{1}$ と表記)第 17 回シンポジウムの内容や運営について,委員長をつとめました萩行が記します。特に第 17 回シンポジウムにおいて,議論の活発化,参加者の交流の促進を目指した様々な施策を中心に記載します. YANS の Web サイトに開催レポート2を掲載しておりますので,そちらもご覧いただれれ゙と思います. YANS の理念や目的, 歴史については人工知能学会誌の記事 (海野他 2017) や過去の自然言語処理の記事 (高瀬 2021a)を参照いただけすと幸いです. ## 2 第 17 回シンポジウム概要 第 17 回シンポジウムでは前回同様に当初からオンライン開催として企画していました. オンサイト開催またはハイブリッド開催の選択肢もありましたが,先が読めない情勢もあり,確実に実施できるオンライン開催を選択しました。オンライン開催についてはここ数年で知見が蓄積され,通常の運営は支障なく行えるようになってきたかと思います.今回の開催では,前回に加えて企画などを充実させ,より参加者に満足してもらえるイベントを目指しました.大きな変化点としては, スポンサー制度の復活,奨励賞の復活,招待セッションの新設が挙げられます。これらを含めた企画の詳細については後述します。参加者は 265 名(学生 168 名, 社会人 97 名), 発表は 68 件(学生 57 件, 社会人 11 件)でした. 4 企業にスポンサーとして支援をいただきました.参加者は前回の 221 名を上回りました.第 17 回シンポジウムでは,ポスター 発表のセッションには Gather (gather.town)を利用し,それ以外のセッションでは zoom を利用しました。また,参加者間の交流のためにチャットッールとして slackを利用しました. ## 3 ポスター発表 YANS シンポジウムでは主に萌芽的な研究の発表を募集しています。このため,議論のしや ^{1}$ Young Researcher Association for NLP Studies 2 https://yans.anlp.jp/entry/yans2022report 以降,開催レポートと記載している場合,このサイトを指します. } すいと思われるポスター発表の形式を採用してきました。オンライン開催では前回から Gather を利用してポスター発表を実施しています。学会のポスター発表だけでなく, 各種オンラインイベントでも Gatherを利用することが多いため, 参加者も特に混乱することなくGather でポスター発表に参加できていたと思います。ポスターは 1 枚の画像ファイルを事前に提出してもらい,運営委員で会場に事前に設置する形式としました.YANS のポスター発表は学会発表経験が少ない方が経験を積むという側面もあると思うので, 関連する学会の動向を見ながら次回以降の実施手法は検討していきます. 今回はポスター発表を対象に,奨励賞およびスポンサー賞の授与を行いました.奨励賞はこれから始まる,または始まったばかりの研究を奨励することを趣旨とし,現時点での完成度よりもアイデアの面白さや将来性への期待を重視した賞になります. 奨励賞は参加者による投票をもとに,表彰担当者による合議によって 10 件を選出しました,スポンサー賞はプラチナスポンサー各社が独立に選考し,各社の社名を表した賞となります。スポンサーによる独自の視点での選出になり, 選出理由の発表と合わせて, 学生参加者に NLP の実応用への期待を感じてもらえたのではないでしょうか. 受賞者の一覧は開催レポートに記載しています. ## 4 チュートリアル 前回と同様にチュートリアルを実施しました.YANSには NLP を始めたばかりの方も多く, NLP およびその周辺分野について知る機会としてチュートリアルを企画しています。今回のチュートリアルでは同志社大学の桂井麻里衣氏, 名古屋大学の東中竜一郎氏に講演いただきました.桂井麻里衣氏の講演「学術情報検索と推薦」では,学術論文を対象にした検索や推薦の手法について,幅広くお話いただきました。東中竜一郎氏の講演「対話システムのすすめ」では,対話システムについて「対話システム」の定義から, 実際の手法, そして将来の展望までをお話いただきました。どちらの講演も開催レポートに資料を掲載していますので,ご参照いただければと思います。 ## 5 招待セッション 招待セッションは今回から新規に実施した企画になります. 博士号取得から数年の若手研究者にご自身の研究について発表いたたきました. 特に学生にとって, 先輩研究者の発表や研究姿勢などから学ぶ機会となってくれれば幸いです. 今回は Microsoft の江里口瑛子氏, Megagon Labs の磯颯氏, 産業技術総合研究所の渡邊研斗氏, 奈良先端科学技術大学院大学の上垣外英剛氏に発表していただきました. これらの発表資料についても開催レポートに掲載しています。江里口氏,磯氏はアメリカから発表していたた きました。海外で活躍する研究者の話を聞けるのもオンラインならではのいい機会だったと思います. ## 6 ハッカソン 共同作業を通じて参加者間で交流を行いながら研究開発を学んでもらう機会として今回もハッカソンを開催しました。前回と同様に,シンポジウムへの参加登録時にハッカソンへの参加を希望された方について, 研究開発の経験年数などを考慮して, 運営委員でチーム編成を決定しました。日程はシンポジウム前の約 2 週間の期間とし, 最終結果および発表スライドの提出はシンポジウム前日を締め切りとしました。この日程は, ハッカソン参加者がシンポジウムの発表に集中できることを意図して設定しています。期間が長いことでNLP の初心者でも経験者から色々なことを教わる時間がとれるといった効果もあると思います. 今回から取り組んだ施策としてはハッカソンスポンサーがあります。今回は,アマゾンウェブサービスジャパン合同会社様にご協力をいただき, EC サイト Amazon のレビューデータをタスク用のデータセットとして提供していただくとともに, Amazon SageMaker Studio Lab の環境および操作のチュートリアルを実施いただきました。また,その他スポンサー企業からいただいたスポンサー費用で参加者に対して計算機環境の支援を実施しました.計算機環境の支援については, 研究室等の計算機資源が利用できない参加者向け支援だけでなく, 統一した計算機環境で精度を比較することができるという点でも有効であったと思います。ハッカソンの詳細, 最終結果および各チームの発表内容は開催レポートに掲載しています. ## 7 スポンサー制度 オンライン開催にあたって中止していたスポンサー制度を復活しました。 プラチナスポンサー として, 株式会社サイバーエージェント様, 株式会社 PKSHA Technology 様, シルバースポンサーとしてファーストアカウンティング株式会社様, ハッカソンスポンサーとしてアマゾンウェブサービスジャパン合同会社様にご協力をいたたきました. 今回,スポンサー制度を再開するにいたった理由について記載しておきます. YANS はその理念から若い参加者を広く募集しており,金銭面でも参加しやすいようにスポンサー費用による開催費用の充当, 参加費の支援などを実施していました.しかし,コロナ禍におけるオンライン開催では,合宿形式などと比べると必要な経費が少なく,参加費を安く抑えても開催費用を賄うことができていました。このため,前々回,前回はスポンサーの募集を実施しませんでした. 急遽, オンラインへと切り替えた前々回と異なり, 前回, 今回はオンライン前提での開催であり,オンライン開催でも盛り上がるよう様々な企画を実施しました. 今回は企画内容を より充実させるため企画にあたって必要になる経費の一部をスポンサー費用によって充当させていたたきました。 上記の金銭的な理由以上に,産学交流の促進もスポンサー制度復活の大きな理由になります. YANS のスポンサー企業は, NLP の技術に関心があり, NLP 分野の学生を採用したいと考えている企業が多く,そのような企業の存在を知ることは,NLP 分野の学生が自身のキャリアを考えるうえで非常に重要だと考えています。また,スポンサー発表は NLP の技術が実社会でどのように活用されているかを知る貴重な機会でもあります。スポンサー制度を通じて,NLP 分野への社会からの期待を参加者に感じてもらえたなら幸いです. 運営委員としてはスポンサーしてくださる企業様にとって,金銭を出していただくだけの価値のあるイベントとする必要性も感じています. 特にオンライン開催ではスポンサーブースにいかに足を運んでもらい,スポンサーの方が参加者と交流できるかが重要だと考えています.今回はスタンプラリー企画を実施し,参加者がスポンサーブースを訪問する動機作りを行うとともに,スポンサーブースをポスターセッション会場に隣接して配置しました。これらの施策が功を奏したのか,スポンサーブースにも多くの参加者が集まったようで,スポンサー企業の方にも満足していただけたのではないかと思います. ## 8 瑟視会 懇親会は前回からオンライン形式で実施しており,トピックごとにブレイクアウトルームで分かれて交流する形式としています。詳細は前回の開催報告 (高瀬 2021b)をご参照ください. 今回は,開催日前日に前夜祭形式で実施しました。懇親会で仲良くなった状態でシンポジウム当日にいどむことで,よりポスターセッションでの質疑などが活発になることを期待しての施策でした.交流のあった参加者同士で自主的な発表練習会を実施したケースなどもあったようで,想像以上に効果があったと感じています。 ## 9 おわりに 本稿では NLP 若手の会第 17 回シンポジウムにおける施策について記しました. 前回からオンライン前提の開催となり,オンラインだから出来ることを含め様々な企画の充実を図ってきました.コミュニケーションに関してはオンラインでは難しいと言われることが多いため,特に力を入れた要素になります。一方で, 運営側が施策として想定していた範囲を越えて, 参加者間の交流が進んだのではないかと思えることも多々ありました. YANS に限らずNLP 分野は非常に幅広い年齢や所属の方が参加している中でも参加者同士が交流しやすい空気があると感じており,今回の自発的な交流が進んたのもこの空気の影響が大きいと考えています。交流が 広く行われ,研究での活発な議論に繋っていることが,NLPコミュニティの魅力であり,若手研究者にとって YANS シンポジウムがその入口の一つとして機能してくれれば幸いです. 今回,スポンサー制度によって,いったん YANS を卒業した年代の方が参加するきっかけにもなったという声もありました. YANS は若手の研究者が主役の会ではありますが,少し上の年代の方とも交流ができることは,学生を中心とした若手の方々にとってもプラスになると思います。今後も若手を中心に様々な立場の参加者が交流できる場として YANS シンポジウムが発展していくことを期待しています. 様々な学会でオンサイトやハイブリッドでの開催が増えてきつつあります. YANS シンポジウムでも次回の開催について, オンサイトを含めて検討しています。オンサイト開催となると,久々のことで苦戦をすることもあると思いますが,YANS シンポジウムの目的に照らして最善を尽くしていくことになると思います. 私自身は YANS 委員長としての任期は今年度いっぱいです. YANS は毎年半数委員が入れ変わり,その開催回によって様相も大きく変わってきます.今後,YANSがどのように変わっていくのか,私自身とても楽しみです. ## 謝 辞 本稿の執筆にあたり, 2022 年度に萩行と共に YANS 委員長を務められた梶原智之さん,顧問を努められた高瀬翔さんに有益な助言をいただきました。 ## 参考文献 高瀬翔 (2021a). NLP 若手の会 (YANS) シンポジウム. 自然言語処理, 28 (1), pp. 253-258. [S. Takase (2021a). Report on the Symposiums of Young Researcher Association for NLP Studies. Journal of Natural Language Processing, 28 (1), pp. 253-258.]. 高瀬翔 (2021b). NLP 若手の会 (YANS) 第 16 回シンポジウムーオンライン開催における施策 について一. 自然言語処理, 28 (4), pp. 1307-1311. [S. Takase (2021b). Report on the 16th Symposiums of Young Researcher Association for NLP Studies. Journal of Natural Language Processing, 28 (4), pp. 1307-1311.]. 海野裕也, 岡崎直観, 西川仁, 中澤敏明 (2017). NLP 若手の会. 人工知能, 32 (2), pp. 266-267. [Y. Unno et al. (2017). Young Researcher Association for NLP Studies. Journal of the Japanese Society for Artificial Intelligence, 32 (2), pp. 266-267.]. ## 略歴 萩行正嗣:(株) ウェザーニューズ. 2014 年京都大学大学院情報学研究科知能情報学専攻博士後期課程了. 博士 (情報学). 同年から現職. 自然言語処理の研究に従事. 言語処理学会会員, 情報処理学会各会員. AI 防災協議会常務理事.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 書籍紹介『IT Text 自然言語処理の基礎」 小田悠介 ${ }^{\dagger, \dagger \dagger}$ ## 1 はじめに 本記事は, 2022 年 8 月 24 日に発売された書籍『IT Text 自然言語処理の基礎』(情報処理学会編,岡崎直観・荒瀬由紀・鈴木潤・鶴岡慶雅・宮尾祐介著, オーム社, ISBN 978-4-274-22900-8) の紹介記事である。本書が出版された時期に本誌編集委員会で話題があり,本記事の著者が紹介記事の作成を承った。 本書は 2022 年時点までの手法的な側面を中心に,自然言語処理関係の技術を広く紹介した教科書として構成されている。自然言語処理における他の主要な教科書と比較して本書に特徵的なのは,一部の章を除く紙面の大半が深層学習に関する内容で構成されている点である。本書中では既存の書籍に記載のない事項を優先したと述べられているが,現時点での自然言語処理を取り巻く状況を鑑みても妥当な構成であると思われる. 本誌の読者はご存知のように, 2022 年時点での自然言語処理技術は,おおよそ 2013 年の Word2Vec の登場を境として, 多数のタスクにおいて深層学習に基づく手法が標準的に採用されるという研究動向の変化が生じている。深層学習が導入されてからの業界の発展は目覚ましく,ほぼ毎月のように新たな手法が登場し,既存の結果を更新するといった様相を呈するまでになった.このように発展の著しい中で,本書以前にも深層学習を中心に据えた日本語書籍は何点か出版されているが,教科書として十分な網羅性を提供するという意味では本書が初であると思われる。 本書の出版時点では,過去に乱立していた数々のモデル構造が実質的に Transformer に統一されるなど,深層学習を用いた手法の整理整頓も進みつつある。こういった状況を俯瞰する点においても,本書は教科書として適した時期に出版されたのではないかと思われる. ただし当然のことながら,本書の出版に前後する時期の話題については取扱われていない点には注意が必要である。たとえば 2022 年の後半には, 自然言語からの高品質な画像生成や, GPT を応用した高機能な対話システムの登場により,技術に直接関わりのない層まで含めて大変な話題になるという現象が発生した。これに関連して,技術的にはマルチモダリティやプロンプトといったトピックでの研究が活発になりつつあるが,これらについての解説は本書全体から  すれば非常に僅かである. ## 2 本書の内容構成 本書の全体的な構成を図 1 に示す。具体的な複数部構成を採用しているわけではないが,本書はおおよそ下記の 4 部で構成されていると考えられる. 基礎知識(1,2 章) 1 章は自然言語処理に関する一般的な用語や概念の説明, 2 章は以後の章で頻出する機械学習に関する基本的な知識の説明となっており, 本書を読み進めるにあたって前提となる知識を復習する章である。記述量の関係上,本章のみでこれらの内容に習熟するのは難しいため, これらについて個別に学習が必要な読者は副読書を用意するのが望ましい.深層学習の要素技術(37章) これらの章では,深層学習(ニューラルネットワーク)に基づく自然言語処理の基本的なモデル構造の解説が行われている。各章の内容は単語ベクトル(3 章), RNN と CNN (4 章), 言語モデルと sequence-to-sequence モデル (5 章), Transformer (6 章), および事前学習と転移学習 ( 7 章) であり, 最近 10 年の自然言語処理の発展をほぼそのまま振り返るような構成となっている。このような都合上,各章は前章までの内容を概ね踏まえて発展させる形の解説となっており,初学者はこの順序のまま読み進めるのが望ましいと思われる。 ## 章の取扱う内容 ## 共通の語彙や概念の説明 線形モデル・ニューラルネットワーク 人手設計の素性関数 $\cdot$ Word2Vec $\cdot$ FastText $\mathrm{RNN} \cdot \mathrm{LSTM} \cdot \mathrm{GRU} \cdot \mathrm{CNN}$ n-gram言語モデル・順方向NNLM・RNNLM $\cdot$ encoder-decoder $\cdot$ attention Transformerの各種構成要素の解説・Transformerモデルの学習方法 GPT $\cdot$ BERT $\cdot$ BART 点予測・CRF 句構造解析 $\cdot$ 依存構造解析 $\cdot$ CKY法 $\cdot$ shift-reduce法 $\cdot$ 全域木法 含意関係認識・述語項構造解析 $\cdot$ CCG 機械翻訳・質問応答・対話システム・自然言語処理の歴史と展望 図 1 書籍『IT Text 自然言語処理の基礎』の構成 自然言語処理固有の要素技術(8~10 章) 自然言語処理の具体的な要素技術である系列ラべリング ( 8 章), 構文解析 $(9$ 章), 意味解析 (10 章) について解説している. これらの章では一転して, 深層学習からはやや独立したタスク固有の解法やデータ構造について詳細に論じられている,他の章とは独立して参照することが可能である一方,論理学やアルゴリズムに関する知識が別途要求される。これらの知識は深層学習と全く無関係というわけではなく, しばしばモデルの設計時に参考にされる場合があり,依然として学習する意義は高いと思われる.例えば 8 章で紹介される点予測は事前学習モデルに結合する出力層として深層学習でも頻繁に用いられるが,本書でも述べられるように点予測には一般的な限界が存在する. こういった特徵を知ることはモデルへの過剰な期待を抑制し,タスクに対して妥当な設計を採用する指針として役立つ. 応用とまとめ(11 章) 最終章である 11 章は応用的なタスクとして機械翻訳・質問応答・対話システムに言及し, この後に自然言語処理分野の歴史と展望に触れて本書のまとめとしている. 11 章で言及されるタスクは自然言語処理でも比較的大きな研究分野として知られるものであるが,本書の全体からすると非常に僅かな分量の解説に留まっており,これらの分野を専門的に学習する必要がある場合は副読書が必須である. ただし, 2014 年の sequence-to-sequence モデルの登場以来, 自然言語処理における深層学習の発展は主に言語モデルや機械翻訳におけるべンチマークを土台として発展してきた経緯があり,捉え方によっては本書自体が機械翻訳に関する最新の解説書であると考えることも可能かもしれない. ## 3 本書の読者層 本書の対象読者で中心となるのは理工系大学院の修士課程程度, ないしそれに準ずる知識を習得済みである者と思われ, 読者には基本的な数学的操作と情報学に明るいことが要求されている. 本書の大半を占める深層学習の解説では, 行列やべクトルに関する演算が特に断りなく頻出する.このため本書でも述べられているとおり, 少なくとも読者は線形代数に習熟している必要がある。また前述のように, 特定の章では論理学やアルゴリズムに関する知識が要求される。 俯瞰的な内容として本書がまとめられている関係上, 本書の内容のみで各分野の専門レベルまで横断的に学習できるようには構成されていない. 不明な点があれば躊躇せず副読書を用意するのが望ましい,以下,読者を何種類かのカテゴリに分けて本書の想定される利用方法を述べる. 専門家読者が既に何らかの自然言語処理の専門家であれば,本書の内容はほぼ既知であると思われる. 分野特有の語彙を他の研究者と共有したり,自身の関与していない領域について復習を行うのに本書は適している。読者の研究分野が本書で紹介されている場合は, 具体的な議 論を行う前の前提知識として本書の各章を参考文献として提示できると思われる. 技術者数式での説明が豊富なため, 一定の計算資源と線形代数に関するプログラミングの経験があれば,本書で紹介されている基本的な手法を手元で試作してみる事は可能と思われる。 ただし,業務で直面するであろう具体的な問題の解き方やプログラミング例は本書では紹介されないため,こういった情報を希望する場合は,本書を踏まえた上で他の技術書を参照する必要がある。 学生・初学者本書の内容は基本的な情報系科目に対する理解を読者に求めているため, これらに詳しくない者が問題なく読み進めるには相応の予習が必要であると思われる.教科書という性質上,個別の概念や問題に関する詳細はある程度省略されており,また実際に研究・開発を遂行するための指南書でもないため,具体的なタスクに取り組むには読者自身による更なる調査と勉学が必要である. 本書によってこの分野の語彙を横断的に習得できるため, 他の研究者や学生と議論を行う際の土台として役立つと思われる. 自然言語処理が専門外の者 1 章, 3 章から 7 章, 11 章のような一般的な内容やニューラルネットワークに着目する章に関しては, 説明や図解等による大雑把な内容の把握もある程度有効である. 特に最近の研究動向に関しては十分に説明されているため, 身近の自然言語処理の専門家がどのような内容について議論しているのかを理解する手がかりとして, 本書を活用することが可能と思われる。たたし,より平易な入門書や技術書と併読することで理解の助けとするのが望ましい. ## 4 本書の利用場面 本書は教科書として構成されているため, 学生や研究者, 従業員の集団に自然言語処理に関する一定の知識を醸成するような取組みで採用するのが適している。大学学部や大学院での講義であれば,本書の内容 1 章をおおよそ 1,2 単元として授業を構成できる。読者に情報学の知識を要求するため, これらの学習が終了している理工系の 3,4 年次以降の科目とするのが適切と思われる。研究室や企業の研究開発チームで輪講を行う際にも本書を活用できる。この際も 1 章あたり 1,2 回の速度で実施するのが適切と思われる。 前述したように,深層学習以後の自然言語処理の進展は非常に高速である一方,技術としては収斂が進みつつある。また本書では各論文固有のモデルについての言及は少なく, 汎用的なモデル構造を紹介する形となっている。これらの観点から, 本書の内容が直ちに陳腐化することは避けられると考えられ,信頼できる教科書として長く使用できるのではないかと思われる。 ## 謝 辞 本記事の執筆にあたり,言語処理学会より当該書籍を提供頂きました。ここにお礼申し上げます. ## 略歴 小田悠介:情報通信研究機構, グーグル合同会社, 株式会社リーガルフォー スを経て, 現在米国 Inspired Cognition, Inc. CTO,および東北大学学術研究員. 自然言語処理関連の研究開発業務に従事. 専門は機械翻訳. 言語処理学会編集委員(2022 年 3 月 ). 修士(工学)(奈良先端大・2015 年).
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 学生・若手研究者のための BERT ワークショップ 中山 功太 ${ }^{\dagger, \dagger \dagger}$ ・渋木 英潔 ${ }^{\dagger \dagger}$ ・関根 聡 $\dagger$ ## 1 はじめに 近年,深層学習を用いた自然言語処理に多くの注目が集まっており,その成果が多く報告されている。それに伴い,社会でも様々なシステムに深層学習を取り入れたいといった欲求が年々強くなっているように感じる. しかし, 深層学習のバックグラウンドには, プログラミングの知識のみでなく, 線形代数や確率, 微分積分といった数学的知識が潜んでおり, これが初学者から敬遠されてしまう要因となっている。一方で,深層学習を取り巻く環境も年々変化しており, Pytorch $^{1}$ や TensorFlow ${ }^{2}$ といった深層学習の技術を容易に扱える Python ライブラリが整備されつつあるため,バックグラウンドを深く理解せずとも深層学習の実装を行うことが可能となつてきている,当然バックグラウンドをしっかりと理解することに越したことはないが,実際に一度タスクを解いてみることはその理解のために非常に重要であり,初学者の心的要因をいくらか軽減できると我々は考えている。 そのため, 我々は初学者へ向けたワークショップを行う機会を設けることとし, 2022 年度には文章分類タスクと固有表現抽出タスクを対象としたワー クショップ行った。ワークショップはタスクごとに前編後編に分け計 4 回行っており, 分類夕スクでは 381 人と 200 人, 固有表現抽出タスクでは 201 人と 99 人の参加登録があった. また,質疑応答に用いたチャットッールの参加人数は 349 人と非常に大盛況であった,我々はワークショップで使用した資料と当日の録画をホームページにて公開している3.本記事では実施したワークショップの解説と報告を行う. ## 2 ワークショップについて ## 2.1 目的 本ワークショップには 2 つの目的がある,前者は,深層学習の更なる普及のため,初学者の助け舟になるような機会を設けること。これは序章で述べた通りである。後者は,我々が主催 ^{1}$ https://pytorch.org 2 https://www.tensorflow.org 3 http://shinra-project.info/bert_workshop_portal/ } している森羅プロジェクト (Sekine et al. 2019) を広めることである. 本プロジェクトは「協働による知識構築」を旗印に 2018 年に発足され, 参加者の力を借りて協働で Wikipedia の構造化を行うといった評価型ワークショップを主催している。これまで Wikipediaの分類, 属性値抽出, 属性值リンキングといった 8 個のタスクが実施され, 国内外の多くの組織や企業が参加している。我々としてはこの機会が森羅プロジェクトやWikipediaの構造化に興味を持つきっかけとなればと考えている。 ## 2.2 対象 本ワークショップの対象は, 深層学習を用いた自然言語処理に取り組みたい学生や研究者,社内システムに当技術を取り入れたい社会人である。空口を広げるため,自然言語処理に対する事前知識を持たない参加者も想定した。より深く内容を理解するためには,プログラミングに関する基礎知識を保持していること,内積と微分をある程度理解していることが好ましいが,配布するスクリプトの要所要所にコメントを記し, 深層学習モデルの解説においてもなるべく数式より図的説明に重点を置くことで,上記の条件を達成せずとも理解できるように務めた. ## 2.3 タスク 本ワークショップにおいて参加者が取り組むタスクを選定する上で以下の 4 点を考慮した. ・ 初学者でも取り組めるような簡単かつシンプルなタスクであること. ・ 計算コストが小さく深層学習モデルの学習が短時間で終わること. ・ 社会的に需要の高いタスクであること。 ・森羅プロジェクトへの関心に繋がるタスクであること。 社会的に需要の高いタスクとして QA タスクや対話タスクも挙げられるが, 初学者にはハードルが高いうえ,学習に時間を要する場合もあるため,今回はカテゴリー分類タスクと固有表現抽出タスクを扱うことした,配布スクリプトを書き換えることで,前者タスクは感情分類などのその他の分類タスクに,後者タスクは固有表現抽出だけでなく情報抽出といったタスク等に応用が可能であるため, 非常に需要が高いと考えている. カテゴリー分類タスク本タスクでは,森羅プロジェクトでも扱っているWikipediaののテゴリー分類に取り組む.参加者は入力としてWikipedia の記事が与えられ,“人名”や “地名”といった拡張固有表現階層 (Sekine et al. 2002) で定義された約 200 件のカテゴリーへの分類を行う.本タスクは 1 つの記事に対して 2 つ以上のカテゴリーが付与される場合があるためやや複雑であるが, 複数力テゴリーが付与される記事が全体の $1 \%$ 未満であることを加味し, これら記事を学習データから除外することで簡易化を図った 4 . 本タスクでは膨大な学習データが存在す  るが, 簡易化のため 5000 件の学習データと, 2000 件の評価データを配布した。評価関数には,森羅プロジェクトと同じマイクロ平均 $\mathrm{F} 1$ 値を採用している. 固有表現抽出タスク本タスクでは, Wikipedia 記事に対する固有表現抽出に取り組む。デー タセットとして, “Wikipediaを用いた日本語の固有表現抽出データセット”(近江 2021) $)^{5}$ 用いる.日本語の固有表現抽出は, 前処理で分割された各単語に対して元の固有表現のスパンを割り当てる必要があり実装がやや煩雑になってしまう,そのため, 配布するスクリプトに細かくコメントを付与することで,前処理部分が参加者の障害にならないよう務めた.本タスクとしては解き方が複数あるが, 最も用いられており且つ実装が容易であるIOB2 夕グの分類形式で解くこととした. 元のデータセットは学習データと評価データが分けられていないため, 我々の手元で分割し参加者に配布した.評価関数には,一般的に用いられている固有表現スパンの完全一致 F1 值を使用した. ## 2.4 深層学習モデル 対象を初学者としているため, 深層学習モデルの選択は非常に重要である。考慮した条件は以下の通りである。 ・社会的に関心の高いモデルであること. ・構造がシンプルであり実装時に扱いやすいモデルであること. ・高い性能を持つモデルであること. 文章生成や系列ラベリングなどに使用される LSTM や Transformer といった生成型のモデルもその性能が評価されているものの, 構造と実装がやや煩雑であるため今回は扱わず,今回のワークショップでは構造の殆どが内積でシンプルに構成されており, 且つ扱いやすいモデルである BERT (Devlin et al. 2019) を対象とした. BERT は, 近年必須となっている事前学習という手法を取り入れており, その性能が評価されている。事前学習とは, Wikipedia やウェブテキストなどの大規模コーパスを用いて深層学習モデルを学習し, 言語共通の大域的特徴を獲得した後, 文書分類や固有表現抽出などの後続のタスクで再学習することで性能の向上を図る手法である。一般的に事前学習には膨大な計算コストや時間を要する場合が多いが, 近年は事前学習済みモデルのパラメータ公開が主流となっており, 日本語を含む様々な言語で利用可能となっている。アメリカに本社を置く Hugging Face社は, これらの公開された事前学習済みモデルパラメータを収集し, 画一的に扱うことができる Transformers ${ }^{6}$ というライブラリを公開しており,自然言語処理タスクへの転用がより容易になっている.本ライブラリの使い方を覚えることは参加者にとって有益であると考えたため, 今ワークショップでも使用することとした.  ## 2.5 実行環境 一般的に深層学習モデルの学習には高価なグラフィックボードを必要とする上, 環境構築に専門性が求められるため, 初学者に実行環境の事前準備を要することは現実的ではない. そのため, 本ワークショップでは Google 社が提供している Colab7 というクラウドプラットフォームを利用した, Colabでは,ブラウザ上から Google 社が提供する計算環境にアクセスでき,かつ無料8でグラフィックボードを使用して計算を行うことが可能である。また, Colab は, Python のノートブック形式をサポートしており,マークダウンでコード中に説明を記載できるため実行しながら学ぶといった本ワークショップに最適である。実際にワークショップで使用したスクリプトの一部を図 1 に示す. ## 2.6 リーダーボード 参加者が各タスクに対して機械学習を適用しその性能を競い合うといった評価型コンペティションは近年多くの人が取り組んでいる。我々もコンペティション形式を踏襲することで楽しみながら学習できると考え, 深層学習モデルの予測結果の投稿を行うことでその評価値がランキング形式で掲載されるといったリーダーボードを用意し,参加者に投稿を促した.実際のリー ## 学習の流れ 1. データローダーから取り出されたバッチをモデルに入カし、モデル内部で誤差計算した上で誤差を返す。 2. 誤差逆伝播を行い各パラメーターの勾配を計算する。 3. オプティマイザーが勾配をもとにモデルのパラメーターを更新する。 4. スケジューラーによりオプティマイザーの学習率を下げる。 以上をデータローダーからバッチを一回り取り出すまで行う。 つまりデータセット内の全てのデータが1回ずつ学習に使用された状態である。 これを 1 エポックと呼ぶ。 1エポック終わった段階で、開発データを用いて評価を行う。 過去の評価値を上回っていた場合、その時のパラメーターを保存します。 学習は $E P O C H$ に指定した回数繰り返されます。 — import tqdm \# 進捗バーを出すためのパッヶージ if DO_TRAIN: \# 学習を行う場合 best_score $=$ None for epoch in tqdm. notebook.tqdm(range(EPOCH), desc="Epoch"): \# EPOCH回繰り返す model.train() \# モデルを学習モードにする for batch in tqdm.notebook.tqdm(train_dataloader, desc="Training"):\# 学習用データローダーからバッチを取り出す outputs, loss $=$ modell input_ids=batch["input_ids"].to(DEVICE),\# to(DEVICE)で入力をGPUに送信する token_type_ids=batch ["token_type_ids"]. to(DEVICE), attention_mask=batch ["attention_mask"]. to(DEVICE), labels=batch ["labels"]. to(DEVICE), ) \# モデルの予測結果と、モデル内部で計算された誤差を得る 図 1 実際にワークショップで使用したスクリプトの一部  \\ 図 2 分類タスクリーダーボードの一部 ダーボードを図 2 に示す 9 .より多くの投稿を促すため, 配布しているスクリプトでは, リー ダーボードへの投稿形式の変換を行いファイルに出力するところまで実装している. ## 2.7 その他 ワークショップを行うにあたり,その他工夫したことを以下に示す. 動画公開実施後にワークショップの録画を公開することで,ワークショップの内容を再度振り返りながら学習できるようにした. トライアル期間ワークショップを前編と後編に分け,その間に 1 週間から 1 ヶ月程度のトライアル期間を設けた,前編では一通りの解説を行っている.トライアル期間中, 参加者は動画等で内容を振り返り, 後編で再度質問することができるため, 自分のペースで内容を理解することができる.また,期間中にモデルを改良し結果をリーダーボードに投稿することで他の参加者と競い合うことができるため, 参加者の学習意欲向上に繋がる. 加えて後編に改良内容を報告する機会を設けることで,発表者のモチベーションを高め,その他参加者に対しては更なる学習の機会を増やすことができる. チャットツールによる補助ワークショップ中やトライアル期間中はチャットツール 10 において常時質問を受け付けており,前編と後編の間で参加者がドロップアウトすることがないようにサポートを行った。 ## 3 実施後報告 ## 3.1 参加状況 前章で述べた通り, 本ワークショップは各タスクごとに前編後編の 2 回, 計 4 回実施したが,分類タスクでは 381 人と 200 人, 固有表現抽出タスクでは 201 人と 99 人の参加登録があった.  ワークショップ中の実際の参加人数は正確に記録していないが,登録者のうち 8,9 割近くが参加していたようである。これはワークショップの間口を広げた成果であり,また,初学者向けワークショップの需要を示すものである.特に後編のモデル改良報告では社会人の方の発表が多く, 社会における深層学習への関心の高さが窺えた。 ## 3.2 リーダーボード リーダーボードに対しては,分類タスクでは 50 人以上,固有表現抽出タスクでは 11 人の投稿があった. 固有表現抽出タスクの投稿人数が少ないが,本タスクは分類タスクの後に実施されたため,多くの参加者が分類タスクへの投稿で満足した結果であると思われる。それぞれのタスクで 6,7 割以上の参加者が,配布した実装の評価値を超えており,リーダーボードにより参加者の自発的な学習を促すことができていたと考えられる. ## 3.3 参加者アンケート 参加者に任意でアンケートをお願いしたところ,ワークショップ全体で 93 件の回答が得られた. ワークショップの説明の分かりやすさを 5 段階で評価する項目では, 1 及び 2 が全体の $0 \%, 3$ が $11 \%, 4$ が $46 \%, 5$ が $43 \%$ であった.全体の $89 \%$ が 4 以上を付けており,殆どの方に内容を理解いたたくことができた。自由記述欄も設けており,「無料なのがおかしいぐらい質の高いワークショップだったと思います。」「BERT のコンポーネントの説明やコードの説明が詳しく説明されていて、とても分かりやすかったです。」等の好評を多く頂いた.また,「スライドは見やすかったのですが、難しすぎる上にコーディングでは線形変換など説明されている殆どがライブラリ化されていて動きが見えないのが残念でした。」といったご指摘を頂いた.今回のワークショップは,深層学習のバックグラウンドを完全に理解せずとも一度動かしてみることで参加者の学習意欲を育むことを目的としていたため,やや煩雑である Transformer ライブラリの中身については言及していなかった。更に一歩踏み込んだ内容に対して興味を持っていただくことが出来たと考え,要望があればライブラリの中身を展開しながらコードから BERT を読み解くワークショップを別途設けようと考えている。森羅プロジェクトに対しての興味を問う項目では, 2 割程度が興味を示す回答をしており,実際に 5 人の方が今回を機に新たに森羅プロジェクトに参加した。これは我々側の目的が達成されたことを示している。 ## 4 おわりに 今回のワークショップは,参加者側は最先端の技術を身につけることを目的とし,主催者側は特定の研究テーマに対して社会の注目を集めることを目的にしたものであった. 実施後に行われたアンケート結果等により双方の需要が達成されたことが示された。深層学習の発展によ り様々な技術が考案されているが, これら技術の社会実装を進めるための新たな橋渡しとして今回の様なワークショップは非常に有用であると言える。我々は今後とも森羅プロジェクトの普及を掲げ,様々なワークショップを主催していきたいと考えている.また,今回の様なワー クショップが分野を超えて広く普及していくことを願う. ## 謝 辞 “Wikipediaを用いた日本語の固有表現抽出データセット”のワークショップでの利用について快諾いたたいたストックマーク株式会社の近江崇宏様に深く感謝します. ## 参考文献 Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota. Association for Computational Linguistics. 近江崇宏 (2021). Wikipedia を用いた日本語の固有表現抽出のデータセットの構築. 言語処理学会第 27 回年次大会発表論文集, pp. 350-352. [T. Omi et al. (2021). Wikipedia wo Mochiita Nihongo no Koyuhyogen Chushutsu no Deta Setto no Kochiku. The 27th Annual Meeting of the Association for Natural Language Processing, pp. 350-352.]. Sekine, S., Kobayashi, A., and Nakayama, K. (2019). "SHINRA: Structuring Wikipedia by Collaborative Contribution." In Automated Knowledge Base Construction (AKBC). Sekine, S., Sudo, K., and Nobata, C. (2002). "Extended Named Entity Hierarchy." In Proceedings of the 3rd International Conference on Language Resources and Evaluation (LREC'02), Las Palmas, Canary Islands - Spain. European Language Resources Association (ELRA). ## 略歴 中山功太:理化学研究所革新知能統合研究センター・言語情報アクセスチー ムリサーチアソシエイト, 筑波大学システム情報工学研究群博士課程に在学中. 2020 年豊橋技術科学大学情報・知能工学系修士号. 専門は深層学習, 自然言語処理. 特にアンサンブル学習, 固有表現抽出, 情報抽出の研究に従事. 渋木英潔:2002 年北海道大学大学院工学研究科電子情報工学専攻博士後期課程了. 博士 (工学). 2006 年北海学園大学大学院経営学研究科経営学専攻博士 後期課程了. 博士 (経営学). 横浜国立大学環境情報研究院産学連携研究員,国立情報学研究所特任研究員などを経て, 現在,(株)BESNA 研究所研究部主任研究員. 自然言語処理に関する研究に従事. 言語処理学会, 情報処理学会各会員. 関根聡:理化学研究所革新知能統合研究センター・言語情報アクセスチームチームリーダー, 1992 年英国マンチェスター大学計算言語学部修士号. 1998 年ニューヨーク大学コンピューターサイエンス学部博士号. その後, ニュー ヨーク大学研究准教授に就任. 松下電業産業株式会社(現パナソニック), 楽天技術研究所ニューヨークなどでの研究職を歴任. 専門は自然言語処理. 特に情報抽出, 固有表現抽出, 知識構築の研究に従事.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 人工知能学会言語・音声理解と対話処理研究会主催「対話システムシンポジウム」 徳久 良子† ## 1 はじめに 人工知能学会言語・音声理解と対話処理 (SLUD) 研究会では, 2010 年から「対話システムシンポジウム」を開催している。本シンポジウムは,年 3 回の SLUD 研究会のうちの 1 回を,対話システムに関する研究を集めて開催するもので,今年で 13 回目となる。この記事は, (1) 対話システムシンポジウムにまだ参加したことがない方に向けて本シンポジウムを知っていたたくことと, (2) 今年の対話シンポジウムの発表内容を通じて自然言語処理に携わるみなさんに対話システム研究に関するトレンドを知っていただくことを目的として書いていきたい. ## 2 第 13 回対話システムシンポジウムについて ## 2.1 概要 今年の対話システムシンポジウムは, 2022 年 12 月 13 日(火)と 14 日(水)に国立国語研究所で行われた(図 1)。ポスターセッション以外はオンラインでも配信し, 対話システムシンポジウムとしては初めてのハイブリッド開催となった。参加者数は,現地参加 118 名(1日目 105 図 1 会場の様子. 写真左は招待講演の様子. 写真右は (李, 石黒 2022)の発表から引用.  名, 2 日目 +13 名), オンラインでの最大同時視聴者数 121 名で, 合計 239 名であった. 発表件数は, 一般口頭発表 8 件, 一般ポスター発表 24 件, インダストリーセッション 9 件, 招待講演 1 件, 国際会議報告 4 件, ライブコンぺ口頭発表 7 件であった. 一般口頭発表: 一般口頭発表では,例年,対話システムのデモ動画やデータの収録風景の音声など,音声や動画を用いた発表が多くみられる,今年は,CGエージェントやアバターのキャラクタ表現に関する研究など, マルチモーダル対話に関する発表も目立った (李, 石黒 2022 ; 山本他 2022). また,高齢者の認知トレーニングに関する研究や,医療面接に関する研究など,応用を意識した発表も多かった (徳永他 2022; 黒田,荒木 2022). 一般ポスター発表:一般ポスター発表では, これから結果が出る萌芽的な研究から, 応用を意識したデモ指向の強い研究まで, 幅広い研究が発表される。 3 年ぶりの現地開催で, 構築した対話システムのデモなど対話システムシンポジウムならではの光景が見られた(図 2). インダストリーセッション:インダストリーセッションは,対話システムに関する技術や製品を紹介するセッションである。一般発表とは異なり,学術的な完成度・新規性にこだわらず,技術的な取り組みが紹介される。ポスター形式で実施され,対話システムのデモが多く発表された(図 3 ). 招待講演:LINE の佐藤敏紀先生から「日本語の基盤モデルを用いた対話システムの実装とその課題」というタイトルでご講演いただいた ${ }^{1}$. LINEで構築している対話の基盤プラットフォー 図 2 ポスター発表の様子。ポスター発表では萌芽的な研究発表も歓迎される. 図 3 インダストリーセッションのデモの様子,写真左は (金盛他 2022), 中央は (大須賀他 2022), 右はそれぞれ (沢田他 2022)(小磯他 2022)(安田 2022) の発表の様子.  ムの紹介や, 昨年度のライブコンペティションで優勝した対話システムに関する話があった。現状技術では,対話システムは大規模なモデルがあればいいというわけではなく,モデルに対する入出力をいかに工夫するかでシステム全体の性能が変わるという話が印象的だった. 国際会議報告: 国際会議報告では対話システムに関する 4 件の国際会議について紹介があつ 響で国際会議はオンラインで開催されていたが,今年は現地開催された会議も多く,現地での研究者同士の交流の様子も併せて紹介された. - SIGDIAL/YRRSDS: 大橋厚元さん (名古屋大学) - ICMI: 岡田将吾さん(北陸先端大) - INTERSPEECH: 河野誠也さん (理化学研究所) - COLING: 岸波洋介さん (東北大学) ## 2.2 対話システムライブコンペティション 対話システムライブコンペティション(ライブコンペ) ${ }^{3}$ は,聴衆の前で対話システムを動作させ評価を行うイベントで,過去 5 年間,対話システムシンポジウムの特別セッションとして開催されている(図 4). 昨年まではテキストチャットによるコンペだったが,今年は初めてマルチモーダル対話でのコンぺとなった.「オープントラック」と「シチュエーショントラック」 の 2 つのトラックが用意され ${ }^{4}, 2022$ 年 10 月に行われた予選を通過した上位 3 チームが対話システムシンポジウム当日の本戦に出場し, 以下の要領で順位が決定した. ・ 運営側が COI のない話者を選出し, くじ引きで対話するシステムを決定. - 聴衆の前で対話システムと話者が対話(図 4 の左と中央). 図 4 ライブコンペの様子 (写真左と中央)。上位チームからはシステムについて口頭発表もある (写真右).  ・ 聴衆が対話システムを評価じ,順位を決定する。 聴衆による評価の結果, 順位は下記の通りとなった。 オープントラック 1 位 LINE NLP (山崎他 2022) 2 位 TohokuNLP (守屋他 2022) 3 位 ToastedMarshmallow (金崎他 2022) シチュエーショントラック 1 位 LINE NLP (吉川他 2022) 2 位 FCL (白井 2022) 3 位 YuruKuma (大野他 2022) ## 2.3 若手のための表彰制度 対話システムシンポジウムでは, 若手研究者への研究発表の奨励のため, 若手 (2022 年 4 月 1 日時点で 30 歳未満)による優秀な発表には若手優秀賞を, 独創性・将来性がみられる発表には若手萌芽賞を授与している。今年は 21 件の発表が表彰選考対象となり, 下記の 4 件が受賞した. 若手優秀賞 6 - 岩橋千穂さん (岩橋, 稲葉 2022 ) - 高崎環さん (高崎他 2022) ## 若手萌芽賞 7 - 稲積駿さん (稲積他 2022 ) - 田中義規さん (田中, 稲葉 2022) 対話システムシンポジウムは,対話システムに携わる研究者が一堂に会するため,さまざまな視点から研究に対する有益なコメントがもらえるのも魅力のひとつである. 本シンポジウムで発表した後にさらに研究を発展させた形でSIGDIAL やACL などの国際会議で発表した例も少なくない.国際会議にチャレンジする前段階の発表の場としてもぜひ活用してほしい. ## 3 対話システムシンポジウムの成り立ちと今後について 対話システムはテキストチヤットシステムから対話ロボットまでさまざまな形態があり,またさまざまな要素技術を統合したシステムであるため, その発表は多様な分野に分散していた.  図 5 過去 10 年間の発表件数の推移. 表 1 過去 5 年間の参加者数と開催形式. オンラインの参加者数は最大同時視聴者数を表す. そこで,それらが一堂に会する機会を設けることで,今までの研究会の枠にとらわれない議論をしたり,国内の対話システム研究を概観できることを狙って,2010 年に「対話システムシンポジウム」が始まった. 発表件数の推移を図 5 に, 参加者数と開催形式を表 1 に示す. 2010 年に対話システムシンポジウムが始まった当時は, 今ほどの AI ブームではなかったが, その後, 2013 年に Word2Vec (Mikolov et al. 2013a, 2013b), 2019 年に BERT (Devlin et al. 2019) が発表され,自然言語処理の研究は大きく前進した. 同時に対話研究も大きく発展し, ここ数年で Transformer ベースの高性能なモデルも多数公開されるようになった (Zhang et al. 2020; Roller et al. 2021). また, 今回の対話システムシンポジウムでも発表があったように, アンドロイドやアバターに関する研究開発も盛んに行われている (李, 石黒 2022 ; 大須賀他 2022; 金盛他 2022; 伊島, 田中 2022). 今回の対話システムシンポジウムは,「知性と感情を持ったエージェントが我々の生活の中で役に立つ日もそう遠くないかもしれない」とあらためて感じさせられる会であった. 対話システムシンポジウム実行委員としては,対話研究者同士のつながりを生み出したり,技術発展の下支えをできるよう,これからも世の中の動向や技術を睨みながら企画・運営していきたい. ## 謝 辞 まず,会場やオンライン配信に関する環境を整えてくださった国立国語研究所の小磯花絵氏 をはじめ,会場設営や受付に携わって下さった国立国語研究所の方々に深く感謝したい。また, SLUD 研究会主査の中野幹生氏,対話システムシンポジウム実行委員(藤江真也実行委員長,川端良子氏,稲葉通将氏,井上昂治氏,岡田将吾氏,熊野史朗氏,小林優佳氏,駒谷和範氏,杉山弘晃氏,成松宏美氏,東中竜一郎氏,船越孝太郎氏,松山洋一氏,吉野幸一郎氏),およびライブコンぺ専任委員(高橋哲朗氏,宇佐美まゆみ氏,西川寛之氏,小室允人氏,佐藤志貴氏,堀内颯太氏,港隆史氏,境くりま氏,船山智氏)に深く感謝する,最後に,このような紹介の場をくださった「自然言語処理」編集委員長の内山将夫氏に深謝したい. ## 参考文献 Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota. Association for Computational Linguistics. 伊島翔大,田中昂志 (2022).ソーシャルデータを活用した「サポートチャットボット」の紹介とアバター型音声対話システムの開発. 人工知能学会研究会資料言語・音声理解と対話処理研究会, 96, p. 37. [S. Ijima and K. Tanaka (2022). Sosharudeta wo Katsuyo shita "Sapoto Chatto Botto" no Shokai to Abata-gata Onsei Taiwa Shisutemu no Kaihatsu. JSAI Technical Report, SIG-SLUD, 96, p. 37.]. 稲積駿, 河野誠也, 湯口彰重, 川西康友, 吉野幸一郎 (2022). 視線情報付き視覚的質問応答デー タセットの構築. 人工知能学会研究会資料言語・音声理解と対話処理研究会, 96, p. 13. [S. Inazumi et al. (2022). Shisen Joho tsuki Shikakuteki Shitsumon Oto Detasetto no Kochiku. JSAI Technical Report, SIG-SLUD, 96, p. 13.]. 岩橋千穂, 稲葉通将 (2022). マルチソース学習を用いた対話形式コンテンツの自動生成. 人工知能学会研究会資料言語・音声理解と対話処理研究会, 96, p. 10. [C. Iwahashi and M. Inaba (2022). Maruchi Sosu Gakushu wo Mochiita Taiwa Keishiki Kontentsu no Jidoseisei. JSAI Technical Report, SIG-SLUD, 96, p. 10.]. 金盛克俊, 村松直矢, 森田拓磨 (2022). バディを目指す対話ロボット poiq. 人工知能学会研究会資料言語・音声理解と対話処理研究会, 96, p. 35. [K. Kanamori et al. (2022). Badi wo Mezasu Taiwa Robotto poiq. JSAI Technical Report, SIG-SLUD, 96, p. 35.]. 金崎翔大,渡邊寛大,河野誠也,湯口彰重,桂井麻里衣,吉野幸一郎 (2022). 対話行為予測と工ントレインメント予測に基づいたマルチモーダル対話システム. 人工知能学会研究会資料言語・音声理解と対話処理研究会, 96, p. 20. [S. Kanezaki et al. (2022). Taiwa Koi Yosoku to Entoreimmento Yosoku ni Motozuita Maruchimodaru Taiwa Shisutemu. JSAI Technical Report, SIG-SLUD, 96, p. 20.]. 小磯花絵, 曰田泰如, 川端良子 (2022).『日本語日常会話コーパス』(Corpus of Everyday Japanese Conversation, CEJC). 人工知能学会研究会資料言語・音声理解と対話処理研究会, 96, p. 31. [H. Koiso et al. (2022). Corpus of Everyday Japanese Conversation, CEJC. JSAI Technical Report, SIG-SLUD, 96, p. 31.]. 黒田佑哉, 荒木雅弘 (2022). 医療面接シミュレータにおける医者役の質問内容の識別. 人工知能学会研究会資料言語・音声理解と対話処理研究会, 96, p. 01. [Y. Kuroda and M. Araki (2022). Iryo Mensetsu Shimyureta ni okeru Ishayaku no Shitsumon Naiyo no Shikibetsu. JSAI Technical Report, SIG-SLUD, 96, p. 01.]. 李晃伸, 石黒浩 (2022). 自律・遠隔融合対話システムのための高生命感・高存在感 CG エージェントの開発. 人工知能学会研究会資料言語・音声理解と対話処理研究会, 96, p. 27. [A. Lee et al. (2022). Jiritsu $\cdot$ Enkaku Yugo Taiwa Shisutemu notameno Koseimeikan $\cdot$ Kosonzaikan CG Ejento no Kaihatsu. JSAI Technical Report, SIG-SLUD, 96, p. 27.]. Mikolov, T., Chen, K., Corrado, G., and Dean, J. (2013a). "Efficient Estimation of Word Representations in Vector Space." arXiv preprint arXiv:1301.3781. Mikolov, T., Sutskever, I., Chen, K., Corrado, G., and Dean, J. (2013b). "Distributed Representations of Words and Phrases and Their Compositionality." In Proceedings of the 26th International Conference on Neural Information Processing Systems - Volume 2 (NIPS'13), pp. 3111-3119, Red Hook, NY, USA. Curran Associates Inc. 守屋彰二, 塩野大輝, 岸波洋介, 藤原吏生, 木村昂, 松本悠太, 曾根周作, 赤間怜奈, 鈴木潤, 乾健太郎 (2022). aoba_v3 bot: 多様な応答生成モデルとルールベースを統合したマルチモーダル雑談対話システム. 人工知能学会研究会資料言語・音声理解と対話処理研究会, 96, p. 21. [S. Moriya et al. (2022). aoba v3 bot: Tayo na Otoseisei Moderu to Rurubesu wo Togo Shita Maruchimodaru Zatsudan Taiwa Shisutemu. JSAI Technical Report, SIG-SLUD, 96, p. 21.].大野瞬, 石井均, 木原諒子, 片上大輔, 酒造正樹, 前田英作 (2022). 即効性のある代替案の提供で友人に謝罪を行うマルチモーダル対話エージェント.人工知能学会研究会資料言語・音声理解と対話処理研究会, 96, p. 23. [S. Oono et al. (2022). Sokkosei no Aru Daitaian no Teikyo de Yujin ni Shazai wo Okonau Maruchimodaru Taiwa Ejento. JSAI Technical Report, SIG-SLUD, 96, p. 23.]. 大須賀晋, 田中五大, 鍋倉彩那, 中野涼太, 渡邊凌太, 石川友香, 石川晃之, 中村晃一, 藤井裕也,堀内颯太, 東中竜一郎, 西村良太, 太田健吾, 北岡教英 (2022). “EMOtive A.I. “Saya"." 人工知能学会研究会資料言語・音声理解と対話処理研究会, 96, p. 33. [S. Osuga et al. (2022). EMOtive A.I. "Saya". JSAI Technical Report, SIG-SLUD, 96, p. 33.]. Roller, S., Dinan, E., Goyal, N., Ju, D., Williamson, M., Liu, Y., Xu, J., Ott, M., Smith, E. M., Boureau, Y.-L., and Weston, J. (2021). "Recipes for Building an Open-Domain Chatbot." In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 300-325, Online. Association for Computational Linguistics. 沢田慶, シーン誠, 趙天雨 (2022). 日本語における AI の民主化を目指した事前学習モデルの公開. 人工知能学会研究会資料言語・音声理解と対話処理研究会, 96, p. 32. [K. Sawada et al. (2022). Nihongo niokeru AI no Minshuka wo Mezashita Jizen Gakushu Moderu no Kokai. JSAI Technical Report, SIG-SLUD, 96, p. 32.]. 白井宏美 (2022). 謝罪場面に適した人らしいマルチモーダル対話システムの実現に向けて. 人工知能学会研究会資料言語・音声理解と対話処理研究会, 96, p. 25. [H. Shirai (2022). Shazai Bamen ni Tekishita Hitorashii Maruchimodaru Taiwa Shisutemu no Jitsugen ni Mukete. JSAI Technical Report, SIG-SLUD, 96, p. 25.]. 高崎環, 吉永直樹, 豊田正史 (2022). 長期間の過去文脈を効果的に活用した雑談対話システ么. 人工知能学会研究会資料言語 - 音声理解と対話処理研究会, 96, p. 16. [M. Takasaki et al. (2022). Chojikan no Kakobummyaku wo Kokateki ni Katsuyo shita Zatsudan Taiwa Shisutemu. JSAI Technical Report, SIG-SLUD, 96, p. 16.]. 田中義規, 稲葉通将 (2022). ユーザレビュー作成支援のためのインタビュー対話システムの構築. 人工知能学会研究会資料言語 - 音声理解と対話処理研究会, 96, p. 46. [Y. Tanaka et al. (2022). Yuza Rebyu Sakusei notameno Intabyu Taiwa Shisutemu no Kochiku. JSAI Technical Report, SIG-SLUD, 96, p. 46.]. 徳永清輝, 田村和弘, 大武美保子 (2022). 高齢者のための対話システムのトレーニング・アンケー 卜機能拡張および予備的評価:在宅認知機能訓練に向けて. 人工知能学会研究会資料言語・音声理解と対話処理研究会, 96, p. 28. [S. Tokunaga et al. (2022). Koreisha no Tameno Taiwa Shisutemu no Toreningu $\cdot$ Anketo Kino Kakucho Oyobi Yobiteki Hyoka: Zaitaku Ninchikino Kunren ni Mukete. JSAI Technical Report, SIG-SLUD, 96, p. 28.]. 山本賢太, 井上昂治, 河原達也 (2022). 音声対話システムによる雑談対話におけるキャラクタ表現に基づくユーザ適応の検討. 人工知能学会研究会資料言語・音声理解と対話処理研究会, 96, p. 29. [K. Yamamoto et al. (2022). Onsei Taiwa Shisutemu niyoru Zatsudan Taiwa niokeru Kyarakuta Hyogen ni Motozuku Yuza Tekio no Kento. JSAI Technical Report, SIG-SLUD, 96, p. 29.]. 山崎天, 川本稔已, 大萩雅也, 水本智也, 小林滉河, 吉川克正, 佐藤敏紀 (2022). HyperCLOVA を用いた音声雑談対話システム. 人工知能学会研究会資料言語・音声理解と対話処理研究会, 96, p. 22. [T. Yamazaki et al. (2022). HyperCLOVA wo Mochiita Onsei Zatsudan Taiwa Shisutemu. JSAI Technical Report, SIG-SLUD, 96, p. 22.]. 安田晴彦 (2022). まるでそこにいる人と話をしているような、新しい感動対話体験A I 映像対話システム「Talk With」. 人工知能学会研究会資料言語・音声理解と対話処理研究会, 96, p. 30. [H. Yasuhiko et al. (2022). Marude Soko ni Iru Hito to Hanashi wo Shiteiru Yo na, Atarashii Kando Taiwa Taiken AI Eizo Taiwa Shisutemu "Talk With". JSAI Technical Report, SIG-SLUD, 96, p. 30.]. 吉川克正, 川本稔己, 山崎天, 水本智也, 小林滉河, 大萩雅也, 佐藤敏紀 (2022). シチュエー ションに合わせたシナリオ誘導と HyperCLOVA を利用した応答生成によるハイブリッド対話システム. 人工知能学会研究会資料言語・音声理解と対話処理研究会, 96, p. 24. [K. Yoshikawa et al. (2022). Shichueshon ni Awaseta Shinario Yudo to HyperCLOVA wo Riyo shita Otoseisei niyoru Haiburiddo Taiwa Shisutemu. JSAI Technical Report, SIG-SLUD, 96, p. 24.]. Zhang, Y., Sun, S., Galley, M., Chen, Y.-C., Brockett, C., Gao, X., Gao, J., Liu, J., and Dolan, B. (2020). "DIALOGPT : Large-Scale Generative Pre-training for Conversational Response Generation." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 270-278, Online. Association for Computational Linguistics. ## 略歴 徳久良子:2001 年九州工業大学大学院情報科学専攻修士課程修了. 同年 (株)豊田中央研究所入社. 2009 年奈良先端科学技術大学院大学情報工学研究科博士課程修了. 2020 年より言語処理学会理事. 2021 年よりクロスアポイントメントで東北大学准教授. 感情や音声対話に関する研究に従事. 博士 (工学).人工知能学会, 言語処理学会, 情報処理学会各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 解説: Factual Accuracy is not Enough: Planning Consistent Description Order for Radiology Report Generation 西埜徹 ## 1 はじめに 本解説記事では,著者らが EMNLP2022 で発表した論文 “Factual Accuracy is not Enough: Planning Consistent Description Order for Radiology Report Generation" について, 研究の背景や経緯を踏まえつつ解説する。 ## 2 論文の概要 本研究は単純 X 線画像や CT 画像などの医用画像を入力し, 自動で画像の特徴を説明する文章を生成する「読影レポート自動生成」の研究である。読影レポートとは, 医師が検査画像中の異常所見を目視で確認し, 異常部や正常部などの詳細を文章で表現したものである.読影レポートは検査異常の情報を伝達する重要な手段であるが人手作成の負担が高く, 読影レポート生成は近年広く研究されている (Jing et al. 2018). しかし, 先行研究の大半が単純 X 線検査を対象とした研究であり,CT や MRI など他の読影検查への適用可能性については手つかずであった. また, ここ最近の読影レポート生成における共通課題は生成文書の内容適切性の改善 図 1 単純 $\mathrm{X}$ 線検査と造影 $\mathrm{CT}$ 検査のレポートの比較. 図 2 プランニング読影レポート生成の概要.  である. 医療分野において正しく検査画像中の所見を含んだレポートの生成は極めて重要であり,内容の一致度に基づく報酬を導入した強化学習 (Miura et al. 2021) や,読影知識を反映したグラフを活用した適切性改善 (Zhang et al. 2020) などの研究が盛んに行われている。しかし,読影レポート生成において適切性以外の課題に着目した研究はあまり行われていない. CT など単純 X 線検査以外へ読影レポート生成技術を応用する際,適切性以外の別の課題が存在するのではないか, という問題意識が本研究の着想の背景である. 本論文では,レポート生成の対象を単純 X 線検査だけでなく肝臓の CT 検査へ拡大した上で,読影レポートの内容の適切性の改善に限らず記述順をも改善する手法を提案した.肝臟がんの検査を含む多くの CT 検査では造影 CT 検査が実施されている。単純 $\mathrm{X}$ 線検査では撮影回数は 1 回きりである一方,造影 CT 検査では造影剤を飲んだ状態で複数回連続して撮影し,異常箇所の写り方の時系列順の変遷を確認する。この撮影タイミングを時相と呼ぶ. 図 1 に例示されるように,造影 CT では異常箇所の変遷をレポートに記載する.故に,欧州放射線学会 (European Society of Radiology (ESR) 2011) が推奨する通り,ただ正しい情報を書くだけに限らず正しい記述順でのレポート文章の作成が重要となる。読影レポート生成技術の応用範囲を単純 X 線検査から広げるには造影 CT などへの対応が必須と考え, 適切性に加え記述順の改善を本研究の目的とした。 ## 3 提案手法概要 一般に読影レポート生成の研究では画像から直接レポートを生成する End-to-End 文章生成のアプローチが取られている。本研究では検査画像からまず “腫瘤:あり”や“濃染. 増大” などの性状タグを抽出し,その後性状タグからレポートを生成する Data-to-Text 文章生成の手法を採用した。加えて中間表現となる性状タグをレポートでの文章の記述順を表現したプランとして扱うプランニング文章生成 (Ma et al. 2019) の手法を取った. プランニング生成手法の概略を図 2 に示す.プランは文章の記述内容と記述順を設計したものであり,プランを設計する文章計画器, 設計されたプランに基づき文章を生成する文章生成器の 2 段階を踏まえ入力情報から文章を生成する。先行研究では Data-to-Text 文章生成で問題とされてきた Hallucination (幻覚),つまり誤った不適切な記述が生成されてしまう問題が緩和され, 適切性が改善したと報告されている (Moryossef et al. 2019). 中間表現で適切な記述順・内容を表現したプランを作成することにより,生成文章における適切性・記述順の改善が見达まれる. しかしプランニング文章生成には, 前段のモデルのエラーが後段に伝搬するエラー伝搬の課題が報告されている (Shen et al. 2020). 前段にあたる文章計画器で誤った推論がなされると,当然後段の文章生成器も誤った文章を生成するのである。このエラー伝搬問題への対処として本研究では Coordinated Planning-based text generation (CoPlan) を提案した. CoPlan 図 3 提案手法 Coordinated Planning-based text generation (CoPlan) の概要. の手法概要を図 3 に示す. CoPlan は最終的に生成される文章の適切性ないしは記述順を評価し,より質の高い文が生成されるよう前段のモデルへとフィードバックする機構である. CoPlan は 2 の並列する手法から構成される。 CoPlan in Reinforcement Learning (CoPlan (RL)) 文章計画器の学習時において, 最終的に生成されるレポートの品質を報酬として強化学習を行う手法である. エラー伝搬問題の最大の要因は, 文章計画器と文章生成器とで独立して学習が行われる点にある。そこで CoPlan (RL) では最終的に出力される文章の品質を文章評価器で定量化し, この定量化されたスコアを 1 段目の文章計画器を強化学習する報酬として活用する。最終出力文章の品質を報酬として利用することで文章計画器の学習時に文章生成の品質を考慮できるため, エラー伝搬問題の影響を緩和できる。 CoPlan in Beam Search (CoPlan (BS)) 文章計画器の推論時において, 最終的に生成されるレポートの品質をスコアとしてプランの探索・選択を行う手法である. CoPlan (BS) は最終的に出力される文章の品質を文章評価器で定量化し, この定量化されたスコアを 1 段目の文章計画器の推論時にビームサーチのスコアに加える手法である。最終出力結果を基に推論時の 1 段目のエラーを推定し,エラーの少ないプランの選択により生成されるプランの質を改善できる. ## 4 評価実験 本研究では日本語造影 CT レポートおよび英語単純 X 線レポート (Johnson et al. 2019) の 2 データセットにおいて, Data-to-Text 文章生成部分だけの性能評価および画像からレポートを生成するモデル全体の End-to-End の性能評価実験を実施した。提案手法 CoPlan の実効性は Data-to-Text 文章生成部分だけを日本語レポートで評価するだけでも示すことができる. だが, ほぼ全ての先行研究は英語単純 $\mathrm{X}$ 線レポートで実施されており, 先行研究に対する優位性や提案手法の汎用性を示すには複数モダリティでの評価および既存手法との比較が必要と考え, このように 2 つのデータセットでの End-to-End 評価実験を追加で実施した。加えて本研究では読影レポート生成でよく用いられる評価指標である BLEU や BERTScore (Zhang et al. 2019), CheXpert (Irvin et al. 2019) ベースの適切性評価指標に加え,記述順評価指標である Content Ordering score (CO) (Wiseman et al. 2017) を生成レポートの記述順に関する品質改善の検証に導入している.加えてより信頼できる実験結果の検証のために人手評価を実施した。 Data-to-Text 実験の結果では, CoPlan (BS) およびCoPlan (RL) それぞれの有効性を示している. 加えて先行研究との比較である End-to-End 実験の結果では, BLEU4 では他手法に比べ劣るが適切性および記述順の改善が示されている.実験設定および実験結果については原論文を参照していただきたい. ## 5 終わりに 本稿では EMNLP2022に採択された著者の論文について,着想の背景に重点をおいて解説した. 本論文は自然言語処理分野で近年注目されている読影レポート自動生成の研究の実際の医療現場への適用を見据えた研究であり, 記述順という実用化に向け課題となった新たな切り口を主眼においた論文である。今後は医療現場の声やデータから課題を掘り起こしつつ, さらなる実応用を目指していきたい. ## 謝 辞 本研究にあたり数多の助言を頂きました共著者,関係者の皆様に感謝申し上げます。また日本語データセットの提供に協力くださった共同研究先病院の皆様,およびデータセットの整備に尽力されたアノテータの皆様にも改めて感謝申し上げます. ## 参考文献 European Society of Radiology (ESR) (2011). "Good Practice for Radiological Reporting. Guidelines from the European Society of Radiology (ESR)." Insights into Imaging, 2, pp. 93-96. Irvin, J., Rajpurkar, P., Ko, M., Yu, Y., Ciurea-Ilcus, S., Chute, C., Marklund, H., Haghgoo, B., Ball, R., Shpanskaya, K., et al. (2019). "CheXpert: A Large Chest Radiograph Dataset with Uncertainty Labels and Expert Comparison." In 33rd AAAI Conference on Artificial Intelligence. Jing, B., Xie, P., and Xing, E. (2018). "On the Automatic Generation of Medical Imaging Reports." In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). Johnson, A. E., Pollard, T. J., Berkowitz, S. J., Greenbaum, N. R., Lungren, M. P., Deng, C.-y., Mark, R. G., and Horng, S. (2019). "MIMIC-CXR: A Large Publicly Available Database of Labeled Chest Radiographs." arXiv preprint arXiv:1901.07042. Ma, S., Yang, P., Liu, T., Li, P., Zhou, J., and Sun, X. (2019). "Key Fact as Pivot: A TwoStage Model for Low Resource Table-to-Text Generation." In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 2047-2057. Miura, Y., Zhang, Y., Tsai, E., Langlotz, C., and Jurafsky, D. (2021). "Improving Factual Completeness and Consistency of Image-to-Text Radiology Report Generation." In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 5288-5304. Moryossef, A., Goldberg, Y., and Dagan, I. (2019). "Step-by-Step: Separating Planning from Realization in Neural Data-to-Text Generation." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers). Shen, X., Chang, E., Su, H., Niu, C., and Klakow, D. (2020). "Neural Data-to-Text Generation via Jointly Learning the Segmentation and Correspondence." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7155-7165. Wiseman, S., Shieber, S. M., and Rush, A. M. (2017). "Challenges in Data-to-Document Generation." In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing. Zhang, T., Kishore, V., Wu, F., Weinberger, K. Q., and Artzi, Y. (2019). "BERTScore: Evaluating Text Generation with BERT." In International Conference on Learning Representations. Zhang, Y., Wang, X., Xu, Z., Yu, Q., Yuille, A., and Xu, D. (2020). "When Radiology Report Generation Meets Knowledge Graph." In 34th AAAI Conference on Artificial Intelligence. ## 略歴 西埜徹:2018 年東京大学大学院博士前期課程修了. 同年, 富士ゼロック 久株式会社入社. 2022 年 4 月より富士フイルム株式会社に移籍し, 自然言語処理の研究者として研究開発に従事.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 異なる時期での意味の違いを捉える単語分散表現の結合学習 単語は時期や分野の違いによって異なる意味や用例を持つことがあり,自然言語処理 の分野では単語分散表現を用いた検出が行われている。最近では文脈の情報を考慮 した単語分散表現を生成できる BERT などを用いた研究も盛んに行われているが,大規模な計算資源のない言語学者や社会学者などはこのような手法を適用するのが 難しい,本稿では,既存の文書間で同時に単語分散表現を学習する手法を拡張して, 2 つの文書間における単語の意味の違いを検出するタスクに取り組んだ. 実験の結果より,我々の手法が英語での実験や SemEval-2020 Task 1 だけでなく,これまで 行われていない日本語の実験においても既存手法と同等またはそれ以上の性能を示 した。また, 各手法が単語分散表現の獲得までにかかる訓練時間の比較を行った結果,提案した手法が既存手法よりも高速に学習できることを示した. さらに,提案 した単語分散表現獲得手法を用いて, 日本語のデー夕において意味変化した単語や 意味変化の種類, 傾向などの網羅的な分析も行った. キーワード:意味変化,単語分散表現 ## A Comprehensive Analysis of PMI-based Models for Measuring Semantic Differences \author{ Taichi Aida ${ }^{\dagger}$, Mamoru Komachi ${ }^{\dagger}$, Toshinobu Ogiso $^{\dagger \dagger}$, \\ Hiroya Takamura ${ }^{\dagger \dagger \dagger}$ and Daichi Mochihashi ${ }^{\dagger \dagger \dagger}$ } The task of detecting words with semantic differences across corpora is primarily addressed by word representations such as Word2Vec or BERT. However, there are no abundant computing resources available in the real world where linguists and sociologists apply these techniques. In this paper, we extend an existing CPU-trainable model which trains vectors of all time periods simultaneously. Experimental results demonstrate that the extended models achieved comparable or superior results to strong baselines in English corpora, SemEval-2020 Task 1, and Japanese. Furthermore, we compared the training time of each model and conducted a comprehensive analysis of Japanese corpora. Key Words: Semantic Change, Word Representation  ## 1 はじめに 単語は異なる時期間や分野間で異なる意味や用法を持つことがある. 例えば, meat は古英語で「食べ物全般」を意味していたが,近代英語では「動物の肉」という狭い意味で使われるようになった. また, interface は一般的に「物体の表面」という意味で使われるが, 情報科学の分野では「利用者とコンピュータを結びつけるシステム」という意味で使われている。記のような時期間や分野間で意味や用法の変わる単語を自動で検出する手法は, 言語学・社会学や辞書学だけでなく, 情報検索においても有用である (Kutuzov et al. 2018). 本稿ではこれ以降,時期の違いによる意味の変化に焦点を絞って言及する. 近年, このような変化を検出する方法として, 単語を周辺単語との共起情報を基にベクトルで表現する単語分散表現が広く用いられている. 例として, 1900 年代と 1990 年代における単語 coach の単語ベクトルとその周辺単語ベクトルを図 1 に示す. 図より, coach の周辺単語が乗り物関連からスポーツ関連に変化していることがわかる。最終的な意味変化の度合いについては,学習した単語べクトル $\overrightarrow{\operatorname{coach}}_{1900 s}$ と $\overrightarrow{\operatorname{coach}}_{1990 s}$ のユークリッド距離や余弦類似度などの尺度を用いられることが多い。上記のように異なる時期の文書情報を考慮した単語分散表現は,各時期で独立に訓練した単語分散表現に対応づけを行うなどをして獲得する (Kim et al. 2014; Kulkarni et al. 2015; Hamilton et al. 2016b). 対応づけによる手法は主に Word2Vec (Mikolov et al. 2013)などの文脈を考慮しない単語分散表現を対象としているため, 実装が容易で計算コストも低いことから, 大規模な計算資源を持たない研究者でも導入することができる (Sommerauer and Fokkens 2019; Zimmermann 2019). しかし,対応づけによる手法は「各文書で学習したべクトル空間を線形変換で対応づけできる」という強い仮定をおいている. そこで近年, 対応づ 図 11900 年代から 1990 年代にかけて, 学習した単語 coach のベクトルとその周辺単語のベクトルが変化する様子. けを回避する 2 つの手法が提案された (Yao et al. 2018; Dubossarsky et al. 2019). まず, Yao et al. (2018) は各時期の単語分散表現を同時に学習する Dynamic Word Embeddings を提案した。この手法は回転行列などによる対応づけが不要だが, 2.1 節式 (3) に示すように,設定に敏感な 3 つのハイパーパラメータが存在するため, 膨大な組み合わせ数の設定から最適なハイパーパラメータを探索する必要がある. 次に,Dubossarsky et al. (2019) は全ての時期の文書をただ1つの文書とみなし,事前に用意したリストに載っている単語だけ時期を区別してべクトルを学習する Temporal Referencing を提案した. この手法は 1 つに結合した文書で単語分散表現を学習すれば良いことから非常に導入しやすいが,リストに載っていない単語は文書間で変化しないと仮定しているため,事前によく選定された対象単語のリストを用意する必要がある. また,時期を考慮した単語分散表現を獲得する手法だけでなく,それらを用いた分析においてもいくつかの問題がある. 1つ目は, 時期を考慮した単語分散表現を獲得する手法が数多く提案されているにも関わらず,それらの性能の定量的な比較があまり行われていないことである (Schlechtweg et al. 2019; Shoemark et al. 2019; Tsakalidis and Liakata 2020; Schlechtweg et al. 2020).これは主に評価で対象の文書間で意味の変化した単語を用意する必要があるためである. 比較が行われていても,多くが英語やドイツ語などのヨーロッパ圈の言語を対象としており, 複数の言語での比較は少ない (Schlechtweg et al. 2020). 2 つ目は, 意味変化が自明な単語に絞った定性的な分析が多いことである.特に英語においては,「陽気な」という意味から「同性愛者」という意味を持つようになった gay という単語についての分析が多く (Kim et al. 2014; Kulkarni et al. 2015; Hamilton et al. 2016b; Hu et al. 2019),意味の変化が自明でない単語に注目されることは少ない (Gonen et al. 2020). そこで本研究では, これらの問題に対して以下のように取り組む。まず, 手法の問題を解消するために, Dubossarsky et al. (2019)の Temporal Referencing に対して2つの拡張を行う. 1 つ目は, 単語べクトルの学習の際に選定した語彙に含まれるすべての単語を対象単語とすることである。このように拡張することで,対象単語のリストを事前に用意する必要が無くなり, リストに載っていない単語の意味が変化することによる分析漏れなども避けることができる。また, 単語べクトルの変化量から, 自明でない単語の意味変化を検出することが可能になる. $2 \supset$目は, 周辺単語べクトルも文書間での変化を考慮することである。一般的に動的な単語分散表現 (Yao et al. 2018)でない限り, 学習した単語分散表現の対象単語べクトルは文書間で獲得されるが, 一緒に学習される周辺単語べクトルは文書間で固定されているか, 対応が取れていないことが多い (Kim et al. 2014; Kulkarni et al. 2015; Hamilton et al. 2016b; Dubossarsky et al. 2019). そこで, Dynamic Word Embeddings のように周辺単語ベクトルも文書間での変化を考慮するような拡張を行う. 次に, 実験において, 複数の言語での性能比較および網羅的な分析を行った. 定量的な分析に おいては, 各手法で意味変化した単語の検出性能を評価した. SemEval-2020 Task 1 (Schlechtweg et al. 2020) で 4 つの言語において提案した拡張方法による効果を検証した後に, 英語と日本語の 2 つの言語において先行研究と提案した拡張手法の性能を比較した. 先行研究との比較の際には, 意味変化を検出する性能だけでなく, 単語分散表現の学習に要する計算時間も比較した.定性的な分析においては, 先行研究によって意味の変化が報告されている単語だけでなく, 意味の変化が自明でない単語についても,網羅的な分析を行った. 本稿の構成を示す. 第 2 節では時期を考慮した単語分散表現を獲得するための先行研究および既存手法の問題点について述べる。第 3 節では既存手法の問題点を解消するための拡張方法を提案する。第 4 節と第 5 節では提案手法と既存手法について, 意味変化した単語の検出性能を比較する. 第 6 節では各手法が検出した単語や, 意味変化の種類・傾向について分析を行う.最後に, 第 7 節で本研究の結論を述べる 1. ## 2 関連研究 ## 2.1 文脈を考慮しない単語分散表現を用いた手法 初期の段階では,各時期の頻度情報を用いた分析・検出が行われていた (Sagi et al. 2009; Cook and Stevenson 2010; Gulordava and Baroni 2011).しかし,意味の変化が頻度の増減によって決まるとは限らないため, 単語の意味を直接表現する必要がある. そのような状況の中で, Mikolov et al. (2013) が単語の意味をべクトル空間上で表す Word2Vec を提案し, 数多くの研究で用いられるようになった. この手法では一般的に1つの文書に対して1つの単語分散表現を学習するため, 時期の異なる複数の文書で学習を行うと文書ごとに異なるべクトル空間が得られ,直接比較することができない. 図 1 のように通時的な単語分散表現を獲得するには, 各時期でのベクトル空間を対応させる必要がある。そのために, Kim et al. (2014) は時期 $t$ の単語分散表現の初期値を時期 $t-1$ の単語分散表現で初期化することで, 時期間で対応の取れた単語分散表現の獲得手法を提案した.近年では Kaji and Kobayashi (2017) によって Word2Vec の動的な学習方法が提案され, より効率的に学習を行えるようになった。その後, Kulkarni et al. (2015) と Hamilton et al. (2016b) は各文書で独立に学習した単語分散表現を線形変換で対応づける手法を提案した. Kulkarni et al. (2015) は対象単語以外のほとんどの単語は意味が変化しないという仮定のもと, ある対象単語 $w$ の時期 $t$ での単語べクトル $\mathbf{W}_{t}(w)$ と時期 $t+1$ での単語べクトル $\mathbf{W}_{t+1}(w)$ を対応づける線形変換 $\mathbf{R}(w)_{t \mapsto t+1}$ を以下のように獲得した $ \left.\underset{t \mapsto t+1}{\mathbf{R}(w)}=\underset{\mathbf{R}}{\operatorname{argmin}} \sum_{s \in k-\mathrm{NN}} \| \mathbf{W}_{t}(w)\right) \mathbf{R}-\mathbf{W}_{t+1}(s) \|_{F}^{2} $  ここで, $k-\mathrm{NN}\left(\mathbf{W}_{t}(w)\right)$ は $\mathbf{W}_{t}(w)$ における上位 $k$ 個の近傍単語であり, $\|\cdot\|_{F}$ はフロベニウスノルムである. Hamilton et al. (2016b) も同様の仮定のもと, 時期 $t$ の単語分散表現 $\mathbf{W}_{t}$ と時期 $t+1$ の単語分散表現 $\mathbf{W}_{t+1}$ を対応させる回転行列 $\mathbf{R}_{t \mapsto t+1}$ を以下のように獲得した $ \underset{t \mapsto t+1}{\mathbf{R}}=\underset{\mathbf{R}: \mathbf{R R}^{\top}=1}{\operatorname{argmin}}\left.\|\mathbf{W}_{t} \mathbf{R}-\mathbf{W}_{t+1}\right.\|_{F}^{2} . $ この回転行列を用いた手法は,時期の異なる 2 つの文書において意味の変化した単語を検出するタスクにおいて,頻度による手法を上回ることが報告されている (Schlechtweg et al. 2019). しかし, これらの線形変換に基づく対応づけによる手法は, 異なる文書で学習したべクトル空間を線形変換で対応づけすることができるという強い仮定をおいている。このような仮定は時期の近い文書を比較する際には有用かもしれないが,時期が大きく離れている場合には,それぞれのべクトル空間を正しく対応づけできない可能性がある. そこで,上記の線形変換による問題を避けるため, Yao et al. (2018) は Dynamic Word Embeddings (DWE) を提案した。この手法は各時期の単語分散表現を同時に学習するため, 線形変換による対応づけを必要としない. ある時期 $t$ の単語ベクトルの集合 $\mathbf{W}_{t}$ は以下の目的関数を最小化することで獲得できる $ \begin{aligned} \frac{1}{2} \sum_{t=1}^{T} & \left.\|\mathbf{M}_{t}-\mathbf{W}_{t} \mathbf{C}_{t}\right.\|_{F}^{2}+\frac{\gamma}{2} \sum_{t=1}^{T}\left.\|\mathbf{W}_{t}-\mathbf{C}_{t}^{\top}\right.\|_{F}^{2} \\ & +\frac{\lambda}{2} \sum_{t=1}^{T}\left.\|\mathbf{W}_{t}\right.\|_{F}^{2}+\frac{\tau}{2} \sum_{t=1}^{T-1}\left.\|\mathbf{W}_{t+1}-\mathbf{W}_{t}\right.\|_{F}^{2} \\ & +\frac{\lambda}{2} \sum_{t=1}^{T}\left.\|\mathbf{C}_{t}\right.\|_{F}^{2}+\frac{\tau}{2} \sum_{t=1}^{T-1}\left.\|\mathbf{C}_{t+1}-\mathbf{C}_{t}\right.\|_{F}^{2} \end{aligned} $ ここで $\mathbf{M}_{t}$ は時期 $t$ の positive pointwise mutual information (PMI) 行列, $\mathbf{C}_{t}$ は時期 $t$ の周辺単語ベクトル集合を示す. 訓練では, 学習パラメータである $\mathbf{W}_{t}, \mathbf{C}_{t}$ をランダムに初期化し,各時期の PMI 行列をもとに行列分解に適したブロック座標降下法で更新する ${ }^{2}$. また, $\gamma, \lambda, \tau$ はそれぞれハイパーパラメータであり, $\gamma$ は同じ時期における単語ベクトルと周辺単語ベクトルの対応づけの強さ, $\tau$ は各べクトルにおける隣接する時期間での対応づけの強さを制御し, $\lambda$ は正則化の強さを制御する。この手法は同じ単語の同じ時期におけるべクトル $\left(\mathbf{W}_{t}, \mathbf{C}_{t}^{\mathbf{T}}\right)$ および同じ単語の隣接する時期におけるべクトル $\left.\{\left(\mathbf{W}_{t}, \mathbf{W}_{t+1}\right),\left(\mathbf{C}_{t}, \mathbf{C}_{t+1}\right)\right.\}$ は近いことを仮定している。したがって,この手法には設定に敏感な 3 つのハイパーパラメータがあり,膨大な組み合わせ数の設定から適切なハイパーパラメータを探索する必要がある. 線形変換や動的な単語分散表現の問題を回避するために, Dubossarsky et al. (2019) は各文  書を 1 つの大きな文書とみなして単語分散表現を同時に学習する Temporal Referencing を提案した。時期の異なる文書を 1 つの大きな文書とみなし, 事前に与えられた対象単語のリスト $L=\left.\{w^{1}, w^{2}, \ldots, w^{|L|}\right.\}$ に載っている単語のみ時期ごとに区別して単語分散表現の学習を行う. $ \begin{cases}\mathbf{W}_{1}\left(w^{i}\right), \ldots, \mathbf{W}_{t}\left(w^{i}\right), \ldots, \mathbf{W}_{T}\left(w^{i}\right) & w^{i} \in L \\ \mathbf{W}\left(w^{i}\right) & w^{i} \notin L\end{cases} $ しかし,実際に任意の文書間で分析を行う場合において,適切に選定された対象単語リストを事前に用意するのは労力を要する. ## 2.2 文脈を考慮した単語分散表現を用いた手法 2.1 節で取り上げた Word2Vec などの単語分散表現は 1 つの文書において 1 単語に 1 つのべクトルを割り当てているが,近年提案された BERT (Devlin et al. 2019) などに代表される事前訓練済み言語モデルは文ごとに単語のべクトルを獲得できるため,主に多義語の通時的な分析に用いられている. Hu et al. (2019) は各意味における辞書の例文から各意味の教師べクトルを獲得して, 文書に含まれる各文における対象単語の意味を教師べクトルとの類似度に基づいて分類する手法を提案し, gay や tape などの多義語について, 主要な意味の時間変化を分析した. Giulianelli et al. (2020) は辞書の代わりに $k$-means を用いて単語の意味のクラスタリングを行う手法を提案し,辞書のような教師情報なしに多義語における通時的な意味の時間変化を分析した。一般的に, BERT のような文脈を考慮した単語べクトルを獲得できる手法は,意味変化検出タスク SemEval-2020 Task 1 において Word2Vec などの文脈を考慮しない単語分散表現より劣ることが報告されている (Kutuzov and Giulianelli 2020; Martinc et al. 2020b; Laicher et al. 2021; Montariol et al. 2021). しかし, 最近では, 文に $\langle 2022\rangle$ などの時期トークンを付与したり,時期ベクトルを学習する注意機構を追加したりして事前訓練済み言語モデルに時期を考慮した調整を加えることで意味変化検出の性能が向上し, SemEval-2020 Task 1 で最高性能を獲得することが報告された (Rosin et al. 2022; Rosin and Radinsky 2022). 上記で取り上げた手法は,調査対象の言語において事前訓練済みの言語モデルが存在する前提だが, mBERT (Devlin et al. 2019) や XLM-R (Conneau et al. 2020) などの多言語モデルでも対応しているのはせいぜい 100 言語である. しかし, 対応外の言語で分析を行うためにモデルを一から訓練するには膨大な計算資源を必要とするため,潤沢な計算資源を持たない言語学者や社会学者には困難である。したがって,本研究では,少ない計算資源でも手軽に学習できる 2.1 節のような文脈を考慮しない単語分散表現に基づいた手法に着目する. ## 3 提案法 本研究では, 先行研究である Temporal Referencing に対して, 2 つの拡張手法を提案する. ## 3.1 ベースとなる単語分散表現:PMI-SVD 最初に, 本研究の基盤となる Levy and Goldberg (2014)による研究について説明する. 彼らは図 2 のように, 対象単語-周辺単語の PMI 行列を Singular Value Decomposition (SVD) で次元削減した結果が Word2Vec の Skip-Grams with Negative Sampling (SGNS) モデル (Mikolov et al. 2013) と等価であることを示した. 具体的には対象単語 $w$, 周辺単語 $c$, 及びそれらの共起する確率を $p(w), p(c), p(w, c)$ とすると, 単語分散表現は以下の手順で獲得できる. 最初に, $\mathrm{PMI}$ 行列 $\mathbf{M} \in \mathbb{R}^{W \times C}$ ( $W$ と $C$ はそれぞれ対象単語数,周辺単語数を示す)を以下のように求める $ \mathrm{M}[w, c]=\max \left(\log \frac{p(w, c)}{p(w) p(c)}, 0\right) $ Levy and Goldberg (2014) の研究では SGNS は Shifted Positive PMI と等価であることを示していた.しかし, その後の彼らの研究により, Shifted Positive PMI は情報を減らしてしまうばかりで性能に貢献しないことが示された (Levy et al. 2015) ため, 本研究では標準的な Positive PMI を使用した。次に,PMI 行列 M をSVD で以下のように行列分解する $ \mathbf{M}=\mathbf{U} \boldsymbol{\Sigma} \mathbf{V}^{\top} $ ここで U と V は直交行列を示し, $\mathbf{\Sigma}$ は $\mathrm{M}$ の固有値が大きい順に格納された対角行列を示す. 最終的に, 目的の $d$ 次元の対象単語ベクトルの集合 $\mathbf{W} \in \mathbb{R}^{W \times d}$ と周辺単語ベクトルの集合 $\mathbf{C}^{\top} \in \mathbb{R}^{C \times d}$ は以下のようにして獲得できる $ \mathbf{W}=\mathbf{U} \boldsymbol{\Sigma}^{1 / 2}, \mathbf{C}^{\top}=\mathbf{V} \boldsymbol{\Sigma}^{1 / 2} $ 図 2 PMI-SVD (Levy and Goldberg 2014) の概要図。対象単語 apple とその周辺単語 eat, computer の共起情報から自己相互情報量を計算して次元削減を行うことで, Word2Vec と等価な対象単語べクトルの集合 $\mathbf{W}$ と周辺単語ベクトルの集合 $\mathbf{C}$ を獲得できる。 この手法をもとに, Temporal Referencing に対して2つの拡張を行う. Temporal Referencing に対する 1つ目の拡張として, 語彙に含まれる全ての単語を対象単語とした. ここで先行研究と同様に, 周辺単語べクトルの集合 C が文書 A と B において変化しないと仮定すると,各文書の $P M I$ 行列 $\mathbf{M}_{\mathrm{A}}, \mathbf{M}_{\mathrm{B}}$ を結合した $\mathbf{M}=\left[\mathbf{M}_{\mathrm{A}} ; \mathbf{M}_{\mathrm{B}}\right]$ をまとめて次元削減することで, 文書間の対応の取れた単語分散表現を獲得できる(図 3) $ \left[\begin{array}{l} \mathbf{M}_{\mathrm{A}} \\ \mathbf{M}_{\mathrm{B}} \end{array}\right]=\left[\begin{array}{l} \mathbf{W}_{\mathrm{A}} \\ \mathbf{W}_{\mathrm{B}} \end{array}\right][\mathbf{C}] $ ## 3.3 拡張 2 : 文書間における周辺単語べクトルの変化を考慮する PMI-SVD ${ _{c}$} 2 つ目の拡張として, 周辺単語ベクトルの文書間の変化を考慮する (図 4). 各文書の周辺単語ベクトル $\mathbf{C}_{\mathrm{A}}, \mathbf{C}_{\mathrm{B}}$ を獲得する単純な方法として各文書で計算した PMI 行列をそれぞれ独立に行列分解する方法が挙げられるが,そのように獲得した単語分散表現は文書間での対応がとれない,そこで,本研究では各文書の周辺単語ベクトルに制約条件を与えることによって, DWE のように文書間で対応のとれた単語分散表現を獲得する。訓練において最小化する目的関数を以下に示す $ \sum_{y \in\{A, B\}}\left.\|\mathbf{M}_{y}-\mathbf{W}_{y} \mathbf{C}_{y}\right.\|_{F}+\tau\left.\|\mathbf{C}_{\mathrm{B}}-\mathbf{C}_{\mathrm{A}}\right.\|_{F} $ ここで, $\tau$ は対応づけの強さを制御するハイパーパラメータである. DWE と同様に,各時期の PMI 行列をもとにランダムに初期化した学習パラメータ $\mathbf{W}_{t}, \mathbf{C}_{t}$ をブロック座標降下法で更新 図 3 PMI-SVD ${ }_{\text {joint }}$ の概要図. 各文書 $\mathrm{A}, \mathrm{B}$ で対象単語 apple とその周辺単語 eat, computer の自己相互情報量を計算し, 同時に次元削減を行うことで, 文書間で対応の取れた単語分散表現を獲得できる. 図 4 PMI-SVD ${ }_{c}$ の概要図. Dynamic Word Embeddings (Yao et al. 2018) のように制約条件を加え,周辺単語ベクトルの文書間での変化を考慮しながら文書間で対応の取れた単語分散表現を獲得する。 する ${ }^{3}$.この手法は DWE に似ているが, DWE と比較して単語ベクトルと周辺単語ベクトルの対応づけの強さおよび正則化の強さを制御するハイパーパラメータを持たず,探索すべきハイ 必要な時間の比較を行う. ## 4 実験 1 本節では,提案した拡張手法による効果を検証するため, 2 つの拡張手法 PMI-SVD joint , PMI$\mathrm{SVD}_{c}$ と既存手法 Temporal Referencing の性能の比較を行う. ## 4.1 概要 SemEval-2020 Task 1 (Schlechtweg et al. 2020) で性能の比較を行った. SemEval-2020 Task 1 は時期の離れた 2 つの文書間で与えられた単語の意味変化を検出する共通タスクであり,分類と順位付けの 2 つのサブタスクに分かれている。分類タスクでは,2つの文書間で与えられた単語の意味が変化したかどうかを分類し,分類の精度を評価する。順位付けタスクでは,与えられた単語を意味変化の度合いで並び替えを行い,スピアマンの順位相関係数で評価を行う。 上記の 2 つのサブタスクについて,英語・ドイツ語・ラテン語・スウェーデン語の 4 つの言語で評価を行う.各言語における時期の区別とデータ量を表 1 に示す. ## 4.2 実験設定 今回の実験では,与えられた対象単語と両方の文書で 100 回以上出現した単語を語彙とし,頻度行列を作成する際の文脈空幅は前後 4 単語, PMI 行列の次元削減で得る単語ベクトルは 100  $\left.\{10^{-3}, 10^{-2}, \ldots, 10^{3}\right.\}$ のうち 4 つの言語全てで最も安定して学習した $\tau=1$ とした. 予測では,与えられた対象単語に対して時期間のべクトルの余弦類似度を使用した. 分類タスクでは, 先行研究と同様に対象単語の類似度の平均を閾値として分類を行った (Pražák et al. 2020). 順位付けタスクでは,時期間の類似度が低い順に対象単語の順位付けを行った。以上の条件で,既存手 の性能を比較した。 ## 4.3 結果と考察 PMI-SVD ${ }_{c}$ はどちらも既存手法 PMI-SVD $\operatorname{tr}$ の性能を上回っていることがわかる. また, PMI$\mathrm{SVD}_{\mathrm{tr}}, \mathrm{PMI}-\mathrm{SVD}_{\text {joint }}$ はデー夕量の少ないラテン語での性能が他の言語に比べて低いが, PMI$\mathrm{SVD}_{c}$ では他の言語と同等の性能を獲得し, 言語間の平均で最も高い性能であることが確認できる。 次に,順位づけタスクの結果を表 3 に示す. 英語では既存手法 PMI-SVD $\mathrm{Pr}_{\mathrm{tr}}$ の性能が高いが, 表 1 SemEval-2020 Task 1 のデータセット.時期の離れた 2 つの文書 $C_{1}, C_{2}$ から与えられた単語の意味変化を検出し, 4 つの言語で性能を評価する。 \#tokens は延べ語数, \#types は異なり語数を示す. 表 2 SemEval-2020 Task 1 の Subtask 1 意味変化の有無を分類するタスクの結果. En, De, La, Sv, Avg. はそれぞれ英語,ドイツ語,ラテン語,スウェーデン語および 4 つの言語の平均を示す. いることがわかる.このタスクでは特に既存手法および PMI-SVD joint のラテン語での性能が低いが, PMI-SVD ${ }_{c}$ が大幅に性能を向上した. 以上の結果より,提案した 2 つの拡張手法によって文書間における単語の意味変化の検出性能を向上させることが確認できた. 1 つ目の拡張「語彙に含まれる全ての単語を対象語にする」 が性能を向上させた理由として,与えられた対象単語以外にも意味や用法の変化した単語が存在したことが挙げられる。今回の SemEval-2020 Task 1 では人手で選択されたいくつかの単語だけが評価の対象となっているが,それ以外の単語が大規模なデー夕内で意味や用法が変化している可能性がある。既存手法 PMI-SVD tr では対象単語以外の単語について文書間で比較が が低い順に意味変化の可能性が高い単語を出力した結果を表 4 に示す. 表 4 より,英語・ドイツ語・スウェーデン語では固有名詞が上位に多く出現していることが確認できる.ラテン語では固有名詞が 2 つしか出現していないが,それ以外の単語はほとんど副詞であった。ここで検出した固有名詞や副詞は与えられた対象単語に含まれていないが, 時代によって周辺文脈が異 表 3 SemEval-2020 Task 1 の Subtask 2 対象単語の順位づけタスクの結果. En, De, La, Sv, Avg. はそれぞれ英語, ドイツ語, ラテン語, スウェーデン語および 4 つの言語の平均を示す. \\ () の中はその単語の品詞であり,(名),(動),(形),(副),(代),(接)はそれぞれ名詞, 動詞, 形容詞, 副詞, 代名詞, 接続詞を示す.また, 太字は固有名詞を示す. なるため,上位に出現したのだと考える。Temporal Referencing では与えられた対象単語だけが意味変化すると仮定し, それ以外の単語は複数の文書でまとめて 1 つのべクトルのみ学習するため, 今回の固有名詞や副詞のように対象から外れているが用例の異なる単語のべクトルがノイズとなっていたのだと考える. 2 つ目の拡張「周辺単語ベクトルの変化を考慮する」が主にラテン語での性能を大幅に向上させた要因として, 時間経過に伴う周辺単語の変化が挙げられる. 従来の手法を基にしている PMI-SVD $_{\mathrm{tr}}$ や PMI-SVD joint では各時期に対応した単語べクトルの学習時に周辺単語ベクトルを固定していた(図 3)ため, ラテン語のような時期が大きく離れている文書間での性能が低くなっていたのだと考える。そこで, 周辺単語べクトルも各時期で作成することで上記の問題を回避し, 時間が大きく離れて周辺単語が大きく変わったラテン語のような状況でも他の言語と同様の性能を獲得したのだと考える. ## 4.4 まとめ 本節では, 提案した 2 つの拡張手法 PMI-SVD joint, PMI-SVD $_{c}$ と既存手法 Temporal Referencing の性能の比較を行った。時期の異なる 2 つの文書間で与えられた対象単語の意味変化を検出する SemEval-2020 Task 1 において 4 つの言語で性能を比較したところ,提案した 2 つ拡張手法が既存手法の性能を上回ることを示した,今回のデータでは与えられた対象単語以外の固有名詞や副詞といった単語が時期によって周辺文脈が異なるため, 文書間でただ 1 つのべクトルにまとめるのではなく, 全ての単語を対象単語として考慮することで性能が向上することを確認した. また, 周辺単語ベクトルの変化を考慮することによって, データ量の少ないラテン語における性能を大幅に改善することがわかった. ## 5 実験 2 本節では,提案した 2 つの拡張手法といくつかの代表的な先行研究について,意味変化を検出する性能を比較した。 ## 5.1 データ ここでは, 日本語と英語の 2 つの言語で比較を行った. 実験に使用したコーパスの統計量を表 5 に示す。英語では, Corpus of Historical American English (COHA)4を用いた。 COHA は 10 年ごとに文書が分かれているため, 1900 年代と 1990 年代の文書を対象にした. Hamilton et al. (2016b) と同様に, ストップワードと固有名詞を取り除き, 両方の文書で 100 回以上出現する ^{4}$ https://www.english-corpora.org/coha/ } & \#types & 時期 & & \#types \\ 日本語 & $1874-1944$ & $17 \mathrm{M}$ & $152 \mathrm{k}$ & $1945-1997$ & $16 \mathrm{M}$ & $127 \mathrm{k}$ \\ 表 5 データセットの統計量. 時期の離れた 2 つの文書 $C_{1}, C_{2}$ から単語の意味変化を検出する. \#tokens は延べ語数, \#types は異なり語数を示す. 名詞・動詞・形容詞・副詞を対象単語とした,日本語では,日本語歴史コーパス 5 を用いた,実験では第二次世界大戦の前後で文書を分け,英語と同様に両方の文書で 100 回以上出現する名詞・動詞・形容詞(形状詞は除く)・副詞を対象単語とした. ## 5.2 比較手法 行研究を比較した. - Word2Vec $v i$ (Kim et al. 2014): 古い時期の文書(戦前, 1900 年代)の文書で Word2Vec SGNS モデルを訓練し,その結果を新しい時期の文書(戦後,1990 年代)の文書のモデルの初期値にして学習を行った。 - Word2Vec ${ }_{i n c r}$ (Kaji and Kobayashi 2017): 文書を与える度に動的にモデルを学習する incremental skip gram ${ }^{6}$ を適用し,最初に古い時期の文書を,次に新しい時期の文書を与えて学習を行った。 - Word2Vecalign (Hamilton et al. 2016b): 各文書で Word2Vec SGNS モデルを訓練し, 式 (2) の回転行列で対応づけを行った。 - PMI-SVD align (Hamilton et al. 2016b): 各文書で PMI-SVD を訓練し, Word2Vec align と同様に回転行列で対応づけを行った。 - DWE (Yao et al. 2018): 先行研究と同様に, ブロック座標降下法で式 (3) を最小化し,単語分散表現を獲得した。この手法および PMI-SVD $\left.\{10^{-3}, 10^{-2}, \ldots, 10^{3}\right.\}$ の中からグリッドサーチで探索し, Area Under the Curve の最も高い設定を採用した. - BERT (Martinc et al. 2020a): 各時期の対象単語ベクトルは, 各時期の中における対象単語の全ての出現から文脈を考慮した対象単語のべクトルを獲得し, その平均を使用した. 両言語において, Huggingface ${ }^{7}$ で公開されている事前訓練済みの bert-base-uncased  モデルを使用した。 文脈を考慮しない単語分散表現を使った手法は,文脈密幅を前後 4 単語, 100 次元, contextual distributional smoothing を 0.75 とした. その後, 先行研究と同様に, 2 つの時期の単語分散表現に対して同時に all-but-the-top (Mu and Viswanath 2018)の後処理を行った (Kaiser et al. 2021). ## 5.3 評価 評価には, 先行研究と同様に平均逆順位 (mean reciprocal rank; MRR) を使用した (Kulkarni et al. 2015; Yao et al. 2018). 具体的には,時期間のベクトルの余弦類似度に応じて語彙中の単語を並べ替え,評価に使う意味の変化が報告されている単語の逆順位の平均を求める。平均逆順位は主に検索システムの評価に用いられ,目的の Web サイトを上位で検出できているほど値は大きくなり,優れたシステムであると評価される.また,各手法が意味の変化した単語を検出する様子を可視化するために, 再現率でも評価を行った (Kulkarni et al. 2015). ## 5.4 結果と考察 ## 5.4.1疑似データでの評価実験 まず,2つの時期で完全に意味が変化する場合の性能を確認するため, Shoemark et al. (2019) と同様に,意味変化する単語を擬似的に生成して評価を行った,具体的には,新しい時期の文書で単語 $\beta$ (例:「景色」)が含まれる全ての文に対して単語 $\alpha$ (例:「友」)で置き換え,本来の単語 $\alpha$ が出現する全ての文に対して単語 $\alpha$ を削除することで, $\alpha$ の出現文脈集合から $\beta$ の出現文脈集合へと変化する単語 $\alpha^{\prime}$ を擬似的に生成した。 (置換:変更前)その辺りは,フランスの國道にそった景色のよいところですから, (1947 年, 文部省『小学校国語 6 期』, 国語第五学年 $)^{8}$ (置換:変更後)その辺りは,フランスの國道にそった友のよいところですから, (削除:変更前) 世界の友よ,手をつなぎ,なかよくとんであそぼうよ. (1947 年, 文部省『小学校国語 6 期』, 国語第三学年 $)^{9}$ (削除:変更後) 世界の(削除)よ,手をつなぎ,なかよくとんであそぼうよ. 置換する単語ぺアの意味が似ている場合,擬似的に生成した単語の意味変化の度合いが小さくなってしまうため,単語ぺアはなるべく意味が離れているか無関係であることが望ましい,そこで本研究では,両方の時期でそれぞれ獲得した PMI 行列の各行の余弦類似度の絶対値が 0.01 以下である単語ぺアの中からランダムに 50 ペア抽出し,文脈が完全に変化する単語を擬似的に生成した。実験では,10 単語をハイパーパラメータ探索に,残りを評価に使用した。  図 5(a),5(b) は疑似データにおける各手法の Recall@ $k$ を示す。提案した 2 つの拡張手法は DWE のように,擬似的に生成した意味の変化する単語をほぼ正確に検出できていることがわかる.これらの図及び平均逆順位(表 6)より,提案した拡張手法は先行研究と同等またはそれ以上の性能であることを示した. 意味が完全に変わる場合では性能が低いことが確認できた。このことから,学習した単語分散表現を線形変換で対応づけができるという仮定は強すぎるのではないかと考える。 また, 先行研究より, 古い時期で訓練した単語べクトルを新しい時期の単語べクトルの初期値とする手法 Word $2 \mathrm{Vec}_{v i}$, Word2 $\mathrm{Vec}_{i n c r}$ は線形変換で対応づけを行う手法 PMI-SVD ${ }_{\text {align }}$, (a) 英語 (b) 日本語 図 5 各手法が擬似的に意味の変化した単語を検出する様子,縦軸は上位 $k$ 単語における再現率 (Recall@ $k$ ),横軸は考慮する上位の単語数 $k$ を示す. 表 6 擬似的に生成した単語における平均逆順位 (MRR)。*は事前訓練で外部のデータを使用していることを示す. Word2Vec $_{\text {align }}$ に劣ると報告されていた (Schlechtweg et al. 2019, 2020) が,今回の実験設定では 果(表 3)より, 意味変化検出の性能は分析対象の言語や時期によって大きく変わる可能性があるため, 多様な言語や時期間を対象とする言語学や社会学へ応用するためには任意の言語や時期間で安定する手法の検討が必要である. ## 5.4.2実データでの評価実験 次に,実際に意味の変化が報告されている単語を用いて評価を行った.英語では word sense change testset ${ }^{10}$ をハイパーパラメータ探索に,Kulkarni et al. (2015) が作成したリストを評価に使用した。日本語では, 間淵, 小木曽 (2021) が作成したリストをハイパーパラメー夕探索と評価に使用した。 再現率を図 6(a),6(b) に,平均逆順位を表 7 に示す。結果より,提案した 2 つの拡張手法 表 7 より英語のデータにおける訓練時間を比較すると, PMI- SVD $_{\text {joint }}$ は非常に高速に動作し, $る^{11}$ これまでの実験では,外部の大規模なデータで事前訓練された BERT-base モデル(12 層 768 次元)を使用してきた。ここでは,データを揃えて性能を比較するために,実験で対象にした (a) 英語 (b) 日本語 図 6 各手法が実際に意味の変化した単語を検出する様子.縦軸は上位 $k$ 単語における再現率 (Recall@ $k$ ),横軸は考慮する上位の単語数 $k$ を示す. $ (Intel Xeon $2.60 \mathrm{GHz}$, 全 56 コア), $512 \mathrm{~GB}$ の RAM を備えた計算機で計測した. } 表 7 実際に意味の変化が報告されている単語での平均逆順位 (MRR). 訓練時間の列は英語のデー夕における各手法の訓練に要する時間を示す。*は事前訓練で外部のデータを使用していることを示す. BERT-tiny, BERT-mini は今回の実験で対象にしたデータのみを使用して訓練したものである. 通時データ(5.1 節)だけを使用して BERT モデルを再訓練する。BERT-base の事前訓練に使用されたデータと比べると通時データの量は非常に少ないため,今回は BERT-tiny(2 層 128 次元)と BERT-mini(4層 256 次元)を訓練した ${ }^{12}$. 表 7 より,提案した 2 つ拡張手法が同じデータで訓練された BERT-tiny と BERT-mini の性能を上回ることを確認した. さらに,訓練時間を比較すると,BERT-tiny,BERT-mini は膨大な計算資源で 2 週間程度の訓練時間を要するのに対し,提案手法は軽量で高速に動作することがわかる. ## 5.5 まとめ 本節では,提案した 2 つの拡張手法といくつかの代表的な先行研究について, 英語と日本語の 2 つ言語で定量的な比較を行った.意味の変化する単語を擬似的に生成した場合では,提案した 2 つの拡張手法がほぼ完璧に意味の変化する単語を検出し,先行研究と同等またはそれ以上の平均逆順位を示した。実際に変化が報告されている単語を用いた場合でも,提案した $2 \supset$ の拡張手法が先行研究と同等またはそれ以上の平均逆順位を示した, また, 単語分散表現の学 先行研究 Dynamic Word Embeddings と比較してハイパーパラメータ探索に必要な時間を大幅に削減していることがわかった。 $ ,全 56 コア), 512 GB の RAM を備えた計算機で計測した. } ## 6 分析 本節では最初に, 定量的な比較実験(5.4.2 節)で優れた性能を示した BERT と提案手法の 1 つである PMI-SVD $c$ について, 定性的な分析を行った. 次に,単に意味変化の有無を予測するだけでなく, 意味変化の種類について先行研究の指標を用いて分析を行った. 最後に, 単語の意味変化の傾向について, 単語ベクトルの空間上で分析を行った. ## 6.1 意味変化の可能性が高い上位 10 単語 まず,各手法が時期間の余弦類似度に基づいて語彙中の単語を並べ替え, 意味変化の可能性が高いと予測した上位 10 単語を比較した。具体的には,各手法で時期間の余弦類似度が低い順に並べた単語について, その単語が出現する文を各時期のコーパスから 50 文抽出し, 各時期における意味について人手でアノテーションを行い,代表的な意味を集計した,日本語における結果を表 8 に示す.どちらの手法も「行い」や「欠け」といった 2 つの時期間で意味が変化した単語を検出できている事がわかる。また, BERT は「若く」,「公明」,「参議」,「幼稚」のように概念が追加・削除されることで意味が大きく変化する単語を,PMI-SVD P $_{c}$ はおおお」,「反面」のように元の概念が拡張されることで意味が多少変化する単語を捉えている. BERT は与えられた文全体を考慮して単語べクトルを算出し, PMI-SVD P $_{c}$ は周辺数単語の頻度情報から単語ベクトルを算出していることから,単語ベクトルを獲得する際の文脈空幅の違いによるものであると考える。 表 8 各手法において時期間の余弦類似度が低い順に並べた上位 10 単語と, 各時期における単語の意味の分析結果. 1 文字の単語は除外している. ## 6.2 意味変化した単語に対する近傍単語の変化 次に,意味変化をした単語の近傍単語の変化を分析した (Kim et al. 2014; Hamilton et al. 2016b). ここでは, 間淵, 小木曽 (2021)によって意味の変化が報告されている単語「了解(理解 $\rightarrow$ 承諾)」及び表 8 で今回検出した単語「欠け(物理的 $\rightarrow$ 概念的)」について,BERT と ${\mathrm{PMI}-\mathrm{SVD}_{c}}$ の近傍単語を比較した。それぞれの単語における近傍単語の変化を表 $9(\mathrm{a}), 9(\mathrm{~b})$ に示す. 意味変化が自明な単語「了解」は理解から承知へと意味が変化しており, 表 9 (a) からどちらの手法も適切に両方の意味を検出できているが,BERT は変化後の意味を持つ単語「承諾」,「承知」を変化前(戦前)に検出してしまっていることが分かる.今回の分析で検出した単語「欠け」は物理的な欠損から概念的な欠損へと変化していることを確認した.表 $9(b)$ より,どちらの手法も変化の前後で適切に近傍単語を検出できていることがわかる.以上の結果より,提案手法 PMI-SVD P $_{c}$ は意味変化が自明な単語だけでなく, そうでない単語についても適切に意味の変化を捉えられることが確認できた. ## 6.3 意味変化の種類 これまでの分析では,2つの時期間で意味が変化した単語を検出していたが,それがどのような変化であるかまでは予測できていない. Hamilton et al. (2016a) は,調査対象単語が緩やかに変化する言語的な変化または何らかの拍子に急激に変化する文化的な変化のどちらかを予測する指標を提案した. 最初に, global な指標として, 分析対象の時期 $t, t+1$ における対象単語 $w^{i}$ のベクトル $\mathbf{W}_{t}\left(w^{i}\right), \mathbf{W}_{t+1}\left(w^{i}\right)$ を以下のように直接比較する $ \operatorname{global}_{t, t+1}\left(w^{i}\right)=1-\cos \left(\mathbf{W}_{t}\left(w^{i}\right), \mathbf{W}_{t+1}\left(w^{i}\right)\right) $ (b) 欠け(物理的 $\rightarrow$ 概念的) 表 9 各時期における対象単語ベクトルの近傍 5 単語. 1 文字の単語は除外している. 表 10 言語的 (global > local), 文化的 $($ global < local) な意味変化の度合いが高い上位 5 単語. 次に, local な指標を以下のように算出する。まず,各時期 $t, t+1$ で対象単語 $w^{i}$ の上位 $k$ 個の近傍単語 $k-\mathrm{NN}\left(\mathbf{W}_{t}\left(w^{i}\right)\right), k-\mathrm{NN}\left(\mathbf{W}_{t+1}\left(w^{i}\right)\right)$ を獲得する. その後, 各時期の近傍単語を結合し $ L_{t, t+1}\left(w^{i}\right)=k-\mathrm{NN}\left(\mathbf{W}_{t}\left(w^{i}\right)\right) \cup k-\mathrm{NN}\left(\mathbf{W}_{t+1}\left(w^{i}\right)\right) $ 時期 $t$ における対象単語 $w^{i}$ と $L_{t, t+1}\left(w^{i}\right)$ に含まれる近傍単語 $w^{j}$ のベクトルの類似度を $\left|L_{t, t+1}\left(w^{i}\right)\right|$ 次元のベクトル $\mathbf{s}_{t}$ に格納する $ \mathrm{s}_{t}[j]=\cos \left(\mathbf{W}_{t}\left(w^{i}\right), \mathbf{W}_{t}\left(w^{j}\right)\right), \forall w^{j} \in L_{t, t+1}\left(w^{i}\right) $ 最終的に,得られた類似度べクトル $\mathbf{s}_{t}, \mathbf{s}_{t+1}$ の変化を算出する $ \operatorname{local}_{t, t+1}\left(w^{i}\right)=1-\cos \left(\mathbf{s}_{t}, \mathbf{s}_{t+1}\right) . $ 以上の global と local の 2 つの指標の差を計算したところ,英語において,言語的に変化する副詞などの単語は global の値が大きく, 文化的に変化する名詞や動詞などの単語は local の値が大きいことが報告されている (Hamilton et al. 2016a). そこで,この指標を用いて,言語的・文化的それぞれの変化が強い単語を日本語のデータで分析する。結果を表 10 に示す。言語的な変化と予測された単語の中には,「老婆」や「心情」のように,時間経過とともに限定的な使われ方をするようになる単語が見られた。一方,文化的な変化と予測された単語の中には,「氾監」のようにより広い使われ方に拡張された単語や「分離」のようにある用法が急激に使われるようになった単語が見られた,以上の結果より,先行研究とは異なるが, global と local の 2 つの指標を組み合わせることで, 限定的な使われ方をする単語と拡張された意味で使われるようになる単語を検出できることがわかった. ## 6.4 意味変化しやすいべクトルの特徴 ここでは,どのような単語べクトルが変化しやすいのか,また,変化しやすい単語べクトル には空間的な特徴があるのかについて分析を行った。日本語のデー夕において, 古い時期(戦前)の単語べクトルを入力として与え, そのべクトルの変化量を予測する回帰問題として定式化を行った. 今回は, PMI-SVD ${ }_{c}$ のベクトルを訓練に 4,000 単語, 評価に 1,000 単語使用した.実験に使用した回帰モデルを以下に示す. ・ 線形回帰:二乗の正則化項を持つリッジ回帰を採用した。正則化パラメータは $\left.\{10^{-3}, 10^{-2}, \ldots, 10^{3}\right.\}$ から探索した. - 多層パーセプトロン:3 層のネットワークを用い, 線形回帰と同様に正則化パラメータの探索を行った。 - ガウス過程回帰:確率に基づいた予測を得られるため,ガウス過程による回帰モデルを用いた。カーネルは RBF カーネルを採用し,ハイパーパラメータはガウス過程回帰で一般的なスケーリング共役勾配法で最適化を行った。 ガウス過程回帰では,カーネルを用いることで,与えられた単語べクトル間の類似度を考慮して変化量を予測することが可能である。 RBF カーネルでは類似度にユークリッド距離が用いられているため,ガウス過程回帰は単語ベクトルからそのノルムも考慮していることになる。そこで,線形回帰と多層パーセプトロンの特徴量には,単語べクトルだけを使用した場合と単語ベクトルとそのノルムを使用した場合の 2 種類を用いた。予測する変化量は平均 0 , 分散 1 に標準化したユークリッド距離とし,評価には予測した変化量と実際の変化量との平均二乗誤差を採用した。 訓練・評価用データの分割方法を変え,5 回実験を行った結果を表 11 に示す.表より,ガウス過程回帰が最も正解からの誤差が低く,適切な予測ができていることがわかる。また,線形回帰において, 単語べクトルのノルムを特徴量に追加することで予測性能の向上が確認できる. このため, 単語ベクトルのノルムが意味変化のしやすさに関係していると考える。 そこで,単語べクトルのノルムと意味変化の関係について調査するため, 評価に用いた単語ベクトルを TSNE で 2 次元に圧縮して正解のユークリッド距離とガウス過程回帰の予測値を描画した。その結果を図 7 に示す。図より, 中央にある単語ほど変化量が小さく, 中央から離れた 表 11 古い時期(戦前)の単語ベクトルから,その変化量(ユークリッド距離)を予測した結果.異なる seed 値で 5 回評価した平均と標準偏差を示す. 位置にある単語ほど変化量が大きいことが確認できる。ガウス過程回帰による予測結果は,図の外側に分布する人名や地理名などの固有名詞に対して,正解の値と同様に大きな変化量を示している.4節で行った分析でも同様の結果が現れており,表 4 では意味変化の度合いが大きい順に並べた単語の多くが固有名詞であった。また,6.1節における分析結果の表 8 でも,BERT と PMI-SVD ${ }_{c}$ の両方が組織名や人名を含む単語を上位に検出していることから,この現象はモデル固有ではないことが言える。ここで,単語べクトルのノルムを調べたところ,外側に位置する変化量の大きい固有名詞はべクトルのノルムが大きく, 中央に位置する変化量の小さい単語はベクトルのノルムが小さいことがわかった. 先行研究においても, 固有名詞は他の品詞と比べてベクトルのノルムが大きく (Schakel and Wilson 2015), 特定の文脈で出現しやすい(大山他 2022 ことが示されている。これらの結果より, ベクトルのノルムが大きい固有名詞のような単語ほど意味が変化しやすいと考える。 一方で, 図 7 に示した「出版・報道」,「貿易」,「工学」,「軍事」のグループに含まれる単語は,実際にはあまり変化していないが回帰モデルは大きな変化量であると予測していた,そこで,各グループから単語を選択し,戦前と戦後での用例の違いを分析した.表 12 より「「特派」 と「電力」は人名や地名,企業名などと一緒に共起していることが確認できる.また,「製造」 や「作戦」は単語自体の意味は変わらないものの,戦前・戦後の時代の特徴を反映しているこ 図 7 正解のユークリッド距離(左)とガウス過程回帰の予測結果(右)をTSNE で 2 次元に圧縮し, 可視化した結果. 表 12 ガウス過程回帰のエラー分析の結果.「出版・報道」,「貿易」,「工学」「軍事」のグループから単語を選択し, 用例の変化を調査した。 とが確認できる.以上から,これらのグループに含まれる単語は, 変化量の大きい人名や地名などの固有名詞に影響されていると考える。 ## 6.5 まとめ 本節では,いくつかの定性的な分析を行った。まず,BERT と提案手法の 1 つである PMI- い単語についても適切に意味変化を捉えられることがわかった. 次に,意味変化の種類を予測する先行研究の指標を用いて, 日本語のデータに対して分析を行った. その結果, 限定的な使われ方をするようになった単語と拡張された意味で使われるようになった単語を分けて検出できることが確認できた,最後に,単語の意味変化のしやすさについて,回帰モデルを用いてべクトル空間の観点から分析を行った。その結果, 単語べクトルのノルムが意味変化量の予測に影響していることがわかった. ## 7 おわりに 本研究では,時期や分野の異なる文書間で意味や用例の異なる単語を検出する夕スクにおいて, 既存の単語べクトル学習手法に対して 2 つ拡張を提案した. この手法は従来の手法の問題点を解消し, 大規模な計算資源を必要とする BERT と比べ CPU のみで軽量かつ高速に学習可能である. SemEval-2020 Task 1 での事前実験の結果,提案した 2 つの拡張手法によって意味変化した単語の検出性能を向上させることを確認した。また,日本語と英語での実験より,提案した拡張手法は従来の手法よりも効果的に学習し,優れた性能を発揮する事を示した.網羅的な分析の結果, 提案した拡張手法は意味変化が既知である単語だけでなく, 自明でない単語についても検出可能である事を示した。意味変化の種類について先行研究の指標を用いて日本語で分析した結果, 限定的な意味で使われるようになった単語と拡張された意味で使われるようになった単語を区別して検出できることがわかった。最後に,回帰モデルを用いて意味変化のしやすさをべクトル空間の観点から分析した結果, 単語べクトルのノルムが意味変化量の予測に影響していることがわかった. ## 謝 辞 本研究は国立国語研究所の共同研究プロジェクト「現代語の意味の変化に対する計算的・統計力学的アプローチ」, 同「通時コーパスの設計と日本語史研究の新展開」および JSPS 科研費 19H00531, 18K11456 の研究成果の一部を報告したものである. ## 参考文献 相田太一, 小町守, 小木曽智信, 高村大也, 持橋大地 (2021). 通時的な単語の意味変化を捉える単語分散表現の同時学習. 言語処理学会第 27 回年次大会発表論文集, pp. 712-717, 北九州国際会議場(オンライン開催). 言語処理学会. [T. Aida et al. (2021). Tsujiteki na Tango no Imi Henka wo Toraeru Tango Bunsan Hyogen no Doji Gakushu. Proceedings of the 27th Annual Meeting of the Association for Natural Language Processing, pp. 712-717.]. Aida, T., Komachi, M., Ogiso, T., Takamura, H., and Mochihashi, D. (2021). "A Comprehensive Analysis of PMI-based Models for Measuring Semantic Differences." In Proceedings of the 35th Pacific Asia Conference on Language, Information and Computation, pp. 21-31, Shanghai, China. Association for Computational Lingustics. Conneau, A., Khandelwal, K., Goyal, N., Chaudhary, V., Wenzek, G., Guzmán, F., Grave, E., Ott, M., Zettlemoyer, L., and Stoyanov, V. (2020). "Unsupervised Cross-lingual Representation Learning at Scale." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8440-8451, Online. Association for Computational Linguistics. Cook, P. and Stevenson, S. (2010). "Automatically Identifying Changes in the Semantic Orientation of Words." In Proceedings of the 7th International Conference on Language Resources and Evaluation (LREC'10), Valletta, Malta. European Language Resources Association (ELRA). Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota. Association for Computational Linguistics. Dubossarsky, H., Hengchen, S., Tahmasebi, N., and Schlechtweg, D. (2019). "Time-Out: Temporal Referencing for Robust Modeling of Lexical Semantic Change." In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 457-470, Florence, Italy. Association for Computational Linguistics. Giulianelli, M., Del Tredici, M., and Fernández, R. (2020). "Analysing Lexical Semantic Change with Contextualised Word Representations." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 3960-3973, Online. Association for Computational Linguistics. Gonen, H., Jawahar, G., Seddah, D., and Goldberg, Y. (2020). "Simple, Interpretable and Stable Method for Detecting Words with Usage Change across Corpora." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 538-555, Online. Association for Computational Linguistics. Gulordava, K. and Baroni, M. (2011). "A Distributional Similarity Approach to the Detection of Semantic Change in the Google Books Ngram Corpus." In Proceedings of the GEMS 2011 Workshop on GEometrical Models of Natural Language Semantics, pp. 67-71, Edinburgh, UK. Association for Computational Linguistics. Hamilton, W. L., Leskovec, J., and Jurafsky, D. (2016a). "Cultural Shift or Linguistic Drift? Comparing Two Computational Measures of Semantic Change." In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2116-2121, Austin, Texas. Association for Computational Linguistics. Hamilton, W. L., Leskovec, J., and Jurafsky, D. (2016b). "Diachronic Word Embeddings Reveal Statistical Laws of Semantic Change." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1489-1501, Berlin, Germany. Association for Computational Linguistics. Hu, R., Li, S., and Liang, S. (2019). "Diachronic Sense Modeling with Deep Contextualized Word Embeddings: An Ecological View." In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3899-3908, Florence, Italy. Association for Computational Linguistics. Kaiser, J., Kurtyigit, S., Kotchourko, S., and Schlechtweg, D. (2021). "Effects of Pre- and PostProcessing on type-based Embeddings in Lexical Semantic Change Detection." In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 125-137, Online. Association for Computational Linguistics. Kaji, N. and Kobayashi, H. (2017). "Incremental Skip-gram Model with Negative Sampling." In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 363-371, Copenhagen, Denmark. Association for Computational Linguistics. Kim, Y., Chiu, Y.-I., Hanaki, K., Hegde, D., and Petrov, S. (2014). "Temporal Analysis of Language through Neural Language Models." In Proceedings of the ACL 2014 Workshop on Language Technologies and Computational Social Science, pp. 61-65, Baltimore, MD, USA. Association for Computational Linguistics. Kulkarni, V., Al-Rfou, R., Perozzi, B., and Skiena, S. (2015). "Statistically Significant Detection of Linguistic Change." In Proceedings of the 24th International Conference on World Wide Web, pp. 625-635. Kutuzov, A. and Giulianelli, M. (2020). "UiO-UvA at SemEval-2020 Task 1: Contextualised Embeddings for Lexical Semantic Change Detection." In Proceedings of the 14th Workshop on Semantic Evaluation, pp. 126-134, Barcelona (online). International Committee for Computational Linguistics. Kutuzov, A., Øvrelid, L., Szymanski, T., and Velldal, E. (2018). "Diachronic Word Embeddings and Semantic Shifts: A Survey." In Proceedings of the 27th International Conference on Computational Linguistics, pp. 1384-1397, Santa Fe, New Mexico, USA. Association for Computational Linguistics. Laicher, S., Kurtyigit, S., Schlechtweg, D., Kuhn, J., and Schulte im Walde, S. (2021). "Explaining and Improving BERT Performance on Lexical Semantic Change Detection." In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Student Research Workshop, pp. 192-202, Online. Association for Computational Linguistics. Levy, O. and Goldberg, Y. (2014). "Neural Word Embedding as Implicit Matrix Factorization." In Ghahramani, Z., Welling, M., Cortes, C., Lawrence, N. D., and Weinberger, K. Q. (Eds.), Advances in Neural Information Processing Systems 27, pp. 2177-2185. Curran Associates, Inc. Levy, O., Goldberg, Y., and Dagan, I. (2015). "Improving Distributional Similarity with Lessons Learned from Word Embeddings." Transactions of the Association for Computational Linguistics, 3, pp. 211-225. 間淵洋子, 小木曽智信 (2021). 近現代日本語の意味変化分析のための単語データセット構築の試み. 言語処理学会第 27 回年次大会発表論文集, pp. 1166-1170, 北九州国際会議場(オンライン開催). 言語処理学会. [Y. Mabuchi and T. Ogiso (2021). Kingendai Nihongo no Imi Henka Bunseki notameno Tango Detasetto Kochiku no Kokoromi. Proceedings of the 27th Annual Meeting of the Association for Natural Language Processing, pp. 1166-1170.]. Martinc, M., Kralj Novak, P., and Pollak, S. (2020a). "Leveraging Contextual Embeddings for Detecting Diachronic Semantic Shift." In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 4811-4819, Marseille, France. European Language Resources Association. Martinc, M., Montariol, S., Zosa, E., and Pivovarova, L. (2020b). "Discovery Team at SemEval2020 Task 1: Context-sensitive Embeddings Not Always Better than Static for Semantic Change Detection." In Proceedings of the 14th Workshop on Semantic Evaluation, pp. 67-73, Barcelona (online). International Committee for Computational Linguistics. Mikolov, T., Chen, K., Corrado, G., and Dean, J. (2013). "Efficient Estimation of Word Representations in Vector Space." In Bengio, Y. and LeCun, Y. (Eds.), International Conference on Learning Representations. Montariol, S., Martinc, M., and Pivovarova, L. (2021). "Scalable and Interpretable Semantic Change Detection." In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4642-4652, Online. Association for Computational Linguistics. Mu, J. and Viswanath, P. (2018). "All-but-the-Top: Simple and Effective Postprocessing for Word Representations." In International Conference on Learning Representations. 大山百々勢, 横井祥, 下平英寿 (2022). 単語ベクトルの長さは意味の強さを表す. 言語処理学会第 28 回年次大会発表論文集, pp. 1050-1055, アクトシティ浜松コングレスセンター(オンライン開催). 言語処理学会. [M. Oyama et al. (2022). Tango Bekutoru no Nagasa ha Imi no Tsuyosa wo Arawasu. Proceedings of the 28th Annual Meeting of the Association for Natural Language Processing, pp. 1050-1055.]. Pražák, O., Přibáň, P., Taylor, S., and Sido, J. (2020). "UWB at SemEval-2020 Task 1: Lexical Semantic Change Detection." In Proceedings of the 14th Workshop on Semantic Evaluation, pp. 246-254, Barcelona (online). International Committee for Computational Linguistics. Rosin, G. D., Guy, I., and Radinsky, K. (2022). "Time Masking for Temporal Language Models." In Proceedings of the 15th ACM International Conference on Web Search and Data Mining, WSDM '22, pp. 833-841, New York, NY, USA. Association for Computing Machinery. Rosin, G. D. and Radinsky, K. (2022). "Temporal Attention for Language Models." In Findings of the Association for Computational Linguistics: NAACL 2022, pp. 1498-1508, Seattle, United States. Association for Computational Linguistics. Sagi, E., Kaufmann, S., and Clark, B. (2009). "Semantic Density Analysis: Comparing Word Meaning across Time and Phonetic Space." In Proceedings of the Workshop on Geometrical Models of Natural Language Semantics, pp. 104-111, Athens, Greece. Association for Computational Linguistics. Schakel, A. M. and Wilson, B. J. (2015). "Measuring word significance using distributed representations of words." arXiv preprint arXiv:1508.02297. Schlechtweg, D., Hätty, A., Del Tredici, M., and Schulte im Walde, S. (2019). "A Wind of Change: Detecting and Evaluating Lexical Semantic Change across Times and Domains." In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 732-746, Florence, Italy. Association for Computational Linguistics. Schlechtweg, D., McGillivray, B., Hengchen, S., Dubossarsky, H., and Tahmasebi, N. (2020). "SemEval-2020 Task 1: Unsupervised Lexical Semantic Change Detection." In Proceedings of the 14th Workshop on Semantic Evaluation, pp. 1-23, Barcelona (online). International Committee for Computational Linguistics. Shoemark, P., Liza, F. F., Nguyen, D., Hale, S., and McGillivray, B. (2019). "Room to Glo: A Systematic Comparison of Semantic Change Detection Approaches with Word Embeddings." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP), pp. 66-76, Hong Kong, China. Association for Computational Linguistics. Sommerauer, P. and Fokkens, A. (2019). "Conceptual Change and Distributional Semantic Models: an Exploratory Study on Pitfalls and Possibilities." In Proceedings of the 1st International Workshop on Computational Approaches to Historical Language Change, pp. 223-233, Florence, Italy. Association for Computational Linguistics. Tsakalidis, A. and Liakata, M. (2020). "Sequential Modelling of the Evolution of Word Representations for Semantic Change Detection." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 8485-8497, Online. Association for Computational Linguistics. Yao, Z., Sun, Y., Ding, W., Rao, N., and Xiong, H. (2018). "Dynamic Word Embeddings for Evolving Semantic Discovery." In Proceedings of the 11th ACM International Conference on Web Search and Data Mining, WSDM '18, pp. 673-681, New York, NY, USA. Association for Computing Machinery. Zimmermann, R. (2019). "Studying Semantic Chain Shifts with Word2Vec: FOOD $>$ MEAT $>$ FLESH." In Proceedings of the 1st International Workshop on Computational Approaches to Historical Language Change, pp. 23-28, Florence, Italy. Association for Computational Linguistics. ## 略歴 相田太一:2020 年長岡技術科学大学工学部電気電子情報工学課程卒業. 2022 年東京都立大学大学院システムデザイン研究科情報科学域博士前期課程修了.同年同大学同研究科同学域博士後期課程進学. 小町守:2005 年東京大学教養学部基礎科学科科学史・科学哲学分科卒業. 2007 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 2008 年より日本学術振興会特別研究員 (DC2) を経て, 2010 年同研究科博士後期課程修了. 博士 (工学). 同年同研究科助教. 2013 年首都大学東京 (現東京都立大学)システムデザイン学部准教授, 2022 年より教授. 2023 年より一橋大学ソーシャル・データサイエンス研究科教授. 情報処理学会, 人工知能学会,言語処理学会, ACL 各会員. 小木曽智信 : 1995 年東京大学文学部日本語日本文学 (国語学) 専修課程卒業. 1997 年東京大学大学院人文社会系研究科日本文化研究専攻修士課程修了. 2001 年同博士課程中途退学. 2014 年奈良先端科学技術大学院大学情報科学研究科博士課程修了. 博士 (工学)。2001 年明海大学講師, 2006 年独立行政法人国立国語研究所研究員を経て,2009 年人間文化研究機構国立国語研究所准教授, 2016 年より教授. 言語処理学会, 日本語学会各会員. 高村大也:1997 年東京大学工学部計数工学科卒業. 2000 年同大学大学院工学系研究科計数工学専攻修了 (1999 年はオーストリアウィーン工科大学で研究). 2003 年奈良先端科学技術大学院大学情報科学研究科博士課程修了. 博士 (工学)。2003 年東京工業大学助手,のち助教,准教授を経て,2017 年から 2021 年まで同教授. 2017 年より産業技術総合研究所人工知能研究センター チーム長. 言語処理学会, ACL 各会員. 持橋大地:1998 年東京大学教養学部基礎科学科第二卒業. 2005 年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了. 博士 (理学). 2003 年 ATR 音声言語コミュニケーション研究所研修研究員/専任研究員. 2007 年より NTTコミュニケーション科学基礎研究所リサーチアソシエイト. 2011 年より統計数理研究所准教授. ACL 各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 日本語文法誤り訂正のための誤用タグ付き評価コーパスの構築 小山 碧海 $\dagger \cdot$ 喜友名朝視顕 $\dagger$ - 小林 賢治 $\dagger$ ・新井 美桜 $\dagger$ ・ 三田雅人 ${ }^{\dagger+, \dagger}$ ・岡 照晃 $\dagger$ ・ 小町 守 $\dagger$ 本稿では,日本語文法誤り訂正のための誤用タグ付き評価コーパスを構築する。評価 コーパスはモデルの性能評価に欠かすことができない.英語文法誤り訂正では様々 な評価コーパスの公開により,モデル間の精緻な比較が可能になりコミュニティが 発展していった。しかし日本語文法誤り訂正では利用可能な評価コーパスが不足し ており,コミュニティの発展を阻害している。本研究ではこの不足を解消するため,日本語文法誤り訂正のための評価コーパスを構築し, 一般利用可能な形で公開する.我々は文法誤り訂正において代表的な学習者コーパス Lang-8 コーパスの日本語学習者文から評価コーパスを作成する。また文法誤り訂正分野の研究者や開発者が使 いやすい評価コーパスとするため, 評価コーパスの仕様を英語文法誤り訂正で代表的なコーパスやツールに寄せる。最後に作成した評価コーパスで代表的な文法誤り 訂正モデルを評価し, 今後の日本語文法誤り訂正においてべースラインとなるスコ アを報告する。 キーワード:文法誤り訂正,評価コーパス,誤用タグ,日本語 ## Construction of an Error-Tagged Evaluation Corpus for Japanese Grammatical Error Correction \author{ Aomi Koyama ${ }^{\dagger}$, Tomoshige Kiyuna ${ }^{\dagger}$, Kenji Kobayashi ${ }^{\dagger}$, Mio Arai ${ }^{\dagger}$, \\ Masato Mita $^{\dagger \dagger, \dagger}$, Teruaki OKa ${ }^{\dagger}$ and Mamoru Komachi ${ }^{\dagger}$ } This study constructed an error-tagged evaluation corpus for Japanese grammatical error correction (GEC). Evaluation corpora are essential for assessing the performance of models. The availability of various evaluation corpora for English GEC has facilitated a comprehensive comparison between models and the development of the English GEC community. However, the development of the Japanese GEC community has been hindered due to the lack of available evaluation corpora in the Japanese GEC. As a result, we constructed a new evaluation corpus for the Japanese GEC and made it available to the public. We used texts written by the Japanese language learners in the Lang-8 corpus, a representative learner corpus in GEC, to create the  evaluation corpus. The specification of the evaluation corpus was modified to align with the representative corpora and tools in the English GEC, making it easy for GEC researchers and developers to use the evaluation corpus. Finally, we evaluated representative GEC models on the created evaluation corpus and reported baseline scores for future Japanese GEC. Key Words: Grammatical Error Correction, Evaluation Corpus, Error Tag, Japanese ## 1 はじめに 文法誤り訂正とは,与えられた文章中の文法誤りを文法的に正しい表現に訂正するタスクである。主に語学学習者が書いた文章を対象とし, 自然言語処理の教育応用における主要夕スクのひとつとなっている。これまでルールに基づく手法 (Schneider and McCoy 1998) や言語モデルに基づく手法 (Gamon et al. 2008), 分類器に基づく手法 (Dahlmeier and Ng 2011) などが開発されてきた。近年では機械翻訳に基づく手法 (Brockett et al. 2006) が盛んに研究されている (Chollampatt and Ng 2018; Junczys-Dowmunt et al. 2018; Zhao et al. 2019; Lichtarge et al. 2019; Kiyono et al. 2020; Kaneko et al. 2020; Rothe et al. 2021; Yuan et al. 2021; Stahlberg et al. 2022; Sun and Wang 2022). 分類器に基づく手法などが対象とする誤りを限定していたのに対し, 機械翻訳に基づく手法は様々な誤りを訂正できるためモデルの性能は飛躍的に向上した. 文法誤り訂正が発展する要因のひとつに一般利用可能な評価コーパスの存在がある。例えば英語文法誤り訂正では 2012 年頃まで各研究が独自の評価コーパスでモデルを評価していたため,異なる研究間でモデルの性能が比較しづらいという問題があった。しかし CoNLL-2013 及び CoNLL-2014 shared task (Ng et al. 2013, 2014) で評価コーパスが一般公開されたことにより,各研究が同じ評価コーパスでモデルを評価するようになった.その結果,英語文法誤り訂正ではモデル間の性能差を比較しやすくなり迅速に研究を進めることが可能になった.現在では CoNLL-2014 shared task 評価コーパスでモデルを評価することが一般的である。また英語文法誤り訂正では, 単一の評価コーパスに過度に依存することの危険性が指摘されており (Mita et al. 2019), 様々な評価コーパスを用いた多面的な評価が進んでいる (Grundkiewicz et al. 2019; Kiyono et al. 2020; Kaneko et al. 2020; Yasunaga et al. 2021; Lai et al. 2022). 具体的には CoNLL-2014 shared task 評価コーパスに加え, FCE (Yannakoudakis et al. 2011) や JFLEG (Napoles et al. 2017), W\&I+LOCNESS (Granger 1998; Yannakoudakis et al. 2018), GMEG (Napoles et al. 2019) といった評価コーパスが利用されている。一方日本語文法誤り訂正では利用可能な評価コーパスが限られており (大山他 2016; 木山他 2022), 研究間でのモデルの比較・多面的評価のためには評価コーパスをいま以上に増やす必要がある. そこで本研究では,日本語文法誤り訂正のための評価コーパスを構築し,一般利用可能な形 で公開する。我々は文法誤り訂正において代表的な多言語学習者コーパス Lang-8 コーパス (水本他 2013) の日本語学習者文を本評価コーパスの学習者文に利用する。また文法誤り訂正分野の研究者や開発者が使いやすい評価コーパスとするため,本評価コーパスの仕様を英語文法誤り訂正で代表的なコーパスやツールに寄せる.具体的には (1) 対象とする誤りの範囲を学習者コーパス NUCLE (Dahlmeier et al. 2013)に合わせ,(2) 誤用タグを自動誤用タグ付けツール ERRANT (Felice et al. 2016; Bryant et al. 2017)の誤用タグを一部改変し設計する。 (1)について, 現在の文法誤り訂正では綴り誤りや語彙選択誤りといった狭義の文法誤り以外も訂正対象に含めることが一般的である。したがって本評価コーパスでも綴り誤りや語彙選択誤りも訂正対象に含める。(2)について, 英語文法誤り訂正ではモデルの誤りタイプ別評価を $\mathrm{F}_{0.5}$ で行うため, ERRANT が盛んに使用されている。本研究では日本語用の自動誤用タグ付けツール(日本語版 ERRANT)を今後開発しやすくするため, ERRANT の誤用タグを一部改変し誤用タグを設計する. 最後に作成した評価コーパス及び既存評価コーパスで 6 種類の代表的な文法誤り訂正モデルを評価し, 今後の日本語文法誤り訂正においてべースラインとなるスコアを報告する.本研究の主な貢献は以下の通りである. - 日本語文法誤り訂正のための誤用タグ付き評価コーパスを構築し公開した¹.また誤用夕グを利用し,日本語文法誤り訂正モデルの誤りタイプ別の性能を調査した. - 作成した評価コーパス及び既存評価コーパスで 6 種類の代表的な文法誤り訂正モデルを評価し,今後の日本語文法誤り訂正においてべースラインとなるスコアを示した. ## 2 関連研究 ## 2.1 文法誤り訂正の評価コーパス 文法誤り訂正の代表的な自動評価手法は誤り文と比較し訂正文に施されている編集をモデルがどの程度再現できたかをスコアリングする (Dahlmeier and Ng 2012; Felice and Briscoe 2015; Napoles et al. 2015; Bryant et al. 2017; Gotou et al. 2020). そのため評価には誤り文とその訂正文を収録したコーパスが必要である.表 1 に誤り文とその訂正文を収録した主な日本語学習者コーパスを示す。日本語文法誤り訂正では作文対訳データベース (井上他 2006) や NAIST 誤用コーパス (大山他 2016) が評価コーパスに利用されている. 作文対訳データベースは元々日本語教育での活用を目的に作成された学習者コーパスであり,NAIST 誤用コーパスは作文対訳データベースに誤用タグを付与したコーパスである。我々の評価コーパスが文法誤り訂正モデルの評価を目的に一貫した訂正基準に基づき訂正を行っているのに対し, 作文対訳データベー スでは日本語教師が学習者の習熟度に応じて日本語教師個人の感覚と経験に基づき訂正を施し ^{1}$ TMU Evaluation Corpus for Japanese Learners (TEC-JL). https://github.com/koyama-aomi/TEC-JL } 表 1 主な日本語学習者コーパス. ている。また作文対訳データベースの手書き作文は仮名漢字変換システムを利用しておらず, Lang-8 コーパスのキーボード入力とは学習者の犯す誤り傾向が異なる. さらに Lang-8 コーパスが多様なトピックの文章を含むのに対し (水本他 2013), 作文対訳データベースでは与えられた課題2にピックが限られる。加えて NAIST 誤用コーパスの誤用タグが学習者の誤用分析や学習者へのフィードバックを目的に設計されている一方, 本研究の誤用タグは今後日本語版 ERRANT を開発しやすいように設計している。その他の日本語学習者コーパスには,なたね ${ }^{3}$ かしなたねは言語資源協会の会員以外は有償であり ${ }^{6}$, 日本語学習者作文コーパスと国際日本語学習者作文コーパス及び誤用辞典はテキストデータ全体が一般公開されていないためモデルの評価に利用しにくい.また水本他 (2013) や Liu et al. (2018) は独自に作成した評価コーパスを用いており,それら評価コーパスは非公開のため使用できない。我々は作成した評価コーパスを他の研究も利用可能な形で公開する. 近年日本語文法誤り訂正では FLUTEC (木山他 2022) という評価コーパスが公開された. FLUTEC は日本語文法誤り訂正モデルの流暢性評価 (Sakaguchi et al. 2016)を目的としており, Lang-8 コーパスの日本語学習者文へ文法的に正しいだけでなく流暢になる訂正(流暢な訂正: Fluency edits)を行っている。一方我々は流暢性よりも文法性評価を目的に文法的に正しくなる最小限の訂正(最小限の訂正:Minimal edits)を施した評価コーパスを作成する。表 2 に最小限の訂正と流暢な訂正の例を示す。最小限の訂正は本論文の訂正基準(3.1.2 節参照)に基づき作成した訂正文であり,流暢な訂正は FLUTEC に実際に収録されている訂正文である.表 2 より,最小限の訂正では “以外”を“意外”にのみ訂正しているのに対し,流暢な訂正では“たっ ^{5}$ https://corpus.icjs.jp/corpus_ja 6 https://www.gsk.or.jp/catalog/gsk2021-c } 表 2 最小限の訂正と流暢な訂正の例. ぷりになってしまいました”を“予定がぎっしり詰まってしまいました”のように表現を大幅に変えて訂正していることが分かる。このように最小限の訂正では原文の表現を可能な限り尊重し誤りがある箇所のみを訂正するのに対し,流暢な訂正では流暢な文になるように原文の表現を大幅に変えて訂正する。文法誤り訂正モデルをどのような評価コーパスで評価すべきかは目的次第であり,流暢に訂正する必要がなく文法誤りへの訂正性能のみを測りたい場合などは最小限の訂正を施した評価コーパスが有用である,実際英語文法誤り訂正では,最小限の訂正を施した CoNLL-2014 shared task 評価コーパスと流暢な訂正を施した JFLEG が評価の目的に合わせ使用されている (Sakaguchi et al. 2017; Mita et al. 2020). またロシア語や中国語などでも文法誤り訂正のための評価コーパスが開発されている。Trinh and Rozovskaya (2021) は Lang-8 コーパス中の文章を再添削しロシア語文法誤り訂正の評価コーパス RU-Lang8 を作成した。 中国語文法誤り訂正でも Lang-8 コーパスを使用し MuCGEC (Zhang et al. 2022) というコーパスが作成された. 我々も Lang-8コーパス中の文章を再添削し日本語文法誤り訂正の評価コーパスを作成する。近年文法誤り訂正では, 英語だけでなくロシア語, ドイツ語, チェコ語など多言語にわたって実験を行う研究が増加している (Náplava and Straka 2019; Grundkiewicz and Junczys-Dowmunt 2019; Katsumata and Komachi 2020; Flachs et al. 2021; Rothe et al. 2021; Straka et al. 2021; 山下他 2022). この背景にはロシア語 (Rozovskaya and Roth 2019) やドイツ語 (Boyd 2018), チェコ語 (Náplava and Straka 2019) でコーパスが整備されたことがある。したがって我々の評価コーパスの公開でも日本語文法誤り訂正の研究促進が期待される。 ## 2.2 文法誤り訂正モデル 機械翻訳に基づくモデルが台頭する以前は,訂正対象を限定した取り組みが主流であった。例えば英語では,訂正対象を前置詞誤りや冠詞誤りなどに限定した研究がある (De Felice and Pulman 2008; Gamon 2010; Rozovskaya and Roth 2010a, 2010b, 2011; Dahlmeier and Ng 2011; Cahill et al. 2013). 日本語では主に助詞誤りに訂正対象を限定していた (今枝他 2003; Suzuki and Toutanova 2006; 南保他 2007; 今村他 2012; 笠原他 2012). その後, 大規模な学習者コーパス Lang-8 コーパスが公開されたことにより機械翻訳に基づくモデルが隆盛し,訂正対象を限定しない取り組みが主流になった.機械翻訳に基づくモデルには様々なアーキテクチャが使用され,英語文法誤り訂正では SMT (Mizumoto et al. 2012; Junczys-Dowmunt and Grundkiewicz 2016), RNN (Yuan and Briscoe 2016; Ji et al. 2017), CNN (Chollampatt and Ng 2018; Ge et al. 2018b) を経て,現在 Transformer (Vaswani et al. 2017) が主に使用されている (Lichtarge et al. 2019; Kaneko et al. 2020; Mita and Yanaka 2021; Stahlberg et al. 2022)。近年では BART (Lewis et al. 2020) や T5 (Raffel et al. 2020) といった大規模事前学習済みモデルも利用されるようになった (Katsumata and Komachi 2020; Rothe et al. 2021).日本語文法誤り訂正では水本他 (2013) が Lang-8 コーパスを用いて SMT を訓練し訂正を行った. Liu et al. (2018) は訂正対象を機能表現に限定しているものの RNN を用いて訂正を行っている。本間, 小町 (2022) は非自己回帰モデルである Levenshtein Transformer (Gu et al. 2019) を使用し,高速な訂正機能を持ったライティング支援システムを構築した. Suzuki et al. (2022) は日本語文法誤り訂正の品質推定データセットを作成する際, SMT, RNN, CNN, Transformer を利用した。我々は機械翻訳に基づくモデルを幅広く用意し, 本研究で作成した評価コーパスでの性能を報告する. 英語文法誤り訂正ではモデルごとに誤りタイプ別の性能が異なることが知られている。例えば Chollampatt and Ng (2018) は CNN に基づくモデルは局所的な誤りの訂正性能が高いと述べている。 三田他 (2021) は CoNLL-2014 shared task 評価コーパス上で Transformer の時制誤りの訂正性能が SMT,RNN,CNN よりも高いことを報告している。 White and Rozovskaya (2020)は 2 つの擬似データ生成手法を比較し,擬似データごとのモデルの誤りタイプ別の性能を調査した. 1 つ目の手法ではスペルチェッカーを用いて構築した混同セットを利用し擬似デー夕を生成する (Grundkiewicz et al. 2019). 2 つ目の手法では学習者コーパスから抽出した誤りパター ン及び,動詞・名詞・前置詞の置換を利用し擬似データを生成する (Choe et al. 2019). 実験の結果,前者では綴り誤りの訂正性能が高く,後者では名詞の単数・複数形の誤りと時制誤りの訂正性能が高いことが明らかになった。一方日本語文法誤り訂正では, モデルの誤りタイプ別の訂正性能が未だ明らかでない。そのため我々は作成した評価コーパスを用いて日本語文法誤り訂正モデルの誤りタイプ別の性能を調査する.英語文法誤り訂正では異なる訂正傾向を持つモデルを組み合わせ性能を向上させる研究もあり (Grundkiewicz and Junczys-Dowmunt 2018; Kantor et al. 2019; Qorib et al. 2022), 日本語文法誤り訂正でもモデルごとの訂正傾向を把握することがより高性能なモデルの構築に繋がると考えられる. ## 3 評価コーパスの構築 本研究では Lang-8 コーパスの一部から評価コーパスを構築する.Lang-8コーパスは文法誤り訂正モデルの訓練に使用されることが多い. しかし語学学習 SNS Lang-87から自動収集して作成されたコーパスのためノイズを多く含み,評価にはほとんど使用されていない。そこで本評価コーパスを作成し,Lang-8コーパスを評価にも使用可能にする。また文法誤り訂正分野の研究者や開発者が使いやすい評価コーパスとするため, 本評価コーパスの仕様を英語文法誤り訂正で代表的なコーパスやツールに寄せる.具体的には対象とする誤りの範囲を学習者コーパス NUCLE に合わせ,誤用タグを自動誤用タグ付けツール ERRANT の誤用タグを一部改変し設計する. ## 3.1 訂正文の作成 我々は Lang-8 コーパスの訂正文にノイズが多く含まれることや Lang-8 ではユーザごとに訂正基準が異なることを理由に,学習者文を再添削し新たな訂正文を作成する.Lang-8コーパスの訂正文には訂正者(Lang-8 ユーザ)のコメントが付与されている場合や訂正者が学習者文中の誤りを全て訂正していない場合がある (水本他 2013). Mita et al. (2020) の実験では Lang-8 コーパスの訂正文に含まれるノイズの定量化を試みている。具体的には Lang-8 コーパスの訂正文からノイズを除去した訂正文を新たに作成し,元の訂正文とノイズ除去した訂正文の間の単語編集率でノイズ量を推定している。なお単語編集率は以下の式で定義される. $ \text { 単語編集率 }:=\frac{\sum_{i=1}^{N} d\left(X_{i}, Y_{i}\right)}{\sum_{i=1}^{N}\left|X_{i}\right|} \times 100(\%) $ ここで $N$ はデータセット内の文対数であり, $X_{i}$ と $Y_{i}$ はそれぞれ編集前と編集後の文である。また $d(\cdot)$ は編集距離 (Levenshtein 1966)を表し, $\left|X_{i}\right|$ は $X_{i}$ の単語数を表す. Mita et al. (2020)の実験では, $X_{i}$ が元の訂正文に相当し, $Y_{i}$ がノイズ除去後の訂正文に相当する. 実験の結果, 単語編集率は $34.6 \%$ となり,Lang-8コーパスの訂正文には無視できない量のノイズが含まれることが明らかになった. また Rothe et al. (2021)は英語・ドイツ語・ロシア語で Lang-8コーパスの訂正文を大規模多言語事前学習済みモデル mT5 (Xue et al. 2021)の出力文に置き換え, ノイズの少ない訂正文を持った Cleaned Lang-8 Corpus (cLang-8) を作成し公開した 8 . さらに Lang-8 ではユーザが自由に学習者文を訂正しているため訂正基準が統一されておらず,モデルの文法性に絞った評価がしにくい. したがって本研究では一貫した訂正基準のもと訂正文を作成し, 文法誤り訂正モデルの評価に使いやすくする.加えて本研究ではマルチリファレンス評価のため, ^{8}$ https://github.com/google-research-datasets/clang8 } 1 つの学習者文につき 2 つの訂正文を付与する.文法誤り訂正は 1 つの入力文に対し正解となる訂正文が必ずしも 1 つに定まらないタスクである (Bryant and Ng 2015)。そのため文法誤り訂正では, 複数の訂正文(参照文)を用いたマルチリファレンス評価を行い,モデルが参照文とは異なる正しい訂正を行った場合に過小評価される問題を軽減している.例えば CoNLL-2014 shared task 評価コーパスでは 1 つの学習者文につき 2 の訂正文が付与されており, 英語文法誤り訂正ではそれら 2 つ訂正文を用いてモデルを評価している。そこで本研究でも 1 つの学習者文につき 2 つの訂正文を付与しマルチリファレンス評価を可能にする. ## 3.1.1 作成手順 我々が訂正文を作成した際の具体的な手順は以下の通りである. 手順 1. Lang-8 コーパスから 2,000 文程度になるように日本語を学習言語とする文章を抽出す $る^{9}$. 手順 2. 抽出した文章の内,約 1 割を 3 人の日本語母語話者が訂正し,訂正基準を決定する. 手順 3. 1 つの文章につき 2 人の訂正者が訂正を行うように, 3 人の日本語母語話者に文章を割 り振り,作成した訂正基準に従って訂正文を作成する。 手順 4. 作成した訂正文を本論文の最終著者が確認し,不適切な箇所があれば各訂正者が再度訂正を行う. ここで手順 2 と手順 3 における訂正者は本論文の第 1 著者, 第 2 著者, 第 3 著者である.各訂正者は情報通信工学を専攻する 20 代の大学生であり日本語教育歴はない. 手順 4 の終了後,文分割に失敗している箇所を人手で修正した ${ }^{10}$ 。また文法誤り訂正に無関係な記号のみの文や日本語以外の文などを取り除き,URL や顔文字は特殊トークンに置き換えた.結果,日本語学習者文が 1,702 文となり,1つの学習者文につき 2 つの訂正文が付与された評価コーパスを作成した。 ## 3.1.2 訂正基準 我々は基本的な訂正方針を NUCLE に合わせた,具体的には (1) 文法的に正しくなる最小限の訂正を行うこと,(2) 文章単位で訂正を行うことの 2 つを定めた. NUCLE の一部を使用した CoNLL-2014 shared task 評価コーパスは英語文法誤り訂正で最も代表的な評価コーパスである. NUCLE に仕様を合わせることで英語と同じような評価環境を整備することを狙った. (1)について, 最小限の訂正には NUCLE 同様, 狭義の文法誤りだけでなく綴り誤りや語彙選択誤りも含める. 訂正対象の範囲を NUCLE に合わせることで英語文法誤り訂正の知見を日本語文法誤り ^{10}$ Lang-8 では文章を自動で文分割しており,Lang-8 コーパスはその分割をそのまま使用しているため文分割に失敗している箇所が存在する。 } 訂正に援用しやすくなる. またドイツ語 (Boyd 2018) やロシア語 (Rozovskaya and Roth 2019), チェコ語 (Náplava et al. 2022)の文法誤り訂正評価コーパスでも狭義の文法誤り以外(綴り誤りや語彙選択誤りなど)を訂正対象に含めている。したがって文法誤り訂正分野全体として狭義の文法誤り以外も訂正対象とすることが一般的であるため, 本研究でも綴り誤りや語彙選択誤りを訂正対象に含める。(2)について, 学習者が書いた文章には時制誤りや接続詞誤りなど文間文脈に依存する誤りが存在する (Tajiri et al. 2012; Chollampatt et al. 2019; Yuan and Bryant 2021). 文単位で訂正を行った場合,そのような文間文脈を必要とする誤りを捉えることが難しい,文章単位であれば前後の文を考慮し訂正できるため,文間文脈を必要とする誤りを捉えることができる. 本研究では日本語の文章であることや Lang-8 コーパスを元データにしていることを考慮し,基本的な訂正方針に加え以下の訂正基準を定めた。 ## 文単位の訂正基準 L1. 翻字を行う際, 単語が本来の発音のまま表記してあり,一般的な表記と異なる場合には一般的な表記に訂正する ${ }^{11}$. L2. 補助用言が漢字で書かれている場合には平仮名に訂正する. ## 文章単位の訂正基準 G1. 1つの文章内では,常体と敬体を揃えるように訂正する. G2. 助詞が脱落している場合, 助詞がないと不自然である場合のみ訂正する. 各訂正基準に基づく訂正例を表 3 に示す. L1 について,翻字とはある言語の単語を別言語の表記に移すことである.翻字では表 3 の例のように原言語の発音が目的言語の表記に必ずしも反映されず,目的言語での表記に合わせて書く必要があるため L1 を設定した。また翻字に関する訂正は作文対訳データベースやなたねでも行われており日本語教育にとって有用である.L2 について, 補助用言は単語本来の意味が失われており平仮名で書くことが一般的であるため L2 を設定した,G1について,1つの文章内では常体と敬体を揃えることが一般的であるため G1 \\ 表 3 設定した訂正基準に基づく訂正例.  を設定した ${ }^{12}$. G2 について,Lang-8 コーパスでは学習者の日記がくだけた表現で書かれていることが多い.くだけた表現の場合,助詞が脱落しても不自然でない場合があることから G2 を設定した。 ## 3.2 誤用タグの付与 我々は日本語文法誤り訂正モデルをより詳細に分析するための誤用タグを設計し, 本評価コー パスの各誤りに人手で付与する。我々は英語文法誤り訂正で代表的な自動誤用タグ付けツール ERRANT の誤用タグを日本語用に一部改変し誤用タグを設計する。この理由は ERRANT の誤用タグに基づき誤用タグを設計することで今後日本語版 ERRANT を開発しやすくするためである。実際ドイツ語 (Boyd 2018) やチェコ語 (Náplava et al. 2022)では, ERRANT の誤用夕グを各言語用に一部改変し ERRANT のコードを流用する形でドイツ語版 ERRANT ${ }^{13}$ やェコ語版 ERRANT ${ }^{14}$ 開発している ${ }^{15}$ 。また ERRANT の誤用タグに基づくことで,日本語にあまり馴染みのない研究者が本評価コーパスを利用する場合でも誤用タグの意味を理解しやすくなると考えられる。さらに多言語にわたって文法誤り訂正の研究を行う場合, 言語間で誤用夕グの粒度がある程度揃っていた方がモデルの誤りタイプ別の分析をしやすくなる. ## 3.2.1誤用タグの設計 我々は ERRANT の誤用タグを一部改変し誤用タグを設計した ${ }^{16}$. ERRANT では Universal Dependencies (UD) (de Marneffe et al. 2021)17の品詞を基に誤用タグを設計している。そのため本研究では UD 日本語コーパス (浅原他 2019)の品詞も参考にした. 表 4 に本研究で設計した誤用タグの一覧を示す. 1 行目から 10 行目は語彙選択に関する誤用タグである。語彙選択の誤用タグはある品詞の単語が同じ品詞の別の単語に訂正された場合に付与される ${ }^{18}$. 例えば 1 行目では,“大切な”という形容詞が “重大な”という別の形容詞に訂正されているため ADJ の誤用タグが付与される。ここで形容詞や動詞の選択誤りにはコロケーション誤りも含める. 11 行目から 13 行目は活用に関する誤用タグである。活用の誤用タグはある単語が別の活用形に訂正された場合に付与される。例えば 11 行目では, “寂しい”という形容詞が“寂しく”という連用  \\ 表 4 本研究で設計した誤用タグの一覧. 形に訂正されているため ADJ:INFL の誤用タグが付与される。14 行目の SPELL の誤用タグは誤字・脱字・衍字などの誤りが訂正された場合に付与される。また SPELL には翻字の誤りも含める. 15 行目の VERB:TENSE の誤用タグはテンスやアスペクトといった時間表現について訂正された場合に付与される. 16 行目の WO の誤用タグは隣り合う単語を入れ替えるような訂正がされた場合に付与される。 17 行目の OTHER の誤用タグは 1 行目から 16 行目の誤用タグの中に該当する誤用タグがなかった場合に付与される. ## 3.2.2 付与手順 我々が誤用タグを付与した際の具体的な手順は以下の通りである. 手順 1. 原文(学習者文)と訂正文に自然言語処理ライブラリ spaCy (Honnibal and Montani 2017) ${ }^{19}$ を適用し,各文中の単語に基本形及び品詞の情報を付与する. 手順 2. 各文の基本形及び品詞の情報を基に表 4 の誤用タグを人手で付与する. 手順 1 では ERRANT に合わせ spaCy を使用した。なお spaCy を使用する際のモデルには ja_core_news_trf モデルを用いた。手順 2 では誤り箇所及び訂正箇所の基本形や品詞の情報を確認しながら本論文の第一著者が人手で誤用タグを付与した。表 5 に誤用タグの付与例を示す.表 5 の左側は動詞の選択誤りの例であり,“飲み”を“食べ”に訂正している。各単語の基本形を見ると“飲む”と “食べる”という異なる基本形をしており,品詞を見るとVERB となっているため動詞の選択誤りの誤用タグを付与する。表 5 の右側の例は動詞の活用誤りの例であり,“見つかれ”を“見つから”に訂正している。各単語の基本形を見ると“見つかる”という同じ基本形をしており,品詞を見ると VERB となっているため,動詞の活用誤りの誤用タグを付与する. ## 3.3 コーパス分析 表 6 に本研究の評価コーパス, FLUTEC, NAIST 誤用コーパスの統計量を示す.ここで学習者文の平均文長や単語編集率 (式 (1) 参照) を計算する際は各コーパスを MeCab (Kudo et al. 2004) で単語分割した。 MeCab の辞書には現代話し言葉 UniDic (岡 2019)を用いた. 表 6 より,学習者文の平均文長を比較すると, コーパス間の差は最大で 3.9 語であり文長に大きな差はない.一方単語編集率と無編集の文対の割合では,本研究の評価コーパスとそれ以外のコーパスで大 表 5 誤用タグの付与例. 表 6 各コーパスの統計量.  きな差が見られる。本研究の評価コーパスは他のコーパスよりも単語編集率は低く,無編集の文対の割合は高くなっている。これは文法的に正しくなる最小限の訂正を行ったことに起因する。一方 FLUTEC の単語編集率が最も大きい理由は文法的に正しいだけでなく流暢になる訂正を行っているためである。また NAIST 誤用コーパスでは日本語教師が学習者の習熟度に応じた訂正を行っており,例えば日本語上級者の文には流暢になるような訂正も施していることから単語編集率が高くなったと考えられる。 図 1 に本研究で作成した評価コーパスと NAIST 誤用コーパス中の各誤りタイプの割合を示す 20 . 本研究の評価コーパスと NAIST 誤用コーパスでは誤りタイプの粒度が異なるため厳密な比較は困難であることに注意する必要がある。比較の結果, どちらも助詞誤りの割合が最も大きいことから,日本語学習者にとって助詞を使いこなすことは難しいと分かる.また本評価コーパス中の綴り誤り(NAIST 誤用コーパスでの表記誤りに相当)の割合が NAIST 誤用コー パスと同様に比較的高い。経り誤りには翻字の誤りや仮名漢字変換システムに起因する誤りが見られた。表 7 に翻字の誤りと仮名漢字変換システムに起因する誤りの例を示す. 翻字の誤り (a) 本研究の評価コーパス (b) NAIST 誤用コーパス 図 1 各コーパス中の誤りタイプの割合. 表 7 綴り誤りの例.  では,学習者が “シェルロク・ホールムス”と書いたのを“シャーロック・ホームズ”に訂正している。翻字は目的言語での表記をあらかじめ知っておかないと正しく表記することが難しく,学習者にとって間違いやすい誤りである.仮名漢字変換システムに起因する誤りでは,学習者が “張る”と誤入力したのを“春”に訂正している。 NAIST 誤用コーパスは手書き作文をもとにしているため誤入力は起きず,このような誤入力は Lang-8コーパスを基にしている本評価コー パス特有の誤りである. ## 3.4 一致率 我々は訂正者間の一致率を調べるため, $\kappa$ 係数 (Cohen 1960) を計算した。一致率は誤り検出の一致率と誤り訂正の一致率の 2 つを求めた。誤り検出の一致率は両方の訂正者が何らかの訂正を行った箇所の一致率である。誤り訂正の一致率は両方の訂正者が同じ訂正を行った箇所の一致率である。 $\kappa$ 係数の計算は Dahlmeier et al. (2013) に従った。表 8 の左側にそれぞれの訂正者間の一致率を示す. 表 8 より, 誤り検出の一致率は Landis and Koch (1977)の基準における substantial agreement(かなりの一致)に該当し, 誤り訂正の一致率は moderate agreement(適度な一致) に該当する。したがって訂正者間で誤りの検出や訂正は概ね一致していると考えられる. 別の観点からも訂正者間の一致率を測る。具体的には片方の訂正文を文法誤り訂正モデルの出力とみなし, もう片方の訂正文のみを正解として評価した時のスコアを求める. 表 8 の右側にそれぞれの訂正文のスコアを示す。スコアは $\mathrm{M}^{2}$ scorer (Dahlmeier and Ng 2012)で測定した Precision, Recall, $\mathrm{F}_{0.5}$ を用いた。表 8 より,どちらの場合も Recall は約 $62 \%$ である。言い換えると, 例えば訂正文 2 を正解とした場合, 訂正文 2 が訂正した箇所のうち訂正文 1 も同じ訂 る.また $\mathrm{F}_{0.5}$ はどちらも約 $64 \%$ であり,このスコアが文法誤り訂正モデルのある種の性能限界であると考えられる。 ## 3.5 本評価コーパスのリミテーション 我々は文法誤り訂正分野の研究者や開発者が使いやすい評価コーパスを作成するため ERRANT の誤用タグを一部改変し本誤用タグを設計した。したがって第二言語習得分野での誤用タグと大きく異なる部分が生じており,第二言語習得分野の研究者にとっては使いにくい誤用夕グであ 表 8 訂正者間の一致率. る可能性がある,例えば本誤用タグは ERRANT と同様フラットな構造をしているが,第二言語習得分野での誤用タグは階層的な構造をとる (Dagneaux et al. 1998)。また NAIST 誤用コー パスやなたねが細かく誤用タグを設計しているのに対し ${ }^{21}$, 本誤用タグは ERRANT の誤用タグを基に設計したため 17 種類と比較的粗い 22 . この理由は今後日本語版 ERRANT を開発しやすくするためであるが,第二言語習得分野での利用(学習者の誤用分析や学習者へのフィードバックなど)まで考慮すると誤用タグは細かく設計される方が望ましい。本誤用タグをより細かくする場合,語彙選択誤りとコロケーション誤りを区別することなどが挙げられる.実際 NAIST 誤用コーパスやなたねでは,語彙選択誤りとコロケーション誤りを区別しており,第二言語習得分野で利用する場合それらは区別された方が有用である。一方日本語版 ERRANT の作成では,語彙選択誤りとコロケーション誤りをどのように自動で区別するかが問題となる。語彙選択誤りとコロケーション誤りを区別するには,コロケーションに関する外部知識の利用 (Pereira et al. 2016) や機械学習による誤用タグの付与 (Swanson and Yamangil 2012; 大山他 2016) などを行う必要があると考えられる。 ## 4 実験 本節では作成した評価コーパスで代表的な文法誤り訂正モデルを評価し,今後の日本語文法誤り訂正においてべースラインとなるスコアを示す.また我々の評価コーパスに加え, FLUTEC や NAIST 誤用コーパスも利用しモデルを多面的に評価した結果を報告する。さらに本評価コー パスの誤用タグを利用しモデルごとの誤りタイプ別の性能も調査する. ## 4.1 実験設定 ## 4.1.1 データセット 表 9 に本実験で使用したデータセットを示す。訓練データには Lang-8コーパス (水本他 2013) を用いた。ただし TEC-JL (本研究の評価コーパス) と FLUTEC に使用されている文章は取り除いた。また水本他 (2013) と同様に, 訓練データには文長制限などを施し, 訓練時にノイズとなる文対を除去した23,開発データには FLUTEC の開発データを用いた. ## 4.1.2 性能評価 評価データには TEC-JL に加え, FLUTEC (木山他 2022) と NAIST 誤用コーパス (大山他  表 9 実験で使用したデータセットの詳細. 2016)を使用した. TEC-JL と NAIST 誤用コーパスは Max Match $\left(\mathrm{M}^{2}\right)$ (Dahlmeier and Ng 2012) で評価し, FLUTEC は GLEU+ (Napoles et al. 2015, 2016) で評価した ${ }^{24}$.また単語分割誤りが評価結果に影響を与えないようにするため文字単位で評価した。報告する全ての値は 4 つの異なるシードで訓練されたモデルのスコアの平均である。各評価尺度の詳細は以下の通りである。 $\mathrm{M}^{2}$ (Dahlmeier and $\mathrm{Ng}$ 2012) $\quad \mathrm{M}^{2}$ は文法誤り訂正において最も一般的な評価尺度である. $\mathrm{M}^{2}$ ではモデルの出力文が行った編集を参照文の編集となるべく多く一致するように計算し, Precision, Recall, $F_{0.5}$ を求める。文法誤り訂正では CoNLL-2014 shared task 以降, $\mathrm{F}_{1}$ ではなくPrecision を重視した $\mathrm{F}_{0.5}$ を使用することが一般的である ${ }^{25}$. 本研究では $\mathrm{M}^{2}$ の計算に $\mathrm{M}^{2}$ scorer を使用した ${ }^{26}$. $\mathrm{GLEU}^{+}$(Napoles et al. 2015, 2016) GLEU+ は機械翻訳モデルの評価尺度 BLEU (Papineni et al. 2002) を文法誤り訂正用に改良した評価尺度である.BLEU がモデルの出力文と参照文の N-gram のみを使用するのに対し, GLEU+ では原文の N-gram も使用しスコアリングする. 本研究では GLEU+ の計算に Napoles et al. (2016) が公開しているスクリプトを使用した27. ## 4.1.3文法誤り訂正モデル 幅広いモデルの性能を調査するため, 文法誤り訂正モデルには SMT (Koehn et al. 2003) 及び ^{2}$ で評価し,流暢な訂正を施した JFLEG は GLEU+ で評価していることを考慮した。 $25 \mathrm{Ng}$ et al. (2014) は $\mathrm{F}_{0.5}$ を採用した理由に,文法誤り訂正モデルの訂正をユーザに受け入れてもらいやすくするには誤った訂正が少ないことが重要であるためと述べている。また英語 (Grundkiewicz et al. 2015) やチェコ語 (Náplava et al. 2022) 文法誤り訂正では, $\mathrm{F}_{1}$ よりも $\mathrm{F}_{0.5}$ の方が人手評価との相関が高いことが示されている. さらに文法誤り検出では Recall よりも Precision 重視のモデルの方が学習効果を高めることが知られている (Nagata and Nakatani 2010). 26 https://github.com/nusnlp/m2scorer 27 https://github.com/cnap/gec-ranking } RNN (Luong et al. 2015), CNN (Gehring et al. 2017), Transformer (Vaswani et al. 2017)を用いる.また上記のモデルに加え, 事前学習済みモデル BART (Lewis et al. 2020) と T5 (Raffel et al. 2020)も使用する。実装には SMT では Moses (Koehn et al. 2007)28を用いた.また RNN, CNN, Transformer, BART では fairseq (Ott et al. 2019)29を使用し, T5 では Transformers (Wolf et al. 2020)3を使用した。なお水本 (2020)の実験結果に基づき,SMT,RNN,CNN, Transformer の訓練には,学習者文は文字に分割し訂正文は語彙サイズ 16,000で 1-gram 言語モデルに基づくトークン化 (Kudo 2018)を施したデータを使用した。また BART と T5 では事前学習時の分割に従った.具体的には BART では Juman++ (Morita et al. 2015) で単語分割したのち語彙サイズ 32,000で 1-gram 言語モデルに基づくトークン化を施し, T5 では語彙サイズ 32,000 で 1-gram 言語モデルに基づくトークン化を施した. 1-gram 言語モデルに基づくトークン化を行う際の実装には SentencePiece (Kudo and Richardson 2018)31を使用した. 各モデルの設定は以下の通りである。 SMT (Koehn et al. 2003) GIZA++ (Och and Ney 2003) をアライメントツールに使用し, KenLM (Heafield 2011) を用いて 3-gram 言語モデルを構築した. 言語モデルの訓練には訓練データ中の訂正文を使用した。また開発データを用いて BLEU を最大化するように MERT (Och 2003)を行った. RNN (Luong et al. 2015) アーキテクチャはLuong et al. (2015)のモデルをベースにした 6 層のエンコーダ・デコーダモデルである。 エンコーダとデコーダの単語埋め込みは 512 次元である。訓練時の最適化方法や推論時の設定は Kiyono et al. (2020)に従った. CNN (Gehring et al. 2017) アーキテクチャは Gehring et al. (2017)のモデルをべースにした 6 層のエンコーダ・デコーダモデルである. エンコーダとデコーダの単語埋め込みは 512 次元である.またカーネルサイズは 3 である. 訓練時の最適化方法や推論時の設定は Kiyono et al. (2020)に従った. Transformer (Vaswani et al. 2017) アーキテクチャは Vaswani et al. (2017) の "Transformer (base)" と同様である。具体的には 6 層のエンコーダ・デコーダモデルであり, エンコーダとデコーダの単語埋め込みは 512 次元である. 訓練時の最適化方法や推論時の設定は Kiyono et al. (2020) に従った. BART (Lewis et al. 2020) BART は Transformer に基づくエンコーダ・デコーダ型の事前学習済みモデルである。本研究では田中他 (2021) が公開している日本語 BART を使用した32. 田中他 (2021)のモデルでは, テキスト内の 0 個以上のトークンを 1 個の [MASK] $ //github.com/google/sentencepiece 32 https://github.com/utanaka2000/fairseq/tree/japanese_bart_pretrained_model } & \\ 表 10 BART 及び T5 での事前学習の例. [MASK] 及び 〈X>, 〈Y>, 〈Z> は特殊トークンである. トークンに置き換え,元のテキストを予測する text infilling タスクを事前学習に行っている (表 10 参照).事前学習用のデータには日本語 Wikipedia から抽出した 1,800 万文を使用している。エンコーダとデコーダはそれぞれ 6 層であり,単語埋め込みは 768 次元である。訓練時の最適化方法や推論時の設定は付録 A に記載する。 T5 (Raffel et al. 2020) T5 は Transformer に基づくエンコーダ・デコーダ型の事前学習済みモデルである。本研究では Megagon Labs ${ }^{33}$ が公開している日本語 T5 を使用した ${ }^{34}$. T5 ではテキスト内の一部トークンをそれぞれ別の特殊トークンに置き換え,置き換え元のトークンのみを予測するように事前学習を行っている(表 10 参照)。事前学習用のデータには $\mathrm{mC4}$ (Raffel et al. 2020) と Wiki-40B (Guo et al. 2020) の日本語部分からそれぞれ $782 \mathrm{~GB}$ と $2 \mathrm{~GB}$ のテキストを使用している。エンコーダとデコーダはそれぞれ 12 層であり, 単語埋め込みは 768 次元である. 訓練時の最適化方法や推論時の設定は付録 $\mathrm{A}$ に記載する。 ## 4.2 実験結果 表 11 に各文法誤り訂正モデルの性能を示す。訂正なしは入力文をモデル出力とみなし評価した時のスコアである。表 11 より, CNN は Precision が高く, 不必要な訂正が他のモデルよりも少ないことが分かる。その結果,最小限の訂正を施した TEC-JL では,事前学習済みモデルである T5を除いて CNN の $\mathrm{F}_{0.5}$ が最も高くなっている. 一方 Transformer に加え, Transformer に基づくモデルである BART や T5 は Recall が高いことが分かる。また流暢な訂正を施した FLUTEC では Transformer や BART,T5 の方が他のモデルよりも GLEU+ スコアが高い. したがって Transformer を含め Transformer に基づくモデルは流暢な訂正を行っていると考えられる.我々は Transformer が流暢な訂正を行っていることを検証するため,各モデルの流暢性を調査した.流暢性は入力文と出力文のパープレキシティ比 (PPLR) で測定した.具体的には PPLR は以下の式で定義される. ^{34}$ https://github.com/megagonlabs/t5-japanese } 表 11 各文法誤り訂正モデルの性能. $ P P L R:=\frac{P P L_{\text {output }}}{P P L_{\text {input }}} $ ここで $P P L_{\text {input }}$ 及び $P P L_{\text {output }}$ はそれぞれ入力文と出力文のパープレキシティである. PPLR は 0 以上の値をとり,值が低いほど流暢性が高い,つまり流暢な訂正を行ったと考えられる。本実験ではパープレキシティの測定に GPT (Radford et al. 2018)を使用した35.また文法誤り訂正では入力文の意味を保存しつつ訂正する必要がある (浅野他 2018). そのため入力文と出力文の間で意味が保存されているか(意味保存性)を,入力文と出力文の文べクトルの $\cos$類似度を用いて測定する。 $\cos$ 類似度は -1 以上 1 以下の値を取り, 1 に近いほど入力文と出力文の間で意味が保存されていると考えられる.本実験では入力文と出力文の文べクトルの取得に Sentence-BERT (Reimers and Gurevych 2019)を利用した36. 図 2 に TEC-JL における各モデルの PPLR 及び $\cos$ 類似度を示す 37 。図 2 より,流暢性は CNN よりも Transformer の方が高いことが分かる。一方意味保存性は Transformer よりも CNN の方が高い. したがって Transformer は意味保存性を犠牲にし, CNN よりも流暢性の高い訂正を行っている ${ }^{38}$. 次に各モデルの誤りタイプ別の性能を表 12 に示す。誤りタイプは TEC-JL 中の割合が $5 \%$以上の誤りタイプのみを記載した。また誤りタイプ別の性能には Recall を用いた ${ }^{39}$. 表 12 より,各モデルは綴り誤りの性能が高いことが分かる。また助詞誤りの性能も高く,BART では $60 \%$ 近くの助詞誤りを訂正できている。したがって綴り誤りや助詞誤りは日本語文法誤り訂正 _{0.5}$ で評価するにはモデル出力に誤用タグを付与し, 誤りタイプ別の Precision を求める必要がある.英語文法誤り訂正では ERRANT で誤用タグを自動推定し,誤りタイプ別の Precision を求めることが可能である。しかし日本語では公開された自動誤用タグ付けツールがないため Recall で評価した. } 図 2 TEC-JL における各モデルの PPLR 及び $\cos$ 類似度. 表 12 TEC-JL における各モデルの誤りタイプ別の Recall (\%). モデルにとって比較的訂正しやすい誤りタイプである。綴り誤りや助詞誤りが訂正しやすい理由には様々な要素があると思われるが,例えば学習者が犯しやすい誤りのため訓練デー夕に同様の誤りが多く存在することなどが考えられる。一方名詞誤りは各モデルの訂正性能が比較的低く, SMT や RNN, CNN では $10 \%$ 以下であり, Transformer や BART, T5 でも $20 \%$ から $30 \%$ 程度である.名詞誤りは文脈を考慮して訂正する必要がある場合が多いため, 誤りタイプの中でも訂正性能が低くなったと考えられる。英語文法誤り訂正でも名詞誤りの訂正性能は低く (Bryant et al. 2019), 名詞誤りの訂正性能向上は日本語と英語で共通の課題である. ## 5 擬似データによる性能向上 本節では日本語文法誤り訂正モデルの訓練に擬似データを使用した場合の性能変化を調査す る. 現在文法誤り訂正で主流のエンコーダ・デコーダモデル (Sutskever et al. 2014; Bahdanau et al. 2015) は大量の訓練データを必要とする (Koehn and Knowles 2017). しかし文法誤り訂正に利用可能な学習者データは限られており, 英語文法誤り訂正では擬似データを利用したエンコーダ・デコーダモデルの性能向上が一般化している (Xie et al. 2018; Ge et al. 2018a; Zhao et al. 2019; Grundkiewicz et al. 2019; Lichtarge et al. 2019, 2020; Kiyono et al. 2020; Wang and Zheng 2020; Zhou et al. 2020; Wan et al. 2020; Stahlberg and Kumar 2021; Yasunaga et al. 2021; $\mathrm{Li}$ and He 2021; 古山他 2022). 一方日本語文法誤り訂正では,擬似データがエンコーダ・デコーダモデルの性能に与える影響があまり明らかになっていない. そこで本節では, 既存の擬似データ生成手法を適用し,日本語文法誤り訂正に擬似データを用いた場合のモデルの性能変化を観察する。 ## 5.1 実験設定 エンコーダ・デコーダモデルには RNN, CNN, Transformer を使用する. 各モデルのアーキテクチャや評価方法は 4.1 節と同様である。擬似データ生成時の生成元コーパスには Wiki-40B の日本語 Wikipedia 部分から抽出した 1,000万文を用いた. Kiyono et al. (2020)に従い, 擬似データは事前学習で使用し, 学習者データはファインチューニングにのみ用いた. また事前学習及びファインチューニング時の設定は Kiyono et al. (2020) に従った. 使用する擬似データ生成手法は以下の通りである. Direct noise (Zhao et al. 2019) 原文に 4 つの編集操作(削除,插入,置換,シャッフル) を行う,具体的には原文をトークンに区切り,次の操作を確率的に適用する。(i) 削除: 10\%の確率でトークンを削除する。 (ii) 挿入: $10 \%$ の確率でトークンの後ろに生成元コー パス中のトークンを挿入する。(iii) 置換: $10 \%$ の確率でトークンを生成元コーパス中のトークンに置き換える。(iv) シャッフル: 各トークンの位置番号に対し正規分布から抽出した値を加え,昇順に整列する.本実験では Zhao et al. (2019) が公開しているスクリプトを使用した 40 . Direct noise (ja) (小川, 山本 2020) Direct noise が非現実的な誤りを多く生成する点を改良し, Direct noise に日本語学習者特有の誤り傾向を反映させる。具体的には原文をトー クンに区切り,次の操作を確率的に適用する。(i) 削除: 助詞を $10 \%$, 助詞以外を $5 \%$ の確率で削除する。また送り仮名がある単語では $50 \%$ の確率で送り仮名の 1 文字目を削除する. (ii) 挿入: $5 \%$ の確率で後ろにトークンを插すす。挿入するトークンは $70 \%$ の確率で助詞セットから, $30 \%$ の確率で生成元コーパスから選択する。(iii) 置換: 助詞を $10 \%$, 助詞以外を $5 \%$ の確率で置換する,置換するトークンは $70 \%$ の確率で助詞セットから,30\%  の確率で生成元コーパスから選択する。 (iv) シャッフル:Direct noise のシャッフル操作を文節単位で行う。本実験では小川,山本 $(2020)$ が公開しているスクリプトを使用した ${ }^{41}$. Back-translation (Xie et al. 2018) 逆翻訳モデル (Sennrich et al. 2016) を用いて原文に誤りを生成させる。逆翻訳モデルとは入力と出力を入れ替えて訓練したモデルである。文法誤り訂正の場合,訂正文を入力とし学習者文を出力として訓練したモデルになる.Xie et al. (2018) はビームサーチ時, 毎ステップの各仮説のスコアに $r \beta_{\text {random }}$ をノイズとして加え,より多様な誤りを含むように改良した。ここで, $r$ は区間 $[0,1]$ の一様分布からランダムに選択される值であり, $\beta_{\text {random }}$ はノイズの大きさを調節するためのハイパーパラメータである。本実験では Transformer を逆翻訳モデルに用い,事前実験において開発データ上で最大の $\mathrm{GLEU}^{+}$スコアとなった時の值である $\beta_{\text {random }}=8$ を使用した. Round-trip translation (Lichtarge et al. 2019) 原文を他言語へ翻訳し,その翻訳文を原言語に翻訳し直す。本実験では日本語の原文を英語に翻訳し,生成された英語を日本語へ再度翻訳した。日英翻訳モデル及び英日翻訳モデルには, Morishita et al. (2022) の JParaCrawl (Morishita et al. 2020, 2022) で訓練された “Transformer (big)” (Vaswani et al. 2017)を使用した 42 . ## 5.2 実験結果 表 13 に擬似データを使用した場合の各文法誤り訂正モデルの性能を示す。表 13 より,擬似データを使用することで各モデルの性能が向上したことが分かる.TEC-JL では CNN に Back-translation で生成した擬似データを用いた場合に $\mathrm{F}_{0.5}$ が最も高くなった. FLUTEC と NAIST 誤用コーパスでは Transformer に Back-translation を使用した場合にそれぞれ GLEU+ スコアと $\mathrm{F}_{0.5}$ が最も高くなった. 全体的な傾向としては Direct noise と Direct noise (ja)よりも Back-translation や Round-trip translation を用いた方がモデルの性能が向上している。この理由には Back-translation や Round-trip translation の方がより多様な誤りを生成できることが考えられる. Direct noise と Direct noise (ja)を比較すると, Direct noise よりも Direct noise (ja) を使用した場合の方が Recall が向上することが分かる. Direct noise (ja) は学習者の犯しやすい現実的な誤りを発生できるため, Direct noise よりも学習者文中の誤りを捉えやすくなったと考えられる。 図 3 に擬似データで事前学習した場合の各文法誤り訂正モデルの誤りタイプ別の性能を示す.ここで事前学習なしは擬似データを用いず学習者データのみで訓練したモデルの性能を表す. 図 3 より, 全ての擬似データ生成手法で助詞誤りの訂正性能が事前学習なしの場合のより  表 13 擬似データを用いた場合の各文法誤り訂正モデルの性能.太字は各モデルでの最高性能を表す. も向上していることが分かる,助詞誤りは学習者が犯しやすい誤りタイプであるため(大山他 2016), 全ての擬似デー夕生成手法で性能が向上したことは好ましい結果である。また RNN では Direct noise (ja) を使用した場合に, 句読点誤りの訂正性能が他の手法よりも向上している. Transformer では Back-translation を使用した場合に, 綴り誤りの訂正性能が他の手法よりも向上した。一方 CNN では, 綴り誤りの訂正性能が Back-translation を使用しても向上しておらず,Round-trip translation の場合のみ向上している。また動詞の活用誤りの訂正性能に関して, CNN では全ての擬似データ生成手法で性能が向上しているが,RNN や Transformer では性能を低下させる擬似データ生成手法がある。したがってどのような擬似データ生成手法が有効かはモデルのアーキテクチャに依存することが示唆され,今後より詳細な分析が必要である. ## 5.3 擬似データ量が性能に与える影響 擬似データ量が訂正性能に与える影響をより詳細に調べるため,擬似デー夕量を変化させた時のモデルの性能を調査した,具体的には擬似デー夕量を $1 \mathrm{M}, 3 \mathrm{M}, 5 \mathrm{M}, 7 \mathrm{M}, 10 \mathrm{M}$ と変化させた時の性能を調査した.図 4 に TEC-JL における擬似デー夕量を変化させた時の $\mathrm{F}_{0.5}$ を示す。本実験では,表 13 で TEC-JL において最高性能である CNN を文法誤り訂正モデルに使用し,Back-translation による擬似デー夕を用いた,図 4 より,擬似デー夕量の増加とともにモデルの性能は向上することが分かる. これは英語文法誤り訂正での Kiyono et al. (2020) や " 事前学習なし - Direct noise = Direct noise (ja) " Back-translation "Round-trip translation 60 (a) RNN - 事前学習なし = Direct noise = Direct noise (ja) "Back-translation = Round-trip translation 60 (b) CNN - 事前学習なし - Direct noise = Direct noise (ja) "Back-translation = Round-trip translation (c) Transformer 図 3 擬似データを利用した場合の各文法誤り訂正モデルの Recall (\%). 図 4 TEC-JL における擬似データ量を変化させた時の $\mathrm{F}_{0.5}$. 表 14 TEC-JL における擬似データ量(文対数)を変化させた時の誤りタイプ別の Recall $(\%) . \Delta$ は擬似データなしの性能からの各擬似データ量での差分を表す. Wan et al. (2020)の報告と整合性のある結果である,次に誤りタイプ別の性能はどのように変化するかを調べる.表 14 に擬似データ量を変化させた時の誤りタイプ別の Recall を示す。表 14 より,ほとんどの場合,擬似データなしの時に比べ擬似データを使用した時の方が誤りタイプ別の性能も向上することが分かる。また助詞誤りや助動詞の選択誤りなどは擬似データ量が $1 \mathrm{M}$ の時と比べ $10 \mathrm{M}$ では Recall が $2 \%$ 程度上昇している。一方綴り誤りでは擬似デー夕なしの時よりも $10 \mathrm{M}$ の時の方が性能が下がっている。また句読点誤りの性能は擬似デー夕量が $1 \mathrm{M}$ と 10M の時でほとんど変わっていない。この理由には Back-translation では綴り誤りや句読点誤りを上手く生成できていないことが考えられ,擬似データにより性能が向上しやすい誤りタイプとそうでない誤りタイプが存在することが分かった. ## 6 おわりに 本研究では日本語文法誤り訂正のための誤用タグ付き評価コーパスを構築した. 学習者文には Lang-8 コーパスの日本語学習者文を利用し,一貫した訂正基準に基づき訂正を施した。また文法誤り訂正分野の研究者や開発者が使いやすい評価コーパスとするため,評価コーパスの仕様を英語文法誤り訂正で代表的なコーパスやツールに寄せた。本評価コーパスが日本語文法誤り訂正の研究促進に寄与することを期待する。実験では 6 種類の代表的な文法誤り訂正モデルを評価し, 今後の日本語文法誤り訂正においてべースラインとなるスコアを示した. 今後の課題としては日本語版 ERRANT の開発が挙げられる。本実験では誤りタイプ別の性能評価に Recall を用いたが,モデルをより精緻に評価するには Precision も考慮した $\mathrm{F}_{0.5}$ で評価することが望ましい,誤りタイプ別の $\mathrm{F}_{0.5}$ を求めるには, モデル出力に誤用タグを付与し,誤りタイプ別の Precision を求める必要がある。しかし日本語では ERRANT のような自動誤用タグ付けツールが存在せず,人手での誤用タグ付けはコストが高い。したがって日本語版 ERRANT を開発し,モデルの誤りタイプ別の性能を $\mathrm{F}_{0.5}$ で評価可能にする必要がある. ## 謝 辞 Lang-8 のデータを提供してくださった株式会社 Lang-8 の喜洋洋氏に感謝申しあげます. ## 参考文献 浅原正幸, 金山博, 宮尾祐介, 田中貴秋, 大村舞, 村脇有吾, 松本裕治 (2019). Universal Dependencies 日本語コーパス. 自然言語処理, 26 (1), pp. 3-36. [M. Asahara et al. (2019). Japanese Universal Dependencies Corpora. Journal of Natural Language Processing, 26 (1), pp. 336.]. 浅野広樹, 水本智也, 乾健太郎 (2018). 文法性$\cdot$流暢性$\cdot$意味保存性に基づく文法誤り訂正の参照無し評価. 自然言語処理, 25 (5), pp. 555-576. [H. Asano et al. (2018). A Reference-less Evaluation Metric Based on Grammaticality, Fluency, and Meaning Preservation in Grammatical Error Correction. Journal of Natural Language Processing, 25 (5), pp. 555-576.]. Bahdanau, D., Cho, K., and Bengio, Y. (2015). "Neural Machine Translation by Jointly Learning to Align and Translate." In Proceedings of the 3rd International Conference on Learning Representations. Boyd, A. (2018). "Using Wikipedia Edits in Low Resource Grammatical Error Correction." In Proceedings of the 4th Workshop on Noisy User-generated Text, pp. 79-84. Brockett, C., Dolan, W. B., and Gamon, M. (2006). "Correcting ESL Errors Using Phrasal SMT Techniques." In Proceedings of the 21st International Conference on Computational Linguistics and 44th Annual Meeting of the Association for Computational Linguistics, pp. 249-256. Bryant, C., Felice, M., Andersen, Ø. E., and Briscoe, T. (2019). "The BEA-2019 Shared Task on Grammatical Error Correction." In Proceedings of the 14th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 52-75. Bryant, C., Felice, M., and Briscoe, T. (2017). "Automatic Annotation and Evaluation of Error Types for Grammatical Error Correction." In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics, pp. 793-805. Bryant, C. and Ng, H. T. (2015). "How Far are We from Fully Automatic High Quality Grammatical Error Correction?" In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing, pp. 697-707. Cahill, A., Madnani, N., Tetreault, J., and Napolitano, D. (2013). "Robust Systems for Preposition Error Correction Using Wikipedia Revisions." In Proceedings of the 2013 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 507-517. Choe, Y. J., Ham, J., Park, K., and Yoon, Y. (2019). "A Neural Grammatical Error Correction System Built On Better Pre-training and Sequential Transfer Learning." In Proceedings of the 14th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 213-227. Chollampatt, S. and Ng, H. T. (2018). "A Multilayer Convolutional Encoder-Decoder Neural Network for Grammatical Error Correction." In Proceedings of the 32nd AAAI Conference on Artificial Intelligence, pp. 5755-5762. Chollampatt, S., Wang, W., and Ng, H. T. (2019). "Cross-Sentence Grammatical Error Correction." In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 435-445. Cohen, J. (1960). "A Coefficient of Agreement for Nominal Scales." Educational and Psychological Measurement, 20 (1), pp. 37-46. Dagneaux, E., Denness, S., and Granger, S. (1998). "Computer-aided Error Analysis." System, 26 (2), pp. 163-174. Dahlmeier, D. and Ng, H. T. (2011). "Grammatical Error Correction with Alternating Structure Optimization." In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 915-923. Dahlmeier, D. and Ng, H. T. (2012). "Better Evaluation for Grammatical Error Correction." In Proceedings of the 2012 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 568-572. Dahlmeier, D., Ng, H. T., and Wu, S. M. (2013). "Building a Large Annotated Corpus of Learner English: The NUS Corpus of Learner English." In Proceedings of the 8th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 22-31. De Felice, R. and Pulman, S. G. (2008). "A Classifier-Based Approach to Preposition and Determiner Error Correction in L2 English." In Proceedings of the 22nd International Conference on Computational Linguistics, pp. 169-176. de Marneffe, M.-C., Manning, C. D., Nivre, J., and Zeman, D. (2021). "Universal Dependencies." Computational Linguistics, 47 (2), pp. 255-308. Felice, M. and Briscoe, T. (2015). "Towards a Standard Evaluation Method for Grammatical Error Detection and Correction." In Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 578-587. Felice, M., Bryant, C., and Briscoe, T. (2016). "Automatic Extraction of Learner Errors in ESL Sentences Using Linguistically Enhanced Alignments." In Proceedings of the 26th International Conference on Computational Linguistics: Technical Papers, pp. 825-835. Flachs, S., Stahlberg, F., and Kumar, S. (2021). "Data Strategies for Low-Resource Grammatical Error Correction." In Proceedings of the 16th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 117-122. 藤野拓也, 水本智也, 小町守, 永田昌明, 松本裕治 (2012). 日本語学習者の作文の誤り訂正に向けた単語分割. 言語処理学会第 18 回年次大会発表論文集, pp. 26-29. [T. Fujino et al. (2012). Nihongo Gakushu-Sha no Sakubun no Ayamari Teisei ni Muketa Tango Bunkatsu. In Proceedings of the 18th Annual Meeting of the Association for Natural Language Processing, pp. 26-29.]. Gamon, M. (2010). "Using Mostly Native Data to Correct Errors in Learners' Writing." In Proceedings of Human Language Technologies: The 2010 Annual Conference of the North American Chapter of the Association for Computational Linguistics, pp. 163-171. Gamon, M., Gao, J., Brockett, C., Klementiev, A., Dolan, W. B., Belenko, D., and Vanderwende, L. (2008). "Using Contextual Speller Techniques and Language Modeling for ESL Error Correction." In Proceedings of the 3rd International Joint Conference on Natural Language Processing, pp. 449-456. Ge, T., Wei, F., and Zhou, M. (2018a). "Fluency Boost Learning and Inference for Neural Grammatical Error Correction." In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics, pp. 1055-1065. Ge, T., Wei, F., and Zhou, M. (2018b). "Reaching Human-level Performance in Automatic Grammatical Error Correction: An Empirical Study." arXiv preprint arXiv:1807.01270 [cs. $C L]$. Gehring, J., Auli, M., Grangier, D., Yarats, D., and Dauphin, Y. N. (2017). "Convolutional Sequence to Sequence Learning." In Proceedings of the 34th International Conference on Machine Learning, pp. 1243-1252. Gotou, T., Nagata, R., Mita, M., and Hanawa, K. (2020). "Taking the Correction Difficulty into Account in Grammatical Error Correction Evaluation." In Proceedings of the 28th International Conference on Computational Linguistics, pp. 2085-2095. Granger, S. (1998). "The Computerized Learner Corpus: A Versatile New Source of Data for SLA Research." In Learner English on Computer, pp. 3-18. Grundkiewicz, R. and Junczys-Dowmunt, M. (2018). "Near Human-Level Performance in Grammatical Error Correction with Hybrid Machine Translation." In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 284-290. Grundkiewicz, R. and Junczys-Dowmunt, M. (2019). "Minimally-Augmented Grammatical Error Correction." In Proceedings of the 5th Workshop on Noisy User-generated Text, pp. 357-363. Grundkiewicz, R., Junczys-Dowmunt, M., and Gillian, E. (2015). "Human Evaluation of Grammatical Error Correction Systems." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 461-470. Grundkiewicz, R., Junczys-Dowmunt, M., and Heafield, K. (2019). "Neural Grammatical Error Correction Systems with Unsupervised Pre-training on Synthetic Data." In Proceedings of the 14th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 252-263. Gu, J., Wang, C., and Zhao, J. (2019). "Levenshtein Transformer." In Advances in Neural Information Processing Systems 32, pp. 11181-11191. Guo, M., Dai, Z., Vrandečić, D., and Al-Rfou, R. (2020). "Wiki-40B: Multilingual Language Model Dataset." In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 2440-2452. Heafield, K. (2011). "KenLM: Faster and Smaller Language Model Queries." In Proceedings of the 6th Workshop on Statistical Machine Translation, pp. 187-197. 本間広樹,小町守 (2022). 高速な文法誤り訂正機能を持つ日本語ライティング支援システムの構築. 人工知能学会論文誌, 37 (1), pp. 1-14. [H. Homma, and M. Komachi (2022). Japanese Writing Support System with Fast Grammatical Error Correction. Transactions of the Japanese Society for Artificial Intelligence, 37 (1), pp. 1-14.]. Honnibal, M. and Montani, I. (2017). "spaCy 2: Natural Language Understanding with Bloom Embeddings, Convolutional Neural Networks and Incremental Parsing.". 今枝恒治, 河合敦夫, 石川裕司, 永田亮, 栘井文人 (2003). 日本語学習者の作文における格助詞の誤り検出と訂正. 情報処理学会研究報告, コンピュータと教育研究会, 2003 (13), pp. 39-46. [K. Imaeda et al. (2003). Error Detection and Correction of Case Particles in Japanese Learner's Composition. The Special Interest Group Technical Reports of IPSJ, IPSJ Special Interest Groups on Computers in Education, 2003 (13), pp. 39-46.]. 今村賢治, 齋藤邦子, 貞光九月, 西川仁 (2012). 小規模誤りデータからの日本語学習者作文の助詞誤り訂正. 自然言語処理, 19 (5), pp. 381-400. [K. Imamura et al. (2012). Particle Error Correction of Japanese Learners from Small Error Data. Journal of Natural Language Processing, 19 (5), pp. 381-400.]. 井上優, 宇佐美洋, 成田高宏, 鏈水兼高 (2006). 作文対訳データベースの多様な利用のために: 「日本語教育のための言語資源及び学習内容に関する調査研究」成果報告書. [M. Inoue et al. (2006). Sakubun Taiyaku Detabesu no Tayo na Riyo no Tame ni: 'Nihongo Kyoiku no Tame no Gengo Shigen Oyobi Gakushu Naiyo ni Kansuru Chosa Kenkyu' Seika Hokoku-Sho. National Institute for Japanese Language and Linguistics.]. Ji, J., Wang, Q., Toutanova, K., Gong, Y., Truong, S., and Gao, J. (2017). "A Nested Attention Neural Hybrid Model for Grammatical Error Correction." In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics, pp. 753-762. Junczys-Dowmunt, M. and Grundkiewicz, R. (2016). "Phrase-based Machine Translation is State-of-the-Art for Automatic Grammatical Error Correction." In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1546-1556. Junczys-Dowmunt, M., Grundkiewicz, R., Guha, S., and Heafield, K. (2018). "Approaching Neural Grammatical Error Correction as a Low-Resource Machine Translation Task." In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 595-606. Kaneko, M., Mita, M., Kiyono, S., Suzuki, J., and Inui, K. (2020). "Encoder-Decoder Models Can Benefit from Pre-trained Masked Language Models in Grammatical Error Correction." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4248-4254. Kantor, Y., Katz, Y., Choshen, L., Cohen-Karlik, E., Liberman, N., Toledo, A., Menczel, A., and Slonim, N. (2019). "Learning to Combine Grammatical Error Corrections." In Proceedings of the 14th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 139-148. 笠原誠司, 藤野拓也, 小町守, 永田昌明, 松本裕治 (2012). 日本語学習者の誤り傾向を反映した格助詞訂正. 言語処理学会第 18 回年次大会発表論文集, pp. 14-17. [S. Kasahara et al. (2012). Nihongo Gakushu-Sha no Ayamari Keiko o Hanei Shita Kakujoshi Teisei. In Proceedings of the 18th Annual Meeting of the Association for Natural Language Processing, pp. 14-17.]. Katsumata, S. and Komachi, M. (2020). "Stronger Baselines for Grammatical Error Correction Using a Pretrained Encoder-Decoder Model." In Proceedings of the 1st Conference of the Asia-Pacific Chapter of the Association for Computational Linguistics and the 10th International Joint Conference on Natural Language Processing, pp. 827-832. 木山朔, 上坂奏人, 佐藤郁子, 佐藤京也, 米田悠人, 小山碧海, 三田雅人, 岡照晃, 小町守 (2022).日本語文法誤り訂正の流暢性評価に向けたデー夕作成. 言語処理学会第 28 回年次大会発表論文集, pp. 1704-1709. [H. Kiyama et al. (2022). Nihongo Bumpo Ayamari Teisei no Ryucho-Sei Hyoka ni Muketa Deta Sakusei. In Proceedings of the 28th Annual Meeting of the Association for Natural Language Processing, pp. 1704-1709.]. Kiyono, S., Suzuki, J., Mizumoto, T., and Inui, K. (2020). "Massive Exploration of Pseudo Data for Grammatical Error Correction." IEEE/ACM Transactions on Audio, Speech, and Language Processing, 28, pp. 2134-2145. Koehn, P., Hoang, H., Birch, A., Callison-Burch, C., Federico, M., Bertoldi, N., Cowan, B., Shen, W., Moran, C., Zens, R., Dyer, C., Bojar, O., Constantin, A., and Herbst, E. (2007). "Moses: Open Source Toolkit for Statistical Machine Translation." In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 177-180. Koehn, P. and Knowles, R. (2017). "Six Challenges for Neural Machine Translation." In Proceedings of the 1st Workshop on Neural Machine Translation, pp. 28-39. Koehn, P., Och, F. J., and Marcu, D. (2003). "Statistical Phrase-Based Translation." In Proceedings of the 2003 Human Language Technology Conference of the North American Chapter of the Association for Computational Linguistics, pp. 127-133. 小山碧海, 喜友名朝視顕, 小林賢治, 新井美桜, 小町守 (2020). 日本語学習者の文法誤り訂正のための評価コーパス構築. 言語処理学会第 26 回年次大会発表論文集, pp. 145-148. [A. Koyama et al. (2020). Nihongo Gakushu-Sha no Bumpo Ayamari Teisei no Tame no Hyoka Kopasu Kochiku. In Proceedings of the 26th Annual Meeting of the Association for Natural Language Processing, pp. 145-148.]. Koyama, A., Kiyuna, T., Kobayashi, K., Arai, M., and Komachi, M. (2020). "Construction of an Evaluation Corpus for Grammatical Error Correction for Learners of Japanese as a Second Language." In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 204-211. 小山碧海, 喜友名朝視顕, 三田雅人, 岡照晃, 小町守 (2022). 日本語文法誤り訂正評価コーパスへの誤用タグ付け. 情報処理学会研究報告, 自然言語処理研究会, 2022-NL-253 (17), pp. 1-9. [A. Koyama et al. (2022). Nihongo Bumpo Ayamari Teisei Hyoka Kopasu he no Goyo Tagu Zuke. The Special Interest Group Technical Reports of IPSJ, IPSJ Special Interest Groups on Natural Language, 2022-NL-253 (17), pp. 1-9.]. 古山翔太, 高村大也, 岡崎直観 (2022). 多様な規則を活用した文法誤り訂正のデー夕拡張に関する分析. 自然言語処理, 29 (2), pp. 542-586. [S. Koyama et al. (2022). Analysis of Data Augmentation for Grammatical Error Correction Based on Various Rules. Journal of Natural Language Processing, 29 (2), pp. 542-586.]. Kudo, T. (2018). "Subword Regularization: Improving Neural Network Translation Models with Multiple Subword Candidates." In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics, pp. 66-75. Kudo, T. and Richardson, J. (2018). "SentencePiece: A Simple and Language Independent Subword Tokenizer and Detokenizer for Neural Text Processing." In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71. Kudo, T., Yamamoto, K., and Matsumoto, Y. (2004). "Applying Conditional Random Fields to Japanese Morphological Analysis." In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, pp. 230-237. Lai, S., Zhou, Q., Zeng, J., Li, Z., Li, C., Cao, Y., and Su, J. (2022). "Type-Driven MultiTurn Corrections for Grammatical Error Correction." In Findings of the Association for Computational Linguistics: ACL 2022, pp. 3225-3236. Landis, J. R. and Koch, G. G. (1977). "The Measurement of Observer Agreement for Categorical Data." Biometrics, 33 (1), pp. 159-174. Levenshtein, V. I. (1966). "Binary Codes Capable of Correcting Deletions, Insertions and Reversals." Soviet Physics Doklady, 10 (8), pp. 707-710. Lewis, M., Liu, Y., Goyal, N., Ghazvininejad, M., Mohamed, A., Levy, O., Stoyanov, V., and Zettlemoyer, L. (2020). "BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880. Li, X. and He, J. (2021). "Data Augmentation of Incorporating Real Error Patterns and Linguistic Knowledge for Grammatical Error Correction." In Proceedings of the 25th Conference on Computational Natural Language Learning, pp. 223-233. Lichtarge, J., Alberti, C., and Kumar, S. (2020). "Data Weighted Training Strategies for Grammatical Error Correction." Transactions of the Association for Computational Linguistics, 8, pp. 634-646. Lichtarge, J., Alberti, C., Kumar, S., Shazeer, N., Parmar, N., and Tong, S. (2019). "Corpora Generation for Grammatical Error Correction." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 3291-3301. Liu, J., Cheng, F., Wang, Y., Shindo, H., and Matsumoto, Y. (2018). "Automatic Error Correction on Japanese Functional Expressions Using Character-based Neural Machine Translation." In Proceedings of the 32nd Pacific Asia Conference on Language, Information and Computation, pp. 394-403. Luong, T., Pham, H., and Manning, C. D. (2015). "Effective Approaches to Attention-based Neural Machine Translation." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 1412-1421. 三田雅人, 水本智也, 金子正弘, 永田亮, 乾健太郎 (2021). 文法誤り訂正モデルの横断評価.自然言語処理, 28 (1), pp. 160-182. [M. Mita et al. (2021). Cross-Sectional Evaluation of Grammatical Error Correction Models. Journal of Natural Language Processing, 28 (1), pp. 160-182.]. Mita, M., Kiyono, S., Kaneko, M., Suzuki, J., and Inui, K. (2020). "A Self-Refinement Strategy for Noise Reduction in Grammatical Error Correction." In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 267-280. Mita, M., Mizumoto, T., Kaneko, M., Nagata, R., and Inui, K. (2019). "Cross-Corpora Evaluation and Analysis of Grammatical Error Correction Models - Is Single-Corpus Evaluation Enough?" In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1309-1314. Mita, M. and Yanaka, H. (2021). "Do Grammatical Error Correction Models Realize Grammatical Generalization?" In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 4554-4561. 水本智也 (2020). 日本語文法誤り訂正における最適な分割単位の調査. 言語処理学会第 26 回年次大会発表論文集, pp. 1336-1339. [T. Mizumoto (2020). Nihongo Bumpo Ayamari Teisei ni Okeru Saiteki na Bunkatsu Tani no Chosa. In Proceedings of the 26th Annual Meeting of the Association for Natural Language Processing, pp. 1336-1339.]. Mizumoto, T., Hayashibe, Y., Komachi, M., Nagata, M., and Matsumoto, Y. (2012). "The Effect of Learner Corpus Size in Grammatical Error Correction of ESL Writings." In Proceedings of the 24th International Conference on Computational Linguistics: Posters, pp. 863-872.水本智也, 小町守, 永田昌明, 松本裕治 (2013). 日本語学習者の作文自動誤り訂正のための語学学習 SNS の添削ログからの知識獲得. 人工知能学会論文誌, 28 (5), pp. 420-432. [T. Mizumoto et al. (2013). Mining Revision Log of Language Learning SNS for Automated Japanese Error Correction. Transactions of the Japanese Society for Artificial Intelligence, 28 (5), pp. 420-432.]. Morishita, M., Chousa, K., Suzuki, J., and Nagata, M. (2022). "JParaCrawl v3.0: A Largescale English-Japanese Parallel Corpus." In Proceedings of the 13th Language Resources and Evaluation Conference, pp. 6704-6710. Morishita, M., Suzuki, J., and Nagata, M. (2020). "JParaCrawl: A Large Scale Web-Based English-Japanese Parallel Corpus." In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 3603-3609. Morita, H., Kawahara, D., and Kurohashi, S. (2015). "Morphological Analysis for Unsegmented Languages using Recurrent Neural Network Language Model." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 2292-2297. Nagata, R. and Nakatani, K. (2010). "Evaluating Performance of Grammatical Error Detection to Maximize Learning Effect." In Proceedings of the 23rd International Conference on Computational Linguistics: Posters, pp. 894-900. 南保亮太, 乙武北斗, 荒木健治 (2007). 文節内の特徵を用いた日本語助詞誤りの自動検出・校正. 情報処理学会研究報告, 自然言語処理研究会, 2007 (94), pp. 107-112. [R. Nampo et al. (2007). Automatic Error Detection and Correction of Japanese Particles Using Features within Bunsetsu. The Special Interest Group Technical Reports of IPSJ, IPSJ Special Interest Groups on Natural Language, 2007 (94), pp. 107-112.]. Náplava, J. and Straka, M. (2019). "Grammatical Error Correction in Low-Resource Scenarios." In Proceedings of the 5th Workshop on Noisy User-generated Text, pp. 346-356. Náplava, J., Straka, M., Straková, J., and Rosen, A. (2022). "Czech Grammar Error Correction with a Large and Diverse Corpus." Transactions of the Association for Computational Linguistics, 10, pp. 452-467. Napoles, C., Nădejde, M., and Tetreault, J. (2019). "Enabling Robust Grammatical Error Correction in New Domains: Data Sets, Metrics, and Analyses." Transactions of the Association for Computational Linguistics, 7, pp. 551-566. Napoles, C., Sakaguchi, K., Post, M., and Tetreault, J. (2015). "Ground Truth for Grammatical Error Correction Metrics." In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing, pp. 588-593. Napoles, C., Sakaguchi, K., Post, M., and Tetreault, J. (2016). "GLEU Without Tuning." arXiv preprint arXiv:1605.02592 [cs.CL]. Napoles, C., Sakaguchi, K., and Tetreault, J. (2017). "JFLEG: A Fluency Corpus and Benchmark for Grammatical Error Correction." In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics, pp. 229-234. Ng, H. T., Wu, S. M., Briscoe, T., Hadiwinoto, C., Susanto, R. H., and Bryant, C. (2014). "The CoNLL-2014 Shared Task on Grammatical Error Correction." In Proceedings of the Eighteenth Conference on Computational Natural Language Learning: Shared Task, pp. 1-14. Ng, H. T., Wu, S. M., Wu, Y., Hadiwinoto, C., and Tetreault, J. (2013). "The CoNLL-2013 Shared Task on Grammatical Error Correction." In Proceedings of the 17th Conference on Computational Natural Language Learning: Shared Task, pp. 1-12. Nivre, J., de Marneffe, M.-C., Ginter, F., Goldberg, Y., Hajič, J., Manning, C. D., McDonald, R., Petrov, S., Pyysalo, S., Silveira, N., Tsarfaty, R., and Zeman, D. (2016). "Universal Dependencies v1: A Multilingual Treebank Collection." In Proceedings of the 10th Language Resources and Evaluation Conference, pp. 1659-1666. Nivre, J., de Marneffe, M.-C., Ginter, F., Hajič, J., Manning, C. D., Pyysalo, S., Schuster, S., Tyers, F., and Zeman, D. (2020). "Universal Dependencies v2: An Evergrowing Multilingual Treebank Collection." In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 4034-4043. Och, F. J. (2003). "Minimum Error Rate Training in Statistical Machine Translation." In Proceedings of the 41st Annual Meeting of the Association for Computational Linguistics, pp. 160-167. Och, F. J. and Ney, H. (2003). "A Systematic Comparison of Various Statistical Alignment Models." Computational Linguistics, 29 (1), pp. 19-51. 小川耀一朗, 山本和英 (2020). 日本語文法誤り訂正における誤り傾向を考慮した擬似誤り生成. 言語処理学会第 26 回年次大会発表論文集, pp. 505-508. [Y. Ogawa and K. Yamamoto (2020). Nihongo Bumpo Ayamari Teisei ni Okeru Ayamari Keiko o Koryo Shita Giji Ayamari Seisei. In Proceedings of the 26th Annual Meeting of the Association for Natural Language Processing, pp. 505-508.]. 岡照晃 (2019). 言語研究のための電子化辞書. コーパスと辞書, 講座日本語コーパス 7, pp. 1-28.朝倉書店. [T. Oka (2019). Gengo Kenkyu no Tame no Denshi-Ka Jisho. Kopasu to Jisho, Koza Nihongo Kopasu 7, pp. 1-28. Asakura Shoten.]. Ott, M., Edunov, S., Baevski, A., Fan, A., Gross, S., Ng, N., Grangier, D., and Auli, M. (2019). "fairseq: A Fast, Extensible Toolkit for Sequence Modeling." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: System Demonstrations, pp. 48-53. 大山浩美, 小町守, 松本裕治 (2016). 日本語学習者の作文における誤用タイプの階層的アノテー ションに基づく機械学習による自動分類. 自然言語処理, 23 (2), pp. 195-225. [H. Oyama et al. (2016). Hierarchical Annotation and Automatic Error-Type Classification of Japanese Language Learners' Writing. Journal of Natural Language Processing, 23 (2), pp. 195-225.]. Papineni, K., Roukos, S., Ward, T., and Zhu, W.-J. (2002). "BLEU: A Method for Automatic Evaluation of Machine Translation." In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318. Pereira, L., Manguilimotan, E., and Matsumoto, Y. (2016). "Leveraging a Large Learner Corpus for Automatic Suggestion of Collocations for Learners of Japanese as a Second Language." CALICO Journal, 33 (3), pp. 311-333. Qorib, M., Na, S.-H., and Ng, H. T. (2022). "Frustratingly Easy System Combination for Grammatical Error Correction." In Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1964-1974. Radford, A., Narasimhan, K., Salimans, T., and Sutskever, I. (2018). "Improving Language Understanding by Generative Pre-Training.". Raffel, C., Shazeer, N., Roberts, A., Lee, K., Narang, S., Matena, M., Zhou, Y., Li, W., and Liu, P. J. (2020). "Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer." Journal of Machine Learning Research, 21 (140), pp. 1-67. Reimers, N. and Gurevych, I. (2019). "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 3982-3992. Rothe, S., Mallinson, J., Malmi, E., Krause, S., and Severyn, A. (2021). "A Simple Recipe for Multilingual Grammatical Error Correction." In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing, pp. 702-707. Rozovskaya, A. and Roth, D. (2010a). "Generating Confusion Sets for Context-Sensitive Error Correction." In Proceedings of the 2010 Conference on Empirical Methods in Natural Language Processing, pp. 961-970. Rozovskaya, A. and Roth, D. (2010b). "Training Paradigms for Correcting Errors in Grammar and Usage." In Proceedings of Human Language Technologies: The 2010 Annual Conference of the North American Chapter of the Association for Computational Linguistics, pp. 154-162. Rozovskaya, A. and Roth, D. (2011). "Algorithm Selection and Model Adaptation for ESL Correction Tasks." In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 924-933. Rozovskaya, A. and Roth, D. (2019). "Grammar Error Correction in Morphologically Rich Languages: The Case of Russian." Transactions of the Association for Computational Linguistics, 7, pp. 1-17. Sakaguchi, K., Napoles, C., Post, M., and Tetreault, J. (2016). "Reassessing the Goals of Grammatical Error Correction: Fluency Instead of Grammaticality." Transactions of the Association for Computational Linguistics, 4, pp. 169-182. Sakaguchi, K., Post, M., and Van Durme, B. (2017). "Grammatical Error Correction with Neural Reinforcement Learning." In Proceedings of the 8th International Joint Conference on Natural Language Processing, pp. 366-372. Schneider, D. and McCoy, K. F. (1998). "Recognizing Syntactic Errors in the Writing of Second Language Learners." In Proceedings of the 36th Annual Meeting of the Association for Computational Linguistics and 17th International Conference on Computational Linguistics, pp. 1198-1204. Sennrich, R., Haddow, B., and Birch, A. (2016). "Improving Neural Machine Translation Models with Monolingual Data." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, pp. 86-96. Shazeer, N. and Stern, M. (2018). "Adafactor: Adaptive Learning Rates with Sublinear Memory Cost." In Proceedings of the 35th International Conference on Machine Learning, pp. 4596-4604. Srivastava, N., Hinton, G., Krizhevsky, A., Sutskever, I., and Salakhutdinov, R. (2014). "Dropout: A Simple Way to Prevent Neural Networks from Overfitting." Journal of Machine Learning Research, 15 (56), pp. 1929-1958. Stahlberg, F., Kulikov, I., and Kumar, S. (2022). "Uncertainty Determines the Adequacy of the Mode and the Tractability of Decoding in Sequence-to-Sequence Models." In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics, pp. 8634-8645. Stahlberg, F. and Kumar, S. (2021). "Synthetic Data Generation for Grammatical Error Correction with Tagged Corruption Models." In Proceedings of the 16th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 37-47. Straka, M., Náplava, J., and Straková, J. (2021). "Character Transformations for NonAutoregressive GEC Tagging." In Proceedings of the 7th Workshop on Noisy User-generated Text, pp. 417-422. Sun, X. and Wang, H. (2022). "Adjusting the Precision-Recall Trade-Off with Align-and-Predict Decoding for Grammatical Error Correction." In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics, pp. 686-693. Sutskever, I., Vinyals, O., and Le, Q. V. (2014). "Sequence to Sequence Learning with Neural Networks." In Advances in Neural Information Processing Systems 27, pp. 3104-3112. Suzuki, D., Takahashi, Y., Yamashita, I., Aida, T., Hirasawa, T., Nakatsuji, M., Mita, M., and Komachi, M. (2022). "Construction of a Quality Estimation Dataset for Automatic Evaluation of Japanese Grammatical Error Correction." In Proceedings of the 13th Language Resources and Evaluation Conference, pp. 5565-5572. Suzuki, H. and Toutanova, K. (2006). "Learning to Predict Case Markers in Japanese." In Proceedings of the 21st International Conference on Computational Linguistics and 44th Annual Meeting of the Association for Computational Linguistics, pp. 1049-1056. Swanson, B. and Yamangil, E. (2012). "Correction Detection and Error Type Selection as an ESL Educational Aid." In Proceedings of the 2012 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 357-361. Tajiri, T., Komachi, M., and Matsumoto, Y. (2012). "Tense and Aspect Error Correction for ESL Learners Using Global Context." In Proceedings of the 50th Annual Meeting of the Association for Computational Linguistics, pp. 198-202. 田中佑,村脇有吾,河原大輔,黒橋禎夫 (2021). 日本語 Wikipedia の編集履歴に基づく入力誤りデータセットと訂正システムの構築. 自然言語処理, 28 (4), pp. 995-1033. [Y. Tanaka et al. (2021). Building a Japanese Typo Dataset and Typo Correction System Based on Wikipedia's Revision History. Journal of Natural Language Processing, 28 (4), pp. 995- 1033.]. 塘優旗, 小町守 (2015). 部分的アノテーションを利用した CRF による日本語学習者文の単語分割. 情報処理学会研究報告, 自然言語処理研究会, 2015-NL-223 (2), pp. 1-9. [Y. Tomo, and M. Komachi (2015). Bubun-Teki Anoteshon o Riyo Shita CRF niyoru Nihongo Gakushu-Sha Bun no Tango Bunkatsu. The Special Interest Group Technical Reports of IPSJ, IPSJ Special Interest Groups on Natural Language, 2015-NL-223 (2), pp. 1-9.]. Trinh, V. A. and Rozovskaya, A. (2021). "New Dataset and Strong Baselines for the Grammatical Error Correction of Russian." In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 4103-4111. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., and Polosukhin, I. (2017). "Attention is All you Need." In Advances in Neural Information Processing Systems 30, pp. 5998-6008. Wan, Z., Wan, X., and Wang, W. (2020). "Improving Grammatical Error Correction with Data Augmentation by Editing Latent Representation." In Proceedings of the 28th International Conference on Computational Linguistics, pp. 2202-2212. Wang, L. and Zheng, X. (2020). "Improving Grammatical Error Correction Models with PurposeBuilt Adversarial Examples." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, pp. 2858-2869. White, M. and Rozovskaya, A. (2020). "A Comparative Study of Synthetic Data Generation Methods for Grammatical Error Correction." In Proceedings of the 15th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 198-208. Wolf, T., Debut, L., Sanh, V., Chaumond, J., Delangue, C., Moi, A., Cistac, P., Rault, T., Louf, R., Funtowicz, M., Davison, J., Shleifer, S., von Platen, P., Ma, C., Jernite, Y., Plu, J., Xu, C., Le Scao, T., Gugger, S., Drame, M., Lhoest, Q., and Rush, A. (2020). "Transformers: State-of-the-Art Natural Language Processing." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45. Xie, Z., Genthial, G., Xie, S., Ng, A., and Jurafsky, D. (2018). "Noising and Denoising Natural Language: Diverse Backtranslation for Grammar Correction." In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 619-628. Xue, L., Constant, N., Roberts, A., Kale, M., Al-Rfou, R., Siddhant, A., Barua, A., and Raffel, C. (2021). "mT5: A Massively Multilingual Pre-trained Text-to-Text Transformer." In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 483-498. 山下郁海, 金子正弘, 三田雅人, 勝又智, Aizhan Imankulova, 小町守 (2022). 言語間での転移学習のための事前学習モデルと多言語の学習者データを用いた文法誤り訂正. 自然言語処理, 29 (2), pp. 314-343. [I. Yamashita et al. (2022). Grammatical Error Correction with Pretrained Model and Multilingual Learner Corpus for Cross-lingual Transfer Learning. Journal of Natural Language Processing, 29 (2), pp. 314-343.]. Yannakoudakis, H., Andersen, Ø. E., Geranpayeh, A., Briscoe, T., and Nicholls, D. (2018). "Developing an Automated Writing Placement System for ESL Learners." Applied Measurement in Education, 31 (3), pp. 251-267. Yannakoudakis, H., Briscoe, T., and Medlock, B. (2011). "A New Dataset and Method for Automatically Grading ESOL Texts." In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 180-189. Yasunaga, M., Leskovec, J., and Liang, P. (2021). "LM-Critic: Language Models for Unsupervised Grammatical Error Correction." In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 7752-7763. Yuan, Z. and Briscoe, T. (2016). "Grammatical Error Correction using Neural Machine Translation." In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 380-386. Yuan, Z. and Bryant, C. (2021). "Document-level Grammatical Error Correction." In Proceedings of the 16th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 75-84. Yuan, Z., Taslimipoor, S., Davis, C., and Bryant, C. (2021). "Multi-Class Grammatical Error Detection for Correction: A Tale of Two Systems." In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 8722-8736. Zhang, Y., Li, Z., Bao, Z., Li, J., Zhang, B., Li, C., Huang, F., and Zhang, M. (2022). "MuCGEC: a Multi-Reference Multi-Source Evaluation Dataset for Chinese Grammatical Error Correction." In Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 3118-3130. Zhao, W., Wang, L., Shen, K., Jia, R., and Liu, J. (2019). "Improving Grammatical Error Correction via Pre-Training a Copy-Augmented Architecture with Unlabeled Data." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 156-165. Zhou, W., Ge, T., Mu, C., Xu, K., Wei, F., and Zhou, M. (2020). "Improving Grammatical Error Correction with Machine Translation Pairs." In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 318-328. ## 付録 ## A BART 及び T5 の設定 表 15 に BART 及び T5 のハイパーパラメータと推論時の設定を示す. 表 15 BART 及び T5 のハイパーパラメータと推論時の設定. ## 略歴 小山碧海:2021 年東京都立大学システムデザイン学部システムデザイン学科情報通信システムコース卒業. 2023 年東京都立大学大学院システムデザイン研究科情報科学域博士前期課程修了. 同年 KDDI 株式会社入社及び東京都立大学大学院システムデザイン研究科情報科学域博士後期課程進学. 現在に至る. 喜友名朝視顕 : 2021 年東京都立大学システムデザイン学部システムデザイン学科情報通信システムコース卒業. 2023 年東京都立大学大学院システムデザイン研究科情報科学域博士前期課程修了. 同年ヤフー株式会社入社. 現在に至る.小林賢治:2021 年東京都立大学システムデザイン学部システムデザイン学科情報通信システムコース卒業. 2023 年東京都立大学大学院システムデザイン研究科情報科学域博士前期課程修了. 同年 NECソリユーションイノベータ株式会社入社. 現在に至る. 新井美桜:2017 年帝京大学外国語学部外国語学科卒業. 2020 年首都大学東京 (現東京都立大学) 大学院システムデザイン研究科情報科学域博士前期課程修了. 同年フューチャー株式会社入社. 現在に至る. 三田雅人:2014 年県立広島大学経営情報学部経営学科卒業. 2016 年奈良先端科学技術大学院大学情報科学研究科博士前期課程終了. 同年日本マイクロ ソフト株式会社入社. 2018 年理化学研究所革新知能統合研究センター入所. 2021 年東北大学大学院情報科学研究科博士後期課程修了. 博士 (情報科学).同年東京都立大学システムデザイン学部特任助教. 2022 年株式会社サイバー エージェント AI Lab リサーチサイエンティスト. 現在に至る. 言語処理学会, ACL 各会員. 岡照晃:2010 年豊橋技術科学大学情報工学課程卒業. 2012 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 2013 年より日本学術振興会特別研究員 (DC2) を経て, 2015 年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了. 博士 (工学). 同年京都大学大学院情報学研究科特定研究員. 2016 年国立国語研究所言語変化研究領域プロジェクト非常勤研究員. 同年同研究所コーパス開発センター特任助教. 2021 年東京都立大学システムデザイン学部特任助教. 2023 年一橋大学ソーシャル・データサイエンス研究科特任助教. 現在に至る. 小町守:2005 年東京大学教養学部基礎科学科科学史 $\cdot$ 科学哲学分科卒業. 2007 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 2008 年より日本学術振興会特別研究員 (DC2) を経て, 2010 年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了. 博士 (工学). 同年同研究科助教. 2013 年首都大学東京 (現東京都立大学) システムデザイン学部准教授. 2022 年同大学同学部教授. 2023 年一橋大学ソーシャル・データサイエンス研究科教授. 現在に至る. 情報処理学会, 人工知能学会, 言語処理学会, ACL 各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 日本語数量表現コーパスと推論データセットの構築 小谷野華那 $\dagger$ - 谷中 曈 ${ }^{\dagger \dagger}$. 峯島 宏次 ${ }^{\dagger \dagger \dagger}$. 戸次 大介 $\dagger$ } 自然言語推論は, 前提文が真であるとき, 仮説文が真ならば含意, 偽ならば矛盾, ど ちらともいえないならば中立であると判定するタスクであり,言語理解の基礎をな すタスクの一つである。数量表現が現れる文間の推論では, 論理的含意と推意の間 で判定が異なることがある。また否定文や条件文などの文脈に数量表現が現れる推論では, 推論の向きが通常の文脈とは反転することが知られている. さらに日本語 の数量表現は出現形式が柔軟であり,様々な助数辞の種類や数量表現の用法がある. しかし, これらの意味論的・語用論的特徴に着目したコーパス, 及び, 数量表現の 理解を問うような推論データセットの構築は十分に進められていない. そこで本研究では, 既存の日本語ツリーバンクに含まれる文を用いて, 助数辞の種類, 数量表現の出現形式, 用法といった情報を付与したコーパスを構築する. その上で, この コーパスに基づき,日本語数量表現の推論データセットを構築する。また, 構築し た推論データセットを用いて, 事前学習済み言語モデルである日本語 BERT モデル が数量表現の理解を必要とする推論をどの程度扱えるかを調査する実験を行った.実験の結果, 日本語 BERT モデルは, 様々な数量表現を含む推論の扱いについて課題があることを確認した。 キーワード : 数量表現, 日本語, 自然言語推論, 含意, 推意 ## Constructing an Annotated Corpus and Inference Dataset for Japanese Numeral Expressions \author{ Kana Koyano $^{\dagger}$, Hitomi Yanaka $^{\dagger \dagger}$, Koji Mineshima ${ }^{\dagger \dagger \dagger}$ and Daisuke Bekki ${ }^{\dagger}$ } Natural language inference is a core natural language understanding task for determining whether a hypothesis is true (entailment), false (contradiction), or neither (neutral) when a set of premises is true. Logical entailment and implicature can differ when an inference contains numeral expressions. Embedding numeral expressions in contexts such as negation and conditionals can enable reversing the entailment relation between a premise and a hypothesis to that embedded in general contexts. Furthermore, numeral expressions in Japanese are characterized by the flexibility of quantifier positions, the variety of numeral suffixes, and their usages. However,  studies on developing annotated corpora focusing on these features and benchmark datasets for understanding Japanese numeral expressions have been limited. In this study, we developed a corpus that annotates each numeral expression in an existing phrase-structure-based Japanese treebank with its numeral suffix, position, and usage types. Furthermore, we constructed an inference dataset for numerical expressions based on our annotated corpus. Our inference dataset focused on inferences in which their entailment labels differ between logical entailment and implicature and contexts such as negations and conditionals where entailment labels can be reversed. Experiments were conducted using the constructed inference dataset to investigate the extent to which current standard pre-trained language models can handle inferences that require an understanding of numeral expressions. The results confirmed that the Japanese bidirectional encoder representation model cannot satisfactorily handle inferences involving various numeral expressions. Key Words: Numeral Expressions, Japanese, Natural Language Inference, Entailment, Implicature ## 1 はじめに 日本語では数量表現が多様な形で現れる。例えば,以下の 3 つ文は, 形式は異なるが,いずれも同じ真理条件を持つ. (1) 学生が 3 人いる. (2) 3 人の学生がいる. (3) 3 名の学生がいる. (1) と (2)では, 文中において数量表現が現れる位置が異なっており, (2) と (3) では助数辞が異なっている。こうした数量表現の出現形式や助数辞の多様性は, 日本語の重要な特徴の一つであり,後述するように言語学での記述的・理論的研究が近年進んでいる. しかし, これまでのところ, これらの特徴に着目したコーパスの構築や, 言語学的な知見をふまえて日本語の数量表現の理解を問うようなデータセットの構築は,管見の限り行われていない. 自然言語理解の基礎をなすタスクの一つとして, 自然言語推論 (Natural Language Inference, NLI) がある (Cooper et al. 1994; Bowman et al. 2015). 自然言語推論は, 含意関係認識 (Recognizing Textual Entailment, RTE) とも呼ばれ,前提文が真であるとき,仮説文が必ず真なら含意 (ENTAILMENT),必ず偽なら矛盾 (CONTRADICTION),どちらでもないなら中立 (NEUTRAL) であることを判定するタスクである。自然言語推論では一般に意味論的推論の判定が想定されているが, 自然言語処理分野では近年, 意味論的推論だけでなく, 語用論的推論も研究の対象となっている (Jeretic et al. 2020).この 2 種類の推論は, 言語学の文献で議論されてきた含意 (entailment) と推意 (implicature) に対応する (Levinson 1983; Horn 1989; Levinson 2000). 例として,以下のような数量表現を含む前提文 $P$ と仮説文 $H$ のぺアについて考えよう. (4) $P$ : 男性が道端に 4 人座っていた. $H$ : 男性が道端に 5 人座っていた. この $P$ に現れる数量表現 $\lceil 4$ 人」の解釈には, 「少なくとも 4 人座っていた」という解釈と, 「ちょうど 4 人座っていた」という 2 種類の解釈が存在する. $H$ に現れる数量表現 $\Gamma 5$ 人」についても同様である, 2 種類の解釈のうち, 前者は文の真理条件, 後者は協調の原理に基づく解釈であり, ここではそれぞれ意味論的解釈, 語用論的解釈 ${ }^{1}$ と呼ぶ, $P$ から $H$ のの推論は, 意味論的解釈のもとでは中立 (NEUTRAL) であるのに対し, 語用論的解釈のもとでは矛盾 (CONTRADICTION) となる。このように数量表現を含む前提文と仮説文のペアが与えられたとき,数量表現の解釈の仕方によって判定が異なることがあるため, 意味論的解釈と語用論的解釈を区別して考える必要がある。意味論的解釈に基づく推論を意味論的推論といい, 語用論的解釈に基づく推論を語用論的推論という.「含意ラベル」は意味論的推論の判定,「推意ラベル」は語用論的推論の判定を表し,それぞれ含意 (ENTAILMENT), 矛盾 (CONTRADICTION), 中立 (NEUTRAL)の 3 値をとる. また,数量表現が否定文や条件節に現れる場合,通常の文脈に数量表現が現れる場合とは異なり,含意ラベルが変化することがある.表 1 の例では, $P$ から $H_{-}$の推論の含意ラべルは ENTAILMENT, $P$ から $H_{+}$への推論の含意ラベルは NEUTRAL である。つまり,「学生が 4 人以上いる(=少なくとも 4 人いる)」は,「学生が 3 人以上いる」を含意するが,「学生が 5 人以上いる」を含意しない,一方,数量表現が否定文脈に現れる場合, $P$ から $H_{-} へ$ の推論の含意ラべルは NEUTRAL であるのに対し, $P$ から $H_{+}$の推論の含意ラベルは ENTAILMENT である。つまり,「学生が 4 人以上はいない」は「学生が 5 人以上はいない」を含意するが, 「学生が 3 人 表 1 否定文における含意ラベルの反転の例  以上はいない」を含意しない。このように,数量表現が否定文や条件節といった文脈に現れる場合(このような文脈は下方含意と呼ばれており, 4.2 節で詳細を述べる),推論の判定に影響を与えることがある. 本研究では, 助数辞の種類, 数量表現の出現形式, 用法をアノテーションした日本語の数量表現アノテーションコーパスを構築する.数量表現を含む文は, NPCMJ (NINJAL 2016) から抽出する。NPCMJ は,現代日本語の書き言葉と話し言葉に対して文の統語・意味解析情報が付与されているデータセットである。 さらに,作成した日本語数量表現アノテーションコーパスをもとに,含意ラベルと推意ラベルを付与した数量表現の推論データセットを構築する。本稿では, 数量表現コーパスおよび推論データセットの構築と, それを用いて現在の標準的な事前学習済み言語モデルの一つである日本語 BERT モデル (Devlin et al. 2019) が数量表現の理解を必要とする推論をどの程度扱えるかを調査する実験を行う.構築した数量表現コーパスおよび推論データセットは研究利用可能な形式で公開している². ## 2 関連研究 英語の自然言語推論の研究として, 数量表現を含む NLI テストセット (Naik et al. 2018) がある.この NLI テストセットには,含意関係を表すための 3 種類のラベル(含意,矛盾,中立) を付与した文ぺアが 2,532 件ずつ, 計 7,596 件の文ぺアが含まれている. 最近の研究 (Liu et al. 2019)において, この数量表現を含む NLI テストセットは,文ぺアが簡単なテンプレートに基づいて構築されているため, 大半の問題(全体の約 $82 \%$ )はいくつかのヒューリスティクスで解くことができると指摘されている. Jeretic et al. (2020)は, 含意, 前提, 推意という推論現象の違いに着目した英語の NLIデータセットを構築した。この NLI データセットには, Jo ate some of the cake から Jo didn't eat all of the cake が推意されるといった, 数量表現を含むいわゆるスカラー推意 (scalar implicature) による推論を含んでいる。しかし,この NLI データセットは前提文と仮説文のテンプレートから自動で構築されているため, 単純な文が多いという問題がある. Cui et al. (2022) は,多言語で事前学習された言語モデルが,英語における様々な数量表現を含む一般化量化子のふるまいをどの程度捉えることができるかについて, 一般化量化子の理解に特化したベンチマークGQNLIを構築し, 調査を行った. GQNLIで言語モデルを評価した結果, 言語モデルの最高精度は $48 \%$ であり, 一般化量化子を捉えられていないことが NLI モデルや質問応答モデルの性能改善の課題の一つとなっていることを示した. 日本語の推論データセットとして, 形式意味論テストセットの JSeM (Kawazoe et al. 2017), ^{2}$ https://github.com/KanaKoyano/numeral-expressions-corpus } 画像キャプションに基づく英語の推論データセットである SNLI (Bowman et al. 2015)の日本語版である JSNLI (吉越他 2020), 画像キャプションに基づく推論データセットであり, 仮説文に否定表現や受身などの多様な言語現象を含めた英語の推論データセットである SICK (Marelli et al. 2014)の日本語版である JSICK (Yanaka and Mineshima 2022), 旅行情報サイトの評判という実テキストからクラウドソーシングで構築された JRTEC (Hayashibe 2020) などがある. これらの日本語の推論データセットでは, 日本語の数量表現の統語的, 意味的な多様性に焦点を当てていない. Narisawa et al. (2013)は,日本語の含意関係認識において数量表現が問題になる事例に焦点を当て分析を行い,数量表現の規格化のための実装と評価を行った. Narisawa らは,数量表現が出現する文ぺアを 7 つのカデリに分類し,正しく含意関係を判定するために必要な処理について述べている。 上記のように, これまでの日本語の推論データセット, 日本語数量表現のための実装では, 数量表現の分類や数詞の違い, 含意ラベルと推意ラベルの違いについて十分に考慮されているとはいえない,しかし次節でみるように,数量表現と数詞の分類は,それらが参与する推論の結果を左右する要因である。そこで本研究では, 日本語の数量表現の出現形式と用法, 助数辞の分類を整理し,整理した分類体系に基づいて実テキストに対して意味アノテーションを付与した数量表現コーパスを構築する。また,構築したコーパスを用いて含意ラベルと推意ラベルを付与した数量表現を含む推論データセットを構築する. ## 3 日本語数量表現の分類 ## 3.1 アノテーションの手順 本研究では, NPCMJ 内の 126 文に含まれる 287 件の数量表現について, 言語学の素養のある大学院生 1 名がアノテーションを行った. NPCMJには,青空文庫,辞書,ニュースなどの様々なジャンルのデータが含まれている。複雑な文を扱った挑戦的な推論データセットを構築することを最終目的として,数量表現を 2 つ以上含む文をアノテーションの対象として抽出した。また,否定表現と条件節を含む文については数量表現を 1 つ以上含む文を抽出した。アノテーションしたデータの一部は, 専門家と議論を行いアノテーション結果が妥当であることを確認している. タグ付け文中に現れる数量表現にくnum>タグを付与し, 助数辞の分類, 出現形式, 用法についてアノテーションを行った. 文中に複数の数量表現が現れる場合は,1つ目の数量表現に<num>夕グを付与したもの,2つ目の数量表現に<num>タグを付与したもののように,1つの数量表現に<num>タグを付与した文を複数作成し,各文の<num>タグが付与されている数量表現に対してアノテーションを行った. コーパスに含まれる助数辞, 出現形式, 用法の分類の例とアノテー ション件数は, 表 2 に示す. 次の文は, 本研究で構築した数量表現コーパスに含まれる一文である。 (5) ちなみに金板の百人一首は<num>1 セット</num>で 80 万円である. (5) で<num>タグが付与されている数量表現「1 セット」の助数辞タイプは「単位形成辞」, 出現形式タイプは $\lceil\mathrm{QCQ}$ 型」, 用法タイプは「Q を修飾する $\mathrm{Q}\rfloor$ となる. 次節以降で助数辞, 出現形式,用法の分類の詳細を述べる. 表 2 (a) 助数辞, (b) 出現形式, (c) 用法の分類の例とアノテーション件数 ## 3.2 助数辞の分類 飯田 (2019), Iida (2021) は, 助数辞を分類辞, 単位形成辞, 計量辞の 3つのタイプに分類した. これに加えて, 時間や系列の中での順序を表す順序数辞 (奥津 1996) というクラスの数量表現も存在する. そこで本研究では, 飯田の 3 つのタイプの助数辞に順序数辞を加えた計 4 夕イプによる分類を提案し, 助数辞タイプのアノテーションを行う. 助数辞の分類の例を表 2 の (a) に示す. 分類辞には, 助数辞単体では使用されないもの, 複数の人やものに対して使用されるもの, 汎用的な助数辞が含まれる. 次の 2 文は分類辞の例である. (6) ライオンが 2 頭いる. (7) 靴を 1 足買った. (6) の助数辞「頭」は「アタマ」という読み方で名詞として使用されるが, 「トウ」という読み方で単体で使用されることはないため,これは分類辞に該当する。(7)の「足」は左右合わせた 1 つの靴の組に対して使われる助数辞であり, これも分類辞である。また, 汎用的な助数辞は 「つ」や「個」があり,これも分類辞に含まれる. 単位形成辞は, 何らかの容器を表す普通名詞であり, 助数辞としてではなく単独で用いることが可能である。これらの名詞は,分類辞を持つ数量表現によって量化されることもある.次の文では,数量表現である「2 個」が普通名詞「箱」を量化している. (8) 箱が 2 個ある. 単位形成辞は, 新しい形の容器が社会に普及すると, それが新たに単位形成辞に追加されるという特徴を持つ. 外来語である「パック」はまさにその例である. 計量辞は,「キロ」は重さや距離を表す単位,「メートル」は長さを表す単位など, 測定のための単位を表す助数辞である.計量辞は単位形成辞と同様に,いわゆる開いたクラスであり,新しい計量の単位が社会に普及するたびに, それが新たに計量辞に追加されるという特徴を持つ.順序数辞は,時間や順序を表す助数辞である。順序数辞を含む数量表現は,修飾する名詞が文中に現れないことが多く,むしろ数量表現自体が名詞としての役割を果たすといった特徴がある。日時を表す「年」「月」や,順序を表す「番」「位」が順序数辞の例である. 飯田は, 分類辞, 単位形成辞, 計量辞を分類するテストとして, 助数辞の後ろに「分」を付与するテストを挙げている. 次の文は分類辞「人」と,その後ろに「分」を付与した例である. (9) 3 人の子供がいる. (10) 3 人分の子供がいる. 分類辞に「分」を付与すると, そのままでは何を意味しているのかがわからないという特徴が ある. (10) は子供が何に対して 3 人分いるのか, 十分な文脈が与えられない限り解釈が難しい. 単位形成辞は,元の文が真であれば「分」をつけたテスト文も真であるといえるが,その逆はいえないという特徴がある。次の文は単位形成辞「箱」の例である. (11) 本が 3 箱ある. (12) 本が 3 箱分ある. (11) が真であれば,(12)も真であるといえる,しかし,(12)が真であったとしても,本が箱に入っているかどうかは分からないため, (11)が真であるということはできない. 計量辞は,元の文が真であれば「分」のついたテスト文も真であり,「分」がついたテスト文が真であれば元の文も真である,という特徴がある。次の文は計量辞「リットル」の例である. (13)水が2リットルある. (14) 水が 2 リットル分ある. 助数辞の分類は, 飯田の定義と言語的テストを踏まえれば,ほとんどのケースに対しては摇れがなく,一意的にアノテーションが可能であるが,表層形から一意に定まらず,文脈や用法によって分類が変わるものも存在する。例えば,「会議室は建物の 3 階にある」に現れる「階」 は順序数辞であるのに対し,「ここから 3 階のぼったところに会議室がある」に現れる「階」は計量辞である.前者は特定の位置を指しているのに対し,後者は 3 フロア分上の階に上がるという意味であり,会議室が 3 階に位置しているという意味ではない. また, 助数辞のアノテーションの判断が摇れる例として,「升」がある。「升」は「マス」と 「ショウ」の 2 つ読みでそれぞれ助数辞となる. 次の例は, 数量表現コーパスに含まれる例である。 (15) 勿論, 私ひとりで【四升】吞みほしたわけでは無い. (15)の「升」が呑んだ量を表しており,「ショウ」という読みであるとすると計量辞である。しかし, (15)は,「マス」という読みも可能であり,「升」が容器として用いられていると解釈すれば,単位形成辞と考えることもできる.本コーパスでは上記の例については前者の解釈でアノテーションし, 計量辞としている. ## 3.3 数量表現の出現形式 日本語百科事典 (矢澤 1988) では, 文中に現れる数量表現の形式を $\mathrm{Q} ノ \mathrm{NC}$ 型, $\mathrm{N} ノ \mathrm{QC}$ 型, NCQ 型, NQC 型の 4 つのタイプに分類している。岩田 (2013) は,この4タイプに加えて述部型, デ格型の 2 タイプを追加した. 本研究では,実テキスト上に現れる日本語の多様な数量表現を考慮して, これらの6 タイプに加えて, $\mathrm{QV}$ 型, $\mathrm{NvCQ}$ 型, $\mathrm{N}$ の脱落, $\mathrm{QCQ}$ 型, $(\mathrm{Q})$, イ ディオム的という 6 タイプを追加した計 12 タイプによる分類を提案し, 出現形式タイプのアノテーションを行う. $\mathrm{N}, \mathrm{C}, \mathrm{Q}, \mathrm{V}, \mathrm{Nv}$ は,それぞれ普通名詞,格助詞,数量表現,動詞,サ変語幹を含むイベント名詞句を表す。数量表現の出現形式の例を表 $2(b)$ に示す. 次の文は, 日本語百科事典の 4 分類と岩田 (2013) が追加した 2 分類の例である. (16) 【第 1 位 $\mathrm{Q}$ の雷神山古墳 $\mathrm{N}_{\mathrm{C}}$ 】名取川の南, 現在の名取市内にあり,【三つ ${ }_{\mathrm{Q}}$ の巨大古墳 $\mathrm{N}$ の至】間に多数の中小古墳が散らばっている. (16) は本研究で構築した数量表現コーパスに含まれる $\mathrm{Q} ノ \mathrm{NC}$ 型の例であり,「3人の学生が」のように,数量表現 $\mathrm{Q}, 「 の 」$, 名詞 $\mathrm{N}$, 格助詞 $\mathrm{C}$ の順で並ぶタイプである. 「第 1 位の雷神山古墳は」と「二つの巨大古墳の」の 2 つが $\mathrm{Q} ノ \mathrm{NC}$ 型に該当する. (17)現在の仙台市の推計人口は, 東北地方の中で最も多い約 107 万人で, 【宮城県民 ${ }_{\mathrm{N}}$ の $\underline{45.9 \%} \mathrm{Q}$ がC】居住する。 $\mathrm{N}$ ノ $\mathrm{QC}$ 型は, 「学生の 3 人が」のように, 名詞 $\mathrm{N}$, の, 数量表現 $\mathrm{Q}$, 格助詞 $\mathrm{C}$ の順で並ぶ夕イプであり,例として (17)が挙げられる. (18)そこには,ユダヤ人のきよめのならわしに従って, それぞれ四, 五斗もはいる石の【水がめ $\mathrm{N}$ が $_{\mathrm{C}}$, 六つ $\mathrm{Q}$ 】置いてあった. (18)は, $\mathrm{NCQ}$ 型の例であり,「学生が 3 人」のように, 名詞 $\mathrm{N}$, 格助詞 $\mathrm{C}$, 数量表現 $\mathrm{Q}$ の順で並ぶタイプである. (19)科学者側の動きに合わせ, 文部科学省は 14 年度予算案に I L C の【調査検討費 $N 5000$ 万円 $\underline{Q}$ を्工力初めて計上した。 (19) は NQC 型の例であり,「学生 3 人が」のように, 名詞 $\mathrm{N}$, 数量表現 $\mathrm{Q}$, 格助詞 $\mathrm{C}$ の順で並ぶタイプである。 (20) 第一に,重すぎて,【二人 $\mathrm{Q}$ で】父親の帰ってくるまでに片づけことはできないだろう. (20) はデ格型の例であり,「学生が 3 人で」のように, 数量表現 $\mathrm{Q}$, での順で並ぶタイプである。岩田 (2013)は, デ格型は, 数量の全体性・集合性を表すとしている。他の出現形式のタイプ, 例えば, $\mathrm{Q} ノ \mathrm{NC}$ 型も「3 人の学生が来た」のように,「来る」という行為を行った学生全体の数を表し(全体性), 3 人の学生を要素とする集団として捉えられる(集合性)という特徴を持つ。デ格型は, $\mathrm{Q}$ ノ $\mathrm{NC}$ 型と異なり,「3人で来た」のように名詞 $\mathrm{N}$ を伴わずに全体性・集合性を表すことができるという特徴がある. (21) ちなみに金板の百人一首は 1 セットで【80万円 $\mathrm{Q}$ である】. (21) は述部型の例であり,「学生は 3 人だ」のように, 数量表現が述部に現れるタイプである.述部型もデ格型と同様に名詞を伴わずに使用できる。この 2 つ出現形式は, 話し言葉で頻出するタイプである。 岩田 (2013) は,頻度,時間,期間といった(動詞を修飾する)数量表現は研究対象としていない. 岩田 (2013) は,頻度を表す数量表現を含む文の例として,(22)や (23)を挙げ,このような数量表現の出現形式は $\mathrm{NCQ}$ 型しか存在しないと指摘している. (22) 今年は東京へ 3 回行った (23) 彼には 3 度会ったことがある しかし,これらの数量表現は名詞を修飾しているのではなく,動詞(行った,会った)を修飾している。そのため, 本研究では,動詞を修飾する数量表現の出現形式として,QV 型を新たに追加した。さらに,名詞 $\mathrm{N}$ とイベント名詞句 $\mathrm{Nv}$ を区別するために, NvCQ 型を追加した 風になっておれば,決して四種類はやってみない (24)は QV 型の例であり,数量表現 Q(十回)が動詞 V(測る)を修飾している。この例では数量表現と動詞の間に修飾表現が含まれているが, 間に修飾表現が入る場合も数量表現の後に動詞がくるという順番は変わらないため, QV 型に分類した. ${ }^{3}$ (25) は $\mathrm{NvCQ}$ 型の例である. Nv はサ変語幹を含むイベント名詞句であり, $\mathrm{NvCQ}$ 型は, Nvを修飾する数量表現 $\mathrm{Q}$ の出現形式である。(25)の「仕事」はサ変語幹であり,Qが Nvを行うのに要する期間を表している。実テキストに現れる日本語の数量表現には,数量表現が修飾する名詞が明記されていないものや,数量表現を修飾する数量表現がある. これらに対応する出現形式タイプとして,新たに $\mathrm{N}$ の脱落, $\mathrm{QCQ}$ 型を追加した. (26) 見たところ,【100人吅】はいないようだ. $\mathrm{N}$ の脱落という出現形式タイプは, 数量表現が修飾する名詞が文中に現れない場合を表す. (26) は何が 100 人なのかが文中に記載されていないため, このような場合は $\mathrm{N}$ の脱落という出現形式タイプを付与する. $ も含まれる,時間副詞 $\mathrm{Q}$ と $\mathrm{Q}$ デの違いは,イベントの完了と未完了に関する推論の判定に影響を与え, 文法研究でも議論されている (Nakatani and Aoki 2015). 例えば,「3 時間書いた」は「2 時間書いた」を含意し,「4 時間は書いていない」を推意するが,「3 時間で書いた」は「2 時間では書き終わっていない」ことを含意する。本研究では $\mathrm{Q}$ とデは, 出現形式の違いという観点で分類しており, 前述のようなイベントの完了と未完了の推論の判定に影響を与える時間副詞の違いを分類体系に反映させることは今後の課題とする。 } (27) は QCQ 型の例である,QCQ 型は数量表現を修飾する数量表現であり,この文では,「500 円」を修飾している「3枚」が QCQ 型に該当する,QCQ 型には「1時間 1000 円」のように格助詞 $\mathrm{C}$ が省略されているものも含まれる. (28)始期は織田信長が足利義昭を奉じて京都に上洛した永禄 11 年【 1568 年 $)_{\mathrm{Q}} 】$ が有力であるが, 義昭が京都から放逐された元亀 4 年【(1573 年 ${ }_{\mathrm{Q}} \mathrm{Q}$, 安土城の築城が始まった天正 4 年【(1576 年 ${ }_{\mathrm{Q}}$ 】とする考えもある. (28)は $(\mathrm{Q})$ の例である。(Q)という出現形式タイプは文中で ()の中に記載されている補足や注記の数量表現に対して付与する. (29)その【一つ $\mathrm{Q}_{\mathrm{Q}} 】$ が, 2012 年 7 月, 欧州合同原子核研究所(スイス)で発見され, 世界的ニュースとなった「ヒッグス粒子」. イデイオム的という出現形式タイプは, 数量表現の数詞を変える, もしくは数量詞接頭辞・接尾辞を付与すると容認不能になる数量表現に対して付与する。(29)の「一つ」は, 数詞を変更した場合も数量詞接頭辞・接尾辞を付与した場合も容認不能となるため, イデイオム的という出現形式タイプが付与されている. ## 3.4 数量表現の用法 数量表現の用法タイプは, 岩田 (2013) が扱っていた数量表現 Q の用法に加えて, 名詞 $\mathrm{N}$ を修飾する数量表現 $\mathrm{Q}$ に関する用法を 3 タイプ, 動詞 $\mathrm{V}$ を修飾する数量表現 $\mathrm{Q}$ に関する用法を 4 タイプ追加する。また,イベント名詞句 $\mathrm{Nv}$ を修飾する数量表現 $\mathrm{Q}$ ,数量表現 $\mathrm{Q}$ を修飾する $\mathrm{Q}$, イディオム的用法も追加し, 計 11 タイプの分類を提案する. 用法の例を表 $2(\mathrm{c})$ に示す.次の文は数量表現 $\mathrm{Q}$ が名詞 $\mathrm{N}$ を修飾する例である. (30) 3 人の学生が来た. (30)は Q が N のカテゴリー情報を表すものの例であり,数量表現 $\mathrm{Q} ( 3$ 人)の助数辞「人」が名詞 $N$ (学生) のカテゴリー情報を表している例である. (31) 家族 3 人で旅行に行った. (31) は Q が $\mathrm{N}$ 構成する要素の全体数を表すものの例である。この文に含まれる助数辞「人」 は (30)に含まれるものと同じであるが, 「人」は「家族」自体を数える助数辞ではなく, 家族という集合の構成する要素を数えているため,(30)には「Q が $\mathrm{N}$ のカテゴリー情報を表すもの」 を,(31)には「Qが $\mathrm{N}$ を構成する要素の全体数を表すもの」を付与している. (32) その集団の 1 人が話している. 集合の要素に関する用法タイプとして, $\mathrm{Q}$ が $\mathrm{N}$ を構成する要素の一部を表すものもある。この用法の例は (32)であり, (31) とは異なり, 集合全体の要素数ではなく一部について表しているため,(31)には「Qが $\mathrm{N}$ を構成する要素の全体数を表すもの」を,(32)には「 $\mathrm{Q}$ が $\mathrm{N}$ を構成する要素の一部を表すもの」を付与している. (33) 50 歳の男性がいる. (33) は $\mathrm{Q}$ が $\mathrm{N}$ の属性や特徴を表すものの例である。(33) は他の 3 つの用法と異なり, 名詞 $\mathrm{N}$ の数についてではなく, $\mathrm{N}$ の特徴について述べる数量表現である. 数量表現 $\mathrm{Q}$ と動詞 $\mathrm{V}$ に関して, 出現形式の種類としては $\mathrm{QV}$ 型の 1 種類であるが,文中に現れる動詞とそれを修飾する数量表現の出現形式が同じであっても, 用法が異なる場合がある.数量表現 $\mathrm{Q}$ が動詞 $\mathrm{V}$ を修飾する用法としては,4夕イプある。次の文は数量表現 $\mathrm{Q}$ が動詞 $\mathrm{V}$ を修飾する例である。 (34) 東京に 2 回行く. (34) はV が行われた回数を表す $\mathrm{Q}$ の例であり,「2 回」が「行く」が行われた回数を表している. (35) 東京に 3 日滞在する. (35) は V が行われた期間を表す $\mathrm{Q}$ の例である。(34) と出現形式は同じであるが,(35) では, 滞在した期間についての情報を $\mathrm{Q} ( 3$ 日)が担う. (36) 東京に 9 時に到着する。 (36) は V が行われた時間を表す $\mathrm{Q}$ の例である。(36)では,到着する時点についての情報を $\mathrm{Q}$ (9時) が担う. (37) 物価が $2 \%$ 増加する. (37) は V の特徴を表す $\mathrm{Q}$ の例であり, $\mathrm{Q}(2 \%)$ は「増加する」という動詞 $\mathrm{V}$ がどの程度であったかという情報を担う。 ## 4 数量表現の推論データセット ## 4.1 推論データセットの作り方 数量表現コーパスを用いて,数量に関する推論データセットを構築した. 前提文 $P$ は, 数量表現コーパスに含まれる文とした。仮説文 $H$ は,以下の手順 (a)~(c) に従い,すべて人手で作成した。 (a)(38)のように<num>タグが付与されている前提文の数量表現について,(39)のように意味を変えない最小の節を取り出す (b) <num>タグが付与されている数詞の変更を行った文を作成する - 前提文の数詞よりも大きい数を表す数詞に変更した文 $H_{+}$と小さい数を表す数詞に変更した文 $H_{-}$の 2 文を作成する - 単純な文にならないように, 容認不能にならない範囲で構成素の変更(構成素の削除・置換・追加)を行う - (38)のように「約」などの数量詞接頭辞・接尾辞がついている場合は, その数量詞接頭辞・接尾辞を削除する (c) (b)で作成した 2 つの文 $H_{+}, H_{-}$の数量表現に対して, 原則として「以上」「以下」「ちょうど」をそれぞれ付与し,6つの仮説文を作成する - 数量表現に合わせて, 必要に応じて付与する数量詞接頭辞・接尾辞を変更する - 順序数辞を持つ数量表現には,「以上」「以下」ではなく,「以降」「以前」を付与する -\cjkstart多様な数量詞接頭辞・接尾辞を含むデータセットを構築するため,「以上」 を「より大きい」に,「以下」を「より小さい」や「未満」に置き換えた仮説文も作成する (38)仙台都市圏(広域行政圏)の推計人口は約<num>151万人</num>で... (39) 仙台都市圈の推計人口は 160 万人以上である. 数詞の変更は, 数量表現に応じて増やす数, 減らす数を変更している.数詞の変更の範囲は,前提文に現れる数詞が 20 未満の場合は 5 以下とし,前提文に現れる数詞が 20 以上の場合は 5 以上としている.数詞の変更は,データセット内で同じ数詞ばかりが現れないように注意して行った. また, 助数辞タイプが計量辞の数量表現は, 小数部が許容されるため, 数詞が小数部をもつ仮説文も作成した。 数詞の変更や数量詞接頭辞・接尾辞の付与を行うと仮説文が容認不能となるもの, 出現形式がイデイオム的であるものは,推論データセットに含めていない. 推論データセットの各ペアに対して,言語学に素養のある 1 名の大学院生が含意ラベルと推意ラベルを付与した,推論データセットに含まれる含意ラベル,推意ラベルの一部は,専門家と議論を行いラベルが妥当であることを確認した。 ## 4.2 下方含意文脈 本研究の推論データセットでは, 数量表現の単調性 (monotonicity) に関する推論を扱っている. $M$ が $N$ の下位概念である場合,通常は下位概念を含む文 $\varphi(M)$ は上位概念を含む文 $\varphi(N)$ & & \\ 表 3 推論データセットに含まれる文ぺアの例 を含意する。このような推論は上方含意 (upward entailing) な推論と呼ぶ.数量表現の場合, 例えば「200人」は「100人」の下位概念であるため,「会場に 200 人いる」という文が真であれば,「会場に 100 人いる」という文も真である。しかし, 否定文や条件文の前件といった下方含意文脈に数量表現が含まれると, 推論の向きが通常の文脈とは反転する場合があることが知られている,例えば,「会場には 100 人いなかった」という文は,「会場には 200 人いなかった」という文を含意する。 表 3 の最初の例は, upward entailing な前提文と仮説文のペアである. 2 番目と 3 番目の例は,それぞれ否定と条件文を含む下方含意 (downward entailing) な前提文と仮説文のぺアである. 本研究の推論データセットには, upward entailing な推論が 1,270 件, downward entailing な推論が 246 件含まれる。文中に否定表現や条件節が含まれていても,それらの下方含意文脈のスコープの外に数量表現が現れている場合は, upward entailing な推論が成立する。そのため, downward entailing な推論の件数は,否定表現,条件節を含む前提文と仮説文のぺアのうち, 下方含意文脈のスコープの内側に数量表現が含まれ,推論の向きが通常の文脈とは反転しているものの件数である. 現時点で, downward entailing な推論は 246 件と件数は少なく, このような推論を引き起こす表現が NPCMJコーパス内では稀であることを示している. ## 4.3 推論データセットの概要 本研究で作成した推論データセットは,1,516 件の前提文と仮説文のぺアを含む. 前提文と仮説文の例を表 3 に,推論データセットの統計情報を表 4 に示す。含意ラベルが NEUTRAL になるものについて, 推意ラべルは CONTRADICTIONになる場合があるため, 各ラベルの CONTRADICTION と NEUTRAL の件数は異なっている. ## 4.4 日本語 BERT の評価実験 ## 4.4.1 実験設定 現在の標準的な事前学習済み言語モデルが数量表現の理解を必要とする推論をどの程度扱えるかを評価するため, 日本語 BERT (Devlin et al. 2019) (cl-tohoku/bert-base-japanese-wholeword-masking $)^{4}$ の評価実験を実施した。実験に用いた事前学習済み言語モデルの詳細を表 5 に示す. 実験では, JSICK (Yanaka and Mineshima 2022), JSNLI (吉越他 2020) という2つの標準的な日本語 NLI データセットを用いて,NLI タスクに関する BERT モデルのファインチューニングを行った,2節で紹介したように,JSICK は構成的推論に特化した英語の NLI データセットである SICK (Marelli et al. 2014)を人手で日本語に翻訳したデータセットであり, JSNLI はクラウドソーシングで構築された大規模な英語の NLI データセットである SNLI (Bowman et al. 2015) を機械翻訳で日本語に翻訳したデータセットである. JSICK と JSNLI の統計情報を表 6 に示す。また,ファインチューニングに用いたハイパーパラメータは, learning rate が 0.01 , batch size が 10 , epochs が 50, max length が 250 である. ハイパーパラメータは, ハイパーパラメータサーチをして最適なものを選んた。 ## 4.4.2 実験結果と考察 日本語 BERT モデルを用いた評価実験の結果を表 7 に示す。全体的に, JSICK でファインチューニングした日本語 BERT モデルよりも JSNLI でファインチューニングした日本語 BERT 表 4 推論データセットの統計情報 表 5 事前学習済み言語モデルの詳細 表 6 学習データの統計情報 ^{4}$ https://huggingface.co/cl-tohoku/bert-base-japanese } 表 7 日本語 BERT モデルを用いた評価実験の結果(正答率) モデルの方が正答率が高い傾向にあるが, いずれも $50 \%$ 未満だった. 特に, ENTAILMENT の正答率は 60\%以上であるのに対し, CONTRADICTION, NEUTRALの正答率はいずれも $40 \%$ 未満であり,既存の推論データセットでファインチューニングした場合, 日本語 BERT モデルは ENTAILMENT と予測する傾向がある。本研究で構築した推論データセットに含まれる ENTAILMENT の例は全体の $34 \%$ であのに対し, 日本語 BERT モデルは JSICK でファインチューニングした場合は 66\%, JSNLI でファインチューニングした場合は $60 \%$ の例で ENTAILMENT と予測している. 学習データによる違いについては, JSICKを使用した場合, CONTRADICTIONよりも NEUTRAL の方が正答率が高くなり, 反対に JSNLIを使用した場合は, CONTRADICTIONの方が NEUTRAL よりも正答率が高くなっている. 助数辞タイプ, 出現形式タイプ, 用法タイプによる正答率の違いは,表 8 に示す. 助数辞による正答率の違いとして,単位形成辞について,JSICKを学習データとしたときの日本語 BERT モデルの正答率が低い. 単位形成辞は, 表 2(a)にあるように他の助数辞よりも件数が少なく, JSICK においても, 単位形成辞に該当するデータが少ないため, 正答率が低くなった可能性がある,数量表現の出現形式による正答率の違いとして,デ格型について, JSICK を学習データとしたときの日本語 BERT モデルの正答率が低い. デ格型は,表 2(b) にあるように件数が少ない. JSICK と JSNLIにおいてもデ格型に該当するデータの件数が少なく, 加えて, JSICK は学習データ全体のサイズが小さいため, 正答率が低くなったと考えられる.数量表現の用法ごとの正答率の違いとして,JSNLIを学習データとしたときの日本語 BERT モデルの正答率は, $\mathrm{Q}$ が $\mathrm{N}$ の属性や特徴を表すものや,V が行われた時間を表す Q といった, 表 2(c) で件数が多いものが高い. また, 学習データに本研究で構築した数量表現の推論データセットの一部を加えてファインチューニングを行い実験した.数量表現の推論データセットは $1: 1$ に分割し,半分を学習デー 夕に加え,半分をテストデータとして実験を行った。データセットを半分にしたときの統計情報を表 9 に示す。 表 10 は JSICK に数量表現の推論データセット (含意ラベル, 推意ラベル) をそれぞれ加えてファインチューニングを行った場合の実験結果である。含意ラベルを学習データに加えた場合は,テストデータは含意ラベル,推意ラベルを学習デー夕に加えた場合はテストデー夕は推意ラベルを付与したデータを使用した実験結果である。学習データに数量表現の推論データセットの一部を加えた場合, 含意ラベル,推意ラベルともに ENTAILMENT の正答率は下がったが, 表 8 (a) 助数辞, (b) 出現形式, (c) 用法ごとの正答率 CONTRADICTION の正答率は大きく上昇している. JSICKには表 6 に示すように CONTRADICTION の件数が少ないが, 本研究で構築した推論データセットは, 表 4 に示すように CONTRADICTION の件数が多いため, 日本語 BERT モデルが CONTRADICTION と予測することが多くなった可能性がある。 文ぺアに含まれる数量表現の助数辞タイプ, 出現形式タイプ, 用法タイプによる正答率の違いは,表 11 に示す. 全体として,含意ラベルを加えてファインチユーニングを行った場合の精度よりも推意ラベルを加えてファインチューニングを行った場合の精度のほうが高く, 表 8 の精度と比較して, どのタイプの精度も向上している. 特に, $\mathrm{NCQ}$ 型の精度が他のタイプよりも大きく向上しているが,これは表 9 にあるように $\mathrm{NQC}$ 型の件数が多いためと考えられる. 表 9 数量表現の推論データセットを学習データとテストデータに分けたときの統計情報 表 10 JSICK に数量表現の推論データセットの一部を追加しファインチューニングした場合の実験結果 (正答率) 表 11 JSICK に数量表現の推論データセットを追加しファインチューニングした場合の (a) 助数辞, (b)出現形式, (c) 用法の正答率 JSICK に含意ラベルのデータを追加してファインチューニングを行った場合に, 日本語 BERT が解けなかった文ぺアを表 12 に示す. 1 つ目の文ぺアの前提文に含まれる数量表現には数量詞接頭辞(約)が付与されている.前提文の数量表現「約 5 倍」が真であるとき仮説文の数量表現「ちょうど 5.5 倍」であるとは必ずしも限らない(5.2 倍などの可能性も考えられる)ため,正解ラベルは NEUTRAL となるが, 日本語 BERT は CONTRADICTION と予測している。このように,前提文の数量表現の数字よりも仮説文の数量表現の数字が大きく,前提文に数量詞接頭辞「約」, 仮説文に数量詞接頭辞「ちょうど」が含まれる場合, モデルは CONTRADICTION と予測する傾向が見られた,日本語 BERT モデルが間違ったラベルを予測した原因としては,前提文に数量詞接頭辞を含む文ぺアの件数が少ないことも考えられる. 2 目の文ぺアについて,前提文の $\lceil 90,231$ 人」は「ちょうど 90,231 人」であることを表すため, この文ぺアの正解ラベルは ENTAILMENT であるが,日本語 BERT モデルは CONTRADICTION と予測した。この文ぺアに出現する数量表現は「100,000人」と桁数が大きいため,学習データの中に同じような桁数が大きい数量表現を含む文ぺアが少ないことから,モデルは間違ったラベルを予測したと考えられる. JSICK に推意ラベルのデータを追加してファインチューニングを行った場合に, 日本語 BERT モデルが解けなかった文ぺアを表 13 に示す。表 13 の1つ目の文ぺアは仮説文を作成する際に構成素の変更を行った例である。本研究では, 文ぺアのパターンが単純にならないように,構成素の変更を行うことでより難しい文ぺアを作成している。この文ぺアは, 前提文で括弧内に記述されている数量表現に関する推論であるが, 前提文には同じ助数辞 (本) を含む数量表現が複数出現するため, 日本語 BERT モデルが間違った予測をしたと考えられる。表 13 の 2 つ目の文ペアは否定表現を含む文ぺアである. 4.2 節にあるように,否定表現や条件節を含む downward entailing な推論は件数が少ないため, 学習データの不足から日本語 BERT モデルは推論結果を正しく予測できなかったと可能性がある. & NEUTRAL & CONTRADICTION \\ 表 12 JSICK に含意ラベルのデータを追加してファインチューニングした日本語 BERT モデルが解けなかった文ぺアの例 表 13 JSICK に推意ラベルのデータを追加してファインチューニングした日本語 BERT モデルが解けなかった文ぺアの例 ## 5 おわりに 本研究では, 日本語の数量表現コーパスを構築し, 助数辞の分類と数量表現の出現形式, その用法についてアノテーションを行った。また,構築した数量表現コーパスを用いて意味論的推論と語用論的推論のデータセットを作成した. 数量表現コーパスと推論データセットは, 数量表現の出現形式の柔軟性や助数辞の多様性といった日本語の特徴に着目して構築した. 数量表現の推論データセットの評価実験として, まず, 日本語 SNLI や日本語 SICK といった標準的な日本語の推論データセットでファインチューニングした日本語 BERT モデルを用いた評価実験を行った. 実験の結果, 構築した数量表現の推論データセットは, 現在の標準的な NLI モ゙ルルにとって十分に挑戦的な課題を提示していることを確認した. さらに, 学習デー夕に本研究で構築した推論データセットの一部を追加してファインチューニングした日本語 BERT モデルを評価した,その結果,精度向上が一定程度見られたものの, 依然として $50 \%$ 前後の正答率であり, 日本語 BERT モデルは, 数量表現を含む推論の扱いについて課題があることが示唆された. 今後の展望として, これまで英語における数量表現の分析で研究されてきた, より意味的に複雑な現象(確定性, 分配読み・集合読みの区別など)(Bunt 2020)と日本語の数量表現との関連を整理し,日本語の数量表現の分類体系を拡張することが考えられる.また,数量表現コーパスと推論データセットの効率的なアノテーション手法を検討するとともに, 拡張を続けていく. ## 謝 辞 本研究の一部は, JST さきがけ JPMJPR21C8, JSPS 科研費 JP20K19868, JST CREST JPMJCR20D2 の支援を受けたものである. ## 参考文献 Bowman, S. R., Angeli, G., Potts, C., and Manning, C. D. (2015). "A Large Annotated Corpus for Learning Natural Language Inference." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 632-642. Bunt, H. (2020). "Annotation of Quantification: The Current State of ISO 24617-12." In Proceedings of the 16th Joint ACL - ISO Workshop on Interoperable Semantic Annotation, pp. 1-12. Cooper, R., Crouch, R., van Eijck, J., Fox, C., van Genabith, J., Jaspers, J., Kamp, H., Pinkal, M., Poesio, M., Pulman, S., et al. (1994). "FraCaS-A Framework for Computational Semantics." Deliverable, D6. Cui, R., Hershcovich, D., and Søgaard, A. (2022). "Generalized Quantifiers as a Source of Error in Multilingual NLU Benchmarks." In Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4875-4893. Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Vol. 1, pp. 4171-4186. Grice, P. (1989). Studies in the Way of Words. Harvard University Press. 清塚邦彦訳『論理と会話』勁草書房, 1998 年, [K. Kiyozuka (Trans.) (1998). Ronri to Kaiwa. Keiso Shobo.]. Hayashibe, Y. (2020). "Japanese Realistic Textual Entailment Corpus." In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 6827-6834. Horn, L. R. (1989). A Natural History of Negation. University of Chicago Press. 飯田隆 (2019). 日本語と論理. NHK 出版. [T. Iida (2019). Nihongo to Ronri. NHK Publishing.]. Iida, T. (2021). "Japanese Semantics and the Mass/Count Distinction." In Lee, C., Kim, Y.-W., and Yi, B.-U. (Eds.), Numeral Classifiers and Classifier Languages, pp. 72-97. Routledge. 岩田一成 (2013). 日本語数量詞の諸相. くろしお出版. [K. Iwata (2013). Nihongo Suryosi no Syoso. Kuroshio Publishers.]. Jeretic, P., Warstadt, A., Bhooshan, S., and Williams, A. (2020). "Are Natural Language Inference Models IMPPRESsive? Learning IMPlicature and PRESupposition." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8690-8705. Kawazoe, A., Tanaka, R., Mineshima, K., and Bekki, D. (2017). "An Inference Problem Set for Evaluating Semantic Theories and Semantic Processing Systems for Japanese." In Otake, M., Kurahashi, S., Ota, Y., Satoh, K., and Bekki, D. (Eds.), New Frontiers in Artificial Intelligence. JSAI-isAI 2015. Lecture Notes in Computer Science, Vol. 10091, pp. 58-65. Springer. 小谷野華那, 谷中瞳, 峯島宏次, 福田浩司, 橋爪宏典, 戸次大介 (2022). 供述調書に現れる数量表現の推論テストセットの構築. 言語処理学会第 28 回年次大会, pp. 1386-1390. [K. Koyano et al. (2022). Construction of an Inference Test Set for Numeral Expressions appearing in Incident Depositions. Proceedings of the 28th Annual Meeting of the Association for Natural Language Processing, pp. 1386-1390.]. Koyano, K., Yanaka, H., Mineshima, K., and Bekki, D. (2022). "Annotating Japanese Numeral Expressions for a Logical and Pragmatic Inference Dataset." In Proceedings of the 18th Joint ACL - ISO Workshop on Interoperable Semantic Annotation within LREC2022, pp. 127-132. Levinson, S. C. (1983). Pragmatics. Cambridge University Press. 安井稔 ・奥田夏子訳『英語語用論』研究社出版, 1990 年, [M. Yasui and N. Okuda (Trans.) (1990). Eigo Goyoron. Kenkyusha Shuppan.]. Levinson, S. C. (2000). Presumptive Meanings: The Theory of Generalized Conversational Implicature. MIT Press. Liu, N. F., Schwartz, R., and Smith, N. A. (2019). "Inoculation by Fine-Tuning: A Method for Analyzing Challenge Datasets." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Vol. 1, pp. 2171-2179. Marelli, M., Menini, S., Baroni, M., Bentivogli, L., Bernardi, R., and Zamparelli, R. (2014). "A SICK Cure for the Evaluation of Compositional Distributional Semantic Models." In Proceedings of the 9th International Conference on Language Resources and Evaluation, pp. 216-223. Naik, A., Ravichander, A., Sadeh, N., Rose, C., and Neubig, G. (2018). "Stress Test Evaluation for Natural Language Inference." In Proceedings of the 27th International Conference on Computational Linguistics, pp. 2340-2353. Nakatani, K. and Aoki, N. (2015). "A Judgment Study on Aspectual Diagnostics in Japanese." In Nagaya, N., Takemura, A., and Vance, T. (Eds.), Japanese/Korean Linsuitics, Vol. 22, pp. 55-70. Stanford, CA: CSLI Publications. Narisawa, K., Watanabe, Y., Mizuno, J., Okazaki, N., and Inui, K. (2013). "Is a 204 cm Man Tall or Small? Acquisition of Numerical Common Sense from the Web." In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics, Vol. 1, pp. 382-391. NINJAL (2016). "NINJAL Parsed Corpus of Modern Japanese. (Version 1.0).". https://npcmj . ninjal.ac.jp/. 奥津敬一郎 (1996). 拾遺日本文法論. ひつじ書房. [K. Okutsu (1996). Syui Nihongo Bunporon. Hituzi Syobo.]. Yanaka, H. and Mineshima, K. (2022). "Compositional Evaluation on Japanese Textual Entailment and Similarity." Transactions of the Association for Computational Linguistics, 10, pp. 1266-1284. 矢澤真人 (1988). 数量の表現. 金田一春彦, 林大, 柴田武 (編), 日本語百科事典. 大修館書店. [M. Yazawa (1988). Suryo no Hyogen. H. Kindaichi et al. (Eds.) Nihongo Hyakka Ziten. Taishukan Publishing.]. 吉越卓見, 河原大輔, 黒橋禎夫 (2020). 機械翻訳を用いた自然言語推論データセットの多言語化. 第 244 回自然言語処理研究会. [T. Yoshikoshi et al. (2020). Multilingualization of a Natural Language Inference Dataset Using Machine Translation. IPSJ SIG Technical Report, 2020-NL-244.]. ## 略歴 小谷野華那 : 2021 年お茶の水女子大学理学部情報科学科卒業. 2023 年お茶の水女子大学人間文化創成科学研究科理学専攻情報科学コース博士前期課程修了.現在,日本アイ・ビー・エム株式会社に所属. 谷中瞳:2018 年東京大学大学院工学系研究科博士課程修了. 工学博士. 同年,理化学研究所特別研究員を経て,2021 年より東京大学卓越研究員に採択され, 東京大学大学院情報理工学系研究科講師, 理化学研究所客員研究員. 主に自然言語推論に関する研究に従事. 羍島宏次:2013 年慶應義塾大学文学研究科博士課程修了. 博士 (哲学). 2014 年お茶の水女子大学シミュレーション科学教育研究センター特任講師, 2017 年同特任准教授を経て,2020 年より慶應義塾大学文学部准教授. 戸次大介:2000 年東京大学大学院理学系研究科情報科学専攻博士課程修了.理学博士. 2008 年お茶の水女子大学大学院人間文化創成科学研究科准教授, 2023 年より同大学基幹研究院自然科学系教授.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# ExtraPhrase: 生成型要約のための効率的データ拡張 Mengsay Loem $\cdot$ 高瀬 翔 $\dagger \cdot$ 金子 正弘 $\dagger \cdot$ 岡崎 直観 $\dagger$ } 大量の訓練データを用いたニューラルモデルは生成型要約タスクにおいて高い性能 を達成している。しかしながら,大規模な並列コーパスの構築はコストの観点から 容易ではない。これを解決するため, 本研究では生成型要約タスクの疑似訓練デー タを低コストで効果的に構築する手法として ExtraPhrase を提案し, 訓練データを 拡張する。 ExtraPhrase は文圧縮と言い換えの 2 つのモジュールで疑似訓練デー夕 を構築する。文圧縮では入力テキストの主要部分を獲得し, 言い換えではその多様 な表現を得る。実験を通して,ExtraPhrase は生成型要約タスクの性能を向上させ,逆翻訳や自己学習などの既存の訓練デー夕拡張手法を上回ることを確認した。また, ExtraPhrase は,学習データが著しく少ない場合でも大きな効果が発揮できること を示した。 キーワード:データ拡張,要約,言い換え ## ExtraPhrase: Efficient Data Augmentation for Abstractive Summarization \author{ Mengsay Loem $^{\dagger}$, Sho Takase $^{\dagger}$, Masahiro Kaneko ${ }^{\dagger}$ and Naoaki Okazaki ${ }^{\dagger}$ } Neural models trained on large amounts of parallel data have achieved impressive performance in abstractive summarization tasks. However, constructing large-scale parallel corpora can be expensive and challenging. In this work, we introduce a lowcost and effective strategy called ExtraPhrase to augment training data for abstractive summarization tasks. ExtraPhrase constructs pseudo training data with two modules: sentence compression and paraphrasing. We extract major parts of an input text with sentence compression and obtain its diverse expressions with paraphrasing. Through experiments, we show that ExtraPhrase improves the performance of abstractive summarization tasks by more than 0.50 points in ROUGE scores compared to the setting without data augmentation. ExtraPhrase also outperforms existing methods such as back-translation and self-training. We also show that ExtraPhrase is significantly effective when the amount of genuine training data is remarkably small, i.e., in a low-resource setting. Moreover, ExtraPhrase is more cost-efficient than existing approaches. Key Words: Data Augmentation, Summarization, Paraphrase  ## 1 はじめに ニューラルエンコーダ・デコーダは, 機械翻訳や自動要約などの様々な系列変換タスクにおいて顕著な性能を達成している (Bahdanau et al. 2015; Rush et al. 2015; Vaswani et al. 2017).近年の研究においてニューラルネットワークを用いた手法の性能は訓練デー夕量に対数比例することが指摘されており (Brown et al. 2020), 系列変換タスクにおいても高い性能を達成するためには,大規模な並列コーパスが必要である (Koehn and Knowles 2017). 本稿では, 生成型要約タスクにおけるニューラルエンコーダ・デコーダの性能を向上させるために, 訓練データを拡張することに取り組む。 人手による並列コーパスの構築はコストが高いため, 既存研究では疑似訓練デー夕を自動的に構築する方法が検討されている。疑似訓練データを構築する方法としては, 逆翻訳 (Sennrich et al. 2016a) が広く用いられている。翻訳タスクにおける逆翻訳では, 翻訳先の言語の文から翻訳元の言語の文を生成するモデルを学習し, 得られたモデルを翻訳先の言語のコーパスに適用し,翻訳元の言語の疑似コーパスを生成する。また,機械翻訳以外にも,文法誤り訂正 (Kiyono et al. 2019) や要約 (Parida and Motlicek 2019) タスクにおいても,逆翻訳が利用されている。しかしながら,この逆翻訳手法を要約タスクに適用する場合にモデルは,要約から原文を生成する必要があるため, 要約タスクにおける逆翻訳は本質的に非合理的である(付録 A). He ら (He et al. 2020) は, 自己学習が機械翻訳や要約タスクの性能を向上させることを示した. 自己学習では教師モデルを学習し, そのモデルを入力側のコーパスに適応し, 出力側の疑似コーパスを生成する。逆翻訳が非合理的な処理であったのに対し, 自己学習による疑似要約の生成は合理的である。しかしながら, 自己学習を適用した場合, 多様な要約の生成が困難であると指摘されている (Gu et al. 2018). これらの問題に加え, 自己学習や逆翻訳において高品質な疑似データを得るためには,大量の訓練データで教師モデルや逆翻訳モデルを学習しておく必要があるため, データ構築のコストが高い. そこで, 本研究では生成型要約の疑似訓練データを構築する新たなアプローチとして抽出型要約と言い換えの組み合わせによる手法 (Extraction and Paraphrasing; ExtraPhrase) を提案する. ExtraPhraseの抽出型要約では, 原文の統語構造を基に,ヒューリスティックな手法で重要な部分を要約として残し, 原文を圧縮する。このため, 逆翻訳や自己学習と異なり, 疑似訓練データ作成のためだけにニューラルモデルを構築する必要がない。圧縮された要約に対し,既存のモデルを活用した言い換え手法を適用し,多様な疑似要約を得る。 本研究では見出し生成タスクと文書要約タスクで実験を行う.実験を通して,ExtraPhraseによる疑似訓練データは両タスクにおいて性能を向上させることを確認した. 具体的には, 疑似データを用いることにより両タスクの ROUGE F1 スコアが 0.50 以上向上した. 提案手法は真の訓練データが少ない低リソースの設定においても頑健であることが確認された(4.2 節)。ま た, 生成された疑似データの性質を分析し(4.3 節), 提案手法による疑似データの生成が従来手法より効率的であることを示した (4.4 節). ## 2 提案手法: ExtraPhrase 1 節で述べたように, 提案手法は抽出型要約の手法である文圧縮と言い換えの 2 つモジュー ルから構成される,以降では,提案手法の抽出型要約を文圧縮と呼ぶことにする.図 1 に提案手法の概要を示す。提案手法は単文を入力とし,その文に対応する疑似要約文を生成する。複数の文からなる文書の場合は,各文に対して独立に文圧縮と言い換えを行い,その出力を連結することより,疑似要約を作成する. ## 2.1 文圧縮 文圧縮のモジュールでは,原文の中から重要な部分を獲得する.先行研究ではルールベースの手法 (Dorr et al. 2003), 構文木から重要部分を検出するアプローチ (Filippova and Altun 2013), ニューラルネットワークを用いた手法 (Filippova et al. 2015; Kamigaito et al. 2018)などの圧縮方法が提案されている。本研究では, コストの少ない手法, すなわち, 新たにモデルを構築する必要のない手法として,与えられた文の構文木を基に文圧縮を行う. 本研究では, 文の重要な部分は与えられた文の構文木の根付き部分木であると定義する。まず,与えられた文を係り受け解析し,その係り受け木を得る。次に,係り受け木の深いノード, すなわち,末端に近いノードを刈り,元の構文木よりも深さの小さい根付き部分木を得る。本手法では部分木の深さによって, 出力要約の長さ(単語数)を調整することができる. 最後に, 図 1 提案手法による疑似データの生成過程の例. 圧縮された根付き部分木を元の文の語順に従って線形化し,与えられた文の要約を得る。図 1 の下段(左)に本モジュールで行われる処理の例を示す.この例では,係り受け木の深さの半分より深いノードを刈り,根付き部分木を得る。本研究では,文書要約において,先頭の 3 文を抽出したうえで,その 3 文に対して上記の処理を適用し,その出力を連結したものを文書の圧縮された要約とする。 ## 2.2 言い換え 文圧縮で得られた要約は原文に含まれる単語のみで構成されている。要約の多様性を高めるために要約に言い換えの手法を適用する。高品質なニューラル機械翻訳モデルが公開されているため,言い換えには機械翻訳モデルを用いたアプローチ (Mallinson et al. 2017) を採用する.具体的には,ある文を別の言語に翻訳し,その翻訳文を元の言語に翻訳するという折り返し翻訳を行うことで言い換え表現を得る方法である。このアプローチは様々な言い換えを生成できるため, データ拡張として利用する研究もある (Yu et al. 2018). そこで, この言い換えのモジュー ルでは, 圧縮された要約に,一般に公開されているニューラル機械翻訳モデルを適用し,翻訳された文章を逆翻訳モデルによって元の言語に翻訳する。文圧縮と同様に,要約に複数の文が含まれる場合は,各文に対して1つずつ言い換えを生成する。図 1 の右下段に本モジュールの処理の例を示す.この例では,圧縮された要約をドイツ語に翻訳し,翻訳された文を元の英語に翻訳する。 ## 3 実験 ## 3.1 データセット ExtraPhrase の効果を調べるため, 見出し生成と文書要約の 2 つの要約タスクで実験を行った. 表 1 はデータセットの統計を示している. 見出し生成タスクでは Gigaword データセット (Rush et al. 2015) を用いた.このデータセットには, 英語 Gigaword コーパスから抽出された約 380 万の文書の 1 文目と見出し文の対が訓練データとして含まれる.本実験では,訓練セット,検証セット,およびテストセットの分割は Rush ら (Rush et al. 2015)の設定と同じものを使用した。文書要約タスクでは, 広く利用されている CNN/DailyMail データセット (Sennrich 表 1 データセットの統計. et al. 2016b) を用いた. このデータセットには, CNN と DailyMail のウェブサイトから抽出されたニュース記事と要約の 28 万対が訓練データとして含まれている。両データセットにおいて, Byte Pair Encoding (Sennrich et al. 2016b)を用い, 入力側と出力側で語彙を共有した, サイズ 32,000 の語彙セットを構築した。 ## 3.2 比較手法 既存研究で提案されてきた代表的な訓練データ拡張手法との比較を行った. 疑似データの構築は各データセットの訓練データをもとに行った。なお, Caswell ら (Caswell et al. 2019) に従い, 全ての疑似訓練データについて, 入力の先頭に<Pseudo>の特殊トークンを付加した. オーバーサンプリング訓練データから原文書と要約の対をサンプリングし, 訓練デー夕に追加した。すなわち, この手法で構築される訓練データには,真の訓練データのみが含まれている.逆翻訳真の訓練データを用いて,要約から原文を生成するニューラルエンコーダ・デコーダの学習を行った。次に,このモデルを訓練デー夕内の要約に適用し,対応する原文書を生成した. 生成された原文書と真の要約の対を疑似訓練データとして使用した. 自己学習各真の訓練データを用いて,原文書から要約を生成するニューラルエンコーダ・デコーダを学習した,次に,訓練データの原文をニューラルエンコーダ・デコーダに入力し,対応する要約を生成した,真の原文書と生成された要約の対を疑似訓練データとして使用した. ExtraPhrase 各訓練データに対して提案手法の ExtraPhrase を適用した.2節で説明したように,提案手法は文単位で疑似要約を生成した。ニューラルエンコーダ・デコーダでは先頭の数文を入力とすることが多いことにならい,文書要約タスクでは,原文書に含まれる冒頭の 3 文 (Lead-3)を提案手法への入力とし, 各文の要約を元の順序で連結して原文書の要約とした. 文圧縮での係り受け解析には, $\mathrm{spaCy}^{1}$ を使用した,本実験では,文圧縮のモジュールにおいて,入力文の係り受け木の深さの半分より深いノードを刈った。言い換えでは, $\mathrm{Ng}$ ら ( $\mathrm{Ng}$ et al. 2019) が構築した英独・独英翻訳モデル2を使用した. ## 3.3 エンコーダ・デコーダ 本実験では,ニューラルエンコーダ・デコーダモデルとして, Transformer (Vaswani et al. 2017)を用いた,各生成要約のモデルに加えて,逆翻訳手法の逆翻訳モデルと自己学習手法の教師モデルも Transformer を使用した. モデルの設定として, Vaswani et al. (2017) に記載されている Transformer-base の設定を採用した。この設定は,機械翻訳に関する研究において広く用いられている (Vaswani et al. 2017; Ott et al. 2018)。詳細には, fairseq ${ }^{3}($ Ott et al. 2019)の実 ^{1}$ https://spacy.io/ 2 https://github.com/pytorch/fairseq/tree/main/examples/translation 3 https://github.com/pytorch/fairseq } 装を実験に利用し, 学習時のハイパーパラメータは既存研究 (Vaswani et al. 2017) で使われている設定を用いた。詳細な設定は付録 Bに示されている. ## 3.4 結果 表 2 と 3 に,見出し生成タスクと文書要約タスクにおける真の訓練データのみを用いた場合と, 各データ拡張手法を用いた場合の ROUGE スコア (Lin 2004)を示す. オーバーサンプリングは拡張を行わない場合よりも高いスコアを達成した。この結果は, 訓練デー夕量が増えるほど,重複した学習事例であってもニューラルエンコーダ・デコーダの性能が向上することを示唆している。逆翻訳と自己学習は拡張を行わない場合よりも性能は高いが,オーバーサンプリングと同程度のスコアであった。これらの結果は, 性能改善は両者が生成する疑似デー夕の品質ではなく,訓練デー夕の増加によってもたらされたことを示唆している,逆翻訳と自己学習は疑似データの生成に別のモデルを学習する必要があるため, そのコストを考慮するとオーバー サンプリングが優れている。一方, 見出し生成と文書要約の両方のタスクで, ExtraPhrase は他のデータ拡張手法よりも高い性能を達成した。見出し生成タスクにおいて,ExtraPhrase によるデータ拡張は, データ拡張を行わない場合から, 全ての ROUGE スコアで 0.50 ポイント以上を向上させた. ExtraPhrase は, 逆翻訳と自己学習の既存の拡張法と比較し, ROUGE-1 と ROUGE-L では要約性能の向上幅が小さいが, ROUGE-2 スコアで性能の大幅な向上が見られた. 文書要約において, 提案手法によるデー夕拡張は, 拡張を行わない場合と比較して全ての 表 2 見出し生成タスクにおける ROUGE F1 スコア. 丸括弧の中は真の訓練事例数を示す. 表 3 文書要約タスクにおける ROUGE F1 スコア. 丸括弧の中は真の訓練事例数を示す. ROUGE スコアを有意に向上させた ${ }^{4}$. これらの結果から, ExtraPhrase はオーバーサンプリング,逆翻訳,自己学習を含む既存のデータ拡張手法よりも,生成型要約タスクのための疑似デー 夕を構築するのに有効であると言える。 ## 4 分析 ## 4.1 アブレーション ## 4.1.1文圧縮と言い換えの効果 表 4 (a) と表 5 (a)において,「w/o 言い換え」と「w/o 文圧縮」は,2 節で述べた文圧縮のみと言い換えのみを適用し,疑似要約を得た手法である。見出し生成タスクでは,「w/o 言い換え」は拡張なしの設定よりも高い性能を達成した。また,小さな差ではあるが,ROUGE-1, ROUGE-Lにおいて,「w/o 言い換え」は ExtraPhrase よりも高いスコアを示した.「w/o 文圧縮」 は, ExtraPhrase と比較して ROUGE-1 およびROUGE-L のスコアは同等であるが, ROUGE-2のスコアは低下した。この結果から, 見出し生成タスクにおいて, 文圧縮と言い換えの各モジュー ルが性能の向上に貢献したと考えられる. 文書要約において, 冒頭の 3 文を提案手法を適用せずに疑似要約として扱う場合の結果を,表 5 の「Lead-3 による拡張」に示した. 表 5 にり,「w/o 言い換え」と「w/o 文圧縮」の場合は,「Lead-3による拡張」よりも高いスコアを達成した。これらの結果から,文書要約タスクにおいても, ExtraPhraseの各モジュールが要約性能の向上に貢献していることを示唆している. また, 表 5 (a)の比較から, 各モジュールのみを用いた場合は, ExtraPhrase より性能が低い. 表 4 見出し生成タスクにおけるアブレーション。丸括弧の中は真の訓練事例数を示す. $ 検定で $p<0.05$ } } & \multirow{2}{*}{$\frac{\text { ROUGE-2 }}{17.55}$} & \multirow{2}{*}{$\frac{\text { ROUGE-L }}{36.75}$} \\ 表 5 文書要約タスクにおけるアブレーション。丸括弧の中は真の訓練事例数を示す. そのことから, ExtraPhrase は, 各モジュールを単独で使用した場合よりも優れていることを示唆している. ## 4.1.2 文圧縮率の効果 本節では,ExtraPhraseの文圧縮モジュールにおける圧縮率,すなわち,枝刈りの深さが性能に与える影響を調べた,文圧縮の圧縮率を変化させ,疑似要約を生成した際の実験結果を表 4 (b) と表 5 (b) に示した. 見出し生成と文書要約の両タスクにおいて,圧縮率が 0.5 の場合が一番高い性能が達成した,圧縮率が 0.3 の場合は, 0.5 の場合より性能が低く, 拡張なしの場合と同等の結果が確認された。この低い性能は, 圧縮率が小さい枝刈りでは非常に短い疑似要約が出力されることによるものと考えられる.本手法の文圧縮モジュールでは, 単文を入力としているため, 0.3 のような小さい圧縮率で枝刈りした際には,構文木の根周辺のみが残され,疑似要約の質低下に影響すると考えられる. ## 4.1.3疑似訓練事例数の効果 本節では, ExtraPhraseの疑似訓練事例数による要約性能への影響を調べた。疑似データを増やすため,ExtraPhraseの言い換えモジュールでの機械翻訳の各ステップにおいて,翻訳モデルに複数の候補翻訳文を出力させ,一つの原文に対し,複数の疑似要約を取得した。表 4(c) と表 5(c)には,疑似訓練事例数を 4 倍にするために,言い換えモジュールの折り返し翻訳の各翻訳フェーズにおいて,2best 翻訳の出力を用いることで,4つの疑似要約を得た「4best 翻訳」 が示されている。表 4(c) と表 5(c) から,「4best 翻訳」により疑似訓練事例数を 4 倍にした際,見出し生成と文書要約の両方のタスクにおいて,「1best 翻訳」の場合より高い性能が確認され た.この結果から, 疑似訓練事例の増加が性能の向上に貢献していることを示唆している. ## 4.2 低リソース設定 ExtraPhrase は,疑似訓練データを生成するためにニューラルモデルを訓練する必要がないため, 真の訓練デー夕の量が少ない場合でも,頑健であると予想される。この仮説を調べるために,低リソースな訓練データの設定で実験を行った. 見出し生成タスクと文書要約タスクの各訓練セットから,1千件の事例を抽出した。抽出された事例は, 真の訓練データとし, 残りの事例を疑似データの生成に利用した。比較手法と実験設定は 3 節と同様である. 表 6 と 7 に,見出し生成タスクと文書要約タスクにおける各手法の ROUGE F1 スコアを示す. 両タスクにおいて,オーバーサンプリングは拡張なしを上回る性能を示した. このように,重複した学習データはニユーラルエンコーダ・デコーダモデルの性能を向上させた. この結果は, 3.4 の結果と整合性がある。表 6 により, 見出し生成では, 逆翻訳がオーバーサンプリングより高いスコアを達成した。 また, 表 7 により, 文書要約では自己学習がオーバーサンプリングより優れていることが分かった。この結果は, 適切なタスクに適用すれば, 既存のアプロー チがオーバーサンプリングよりも効果的である可能性を示している. 一方, ExtraPhrase は両夕スクにおいて他の手法より有意に高い性能を発揮した。 よって, ExtraPhrase は真の訓練デー 夕の量が少ない場合にも有効であることが分かった. 表 6 低リソース設定における見出し生成タスクの結果. 丸括弧の中は真の訓練事例数を示す. 表 7 低リソース設定における文書要約タスクの結果. 丸括弧の中は真の訓練事例数を示す. ## 4.3 疑似データの多様性 1 節で述べたように,ExtraPhrase は自己学習より多様な要約を生成するために言い換えを行っている。この効果を検証するために, 自己学習と提案手法により生成された疑似要約を比較する。表 8 は各訓練データにおける真の要約と生成された疑似要約の BLEU スコアを示している。また,意味的類似性の指標としてF1ベースの BERTScore (Zhang et al. 2019) も示している.この表から, 自己学習と ExtraPhraseの BERTScore は高いことがわかる. この結果は生成された要約が真の要約と意味的に類似していることを意味する。このことから,いずれの方法で生成された要約も疑似データとして意味的に適していると言える。 一方, ExtraPhraseの BLEU スコアは自己学習のスコアよりも低い。この結果は, 自己学習と比較して提案手法が真の要約と異なるフレーズを多く含んだ疑似要約を生成していることを示している。すなわち, 提案手法で構築した訓練デー夕は自己学習よりも多様な要約を含むことが分かる. ## 4.4 疑似データ生成の効率 ExtraPhrase は公開されている翻訳モデルをそのまま用いることができるため, 逆翻訳や自己学習のように翻訳・生成モデルを学習する必要はない. そのため, 既存手法と比較すると低コストで疑似データを構築できる。表 9 は各疑似データの構築手法の所要時間 5 を示す。また, クラウドコンピューティングサービスである Amazon EC2 を用いて疑似データを構築した場合 表 8 生成された疑似要約の真の要約に対する BLEU と F1 BERTScores. 表 9 生成された疑似要約の真の要約に対する BLEUと F1 BERTScores. $ の場合で計算している。 } に必要な費用も示している。表 9 から, 逆翻訳と自己学習はモデルの学習に多くの時間を要することがわかる。一方, ExtraPhraseでは学習を必要としないため, 他の手法と比較して $1 / 10$以下の金額で疑似データを構築できる. ## 5 関連研究 系列変換タスクのデータ拡張手法として,逆翻訳と自己学習は広く使われている手法である (Sennrich et al. 2016a; Kiyono et al. 2019; He et al. 2020). Sennich ら (Sennrich et al. 2016a) は,出力側の言語のデータから入力側の言語に翻訳して疑似データを生成し, 機械翻訳の訓練デー 夕を拡張する逆翻訳アプローチを提案した. Edunov ら (Edunov et al. 2018)は,機械翻訳のための大規模なモノリンガル設定における逆翻訳アプローチの有効性を報告した。また, Hoang ら (Hoang et al. 2018) は,逆翻訳を複数回繰り返し適用する反復逆翻訳手法を紹介した。逆翻訳は機械翻訳において有効なアプローチであるが,1 節で述べたように,要約タスクに適用するのは非現実的である。自己学習では,真の訓練データでモデルを学習し,それを応用して疑似データを生成する.Zhang ら (Zhang and Zong 2016) は, ニューラル機械翻訳用の並列コー パスを拡張するために自己学習を適用した.Heら (He et al. 2020) は,自己学習において,デコード中にドロップアウトをノイズとして用いるノイズ自己学習を導入した. これらの研究では,自己学習は機械翻訳や要約タスクにおいて有効な手法と報告されているが, 多様な疑似デー 夕を生成することは困難である (Gu et al. 2018) ため, 性能の向上に限界がある. 他のデータ拡張法として,訓練データとの差異が小さい摂動を用いて性能改善を行う手法はある (Kobayashi 2018). Takase ら (Takase and Kiyono 2021) は,単語ドロップアウトや単語置換のような単純な手法は敵対的摂動よりも効率的に性能を向上させられることを示した. これらの摄動は本研究の提案手法と独立しているため, 組み合わせることでさらに性能向上が期待できる。 近年の研究においては, 大規模な事前学習モデルを利用することにより要約の性能が向上することが報告されている (Lewis et al. 2020; Raffel et al. 2020; Zhang et al. 2020). しかしながら,BART (Lewis et al. 2020) や T5 (Raffel et al. 2020) などの汎用事前学習モデルを利用する場合, 要約タスクに合わせたファインチューニングが必要であり,そのために学習データを準備する必要がある. PEGASUS (Zhang et al. 2020)のような要約タスクに特化した事前学習モデルを用いる場合でも,事前学習とファインチューニングの学習データが必要である。このような状況において, 提案手法は, 事前学習モデルのファインチューニングを行う学習デー夕を拡張する手法として用いることができる。また, 提案手法は構文木を用いているため, 事前学習モデルの対象言語やドメインに依存せず柔軟に適用できる. 提案手法では文圧縮の手法が用いられている. Dorr ら (Dorr et al. 2003) は言語学的に動機 づけられたヒューリスティックを用いたルールベースの文圧縮手法を提案した. Filippova ら (Filippova and Altun 2013) は訓練データから重要な部分木を学習する教師あり文圧縮法を提案した。また,近年ではニューラルネットを用いた文圧縮の研究も行われている (Filippova et al. 2015; Kamigaito et al. 2018). 本研究では教師ありモデルや学習コーパスを必要としない, 文の構文木に基づくルールベースの手法を採用し文の圧縮を行った. Nikolov ら (Nikolov and Hahnloser 2020) は要約の教師なし手法として文の抽出と言い換えを組み合わせたアプローチを提案した.本研究の目的は疑似訓練データを構築することであり,新しい教師なし手法を提案することではない. 提案手法は圧縮された要約に対して言い換えを行い,疑似データの多様性を高めている. Bolshakov ら (Bolshakov and Gelbukh 2004)は辞書に基づき単語を同義語に置き換えることで,言い換えを行う手法を提案した.最近では,言い換えタスクを系列変換タスクとして定式化することにより,ニューラルベースの言い換え生成を行う手法が提案されている (Prakash et al. 2016)。また,機械翻訳モデルを用いた折り返し翻訳による言い換え文生成も提案されている (Mallinson et al. 2017). 近年は高性能な機械翻訳モデルは公開されているため, 本研究では言い換え生成の手法として折り返し翻訳を採用した。 ## 6 おわりに 本研究では,生成型要約タスクのための疑似データを生成する新しい手法を提案した,提案手法は文圧縮と言い換えの 2 つのモジュールから構成される。文圧縮により入力の重要な部分を獲得し,言い換えにより多様な表現を得る。実験の結果,提案手法は逆翻訳や自己学習の疑似デー夕生成手法と比較して,より効果的であることが示された。また, 提案手法は疑似デー 夕生成において追加でモデルを学習する必要がないため, 他の手法に対して, コストの面でも優れていることを示した。 ## 付録 ## A 逆翻訳による疑似データ 1 節で述べたように,生成型要約タスクにおける逆翻訳アプローチは,要約から原文を復元する必要があるため, 本質的に不可能である。 そこで,逆翻訳により生成された原文の性質を調べた。 表 10 は,逆翻訳により生成された原文の長さ(トークン数)の比率と差とを示す. 生成され た原文は元の原文より短いことが分かる。この結果は,逆翻訳が真の原文の情報を完全に復元できていないことを示している。つまり,要約から原文を生成することが難しいことを意味している. また,逆翻訳により生成された原文が真のデー夕に対応しているかを調べるために,真の原文を正解と見なした場合のROUGE スコアを表 10 に示す。文書要約の場合, ROUGEスコアは極めて低くなっている。この結果からも,逆翻訳は原文の生成に失敗していることがわかる. 一方, 見出し生成の ROUGE スコアは文書要約の ROUGE スコアと比較して高い.この結果は, 逆翻訳は要約から原文の核となる部分を復元できる可能性を示している. 見出し生成タスクは,与えられた文章から見出しを生成するタスクであるため,要約(見出し)には原文の主要な部分が含まれていることが多い.このような性質が高いROUGE スコアの要因になっていると考えられる。 ## B 実験設定の詳細 本研究では, 要約モデルと逆翻訳モデルで Transformer (base) (Vaswani et al. 2017)のアーキテクチャを用いた。モデルの詳細な構成を表 11 に示す。また,学習時の詳細な設定を表 12 と表 13 に示す. 各設定は, 4 枚の GPU で実施した実験を想定している. 表 10 逆翻訳により生成された原文と真の原文との ROUGE F1 スコア. 比率と差は, 生成された原文と真の原文に含まれるトークン数の比較である. 表 11 要約と逆翻訳で用いられた Transformer モデルの構成. 表 12 見出し生成タスクにおけるデータ拡張なしとデータ拡張あり場合の学習設定. 表 13 文書要約タスクにおけるデータ拡張なしとデータ拡張あり場合の学習設定. ## 謝 辞 本研究の一部は, JSPS 科研費 19 H01118 および JP21K17800 の助成を受けたものです. 本研究成果の一部は, 独立行政法人情報通信研究機構 (NICT) の委託研究 (No. 225) により得られたものです. ## 参考文献 Bahdanau, D., Cho, K., and Bengio, Y. (2015). "Neural Machine Translation by Jointly Learning to Align and Translate." In 3rd International Conference on Learning Representations. Bolshakov, I. A. and Gelbukh, A. (2004). "Synonymous Paraphrasing Using WordNet and Internet." In Natural Language Processing and Information Systems, pp. 312-323. Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P., Neelakantan, A., Shyam, P., Sastry, G., Askell, A., Agarwal, S., Herbert-Voss, A., Krueger, G., Henighan, T., Child, R., Ramesh, A., Ziegler, D., Wu, J., Winter, C., Hesse, C., Chen, M., Sigler, E., Litwin, M., Gray, S., Chess, B., Clark, J., Berner, C., McCandlish, S., Radford, A., Sutskever, I., and Amodei, D. (2020). "Language Models are Few-Shot Learners." In Advances in Neural Information Processing Systems 33, pp. 1877-1901. Caswell, I., Chelba, C., and Grangier, D. (2019). "Tagged Back-Translation." In Proceedings of the 4th Conference on Machine Translation, pp. 53-63. Dorr, B., Zajic, D., and Schwartz, R. (2003). "Hedge Trimmer: A Parse-and-Trim Approach to Headline Generation." In Proceedings of the HLT-NAACL 03 Text Summarization Workshop, pp. 1-8. Edunov, S., Ott, M., Auli, M., and Grangier, D. (2018). "Understanding Back-Translation at Scale." In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 489-500. Filippova, K., Alfonseca, E., Colmenares, C. A., Kaiser, L., and Vinyals, O. (2015). "Sentence Compression by Deletion with LSTMs." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 360-368. Filippova, K. and Altun, Y. (2013). "Overcoming the Lack of Parallel Data in Sentence Compression." In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, pp. 1481-1491. Gu, J., Bradbury, J., Xiong, C., Li, V. O., and Socher, R. (2018). "Non-Autoregressive Neural Machine Translation." In International Conference on Learning Representations. He, J., Gu, J., Shen, J., and Ranzato, M. (2020). "Revisiting Self-Training for Neural Sequence Generation." In International Conference on Learning Representations. Hoang, V. C. D., Koehn, P., Haffari, G., and Cohn, T. (2018). "Iterative Back-Translation for Neural Machine Translation." In Proceedings of the 2nd Workshop on Neural Machine Translation and Generation, pp. 18-24. Kamigaito, H., Hayashi, K., Hirao, T., and Nagata, M. (2018). "Higher-Order Syntactic Attention Network for Longer Sentence Compression." In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1716-1726. Kiyono, S., Suzuki, J., Mita, M., Mizumoto, T., and Inui, K. (2019). "An Empirical Study of Incorporating Pseudo Data into Grammatical Error Correction." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 1236-1242. Kobayashi, S. (2018). "Contextual Augmentation: Data Augmentation by Words with Paradigmatic Relations." In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 452-457. Koehn, P. and Knowles, R. (2017). "Six Challenges for Neural Machine Translation." In Pro- ceedings of the 1st Workshop on Neural Machine Translation, pp. 28-39. Lewis, M., Liu, Y., Goyal, N., Ghazvininejad, M., Mohamed, A., Levy, O., Stoyanov, V., and Zettlemoyer, L. (2020). "BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, Online. Association for Computational Linguistics. Lin, C.-Y. (2004). "ROUGE: A Package for Automatic Evaluation of Summaries." In Text Summarization Branches Out, pp. 74-81. Association for Computational Linguistics. Loem, M., Takase, S., Kaneko, M., and Okazaki, N. (2022). "ExtraPhrase: Efficient Data Augmentation for Abstractive Summarization." In Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies: Student Research Workshop, pp. 16-24. Mallinson, J., Sennrich, R., and Lapata, M. (2017). "Paraphrasing Revisited with Neural Machine Translation." In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics, pp. 881-893. Ng, N., Yee, K., Baevski, A., Ott, M., Auli, M., and Edunov, S. (2019). "Facebook FAIR's WMT19 News Translation Task Submission." In Proceedings of the 4th Conference on Machine Translation, pp. 314-319. Nikolov, N. I. and Hahnloser, R. (2020). "Abstractive Document Summarization without Parallel Data." In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 6638-6644. Ott, M., Edunov, S., Baevski, A., Fan, A., Gross, S., Ng, N., Grangier, D., and Auli, M. (2019). "fairseq: A Fast, Extensible Toolkit for Sequence Modeling." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 48-53. Ott, M., Edunov, S., Grangier, D., and Auli, M. (2018). "Scaling Neural Machine Translation." In Proceedings of the 3rd Conference on Machine Translation: Research Papers, pp. 1-9. Parida, S. and Motlicek, P. (2019). "Abstract Text Summarization: A Low Resource Challenge." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 5994-5998. Prakash, A., Hasan, S. A., Lee, K., Datla, V., Qadir, A., Liu, J., and Farri, O. (2016). "Neural Paraphrase Generation with Stacked Residual LSTM Networks." In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers, pp. 2923-2934. Raffel, C., Shazeer, N., Roberts, A., Lee, K., Narang, S., Matena, M., Zhou, Y., Li, W., and Liu, P. J. (2020). "Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer." Journal of Machine Learning Research, 21 (140), pp. 1-67. Rush, A. M., Chopra, S., and Weston, J. (2015). "A Neural Attention Model for Abstractive Sentence Summarization." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 379-389. Sennrich, R., Haddow, B., and Birch, A. (2016a). "Improving Neural Machine Translation Models with Monolingual Data." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, pp. 86-96. Sennrich, R., Haddow, B., and Birch, A. (2016b). "Neural Machine Translation of Rare Words with Subword Units." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, pp. 1715-1725. Takase, S. and Kiyono, S. (2021). "Rethinking Perturbations in Encoder-Decoders for Fast Training." In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 5767-5780. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., and Polosukhin, I. (2017). "Attention is All you Need." In Advances in Neural Information Processing Systems 30, pp. 5998-6008. Yu, A. W., Dohan, D., Le, Q., Luong, T., Zhao, R., and Chen, K. (2018). "Fast and Accurate Reading Comprehension by Combining Self-Attention and Convolution." In International Conference on Learning Representations. Zhang, J. and Zong, C. (2016). "Exploiting Source-side Monolingual Data in Neural Machine Translation." In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1535-1545. Zhang, J., Zhao, Y., Saleh, M., and Liu, P. J. (2020). "PEGASUS: Pre-Training with Extracted Gap-Sentences for Abstractive Summarization." In Proceedings of the 37th International Conference on Machine Learning, ICML'20. JMLR.org. Zhang, T., Kishore, V., Wu, F., Weinberger, K. Q., and Artzi, Y. (2019). "BERTScore: Evaluating Text Generation with BERT." CoRR, abs/1904.09675. ## 略歴 Mengsay Loem: 2022 年東京工業大学情報理工学院情報工学系卒業. 同年 4 月より情報理工学院情報工学系知能情報コース修士課程に在学中. 高瀬翔:2012 年東北大学工学部卒業. 2014 年東北大学大学院情報科学研究 科博士前期課程修了. 2017 年東北大学大学院情報科学研究科博士後期課程修了. 博士 (情報科学). NTT コミュニケーション科学基礎研究所でのリサー チアソシエイト, 東京工業大学での研究員, 東京工業大学情報理工学院助教を経て, 2022 年 10 月よりシニアリサーチャーとして LINE 株式会社に所属.言語処理学会, ACL 各会員. 金子正弘:2016 年北見工業大学工学部情報システム工学科卒業. 同年, 首都大学東京 (現東京都立大学) システムデザイン研究科博士前期課程に進学. 2018 年博士前期課程修了. 同年, 首都大学東京システムデザイン研究科博士後期課程に進学. 2019 年より日本学術振興会特別研究員 (DC2)を経て, 2021 年博士後期課程修了. 博士 (情報科学). 同年より東京工業大学情報理工学院研究員. 現在に至る. 岡崎直観:2007 年東京大学大学院情報理工学系研究科博士課程修了. 東京大学大学院情報理工学系研究科 - 特任研究員, 東北大学大学院情報科学研究科准教授を経て, 2017 年 8 月より東京工業大学情報理工学院教授. 言語処理学会, 人工知能学会, 情報処理学会, ACL 各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 国語研長単位に基づく日本語 Universal Dependencies 大村 舞 $\dagger$ ・若狭 絢 $\dagger \cdot$ 浅原 正幸 $\dagger, \dagger \dagger$ } Universal Dependencies (UD) は言語横断的に単語の依存構造に基づくツリーバンク を構築するプロジェクトである。全言語で統一した基準により, 品詞・依存構造アノ テーションデータの構築が 100 言語以上の言語について進められている. 分かち書き をしない言語においては, 基本単位となる構文的な語 (syntactic word)を規定する必要がある。従前の日本語の UD デー夕は, 形態論に基づく単位である国語研短単位を 採用していた。今回, 我々は新たに構文的な語に近い単語単位である国語研長単位に 基づく日本語 UDであるUD_Japanese-GSDLUW,UD_Japanese-PUDLUW, UD_Japanese-BCCWJLUW を構築したので報告する. キーワード:係り受け構造,分かち書き,Universal Dependencies, 日本語, 長単位 ## Universal Dependencies for Japanese Based on Long-Unit Words by NINJAL \author{ Mai Omura ${ }^{\dagger}$, Aya Wakasa ${ }^{\dagger}$ and Masayuki Asahara ${ }^{\dagger, \dagger \dagger}$ } Universal dependencies (UD) are part of an international project that aims to construct cross-lingual dependency treebanks. The consistent annotation standards of grammar (parts of speech, morphological features, and syntactic dependencies) are defined across different languages and compiled as treebanks of more than 100 languages. The languages written without word delimitation must define the word units of their syntactic words on the UD guideline. The preceding UD Japanese resources are based on the short-unit words by NINJAL, which is defined by their lexicon-based morphology. This study introduces UD Japanese resources UD_Japanese_BCCWJGSDLUW, UD_Japanese_PUDLUW, and UD_Japanese_BCCWJLUW based on the long-unit words by NINJAL, which are more suitable as syntactic words than NINJAL's short-unit words in Japanese. Key Words: Dependency Structure, Word Delimitation, Universal Dependencies, Japanese, Long Unit Word  ## 1 はじめに Universal Dependencies (UD) (Nivre et al. 2016)は,言語横断的に品詞・形態論情報・依存構造をアノテーションする枠組およびコーパスである。UD プロジェクトの研究目標として, 多言語の統語解析器開発, 言語横断的な言語処理技術の開発, さらには類型論的な言語分析 (de Marneffe et al. 2021) などがあげられている. UDでは, データ構造やアノテーション作業を単純化するため,またくたけた文や特殊な構造に対して頑健な表現を実現するために,句構造 (phrase structure) ではなく, 図 1 のような語の間の依存関係と依存関係ラベルで表現する依存構造を採用している。UDのガイドラインを基に,現代語のみならず,古語・消滅危機言語・クレオール・手話などを含めた 100 言語以上の依存構造アノテーションデータが構築され, 公開されている ${ }^{1} .2022$ 年 8 月現在でも, 言語横断性を高めるために UD の基準について活発に GitHub² 上やワークショップで議論され,ラベルの統廃合が行われながらもアノテーションやガイドラインが更新し続けられている. このUDの枠組では,依存構造関係を付与する基本単位として,音韻的な単位や文字・形態素ではない構文的な語 (syntactic word) を語として用いることを規定している.英語やフランス語といった空白を用いて分かち書きをする言語においては(縮約形態などを除いて)空白を語の単位認定として用いることが多い。一方, 語の境界を空白などで明示しない東アジアの言語においては,どのような単位を構文的な語に規定すべきかという問題があり,これらの言語では,一度語の基本単位を定義してから,UDを構築している。現代中国語 (Xia 2000; Leung et al. 2016) や韓国語の UD (Chun et al. 2018), トルコ語・古チュルク語 (Kayadelen et al. 2020; Derin and Harada 2021) などでも,言語ごとにコーパスや形態素解析などによって語の単位認 図 1 日本語 UDの例.「文節傒り受け構造」で採用されている単位「文節」(枠で囲んである単位) とは異なり「自立語 (内容語)」と「付属語(機能語)」を分解した単語単位をUDでは想定する.UPOS が UD の定義する品詞, XPOS は言語依存の品詞(日本語UDでは Unidic 品詞. 図の例では品詞の詳細を略するときがある. ) ^{1}$ https://universaldependencies.org/ 2 https://github.com/UniversalDependencies/docs/issues } 定を行い,UDの言語資源が構築されている. UD Japanese(日本語 UD)Version 2.6 以降では,その基本単位として国語研短単位(Short Unit Word, SUW: 以下短単位) を採用している (浅原他 2019). 短単位は『現代日本語書き言葉均衡コーパス』(BCCWJ) (Maekawa et al. 2014)・『日本語日常会話コーパス』(CEJC) (Koiso et al. 2022)をはじめとした形態論情報つきコーパスでも単位として採用されている.短単位に基づく形態素解析用辞書として, 約 97 万語からなる UniDic (伝他 2007) も公開されている. また, 170 万語規模の単語埋め込み NWJC2vec (Asahara 2018) でも短単位が使われており, 短単位を基準として言語処理に必要な基本的な言語資源が多く整備されている.この短単位に基づく言語資源の豊富さから,実用上は短単位に基づく処理が好まれる傾向にあった.しかし, グレゴリー・プリングルによるブログ記事 ${ }^{3}$ や Murawaki (2019) では, 単位として短単位を採用している既存の UD Japanese コーパスは「形態素」単位であり,UDの原則にあげられる「基本単位を構文的な語とする」という点において不適切であることを指摘している. 国語研においては, 形態論情報に基づいて単位認定し, 「可能性に基づく品詞体系」が付与されている短単位とは別に, 文節に基づいて単位認定し, 「用法に基づく品詞体系」が付与されている国語研長単位(Long Unit Word, LUW: 以下長単位)を規定している。しかし, 長単位に基づくコーパスの構築は, 短単位に基づくコーパスの構築より長時間の作業を要する4という問題がある。言語資源としては,BCCWJ や CEJC には長単位に基づいた形態論情報が付与されているとはいえ, 短単位と比べると利用可能な言語資源やツールが少ないため, 長単位に基づく依存構造が解析器によって生成できるのかという問題もある. 日本語における語の単位認定の検証のためには, 実際に短単位のみではなく, 長単位に基づく日本語 UD 言語資源を整備することが必要である。本研究では, 長単位に基づく日本語 UD の言語資源を整備したので報告する。UD 全体と日本語における単位認定について説明しながら, 既存の言語資源・解析器によって長単位に基づく日本語 UD の構造が生成しやすいかを短単位 UD と比較して検討する. ## 2 Universal Dependencies と日本語の単位認定 ## 2.1 Universal Dependencies による単位認定 Universal Dependencies (UD) (Nivre et al. 2016)は,言語横断的に品詞,形態論情報,依存構造を付与するための枠組およびコーパスである。UDの枠組として,品詞体系 (UPOS) は Google Universal Part-of-speech Tags (Petrov et al. 2012)を,形態論情報 (FEATS) は Interset  interlingua for morphosyntactic tagsets (Zeman 2008)を, 依存関係ラベル (DEPREL) は Universal Stanford Dependencies (de Marneffe et al. 2014) を基に構成されている. さらにUDでは,多言語横断の枠組の実現のために,すべての構文構造を図 1 のように語の間の依存関係と依存関係ラベルで表現する。そのため, 依存関係を表すための「語 (words)」の単位認定が重要になる. UD のガイドラインでは, この「語」の単位について,語同士は依存関係が成立しているという前提でアノーテションすることを求めている。 さらに,「語は構文的な語 (syntactic word) である」と定義しており,構文的な語は形態素ではないと説明している。形態論的な特徴は語の属性としてアノテーションし,語を形態素に分割しない.これは,音韻論上他の語に依存する拘束形態素であっても統語的に独立した語(スペイン語の “dámelo” $\rightarrow$ “da me lo”)や縮約形態 ("au” $\rightarrow$ “à le") を元の個別の単位に分解したいという理由に基づく5.このような UDの規定する語を本稿では「構文的な語」として説明する.語の分割が空白により規定できる言語については,より細かく分割すべき接語 (clitics) やまとめあげるべき数的表現・略語 (“20 000” や“e. g.”)に対して適切なドキュメンテーションを行うことが求められている. 日本語や一部の東アジア諸言語では,空白を用いずに記述するため, 明示的な空白を用いた単位認定が困難である。UD のアノテーションを作成するうえで単位認定は非常に重要であるため,言語またはツリーバンクごとにアノテーションする単位を規定している.たとえば,日本語と同様に空白による境界のない現代中国語 (Xia 2000; Leung et al. 2016) や韓国語の UD (Chun et al. 2018)では, 既存の単語分割コーパスに基づいて単位を規定している. 古チュルク語を含むトルコ語 (Kayadelen et al. 2020; Derin and Harada 2021)の UD は,語の境界を表す空白は存在するものの, 日本語と同じく膠着語であり, 動詞などは接尾辞を付着させて文法関係を示している。そのため空白だけではなく, さらにUDの示す構文的な語に合うように接尾辞などを区切り,単位認定を行っている。 ## 2.2 日本語の単位認定 日本語は, 形態論的変化が豊富でありながら,語境界に空白を使わない言語である。日本語における単位は分析手法に応じて定義される傾向にあり,自明な語境界があるわけではない。また, 日本語の単位認定は工学的にも重要と考えられており, 形態素解析の研究が自然言語処理の分野で盛んに行われていた。日本語の形態素解析では,内部的に辞書を用いて解析が行われることがほとんどであり,さまざまな種類の辞書が構築されて公開されている.日本語の形態素解析用辞書としては, IPADIC 辞書 ${ }^{6}$, JUMAN 辞書", Sudachi 辞書 (Takaoka et al. 2018; 坂本他 2018), IPA 辞書から新語を拡張した辞書 mecab-ipadic-NEologd (佐藤他 2017) なども公 ^{5}$ https://universaldependencies.org/docs/u/overview/tokenization.html 6 https://ja.osdn.net/projects/ipadic/ 7 https://nlp.ist.i.kyoto-u.ac.jp/?JUMAN } 開されている. 日本語 UD は,他言語 UD と同様に,既存の辞書やコーパスを利用してUDの形式に自動変換することを目指している。語境界を新たに認定するよりも,既存の単位に基づいて品詞などの対応を取るほうが UDの基準の変更に追随するためにも望ましい,日本語 UDでは,Version 2.6 より, UniDic (伝他 2007) の語彙項目の単位, すなわち国語研短単位(短単位)を単位とする方針とした (浅原他 2019). 本稿で報告する長単位 UDの国語研長単位(長単位)も,短単位と同様に設計されたものである。次節では,短単位と長単位といった国語研による語の単位認定について説明をする。 ## 2.3 国語研による語の単位認定 国語研短単位や国語研長単位は,語彙調査のために制定された単位である (国立国語研究所 2006). 図 2 で示す通り, 短単位は最小単位から, 長単位は文節から規定されている。この節では最小単位, 短単位, 文節, 長単位の説明をする。 国立国語研究所では, 現代語において意味を持つ最小の単位のことを最小単位と定義する。最小単位はその語種に基づき定義される。日本語は, 漢語・和語・外来語・固有名詞・数値表現・記号などの語種からなる。漢語は 1 文字 1 語とし, 和語・外来語・固有名詞はそのもっとも短い単位を 1 語とする。数値表現は十進の位取りで発音できる単位に分割する。記号は 1 文字 1 語とする。このような操作的な規則に則り, 最小単位を制定している. 短単位は, この最小単位に基づき, 同じ語種同士の 1 回結合までを 1 単位として定義する. 図 2 の例では, 「学」と「年」はそれぞれ漢語であり, 結合した「学年」を 1 短単位とする.和語である「用い」と付属語である「られ」を結合しないで,それぞれを 1 短単位とする。短単位は,基準が分かりやすく,ゆれが少ないという特徴があり,頻度の計数にふさわしい単位とされている。この短単位に対して UniDic 体系に基づく形態論情報(品詞 ・活用型・活用形・語 図 2 最小単位, 短単位, 長単位, 文節の例 (BCCWJ の PB33_00032より). 2.3 節でも説明する通り,最小単位から短単位,文節から長単位が規定されている。 形・語彙素)が定義される。短単位に付与される UniDic 品詞は「可能性に基づく品詞」であり,その語彙素(表層形)がなりうるすべての品詞用法を考慮したものである.たとえば,「日曜」などの単位は文脈によって「名詞-一般」にも「副詞-一般」にもなりえるため,「名詞-副詞可能」といった品詞を定義する.短単位は語彙分析を目的としており,文脈に依存した用法を考慮した品詞を定義していない. 一方長単位は,まず文節境界を認定したのちに,文節内の短単位要素の結合により認定する単語単位である。文節は日本語における係り受け構造(依存構造)情報における基本単位に適した境界として採用されており,この文節を基に係り受け構造の整備が行われている (浅原,松本 2018). 日本語の文節単位の係り受け構造は,係り受けが交差せず,倒置などをのぞいて右主辞であり,簡単なアルゴリズムで組み上げられるという性質を持つ。しかしながら,文節自体には品詞が設定されておらず,文節間同士の依存関係も基本的に定義されていない.そのため,文節のみでは,直接 UDに変換するための情報が本質的に欠けている.文節は,1つの自立語と接頭辞・接尾辞・助詞・助動詞などの複数の付属語から構成されるとし, その各要素を長単位として認定する。図 2 の文節「用いられている」は,長単位自立語と「用い」と長単位付属語「られ」「ている」により構成される。長単位の規程集 (小椋他 2008) では, 長単位としてみなす複合辞 (Multi-word Expressions) が認定されており, 複合辞をなす機能表現は 1 単位とする。また長単位には,文脈によりどのような統語的なふるまいかについて曖昧性解消を行った 「用法に基づく品詞」が付与される。長単位は, 文節を基に「用法に基づく品詞」が付与可能な自立語構成素と付属語への分割を行った単位とも言える. 短単位と比較すると, 長単位は依存構造の基本単位である文節を基準とした単位のため, 構文的な語に近いと考えられる,また,たとえば,短単位における品詞「名詞-副詞可能」は,長単位においては文脈に基づき「名詞—一般」もしくは「副詞一一般」のいずれの用法なのかを判別して付与するため,統語上における品詞の曖昧性も解消できている可能性が高い,さらに,短単位は前述のとおり, 形態素に基いているのみで, 膠着語としての性質を考慮していない。そのため, 接尾の語により品詞が変化する場合に対応できないものがある. これは浅原他 $(2019)$ でも問題としてあげられている点である。これは長単位の区切り方で解消することができると考えられる。 図 3 に短単位と長単位の違いの 1 例をあげる。上が短単位, 下が長単位の例である。図 3 から分かるように短単位は「力強さ」を「力強」「さ」,「両立する」が「両立」「する」の 2 つに認定されており,長単位ではそれぞれ「力強さ」「両立する」という1つの長単位として認定されている. 接尾辞の「さ」は前にくる形容詞を名詞化するため, 統語的には「力強さ」で名詞と品詞認定されるべきだが,短単位では実現できていない,長単位では「力強さ」を 1 長単位とし,「名詞」と認定されている.また,短単位では「両立」と「する」で分かれてしまっているため,「する」によって動詞化されていることを確認する必要がでてくる.実際UD_Japanese-BCCWJ では「する」が名詞に接続されているかをプログラムで抽出して判定した後,UPOS の VERB を付与するような変換規則を設けている (Omura and Asahara 2018)。一方で,「両立する」として1つの長単位として認定すれば,長単位の品詞体系から, 自然と動詞として品詞認定できる.このように長単位は文脈上の品詞の曖昧性を解消しているため, 短単位と比べて, UD の示す構文的な語に近いと考えられる. ## 2.4 日本語の単位認定について利用できる言語資源・解析器 統語解析では, 統計的機械学習や深層学習により自動解析器を構築するものが多く, そのため, 学習時に利用する言語資源の豊かさは重要な点である。前述した最小単位・短単位・長単位・文節について,表 1 に各単位認定で利用できる言語資源・解析器について示す. 表中 TTR は BCCWJ 中の総語数に対する異なり語数の比率 (Type Token Ratio) であり,この值が高いほ 図 3 例文「打感と力強さが両立する」. 上が短単位の例, 下が長単位の例である。(BCCWJ の PM41_00172 より一部抜粋)短単位の場合,「両立」だけではなく,「する」まで参照してから「VERB」を付与する規則を設けている。 表 1 各単位認定で利用できる言語資源・解析器. N/A は存在しない,あるいは計算できないことを示している. ど,その単位の出現確率が小さくなることを意味する。 最小単位は, 現在のところ公開されている言語資源・解析器は存在しない. 短単位は, 形態素解析器 MeCab (Kudo et al. 2004) と形態素解析用辞書 UniDic を用いることにより生成される. ほかにも Asahara (2018)によって公開された NWJC2vecなどの単語埋め込みが利用できる. 長単位・文節については,TTR の大きさからも分かる通り,語彙が膨大であるため辞書は存在しない.しかし, 長単位は, 短単位から構成規則により生成が可能なため, 中・長単位解析器 Comainu (小澤他 2014) や Vaporetto (赤部他 2022) といった解析器などにより生成することができる. 文節は, CaboCha (工藤, 松本 2002) などのツールでも解析ができる. TTRが大きいほど単語埋め込みの構築の難易度も高くなることが Asahara (2018) によって指摘されており,長単位や文節について単語埋め达みは構築されていない. ## 2.5 これまでの日本語 Universal Dependencies の歴史 2023 年 1 月までに, 現代日本語 UD リソースとして 7 種類のコーパスが公開されている.これまで公開された日本語UDを表 2 に示す. UD_Japanese-KTC (Tanaka et al. 2016) は京都大学テキストコーパスを元に作られた UD コーパスである. UD_Japanese-KTCは長単位に近い単語境界で単語を構成しており, 人手によって句構造木が付与され,その句構造木に基づいてUDの依存構造木を構築している. 現在 UD プロジェクトでは Version 2 が公開されているが, UD_Japanese-KTC については Version 1 でメンテナンスが止まっている. UD_Japanese-BCCWJ (Omura and Asahara 2018) は BCCWJ に基づいた UD コーパスである. Version 2.2 より公開された. BCCWJでは短単位・長単位・文節および文節単位の係り受け構造の情報が提供されている. UD_Japanese-BCCWJ はこの BCCWJ からの形態素情報および係り受け構造を元に Omura and Asahara (2018) らが提案している規則によって, 短単位に基づく依存構造木へと自動変換されたものである。 UD_Japanese-GSD と UD_Japanese-PUD は Version 1.4 まで Google (McDonald et al. 表 2 公開現代日本語 UD のコーパス. SUW は短単位, LUW は長単位の略称である. 2013) が管理し, Version 2.0 から 2.5 までは IBM の単語分割器 (Kanayama et al. 2000) により単語分割し, 修正したものであった. Version 2.6 より国立国語研究所がメンテナンスおよび公開しているコーパスである。あらかじめ UD_Japanese-GSD の Version 1.4 の権利者の許諾を得て, さらに交涉によりライセンスを CC BY-NC-SA から CC BY-SA に変更したうえで, Version 1.4 データの例文を元に,国立国語研究所にて国語研短単位形態論情報と文節係り受け情報を人手により付与している。UDの依存構造木については, 文節係り受け木から Omura and Asahara (2018) らの規則によって UD_Japanese-BCCWJ と同様に変換したものである. 今回, さらにUD_Japanese-GSD, UD_Japanese-PUD, UD_Japanese-BCCWJ の例文に基づき,長単位に基づく日本語 UDコーパスを構築した.BCCWJには長単位形態論情報が付与されていたが,新たに UD_Japanese-GSD とUD_Japanese-PUDにも長単位形態論情報を付与した。次節では, 長単位に基づく日本語 UD コーパスの構築について紹介する。 ## 3 長単位に基づく日本語 Universal Dependencies UD の理念に即した単位に基づく日本語の言語資源を構築すべく, 我々は長単位を単位認定とした日本語 UD コーパスを開発した. UD_Japanese-GSD, UD_Japanese-PUD に対して,新たに国語研長単位形態論情報を付与し,UDの Version 2.9(2021 年 11 月)から,BCCWJ, GSD, PUD の長単位に基づく日本語 UDを, UD_Japanese-BCCWJLUW ${ }^{8}$, UD_Japanese- 最新版である. 前節で説明したとおり,UD_Japanese-GSDと UD_Japanese-PUD は, Version 2.6 公開時に国語研長単位に基づく形態論情報(単語境界・品詞・語彙素)と文節に基づく係り受け構造を人手により整備した。さらに,国語研長単位に基づく形態論情報(単語境界・品詞・語彙素)の整備を継続して進めてきた。長単位整備時に,長単位と短単位でデー夕に一貫性の不備があった場合は,短単位形態論情報もさらに修正した。そしてこの国語研短単位・長単位形態論情報が付与された文節係り受けデータ GSD, PUD を Omura and Asahara (2018)の提案した規則によって, 文節係り受け構造から, 長単位に基づくUD 基準の依存構造コーパスに変換し, UD_Japanese-GSDLUW と UD_Japanese-PUDLUW を構築した. UD_Japanese-GSD とUD_Japanese-PUD の元となっているこの文節係り受けコーパスは拡張 CaboCha 形式 (松吉他 2014) ファイルのオープンデータとして公開11されている.  BCCWJ は短単位の境界と品詞, 長単位の境界と品詞が整備されており, 浅原, 松本 (2018) のデータを組み合わせることで文節係り受けデータも獲得できる。そこから GSD と PUD と同様に Omura and Asahara (2018) の規則によって変換を行い UD_Japanese-BCCWJLUW を構築した。 この Omura and Asahara (2018) らの変換規則は短単位と長単位の語彙素や品詞, 形態的な特徵に基づいたものである。図 4 に Omura and Asahara (2018) らの変換規則の一部12 と例を掲載している. 例文にアノーテションされた短単位と長単位の語彙素や品詞・係り受け構造から,単語間依存構造と情報を抽出し, 図 4 の下部の表で示しているような規則を単語ごとに適応している。適応結果から得られた UPOS および DEPREL のラベル付与することでUD の依存構造を生成している. Omura and Asahara (2018) らの変換規則は, Unidic 品詞だけではなく, 文節や係り受け構造も参照しつつ変換されている. 日本語における UPOS と DEPREL についての説明は文献 (浅原他 2019)を参照すること. Omura and Asahara (2018)の時点では,変換規則は短単位のみの変換を想定していた. 長単位 UD コーパス構築に際して, 長単位のための追加の規則が必要か検討したものの, 既存の変換規則が長単位の規則を内包していたことが分かった ${ }^{13}$ 、そのため,長単位 UDでも,Version 図 4 係り受け構造から UD 構造への変換規則の例. 上記は規則の一部でかつ説明を簡略化したものである.(上記の例は UD Japanese-GSDLUW 中の dev-s63)  2.10 時点で,そのまま数点の規則の変更のみ ${ }^{14}$ で,長単位でも同じように適応している. 表 3 に構築した長単位 UD の文数・文節・単語の統計情報を示している。比較のために短単位 UDの統計情報も掲載している。長単位は 1 語以上の短単位により構成されているため,表 3 から分かるように,長単位の語数は短単位の語数より少ない. しかしながら,ほとんどの語において短単位と長単位は 1 対 1 対応している. BCCWJ においては $81.3 \%$ が,GSDにおいては $79.0 \%$ が,短単位と長単位が同一単位となっている。 表 4 と表 5 には日本語 UD の UPOS と DEPREL のコーパスごとの頻度割合を示している。短単位と長単位を比較すると, 表 4 から, 長単位の UPOS は PROPN, SCONJ, SYM や NOUN の割合が減少していることが分かる,表 5 から, 長単位の DEPREL は compound, fixed, nummod,mark などの割合が減少しているのが分かる。いずれも複合名詞や複合動詞でよく用いられていたアノテーションであり,長単位で 1 単位となった際に消える関係のため減少する。一方で長単位の AUX $\mathrm{ADP}$, aux, caseなどの割合が増えているのは, 短単位が結合して 1 長単位が格助詞や助動詞といった付属語に変化したためである。たとえば, 図 5 の事例で説明すると,「吉田」「あや子」は長単位の場合, 複合名詞「吉田あや子」と変化するため,「吉田」「あや子」を結んでいた compoundが消えている.また長単位「ている」は短単位の場合「て」「いる」の 2 単語で markと fixedを用いているが, 長単位「ている」と結合されたことで「助動詞」となるため, UPOSがAUXに変化し, auxが付与される. 表 3 日本語長単位ベース UD の統計情報.(文数・文節数・単語数,比較のために短単位ベース UD の数値も掲載)  表 4 日本語 UD Version 2.10 の統計情報. (UPOS の割合) 表 5 日本語 UD Version 2.10 の統計情報.(DEPREL $の$ 割合) 普通名詞格助詞名詞名詞格助詞動詞接続助詞動詞-非自立可能句点 NOUN ADP PROPN PROPN ADP VERB SCONJ VERB PUNCT 普通名詞格助詞固有名詞格助詞動詞助動詞句点 NOUN ADP PROPN ADP VERB AUX PUNCT 図 5 UD Japanese-GSD/GSDLUW 中の train-s1430 の事例. 上が短単位, 下が長単位である. 長単位になると compound と fixedの関係がなくなる.また,「ている」のように結合し助動詞 (AUX) に変化している. ## 4 オープンソース解析器による比較実験 この節では短単位および長単位という単位の異なる日本語 UD コーパスについて, 公開されている解析器により統語解析を行う. 正解率に基づき, どの段階の構造が, どの程度再現可能かを調査する。統語解析の解析結果を比較することにより, 短単位と長単位による解析精度の違い,長単位の再現度の困難さなどを確認することが目的である。 ## 4.1 実験設定 この実験では短単位 UD と長単位 UD の比較のため, 短単位の UDである UD_Japanese-GSD と長単位の UDである UD_Japanese-GSDLUW(いずれもVersion 2.10)を用いた.GSD データは CoNLL-2017 の Shared Task にも用いられていた経緯から, 訓練・開発・評価データに分割されており,実験データの設定もこの分割に基づいて実施した. 図 6 に統語解析の流れを示す。生文を入力してから単語分割, 品詞付与とレンマ推定をし,依存構造解析を行う形15で統語解析を行い, UD を生成する. 解析器としては UDPipe, MeCab, Comainuを用いた. UDPipeでは単語分割, 品詞推定+レンマ推定, 依存構造解析を行い, MeCab と Comainu は単語分割および品詞推定 (XPOS まで) を行う.UDでは言語依存の品詞を XPOS  図 6 本実験における統語解析の流れ。この 3 段階の流れは UDPipe のモデルに合わせている. として指定できるため, 日本語 UDでは Unidic 品詞(国語研短単位形態論情報, 国語研長単位形態論情報)を提供している. UDPipe (Straka and Straková 2017) は, 生文あるいは UD コーパスを入力として単語分割,品詞付与+レンマ推定, 依存構造解析ができる解析器である. UDPipe ではそれぞれの段階ごとにモデルを学習し構築している. UDPipe はニューラルネットモデルをフェイズごとに組み合わせて実装されており,単語分割には Bidirectional LSTM artificial neural network (Graves and Schmidhuber 2005)を, 品詞付与+レンマ推定には MorphoDiTa (Straková et al. 2014) を, 依存構造解析には Parsito (Straka et al. 2015) が使われている. UD_Japanese-GSD, UD_JapaneseGSDLUW の訓練データ (Version 2.10) を用いて UDPipe Version 1.2.0により訓練したモデルを用いる ${ }^{16}$. UDPipe では, 単語埋め込みを依存構造解析段階でのみ使用することができるため, 単語埋め込みとして, 短単位に基づく単語埋め込み NWJC2vec を用いた。なお NWJC2vec は短単位で構築されているが, 短単位と長単位では共通する形態素も存在するため, 影響をみるために, 長単位のモデルでも NWJC2vec を用いている. 本実験での NWJC2vec は 300 次元の Skip-gram のモデルを使用した. MeCab (Kudo et al. 2004) は国語研短単位形態論情報(単語分割, 品詞付与+レンマ推定)を付与するために用いる。利用したバージョンは MeCab-0.996 と UniDic-2.1.0 であった. Comainu (小澤他 2014) は国語研長単位形態論情報(単語分割, 品詞付与+レンマ推定)を付与するために用いる。利用したバージョンは 0.72 であった。なお,Comainu は内部で MeCab を呼び出して利用しており,MeCabの解析結果も Comainuの結果から引用している. MeCab も Comainu  もすでに訓練されたモデルをそのまま用いた17. 評価も図 6 に示す 3 つの段階「単語分割」「品詞付与+レンマ推定」「依存構造解析」の段階での比較で行った. 1 つ目は未解析文を入力にしたすべての解析 (単語分割, 品詞付与+レンマ推定,依存構造解析)を行うものである.2つ目は正解の単語分割 (Gold) を入力にして品詞付与+レンマ推定・依存構造解析を行うものである. 3 つ目は正解の単語分割 (Gold) と正解の品詞タグ (Gold) を入力に依存構造解析のみを行うものである. 評価プログラムには CoNLL 2018 Shared Taskにて使用された評価スクリプト18を用いた。このスクリプトは出力結果と正解同士の結果を内部でアライメントし,その一致率を求めた上で,単語分割, 品詞付与, レンマ推定, 依存構造解析結果それぞれについての $\mathrm{F}$ 值を出力する。本稿の実験結果もこの $\mathrm{F}$ 值を正解率として示している.以降は各段階に焦点を当てて結果と考察を示すが, 全体の結果は付録 A の表 10 を参考にされたい. ## 4.2 単語分割および品詞付与+レンマ推定 表 6 に単語分割および品詞タグ付け+レンマ推定の結果を示す. Words は単語分割の $\mathrm{F}$ 値, UPOS は UD 品詞付与の F 值, XPOS は UniDic 品詞付与の F 値, Lemmas はレンマ (UniDic 語彙素)推定の $\mathrm{F}$ 值である。なお, 品詞付与+レンマ推定については XPOS と UPOS のそれぞれの正解率を求めているが,MeCab と Comainu では XPOS のみ生成し,UPOS のみ UDPipe で出力する形になっている。また示している Comainu の結果は短単位の解析誤りが含まれている。 まず,単語分割においては MeCab と Comainu を比較すると, 長単位 (LUW) のほうが正解 表 6 実験結果:単語分割および品詞夕グ付け+レンマ推定. 各項目は $\mathrm{F}$ 値を表している.  率が高く ${ }^{19}$, 品詞付与の正解率も UPOS, XPOS ともに長単位のほうが高い. また, UDPipe と MeCab と Comainu を比較すると, MeCab と Comainu のほうが精度が高く, XPOS が特に高い. 日本語形態素解析では, 辞書などを用いながら UniDic 品詞 (XPOS) を推定することに特化しているため, XPOS のほうが汎化の高い UPOS よりも性能が高くなる傾向にある. 次に, UDPipe を用いた場合の短単位 (SUW) と長単位 (LUW) を比較すると, 単語分割において短単位のほうが正解率が高いことが分かった,品詞夕グ付けやレンマ推定においても,短単位のほうが高いことが分かる。前述の通り短単位は短く摇れが少ない傾向にあるため,辞書知識を用いないUDPipeにおいて,短単位のほうが正解率が高いのは直感的である,全体として分割精度が低いと後続の結果にも影響がでるため, 短単位のほうが結果として正解率が高くなっていると考えられる。 単語分割を正解とした入力を与えた場合には,XPOSにおいては長単位のほうが短単位よりも正解率が高いことが分かった。これは辞書を用いずに文脈のみで機械学習により推定する場合には, 「可能性に基づく品詞」の推定が困難で,「用法に基づく品詞」のほうがより推定しやすいことによる。 レンマ推定においては, 一貫して数字表現や複合辞の語彙素の復元が難しく, 長単位のほうが正解率が低い,レンマ推定の際,Gold データの場合と解析器によるものを比較すれば 3-4\% も落ちていることが分かり,単語分割の正確性は重要であることが伺える. ## 4.3 依存構造解析 表 7 に依存構造解析結果を示す. 評価指標としてUAS,LAS,CLAS,MLAS,BLEXを示している.NWJC2vec を利用していないものと利用したものの結果について (UDPipe) w/o vec と (UDPipe) w/ vecにて示している. UAS (Unlabeled Attachment Score) は,親への依存関係 (dependency attachment) が正しい場合に正解として,正解率を評価する指標である. LAS (Labeled Attachment Score) は,単語の係り先と親への依存関係ラベル (universal dependency label) が正しい場合に正解として, 正解率を評価する指標である。 CLAS (Content-Word Labeled Attachment Score) は,LAS の評価において, 機能語 (functional words) から自立語 (content words)への依存関係の重みを 0 にしたものである。つまり,自立語の評価を主とした指標である。自立語と認定される依存関係は 29 種として定義されている20のみとする. MLAS (Morphology-Aware Labeled Attachment  表 7 実験結果:依存構造解析の結果. 各項目は $\mathrm{F}$ 值を表している. Score) は, CLAS の拡張であり, 親への依存関係のみならず, 子の機能語の依存関係がすべて対応しており,いくつかの形態論的属性 (FEATS) も正しい場合に正解として,正解率を評価する指標である。この指標での依存関係は係り先と関係ラベルが一致しているものだけを評価する.ただし内容語でも機能語でもない関係ラべルのものは除かれて評価されている. BLEX (Bilexical Dependency Score) は, MLAS と似た指標だが,形態論的属性 (FEATS) の代わりにレンマ (LEMMA) が一致している場合に正解とする。その際, 子の機能語の依存関係は評価しない。なお, 出力と正解データで単語分割の区切りが一対一となるとは限らないため, 一致率ではなく,F 値として評価する。 まず,UAS,LAS を確認する。単語分割に UDPipe を用いたものを除いて,長単位のほうが短単位よりもUAS, LAS ともによいことが分かる. これは, 品詞付与のときも同様であるが, UDPipe の単語分割の性能の差が依存構造解析に残っていることに基づく,単語分割に正解を与えた場合 (Token: Gold), いずれの場合も依存構造解析の性能において 0.73-2.47\%程度, 短単位よりも長単位のほうが性能がよかった。また品詞に正解を与えた場合 (Token: Gold, POS: Gold) も, 短単位よりも長単位のほうが性能がよかった。これは, 依存構造解析の単位として,長単位の分割および長単位に付与されている UPOS のほうが,構文解析しやすいことが示唆される.定性的にも,短単位に付与されている「可能性に基づく品詞体系」は依存構造を推定するための情報として曖昧な品詞体系であり,長単位に付与されている「用法に基づく品詞体系」が有効と考えられる。 CLAS, MLAS, BLEX を確認すると,短単位のほうが長単位よりも正解率がよい。とくに BLEXは, レンマ解析結果の正解も必要なため, より長単位の評価に厳しい結果となっている. これは CLAS, MLAS, BLEXにおける自立語認定される語が,短単位のほうが長単位よりも比率が多いことに起因している。とくに短単位では長単位のときに 1 語と認定されているものが複数の語となり,かつその依存関係(compoundやfixed)も自立語として正解率に集計されている. 実際, UD_Japanese-GSDで自立語として認定される語の割合は 103769/217954=0.4761, UD_Japanese-GSDLUW で自立語として認定される語の割合は $66116 / 174543=0.3788$ となっており,短単位のほうが自立語認定された語の割合が 1 割程度多い.これが,正解率に影響している可能性が高い. 自立語の依存構造が正しく認定されているかを確認するために,文節中の自立語同士の依存関係のみを抽出し, 結果を出した ${ }^{21}$. 短単位 UD と長単位UD の文節の数はほとんど一致しており,文節中には自立語はひとつと定義されているので,この結果は日本語の係り受け構造解析とほぼ同様の結果となる。 それぞれの評価指標を計算しなおすと表 8 のようになった. 解析器がその単語が主辞かどうかを判定しないため, 語の認定がずれている結果は正確に評価できない. そのため, 語が一致しているもののみに限定している。短単位と比べて長単位のほうが自立語の依存構造においては解析精度がよいことが分かる. 表 9 に,単語埋め込み NWJC2vec を用いた際に,どの程度依存構造解析の正解率が向上するかについて示す. 表 7 の w/ vec と w/o vec の差分を示したものである. 短単位に基づく NWJC2vec は,短単位の依存構造解析正解率を 0.73-1.65\% 程度向上させる。一方, 長単位の依存構造解析正解率は $0.01-0.23 \%$ 程度しか向上させることができない. NWJC2vec は短単位に 表 8 実験結果 : 文節内自立語主辞の依存構造解析結果 ( $\mathrm{F}$ 値). 表 7 の一部に対して文節内自立語主辞の依存関係のみで再評価した結果. CoNLL 2018 Shared Task の CLAS, MLAS, BLEX の定義と異なるため'-C'を付与している。 SEM_HEADを抽出することと同値である. } 表 9 実験結果:単語埋め込みの利用による依存構造解析正解率の向上.(表 7 に基づく) 基づき構築された単語埋め込みである。これは依存構造解析において,単語単位が揃っている単語埋め达みは正解率の向上に貢献することを示唆している. ## 5 おわりに 本稿では日本語 UDにおける単語分かち書きの問題について, 国語研短単位と国語研長単位という単語単位を比較することで検討を行った。日本語分かち書き基準として以前より採用されていた国語研短単位について紹介するとともに,UDが掲げる理念に即した単位認定「構文的な語」にふさわしい単位として国語研長単位があることを紹介した。実際に,長単位に基づく現代日本語の UD リソース UD_Japanese-BCCWJLUW,UD_Japanese-GSDLUW, UD_Japanese-PUDLUW を構築し,共有・公開を行った。さらに長単位に基づく日本語 UD について,公開されているツール・言語資源およびUD_Japanese-GSDLUWを用いて,その再構成可能性について検討を行った. 結果, 既存の形態素解析器 $\mathrm{MeCab} \cdot$ Comainu とともに短単位に基づく単語埋め込み NWJC2vec を用いた設定において,短単位と長単位とで最終的な係り受けの性能において差がないことを確認した。 構文的な語としての長単位の出力が実応用的に有用であり,UDの枠組にふさわしいものであるかについてはまだ議論の余地が残っている。さらに,類型論の研究を考えた場合に,他言語においても同様の「構文的な語」を規定できるかという問題がある。今後他言語を含めた有用性を検証する必要があると考えられる。 検討事項があるとはいえ,今回の取組みにより,既存のアノテーション情報を元に短単位の日本語 UDコーパスと長単位の日本語 UDコーパスを構築することが可能となった。本基準を用いると,たとえば,短単位・長単位形態論情報・文節係り受けなどが付与されていれば,短単位・長単位に基づく『日本語日常会話コーパス』(CEJC) などもUD 対応することが可能であろう.今後拡張 CaboCha 形式の日本語コーパスをUD 基準に変換するプログラムもオープンソースソフトウェアとして公開予定である。また公開された長単位の日本語 UD コーパスを元に松田他 (2022) や安岡 (2022) の研究のような長単位解析系のツールの開発なども取り組ま れている。長単位の日本語 UD コーパスによって, 日本語の語の単位認定について, より進んだ研究が取り組まれることを期待する. ## 謝 辞 本研究の実施にあたって,松田寛氏・金山博氏・宮尾祐介氏・田中貴秋氏・松本裕治氏・伊藤薫氏の助言を受けました.ここに記して謝意を表します. 本研究は国立国語研究所コーパス開発センター共同研究プロジェクト(2016-2021)・基幹型共同研究プロジェクト(2022-2027)「アノテーションデータを用いた実証的計算心理言語学」の成果です。また, 科研費 17H00917, 18H05521の支援を受けました。 ## 参考文献 赤部晃一, 神田峻介, 小田悠介, 森信介 (2022). Vaporetto: 点予測法に基づく高速な日本語トークナイザ. 言語処理学会第 28 回年次大会発表論文集, pp. 256-261, オンライン開催.言語処理学会. [K. Akabe et al. (2022). Vaporetto: Ten Yosokuho ni motozuku Kosoku na Nihongo Tokunaiza, Proceedings of the 28th Annual Meeting of the Association for Natural Language Processing, pp. 256-261. Online. Association for Natural Language Processing]. Asahara, M. (2018). "NWJC2Vec: Word Embedding Dataset from 'NINJAL Web Japanese Corpus'." Terminology: International Journal of Theoretical and Applied Issues in Specialized Communication, 24, pp. 7-22. 浅原正幸, 松本裕治 (2018).『現代日本語書き言葉均衡コーパス』に対する文節係り受け$\cdot$並列構造アノテーション. 自然言語処理, 25 (4), pp. 331-356. [M. Asahara and Y. Matsumoto (2018). Bunsetsu-based Dependency Relation and Coordinate Structure Annotation on 'Balanced Corpus of Contemporary Written Japanese'. Journal of Natural Language Processing, 25 (4), pp. 331-356.]. 浅原正幸, 金山博, 宮尾祐介, 田中貴秋, 大村舞, 村脇有吾, 松本裕治 (2019). Universal Dependencies 日本語コーパス. 自然言語処理, 26 (1), pp. 3-36. [M. Asahara et al. (2019). Japanese Universal Dependencies Corpora. Journal of Natural Language Processing, 26 (1), pp. $3-$ 36.]. Chun, J., Han, N.-R., Hwang, J. D., and Choi, J. D. (2018). "Building Universal Dependency Treebanks in Korean." In Proceedings of the 11th International Conference on Language Resources and Evaluation (LREC 2018), pp. 2194-2202, Miyazaki, Japan. European Language Resources Association. de Marneffe, M.-C., Dozat, T., Silveira, N., Haverinen, K., Ginter, F., Nivre, J., and Manning, C. D. (2014). "Universal Stanford Dependencies: A cross-linguistic typology." In Proceedings of the 9th International Conference on Language Resources and Evaluation (LREC 2014), pp. 4585-4592, Reykjavik, Iceland. European Language Resources Association. de Marneffe, M.-C., Manning, C. D., Nivre, J., and Zeman, D. (2021). "Universal Dependencies." Computational Linguistics, 47 (2), pp. 255-308. 伝康晴, 小木曽智信, 小椋秀樹, 山田篤, 峯松信明, 内元清貴, 小磯花絵 (2007). コーパス日本語学のための言語資源-形態素解析用電子化辞書の開発とその応用 (特集コーパス日本語学の射程). 日本語科学, 22, pp. 101-123. [Y. Den et al. (2007). The Development of an Electronic Dictionary for Morphological Analysis and Its Application to Japanese Corpus Linguistics. Japanese Linguistics, 22, pp. 101-123.]. Derin, M. O. and Harada, T. (2021). "Universal Dependencies for Old Turkish." In Proceedings of the 5th Workshop on Universal Dependencies (UDW, SyntaxFest 2021), pp. 129-141, Sofia, Bulgaria. Association for Computational Linguistics. Graves, A. and Schmidhuber, J. (2005). "Framewise Phoneme Classification with Bidirectional LSTM and Other Neural Network Architectures." Neural Networks: The Official Journal of the International Neural Network Society, 18 (5), pp. 602-610. Kanayama, H., Torisawa, K., Mitsuishi, Y., and Tsujii, J. (2000). "A Hybrid Japanese Parser with Hand-crafted Grammar and Statistics." In Proceedings of COLING 2000 Volume 1: The 18th International Conference on Computational Linguistics (COLING 2000), pp. 411-417, Saarbrücken, Germany. European Language Resources Association. Kayadelen, T., Ozturel, A., and Bohnet, B. (2020). "A Gold Standard Dependency Treebank for Turkish." In Proceedings of the 12th Language Resources and Evaluation Conference (LREC 2020), pp. 5156-5163, Marseille, France. European Language Resources Association. Koiso, H., Amatani, H., Den, Y., Iseki, Y., Ishimoto, Y., Kashino, W., Kawabata, Y., Nishikawa, K., Tanaka, Y., Usuda, Y., and Watanabe, Y. (2022). "Design and Evaluation of the Corpus of Everyday Japanese Conversation." In Proceedings of the 13th Language Resources and Evaluation Conference (LREC 2022), pp. 5587-5594, Marseille, France. European Language Resources Association. 小澤俊介, 内元清貴, 伝康晴 (2014). 長単位解析器の異なる品詞体系への適用. 自然言語処理, 21 (2), pp. 379-401. [S. Kozawa et al. (2014). Adaptation of Long-Unit-Word Analysis System to Different Part-Of-Speech Tagset. Journal of Natural Language Processing, 21 (2), pp. 379-401.]. 工藤拓, 松本裕治 (2002). チャンキングの段階適用による日本語係り受け解析. 情報処理学会 論文誌, 43 (6), pp. 1834-1842. [T. Kudo and Y. Matsumoto (2002). Japanese Dependency Analysis Using Cascaded Chunking. IPSJ Journal, 43 (6), pp. 1834-1842.]. Kudo, T., Yamamoto, K., and Matsumoto, Y. (2004). "Applying Conditional Random Fields to Japanese Morphological Analysis." In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing (EMNLP 2014), pp. 230-237, Barcelona, Spain. Association for Computational Linguistics. Leung, H., Poiret, R., Wong, T.-s., Chen, X., Gerdes, K., and Lee, J. (2016). "Developing Universal Dependencies for Mandarin Chinese." In Proceedings of the 12th Workshop on Asian Language Resources (ALR12), pp. 20-29. The COLING 2016 Organizing Committee. Maekawa, K., Yamazaki, M., Ogiso, T., Maruyama, T., Ogura, H., Kashino, W., Koiso, H., Yamaguti, M., Tanaka, M., and Den, Y. (2014). "Balanced Corpus of Contemporary Written Japanese." Language Resources and Evaluation, 48 (2), pp. 345-371. 松田宽, 大村舞, 浅原正幸 (2022). UD Japanese に基づく国語研長単位解析系の構築. 言語処理学会第 28 回年次大会発表論文集, pp. 1618-1622,オンライン開催. 言語処理学会. [H. Matsuda et al. (2022). UD Japanese ni motozuku Kokugoken Chotani Kaisekikei no Kochiku. Proceedings of the 28th Annual Meeting of the Association for Natural Language Processing, pp. 1618-1622. Online. Association for Natural Language Processing]. 松吉俊, 浅原正幸, 飯田龍, 森田敏生 (2014). 拡張 CaboCha フォーマットの仕様拡張. 第 5 回コー パス日本語学ワークショップ予稿集, pp. 223-232, 東京. 国立国語研究所. [S. Matsuyoshi et al. (2014). RFC: Requirements in Extended CaboCha Formats. Proceedings of the 5th Japanese Corpus Llinguistic Workshop, pp. 223-232, Tokyo. National Institute for Japanese Language and Linguistics.]. McDonald, R., Nivre, J., Quirmbach-Brundage, Y., Goldberg, Y., Das, D., Ganchev, K., Hall, K., Petrov, S., Zhang, H., Täckström, O., Bedini, C., Bertomeu Castelló, N., and Lee, J. (2013). "Universal Dependency Annotation for Multilingual Parsing." In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 92-97, Sofia, Bulgaria. Association for Computational Linguistics. Murawaki, Y. (2019). "On the Definition of Japanese Word." arXiv preprint arXiv:1906.09719. 国立国語研究所 (2006). 日本語話し言葉コーパスの構築法. 国立国語研究所報告. 124 号. 国立国語研究所. [National Institute for Japanese Language and Linguistics (2006). Construction of The Corpus of Spontaneous Japanese. The National Language Research Institute Occasional Papers, No. 124. National Institute for Japanese Language and Linguistics.]. Nivre, J., de Marneffe, M.-C., Ginter, F., Goldberg, Y., Hajič, J., Manning, C. D., McDonald, R., Petrov, S., Pyysalo, S., Silveira, N., Tsarfaty, R., and Zeman, D. (2016). "Universal Depen- dencies v1: A Multilingual Treebank Collection." In Proceedings of the 10th International Conference on Language Resources and Evaluation (LREC'16), pp. 1659-1666, Portorož, Slovenia. European Language Resources Association. 小椋秀樹, 小磯花絵, 冨士池優美, 原裕 (2008). 『現代日本語書き言葉均衡コーパス』形態論情報規程集改定版. 国立国語研究所. 国立国語研究所内部報告書;LR-CCG-07-04, [H. Ogura et al. (2008). Gendai Nihongo Kakikotoba Kinko Kopasu Keitairon Joho Kiteishu Kaiteiban. National Institute for Japanese Language and Linguistics; LR-CCG-07-04.]. Omura, M. and Asahara, M. (2018). "UD-Japanese BCCWJ: Universal Dependencies Annotation for the Balanced Corpus of Contemporary Written Japanese." In Proceedings of the 2nd Workshop on Universal Dependencies (UDW 2018), pp. 117-125, Brussels, Belgium. Association for Computational Linguistics. Petrov, S., Das, D., and McDonald, R. (2012). "A Universal Part-of-Speech Tagset." In Proceedings of the 8th International Conference on Language Resources and Evaluation (LREC 2012), pp. 2089-2096, Istanbul, Turkey. European Language Resources Association. 坂本美保, 川原典子, 久本空海, 高岡一馬, 内田佳孝 (2018). 形態素解析器『Sudachi』のための大規模辞書開発. 言語資源活用ワークショップ 2018 発表論文集, 3 巻, pp. 118-129, 東京. 国立国語研究所. [M. Sakamoto et al. (2018). Large Scale Dictionary Development for Sudachi. Proceedings of Language Resources Workshop 2018, Vol. 3, pp. 118-129, Tokyo. National Institute for Japanese Language and Linguistics]. 佐藤敏紀, 橋本泰一, 奥村学 (2017). 単語分かち書き辞書 mecab-ipadic-NEologd の実装と情報検索における効果的な使用方法の検討. 言語処理学会第 23 回年次大会発表論文集, pp. 875-878,茨城. 言語処理学会. [T. Sato et al. (2017). Tango Wakachigaki Jisho mecab-ipadic-NEologd no Jisso to Joho Kensaku ni okeru Kokateki na Shiyohoho no Kento. Proceedings of the 23rd Annual Meeting of the Association for Natural Language Processing, pp. 875-878, Ibaraki.]. Straka, M., Hajič, J., Straková, J., and Jr, J. H. (2015). "Parsing Universal Dependency Treebanks using Neural Networks and Search-Based Oracle." In Proceedings of 14th International Workshop on Treebanks and Linguistic Theories (TLT 2015), pp. 208-220, Warsaw, Poland. Instytut Podstaw Informatyki PAN. Straka, M. and Straková, J. (2017). "Tokenizing, POS Tagging, Lemmatizing and Parsing UD 2.0 with UDPipe." In Proceedings of the CoNLL 2017 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies, pp. 88-99, Vancouver, Canada. Association for Computational Linguistics. Straková, J., Straka, M., and Hajič, J. (2014). "Open-Source Tools for Morphology, Lemmatization, POS Tagging and Named Entity Recognition." In Proceedings of 52nd Annual Meeting of the Association for Computational Linguistics: System Demonstrations (ACL 2014), pp. 13-18, Baltimore, Maryland. Association for Computational Linguistics. Takaoka, K., Hisamoto, S., Kawahara, N., Sakamoto, M., Uchida, Y., and Matsumoto, Y. (2018). "Sudachi: a Japanese Tokenizer for Business." In Proceedings of the 11th International Conference on Language Resources and Evaluation (LREC 2018), Miyazaki, Japan. European Language Resources Association. Tanaka, T., Miyao, Y., Asahara, M., Uematsu, S., Kanayama, H., Mori, S., and Matsumoto, Y. (2016). "Universal Dependencies for Japanese." In Proceedings of the 10th International Conference on Language Resources and Evaluation (LREC'16), pp. 1651-1658, Portorož, Slovenia. European Language Resources Association. Xia, F. (2000). "The Segmentation Guidelines for the Penn Chinese Treebank (3.0)." Tech. rep., Institute for Research in Cognitive Science. IRCS Technical Reports Series. 安岡孝一 (2022). Transformers と国語研長単位による日本語係り受け解析モデルの製作. 情報処理学会研究報告:第 128 回人文科学とコンピュータ研究発表会研究会報告, 2022CH-128 巻, pp. 1-8, オンライン開催. 情報処理学会. [K. Yasuoka (2022). Transformers to Kokugoken Chotani niyoru Nihongo Kakariuke Kaiseki Moderu no Seisaku. Proceedings of the 128th IPSJ SIG Computers and the Humanities Symposium, 2022-CH-128, pp. 1-8, Online. Information Processing Society of Japan.]. Zeman, D. (2008). "Reusable Tagset Conversion Using Tagset Drivers." In Proceedings of the 6th International Conference on Language Resources and Evaluation (LREC 2008), pp. 213-218, Marrakech, Morocco. European Language Resources Association. ## 付録 ## A 依存構造解析の全体表 本稿で行った実験結果の全体表表 10 を付録として掲載する.この表は本稿の表 6 と表 7 を統合したものである. ## 略歴 大村舞:国立国語研究所プロジェクト非常勤研究員. 若狭絈:国立国語研究所プロジェクト非常勤研究員. 浅原正幸:国立国語研究所・東京外国語大学教授. (2022 年 8 月 1 日受付) (2022 年 10 月 3 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 複数の補助教師データを用いた固有表現抽出の学習手法 渡邊 大貴 ${ }^{\dagger,+\dagger}$ - 市川 智也 ${ }^{\dagger \dagger}$ - 田村 晃裕 ${ }^{\dagger \dagger}$ - 岩倉 友哉 $\dagger$ - 馬 春鵬 $\dagger \cdot$加藤 固有表現抽出 (Named Entity Recognition; NER) は, テキストからの知識獲得に用い られる要素技術の一つであり,たとえば,化学物質や医療の知識抽出に用いられてい る. NER の性能改善のため, 対象タスクの教師データとは別の教師データを補助教師データとして用いる補助学習が提案されている. 従来の補助学習では補助教師デー 夕として 1 種類の教師データしか用いていない. そこで, 本研究では, 複数種類の 教師データを補助教師データとして活用する NER の学習手法 (Multiple Utilization of NER Corpora Helpful for Auxiliary BLESsing; MUNCHABLES) を提案する.具体的には, 補助教師データ毎の補助学習を順次行うことで, 対象タスクのモデル を補助教師データの種類の数だ再学習する方法と, 全種類の教師データを一つの 補助学習で用いる方法の 2 種類の学習手法を提案する。評価実験では, 化学物質名抽出タスクにおいて, 7 種類の化学/科学技術分野の補助教師データを用いて提案手法で学習したモデルの評価を行った. その結果, 提案手法によるモデルはマルチ タスク学習や 1 種類の補助教師データを用いる補助学習手法によるモデルと比べて, 7 種類のデータセットにおける $\mathrm{F} 1$ 値のマイクロ平均, マクロ平均ともに高い性能と なることを確認した。また, s800 のデータセットにおいて従来手法と比較をして最 も高い F1 値を達成した。 キーワード:固有表現抽出,マルチタスク学習,補助学習 ## Auxiliary Learning for Named Entity Recognition with Multiple Auxiliary Training Data Taiki WatanaBE ${ }^{\dagger, \dagger \dagger}$, Tomoya IchikaWa ${ }^{\dagger \dagger}$, Akihiro Tamura ${ }^{\dagger \dagger}$, TOmoya Iwakura ${ }^{\dagger}$ Chunpeng $\mathrm{Ma}^{\dagger}$ and Tsuneo $\mathrm{Kato}^{\dagger \dagger}$ Named entity recognition (NER) is one of the core technologies for knowledge acquisition from text and has been used for knowledge extraction of chemicals, medicine, and so on. As one of the NER improvement approaches, multi-task learning that learns a model from multiple training data has been used. Among multi-task learning, an auxiliary learning method, which uses training data of an auxiliary task for improving its  target task, has shown higher NER performance than conventional multi-task learning for improving all the tasks simultaneously. The conventional auxiliary learning method uses only one auxiliary training dataset. We propose Multiple Utilization of NER Corpora Helpful for Auxiliary BLESsing (MUNCHABLES). MUNCHABLES utilizes multiple training datasets as auxiliary training data by the following methods: the first one is to fine-tune the NER model of the target task by sequentially performing auxiliary learning for each auxiliary training dataset, and the other is to use all training datasets in one auxiliary learning. We evaluate MUNCHABLES on eight chemical/biomedical/scientific domain NER tasks, where seven training datasets are used as auxiliary training data. The experimental results show that our methods achieve higher micro and macro average F1 scores than a conventional auxiliary learning method using one auxiliary training dataset and conventional multi-task learning method. Furthermore, our method achieves the highest F1 score on the s800 dataset. Key Words: Named Entity Recognition, Multi-task Learning, Auxiliary Learning ## 1 はじめに 固有表現抽出 (Named Entity Recognition; NER) は,テキストから固有表現 (Named Entity; NE) や専門用語を抽出する自然言語処理技術の一つであり,様々な場面で用いられている.たとえば,新材料や新薬の開発,材料を用いた製品開発には化学物質に関する知識が必要不可欠であり,NER は,論文や特許で日々報告される化学物質間の相互関係や化学物質の物性値といった情報を構造化し蓄積するための要素技術の一つとして用いられている. NER に関する研究は古くから盛んに行われている。近年では, ニューラルネットワーク (Neural Network; NN) による手法が主流となっており, 再帰的ニューラルネットワーク (Recurrent Neural Network; RNN) と条件付確率場 (Conditional Random Fields; CRF) を組み合わせた Bidirectional LSTM-CRF モデル(BiLSTM-CRF モデル)による手法 (Huang et al. 2015) や Transformer による手法 (Lee et al. 2019) が,NER において高い性能を実現している。また,近年では,対象夕スクの教師データ(メイン教師データ)とは別の教師データも用いるマルチタスク学習により,複数の教師データから特徴量を同時に学習することでモデルの性能が改善することが報告されている (Wang et al. 2019; Crichton et al. 2017; Khan et al. 2020; Mehmood et al. 2020; Wang et al. 2019). 特に,バイオ分野の NER (BioNER) においては,複数のタスクを同時に学習するマルチタスク学習と比較し, 対象タスク以外のタスクを補助タスクとして用いる補助学習を行うことで対象タスクにおいて高い性能を示すことが報告されている (Wang et al. 2019). 補助学習では,対象タスクから作成したメインバッチとそれ以外の教師データから作成した補助バッチを用いて学習を行う。学習時に補助バッチでパラメータを更新し,その後メインバッチでパラメータを更新する。この操作を対象タスクのデータに対する損失が収束するまで繰り返し行う. 本研究では, 先行研究の補助学習が 1 種類の補助教師データしか用いなかったのに対し, 複数の教師データを補助教師データとして用いる手法 (Multiple Utilization of NER Corpora Helpful for Auxiliary BLESsing; MUNCHABLES) を提案する。提案手法では, 複数の補助教師デー 夕を用いることで,より多くの単語や文のパタンを学習する。また,複数の補助教師データを扱う際の学習方法や, 補助教師データの組み合わせ,学習順について,性能向上の観点で検討する.具体的には,補助教師データ毎の補助学習を順次行うことで,対象タスクのモデルを補助教師データの種類の数たけ再学習する方法(MUNCHABLES-スタック手法)と, 全種類の補助教師データを一つの補助学習で用いる方法の 2 種類の学習手法を提案する. 後者の学習方法としては,補助教師データを全て結合させた教師データからランダムにデータ選択して作成したバッチに基づき学習を行う方法(MUNCHABLES-結合手法)と,エポック毎に補助教師デー 夕の種類を変えて学習を行う方法(MUNCHABLES-反復手法)を提案する. 本研究では, 提案手法によるモデルの有効性を計 8 種類の化学/バイオ/科学技術分野の NER タスクで評価した。評価実験より,各タスクにおいて 7 種類の補助教師データを用いる提案手法によるモデルは従来手法によるモデルと比べて, F1 值の平均が向上することを確認した。そして,提案手法によるモ出るは,従来手法と比較して最も高い F1 値を達成した。 ## 2 従来手法 本節では,対象タスクの教師データ以外の教師データも用いる従来のマルチタスク学習手法と補助学習を説明する.2.1 節では,まず本研究のべースモデルとして用いる NER モデルを概説する.そして, 2.2 節では,その NER モデルを複数のタスクで同時に学習するマルチタスク学習に拡張したモデルについて述べる。このマルチタスク学習では, 対象タスクとその他の夕スクは同等に扱われる,2.3節では,対象タスクの性能を上げるために,対象タスクではない夕スクの教師データを補助教師データとして用いる補助学習を説明する。 ## 2.1 シングルタスク学習 本研究では, Huang ら (Huang et al. 2015) により提案された BiLSTM-CRF モデルを NER モデルとして使用する,BiLSTM-CRF モデルは,双方向 LSTM と CRF を用いた系列ラベリングモデルである. BiLSTM-CRF モデルは,まず,双方向 LSTM により,入力文中の各単語の中間表現を算出する. 入力文を $\mathbf{w}=w_{1}, w_{2}, \cdots, w_{N}$, 各単語 $w_{i}$ を埋め込み層でベクトル化した結果を $\mathbf{x}=$ $\mathbf{x}_{1}, \mathbf{x}_{2}, \cdots, \mathbf{x}_{N}$ とすると, 単語 $w_{i}$ の中間表現 $\mathbf{e}_{i}$ を以下のように算出する. $ \overrightarrow{\mathbf{h}_{i}}=L S T M^{(f)}\left(\mathbf{x}_{i}, \overrightarrow{\mathbf{h}_{i-1}}\right) $ $ \begin{gathered} \overleftarrow{\mathbf{h}_{i}}=\operatorname{LST} M^{(b)}\left(\mathbf{x}_{i}, \overleftarrow{\mathbf{h}_{i+1}}\right) \\ \mathbf{h}_{i}=\left[\overrightarrow{\mathbf{h}_{i}} ; \overleftarrow{\mathbf{h}_{i}}\right] \\ \mathbf{e}_{i}=\mathbf{W}^{(\mathbf{e})} \mathbf{h}_{i} \end{gathered} $ ここで, $\rightarrow$ とは,それぞれ,順方向と逆方向を表し, $L S T M^{(f)}$ と $L S T M^{(b)}$ は,それぞれ,順方向と逆方向の LSTM を表す。また, [ $\cdot ; \cdot]$ はベクトルの結合を表す. $\mathbf{W}^{(\mathbf{e})} \in R^{k \times d}$ は重み行列であり,$d$ は隠れ状態ベクトル $\mathbf{h}_{i}$ の次元数, $k$ は識別対象のラベルの数である. その後, 双方向 LSTMにより算出された中間表現 $\mathrm{e}$ を CRF に入力し, ラベル系列を求める. ラべル系列 $\mathbf{y}=\left(y_{1}, y_{2}, \cdots, y_{N}\right)$ に対するスコア関数は, 双方向 $\operatorname{LSTM}$ の出力系列 $\mathbf{e}=\left(\mathbf{e}_{1}, \mathbf{e}_{2}, \cdots, \mathbf{e}_{N}\right)$ をスコア行列に変換した $\mathbf{P}=\left(\mathbf{e}_{1}, \mathbf{e}_{2}, \cdots \mathbf{e}_{N}\right)^{T}$ と遷移スコア行列 $\mathbf{A}$ を用いて次のように定義する. $ \mathrm{s}(\mathbf{e}, \mathbf{y})=\sum_{i=0}^{N} A_{y_{i}, y_{i+1}}+\sum_{i=1}^{N} P_{i, y_{i}} $ ここで, $A_{i, j}$ は $i$ 番目のラベルから $j$ 番目のラベルに遷移するスコアを表す. また, $P_{i, j}$ は $i$ 番目の単語に対応する夕グ $j$ のスコアである。このスコア関数を用いてラベル系列 $\mathbf{y}$ の出力確率を次のように softmax 関数により計算する. $ p(\mathbf{y} \mid \mathbf{w})=\frac{\exp (\mathrm{s}(\mathbf{e}, \mathbf{y}))}{\sum_{\tilde{\mathbf{y}} \in \mathbf{Y}_{\mathbf{w}}} \exp (\mathrm{s}(\mathbf{e}, \tilde{\mathbf{y}}))} $ ここで, $\mathbf{Y}_{\mathrm{w}}$ は入力文 $\mathbf{w}$ に対するすべての可能なラベル系列である. このように, BiLSTM-CRF モデルは, ラベリング問題を各単語に対して独立にモデル化するのではなく, 系列全体で同時にモデル化する. 学習時には正解ラベル系列を用いて次式の損失関数を最小化するパラメータを求める. $ L=-\sum_{(\mathbf{w}, \hat{\mathbf{y}}) \in D} \log (p(\hat{\mathbf{y}} \mid \mathbf{w})) $ ここで, $D$ は教師データである,予測時は,次式のようにスコアを最大化する $\mathbf{y}$ 求めることで出力ラベル系列 $\mathbf{y}^{*}$ を獲得する。 $ \mathbf{y}^{*}=\underset{\tilde{\mathbf{y}} \in \mathbf{Y}_{\mathbf{w}}}{\arg \max } \mathrm{s}(\mathbf{e}, \tilde{\mathbf{y}}) $ BiLSTM-CRF モデルでは,言語モデルを活用することで性能が改善されている. BiLSTMCRF モデルに言語モデルを用いる手法としては, Contextual String Embeddings (CSE) (Akbik et al. 2018) がある.CSE は,大規模なテキストを用いて,文字レべルの BiLSTM を事前学習したものである. CSEで学習されたべクトルは, 式 (1) と式 (2)の $\mathbf{x}_{i}$ の一部に用いられる. 提案手法の MUNCHABLES では, CSE を用いたBiLSTM-CRF モデルを拡張する。 ## 2.2 マルチタスク学習 図 1 にマルチタスク学習用に拡張した BiLSTM-CRF モデルを示す.このマルチタスク学習では, 単語埋め达み層と BiLSTM 層は全ての教師データで共有し, 共通の重みを用いる。一方で, $\mathrm{CRF}$ 層はタスクごとに用意し, $\mathrm{CRF}$ 層の重みは共有しない。各タスクの $\mathrm{CRF}$ 層における損失を $L_{i}(i=1,2, \cdots M)$ とすると, このマルチタスク学習の目的関数は次式のように定義される。 $ L o s s=\frac{1}{M} \sum_{i=1}^{M} L_{i} $ $M$ は教師データの種類数であり, 各 $L_{i}$ は式 (7)のように算出される. このマルチタスク学習手法の学習では, 対象タスクとそれ以外のタスクを同等に扱うことで,全てのタスクで共通の一つのモデルを学習する。学習の収束判定は, 対象タスクの損失のみで行わず,全てのタスクの損失を用いて行う。推論時には,学習したモデルにおいて目的のタスクに該当する CRF 層を用いて NER を行う。 ## 2.3 補助学習 Wang ら (Wang et al. 2019) は, 対象タスクの教師データとそれ以外の教師デー夕(補助教師データ)を区別する補助学習を行うことで,対象タスクに対する NER の性能改善を行った。この補助学習手法の概要を図 1,2 に示す. 補助学習手法では, メイン教師データから作成したメインバッチと補助教師データから作成した補助バッチを用いて学習を行う,イテレーション毎に, 補助バッチでモデルのパラメータを更新し, その後でメインバッチでモデルのパラメータ 図 1 シングルタスク学習, マルチタスク学習と補助学習の概要図 を更新する。このメイン教師データと補助教師データの交互の学習を,メイン教師データに対する損失が収束するまで繰り返す。図 2 において,メインのボックスがメイン教師データを表し, 補助のボックスが補助教師データを表す。この 2 種類の教師データを区別して切り替えながら学習する手法が補助学習手法である。2.2 節のマルチタスク学習手法では対象タスクとそれ以外の教師データを区別せずに同時に学習する点が異なる。 補助学習のアルゴリズムを Algorithm 1 に示す. Algorithm 1 において, 添え字は対象タスク (main) と補助タスク (aux)を表す. EPOCH, ITERATION は,それぞれ,メイン教師デー 夕に対するエポック数とイテレーション数であり,BATCHSIZE はバッチサイズを表す。各エポックのイテレーション回数は,メイン教師データの総数をバッチサイズで割った值である $\left(I T E R A T I O N=\left|D_{\text {main }}\right| / B A T C H S I Z E\right) .4$ 行目と 5 行目の extract は教師データからバッチサイズの数だけデータを抽出することでバッチを作成する関数であり,6行目と 7 行目のtrain はバッチデータに基づき NER モデル Model のパラメータを更新する関数である。また, 8 行目のis_converge は対象タスク $D_{\text {main }}$ に対する損失に基づき学習の終了判定を行う関数である. 図 2 従来の補助学習の概要図 ## 3 提案手法 MUNCHABLES:複数の補助教師データを用いる補助学習 2.3 節で説明した Wang ら (Wang et al. 2019) の補助学習では, 補助教師データとして 1 種類の教師データしか用いていない. 本節では, 複数種類の教師データを補助教師データとして活用する手法を提案する 1 . 3.1 節と 3.2 節では複数の補助教師データを一つの補助学習で用いる手法(MUNCHABLES結合手法と MUNCHABLES-反復手法)を提案し, 3.3 節では, 補助教師データの種類の数だけ補助教師データ毎の補助学習を順次行い BiLSTM-CRF のパラメータを再学習して更新する手法(MUNCHABLES-スタック手法)を提案する.MUNCHABLES 手法では, 2.1 節で述べた通り,CSEの出力をLSTM-CRF の入力として用いる. ## 3.1 MUNCHABLES-結合手法 MUNCHABLES-結合手法は,複数の補助教師データを結合した教師データを一つの補助教師データとみなし, 2.3 節で説明した補助学習を行う手法である.MUNCHABLES-結合手法の概要を図 3, アルゴリズムを Algorithm 2 に示す. 図 3 において, メインのボックスはメイン教師データを示し, 補助のボックスは補助教師データを示している。図 3 の通り, MUNCHABLES結合手法は, 補助 1 , 補助 $2, \cdots$, 補助 M の複数の補助教師デー夕をまとめたデー夕を一つの補助教師データとして用いる. MUNCHABLES-結合手法は, 2.3 節の補助学習手法と同様, メイン教師データから作成したメインバッチと補助教師データから作成した補助バッチを用意する。そして, メイン教師データに対する損失が収束するまで, 補助バッチを用いた学習とメインバッチを用いた学習を交互に繰り返す。従来の補助学習手法との違いは, 複数の補助教師デー 夕を結合した教師データからデータを抽出することで補助バッチを作成する点である。一つの補助バッチには複数種類の補助教師データが混在し得る. 図 3 MUNCHABLES-結合手法の概要図 ^{1}$ Wang ら (Wang et al. 2018) は複数種類のデータをマルチタスク学習で用いているが, 提案手法はメイン教師デー 夕と複数の補助教師データを用いる補助学習である. } ## 3.2 MUNCHABLES-反復手法 MUNCHABLES-反復手法は, エポック毎に補助教師データとして使用する教師データの種類を変える補助学習である.MUNCHABLES-反復手法の概要を図 4,アルゴリズムを Algorithm 3 に示す. MUNCHABLES-反復手法においても,メイン教師データから作成したメインバッチを用いた学習と補助教師データから作成した補助バッチを用いた学習を,メイン教師データに対する損失が収束するまで交互に繰り返す。MUNCHABLES-結合手法との違いは, 補助バッチは特定の補助教師データから作成し, 補助バッチの作成元とする補助教師データはエポック単位で切り替える点である. ## 3.3MUNCHABLES-スタック手法 MUNCHABLES-スタック手法は, 補助教師データ毎の補助学習を順次行うことでBiLSTM のパラメータを学習する。この手法では, 補助教師データの種類の数だけメイン教師データを 図 4 MUNCHABLES-反復手法の概要図 図 5 MUNCHABLES-スタック手法の概要図 用いてメインモデルの再学習を行う. MUNCHABLES-スタック手法の概要を図 5,アルゴリズムを Algorithm 4 に示す. MUNCHABLES-スタック手法では, 特定の補助教師データを用いた補助学習を行う。そして, メイン教師データに対する損失が収束したときに,新しい補助教師データに切り替え,新しい補助教師データを用いて,メインモデルの再学習を行う.MUNCHABLES-結合手法と MUNCHABLES反復手法では,メインモデルの収束判定は一度だけだが,MUNCHABLES-スタック手法では,各補助教師データごとに,1 エポックごとの学習終了時に収束判定を行う. ## 4 実験 ## 4.1 実験設定 本研究では, 8 個の化学/バイオ/科学技術分野の NER タスクで提案手法によるモデルの評 } & Test & Train & Dev & Test & \multicolumn{4}{c}{ アrain } & Pev & Test \\ 表 1 データセット 価を行う.表 1 に各 NER タスクのデータセットを示す。JNLPBA では, 複数の NE の種類が定義されているが, BioBERT (Lee et al. 2019) の実験設定にならい, Gene/Protein のNEのみを使用した.本実験では, 3 節で説明した 3 つの提案手法によるモデル(MUNCHABLES-結合手法による MUNCH.-Conc,MUNCHABLES-反復手法による MUNCH.-Iter,MUNCHABLES-スタック手法による $M U N C H$.-Stack)の性能を,2 節で説明した 3 つの従来手法により学習したモデル (シングルタスク学習による SingleTask, 標準的なマルチタスク学習による MultiTask, 従来の補助学習による SingleAux) の性能と比較することで,提案手法の有効性を検証する. singleAux を学習する際に用いる 1 種類の補助教師データは,対象タスクの開発データに対する性能に基 づき選択した。具体的には,対象タスク以外の 7 種類の教師データをそれぞれ補助教師データとして用いたモデルの中で,開発データで最も性能(F1 值)が高かったモデルを評価データで評価した.従来モデルのMultiTask 及び提案モデルは 8 種類全ての教師データを学習で用いる. ただし,提案モデルは,対象タスク以外の 7 種類の教師データは補助教師データとして用いる. MUNCH.-Iter 及び MUNCH.-Stack の補助教師デー夕は, 固有表現の種類が同じ補助教師デー夕が連続しないように 7 種類の補助教師データをランダムに並び替えて用いた。補助教師データの入力順に関する考察は 4.3 節で行う. 各 NER モデルはオープンフレームワーク FLAIR (Akbik et al. 2019) を拡張して実装した. BiLSTMへの入力である単語埋め込みは, FLAIR で提供されている CSE (Akbik et al. 2018) と FastText (Bojanowski et al. 2017) を使用した. CSEと FastTextの各モデルはともに, PubMed のウェブサイトの医学文献コーパス MEDLINEの要旨より学習したモデルを使用した. MEDLINE の要旨は,約 45 億の単語を含む.BiLSTM 層の次元数は 256 とした。 オプティマイザーは SGD を使用し,スケジューリングにより学習率を調整した。具体的には,エポックごとの損失が 4 回連続してこれまで損失の最低値より小さくならなかったときに,学習率を 2 分の 1 倍にした。 そして,学習率が $1 \mathrm{e}-4$ 以下になったときに学習を終了した. 評価時は,学習を終えたときのモデルを使用した。ハイパーパラメータのチューニングでは,学習率の初期値として 0.1,0.05の 2 通り,バッチサイズとして 16,32 の 2 通りを試した。これらの学習率とバッチサイズを組み合わせた 4 つのモデルを開発データで評価し,一番性能が良いハイパーパラメータの組み合わせを選択した。モデルを評価する際は, 教師データと開発デー 夕を合わせたデータからモデルを学習し,テストデータに対する性能を比較,評価した. NER の評価指標は以下の Rrecision, Recall, F1 值を用いた。 $ \begin{aligned} \text { Precison } & =\frac{T P}{T P+F P} \\ \text { Recall } & =\frac{T P}{T P+F N} \\ \text { F1-score } & =\frac{2 \times \text { Precision } \times \text { Recall }}{\text { Precision }+ \text { Recall }} \end{aligned} $ TP,FP,FNはそれぞれ True Positive,False Positive,False Negative を表す. ## 4.2 実験結果 実験結果を表 2 に示す.表 2 の結果は,初期値を変えて各モデルの実験を 3 回行った平均値である. 表 2 において,「MA. AVG.」と「MI. AVG.」はそれぞれ F1 值のマクロ平均とマイクロ平均を表す。また,太字は各タスクにおいて最も性能が高い值を示している。 表 2 より, SingleAux は SingleTask や MultiTask よりも F1 值のマイクロ平均とマクロ平均が 表 2 実験結果(各データセットの Precision, Recall, F1 値㧍よび F1 値のマクロ平均とマイクロ平均 (\%),F1 値の括弧内の数字は標準偏差. ) 高いことが確認できる。これは, 従来研究で報告されている通り, 対象タスクに着目した補助学習の方が全てのタスクの教師データを同等に扱うマルチタスク学習よりも性能改善に寄与することを示している。また, 表 2 より, MUNCH.-Stack とMUNCH.-Iter は SingleAux よりもF1 値のマクロ平均とマイクロ平均が共に高いことが確認できる。これらの結果より, 教師データが複数ある場合, 提案手法のように補助学習において複数の補助教師データを用いることでNER 性能が改善できることが分かり,提案手法の有効性を実験的に確認できる. また, ベースラインモデルである MultiTask と SingleAux と, 提案手法によるモデル MUNCH.Conc, MUNCH.-Iter, MUNCH.-Stackの比較を行った. 表 3 に提案手法によるモデルとベースラインモデルの F1 値の差を示す. そして,検定として,単語に割り当てられたラベルの一致および不一致に基づくマクネマー検定を行った (Sha and Pereira 2003). この検定は, 各モデルにおいて F1 值が最大となった実験結果に対して行った. 表 3 内で太字で表しているものは, マクネマー検定の結果, 提案手法によるモデルの結果がベースラインモデルの結果と比較して, $p<0.05$ で有意であるものである. ベースラインモデルとの F1 値の差が大きい, BC5CDR-Disease や BC5CDRChem といったデータセットでは有意差があった. BC5CDR-Disease や BC5CDR-Chem といっ & & & & BC2GM & JNLPBA & & s800 \\ 表 3 提案手法によるモデルとべースラインモデルの $\mathrm{F}$ 値の差. 太字は, マクネマー検定を行った結果,提案手法によるモデルがベースラインモデルより,$p<0.05$ で有意であるものを示している. た対象タスクのアノテーション数が少ない場合,複数の補助教師データを使用することで性能の改善を行うことができる.提案手法によるモデルとベースラインモデルとの間で $\mathrm{F} 1$ 値の差が小さい JNLPBA では, どの提案手法のモデルでも有意差は確認できなかった. JNLPBA は,本実験において最も学習データのアノテーション数が多いデータセットであるため, 対象タスクのデータが十分である場合, 提案手法の効果は小さいと考えられる. ## 4.3 補助教師データの入力順に関する考察 MUNCH.-Iter と MUNCH.-Stack の性能は, 補助教師デー夕の使用順 (Algorithm 3 や 4 の $D_{a u x}^{(1)}$, $D_{a u x}^{(2)}, \cdots 」 )$ に影響を受ける可能性がある。本節では補助教師デー夕の使用順が NER 性能に与える影響を考察する。 4.2 節の実験では, MUNCH.-Iter 及び MUNCH.-Stack の補助教師デー夕は, 固有表現の種類が同じ補助教師データが連続しないようにランダムに並び替えた。しかし,MUNCH.-Iter および MUNCH.-Stackでは,メインモデルの学習終了時点に近い補助教師データほど大きな影響を持つ可能性がある. そこで, MUNCH.-Iter や MUNCH.-Stackにおいて, 対象タスクの性能改善に寄与する度合いの小さい順に補助教師データを並べて用いた場合の性能を評価する.以降では,それらのモデルを MUNCH.-Iter (sort)と MUNCH.-Stack (sort)と表記する。具体的には, MUNCH.-Iter (sort) と MUNCH.-Stack (sort) では, まず,各補助教師デー夕単体で従来の補助学習を行ったモデルの開発データに対する性能を評価する。そして, その性能の昇順で補助教 例として,CHEMDNER タスクにおける MUNCH.-Iter (sort)と MUNCH.-Stack (sort) の補助教師データの並び順の決め方について説明する.表 4 に,各 NER タスクの教師データを用いた場合の SingleAux の CHEMDNER 開発データにおける性能を示す。ハイパーパラメータは全ての組み合わせで評価する。この SingleAuxの性能に基づき,ハイパーパラメータの各組み合わせで MUNCH.-Iter (sort) と MUNCH.-Stack (sort)の CHEMDNER 開発デー夕における性能を評価する,具体的には,同じハイパーパラメータの設定で,SingleAux の性能が低い順に補助教師データを用いて MUNCH.-Iter (sort)やMUNCH.-Stack (sort)を評価する。その結果,表 4 より, MUNCH.-Iter (sort) ではバッチサイズが 32 , 学習率が 0.1 , 補助教師デー夕の使用順は「JNLPBA $\rightarrow$ BC2GM $\rightarrow$ BC5CDR-Disease $\rightarrow$ s800 $\rightarrow$ BC5CDR-Chem $\rightarrow$ LINNAEUS $\rightarrow$ NCBI-Disease」となる。また, MUNCH.-Iter (sort)ではバッチサイズが 16 , 学習率が 0.05 , 補助教師データの使用順は「s $800 \rightarrow$ JNLPBA $\rightarrow$ BC5CDR-Disease $\rightarrow$ BC2GM $\rightarrow$ NCBI-Disease $\rightarrow$ LINNAEUS $\rightarrow$ BC5CDR-Chem」となる. 各テストデータにおける MUNCH.-Iter, MUNCH.-Iter (sort), MUNCH.-Stack, MUNCH.-Stack (sort)の性能を表 5 に示す. 表 5 より,MUNCH.-Iter (sort)の F1 値のマクロ平均と MUNCH.Stack (sort)の F1 值のマイクロ平均及びマクロ平均はそれぞれ MUNCH.-Iter と MUNCH.-Stack より低いが,MUNCH.-Iter (sort)は MUNCH.-Iter よりも高い F1 値のマイクロ平均を獲得できたことが分かる。この結果より, MUNCH.-Iter とMUNCH.-Stackの性能は補助教師デー夕の使用順序に影響を受け,対象タスクの開発データにおける SingleAuxの性能の昇順で補助教師デー 夕を使うことで, いくつかの NER タスクでは性能改善できることが分かった. しかし, 補助教師データをソートすることにより性能を改善できないNER タスクも多い.これは,開発デー 夕とテストデータの傾向の違いが原因の一つであると考えられる. 表 4 CHEMDNER タスクにおける MUNCH.-Iter (sort) とMUNCH.-Stack (sort) の補助教師データの使用順及びハイパーパラメータのチューニング(CHEMDNER 開発データにおける F1 値 (\%)) } & \multicolumn{2}{c|}{ MUNCH.-Iter } & \multicolumn{2}{c}{ MUNCH.-Stack } \\ \cline { 2 - 5 } & 無 (ランダム) & 有 & 無(ランダム) & 有 \\ BC5CDR Disease & 86.86 & $\mathbf{8 6 . 9 1}$ & $\mathbf{8 6 . 8 2}$ & 86.78 \\ BC5CDR Chem & $\mathbf{9 4 . 3 5}$ & 94.25 & 94.3 & $\mathbf{9 4 . 5 2}$ \\ CHEMDNER & 92.13 & $\mathbf{9 2 . 2 4}$ & 92.3 & $\mathbf{9 2 . 3 2}$ \\ BC2GM & 83.48 & $\mathbf{8 3 . 6 2}$ & 83.67 & $\mathbf{8 3 . 7 6}$ \\ JNLPBA & $\mathbf{7 7 . 8 4}$ & 77.31 & $\mathbf{7 7 . 6 6}$ & 77.14 \\ LINNAEUS & $\mathbf{8 8 . 9}$ & 88.76 & 88.76 & $\mathbf{8 8 . 8 2}$ \\ s800 & $\mathbf{7 7 . 1 4}$ & 76.72 & $\mathbf{7 6 . 5 2}$ & 76.51 \\ MI. AVG. & 88.62 & $\mathbf{8 8 . 6 6}$ & $\mathbf{8 8 . 5 6}$ & 88.54 \\ 表 5 補助教師データの順序の違いによる性能差 表 6 対象タスクの教師データと補助教師データとの単語の一致率 (BC5CDR-Chem と BC5CDR-Disease は同じテキストに対してラベル付けを行ったものであるため省略した. ) 表 6 に対象タスクの教師データと補助教師データとの単語の一致率を示す。これは, 対象タスクの教師データに出現する単語が, 補助教師データ内に出現する割合を表している. JNLPBA, LINNAEUS, s800, NCBI-disease は, 対象タスクの教師データ中の単語が補助教師データ内に出現する割合が高いデータセットである。このうち NCBI-disease を除いたデータセットでは,補助教師データをソートしない手法によるモデルが補助教師データをソートする手法によるモデルより F1 値が高い. 一方, BC4CHEMD や BC2GM は, 対象タスクの教師データ中の単語が, 補助教師データ内に出現する割合が低いデータセットである。これらのデータセットでは,補助教師データをソートする手法によるモデルが高性能である。これらのことから, 補助教師データと対象タスクの教師データの一致率が低いものは,対象タスクの性能改善に寄与する度合いの小さい順に補助教師データを並べることで,性能が高くなる傾向があることが分かる. ## 5 関連研究 ## 5.1 従来研究の結果との比較 本節では,提案の MUNCHABLES 手法によるモデルの性能と従来研究で報告されている性能を比較する ${ }^{2}$. 表 7 に比較結果を示す。また, 表 8 に比較結果の概要として, 本研究の評価実験で用いた NER タスクと従来研究で用いられている NER タスクで共通するタスクに対する F1 値のマクロ平均を示す. 表 8 の太字は提案手法によるモデルの $\mathrm{F} 1$ 値が従来手法の結果よりも高いことを示す. 表 7 と表 8 より, 提案の MUNCHABLES 手法によるモデルは全体的に従来の結果と同等かよりよい NER 性能を達成できていることが分かる. HanPaNE と MUNCHABLES が LSTM であるのに対し, 他の手法は Transformer に基づく事前学習を用いている。表 2 の SingleTask(F1 値のマクロ平均 85.64)と表 8 の BioBERT(F1 & & & CHEMDNER & BC2GM & JNLPBA & LINNAEUS & s800 \\ SingleAux (reimpl) & 88.77 & 86.16 & 94.37 & 92.25 & 83.11 & 77.12 & 88.6 & 76.85 \\ HanPaNE & - & - & - & $\mathbf{9 2 . 5 7}$ & - & - & - & - \\ SciBERT & 88.57 & - & - & - & - & 77.28 & - & - \\ BioMegatron & 87.0 & 88.5 & 92.5 & - & - & - & - & - \\ SciFive & 88.46 & 87.62 & $\mathbf{9 4 . 6 1}$ & 91.56 & 83.57 & 77.55 & - & 76.33 \\ PubMedBERT (PubMed) & 87.82 & 85.62 & 93.33 & - & $\mathbf{8 4 . 5 2}$ & 79.10 & - & - \\ PubMedBERT (+PMC) & 88.04 & 85.76 & 93.34 & - & 84.37 & $\mathbf{7 9 . 1 6}$ & - & - \\ MUNCH.-Iter & 88.55 & 86.82 & 94.35 & 92.13 & 83.48 & 77.84 & 89.0 & $\mathbf{7 7 . 1 4}$ \\ MUNCH.-Stack & 87.67 & 86.82 & 94.29 & 92.3 & 83.67 & 77.66 & 88.76 & 76.52 \\ 表 7 従来研究の結果との比較 (F1 值 $(\%)$ ) } \\ 表 8 従来研究の結果との比較の概要(F1 值のマクロ平均 (\%). 共通タスクを対象. )  1$ 值のマクロ平均が最も高いモデルの性能と比較する。 } 值のマクロ平均 85.99)との比較から,今回の評価で用いたデータセットでは, Transformerに基づく事前学習モデルを用いる方が全般的に高い性能を示すことが確認できる.しかしながら, MUNCHABLES によって, LSTM に基づくモデルであっても,今回の評価デー夕において,高いF1值が得られる場合があることがわかる. なお, MUNCHABLES は従来研究と組み合わせることが可能であり,また,今後提案される事前学習モデルに適用することで,更なる性能改善が期待できる,以降,各手法との比較を述ベる. - BioBERT (Lee et al. 2019) はバイオ分野のテキストで事前学習した BERT に基づくモデルである. 本研究では, PubMed と PMC から事前学習した BioBERT v1.0 と提案モデルを比較した, BioBERTの F1 値のマクロ平均は 85.99 なのに対して, 提案の $M U N C H .-$ Iterの F1 值のマクロ平均は 86.16, MUNCH.-Stackの F1 值のマクロ平均は 85.96 であり, MUNCH.-Iter は BioBERT よりも高い性能を実現できた。 - HanPaNE (Watanabe et al. 2019) は, マルチタスク学習により, LSTM に基づく化合物名の言い換えモデルと同時学習する BiLSTM-CRF NER モデルである. HanPaNE は CHEMDNER タスクでしか評価されていないが, CHEMDNER タスクでは最高性能である 92.57 の F1 値を達成している。 MUNCH.-Stack及び MUNCH.-Iter は HanPaNE よりも性能が低い。しかし, 提案手法と HanPaNE のマルチタスク学習の枠組みは相補的であるため,組み合わせることでより高い性能を達成できる可能性がある. - SciBERT (Beltagy et al. 2019) は科学技術分野のテキストで事前学習した BERT に基づくモデルである. SciBERT は NCBI-Diseases と JNLPBAタスクで評価されており,それらの F1 值のマクロ平均は 82.93 である。 MUNCH.-Iterはそれら 2 つのタスクで SciBERT より高い $\mathrm{F} 1$ 値のマクロ平均 (83.19) を達成している. - BioMegatron (Shin et al. 2020) は Megatron-LM (Shoeybi et al. 2020) と呼ばれる Transformerに基づく言語モデルをバイオ分野に適応したモデルである. BioMegatron は NCBIDisease, BC5CDR Disease, BC5CDR Chem の 3つの NER タスクで評価されており,50k のバイオ分野の語彙と $345 \mathrm{~m}$ のパラメータを用いた BioMegatron の F1 値のマクロ平均は 89.33 である。一方, MUNCH.-Iter と MUNCH.-Stackの F1值のマクロ平均はそれぞれ 89.91 と 89.59 であり, BioMegatronよりも高い値を実現した. - SciFive (Phan et al. 2021) は大規模なバイオ医療分野のコーパスから事前学習した Textto-Text Transfer Transformer (T5) (Raffel et al. 2020)に基づくモデルである. SciFive は本研究で用いた 8 つのタスクの内,LINNAEUS を除いた 7 つのタスクで評価されており, NER タスクのF1 值のマクロ平均が最も良い PMC から事前学習した SciFive (PMC) Large のマクロ平均 F1 值は 85.67 である. 一方, MUNCH.-Iter の F1 值のマクロ平均は 85.76 であり,SciFive より高い性能を実現した. - PubMedBERT (Gu et al. 2021) は, バイオ分野のテキストだけを用いて一から事前学習した BERT モデルである. PubMedBERT (PubMed) は PubMed だけ, PubMedBERT (+PMC) は PubMed に加えて PMC を事前学習に用いている.これらの事前学習を基に NCBI-Disease, BC5CDR Disease, BC5CDR Chem, BC2GM, JNLPBA の固有表現抽出タスクで評価を行っている. PubMedBERT (PubMed) に基づく固有表現抽出器の F1 値のマクロ平均は 86.08 , PubMedBERT (+PMC) に関しては, 86.13 と報告されている. MUNCH.-Stack は, PubMedBERT (PubMed)に基づく固有表現抽出器と同等の性能を示している。また, MUNCH.-Iterは, PubMedBERT (+PMC) より高い性能を示している. ## 5.2 マルチタスク学習 マルチタスク学習は,NER を含めて様々な自然言語処理タスクの性能を向上させるために利用されている (Liu et al. 2015; Luong et al. 2016; Dong et al. 2015; Hashimoto et al. 2017; Liu et al. 2018). Rei (Rei 2017) は言語モデルを用いた系列ラベリングのマルチタスク学習手法を提案した. Aguilar ら (Aguilar et al. 2018)や Cao ら (Cao et al. 2018) は NER と単語分割のマルチタスク学習を提案した. Clarkら (Clark et al. 2018) は品詞付与や構文解析などのいくつかの自然言語処理タスクとNERのマルチタスク学習を提案した. Crichton (Crichton et al. 2017) や Wang ら (Wang et al. 2018) は化学医療のいくつかの自然言語処理タスクとのマルチタスク学習により NER の性能を改善した. Watanabe ら (Watanabe et al. 2019) は化合物名の言い換えとNERのマルチタスク学習を提案した。また, マルチタスクのためのサンプリング手法も提案されている. Guoら (Guo et al. 2019) は, Beta-Bernoulli multi-armed bandit with Thompson Sampling に基づいて最も有効と判断される補助タスクを選択する. Kung ら (Kung et al. 2021) は, 対象タスクとの類似度に基づいて,補助タスクを選択する手法を提案している。これらの手法は,異なる夕スクを用いてマルチタスク学習を行っているが,MUNCHABLES では,同じタスクの異なる教師データを用いて補助学習を行う点が異なる. また, Daume (Daumé III 2007), Peng ら (Peng and Dredze 2017), Yang ら (Yang et al. 2017) のように同じタスクで分野が異なるデータを用いて学習を行う分野適応がある. MUNCHABLES は, 複数の補助教師データを切り替えながら学習する点がこれらの手法とは異なる。これにより, 補助教師データの入力順を変更することができ, 補助教師データと教師データの単語の一致率が低いものは, 図 5 のように性能改善を行うことができる. ## 6 おわりに 本研究では, 複数の補助教師データを活用する NER の補助学習手法 MUNCHABLES を提案した。学習方法として, (i) 複数の補助教師データを結合したデータを一つの補助教師デー夕と みなして補助学習を行う MUNCHABLES-結合モデル,(ii) エポックごとに補助教師データを変えて補助学習を行う MUNCHABLES-反復モデル, (iii) 補助教師デー夕毎の補助学習を順次行い補助教師データの種類の数だけメインモデルの再学習を行う MUNCHABLES-スタックモデルを提案した.化学/バイオ/科学技術分野のデータセットを用いた評価実験を通じて,提案手法で学習したモデルは従来のマルチタスク学習手法によるモデルや一つの補助教師データしか用いない従来の補助学習手法によるモデルよりも高い平均 $\mathrm{F} 1$ 値を実現できることを確認し, s800 のデータセットにおいて最も高い F1 值を達成した,今後の課題として,他のデータセットや,Transfomerに基づく事前学習を用いた評価,NER 以外の自然言語処理タスクでの提案手法の有効性の確認が挙げられる。 ## 参考文献 Aguilar, G., López Monroy, A. P., González, F., and Solorio, T. (2018). "Modeling Noisiness to Recognize Named Entities using Multitask Neural Networks on Social Media." In Proceedings of the 2018 Conference of the NAACL-HLT, Volume 1 (Long Papers), pp. 1401-1412. Akbik, A., Bergmann, T., Blythe, D., Rasul, K., Schweter, S., and Vollgraf, R. (2019). "FLAIR: An Easy-to-Use Framework for State-of-the-Art NLP." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 54-59. Akbik, A., Blythe, D., and Vollgraf, R. (2018). "Contextual String Embeddings for Sequence Labeling." In Proceedings of the 27th International Conference on Computational Linguistics, pp. 1638-1649. Beltagy, I., Lo, K., and Cohan, A. (2019). "SciBERT: A Pretrained Language Model for Scientific Text." In Proceedings of the 2019 EMNLP-IJCNLP, pp. 3615-3620. Association for Computational Linguistics. Bojanowski, P., Grave, E., Joulin, A., and Mikolov, T. (2017). "Enriching Word Vectors with Subword Information." Transactions of the Association for Computational Linguistics, 5, pp. 135-146. Cao, P., Chen, Y., Liu, K., Zhao, J., and Liu, S. (2018). "Adversarial Transfer Learning for Chinese Named Entity Recognition with Self-Attention Mechanism." In Proceedings of the 2018 EMNLP, pp. 182-192. Clark, K., Luong, M.-T., Manning, C. D., and Le, Q. (2018). "Semi-Supervised Sequence Modeling with Cross-View Training." In Proceedings of the 2018 EMNLP, pp. 1914-1925. Asso- ciation for Computational Linguistics. Crichton, G., Pyysalo, S., Chiu, B., and Korhonen, A. (2017). "A Neural Network Multi-task Learning Approach to Biomedical Named Entity Recognition." BMC Bioinformatics, 18 (1). 368 . Daumé III, H. (2007). "Frustratingly Easy Domain Adaptation." In Proceedings of the 45th Annual Meeting of the Association of Computational Linguistics, pp. 256-263, Prague, Czech Republic. Association for Computational Linguistics. Doğan, R. I., Leaman, R., and Lu, Z. (2014). "NCBI Disease Corpus: A Resource for Disease Name Recognition and Concept Normalization." Journal of Biomedical Informatics, 47, pp. $1-10$. Dong, D., Wu, H., He, W., Yu, D., and Wang, H. (2015). "Multi-Task Learning for Multiple Language Translation." In Proceedings of the 53rd ACL and the 7th IJCNLP (Volume 1: Long Papers), pp. 1723-1732. Gerner, M., Nenadic, G., and Bergman, C. M. (2010). "LINNAEUS: A Species Name Identification System for Biomedical Literature." BMC Bioinformatics, 11 (1), pp. 1-17. Gu, Y., Tinn, R., Cheng, H., Lucas, M., Usuyama, N., Liu, X., Naumann, T., Gao, J., and Poon, H. (2021). "Domain-Specific Language Model Pretraining for Biomedical Natural Language Processing." ACM Transactions of Computing for Healthcare, 3 (1). Guo, H., Pasunuru, R., and Bansal, M. (2019). "AutoSeM: Automatic Task Selection and Mixing in Multi-Task Learning." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3520-3531. Association for Computational Linguistics. Hashimoto, K., Xiong, C., Tsuruoka, Y., and Socher, R. (2017). "A Joint Many-Task Model: Growing a Neural Network for Multiple NLP Tasks." In Proceedings of the 2017 EMNLP, pp. 1923-1933. Huang, Z., Xu, W., and Yu, K. (2015). "Bidirectional LSTM-CRF Models for Sequence Tagging." arXiv preprint arXiv:1508.01991. Khan, M. R., Ziyadi, M., and AbdelHady, M. (2020). "Mt-bioner: Multi-task Learning for Biomedical Named Entity Recognition using Deep Bidirectional Transformers." arXiv preprint arXiv:2001.08904. Kim, J.-D., Ohta, T., Tsuruoka, Y., Tateisi, Y., and Collier, N. (2004). "Introduction to the Bioentity Recognition Task at JNLPBA." In Proceedings of the International Joint Workshop on Natural Language Processing in Biomedicine and Its Applications, pp. 70-75. Citeseer. Krallinger, M., Rabal, O., Leitner, F., Vazquez, M., Salgado, D., Lu, Z., Leaman, R., Lu, Y., Ji, D., Lowe, D. M., et al. (2015). "The CHEMDNER Corpus of Chemicals and Drugs and Its Annotation Principles." Journal of Cheminformatics, 7 (1), pp. 1-17. Kung, P.-N., Yin, S.-S., Chen, Y.-C., Yang, T.-H., and Chen, Y.-N. (2021). "Efficient MultiTask Auxiliary Learning: Selecting Auxiliary Data by Feature Similarity." In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 416-428. Association for Computational Linguistics. Lee, J., Yoon, W., Kim, S., Kim, D., Kim, S., So, C. H., and Kang, J. (2019). "BioBERT: A Pre-trained Biomedical Language Representation Model for Biomedical Text Mining." Bioinformatics, 36 (4), pp. 1234-1240. Li, J., Sun, Y., Johnson, R. J., Sciaky, D., Wei, C.-H., Leaman, R., Davis, A. P., Mattingly, C. J., Wiegers, T. C., and Lu, Z. (2016). "BioCreative V CDR Task Corpus: A Resource for Chemical Disease Relation Extraction." Database, 2016. Liu, L., Shang, J., Ren, X., Xu, F., Gui, H., Peng, J., and Han, J. (2018). "Empower Sequence Labeling with Task-Aware Neural Language Model." In AAAI, pp. 5253-5260. Liu, X., Gao, J., He, X., Deng, L., Duh, K., and Wang, Y.-Y. (2015). "Representation Learning Using Multi-Task Deep Neural Networks for Semantic Classification and Information Retrieval." In Proceedings of the 2015 NAACL-HLT, pp. 912-921. Luong, M.-T., Le, Q. V., Sutskever, I., Vinyals, O., and Kaiser, L. (2016). "Multi-task Sequence to Sequence Learning." In Proceedings of the 2016 ICLR. Mehmood, T., Gerevini, A. E., Lavelli, A., and Serina, I. (2020). "Combining Multi-task Learning with Transfer Learning for Biomedical Named Entity Recognition." Procedia Computer Science, 176, pp. 848-857. Pafilis, E., Frankild, S. P., Fanini, L., Faulwetter, S., Pavloudi, C., Vasileiadou, A., Arvanitidis, C., and Jensen, L. J. (2013). "The SPECIES and ORGANISMS Resources for Fast and Accurate Identification of Taxonomic Names in Text." PLoS One, 8 (6). e65390. Peng, N. and Dredze, M. (2017). "Multi-task Domain Adaptation for Sequence Tagging." In Proceedings of the 2nd Workshop on Representation Learning for NLP, pp. 91-100, Vancouver, Canada. Association for Computational Linguistics. Phan, L. N., Anibal, J. T., Tran, H., Chanana, S., Bahadroglu, E., Peltekian, A., and AltanBonnet, G. (2021). "SciFive: A Text-to-Text Transformer Model for Biomedical Literature." CoRR, abs/2106.03598. Raffel, C., Shazeer, N., Roberts, A., Lee, K., Narang, S., Matena, M., Zhou, Y., Li, W., and Liu, P. J. (2020). "Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer." Journal of Machine Learning Research, 21 (140), pp. 1-67. Rei, M. (2017). "Semi-supervised Multitask Learning for Sequence Labeling." In Proceedings of the 55th ACL (Volume 1: Long Papers), pp. 2121-2130. Association for Computational Linguistics. Sha, F. and Pereira, F. (2003). "Shallow Parsing with Conditional Random Fields." In Proceedings of the North American Chapter of the Association for Computational Linguistics, pp. 134-141. Shin, H.-C., Zhang, Y., Bakhturina, E., Puri, R., Patwary, M., Shoeybi, M., and Mani, R. (2020). "BioMegatron: Larger Biomedical Domain Language Model." In Proceedings of the 2020 EMNLP, pp. 4700-4706. Association for Computational Linguistics. Shoeybi, M., Patwary, M., Puri, R., LeGresley, P., Casper, J., and Catanzaro, B. (2020). "Megatron-LM: Training Multi-Billion Parameter Language Models Using Model Parallelism." arXiv preprint arXiv:1909.08053. Smith, L., Tanabe, L. K., nee Ando, R. J., Kuo, C.-J., Chung, I.-F., Hsu, C.-N., Lin, Y.-S., Klinger, R., Friedrich, C. M., Ganchev, K., et al. (2008). "Overview of BioCreative II Gene Mention Recognition." Genome biology, 9 (2), pp. 1-19. Wang, X., Lyu, J., Dong, L., and Xu, K. (2019). "Multitask Learning for Biomedical Named Entity Recognition with Cross-sharing Structure." BMC Bioinformatics, 20 (1), pp. 1-13. Wang, X., Zhang, Y., Ren, X., Zhang, Y., Zitnik, M., Shang, J., Langlotz, C., and Han, J. (2018). "Cross-type Biomedical Named Entity Recognition with Deep Multi-task Learning." Bioinformatics. bty869. Wang, X., Zhang, Y., Ren, X., Zhang, Y., Zitnik, M., Shang, J., Langlotz, C., and Han, J. (2019). "Cross-type Biomedical Named Entity Recognition with Deep Multi-task Learning." Bioinformatics, 35 (10), pp. 1745-1752. Watanabe, T., Ichikawa, T., Tamura, A., Iwakura, T., Ma, C., and Kato, T. (2022). "Auxiliary Learning for Named Entity Recognition with Multiple Auxiliary Biomedical Training Data." In Proceedings of the 21st Workshop on Biomedical Language Processing, pp. 130-139. Association for Computational Linguistics. Watanabe, T., Tamura, A., Ninomiya, T., Makino, T., and Iwakura, T. (2019). "Multi-Task Learning for Chemical Named Entity Recognition with Chemical Compound Paraphrasing." In Proceedings of the 2019 EMNLP-IJCNLP, pp. 6244-6249. Association for Computational Linguistics. Yang, Z., Salakhutdinov, R., and Cohen, W. W. (2017). "Transfer Learning for Sequence Tagging with Hierarchical Recurrent Networks." In 5th International Conference on Learning Representations, ICLR 2017, Toulon, France, April 24-26, 2017, Conference Track Proceedings. OpenReview.net. ## 略歴 渡邊大貴:2017 年愛媛大学工学部情報工学科卒業. 2019 年同大学院理工学研究科修士課程修了. 2022 年より同志社大学大学院理工学研究科博士課程に在学. 2019 年(株)富士通研究所入社. 現在,富士通株式会社に在籍. 市川智也 : 2021 年同志社大学理工学部インテリジェント情報工学科卒業. 2023 年同大学院理工学研究科修士課程修了. 同年より楽天グループ株式会社入社. 田村晃裕:2005 年東京工業大学工学部情報工学科卒業. 2007 年同大学院総合理工学研究科修士課程修了. 2013 年同大学院総合理工学研究科博士課程修 了. 日本電気株式会社, 国立研究開発法人情報通信研究機構にて研究員として務めた後, 2017 年より愛媛大学大学院理工学研究科助教. 2020 年より同志社大学理工学部准教授となり, 現在に至る. 博士 (工学). 情報処理学会, 言語処理学会, 人工知能学会, ACL 各会員. 岩倉友哉:2003 年株式会社富士通研究所入社. 2011 年東京工業大学大学院総合理工学研究科物理情報システム専攻博士課程修了. 博士 (工学)。自然言語処理の研究開発に従事. 現在,富士通株式会社シニアリサーチマネージャー,奈良先端科学技術大学院大学客員教授. 情報処理学会, 言語処理学会各会員. 馬春鵬: Chunpeng Ma is currently a researcher in Megagon Labs, Tokyo. He received his B.E., M.E., Ph. D from Harbin Institute of Technology in 2010 2014, 2020, respectively. Since 2020, he has been working as a researcher in Fujitsu Laboratory, Japan. His research interests include machine translation, syntactic parsing, dialogue generation, and multimodal artificial intelligence. He is a member of the Association for Natural Language Processing in Japan.加藤恒夫:1994 年東京大学工学部電子工学科卒業. 1996 年同大学工学系大学院電子工学専攻博士前期課程修了。同年,国際電信電話株式会社入社.KDD 研究所, KDDI 研究所を経て, 2015 年より同志社大学理工学部. 現在同志社大学理工学部教授. 博士 (情報理工学). 言語処理学会, 情報処理学会, 電子情報通信学会, 日本音響学会, 日本音声学会, ヒューマンインターフェー 入学会, ACM, IEEE 各会員. (2022 年 8 月 1 日受付) (2023 年 1 月 8 日再受付) (2023 年 2 月 17 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 文書単位関係抽出における抽出済みの関係候補を辺とした 関係グラフの辺編集 牧野 晃平 $\dagger \cdot$ 三輪 誠 $\dagger$ ・佐々木 裕 $\dagger$ } 本研究では, 文書中の用語間の関係を抽出する文書単位関係抽出において, 既存の 抽出手法に対して関係間の相互作用を考慮するために, 用語を節点, 抽出済みの関係候補を辺とする関係グラフを構築し,その関係グラフの辺を編集する逐次的な辺編集モデルを提案する。近年,文書単位関係抽出の研究では,深層学習モデルが利用されている。しかしながら,複数のモデルを組み合わせる方法は明確ではなく,研究ごとに実装方法も異なるため, 付加的に新たな観点を導入するのは難しい. そ こで,異なる観点として関係間の相互作用を考慮できるように,既存手法で抽出済 みの関係候補を編集するタスクを提案する。材料合成手順コーパスにおいて,関係 がついていない状態から編集すると $\mathrm{F}$ 值 $79.4 \%$ の性能の逐次的な辺編集モデルで, ルールベース抽出器の出力を編集すると, 性能は $80.5 \%$ から $86.6 \%$ に向上した。一方で, 時間関係抽出の標準的なべンチマークである MATRES コーパスで最先端の 深層学習モデルの抽出結果を編集して評価した場合では性能は向上しなかった. こ れらの差を解析したところ, 編集するモデル単体で抽出可能な関係と編集前の関係 が異なることが性能の向上に寄与する大きな要因であることを明らかにした. キーワード:文書単位関係抽出,関係グラフ,辺編集 ## Editing Relation Candidate Edges of Relation Graphs for Document-Level Relation Extraction \author{ Kohel MaKino $^{\dagger}$, Makoto Miwa $^{\dagger}$ and Yutaka Sasaki ${ }^{\dagger}$ } This paper proposes a sequential edge-editing model for the document-level relation extraction that edits edges in a relation graph, where nodes are entities and edges are the output relations as candidates, to consider the interaction among relations. Deep learning models have been mainstream in recent document-level relation extraction research. However, adding new features to the model is difficult because there is no straightforward method for combining multiple models, and their implementation is different. To tackle this, we introduce the task of editing the relation candidates extracted by existing methods to take into account the interactions among relations. For the material synthesis procedure corpus, our proposed model revised the output  of the rule-based extractor from $80.5 \%$ to $86.6 \%$ on F-scores, where a sequential edgeediting model performed $79.4 \%$ when extracting from scratch. On the other hand, performance did not improve for the MATRES corpus, the standard benchmark for temporal relation extraction, when the model edited the output of the state-of-the-art deep learning models. Analysis of these differences revealed that the significant factor contributing to the performance improvement is the difference between the extractable relations in the editing model from scratch and the relations before editing. Key Words: Document-level Relation Extraction, Relation Graph, Edge Editing ## 1 序論 ニュース記事や論文などの自然言語で記述された情報は構造化されていないため,記述された情報を認識しなければ情報として利用できない。これを解決するために,文章中の情報を計算機で扱いやすい形式に構造化する情報抽出の研究が盛んに行われている (Hendrickx et al. 2010; UzZaman et al. 2013; Yamaguchi et al. 2020)。情報抽出の中でも,文章中の用語間の関係性を認識する関係抽出は, 網羅的に情報を扱うことができるため, 盛んに研究されている (Hendrickx et al. 2010; Zhang et al. 2017). 近年の研究では, 深層学習の台頭によって, 今まで文内の用語間の関係性しか扱えなかった状況から,文をまたいだ用語同士の関係性を対象とした文書単位関係抽出への拡張が進んでいる (Li et al. 2016; Yao et al. 2019). 以前の関係抽出の研究の多くでは,一文中に含まれる用語ぺアの間の関係性のみを対象として抽出する文単位関係抽出に焦点が当てられていた (Zeng et al. 2014; Miwa and Bansal 2016). しかし, これらは文をまたいだ用語間の関係である文間の関係が無視されている。そこで,文間の関係も抽出可能とした文書単位関係抽出へ拡張して一般化されている. 文書単位関係抽出の研究は広く行われているが, 深層学習による関係抽出の研究では後発の研究が独立していて, 先行研究のモデルを同時に利用するのが難しい. 例えば, Zhou et al. (2021) は事前学習モデル (Devlin et al. 2019; Liu et al. 2019) による関係抽出をしたが,用語の関係性を潜在的なグラフを作成した Nan et al. (2020)の後発の研究にもかかわらず,用語間の関係性を考慮した構造をモデルに導入していない.このように先行研究の利点が後続の研究で利用しにくい要因の一つは,深層学習モデルの開発において,モデル構造などの変更をする際に方法が明確ではないことである。一般的に, 深層学習モデルを変更するためには, 既存のモデル構造を活かしてモデルに新たな点を追加し,チューニングをする必要があるため,開発のコストが高い,実装も画一的なルールが整備されておらず,それぞれの研究で異なるため,モデルの再実装が必要となり,容易に先行研究の利点を導入できない. また, 既存の関係抽出の研究では, 関係間の相互作用を明示的に考慮できていないという問題 点がある。文書単位関係抽出では,一つの文書から抽出された複数の関係同士に関連がある場合がある。例えば,材料合成手順の抽出においては,材料に対する操作や条件の関連性が影響し合い,材料に対する条件が操作に対して影響を及ぼしあう (Mysore et al. 2017, 2019; Makino et al. 2022).また,イベントの時刻歴を時間関係によって表現して抽出する時間関係抽出では,事前の事前のイベントは事前のイベントである,というような時間的な制約が存在する (Pustejovsky et al. 2003; UzZaman et al. 2013; Cassidy et al. 2014; Laokulrat et al. 2015; Ning et al. 2018b).本稿ではこのような関係同士で及ぼしあう影響を関係間の相互作用と呼ぶ。関係間の相互作用を明示的に扱うために, Fu et al. (2019)は文単位の関係抽出において, 複数ステップで関係を抽出し,前ステップで抽出した関係を利用する GraphRel を提案した。しかし, GraphRel では単語を節点としたグラフを構成するため,文書単位に拡張するのは計算コストが大きくなり困難である. そこで本研究では, 図 1 のように, 文書のみでなく, 既存の関係抽出器で既に抽出された関係を関係候補として利用し,全ての関係を分類し直して編集するタスクとして,関係候補編集タスクを提案し,このタスクのもとで関係間の相互作用を考慮する。関係候補編集タスクでは,既存研究の知見を利用するために, 抽出結果のみを利用して, モデルを統合せずに後発の研究で既存研究の特徴を考慮する。そして,このタスク設定の下で,用語を節点,抽出済みの関係㬋補を辺とした関係グラフを構築して,グラフ畳み込みネットワーク (Graph Convolutional Network; GCN) (Kipf and Welling 2017)を利用することで関係間の相互作用を考慮する,逐次的な辺編集モデルを提案する。具体的には,既存手法によって抽出した関係によって関係グラフを初期化し, 全ての辺に対してヒューリスティクスによって順序をつけ,逐次的に一度ずつ編集する。編集時には文脈表現に加えて関係グラフの表現を導入することで,その編集ステップ時点での関係間の相互作用を考慮する。これらの提案の有効性は, 材料合成手順コーパス (Mysore et al. 2019) と MATRES コーパス (Ning et al. 2018b) に対する抽出性能によって評価する。そして,モデルの挙動を解析して, このタスク設定とモデルで性能を向上させられる条件を明らかにする. 本研究の貢献は以下の点である。 図 1 関係候補編集タスク。文章と用語から既存の関係抽出器で関係候補を作成し,その結果を付加的に利用して関係を編集し, 最終的な関係を決定する。図中の青い矩形は用語, その間の矢印は関係,異なる種類の矢印は異なる関係クラスを示す. - 文書単位関係抽出において, 抽出済みの関係を再利用し, 編集するタスクとして, 関係候補編集タスクを提案する。 - 既存手法で抽出した関係を利用した関係グラフを構築し,そのグラフの全ての辺を逐次的に編集する逐次的な辺編集モデルによって, 抽出済みの関係に対して関係間の相互作用を考慮する,逐次的な辺編集を提案する。 - 関係候補編集タスクにおいて,編集で性能を向上させるための条件が,編集するモデル単体で抽出できる関係と編集前の関係に差分があることであることを明らかにする。 ## 2 関連研究 ## 2.1 関係抽出 関係抽出には文内の用語ペア間の関係のみを抽出の対象とした文単位関係抽出と,文をまたいだ用語ぺア間の関係も含めて抽出の対象とした文書単位関係抽出がある。以前の関係抽出では,文単位関係抽出に焦点が当てられていた。これまでに様々な抽出が試みられており,カー ネル法や特徴量ベースの抽出 (Zelenko et al. 2003; Miwa and Sasaki 2014), 文脈に着目するために系列をモデル化した抽出 (Zeng et al. 2014; Wang et al. 2016; Zhang et al. 2017) や,依存構造木などのグラフ構造を導入した抽出 (Miwa and Bansal 2016; Zhang et al. 2018), Transformer ベースのモデルを利用した抽出 (Alt et al. 2019; Baldini Soares et al. 2019) が行われてきた. しかしながら,これらの手法では,用語のぺアを分類することに重きを置いており,複数の関係同士の関係をモデル化できていない. このような中で Fu et al. (2019)は,関係間の相互作用を考慮するために,節点を用語,辺を関係とした関係グラフを構成して,GCN によって作成したグラフ表現を活用することで,関係間の相互作用を考慮した文単位関係抽出を実現した。たた,この手法では,節点を文内の単語単位で作成しており,文をまたぐことを想定していないため,文書単位関係抽出への拡張は容易ではない. 文単位の関係抽出では文をまたいだ関係が抽出の対象外となってしまうため,近年では文書内の全ての用語が関係を持ちうる条件で抽出をする文書単位の関係抽出の研究が盛んになっている (Li et al. 2016; Verga et al. 2018; Yao et al. 2019). 多くの文書単位の関係抽出では, 文単位の関係抽出と同様の方法だと離れて記述された語の関係性を考慮するのが困難であるため,節点を文書中の単語として,文をまたぐように付与された依存構造などの辺を付与した文書単位のグラフを作成して抽出を試みている。この文書単位のグラフを利用して, 文書全体で単語同士の関係性を考慮する (Quirk and Poon 2017). Christopoulou et al. (2019) はグラフとして,単語節点だけでなく, 用語や文の代表節点など, 複数の段階で節点を作成し, 人手のルールで辺を接続したグラフを利用して文書内の単語同士の関係性を考慮した. Nan et al. (2020)はグ ラフを潜在変数とすることで,関係抽出に適したグラフを構築して抽出を試みた。具体的には,関係抽出の学習によって End-to-End に学習される潜在的なグラフの表現を GCN で作成し, 実際の関係ではなく潜在的な関係性の相互作用をモデル化した。このように,文書単位のグラフを作成して関係を抽出する研究は盛んに行われているが,関係間の相互作用を明示的に考慮してグラフを作成して分類を試みた研究は少ない (Li et al. 2020a). ## 2.2 グラフ畳み込みネットワーク GCN はグラフ構造を扱うためのニューラルネットワーク構造で, 辺に沿って隣接節点に節点表現を伝播させてグラフの構造を考慮した節点の表現を作成するモデルである (Kipf and Welling 2017). 節点集合を $\mathcal{V}=\left.\{v_{1}, v_{2}, \ldots, v_{|\mathcal{V}|}\right.\}$ ,辺集合を $\mathcal{E}$ としたグラフ $G(\mathcal{V}, \mathcal{E})$ を入力として, $i$ 番 のように表せる. $ \boldsymbol{x}_{i}^{\prime}=\sigma\left(\boldsymbol{\Theta}^{\top} \sum_{(i, j) \in \mathcal{E}} \frac{\boldsymbol{x}_{j}}{\sqrt{\hat{d}_{j j} \hat{d}_{i i}}}\right) $ ただし,辺集合 $\mathcal{E}$ の要素は $v_{i}, v_{j}$ が隣接する場合に $(i, j) \in \mathcal{E}$ となるようにし, $\hat{d}_{i j}$ は自己ルー プを加えた隣接行列に対する次数行列の $i$ 行 $j$ 列要素, $\mathrm{GCN}$ の重みは $\Theta \in \mathbb{R}^{D_{\text {out }} \times D_{\text {in }}}$ である. GCN は一層では隣接節点しか考慮できないが, 複数層積み重ねて繰り返し節点表現を伝播させることで,複数ホップ離れた節点を考慮した表現を獲得することができる. 関係グラフ畳み込みネットワーク (Relational Graph Convlolutional Network; RGCN) は, 複数種類の役割の辺を持つ異種グラフを扱えるように拡張した GCNで,知識グラフのような辺毎に異なる意味を持つグラフを扱うために提案された (Schlichtkrull et al. 2018). RGCN ではパラメタを辺の種類ごとに用意することで,異種グラフとして表現を作成する.まず辺の表記を拡張するために,辺のクラスの集合を $\mathcal{C}$ として,辺の集合の要素は $v_{i}, v_{j}$ 間にクラス $c$ の辺がある場合に $(i, c, j) \in \mathcal{E}$ となるようにして,辺にクラスをつける.それぞれの辺のクラス $c$ 対 $ \boldsymbol{x}_{i}^{\prime}=\sigma\left(\boldsymbol{\Theta}_{\mathrm{self}}^{\top} \boldsymbol{x}_{i}+\sum_{(i, m, j) \in \mathcal{E}} \boldsymbol{\Theta}_{c}^{\top} \boldsymbol{x}_{j}\right) $ ただし, $\Theta_{\text {self }} \in \mathbb{R}^{D_{\text {out }} \times D_{\text {in }}}$ は自己ループを別の辺の種類として扱うための重みである.このように,RGCN は辺ごとに異なる重みを利用して異種グラフを扱うことができるように拡張された GCN である. ## 3 関係候補編集タスク 本研究では, 既存研究で抽出された情報を後発の研究でモデルの入力として扱う出力編集夕スクの設定を採用することで,少ない実装上の負担で以前の研究の利点を活かせるようにする.関係抽出の研究は以前から様々な方策で行われているが, 近年の研究ではそれぞれの研究で独立して深層学習モデルを作成しており, 後続の研究で以前の研究を利用しにくい現状がある. これは,研究ごとにモデルの実装が異なり,モデルの構造も異なるためで,それらを集約した実装をするのは再実装が必要となって容易ではない,更にそれぞれの方策を組み合わせて性能を向上させるには多大なチューニングコストがかかる. これらの問題を解決するために, 以前の研究を容易に利用可能な方策が必要となる。そこで,抽出済みの関係を関係の候補として入力に利用して再度全ての関係を分類し直すことで, 後続の研究は既存手法で抽出できている部分を前提として,正しい関係は入力をそのまま,誤った関係は修正するように出力するモデルを作成すればよくなる。このタスク設定では,既存手法で導入された部分をモデルに直接導入せずに,既存手法の視点を間接的に導入できる. 文書 doc と文書に含まれる用語集合 $\mathcal{V}$ 受け取り,関係 $R \in \mathcal{C}^{|\mathcal{V}| \times|\mathcal{V}|}$ を返す従来の関係抽出器 $\mathrm{RE}$ は, (3) 式のように表現できる. $ R=\operatorname{RE}(\operatorname{doc}, \mathcal{V}) $ 関係 $R$ の要素 $R_{i j} \in \mathcal{C}$ は $v_{i}$ と $v_{j}$ の用語間の関係, $\mathcal{C}$ は関係なしのクラス $\bar{c}$ を含めた関係クラス集合を示している。出力編集タスクでは, 文章から直接抽出する設定で抽出した関係 $R^{\mathrm{in}}=\mathrm{RE}(\mathrm{doc}, \mathcal{V})$ を入力として受け取って, 出力となる関係 $R^{\text {out }}$ 抽出する編集モデル Edit が開発の対象となる. $ R^{\text {out }}=\operatorname{Edit}\left(\operatorname{doc}, \mathcal{V}, R^{\text {in }}\right) $ このように出力編集タスクでは,関係候補を介して,モデルを統合することなく既存手法の知識を間接的に利用した抽出ができる。なお, 関係候補編集タスクは $R^{\text {in }}$ の全ての要素を関係なし $\bar{c}$ とると,関係候補を与えない通常の関係抽出と同様の設定となる. ## 4 逐次的な辺編集モデル 本章では, 文書単位の関係抽出を関係候補編集タスクとして扱い, 既存の関係抽出結果に対して関係間の相互作用を導入する。そのために, 図 2 に示したような, 関係候補編集タスク設定のもとで, 関係間の相互作用を考慮した深層学習モデルによって関係グラフの辺を編集する逐次的な辺編集モデルを提案する.本提案モデルにおける Edit に相当する逐次的な辺編集モデルは, 4.2 節の逐次的な辺編集の手続きで 4.1 節の辺編集器 $\mathrm{EE}\left(\mathrm{doc}, \mathcal{V}, R^{\mathrm{in}}\right)$ を適用したもので 図 2 逐次的な辺編集モデル ある。辺編集器には, 文章に加えて抽出済みの関係から作成した関係グラフを入力し, 事前学習モデルによる文脈の表現と RGCN によるグラフの表現をもとにして,関係間の相互作用を考慮した辺の分類をする。そして,分類した結果で関係を上書きして編集を行う。その後, 先に編集された関係で作成した関係グラフを再度入力して次の辺を編集することで,分類しにくい関係を分類する際に分類が容易な関係の情報を利用して効果的に編集できるようにする.編集時の順序はヒューリスティクスによって, 編集する辺に分類が簡単な順とする. この手続きで,辺編集器によって全ての節点ぺア間の辺を逐次的に編集して, 最終的に全ての関係を一度ずつ分類して決定する. ## 4.1 辺編集器 まず辺同士の相互関係を考慮して辺を編集する深層学習ベースの辺編集器 $\mathrm{EE}\left(\operatorname{doc}, \mathcal{V}, R^{\mathrm{in}}\right)$ について説明する. 辺編集器は BERT (Devlin et al. 2019) や RoBERTa (Liu et al. 2019)のような 成する。そして,その表現をもとに節点ぺアを分類して,分類結果で辺を上書きして編集後の関係 $R^{\mathrm{EE}}$ を出力する。具体的には, (1) 事前学習モデルによって用語の文脈表現を作成して節点の初期表現とし,(2) GCN を利用して入力グラフの構造情報を埋め达んた節点の表現を作成し, (3) 節点ぺアの表現と編集前の辺の表現から辺を分類して編集後のグラフを作成する,という 3 ステップで行う。なお, 入力された関係候補 $R^{\text {in }}$ は表現を作成するためのみに利用している. まず,用語の文脈表現は事前学習モデルによって得られるトークンの表現を集約して作成し, 節点の初期表現 $\boldsymbol{V}^{0}=\left[\boldsymbol{v}_{1}^{0}, \boldsymbol{v}_{2}^{0}, \ldots, \boldsymbol{v}_{|\mathcal{V}|}^{0}\right]$ とする. 文長 $T$ の入力文書 doc を事前学習モデルによって埋め达んだトークンの表現 $\boldsymbol{X}=\left[\boldsymbol{x}_{1}, \boldsymbol{x}_{2}, \ldots, \boldsymbol{x}_{T}\right]\left(\boldsymbol{x}_{i} \in \mathbb{R}^{D_{\mathrm{BERT}}}\right)$ を,重み $\boldsymbol{W}_{r} \in \mathbb{R}^{D_{\mathrm{BERT}} \times D}$ によって線形変換し, 用語の始点のトークンと終点のトークンとその間の表現を結合して節点の初期表現を作成する。結合した表現は,重み $\boldsymbol{W}_{\mathrm{ent}} \in \mathbb{R}^{3 D \times D}$ をパラメ夕とする結合層に入力する. $i$ 番目の節点の始点と終点をそれぞれ $s_{i}$ と $e_{i}$ として, 節点の初期表現は (6) 式のように作成する。 $ \begin{aligned} \boldsymbol{X}^{\prime} & =\left[\boldsymbol{W}_{r}^{\top} \boldsymbol{x}_{1}, \boldsymbol{W}_{r}^{\top} \boldsymbol{x}_{2}, \ldots \boldsymbol{W}_{r}^{\top} \boldsymbol{x}_{T}\right] \\ \boldsymbol{v}_{i}^{0} & =\boldsymbol{W}_{\text {ent }}^{\top}\left[\boldsymbol{x}_{s_{i}}^{\prime} ; \text { Average }\left(\left[\boldsymbol{x}_{s_{i}}^{\prime}, \boldsymbol{x}_{s_{i}+1}^{\prime}, \ldots, \boldsymbol{x}_{e_{i}}^{\prime}\right]\right) ; \boldsymbol{x}_{e_{i}}^{\prime}\right] \end{aligned} $ 次に関係間の相互作用をグラフ全体で考慮するため, RGCNによって節点の表現を作成する.関係ラベルの違いを捉えるために,グラフ表現は 2.2 節で述べた複数種類の辺を持つ異種グラフを扱える RGCN によって作成する.RGCN は $L$ 層積み重ね, $L$ ホップまでの関係間の相互作用を考慮した表現を作成する。 $\boldsymbol{V}^{0}$ と $\mathcal{E}^{\text {in }}=\left.\{\left(i, R_{i j}, j\right) \mid R_{i j} \in \mathcal{C} \backslash \bar{c}\right.\}$ を入力として RGCN を適用し, $L$ 層目の表現を $\boldsymbol{V}^{L}$ として,分類に利用する.また,RGCNの各層をまたぐように残差接続 (He et al. 2016)を追加する。最終的な節点の表現 $\boldsymbol{v}_{i}^{\prime}$ は, 文脈から作成した初期表現を残差接続として足して, $\boldsymbol{v}_{i}^{\prime}=\boldsymbol{v}_{i}^{L}+\boldsymbol{v}_{i}^{0}$ を分類に利用する. 最後に, $i$ 番目と $j$ 番目の節点ぺア間の関係を,その表現 $\boldsymbol{u}_{i j} \in \mathbb{R}^{2 D+D_{a}}$ をとに分類する. $\boldsymbol{u}_{i j}$ は (7) 式のように, RGCNの $L$ 層目の節点ぺアの表現, 編集前の辺のクラスを埋め込んた $\boldsymbol{a}_{i j}=\operatorname{Embed}\left(E_{i j}\right) \in \mathbb{R}^{D_{a}}$ を結合した表現とする. $\boldsymbol{W}_{\text {head }} \in \mathbb{R}^{D \times D}$ と $\boldsymbol{W}_{\text {tail }} \in \mathbb{R}^{D \times D}$ はそれぞれ始点と終点に対する表現を作成するための重みである. $ \boldsymbol{u}_{i j}=\left[\operatorname{ReLU}\left(\boldsymbol{W}_{\text {head }}^{\top} \boldsymbol{v}_{i}^{\prime}\right) ; \operatorname{ReLU}\left(\boldsymbol{W}_{\text {tail }}^{\top} \boldsymbol{v}_{j}^{\prime}\right) ; \boldsymbol{a}_{i j}\right] $ 節点ペア間の表現 $\boldsymbol{u}_{i j}$ を元に分類するための重みを $\boldsymbol{W}_{\text {class }} \in \mathbb{R}^{\left(2 D+D_{a}\right) \times|C|}$ とすると, $v_{i}, v_{j}$ 間の節点間の辺がクラス $c$ である予測確率 $p_{i j, c}$ とそのロジット $\boldsymbol{z}_{i j} \in \mathbb{R}^{|\mathcal{C}|}$ は (9) 式のように表現できる. $ \begin{aligned} \boldsymbol{z}_{i j} & =\boldsymbol{W}_{\text {class }}^{\top} \boldsymbol{u}_{i j} \\ p_{i j, c} & =\frac{\exp \left(z_{i j, c}\right)}{\sum_{c^{\prime} \in C} \exp \left(z_{i j, c^{\prime}}\right)} \end{aligned} $ 確率が最大となったクラスを選択することで,編集後の関係 $R_{i j}^{\mathrm{EE}}$ を決定する. $ R_{i j}^{\mathrm{EE}}=\underset{c \in C}{\arg \max } p_{i j, c} $ このようにして, 辺編集器 $\mathrm{EE}$ は文脈の表現と入力された関係グラフの構造表現を合わせて分類した結果を出力する. ## 4.2 逐次的な辺編集 4.1 節の辺編集器を利用し, ヒューリスティクスに基づいて分類しやすい用語ぺアから順にその間の辺を編集し,逐次的に関係を確定する.分類しやすい順に編集することで,分類が難しいぺア間の分類に,既に編集された近くに記述された辺の情報を利用する (Miwa and Sasaki 2014). 逐次的な辺編集の詳細な手続きはアルゴリズム 1 に示した. このアルゴリズムは関係候補編集タスクにおける編集モデル Edit に相当する。逐次的な辺編集は文書 doc, 用語集合 $\mathcal{V}$,関係候補 $R^{\text {in }}$ 受け取って,そのグラフの全ての節点ぺア間の辺を一度ずつ編集すると完了する. 編集は辺編集器によって行われ, 各編集ステップで編集された辺でグラフの辺を更新し, そのグラフを再度入力して編集を繰り返す。 編集の順序は,用語ぺアが記述された距離が近い順をヒューリスティクスとして採用する (Miwa and Sasaki 2014). 用語ぺア $\left(v_{i}, v_{j}\right)$ 間の距離 $h_{i j}$ は文単位の距離に設定して, 同じ文内に記述されたぺア間の距離を 1 , 隣接文では 2 と離れると可算されるように定義する. 同一距離に記述されたぺアは同時に編集する。また, 最大距離 $h_{\text {max }}$ を超えた距離に記述された用語ペアは同時に編集する。 ## 4.3 既存手法との接続 3 章で提案した関係候補編集タスクの下で, 4.2 節の逐次的な辺編集モデルで抽出済みの関係を利用する方法を述べる. 既存手法との接続は, 初期の関係候補 $R^{\text {in }}$ を既存手法で抽出した関係に置き換えて実現する。このように逐次的な辺編集モデルは, 事前に既存手法で予測した結果のみを利用するため, 既存手法と編集モデルの学習は切り離されており, 追加のモデルの実装を必要としない. ## 4.4 訓練 モデルの訓練は, 最終的に出力された関係の予測 $R^{\text {out }}$ に対する対数尤度を最大化するように行う. 逐次的な辺編集では, 辺を持ちうる全節点ぺアを複数ステップに分けて一度ずつ分類し,各ステップの結果を統合したものを最終的な予測としているため, 逐次的な辺編集の出力 $R^{\text {out }}$ が正解に近づくように最適化すればよい. 各ステップの節点 $v_{i}, v_{j}$ 間の辺のクラス $c$ に対する予測確率を $p_{i j, c}^{h}$, 正解の $v_{i}, v_{j}$ 間の関係を $R_{i j}^{g o l d}$ とすると, 損失 $L$ は (11) 式のように表せる. $ L=-\sum_{h=1}^{h_{\max }} \sum_{(i, j) \in \mathcal{P}_{h}} \sum_{c \in \mathcal{C}} \mathbb{1}\left[R_{i j}^{\text {gold }}=c\right] \log p_{i j, c}^{h} $ ただし, $\mathbb{1}[\cdot]$ は括弧内の条件を満たせば 1 ,それ以外は 0 を返す関数, $\mathcal{P}_{h}$ はアルゴリズム 1 中で使用した距離 $h$ にある用語ぺアの集合である。この損失をデータ全体で最小化するようにモデルを最適化する. ## 5 評価 逐次的な辺編集モデルの有効性を評価するために,材料合成手順のフローグラフを抽出するタスクと時間関係抽出タスクに対して適用し, その抽出性能を確認する. 5.1 節の設定で材料合成手順コーパスに対する評価(5.2 節)と MATRESコーパスに対する評価(5.3 節)を行う。文書単位関係抽出のベンチマークでは DocRED コーパス (Yao et al. 2019) や BioCreative V CDR コーパス (Li et al. 2016) が一般的であるが, このようなコーパスを用いずにこれらのコーパスを利用する理由は, 一つの用語に複数の関係がついていて, 密に関係が付与されており, 関係グラフにしたときに多くの用語がつながっている状況になるためである。用語が関係でつながらない場合では, 本提案手法で利用している GCNがうまく動作しなくなる. ## 5.1 共通の評価設定 提案した逐次的な辺編集モデルを関係候補編集タスクとして評価するための設定を述べる. モデルの最適化には Adam (Kingma and Ba 2015) を用いた. 提案モデルでは文書単位で事前学習モデルを動かさなければならないため, GPU のメモリに載るように,バッチサイズは 1 とした. モデルで利用する事前学習モデルは, 実験的にラージサイズを利用すると性能が低下したため, ベースサイズの RoBERTa (Liu et al. 2019)を利用する.モデル自体の抽出性能を確認するために, $\forall i, j ; R_{i j}=\bar{c}$ として力のグラフの辺を空とした場合(以下, スクラッチと呼ぶ) に対する抽出性能も同時に確認する.スクラッチでは入力の関係が全て関係なしとなる部分のみが変更点で,その状態から全ての関係を編集する。つまり,最初の編集ステップでは文脈の表現のみで分類が行われ, その後のステップではそのステップの時点で抽出されている関係間 の相互作用を考慮した表現を利用した分類になる.評価には 3 つの異なるシード值で実験したときの関係分類に対する $\mathrm{F}$ 値 [\%] の平均値を利用する。評価にはチューニングで得られたハイパーパラメタで学習した際に,開発デー夕に対して最高の性能が得られた時点のモデルを利用する。モデルの学習時には正則化のためにドロップアウト (Srivastava et al. 2014) を導入する. ドロップアウトは $\boldsymbol{X}$ と出力層の前の $\boldsymbol{u}_{i j}$ のそれぞれに対して適用する. ハイパーパラメタチューニングは Optuna (Akiba et al. 2019)を用いて,枝刈りされたものも含めて 1,000 回の試行で開発デー夕に対する $\mathrm{F}$ 值が最大となるパラメ夕を探索した. チューニングは材料合成手順コーパスと MATRES コーパス両者それぞれに対して行い,パラメタのサンプリングには木構造 Parzen 推定 (Bergstra et al. 2011), 探索の枝刈りアルゴリズムはパラメ夕を $s=1, \eta=2, r=0.15$ とした Successive Halving アルゴリズムを利用した (Li et al. 2020b). チューニングは複数の計算機で分散して行い, NVIDIA 社の GTX 1080Ti, RTX 3090, Tesla V100, TITAN V の GPUが搭載された計算機を利用した。 探索空間とチューニングによって得られたパラメタは表 1 に示した. チューニングしたパラメタは表の上から, Adamの学習率, RoBERTa に対する学習率, 入力と出力に対するドロップアウト率, RGCN の層の数 $L$, 全体的な隠れ層の次元数 $D$, 編集前の辺の埋め込み $a_{i j}$ の次元数 $D_{a}$ とそのドロップアウト率, 距離 $h$ の定義と最大値 $h_{\max }$ の計 10 種類である. 距離の定義は, 文単位で計算する場合と,出現順序に合わせて, $m$ 番目と $m+x$ 番目に出現した用語間の距離を $x$ とする場合の 2 種類を定義したが,どちらも文単位の距離の方がよいと確認できたため, そちらをモデルに採用した。 表 1 ハイパーパラメタチューニングの探索空間と結果 ## 5.2 材料合成手順コーパスによる評価 まず,材料合成手順のフローグラフを抽出するタスクのコーパスである材料合成手順コーパス (Mysore et al. 2019) を使用して, 提案手法の有効性を評価する。このコーパスには, 密に関係が付与されており,直感的には以前の合成手順が以降の合成手順に影響したり,材料に対する条件が操作に影響を及ぼしたりするなど,関係間に関係を及ぼすような夕グ付けがされている. 材料合成手順コーパスには図 3 の抽出事例のように,材料分野の論文中の材料合成手順が記述された段落に対して, 材料や操作, 質量などの数値条件やその他の条件付けとなる用語と, その間の関係がフローグラフのようにタグ付けされている。コーパスの分割は公式に提供されているものと同様に,訓練,開発,評価をそれぞれ $200,15,15$ 件とした. 表 2 には材料合成手順コーパスの関係の統計量と説明を示した. 材料合成手順コーパスに対しては, 我々が作成したルールベース抽出器 (Kuniyoshi et al. 2020; Makino et al. 2022) をべースラインとして, その出力をモデルの入力とする. このコーパスに対する抽出手法は, このルールベース抽出器のみしか公開されている抽出手法がないため, この手法に対してのみ評価をする、ルールは文脈を考慮しない単純なもので, 主に用語間の単語数や出現順序に基づいていて, 一部の関係クラスに対しては辞書との一致をとって関係を抽出する。なお, Wen and Ji (2021)やZhao et al. (2021)といった手法は時間関係抽出に特化した手法で,適用することはできない. 表 2 材料合成手順コーパスの関係ラベルとその統計値 表 3 材料合成手順コーパスでの評価( $\mathrm{F}$ 値 [\%]) 表 3 に示した材料合成手順コーパスに対する性能の評価では,逐次的な辺編集による性能の向上が確認できた。まず,スクラッチとヒューリスティクスによるルールベース抽出器による抽出結果(以下,ルールと呼ぶ)を比較すると,わずかにスクラッチの方が性能が低く, ルー ルの方が深層学習モデルより高い性能で抽出できた. これは, 文脈を考慮せずとも抽出できる関係が多く存在し, 事前学習モデルを利用した深層学習モデルでも抽出できない関係があることを示している。ルールの抽出結果を編集した場合では, ルールと比べて $6.4 \%$ ル゚゚ント向上しており,編集が効果的に作用している。これは,ルール中のヒューリスティクスを間接的に深層学習モデルに導入できたためで, 逐次的な辺編集モデル単体ではルールベース抽出器より性能が低くても, ルールベース抽出器の出力を合わせて利用することで性能が向上した. ## 5.3MATRES コーパスによる評価 次に, MATRESコーパス (Ning et al. 2018b)を利用して, 他のコーパスに対する評価と最先端のモデルの出力を編集した場合の効果を確認する.材料合成手順コーパスに対する性能評価では, このコーパスのルールベース抽出器の出力に対して, 逐次的な辺編集の有効性が示された. 他のコーパスにおいて, 最先端の深層学習モデルの出力を編集した際の効果を確認するために,MATRESコーパスを使用する.MATRESコーパスは時間関係抽出の標準的なべンチマー クとして利用されており, 抽出するための手法が多く提案されている (Han et al. 2021; Wen and Ji 2021; Zhao et al. 2021; Mathur et al. 2021). MATRESコーパスの時間関係抽出では, 時間関係の制約を導入する有効性が確認されており (Ning et al. 2018a), 時間的制約として関係間の相互作用が重要となる. MATRESコーパスには, ニュース記事に対してイベントとなる用語と, その間の時間関係がタグ付けされている. MATRESコーパスの時間関係のラベルは, 始点のイベントが終点のイベントの事前であること示す BEFORE, 始点のイベントが終点のイベントの事後であること示す AFTER, 始点のイベントと終点のイベントが同時であること示す EQUAL, 始点のイベントと終点のイベントの時間関係が曖昧であること示すVAGUEの4つのラベルが存在し, これらの関係によってイベントの発生時間が相対的にタグ付けされている. MATRESコーパスでは始点の用語から後方で,文内及び隣接する次の文中に含まれる用語のみが終点の用語となる。そのため, 既存研究 (Ballesteros et al. 2020) と同様に, 時間関係を持つ用語ぺアは与えて, 時間関係 を持ちえない用語ぺアを無視する関係分類の設定として,VAGUEの関係を負例とした。データの分割は Wen and Ji (2021) と同様に,訓練,開発,評価用デー夕をそれぞれ $234 , 21,20$ 件とした。関係の統計量は表 4 に記述した。 MATRES コーパスに対しては,最先端の手法でソースコードが公開されているもの (Zhao et al. 2021; Wen and Ji 2021) に限定し, 再現実験によって得た出力をモデルの入力として利用した. Zhao et al. (2021)は,明示的に時間関係を言及している文を時間関係抽出の遠距離教師データとして収集して利用した.Wen and Ji (2021)は,時間関係抽出に特化して,イベントの相対的な時間を予測する手法を提案した。これらのモデルの公開されているソースコードを使用し,その出力を逐次的な辺編集モデルの入力として利用した. 表 5 に示した MATRES コーパスに対する性能評価では, 編集前と比べてわずかに $\mathrm{F}$ 値が上昇した場合はあったものの,ほとんど逐次的な辺編集の効果は見られなかった. Zhao et al. (2021) に対する場合では,編集前よりも編集後の方が高い性能で抽出できているが,両者ともスクラッチより低い性能であった。Wen and Ji (2021)に対しては,編集前はスクラッチよりも高い性能で,編集後にはわずかに $\mathrm{F}$ 値が上昇したが,有意な差はなく,ほとんど効果はなかった。このように, MATRES コーパスにおいて最先端の深層学習モデルの出力を編集した場合に対しては,材料合成手順コーパスほどの改善が見られず,わずかに $\mathrm{F}$ 値が上がる場合はあったもののほとんど効果はなかった. 表 4 MATRES コーパスの関係ラベルとその統計値 表 5 MATRES コーパスでの評価(F 値 [\%]) ## 6 解析 材料合成手順コーパスで評価した場合には逐次的な辺編集によって性能が向上した一方で, MATRES コーパスに対する評価ではほとんど性能が向上しなかった. MATRESコーパスの編集前が既存の深層学習モデルで得られている最先端の結果で, 性能を向上させるのが困難なことを考慮しても,ほとんど性能が変化しない要因があると考えられる。そこで,これらの評価の実験の間で異なる点を洗い出し, 関係候補編集タスクの設定で効果が得られる条件を明確にする。 ## 6.1 編集事例の確認 まず編集の特徴を確認するために,実際の編集事例を確認する。材料合成手順コーパスにおけるそれぞれのモデルの抽出結果を図 3 に示した。それぞれ個別に特徴を確認すると、ルールベー 入抽出器は用語の出現パターンによって抽出しているため, 用語が離れて記述されていても抽出できている関係がある一方で, $\mathrm{SrCO3} \cdot \mathrm{MoO} 3 \cdot \mathrm{Ni}$ の間の並立の関係が認識できていなかったり,連続していない prepared と mixed の操作の間で関係をつけてしまったりしている,スクラッチでは離れて記述されている用語同士の関係がうまく抽出できておらず, $\mathrm{SrCO} 3 \cdot \mathrm{MoO} 3 \cdot$ $\mathrm{Ni}$ のうち, Appropreate proportions と $\mathrm{Ni}$ の間の関係や操作の順序がうまく抽出できていない. ルール+逐次的な辺編集では主にルールベース抽出器とスクラッチで抽出できている関係を合算したような抽出結果となっていて,操作の順序が正しく抽出できており,prepared と mixedが連続していない操作であることも認識できている,更に,追加で抽出できている関係も確認できた. 例えば, Appropreate proportions と $\mathrm{SrCO3} \cdot \mathrm{MoO} 3 \cdot \mathrm{Ni}$ の間の関係を確認すると, ル一ルベース抽出器でもスクラッチでも抽出できていない $N i$ との間の関係を抽出できている。これは,関係間の相互作用を表現することで,他の関係を介して並立の関係を認識できていると考えられ,逐次的な辺編集の利点が確認できた。 MATRES コーパスにおいてWen and Ji (2021)の出力を逐次的な辺編集をした事例は図 4 に示した,材料合成手順コーパスの抽出結果と比較すると, MATRESコーパスに対してはあまり編集が行われず,編集された関係に明確な法則は確認できなかった。このことから, MATRES コーパスに対しては,逐次的な辺編集で編集するよりも,抽出済みの関係を保持するようにモデルが学習されていることが確認できた。 ## 6.2 アブレーション研究 5 章の抽出性能の評価で得られた結果が,提案のどの部分の寄与によるものかを解析するため, モデルの機能を変更して性能を確認するアブレーション研究を行う. アブレーション研究では,編集前の関係グラフの影響,編集順序の影響,および関係間の相互作用を考慮する影響 入力文章 A series of polycrystalline samples of SrMo1-xNixO4 $(0.02<=\mathrm{x}<=0.08)$ were prepared through the conventional solid-state reaction method in air. Appropriate proportions of high-purity $\mathrm{SrCO3}, \mathrm{MoO} 3$, and $\mathrm{Ni}$ powders were thoroughly mixed according to the desired stoichiometry, and then prefired at 900 [?] C for $24 \mathrm{~h}$. The obtained powders were ground, pelletized, and calcined at 1000, 1100 and 1200 [?]C for $24 \mathrm{~h}$ with intermediate grinding twice. White compounds, SrMo1-xNixO4, were obtained. The compounds were ground and pressed into small pellets about $10 \mathrm{~mm}$ diameter and 2 $\mathrm{mm}$ thickness. These pellets were reduced in a $\mathrm{H} 2 / \mathrm{Ar}(5 \%: 95 \%)$ flow at 920 [?] C for $12 \mathrm{~h}$, and then the deep red colored products of $\mathrm{SrMol}$-xNixO3 were obtained. calcined compounds obtained $\rightarrow$ SrMol-xNixO4 ground $\gg$ compounds diameter pressed $\Rightarrow$ pellets $\leftarrow \mathrm{mm} \leftarrow 10$ thickness $\rightarrow \mathrm{mm} \leftarrow 2$ pellets $\mathrm{H} 2 / \mathrm{Ar} \leftarrow \% \leftarrow 5$ reduced $\mathrm{C} \leftarrow 920 \% \leftarrow 95$ obtained $h+12$ SrMol-xNixO4 正解 SrMo1-xNixO4 ルールベース抽出器 prefired C 900 $\mathrm{h} \leftarrow-24$ ground $\rightarrow$ powders 1000 pelletized C 1100 $\mathrm{h} \leftarrow 24 \quad 1200$ calcined compounds obtained $\rightarrow$ SrMol-xNixO4 ground $\stackrel{\text { compounds }}{ }$ diameter pressed $\rightarrow$ pellets $\leftarrow \mathrm{mm} \leftarrow 10$ thickness $\Rightarrow \mathrm{mm} \leftarrow 2$ pellets $\mathrm{H} 2 / \mathrm{Ar} \%>^{5}$ reduced $\mathrm{C} 920 \% 95$ obtained $h+12$ SrMol-xNixO4 スクラッチ $\mathrm{SrMol}-\mathrm{xNixO} 4$ ルール 十逐次的な辺編集 凡例 \\ 図 3 材料合成手順コーパスの抽出事例 を確認する。材料合成手順コーパスと MATRES コーパスの二つのコーパスに対して,それぞれ最も高い性能が得られたルールベース抽出器の出力と, Wen and Ji (2021) の出力に逐次的な辺編集を適用した場合について実験する。アブレーション研究のために,ランダムな辺で初期化した関係グラフを編集するランダム初期化,文書毎にランダムに定めた順序で編集をするランダム順序,全ての辺を同時に編集する $h_{\max }=1$ ,関係間の相互作用を考慮せずに文脈のみで分類する $L=0$ のモデルを用意した。 ランダム初期化は編集前のグラフと同数の割合の辺となるように,ランダムに用語間に関係をつけて初期化した。 ## 入力文章 Elian Gonzalez's father said in a letter published Wednesday that he wants Cuban diplomats based in Washington to meet with his 6-year-old son in Miami and check on his condition. "We are worried not only about his prolonged kidnapping," Juan Miguel Gonzalez wrote in a letter published on the front page of the Communist Party daily Granma. ... 図 4 MATRES コーパスの抽出事例。矢印は編集,括弧内は正解ラベルを表しており,誤って抽出されている部分のみ正解ラベルを記述した。時系列順は時間関係から導き出したもので,数字が少ないほうが先に発生したイベントである. } & \multicolumn{2}{c}{ MATRES } \\ 評価 & 開発 & 評価 \\ ランダム初期化 & $78.4 \pm 1.5$ & $75.4 \pm 1.3$ & $80.2 \pm 0.5$ & $78.8 \pm 0.1$ \\ + 逐次的な辺編集 & $87.4 \pm 0.3$ & $86.8 \pm 0.5$ & $83.1 \pm 0.4$ & $80.7 \pm 1.1$ \\ ランダム順序 & $87.7 \pm 0.1$ & $87.2 \pm 0.2$ & $83.3 \pm 0.0$ & $80.5 \pm 0.2$ \\ $h_{\max }=1$ & $87.1 \pm 0.6$ & $86.3 \pm 0.3$ & $83.3 \pm 0.1$ & $80.5 \pm 0.1$ \\ $L=0$ & $86.9 \pm 0.3$ & $86.4 \pm 0.3$ & $83.4 \pm 0.1$ & $80.4 \pm 0.1$ \\ 表 6 アブレーション研究 アブレーション研究の結果を表 6 に示した. まず,編集前の関係グラフの影響を確認するために,既存手法で初期化した関係グラフを入力とした関係候補 + 逐次的な辺編集,辺がついていない関係グラフを入力としたスクラッチ,ランダムに初期化した辺をもつ関係グラフを入力としたランダム初期化を比較する。両方のコーパスで関係候補 + 逐次的な辺編集が最も高い性能を示したため, 関係候補編集タスクの設定では, 既存手法が出力した関係を入力として利用して,モデルの抽出性能の改善に有効であると言える。また,ランダムな辺の関係グラフを入力しても性能が向上するわけではないことから, 入力のグラフの内容が影響することがわかる. 以上から, 既存手法の出力を関係候補として初期化して編集することは有効であると確認でき,編集前の関係の内容によって向上する性能が変化することが確認できた. 次に,編集順序の影響を確認するために,ヒューリスティクスとして近くに記述された用語ペア間の関係性から順番に分類した提案手法と,順番をつけずに全ての関係を同時に編集する $h_{\max }=1$ ,ランダムな順番で編集するランダム順序を比較する.抽出性能を比較すると,全て同時に編集した場合より逐次的に編集したほうが性能が高く,材料合成手順コーパスでは近い順よりランダムな順序の方が,MATRES コーパスでは近い順の方が性能が高かった。編集前と比較すると,材料合成手順コーパスは性能が下がらなかったが,MATRES コーパスに対しては編集することでわずかながら性能が低下した。これは,適切な編集順序が存在しているが,必ずしも近い順が最適ではないことを示唆している。しかしながら,編集順序による性能の変化は小さく, 性能が向上した要因とはならないことが確認できた. 関係間の相互作用については, $L=0$ として関係間の相互作用を考慮しないようにすると,材料合成手順コーパスに対してはわずかに性能が低下し, MATRES コーパスに対しては性能があまり変わらなかった。このことから,RGCNによる関係間の相互作用の表現は,材料合成手順コーパスには少し効果があるものの,性能に対する寄与は大きくなく,性能向上の最大の要因でないと確認できた。 以上から,入力の関係グラフを変更した場合に最も性能の低下が変化したため, 逐次的な辺編集によって性能向上できるかどうかの条件は入力の関係グラフの辺の内容にあると推測できる. アブレーション研究では性能に寄与する部分しか確認できないため, より詳細に入力の関係グラフの条件を調査する必要がある. ## 6.3 編集前の関係グラフの影響 アブレーション研究の結果から,逐次的な辺編集によって性能の向上に関与する最大の要因は入力される関係グラフの内容にあると確認できたため, 関係グラフの内容について更なる調査が必要である。そこで, 編集前のグラフの質の影響を確認するために, 図 5 に編集前の関係グラフ中の辺を削除したときに抽出性能がどの様に変化するか示した. この時, 編集前のグラフはアブレーション研究の実験と同様に, 材料合成手順コーパスに対してはルールベース抽出器, MATRESコーパスに対しては Wen and Ji (2021)の出力とした. グラフの横軸は辺の維持率で, $0 \%$ ときにはスクラッチ, $50 \%$ の場合は編集前のグラフ中の辺を半分削除した場合, $100 \%$ のきには既存手法によって抽出された関係がそのまま入力される場合となる。辺の削除は,辺の維持率に合わせて, その辺が正解している関係かどうか関係なくランダムに行う。そのため,辺を削除したとしても編集前の $\mathrm{F}$ 値が高くなる場合はあるが,編集前にはそれぞれ $\mathrm{F}$ 值で材料合成コーパスに対しては $80.5 \%$, MATRES コーパスに対しては $80.6 \%$ と高い性能で抽出できているため, 基本的には削除されたグラフの精度は低くなる。この解析ではランダム性があるた 図 5 編集前の関係を削除したときの抽出性能の推移.色が塗られた部分はそれぞれに対する $95 \%$ 信頼区間である。 め, 試行回数を 5 回に増やして実験を行い 1 , その平均と $95 \%$ 信頼区間をグラフに示した. 図 5 から, 入力されるグラフの辺の維持率を上昇させると性能が向上することが確認でき, 編集前のグラフの精度が高い場合には編集後にも高い性能で抽出できるようになると言える。また, 辺を削除したときの性能の低下は, MATRES コーパスの場合よりも材料合成手順コーパスの場合の方が大きかった.材料合成手順コーパスのグラフは,辺維持率が $100 \%$ から $80 \%$ の区間で急激に低下しており,信頼区間から分散が材料合成手順コーパスの方が大きいことも確認できる。このことから,材料合成手順コーパスに対して入力された関係グラフに含まれる辺の中に効果的な辺が含まれており,その辺が削除された場合に性能が低下していることが示唆される.この効果的な辺がどのような辺なのかわかれば,逐次的な辺編集を効果的に利用できる条件がわかる. そこで, 性能の向上に寄与している関係は逐次的な辺編集モデル単体では抽出できない関係, つまりスクラッチの場合に抽出できない関係が性能に寄与しているという仮説を立てた。これは編集による変化を観察して建てた仮説で,MATRESコーパスにおいて編集された辺の数が少なかったことからこの洞察を得た.仮説の事前の検証のため,開発データの関係をスクラッチで抽出した場合と既存手法で抽出した場合の関係を比べる。編集前とスクラッチでどれだけ異なる関係が抽出されているのか確認するため, 材料合成手順コーパスに対してはルールベー  ス抽出器とスクラッチ, MATRES コーパスに対してはWen and Ji (2021) とスクラッチが予測した関係の混同行列を作成して比較する。材料合成手順コーパスの混同行列は表 7, MATRES コーパスの混同行列は表 8 に示した。材料合成手順コーパスに対しては,ルールとスクラッチで異なる関係を正例として予測しており,クラス間で誤っている場合は少ない特徴がみられた。 MATRES コーパスに対しては,異なる部分の中でも多くが AFTER と BEFORE の間で異なる予 表 7 材料合成手順コーパスの開発データにおけるルールベース抽出器とスクラッチで抽出された関係の混同行列. NONE は関係がないことを示す. 表 8 MATRES コーパスの評価デー夕における Wen and Ji (2021)の抽出器とスクラッチで抽出された関係の混同行列 測をしている。 混同行列のみでは正解との対応が確認できないため, 関係を持ちうる用語ぺアごとに,その用語ぺアの関係予測が正解しているかどうか, それが正例かどうかを数え, スクラッチと編集前で対応付けて関係予測の内訳を確認する。材料合成手順コーパスの予測の内訳は表 9 , MATRES コーパスの予測の内訳は表 10 に示した。スクラッチと比べて編集前の方が正しく抽出できているのが表中の赤く塗られた部分,スクラッチの方が正しく抽出できているのが青く塗られた部分で,これらの数が多いほど異なる関係が抽出できているということである。それらの合計から,材料合成コーパスの方が編集前とスクラッチの間で差分が大きいことがわかる。一つの指標として,どちらか一方のみで抽出できている正例の割合を計算したところ,表 11 のようになり,材料合成手順コーパスに対する抽出の方が差分があることが確認できた.以上の結果は,編集前と編集するモデル単体で抽出できる関係に差があることが条件であるという仮説に矛盾しない. 仮説を実際に検証するため,編集前の関係グラフをスクラッチで正しく抽出できていない関係として,徐々に辺を追加したときの性能の変化を確認した。この実験では, スクラッチで抽出 表 9 材料合成手順コーパスの評価データに対する関係予測の内訳. TP は正しく正例を,TN 負例を,FPは誤って正例を,FN は誤って負例を予測した場合を表す。赤く塗られた部分はスクラッチで誤っていてルールで正しく抽出できている部分, 青く塗られた部分はルールで誤っていてスクラッチで正しく抽出できている部分である.赤く塗られた部分の合計は 554 , 青く塗られた部分の合計は 205 である. 表 10 MATRES コーパスの評価データに対する関係予測の内訳.TP は正しく正例を,TNは正しく負例を,FP は誤って正例を,FN は誤って負例を予測した場合を表す。赤く塗られた部分はスクラッチで誤っていて Wen and Ji (2021) で正しく抽出できている部分, 青く塗られた部分は Wen and Ji (2021) で誤っていてスクラッチで正しく抽出できている部分である. 赤く塗られた部分の合計は 43 , 青く塗られた部分の合計は 35 である. できなかった関係が重要な役割を持っているのか確認することを目的とする。まず,スクラッチで抽出した場合の関係と正解の関係を比べて,スクラッチで誤って抽出している関係を取り出す。そして,スクラッチで抽出した関係に対して,抽出できなかった関係を割合を変えながら辺に追加して,それを編集前の関係として編集したときの性能の変化を観察する。このとき, スクラッチで正しく抽出できている関係を追加した関係と置き換え,入力するグラフ全体の質は保った状態で検証を行った.つまり,0\%の場合は入力をスクラッチの出力にした編集, $100 \%$ の場合はスクラッチで編集できなかったすべての関係を追加して,その関係の数だけスクラッチの辺を誤るように置き換えたグラフを入力とした編集を表している. 図 6 に示した検証の結果より,効果的に作用している関係はスクラッチで抽出できていない関係であることが確認でき,仮説が正しいと確認できた.関係グラフ全体の質はほとんど変化させずに,スクラッチで抽出できていない関係に置き換えると編集後の性能が向上した。よって,編集するモデル単体で抽出できていない関係が性能向上に寄与していることがわかる.加 表 11 材料合成手順コーパスと MATRES コーパスにおける編集前とスクラッチのどちらか一方のみで抽出できている正例の割合 図 6 スクラッチで抽出できなかった関係を追加した場合の性能の変化. 色が塗られた部分はそれぞれに対する $95 \%$ 信頼区間である. えて, 辺の導入率 $0 \%$ は逐次的な辺編集モデルを使ってスクラッチの設定で抽出した関係を入力として,逐次的な辺編集モデルを学習しなおして編集している場合を示している.この場合では,スクラッチの場合とほとんど数値の変化はない。これから,編集前の抽出を行ったモデルと同じモデルで編集してもほとんど向上がみられないということが確認できる。また,追加する関係の数に対して完全に線形ではなく, それ以上に性能が向上していることが確認できる. このことから,単純に入力された辺を複製しているだけではなく,その辺を手掛かりに,他の辺の抽出ができるようになっていることがわかる.実際に編集前とスクラッチの両者で抽出できておらず,逐次的な辺編集モデルによって新たに抽出できるようになった関係の数を数えると,材料合成手順コーパスの場合で 40 , MATRES コーパスの場合で 1 の関係が新たに抽出できるようになった。 この検証から,関係候補編集タスクにおいて編集によって性能を向上させるために重要な要素は,入力される関係と編集モデル単体で抽出可能な関係が異なることであると確認できた。つまり,編集によって組み合わせるモデルは異なる観点で作成されていることが重要である,本研究の場合では材料合成手順コーパスにおいて,ヒューリステイクスに基づくルールベース抽出器と深層学習モデルを組み合わせることで性能の向上が確認できたのは,編集前と編集するモデルは異なる観点のモデルで,異なる関係が抽出できていたため,性能が向上した, MATRES コーパスに対しては, 編集前の関係抽出と編集の両者で事前学習モデルをべースとしたモデルを利用していたことから似たような出力をするモデルとなっていて,編集によって性能がほとんど向上しなかった. 既存手法の出力を関係候補編集タスクの設定として再利用して効果があるのは,既存手法と編集するモデルに差分があることであり,関係候補編集タスクに利用する既存手法を決定する際の指標となる。 ## 7 結論 本研究では関係抽出において, 関係抽出モデルの作成時に, 既存手法で抽出された結果を再利用して編集する関係候補編集タスクを提案した,更に,そのタスク設定のもとで関係間の相互作用を考慮すべく, 抽出済み関係候補を関係グラフとして構成して, 関係グラフの構造の表現を導入して逐次的に関係を編集するモデルを提案した,実験では材料合成手順コーパスに対してルールベースの抽出器の出力を編集して改善できた。一方で, MATRES コーパスに対しては最先端の深層学習モデルの出力を編集したが有効性が確認できなかった. 解析ではこの要因を解析し,関係候補編集タスクにおいて編集した際に性能が向上する条件は,編集するモデル単体で抽出可能な関係と編集前の関係に差があることであると明らかにした。 今後は過去に提案された手法によって抽出された出力を解析することで,高性能なモデルのほとんどが深層学習となっている近年の状況であっても有用な手段を発見する必要がある. 本研 究によって, 深層学習モデルによる抽出を, 既存手法の出力を利用して向上させるための条件が示された,深層学習以前の研究では,情報抽出は別の手段や手法で行われていたが (McCallum et al. 2000), それらの中には深層学習モデルと合わせて利用するのに有用なものがある可能性がある.例えば,本研究では単純なルールベース抽出器を深層学習モデルと合わせて使うことで抽出性能を向上させた。このような過去の研究から,深層学習と合わせて利用するのに有用な手段を明らかにできれば,さらなる情報抽出の性能向上を見込める. ## 謝 辞 本研究は JSPS 特別研究員奨励費 JP22J14025 の助成を受けたものです. ## 参考文献 Akiba, T., Sano, S., Yanase, T., Ohta, T., and Koyama, M. (2019). "Optuna: A Next-generation Hyperparameter Optimization Framework." In Proceedings of the 25rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, pp. 2623-2631. Alt, C., Hübner, M., and Hennig, L. (2019). "Improving Relation Extraction by Pre-trained Language Representations." In Proceedings of Automated Knowledge Base Construction. Baldini Soares, L., FitzGerald, N., Ling, J., and Kwiatkowski, T. (2019). "Matching the Blanks: Distributional Similarity for Relation Learning." In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 2895-2905, Florence, Italy. Association for Computational Linguistics. Ballesteros, M., Anubhai, R., Wang, S., Pourdamghani, N., Vyas, Y., Ma, J., Bhatia, P., McKeown, K., and Al-Onaizan, Y. (2020). "Severing the Edge Between Before and After: Neural Architectures for Temporal Ordering of Events." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, pp. 5412-5417, Online. Association for Computational Linguistics. Bergstra, J., Bardenet, R., Bengio, Y., and Kégl, B. (2011). "Algorithms for Hyper-Parameter Optimization." In Shawe-Taylor, J., Zemel, R., Bartlett, P., Pereira, F., and Weinberger, K. Q. (Eds.), Proceedings of Advances in Neural Information Processing Systems, Vol. 24, pp. 2546-2554. Curran Associates, Inc. Cassidy, T., McDowell, B., Chambers, N., and Bethard, S. (2014). "An Annotation Framework for Dense Event Ordering." In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 501-506, Baltimore, Maryland. Association for Computational Linguistics. Christopoulou, F., Miwa, M., and Ananiadou, S. (2019). "Connecting the Dots: Document-level Neural Relation Extraction with Edge-oriented Graphs." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 4925-4936, Hong Kong, China. Association for Computational Linguistics. Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota. Association for Computational Linguistics. Fu, T.-J., Li, P.-H., and Ma, W.-Y. (2019). "GraphRel: Modeling Text as Relational Graphs for Joint Entity and Relation Extraction." In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 1409-1418, Florence, Italy. Association for Computational Linguistics. Han, R., Ren, X., and Peng, N. (2021). "ECONET: Effective Continual Pretraining of Language Models for Event Temporal Reasoning." In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 5367-5380, Online and Punta Cana, Dominican Republic. Association for Computational Linguistics. He, K., Zhang, X., Ren, S., and Sun, J. (2016). "Deep Residual Learning for Image Recognition." In Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, pp. 770-778, Los Alamitos, CA, USA. IEEE Computer Society. Hendrickx, I., Kim, S. N., Kozareva, Z., Nakov, P., Ó Séaghdha, D., Padó, S., Pennacchiotti, M., Romano, L., and Szpakowicz, S. (2010). "SemEval-2010 Task 8: Multi-Way Classification of Semantic Relations between Pairs of Nominals." In Proceedings of the 5th International Workshop on Semantic Evaluation, pp. 33-38, Uppsala, Sweden. Association for Computational Linguistics. Kingma, D. P. and Ba, J. (2015). "Adam: A Method for Stochastic Optimization." In Proceedings of 3rd International Conference on Learning Representations, San Diego, CA, USA. Kipf, T. N. and Welling, M. (2017). "Semi-Supervised Classification with Graph Convolutional Networks." In Proceedings of International Conference on Learning Representations. Kuniyoshi, F., Makino, K., Ozawa, J., and Miwa, M. (2020). "Annotating and Extracting Synthesis Process of All-Solid-State Batteries from Scientific Literature." In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 1941-1950, Marseille, France. European Language Resources Association. Laokulrat, N., Miwa, M., and Tsuruoka, Y. (2015). "Stacking Approach to Temporal Relation Classification with Temporal Inference." Journal of Natural Language Processing, 22 (3), pp. 171-196. Li, B., Ye, W., Sheng, Z., Xie, R., Xi, X., and Zhang, S. (2020a). "Graph Enhanced Dual Attention Network for Document-Level Relation Extraction." In Proceedings of the 28th International Conference on Computational Linguistics, pp. 1551-1560, Barcelona, Spain (Online). International Committee on Computational Linguistics. Li, J., Sun, Y., Johnson, R., Sciaky, D., Wei, C.-H., Leaman, R., Davis, A. P., Mattingly, C., Wiegers, T., and lu, Z. (2016). "BioCreative V CDR Task Corpus: A Resource for Chemical Disease Relation Extraction." Database, 2016. baw068. Li, L., Jamieson, K., Rostamizadeh, A., Gonina, E., Ben-tzur, J., Hardt, M., Recht, B., and Talwalkar, A. (2020b). "A System for Massively Parallel Hyperparameter Tuning." In Proceedings of Machine Learning and Systems, Vol. 2, pp. 230-246. Liu, Y., Ott, M., Goyal, N., Du, J., Joshi, M., Chen, D., Levy, O., Lewis, M., Zettlemoyer, L., and Stoyanov, V. (2019). "RoBERTa: A Robustly Optimized BERT Pretraining Approach.", arXiv preprint arXiv:1907.11692. Makino, K., Kuniyoshi, F., Ozawa, J., and Miwa, M. (2022). "Extracting and Analyzing Inorganic Material Synthesis Procedures in the Literature." IEEE Access, 10, pp. 31524-31537. Makino, K., Miwa, M., and Sasaki, Y. (2021). "A Neural Edge-Editing Approach for DocumentLevel Relation Graph Extraction." In Findings of the Association for Computational Linguistics, pp. 2653-2662. 牧野晃平, 三輪誠, 佐々木裕 $(2021)$. 辺編集による文書レベルの関係グラフ構築. 言語処理学会第 27 回年次大会 (NLP2021) 発表論文集, pp. 1497-1502. [K. Makino et al. (2019). Hen Henshu niyoru Bunsho Reberu no Kankei Gurafu Kochiku. Proceedings of the 27th Annual Meeting of the Association for Natural Language Processing, pp. 1497-1502.]. Mathur, P., Jain, R., Dernoncourt, F., Morariu, V., Tran, Q. H., and Manocha, D. (2021). "TIMERS: Document-level Temporal Relation Extraction." In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pp. 524-533, Online. Association for Computational Linguistics. McCallum, A., Freitag, D., and Pereira, F. C. N. (2000). "Maximum Entropy Markov Models for Information Extraction and Segmentation." In Proceedings of the 17th International Conference on Machine Learning, pp. 591-598, San Francisco, CA, USA. Morgan Kaufmann Publishers Inc. Miwa, M. and Bansal, M. (2016). "End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1105-1116, Berlin, Germany. Association for Computational Linguistics. Miwa, M. and Sasaki, Y. (2014). "Modeling Joint Entity and Relation Extraction with Table Representation." In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, pp. 1858-1869, Doha, Qatar. Association for Computational Linguistics. Mysore, S., Jensen, Z., Kim, E., Huang, K., Chang, H.-S., Strubell, E., Flanigan, J., McCallum, A., and Olivetti, E. (2019). "The Materials Science Procedural Text Corpus: Annotating Materials Synthesis Procedures with Shallow Semantic Structures." In Proceedings of the 13th Linguistic Annotation Workshop, pp. 56-64, Florence, Italy. Association for Computational Linguistics. Mysore, S., Kim, E., Strubell, E., Liu, A., Chang, H.-S., Kompella, S., Huang, K., McCallum, A., and Olivetti, E. (2017). "Automatically Extracting Action Graphs From Materials Science Synthesis Procedures." In Proceedings of NIPS Workshop on Machine Learning for Molecules and Materials, Long Beach, California. Nan, G., Guo, Z., Sekulic, I., and Lu, W. (2020). "Reasoning with Latent Structure Refinement for Document-Level Relation Extraction." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1546-1557, Online. Association for Computational Linguistics. Ning, Q., Feng, Z., Wu, H., and Roth, D. (2018a). "Joint Reasoning for Temporal and Causal Relations." In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2278-2288, Melbourne, Australia. Association for Computational Linguistics. Ning, Q., Wu, H., and Roth, D. (2018b). "A Multi-Axis Annotation Scheme for Event Temporal Relations." In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1318-1328, Melbourne, Australia. Association for Computational Linguistics. Pustejovsky, J., Hanks, P., Sauri, R., See, A., Gaizauskas, R., Setzer, A., Radev, D., Sundheim, B., Day, D., Ferro, L., et al. (2003). "The TimeBank Corpus." In Proceedings of Corpus Linguistics, pp. 647-656, Lancaster, UK. Quirk, C. and Poon, H. (2017). "Distant Supervision for Relation Extraction beyond the Sentence Boundary." In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, pp. 1171-1182, Valencia, Spain. Association for Computational Linguistics. Schlichtkrull, M., Kipf, T. N., Bloem, P., van den Berg, R., Titov, I., and Welling, M. (2018). "Modeling Relational Data with Graph Convolutional Networks." In Gangemi, A., Navigli, R., Vidal, M.-E., Hitzler, P., Troncy, R., Hollink, L., Tordai, A., and Alam, M. (Eds.), The Semantic Web, pp. 593-607, Cham. Springer International Publishing. Srivastava, N., Hinton, G., Krizhevsky, A., Sutskever, I., and Salakhutdinov, R. (2014). "Dropout: A Simple Way to Prevent Neural Networks from Overfitting." The Journal of Machine Learning Research, 15 (1), pp. 1929-1958. UzZaman, N., Llorens, H., Derczynski, L., Allen, J., Verhagen, M., and Pustejovsky, J. (2013). "SemEval-2013 Task 1: TempEval-3: Evaluating Time Expressions, Events, and Temporal Relations." In Proceedings of the 7th International Workshop on Semantic Evaluation, pp. 1-9, Atlanta, Georgia, USA. Association for Computational Linguistics. Verga, P., Strubell, E., and McCallum, A. (2018). "Simultaneously Self-Attending to All Mentions for Full-Abstract Biological Relation Extraction." In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 872-884, New Orleans, Louisiana. Association for Computational Linguistics. Wang, L., Cao, Z., de Melo, G., and Liu, Z. (2016). "Relation Classification via Multi-Level Attention CNNs." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1298-1307, Berlin, Germany. Association for Computational Linguistics. Wen, H. and Ji, H. (2021). "Utilizing Relative Event Time to Enhance Event-Event Temporal Relation Extraction." In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 10431-10437, Online and Punta Cana, Dominican Republic. Association for Computational Linguistics. Yamaguchi, K., Asahi, R., and Sasaki, Y. (2020). "SC-CoMIcs: A Superconductivity Corpus for Materials Informatics." In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 6753-6760, Marseille, France. European Language Resources Association. Yao, Y., Ye, D., Li, P., Han, X., Lin, Y., Liu, Z., Liu, Z., Huang, L., Zhou, J., and Sun, M. (2019). "DocRED: A Large-Scale Document-Level Relation Extraction Dataset." In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 764-777, Florence, Italy. Association for Computational Linguistics. Zelenko, D., Aone, C., and Richardella, A. (2003). "Kernel Methods for Relation Extraction." Journal of Machine Learning Research, 3 (Feb), pp. 1083-1106. Zeng, D., Liu, K., Lai, S., Zhou, G., and Zhao, J. (2014). "Relation Classification via Convolutional Deep Neural Network." In Proceedings of the 25th International Conference on Computational Linguistics: Technical Papers, pp. 2335-2344, Dublin, Ireland. Dublin City University and Association for Computational Linguistics. Zhang, Y., Qi, P., and Manning, C. D. (2018). "Graph Convolution over Pruned Dependency Trees Improves Relation Extraction." In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 2205-2215, Brussels, Belgium. Association for Computational Linguistics. Zhang, Y., Zhong, V., Chen, D., Angeli, G., and Manning, C. D. (2017). "Position-aware Attention and Supervised Data Improve Slot Filling." In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 35-45, Copenhagen, Denmark. Association for Computational Linguistics. Zhao, X., Lin, S.-T., and Durrett, G. (2021). "Effective Distant Supervision for Temporal Relation Extraction." In Proceedings of the 2nd Workshop on Domain Adaptation for NLP, pp. 195-203, Kyiv, Ukraine. Association for Computational Linguistics. Zhou, W., Huang, K., Ma, T., and Huang, J. (2021). "Document-Level Relation Extraction with Adaptive Thresholding and Localized Context Pooling." In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 35, pp. 14612-14620. ## 略歴 牧野晃平:2019 年豊田工業大学工学部卒業. 2021 年豊田工業大学大学院修士課程修了. 現在, 豊田工業大学大学院工学研究科博士課程に在学中. 言語処理学会, 人工知能学会各会員. 三輪誠:2008 年東京大学大学院博士課程修了. 博士 (科学). 東京大学, マンチェスター大学を経て, 2014 年より豊田工業大学知能数理研究室准教授. ACL,情報処理学会, 言語処理学会, 人工知能学会各会員. 佐々木裕:1988 年筑波大学修士課程理工学研究科修了. 2000 年同大学より博士 (工学) 授与. NTT 研究所, ATR, マンチェスター大を経て, 現在, 豊田工業大学知能数理研究室教授. 言語処理学会等会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 都市を横断した市民意見抽出の評価 神門 典子 $\dagger+t+t,+\dagger+\dagger \dagger \dagger$ 行政の政策や接客業のサービスの質を向上させるためには,市民によるフィードバッ クの収集/分析と同時に都市の特徴を明らかにするための他の都市との比較が重要 となる。しかし,都市によって政策やサービスは異なり,市民の抱える意見も異な るため,機械学習により複数の都市に適応した市民意見の分析を実現することは難 しい,本論文では,都市を横断して市民意見を抽出する手法を提案する,実験では,横浜市民,札幌市民,仙台市民のつぶやきを対象として,特定の都市のつぶやきで ファインチューニングしたモデルを, 評価対象の都市の比較的少量のつぶやきを用 いて再度ファインチューニングする手法の有効性を確認した。この際,評価対象の 都市の訓練デー夕は,異なる都市のつぶやきで訓練したモデルによる予測の確信度 が高いものを選定することが有効であることを明らかにした。 キーワード:市民意見分析,COVID-19,マルチタスク学習,T5 ## Evaluation of Citizen Opinion Extraction Across Cities \author{ Tetsuya Ishida $^{\dagger}$, Yohei Seki ${ }^{\dagger \dagger}$, Atsushi Keyaki ${ }^{\dagger \dagger}$, \\ WaKako Kashino ${ }^{\dagger \dagger \dagger}$ and Noriko Kando ${ }^{\dagger \dagger \dagger+,, \dagger \dagger \dagger \dagger \dagger}$ } Gathering citizen feedback, analyzing it, and comparing the results against other cities is essential for improving government policy and service quality. However, because different cities have different policies and services, the opinions of citizens in different cities also differ. This makes it difficult to analyze citizen opinions adapted for multiple cities using machine learning. In this study, we propose a method for extracting citizen opinions across cities. We evaluated our proposed method using a tweet dataset collected from citizens of Yokohama, Sapporo, and Sendai, confirming its effectiveness to fine-tune a model using the source city and re-fine-tune it with a few tweets from the target city. We clarified that training data in the target city can be effectively selected using the model trained with tweets from the source city, with high confidence in the prediction. Key Words: Citizen Sentiment Analysis, COVID-19, Multitask Learning, T5  ## 1 はじめに 自治体による政策の改善には,都市で暮らす市民の意見を収集し,反映させることが重要となる。また,接客業のサービスの質を向上させるためにも,店員の接客に対する批評や,提供している商品の評価等の意見を反映させることが重要となる. これらの背景から, 著者らの先行研究 (Ishida et al. 2022) では, 特定の都市の市民による Twitter 1 のつぶやきから, 分析対象の市民意見を自動抽出するためのフレームワークを提案した。このフレームワークでは,人手で作成した市民意見分析コーパスを教師データとして,BERT (Devlin et al. 2019) を用いたマルチタスク学習モデルをファインチューニングすることで,つぶやきの意見タイプや極性等の複数の属性を推定した.Twitterでは多くのユーザが日頃感じたことを気軽に述べており,市民が生活している都市の自治体による政策や,日頃利用している接客業のサービスに関する多様な市民意見を収集することができる. 一方で,市民ユーザが感じたことが,分析対象の都市の市民に特有の意見であるのか,それとも他都市の市民も同様に感じている意見であるのかといった判断には,他都市の市民意見との比較が重要となる。しかし, 都市によって自治体の政策やその都市の店舗の接客業のサービスは異なる,そのため,別の都市を対象として市民意見を抽出するには,その都市のつぶやきを対象として,市民意見抽出モデルを訓練するための新たな教師デー夕を作成する必要がある.一方で,すべての都市を対象とした教師データの作成にかかるコストは大きく,こうした実装方法は現実的とはいえない,そこで本研究では,教師データを構築済みの都市(以降,ソース都市と呼ぶ)のデータと,評価対象の別の都市(以降,ターゲット都市と呼ぶ)の比較的少量のデータを活用して,ターゲット都市の市民意見を抽出する手法を提案する。本手法により,これまでに市民意見を抽出していた都市とは異なる都市で新たに市民意見を抽出する際の,教師データ作成にかかるコストを削減することを目的とする。また,ソース都市のデータでファインチューニングを行ったモデルによるターゲット都市のデータへの予測の確信度の情報を活用し,ターゲット都市の教師データを効果的に選定する手法について検証を行う. 実験では,政令指定都市である横浜市と札幌市に暮らす市民のつぶやきを対象として構築した市民意見分析コーパスを用いて,都市を横断した市民意見抽出手法の有効性について検証する。また,横浜市と札幌市と比較して人口が少ない仙台市に暮らす市民のつぶやきを対象として, ソース都市と比較して十分なつぶやきが得られない都市をターゲット都市にする際の市民意見抽出手法の有効性について検証する. 本研究の貢献は以下の通りである. (1)都市を横断した市民意見抽出手法の有効性の検証のため,横浜市民と札幌市民のつぶや  きからなる市民意見分析コーパスを作成した. (2) ソース都市のデータとターゲット都市の比較的少量のデータを用いて 2 段階のファインチューニングを行う手法を提案し,各属性の推定における有効性を検証した。 (3) ターゲット都市の教師データは,ソース都市の教師データでファインチューニングしたモデルによる予測の確信度が高いものを選定して構築することで,アノテーションコストを効果的に削減できることを示した。 本論文の構成を以下に示す。 2 節では,関連研究について述べる. 3 節では,提案手法の複数の都市を横断した市民意見抽出について述べる.4 節では,都市を横断した市民意見抽出の実験に使用するコーパスの構築について述べる。 5 節では,都市を横断した各属性のラベル分類の分類精度について,単一都市の訓練データを利用した際の分類精度や, ソース都市のみで訓練した際の分類精度との比較を行い,有効性について検証する。 6 節では,提案手法である都市を横断した市民意見抽出手法を用いて,実際に市民意見を抽出した際の結果と,エラー分析について述べる。最後に 7 節において,本論文のまとめを示す. ## 2 関連研究 ## 2.1 都市ごとの市民意見の分析に関する研究 行政による政策や接客業のサービスは都市によって異なるため, ソーシャルメディア上の市民意見も市民が生活している都市によって異なる。しかし,全ての都市で人手で教師データを作成するのはコストが高いため,都市ごとに市民意見の分析を行っている研究では,絵文字を用いたルールベース手法でつぶやきの極性を判定する手法 (Vosoughi et al. 2015) や,つぶやきを用いて事前学習された公開済みのモデル (Barbieri et al. 2020) による予測によって, 自身の研究に用いるつぶやきの極性を自動推定する手法 (Stelzmüller et al. 2021; Jin et al. 2021) が用いられている。これらの手法では,アノテーションコストを抑えた上で市民意見の分析ができる一方で,都市によって市民意見の傾向が異なるにも関わらず,全ての都市に対して同じ手法で市民意見を分析している。また,ルールベースで全てのつぶやきの極性を一括で分類する手法では,人手によるアノテーションとは異なる結果が得られてしまう (Vosoughi et al. 2015)。そのため, 本研究では,夕ーゲット都市においても,アノテーションコストを抑えた上で比較的少量のアノテーションデータを作成し,ソース都市における教師データと組み合わせて使用することで,都市ごとに異なる市民意見に対応する手法を提案する. また,上記の意見分析研究では,肯定や否定といった極性のような特定の観点からつぶやきに表れる市民意見の分析を行っている。しかし,実際の市民意見は多様であり,特定の観点のみの分析では,多様な市民意見の整理は難しい,そこで本研究では,アプレイザル理論に基づく意見タイプを含む,複数の観点からの分析を行うことで,多様な市民意見の整理を試みる。アプレ イザル理論 (Martin and White 2005) は, 選択体系機能言語学 (systemic functional linguistics) (Halliday 1985) の立場から提案された, 意見を体系化する理論であり,アプレイザル理論を用いることで,意見の対象に着目した分析を行うことができる.アプレイザル理論において,テキストに現れる感情 (attitude) は,「自発的感情の表明 (affect)」,「人間・組織の振舞や行為を対象とした批評 (judgment)」,「事物・事象を対象とした評価 (evaluation)」の 3 種類に分類される。市民の抱える不安を抽出する際には「自発的感情の表明」が重要となり,行政や接客業の店員に対する批評を抽出する際には「人間・組織の振舞や行為を対象とした批評」が重要となる.また,飲食店で提供される商品の評価を分析する際には「事物・事象を対象とした評価」 が重要となるように,アプレイザル理論によって意見を体系化することで,目的に応じた市民意見の抽出が可能となる (Ishida et al. 2022). ## 2.2 アノテーションコストの削減に関する研究 コストを削減し,新たなアノテーションデータを効果的に作成する手法としては,能動学習 (active learning) (Settles 2010; Ren et al. 2021) が有効であり, 意見分析研究においても活用されている (Räbiger et al. 2016; Wu et al. 2017; Shim et al. 2021). 能動学習では, はじめにアノテーション済みのデータを活用してモデルの訓練を行い,訓練後のモデルを用いて,アノテー ションが行われていないデータから新たに人手でアノテーションを行うべきデータを選定する. この際, 新たなアノテーション候補となるデータの選定手法としては, モデルの予測の確信度が低いデータを選定する手法 (Lewis and Gale 1994) が一般的に用いられている。この手法では,学習済みのモデルを用いて高い確信度で予測できるデータに対しては新たにアノテーションは行わず,モデルの予測の確信度が低く,学習が不十分なデータに対してのみ人手でアノテーションをすることで,モデルの予測性能を向上させている. 一方で,限られたデータを活用してモデルの性能を向上させる手法としては,半教師あり学習 (semi-supervised learning) (Zhu 2008; van Engelen and Hoos 2020) が有効な手法であり, 意見分析研究においても用いられている (He and Zhou 2011; Silva et al. 2016; Peng et al. 2018; Chen et al. 2020; Sazzed and Jayarathna 2021)。半教師あり学習の中でも, 自己訓練 (self-training) (Yarowsky 1995; He and Zhou 2011; Sazzed and Jayarathna 2021) や, 共訓練 (co-training) (Blum and Mitchell 1998; Peng et al. 2018; Chen et al. 2020)の手法では, 能動学習と同様に, はじめにアノテーション済みのデータを活用してモデルの訓練を行い,訓練後のモデルを用いて,アノテーションが行われていないデータに対する予測を行う。しかし, 能動学習手法とは逆に,モデルの予測の確信度が高いデータに対して,モデルによる予測結果を正解ラベルとして自動的に付与することで,アノテーションを行うことなく教師データを拡張する. 本研究においては, ソース都市で訓練したモデルによるターゲット都市のつぶやきへの予測の確信度を用いて,新たにアノテーションすべきデータの選定を行う。そこで,実験において, ソース都市におけるモデルの予測の確信度が高いデータを選定する手法とモデルの予測の確信度が低いデータを選定する手法のどちらが有効であるかを検証する。 ## 2.3 マルチタスク学習と T5 マルチタスク学習 (Caruana 1997) とは, 共通のモデルを用いて関連する複数のタスクを同時に学習することで, 各タスクを独立して学習するよりも高い精度を実現できる手法である. マルチタスク学習では, 異なるタスクの学習によって得られた情報が帰納バイアス (inductive bias) (Mitchell 1980)としての役割を果たすことで, モデルの一般性を向上し, 未知のデータに対する予測性能を高めることができる。本研究における市民意見抽出では,市民意見の整理のために複数の属性の分類タスクを行うため, マルチタスク学習を用いて関連のある属性を同時に分類することで,各属性の分類精度の向上が期待できる。 著者らの先行研究 (Ishida et al. 2022)では, BERT (Devlin et al. 2019) を用いたマルチタスク学習手法である Multi-Task Deep Neural Networks (Liu et al. 2019)を参考にマルチタスク学習モデルを構築したが,本研究では,BERT と比較して多くのタスクで高い性能を示す,T5 モデル (Raffel et al. 2020) を用いてマルチタスク学習モデルを構築する.T5 は分類タスクや回帰夕スク,翻訳タスクなどの全ての自然言語処理タスクの入出力を全てテキストとして統一された形式で扱うことで,単一のモデル構造で多くの夕スクにファインチューニング可能であり,マルチタスク学習モデルの構築に適した言語モデルである。本研究では, 各属性の分類実験において, マルチタスク学習の有効性, 並びに, BERT モデルと比較した際の T5 モデルの有効性を検証する. ## 3 提案手法:複数の都市を横断した市民意見抽出 本研究における都市を横断した市民意見抽出では,先行研究 (Ishida et al. 2022)で用いた意見分析コーパスを複数の都市に拡張し,ソース都市のつぶやきとターゲット都市の比較的少量のつぶやきを用いて 2 段階のファインチューニングを行う手法の評価を行う.本研究では,複数の都市において, 新型コロナウイルス感染症の流行によって休園や登園自粛で大きな問題となった「保育園」と, 同じく新型コロナウイルス感染症の流行によって急激に利用者が増加した「飲食店のテイクアウト」のサービスに関連するキーワードを含むつぶやきを対象として, 3.1 節で述べる複数の属性に対するラベルを付与した市民意見分析コーパスを人手で作成する.次に,作成した市民意見分析コーパスを教師データとして,都市を横断した各属性のラベル分類モデルを訓練する.そして,訓練した分類モデルにターゲット都市の未知のつぶやきを入力し, 各属性のラベルを推定することで,つぶやきに複数の属性に対するラベルを自動で付与する.これらの属性に対して必要とするラベルを条件として指定することで,ターゲット都市の 未知のつぶやきから指定された条件を満たす市民意見のみを抽出することができる. そこで, 3.1 節でつぶやきに付与する各属性を定義し, 3.2 節で複数の属性を用いた市民意見抽出手法について説明する,そして, 3.3 節で, 3.2 節の手法を拡張し,都市を横断した市民意見抽出を行う手法について説明する。 ## 3.1 付与する属性の定義 本研究では, 保育園と飲食店のテイクアウトの 2 つのサービスのつぶやきを対象として, 市民意見抽出を行う,本節では,意見に関連する属性を複数定義するが,1つのつぶやきには複数の意見が含まれることが多い,そのため,意見に直接関連する属性(3.1.1 節で定義する 3 つの属性)については,1つの意見を含む文,もしくは節を対象に属性のラベルを付与する(以降, 1つの意見を含む文,もしくは節を意見ユニットと呼び (Seki et al. 2010),意見ユニットに付与する属性を意見属性と呼ぶ。一方で,3.1.2節で定義する,つぶやき全体に付与する属性は,以降,つぶやきの属性と呼ぶ.)。また,各サービスに関して,事前に意見を抽出したいと考えている特定の話題については,あらかじめ話題との関連性を判断するモデルを訓練しておくことで,特定の話題に関連するつぶやきのみを自動抽出する. ## 3.1.1意見ユニットに付与する意見属性 ・ アプレイザル意見タイプ アプレイザル理論に基づき,対象に着目した意見のタイプを判断する。ラべルの選択肢は「自発的感情の表明」,「人間・組織の振舞や行為を対象とした批評」,「事物・事象を対象とした評価」,「該当無し」. - 極性 従来の意見分析研究でも用いられている,つぶやきの極性を判断する、ラべルの選択肢は「肯定」「否定」「中立」,「意見無し」. -コミュニケーション意見タイプ モダリティおよび言語行為論を参考にして (大塚他 2007),アプレイザル理論に含まれない意見タイプを判断する。これによって意見の網羅性を高める。ラベルの選択肢は「推測」,「提案」,「疑問」,「要求」,「該当無し」. ## 3.1.2つぶやき全体に付与するつぶやきの属性 - 地域依存性 意見に地域依存性があるか,すなわち,その都市で暮らす市民特有の意見か,もしくは社会一般的な意見かを判断する,地域に依存するとは,市や県等の地名や,地域の特定が可能な飲食店等の施設名を含むもの,もしくはつぶやきの内容が市民の暮らす地域に 関するものである,と定義する。ラベルの選択肢は「依存」,「非依存」. ・ サービスとの適合性 この属性は,各サービスに関連するキーワードを含むが,内容は適合しないつぶやきからの意見抽出を避けるために定義する。ラベルの選択肢は「適合」,「不適合」. - 投稿主の立場 どのようなユーザによって投稿されたつぶやきであるかを判断する. ラべルの選択肢は,保育園サービスが「小さい子を持つ親」,「保育園関係者」,「その他」,飲食店のテイクアウトサービスが「店を利用した人」,「飲食店の従業員」,「その他」. ## 特定の話題との関連性(保育園サービス) - 休園・登園自粛との関連性 新型コロナウイルス感染症によって大きな問題となった, 保育園の休園や登園自粛といった話題との関連性を判断する。ラベルの選択肢は「関連する」「関連しない」. - 保育園の定員との関連性 横浜市で大きな問題となっている待機児童問題や, 保育園の合否のような保育園の定員の話題との関連性を判断する。ラベルの選択肢は「関連する」,「関連しない」. ## 特定の話題との関連性(飲食店のティクアウトサービス) - 商品の評価との関連性 商品の味や量, 提供状態等の評価を含むかを判断する、ラベルの選択肢は「関連する」,「関連しない」. ## 3.2 複数の属性を用いた市民意見抽出手法 複数の属性を用いた市民意見抽出手法を図 1 に示す。本手法では,はじめに,各サービスに関連するキーワードを含むつぶやきを収集し,収集したつぶやきを複数の意見ユニットに分割する.意見ユニットに付与するアプレイザル意見タイプ,極性,コミュニケーション意見タイプの 3 つの意見属性については,全て意見ユニット内の同じ意見についての属性であることから,これらの属性の推定タスクには関連性がある。そのため,意見属性のラベル分類では,マルチタスク学習による精度向上が期待できる。先行研究 (Ishida et al. 2022) では, 事前学習モデルとして BERT を用いていたが,本研究では,よりマルチタスク学習に適したモデルとして T5 を用いる。一方でつぶやきの属性は,属性間に関連性は無いため,各属性を独立の T5 モデルを用いて分類する。そして,これらのモデルの分類結果を利用して,複数の属性に対するラベルを意見ユニット,つぶやきに付与し,属性の条件を指定することで,全ての条件を満たすつぶやきのみを抽出する. ## 3.3 都市を横断した市民意見抽出 3.2 節の複数の属性を用いた市民意見抽出手法を拡張し,都市を横断した市民意見抽出を行う手法を図 2 に示す.ここでは,はじめに正解ラベル付きのソース都市のつぶやきを教師データとして,各属性の分類モデルの 1 段階目のファインチューニングを行う。続いて,ソース都市のつぶやきでファインチューニングを行った各属性の分類モデルを用いて,ターゲット都市のつぶやきの各属性のラベルを予測する。この際,モデルの予測の確信度を同時に出力することによって, 予測の確信度が付与された状態のターゲット都市のつぶやきを得る。そして, 予測 図 1 複数の属性を用いた市民意見抽出手法 図 2 都市を横断した市民意見抽出 の確信度を用いて抽出した一部のつぶやきに対して, 人手による各属性に対するラベルのアノテーションを行い, 正解ラベル付きのターゲット都市の一部のつぶやきを得る. 2.2 節で述べたように,夕ーゲット都市におけるつぶやきから確信度が上位のつぶやきあるいは確信度が下位のつぶやきのどちらを選定する手法が有効であるかを,5節の都市を横断した各属性のラベル分類実験において検証する。こうして得られた正解ラベル付きのターゲット都市の一部のつぶやきを教師データとして,ソース都市のデータによる 1 段階目のファインチューニングを行ったモデルからパラメータを保存済みの各属性の分類モデルについて, 2 段階目のファインチューニングを行う.そして, 3.2 節で述べた手法によって, ターゲット都市のつぶやきを対象として,複数の属性を用いた市民意見抽出を行う。 ## 4 市民意見分析コーパス 本節では,都市を横断した市民意見抽出手法の評価に用いる,複数の都市の市民のつぶやきからなる市民意見分析コーパスについて述べる.4.1節では,本研究で使用するつぶやきの収集方法について述べ, 4.2 節で,つぶやきに対する人手によるアノテーションについて述べる. ## 4.1 つぶやきの収集方法 ## 4.1.1市民アカウントの収集 はじめに,Twitterのプロフィール情報に基づき,各都市の市民アカウントを収集する (長島他 2016),市民アカウントの収集においては,まず,ツイプロ²の検索 API を用いて,Twitter のプロフィール内の所在地闌,またはプロフィール本文に,「神奈川区」や「戸塚区」といった各都市の行政区,もしくは,(神奈川区内の)「青木町」,(戸塚区内の)「秋葉町」のような,行政区内の町名が含まれるアカウントを収集する3 $、$ 、次に,以下の方法に基づき,収集したアカウントが各都市の市民のアカウントであるかを判定する. ## 市民アカウントの判定 はじめに, 有名人のアカウントや bot からのつぶやきの収集を避けるため, 3,000 以上のフォロワー数, もしくは 4,000 以上のフォロー数のアカウントは除去する. また, 上記のツイプロの検索 API を用いたアカウントの収集では,横浜市中区のアカウントの収集を行う際には,「中区」を検索クエリの1つとする。しかし, 中区という区名は, 横浜市のみではなく, 岡山市や広島市にも存在するため, 上記の方法のみでは他都市の市民アカウントも同時に収集してしまう.そこで,判定対象のアカウントのプロフィールの所在地欄を参照し, 事前に定めた, 各都  市の市民アカウントがプロフィールに記述すると考えられるキーワードとのマッチングを行う. そして, キーワードとマッチした場合は, 判定対象のアカウントを市民アカウントと判定する.横浜市と札幌市において,事前に定めたキーワードは以下の通りである。 $\cdot$ 横浜市:よこはま, ヨコハマ, 横浜, yokohama, 横濱, はまっこ, 赤レンガ, 赤棟瓦 - 札幌市:さっぽろ, サッポロ, 札幌, sapporo キーワードとのマッチングを行う.また,プロフィールの所在地欄が空欄の場合,もしくは,所在地欄を対象としたキーワードマッチングでは市民のアカウントと判定されなかったものの, $\mathrm{MeCab}^{4}$ を用いた形態素解析の結果, 所在地欄に地域を表す単語が含まれていたアカウントについては,上記の所在地欄を対象としたキーワードとのマッチングをプロフィールの本文を対所として行い,マッチしたアカウントのみ,市民アカウントと判定する. ## 市民アカウントの拡張 ツイプロの検索 API を用いた方法で収集した市民アカウントをフォローしているアカウントも,同様に対象都市の市民アカウントである可能性がある。そこで,さらにアカウントのフォロー関係を参照し,市民アカウントの拡張を行う。 市民アカウントの拡張では,まず,ツイプロの検索 API を用いた方法で収集したアカウントのうち,上記の判定方法で対象都市の市民アカウントであると判定されたアカウントのフォロワーを全て取得する。 そして,取得した市民アカウントのフォロワーのアカウントに対しても,同様に上記の市民アカウントの判定を行う,判定の結果,対象都市の市民アカウントの条件を満たすアカウントについては,市民アカウントとすることで,つぶやきの収集対象となる市民アカウントを拡張する。 ## 4.1.2市民アカウントによるつぶやきの収集 4.1.1 節の方法を用いて,横浜市民アカウント 82,583 件と札幌市民アカウント 64,790 件を収集し,これらの各都市の市民アカウントのつぶやきを,Twitterの Streaming API を用いて収集した. これらのつぶやきのうち, 2020 年 1 月 1 日から 2020 年 7 月 11 日までの横浜市民の計 $28,971,414$ 件のつぶやきと, 札幌市民の計 $19,286,694$ 件のつぶやきから, 「保育園」,「保育士」,「保活」,「待機览童」の単語を含むつぶやきを保育園サービスのつぶやきとして収集し,「持ち帰り」,「テイクアウト」の単語を含むつぶやきを飲食店のテイクアウトサービスのつぶやきと ^{4}$ https://taku910.github.io/mecab/ } して収集した。なお, リツイートや重複するつぶやきは取り除いた。 本研究で用いるデータ数は両都市の両サービスに共通で 2,622 件のつぶやきと, それらを文単位に区切り直したものとする。つぶやきの文単位への区切り直しには,Python のライブラリ, $\mathrm{spaCy}^{5}$ を用いた. この際, 名詞のみで構成される文は意見性を含まないものが多いため, $\mathrm{spaCy}$ による区切り直し後に名詞のみで構成された文が抽出された場合,つぶやきの先頭以外に現れる文は 1 つ前の文に結合し,先頭に現れる文は 1 つ後ろの文に結合する処理を行った. また, 改行は文の区切りとした,さらに,ハッシュタグのみの文も意見を含まないものが多いため,前の文と結合する処理を行った,最後に,閉じ括弧から始まる文については,前の文と結合する処理を行った。 ## 4.2 人手による各属性のアノテーション 収集した横浜市民と札幌市民のつぶやきに 3.1 節で定義した各属性に対するラベルを付与するアノテーション作業を人手で行い, 市民意見分析コーパスを作成した. アノテーション作業は,各都市ごとに第一著者を含む合計 5 名の判定者によって行い,全てのアノテーション結果は多数決によって決定した。 アノテーション作業では,はじめに各判定者のアノテーション方針を一致させるための訓練を行った。訓練では,保育園サービス 250 文と飲食店のテイクアウトサービス 250 文の計 500 文と, 各文を含むつぶやきを対象に,5 名全員で各属性のラベルを判定し, 判定者のアノテー ション方針が一致した時点で訓練を終了した。この際, 1 文に複数の意見が含まれると判断した場合は,複数の意見が現れない意見ユニットとなるまで分割した.意見ユニットへの分割作業は全員で意見を交換し,過半数の判定者間で意見が一致した文でのみ行った. 訓練終了後に, 残りの全てのアノテーション作業を行った. 第一著者は全てのつぶやき, 文のアノテーションを行い,両都市において,残りの 4 名を 2 名ずつに分けることで,各 3 名ずつの 2 チームを作り, 各チームが全体の半数ずつのつぶやき, 文のアノテーションを担当した. この際も,1 文に複数の意見が含まれると過半数の判定者間で判断が一致した場合は,複数の意見が現れない意見ユニットとなるまで分割した. Fleiss の $\kappa$ 係数 (Fleiss 1997)を用いた各チームのアノテーションの判定者間一致度を表 1 に示す. 表 1 より, 両都市の全ての属性において Fleiss の $\kappa$ 係数は 0.6 (Substantial Agreement(Landis and Koch 1977)) 以上となり, 判定者によって属性のラベル判定に大きな差異が生まれないことが示された. なお, 各都市のアノテーションにかかる時間は,アノテーション方針を一致させるための訓練が 7 時間,訓練終了後の全てのアノテーション作業が 78 時間で, 計 85 時間となっている. ラベルの選択肢が 3 つ以上存在する属性において,3名のアノテーション結果が全て異なる ^{5}$ https://spacy.io/ } 表 1 各属性の判定者間一致度 ( Fleiss' $\kappa$ ) 表 2 複数都市を対象とした市民意見分析コーパスのデータ数 ラベルになる場合や, 5 名のうち 2 名ずつがそれぞれ同じラベルを選択し, 残りの 1 名が別のラベルを選択した場合は,多数決によって結果を 1 つのラベルに定めることができない。このような場合については, 判定者間で意見を交換することで, 最終的に全ての結果を多数決で決定した. 得られた市民意見分析コーパスの各都市におけるつぶやきと意見ユニットのデータ数を表 2 に示す. ## 5 都市を横断した各属性のラベル分類実験 本実験では,横浜市と札幌市の市民のつぶやきからなる市民意見分析コーパスを用いて, 3.3 節の手法による都市を横断した各属性のラベル分類を行い,手法の有効性を検証する。 ## 5.1 実験の方法 ## 予備実験:単一都市における各属性のラベル分類 著者らの先行研究では,BERT モデルを用いて単一都市における各属性のラベル分類を行う場合, 意見属性については, 意見属性のすべての属性を同時に学習するマルチタスク学習の手法が有効であり,つぶやきの属性については,各属性について独立に学習する手法が有効であることが示されている. そこで, 都市を横断した実験に先立ち, 5.2 節の予備実験において, 本研究で用いる T5 モデルにおいても, 著者らの先行研究と同様の結果が得られるか, また, BERT モデルと比較して T5 モデルが有効であるかを単一都市において検証する.意見属性の分類においては,各属性を独立の T5 モデルで分類する独立学習の手法を比較手法とし,各属性を 1 つの T5 モデルで分類するマルチタスク学習手法の有効性を検証する。一方で,つぶやきの属性は各属性間に関連性が無いため,すべての属性を 1 つの T5 モデルで分類するマルチタスク学習手法を比較手法とし,各属性を独立の T5 モデルで分類する手法の有効性を検証する。さらに, 上記のすべての手法について, T5 モデルと同様に BERT モデルの精度を算出することで, BERT モデルと比較した際の T5 モデルの有効性についても検証を行う。なお, 本研究で用いる BERT モデルと T5 モデルは, Pythonの Hugging Face transformers ライブラリの事前学習済みモデル6を用いてファインチューニングを行う。 ## 都市を横断した各属性のラベル分類 5.3 節の都市を横断した各属性のラベル分類実験では,はじめにソース都市の市民意見分析コーパスの全データを用いて,各属性の分類モデルをファインチューニングする.次に,夕ー ゲット都市のデータを $25 \%, 50 \%$ と一部用いることで,ソース都市で訓練済みのモデルを再度ファインチューニングする,ターゲット都市から一部使用するデータの選択については,以下の手法について比較を行う. - $25 \%$ のデータを用いる場合 (1) モデルの予測の確信度が上位 $25 \%$ のデータを使用する手法; (2) モデルの予測の確信度が下位 $25 \%$ のデータを使用する手法; (3) ランダムに $25 \%$ 選択する手法. ・ $50 \%$ のデー夕を用いる場合 (1) モデルの予測の確信度が上位 $50 \%$ のデータを使用する手法; (2) モデルの予測の確信度が下位 $50 \%$ のデータを使用する手法; (3) モデルの予測の確信度が中間の $50 \%$ のデー夕を使用する手法; (4) モデルの予測の確信度上位 $25 \%$ と下位 $25 \%$ のデータを使用する手法; (5) ランダムに $50 \%$ 選択する手法. モデルの予測の確信度を用いたデータの選択では,はじめにソース都市のデータを使って T5 ^{6}$ BERT モデル:https://huggingface.co/cl-tohoku/bert-base-japanese-v2 T5 モデル:https://huggingface.co/sonoisa/t5-base-japanese } モデルをファインチューニングし,市民意見分析コーパスに含まれるターゲット都市の全てのデータの各属性のラベルを推定する。そして, ターゲット都市のデータのうち,モデルの予測の確信度7の情報を用いて,2 段階目のファインチューニングに用いるためのデータを選択する. 5.3.3 節において, 都市を横断した各属性のラベル分類実験の考察を行う. 5.3 .3 節の考察では,モデルの予測の確信度が上位のつぶやきを用いる場合と確信度が下位のつぶやきを用いる場合の双方の手法において, 作成された教師データの各属性のラベルの分布を算出することで,手法ごとに得られる教師データの特徴を分析する. ## 都市を横断した市民意見抽出手法の有効性の検証 5.4 節では,都市を横断した各属性の分類精度と,都市を横断せずに単一都市のデー夕を用いてラベル分類を行った際の各属性の分類精度, ソース都市のみで訓練した際の分類精度の比較を行うことで,都市を横断した市民意見抽出手法の有効性の検証を行う. はじめに,ソース都市のデータのみで訓練を行ったモデルによる,ターゲット都市の各属性のラベル分類精度を算出する。これによって, 市民が異なる意見を抱える複数の都市において, ターゲット都市のデータを一切用いない場合,つまり,訓練データとテストデータの都市が異なる場合に,各属性のラベル分類精度がどの程度低下するのかを検証する. また,単一都市における各属性に対するラベルの分類では, ターゲット都市の $100 \%$ のデータを用いてラベル分類を行っているのに対し,都市を横断した各属性に対するラベルの分類では, ソース都市のデータを $100 \%$ 用いているものの,ターゲット都市のデータは $50 \%$ か用いていない. そのため, これらの手法を比較することによって, 既存の都市とは異なるターゲット都市で市民意見の分析を行う際に,データ作成コストを半減した状態で,精度差をどの程度まで抑えられるかを検証する。 都市を横断した各属性に対するラベルの分類には, 5.3 節において最高精度となった手法を用い,都市を横断せずに単一都市のデータを用いて各属性に対するラベルの分類を行う手法には, 5.2 節において最高精度となった手法を用いる.ソース都市のみで訓練した際の各属性に対するラベル分類には,5.2 節において最高精度となった手法において,訓練データをソース都市,テストデータをターゲット都市とした手法を用いる. ## つぶやきの数が十分に得られない都市における提案手法の有効性の検証 最後に,5.5節において,つぶやきの数が十分に得られない都市における提案手法の有効性の検証を行う.4節で作成した市民意見分析コーパスでは,横浜市と札幌市の双方において 2,622 件と同じ量のつぶやきを用いている。しかし,全ての都市において横浜市や札幌市と同じ量のつぶやきが得られるとは限らない。そこで本節では,横浜市や札幌市と比較して,収集可能な  保育園サービスのつぶやきの数が半数以下となっている仙台市を対象として,提案手法の有効性の検証を行う。 5.5 節では,前述した都市を横断した各属性のラベル分類と同様の実験について,横浜市と札幌市をそれぞれソース都市とし,仙台市をターゲット都市とした場合の検証を行う. さらに,都市を横断した仙台市の各属性のラベル分類精度と,都市を横断せずに仙台市単一のデータを用いてラベル分類を行った際の分類精度, ソース都市である横浜市と札幌市のみのデータを用いて訓練した際の分類精度との比較を行うことで,前述した都市を横断した市民意見抽出手法の有効性の検証を,仙台市をターゲット都市として行う. ## 各属性の分類実験に用いる評価指標 本実験の評価指標は全て $\mathrm{F}$ 値とし,5 分割交差検証を用いてコーパス内の全てのデータの各属性の分類精度を算出する.5 分割交差検証の各検証では,全体の $20 \%$ のデータをテストデー 夕, $16 \%$ のデータを検証データ, $64 \%$ のデータを訓練データとして用いる。テストデータについては,全ての実験で同じデータを用いる,ターゲット都市のデータを $25 \%, 50 \%$ 用いる手法では,モデルの2段階目のファインチューニングに使用する 5 分割交差検証における訓練データ,検証データの割合を変化させる.ファインチューニングのエポック数は, 5 分割交差検証の各検証において,2,3,4,5 エポックのうち,検証デー夕における $\mathrm{F}$ 値が最も高いものを用いる. なお, 5.4 節, 5.5.3 節で行う,ソース都市のみで訓練を行ったモデルによるターゲット都市の各属性のラベル分類では,訓練データとテストデータの都市が異なり, 完全に別のデータとなるため, 5 分割交差検証は行わない. ## 5.2 予備実験:単一都市における各属性のラベル分類の結果 単一都市のデータを用いて行った予備実験の結果を表 3 , 表 4 に示す. - 表 3 より, 意見属性のラベル分類では, 全ての属性において T5 モデルを用いたマルチタスク学習手法が最高精度となっている. さらに, 提案手法と比較した際に, 全ての手法において,1 対の対応のある両側 $t$ 検定で有意差が有り(有意水準 $5 \%$ ), その効果量 (Pearson's $r$ ) が大きい (large (Cohen 1992))ことを確認した8 8 .この結果から,T5 モデルを用いた場合においても, 先行研究の BERT モデルと同様に, 意見属性の分類にはマルチタスク学習手法が有効であると分かる.また, T5 モデルと BERT モデルのマルチタスク学習手法のラベル分類の精度を比較すると, 全ての属性で T5 モデルのマルチ夕スク学習手法が高精度となっていることから,意見属性のラベル分類における T5 モデルの有効性が示された.  & 各属性独立 & マルチタスク & 各属性独立 \\ *提案手法に対して 1 対の対応のある両側 $t$ 検定で有意差有り(有意水準 $5 \%$ ) 表 3 T5 モデルと BERT モデルを用いた際のマルチタスク学習手法と各属性独立学習手法の意見属性のラベル分類精度の比較(F 值) - 表 4 より, つぶやきの属性では, 横浜市, 札幌市の全 18 属性のうち, 13 属性で T5を用いた各属性独立学習の手法が最も高い精度となっている。各属性独立の T5 モデルとマルチタスク学習を用いた T5 モデルを比較すると, 横浜市の保育園サービスの地域依存性,定員との関連性,札幌市の保育園サービスの地域依存性の 3 属性でのみマルチタスク学習が独立学習を上回る精度となっているが, これらの属性においても, $\mathrm{F}$ 値の精度差は 0.02 未満と小さい. よって,つぶやきの属性については,各属性独立の T5 モデルを用いる手法が有効であると分かる. また, T5 モデルの各属性独立学習と BERT モデルの各属性独立学習を比較した際に,札幌市のテイクアウトサービスの地域依存性以外の全ての属性で,T5 モデルが高精度となっている。 さらに,札幌市のテイクアウトサービスの地域依存性についても $\mathrm{F}$ 値の差が 0.001 と極めて小さいことから,つぶやきの属性についても,BERT モデルと比較してT5 モデルが有効であると分かる. 以上の予備実験の結果を踏まえ,5.3 節の都市を横断した各属性の分類実験においては,意見属性の分類には T5 モデルを用いたマルチタスク学習手法を使用し,つぶやきの属性の分類には,T5 モデルを用いて各属性を独立にラベル分類する手法を使用する. & マルチタスク & 各属性独立 & マルチタスク \\ *提案手法に対して 1 対の対応のある両側 $t$ 検定で有意差有り(有意水準 $5 \%$ ) 表 4 T5 モデルと BERT モデルを用いた際の各属性独立学習手法とマルチタスク学習手法のつぶやきの属性のラベル分類精度の比較(F 值) ## 5.3 都市を横断した各属性のラベル分類の実験結果 ## 5.3 .1 都市を横断した意見属性のラベル分類精度 都市を横断した意見属性のラベル分類の精度を表 5 , 表 6 に示す. - 表 5 より,ターゲット都市の $25 \%$ のデータを用いて都市を横断した分類を行う場合,全ての属性において,1段階目にファインチューニングしたモデルによる予測の確信度が高いターゲット都市のデータを選定し,2 段階目のファインチューニングを行う手法が最高精度となっている。 - 表 6 より, ターゲット都市の $50 \%$ のデータを用いる場合は, 横浜市のテイクアウトサービスのコミュニケーション意見タイプを除いて, 全ての属性で 1 段階目にファインチュー ニングしたモデルによる予測の確信度が高いターゲット都市のデータを選定する手法が最も高精度となっており, さらに,ターゲット都市の $25 \%$ のデータを用いる場合よりも高精度となっている。 よって,都市を横断して意見属性の分類を行う際には,1段階目にファインチューニングした } & \multirow[t]{2}{*}{ サービス } & \multirow[t]{2}{*}{ 属性 } & \multicolumn{3}{|c|}{} \\ *上位 $25 \%$ 手法に対して 1 対の対応のある両側 $t$ 検定で有意差有り(有意水準 $5 \%$ ) 表 5 ターゲット都市の $25 \%$ のデータを用いた都市を横断した意見属性のラベル分類精度(F 値) } & \multirow[b]{2}{*}{ サービス } & \multirow[b]{2}{*}{ 属性 } & \multicolumn{5}{|c|}{ 予測の確信度に基づくターゲット都市のつぶやきの選択手法 } \\ $*$ 上位 $50 \%$ 手法に対して 1 対の対応のある両側 $t$ 検定で有意差有り(有意水準 $5 \%$ ) 表 6 ターゲット都市の $50 \%$ のデータを用いた都市を横断した意見属性のラベル分類精度(F 値) モデルによる予測の確信度が高いターゲット都市のデータを選定し,2 段階目のファインチュー ニングを行う手法が有効であることが分かる. ## 5.3.2 都市を横断したつぶやきの属性のラベル分類精度 都市を横断したつぶやきの属性の分類精度を表 7 , 表 8 に示す. } & \multirow[t]{2}{*}{ サービス } & \multirow[t]{2}{*}{ 属性 } & \multicolumn{3}{|c|}{} \\ *上位 $25 \%$ 手法に対して 1 対の対応のある両側 $t$ 検定で有意差有り(有意水準 $5 \%$ ) 表 7 ターゲット都市の $25 \%$ のデータを用いた都市を横断したつぶやきの属性のラベル分類精度(F 值) - 表 7 より,ターゲット都市の $25 \%$ のデータを用いて都市を横断した分類を行う場合,札幌市の保育園サービスの地域依存性を除く全ての属性で,1段階目にファインチューニングしたモデルによる予測の確信度が高いターゲット都市のデータを選定し, 2 段階目のファインチューニングを行う手法が最も高精度となっている。また, 札幌市の保育園サービスの地域依存性においても,確信度上位のデータを選定する手法の精度とランダムにデータを選定する手法の精度差は, 0.005 と極めて小さい. - 表 8 より, ターゲット都市の $50 \%$ のデータを用いる場合は, 全 18 属性中 12 属性で, 1 段階目にファインチューニングしたモデルによる予測の確信度が上位のデータを選定して 2 段階目のファインチューニングを行う手法が高精度となっている. このことから,つぶやきの属性についても,確信度上位のデータを用いる手法が有効であると分かる。しかし, 表 8 より, つぶやきの属性では, 確信度上位 $25 \%$ と下位 $25 \%$ のデー夕を合わせた手 } & \multirow[b]{2}{*}{ サービス } & \multirow[b]{2}{*}{ 属性 } & \multicolumn{5}{|c|}{ 予測の確信度に基づくターゲット都市のつぶやきの選択手法 } \\ *上位 $50 \%$ 手法に対して 1 対の対応のある両側 $t$ 検定で有意差有り(有意水準 $5 \%$ ) 表 8 ターゲット都市の $50 \%$ のデータを用いた都市を横断したつぶやきの属性のラベル分類精度(F 值) 法が 4 つの属性については最も高い精度となっている 9 . 表 7 では, 確信度が下位 $25 \%$ のデータを使う手法の精度が低いことから,確信度が下位 $25 \%$ のデータがモデルの分類に有効とはいえない。さらに,つぶやきの属性においては,表 7 の確信度上位 $25 \%$ のデー 夕を使用する手法と, 表 8 の確信度上位 $50 \%$ のデータを使用する手法の精度差が意見属性と比較して小さいそのため, つぶやきの属性は, 確信度上位 $25 \%$ のデータに, モデルの学習に有効なデータが多く含まれていると考えられる. ## 5.3.3結果の考察 ソース都市のデータを用いて 1 段階目のファインチューニングを行ったモデルによる,ター ゲット都市のデータに対する予測の確信度の情報を用いる手法の影響を分析するため,手法ごとに得られたデータの各属性のラベルの分布を算出した。結果を表 9 に示す。表 9 の「全体」の列は,コーパス全体の各属性のラベルの分布を示しており,「確信度上位」,「確信度下位」は, それぞれ確信度上位 $50 \%$ のデータを選定した場合の各属性のラベルの分布と,確信度下位 $50 \%$  } & \multirow{3}{*}{ サービス } & \multirow{3}{*}{ 属性 } & \multirow{3}{*}{\multicolumn{2}{|c|}{ ラベル }} & \multicolumn{6}{|c|}{ 各ラベルの割合 } \\ 表 9 手法毎に得られる教師デー夕内の各属性のラベルの割合の分布 のデータを選定した場合の各属性のラベルの分布を表している.表 9 から,確信度上位 $50 \%$ のデータを選定した場合, 各属性のラベルの分布が均衡に近づくことが分かる。例えば,表 9 の横浜市のアプレイザル意見タイプに着目すると,コーパス全体では保育園サービスで $56.4 \%$, テイクアウトサービスで $73.0 \%$, 「該当無し」の分布が過半数となっている。 しかし, 確信度上位 $50 \%$ のデータの分布を見ると,「該当無し」の割合が減り,他のラベルの割合が高くなっていることが分かる。他の多くの属性においても,同様に確信度上位 50\%を選定することで,ラベルの分布が均衡に近づいている。 モデルの予測の確信度が高いということは,モデルにとって予測を行いやすいデータであり,特徴的なデータであると考えることができる,そのため,夕ー ゲット都市全体のデータから,ラベルの種類に関わらず,確信度上位のデータのみ,つまり,特徴的なデータのみを選定する手法が,教師データのラベルの分布を均衡に近づけることに繋がり,分類精度が向上したと考える。 ## 5.4 都市を横断した市民意見抽出手法の有効性の検証 本節では,都市を横断した各属性の分類精度と,都市を横断せずに単一都市のデー夕を用いて分類を行った際の各属性の分類精度, ソース都市のみで訓練した際の各属性の分類精度を比較する。 都市を横断した意見属性の分類では,5.3 節の結果を踏まえ,ターゲット都市の確信度上位 $50 \%$ のデータを用いて T5によるマルチタスク学習を行った際の精度を都市横断の精度とする。 つぶやきの属性については, ターゲット都市の確信度上位 $50 \%$ のデータを用いて T5 による各属性独立の学習を行った際の精度を都市横断の精度とする。単一都市における分類, ソース都市のみで訓練した際の分類では, 5.2 節の結果を踏まえ,意見属性については各属性を $\mathrm{T} 5$ によるマルチタスク学習で分類した際の精度を算出し,つぶやきの属性については各属性独立の T5 モデルによって分類した精度を算出する,なお,単一都市に打ける分類では,訓練データとテストデータは双方とも同じターゲット都市とし,ソース都市のみで訓練した際の分類では,訓練データをソース都市,テストデータをターゲット都市とする,実験結果を表 10 ,表 11 に示す。 - 意見属性の分類では, 都市横断手法が全 12 属性中 6 属性で高精度となっており, 提案手法を用いることで,単一都市における分類精度と同程度の精度で都市横断の分類が行えることが分かる.特に,テイクアウトサービスにおいては,横浜市と札幌市の両都市で極性とコミュニケーション意見タイプが単一都市における分類精度よりも高精度となっており,アプレイザル意見タイプについても,横浜市で精度差が 0.005 , 札幌市で精度差が 0.002 と極めて小さい精度差となっている。このことから,テイクアウトサービスの意見属性は都市を横断した分類を行いやすいことが分かる。この原因として,保育園サ一ビスについては自治体によって行政による政策の差が大きい一方で,テイクアウトサー ビスについては,都市によって店名の差等の地域差は存在するが,市民の抱える意見の & サービス & 属性 & & 単一都市で分類 & \\ *都市を横断した分類手法に対して 1 対の対応のある両側 $t$ 検定で有意差有り(有意水準 $5 \%$ ) 表 10 意見属性の都市を横断した分類精度と単一都市における分類精度の比較( $\mathrm{F}$ 値) & サービス & 属性 & & 単一都市で分類 & \\ *都市を横断した分類手法に対して 1 対の対応のある両側 $t$ 検定で有意差有り(有意水準 $5 \%$ ) 表 11 つぶやきの属性の都市を横断した分類精度と単一都市における分類精度の比較(F 值) 傾向やつぶやきに現れる意見表現に大きな差が表れないためであると考えられる.一方で,表 10 より,ソース都市のみで訓練した際の意見属性の分類では,全ての属性で精度が最も低く,特にアプレイザル意見タイプは,両都市の両サービスにおいて,単一都市における分類精度と比較して 0.1 以上と大きく精度が低下している。このことから,訓練データとテストデータの都市が異なる場合,つまり,訓練データの都市とテストデー 夕の都市で市民の抱える意見が異なる場合は,事物・事象や人間・組織の振舞といった市民意見の対象や,市民の感情表明を正確に抽出することができないと分かる.また,極性についても,横浜市のテイクアウトサービスを除いて,単一都市における分類精度と比較して 0.1 以上と大きく精度が低下している。 さらに,横浜市のテイクアウトサービスにおいても, 0.083 と大きく精度が低下していることから,市民の抱える意見が異なる場合は,肯定的な意見や否定的な意見についても正確な分析ができないと分かる. -つぶやきの属性については,都市を横断して分類を行った際の精度が,全 18 属性中 15 属性で単一都市における分類精度以上の精度となっている。この結果から,つぶやきの属性については,モデルの予測の確信度の情報を用いて効率的にターゲット都市の $50 \%$ のデータを選定することで,ターゲット都市の $100 \%$ のデータを用いて単一都市で分類を行うよりも高い精度が実現可能であることが分かる。つぶやきの属性については,地域依存性の分類の際には地名や店名が手がかりとなり,休園・登園自粛との関連性のような特定の話題との関連性の分類の際には「休み」,「休園」のキーワードが手がかりとなるように,分類の手がかりが意見属性と比較して明確となっている,そのため,モデルの予測の確信度の情報を用いて特徴的なデータを選定する手法が,意見属性と比較して特に有効であると考える。 一方で,表 11 より, ソース都市のみで訓練した際のつぶやきの属性の分類精度については,全 18 属性中 14 属性で単一都市における分類精度以下の精度となっている。このことから,つぶやきの属性においても,訓練データとテストデータの都市で市民意見が異なる場合は,分類精度が低下することが分かる,しかし,つぶやきの属性では,意見属性と比較して精度の低下の程度は小さい。 以上の結果から,都市によって市民の抱える意見は異なるため,単純にソース都市のみで訓練したモデルを用いるだけでは, 特にアプレイザル意見タイプや極性など, ターゲット都市の市民意見を正確に分析することはできないと分かる.しかし,提案手法である都市横断手法を用いることで,単一のターゲット都市における分類精度と同程度かそれ以上の精度で,ターゲット都市の市民意見を分析できることを明らかにした.よって,提案手法を用いることで,市民意見抽出手法を,市民の抱える意見が異なる複数の都市に適応可能であるといえる. また,確信度上位 $50 \%$ のデータを選定して 2 段階目のファインチューニングを行う手法では,各属性のラベル分類に使用するターゲット都市のつぶやきの量を,コーパス全体の 2,622 件か ら,50\%の 1,311 件へと削減することができる.4.2 節より,各都市のアノテーションにかかる時間は,アノテーション方針を一致させるための訓練が 7 時間, 訓練終了後の全てのアノテー ション作業が 78 時間,計 85 時間となっている。つぶやきの量を $50 \%$ に削減した場合においても,アノテーション方針を一致させるための訓練の時間は同様に 7 時間確保する必要があるが,訓練終了後の全てのアノテーション作業の時間は, 半分の 39 時間に削減することができる。そのため,新たなターゲット都市において市民意見を抽出する際に,確信度上位 $50 \%$ のデータを選定して 2 段階目のファインチューニングを行う手法を用いることで,アノテーションにかかる時間を, 85 時間から 46 時間まで減らすことができる. さらに, ソース都市のアノテーションを担当した判定者が新たにターゲット都市のアノテーションを行う場合については,アノテー ション方針を一致させるための訓練時間も削減することができる. ## 5.5 つぶやきの数が十分に得られない都市における提案手法の有効性の検証 本節では,横浜市と札幌市と比較してつぶやきの数が十分に得られない仙台市を対象として,各属性のラベル分類を行う。仙台市の令和 4 年 12 月 1 日時点の人口は $1,099,352$ 人となっており,これは,横浜市の同時点の人口の約 $29 \%$, 札幌市の同時点の人口の約 $56 \%$, 横浜市と札幌市と比較して少なくなっている,そのため仙台市においては,飲食店のテイクアウトサービスのつぶやきは表 2 の横浜市と札幌市と同様に 2,622 件収集可能できたものの, 保育園サービスのつぶやきは 1,076 件と半分以下しか収集できなかった。 そこで, これらの仙台市のつぶやきに対して新たにアノテーションを行い,仙台市をターゲット都市として都市を横断した各属性のラベル分類を行うことで,ターゲット都市において十分なつぶやきが得られない場合の提案手法の有効性の検証を行う。なお,本節の都市を横断した各属性のラベル分類実験では, 5.3 節と同様に,意見属性の分類には T5 モデルを用いたマルチタスク学習手法を使用し,つぶやきの属性の分類には,各属性独立の T5 モデルを使用する。 ## 5.5.1仙台市のつぶやきに対する各属性のアノテーション 仙台市をターゲット都市とした実験を行うため,4.1節と同様の方法で新たに仙台市のつぶやきを収集した。 これらの仙台市のつぶやきに対する各属性のアノテーションでは, はじめに 4.2 節の横浜市と札幌市のアノテーションと同様に, 保育園サービス 250 文と飲食店のテイクアウトサービス 250 文の計 500 文と,これらの各文を含むつぶやきを対象としてアノテーションを行う,なお,本アノテーションは,第一著者と, 4.2 節のアノテーション実験に参加した 2 名のアノテータの, 計 3 名で行う。また, 4.2 節と同様に, 1 文に複数の意見が含まれると過半数の判定者が判断した場合については,複数の意見が現れない意見ユニットとなるまで分割を行った. 保育園サービス 250 文と飲食店のテイクアウトサービス 250 文の計 500 文と, これらの各文を含むつぶやきに対するアノテーションについて, Fleissの $\kappa$ 係数 (Fleiss 1997) を用いた各属性の 判定者間一致度は, 全ての属性において 0.6 (Substantial Agreement (Landis and Koch 1977)) 以上となった。つまり, 仙台市においても,判定者によって属性のラベル判定に大きな差異は生まれないことが示されたため, 残りのつぶやき,文に対するアノテーションは第一著者が行った. 最終的に得られた仙台市のアノテーション済みのデー夕は,保育園サービスが 1,076 件のつぶやきと 2,994 件の意見ユニット,テイクアウトサービスが 2,622 件のつぶやきと 8,114 件の意見ユニットとなった,本節では,これらの仙台市のデータをターゲット都市のデータとして,各属性のラベル分類実験を行う. ## 5.5.2都市を横断した仙台市の各属性のラベル分類の実験結果 仙台市をターゲット都市とした,都市を横断した意見属性のラベル分類精度を表 12 ,表 13 に示す. - 表 12 より, 仙台市の $25 \%$ のデータを用いて都市を横断して意見属性の分類を行う場合,横浜市, 札幌市のどちらの都市をソース都市とした場合も,全属性において,1段階目にファインチューニングしたモデルによる予測の確信度が高いターゲット都市のデータを選定し,2 段階目のファインチューニングを行う手法が最高精度となっている。 - 表 13 より, 仙台市の $50 \%$ のデータを用いる場合は, 札幌市をソース都市とした場合の保 } & \multirow[t]{2}{*}{ サービス } & \multirow[t]{2}{*}{ 属性 } & \multicolumn{3}{|c|}{} \\ $*$ 上位 $25 \%$ 手法に対して 1 対の対応のある両側 $t$ 検定で有意差有り(有意水準 $5 \%$ ) 表 12 仙台市の $25 \%$ のデータを用いた都市を横断した意見属性のラベル分類精度(F 値) } & \multirow[b]{2}{*}{ サービス } & \multirow[b]{2}{*}{ 属性 } & \multicolumn{5}{|c|}{ 予測の確信度に基づくターゲット都市のつぶやきの選択手法 } \\ &+$ 下位 $25 \%\end{aligned}$ & ランダム $50 \%$ \\ *上位 $50 \%$ 手法に対して 1 対の対応のある両側 $t$ 検定で有意差有り(有意水準 $5 \%$ ) 表 13 仙台市の $50 \%$ のデー夕を用いた都市を横断した意見属性のラベル分類精度(F 値) 育園サービスのコミュニケーション意見タイプを除いて,全ての属性で 1 段階目にファインチューニングしたモデルによる予測の確信度が高いターゲット都市のデータを選定する手法が最高精度となっている.また,表 12 の仙台市の $25 \%$ のデータを用いる場合と比較して,札幌市をソース都市とした場合の保育園サービスのコミュニケーション意見タイプを除いた全属性で,50\%のデータを用いる手法が高精度となっている。このことから,札幌市をソース都市としてコミュニケーション意見タイプの推定を行う場合,確信度が上位 $25 \%$ のデータを用いるだけで十分であるものの,多くの属性においては, $50 \%$ のデータを用いる手法が有効であると分かる. 以上の実験結果より,意見属性のラベル分類では,ソース都市と比較してターゲット都市のデータが十分に得られない場合においても,ソース都市のデータを用いて 1 段階目のファインチューニングを行ったモデルによる予測の確信度が上位のターゲット都市のデータを用いて, 2 段階目のファインチューニングを行う手法が有効であると分かる. ## 都市を横断したつぶやきの属性のラベル分類精度 仙台市をターゲット都市とした,都市を横断したつぶやきの属性のラベル分類精度を表 14 ,表 15 に示す. - 表 14 より, 仙台市の $25 \%$ のデータを用いて都市を横断してつぶやきの属性の分類を行う場合,札幌市をソース都市とした場合の保育園サービスの投稿主の立場を除いた全属性で,1段階目にファインチューニングしたモデルによる予測の確信度が高いターゲット都 } & \multirow[t]{2}{*}{ サービス } & \multirow[t]{2}{*}{ 属性 } & \multicolumn{3}{|c|}{} \\ *上位 $25 \%$ 手法に対して 1 対の対応のある両側 $t$ 検定で有意差有り(有意水準 $5 \% )$ 表 14 仙台市の $25 \%$ のデータを用いた都市を横断したつぶやきの属性のラベル分類精度(F 値) 市のデータを選定し,2 段階目のファインチューニングを行う手法が最高精度となっている。札幌市をソース都市とした場合の保育園サービスの投稿主の立場においても,ランダムに $25 \%$ のデータを選択する手法と比較して精度差は 0.009 と低く, 確信度上位のデータを選定する手法が有効であると分かる. - 表 15 より, 仙台市の $50 \%$ のデー夕を用いる場合は, 全 18 属性中 15 属性で, 1 段階目にファインチューニングしたモデルによる予測の確信度が高いターゲット都市のデータを選定し,2 段階目のファインチューニングを行う手法が最高精度となっている。また, 5.3.2 節の横浜市と札幌市における実験結果と同様に,表 14 の上位 $25 \%$ のデー夕を用いる手法と表 15 の上位 $50 \%$ のデータを用いる手法の精度差が意見属性と比較して小さくなっており, 表 15 より, 上位 $25 \%$ と下位 $25 \%$ のデー夕を合わせた手法が 3 つの属性で最高精度となっている. このことから, ソース都市と比較してつぶやきの数が十分に得ら } & \multirow[b]{2}{*}{ サービス } & \multirow[b]{2}{*}{ 属性 } & \multicolumn{5}{|c|}{ 予測の確信度に基づくターゲット都市のつぶやきの選択手法 } \\ *上位 $50 \%$ 手法に対して 1 対の対応のある両側 $t$ 検定で有意差有り(有意水準 $5 \%$ ) 表 15 仙台市の $50 \%$ のデータを用いた都市を横断したつぶやきの属性のラベル分類精度(F 值) れない仙台市をターゲット都市とした場合においても,つぶやきの属性では, 確信度上位 $25 \%$ のデータにモデルの学習に有効なデータが多く含まれていると考えられる。 以上のつぶやきの属性の分類実験の結果より,ソース都市と比較してターゲット都市のデー 夕が十分に得られない場合においても,意見属性と同様に,ソース都市のデータを用いて 1 段階目のファインチューニングを行ったモデルによる予測の確信度が上位のターゲット都市のデー 夕を用いて,2 段階目のファインチューニングを行う手法が有効であると分かる. ## 5.5.3 都市を横断した市民意見抽出手法の有効性の検証 本節では, 都市を横断した仙台市の各属性の分類精度と, 都市を横断せずに仙台市単一のデー 夕を用いて分類を行った際の各属性の分類精度, ソース都市である横浜市と札幌市のみのデー 夕を用いて訓練した際の仙台市の各属性の分類精度を比較する. 都市を横断した意見属性の分類では,5.5.2 節の結果を踏まえ,5.4 節と同様に,ターゲット都市の確信度上位 $50 \%$ のデータを用いて T5によるマルチタスク学習を行った際の精度を都市横 断の精度とする。つぶやきの属性についても,5.5.2 節の結果を踏まえ,5.4 節と同様に,ター ゲット都市の確信度上位 $50 \%$ のデータを用いて T5による各属性独立の学習を行った際の精度を都市横断の精度とする。単一都市における分類,ソース都市のみで訓練した際の分類では, 5.4 節と同様に,意見属性については各属性を T5 によるマルチタスク学習で分類した際の精度を算出し,つぶやきの属性については各属性独立の T5 モデルによって分類した精度を算出する。実験結果を表 16 ,表 17 に示す. - 表 16 より, 仙台市の意見属性の分類では, 横浜市と札幌市の両都市において, 飲食店のテイクアウトサービスのアプレイザル意見タイプを除く全ての属性で,提案手法である都市を横断した分類手法が最も高い精度となっている.仙台市の飲食店のテイクアウトサービスでは,横浜市と札幌市と同様に 2,622 件のつぶやきを用いて分類を行っている. そのため, 5.4 節の横浜市と札幌市のつぶやきを用いた都市を横断した意見属性の分類実験における表 10 の結果と同様に,アプレイザル意見タイプ以外の属性では提案手法が最も有効となっている。一方で, 保育園サービスでは, 5.4 節における表 10 の単一都市での分類が有効であるという結果とは異なり,都市を横断した分類手法が全属性で最も高精度であり,ソース都市のつぶやきとターゲット都市の一部のつぶやきを用いた 2 段階のファインチューニング手法が有効であると分かる。保育園サービスでは,ソース都市である横浜市と札幌市と比較して十分なつぶやきの量が得られず, ソース都市の半数以 & サービス & 属性 & & 単一都市で分類 & \\ *都市を横断した分類手法に対して 1 対の対応のある両側 $t$ 検定で有意差有り(有意水準 $5 \%$ ) 表 16 仙台市の意見属性の都市を横断した分類精度と単一都市における分類精度の比較( $\mathrm{F}$ 値) & サービス & 属性 & & 単一都市で分類 & \\ *都市を横断した分類手法に対して 1 対の対応のある両側 $t$ 検定で有意差有り(有意水準 $5 \%$ ) 表 17 仙台市のつぶやきの属性の都市を横断した分類精度と単一都市における分類精度の比較( $\mathrm{F}$ 値) 下のデータを用いてモデルの訓練を行っている.このようにターゲット都市のつぶやきが十分に得られない場合においては,ソース都市とターゲット都市の双方においてつぶやきの量が十分に得られている表 10 の場合と比較して, ソース都市のつぶやきを用いた 1 段階目のファインチューニングがより有効であり,少ないターゲット都市のデータのみを用いて単一都市で分類を行う手法よりも高い精度が実現可能であると分かる。つまり,新たなターゲット都市において市民意見抽出を行う際に,ターゲット都市のつぶやきが十分に得られない場合においては, 既存のソース都市のデータを活用し, 提案手法である 2 段階のファインチューニング手法を適用することで, 高精度な意見属性の分類ができると分かる. - 表 17 より, 仙台市のつぶやきの属性の分類では, 全 18 属性中 14 属性で, 提案手法である都市を横断した分類手法が最も高い精度となっている。このことから, 5.4 節の横浜市と札幌市のつぶやきを用いた都市を横断したつぶやきの属性の分類実験における表 11 の 結果と同様に,仙台市においても,つぶやきの属性の分類には都市を横断した分類手法が有効であると分かる。しかし, 5.4 節の表 11 とは異なり,保育園サービスでは, 3 つの属性でソース都市のみで訓練を行う手法が最高精度となっている。提案手法である都市を横断した分類手法と, ソース都市のみで訓練した手法の精度差が最も大きい属性は,横浜市をソース都市とした場合の定員との関連性となっており,その他の属性では精度差は 0.01 以下と小さい,表 9 より,横浜市の保育園サービスにおける定員との関連性属性の「関連する」ラベルの割合は $9.7 \%$ であり,札幌市の $5.7 \%$ と比較して多くの市民が保育園の定員についての意見をつぶやきとして投稿していると分かる。また,仙台市における定員との関連性属性の「関連する」ラベルの割合は $3.3 \%$ となっていた。横浜市においては待機児童問題が全国の都市の中でも極めて顕著であり,このように他都市と比較して多くの市民が保育園の定員に関するつぶやきを投稿していることが,横浜市をソー ス都市とした場合にソース都市のみで訓練する手法が高精度となる結果の原因であると考える。しかし,横浜市をソース都市とした場合の保育園の定員においても,精度差は 0.012 と大きな差が無く, その他の多くの属性においては都市を横断した手法が高い精度となっていることから,仙台市をターゲット都市とした際のつぶやきの属性においても,都市を横断した手法が有効であると分かる. 以上の実験結果より, ソース都市と比較してつぶやきが十分に得られない都市をターゲット都市とした場合においても,提案手法である都市を横断した各属性の分類手法が有効であると分かった.特に意見属性の分類においては,ターゲット都市のつぶやきが十分に得られる場合と比較して, ターゲット都市単一で分類を行う手法に対して都市を横断した手法がより有効であることを実験から明らかにした。また,横浜市をソース都市とした場合の保育園サービスにおける定員との関連性属性のように,地域によって話題が盛んなごく一部の属性ではソース都市のみで訓練した手法がわずかに有効であるものの,その他の大部分の属性においては,提案手法である都市を横断した各属性の分類手法が,ソース都市に関わらず有効であると分かった. ## 6 提案手法により抽出した市民意見の都市別比較分析 本節では, 3 節の提案手法を用いて実際に都市を横断した市民意見抽出を行い,横浜市民と札幌市民の市民意見を比較して分析する. ## 6.1 市民意見の分析方法 はじめに, 6.2 節において,テストデータの拡張を行う。これによって,コーパスに含まれるつぶやきのみではなく, 未知のつぶやきも対象とした市民意見の分析を行う。 6.3 節では, 6.2 節で作成したテストデータに対して, 都市を横断して各属性の予測を行う. 続いて,モデルの予測結果をもとに,市民意見の出現頻度の時系列順の 10 日間ごとの推移を分析する。時系列順の分析に用いるつぶやきは,保育園サービスでは休園・登園自粛に関連するとモデルが予測したつぶやき,テイクアウトサービスでは,全つぶやきとする,最後に,時系列に加えて,各属性の条件を指定することで,市民意見を自動抽出する.都市を横断した各属性の分類モデルについては, 5.3 節の結果を踏まえて, 意見属性の分類にはターゲット都市の確信度上位 50\%のデータを活用したマルチタスク学習モデルを使用し,つぶやきの属性の分類にはターゲット都市の確信度上位 $50 \%$ のデータを活用した各属性独立の分類モデルを使用する. 6.4 節では,都市を横断した市民意見抽出結果の考察を行う。はじめに 6.4 .1 節において,提案手法を利用したターゲット都市に特有の市民意見の抽出の可能性について検証を行う.都市で暮らす市民の抱える意見が,その都市に特有の意見であるかを分析するには,他の都市の市民意見との比較が重要となる.5.4 節の表 10 , 表 11 より, ソース都市のみで訓練したモデルによる各属性のラベル分類精度と比較して,都市を横断した各属性のラベル分類精度は向上している。ターゲット都市のデータを一部用いることではじめて予測が可能になる市民意見は,ソー ス都市の訓練データ内には存在しないものの, ターゲット都市においては訓練データが存在する意見,つまりターゲット都市に特有の意見と考えることができる。本節では,都市を横断したモデルと,ソース都市のみで訓練したモデルによる予測結果が異なる市民意見を抽出し,夕ー ゲット都市に特有の市民意見の傾向と事例を明らかにする。なお, 5.4 節で示したように,テイクアウトサービスでは, 店名等の地域差は存在するものの, 意見表現に大きな差は現れにくい.一方で,保育園サービスに関する市民意見では,行政の政策による影響が大きく,都市によって意見に差が現れやすい。そのため本節では,保育園サービスを例に,ターゲット都市に特有の市民意見について考察する. 最後に,6.4.2 節では,提案手法を用いて都市を横断して抽出した市民意見のうち,指定した属性ラベルに対してふさわしくない市民意見を示し,原因についての考察を行う. ## 6.2 テストデータの拡張 4 節で作成した市民意見分析用コーパスに含まれるつぶやきに加えて, 2020 年 1 月 1 日から 2020 年 7 月 11 日までのつぶやきを 4 節と同様の方法で収集することで, 実験に用いるテストデータの拡張を行った。1月 1 日から 7 月 11 日までの全てのつぶやき数は, 横浜市の保育園サー ビスで 9,535 件,テイクアウトサービスで 21,014 件,札幌市の保育園サービスで 4,623 件,テイクアウトサービスで 14,980 件であった. 4 節で作成した市民意見分析コーパスは, アノテー 夕の就業可能時間数に合わせて,両サービスとも 2,622 件のつぶやきを全体からランダムに抽出した. そこで,追加のテストデータとして, 4 節のつぶやきと重複しないように,横浜市の保育園サービスで 6,913 件のつぶやき,テイクアウトサービスで 18,392 件のつぶやきを抽出し,札幌市の保育園サービスで 2,001 件のつぶやき,テイクアウトサービスで 12,358 件のつぶやき 表 18 複数都市を対象とした市民意見分析コーパスの拡張データのデータ数 を抽出した,新たに収集したつぶやきから得られた文数は,横浜市の保育園サービスで 22,256 文,テイクアウトサービスで 54,772 文であり,札幌市の保育園サービスで 5,986 文,テイクアウトサービスで 36,145 文であった。 さらに, 5.3 節の都市を横断した各属性の分類実験における 5 分割交差検証のテストデータについても,引き続きテストデータとして使用する。これらの拡張後のデータのデータ数を表 18 に示す. 市民意見分析コーパス内のテストデータと,表 18 のうちの新たに収集したデータを合わせたデータを,全てのテストデータとし,これらのテストデータに対して都市を横断した各属性のラベル分類モデルによる予測を属性のラベルとして付与することで,市民意見の分析を行う. ## 6.3 分析結果 ## 保育園サービス 保育園サービスにおいて,都市を横断した分類モデルによって休園・登園自粛に関連すると推定された市民意見の出現頻度の時系列順の推移を図 3 , 図 4 に示す. 図 3 より, 横浜市の休園・登園自粛に関する市民意見は,3つの期間で急増していることが分かる。これらの期間は, (1) 横浜市が小中学校の休校を発表した 2 月下旬, (2) 横浜市が保育園の運営を継続する方針を発表した 4 月上旬, (3) 横浜市が緊急事態宣言解除後の保育所等の利用に関する方針を発表した 5 月下旬,となっており,都市を横断して抽出した市民意見の出現頻度の時系列順の推移が行政の政策と密接に関係していることが分かる.そこで,市民意見数が最大となっている (2)の横浜市が保育園の運営を継続する方針を発表した 4 月上旬の時期において,地域依存性:依存, サービスとの適合性:適合,投稿主の立場:小さい子を持つ親,休園・登園自肃との関連性:関連する,アプレイザル意見タイプ:自発的感情の表明,という条件を満たすつぶやきのみを自動抽出した。抽出された市民意見の例は以下の通りである 10 . $\cdot$いっそのこと休園にしてほしい。でも横浜市は原則開園って。o。 保育士の皆さんもほんと辛いだろうに。  図 3 保育園サービスの休園・登園自粛に関する横浜市民意見の出現頻度の時系列順の推移 図 4 保育園サービスの休園・登園自粛に関する札幌市民意見の出現頻度の時系列順の推移 ・超個人的な望みを言わせてもらうと、いっそ保育園を休園にしてくれたら私も仕事を休めるんですがね(妊婦なのに都内まで電車通勤) このように条件を指定して 4 月上旬の市民意見を自動抽出することで,横浜市で暮らす小さい子を持つ親は,コロナ禍で保育園に子供を通わせることに対してどのような感情を抱いているのか,という意見のみを抽出することができる.実際に抽出された市民意見を確認すると,子育て中の横浜市民は, この時期に保育園を開園させるという横浜市の政策に対して反対であり,不満の感情を抱いていることが分かる。このような意見は横浜市で暮らす市民特有の意見 となっており,横浜市が政策を改善するために有用な意見となる.本研究の都市を横断した市民意見抽出では,ターゲット都市である横浜市の教師データ作成コストを半減させた上でも,上記のような市民意見を自動抽出することができると分かる. 図 4 より,札幌市の休園・登園自粛に関する市民意見は 2 つのタイミングで増加していることが分かる。これらの時期は,(1) 札幌市がはじめてコロナ禍における「家庭保育等の協力のお願い」を発表した 2 月下旬, (2) 北海道・札幌市緊急共同宣言の発令後に,札幌市が重ねて「家庭保育等の協力のお願い」を発表した 4 月中旬,となっており,札幌市においても,横浜市と同様に都市を横断して抽出した市民意見の出現頻度の時系列順の推移が行政の政策と深く関係していることが分かる.また,都市によって行政の政策は異なるため,市民意見の出現頻度の推移は都市によって異なるが,本研究の都市を横断した市民意見抽出を用いると,図 3 と図 4 のような都市間の市民意見の出現頻度の差を捉えることができると分かる。また,図 4 より,札幌市の市民意見は横浜市の市民意見と異なり,事物・事象を対象とした評価が高い割合を占めることが分かる,そこで,(2) の北海道・札幌市緊急共同宣言の発令後に,札幌市が重ねて「家庭保育等の協力のお願い」を発表した 4 月中旬の時期において, 地域依存性:依存,サービスとの適合性:適合,投稿主の立場:小さい子を持つ親,休園・登園自粛との関連性:関連する, アプレイザル意見タイプ:事物・事象を対象とした評価,という条件を満たすつぶやきのみを自動抽出した.抽出された市民意見の例は以下の通りである。 - 絶対に必要な人は別だけど、やはり保育園は休園とか自沜にはならないのか。色々あるけど、先生も親もどっちも精神的に限界な気がする。○。 \#休園 \#札幌 \#北海道 - やはり恐れてたことが起こってきた。友人の医療関係者の子供の保育園が預けるのを断ってきたらしい。旦那が各々の事情でいないと母親は働けなくなるよね。本人たちは濃厚接触者ではないのに、現実で差別が起きてきてる。#札幌市 \#保育園 \#登園拒否 横浜市での市民意見抽出と異なり,札幌市では,事物・事象を対象とした評価という条件で市民意見を抽出している。これによって,コロナ禍において保育園が休園にならないという現状に対する混乱を表す意見や,保育園で起こってしまった差別といった特定の事象に対する意見を抽出できる。このようなつぶやきからは,市民が具体的にどのような事象を対象として意見を述べているか,つまり何に困っているかが分かるため,政策の改善策の提案に繋げることができる。また,「\#札幌」,「#札幌市」という表現からも分かるように,上記のつぶやきは札幌市で暮らす市民特有の意見となっている,札幌市においても,都市を横断した市民意見抽出手法を用いることで, 教師データ作成コストを半減させた上でこれらの市民意見が抽出可能となっている. ## 飲食店のティクアウトサービス テイクアウトサービスにおいて,都市を横断した分類モデルによって推定された市民意見の出現頻度の時系列順の推移を図 5 , 図 6 に示す. 図 5 より, 横浜市のテイクアウトサービスに関 図 5 テイクアウトサービスの横浜市民意見の出現頻度の時系列順の推移 図 6 テイクアウトサービスの札幌市民意見の出現頻度の時系列順の推移 する市民意見は,4月の上旬(1日~10日)の期間に急激に増加し始めていることが分かる. この時期は,神奈川県を対象とした第 1 回緊急事態宣言が発令された 4 月 7 日を含む時期であり,緊急事態宣言によって多くの飲食店がテイクアウトサービスを開始した時期となっている。また,市民意見の数は緊急事態宣言中の 4 月下旬に最大となっており,緊急事態宣言が解除された 5 月 25 日を過ぎると,急激に減少している,さらに,テイクアウトサービスに関する市民意見は,商品に関する評価を含む,事物・事象を対象とした評価が最も多くなっている.そこで,横浜市で市民意見の数が最大となっている 4 月下旬のつぶやきから, 地域依存性:依存, サー ビスとの適合性:適合, 投稿主の立場:飲食店を利用した人, 商品の評価との関連性:関連する,極性:肯定,アプレイザル意見タイプ:事物・事象を対象とした評価,という条件を満たすつぶやきのみを自動抽出した.抽出された市民意見の例は以下の通りである. - \#六角橋商店街の#餃子 $\mathrm{M}$ で 2 種類の餃子をテイクアウト。きのこ餃子はとろとろで噛むと濃厚な具が流れてくる。何個でも食べたい。テキサス餃子はカレー味の餡にコー ンとチーズブレンド。タレは不要で何個でも食べたい。#横浜飯 - 地球の中華そばさんの 3 回目のテイクアウトで超純水採麺天国屋のリスペクト麺を購入。 スープと麺を味わうために、ネギだけを乗せました。スープが旨すぎで、麺も好き! 最近の家での楽しみになっていました。また買います!#地球の中華そば#テイクアウト 上記の条件を指定することで,横浜市に暮らす市民が利用したテイクアウトサービスに関するつぶやきのうち,良い評価を述べているつぶやきのみを自動抽出することができる。このような意見は,横浜市で暮らす市民や,横浜市を訪れた観光客が,テイクアウトサービスを実施している店舗を探すのに有用な意見となっている. また,上記のつぶやきに含まれる「餃子 $\mathrm{M}\rfloor$ ,「地球の中華そば」は,横浜市にのみ存在する飲食店である。札幌市のつぶやきと比較的少量の横浜市のつぶやきを用いて 2 段階のファインチューニングを行い,都市を横断した市民意見抽出を行った結果,このように,横浜市ならではのテイクアウトサービスに関する市民意見が抽出可能となっている. 図 6 より,札幌市のテイクアウトサービスに関する市民意見は,4月の中旬(11 日~20 日) の期間に急激に増加していることが分かる。この時期は,第 1 回緊急事態宣言の対象範囲が拡大し,北海道が緊急事態宣言の対象となった 4 月 16 日を含む時期である。つまり,札幌市においても多くの飲食店がテイクアウトサービスを開始した時期となっている。図 5 , 図 6 の横浜市と札幌市の市民意見の出現頻度から分かるように,本研究の都市を横断した市民意見抽出では,数日単位の細かい市民意見の出現頻度の差まで捉えることができると分かる.また,札幌市においても,テイクアウトサービスに関する市民意見は,商品に関する評価を含む,事物・事象を対象とした評価が最も多くなっており,札幌市の緊急事態宣言が解除された 5 月 25 日を過ぎると市民意見の数は減少している。そこで,札幌市において市民意見の数が最大となっている 5 月上旬のつぶやきから, 横浜市と同様に, 地域依存性:依存, サービスとの適合性:適合, 投稿主の立場:飲食店を利用した人,商品の評価との関連性:関連する, 極性:肯定, アプレイザル意見タイプ:事物・事象を対象とした評価,という条件を満たすつぶやきのみを自動抽出した。抽出された市民意見の例は以下の通りである. ・ひろちゃんのザンギは、塩ザンギが超ウマいお弁当屋さん。我が家で定番のテイクアウトです! 札幌にはいくつが店舗があって、事前に電話すると揚げたてが買えますよー \#札幌テイクアウト \#StayHome ・昨日と同じく、スープカレー 34 でテイクアウトしたハンバーグカレーを食べました。やっ ぱ 34 のハンバーグはビーフ $100 \%$ 美味しい! \#スープカレー \#札幌カレー部 \#スープカレー 34 1 つ目のつぶやきは, 「札幌にはいくつか店舗があって」という表現から, 札幌市ならではの店舗情報であると分かる。また,「スープカレー34」は,札幌市にのみ存在する飲食店となっており,札幌市に特有の市民意見が抽出できていることが分かる。さらに,「ザンギ」と「スープカレー」は札幌市の名産グルメとなっていることからも,都市を横断した市民意見抽出によって札幌市特有の市民意見が抽出できていることが分かる. ## 6.4 考察 ## 6.4.1 ターゲット都市に特有の市民意見の抽出 本節では,都市を横断したモデルと,ソース都市のみで訓練したモデルによる予測結果が異なる市民意見を抽出することで,ターゲット都市に特有の市民意見を明らかにする. 横浜市の保育園サービスにおいて, 6.3 節の横浜市における保育園サービスにおける市民意見抽出と同様に, 『地域依存性:依存, サービスとの適合性:適合, 投稿主の立場:小さい子を持つ親, 休園・登園自肃との関連性:関連する,アプレイザル意見タイプ:自発的感情の表明』, というラベルの条件を指定し,都市を横断したモデルと,ソース都市のみで訓練したモデルによる予測結果が異なるつぶやきの例は,以下の通りである. - ハア、 6 月終わりまで登園自粛の要請とは... うちの家のコロナ不況やば過ぎる。 5 月の旦那の給料見たけど、アー無理。さすがに少し仕事はじめたいのに ... 保育園がやってなかったらどうしようもない。 - 宣言は解除されたにも関わらず、横浜市の保育園は 6 月 30 日まで自粛ってみんな終わるでしょ。みんなに戦力外通知が来るよ。 これらの市民意見が抽出されたのは, 5 月下旬の時期となっていた, 5 月の下旬とは,横浜市が緊急事態宣言解除後の保育所等の利用に関する方針を発表した時期となっている.発表された方針では,横浜市においては,緊急事態宣言が解除された後も原則として保育園の登園自粛を要請する, とされていた。しかし, 抽出されたつぶやきを確認すると, 市民は保育園に子供を預けられないことによって,経済的な状況や職場での自身の状況に不安を感じていると分かる. 第 1 回緊急事態宣言は,横浜市と札幌市に共通で 5 月下旬に解除された。しかし,図 3 , 図 4 より,5月下旬の市民意見を確認すると,横浜市民は多くの感情を述べているのに対して,札幌市民の感情の意見数はこの時期に増えてはいない. つまり,この時期に抽出された不安や不満は,横浜市民に特有の意見であると分かる。ソース都市のみで訓練したモデルによる予測結果と,都市を横断したモデルによる予測結果が異なる市民意見を抽出することで,上記の例のような,ターゲット都市に特有の市民意見のみをまとめて抽出することができる. 次に,札幌市において,6.3 節と同様に, 『地域依存性:依存, サービスとの適合性:適合, 投 稿主の立場:小さい子を持つ親,休園・登園自粛との関連性:関連する,アプレイザル意見タイプ:事物・事象を対象とした評価』,というラベルの条件を指定し,都市を横断したモデルと, ソース都市のみで訓練したモデルによる予測結果が異なるつぶやきの例は,以下の通りである。 - 保育園から家庭保育のお願いとか登園自沜って通知がきても、派遣会社は「休園じゃない限り給料は出ません、特別休暇も使えないので有給を使って」。保育園にあずけて仕事するしかないよね $(\cdot \omega \cdot)$ \#派遣 - 保育園が休園になると特別休㗇ではなく有給休㗇を使わなきゃいけないのはくそだと思うが、そもそも有給なんてなくて客先に出向するフリーランスの自分は収入に直接来ます。 これらの市民意見が抽出された時期は, 2 月の下旬となっていた。図 3 ,図 4 より,札幌市では 2 月の下旬の段階でコロナ禍における家庭保育に関する方針が発表されているのに対し,横浜市では 2 月の下旬には小中学校の休校のみしか発表されていない。そのため,札幌市においては, 2 月下旬における保育園の休園・登園自粛に関する市民意見の割合が,横浜市と比較して高くなっている.抽出されたターゲット都市に特有の市民意見を確認すると,札幌市民は有給休暇に対して関心を持っていることが分かる. 2 月の下旬は年度末の時期となっているため,人によっては有給休暇の残り日数が少なくなっており,その影響で保育園の登園の自粛が困難になっていると考えられる。このような意見は, 2 月の下旬の段階ではまだ小中学校の休校しか発表していなかった横浜市に対して,2月の下旬の段階で既に家庭保育のお願いを発表していた札幌市に特有の市民意見となっている。このように,札幌市においても,都市を横断したモデルとソース都市のみで訓練したモデルによる予測結果が異なる市民意見を抽出することで, ターゲット都市の市民特有の意見を含むつぶやきを確認できた. ## 6.4.2 エラー分析 本節では,都市を横断した市民意見抽出におけるエラー分析を行う. 6.3 節で示したように,提案手法を用いて, 未知の大量のつぶやきから, 指定した属性ラベルの条件を全て満たすつぶやきのみを自動抽出することで,行政の政策の改善に有用な市民意見や接客業における高評価のレビュー情報等を明らかにすることができる。一方で,自動抽出された市民意見の中には,指定した条件に対してふさわしくない意見が一部存在する。本節では,このような不適切な市民意見の例を示し,不適切な市民意見が抽出された原因を考察する. ## 保育園サービス 6.3 節の横浜市における保育園サービスにおける市民意見抽出と同様に, 4 月上旬の時期における,『地域依存性:依存,サービスとの適合性:適合,投稿主の立場:小さい子を持つ親,休園・登園自粛との関連性:関連する,アプレイザル意見タイプ:自発的感情の表明』,という条件を満たすつぶやきを抽出した際の,不適切な市民意見の例は以下の通りである。 - 小学校も休校、保育園は休ませてるのに、親が出社って1 番のリスクでしかない。 - 奥さんも在宅で子供の保育園休ませたら、当たり前に「ねえ遊ぼうー!」と言われる。交互に相手をしないとだめで仕事にならない これらの意見は,「リスクでしかない」という表現や「仕事にならない」という表現から,市民が明確に現在困っている事象に対する評価を述べているため,アプレイザル意見タイプ属性は,事物・事象を対象とした評価が適切なラベルと考える。図 3 , 図 4 より,横浜市では自発的感情の表明のラベルの割合が多いのに対し,札幌市では事物・事象を対象とした評価のラべルの割合が多くなっており,両都市の市民意見の傾向に差が現れている.そのため,都市を横断した市民意見抽出をする際に,モデルがこれらの属性ラベルを適切に分類できなかったことが,上記のような不適切な市民意見が一部抽出された原因であると考える。 札幌市においても, 6.3 節と同様に,4月中旬の時期における, 『地域依存性 : 依存, サービスとの適合性:適合,投稿主の立場:小さい子を持つ親,休園・登園自粛との関連性:関連する, アプレイザル意見タイプ:事物・事象を対象とした評価』,という条件で市民意見を抽出したと ころ,「休校かー。o。そうしたら、ウチの保育園もまた来月まで休園?無理。o。私を働かせて。」 といった市民意見が抽出された.この意見は,「無理。o。私を働かせて。」という表現から分かるように,市民の抱える不安や不満の感情表明が適切であると考える。つまり, 自発的感情の表明の意見を抽出しようとし,事物・事象を対象とした評価が一部抽出されてしまった横浜市とは逆の結果となっている。このことからも,ソース都市とターゲット都市において,属性ラベルの割合が大きく異なることで,一部不適切な市民意見が抽出されてしまったことが分かる. ## 飲食店のティクアウトサービス 表 10 , 表 11 より, 飲食店のテイクアウトサービスにおいては, 都市を横断した各属性のラべル分類の精度は高く,都市を横断した上でも市民意見抽出が行いやすいことが分かる。そのため,抽出された市民意見を確認しても,不適切な市民意見の例は極めて少なかった.わずかに抽出された不適切な例として,「うまいもん○○」といった店名のテイクアウト商品に関するつぶやきが,「事物・事象を対象とした評価」として抽出されている例が存在した.「うまい」という表現は,肯定的な商品の評価を行っている多くのつぶやきに見られる表現であるが,「うまいもん」という用いられ方をしている場合は, 飲食店の店名の一部を表すことが多い. なお, この不適切な例は札幌市民のつぶやきからの意見抽出結果に見られた例であり,さらに,札幌市民のつぶやきのうち 6.2 節の拡張したテストデータ内に含まれていた. また,ラベル分類モデルの訓練データとなる,市民意見分析コーパスに含まれる横浜市民と札幌市民のつぶやきには,「うまいもん」を含む店名に関するつぶやきは存在しなかったため,札幌市民の一部のつぶやきにのみ現れる表現であると分かる。そのため,都市を横断したラベル分類モデルが,「うまいもん」という表現を店名の一部であると判断することができず,不適切な市民意見抽出の原因となったと考える。 ## 7 おわりに 本研究では,著者らの先行研究で提案した特定の都市における市民意見抽出のためのフレー ムワークを拡張し,都市を横断した市民意見抽出手法を提案した.手法の有効性の検証を行うため,先行研究における横浜市民のつぶやきに加えて,新たに札幌市民のつぶやきを対象に人手でアノテーションをすることで,複数の都市の市民のつぶやきからなる市民意見分析コーパスを作成した,実験では,はじめに単一都市における各属性のラベル分類実験を行い,著者らの先行研究で用いた BERT モデルに対する $\mathrm{T} 5$ モデルの有効性を確認した. T5 モデルを利用した都市を横断した各属性のラベル分類実験では, ソース都市のつぶやきと一部のターゲット都市のデー夕を用いて,各属性の分類モデルを 2 段階でファインチューニングする手法の有効性を検証した。また,この際,ソース都市のつぶやきを用いて1段階目のファインチューニングを行ったモデルによってターゲット都市のつぶやきの各属性を予測し, 予測の確信度が上位の一部のつぶやきを選定した上で教師データを作成する手法の有効性を確認した.都市を横断した市民意見抽出では,都市に依存する行政の政策や緊急事態宣言の発令といった異なる条件によって,市民意見の出現頻度の時系列順の推移が異なることを明らかにした。また複数の属性を指定して都市を横断した市民意見抽出を行うことで,都市で暮らす市民特有の意見を抽出し,比較できることを示した. 本研究では,横浜市,札幌市に加えて,より人口の少ない都市である仙台市を対象として,提案手法の有効性を検証した,しかし,本研究で対象とした都市は全て政令指定都市であり,人口は 100 万人を超えている.5.5 節の実験を通して,つぶやきが約 1,000 件収集可能な都市においては提案手法が有効であることを確認できたが,より人口が少ない都市においては,収集可能なつぶやきの量はさらに少なくなると考えられる。今後の課題としては, この上うな人口が少ない都市に打ける提案手法の有効性の検証が挙げられる。 ## 謝 辞 本研究の一部は, 科学研究費補助金基盤研究 B(課題番号 $23 \mathrm{H} 03686,19 \mathrm{H} 04420$ ), 挑戦的研究 (萌芽)(課題番号 22K19822), 学術研究助成基金助成金研究活動スタート支援(課題番号 22K21303),2022 年度国立情報学研究所公募型共同研究(採択番号 22S0103)の助成を受けて遂行された. ## 参考文献 Barbieri, F., Camacho-Collados, J., Espinosa Anke, L., and Neves, L. (2020). "TweetEval: Unified Benchmark and Comparative Evaluation for Tweet Classification." In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 1644-1650, Online. Association for Computational Linguistics. Blum, A. and Mitchell, T. (1998). "Combining Labeled and Unlabeled Data with Co-Training." In Proceedings of the 11th Annual Conference on Computational Learning Theory, COLT' 98, pp. 92-100, New York, NY, USA. Association for Computing Machinery. Caruana, R. (1997). "Multitask Learning." Machine Learning, 28, pp. 41-75. Chen, J., Feng, J., Sun, X., and Liu, Y. (2020). "Co-Training Semi-Supervised Deep Learning for Sentiment Classification of MOOC Forum Posts." Symmetry, 12 (1). 8. Cohen, J. (1992). "A Power Primer." Psychological Bulletin, 112 (1), pp. 155-159. Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186. Fleiss, J. L. (1997). "Measuring Nominal Scale Agreement Among Many Raters." Psychological Bulletin, 76 (5), pp. 378-382. Halliday, M. A. K. (1985). An Introduction to Functional Grammar. Edward Arnold. He, Y. and Zhou, D. (2011). "Self-training from Labeled Features for Sentiment Analysis." Information Processing 83 Management, 47 (4), pp. 606-616. 石田哲也, 関洋平, 欅惇志, 柏野和佳子, 神門典子 (2022). 都市を横断した市民意見抽出に関する課題と手法についての検証. 情報処理学会研究報告, 2022-IFAT-148/2022-DBS-175(32), pp. 1-6. [T. Ishida et al. (2022). Toshi wo Odan shita Shimin Iken Chushutsu ni kansuru Kadai to Shuho nitsuiteno Kensho. SIG Technical Reports, 2022-IFAT-148/2022-DBS-175 (32), pp. 1-6.]. Ishida, T., Seki, Y., Kashino, W., and Kando, N. (2022). "Extracting Citizen Feedback from Social Media by Appraisal Opinion Type Viewpoint." Journal of Natural Language Processing, 29 (2), pp. 416-442. Jin, Z., Peng, Z., Vaidhya, T., Schoelkopf, B., and Mihalcea, R. (2021). "Mining the Cause of Political Decision-Making from Social Media: A Case Study of COVID-19 Policies across the US States." In Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 288-301, Punta Cana, Dominican Republic. Association for Computational Linguistics. Landis, J. R. and Koch, G. G. (1977). "The Measurement of Observer Agreement for Categorical Data." Biometrics, 33 (1), pp. 159-174. Lewis, D. D. and Gale, W. A. (1994). "A Sequential Algorithm for Training Text Classifiers." In Croft, B. W. and van Rijsbergen, C. J. (Eds.), SIGIR '94, pp. 3-12, London. Springer London. Liu, X., He, P., Chen, W., and Gao, J. (2019). "Multi-Task Deep Neural Networks for Natural Language Understanding." In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4487-4496. Martin, J. R. and White, P. R. R. (2005). The Language of Evaluation: Appraisal in English. Palgrave Macmillan. Mitchell, T. M. (1980). "The Need for Biases in Learning Generalizations." Tech. rep. CBMTR-117, Rutgers University, New Brunswick, NJ. 長島里奈, 関洋平, 猪圭 (2016). 地域ユーザに着目したロコミツイート収集手法の提案. 第 8 回データ工学と情報マネジメントに関するフォーラム, DEIM2016-B4-3. 日本データベー ス学会. [R. Nagashima et al. (2016). Chiiki Yuza ni Chakumoku shita Kuchikomi Tsuito Shushu Shuho no Teian. Dai8kai Deta Kogaku to Joho Manejimento ni kansuru Foramu, DEIM2016-B4-3. The Database Society of Japan.]. 大塚裕子, 乾孝司, 奥村学 (2007). 意見分析エンジン一計算言語学と社会学の接点一. コロナ社. [H. Otsuka et al. (2007). Iken Bunseki Enjin-Keisan Gengogaku to Shakaigaku no Setten. Corona sha.]. Peng, M., Zhang, Q., Jiang, Y.-g., and Huang, X. (2018). "Cross-Domain Sentiment Classification with Target Domain Specific Information." In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2505-2513, Melbourne, Australia. Association for Computational Linguistics. Räbiger, S., Kazmi, M., Saygın, Y., Schüller, P., and Spiliopoulou, M. (2016). "SteM at SemEval2016 Task 4: Applying Active Learning to Improve Sentiment Classification." In Proceedings of the 10th International Workshop on Semantic Evaluation (SemEval-2016), pp. 64-70, San Diego, California. Association for Computational Linguistics. Raffel, C., Shazeer, N., Roberts, A., Lee, K., Narang, S., Matena, M., Zhou, Y., Li, W., and Liu, P. J. (2020). "Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer." Journal of Machine Learning Research, 21 (140), pp. 1-67. Ren, P., Xiao, Y., Chang, X., Huang, P.-Y., Li, Z., Gupta, B. B., Chen, X., and Wang, X. (2021). "A Survey of Deep Active Learning." ACM Computing Surveys, 54 (9). Sazzed, S. and Jayarathna, S. (2021). "SSentiA: A Self-supervised Sentiment Analyzer for Clas- sification from Unlabeled Data." Machine Learning with Applications, 4. 100026. Seki, Y., Ku, L. W., Sun, L., Chen, H. H., and Kando, N. (2010). "Overview of Multilingual Opinion Analysis Task at NTCIR-8 - A Step Toward Cross Lingual Opinion Analysis." In Proceedings of the 8th NTCIR Workshop Meeting, pp. 209-220. Settles, B. (2010). "Active Learning Literature Survey." Computer sciences technical report 1648, University of Wisconsin-Madison. Shim, H., Lowet, D., Luca, S., and Vanrumste, B. (2021). "LETS: A Label-Efficient Training Scheme for Aspect-Based Sentiment Analysis by Using a Pre-Trained Language Model." IEEE Access, 9, pp. 115563-115578. Silva, N. F. F. D., Coletta, L. F. S., and Hruschka, E. R. (2016). "A Survey and Comparative Study of Tweet Sentiment Analysis via Semi-Supervised Learning." ACM Computing Surveys, 49 (1). Stelzmüller, C., Tanzer, S., and Schedl, M. (2021). "Cross-City Analysis of Location-Based Sentiment in User-Generated Text." In Companion Proceedings of the Web Conference 2021, WWW '21, pp. 339-346, New York, NY, USA. Association for Computing Machinery. van Engelen, J. E. and Hoos, H. H. (2020). "A Survey on Semi-supervised Learning." Machine Learning, 109, pp. 373-440. Vosoughi, S., Zhou, H., and Roy, D. (2015). "Enhanced Twitter Sentiment Classification Using Contextual Information." In Proceedings of the 6th Workshop on Computational Approaches to Subjectivity, Sentiment and Social Media Analysis, pp. 16-24, Lisboa, Portugal. Association for Computational Linguistics. Wu, F., Huang, Y., and Yan, J. (2017). "Active Sentiment Domain Adaptation." In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1701-1711, Vancouver, Canada. Association for Computational Linguistics. Yarowsky, D. (1995). "Unsupervised Word Sense Disambiguation Rivaling Supervised Methods." In Proceedings of the 33rd Annual Meeting on Association for Computational Linguistics, ACL '95, pp. 189-196, USA. Association for Computational Linguistics. Zhu, X. (2008). "Semi-Supervised Learning Literature Survey." Computer sciences tr 1530, University of Wisconsin-Madison. ## 略歴 石田哲也:2021 年筑波大学情報学群知識情報 - 図書館学類卒業. 2023 年同大学院人間総合科学学術院人間総合科学研究群情報学学位プログラム博士前期課程修了. 関洋平:1996 年慶應義塾大学大学院理工学研究科計算機科学専攻修士課程修了. 2005 年総合研究大学院大学情報学専攻博士後期課程修了. 博士(情報学). 同年豊橋技術科学大学工学部情報工学系助手. 2008 年コロンビア大学コンピュータサイエンス学科客員研究員. 2018 年シンガポール国立大学コンピューティング学部客員研究員. 2010 年筑波大学図書館情報メデイア系助教, 2015 年同准教授, 現在に至る. 自然言語処理, 意見分析, 情報アクセスの研究に従事. ACM, ACL, 情報処理学会, 電子情報通信学会, 言語処理学会,日本データベース学会, 人工知能学会各会員. 欅惇志:一橋大学ソーシャル・データサイエンス学部准教授. 博士 (工学). 2014 年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了. 2012 ~2014 年日本学術振興会特別研究員 (DC2). 2013 年マイクロソフト・リサー チアジアリサーチインターン.2014~2019 年東京工業大学情報理工学院助教. 2016 2017 年シンガポール国立大学客員研究員. 2019 2022 年株式会社デンソーアイティーラボラトリアソシエイトリサーチャ,ACM,電子情報通信学会, 日本データベース学会, 言語処理学会, 人工知能学会各会員. 柏野和佳子:東京女子大学文理学部日本文学科卒業. 東京工業大学大学院総合理工学研究科博士課程修了. 博士 (学術). 現在, 大学共同利用機関法人人間文化研究機構国立国語研究所准教授. コーパス構築や語彙, 辞書研究に従事.『岩波国語辞典』(岩波書店)の編集にも携わる,情報処理学会,計量国語学会, 日本語学会, 人工知能学会, 日本言語学会, 各会員. 神門典子:1994 年慶應義塾大学大学院文学研究科後期博士課程修了. 博士 (図書館・情報学),現在,国立情報学研究所教授,主に情報検索・情報アクセス技術の研究に従事. 1997 年末に NTCIR を開始し, 以降, 国内外の多くの研究者と協力し多様なタスク提案・運営・国際協調等を進めてきた.ACM SIGIR Academy Inaugural Inductee. 言語処理学会, 人工知能学会, 情報処理学会, ACM, ACL, ASIS\&T 各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# ニューラルモデルとタブロー法を用いた自然言語推論 佐治 礼仁 ${ }^{\dagger, \dagger \dagger} \cdot$ 高尾 大樹 $\dagger \cdot$ 加藤 芳秀 $+\dagger \dagger \cdot$ 松原 茂樹 $\dagger,+\dagger \dagger \dagger$ 自然言語推論 (NLI)は,2つのテキストの間に成り立つ推論的関係を同定する夕ス クである。近年, ニューラルモデルに基づくアプローチが高い正答率を達成してい る.しかし, このアプローチに基づく NLI は, 判定結果に至る過程や理由を説明す る能力を有していないという問題がある。一方,NLI では以前より,記号操作に基 づくアプローチが提案されてきた。このアプローチは, 推論の論理的な過程を明示 でき, 推論の根拠を示すことができるものの, 語の意味的知識や常識的な知識を十分に備えることは容易でなく, 高い推論性能の達成は難しいという問題がある。 そ こで本論文では,夕ブロー法とニューラルモデルを組み合わせた手法を提案する。 タブロー法は, 推論規則の適用に基づく論理式の分解, 及び, 論理式への真偽值割 り当てが存在するか否かの検査から構成される,本手法ではこのうち,真偽値割り 当ての検査にニューラルモデルを用いる。なお,夕ブロー法では通常,論理式を操作対象とするのに対し, 本手法では依存構造を対象とする。依存構造を用いること により,ニューラル NLI モデルをタブロー法アルゴリズムに組み込むことが可能と なる。提案手法の論理的整合性を検証するために,手法をモデル理論的に定式化し, その理論的性質を明らかにした。また,SNLI コーパスを用いて推論実験を行い,本手法による推論過程の明示可能性を検証した。 キーワード:自然言語推論, 含意関係認識, 依存構造, 形式論理, タブロー法, ニューラル ネットワーク,SNLI コーパス ## Natural Language Inference Using Neural Network and Tableau Method Ayahito Saji ${ }^{\dagger, \dagger \dagger}$, Daiki TakaO ${ }^{\dagger}$, Yoshihide Kato $^{\dagger \dagger \dagger}$ and Shigeki Matsubara ${ }^{\dagger, \dagger \dagger \dagger}$ Natural language inference (NLI) is the task of identifying the inferential relation between a text pair. In recent times, neural-based approaches have achieved high performance in NLI. However, they are unable to explain their reasoning processes. On the other hand, symbolic approaches have the advantage that their reasoning process is understandable to humans. This paper proposes a method for integrating a neural NLI model and the tableau proof system, with the latter explaining the  reasoning processes. The standard tableau method decomposes logical formulas by applying inferential rules and checks for a valuation that satisfies the given constraints. Unlike the standard tableau method, the proposed method uses dependency structures as its components rather than logical formulas and employs a neural NLI model for the latter process. To analyze the behavior of our method, we conducted an experiment on the neural NLI model and the proposed method using SNLI corpus. In addition, we formalize our method model-theoretically and clarify the theoretical limitations of this method based on the formalization. Key Words: Natural Language Inference, Recognizing Textual Entailment, Dependency Structure, Formal Logic, Tableau Method, Neural Network, SNLI corpus ## 1 はじめに 自然言語推論 (NLI) (Dagan et al. 2013)とは,2つのテキスト(一方を前提,他方を仮説と呼ぶ)の間に成り立つ推論的関係を同定するタスクである。前提から仮説が,論理的知識や常識的知識を用いて導出可能である場合は含意, 前提と仮説が両立しえない場合は矛盾,そのいずれでもない場合は中立と判定する。質問応答, 情報検索,テキスト要約などの幅広い分野での応用が期待されている。 近年, ニューラルモデルに基づくアプローチ (Parikh et al. 2016; Chen et al. 2017; Devlin et al. 2019; Lan et al. 2019; Tai et al. 2020; Wang et al. 2021) が提案され, SNLI コーパス (Bowman et al. 2015), MultiNLI (MNLI) コーパス (Williams et al. 2018), Adversarial NLI (ANLI) デー タセット (Nie et al. 2020), QNLI データセット (Wang et al. 2018)などの NLI データセットを用いた実験で高い正答率を達成している。 しかし, このアプローチに基づく NLI は, 判定結果に至る過程や理由を説明する能力を有していないという問題がある。ニューラルモデルの内部はブラックボックスであり,どのような推論を経て判定に至ったのかを人間が推察することは容易ではない1。このような問題に対して, 近年, 機械学習モデルの判定の過程を明らかにするための技術,いわゆる説明可能な AI (XAI) (Barredo Arrieta et al. 2020)の研究が進められており, 自然言語処理の分野においても同様の問題意識を共有している (Danilevsky et al. 2020). また, ニューラルモデルによる推論の正当性についても問題が指摘されている. 例えば, Yanaka ら (Yanaka et al. 2020)は,ニューラルモデルが自然言語における推論の体系性を学習するかについて monotonicity の観点から評価する手法を提案し, 現状のニューラルモデルの汎化性能には限界があることを示している。 また, Gururangan ら (Gururangan et al. 2018) や Tsuchiya ^{1}$ Kumar ら (Kumar and Talukdar 2020) は説明文を生成する NLI システムを提案している。しかし,説明文はニューラルモデルにより生成されるため, 説明文の生成過程はブラックボックス化しており,内部の処理を知ることは困難であるといえる。 } (Tsuchiya 2018)は, SNLI コーパスや MNLI コーパスなどの NLI データセットには, 本来 $2 \supset$ のテキストに対して定まるはずの推論的関係が,一方のテキストのみから推測できてしまうバイアスがあることを示し, ニューラルモデルが単にバイアスに基づいて推論的関係を同定しているという危険性を指摘している. 一方, NLI では従来より, 記号操作に基づくアプローチが提案されてきた (Bar-Haim et al. 2007; MacCartney and Manning 2007, 2008, 2009; Mineshima et al. 2015; Abzianidze 2015, 2017; Hu et al. 2020). このアプローチには, ニューラルモデルによるものと異なり, 推論の論理的な過程を明示できるという利点がある。また, 推論における記号操作は, 論理学や言語学による裏付けが与えられているため, 推論の根拠を示すことができる. しかし, このアプローチでは,推論規則を人手で作成する必要があり,語の同義・対義関係や上位・下位関係を網羅的に扱うことが難しいという問題がある。加えて,「雨が降ると地面が濡れる」といった常識的知識を推論規則として表現しなければならず,それを人手で網羅することは困難である.実際,記号操作に基づくアプローチは, FraCaS test suite (Cooper et al. 1996) や SICKデータセット (Marelli et al. 2014) など,論理的知識に基づき推論的関係が導出できるように統制をかけて作成された NLI データセット(以下,統制 NLI データと呼ぶ)に対して優位性が示されている。一方,上述したSNLIコーパスや MNLIコーパスなどは,統制 NLI データで課されたような統制をかけず比較的自由に作成されている(以下, 非統制 NLI データと呼ぶ). 語の意味的知識や常識的な知識を十分に備えていない記号操作に基づくアプローチでは, 非統制 NLI データに対して高い正答率を達成することは難しい. そこで本論文では,ニューラルモデルに基づくアプローチが備える,非統制 NLIデータへの適用可能性を維持しつつ,論理的な推論過程を明示可能な自然言語推論システムを実現するための一手法を提案する。本手法では, 形式論理の証明手法の一つである夕ブロー法のアルゴリズムとニューラル NLI モデルを組み合わせる。夕ブロー法は, 推論規則の適用に基づく論理式の分解, 並びに論理式への真偽値割り当てが存在するか否かの検査から構成される.提案手法ではこのうち, 真偽値割り当ての検査にニューラル NLI モデルを用いる. タブロー法は通常,論理式を操作対象とするのに対し,本手法では,依存構造を操作対象とする。依存構造を用いることにより,ニューラル NLI モデルをタブロー法アルゴリズムに組み込むことが可能となる.本手法で導入するニューラル NLI モデルには,入力として前提文と仮説文を受け取ること,及び, それらの推論的関係を出力することのみを課し, その内部処理に関する制約はない2. 本論文の構成は以下の通りである。まず 2 章で,提案手法のベースとなるタブロー法について概説する. 3 章では,夕ブロー法とニューラル NLI モデルを組み合わせた推論手法を提案する. 続く 4 章では, 提案手法の意味論をモデル理論的に定式化し, 手法の理論的性質を明らか  にする, 5 章では, SLNI コーパスを用いて, 提案手法の推論能力を定量的及び定性的に評価する. 6 章では, 関連研究を整理し, 提案手法との違いを示す. ## 2 タブロー法 本章では, 提案手法のベースとなるタブロー法について説明する. タブロー法は, 論理式と真偽値の対の集合が与えられたとき, 集合中のすべての論理式にその対となる真偽値を割り当てることが可能か否かを証明する手続きである,タブロー法では,与えられた集合をもとに,夕ブローと呼ばれる木構造を構成する,タブローのノードのラベルは, 3 つ組 $(f, v, a)$ であり,エントリと呼ばれる。これは, 論理式 $f$ が真偽値として $v$ を取らなければならないという制約を表しており,aはこのエントリに対して後述するタブロー規則が適用されたか否かを表すフラグである,真偽値は, $\mathrm{T}$ かのいいずれかであり,それぞれ真と偽を表す.フラグは,0か 1 のいずれかであり,0 はタブロー規則が未適用,1 は適用済みであることを表す。初期タブローは,与えられた集合の要素である論理式と真偽値の対に対して,フラグとして値 0 を付加したエントリから構成される。タブローのエントリにタブロー規則と呼ばれる推論規則を適用することにより新たなタブローが導出される,タブロー規則の適用により,エントリが表現する制約,すなわち, 論理式が与えられた真偽値を取らなければならないという制約は, 部分論理式に関する制約に分解され,新たなエントリとしてタブローに付け加えられる。この分解により,推論の過程が明示化される.以下では,タブロー $t$ に対して,タブロー規則集合 $R$ 中のタブロー規則を適用して, タブロー $t^{\prime}$ が導出されるとき, $t \stackrel{R}{\triangleright} t^{\prime}$ と表記する。また, $\stackrel{\triangleright}{\triangleright}$ の反射推移閉包を $\stackrel{R}{D^{*} \text { と表記し }, ~} t \stackrel{R}{\triangleright} t^{\prime}$ であるような $t^{\prime}$ が存在しないタブロー $t$ を完成したタブローと呼ぶことにする. タブロー規則の適用は,適用元のエントリが表現する制約を,それと等価な制約へと変換する操作と位置づけられる 3 . したがって,タブロー規則が適用されたエントリの制約は,新たに導出されたエントリにより表現されているため,それ以上規則の適用,および後述する閉鎖性判定の対象にする必要はない. エントリ $(f, v, a)$ の $a$ はこれらの操作の適用の制御に利用でき, タブロー規則が適用されたときにこれを 1 に変更する.フラグが 1 のエントリは以後,規則の適用,および閉鎖性判定の対象とはしない. タブローは木構造であり分岐する。分岐は場合分けに相当する.タブローの根から葉への経路を枝と呼び,ある枝の上に $(f, \mathrm{~T}, 0)$, および $(f, \mathrm{~F}, 0)$ ( $f$ は論理式)というエントリが存在するとき,その枝は閉じているという,タブローのすべての枝が閉じているとき,そのタブロー は閉じているという.閉じているタブローを閉鎖タブローと呼ぶ.タブローが閉じていること  (a)命題論理におけるタブローの例 図 1 命題論理に対するタブロー推論の例 によって, 最初に与えられた論理式と真偽値の対の集合のような真偽値割り当てが存在しないことが証明される。 例として, 命題記号 $p, q, r$ について, $p \wedge q \rightarrow r, p, q$ が真であるとき, $r$ も真であることを命題論理におけるタブロー法を用いて証明する。この証明には, $\{(\mathrm{p} \wedge \mathrm{q} \rightarrow \mathrm{r}, \mathrm{T}),(\mathrm{p}, \mathrm{T}),(\mathrm{q}, \mathrm{T}),(\mathrm{r}, \mathrm{F})\}$ に対する完成したタブローが閉じていることを示せば十分である。完成したタブローを図 1(a) に示す. 初期タブローは, 図中のエントリ $e_{1} \sim e_{4}$ からなるタブローである. この初期タブロー に対して,図 1(b) にその一部を記した命題論理におけるタブロー規則の適用を繰り返すと,図 1(a) が得られる. その後, 各枝において, それが閉じているかどうかを判定する. この例では,全ての枝が閉じている(図では,×により閉じていることを示す),すなわちこの夕ブローは閉じている。これは, $\mathrm{p} \wedge \mathrm{q} \rightarrow \mathrm{r}, \mathrm{p}, \mathrm{q}$ に真,rに偽を割り当てることができないことを意味しており, $\mathrm{p} \wedge \mathrm{q} \rightarrow \mathrm{r}, \mathrm{p}, \mathrm{q}$ が真であるならば, $\mathrm{r}$ も真であることが証明される。 ## 3 提案手法 本章では,夕ブロー法とニューラル NLI モデルを組み合わせた自然言語推論の手法を提案する。この手法は以下の処理を順に実行する. 依存構造解析前提文 $p$ と仮説文 $h$ に依存構造を付与する。依存構造が付与された文をそれぞれ $D_{p}, D_{h}$ とする. タブローの構成前提 $D_{p}$ と仮説 $D_{h}$ をもと,含意関係を証明するタブロー(集合 $\left.\{\left(D_{p}, \mathrm{~T}\right)\right.$, $\left.\left(D_{h}, \mathrm{~F}\right)\right.\}$ から導出される完成したタブロー)と矛盾関係を証明するタブロー(集合 $\left.\{\left(D_{p}, \mathrm{~T}\right)\right.$, $\left.\left(D_{h}, \mathrm{~T}\right)\right.\}$ から導出される完成したタブロー) を構築する。以下では, これらのタブロー をそれぞれ含意タブロー,矛盾タブローと呼ぶ. タブローの閉鎖性判定含意タブロー,および矛盾タブローが閉じているか否かをニューラル NLI モデルを用いて判定する. 推論的関係の同定含意タブローと矛盾タブローの閉鎖性の判定から,推論的関係を同定する.以下では,各処理について,その背景となる考え方と合わせて説明する. ## 3.1 依存構造解析 提案手法ではタブローが閉じているか否かの判定にニューラル NLI モデルを利用する。これにはニューラル NLI モデルへの入力は論理式ではなく自然言語文 2 文であることが課題となる. この課題を解決する,すなわち,自然言語文をモデルに入力するためのアプローチの一つとして,夕ブローのエントリは論理式とし,前提文と仮説文を論理式に変換して記号操作を行った後に,論理式を自然言語文へ再変換してニューラルモデルを利用する方法が考えられる。しかし,論理式からテキストへの変換は現状の技術では困難である ${ }^{4}$.そこで提案手法では,自然言語文を論理式に変換してタブロー法を適用するのではなく,タブロー法を自然言語文に適用できるように拡張するアプローチを取る。具体的には,依存構造を付与した自然言語文をタブロー のエントリに採用する。夕ブロー規則は,依存構造情報をもとに,新しいエントリを導出する。提案手法では, 依存構造として Universal Dependencies (UD) (de Marneffe et al. 2021)を採用する。提案手法の最初のステップは,前提と仮説の自然言語文に依存構造を与える処理であり, この処理には, UDに基づく任意の依存構造解析器を用いることができる. 図 2 に依存構造の例を示す. 図 2 "Either Smith or Anderson signed the contract." の依存構造解析結果  ## 3.2 タブローの構成 本節では,依存構造に基づくタブロー法について述べる。通常のタブロー法が,夕ブロー規則により複雑な論理式をより単純な論理式に分解するのに対して, 提案手法では, 依存構造に基づき,自然言語文をより単純な自然言語文に分解するタブロー規則を設計する. 提案手法におけるタブローのエントリは,四つ組 $(D, v, a, o)$ である。 $D$ は依存構造であり, $v$ と $a$ は通常のタブロー法と同様であり,それぞれ真偽値およびフラグである,oは,そのエントリがどのエントリから導出されたかを表す。初期タブローのエントリ $e$ は, 自分自身から導出されたものとする. すなわち $e=(D, v, 0, e)$ という形をとる. タブローは, 通常のタブロー 法と同じくタブロー規則を繰り返しエントリに適用することで導出される。提案手法におけるタブロー規則の一般形は, 次の表記で表される. $ r=\left(c_{1,1} \wedge \cdots \wedge c_{1, n_{1}}\right) \vee \cdots \vee\left(c_{m, 1} \wedge \cdots \wedge c_{m, n_{m}}\right) $ ここで, $c_{i, j}$ は, エントリ $(D, v, 0, o)$ を受け取り,エントリ $\left(D^{\prime}, v^{\prime}, 0, o\right)$ を返す任意の部分関数である. $r$ を構成するすべての $c_{i, j}$ について,$c_{i, j}(e)$ が未定義でないとき, タブロー規則 $r$ はエントリ $e$ に適用可能であるという,夕ブロー中に,夕ブロー規則が適用可能なエントリ $e$ が存在するとき, そのエントリが支配するすべての葉に, それらの子として新たな $m$ 個の経路 $\left.\langle c_{1,1}(e) \cdots c_{1, n_{1}}(e)\right.\rangle, \cdots,\left.\langle c_{m, 1}(e) \cdots c_{m, n_{m}}(e)\right.\rangle$ を追加する. タブロー規則が適用されたエントリ $(D, v, 0, o)$ を $(D, v, 1, o)$ に置き換える. 図 3 にタブロー規則の例に示す.この図において, 根は入力として取ることができる依存構造(のパターン)と真偽値の対を表している。すなわち,このパターンに合致しないような依存構造に対して $c_{i, j}$ は未定義である。根以外のラベルは各 $\mathrm{c}_{i, j}$ に対応しており,入力されたエントリに対してどのようなエントリを返すかを表現している。 (a) 条件法に関する規則 (b) 否定に関する規則 (c) 選言に関する規則 図 3 タブロー規則の例 初期タブローを $e_{1}=\left(\right.$ Either Smith or Anderson signed the contract, T, $\left.0, e_{1}\right), e_{2}=($ If Smith did not sign the contract Anderson made an agreement, F, $\left.0, e_{2}\right)$ としたときのタブローの構成を例に,タブロー規則の適用の流れを説明する(完成したタブローを図 4 に示す)。 $e_{2}$ :(If Smith did not sign the contract Anderson made an agreement, F $\left., 0, e_{2}\right)$ に図 3(a)の規則を適用すると, $e_{2}$ が支配するすべての葉に新たな 2 つのエントリ $e_{3}$ : (Smith did not sign the contract, $\mathrm{T}, 0, e_{2}$ ) と $e_{4}$ : (Anderson made an agreement, $\left.\mathrm{F}, 0, e_{2}\right)$ が追加され, $e_{2}$ のフラグが 1 に変更される. 次に, $e_{3}$ : (Smith did not sign the contract, $\mathrm{T}, 0, e_{2}$ )に図 3(b) の規則を適用すると,新たなエントリ $e_{5}$ :(Smith signed the contract, $\left.\mathrm{F}, 0, e_{2}\right)$ が追加され, $e_{3}$ のフラグが 1 に変更される。最後に, $e_{1}$ : (Either Smith or Anderson signed the contract, T $\left., 0, e_{1}\right)$ に図 3(c) の規則を適用すると,新たな 2 つのエントリ $e_{6}$ : (Smith signed the contract, T, $0, e_{1}$ ) と $e_{7}$ : (Anderson singned the contract, $\left.\mathrm{T}, 0, e_{1}\right)$ が追加され, $e_{1}$ のフラグは 1 に変更される. 以上により, タブローが構成される. $e_{1}$ : (Either Smith or Anderson signed the contract, T, 1, $e_{1}$ ) $e_{2}$ : (If Smith did not sign the contract Anderson made an agreement, F, 1, $e_{2}$ ) 図 4 含意タブローの例 ## 3.3 タブローの閉鎖性判定 一般のタブロー法においては,枝上に真偽値のみが異なるエントリが存在することをもって閉じた枝を定義している。提案手法ではこれに加えてニューラル NLI モデルに基づく閉じた枝を定義する。ニューラル NLI モデルは, 前提文 $p$ と仮説文 $h$ を力として受け取ると,それを含意 $(\mathrm{E})$, 中立 $(\mathrm{N})$, 矛盾 (C)のいずれかのクラスに分類するものとする.以下では, $L \times L(L$ は自然言語文の集合)から集合 $\{\mathrm{E}, \mathrm{N}, \mathrm{C}\}$ へ関数 $\nu$ を $N L I$ システムと呼ぶ. $\nu(p, h)=\mathrm{E}$ は $p$ が $h$ 提案手法では,枝上に次のいずれかが成り立つようなエントリ $e_{1}=\left(D_{s_{1}}, v_{1}, 0, o_{1}\right), e_{2}=$ $\left(D_{s_{2}}, v_{2}, 0, o_{2}\right)$ (ただし $o_{1} \neq o_{2} )$ が存在するとき,その枝は閉じていると再定義する(閉じた夕ブローについてもこの再定義のもとで同様に再定義する).以下では再定義した 3 つの条件を,枝の閉鎖条件と呼ぶ. (1) $v_{1}=\mathrm{T}$ かつ $v_{2}=\mathrm{F}$ かつ $s_{1}=s_{2}$ (2) $v_{1}=\mathrm{T}$ かつ $v_{2}=\mathrm{T}$ かつ $\nu\left(s_{1}, s_{2}\right)=\mathrm{C}$ (3) $v_{1}=\mathrm{T}$ かつ $v_{2}=\mathrm{F}$ かつ $\nu\left(s_{1}, s_{2}\right)=\mathrm{E}$ 閉鎖条件 (1) は従来のタブロー法と同じである。閉鎖条件 $(2)$ は, $s_{1}, s_{2}$ が矛盾関係にあることと $e_{1}, e_{2}$ の両方が真であることは両立しえないことに由来する条件である. 閉鎖条件 $(3)$ は, $s_{1}$ が $s_{2}$ を含意するとき, $s_{1}$ が真ならば, $s_{2}$ も真でなければならないが,エントリはそのようにはなっていないことを意味する. 閉鎖条件 (2), (3) については, 4 章において改めて議論する. NLI システムに応じてタブローが閉じているか否かが異なるため, 以下では, いかなる NLI システムのもとで閉じているかを明示する場合には,NLI システム $\nu$ のもとで閉じているということにする. $o_{1} \neq o_{2}$ という条件は, 前提から導出されたエントリ同士, あるいは仮説から導出されたエントリ同士について,閉鎖性の判定の対象から除外するものである。これは前提や仮説が恒真 (偽) でなければ問題となることはない. タブローの閉鎖性判定の例について見るために,図 4 のタブローを考える。また, $ \nu\left(\operatorname{sen}\left(e_{7}\right), \operatorname{sen}\left(e_{4}\right)\right)=\mathrm{E} $ であると仮定する 5 . このタブローは 2 つの枝をもつが, 左の枝 $\left.\langle e_{1}, e_{2}, e_{3}, e_{4}, e_{5}, e_{6}\right.\rangle$ では, $e_{6}$ : (Smith signed the contract, T, $0, e_{1}$ ), $e_{5}$ : (Smith signed the contract, F, $0, e_{2}$ ) が存在している. この枝は閉鎖条件 $(1)$ を満たすので,閉じている。一方,右の枝 $\left.\langle e_{1}, e_{2}, e_{3}, e_{4}, e_{5}, e_{7}\right.\rangle$ では, $e_{7}$ : (Anderson signed the contract, T, $0, e_{1}$ ), $e_{4}$ : (Anderson made an agreement, F, $0, e_{2}$ ) が存在している. $\nu\left(\operatorname{sen}\left(e_{7}\right), \operatorname{sen}\left(e_{4}\right)\right)=\mathrm{E}$ であるので,閉鎖条件 $(3)$ によってこの枝は閉じている. した \left(\left(D_{s}, v, a, o\right)\right)=s$ と定義する. } 表 1 タブローの閉鎖性と推論的関係の対応 がって, 図4のタブローは, 仮定のような NLI システムの下で閉じている. ## 3.4 推論的関係の同定 含意タブロー,および矛盾タブローは,それぞれ前提と仮説の間に含意関係,矛盾関係が成り立つかどうかを判定するためのタブローである。これらのタブローの閉鎖性と,仮説と前提の間の推論的関係は, Abzianidze (Abzianidze 2015) と同様に表 1 のように整理でき,これに従って推論的関係を同定する ${ }^{6}$. ## 4 提案手法の意味論 本章では, 3 章で提案した手法の論理的な整合性を検証する。提案手法をモデル理論的に定式化し,手法の性質とその限界を理論的に明らかにする。具体的には,提案手法において健全性が常に成立する一方で,完全性が一般には成立しないことを示す。本章で使用する記号とその説明を表 2 に示す。 ## 4.1 モデル 本節では,提案するタブロー法を形式的に議論するために,まず,その基盤となるモデル理論的な文の解釈について定義する.次に,モデルに基づいて,タブロー規則,および NLI システムを特徵付け,タブロー規則により導出された完成したタブローにおける NLI システムを用いた閉鎖性判定のもつ性質を明らかにする。 まず,モデルを定義する. 定義 1 (モデル). $L$ ( $L$ は自然言語文の集合)から $\{\mathrm{T}, \mathrm{F}\}$ の関数 $m$ をモデルと呼ぶ. $\mathcal{M}$ をべてのモデルの集合とする. モデルの集合 $M \subseteq \mathcal{M}$ に対して, $M(s)=\{m \in M \mid m(s)=\mathrm{T}\}$ と定義する。  & \\ 表 2 提案手法の定式化に使用する記号 以下では,モデル集合 $M$ が与えられたとき7, $M$ と整合性のとれた NLI システム,および夕ブロー規則がどのようなものであるかを定義し, 整合性が取れているという条件の下で提案手法による推論的関係の同定の理論的限界を明らかにする. 定義 2. 次の 3 つの条件が全て成り立つとき, NLI システム $\nu$ はモデル集合 $M$ と整合的であるという。なお, $s_{1}, s_{2} \in L$ とする. - $M\left(s_{1}\right) \subseteq M\left(s_{2}\right)$ ならば, かつ, そのときのみ $\nu\left(s_{1}, s_{2}\right)=\mathrm{E}$ - $\neg\left(M\left(s_{1}\right) \subseteq M\left(s_{2}\right)\right) \wedge \neg\left(M\left(s_{1}\right) \cap M\left(s_{2}\right)=\emptyset\right)$ ならば, かつ, そのときのみ $\nu\left(s_{1}, s_{2}\right)=\mathrm{N}$ - $M\left(s_{1}\right) \cap M\left(s_{2}\right)=\emptyset$ ならば,かつ,そのときのみ $\nu\left(s_{1}, s_{2}\right)=\mathrm{C}$ この定義では,含意関係をモデル集合の包含関係として,矛盾関係を互いに素な関係として捉えている. 以下では,モデルに基づいてタブローを特徴付ける。その準備として,エントリ,タブロー の枝, タブローに対応するモデルを, $M(s)$ を拡張することにより定義する. $ ではなく, その部分集合 $M$ を考えるのは, $\mathcal{M}$ の中には,論理的に不自然なモデル,例えば,すべての自然言語文に対して T を返すようなモデルが含まれるからである。論理的に自然なモデルの集合が仮に $M$ として与えられたものとして以下では議論を進める。なお, $M$ に対して何の条件も課さないため, $M$ がどのような集合であっても以下の議論は成り立つ. } 定義 3 (エントリに対するモデル集合). タブローのエントリ $e=\left(D_{s}, v, a, o\right)$ に対して, $M(e)$ を次のように定義する. $ M(e)= \begin{cases}M(s) & (v=\mathrm{T}) \\ M-M(s) & (v=\mathrm{F})\end{cases} $ 定義 4 (タブローの枝に対するモデル集合). タブローの枝 $b$ に対して,$M(b)$ を次のように定義する. $ M(b)=\bigcap_{e \in b} M(e) $ 定義 $\mathbf{5}$ (タブローに対するモデル集合). タブロー $t$ に含まれる全ての枝の集合を $B$ とする. $M(t)$ を次のように定義する。 $ M(t)=\bigcup_{b \in B} M(b) $ 提案手法では,タブロー規則の適用前後で,エントリが表現する制約が等価であることを想定しており,この性質を以下のように定義する. 定義 6. $r=\left(c_{1,1} \wedge \cdots \wedge c_{1, n_{1}}\right) \vee \cdots \vee\left(c_{m, 1} \wedge \cdots \wedge c_{m, n_{m}}\right), E$ をすべてのエントリの集合とし, $E_{r}=\{e \in E \mid r$ は $e$ に適用可能 $\}$ とする. 任意の $e \in E_{r}$ に対して次の条件が満たされるとき, タブロー規則 $r$ はモデル集合 $M$ と整合的であるという. $ M(e)=\left(M\left(c_{1,1}(e)\right) \cap \cdots \cap M\left(c_{1, n_{1}}(e)\right)\right) \cup \cdots \cup\left(M\left(c_{m, 1}(e)\right) \cap \cdots \cap M\left(c_{m, n_{m}}(e)\right)\right) $ この等式において, 左辺は, エントリ $e$ に対する制約に相当する。右辺は, エントリ $e$ にタブロー規則 $r$ を適用した結果,導出されるエントリにより表現される制約に対応する。また,任意の $r \in R$ が $M$ と整合的であるとき, $R$ は $M$ と整合的であるという. 提案手法の振る舞いは,タブロー規則の集合 $R$ と NLI システム $\nu$ によって定まる。 以下では, この対 $(R, \nu)$ を証明システムとよび, $R$ と $\nu$ がモデル $M$ と整合的であるとき, $(R, \nu)$ は $M$ と整合的であるという。 ## 4.2 健全性と完全性 本節では,前節で定義したモデルに基づき提案手法の健全性と完全性を定義する.任意の証明システムについて健全性が成り立つことを証明し,完全性について反例を示す. ここで定義する健全性とは,含意(矛盾)タブローが閉じているとき,前提と仮説に対するモデル集合は, 包含(互いに素な)関係にあるという性質である。定義は以下のとおりである. 定義 7 (含意タブロー, および矛盾タブローの健全性). $M$ をモデル集合, $(R, \nu)$ を $M$ と整合的な証明システムとする。任意の前提文 $p$ と仮説文 $h$ について, 次の条件が成り立つならば, $(R, \nu)$ は,モデル集合 $M$ において健全であるという. - $R$ によって構成された含意タブローが $\nu$ もとで閉じているならば, $M(p) \subseteq M(h)$. - $R$ によって構成された矛盾タブローが $\nu$ のもとで閉じているならば, $M(p) \cap M(h)=\emptyset$.一方で,完全性を次のように定義する。 定義 8 (含意タブロー, および矛盾タブローの完全性). $M$ をモデル集合, $(R, \nu)$ を $M$ と整合的な証明システムとする。任意の前提文 $p$ と仮説文 $h$ について, 次の条件が成り立つならば, $(R, \nu)$ は,モデル集合 $M$ において完全であるという. - $M(p) \subseteq M(h)$ ならば, $R$ によって構成された含意タブローが $\nu$ のもとで閉じている. ## 4.2.1 健全性の証明 本節では,健全性に関する以下の定理を証明する。 定理 1 (健全性の定理). $M$ をモデル集合とする. $M$ と整合的な任意の証明システムは, $M$ において健全である。 以下では,まず定理 1 を証明するための補助定理を導入し,それにも基づき定理 1 を証明する. 補助定理 2. $R$ が $M$ と整合的であるならば, $t \stackrel{R}{\triangleright} t^{\prime}$ を満たす任意のタブロー $t$ と $t^{\prime}$ において次が成立する. $ M(t)=M\left(t^{\prime}\right) $ 補助定理 2 は定義 6 から明らかである. 補助定理 3. $t$ と $t^{\prime}$ をタブローとし, $t \triangleright^{R} t^{\prime}$ とする, $R$ が $M$ と整合的であるならば, $M(t)=M\left(t^{\prime}\right)$.補助定理 3 は補助定理 2 から明らかである. 含意タブローの健全性の証明は次の通りである。 証明. $R$ によって構成された含意タブロー $t_{\mathrm{comp}}$ が $\nu$ のとで閉じているとする.このとき, $t_{\text {comp }}$ のすべての枝 $b$ に閉鎖条件のいずれかを満たす 2 つのエントリ $e_{1}=\left(D_{s_{1}}, v_{1}, 0, o_{1}\right), e_{2}=$ $\left(D_{s_{2}}, v_{2}, 0, o_{2}\right)$ (ただし $\left.o_{1} \neq o_{2}\right)$ が存在する. - 閉鎖条件 (1) を満たすならば, $s_{1}=s_{2}$. したがって, 定義 3 より $M\left(e_{1}\right) \cap M\left(e_{2}\right)=$ $M\left(\left(D_{s_{1}}, \mathrm{~T}, 0, o_{1}\right)\right) \cap M\left(\left(D_{s_{2}}, \mathrm{~F}, 0, o_{2}\right)\right)=\emptyset$. - 閉鎖条件 $(2)$ を満たすならば, $\nu\left(s_{1}, s_{2}\right)=$ C. $\nu$ は $M$ と整合的であるから, 定義 2 より $M\left(s_{1}\right) \cap M\left(s_{2}\right)=\emptyset$. よって, 定義 3 より $M\left(s_{1}\right) \cap M\left(s_{2}\right)=M\left(\left(D_{s_{1}}, \mathrm{~T}, 0, o_{1}\right)\right) \cap$ $M\left(\left(D_{s_{2}}, \mathrm{~T}, 0, o_{2}\right)\right)=M\left(e_{1}\right) \cap M\left(e_{2}\right)=\emptyset$. - 閉鎖条件 $(3)$ を満たすならば, $\nu\left(s_{1}, s_{2}\right)=\mathrm{E} . \nu$ は $M$ と整合的であるから,定義 2 より $M\left(s_{1}\right) \subseteq M\left(s_{2}\right)$. 定義 3 より $M\left(e_{1}\right)=M\left(s_{1}\right), M\left(e_{2}\right)=M-M\left(s_{1}\right)$. ここで $M\left(s_{1}\right) \subseteq$ $M\left(s_{2}\right)$ であるから, $M\left(e_{1}\right) \cap M\left(e_{2}\right)=\emptyset$. 以上より, $M\left(e_{1}\right) \cap M\left(e_{2}\right)=\emptyset$. ゆえに, 定義 4 より $M(b)=\emptyset$ となる. したがって,すべての $e_{1}=\left(D_{p}, \mathrm{~T}, 0, e_{1}\right), e_{2}=\left(D_{h}, \mathrm{~F}, 0, e_{2}\right)$ から構成されるため, 定義 4 と 5 から $M\left(\left(D_{p}, \mathrm{~T}, 0, e_{1}\right)\right) \cap$ $M\left(\left(D_{h}, \mathrm{~F}, 0, e_{2}\right)\right)=\emptyset$ である. したがって, $M\left(\left(D_{p}, \mathrm{~T}, 0, e_{1}\right)\right) \subseteq M\left(\left(D_{h}, \mathrm{~T}, 0, e_{2}\right)\right)$. 定義 3 から $M(p) \subseteq M(h)$ である.以上より定義 7 の 1 番目の条件は満たされる。矛盾タブローに関する 2 番目の条件も同様に証明できる。すなわち, 証明システム $(R, \nu)$ は $M$ において健全である. ## 4.2.2 完全性の反例 本節では,完全性が一般には成立しないことを反例を用いて説明する。 完全性が一般に成り立たないことを示すには,次の条件を満たすモデル集合 $M$ ,証明システ厶 $(R, \nu)$, 前提文 $p$, 仮説文 $h$ が存在することを示せげ十分である. ## 条件 $1 M(p) \subseteq M(h)$ 条件 $2(R, \nu)$ は $M$ と整合的である. 条件 $3 R$ によって構成された $p$ と $h$ の含意タブローは $\nu$ のとで閉じていない. 次のインスタンス, 表 3 に示すモデル $M$, 図 5 に示すタブローを構成する証明システム $(R, \nu)$ ( $\nu$ は $M$ と整合的なものを任意に選んでよい)は,上の条件を満たす,完全性が一般には成り立たないことを示す反例となっている. 前提: Smith and Anderson did not go out. 仮説: Smith and Anderson were home. 推論的関係: 含意 $M(p)=M(h)=\left.\{m_{1}\right.\}$ であるので, $M(p) \subseteq M(h)$ である. すなわち条件 1 を満たす. $M\left(e_{1}\right)=$ 表 3 完全性が成立しないモデルの例 $e_{1}$ : (Smith and Anderson did not go out, T, 1, $e_{1}$ ) $e_{2}$ : (Smith and Anderson were home, $\mathrm{F}, 1, e_{2}$ ) $e_{3}$ : (Smith or Anderson went out, F, 1, $e_{1}$ ) 図 5 タブローの完全性の反例 $M\left(e_{3}\right)=M\left(e_{4}\right) \cap M\left(e_{5}\right)=\left.\{m_{1}\right.\}, M\left(e_{2}\right)=M\left(e_{6}\right) \cup M\left(e_{7}\right)=\left.\{m_{2}, m_{3}, m_{4}\right.\}$ であることから, このタブローの構成に用いられたタブロー規則は $M$ と整合的である。 $\nu$ はと整合的であるので, $(R, \nu)$ は $M$ と整合的である。 すなわち条件 2 を満たす. 図 5 の含意タブローにおいてタブ このため, この含意タブローにおいて,閉鎖条件を満たすエントリの対は存在せず, $\nu$ のもとでこのタブローが閉じていることはあり得ない。(条件 3 を満たす)。以上から, $M,(R, \nu), p, h$ は完全性が一般には成り立たないことを示す反例となっている. ## 5 実験 提案手法における論理的な推論過程の明示可能性を評価すること, 及び, 提案手法の欠点を 明らかにすることを目的に,下記の準備のもと実験を実施した8 8. データセットニューラル NLI モデルの構築, および評価用データセットとして SNLIコーパスを使用した.SNLIコーパスには,訓練データとして 549,367 件,開発データとして 9,842 件,テストデータとして 9,824 件が含まれている 9. 依存構造解析依存構造解析器として Udify (Kondratyuk and Straka 2019), および Udify 事前学習モデルを用いた ${ }^{10}$. Udify は Multilingual BERT ${ }^{11}$ ベースの多言語対応の依存構造解析器であり,UDに基づく依存構造を出力する. ニューラル NLI モデルフレームワーク内で使用するニューラル NLI モデルとして,LSTM に基づくニューラル NLI モデルである ESIM (Chen et al. 2017) を採用した ${ }^{12}$. ESIM のパラメータは,SNLIコーパスの訓練用データと開発用データを用いて学習した。 タブロー規則タブロー規則として,命題論理のタブロー法の連言,選言,否定,条件法の 4 つの規則に相当する規則を合計 32 個作成した。作成したタブロー規則について付録 Aにまとめる。連言,選言については,文の等位接続だけでなく,UDの core argument(主語,目的語など)の等位接続を扱える規則となっている. ## 5.1 推論過程の明示可能性 提案手法における推論過程の明示可能性を評価するために,含意タブロー,および矛盾タブローのサイズ (エントリの数) を測定した。提案手法はタブロー規則の適用により推論の明示化を行っており,タブローのサイズは推論の明示化の程度を評価する指標である。含意タブロー と矛盾タブローのサイズの分布を図 6 の左と右にそれぞれ示す. サイズが 2 となる(タブロー 規則が適用されなかった)推論も多いが,一方で,サイズが 4 以上となる(タブロー規則が複数回適用された)推論も少なくなく,提案手法における明示可能性が示された。なお,何らかのタブロー規則が適用されたインスタンスは, 9,824 件中 800 件であった. 実験デー夕内のあるインスタンスを対象に,提案手法による推論がどのように行われたのかを分析した。 前提: A little boy is standing in front of a wedding party laughing. 仮説: There is a bride and groom behind the little boy. 推論的関係: 含意 図 7 に,このインスタンスに対して作成された含意タブローを示す。この例では, $e_{2}$ に含まれる等位構造 “a bride and groom” が “groom” と “bride”に分解され,それぞれ $e_{3}$ と $e_{4}$ として導  図 6 含意タブロー(左)と矛盾タブロー(右)のサイズの分布 $e_{1}$ : (A little boy is standing in front of a wedding party laughing, $\mathrm{T}, 0, e_{1}$ ) $e_{2}$ : (There is a bride and groom behind the little boy, $\mathrm{F}, 1, e_{2}$ ) $e_{3}$ : (There is a bride behind the little boy, $\mathrm{F}, 0, e_{2}$ ) $e_{4}$ : (There is a groom behind the little boy, $\mathrm{F}, 0, e_{2}$ ) 図 7 正しい含意タブローの例 出された後,それらが $e_{1}$ と矛盾することを正しく判定できている。 すなわち,タブロー法に基づいて名詞句の等位構造により表現された連言を分解する推論過程を明示化できている。一方で, 記号操作的アプローチでは扱いが難しい "wedding party" と "groom", "bride"といった単語の類似関係や “in front of" と “behind” といった異なる単語(列)によって表現された位置の関係は, ニューラルモデルにより柔軟に扱うことができている. ## 5.2 誤り分析 タブロー法とニューラル NLI モデルを組み合わせる提案手法の問題点を明らかにするために,提案手法において何らかのタブロー規則が適用された 800 件を対象に,その推論性能を測定した. 提案手法による結果, 及び,ニューラル NLI モデルによる結果を表 4 , および表 5 に併せて示す。なお,「エラー」とは, 3.4 節の表 1 に示したように,含意関係と矛盾関係のいずれも成立すると判定され,解釈不能であることを示すラベルである.推論性能として,標準的な評価指標である正解率, 再現率, 精度, $F_{1}$ 値を求めた ${ }^{13} . F_{1}$ 値は, 以下で定義する再現率と精度の調和平均である. $ \begin{aligned} \text { Recall }_{A} & =\frac{\mathrm{TP}_{A}}{\operatorname{True}_{A}} \\ \text { Precision }_{A} & =\frac{\mathrm{TP}_{A}}{\text { Positive }_{A}} \end{aligned} $ ここで, $A$ は「含意」,「中立」,「矛盾」のいずれかのラベルを表し, $\mathrm{TP}_{A}$ は正解ラベルと予測ラベルがクラス $A$ であるインスタンス数, True $A$ は正解ラベルがクラス $A$ であるインスタンス数, Positive ${ }_{A}$ は予測ラベルがクラス $A$ であるインスタンス数である. 提案手法は, ニューラル NLI モデルと比べて, 正解率の低下がみられた. 以下では,提案手法において夕ブロー規則が適用され,かつ誤りが生じたケースについて,そ の要因を分析し,考察する. 表 4 提案手法とニューラル NLI モデルの予測結果 表 5 提案手法とニューラル NLI モデルの正解率  ## 5.2.1 誤りの原因の分析 本節では,開発データ中においてタブロー規則が適用された 762 件のインスタンスを用いて提案手法が推論的関係を誤って同定した原因を分析する。開発データに対して提案手法を適用した予測結果の混合行列を表 6 に示す. 開発データの結果はテストデータと大きな乘離がなく,誤りの原因についても同様の傾向が見られた。誤って予測したインスタンスの合計は 268 件であった. この 268 件の中で, 正解ラベルが誤っていたインスタンスは 35 件存在した. 正解ラベルを修正したところ,そのうち 16 件は提案手法によって正しく推論的関係を同定できていた. また, 文中の単語の誤りによって意味が通らないインスタンスが 4 件存在した. そこで, 以上の 20 件を除いた 248 件のインスタンスについて, その閉鎖性判定が誤っているタブロー 292 個 ${ }^{14}$ を, 次の 4 つに分類した ${ }^{15}$. - NLI システムに起因する誤り(5.2.2 節) $\cdot$ タブロー規則に起因する誤り (5.2.3 節) - 依存構造解析に起因する誤り (5.2.4 節) - 提案手法の限界に起因する誤り (5.2.5 節) それぞれに該当するタブローの数を表 7 に示す. 以下では具体例を挙げながら,各誤りについて説明する。 表 6 開発デー夕に対する提案手法の予測結果 表 7 開発デー夕における誤りの要因  ## 5.2.2 NLI システムに起因する誤り 本節では, NLI システムに起因する誤りについて説明する。 292 個の誤りのうち, 239 個の誤りは,NLI システムが推論的関係の同定を誤ったことが原因である.例として,以下のインスタンス 前提: Two people are in a green forest. 仮説: The forest is not dead. 推論的関係: 含意 に対して生成された含意タブローを図 8 に示す.このインスタンスの推論的関係は「含意」であるため,含意夕ブローは閉じなければならないが,閉じていなかった. $\operatorname{sen}\left(e_{1}\right)$ における "green forest" $\operatorname{sen}\left(e_{3}\right)=$ "The forest is dead" から, 正しくは $\nu\left(\operatorname{sen}\left(e_{1}\right), \operatorname{sen}\left(e_{3}\right)\right)=$ Cであると考えられるが, $\nu\left(\operatorname{sen}\left(e_{1}\right), \operatorname{sen}\left(e_{3}\right)\right)=\mathrm{N}$ と判定されたために,閉鎖条件 $(2)$ を満たさず,このタブロー は閉じていない. また,NLI システムの推論的関係の同定の誤り 239 個のうち, SNLI コーパスから学習したニューラルモデルがもつある特性が原因であると考えられるものが 141 個存在した. 例として,以下のインスタンス 前提: A man and woman walk atop a hill. 仮説: A man and woman are walking. 推論的関係: 含意 に対して生成された矛盾タブローを図 9 に示す. 推論的関係は「含意」であるこのタブローのエントリ $e_{3}$ と $e_{6}$ について, $\nu\left(\operatorname{sen}\left(e_{3}\right), \operatorname{sen}\left(e_{6}\right)\right)=\mathrm{C}$ と判定された。 そのため, $\nu$ のもとでこの矛盾タブローは閉じてしまい, 正しい推論的関係を $e_{1}$ : (Two people are in a green forest, $\mathrm{T}, 0, e_{1}$ ) 図 8 NLI システムに起因して誤った含意タブローの例 $e_{1}$ : (A man and woman walk atop a hill, T, $1, e_{1}$ ) $e_{3}$ : (A man walk atop a hill, $\mathrm{T}, 0, e_{1}$ ) $e_{4}$ : (Woman walk atop a hill, $\mathrm{T}, 0, e_{1}$ ) $e_{6}$ : (Woman are walking, $\mathrm{T}, 0, e_{2}$ ) $e_{3}$ と $e_{6}$ より誤って $\mathbf{x}$ 図 9 NLI システムに起因して誤った矛盾タブローの例 同定できなかった. $\operatorname{sen}\left(e_{3}\right)$ と $\operatorname{sen}\left(e_{6}\right)$ の間の推論的関係には, ある種の不確定性が存在することが, 文献 (Bowman et al. 2015)において指摘されている. 名詞句が参照する実体が同一であるか否かに応じて推論的関係が異なる場合があり, $\operatorname{sen}\left(e_{3}\right)$ と $\operatorname{sen}\left(e_{6}\right)$ の推論的関係においては “a man"と "woman" が同一の実体を参照するとすればその推論的関係は「矛盾」であるが,同一の実体を参照しないとすれば「中立」である.SNLIコーパスにおいては,同一の実体を参照するという想定のもとで推論的関係が定められる傾向にあり,SNLIコーパスに基づき構築された ESIM もその傾向を持っていると考えられる。ここで注目すべきポイントは,提案したタブロー法による推論によってこの事実を捉えることができた点である. ## 5.2.3 タブロー規則に起因する誤り 本節では,夕ブロー規則の適用に起因する誤りについて説明する。夕ブロー規則を適用することにより不適格文が生成されるケースが確認された。例えば,次のようなインスタンスが存在した。 前提: The man and woman are both smiling. 仮説: A guy and a lady are standing near each other. 推論的関係: 中立 この仮説文に対してタブロー規則を適用した結果を図 10 に示す.ここで, $e_{1}$ に含まれる “each other”は, “a guy”が “a lady”を, “a lady”が “a guy”を先行詞とする相互代名詞であるものの, タブロー規則を適用した結果得られる $e_{2}$ と $e_{3}$ では先行詞が存在しなくなるため, 不適格文となる。タブロー規則を適用した結果, 不適格文が生成されたタブローは 19 個存在した. 別の誤りの要因としては, not + any を含む文に対して否定に関するタブロー規則を適用することによるものが挙げられる。例えば, 前提: A cement truck pours cement on the street. 仮説: The truck isn't doing anything. ## 推論的関係: 矛盾 の仮説文に否定に関するタブロー規則を適用すると,図 11 のようになる. $e_{1}$ と $e_{2}$ は等価な制約を表していない. $e_{2}$ における“anything”を“something”に置き換えれば等価な制約を表せるものの, 現状のタブロー規則では not を単純に取り除くことしかできない. このような原因により誤りが生じたタブローは 17 個存在した. $e_{2}$ : (A guy are standing near each other, $\mathrm{T}, 0, o$ ) 図 10 タブロー規則の適用により意味的に不適格な文が生成される例 $e_{1}$ : (The truck is n't doing anything, $\mathrm{T}, 1, o$ ) 図 11 not + any を含むエントリに対するタブロー規則の適用の例 $e_{1}$ : (A little boy is playing hide and seek in the woods, $\mathrm{T}, 1, o$ ) $e_{2}$ : (A little boy is playing hide in the woods, $\mathrm{T}, 0, o$ ) $e_{3}$ : (A little boy is playing seek in the woods, $\mathrm{T}, 0, o$ ) 図 12 非合成的な要素を含むエントリの誤った分解 他の誤りの要因として, 非合成的な要素(イディオム, 固有名詞など)をタブロー規則が分解してしまうことが挙げられる,以下のインスタンスでは,図 12 のように,仮説文に含まれる “hide and seek”というイディオムが分解されたために, 意味的に不適格な文が生成されている. 前提: A small child is sitting on a stump in a forest clearing. 仮説: A little boy is playing hide and seek in the woods. 推論的関係: 矛盾 このようなタブローは 2 個存在した. ## 5.2.4 依存構造解析に起因する誤り 前提文,または仮説文の依存構造解析に誤っているタブローは 53 個存在した。このうち,夕ブロー規則がマッチする部分における解析誤りによって,意味的に不適格な文が生成された夕 ブローは 3 個存在した。例えば,次のインスタンス 前提: A male and a female with a black hat, and sunglasses stop and talk. 仮説: Man and woman stop and chat with each other. 推論的関係: 含意 の前提文は, 正しくは図 13 のような依存構造を持つが,依存構造解析の誤りによって図 14 のように分解されてしまい,意味的に不適格な文 “Sunglasses stop and talk.” が生成されている.残りのタブロー 50 個における依存構造解析誤りの影響はみられなかった. A male and a female with a black hat, and sunglasses stop and talk 図 13 "A male and a female with a black hat, and sunglasses stop and talk." の正しい依存構造 $e_{1}$ : (A male and a female with a black hat, and sunglasses stop and talk, $\mathrm{T}, 1, o$ ) $e_{2}:($ A male stop and talk, $\mathrm{T}, 0, o)$ $e_{3}$ : (A female with a black hat stop and talk, $\mathrm{T}, 0, o$ ) 図 14 依存構造解析の誤りによる意味的に不適格な文の生成 $e_{1}$ : (Two men and one woman are performing music on a stage, T, $1, e_{1}$ ) $e_{2}$ : (Three musicians are performing at a concert, $\mathrm{F}, 0, e_{2}$ ) 図 15 提案手法の限界に起因する誤った含意タブローの例 ## 5.2.5 提案手法の限界に起因する誤り NLI システム, タブロー規則の適用, 依存構造解析のいずれにも誤りがないにもかかわらず,推論的関係の同定を誤ったものは, 提案手法の限界, すなわち完全性が一般には成り立たないことに起因するものと位置づけられる。例として,以下のインスタンス 前提: Two men and one woman are performing music on a stage. 仮説: Three musicians are performing at a concert. 推論的関係: 含意 に対して生成された含意タブローを図 15 に示す.このタブローでは, 正しく依存構造解析が行われており, $e_{1}$ は $e_{3}$ おび $e_{4}$ に分解されているが,夕ブロー規則の適用に誤りはない. また, $\nu\left(\operatorname{sen}\left(e_{3}\right), \operatorname{sen}\left(e_{2}\right)\right)=\mathrm{N}, \quad \nu\left(\operatorname{sen}\left(e_{4}\right), \operatorname{sen}\left(e_{2}\right)\right)=\mathrm{N}$ であり, NLI モデルも正しい. 前提と仮説の間の推論的関係は「含意」であり, このタブローは閉じられる必要があるが, 閉じていない.これは,この提案手法の完全性が一般には成立しないことによるものと位置づけられる。このように,実際のデータセット中でも,完全性が一般に成立しないために推論的関係を正しく同定できなかったインスタンスが存在することがわかった. ## 6 関連研究 提案手法は, 構文構造を用いて推論を行う自然論理 (Natural Logic) (Lakoff 1970)のアイデア に基づく手法と位置付けられる。本章では,自然論理に基づく従来の NLI 手法と提案手法を定性的に比較する。 自然論理に基づく NLI 手法は,遷移に基づく手法と証明に基づく手法に大別できる。 遷移に基づく手法では,前提の自然言語文を仮説の自然言語文へと何らかの操作を用いて変換する. Bar-Haim ら (Bar-Haim et al. 2007) は,依存構造に基づく変換操作を提案している. この変換操作は,含意関係を保存するような操作に限られ,前提から仮説への変換が成功することは,前提と仮説の間に含意関係が成り立つことを意味する.MacCartney ら (MacCartney and Manning 2008)は,NatLog と呼ばれるシステムを提案している。このシステムは単調性に関する推論 (MacCartney and Manning 2009) に基づいている。これらの手法は,自然言語文を直接的に扱うという点で提案手法と同様であるが,NLI モデルと統合できるかどうかは明らかではない。また, 遷移に基づくこれらの手法は, 前提が複数の文からなる問題を本質的に解くことができないが,提案手法は初期タブローのエントリとして前提を加えるだけでこのような問題にも適用可能である. 証明に基づく手法として, Abzianidze (Abzianidze 2017)は, LangPro と呼ばれるタブロー法に基づくシステムを, Huら (Hu et al. 2020)は MonaLog と呼ばれる単調性推論に基づくシステムを開発している。これらのシステムでは,自然言語文に似た意味表現を採用しているが,あくまでも似た意味表現であって自然言語文ではない.このため,提案手法のようにニューラル NLI モデルと証明システムを組み合わせることはできない. ## 7 おわりに 本論文では,夕ブロー法とニューラルモデルを用いて NLIを行う手法を提案した.提案手法をモデル理論的に定式化し, 一般に,健全性は成り立つが完全性は成り立たないことを示した. また,SNLIコーパスを用いた実験により,提案手法の振る舞いを分析した.今後の発展として,タブロー規則の充実や多言語への対応などが考えられる,今回の実験では,命題論理に対するタブロー規則を作成し利用したが,より広範に提案手法を適用できるようにするために,量化, 時相, 様相, 命題的態度などの現象を扱うことが可能なタブロー規則を整備する必要がある。高階論理に対するタブロー法のための規則の拡充法が Abzianidze (Abzianidze 2015)により提案されており,それを本手法に応用することが一つのアプローチとして考えられる。また,今回の実験では,データセットの前提と仮説をそのまま用いてニューラルモデルを学習したが,タブロー法に従って前提と仮説をより小さい文に分解した上で,それに基づきモデルを構築する手法の検討も今後の課題である. ## 謝 辞 本研究は, 一部, 科学研究費補助金基盤研究 (C) (No. 22K12148) により実施したものである. ## 参考文献 Abzianidze, L. (2015). "A Tableau Prover for Natural Logic and Language." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 2492-2502, Lisbon, Portugal. Association for Computational Linguistics. Abzianidze, L. (2017). "LangPro: Natural Language Theorem Prover." In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 115-120, Copenhagen, Denmark. Association for Computational Linguistics. Bar-Haim, R., Dagan, I., Greental, I., and Shnarch, E. (2007). "Semantic Inference at the LexicalSyntactic Level." In Proceedings of the 22nd AAAI Conference on Artificial Intelligence, pp. 871-876. Barredo Arrieta, A., Díaz-Rodríguez, N., Del Ser, J., Bennetot, A., Tabik, S., Barbado, A., Garcia, S., Gil-Lopez, S., Molina, D., Benjamins, R., Chatila, R., and Herrera, F. (2020). "Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges Toward Responsible AI." Information Fusion, 58, pp. 82-115. Bowman, S. R., Angeli, G., Potts, C., and Manning, C. D. (2015). "A Large Annotated Corpus for Learning Natural Language Inference." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 632-642, Lisbon, Portugal. Association for Computational Linguistics. Chen, Q., Zhu, X., Ling, Z.-H., Wei, S., Jiang, H., and Inkpen, D. (2017). "Enhanced LSTM for Natural Language Inference." In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1657-1668, Vancouver, Canada. Association for Computational Linguistics. Cooper, R., Crouch, D., Eijck, J. V., Fox, C., Genabith, J. V., Jaspars, J., Kamp, H., Milward, D., Pinkal, M., Poesio, M., Pulman, S., Briscoe, T., Maier, H., and Konrad, K. (1996). "Using the Framework." Tech. rep., FraCaS: A Framework for Computational Semantics. FraCaS deliverable D16. Dagan, I., Roth, D., Sammons, M., and Zanzotto, F. M. (2013). Recognizing Textual Entailment: Models and Applications. Synthesis Lectures on Human Language Technologies. Morgan \& Claypool Publishers. Danilevsky, M., Qian, K., Aharonov, R., Katsis, Y., Kawas, B., and Sen, P. (2020). "A Survey of the State of Explainable AI for Natural Language Processing." In Proceedings of the 1 st Conference of the Asia-Pacific Chapter of the Association for Computational Linguistics and the 10th International Joint Conference on Natural Language Processing, pp. 447-459, Suzhou, China. Association for Computational Linguistics. de Marneffe, M.-C., Manning, C. D., Nivre, J., and Zeman, D. (2021). "Universal Dependencies." Computational Linguistics, 47 (2), pp. 255-308. Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota. Association for Computational Linguistics. Gururangan, S., Swayamdipta, S., Levy, O., Schwartz, R., Bowman, S., and Smith, N. A. (2018). "Annotation Artifacts in Natural Language Inference Data." In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), pp. 107-112, New Orleans, Louisiana. Association for Computational Linguistics. Hochreiter, S. and Schmidhuber, J. (1997). "Long Short-Term Memory." Neural Computation, 9 (8), pp. 1735-1780. Hu, H., Chen, Q., Richardson, K., Mukherjee, A., Moss, L. S., and Kuebler, S. (2020). "MonaLog: a Lightweight System for Natural Language Inference Based on Monotonicity." In Proceedings of the Society for Computation in Linguistics 2020, pp. 334-344, New York, New York. Association for Computational Linguistics. Kondratyuk, D. and Straka, M. (2019). "75 Languages, 1 Model: Parsing Universal Dependencies Universally." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 2779-2795, Hong Kong, China. Association for Computational Linguistics. Kumar, S. and Talukdar, P. (2020). "NILE : Natural Language Inference with Faithful Natural Language Explanations." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8730-8742, Online. Association for Computational Linguistics. Lakoff, G. (1970). "Linguistics and Natural Logic." Synthese, 22 (1), pp. 151-271. Lan, Z., Chen, M., Goodman, S., Gimpel, K., Sharma, P., and Soricut, R. (2019). "ALBERT: A Lite BERT for Self-supervised Learning of Language Representations." CoRR, abs/1909.11942. MacCartney, B. and Manning, C. D. (2007). "Natural Logic for Textual Inference." In Proceedings of the ACL-PASCAL Workshop on Textual Entailment and Paraphrasing, pp. 193-200, Prague. Association for Computational Linguistics. MacCartney, B. and Manning, C. D. (2008). "Modeling Semantic Containment and Exclusion in Natural Language Inference." In Proceedings of the 22nd International Conference on Computational Linguistics, pp. 521-528, Manchester, UK. Coling 2008 Organizing Committee. MacCartney, B. and Manning, C. D. (2009). "An Extended Model of Natural Logic." In Proceedings of the 9th International Conference on Computational Semantics, pp. 140-156, Tilburg, The Netherlands. Association for Computational Linguistics. 馬目華奈, 谷中瞳, 吉川将司, 峯島宏次, 戸次大介 (2018). RNN 系列変換モデルを用いた高階論理式からの文生成. 言語処理学会第 24 回年次大会発表論文集, pp. 380-383. [K. Manome et al. (2018). RNN Henkan Keiretsu Moderu wo Mochiita Kokaironrishiki karano Bunseisei. The 24th Annual Meeting of the Association for Natural Language Processing, pp. 380-383.]. Marelli, M., Menini, S., Baroni, M., Bentivogli, L., Bernardi, R., and Zamparelli, R. (2014). "A SICK Cure for the Evaluation of Compositional Distributional Semantic Models." In Proceedings of the 9th International Conference on Language Resources and Evaluation, pp. 216-223, Reykjavik, Iceland. European Language Resources Association. Mineshima, K., Martínez-Gómez, P., Miyao, Y., and Bekki, D. (2015). "Higher-order Logical Inference with Compositional Semantics." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 2055-2061, Lisbon, Portugal. Association for Computational Linguistics. Nie, Y., Williams, A., Dinan, E., Bansal, M., Weston, J., and Kiela, D. (2020). "Adversarial NLI: A New Benchmark for Natural Language Understanding." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4885-4901, Online. Association for Computational Linguistics. Parikh, A., Täckström, O., Das, D., and Uszkoreit, J. (2016). "A Decomposable Attention Model for Natural Language Inference." In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2249-2255, Austin, Texas. Association for Computational Linguistics. Saji, A., Takao, D., Kato, Y., and Matsubara, S. (2021). "Natural Language Inference using Neural Network and Tableau Method." In Proceedings of the 35th Pacific Asia Conference on Language, Information and Computation, pp. 406-414, Shanghai, China. Association for Computational Lingustics. Tai, W., Kung, H. T., Dong, X., Comiter, M., and Kuo, C.-F. (2020). "exBERT: Extending Pretrained Models with Domain-specific Vocabulary Under Constrained Training Resources." In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 1433-1439, Online. Association for Computational Linguistics. Tsuchiya, M. (2018). "Performance Impact Caused by Hidden Bias of Training Data for Recognizing Textual Entailment." In Proceedings of the 11th International Conference on Language Resources and Evaluation, Miyazaki, Japan. European Language Resources Association. Wang, A., Singh, A., Michael, J., Hill, F., Levy, O., and Bowman, S. (2018). "GLUE: A MultiTask Benchmark and Analysis Platform for Natural Language Understanding." In Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 353-355, Brussels, Belgium. Association for Computational Linguistics. Wang, S., Fang, H., Khabsa, M., Mao, H., and Ma, H. (2021). "Entailment as Few-Shot Learner." ArXiv, abs/2104.14690. Williams, A., Nangia, N., and Bowman, S. (2018). "A Broad-Coverage Challenge Corpus for Sentence Understanding through Inference." In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 1112-1122, New Orleans, Louisiana. Association for Computational Linguistics. Yanaka, H., Mineshima, K., Bekki, D., and Inui, K. (2020). "Do Neural Models Learn Systematicity of Monotonicity Inference in Natural Language?" In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 6105-6117, Online. Association for Computational Linguistics. ## 付録 ## A 付録 A 図 16 に,実験の際に関数として作成したタブロー規則の一覧を示す.ここで $C, C_{i}, C_{i}^{\prime}$ は任意の依存構造である。また, $X$ は依存関係であり, $X \in\{$ nsubj, csubj, obj, iobj, ccomp, xcomp $\}$ である。 図 16 作成したタブロー規則の一覧 ## 略歴 佐治礼仁:2021 年名古屋大学情報学部卒. 2023 年, 同大学院情報学研究科博士前期課程修了. 現在, ヤフー株式会社に在籍中. 高尾大樹:2017 年名古屋大学工学部卒. 2019 年同大学大学院情報学研究科博士前期課程修了. 現在, 同博士後期課程在学中. 加藤芳秀 : 2003 年名古屋大学大学院工学研究科情報工学専攻博士課程後期課 程修了. 博士 (工学). 同大助手, 助教等を経て, 准教授. 言語処理学会, 情報処理学会, 人工知能学会, 電子情報通信学会, ACL 各会員. 松原茂樹:1998 年名古屋大学大学院工学研究科情報工学専攻博士課程修了.博士 (工学). 同大助手, 助教授, 准教授を経て, 2017 年名古屋大学教授. (2022 年 9 月 1 日受付) (2023 年 1 月 26 日再受付) (2023 年 3 月 3 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# JGLUE: 日本語言語理解ベンチマーク 栗原健太郎 $\dagger \cdot$ 河原 大輔 $\dagger \cdot$ 柴田 知秀 $\dagger \dagger$ } 高性能な言語理解モデルを開発するためには, 言語理解の能力を様々な観点から評価 し分析するためのベンチマークが必要である。英語においては, GLUE (Wang et al. 2018) が先駆けとして構築されており, 中国語版の CLUE (Xu et al. 2020) やフラン ス語版の FLUE (Le et al. 2020) など, 各言語におけるベンチマーク構築も進んでい るが,日本語においては GLUEのようなベンチマークは存在せず,日本語自然言語処理において大きな問題となっている。本研究では, 一般的な日本語言語理解能力 を測ることを目的として,翻訳を介することなく,日本語で一から言語理解ベンチ マーク JGLUE を構築する. JGLUE は文章分類, 文ペア分類, QA の 3 種類の夕ス クから構成される。本ベンチマークによって日本語における言語理解研究が活性化 することを期待する。 キーワード:GLUE,日本語,言語理解ベンチマーク,文章分類,文ペア分類,QA ## JGLUE: Japanese General Language Understanding Evaluation \author{ Kentaro Kurihara $^{\dagger}$, Daisuke Kawahara $^{\dagger}$ and Tomohide Shibata ${ }^{\dagger \dagger}$ } To develop high-performance natural language understanding (NLU) models, it is necessary to have a benchmark to evaluate and analyze NLU ability from various perspectives. The English NLU benchmark, GLUE (Wang et al. 2018), has been the forerunner, and benchmarks for languages other than English have been constructed, such as CLUE (Xu et al. 2020) for Chinese and FLUE (Le et al. 2020) for French. However, there is no such benchmark for Japanese, and this is a serious problem in Japanese NLP. We build a Japanese NLU benchmark, JGLUE, from scratch without translation to measure the general NLU ability in Japanese. JGLUE consists of three kinds of tasks: text classification, sentence pair classification, and QA. We hope that JGLUE will facilitate NLU research in Japanese. Key Words: GLUE, Japanese, NLU Benchmark, Text Classification, Sentence Pair Classification, $Q A$  ## 1 はじめに 高性能な言語理解モデルを開発するためには,言語理解の能力を様々な観点から評価し分析するためのベンチマーク(データセット群)が必要である.英語においては, GLUE (General Language Understanding Evaluation) (Wang et al. 2018) が構築, 公開されている. GLUEである程度の高スコアを達成できる言語理解モデルが開発されると, より難易度の高いべンチマー クとして SuperGLUE (Wang et al. 2019) などが構築され, ベンチマーク構築と言語理解モデル開発の好循環が生まれている。このような英語における言語理解研究活性化の潮流に乗じて,中国語版の CLUE (Xu et al. 2020), フランス語版の FLUE (Le et al. 2020), 韓国語版の KLUE (Park et al. 2021) など,各言語におけるベンチマーク構築が進んでいる. しかし, 日本語には GLUEのようなベンチマークが存在せず,日本語自然言語処理にとって大きな問題となっている。日本語は英語や他の言語とは以下の点で異なることから, 英語デー タセットにおける研究の知見は必ずしも日本語に適用できるとは限らない. $\cdot$ひらがな, カタカナ, 漢字, アルファベットが使われる. - 単語間に空白区切りが無い. - 語順が比較的自由である. 以上の背景より, 日本語の言語理解ベンチマークの構築は急務となっている. JSNLI (Yoshikoshi et al. 2020) や JSICK (谷中, 峯島 2021) など, 個々の日本語データセットは構築されているが, それらの主な構築手法は英語のデータセットからの機械翻訳あるいは人手翻訳である。いずれの翻訳手法でも,翻訳文の不自然さや,翻訳元の言語(多くの場合英語)と翻訳後の言語(本研究では日本語)との間での文化・社会差が大きな問題となることが Clark et al. (2020) や Park et al. (2021) らに指摘されている. また, 特定ドメインの日本語のデータセットとして, ホテルレビューを対象とした JRTEコーパス (Hayashibe 2020) や,運転行動を対象とした運転ドメイン QA (Takahashi et al. 2019) が構築されているが,いずれも一般的なドメインの言語理解能力を測るのには向かない. 本研究では, 一般的な日本語言語理解能力を測ることを目的として, 翻訳を介することなく, 日本語で一から言語理解ベンチマーク JGLUE を構築する. JGLUE は, 表 1 に示すように文章分類,文ぺア分類,QAの3 種類のタスクから構成し,GLUE および SuperGLUEの夕スクを幅広くカバーするように設計した。また, 構築したJGLUE を用いて種々の事前学習モデルを評価し, 現状のモデルやデータセットの分析を行った. JGLUE は 2022 年 6 月より https://github.com/yahoojapan/JGLUE にて公開している。本ベンチマークによって日本語における言語理解研究が活性化することを期待する. 表 1 JGLUE の構成 ## 2 関連研究 言語理解モデルを評価するためのベンチマークの先駆けは GLUEである.GLUE は,英語を対象として,文章分類および文ぺア関係分類の 2 種のタスク,合計 9 つのデータセットで構成されている.GLUE より難易度の高いベンチマークとして SuperGLUE が構築されている。 SuperGLUE は,GLUE において最も難易度が高い含意関係認識データセットを残した上で,QA や常識推論など難易度の高いデータセットを加えた合計 8 つのデータセットとして構築されている.このような英語におけるベンチマーク構築が言語理解モデル開発を活性化し, BERT (Devlin et al. 2019) やその拡張モデルが多く生み出された. この動きに伴い, 中国語, フランス語, 韓国語,インドの言語群,アラビア語,カタルーニヤ語などの各言語で, CLUE, FLUE, KLUE, IndicGLUE (Kakwani et al. 2020), ARLUE (Abdul-Mageed et al. 2021), ALUE (Seelawi et al. 2021), CLUB (Rodriguez-Penagos et al. 2021) などの言語理解ベンチマークを構築する研究が活発になっている。また, XGLUE (Liang et al. 2020), XTREME (Hu et al. 2020), XTREME-R (Ruder et al. 2021) などの多言語のベンチマークも構築されている. 日本語も多言語ベンチマー クに含まれているがデータ数は少量である. ## 3 JGLUE の構築 JGLUE は,表 1 のとおり,文章分類,文ぺア分類,QAのタスクから構成する,以下では,各タスクのデータセットの構築方法について説明する。ただし,文章分類タスクの一つである JCoLA(日本語容認性判断データセット)(染谷,大関 2022) は他研究組織から提供を受ける予定であり, 本稿では説明しない. 各データセットは英語からの翻訳ではなく日本語のテキストを用いて構築し,正解の付与や自由記述文の作成はクラウドソーシング1を用いて行う. ^{1}$ Yahoo!クラウドソーシング https://crowdsourcing.yahoo.co.jp/を用いた. } ## 3.1 MARC-ja 文章分類タスクの一つとして,多言語商品レビューコーパス MARC (Multilingual Amazon Reviews Corpus) (Keung et al. 2020)の日本語部分を基にデータセットを構築する.MARCは,通販サイト「アマゾン」における商品レビューとそれに紐づく $1-5$ の 5 段階のレーティングをまとめているコーパスであり, 英語や日本語などの複数言語で公開されている. JGLUEでは, MARC の日本語部分を使用し,また,計算機,人間ともにできる限り摇らぎなく判定できるように,5段階のレーティングのうち 3 を除く 4 つの評価について, 1, 2 を “negative”, 4,5 を “positive"に変換した 2 値分類タスクとする.例えば,表 2 の上 4 件の例について, 5 段階のレー ティングで 4,5 の評価がついている文章や, 1,2 の評価がついている文章のレーティングの判定は, 人間にとっても困難であるが, positive, negative の 2 值分類タスクとすることで判定が容易となる。 MARC における問題点として, positive な内容のレビューに対し 1 やの評価がついている場合など,内容と評価が乘離したデータが含まれている場合があることが挙げられる。これらのデータには,レビューの内容と明らかに異なったラベルが割り振られるため, データセットの品質を低下させる. 評価に用いる dev/test セットに対しては, これらのデータを修正し高品質なものにするために, 約 12,000 件のレビューに対して positive/negative 判定タスクをクラウドソーシングで実施する. 10 人から回答を収集し, 7 人以上から同じ回答を得られたデー夕のみを採用し,票の多い回答を正解ラベルとする.収集したデータを分割することで dev/test セットとする. 以上の手続きにより,5,654 件の dev セット,5,639 件の test セットを獲得した. train セットは大規模であるため上記の手続きを実施せず,187,528件のデータを抽出した.MARC-jaのラベル分布を表 3 に示す. & 2 & positive \\ 表 2 MARC-jaの例(上 4 件はクラウドソーシングの前後でラベルが変わらなかった例,下 2 件はクラウドソーシングによってラベルが変わった例) 表 3 MARC-ja のラベル分布 MARC-ja で用いる評価指標には, 文章の 2 値分類タスクであることから, 精度 (accuracy)を用いる. ## 3.2 JSTS $\cdot$ JNLI 文ペア分類タスクについては,意味的類似度計算 (Semantic Textual Similarity, STS) データセット JSTS および自然言語推論 (Natural Language Inference, NLI) データセット JNLI を構築する. ## 3.2.1 概要 STS は,文ぺアの意味的な類似度を推定するタスクである。正解の類似度は,クラウドソー シングによって複数人で付与した整数値 0 (意味が完全に異なる)から 5 (意味が等価)の平均値とされるのが一般的である。 NLI は,前提文と仮説文の文ぺアが与えられたときに,前提文が仮説文に対してもつ推論関係を認識するタスクである。推論関係としては「含意 (entailment)」「矛盾 (contradiction)」「中立 (neutral)」の 3 値で定義されるのが一般的である. 正解の推論関係は,クラウドソーシングによって複数人から回答を収集し,多数決によって付与することが多い. STS, NLI タスクは GLUE において,それぞれSTS-B (Cer et al. 2017), MultiNLI (Williams et al. 2018) データセットが含まれている。日本語では,英語 NLI データセット SNLI (Stanford NLI) (Bowman et al. 2015) を機械翻訳した JSNLI (Yoshikoshi et al. 2020), 英語 STS/NLI デー タセット SICK (Marelli et al. 2014)を人手翻訳した JSICK (谷中, 峯島 2021) がある。しかし, 1 節で述べたように,これらには翻訳に由来する問題があるため, 本研究では日本語で一から構築する。 JSTS と JNLI の文ぺアは,基本的に,MS COCO Caption Dataset (Chen et al. 2015)の日本語版 YJ Captions Dataset (Miyazaki and Shimizu 2016)2 (以下, YJ Captions と呼ぶ)から抽出する. SICK や JSICK と同様に, JSTS と JNLI を構成する文ぺアの大部分は重複しており,同じ文ぺアに対する類似度と推論関係との間の関係を分析することができる.JSTSにおける類 ^{2}$ YJ Captions は MS COCO (Chen et al. 2015) の各画像に対して, クラウドソーシングを用いて日本語のキャプションを 5 つ付与することで構築されている. } 似度は,STS-B と同様に 0〜5の実数值とし,JNLIにおける推論関係は,SNLI や MultiNLI などと同様に上記の 3 値とする。各推論関係の定義は SNLIに基づく. ## 3.2.2 構築方法 JSTS と JNLI の構築フローを図 1 に示す. 基本的には,YJ Captions の同じ画像に対する 2 つのキャプションを文ぺアとし,クラウドソーシングによって類似度および推論関係を付与する. ここで二つの問題が生じる。一つ目は, JSTSにおいて, 同じ画像に対するキャプションからは類似度の低い文ぺアを収集しにくいという問題である。そこで,異なる画像に対するキャプションから類似度の低い文ぺアを収集する。二つ目は,JNLIにおいても同様に,同じ画像に対するキャプションからは contradiction 関係にある文ぺアを収集しにくいという問題である. そこで,クラウドソーシングによって付与する推論関係は entailment と neutral のみとし, contradiction 関係については,あるキャプションに対して矛盾する文をワーカーに作文してもらうことによって収集する. JSTS と JNLI の詳細な構築手順を以下に示す. Step 1 YJ Captionsの同じ画像に対する 2 つのキャプションを文ぺアとしたSTS タスクをクラウドソーシングで実施する. 5 人から回答を収集し,その平均値を正解類似度とする。 ただし,回答の分散が大きい文ぺアについては,類似度の判断が難しい,もしくは回答の品質が悪い文ぺアと判断し削除する。16,000 件の文ぺアを対象に上記タスクを実施し,類似度の分散が 1.0 以上の文ぺアを削除した結果,10,236 件の文ぺアに対する類似度を 図 $1 \mathrm{JSTS}$ $\cdot$JNLI の構築フロー (画像の出典: いらすとや , ONWA イラスト ) 収集した。この収集データを JSTS-A と呼ぶ. Step 2 類似度の低い文ぺアを収集するために,異なる画像に対するキャプションを文ぺアとしたSTS タスクをクラウドソーシングで実施する. 本タスクも Step 1 と同様の方法で類似度を獲得し,回答の分散によるフィルタリングを実施する44,000 件の文ぺアを対象に上記タスクを実施し,2,970 件の文ぺアに対する類似度を収集した。この収集データを JSTS-B と呼ぶ. Step 3 JSTS-A に対して, NLI タスクをクラウドソーシングで実施する. 推論関係には方向性があるため, 文ぺアについて双方向で推論関係を得る。前述のとおり, 同じ画像のキャプションから収集した JSTS-A からは contradiction の事例を収集しづらいため,このステップでは entailment と neutral の事例を収集する。10 人から推論関係の回答を収集し, 6 人以上が同一の回答をした場合に, それが entailment か neutral であれば正解ラベルとして採用する。同一の回答が 6 人以上から得られなかった文ぺアは採用しない. JSTS-A に対して双方向で推論関係を得るため, JSTS-Aの 2 倍の 20,472 件の文ぺアを対象に上記タスクを実施し,回答の一致度が高い 17,501 件の文ぺアに対する推論関係を収集した。 この収集データを JNLI-A と呼ぶ。なお,JSTS-Bについては,文ぺア間に関連性がなく, 3 つの推論関係から選択することが難しいことから,NLI タスクには使用しない3 3. Step 4 contradictionのNLI 事例を収集するため, YJ Captionsのキャプションに対して,矛盾する文を 4 つずつ作成するタスクをクラウドソーシングで実施する.作成された文のうち,短い文や,提示文と関連性の低い文といった品質の低い文を除去するために,編集距離が 0.75 以上の文ぺアを除去する。 さらに,作成した文ぺアが本当に矛盾関係にあるかを確認するために,10人で片方向の NLI タスクを実施し,6 人以上が contradiction と回答した文ぺアのみを採用する。最後に,矛盾関係には方向性がないため,採用された文ぺアにおける反対方向の推論関係として contradictionを自動付与する,1,800 件のキャプションを用いて 7,200 件の文ぺアを獲得し,そこから,片方向の contradiction 関係を付与した文ぺアを 3,779 件収集した。 反対方向の contradiction 関係を自動付与することで, 2 倍の 7,558 件の事例を収集した。この収集データを JNLI-C と呼ぶ. Step 5 Step 4 で収集した 3,779 件の文ぺアについて,クラウドソーシングによるSTSタスクを実施する. Step 1, 2 と同様の方法で類似度付与とフィルタリングを実施する.以上により,3,779 件の文ぺアから 2,303 件の文ぺアに対する類似度を収集した.この収集デー 夕を JSTS-C と呼ぶ. 以上の手続きによって獲得した JSTS-A, B, Cの 3つでJSTS,また JNLI-A, Cの 2 つで JNLI  表 $4 \mathrm{JSTS} \cdot \mathrm{JNLI}$ の例 表 6 JNLI のラベル分布 表 5 JSTS のラベル分布 表 7 JSTS における類似度の分散の平均値と分散の標準偏差 を構築した。最後に,重複する文ぺア事例を JSTS から 12 件, JNLI から 44 件除去した. JSTS と JNLI の例を表 4 に示す. JSTS と JNLI のラベル分布をそれぞれ表 5,6 に示す. JSTS の質を評価するために,それぞれの文ぺアに対してクラウドワーカー 5 人が回答した類似度の分散を計算し,分散の平均値と標準偏差を算出した。それぞれの値は表 7 に示す通り,小さい値となっており,アノテーションの品質を保証する結果となっている. JNLIのアノテー ションの一致度を評価するために,全ての文ぺアにおける 10 人のクラウドワーカーの回答の Fleiss' Kappa 係数を計算した. 係数の値は 0.399 であり, ある程度の一致を示す数値となった. この結果は,それぞれの回答の信頼度が高くないことを示しているものの,多数決によって収集したラベルは人間のスコアの高さ(4.2 節)から信頼度が高いと言える。 JSTS の評価指標には,STS-B と同様に Pearson および Spearman 相関係数を用いる. JNLI の評価指標には,SNLI,MultiNLI などと同様に精度を用いる。 ## 3.3 JSQuAD QA データセットとして, 機械読解データセットである日本語版 SQuAD (JSQuAD) と, 常識推論データセットである日本語版 CommonsenseQA(JCommonsenseQA,3.4 節で説明)を構築する。機械読解タスクは文書を読み,それに関する質問に対して答えるというタスクである. 多くの機械読解評価セットは英語で構築されているが, その他の言語での機械読解評価セット, もしくは多言語の評価セットが構築され始めている. 日本語ではクイズを対象にした機械読解評価セット (鈴木他 2018 ) や運転ドメインの評価セット (Takahashi et al. 2019) が構築されているが, 一般ドメインのものはない. そこで, Wikipedia を用いて一般ドメインの評価セットを構築する。構築は基本的に SQuAD 1.1 (Rajpurkar et al. 2016)にならう. まず,高品質な記事を対象とするために,Nayuki4を使ってスコアトップ 10,000 記事を選出し,そこからランダムに 822 記事を選んた。これらの記事には例えば「熊本県」「フランス料理」 が含まれている,次に,記事を段落に分割し,クラウドワーカーに各段落を提示し,段落を理解できれば答えられるような質問とその正解を書いてもらう。書いてもらった正解が段落中にない場合は,その問題は採用しない,最後に,パターンマッチングと人手での確認により,質問文が段落のタイトルや本文に包含される事例など 1,094 件の問題を除去した. JSQuAD の例を図 2 に示す. dev/test セットについてはシステム評価を頑健にするために,質問と正解を書いてもらったワーカーとは別のワーカーに追加で 2 つの正解を書いてもらう. この際,「回答不可」の選択肢を用意し,ワーカーの回答が段落中に存在しない文字列あるいは 「回答不可」であった場合には,その回答を採用しない.2つの回答が共に採用されない場合は,問題ごと除去する. 評価指標は $\mathrm{SQuAD}$ にならい, Exact match (EM) と F1 を用いる. 最大 3 つの正解が存在するので,システムの出力と各正解を比較して最大のスコアを取る $\mathrm{EM}$ ならびに F1を採用する.英語では F1 は単語単位で計算されているが, 日本語で形態素単位で計算すると採用する形態素解析器によって値が異なってしまうので文字単位で計算する.  / \mathrm{h}$ で運行されている 質問: 2020 年、東京〜新大阪間の最速の所要時間は 正解: 2 時間 21 分 質問: 東海道新幹線と相互乗り入れがされている路線はどこか? 正解: 山陽新幹線 } 1987 年(昭和 62 年)4月 1 日の国鉄分割民営化により、JR 東海が運営を継承した。西日本旅客鉄道(JR 西日本)が継承した山陽新幹線とは相互乗り入れが行われており、東海道新幹線区間のみで運転される列車にも JR 西日本所有の車両が使用されることがある。2020 年(令和 2 年) 3 月現在、東京駅 - 新大阪 図 $2 \mathrm{JSQuAD}$ の例 ^{4}$ Nayuki は Wikipedia 内のハイパーリンクに基づき,記事の品質を推定するシステムで,SQuAD でも利用されている. https://www.nayuki.io/ } 質問: 会社の最高責任者を何というか?選択肢: 教師, 部長, 社長, 部下, バイト 質問: スープを飲む時に使う道具は何? 選択肢: スプーン, メニュー, 皿, フォーク, はし 図 3 JCommonsenseQA の例(太字は正解を表す) 質問: 電車に人が乗り降りする場所を何という?選択肢: 駅, 鉄道会社, 線路, 空港, 港 図 4 JCommonsenseQA の構築フロー ## 3.4 JCommonsenseQA ## 3.4.1 概要 JCommonsenseQA は, CommonsenseQA (Talmor et al. 2019)の日本語版データセットであり,常識推論能力を評価するための 5 択の QA で構成する. JCommonsenseQA の例を図 3 に示す. JCommonsenseQA は, CommonsenseQA と同様に, 知識ベース ConceptNet (Speer et al. 2017) をシードとし,クラウドソーシングを用いて構築する. ConceptNet は, 2 つの概念 (concept) と,その間の関係 (relation)を表す 3 つ組からなる多言語知識ベースである。 3 つ組は方向性を持ち, 例えば(新幹線, AtLocation, 駅)のように, (source concept, relation, target concept)として表される. ## 3.4.2 構築方法 JCommonsenseQA の構築フローを図 4 に示す.まず, source concept と, それに対して同じ relation を持つ target concept 3 つからなる集合を ConceptNet から収集する。以降,この集合を Question Set (QS) と呼ぶ.次に,各 QS に対して,1つの target concept のみが正解となる質問文の作成と, 2 つの誤答選択肢の追加をクラウドソーシングで行う。以下では, CommonsenseQA との違いを示しつつ, JCommonsenseQAの詳細な構築手順を説明する。 (1) ConceptNetから日本語 QS を収集する。CommonsneseQA においては, (source concept, relation, target concept) という順方向の関係のみの QS を採用しており, relation は “RelatedTo", "IsA"など一般的すぎるものを除いたものを用いている. JCommonsneseQA でも,一般的すぎる relation を除外した 22 種類の relation 集合 5 を用いるが,問題の選  択肢をより多様化させるために関係の方向は両方向とする. すなわち, (source concept, relation $^{-1}$, target concept) という逆方向の関係も用いる ${ }^{6}$. 以上の設定で, source/target concept が日本語である 43,566 件の QS を抽出し,そこから 7,500 件をランダムに選択した. (2) CommonsenseQA には, 正解となり得る選択肢が複数含まれている低品質な問題が少数含まれている. JCommonsenseQA においては, 正解の一意性を担保するために,CommonsenseQA 構築では実施していない 2 つの処理を行う。まず,各 QSについて,3つの target concept 内に表記摇れと判断されるものがあれば,その QS を除去する。表記摇れの判断は, 形態素解析辞書 JumanDic $の$ 単語 ID (代表表記)が一致するかどうかで行う. さらに, target concept 内に同義語が含まれているかを判定するタスクをクラウドソーシングで実施し, 3 つの target concept 中に同義語が含まれる QS を除去する.以上より, 7,500 件の QS から 5,920 件の QS を採用した. (3)各 QSにおいて,3つの target conceptのうちの 1 つの concept だけが正解となる質問文をクラウドソーシングで作成する。 さらに JCommonsenseQA では, 正解の文字数やキー ワードの指定などでヒントを与えられた難易度の低い質問, および不適切な形式の質問文を除去するために,以下のいずれかに該当する質問文を持つ問題を除去する. (a) 質問文に選択肢の言葉が含まれる (b)質問文に「○文字」という文字列が含まれる8(○は数字) (c) 質問文の文末が「?」ではない 以上により, $5,920 \times 3=17,760$ 件の問題を作成し,そこから不適切な問題を除去することで 15,310 件の問題を採用した. (4) CommonsenseQA では,2つの誤答選択肢の追加にあたって,1つを ConceptNet から選択し,もう1つをクラウドソーシングで作成している。 JCommonsenseQAでは,より多様な誤答選択肢とするため, ConceptNet からの選択は行わず, クラウドソーシングで 2 つの誤答選択肢を作成し追加する。また,問題の品質向上のために,以下のいずれかに該当する選択肢が追加された問題を除去する. (a) 質問文に含まれる言葉と同じ選択肢 (b)既存の選択肢と重複する選択肢 以上により,15,310 件の問題に誤答選択肢を追加し,そのうち 13,906 件を採用した. (5) 各問題を 3 人のクラウドワーカーに回答してもらい,2 人以上が正解した問題のみを採 ^{-1}$, 新幹線)のような 3 つ組から, source concept「駅」に対して target concept「新幹線」「時刻表」「改札」を得る。 7 https://github.com/ku-nlp/JumanDIC 8 「値段が高いことを漢字 2 文字でなんという?」のような問題を除くために設定する. } 用する. これにより,13,906 件の問題のうち 11,263 件を採用した。 最後に, パターンマッチングと人手での確認により, ひらがなやアルファベット 1 文字の選択肢が含まれる事例など 87 件の問題を除去した. JCommonsenseQAの評価指標には, CommonsenseQA と同様に精度を用いる。 ## 4 JGLUEによるベースラインモデルの評価 構築した JGLUE を用いて様々な事前学習モデルの性能評価を行った。また,人間のスコアを計算し,モデルと比較した。そして,各データセットの分析を行った。 ## 4.1 実験設定 事前学習モデルをファインチューニングすることで各データセットに対するモデルの学習を行った.実験に用いた事前学習モデルを表 8 に示す. 各事前学習モデルのファインチューニングはタスク/データセットに応じて以下のように行った 9. - 文章分類タスクと文ぺア分類タスク:[CLS]トークンに対する分類問題もしくは回帰問題を解く. - JSQuAD: 各トークンに対して正解のスパンの開始/終了となるかどうかの分類問題を & & 日本語 Wikipedia \\ 表 8 実験に用いた事前学習モデルの詳細. モデル名の丸括弧内は Hugging Face Hub での名称を示す.東北大 BERT BASE , XLM-RoBERTabaSE, 早稲田大 RoBERTabaSE については LARGE サイズも使用する。早稲田大 RoBERTabaSE $の$ max seq length は 128 , 早稲田大 RoBERTaLARGE $の$ max seq length は 128 と 512 の 2 種類あり,その他のモデルの max seq lengthは 512 である. 事前学習テキストの CCは Common Crawl を表す.  解く ${ }^{10}$. - JCommonsenseQA: 質問と各選択肢を連結し,多肢選択式問題を解く. 実験に用いたハイパーパラメータを表 9 に示す. learning rate と epoch については $\operatorname{dev} セッ$ トを用いて最適なハイパーパラメータを探索し, それを用いて test セットで性能を評価した。 モデルの性能を人間のスコアと比較するために,人間のスコアの獲得をデータセットごとに以下の手順で行った. - MARC-ja: positive/negative 判定タスクをクラウドソーシングで実施し, 10 人から回答を収集して多数決をとる。同票についてはランダムに positive/negative のいずれかを人間のスコア獲得時の回答とする。構築済みのラベルと一致する回答の割合を人間のスコアとする。 - JSTS: STS タスクをクラウドソーシングで実施し,5 人から回答を収集したのち,その平均値を人間のスコア獲得時の類似度とする。構築済みラベルの値と人間のスコア獲得時の類似度の Spearman 相関係数を人間のスコアとする。 - JNLI: NLI タスクをクラウドソーシングで実施し, 10 人から回答を収集して多数決をとる. 同票で 1 位の 2 つラベルについては,ランダムにいずれかを選択して人間のスコア獲得時の回答とする。構築済みのラベルと一致する回答の割合を人間のスコアとする. - JSQuAD: 構築済みの各問題に対する 2 つもしくは 3 つの正解のうち, 1 つ目の正解を人間のスコア獲得時の人間の回答とみなす。残りの正解と人間の回答との間の $\mathrm{EM}$ と 1 スコアをそれぞれ計算し,最も大きいスコアを人間のスコアとする11. - JCommonsenseQA: 各問題の回答をクラウドソーシングにより 5 人から収集し, 多数決をとる。同票で 1 位の 2 つの選択肢については, ランダムに選んだ 1 つの選択肢を人間の回答とする。構築済みのラベルと一致する回答の割合を人間のスコアとする。 表 9 実験に用いたハイパーパラメータ _{\text {BASE }}$ と XLM-RoBERTa LARGE は, トークンの分割位置が解答の開始/終了位置と一致しない事例が頻出することで性能が低くなってしまうため,実験に使用しない. 11 システムの場合は最大 3 つの正解と比較してスコアを算出しているのに対し, 人間の場合は最大 2 つの正解と比較しているため, 条件が若干異なる。 } ## 4.2 実験結果 表 10 に各種モデルのスコアならびに人間のスコアを示す.モデルの性能の比較では以下のことがいえる. の性能が全般的によい。これはモデルサイズが LARGEであることと,事前学習のテキストとして Wikipediaよりも大規模な Common Crawl を使っていることが考えられる。 - 解析単位について, サブワード単位 (東北大 $\mathrm{BERT}_{\mathrm{BASE}}$ ) と文字単位 (東北大 $\mathrm{BERT}_{\mathrm{BASE}}$ (char))を比較すると一貫してサブワード単位の方が精度が高い. - JCommonsenseQA は Wikipedia には記載されにくい常識的な知識を要求することから, Common Crawl を用いたモデルの精度が高い,図 5 に,早稲田大 RoBERTaLARGE が正解を,東北大 BERT $_{\mathrm{BASE}}$ が不正解を出力した JCommonsenseQA の事例を示す.このような知識は Wikipedia には記載されにくい. 長い MARC-ja と JSQuAD では s512 の精度が s128 よりも向上している. - MARC-ja と JCommonsenseQA 以外のデータセットについては, ベストなモデルは人間のスコアと同等または超えている. } & \multicolumn{2}{|c|}{} & \multicolumn{2}{|c|}{} & \multicolumn{2}{|c|}{} & \multicolumn{2}{|c|}{} \\ 表 10 JGLUE による各種モデルの評洒結果 質問: 顔を洗う場所は? 選択肢: 洗面所, 店, 台所, 化粧台, ストック 図 5 早稲田大 RoBERTa RARGE が正解を, 東北大 $\mathrm{BERT}_{\mathrm{BASE}}$ が不正解を出力した JCommonsenseQA の事例(太字が正解,下線が不正解の出力) ## 4.3 議論 システムの正解例・誤り例表 11 から表 15 に, dev セットに対するシステムの正解例ならびに誤り例を示す。各データセットで最も性能の高かったシステムの例を掲載している.MARC-ja (表 11)は全般的に性能が高く, 正解例のように正しく判定できる場合が多い. 誤りは例に示すように,レビュー文章中に positive な言及と negative な言及が混在し, 判断が難しい場合が多い. JSTS(表 12)の正解例では,1つ目の例のように「瘦せ型」と「細身」の同義関係が認識できていたり,2つ目の例のように「横転した白いトラックがあります」と「白色のトラックが横転しています」の語順の入れ替わりが認識できていた例があった。誤り例では,使われている単語の重複は多いが異なる意味の 2 文に対して誤って高い類似度を出力している場合があった. JNLI(表 13)では正解例にあげたような場合は正しく判定できている。誤り例の1つ目では「ティアラを身につけています」と「ティアラをかぶっています」の含意関係を認識でき & positive & positive \\ 表 11 MARC-jaにおけるシステムの正解例・誤り例 & 4.17 & 4.2 \\ 表 12 JSTSにおけるシステムの正解例・誤り例(ここでの正解,誤りはそれぞれシステム出力と正解の差が比較的小さい,大きい事例のことを指す.) & & entailment & entailment \\ 表 13 JNLIにおけるシステムの正解例・誤り例 ## 正解例 [タイトル] コンゴ共和国 自給自足的で、国民の基礎食糧となるキャッサバの生産が盛んに行われている。.. 林業は独立時には主要産業であり、木材は輸出の約 60 \%を占める主力輸出品であったが、その後石油産業の成長によって割合は小さくなり、2014 年には輸出の 0.9 \%にまで縮小した。しかし重要な産業であることには変わりなく、かつてはマヨンべ山地が、1960 年代以降はコミログ支線沿いのシャイユ山地が主な産地となっている。北部の熱帯雨林の林業開発は進んでいない。 質問: コンゴ共和国の重要な産業である林業の主な産地はどこか 正解: シャイユ山地 システム出力: シャイユ山地 ## 誤り例 [タイトル] 石油 20 世紀前半には、ベネズエラやインドネシアが石油の輸出地に加わった。この当時、世界の石油生産はアメリカ、ソ連、そしてべネズエラが多く占めていた。その中でもアメリカ合衆国は約70パー セントを占めていた。 質問:20世紀前半に石油生産が一番多かった国は? 正解: アメリカ合衆国 システム出力: ベネズエラ 表 $14 \mathrm{JSQuAD}$ におけるシステムの正解例・誤り例 ておらず,また 2 つ目では,「赤ん坊」と「テーブル」の位置関係を認識できておらず,誤って entailment と出力してしまっている. JSQuAD(表 13)では正解例にあげたようなケースは正しく判定できている。誤り例では答えとなる国の候補が 3 つあり, 2 文目と 3 文目を合わせて推論する必要があり, このような場合にシステムが誤っていた. JCommonsenseQA(表 15)では,正解例にあげたような常識的な知識をシステムが備えていることがわかる.誤り例の 1 つ 表 15 JCommonsenseQA におけるシステムの正解例・誤り例(太字が正解,下線が出力) & \\ 表 16 MARC-jaにおける人間の誤り回答例(P は positive,N は negative を表しており,太字は多数決で選ばれたラベルを表す。) & \\ 表 17 JSTS における人間の誤り回答例 目では質問中の「コンビニ」と「カウンター」から誤って「レジ」と答えてしまっており,また,2つ目では質問の「毎週発刊」と選択肢の「週刊誌」の関係性が捉えられておらず,このような常識的な知識をどのようにすれば得られるかは今後の検討課題である. 人間の誤り回答全般的に人間のスコアは高いが, 人間の判断が摇れる問題が少ない割合ではあるが作成されている,表 16 から表 20 に,各データセットの人間の誤り回答例を示す. MARC-ja においては表 16 に示すように, positive (negative)な意味を前提とした negative (positive) な発言を含む事例がしばしば存在しており,判断を悩ませている。JNLI では表 18 に示すように, & \\ 表 18 JNLI における人間の誤り回答例(Eは entailment, C は contradiction, N は neutral を表しており,太字は多数決によって選ばれたラベルを表す.) [タイトル] ポルトガル 漢字表記は葡萄牙で、葡と略される。これは広東語の発音(Pou4tou4nga4 $\doteqdot$ ポウトウガー) による漢字表記に由来し、19 世紀の中国南部で生まれ、...٪それまでは...「蒲麗都家」等の多くの表記もあったが、幕末期より日本でも葡萄牙の漢字表記が優勢となっている。 質問:葡萄牙と漢字表記されることが一般的になったのはどの時期か。 正解: 19 世紀 人間の回答: 幕末期 [タイトル] 梅雨 梅雨の期間中ほとんど雨が降らない場合がある。このような梅雨のことを空梅雨(からつゆ) という。... 空梅雨の場合、夏季に使用する水(特に稲作に必要な農業用水)が確保できなくなり、渇水を引き起こすことが多く、... 秋季〜冬季の降水量が少ない北部九州や瀬戸内地方などでは、空梅雨の後、台風などによるまとまった雨がない場合、渇水が 1 年以上続くこともある。 質問: 梅雨の期間中ほとんど雨が降らない場合を何と呼ぶ? 正解: 空梅雨(からつゆ) 人間の回答: 空梅雨 表 19 JSQuADにおける人間の誤り例 & 選択肢 \\ 表 20 JCommonsenseQA における人間の誤り回答例(選択肢の太字は正解,[ ] 内の数字は人間のスコア獲得時の人間の回答の票数を表す.) データ構築時や人間のスコア獲得時に $4: 6,5: 5$ などに回答が分かれるような判断が難しい事例が少数含まれている。JSTS についても,データ構築時と人間のスコア獲得時で大きく類似度が異なってしまう事例が少数含まれている,JSQuADでは,表 19 に示すように,正解のスパンの区切り位置の判別が難しい例や,別解が考えられる例,そのほか質問文が破綻している事例が 含まれている. JCommonsenseQA においては表 20 に示すように別解が考えられる例や,人が誤って答えてしまう事例が含まれる。これらの誤りに対処するためには,データセット構築時の各事例の検証に,より多数のクラウドワーカーを用いることで,よりロバストな結果を得ることなどが考えられる。 能の変化を確認した.各データセットで最も高い性能を出したモデルを用いている.精度の変化を図 6 に示す。全てのデータセットで性能はほぼ飽和していることから,構築したデータセットの量は十分であると言える。 JNLI における Annotation Artifacts クラウドワーカーに作文してもらうことによって構築されたデータセットは, Annotation Artifacts が発生することがあり, 特に NLI データセットにおいて顕著である (Poliak et al. 2018; Tsuchiya 2018). Annotation Artifacts とは,アノテー ションによってデータ内に生じてしまうあるパターンのことを呼ぶ. 例えば, クラウドワーカー によって作成された仮説文内に「not」が含まれている場合にたいてい推論関係が contradiction であると,システムは仮説文のみを参照するだけでも十分高い性能を出すことができる.JNLI において,仮説文のみを用いた推論の性能を確認した。はじめに,本実験用に JNLI から部分集合の抽出を行った,具体的には,推論関係が contradiction である文ぺア集合から,クラウドワーカーの作成文が仮説文である文ぺアを抽出した。推論関係が entailment, neutral である文ペア集合については,片方向分のみ文ぺア抽出した。そして,仮説文のみを用いた推論結果と, majority ベースラインとして全ての出力を neutral とする場合のスコアをそれぞれ比較した. 比較の結果を表 21 に示す. 東北大 $\mathrm{BERT}_{\mathrm{BASE}}$ モデルによる仮説文のみを用いた推論の結果が, 図 6 学習デー夕量を変えた時の精度変化 \\ XLM-RoBERTa \\ 表 21 仮説文のみを用いた推論による JNLI の dev セットにおける精度 majority ベースラインより高精度となっていることから ${ }^{12}$, 若干 Annotation Artifacts が含まれていると考えられる,本データセットを利用することで,Annotation Artifactsの軽減に関する研究が実施されることを期待する. JSQuADにおける Lexical Overlap JSQuADの質を評価するために,SQuAD で指摘されている Lexical Overlap について調査した. Lexical Overlap とは, 段落と質問文において単語が重なっている割合を指す。この割合が大きい場合, モデルにとって容易に回答可能であるということが知られている (Clark et al. 2020). JSQuADの各段落と質問文のペアを単語単位に分割 ${ }^{13}$ し, Lexical Overlap を算出した. Lexical Overlap の平均値は 0.795 であり,JSQuAD は SQuAD と同様の課題を持つ. しかしながら, 日本語においてべンチマークが存在しないので, JSQuAD を先駆けとして本課題に対する研究が進むことを期待する. ## 5 おわりに 本論文では日本語における言語理解ベンチマーク JGLUE の構築について述べた. JGLUE は文章分類タスクである MARC-ja・JCoLA,文ペア分類タスクの JSTS・JNLI,QA タスクの JSQuAD・JCommonsenseQA の計 6 つのデータセットで構成しており,それぞれのデータセットの文は全て人手で機械翻訳を用いることなく作成した。さらに,JGLUE を用いて各種事前学習モデルの性能比較を行うとともに,構築したデータセットのデータ量や品質について考察した. JGLUE は 2022 年 6 月よりhttps://github.com/yahoojapan/JGLUE で公開中である. JGLUE を用いて, 事前学習モデルの包括的な評価や, より難しい評価データの構築が進むことを期待している。今後は GLGE (Liu et al. 2021)のような生成系タスクや FLEX (Bragg et al. 2021)のような Few-shot タスクのデータセットなどを構築する予定である. _{\text {LARGE }}$ モデルでは学習がうまくできず, 出力のすべてが最多ラべルである neutral となった. 13 単語単位の分割には MeCab + IPAdic を使用した. } ## 謝 辞 本研究はヤフー株式会社と早稲田大学の共同研究により実施した. また本論文は以下の LREC 2022 の論文を拡張・翻訳したものである. Kurihara, K., Kawahara, D., and Shibata, T. (2022). JGLUE: Japanese General Language Understanding Evaluation. In Proceedings of the 13th Language Resources and Evaluation Conference (LREC2022). European Language Resources Association (ELRA). ## 参考文献 Abdul-Mageed, M., Elmadany, A. A., and Nagoudi, E. M. B. (2021). "ARBERT \& MARBERT: Deep Bidirectional Transformers for Arabic." CoRR, abs/2101.01785. Bowman, S. R., Angeli, G., Potts, C., and Manning, C. D. (2015). "A Large Annotated Corpus for Learning Natural Language Inference." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 632-642, Lisbon, Portugal. Association for Computational Linguistics. Bragg, J., Cohan, A., Lo, K., and Beltagy, I. (2021). "FLEX: Unifying Evaluation for Few-Shot NLP.” In Beygelzimer, A., Dauphin, Y., Liang, P., and Vaughan, J. W. (Eds.), Advances in Neural Information Processing Systems. Cer, D., Diab, M., Agirre, E., Lopez-Gazpio, I., and Specia, L. (2017). "SemEval-2017 Task 1: Semantic Textual Similarity Multilingual and Crosslingual Focused Evaluation." In Proceedings of the 11th International Workshop on Semantic Evaluation (SemEval-2017), pp. 1-14. Association for Computational Linguistics. Chen, X., Fang, H., Lin, T.-Y., Vedantam, R., Gupta, S., Dollar, P., and Zitnick, C. L. (2015). "Microsoft COCO Captions: Data Collection and Evaluation Server." CORR, abs/1504.00325. Clark, J. H., Choi, E., Collins, M., Garrette, D., Kwiatkowski, T., Nikolaev, V., and Palomaki, J. (2020). "TyDi QA: A Benchmark for Information-Seeking Question Answering in Typologically Diverse Languages." Transactions of the Association for Computational Linguistics, 8, pp. 454-470. Conneau, A., Khandelwal, K., Goyal, N., Chaudhary, V., Wenzek, G., Guzmán, F., Grave, E., Ott, M., Zettlemoyer, L., and Stoyanov, V. (2020). "Unsupervised Cross-lingual Representation Learning at Scale." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8440-8451, Online. Association for Computational Linguis- tics. Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota. Hayashibe, Y. (2020). "Japanese Realistic Textual Entailment Corpus." In LREC2020, pp. 6827-6834, Marseille, France. European Language Resources Association. Hu, J., Ruder, S., Siddhant, A., Neubig, G., Firat, O., and Johnson, M. (2020). "XTREME: A Massively Multilingual Multi-task Benchmark for Evaluating Cross-lingual Generalization." CORR, abs/2003.11080. Kakwani, D., Kunchukuttan, A., Golla, S., N.C., G., Bhattacharyya, A., Khapra, M. M., and Kumar, P. (2020). "IndicNLPSuite: Monolingual Corpora, Evaluation Benchmarks and Pretrained Multilingual Language Models for Indian Languages." In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 4948-4961, Online. Keung, P., Lu, Y., Szarvas, G., and Smith, N. A. (2020). "The Multilingual Amazon Reviews Corpus." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 4563-4568, Online. Le, H., Vial, L., Frej, J., Segonne, V., Coavoux, M., Lecouteux, B., Allauzen, A., Crabbé, B., Besacier, L., and Schwab, D. (2020). "FlauBERT: Unsupervised Language Model Pre-training for French." In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 2479-2490, Marseille, France. Liang, Y., Duan, N., Gong, Y., Wu, N., Guo, F., Qi, W., Gong, M., Shou, L., Jiang, D., Cao, G., Fan, X., Zhang, R., Agrawal, R., Cui, E., Wei, S., Bharti, T., Qiao, Y., Chen, J.-H., Wu, W., Liu, S., Yang, F., Campos, D., Majumder, R., and Zhou, M. (2020). "XGLUE: A New Benchmark Dataset for Cross-lingual Pre-training, Understanding and Generation." CORR, abs/2004.01401. Liu, D., Yan, Y., Gong, Y., Qi, W., Zhang, H., Jiao, J., Chen, W., Fu, J., Shou, L., Gong, M., Wang, P., Chen, J., Jiang, D., Lv, J., Zhang, R., Wu, W., Zhou, M., and Duan, N. (2021). "GLGE: A New General Language Generation Evaluation Benchmark." In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 408-420, Online. Liu, Y., Ott, M., Goyal, N., Du, J., Joshi, M., Chen, D., Levy, O., Lewis, M., Zettlemoyer, L., and Stoyanov, V. (2019). "RoBERTa: A Robustly Optimized BERT Pretraining Approach." CORR, abs/1907.11692. Marelli, M., Menini, S., Baroni, M., Bentivogli, L., Bernardi, R., and Zamparelli, R. (2014). "A SICK Cure for the Evaluation of Compositional Distributional Semantic Models." In Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC'14), pp. 216-223, Reykjavik, Iceland. European Language Resources Association (ELRA). Miyazaki, T. and Shimizu, N. (2016). "Cross-Lingual Image Caption Generation." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1780-1790. Park, S., Moon, J., Kim, S., Cho, W. I., Han, J. Y., Park, J., Song, C., Kim, J., Song, Y., Oh, T., Lee, J., Oh, J., Lyu, S., Jeong, Y., Lee, I., Seo, S., Lee, D., Kim, H., Lee, M., Jang, S., Do, S., Kim, S., Lim, K., Lee, J., Park, K., Shin, J., Kim, S., Park, L., Oh, A., Ha, J.-W., and Cho, K. (2021). "KLUE: Korean Language Understanding Evaluation." In 35th Conference on Neural Information Processing Systems Datasets and Benchmarks Track (Round 2). Poliak, A., Naradowsky, J., Haldar, A., Rudinger, R., and Van Durme, B. (2018). "Hypothesis Only Baselines in Natural Language Inference." In Proceedings of the 7th Joint Conference on Lexical and Computational Semantics, pp. 180-191, New Orleans, Louisiana. Association for Computational Linguistics. Rajpurkar, P., Zhang, J., Lopyrev, K., and Liang, P. (2016). "SQuAD: 100,000+ Questions for Machine Comprehension of Text." In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2383-2392, Austin, Texas. Rodriguez-Penagos, C., Armentano-Oller, C., Villegas, M., Melero, M., Gonzalez, A., de Gibert Bonet, O., and Pio, C. C. (2021). "The Catalan Language CLUB." CoRR, abs/2112.01894. Ruder, S., Constant, N., Botha, J., Siddhant, A., Firat, O., Fu, J., Liu, P., Hu, J., Garrette, D., Neubig, G., and Johnson, M. (2021). "XTREME-R: Towards More Challenging and Nuanced Multilingual Evaluation." CORR, abs/2104.07412. Seelawi, H., Tuffaha, I., Gzawi, M., Farhan, W., Talafha, B., Badawi, R., Sober, Z., Al-Dweik, O., Freihat, A. A., and Al-Natsheh, H. (2021). "ALUE: Arabic Language Understanding Evaluation." In Proceedings of the 6th Arabic Natural Language Processing Workshop, pp. 173-184, Kyiv, Ukraine (Virtual). Sennrich, R., Haddow, B., and Birch, A. (2016). "Neural Machine Translation of Rare Words with Subword Units." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, Berlin, Germany. 染谷大河, 大関洋平 (2022). 日本語版 CoLA の構築. 言語処理学会第 28 回年次大会発表論文集, pp. 1872-1877. [T. Someya and Y. Oseki (2022). Nihongoban CoLA no Kochiku. Proceedings of the 28th Annual Meeting of the Association for Natural Language Processing, pp. 18721877.]. Speer, R., Chin, J., and Havasi, C. (2017). "ConceptNet 5.5: An Open Multilingual Graph of General Knowledge." Proceedings of the AAAI Conference on Artificial Intelligence, 31 (1), pp. 4444-4451. 鈴木正敏, 松田耕史, 岡崎直観, 乾健太郎 (2018). 読解による解答可能性を付与した質問応答デー タセットの構築. 言語処理学会第 24 回年次大会発表論文集, pp. 702-705. [M. Suzuki et al. (2018). Dokkai niyoru Kaito Kanosei wo Fuyo shita Shitsumon Oto Detasetto no Kochiku. Proceedings of the 24th Annual Meeting of the Association for Natural Language Processing, pp. 702-705.]. Takahashi, N., Shibata, T., Kawahara, D., and Kurohashi, S. (2019). "Machine Comprehension Improves Domain-Specific Japanese Predicate-Argument Structure Analysis." In Proceedings of the 2nd Workshop on Machine Reading for Question Answering, pp. 98-104, Hong Kong, China. Talmor, A., Herzig, J., Lourie, N., and Berant, J. (2019). "CommonsenseQA: A Question Answering Challenge Targeting Commonsense Knowledge." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4149-4158, Minneapolis, Minnesota. Tsuchiya, M. (2018). "Performance Impact Caused by Hidden Bias of Training Data for Recognizing Textual Entailment." In Proceedings of the 11th International Conference on Language Resources and Evaluation (LREC 2018), Miyazaki, Japan. European Language Resources Association (ELRA). Wang, A., Pruksachatkun, Y., Nangia, N., Singh, A., Michael, J., Hill, F., Levy, O., and Bowman, S. (2019). "SuperGLUE: A Stickier Benchmark for General-Purpose Language Understanding Systems." In Wallach, H., Larochelle, H., Beygelzimer, A., d'Alché-Buc, F., Fox, E., and Garnett, R. (Eds.), Advances in Neural Information Processing Systems, Vol. 32. Curran Associates, Inc. Wang, A., Singh, A., Michael, J., Hill, F., Levy, O., and Bowman, S. (2018). "GLUE: A MultiTask Benchmark and Analysis Platform for Natural Language Understanding." In Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 353-355, Brussels, Belgium. Williams, A., Nangia, N., and Bowman, S. (2018). "A Broad-Coverage Challenge Corpus for Sentence Understanding through Inference." In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 1112-1122, New Orleans, Louisiana. Xu, L., Hu, H., Zhang, X., Li, L., Cao, C., Li, Y., Xu, Y., Sun, K., Yu, D., Yu, C., Tian, Y., Dong, Q., Liu, W., Shi, B., Cui, Y., Li, J., Zeng, J., Wang, R., Xie, W., Li, Y., Patterson, Y., Tian, Z., Zhang, Y., Zhou, H., Liu, S., Zhao, Z., Zhao, Q., Yue, C., Zhang, X., Yang, Z., Richardson, K., and Lan, Z. (2020). "CLUE: A Chinese Language Understanding Evaluation Benchmark." In Proceedings of the 28th International Conference on Computational Linguistics, pp. 4762-4772, Barcelona, Spain (Online). International Committee on Computational Linguistics. 谷中瞳, 峯島宏次 (2021). JSICK: 日本語構成的推論・類似度データセットの構築. 人工知能学 会全国大会論文集, JSAI2021. 4J3GS6f02. [H. Yanaka and K. Mineshima (2021). JSICK: Japanese Sentences Involving Compositional Knowledge Dataset. Proceedings of the Annual Conference of JSAI 2021. 4J3GS6f02.]. Yoshikoshi, T., Kawahara, D., and Kurohashi, S. (2020). "Multilingualization of a Natural Language Inference Dataset Using Machine Translation." In The Special Interest Group Technical Reports of IPSJ. in Japanese. ## 略歴 栗原健太郎:2021 年早稲田大学基幹理工学部情報通信学科卒業. 2022 年現在同大学院修士課程在学中. 河原大輔:1997 年京都大学工学部電気工学第二学科卒業. 1999 年同大学院修士課程修了. 2002 年同大学院博士課程単位取得認定退学. 東京大学大学院情報理工学系研究科学術研究支援員, 独立行政法人情報通信研究機構主任研究員, 京都大学大学院情報学研究科准教授を経て, 2020 年より早稲田大学理工学術院教授. 自然言語処理, 知識処理の研究に従事. 博士 (情報学). 柴田知秀:2007 年東京大学大学院情報理工学系研究科博士課程修了. 京都大学大学院情報学研究科助教, 特定講師を経て, 2019 年より Yahoo! JAPAN 研究所上席研究員. 専門は自然言語処理, 特に深層学習を利用した日本語基礎解析. 博士 (情報理工学). $(2022$ 年 9 月 1 日 $\quad$ 受付 $)$ $(2022$ 年 10 月 18 日 $\quad$ 採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 人工言語による事前学習を用いた言語間転移可能な知識の分析 ## 李凌寒 $\dagger,+\dagger$ ・鶴岡 慶雅 $\dagger$ 本論文では,ニューラルネットエンコーダが学習する知識のうち,どのような構造的知識が自然言語のタスクを解くのに転移可能かを調査する。提案するアプローチでは,自然言語の構造を模したいくつかの「人工言語」を用いてエンコーダを訓練し,そのエンコーダの自然言語の下流タスクにおける性能を評価することで,事前学習データに含まれている構造的知識の転移可能性を計測する。実験の結果, 転移可能なエンコーダを獲得するにあたって, 事前学習のデータ系列中において,統計的依存関係が重要であること, 係り受け関係を持つ際に入れ子構造が有用であることなどが明らかとなった。こうした結果は, エンコーダが転移可能な抽象的な知識として,位置を考慮したトークンの文脈依存性があることを示唆している. キーワード:言語間転移学習,多言語,事前学習モデル ## Analyzing Transferable Knowledge by Pretraining with Artificial Language \author{ Ryokan $\mathrm{RI}^{\dagger, \dagger \dagger}$ and Yoshimasa Tsuruoka ${ }^{\dagger}$ } \begin{abstract} We conducted a study to determine what kind of structural knowledge learned in neural network encoders is transferable to the processing of natural language. We designed artificial languages with structural properties that mimic those of natural language, pretrained encoders on the data, and examined the encoders' effects on downstream tasks in natural language. Our experimental results demonstrate the importance of statistical dependency, as well as the effectiveness of the nesting structure in implicit dependency relations. These results indicate that position-aware context dependence represents knowledge transferable across different languages. \end{abstract} Key Words: Cross-lingual Transfer Learning, Multilingual, Pretrained Model ## 1 はじめに 複数の言語のテキストで学習したマルチリンガル事前学習モデルは, 言語横断転移学習の夕  スクなどで高い性能を発揮しており (Conneau et al. 2020), これはモデルが異なる言語にわたって共有できる知識を学習していることを示している。夕スクを解くために役立つ言語の知識には,単語などの語彙に関する知識もあれば,文法に関する知識もある。ここで言う文法とは,外国語学習に見られるような具体的な文法事項というよりは,ニューラルネットワークが,トー クンの系列から情報を集約して,タスクを解くために必要な「意味」を導き出す内部処理のことを指す。このニューラルネットワークの「文法」に,異なる言語にわたって共有できる部分が存在することが示唆されている. Artetxe et al. (2020) は,英語のデータのみで重みを学習した Transformer エンコーダを,異なる言語にも転用できることを示した。つまり,英語のデータから学習した「文法」に言語非依存なものが存在するということである。言語間で共有できる文法事項のうち,マルチリンガル事前学習モデルが実際に捉えているものとして, Universal Dependencies ${ }^{1}$ で定義されている係り受け関係 (Chi et al. 2020) や,主格の概念 (Papadimitriou et al. 2021) が存在することが今まで示されている。これらは,我々にとっても直感的な文法であるが,ニューラルネットワー クはより抽象度が高い概念や処理を,異なる言語にわたって共有できることが示唆されている. たとえば Papadimitriou and Jurafsky (2020) は,楽譜やプログラミングコードといった非自然言語データで LSTM 言語モデルを訓練し,そのモデルが自然言語の言語モデリングのタスクに転用できることを示した。つまり,自然言語間に限らず,外見の全く異なる系列デー夕間にも共通の構造があり,それに関して学習した知識をモデルが転用できることを示している. しかしながら,具体的にどのような構造的知識が転用されるのかに関しては,十分に明らかになっていない. この点について理解を深めることは,ニューラルネットワークの言語処理に関する洞察を与え,かつ,言語共通の知識を効率的に捉えるモデルの考案にも役立つ. 本研究は,転移可能な知識を人工言語からの転移学習(図 1)により分析する. 本実験手法は Test for Inductive Bias via Language Model Transfer (Papadimitriou and Jurafsky 図 1 人工言語を用いた事前学習の概要. 人工言語は何かしらの構造的特徵を持ち, そのデータから学習した知識が,自然言語のタスクへ転用できるかどうかを調べる。 ^{1}$ https://universaldependencies.org/ } 2020)の実験手法から着想を得ており,転移元データで学習したモジュールを,異なる種類のデータへと転用した場合のタスク性能を評価することによって, 転移元と転移先データで共有可能な知識が存在するかどうかを調べる。本研究では, 系列データの持つ抽象的な構造に関する知識の転移可能性を調べるために,転移元デー夕として抽象的な構造以外の要素を捨象した人工言語を設計する。人工言語が持つ構造の転移可能性の評価として, 事前学習した Transformer を自然言語の言語モデリングへの転移した際の性能を測定した. 本研究で着目する自然言語の構造的な性質は, 単語の分布, 単語の係り受け関係, ランダム性である。これらの構造について, 自然言語に近いものを持つ人工言語, 自然言語とは異なるものを持つ人工言語を設計し,比較実験を行った。得られた知見を以下にまとめる. - コーパス全体における単語分布そのものは転移可能な有用な知識になり得ず, 自然言語へ転移できる Transformer のパラメータを学習するためには,事前学習データの系列内の統計的依存関係が必要となる。この統計的依存関係から, Transformer は入力中の文脈情報を集約するような学習をし,自然言語タスクに有用なものとなる. ・ 事前学習データとして, 係り受け構造を持った人工言語を設計し, 係り受け関係が入れ子状になる制約を持った言語と,そうでない言語を比較すると,入れ子制約を持っている方が高い自然言語への転移性能を示した。これは,トークン予測のタスクにおいて,入れ子構造が,自然言語の文法に見られるような,一貫した位置に依存する規則性を持っているからだと考えられる。 - 人工言語にランダム性がなく, 生成されたデータの系列の並びが決定的であったとしても,事前学習された Transformer は自然言語に転移可能なものとなる。また,転移元の人工言語と転移先の自然言語の語彙サイズが近しいことそのものの有効性は確認されなかった。これら実験結果を踏まえると, 転移学習の性能に影響を与える主たる要因は, 系列データの統計的依存性であると考えられる。 ## 2 関連研究 ## 2.1 事前学習エンコーダにおける転移可能な知識 言語横断転移学習に用いられるマルチリンガルモデルは, 言語共通の構造を捉えていることが示唆されている。マスク付き言語モデリングで学習したマルチリンガル言語モデル (Devlin et al. 2019; Doddapaneni et al. 2021) は,言語間の対応関係を示すデータを与えられていない場合でも, 高い言語横断転移学習の性能を示す (Liu et al. 2020). これはモデルは言語共通の意味空間を獲得していることを意味しているが,言語横断転移学習の能力は,異なる言語の語彙の間に共通のサブワードが存在しない場合でも獲得されることが示されている (Karthikeyan et al. 2020; Conneau et al. 2020). したがって, ここでモデルが言語非依存な意味空間の学習の手が かりにしているのは,異なる言語にわたって見られる共通の構造だと考えられている. このような, 言語共通の構造の存在を示唆する観察として, 単言語コーパスで学習したエンコーダの転移可能性がある. Artetxe et al. (2020) の報告によれば,転移元言語のデータのみで学習した Transformer エンコーダは, 転移先言語の単語埋め込みをそのエンコーダに合わせて学習するだけで, 高い言語間転移学習の性能を示す. Papadimitriou and Jurafsky (2020)は, LSTM エンコーダをプログラミングコード,楽譜,人工データなどの非言語データで学習し, それらのエンコーダがスペイン語の言語モデリングにおいても,ある程度の性能を発揮できることを示した。これらの結果は, ニューラルネットワークのエンコーダが, 単言語/非言語デー 夕から,異なる言語にも共有できる何らかの知識を学習できることを示している. それでは, 異なる言語の間で共有されている共通の構造とはどのようなものだろうか. Probing タスク (Hupkes and Zuidema 2018; Conneau et al. 2018)を用いた分析から,マルチリンガル言語モデルは, 言語普遍な依存構造 (Chi et al. 2020) や主格の概念 (Papadimitriou et al. 2021) など,言語非依存な構造を捉えていることが示唆されている。しかし, Probing の手法は,モデルがそうした言語知識を捉えていることは示しても,そうした知識を持つことが言語間転移学習の性能にどれほど貢献しているかを示すことはできない. また, 単純な単語の分布構造や語彙サイズといった,抽象的な要素に関する知識の転移可能性は明らかにできない. 本研究は,エンコーダが捉える異なる言語間で転移可能な知識とは何かという問いを明らかにするために, Test for Inductive Bias via Language Model Transfer (TILT) (Papadimitriou and Jurafsky 2020)の枠組みに則り,人工言語を活用した実験を行う,TILT の枠組みは,転移先言語(ここでは自然言語)にも活用可能な抽象的な知識を, 転移元言語から学習できるのかどうか, ということを明らかにする. 我々の実験では, 転移元言語として単純な構造的特徵から構成される人工言語を設計し, その特徴の転移可能性を分析した。人工言語からの転移学習による分析は Papadimitriou and Jurafsky (2020) においても, Uniform や Zipf の分布を持つ人工言語,同一トークン間の係り受け構造を模した人工言語を用いて行われている. 先行研究との差異として,我々の研究では,係り受け関係を持つトークンについて自然言語により近い構造をしていると考えられる人工言語を採用し, 文内の統計的依存関係の必要性を調べるための LogLinear や,系列のランダム性を制御する Bigram 言語といった新たな人工言語を設計し詳細な分析を加え知見を広げる。また,Papadimitriou and Jurafsky (2020) はエンコーダとしてLSTM を取り上げているが,本研究は近年の転移学習における主流アーキテクチャである Transformer を取り上げる。 ## 2.2 人工言語を用いた言語モデルの分析 言語の特徴に関わる分析における難点の 1 つに,言語の特徵の多様性が挙げられる。日本語と英語を比べると,文字も異なれば,語彙,文法も全く異なる,異なる自然言語には様々なレ ベルでの違いがあり,こうした言語特徴がモデルの性能に与える影響を調べようとしても,それぞれ違いを独立にコントロールして実験を行うことが難しい。こうした難点を避けるために。自然言語の性質を人為的に改変して人工言語を作り, 元の言語と比較するアプローチがある.典型的には以下の手順を踏む:(1) 対象の自然言語が持つある特徴に変更を加えて人工言語を作成する。改変される言語特徴として,たとえば,語順 (Sinha et al. 2021b; Dufter and Schütze 2020; Sinha et al. 2021a),文字 (Karthikeyan et al. 2020; Dufter and Schütze 2020; Conneau et al. 2020), 形態素 (Ravfogel et al. 2019) などがある; (2) 元の自然言語と改変後の人工言語のデー夕を用いて,それぞれのモデルを,分析タスクにおいて訓練・評価する。これにより,改変した言語特徴に絞って, モデルの性能に与える影響を調べることができる. このような利点がある一方で,自然言語に改変を加える手法は,容易に変更を加えられるような言語特徴しか分析の対象にできない。そこで,より幅広い言語特徴の影響を分析するアプロー チとして, 特定の言語特徴を持った人工言語の利用が挙げられる. White and Cotterell (2021) は, 名詞句や動詞句といった文法的構成素の語順をパラメータとして変更できる確率的文脈自由文法 (PCFG) を設計し,パラメータの違いが LSTM と Trasformer それぞれの言語モデリングの性能に与える影響について調べた。また, Chiang and Lee (2022) も人工言語を用いたアプローチで,様々な性質を持った人工言語で事前学習された Transformer エンコーダの, GLUE ベンチマーク (Wang et al. 2019) における性能を評価している. 本研究も同様に, 自然言語をもとにしない,抽象的な規則から生成された人工言語を用いて,自然言語タスクに転用できる構造的な知識をとは何かを調べる。 ## 3 人工言語を用いた転移学習 本研究の実験手法は, Papadimitriou and Jurafsky (2020)の提案した Test for Inductive Bias via Language Model Transfer (TILT) の実験手法にもとづく. TILT は以下のような事前学習と転移学習の 2 つのステップから構成される。 (1) エンコーダを転移元言語で事前学習をする. (2)エンコーダを転移先言語での下流タスクに転用し,性能を評価する。このとき,転移元言語の単語埋め込みは使わずに,転移先言語の単語埋め込みをランダムに初期化し,単語埋め込みパラメータのみを学習する。つまり,エンコーダのパラメータを固定することで,エンコーダが事前学習で獲得した知識の,転移先言語・タスクにおける有用性が検証できる。 ここでいうエンコーダとは, ベクトルの系列を受け取り, 系列全体の情報を考慮した出力べクトルを得るモジュールのことを指す。本研究で扱う事前学習・評価タスクは, 左から右にトー クンを予測・生成していく言語モデリングであるため, このモジュールはデコーダともいえる. しかし, 本論文では入力系列から文脈化されたべクトル表現に変換する点に焦点をあてることから,一貫してエンコーダと呼ぶことにする。 本研究では, 自然言語に転移可能な構造的知識とは何かを調べるために,転移元言語として自然言語の特定の性質を模した人工言語,転移先言語として自然言語(ここでは英語)を用いる。以下,人工言語の形式的な定義を与えた後に,実際に用いる人工言語を導入する. ## 3.1 人工言語の定式化 人工言語は, 語彙 $\{w \mid w \in \mathcal{V}\}$, 系列長の分布 $p_{l e n}(l)$, 系列のサンプリングアルゴリズム $f(l): l \mapsto \mathcal{V}^{l}$ の 3 つの要素から構成される。事前学習に用いられるデータは 1 系列ずつ, 以下の手順で生成される:(1) 系列長 $l$ を分布 $p_{l e n}(l)$ からサンプリングして決定する; $(2)$ その長さだけトークン $\left[w_{1}, \ldots, w_{l}\right]$ を $f(l)$ のアルゴリズムでサンプルする. ここでの人工言語の語彙は, 単純な数字 ID または記号と数字の組合せから構成されており,実際の自然言語の語彙との対応は想定されていない。また,すべての人工言語について,系列長の分布 $p_{l e n}(l)$ は, ベースラインのデータセット(ここでは英語 Wikipedia Dump)から算出された系列長分布を用いる。人工言語の最も重要な特徴は, 以下に詳述する系列のサンプリングアルゴリズム $f(l)$ であり, これがどのような構造的知識をエンコーダが学習するかを決定つける要素となる。 ## 3.2 単語分布のモデリング 自然言語における単語分布にはいくつかの特徴がある。こうした単語分布に関する事前知識の,自然言語の夕スク学習への有効性を調べるために,自然言語を模した単語分布を持つ人工言語を設計する。単語分布のみを特徴としてもつ人工言語のサンプリングアルゴリズム $f(l)$ は,言語の持つ単語分布 $p(w)$ からのサンプリング $w \sim p(w)$ を $l$ 回繰り返すことで行われる. Uniform 単語分布を持つ人工言語では, 1 系列中のトークンを, 語彙全体から一様にサンプリングする。これは,自然言語の単語分布とは掛け離れており,ベースラインとして用いられる。 トークン $w$ がサンプリングされる確率は以下のように表される. $ p(w)=\frac{1}{|\mathcal{V}|} $ 実際の自然言語における単語分布は, 経験的に Zipf's の法則 (Zipf 1949)に従うことが知られており,各単語の頻度とその頻度順位が frequency $(w) \propto \frac{1}{\operatorname{rank}(w)^{\alpha}}$ で表される比例関係にある.係数 $\alpha$ は通常おおよそ 1 となるが,係数算出に用いるコーパスのドメインによって幾分かゆらぎを見せる (Zanette and Montemurro 2005). Zipf 単語分布は自然言語のこのような性質を捉えており,それぞれのトークン $w$ を $\alpha=1$ と設定した Zipf の分布からサンプリングする. $ p(w) \propto \frac{1}{\operatorname{rank}(w)} $ ここまで導入した 2 つの単語分布は,それぞれの系列中のトークンを独立にサンプリングしている。しかし, 自然言語において文中の単語には統計的依存関係, つまり特定の単語共起パターンが存在することが知られている (Church and Hanks 1989). たとえば, “The cat and dog are fighting over food." という文を考える. 単語 the と cat は偶然より高い確率で共起するが, これは cat という名詞が, the という冠詞と結びついているからである. また $\operatorname{dog}$ と cat の間にもトピックの関連があるため, 共起しやすくなっている. 文中の単語は何かしらの統語的・意味的な関係に従って互いに結びついている. LogLinear 単語分布はこのような性質をモデリングする。文毎に異なる単語分布を与えるため, 単語分布は文 $s$ に条件づけられた形の $p(w \mid s)$ となる. Arora et al. (2016)の Log-linear モデルにならい, ある文 $s$ 中の単語は以下の確率分布からサンプリングされる. $ p(w \mid s) \propto \exp \left(\boldsymbol{c}_{s} \cdot \boldsymbol{v}_{w}\right) $ ここで $\boldsymbol{c}_{s} \in \mathbb{R}^{d}$ は文の discourse ベクトルであり, $\boldsymbol{v}_{w} \in \mathbb{R}^{d}$ はトークン $w$ の単語ベクトルである. 直感的には, discourse ベクトルは文の話題を表し, 単語べクトルと合わせて文中のユニグラム分布 (Blei et al. 2003) を定義しているとみなせる. このようなサンプリング関数を採用することで,1 つの文中には discourse ベクトル $\boldsymbol{c}_{s}$ に近い単語べクトルを持つトークンがより高い確率でサンプルされ,特定の単語同士が共起しやすいという現象を表現できる. これらの単語べクトルと discourse ベクトルは自然言語のコーパスから学習することも考えられるが, 本研究では自然言語の持つ具体的な共起構造の転移可能性というより, 文中でトー クンが共起するという単純な構造自体の転移可能性を調べたい. トークンが共起する構造自体は,それぞれのべクトルにランダムなベクトルを割り当てた場合でも表現できる.したがって, ここでは単語べクトル $\boldsymbol{v}_{w}$ として, 各単語に多次元標準正規分布からサンプルされたべクトルを割り当てる。単語ベクトルは LogLinear 言語の初期化時にサンプリングされた後は固定される. discourse ベクトル $\boldsymbol{c}_{s}$ は, 系列 $s$ をサンプリングする度に多次元標準正規分布からランダムに決定される。語彙サイズ $|\mathcal{V}|$ が与えられている場合, LogLinear 単語分布の構造はベクトルの次元 $d$ によっても左右される。ここでは, 生成されたデー夕全体における単語分布が, Zipf の分布のような偏りをもつように $d=10$ と設定した(図 2). 図 2 単語分布をモデリングした人工言語から生成されるデー夕において,頻度の高いトークンから順に頻度をプロットした対数グラフ. ## 3.3 係り受け構造のモデリング 自然言語は,単語分布によって特徴づけられるだけではなく,文の中に構造を持つ。その構造として, しばしば木構造 (Chomsky 1957) や係り受け構造 (Mel'čuk 1988) などが仮定されるが,ここでは人工言語の文に,2つのトークン間の単純な依存関係を仮定した構造を与えることを考える。自然言語における文中の単語は係り受け関係をもち,特定の単語の出現がまた他の特定の単語の出現を示唆するということがある(たとえば英語の動詞 $a m$ は,ほぼ常に $I$ と共起する).これを模して, 語彙中の半分のトークンを head トークンとし, もう半分を tail トー クンとし,それぞれ 1 対 1 のペアを成しているとみなす.ここでは 1 つのぺアを,同じ数字 ID と括弧の片方から成るトークンで表す(例:〈123, 123>),構造をもつ人工言語のサンプリングアルゴリズム $f(l)$ は, 3.2 節で導入した単語分布に従ってトークンのペアを $\left.\frac{l}{2}\right.\rceil$ 組サンプルし,一定の構造を持つように並べ替える形となる。これにより,1つの系列中に特定のペアが常に現れることになり,単純な係り受け関係を表現している. 係り受けを模した人工言語は, Papadimitriou and Jurafsky (2020)の分析でも用いられているが, 本研究のものと異なり, head と tail トークンが同一トークンとなっている. 本研究では,異なるトークン同士の依存関係を持った構造を,より自然言語に近いと考え採用する。 Flat 係り受け構造は,トークンをランダムに並べ替えるが,それぞれのぺアについて head は tail よりも必ず左に位置するという制約を加える(例:[<5, <84, 5>, <123, 123>, 84>])。このとき 1 系列中の依存関係を表すエッジはしばしば互いに交差し, non-projective な構造を示す. Nesting 係り受け構造は,それとは対照的に,依存関係のエッジが交差しないように,括弧が入れ子状に配置されるようにトークンを並べる(例:[<5, <84, 84>, 5>, <123, 123>])。このときのトークンの並びは,アルゴリズム 1 に示す,スタックを用いたアルゴリズムから生成される (Papadimitriou and Jurafsky 2020). 自然言語の係り受け関係には,しばしば入れ子関係が見られる。たとえば, UD tree bank ${ }^{2}$ 中のさまざまな言語のデータで, projective な構造と non-projective な構造を持つ文を数えると, ほとんどのコーパスで projective な文(入れ子構造のみを持つ文)が 9 割以上を占めている.事前学習のデータが同様に入れ子状の係り受け構造を持つことの有効性を,Flat と Nesting を比較することで明らかにできる。 係り受け構造を特徴づける要素として,2つのトークン間の係り受け関係の距離がある。ここでは,Flat と Nesting の構造の違いによる影響を比較する際に,係り受け関係の距離の違いの影響を排除するために,Flat 言語から生成される系列の係り受け関係の距離の分布を,比較する Nesting 言語での分布に合致するように調整して実験を行った. ## 3.4 ランダム性のモデリング これまで導入した人工言語は,程度は異なるが,いずれもランダムに系列を生成する,自然言語も,単語を文法に則り自由に組合せることができ,ある程度のランダム性を備えているといえる。 訓練データ系列にランダム性があることは,エンコーダの転移可能性にどのような影響を与 ^{2}$ https://universaldependencies.org/ } えるのだろうか. また,事前学習データのランダム性が自然言語に近い方が,良い転移性能を示すのだろうか. これらの問いに答えるために, ここでは完全にランダムなものから決定的なものまで,生成する系列のランダム性を制御できるような人工言語を設計する。 Bigram 言語は,系列を単純マルコフ過程,つまり語彙のバイグラムの遷移行列に従って生成する. Bi-gram 言語は実数パラメータ $\alpha$ を持ち,ある単語 $w_{t}$ から次の単語 $w_{t+1}$ へ遷移する確率は次式のように定義される。 $ p\left(w_{t+1} \mid w_{t}\right) \propto \frac{1}{\operatorname{rank}\left(w_{t+1} ; w_{t}\right)^{\alpha}} $ ここで $\operatorname{rank}\left(w_{t+1} ; w_{t}\right)$ は人工言語を初期化する際に決定されるパラメータであり, 1 つの $w_{t}$ について $1 \sim|\mathcal{V}|$ の数字が各トークンにランダムに割り振られる。つまり, 次にどの単語へ遷移するかの確率分布は Zipf の分布となっている。これは $\alpha=0$ のとき,前にあるトークンに条件づけられた次のトークンの分布が一様分布となり,完全にランダムに系列を生成する ${ }^{3}$. 一方で, $\alpha \rightarrow \infty$ のときは, 各トークン $w_{t}$ の次は, ランクが最高値, つまり $\operatorname{rank}\left(w_{t+1} ; w_{t}\right)=|\mathcal{V}|$ となる $w_{t+1}$ に必ず遷移し,完全に決定的な系列を生成する, $\alpha$ が中間の値にある場合は,トー クンは確率的に遷移するが,分布は偏っており,それぞれのトークンの次には,特定のトークンがよく生成される形になる。この $\alpha$ のパラメータを変えることで,さまざまな程度のランダ么性を持つ系列が生成できる。 ## 4 実験設定 ## 4.1 タスク 訓練・評価タスクとして左から右に順に単語を予測する Causal Language Model を用いる.入力は 1 文ずつになるように処理され,言語モデリングは文レベルで行う.モデルの評価は,評価データセット内の文を入力したときの,データセット全体で計算したパープレキシティの值を用いる. $N$ 単語含むデータセット中の各単語 $w_{i}$ について,モデルが予測した単語の出現確率を $p\left(w_{i}\right)$ とすると, データセット全体のパープレキシティは $\exp \left(\frac{1}{N} \sum_{i}^{N}-\log p\left(w_{i}\right)\right)$ と計算される。パープレキシティは分岐数とも呼ばれ,モデルが文脈を与えられて次の単語を予測する際の平均選択肢数と解釈できる. ## 4.2 エンコーダモデル 本実験ではエンコーダとして,近年の大規模言語処理モデルにおけるデファクトスタンダー ドとなっている Transformer (Vaswani et al. 2017) を用いる。モデルの層は 3 層,隠れ層のサ ^{3} \alpha=0$ の Bigram 言語は Uniform 単語分布で定義される人工言語と同じ振る舞いをする. } イズは 300 次元, フィードフォワード層の次元は 600 , 自己注意機構のヘッドは 4 つに設定した.また, 単語出力層と単語埋め込み層の重みは共有されている (Press and Wolf 2017). ## 4.3 事前学習コーパス 人工言語から系列データをサンプリングし,事前学習コーパスとして用いる。まず,文構造を持たず, トークンの分布のみをモデリングした人工言語として, 3.2 節で導入した Uniform, Zipf, LogLinear 分布からサンプリングされたトークンをランダムに並べたもので実験を行う. また, 文構造をモデリングしたものとして, 単語分布のうち 1 つを選び, それを 3.3 節で導入した Flat 係り受け構造または Nesting 係り受け構造と組合せたものを用いる. 系列のランダムさの影響を調べる実験では, Bigram 言語のパラメータ $\alpha$ を $0,0.7,0.8,0.9,1.0,1.5,2.0,10\}$ と設定して事前学習データを生成し, そこから訓練されたエンコーダを比較する。この $\alpha$ の値は, バイグラム遷移確率のパープレキシティが幅広い値を含むように選定した. これに加えて,ベースラインとして,自然言語である英語 (en)の Wikipedia Dump で事前学習したエンコーダも評価する。 Wikipedia Dump 中のパラグラフは icu 4 を用いて文に分割され,文は Moses ${ }^{5}$ を用いて単語に分割した. 英語以外の Wikipedia コーパスで訓練した場合も,英語と同様の結果が得られたため, 人工言語との比較は主に英語のデータを参照して行う。その他の自然言語を用いた場合のデータ処理と結果は付録 A にて記載する。 人工言語から生成されるデータの系列長は, 英語 Wikipedia の事前学習コーパスと同じ分布 (図 3)に従うようにサンプリングする。人工言語と自然言語のいずれも語彙サイズ $|\mathcal{V}|$ は 16,000 に設定され,自然言語コーパス中の語彙に含まれない単語は未知語トークンに置換される。エンコーダは, $12.8 \mathrm{M}$ 系列のデータを用いて 1 エポック, バッチサイズ 128 で $10 \mathrm{~K}$ ステップ訓練した。最適化アルゴリズムには AdamW (Loshchilov and Hutter 2019), 学習率スケジュー 図 3 英語 Wikipedia から求めた系列長の分布. 長さの最長値を 6 , 最大値を 60 と設定している.  リングには学習率を徐々に上げた後に減衰させる Noam の学習率スケジューラ (Vaswani et al. 2017)を, warmup のステップ数 4,000 で用いた. ## 4.4 ファインチューニング・評価コーパス 事前学習されたエンコーダの評価には, Penn Treebank (PTB) コーパス (Marcus et al. 1993) の訓練セットを用いてファインチューニングの後, 評価セットを用いてパープレキシティの値を計算する。コーパスは Mikolov et al. (2010)による前処理済みのものを用い,各単語は小文字化され,語彙サイズが 10,000 になるように低頻度語は未知語トークンに置換されている.PTB コーパスの統計情報を表 1 に示す. ファインチューニングは, 単語埋め込み層の重みのみをアップデートし, エンコーダ層の重みは固定される。最適なバッチサイズ 128 で訓練し, 開発セットのパープレキシティによるアーリー ストッピングにより訓練エポック数を決定した。最適化アルゴリズムには AdamW (Loshchilov and Hutter 2019), 学習率スケジューリングには Noam の学習率スケジューラ (Vaswani et al. 2017)を, warmup のステップ数 4,000 で用いた. 本実験の主眼は, さまざまな性質を持ったデータで事前学習されたエンコーダを比較することであるが, ベースラインとして, 事前学習をせずにランダムな重みのまま固定されたエンコー ダ (NoTrain) で評価した結果も提示する. ## 4.5 Probing タスク 言語モデリングのタスクにおけるエンコーダの本質的な役割とは,次の単語を予測するために,入力系列中の情報を集約することである。したがって,事前学習されたエンコーダが,自然言語への転用にどの程度効果的であるかは,エンコーダがどのように入力系列情報を集約するかと強く関連すると予想される。ここでは, 人工言語からエンコーダが学習した入力系列情報の集約パターンを分析するために, Probing タスクを導入する. ここで導入する Probing タスクは,エンコーダのあるタイムステップにおける出力ベクトルから,入力系列中のトークンの情報をどれだけ復元できるかを測るものである.Probing タスクに用いるデータとして,人工的な数字 ID の系列を以下の通り生成する。まず,系列長を 15 ~25 の範囲から一様にサンプルし, その数だけトークンを語彙サイズ 100 から一様にサンプル 表 1 Penn Treebank (PTB) コーパスの統計情報. することで, $100 \mathrm{~K}$ 系列生成する. このうち $90 \mathrm{~K}$ 系列を訓練セットとして用い, $5 \mathrm{~K}$ を開発セット, $5 \mathrm{~K}$ をテストセットとして用いる.モデルが解くべきタスクは,この系列をエンコーダで受け取り, 最後のタイムステップの出力ベクトルから, 入力系列中の前に出現したトークンを予測することである.最後のタイムステップからの相対位置が異なるポジションにあるトークンをそれぞれ予測させ,その精度を測ることで,エンコーダがどの位置の文脈情報をどの程度保存しているかを分析できる。 各ポジションにあるトークンの予測には,それぞれ異なる線形分類器を同時に学習する。本実験では,最後のタイムステップからの相対位置が $[-9,-4,-3,-2,-1,0]$ にあるトークンを予測させた. ## 5 実験結果 本実験では,それぞれの設定について,異なる乱数シードでエンコーダを 3 つ事前学習し, さらにそれぞれのエンコーダから異なる乱数シードでファインチューニングを 3 回行い, 合計 9 つのモデルを評価した。事前学習しない NoTrain エンコーダに関しては, 異なるランダムな初期値で同様に 9 つのモデルを学習した. ## 5.1 単語分布の転移可能性 図 4 に,単語分布のみをモデリングした人工言語で学習したエンコーダと, ベースラインの結果を示す. 以下,それぞれの単語分布から,どのような知識が自然言語のモデリングに転移可能か議論していく. まず,NoTrain エンコーダはある程度,言語モデリングに有用なものになっていることを確認する. NoTrain との比較対象として,たとえば英語の PTB コーパスにおけるトライグラム言 (a) PTB データセットで評価したパープレキシティ. (b) Probing タスクの精度. 図 4 ランダムな重みを持つエンコーダ (NoTrain) と,単語分布をモデリングした人工言語 (Uniform, Zipf, LogLinear) で事前学習したエンコーダの, 転移学習と Probing タスクで評価した際の結果. 語モデルのパープレキシティを挙げると,設定にもよるが 180 前後の値6になる。したがって, NoTrain エンコーダの平均パープレキシティ $194.7 \pm 2.5$ (図 4a)は,言語モデリングの夕スクとしてある程度妥当な学習を行っている結果だといえる。 図 4b の Probing の精度をみると, NoTrain のエンコーダは 2 つ前のタイムステップまでのトークン情報を保持しており,言語モデリングにおいて次のトークンを予測するために,文脈情報を集約する役割を遂行できている。ランダムな重みでもタスクが解けることは非直感的ではあるが,学習されていない初期値のままのネットワークを含むモデルでも,比較的高い性能を達成できることが他のタスクやアーキテクチャでも観察されている (Pilault et al. 2019; Tay et al. 2021). 一方で,Uniform 言語は何ら有用な事前知識を与えない.Uniform 言語で事前学習したエンコーダは,著しく高いパープレキシティ $(338.6 \pm 21.4)$ を記録している.Uniform 言語は自然言語に類似した性質を持たないため,転移性能が高くないことは予想できるが,何かしらの事前学習を行ったにも関わらず NoTrain よりも著しく悪い性能を示す理由は自明でないかもしれない.このことについては,ランダムな系列を予測しようとする事前学習タスクの挙動を考えることで理解できる. Uniform 言語では, 全てのトークンが同確率で現れうるため, 事前学習におけるモデルの最適解は,全てのトークンを常に同確率で予測し続けることである。この場合, 出力が文脈に依存することはないため, 事前学習においてエンコーダは文脈情報を保持するような学習を行わない. 図 $4 \mathrm{~b}$ の Probing の精度を見ても, Uniform エンコーダの出力からは 1 タイムステップより前のトークンの情報を全く復元できないものになっていることから,事前学習の過程で文脈を保持しないような解に収束していると考えられる。 文脈情報が使えない Uniform エンコーダにとって, 転移先の言語モデリングにおける最適な戦略は,頻度の高いトークンを常に予測することである。このような学習がなされていることを確かめるために,PTB コーパスの開発セットに対して予測された最も確率の高いトークンの数を調査した(図 5).Uniform は頻度の高いトークンだけを主に予測している一方で,パープレキシティがある程度低い NoTrain や LogLinear エンコーダは, 頻度に関わらず幅広い種類のトークンを予測できている。このことは Uniform エンコーダが文脈情報を十分に活用できず,頻度の高いトークンを予測するような学習に陥っていることの証左となっている. Zipf 言語も, Uniform 言語と同じく, トークンが文脈に依存している形にはなっていないので,事前学習における挙動も単純であり得られる知識も限られているはずである。しかしながら, Zipf のパープレキシティ $(196.4 \pm 4.6)$ は Uniform (338.6土21.4) よりも著しく低く, Probing の精度からも文脈情報をある程度捉えている. Zipf 言語ではトークンの出現頻度に偏りがあるため, 最適な戦略は最高頻度のトークンを常に高い確率で予測し続けることである。単純な戦 ^{6}$ https://github.com/shayneobrien/language-modeling の実装を用いて算出 } (a) NoTrain. (b) Uniform. (c) LogLinear. 図 5 各エンコーダからの予測トークンの頻度を表したグラフ. グラフの横軸は, 10,000 種類あるトークンを頻度順に並べ, 50 個のビンに分けている. 略を学習すれば良いところは Uniform 言語と同じであるが,異なるのは学習時のパラメータの変化が比較的安定していることだと推測する。Uniform は,全てのトークンを常に同確率で予測し続ける最適戦略に収束したとしても,トークンの予測が当たることは稀なため,損失関数から得られる誤差は常に大きく,パラメータもランダムな方向に更新され続ける。一方 Zipf では,頻度の高いトークンを予測する戦略に落ち着いた場合に,実際に頻度の高いトークンを予測することに成功するため,パラメータの更新幅は少ない。これにより, Zipf エンコーダは初期値である NoTrain の重みから比較的変化の少ないパラメータに収束し,事前学習タスクが文脈情報を必要しないものとしても,文脈情報をある程度残していると考えられる。 最後に, LogLinear 言語は言語モデリングに有用な構造的知識を有していると考えられる. ここで取り上げる単語分布をモデリングした人工言語のうち, NoTrain $(194.7 \pm 2.5)$ に比べて有意に低いパープレキシティを全ての言語で示しているのは, LogLinear (183.2土5.8) だけである. LogLinear は他の分布と異なり, 文中のトークン間に統計的依存性が存在する. 統計的依存性が存在するということは,言語モデリングのタスクにおいて,文脈のトークンの情報を用いることで,次のトークンがある程度予測できるということである。したがって,事前学習時に LogLinear エンコーダは,文脈情報をエンコーダ出力に保持するような学習をし,それが自然言語の言語モデリングにおいても有用であると解釈できる.実際に,LogLinear エンコーダは Probing タスク(図 4b)において,他のエンコーダに比べて多くの文脈情報を保持するようなパターンを見せている. 以上の分析をまとめると, コーパス全体における単語の頻度分布情報は, 必ずしも自然言語に転移可能な知識とはならないこと,一方で文中のトークン間に統計的依存性が存在するという知識は, 自然言語のモデリングに転移可能な有用な知識であることが示唆された. ## 5.2 文構造の転移可能性 続いて, 文中における係り受け構造の転移可能性を分析する。図 6 に, Uniform 分布からトー クンのペアをサンプルし,Flat と Nesting の係り受け構造それぞれと組合せた人工言語で訓練したエンコーダと,自然言語である英語 (English) で訓練したエンコーダの結果を示す. まず,系列に係り受け関係を持つことが自然言語のモデリングに有用であることを議論する。 Uniform Flat $(183.7 \pm 5.6)$ は LogLinear $(183.2 \pm 5.8)$ と同程度のパープレキシティ, Uniform Nesting (168.8土4.3) はそれらに比べて低いパープレキシティを示している。系列内に係り受け関係を持つということは,あるトークンの存在をもとに,別のトークンの存在を予測できるということであり,これは LogLinear 言語同様,系列が統計的依存性を持つことを意味する。この結果は, LogLinear と異なる形の統計的依存性から得られる知識でも, 自然言語のモデリングに役に立つことを示している. 次に,入れ子構造の有用性を検証する。 Nesting $(168.8 \pm 4.3)$ が Flat $(183.7 \pm 5.6)$ を下回る値を示しており 7 , これは入れ子構造を持つことが,自然言語への転移学習により有用であることを示唆している。この理由について考えると, Probing タスクの結果(図 6b)では, Flat エンコーダの方が,Nesting よりも多く文脈情報を保持しているため,分布構造のみを持つ人工言語を比較した場合(5.1 節)と異なり, 文脈情報を残しやすいために言語モデリングの性能が高いという可能性は排除される. 単語モデリングにおける Nesting 構造の特徴を考えると, Flat に比べてトークンの配置パター ンが限られていることが挙げられるが, 入れ子構造の優位性は, こうしたより一貫性のある規則と,自然言語の文法との類似性に帰せられると考えられる。エンコーダの主たる役割は文脈情報の集約であると考えれば,入れ子構造を考慮してトークン同士の位置関係を残しつつ文脈 (a) PTB データセットで評価したパープレキシティ. (b) Probing タスクの精度. 図 6 係り受け関係をモデリングした人工言語 (Flat, Nesting) で事前学習したエンコーダと, 英語 (English) で訓練したエンコーダを, 転移学習と Probing タスクで評価した際の結果.  情報を集約するパターンが,自然言語に有用であるのだと考えられる。 最後に,自然言語で訓練したエンコーダ (English) に着目すると,一番良い転移性能 $(154.6$ $\pm 2.6)$ を発揮している. これは, ここで調べている構造を持った人工言語と, 自然言語から学習できる転移可能な知識には隔たりがあることを示している. Probing タスクの精度をみると, English エンコーダは文脈情報を近いものから遠いものまでよく捉えている。しかし,図にあげた 3 種類のエンコーダを比較したときに,パープレキシティの値と, Probing タスクの精度の間には一貫した傾向は見られない.このProbing タスクで捉えられる側面よりさらに細かい観点から,エンコーダの振る舞いを分析することが今後の課題となる. 以上の分析をまとめると, 単純な 2 トークン間の係り受け関係の構造は自然言語に転用可能な知識を与え, これはやはり文脈が次トークンの予測に役立つという統計的依存性が存在するからだと考えられる。構造に入れ子関係の制約がある場合はより転移性能が向上することから, トークン同士の位置関係に自然言語に類似性のある構造が認められる場合には, その知識も転移しうることが示された。これは, 転移可能な知識として位置情報を考慮した統計的依存性が存在することを示唆する。 ## 5.3 ランダム性の転移可能性 図 7 に, Bigram 言語のランダム性を調整するパラメータ $\alpha$ を変化させた場合の結果を示す. $\alpha=0.0$ では単語遷移が完全にランダムであり, $\alpha=10$ では遷移パターンが一意に決まる. $\alpha=0.0$ は Uniform 言語と等価であり,5.1 節で述べたように,系列中に統計的依存関係が存在しないため, そのデータからエンコーダは有用な情報を何も学習できない. 一方で, $\alpha=0.7$以上のときは,前のトークンから次のトークンを予測できる構造, つまり統計的依存関係が生じ, $\alpha=0.0$ のパープレキシティに比べて有意に低い値を示している. $\alpha=10$ のように,完全 (a) PTB データセットで評価したパープレキシティ. (b) Probing タスクの精度. 図 7 Bigram 言語のランダムさを表すパラメータ $\alpha$ を変化させて, 転移学習と Probing タスクで評価した際の結果. グラフの $\mathrm{x}$ 軸には, 遷移確率のパープレキシティ $(P)$ も共に示しており, これは遷移先のトークンが平均何通りあるうるか示す数として解釈できる。 に決定的な系列で事前学習した場合でも同様であり, このことから, 系列にランダム性があること自体は自然言語へ転移できる知識の学習に影響を及ぼさないと考えられる。 Bigram エンコーダのパープレキシティ值は, $\alpha=0.8$ で最低値を示している. この $\alpha=0.8$ の Bigram 言語は,特に自然言語に有用な特徵を持っているのだ万うか. $\alpha=0.8$ のランダム性を定量化した値として, Bigram 言語の遷移確率分布のパープレキシティを確認すると約 4,200 であり,これは自然言語のランダム性と比べてかなり大きい8. したがって,転移性能が良いのは,ランダム性の度合いが自然言語に似ているためではない。この点については,異なる $\alpha$ の値によってトークン予測における文脈情報の有用性が異なり,その結果学習されるエンコーダの文脈情報の集約パターンの違いが,パープレキシティに反映されていると考える。しかしながら Probing の結果(図 $7 \mathrm{~b}$ )では,パープレキシティに差のある $\alpha=0.8$ と $\alpha=1.0$ の間に目立った差は見られないため, 本実験の分析では捉えきれない要因がこの結果をもたらしている. この結果は,今回の転移学習において,エンコーダの性能に大きく影響を与える要素が事前学習データの構造であり, データの複雑性/多様性はその構造を学習するのに必要最低限あれば良いことを示していると解釈できる。 Bigram 言語においては, $\alpha$ の値がある程度大きくなると, 1 つ前の単語から次の単語がある程度予測できるという構造が生まれるが, $\alpha$ をれ以上大きくし, 系列が決定的になることでデータの多様性が減じても,構造自体は変わらない. また,構造の影響が大きいことを支持する結果として, Nesting 言語の語彙サイズを変化させた場合のパープレキシティを図 8 に示す. 語彙サイズがあまりにも小さい $(|V| \leq 100)$ 場合は, 大きい語彙サイズの場合に比べてスコアが悪化しているが, 語彙サイズが比較的小さい段階 $(|V|=1,000)$ で最良スコアに到達している. この 1,000 という語彙サイズは, 転移先の夕 (a) PTB データセットで評価したパープレキシティ. (b) Probing タスクの精度. 図 8 Uniform 分布を持った Nesting 言語の語彙サイズを変化させて, 転移学習と Probing タスクで評価した際の結果. ^{8}$ PTB コーパスの訓練セットでユニグラム言語モデルを作り, 評価セットでパープレキシティを計算した場合でもおおよそ 700 前後の値をとる. } スクにおける英語の語彙サイズ 10,000 に比べて,かなり小さい. おそらく, Nesting 言語の構造を,十分に一般化した形で学習するのに必要な語彙サイズが 1,000 であったのだと考える. この観察は,人工データを通じてモデルに帰納バイアスを埋め込む,という手法にある示唆を与える (Wu et al. 2021; Chiang and Lee 2022). 一般的に,機械学習,特にニューラルネットワークを基盤とするモデルは,データがあればあるほど良いという傾向にある.しかし,今回の結果は,モデルを構築したいドメインの意味論的な性質ではなく,構造的な性質をモデルに学習させ転移学習に活用する場合には,その構造を十分に学習できるだけのデータのみを確保すれば良い,ということを示唆している。 ## 6 おわりに 本研究では,人工言語からの転移学習を通じて,自然言語の言語モデリングを解くために転移可能な構造的知識とは何かを調べた。その結果, トークンの頻度分布, トークンの種類数, 系列のランダム性などの要素そのものによる,転移可能性への影響は限られており,系列中の統計的依存性が重要であることが分かった。特に,入れ子構造を持った Nesting 言語が,そうでない Flat 言語に比べて, 転移性能が高いことから, トークンがどの位置にあるトークンに依存しているかのパターンも,転移可能な知識として存在する。 位置を考慮した統計的依存性が存在するという知識は, たとえば, 「今日の天気は」という分かち書きされた文脈が与えられて次の単語を予測するとき,一つ前が助詞の「は」で,二つ前が「天気」であるということが大きな手がかりとなり,「晴れ」という単語を予測できる, というような知識である。言語モデリング,もしくは一般的な言語タスクを解くのに有用な事前知識として,位置を考慮したトークンの文脈依存性があることは直感的にも納得できる。また, これは今日の言語の表現学習アルゴリズム (Sinha et al. 2021a) が仮定している, 分布仮説 (Harris 1954) が成立する,という知識であるともいえる. Papadimitriou and Jurafsky (2020) は,楽譜データやプログラミングコードで事前学習したエンコーダが,自然言語モデリングに転用できることを示した,系列中の,位置を考慮した統計的依存性の観点から考えると, 楽譜中でメロディを形作る音符はしばしば近接しており, 局所的なパターンを形成している。また,プログラミングコードにも繰り返し用いられる構文が数多く存在する。これらの非自然言語データにも, 位置を考慮した統計的依存性が存在し, これが自然言語へ転移可能性をもたらしていると考えられる。 Artetxe et al. (2020) が示した, 転移元言語で訓練したエンコーダが, また異なる転移先言語にも転用できるという結果も,この言語に共通する統計的依存性が大きな役割を担っていると考えられる。しかし, 自然言語間での転移学習に関しては, 今回の研究では対象外とした, 意味空間の構造の共通性 (Mikolov et al. 2013; Lample et al. 2018; Artetxe et al. 2018) も少なから ず転移性能に寄与している可能性がありうる. また, 近年の研究によれば,言語データで訓練した多層 Transformer エンコーダが,他の自然言語のみならず, オフライン強化学習 (Reid et al. 2022) や, さまざまな計算タスク (Lu et al. 2022) に効果的に転用できることが知られている。このような転移学習についても,位置を考慮した統計的依存性が重要な役割をになっているのか,より複雑なトークン間の依存関係を捉えられるような事前知識を学習しているのか, または Transformer のアーキテクチャ, サイズ,層の数と転移可能性に何か関係があるのか,などの問いが残っている,言語から,また,言語への転移学習における, 転移されている知識についての更なる理解は, 今後の課題としたい. ## 参考文献 Arora, S., Li, Y., Liang, Y., Ma, T., and Risteski, A. (2016). "A Latent Variable Model Approach to PMI-based Word Embeddings." Transactions of the Association for Computational Linguistics, 4, pp. 385-399. Artetxe, M., Labaka, G., and Agirre, E. (2018). "A Robust Self-learning Method for Fully Unsupervised Cross-lingual Mappings of Word Embeddings." In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 789-798. Artetxe, M., Ruder, S., and Yogatama, D. (2020). "On the Cross-lingual Transferability of Monolingual Representations." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4623-4637. Blei, D. M., Ng, A., and Jordan, M. I. (2003). "Latent Dirichlet Allocation." Journal of Machine Learning Research, 3, pp. 993-1022. Chi, E. A., Hewitt, J., and Manning, C. D. (2020). "Finding Universal Grammatical Relations in Multilingual BERT." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 5564-5577. Chiang, C. and Lee, H. (2022). "On the Transferability of Pre-trained Language Models: A Study from Artificial Datasets." In Proceedings of the 36th AAAI Conference on Artificial Intelligence, pp. 10518-10525. Chomsky, N. (1957). Syntactic Structures. De Gruyter Mouton. Church, K. W. and Hanks, P. (1989). "Word Association Norms, Mutual Information, and Lexicography." In Proceedings of the 27th Annual Meeting of the Association for Computational Linguistics, pp. 76-83. Conneau, A., Khandelwal, K., Goyal, N., Chaudhary, V., Wenzek, G., Guzmán, F., Grave, E., Ott, M., Zettlemoyer, L., and Stoyanov, V. (2020). "Unsupervised Cross-lingual Representation Learning at Scale." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8440-8451. Conneau, A., Kruszewski, G., Lample, G., Barrault, L., and Baroni, M. (2018). "What You Can Cram into a Single \$\&!\#* Vector: Probing Sentence Embeddings for Linguistic Properties." In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics, pp. 2126-2136. Conneau, A., Wu, S., Li, H., Zettlemoyer, L., and Stoyanov, V. (2020). "Emerging Cross-lingual Structure in Pretrained Language Models." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 6022-6034. Devlin, J., Chang, M., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1, pp. 4171-4186. Doddapaneni, S., Ramesh, G., Kunchukuttan, A., Kumar, P., and Khapra, M. M. (2021). "A Primer on Pretrained Multilingual Language Models." ArXiv, abs/2107.00676. Dufter, P. and Schütze, H. (2020). "Identifying Elements Essential for BERT's Multilinguality." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, pp. 4423-4437. Harris, Z. (1954). "Distributional Structure." Word, 10 (2-3), pp. 146-162. Hupkes, D. and Zuidema, W. (2018). "Visualisation and 'Diagnostic Classifiers' Reveal how Recurrent and Recursive Neural Networks Process Hierarchical Structure (Extended Abstract)." In Proceedings of the 27th International Joint Conference on Artificial Intelligence, IJCAI-18, pp. 5617-5621. Karthikeyan, K., Wang, Z., Mayhew, S., and Roth, D. (2020). "Cross-Lingual Ability of Multilingual BERT: An Empirical Study." In International Conference on Learning Representations. Lample, G., Conneau, A., Ranzato, M. A., Denoyer, L., and Jegou, H. (2018). "Word Translation without Parallel Data." In International Conference on Learning Representations. Liu, Y., Gu, J., Goyal, N., Li, X., Edunov, S., Ghazvininejad, M., Lewis, M., and Zettlemoyer, L. (2020). "Multilingual Denoising Pre-training for Neural Machine Translation." Transactions of the Association for Computational Linguistics, 8, pp. 726-742. Loshchilov, I. and Hutter, F. (2019). "Decoupled Weight Decay Regularization." In International Conference on Learning Representations. Lu, K., Grover, A., Abbeel, P., and Mordatch, I. (2022). "Frozen Pretrained Transformers as Universal Computation Engines." In Proceedings of the 36th AAAI Conference on Artificial Intelligence, pp. 7628-7636. Marcus, M. P., Santorini, B., and Marcinkiewicz, M. A. (1993). "Building a Large Annotated Corpus of English: The Penn Treebank." Computational Linguistics, 19, pp. 313-330. Mel'čuk, I. (1988). Dependency Syntax: Theory and Practice. State University Press of New York. Mikolov, T., Karafiát, M., Burget, L., Cernocký, J. H., and Khudanpur, S. (2010). "Recurrent Neural Network Based Language Model." In Proceedings of Annual Conference of the International Speech Communication Association, pp. 1045-1048. Mikolov, T., Le, Q. V., and Sutskever, I. (2013). "Exploiting Similarities among Languages for Machine Translation." ArXiv, abs/1309.4168. Papadimitriou, I., Chi, E. A., Futrell, R., and Mahowald, K. (2021). "Deep Subjecthood: HigherOrder Grammatical Features in Multilingual BERT." In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 2522-2532. Papadimitriou, I. and Jurafsky, D. (2020). "Learning Music Helps You Read: Using Transfer to Study Linguistic Structure in Language Models." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, pp. 6829-6839. Pilault, J., Park, J., and Pal, C. (2019). "On the Impressive Performance of Randomly Weighted Encoders in Summarization Tasks." ArXiv, abs/2002.09084. Press, O. and Wolf, L. (2017). "Using the Output Embedding to Improve Language Models." In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 2, Short Papers, pp. 157-163. Ravfogel, S., Goldberg, Y., and Linzen, T. (2019). "Studying the Inductive Biases of RNNs with Synthetic Variations of Natural Languages." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1, pp. 3532-3542. Reid, M., Yamada, Y., and Gu, S. S. (2022). "Can Wikipedia Help Offline Reinforcement Learning?" ArXiv, abs/2201.12122. Ri, R. and Tsuruoka, Y. (2022). "Pretraining with Artificial Language: Studying Transferable Knowledge in Language Models." In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 7302-7315. Sinha, K., Jia, R., Hupkes, D., Pineau, J., Williams, A., and Kiela, D. (2021a). "Masked Language Modeling and the Distributional Hypothesis: Order Word Matters Pre-training for Little." In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 2888-2913. Sinha, K., Parthasarathi, P., Pineau, J., and Williams, A. (2021b). "UnNatural Language Inference." In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing, pp. 7329-7346. Tay, Y., Bahri, D., Metzler, D., Juan, D.-C., Zhao, Z., and Zheng, C. (2021). "Synthesizer: Rethinking Self-Attention in Transformer Models." In Proceedings of the 38th International Conference on Machine Learning, pp. 10183-10192. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., and Polosukhin, I. (2017). "Attention Is All You Need." In Proceedings of the Advances in Neural Information Processing Systems 30. Wang, A., Singh, A., Michael, J., Hill, F., Levy, O., and Bowman, S. R. (2019). "GLUE: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding." In International Conference on Learning Representations. White, J. C. and Cotterell, R. (2021). "Examining the Inductive Bias of Neural Language Models with Artificial Languages." In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing, pp. 454-463. Wu, Y., Rabe, M. N., Li, W., Ba, J., Grosse, R. B., and Szegedy, C. (2021). "LIME: Learning Inductive Bias for Primitives of Mathematical Reasoning." In Proceedings of the 38th International Conference on Machine Learning, pp. 11251-11262. Zanette, D. H. and Montemurro, M. A. (2005). "Dynamics of Text Generation with Realistic Zipf's Distribution." Journal of Quantitative Linguistics, 12, pp. 29-40. Zipf, G. K. (1949). Human Behavior and the Principle of Least Effort. Addison-Wesley Press. ## 付録 ## A その他の自然言語からの実験結果 一般的に, 言語間転移学習においては, 転移先と転移元の言語が,同じ語族に分類される,また,語彙の多くが共通しているなど,類似点が多い言語である場合に,より高い性能が発揮される傾向にある (Artetxe et al. 2020)。ここでは, 事前学習に用いる自然言語の違いによる, エン (a) PTB データセットで評価したパープレキシティ. (b) Probing タスクの精度. 図 93 種類の自然言語, 英語 (English), スペイン語 (Spanish), 日本語 (Japanese) で事前学習したエンコーダを,転移学習で評価した際の結果. コーダの転移性能の差について調査するため, 英語に加えて,スペイン語,日本語のデータを用いた実験結果を示す.事前学習に用いるデー夕は,英語のデー夕同様,Wikipedia Dumpを用いた。スペイン語の文は Moses ${ }^{9}$ ,日本語の文は MeCab10 を用いて単語に分割した。 ここで,下流タスクは PTB コーパスを用いており,転移先の言語は英語となる.英語と,転移元の言語の近さに関して,スペイン語は, 英語と同じインド・ヨーロッパ語族に属し, 日本語は,英語と比較的離れた言語である,従って,転移先言語との近さは,英語 > スペイン語 $>$ 日本語,の順で近いといえる。しかしながら,図 9 に示す通り,下流タスクのパープレキシティの値, Probing タスクの精度のどちらにおいても, これらの言語で訓練されたエンコーダの間に,顕著な差は認められない,今回の実験において,エンコーダが系列データから学習できる統計的規則に関しては, これらの言語の間に差はないということが分かる. ## B各単語分布と係り受け構造を組合せた人工言語からの実験結果 図 10 は,各種分布と係り受け構造を組合せた人工言語で訓練したエンコーダを評価した結果である。基本的に,5 節で提示したデー夕と同様の傾向を示している。まず, 5.2 節で観察された通り,トークンのペアをサンプルする分布に関わらず,Flat の構造より,入れ子状の制約を持つ Nesting の方が低いパープレキシティを記録している。また,同じ構造を持った人工言語内で比較した際に,5.1 節で見られたように, Uniform > Zipf > LogLinear の順でパープレシティが低くなることが確認できる。 LogLinear と Nesting との組合せは, LogLinear の構造たけを持つ言語と,Uniform Nesting 言語のどちらよりも,低いパープレキシティを一貫して示し  図 10 トークンのペアをサンプルする際の分布 (Uniform, Zipf, LogLinear) と, 係り受け関係 (Flat, Nesting) を各種組合せた人工言語で事前学習したエンコーダを,転移学習で評価した際の結果. ており, LogLinear と Nesting の構造は, それぞれ相補的に異なる有用な知識を与えていると考えられる。 ## 略歴 李凌寒 : 2023 年東京大学大学院情報理工学系研究科博士課程終了. 同年よ り LINE 株式会社所属. 博士 (情報理工学). 言語処理学会, ACL 各会員. 鶴岡慶雅:2002 年東京大学大学院工学系研究科博士課程修了. 同年より科学技術振興事業団研究員. 2006 年マンチェスター大学研究員. 2009 年北陸先端科学技術大学院大学准教授. 2011 年より東京大学大学院准教授. 2018 年より東京大学大学院教授. 博士 (工学). 言語処理学会, 情報処理学会, 人工知能学会, 各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# BERT を用いた日本語の意味変化の分析 小林 千真 $\dagger \cdot$ 相田 太一 ${ }^{\dagger}$ 岡 照晃 $\dagger \cdot$ 小町 守 $\dagger$ } 単語が持つ意味や用法は時代とともに変わっていく. BERT から獲得した単語べク トルをグルーピングし, 時期ごとの使用率を算出することで意味変化を分析する方法がある.英語の意味変化分析では既にいくつかこの類の手法が導入されているが, 日本語への適用はまだない。また,英語での分析では手法ごとの比較が行われてい ない。そのため, 日本語に適用した際の性能や各手法がどのような条件で有効か明 らかになっていない,そこで本研究では日本語を対象に,以下の実験を行なった。現代語で事前訓練された BERT の文脈依存べクトルに, 辞書を使った教師ありのグ ルーピング手法とクラスタリングを使った教師なしのグルーピング手法を適用し比較した。また BERT を通時的なコーパスで fine-tuning L, BERT の文脈依存べク トルが捉える通時的な特徴を分析した。比較と分析の結果, 充実した辞書がない場合,クラスタリングを使った手法が意味変化を捉えるのに適していることが分かっ た. さらに, 現代語 BERT を通時的なコーパスで fine-tuning することで古い時期特有の表現により適した意味変化の分析が可能になることが分かった。一方で,古 い時期に出現しない現代特有の用法がある場合には,意味変化を捉えられないケー スも存在した。 キーワード : 意味変化, 日本語, BERT, 単語ベクトル ## Analysis of Semantic Changes in Japanese Words Using BERT \author{ Kazuma Kobayashi ${ }^{\dagger}$, Taichi Aida ${ }^{\dagger}$, Teruaki OKa ${ }^{\dagger}$ and Mamoru Komachi ${ }^{\dagger}$ } The meaning and usage of words change over time. One method of analyzing these changes is to group word tokens by their meanings in each period and compare their usage rates. Several methods of this kind have been used to analyze semantic changes in English, but they have not yet been applied to Japanese. In addition, the methods have not been compared. Therefore, the performance of this method on Japanese and the conditions under which each method is effective have not been clarified. Thus, we conducted the following experiments on Japanese words. We applied a supervised grouping method using a dictionary and an unsupervised grouping method using clustering to context-dependent vectors in the BERT model and compared them. We also pre-trained BERT on a diachronic corpus and analyzed the diachronic features captured by the context-dependent vectors in BERT. The results of the comparison  and analysis showed that in the absence of a well-developed dictionary, the clusteringbased method was better able to capture semantic change. Furthermore, it was found that fine-tuning with a diachronic corpus can be used to capture semantic changes in older periods. However, it was also found that some words with usages that did not appear in the older period could not always be captured. Key Words: Semantic Change, Japanese, BERT, Word Embeddings ## 1 はじめに 「渋滞」という単語はもともと(1)(2)のように「物事が停滞する」の意味で使用されていた. しかし自動車交通網の発展に伴い, 1960 年代頃から (3)(4)のように「交通渋滞」を意味する単語となった。 (1) 英國ハ年來斯好慣アリテ内閣ノ更迭セルタメ國務ノ澀滯ヲ來シタルフ甚ダ少シト雖モ (1862 年, 朝比奈知泉『政黨内閣は果して國家永久の長計なるか』, 国民之友 $\langle 29\rangle)^{1}$ (2) 課長の一人や局長の半分ぐらみ缺けてみたとて事務に澁滯を來たすやうな憂ひもあるまいが、 (1925 年, 古島一雄『役人となつての感想』, 太陽 $\langle 1925-9\rangle)^{2}$ (3) 出勤したニューヨーク市民は、ふたんより多いくらいで、道路は大渋滞、という有様になったのです。 (1975 年, 磯村尚徳『ちょっとキザですが』) $)^{3}$ (4) 高速道路入口付近で渋滞にまき込まれた。 (1984 年, 安部公房『方舟さくら丸』) 4 単語の意味や用法は時代や社会環境とともに現在も変化し続けている。意味変化と呼ばれるこの現象には,さまざまなパターンがある.前述の「渋滞」は意味する対象が狭くなる変化(物事が停滞する $\rightarrow$ 交通渋滞)だったが,より広い対象を意味するように変わるパターンもある.例えば明治・大正期の用例を見ると「柔軟」は「羊の毛の柔軟」や「柔軟なるゴム」のように物理的な柔軟性を表していた. しかし現代に向かうにつれ「柔軟な姿勢」のように概念的なやわらかさを表す用例が増加する。 さらに,良い意味・中立的な意味だった言葉が悪い意味で使われる変化もある。「貴様」は中・近世では敬意で用いられていたが, 近世末になると目下の者への罵りの言葉に変化した。 Bloomfield (1933)によると意味変化の要因には文化的な要因と言語的な要因の 2 つがある.  文化的な要因は,新技術の登場や病気の大流行など社会的・文化的な事柄に起因し,急激な変化となることが多い,近年の例では,自然現象,ビールの銘柄や会社の名前だった「コロナ」が数年で「新型肺炎」としての用例を急増させた。一方,言語的な要因は特定の事柄に起因しない規則的な変化で,比較的ゆっくりと起こる。例えば(5)6に示す「やばい」のように,否定の意味を持っていた単語が反対の肯定的な意味で使われ出すパターンが言語的な要因である。こうした意味変化は特定の言語に限らず,さまざまな言語で起こっている (Hamilton et al. 2016a; Hou et al. 2020; Rodina and Kutuzov 2020). (5) 物色時間は, 長いとやばいので 3 分くらいだ。 (1977 年, 警察庁『警察白書』) ${ }^{5}$ 6)やばいぐらい可愛くて、かっこよくて・・あなたのしぐさ、言葉、表情一つ一つにトキメイてしまう。 (2008 年, Yahoo!ブログ $)^{6}$ 上記の(1)~6は語義が変化した典型的な意味変化である.本研究では,語義の変化と意味変化という単語を使い分ける。語義の変化は文字通り,ある語義から別の語義への変化であるが意味変化は語義の変化に限らない,例えば「尋常」という単語の変化を見ると,語義は「普通」 のままだが否定的な文脈で出現する用法の変化が起きている。このようにある単語特有(または少数の単語で特有)の用法の変化も含めた広い概念として意味変化を扱う。一方で,ある単語特有でない用法の変化は意味変化としない. 例えば,「複合名詞としての出現が増加(減少)」 や「近代から現代にかけて動詞の基本形を名詞的に扱う用法7が消失」のような変化は意味変化としない. 本研究における意味変化前後の語義や用法の判断基準は 4.6 節で述べる.以降,意味変化前の語義や用法を原義, 意味変化後の語義や用法を転義とよぶ. 意味変化は主に言語学や辞書学で研究されてきた。また, 言語を社会的な観点から捉える点で社会学でも扱われる (Geeraerts 2015). 工学分野では自然言語処理が情報工学的知見を活かし,意味変化している単語の自動検出(意味変化検出)手法の開発や, 意味変化を分析する統計的手法を提案している。これらの手法を使えば,これまで認知されてこなかった過去に意味変化していた語の発見, 現在起こりつつある変化の捕捉, 未来に起り得る変化の予測が可能になる. 意味変化検出の研究では, 出現文脈に依存しない単語べクトルを用いた手法と出現文脈に依存した単語べクトルを用いた手法が提案されている8,9. 出現文脈に依存しない単語べクトル獲  得手法の代表例は word2vec である. word2vec は 1 つの単語を出現文脈によらず 1 つのべクトル値で表現する。出現文脈に依存しない単語べクトルを用いた手法を本稿では文脈非依存の手法とよぶ. 一方, 出現文脈に依存した単語べクトルの獲得手法では BERT や ELMo が代表的である,BERT や ELMo は同じ単語でも出現文脈が変われば,文脈に応じた異なるべクトル值で表現する. 出現文脈に依存する単語べクトルを用いた手法を本稿では文脈依存の手法とよぶ.意味変化の検出が目的であれば,文脈非依存の手法でも問題ない. しかし文脈非依存の手法は対象単語のあらゆる出現(語義・用法)をまとめて 1 つのべクトルで表現する。そのため,個々の出現を十分に議論できず,意味変化を語義や用法ごとに観察する意味変化の分析(1検出)には適さない。一方, 文脈依存の手法では対象単語のすべての出現に 1 つずつ異なる值のべクトルを作成する。これを何かしらの手法でグルーピングすれば,出現文脈に応じた語義や用法のクラスタが形成されることが期待できる。 それらのクラスタの出現比率を時期ごとに算出することで語義レベルで意味変化を観測できる.本稿の目的は意味変化の分析であるため,文脈依存の手法を採用する. 意味変化の分析手法として Hu et al. (2019) と Giulianelli et al. (2020) は英語ドメインで文脈依存の手法を提案している。いずれの研究でも対象単語の文脈依存ベクトルを集めてグルーピングし,各グループの時期別出現比率を比較することで意味変化の分析を行なっている.両者の違いはグルーピング手法である. Hu et al. (2019) は辞書に書かれた語義と例文を教師デー夕とし, 近傍法で語義クラスタの形成を試みた. Giulianelli et al. (2020) は教師データを使わず,教師なしクラスタリングのみで用法クラスタの形成を試みた。いずれも英語が対象のため,他言語での有効性は検証されていない. 自然言語処理における意味変化の研究には,通時的なコーパスと対応する期間中に意味変化した語のリストおよび実際に意味変化したことを示す論拠が必要であるが,計算機上で利用できる資源の整備が進んでいないのが現状である。意味変化検出の研究は Schlechtweg et al. (2020) が公開したデータセットに含まれる英語, ラテン語, ドイツ語, スウェーデン語が主流であるが, 日本語では共通に研究利用できる言語資源が限られ,利用範囲にも制限があるため, 研究も前述の語族に比べて少ない. 日本語で意味変化検出を行なった研究として Aida et al. (2021) があり,数単語の分析を行なっているが,単語の各語義や用法を中心とした包括的な分析は行われていない. 以上を踏まえ, 本研究では日本語を対象とし, 以下の実験と分析を行なった. 意味変化の分析の観点で, Hu et al. (2019) の辞書を用いた手法と Giulianelli et al. (2020)のクラスタリングを用いた手法の日本語ドメインでの有効性を複数条件下で比較・検証した。また, BERT や ELMo の文脈依存の手法の意味変化検出では, fine-tuning で検出精度が向上する報告があるため (Kutuzov and Giulianelli 2020), 現代語で事前学習された BERT を fine-tuning し,その影響を検証した。以上の結果,日本語では辞書を使った手法よりも教師なしクラスタリング,特に $k$-means 法を使った手法が意味変化の分析に適していることが分かった. また, 現代語 BERT を fine-tuning することで,現代では使わないような古い用法でも意味変化を捉えるようになること,その一方で古い時期では使われていなかった現代の用法がノイズになるケースがあることが分かった。 本研究の貢献は以下の 3 つである. - 2 つの意味変化分析手法(辞書ベースの教師ありグルーピング手法 (Hu et al. 2019) と教師なしのクラスタリング手法 (Giulianelli et al. 2020))の比較と適用方法の検討 - 日本語を対象とした BERT によるべクトル化を用いた意味変化の詳細な分析 - fine-tuning が文脈依存の手法に及ぼす影響の調査 ## 2 関連研究 ## 2.1 文脈依存の単語ベクトル化 現在までに様々な単語のべクトル化手法が提案されているが, 単語タイプごとに 1 つのべクトル値を与える方法と単語トークンごとに出現文脈に応じたべクトル値を与える方法の 2 つに大別できる。単語タイプごとにベクトル化する方法として word2vec (Mikolov et al. 2013) や fastText ${ }^{10}$ があるが,これらの手法は単語の出現文脈に応じたべクトル化をしない文脈非依存な手法である。本研究では語義や用法の変化を扱うために出現文脈ごとに異なる値のべクトルを得る必要があり, 単語タイプごとのべクトル化手法(文脈非依存の手法)は適さない.以降,本節では単語トークンごとに出現文脈に応じたべクトルを与える手法(文脈依存の手法)について先行研究を紹介する. Schütze (1998)では, 単語の共起情報を利用して文脈依存べクトルを獲得する手法を提案した.彼らはそのベクトルをクラスタリングすることで語義クラスタを形成し, 語義曖昧性解消や情報検索での利用を試みた. Erk and Padó (2010)の事例ベースモデル (Exemplar-Based Models) や Melamud et al. (2016) の LSTM と多層パーセプトロンを使用した手法も提案されている.近年では,深層学習を用いた事前学習済み言語モデルから文脈依存な単語ベクトルを獲得する手法が注目されている。代表的な事前学習済み言語モデルとして, ELMo (Peters et al. 2018), BERT (Devlin et al. 2019), GPT (Radford and Narasimhan 2018)などがある. GPT では前の文脈のみを考慮した学習が行われるのに対し, ELMo や BERT では前後の文脈を考慮した学習が行われる。本研究の実験は, 文全体を利用できる設定で行うため, 文脈依存な単語べクトルを獲得する手法として, ELMo や BERT がより適している. ELMo は双方向の LSTM を用いたモデルであり,BERT は Transformer (Vaswani et al. 2017)のエンコーダ部分を用いたモデ  ルである.最近の研究では ELMo や BERT から獲得した文脈依存な単語べクトルが語義曖昧性解消タスクで有効であり, 特に BERT が良い性能を発揮することが示されている (Pilehvar and Camacho-Collados 2019). 本研究で用いる意味変化の分析手法では, 単語を語義や用法ごとにグルーピングする必要があるため,語義曖昧性解消タスクで有効な BERT を用いた文脈依存の手法が効果的であると考える。 ## 2.2 単語の意味変化検出 本研究では単語の意味変化の分析が主目的であるが, 盛んに研究されているのは意味変化検出である。初期には単語の頻度情報を用いたナイーブな検出手法 (Cook and Stevenson 2010) が提案され,その後,深層学習モデルを使った手法が数多く提案された.深層学習モデルを用いた意味変化検出手法は大きく文脈非依存の手法と文脈依存の手法に分けられる.文脈非依存の手法では, word2vec (Mikolov et al. 2013)を用いた手法がある.この手法では word2vec の「学習データ全体の特徴に応じて入力単語をべクトルに変換する」という性質を利用する。通時的なコーパスを時期ごとに分け, 時期ごとの学習データを作り, 各時期でモデルを構築することで,各モデルは各時期の特徴を捉えた単語べクトルを獲得する。そして,各時期のモデルから対象単語の単語べクトルを獲得し,比較することで意味変化検出を実現する.時期ごとにモデルを作るため,モデル間でベクトル空間に対応がなく, ベクトルを直接比較できない。この問題を解決するいくつかの方法が提案されている。 ある時期 $p$ のモデルを訓練する際, 初期値として時期 $p$-1のモデルを使う手法 (Kim et al. 2014), 線形変換によって各時期の間でべクトル空間の対応付けを行う手法 (Hamilton et al. 2016b), 全時期同時に学習することで対応付けを必要としない手法 (Yao et al. 2018) である.手法により捉えられる意味変化の傾向や得意不得意の差はあるものの,共通して多義語を語義別に観察できない問題がある. 文脈依存の意味変化検出手法では ELMo (Peters et al. 2018) や BERT (Devlin et al. 2019)を用いる. ELMo や BERT の「入力文字列の文脈に応じた単語べクトルを獲得する」という性質を利用する。この性質により,対象単語のベクトルそのものから語義や用法を区別することが期待できるため,時期を無視して1つの事前学習済みモデルに対象単語が出現する文脈を入力する方法を取ることができる.1つの事前学習済みモデルだけを用いるので,文脈非依存の手法で行なったようなモデルごとのべクトル空間の対応を取る必要はない. この文脈依存の単語べクトルを用いた手法として, ベクトルをクラスタリングする手法 (Matej et al. 2020; Kutuzov and Giulianelli 2020; Giulianelli et al. 2020; Montariol et al. 2021; Karnysheva and Schwarz 2020), クラスタリングは行わず, ベクトル同士のコサイン距離をぺアワイズで計算する手法 (Kutuzov and Giulianelli 2020), ベクトルを平均化して単語タイプのベクトルとしてコサイン類似度を計算する手法 (Martinc et al. 2020) がある. 意味変化検出タスクではペアワイズでの比較や単語ベクトルを平均化する手法が高い性能を報告しているが,クラスタリングのようなグルーピン グを用いる手法以外では数值結果が出力されるのみであり,解釈が困難である.そのため本稿の対象とする意味変化の分析には単語べクトルのグルーピングを使った手法が適している. ## 3 意味変化の分析手法の手順 本稿で用いた意味変化分析の手順を述べる。手順は大きく 4 つの段階に分けられる。まず BERT を用いて対象単語のすべての出現をべクトル化する(3.1 節),得られたべクトル集合を辞書を用いた手法とクラスタリングを用いた手法のそれぞれでグルーピングする(3.2 節)。通時的なコーパスに付与された年代情報から, どの年代にどのクラスタがどの程度現れるのか,割合の変化を算出することで変化を観察する(3.3 節).JSD を用いた意味変化度合いのスコアリングによって定量的な評価を行う(3.4 節). ## 3.1 BERT による単語ベクトルの獲得 文脈依存の単語ベクトル(以下,単に単語ベクトルと呼ぶ)の獲得方法として, 本研究では BERT を用いる。入力は文字列をトークナイズしたトークン列である。トークナイザでは,まず文字列を単語区切りに分割する。その後, 単語をサブワード単位に分割し, 最終的なトークン列へと変換する。複数文を入力する場合, 文間に $[\mathrm{SEP}]$ という特殊トークンを置く. BERT の訓練は Masked Language Modeling (MLM) と Next Sentence Prediction (NSP)によって行われる.MLM では入力するトークン列の一部を [MASK] という特殊なトークンで置き換えて BERT に入力し, [MASK] に置き換えられた元のトークンを当てるタスクを行う.NSPでは 2 文を入力し,それらが連続した文か否かを当てる夕スクを行う,BERT は注意機構とこれらの訓練(特に MLM)により,前後文脈を考慮したトークンのベクトル化を実現している. 文脈依存の単語ベクトルは,対象単語を含む文字列を BERT に入力し,対象単語に対応するトークンの隠れ層の最終層から獲得する。対象単語が複数のトークンからなるときには, 対象単語を構成するトークンのベクトルの平均を使用する. 本研究において,コーパスは文章とその文章が出現した時期がセットで記述された状態を想定する(詳細は 4.1 節),ある単語 $w$ を含む文 $i$ を BERT に入力して得られるべクトルを $v_{i}^{w}$ とする(簡単のため同一文内に同一単語が 1 度しか現れない前提で定式化している), $v_{i}^{w}$ と文 $i$ に付与された出現時期の情報 $p$ で,タプル $t_{i}=\left(v_{i}^{w}, p\right)$ を作る。コーパス全体から網羅的に $t_{i}$ を作成し, $t_{i}$ を要素とする集合を $S^{w}=\left.\{t_{1}, t_{2}, \ldots, t_{m}\right.\}$ とする. ## 3.2 単語ベクトルのグルーピング グルーピング手法として, Hu et al. (2019)の辞書を用いた教師あり手法と, Giulianelli et al. (2020)の $k$-means 法を用いた教師なしクラスタリング手法を使用する. ここで述べるグルーピ ングは, 前述した対象単語 $w$ の集合 $S^{w}$ を部分集合 $\left.\{S_{1}^{w}, S_{2}^{w}, \ldots, S_{k}^{w}\right.\}$ に分割する操作として定式化できる( $k$ はグループ数). ## 3.2.1辞書を用いた教師ありのグルーピング Hu et al. (2019)の辞書を用いた手法を説明する. 図1のように, 辞書には各単語の語義に対応する例文が付与されていることが期待される ${ }^{11}$. 辞書において $n$ 個の語義を持つ単語 $w$ に対して, 語義に対応する語義べクトル集合 $\left.\{g_{\text {語義 } 1}^{w}, g_{\text {語義 } 2}^{w}, \ldots, g_{\text {語義 } n}^{w}\right.\}$ を作る. 語義べクトルは, 語義に付与された例文を BERT に入力し 3.1 節のベクトル化と同様の手法で対象単語のベクトルを作成する。ただし,1つの語義に複数の例文が付与されている場合は各例文から作成した対象単語のベクトルの平均を語義べクトルとする. そして, $S^{w}$ の各要素 $t_{i}=\left(v_{i}^{w}, p\right)$ の $v_{i}^{w}$ と集合 $\left.\{g_{\text {語義 }}^{w}, \ldots, g_{\text {語義 } n}^{w}\right.\}$ の全要素とのユークリッド距離を計算し, 最も近い語義ベクトルの語義に $t_{i}$ を割り当てていくことで, グルーピングを行う。この操作を対象単語 $w$ の 1 つずつ(1 単語夕 ## JapanKnowledge Lib ## 日本国語大稺典 ## じゅう-たい [ジフ・]【渋滞】 ## 解説 $\cdot$ 用例 〔名〕 (1) ものごとがすらすらとはかどらないこと。とどこおって進行しないこと。 (2) 道路が混雑して、車両などがなかなか先へ進めないこと。 *弟〔1993)〈古井由吉〉「渋滞に苦しみながら、東西に走る幾筋もの道路を陸橋でまたぎ」 図 1 ジャパンナレッジ『日本国語大辞典』に掲載されている「渋滞」の単語説明の一部 .  ## イプごと)に行う. 図 1 の「渋滞」を具体例にとると, 「(1)ものごとがすらすらとはかどらないこと。」(語義 1) に 5 つ例文が付与されており,これらを用いて ${ }^{12} 「(1)$ もこごとがすらすらとはかどらないこと。」(語義 1)の語義べクトル $g_{\text {䟚滞 } 1}^{\text {義 }}$ が作られ,「 $(2)$ 道路が混雑して、車両などがなかなか先へ進めないこと。」(語義 2 )も付与された 1 つの例文から語義べクトル $g_{\text {語滞 } 2}^{\text {㼁 }}$ が作られる. 以降,この手法を辞書ベースの手法と呼ぶ. ## 3.2 .2 単語ベクトルのクラスタリング Giulianelli et al. (2020)のクラスタリングによるグルーピング手法について述べる. $k$-means 法ではあらかじめクラスタ数 $k$ を指定する必要があるが, 適切なクラス夕数は自明ではない. そこで,クラス夕数 $k$ を $2 \sim 10$ として計 9 回, $S^{w}$ の各要素 $t_{i}=\left(v_{i}^{w}, p\right)$ の $v_{i}^{w}$ に対して $k$-means 法を適用する。その後, 各クラスタリング結果のシルエットスコア (Peter 1987) を算出し, シルエットスコアが最大となるクラスタリング結果 1 つを最終的なクラスタリング結果とする. シルエットスコアは,クラスタリングの結果を評価する指標であり,次のように算出する。ある 1 つのべクトル $v_{i}^{w}$ に対して,$v_{i}^{w}$ が属するクラスタの $v_{i}^{w}$ 以外のべクトルとの距離平均をクラス夕内凝集度 $a_{i}$ とする. $v_{i}^{w}$ が属するクラス夕以外で $v_{i}^{w}$ に最も近いクラスタ内の全べクトルと $v_{i}^{w}$ との距離の平均を乘離度 $b_{i}$ とする. ここで $v_{i}^{w}$ に最も近いクラスタとは, 各クラスタの全べクトルと $v_{i}^{w}$ の距離平均が最も小さいクラスタである. $v_{i}^{w}$ のスコア $s_{i}$ を以下の式で算出する. $ s_{i}=\frac{b_{i}-a_{i}}{\max \left.\{b_{i}, a_{i}\right.\}} $ 以上の方法で算出されるスコア $s_{i}$ を全 $v_{i}^{w}$ で求め, 平均した値がシルエットスコアである. $k$-means 法とシルエットスコアの距離関数はどちらもユークリッド距離を用いた。辞書ベースの手法と同様に,この操作を対象単語 $w$ の 1 つずつ(1 単語タイプごと)に行う.以降, この手法をクラスタリングベースの手法と呼ぶ. ## 3.3 意味変化の観測 $S^{w}$ の各要素に付与されている時期の情報 $p$ とグルーピング結果を用いて, 時期ごとのクラス夕の割合を算出できる。図 2 は,グルーピング結果から時期ごとのクラス夕割合への変換の簡略図である。図 2 (左) では 3.2 節で述べたグルーピングの結果に加え, 時期の情報を点の形状で明示的に図示している。これらの情報から各時期でのクラスタの割合が算出できる。図 2 (右)は各時期でのクラスタの割合を示した積み上げ棒グラフである,図 2 では,クラスタ A の比率が減少し, クラスタ $\mathrm{C}$ の比率が増加していることがわかる. クラスタ $\mathrm{A}$ が原義に対応し,  図 2 単語ベクトルのグルーピング結果と時期の情報から, 各クラスタの時期ごとの割合を示す棒グラフへの変換を示した図.BERT から獲得した単語ベクトルをグルーピングし(左),各時期でのクラスタの割合を算出する(右)。 クラスタ $\mathrm{C}$ が転義に対応しているならば,意味変化を捉えたとみなす。このようにグルーピングの結果と時期ごとのクラスタの割合の変化によって意味変化を分析していく. ## 3.4 JSD を用いた意味変化度合いのスコアリング 分析に定量的観点を取り入れるため Jensen-Shannon divergence (JSD) (Lin 1991) を用いて意味変化度合いのスコアを求める. JSD は 2 つ確率分布の類似度を測る指標であり, 確率分布 $Q, R$ に対して, 以下のように定義される. $ J S D(Q \| R)=\frac{1}{2} K L D(Q \| M)+\frac{1}{2} K L D(R \| M) $ ただし, $M=\frac{1}{2}(Q+R)$ である. JSD は 2 の確率分布が似ているほど小さく,似ていないほど大きな値となる。また 2 つの確率分布が全く同じとき 0 をとる。意味変化度合いのスコア $C S$ を以下のように定義する. $ C S=\max _{P} J S D\left(u_{p} \| u_{p-1}\right) $ ただし, $P$ は対象とした時期の列(図 2 では(時期 1 , 時期 2 , 時期 3 )に対応)であり, $u_{p}$ は時期 $p$ における各クラスタの比率(図 2 では図 2 (右) の各時期の積み上げ棒グラフに対応)である ${ }^{13}$. JSD は文脈依存の意味変化検出で多く用いられるスコアである (Matej et al. 2020; Kutuzov and Giulianelli 2020; Montariol et al. 2021). JSD はクラスタの比率の変化を捉えることができ  るが,捉えたい語義や用法ごとにクラスタが形成されているかを捉えることはできない.そのため「意味変化を捉えているならば JSD が高い」とはいえても,「JSD が高いならば意味変化 隣り合う時期間で大きく変化しているが,その 2 つのクラスタは原義と転義に対応していないとする。このような場合でも JSD は大きな値を取るが各クラスタが原義と転義に対応していないので意味変化は捉えられていない. ## 4 実験設定 ## 4.1 対象コーパス 日本語の意味変化分析を行うため, 幅広い年代にわたる日本語コーパスとして, 国立国語研究所の『日本語歴史コーパス』14の一部である近代雑誌コーパスと『昭和・平成書き言葉コーパス』15として構築中の雑誌(『中央公論』『文藝春秋』)データを追加したものを用いた、コーパス全体は 1874 年から 1997 年までに刊行された雑誌からなるが,本研究では文量のバランスを考慮し, 1898 年から 1997 年の 100 年間を 25 年区切りで分割し, 全体を 4 つの時期に分けた. 複数時代にまたがるため,コーパス内で同じ単語でも表記が異なる単語(例:新字体 vs 旧字体)がある。これらの単語をまとめて処理するために,コーパス全文を語形代表表記出現形に変換した,国語研が整備するコーパスは出現形(表層形), 語形, 語彙素(辞書見出し)の階層構造を持つが,語形代表表記出現形は活用語の変形を保ったまま表記を統一できるレイヤー で,日本語歴史コーパスでは語形の下で管理されている。例えば,「栄える」の仮定形「栄えれ (ば)」が旧字で「榮えれ」と表記されていた場合, 語彙素にまとめると「栄える」になるが活用の情報が失われる.語形(出現形)に変換した場合「サカエル」と「サカエレ」といった活用の違いは区別されるが,語形はカタカナ表記のため同音異義語が区別されないまま BERT の入力となる. 語形代表表記はカタカナ表記で管理されている語形の下で当該語形の代表的な出現形表記情報を基本形で 1 つ保持しており,それを活用展開したのが語形代表表記出現形である. 書字形出現形を語形代表表記出現形に置換することで,書字上の差異を統一しつつ活用変化を残した正規化が行える。「栄えれ」の例であれば「栄えれ」も「榮えれ」も語形代表表記出現形に置き換えれば「栄えれ」に正規化される。 以上の処理を施したコーパスを以降対象コーパスと呼ぶ.対象コーパスは $7: 1$ に分割し,それぞれ学習データとテストデータとした。  ## 4.2 使用した BERT 本研究では, 現代語で訓練を行なった現代語 BERT と, 対象コーパスで現代語 BERT を fine-tuning した近代語 BERT の 2 種類の BERT を使用した. 現代語 BERT Hugging Face で公開されている東北大の日本語版 BERT ${ }^{16}$ (以下, 現代語 BERT)を使用した. ${ }^{17 この ~ B E R T ~ モテ ゙ ルは ~} 12$ 層からなり, hidden states は 768 次元, attention heads は 12 個という構成である。学習は元の BERT (Devlin et al. 2019) と同様, 1インスタンスあたり 512 トークン, 1 バッチあたり 256 インスタンスで 100 万ステップ学習されている. マスク言語モデルは whole word masking を使用して, トークン単位ではなく単語単位で学習が行われている。単語区切りは MeCabを用いており,辞書は によってサブワード化することでトークナイズしている。学習は TensorFlow Research Cloud が提供する Cloud TPU の v3-8 instance を使用して行われている. 対象コーパスのテストデータを使用した MLM タスクのマスク箇所の予測の正解率は 0.578 である. 近代語 BERT 対象コーパスの学習データを用いて, 我々が現代語 BERT を fine-tuning Lたモデルである. fine-tuning のタスクは事前学習と同様である. 主な実験結果を報告する近代語 BERT の fine-tuning は,1インスタンスあたり 512 トー クン,1バッチあたり 32 インスタンス,学習率は 1e-4で 310 万ステップ行なった。訓練で使用した GPU は NVIDIA Tesla P40 である. 対象コーパスのテストデータを使用した MLM タスクのマスク箇所の予測の正解率は 0.652 であり, 現代語 BERT よりも 0.08 高い. 近代語 BERT は fine-tuning の学習環境の違いで結果に差が出る可能性がある.この点を考慮して, fine-tuning に関する分析(7.2節)では, パラメータや学習環境を変えて学習したモデルを 6 種類も作成し, 5 種類以上のモデルで同じ傾向が確認できた分析結果のみ報告する.各 fine-tuning の学習条件は学習率と使用 GPU を変えた 6 パターンで行なった. 学習率は 2e-5, 3e-5, 5e-5 の 3 パターン, GPU は NVIDIA Tesla P40 と NVIDIA TITAN RTX の 2 種類である。また学習は 15 万ステップ行なった。主な実験結果を報告する近代語 BERT と比べ学習ステップ数が少ないが,学習デー夕を $2 \sim 3$ epoch 学習するため, 十分と判断した (Kutuzov and Giulianelli 2020). これら以外の条件は主な実験結果を報告する近代語 BERT と同様である.  ## 4.3 辞書 辞書べースの手法では, 日本で最大規模の辞書の一つである『日本国語大辞典』(ジャパンナレッジ版) 19 を使用した。語義に付与されている例文に漢文が含まれていた場合は,漢文を削除し,その他の文を使用した。 ## 4.4 ツール 本研究での $k$-means 法の実装には scikit-learn (version 0.24.2)20 を用いた. $k$-means 法は初期値に依存して結果が異なる手法であるが, scikit-learnのデフォルトの実装として初期値依存性を軽減するため以下の配慮がなされている。各 $k$ で, $k$-means 法を 10 回適用する. 10 個の結果のうち, 各べクトルから最近傍のセントロイドへの距離の合計が最も小さいクラスタリング結果を最終的な結果として採用する。セントロイドの初期値は $k$-means++ (Vassilvitskii and Arthur 2006) を用いて決定する。 $k$-means++ はセントロイドを選ぶ際に,セントロイドの初期位置が離れるように選ばれる確率が高くなる手法である. ## 4.5 対象単語 近代コーパスス ${ }^{21}$ で意味変化した単語のリスト (間淵, 小木曽 2021) から対象単語を選定した. ただし,対象コーパス内のそれぞれの時期で 10 回以上出現していることを条件とし,最終的に 34 単語を選定した. 漢語が 30 単語, 外来語が 3 単語, 和語が 1 単語である. これらは全て, 活用がない単語で, 具体的には以下である. 普段, 障害, 柔軟, 結構, 要領, 免許, 優勝, 非常,全然, 渋滞, ポイント,管制,故障,精々,教養,教授,適当,心持ち,普通,尋常,広告, 了解, 住居, 設備, 風俗, 愛人, 自然, 女性, モデル, 貴族, ボタン, 情報, 主婦, 婦人. ## 4.6 評価 2 つの意味変化分析手法と JSD によるスコアリングをそれぞれ以下の方法で評価した. 意味変化分析の定性評価以下の 2 点を確認することで定性判断を行なった.たたし,主な定性判断は第一著者 1 人で行い,解釈が難しいと判断した一部の単語では共著者の複数人で判断を行なった。 (1) 原義と転義に対応するクラスタがそれぞれ存在するか (2)(1)の結果に基づき, 図 2 (右)の積み上げ棒グラフにおいて, 原義と転義の増減は妥当か 判定の具体的な手順と基準は以下の通りである。まず単語べクトル集合に PCA を適用  して 2 次元空間にプロットする. 2 次元空間上で各クラスタの全体像を把握するように要素を選出する,選出した要素に対応する文を読み,文内での対象単語の用例を「原義」,「転義」,「原義または転義とは別の用例」,「意味解釈が困難」の 4 種類に分類し,確認した用例の中で最も多かったものをクラスタのラベルとする。ただし,選出する要素数は各クラスタで最低 10 とする。意味の理解が困難な用例が多い場合や複数のラベルが拮抗している場合には著者が十分であると判断するまで要素を選出する。(2)では (1)の結果, 原義と転義のラベルが存在した時に, 隣り合う時期間で原義のクラスタの出現比率が $10 \%$ 以上減少し,かつ,転義のクラスタの出現比率が $10 \%$ 以上増加した際に,妥当な増減と判断する。原義と転義は間淵,小木曽 (2021)の付録「近現代日本語意味変化分析のための単語データセット頻度表」に掲載されている「原義」と「転義」を基準とする。 ## JSD を用いた意味変化度合いのスコアリングの評価 日本語では意味変化の度合いをスコアリ ング・順位付けしたデータセットが存在しないため, 英語やドイツ語などの意味変化検出タスクで使用されている相関係数による評価ができない。そこで本研究では, 意味変化した単語に加え, 意味変化していない単語にも 3.4 節の手法を適用し, recall@ $k$ を求め ることで評価した, recall@ $k$ は,モデルの予測結果の上位 $k(>1)$ 個にいくつ正解が含ま れるかを算出する (recall) 手法である。 さまざまな $k$ で recall を算出することで,特定 の $k$ で recall を算出するよりもモデルの予測の全体像が把握できる。本研究では,意味変化した 34 単語と意味変化していない 34 単語 22 の計 68 単語に辞書べースとクラスタリ ングベースの手法を適用し,意味変化度合いのスコア $\mathrm{CS}$ を算出,そして recall@ $k$ を求 めた。ここで間淵らのリストに含まれる意味変化した単語を正解,コーパスからランダ ムに選択した単語を不正解とした。 ## 5 辞書ベースの手法とクラスタリングベースの手法の比較 本節では意味変化の定性判断による結果と JSD を用いた意味変化度合いのスコアを評価した結果を辞書ベースの手法とクラスタリングベースの手法で比較する.BERT モデルには現代語 BERT を用いた,意味変化していない単語の 1 つである「羞恥」は, 本研究で用いた BERT のトークナイザでは未知語として処理されたため,どちらの手法も適用できなかった。辞書の例文のうち漢文を含む例文を削除した上で 2 つ以上の語義で例文が存在する場合のみ,辞書べー スの手法を適用できる。この条件を満たさない単語が対象単語で 6 単語, 意味変化していない単語で 14 単語存在した。  ## 5.1 実験 定性判断による意味変化の判定意味変化していない単語への意味変化の判定は意味をなさないため,意味変化の判定は対象単語 34 単語のみで行なった. 定性判断による意味変化の判定結果を表 1 に示す。辞書べースの手法が適用できない単語を除いた場合,意味変化を捉えられた単語は辞書べースの手法では 18 単語, クラスタリングベースの手法では 17 単語であった。 一方で辞書べースの手法を適用できなかった単語も含めると,意味変化を捉えることができた単語は辞書べースの手法では 18 単語, クラスタリングベースの手法では 20 単語であった。 意味変化を捉えることができた単語は, 辞書べースの手法が適用可能な場合, 辞書べー スの方が多く,適用できない場合ではクラスタリングベースの方が多くなった. JSD を用いた意味変化度合いのスコアリング意味変化した単語と, していない単語のうち,辞書べースの手法が適用できない 20 単語を除いた 48 単語で CS を算出した. この設定では辞書ベースの手法で扱えない単語は取り除いているので, 辞書べースの手法を優遇した設定である。その結果を図 3(a) に示す。図 3(a) から,辞書べースの手法を適用できなかった単語を全て除いた場合, 全ての $k$ で辞書べースの手法がクラスタリングベースの手法と同等かそれ以上の結果となっていることが分かる. 次に, 辞書べースの手法が適用できない単語のうち意味変化していない単語(14 単語) を除いた 54 単語で CS を算出した。この設定では辞書の手法を適用できない単語も対象としているため, 適用可能性も性能に含まれる。 その結果を図 3(b) に示す. 図 $3(\mathrm{~b})$ から,kの値が小さい時はほぼ同等だが,全体としてはクラスタリングベースの手法がよ & 教養教授適当心持ち \\ 表 1 辞書ベースの手法とクラスタリングベース手法の比較結果. 意味変化を捉えることができた単語は $\lceil\checkmark 」$ ,意味変化を捉えることができなかった単語は「×」とした,辞書べースの手法が適用できなかった単語には下線を引いた。 (a) 辞書ベースの手法が適用可能な意味変化していない単語(20 単語)と辞書ベースの手法が適用可能な対象単語 (28 単語)の計 48 単語に対してそれぞれの手法を適用した時の recall@ $k$ の結果。 (b) 辞書ベースの手法が適用可能な意味変化していない単語 (20 単語)と全ての意味変化した単語(34 単語)の計 54 単語に対してそれぞれの手法を適用した時の recall@ $k$ の結果。 図 3 辞書ベースの手法とクラスタリングベースの手法の recall@k の比較結果. 対象単語のうち辞書の手法を適用できなかった 7 単語を除いた 27 を $k$ 最大値とした. り高い recall 值となっている. 以上の結果から, 全体としてはクラスタリングベースの手法が優れた結果となった. ただし,辞書ベースの手法が適用可能な単語に絞ることで辞書ベースの手法がより優れているといえる. ## 5.2 分析 どちらの手法でも形成されたクラスタは用法の違いを捉えているケースが多かった。「尋常」 のように,その単語特有の用法の変化が起きた単語ではクラスタが原義や転義を直接捉えていたが,語義の変化が起きた単語では用法の特徴でクラスタが形成され,クラス夕内の用例を解釈すると間淵, 小木曽 (2021)の原義や転義に当てはまるというケースがほとんどであった. また 5.1 節の結果から,クラスタリングベースの手法が有効であることが分かった. しかし, それぞれの手法で意味変化を捉えられる単語は異なった。この違いを表 1 のブロックごとの特徵に注目し分析した結果,以下のことが分かった。 $k$-means 法を用いたクラスタリングベースの手法では, 対象コーパスにおいて原義と転義の出現頻度に大きな差がある時に,意味変化を捉えられない. 辞書べースの手法では, 使用した辞書の語義分類が原義や転義に対応していないケースや語義に付与されている例文に問題があるケースで意味変化を捉えられない。また人間でも原義と転義の違いを判断するのが難しい単語や,コーパス内で片方の語義や用法がごくわずかしか出現しない単語ではどちらの手法でも意味変化を捉えることができない.以下では,上記の分析について具体例を交えつつ紹介する. 図 4〜図 7 の散布図において,丸印は 1898 1922 年,四角印は $1923 \sim 1947$ 年,十字印は 1948 (a) 辞書ベースの手法における (b) 辞書ベースの手法における 「教養」単語ベクトルの散布図。「教養」クラスタの比率変化。 (e) 辞書ベースの手法における (f) 辞書べースの手法における 「適当」単語ベクトルの散布図。「適当」クラスタの比率変化。 図 4 「教養」と「適当」の結果. ~1972 年, 星印は 1973 1997 年であることを示している。辞書べースの手法ではクラスタを構成する要素が必ずしも辞書の語義と一致していなかった。 その場合でも辞書の語義通りのラベルを付与した。クラスタリングベースでは,クラスタを主に構成する要素の語義や用法をラベルとして付与した. 辞書ベースの手法で意味変化を捉えるケース辞書ベースの手法でのみ意味変化を捉えられた単語は,「教養,教授,適当,精々」の 4 単語だった. どの単語も原義と転義の出現頻度に大きな差があった単語である。「教養」と「適当」を例として紹介する。 教養 「教養」は「教育する」という語義から「広い知識(教養がある・ない)」という語義へ変化した。 まず辞書べースの手法の結果を述べる。図 4(a)の語義 0 が転義であり,語義 1 が原義である。図 4(b) から語義 1 の出現頻度が減少し, 語義 0 の出現頻度が増加していることが 分かる. 次にクラスタリングベースの手法の結果を述べる。図 4(c) のクラスタ 1 は「教養学部」 や「教養課程」のような複合名詞で構成されており, クラスタ 0 は主に複合名詞以外の用例で構成されている,図 4(d) をみてもどちらかのクラスタが増減した様子は確認できない. 適当「適当」は「適切・妥当」という語義から「いい加減」という語義に変化した. まずは辞書べースの手法の結果を述べる。図 $4(\mathrm{e})$ の語義 2 が転義で, 語義 0 が原義である. 図 $4(\mathrm{f})$ から語義 0 が減少し, 語義 2 が増加していることが分かる. 次にクラスタリングベースの手法の結果を述べる。図 $4(\mathrm{~g})$ のクラスタ 0 は主に「適当な」 や「適当に」のような後ろに被修飾語が続く用例で構成されており,「適切・妥当」という語義の用例が多く,わずかに「いい加減」という語義の用例もあった。クラスタ 1 は主に「適当する」という形で出現した「適切・妥当」という語義の用例から構成されていた。クラスタ 2 は「不適当」という形の用例から構成されていた。クラスタ 3 は主に 「適当である」や「が適当。」ように後ろに被修飾語が続かない形の用例で構成されており, これらは「適切・妥当」という語義だった。図 $4(\mathrm{~h})$ から, クラスタ 1 とクラスタ 3 が減少し, クラスタ 0 が増加する傾向が見られた. クラスタ 0 は原義と転義の両方からなるが,原義が圧倒的に多いため,意味変化を捉えられていないと判断した。 クラスタリングベースの手法で意味変化を捉えるケースクラスタリングベースの手法では意味変化を捉えられたが,辞書べースの手法では意味変化を捉えられなかった単語は「普通,尋常, ボタン, 広告, 了解, 住居, 設備」の 7 単語だった. これらの単語は原義または転義に対応する語義が辞書に存在しなかったケース, 原義と転義に対応する語義は存在したが例文が十分・適切でなかったケースである。具体例として「普通」と「広告」を紹介する。 普通「普通」は「広く一般に通ずる」という語義から「通常・並」という語義に変化した. まず辞書べースの手法の結果を述べる。図 5 (a) の語義 0 は転義であり, 語義 1 が原義である。各クラスタにはかならずしも辞書の各語義が示す用例が属しておらず,各クラス夕の違いは不明暸だった. 明確な違いとして, 「普通選挙」や「普通教育」といった「普通十名詞」の形で出現する用例のほとんどは語義 0 に属していたが,語義 1 にはそれ以外の用例も同程度属していた. 図 $5(\mathrm{~b})$ をみても語義 0 がやや減少し, 語義 1 がやや増加しており,意味変化を捉えられていない. 次にクラスタリングベースの手法の結果を述べる。図 5(c)のクラスタ 2 は「普通選挙」 や「普通教育」といった「普通+名詞」という形の用例で構成され,これらは「広く一般に通ずる」の語義である.クラスタ 0 と 1 はどちらも「通常・並」の語義であったが, それぞれ用法に特徵があった。クラスタ 0 は「普通の」や「普通は」という形の用例で, クラスタ 1 は主に「〜のが普通」という形の用例で構成されていた. 図 $5(\mathrm{~d})$ からクラス (a)辞書ベースの手法における(b) 辞書ベースの手法における 「普通」単語ベクトルの散布図。「普通」クラスタの比率変化。 (c) クラスタリングベースの手法における「普通」単語ベクトルの散布図。 (g) クラスタリングベースの手「広告」単語ベクトルの散布図。「広告」クラスタの比率変化。法における「広告」単語べクト ルの散布図。「広告」単語ベクトルの散布図。「広告」クラスタの比率変化。法における「広告」単語べクト ルの散布図。 (d) クラスタリングベースの手法における「普通」単語べクトルの散布図。 (h) クラスタリングベースの手法における「広告」単語べクトルの散布図。 (e) 辞書ベースの手法における (f) 辞書ベースの手法における 図 5 「普通」と「広告」の結果. 夕 2 が減少し, クラスタ 0 とクラスタ 1 が増加していることがわかる.このことからクラスタリングの手法では意味変化を捉えたと判断した。複合名詞以外で「広く一般に通ずる」の語義の出現がほとんど見られなかったため, 用法の変化(複合名詞か否か)を捉えることでことで意味変化を捉えたといえる。 広告「広告」は「世間に広く知らせること」の語義から「商業広告」の語義に変化した. まず辞書ベースの手法の結果を述べる。図 $5(\mathrm{e})$ の語義 0 は原義で,語義 1 が転義である.語義 1 に属している用例は全て「商業広告」の語義だか,語義 0 にも「商業広告」の語義の用例が多く属している。図 $5(\mathrm{f})$ をみても意味変化を捉えている様子は確認できない.次にクラスタリングベースの手法の結果を述べる。図 $5(\mathrm{~g})$ のクラスタ 1 は「世間に広く知らせること」の語義と「商業広告」の語義の両方の用例が同程度属していた. クラス夕 0 はほとんど「商業広告」の語義の用例で構成されていた。図 $5(\mathrm{~h})$ からクラスタ 1 が (a) 辞書ベースの手法における (b) 辞書べースの手法における 「障害」単語ベクトルの散布図。「障害」クラスタの比率変化。 $ \begin{aligned} & \text { 語義0: 航空機への指示 } \\ & \text { 語童1: 制限すること } \\ & \text { 語義2: 支配すること } \end{aligned} $ (c) クラスタリングベースの手法における「障害」単語ベクトルの散布図。 (d) クラスタリングベースの手法における「障害」単語ベクトルの散布図。 (h) クラスタリングベースの手法における「管制」単語べクトルの散布図。 (e) 辞書ベースの手法における (f) 辞書ベースの手法における 「管制」単語ベクトルの散布図。「管制」クラスタの比率変化。 (g) クラスタリングベースの手法における 図 6 「障害」と「管制」の結果. 減少し,クラスタ 0 が増加していることがわかる. クラスタ 1 は「商業広告」の用例を多く含んでいたが,「世間に広く知らせること」の用例も十分に含んでいると判断し,意味変化を捉えたと判断した。 どちらの手法でも意味変化を捉えるケースクラスタリングベースの手法と辞書べースの手法のどちらでも意味変化を捉えたのは「普段, 障害, 柔軟, 結構, 要領, 免許, 優勝, 非常, 全然, 渋滞, ポイント,管制,故障,心持ち」の 14 単語である。 これらの単語は, 上で述べた辞書や出現頻度の問題がない単語である。具体例として,「障害」と「管制」を紹介する。 障害「障害」は「妨げること」という語義から「精神・身体に支障があること」という語義に変化した。 まず辞書べースの手法の結果を述べる。図 $6(\mathrm{a})$ の語義 1 は原義で,語義 0 は転義である.語義 1 には主に「妨げること」の語義の用例, 語義 0 には主に「精神・身体に支障があ ること」の語義の用例がそれぞれ属しており, どちらも適切な割り当てがなされている.図 6(b) から語義 1 が減少し, 語義 0 が増加していることがわかる.次にクラスタリングベースの手法の結果を述べる。図 6(c) のクラスタ 1 は主に「妨げること」の語義の用例で構成されており,クラス夕 0 は主に「精神・身体に支障があること」の語義の用例で構成されている。図 6(d) からクラスタ 1 が減少し, クラスタ 0 が増加していることがわかる. 管制 「管制」は「管理統制」という語義から「航空管制」という語義に変化した。 まず,辞書べースの手法を説明する。図 6(e) の語義 1 は「制限すること」,語義 2 は「支配すること」の語義であり,これらは原義である.語義 0 は「航空機への指示」の語義であり,転義である,各語義に割り当てられた用例も概ね語義に従うものたっった.図 $6(\mathrm{f})$ から語義 1 と語義 2 を合わせた割合が減少し, 語義 0 が増加していることがわかる.次にクラスタリングベースの手法を説明する。図 $6(\mathrm{~g})$ のクラスタ 2 は「灯火管制」,クラスタ 0 とクラスタ 1 は主に「管制官」,クラスタ 3 は「報道管制」,クラスタ 5 は「軍事管制」,クラスタ 6 は「哭器管制装置」や「管制領域」など上記以外の複合名詞,クラス夕 4 には「管制する」という動詞的な用法,クラスタ 7 はその他の用例でそれぞれ構成されていた。このように各クラスタはほとんど用法ごとに形成されていた。また複合名詞が一括りにならず,特定の複合名詞ごとにクラスタ化されるケースが多かった。原義・転義に注目すると,クラスタ $0 , 1$ は転義に対応する語義の用例がほとんどだった. クラス夕 6 にも「航空管制」や「管制塔」といった転義に該当する語義の用例がやや見られたが,原義に該当する語義の用例も多く見られた。一方クラスタ $2 , 3 , 4 , 5$ は原義に相当する。図 6(h) からクラスタ $2 , 3 , 4 , 5$ ,を合わせた割合が減少し,クラスタ 0,1 を合わせた割合が増加していることがわかる。このことから意味変化を捉えたと判断した. どちらの手法でも意味変化を捉えられなかったケース辞書べースの手法とクラスタリングベー スの手法のどちらでも意味変化を捉えられなかった単語は「精々, 風俗, 愛人, 自然, 女性, 乇デル,貴族,情報,主婦」の9 単語であった. これらの単語は上で述べた辞書や出現頻度の問題がどちらもある単語や,対象コーパスで意味変化を捉えるのが難しい単語であった.具体例として,「風俗」と「自然」を紹介する。 風俗「風俗」は「風習・習俗」という語義から「風俗営業」という語義に変化した. まず辞書べースの手法の結果を述べる。図 7 (a) の語義 0 は「風習」の語義で原義に対応する.語義 1 は「身振りや態度」の語義で,語義 2 は「みなり」の語義, 語義 3 は「風俗歌」の略である。これらは今回対象とした年代よりも前に使われていた古い語義であり, コーパス内ではほとんど存在しない。辞書には「風俗営業」の略という語義が掲載されていたが,その例文は載せられていなかった。そして語義 0 と語義 1 に属する用例に明確な違いは見つけることができなかった. 図 $7(\mathrm{~b})$ から語義 0 が減少し, 語義 1 が増加し (a) 辞書ベースの手法における 「風俗」単語ベクトルの散布図。「風俗」クラスタの比率変化。 (b) 辞書ベースの手法における (c) クラスタリングベースの手ルの散布図。 (f) 辞書ベースの手法における 「自然」 ククラスタ0:風爻 ถラスタ 1 -風習+風浴営業 (少量) (d) クラスタリングベースの手法における「風俗」単語べクトルの散布図。 (h) クラスタリングベースの手 (e) 辞書ベースの手法における 「自然」単語ベクトルの散布図。 (g) クラスタリングベースの手 (h)法における ルの散布図。法记おける「自然」単語ベクトルの散布図。 図 7 「風俗」と「自然」の結果. ていることがわかる。しかし,各語義が原義や語義に対応しておらず,割り当てられている用例にもクラスタを説明する特徴が見られないため意味変化を捉えたとはいえない.次にクラスタリングベースの手法の結果を述べる。図 7(c)のクラスタ 0 は原義に対応する用例がほとんどである。クラスタ 1 はわずかに転義に対応する用例を含んでいたが, ほとんど原義に対応する用例で構成されていた。.図 7(d) からクラスタ 0 が減少し,クラスタ 1 が増加しているが,意味変化は捉えていないと判断した. 自然「自然」は「自ずから」という副詞や形容詞としての用法を持つ語義から名詞としての用法を持つ「nature」の訳語へと変化した. まず辞書べースの手法の結果を述べる。図 $7(\mathrm{e})$ の語義 0 は「誰にも抵抗なく受け入れられるさま、わざとらしくないさま」, 語義 1 は「もしかして、ひょっとして」, 語義 2 は 「おのずから、ひとりでになるさま」, 語義 3 は「物事が偶然に起こるさま」, 語義 4 は「人 の作為によらずに存在するものや現象」, 語義 5 は「自然の事、自然の時、の略。」,語義 6 は「物事がうまくはかどるさま」,語義 7 は「天からうけた性。物の本来の性。」という語義である.語義 $0,2 , 4$ が転義,語義 5 が原義,にそれぞれ該当し,それ以外の語義は今回対象としているコーパスで注目していない語義である。 図 7 (f) から, 語義 0 が減少し, 語義 4 と語義 5 がわずかに増加していることがわかる。語義の割り当てと実際の用例が対応しておらず,割合が変化した語義と原義・転義が対応していない.よって意味変化を捉えていない。 次にクラスタリングベースの手法の結果を述べる。図 $7(\mathrm{~g})$ のクラスタ 0 は名詞として出現する用例が多く,転義に対応している.クラスタ 1 は副詞や形容詞の用例が多く,原義に対応している. しかし, 図 7 (h) から明確な増減は確認できないため, 意味変化を捉えていないと判断した. 1898 年〜1923 年の段階で転義に対応する用例も十分に出現したため,語義の割合の変化が生じなかったと考える。 ## 5.3 評価の信頼性の検証 人手評価の信頼性を検証するために評価の検証実験を行なった.実験協力者には著者を含めず,日本語がネイティブの情報科学専攻の大学院生 2 名に依頼した.対象単語は「障害,貴族,教養, 広告, 普段, 尋常, 風俗, 適当」の 8 単語とした。表 1 における 4 つのブロックから 2 単語ずつランダムに抽出した単語である。 クラスタへのラベル付けの判断は 4.6 節よりも簡易化した,具体的には,クラスタのセントロイド(辞書の手法では語義ベクトル)の近傍 10 個のベクトルを抽出し,そのべクトルに対応する文で対象単語の意味を解釈することで各クラスタのラべルの判定を行なった。その他の条件は 4.6 節と同様である. 評価実験の結果,実験協力者の二者間では最終的な結果は全ての単語で一致し,著者が 4.6 節「意味変化分析の定性評価」で述べた方法で行なった結果と比較すると, 8 単語中 7 単語で一致した.著者との結果が異なった単語は「広告」であり,実験協力者は辞書べースでもクラスタリングベースでも意味変化を捉えていないと判断し,著者は辞書べースでは捉えていないが,クラスタリングベースでは捉えたたと判断した.「広告」は転義を原義で読み変えても文脈的におかしくないケースが多く,判断が難しい単語である. 5.2 節の分析でも「広告」のクラスタリングの結果は明膫でなく,判断が難しい単語であるといえる。この実験結果から人手評価は必ず一致すると言えないものの,8 単語中 7 単語で一致することが確認でき,本研究による評価にはある程度の妥当性があることを検証した。 ## 6 辞書ベースとクラスタリングベースの手法の妥当性の検討 5 節から, 日本語の意味変化分析では, 辞書ベースの手法よりもクラスタリングベースの手 法のほうが有効であることが分かった.しかし,辞書やクラスタリング手法の違いが結果に影響することが考えられる.そこで本節では,辞書及びクラスタリング手法を変えて追加実験を行い,5 節での辞書とクラスタリング手法の選択の妥当性について検討した. ## 6.1 辞書ベースの手法における辞書の違いによる影響 5 節で辞書ベースの手法は, 辞書の語義分類が原義や転義に対応していない場合や語義に付与されている例文が十分・適切でない場合に意味変化を捉えられないという結果になった. 先行研究で対象としていた英語では, 例文が豊富で大規模な辞書である Oxford English Dictionary (OED) があるが, 全ての言語でそのような辞書が存在するとは限らない. 日本語では, 5 節の実験で使用した「日本国語大辞典」が最も大規模な辞書の 1 つだが,古い年代の例文が付与されているケースが多かったり,例文が付与されていない語義があったり,そもそも原義または転義に対応する語義が載っていないといった問題があった. そこで,辞書の影響を確認するためにデジタル大辞泉(ジャパンナレッジ版)23を用いて辞書ベースの手法を適用し,日本国語大辞典を用いた場合と比較した。その結果を表 2 に示す. 表 2 から,使用する辞書を変えることで同じ辞書べースの手法でも結果が異なることがわかる.日本国語大辞典では 18 単語, デジタル大辞泉では 14 単語で意味変化を捉えた. 日本国語大辞典でのみ意味変化を捉えた単語は 5 単語あり, デジタル大辞泉でのみ捉えた単語は 1 単語たっった。この結果から, 日本国語大辞典の方が辞書べースの手法に適していることが分かる. デジタル大辞泉は,日本国語大辞典に比べ新しい例文が多かったが,語義の種類や例文の数は日本国語大辞典が豊富だったため, このような結果になったと考える。ここで,デジタル大辞泉を使うことで新たに検出できた単語「自然」を紹介する。 & 自然 \\ 表 2 日本国語大辞典とデジタル大辞泉の比較. 日本国語大辞典で辞書べースの手法を適用できなかった単語は下線, デジタル大辞泉で適用できなかった単語は波線を引いた。どちらの辞書でも適用できなかった単語は載せていない.  (a) デジタル大辞泉を用いた辞 (書ベースの手法における「自然」書単語ベクトルの散布図。 (b)デジタル大辞泉を用いた辞クラスタの比率変化。 (d) DBSCAN を用いたクラ (c) DBSCAN を用いたクラスタリングベースの手法における 「設備」単語ベクトルの散布図。 タリングベースの手法にお変化。 図 8 「自然」と「設備」の結果. 自然「自然」は「自ずから」という語義から「nature」の訳語へと変化した. 図 $8(a)$ の語義 0 , $3,5,7$ が転義に対応し, 語義 2 が原義に対応する. 図 $8(\mathrm{~b})$ から語義 0 が転義の中で大部分を占め, 単調ではないが, 増加していることがわかる。原義は徐々に減少していることがわかる. ## 6.2 クラスタリングベースの手法における $k$-means 法の有効性の確認 5 節の結果, $k$-means 法を用いたクラスタリングベースの手法では,コーパス内での原義と転義のどちらかの出現頻度が極端に少ない場合に意味変化を捉えられないことが分かった. そこで,原義と転義の出現頻度に大きな差がある場合にも適切にクラスタリングが期待できる手法として,密度べースのクラスタリング手法である DBSCAN (Ester et al. 1996)を用いた実験を行なった. DBSCAN の簡単な説明を述べる. DBSCAN では $\epsilon$ と minPts という 2 つのハイパーパラメータを設定する。 $\epsilon$ はクラスタ形成のための捜索半径で, minPts はクラスタ形成のために必要な最低要素数と考えることができる。次にDBSCAN で用いる操作について述べる。あるべクトル $p$ から半径 $\epsilon$ 以内にあるべクトルの数が $p$ 自身を含め minPts 個以上である場合に, $p$ の半径 $\epsilon$ 以内にあるべクトルのうち,まだクラスタに属していないべクトルを $p$ と同じクラス夕に属させる。この処理を操作 A とよぶ. 操作 A を踏まえ,アルゴリズムの説明に移る。まずランダムにベクトルを選び, 操作 Aを行う. 操作 A が条件を満たし, クラスタを形成した場合, そのクラスタ内で操作 Aが行われていないべクトルに対して操作 Aを行う.クラスタ内の全てのべクトルで操作 A が行われたとき,そのクラスタでの処理は終了する。 その後, 全べクトルの中から操作 A が行われていないべクトルをランダムで選び, 同様の処理を行うことで新たなクラスタを形成していく,全てのべクトルで操作 A が行われたとき,どのクラスタにも属して & \\ 表 3 クラスタリングベースの手法における $k$-means 法と DBSCAN の比較結果. 意味変化を捉えた単語は $\checkmark \downharpoonleft ,$ 意味変化を捉えなかった単語は「×」とした. いないべクトルを外れ値(クラスタを構成しないべクトル)とし,アルゴリズムは終了する. DBSCAN においても $k$-means 法と同様に, シルエットスコアが最大になるようにハイパー パラメータを調整した,実験結果を表 3 に示す。 $k$-means 法では 20 単語, DBSCAN では 10 単語,意味変化を捉えた。 このことからクラスタリングベースの手法において DBSCAN よりも $k$-means 法が適切であることが分かる。これは, DBSCAN で外れ値として除外される用例が過剰に出現したことが大きな原因である。DBSCAN は,ハイパーパラメータに敏感であり,シルエットスコアによる調整が適切に機能しなかった可能性がある。また, DBSCAN に期待していた原義と転義で出現頻度に極端な差がある単語でも意味変化を捉えられていない. DBSCAN が形成したクラスタを確認すると,用法の中でも複合名詞でクラスタ化する傾向が強かった. DBSCANでうまくいかなった単語の具体例として「設備」を紹介する. 設備設備は「設置, 整備」から「建物, 機器」へと意味変化した単語である. 図 8(c)(d) から外れ値が圧倒的に多いことがわかる。 クラスタ 0 が「設備投資」という出現形の用例からなり, クラスタ 1 は「生産設備」, クラスタ 2 は「遊休設備」「過剰設備」からなるクラスタである。形成されたクラスタに原義のクラスタはない。また, そもそも複合名詞以外の用例は全て外れ值となっており, 半分以上の用例が外れ値となっており, 意味変化を捉えられていない. ## 7 現代語 BERT と近代語 BERT の比較 前節までの結果から,単語べクトルの性質がクラスタリング結果に大きな影響を与えていることがわかる。特にクラスタリングベースの手法では複合名詞か否かという違いでクラスタを形成する傾向が強く出ていた。そこで本節では, 公開モデルである事前訓練済みの現代語 BERT と現代語 BERT を対象コーパスで fine-tuning して作成した近代 BERT のそれぞれから獲得した単語べクトルに対してクラスタリングベースの手法を適用し,比較を行なった。 ## 7.1 実験結果 定性判断による意味変化の判定結果定性判断による意味変化の判定の結果を表 4 に示す. 現代語 BERT で意味変化を捉えた単語は 20 単語, 近代語 BERT では 16 単語である.よって, 定性判断に基づく意味変化の判定の観点では, 現代語 BERT が近代語 BERT よりも優れた結果である。 JSD によるスコアリングの結果JSD によるスコアリングを現代語 BERT と近代語 BERT のそれぞれから獲得した単語べクトルに対して行い,recall@ $k$ を算出した。その結果を図 9 に示す. 図 9 から, 全ての $k$ の值で近代語 BERT が現代語 BERT と同等かそれ以上の recall 值であることがわかる。よって,JSD のスコアに対する recall@ $k$ の観点では,近代語 BERT が現代語 BERT よりも優れた結果であるといえる。 & ボタン \\ 表 4 クラスタリングベースの手法における, 現代語 BERT と近代語 BERT の意味変化の定性判断の比較結果.意味変化を捉えた単語は「 $\checkmark 」 ,$ 意味変化を捉えられなかった単語は「×」とした. 図 9 クラスタリングベースの手法における, 現代語 BERT と近代語 BERT の recall@k の比較結果. 意味変化した単語数である 34 を $k$ 最大値とした. ## 7.2 分析 実験の結果, 現代語 BERT と近代語 BERT で違いが生じている。また, 定性判断による評価と JSD スコアによる評価で逆の結果になっている。本節ではこれらの違いについて分析を行う。 ## 7.2.1 現代語 BERT と近代語 BERT が捉える特徵の違い 現代語 BERT と近代語 BERT でクラスタリングの結果に大きな違いが生じた単語として,意味変化した単語では「非常, 主婦」, 意味変化していない単語では「伴う, 支払う」がある. これらの単語のクラスタリング結果を用例レベルで確認した. 現代語 BERT では, 現代語で使われないような表現(例えば, 文語表現)を1つのクラスタにまとめる傾向があった。一方で,近代語 BERT では古い時期で現れない用法を1つのクラスタにまとめる傾向があった.特に近代語 BERT では古い時期に出現が少ない複合名詞をまとめるケースが特に多かった. 以上のことから対象コーパスで fine-tuning することで, 文語表現のような現代にはない用法で用いられる用例がある単語で意味変化を捉えやすくなることが分かった。一方で fine-tuning によって,古い時期で現れない用法がある単語では,その用法をクラスタ化してしまう傾向があることが分かった.特に複合名詞をクラスタ化するケースが多かった.具体例として「非常」 と「支払う」を紹介する. 非常「非常」は「いつもと異なる」という語義から「程度が高い」という語義へ変化した. まず現代語 BERT の結果を述べる。図 10(a)のクラスタ 0 には,「非常時」や「非常な」 のような「いつもと異なる」の語義の用例が属していた。クラスタ 1 には,「非常に」のような「程度が高い」の語義の用例が属していた。 次に近代語 BERT の結果を述べる。図 10(c)のクラスタ 0 には「非常時」や「非常事態」 のような複合名詞の用法の用例が属していた. クラスタ 1 には,「非常な」や「非常に」 のような複合名詞以外の用法の用例が属していた。 現代語 BERT はクラスタを解釈すると原義や語義に対応するクラスタを形成したが,近代語 BERT は複合名詞か否かという単語固有ではない用法でクラスタを形成しており, クラスタを解釈すると,クラスタ 0 は原義に対応するが,クラスタ 1 は原義と転義が混在している(「非常な」は原義に対応した用例が多く,「非常に」は転義に対応した用例が多い). 支払う「支払う」は意味変化していない単語である。まず現代語 BERT の結果を述べる。図 10(e)のクラスタ 0 には「支払うをす。」のような文語表現が多く属していた. クラスタ 1 には「支払う事」のような「支払う+名詞」という用法の用例と「支払う。」のように後ろに名詞を伴わない用法の用例が属していた. クラスタ 2 には「支払う金」のような 「支払う+名詞」という用法の用例が属していた. 図 10(f) からクラスタ 0 が徐々に減少 (a) 現代語 BERT における (b) 現代語 BERT における 「非常」単語ベクトルの散布図。「非常」クラスタの比率変化。 (e) 現代語 BERT における 「支払う」単語ベクトルの散払う」クラスタの比率変化。布図。 (c) 近代語 BERT における (d) 近代語 BERT における 「非常」単語ベクトルの散布図。「非常」単語ベクトルの散布図。 $(\mathrm{g})$ 近代語 BERT における (h) 近代語 BERT における 「支払う」単語ベクトルの散「支払う」単語ベクトルの散布布図。 図 10 「非常」と「支払う」の結果. ## していることがわかる. 次に近代語 BERT の結果を述べる。図 $10(\mathrm{~g})$ のクラスタ 0 には文語表現,「支払う+名詞」,後ろに名詞を伴わない用法の用例が属していた。クラスタ 1 には「支払う+名詞」 という用法の用例だけが属していた。 現代語 BERT では文語表現か否かという特徴でクラスタを形成したが, 近代語 BERT では文語表現のクラスタは形成されていない. ## 7.2.2定性判断と JSD スコアの乘離 現代語 BERT と近代語 BERT で異なる結果となった単語に注目し,分析を行う。まず意味変化していない単語に注目する。意味変化していない単語のうち「伴う」,「支払う」の JSD スコアのランキングは現代語 BERT では高く,近代語 BERT では低かった。「伴う」,「支払う」 は 7.2.1 節で述べたように,現代では出現しないような用法をクラスタ化したケースであった. 逆に, ランキングが現代語 BERT では低く, 近代語 BERT では高い単語は「存在」の 1 単語である. この単語も 7.2.1 節で述べたように, 古い時期には出現していなかった用法がクラスタ化されている。 これらの単語は JSD スコアが高いことから, クラスタの比率の変化は起きている.このことから, 手法はこれらの単語の意味変化ではなく, その単語特有ではない用法の変化を捉えたと考える. 次に意味変化した単語に注目する。表 4 に示されているように「非常」は近代語 BERT において定性判断では意味変化を捉えていないが JSD のスコアは高い.「非常」は近代語 BERT で複合名詞の用法のクラスタと複合名詞以外の用法のクラスタに分けられた.これは「非常」特有の用法の変化や語義の変化を捉えておらず, 意味変化していない単語と同様に, その単語特有ではない用法の変化を捉えたといえる. 以上のことから,クラスタリングベースの手法が意味変化ではなく,その単語特有ではない用法の変化を捉えたケースがあり,JSD スコアによる評価では,それらの違いを識別できないため 2 つの評価手法の結果に乘離が生じたと考える. ## 8 おわりに 本研究では,意味変化の分析手法として,辞書による教師ありのグルーピングを用いた手法とクラスタリングによる教師なしのグルーピングを用いた手法の比較を行なった.その結果,適用可能性を考慮するとクラスタリングを用いた手法が意味変化の分析において有効であることが分かった. さらに,辞書べースの手法で用いる辞書とクラスタリングベースの手法で用いるクラスタリング手法を変更する追加実験を行なった。 その結果, 辞書ベースの手法では辞書によって結果が大きく変わることを確認し, クラスタリングベースの手法では $k$-means 法がシンプルかつ有効であることを確認した. また, 単語べクトルの獲得方法として, 現代語で学習した BERT と対象コーパスで fine-tuning をした BERT を比較した. fine-tuning を行うことで文語のような古い表現でも意味変化を捉えられるケースがある一方で,古い時期で出現が少ない用法がある場合には意味変化を捉えられないケースが生じることが分かった. ## 謝 辞 本研究は国立国語研究所の共同研究プロジェクト「通時コーパスの構築と日本語史研究の新展開」及び JSPS 科研費 19 H00531 の助成を受けたものです. ## 参考文献 Aida, T., Komachi, M., Ogiso, T., Takamura, H., and Mochihashi, D. (2021). "A Comprehensive Analysis of PMI-based Models for Measuring Semantic Differences." In Proceedings of the 35th Pacific Asia Conference on Language, Information and Computation, pp. 21-31, Shanghai, China. PACLIC Steering Committee. Bloomfield, L. (1933). Language. Cook, P. and Stevenson, S. (2010). "Automatically Identifying Changes in the Semantic Orientation of Words." In Proceedings of the 7th International Conference on Language Resources and Evaluation (LREC'10), Valletta, Malta. European Language Resources Association (ELRA). Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota. Association for Computational Linguistics. Erk, K. and Padó, S. (2010). "Exemplar-Based Models for Word Meaning in Context." In Proceedings of the ACL 2010 Conference Short Papers, pp. 92-97, Uppsala, Sweden. Association for Computational Linguistics. Ester, M., Kriegel, H.-P., Sander, J., and Xu, X. (1996). "A Density-Based Algorithm for Discovering Clusters in Large Spatial Databases with Noise." In Proceedings of the 2nd International Conference on Knowledge Discovery and Data Mining, KDD'96, pp. 226-231. AAAI Press. Geeraerts, D. (2015). "How Words and Vocabularies Change." In The Oxford Handbook of the Word. Oxford University Press. Giulianelli, M., Del Tredici, M., and Fernández, R. (2020). "Analysing Lexical Semantic Change with Contextualised Word Representations." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 3960-3973, Online. Association for Computational Linguistics. Hamilton, W. L., Leskovec, J., and Jurafsky, D. (2016a). "Cultural Shift or Linguistic Drift? Comparing Two Computational Measures of Semantic Change." In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2116-2121, Austin, Texas. Association for Computational Linguistics. Hamilton, W. L., Leskovec, J., and Jurafsky, D. (2016b). "Diachronic Word Embeddings Reveal Statistical Laws of Semantic Change." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1489-1501, Berlin, Germany. Association for Computational Linguistics. Hou, R., Huang, C.-R., and Ahrens, K. (2020). "Language change in Report on the Work of the Government by Premiers of the People's Republic of China." In Proceedings of the 34th Pacific Asia Conference on Language, Information and Computation, pp. 100-106, Hanoi, Vietnam. PACLIC Steering Committee. Hu, R., Li, S., and Liang, S. (2019). "Diachronic Sense Modeling with Deep Contextualized Word Embeddings: An Ecological View." In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3899-3908, Florence, Italy. Association for Computational Linguistics. Karnysheva, A. and Schwarz, P. (2020). "TUE at SemEval-2020 Task 1: Detecting Semantic Change by Clustering Contextual Word Embeddings." In Proceedings of the 14th Workshop on Semantic Evaluation, pp. 232-238, Barcelona (online). International Committee for Computational Linguistics. Kim, Y., Chiu, Y.-I., Hanaki, K., Hegde, D., and Petrov, S. (2014). "Temporal Analysis of Language through Neural Language Models." In Proceedings of the ACL 2014 Workshop on Language Technologies and Computational Social Science, pp. 61-65, Baltimore, MD, USA. Association for Computational Linguistics. Kutuzov, A. and Giulianelli, M. (2020). "UiO-UvA at SemEval-2020 Task 1: Contextualised Embeddings for Lexical Semantic Change Detection." In Proceedings of the 14th Workshop on Semantic Evaluation, pp. 126-134, Barcelona (online). International Committee for Computational Linguistics. Lin, J. (1991). "Divergence measures based on the Shannon entropy." IEEE Transactions on Information Theory, 37, pp. 145-151. 間淵洋子, 小木曽智信 (2021). 近現代日本語の意味変化分析のための単語データセット構築の試み. 言語処理学会第 27 回年次大会発表論文集, pp. 1166-1170, 北九州国際会議場(オンライン開催). 言語処理学会事務局. [Y. Mabuchi and T. Ogiso (2021). Kingendai Nihongo no Imi Henka Bunseki notameno Tango Detasetto Kochiku no Kokoromi. Proceedings of the 27th Annual Meeting of the Association for Natural Language Processing, pp. 1166-1170.]. Martinc, M., Kralj Novak, P., and Pollak, S. (2020). "Leveraging Contextual Embeddings for Detecting Diachronic Semantic Shift." In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 4811-4819, Marseille, France. European Language Resources Association. Matej, M., Syrielle, M., Elaine, Z., and Lidia, P. (2020). "Capturing Evolution in Word Usage: Just Add More Clusters?" In WWW '20: Companion Proceedings of the Web Conference 2020, pp. 343-349. Association for Computing MachineryNew YorkNYUnited States. Melamud, O., Goldberger, J., and Dagan, I. (2016). "context2vec: Learning Generic Context Embedding with Bidirectional LSTM." In Proceedings of The 20th SIGNLL Conference on Computational Natural Language Learning, pp. 51-61, Berlin, Germany. Association for Computational Linguistics. Mikolov, T., Chen, K., Corrado, G., and Dean, J. (2013). "Efficient Estimation of Word Representations in Vector Space." In Proceedings of ICLR Workshops Track, 2013. Montariol, S., Martinc, M., and Pivovarova, L. (2021). "Scalable and Interpretable Semantic Change Detection." In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4642-4652, Online. Association for Computational Linguistics. Peter, R. (1987). "Silhouettes: A Graphical Aid to the Interpretation and Validation of Cluster Analysis." In Journal of Computational and Applied Mathematics, Volume 20, pp. 53-65. Peters, M. E., Neumann, M., Iyyer, M., Gardner, M., Clark, C., Lee, K., and Zettlemoyer, L. (2018). "Deep Contextualized Word Representations." In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 2227-2237, New Orleans, Louisiana. Association for Computational Linguistics. Pilehvar, M. T. and Camacho-Collados, J. (2019). "WiC: The Word-in-Context Dataset for Evaluating Context-Sensitive Meaning Representations." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 1267-1273, Minneapolis, Minnesota. Association for Computational Linguistics. Radford, A. and Narasimhan, K. (2018). "Improving Language Understanding by Generative Pre-Training.". https://openai.com/research/language-unsupervised. Rodina, J. and Kutuzov, A. (2020). "RuSemShift: a dataset of historical lexical semantic change in Russian." In Proceedings of the 28th International Conference on Computational Linguistics, pp. 1037-1047, Barcelona, Spain (Online). International Committee on Computational Linguistics. Schlechtweg, D., McGillivray, B., Hengchen, S., Dubossarsky, H., and Tahmasebi, N. (2020). "SemEval-2020 Task 1: Unsupervised Lexical Semantic Change Detection." In Proceedings of the 14th Workshop on Semantic Evaluation, pp. 1-23, Barcelona (online). International Committee for Computational Linguistics. Schütze, H. (1998). "Automatic Word Sense Discrimination." Computational Linguistics, 24 (1), pp. $97-123$. Vassilvitskii, S. and Arthur, D. (2006). "k-means++: The Advantages of Careful Seeding." In Proceedings of the 18th Annual ACM-SIAM Symposium on Discrete Algorithms, pp. 1027-1035. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., and Polosukhin, I. (2017). "Attention is All you Need." Advances in Neural Information Processing Systems, 30. Yao, Z., Sun, Y., Ding, W., Rao, N., and Xiong, H. (2018). "Dynamic Word Embeddings for Evolving Semantic Discovery." In Proceedings of the 11th ACM International Conference on Web Search and Data Mining, pp. 673-681, New York, USA. Association for Computing Machinery. ## 略歴 小林千真 : 2021 年法政大学理工学部創生科学科卒業. 同年東京都立大学大学院システムデザイン研究科情報科学域博士前期課程修了. 現在に至る. 相田太一:2020 年長岡技術科学大学工学部電気電子情報工学課程卒業. 2022 年東京都立大学大学院システムデザイン研究科情報科学域博士前期課程修了.同年同大学同研究科同学域博士後期課程進学. 現在に至る. 岡照晃 : 2010 年豊橋技術科学大学情報工学課程卒業. 2012 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 2013 年より日本学術振興会特別研究員 (DC2) を経て, 2015 年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了. 博士 (工学). 同年京都大学大学院情報学研究科特定研究員. 2016 年国立国語研究所言語変化研究領域プロジェクト非常勤研究員. 同年同研究所コーパス開発センター特任助教. 2021 年東京都立大学システムデザイン学部特任助教. 2023 年一橋大学大学院ソーシャル・データサイエンス研究科特任助教. 現在に至る. 小町守:2005 年東京大学教養学部基礎科学科科学史・科学哲学分科卒業. 2007 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 2008 年より日本学術振興会特別研究員 (DC2) を経て, 2010 年同研究科博士後期課程修了. 博士 (工学). 同年同研究科助教. 2013 年首都大学東京 (現東京都立大学)システムデザイン学部准教授. 2022 年同大学同学部教授. 2023 年より一橋大学大学院ソーシャル・データサイエンス研究科教授. 現在に至る. 情報処理学会, 人工知能学会, 言語処理学会, ACL 各会員. (2022 年 11 月 1 日受付) (2023 年 2 月 8 日再受付) (2023 年 3 月 9 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 2020 東京オリンピック参加者名簿の翻訳 ## 佐藤 理史 $^{\dagger$} 本論文では,2020 東京オリンピック参加者名簿の翻訳支援の経験を報告する。オリンピック参加者名簿の翻訳は,そのサイズと対象となる国数の点において過酷である。これを軽減するために,人名翻訳支援システム「叔 2021」を実装した。このシステムは, 既訳辞書と 208 個の国別翻訳サブシステムから構成され, 国別翻訳サブシステムで必要となる各国用モデルは,「袷 2019」によって作成される。最終的な翻訳名簿と「綴 2021」の翻訳結果を突き合わせたところ,「綴 2021」の翻訳結果の採用 キーワード:人名翻訳,トランスリタレーション, 2020 東京オリンピック ## Translating the List of Participants in the 2020 Tokyo Olympic Games into Japanese \author{ SATOSHI SATO ${ }^{\dagger}$ } In this paper, I report on my experience supporting the production of a translated list of participants in the 2020 Tokyo Olympic Games using machine translation. Producing translated lists of the participants in Olympic Games events is difficult owing to the size and complexity of the games and the wide variety of participating countries. To address this challenge, I implemented a system to translate the names of specific persons called Tsuduri2021, which consists of a translation dictionary and 208 country-specific transliteration subsystems. Each of these subsystems comprises a transducer operating based on different country-specific models produced by Awase2019. The results of a comparison between the final translated list of participants and the output of the Tsuduri2021 system show that most of the computed results were actually used in the final list, including $90.4 \%$ of the full name translations and $94.0 \%$ of the single-name translations. Key Words: Person-name Translation, Machine Transliteration, The 2020 Tokyo Olympic Games  ## 1 はじめに 本論文では,自然言語処理システムの実社会応用の具体例として,筆者が行った 2020 東京オリンピック参加者名簿の翻訳支援の経験を報告する.実社会応用では,「ことば」が社会的存在であることを考慮したシステム設計・運用が重要となる. オリンピック参加者名簿の翻訳とは,国際オリンピック委員会 (International Olympic Committee, IOC) から提供される名簿に含まれる,ほぼすべての参加者の氏名(アルファベット表記)に,カタカナ表記の訳を付与することである1。このタスクは,技術的にはトランスリタレーション (transliteration)の問題とみなされる. しかしながら,客観的な正解は存在しないため, システムが出力すべきものは,システムの利用者,あるいは,社会が納得するカ夕カナ訳となる。この点については, 次章以降で詳しく議論する。 本論文では,まず,第 2 章で,オリンピック参加者名簿翻訳というタスクを説明し,人名翻訳の本質について議論する。第 3 章では,翻訳支援に使用したシステム綴 2021 と,実際の翻訳支援作業の経過を示す。続く第 4 章と第 5 章では,綴 2021 とそれを支えるシステム袷 2019 の技術的詳細を示す.これらのシステムは, 準備段階で作成したシステム (安江他 2016; 安江,佐藤 2016; 佐藤 2017) に,改良を加えたものである,第 6 章では,システムの翻訳結果が実際にどの程度採用されたかを示すとともに,これらの一連の経験を通して得られた知見をまとめる. 最後の第 7 章では関連研究について述べる。 本研究の新規性は,オリンピック参加者名簿の翻訳という現実のタスクを実行するためのシステムを設計・実装し,そのタスクをどの程度うまく遂行したかを翻訳結果の採用率という形で示した点にある。 なお,本論文では,姓と名の組を表す用語として「氏名」を,姓または名を表す用語として 「名前」を用い「「氏名」と「名前」を総称する用語として「人名」を用いる. ## 2 オリンピック参加者名簿翻訳と人名翻訳 オリンピック参加者名簿翻訳には,人名翻訳自体の難しさと,オリンピック名簿固有の過酷さが存在する. ## 2.1 人名翻訳の難しさ アルファベット表記の人名にカタカナ表記の訳を付与することは,技術的にはトランスリタレーションとみなされる。トランスリタレーションとは,ある言語の表記を,もっぱら発音に ^{1}$ 氏名を漢字で表記する国・地域の参加者を除く,具体的には,日本,中国,韓国,香港,台湾, } 基づいて他の言語の表記に変換することである. 人名のトランスリタレーションには, 次の 2 つ難しさがある。 (1) はトランスリタレーション一般の, (2)は人名のトランスリタレーション固有の難しさである. (1) 日本語の音で近似する必要がある 有名な例に,テニス選手の “Andy Murray” の姓をどのようにカタカナ表記するかという問題(いわゆる,マリー/マレー問題)がある。日本語にない音は,日本語のいずれかの音に近似する必要があるが,そこには自由度があり,訳者,あるいは,翻訳する組織の意向が反映される. (2) 言語を同定できない 人名のアルファベット表記だけから,言語を推測するのは困難である。テキストとして非常に短い(ほとんどの場合, 2 語)だけでなく,同一表記の語が複数の言語に存在するからである.オリンピックやワールドカップなどのスポーツ大会の参加選手の人名を翻訳する場合,その人物の所属する国家はわかるのが普通であるが,国家から言語を一意に決定することはできない,多言語国家は数多く存在するとともに,婚姻や移民による国籍変更もある。 ## 2.2 オリンピック参加者名簿翻訳固有の過酷さ オリンピック参加者名簿翻訳固有の過酷さとして,次の 3 点がある. (1) 対象人数が多い 具体的には, 2020 東京オリンピックの参加者は, 13,032 人であった. (2) 対象とする国2の数が多い 具体的には, 2020 東京オリンピックの参加国は, 206 力国であった. (3) 開幕直前まで名簿が確定しない 開幕の約 1 ケ月前から数回に渡って, IOC から参加者の候補リストが送られてくる(回を重ねる毎に更新される),参加者がほぼ確定するのは開幕直前であり,その夕イミングで大量の人名を翻訳するのは時間的に困難であるため,前もって参加者の候補リストを翻訳しておく必要があるが,候補リストに含まれる候補者の数は,実際の参加者数よりもかなり多い(3.5節で具体的な数字を示す)。なお,大会期間中にも,選手の入れ替えはあるとのことである. 日本において,オリンピック参加者名簿を翻訳する主な組織は,(1) 放送局から委託をうけた NHK の関連会社と, (2) 2 つの通信社(時事通信社と共同通信社)である。ちなみに, 従前は, これら 3 組織は独立に翻訳を行っていたそうで,同一人物のカタカナ訳が 3 組織で一致しない  ものが少なからず存在したようである.東京オリンピック開催に合わせて, 3 者間でカタカナ訳のすり合わせが行われたと聞いているが,おそらくカタカナ訳の不一致の問題は,完全には解消されていないものと推察する. ## 2.3 人名翻訳の本質 人名は,その人物を特定する識別子としての機能を持つ,そのカタカナ訳は,その人物の日本語における識別子となるため, 同一人物に複数の訳が存在することは好ましくない。そのため,人名を翻訳する際には,まず,既訳の有無を確かめることが重要となる。 既訳が存在する場合 “Roger Federer”のような有名人の場合は既訳が存在し,「ロジャー・フェデラー」が定着している。このような場合の人名翻訳は,定着した既訳に合わせることが要請される。 しかしながら,すでに述べた “Andy Murray”のように,複数のカタカナ表記(「アンディ・ マリー」と「アンディ・マレー」) が広く使われる場合もある。 そのような場合は,そのどちらかに合わせることになるが,一方を採用することにしたならば,一貫してそれを採用する必要がある. ここで注意したいことは,諸般の事情により,定着した訳が変更される場合があるという点である。よく知られた具体例は人名ではなく地名であるが,「グルジア」が「ジョージア」に,「キエフ」が「キーウ」に変更になったことは,記憶に新しい,すなわち,たとえ定着した訳であっても,それは永劫不変の絶対的存在ではない. 既訳が存在しない場合少数の有名人を除けば,既訳が存在しない人物がほとんどである.本当に存在しないかどうかは知る術はないので,探した範囲で既訳が見つからなかった場合は存在しないと判断する。既訳が存在しない場合, アルファベット表記からその発音を推測し,それを近似的に表すカタカナ表記を定める。そこには染意性が存在し,客観的な正解というものは存在しない. だからといって, 任意のカタカナ表記を採用してよいわけではない. たとえば, “Brice Ottonello" というフランス (FRA)の選手の訳に「バンジャマン・ダビエ」を当てることはできない.「ブリス・オットーネロ」のように,それらしいカタカナ訳を当てることが要請される。 この訳が社会的に受け入れられば, 既訳として定着する。つまり, 既訳が存在しない場合の人名翻訳は,定着する可能性のある訳を新たに作ることである。たとえ,それが実際の発音と多少異なっていても,社会に受け入れられれば既訳として定着する。言い換えるならば, 定着した既訳とは,社会的に受け入れられた訳である。 以上をまとめると次のようになろう。人名翻訳の適切さは,社会的に決定される。 ## 3 人名翻訳支援システム「綴 2021」 本プロジェクトは, 2020 東京オリンピックの参加者名簿の翻訳に関して, 時事通信社より協力の要請があり,それを受ける形で 2015 年に正式にスタートした.時事通信社の意向は,この翻訳作業を機械処理で軽減し,名簿全体の翻訳を実現したいというものであった 3. ## 3.1 基本方針 支援システムの設計にあたっては,以下に示す 3 つ基本方針を定めた. (1) カタカナ表記の統制 日本語は表記に関して寛容な言語であり,カタカナ表記においては,いわゆる「表記ゆれ」が多数存在する. 外来語の表記のガイドラインとして, 平成 3 年 6 月 28 日の内閣告示二号「外来語の表記」(文化庁 2011) が存在するが,実際にはこのガイドラインを逸脱した表記が多数存在する。支援システムにおいては, 使用するカタカナ表記の範囲を厳密に定め, 出力するカタカナ訳を統制する. 具体的な統制方法は, 5 章で詳しく述べる. (2) 既訳辞書を用いた翻訳 既訳辞書を整備し, 既訳が存在する場合は, 既訳を採用する. (3) 国毎のトランスリタレータ 同一のアルファベット表記であっても,言語によってカタカナ訳が異なる場合がある. すでに述べたように,人名の言語はわからないため,国毎にトランスリタレータを用意し,訳し分けを実現する。 既訳辞書の整備 4 は,時事通信社が担当した,時事通信社の人名翻訳の基本方針は,「1 国 1 名前に対して,カタカナ訳はひとつ」である。つまり,国と名前が定まれば,カタカナ訳が一意に定まるように統制する。これは原則であり,すでに定着した既訳などは例外として扱う。この方針は,国毎のトランスリタレータの実現に好都合であった. ## 3.2 綴 2021 の構成 綴 2021 の構成を図 1 に示す. 綴 2021 は, 以下の要素から構成されている. (1) 既訳辞書 過去に採用された翻訳の具体例を辞書化したもの. 氏名対訳辞書と名前対訳辞書の 2 種類の辞書から構成される。辞書のレコードは, 国名の情報(IOCコード)を持つ.  図 1 綴 2021 の構成 (2) 国別翻訳サブシステム 名前のアルファベット表記からカタカナ表記を推定するトランスリタレータ.国別翻訳サブシステムは, 全部で 208 個存在する。このうち 207 個は IOCコードに対応するサブシステムで,残りの 1 個は, 国名が不明の場合に使用するサブシステムである. (3) 辞書翻訳モジュール 入力に対して既訳辞書を検索し,一致するものがあれば出力する.国名の一致は必須である。 (4) 訳語推定モジュール 入力された国名に基づいて国別翻訳サブシステムを呼び出し,訳語候補を 5 件出力する.訳語推定の単位は,名前(姓または名)である。 この構成で,次に示す 2 種類の翻訳支援サービスを提供する。 ## 3.3 一括翻訳サービス 一括翻訳は,多数の氏名を一度に翻訳するサービスで,その入出力はエクセルファイルである. その形式を表 1 に示す. なお, ここで言及しない列も存在するが, 翻訳処理には関与しない. (1) D, F,Gの 3 列が入力である (2) H列は,翻訳処理の状況(ステータス)を以下の 4 種類で示す 完全一致氏名対訳辞書で翻訳でき,訳が唯一である 一致名前対訳辞書で姓と名の両方が翻訳でき, かつ, それぞれの訳が唯一である 表 1 一括翻訳の入出力形式 重複名前対訳辞書での翻訳に, 曖昧性(複数の訳)が存在する 推定姓と名のいずれかは,訳語推定された(「重複」よりもこちらを優先する) (3) I, J列は,辞書翻訳の結果を示す (4) K, L 列は, 以下の優先度で決定した暫定訳を示す (a) 氏名対訳辞書での翻訳結果 (b) 名前対訳辞書での翻訳結果(複数訳がある場合は,一番頻度が高いもの) (c) トランスリタレータによる 1 位の推定結果 (5) N , O, P, Q 列は,辞書翻訳における他の候補を示す (6) R, S, T, U 列は,姓の訳語推定結果の 2 位から 5 位を示す (7) W, X, Y, Z 列は, 名の訳語推定結果の 2 位から 5 位を示す 実用システムでは, 入出力の形式がシステムの利便性を大きく左右する。このため, 入出力形式の設計は非常に重要である。上記の形式は,実際に出力ファイルを利用して最終的な対訳名簿を作成する当事者とよく相談のうえ決定した。 - $\mathrm{H}$ 列(ステータス)は, 翻訳結果を見直す際に,翻訳処理の状況がわかるように導入した. - $\mathrm{K}, \mathrm{L}$ 列(暫定訳)は,翻訳結果をそのまま採用する場合の作業を不要にするために導入 した。翻訳結果を修正する場合,この 2 列のみを書き換えればよいため,作業量は最小限で済む。 一括翻訳に要する時間は,翻訳する人名の件数に依存する, 3.8 万件の場合, MacBookPro (Apple M1, 16GB) で 5 分程度である. ## 3.4 ウェブサービス ウェブサービスでは,ユーザーの入力に対して翻訳候補を提示し,訳語決定を支援するサー ビスである。複数の国を指定して,それらの結果を比較したり,国名から推定される言語を示す機能を持っている。すでに 2 章で述べたように,参加者情報は五月雨式に更新されるため, 一括翻訳以外の翻訳支援が必要となる. 図 2 に,ウェブサービスの入出力画面を示す。入力は, アルファベット表記の名前と, 国名 (最大 3 カ国まで指定可能)である。この例は,“Peter”を HUG(ハンガリー),GER(ドイッ), CAN(カナダ)の 3 カ国を指定して翻訳する場合を示している。指定した 3 カ国以外に,国名が不明の場合の結果 (all)も表示される. 出力ページの上部には, 訳語推定の結果が示される。辞書翻訳で翻訳できた場合は, その結果も表示される。この例の場合, 名前辞書のハンガリー (HUG)の対訳に「Peter / ペテル」があるため,その情報が示されている。訳語の下に国名は,その対訳が存在する国を示している。 出力ページの下部には, 名前辞書の検索結果が示される. “Peter" の対訳は 9 力国に存在し,訳語の種類は 3 種類である。この部分の表示では, 国名から推測される言語も合わせて表示される。 ## 3.5 オリンピック参加者名簿の実際 表 2 に, 本プロジェクトのタイムラインを示す。すでに述べたように, 本プロジェクトは 2020 東京オリンピックを見据えて,2015 年よりスタートした。 支援システムのウェブサービスは, 2016 年リオデジャネイロオリンピックに合わせて稼働させ,それ以降,オリンピック開催に合わせて更新してきた。東京オリンピックの翻訳スケジュー ルはタイトであることが想定されたため, 事前に入念に準備し,本番に備えた. 東京オリンピック・パラリンピックが 1 年延期されたため, 実際の作業は 2021 年となった. その後, 時事通信社から依頼があり, 引き続き北京オリンピック・パラリンピックの参加者名簿の翻訳を行った。 この表からわかるように, 東京オリンピック参加者名簿の 1 回目の一括翻訳は, 開催の約 3 週間前に実施した. この時点で翻訳数は, 38,200 件であり, 最終的な参加者の 2.9 倍である. すでに述べたように,時間的制約から名簿が確定する前に翻訳する必要があり,翻訳対象の人数は膨れ上がる。 Last Updated: July 02, 2021 ## 經 外国人名のカタカナ表記推定 下記のボックスに入カされたアルファベット表記の外国人名(姓または名)の、カタカナ表記を推定します。 名前: Peter 国名: 国名をIOCコードで指定します。複数指定する場合は、コンマで区切ります。下のメニューで選ぶこともできます。 国名が不明の場合は、指定しなくても構いません。その場合は、全世界を対象に推定します。 国名 (0): all - 全世界 - (英語) 国名 (1): HUN -ハンカカリーーハンガリー奛 国名 (2): GERードイツードイ゙語 国名 (3): CAN ・カナダー英焐、フランス唔 カタカナ表記推定 (例) Peter (例) USA,FRA,GER - 句 (a) 入力画面 ## 推定結果 - Peter & & & \\ ## 辞書検索 - Peter \\ (b) 出力画面 図 2 ウェブサービスのインタフェース 表 2 プロジェクト・タイムライン 表 3 オリンピック・パラリンピックの参加者数と一括翻訳数 表 3 に, 4 大会の参加国数, 参加者数, 一括翻訳数を示す. この表から, 特に夏季オリンピックの参加者名簿の翻訳の過酷さが確認できる. ## 4 「経 2021」の技術的詳細 本章では,綴 2021 の技術的な詳細を示す. ## 4.1 辞書翻訳 辞書翻訳で使用する辞書は,以下の通りである。これらの辞書は,翻訳実行時には,リレー ショナルデータベース (SQLite3) に格納され, 検索される,辞書翻訳では, 国名の一致は必須とする. 氏名対訳辞書 28,816 レコード。各レコードは, 以下の 5 要素から構成される. (1) 国名(IOC コード) (2) 姓(アルファベット表記) (3) 名(アルファベット表記) (4) 姓(カタカナ表記) (5) 名(カタカナ表記) 名前対訳辞書 40,050 レコード.各レコードは,以下の 4 要素から構成される. (1) 国名(IOCコード) (2) 名前(アルファベット表記) (3) 名前(カタカナ表記) (4) 頻度(氏名対訳辞書における頻度) 名前対訳辞書は,氏名対訳辞書から機械的に作成する。氏名対訳辞書では,姓と名を区別するが, 名前対訳辞書では, 姓と名を区別しない. 付録の表 8 に,対訳辞書の国別のサイズを示す. ## 4.2 訳語推定 国別翻訳サブシステムは, $\mathrm{MeCab}^{5}$ をトランスデューサー (transducer) として動作させることによって実現する。そのためには,動作を規定する MeCab 用辞書が必要となるが,この $\mathrm{MeCab}$用辞書をそれぞれの国に対して作成することにより,国別翻訳サブシステムを構成する。この $\mathrm{MeCab}$ 用辞書のことを,本論文では国別モデルと呼ぶ,国別モデルは全部で 208 個存在する.国別モデルをどのように作成するかは,5 章で述べる。 図 3 に,マレーシア (MAS) 用の翻訳サブシステムで “selvathamy” がどのように分解されて翻訳されるかを示す. 1 行目が入力で, 2 行目以降が出力である. “se/l/va/tha/m/by" の 6 単位に分解され,それぞれがカタカナに変換されて「セ/ル/バ/サ/ム/ビー」が得られていることがわかる。 ## 5 「袷 2019」の技術的詳細 袷 2019 は,綴 2021 が必要とする国別モデルを作成するシステムである。 その構成を図 4 に ^{5}$ https://taku910.github.io/mecab/ } 図 3 MeCabによる訳語推定 図 4 袷 2019 の構成 示す. 国別モデルの作成は,大きく 2 段階に分かれる。第 1 段階では,国が不明の対訳デー夕から,国別モデルの作成基盤となるモデル(ベースモデル)を作成する,第 2 段階では,それぞれの国に対して,その国の対訳データを用いてべースモデルに再学習を適用し,国別モデルを作成する。これらのモデルの作成には, MeCabの学習機能と再学習機能を利用する. $\mathrm{MeCab}$ の学習機能・再学習機能を利用するためには, それぞれの対訳を図 3 に示すような解析結果と同じ形式に変換する必要がある.この形式を学習用コーパスと呼ぶ. 対訳をこの形式に変換するためには,対訳のアライメント(部分対応)を推定する必要がある.このアライメントの自動推定が,袷 2019 の中核的機能であり,その実現には,カタカナ表記の統制と,独自のローマ字表記が重要な役割を果たしている. ## 5.1 カタカナ表記の統制 袷 2019 では, 規範的カタカナ列を厳密に定義している. 具体的には, 使用できるカタカナ 1 文字, カタカナ 2 文字 (通常のカタカナ 1 文字十小書カタカナ 1 文字), 記号 1 文字を定義し, それらの列に分解できるカタカナ列を規範的カタカナ列とみなす. 表 4 に, 使用できるカタカナ 1 文字・ 2 文字の一覧を示す。これらのそれぞれには, 独自のローマ字表記(絣式ローマ字) を定めている。このローマ字表記は,アライメントを決定する際に使用する. 表 4 は, 平成 3 年 6 月 28 日の内閣告示二号「外来語の表記」(文化庁 2011)の第 1 表と第 2 表のすべてのカタカナ列を含んでいる。これらに加えて,以下のものを追加している. キェ, ギェ, グィ, グェ, グォ, ヒェ, ヴャ, ヴュ, ヴョ, ビェ, ピェ, ミェ, リェ, 二ェ, $\cdot$ (中黒 $),=($ 等号 $),-$ (マイナス記号 $), \mid$ (縦棒) ${ }^{6}$ これらの選定に当たっては, カタカナ表記の人名における頻度, 規範的リストから除外した場合にどんな表記に変換(標準化)することになるか, 全体の一貫性などを考慮した. 袷 2019 は,規範的ではないカタカナ列を検出したり, それを規範的カタカナ列に自動変換 (標準化)する機能を有する。自動変換は,以下に従う. (1)表 5 に示す変換表で変換できる場合は,この表に従って変換する. (2)小書き文字の音が直前と同じ音の場合は,長音記号「ー」に変換する.ただし,直後が長音記号の場合は変換しない. 例 : 「キャシィ $\rightarrow$ キャシー」,「アルマルジアビィ $\rightarrow$ アルマルジャビー」 (3)それ以外の小書き文字は,通常の大きさの文字に変換する. 例 : 「ネグレァン $\rightarrow$ ネグレアン」,「クデャコフ $\rightarrow$ クデヤコフ」 ## 5.2 アルファベット表記の統制 名前に含まれる大文字はあらかじめ小文字に変換する.名前のアルファベット表記は,以下の文字だけからなる文字列とする。 小文字 (a から z),空白,ハイフン (-), アポストロフィ (') ## 5.3 アライメントの推定 名前のアルファベット表記(統制済)とカタカナ表記(統制済)のアライメントの推定を, 次の 3 ステップで行う. (1) カタカナ表記をローマ字表記に変換する (2)ローマ字表記とアルファベット表記のアライメントを決定する  表 4 袷 2019 が認めるカタカナ文字(1 文字と 2 文字)とローマ字表記 表 5 規範カタカナ列への変換表 (3)得られたアライメントを必要に応じて結合し,カタカナ表記とアルファベット表記のアライメントを完成させる この処理の中核は, ステップ (2), すなわち, ローマ字表記とアルファベット表記のアライメントを決定する処理で,その出力は部分対応の列となる.袷 2019 では,規範的な部分対応として1,191 種類の部分対応を定義し,それぞれにスコアを付与してある.与えられた入力(ロー マ字表記の文字列とアルファベット表記の文字列)に対して,スコアの総和が最も大きい部分対応の列を動的計画法により求め,これをアライメントとして採用する. 1,191 種類の規範的な部分対応はすべて手作業で定義した. そのスコアは, 若干の例外を除き, 部分対応の両辺から自動的に計算される. アライメントには,規範的ではない部分対応が含まれることも認める.ただ,規範的ではない部分対応のスコアは,規範的な部分対応のスコアよりも小さく設定しているため,そのようなアライメントが採用されることは少ない. 事実上, これは,「誤りの可能性のある」対訳を見つけるための機能である. カタカナ表記とアルファベット表記のアライメントを直接決定するのではなく,ローマ字表記とアルファベット表記のアライメントを経由して決定するのは, 定義すべき部分対応の種類を減らすためである。このアライメント推定プログラムは,対象言語(原語)を問わない。そのため, 多くの種類の部分対応を定義する必要がある.部分対応の定義にカタカナを用いると,定義すべき部分対応の種類は,組み合わせ的に増大する. ヘボン式ローマ字や訓令式ローマ字を採用しなかったのは, それらは子音字の一貫性に欠けるからである.たとえば,「サ」と「シ」の子音は明らかに異なる。加えて,それらのローマ字は,いわゆる 50 音に対してのみ定義されており,それ以外の単位(たとえば「クア」)には定義されていないからである,絣式ローマ字では,原則として子音字(大文字または数字 1 字で 表 6 定義されている部分対応の長さ 表す)の一貫性を重要視して設計した. 部分対応の定義を手作業で行ったのは,多くの言語に対応するためである.入手可能な人名対訳の量は,メジャーな言語ほど多く,マイナーな言語は少ない. そのため, 入手可能な対訳例から部分対応を推定すると,マイナーな言語で必要となる部分対応が十分に得られない.実際,機械学習による部分対応の推定は試みたが,満足できる結果は得られなかった. 定義した 1,191 種類の部分対応の両辺の長さ別の数を表 6 に示す. ローマ字側の長さが 1 の部分対応は,日本語の子音,または,母音に対する部分対応である。この表からも,部分対応の定義にカタカナを使用するのは得策ではないことが確認できる7.なお,例外的に長い対応は 「MoHaMaDo (モハマド) / mohd」で,これはひとかたまりとして捉えるのがよいと判断したため,部分対応として採用した。 ## 5.4 学習用コーパスの形式 MeCab の学習機能と再学習機能を利用するために必要な学習用コーパスは, 名前対訳のアライメント結果から作成する ${ }^{8}$. 学習用コーパスの各行は, ひとつの部分対応に対応し, 以下に示す 9 属性から構成される。 (1) 部分対応のアルファベット側 (2)(1)の母音 $\cdot$ 子音字情報(v: 母音字, c: 子音字, X: 特殊文字) (3) 部分対応のカタカナ側 (4) (3) の母音・子音字情報(v: 母音字, s: 半母音字, C: 子音字, 0: ン, Q: ッ, l: 長音記号, X:特殊文字) (5) (3) の先頭の子音字列(半母音も含む)  (6) (3) の先頭の子音字 (7) (3) の末尾の母音字列 (8) (3) の末尾の母音字 (9) (3) の末尾の音タイプ ( $\mathrm{v}$ : 通常, l: 長音, q: 促音) これらのうち, (1) と (3) が部分対応のアルファベット側とカタカナ側であり, それ以外の属性は,部分対応から計算する。 部分対応にどのような属性を付与するかは,学習における汎化性能に影響する.しかしながら,上記の設定で必要と思われる性能が達成されたため,それ以上の検討は行わなかった.実験的に確かめてはいないが,「どのような対応(単位)を部分対応として採用するか」の方が, 「部分対応にどのような属性を設定するか」よりも実行性能に与える影響がより大きいと思われる. ## 5.5 ベースモデルの作成 ベースモデルは, MeCabの学習機能を使って作成する。使用した対訳データは,過去の研究 (Sato 2009; 佐藤 2012) によって得られた, 国情報が不明の氏名対訳データ 276,311 件である. このデータを,まず,名前対訳データ 136,106 件 ${ }^{9}$ 変換し,次に,それぞれの対訳のアライメントを推定して学習用コーパスに変換し, MeCabのモデルを学習した。学習時に設定する CRF のパラメータは,実験的に調査した範囲では $C=0.4$ が最も良かったため,この值で作成したモデルをべースモデルとして採用した。なお,このべースモデルの作成は 2017 年に行った. ## 5.6 国別モデルの作成 国別モデルは, MeCabの再学習機能を使って作成する。この再学習機能は, 学習済モデルと少量の追加学習用データからモデルを再構築する仕組みである。学習済モデルとしては, 上記で述べたベースモデルを用い,追加学習用データとしては,名前対訳辞書に含まれるそれぞれの国の対訳データを用いる。 再学習においても CRF のパラメータが必要となるが, この値は, ベースモデル作成時と同じ $C=0.4$ を用いた. 208 カ国の国別モデルの作成は, MacBookPro (Apple M1, 16GB) で約 26 時間で完了する。そのため, 国別モデルの数の多さ(208 力国)は,特に問題とはならない. ## 6 検討 ## 6.1 暫定訳はどのぐらい採用されたか 綴 2021 が出力した暫定訳は,実際にどのぐらい使われたのだろうか. 時事通信社から入手した 4 大会の最終対訳名簿と, 時事通信社に送付した綴 2021 の翻訳結果をつきあわせて採用率  (そのまま採用された割合)を算出した,対象としたのは,最終対訳名簿と綴 2021 の翻訳結果の両方に含まれる人名である。人名の同一性は,選手コード10の同一性で判定した. その結果を表 7 に示す. 氏名は延べ数 (人物単位), 名前は異なり数(国名,アルファベット表記の名前, カタカナ表記の名前の 3 つ組の単位)である。氏名の下位分類「完全一致,一致,重複,推定」 は, 3.3 節で述べた翻訳処理の状況に対応する.名前の下位分類「辞書,推定」は,辞書で翻訳したのか, トランスリタレーションで翻訳したのかを表す. まず,東京オリンピックの結果に注目しょう,以下のことが観察される。 - 翻訳結果が訳語推定によるもの,すなわち,新たにカタカナ訳を付与しなければならない人名が, 氏名単位の翻訳では $69.6 \%$, 名前単位の翻訳では $59.8 \%$ を占めた. 既訳辞書は,前回までのオリンピックやメジャーな国際大会の参加者名簿などを元に参加者予想を加味して作成されているが,そのような既訳辞書を用いても,辞書のカバー率は $50 \%$ に届かない. - 既訳の採用率は $100 \%$ ではない. 氏名単位では, 完全一致で $6.0 \%$, 一致で $4.8 \%$, 名前単位では $3.4 \%$ が修正された。これは,既訳がさまざまな事情(たとえば,他メディアとの 表 74 大会の暫定訳採用率  整合性)で修正されることを示している. 高いと言えよう。 - 訳語推定に限定した場合の暫定訳の採用率は, 氏名単位では $88.7 \%$, 名前単位では $92.3 \%$ である.この値も十分高いと言えよう. これらの数值から,綴 2021 の翻訳支援は十分に役立ったと結論づけてもよいだろう。さらに,綴 2021 のトランスリタレータ(翻訳サブシステム群)は,実用的な性能を有していると判断してもよいだろう. 次に,他の 3 大会にも目を向けよう. - パラリンピックはオリンピックと比較して辞書のカバー率が高い。これは, おそらく, パラリンピックの方が参加者を予想しやすいためと考えられる. - 夏季大会に比べて冬季大会の採用率が低い. 特に北京オリンピックの採用率が低い.この理由は定かではないが,各国モデルの作成に使用した既訳辞書に由来する可能性(夏季と冬季の参加者数の違いが,既訳辞書にも反映されている)と,対象とする国に由来する可能性(カタカナ訳が難しい国が多い),あるいは,競技種目に由来する可能性(冬季はメジャーな種目が少ない)が考えられる。辞書翻訳の採用率も低いことを考慮に入れると, カタカナ訳の方針が安定していない国が多いということなのかもしれない. ## 6.2 得られた知見 本稿で報告したオリンピック参加者名簿の翻訳支援の経験から多くの知見が得られたが, そのなかで筆者が特に重要と思う 3 点を以下にまとめる. (1) 現実の問題は, ベンチマークとは異なる 現実の人名トランスリタレーションでは,既訳が存在しない人名が対象となる。そこには正解は存在ぜず,トランスリタレータに求められることは,使用者や社会に受け入れられることが期待されるカタカナ訳(のひとつ)を作り出すことである. これまで,トランスリタレータの性能は,既訳データから構成されるテストセットを用い, 既訳との一致率で評価されてきた. 既訳が存在する人名は, 本来はトランスリタレー ションの対象外の人名である(トランスリタレーションの対象となる人名の母集団には含まれない),そのため,テストセットを用いたべンチマークは,現実の夕スクでどのぐらい役立つかを必ずしも正しく反映しない.現実のトランスリタレーション・タスクは,正解を当てるという問題ではない. (2) カタカナ訳の設計が重要 一度に大量の人名にカタカナ訳を付与する場合, カタカナ訳全体の一貫性や統一性が求められる。そのため,それぞれの人名をどう訳すかを決める以前に,それぞれの国に対 してカタカナ訳のガイドラインを決めることがより重要となる。このガイドラインには, どれだけのカタカナを使用するか (たとえば,「ヴ」を使用するのかしないのか),どのようなスペル・部分スペルにどのようなカタカナ表記を当てるか(たとえば,末尾の “vic" を「ビッチ」と訳すのか「ビク」と訳すのか) などが含まれる,今回のプロジェクトでは, カタカナ訳で使用できるカタカナ 1 文字・ 2 文字を定義し, 辞書および学習データのカタカナ表記を統制して,トランスリタレータが出力するカタカナ表記を統制した。このことは,トランスリタレーションを,ある種の設計問題として扱ったとも言える。 しかしながら,十分に統制が行き届かなかったという反省もある.特に,複数の語からなる名前,たとえば, “Andre Klippenberg”や “Andre-Pierre” のカタカナ訳をどうするかの設計が不十分であった ${ }^{11}$. アルファベット表記では, 前者のように空白で区切られる場合と,後者のようにハイフォンで区切られる場合があるが,既訳辞書には後者の形式は存在しなかった,前者の場合,時事通信社の方針に従い,綴 2021 は空白を無視して 「アンドレクリッペンベルグ」を出力するが,後者の場合はハイフォンを残し「アンドレー ピエール」を出力するようになっていた ${ }^{12}$ ,最終名簿では,後者はハイフォンを削除した 「アンドレピエール」が使われていたため,後者の推定結果は不採用に分類される。このようなハイフォン削除のみの修正は, 東京オリンピックの名前の修正数 897 件中 194 件 (21.6\%)を占めた. (3) 安定したソフトウェアを使う 経 2021 と袷 2019 が利用している主要なソフトウェアは, Ruby, MeCab, SQLite3, ActiveRecordである。これらは安定しており, MeCab 以外は十分に保守されている。数年に渡るプロジェクトにおいては,安定したソフトウェア,よく保守されているソフトウェアを使うことが重要である。実際,綴の旧バージョンで使用していた辞書検索ツールが OS のバージョンアップで使用できなくなったため, SQLite3への変更を余儀なくされた. ## 7 関連研究 トランスリタレーションの自動化は, Knight らの先駆的な研究 (Knight and Graehl 1998) 以降, 多くの研究が行われてきた. 2010 年頃までの研究は, Karimi らのサーベイ (Karimi et al. 2011)にまとめられている。最近は, 我々の研究 (Jung and Sato 2018)を含め, ニューラルネッ卜を利用した実装 (Jadidinejad 2016; Grundkiewicz and Heafield 2018; Le et al. 2019) もある.  トランスリタレーションは,抽象的には,ある系列を別の系列に変換する系列変換問題と捉えることができる。トランスリタレーションでは,通常の翻訳とは異なり,変換前後で対応する部分列の順序が保存される。そのため, 系列ラベリング問題と捉えることもできる. トランスリタレーション過程を具体的にどのようにモデル化するかには, 多くのバリエーションが存在する。それらのバリエーションを作り出す主要なポイントは, (1) 中間的な音素のレべルを明示的に導入するか否か, (2) 変換の最小単位をどのように設計するか, (3) 最小単位の変換が何に依存して定まると仮定するか,の 3 点である。これらを定め,その詳細と実装方法を定めると,具体的な手法が得られる。トランスリタレーションは,対象とする言語対に依存する部分も大きく, どのような方法が最適であるかの判断は, 容易ではない. 綴 2021 の方式は,変換過程ではアルファベット表記を直接カタカナ表記に変換するため, 中間的な音素レベルを経由しない(直接変換方式)しかし,最小単位は,音を強く意識した独自のローマ字表記を経由して定める(袷 2019)ため,音変換として完結した単位である.つまり,表面上は表記から表記への変換であるが,その変換の最小単位は,音に基づく変換となっている. 最小単位への分割と最小単位の変換は, MeCab, すなわち, bi-gram マルコフモデルに基づいて行われ,その確率は Conditional Random Field (CRF) によって訓練例から学習される。卜ランスリタレーションは MeCabで実行されるため,十分に高速である。 綴 2021 の大きな特徵は,入力として,原言語ではなく,国名を指定する点にある。これは, すでに 2.1 節で述べたように,人名のアルファベット表記だけから言語を推測することは困難であるという理由による。同時に,「1国 1 名前に対して,カタカナ訳はひとつ」という名簿翻訳の統制方針を実現するためでもある. どのような学習方式を採用するにせよ,学習べースのシステムでは,どのような訓練例集合を用いるかが重要な要素となる。アルファベット表記 ${ }^{13}$ とカタカナ表記の人名対訳データとして, ウィキペディアから抽出したデータセットが公開されているが (Merhav and Ash 2018), その大きさは名前単位で 98,820 件であり,かつ,それぞれの表記は統制されていない.これに対して,綴 2021 は, ベースモデルの学習に,対象とする夕スク(オリンピック名簿の翻訳)の要請に合致するように表記を統制した訓練例 136,106 件を使用し, さらに,各国モデルの学習では,延べ 40,050 件の国別人名訓練例(既訳辞書)を使用している.トランスリタレーションの出力を統制するためには,訓練例を適切に統制することが不可欠である. これまでのトランスリタレーションの研究では, 既訳データから構成されるテストセットを用いて性能を評価してきた. しかしながら, 2.3 節で述べたように,既訳が存在するならば,卜ランスリタレーションを適用する必要はない。つまり,このような評価は,本来対象とすべき母集団には含まれないデータを使って評価していることになる.  真にトランスリタレーションを必要とするのは, 既訳が存在しない場合である。本研究は, 才リンピック参加者名簿の翻訳という現実のタスクに対してシステムを設計・実装し,真にトランスリタレーションを必要とする人名に対して,システムのタスク遂行の程度を採用率という形で示した点に新規性がある。なお,採用率は,テストセットを用いてシステムの性能を測るベンチマークの指標ではなく,遂行した現実のタスクの事後評価の指標である. ほとんどのトランスリタレーション研究では, どのような方式でトランスリタレーションを実現するかに焦点が当てられてきた.しかしながら,現実のタスクに対して実際に使えるシステムを作る場合は,その比重は小さい。それよりも,そのタスクが要請する仕様をどう満たすか,それに合わせて訓練例をどのように統制するか,使用形態を想定してどのようなサービスを提供するか,外部要因で定まるスケジュールを満たすために何をすべきか(十分な高速化と修正作業の簡便化)などが,より大きな比重を占める.現実の問題を解く場合は,このような要素を考慮して実現可能な解決策を見つける必要がある. ## 謝 辞 本研究に研究パートナーとして協力してくださった時事通信社の朝賀英裕氏に感謝します.本研究では, JSPS 科学研究費 21300094, 2650047 の成果を利用した. ## 参考文献 文化庁(編)(2011). 新訂公用文の書き表し方の基準(資料集). 第一法規株式会社. [Agency for Cultural Affairs, Government of Japan (Ed.) (2011). Shintei Koyobun no Kakiarawashikata no Kijun. Dai-Ichi Hoki Co., LTD.]. Grundkiewicz, R. and Heafield, K. (2018). "Neural Machine Translation Techniques for Named Entity Transliteration." In Proceedings of the 7th Named Entities Workshop, pp. 89-94, Melbourne, Australia. Association for Computational Linguistics. Jadidinejad, A. H. (2016). "Neural Machine Transliteration: Preliminary Results." arXiv preprint arXiv:1609.04253. Jung, D. and Sato, S. (2018). "Country Adaptation in Neural Machine Transliteration of Person Names." In Proceedings of the 32nd Annual Conference of the Japanese Society for Artificial Intelligence, 2L4-04. Karimi, S., Scholer, F., and Turpin, A. (2011). "Machine Transliteration Survey." ACM Computing Surveys, 43 (3), pp. 1-46. Knight, K. and Graehl, J. (1998). "Machine Transliteration." Compututational Linguistics, 24 (4), pp. 599-612. Le, N. T., Sadat, F., Menard, L., and Dinh, D. (2019). "Low-Resource Machine Transliteration Using Recurrent Neural Networks." ACM Transaction Asian Low-Resource Language Information Processing, 18 (2). Article 13. Merhav, Y. and Ash, S. (2018). "Design Challenges in Named Entity Transliteration." In Proceedings of the 27th International Conference on Computational Linguistics, pp. 630-640. Sato, S. (2009). "Crawling English-Japanese Person-Name transliterations from the Web." In Proceedings of the 18th International World Wide Web Conference (WWW-2009), pp. 1151-1152. 佐藤理史 (2012). 辞書の見出し語集合と代表性. 言語処理学会第 18 回年次大会発表論文集, B4-1, pp. 915-918. [S. Sato (2012). Jisho no Midashigo Shugo to Daihyosei. Proceedings of the 18th Annual Meeting of the Association for Natural Language Processing, pp. 915-918.]. 佐藤理史 (2017). 言語処理システムをつくる. 近代科学社. [S. Sato (2017). Gengoshori Shisutemu wo Tsukuru. Kindai Kagaku Sha.]. 安江祐貴, 佐藤理史, 松崎拓也 (2016). 外国人名のカタカナ表記自動推定システムの作成. 言語処理学会第 22 回年次大会発表論文集, pp. 825-828. [Y. Yasue et al. (2016). Gaikokujinmei no Katakana Hyoki Jido Suitei Shisutemu no Sakusei. Proceedings of the 22nd Annual Meeting of the Association for Natural Language Processing, pp. 825-828.]. 安江祐貴, 佐藤理史 (2016). 外国人名カタカナ表記自動推定における各国適応. 人工知能学会第 30 回全国大会, 4B1-1. [Y. Yasue and S. Sato (2016). Country Adaptation in PersonName Transliteration. Proceedings of the 30th Annual Conference of the Japanese Society for Artificial Intelligence, 4B1-1.]. ## 付録 ## A 対訳辞書のサイズ 表 8 に,綴 2021 の氏名対訳辞書および名前対訳辞書の国別のサイズを示す. 表 8 対訳辞書の国別サイズ(国名は IOC コード) # 略歴 佐藤理史 : 1988 年京都大学大学院工学研究科博士後期課程研究指導認定退学.京都大学工学部助手, 北陸先端科学技術大学院大学情報科学研究科助教授, 京都大学情報学研究科助教授を経て, 2005 年より名古屋大学大学院工学研究科教授. 博士 (工学). 言語処理学会, 人工知能学会, 日本認知科学会, ACM 各会員. \author{ (2022 年 9 月 1 日受付) \\ (2022 年 11 月 29 日再受付) \\ (2023 年 1 月 16 日採録) }
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# コツを引き出す対話設定における オンライン料理インタビュー対話コーパスの構築 岡久 太郎 ${ }^{\dagger, \dagger+}$ ・田中リベカ ${ }^{\dagger,+\dagger \dagger}$ ・照玉 貴志 $^{\dagger}$ ・ Yin Jou Huang ${ }^{\dagger}$ ・ 村脇 有吾 $\dagger \cdot$ 黒橋 禎夫 $\dagger$ インタビューは技能者からコツを引き出すための重要な対話形式の 1 つである.本研究では, 料理ドメインにおける技能者からインタビュアーが料理のコツを積極的 に引き出そうとしているインタビュー対話を収集したコーパス (CIDC) を構築した. CIDC は, 308 のインタビュー対話(1 対話あたり約 13 分), 約 6 万 4 千発話から構成される。対話収集には, ウェブ会議システムを用い, 参加者の表情と共有されて いる料理工程を示す写真を発話音声とともに収録した。また,全ての発話を音声認識によって書き起こし,人手で修正した。なお,技能者とインタビュアーのそれぞ れにおいて上級と一般の 2 つの熟達度の参加者を集めた.CIDCを活用することで,今後, インタビュー対話におけるコツの引き出し方に関する研究が進展することが 予想される. キーワード:インタビュー対話,コーパス構築,マルチモーダル情報 ## Domain Knowledge Elicitation in a Corpus of Online Interview Dialogues on Culinary Arts Taro Okahisa ${ }^{\dagger, \dagger \dagger}$, Ribeka Tanaka ${ }^{\dagger, \dagger \dagger \dagger}$, Takashi Kodama ${ }^{\dagger}$, Yin Jou Huang ${ }^{\dagger}$, Yugo MuraWaki ${ }^{\dagger}$ and Sadao Kurohashi ${ }^{\dagger}$ Interviews are an efficient way to elicit knowledge from experts in different domains. In this paper, we introduce a corpus of interview dialogues on subjects in culinary arts called CIDC. In collecting this data, interviewers played an active role in eliciting culinary knowledge from cooking experts. The corpus consists of 308 interview dialogues, each about 13 minutes long, comprising a total of 64,000 utterances. We used a videoconferencing tool to collect the data, which included the content that the participants shared on their screens. This approach allowed us to classify the facial expressions of the interlocutors from the video data. We also categorized the experts as either professionals or enthusiasts and the interviewers as skilled or unskilled. We expect this corpus to facilitate future research on knowledge elicitation mechanisms in interview dialogues.  Key Words: Interview Dialogue, Corpus Construction, Multi-modal Information ## 1 はじめに 対話において,話し手の発話に対して聞き手が質問や確認を行うことで,モノローグにおいては表出しづらい情報を引き出すことが可能である. 本研究では, 対話のこのような機能に着目し, 特定分野の技能者からその技能者が持つコツをインタビューによって引き出すという設定を考え, そうしたインタビュー対話のコーパス構築に取り組む。なお, 本稿ではコツを以下のように定義する. コツ自発的には言語化しづらい,特定ドメインに関する深い知識,感覚 管見の限り,インタビュー対話によって技能者からコツを引き出すという目的で構築されたコーパスは存在しない. このようなコーパスの構築は, 近年の産業界において課題となっている熟練者の技能伝承を支援する対話システムの開発に貢献する. しかし, 産業界の技術者の対話を直接収集し,大規模なデータを作ることは難しい,そこで,比較的多くの人がコツを有する料理に着目する 1 . 本研究では, オンラインビデオ対話において料理の技能者からインタビュアーが特定の料理の調理方法を聞き出すという設定で, 料理インタビュー対話コーパス (CIDC: Culinary Interview Dialogue Corpus) を構築した. CIDCは, 約 6.4 万発話の音声, その書き起こし, オンラインビデオ通話の画面映像のデータ(図 1)と対話者の情報,技能者から収集した料理に関する情報,インタビュアーが事前に考えた質問内容をまとめたメタデータから構成される. インタビュー対話の収集にオンラインビデオ通話を利用したのは,視覚的情報が共有できる対面対話に近い環境で,時間的,金銭的コストを抑えた対話の収集が可能となるためである。日本語を対象とした既存の話し言葉対話コーパスのほとんどは, 電話会話を使用したものか (伝, フライ 2000),参加者を実際に集め,その様子を録音・録画したもの(前川 2004; Fujimura et al. 2012; 伝, 榎本 2014; 小磯他 2019) である. しかしながら, 電話会話の場合は視覚的情報の共有ができないため, 指示語の使用が減少する等, 対面対話とは性質が大きく異なり, 参加者をスタジオ等に集めて対話を収録する場合は時間的・金銭的コストがかかる. 現在, COVID-19の世界的感染拡大の中で, 以前はオンラインビデオ通話を利用していなかった人々も様々なウェブ会議システムを使用するようになった。 オンラインビデオ対話であれば,参加者はいつも使っている自身の機器を用いて自宅から対話に参加することが可能である。 さらに, ウェブ会議システムを使用することで, 参加者はお互いの表情を見つつ, 画面共有機能で  \\ a. 映像データ b. 書き起こし 図 1 料理インタビューコーパスの例. 発話者の列の“E”は技能者を,“I”はインタビュアーを表す. 視覚的文脈を共有することが可能となり,電話会話よりもより通常の対話に近いコミュニケー ションを行うことができる。通信の遅延などのずれは生じうるものの,オンラインビデオ対話はこれらの視覚的情報を含めて対話の記録を行うことができる. 本稿では,技能者からコツを引き出すインタビュー対話コーパスである CIDC の構築方法とその詳細について述べる。2 節で関連研究について述べたのち,3節ではインタビュー対話の収集方法と書き起こしの方法について述べる。4 節では CIDC の統計と特徴について述べる。そして,5 節では全体をまとめ,CIDC の具体的な利用可能性について述べる。なお, CIDC は https://nlp.ist.i.kyoto-u.ac.jp/?CIDCにて公開中である2. ## 2 関連研究 これまでのインタビュー対話システム研究においては, インタビュイーの意見や趣味嗜好, 日常生活に関する情報の取得を目指したインタビューを対象としたもの (Stent et al. 2006; Johnston et al. 2013; Kobori et al. 2016; Inoue et al. 2020; 曽,中野 2021) やインタビュイーの精神状態や周辺環境について傾聴を行う医療目的のインタビューを対象としたもの (Gratch et al. 2014;  DeVault et al. 2014) が多い. そのため, 構築・公開されているコーパスに関しても, 上記の目的を対象としたものが多い. 情報取得を目指したインタビューコーパスの多くは,マルチモーダル情報を含んでいない.杉山他 (2016) は対話を通じた知識獲得の分析を目的として,「今頑張っていること」について学生に心理療法士が聞き取りを行った約 40 分間の対話音声を書き起こした傾聴対話コーパスを作成しているが,マルチモーダル情報は含まれていない。また,杉山らは今後の展望として対話数を増やすことを挙げているものの,収録対話数は 23 対話に留まっている.また,吉越他 (2021) では, 話題の追随に着目した対話システム構築のため, 聞き手が話し手から趣味を聞き出す雑談対話コーパスを構築している.この雑談対話コーパスはクラウドソーシングを用いたチャットによる対話コーパスであるため, 5,114 対話(1 対話あたり約 16 発話)からなる大規模なものであるが,画像のやりとり等は含まれていない. さらに, INTERVIEW (Majumder et al. 2020) や MEDIASUM (Zhu et al. 2021) といったニュースインタビューを対象とした大規模コー パスも構築されているが, これらも書き起こしデータのみを対象としている. インタビュー対話の構造の分析には,テキストデータだけでなく,マルチモーダル情報(発話の音声特徵, 参加者の表情, ジェスチャー, 視覚的情報等) の存在が重要である. 特に本研究が目指しているコツを引き出すインタビューにおいては, 技能者が説明に悩んでいる表情や実際の手つきを模したジェスチャーがコツを引き出している箇所に多く見られることが予想される,そのため,CIDCではそれらの要素を含んだコーパスとなっており,コッの引き出し方を多角的に分析することが可能である. 一方, 医療目的のインタビューを収集したコーパスとしては, 花房, 荒木 (2021) のカウンセリング対話コーパスや Gratch et al. (2014)の DAIC 等が挙げられる. 花房, 荒木 (2021) では,ナラティブ・セラピーのワークショップで行われた 4 つのカウンセリングにおけるカウンセラー役と相談者役の発話の文章化データを対象に,カウンセリングにおける対話の進行段階を 5 つに分けた対話段階を各発話に付与したコーパスを作成している。また,DAICでは鬱病やPTSDの症状についての医療インタビューを,(i) インタビュアーとの対面の対話, (ii) インタビュアーとのウェブ会議システム上での対話, (iii) Wizard-of-Oz 法を用いた対話, (iv) 自動対話システムとの対話の 4 つの設定でマルチモーダル情報を含めて収集している. これらのコー パスでは,インタビュアーはカウンセラーとして対話に参加しているため, 傾聴対話としての特性が強く, 特定分野の技能者からコツを引き出すインタビューとは大きく性質が異なる. 以上のように,インタビュアーとの対話の中で技能者からコツが引き出されるような対話設定でマルチモーダル情報を含んだーパス構築を行っている研究はこれまでに見られない. ## 3 インタビュー対話の収集方法 ## 3.1 対話設定 本研究では,技能者のコツがインタビュアーとの対話によって引き出されるインタビューを実現するために,タスクとして料理の得意な技能者に対して特定の料理の調理工程について尋ねる 2 者対話を設定した。 参加者は各対話において,技能者かインタビュアーのいずれかの役割で対話に参加した. 技能者料理のコッを有し,インタビュアーに対して,特定の料理の調理手順について説明する役割。事前に準備した料理の写真に対して大まかな説明を行った上で,インタビュアーの質問に答える形で,具体的な作り方や注意すべき点を説明する。 インタビュアー 技能者から料理に関するコツを引き出す役割. 事前に技能者が紹介する料理について,技能者から提供された資料に目を通し,対話の準備を行う. なお,対話前に技能者とインタビュアーの双方に,技能者の役割は「自身の選んだある料理について写真をもとに手順などを説明」することであり,インタビュアーの役割は,「技能者の説明を聞きながら, 作業のコツなどのより詳細な情報を聞き出」すことであるとインタビュー の目的を明示している。 また,インタビューの収集コストとの兼ね合いで,プロレベルの技能者とインタビュアーだけでなく, 約半数は一般レベルの技能者とインタビュアーを募集した,技能者については,料理に関する仕事に従事経験がある者を上級技能者 ${ }^{3}$, 料理を趣味としているが,職業とはしていない者を一般技能者に分類した。一方,インタビュアーについては,人事面接など何らかのインタビューを実施した経験を持つ者を上級インタビュアー,そのような経験がない者を一般インタビュアーに分類した。なお, インタビュアーは自炊経験があるなど最低限の料理の知識を持つことを参加の必須条件にしている. 対話データの収集はデータ収集の専門業者に依頼し, この業者が参加者の募集と事前事後のアンケート等を含めたインタビューの監督を行った. 最初に暫定的な条件設定で 20 対話の予備収集を行い,その結果を受け,最終的な条件を定め,288 対話を本収集した.以下の記述では,予備収集と本収集の両者共通の条件は断りをつけず記載し,本収集で新たに設けた条件についてはその都度記載する。 ## 3.2 対話前の指示内容 CIDCが想定しているインタビューは, 単なる調査インタビューやカウンセリングインタビュー とは異なり,技能者とインタビュアーの双方が技能者の持っているコツについて多く話すこと  ができるように事前に準備を行って取り組むものである。夕スク実行前の事前準備として技能者とインタビュアーに以下のような指示を行った。 まず,技能者に以下の 4 つの料理の情報を準備し, 提出するよう求めた. (1) a. 料理タイトル: 紹介する料理のタイトル b. 料理概要: 紹介する料理の概説(50 字程度) c. 手順写真: 6-10枚の調理工程を説明するための写真 d. 自慢したい点(本収集のみ):紹介する料理についての「自慢したい点(こだわり, コツなど)」(少なくとも1つ)を記述した文章. 対応する写真番号とともに報告を求めた. 実際に収集された料理の情報は図 2 のようなものである。 料理タイトル 鰯の梅肉ロール天ぷら ## 料理概要 梅肉にゴマ味噌風味をつけて、 さっぱり味付け。ぱりぱりの骨せんべいと一緒におつまみにぴったりです。 ## 自慢したい点 5枚目:魚の身の巻き終りは梅肉を塗らない。 9枚目:魚の骨を二度揚げする。手順写真 a.「鮮の梅肉ロール天ぷら」の例 ## 料理タイトル 白玉あんみつ ## 料理概要 なめらかもちもちな白玉団子と透明寒天、触感の楽しいおやつです。寒天はノンカロリーで食物繊維たっぷり、うれしい効果もおすすめです。 ## 自慢したい点 3枚目:沸騰してからかき混ぜながら2分。 6枚目:水は少しずつ入れる。 8枚目:浮き上がってきたら2分。 ## 手順写真 b.「白玉あんみつ」の例 図 2 実際に技能者から提出された料理の情報の例 さらに,技能者には以下のような指示を事前に行った. (2) a. 写真を順番に表示できるように準備をしておく(出来上がり写真 $\rightarrow$ 手順の写真 $\rightarrow$ 出来上がり写真) b. 手順の写真を表示しながら「まず野菜を切ります」「塩・胡椒をします」など,「何をしている場面か」を簡単に説明し,あとは質問を待つ. c. 次の写真に進むタイミングはインタビュアーが示す. ただし, 技能者が説明し足りないことがあると感じた場合には,追加で説明を行って良い. d. 話している最中, 写真に対象物が写っている場合には, マウスポインタで指し示しながら説明する。原則として,マウスポインタは見やすいように事前に拡大しておく.(本収集のみ) (2a) から (2c) はインタビューの流れを統一するために設定した事項である。また, (2d) は予備収集の結果を受けて追加した事項であり, 指差しに相当するものとしてポインタの使用を明示的に指示したものである. 一方,インタビュアーには対話タスクの前に上記 (1a), (1b), (1c)の 3 つの情報を与えた上で,以下の指示を事前に与えた. (3) a. 事前に料理タイトル,料理概要,手順写真を予習し,質問の内容とタイミングをイメージしておく. b. インタビュアーが進行役をつとめる. 技能者は最低限の手順しか説明しないので, それ以上の説明を引き出すよう質問する。次の写真に進むタイミングもインタビュアーが示す. (3a)の指示に関して, 本収集では事前に「良い質問のタイプ」を教示し,1つ以上の質問内容とその質問を何枚目の写真で行うつもりか事前に著者らに報告させ,その内容をインタビュー 中に聞くように求めた。この指示は, 実際のインタビューを想像しながらインタビュアーが予習を行えることを目的として設定したものである。 「良い質問のタイプ」とは,予備収集の結果を受けて,インタビュアーが技能者からより深いコツを引き出せるよう作成した 11 個の質問方法とその例を載せた資料である(図 3). 本研究では,技能者が自発的には言語化しづらい知識,感覚を引き出すようなインタビュー対話を実現することを目的としている。そのため, 技能者が自発的に言語化可能な内容(例えば,レシピにも書かれるような内容)のみを尋ねるのではなく,対話の中で技能者自身にも気づきを与える対話となることが望まれる。しかし,予備収集では,技能者がスムーズに説明を行い,インタビュアーはそれに相桘や反応を返す対話になってしまうことが多かった,そこで,本収集で追加したこの資料では,「相手(技能者)が答えにつまりそうな質問」や「相手自身も意識し この資料は、相手(技能者)が答えにつまりそうな質問の仕方をまとめたものです。相手自身も意識していなかった料理のコツを聞き出せるよう、この資料を参考に質問を考えてみてください。 1. 調味料や材料の分量・重さ、募込み時間などの数値的な情報を質問する ・「お奨油は小さじ何杯くらいですか」 ・「何分ぐらいで火を止めますか」 2.「とろみ」「こんがり」「まとまってきたら」などの抽象的な表現について、客観的に判断する手がかりを質問する ・技能者 :「とろみが出てきたら火を止めます」 インタビュアー:「とろみが出てきたのをどうやって判断したら良いでしょうか」 3. 同じ材料・器具がないときはどうするのかを質問する ・「黒酢がないときは、どうしたら良いでしょうか」 4. 食材の下準備の説明が省略される傾向にあるので、あえて質問する ・「お野菜はどうしてこの切り方をしたのですか」 ・「どうして塩をかけるのですか」 5. 写真に映っているのに技能者が特に説明しなかったものを見つけ、それについて質問する 6. 技能者から説明を引き出したら、もう一歩踏み込んで、それが良いことなのかも質問する ・インタビュアー:「ネギは、青いネギじゃなくて白いネギですね」 技能者:「はい、白いネギの青いところと白いところを両方入れました」 インタビュアー:「その方が美味しいのですか」 7. ポイントを率直に尋ねる ・「何かこつはありますか?」 ・「気をつけるべきことはありますか?」 ・「難しいところはどこですか?」 8. 避けた方が良いことや、失敗経験を質問する ・技能者:「鯛の代わりに、他の白身魚やホタテでも良いですよ」 インタビュアー:「良いですね。逆に、イマイチなものってありますか」 9. 反対の意見や、否定的な意見を投げかけてみる ・「ピーマンを入れると、子どもが食べないんじゃないでしょうか」 10. 自分なりの仮説を立てて質問する ・「砂糖の代わりにみりんを使うときも、同じ分量を入れたら良いでしょうか」 11.はい・いいえで答えられる質問を、「どうして」「どうやって」と相手に話させるような質問に言い換える ・「切り方はもつと小さくても良いですか」を「どうしてこの大きさに切ったんですか」と言い換える ・「これ、イタリアンパセリじゃなくても大丈夫ですか」を「イタリアンパセリがないときはどうしていますか」と言い換える 図 3 インタビュアーに教示した「良い質問のタイプ」 ていなかった料理のコツを引き出」すといった目的を明示し,インタビュアーと技能者の対話がレシピにも記載されるような内容を尋ねるのみに留まらないようにした. 「良い質問のタイプ」作成においては,予備収集の対話における以下の 3 つの場面に着目し, その際にインタビュアーがどのような質問をしていたのかを調査し, 一般化した. ・ 技能者の発話にコツが含まれていると思われる場面 ・インタビュアーがもう少しでコツが引き出せたのではないかと思われる場面 - 「うーん」という発話や目線を外すような仕草によって技能者が回答の内容を考えながら話している様子を見せた場面 技能者に提出を求めた (1) の料理の情報とインタビュアーに事前に提出を求めた質問内容は,料理の情報として本コーパスに含まれている. ## 3.3 対話の収録方法 インタビューにはオンライン会議システムの Zoomを使用した。参加者は外付け,またはコンピューターに内蔵されたカメラとマイクを使用し, 画面共有機能によって技能者側の画面を共有した状態で対話を行った(共有画面についての詳細は後述),録音・録画に関してはZoom の録画機能を利用し,音声,カメラの映像,共有された画面の全てを記録した.それぞれの参加者は, 各対話タスクの前に最大 5 分程度の練習を個別に行った(具体的な手順については付録 A).1つの対話は 15 分程度で終了するように,時間超過が予想される場合はチャット機能によって合図が送られた。 ## 3.4 対話終了後のアンケート 対話タスクの終了後, 技能者とインタビュアーのそれぞれに以下の事項についてアンケートを実施した。 (4) a. コミュニケーションはスムーズだったか b. インタビュアーが技能者からコツをうまく聞き出したか c. 自身が料理の知識や技能を持っているか5 (インタビュアーのみ) d. インタビューの感想 5 件法で回答を求めた $(4 \mathrm{a}),(4 \mathrm{~b}),(4 \mathrm{c})$ は「1. そう思う」「2. ややそう思う」「3. どちらでもない」「4. あまりそう思わない」「5.そう思わない」の選択肢から 1 つを選ばせた。 なお, (4c) はインタビュアーが専門的な立場から質問を行っているのか, 一般の立場からコツを引き出すこ  とを試みているのかを判断するために実施した項目である.最後に, (4d)のインタビューの感想は,「その他,感想や印象に残ったこと,お気づきの点などがありましたら自由にお書きくたさい.」と指示し,無回答での提出も許容した. ## 3.5 対話データの書き起こし 専門業者に依頼し,人手によって全ての対話デー夕の発話内容を発話者,開始時間,終了時間とともに書き起こした.発話の単位は 500 ミリ秒以上のポーズを基準とし, 同一話者の発話であっても間にポーズが入る場合は異なる発話として書き起こしを行った. 書き起こし手順として,最初に音声認識システムの AmiVoice $^{6}$ を用いて自動書き起こしを行い,それを人手で修正した。書き起こしは,技能者からコツを引き出す際に観察される発話の内容を検討するためのデータとすることを目的としている,そのため,参加者の発話内容そのものに焦点を当て,相槌や笑いは最小限の書き起こしに留めた。具体的には付録 Bに記載の方針を採用し,疑義が生じた場合はその都度協議の上で書き起こしを実施した。 ## 4 コーパスの構築結果と分析 ## 4.1 コーパスの統計 料理インタビュー対話コーパス (CIDC) は 308 件の対話からなる.コーパス全体に関する統計情報は表 1 の通りである.総語数,発話数ともに技能者がインタビュアーよりも多いのは,事前に両者の役割を設定し,インタビュアーが技能者からコツを引き出すよう指示した効果であると言える。 表 1 収集されたインタビュー対話全体の統計。単語数については,フィラーと言い誤りを取り除き, Juman++ (Tolmachev et al. 2018) を用いて形態素解析を行った. 発話数については, フィラーや言い誤りのみで構成される発話以外の数を示す. ^{6}$ https://www.advanced-media.co.jp } a. (4a) コミュニケーションはスムーズだったか b. (4b) コツをうまく聞き出したか 図 4 インタビュー後のアンケート $(4 \mathrm{a})$ と (4b) に対する回答の分布. 対話タスク実施後に行ったアンケートの結果を図 4 に示す. (4a)の「コミュニケーションはスムーズだったか」という問いでは, 技能者の平均值が 4.64 であり, インタビュアーの平均値が 4.25 であった.回答の分布を見ても,技能者とインタビュアー共に $85 \%$ 以上が「5.そう思う」と「4. ややそう思う」を選択している. (4b)の「コツをうまく引き出していたか」という問いでは,技能者の平均值が 4.62 であり, インタビュアーの平均値が 4.07 であった,回答の分布を見ると,技能者は約 $90 \%$ が「5. そう思う」と「4. ややそう思う」を選んでいる.インタビュアーは,「5. そう思う」と「4. ややそう思う」を選んだのは約 $75 \%$ であり,約 $20 \%$ 「3 . どちらでもない」を選んでいる.インタビュアーは,あらかじめ技能者からコツを聞き出すよう指示されていたことにより,厳しい自己評価をしていると考えられるが,全体としては参加者自身がコツを引き出すインタビューができたと感じていると言える. さらに,インタビュアーのみに実施したアンケートである (4c)の「自身が料理の知識や技能を持っているか」については,平均値が $2.48(\mathrm{SD}=1.09)$ であり,約 6 割が「1. そう思わない」 か「2.あまりそう思わない」を回答していた。この結果から,インタビュアーは専門的な立場から質問するのではなく,あくまでも一般の立場からコツを引き出そうとすることが多かったことが分かる. 最後に, $(4 \mathrm{~d})$ のインタビューの感想については,表 2 のような感想が集まった. 技能者の回答にはインタビュアーに対する好意的な意見が多く見られ,インタビュアーの回答には自身がインタビュー中に聞けなかったポイント等の反省点が多く見られた。 インタビュー参加者数は 26 人 (男性: 5 名, 女性: 21 人; $20 \sim 29$ 歳: 1 人, $30 \sim 39$ 歳: 5 人, 40 ~ 49 歳: 12 人, $50 \sim 59$ 歳: 8 人)であり, その内訳は表 3 の通りである. 3.1 節で述べたように,参加者それぞれに技能者とインタビュアーの 2 つの役割を設定した.技能者の役割でタスクに参加したのは 17 人,インタビュアーの役割でタスクに参加したのは 17 人であるが,そのうち } & 技能者 & \\ 表 2 アンケート $(4 \mathrm{~d})$ の回答例 表 3 役割・熟達度ごとの参加者の内訳. ×はその役割では不参加だったことを表す. 表 4 参加者の熟達度ごとの対話数の内訳 8 人は両方の役割で参加しているため,夕スク参加者の合計は 26 人である.技能者のうち上級技能者は 8 人,一般技能者は 9 人であり,インタビュアーのうち上級インタビュアーは 8 人,一般インタビュアーは 9 人であった。また, 参加者の属性ごとの対話数は表 4 の通りであった. インタビューにおいて紹介された料理は 152 種類であった.紹介された料理を主食,主菜,副菜,デザート,その他に分類すると分布は図 5 のようになり,各分類の例は表 5 に挙げた また,本収集で集めた 288 対話から無作為に選んだ 30 対話において,「良い質問のタイプ」 を読んだインタビュアーに事前報告させた質問内容が実際にインタビュー内で質問されているかを調査した。その結果,事前に報告された質問の数は 1 対話あたり平均 $3.07(\mathrm{SD}=1.78)$ であった。その質問のうち,インタビュアーが実際に対話中で技能者に尋ねた質問の数は平均 2.52 $(\mathrm{SD}=1.57)$ であった.また,インタビュアー側から質問したかどうかに関わらず,事前に報告された質問の回答となる内容に技能者が言及していた数は平均 $2.93(\mathrm{SD}=1.74)$ であった。これらの結果から,インタビュアーが事前に用意した質問に関してその回答となる内容をほぼ引き出すことが出来ていたことが分かる. ## 4.2 ウェブ会議システムを用いた影響 CIDC の特徴の一つは, ウェブ会議システムの Zoom を用いて収録を行ったという点である. ウェブ会議システムは,対話相手の表情が見えるだけでなく,画面の共有機能によって同一の視覚的コンテクストを参照することができる。その一方で,顔以外の対話相手の様子を観察できない点や, 画面共有されている視覚的コンテクストに直接的な働きかけができない点は対面形式の対話には見られない制約である。このようなビデオ通話独自の問題について,参加者は柔軟に対処することができていた。 まず,対話相手の顔しか見えないという制約には,ジェスチャーが必要となる箇所ではカメラに映る位置に手を持ってきて,ジェスチャーを行うことで対処していた.(5) はその一例であり,技能者が発話の太字部分でケーキの型の底部分が持ち上がることを表すジェスチャー(図 6a)とケーキ自体が取り出せることを表すジェスチャー(図 $6 \mathrm{~b} ) を$ 行っている. \\ 表 5 料理の分類の例図 5 紹介された料理の内訳 a. ケーキ型の底部分が持ち上がるジェスチャー b. ケーキが取り出されるジェスチャー 図 $6(5)$ のインタビュー中に見られたジェスチャー (5)「スフレチーズケーキ」(Interview_43: 00:00:28.9-00:00:49.6; 図 6) 8 I :底が、底が取れるっておっしゃられました? $9 \mathrm{E}$ :はい。(あ) そうなんです。(あのー) スフレって(えーと)フランス語で泡っていう意味なんですけれども、とてもふわふわとして型から(え一)取り出しにくいので、この(そそ)底ですね、底が(こー)持ち上がるようになっていて、ケーキがそのまま 10 I : (へー)。 $11 \mathrm{E} :$ 取り出せるような型を使っています。 次に,画面共有された視覚的コンテクストへの働きかけについては,マウスカーソルを動かすことで指差しに相当する指示を行っていた.(6)はその一例であり,太字部分でマウスカーソルを円を描くように動かしている。ここでは,インタビュアーが加熱用の生牡蠣を加熱済みの牡蠣と誤解しており,技能者はその説明を行っている。発話 26 で「これ生ガキなんですけど」 と言いながら,写真のパッケージに書かれている「生かき」という文字の上でカーソルを動かし(図 7), その後, 発話 26 から発話 32 にかけて「加熱調理用」という文字上にカーソルを移し,その説明を行っている。 (6)「牡蠇と鮭のチャンチャン焼き」(Interview_177: 00:01:21.100-00:02:03.550; 図 7) $24 \mathrm{E}$ :(んでー)基本的に火通す料理のときは加熱調理用の方, 使ってもらった方がいいかなと思います。 25 I :(あ)なるほど.もう加熱してあるものの方が, 図 7 (6) の発話 26 に見られたカーソルの動き. 図中に示したように,「生かき」の文字上で円を描くようにマウスカーソルが動かされている。 $26 \mathrm{E}$ :いいえ(えーと)そうでは,そうではなくてですね,(えーと)これ生ガキなんですけど, 27 I :おすすめということです. $28 \mathrm{E}$ : (えと)ここにですね, 29 I : はい. $30 \mathrm{E} :$ 加熱調理用ってかい. 31 I : はい. $32 \mathrm{E}$ :(?)これは火を通して食べてくださいという意味なんですけど, 以上のように,ウェブ会議システムの利用において問題となりうるジェスチャー使用や視覚的コンテクストへの働きかけは柔軟に対応されている。これは, COVID-19 の感染拡大に伴うウェブ会議システムの普及によって,対話参加者がビデオ通話という形式に慣れ親しんできていることも影響していると考えられる. ## 4.3 参加者の熟達度による影響 3.1 節で述べたように,熟達度に応じて技能者を上級技能者と一般技能者に,インタビュアー を上級インタビュアーと一般インタビュアーに分けたが,インタビューの内容そのものからは熟達度に応じた大きな差異は見出せなかった。 技能者とインタビュアーの熟達度ごとの総語数と異なり語数を表 6 に示す.テキスト中に使用されている語彙の豊富さを表す指標である Uber 指標 (Dugast 1978, 算出方法は付録 C 参照) を見ると,上級技能者と一般技能者,上級インタビュアーと一般インタビュアーの間に大きな差は見られない。また,語られている発話内容に関しても上級と一般との間に大きな質的差異は見られなかった。 なお, 発話の内容そのものではなく, 技能者の発話末尾に見られる語用論的特徴に熟達度による差が見られた。具体的には,調理手順の詳細や意図について質問された際,上級技能者は断言する形式での回答が多かったが,一般技能者の場合は「〜と聞きました」「〜だそうです」「多分〜と思います」「〜と言われています」などと断言を避ける回答が多く見られた. (7) は一 表 6 技能者とインタビュアーの熟達度ごとの総語数, 異なり語数, Uber 指標. a. 料理完成写真 b. (7) の対話中の映像 図 8 「エビとレンコンの春巻き」に関する情報 般技能者と一般インタビュアーの対話であるが,春巻きを一度に揚げる本数について発話 249 で「と聞きました」という形の伝聞体が用いられている. (7)「エビとレンコンの春巻き」(Interview_108: 00:10:02.200-00:10:21.050; 図 8) $244 \mathrm{E} :$ これは(あの) 4 本が限界なので, 245 I :(あ)入る分を順番に揚げていくような感じで. $246 \mathrm{E}$ : (?) です.そう,はい.はい. 247 I : (あ). 248 I : くまだ>. $249 \mathrm{E}$ :揚げました.はい.たた(あの一)もしフライパンとか一気に入るのであれば,その方がいいと聞きました(あの一)一気に揚げたほうが. 語用論において, このような発話内容の真偽を曖昧にする表現はへッジ (Hedge) と呼ばれている、へッジがない発話は話者の観察や論理的思考を通して得た知識に基づくものであるが, ヘッジがある発話はそのような確固たる知識がなく,推測に基づく発話が多いと指摘されている (Prince et al. 1982). 上級技能者の発話にヘッジが少ないのは, 彼らが料理を職業としていた経験があるため,一般技能者以上に様々な種類の料理を数多く作ってきた経験によるものであると考えられる。 ## 4.4 コツが引き出されたか 3.2 節で述べたとおり,技能者が単に手順を説明するのではなく,インタビュアーが技能者から料理のコツを聞き出すというインタビューの目的を技能者とインタビュアーが互いに理解 し,その準備をした上で対話する設定を採用した。この対話設定により,CIDCではインタビュアーが効果的にコツを引き出している場面が多く見られた。その詳細な分析は今後の研究に譲り,ここでは「良い質問のタイプ」で事前に提示した以外の手法でインタビュアーがコツを引き出している場面の中で効果的であると思われる 2 つのパターンを紹介する. パターン 1 は,直前に技能者が発言した内容をインタビュアーが繰り返したり,言い換えたりするというものである.繰り返しや言い換えは,対話でトラブルが生じた場合に修復の開始を示す機能 (Schegloff et al. 1977; Schegloff 1997)や,傾聴対話において相手への共感を示す手法として知られている (榆木 1989 ; 三島, 久保田 2003; ホールファミリーケア協会 2004). 一方,今回のインタビュー対話においてはトラブル修復や共感を示すのではなく,それによって技能者がコツに関する詳細な内容を語るという場面が見られた。 (8)「セロリ多めのラグーソースのパス夕」(Interview_56: 00:06:41.150-00:07:41.050; 図 9) $88 \mathrm{E}$ : はい.こちらは先ほど(あの一)大きく(あの一)(ま)切り分けたニンジン, セロリ,にんにく,玉ねぎを,もう一度に(ふ)(あの一)フードプロセッサー の容器に移しまして,かける準備をしているところです。 $ \text { 中略(約 } 16.5 \text { 秒) } $ $95 \mathrm{E} : 3$ か 4 ぐらいに合わせていただい, もう1分も回さないうちにみじん切りができますので,あまり細かくなり過ぎるとピューレになってしまいますので, それには気をつけてみじん切り程度 $96 \mathrm{E} :$ で終わるようにスイッチを切っていただく. 97 I :(あーあー)(えっと)(ん)(み)みじん切り, みじん切り程度が目安っていう感じですかね? a. 料理完成写真 b. (8) の対話中の映像 図 9 「セロリ多めのラグーソースのパス夕」に関する情報 $98 \mathrm{E}$ :そうですね.ちょっと粒が(あの一) 2 ミリ角ぐらいで残る程度が,野菜の (こー)食感も楽しめると思います. 99 I : (はーはーはー). 100 I :(あ一あー)なるほどな.(な)なるほど。(えっと)かけすぎに注意っていうことですよね. もう完全にドロドロになってしまうとまずいっていう. $101 \mathrm{E} :$ そうですね。はい. 発話 95 で技能者が「みじん切り程度」と言ったのに対し,インタビュアーは領きながらその話を聞いているため, この箇所に対話上のトラブルは見られない. しかしながら, 直後の発話 97 で「みじん切り, みじん切り程度が目安っていう感じですかね?」と繰り返しによる確認の発話を行っている. これにより, 発話 98 で技能者から具体的な野菜の大きさ(「2 ミリ角ぐらい」)とその目的(「野菜の(こー)食感も楽しめると思います」)について引き出すことができている. もう1つのパターンは,インタビュアーが自身の経験に言及し,具体的な状況を設定,提示することによって, 技能者から細部についての説明を引き出すというものである. 傾聴対話においては,話し手の発言を受けて聞き手側が自己開示をする(e.g. 「私も○○なんです」)ことで, 話し手は自身の話に対して聞き手がより共感や理解をしてくれていると感じることが報告されている (石田他 2018)。一方, 今回収集したインタビュー対話においては, 技能者の話を受けたインタビュアーの自己開示ではなく, むしろ話の起点として自身の経験について語るというパターンが見られた。 (9)「生シラスのふっくらかき揚げ」(Interview_145: 00:10:34.250-00:11:28.450; 図 10) 177 I :(ふーん)(で)何か(この)揚げているときのコツとかってありますか? $178 \mathrm{E}:$ (あ). a. 料理完成写真 b. (9) の対話中の映像 図 10 「生シラスのふっくらかき揚げ」に関する情報 $179 \mathrm{E} :$ 揚げているときのコツですね. $180 \mathrm{E}$ : (えーと) $181 \mathrm{E} :$ 揚げているときの(こ). 182 I : 例えば, 私, よく(あの一) 何か (こー) 心配で, できているのかなって, (こー)菜箸でぐしゃぐしゃぐしゃ, 183 I :やったりしてしまうんですけど,(な)(な)(な). $184 \mathrm{E}:(?)$. $185 \mathrm{E}$ :そうですね。つまり,なるべく(あの一)なるべく触らないように。 186 I :(あー)やっぱりそうですか. $187 \mathrm{E}:(?)$. $188 \mathrm{E}$ :片面を揚げましたら,(えーと)なるべく触らないようにそのまま(え一) じっくり火を通して,また裏返して,その後も(あの一)ほとんど触らないように,(え一)形がくずれないように揚げていって,(で)最終的に(あの -) $189 \mathrm{E} :($ えーと)バットに上げるときに,油をしっかり(こー) $190 \mathrm{E}$ :切るというのが,(あの)カリッとふわっと仕上がるコッかなと思いますので. 上記の例では,発話 177 でインタビュアーが漠然と「揚げている時のコツとかってありますか?」と質問したため,発話 178 から発話 181 にかけて,約 6 秒間,技能者が回答に窮している。これを見たインタビュアーは,発話 182 で「例えば」と切り出し,自身が揚げ物を行う際に失敗した事例を挙げることで,技能者から発話 185 以降の揚げる時に気をつけるべき点を引き出している. 以上の 2 つのパターンは傾聴対話において見られる,相手への共感や話を聞いていることを示す「繰り返し・言い換え」やインタビュアーの自己開示としての「自身の経験を語ること」とは性質を異にする。これらのパターンは,コツを引き出すことを目的とした対話設定によって生じたものであると考えられる. ## 5 おわりに 本稿では,技能者から知識を引き出す対話システムの構築に向けた料理ドメインにおけるインタビューコーパス CIDC の構築について報告した. CIDC の特徴は以下の 2 点である. 1 目の特徴は, 参加者が技能者とインタビュアーに分かれていることに加えて, コツを引き出すというという目的を事前に共有したことである。現在, 筆者らは CIDC に対して詳細なアノテー ションを実施しており,そのアノテーションに基づき, 4.4 節で挙げたようなインタビュアーによってコツが引き出されている場面を定量的に分析することを目指している.2つ目の CIDC の特徴はウェブ会議システムを使ったことである。これにより,時間的に低コストでありながら,技能者からコツを引き出すインタビュー対話を大規模に収集するという目的を達成することができた。 なお,アンケートの $(4 \mathrm{~d})$ で「インタビューの感想」を求めた自由記述の結果を見ると,インタビュアーが技能者よりも知識や経験がある場合,インタビュアーが技能者の説明に対して不満を持つ事例が少数見受けられた,今回の対話収集では,同一の参加者が技能者とインタビュアーの双方の役割で参加することが可能であった,そのため, 技能者としては上級技能者と分類される者がインタビュアーとして一般技能者にインタビューをする対話が存在した. 実際のインタビューにおいては,インタビュアーは技能者と同程度以下の知識を持った者であることが予想されるため,上記のような設定は避けるべきであった. また,予備収集の結果を受けて,本収集ではインタビュアーに「良い質問のタイプ」を提示し, 事前に質問内容を具体的に考えさせる手続きを取ったが,その結果,15分という制限時間が短く感じたという感想を提出した参加者が複数存在した.インタビューの内容に合わせた適切な時間設定についても今後のコーパス構築において重要な観点であることが明らかとなった. CIDC の具体的な利用方法の一例として,CIDC に対して述語項構造や意味フレームに基づくアノテーションを実施し,それを学習データとした知識構造解析システムを開発することが考えられる,また,マルチモーダルな情報に関しては,ポインタの指示物と言語化されている内容を対応させるアノテーションを実施することで,上述の知識構造化をより精緻に行うことが可能になるだけでなく,技能者の表情やジェスチャーを利用することでコツについて語る場面を視覚的にも検討することが可能となる。このような知識構造解析システムが開発できれば,技能伝承の場面において,技能者が言及した知識をリアルタイムで構造化し,まだ言及されていない知識をインタビュアーに提示するようなインタビュー支援システムを実現することもできるだろう。 ## 謝 辞 この成果は, 国立研究開発法人新エネルギー・産業技術総合開発機構 (NEDO) の委託業務 (JPNP20006)の結果得られたものです.ここに感謝致します. 本資料は Okahisa et al. (2022) に基づくものであり,当該論文は ELRA が著作権を有して CC BY-NC で頒布しています。本資料を CC BY で頒布することについては ELRA の許可を得ました. ## 参考文献 伝康晴, 榎本美香 (2014). 千葉大学 3 人会話コーパス (Chiba3Party). 国立情報学研究所音声資源コンソーシアム. (データセット). https://doi.org/10.32130/src.Chiba3Party, [Y. Den and M. Enomoto (2014). Chiba3Party. National Institute for Japanese Language and Linguistics Speech Resources Consortium. Dataset. https://doi.org/10.32130/src.Chiba3Party]. 伝康晴, フライジョン (2000). 日本語 CallHome コーパス. 音声研究, 4 (2), pp. 24-30. [Y. Den and J. Fry (2000). CallHome Japanese Corpus. Onsei Kenkyu, 4 (2), pp. 24-30.]. DeVault, D., Artstein, R., Benn, G., Dey, T., Fast, E., Gainer, A., Georgila, K., Gratch, J., Hartholt, A., Lhommet, M., Lucas, G., Marsella, S., Morbini, F., Nazarian, A., Scherer, S., Stratou, G., Suri, A., Traum, D., Wood, R., Xu, Y., Rizzo, A., and Morency, L.-P. (2014). "SimSensei Kiosk: A Virtual Human Interviewer for Healthcare Decision Support." In Proceedings of the 2014 International Conference on Autonomous Agents and Multi-Agent Systems, AAMAS '14, pp. 1061-1068, Richland, SC. International Foundation for Autonomous Agents and Multiagent Systems. Dugast, D. (1978). "Sur Quoi se Fonde la Notion D'etendue Theoratique du Vocabulaire?" Le Francais Modern, 46 (1), pp. 25-32. Fujimura, I., Chiba, S., and Ohso, M. (2012). "Lexical and Grammatical Features of Spoken and Written Japanese in Contrast: Exploring a Lexical Profiling Approach to Comparing Spoken and Written Corpora." In Proceedings of the VIIth GSCP International Conference, pp. 393-398. Speech and Corpora. Gratch, J., Artstein, R., Lucas, G., Stratou, G., Scherer, S., Nazarian, A., Wood, R., Boberg, J., DeVault, D., Marsella, S., Traum, D., Rizzo, S., and Morency, L.-P. (2014). "The Distress Analysis Interview Corpus of human and computer interviews." In Proceedings of the 9th International Conference on Language Resources and Evaluation (LREC'14), pp. 3123-3128, Reykjavik, Iceland. European Language Resources Association (ELRA). 花房竜馬,荒木健治 (2021). ナラティブ・セラピーにおける対話段階予測のための素性設計. 日本知能情報ファジィ学会ファジィシステムシンポジウム講演論文集, 37, pp. 425-430. [R. Hanabusa and K. Araki (2021). Feature Design for Dialogue Stage Prediction in Narrative Therapy. Proceedings of the Fuzzy System Symposium, 37, pp. 425-430.]. Inoue, K., Hara, K., Lala, D., Yamamoto, K., Nakamura, S., Takanashi, K., and Kawahara, T. (2020). "Job Interviewer Android with Elaborate Follow-up Question Generation." In Proceedings of the 2020 International Conference on Multimodal Interaction, pp. 324-332, New York, NY, USA. Association for Computing Machinery. 石田真也, 井上昂治, 中村静, 高梨克也, 河原達也 (2018). 共感表出と発話促進のための聞き手応答を生成する傾聴対話システム. 人工知能学会研究会資料言語・音声理解と対話処理研究会, 82, pp. 7-12. [M. Ishida et al. (2018). An Attentive Listening System Generating Empathetic Responses and Promoting User Utterances. Zinko Chino Gakkai Kenkyu-kai Shiryo Gengo Onsei Rikai-to Taiwa Shori Kenkyukai, 82, pp. 7-12.]. Johnston, M., Ehlen, P., Conrad, F. G., Schober, M. F., Antoun, C., Fail, S., Hupp, A., Vickers, L., Yan, H., and Zhang, C. (2013). "Spoken Dialog Systems for Automated Survey Interviewing." In Proceedings of the SIGDIAL 2013 Conference, pp. 329-333, Metz, France. Association for Computational Linguistics. Kobori, T., Nakano, M., and Nakamura, T. (2016). "Small Talk Improves User Impressions of Interview Dialogue Systems." In Proceedings of the 17th Annual Meeting of the Special Interest Group on Discourse and Dialogue, pp. 370-380, Los Angeles. Association for Computational Linguistics. 小磯花絵, 天谷晴香, 石本祐一, 居關友里子, 臼田泰如, 柏野和佳子, 川端良子, 田中弥生, 伝康晴, 西川賢哉 (2019). 『日本語日常会話コーパス』モニター公開版の設計と特徴. 国語研究所日常会話コーパスプロジェクト報告書 3. [H. Koiso et al. (2019). Nihongo Nichijo Kaiwa Kopasu Monita Kokai-ban-no Sekkei-to Tokucho. Kokugo Kenkyu-jo Nichijo-kaiwa Kopasu Projekuto Hokokusho, 3.]. 前川喜久雄 (2004).『日本語話し言葉コーパス』の概要.日本語科学, 15, pp. 111-133. [K. Maekawa (2004). Nihongo Hanashi-kotoba Kopasu-no Gaiyoo. Nihongo Kagaku, 15, pp. 111-133.]. Majumder, B. P., Li, S., Ni, J., and McAuley, J. (2020). "Interview: Large-scale Modeling of Media Dialog with Discourse Patterns and Knowledge Grounding." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 8129-8141, Online. Association for Computational Linguistics. 三島徳雄, 久保田進也 (2003). 積極的傾聴を学ぶ一発見的体験学習法の実際. 中央労働災害防止協会. [N. Mishima and S. Kubota (2003). Sekkyoku-teki Keicho-o Manabu—Hakken-teki Taiken Gakushu-no Zissai. Chuo Rodo Saigai Boshi Kyokai.]. 榆木満生 (1989). 積極的傾聴法. 医学教育, 20 (5), pp. 341-346. [M. Niregi (1989). Sekkyoku-teki Keicho-ho. Medical Education, 20 (5), pp. 341-346.]. Okahisa, T., Tanaka, R., Kodama, T., Huang, Y. J., and Kurohashi, S. (2022). "Constructing a Culinary Interview Dialogue Corpus with Video Conferencing Tool." In Proceedings of the 13th Language Resources and Evaluation Conference, pp. 3131-3139. Prince, E., Frader, J., and Bosk, C. (1982). "On Hedging in Physician-Physician Discourse." In Linguistics and the Professions. Proceedings of the 2nd Annual Delaware Symposium on Language Studies., pp. 83-97. Schegloff, E. A. (1997). "Practices and Actions: Boundary Cases of Other-initiated Repair." Discourse Processes, 23 (3), pp. 499-545. Schegloff, E. A., Jefferson, G., and Sacks, H. (1977). "The Preference for Self-correction in the Organization of Repair in Conversation." Language, 53 (2), pp. 361-382. Stent, A., Stenchikova, S., and Marge, M. (2006). "Dialog Systems for Surveys: The Rate-acourse System." In 2006 IEEE Spoken Language Technology Workshop, pp. 210-213. 杉山享志朗,吉野幸一郎,田中宏季,近藤真人,ニュービッググラム,中村哲 (2016). 傾聴対話コーパスの作成と知識獲得行為の分析. 人工知能学会全国大会論文集, JSAI2016, p. 3. [K. Sugiyama et al. (2016). Making Listening Dialogue Corpus and Analysis of Knowledge Acquirement. Proceedings of the Annual Conference of JSAI, p. 3.]. Tolmachev, A., Kawahara, D., and Kurohashi, S. (2018). "Juman++: A Morphological Analysis Toolkit for Scriptio Continua." In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 54-59, Brussels, Belgium. Association for Computational Linguistics. ホールファミリーケア協会 (2004). 傾聴ボランティアのすすめ. 三省堂. [Horu Famiri Kea Kyokai (2004). Keicho Borantia-no Susume. Sanseido.]. 吉越卓見, 児玉貴志, 新隼人, 坂田亘, 田中リべカ,黑橋禎夫 (2021). 主題性にもとづく雑談 対話システムの構築. テクニカル・レポート 2021-NL-250-7, 研究報告自然言語処理 (NL). [T. Yoshikoshi et al. (2021). Shudai-sei-ni Motozuku Zatudan-Taiwa Shisutem-no Kochiku. Kenkyu Hokoku Shizen-gengo Shori (NL), 2021-NL-250-7.]. 曽傑, 中野有紀子 (2021). 知識と話題の埋め込み表現に基づく質問生成と対話システムへの適 用一料理嗜好インタビューシステムに向けて一. 自然言語処理, 28 (2), pp. 598-631. [J. Zeng and Y. Nakano (2021). Question Generation in Dialogue Systems based on Embedding Representation of Knowledge and Topics: Toward Food Preference Interview System. Journal of Natural Language Processing, 28 (2), pp. 598-631.]. Zhu, C., Liu, Y., Mei, J., and Zeng, M. (2021). "MediaSum: A Large-scale Media Interview Dataset for Dialogue Summarization." CoRR, abs/2103.06410. ## 付録 ## A 個別練習の内容 対話タスクに初めて参加する者に対し,インタビュー収録の前に監督者が以下の点について確認した。 ・ 名前などの個人情報を発話しないこと ・ビデオ映像に表情が良く映るよう,カメラとの距離は適度に保たれていること - 対話時間が 15 分を超えそうな場合に監督者が送信するチャットが見られること ・対話中にトラブルが起きた場合, チャットで監督者に知らせること ・技能者が写真を表示し, 次の写真に移動することができること ・インタビュアーが進行役を務め,写真を元に最低限の作業手順を聞いて,質問を交えながら話の流れでインタビューを進めてもらうこと また, リハーサルとして技能者に最初の写真を表示させ, 冒頭部分のみを説明をさせた上で, インタビュアーが進行役として次の写真に進める手順を実際に行わせた。 ## B書き起こしの方針 書き起こしの方針は以下の通りである,書き起こしの引用に打いては,各発話の左に付している番号は当該インタビュー全体通しての発話番号を表し,“E”技能者の発話であることを, "I" はインタビュアーの発話であることを表す. (10) a. フィラーや, 発話が尻つぼみになったり相手の発話と重複し途中で聞こえなくなったりした場合は,丸括弧を用いてその箇所を明示する。 ・「ブリの照り焼き」(Interview_170: 00:01:06.150-00:01:17.500) 27 I :(んー)はい.これは(せ)背側とか腹側とか, どっちが美味しいとかありますか? $28 \mathrm{E} :($ うーん)どちらでも美味しく食べられると思うんですけど. b. 一方の話者が発話中の, もう一方の話者の相槌(「うん」「ふん」等)については書き起こさない,ただし,「なるほど」や「そうなんですね」のような発話がはっきりと聞き取れる場合は書き起こしの対象とする。 ・「茄子のぬか漬け」 (Interview_15: 00:02:49.533-00:3:00.243) $46 \mathrm{E}$ :そうでしょうね, 多分. (あの一)多分冷蔵庫の中で, 水分的にも温度的にもいい状態が(あの)茄子のまわりに作られると思うんですね。 47 I :なるほど。はい.わかりました。 c. 単発の笑いについては【笑い】と書き起こし, 発話中の笑いについては笑いの情報は残さない. - 「薔薇のアップルパイ」 (Interview_96: 00:03:12.150-00:03:21.750) 60 I :こちらのパイシートは手作りのものになりますでしょうか? $61 \mathrm{E}:($ ( ) もう $62 \mathrm{E}$ : スーパーに売ってる冷凍食品にある冷凍パイシートです. $63 \mathrm{E}$ : 【笑い】 d. 発話内容が聞き取れない場合は「(?)」と表記する. - 「黒豆」 (Interview_159: 00:03:40.250-00:03:54.200) 84 I :(ゆ)丹波の黒豆とか(?)やつですか? $85 \mathrm{E}$ : (あ)そうですね,それはもちろんこの丹波の黒豆が最上級ですけれども,丹波の黒豆(しゅ)を使ったものが,(あの一)他に北海道とか e. 10 秒を超える程度の長い発話の場合は, 書き起こしの読みやすさを考慮し, ポーズとは無関係に句読点で区切っても良い. -「紅茶のムースケーキ」 (Interview_165: 00:05:12.500-00:05:46.450) 54 I :ゼラチンは(こ)粉や板や何かお勧めというか 55 I :ありますか? $56 \mathrm{E}$ :そうですね。(ま)私はもう板が慣れているので(え一)板をお勧めするんですけれども, 板は(ま)計りやすい, 大体 1 枚もう 4 グラムって決まってますので計りやすいですし, お水も(えー)粉でしたら計らないといけないんですが,もう板の場合は,その板がなんていうんでしょ, $57 \mathrm{E}$ :(えーとー)全部(こー)(お)お水が $58 \mathrm{E}$ :浸ってればいいようなんですね.なので(えー)計量も楽ですし扱いも楽かなと思います。 f. 言い誤りなどで正確に話せていないような場合は正表記に直して書き起こす. なお,(10a)については,フィラーと文頭の言い直しや末尾のはっきりとは聞き取れない部分の区別が難しいため,書き起こしの段階では同一の()で括るという方針を取っている。そのため,コーパス構築後に次のような処理を施し,意図的なフィラーとそれ以外の言い誤りを 区別した. (11) a. コーパス全体を通して,出現頻度が 10 回未満かつ長音記号を含まないものを文頭の言い直しや末尾のはっきりとは聞き取れない部分とみなし,〈〉で括った b. それ以外はフィラーとみなし,()で括った - 「海老の旨煮」(Interview171_:00:08:00.000-00:08:16.250) $191 \mathrm{E} :$ そうですね. でも 2 分ぐらいは置いといてもらった方がいいと思います. (あの)ちっちゃい, 大きいあると思うんですけど. 192 I : (あー)はい. $193 \mathrm{E}:$ (で)さっとくあがっ> $194 \mathrm{E}$ :上げて,その後も余熱で火が中にも入るので. ## C Uber 指標の算出方法 テキスト中の総語数を $N$, 異なり語数を $V(N)$ とした時, Uber 指標は以下のように求める. $ U b e r=\frac{(\log N)^{2}}{\log N-\log V(N)} $ ## 略歴 岡久太郎:2014 年東京学芸大学教育学部中等教育教員養成課程国語専攻卒業. 2016 年京都大学大学院人間・環境学研究科修士課程修了. 2020 年同博士後期課程研究指導認定退学. 2021 年京都大学より博士(人間・環境学)を取得.博士 (人間 - 環境学). 2020 年京都大学大学院人間 - 環境学研究科特定研究員, 2021 年京都大学大学院情報学研究科特定研究員, 2021 年静岡大学情報学部助教, 現在に至る. 理論言語学, コミュニケーション研究に従事. 言語処理学会会員. 田中リベカ:2013 年お茶の水女子大学理学部情報科学科卒業. 2015 年同大学院博士前期課程修了. 2018 年同博士後期課程単位修得退学. 2021 年お茶の水女子大学より博士 (理学) を取得. 博士 (理学)。2018 年から 2021 年まで京都大学大学院情報学研究科特定研究員. 2021 年よりお茶の水女子大学文理融合 $\mathrm{AI}$ ・データサイエンスセンター特任講師. 児玉貴志:2019 年京都大学工学部電気電子工学科卒業. 2020 年京都大学大学院情報学研究科博士前期課程修了. 同年より同大学院情報学研究科博士後期課程に進学. 現在に至る. 修士 (情報学). 自然言語処理の研究に従事. 言語 処理学会会員. Yin Jou Huang:2015 年台湾大学卒業. 2017 年京都大学大学院情報学研究科博士前期課程修了. 博士 (情報学). 2021 年より京都大学大学院情報学研究科特定研究員. 2023 年より京都大学大学院情報学研究科特定助教. 自然言語処理の研究に従事. 言語処理学会会員. 村脇有吾:2011 年京都大学大学院情報学研究科博士後期課程修了, 博士(情報学). 同年京都大学学術情報メディアセンター特定助教, 2013 年九州大学大学院システム情報科学研究院助教, 2016 年京都大学大学院情報学研究科助教,2020 年同講師,現在にいたる。テキスト解析および計算言語学に関する研究に従事. 言語処理学会, 情報処理学会各会員. 黒橋禎夫:1994 年京都大学大学院工学研究科博士課程修了. 博士 (工学). 2006 年 4 月京都大学大学院情報学研究科教授. 2023 年 4 月より同特定教授および国立情報学研究所長. 自然言語処理, 知識情報処理の研究に従事. 言語処理学会 10 周年記念論文賞, 同 20 周年記念論文賞, 文部科学大臣表彰科学技術賞等を受賞.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 国内におけるドメイン依存の固有表現抽出の応用技術の調査 福田 美穂 $\dagger$ ・関根聡 $\dagger \dagger$ } 一般ドメインでの固有表現抽出が高い精度を実現するようになった今, 研究の目標 は化学や医療, 金融などさまざまなドメインでの固有表現抽出技術の精緻化へとシ フトしている。そこで本論文では,ドメイン依存の固有表現抽出技術応用に関する 近年の国内研究動向を報告したい。技術に重点を置いた分析は他文献に譲り,具体的な問題を抱えるさまざまなドメインの読者を念頭に「どのようなドメインでどの ような対象に対してどのように固有表現抽出が行われているか」を調査した.4つの 学会大会論文および 3 つの学会論文誌からドメイン依存の固有表現抽出技術に関す る論文を調査したところ,該当する論文のうち約半数が,化学ドメインにおける新規商品開発等支援のための化学物質名・化学物質間関係抽出を主題としていた. そ の他のドメインは,医療,金融,機械加工,文学,食など多岐にわたり,多様な抽出目的・抽出対象を確認できた。技術的には機械学習を使った手法が主流となって おり,とくに本論文の調査期間では BiLSTM-CRF およびBERT を使う事例が大勢 を占めているが,それらを補完する目的で辞書等の言語資源を組み合わせる手法も 多く見られている。 キーワード:固有表現抽出 ## A Survey of Domain-Specific Named-Entity Recognition in Japanese \author{ Miho Fukuda ${ }^{\dagger}$ and Satoshi Sekine ${ }^{\dagger \dagger}$ } \begin{abstract} Named-entity recognition (NER) technologies have been developed for the general knowledge domain, and the extension of NER to specific domains has now become a topic of active research. In this paper, we provide a survey of recent studies on domain-specific NER technologies for the Japanese language. We focus on aspects of different applications such as their targets and purposes as well as the knowledge domains considered. Our results show that chemistry is the most fundamental knowledge domain represented in these works, along with medical, financial, machining, literature, and food domains. Most of the systems included in the survey utilized machine learning methods such as BiLSTM-CRF and BERT, though some studies used rules and dictionaries in addition to these approaches. \end{abstract} Key Words: Named Entity Recognition  ## 1 はじめに 固有表現は情報抽出技術の進展に伴った概念の形成以降,定義および抽出技術の確立が進んできた,現在,一般ドメインにおける人名,地名,組織名などについては,大量のトレーニングデータが用意されていれば,深層学習を活用した技術により,かなり高い精度での抽出が可能となっている(岩倉 2015)。一般ドメインだけでなく, 本論文で紹介する化学, 医療・薬事,企業情報・金融, 機械加工・交通・文学 (小説) ・食・土産品などの幅広いドメインにおいて固有表現抽出技術の応用が強く求められている. 本論文では, このようにドメインに依存した固有表現の定義や抽出技術についての研究動向を調査し, 実際に特定ドメインにおける固有表現抽出を試みる技術者の一助となることを目的に現状をまとめた。その際,各研究で使われている技術や手法の詳細を分析するのではなく, どのドメインでどのような対象の抽出が何のために試みられているのかといった,技術応用のあり方を探ることに重点を置いた. 現状を調査するにあたり,以下 4 つの学会大会誌および 3 つの学会論文誌での発表論文を参照し,その中からドメイン依存の固有表現抽出をテーマとしたものを抽出した. 該当したのは,総論文数数千件のうち 52 件であった. $\cdot$ 言語処理学会年次大会(2019 年~2022 年) $\cdot$「自然言語処理」(2018 年 1 月 2021 年 12 月) ・情報処理学会 NL 研究会(2018 年 5 月 2021 年 9 月) ・情報処理学会論文誌(2018 年 1 月 2021 年 12 月) - 人工知能学会全国大会 (2018 年 2021 年) $\cdot$ 人工知能学会論文誌 $(2018$ 年 1 月 2021 年 12 月) ・電子情報通信学会テキストアナリティクス・シンポジウム(2011 年 7 月~2021 年 11 月) ## 2 ドメインごとの状況 上記のようにドメイン依存の固有表現抽出をテーマとする論文を調査し,内容をドメインごとに分類した。その結果,化学ドメインの論文が最多の 25 件であり,その後医療・薬事ドメインと企業情報・金融ドメインが同数の各 5 件であった。また「ドメイン」としては $1 \sim 3$ 件程度の研究でも,それらを合計すると 17 件となった。それぞれのドメインの特徴と, 代表的な研究例を以下に紹介する. ## 2.1 化学ドメイン 過去 3 年間で固有表現抽出の応用研究がもっとも活発に行われているのは化学ドメインであり,全体の 52 件中 25 件が該当した。 中でも化学物質名やそれらの関係抽出タスクが多い. 化 学物質名は 2015 年時点で 2 分 30 秒に 1 件新たに CAS (Chemical Abstracts Service) に登録されているとされ(岩倉・吉川 2020),人手での処理が困難であり,機械で自動的にリスト化したいというニーズが高い. ニーズの高さや事例の多さを反映し,化学ドメインに依存したデータセットなどの資源が複数公開されている。固有表現抽出を含めた情報抽出タスクのデータセットとしては, CHEMDNER (Krallinger et al. 2015), CHEMPROT (Krallinger et al. 2017), ChEMU (He et al. 2020) などがあり, 固有表現抽出にも活用可能な BERT モデルとしては, 化学関連の文献から事前学習した BioBERT (Lee et al. 2019) や SciBERT (Beltagy et al. 2019) といったものがある. 化学物質データベースとしては PubChem (Kim et al. 2016) や ChEBI (Degtyarenko et al. 2008) などが広く利用可能であり,固有表現抽出のための知識として活用されている. 化学ドメインにおいては, 化学物質の種類が多いため, ひとつひとつの出現頻度が低いことが課題のひとつである。学習デー夕中の出現頻度が低い, または存在しない化学物質名が大量に存在するため,固有表現抽出の再現率が下がるといった影響を受けやすくなっている。そのため何らかの辞書を利用または新たに構築することで精度低下を防ぐ試みがおこなわれている。 たとえば,深層学習(BiLSTM + CRF モデル)に外部知識源 (WikiData, PubChem, ChEBI) から作成した化合物辞書と日本化学物質辞書を組み合わせることで,原材料と製造方法の抽出精度を高めた手法がある(邊土名他 2019)。これは日本語版 Wikipedia の化合物記事から,化合物の原材料・製造方法を抽出する手法を検討したものである。化合物の原材料・製造方法は, \\ 表 1 化学ドメインの固有表現抽出タスクで利用可能な資源 化合物の 6 属性(原材料・製造方法・種類・別名・用途・特性)の中でもパターンでの抽出がほぼ不可能で, 文脈を考慮する必要もあるため, 抽出が難しいとされている,だが本手法では,辞書の利用により適合率を $2 \sim 10$ ポイント, 再現率を $8 \sim 26$ ポイント向上させることができた.現在広く使われている手法をべースに,その欠点を補完する研究も行われている。新城ら (2021) は化学論文から化学物質間の相互作用等の関係を自動抽出する手法として, BioBERTを基礎としてその精度を高める方法を検討した.BioBERT は大量のラベル付きデータを必要とするが,ラベル付けに専門知識が必要となるため,コーパスの構築にコストがかかる。また関係抽出タスクでは構文情報が手がかりになると期待されるが,BERT はそれを利用しておらず, しかも単に構文解析結果を利用するだけでは処理効率が下がる懸念がある。そのため新城らは, CHEMPROT などのラベル付きデータおよび PubMed にラベルを付与したデータで固有表現抽出器・関係抽出器の学習を行った。また,PubMed に構文情報が反映される形でラベルを付与したため, 大幅に効率を高められる。評価の結果, この手法では BioBERT より高い精度が得られ,また構文解析結果を用いる手法より最大 29 倍高速に処理できることが示された. 学習データ確保に対するアプローチとして, Distant Supervision (DS) による夕グ付与の自動化が注目されている (Yang et al. 2018). 化学物質名の固有表現認識においては, 何らかの辞書データとテキストを照合させることで,辞書に登録された化学物質名部分を正解とする学習データを作成できる。辰巳ら (2019) はさらに,そのような DSを用いた固有表現抽出手法の主な課題は (1) 化学辞書には「water」のような一般用語が多く混在するため抽出時にノイズが多くなる, (2) 化学ドメインには略称や表記摇れが多いため学習データの再現率が低くなる,の二つであるとし,その解決手法を提案した,手法には 3 つのサブタスクがあり,すなわち (1) DS データ作成, (2) ノイズ除去, (3) コーパス拡張である。(1) では化学物質名辞書を CTD (Comparative Toxicogenomics Database), MeSH (Medical Subject Headings), PubChem,一般用語集である Google 10,000 Englishの複数の組み合わせで作成した結果, PubChem から Google 10,000 English を取り除いた単語集合で最も高い適合率を得る一方, PubChem と MeSH, CTD の組み合わせにより最も高い再現率を得た。またDSデー夕作成において対象文献の出版年度とカテゴリを評価データである ChemdNER とそろえることでさらに F1 值を向上させた. (2) では NER の予測モデルに基づくノイズ除去を行い, 適合率, 再現率, F1 値を向上させた. (3) ではDS データの特定単語を辞書単語と入れ替えたデー夕を追加することでコーパス拡張を行い,文数を約 3〜7倍(条件により変化)程度に増加させた. 深層学習モデルが必ずしも高精度な結果を出すわけではない. 牧野ら (2020)による,無機材料文献から材料合成プロセスを抽出する研究では, 深層学習モデル (BERT) とデータセット観察により得たルールモデルを比較している.性能評価実験の結果, マクロ $\mathrm{F}$ 値の比較で前者が $0.546 \pm 0.006$, 後者が 0.888 と, より高精度な結果を出した. ただし前者が正しく抽出した関係で後者が誤っている例もあり,両方を組み合わせる方法を検討する必要があるとされている. 化学ドメインの中でも, 抽出したい化合物の内容はさまざまである. 山口ら (2021) は超電導材料に関する情報を文献抄録から効率よく抽出するシステム構築を目指し,固有表現・関係・ イベントを抽出するモデル (DyGIE++) と, 主題材料分類モデル (Longformer), およびこれらを統合しスロット抽出するルールベースモジュールを作成した。その結果,固有表現・関係・ イベント抽出モデルは $\mathrm{F}$ 值が 72.9 から 96.7 と高い性能を示し, 主題材料分類モデルでも $\mathrm{F}$ 值は平均 83.9 となった. スロット抽出モジュールも併せたシステム全体としては F 值は 64.7 を実現した。 ## 2.2 医療・薬事ドメイン 化学ドメインに次いで事例が多かったのは医療・薬事ドメインと金融・企業情報ドメインで, いずれも調査対象の論文中 5 件が該当した。本項ではまず医療・薬事ドメインについて述べる. このドメインにおける固有表現抽出の応用先は, 電子カルテの分析や, 薬剤情報抽出, SNS からの障害情報抽出などがあり, 抽出元テキストや抽出した情報の利用目的・利用者が化学分野より多様である. 電子カルテ分析に関しては 2 件の研究があり,1 件は分析技術開発の基盤となるコーパス構築をテーマとしたもの,1件は臨床現場で医師をサポートするためのシステムをテーマとしたものであった.前者は約 45,000 の症例報告文書の中で,病名および症状が記述された部分を人手で抽出しタグを付与したものである(荒牧他 2018)、コーパス自体だけでなく,その過程で議論された病名・症状の定義やタグの付与指針, コーパスを使って開発した病名抽出器も公開されている. 電子カルテ分析に関するもう 1 件の研究は, 電子カルテの自由記述部分から医師の判断のサポートに役立つ情報の抽出を試みたものである(加藤他 2019).電子カルテは近年多くの医療現場で導入され,数値データや画像データを対象とした研究例は多いが,自然言語による自由記述部分は解析が難しく, 研究が少ないのが現状である。患者のプライバシー保護のため, 電子カルテの実データを研究で利用するにも制限がある.そこで加藤らは,抗がん剤の副作用として皮膚障害を持つ患者の模擬電子カルテを作成し, その自由記述部分から抽出する「<bodyregion>手指</bodyregion>に<symptoms>亀裂</symptoms>が出来ます」のような表現に基づいて皮膚障害の重症度を判定する手法を提案した。キーワードと辞書(医療参考書等を元にした 550 語)を利用した機械学習 (SVM) の手法に加え、ルールベースの手法も構築し, 性能を比較した. 評価の結果, 疾患の種類によって機械学習の方が正確度が高い場合とルールベースの方が高い場合があったが,いずれも正確度 7 割前後と人間と同程度の性能を実現できた. なお生命科学関連では英語の論文抄録を対象にした GENIA コーパス (Kim et al. 2003, 2008) がよく利用されており,BioNLP や BioCreative といった国際ワークショップ等での固有表現抽出やイベント抽出タスクでも活用されている. 薬事関係では,新規薬剤開発コスト低減のために医薬品添付文書の活用を目指す研究が見られた(小島他 2020),新規商品開発の参考とすることを意図した固有表現抽出の応用例は化学ドメインでもよく見られるが, 本研究は医薬品添付文書に着目した点が特徴的である. 医薬品添付文書には製薬の参考にできる詳細な情報が記述されていることが多く,PDF 形式ながら公開されているため,構造化して利用できる状態になれば有用と考えられる。ただ自然言語で書かれておりほとんどタグ付けされていないため,活用が進んでいない,小島らは医薬品添付文書にはテキストを含む PDF と付随する SGML の形で構造化されたデータがある点に注目した. SGMLのデータからは,「有効成分」「禁忌」「臨床成績の表」といったクエリと,それとぺアで抽出すべきテキスト(たとえば「有効成分」に対しては「リセドロン酸ナトリウム水和物 $86.1 \mathrm{mg}$ )のような夕グの代替データが抽出できる。小島らはそのデータと PDF から抽出したテキストをマッチングさせることでデータセットを構築した。この方法によって構築した 2018 年分のデータを使って BiLSTM を含むネットワークでの学習を行い, 2019 年分データでモデルを検証した。その結果, クエリと回答の厳密一致でも正答率 0.56 という性能を実現した. ## 2.3 企業情報・金融ドメイン 前述の通り,企業情報・金融ドメインでも,調查対象中 5 件の論文が該当した.投資家やそれを顧客とする金融機関にとって,各企業が発表する決算資料等の文書や新聞記事等の分析は,文書量が膨大であることから大きな負担となっている。また投資家に限らず,たとえば得意先・取引先の状況を把握するために,新聞記事等を元に企業情報を効率よく理解したいというニー ズは高い。それらの作業を効率化するべく, 決算資料や新聞記事からの情報抽出の試みが多く見られている(坂地他 2020). 該当の 5 件中 2 件は,名刺管理サービス「Sansan」に付帯するニュース配信の中での固有表現抽出を目的とするものだった。そのうち 1 件はニュース記事から「企業活動の中で生まれたモノやサービスを表す名称」(たとえば商品名, サービス名, 運営する施設名, キャンペーン名など)を抽出する手法を検討したものである(奥田・高橋 2020)、その手法では, ニュース記事のタイトルと本文から鉤括弧(「」および『』)内の文字列を抽出し,それが抽出目的の企業キー ワードであるかの判定を,BiLSTM-CRF に Contextual String Embeddings (CSE) を組み合わせて行った.実験の結果,ふたつのべースライン手法(1. すべての鉤括弧内文字列をキーワー ドとした場合, 2. 鉤括弧前後 10 単語の Bag-of-Words 表現を用いたSVMによる二値分類の場合)と比べて適合率・再現率ともに高く, F 値は 0.83 となり,提案手法の効果を確認できた. 柳井ら (2020) は有価証券報告書や有価証券届出書等の金融分野の開示文書から「売上高」$\cdot$「自己資本比率」等の経営指標の表現を抽出する手法を提案した。これらの文書では「○○を運用上のベンチマークとして」「○○を対象指数として」など一定パターンの記述が多用されるため, 構文木の木構造のパターンマッチを行う StruAP (Structure-based Abstract Pattern) を提 案し, 木構造パターンを 62 件定義することで, 目的とする経営指標の抽出を試みた. 30 社の有価証券報告書から経営指標を抽出したところ, 文書単位での再現率 $80 \%$, 適合率 $93.7 \%$ という結果となった. ## 2.4 その他 本稿の調査対象の中では, 上記の分野以外に, 食ドメインで 3 件, 機械加工・交通・文学 (小説)・土産品といったドメインで各 2 件ずつ論文が発表されていた。他にも,会議録からの法律名抽出や将棋解説文からの固有表現抽出,陸上競技ブログからの活動記録抽出など,「ドメイン」 として分類すれば各 1 件となるものの, 特色ある研究テーマが発表されている. 食ドメインでは,消費者がインターネットに書き込むレストランレビューをマーケティングに利用することの実現可能性を探るべく,レビュー上の食べ物・飲み物表現を抽出する試みがあった(新堂他 2018)「どのような食べ物・飲み物がトレンドであるかを把握する夕スク」を仮定し, 個々の食べ物・飲み物とその性質(味,香り,形状等)を詳細に描写する表現(例:「香り高くのど越し抜群のおいしい十割そば」)の抽出を目指した. 食べログのレビューデータから, 店舗ジャンルごとに同数のレビューを抽出し, 食べ物・飲み物表現に対し人手でタグ付けし, ナイーブな CRFベースのモデルと BiLSTM-CNNs-CRF ベースのモデルを作り比較した.結果として, 前者のモデルでは再現率が低くなる傾向があり, 後者では再現率が改善したが適合率が若干低下するといった知見が得られ,今後のマーケティング利用に向けた基礎を作ることができた。 同じく食ドメインで,レシピからの固有表現抽出に必要な教師デー夕を低コストに補完する方法の検討もなされた(平松他 2018; 原島 2019).そのような手法としては既存の辞書などの言語資源が使われることが多いが,単に解析対象のテキストと辞書内の表現をマッチングするような手法では辞書に含まれる表現しかカバーできない。そこで,レシピ内の表現を既存の料理オントロジーの属性ラベル(「材料一魚介」「調味料」など)に分類し,その結果を固有表現抽出器に入力することとした。これによって直接辞書に含まれない表現まで分類ができ,その後の固有表現抽出の性能をさらに高められる。固有表現抽出に BiLSTM-CRF を用い,上記の単語分類器を組み合わせた提案手法と固有表現抽出器のみの手法などを比較した結果, 提案手法の性能が他の手法を上回った。ほかにもレシピ関係では,「風邪に効く食材を使った料理」のレシピを紹介するシステムを作るために,掲示板のテキストから食材と効能の対を抽出する手法を使った研究も見られた(角谷他 2019). 機械加工ドメインでは,技術文書内に記述される機械加工因子とそれら同士の関係(A が増すと B も増すなど)を抽出する手法が提案された(稲熊他 2021)。機械加工分野では高齢化により技術継承が急がれており, 中でも熟練を要する工程策定業務の継承が課題となっている.工程策定には,「切削速度が増加すると切削速度が増す」といった機械加工因子(切削速度・切 削温度など)間の関係の知見が必要となる。機械加工因子用語は,たとえば「切削加工」に「切削」と「加工」が含まれ,「切削加工」は「切削」という過程における「加工」という方法である,といった入れ子構造がある。また機械加工因子用語の間に,「切削速度が増加すると切削温度が増す」といった関係が記述されている場合があり,そこには「増加する」「増す」のように 「トリガワード(「物理量を示す二用語間の変化を表す単語」と定義)がよく使われている。そこでこの研究では, 用語の入れ子構造およびトリガワードを考慮しながら, 用語と関係の同時抽出を行っている。その結果, 用語抽出と関係抽出を別々に行うよりもマルチタスク学習モデルの方が高精度を得ることができた. 文学ドメインにおいては,ライトノベルのような創作テキストを「銀髪赤目の少年」や「長身のメイド」といった登場人物の特徴に踏み込んで探索できる機能へのニーズがあるとして, 小説から人物情報を抽出する手法の提案があった(岡・安藤 2021).小説本文内で, 登場人物の名前や性別, 年齢や容姿といった表現に夕グ付けし, BiLSTM-CRF をべースとした複数のモデルで学習を行い性能を評価した。性能が最良となったモデル (BiLSTM-CRF) では, 性別や年齢などの表現で高い F1 值(それぞれ $95.95,92.62$ )となっただけでなく,人物関係(例:兄,相棒)や職業・立場(例:竜飼い, 最高権限者)といったより多様な表現でも 80 以上の高い F1 値を達成できた。 土産品ドメインでは「現地でしか購入できない土産」の情報をWebから収集するシステムの構築を目指し,ブログから土産名・店名を抽出するモデルが提案された(池田・安藤 2019)。具体的には,Yahoo!ブログの菓子・デザートカテゴリを土産名で検索し,ヒットした記事に対し人手でタグ付けしたうえで, 深層学習モデル(BiLSTM-CRF や Char-BiLSTM-CRF など)と CRF モデルを用いて固有表現抽出を行った。その結果, 前者は学習デー夕に含まれる固有表現に対し,後者は学習データに出現しない固有表現に対し,それぞれ有効であることが確認できた。 法律ドメインでは,会議録中の法律名をWikipedia の項目に結びつける試みがあった(桧森他 2020).法律名には「特定複合観光施設区域の整備の推進に関する法律」を「カジノ解禁法」「IR 推進法」と呼ぶなど,人手でも判断が難しい表記摇れがありうる。そのため,表記摇れも含めてあらゆるメンションを「法律名を表す語句」と定義し, 言及抽出及び曖昧性解消の両方を同時に行うこととした. 国会・地方議会会議録 10 日分に対し人手でタグ付けし, BERTで固有表現抽出モデルを作成してメンションを抽出,それをWikipedia 記事に結びつけることで曖昧性解消を行っている。 小売ドメインにおいては, EC サイトの商品タイトルから商品名を抽出する手法が提案された (張 2019). EC サイトでは, 各小売店が自社の取り扱い商品を検索結果の上位に表示させるため, 商品名に加えて「純正品」「送料無料」といった文言や商品の品番などの情報が付加されることが多く,ユーザーやサイト運営者にとってはわかりにくいことがある.そういった付加情報は多くが名詞や名詞句の羅列であり,一般的な文章とは構造が異なる.そこで当該研究で は, TF-IDF や CRF, BiLSTM-CRF といった手法で商品タイトルから商品名を抽出し, その精度を比較している。 科学ドメインの論文から,数值表現を通じて技術トレンドを抽出しようとする試みもあった (黒土他 2020). 本研究では「半導体の集積度は 18 カ月ごとに 2 倍になる」とした「ムーアの法則」に見られるように,技術的な傾向を数値表現から読み取れる可能性に着目した.数値表現の抽出にはルールベースの StruAP (Structure-based Abstract Pattern) というツールを用い,「dialectic constant」と「10.2」のような,項目名と数値表現のペアを抽出した. ## 3 考察 以上を踏まえ,国内におけるドメイン依存の固有表現抽出の全体的な傾向を 2 点述べる。ひとつは固有表現抽出を行う目的の類型であり,もうひとつは技術的な傾向である. ## 3.1 固有表現抽出を行う目的の類型 上に取り上げた事例において,文書からの固有表現抽出を行う目的はさまざまだが,大別すれば (1) 多様な固有表現そのものをより網羅的にまたは大量に獲得しようとするものと, (2) 抽出した固有表現を通じて何らかの知見を得ようとするものに分けられる.以下にそれぞれの傾向を述べる. ## 3.1.1多様な固有表現そのものを網羅的/大量に獲得しようとする研究 本稿で対象とした論文では, 化学分野の固有表現抽出の多くがこれにあたる。化学分野では,日々大量に追加される化合物名を自動的に知識として蓄積して新薬開発に活用するといったことへのニーズが高く, そのための研究が数多く行われている。また企業情報ドメインではニュー ス記事から新たなモノやサービスの名称を抽出する研究を行ったが, これも発生する固有表現そのものの把握を目的とする研究だと言えるだろう. この類型では,目的とする固有表現が含まれるようなテキスト集合をいかに確保し,それをいかに効率よく, 精度高く処理するかが課題となる場合が多い. その際, 作成した知識を整理するためにも,知識作成に使うモデルの精度を高めるためにも,同義語や表記摇れの取り扱いが重要となる。また抽出したい固有表現はどのようなものなのか, 抽出後にどのように使うのかといった細かな定義も必要である。固有表現定義の例は, 上記の医療テキストコーパス構築の研究で詳細に見ることができる. ## 3.1.2 抽出した固有表現を通じて何らかの知見を得ようとする研究 固有表現抽出タスクにプラスして, 固有表現同士の関係を抽出しようとする研究もよく見られる。本稿の中では, 化学物質の相互作用関係抽出や, 機械加工因子の関係抽出がそれにあたる.ここでも,抽出したい関係の定義や,それらを含む文書の確保などが課題となる。 大量の文書を効率よく理解するために,文書の要点として固有表現を抽出しようとする研究も複数見られた。たとえばカルテにおける疾患の重症度,金融文書における経営指標,小説における登場人物の属性といったものである。この類型では多くの場合, 抽出元の文書群は企業内などに蓄積されていて新たに入手する必要はないため, 課題としては「要点」となる情報がどのようなものかといった定義や, その抽出処理の具体化, 効率化が挙げられる. 抽出した固有表現から,企業・組織のマーケティング活動に活用できるような社会的傾向を読み取ろうとする方向も検討されている.たとえば新堂らによる食べ物・飲み物表現の抽出の研究では,レストラン・レビューのテキストデータを分析してマーケティングに活用することを目指している。このようなシステムでは,抽出した情報を見たユーザーの何らかの意志決定 (たとえば,「香り高い十割そば」が話題たから,レストランのメニューに入れる,または Web サイトで取り上げる,など)に役立つことが求められる。抽出した表現を企業の意志決定の根拠とするためには, 抽出元文書が適切かどうかの評価や, 文書の出現時期や地域などテキスト外の情報を含めた分析,可視化の方法など,システム全体としての設計に工夫が求められるたろう。 ## 3.2 固有表現抽出の技術 はじめにで述べたとおり, 技術の詳細な分析は本論文の主眼ではないが, この調査で分かった技術的な特徴をここで紹介する,固有表現抽出夕スクの技術的手法としては,機械学習を使うものが主流となり, 本稿の調查対象期間ではとくに BiLSTM の出力を CRF で処理した, BiLSTM-CRF が使われることが多かった,BiLSTM-CRF では,まず入力単語を事前学習した単語ベクトルに変換する。次に BiLSTM が,そのベクトル列を入力として各単語に対し,固有表現らしさの点数からなるべクトルを出力する.最後に CRF がそのべクトル群を入力とし, ラベル間の依存性を考慮し, 最適な固有表現のラベルを予測する。その精度をさらに高めるため, あるいは BiLSTM-CRF で必要な学習データの作成コストを下げるために, 辞書等の言語資源を使うなど,さまざまな手法が組み合わされている。またBERT を使う手法も本稿で数件紹介しているが,直近の研究ではさらに大勢を占めるようになっている. ただし機械学習を使わなければ固有表現抽出ができないわけではなく, 学習デー夕が少ない場合や定形表現が多い場合などは, パターンマッチのようなルールベースの手法で課題解決できる場合もある.本稿の中でも,たとえば加藤らの電子カルテからの皮䖉障害重症度判定の研究では, 疾患の種類によってはルールベースの方が機械学習より高精度な結果となることがあっ た.また柳井らの金融文書からの経営指標抽出では, 定形表現が多用されるドメインであるため,構文木のパターンマッチが有効であった. こうした技術的な詳細については, 文献(岩倉・関根 2020)を参照されたい。また実際に利用できるツールが,Githubなどの技術共有サイトでダウンロード可能になっていることが多いため, 誰でも既存の研究を基盤としながら各自の課題に合ったシステムを作っていくことができる。 ## まとめ 本論文では, 過去数年の国内におけるドメイン依存の固有表現抽出技術の研究動向を調査し,各ドメインにおける応用のあり方を概観した。とくに研究が活発な化学ドメインでは, 新規材料開発などを目的とする化学物質名抽出タスク,またはそれらの関係抽出タスクが多く見られ,研究を効率よく進められるようなデータベース,モデル等の資源も整備されている.医療・薬事ドメインでは,医療者支援や薬剤開発の効率化など,より多様な目的での固有表現抽出が確認され, 企業情報・金融ドメインでは, 膨大な企業情報を効率良く理解するための応用が見られた. その他, 機械加工・交通・文学・食といった多様なドメインでの技術応用を俯瞰し, 固有表現抽出の幅広く深い展開が確認できた。抽出した固有表現の使い方としても,固有表現そのものをリスト化するだけでなく, 固有表現間の関係を捉えたり, 傾向を分析したりといった多様な方向性が確認できた,技術面では,本論文での調査対象期間は BiLSTM-CRF と BERT が主流となっていたが,今後も各タスクに合わせたさらなる精緻化が期待される. ## 参考文献 荒牧英治, 若宮翔子, 矢野憲, 永井宥之, 岡久太郎, 伊藤薫 (2018). 病名アノテーションが付与された医療テキスト・コーパスの構築. 自然言語処理, 2018, 25 (1), pp. 119-152. [E. Aramaki et al. (2018). Development of the Clinical Corpus with Disease Name Annotation. Journal of Natural Language Processing, 25 (1), pp. 119-152.] Beltagy, I., Lo, K., and Cohan, A. (2019). "SciBERT: A Pretrained Language Model for Scientific Text." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 3615-3620. Degtyarenko, K., de Matos, P., Ennis, M., Hastings, J., Zbinden, M., McNaught, A., Alcántara, R., Darsow, M., Guedj, M., and Ashburner, M. (2008). "ChEBI: A Database and Ontology for Chemical Entities of Biological Interest." Nucleic Acids Research, 2008, 36 (Database issue), D344-D350. 原島純 (2019). レシピサービスと情報処理. 人工知能, $\mathbf{3 4}$ (1), pp. 3-8. [J. Harashima (2019). Recipe Service and Information Processing. Journal of the Japanese Society for Artificial Intelligence, 34 (1), pp. 3-8.] He, J., Nguyen, D. Q., Akhondi, S. A., Druckenbrodt, C., Thorne, C., Hoessel, R., Afzal, Z., Zhai, Z., Fang, B., Yoshikawa, H., Albahem, A., Cavedon, L., Cohn, T., Baldwin, T., and Verspoor, K. (2020). "Overview of ChEMU 2020: Named Entity Recognition and Event Extraction of Chemical Reactions from Patents." In Experimental IR Meets Multilinguality, Multimodality, and Interaction. Proceedings of the 11th International Conference of the CLEF Association, Vol. 12260. Lecture Notes in Computer Science. 邊土名朝飛, 野中尋史, 小林暁雄, 関根聡 (2019). 外部知識源を使用した Wikipedia からの化合物情報抽出. 言語処理学会第 25 回年次大会発表論文集, pp. 791-794. [A. Hentona et al. (2019). Gaibu Chishikigen wo Shiyo shita Wikipedia karano Kagobutsu Joho Chushutsu. Proceedings of the 25th Annual Meeting of the Association for Natural Language Processing, pp. 791-794.] 桧森拓真, 木村泰知, 荒木健治 (2020). 会議録に含まれる法律名を対象とした End-to-End のエンティティリンキングの性能評価. 言語処理学会第 26 回年次大会発表論文集, pp. 367-370. [T. Himori et al. Kaigiroku ni Fukumareru Horitsumei wo Taisho to shita End-to-End no Entitirinkingu no Seino Hyoka. Proceedings of the 26th Annual Meeting of the Association for Natural Language Processing, pp. 367-370.] 平松淳, 若林啓, 原島純 (2018). 文字分散表現に基づく単語分類情報を用いたレシピ固有表現抽 出. 研究報告自然言語処理 (NL), 2018-NL-237 (7), pp. 1-6. [M. Hiramatsu et al. (2018). Recipe Named Entity Recognition based on Word Classification Results using Characterbased Distributed Representations. IPSJ SIG Technical Reports, 2018-NL-237 (7), pp. 1-6.]池田流弥, 安藤一秋 (2019). 固有表現抽出によるブログテキストからの品名・店名抽出. 研究報告 自然言語処理 (NL), 2019-NL-243 (5), pp. 1-8. [R. Ikeda and K. Ando (2019). Extraction of Food Product and Shop Names from Blog Text using Named Entity Recognition. IPSJ SIG Technical Reports, 2019-NL-243 (5), pp. 1-8.] 稲熊陸, 小島大, 東孝幸, 三輪誠, 古谷克司, 佐々木裕 (2021). 機械加工文書における用語入れ子構造とトリガワードを考慮した用語関係同時抽出. 言語処理学会第 27 回年次大会発表論文集, pp. 396-399. [R. Inaguma et al. (2021). Kikai Kako Bunsho niokeru Yogo Ireko Kozo to Torigawado wo Koryo shita Yogo Kankei Doji Chushutsu. Proceedings of the 27th Annual Meeting of the Association for Natural Language Processing, pp. 396-399.]岩倉友哉 (2015). 固有表現抽出におけるエラー分析. 言語処理学会年次大会第 21 回年次大会ワーク ショップ:自然言語処理におけるエラー分析. [T. Iwakura (2015). Koyu Hyogen Chushutsu niokeru Era Bunseki. The Workshop at the 21st Annual Meeting of the Association for Natural Language Processing.] 岩倉友哉, 関根聡 (2020). 情報抽出 ・固有表現抽出のための基礎知識. 近代科学社. [T. Iwakura and S. Sekine (2020). Joho Chushutsu $\cdot$ Koyu Hyogen Chushutsu notameno Kisochishiki. Kindai Kagakusha.] 岩倉友哉, 吉川和 (2020). 化学分野への言語処理の応用. 自然言語処理, 27 (4), pp. 969-973. [T. Iwakura and H. Yoshikawa (2020). Natural Language Processing Application to the Chemical Domain. Journal of Natural Language Processing, 27 (4), pp. 969-973.] 加藤由美, 平川聡史, 梶山晃平, 堀口裕正, 狩野芳伸 (2019). 電子カルテ自由記述部分からの皮膚疾患における重症度抽出. 言語処理学会第 25 回年次大会発表論文集, pp. 280-283. [Y. Kato et al. (2019). Denshi Karute Jiyu Kijutsu Bubun karano Hifu Shikkan niokeru Jushodo Chushutsu. Proceedings of the 25th Annual Meeting of the Association for Natural Language Processing, pp. 280-283.] Kim, J. D., Ohta, T., Tateisi, Y., and Tsujii, J. (2003). "GENIA Corpus-Semantically Annotated Corpus for Bio-textmining." Bioinformatics, 19 (Suppl 1), i180-i182. Kim, J. D., Ohta, T., and Tsujii, J. (2008). "Corpus Annotation for Mining Biomedical Events from Literature." BMC Bioinformatics, 9, 10. Kim, S., Thiessen, P. A., Bolton, E. E., Chen, J., Fu, G., Gindulyte, A., Han, L., He, J., He, S., Shoemaker, B. A., and Wang, J., Yu, B., Zhang, J., and Bryant, S. H. (2016). "PubChem Substance and Compound databases." Nucleic Acids Research, 44 (D1), D1202-D1213.小島諒介, 岩田浩明, 中津井雅彦, 奥野恭史 (2020). 医薬品添付文書からの薬剤情報抽出システム.言語処理学会第 26 回年次大会発表論文集, pp. 1057-1060. [R. Kojima et al. (2020). Iyakuhin Tempu Bunsho karano Yakuzai Joho Chushutsu Shisutemu. Proceedings of the 26th Annual Meeting of the Association for Natural Language Processing, pp. 1057-1060.] Krallinger, M., Rabal, O., Akhondi, S., Pérez, M., Santamaría, J., Rodríguez, Gael Pérez, Tsatsaronis, G., Intxaurrondo, A., Lopez, J. A., Nandal, U., Buel, E. V., Chandrasekhar, A., Rodenburg, M., Lægreid, A., Doornenbal, M. A., Oyarzábal, J., Lourenço, A., and Valencia, A. (2017). "Overview of the Biocreative VI Chemical-Protein Interaction Track." In Proceedings of the 6th BioCreative Challenge Evaluation Workshop, Vol. 1, pp. 141-146. Krallinger, M., Rabal, O., Leitner, F., Vázquez, M., Salgado, D., Lu, Z., Leaman, R., Lu, Y., Ji, D., Lowe, D. M., Sayle, R. A., Batista-Navarro, R. T., Rak, R., Huber, T., Rocktäschel, T., Matos, S., Campos, D., Tang, B., Xu, H., Munkhdalai, T., Ryu, K. H., Ramanan, S. V., Nathan, S., Žitnik, S., Bajec, M., Weber, L., Irmer, M., Akhondi, S. A., Kors, J. A., Xu, S., An, X., Kumar Sikdar, U., Ekbal, A., Yoshioka, M., Dieb, T. M., Choi, M., Verspoor, K., Khabsa, M., Lee Giles, C., Liu, H., Ravikumar, K. E., Lamurias, A., Coute, F. M., Dai, H. J., Tzong-Han Tsai, R., Ata, C., Can, T., Usié Chimenos, A., Alves, R., Segura-Bedmar, I., Martínez, P., Oyarzabal, J., and Valencia, A. (2015). "The Chemdner Corpus of Chemicals and Drugs and Its Annotation Principles." Journal of Cheminformatics, 7 (Suppl 1), S2. 黒土健三, 森本康嗣, 佐藤美沙, 柳井孝介 (2020). 構文解析情報を用いたテキストからの数値情報の抽出. 人工知能学会第 34 回全国大会論文集, 1E4-GS-9-02. [K. Kurotsuchi et al. (2020). Development for Extracting Numerical Information Using Parsing Information. Proceedings of the 34th Annual Conference of the Japanese Society for Artificial Intelligence, 1E4-GS-902.] Lee, J., Yoon, W., Kim, S., Kim, D., Kim, S., So, C. H., and Kang, J. (2019). "BioBERT: A Pre-trained Biomedical Language Representation Model for Biomedical Text Mining." Bioinformatics, 36 (4), pp. 1234-1240. 牧野晃平, 國吉房貴, 小澤順, 三輪誠 (2020). 無機材料文献からの合成プロセス抽出のための関係抽出. 言語処理学会第 26 回年次大会発表論文集, pp. 1045-1048. [K. Makino et al. (2020). Muki Zairyo Bunken karano Gosei Purosesu Chushutsu notameno Kankei Chushutsu. Proceedings of the 26th Annual Meeting of the Association for Natural Language Processing, pp. 1045-1048.] 岡裕二, 安藤一秋 (2021). 小説あらすじを用いて学習した系列ラベリングモデルによる小説本文からの人物情報抽出の性能検証. 言語処理学会第 27 回年次大会発表論文集, pp. 16341638. [Y. Oka and K. Ando (2021). Shosetsu Arasuji wo Mochiite Gakushu shita Keiretsu Raberingu Moderu niyoru Shosetsu Hombun Karano Jimbutsu Joho Chushutsu no Seino Kensho. Proceedings of the 27th Annual Meeting of the Association for Natural Language Processing, pp. 1634-1638.] 奥田裕樹, 高橋寞治 (2020). ニュース記事からの企業キーワード抽出. 言語処理学会第 26 回年次大会発表論文集, pp. 193-196. [Y. Okuda and K. Takahashi (2020). Company Keyword Extraction from News Articles. Proceedings of the 26th Annual Meeting of the Association for Natural Language Processing, pp. 193-196.] 坂地泰紀, 和泉潔, 酒井浩之 (2020). 金融・経済ドメインを対象とした言語処理. 自然言語処理, 27 (4), pp. 951-955. [H. Sakaji et al. (2020). Language Processing for Finance and Economics. Journal of Natural Language Processing, 27, pp. 951-955.] 新堂安孝, 友利涼, 富田紘平, 兼村厚範, 森信介 (2018). レストラン・レビューにおける食べ物・飲み物表現の抽出. 信学技報, 118 (210), pp. 97-102. [Y. Shindoh et al. (2018). Detection of Food and Drink Expressions in Restaurant Review Services. IEICE Technical Report, 118 (210), pp. 97-102.] 新城大希, 德永健伸, 牧野拓哉, 岩倉友哉 (2021). 構文情報とラベルなしデータを用いた化学分野の関係抽出. 言語処理学会第 27 回年次大会発表論文集, pp. 890-894. [T. Shinjo et al. (2021). Kobun Joho to Raberu Nashi Deta wo Mochiita Kagaku Bunya no Kankei Chushutsu. Proceedings of the 27th Annual Meeting of the Association for Natural Language Processing, pp. 890-894.] 角谷和俊, 難波英嗣, 牛尼剛聡, 若宮翔子, 王元元, 河合由起子 (2019). 料理レシピデータのメディア特性分析と利活用. 人工知能, 34 (1), pp. 32-40. [K. Sumiya et al. (2019). Media Characteristic Analysis and Its Applications for Cooking Recipes. Journal of Japanese Society for Artificial Intelligence, 34 (1), pp. 32-40.] 辰巳守祐, 後藤啓介, 進藤裕之, 松本裕治 (2019). 辞書を用いたコーパス拡張による化学ドメインの Distantly Supervised 固有表現認識. 研究報告自然言語処理 (NL), 2019-NL-241 (7), pp. 1-7. [S. Tatsumi et al. (2019). Data Augmented Distantly Supervised Named Entity Recognition in Chemical Domain. IPSJ SIG Technical Reports, 2019-NL-241 (7), pp. 1-7.]山口京佑, 旭良司, 佐々木裕 (2021). 文献抄録中の主題材料に着目した超伝導材料に関する情報抽出. 言語処理学会第 27 回年次大会発表論文集, pp. 1809-1814. [K. Yamaguchi et al. (2021). Bunken Shorokuchu no Shudai Zairyo ni Chakumoku shita Chodendo Zairyo ni Kansuru Joho Chushutsu. Proceedings of the 27th Annual Meeting of the Association for Natural Language Processing, pp. 1809-1814.] 柳井孝介, 佐藤美沙, 十河泰弘, 山脇功一, 渋谷淳 (2020). StruAP を用いた金融分野の開示文書からの情報抽出. 言語処理学会第 26 回年次大会発表論文集, pp. 311-314. [K. Yanai et al. (2020). StruAP wo Mochiita Kinyu Bunya no Kaiji Bunsho karano Joho Chushutsu. Proceedings of the 26th Annual Meeting of the Association for Natural Language Processing, pp. 311-314.] Yang, Y., Chen, W., Li, Z., He, Z., and Zhang, M. (2018). "Distantly Supervised NER with Partial Annotation Learning and Reinforcement Learning." In Proceedings of the 27th International Conference on Computational Linguistics, pp. 2159-2169. 張培楠 (2019), EC サイトにおける商品タイトルからの商品名抽出. 人工知能学会第 33 回全国大会論文集, 4Rin1-23. [P. Zhang (2019). Product Name Extraction from Product Entries on Electronic Commerce Pages. Proceedings of the 33rd Annual Conference of the Japanese Society for Artificial Intelligence, 4Rin1-23.] ## 付録 本論文執筆のために洗い出したドメイン依存の固有表現抽出に関連する論文は, 論文内で紹介したもの以外も含めると 52 件あった。それらの論文について, 課題設定・着眼点や手法, 抽出する対象等をまとめたリストを,以下に公開する. https://github.com/mihonti/NESurvey2023/blob/983245d36de3e03dd4f270da590eb5a66 bdc5d2c/NEpapers_2023.pdf ## 略歴 福田美穂:1997 年東京大学文学部卒業. ニフティ株式会社にて自然言語処理技術を使ったクチコミ分析サービスの企画・運営に携わる。同社を退職後, フリーランスとして主に情報技術関連ニュース記事等を翻訳,執筆. 関根聡: 1992 年英国マンチェスター大学計算言語学部修士号. 1998 年ニュー ヨーク大学コンピューターサイエンス学部博士号. その後, ニューヨーク大学研究准教授に就任. 松下電業産業株式会社 (現パナソニック), SONY CSL, マイクロソフトリサーチ,楽天技術研究所ニューヨークなどでの研究職を歴任. 専門は自然言語処理. 特に情報抽出, 固有表現抽出, 質問応答, 情報アクセス, 知識構築の研究に従事. 情報処理学会自然言語処理研究会主査, その他役職多数. 複数の企業の技術顧問なども兼任.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 「負例を厳選した対話応答選択による 対話応答生成システムの評価」の執筆をふりかえって 佐藤 志貴 $\dagger$ ## 1 はじめに 本稿では, 言語処理学会 2022 年度最優秀論文賞を受賞した「負例を厳選した対話応答選択による対話応答生成システムの評価」について述べる,とくに,研究の着想に至る経緯や, 原論文採録までの過程で得た学びに焦点を当てる.研究の詳細に関しては原論文を参照されたい. ## 2 原論文の概要 本研究は,ニューラル雑談対話システムの性能の自動評価手法を提案するものである.性能と言っても様々な評価軸が考えられるが「意味的に妥当な応答を生成可能か」に注目している.雑談対話システムの性能評価で最も注意が必要であると著者が考えるのは, 妥当な応答が無数に存在する,という対話の性質である。この性質こそが対話の面白さと考えることもできるが, 雑談対話システムの性能評価を難しくする要素でもある. 特に BLEU (Papineni et al. 2002) など, これまで広く使われてきた参照応答との類似度に基づく評価を困難なものにする。 本研究では, この性質の影響を受けにくい雑談対話応答生成システムの自動評価手法として,対話応答選択を用いた評価に着目した。対話応答選択は,与えられた対話履歴に続く適切な応答(以下,正例と呼ぶ)を選択肢(以下,応答候補と呼ぶ)から選択するタスクである。雑談対話応答生成システムは応答を生成するシステムだが, 応答候補中の各発話の生成確率を計算し,最も生成確率が高い候補をシステムの選択とみなすことで選択問題を解くことができる。選択問題であれば回答は選択肢中の応答に限られるため, 適切だが参照応答と類似しない応答が出力されシステムが不当に低く評価されるといった事態を回避できる. 本研究の取り組みは, 対話応答選択による雑談対話システムの自動評価に適した評価用デー タセットの作成である。特に,対話応答選択における負例をどのように選定することで有効なシステム評価が可能かに焦点を当てた.対話応答選択における負例の一般的な収集手法として,無関係な対話に含まれる発話の無作為抽出が挙げられる (Lowe et al. 2015; Gunasekara et al. 2019). しかし, この手法では (a) 対話履歴と無関係な単語等を含むために対話の内容を考慮せ  ずに不正解と判別できてしまう発話や,(b) 対話履歴に対する応答として必ずしも妥当ではないと言い切れない発話が負例として収集される可能性がある。そこで本研究では,こうした負例が評価データセットに混入することを防ぐため,正例をクエリとして検索された類似発話のうち, 応答として妥当ではないものを人手によって取り出すことで負例を収集する手法を提案した. 提案法により構築した評価データセットを用いた対話応答選択によって複数の雑談対話システムを性能順に並び替えたとき,既存の自動評価法や負例を無作為抽出したときと比べ,人手評価と相関するシステムのランキングを作成可能であることを実験で確認した. ## 3 本研究の着想に至った経緯とその後 原論文は, The 58th Annual Meeting of the Association for Computational Linguistics (ACL 2020) で発表したもの (Sato et al. 2020) に実験等を補強したうえで執筆した論文である。そのため,ここでは ACL 2020 で発表した論文について述べる. ACL 2020 で発表した論文を執筆したのは著者が修士課程 1 年目のことであったが,学部生の頃はどちらかといえば雑談システム自体を構築することに興味があり, 自身の研究も雑談システムの応答生成法に関するものを行っていた。当時は右も左もわからないながら研究を進めていったが,提案手法により生成される応答の意味的な妥当性の検証において苦しんだ。最終的にシステム応答の妥当性を検証する際の手法といえば当時も近年も変わらず人手評価となるが,システム改良を重ねていく合間に低コストで妥当性を評価する手立てがないため,自身で応答の質を確認しつつ問題点を洗い出していくしかなかったのだ。今でこそ人手評価との相関が一定程度確認されている対話システム自動評価手法が様々提案されている. しかし, 当時の先行研究では広く使われている自動評価といえば, 先述した問題を抱える BLEU 程度しかなかった. そのとき, 雑談対話システム開発には人間の主観に沿う自動評価指標が必要であると強く感じた. 以上のようなスタートから, 実際に本研究を進めていった。この研究を始めたのは著者が修士課程 1 年目の夏前頃からであったが, 当初から ACL 2020 への投稿を具体的な目標としていた. これは,とにかく修士課程 1 年目の間に国際会議への投稿に挑戦してみたいという理由から決めたものだった,ただ,評価手法の提案のような,時間さえあればいくらでもマイナーチェンジできる可能性のある研究では,締切を早い段階で決めないとズルズルと投稿が後ろ倒しになることも考えられる.結果的には,この研究ではこの方針が功を奏したのではないかと感じる. ## 4 執筆で得られた学び ACL2020に向けた執筆は,初めての査読ありの執筆,英語での執筆ということで,採択に至るまでに得た学びや細かい失敗は数え切れない。そのなかには研究に臨む姿勢も含まれる。ただ,それらは必ず他者に当てはまるかも明確ではないため, 少し本記事の趣旨とは異なる可能性もあるが,ACL2020 執筆に向け予め知っておけばよかった具体的な学びをいくつか挙げることにする。特にこれから初めて国際会議に挑戦する方の参考になれば幸いである. ## 4.1 学び 1: 研究ログはいつ人に見られてもいい程度に整理して残す 研究に関わるデータやメモを隈なく保存するということは研究において基礎中の基礎であり,当然著者も本研究に取り組むなかで発生するそれらを保存した. しかし, 今にして思うと, 「そのデータが今後どのように使われうるか」という想像に欠けていたように感じる. 特にそのことを強く感じたのは,「研究データの一部を共有してほしい」というメールを昨年受け取ったときだった. そのデータは残っていたものの, 付随するスクリプトの読みやすさやファイル名などがお世辞にも整理されているとはいえず,なかにはメモを見なければなんのファイルなのか思い出せないものもあったのだ.結局メールでデータを共有する際には,かつての作業を思い起こしながら,コメントを付与したりファイル名を解釈可能なものに一部変更する必要があり, それなりのコストに。「どんな情報の共有を依頼されるかわからないのだら, どんなデータも気持ちよく人に見せられる程度に日頃から整理すべき」というのは,もちろん朧げには誰しも想像できる。しかし, 初めて国際会議に論文を出す時には,「世界中のたくさんの研究者が自分の研究に興味を持って, 本当に直接コンタクトをとってくる」ということは, 当時の著者同様になかなか実感しにくい部分があるのではと感じるし,なんたか自意識過剰なのではないかと思ってしまうのかもしれない。たた,論文執筆の責任にはこのようなデータ管理も含まれている. 著者としても,今後は「いまやっている実験のデータは,いますぐに誰かに見せても理解しやすい形式になっているか」を日頃から自分に問いかけながら研究を進めていきたい. ## 4.2 学び 2: 順調だからこそ, ふと手を離すことが重要な場合も 複数の研究プロジェクトであったり業務を抱えていることのメリットの一つとして,一方でうまく行かない時でも, 気分転換がてら他方に取り組むことでモチベーションを維持できることが挙げられるのではないかと考える。しかし, 自分にとってこの研究は, 順調に進んでいてモチベーションも高い状態で手を離したことでうまくいった稀有な例である.この研究は修士課程 1 年目の夏前から始めたわけだが,当初から比較的研究は順調に進み,初めての国際会議へ良い論文が投稿できるかもしれないと,モチベーションも高く維持できていた.たた,夏の後半に 1 ケ月を超えるフルタイムでのインターンシップへの参加が事前に決まっていたため, 順 調に進んでいるなかで,この研究を本格的に進めることは難しくなった,論文投稿まで時間が有り余っているというわけでもないなか, 長期間手を離すことで,締め切りに間に合わない可能性も出てくる。なにより,再開した時に高いモチベーションを持てるだ万うか. インターンシップ開始時は不安も感じた。しかし, インターンシップ期間をいま振り返ると, この研究にとっても非常に充実したものであったように思う.自分の研究のことを頭のなかで考える程度の時間はあるが,実験を進めることは難しい,そんなもどかしさと共に日々を過ごすうち,これまではある程度盤石だと思い猪突猛進に実験を進めていた研究の大元のストーリーであったり実験設定に,脆弱性が存在することに気付けたのである,インターンシップ前の自分は,高いモチベーションのもと,とにかく研究を前へ進めていこうという気持ちばかりを尊重して,そういった穴には目を向けられていなかった。この段階でそれらに気づけていなかったら,結果的には後から大きく遠回りすることになり,ACL2020での採択や原論文の受賞にもつながらなかったかもしれない. モチベーションが高い状態だからこそ, ふと手を止めてみて,自分が先走り過ぎていないか振り返ってみることが重要なこともあるかもしれない. ## 4.3 学び 3: むやみに謝らない 個人的にはこれが最も重要だと考えている。何の話かというと,リバッタルである。論文を投稿すると, 国際会議にしろ論文誌にしろ, リバッタルの機会が与えられることがある. 全く欠点のない論文でもない限り,そこで様々な指摘をもらうことになる。なかでもよくある指摘としては「説明が足りない」「ここで言っていることがわからない」などが挙げられる。これらに対するリバッタルを書く時,普段日本で生活している方であれば,どうしても「申し訳ございません」という文から始めたくなるのではないかと個人的には思っている.謝罪も日常のコミュニケーションの潤滑油の一つとして扱う(と著者は解釈している)日本文化に染まった著者も例に漏れず,まずは軽めの謝罪からドラフトを書き始めた,ただ,その冒頭はすぐに指導してくださった方によって消されることになった.理由は単純明快.悪いことをしていないのだから謝る必要はない.これはリバッタルの性質を改めて考えてみると,極めて重要なのだとわかる,論文投稿者の目線で考えた時,そもそもリバッ夕ルの目的は,レビューをしたレビュアーの気分を良くすることではない,レビューとリバッタルの応酬を見せて,メタレビュアー に「投稿者側の言い分のほうが正しい」ということを納得してもらうことが目的である。そんななかで謝罪をしてしまうと「詳しくは不明だが,この著者にはなにか後ろめたい部分があるのか」という印象を与えかねない,もちろん重要なのは反論の中身ではあるが,国際会議では採択率が $20 \%$ を下回る場合もあるなど競争が激化している。ボーダー付近の論文が大量に存在する昨今では,この小さな印象が採否を左右する可能性も考えられる。もちろんレビュアーへ対するリスペクトはしっかりしたうえで,それでも「正しいことを言っているのはこちらです」 ということが正しく伝わる言葉選びは重要となるということを学んだ. ## 5 おわりに 本研究は, 初めての評価に関する研究への挑戦, 初めての国際会議への挑戦, 初めての論文誌への挑戦,初めてづくしとなる挑戦の機会を与えてくれた,学びは数知れず,上述のものだけでは全く書き足りない,今回,そんな一際思い入れの深い研究で賞をいただけたことには,素直な喜びのほかに,尊敬する師の栄誉が讃えられた誇らしさのようなものも感じる。まだまだ未熟者ではあるが, 得られた経験や想いも糧にして, 引き続き研究活動に邁進していきたい. ## 謝 辞 查読や賞選考に関わってくださった皆様, 原論文掲載までの過程や本稿執筆に関してお世話になった編集委員の皆様に感謝申しげます。また,共著者の皆様,沢山の助言をくたさった東北大学自然言語処理研究グループの皆様にお礼申し上げます. ## 参考文献 Gunasekara, C., Kummerfeld, J. K., Polymenakos, L., and Lasecki, W. (2019). "DSTC7 Task 1: Noetic End-to-End Response Selection." In Proceedings of the 1st Workshop on NLP for Conversational AI, pp. 60-67. Lowe, R., Pow, N., Serban, I., and Pineau, J. (2015). "The Ubuntu Dialogue Corpus: A Large Dataset for Research in Unstructured Multi-Turn Dialogue Systems." In Proceedings of the 16th Annual Meeting of the Special Interest Group on Discourse and Dialogue, pp. 285-294. Papineni, K., Roukos, S., Ward, T., and Zhu, W.-J. (2002). "BLEU: A Method for Automatic Evaluation of Machine Translation." In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318. Sato, S., Akama, R., Ouchi, H., Suzuki, J., and Inui, K. (2020). "Evaluating Dialogue Generation Systems via Response Selection." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 593-599. ## 略歴 佐藤志貴:2019 年東北大学工学部卒業. 2021 年東北大学大学院情報科学研究科博士前期課程修了. 現在, 東北大学情報科学研究科博士課程取得に向け研究を進めている. 2021 年度より日本学術振興会特別研究員 (DC1)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 「対話における間接的応答と直接的応答からなる 言い換えコーパスの構築と分析」の研究の道のり 高山 隼矢 ## 1 はじめに 本稿では, 言語処理学会 2022 年度論文賞をいただいた「対話における間接的応答と直接的応答からなる言い換えコーパスの構築と分析」(高山他 2022) について, その内容を簡潔に紹介したのち,着想に至った経緯や研究の過程・苦労などについて述べる. ## 2 原論文の概要 原論文は,対話における言い換え現象の一つである「間接的な応答」と「直接的な応答」相互間の言い換えに着目したものである。対話において人間はしばしば自身の要求や意図を直接的に言及せず,言外に意図を含んだ間接的な発話によって表現することがある。人間は対話相手から間接的な応答を受け取ったとき,これまでの対話履歴などの文脈に基づいて言外の意図を推測できる。図 1 に,レストランの予約に関する対話における間接的な応答と直接的な応答の例を示す。この例ではオペレータの「Aレストランを予約しますか?」という質問に対してユーザは「予算が少ないのですが」と応答している(図中の「間接的な応答」)。この応答は字義通りの意味だけを考慮するとオペレータの質問への直接的な回答にはなっていない. しかし, オペレータは対話履歴を考慮してユーザが A レストランよりも安いレストランを探していると推論し,新たに $\mathrm{A}$ レストランよりも安い B レストランを提案している。 大規模な対話コーパスを学習したニューラル対話モデルは流暢な応答を生成する能力を持つが,間接的な応答に焦点を当てたコーパスは存在せず,モデルが人間と同様にこのような間接的な応答を扱うことができるかどうかは明らかではなかった. そこで原論文ではまず,既存の英語対話コーパスである MultiWoZ を拡張することで, 71,498 の間接的な応答と直接的な応答の対からなる, 対話履歴付きの英語言い換えコーパス DIRECT (Direct and Indirect REsponses in Conversational Text) 1 を構築した。具体的には,MultiWoZ の各ユーザ発話に対してクラウドソーシングを用いて「ユーザ発話をより間接的に言い換えた ^{1}$ https://github.com/junya-takayama/DIRECT/ にて公開中 } 図 1 対話における間接的応答と直接的応答の例.これらの応答は字義通りに解釈すると異なる意味を持つが,この対話履歴上においては言い換え可能な関係にある. 発話」と「ユーザ発話をより直接的に言い換えた発話」の対を収集した。また,間接的な応答を扱う能力を評価するための 3 つのベンチマークタスクを設計し, 最新の事前学習済みモデルの性能を調査した。さらに,ユーザーの間接的な発話を事前に直接的な発話に変換することで対話応答生成の性能が向上することを確認した.詳細は原論文を参照されたい. ## 3 採択までの道のり ## 3.1 着想の経緯 間接的な応答という現象に研究対象としての興味を持ったのは, 博士課程進学後 1 年を経た 2020 年半ばのことであった. 著者は元々対話応答生成に興味を持ち, 応答の多様性の向上 (Takayama and Arase 2019) や情報量を制御可能な応答生成器の構築 (Takayama and Arase 2020) など,当時のメインストリームに程近い研究に取り組んでいた.対話応答生成のような文生成系の研究においては,モデルが生成した文を自分の目で一つ一つ確認しながらエラー分析を行うことが日常となる.著者もそのようなエラー分析を少なからぬ回数行なってきた中で,提案手法・比較手法・ベースラインといった様々なモデルのどれもが陥りがちな典型的なエラー として,「ユーザ発話に含まれる言外の意図を汲めていない,(表層的な意味をそのまま受け取ったような)的外れな応答を生成する」というものがあることには応答生成研究を始めた序盤の頃より気づいていた。しかし, 当時の対話応答生成モデルは今と比べれば質に劣るものであったため, この問題は「今の技術では到底解決しようのないもの」として考えていた. 2020 年の時流としてはちょうど BERT や GPT-2 などに代表される事前学習済み言語モデル(Pre-trained Language Models; PLM)が種々のタスクのリーダーボードを塗り替えていた頃であった. ある程度の常識や世界知識を持っているかのごとく振る舞い,またあらゆる後段タスクにおいて高 い精度を達成する PLM であれば,間接的な応答に含まれる言外の意図を上手く処理できるのではないかという期待が, 本研究の足がかりとなった. 著者のいた研究室では当時, 共著者であり著者の指導教員であった荒瀬由紀先生のほかに, 同じく共著者である愛媛大学の梶原智之先生が言い換え・平易化に関するテーマに取り組む一部学生の指導にあたっていた,原論文は対話研究と言い換え研究の融合のようなテーマだが,著者は当時言い換えに関する研究経験がなかった.そこで本研究においては,(とりわけコーパスの分析やベンチマークタスクの設計においては特に, )荒瀬・梶原両先生から言い換え研究者視点でのフィードバックを積極的にいたたき,それを反映しながら研究を進めるスタイルをとった. ## 3.2 データ収集の苦難 データ収集には Amazon Mechanical Turk² (AMT) というクラウドソーシング用プラットフォームを利用した。原論文でも述べた通り,応答対の収集においては本番タスクの前に 2 回のパイロットタスクを実施して指示文や UI を改良しつつ,著者自身の人手チェックによるワーカーのスクリーニングを実施している,スクリーニングは非常に骨の折れる作業であった。 AMT ではワーカーの属性をある程度絞り达んだ上でタスクを発注できる。そのため本研究においても発注対象を英語話者の Master Worker ${ }^{3}$ に限定するなど種々なフィルタリングを設けた.これらのフィルタリングは概ね適切に機能し, ほとんどのワーカーは指示に従い高品質なデータを納品してくれた. しかし中には,英語の対話データなのにもかかわらず何故か異言語 (スペイン語など)のテキストを投稿するワーカーや,元データ中の文言をほぼそのまま抜き出したようなテキストを投稿するワーカーなど,フィルタリングをくぐり抜けて不正を含むデー 夕を投稿するワーカーも存在した。パイロットタスク中に発見したこれらの事例については, langdetect 4 を用いた非英語データ検知プログラムや, 間接的応答・直接的応答・オリジナルの応答から作られる全てのペア間の文字レベル編集距離を用いた不正検知プログラムなどを作成することで, もし本番タスクで同様の不正が行われても漏れなく検知できるよう工夫を施した. また,不正を働くインセンティブを極力減らす意味合いで,指示文にはプログラムと人手による不正チェックが行われる旨を明記した。一方で, その判定基準についてはあえて曖昧に記すこととした。これは判定基準をすり抜けるような高度な不正を防ぐ狙いもあるが,閥値近辺にある高品質なデータを捨てないための裁量の余地を確保しておきたかったという背景もある. 盤石の体制を敷いて開始した本番タスクについても,決して首尾よくデータ収集が進んだわけではなかった,本番タスクでは事前にデータをおおよそ 10,000 発話ずつのバッチに分割することで発注を数回に分けたのだが,バッチによってデー夕収集の速度にかなりのバラつきが生 ^{3}$ AMT が設けた一定の基準を満たす, 質の高い作業を継続的に行なってきたワーカー 4 https://pypi.org/project/langdetect/ } じ,非常に時間のかかるバッチも存在した,考えられる要因は様々だが,まず 1 つ目に,大多数のワーカーにとって不都合な時間帯にタスクを発注すると別の発注者が開始した後続のタスクに埋もれて発見してもらえなくなるというものがあった. これについてはパイロットタスクや本番 1,2 バッチ目の経験から総合的に判断し, 最終的にはアメリカ時間の朝 8 時ごろにタスクを開始するのが良いという結論に至っだ ${ }^{5} .2$ つ目に, 他の発注者による超大規模なデータ収集タスクがほぼ同時に開始されたためにそちらにワーカーが集中してしまうという要因もあった. これは防ぎようのない,謂わば天災のようなものであった. 有効な対策は恐らく無いが,このようなイレギュラー因子もデータ収集期間の見積りに盛り込んでおく必要があるという教訓は得られた。また,本番タスクにおいても一定数不正を含むデータが投稿されることがあった. これらに常に目を凝らしながら過ごした当時の日常は非常に神経のすり減るものであった. ## 3.3 EMNLP-Findings への採択と,追加分析 原論文の一部は Findings of EMNLP 2021 に採択されたものである (Takayama et al. 2021).苦難を乗り越えデータ収集を終えた後,コーパスの統計的・定性的分析やベンチマークタスクの実験,応答生成タスクへの適用実験などを急ぎ行い,EMNLP 2021 に論文を投稿した. 3 人の査読者によるスコアはそれぞれ $3,3.5,4$ であった.これは rebuttal で誠意ある対応を行えば本会議への採択もあり得るだ万うと思える程度のスコアであったし, 手前味増ながら面白い論文を書けたとも感じていたため,当時は期待感を持って notification を待っていたことを覚えている。それゆえに Findingsへの採択通知は,喜ばしい気持ちと同時に若干の悔しさを感じさせるものでもあった。しかし, 当時著者は既に博士課程 3 年次に突入しており, 博士論文執筆のために業績があと 1 本必要という逼迫した状況にあった。そのため再投稿の選択肢は取らずに Findings への採録を受諾し,内容を拡張したもの(原論文)を本誌に投稿することとした. 原論文の執筆においては先の Findings 論文の査読での指摘が大いに参考になった. 指摘された点に注意しながら Findings 論文を読み返すと、コーパスを作成したことが主な貢献であるにもかかわらず,その性質の分析が定量・定性ともに不十分であり, 後半の応用実験に比重が偏っていることを実感した。そこで原論文においては主にコーパスの性質の分析を重点的に拡張することで,無事に採択されるに至った. なお, 前年度最優秀論文賞を受賞された平岡達也氏も, 氏の学会記事 (平岡 2022) において Findings 採択後の葛藤について言及している. 本記事を執筆する際に参考として先行の学会記事を複数読んだが,当該箇所を読んた際には深く共感し感極まるものがあった.平岡氏と同様の感想にはなるが,一度苦汁を飲まされ,その後もどこかモヤモヤとした気持ちを抱え続けた中にあって, 論文賞という形で本研究を評価していただけたことは非常にありがたいことである.  ## 4 おわりに 本研究は著者の専門外の研究トピックである言い換えとの融合型の研究であり,また大規模なデータ収集を行う必要があるなど, 当時の著者にとっては初めての大きな挑戦が続く研究であった。そのためその研究過程は決して順調な道のりではなかったし,それがゆえに強い思い入れのある研究でもあり,受賞の知らせを受けたときには万感の思いであった. 原論文を高く評価いただいた編集委員の皆様に染く感謝する。また,原論文の共著者であり,本稿の執筆においても貴重なご意見をいただいた大阪大学の荒瀬由紀先生と愛媛大学の梶原智之先生には改めて感謝の意を表する.最後に,拙文ながら本稿が読者の方々の研究活動を少しでも支えるものとなることを願う. ## 参考文献 平岡達也 (2022). 単語分割の最適化に関する研究は雑談と偶然の出会いに育まれた. 自然言語処理, 29 (2), pp. 688-693. [T. Hiraoka (2022). Chatting and Accidental Meeting Promoted Study of Optimizing Word Segmentation. Journal of Natural Language Processing, 29 (2), pp. 688-693.]. 高山隼矢, 梶原智之, 荒瀬由紀 (2022). 対話における間接的応答と直接的応答からなる言い換えコーパスの構築と分析. 自然言語処理, 29 (1), pp. 84-111. [J. Takayama et al. (2022). Construction and Analysis of a Dialogue Corpus with Paraphrase Pairs of Indirect and Direct Responses. Journal of Natural Language Processing, 29 (1), pp. 84-111.]. Takayama, J. and Arase, Y. (2019). "Relevant and Informative Response Generation using Pointwise Mutual Information." In Proceedings of the Workshop on NLP for Conversational AI, pp. 133-138. Takayama, J. and Arase, Y. (2020). "Consistent Response Generation with Controlled Specificity." In Findings of the Association for Computational Linguistics: EMNLP, pp. 4418-4427. Takayama, J., Kajiwara, T., and Arase, Y. (2021). "DIRECT: Direct and Indirect Responses in Conversational Text Corpus." In Findings of the Association for Computational Linguistics: EMNLP, pp. 1980-1989. ## 略歴 高山隼矢 : 2017 年豊田工業大学工学部先端工学基礎学科卒業. 2019 年大阪大学大学院情報科学研究科博士前期課程, 2022 年後期課程修了. 同年ヤフー株 式会社に入社. 現在に至る. 自然言語生成, 対話システム, 翻字に興味を持つ. 現在は検索クエリを用いたエンティティリンキングシステムの開発に従事. 博士 (情報科学). 言語処理学会会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 「マスクされた単語埋め込みと 2 段階クラスタリングを用いた 動詞の意味フレーム推定」の解説 山田康輔† ## 1 はじめに 本稿では, 言語処理学会 2022 年度論文賞を受賞した「マスクされた単語埋め込みと 2 段階クラスタリングを用いた動詞の意味フレーム推定」(以下,原論文)(山田他 2022)について解説する.これは ACL-IJCNLP 2021 の本会議に採択された論文(論文 1) (Yamada et al. 2021a) を元に執筆されたものであるが,実は論文 1 と ACL-IJCNLP 2021 Findings に採択された論文 (論文 2)(Yamada et al. 2021b)をまとめて解説した記事 (山田 2021) を既に執筆させていたたいており, その中で本研究の大目標である意味フレーム構築全体の研究背景や各論文の研究概要や研究過程について解説させていただいてる。このため, 本稿では, 原論文の概要を説明した後, 研究過程ではなく, 論文 1 の内容を論文誌として投稿するにあたり注力したことについてまとめる. ## 2 原論文の概要 原論文では,大規模なテキストコーパスから人が持つ語の背景知識である意味フレームを自動的に構築するため, その最初のステップである動詞の意味フレーム推定に取り組んでいる. これは,テキスト中の動詞を,その動詞が喚起するフレームごとにまとめるタスクである。たとえば,表 1 の (1) から (4)に示す FrameNet (Baker et al. 1998)の用例の場合, $\{(1)\},\{(2)\}$, $\{(3),(4)\}$ の3つのクラスタにまとめることを意味する。近年,本タスクを解くための手法の多くは,動詞の BERT などの文脈化単語埋め込みを用い,すべての事例を一度にクラスタリング (1) We'll not get there before the rain comes. (Arriving) (2) The problem continued to get worse. (Transition_to_state) (3) You may get more money from the basic pension. (Getting) (4) We have acquired more than 100 works. (Getting) 表 1 FrameNet における動詞「get」と「acquire」の用例と各動詞が喚起するフレーム(括弧内).  する朹組みを採用している (Arefyev et al. 2019; Anwar et al. 2019; Ribeiro et al. 2019). 原論文では, この朹組みの 2 つの欠点を指摘し, その欠点を改善する手法を提案している. 1つ目の欠点は, 動詞の文脈化単語埋め込みがその動詞の表層情報に影響されているため, 事例が意味ごとにまとまりづらい傾向があることである。図 1 の左側は, FrameNet から動詞「get」 と「acquire」の用例を抽出し, BERT (Devlin et al. 2019)による各動詞の埋め込みを t-SNE により 2 次元に射影し, 可視化したものである。この結果から,GETTINGフレームを喚起する 「get」の事例は,同じ GETTING フレームを喚起する「acquire」の事例の近くに位置する傾向が見られるが,各動詞が喚起するフレームというよりむしろ表層ごとにまとまっていることが確認できる。これを改善するため, 原論文では, 動詞を [MASK] トークンに置き換えて獲得できる埋め込みであるマスクされた単語埋め込みの利用を提案する. 図 1 の右側がマスクされた動詞の文脈化埋め达みの可視化結果である。マスクを用いることで動詞の表層的な情報を隠すことができ,同じフレームを喚起する動詞の事例が近い位置になっていることが確認できる。 もう 1 つの欠点は, 同じ動詞が喚起するフレームの異なり数は数個程度と限定的であるにも関わらず,その動詞の事例が多くの異なるクラスタに分割されすぎてしまうことである。たとえば,動詞「acquire」は Getting フレームの事例しかFrameNet データセットに含まれていないため,「acquire」のすべての事例は 1 つの共通したクラスタに属することが期待されるが,ノイズを含む埋め込み表現となっている事例が存在する場合, 複数の異なるクラスタに分かれることが確認されている。このような事態を避けるため,2 段階クラスタリングを提案する。その概要を図 2 に示す。まず,1段階目のクラスタリングとして,動詞ごとに事例のクラスタリングを行うことで, 同じ動詞の意味ごとでクラスタを形成し, その後, 2 段階目のクラスタリングとして,動詞横断的にクラスタリングを行うことでフレームクラスタを形成する手法であ 図 1 動詞「get」と「acquire」の文脈化埋め込み(左)とマスクされた動詞の文脈化埋め込み(右)の 2 次元マッピング.数字は表 1 の用例に対応し, + と・はそれぞれ動詞「get」と「acquire」の事例,各色はArriving, Transition_to_state, Getting フレームを示す. 図 22 段階クラスタリングの概要. 左上, 左下図はそれぞれ動詞「get」と「acquire」を対象とした 1 段階目の動詞ごとの用例クラスタリング, 中図はクラスタ内の埋め込みの平均の算出, 右図は 2 段階目の動詞横断クラスタリングを示している。各図における+と・は「get」と「acquire」の事例を表す. る.これによって, 多少ノイズとなる事例が存在するとしても, 特定の動詞に関する事例が多くのクラスタに分割されすぎないことが期待できる. 原論文では,FrameNet を用いた実験を通し,マスクされた単語埋め込み及び 2 段階クラスタリングがそれぞれ有用であることを示した。また,これらを組み合わせた手法は,従来手法と比較して 12 ポイント以上評価スコアが向上し, これまでの最高性能を獲得した. ## 3 国際会議で発表した内容を論文誌として投稿するにあたり注力したこと 1節で述べたように,原論文は ACL-IJCNLP 2021 の本会議に採択された論文 1 を元に執筆したものであり,2 節で述べた提案手法及び実験結果はすべて論文 1 に含まれる内容である。論文 1 採択までの経緯については,学会記事 (山田 2021) にまとめたため, そちらを参照していただきたい,本節では,国際会議で発表した論文 1 の内容を論文誌として投稿するにあたって,特に注力した 3 つについて述べる。国際会議に採択された後,論文誌を執筆する方が多いと思われるため, その参考となれば嬉しい限りである。 1つ目は,論文冒頭いわゆる「はじめに」の内容である。学会で発表するために執筆する予 稿は, 研究の議論や技術の共有などが目的となるため,「はじめに」の内容としては, 簡潔な夕スクの説明をし,そのタスクにおいて着目する点を述べ,それに対するアプローチを説明するといった流れのものが期待される。一方, 論文誌は完結した研究を広める場である. このため,「はじめに」の内容に関しては,研究で取り扱うタスクより幅広い視野で,分野全体の背景やそのタスクの意味や意義についてまとめることが重要になると考えている.たとえば,原論文で言えば,動詞の意味フレーム推定タスクを説明する以前に,そもそも意味フレームとは何であるかや,意味フレームを構築する意義は何かなどがこれにあたる.著者は原論文を執筆するにあたり,これらをできるだけ読者に伝わるよう,動詞「振る舞う」の事例を用いて丁寧に導入することを心がけた. 2 つ目は,実際に構築したシステムの出力結果の分析である。学会の予稿ではページ数の制限が厳しく,また,定量的な評価が重視されるため,構築されたシステムの出力の分析などの定性的な評価を十分に示していないものが多い.しかし,そのような分析は研究を説明したり議論したりする上でかなり重要であると考えている。これは,その分析によって直感的にどこまで実現できているか確認でき,どのような点で提案手法に強みがあるのかわかるためである.原論文では,実際に構築されたフレームクラスタの表や埋め込みの可視化図などによる定性的な評価に力を入れた。 3 つ目は,実験でうまくいっていない手法に対するスコアの説明である。学会の予稿では貢献を明確にするため,実験でうまくいった提案手法に対して,考察をまとめる場合が多い,当然ながら上手くいく手法に関する考察は重要であるが,その手法を他の研究で利用する場面などでは,上手くいかなかった手法に関する考察も非常に重要である.たとえば,提案手法内でも一部のアルゴリズムやハイパーパラメータを変更した場合において, スコアが下がるようなケースの考察は, 後続の研究においてかなり重要な知見となる。原論文でいえば, 1 段階目に X-means,2 段階目に群平均法を用いた 2 段階クラスタリング手法が高い性能を示しているが,他にも 1 段階目に群平均法や 2 段階目にウォード法を用いた 2 段階クラスタリング手法も検証しており,その手法が最高性能を示す手法と比較して,スコアが低くなった理由について考察している。このような考察は,今後類似したタスクを解く場合や手法を用いる場合の問題への対処に繋がり,研究コミユニテイのために非常に重要であると考えている. ## 4 おわりに 原論文は,大規模なテキストコーパスから高品質な意味フレームを自動構築するという大きな目標に向けた最初のステップである動詞の意味フレーム推定に取り組んだ研究である. ここからは後日談であるが,本稿で提案した手法をそのまま大規模なテキストコーパスに適用した結果,原論文の実験で得た結果ほど,提案手法は十分に高い性能は示せていない。これは, FrameNet の事例はいずれもフレーム情報を付与できるような綺麗なテキストが大半であるが,実際のテキストコーパスはそこまで綺麗ではないことに由来している。このため, より性能の高い動詞の意味フレーム推定手法を実現すべく,「深層距離学習を用いた動詞の意味フレーム推定」という研究に取り組んでいる。また,現在,動詞の意味フレーム推定だけではなく,フレームに定義されているフレーム要素に関する知識の獲得についても取り組んでいる。意味フレームの自動構築に向けて, 着々と研究が進んでいるので, ぜひこれらの論文や研究発表についても注目していただると非常に嬉しい。 ## 参考文献 Anwar, S., Ustalov, D., Arefyev, N., Ponzetto, S. P., Biemann, C., and Panchenko, A. (2019). "HHMM at SemEval-2019 Task 2: Unsupervised Frame Induction using Contextualized Word Embeddings." In Proceedings of the 13th International Workshop on Semantic Evaluation (SemEval 2019), pp. 125-129. Arefyev, N., Sheludko, B., Davletov, A., Kharchev, D., Nevidomsky, A., and Panchenko, A. (2019). "Neural GRANNy at SemEval-2019 Task 2: A Combined Approach for Better Modeling of Semantic Relationships in Semantic Frame Induction." In Proceedings of the 13th International Workshop on Semantic Evaluation (SemEval 2019), pp. 31-38. Baker, C. F., Fillmore, C. J., and Lowe, J. B. (1998). "The Berkeley FrameNet Project." In Proceedings of the 36th Annual Meeting of the Association for Computational Linguistics and 17th International Conference on Computational Linguistics (ACL-COLING 1998), pp. 86-90. Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT 2019), pp. 4171-4186. Ribeiro, E., Mendonça, V., Ribeiro, R., Martins de Matos, D., Sardinha, A., Santos, A. L., and Coheur, L. (2019). "L2F/INESC-ID at SemEval-2019 Task 2: Unsupervised Lexical Semantic Frame Induction using Contextualized Word Representations." In Proceedings of the 13th International Workshop on Semantic Evaluation (SemEval 2019), pp. 130-136. 山田康輔 (2021). 文脈化単語埋め込みを利用した動詞の意味フレーム推定. 自然言語処理, $28(4)$, pp. 1325-1330. [K. Yamada (2021). Semantic Frame Induction of Verbs using Contexutualized Word Representations. Journal of Natural Language Processing, 28 (4), pp. 1325-1330.]. Yamada, K., Sasano, R., and Takeda, K. (2021a). "Semantic Frame Induction using Masked Word Embeddings and Two-Step Clustering." In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (ACL-IJCNLP 2021), pp. 811-816. Yamada, K., Sasano, R., and Takeda, K. (2021b). "Verb Sense Clustering using Contextualized Word Representations for Semantic Frame Induction." In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021 (ACL-IJCNLP 2021 Findings), pp. 4353-4362. 山田康輔, 笹野遼平, 武田浩一 (2022). マスクされた単語埋め込みと 2 段階クラスタリングを用いた動詞の意味フレーム推定. 自然言語処理, 29 (2), pp. 395-415. [K. Yamada et al. (2022). Semantic Frame Induction using Masked Word Embeddings and Two-Step Clustering. Journal of Natural Language Processing, 29 (2), pp. 395-415.]. ## 略歴 山田康輔:2019 年名古屋大学工学部電気電子情報工学科卒業. 2021 年同大学院情報学研究科博士前期課程修了. 現在, 同博士後期課程に在籍. 2022 年より日本学術振興会特別研究員 (DC2).
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 「BioVL2データセット: 生化学分野における一人称視点の 実験映像への言語アノテーション」の研究経緯 西村 太一 ${ }^{\dagger}$ ## 1 はじめに 本稿では, 言語処理学会の 2022 年度論文賞をいただいた “BioVL2 データセット: 生化学分野における一人称視点の実験映像への言語アノテーション”(西村他 2022 )の研究の経緯について説明する。 ## 2 本研究の概要 科学は再現性の危機に瀕している。2 2016 年に学術誌 Nature に掲載された, “1,500 Scientists Lift The Lid on Reproducibility"(Baker 2016)の報告にて, 心理学, 化学, 医学といった多くの研究分野において, 多くの科学者が他者の実験結果を再現することに失敗した経験があることが明らかになった。分野ごとの統計結果も記載されているのだが,とりわけ再現の失敗する傾向が多かったのが, 生化学や生命科学などの薬品を用いた化学実験を行う研究分野である. こうした分野では, $75 \%$ から $80 \%$ 以上の研究者が他の研究者の実験結果を再現することができなかった経験があると報告している。 こうした化学実験において, 再現性の観点から重要な役割を果たすのが実験プロトコルである ${ }^{1}$ 実験プロトコルとは,ある実験を再現するために必要な操作を時系列順に記述した文書である.科学者はこれに従うことで理想的には実験を再現できるべきであるが,人が書いたものであるがゆえ手順には抜け漏れが生じたり,誤りを含んだりすることもある.また,多くは言語のみによる記述のため,直感的に分かりやすい視覚情報は含まれていない.玄人の科学者であれば,過去の実験経験をもとに,言語情報のみから再現することも可能であろうが,駆け出しの科学者であればそれもまた難しくなる。人工知能技術を用いてこの問題の解決に貢献できるだろうか? この問いが本研究の根底にある学術的問いである. この問いに答えるために,我々は視覚と言語の融合研究に着目した.撮影した実験映像とプロ  トコルの組から, 映像の操作シーンとプロトコルの各手順の対応関係を推定する技術 (Bojanowski et al. 2015; Naim et al. 2014, 2015) を応用すれば,手順ごとに視覚的に操作を確認できるようになる。あるいは,作業映像を入力としてプロトコルを自動生成できれば (Nishimura et al. 2021; Ushiku et al. 2017),研究者がプロトコルを書く負担を軽減することができる。このように,化学実験を対象とした視覚と言語の融合研究は実験プロトコルの参照時と作成時の両方の負担を軽減し, 実験再現性の向上に貢献できるだろうと考えた. この目標に向けた第一歩として, 本研究では, 生化学分野を対象として実験映像を収集し,言語アノテーションを付与した BioVL2 データセットを構築した(図 1). BioVL2 データセットには, 生化学分野の 4 種類の基礎的な実験に対して 8 映像を撮影し, 各映像に対して (a) 視覚と言語の対応関係と (b) プロトコル内に現れる物体の矩形情報の二種類のアノテーションを付与した。これらのアノテーション方法や統計情報といった詳しい説明は元論文に譲る. 重要なのは,これらの情報を利用することで,映像中からのシーン検索やプロトコル生成による科学者のプロトコル記述の補助といった科学の再現性向上に資するデータセットを提案したことである。構築した BioVL2 データセットを用いて,作業映像からのプロトコル生成を応用課題に掲げて実験を行いデータセットの有用性を検証している. 図 1 BioVL2 データセットの概要. 図は元論文から引用. ## 3 本研究の過程 ## 3.1 研究の始まり 本研究は, 私が博士 1 年のはじめに取り組み始めた研究である。私は “作業映像からの手順書生成”を大きなテーマに揭げて研究に取り組んできた (Nishimura et al. 2021). 作業動画といっても全ての分野を同時に検証することは難しい,私は,Web上でデータが多く, ベンチマークデータセットが整備されている料理分野 (Zhou et al. 2018; Damen et al. 2018) に焦点を絞り研究に取り組んできた。しかし, 自分の開発した手法が果たして他の分野(部品組み立てや化学実験)にも適用できるのかは不明であった。料理分野にしか適用できない手法を開発しているのではないか?という疑問は絶えず頭の片隅にあったことを覚えている. このことは指導教員である森信介教授にも何度か指摘された。「料理分野は取り組みやすいということで始めた研究のはずだ. そろそろ手順化することの需要が高い別の分野で研究に取り組むべきではないか」この言葉は当時グサッときた。図星であったからであろう,一方,新しい分野に飛び込む恐怖も覚えていた。映像から手順として生成することの需要が高い分野として化学実験があることは頭にあったが,どこから手をつけたら良いか(例えば,Webから映像を収集するのか,あるいは映像を実際に撮影するのか)悩んでいた。また,料理分野と違いほとんど先行研究がない中の挑戦となる。公開されているデータセットも少なければ Web 上のデー 夕 (例: YouTube 上の映像の数)も少ない. 深層学習を用いたアプローチをそのまま適用することが難しい中, 自分が一から研究を行って最後まで遂行することができるのかという不安もあった。 悩んだ末に出した答えは,“考えるより先に動く”,つまり,実際に実験映像を収集してみて分析を行ってみるしかないという結論に至った。撮影を行いたい旨を森先生に相談すると, 先生から BonBon 株式会社の荘子万能氏を紹介していただいた.荘子氏は大阪医科薬科大学の卒業生であり,我々の研究に興味を持ってくれた。そして,撮影の協力相手として氏の所属していた研究室である大阪医科薬科大学の生理学研究室の小野富三人教授を紹介していただいた. 小野教授も我々の研究内容に興味を持っていただき,実験の撮影に対して快諾していただいた。 こうして, 我々一京都大学と大阪医科薬科大学の共同研究が始まった. 当時研究室の修士 2 年であった迫田航次郎君と共に大阪医科薬科大学に定期的に通い撮影を行い研究を進めた。我々の研究室は自然言語処理の研究室であり撮影に関する知識はなかったため, コンピュータビジョンのプロであるオムロンサイニックエックス株式会社橋本敦史氏に協力を仰ぎ撮影のノウハウを教えてもらいつつ撮影を進めた2。  ## 3.2 実験映像の撮影を経て得られた知見 撮影を行っていく中で,料理分野では見られなかった観察も多々得られた。 そのうちの $1 \supset$ に物体の性質の変化に伴う見た目の変化がある。作業を行っていくたびに,作業対象となる物体の性質は変化していき,時として物体の見た目にも変化が伴う。料理をもとに例を挙げよう. カレーを作る際にじゃがいもは生の状態から皮を剥かれ,切られ,鍋に入れられといったように,じゃがいもの持つ性質は人の操作によって変化する。そして,この過程でじゃがいもの見た目も生の状態から操作を経て大きく变化していく3 料理分野との大きな違いは, 化学実験において, 性質の変化に伴って見た目の変化が伴わない点にある。これは,対象とする物体は液体であることが多く,チューブに入れて操作をするためである。チューブに試料を入れて操作をするため,液体の化学的性質は変化していても見た目を手がかりに試料の性質を認識することはできない。また,異なる試料に同じチューブを利用しているため,チューブの違いから試料を区別することも難しい。こうした機械的には区別することがほとんど不可能な認識をどう行っているのか? 撮影に協力いただいた奥田奈津子氏に尋ねると,「チューブのふたに小さい文字を書いて何の試料が入っているのかを区別している」との回答を得た。この回答をもとに,QRコードをチューブに貼ってしまったら良いのではないかと閃いた。このアイデアは BioVL2 データセットにおいては未検証であるが,現在進行形の後続研究にて QR コードを実験機材に貼って撮影することで実験中に登場する物体の識別が可能な新たなデータセットを構築する取り組みを進めている. これらのアイデアは実験映像を撮影することでしか得られなかったであろう.新しい分野に足を踏み入れるとき重要になるのは,その分野について深く知ることである。こうした知識はすぐに手に入るものではなく,実際の現場に赴くほかにない。今後も新たな分野に挑んでいく時は需要を頭で考えるだけでなく, 体を動かして一つまり, 現場の声を聞いたうえで研究開発を行っていきたい. ## 3.3 論文誌への投稿と今後について BioVL2 の初期バージョンに当たる BioVL データセットはコンピュータビジョンの国際会議である 2021 年の International Conference on Computer Vision (ICCV2021)の併設のワークショップである Closing the Loop Between Computer Vision and Natural Language Processing (CLVL2021)にて発表を行った (Nishimura et al. 2021).その後, ワークショップを経て頂いたフィードバックをもとに映像データの追加と映像からプロトコルを生成する実験を行って論文誌へ投稿した,査読ではデータセットの有用性を高く評価していただき,論文の主張を明確に  するための沢山の改善コメントを頂いた.多くの人のフィードバックを経てこの研究をひと段落終えることができ著者として感無量である。 一方でこの研究にはやり残した課題も多い.データセットの量も限られているし, 実験の種類も生化学実験における基礎的なものを収録しており,研究者たちが普段行う実験とは大きく異なる。そのため,再現性の改善のために現場に導入する上で実用とは程遠い.今後も研究を重ね,科学の再現性に真に寄与するであろう技術を開発していきたい. ## 4 おわりに 本稿では, “BioVL2 データセット: 生化学分野における一人称視点の実験映像への言語アノテーション"の研究の経緯について記したものである。新たな分野に飛び达むに至った経緯や,現場に赴き実験を実際に撮影することで得られた知見,そして今後の発展について述べた。 この研究は多くの協力者に参加していただき実現できたものである。みんなの力で取れた賞たと心の底から思う。協力して頂いた共著者の方々と本論文を高く評価して頂いた編集委員の皆様に感謝の意を表する。また, 実験の撮影に協力してくれた大阪医科薬科大学生理学教室の研究員の方々と有益なコメントをくだっった查読者の皆様にも感謝を申しけける. ## 参考文献 Baker, M. (2016). "1,500 Scientists Lift The Lid on Reproducibility." Nature, 533, pp. 452-454. Bojanowski, P., Lajugie, R., Grave, E., Bach, F., Laptev, I., Ponce, J., and Schmid, C. (2015). "Weakly-supervised Alignment of Video with Text." In Proceedings of ICCV, pp. 4462-4470. Damen, D., Doughty, H., Farinella, G. M., Fidler, S., Furnari, A., Kazakos, E., Moltisanti, D., Munro, J., Perrett, T., Price, W., and Wray, M. (2018). "Scaling Egocentric Vision: The EPIC-KITCHENS Dataset." In Proceedings of ECCV, pp. 753-771. Naim, I., Song, Y., Liu, Q., Kautz, H., Luo, J., and Gildea, D. (2014). "Unsupervised Alignment of Natural Language Instructions with Video Segments." In Proceedings of AAAI, pp. 1558-1564. Naim, I., Song, Y. C., Liu, Q., Huang, L., Kautz, H., Luo, J., and Gildea, D. (2015). "Discriminative Unsupervised Alignment of Natural Language Instructions with Corresponding Video Segments." In Proceedings of NAACL, pp. 164-174. 西村太一, 迫田航次郎, 牛久敦, 橋本敦史, 奥田奈津子, 小野富三人, 亀甲博貴, 森信介 (2022). BioVL2 データセット:生化学分野における一人称視点の実験映像への言語アノテーション. 自然言語処理, 29 (4), pp. 1106-1137. [T. Nishimura (2022). BioVL2: An Egocentric Biochemical Video-and-Language Dataset. Journal of Natural Language Processing, 29 (4), pp. 1106-1137.]. Nishimura, T., Hashimoto, A., Ushiku, Y., Kameko, H., and Mori, S. (2021). "State-aware Video Procedural Captioning." In Proceedings of ACMMM, pp. 1766-1774. Nishimura, T., Hashimoto, A., Ushiku, Y., Kameko, H., Yamakata, Y., and Mori, S. (2020). "Structure-aware Procedural Text Generation from an Image Sequence." IEEE Access, 9, pp. 2125-2141. Nishimura, T., Sakoda, K., Hashimoto, A., Ushiku, Y., Tanaka, N., Ono, F., Kameko, H., and Mori, S. (2021). "Egocentric Biochemical Video-and-Language Dataset." In Proceedings of CLVL, pp. 3129-3133. Ushiku, A., Hashimoto, H., Hashimoto, A., and Mori, S. (2017). "Procedural Text Generation from an Execution Video." In Proceedings of IJCNLP, pp. 326-335. Zhou, L., Xu, C., and Corso, J. J. (2018). "Towards Automatic Learning of Procedures From Web Instructional Videos." In Proceedings of AAAI, pp. 7590-7598. ## 略歴 西村太一:2019 年九州大学芸術工学部卒業, 2020 年京都大学大学院情報学研究科修士課程修了. 現在同大学博士課程. 修士 (情報学)、マルチメディア,自然言語処理, コンピュータビジョンの研究に従事. 学術振興会特別研究員 (DC1).
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 金融・経済ドメインを対象とした言語処理の新展開 坂地 泰紀† ## 1 はじめに 近年, 機械学習手法や言語処理技術が高まってきたことを背景に, これらの技術を様々なドメインに適用しようとする流れが加速している。そのような中, 金融・経済ドメインを対象にした研究が数多く発表されるようになり, 決算短信, 有価証券報告書, 株主招集通知, 経済新聞記事といった金融・経済ドメインの文書(金融テキスト)を自然言語処理により自動的に分析し,経済分析や投資先の選定に利用しようとするなど,各証券会社や銀行もこれらの技術を取り入れ始めた. 金融の業務において,これらの金融テキストの分析は,従来は人手により行われてきた。しかし, 金融テキストの量は膨大であり, それらの分析には多大は労力と専門的な知識を要する.例えば,決算短信は決算期にもなると 1 日に数百と公開される。そして,決算内容を分析するためにそれらを素早く読み,把握する必要があるが,それを自然言語処理を用いて支援することができれば,業務の効率化に寄与することができる。 さらに,近年では個人投資家をサポートするような技術や証券,銀行,投資信託運用会社といった金融機関での業務支援だけではなく, オルタナティブデータとしてテキストを利用し,経済指標を作成しようとする流れが強まっている。しかしながら,まだ解決すべき課題が多く残されていることから,さらなる技術開発が望まれているのが現状である。これらの背景を鑑みて, 我々は, 2020 年 3 月に開催された言語処理学会第 26 回年次大会 (NLP2020) において, テーマセッションの一つとして「金融・経済ドメインのための言語処理」を提案した.本セッションでは,想定を超えて 14 件もの発表があり,金融・経済ドメインを対象にした言語処理技術への注目が加速しているのを確認した. そして, 2023 年 3 月に開催された言語処理学会第 29 回年次大会 (NLP2023)において, 3 年ぶりに,テーマセッション「金融・経済ドメインのための言語処理」を再び提案した.前回を超える 15 件の発表があり,前回に引き続き,金融・経済ドメインを対象にした言語処理が注目されている. 特に今回は, 日本取引所グループ (JPX) や日本銀行, さらに経済学者から発表もあり, 分野融合が進んでいることが確認できた。本稿では, 最近の動向に加え, テーマセッションで発表された研究をいくつか紹介する.  ## 22020 年以降の国内外の動向 本節では,近年の金融・経済ドメインを対象とした言語処理の動向を記述する,金融・経済を対象にした言語処理の国内での研究は, 主に人工知能学会において発表されている。人工知能の分野において,金融・経済に対する言語処理は金融テキストマイニングと呼ばれており,金融分野と情報分野の融合を目指した研究会である金融情報学研究会 (SIG-FIN) 1 での発表が多く, こちらの動向を紹介したい. こちらは, 言語処理学会第 26 回年次大会時のテーマセッションに関して執筆させて頂いた解説記事 (坂地他 2020) で報告させて頂いた内容の続報となる. 金融情報学研究会は, 人工知能学会第 2 種研究会「ファイナンスにおける人工知能応用研究会 (SIG-FIN)」として,2008 年 9 月に第一回が開催された。その後, 2013 年 10 月に行われた第 11 回研究会より, 金融情報学研究会に名前を変え, 今に至っている。近年, 実務者からの発表, もしくは, 大学との共同研究の成果を共著者に入る形で発表されることが増えてきたことから, 最近の 8 年間での金融情報学研究会における発表数と, 第一著者が企業所属者である発表数, 共著者に企業所属者が入っている発表数を推移を図 1 に示す. 図 1 において,金融情報学研究会は年 2 回の研究会を開催していることから, 各年において 2 回ずつカウントしている ${ }^{2}$. 前回報告時は第 24 回までであったかが, 以降の 3 年間で第 30 回まで開催されたことから, 第 13 回から第 30 回までの数値を示している. 図 1 より, 増減はあるものの, 発表数は増えている傾向にあり, また, 企業所属者が共著や筆頭に入っている発表 図 1 金融情報学研究会における発表数の推移  の割合も増加傾向にある。この図から,金融系企業からの,この分野に対する期待が前回報告時から継続していることを確認できる。また,金融・経済における言語処理に関する発表数の推移を図 2 に示す. 図 2 より,徐々にであるが,言語処理に関する発表件数も増加傾向であり,近年は安定的な発表件数となっている。このことより,金融・経済分野における言語処理が根付いてきたことを示唆している。 また,国際的な動向として,前回記事で紹介した国際ワークショップの最新動向を紹介する. Financial Technology and Natural Language Processing (FinNLP) ${ }^{3}$ が引き続き開催されており, 2023 年開催の International Joint Conference on Artificial Intelligence (IJCAI) ${ }^{4}$ においても他のワークショップと合同ではあるが開催予定となっている. Economics and Natural Language Processing (ECONLP) ${ }^{5}$ は, 2021 年の Empirical Methods in Natural Language Processing (EMNLP) のワークショップとして開催された. 残念ながら, 以降は開催されていない. Knowledge Discovery from Unstructured Data in Financial Services (KDF) ${ }^{6}$ においても, 2022 年の AAAI のワークショップとして開催され,継続してAAAIのワークショップとして開催されている. Financial Narrative Processing Workshop (FNP) ${ }^{7}$ は, 2022 年の LREC のワークショップとして開催された. 上記のように,多くの国際会議ワークショップが継続して開催され,金融・経済分野にお 図 2 金融情報学研究会に打ける言語処理に関する研究の発表数 ^{3}$ https://sites.google.com/nlg.csie.ntu.edu.tw/finnlp-2022/ 4 https://ijcai-23.org/ 5 https://lt3.ugent.be/econlp/ 6 https://aaai-kdf.github.io/kdf2022/ 7 http://wp.lancs.ac.uk/cfie/fnp2022/ } ける言語処理が国際的にも根付いてきたと考えられる. ## 3 テーマセッションにおける研究動向 NLP2023 のテーマセッション「金融・経済ドメインのための言語処理」において発表された 15 件の研究の中から,2つの研究を紹介する.1つ目は, 野村アセット株式会社の高野らの発表である「中央銀行の要人発言に対するタカ・ハト極性付与タスクの検討」(高野他 2023)を紹介する。本研究は, 連邦準備制度 (Federal Reserve System, 以降 Fed)を対象に, Fed 要人の発言がタカ派的発言なのか,ハト派的発言なのかを分類するタスクを解くために,否定表現や発言時の経済状況,さらに時間軸情報を加味しないと,十分な性能が得られないということを提言する内容であった.ここで,夕カ派とは,物価の安定を重視し金融引き締め的な政策を支持する人のことを指し, 逆に景気刺激に前向きで金融緩和的な政策を支持する傾向がある人のことをハト派という。通常の極性分類とは異なり, 経済的条件を理解しないといけない金融・経済分野特化の極性分類問題となっており, 今後の発展が望まれる研究となっている。また, 質疑応答の中で, 本テーマセッションの提案者でもある東京大学大学院経済学研究科の新谷教授から, 興味深い研究で経済学的にも価値があり, 今後の発展が望まれるとのコメントがあったことから, 言語処理分野だけではなく, 経済学的な観点からも重要なタスクであることが分かる. 2 つ目は, 日本銀行の金田らの発表である「BERT と因果抽出を用いた気候変動ナラティブの可視化/指数化」(金田, 坂地 2023$)$ を紹介する.こちらは, 気候変動を対象に新聞記事から因果抽出を用いてトピック間つながりの強さ(ナラティブ)を求め, これを指数化・可視化する研究となっている。近年, 気候変動に伴うリスクが向上していることから, 日本銀行においても気候変動に伴うリスクを把握しておくことは重要であり,それを言語処理技術を用いて可視化す研究となっている. 本研究は, 今まで可視化できていなかった気候変動ナラティブを可視化できるようになったという点が新しく, 他の経済事象も本手法を用いて分析可能なことから応用可能性も高く, 今後の発展が期待できる。 ## 4 まとめ 本稿では, 2020 年の解説記事後の金融・経済を対象にした言語処理の動向やテーマセッションで発表された研究を紹介した.国内では,金融テキストマイニングの研究発表が引き続き盛んに発表されていることを示した. 国際的な動きとしては,金融・経済を対象にした言語処理に関連する国際ワークショップが継続して大きな国際会議で開催されていることを確認した。 テーマセッションで発表された研究では, 経済学者や実務家が期待するような分析が進められており,言語処理と経済学の分野融合が進んでいることが示された,今後は,それぞれの分野 の専門家が協力しながら,「金融・経済ドメインを対象とした言語処理」の発展を促していくと期待できる. ## 謝 辞 本テーマセッションの提案者は次のとおりです(敬称略, 所属は大会時)。坂地泰紀 (東京大学), 酒井浩之 (成蹊大学), 和泉潔 (東京大学), 高村大也 (産業技術総合研究所), 新谷元嗣 (東京大学), 木村泰知 (小樽商科大学), 中川慧(野村アセットマネジメント), Chung-Chi Chen (産業技術総合研究所)。本稿で紹介した研究の一部は, JSPS 科研費 JP21K12010 と, JST さきがけ JPMJPR2267 の助成を受けたものです. ## 参考文献 金田規靖, 坂地泰紀 (2023). BERT と因果抽出を用いた気候変動ナラティブの可視化/指数化. 言語処理学会第 29 回年次大会 (NLP2023), pp. 2714-2719. [N. Kaneda and H. Sakaji (2023). BERT to Inga Chushutsu wo Mochiita Kiko Hendo Naratibu no Kashika/Shisuuka. The Proceedings of the 29th Annual Meeting of the Association for Natural Language Processing, pp. 2714-2719.]. 坂地泰紀, 和泉潔, 酒井浩之 (2020). 金融・経済ドメインを対象とした言語処理. 自然言語処理, 27 (4), pp. 951-955. [H. Sakaji et al. (2020). Language Processing for Finance and Economics. Journal of Natural Language Processing, 27 (4), pp. 951-955.]. 高野海斗, 内藤麻人, 長谷川直弘, 中川慧 (2023). 中央銀行の要人発言に対する夕カ・ハト極性 付与タスクの検討. 言語処理学会第 29 回年次大会 (NLP2023), pp. 2442-2447. [K. Takano et al. (2023). Chuo Ginko no Yojin Hatsugen ni taisuru Taka $\cdot$ Hato Kyokusei Fuyo Tasuku no Kento. The Proceedings of the 29th Annual Meeting of the Association for Natural Language Processing, pp. 2442-2447.]. ## 略歴 坂地泰紀:2012 年豊橋技術科学大学大学院工学研究科博士後期課程電子・情報工学専攻修了. 博士(工学)。2012 年株式会社ドワンゴ入社. 2013 年成蹊大学理工学部情報科学科助教. 2017 年東京大学大学院工学系研究科システム創成学専攻助教を経て, 2018 年より同特任講師.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# NLP2023 テーマセッション「ことばの評価と品質推定」 ## 1 はじめに 2010 年代後半以降の計算機による言語生成技術の進展には目を見張るものがある. 特に 2020 年前後から急速に発展した大規模事前学習モデルは, 巨大な生テキストデータと大規模化を続ける計算資源を背景にモデルサイズの増大と応用タスクでの性能向上を続けている。 2022 年 11 月に公開された ChatGPT や続いて 2023 年 3 月に公開された GPT-4 は広く世間一般への認知も高まり,いよいよ計算機による言語生成が身近なものとして拡がる兆しを見せつつある。こうした背景から,今後は社会全体での「ことば」に関する “生産性”が大きく向上していくことが見込まれる。これまでの社会ではともすると人間が発する「ことば」と計算機が生成する「ことば」という二項対立に近い扱いであったものが,計算機の力を借りて人間が紡ぐ「ことば」, もしくは人間が指示を与え計算機が代弁する「ことば」,が無視できない存在になるであろう. そのような時代の到来を見据え,コミュニケーションや記録,そして思考の媒体である「ことば」を正しく用いることは,「ことば」による相互理解の質の担保のためにますます重要性を増していくと考えられる。 自然言語処理においてはこれまで人間が産出する「ことば」を対象とした小論文等の採点, 計算機が生成する「ことば」を対象とした機械翻訳や自動要約等の採点, の双方が扱われてきた.前者においては言語習熟度や文章構成能力といった観点,後者においては原文や参照文との同義性の観点が重視される傾向にあったと言える。この違いは小論文と翻訳や要約との目的の違いによるものであるとともに,後者においてはそもそも計算機が生成する「ことば」の品質が低かったために,高次の品質よりも「ことば」としての自然さや伝達内容の “正解率”,ともすれば表層の一致率のような比較的低次の品質を問わざるを得なかったことの表れでもある.筆者らは, 先に述べたような言語生成技術の進展を受け, 計算機の言語生成においても今後より高次の品質が問われることを見据えて,人間か計算機かを殊更に問わず,幅広く「ことば」の品質を問うための議論の場として, テーマセッション「ことばの評価と品質推定」を企画した.以下本稿ではセッションの内容と,セッションでの議論を受けた筆者らの見解について述べる.  ## 2 テーマセッションの内容 本テーマセッションは, ある目的で生み出されたことばが的確であるか, 有用であるか, を評価あるいは推定するという課題に着目し, そのための技術やノウハウ, 実用上の課題, 新たな応用の可能性等を幅広く議論し, 知見の共有と今後の更なる発展に繋げることを狙うものである.企画としては, 前回 NLP2022 のテーマセッション『文章の評価と品質推定』, 前々回 NLP2021 のワークショップ『文章の評価と品質推定~人間・機械の「作文」の巧拙をどう見極めるか?〜』(須藤他 2021), に続くものである¹. 本テーマセッションでは, 9 件の一般発表と最後短時間の総合討論を行った. ## 2.1 一般発表 一般発表の話題は様々な言語生成タスクに対し横断的に自動評価・品質推定を行うもの (星野, 張 2023; 野口,梶原 2023), 計算機が生成する「ことば」を自動評価するもの (山中, 徳永 2023; 黒田他 2023), 人間が産出した「ことば」を自動評価するもの(新保他 2023; 李他 2023),通訳と翻訳の評価観点の違いを問うもの(蒔苗他 2023), 個々の生成結果ではなくモデルの生成傾向を分析するもの (Anantaprayoon 他 2023),異なる情報媒体に対する人間の情報消化効率を分析するもの (小池, 早矢仕 2023) と多岐に渡った. 既存の共通タスク等のデータに基づて性能改善を目指したり別視点からの分析を与えるものがおよそ半数, その他は独自に評価データセットを作成して新たな観点で評価の課題に取り組んたものであった. なお,テーマセッションでの発表以外でもいくつか関連する内容について扱った研究発表がプログラム内に見られた。 本大会では口頭での質疑時間が限定的だったこともあり, Slackでの質疑へも誘導する形でセッション中の議論を行った.Slackでの質疑は発表内容により多少の濃淡はあったものの,才ンライン参加者も含め活発に行われた。いわゆる質問だけでなく, 感想や雑談という形で意見や情報が共有されたり, 関係する論文が提示できたり, 発表間の関係を活かし,記録を残すという面でも有益であった. ## 2.2 総合討論 総合討論では会場および Slack で質疑応答を行った. 大きくは人間の書いた文章に関する評価に対する話題と,機械的に生成された文章に関する評価に関する話題について議論し,以下のような課題が提起された。総合討論の時間が短く議論が深められなかった面はあったが, これまでの評価や品質推定の枠組みにとらわれず新たな試みが今後行われることを期待したい.  - 大前提として, 何のため, 誰のための評価をするのかということが重要であって, 万能のものはない -そもそも評価は一次元ではなく,正確さ,用語の的確さ,流暢さ等多面的に捉えるべきものではないか - 難易度という尺度も単純ではなく,母語話者と第二言語学習者では違いがあることもある - ChatGPT 等機械が生成することばは当たり障りがない一方, 人間の作文は個々人の特徵やクセ等の尖った部分があることで面白さに繋がっている面があるため, 同じように評価すべきかは自明でない ・評価は改善の指針にもなり得るはずで,フィードバックも含めて役立てるべき ## 3 議論 ## 3.1 人間の「ことば」の評価と計算機の「ことば」の評価の関係 今回のテーマセッションに至る一連の企画において筆者らが重視してきたのは, 人間が産出する「ことば」と計算機が生成する「ことば」の評価で知見を共有することであった. 人間の 「ことば」に対する評価は,短文記述問題の回答評価のように正解があるものに限らず,課題に対する自由作文で文章構成力や言語習熟度を問うものや, 知識を総動員させた上で論述力を問うものもあり,非常に多様である.かたやこれまでの計算機の「ことば」に対する評価は,機械翻訳の評価に代表されるように,正解との内容の一致度を測るものであることが多かった. 今後計算機が生成する「ことば」の活用が拡がっていくにつれて, 応用に応じた多様な評価が必要となることは間違いない. それに伴うある応用においてどのような「ことば」が求められているのか, というタスクの定式化, 評価観点や尺度の規定, 検証のためのデータの整備等が今後の重要な課題と言えるだろう。そして,人間が産出する「ことば」に対して教育や能力評価の観点で行われてきた様々な評価の知見が活用されることが期待でき,協働が望まれる. ## 3.2 大規模言語モデル時代の「ことば」の評価 もう一つ議論すべきこととして, 大規模言語モデルによる「ことば」の “生産性” の向上が挙げられる。「ことば」の評価や品質推定の観点でも, 人間が産出する「ことば」, 計算機が生成する「ことば」に加え, 大規模言語モデルの支援を受けた人間が創出する「ことば」が対象に加わる.「ことば」の品質を問うことの重要性はさらに高まると言ってよいであろう. ここで, 言語モデルに基づく「ことば」の生成とその評価に関して, 以下を考えてみる。言語モデル尤度の高い生成文に対して人間が修正という“摂動”を加えたとして, 修正後の文のほうが「ことば」として望ましい,と安定して評価するためには何が必要たろうか?さらに,「ことば」の “生産性” が今後より向上し, 言語モデルが “平均的” な「ことば」の用法に大きく寄与 するようになったとしたら, 人間の「ことば」の尖った部分はどう扱われるべきなのだろうか? 何かを「ことば」で伝えようとすると,話し手・書き手の意図やその時々の状況等,様々な条件に応じた実行可能解としての「ことば」の表現が許容されるはずである。このような様々な条件は ChatGPT 等の仕組みではプロンプトとして制御ができるようになったと考えることもでき,以前に比べれば格段に豊かな表現が得られるようになったのかもしれない.たた,現在我々が扱っている「ことば」の評価や品質推定の枠組みはまたその見極めには至っていないと考えられる。昨今の評価・品質推定の研究では BERT 等の(広義の)事前学習言語モデルがよく用いられるが 2 , これを非常に単純に捉えると,生成と評価の両面で同様のモデルを利用する状況にあるとも言える。「ことば」の品質を一定程度保証する仕組みとしての言語モデルの有効性を活かしつつ,それのみに留まらない本質的な「ことば」の品質を問う必要があると言えよう. また,計算機による「ことば」の生成技術や創出支援技術の検証のために評価が果たす役割は大きい。言語モデルの多様性と,研究の再現性の担保のための透明性の高いモデルの利用はトレードオフの関係にあり,個々の言語モデルに関する知見と言語モデルを横断する知見を区別して蓄積することが, 自然言語処理コミュニティとして必要なことであろう. ## 4 おわりに 本稿では, NLP2023 テーマセッション「ことばの評価と品質推定」について簡単に報告し, それを受けた筆者らの見解を述べた。一口に「ことば」の評価と言ってもその範囲は広く,以前のワークショップ・テーマセッションでなかった新たな観点の研究発表もあり, 今後も更に拡がりを見せることが期待される内容であった。冒頭に述べた通り,今後「ことば」を取り巻く情勢は大きく変化し, それに伴ってその評価に求められるものも急速に変容していく可能性が高い,そうした中,様々な場面・用途・対象で用いられる「ことば」の品質を評価・検証する仕組みを構築し,また維持することは自然言語処理の重要な役割であると考える.本テーマセッションおよび本稿が参加者や読者の興味を喚起することに繋がれば幸いである. ## 謝 辞 本テーマセッションおよび年次大会の開催にあたりご尽力くださった大会各委員会の皆様, テーマセッションを盛り上げていただいた発表者および参加者の皆様に感謝する。また本寄稿の機会をくたさった編集委員会の皆様にも感謝する。  ## 参考文献 Panatchakorn Anantaprayoon, 金子正弘,岡崎直観 (2023). 下流タスクでの日本語事前学習モデルの性別バイアスの評価. 言語処理学会第 29 回年次大会発表論文集, pp. 1563-1568. [P. Anantaprayoon et al. (2023). Karyu Tasuku deno Nihongo Jizen Gakushu Moderu no Seibetsu Baiasu no Hyoka. The Proceedings of the 29th Annual Meeting of the Association for Natural Language Processing, pp. 1563-1568.]. 星野翔, 張培楠 (2023). 自然言語生成における夕スク横断自動評価のメ夕分析. 言語処理学会第 29 回年次大会発表論文集, pp. 1267-1271. [S. Hoshino and P. Zhang (2023). Shizen Gengo Seisei niokeru Tasuku Odan Jido Hyoka no Meta Bunseki. The Proceedings of the 29th Annual Meeting of the Association for Natural Language Processing, pp. 1267-1271.]. Kocmi, T. and Federmann, C. (2023). "Large Language Models Are State-of-the-Art Evaluators of Translation Quality." arXiv preprint 2302.14520 [cs.CL]. 小池央晟, 早矢仕晃章 (2023). テキスト・画像による情報消化効率のメディア別構成因子抽出. 言語処理学会第 29 回年次大会発表論文集, pp. 1553-1556. [H. Koike and T. Hayashi (2023). Tekisuto $\cdot$ Gazo niyoru Joho Shoka Koritsu no Mediabetsu Koseiinshi Chushutsu. The Proceedings of the 29th Annual Meeting of the Association for Natural Language Processing, pp. 1553-1556.]. 黒田勇斗, 藤田篤, 梶原智之, 二宮崇 (2023). 疑似訓練データに基づく機械翻訳の教師なし品質推定. 言語処理学会第 29 回年次大会発表論文集, pp. 1283-1287. [Y. Kuroda et al. (2023). Giji Kunren Deta ni Motozuku Kikai Honyaku no Kyoshinashi Hinshitsu Suitei. The Proceedings of the 29th Annual Meeting of the Association for Natural Language Processing, pp. 1283-1287.]. 李在鎬, 長谷部陽一郎,伊集院郁子,青木優子,村田裕美子 (2023),学習者作文評価システム「jWriter」による習熟度と論理性の自動評価. 言語処理学会第 29 回年次大会発表論文集, pp. 1569-1573. [J. Lee et al. (2023). Gakushusha Sakubun Hyoka Shisutemu "jWriter" niyoru Shujukudo to Ronrisei no Jido Hyoka. The Proceedings of the 29th Annual Meeting of the Association for Natural Language Processing, pp. 1569-1573.]. 蒔苗茉那, 須藤克仁, 中村哲, 松下佳世, 山田優 (2023). 同時通訳品質評価方法検討のための同時通訳者と翻訳者の評価比較分析. 言語処理学会第 29 回年次大会発表論文集, pp. 1277-1282. [M. Makinae et al. (2023). Doji Tsuyaku Hinshitsu Hyoka Hoho Kento no tameno Doji Tsuyakusha to Honyakusha no Hyoka Hikaku Bunseki. The Proceedings of the 29th Annual Meeting of the Association for Natural Language Processing, pp. 1277-1282.]. 野口夏希, 梶原智之 (2023). 入力文と自然言語処理モデルの相性判定. 言語処理学会第 29 回年 次大会発表論文集, pp. 1288-1292. [N. Noguchi and T. Kajiwara (2023). Nyuryokubun to Shizen Gengo Shori Moderu no Aisho Hantei. The Proceedings of the 29th Annual Meeting of the Association for Natural Language Processing, pp. 1288-1292.]. 新保彰人, 山田寞章, 徳永健伸 (2023). 参照例を使わないキャッチコピーの自動評価. 言語処理学会第 29 回年次大会発表論文集, pp. 1557-1562. [A. Shimbo et al. (2023). Sanshorei wo Tsukawanai Kyatchikopi no Jido Hyoka. The Proceedings of the 29th Annual Meeting of the Association for Natural Language Processing, pp. 1557-1562.]. 須藤克仁, 小町守, 梶原智之 (2021). NLP2021 ワークショップ:文章の評価と品質推定〜人間$\cdot$機械の「作文」の巧拙をどう見極めるか?~. 自然言語処理, 28 (3), pp. 895-900. [K. Sudoh et al. (2021). NLP2021 Workshop: Evaluation and Quality Estimation of Text-How Do We Judge Human- and Machine-generated Text Good or Bad? Journal of Natural Language Processing, 28 (3), pp. 895-900.]. 山中光, 徳永健伸 (2023). 編集操作によるデー夕拡張を用いたテキスト平易化の自動評価. 言語処理学会第 29 回年次大会発表論文集, pp. 1272-1276. [H. Yamanaka and T. Tokunaga (2023). Henshu Sosa niyoru Deta Kakucho wo Mochiita Tekisuto Heiika no Jido Hyoka. The Proceedings of the 29th Annual Meeting of the Association for Natural Language Processing, pp. 1272-1276.]. ## 略歴 須藤克仁 : 奈良先端科学技術大学院大学准教授. 2000 年京都大学工学部卒業, 2002 年京都大学大学院情報学研究科修士課程修了, 同年 NTT 入社. 2015 年京都大学博士 (情報学)。2017 年より現職. 機械翻訳を中心とした自然言語処理, 音声言語処理の研究に従事. 2018 年より理化学研究所革新知能統合研究センター客員研究員を兼務. 言語処理学会, 情報処理学会, 日本音響学会,人工知能学会, ACL, ISCA 各会員. 小町守:一橋大学ソーシャル・データサイエンス研究科教授. 2005 年東京大学教養学部基礎科学科科学史・科学哲学分科卒業. 2007 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 2008 年より日本学術振興会特別研究員 (DC2) を経て, 2010 年同研究科博士後期課程修了. 博士 (工学).同年同研究科助教. 2013 年首都大学東京 (現東京都立大学) システムデザイン学部准教授, 2022 年教授を経て, 2023 年より現職. 情報処理学会, 人工知能学会, 言語処理学会, ACL 各会員. 梶原智之:愛媛大学大学院理工学研究科助教. 2013 年長岡技術科学大学工学部電気電子情報工学課程卒業. 2015 年同大学大学院工学研究科修士課程修了. 2018 年首都大学東京大学院システムデザイン研究科博士後期課程修了. 博士 (工学)。大阪大学データビリティフロンティア機構の特任助教を経て, 2021 年より現職. 情報処理学会, 人工知能学会, 言語処理学会, ACL 各会員. 三田雅人:株式会社サイバーエージェントリサーチサイエンティスト. 2016 年に奈良先端科学技術大学院大学を修了後, 日本マイクロソフトを経て, 2018 年に理化学研究所革新知能統合研究 (AIP) センターに入所. 2021 年に東北大学大学院情報科学研究科博士後期課程修了. 2022 年より現職. 東京都立大学特任助教, 理化学研究所 AIP センター客員研究員を兼任. 博士 (情報科学).言語処理学会, ACL 各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# テーマセッション3:地理空間情報と自然言語処理 大内 啓樹 $\dagger$ ## 1 きっかけは「おくのほそ道」 2020 年秋,仙台駅から乗った新幹線の収納ネットに「おくのほそ道」特集 ${ }^{1}$ (図 1)が置いてありました。みちのくを旅する過程で松尾芭蕉が目にした景色や風物についての,彩り豊かな解説が脳裏に残りました。その一年後, 2021 年夏の終わり (科研費申請の季節),新たな研究テーマを模索していた夜に,遠雷のような予感を伴って「おくのほそ道」を思い出しました,検索して偶然辿り着いたウェブサイト2に,紀行文の概要と実際の旅路を描いた地図がありました (図 2),そこから「文章中の人物の移動軌跡を地図上に再現する」3という着想を得ました。 このテーマは「文章と地図をつなげる研究」のひとつと言えます. 文章と地図をつなげる試みはこれまでも少なくありません,しかしながら,その目的やアプローチは実に多様なため,関連する論文や研究発表がいろいろな学会・媒体に点在しています。そしてなぜか,言語処理学会では関連発表がほとんどありません,そこで,地図と文章(あるいは地理と言語)に関わ 図 1 「おくのほそ道」特集 元禄2年(1689) 3月27日 9月6日芭蕉46肯 元裸2年(1689)3月27日、芭萑は阳人曾良を伴い江戸を発ち、奥羽・北陸の各地をめ D、8月20日過ざに大垣へ着くまでの、距触約六百里 (約2,400キロ)、日数約150日にも及ふ银旅である。旅の目的は、歌人能因や西行の足洂を斿权、歌枕や名所旧赤を探り、古人の詩心に触れようとした。芭蕉は各地を旅するなかで、永遗に变化しないものことの本質「不易と、ひと時も停滞せず変化し続ける「流行」があることを体駸し、この両面から俳諧の本質とらえようとする「不易流行」説を形成していく。また旅をした土地の非人たちとの交流は、 その後の蕉門形成や、紀行文『找くのほそ道小に大きな影䈉をもたらす。 図 2 紀行文概要と芭蕉の旅路  る研究発表を幅広い分野から募り,「地理と言語」に関心を寄せる研究者・実務者がみんなで話し合える場所を作ってみたい,願わくば言語処理学会の多くのみなさまにも認知してほしいと思い, 本テーマセッション提案へと至りました. ## 2 テーマセッションの概要 趣旨 「言語は面白く,地理も面白い.両方合わさればもっと面白い」 コロナ禍の移動行動制限やロシアのウクライナ侵攻が契機となり, 人間活動や事物・現象 を「地理空間」の観点から理解することの重要性が増している。文章として記された場合も同様で,それらの背景を構成する「言葉の地理空間」に自然言語処理の目を向け,「実世界の地理空間」と接続することが強く望まれる。地理空間情報は地図データにとどまらず,人流データや 3D 都市空間データをはじめ多彩なデータが充実しており, GIS (Geographic Information Systems) などのデータ分析基盤も高度化している.このような状況を踏まえ,本テーマセッションでは「地理空間情報」と「自然言語処理」に関心を寄せる研究者・実務者が一堂に会する場を提供する。特に「地理」系の発表を歓迎し,今後両分野が連帯を深める上での方向性や問題意識, 技術的課題などを広く議論する. ## 提案者 大内啓樹 $\cdot$ 進藤裕之 $\cdot$ 若宮翔子 - 松田裕貴 (奈良先端科学技術大学院大学), 東山翔平 (NICT/奈良先端科学技術大学院大学), 井之上直也 (北陸先端科学技術大学院大学), 久本空海西尾悟 - 井口奏大 (MIERUNE), 大西拓一郎 - 小木曽智信 - 高田智和(国立国語研究所),高田祐一 $\cdot$ Yanase Peter (奈良文化財研究所), 齋藤玲 (東北大学災害科学国際研究所), 新妻巧朗(朝日新聞社メディア研究開発センター), 坪内孝太 (Yahoo! JAPAN 研究所), 上原康仁(株式会社地球の歩き方), 乾孝司 (筑波大学), 石野亜耶 (広島経済大学) ## 3 会場の様子 本会議最終日の 3 月 16 日, 全 3 セッション, 13 件の発表(+総合討論)がありました. 発表内容は,言語,地理,人流,文化財,災害,天候,画像など幅広い領域が交差しており,多彩な展示物のある博物館のような場となりました。当日の会場には 30-40名の聴講者が集まりました. オンライン視聴にも,第 1 セッションで 30 名前後, 第 $2 \cdot 3$ セッションで 50 名前後(最大で 60 名程)の方々が集まりました. 大会 Slack のテーマセッションチャンネルには 130 名が参加しました. 常時さまざまなコメントや質問が溢れ, 4 時間で 300 件を超える(1 分 1 投稿を超えるペースの)投稿がありました. ## 3.1 文章と地図をつなげるためには? 文章と地図をつなげるための基盤技術である「ジオコーディング」についての発表がありました. ジオコーディングとは,住所や施設名といったテキストによる「場所参照表現」を入力とし,「位置情報(地理座標)」を出力する処理です。主に 2 種類の方法に大別されます(図 3). 1 つめの方法は, 図 3 の Aのように, 「札幌」という地名を入力として, その位置情報(経緯度)を直接出力します。もう1つの方法は, 図 3 の B のように, まず地図データベースの識別子(ここでは「札幌」のID)と紐付けを行い,次にその識別子に付随する属性としての位置情報を出力します。(久本他 2023)では, 両者の利点・欠点などを詳しく解説し, さらに現在利用可能なジオコーディングのリソース・データ・サービスを網羅的に調査しています。文章と地図をつなげたい研究者・実務者にとってとても良い入口になると思います。また,(大西他 2023; 大野他 2023)でもジオコーディングについての試みが発表され, 質疑応答も含めて非常に盛り上がりました,関連して,(陰山,乾 2023)では,地理的特定性(場所の特定しやすさ) に取り組んでいました。「横浜」は日本に複数箇所ありますが,「神奈川県横浜市」を指すことが多いといった「名称の占有性」に関する分析で, とても興味深い内容でした. ## 3.2 大規模言語モデルの多様な活用法 昨今話題の大規模言語モデルの話題もありました. (小林他 2023) では, 人の移動行動を言語モデル (GPT-2) でモデル化し, 建物分布予測器と組み合わせることで人流予測性能を改善しています。言語処理の研究者・実務者にとって,移動データに言語モデルを適用する点がとても新鮮で盛り上がりました。(Sharma and Tsuruoka 2023)では,ChatGPT4を使用して,地球表面の地物を写した衛星画像のキャプション生成に取り組んでいます。非常に流暢な文で衛星画像を言い表しており,今後のさらなる可能性を感じさせる発表でした。 図 3 ジオコーディングの概略図 (久本他 2023) ^{4}$ https://openai.com/blog/chatgpt } ## 3.3 多彩な応用 本テーマセッションの特徴のひとつが「多彩な応用」です. (Kāle and Rikters 2023)では「食と天候」, (近藤 2023) では「方言」,(高田他 2023) では「文化財・遺跡」,(齋藤他 2023)では 「災害・防災」を主題として扱っていました。(川端他 2023)では,自身の位置や向きに基づく相対位置をことばで表現する方法論を探究しており, 自動運転, カーナビ, スポーツ実況など,多様な応用先が考えられる発表でした. ## 3.4 総合討論 第 3 セッションでは, 後半 35 分程度の「総合討論」を設けました.松田耕史さん (LINE), 小木曽智信さん (国立国語研究所), 新妻巧朗さん(朝日新聞)の 3 名に登壇していただきました.松田さんからは, ジオコーディングのためのオープンなデータの必要性や,「地図の Wikipedia」 と呼ばれる OpenStreetMap5 について話題提供いたたきました,小木曽さんからは,日本語歴史コーパス 6 や, 古文書, 古地図についてご紹介いただき,歴史的な文書や地図を研究対象とする面白さがとても伝わる内容でした。新妻さんからは,ジャーナリズムと地図に関する話題をご紹介いただきました.特に「アーバン・ベア」と呼ばれる都市型のクマを分析するため,クマの出没地点と人口密度を地図上に可視化したサービス 7 の紹介で大いに盛り上がりました. 現地会場の多くの方々からも質問やコメントがあり, とても活発に議論ができました. ## 4 今後の継続的な発展のために この刺激的な領域での連携を促進するため, Slackワークスペース「Geography \& Language $\rfloor^{8}$ を用意しました,今後もさらなる議論や,情報の共有, 勉強会の開催などをやっていく予定です.ご興味ある方は[email protected] までご連絡いただければ参加リンクをお送りいたします。広く多くの方々のご参加をお待ちしておりますので,お気軽にご連絡ください. ## 謝 辞 本テーマセッションの共同提案者の皆さまには,多大な協力をいただいたことを深く感謝いたします。また,言語処理学会年次大会の委員の方々にも,このような貴重な機会いたたいたことを改めて感謝いたします。  ## 参考文献 久本空海, 西尾悟, 井口奏大, 古川泰人, 大友宽之, 東山翔平, 大内啓樹 (2023). 場所参照表現と位置情報を紐付けるジオコーディングの概観と発展に向けての考察. 言語処理学会第 29 回年次大会発表論文集, pp. 2645-2650. [S. Hisamoto et al. (2023). Basho Sansho Hyogen to Ichi Joho wo Himozukeru Jiokodingu no Gaikan to Hatten ni Muketeno Kosatsu. Proceedings of the 29th Annual Meeting of the Association for Natural Language Processing, pp. 2645-2650.]. 陰山宗一, 乾孝司 (2023). 位置属性を有しない事物に対する地理的特定性の分析. 言語処理学会第 29 回年次大会発表論文集, pp. 2661-2665. [S. Kageyama and T. Inui (2023). Ichi Zokusei wo Yushinai Jibutsu ni Taisuru Chiriteki Tokuteisei no Bunseki. Proceedings of the 29th Annual Meeting of the Association for Natural Language Processing, pp. 2661-2665.]. Kāle, M. and Rikters, M. (2023). "What Food Do We Tweet about on a Rainy Day?" In Proceedings of the 29th Annual Meeting of the Association for Natural Language Processing, p. 2375-2380. 川端良子, 大村舞, 浅原正幸, 竹内誉羽 (2023). Double cross model による位置情報フレームアノテーション. 言語処理学会第 29 回年次大会発表論文集, pp. 2655-2660. [Y. Kawabata et al. (2023). Double cross model niyoru Ichi Joho Furemu Anoteshon. Proceedings of the 29th Annual Meeting of the Association for Natural Language Processing, pp. 2655-2660.]. 小林亮博, 武田直人, 山崎悠大, 上坂大輔 (2023). 建物分布の変化を考慮したGPT- 2 を用いた人流予測のための一検討. 言語処理学会第 29 回年次大会発表論文集, pp. 2386-2391. [A. Kobayashi et al. (2023). Tatemono Bumpu no Henka wo Koryo shita GPT-2 wo Mochiita Jinryu Yosoku notameno Ichikento. Proceedings of the 29th Annual Meeting of the Association for Natural Language Processing, pp. 2386-2391.]. 近藤泰弘 (2023). 単語音素のベクトル化による言語地図作成. 言語処理学会第 29 回年次大会発表論文集, pp. 2381-2385. [Y. Kondo (2023). Tango Onso no Bekutoruka niyoru Gengo Chizu Sakusei. Proceedings of the 29th Annual Meeting of the Association for Natural Language Processing, pp. 2381-2385.]. 大野けやき, 西村太一, 龟甲博貴, 森信介 (2023). テキスト中の場所表現認識と係り受けに基づく緯度経度推定ツールの開発. 言語処理学会第 29 回年次大会発表論文集, pp. 2666-2671. [K. Ohno et al. (2023). Tekisutochu no Basho Hyogen Ninshiki to Kakariuke ni Motozuku Ido Keido Suitei Tsuru no Kaihatsu. Proceedings of the 29th Annual Meeting of the Association for Natural Language Processing, pp. 2666-2671.]. 大西駿太朗, 矢田竣太郎, 若宮翔子, 荒牧英治 (2023). ツイート発言の座標またはグリッドの予測基盤の開発. 言語処理学会第 29 回年次大会発表論文集, pp. 2398-2402. [S. Onishi et al. (2023). Tsuito Hatsugen no Zahyo mataha Guriddo no Yosoku Kiban no Kaihatsu. Proceedings of the 29th Annual Meeting of the Association for Natural Language Processing, pp. 2398-2402.]. 大友寞之, 東山翔平, 大内啓樹, 山本和太郎, 井手佑翼, 進藤裕之, 渡辺太郎 (2023). 旅行記中の場所に対する訪問状態の予測. 言語処理学会第 29 回年次大会発表論文集, pp. 2925-2930. [H. Otomo et al. (2023). Ryokokichu no Basho ni taisuru Homon Jotai no Yosoku. Proceedings of the 29th Annual Meeting of the Association for Natural Language Processing, pp. 29252930.]. 大内啓樹, 進藤裕之, 若宮翔子, 松田裕貴, 井之上直也, 東山翔平, 中村哲, 渡辺太郎 (2023). 地球の歩き方旅行記データセット. 言語処理学会第 29 回年次大会発表論文集, pp. 2920-2924. [H. Ouchi et al. (2023). Chikyu no Arukikata Ryokoki Detasetto. Proceedings of the 29th Annual Meeting of the Association for Natural Language Processing, pp. 2920-2924.].齋藤玲, 大内啓樹, 羽鳥康裕, 邑本俊亮, 杉浦元亮, 塩入諭, 柴山明寛 (2023). 震災アーカイブと震災アーカイブ webに関する概念モデルの作成. 言語処理学会第 29 回年次大会発表論文集, pp. 2931-2934. [R. Saito et al. (2023). Shinsai Akaibu to Shinsai Akaibu Web ni kansuru Gainen Moderu no Sakusei. Proceedings of the 29th Annual Meeting of the Association for Natural Language Processing, pp. 2931-2934.]. Sharma, M. and Tsuruoka, Y. (2023). "Towards Unsupervised Remote Sensing Image Captioning and Retrieval with Pre-Trained Language Models." In Proceedings of the 29th Annual Meeting of the Association for Natural Language Processing, pp. 2392-2397. 高田祐一, YanasePeter, 武内樹治 (2023). 文化財報告書データベースにおけるテキスト可視化と地理情報. 言語処理学会第 29 回年次大会発表論文集, pp. 2651-2654. [Y. Takata et al. (2023). Bunkazai Hokokusho Detabesu niokeru Tekisuto Kashika to Chiri Joho. Proceedings of the 29th Annual Meeting of the Association for Natural Language Processing, pp. 2651-2654.]. ## 略歴 大内啓樹:2015 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 2018 年同博士後期課程修了. 2018 年から 2021 年まで理化学研究所 AIP センター特別研究員. 2021 年より奈良先端科学技術大学院大学先端科学技術研究科助教, 理化学研究所 AIP センター客員研究員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 日本語言語資源の構築と利用性の向上 一JLR2023ワークショップ 柴田 知秀 $+t+t+t \cdot$ 松田宽 ## 1 はじめに 我々は言語処理学会第 29 回年次大会にて併設ワークショップ「日本語言語資源の構築と利用性の向上」を企画開催した。本ワークショップは第 28 回年次大会の「日本語における評価用データセットの構築と利用性の向上」に引き続き, 2 回目の開催である.今回から後述するように事前学習モデルを含め,広く言語資源の構築と利用性を募集対象とした.前回は残念ながらオンライン開催であったが,今回はハイブリッド開催で,多くの発表者・聴講者と対面で交流できた。様々な分野の方々に参加いただき,会場内外で活発なディスカッションが行われた. 近年の言語処理においては,辞書やテキスト・音声・マルチモーダルコーパスのみならず,事前学習モデルが研究に必要な状況である。本ワークショップでは, 事前学習モデルも言語処理における重要な言語資源と位置づけ, 各種モデルの構築や利用についても発表を募集した。結果, 一般発表 10 件とライトニングトーク 7 件の発表が行われた. ## 2 当日の様子 以下,各セッションごとの発表を簡単に紹介する。 「日本語データセットの構築」のセッションでは 4 件の一般発表と 2 件のライトニングトークが発表された..新納氏は,カナ漢字混じりのテキストに対して読みを付与するタスクのためのデー タセット構築について発表した。異なる読みで実体が異なるもの・同じものなどの整理のほか,連濁の扱いの難しさについて紹介された。柴田は,日本語言語理解ベンチマーク JGLUE の整備状況について報告した,文書分類・文書ぺア分類・質問応答の構築報告のほか,Leaderboards への掲載についても議論された。浅原は, 日本経済新聞社の協力で 2023 年 3 月 13 日に公開さ  れた「日本経済新聞記事オープンコーパス」について発表した. 現在までに進めた形態・統語情報アノテーションのほか, 今後進める意味情報アノテーション・被験者実験による言語のとらえ方の収集について紹介した。富田氏は, CCGに基づくツリーバンク構築の試みとして, 項 取組について発表した。続いて戸次氏は, 日本語 CCGBank の言語学的な妥当性について紹介した. 特に日本語の受動・使役の現象について議論した。最後に Yin Yue 氏は, 大規模な日本語音声コーパス ReazonSpeech の構築と, 同デー夕に基づく学習済み音声認識モデルについて発表した. 「多言語・多分野の言語資源の構築」セッションでは, 3 件の一般発表と 3 件のライトニングトークが発表された。砂岡氏は, Code Switching による多言語混在言語資源の重要性について発表した. 多言語混在言語データの音声認識や機械翻訳について各種ツールの比較を行った.宮本氏は, 中日対訳コーパスの構築および著作権処理について発表した. ディスカッションではコーパスの著作権処理について活発な議論がされた。武田氏は, 教育研究・実践のための言語資源・自然言語処理にあり方について発表した。内藤氏は,コペンハーゲンからオンラインで,デンマークの言語資源の構築手法について発表した。土肥氏は, 難病・希少疾患の症例報告に基づく言語資源構築について報告した,橋田氏は,高等学校の授業の一環としてグラフ文書を構築する取り組みについて報告した。このように多言語または様々な分野における言語資源の取り組みが紹介され,言語資源構築の広がりが確認された. 招待講演として株式会社 Studio Ousia の山田育矢先生に「知識拡張型言語モデル LUKE $\rfloor^{1}$ というタイトルでご講演いただいた. LUKE (Yamada et al. 2020), 多言語版 LUKE (Ri et al. 2022), LUKE を用いたエンティティリンキング (Yamada et al. 2022; Oba et al. 2022), 日本語版 LUKE についてご講演いただた. 「事前学習モデルの構築と利用」セッションにおいては, 3 件の一般発表と 2 件のライトニングトークが発表された。塚越氏は, 実験プログラムの言語資源化について発表した. この取り組みは同じ『自然言語処理』Vol. 30 No. 2 の別の学会記事にて詳しく紹介される,近藤氏は,日本語 BigBird の構築について, 事前学習時におきたトラブルとその対処方法について発表した.小林氏は, 日本語 DistilBERT ${ }^{2}$ の構築とともに, LINE NLP チームの様々な公開ツールについて紹介した.植田氏は,日本語 DeBERTa モデル33の構築について紹介した.佐藤氏は, LINE NLPチームが整備している日本語事前学習モデル HyperCLOVA 構築時と, 実用に向けて様々なサブシステム実装の必要性について発表した. ^{1}$ https://speakerdeck.com/ikuyamada/zhi-shi-kuo-zhang-xing-yan-yu-moderulukeにて発表資料を公開. 2 https://engineering.linecorp.com/ja/blog/line-distilbert-high-performance-fast-lightweightjapanese-language-model 3 https://huggingface.co/ku-nlp } ## 言語処理学会第29回年次大会 併設ワークショップ \\ JLR 2023 日本語言語資源の構築と利用性の向上 ## 事前アンケートで頂いた回答 ## (1)日本で不足している言語資源 - 方言・対話 - 古典 - 包括的な言語理解能力を評価するデータセッ卜. 文書読解,課題志向対話,筫問応答,要約,文法性など。 - 固有表現抽出センテンス分類 QAなど基硞的な沉用的なデータセット - 楼械読解、常識知識べース (ATOMIC など)、譮述解析のデータセット - 対話コーパスの類い、とくにマルチパーティのものや付加时なタグ(感情や対話行為など)を伴うものが少ないと思います。 - SNSやブログなどのテキストと画像の関係性タグ付けしたデータセット ## その他のご意見 (2)言語資源のさらなる利活用 - 申し込み等の手続きの廃止,オープンアクセスの推進,リーダーボードの設置. - まとめサイト - 言語資源の存在・アクセス情報などの公開と広報. カスタマイズのための検索.統計技術の研修 - 例えば近年ではHuggingface Datasetsのような、人々が言語資源を簡単に使えるようなプラットフォームやフレームワークが必要だと思います。 - 著作権のクリア。30条が問題になってきているので、別途言語モデルを作りやすくする慣習が必要になると思います - 統一なcsv jsonのフォーマット ## (3)言語資源の構築・利用の活性化方法 - APIの提供など、開発者が利用可能なシステムの公開 - 言語資源を利用(特に産業利用)したときに,構䇫元に報告する仕組み,または報告の推委。 - ます、、産業と研究室、企業の協力が積極的に展開される必要があります。 ・ドネーションの仕組みとかあってもいいかも?ビットコインとか? - 研究機開以外の人 (小学生〜) が容易に貢献できる仕組みつくく - 著作権問題を何とかしてほしい ・テキスト生成モデルが汎用的な言語処理手法として急速に普及するなかで,包括的な言語理解能力を評価する方法論の提供は喫漚の課題であると感じている. - 余談ですが、入口が1億人以上で世界のGDPランキングで第3位の日本にとって、現在、深届学㕷のNLP分野の研究者は全く足りていないと言えます。もう2つ例を挙けます。公開されているNERデータセットが10個にも満たないことは非常に深刻です。アメリカや中国では考えられない状況です。また、T5モデルは既に3年以上前に提出されていますが、日本語のT5モデルはbaseサイズしかありません。 図 1 事前アンケートでいただいた回答 最後に,河原・久保・坂口・柴田・松田によりパネル(総合討論)を行った。総合討論においては事前募集質問についてディスカッションを行った。言語資源のさらなる利活用について議論がなされ,現代日本語を対象とした利用制限の少ないオープンライセンスなデータを構築するために何が必要かが議論された。また言語資源の構築・利用の活性化方法として,適切なデータ共有サービスや産学連携のあり方について議論された。さらに, 事前学習モデル・大規模言語モデルを扱う上での実践的なノウハウの共有を進めていく必要があること,テキスト生成モデルの日本語の言語理解能力を包括的に評価する方法論とデータセットの整備が急務であること,などについて議論された. ## 3 おわりに 提案者一同,次回年次大会でも本ワークショップを開催するとともに,様々な企業の AI 技術勉強会と合同イベントを企画したいと考えている。今後も多くのご発表・ご支援を賜りたい. ## 謝 辞 JLR2023 の開催にあたり,言語処理学会第 29 回大会委員会の皆様には多大なご支援を賜りました。また,本イベントは株式会社 Studio Ousia・科学研究費補助金基盤研究 (A)「計算知と人知の融合による汎用言語理解基盤の構築」・国立国語研究所共同研究プロジェクト「実証的な理論・対照言語学の推進」との共催です. ## 参考文献 Oba, D., Yamada, I., Yoshinaga, N., and Toyoda, M. (2022). "Entity Embedding Completion for Wide-Coverage Entity Disambiguation." In Findings of the Association for Computational Linguistics: EMNLP 2022, pp. 6333-6344, Abu Dhabi, United Arab Emirates. Association for Computational Linguistics. Ri, R., Yamada, I., and Tsuruoka, Y. (2022). "mLUKE: The Power of Entity Representations in Multilingual Pretrained Language Models." In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 7316-7330, Dublin, Ireland. Association for Computational Linguistics. Yamada, I., Asai, A., Shindo, H., Takeda, H., and Matsumoto, Y. (2020). "LUKE: Deep Contextualized Entity Representations with Entity-aware Self-attention." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6442-6454, Online. Association for Computational Linguistics. Yamada, I., Washio, K., Shindo, H., and Matsumoto, Y. (2022). "Global Entity Disambiguation with BERT." In Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 3264-3271, Seattle, United States. Association for Computational Linguistics. ## 略歴 浅原正幸:国立国語研究所・東京外国語大学教授. 河原大輔:早稲田大学教授. 久保隆宏:アマゾンウェブサービスジャパン合同会社 Developer Relations Machine Learning. 坂口慶祐:東北大学准教授. 柴田知秀:ヤフー株式会社上席研究員. 松田寛:株式会社リクルート Megagon Labs, Research Scientist.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 言語処理学会第 29 回年次大会ワークショップ 「深層学習時代の計算言語学」 窪田 悠介†・持橋 大地 ${ }^{\dagger}$ ## 1 はじめに 深層学習時代になり言語処理の性能が大きく上がりかつ柔軟になったことで, 従来は不可能だった言語学的な研究, すなわち計算言語学の研究が可能になり, そうした研究が増え続けている。また, 言語学の側でもデー夕を用いた実証的な研究が必要になり, 自然言語処理によるサポートの必要が無視できなくなってきている。こうした事情に鑑み, 言語処理側と言語学側の双方から新しい時代の「計算言語学」へのアプローチを模索する目的で,ワークショップ「深層学習時代の計算言語学」を言語処理学会第 29 回年次大会において開催した. 本記事ではこのワークショップの報告を行い, そこで得られたこの分野の今後の展望について手短に議論する. ワークショップの提案者は自然言語処理, 言語学両分野からの以下 10 名であった. 持橋大地 (統数研), 窪田悠介(国語研), 小木曽智信(国語研), 大谷直輝(東京外大), 永田亮(甲南大学), 川崎義史 (東大), 小町守 (都立大), 高村大也 (産総研), 内田諭 (九州大), 大関洋平 (東大). ## 2 開催形態 本ワークショップは, 言語処理学会第 29 回年次大会の大会ワークショップとして 2023 年 3 月 17 日に沖縄コンベンションセンターで対面と Zoom のハイブリッド方式で開催された(国立国語研究所共同研究プロジェクト「多様な語彙資源を統合した研究活用基盤の共創」「計算言語学的手法による理論言語学の実証的な方法論の開拓」と共催). 事前参加登録者数は 492 名 (うち対面 332 名), 当日の会場の参加者は約 120 名, Zoom 接続は最大時で 181 名となった. ワークショップのプログラムは,招待講演 1 件(鈴木久美氏(元マイクロソフト),研究紹介 13 件 (うち公募枠のもの 5 件), 午前と午後の研究発表の直後に行われた提案者のグループによるパネルセッション 2 件, という構成だった. ${ }^{1}$ ^{1}$ http://clml.ism.ac.jp/ daichi/workshop/2023-deepcl/ } ハイブリッドでの開催形態のため, 主にオンライン参加者の利便性を図るため Slack を活用した. 当日は会場での口頭の議論に加え Slackでの議論も非常に活発に展開され, 盛況だった. さらに,プログラム終了後, 対面会場とオンラインでの Gather のプラットフォームにより, 参加者が自由に交流・意見交換ができる時間を設けた。さまざまな方法を組み合わせることで,対面・オンライン双方の, 多様な立場の参加者に対して,ある程度柔軟に意見交換やネットワー キングの機会を提供できたと思われる. ## 3 内容 ## 3.1 研究紹介 研究紹介は,大まかに言語学寄りの内容のもの 7 件を午前のセッション, 言語処理寄りのもの 6 件を午後のセッションにまとめた。発表者と題目は以下の通り。 午前セッション - 永田亮(甲南大)「言語処理と言語学の橋渡しの面白さと難しさ」 - 大谷直輝(東京外大)「言語知識の近似値として言語モデルは利用できるか」 - 大関洋平 (東大)「深層学習時代の計算心理言語学」 - 宮川創(国語研)「消滅の危機にある言語方言のために深層学習を応用する」 - 北嵪勇帆(高知大)「自然言語処理のタスクを日本語史研究に落とし込む」 - 上田亮 (東大)「言語創発を計算言語学として位置付ける試み」 - 大羽未悠(奈良先端大)「言語モデルの第二言語獲得 - 研究のきっかけとこれから -」 午後セッション - 内田諭(九州大)「単語分散表現から類義語を考える」 - 黒澤友哉 (東大)「DRS 意味解析における出現位置を利用した語彙数削減」 - 山崎敏正 (九工大)「Decoding single-trial EEGs during silent Japanese words by the Transformer-like model」 - 森下裕三(桃山学院大)「計量的な語の意味分析から視点と主観は捉えられるのか」 - 野口大斗 (医科歯科大)「深層学習と日本語アクセント研究の可能性」 ・ 江原遥(東京学芸大)「自動リーダビリティ推定の研究動向と展望」 ## 3.2 招待講演 招待講演は, 元マイクロソフト社員の鈴木久美氏に「マイクロソフトにおける言語処理の(個人的な) 27 年一手書きの文法開発から深層学習モデルの製品化まで」という演題でご講演いただいた. 鈴木氏の講演は, 企業の中での言語処理の研究において, 時代の変遷に伴ってどのような必要性が生じ, また, その中で言語学的な知識がどのように用いられてきたかということ を振り返る内容で,アカデミアの側からは普段は伺い知ることのできない事情を学ぶことのできる大変興味深い内容たっった。 ## 3.3 パネルセッション・Slackでの議論 研究紹介,招待講演を踏まえてのパネルセッションとSlackでの議論において,主に以下三つの論点が浮かび上がってきた. 以下では, ワークショップの提案者を代表して,本記事執筆者二名の立場から,それぞれの点について簡単にコメントしたい. 1. 深層学習・大規模言語モデルの出現による言語学側からの参入障壁の低下 2.「分野の壁」をどう乗り越えるか? 3. 本質的に重要な問題をどう見極めるか? ## 3.3.1深層学習・大規模言語モデルの出現による言語学側からの参入障壁の低下 今回のワークショップ全体を通して顕著に認められた研究動向を一つ挙げるとすれば,近年の技術進展の恩恵を受けた,言語学から言語処理への参入障壁の低下である.具体的には,高精度で簡単に利用できる大規模言語モデルの出現により,自然言語処理の先端的技術を活用した様々な研究の可能性を模索する試みが「文系」の言語学者の手によってすでに始まっていることが確認できた。これらの言語モデル(BERTなど)は,背後に深層学習などの最先端の技術を組み込んではいるが, 言語学の研究者にとっては, 内部のアーキテクチャに精通していなくても,手軽に目的のタスクのために調整して使える便利なツールと見なすことができる.研究発表の中では, 用法基盤モデルでの言語変化(大谷), 低リソースの危機言語研究への応用 (宮川), 通時研究における探索的研究 (北﨑), 構造化された表示に基づく意味分析(内田), 論理的手法に基づく意味解析の性能向上(黒澤),類義語間の「視点」の違いの計量的な分析(森下), アクセント・パターンの分析(野口)など,従来はもっぱら言語学者の直観に頼る形で行われてきた様々な研究課題に関して,機械学習の技術を人間の「職人芸」を補完するツールとして用いる可能性を模索した研究が多数紹介された. この点は, 新しい時代の「計算言語学」が,単に言語学の下位分類の一つに留まるのでなく, 分野全体の方法論を中心から力強く支える役割を持つものとして発展していく可能性を示唆しており, 特に重要である. ## 3.3.2「分野の壁」をどう乗り越えるか? とはいえ,分野の壁を乗り越えることは時として容易でない,特に,言語処理側から見て言語学の研究がアクセスしにくいという声も聞かれた。この点については, 特に導入部での永田の発表が示唆的であり,ワークショップ全体の議論の基調をなすものとなっていた.要点を簡単にまとめると以下のようなことである。言語学者と言語処理研究者は, お互いに相手の分野の知見に対し(専門家でないがゆえに)しばしば過度の期待を持ちすぎであり,また,相手の 分野の事情(中心的課題, 方法論, 現在までの知見など)に見当がつかないがために学会発表などの形での新規参入がしづらい. この問題に関しては, 登壇者や参加者から様々な意見や体験談が示され,本ワークショップの中でも特に議論が盛り上がった点だった.興味深かったのは, 現在先端的な学際的研究をしている研究者の多くが (世代に関らず), 過去に一度は, 分野や方法論などのことはひとまず脇に置いて,とにかく面白いと思った研究をしている研究者・ グループのところになりふりかまわずアプローチしていったということを(Slack上や雑談などの機会も含めて)問わず語りしていた点である。これは,よい研究をしようと思ったら素直に自分の直観や好奇心(そして健全な批判的精神)を信じるのが一番であるという,至極当たり前のことを物語っているように思われる。 こうした「分野の壁」に阻まれる徒労感やすれ違い,また誤解のリスクを自ら引き受けてでも異分野間の対話を推し進めていこうという心意気を感じさせる研究は, 見ているものをわくわくさせる,今回のワークショップの発表の中では,広い意味での認知モデリングに関わる以下の研究が,そうした研究として一つのグループを形成していた,計算心理言語学の動向(大関), 言語創発 (上田), 第二言語獲得のモデリング (大羽), 脳波データからの言語音の予測(山崎), リーダビリティの推定 (江原). これらの研究はすべて, 研究トピックと方法論の性質上,「大規模言語モデル(ないし,それに類する機械学習モデル)は人間の認知機構の解明に対して何らかの示唆をもたらすか?」という, コネクショニズム論争以来認知科学研究においてくすぶり続ける永遠の論争に正面から向き合わざるをえない. 特に ChatGPT の出現により論争の火種に突如激烈な油が注ぎ込まれた今, この一群の, 危険な刺激に満ちた研究の重要性は一層増している。 上のような議論を通して, 異分野をまたがった学際的な研究を有意義なものとして進めていくためには,まずは相手の(分野の)ことを知るために時間をかけて対話をするのが重要であるという,これもまた当たり前のことを確認することができた. 研究の進展が速い分野・領域, また, いわゆる「ケンカのうまさ」(論敵を, 必ずしも客観的な証拠に基づくわけではない議論でやり込める能力)が必要以上に大きな意味を持ちがちな分野では,このような当たり前のことがともするとないがしろにされがちになる.新しい研究の熱気に水を差すつもりは決してないが,自戒の意味も达めてこの点を改めて強調しておきたい. ## 3.3.3本質的に重要な問題をどう見極めるか? さて,以上を踏まえて,我々は計算言語学の未来を蔷薇色に描けるだろうか?この分野において今後革新的な研究が生まれるかの鍵となる一つの重要な観点として, 言語学の現在までの研究成果に照らし合わせて, 解くべき, あるいは解くに值する問題が何であるかを見極めることがあるように思われる,新しいアプローチが出てくると,人はどうしても,「容易に収穫可能な果実」('low-hanging fruit')の収奪競争に熱中しがちである. もちろんこのような競争は, そ れが健全に機能している限りにおいて,分野の活性化や,研究コミュニティの形成に役立つという側面はある。しかしながら,人間の認知機構の本質は何か,そこにおいて離散的な記号体系である(とひとまず考えてよい)自然言語はどのような役割を果たしているかといった問い, また, 言語変異や言語変化の一次的データを提供する外在化した記号システムとしての言語と,生成文法などの理論言語学研究が一義的な解明対象と設定している内在的な認知能力としての言語能力との関連はどうなっているのか,といった問いにはそう簡単に答えが出るはずもない.言語学と言語処理の再接近の兆しが見える現在,分野の壁を乗り越えて多分野の研究者がそれぞれの専門知を集結することにより,このような問いに対して力を合わせて取り組むことができる絶好のチャンスである。そのような取り組みにおいては,現在までの各分野の知見を踏まえつつも,それぞれの分野における因習や固定観念から自由になり,それぞれの研究者が,自らの直観と批判的精神を頼りに果敢に本質的な問いを見定めてそれに挑んでいくことが求められるだろう。この機会を逃してはならない. ## 4 これからの時代の計算言語学 本稿執筆者の一人である窪田は, (窪田 2019)の末尾において, 自然言語処理における深層学習の進展を参照した形での新しい言語研究が出てくることへの大きな期待を(旧態依然とした言語研究の現状に対する幾ばくかの諦念とともに)述べていた.今回のワークショップでは, その時点からわずか 4 年でまさしくそのような研究が,文字通り急速に,大学院生・若手研究者を含む幅広い世代,そして幅広い分野の研究者による,言語研究の最先端の流れの一つとして実際に動き始めていることを目の当たりにすることができた.本ワークショップがきっかけとなって, この分野の研究がさらに活発になり,「計算言語学の復興」とでも言えるような大きなうねりとなっていくことを期待したい. ## 謝 辞 ワークショップ発表者の皆様,参加者の皆様,また,招待講演の鈴木久美様に感謝いたします。また,当日の会場運営に関して言語処理学会第 29 回年次大会運営委員会から大きなお力添えをいただきましたことに感謝いたします. ## 参考文献 窪田悠介 (2019). 理論的研究とは? 衣畑智秀 (編), 基礎日本語学, pp. 260-283. [Y. Kubota (2019). Rironteki Kenkyu towa? T. Kinuhata (Ed.), Basics of Japanese Linguistics, pp. 260-283.]. ## 略厤 窪田悠介:2004 年東京大学総合文化研究科言語情報科学専攻修士課程修了. 2010 年オハイオ州立大学博士課程修了 (Ph.D. in Linguistics). 日本学術振興会 PD, 同海外特別研究員, 筑波大学助教を経て 2019 年 4 月より人間文化研究機構国立国語研究所准教授. 言語処理学会, 日本言語学会, 日本語文法学会各会員. 持橋大地:1998 年東大教養学部基礎科学科第二卒業, 2005 年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了. 博士 (理学). ATR 音声言語コミュニケーション研究所, NTTコミュニケーション科学基礎研究所各研究員を経て, 2011 年より情報・システム研究機構統計数理研究所数理・推論系准教授. 言語処理学会, 人工知能学会, 日本統計学会各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# BERT によるテキスト分類チュートリアル 塚越駿†・平子 潤 $\dagger$ ## 1 はじめに 深層学習の劇的な進展によって,自然言語処理は大きな変革を遂げ,深層学習モデルを用いて自然言語処理タスクを解くことはもはや一般的と呼べるまでになった.中でも近年,深層学習を用いた自然言語処理の中核を担う存在が,BERT (Devlin et al. 2019)をはじめとする事前学習済み言語モデル (Pretrained Language Models; PLMs) である。大規模な事前学習によって様々なタスクに適用可能な知識を得たこれらのモデルは, 基盤モデル (Foundation Models) 1 とも呼ばれ,極めて活発に研究が行われている。このような深層学習分野の発展に伴い, PyTorch (Paszke et al. 2019) や Transformers (Wolf et al. 2020) といった深層学習関連のライブラリも急速に整備されている。しかし, その発展の急激さ故に, 特に日本語では, 最新のライブラリや方法論に追従した高品質な参考実装がほとんど存在しない. 研究を行う上で品質の高い参考実装が存在することは,実装ミスを抑制し,研究の生産性を向上させるための資源として極めて有用である. BERT によるテキスト分類チュートリアル゙は,上述の問題を解決するため,モダンで高品質な参考実装を目指し 2023 年 1 月に筆者が GitHub 上で公開した実装例である。本稿執筆時点までに 150 を超える $\operatorname{star}^{3}$ が付いており,大きな反響があった,また,本実装については「言語処理学会第 29 回年次大会併設ワークショップ JLR2023 日本語言語資源の構築と利用性の向上 $\rfloor^{4}$ でも発表5し,実装の工夫について多くの好意的な評価をいただいた。本稿では,BERTによるテキスト分類チュートリアルの概要について述べ,実装にあたって意識した適切な実験管理のための方策と工夫について紹介する. ## 2 BERTによるテキスト分類チュートリアル 本実装は,BERT を用いたテキスト分類をテーマに,モダンで高品質な深層学習用のテンプ  図 1 本実装によるテキスト分類の流れを示す概観図. レート実装を目指したものである。特に,自然言語処理の初学者が参考にすることを念頭に,現代の深層学習プロジェクトで必須の要素を漏れなく含みつつ, 可能な限り明快な実装となるよう心がけた。本実装の主要な工夫点は以下の通りである. - Python 3.10, PyTorch 1.13, Transformers 4.25 以上に対応したモダンな記法・実装 ・ 実験テンプレートとしてその他のタスクへの転用が容易な実装 次に,本実装の要点について述べる. 実装の全体像本実装の概観を図 1 に示す。本実装では,まずデータのダウンロードと前処理を行い,次に訓練・評価用データセットの作成を行う。これらの処理は一連の実験の始まりにのみ行えばよい,その後,訓練と評価を独立して行う。また実装に際して, Jupyter Notebook ${ }^{6}$ などノートブック形式のプログラムは利用しなかった。これは, 研究活動において実験を複数回実施する際に,ノートブック形式のプログラムを利用すると実験の誤りや各処理の依存関係の把握が難しくなるという実体験に基づく,実験の流れを明確にするための工夫である. 環境構築とライブラリ選定本実装はモダンな深層学習プロジェクトのテンプレート・参考実装として利用されること目的としている. したがって, 可能な限り新しいバージョンの Python とライブラリを採用した。環境構築には, 近年利用が広がっている Python のパッケージマネー ジャ Poetry 7 と, 科学計算用ライブラリ用のパッケージマネージャ Miniconda ${ }^{8}$ 二つを想定し,初学者が躓きがちなインストール手順も READMEに記載した。また,初学者が本実装を参考  にする際に, 実装の詳細を過度に隠蔽してしまうと, 将来的な学習の妨げとなることが予想される。したがって,本実装ではデータセットの前処理など,実際に自身で研究を進める場合に必ず行わなければいけないような処理については,多少壳長でも出来るだけ愚直に書き下すという実装方針をとった。そのため, PyTorch Lightning ${ }^{9}$, ML Flow ${ }^{10}$, Hydra $^{11}$ といった,実験・ハイパーパラメータ管理用のフレームワークは採用しなかった。一方で,深層学習を用いた自然言語処理で極めて一般的に用いられている PyTorch (Paszke et al. 2019) や Transformers (Wolf et al. 2020) といったライブラリは,積極的に新しいバージョンのものを採用した. データセットテキスト分類の題材に用いるデータセットとして, RONDHUIT 社が公開する livedoorニュースコーパス12を用いた,本実装では,訓練・評価を実施する前に,一括でデー夕セットの前処理を行う.各訓練・評価のたびにデータセットの前処理を行うような実装も考えられるが,事前に前処理を行う実装方針には主に以下の 2 つの利点がある. (1) 各実験の前処理の重複を減らし,オーバーヘッドを削減できる。 (2)各実験で同じデータセットが用いられることを保証しやすく,バグを防ぎやすい. データセットは JSON Lines (JSONL) ${ }^{13}$ 形式で扱うように設計した. JSONL 形式とは, 1 行に 1 つの $\mathrm{JSON}^{14}$ が記述されたデータ形式である。深層学習プロジェクトではデータを CSV 形式やTSV 形式で記述することもあるが,これらのデータ形式は,配列や階層構造を持つデータの自然な表現が難しい。一方で,JSONL は各データがそれぞれ独立した柔軟なデータ構造を持つことができ,深層学習でよく用いられる Python との相性が良く, 非常に便利である. デー夕セットは訓練 (train), 開発 (validation), テスト (test)の 3 つのセット ${ }^{15}$ に分割し, 深層学習プロジェクトにおける一般的な実験手続きを体験できるようにした。データセットの分割には, Python の機械学習用ライブラリである scikit-learn ${ }^{16}$ の train_test_split 関数を用いる場合もあるが,本実装ではあえて全ての処理を書き下した。データセットを適切に分割するという処理は,妥当な実験を行う上で極めて重要であるが, Python 初学者にとっては比較的難度が高いと思われる,そこで,分割処理を明示的に実装し,応用の足がかりとなることを狙った。また,デー タセット作成の際には,夕゙ウンロードした生データに直接変更を加えることはせず,生データから明示的に新しいデータセットを作成するように実装した。 これは,あるデータセットの変更を繰り返すことで生じる「どうやってデータを作成したかわからない」等の問題を避けるために,単方向的な処理の流れを意識した結果である。なお,他のデータセットを利用する際も, ^{9}$ https://github.com/Lightning-AI/lightning 10 https://mlflow.org/ ${ }^{11}$ https://github.com/facebookresearch/hydra 12 https://www.rondhuit.com/download.html \\#ldcc 13 https://jsonlines.org/ 14 https://www.rfc-editor.org/info/rfc8259 15 最近では “split”と呼称することも多い. 16 https://scikit-learn.org/stable/ } nohup poetry run python src/train.py --device "cuda:0" --model_name cl-tohoku/bert-base-japanese-v2 \& nohup poetry run python src/train.py --device "cuda:1" --model_name cl-tohoku/bert-base-japanese-char-v2 \& nohup poetry run python src/train.py --device "cuda:2" --model_name studio-ousia/luke-japanese-base-lite \& nohup poetry run python src/train.py --device "cuda:3" --model_name xlm-roberta-base \& 図 2 複数の GPU で並列的に実験を行う際のコマンド例. 同様の手続きで実験用データセットを作成できるように実装した. 訓練と評価いくつかの既存の深層学習プロジェクトは,訓練と評価を別々に実行するように実装されている。具体的には,(1) モデルの訓練と保存 (2) 保存済みのモデルの読み込みと評価という手順で実験を行う。これに対し,本実装では訓練と評価を連続的に行う。これにより,モデルの保存と読み込み処理が不要となるため, (1) 訓練時と評価時でモデル構造の齯䶣が発生しづらい (2) 評価結果のみを保存すればよく管理が簡便,といった利点が見达める。なお,本実装では,BERT の fine-tuning という 1 回あたりの実験コストが比較的小さいタスクを題材として用いたため,訓練と評価を一体とする実装方針をとった。しかし, 1 回あたりの実験コストが比較的大きなタスクでは,訓練と評価を分離した方がより柔軟に実験を遂行できる可能性もある。したがって,本実装を別のプロジェクトに転用する際には,それぞれのプロジェクトに合った訓練・評価方針を用いる必要がある点に注意されたい,また,本実装では,コマンドライン引数として使用する GPU を変更できるようにしている。これにより,例えば,nohup コマンド 17 とシェルのバックグラウンド実行機能を利用することで, 図 2 に示すように複数の GPU を用いた並列実験が容易に実現できる ${ }^{18,19}$ ## 謝 辞 BERT によるテキスト分類チュートリアルは, 名古屋大学武田・笹野研究室の新規配属学生向けに実装したプログラムを,一般公開用にブラッシュアップしたものである。まずは,本実装を作成するきっかけとなった研究室の全てのメンバーに大きな感謝を伝えたい.また,本実装について発表の機会を提供していただいたJLR2023 運営の皆様, そして, GitHub や各種 SNS を通じて,本実装にコメントとフィードバックを提供していただいたすべての方々に感謝を申し上げたい,益々の隆盛を迎える深層学習と自然言語処理の時代において,本実装が楽しく研究を行うための一助になれば幸いである 20.  ## 参考文献 Brown, T. B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., Neelakantan, A., Shyam, P., Sastry, G., Askell, A., Agarwal, S., Herbert-Voss, A., Krueger, G., Henighan, T. J., Child, R., Ramesh, A., Ziegler, D. M., Wu, J., Winter, C., Hesse, C., Chen, M., Sigler, E., Litwin, M., Gray, S., Chess, B., Clark, J., Berner, C., McCandlish, S., Radford, A., Sutskever, I., and Amodei, D. (2020). "Language Models are Few-Shot Learners." arXiv:2005.14165. Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of NAACL 2019, pp. 4171-4186. Houlsby, N., Giurgiu, A., Jastrzebski, S., Morrone, B., de Laroussilhe, Q., Gesmundo, A., Attariyan, M., and Gelly, S. (2019). "Parameter-Efficient Transfer Learning for NLP." arXiv:1902.00751. Hu, E. J., Shen, Y., Wallis, P., Allen-Zhu, Z., Li, Y., Wang, S., Wang, L., and Chen, W. (2021). "LoRA: Low-Rank Adaptation of Large Language Models." arXiv:2106.09685. Paszke, A., Gross, S., Massa, F., Lerer, A., Bradbury, J., Chanan, G., Killeen, T., Lin, Z., Gimelshein, N., Antiga, L., Desmaison, A., Kopf, A., Yang, E., DeVito, Z., Raison, M., Tejani, A., Chilamkurthy, S., Steiner, B., Fang, L., Bai, J., and Chintala, S. (2019). "PyTorch: An Imperative Style, High-Performance Deep Learning Library." In Proceedings of NeurIPS, pp. 8024-8035. Wolf, T., Debut, L., Sanh, V., Chaumond, J., Delangue, C., Moi, A., Cistac, P., Rault, T., Louf, R., Funtowicz, M., Davison, J., Shleifer, S., von Platen, P., Ma, C., Jernite, Y., Plu, J., Xu, C., Scao, T. L., Gugger, S., Drame, M., Lhoest, Q., and Rush, A. M. (2020). "Transformers: State-of-the-Art Natural Language Processing." In Proceedings EMNLP 2020: System Demonstrations, pp. 38-45. ## 付録 大規模言語モデルの発展と深層学習モデルの訓練の必要性最近になって, OpenAIが発表した ChatGPT $^{21}$, GPT-3 (Brown et al. 2020), GPT-4 ${ }^{22}$ や, Meta が発表した LLaMA ${ }^{23}$, スタンフォー  発的な注目が集まっている。これらのモデルは, 生成文を条件付けるための入力文 (prompt)を用いることで,パラメータを更新せずとも多様なタスクに適用可能であ.これらの適用手法は in-context learning と呼ばれる. 大規模言語モデルを活用することで, 従来の深層学習では不可欠であった「タスクに合わせて損失関数を設計し, 誤差逆伝播法によってモデルのパラメータを更新する」という手順の必要性が幾分か低減した。一方で,大規模言語モデルに対して Adapter (Houlsby et al. 2019) や LoRA (Hu et al. 2021) といった, 巨大なモデルと比較してごく少数のパラメータの更新を行う手法を用いることで, モデルの微調整を行う事例が数多く見られるようになってきてもいる 25,26 . 大規模言語モデルの発展と並行して「深層学習モデルの訓練」は独創的な研究をするために不可欠な技術であり続け, この手続きを理解することは, 深層学習を用いた研究を始めるための重要な一歩であり続けるだろう. ## 注目すべき資料 - Ascender ${ }^{27}$ : 本実装と同様, Python を用いた研究のためのテンプレート実装である. コー ドフォーマッタや Docker などの開発環境が整備されており参考になる. - HuggingFace: Transformers (Wolf et al. 2020)のほか, Tokenizers ${ }^{28}$, Datasets ${ }^{29}$, Acceler$\mathrm{ate}^{30}$ など,見通しよく効率的に実装を行うためのライブラリが数多く公開されている. また,Transformersに実装されているモデル構造 31 や実装例 32 も参考になる. ・ ライブラリ: 巨大なモデルで訓練・推論するためのライブラリとして, DeepSpeed ${ }^{33}$ や FlexGen 34 が注目されている. また, PyTorch $2.0^{35}$ や Flax36など, 深層学習用フレームワークの発展も注目に値する.  ## 略歴 塚越駿:2021 年名古屋大学情報学部卒業. 2023 年名古屋大学大学院情報学研究科知能システム学専攻博士前期課程修了. 修士 (情報学). 同年同専攻博士後期課程に進学. 2023 年度日本学術振興会特別研究員 (DC1) 採用. 平子潤 : 2021 年名古屋大学情報学部卒業. 2023 年名古屋大学大学院情報学研究科知能システム学専攻博士前期課程修了. 修士(情報学)。2023 年 4 月よりヤフー株式会社所属. 言語処理学会第 29 回年次大会若手奨励賞受賞.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# ホライゾン・スキャニングの自動化のための言語処理応用 未来学分野におけるホライゾン・スキャニング (Sardar 2010) の自動化を目指し,文書探索㧍よびコメント生成問題とデータセットを提案する。 ホライゾン・スキャニ ングは未来に起こりうる社会変化を分析する枠組みで,1)新聞記事等を大量に収集 ᄂ,2)重要な記事には主観的な意見や記事の要約をコメントとして記述する。収集 された記事とコメントは社会変化についてのシナリオ記述に活用される。本研究で はデータセットの分析, 探索拈よびコメント生成モデルの構築, 評価を行うことで,問題の特徴を明らかにする。データセットの分析より,1)探索すべき記事は特徴語 および意味的な距離の観点から一般的な記事と異なること,2) コメントは談話構造 の観点から類型に分類できることがわかった.また,学習した探索モデルは適合率 @100において $70 \%$ の性能を示した. さらに,探索モデルの出力記事は専門家による 採点,および実際のシナリオ記述作業の中で用いることで評価され,実利用に耐え うる品質であることを確認した。一方,コメント生成問題は主観的なテキスト部分 の生成が特に挑戦的で, 生成技術のさらなる高度化が必要であることがわかった. キーワード:言語処理応用,文書探索,言語生成,言語資源 ## Applying NLP for Automating Horizon Scanning \author{ Suzuko Nishino ${ }^{\dagger, \dagger \dagger,+\dagger \dagger \dagger \dagger}$, Tatsuya Ishigaki ${ }^{\dagger \dagger, \dagger \dagger \dagger \dagger \dagger}$, Sohei Washino ${ }^{\dagger \dagger}$, \\ Hiroki Igarashi ${ }^{\dagger \dagger}$, Akihiko Murai ${ }^{\dagger \dagger, \dagger \dagger \dagger}$, Yuichi Washida ${ }^{\dagger \dagger \dagger \dagger}$ and \\ YUKARI NAGAI ${ }^{\dagger}$ } We propose document retrieval and comment generation tasks for automating horizon scanning (Sardar 2010). The steps used are: 1) retrieving news articles that imply drastic changes of society, and 2) writing subjective comments on each article for others' ease of understanding. We manually collected articles to be retrieved and subjective comments. We compare several methods for two proposed settings. Our experiments show that 1) manually collected articles are different from general articles regarding the words used and semantic distances, 2) the contents in the comment can  be classified into several categories. Our experiments showed that our BERT model achieves sufficiently high performance while the comment generation is challenging. Key Words: Application, Document Retrieval, Generation, Language Resource ## 1 はじめに 「自動消毒ロボットは将来, 駅だけでなくオフィスビルや飲食店など他の業種にも幅広く適用され,人手不足の深刻な人間の清掃員の代替となるだろう」. 未来学の分野では, このように中長期的な未来に起こりうる大きな社会変化やリスクについて, シナリオを記述する取り組みが行われている。シナリオは企業や政府における意思決定における重要な役割を果たすため,高品質なシナリオを生成するための手法が活発に研究されている. 当該分野における代表的なシナリオ作成手法である Systemic Foresight Methodology (SFM) (Saritas 2013)では, シナリオ作成を1) ホライゾン・スキャニング,2) プランニングという 2 の部分問題に分割して解く.前者は社会変化の兆候を示唆する情報を含む新聞記事等を大量に収集し, 各記事にコメントを付与する情報収集作業である。後者は収集した記事を専門家同士で議論しながら集約し, 最終的なシナリオを記述する作業である。本研究で特に着目するホライゾン・スキャニングは, 専門家による大規模な記事収集とコメント作成に多大なコストがかかっている.言語処理技術による自動化はその解決の一助となりうる. 本研究ではホライゾン・スキャニングを自動化するため,1) 未来を示唆する文書の探索問題および,2)主観的な意見を含むコメント生成という自然言語処理における新たな問題を提案する.図 1 に現在専門家により手作業で行われている, 既存研究 (Washida and Yahata 2021; Sardar 2010)におけるホライゾン・スキャニングの手順を示す. 入力は大規模なテキスト集合で,本研究では一例として日本語の新聞記事を想定する. 出力は事前に定義されたフォーマットによる文書で,スキャニングマテリアルと呼ばれる。ホライゾン・スキャニングでは,まず入力記事集合から未来の社会変化を示唆する記事を探索する。例えば, 図 1 の記事 2 は「高輪ゲートウェイ駅での消毒ロボットの実証実験」についての記事である。この記事は鉄道以外の産業にも将来的にロボットが配置されるという社会変化を示唆するため, 記事の探索をした結果, 選択されるべき記事となる。一方,記事 4 は天気予報であり,未来についての言及は含むが日常的に必要な情報を提示しているにすぎず,社会変化について示唆しない. よって, 記事の探索をした結果,選択されるべきではない。スキャニングマテリアルは未来の社会変化を示唆する各記事に対し作成され, 記事タイトル, 要約, 主観的なコメントを含む. 記事タイトルと要約については, 多くの場合, 記事の冒頭を用いる. よって, 本研究ではリード法, ヘッドライン生成 (Rush et al. 2015), 単一文書要約 (Nallapati et al. 2016; Cheng and Lapata 2016) などの既存技術を用いる想定とし研究対象としない. コメント部分には記事の短い要約,主観的な意 図 1 ホライゾン・スキャニングの手順. 見, 主張や将来おこりうる社会変化が記述される。探索した新聞記事本文を入力し, 主観的なコメントを自動生成する問題を 2 つ目の設定として扱う. 本研究で提案する文書探索は, 将来の社会の変化を示唆するか否かを判断基準とする点において,既存設定(例えば (Mitra and Craswell 2018)など)と異なる。コメント生成問題は言語生成問題の一つとみなすことができる。本研究での設定は将来起こりうるイベントについて記述する点が特徴的である。多くの既存言語生成研究の設定では,トラッキングした時系列デー 夕を用いたスポーツの試合の要約 (Puduppully and Lapata 2021; Iso et al. 2019; Ishigaki et al. 2021) など,過去のイベントに着目した記述やリアルタイムに現在起こっているイベントについて記述する実況生成 (Tanaka-Ishii et al. 1998; Taniguchi et al. 2019) が存在するが, 中長期的な未来について言語生成する設定は新しい. いずれの問題設定についても, データセットの欠如が問題となる。そこで, 本研究では 2,266 件の未来の社会変化を示唆する新聞記事をホライゾン・スキャニングに関する専門教育を受けた者により収集し, データセットを構築する。提案データセットには, 各記事に対し人手作成した主観的なコメントも付与する。本研究ではまず,収集した記事に対し,特徴語についての分析,および一般的な新聞記事との意味的な距離の観点からの分析を行い探索すべき記事の言 語的な特徴を分析する.特に,コメント中の文に対しては,独自に設計した意味ラベルを付与し,その分布を分析することで,ホライゾン・スキャニングに関する専門教育を受けた者がどのようなコメントを記述するか調査する,最後に教師あり学習,教師なし学習に基づく文書探索モデルおよび言語生成モデルをこのデータセットを用いて構築しその性能を評価する. データセットの分析により収集した新聞記事は,一般的な新聞記事とは意味的な距離が離れており,さらに異なる特徴語を持つことがわかった,文書探索モデルは,BERTによる教師あり学習による手法が適合率@100において $70 \%$ の性能を示し,教師なし学習およびヒューリスティックによる手法よりも良い性能を示すことが分かった. さらに,自動探索された記事について専門家による採点評価およびSFM におけるプランニング段階において実際に用いる人手評価実験より,シナリオ作成に有益な記事が収集可能であることを確認した。コメント生成問題では,BART (Lewis et al. 2020) による言語生成モデルが流暢なコメントを生成するが,意見や主張といった主観的なコメントを生成するのが難しく,主観的なコメント生成は性能向上の余地がある挑戦的な課題であることが分かった. 本稿の貢献は以下である:1) ホライゾン・スキャニングを自動化するための文書探索および言語生成問題を新たに提案し, 2) そのためのデータセットを構築および分析し,3)いくつかのベースライン手法の自動評価指標による性能および人手評価実験の結果を報告する. ## 2 関連研究 本研究は未来学分野におけるシナリオ生成手法に,自然言語処理分野における文書探索および言語生成技術を活用する応用研究である。これらを 3 つの基盤技術について順に説明する. ## 2.1 ホライゾン・スキャニング 未来学分野におけるシナリオ生成手法の中でも特に代表的な SFM (Saritas 2013) は, ホライゾン・スキャニングとプランニングという 2 段階でシナリオを作成する。前者のホライゾン・ スキャニングの段階では大量の新聞記事を目視し,中長期的な社会変化を示唆する情報を含む記事のみを収集する.後者のプランニングの段階では収集した記事を専門家によってクラスタリング (Kunifuji 2016) や合成 (Nagai et al. 2009) することで集約し, 集約結果からシナリオとして生成する。本研究では専門家による目視確認のコストが問題となる, 前段のホライゾン・ スキャニングに着目する。ホライゾン・スキャニングの性能は後段の専門家によるプランニングに影響するため特に重要である。プランニング部分については専門家同士の議論が重視されており, 本研究では自動化の対象としない. SFM に関する研究の観点からは, 専門家の収集する記事の言語的な特徴を分析する研究は我々の知る限り存在しない. 専門家がどのような点に着目しながら記事を収集しているか分析すること自体,未来学分野においての関心が高い。本 研究では, 收集した記事の特徴について, 特徴語および意味的な距離の観点からその特徴を分析する。 ## 2.2 文書探索と言語生成 情報探索は古くから研究対象とされてきた問題である(例えば (Singhal 2001)を参照. )。近年はニューラルネットワークを用いた教師あり学習および教師なし学習を用いる手法が多く提案されている (Mitra and Craswell 2018; Kwon et al. 2020). 特にトリビア抽出 (Kwon et al. 2020) は,驚きのある情報を含むテキストをWikipedia から探索する設定を扱っており,我々の設定に近い.Kwon らは驚きのある情報を含む記事と一般的な記事には意味的な距離が離れている点に着目し,ニューラルネットワークにより獲得した記事の分散表現と IDF の値を用い記事探索する手法を提案した.本研究でも教師あり学習に加え,Kwon らのようにIDF および BERT による分散表現を用いる教師なし学習によるモデルでも記事探索を試みる. コメント生成問題も古くから研究されている言語生成問題の一つと捉えられる。本稿で提案するコメント生成問題は中長期的な未来について述べるという時間の観点,および主観性の観点から既存研究と異なる。時間の観点からは,スコアデータからバスケットボールの試合の要約を生成する過去のイベントに着目する設定 (Puduppully and Lapata 2021; Iso et al. 2019) や, サッカー (Tanaka-Ishii et al. 1998; Taniguchi et al. 2019), 野球 (Kim and Choi 2020), ゲーム映像 (Ishigaki et al. 2021)のリアルタイムに起きているイベントについて実況を生成する設定が存在する。未来についてのテキストを生成する我々に近い設定としては,短期的な未来について言及する天気予報生成 (Murakami et al. 2021) が存在する. 本研究では中長期的な未来に着目する点が異なる。また,生成する言語が主観的であるか,客観的であるかという観点からも既存手法を分類できる.多くの言語生成問題がスポーツの試合の要約など,客観的な状況説明を生成するのに対し, 本研究で扱うコメント生成は意見や将来起こるイベントの見込みといった主観的な言及も含む。 ## 3 データセット 本研究で提案する 2 つの問題では, データセットの欠如が問題となり, どのような記事をそもそも探索すべきか, どのようなコメントを生成すべきかなど, タスクの特徴が明らかでない. そこで,提案タスクのためのデータセットを新たに作成する。データセットには1) 未来の社会変化を示唆する新聞記事,2)記事に対する主観的なコメントが含まれる。新聞記事は日本語を対象とする。 データセットの作成手順について具体的に述べる。データセットの作成にはSFM に関する専門知識が必要となる。したがって,本研究ではクラウドソーシングではなくホライゾン・ス キャニングに関する専門教育を受けた者が手作業で収集した新聞記事を用いる方針を採用する。具体的には,ホライゾン・スキャニングに関する講義を担当する大学教員とその学生ら゙ ${ }^{1} 2003$年から 2020 年の 17 年間に渡り講義の一環として収集した記事の提供を受け,データセットとする.当該講義の担当大学教員とその学生ら, 計 33 名が記事を収集し, 各記事に以下の指示の下記事の収集とコメントの付与を行った: (1) 中長期的な未来に起こりうる社会変化を示唆する記事を Web 上から手作業で探索する. (2) タイトル,要約,コメントを記述する. (3) 図 1 に例示するスキャニングマテリアルのフォーマットにまとめる. 最終的に 2,266 記事を収集し, 各記事に平均 2.8 文のコメントが人手で付与された. 多くの収集者はまず検索エンジンにカテゴリなどのキーワードを入力し,記事を絞り込み,その後記事タイトルや本文を手がかりに中長期的な社会変化を示唆する情報を含む記事を探索した.収集者は記事の分野ができる限り多様になるよう配慮した。収集した各記事について,記事の要約や収集した者自身が記事が示唆する中長期的な社会変化の内容, さらに想定される変化に対する主観的な意見をコメントとして記述しだ. ## 4 分析 データセット中の記事およびコメントについて分析を行い,探索すべき記事やコメントの特徴を明らかにする。記事の分析は一般的な新聞記事との意味的な距離 (4.1 節), 特徴語 (4.2 節) の観点から行う.コメントの分析には表 1 に示すような意味ラベルを設計し,分布を分析することで特徴について考察(4.3 節)する. ## 4.1 一般的な新聞記事との意味的な距離 收集した記事は一般的な記事とは意味的な距離が離れていると考えられる。そこで,Kwon ら (Kwon et al. 2020)の手法を参考にデータセット中の記事と一般的な新聞記事との距離を単語分散表現を用いて計算する。具体的には 2020 年の朝日新聞コーパス³中の記事を一般的な記事とし,各記事中の名詞に対する日本語 word2vec (Mikolov et al. 2013)4の平均ベクトルを各記事の分散表現とする。名詞は記事を MeCab (Kudo et al. 2004) を用いて形態素解析することで獲得した. すべての記事に対し word2vec の平均べクトルを計算し,その中心べクトル $\mathbf{c}_{g}$ を一般的  } \\ 表 1 意味ラベルの定義と例. 意味ラベル名の右のカッコ内の数字は分析対象とした 30 コメントのうち,当該意味ラベルが出現したコメントの数を表す. な新聞記事を表現した表現とする。 $\mathbf{c}_{g}$ から提案データセット中の各記事を表現する分散表現 $\mathbf{d}$ への距離を,以下のようにコサイン類似度を用いて定義する: $ \operatorname{dist}\left(\mathbf{c}_{g}, \mathbf{d}\right)=1-\operatorname{cosine}\left(\mathbf{c}_{g}, \mathbf{d}\right) \text {. } $ から朝日新聞コーパス中の記事への距離は平均すると 0.30 であった. この差が統計的有意であることを $\mathrm{t}$ 検定を用いて確認した.よって,探索すべき記事は意味空間上の距離の観点から,一般的な新聞記事と異なることがわかる. ## 4.2 特徴語 一般的な記事と収集した記事の違いを具体的な語彙使用の観点からさらに分析する。本分析では, 提案データセット中の記事を特徴づける語に高いスコアを与え, 一般的な記事を特徴づける語には低いスコアを与えるモデルを設計し,特徴語の分析を行う,具体的には以下の式で提案データセット中の単語集合 $C$ および一般的な新聞記事データ中の単語集合 $G$ の和集合中の単語 $x \in C \cup G$ に対しスコア diff を計算する: $ \operatorname{diff}(x)=\mathrm{TF}_{C}(x) \operatorname{IDF}_{C+G}(x)-\mathrm{TF}_{G}(x) \operatorname{IDF}_{C+G}(x) $ ここで, $\mathrm{TF}_{C}$ は単語 $x$ の $C$ における出現回数を $C$ に含まれる単語の総数で割った值で定義する. $\mathrm{TF}_{G}$ も同様に, 単語 $x$ の $G$ におり出現回数を $G$ に含まれる単語の総数で割った値で定義する. $\mathrm{IDF}_{C+G}$ は $C G$ の和集合における Inversed Document Frequency (IDF) で定義し, 出現頻度の高い機能語に高いスコアが付くことを抑制する. 第 1 項 $\mathrm{TF}_{C}(x) \operatorname{IDF}_{C+G}(x)$ は $x$ がどの程度提案データセット中の記事を特徴づける語であるかを表したスコアであり, 第 2 項 $\operatorname{TF}_{G} \operatorname{IDF}_{C+G}(x)$ \\ 表 2 探索対象とする記事を特徴づける語と一般的な記事を特徴づける語. は $x$ がどの程度一般的な記事を特徴づける語であるか表したスコアとなる. $\operatorname{diff}(x)$ が正の方向に振れると $x$ は探索対象とする記事の特徴語であり $\operatorname{diff}(x)$ が負の方向に振れると一般的な記事の特徴語である。 表 2 に提案データセット中の記事および,2020 年の朝日新聞コーパスに含まれる全記事を一般的な記事として用いた場合のスコア上位の語を示す. 正の方向に振れた語には「ツイッター の新機能」「台湾での干ばつ」といったように,稀に起こるイベントについての言及が多い.また,技術分野に関する語も高いスコアを得た。一方,一般的な新聞記事を特徴づける語としては「知事の会見」「容疑者の逮捕」「今夜の天気」など,日常的に起こりうるイベントについての言及が多い。一部,「PCR 検査」のような 2020 年において $\mathrm{TF}_{G}$ が極端に高くなった語がノイズとして含まれる。 ## 4.3 コメントへの意味ラベル付与による分析 次に, 提案データセット中のコメント部分についての分析を行う。データセットから無作為に 30 コメントを抽出し, 網羅的に目視することで表 1 に定義する, 意味ラベルを設計した。 さらに,手作業でコメントに含まれる各文に対し,意味ラベルを付与し,その出現回数やコメント内での出現順序を分析した。 付与作業においては 1 つの文に対し, 複数ラベルの付与を許容 する. ラベルの定義のうち,“要約”と“背景”は主観的な意見などを含まず事実を述べる文に付与される。“要約”はそれぞれ記事に記述された事実を要約する内容に付与し,“背景”はもととなる新聞記事には含まれず記述者の知識から導き出された情報を含む文に付与する。例えば,「トミーがバイオリンのおもちゃを発売した」という記事に対し,「様々なおもちゃが近年発売されている.」というコメント記述は元の記事の“要約”ではなく“背景”とラベル付ける。一方, “主張(現在)”, “主張(未来)”, “見込み”は記述者の主観的な意見や予測を含む.表 1 において,意味ラベル名の右のカッコ内の数字は分析対象とした 30 コメントのうち,当該意味ラベルが出現したコメントの数を表す. 1つのコメントに対し付与された意味ラベルの, 出現順について分析する. 83\%(30コメント中 25 コメント)は “要約”もしくは“背景”という事実について言及する文から始まり,“主張” や“見込み”といった主観的な意見が続いた.30コメントのうち4コメントは事実を含まず,主観的な意見のみ述べた.たた 1 つ例外的に主観的な意見を含まず,“感想”のみのコメントが存在した.客観的な記述と主張などの主観的な記述を含む 83\%部分に着目すると, $76 \% ( 25$ コメント中 19コメント)は“要約” からコメントを始め,24\%(25コメント中 6コメント)は元の記事には含まれない“背景”情報を提示した。 ## 5 手法 提案タスクの特徵を明らかにするため, いくつかの文書探索および言語生成モデルを比較する. ## 5.1 文書探索モデル 文書探索モデルは記事集合を入力とし,各記事に対し中長期的な社会変化を示唆するか否か表現するスコアを計算する,スコアが上位 $N$ 件の記事が最終的な出力となる. $N$ の決定方法は以後の実験設定によって異なり,1)スコアのしきい値を定めて決定する(6.1.2 節の自動評価実験), 必要な記事数を事前に定義し用いる(6.1.3 節の人手評価実験)の 2 つの手法を用いる. スコア計算の手法として, 教師ありおよび教師なしのニューラルネットワークに基づく手法と, ヒューリスティックによる手法を比較する. ## 5.1.1 ニューラルネットワークによる教師あり・教師なし手法 教師あり学習に基づく手法として,BERT (Devlin et al. 2019)による二値分類モデルを記事のスコアリングに用いる。学習データとして, 提案データセットに含まれる記事を正例とし,無作為に朝日新聞コーパスから抽出した記事を負例とする。記事はまずサブワード列に分割され,先頭に特別なトークン $([\mathrm{CLS}])$ を付与する,BERT によるエンコーダでサブワード列を埋 め込み表現列に変化する: $ \mathbf{e}_{0}, \mathbf{e}_{i}, \ldots, \mathbf{e}_{n}=\operatorname{BERT}\left(x_{0}, x_{i}, \ldots, x_{n}\right) $ ここで, $e_{i}$ は $i$ 番目のサブワード $x_{i}$ に対応する埋め込み表現である. したがって, $\mathbf{e}_{0}$ は [CLS $]$ トークンに対応する埋め込み表現となる。 $\mathbf{e}_{0}$ を全結合層による二值分類のためのネットワークで中長期的な社会変化を示唆する記事であるかを表現する確率分布に変換する: $ \mathbf{y}=\operatorname{Softmax}\left(\mathbf{e}_{0} \mathbf{W}_{e}\right) $ ここで, $\mathbf{W}_{e}$ は埋め込み表現を大きさ 2 のベクトルに変換する重み行列で, 各要素の值をそれぞれ探索すべき記事であるか否かを表すスコアとみなす. BERT 層, 単語埋め込み層, および重み行列 $\mathbf{W}_{e}$ は交差エントロピー損失を最小化するよう学習する。このモデル自体, 自然言語処理において一般的によく用いられるものであるが,本研究ではこのモデルが中長期的な社会変化を示唆する記事の分類においても有効であるか確かめる. 次に類似度に基づく教師なし学習手法について説明する.4 節で分析したように,探索すべき記事は一般的な記事とは意味的な類似度が離れている特徴がある。そこで, 意味的な距離を用いたスコアを考える。このモデルでは,朝日新聞コーパスに含まれる記事の中心べクトル $\mathbf{c}_{g}$ との距離を探索すべき記事であることを表現するスコアとみなす: $ 1-\operatorname{cosine}\left(\mathbf{e}_{0}, \mathbf{c}_{g}\right) \text {. } $ ここで, cosine はコサイン類似度を返す関数である。 ## 5.1.2 ヒューリスティックによる手法 この手法では探索すべき記事はより多くの特徴語を含むと仮定する。このような特徴を捉えるためのヒューリスティックとして,以下のようにIDF の平均値を用いて文書にスコアを与えることを考える: $ \frac{\sum_{1}^{n} \operatorname{IDF}\left(x_{i}\right)}{n} $ ここで, $\operatorname{IDF}\left(x_{i}\right)$ は分類対象記事中の各単語 $x_{i}$ に対する IDF を返す関数である. IDF の値は朝日新聞コーパスから事前に計算した. $n$ は記事に含まれる単語数で, 式 (6)を用いて単語あたりのIDF を計算する。 ## 5.2 コメント生成モデル コメント生成は探索した記事を 1 つ入力として受け取り,コメントを出力する問題である. 4.3 節において議論したように,データセット中の多くのコメントが例えば要約などの事実に基 づく記述に加え主観的なコメントも含む,そこで,本研究では単一文書要約において良い性能が報告されている事前学習モデルである BART (Lewis et al. 2020)を用い, さらに提案データセットで追加の学習を行う。事前学習モデルには BART (Lewis et al. 2020)を用い, 提案デー タセットのコメントに対する交差エントロピー損失を最小化するよう追加の学習を行った. ## 6 実験 本節では文書探索モデルおよびコメント生成モデルの評価実験について述べる.実験に用いたデータ,パラメータ,比較手法および評価指標について, 2 ののモデルに分けて順に説明する. ## 6.1 文書探索モデルの評価 はじめに,文書探索モデルについて実験データと設定,自動及び人手による評価手法について述べる。 ## 6.1.1 データと設定 教師あり学習に基づくモデルの学習には提案データセットに含まれる記事のうち, 2020 年に発行された 320 記事を正例として用いる ${ }^{5}$. 負例には朝日新聞コーパスに含まれる 2020 年に発行された記事を無作為に 8,000 記事抽出し用いる ${ }^{6}$. 実験に用いるこれら 2 種類のデータセットの統計量を表 3 に示す.二値分類器の学習と評価は 5 分割交差検定により行う. 実験に用いる合計 8,320 記事は無作為に並べ替え,3:1:1の比率で分割した。分割部をそれぞれ学習, 開発,評価セットに用いる.開発セットは比較手法のスコアをもとに正例と負例を分類するためのしきい値調整に用いる。異なる組み合わせでの分割を 5 回繰り返し,その平均の評価値を報告する。前処理として,記事は MeCabを用いて形態素解析した.MeCab の辞書には IPA 辞書を用いる.さらに, Sentencepiece (Kudo and Richardson 2018)を用いて形態素列をサブワード列に変換し, Wikipedia から事前学習した BERT ${ }^{7} により$ 読み达んた. 表 3 探索問題の実験に用いたデータの統計. 平均文長は $\mathrm{MeCab}$ で解析した場合の形態素数である.  ## 6.1.2 自動評価 文書探索問題の評価は二値分類器の分類性能と文書探索モデルとしての性能を分けて評価する. 分類器自体の評価には適合率, 再現率および $\mathrm{F}$ 値を用いる. 文書探索性能は, 情報探索問題の評価に一般的に用いられる適合率@Nを用いて評価する (Blair and Maron 1985). ## 6.1.3 人手評価 本研究で着目する未来学における SFM (Saritas 2013) では,探索した記事の集合を,さらに専門家が最終的なシナリオ作成に用いる。そこで,探索された記事を実際に専門家にシナリオ作成に使用させる人手評価を行う,具体的には,まず,BERT による教師あり手法でスコアの大きな 75 記事と, 人手作業で収集した記事に対し専門家が手作業で採点し,採点スコアの大きな 75 記事を混ぜ合わせ, 合計 150 記事からなるデータセットを作成する. ここで, 自動探索記事は 2020 年の朝日新聞コーパスに含まれる 92,592 記事を BERT による手法のスコアが大きな順にランキングし獲得する。 その後, 各記事を図 1 に示すスキャニングマテリアルと呼ばれる事前定義されたフォーマットに手作業で変換し作業者に提示する. 作業には大学教員とその学生ら 17 名が参加した. 参加者は 150 個のスキャニングマテリアルを読み, 最終的なシナリオを記述した. 1 人につき 5 つのシナリオを生成し, シナリオに対し元になった新聞記事を最大 9 個アノテーションさせた。シナリオとその元となった記事の対を分析し,探索文書と人手収集記事の最終的なシナリオへの寄与を比較する. ## 6.2 コメント生成モデルの評価 次に,コメント生成モデルについて実験データと設定, 自動及び人手による評価手法について述べる。 ## 6.2.1 データと実験設定 コメント生成には日本語 Wikipedia から事前学習された BART 8 を用いる。この BART を自動要約においてよく用いられるパラメータ設定9でファインチューニングした. ## 6.2.2 自動評価 コメント生成には 4 節で述べたように多くのコメントが入力記事の要約を含むことから,評価指標として自動要約でよく用いられる ROUGE-1, ROUGE-2 および ROUGE-L (Lin 2004)を採用する.ROUGE-1 は参照コメントに対する出力コメントの uni-gram の再現率, ROUGE-2  は bi-gram の再現率を表す. ROUGE-L は参照コメントと出カコメントでのトークンの最長一致を用い再現率を計算する。同様の理由から,自動要約においてべースラインとして用いられる先頭 3 文を抽出するリード 3 法と比較する評価を行う。本評価ではコメントの末尾を表す特別なトークンを出力するまで BART のデコードを繰り返すため, 出力長の制約がない. ROUGE は再現率を測る指標のため,長い系列を出力すると有利である。そこで,ROUGEだけでなく,言語生成においてよく用いられる評価指標として, 表層べースの適合率を測る BLEU (Papineni et al. 2002) および埋込表現べースの類似度指標である BERTScore (Zhang et al. 2020) の評価値も報告する。 ## 6.2.3 人手評価 ROUGE を用いた自動評価は未来の社会変化についてのコメントを正しく捉えられるか明らかではない,そこで,生成コメントがホライゾン・スキャニングの出力として適切であるか否かを人間の被験者に評価させる実験も行う.評価者は参照コメント,BART およびリード 3 による自動生成コメントをランキングし評価した.提案タスクに特化した評価基準として,生成コメントが中長期的な未来に起こりうる社会変化を想起させるか否か判定するよう指示した.情報探索自体長らく研究されているが,このような基準での人手評価は本研究独自のものである.この基準に加え,「流暢さ」「正しさ」という従来から用いられれている基準での評価も行う.流暢さについては,テキストが文法的および意味的に破綻していないかを目視により確認し,正しさについては新聞記事で述べられた事実と矛盾することがコメントに記述されていないか判定する。優劣の判定が難しい場合, 同位の判定も許容した. ## 7 結果 本節では文書探索およびコメント生成の性能を報告する. ## 7.1 文書探索問題 はじめに文書探索問題の実験結果について述べる. ## 7.1.1 自動評価 表 4 に自動評価実験の結果を示す.BERT による教師あり学習に基づく手法は $\mathrm{F}$ 値において 58.1 で,他の手法よりも良い值を示した,学習に用いたデータのうち $3.8 \%$ (8,320 記事のうち 320 記事)のみが正例となる不均衡な設定のため, 高い $\mathrm{F}$ 値を得ることは本質的には難しい設定である,従って,意味的な距離による手法や IDF による手法は極端に低い値を示す.4 節の分析において述べたように,探索すべき記事は一般的な記事から意味的な距離が離れている。し かし, 意味的な距離の情報のみを用いて探索すべき記事を分類することは難しいことがわかる.同様にIDF の値だけを用いたとしても,探索すべき記事の分類は難しい. BERT による教師あり学習に基づく手法は適合率 @ 5 において,0.80の値を示し,意味的な距離や IDF による手法の適合率@5 の 0.40 よりも高い値を示した。よって, 作成したデータセットによる教師あり学習手法が有効に作用することがわかる,適合率 $@ N$ における $N$ の値を大きくすると,教師あり学習に基づく手法は $N=100$ まで大きくしても値の低下は 0.70 に抑えられるのに対し, 意味的な距離に基づく手法およびIDF による手法はそれぞれ 0.02 と 0.09 で, 性能が著しく低下する。よって, 提案データセットによる教師あり学習は, 適合率 $@ N$ の観点からより頑健なモデルといえる. ## 7.1.2 シナリオ作成での実利用による人手評価 自動探索した記事をSFM における後段処理であるシナリオ作成に用いることで,その効果を検証する。この実験では,まず,自動探索モデルが高いスコアを与えた 75 記事と人手収集した 75 記事を無作為に混ぜ合わせデータを作成する.SFM に関する知識を持つ 17 人が SFM を学習するワークショップの一環として,実験に参加した,各人には 150 記事が与えられ,一人あたり 5 シナリオを作成し,合計 $85 ( 17$ 人 $\times 5)$ のシナリオを得た. 各シナリオは 1 つ以上の記事を基に作成され,参考にした記事も併せてアノテーションさせた.結果,1つのシナリオは平均して 4.8 個の記事を基に作成された. 表 5 に被験者が作成したシナリオの統計を示す. 85 シナリオのうち 71 シナリオは自動探索した記事と人手収集した記事を組み合わせて作成したものであった。探索文書のみを組み合わ 表 4 文書探索問題の自動評価結果.(P は適合率を示す) 表 5 被験者が作成したシナリオについての統計. せ作成したシナリオが 11 存在し, これは人手収集記事のみを組み合わせ作成した 3 つのシナリオよりも多い.この観点からは, 85 シナリオのうち $96.4 \%$ (82 シナリオ)という高い割合で, 1 記事以上の自動探索記事が使用された. その一方, 表 6 に示すように,記事の使用回数の観点からは人手収集した記事の方がシナリオにより寄与している。この表において,例えば,自動探索された 18 記事はどのシナリオにも使用されない(使用されたシナリオ数が 0 回)低品質な記事であった. 人手収集した記事でシナリオ作成に活用されなかった記事はわずかに 9 であり,差が大きい。一方, 7 シナリオに使用されるような有益な記事を自動探索している点は興味深い。人間による人手収集では,9シナリオに使用されるさらに重要な記事を探索している. 自動探索モデルは交差エントロピー損失により学習されており, 分類器の与えるスコアは 0.0 もしくは 1.0 に極端に振れる傾向がある.探索すべき記事の中でも,細かなスコアの差を与えるようなモデル拡張が考えられる. ## 7.2 コメント生成問題 コメント生成の評価について述べる. ## 7.2.1自動生成コメントの自動評価 表 7 に BART およびリード 3 法の ROUGE を示す. BART は ROUGE- 1 と ROUGE-L においてリード 3 よりも高い值を示した。一方,ROUGE-2においてはリード 3 法よりも低い値であった. 4.3 節で述べたように人間のコメントの冒頭部分には入力文書の要約が含められやすく, この要約部分の多くは原文書を言い換えない抽出型の要約となっている. BART が原文書の表現の言い換えを許容する生成型の要約手法であるのに対し, リード 3 は文抽出型の手法である。よって, 正解コメントとリード 3 法の出力で単語の重複が多くなり, ROUGE-2 の値が大きくなるものと考えられる.BLEU およびBERTScore についてもBART による自動生成コメントがリード 3 よりも高い値を得た。 表 6 自動探索した記事と人手収集した記事がプランニング段階で使用された回数. 表 7 コメント生成問題の自動評価結果. 表 8 人間による採点評価の結果. ホライゾン・スキャニングに関する専門教育を受けた者によるコメント(参照コメント),BART およびリード 3 を比較し,行の手法が列の手法に対しより良いと判定された回数 (勝ち), 列の手法に対して悪いと判定された回数(負け). 同位と判定された回数(分け)を示す. ## 7.2.2 人手採点による自動生成コメントの人手評価 か,2)流暢さ,3)正しさの 3 つの観点における值を示す. 表に示す値は行に示す手法が列に示す手法より良いと判定された回数,悪いと判定された回数,同位と判定された回数である.例えば,参照コメントは BART に対し「72 勝 29 敗 19 分」であり,より多くの回数良いと判定された. 未来の変化を想起させるかという観点では, BART が 51 回リード 3 法よりも良いと判定されたのに対し,リード 3 は BART よりも良いと判定されたのは 41 回であった. よって, BART の出力にはリード 3 法よりもより未来の変化を想起させる記述が含まれる。 一方, 参照コメントはBARTよりも 72 回良いと判定されており, BART がより良いと判定された回数は 29 回である. そのため, 依然このタスクには性能向上の余地が残されていると考えられる. BARTによる多くの自動生成コメントを目視すると, 要約や背景を言及したあとに, 主観的な意見を述べる談話構造を持つ出力を多く観測した.4節で述べたようにこのような構造がデータセット中にも多く含まれることから,BART はこの構造に近い出力を行ったものと考えられる. ## 8 エラー分析 本節では自動探索された文書と自動生成されたコメントのエラーを分析する. ## 8.1 自動探索記事のエラー 表 9 に BERT による教師あり学習に基づく手法, 意味的な距離に基づく手法およびIDFによる手法の出力スコアを例示する。表に示す 4 つの記事はいずれも負例である。すなわち,これら4つの記事に対し低いスコアを与えれば,良いモデルといえる。 1 つ目の例は BERT 手法が正しく負例に対し低いスコアを与えた例である.2つ目から4つ目の例は,負例に対し BERT 手法が比較的高いスコアを与えた代表的なエラー事例である。この分析では,まずBERTによる手法が分類に失敗した事例をスコアの大きな順に 20 事例を抽出した.これらのエラー事例を手作業で類型化した. スコアの大きな 20 事例のうち, 16 事例は実際には正例とみなすことのできる記事であった. これは,実験に用いた 8,000 記事の擬似的な負例の中にも少数ではあるが正例とみなすことのできる記事が含まれており,それらが正しく正例として判定されたものと考えられる。 残りの 4 記事については,表 9 における 2 番目および 3 番目の記事のように,カタカナ語やアルファベットを多く含む記事,「新型コロナウイルス」のような学習データの収集時期に特有な時事用語を含む記事がみられた.2番目の例は“半導体” “開発”といった語を含み一見,中長期的な変化として, 革新的な製品開発を示唆するように見える. しかし, “取りやめ”という否定表現も含むことから, 大きな社会変化を示唆しない. BERT による手法では, 否定表現を含み長期的な社会変化の手がかりではない事例に対しても,半導体やLSI といった用語の影響が強く,高いスコアを与えるエラーがみられる.3番目の例についても同様に「ETF」や「NISA」 といったアルファベットが連続する語の影響を受け高いスコアとなる. しかし, 中長期的な社会変化は示唆しない.「新型コロナウイルス」といった時事用語を含む 4 つ目のような記事は,短期的な社会変化に着目し, 本研究で着目する中長期的な社会変化を示唆しない. 学習デー夕の収集時期によって,「新型コロナウイルス」といった特定の時事用語が正例に多く含まれると, \\ 表 9 各手法がテキストに与えたスコア. BERT の出力スコアもそのような語の影響を受ける。時事用語を含む記事は収集段階では正例とみなせても,時間の経過によって正例とはみなせなくなるケースが存在する。そのため, 学習データの収集時期の影響を受けづらくするため,時事用語を含む記事を出力しないといったヒューリスティックとの組み合わせは実応用上有効であると思われる. また,コサイン類似度による距離尺度だけでは探索すべき記事とそうでない記事の分類が難しい事例が多く存在した。例えば,表 9 中の 1 つ目の例は通常のニュース記事ではなくエッセイである。このように,一般的な記事との意味的な距離は遠いが中長期的な変化を示唆しない記事は多く存在する.IDF や意味的な距離による手法はこれらを正しく負例と分類できないことがある. ## 8.2 コメント生成の出力例 自動生成されたコメントについて議論する。表 10 に 4 つ記事に対し生成されたコメントを示す. 1 番目の記事に対しては,記事の要約に加え「この技術は飲食業での消毒や清掃にも応用されるかもしれない.」という主観的なコメントも正しく生成した. 2 番目から 4 番目の記事とコメントは,人手評価のおいてエラーを含むと判定されたコメントを 3 つの類型に分け,各類型を例示したものである。 2 番目のコメントは元の記事から文を抽出し要約を出力したのみで,意見を含めなかったエラー類型の例である。このようなエラーは分析した 20 記事のうち 3 件みられた. 生成コメントが流暢だとしても,本設定では主観的なコメントを含まない出力はエラーとなる.学習に用いるデータに主観的なコメントが含まれるとしても,BART 自体には主観的なコメントをより出力に含めるような機構を持っているわけではない. 本研究では,もっとも基本的な BARTによるべースライン性能を報告することとし,言語生成モデルそのものに主観的なコメントをより含めるような新たな機構や,より説得力を持つコメントを生成するための談話構造の制御技術 (Ishigaki et al. 2019) については, 将来的な拡張のアイデアとして述べるに留める。言語生成技術の研究の観点からは, そのような生成テキストの制御機構の開発は重要な方向である. 3 番目の例において,自動生成されたコメントの 2 文目は “日本食ブーム”について言及している。しかし, 入力記事には日本食に関連する記述はなく,原文書とは関係のない記述が含まれる正しさに関するエラーとなっている。原文書と関連する背景情報を正しく主観的なコメントとして言及するのが難しい例である。このようなエラーは分析した 20 コメントのうち 11 コメントを占めた. 最後の 4 番目は,「温泉自体への投資も活発化してきているようだし、温泉自体への投資も活発化してきているようだ。」といった言及のように,同じ文言の繰り返しや,常識的には考えられない現象についての言及のため,意味を把握することのできない出力の例である。このような事例が 20 コメントのうち 6 コメントみられた. 2. 入力記事: 徳島大学発のベンチャー企業グリラスは、食用コオロギ事業を拡大するため、総額 2 億 3000 万円を調達した。今回の資金調達を機に、株式公開に向けた体制整備を進める予定だ。グリラスは 5 月にジェイテクトと業務提携し、全自動生産システムを共同開発した。 (2020 年 12 月 23 日日経新聞) 参照コメント: 最近、日本でも 10 匹と 30 匹のコオロギを使ったフイナンシェが発売され、2 日で売り切れたそうだ。私はおせんべい以外、コオロギを使った食品を見たことがないが、いよいよ昆虫食が社会に浸透していく兆しがあるようた。 ## BART: 徳島大学発のベンチャー企業グリラスが、食用コオロギの事業拡大のため、ベンチャーキャピタルから総額 2 億 3000 万円の資金調達を行った。全自動生産システムの共同開発に取り組んでいる。 3. 入力記事: 飲料水の自動販売機の扉の鍵を不正に開けて売上金などを盗んだとして、警視庁杉並署... (中略)... 窃盗容疑で逮捕していた。 (2020 年 10 月 5 日朝日新聞デジタル) 参照コメント: ATM や自動販売機が危ない。東京や神奈川では、年間 100 件以上発生いる模様。これだけ被害が増えると、お金を扱う自動販売機の本格的な電子化が最終的には必要だろう。 ## BART: コロナ禍で 2 名の容疑者が逮捕されました。日本食ブームは世界中で大人気。日本の食文化は世界に広がる可能性を秘めている。 4. 入力記事: 湯けむりの里、鬼怒川温泉を救え! 経営不振に加え、メーンバンクの足利銀行の破綻というダブルパンチを食らっている鬼怒川温泉(栃木県藤原町)の再生に向け、産業再生機構が温泉街を丸ごと支援する方向で検討を始めた。... (中略) (2004 年 2 月 10 日夕刊フジ) 参照コメント: 団体客の減少で、老舗の温泉街である鬼怒川温泉が丸ごと経営危機になっている。そこで産業再生機構が街まるごと支援に乗り出すことになったという。(中略)しかし問題は、その「丸ごと」発想なのではないか? BART: 昨今の景気後退の中、温泉ブームも熱を帯びてきているが、どうやら最近、温泉街を丸ごと再生させようとする動きが活発化してきているようた。温泉自体への投資も活発化してきているようだし、温泉自体への投資も活発化してきているようだ。 表 10 コメントの生成例. ## 9 おわりに 本稿では未来学におけるホライゾン・スキャニングを自動化するため, 新たな文書探索及び言語生成問題を提案した,2,266の新聞記事と中長期的な未来に起こりうる変化に関する主観的なコメントが対になったデータセットを整備した。探索すべき記事について,特徴語および意味的な距離の観点から分析し, BERT による教師あり学習手法において適合率@N において良い探索性能が得られることを示した. コメント生成問題については, 最先端の言語生成モデルを用いたとしても主観的なコメントを正しく生成するのが難しく挑戦的な課題であることが分かった。本稿で提案したコメント生成問題をさらに高度に解くためには, 主観的な記述と客観的な記述を正しく制御可能な言語生成技術が必要となるだろう. ## 謝 辞 本研究は, JST 次世代研究者挑戦的研究プログラム JPMJSP2102 の支援を受けたものです.整備したデータセットの元となる記事およびコメントを提供くださった一橋大学のMBAコー ス学生の皆様, ワークショップの参加者に感謝します. 本原稿に対し適切なご助言を頂きました二人の匿名査読者および編集委員に感謝します。人手評価におけるデータ収集は, JAISTの倫理審査委員会の承認を得ています. 計算には産総研の $\mathrm{AI}$ 橋渡しクラウド $(\mathrm{ABCI})$ 利用しました。実験には朝日新聞コーパスを使用しました。 ## 参考文献 Blair, D. C. and Maron, M. E. (1985). "An Evaluation of Retrieval Effectiveness for a Full-Text Document-Retrieval System." Communication of the Association for Computing Machinery, 28 (3), pp. 289-299. Cheng, J. and Lapata, M. (2016). "Neural Summarization by Extracting Sentences and Words." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 484-494, Berlin, Germany. Association for Computational Linguistics. Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL2019), pp. 4171-4186, Minnesota, USA. Association for Computational Linguistics. Ishigaki, T., Kamigaito, H., Takamura, H., and Okumura, M. (2019). "Discourse-Aware Hierarchical Attention Network for Extractive Single-Document Summarization." In Proceedings of the International Conference on Recent Advances in Natural Language Processing (RANLP 2019), pp. 497-506, Varna, Bulgaria. INCOMA Ltd. Ishigaki, T., Nishino, S., Washino, S., Igarashi, H., Nagai, Y., Washida, Y., and Murai, A. (2022). "Automating Horizon Scanning in Future Studies." In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 319-327, Marseille, France. European Language Resources Association. Ishigaki, T., Topic, G., Hamazono, Y., Noji, H., Kobayashi, I., Miyao, Y., and Takamura, H. (2021). "Generating Racing Game Commentary from Vision, Language, and Structured Data." In Proceedings of the 14th International Conference on Natural Language Generation, pp. 103-113, Aberdeen, Scotland, UK. Association for Computational Linguistics. Iso, H., Uehara, Y., Ishigaki, T., Noji, H., Aramaki, E., Kobayashi, I., Miyao, Y., Okazaki, N., and Takamura, H. (2019). "Learning to Select, Track, and Generate for Data-to-Text." In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 2102-2113, Florence, Italy. Association for Computational Linguistics. Kim, B. J. and Choi, Y. S. (2020). "Automatic Baseball Commentary Generation Using Deep Learning." In Proceedings of the 35th Annual ACM Symposium on Applied Computing, SAC '20, pp. 1056-1065, New York, NY, USA. Association for Computing Machinery. Kudo, T. and Richardson, J. (2018). "SentencePiece: A Simple and Language Independent Subword Tokenizer and Detokenizer for Neural Text Processing." In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium. Association for Computational Linguistics. Kudo, T., Yamamoto, K., and Matsumoto, Y. (2004). "Applying Conditional Random Fields to Japanese Morphological Analysis." In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, pp. 230-237, Barcelona, Spain. Association for Computational Linguistics. Kunifuji, S. (2016). "A Japanese Problem-solving Approach: The KJ Ho Method." In Knowledge, Information and Creativity Support Systems: Recent Trends, Advances and Solutions, pp. 165-170. Springer. Kwon, J., Kamigaito, H., Song, Y.-I., and Okumura, M. (2020). "Hierarchical Trivia Fact Extraction from Wikipedia Articles." In Proceedings of the 28th International Conference on Computational Linguistics, pp. 4825-4834, Barcelona, Spain (Online). International Committee on Computational Linguistics. Lewis, M., Liu, Y., Goyal, N., Ghazvininejad, M., Mohamed, A., Levy, O., Stoyanov, V., and Zettlemoyer, L. (2020). "BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ACL2020), pp. 7871-7880, Online. Association for Computational Linguistics. Lin, C.-Y. (2004). "ROUGE: A Package for Automatic Evaluation of Summaries." In Text Summarization Branches Out, pp. 74-81, Barcelona, Spain. Association for Computational Linguistics. Mikolov, T., Sutskever, I., Chen, K., Corrado, G. S., and Dean, J. (2013). "Distributed Representations of Words and Phrases and their Compositionality." In Burges, C. J. C., Bottou, L., Welling, M., Ghahramani, Z., and Weinberger, K. Q. (Eds.), Advances in Neural Information Processing Systems, Vol. 26. Curran Associates, Inc. Mitra, B. and Craswell, N. (2018). An Introduction to Neural Information Retrieval. Now Foundations and Trends. Murakami, S., Tanaka, S., Hangyo, M., Kamigaito, H., Funakoshi, K., Takamura, H., and Okumura, M. (2021). "Generating Weather Comments from Meteorological Simulations." In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 1462-1473, Online. Association for Computational Linguistics. Nagai, Y., Taura, T., and Mukai, F. (2009). "Concept Blending and Dissimilarity: Factors for Creative Concept Generation Process." Design Studies, 30 (6), pp. 648-675. Nallapati, R., Zhou, B., dos Santos, C., Gulçehre, c., and Xiang, B. (2016). "Abstractive Text Summarization using Sequence-to-sequence RNNs and Beyond." In Proceedings of The 20th SIGNLL Conference on Computational Natural Language Learning, pp. 280-290, Berlin, Germany. Association for Computational Linguistics. Nishino, S., Washida, Y., Ishigaki, T., Washino, S., Igarashi, H., Murai, A., and Nagai, Y. (2022). "Validation of a Foresight Support System to Imagine an Uncertain Future." In Proceedings of Knowledge, Information and Creativity Support Systems (KICSS2022), Kyoto, Japan. IIAI Letters on Informatics and Interdisciplinary Research. Papineni, K., Roukos, S., Ward, T., and Zhu, W.-J. (2002). "Bleu: A Method for Automatic Evaluation of Machine Translation." In Proceedings of the 40th annual meeting of the Association for Computational Linguistics, pp. 311-318. Puduppully, R. and Lapata, M. (2021). "Data-to-text Generation with Macro Planning." Transactions of the Association for Computational Linguistics, 9, pp. 510-527. Rush, A. M., Chopra, S., and Weston, J. (2015). "A Neural Attention Model for Abstractive Sentence Summarization." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 379-389, Lisbon, Portugal. Association for Computational Linguistics. Sardar, Z. (2010). "The Namesake: Futures; Futures Studies; Futurology; Futuristic; ForesightWhat's in a Name?" Futures, 42 (3), pp. 177-184. Saritas, O. (2013). "Systemic Foresight Methodology." In Science, Technology and Innovation Policy for the Future, pp. 83-117. Springer. Singhal, A. (2001). "Modern Information Retrieval: A Brief Overview." IEEE Data Eng. Bull., 24 (4), pp. 35-43. Tanaka-Ishii, K., Hasida, K., and Noda, I. (1998). "Reactive Content Selection in the Generation of Real-time Soccer Commentary." In COLING 1998 Volume 2: The 17th International Conference on Computational Linguistics. Taniguchi, Y., Feng, Y., Takamura, H., and Okumura, M. (2019). "Generating Live Soccer-Match Commentary from Play Data." In the AAAI Conference on Artificial Intelligence, No. 01, pp. 7096-7103. Washida, Y. and Yahata, A. (2021). "Predictive Value of Horizon Scanning for Future Scenarios." Foresight, 23 (1), pp. 17-32. Zhang, T., Kishore, V., Wu, F., Weinberger, K. Q., and Artzi, Y. (2020). "BERTScore: Evaluating Text Generation with BERT." In 8th International Conference on Learning Representations, ICLR 2020, Addis Ababa, Ethiopia, April 26-30, 2020. ## 略歴 西野涼子:IT 企業でシステム開発に従事後, 2020 年より産総研技術研修員, 2021 年北陸先端科学技術大学院大学博士前期課程修了, 同年, 同大学院博士後期課程および研究補助員, 2022 年より一橋大学研究補助員, 現在に至る. 専門は知識科学. 言語処理学会, 情報処理学会, 日本創造学会各会員. 石垣達也:2019 年東京工業大学総合理工学研究科博士学位取得 (工学)。同年, 同大学科学技術創成研究院研究員. 2020 年 4 月より産総研特別研究員,同年 10 月より同研究員, 現在に至る。専門は自然言語処理. 特に自動言語生成と自動要約. 言語処理学会, 情報処理学会各会員. 熟野壮平:2019 年 3 月鹿屋体育大学大学院体育学研究科体育学専攻博士後期課程修了.博士(体育学)。2019年 4 月より産業技術総合研究所情報人間・工学領域人間拡張研究センター特別研究員, 2022 年 4 月より同研究員, 現在に 至る. 専門は, バイオメカニクス, スポーツ工学. ヒトの運動パフォーマンス向上に関連する研究を,スポーツ工学的アプローチより進めている。 五十嵐広希:2013 年電気通信大学大学院電気通信学研究科博士課程後期中退, 工学 (博士). 日本電気株式会社, 長岡技術科学大学, 産総研等を経て, 2022 年より東京大学大学院工学系研究科, 特任研究員, 現在に至る. 専門は無人航空機(ドローン)に関する標準化や,安全工学.日本信頼性学会会員. 村井昭彦: 東京大学大学院情報理工学系研究科博士課程修了, 博士(情報理工学)。三菱重工,ディズニーリサーチ等を経て現職。専門はロボティクス, バイオメカニクス. JST さきがけでの「DATSURYOKU: マルチレベルな介入による運動スキル獲得支援の実現」等において,ヒトの神経・筋骨格システムにより運動生成・制御の機序を解明し,運動力学・認知的介入により運動・感覚能力を拡張する研究を行い,ヒトをより動けるようにすることを目指す。 鷲田祐一: 一橋大学経営管理研究科教授 (データ・デザイン研究センター長).専門は, マーケティング, イノベーション研究. 1991 年一橋大学商学部を卒業.(株)博報堂に入社し,イノベーション・ラボ等で消費者研究,技術普及研究に従事. 2003 年にマサチューセッツ工科大学に研究留学. 2008 年東京大学大学院総合文化研究科修了(学術博士). 永井由佳里 : 国立大学法人北陸先端科学技術大学院大学理事・副学長・教授. 1989 年武蔵野美術大学大学院修士課程修了 (造形学), 2002 年千葉大学大学院博士課程修了 (学術), 2009 年シドニー工科大学大学院博士課程修了 (Computing Sciences). 日本学術会議連携会員. 専門は知識科学, デザイン学, 特に創造性.日本創造学会会長. $(2022$ 年 12 月 1 日 $\quad$ 受付 $)$ $(2023$ 年 3 月 1 日再受付 $)$ $(2023$ 年 4 月 12 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 国会会議録のための音声から書き言葉への end-to-end 変換 三村 正人 $\dagger$ ・河原 達也 $\dagger$ } 従来の音声認識システムは,入力音声に現れるすべての単語を忠実に再現するよう に設計されているため, 認識精度が高いときでも,人間にとって読みやすい文を出力するとは限らない。これに対して,本研究では,フィラーや言い誤りの削除,句読点や脱落した助詞の挿入,また口語的な表現の修正など,適宜必要な編集を行い ながら, 音声から直接可読性の高い書き言葉スタイルの文を出力する新しい音声認識のアプローチについて述べる。我々はこのアプローチを単一のニューラルネット ワークを用いた音声から書き言葉への end-to-end 変換として定式化する。また, 音声に忠実な書き起こしを疑似的に復元し, end-to-end モデルの学習を補助する手法 と, 句読点位置を手がかりとした新しい音声区分化手法も併せて提案する. 700 時間の衆議院審議音声を用いた評価実験により,提案手法は音声認識とテキストベー スの話し言葉スタイル変換を組み合わせたカスケード型のアプローチより高精度か つ高速に書き言葉を生成できることを示す。さらに,国会会議録作成時に編集者が 行う修正作業を分類・整理し, これらについて提案システムの達成度と誤り傾向の 分析を行う。 キーワード:end-to-end 音声認識,話し言葉スタイル変換,整形,国会会議録 ## End-to-End Generation of Written-style Transcript of Speech from Parliamentary Meetings \author{ Masato Mimura $^{\dagger}$ and Tatsuya Kawahara ${ }^{\dagger}$ } Because conventional automatic speech recognition (ASR) systems are designed to faithfully reproduce utterances word-by-word, their outputs are not necessarily easy to read even when they have few speech recognition errors. To address this issue, we propose a novel ASR approach that outputs readable and clean text directly from speech by removing fillers and disfluent regeons, substituting colloquial expressions with formal ones, insertintg punctuation and recovering omitted particles, and performing other types of appropriate corrections. We formalize this approach as an end-to-end generation of written-style text from speech using a single neural network. We also propose a method to guide the training of this end-to-end model using automatically generated faithful transcripts, as well as a novel speech segmentation strategy based on online punctuation detection. An evaluation using 700 hours of Japanese Parliamentary speech data demonstrates that the proposed direct approach  successfully generates clean transcripts suitable for human consumption more accurately at a faster decoding speed than the conventional cascade approach. We also provide an in-depth analysis on the types of edits performed by professional human editors to create the official written records of Japanese Parliamentary meetings, and evaluate the level of achievement of the proposed system in terms of each of the edit types. Key Words: End-to-End Speech Recognition, Speaking Style Transformation, Parliamentary Report ## 1 はじめに 会議や講義,プレゼンテーションなどの音声を自動で書き起こし,アーカイブ構築に用いることは,音声認識の重要な応用の一つである。その際, 真に使いやすいアーカイブを構築するためには,単に音声認識誤りを最小化するだけでなく,システム出力の可読性も考慮する必要がある.従来の音声認識システムは,発話中のすべての単語を忠実に再現するように設計されているため,認識結果は必ずしも読みやすいものとはならない。自発的な発話はフィラーや言い誤りを含むたけでなく,流暢に話されたときでも,通常非文法的であり,書き言葉に相応しくない口語特有の表現も多い。また, 文の区切りが明確でなく, 通常の音声認識では句読点は付与されない. したがって,音声認識結果や忠実な書き起こしを元に可読性の高い文書を作成するためには,人手による相当量の修正が必要となる (Jones et al. 2003). 音声認識結果の可読性を改善するために,話し言葉から書き言葉への自動変換の研究が数多く行われてきた。例えば,非流暢な区間の検出と削除 (Liu et al. 2006; Yeh and Wu 2006), 句読点挿入 (Paulik et al. 2008; Gravano et al. 2009; Akita and Kawahara 2011),あるいはより一般的な話し言葉スタイル変換 (spoken style transformation = SST) (Hori et al. 2013; Shitaoka et al. 2004; Neubig et al. 2012; Sproat and Jaitly 2017) などの研究が挙げられる.これらの既存研究では, 雑音のある通信路モデルや CRF (conditional randomfield), SVM (support vector machine), ディープニューラルネットワークなどの機械学習モデルを用いて,書き起こしから書き言葉へのテキストベースの変換が行われる。したがって,自動整形は音声認識の後処理として行われることが多く, 音声認識誤りに起因する性能の低下が避けられない問題があった. また,これらのテキストベースの手法では,モデルの教師つき学習に書き言葉テキストと話し言葉テキストのペアデータを用いるため,音声に忠実な書き起こしを新たに作成する必要がある。通常コスト面の制約から大量の書き起こしは利用できないため,カバーできる音響的・言語的現象に限りがある. これに対して, 本研究では, 熟練した編集者が音声を聞き取りながら同時に記録文書に適した書き言葉を作成するときのように, フィラーや言い誤りの削除, 句読点や脱落した助詞の挿入, また口語的な表現の修正など, 適宜必要な編集を行いながら, 音声から直接可読性の高い書き言葉スタイルの文を直接出力する新しい音声認識のアプローチを提案する。このアプローチでは,忠実な書き起こしをターゲットとする従来の音声認識モデルとは異なり, Transformer (Vaswani et al. 2017) に基づく sequence-to-sequence モデルを音声と書き言葉のペアを用いて end-to-end (e2e) に写像を最適化する。また, 推論時には音声から書き言葉を直接推論する. したがって, このアプローチは,上記のようなテキストベースの自動整形を用いたカスケード型アプローチの欠点を回避できる強みを持つ.特に,書き言葉予測では,修正の対象となるような非流暢な区間ほど認識誤りが生じやすい問題があるため, 音声認識結果を用いないことは, 大きな改善をもたらす可能性がある。 さらに,提案法は,入力中の音響的な情報に基づいて修正・編集を行うことができる (Liu et al. 2006; Neubig et al. 2012). また,新たに忠実な書き起こしを作成する必要がないため, 教師つき学習におけるデータスパースネスの問題も回避できる。本論文では,特に国会の審議音声から会議録テキストを生成するタスクに焦点を当て,提案手法の詳細な評価と分析を行う。 本論文の構成は以下の通りである.2章では,本研究で衆議院審議音声を用いることの意義を明らかにした上で,国会会議録で行われる編集作業の分類・整理を行う. 3 章では,本研究の基盤となる $\mathrm{e} 2 \mathrm{e}$ 音声認識のための手法を概説する. 4 章で音声から書き言葉を $\mathrm{e} 2 \mathrm{e}$ で予測するための提案手法について述べた後, 5 章でその実験的評価とシステム出力の詳細な分析を行う. 6 章で結論を述べる. ## 2 データセット 国会の審議音声における忠実な書き起こしと会議録テキストの例を図 1 に示す。この例では,冒頭のフィラーと末尾の句末表現が削除され,話し言葉特有の「シンギュラリティーってのは」 という表現が,より改まった「シンギュラリティーというのは」という語句に改められている. また,主語と修飾句の間に読点を挿入することで読みやすさの改善が図られている. 本研究では, 以下の理由から衆議院の音声と会議録から構成した「衆議院審議音声コーパス」 を用いる。 一つは,国会会議録作成の効率化と高精度化のためである。我々は衆議院審議音声の自動書 図 1 国会審議音声における忠実な書き起こしと会議録テキストのぺアの例 き起こしシステムを開発しており,2011 年度から衆議院のすべての会議の会議録 ${ }^{1}$ の作成支援のために用いられている (秋田他 2010; Kawahara 2012, 2021; Akita et al. 2009). 現行のシステムでは,まずDNN-HMM ハイブリッド型の音声認識システム (Mohamed et al. 2012; Hinton et al. 2012) を用いて音声を忠実に書き起こし, 次にこの認識結果を元に編集者が必要な修正を施すことにより,最終的な会議録テキストが作成される。したがって,この工程において,音声認識モデルが直接書き言葉スタイルの文を出力することができれば,会議録作成のためのトータルな作業コストの軽減が期待される。また,本研究で用いる Transformer (Vaswani et al. 2017) などの $\mathrm{e} 2 \mathrm{e}$ モデルの推論速度は,ハイブリッドシステムに比べて数十倍のオーダで速い. 衆議院の会議の長さは, 例えば本研究で評価に用いた 2015 年度のデータセットでは, 平均で 3.8 時間, 最大で 12 時間にも及ぶ. また, 同時に多数の会議が開催される一方, 並列処理のための計算機を十分確保することは困難であり, 修正元となるドラフトを可能な限り迅速に作成することが求められる。したがって,処理速度は実用上重要な評価項目と言える。 次に,国会の審議音声と会議録のペアが,話し言葉と書き言葉の関係を知る上で理想的なデー 夕であるためである。国会の審議音声, 特に本会議以外の専門委員会では, 話者が用意された原稿を読み上げるのでなく, 自発的な発話を行うことが多い. したがって, 次節で詳しく見るように,実際に行われた発話と整形済みの会議録テキストには相当程度の相違がある。また,国会会議録の性格上,編集において発話の意図が変わりかねないようなパラフレーズ等は一切許されないため,書き言葉と話し言葉の差異のみに焦点を当てることができる.国会会議録は,熟練した職業的編集者により非常に厳格かつ一貫したルールに則って作成されるため,任意性が低く,機械学習のターゲットとしても適切である。 さらには,信頼度の高い音声と会議録の大規模なぺアデータが利用できるためである.話し言葉の整形の研究では, 音声の書き起こしと書き言葉のペアデータを用いたテキストベースのアプローチが主であった。したがって,書き起こし作成のコストを考えると,学習データのサイズが限られていることが多かった。一方, 本研究では, 大量の音声-書き言葉のペアを用いて,人手による書き起こしを介することなく,直接音声から書き言葉への変換を実現することを目的とする. 本研究では 2015 年度に行われた第 189 回国会の会議から構築したデータセットを用いた. 各モデルの学習デー夕には, 2015 年 6 月までに行われた 14 の本会議と 194 の委員会, 計 208 会議から収集した 708 時間の音声を用いた。提案手法の評価と分析には,次節で述べる 5 会議, 20 時間のデータを用いた。 ^{1}$ https://www.shugiin.go.jp/internet/itdb_kaigiroku.nsf/html/kaigiroku/kaigi_l.htm } ## 2.1 会議録テキストにおける編集作業の分類 2015 年度に行われた第 189 会国会の一部の会議に対して音声の忠実な書き起こしを作成し,会議録と書き起こしで異なる箇所をアノテーションした。このアノテーションをもとに,会議録作成時にどのような編集・修正作業が行われているかを分析した。 2015 年 7 月に行われた会議のうち, 農林水産委員会第 19 号(話者ターン数 229 , 異なり話者数 $22,5.5$ 時間) ${ }^{2}$, 内閣委員会第 18 号 (話者ターン数 201, 異なり話者数 $21,3.2$ 時間 $)^{3}$, 厚生労働委員会第 29 号 (話者ター ン数 174 , 異なり話者数 $17,4.1$ 時間 $)^{4}$, 消費者問題に関する特別委員会第 4 号(話者ターン数 147, 異なり話者数 $27,3.1$ 時間 $)^{5}$, 東日本大震災復興特別委員会第 5 号(話者ターン数 197 , 異なり話者数 $26,4.4$ 時間) 6 の 5 つの会議を用いた. 編集者が行う修正を, 語句の削除操作によるもの, 置換操作によるもの, 挿入操作によるものの 3 つに大別した上で, 以下の項目 $\mathbf{A}$ から $\mathbf{M}$ のように分類した。なお, それぞれの例で, 中括弧 \{\} で囲まれた箇所は削除を,小括弧()で囲まれた箇所は挿入を表す。また,修正箇所は連続する場合が多いため, それぞれの例に句読点挿入など他の項目の修正箇所も含まれる場合がある. ## 2.1.1 削除 A. フィラーの削除フィラー以外の機能を持たない形態を持つ語,すなわち「あー」「あのー」「いー」「うー」「えー」「えーと」「おー」「まあ」「んー」,およびそれらの変種(「えっと」など) を,この「フィラーの削除」に分類した. 例:「\{えー\}アメリカ議会におきまして」,「\{まあ\}しかし\{あの一\}(、)」 また, 複数のフィラーが連続した箇所は, まとめて一つのフィラーとカウントした. 例:「\{まあ、あの一、おー \} 法律の審議でございますので (、) 」,「\{えー、ま $\}$ 大体もう $\{$ あの $\}$ 議論は出尽くしたところもありますけれども $(, \quad)\rfloor$ B. 句末表現の削除口語表現に特有の句末表現は削除する. 例:「正式な場におきまして $\{$ ですね $\}(、) 」 , 「$ 自民党は $\{ね\} ( 、)$ 本当に人情に厚くて \{ ね $\}(、)\rfloor$ C. 言い誤りや繰り返しの前半部分 (reparandum) の削除言い誤りにおいて, 後半の言い直された部分のみを残して前半を削除する。言い誤り部にはフィラーが伴うことも多い. 同じ語句の繰り返しも同様に削除する. ^{5}$ https://www.shugiin.go.jp/internet/itdb_kaigirokua.nsf/html/kaigirokua/019718920150709004.htm 6 https://www.shugiin.go.jp/internet/itdb_kaigirokua.nsf/html/kaigirokua/024218920150709005.htm } 例:「\{総理もこれまでああー $\}$ (大臣もこれまで)」,「\{質問あの $\}$ (決議)に基づきまして (、) 」 D. その他「やはり」「もう」などの単語が間投詞的に用いられる例や,文脈上必要のない主語や指示語の削除が主である。これらを削除することで簡潔な文を作る. 例:「\{やはり\} 事業を利用する組合員である農業者の利益(、)」,「そこは残念だと $\{$ こう \}思っております(。)」 ## 2.1.2 置換 E. 助詞の修正言い誤りとは言えないが,助詞の用法が文法上誤りであるとき,正しい助詞に置換する。特に多い修正は,「が」から「は」(19 回),「が」から「を」(19回),「の」から「に」 (12 回),「は」から「が」(12 回)への置換であった. 例:「農業委員の方 $\{$ が $\}(は)(、)$ 任命制があるので (、)」,「制度自体の大きな枠組みの変更 $\{$ が $\}(を)$ 検討中だということでございました (。)」 F. 口語表現の修正話し言葉に特有の表現を,書き言葉に相応しいより改まった語句に修正する。 G. 語順の入れ替え書き言葉として自然になるように,連続した語句の順序を入れ替える。ただし,近年はこの修正はほとんど行われていない。 例:「\{よくないと思うんです一方的すぎると \}(一方的すぎると良くないと思うんです)(。)」, $「\{$ 両方出し手と受け手と $\}$ (出し手と受け手と両方) 考えてやって」 ただし,別の語句を挟んだ距離の離れた入れ替えについては,この項目ではなく,「その他の削除」および「その他の挿入」としてカウントする. H. 言い誤り言い誤りがあったが, 言い直されてはいない箇所について, 正しい語句に修正する。単に読みが非流暢な箇所だけでなく, 意味を考慮した正しい語句への修正も含む. 例:「\{組長 $\}$ (首長)というのは最終的には」,「\{農林さんしょう $\}$ (農林水産省)の元同僚の皆さんに」 I. その他省略表現の補完や, 意味を考慮した表現の補足などに相当するが,頻度は非常に少ない. 例:「第八条 $\{$ の四で $\}$ (四項の二号で) , 「\{これ $\}$ (農業関係は)二十万人どころじゃないんです (○)」 ## 2.1.3 挿入 J. 読点, K. 句点句読点を適宜挿入することにより,読みやすさを改善する. L. 助詞の復元話し言葉では助詞の脱落が頻繁に発生する. 脱落した箇所に正しい助詞を復元し,文法的な文を作る。特に多い修正は,「を」(604 回),「は」(549回),「が」(204 回),「に」 (151 回)の挿入であった. 例:「アメリカの議会 (は)この法案の審議をめぐっては」,「ここにいらっしゃる議員 (を)初め (、)」 M. その他項目 Hで述べた離れた位置の語順の入れ替えの一部であることが多い. 較的 \}まだそれでも(、)そういう方の数も (比較的)あるんですが (、)」 ## 2.2 各修正項目の頻度 忠実な書き起こし(423,786 文字)に対する会議録(403.813 文字)の差異(編集距離)は, 置換 $14,480(3.4 \%)$, 插入 $19,727(4,7 \%)$, 脱落 39,700 (9.4\%) の計 73,907 文字 $(17.4 \%)$ に上った.図 2 に,各修正項目の会議内における割合を示す. ## )農林水産 $\square$ 内閣 III 厚生労働 $\square$ 消費者問題 口東日本大震災 $\square$ 計 図 2 国会会議録における各編集の割合 句読点挿入を除けば,修正のほぼ半数はフィラーの除去であった。置換操作では口語表現の修正が最も多かったが,正しく行うためには,フィラーの削除より高度な規則を用いる必要があると考えられる。さらに難しいと考えられる助詞の挿入や言い誤りの削除なども相当回数出現した。一方,語順の入れ替えなど,単調なアライメントとならない修正はほとんど行われていない. ## 3 End-to-end 音声認識 本研究で用いる $\mathrm{e} 2 \mathrm{e}$ 音声認識の手法について簡潔に述べる。 $\mathrm{e} 2 \mathrm{e}$ 音声認識では, 単一のニュー ラルネットワークを用いて,入力音響特徴量系列から異なる長さのラベル系列を予測する。出力にはサブワード (Sennrich et al. 2016; Kudo and Richardson 2018) や文字など,書記素に基づく単位が用いられることが多く, 直接単語系列を出力することも可能である (Audhkhasi et al. 2017; Soltau et al. 2017; Ueno et al. 2018). HMM 音響モデル, 統計的言語モデルおよび発音辞書から構成される従来のハイブリッド型システム (Hinton et al. 2012) に比べて単純な構造を持ち, サーチエラーが少ないことも加えて,一般に遥かに高速にデコードを行うことができる. 以下では,入力特徴量べクトルの系列,または入力を畳み込みニューラルネットワークやフレームスタッキングと呼ばれる手法でサブサンプリングした系列を $X=\left[x_{1}, x_{2}, \ldots, x_{T}\right]$, ター ゲットラベル系列を $Y=\left[y_{1}, y_{2}, \ldots, y_{L}\right]$ とする. ## $3.1 \mathrm{CTC$ 損失関数を用いたモデル} CTC(connectionist temporal classification) 損失関数に基づくモデル (Graves et al. 2006)では, ブランク (blank) と呼ばれる特殊なトークンを用いることで, 系列長の異なる入力-ターゲット間の写像を行う。まず,単方向または双方向型の RNN (reccurent neural network) や次節で述べる Transformer に基づくエンコーダを用いて,入力特徴量系列 $\boldsymbol{X}$ を同じ長さの表現系列へと変換する。 $ \boldsymbol{H}=\operatorname{Encoder}(\boldsymbol{X}) $ この表現系列に線形変換 Linear() とソフトマックス関数 $\operatorname{Softmax}()$ を用いることで, 時刻フレームごとの予測を行う. $ \boldsymbol{O}=\operatorname{Softmax}(\operatorname{Linear}(\boldsymbol{H})) $ ブランクを正解のラベル系列の任意の箇所に挿入することと同一ラベルの任意の回数の重複 を許すことで,与えられたラベル系列から入力と同じ長さを持つ拡張ラベル系列を作ることができる。この拡張ラベル系列の一つを $\pi$ としたとき, $\pi$ の条件付き確率は, $ p(\boldsymbol{\pi} \mid \boldsymbol{X})=\prod_{t=1}^{T} \boldsymbol{o}_{t, \pi_{t}} $ で与えられる. $\boldsymbol{o}_{t, \pi_{t}}$ は, 出力 $\boldsymbol{o}_{t}$ の拡張ラベル $\pi_{t}$ に対応する次元の値を表す. ブランクと重複ラベルの削除を操作 $\beta$ で表すとき, $\beta$ によりラベル系列 $Y$ へ縮退するすべてのアライメントパス $\pi$ について上の条件付き確率の総和を取ることで,ラベル系列 $Y$ の確率を計算する. $ p(Y \mid \boldsymbol{X})=\sum_{\boldsymbol{\pi} \in \beta^{-1}(Y)}^{T} p(\boldsymbol{\pi} \mid \boldsymbol{X}) $ この確率の負の対数を CTC 損失関数と定義する. $ \operatorname{loss}_{C T C}(\boldsymbol{X}, Y)=-\log (p(Y \mid \boldsymbol{X})) $ 損失関数の性質から明らかなように,CTCに基づくモデルでは入力-ラベル系列間に単調なアライメントを仮定している。なお, 推論時は, 式 (3) に従ってラベル事後確率を計算し, 各時刻で最大の確率を与えるラベルを選んだ上で,ブランクの除去と連続して出現した同一ラベルを一つにまとめることで認識結果を得る. ## 3.2 Transformer Transformer (Vaswani et al. 2017) はエンコーダとデコーダサブネットワークから構成される seq2seq 型モデルの一種であり, 最初機械翻訳のためのモデルとして提案されたが, 後に音声認識を含む種々の音声アプリケーションでも再帰型ニューラルネットワーク (RNN) より高い性能を持つことが示された (Karita et al. 2019b; Dong et al. 2018; Karita et al. 2019a) . Transformer に基づく音声認識モデルのアーキテクチャを図 3 に示す. Transformer では, 以下のようなマルチヘッドアテンション機構に基づき, 各層の出力を順次計算する. $ \begin{gathered} \text { Multihead }(\boldsymbol{Q}, \boldsymbol{K}, \boldsymbol{V})=\operatorname{Concat}\left(\text { head }_{1}, \text { head }_{2}, \ldots, \text { head }_{h}\right) \boldsymbol{R}^{o} \\ \text { head }_{i}=\operatorname{Attention}\left(\boldsymbol{Q} \boldsymbol{R}_{i}^{Q}, \boldsymbol{K} \boldsymbol{R}_{i}^{K}, \boldsymbol{V}_{i}^{V}\right) \\ \text { Attention }(\boldsymbol{Q}, \boldsymbol{K}, \boldsymbol{V})=\operatorname{Softmax}\left(\frac{\boldsymbol{Q} \boldsymbol{K}^{T}}{\sqrt{d_{k}}}\right) \boldsymbol{V} \end{gathered} $ ここで, 出力の次元数を $d_{\text {model }}$, ヘッド数を $h$ として, $\boldsymbol{Q} \in \mathbb{R}^{t_{q} \times d_{q}}, \boldsymbol{K} \in \mathbb{R}^{t_{k} \times d_{k}}, \boldsymbol{V} \in \mathbb{R}^{t_{v} \times d_{v}}$, 図 3 Transformer に基づく音声認識モデル また $d_{q}=d_{k}=d_{v}=d_{\text {model }} / h$ である. このマルチヘッドアテンション機構を用いて, エンコー ダの各層の出力 $\boldsymbol{X}_{n}^{\text {enc } は, ~}$ $ \begin{aligned} & \boldsymbol{A}_{n}^{e n c}=\operatorname{LayerNorm}\left(\boldsymbol{X}_{n-1}^{e n c}\right) \\ & \boldsymbol{B}_{n}^{e n c}=\boldsymbol{X}_{n-1}^{e n c}+\operatorname{Multihead}\left(\boldsymbol{A}_{n}^{e n c}, \boldsymbol{A}_{n}^{e n c}, \boldsymbol{A}_{n}^{e n c}\right) \\ & \boldsymbol{C}_{n}^{e n c}=\text { LayerNorm }\left(\boldsymbol{B}_{n}^{e n c}\right) \\ & \boldsymbol{X}_{n}^{e n c}=\boldsymbol{B}_{n}^{e n c}+\operatorname{FFN}\left(\boldsymbol{C}_{n}^{e n c}\right) \end{aligned} $ のように計算される。ここで, FFN() は文献 (Vaswani et al. 2017) における Position-wise FeedForward Networkコンポーネントと同一であり, ふたつの線形層 Linear ${ }_{F F N 1}, \operatorname{Linear}_{F F N 2}$, および ReLU 活性化関数 (Nair and Hinton 2010) を用いて, $\operatorname{FFN}\left(\boldsymbol{C}_{n}^{e n c}\right)=\operatorname{Linear}_{F F N 2}(\operatorname{ReLU}$ $\left.\left(\operatorname{Linear}_{F F N 1}\left(\boldsymbol{C}_{n}^{e n c}\right)\right)\right)$ と計算される。 なお, 主に正弦関数に基づく位置埋め込み $\boldsymbol{P}$ をい用いて, $\boldsymbol{X}_{0}^{e n c}=\boldsymbol{X}+\boldsymbol{P}$ と定義する. 一方, デコーダの各層では, デコーダの前層の出力 $\boldsymbol{X}_{m-1}^{d e c}$ とエンコーダ出力 $\boldsymbol{X}_{N}^{e n c}$ の二つを 用いて各層の出力を計算する。ただし, $\boldsymbol{X}_{0}^{\text {dec }}=\operatorname{Embedding}(Y)+\boldsymbol{P}$ と定義する. $ \begin{aligned} & \boldsymbol{A}_{m}^{d e c}=\operatorname{LayerNorm}\left(\boldsymbol{X}_{m-1}^{d e c}\right) \\ & \boldsymbol{B}_{m}^{d e c}=\boldsymbol{A}_{m-1}^{d e c}+\operatorname{Multihead}\left(\boldsymbol{A}_{m}^{d e c}, \boldsymbol{A}_{m}^{d e c}, \boldsymbol{A}_{m}^{d e c}\right) \\ & \boldsymbol{C}_{m}^{d e c}=\operatorname{LayerNorm}\left(\boldsymbol{B}_{m}^{d e c}\right) \\ & \boldsymbol{D}_{m}^{d e c}=\boldsymbol{B}_{m}^{d e c}+\operatorname{Multihead}\left(\boldsymbol{C}_{m}^{d e c}, \boldsymbol{X}_{N}^{e n c}, \boldsymbol{X}_{N}^{e n c}\right) \\ & \boldsymbol{E}_{m}^{d e c}=\operatorname{LayerNorm}\left(\boldsymbol{D}_{m}^{d e c}\right) \\ & \boldsymbol{X}_{m}^{d e c}=\boldsymbol{D}_{m}^{d e c}+\operatorname{FFN}\left(\boldsymbol{E}_{m}^{d e c}\right) \end{aligned} $ デコーダの最終層の出力 $\boldsymbol{X}_{M}^{d e c}$ を用いて, ネットワークのラベル単位の予測は, $ \boldsymbol{O}=\operatorname{Softmax}\left(\operatorname{Linear}\left(\boldsymbol{X}_{M}^{d e c}\right)\right) $ で与えられる。この予測とターゲットラベルのクロスエントロピ (cross entropy $=\mathrm{CE})$ として Transformerの損失関数を定義する. $ \operatorname{loss}_{C E}(\boldsymbol{X}, Y)=\sum_{l=1}^{L} \operatorname{onehot}\left(y_{l}\right) \log \left(\boldsymbol{o}_{l}\right) $ ここで, $\operatorname{onehot}\left(y_{l}\right)$ は, トークン $y_{l}$ に対応する次元のみが 1 であり, その他の次元が 0 であるような出力クラス数と同じサイズのベクトルとする,CTC とは異なり,Transformerでは入カ-ターゲット間のアライメントにどのような制約も仮定しておらず,各デコーダステップにおいて入力中の任意の箇所に注目することで,より柔軟な系列間の変換が行える. ## 4 提案手法 本研究では,音声を入力,書き言葉をターゲットに用いて単一のニューラルネットワークを $\mathrm{e} 2 \mathrm{e}$ で最適化し,推論時にはこのネットワークを用いて音声から書き言葉を直接予測する.以降ではこのアプローチをダイレクト書き言葉予測, 用いるモデルをダイレクトモデルなどと呼ぶ. このダイレクトモデルの利点は, 音声認識とテキストベースの話し言葉スタイル変換 (SST)を組み合わせた従来のカスケード方式と比較したとき,以下のように要約できる。一つは,入力中の音響的な手がかりを用いて修正が行える点である。これにより, 例えば,音声の非流暢な箇所を同定・削除したり,ポーズを句点に対応付けることが可能となる.次に,カスケードモデルで問題となる音声認識誤りに起因する精度低下を回避できる点である. 修正の対象となるフィラーや言い誤りなどの非流暢な箇所では特に音声認識誤りが多いと考えられるため,書き言葉予測において音声認識結果を用いない意義は特に大きい. さらには, 音声認識と SSTが単 音声認識 (A) カスケード (B) ダイレクト 図 4 書き言葉生成のためのカスケード型アプローチ $(\mathrm{A})$ とダイレクトアプローチ $(\mathrm{B})$ 一のネットワークで同時に実現できるため, アーキテクチャが単純で扱いやすく, モデルサイズがコンパクトである上, 推論速度もはるかに高速になる. 一方, このダイレクト変換は, 入力音声中に対応する音響的なイベントを持たないラべルを挿入したり(助詞の復元や特に読点の挿入), 対応するラベルを持たない音声区間を適切にスキップする必要があるため (フィラー等の除去), 音声に忠実なラべルをターゲットとする従来の音声認識より難しいタスクであり,非常に柔軟なモデルが必要となる。本研究ではこのダイレクト書き言葉予測を音声翻訳 (Weiss et al. 2017)に近いタスクと考え, Transformer に基づくラベル同期型 seq2seq モデルを用いて実装する.ダイレクト方式とカスケード方式のアーキテクチャの違いを, 図 4 に示す。以下の各節では,上記のような難しさを持つダイレクトアプロー チのための改善法について述べる. ## 4.1 疑似的な書き起こしを用いた学習法の改善 2.2 節で示したように書き言葉のターゲットは音声との不一致が大きいため, 音声から書き言葉へのダイレクトモデルは, 通常の音声認識モデルより学習が難しいと考えられる。そこで,音声認識で用いるような忠実な書き起こしも援用することで,夕゙イレクトモデルの学習を補助することを考える。ただし,大規模な音声デー夕に対して人手による書き起こしを作成するのはコスト面で現実的ではないため,4.1.1節で会議録をもとに疑似的にこの忠実な書き起こしを自動復元する.4.1.2 節では,実際にモデルの学習に用いるための音声-書き言葉-疑似書き起こしの 3 つ組データの作成手順について述べる。4.1.3 節と 4.1.4 節で, 具体的にこれらのデータを用いて書き言葉予測性能を改善する手法について述べる。 ## 4.1.1疑似的な書き起こしの作成 会議 $m$ 内のある話者ターン $s$ の会議録テキスト $W_{m, s}$ は利用可能であるが,その忠実な書き起こし $V_{m, s}$ をすべての $(m, s)$ に対して人手で作成するのは膨大なコストが必要である.そのため,統計的機械翻訳の枠組みを用いて,自動で会議録テキスト $W_{m, s}$ から書き起こし $V_{m, s}$ を復元することを考える。一般に,書き言葉スタイルのテキスト $W$ が与えられたとき,対応する話し言葉スタイルのテキスト $V$ は, 原理的には以下のベイズ則に基づいてデコードできる. $ P(V \mid W)=P(V) \cdot \frac{P(W \mid V)}{P(W)} $ しかし,実際には,例えばフィラーは任意の箇所に出現し得るなど,書き言葉から話し言葉への変換は本質的にランダムであり,会議録のテキストデータ $W$ のみから話し言葉テキスト $V$ を一意に復元することは非常に難しい. そこで, $V$ を上記の規則から直接デコードするのでなく,話し言葉スタイルの統計的言語モデル $P(V)$ を同様にベイズ則 $ P(V)=P(W) \cdot \frac{P(V \mid W)}{P(W \mid V)} $ により推定し, 得られた $V$ の確率モデル, つまり話し言葉スタイルの言語モデル $P(V)$ を用いて音声認識を行うことにより,疑似的に $V$ を復元することを提案する.言語モデル確率の変換は,実際には以下のように $N$-gram カウントの操作に基づいて行う。 $ N g r a m\left(v_{1}^{n}\right)=N \operatorname{gram}\left(w_{1}^{n}\right) \cdot \frac{P(v \mid w)}{P(w \mid v)} $ ここで, $\operatorname{Ngram}\left(v_{1}^{n}\right)$ および $\operatorname{Ngram}\left(w_{1}^{n}\right)$ は,話し言葉および書き言葉コーパスにおける各々の $N-$ gram の出現回数を表す.また, $v$ および $w$ はそれぞれのスタイルにおける変換単位となるパターンを表す. 例えば,フィラー「あのー」の挿入は,変換 $\left.\{w=\left(w_{-1}, w_{+1}\right) \rightarrow v=\left(w_{-1}\right.\right.$, あの一, $\left.\left.w_{+1}\right)\right.\}$ として表される。これらのパターン間の変換規則を, ごく少量の会議録と書き起こしのパラレルデータを用いて獲得し, その確率 $P(v \mid w)$ および $P(w \mid v)$ を最尤推定により求める. また, データのスパース性に基づく影響を軽减するために, 品詞情報に基づくスムージングも行う.この言語モデルスタイル変換のより詳細なアルゴリズムについては, (Akita and Kawahara 2007)を参照されたい. この手法の利点は, 深層学習に基づくモデルのように大規模なぺアデー 夕を必要としない点と, 小規模なぺアデータから獲得された話し言葉に特定のパターンのみを変換の対象とするため, 音声認識誤りを除けば,保持すべき内容語が削除されるなど,想定しない変換が行われない点である. 疑似的な書き起こし $\hat{V}_{m, s}$ の具体的な作成手順を以下に示す. Step 1 会議 $m$ の会議録全文のテキストデータ $W_{m}$ を用いて, 会議 $m$ に依存した書き言葉スタイルの $N$-gram 言語モデル $P_{m}(W)$ を構築する. Step $2 P_{m}(W)$ に言語モデルスタイル変換を適用することにより, 話し言葉スタイルの $N$-gram 言語モデル $P_{m}(V)$ を構築する. Step 3 形態素解析から得られた各単語の発音を用いて発音辞書を構築する.この発音辞書と,他の書き起こしのある音声コーパスで事前に構築した HMM 音響モデル, および会議 $m$ に依存した言語モデル $P_{m}(V)$ を用いて, この会議全体の音声データ $\boldsymbol{X}_{m}$ を認識する。 $P_{m}(V)$ は, この会議に出現する単語と単語連接のみから構築したモデルであり, 話題が $\boldsymbol{X}_{m}$ と完全に合致している上, フィラーや口語表現などの話し言葉特有の現象にも適切な確率を与えることができる. なお, 言語モデル $P_{m}(V)$ で制約した探索空間でのみ音声認識を行う必要があるため, 外部の学習データで獲得された内在的な言語モデル (McDermott et al. 2019) を包含する e2e 音声認識モデルではなく,モジュール性のあるハイブリッドシステムを用いてデコードを行う.また, Julius ツールキット (Lee et al. 2001) のショートポーズセグメンテーションアルゴリズムを用いてデコードとポーズに基づく音声の分割を同時に行う,ハイブリッドモデルを用いた音声認識はフレーム単位の予測に基づいて行われるため, デコードの過程ですべての単語にタイムスタンプが付与される。 Step 4 会議録の発言者のタグに従って, 会議録テキスト $W_{m}$ を話者ターン毎のテキスト $W_{m, s}$ に分割する。話者ターンの境界に特別なタグを插入した上で,会議全体の認識結果と会議録テキストのアライメントを取得する。その上で,ターン境界タグに割り当てられた認識結果中の単語(実際には, 主に長いポーズ)の時刻で音声を分割し, 各話者ターンの音声 $\boldsymbol{X}_{m, s}$ を得る. Step $5 W_{m, s}$ を用いて, Step 2 と同様に話者ターン $s$ に依存した話し言葉スタイル言語モデル $P_{m, s}(V)$ を構築する.このモデルは会議全体から構築した $P_{m}(V)$ よりさらに強い制約を与える. $P_{m, s}(V)$ を用いて $\boldsymbol{X}_{m, s}$ を認識する。この結果得られた非常に正確な認識結果を, この話者ターンの疑似的な書き起こし $\hat{V}_{m, s}$ として用いる. ## 4.1.2 音声・疑似的書き起こし・会議録のアライメント 次節から述べる改善手法を用いてダイレクトモデルの学習を行うためには,扱いやすい長さのセグメントに分割した音声 $\boldsymbol{X}_{m, s, u}$ と,その疑似的な書き起こし $\hat{V}_{m, s, u}$ および会議録テキスト $W_{m, s, u}$ の組が必要である.この 3 つ組データ $\left(\boldsymbol{X}_{m, s, u}, \hat{V}_{m, s, u}, W_{m, s, u}\right)$ を以下の手続きで作成する。 Julius のショートポーズセグメンテーションの過程で, 音声セグメント $\boldsymbol{X}_{m, s, u}$ の開始時刻と終了時刻が付与済みであるため, 分割済み音声および疑似書き起こし $\hat{V}_{m, s, u}$ は容易に取得できる.また, $\hat{V}_{m, s, u}$ のすべての単語の出現時刻も付与されている. 話者ターン $s$ の疑似書き起こし $\hat{V}_{m, s}$ と会議録テキスト $W_{m, s}$ のアライメントを取得し, セグメント境界のポーズ(しきい値 $200 \mathrm{~ms}$ 以上のポーズ)が挿入誤りとして対応付けられた箇所で会議録テキスト $W_{m, s}$ を分割することで,セグメント $u$ の会議録テキスト $W_{m, s, u}$ を取得する. なお,上記の疑似的な書き起こしを作成した際のショートポーズベースの音声区分化は,各セグメント内の発話内容について考慮しないため,書き言葉予測に適した分割ではない可能性が高い.音声区分化の改善手法については,後の 4.3 章で述べる. ## 4.1.3 エンコーダのマルチタスク学習 $\mathrm{e} 2 \mathrm{e}$ 音声認識において, エンコーダの役割は, 雑音や話者性などに起因する入力中の局所的な変動成分を除去し, 理想的には音素クラスのような言語的ユニットと直接対応付けられるようなより大域的な情報のみを抽出することであると考えられる (Baevski et al. 2020). 一方, 単語やサブワードは一般に複数の音節から成り立ち, コンテクストによって発音も変化するため, これらの書記素に基づく出力単位を用いる $\mathrm{e} 2 \mathrm{e}$ 音声認識では, 入力-ラベル間の対応は単純なものとはならない (Audhkhasi et al. 2017; Soltau et al. 2017). 音声と異なる言語をターゲットとする $\mathrm{e} 2 \mathrm{e}$ 音声翻訳 (Weiss et al. 2017) では,ラベルと音声の不一致はさらに著しい. そのため, これらのモデルでは, エンコーダの学習を補助するための改善手法が用いられることが多い. その一つは, 音声との対応がより単純な音素系列や, 最終的な出力ユニットより少ないクラス数のサブワードまたは文字など,より低レベルのラベルをエンコーダの出力層または中間層に補助的なターゲットとして与えることである (Ueno et al. 2018; Higuchi et al. 2022; Sanabria and Metze 2018). e2e 音声翻訳では, 通常, 元言語の書き起こしを用いたマルチタスク学習 (Weiss et al. 2017) やエンコーダの事前学習 (Bérard et al. 2018) が行われる. もう一つは, seq2seqモデルにおいて, 主タスクのクロスエントロピ損失の他に, 2.2 節で述べた CTC 損失関数を用いた補助的なタスクを導入することである。 CTC 損失関数は,入力ターゲット間で単調アライメントの強い制約を与えるため, 適切なラベルが与えられれば,クロスエントロピ損失のみより効率的にエンコーダの最適化を行うことができる (Kim et al. 2017; Karita et al. 2019b). 以上を踏まえて,ダイレクト書き言葉予測のためのエンコーダのマルチタスク学習を提案する.この手法では, 図 5 のエンコーダ部に示すように,書き言葉の予測を行うデコーダとは別に,エンコーダ出力からなるべく音声に忠実なラべルを予測する音声認識サブタスクを定義する.このサブタスクのターゲットとして, 4.1.3 章で作成した疑似的な書き起こし $\hat{V}_{m, s, u}$ を用いる。また,モデル予測とこの補助ターゲット間の損失を,CTC 損失関数を用いて計算する.疑似的な書き起こし $\hat{V}_{m, s, u}$ は制約つき音声認識を用いて復元されたものであるため発話内容に忠実であり,アライメントの単調性も保証される。マルチタスク学習における損失関数は, 3 章 図 5 疑似的な書き起こしを用いたエンコーダのマルチタスク学習とデコーダのマルチスタイル学習 $ \operatorname{loss}_{M T L}(\boldsymbol{X}, W, \hat{V})=\lambda \cdot \operatorname{loss}_{c t c}(\boldsymbol{X}, \hat{V})+(1-\lambda) \cdot \operatorname{loss}_{C E}(\boldsymbol{X}, W) $ と定義する. ## 4.1.4 デコーダのマルチスタイル学習 前節で述べたマルチタスク学習では,書き起こしを用いて得られる損失はエンコーダ最上層に追加した線形層を介してエンコーダにのみ伝播し,主タスク(書き言葉予測)のための Transformer デコーダのパラメータ更新に利用されない。本節では,デコーダにも書き起こしテキストを与えて学習を補助するデコーダサイドのマルチスタイル学習を提案する. このマルチスタイル学習は, 複数言語の音声認識を単一のネットワークで行うマルチリンガル $\mathrm{e} 2 \mathrm{e}$ 音声認識 (Watanabe et al. 2017) の枠組みを用いて行う。 すなわち, 日本語の書き言葉(会議録)と話し言葉(疑似書き起こし)を異なる言語とみなして,いずれかのラベルを確率的に選択し, 各音声セグメントのターゲットに用いる。 その際, 両者で異なる文頭シンボル ('<written>' または ‘<spoken>') を用いることで,文全体の予測を条件付ける,マルチリンガル学習では, 低資源言語などの難しいタスクが比較的易しい英語などの音声認識により改善されることから,提案法も書き言葉の生成をより易しい音声認識タスクで補助することを目的とする. このマルチスタイル学習の概要を図 5 のデコーダ部に示す. 音声セグメント $\boldsymbol{X}_{m, s, u}$ ごとにパラメータ $p$ のベルヌーイ分布に従う試行を行い, 得られた確率変数 style の値が 1 であれば会議録ラベル $W_{m, s, u}$ を,0であれば書き起こしラベル $\hat{V}_{m, s, u}$ を選択して $\boldsymbol{X}_{m, s, u}$ のターゲットに用 いる,認識時は,開始ステップで ‘くwritten>’夕グを文頭シンボルとして与える。なお,アプリケーションによって音声に忠実な認識結果を得たいときは, ‘<spoken>’夕゙を用いる. ## 4.2 句読点位置を考慮した音声の自動区分化 $\mathrm{e} 2 \mathrm{e}$ モデルを用いた音声認識や書き言葉の予測を行う上で, 事前に評価に用いる各会議全体の音声データを扱いやすい長さの区間に分割しておく必要がある。その際, 書き言葉の文に相当するような統語的・意味的まとまりを持った単位に分割することが理想的であるが,そのような発話境界位置のアノテーションは通常利用できない. 音声認識で主に用いられるショートポーズに基づく自動区分化では, $200 \mathrm{~ms}$ 程度のしきい値以上の無音が検出された箇所で, 音声を分割する。しかし, 自発的な発話において, ショートポーズの出現位置が文の区切りと一致するとは限らないため, 音声の過分割を招き, 予測のための重要なコンテクスト情報が失われる恐れがある. 一方,単にこのしきい値を大きくすると,信号対雑音比の低い音響条件下や話速の速い発話において,文の境界を超えるような不適切に長いセグメントが生成される傾向がある。 $2 \mathrm{e}$ モデル, 特にアテンション機構に基づくモデルでは, 20 秒程度以上の長い発話に対して認識性能が顕著に低下することが知られており (Chiu et al. 2019; Pan et al. 2022), 単に長い単位へ分割するような戦略は望ましくない。また, 評価環境ごとに適切なポーズ長のしきい值を決定することも困難である 7. 以上のようなショートポーズによるセグメンテーションの問題を解決するために,句読点位置を手がかりとした音声の区分化手法を提案する,句読点は,ポーズとは異なり,発話スタイルや音響条件, 話速等の話者性に関わらず出力側では安定した間隔で出現すると考えられる. そのため, 句読点の出現位置を考慮することで, 音声が極端な長さのセグメントに分割されるのを防ぐことができる。また,句読点に挟まれた比較的まとまった区間の情報が保持されるため, 後続の書き言葉予測において一貫して十分な長さのコンテクストを用いることができる. ## 4.2.1 CTC モデルを用いたオンライン句読点検出 この音声区分化手法を, 典型的には数時間程度の非常に長い音声を入力として, オンラインで句読点位置を予測しながら音声分割を行うタスクとして定式化する. 句読点予測には, 単方向型 RNN をエンコーダとする CTC モデルを用いる. このオンライン CTC モデルは, 4.2 .2 章でショートポーズセグメンテーションに基づいて作成した 3 つ組データ $\left(\boldsymbol{X}_{m, s, u}, \hat{V}_{m, s, u}, W_{m, s, u}\right)$ を用いて学習する。すなわち, オンライン版のダイレクト書き言葉予測モデルとして構築する. $ で区分化したとき,5,062 のセグメントに分割され,そのうち 2 秒未満の非常に短いセグメントは 1,309であった。一方, やや長いしきい値 $300 \mathrm{~ms}$ では, セグメント数は 2,471 となり, うち 2 秒未満の短いセグメントは 340 と減少したが, 20 秒以上の非常に長いセグメントが 166 と多数生成された. } なお, 単方向型 RNN は Transformer より表現能力が低いため, 次章の評価実験で見るように,書き起こしを用いたマルチタスク学習がモデルの収束のために必須となる. この CTC モデルを用いて音声区分化を行うための手続きを Algorithm 1 に示す. このアルゴリズムでは,オンラインで時間同期に書き言葉予測を行いながら,句点または読点とポーズが共起した時刻で,音声を分割する。ポーズあるいは非音声区間はしきい值 $N_{\text {blank }}$ 回以上のブランクの連続として検出できる (Yoshimura et al. 2020)。なお,句読点が挿入されたおおよその時刻は,対応する出力ノードの CTC スパイクにより知ることができるが,単方向エンコーダに基づくモデルでは,スパイクの位置は実際のラベルの出現時刻より一貫して遅れることが知られている,そのため,スパイクから一定フレーム数 $\left(T_{\text {margin }}\right)$ さかのぼった時刻を実際の境界とする.境界を検出したエンコーダステップで RNN の状態をリセットした上で,再び時間同期の書き言葉予測を継続する。 句読点のみでなく, ポーズも考慮するのは, 以下の理由による. CTC モデルにおいて, 出力ノードのスパイクは当該トークンの周辺に存在するが,ハイブリッドモデルのように正確な出現時刻であることが保証されるわけではない。そのため,ポーズを伴わない句読点のスパイクは,実際には前後の他のサブワードの継続時間内に含まれる可能性が非常に高い.また,セグメント境界にポーズが存在しないと, 文頭・文末の明確な手がかりがないため, 一般に音声認識精度は低下する。さらに,ポーズと共起する句読点の予測は,そもそも信頼度が高いと考えられる。 言語的知識を用いた音声区分化手法としては, 最近, RNN-Transducer (Graves 2012) などの自己回帰型モデルを用いて音声認識と Endpointing を同時に行う手法が提案されているが (Chang et al. 2019; Mahadeokar et al. 2021), これは音声検索のようにユーザ発話の終端が容易に検出できるタスクにおいて, システム応答の遅延を最小化することを目的とした手法である。一方,会議のような人間同士の話し言葉コミュニケーションでは, 最適な発話の終端を通常決定できず,検出も難しい.また,オンライン音声認識技術を用いた遅延の最小化より書き起こし精度が重視されることが多い. したがって, 本研究では, 発話終端のアノテーションを必要とせず,代わりに書き言葉の句読点情報を用いた音声区分化と, 後段のオフライン処理によるダイレク卜書き言葉予測を独立して行うアプローチを用いる. ## 5 評価実験 提案手法を大規模な衆議院審議音声コーパスを用いて評価した. 各モデルの学習デー夕には,第 189 回国会において 2015 年 6 月までに行われた 14 の本会議と 194 の委員会, 計 208 会議から収集した 708 時間の音声を用いた。評価デー夕には, 2 章で分析に用いた 5 の会議,すなわち 2015 年 7 月に行われた農林水産委員会第 19 号(話者ターン数 229 , 異なり話者数 $22,5.5$時間), 内閣委員会第 18 号 (話者ターン数 201, 異なり話者数 $21,3.2$ 時間), 厚生労働委員会第 29 号(話者ターン数 174 , 異なり話者数 $17,4.1$ 時間),消費者問題に関する特別委員会第 4 号(話者ターン数 147 , 異なり話者数 $27,3.1$ 時間), 東日本大震災復興特別委員会第 5 号(話者ターン数 197, 異なり話者数 $26,4.4$ 時間)を用いた. これらのデータについては, 音声に忠実な書き起こしの作成と 2.1 節で述べた編集者による修正についてのアノテーションを人手により行っている. 開発データには法務委員会第 12 号(話者ターン 75 , 異なり話者数 $9,2.5$ 時間)を用いた。モデル学習や音声区分化における種々のハイパーパラメータは, この開発デー 夕により決定した。 音響特徴量は, 80 次元の対数メルフィルタバンク出力を用いた. 音響分析のための分析窓幅は $25 \mathrm{~ms}$ とし,フレームシフトは $10 \mathrm{~ms}$ とした。学習データおよび評価データの音響特徵量の各次元は, 学習データ全体の平均・標準偏差を用いて正規化した。すべてのテキストデータは, ChaSen-2.4.4+UniDic-1.3.9を用いて形態素へ分割したあと, byte pair encoding (BPE) (Sennrich et al. 2016)によりトークナイズを行った. BPE に基づくサブワードの異なり数は $10 \mathrm{k}$ とした. $\mathrm{e} 2 \mathrm{e}$ 音声認識とダイレクト書き言葉予測には, 同一の構造を持つ Transformer に基づく seq $2 \mathrm{seq}$ モデルを用いた。エンコーダには 12 層, デコーダには 6 層の Transformer を用いた. ヘッド数 $h$, 角層の出力次元数 $d_{\text {model }}, \mathrm{FFN}$ の中間ノード数 $d_{f f}$ は, それぞれ $h=4, \quad d_{\text {model }}=256$, $d_{f f}=2,408$ とした. 入力音響特徴量系列は, 二層の畳み込み層を用いて系列長が $1 / 4$ となるようにサブサンプリングを行った上で,エンコーダへ入力した.各畳み込み層は, 出力チャネル数 32 , カーネルサイズ 3 , ストライド 1 の二次元畳み込みニューラルネットワーク (convolutional neural network $=\mathrm{CNN})($ LeCun and Bengio 1995) とストライド 2 の二次元プーリング層により構成した. CNN 出力は, ReLU関数 (Nair and Hinton 2010)を用いて非線形変換を行った。なお,比較のために $\mathrm{CTC}$ 損失関数を用いた $\mathrm{e} 2 \mathrm{e}$ 音声認識およびダイレクト書き言葉予測モデルも構築した. CTC モデルでも, seq2seq モデルと同一の 12 層の Transformer エンコーダを用いた. 比較のためのカスケード方式(図 4 の $(\mathrm{A})$ ) では, 上記の $\mathrm{e} 2 \mathrm{e}$ 音声認識と, テキストベースで話し言葉から書き言葉への変換を行うSST モデルを組み合わせることで, 音声から書き言葉の予測を行った. テキストベース SST モデルは, 音声翻訳におけるカスケードモデル (Bentivogli et al. 2021)の例にしたがって, Transformer により実装した。 エンコーダとデコーダの構成は,上記の $\mathrm{e} 2 \mathrm{e}$ 音声認識およびダイレクトモデルと同一とした. ただし, これらのモデルにおけるサブサンプリング層の代わりに, サブワードのための埋め込み層を用いた. なお, $\mathrm{e} 2 \mathrm{e}$ 音声認識と SST モデルは,4.2 章で述べた疑似的書き起こしを用いた準教師つき学習 (lightly-supervised training)(Lamel et al. 2001)の枠組みにより構築した。すなわち,音声認識は音響特徴量を入力・疑似書き起こしをターゲットとして,またSST モデルは疑似書き起こしを入力・会議録テキストをターゲットとして,それぞれ学習した,推論時は, すべての Transformer モデルでビーム幅 6 のビームサーチを行った。一方,CTC モデルでは一般にビームサーチの効果が低いことから, 文献 (Graves et al. 2006)の greedy search アルゴリズムを用いてデコーディングを行った. $\mathrm{e} 2 \mathrm{e}$ 音声認識およびダイレクトモデルの学習時は, 適応的 Specaugment (Park et al. 2020) による動的データ拡張を行った. マスク確率等はすべて文献 (Park et al. 2020)の設定に従った. モデルは Adam オプティマイザー (Kingma and Ba 2015)を用いて最適化した. すべてのモデルで (Dong et al. 2018) と同様の学習率のスケジューリングを行った. すなわち, ステップ数 $n$ における学習率 lrate $(n)$ を, $ \text { lrate }(n)=k \cdot d_{\text {model }}^{-0.5} \cdot \min \left(n^{-0.5}, n \cdot \text { warmup_n }^{-1.5}\right) $ とし, 特に $w a r m u p \_n=25,000, k=4.0$ とした. エンコーダマルチタスク学習(4.1.3 章)において, 音声認識サブタスクの重みは $\lambda=0.1$ とした. また, 先行研究の知見を踏まえて (Ueno et al. 2018; Sanabria and Metze 2018), サブタスクのターゲットには, サブワードでなく, より クラス数が少なくクラスあたりの学習事例数が多いと期待される文字の系列を用いた.異なり文字数は 2,840 であった. デコーダのマルチスタイル学習において,スタイル選択に用いるべルヌーイ分布のパラメータ $p$ は 0.5 とした. すべてのモデルでサイズ 120 のミニバッチを用いた誤差逆伝播法に基づく学習を 100 エポック分行い, 最終的なネットワークは, 開発セットに対して最も低い誤り率を与えた 10 のチェックポイントを平均することで構築した. 提案モデルの実用上の信頼度を評価するために,参考のため, 現行の審議音声自動書き起こしシステムで運用実績のあるハイブリッド音声認識システムの性能とも比較を行う.ただし, ハイブリッドシステムでは大規模なテキストデータから構築した統計的言語モデルおよび発音辞書が利用できる大きな利点があるが,音響モデルが以下に述べるように単純なフィードフォワード型ニューラルネットワークにより構成されているため, 認識性能面で Transformerを用いた $\mathrm{e} 2 \mathrm{e}$ モデルと公平に比較できない点に留意する。このハイブリッドシステムにおいて,音響モデルは, $9 \mathrm{k}$ クラスの triphone 状態 (senone)を識別する7 層フィードフォワードニューラルネットワークと HMM から構成する DNN-HMM (Hinton et al. 2012) モデルを用いた. 音響モデルは Kaldiツールキット (Povey et al. 2011) を用いて学習した. 公平のため, この音響モデルの学習には $\mathrm{e} 2 \mathrm{e}$ モデルと同じ 2015 年度の 700 時間のみを用いた. 言語モデルは 2006 年度から 2015 年度までの衆議院会議録テキストを用いて学習した書き言葉 trigram モデルに話し言葉スタイル変換 (Akita and Kawahara 2007) を適用することで構築した. デコードには Julius を用いた. Juliusのデコードでは, 4.1.1 章の疑似的な書き起こしの作成時と同様に,ショートポー ズセグメンテーションアルゴリズム(ポーズ長のしきい値 $200 \mathrm{~ms}$ )を用いて音声区分化と音声認識を同時に行った。 4.1.1 章で提案した疑似的な書き起こしの作成では, 2003 年度に行われた一部の会議 (主に予算委員会) の書き起こし $666 \mathrm{~K}$ 単語と対応する会議録のパラレルデータを用いて変換規則 $P(W \mid V)$ および $P(V \mid W)$ を学習した. この変換モデルを会議録の各話者ターンの文のみから構築した書き言葉言語モデルに適用することで,制約付き音声認識に用いる話者ターンの内容および発話スタイルにともにマッチした強い言語モデルを構築した。一方,音響モデルには,4.1.1節と同様の手法で作成した 2009 年から 2011 年度の疑似書き起こしを用いて学習した GMM-HMM モデルを用いた. 評価デー夕の音声区分化は,5.4 節の比較実験以外では,CTC に基づく自動区分化手法(4.2 章)を用いて行った. 学習データは, 4.1.2 章のアライメントの過程で得られたショートポーズベースの分割をそのまま用いたものと,5.4 節で詳しく述べる句読点べースの手法を用いたものの二通りを構築したが, 5.4 節の比較実験以外では,句読点ベースで分割したデー夕を用いた。推論時の実行時間の計測には,CPU は AMD-Epyc7262,GPU は NVidia-RTX-3090(24G メモリ)を用いた。 ## 5.1 ベースライン音声認識モデルの評価 提案法である書き言葉予測モデルの評価を行う前に,最初に,疑似書き起こしを用いた準教師付き学習により構築したべースライン $\mathrm{e} 2 \mathrm{e}$ 音声認識モデルの性能を評価する。ここで, 通常の音声認識モデルとしての評価は,人手で作成した音声に忠実な書き起こしに対するシステム出力の誤り率を用いて行う,表 1 に,忠実な書き起こしに対する CTC および Transformer に基づく $\mathrm{e} 2 \mathrm{e}$ 音声認識モデルの文字誤り率および推論時間の実時間ファクタを示す. いずれの e $2 \mathrm{e}$ モデルも,CTC で 9.7\%, Transformer で $9.1 \%$ と低い誤り率を達成した. CPU の推論速度では, Transformer で実時間の 0.09 倍, CTC で実時間の 0.009 倍の高速な推論が可能であった.また,GPU 上では推論はさらに高速となった. CTC と Transformer の比較では,速度では劣るものの, Transformer がやや低い誤り率を示した. さらに, 4.1.4 節で述べたデコーダのマルチスタイル学習を行うことで, 誤り率が絶対値で 0.9 ポイントと大幅に改善した (“Transformer 音声認識 + デコーダマルチスタイル学習”).これは, 準教師付き学習で用いたラベルに含まれる認識誤りの影響が,誤りを含まない会議録ターゲットを用いることで軽減したためである可能性がある。マルチスタイル学習はダイレクト書き言葉予測の改善を目的とした手法であるが, <spoken>文頭夕グを用いた音声認識モデルとしての性能も向上したことから, 準教師付き学習の改善法としても有効であると考えられる。このことは, アプリケーションによってはなるべく忠実な書き起こしが必要になるため, 重要な知見であると言える. 参考のため,現行の書き起こしシステムで用いられているハイブリッドシステムの結果も示す.いずれの $\mathrm{e} 2 \mathrm{e}$ モデルも,音声認識性能と推論速度の両面でこのハイブリッドシステムを上回っており,書き起こしシステムにおいて実用上問題のない性能を達成できていることがわかる.次に,これらの音声認識モデルの会議録テキストに対する文字誤り率を,表 2 に示す。たたし, 音声認識モデルは句読点を一切出力することができないため, 公平のため, この表では句読点は誤り率の算出から除外した,会議録に対する誤り率では,忠実な書き起こしに対する誤り率に比べて,いずれのモデルでも特に挿入誤りが顕著に増加した。ハイブリッドシステムで 表 1 音声認識モデルの忠実な書き起こしに対する文字誤り率 (\%) および処理時間の実時間ファクタ 表 2 音声認識モデルの会議録に対する文字誤り率 (\%)および処理時間の実時間ファクタ(句読点は除外した) は,発音辞書中の語彙的なフィラーを除去することで,誤り率が絶対值で 7.5 ポイント改善した. この結果は, 会議録における修正のほぼ半数がフィラーの除去であるという 2 章の分析と符合している。 会議録に対する誤り率においても,Transformer に基づくseq2seq モデルが CTC より高い性能を示した. さらに, Transformerに基づくテキストベース SST を後処理として用いることにより (カスケード方式の書き言葉予測),挿入誤りが大幅に削減された。テキストベース SSTによるこの改善幅がハイブリッドモデルにおける語彙的フィラーの除去より顕著に大きいことから,Transformerに基づく系列間変換により,単純なルールベースの手法より高度な編集操作が可能であることがわかる。このカスケード方式の書き言葉予測において, 初段の $\mathrm{e} 2 \mathrm{e}$ 音声認識モデルとしてマルチスタイルモデルを用いることにより, さらに誤り率は改善し, 全体で最も低い誤り率 $(9.7 \%)$ を達成した。 以上のように, 準教師付き学習で構築したモデルが全般に高い水準の音声認識精度と書き言葉予測精度を達成したことから,4.1.1 節の手法で十分信頼性のある書き起こしが作成可能であることがわかる.なお,学習データについては正解の書き起こしが存在しないため,評価デー 夕において同一手法で疑似書き起こしを作成し, 精度を評価したところ, 人手書き起こしに対する誤り率は,置換誤りが $1.5 \%$ ,脱落誤りが $2.8 \%$ ,挿入誤りが $2.6 \%$ ,計 $6.9 \%$ となり,表 1 における一般的な言語モデルを用いたハイブリッドシステムの誤り率 $(10.7 \%)$ よりはるかに高い精度となった。 ## 5.2 カスケードモデルとダイレクトモデルの比較 本節では,音声からの書き言葉予測において,カスケードモデルと提案法であるダイレクトモデルの比較を行う.システム出力の会議録に対する誤り率を表 3 に示す.これらのモデルは 表 3 ダイレクト書き言葉生成モデルの評価(数値は会議録に対する文字誤り率 $(\%)$ および処理時間の実時間ファクタ) 句読点を含めた書き言葉の予測を行うため,表 2 と異なり,句読点も誤り率の算出に用いた. カスケードモデルは, 表 2 の Trasnformer 音声認識と SST の組み合わせの結果と同一である. Transformer に基づくダイレクトモデル(“Transformer ダイレクト”)は,初段の音声認識においてマルチスタイルモデルを用いた最良のカスケードモデル (“Transformer カスケード+デコーダマルチスタイル学習”)より,絶対値で 1.4 ポイント低い誤り率を実現した.また,このダイレクトモデルは,カスケードモデルの 2 倍の速度で書き言葉を出力できた。このことから, 4 章の冒頭に述べた性能と速度の両面におけるダイレクトモデルの優位性が確かめられた。 一方,CTC に基づくダイレクトモデル(“CTC ダイレクト”)は,書き言葉ターゲットだけでは 100 エポックまで学習が収束せず,意味のある結果を出力するに至らなかった.この結果から,音声認識に加えて多くの削除・置換・挿入操作を行う必要のある書き言葉予測タスクにおいて, Transformer に基づく seq2seq モデルが CTC に基づくモデルより適していることがわかる。また,このことは,表 1 においてTransformer と CTC モデルが音声認識としてはほぼ同等の性能を示したことと対照的であり,書き言葉予測は通常の音声認識とは明確に異なる性質を持つタスクであることがわかる. ## 5.3 疑似的書き起こしを用いた学習法の効果 次に,書き言葉のダイレクト予測において,疑似的書き起こしを用いた改善手法(4.1.3 節, 4.1.4 節)の評価を行う. 疑似書き起こしを用いたエンコーダのマルチタスク学習(4.1.3 節)(表 3 の“Transformer ダイレクト+エンコーダマルチタスク学習”)では,書き言葉のみを用いて学習したモデル(表 3 の“Transformer ダイレクト”) に比べて, 1.4 ポイントと大幅に誤り率が改善した。また, CTC に基づくダイレクトモデルは, このマルチタスク学習を用いることで学習が収束し, $9.8 \%$ と妥当な性能を示すに至った.たたし,依然マルチタスク学習を用いない Transformer モデルの性能に及ばなかった. また, 表 3 の “単方向型 CTC ダイレクト” および “単方向型 CTC ダイレクト+エンコーダマルチタスク学習” の行に, 4.2 章で提案した音声区分化手法に用いるオンライン CTC モデルの書き言葉予測性能を示す。表からわかるように,このオンラインモデルも, エンコーダのマルチタスク学習により初めて収束した. これらの結果から, 音声に忠実なラべルを併用することが,書き言葉予測性能の改善において非常に重要な役割を果たすことがわかる。また,人手による正解ラベルでなく,統計的機械翻訳に基づいて自動生成されたラベルによりこれらの大幅な改善が得られたことは, 特に重要な点である. このマルチタスク学習におけるターゲットラベルの種類の影響を表 4 に示す. ターゲットとして疑似書き起こしを用いる提案法において, サブワードレベルのラベルを用いるより文字ラベルを用いる方が有意に性能が高かった. これは, クラスあたりの学習事例数が多いトークンを用いることで,マルチタスク学習の効率が改善されたためと考えられる。また,サブタスクのターゲットとして書き言葉を用いたとき,性能はむしろ大幅に低下した. このことは, CTC に基づくダイレクトモデルが書き言葉ターゲットのみでは収束しなかった結果と併せて, CTC 損失関数が書き言葉のようなターゲットを扱うのに適さないことを示している. この結果から, ダイレクト書き言葉予測において, 単に CTCによるマルチタスク学習 (Karita et al. 2019a) が有効なのではなく, 音声に忠実なラベルを用いることが性能改善にとって本質的であったことがわかる. 次に,デコーダのマルチスタイル学習(4.1.4 節)の効果を評価する。デコーダのターゲットとして疑似書き起こしと書き言葉ターゲットを確率的に併用したマルチスタイル学習により,絶対値で 1.4 ポイントの改善が得られた(表 3 の“Transformer ダイレクト+デコーダマルチスタイル学習”)。さらに, エンコーダのマルチタスク学習とデコーダのマルチスタイル学習を同 表 4 マルチタスク学習におけるサブタスク・ターゲットの影響(数値は会議録に対する文字誤り率 $(\%)$ ) Recognition result <spoken>青年や女性もですねまあ担い手えーとこのなつてんですかねこう重複する部分もあるわけですね当然のことながら <eos> <written> 青年や女性も、担い手と重複する部分もある 図 6 マルチスタイルモデルの出力とデコーダ最上層のアテンション重みの例. 左が < spoken>文頭タグで条件づけた忠実な音声認識出力.右が<written>文頭夕グを用いた書き言葉出力. 正解は,忠実な書き起こしが「青年や女性もですね担い手えーとこのなんていうんですかねこう重複する部分もあるわけですね当然のことながら」,会議録が「青年や女性も担い手と重複する部分もあるわけですね、当然のことながら。」 時に用いることで,誤り率はさらに 0.4 ポイント減少した(表 3 の “Transformer ダイレクト +両方”). 書き言葉予測におけるダイレクトモデルの振る舞いを理解するために,マルチスタイルモデルにおいて<spoken>文頭タグを与えて $\mathrm{e} 2 \mathrm{e}$ 音声認識モデルとして動作したときと, <written> タグを与えてダイレクト書き言葉予測モデルとして動作したときのデコーダ最上層のクロスアテンション重みの例を図 6 に示す。右列のアテンション重みを見ると, 100 から 200 フレームあたり8までの「ですねまあ」,400 フレームから 520 フレーム辺りまでの「この何て言うんですかね」の二つの非流暢な領域を適切にスキップしている様子がわかる。また,それらに囲まれた助詞「と」,および「担い手」を正しく出力した。 ## 5.4 言語モデル統合の効果 $\mathrm{e} 2 \mathrm{e}$ 音声認識では,大規模な言語資源を用いて構築したニューラル言語モデルを推論時に統合する shallowfusion (Gulcehre et al. 2015; Chorowski and Jaitly 2017) などの外部言語モデル統合が広く精度改善のために用いられる。書き言葉のダイレクト生成においても,会議録テキストはペアデータよりはるかに容易に入手できるため,大規模な書き言葉言語モデルが構  築可能である。本節では,2006 年度から 2015 年度までの会議録テキスト(28M 単語)を用いた外部言語モデルの効果を,カスケードモデルとダイレクトモデルにおいて評価する。統合手法には shallow fusionを用いた。言語モデルは 12 層の Transformer を用いて実装した。ヘッド数 $h$, 出力次元数 $d_{\text {model }}$, FFN の中間ノード数 $d_{f f}$ は, それぞれ $h=4, \quad d_{\text {model }}=256$, $d_{f f}=2,408$ とした. 各デコーディングステップ $l$ における統合スコアは,スタイル変換モデルあるいはダイレクトモデルの出力確率 $p_{a m}$ と言語モデルの出力 $p_{l m}$, および言語重み $\lambda$ 用いて, $\log p\left(y_{l} \mid \boldsymbol{X}, y_{1}, y_{2}, \ldots, y_{l-1}\right)+\lambda \log p_{l m}\left(y_{l} \mid y_{1}, y_{2}, \ldots, y_{l-1}\right)$ と計算した. カスケードモデルとダイレクトモデルに言語モデル統合を用いたときの会議録に対する誤り率を表 3 の “外部言語モデル統合”の行に示す. 大規模言語モデルの統合は, カスケードモデルでは効果がなく, ダイレクトモデルでは挿入誤りが有意に増え,むしろ精度の低下をもたらした。書き言葉予測は音声に忠実でないラべルの出力も行うように学習されるが,外部言語モデルを用いることでより音声と無関係な不適切なラベルの挿入が促進された可能性がある. ## 5.5 句読点を考慮した音声区分化の効果 句読点を手がかりとした音声区分化手法(4.2 章)を評価する。区分化の基準としては,連続ブランクとして検出されたポーズと句読点が共起したときに分割する手法(提案法), ポーズと文末シンボル (<eos>) が共起したときに分割する手法, ポーズのみを用いる手法の 3 つを比較する. Algorithm1 において,ポーズ検出に用いる連続 blank 数のしきい值 $\left(N_{\text {blank }}\right)$ を変化させたときの開発セットに対する誤り率の推移を図 7 に示す. マージン $T_{\text {margin }}$ は各しきい値で別途調整した ${ }^{9}$ .各データ点の近傍に各手法としきい値の組み合わせで生成されたセグメントの数を併せて示す。なお, 書き言葉予測には, 共通してエンコーダマルチタスク学習で構築した Transformerを用いて行った. この結果から,句読点を手がかりに区分化を行う提案法が,ブランク数 15 程度まで安定して高い精度を与えることがわかる。ポーズのみに基づく手法は,提案法より全体に誤り率が高く, またしきい值依存性も高かった. 提案法が最も低い誤り率を与えた設定 $\left(N_{\text {blank }}=10\right)$ では, 音声は 1,228 のセグメントに分割されたが,ポーズに基づく手法では, $N_{\text {blank }}=25$ でこれと同程度のセグメント数となった. しかし, 誤り率の比較では, 後者は $15.7 \%$ と大幅に提案法 $(7.3 \%)$ を上回った。 セグメント長の標準偏差は, 前者で 4.95 秒であったのに対して, 後者で 7.06 秒となり,分割されたセグメント長に大きなばらつきがあった。また,文末シンボル<eos>を用いた手法は, 文や話者の境界とは無関係に,一貫して 20 から 25 秒程度の長いセグメントを生成する傾向があり,学習データ中にこれらの長さのセグメントがほとんど出現しないため, 性能も低かった。 ^{9} N_{\text {blank }}=5,10,15,20,25$ に対して,それぞれ $T_{\text {margin }}=20,30,40,40,40$ を用いた。ただし, $T_{\text {margin }}$ の影響は全体に軽微であった。 } 図 $7 \mathrm{CTC}$ に基づく区分化手法におけるポーズ検出のためのブランク数のしきい值の影響(数値は開発セットに対する書き言葉生成精度 (\%),各データ点に生成されたセグメント数を付す.) 次に,学習・評価データに対する区分化手法の組み合わせについて評価を行った。ポーズに基づく手法には, 学習・評価データとも, Julius のショートポーズセグメンテーションアルゴリズムを用いた。しきい值は音声認識で一般に用いられる $200 \mathrm{~ms}$ とした. 句読点に基づく手法としては,学習データでは,ショートポーズセグメンテーションで得られたセグメント境界時刻のうち,会議録とのアライメントで句読点に対応付けられた時刻でのみ,区分化を行った ${ }^{10}$.評価データは CTC セグメンテーション手法により分割した。 パラメータは, 開発データを用いた図 1 の実験で得られた最適な値を用いた $\left(N_{\text {blank }}=10, \quad T_{\text {margin }}=30\right)$. 表 5 に,学習・評価時における区分化手法の 4 通りの組み合わせに対する評価デー夕の誤り率を示す。学習・評価時のいずれも句読点を考慮することで,いずれもショートポーズで分割したときより絶対値で 1.6 ポイントと大きな改善が見られた,また,学習データをポーズ,評価データを句読点で区分化したとき,脱落誤りが顕著であった.ショートポーズセグメンテー ションではごく短いセグメントの占める割合が高く, 評価時に比較的長いセグメントを正しく認識できなかったためと考えられる. 以上から,ダイレクト書き言葉生成において,句読点検出に基づく区分化手法は,ショート  & \\ 句読点を考慮 $(442,816)$ & 10.2 & $\mathbf{8 . 2}$ \\ 表 5 学習・評価データに対する区分化手法の比較(数値は会議録テキストに対する文字誤り率 (\%), 括弧内は分割後のセグメント数) ポーズよりも一貫して高い性能を与えることがわかった.学習時と評価時の整合性の面でも,句読点という明確で音響環境等の条件に依存しない基準を用いることが重要であると考えられる. なお, 表 3 (“単方向型 CTC ダイレクト+エンコーダマルチタスク学習”) に示すように, 区分化に用いた単方向 CTC 自体の書き言葉予測の性能は, 未来の情報が使えないため, Transformer に基づくその他のモデルに比べて高いとは言えず,特に脱落誤りが多かった.ただし,句読点の適合率のみに注目すると,句点が 0.934 , 読点で 0.811 と高い水準であった. ## 5.6 誤りの分析 本節では,提案システムの出力においてどのような修正がどの程度の達成度で実現できたかを評価する。図 8 に,句読点以外の修正項目について,カスケードモデルおよびダイレクトモデルが正しく行った修正の数と,編集者が行った修正に対する再現率を示す。カスケードモデルにはマルチスタイルモデルとテキストベース SST を組み合わせたモデル(表 3 の“Transformer カスケード+デコーダマルチスタイル学習”)を, ダイレクトモデルはエンコーダマルチタスク学習とデコーダマルチスタイル学習の両方を用いて構築したモデル(表 3 の“Transformer ダイレクト+両方”)を用いた。 削除操作では, 語彙的なフィラーと句末表現の削除は, いずれのモデルも高い再現率を示した.一方,言い直しにおける言い誤り箇所の削除では,カスケードモデルが $52.4 \%$ ,ダイレクトモデルが $79.9 \%$ と, 性能に大きな差が見られた. このことから, 非流暢な言い誤り箇所 (reparundum) の同定に音響的な情報が役に立つこと,その上で単語連接としてより自然な言い直し部分のみが保持されたことが示唆される。また,言い誤りでは認識誤りが多く,カスケードモデルでは後段のSST でリカバーできなかった可能性が高い。“その他の削除”の項目では, どちらのモデルも相対的に性能が低かったが,文脈上不要な主語や指示語の削除など,高度な判断を必要とする例が多いためと考えられる。また,「やはり」など,間投詞以外の用例が多い単語の削除は失敗することが多かった. 置換操作では,助詞の修正や言い誤りの修正は, 非常に低い再現率となった。これらの修正は, 出現頻度も低く, 意味や常識に基づいた修正が必要であるため, seq2seq モデルのみでは原理的に行えない例も多かった。助詞の修正では, 特に「が」から「は」への修正, 「が」から (a) 削除:フィラー (c) 削除:言い誤り (e) 置換:助詞の修正 (g) 置換:語順の入れ替元 (i) 挿入:助詞の復元 (b) 削除:句末表現 (d) 削除 : その他 (f) 置換:口語表現の修正 (h) 置換:言い誤りの修正 (j) 全修正(句読点以外) 図 8 各修正項目においてカスケードモデルおよびダイレクトモデルが正しく行った修正の数と, 編集者が行った修正に対する再現率 「を」への修正において,実際の発音に忠実に認識される誤りが多かった.また,語順の入れ替えについても,ほとんどの例で正しく修正できなかった。音響的な情報を用いないカスケードモデルが,例えば「今審議がなされている」を「審議が今なされている」に,「大きな僕は矛盾だと思います」を「僕は大きな矛盾だと思います」になど,比較的単純な例で正しく修正でき 表 6 句読点挿入の性能 たことから,この項目ではカスケードモデルがダイレクトモデルより高い再現率となった。一方, 口語表現の修正は,「いろんな」から「いろいろな」へ,「やつ」から「もの」へなど, 定型的な言い換えに帰着できる例が多いため, どちらのモデルも非常に高い再現率となった. 挿入操作では, 助詞の挿入は妥当な水準で再現可能であった. カスケードモデルでは, 助詞の脱落の前後で認識誤りが多く, ダイレクトモデルとの性能差が大きかった. 以上のように,ほぼすべての修正項目において, ダイレクトモデルがカスケードモデルより有意に高い性能を示した.特に,言い誤りの削除や助詞の復元などの高度な修正で性能差が大きかった,全体として,ダイレクトモデルは編集者が行った編集作業のうち $80.2 \%$ 再現することができた。 最後に, システム出力における句読点挿入の性能を評価する。表 6 に,カスケードモデルとダイレクトモデルを用いた句読点挿入における再現率,適合率および $\mathrm{F}$ 値を示す。読点挿入の性能では,カスケードモデルとダイレクトモデルの性能差は見られなかった.句点挿入では, ダイレクトモデルが有意に高い性能を示した。これは句点の方がよりポーズとの相関が高いため,音響的な情報が特に有効であったためと考えられる。 図 9 に,人手による書き起こし,会議録,マルチスタイルモデルによる音声認識結果,カスケードモデルおよびダイレクトモデルの出力の例を示す.この例から, 音声認識結果は非常に高い精度であっても文として読みにくく,提案手法により可読性が改善されることが確認できる。また,ダイレクトモデルでは,「これは」における助詞の復元や,「反映されることが」の箇所で言い誤りのみ削除されるなど,高度な修正が正しく行われていることがわかる。一方, 冒頭の「やはり」の削除に失敗するなど,課題も見える。 ## 6 結論 本研究では, 音声から読みやすい書き言葉スタイルの生成を行うタスクにおいて, 音声認識とテキストベースのスタイル変換を組み合わせたカスケード方式の問題を解決するために, e $2 \mathrm{e}$音声翻訳の枠組みを用いて, 音声から書き言葉を直接生成する新しいアプローチを提案した. \\ 図 9 書き起こし, 会議録, システム出力の例 700 時間の大規模な衆議院審議音声を用いた評価実験により,提案法であるダイレクトモデルはカスケード方式より高い精度で会議録文書を再現できることを示し,書き言葉の生成において音響情報を用いること, 初段の音声認識における誤りを回避することの意義を明らかにした. また,非自己回帰型の CTC モデルは音声認識では Transformer と同等の性能を持つ一方,書き言葉のダイレクト予測タスクでは学習が収束せず,意味のある文を出力するに至らないことを実験的に示し,書き言葉予測は音声認識とは明確に異なる難しさのタスクであり, Transformer に基づく柔軟な seq2seq 変換を用いることが必須であることを明らかにした. さらに,学習データの書き言葉(会議録)から自動で近似的な書き起こしを生成する手法と, これを用いてダイレクトモデルの学習を補助する 2 つの手法を提案し, 実験により Transformer に基づくダイレクトモデルの性能をさらに向上できることを示した.会議のような話し言葉コミュニケーションでは,音声検索などのタスクのように明確な発話終端の情報が利用できないことから,書き言葉の句読点情報を用いた新しい音声区分化手法も併せて提案し,ショートポー ズに基づく区分化と比較することで有効性を示した。これらの提案手法による予測結果を編集者が行った修正と比較することにより,提案モデルは編集者による修正の $80 \%$ 以上を再現できること, 特に助詞の復元や言い誤りの除去などの編集においてカスケード方式より大幅に高い性能が得られることを示した。 一方,いくつかの修正項目では低い再現率となったため,これらの改善が課題といえる。意味や常識に基づいて行われる助詞の修正や復元などは, 学習事例数を増やすことや, 大規模言 語モデルに基づくタギング (Malmi et al. 2019) などの事後的な編集で改善できる可能性がある. 欧州議会 (Díaz-Munío et al. 2021) やアイスランド議会 (Steingrímsson et al. 2020)など, 他言語の議会音声コーパスを用いて提案手法の一般性を評価することも重要な課題である。また,講義やプレゼンテーション (Maekawa 2003) など, 自動整形の潜在的な需要のあるタスクは多いが,これらのデータでは通常大規模かつ信頼度の高い書き言葉のアノテーションは利用できないため, 国会会議録を用いて学習したダイレクト整形文予測モデルのドメイン適応や転移学習も今後検討すべき方向性の一つである. ## 参考文献 Akita, Y. and Kawahara, T. (2007). "Topic-independent Speaking-style Transformation of Language Model for Spontaneous Speech Recognition." In ICASSP, Vol. 4, pp. 33-36. Akita, Y. and Kawahara, T. (2011). "Automatic Comma Insertion of Lecture Transcripts Based on Multiple Annotations." In INTERSPEECH, pp. 2889-2892. Akita, Y., Mimura, M., and Kawahara, T. (2009). "Automatic Transcription System for Meetings of the Japanese National Congress." In INTERSPEECH, pp. 84-87. 秋田祐哉, 三村正人, 河原達也 (2010). 会議録作成支援のための国会審議の音声認識システ么. 電子情報通信学会論文誌, J93-D 巻, pp. 1736-1744. [Y. Akita et al. (2010). Automatic Transcription System for Creation of Meeting Records in the National Diet. The IEICE Transactions, J93-D, pp. 1736-1744.]. Audhkhasi, K., Ramabhadran, B., Saon, G., Picheny, M., and Nahamoo, D. (2017). "Direct Acoustics-to-Word Models for English Conversational Speech Recognition." In INTERSPEECH, pp. 959-963. Baevski, A., Zhou, Y., Mohamed, A., and Auli, M. (2020). "wav2vec 2.0: A Framework for Self-Supervised Learning of Speech Representations." In Advances in Neural Information Processing Systems, Vol. 33, pp. 12449-12460. Curran Associates, Inc. Bentivogli, L., Cettolo, M., Gaido, M., Karakanta, A., Martinelli, A., Negri, M., and Turchi, M. (2021). "Cascade versus Direct Speech Translation: Do the Differences Still Make a Difference?" In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing, Vol. 1, pp. 2873-2887. Bérard, A., Besacier, L., Kocabiyikoglu, A. C., and Pietquin, O. (2018). "End-to-End Automatic Speech Translation of Audiobooks." In ICASSP, pp. 6224-6228. Chang, S.-Y., Prabhavalkar, R., He, Y., Sainath, T. N., and Simko, G. (2019). "Joint Endpointing and Decoding with End-to-End Models." In ICASSP, pp. 5626-5630. Chiu, C.-C., Han, W., Zhang, Y., Pang, R., Kishchenko, S., Nguyen, P., Narayanan, A., Liao, H., Zhang, S., Kannan, A., Prabhavalkar, R., Chen, Z., Sainath, T., and Wu, Y. (2019). "A Comparison of End-to-End Models for Long-form Speech Recognition.” In $A S R U$, pp. 889-896. Chorowski, J. and Jaitly, N. (2017). "Towards Better Decoding and Language Model Integration in Sequence to Sequence Models." In INTERSPEECH, pp. 523-527. Díaz-Munío, G. V. G., Silvestre-Cerdà, J.-A., Jorge, J., Pastor, A. G., Iranzo-Sánchez, J., Baquero-Arnal, P., Roselló, N., de Martos, A. P.-G., Civera, J., Sanchis, A., and Juan, A. (2021). "Europarl-ASR: A Large Corpus of Parliamentary Debates for Streaming ASR Benchmarking and Speech Data Filtering/Verbatimization." In INTERSPEECH, pp. 2695-2699. Dong, L., Xu, S., and Xu, B. (2018). "Speech-Transformer: A No-Recurrence Sequence-toSequence Model for Speech Recognition." In ICASSP, pp. 5884-5888. Gravano, A., Jansche, M., and Bacchiani, M. (2009). "Restoring Punctuation and Capitalization in Transcribed Speech." In Proc. ICASSP, pp. 4741-4744. Graves, A. (2012). "Sequence Transduction with Recurrent Neural Networks." In LCML, pp. 4945-4949. Graves, A., Fernandez, S., Gomez, F., and Schmidhuber, J. (2006). "Connectionist Temporal Classification : Labelling Unsegmented Sequence Data with Recurrent Neural Networks." In Proceedings of the 23st International Conference on Machine Learning, pp. 369-376. Gulcehre, C., Firat, O., Xu, K., Cho, K., Barrault, L., Lin, H.-C., Bougares, F., Schwenk, H., and Bengio, Y. (2015). "On Using Monolingual Corpora in Neural Machine Translation." arXiv preprint arXiv:1503.03535. Higuchi, Y., Karube, K., Ogawa, T., and Kobayashi, T. (2022). "Hierarchical Conditional Endto-End ASR with CTC and Multi-granular Subword Units." In ICASSP, pp. 7797-7801. Hinton, G., Deng, L., Yu, D., Dahl, G., Mohamed, A., Jaitly, N., Senior, A., Vanhoucke, V., Nguyen, P., Sainath, T., and Kingsbury, B. (2012). "Deep Neural Networks for Acoustic Modeling in Speech Recognition." IEEE Signal Processing Magazine, 29 (6), pp. 82-97. Hori, T., Willett, D., and Minami, Y. (2013). "Paraphrasing Spontaneous Speech using Weighted Finite-state Transducers." In ISCA 8 IEEE Workshop on Spontaneous Speech Processing and Recognition, pp. 219-222. Jones, D., Wolf, F., Gibson, E., Williams, E., Fedorenko, E., Reynolds, D., and Zissman, M. (2003). "Measuring the Readability of Automatic Speech-to-Text Transcripts." In Eurospeech, pp. 1585-1588. Karita, S., Chen, N., Hayashi, T., Hori, T., Inaguma, H., Jiang, Z., Someki, M., Enrique, N., Soplin, Y., Yamamoto, R., Wang, X., Watanabe, S., Yoshimura, T., and Zhang, W. (2019a). "A Comparative Study on Transformer vs RNN in Speech Applications." In $A S R U$, pp. 449-456. Karita, S., Soplin, N. E. Y., Watanabe, S., Delcroix, M., Ogawa, A., and Nakatani, T. (2019b). "Improving Transformer-Based End-to-End Speech Recognition with Connectionist Temporal Classification and Language Model Integration." In INTERSPEECH, pp. 1408-1412. Kawahara, T. (2012). "Transcription System using Automatic Speech Recognition for the Japanese Parliament (Diet)." In AAAI/IAAI, pp. 2224-2228. Kawahara, T. (2021). "Captioning Software using Automatic Speech Recognition for Online Lectures." The Journal of Professional Reporting and Transcription (Tiro), No. 1. Kim, S., Hori, T., and Watanabe, S. (2017). "Joint CTC-Attention based End-to-End Speech Recognition using Multi-task Learning." In ICASSP, pp. 4835-4839. Kingma, D. P. and Ba, J. (2015). "Adam: A Method for Stochastic Optimization." In ICLR. Kudo, T. and Richardson, J. (2018). "SentencePiece: A Simple and Language Independent Subword Tokenizer and Detokenizer for Neural Text Processing." In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, Vol. 1, pp. 66-71. Lamel, L., Gauvain, J., and Adda, G. (2001). "Investigating Lightly Supervised Acoustic Model Training." In ICASSP, Vol. 1, pp. 477-480. LeCun, Y. and Bengio, Y. (1995). "Convolutional Networks for Images, Speech, and Time-series." In Arbib, M. A. (Ed.), The Handbook of Brain Theory and Neural Networks. Cambridge, MA, USA: MIT Press,. Lee, A., Kawahara, T., and Shikano, K. (2001). "Julius: An Open Source Real-Time Large Vocabulary Recognition Engine." In EUROSPEECH, pp. 1691-1694. Liu, Y., Shriberg, E., Stolcke, A., Hillard, D., Ostendorf, M., and Harper, M. (2006). "Enriching Speech Recognition with Automatic detection of Sentence Boundaries and Disfluencies." IEEE Transactions on Audio, Speech $\mathcal{B}$ Language Processing., 14, pp. 1526-1540. Maekawa, K. (2003). "Corpus of Spontaneous Japanese: Its Design and Evaluation." In Proceedings of ISCA 8 IEEE Workshop on Spontaneous Speech Processing and Recognition, pp. $7-12$. Mahadeokar, J., Shangguan, Y., Le, D., Keren, G., Su, H., Le, T., Yeh, C.-F., Fuegen, C., and Seltzer, M. L. (2021). "Alignment Restricted Streaming Recurrent Neural Network Transducer." In $S L T$, pp. 52-59. Malmi, E., Krause, S., Rothe, S., Mirylenka, D., and Severyn, A. (2019). "Encode, Tag, Realize: High-Precision Text Editing." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 5054-5065. McDermott, E., Sak, H., and Variani, E. (2019). "A Density Ratio Approach to Language Model Fusion in End-to-End Automatic Speech Recognition." In $A S R U$, pp. 434-441. Mohamed, A., Dahl, G., and Hinton, G. (2012). "Acoustic Modelling using Deep Belief Networks." IEEE Transactions on Audio, Speech, 86 Language Processing., 20 (1), pp. 14-22. Nair, V. and Hinton, G. E. (2010). "Rectified Linear Units Improve Restricted Boltzmann Machines." In Proceedings of ICML, pp. 807-814. Neubig, G., Akita, Y., Mori, S., and Kawahara, T. (2012). "A Monotonic Statistical Machine Translation Approach to Speaking Style Transformation." In Computer Speech and Language, Vol. 26, pp. 349-370. Pan, J., Lei, T., Kim, K., Han, K., and Watanabe, S. (2022). "SRU++: Pioneering Fast Recurrence with Attention for Speech Recognition." In ICASSP, pp. 7872-7876. Park, D. S., Zhang, Y., Chiu, C.-C., Chen, Y., Li, B., Chan, W., Le, Q. V., and Wu, Y. (2020). "Specaugment on Large Scale Datasets." In ICASSP, pp. 6879-6883. Paulik, M., Rao, S., Lane, I., Vogel, S., and Schultz, T. (2008). "Sentence Segmentation and Punctuation Recovery for Spoken Language Translation." In ICASSP, pp. 5105-5108. Povey, D., Ghoshal, A., Boulianne, G., Burget, L., Glembek, O., Goel, N., Hannemann, M., Motlicek, P., Qian, Y., Schwarz, P., Silovsky, J., Stemmer, G., and Vesely, K. (2011). "The Kaldi speech recognition toolkit." In Proc. $A S R U$, pp. 1-4. Sanabria, R. and Metze, F. (2018). "Hierarchical Multitask Learning With CTC." In SLT, pp. 485-490. Sennrich, R., Haddow, B., and Birch, A. (2016). "Neural Machine Translation of Rare Words with Subword Units." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, Vol. 1, pp. 1715-1725. Shitaoka, K., Nanjo, H., and Kawahara, T. (2004). "Automatic transformation of lecture transcription into document style using statistical framework." In INTERSPEECH, pp. 2169-2172. Soltau, H., Liao, H., and Sak, H. (2017). "Neural speech recognizer: Acoustic-to-word LSTM model for large vocabulary speech recognition." In Interspeech, pp. 3707-3711. Sproat, R. and Jaitly, N. (2017). "An RNN Model of Text Normalization." In Interspeech, pp. 754-757. Steingrímsson, S., Barkarson, S., and Örnólfsson, G. T. (2020). "IGC-Parl: Icelandic Corpus of Parliamentary Proceedings." In $L R E C$, pp. 11-17. Ueno, S., Inaguma, H., Mimura, M., and Kawahara, T. (2018). "Acoustic-to-word Attentionbased Model Complemented with Character-Level CTC-based Model." In ICASSP, pp. $5804-5808$. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., and Polosukhin, I. (2017). "Attention Is All You Need." In 31st Conference on Neural Information Processing Systems (NIPS 2017), Vol. 30, pp. 6000-6010. Watanabe, S., Hori, T., and Hershey, J. R. (2017). "Language Independent End-to-End Architecture for Joint Language Identification and Speech Recognition." In $A S R U$, pp. 265-271. Weiss, R. J., Chorowski, J., Jaitly, N., Wu, Y., and Chen, Z. (2017). "Sequence-to-Sequence Models Can Directly Translate Foreign Speech." In Interspeech, pp. 2625-2629. Yeh, J. and Wu, C. (2006). "Edit Disfluency Detection and Correction using a Cleanup Language Model and an Alignment Model." IEEE Transactions on Audio, Speech 8 Language Processing, 14, pp. 1574-1583. Yoshimura, T., Hayashi, T., Takeda, K., and Watanabe, S. (2020). "End-to-End Automatic Speech Recognition Integrated with CTC-Based Voice Activity Detection." In ICASSP, pp. 6999-7003. ## 略歴 三村正人:2000 年京都大学大学院情報学研究科修士課程修了. 2022 年同博士 課程修了. 現在, 京都大学情報学研究科特定研究員. IEEE, 日本音響学会各会員. 河原達也:1987 年京都大学工学部情報工学科卒業. 1989 年同大学修士課程終 了. 京都大学工学部助手, 同助教授, 学術メディアセンター教授を経て, 現在, 情報学研究科教授. 音声情報処理, 特に音声認識及び対話システムに関する研究に従事.博士(工学).IEEE Fellow, ISCA,APSIPA 各理事. 情報処理学会, 日本音響学会, 電子情報通信学会, 人工知能学会, 言語処理学会各会員.日本学術会議連携会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 共同作業を行う対話における共通基盤構築過程の記録と分析 共通基盤を構築可能な対話システムを実現するためには,対話において共通基盤が 構築される過程を明らかにすることが重要である.しかしながら, 既存研究では対話の結果得られる最終的な成果物のみを共通基盤と関連付けて分析しており, 共通基盤が構築される過程は明らかにされていない。本研究では, 共同作業を行う対話 において,共通基盤構築の過程を明らかにすることを目指し,デー夕収集手法を提案する。具体的には,課題の中間結果をその時点における共通基盤に相当するもの として,自動的に記録するデータ収集手法を提案する。提案手法を用いて 984 対話 を収集し, 共通基盤構築の過程を定量的に調查した結果,共通基盤の構築過程にい くつかのパタンが見られた。また,共感や同意,ポジティブな表現を通じて自身の 理解を伝える発話が出現している場合, 共通基盤が構築されている傾向にあると考 えられる。 さらに,対話中の共通基盤構築の度合いを対話や課題の内容から推定す る実験を行い,双方の内容が推定に有用なことを示した。 キーワード:対話システム,コーパス構築,共通基盤,共同作業 ## Recording and Analyzing the Process of Building Common Ground in Dialogues in a Collaborative Task \author{ Кон Mitsuda $^{\dagger}$, Ryuichiro Higashinaka ${ }^{\dagger}$, Yuhei Oga $^{\dagger}$ and Sen Yoshida ${ }^{\dagger, \dagger \dagger \dagger}$ } To develop a dialogue system that can build common ground with users, the process of building common ground through dialogue needs to be clarified. However, the studies on the process of building common ground have not been well conducted; much work has focused on the final task results as common ground in which users perform a collaborative task. In this study, to clarify the process of building common ground in the dialogue where workers collaboratively perform a given task, we propose a data collection method for automatically recording the process of building common ground through a dialogue by using the intermediate result of a task. We analyzed 984 dialogues, and the result of investigating the process of building common ground suggests that several typical patterns can exist in that process and that common ground tends to be built if each worker's understanding is conveyed through the  affirmation of a counterpart's utterances. In addition, toward dialogue systems that can build common ground with users, we conducted an automatic estimation of the degree of built common ground and found that its degree can be estimated with a dialogue and intermediate task result. Key Words: Dialogue System, Data Collection, Common Ground, Collaborative Task ## 1 はじめに 対話において,対話の参加者の間で共有される知識や信念の情報を共通基盤(または相互信念)と呼ぶ (Clark and Schaefer 1989; Traum 1994; Kopp and Kramer 2021). 複雑な内容を伴う対話は,その内容の理解を積み上げていく必要があるため, ユーザとの高度な対話(例えば,教育,議論,交涉などを目的とする対話)が可能なシステムを実現するためには,対話を通じてユーザとともに共通基盤を構築していき,それに基いて対話を行うモデルを確立することが望ましい.対話をモデル化する上で,共通基盤は重要な概念の一つとされてきたが,共通基盤が構築される過程を分析した研究は少なく, その過程は明らかではない (中野 2019). 共通基盤を扱った従来の研究では,話者が対話を通じて共同作業を行う課題を設定し,対話や課題に関する情報を記録,分析するというアプローチが取られてきた (Benotti and Blackburn 2021; Chandu et al. 2021). 課題の達成には作業者間で共通基盤を構築する必要があることから, 課題の最終的な結果を共通基盤と関連付けて分析することで,対話と共通基盤の関係性が分析されている (Anderson et al. 1991; Foster et al. 2008; He et al. 2017). そのため, 対話を通じてどのように共通基盤が構築されるかという過程そのものに関する研究は,いくつかの例外を除き行われてきていない。例外として, Udagawa and Aizawa (2019) は, 共通基盤の構築過程を分析するために,課題に関するオブジェクト,および,対話中に出現する参照表現を人手で結び付けたデータを作成し,参照表現からオブジェクトを推定する研究を行った。また, Bara et al. (2021)は, 仮想空間上で話者が対話を通じて共同作業を行う課題において,対話相手の信念や行動についてどの程度理解しているかを問う質問をリアルタイムに話者に回答させることで,対話中の共通基盤を記録している。これらの研究では,対話中の共通基盤を手作業で記録する必要があり, 高いコストがかかる,また,分析可能な情報は,あらかじめ定義された参照表現や質問の内容に限定される. 本論文では, 共同作業を行う対話を対象とし, 課題の中間結果を構築中の共通基盤に相当するものとして自動的に記録することで,共通基盤構築の過程を分析する手法を提案する.課題の中間結果をその時点における共通基盤に相当するものとして記録することで,共通基盤が記録された対話を低いコストで収集でき,対話の各段階における各話者の信念やその共通部分である共通基盤を分析することが可能になる。このために,2 名の作業者がテキストチャットを 用いて,ランダムに配置されたオブジェクトを共通のレイアウトに配置する課題, 共同図形配置課題(図 1)を設定した。本課題において,2 名の作業者が作成したレイアウトを各作業者の信念とみなし,それらの類似度を利用することで,対話を通じて構築される共通基盤を定量化することが可能である。 共同図形配置課題を用いて 984 対話を収集し,共通基盤構築の過程を調査した結果,共通基盤の構築過程にいくつかのパタンが見られ,また,対話相手の発話を肯定したり,話者自信の理解を相手に伝えたりする表現が出現している場合,共通基盤が構築できている傾向にあると考えられる,さらに,共通基盤を構築可能な対話システムの実現に向けて,対話の各段階における共通基盤構築の度合いを推定する実験を実施した結果,対話とレイアウトの双方の情報が推定に有用であることが明らかになった. 本論文の貢献は以下の 3 点である. (1)対話中の共通基盤を自動的に記録する手法を提案した。提案手法を利用することで,人手によるアノテーションやアンケートへの回答を経ることなく共通基盤が構築される過程を記録することが可能となる。また,提案する共同図形配置課題の対話を 984 対話収集した共同図形配置コーパスを構築した。 (2)共通基盤構築の過程を初めて定量的に明らかにした。具体的には,共通基盤構築の過程が複数の典型的なクラスタに分けることができ,また,対話中に肯定的な評価や共感を示す発話が出現している場合,共通基盤が構築できている傾向にあると考えられる. (3)共通基盤を構築可能な対話システムの実現に向けて,共通基盤構築の度合いを対話と課題の内容から推定する実験を行い,その双方の内容が推定に有用であることを示した.本研究で提案する共同図形配置課題は,共通基盤を記録することを目的として設計されており, その対話の内容は一般的な対話と比較して限定的である。しかしながら, 我々の知る限り, 共通基盤構築の過程を定量化した試みは本研究が初めてである。共通基盤の構築過程は,相互理 図 1 本研究で提案する共同図形配置課題. 各作業者は自身の図形配置しか参照することができず,相手の図形配置は参照することはできない. 解を必要とするあらゆる対話に現れうるため, 本研究の知見は共通基盤を扱う対話システムの研究一般において有用だと考えている. ## 2 関連研究 共通基盤の研究はこれまで,主に話者間で共通基盤構築を必要とする特定の課題を対象に,人対人の対話を分析することで扱われてきた (Benotti and Blackburn 2021; Chandu et al. 2021).共通基盤構築の成否は課題の最終結果に基づいて定義され, 課題達成に成功した場合, 対話を通じて共通基盤が適切に構築されたとみなされる。初期の研究では, 具体的な課題として, 地図を用いて経路の伝達やオブジェクトの操作を行う課題 (Anderson et al. 1991; Carletta et al. 1991; Bard et al. 2000; Denis and Striegnitz 2012) や, 二次元平面上に配置されたパズルを解く課題 (Clark and Wilkes-Gibbs 1986; Foster et al. 2008; Spanger et al. 2009; Tokunaga et al. 2012) が提案されてきた. また, 共通基盤は, 対話研究における基盤化のモデルの中でも扱われてきた.代表的なものとして, 対話を通じた基盤化の過程をグラフ (Clark and Schaefer 1989) やオートマトン (Traum 1994)として表現するモデルが存在する. これらは本研究と同様対話の基盤化の過程に着目しており, 先行研究とみなせる. 本研究は共通基盤の構築度合いの定量化しており,従来のモデルと組み合わせることで, これらのモデルの検証につながる可能性がある. 近年は,共通基盤を対象とした研究において,与えられた環境の中で話者が特定のオブジェクトを見つけたり,作成したりするという課題が数多く提案されている.話者に与える環境として,例えば,テキスト (He et al. 2017; Lewis et al. 2017; Gero et al. 2020), 画像 (Liu et al. 2012; de Vries et al. 2017; Kim et al. 2019; Udagawa and Aizawa 2019), 仮想空間 (Polyak and Davier 2017; Ilinykh et al. 2019; Hahn et al. 2020; Jayannavar et al. 2020), 現実空間 (Liu et al. 2016)を扱う課題が提案されている。 また,人対システムの対話ではあるものの,もう一つの主要な研究分野として, 実空間でロボットを操作することを目的として, 入力されたユーザ発話を現実空間のオブジェクトに関連付ける研究 (Moratz and Tenbrink 2006; Hough and Schlangen 2017; Chai et al. 2017; Van Waveren et al. 2019) も取り組まれている. これらの研究では, 主に対話と課題の最終結果に基づいて, 対話と共通基盤の関係が分析されている. なぜならば, これらの研究は, 対話を通じて課題を成功させるために, どのような対話現象が生じているかを明らかにしたり, その対話現象に基づき課題を自動的に達成するシステムを構築することを目的としているからである. しかしながら, 先行研究の枠組みでは共通基盤構築の過程を記録することはできないため, 共通基盤が構築される過程の分析が難しいという問題がある. 我々の研究は共通基盤構築の過程を記録することを試みるものであり, 同様の目的で設計された課題である OneCommon (Udagawa and Aizawa 2019, 2020), および, MindCraft (Bara et al. 2021) との関連が深い. OneCommon (Udagawa and Aizawa 2019)は, 複数の点(ドット)がラ ンダムな位置,大きさ,色で配置された二次元平面の画像が与えられた状況で,二名の作業者が共通の点を選択する課題である。二名の作業者には,二次元平面に関して,作業者間でわずかに異なる領域が与えられ,テキストチャットを通じて共通のドットを 1 つ選択する。作業者間で選択されたドットが同じであれば,課題は成功となる。このとき,作業者間で参照表現等の多様な言語表現を利用しつつ共通のドットを探す過程は, 共通基盤の構築過程とみなすことができる。そのため,ドットへの参照表現が人手でアノテーションされている (Udagawa and Aizawa 2020). また, MindCraft (Bara et al. 2021) は, ビデオゲームの Minecraft ${ }^{1}$ において, 二名の話者(プレイヤ)がそれぞれ異なる知識とスキルを与えられた状況で,協力して特定の才ブジェクトを作成する課題である。課題を進める間,75秒ごとにプレイヤが共通基盤に関する所定の質問(例えば,「あなたの相手は今,何を作っていると思いますか?」という質問)に回答することで,共通基盤が構築される過程を記録している.我々の研究はこれらの研究と類似するものの,共通基盤を自動的に記録することが可能であるという点において異なる.共通基盤を自動的に記録することで,データ収集のコストを削減することができ,かつ,共通基盤に関する情報が対話の各時点について得られるため, 収集されたデー夕と対話を紐づけることで,共通基盤の構築過程を扱う研究の可能性を大きく広げると考えられる. ## 3 共同図形配置コーパスの構築 本節では,まず,共通基盤構築の過程を記録するための課題として必要な要件を述べる,次に, 要件に基づき設定した共同図形配置課題の定義を述べた後, 本研究で実施した対話デー夕収集について述べる。 ## 3.1 課題設定のための要件 特定の課題を通じて共通基盤構築の過程を記録するため,まず,課題の要件を設定した。この要件の設定には, OneCommon (Udagawa and Aizawa 2019) で述べられている課題の要件を参考にした。具体的には, OneCommonでは要件として,課題の中に continuous な(連続性のある)要素,および, partially-observableな(部分的可観測性のある)要素を含めている. continuous な要素とは,課題に関して,離散的な情報(例えば,有限の候補からなるラベル集合)ではなく,画像のような連続的な情報が含まれることを意味する。連続的な情報は離散的な情報と異なり,その情報を対話の中で端的に表現することが難しいため,作業者には複数の発話を通じて情報をやり取りする必要が生じる。また, partially-observableな要素とは,課題の初期状態において,作業者間で課題に関する部分的な情報のみが共有されることを意味する。このような  状況では,作業者は対話を通じて自身の情報を相手に共有する必要が生じる. OneCommon で提案されている要件に加え, 本研究で扱う課題には新たに二つの要件を追加した. 第一の要件は, 課題が達成されるまでに, 作業者が一回の操作ではなく, 複数回の操作を行う必要があるというものである。本要件を導入することで, 操作結果, すなわち, 課題の結果が複数段階に分割され,課題の中間結果をその時点における共通基盤に相当するものとして記録することが可能になる。第二の要件は,構築される共通基盤を定量化するために,課題の中間結果はその進渉が定量化可能であるというものである。本要件を導入することで,対話の各段階における共通基盤を定量的に扱うことが可能になる. ## 3.2 共同図形配置課題 図 1 に,テキストチャットを通じて,同じ図形の集合を共通のレイアウトに配置する課題(共同図形配置課題)の概要を示す。作業者には初期配置として,作業者ごとに図形がランダムに配置されているレイアウトが与えられる。このレイアウトは, 各作業者の課題に関する信念とみなされる。作業者はテキストチャットを通じて, 最終的なレイアウトの目標を議論しながら,一つずつ順に図形を共通の位置に配置していくことで,共通基盤となる共通のレイアウトを作成する。このとき,課題の制限として,作業者は自身のレイアウトしか見ることができない。そのため,相手のレイアウトを想像しながら,自身の図形を配置する必要がある. 図 2 に,共同図形配置課題の対話を収集するためのインタフェース(二名の作業者 $\mathrm{A}$ と $\mathrm{B}$ それぞれに提示される画面)を示す.インタフェースは作業の開始と終了のボタン,カウント 図 2 共同図形配置課題の対話を収集するためのインターフェース. 図には 1 名の作業者に提示されるインターフェイスを示している,各作業者は,共通のチャット画面,および,自身の図形配置画面を見ることができるが,相手の図形配置画面を見ることはできない. ダウンタイマ, 図形配置画面, チャット画面 (メッセージ入力ボックスとメッセージ送信ボタンを含む)から構成されている。作業開始時,図形配置画面には作業者ごとにランダムに配置された図形が表示されている。作業者は図形配置画面の中で,マウスを利用して図形を操作することで共通のレイアウトを作成する。図形の操作としては平行移動のみが許容されており,図形の削除,回転,拡大,縮小はできない,このとき,インタフェースは作業者が図形を移動する際の全てのマウス操作(ドラッグ\&ドロップ)を,座標,夕イムスタンプと共に操作ログとして自動的に記録する。作業者は対話中にいつでもレイアウトを操作可能であり,インタフェースはその操作結果とタイムスタンプを全て記録する。作業者は自身の図形配置画面しか見ることができないが,チャット画面については作業者間で共通の内容のものを見ることができる.作業が進み,チャットを通じて作業者の間で配置が同一になったと作業者が判断した場合,作業者は終了ボタンを押し課題を終了する。または,課題開始から 10 分が経過したとき,課題は終了となる. 図 3 に,共同図形配置課題で配置の対象となる二種類の図形集合(単純図形と建物図形)を示す. 図中の左側は単純図形を表し,右側は建物図形を表す。単純図形は 10 個の基本図形(例えば,四角形や円形)から構成されており,建物図形は 10 個の建物アイコン(例えば,バーや警察)から構成されている,単純図形には Microsoft PowerPoint ${ }^{2}$ に登録されている図形を利用し,建物図形には建物を端的に表す白黒のアイコンセット3を利用した。建物図形は単純図形と異なり,作業者が図形に関する前提知識を利用することができる(例えば,前提知識に基づき配置方針を伝える発話として,「安心してバーに行けるよう,近くに警察を配置しよう」という発話が考えられる),単純図形と建物図形という二種類の異なる性質の図形を配置対象のオブジェクトとすることで,収集対象の対話が特定の種別のオブジェクトのみを扱う対話にならないよう配慮している。これらの図形集合を用いて,図形配置画面に表示する図形の個数を 5 個または 7 個とし,重複ありでランダムな大きさ,位置に設定することで初期配置を作成した 4 . 図 3 共同図形配置課題で使用する図形セット 2 種類, 単純図形(左)と建物図形(右)  ## 3.3 対話データ収集 作業者のペアが共同図形配置課題を行う対話を大規模に収集し,コーパスを構築した.以降,本コーパスを共同図形配置コーパスと呼ぶ.対話の収集実験には,287名の作業者が参加した.作業者はクラウドソーシングを専門とする会社を通じて募集され,実験への参加条件として,日本語を母国語としており,かつ,簡単な PC 操作に慣れている作業者という条件を設定した.募集の際には,作業者の属性(年齢,性別,職業等)が偏らないよう努めた.実験に参加した 287 名の作業者の中で,初対面の作業者 2 名をランダムに組み合わせることでぺアを作成し,その結果, 213 組が課題を実施した. このとき, 各作業者ぺアは 4 回ずつ課題を実施した(単純図形 5 個, 単純図形 7 個, 建物図形 5 個, 建物図形 7 個の計 4 回). 作業者への教示として, 実験の目的,タスク概要,図形の種別,理想的なレイアウトの配置方針(できるだけ相手の意見を聞き,かつ,工夫を凝らすようなレイアウ卜を作成するようするというもの)を与えた. さらに,図形の操作は対話を行いながら実施するよう作業者に指示した。また, 実験参加にあたって,身体的負担を考慮し,いつでも実験の継続を中止することが可能である旨を伝えた上で作業を実施させた。データ収集にあたっては, 監督者が教示に基づいて実際の作業前に各作業者にインストラクションを行い,対話ごとに作業者とコミュニケーションを取るようにした。そのため,タスクを理解していないケースはほとんど存在しないと考えている。これを裏付けるものとして, 各対話の内容を人手で確認することで, 作業の品質に問題がないことを確認した. 表 1 に,共同図形配置コーパスとして収集されたデータの統計情報を示す. 213 組の作業者ペアが課題を実施することで,合計 984 の対話が収集された ${ }^{5}$. 表の通り,各対話には平均 28.8 発話が含まれており, 平均 65.4 回の図形操作が含まれていた。図形集合間の比較として, 建物図形は単純図形に比べ, 対話あたりの発話数が多く, 一方で操作数が少ない傾向が確認できる. 表 1 共同図形配置コーパスの統計量  これは,建物に関する前提知識を使用することができる建物図形の方が,単純図形よりも最終的なレイアウトを議論しやすく, 効率的に図形を配置できたためと考えられる。なお, 288 組が平均 521 秒と 10 分以内に課題を完了し,その他のぺアは最長 10 分,すなわち時間切れまで作業を行っていた。 表 2 に,収集された対話の例を示す。この例は,図 2 のインタフェースの説明において示し 表 2 共同図形配置課題で収集された対話の例.この対話は図 2 に示すセッションで収集されたものである。 たレイアウト(図形集合が単純図形であり,図形個数が 5 個のもの)を対象に特定の作業者ぺア二名(A と B)によって収集された対話である。最終的なレイアウトのアイデアは, $U_{14}$ までに作業者間で合意されており,各図形は $U_{15}$ 以降,お互いが指示を出し合うことで順に配置されている, $U_{7}$ から $U_{14}$ までの発話において,相談を通じて図形のレイアウト方針が決定したり,また, $U_{24}$ や $U_{29}$ の発話において,作業者が配置を指示したり,自身の配置を伝えたりしており,対話を通じて共通基盤が構築されている様子が確認できる. ## 4 共通基盤構築過程の分析 収集した共同図形配置コーパスに基づき,共通基盤構築の過程を分析した。まず,各対話において, 二名の作業者が作成した最終的な二つのレイアウトが一致しているかを人手で確認した。次に,レイアウトの類似度に基づいて,課題の中間結果を共通基盤として定量化した。最後に,定量化した共通基盤の系列に対して時系列分析を適用し,共通基盤構築における典型的な流れを調査した。 ## 4.1 最終図形配置パタン 収集したデータを人手で確認した結果,多くの作業者ペアが課題を達成したと判断しているにも関わらず,一部のレイアウトのぺアは同一になっていないことが明らかになった。共通基盤を定量化するためには,どのようなレイアウトのペアを一致とみなすか,すなわち,レイアウトのぺアがどのような状態になっていれば共通基盤が構築できたとみなすかを明らかにする必要がある。そのため, まず, 最終的なレイアウトペアの一致, 不一致のパタンを明らかにした。 図 4 に,最終的なレイアウトのぺアにおける一致, 不一致のパタン(最終図形配置パタン)を示す. 最終図形配置パタンを作成するために,最終的なレイアウトのぺアをランダムに 50 組選択し, 著者らが手作業で類似するぺアをまとめることでパタンを作成した。その結果, 最終図形配置パタンは大きく 3 つのパタン(成功,中間,失敗)に分類され,詳細には 7 つのパタン(パタン 1-7)に分類された. パタン 3 の同図形混同は,大きさの異なる同一の図形(例えば,大きさの異なる二つの三角形や警察署の図形)の配置のみが異なるものを指す。このとき,パタン 1-2(完全一致, 原点ずれ)において課題が成功, パタン 3-6(同種図形混同, 異種図形混同, 対称ずれ, 縮尺ずれ)において部分的に成功, パタン7(完全不一致)において失敗しているものとみなすこととした. 完全一致に加え, 原点ずれも課題が成功したとみなした理由は, 作業者への教示として,図形全体を絶対座標において同じ位置に配置するよう指示しなかったためである。また, 教示では, 図形全体の配置を合わせるという課題において, 対称ずれ(鏡像)が成功とみなされないことは自明と考えたため,対称ずれを避ける指示は行っていない。なお,アノテーションの一致率を確認するため, 著者と同組織に所属する作業者二名がランダムサンプ 成功(2パタン) 2. 原点ずれ(図形全体の位置が異なるもの) 中間(4パタン) 5. 対称ずれ(図形が対称的に異なるもの) 失敗(1パタン) 7. 完全不一致(図形の 位置が全く異なるもの) 図 4 最終図形配置パタン リングした 50 件のレイアウトペアについてアノテーションを行ったところ, 単純一致で $74 \%$, Cohen's kappa で 0.68 となり,妥当な分類になっていることを確認した. 表 3 に, 著者らとは異なる作業者(同組織に所属する専門のアノテー夕)が共同図形配置コー パスに含まれる全 984 件のレイアウトペアに最終図形配置パタンをアノテーションした結果を示す.この表から, 成功率(完全一致または原点ずれ)は $25 \%(=19 \%+7 \%)$ となることが確認できる。図形集合については, 単純図形よりも建物図形の方が成功率が高い. これは, 建物図形で図形に関する前提知識を利用することで共通基盤の構築が容易になったためと考えられる。一方, 図形数については, 各パタンの出現頻度は 5 個と 7 個でほぼ同じ傾向となり, 図形数が増えたとしても課題の難易度は大きく変化しないことが確認できる。複雑な図形は複数の類似の図形(例. 直角三角形と正三角形, 四角形と平行四辺形など)を含むため, 一致しにくい傾向があった,興味深い点として,図形が全く一致しないもの(完全不一致)が単純図形で $27 \%$, 建物図形で $13 \%$ または $15 \%$ 存在しており,共通基盤が構築される過程のみならず,共通基盤の構築に失敗する過程をも分析可能なコーパスになっていることが確認できる. ## 4.2 共通基盤の定量化 最終図形配置パタンに基づき,対話中の共通基盤を定量化する尺度として図形配置間距離を導入する.このとき, パタン 1-2(完全一致, 原点ずれ)において課題が成功, パタン 3-6(同種図形混同, 異種図形混同, 対称ずれ, 縮尺ずれ)において部分的に成功と定義していることから, 成功で図形配置間距離の値が最も小さくなるよう尺度を設計した。この指標は, レイアウトペアに含まれる任意の二図形間の距離の和であり,次式で示される。 図形配置間距離 $\left(L_{A}, L_{B}\right)=\frac{1}{2} \sum_{i \in \text { Figures }} \sum_{j \in \text { Figures }}\left.\|\vec{a}_{i, j}-\vec{b}_{i, j}\right.\|$ 表 3 最終図形配置パタンの頻度 図 5 図形配置間距離の計算に用いる, レイアウト $L_{A}$ と $L_{B}$ の間で定義される二図形間の距離 $L_{A}, L_{B}$ は作業者 $\mathrm{A}, \mathrm{B}$ が作成したレイアウト, Figures は一つのレイアウトに含まれる全図形の集合, $a_{i, j}$ および $b_{i, j}$ は, $L_{A}$ および $L_{B}$ に含まれる二つの図形, $i$ と $j$ (例えば,図 5 の図形 1 と図形 2)を結ぶベクトルを表す。図 5 に,二図形間の距離 $\left(\left.\|\vec{a}_{i, j}-\vec{b}_{i, j}\right.\|\right)$ の例を示す.これらのべクトルの差の距離をレイアウトに含まれる全ての図形の組み合わせに対して足し合わせたものが図形配置間距離であり,図形配置間距離の值が小さいほど,共通基盤の構築が進んでいることを表す。この図形配置間距離に基づいて,対話内の各タイムステップにおける共通基盤が構築されている度合いを定量的に評価することができる。対話のある時点において図形配置間距離を計算する際には,その時点に最も近いタイムスタンプの $L_{A}$ および $L_{B}$ (各作業者がその時点までに行った全操作を反映したレイアウト)を利用する。なお,本尺度の他に,ユー ザ間で同一の図形間の距離(例えば,作業者 $\mathrm{A}$ の図形 1 と作業者 $\mathrm{B}$ の図形 1 の距離)を足し合わせるという尺度を検討したが,原点ずれの場合において距離が小さくならないという問題があったため,採用しなかった。 図 6 に,対話中の図形配置間距離(共通基盤構築の度合い)の遷移を示す。横軸は対話の進行度を表しており,1回の発話,または,同じ図形を複数回連続して動かす操作を1タイムステップとした6.各ステップにおける図形配置間距離をプロットする際には,線形補完を用いて,全  図 6 対話における図形配置間距離(共通基盤構築の度合い)の遷移、ステップ数は対話の進行度を表しており,0 は対話の開始時点, 50 は対話の終了時点を表す. ての対話のタイムステップ数を 50 に正規化した。課題終了時(タイムステップが 50 の時点)の図形配置間距離は成功,中間,失敗の順に高くなっており,我々の定義通りに共通基盤が構築されている度合いを定量化できることが確認できる。また, 図形配置間距離の変化と発話を目視で確認したところ,発話単位でずれが生じていることはなかった. このことにより,ずれは本研究におけるスコアの計算結果に影響は与えないと考えている. 定義した図形配置間距離に基づいて,共通基盤構築の典型的な過程を明らかにするために, k-means に基づく時系列クラスタリング手法である k-Shape (Paparrizos and Gravano 2015)を使用して図形配置間距離の系列をクラスタリングした。具体的には,共同図形配置コーパスに含まれる全 984 対話(すなわち,984 個の図形配置間距離の系列)に対して, k-Shape を適用することで,図形配置間距離の系列における典型的なクラスタを調査した. 図 7 に,図形配置間距離に対して時系列クラスタリングを適用した結果を示す。各クラスタの図において,X 軸はタイムステップ,Y 軸は $\mathrm{z}$ 正規化した図形配置間距離を表す。クラスタ数は 5 に設定されており, 理由として,クラスタ数を 6 以上にした場合, 類似のクラスタが出現し, また, 4 以下にした場合, 複数の特徴が混じり合ったようなクラスタが構成されたためである。各クラス夕 $(\mathrm{C} 1-5)$ の対話数の比率は, それぞれ $29 \%, 28 \%, 24 \%, 12 \%, 7 \%$ あっった. 各クラスタの傾向を明らかにするために, クラスタごとに 10 対話をサンプリングし, 著者らで傾向を分析した。クラスタ 1 は, 対話を通じて一貫して図形配置間距離が減少しており, 共通基盤が終始滞りなく構築されている対話のクラスタである. クラスタ 1 に含まれる対話として,例えば,対話の序盤で目標が決定され,目標に従って図形を順に配置していくことで図形配置間距離が順調に低下している対話が見られた. クラスタ 2-4 は, 対話の中盤まで図形配置間距離が減少しておらず,共通基盤構築が停滞する期間を含む対話のクラスタである。特徴は共通基盤の構築が進み始めるタイムステップが異なっている点であり, それぞれタイムステッ プがおよそ $15 , 25 , 35$ の時点から進み始めている。またその他の特徴として,クラスタ 4 において,作業者が図形をグルーピングし,グループごとに図形の配置を合わせる対話が含まれていた.作業者が図形をグルーピングし,グループごとに作業を行ったことで,終盤まで図形配置間距離が減少しなかったと考えられる。クラスタ 5 は最終図形配置パタンの完全不一致に相当しており,共通基盤がうまく構築されていない対話のクラスタである. クラスタ 5 に含まれる対話としては,例えば,位置の確認を怠った対話や,最終的なレイアウトの目標の認識に齯䶣がある対話(具体的には「斜めに配置」という目標を一方の作業者は「右下がり」と理解し,他方の作業者は「左下がり」と理解して作業を進めた対話)が見られた. 表 4 に,共同図形配置課題の成否と,図 7 で示した共通基盤構築過程クラスタリング結果との対応関係を示す。表中の各数値は,各クラスタにおける課題の成否(成功,中間,失敗)の割合を表す(列方向に値を足すと $100 \%$ となる),クラスタ 1-3では,成功と中間の割合が多く,共通基盤の構築に成功した対話が含まれていることが確認できる. クラスタ 1 とクラスタ 2 を比較すると,クラス夕 2 の方が成功の比率が多く,課題に成功するために必ずしもクラスタ 1 のような共通基盤構築の過程を経る必要はない(図形配置間距離が停滞する期間があってもよ 図 7 共通基盤の構築過程をクラスタリングした結果 (C1-C5) 表 4 共同図形配置課題の成否(成功,中間,失敗)と, 図 7 で示した共通基盤構築過程クラスタリング結果 $(\mathrm{C} 1-\mathrm{C} 5)$ との対応関係 い)と考えられる。一方,クラスタ 4,5 には,失敗に対応する完全不一致が多く含まれており,共通基盤の構築に失敗した対話が含まれていることが確認できる。これらの結果から,成功の対話では,比較的早い段階から共通基盤が構築され始め,対話が終わる頃には十分な共通基盤が構築されている傾向があると考えられる。失敗の対話では,対話の後半から共通基盤が構築され始め課題終了までに十分な水準に達しなかったり,対話全体を通して共通基盤を構築できないという傾向があると考えられる。 ## 4.3 共通基盤構築過程と対話の分析 定義した最終図形配置パタン,および,図形配置間距離に基づき,共通基盤の構築に成功した対話と失敗した対話に出現する言語表現や対話の特徴を調查し,どのような言語表現や特徴を持った対話を実現することが共通基盤構築において重要なのかを調査した。これらの言語現象や対話の特徴は,ユーザと共通基盤を構築可能な対話システムを構築するための有用な知見となると考えられる。 調查方法として,まず,言語表現を調査するために,収集された対話を先に述べた 3 種類の課題の成否 (成功, 中間, 失敗) に基づいて分け, それぞれの対話において頻繁に出現する言語表現と対話行為を調査した。また,対話の特徴を調査するために,それぞれの対話における対話行為の遷移を隠れマルコフモデル (Hidden Markov Model; HMM) を用いてモデル化し, 対話の大局的な構造や,どの遷移が特に共通基盤の構築に有効であるかを図形配置間距離に基づき調查した。 表 5 に,対話の中で統計的に有意な上位 10 個の言語表現を示す. 各表現は述語相当表現(動詞はまた形容詞を含む文節) を表しており,表現の抽出には,日本語形態素解析器 JTAG (Fuchi 表 5 課題の成否で分類した各対話において統計的に有意に出現する上位 10 個の言語表現. “**”は $p<.01$, “*”は $p<.05$ を表す. and Takagi 1998)を使用した。検定手法としてフィッシャーの正確確率検定を利用し, $p$ 値を用いて昇順に表現をランキングすることで,三種類の対話のいずれかの対話において有意に出現頻度が高い表現を列挙した。この表から,成功では,「良いと」などの肯定的な評価や,「しましょう」,「できました」などの図形操作に関する表現が多く出現していることが分かる。また,中間では,「いいですね」のような肯定的な表現が出現しているものの,「しました」,「置きました」などの図形操作を示す表現がより多く見られる。一方,失敗では,肯定的な評価や図形操作に関する表現は見られず,「どうしますか」や「眺めている」など,意図が曖昧な表現が多く見られた。これらの結果から,対話において自身の理解や行動を伝えるための評価表現,共感, 具体的指示が出現している場合,共通基盤が構築できている傾向にあると考えられる. 表 6 に,課題の成否で分類した各対話において統計的に有意に出現する上位 5 つ対話行為を示す. 対話行為として, Meguro et al. (2011)が提案したラベルセットを利用し, 各発話に対して自動的にラベルを付与することで検定を行った.推定精度は $45 \%$, 人手のアノテータ間の単純一致は $59 \%$ と報告されており (Higashinaka et al. 2014), 得られる推定結果は妥当と考えられる。ラベルセットには, 33 種類(例:自己開示:話者の好みや感情の開示, 情報提供:客観的情報の伝達,共感・同意:共感的な発話や賞賛)の対話行為が定義されている.ラベルの推定には Higashinaka et al. (2014) において学習されたサポートベクトルマシンに基づく分類器を利用した。また,表 5 と同様に,フィッシャーの正確確率検定を利用した。この表から,成功では,ポジティブな評価を表す自己開示,感謝,共感など,相手を肯定する表現が多く出現していることが確認できる。成功と同様に,中間でも共感を示す表現が多く出現しており,また,評価に関する質問が多く出現している。失敗では,情報提供や挨拶など,成功や中間とは異なる対話行為が多く見受けられる。評価に関連する表現も出現するが,その内容はネガティブなものである。これらの結果から,表 5 に示した言語表現の結果同様,対話において肯定的な評価や話者の理解を伝える共感,同意を示す発話が出現している場合,共通基盤が構築できている傾向にあると考えられる。 上記で述べた言語表現の調査では, 述語や対話行為などの言語現象のみに焦点を当ててきた. 表 6 課題の成否で分類した各対話において統計的に有意に出現する上位 5 の対話行為. “**” は $p<.01$, “*”は $p<.05$ を表す. さらなる調査として,言語現象(以降,対話行為を対象とする)と図形配置間距離の双方の遷移を組み合わせて分析することで,対話の大局的な構造と共通基盤構築の関係性や,どのような対話行為が共通基盤構築に大きく寄与するかを定量的に明らかにできる可能性がある。このために,対話行為の遷移をモデル化する手法として,状態数が未知の系列における構造を学習する手法である HMM を利用し,対話のモデル化を行った (Rabiner and Juang 1986). 実装として,HMM の学習と推論が可能なライブラリである HMMlearn 7 を使用した. HMM の学習方法は, Meguro et al. (2014) に準じ,具体的には,エルゴード HMM(遷移先の次の状態から前の状態にも戻ることができる HMM)における半数の状態集合から特定の話者(例えば話者 A) の対話行為のみを出力し, 残りの半数の状態集合から他方の話者(例えば話者 B)の対話行為を出力するよう初期化し, 学習を行った. このとき, 状態数は 1 ~ 10 とし, 各状態数において 10 個の HMM を学習することで,計 100 個の HMM を作成した。作成した HMM から,最適な HMM を Minimum Description Length (MDL) 基準で選択することで,対話の最終的なモデルを決定した。 図 8 に,成功における対話,および,失敗における対話に含まれる対話行為の系列から学習された HMM を示す。なお, 中間は成功と同様の HMM が構築されたため省略している。各状態において, 'A'と 'B'は二名の話者を表しており,また,該当話者による対話行為のうち観測確率の高いもの(観測確率が 0.1 以上のもの)が列挙されている. 状態間のエッジに付与されている 'p'は遷移確率を表し, 辺の太さに相当する。また, 'd’'は遷移における図形配置間距離の差の平均を表しており,下記の式で定義される,隣接する二つの状態に含まれる各対話行為のペアにおける図形配置間距離の差を出現確率で重み付けして計算した値である. $ d\left(s_{i}, s_{j}\right)=\sum_{o_{k} \in s_{i}} \sum_{o_{l} \in s_{j}} p\left(o_{k} \mid s_{i}\right) p\left(o_{l} \mid s_{j}\right) f\left(o_{k}, o_{l}\right) $ $s_{i}$ は HMM モデルの状態 $i, o_{k}$ は各状態における観測である対話行為, $p\left(o_{k} \mid s_{i}\right)$ は状態 $s_{i}$ における対話行為 $o_{k}$ の観測確率を表す。また, $f\left(o_{k}, o_{l}\right)$ は共同図形配置コーパス全体において, 対話行為が $o_{k}$ と分類された発話の直後に, 対話行為 $o_{l}$ の発話が出現したときの, 図形配置間距離の平均変化量を表す。すなわち, あるエッジの 'd'(図形配置間距離の差)が小さい値(負の値) である程,そのエッジで遷移する二つの状態の間で共通基盤の構築が進んでいることを示す. 二つの HMM から,これらの対話の構造は全く異なるものであり,失敗の対話よりも成功の対話の方が複雑な構造を持つという傾向が確認できる。二つの HMM の間で共通する構造として,挨拶に関する状態のペア(両 HMM の状態 1 と状態 2 ),および,情報・共感に関する状態のペア(両 HMM の状態 3 と状態 4)が見られる。 すなわち,基本的にはどちらの対話もお互いによる挨拶から始まり,その後,互いの情報提供に進むと考えられる。また,二つの HMM の  対話の結果が成功の場合のHMMモデル 図 8 対話行為の系列から学習された HMM モデル. 左側は課題の結果が成功の対話, 右側は課題の結果が失敗の対話に対応する。 'A'と 'B' は二名の話者を表し,エッジ上の ' $\mathrm{p}$ ' は遷移確率,'d'は図形配置間距離の差分(平均值)を表している。エッジは遷移確率 'p’が高いほど太くなっている。また, 図形配置間距離の差分 ' $\mathrm{d}$ ' の値が小さい値(負の値)である程, 共通基盤の構築が進んでいることを表す. 間で異なる構造として, 共感・同意やポジティブな評価の自己開示に関する状態のペア(成功の場合の HMM における状態 5 と状態 6)は, 成功の対話のみに見られ, 失敗の対話には見られない.エッジ上の' $\mathrm{d}$ ’の値(共通基盤構築の進渉を表すもの)に着目すると, この共感・同意やポジティブな評価の自己開示のペアの間のエッジが最も小さい值 $(-0.15)$ になっており, 特 に共通基盤の構築が進んでいるとみなせる. ここまで述べてきた三種類の分析(頻出する述語の分析,頻出する対話行為の分析,対話行為と図形配置間距離を用いたモデル化)の結果をまとめる。共同図形配置課題において共通基盤の構築に成功した対話では,共感や同意の発話,および,評価に関する自己開示の発話が多く出現する傾向が見られた。これらの発話を通じて,作業者が自身の理解を伝えたり,相手の発話や配置に対する肯定的な評価を伝えたりする言語表現が見られた.特に,共感や同意の発話を伝える際に,図形配置間距離が最も低下する(共通基盤の構築が進む)傾向があることから,これらの発話を行っている場合,共通基盤が構築できている傾向にあると考えられる。 ## 5 図形配置間距離の推定 ユーザと共通基盤を構築可能な対話システムの実現の第一歩として,作業者の間で構築された共通基盤の程度を自動で推定する問題に取り組む. ユーザと共同作業を行うことができる対話システムは,過去の対話,および,自身の課題の状況に基づいて,ユーザとの間でどの程度共通基盤が構築できているかを把握しながら課題を遂行することが望ましい.したがって本研究では, 最も基本的な問題として, 対話と一方の作業者のレイアウトのみを入力とし, 図形配置間距離で表される共通基盤構築の度合いを推定する問題に取り組む. 具体的には, 対話中のあるタイムステップ $i$ において, 対話文脈が $\mathrm{U}_{1} \sim \mathrm{U}_{i}$ の発話, $\mathrm{U}_{i}$ の話者が作業者 $\mathrm{A}$ (もう一方の作業者は B)であるとする。このとき,対話文脈 $\mathrm{U}_{1} \sim \mathrm{U}_{i}$, および, $\mathrm{A}$ のレイアウト $\mathrm{L}_{A, i}$ が与えられたとき,夕イムステップ $i$ における図形配置間距離 $i_{i}$ を,B のレイアウト $L_{B}$ に関する情報なしに推定するというものである。なお, 入力として対話はタイムステップ $i$ までの全ての発話を利用するが,画像についてはタイムステップ $i$ の画像のみを利用する。 ## 5.1 モデルとデータセットの作成 図 9 に, 対話と一方の作業者のレイアウトのみから図形配置間距離を推定するモデルを示す.本研究では,テキストおよび画像に関する事前学習済みモデルに基づいて,対話とレイアウトの両方を考慮して目的の出力を得るモデルを採用した (Soleymani et al. 2019). 事前学習済みモデルとして, 多様な問題に汎用的に適用できることを期待し, 対話からの特徴量抽出には BERT (Bidirectional Encoder Representations from Transformers) (Devlin et al. 2019)を利用し,レイアウトからの特徵量抽出には ResNet (Residual Network) (He et al. 2016)を使用した. Soleymani et al. (2019) が提案したモデル同様, 対話とレイアウトについて, 事前学習済みモデルから得られた特徴量を結合し, 結合層を通じて混合べクトルを作成し, 再度結合層に入力することで,最終的に図形配置間距離(共通基盤構築の度合い)を示すスカラー值を出力するようにした. 実験設定として,収集した全 984 対話を $8: 1: 1$ (それぞれ,学習セット,開発セット,テス 図 9 対話と一方の作業者のレイアウトのみから図形配置間距離を推定するモデル (Dialogue+Layout). レイアウトは,話者 $\mathrm{X}$ が $\mathrm{U}_{i}$ を発話した時点のものである,FC は完全連結層を表す。 トセット)に分割した。このとき,同じ作業者ぺアが実施した対話がいずれかのセットのみに含まれるようデータを分割した,入出力を作成する際の手順を述べる,入力については,一つ目の入力として, 対話の先頭の発話 $U_{1}$ からある発話 $U_{i}$ までの文脈を取得する(図 9 左上の対話に対応).二つ目の入力として, $\mathrm{U}_{i}$ が発話された時点での $\mathrm{U}_{i}$ の話者のレイアウトを取得する (図 9 左下の配置画像に対応). 出力については, $\mathrm{U}_{i}$ が発話された時点での図形配置間距離を計算する(図9右の図形配置間距離に対応)。このとき, 図形配置間距離は min-max 正規化を用いて0から1の値に正規化した。学習済みモデルとして, huggingface/transformerにおける,日本語用の BERT-base のモデルを利用し8,また, torchvision における ResNet-18 のモデルを利用した9. モデルを学習する際には損失関数として平均二乗誤差 (MSE) を利用し, 最適化器として Adam (Kingma and Ba 2015) を用いて,学習率を $2 \mathrm{e}-5$ に設定して学習を実施した。 モデルが利用する対話とレイアウトの情報の有効性を調査するために, 5 種類のモデル (ConstBaseline, Mean-Baseline, Dialogue, Layout, Dialogue+Layout) を用意した. Const-Baseline は,一定値(学習セットにおける図形配置間距離の平均値)を出力するべースラインである. MeanBaseline は, 学習セットにおいて正規化した各ステップにおける平均値を出力するべースラインである.Dialogue,および, Layout は,対話またはレイアウトの一方のみを入力とするモデルである. Dialogue+Layout は,図 9 で示した対話とレイアウトの両方の情報を考慮したモデルである. ## 5.2 評価結果 表 7 に, 対話とレイアウトから推定した図形配置間距離の MSEを示す. Steel-Dwassの多重比  表 7 与えられた対話とレイアウトから推定された図形配置間距離と真の図形配置間距離の平均二乗誤差 (MSE),添え字は,Steel-Dwass の多重比較において,添字が付与されているスコアが添字のモデルのスコアより有意に良い $(p<.05)$ ことを示す. 較 (Dwass 1960) において, Dialogue+Layout の MSEが有意に最も小さく $(p<.05)$, 対話とレイアウトの双方を考慮したモデルの有効性が確認できた. Dialogue+Layout に比べ, Dialogue, および,Layoutの性能が低くなっている。これは,対話の内容とレイアウトの双方の情報に基づいて推定を行うことで,対話やレイアウト等の単一の情報のみで推定を行うよりも,共通基盤の構築が進んだか否かをより正確に推定できることを示す。この結果から,共通基盤が構築された程度を推定しながらユーザと共同図形配置課題を行う対話システムを構築するにあたって, 本研究で収集した共通基盤の構築過程(対話とレイアウトの情報)が有用であると考えられる。また, Layout は Mean-Baseline よりも有意に性能が低く, レイアウトの情報のみから図形配置間距離の推定を行うことは難しいことが確認できる。なお, データセットを異なるランダムシードで再度分割し実験を行ったところ, 同様の結果が得られることを確認した。 以降,誤り分析として,推定が適切または適切でない対話の特徵,および,その要因を考察する。これらの対話に共通する特徴を調査するにあたって, Dialogue+Layout における MSEが最大となった対話,および,最小となった対話を計 10 対話ずつ(図中の 4 対話を含む)を抽出し,著者らが人手で対話と各作業者のレイアウトを確認した。 図 10 に,図形配置間距離の推定値と真の値を対話ごとにプロットした図を示す。また, 図 11 に,図 10 に対応する各対話を示す。各プロット上の番号はコーパス中の対話の IDを示す. 図 10 と図 11 において, 左の 2 対話はモデル (Dialogue+Layout) の推定値と真の値の MSE が最小のもの(推定が適切に行えたもの)を表し,右の 2 対話は MSEが最大のもの(推定が適切に行えなかったもの)を表す. 各対話について概略を述べると,MSEが最小となった一つ目の対話 “73-2”では,具体的な図形配置を指示する表現とそれを承認する表現が少ない。そのため, 図形配置間距離が十分に低下しないという過程をモデルが正しく推定できていたと考えられる.MSEが最小となった二つ目の対話 “137-1”では,具体的な指示とその承認が頻出している。 すなわち,図形が規則的に配置されていく過程を対話とレイアウトに基づきモデルが正しく推定できたと考えられる. 図 10 図形配置間距離の推定値と真の値の対話ごとのプロット. 左の 2 対話はモデル (Dialogue+Layout) の推定値と真の値の MSE が最小のもの(推定が適切に行えたもの)を表し,右の 2 対話は MSE が最大のもの(推定が適切に行えなかったもの)を表す. MSEが最小の2対話 $137-1$ A05: 平行四辺形を胴体に見立てて、鳥のように配置するのはどうでしょうか B06: いいですね A07: ありがとうございます!右上頂点に丸を置くと、頭のようにみえないですか? B08: 見えます B09: 三角がくちばしとかですか? A10:〈ちばしか、頭と反対側につけて尾羽にしてもいいかな、とおもっていました B15: むしろ平行をくちばしにすると、 アヒルみたいに見えてきます 図 11 図 10 に対応する各対話の抜䊀 対話例に示した“73-2”と“137-1” の発話を比較すると, “137-1”の対話の方が各発話の内容が具体的であることが確認できる。MSE が最大となった対話は, 図 7 で示した図形配置間距離のクラスタリング結果におけるクラスタ 4 に見られるような, 図形をグルーピングし作業を行う対話であった,具体的には,MSEが最大となった一つ目の対話 “125-3”では,図形をグループ (目,鼻,口など)に分け,個々のグループでレイアウトを合わせるものの,最後までグループ間のレイアウトに䶡踣が生じており,その䶡龆を推定することができていなかったと考えられる(具体的には,右目と左目の図形全体が入れ替わっていた)MSEが最大となった二つ目の対話 “131-4” では,同様にグループ分けを行ってグループ内のレイアウトを決定し,最後にグループ間のレイアウト(発話 “B19” で言及されている空港等の位置)を合わせていた。そのため, “131-4” 同様に, これらのグループごとの基盤化の過程を捉えることができず,推定が正しく行えなかったと考えられる。 以上の図形配置間距離の推定, および, その誤り分析の結果から, 傾向として, 図形配置間距離の推定が適切な対話では,作業者が図形を一つずつ順に最終位置に移動させている過程が見られ,推定が適切でない対話では,作業者が図形をグルーピングし,グループごとに作業を行っている過程が見られた。図形の位置を一つずつ順に確定させる対話では,対話において理解を示す肯定的な評価や共感の評価が出現したり,レイアウトにおいて図形の配置が規則的(例えば,一直線の配置や隣接した配置)になることで,モデルが図形配置間距離の低下を適切に推定できたと考えられる。一方で, 作業者が図形をグルーピングしながら作業を行う対話では, グループ内のレイアウトを一致させた後にグループ間のレイアウトを合わせる複雑な基盤化の過程が見られた。その結果,モデルが基盤化の過程を捉えることができず,図形配置間距離の推定が適切に行えなかったと考えられる,今後の課題として,図形単体のみならず,複数の図形をグループ化した集合を対象として,言語と共に共通基盤を扱う枠組みを検討する必要があると考えられる。 ## 6 おわりに 本研究では, 共同作業を行う対話における共通基盤の構築過程を明らかにするために, 二名の作業者が対話を通じて共通のレイアウトに図形を配置する共同図形配置課題を提案した。共同図形配置課題において, 二名の作業者のレイアウトにおける図形配置の共通部分をその時点の共通基盤に相当するものとし,対話中の共通基盤が構築される過程を自動的に記録する。コー パスとして,共同図形配置課題を行った対話を 984 対話収集した。収集したデー夕を調査した結果,課題の結果として7つの最終図形配置パタンを発見した. この最終図形配置パタンに基づいて,共通基盤を定量化する方法として図形配置間距離を導入した。この図形配置間距離の遷移に対して時系列クラスタリングを行った結果,共通基盤の構築過程にいくつかのパタンが見られた. また, 課題達成につながる言語現象を対話と図形配置間距離の観点から分析した. その結果, 肯定的な評価や共感が対話中に出現している場合, 共通基盤が構築できている傾向にあると考えられる。また,対話とレイアウトの情報を入力として図形配置間距離を推定する問題に取り組み,対話とレイアウトの双方の情報が推定に有用であることを確認した. 今後は, 共通基盤を扱う上で対話システムが相手の信念を推定できることが重要であるため,対話から次のレイアウト変更の操作を予想する問題に取り組む.最終的には,レイアウト変更や図形配置間距離の推定器を対話システムに組み込むことで,ユーザと共に共同図形配置課題を達成可能なシステムを確立したい,そのためには,ユーザと共に OneCommon を達成するシステムが参考になると考えられる (Fried et al. 2021). このとき, 5 節で述べたグループ化された図形を適切に扱えるよう,言語とグループ化された図形を紐付けて扱う手法を確立することも重要な課題である (齋藤他 2022). 図形の配置画像を入力とし, 図形配置間距離を推定する モデル (Layout) が手掛かりとする情報の考察も行いたい. 本研究では, 図形配置間距離が課題の成功, 中間, 失敗を反映できていることで正当性を確認したが,本数値と共通基盤に関する心象との相関を確認することで,さらなる検証が可能と考えている。本研究では, 対話内容の分析にフィッシャーの正確確率検定を利用したが, 今後は線形回帰・分類等で特徴量の重みの分析も行いたい. 本研究と関連の深い研究として共通基盤を扱った Bara et al. (2021) と本研究を比較すると, 本論文で述べた課題は実際的ではないと考えられる。今後, より実際の共同作業に近い課題に取り組むことも重要である。また,本研究ではテキストを介した対話のみを対象にしたが,音声や映像といったマルチモーダルな情報を介する対話における共通基盤の構築過程を明らかにすることも重要な課題である (Furuya et al. 2022). 本研究で扱った課題は, 対話を通じて話者の理解を一致させるという一般的な過程を含んでおり,明らかになった共通基盤構築の過程は他の課題にも適用できると考えている。具体的には,作業者が対話を通じ共同で課題を達成する状況,かつ,作業者が課題を独立に行い,その課題の状態の定量化が可能なもの(例えば,グラフィカルな要素を含むもの)であれば,作業者間での課題の状態の一致度を定義することができるため, 本論文のデータ収集手法, および,分析手法が適用できると考えられる。今後, 他の課題でも同様の調査を実施し, 本研究で得られた知見の一般性を検証していきたい. ## 謝 辞 本論文の一部は, The 13th Language Resources and Evaluation Conference (LREC2022) で発表したものです (Mitsuda et al. 2022). ## 参考文献 Anderson, A. H., Bader, M., Bard, E. G., Boyle, E., Doherty, G., Garrod, S., Isard, S., Kowtko, J., McAllister, J., Miller, J., Sotillo, C., Thompson, H. S., and Weinert, R. (1991). "The HCRC Map Task Corpus." Computational Linguistics, 34 (4), pp. 351-366. Bara, C.-P., CH-Wang, S., and Chai, J. (2021). "MindCraft: Theory of Mind Modeling for Situated Dialogue in Collaborative Tasks." In Proceedings of EMNLP, pp. 1112-1125. Bard, E. G., Anderson, A. H., Sotillo, C., Doherty-Sneddon, M. A. G., and Newlands, A. (2000). "Controlling the Intelligibility of Referring Expressions in Dialogue." Journal of Memory and Language, 42, pp. 1-22. Benotti, L. and Blackburn, P. (2021). "Grounding as a Collaborative Process." In Proceedings of $E A C L$, pp. 515-531. Carletta, J., Isard, A., Isard, S., Kowtko, J. C., Doherty-Sneddon, G., and Anderson, A. H. (1991). "The Reliability of Dialogue Structure Coding Scheme." Language and Speech, 23 (1), pp. 13-32. Chai, J. Y., Fang, R., Liu, C., and She, L. (2017). "Collaborative Language Grounding Toward Situated Human-Robot Dialogue." AI Magazine, 37 (4), pp. 32-45. Chandu, K. R., Bisk, Y., and Black, A. W. (2021). "Grounding 'Grounding' in NLP." In Findings of $A C L-I J C N L P$, pp. 4283-4305. Clark, H. H. and Schaefer, E. F. (1989). "Contributing to Discourse." Cognitive Science, 13 (2), pp. 259-294. Clark, H. H. and Wilkes-Gibbs, D. (1986). "Referring as a Collaborative Process." Cognition, 22 (1), pp. 1-39. de Vries, H., Strub, F., Chandar, S., Pietquin, O., Larochelle, H., and Courville, A. C. (2017). "GuessWhat?! Visual Object Discovery through Multi-modal Dialogue." In Proceedings of CVPR, pp. 5503-5512. Denis, A. and Striegnitz, K. (2012). "A Collaborative Puzzle Game to Study Situated Dialog." In Proceedings of AAAI, pp. 37-40. Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of NAACL, pp. 4171-4186. Dwass, M. (1960). "Some k-Sample Rank-order Tests." Contributions to Probability and Statistics, pp. 198-202. Foster, M. E., Bard, E. G., Guhe, M., Hill, R. L., Oberlander, J., and Knoll, A. (2008). "The Roles of Haptic-ostensive Referring Expressions in Cooperative, Task-based Human-robot Dialogue." In Proceedings of HRI, pp. 295-302. Fried, D., Chiu, J., and Klein, D. (2021). "Reference-Centric Models for Grounded Collaborative Dialogue." In Proceedings of EMNLP, pp. 2130-2147. Fuchi, T. and Takagi, S. (1998). "Japanese Morphological Analyzer using Word Co-occurrence -JTAG-." In Proceedings of COLING, pp. 409-413. Furuya, Y., Saito, K., Ogura, K., Mitsuda, K., Higashinaka, R., and Takashio, K. (2022). "Dialogue Corpus Construction Considering Modality and Social Relationships in Building Common Ground." In Proceedings of LREC, pp. 4088-4095. Gero, K. I., Ashktorab, Z., Dugan, C., Pan, Q., Johnson, J., Geyer, W., Ruiz, M., Miller, S., Millen, D. R., Campbell, M., Kumaravel, S., and Zhang, W. (2020). "Mental Models of AI Agents in a Cooperative Game Setting." In Proceedings of CHI, pp. 1-12. Hahn, M., Krantz, J., Batra, D., Parikh, D., Rehg, J. M., Lee, S., and Anderson, P. (2020). "Where Are You? Localization from Embodied Dialog." In Proceedings of EMNLP, pp. 806-822. He, H., Balakrishnan, A., Eric, M., and Liang, P. (2017). "Learning Symmetric Collaborative Dialogue Agents with Dynamic Knowledge Graph Embeddings." In Proceedings of $A C L$, pp. 1766-1776. He, K., Zhang, X., Ren, S., and Sun, J. (2016). "Deep Residual Learning for Image Recognition." In Proceedings of CVPR, pp. 770-778. Higashinaka, R., Imamura, K., Meguro, T., Miyazaki, C., Kobayashi, N., Sugiyama, H., Hirano, T., Makino, T., and Matsuo, Y. (2014). "Towards an Open Domain Conversational System Fully Based on Natural Language Processing." In Proceedings of COLING, pp. 928-939. Hough, J. and Schlangen, D. (2017). "It's Not What You Do, It's How You Do It: Grounding Uncertainty for a Simple Robot." In Proceedings of HRI, pp. 1-10. Ilinykh, N., Zarrieß, S., and Schlangen, D. (2019). "Meet Up! A Corpus of Joint Activity Dialogues in a Visual Environment." In Proceedings of SEMDIAL, pp. 1-10. Jayannavar, P., Narayan-Chen, A., and Hockenmaier, J. (2020). "Learning to Execute Instructions in a Minecraft Dialogue." In Proceedings of ACL, pp. 2589-2602. Kim, J.-H., Kitaev, N., Chen, X., Rohrbach, M., Zhang, B.-T., Tian, Y., Batra, D., and Parikh, D. (2019). "CoDraw: Collaborative Drawing as a Testbed for Grounded Goal-driven Communication." In Proceedings of ACL, pp. 6495-6513. Kingma, D. P. and Ba, J. (2015). "Adam: A Method for Stochastic Optimization." In Proceedings of ICLR, pp. 1-15. Kopp, S. and Kramer, N. (2021). "Revisiting Human-Agent Communication: The Importance of Joint Co-construction and Understanding Mental States." Frontiers in Psychology, 12. Lewis, M., Yarats, D., Dauphin, Y. N., Parikh, D., and Batra, D. (2017). "Deal or no Deal? End-to-End Learning for Negotiation Dialogues." In Proceedings of EMNLP, pp. 2443-2453. Liu, C., Fang, R., and Chai, J. Y. (2012). "Towards Mediating Shared Perceptual Basis in Situated Dialogue." In Proceedings of SIGDIAL, pp. 140-149. Liu, K., Tree, J. E. F., and Walker, M. (2016). "Coordinating Communication in the Wild: The Artwalk Dialogue Corpus of Pedestrian Navigation and Mobile Referential Communication." In Proceedings of LREC, pp. 3159-3166. Meguro, T., Higashinaka, R., Minami, Y., and Dohsaka, K. (2011). "Evaluation of Listening- oriented Dialogue Control Rules based on the Analysis of HMMs." In Proceedings of Interspeech, pp. 809-812. Meguro, T., Minami, Y., Higashinaka, R., and Dohsaka, K. (2014). "Learning to Control Listening-Oriented Dialogue Using Partially Observable Markov Decision Processes." ACM Transactions on Speech and Language Processing, 10 (4). Article No. 15, pp. 1-20. Mitsuda, K., Higashinaka, R., Oga, Y., and Yoshida, S. (2022). "Dialogue Collection for Recording the Process of Building Common Ground in a Collaborative Task." In Proceedings of LREC, pp. 5749-5758. Moratz, R. and Tenbrink, T. (2006). "Spatial Reference in Linguistic Human-Robot Interaction: Iterative, Empirically Supported Development of a Model of Projective Relations." Spatial Cognition 8 Computation, 6 (1), pp. 63-107. 中野幹生 (2019). 対話システムにおける基盤化処理. 言語・音声理解と対話処理研究会 SIG- SLUD-B901-01, pp. 1-4. [M. Nakano (2019). Grounding in Dialogue Systems. JSAI Technical Report, SIGSLUD-B901-01, pp. 1-4.]. Paparrizos, J. and Gravano, L. (2015). "k-Shape: Efficient and Accurate Clustering of Time Series." In Proceedings of SIGMOD, pp. 1855-1870. Polyak, S. and Davier, A. V. (2017). "Analyzing Game-Based Collaborative Problem Solving with Computational Psychometrics." In Proceedings of SIGKDD, pp. 1-14. Rabiner, L. and Juang, B. (1986). "An Introduction to Hidden Markov Models." IEEE ASSP Magazine, 3 (1), pp. 4-16. 齋藤結, 光田航, 東中竜一郎, 南泰浩 (2022). 対話での共通基盤構築過程における名付けの分析.言語処理学会第 28 回年次大会発表論文集, pp. 38-42. [Y. Saito et al. (2022). Taiwa deno Kyotsu Kiban Kouchiku Katei ni okeru Nazuke no Bunseki. Proceedings of the 28th Annual Meeting of the Association for Natural Language Processing, pp. 38-42.]. Soleymani, M., Stefanov, K., Kang, S.-H., Ondras, J., and Gratch, J. (2019). "Multimodal Analysis and Estimation of Intimate Self-disclosure." In Proceedings of ICMI, pp. 59-68. Spanger, P., Yasuhara, M., Iida, R., and Tokunaga, T. (2009). "Using Extra Linguistic Information for Generating Demonstrative Pronouns in a Situated Collaboration Task." In Proceedings of preCogsci, pp. 1-8. Tokunaga, T., Iida, R., Terai, A., and Kuriyama, N. (2012). "The REX Corpora: A Collection of Multimodal Corpora of Referring Expressions in Collaborative Problem Solving Dialogues." In Proceedings of LREC, pp. 422-429. Traum, D. R. (1994). "A Computational Theory of Grounding in Natural Language Conversation." Tech. rep., Rochester Univ NY Dept of Computer Science. Udagawa, T. and Aizawa, A. (2019). "A Natural Language Corpus of Common Grounding under Continuous and Partially-Observable Context." In Proceedings of AAAI, pp. 7120-7127. Udagawa, T. and Aizawa, A. (2020). "An Annotated Corpus of Reference Resolution for Interpreting Common Grounding." In Proceedings of AAAI, pp. 9081-9089. Van Waveren, S., Carter, E. J., and Leite, I. (2019). "Take One For the Team: The Effects of Error Severity in Collaborative Tasks with Social Robots." In Proceedings of IVA, pp. 151-158. ## 略歴 光田航:2013 年東京工業大学情報工学科卒業. 2015 年同大学大学院情報理工学研究科修士課程修了. 2021 年筑波大学大学院システム情報工学研究科博士課程修了. 2015 年から 2023 年まで日本電信電話株式会社研究員. 2023 年より rinna 株式会社 Applied Scientist. 自然言語処理, 対話システムの研究開発に従事. 言語処理学会会員. 博士 (工学). 東中竜一郎:2001 年慶應義塾大学大学院政策・メディア研究科修士課程, 2008 年博士課程修了. 2001 年日本電信電話株式会社入社. 2020 年より, 名古屋大学大学院情報学研究科教授. NTT 人間情報研究所客員上席特別研究員. 慶應義塾大学環境情報学部特別招聘教授. 2004 年から 2006 年まで英国シェフィールド大学客員研究員. 質問応答システム・対話システムの研究に従事. 人工知能学会, 言語処理学会, 情報処理学会, 電子情報通学会各会員. 博士 (学術). 大賀悠平: 2020 年千葉大学情報画像学科卒業. 2022 年筑波大学大学院システ么情報工学研究科修士課程修了. 2022 年日本電信電話株式会社入社. 自然言語処理, 文書画像処理に関する研究開発に従事. 吉田仙:1995 年東北大学大学院情報科学研究科博士前期課程修了. 1995 年から 2022 年まで日本電信電話株式会社, 2003 年から 2007 年まで西日本電信電話株式会社. 2022 年より株式会社三菱ケミカルホールディングス(現:三菱ケミカルグループ株式会社),現在,自然言語処理の応用業務に従事.情報処理学会, 人工知能学会各会員. (2022 年 12 月 23 日受付) (2023 年 4 月 8 日再受付) (2023 年 5 月 11 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 日本語症例テキストの複合語解析・推論システム Medc21 石田 真捺 $\dagger$ ・谷中 瞳汸・戸次 大介 ${ }^{\dagger}$ } 医療分野には,電子カルテや退院サマリといった症例テキストが蓄積されており, これらを新たな知識の発見に繋げるために自然言語処理技術を応用する研究が試み られている。しかし, 症例テキストには専門的な複合語が頻出するといった解析の 難しさがあり,日本語の症例テキストを用いた深い意味解析や,日本語の症例テキ スト間の含意関係認識についての研究は発展途上である。そこで本論文では, 日本語の高度な意味解析・推論システム ccg2lambda に複合語解析モジュールを追加す ることで, 症例テキストの意味解析と推論を扱える論理推論システム Medc2l を提案する。複合語解析モジュールは (i) 症例テキストに含まれる複合語の抽出, (ii) 複合語を構成する形態素間の意味的な関係を表す意味現象タグの付与, (iii) 意味現象 タグに基づく複合語の構文解析, (iv) 意味現象タグに基づく複合語の意味解析から 構成される。 (ii) では (i) で抽出した複合語に対して意味現象タグのアノテーション を行い, 系列変換モデルの学習によって構築した複合語意味現象タグ分類モデルを 用いる. (iii) では予測された意味現象タグを元に複合語の構造を CFG 解析したの ち CCG 部分木に変換し, (iv) では (iii) の CCG 部分木に基づいて高階論理の意味表示を導出する。日本語の症例テキストを用いて推論データセットを構築し,提案 システムの評価を行った結果, 深層学習による含意関係認識モデルと同等またはそ れ以上の性能を示し, とくに non-entailment のケースを正しく予測する傾向が見ら れた。 キーワード:含意関係認識,複合語解析,症例テキスト,意味解析 ## Medc21: Compound-Word Analysis and Inference System for Japanese Clinical Texts \author{ Mana Ishida $^{\dagger}$, Hitomi Yanaka $^{\dagger \dagger}$ and Daisuke Bekki ${ }^{\dagger}$ } The increasing number of clinical texts, such as electronic medical records and discharge summaries, has led to ongoing research on natural language processing in the medical field. Since medical compound words often appear in clinical texts, in-depth semantic analysis and natural language inference tasks for clinical text are challenging. In this study, we developed a semantic analysis and logical inference system for  clinical texts, called Medc2l, by improving ccg2lambda, an integrated system that maps a sentence to a higher-order logical formula by syntactic analysis and semantic composition and performs inference between logical formulas. To handle compound words in clinical texts, we included a compound-word analysis module to ccg2lambda. The compound-word analysis module first assigns semantic tags to the constituents of compound words using sequence-labeling models. Based on this information, the module derives the Combinatory Categorial Grammar (CCG) trees of compound words and obtains their semantic representations that allow logical inference. In addition, we created an inference test set involving compound words with critical texts. The experiments using the test set showed that our inference system achieved comparable or superior performance to the deep learning-based NLI models. Our system particularly predicted labels accurately for non-entailment problems. Key Words: Recognizing Textual Entailment, Compound Words Analysis, Clinical Texts, Semantic Analysis ## 1 はじめに 医療分野には電子カルテや退院サマリといった症例テキストが蓄積されている。これらを新たな知識の発見に繋げるために,自然言語処理技術を応用する研究が試みられている。たとえば,英語では症例テキストを対象とした推論やテキストマイニング (Bethard et al. 2017; Romanov and Shivade 2018; Yadav et al. 2018) が活発に研究されつつある. 日本語でも症例テキストを解析する研究が発展しつつあり, 病名抽出 (Aramaki et al. 2017; 荒牧他 2018) や診療情報抽出 (東山他 2015), 患者状態の表現抽出 (Usui et al. 2018), 臨床医学表現の医学的関係抽出 (矢田他 2022) など,固有表現抽出や関係抽出夕スクを中心に,様々な解析技術が提案されている. 一方で, これまでの日本語の症例テキストの解析技術は固有表現抽出のような文字列の表層的な情報のマッチングに基づく解析が中心であり,否定や量化といった構成素の構造を考慮した高度な意味解析については発展途上である。 その理由の一つとして, 日本語の症例テキストには症状や診断名などの複数の医療用語から構成される複合語が多く含まれており,複合語の構文解析や意味解析が難しいという問題がある. 複合語を含む症例テキストの例を (1)に示す. (1)非持続性心室頻拍が認められたため,アミオダロン併用した. (2) a. 心室頻拍は持続性ではない. b. アミオダロンを併用した. (1)の「非持続性心室頻拍」からは,「持続性ではない心室頻拍」が認められたこと,「アミオダロン併用」からは「アミオダロンを併用」したことがわかる。このように複合語には,複合語 を構成する要素間の様々な意味関係が非明示的に含まれている。これらの意味関係を同定することができれば,複合語が現れる (1)のような文から,複合語が現れない $(2 \mathrm{a})$ や $(2 \mathrm{~b})$ のような文への含意関係が認識可能となる. これまで, 日本語の高度な意味解析・推論システムとして ccg2lambda (Martínez-Gómez et al. 2016) が提案されている。ccg2lambda は,テキストに対して組合せ範疇文法 (Steedman 2000) に基づく構文解析と,高階論理に基づく意味解析を行い,テキストの意味を高階論理式によって表現し,論理式間の含意関係を定理証明器を用いて自動判定する含意関係認識システムである. ccg2lambda は否定や量化 (Martínez-Gómez et al. 2016), 時間関係 (Sugimoto and Yanaka 2022) と, 構成素の構造にもとづく意味を広範囲に扱うことができ,近年では一般ドメインのテキストに限らず,金融テキスト (外園他 2018) や供述文書 (小谷野他 2021) の意味解析への応用研究も進められている。ccg2lambdaを用いて症例テキストの意味解析と推論を実現できれば,症例テキストの複合語に含まれる否定や量化といった構成素の構造にもとづく意味を正しく扱い,症例テキスト間の含意関係を正しく計算することが可能となる。 そこで本論文では, ccg2lambda を改良して, 症例テキストの高度な意味解析と推論を扱える推論システム Medc2l(メドシーツーエル)を提案する.具体的には,ccg2lambdaに複合語解析モジュールを追加することで,複合語を含む症例テキストに対して頑健に意味解析と推論ができるようにする。 Medc2l の複合語解析モジュールは, (i) 症例テキストに含まれる複合語の抽出 (ii) 複合語を構成する形態素間の意味的な関係を表す意味現象タグの付与 (iii) 意味現象夕グに基づく複合語の構文解析 (iv) 意味現象夕グに基づく複合語の意味解析 から構成される. (i) で抽出した複合語に対して意味現象タグのアノテーションを行い, (ii) では系列変換モデルを学習することによって構築した複合語意味現象夕グ分類モデルを用いる. (iii) では予測された意味現象タグを元に複合語の構造を CFG 解析したのち CCG 部分木に変換 し, (iv)では (iii)の CCG 部分木に基づいて高階論理の意味表示を導出する. 本研究の貢献は以下の 3 点である. - 症例テキストに含まれる複合語に対して複合語を構成する形態素間の意味関係を複合語意味現象タグとして定義し,アノテーションデータを構築した。 - 複合語意味現象夕グに従って複合語の構文解析・意味解析を行う複合語解析モジュールを提案し,ccg2lambda と組み合わせて症例テキストの高度な意味解析と推論を実現する論理推論システム Medc2l を構築した. ・日本語の症例テキストのための評価用推論データセットを構築し, 提案する論理推論システムと深層学習の含意関係認識モデルの比較実験を行った. なお, 本研究で構築した症例テキストの推論システム, 複合語意味関係データセット, 症例テ キストの推論データセットは, それぞれ研究利用可能な形で公開予定である. ## 2 背景 ## 2.1 含意関係認識 自然言語処理分野のタスクの一つに, 含意関係認識 (Recognizing Textual Entailment, RTE) ${ }^{1}$ がある.含意関係認識とは,文間の意味論的な包含関係を判定するタスクであり「前提文が真である状況で,仮説文が必ず真であるかどうか」を判定する.本研究では, 含意関係認識夕スクを, 前提文に対して仮説文が真であれば含意 (entailment), それ以外であれば非含意 (non-entailment) であることを判定する二値分類のタスクとして考える.以下の前提文と仮説文のぺア (3) は含意の例,前提文と仮説文のペア (4) は非含意の例である. (3) a. 非持続性心室頻拍が認められたため, アミオダロン併用した. b. 心室頻拍が認められたため, アミオダロンを併用した. (4) a. 生検で非乾酪性肉芽腫を認めた. b. 生検で乾酪性肉芽腫を認めた。 英語では医療ドメインの含意関係認識データセットとして,外科医が臨床ノートから抽出した前提文に対して仮説文と正解ラベルを付与した MedNLI (Romanov and Shivade 2018)や, 生物医学論文のコーパスからブートストラップ手法で構築した BioNLI (Bastan et al. 2022) がある。近年では英語に限らず多言語におけるデータセットの必要性が高まっており, 医療ドメインではロシア語の医療ドメインの言語理解ベンチマーク RuMedBench (Blinov et al. 2022) が構築されている. 日本語の医療ドメインの含意関係認識データセットは管見の限りでは存在せず,日本語の症例テキストを用いて医療ドメインの含意関係認識データセットを構築した点も本研究の貢献の一つである. ## 2.2 ccg2lambda テキスト間の含意関係を判定するシステムとして, ccg2lambda (Martínez-Gómez et al. 2016)がある。ccg2lambda とは,組合せ範疇文法 (Combinatory Categorial Grammar, CCG) (Steedman 2000; 戸次 2010) に基づく高精度な構文解析と, 高階論理に基づく自動推論システムを組み合わせた高度な意味解析・推論システムである,構文解析では,システムに入力された前提文・仮説文に対して, 日本語形態素解析器 Janome ${ }^{2}$ を用いて形態素解析を行い, CCG 構文解析器  depccg (Yoshikawa et al. 2017)を用いて,CCG 構文木に変換している. 意味解析では,得られた CCG 構文木に対し,語の統語・意味情報を指定する意味テンプレートを用いて,論理式による意味表示を CCG の組合せ規則が定める計算にしたがって合成する。そして,前提文の意味表示と仮説文の意味表示間の含意関係を, 自然演繹に基づく定理証明支援系である Coq (Bertot et al. 2004)を用いて自動で判定する. ## 2.3 組合せ範疇文法 組合せ範疇文法 (Combinatory Categorial Grammar, CCG) は語彙化文法の一種であり,自然言語の弱文脈依存性を捉えるのに適した文法体系であることが知られている。CCGの統語範疇は, $N$ (普通名詞), $N P$ (名詞句), $S$ (文) などの基底範疇と, 二項演算子 $/ \backslash を$ 用いて再帰的に定義される関数的範疇の二種類がある。CCGは多数の語彙項目を含む辞書と, 比較的少数の組合せ規則から構成されており, 語彙項目は表層形(音韻形式,統語範疇, 意味表示の三つ組からなる。 図 1 に組合せ規則の例を示す。たとえば,関数適用規則 $(>)$ により, $X / Y$ という形の統語範疇及び意味 $f$ をつ語は, その右側にある $Y$ という形の統語範疇及び意味 $a$ をつ語と結びつき, $X$ という統語範疇及び意味 $f a$ をつ語が形成される.語の意味はラムダ項によって表現され, 組合せ規則に基づいて得られたラムダ項を $\beta$ 簡約することで, 最終的な意味表示(論理式)を得ることができる. 本研究において,統語理論として CCGを採用したことには理論面・実装面の理由がある.理論面では, 先行研究 (戸次 2010) において日本語の基本的な構造が明らかにされていることから, 複合語のような, あまり意味論的な研究が進んでいない対象についても系統的に分析できる,ということが挙げられる。実装面では,CCGについては既に頑健で高速な,日本語用の $\mathrm{CCG}$ 構文解析器が複数利用可能であることが挙げられる ${ }^{3}$. $ \begin{array}{cc} \frac{X / Y: f \quad Y: a}{X: f a}> & \frac{Y: a \quad X \backslash Y: f}{X: f a}< \\ \frac{X / Y: f \quad Y / Z: g}{X / Z: \lambda x \cdot f(g x)}>B & \frac{Y \backslash Z: g \quad X \backslash Y: f}{X \backslash Z: \lambda x \cdot f(g x)}<B \end{array} $ 図 $1 \mathrm{CCG}$ の組み合わせ規則(関数適用規則 $:>,<$, 関数合成規則 $:<B,>B$ )  / \mathrm{CCG}$構文解析器との組み合わせに限定されたものではなく, 語彙化文法を用いた任意のアプローチが利用しうるものである。本研究の手法は,上に述べたような,CCG を採用することによるメリットを享受してはいるが,意味現象タグは CCG とは独立した設計であり,任意の文法理論の統語構造・意味表示への写像が定義可能である. } ## 3 症例テキストの意味解析・推論システム ## 3.1 システムの全体像 ccg2lambda を用いた症例テキストの意味解析・推論システムの全体像を図 2 に示す. まず,概要を説明する,入力となる前提文・仮説文は,文の構文解析の処理の中で日本語形態素解析器 Janome によって形態素解析が行われ, CCG 構文解析器 depccg によって, CCG 構文木に変換される。形態素解析器については, ComeJisho (相良他 2012) のような医療用語辞書を登録した形態素解析器を採用することも検討したが,複合語によっては一語として扱われてしまうため, 本研究では複合語内の意味関係の分析のしやすさから一般的な形態素解析器を (i )複合語の抽出 (ii)意味現象タグの付与 } & \multirow{2}{*}{ 出力: } & 急味現象 & \multicolumn{2}{|c|}{ グ(CFG規則 $\sigma$} \\ (iii)複合語の構文解析 図 $2 \mathrm{ccg} 2$ lambdaを用いた症例テキストの意味解析・推論システム Medc2l 採用した. 次に, 文中の複合語解析の処理は (i) 複合語の抽出, (ii) 意味現象夕グの付与, (iii)複合語の構文解析の 3 つのステップで行われる。(i) では CCG 構文木の品詞夕グを確認し, 連続した名詞もしくは接頭辞の最大列からなる部分木を複合語として抽出する。(ii)では抽出した複合語の表層形を複合語意味現象夕グ分類モデルに渡し,複合語内の形態素間の意味関係を表す意味現象タグを付与する。意味現象タグの詳細については, 3.2.1 節で説明する。複合語意味現象タグ分類モデルには,複合語内の形態素の表層の系列を意味現象タグの系列に変換する系列ラベリングモデルを用いる。そして,(iii)では意味現象タグを終端記号とする文脈自由文法 (CFG) に基づいて, 各複合語の CFG 木を構築する。CFG 木を CCG 木へ変換する規則群を定義することで, 各複合語の $\mathrm{CFG}$ 木は $\mathrm{CCG}$ 部分木に変換される。その後, $\mathrm{CCG}$ 構文木内の各複合語を,上の手順で得た CCG 部分木に置き換えたのち,文の意味解析の処理で CCG 構文木において語に意味情報を割り当てる意味テンプレートに基づいて,ラムダ計算を用いて複合語を含む文全体の意味合成を行う。なお, 本研究で提案する複合語解析モジュールの (iv) 複合語の意味解析は, 意味現象タグに基づく意味テンプレートを用いて,文の意味解析の処理の中でまとめて行われる。最後に,この過程によって得られた意味表示(論理式)の対に対し,証明支援ツールである Coqを用いて含意関係を判定する. ## 3.2 複合語解析 ## 3.2.1複合語意味関係データセット 症例テキスト内の複合語に対し,独自に作成したアノテーションガイドラインに基づいて意味現象タグのアノテーションを行い,複合語意味現象タグ分類モデルの学習に必要な複合語意味関係データセットを構築した,複合語意味関係データセットは,理論言語学の研究プロセスを踏襲し,意味現象タグの設計,夕グのアノテーション,意味合成・推論による夕グの妥当性の検証,意味現象タグの見直しを繰り返し行った.意味現象タグは本研究独自のものであり,設計手順は以下の通りである。 (i)J-MedStd CR 頻度バランスサブセットを目視で確認し, 複合語を抽出する。 (ii) 抽出した複合語について,意味関係のパターンを分類する。(iii)パターンに応じて意味現象タグを設計する。 症例テキストとしては, J-MedStd CR: 症例報告 (Case Reports) コーパス ${ }^{4} の$ 頻度バランスサブセット 224 件を対象とする. J-MedStd CR: 症例報告コーパスは, J-Stage にてオープンアクセスで公開されている症例報告論文 PDF から OCR 抽出したテキストのコーパスである. 本研究では, J-MedStd CR 頻度バランスサブセット 224 件に含まれる複合語 3,443 件に対して人手で意味現象タグを付与した。表 1 に 14 種類の意味現象タグの出現件数を示す. CW は複合語全体に付与する夕グであり, 複合語内の形態素にはその他 13 種類の夕グを付与する. 意味現象夕 ^{4}$ https://sociocom.naist.jp/j-medstd/cr/ } 表 1 複合語意味関係データセットに含まれる意味現象タグの件数 グのアノテーションは, 日本語母語話者で形式意味論を学んでいる学生 1 名がガイドラインを参照して作業を行った。アノテーションには,アノテーションツールである brat利用した. アノテーション結果の妥当性検証とアノテーションガイドラインの作成は, 形式意味論の専門家と協議した上で実施した。以下に各意味現象夕グの定義と例を示す. (5) CW:「複合語」を表す。複合語全体に付与する. a. ...により [Nivolumab 投与再開 $\mathrm{CW}]$ した. b. [脳梗塞 $\mathrm{CW}$ ], [左房内血栓 $\mathrm{CW}$ ]に対して [WF 投与開始 $\mathrm{CW}]$ となった. (6)PP:「後ろの形態素の一部」を表す.後ろの形態素と結合して1つの形態素として扱いたいものに付与する。 a. [当 $\mathrm{PP}$ ] [院 ${ }_{\mathrm{NI}}$ ] [紹介 $\mathrm{EV}$ ](=当院に紹介する) b. [肥大 ${ }_{P P}$ ] [型 M_EN $^{2}$ ] [筋 ${ }_{P P}$ ] [症 ${ }_{\text {EN }}$ ](= 肥大型の心筋症) (7) EN:一般的な「エンティティ」を表す. エンティティとなる(最後の)形態素に付与する. a. 抗生 [剤 $\mathrm{EN}$ ] b. 左房内 [血栓 $\left.{ }_{E N}\right]$ (= 左房内の血栓) ^{5}$ http://brat.nlplab.org/ } (8) Q_EN:量系の「エンティティ」を表す.「EV+量」「EV+頻度」のような構成をなす複合語の「量」や「頻度」を表す形態素に付与する. a. 投与 [量 Q_EN $]$ (= 投与する量) (9) T_EN:傾向系の「エンティティ」を表す.「EV+傾向」という構成をなす複合語の「傾向」を表す形態素に付与する。 b. 縮小 [傾向 T_EN](=縮小する傾向) (10)E_EN:作用系の「エンティティ」を表す.「EV+作用」「EV+効果」という構成をなす複合語の「作用」や「効果」を表す形態素に付与する。 a. インスリン分泌 [作用 E_EN ](=インスリンを分泌する作用) b. 血糖改善 [効果 E_EN] (=血糖が改善する効果) (11) EV:一般的な「イベント」を表す。典型的にはサ変動詞の語幹に付与する. a. インスリン [分泌 ${ }_{E V}$ ] 促進作用(ニインスリンを分泌することを促進する作用) b. [転移 EV] [再発 $E V] (=$ 転移し再発する) (12) S_EV:「サ変動詞の語幹をヨ格として取るイベント」を表す.「転移し再発する」という意味の「転移再発」のような, イベント間の等位接続の構造をもつ複合語と区別するため,一般的なイベントを表す「EV」とは別に用意している. a. 抗生剂投与 [開始 S_EV] (=抗生剤を投与することを開始する) b. 歩行未未獲得 S_EV](=歩行(すること)を獲得していない) (13)GA:「ガ格名詞句」を表す.ガ格名詞句として後続するイベントの項となる形態素に付与する。 a. [血糖 $\mathrm{GA}_{\mathrm{GA}}$ ] 改善効果 (=血糖が改善する効果) b. 炎症 [反応 $\mathrm{GA}_{\mathrm{A}}$ ] 上昇(=炎症反応が上昇する) (14)WO:「ヲ格名詞句」を表す. ヨ格名詞句として後続するイベントの項となる形態素に付与する. a. 抗生 [剤 Wo ] 投与開始 (=抗生剤を投与することを開始する) b. ドパミン [製剤 Wo ] 投与(=ドパミン製剤を投与する) (15) NI:「二格名詞句」を表す。二格を持つ名詞句として後続するイベントの項となる形態素に付与する。 a. 当 [院 ${ }_{\mathrm{NI}}$ ] 紹介(=当院に紹介する) b. $\left[\right.$ 肺 $\left.{ }_{\mathrm{NI}}\right]$ 転移(=肺に転移する) (16)M_EN:「修飾語」を表す。後ろのエンティティを修飾している形態素に付与する. a. C [型 M_EN] [慢性 M_EN] [肝炎 EN](=C 型かつ慢性の肝炎) b. 肥大 [型 M_EN] 心筋 [ 症 EN ] (=肥大型の心筋症) PA:「体の部位」を表す。体の部位を表す形態素に付与する. a. [月干 $\left.{ }_{P A}\right]$ 機能増悪傾向 (= 肝機能が増悪する傾向 $)$ b. [食道 $\mathrm{PA}]$ 静脈瘤 (= 食道の静脈瘤 $)$ (18)NEG:「否定」を表す.後に続くM_EN や EV・S_EVを否定している形態素に対して付与する. a. [非 NEG $][$ 定型 M_EN ] [抗 PP] [酸 PP ][菌 PP] [症 EN ](=定型ではない抗酸菌症) b. [無 NEG $]$ [再発 EV](=再発しない) 複合語中のイベントとエンティティの関係は,内の関係と外の関係に分類される。内の関係とは,イベントとエンティティの間に何らかの格関係がある場合を指す。たとえば,「患者に投与した薬」という文では,「薬」は「投与」にとってのヲ格名詞句である。それに対し,イベントとエンティティの間に格関係がない場合を外の関係という.たとえば,「患者に投与した回数」 という文では,「投与」と「回数」の間には格関係がない,外の関係は,エンティティが「量」,「傾向」,「作用」のどれを表すかによって,少なくとも 3 種類に分類される。この 3 種類の外の関係を区別するために,一般的なエンティティを表す「EN」とは別に「Q_EN」「T_EN」「E_EN」 という意味現象夕グをそれぞれ用意している。 以下は,アノテーションの判断が難しい例である. (19)男性が [意識 Wo ] [消失 $\mathrm{EV}] \mathrm{CW}]$ となった. 「意識消失」という複合語は,「(人が)意識を失う,(人の)意識がなくなる」という意味であり,「意識」は「消失」にとってガ格名詞句であるとも尹格名詞句であるとも考えられる。このように複数の格関係が考えられる複合語は判断が難しいが,前後の文脈に応じて専門家と協議の上, 最終的にアノテーションするタグを決定した. ## 3.2 .2 複合語意味現象タグ分類モデル 作成した複合語意味関係データセットを学習データとし, BiLSTM (Wang et al. 2015)を用いた系列ラベリングモデルと, 汎用言語モデル BERT (Devlin et al. 2019) を用いた系列ラベリングモデルの 2 種類を用いて, 複合語意味現象タグ分類モデルを構築した,BiLSTM は,LSTM を双 方向に組み合わせたものであり, 前後の文脈を考慮して意味関係を特定する必要がある複合語解析に適切なモデルである.BERT は Transformer ベースのモデルであり,日本語の Wikipedia のデータを用いて事前学習された, 東北大学が公開しているモデル 6 を使用する 7 . 使用する日本語 BERT の Tokenizer は IPADIC を辞書に用いた MeCab+WordPieceであり, 学習は元の BERT と同じ構成で Whole Word Masking で学習したものを使用する.BiLSTM モデルの実装には Keras を,BERT モデルの実装には PyTorch を使用した。モデルの評価には 5 分割交差検証を採用し,精度はそれぞれ $93.5 \%, 93.3 \%$ であった.複合語意味現象夕グ分類モデルには,それぞれの最も精度の良いモデルを用いた。 ## 3.2.3複合語の構文解析 複合語内の意味関係に基づいて複合語解析を行うために,意味現象タグを終端記号とした木構造を出力する $\mathrm{CFG}$ パーザを構築した。設計した $\mathrm{CFG}$ 規則の一部を表 2 に示す. 開始記号は $\mathrm{CW}$ であり,矢印の左側は非終端記号である。記号に引かれた下線は,その記号が終端記号であることを表している。N'や GA'など, ダッシュがついた記号を含む規則は,ループを避けるために必要である。 CFG 規則は, CFG 木から生成される CCG 構文木に合わせて,二分木になるよう留意して設計した,NEGに適用される規則には 2 種類あるが,詳しくは 3.2 .4 節で説明 表 2 CFG 規則 (一部)  する。以下に構文解析の例を示す. (20) [当 $\mathrm{PP}]\left[\right.$ [院 M_EN $^{2}$ ] [循環 $\left.\mathrm{PP}\right]$ [器 $\mathrm{PP}$ ][ [内科 $\left.{ }_{\mathrm{NI}}\right]$ [ 院 $\left.\mathrm{EV}\right]$ 「当院循環器内科入院」という複合語には,(20)のように意味現象タグが付与されるのが正解である。これに対し CFG 規則を適用すると,まず図 3 の CFG 木が導出されるが,PP が付与された形態素は後続する形態素の一部であるため, 図 4 のように形態素を結合した CFG木に変換する。その後, 意味合成が整合するように図 5 のような $\mathrm{CFG}$ 木に編集した上で,表 3 の変換規則に基づいて図 6 の CCG 部分木に変換する。統語範疇と意味表示の型との対応関係は表 4 図 $3 \mathrm{CFG}$ 規則適用直後の $\mathrm{CFG}$ 木 図 4 形態素結合後の CFG 木 図 5 変換前の $\mathrm{CFG}$ 木 図 6 変換後の CCG 部分木 表 3 CFG 木から CCG 構文木への変換規則および意味テンプレート 表 4 意味現象夕グ, 統語範疇と意味表示の型との対応関係 に示す. 意味表示の型は, Entity(Entity), Event(Event), Proposition(Prop)の 3 つの基本型と, それらから生成される関数型からなる。 ## 3.2.4 意味解析 表 3 に意味テンプレートの一部を示す.Surfの箇所には,各語の表層形が入る.意味テンプレートでは統語範疇をキーとして意味表示を割り当てるため,統語範疇の素性に元の意味現象タグの情報を含めるように設計した。 3.2.1 節で述べたように,NEG は後ろに続くM_EN や EV・S_EV に対応する形態素の情報を否定する意味現象タグである。表 3 に示すように, M_ENの統語範疇は $N P / N P, \mathrm{EV} \cdot \mathrm{S} \_\mathrm{EV}$ の統語範疇は $S$ と異なる。したがって, NEGが付与された形態素の統語範疇は, その形態素の後に続く形態素の統語範疇に合わせた統語範疇を割り当てる必要があるため, NEGに関する CFG 規則や意味テンプレートを 2 種類作成した。なお,複合語に含まれる否定は一般に narrow scope を取るため, NEG に対応する意味表示は narrow scopeの分析を採用する.たとえば,「癌は無再発であった.」という文の複合語「無再発」に含まれる否定表現「無」のスコープには再発するというイベントのみが含まれ, 「癌」というエンティティの存在量化は, 否定よりも広いスコー プをとる. 3 種類のイベントとエンティティ間の外の関係 (EV T_EN, EV Q_EN, EV E_EN), および EV と S_EV の違いについては,意味現象夕グに対応した unary rule によって区別することができる。外の関係に関する意味現象タグ,およびS_EVに対応する unary ruleの例を表 5 に, unary rule を用いた「EV T_EN」の意味合成を図 7 に示す. [傾向 T_EN] の統語範疇が $N P$ であるのに 表 5 外の関係に関する意味現象タグ, および S_EV に対応する unary rule 図 7 「肝機能増悪傾向」の意味合成 対し, [月干 $\left.{ }_{\mathrm{PA}}\right]$ [機能 ${ }_{\mathrm{GA}}$ ] [増悪 $\left.{ }_{\mathrm{EV}}\right]$ の統語範疇は $S$ となっている. 表 5 に示す unary rule を適用することで, [月干 $\left.{ }_{\mathrm{PA}}\right][$ [幾能 $\mathrm{GA}]$ [増悪 $\left.{ }_{\mathrm{EV}}\right]$ の統語範疇は $N P / N P$ に変換され, [月干 $\left.{ }_{\mathrm{PA}}\right]\left[\right.$ [幾能 $\mathrm{GA}^{\mathrm{GA}}$ ] [増悪 ${ }_{E}$ ] [傾向 T_EN]の意味表示が導出可能となる. ## 4 評価実験 ## 4.1 症例テキストの推論データセットの構築 提案システムの評価実験にあたり症例テキストの複合語に関する推論データセットを用意するため, J-MedStd CR 頻度バランスサブセット 224 件中 91 件から複合語を含む症例テキストを目視で確認して抽出, 1,054 件の推論データセットを人手で作成した。表 6 に推論データセットの例を示す。推論データセットに含まれる複合語は 709 件である。症例報告コーパスから抽出した複合語を含む症例テキストを簡略化した文を前提文とし,前提文をもとに仮説文を作成した.データセットには,前提文が仮説文を含意している (entailment) ペアが 614 件,前提文が仮説文を含意していない (non-entailment) ペアが 440 件含まれている. entailment の仮説文は,前提文の意味を変えないことと文の自然さを維持することに留意して作成した,表 6 の $1 \cdot 4$ 行目の例は, 複合語に含まれる形態素の一部に対して助詞やイベント動詞の活用語尾を追加することで作成し, $2 \cdot 3$ 行目の例は,前提文に含まれる複合語の形態素 の一部を削除することで作成した。 また, non-entailment の仮説文については, 表 6 の $6 \cdot 8$ 行目のように前提文の一部を類義語や反義語に置き換える,7 行目のように entailment にならないよう助詞を追加する,といった操作を行うことで作成した。 ## 4.2 実験設定 作成した推論データセットを用いて,深層学習の含意関係認識モデルと提案システムとで精度比較を行なった.深層学習のモデルには,標準的な日本語の RTE データセットである JSICK (Yanaka and Mineshima 2022)(学習データ 5 千件), JSNLI (吉越他 2020)(学習データ約 53 万件)で entailment・non-entailment の二値分類 8 タスクとしてファインチューニングした日本語 BERT(日本語 BERT-JSICK,日本語 BERT-JSNLI)を用いた.提案システムは,正解の意味現象タグを用いて意味解析を行った場合 (Gold タグ), BiLSTM モデル, BERT モデルを複合語意味現象タグ分類モデルに用いた場合の 3 条件で評価を行った. ## 4.3 実験結果と考察 表 7 に意味現象タグの予測結果と推論の評価結果を示す。意味現象タグの予測結果については,推論データセットに含まれる複合語 709 件に対するタグ予測の正答率を示している.全ての 表 6 推論データセットの例 表 7 意味現象夕グの予測結果, および推論の評価結果 ^{8}$ contradiction は non-entailment として扱った。 } 複合語に対し正解の意味現象タグが付与されていた場合の提案システム(Gold タグ)は, 1,054 件中 847 件 $(80.4 \%)$ の文ぺアについて含意関係を正しく判定した.BiLSTM モデルを複合語意味現象タグ分類モデルに用いた場合の提案システム (BiLSTM), および BERT モデルを複合語意味現象夕グ分類モデルに用いた場合の提案システム (BERT) は, 意味現象タグの予測失敗により推論に失敗してしまったものがあるため,それぞれ $69.7 \%, 64.3 \%$ と,提案システム(Gold タグ)に比べ低い性能となった。深層学習のモデルは,ファインチューニングに JSICKを用いた場合(日本語 BERT-JSICK),JSNLIを用いた場合(日本語 BERT-JSNLI)のいずれも,正解ラベルが non-entailment であるケースの多くについて, entailment と予測してしまった。この原因の一つとして, 本研究で構築した推論データセットの多くは前提文と仮説文に含まれる語彙がほとんど共通しており,単純に語彙の重複でみると entailment と予測しやすいからと考えられる。これに対して,提案システムは non-entailment のケースを正しく予測する傾向が見られた. そのため, 正解ラベルが entailment である文ぺアについては, 深層学習のモデルが $95.0 \%$, $92.8 \%$ と高い性能を示したが,推論全体においては,提案システム(Gold タグ)の性能が最も高い結果となった.推論データセット内の複合語に付与された意味現象タグごとの正答率を表 8 に示す.「件数」の列は,推論データセット 1,054 件のうち,各意味現象タグが付与された複合語を含むデータセットの件数を示している。 1 件の複合語に対し複数の意味現象タグが付与されるため, 各件数には重複したデータセットも含まれる。いずれの意味現象タグについても,提案システム (BiLSTM), 提案システム (BERT), 日本語 BERT-JSICK, 日本語 BERT-JSNLI に比べ, 提案システム(Gold タグ)の正答率が最も高い結果となった. このうち,NEGが付与された複合語を含むデータセット 66 件の正答数については, 日本語 BERT-JSICK は 35 件 表 8 推論データセット内の複合語に付与された意味現象タグごとの正答率(推論全体) (53.0\%), 日本語 BERT-JSNLI は 38 件 (57.6\%) と少ないのに対し, 提案システム(Gold タグ) では 62 件 $(97.0 \%)$ の文ぺアについて正しい含意関係を予測した。また,提案システム(Gold夕グ)の中で最も正答率が低かったものは,WO が付与された複合語を含むデータセット $(74.7 \%)$ であった. 原因としては, 4.4 節で述べる「形態素解析によるエラー」および「意味テンプレー トの不足によるエラー」の多くが,WO が付与された複合語に関係しているからだと考えられる. 各エラーの詳細については, 4.4 節で説明する。 ## 4.4 エラー分析 提案システムが含意関係を誤って判定してしまった例についてエラー分析を行う。表 9 にエラーのタイプと推論データセットの例を示し,表に記載の順に具体例を紹介する. 形態素解析によるエラーでは, 形態素解析器である Janome が「膵炎発症」を「膵炎発」「症」,「消裉傾向」を「消」「褪傾向」のように誤って分割してしまったため, 複合語内の意味関係を正しく捉えることができず,推論に失敗した。 構文解析によるエラーについては, 例を図 8 に示す. 仮説文に含まれる「後腹膜血腫」は複合語であるため「後」「腹膜」「血腫」が先に結合する必要があるが,構文解析の結果では「腹膜血腫と診断した」が先に結合しており,その後「特発性の後」と結合している。そのため, CCG 構文木から複合語を抽出することができず,正しい複合語解析を行うことができなかった. 意味テンプレートの不足によるエラーについては, 以下に例を示す. (21)「立位保持練習」の意味表示 $ \begin{aligned} & \lambda K . \exists y \cdot(\exists x .(\text { 立位 }(x) \wedge \exists e .(\text { 保持 }(e) \wedge \text { する }(e) \wedge(\operatorname{asEntity}(e)=y) \wedge(\operatorname{Acc}(e)=x))) \wedge \\ & \exists e .(K(\lambda e 2 .(\text { 練習 }(e 2) \wedge \text { する }(e)), e) \wedge(\operatorname{Acc}(e)=y))) \end{aligned} $ 表 9 エラーのタイプと推論データセットの例 図 8 「特発性の後腹膜血腫と診断した」の構文解析結果 (22)「立位保持の練習」の意味表示 $\lambda N F . \exists y .(N(\lambda x . \exists x$. (立位 $(x) \wedge \exists e$. 保持 $(e) \wedge$ する $(e) \wedge(\operatorname{asEntity}(e)=y) \wedge(\operatorname{Acc}(e)=$ $x)), y) \wedge \exists z .(\exists e .($ 練習 $(e) \wedge$ する $(e) \wedge(\operatorname{asEntity}(e)=z)) \wedge \operatorname{Rel}(z, y) \wedge F(z)))$ 「立位保持練習」の意味合成を図 9 に「立位保持の練習」の意味合成を図 10 に示す. 症例テキスト内では,「Aを Bする」ということを「AのB」としばしば記述する。しかし,図 10 を見てみると,「の」の意味表示が M_ENに関する意味表示と同一になっている,そのため,「立位保持」が「練習」のヲ格名詞句であることを捉えることができず,推論に失敗してしまった.正しい意味表示を導出するには,意味テンプレートを改良し,助詞「の」を正しく解析する必要があるが,「の」の意味表示を何にすべきかは文脈によって異なる,そのため,文脈に応じて 「の」の意味テンプレートを切り替える必要がある. 「EV S_EV」に関するエラーについては以下に例を示す. a. [歩行 EV][練習 S_EV] が可能となった. b. 歩行が可能となった. a. [投与 EV][開始 S_EV] が可能となった. b. 投与が可能となった. 複合語内でサ変動詞の語幹をヨ格として取るイベントに対しては, 一様に「EV S_EV」という意味現象夕グが付与される。しかし,「投与開始」という複合語を含む前提文 $(24 a)$ は仮説文 (24b) を含意するのに対し,「歩行練習」を含む前提文 (23a)は,仮説文 (23b) を含意しない. このよう $\lambda S K . \exists y .(\exists x$. 立位 $(x) \wedge \exists e .($ 保持 $(e) \wedge$ する $(e) \wedge(a s E n t i t y(e)=y) \wedge(A c c(e)=x))) \wedge S(\lambda J E 2 .(K(J, E 2) \wedge(A c c(E 2)=y))) \quad \lambda K . \exists e . K(\lambda e 2 .($ 練習 $(e 2) \wedge$ する $(e 2)), e)$ $\lambda K . \exists y .(\exists x .($ 立位 $(x) \wedge \exists e .($ 保持 $(e) \wedge$ する $(e) \wedge(\operatorname{asEntity}(e)=y) \wedge(A c c(e)=x))) \wedge \exists e .(K(\lambda e 2 .($ 練習 $(e 2) \wedge する ~(e)), e) \wedge(A c c(e)=y)))$ 図 9 「立位保持練習」の意味合成 図 10 「立位保持の練習」の意味合成 に, サ変動詞の語幹をヨ格として取る複合語には, サ変動詞が表す内容を含意するものとしないものがある。これらを正しく予測できるようにするためには,S_EVが付与された「開始」や 「練習」といった要素が,「歩行」や「投与」といったサ変動詞語幹のアスペクトやモダリティに相当する意味的貢献を持つかどうかを分析する必要がある. スコープに関するエラーについて, 前提文が「患者は歩行未獲得であった.」である推論デー タセットの例を表 10 に,提案システムが出力した前提文および仮説文の意味表示をそれぞれ以下に示す. (25) 患者は歩行未獲得であった. $\exists x$. (患者 $(x) \wedge \exists y .(\exists e$. 歩行 $(e) \wedge$ する $(e) \wedge(\operatorname{Nom}(e)=x) \wedge(\operatorname{asEntity}(e)=y)) \wedge$ $\neg \exists e$. (獲得 $(e) \wedge$ する $(e) \wedge(\operatorname{Nom}(e)=x) \wedge(\operatorname{Acc}(e)=y)))$ (26) 患者は歩行を獲得しなかった. $\exists x$. (患者 $(x) \wedge \exists y$. $\exists e$. (歩行 $(e) \wedge$ する $(e) \wedge(\operatorname{asEntity}(e)=y)) \wedge \neg \exists e$. 獲得 $(e) \wedge する ~(e) \wedge$ $(\operatorname{Nom}(e)=x) \wedge(\operatorname{Acc}(e)=y))))$ (27) 患者は歩行を獲得した. $\exists x$. (患者 $(x) \wedge \exists y .(\exists e .($ 歩行 $(e) \wedge$ する $(e) \wedge(\operatorname{asEntity}(e)=y)) \wedge \exists e$. (獲得 $(e) \wedge する ~(e) \wedge$ $(\operatorname{Nom}(e)=x) \wedge(\operatorname{Acc}(e)=y))))$ (28) 患者は歩行しなかった. $\exists x$. (患者 $(x) \wedge \neg \exists e$. 歩行 $(e) \wedge する ~(e) \wedge(\operatorname{Nom}(e)=x)))$ (29) 患者は歩行した. $\exists x$. (患者 $(x) \wedge \exists e$. 歩行 $(e) \wedge$ する $(e) \wedge(\operatorname{Nom}(e)=x)))$ 前提文に含まれる複合語「歩行未獲得」の意味合成を図 11 に示す. NEG は後ろの S_EVを否定する narrow scopeであるため, 前提文の意味表示は (25)のように「獲得する」というイベント & & \\ 患者は歩行を獲得した. & non-entailment & non-entailment & entailment & entailment \\ 患者は歩行しなかった. & entailment & non-entailment & non-entailment & entailment \\ 患者は歩行した. & non-entailment & entailment & entailment & entailment \\ 表 10 前提文が「患者は歩行未獲得であった.」である推論デー夕, および提案システム, 日本語 BERTJSICK, 日本語 BERT-JSNLI の予測結果 図 11 「歩行未獲得」の意味合成 のみが否定され,「歩行する」は否定のスコープ外にある,(26)の意味表示では,「歩行する」は否定されず「獲得する」が否定されており,(27)の意味表示ではどちらも否定されていない. そのため, 前提文と (26) との文ぺアを entailment, (27) との文ぺアを non-entailment と正しく予測できた。それに対し,(28)の意味表示は「歩行する」が否定されているため,前提文と (28) との文ぺアを non-entailment と誤って予測してしまった。また,(29)では「歩行する」は否定されておらず,上記で述べたように前提文でも否定のスコープ外となっているため, entailment と予測してしまった。これらを修正するには「歩行未獲得」を wide scopeで解析する必要があるが,否定のスコープが wide scopeであるか narrow scope であるかは,文脈によって異なる. そのため, 文脈に応じてどちらのスコープで意味解析すべきか判定した上で適切な否定の語彙項目を採用する必要があるが,これは今後の課題とする. 定理証明の際の外部知識の不足によるエラーの例としては,前提文「虫垂による癒着性イレウスが疑われた.」と仮説文「虫垂による腸閉塞が疑われた.」の文ぺアが挙げられる。この文ペアの正解ラベルは entailment であるが,この含意関係を示すためには「イレウスとは腸閉塞のことである」という外部知識を定理証明の際に補完する必要がある. しかし, 提案システムでは外部知識の補完が行われず, non-entailmentであると誤って予測してしまった。 その他のエラーについては, 複合語以外の構成素の意味合成に誤りがある例があった。以下に例を示す。 (30) 複合語「階段昇降」の意味表示 $\exists x$. (階段 $(x) \wedge \exists e$. 昇降 $(e) \wedge する ~(e) \wedge(\operatorname{Acc}(e)=x)))$ (31)「階段を昇降することが困難となった.」の意味表示 $\exists y .(\exists x$. (階段 $(x) \wedge \exists e$. (昇降 $(e) \wedge する ~(e) \wedge(\operatorname{asEntity}(e)=y) \wedge(\operatorname{Acc}(e)=x))) \wedge$ $\exists e .($ なる $(e) \wedge(\operatorname{Nom}(e)=y) \wedge \operatorname{Accl}(e, \exists x .($ 困難 $(x)))))$ (32)「階段を昇降した.」の意味表示 $\exists x$. (階段 $(x) \wedge \exists e$. (昇降 $(e) \wedge する ~(e) \wedge(\operatorname{Acc}(e)=x)))$ 「階段昇降」という複合語は「階段を昇降する」という意味であるため,前提文「階段昇降した.」 と仮説文「階段を昇降した.」の文ぺアの正解ラベルは entailmentである。一方で,「階段を昇降することが困難となった.」という意味の前提文 (31) と仮説文 (32)の含意関係は non-entailment になるはずである。しかし,(31)の意味表示を見ると,「階段を昇降する」かつ「困難となった」 という論理式になっているため, 前提文 (31) と仮説文 (32)の文ぺアについて, entailment であると誤って判定していた。 ## 5 おわりに 本論文では, 日本語の高度な意味解析・推論システム ccg2lambda に複合語解析モジュールを追加することで,複合語を含む症例テキストに対して頑健に意味解析と推論ができる推論システム Medc2l を構築した。さらに, 日本語の症例テキストを用いて症例テキストの複合語に関する推論データセットを構築し,提案システムの評価を行った.実験の結果,提案システムは深層学習の含意関係認識モデルと同等またはそれ以上の性能を示した。とくに,深層学習のモデルは正解ラベルが non-entailment であるケースの多くについても entailment と予測する傾向であったのに対して,提案システムは non-entailment のケースを正しく予測する傾向が見られた. 本論文で提案する複合語解析モジュールは, モジュール単体でも既存の病名抽出 (Aramaki et al. 2017; 荒牧他 2018) や診療情報抽出 (東山他 2015) 技術と組み合わせることで, 抽出された複合語内の意味関係の解析ツールとして貢献するはずである。また, 症例テキストの含意関係認識技術は,症例テキストを前提文,検索クエリを仮説文とみなせば,否定や量化などの意味を考慮した,高度な症例検索への応用可能性が期待される。 今後の展望として, 本研究の提案手法でより幅広い範囲の複合語を含むテキストを扱うことが考えられる.現アノテーション体系では,複合語に含まれる状詞(副詞など)は扱えておらず,そのための意味現象タグの設計も含めて今後の課題とする. ## 謝 辞 本研究の一部は, 政策科学総合研究事業 (臨床研究等 ICT 基盤構築 - 人工知能実装研究事業)21AC5001,JST さきがけ JPMJPR21C8,JSPS 科研費 JP20K19868 の支援を受けたものである. ## 参考文献 Aramaki, E., Yano, K., and Wakamiya, S. (2017). "MedEx/J: A One-Scan Simple and Fast NLP Tool for Japanese Clinical Texts." In Proceedings of MEDINFO2017, pp. 285-288. 荒牧英治, 若宮翔子, 矢野憲, 永井宥之, 岡久太郎, 伊藤薰 (2018). 病名アノテーションが付与された医療テキスト・コーパスの構築. 自然言語処理, 25 (1), pp. 119-152. [E. Aramaki et al. (2018). Development of the Clinical Corpus with Disease Name Annotation. Journal of Natural Language Processing, 25(1), pp. 119-152.]. Bastan, M., Surdeanu, M., and Balasubramanian, N. (2022). "BioNLI: Generating a Biomedical NLI Dataset Using Lexico-semantic Constraints for Adversarial Examples." In Findings of the Association for Computational Linguistics: EMNLP 2022, pp. 5093-5104. Association for Computational Linguistics. 戸次大介 (2010). 日本語文法の形式理論:活用体系・統語構造・意味合成. くろしお出版. [D. Bekki (2010). Nihongo Bunpo no Keisiki Riron: Katuyo-Taikei $\cdot$ Togo Kozo $\cdot$ Imigosei. Kuroshio Publishers.]. Bertot, Y., Castéran, P., Huet, G., and Paulin-Mohring, C. (2004). Interactive Theorem Proving and Program Development. Coq'Art: The Calculus of Inductive Constructions. Springer. Bethard, S., Savova, G., Palmer, M., and Pustejovsky, J. (2017). "SemEval-2017 Task 12: Clinical TempEval." In Proceedings of SemEval-2017, pp. 565-572. Blinov, P., Reshetnikova, A., Nesterov, A., Zubkova, G., and Kokh, V. (2022). "RuMedBench: A Russian Medical Language Understanding Benchmark." In Artificial Intelligence in Medicine, pp. 383-392. Springer International Publishing. Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." In Proceedings of the NAACLHLT 2019, Vol. 1, pp. 4171-4186. 東山翔平, 関和広, 上原邦昭 (2015). 医療用語資源の語彙拡張と診療情報抽出への応用. 自然言語処理, 22 (2), pp. 77-105. [S. Higashiyama et al. (2015). Vocabulary Expansion of Medical Language Resources for Medical Information Extraction. Journal of Natural Language Processing, 22(2), pp. 77-105.]. 外園康智, 長谷川貴博, 渡邊知樹, 馬目華奈, 策有紀子, 谷中瞳, 田中リベカ, Martínez-Gómez Pascual, 峯島宏次, 戸次大介 (2018). 意味解析システム ccg2lambdaによる金融ドキュメン卜処理. 第 32 回人工知能学会全国大会論文集, 3G1-05. [Y. Hokazono et al. (2018). Semantic Parsing in ccg2lambda and its Application to Financial Document Processing. In Proceedings of the 32nd Annual Conference of the Japanese Society for Artificial Intelligence, 3G1-05.]. Ishida, M., Yanaka, H., and Bekki, D. (2021). "Compositional Semantics for Compound Words in Medical Case Retrieval." In Proceedings of the 18th International Workshop on Logic and Engineering of Natural Language Semantics (LENLS18), pp. 231-239. 石田真捺, 谷中瞳, 馬目華奈, 戸次大介 (2021). 論理推論による症例検索に向けた日本語症例 テキストの複合語解析の試案. 第 35 回人工知能学会全国大会論文集, 4J3-GS-6f-05. [M. Ishida et al. (2021). Towards Multiword Expression Analysis for Logic-based Medical Case Retrieval. In Proceedings of the 35th Annual Conference of the Japanese Society for Artificial Intelligence, 4J3-GS-6f-05.]. 石田真捺, 谷中瞳, 戸次大介 (2022). 日本語症例テキストの複合語解析と論理推論. 第 36 回人工知能学会全国大会論文集, 1J4-OS-13a-05. [M. Ishida et al. (2022). Compound Words Analysis and Inferences of Japanese Clinical Texts. In Proceedings of the 36th Annual Conference of the Japanese Society for Artificial Intelligence, 1J4-OS-13a-05.]. 小谷野華那, 鈴木莉子, 春田和泉, 谷中瞳, 戸次大介 (2021). 実テキストにおける数量表現の含意関係認識に向けて. 第 35 回人工知能学会全国大会論文集, 4J2-GS-6e-02. [K. Koyano et al. (2021). Towards Recognizing Textual Entailment of Numerical Expressions in Real Text. In Proceedings of the 35th Annual Conference of the Japanese Society for Artificial Intelligence, 4J2-GS-6e-02.]. Martínez-Gómez, P., Mineshima, K., Miyao, Y., and Bekki, D. (2016). "ccg2lambda: A Compositional Semantics System." In Proceedings of ACL System Demonstrations, pp. 85-90. Romanov, A. and Shivade, C. (2018). "Lessons from Natural Language Inference in the Clinical Domain." In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 1586-1596. 相良かおる, 小野正子, 小作浩美, 鈴木隆弘, 高崎光浩, 嶋田元 (2012). 分かち書き用辞書 ComeJisyo の評価. 医療情報学, 32 (6), pp. 301-307. [K. Sagara et al. (2012). Comparative Evaluation of ComoJisyo V1, ComoJisyo V2 and ComoJisyo V3. Japan Journal of Medical Informatics, 32(6), pp. 301-307.]. Steedman, M. (2000). The Syntactic Process. MIT Press. Sugimoto, T. and Yanaka, H. (2022). "Compositional Semantics and Inference System for Temporal Order based on Japanese CCG." In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics: Student Research Workshop, pp. 104-114. Usui, M., Aramaki, E., Iwao, T., Wakamiya, S., Sakamoto, T., and Mochizuki, M. (2018). "Extraction and Standardization of Patient Complaints from Electronic Medication Histories for Pharmacovigilance: Natural Language Processing Analysis in Japanese." JMIR Med Inform, 6 (3). e11021. Wang, P., Qian, Y., Soong, F. K., He, L., and Zhao, H. (2015). "Part-of-speech Tagging with Bidirectional Long Short-term Memory Recurrent Neural Network." arXiv preprint arXiv:1510.06168. 矢田竣太郎, 田中リベカ, Fei Cheng, 荒牧英治, 黒橋禎夫 (2022). 汎用的な臨床医学テキス トアノテーション仕様およびガイドラインの策定:重篤肺疾患ドメインに着目して. 自然言語処理, 29 (4), pp. 1165-1197. [S. Yada et al. (2022). Versatile Annotation Guidelines for Clinical-Medical Text with an Application to Critical Lung Diseases. Journal of Natural Language Processing, 29(4), pp. 1165-1197.]. Yadav, P., Steinbach, M., Kumar, V., and Simon, G. (2018). "Mining Electronic Health Records (EHRs): A Survey." ACM Computing Survey, 50 (6). Yanaka, H. and Mineshima, K. (2022). "Compositional Evaluation on Japanese Textual Entailment and Similarity." Transactions of the Association for Computational Linguistics, 10, pp. 1266-1284. Yoshikawa, M., Noji, H., and Matsumoto, Y. (2017). "A* CCG Parsing with a Supertag and Dependency Factored Model." In Proceedings of ACL (Volume 1: Long Papers), pp. 277-287.吉越卓見, 河原大輔, 黒橋禎夫 (2020). 機械翻訳を用いた自然言語推論データセットの多言語化. 第 244 回自然言語処理研究会, pp. 1-8. [T. Yoshikoshi et al. (2020). Multilingualization of a Natural Language Inference Dataset Using Machine Translation. IPSJ SIG Technical Report, 2020-NL-244, pp. 1-8.]. ## 略歴 石田真捺:2021 年お茶の水女子大学理学部情報科学科卒業. 2023 年お茶の水女子大学人間文化創成科学研究科理学専攻情報科学コース博士前期課程修了.現在,株式会社 NTT ドコモに所属. 谷中瞳:2018 年東京大学大学院工学系研究科博士課程修了. 工学博士. 同年, 理化学研究所特別研究員を経て, 2021 年より東京大学卓越研究員に採択され, 東京大学大学院情報理工学系研究科講師, 理化学研究所客員研究員. 主に自然言語推論に関する研究に従事. 戸次大介:2000 年東京大学大学院理学系研究科情報科学専攻博士課程修了.理学博士. 2008 年お茶の水女子大学大学院人間文化創成科学研究科准教授, 2023 年より同大学基幹研究院自然科学系教授.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 単純血漿交換を行った入院患者の臨床的背景及び治療経過の検討 ${ }^{1}$ 東京女子医科大学医学部 4 年 ${ }^{2}$ 東京女子医科大学血液浄化療法科 (受理 2019 年 8 月 13 日) ## Clinical Characteristics and Therapeutic Effects of Hospitalized Patients \\ Who Underwent Simple Plasma Exchange \\ Nozomi Shiohara,,${ }^{1}$ Nobue Tanaka, ${ }^{2}$ Misao Tsukada, ${ }^{2}$ \\ Norio Hanafusa, ${ }^{2}$ and Ken Tsuchiya ${ }^{2}$ \\ ${ }^{1}$ The 4th Grade, School of Medicine, Tokyo Women's Medical University, Tokyo, Japan \\ ${ }^{2}$ Department of Blood Purification, Tokyo Women's Medical University, Tokyo, Japan } In Japan, there are 24 indications for simple plasma exchange (PE); however, this number is lower than that in other countries. In addition, there have been few published studies dedicated to indications for simple PE in Japan. This study aimed to elucidate the clinical background of patients who underwent PE at our hospital and examine its treatment course. The study included patients who underwent PE in our department from January to December 2017. We retrospectively examined the data stored in the dialysis management system. During the observational period, 42 patients [mean age, $49 \pm 18$ years (mean $\pm$ standard deviation); women, $52.4 \%$ ] with 12 diseases underwent PE. Allogeneic kidney transplantation, which was the most common indication, was present in 17 (40.5\%) patients. There were seven (16.6\%) patients with focal glomerulosclerosis, seven (16.6\%) patients with liver disease, and three (7.1\%) patients with thrombotic microangiopathy. All the patients who underwent kidney transplantation, the renal function was maintained after kidney transplantation. In all patients with microangiopathy, the platelets increased and lactate dehydrogenase levels decreased. With respect to the adverse effects of the treatment, $19(45.2 \%)$ patients experienced skin symptoms and two (4.8\%) patients suffered from numbness. We observed that PE performed at our hospital was effective for some of the indications. The outcome suggests that more studies reporting the indications for $\mathrm{PE}$ are required for expanding the number of indications for $\mathrm{PE}$ in Japan. Key Words: plasma exchange, simple plasma exchange, apheresis  ## 緒言 血漿交換とは, 血液から血漿成分を分離・処理し,血漿中に含まれる病因関連物質を除去する治療法である1).血漿交換療法には単純血漿交換(plasma exchange : PE), 二重膜滤過血漿交換 (double filtration plasmapheresis : DFPP), 血漿吸着 (plasma adsorption:PA)の 3 種類がある. そのうち,PEは,血液から分離された血漿成分をすべて廃棄し, 同量の置換液を体内に返還する方法である. PEを行うことにより,血漿中に含まれる病因関連物質を除去することができ,現在のところ本邦では 24 疾患に対して治療適応がある233. 海外のガイドラインにおいては,より多くの疾患に対して適応があり ${ }^{4)}$, 本邦における適応拡大が望まれるところである. さらに, PEでは置換液としてヒト新鮮凍結血漿 (flesh frozen plasma:FFP) や加熱ヒト血漿蛋白 (plasma protein fraction:PPF),ヒト血清アルブミンが使用されるため, 血液製剂に起因するアレルギー反応などの副作用に注意する必要があるとされている ${ }^{5}$. 本邦における治療効果および副作用の報告が待たれている。当院は様々な疾病に対して多くの血漿交換が行われている施設の1つである。しかしながら,実際の症例数や,対象となる疾患の種類に関しては明らかではなく, $\mathrm{PE}$ 後の治療経過がどのようになっているのかは, いまだ調査されたことはない. 本研究は,当院において PE を行った患者における,臨床的背景やその治療経過を検討することを目的とする。 ## 対象および方法 2017 年 1 月から 12 月までの 1 年間に, 当院血液浄化療法科において PEを施行された患者を対象とした. 患者の臨床背景として, 年齢, 性別, 治療対象疾患, 治療法, 治療回数, 治療効果および副作用に関するデータを抽出し, 解析を行った. 対象患者の抽出は当科で使用している透析管理システム (Future Net ${ }^{\circledR}$ ) を用いて行い,臨床検查や治療法などの情報は電子カルテを用いて調査した.治療適応は, 保険診療が認められている基準に準 (゙2), 各入院診療科が決定した治療方針に従った. 腎移植に対しては, $\mathrm{ABO}$ 血液型不適合間, リンパ球抗体陽性の移植の場合に適応となった。 PEの置換量は, 循環血漿量と血清アルブミン濃度より算出し, 目標置換率によって実際の交換量を決定した ${ }^{6}$. 治療経過に関しては, 治療前後の状態を記載した。治療前はそれぞれの症例の入院時のデー夕を使用し, 治療後の評価は退院時のデータを用いた. 生体腎移植の術前脱感作には, 術後の腎生着, 透析離脱の有無を評価した. 巣状糸球体硬化症 (focal glomerular sclerosis:FSGS)の腎移植後再発に対する治療は, 血清クレアチニン, 推算糸球体滤過量 (estimated glomerular filtration ratio:eGFR)の変化を評価した。肝障害に対しては,プロトロンビン活性, 総ビリルビン, 血中アンモニアを, 血栓性微小血管症(thrombotic microangiopathy:TMA)では,血小板数, へモグロビン濃度, 破砕赤血球の変化を評価した。症例数の少ない疾患である全身性ループスエリテマトーデス (systemic lupus erythematosus:SLE), 急速進行性腎炎 (rapidly progressive glomerulonephritis:RPGN)では疾患関連抗体の変化, その他の疾患においては症状の変化を評価した。 各疾患における症例数が少ないため平均値と標準偏差のみを算出し, 最小値および最大值を記載した上で, 統計学的比較検討は行わなかった. 本研究は, 本学倫理委員会の承認を得て行っている (承認番号 $4822-\mathrm{R}$ 号). ## 結 果 2017 年 1 月から 12 月の 1 年間で 42 名の患者が当科において $\mathrm{PE}$ を施行されていた. 平均年齢は, 49 $\pm 18$ 歳であり, 男性 20 名 $(47.6 \%)$, 女性 22 名 (52.4\%) であった(Table 1),血漿交換の適応となる疾患のうち 12 疾患に対して治療が行われていた。生体腎移植(術前抗体除去)に対する PEは 17 名 (40.5\%) と最も多く, 移植後 FSGS は 7 名 (16.6\%),劇症肝炎, 急性肝不全, 術後肝障害を含む肝不全に対しては 7 名 (16.6\%), TMA は 3 名 (7.1\%) であった.なお, 2 例で SLE と TMA とが合併しており,主要病変がSLEである患者のうち 1 名がTMA も合併し, 主要病変がTMA のうち 1 名が SLE も併発していた。腎移植後の拒絶のために $\mathrm{PE}$ が施行された 2 例は, いずれも急性の抗体関連型の拒絶反応であったため治療が行われた(Table 1). また,治療回数は平均 4 回であり, 30 名 $(71.4 \%)$ が血液透析 (hemodialysis:HD)あるいは血液滤過透析 (hemodiafiltration:HDF) を併用していた。そのうち, 9 名 $(30.0 \%)$ は, 低カルシウム血症予防の Table 1 Clinical characteristics of patients who underwent plasma exchange therapy. Data are presented as mean $\pm$ standard deviation or number of patients (range or percentage of the total population, respectively). FFP, fresh frozen plasma; HD, hemodialysis; HDF, hemodiafiltration; DFPP, double filtration plasma apheresis; IVIG, intravenous immunoglobulin therapy; FSGS, focal segmental glomerulosclerosis; TMA, thrombotic microangiopathy; SLE, systemic lupus erythematosus; CIDP, chronic inflammatory demyelinating polyneuropathy. ため, HD あるいは HDF と直並列で同時に治療されていた。DFPP との併用例が 19 名(45.2\%),ステロイドあるいは免疫抑制薬との併用は39名 (92.9\%)であった. 置換液として新鮮凍結血漿 (fresh frozen plasma:FFP)を用いた症例は 40 名 $(95.2 \%)$ であり, 2 名 $(4.8 \%)$ はアルブミン添加生理食塩水を用いていた. 1 回あたりの置換液量は平均 4.1 L であり, 循環血漿量当たりの置換液量は $1.4 \mathrm{PV}$, 治療時間は平均 3.75 時間であった(Table 1).疾患による治療時間の違いはなかった。 生体腎移植に対する治療は, 全例において退院時に移植腎は生着しており,透析は離脱できていた (Table 2). 移植後 FSGS 再発においては, 平均血清クレアチニンは $1.67 \pm 1.05 \mathrm{mg} / \mathrm{dL}$ から $1.97 \pm 1.62$ $\mathrm{mg} / \mathrm{dL}$ に昇, eGFRは $42.9 \pm 15.6 \mathrm{~mL} / \mathrm{min} / 1.73$ $\mathrm{m}^{2}$ から $40.1 \pm 16.8 \mathrm{~mL} / \mathrm{min} / 1.73 \mathrm{~m}^{2}$ に低下傾向にあった。肝不全に関しては, プロトロンビン活性は $45.0 \pm 17.0 \%$ から $59.0 \pm 20.4 \%$ に上昇, 総ビリルビンおよびアンモニアは低下傾向にあった。肝不全に対してPEを行った患者のうち, 5 名が観察期間中に死亡していた。 SLE およびRPGN は,いずれもPEにより抗体価は低下していた。腎移植後拒絶例であった 2 名においても平均血清クレアチニンは $2.61 \pm 2.04 \mathrm{mg} / \mathrm{dL}$ から $2.41 \pm 1.70 \mathrm{mg} / \mathrm{dL}$ に変化し, 入院期間中の透析再導入はなかった。観察期間内に 1 例であった慢性炎症性脱髄性多発神経炎 (chronic inflammatory demyelinating polyneuropathy:CIDP)は, 合併症 (カテーテル感染症) のため $\mathrm{PE}$ を 1 回施行したのみで中止しており, 神経学的症状の改善は認めておら Table 2 Treatment course in patients who underwent plasma exchange therapy. & Pre-apheresis & Post-apheresis \\ Data are presented as mean $\pm$ standard deviation (range). Pre-apheresis data were collected at the time of admission or at the beginning of plasma exchange, and post-apheresis data were collected at the time of discharge. The change in the parameters was assessed using paired $t$-test. Statistical tests were performed on diseases with three or more cases. ${ }^{\dagger}$ The case of CIDP was discontinued with only one treatment because of catheter infection. Liver failure includes acute liver failure, fulminant hepatitis, and postoperative liver dysfunction. FSGS, focal segmental glomerulosclerosis; TMA, thrombotic microangiopathy; SLE, systemic lupus erythematosus; CIDP, chronic inflammatory demyelinating polyneuropathy; PT, prothrombin time; LD, lactate dehydrogenase; Anti-GBM antibody, anti-glomerular basement membrane antibody; MPO-ANCA, myeloperoxidase anti-neutrophil cytoplasmic antibody. Table 3 Adverse effects of plasma exchange therapy in hospitalized patients. \\ Exchange fluid & $20(100.0 \%)$ \\ $\quad$ FFP & $0(0.0 \%)$ \\ $\quad$ Albumin & $19(95.0 \%)$ \\ Symptoms & $2(10.0 \%)$ \\ $\quad$ Skin symptoms & \\ $\quad$ Neurological symptoms & $18(90.0 \%)$ \\ Treatments & $7(38.9 \%)$ \\ Administration of agents & $16(88.9 \%)$ \\ $\quad$ Glycyrrhizin & $8(44.4 \%)$ \\ $\quad$ Chlorpheniramine & $3(15.0 \%)$ \\ $\quad$ Steroid & \\ Data are presented as the number of patients (percentage of total population). With respect to adverse effects, allergy was observed in $20(47.6 \%)$ of the total patients. After the onset of symptoms, $18(90.0 \%)$ patients were treated with the administration of agents. As a result, plasma exchange therapy was discontinued in three patients because of adverse effects. FFP, fresh frozen plasma. ず,類天疮瘡も皮虐症状の改善を認めなかった。 心移植前の症例は術後の拒絶は認めなかった。 副作用に関しては, アレルギーが全体の 20 名 (47.6\%)に認められており,搔痒感や発疹などの皮虐症状が 19 名(45.2\%), しびれ感などの神経症状は 2 名 $(4.8 \%)$ に認められた (Table 3),アレルギーが認められた症例は, 全例が置換液としてFFPを使用していた. 症状出現後, 薬剤を投与された症例は 18 名 (90.0\%) であり, 抗ヒスタミン薬(クロルフェニラミン)投与された症例は 16 名,ステロイド投与は 8 名であり, 副作用のため血漿交換治療を中止したのは 3 名であった。そのうち 2 名は, 皮虐症状である膨疹が全身に広がり, 搔痒感が増悪したため中止した. 1名は, 皮膚症状の悪化に加え, 呼吸苦が出現したため治療を中止した。 ## 考 察 2017 年 1 月から 12 月の観察期間中に, 計 42 症例, 12 疾患に対して PEを施行されていた. 生体腎移植に対しては, $\mathrm{ABO}$ 血液型不適合間, リンパ球抗体陽性の移植の場合に一連につき術前 4 回, 術後 2 回までが保険適応となっている2). 当院に おける $\mathrm{PE}$ 施行症例のうち最も多い疾患であった。 このことは, 当院が本邦において腎移植を最も多く行っている医療機関であり, 年間約 200 例の腎移植が行われているためと考えられる. PEを施行した患者は, $\mathrm{ABO}$ 血液型不適合間, あるいは, リンパ球抗体陽性の移植である. そのため, 通常の患者より拒絶リスクが高い患者群であるが,今回の対象者は全員が腎生着しており, 全国平均の2010年から 2016 年の移植腎 1 年生着率が $98.7 \%$ であることから7), 拒絶リスクの低い患者と比較しても,PEを併用することで遜色ない治療成績が得られたと思われ了. 一次性の FSGSでは, PEにより蛋白尿が減少したとの報告があることから, 糸球体障害の原因となる何らかの液性因子が存在するとされている8). 治療標的となる液性因子あるいはそれらの阻害因子の同定が注目されているが,その 1 つ候補として,可溶性ウロキナーゼ型プラスミノゲンアクチベータ受容体 (soluble plasminogen activator urokinase receptor:suPAR)がある9). FSGSとの関連を疑問視する論文もあるが ${ }^{10}$, suPAR の分子量は $20 \sim 50 \mathrm{kDa}$ であり, アルブミンとの結合性も高くないことよりアフェレシスによる除去が試みられ PEにより suPARが低下した患者で, 蛋白尿が減少したことが報告されている9).また, FSGSに対しては, PEの他, LDL 吸着 (low-density lipoprotein apheresis) も適応となっている2). 当院での症例においては, PEのみ施行されている患者がほとんどであり, 観察期間中にLDL 吸着を併用している患者はいなかった。また, 治療前後の腎機能がむしろ悪化していたのは,重症例が複数含まれており, 免疫抑制薬の使用や PEを施行しても, 進行を防げなかったため, 平均値がむしろ悪化した結果となったと考えられる. アフェレシスの対象となる肝疾患は, 劇症肝炎,急性肝不全および術後肝不全である²). PE と HDF とを併用する治療が本邦でも広く行われており"1),当院でも肝疾患のため $\mathrm{PE}$ 行った患者全員が HDF も併用されていた. PE の目的は, アンモニアや芳香族アミノ酸などの肝性脳症惹起物質やビリルビンの除去, および㠜固因子の補充のために行っている. 本研究において, 治療経過にばらつきがあったことは, 死亡に至った重症例が多く含まれており,治療後の数値の範囲が広かったためと考えられた。肝移植までの橋渡しとしての ALS(artificial liver support)であり, 肝移植の適応がある場合は, 移植 の可能な施設への搬送を念頭に置く必要があるとされている 5 . 症例中 3 名が肝移植を受けていたが, 重症化により 4 名が死亡に至っていた。 TMAには, 血小板減少性紫斑病 (thrombotic thrombocytopenic purpura:TTP)と溶血性尿毒症症候群 (hemolytic-uremic syndrome:HUS) とがある. 観察期間中の症例はすべて TTP であった. TTP では, ADAMTS-13 (a disintegrin and metalloproteinase with thrombospondin motifs 13 protein)活性が低下していることが知られている ${ }^{12}, \mathrm{PE}$ の目的は ADAMTS-13 阻害因子の除去と ADAMTS-13 および正常 $\mathrm{vWF}$ (von Willebrand factor) の補充とされている. PEはFFP 単独輸血よりも効果があることが報告されており ${ }^{13}$, 一般的に行われる治療である.治療回数は,1 か月を限度に血小板が $15 \times 10^{4} / \mu \mathrm{L}$以上となった 2 日後まで保険適応がある 2 . 症例は一連の入院で 2 6 回施行されており, 血小板数も改善していた. SLE は, 低補体があり, 抗 DNA 抗体が高値であり,RPGNあるいは中神経性ループスを合併している場合にDFPP あるいは免疫吸着療法の保険適応となる ${ }^{231414}$. PE に関しては, TTPを合併している場合に適応があるとされで ,当院の症例においても 2 例とも TMA を合併していた。 抗 GBM 抗体 (anti-GBM antibody) 型 RPGN は,抗 GBM 抗体, あるいは ANCA (anti-neutrophil cytoplasmic antibody) などの自己抗体が陽性である患者に対して, 2 クールを限度とし, 1クール (2 週間以内) 7 回まで適応となっている 2$)$. 本症例は抗 GBM 抗体扔よびMPO-ANCA (myeloperoxidase antineutrophil cytoplasmic antibody) のいずれも高値を示していたが, 治療により減少していた。腎機能の低下を認めるRPGN は, 血漿交換の良い適応の 1 つとされている ${ }^{1516)}$. しかしながら, 近年, 従来のステロイド大量投与や免疫抑制薬などに加え, 生物学的製剤なども使用できるようになっており ${ }^{17}$, 今後, RPGN における血漿交換の位置づけは変わっていくと思われる。 CIDP は, 2 か月以上にわたり進行性または再発性の経過で, 四肢の筋力低下やしびれ感をきたす末梢神経炎である. ランダム化比較試験やメ夕解析により, $\mathrm{PE}$ 施行により神経症状の改善が期待されるとしている. 現在のところ, 一連につき月 7 回を限度として3か月まで治療が継続できる2). ただし, 免疫グロブリン静注 (intravenous immunoglobulin ther- apy:IVIG)や免疫抑制薬,ステロイド大量投与による治療効果も認められており ${ }^{1819}$, 今後, 第一選択をどれにするかという点が議論になると思われる。本研究の観察期間中に CIDP に対する治療は 1 件のみであったが,カテーテル感染のため 1 回のみの治療で中止しており,PEによる神経所見の改善は評価できなかった. 天疮瘡および類天疮瘡に関しては,ステロイドや免疫抑制薬などの薬物療法では効果が見られない難治例に対してPEの適応がある ${ }^{2}$. 一連につき週 2 回を限度とし,3 か月まで算定できる.PEによる除去の対象は, $\operatorname{IgG}$ (immunoglobulin G) クラスの皮䖉組織に対する特異的自己抗体であり,抗デスモグレイン IgG 抗体や BP180 抗体 $(180 \mathrm{kDa}$ protein, type XVII collagen, $\operatorname{IgG})$ が知られている ${ }^{20211}$. 本症例は,悪性腫瘍合併例であり,全身状態が悪化しており, PE は 1 回のみで終了していた. 入院中に皮虐症状の改善は認められなかった. 皮膚学会の天疮癚治療ガイドラインにおいても,ステロイドと PEの併用は, 臨床症状と血清抗体価を改善するだけではなく, ステロイドの減量も可能にすることが示されている ${ }^{22}$.しかしながら,二重盲検試験など高いレベルのエビデンスがなく,今後の検討課題の 1 つである. アフェレシスに伴う合併症は, 血圧低下, 出血傾向, アレルギー, 電解質異常などがあげられる ${ }^{15)}$. 特に,PEにおいては大量の血液製剤を使用するため,血液製剂によるアレルギーをしばしば認める。本研究においても皮膚症状を中心としたアレルギー症状が認められていた. 抗ヒスタミン薬の予防投与は,血液製剂による副作用に対して効果はないとされているが,軽症例に対しては有効であるとされている23.また, 本研究においてもステロイド投与や治療中断例はあったが,アナフィラキシーショックなどの重症副作用症例はなかった。 新鮮凍結血漿に含まれるクエン酸が血液中カルシウムをキレートするため,新鮮凍結血漿を置換液とした PEでは低カルシウム血症をきたす。グルコン酸カルシウムを静脈回路内に使用するか, HD と併用することで低カルシウム血症を予防しうるとされている ${ }^{5}$. 本研究においても,9例が直並列の HD あるいはHDF を併用されており,それ以外の症例はグルコン酸カルシウムを使用していた。 ## 結 論 当院において施行された $\mathrm{PE}$ は一部の患者において効果が認められたが,治療に対するアレルギーを発症した患者も少なからず存在した.PEの適応疾患の拡大のためには, さらなる症例経験の蓄積が必要であると示唆された。 ## 謝 辞 本学の研究に対する教育システムの確立に尽力された東京女子医科大学医学部教員に深謝する。 開示すべき利益相反状態はない. $ \text { 文献 } $ 1) 篠田俊雄, 山家敏彦:7-8アフェレシス療法.「血液浄化療法ハンドブック 2019」(透析療法合同専門委員会編), pp189-210, 協同医書出版社, 東京 (2019) 2)J039 血漿交換療法. 「診療点数早見表. 2018 年 4 月版 [医科], pp635-638, 医学通信社, 東京 (2018) 3)与芝真, 井上和明: エビデンスに基づく血漿交換療法の評価.日本輸血学会雑誌 $48: 9-26,2002$ 4) Schwartz J, Padmanabhan A, Aqui N et al: Guidelines on the use of therapeutic apheresis in clinical practice-evidence-based approach from the writing committee of the American Society for Apheresis: The seventh special issue. J Clin Apher 31: 149-162, 2016 5)野入英世,花房規男:「アフェレシス療法ポケットマニュアル第 2 版」(野入英世, 花房規男編), 医歯薬出版株式会社,東京(2017) 6)江口圭 : 血漿交換療法の基礎. 置換液の使用方法と至適濃度設定法. 日本アフェレシス学会雑誌 35 : 184-193, 2016 7) 日本臨床腎移植学会・日本移植学会ほか:腎移植臨床登録集計報告 (2018) 2017 年実施症例の集計報告と追跡調查結果. 移植 53 : 89-108, 2018 8) Glassock RJ: Circulating permeability factors in the nephrotic syndrome: a fresh look at an old problem. J Am Soc Nephrol 14: 541-543, 2003 9) Wei C, El Hindi S, Li J et al: Circulating urokinase receptor as a cause of focal segmental glomerulosclerosis. Nat Med 17: 952-960, 2011 10) Wada T, Nangaku M, Maruyama S et al: A multicenter cross-sectional study of circulating soluble urokinase receptor in Japanese patients with glomerular disease. Kidney Int 85: 641-648, 2014 11) Nakao M, Nakayama N, Uchida Y et al: Nationwide survey for acute liver failure and late-onset hepatic failure in Japan. J Gastroenterol 53: 752-769, 2018 12) Saha M, McDaniel JK, Zheng XL: Thrombotic thrombocytopenic purpura: pathogenesis, diagnosis and potential novel therapeutics. J Thromb Haemost 15: 1889-1900, 2017 13) Rock GA, Shumak KH, Buskard NA et al: Comparison of plasma exchange with plasma infusion in the treatment of thrombotic thrombocytopenic purpura. Canadian Apheresis Study Group. N Engl J Med 325: 393-397, 1991 14) Hahn BH, McMahon MA, Wilkinson A et al: American College of Rheumatology guidelines for screening, treatment, and management of lupus nephritis. Arthritis Care Res (Hoboken) 64: 797-808, 2012 15) Cui Z, Zhao J, Jia $X Y$ et al: Anti-glomerular basement membrane disease: outcomes of different therapeutic regimens in a large single-center Chinese cohort study. Medicine (Baltimore) 90: 303311,2011 16) Jayne DR, Gaskin G, Rasmussen N et al: Randomized trial of plasma exchange or high-dosage methylprednisolone as adjunctive therapy for severe renal vasculitis. J Am Soc Nephrol 18: 2180-2188, 2007 17)日本腎藏学会:CQ14 血漿交換療法は RPGNの腎機能予後および生命予後を改善するために推奨されるか?エビデンスに基づく急速進行性腎炎症候群(RPGN)診療ガイドライン 2014. 日腎会誌 $1: 64-66,2014$ 18)日本神経学会:I. 慢性炎症性脱髄性多発根ニュー ロパチー. 7. 治療.「慢性炎症性脱髄性多発根ニュー ロパチー, 多巣性運動ニューロパチー診療ガイドライン 2013」(日本神経学会編), pp66-131, 南江堂, 東京 (2013) 19) Dyck PJ, Litchy WJ, Kratz KM et al: A plasma exchange versus immune globulin infusion trial in chronic inflammatory demyelinating polyradiculoneuropathy. Ann Neurol 36: 838-845, 1994 20)天谷雅行, 谷川瑛子, 清水智子ほか: 天疮瘡診療力゙ イドライン。日皮会誌 $120 : 1443-1460,2010$ 21)氏家英之, 岩田浩明, 山上淳ほか:類天疮瘡(後天性表皮水疮症を含む)診療ガイドライン. 日皮会誌 127 : 1483-1521, 2017 22) Committee for Guidelines for the Management of Pemphigus Disease: Japanese guidelines for the management of pemphigus. J Dermatol 41: 471-486, 2014 23)藤井康彦 : 輸血による副作用の診断と対応. 日本医事新報 4957 : 18-23, 2019
tokyojoshii
cc-by-4.0
Tokyo Women's Medical University
-
# 妊娠中の糖代謝と不飽和脂肪酸との関連 ${ }^{1}$ 東京女子医科大学糖尿病センター内科 ${ }^{2}$ 東京女子医科大学東医療センター産婦人科 ${ }^{3}$ 東京女子医科大学東医療センター内科 高木ギコ耕一師 ${ }^{2} \cdot$ 佐倉旣 ${ }^{3}$ ・馬場園哲也 ${ }^{1}$ } (受理 2019 年 9 月 26 日) Glucose Metabolism and Polyunsaturated Fatty Acids in Japanese Pregnant Women Tomoko Suzuki, ${ }^{,}$Keiko Yanagisawa,, Mitsue Muraoka, ${ }^{2}$ Koichiro Takagi, ${ }^{2}$ Hiroshi Sakura, ${ }^{3}$ and Tetsuya Babazono ${ }^{1}$ ${ }^{1}$ Diabetes Center, Tokyo Women's Medical University, Tokyo, Japan ${ }^{2}$ Department of Obstetrics and Gynecology, Tokyo Women's Medical University Medical Center East, Tokyo, Japan ${ }^{3}$ Department of Medicine, Tokyo Women's Medical University Medical Center East, Tokyo, Japan \begin{abstract} Aims: We aimed to clarify the relationship between maternal glucose metabolism and profiles of fatty acids. Methods: We studied 102 Japanese women with singleton pregnancies. An oral glucose tolerance test (OGTT) was performed at $26.6 \pm 4.0$ gestational weeks. The serum levels of triglycerides, total cholesterol, high- and lowdensity lipoprotein cholesterol, free fatty acid and polyunsaturated fatty acids (PUFAs) were measured in fasting blood samples. Fish intake was ascertained by a food-related questionnaire. Results: OGTTs revealed that 14 subjects had gestational diabetes mellitus and 88 subjects had normal glucose tolerance. There was no significant difference in terms of age, body mass index before pregnancy, body weight gain from pre-pregnancy to the time of the OGTT, lipid levels, or frequency of fish consumption between the two groups. We found a positive correlation between fasting plasma glucose (FPG) and serum C-peptide levels and a negative correlation between FPG and docosahexaenoic acid (DHA) levels. FPG levels did not correlate with the frequency of fish consumption or eicosapentaenoic acid (EPA) levels. Multiple regression analysis showed that Cpeptide $(B=1.415, p=0.009)$ and DHA $(B=-0.045, p=0.003)$ levels independently related with FPG levels and free fatty acids levels $(B=0.054, p=0.001)$ and fish consumption $(B=4.437, p=0.034)$ independently related with 1 hour glucose levels. Conclusions: FPG levels were negatively related with DHA levels, while there was no relationship between FPG levels and EPA levels, suggesting that these n-3 fatty acids are involved with plasma glucose levels via distinct mechanisms in pregnant women. \end{abstract} Key Words: gestational diabetes mellitus, fatty acid, docosahexaenoic acid, eicosapentaenoic acid }$ 162-8666 東京都新宿区河田町 8-1 東京女子医科大学糖尿病センター内科 E-mail: [email protected] doi: 10.24488/jtwmu.89.5_108 Copyright (C) 2019 Society of Tokyo Women's Medical University. This is an open access article distributed under the terms of Creative Commons Attribution License (CC BY), which permits unrestricted use, distribution, and reproduction in any medium, provided the original source is properly credited. ## 緒言 脂質異常症は動脈硬化性疾患の重要なりスク因子の一つであり,糖尿病患者に高頻度に認められる11.最近, 脂肪酸と動脈硬化との関連が注目され,魚油に含まれるエイコサペンタエン酸 (eicosapentaenoic acid:EPA)やドコサヘキサエン酸 (docosahexaenoic acid:DHA)に代表される n-3 系多価不飽和脂肪酸は抗動脈硬化作用や抗炎症作用を示すことが明らかにされてきた22).また, $\mathrm{n}-3$ 系多価不飽和脂肪酸によるインスリン抵抗性の改善も示唆されてお $り^{3}$ ,アジア人種において $\mathrm{n}-3$ 系多価不飽和脂肪酸の摄取による糖尿病発症リスクの低下効果が報告されている ${ }^{455}$. 近年, 妊娠糖尿病 (gestational diabetes mellitus : GDM)の診断基準変更,妊婦の高齢化,食生活の変化などにより,GDM と診断される患者が増加しており,その対策が急がれる.イラクとオーストラリアからの 2 論文を用いたシステマティックレビュー では,妊娠中の魚油摂取がGDM 発症予防となる工ビデンスは得られなかっだ。 しかし,日本人を含む東アジア人種での検討はこれまで報告されていない,そこで本研究は,日本人女性における妊娠中の脂肪酸と糖代謝との関連を明らかにすることを目的とした. ## 対象と方法 ## 1. 対象 対象は, 2013 年 10 月から 2015 年 4 月に東京女子医科大学東医療センターで妊娠管理を行い, 本研究への参加に同意が得られた 102 人である. 当センターでは, 産婦人科診療ガイドラインワに則り,妊娠中の耐糖能異常のスクリーニングを行っている.妊娠初期は随時血糖値 $100 \mathrm{mg} / \mathrm{dL}$ 以上, 妊娠中期 (24~28 週)は $50 \mathrm{~g}$ チャレンジテスト $140 \mathrm{mg} / \mathrm{dL}$以上をスクリーニング陽性として陽性者に $75 \mathrm{~g}$ 経ロブドウ糖負荷試験 (oral glucose tolerance test : OGTT)を行っている. OGTT の判定は, 日本糖尿病妊娠学会と日本糖尿病学会との合同委員会による診断基準8に基づき, 前値 $92 \mathrm{mg} / \mathrm{dL}, 1$ 時間値 $180 \mathrm{mg} /$ $\mathrm{dL}$ 以上, 2 時間值 $153 \mathrm{mg} / \mathrm{dL}$ 以上のいずれか 1 点以上を満たす場合を GDM と診断した. 本研究では,妊娠中期以降に OGTTを施行した妊婦を対象とした. 双胎妊娠, 甲状腺疾患治療中, ステロイド使用中,塩酸リトドリン内服中の妊婦は除外した. 本研究は東京女子医科大学倫理委員会による承認を得て行った (2013 年 9 月 13 日承認, 承認番号第 2915R 号). ## 2. 方法 OGTT 施行の際に, 妊娠前体重, 週あたりの魚摂取回数を聴取した.負荷前の採血で,へモグロビン A1c (HbA1c),糖化アルブミン(glycated albumin: GA),インスリン, C-peptide immunoreactivity: $\mathrm{CPR})$, 総コレステロール, トリグリセリド, HDLコレステロール,LDL-コレステロール,遊離脂肪酸,アラキドン酸 (arachidonic acid:AA),EPA, 血糖値はへキソキナーゼ UV 法 (Labospect 7700,日立製作所), HbAlc は高速液体クロマトグラフィー法(HLC ${ }^{\circledR}-723$ G9 自動グリコへモグロビン分析計, 東ソー株式会社), GA は酵素法(ルシカ ${ }^{\circledR} \mathrm{GA}-$ Lキット, 旭化成ファーマ株式会社), 血清 CPR は化学発光酵素免疫測定法 (ルミパルス ${ }^{\circledR}$ Presto II, 富士レビオ株式会社), 脂肪酸(EPA, AA, DHA, ジホモ $\gamma$ リレン酸) はガスクロマトグラフィー法 (TC70 ジーエルサイエンス株式会社), トリグリセリド, HDL-コレステロール, LDL-コレステロールは比色分析法 (LABOSPECT 008, 日立製作所), 遊離脂肪酸は酵素法 (HR NEFA-HR (2), 富士フイルム和光株式会社, Biomajesty JCA-BM8060, 日本電子株式会社)で測定した。 OGTT の結果に基づき, 正常耐糖能 (normal glucose tolerance : NGT) と GDM に分類し, 両群間で血清脂質を含む臨床項目の比較を行った.また全例において, 血糖値と血清脂質を含む臨床項目との関連を検討した。 Homeostasis model assessment insulin resistance (HOMA-IR), homeostasis model assessment $\beta$ cell function (HOMA- $\beta$ ) は空腹時の血糖値およびインスリン値により,以下の計算式で算出した:HOMA$\mathrm{IR}=[$ 空腹時インスリン $(\mu \mathrm{U} / \mathrm{mL}) \times$ 空腹時血糖値 $(\mathrm{mg} / \mathrm{dL})] / 405$; HOMA- $\beta=360 \times$ 空腹時インスリン $(\mu \mathrm{U} / \mathrm{mL}) /[\times \text { 空腹時血糖値 }(\mathrm{mg} / \mathrm{dL})-63]^{9)}$. ## 3. 統計学的解析 正規性のある連続量は平均値土標準偏差(standard deviation:SD), 正規性にそしい連続値は中央値(四分位範囲)で示した。なお, 正規性の検定は Shapiro-Wilk 検定で行った. 独立した 2 群間の平均値の比較はStudent's t検定あるいは MannWhitney の U 検定, 独立した 2 群間の割合の比較は $\chi^{2}$ 検定によって行った. 相関解析には Pearson または Spearman の相関係数 (rs) を, 血糖値とその他の臨床項目との関連は重回帰分析を用いて解析した。 Table 1 Comparison of clinical characteristics and laboratory data between the subjects with normal glucose tolerance and gestational diabetes. 1) Student's t-test, 2) Mann-Whitney U test, 3) chi-square test. NGT, normal glucose tolerance; GDM, gestational diabetes mellitus; OGTT, oral glucose tolerance test; BMI, body mass index; GA, glycated albumin; CPR, C-peptide immunoreactivity; HOMA-IR, Homeostasis model assessment insulin resistance; HOMA- $\beta$, Homeostasis model assessment $\beta$ cell function; AA, arachidonic acid; EPA, eicosapentaenoic acid; DHA, docosahexaenoic acid. 以上の統計学的解析は SPSS version 21 を用い, p 値 0.05 未満を統計学的有意とした. ## 結果 ## 1. NGT 群と GDM 群の比較 対象者 102 人の分婏時年齢は $35 \pm 5$ 歳,妊娠前 body mass index (BMI) $21.4 \pm 3.7 \mathrm{~kg} / \mathrm{m}^{2}$, OGTT 施行週数 26.6(21.1 28.3) 週であった. OGTT の結果, NGT 88 人, GDM 14 人に分類された. 妊娠中の明らかな糖尿病と診断された者はいなかった.負荷前血糖値は GDM 群でNGT 群と比較して高い傾向にあり, 負荷後 1 時間, 2 時間血糖値は GDM 群で NGT 群と比較して有意に高値であった (Table 1). 年齢,妊娠前 BMI, 妊娠前から OGTT 施行時までの体重増加, 糖尿病の家族歴, $\mathrm{HbAlc}, \mathrm{GA}, \mathrm{CPR}$, 血清脂質や週あたりの魚摄取回数は両群間で有意差を認めなかった。また, GDM 群の身長は NGT 群と比較し有意に低値であった。 ## 2. OGTT 施行時の血糖値と各因子の関連 空腹時血糖値と CPR, HOMA-IR は正の相関,空腹時血糖値とDHA は負の相関を認めた(Table 2, Figure 1). 一方, 空腹時血糖値と EPA, 魚摂取回数との間には有意な関連を認めなかった(Table 2).空腹時血糖値を従属変数, CPR と DHA を独立変数として重回帰分析を行ったところ, CPR と DHA は独立して空腹時血糖値と有意な関連を認めた (Table 3). Table 2 Relationship of fasting plasma glucose, 1 hour glucose or 2 hour glucose levels for OGTT with clinical and laboratory parameters using single regression analysis (Pearson correlation). & $\mathrm{p}$ value & & $\mathrm{p}$ value & & $\mathrm{p}$ value \\ * Spearman correlation OGTT, oral glucose tolerance test; BMI, body mass index; GA, glycated albumin; CPR, C-peptide immunoreactivity; HOMAIR, Homeostasis model assessment insulin resistance; HOMA- $\beta$, Homeostasis model assessment $\beta$ cell function; AA, arachidonic acid; EPA, eicosapentaenoic acid; DHA, docosahexaenoic acid. 負荷後 1 時間血糖値は負荷後 2 時間血糖値,拡張期血圧,遊離脂肪酸,魚摂取回数と正の相関を認めた(Table 2)。また,負荷後 2 時間血糖値は負荷後 1 時間血糖値, 遊離脂肪酸と正の相関を認め, 身長と負の相関を認めた (Table 2). 負荷後 1 時間, 2 時間血糖値のいずれも, EPA, DHA と関連を認めなかった. 重回帰分析では, 負荷後 1 時間血糖値は遊離脂肪酸と魚摂取回数と独立して関連を認め, 2 時間血糖値は身長と関連を認めた(Table 3). ## 3. 不飽和多価脂肪酸とその他の因子の関連 EPA と DHA は強い正相関を認め $(r s=0.750, p$ <0.001), EPA,DHA はそれぞれ,魚摂取回数と正の相関を認めた(各々 $\mathrm{rs}=0.293, \mathrm{p}=0.003, \mathrm{rs}=$ 0.269, $\mathrm{p}=0.007)$. DHA および EPA と, HOMA-IR やHOMA- $\beta$ との間に関連は認めなかった。また, DHA および EPA と妊娠前 BMI, 妊娠前から OGTT 施行時までの体重増加との間にも関連は認められなかった。 ## 考 察 本研究は, 日本人妊婦における糖代謝と脂肪酸との関連を検討した横断研究である。糖代謝正常妊婦と GDM 妊婦の間で,遊離脂肪酸, EPA,DHA を含む血清脂質, 魚摄取回数に有意差を認めなかったが,全対象における検討では, 空腹時血糖値と DHA との間に有意な負の相関を認めた. 空腹時血糖値と EPA とは関連がなかった。またOGTT 負荷後 1 時 b Figure 1 a Correlation between fasting plasma glucose and C-peptide immunoreactivity, using the single regression analysis $\left(y=0.0409 x-1.7796, R^{2}=0.053, p=0.020\right)$. b Correlation between fasting plasma glucose and docosahexaenoic acid, using the single regression analysis $\left(\mathrm{y}=-1.6453 \mathrm{x}+296.94, \mathrm{R}^{2}=0.07, \mathrm{p}=0.007\right)$. Table 3 Relationship of plasma glucose levels during OGTT with clinical and laboratory parameters using the multiple regression analysis (forced entry method). OGTT, oral glucose tolerance test; CPR, C-peptide immunoreactivity; DHA, docosahexaenoic acid; CI, confidence interval. 間血糖値は魚摂取回数, 遊離脂肪酸と正の相関を認めた. EPA, DHA とも n-3 系多価不飽和脂肪酸であり, への変換率は $10 \%$ 以下,さらにDHAへの変換率は $0.5 \sim 1 \%$ 程度と低い ${ }^{10}$. EPA の抗炎症作用や抗動脈硬化作用はDHAより強い. 一方, DHA は脂肪膜を構築するアミノリン脂質に多く含まれており,特に脳細胞の構築維持に必要なため, 娃娠中や授乳中は, DHA は胎児の脳神経発達のため極めて重要な栄養素と考えられる ${ }^{11}$. 本研究では DHA のみが空腹時血糖値と関連を認めており,その機序は不明であるが, 妊娠中は胎児への DHA 供給維持のため, 非妊娠時とは異なった脂肪酸代謝が存在する可能性がある. 妊娠経過に伴いDHA 濃度は増加したが, 総脂質中の割合は低下したとの報告もあり ${ }^{12}$ ,妊娠中の脂肪酸代謝については未だ不明な点が多く, 今後もさらなる検討が必要である. また,妊娠中は,エネルギー源であるグルコースを胎览に供給するため,胎盤からはインスリン拮抗ホルモンやサイトカインが分泌されインスリン抵抗性状態となる。このインスリン抵抗性のため, 妊娠中は非妊娠時に比べ食後は血糖高値に,そして胎児へのグルコース輸送のため食前は血糖低値となる ${ }^{13)}$. DHA はこの胎児へのグルコース輸送の機序に関与している可能性が示唆される. 本研究では, 負荷後 1 時間血糖値と遊離脂肪酸との間に正の相関を認めた。遊離脂肪酸は脂肪細胞内の中性脂肪が分解されることにより血中に放出される. 測定した遊離脂肪酸は, パルミチン酸 $(\mathrm{C} 16 : 0)$ から EPA (C20:5) までの様々な種類の脂肪酸が含まれるが, オレイン酸, リノール酸の比率が大きい.以前より,過剩な遊離脂肪酸が耐糖能異常を引き起こすことが知られており,遊離脂肪酸のインスリン抵抗性への関与が報告されている ${ }^{14)}$. その機序として, 増加した脂肪酸がインスリンシグナルを抑制し,筋においては glucose transporter 4 の細胞膜への移行を抑制することによりグルコースの取り达みを低下させ,肝臟では内因性の糖新生を元進させることなどが考えられている ${ }^{15}$. 血中遊離脂肪酸濃度は妊娠末期にピークとなり,インスリン抵抗性の要因のひとつと考えられているが,GDM 妊婦においては正常娃婦よりも高値であるとの報告もある ${ }^{16}$. アジア人種においては, $\mathrm{n}-3$ 系多価不飽和脂肪酸 の摂取による糖尿病発症リスクの低下効果が報告されている ${ }^{455}$. しかし日本人における検討では, 魚摂取は男性において 2 型糖尿病の発症リスクを低下させたが,女性ではこのような効果が認められなかった ${ }^{17)}$ また, n-3 系多価不飽和脂肪酸が GDM リスクを低下させる明らかなエビデンスは得られていな $\omega^{18}$. 一方で, 妊娠中の $\mathrm{n}-3$ 系脂肪酸投与が早産, 低出生体重児のリスクを減らし, 過体重児を少し増加させたことも報告されている ${ }^{18}$. 本研究では負荷後 1 時間血糖値はDHA, EPA と関連は認められなかったものの, 魚摂取量と正の相関を認めた. 前述のように,妊娠中は胎児にグルコースを供給するため生理的インスリン抵抗性状態となり, 食後血糖値が高値となる. 本研究の対象の多くは正常耐糖能の妊婦であり食後血糖上昇も生理的範囲内と考えられるが,魚摂取が食後血糖値を上昇させ児へのグルコース供給に有利に働く可能性も示唆される. 最近, 遊離脂肪酸をリガンドとする複数の受容体が同定され,それらのうち, free fatty acid receptor (FFAR)1およびFFAR4を介した遊離脂肪酸の糖代謝調節への関与が注目されている. FFAR1 は膵 $\beta$細胞に高度に発現しており, 長鎖脂肪酸を介して活性化されグルコース刺激性インスリン分泌を増加させることが示された ${ }^{19)}$. 一方, 大腸や脂肪組織での発現が認められるFFAR4 4021)を欠損したマウスでは,高脂肪食下で肥満, 耐糖能異常, 脂肪肝を引き起こすこと,ヒトにおける FFAR4 遺伝子多型は肥満に関連することが報告されている22).このような検討から, FFAR は肥満や糖代謝に関与することが示唆されているが,その作用は多面的であり,脂肪酸の種類による違いも存在すると考えられる。 本研究における限界としては, 妊娠糖尿病症例が少ないこと, 魚摂取が週当たりの回数のみの確認であり魚の種類や量を評価していないこと, 脂肪酸と 測定であり,血清中のみの評価であることがあげられる。 ## 結 論 日本人妊婦において, 妊娠中の空腹時血糖値は DHA が高いほど低値であった.EPA は血糖値と関連を認めなかったことより, $\mathrm{n}-3$ 系脂肪酸の種類によって糖代謝との関連が異なる可能性が示唆された. 本論文に関連して開示すべき利益相反状態は以下のとおりである。 馬場園哲也:講演料 (MSD, 協和発酵キリン, ノボノルディスク, 武田, 大正富山, 田辺三菱, 中外), 奖学寄附金 (バクスター, キッセイ,ノバルティス,中外, サノフィ, ニプロ, 第一三共, アステラス, 参天, 協和発酵キリン,田辺三菱,テルモ,帝人,アボット,ベーリンガーインゲルハイム, 大日本住友) 他:なし. ## 文献 1) Howard BV, Howard WJ:33 糖尿病における脂質代謝異常の病態生理と治療.「ジョスリン糖尿病学第 2 版」(金澤康德, 春日雅人, 柏木厚典ほか監訳), pp631-655,メディカル・サイエンス・インターナショナル出版,東京(2007) 2) Calder PC: The role of marine omega-3 (n-3) fatty acids in inflammatory processes, atherosclerosis and plaque stability. Mol Nutr Food Res 56: 10731080, 2012 3) Oh DY, Talukdar S, Bae EJ et al: GPR 120 is an omega-3 fatty acid receptor mediating potent antiinflammatory and insulin-sensitizing effects. Cell 142: 687-698, 2010 4) Wallin A, Di Giuseppe D, Orsini $N$ et al: Fish consumption, dietary long-chain n-3 fatty acids, and risk of type 2 diabetes: systematic review and meta-analysis of prospective studies. Diabetes Care 35: 918-929, 2012 5) Wu JH, Micha R, Imamura F et al: Omega-3 fatty acids and incident type 2 diabetes: a systematic review and meta-analysis. Br J Nutr 107 (Suppl 2): S 214-S227, 2012 6) Ostadrahimi A, Mohammad-Alizadeh S, Mirgafourvand $\mathbf{M}$ et al: Effects of fish oil supplementation on gestational diabetes mellitus (GDM): a systematic review. Iran Red Crescent Med J 18: e24690, 2016 7)日本産科婦人科学会/日本産婦人科医会:CQ005-1 妊婦の糖代謝異常スクリーニングと診断のための検査は? 「産婦人科診療ガイドライン産科編 2017 」日本産科婦人科学会/日本産婦人科医会編集・監修), pp26-28, 日本産科婦人科学会, 東京 (2017) 8)日本糖尿病・妊娠学会と日本糖尿病学会との合同員会:妊娠中の糖代謝異常と診断基準の統一化について。糖尿病と妊娠 15,2015 9) Matthews DR, Hosker JP, Rudenski AS et al: Homeostasis model assessment: insulin resistance and beta-cell function from fasting plasma glucose and insulin concentrations in man. Diabetologia 28: 412419,1985 10) Plourde M, Cunnane SC: Extremely limited synthesis of long chain polyunsaturates in adults: implications for their dietary essentiality and use as supplement. Appl Physiol Nutr Metab 32: 619-634, 2007 11) Echeverria F, Valenzuela R, Catalina HernandezRodas M et al: Docosahexaenoic acid (DHA), a fundamental fatty acid for the brain: New dietary sources. Prostaglandins Leukot Essent Fatty Acids 124: $1-10,2017$ 12) Wilson NA, Mantzioris E, Middleton PT et al: Gestational age and maternal status of DHA and other polyunsaturated fatty acids in pregnancy: A systematic review. Prostaglandins Leukot Essent Fatty Acids 144: 16-31, 2019 13) Freinkel N: Banting lecture 1980. Of pregnancy and progeny. Diabetes 29: 1023-1035, 1980 14) Boden G, Chen X, Ruiz J et al: Mechanisms of fatty acid-induced inhibition of glucose uptake. J Clin Invest 93: 2438-2446, 1994 15) Boden G, Shulman GI: Free fatty acids in obesity and type 2 diabetes: defining their role in the development of insulin resistance and beta-cell dysfunction. Eur J Clin Invest 32 Suppl 3: 14-23, 2002 16) Chen $X$, Scholl TO, Leskiw $M$ et al: Differences in maternal circulating fatty acid composition and dietary fat intake in women with gestational diabetes mellitus or mild gestational hyperglycemia. Diabetes Care 33: 2049-2054, 2010 17) Nanri A, Mizoue T, Noda M et al: Fish intake and type 2 diabetes in Japanese men and women: the Japan Public Health Center-based Prospective Study. Am J Clin Nutr 94: 884-891, 2011 18) Middleton P, Gomersall JC, Gould JF et al: Omega-3 fatty acid addition during pregnancy (Review). Cochrane Database Syst Rev 11: CD003402, 2018, doi: 10.1002/14651858.CD003402.pub3. (Accessed Aug 26, 2019) 19) Itoh Y, Kawamata Y, Harada $M$ et al: Free fatty acids regulate insulin secretion from pancreatic beta cells through GPR40. Nature 422: 173-176, 2003 20) Fukunaga S, Setoguchi S, Hirasawa A et al: Monitoring ligand-mediated internalization of $G$ proteincoupled receptor as a novel pharmacological approach. Life Sci 80: 17-23, 2006 21) Hirasawa A, Tsumaya K, Awaji T et al: Free fatty acids regulate gut incretin glucagon-like peptide-1 secretion through GPR120. Nat Med 11: 90-94, 2005 22) Ichimura A, Hirasawa A, Poulain-Godefroy $O$ et al: Dysfunction of lipid sensor GPR120 leads to obesity in both mouse and human. Nature 483: 350-354, 2012
tokyojoshii
cc-by-4.0
Tokyo Women's Medical University
-
# 性差医療 (6)免疫性神経疾患:妊娠・出産のマネージメント 東京女子医科大学脳神経内科 清水晨考寻 (受理 2019 年 10 月 11 日) ## Gender Medicine (6) Management of Female Patients with Neuro-Immunological Diseases in Pregnancy ## Yuko Shimizu Department of Neurology, School of Medicine, Tokyo Women's Medical University, Tokyo, Japan In recent years, the number of patients with neuro-immunological diseases, such as multiple sclerosis (MS), neuromyelitis optica (NMO)/neuromyelitis optica spectrum disorder (NMOSD), and myasthenia gravis (MG), has been increasing in Japan. These diseases are commonly seen in women of childbearing age. Therefore, pregnancy and delivery are major issues in patients with these diseases. Pre-conception care and management of medication during pregnancy, resumption after delivery, breastfeeding, and effects on the mother and fetus are all very important issues. In pregnancy in MS, the current guidelines focus on the use of disease-modifying drugs (DMDs) throughout pregnancy. The appropriate DMD prevents relapses for three months postpartum. The annual recurrence rate after delivery was much higher for NMO $\cdot$ NMOSD than for MS. In addition, pregnancy after NMOSD onset is a risk factor for miscarriage, and pregnancies with high disease activity may be at increased risk of miscarriage. Exacerbations of MG occur in approximately $41 \%$ of pregnancies, with remission in $29 \%$ and no change in $30 \%$. Exacerbations occur in the first trimester and the three months postpartum. What is common in these autoimmune neurological diseases is that continuing appropriate treatment and stabilizing disease activity can prevent postpartum recurrence. Key Words: multiple sclerosis, neuromyelitis optica spectrum disorder, myasthenia gravis, pregnancy, preconception care ## はじめに 免疫性神経疾患の代表的な疾患である多発性硬化症 (multiple sclerosis:MS),視神経春髄炎(neuro- myelitis optica:NMO)・視神経脊髄炎スペクトラム (NMO spectrum disorder : NMOSD), 重症筋無力症(myasthenia graves:MG)はいずれも女性に  Figure 1 Maternal immunologic adaptations during pregnancy; multiple sclerosis. (Modified from reference 4) 多く, 発症年齢は生殖可能年齢に一致する.したがって, 臨床現場では, これら免疫性神経疾患患者の妊娠・出産について,日常的に遭遇するため,各疾患における妊娠・出産を理解し,対応することが求められる。 MS, NMO・NMOSD の妊娠・出産に備え, プレコンセプションケア(女性やカップルに将来の妊娠のための健康管理を提供すること), 治療薬(疾患修飾薬 (disease-modifying drugs:DMD), 免疫抑制薬など)の継続・変更, 出産後の再開, 授乳, 不妊治療へのマネージメント,母体・胎览への影響など自験例を踏まえ,解説する。 ## 免疫性神経疾患と妊娠中の胎児への免疫寛容 MS は炎症を促進する interferon (IFN) - $\gamma$, tumor necrosis factor (TNF) - $\alpha$, interleukin (IL) -2 などのサイトカインを産生する 1 型ヘルパー T 細胞 (Th1)やTh17 が元進し,抗炎症性作用を持つ IL4, IL-10を産生する 2 型ヘルパー T 細胞(Th2)や調整性 $\mathrm{T}$ 細胞 (regulatory $\mathrm{T}$ cell : Treg) が低下することが再発に関連している。妊娠期の母体内では,特性のサイトカインやエストロゲンなどのホルモンの作用で,サイトカインバランスが Th1 から Th2へシフトし, Th17 は低下, Treg は立進し, 胎児への免疫宽容が成り立つ ${ }^{11}$. MS ではこの妊娠中の免疫寞容により疾患活動性が抑制され寞解維持をもたら $す^{1) \sim 3)}(\text { Figure 1 })^{4}$. しかし, 疾患特異性のある自己抗体が関与し, Th2 シフトが疾患活動性に関与する NMOSD, MG では MS と異なり, 妊娠中の病勢が不安定になることが予測される。 ## MS の妊娠・出産 ## 1. 妊娠・出産と再発リスク 本邦の MS 患者数(特定疾患医療受給者証交付件数)は 2015 年 19,389 人(NMOSD 約 4,000 人含む)で,過去 30 年間に患者数は 40 倍,とくに女性患者の増加が顕著である ${ }^{556}$. 再発宽解型 MS 患者の妊娠・出産例を追跡調査した The Pregnancy in Multiple Sclerosis (PRIMS) study $^{7}$ ,では非妊娠期をコントロールとして年間再発率を比較した場合, 妊娠後期になるにしたがって,再発率は顕著に低下するが, 出産後 3 か月は妊娠前と比較し, 有意に再発率が高くなる $(\text { Figure 2 })^{7}$ ).これは育児ストレスによる疲労, 環境の変化, 女性ホルモンの急激な低下が誘因と考えられている。妊娠前から寛解を維持することが,産裖期の再発予防につながる。 妊娠・出産は MS の進行や日常生活障害度に悪影響を及ぼさず,しかも出産は疾患の進行を抑制す $る^{8)}$. MS から生まれた児について, 流産, 早産, 出生時体重, 頭囲, 先天異常の頻度は健常な母親と相違はない ${ }^{910)}$. Figure 2 Rate of relapse per woman per year for each three-month period before, during, and after pregnancy in 227 pregnancies resulting in a live birth among women with multiple sclerosis. (Adopted from reference 7) ## 2. 授乳と産裖期の再発 授乳が産祳期の再発を抑制するのか否か, 近年議論が盛んである。母乳を与えている MS の母親は人工乳を与えている MS の母親と比較し, 産裖期の再発率が低く,再発するまでの期間も長かった結果から, 母乳の産裖期の再発抑制効果が注目された ${ }^{11}$. しかし,寛解維持できている母親が,母乳を与えている傾向があること ${ }^{122}$ ,そして母乳には再発抑制効果はない,という見解も発表されるなど方,母乳の再発抑制効果については,結論は出ていない. いずれにせよ,母親が授乳を希望した場合,その希望を優先したほうが母子ともに良い影響を及ぼすが,母乳を優先するのか, 出産後早期に DMD を再開するのか,患者の疾患活動性と患者の希望を踏まえて治療方針をたてなければならない。 3. 疾患修飾薬 (disease-modifying drug : DMD):プレコンセプションケアと妊娠・出産 DMD とは, MS の再発予防, 病状進行抑制効果,脳 magnetic resonance imaging (MRI) 病変を減少させる治療効果を持つ薬剤である。 2019 年 8 月現在, 本邦では 5 種 6 剤 IFN- $\beta 2$ 剂, グラチラマー酢酸塩 (glatiramer acetate: GA),フィンゴリモド,フマル酸ジメチル (dimethyl fumarate:DMF),ナタリズマブの DMD が保険適用になっている. 近年,DMD の普及は目覚ましく,海外では $62 \%$ の MS 患者が DMD 投与中に偶発的に妊娠していることが報告されており ${ }^{14)}$, 我々の日常臨床において, DMD 投与中予期せぬ妊娠患者を経験することは少なくない. 妊娠の可能性のある女性患者にはプレコンセプションケアとともに, 妊娠前の疾患活動性を良好にコントロールすること,つまり再発予防と,妊娠 ・出産を見据えて,母胎へのリスク・ベネフィットを考慮した適切な DMD を選択し,十分なインフォー ムドコンセントを得ることが重要である。そして DMD 投与中, 妊娠した場合には, DMDの母体への影響を説明したうえで,まず患者の不安を取り除き,速やかに産婦人科と連携をとり,母体の宽解維持につとめる ${ }^{6}$. 妊娠前に GA,もしくは IFN- $\beta$ の投与群は未治療群と比べて, 出産後の再発抑制効果が明らかであったことから妊娠前の DMDの重要性が確認された (Figure 3) $)^{15}$. 一般的に, DMD を長期安全性と治療効果により分けると,長期安全性が確立しているDMDをべー スライン, 治療効果は高いが, 長期安全性がまだ担保されていないDMDを2nd ラインと位置付けている。妊娠前に 1 年以上宽解期を維持, つまり疾患活動性が安定している場合には, ベースラインの IFN- $\beta$ もしくは GA が選択される. しかし年に複数回の再発, MRI で活動性病巣が複数ある疾患活動性が高い患者や,ベースライン DMD が副作用などのため継続ができない場合は $2 \mathrm{nd}$ ラインが選択される.しかし, フィンゴリモドを内服している場合,妊娠前 2 か月間は投与中止しなくてはならないの Figure 3 Annual relapse rates in patients with multiple sclerosis exposed to glatiramer acetate or IFN- $\beta$ and in those who did not receive a disease-modifying treatment. DMD, disease-modifying drug; GA, glatiramer acetate; IFN- $\beta$, interferon-beta. (Modified from reference 15) Figure 4 Use of disease-modifying drug for multiple sclerosis patients who hope to bear a child. DMF, dimethyl fumarate; GA, glatiramer acetate; IFN- $\beta$, interferon-beta; MS, multiple sclerosis. (Modified from reference 16) で,DMD の変更が必要になる (Figure 4) ${ }^{16}$. 次に本邦で保険適用のある DMD の妊娠・出産・授乳について簡潔に解説し ${ }^{6171818}$, MS, NMOSD, MG の治療薬(本邦での保険適用外も含む)についてまとめた (Table 1, Table 2 $)^{1019) \sim 24) .}$ 1) インターフェロン $\beta$ (interferon- $\beta$ :IFN- $\beta$ )妊娠中 IFN- $\beta$ 曝露群では, 非投与群妊婦と比較して早産, 低体重, 低身長, 妊娠 37 週未満の早産児のリスクが有意に高いことが報告されたが25),その後本邦の臨床研究26) や海外のコホート研究27) では, 母胎へのリスクは高くならなかった。これまでの結果を Table 1 Multiple sclerosis, neuromyelitis optica spectrum disorder and myasthenia gravis therapies and pregnancy issues. (Including insurance unapproved in Japan) & methotrexate \\ * The Pregnancy and Lactation Labeling Rule (PLLR) removes pregnancy letter categories - A, B, C, D and X. The PLLR also requires the label to be updated when information becomes outdated. The rules came into effect on 30 June 2015. (Reference 19) Table 2 Use of approved MS disease-modifying drugs in Japan: pre-pregnancy, during pregnancy, and during breastfeeding. & & & & Breastfeeding \\ EU, European Union; US, United States; JPN, Japan. (Modified from references 10, 20-23) 踏まえ, 疾患活動性が高い IFN- $\beta$ 治療中の患者には,注意深く妊娠をモニタリングし,妊娠判明後ただちに IFN- $\beta$ を止する28.なな, 本剤投与中は授乳を避けることが原則であるが,欧米では母親の臨床的必要性と母乳による子への未知のリスクを考慮したうえで授乳が容認されている。 2) グラチラマー酢酸塩(glatiramer acetate: GA) GA は, 本邦の添付文書では「妊婦又は妊娠している可能性のある婦人には,治療上の有益性が危険性を上回ると判断される場合にのみ投与すること」と記載されている ${ }^{29}$. 妊娠中, 本剤の曝露があった母子での低出生体重览, 低身長, 早産 ${ }^{30}$, 先天異常, 未熟児, 流産の発生率は健常妊婦と差はなく ${ }^{31}$, 第 1 三半期までの曝露においても,リスクの上昇はなかっ $た^{30)}$. GA 曝露による胎监への影響は低く, 挙坚希望患者への第一選択薬となる. 授乳について本邦の添付文書では,「授乳中の婦人に投与することを避けること」と記載しているが ${ }^{29)}$, 海外では患者の疾患活動性を考慮し,容認されている。 3) フマル酸ジメチル (dimethyl fumarate: DMF) 本邦の DMF 添付文書では,「妊娠または妊娠している可能性のある婦人には, 治療上の有益性が危険性を上回ると判断される場合のみ投与すること。妊娠中の投与の安全性は確立されていない.」と記載されている322. 現在, DMF の初期曝露で胎児の先天性形態異常の発生頻度や自然流産の増加が観察されていないこと, また本剤の半減期が短いことから ${ }^{33344}$, 妊娠が判 明次第,投与を中止する ${ }^{10}$. DMF の分子量は $129 \mathrm{Da}$ と小さいので,母乳へ移行する可能性があるため,内服中は授乳を中止する $^{18}$. 4)フィンゴリモド 妊娠中のフィンゴリモド曝露で, 先天異常を含む 5 例の重篤な生殖毒性が生じ,すべて妊娠第 1 三半期まで暴露していた症例であったことから ${ }^{35}$, 妊婦または妊娠している可能性のある婦人への本剤の投与は禁忌である. したがって, 妊娠可能な患者には,投与前に妊娠していないことを確認し,胎児のリスクを十分に説明したうえで本剤を投与しなくてはならない. フィンゴリモドは血中から消失するまで 2 か月かかるため,また妊娠第 1 三半期の曝露により重篤な先天異常があったことから妊娠前 2 か月間の休薬を徹底する。万が一, 本剤投与中に妊娠が判明した場合は,ただちに投与を中止する。本剤休薬はリバウンド (MS の活動性が著しく高まること)のリスクがあるため36,挙児希望の患者には,DMF または,ナタリズマブへの切り替えが必要である. 動物実験において乳汁に移行することが確認されているため,本剤投与中,授乳は禁忌である ${ }^{37388}$. ## 5)ナタリズマブ 本剤は本邦の DMD でもっとも治療効果が高く,活動性の高い患者に投与される場合が多い. 本邦において,妊婦または妊娠している可能性のある婦人には治療上の有益性が危険性を上回ると判断される場合にのみ投与する ${ }^{39}$. 海外の妊娠中ナタリズマブ曝露の前向き調査では, 流産のリスクは一般人口の流産率とほぼ同様の結果だっだ先。ナタリズマブで注意することは,投与中止による再発・リバウンドであり ${ }^{40}$, 妊娠中の投与継続が検討されている. 最近では,妊娠中の母体の再発・リバウンドを予防するため妊娠後期の 30 週 ${ }^{11}$, もしくは 34 週 ${ }^{22}$ までの投与継続が報告されているが,本剤の妊娠期曝露による新生児の一過性血液異常が報告されているため ${ }^{43}$,十分にインフォームドコンセントを得たうえで娃娠中継続投与を検討すべきであり, 新生児の血液異常を念頭におき,新生坚科や小坚科との連携が必要である。 ナタリズマブは, 乳汁へ僅かに移行することが報告されているが, 乳览に対するリスクが非常に低く,海外では母体の疾患活動性が高い場合,授乳中の本剤継続が容認されている ${ }^{23441}$. ## 4. 妊娠,授乳中に再発した場合の治療 1)副腎皮質ステロイド 短期間でのステロイド投与は妊娠期には安全であるが,ステロイド・パルス療法の妊婦への安全性は確立されていない.母体の疾患をコントロールするうえで本剂を投与する場合には必要最小限とする.特に口蓋裂のリスク上昇について十分な説明が必要である. 2) 血液浄化療法 血漿交換, 二重膜濾過法, 免疫吸着療法(immunoadsorption therapy:IAP) は,妊娠時に施行できる治療法のひとつであると考えられるが,いずれも症例報告のレベルである。 3)免疫グロブリン大量静注療法 (intravenous immunoglobulin : IVIG) 本邦では,本剂の MSへの保険適用はないが,海外では, IVIGによる妊娠時・出産後の再発率低下が示され,有効性が報告されている ${ }^{4546)}$. しかし, IVIG は無効であったという報告もある ${ }^{47}$. IVIG 投与中の授乳は可能であるが,妊娠中投与の安全性は確立されていない ## 5. 生殖補助医療 (assisted reproductive technology : ART) とMS 欧米では,ARTが MSの再発リスクに関連するという報告があり,その機序は,ゴナドトロピン放出ホルモン (gonadotropin releasing hormone: GnRH) による炎症性サイトカイン〔vascular endothelial growth factor(VEGF), myelin-oligodendrocyte glycoprotein (MOG) 抗体, B cell activating factor belonging to the tumor necrosis factor family (BAFF)]の誘導であると示唆している ${ }^{4849}$. しかし,寛解期を維持していれば ART は可能である. ART と再発リスクについて自然妊娠 MS 患者と比較検討した我々の臨床研究では,寛解維持 MS 患者では ART による再発はなかったが, ART 後早期に流産した症例では再発をきたした $(\text { Table 3 })^{50)}$. ART に関連した再発は,妊娠前の疾患活動性と流産が関連している可能性が示唆され, ARTにおいても, 治療前の宽解期を維持することが ART 後の再発抑制に有効であると考えられる年.一方,ボストン・コホート研究では, ART 後早期の再発増加をきたしておらず,ART 前に DMD を休薬しなかったことが, ART 前後の母体の疾患活動性安定化に寄与した可能性を示唆している ${ }^{51)}$. Table 3 Clinical characteristics of RRMS treated with assisted reproductive technology. } & \multirow{2}{*}{} & \multirow{2}{*}{} & & \multirow{2}{*}{} & \multirow{2}{*}{} & \multirow{2}{*}{} & \multirow{2}{*}{ Delivery } \\ ART, assisted reproductive technology; GA, glatiramer acetate; IFN- $\beta$, interferon-beta; IVF, in vitro fertilization; ND, not done; RRMS, relapsing-remitting multiple sclerosis. (Reference 49) ## 6. 分婏時のマネージメント 重度の障害がない限り,MSによる分婏様式,鎮痛,麻酔への影響はない,分婏中に痙縮が悪化した場合には, ベンゾジアゼピンや硬膜外麻酔による対処が可能である ${ }^{42}$. ## NMO・NMOSD の妊娠・出産 ## 1. 妊娠・出産 : 再発リスクとプレコンセプショ ンケア これまで $\mathrm{NMO}$ ・NMOSD(以下,NMOSD とする) の妊娠・出産の症例報告では, そのほとんどが妊娠中に再発しており,妊娠中に再発リスクが高くなることが予想された. その免疫学的根拠として, 妊娠に伴い母体内では Th1 から Th2 にシフトし液性免疫が活性化するため, NMOSD では娃娠中に抗アクアポリン (aquaporin:AQP) 4 抗体産生が立進し,再発しやすくなる可能性が示唆された. マウスの NMOSD 実験モデルから想定された仮説で,NMOimmuno globulin $\mathrm{G}$ (IgG) は補体の活性化とともに胎盤の炎症,流産を引き起こすため高度の炎症が起きた場合には胎児死亡を引き起こすが,炎症が軽度な場合,胎児は健常に発育するという報告があり,妊娠前の疾患活動性の安定化が娃娠・出産に重要である (Figure 5 $)^{52}$ 。最近の報告 ${ }^{53) ~ 566}$ では, NMOSD は MS と同様に妊娠前と比較して, 妊娠後期に再発率は低下するが, 顕著な再発率の低下はなく, 出産後 3 か月の再発率は MSよりも高いことが明らかとなった(Figure 6).これは多くの症例で, 挙児希望や妊娠した時点で,当時は免疫抑制薬が妊婦には禁忌になっていたため投与中止になっていた影響があると考えられる ${ }^{522}$. NMOSD のプレコンセプション ケアの要点は,(1)妊娠・出産に伴う再発を防ぐために妊娠前から適正な免疫抑制薬を継続し,病勢を安定化すること (Table 4) ${ }^{55}$, (2)NMOSD は坚の発達・成長に影響しないこと ${ }^{535457)}$, (3)しかし, NMOSD 発症後の妊娠では流産・妊娠高血圧症候群のリスクが高いこと ${ }^{577}$, である. 抗 AQP4 抗体は胎盤を通過するため, 出生時, 览の抗 AQP4 抗体は一過性に陽性になるが発達・成長への影響は認められていな $い^{55}$. ## 2. 妊娠中の治療 NMOSD も MS と同様に出産・妊娠に備え, 再発しないように病状を安定させることが大切であるが,NMOSDでは副腎皮質ステロイドや免疫抑制薬を内服している患者が多い. 免疫抑制薬について,2018 年 6 月厚生労働省は,「タクロリムス」「アザチオプリン」「シクロスポリン」 の 3 剂について妊婦の使用を認め, 添付文書から「妊婦への使用を禁忌」を外し「妊婦または妊娠している可能性のある女性には治療上の有益性が危険性を上回ると判断される場合にのみ投与すること」, と記載されるようになった. NMOSD の妊娠に際し, 上記の免疫抑制薬の投与を継続する場合, 本剤への胎览の影響を説明するだけではなく,母体への有益性・必要性について患者打よび家族に十分なインフォームドコンセントを得ることが必須で,これらの「薬剤投与中は授乳を避けるように」と本邦での添付書類には記載されているが ${ }^{58} \sim 60$ ), 米国国立衛生研究所 (National Institutes of Health : NIH) の Lactmed では,「タクロリムス」「アザチオプリン」「シクロスポリン」は授乳中に安全に使用できると考えら Figure 5 Proposed mechanism of NMO-IgG-induced placental inflammation. (A) Normal fetus in uterus with a (B) magnified view of a normal fetal villus showing AQP4 within the syncytiotrophoblast plasma cell membrane. (C) NMO-IgG binds extracellular epitopes on AQP4 and (D) activates complement causing the deposition of membrane attack complexes (C5b-9) in the syncytiotrophoblast plasma membrane. (E) Leukocytes infiltrate the placenta, primarily neutrophils (NF) with some eosinophils (EF) and macrophages (MF). (F) Severe placental inflammation causes fetal death, but (G) mild placental inflammation allows normal fetal growth. Aquaporumab (A) inhibits NMO-IgG binding, and sivelestat (S) inhibits neutrophil-mediated damage. (Modified from reference 52) Figure 6 Annual recurrence rate associated with pregnancy and childbirth of optic neuromyelitis optica spectrum disorder comparison with MS. ARR, annual recurrence rate; $\mathrm{BP}$, before pregnancy; $\mathrm{DP}$, during pregnancy; $\mathrm{PP}$, postpartum; MS, multiple sclerosis; NMO, neuromyelitis optica; NMOSD, neuromyelitis optica spectrum disorder. (References 7, 51-54) Table 4 Clinical profile of 11 female patients with NMOSD who became pregnant after onset NMOSD. & & & & Form of delivery & & \\ Patients 1-9 had pregnancy-related relapses. Patients 10 and 11 were free of relapse during their pregnancies. AZT, azathioprine; DP1, first trimester of pregnancy; DP2, second trimester of pregnancy; DP3, third trimester of pregnancy; ND, not done; NMOSD, neuro-myelitis optica spectrum disorder; PP1, first 3-month periods postpartum; PP2, second 3-month periods postpartum; PP3, third 3-month periods postpartum; PSL, prednisolone. (Adopted from reference 55) れる薬剤として挙げている 23 . リツキシマブは, 本邦では NMOSD の保険適用ではないが, 海外の妊娠中および分婏後の再発のリスクが高い患者に投与されている。 母胎のリスク・べネフィットを考慮し,妊娠中の投与が容認されており, 現在のところ, 重篤な有害事象の報告はない ${ }^{6162)}$.本邦の添付文書では,「リツキシマブは,妊婦又は妊娠している可能性のある婦人には,治療上の有益性が危険性を上回ると判断される場合にのみ投与する,また,授乳中の投与に関する安全性は確立していないので,授乳婦に投与する場合には授乳を中止させること」と記載している ${ }^{63)}$. NMOSD 妊娠中の再発時治療として, 免疫吸着療法 $^{64)}$, ステロイド・パルス療法, 副腎皮質ステロイド内服が報告されている. ## MG の妊娠・出産 ## 1. 妊娠・出産 : プレコンセプションケア MGの妊娠中の疾患活動性について,妊娠中に悪化, 軽快, 変化なし, はそれぞれおよそ $1 / 3$ である. MGの母子における帝王切開や低出生体重児のリスクは健常母親と差はなく, 妊娠・出産は $\mathrm{MG}$ の長期予後に悪影響を及ぼさない。ただし妊娠第 1 三半期と出産後 3 か月間は $\mathrm{MG}$ の増悪のリスクにな $り^{65) \text { 68) }}, \mathrm{MG}$ 診断後 1 年から 2 年の間は病勢が悪化しやすいので, この時期の妊娠は避けたほうが良い。挙坚希望の患者が受診した場合にはプレコンセプションケアとして上記について説明を行い,妊娠 ・出産に備えて, 適切な治療を継続し, MGの病勢を安定させることが重要である. ## 2. 妊娠中の治療 $\mathrm{MG}$ の妊娠中の治療は抗コリンエステラーゼ薬が第一選択薬である. 胸腺摘出術が,妊娠中に実施されることはほとんどない。また, 副腎皮質ステロイドは妊娠中継続可能である ${ }^{65) \sim 67) .}$ 免疫抑制薬について, 前述したが,「タクロリムス」「アザチオプリン」「シクロスポリン」の 3 剂は, 添付文書に「妊婦または妊娠している可能性のある女性には治療上の有益性が危険性を上回ると判断される場合にのみ投与すること」, と記載されるようになった。妊娠に際し,上記の免疫抑制薬の投与を継続する場合,本剤の胎坚への影響を説明するだけではなく,母体への有益性・必要性について患者および家族に十分なインフォームドコンセントを得ることが必須で, これらの薬剤投与中は授乳を避けるよう本邦での添付書類には記載されているが ${ }^{58)}$ ,N0), NIH では,授乳中に安全に使用できる薬剤として挙げてい $3^{23}$. ミコフェノール酸モフェチルとメトトレキサートは催奇形性があり,妊娠中の投与は禁忌である ${ }^{65) ~ 677}$. な押,アザチオプリン,ミコフェノール酸モフェチル, メトトレキサートは本邦において, $\mathrm{MG}$ の保険適用はない. エクリズマブは妊婦または妊娠している可能性のある婦人には,娃娠中の投与に関する安全性は確立していないため, 治療上の有益性が危険性を上回ると判断される場合にのみ投与が容認される。 エクリズマブの多くの成分がヒト $\operatorname{IgG} 2$ と $\operatorname{IgG} 4$ に置換されており, IgG2 は胎盤通過性がないことから, 胎児への影響は最小限と予想されるが,今後の検討が待たれる. 本剤投与中, 授乳は中止する ${ }^{69}$. ## 3. 妊娠中に MG が増悪した際の治療 娃娠中, クリーゼや $\mathrm{MG}$ が増悪した場合には,血液浄化療法や IVIG が選択される ${ }^{(5) \sim 677}$. ## 4. 新生児一過性重症筋無力症 (transient neona- tal MG : TNMG) $\mathrm{MG}$ の母親から生まれた新生児で注意しなくてはならないのは TNMG である. MGの母親から出生した新生览の 10~20\% に発症するが, 抗アセチルコリン受容体 (acetylcholine receptor : AchR) 抗体 $\operatorname{IgG}$ が胎盤を通過して胎児へ移行するために起こる. TNMG の症状は吸啜困難, 笳緊張低下, 呼吸不全, 啼泣微弱, 眼瞼下垂などで, 出生 $12 \sim 48$ 時間後に出現し, 3 週間ほど持続する。ただし,母体の抗 AchR 抗体価と TNMG の頻度に関連性はない ${ }^{70}$. 5. 抗 muscle specific kinase (MuSK) 抗体陽性患 ## 者の妊娠・出産 抗 MuSK 抗体陽性患者の妊娠・出産では, 球麻疩症状の管理が非常に重要である。 母体と児の栄養管理や羊水過多に注意し, 症状増悪には躊薯せず血液浄化療法を施行するる) $^{71)}$. ## 6. MG 患者の妊娠高血圧症候群・子㿇 MG 患者の妊娠高血圧症候群および子癇への硫酸マグネシウムの使用は禁忌で,フェニトインも筋力低下を引き起こす可能性があるので避けるべきである. レべチラセタムの静脈内投与は可能である ${ }^{67}$. ## 7. 分婏時のマネージメント 硬膜外麻酔は経腔分婏,帝王切開を問わず安全に施行できるが,分婏第 2 期は横紋筋が働くため, 母体の疲労により陣痛が微弱となり,分娩が遷延する場合には, 器械分娩または帝王切開が行われる ${ }^{73}$. 硬膜外麻酔は, リドカイン, ブピバカインなどが適応 になり, オピオイドおよび全身麻酔薬は避ける ${ }^{67}$. 最近では, $\mathrm{MG}$ の分娩中の帝王切開は母体の疲労に起因するため, 無痛分婏が, 分婏時の母親の疲労回避に有用であるとの報告があり ${ }^{74)}$, 分婏に際し, 産婦人科医,麻酔科医との連携は必須である。 ## おわりに 免疫性神経疾患の $\mathrm{MS}, \mathrm{NMO}, \mathrm{MG}$ の妊娠・出産について最新知見を踏まえた概要を述べた。いずれも出産後 3 か月間は, 疾患の再発もしくは悪化に注意しなくてはならないが, 無事に妊娠・出産するためには,妊娠前から疾患活動性を安定させることが最も重要と考えられる。 開示すべき利益相反はない. ## 文 献 1) Wegmann TG, Lin H, Guilbert $L$ et al: Bidirectional cytokine interactions in the maternal-fetal relationship: is successful pregnancy a TH2 phenomenon? Immunol Today 14: 353-356, 1993 2) Saito S, Nakashima A, Shima T et al: Th1/Th2/ Th17 and regulatory T-cell paradigm in pregnancy. Am J Reprod Immunol 63: 601-610, 2010 3) Neuteboom RF, Verbraak E, Wierenga-Wolf AF et al: Pregnancy-induced fluctuations in functional T-cell subsets in multiple sclerosis patients. Mult Scler 16: 1073-1078, 2010 4) Vieira Borba V, Shoenfeld Y: Prolactin, autoimmunity, and motherhood: when should women avoid breastfeeding? Clin Rheumatol 38: 1263-1270, 2019 5)難病情報センター;公益財団法人難病医学研究財団:特定疾患医療受給者証所持者数. http://www. nanbyou.or.jp/entry/1356 (Accessed October 17, 2019) 6)「多発性硬化症・視神経脊髓炎診療ガイドライン 2017」(多発性硬化症・視神経脊䯣炎診療ガイドライン作成委員会編), (日本神経学会監), 医学書院,東京 (2017) 7) Confavreux C, Hutchinson M, Hours MM et al: Rate of pregnancy-related relapse in multiple sclerosis. Pregnancy in Multiple Sclerosis Group. N Engl J Med 339: 285-291, 1998 8) D'hooghe MB, Nagels G, Uitdehaag BM: Longterm effects of childbirth in MS. J Neurol Neurosurg Psychiatry 81: 38-41, 2010 9) Offner H, Polanczyk M: A potential role for estrogen in experimental autoimmune encephalomyelitis and multiple sclerosis. Ann N Y Acad Sci 1089: 343-372, 2006 10) Coyle PK, Oh J, Magyari M et al: Management strategies for female patients of reproductive potential with multiple sclerosis: An evidence-based review. Mult Scler Relat Disord 32: 54-63, 2019 11) Airas L, Jalkanen A, Alanen A et al: Breastfeeding, postpartum and pregnancy disease activity in multiple sclerosis. Neurology 75: 474-476, 2010 12) Portaccio E, Ghezzi A, Hakiki B et al: Breastfeeding is not related to postpartum relapses in multiple sclerosis. Neurology 77: 145-150, 2011 13) Zuluaga MI, Otero-Romero S, Rovira A et al: Menarche, pregnancies, and breastfeeding do not modify long-term prognosis in multiple sclerosis. Neurology 92: e1507-e1516, 2019 14) Nguyen AL, Havrdova EK, Horakova D et al: Incidence of pregnancy and disease-modifying therapy exposure trends in women with multiple sclerosis: A contemporary cohort study. Mult Scler Relat Disord 28: 235-243, 2019 15) Boster AL, Ford CC, Neudorfer $\mathbf{O}$ et al: Glatiramer acetate: long-term safety and efficacy in relapsing-remitting multiple sclerosis. Expert Rev Neurother 15: 575-586, 2015 16) Shimizu Y, Ikeguchi R, Kitagawa K: When and how disease-modifying drugs for multiple sclerosis should be changed in daily practice. Clin Exp Neuroimmunol 8: 71-80, 2017 17) Kaplan TB: Management of demyelinating disorders in pregnancy. Neurol Clin 37: 17-30, 2019 18)「多発性硬化症・視神経春髄炎診療ガイドライン 2017 追加情報—フマル酸ジメチルー」(多発性硬化症・視神経脊髄炎診療ガイドライン作成委員会編), (日本神経学会監), 医学書院, 東京 (PDF 版) (2018) . https://www.toxnet.n1m.nih.gov/cgi-bin/ sis/search2(参照 2019年 10 月 18 日) 19) U.S. Food \& Drug Administration: Pregnancy and Lactation Labeling (Drugs) Final Rule. https:// www.fda.gov/drugs/labeling/pregnancy-andlactation-labeling-drugs-final-rule ( Accessed October 18, 2019) 20) Coyle PK: Multiple sclerosis and pregnancy prescriptions. Expert Opin Drug Saf 13: 1565-1568, 2014 21) Fabian M: Pregnancy in the setting of multiple sclerosis. Continuum (Minneap Minn) 22: 837-850, 2016 22) Hale TW, Hilary ER: Medications and Mothers Milk 2017. Springer, New York (2016) . https:// www.halesmeds.com/ 23) National Library of Medicine (US): Drugs and Lactation Database (Lact Med). https://www. toxnet.nlm.nih.gov/newtoxnet/lactmed.htm ( Accessed October 18, 2019) 24)国立成育医療研究センター:妊娠と薬情報センター.http://www.ncchd.go.jp/kusuri/index.html 25) Lu E, Wang BW, Guimond $\mathrm{C}$ et al: Diseasemodifying drugs for multiple sclerosis in pregnancy: a systematic review. Neurology 79: 11301135,2012 26) Shimizu Y, Makioka H, Harada N et al: Outcomes of pregnancy during interferon beta-1 a therapy in Japanese patients with multiple sclerosis: interim results of a postmarketing surveillance study. Clin Exp Neuroimmunol 6: 402-408, 2015 27) Coyle PK, Sinclair SM, Scheuerle AE et al: Final resuls from the Betaseron (interferon $\beta-1 b)$ Pregnancy Registry: a prospective observational study of birth defects and pregnancy-related adverse events. BMJ Open 4: e004536, 2014 28) Amato MP, Portaccio E, Ghezzi A et al: Pregnancy and fetal outcomes after interferon- $\beta$ exposure in multiple sclerosis. Neurology 75: 1794-1802, 2010 29)コパキソン皮下注 20 シリンジグラチラマー酢酸塩注射液(改訂第 4 版). 武田薬品工業 (2018) 30) Herbstritt S, Langer-Gould A, Rockhoff $M$ et al: Glatiramer acetate during early pregnancy: A prospective cohort study. Mult Scler 22: 810-816, 2016 31) Sandberg-Wollheim M, Neudorfer O, Grinspan A et al: Pregnancy Outcomes from the Branded Glatiramer Acetate Pregnancy Database. Int J MS Care 20: 9-14, 2018 32)テクフィデラ゙カプセル $120 \mathrm{mg}, 240 \mathrm{mg}$ 添付文書 (第 1 版)。バイオジェン・ジャパン (2016) 33) Gold R, Phillips JT, Havrdova E et al: Delayedrelease dimethyl fumarate and pregnancy: Preclinical studies and pregnancy outcomes from clinical trials and postmarketing experience. Neurol Ther 4: 93-104, 2015 34) Therapeutic Goods Administration (TGA), Australian Government Department of Health: Tecfidera, Australian Public Assessment Report (AusPAR) for Dimerthyl Fumarate. (2013) https://www.tga.gov.au/sites/default/files/auspardimethyl-fumarate-131022.pdf 35) Karlsson G, Francis G, Koren G et al: Pregnancy outcomes in the clinical development program of fingolimod in multiple sclerosis. Neurology 82: 674680, 2014 36) Novi G, Ghezzi A, Pizzorno $M$ et al: Dramatic rebounds of MS during pregnancy following fingolimod withdrawal. Neurol Neuroimmunol Neuroinflamm 4: e377, 2017 37)ジレニア ${ }^{\circledR}$ 適正使用ガイド (改訂第 6 版). (藤原一男監), ノバルティスファーマ (2016) 38)イムセラ ${ }^{\circledR}$ 適正ガイド(改訂第 5 版). (藤原一男監),田辺三菱製薬 (2016) 39)タイサブリ ${ }^{\circledR}$ 点滴静注 300 適正使用ガイド. (吉良潤一監),バイオジェンアイデック (2014) 40) Portaccio E, Annovazzi P, Ghezzi A et al: Pregnancy decision-making in women with multiple sclerosis treated with natalizumab: I: Fetal risks. Neurology 90: e823-e831, 2018 41) Thöne J, Thiel S, Gold R et al: Treatment of multiple sclerosis during pregnancy-safety considerations. Expert Opin Drug Saf 16: 523-534, 2017 42) Dobson R, Dassan P, Roberts M et al: UK consensus on pregnancy in multiple sclerosis:'Association of British Neurologists'guidelines. Pract Neurol 19: 106-114, 2019 43) Haghikia A, Langer-Gould A, Rellensmann G et al: Natalizumab use during the third trimester of pregnancy. JAMA Neurology 71: 891-895, 2014 44) Langer-Gould AM: Pregnancy and family planning in multiple sclerosis. Continuum (Minneap Minn) 25: 773-792, 2019 45) Brandt-Wouters E, Gerlach OH, Hupperts RM: The effect of postpartum intravenous immunoglobulins on the relapse rate among patients with multiple sclerosis. Int J Gynaecol Obstet 134: 194- 196, 2016 46) Winkelmann A, Rommer PS, Hecker M et al: Intravenous immunoglobulin treatment in multiple sclerosis: A prospective, rater-blinded analysis of relapse rates during pregnancy and the postnatal period. CNS Neurosci Ther 25: 78-85, 2019 47) Fragoso YD, Adoni T, Alves-Leon SV et al: Postpartum treatment with immunoglobulin does not prevent relapses of multiple sclerosis in the mother. Health Care Women Int 36: 1072-1080, 2015 48) Correale J, Farez MF, Ysrraelit MC: Increase in multiple sclerosis activity after assisted reproduction technology. Ann Neurol 72: 682-694, 2012 49) Hellwig K, Correale J: Artificial reproductive techniques in multiple sclerosis. Clin Immunol 149: 219-224, 2013 50) Shimizu Y, Ikeguchi R, Kitagawa K: Pregnancy outcome, changes in lymphocyte subsets in peripheral blood, and plasma osteopontin in Japanese patients with multiple sclerosis after assisted reproductive technology. Neurology 90: 4. 369, 2018 (abstract) 51) Bove R, Rankin K, Lin C et al: Effect of assisted reproductive technology on multiple sclerosis relapses: Case series and meta-analysis. Mult Scler 2019, doi: $10.1177 / 1352458519865118$ 52) Saadoun S, Waters P, Leite MI et al: Neuromyelitis optica IgG causes placental inflammation and fetal death. J Immunol 191: 2999-3005, 2013 53) Kim W, Kim SH, Nakashima I et al: Influence of pregnancy on neuromyelitis optica spectrum disorder. Neurology 78: 1264-1267, 2012 54) Bourre B, Marignier R, Zéphir H et al: Neuromyelitis optica and pregnancy. Neurology 78: 875879,2012 55) Shimizu Y, Fujihara K, Ohashi $T$ et al: Pregnancy-related relapse risk factors in women with anti-AQP4 antibody positivity and neuromyelitis optica spectrum disorder. Mult Scler 22: 14131420, 2016 56) Klawiter EC, Bove R, Elsone L et al: High risk of postpartum relapses in neuromyelitis optica spectrum disorder. Neurology 89: 2238-2244, 2017 57) Nour MM, Nakashima I, Coutinho E et al: Pregnancy outcomes in aquaporin-4-positive neuromyelitis optica spectrum disorder. Neurology 86: 79-87, 2016 58)アザニン ${ }^{\circledR} 50 \mathrm{mg}$ (第 16 版). 田辺三菱製薬(2018) 59)ネオーラル ${ }^{\circledR} 10 \mathrm{mg}, 25 \mathrm{mg}, \quad 50 \mathrm{mg}$ カプセル(第 22 版)。ノバルティス (2018) 60)プログラフ ${ }^{\circledR}$ カプセル $0.5 \mathrm{mg}, 1 \mathrm{mg}$ (第 39 版). アステラス $(2018)$ 61) Miranda-Acuña J, Rivas-Rodríguez E, Levy M et al: Rituximab during pregnancy in neuromyelitis optica: A case report. Neurol Neuroimmunol Neuroinflamm 6: e542, 2019 62) Das G, Damotte V, Gelfand JM et al: Rituximab before and during pregnancy: A systematic review, and a case series in MS and NMOSD. Neurol Neuroimmunol Neuroinflamm 5: e453, 2018 63)抗 CD20 モノクローナル抗体リッキサン注 $20 \mathrm{mg} /$ $\mathrm{mL}$ (第 18 版). 全薬工業 (2016) 64)大橋高志, 太田宏平, 清水優子ほか: 視神経脊髄炎 (NMO)におけb免疫吸着療法の検討. 東京女子医科大学雑誌 77 (臨時増刊):E94-E98, 2008 65) Shimizu Y, Kitagawa K: Management of myasthenia gravis in pregnancy. Clin Exp Neuroimmunol 7: 199-204, 2016 66) Hamel J, Ciafaloni E: An Update: Myasthenia Gravis and Pregnancy. Neurol Clin 36: 355-365, 2018 67) Waters J: Management of myasthenia gravis in pregnancy. Neurol Clin 37: 113-120, 2019 68) Boldingh MI, Maniaol AH, Brunborg C et al: Increased risk for clinical onset of myasthenia gravis during the postpartum period. Neurology 87: 21392145, 2016 69)ソリリス ${ }^{\circledR}$ 点滴静注 $300 \mathrm{mg}$ (第 11 版). アレクシオンファーマ合同会社(2019) 70) Kalidindi M, Ganpot S, Tahmesebi A et al: Myasthenia gravis and pregnancy. J Obstet Gynecol 27: 30-32, 2007 71)神崎昭浩, 本村政勝: 抗 MuSK 抗体陽性の重症筋無力症の妊婦例と新生览一過性重症筋無力症览例. 臨床神経 51 : 188-191, 2011 72) Santos E, Braga A, Gabriel D et al: MuSK myasthenia gravis and pregnancy. Neuromuscul Disord 28: 150-153, 2018 73)成人発症の $M G$ の治療指針. 妊娠・出産における注意点はなにか.「重症無力症ガイドライン $2014 」$ (「重症筋無力症診療ガイドライン」作成委員会編),(日本神経学会監), pp44-46, 南江堂, 東京 (2014) 74) Tsurane K, Tanabe S, Miyasaka N et al: Management of labor and delivery in myasthenia gravis: A new protocol. J Obstet Gynaecol Res 45: 974-980, 2019 ## 性差医療
tokyojoshii
cc-by-4.0
Tokyo Women's Medical University
-
# 骨転移に対するビスフォスフォネート製剤投与中に 非定型大腿骨不全骨折を発症した副乳癌の 1 例 ${ }^{1}$ 東京女子医科大学八千代医療センター乳腺・内分泌外科 ${ }^{2}$ 東京女子医科大学医学部乳腺 $\cdot$ 内分泌 $\cdot$ 小児外科学 こうづ整形外科 (受理 2019 年 1 月 16 日) ## Incomplete Atypical Femoral Fracture Related to Long-term Bisphosphonate Therapy in a Case of Accessory Breast Cancer with Bone Metastasis ## Norie Jibiki, ${ ^{1}$ Takahiro Okamoto, ${ }^{2}{ }^{\text {Y }}$ umi Shimizu, ${ }^{1,2}$ and Noritsune Kouzu $^{3}$} ${ }^{1}$ Department of Breast and Endocrinological Surgery, Tokyo Women's Medical University Yachiyo Medical Center, Chiba, Japan ${ }^{2}$ Department of Breast, Endocrine and Pediatric Surgery, School of Medicine, Tokyo Women's Medical University, Tokyo, Japan ${ }^{3}$ Kouzu Orthopaedic Clinic, Chiba, Japan A 76-year-old woman presented with a 3-cm-sized tumor in the right axilla, with dermal infiltration. Core needle biopsy revealed invasive ductal carcinoma, and immunohistochemical findings revealed positivity for estrogen receptor (ER) and negativity for progesterone receptor (PgR) and HER2. She was diagnosed as having accessory breast cancer with multiple bone metastases and was classified as stage IV. Bisphosphonate (BP) therapy was initiated, and 78 months after starting BP therapy, she developed discomfort in her right femoral area, with pain on walking. Plain radiographs revealed localized thickening of the right femoral lateral bone cortex. An incomplete transverse fracture on computed tomography and low signal intensity on T1-weighted magnetic resonance images in the same location suggested repair process after an atypical femoral fracture because of longterm BP therapy. Bone scintigraphy, 1 year earlier, had shown slight right-sided lateral femoral uptake. BP therapy was discontinued, and the pain improved with conservative management. At present, 30 months later, no skeletal-related adverse events have occurred, and the atypical femoral fracture is stable. In this case, a suspicion of atypical femoral fracture based on symptoms of advanced disease prompted the diagnosis of an incomplete fracture. Atypical femoral fractures must be suspected in patients on long-term BP therapy. Key Words: atypical femoral fracture, bisphosphonates, bone metastasis  ## 緒言 近年,ビスフォスフォネート製剂 (BP 製剤) の長期投与と非定型大腿骨骨折 (atypical femoral fracture:AFF)の関連性が指摘されている1). 薬物治療の進歩により進行再発乳癌の予後は改善し, 骨転移に対する長期の BP 製剤投与による AFF の報告も散見されるようになった2) (10). しかし, この有害事象は実臨床においてまだ十分に認識されていないように思われる。今回, 副乳癌骨転移に対する BP 製剤長期投与中に大腿骨不全骨折を発症しAFF と診断した症例を経験したので報告する。 ## 症 例 患者 : 76 歳, 女性. 身長 $153.8 \mathrm{~cm}$, 体重 $45.7 \mathrm{~kg}$. 主訴:右大腿部の違和感,歩行時の痛み。 既往歴:特記事項なし。 家族歴:特記事項なし。 現病歴:肺癌検診 2 次検查の CT 検査で右腋窩腫瘤を指摘され,当科へ紹介となった.右腋窩に約 3 $\mathrm{cm}$ の皮膚浸潤を伴った腫瘤を認めた.針生検では,浸潤性乳管癌, ER 陽性, PgR 陰性, HER2 陰性, 固有乳腺との連続性はなく, 副乳癌と診断した。肺転移,肝転移は認めず,多発する骨転移を認めた。 Stage IV 進行乳癌として化学療法を施行した. EC 療法 (epirubicin; $90 \mathrm{mg} / \mathrm{m}^{2}$, cyclophosphamide ; $\left.600 \mathrm{mg} / \mathrm{m}^{2}\right)$ を 4 コース施行後, weekly paclitaxel $\left(80 \mathrm{mg} / \mathrm{m}^{2}\right)$ を 12 コース施行した. 化学療法の臨床学的治療効果は Partial Response の状態で, その後,病勢が安定したため,内分泌療法(anastorozole)に変更し, BP 製剤を 4 週 1 回投与で開始した. 内分泌療法の臨床学的治療効果は Stable Disease の状態で,さらに 2 年後に同 $\mathrm{BP}$ 製剤を 8 週 1 回に変更して継続していた,BP 製剂開始から 78 か月後に,右大腿部の違和感と歩行時の痛みが出現して来院した. 来院時現症 : 右大腿部の痛みは軽度であり,歩行は可能な状態であった.右大腿部に腫脹や圧痛は認めなかった。 単純 X 線検査:右大腿骨外側骨皮質の限局的な肥厚を認めた (Figure 1A). CT 検査:同部位に横骨折の修復像と考えられる骨皮質や海綿骨の肥厚,硬化像を認めた(Figure 1 B). MRI 検査 : 同部位に $\mathrm{T} 1$ 強調画像で骨皮質の肥厚による低信号の変化を認めた(Figure 1C)。 骨シンチグラム:AFF 診断 6 か月前の画像を見返すと,右大腿骨外側にわずかな集積を認めていた (Figure 2). 臨床経過:大腿骨非定型不全骨折の修復過程と診断し, 副乳癌の病勢は落ち着いていたため BP 製剤を中止する方針とし,保存的に歩行時の痛みは軽快した. BP 製剂投与中止から 30 か月の現在, $\mathrm{AFF}$ は完全骨折に至っていない,副乳癌の病勢として新たな臟器転移は認めず, 骨転移の画像上の増悪は認めないが,腫瘍マーカーの上昇を認めたため内分泌治療を fulvestrant に変更した。BP 製片の再開,抗 RANKL 製剤の開始はしていないが,骨転移による骨関連事象は認めていない。 ## 考 察 2005 年に Odvina らは BP 製剂長期投与が骨代謝回転を過剩に抑制することを報告じ,AFFが注目されるようになった。当初,骨粗鬆症に対する $\mathrm{BP}$製剤の長期投与による AFF の報告が多かったが,最近では悪性腫瘍の骨転移に対する治療での発症報告も散見されるようになってきた2) 10). AFF の診断基準は, American Society for Bone and Mineral Reseach (ASBMR) により 2010 年に定義され ${ }^{11)}$,さらに 2013 年に改訂された ${ }^{122}$. 骨折部位が大腿骨小転子遠位部直下から顆上部直下までの骨幹部であり,(1)外傷が全くないか,軽微である。(2骨折線は側方の皮質を起点とし, 横骨折もしくは斜骨折である。(3)完全骨折では内側スパイクを認めることがある。不全骨折では外側皮質のみに骨折線を認める. (4)粉砕骨折なし, もしくは軽微な粉砕である. (5)骨折部位には外側骨皮質の限局性骨膜反応を認める. 以上の主な 5 つの特徴のうち少なくとも 4 つを満たせば AFF と診断する. 副次的な特徴として, 骨幹部の皮質骨厚の全体的な増加,鼠径部または大腿部の痛みといった前駆症状,両側性の完全骨折または不全骨折,骨折治瘉の遅延がある。 $\mathrm{BP}$ 製剤の長期投与については明確な定義がない. 乳癌骨転移治療で AFF を発症した本邦報告例の BP 製剂開始から骨折までの期間は 2 年〜 9 年と幅が広い ${ }^{22-99}$. Ota ら ${ }^{13}$ は, BP 製剂もしくはデノスマブを使用した乳癌骨転移患者の 32 例 64 肢のうち 8/64 肢 $(12.5 \%)$ に AFF 変化を認め, $5 / 64$ 肢 $(7.8 \%)$ に完全骨折を認め, AFF の変化を認めるまでの期間の中央値は 48.8(22 75) か月であったと報告している. Dell ら ${ }^{14}$ は, AFF の発生率は BP 製剤の使用期間が長くなるにつれて増加すると報告し, 投与が 5 年を超える場合は AFF に注意が必要としている。骨 Figure 1 A Plain X-ray image. Plain X-ray images showing thickening of lateral bone cortex (arrow). B Computed tomography. Computed tomography showing thickening of lateral bone cortex (arrow). C Magnetic resonance imaging. Magnetic resonance imaging showing thickening of lateral bone cortex on T1-weighted images (arrow). Figure 2 Bone scintigraphy. Bone scintigraphy demonstrating slight uptake in lateral side of the right femur (arrow). 転移に対する BP 製剤の投与量は骨粗鬆症より多く, 経口投与に比べ経静脈的投与の方が AFF の発生頻度が高いと報告され ${ }^{15)}$, ASBMRによる閉経後女性の骨粗鬆症に対する長期 BP 治療管理アルゴリ ズムでは, 5 年間の経口 $\mathrm{BP}$ 製剤投与または 3 年の静注 BP 製剂投与を受けた患者において継続・休薬の評価を提唱している ${ }^{16)} .3$ 年以上の骨転移に対する $\mathrm{BP}$ 製剤投与例では特に AFF に注意する必要があるのではないかと考える. 自験例は BP 製剤投与開始から 6 年 6 か月と長期投与されており AFF のリスクが高かった。受傷機転は明らかでなく, 大腿部の違和感, 歩行時の痛みを訴えて来院され, 単純 $\mathrm{X}$線検査で外側骨皮質の限局性骨膜反応を認めたため AFF を疑い不全骨折の状態で診断し得た. AFF は完全骨折で発見されることがほとんどであり,振り返ると前駆症状が確認されることが多い(2) 10). 本邦報告例において不全骨折で診断し得た乳癌骨転移 $\mathrm{BP}$ 製剤長期投与例の $\mathrm{AFF}$ は 2 例だけであっだ(10).工藤らの報告では, AFF の前駆症状である右大腿部痛を呈していた ${ }^{10)}$ 。寺西らは繰り返す鼠径部痛と X 線画像の変化から AFF と診断した9). BP 製剤長期投与例においてこれらの前駆症状を認める場合は AFF を念頭に置く必要がある. 自験例が完全骨折に至らなかった要因は, 体重が軽く下腿にかかる荷重負担が少なかったこと, 前駆症状ですみやかに診断し得たことで活動性を制限し注意喚起ができたこと,BP 製剤を中止したことで骨折の修復機能が働いた可能性を考えた. AFF の不全骨折の治療について他の報告によれば保存的に経 過観察した場合,疼痛が遷延したり,変位や完全骨折に至る症例もあり,不全骨折の時点で内固定を行った方が生活の質の低下が少なく,早期に手術を考慮すべきであるとの意見もある ${ }^{4991010}$. 骨粗鬆症治療においては BP 製剤の中止によってAFF の発症は減少したという報告 ${ }^{17}$ もあるが, ASBMR では BP 製剤休薬による AFF 発症リスク減少については明らかではないとしている ${ }^{16}$. さらに悪性腫瘍に対する BP 製㓣の休薬における AFF 発症リスク減少に関する報告はない.悪性腫瘍の治療において BP 製剂を中止した場合, 骨転移の骨関連事象が増加する可能性がある. AFF の不全骨折に対する治療方針に一定の見解がない現状では, 原疾患の予後予測と骨転移による骨関連事象の発症リスク, AFF の完全骨折に至るリスクを整形外科と連携して総合的に評価して検討する必要がある. 骨折の修復機能が働かず,完全骨折のリスクが高いと判断した場合は外科的治療も念頭において慎重に経過観察する必要があると考える。悪性腫瘍に対する BP 製剤の使用における AFF を不全骨折で診断した報告はまだ少なく, 早期に診断し症例を蓄積することで今後の研究に期待がされる。 ## 結論 今回われわれは,副乳癌骨転移に対する $\mathrm{BP}$ 製剤長期投与中に不全骨折で発見し得た AFF を経験した。悪性腫瘍骨転移治療中に BP 製剤投与が長期となった場合, AFF の発症を念頭におき前駆症状に注意する必要がある. 開示すべき利益相反状態はない. ## 文 献 1) Odvina CV, Zerwekh JE, Rao DS et al: Severely suppressed bone turnover: a potential complication of alendronate therapy. J Clin Endcrinol Metab 90: 1294-1301, 2005 2)江口英人,杉村聡,石田崇ほか:ゾレドロン酸の長期投与により生じた両側大腿骨転子下骨折の 1 例. 骨折 $36: 937-940,2014$ 3)足立祥子, 成井一隆, 山田顕光ほか:乳癌骨転移に対する bisphosphonate 長期投与に伴う大腿骨非定型骨折の 1 例。日臨外会誌 $\mathbf{7 6}: 2930-2934,2015$ 4) 高田慎太郎,坂本優子,野沢雅彦ほか:乳癌に対す るゾレドロン酸(ゾメ夕)投与中の患者に発生した大腿骨非定型骨折の 2 例. 骨折 $\mathbf{3 8}: 834-837,2016$ 5)尾崎友理, 雨宮剛, 平松聖史ほか:乳癌骨転移に対するビスホスホネート長期投与による非定型大腿骨骨折の 1 例。日臨外会誌 $78: 21-25,2017$ 6)西口滋, 藤原弘之, 山根逸郎ほか: 非定型大腿骨骨折を生じた乳癌骨転移の 2 症例。中部整災誌 59 : 161-162, 2016 7)林智志, 河村健二, 水谷泰士ほか:ゾレドロン酸長期投与に伴う非定型大腿骨骨折骨折部で髄腔が骨性に閉鎖していた 1 例. 整・災外 58 :827829,2015 8)村山一宏, 楊鴻生, 岡山明洙ほか:乳癌に対して bisphosphonate 製剤(ゾレドロン酸)の長期投与後に発生した両側非定型大腿骨骨折の 1 例. 中部整災誌 57 : 1347-1348, 2014 9) 寺西裕器, 川崎元敬, 岡上裕介ほか:ゾレドロン酸長期投与により両側非定型大腿骨骨折を生じた乳癌骨転移の 1 例。中部整災誌 $\mathbf{5 9}: 389-390,2016$ 10)工藤健史, 岸本健太, 西原寛玄ほか:ゾレドロン酸長期投与中に非定型大腿骨骨折を来した 2 例. 中部整災誌 57 : 1345-1346, 2014 11) Shane E, Burr D, Ebeling PR et al: Atypical subtrochanteric and diaphyseal femoral fractures: report of a task force of the American Society for Bone and Mineral Research. J Bone Miner Res 25: 2267-2294, 2010 12) Shane E, Burr D, Abrahamsen B et al: Atypical subtrochanteric and diaphyseal femoral fractures: second report of a task force of the American Society for Bone and Mineral Research. J Bone Miner Res 29: 1-23, 2014 13) Ota S, Inoue R, Shiozaki $T$ et al: Atypical femoral fracture after receiving antiresorptive drugs in breast cancer patients with bone metastasis. Breast Cancer 24: 601-607, 2017 14) Dell RM, Adams AL, Greene DF et al: Incidence of atypical nontraumatic diaphyseal fractures of the femur. J Bone Miner Res 27: 2544-2550, 2012 15) Puhaindran ME, Farooki A, Steensma MR et al: Atypical subtrochanteric femoral fractures in patients with skeletal malignant involvement treated with intravenous bisphosphonates. J Bone Joint Surg Am 93: 1235-1242, 2011 16) Adler RA, El-Hajj Fuleihan G, Bauer DC et al: Managing osteoporosis in patients on long-term bisphosphonate treatment: report of a Task Force of the American Society for Bone and Mineral Research. J Bone Miner Res 31: 16-35, 2016 17) Schilcher J, Michaëlsson K, Aspenberg P : Bisphosphonate use and atypical fractures of the femoral shaft. N Engl J Med 364: 1728-1737, 2011
tokyojoshii
cc-by-4.0
Tokyo Women's Medical University
-
# 性差医療 (1)乳腺外科領域 東京女子医科大学乳腺 - 内分泌 - 小児外科 東京女子医科大学女性科(乳腺外科) 神尾 孝子 } (受理 2019 年 1 月 28 日) Gender Medicine (1) Breast Surgery ## Takako Kamio Department of Breast, Endocrine and Pediatric Surgery, Tokyo Women's Medical University, Tokyo, Japan Department of Women's Health (Breast Surgery), Tokyo Women's Medical University, Tokyo, Japan Gender-specific medicine involves the treatment of diseases in male and female reproductive systems separately, as well as in organs common to both genders considering their biological and social differences. Biological sex determination and differentiation are driven by the interaction of genetic and endocrinologic factors. Social factors also contribute to sexual differences in diseases. Both male and female bodies have breast tissues; however, hormones affect their differences in development, structure, and physiological changes and diseases. Estrogen stimulates epithelial proliferation and is associated with mammary gland lesions. In breast cancer, elevated expression of synthetase produces estrogen. Therefore, estrogen-dependent proliferation of breast cancer can occur in men and postmenopausal women. In benign mammary gland lesions, the estrogen level is higher than normal owing to reduction in metabolizing enzymes. Breast cancer is the most important disease requiring breast surgery and is the most predominant cancer among women. Breast cancer in men accounts for only $0.6 \%$ relative to the incidence rate in women. Among female mammary gland diseases, benign lesions such as fibroadenoma and mastopathy are rarely indicated for surgery. In contrast, when men present at outpatient departments with mammary gland disease, the diagnosis is almost always gynecomastia. We herein describe the characteristics of breast cancer and gynecomastia. Although female breast cancer research is constantly progressing, more studies in male breast cancer are warranted. New results are anticipated in gender-specific medicine. Key Words: gender medicine, breast surgery, breast cancer, gynecomastia, estrogen はじめに 性差医療とは, 生殖器系のみならず, 男女共通の臓器に起こる疾患を含め,それらの疾患の背景にある生物学的および社会的な男女差を念頭において行 $\square$ : 神尾孝子 $\overline{\mathrm{T}}$ 162-8666 東京都新宿区河田町 8-1 東京女子医科大学乳腺・内分泌 $\cdot$ 小坚外科 E-mail: [email protected] doi: 10.24488/jtwmu.89.1_1 Copyright (C) 2019 Society of Tokyo Women's Medical University. This is an open access article distributed under the terms of Creative Commons Attribution License (CC BY), which permits unrestricted use, distribution, and reproduction in any medium, provided the original source is properly credited. う医療であり,天野らは,“男女比が圧倒的に一方に傾いている病態,発症率はほぼ同じでも男女間で臨床的に差が認められる疾患, いまだ生理的,生物学的解明が男性または女性で遅れている病態, 社会的な男女の地位と健康状態に関連が認められる病態などに関する研究を進め, その結果を疾患の診断, 治療,予防に反映することを目的とした医療”と定義づけている1). 生物学的な性の決定・分化・性差構築は, 遺伝的制御と内分泌制御の相互作用によりもたらされるが, これらに社会的要因も加わって, 様々な疾患の男女差が生じている。また,臨床検査デー夕,薬物の体内動態や薬理作用にも男女差が存在している. 乳房は男女共通に存在するが, その発達の状況や構造の違い, 乳房に起こる生理的な変化や疾患の違いにはホルモン環境が大きく関わっている。本稿では,乳腺外科領域の性差について,乳腺に対するホルモン環境の関与および,乳がんや女性化乳房症など日常診療で遭遇することの多い疾患の特徴を中心に述べる。 ## 1. 乳腺の発生 乳腺は,女性では,乳汁を通じて新生児に栄養や免疫力を与えるために重要な臟器であり,外胚葉由来の特殊な汗腺組織である。 胎生 4 週頃に胎児の腹側の表皮が隆起し乳腺隆起が形成され, 胎生 15 週頃にはテストステロンの作用で間質が発達し, この中に上皮の伸長, 分岐により乳腺原基 (1 次乳腺芽), 2 次乳腺芽が形成される。胎生 32 週以降には上皮は管腔を形成し乳管が作られる. 生下時, 乳腺は男女とも索状に触知されるが, いずれも生後 1 か月頃には退縮し不活性の状態となる. ## 2. 乳房の発達と構造の性差 女性の乳腺は, 思春期にはエストロゲンの作用で乳管の伸長, 増生が打こり, エストロゲンとプロゲステロンの作用によって小葉, 腺房の分化が促される. 性成熟期の乳房では, 乳頭に 15 20 本の乳管が開口しており,それぞれは末梢に向かって分岐し乳管系を形成し, 最も末梢は授乳期に乳汁分泌部となる小葉に達している. 小葉内の細乳管は盲端となり腺房を形成し,これらの周囲を膠原繊維および脂肪組織が取り囲しで全体として乳房を形作っている。 また, 性成熟期の乳房は, 性周期に伴い容積や上皮細胞の形態が変化することが知られている2). 妊娠期には,小葉内の腺房の数と容積が増加し,授乳期に は乳汁を含み拡張した腺房が小葉内に充満して認められるようになる。閉経期になると, 乳腺は委縮し膠原緎維や脂肪組織に置換される。 これに対して,男性の乳腺は,構造上,女性と同様に乳頭, 乳輪, 乳管と周囲を取り巻く膠原纎維,脂肪組織を認めるが,乳汁分泌を担う小葉の形成はなく,女性の乳腺にみられるような性周期に伴う変化も認めない. ## 3. 乳腺外科領域の疾患の性差 乳腺外科領域で最も重要な疾患は乳がんであり,女性では,がん罹患率の第 1 位を占めている(Figure 1$)^{3}$. これに対して, 男性乳がん患者数は女性の乳がん患者の $0.6 \%$ 程度にとどまる ${ }^{4)}$. 女性の乳腺疾患には, この他, 線維腺腫, 乳腺症等の良性疾患があるが,外科的な適応になることは少ない。一方,男性の乳腺疾患として外来で遭遇する機会が多いものは女性化乳房症であり,乳腺外来を受診する男性のほとんどを占める. 乳腺の増殖性病変では, 乳腺の上皮增殖を促進する働きを持つエストロゲンが様々な局面で関与している. 末梢組織では血中の不活型ホルモンがエストロゲン合成酵素の働きで活性型エストロゲンに変換される一方, エストロゲン代謝酵素により不活化されエストロゲン環境が調整されている。正常乳腺上皮では合成酵素の発現が低く代謝酵素が高発現しており血中からの過剩なエストロゲン刺激を防御している.これに対して, 乳がん組織では合成酵素が高発現することでエストロゲンが産生され, 閉経後や男性乳がんにおいてもエストロゲン依存性に乳がんが増殖し得る状況がある。乳腺の良性増殖性病変では代謝酵素の低下により正常乳腺組織より高エストロゲン環境になっていることが報告されている5). 1) 乳がん 女性の乳がん罹患率は近年一貫して増加傾向を示しており,2014 年の国立がん研究センターがん対策情報センターの統計では, 罹患率は 116.5 人/ 10 万人で, 罹患者数は年間 76,257 人と報告されている3). 日本乳癌学会の全国乳がん患者登録調査報告書(2015 年次症例) では, 罹患者数のピークは $65 \sim 69$ 歳と 45~49 歳にあり, 年齢の平均値は 59.8 歳であることが示されている4). これに対して, 男性乳がんの好発年齢は 60 歳代後半で女性より $5 \sim 10$ 歳程度高い年齢層に発症することが知られている. 診断にあたっては,女性の乳がんでは,線維腺腫や乳腺症, 乳管内乳頭腫などの良性疾患との鑑別, Rate per 100,000 population Source: Center for Cancer Control and Information Services, National Cancer Center, Japan Figure 1 Site-specific Cancer Incidence Rate (modified from reference 3). 男性の乳がんでは女性化乳房症との鑑別が必要となるが, がんの画像所見には, 性差による特別な違いは認めない. 治療の基本は手術であり,女性では,乳房切除術のほか, 乳房温存術や, 乳頭あるいは皮膚温存乳腺全摘術などの術式がある。近年は乳房再建の頻度も増加している。一方, 男性の乳がんは乳頭・乳輪部から発症するため乳房切除術が行われる. 術後の放射線療法では性差による違いはなく, 男性乳がんにおいても女性乳がんに準じて施行される。薬物治療には内分泌療法, 化学療法, 分子標的治療などがある. 乳がんのうち, 6〜7 割はホルモン感受性であり術後の補助療法や進行・再発乳がんに対する治療として内分泌療法が有効な治療法となる。男性乳がんは,女性乳がんよりホルモン依存性が高くエストロゲンレセプター・プロゲステロンレセプター (ER・ $\operatorname{PgR})$ の陽性率は $80 \%$ と報告されており ${ }^{6}$, 術後の内分泌療法では夕モキシフェンの投与が第 1 選択となる. アロマターゼ阻害剂の投与は夕モキシフェンの投与が困難な場合を除き基本的には勧められない.化学療法や分子標的治療 [抗七ト表皮成長因子受容体 2 型 (Human Epidermal Growth Factor Receptor type 2 : HER 2) 療法了についてはエビデンスに乏しいが女性の乳がんに準じて行うことが勧められるワ. Table 1 Medicines That Cause Gynecomastia. 女性では,薬剤の種類や施行時の年齢によりリスクは異なるが化学療法によって卵巣機能不全を来し閉経状態となり妊孕性を消失させる可能性がある。これに対して化学療法中に黄体形成ホルモン放出ホルモン (luteinizing hormone-releasing hormone: LHRH)アゴニストを併用して卵巣機能を保護する試みが行われているが,妊孕性維持のエビデンスは乏しく推奨されていない。対策として, 妊娠率, 生児獲得率に差はあるものの, 受精卵凍結保存, 融解胚移植, 未受精卵凍結保存, 卵巣組織の凍結保存などが選択肢となる99. 乳がんに対して適切な治療がなされていれば,治療後の妊娠は予後に影響しないと報告されている ${ }^{10}$. 乳がんの発症リスクとして,アルコール摂取や成人期の高身長, 高線量の被爆, 乳がんの家族歴, 出産経験のないこと, 初産年齢が高いこと, 肥満(閉経後), 増殖性良性乳腺病変, ホルモン補充療法 (エストロゲン+黄体ホルモン併用療法の長期施行)などは確実な因子と評価されている ${ }^{11}$ 。また, 喫煙, 糖尿病の既往, 早い初経年齢, 遅い閉経年齢などもほぼ確実なリスク因子とされている。一方,授乳や初産年齢が低いこと,運動(閉経後)はリスク減少因子であることが確実〜ほぼ確実である。その他,乳がんのリスク因子として遺伝子変異があげられる。 このうち $\mathrm{BRCA} 1 / 2$ 遺伝子変異が遺伝性乳がんの大部分を占めており,全乳がんにおける breast cancer susceptibility gene1/2 変異乳がんの頻度は 5 10\% である。 BRCA1/2 遺伝子変異陽性者における乳が几の生涯発症確率は $50 \sim 85 \%$ と高い ${ }^{12}$. 男性の BRCA1 変異陽性者についてみると乳がん生涯発症率は 1 2\%, BRCA2 変異陽性者では $5 \sim 10 \%$ であり,男性乳がんにおいても BRCA1/2 との関連が示 されており, 特に BRCA2 との関連性が高いことが報告されている ${ }^{13) ~ 16) . ~ N a t i o n a l ~ C o m p r e h e n s i v e ~ C a n-~}$ cer Network (NCCN) のガイドライン ${ }^{17}$ では, 遺伝性乳がんの可能性を考慮すべき状況として, 男性乳がんが項目として挙げられており,外来診療に際して留意する必要がある。 2)女性化乳房症 男性の一側または両側の乳房が肥大するもので,乳輪下の乳腺が円盤〜腫瘤状に肥大し軽度の疼痛を伴う. 組織学的には乳管の拡張と乳管周囲の間質結合織の浮腫状の増殖とがみられる。一般に小葉構造はみられず,乳管上皮はしばしば過形成性の増殖を示す ${ }^{5}$. 各年齢層にみられるが思春期と高齢期にやや多く, 原因としては, 内分泌平衡異常, 特にエストロゲン過剩によると考えられている。 男性では,男性ホルモンであるテストステロンのほとんどは精巣で作られており,思春期ごろから増加し 20 歳前後でピークとなり, 30 歳以降は徐々に減少するが,このテストステロンを原料に男性でもエストロゲンが作られており,これらのホルモンのバランスの変化が女性化乳房症の原因となる。新生监期では,母親から胎盤を通して運ばれたエストロゲンの影響で一時的にエストロゲンが増加するため女性化乳房をみとめるが,通常数週間以内で軽快する. 思春期には,テストステロンが増加するがこれに伴い,テストステロンを原料とするエストロゲンも増加するため乳腺の発育が促進され女性化乳房を呈すると考えられる.高齢化に伴いテストステロンが減少してくると, エストロゲンが相対的に高くなり女性化乳房症の原因となる。 このような年齢の変化に伴うもののほか, 薬剂性のもの(Table 1), 他の疾患に伴うもの(Table 2) Table 2 Diseases That Cause Gynecomastia. Cirrhosis Hypogonadism Klinefelter's syndrome Androgen insensitivity syndrome Congenital testiculae deficiency Testicular injury / Testitis Tumor Adrenal tumor, hCG-producing gastric cancer, hCG-producing lung cancer, hCG-producing kidney cancer, Pituitary tumor, Testicular tumor Hyperthyroidism Chronic renal failure hCG, human chorionic gonadotropin. などがある. 肥満により脂肪組織が蓄積して乳房が肥大したものは偽性女性化乳房症として, 本来, 真の女性化乳房症(真性女性化乳房症)とは区別されるが,実際には,肥満では脂肪組織内に存在するアロマターゼによってテストステロンからエストロゲンへの合成が促進されるため真の女性化乳房症とも関連している。 女性化乳房症の診断においては,乳がんとの鑑別が重要となる,超音波検査では,乳頭直下に扁平で楕円形の低エコー像を示すものが多く,女性の正常乳腺様の像を呈するものもある. マンモグラフィでは明らかな腫瘤の形成はなく, 乳腺除影の増強として捉えられることが多い. 女性化乳房症の原因として薬剤性のものや他の疾患に伴うものが疑われる場合は, 必要に応じて薬剤の一時中止や変更, 疾患の精査を行うが,疼痛が高度の場合を除き,原則的には治療の必要はなく経過観察を行う,疼痛が強い時には非ステロイド系消炎鎮痛薬を使用する.薬剤が無効の場合や患者の希望がある場合は外科的に乳腺切除を行う。 ## おわりに 乳腺外科領域における性差について, 乳腺の発達や構造, 乳腺に起こる生理的な変化の違いや, 疾患の特徵にはホルモン環境が大きく関わっていることを述べた,乳がんは女性のがん罹患率の第 1 位を占め乳腺外科領域で最も重要な疾患であり, 日進月歩で各方面からの研究が進められている。男性乳がんにおけるエビデンスの確立も重要と思われる。乳腺外科領域における性差医療の視点からの今後の一層の成果が期待される。 開示すべき利益相反状態はない. ## 文 献 1)天野惠子:性差医療一男性の健康寿命はなぜ短い.学士会会報 $885: 101-112,2010$ 2) 堀井理絵, 秋山太, 坂元吾偉: 病理医のための組織学の基礎乳腺. 病理と臨 21(11):1261-1267, 2003 3)国立がん研究センターがん対策情報センター:最新がん統計. 2014 . https://ganjoho.jp/reg_stat/ statistics/stat/summary.html (Accessed December 25,2018 ) 4)日本乳癌学会: 全国乳がん患者登録調查報告一確定版一2015年次症例. http://jbcs.gr.jp/member (Accessed December 25, 2018) 5) Sasaki Y, Miki Y, Hirakawa $H$ et al: Immunolocalization of estrogen-producing and metabolizing enzymes in benign breast disease: comparison with normal breast and breast carcinoma. Cancer Sci 101 (10): 2286-2292, 2010 6) 坂元吾偉: 「乳腺腫瘍病理アトラス(改訂第 2 版) 」,篠原出版,東京(1995) 7) Korde LA, Zujewski JA, Kamin L et al: Multidisciplinary meeting on male breast cancer: summary and research recommendations. J Clin Oncol 28 (12): 2114-2122, 2010 8) Moore HC, Unger JM, Phillips KA et al: Goserelin for ovarian protection during breast-cancer adjuvant chemotherapy. N Engl J Med 372 (10): 923-932, 2015 9)北野敦子, 清水千佳子: 若年乳癌患者におけるサバイバーシップの問題とその支援. 乳癌の臨 29 (5) : 469-480, 2014 10) Azim HA Jr, Santoro L, Pavlidis $N$ et al: Safety of pregnancy following breast cancer diagnosis: a meta-analysis of 14 studies. Eur J Cancer 47 (1): 7483, 2011 11)山内英子: 第 1 章乳癌の基礎知識 5 . 疫学. 「乳腺腫瘍学 (第 2 版) 」(日本乳癌学会編), pp59-65, 金原出版, 東京 (2016) 12)明石定子:第 4 章医療の質 4. 医療相談(遺伝カウンセリング).「乳腺腫瘍学 (第 2 版)」(日本乳癌学会編), pp358-360, 金原出版, 東京 (2016) 13) Brose MS, Rebbeck TR, Calzone KA et al: Cancer risk estimates for BRCA1 mutation carriers identified in a risk evaluation program. J Natl Cancer Inst 94 (18): 1365-1372, 2002 14) Risch HA, McLaughlin JR, Cole DE et al: Population BRCA1 and BRCA2 mutation frequencies and cancer penetrances: a kin-cohort study in Ontario, Canada. J Natl Cancer Inst 98 (23): 1694-1706, 2006 15) Tai YC, Domchek S, Parmigiani G et al: Breast cancer risk among male BRCA1 and BRCA2 mutation carriers. J Natl Cancer Inst 99 (23): 1811-1814, 2007 16) Evans DG, Susnerwala I, Dawson J et al: Risk of breast cancer in male BRCA 2 carriers. J Med Genet 47 (10): 710-711, 2010 17) National Comprehensive Cancer Network: Genetic/Familial High-Risk Assessment: Breast and Ovarian. In NCCN Clinical Practice Guidelines in Oncology. https://www.nccn.org/professionals/ physician_gls/default.aspx (Accessed December 25, 2018) 性差医療 & $89(6)$ \\
tokyojoshii
cc-by-4.0
Tokyo Women's Medical University
-
# 平成 30 年度東京女子医科大学医学部 - 基礎系教室研究発表会 日 時:2018年 12 月 22 日(土) $9: 30 \sim 12: 30$ 場 所:東京女子医科大学弥生記念講堂地下 $\mathrm{A}$ 会議室 主 催:基礎医学系教授会 } 1. Cell Sorter MoFloを用いた微量細胞画分の解析と分取 2. 海馬体と嗅内野を繋ぐ線維連絡の解析 3. 各代謝疾患モデル(心血管・肝・腎)における EPA 投与の効果とそのメカニズム (病理学 (実験病理学分野)) 廣瀬織江 (生理学 (神経生理学分野)) 尾崎弘展 4. 大脳皮質一次体性感觉野における痛觉情報処理領域 5. 中間周波電磁界の発生源である IH クッキングヒーターの普及と出産アウトカムに関する生態学的研究 (衛生学公衆衛生学) 佐藤康仁 6. 法医学における変性試料の DNA 解析 (法医学) 町田光世 7. 母語獲得過程を考慮した教授法開発にむけて:WH 疑問文誤用例の通言語的比較研究(英語)遠藤美香 8. シミュレーションおよびICT を活用した臨床技能教育プログラムの取り組み (医学教育学) 山内かづ代 ## 1. Cell Sorter MoFlo を用いた微量細胞画分の解析と分取 $ \text { (薬理学) 三島大志 } $ 近年の技術革新により, 複数のレーザーや検出器を搭載したフローサイトメーターが開発され,これまでの形態学から飛躍的に進展してきた。 またフローサイトメー ターのデジタル化により,高感度かつ定性・定量的な測定が迅速に行えるため, 臨床や研究の現場と活用範囲は広い。一方,測定には煩雑な操作ステップを経るため,施設間の解析データのバラツキが示唆されている。そのためデータの取扱は十分な配慮が必要であり,再現性・信頼性の高いデータを得るためには,適切なコントロー ルや蛍光の漏れ込み補正(コンペンセーション)が必要である。 当研究室では担がんモデルを用いた転移前微小環境の形成に関する研究を行っている。本発表では, 担がんマウスの肝藏と転移前肺との間の細胞輸送の動態解析を行うために,KikGR マウスを用いた in vivo 細胞追跡システムの研究について報告する. KikGR は紫色光を照射すると緑色から赤色に光変換する蛍光タンパク質である.我々は, 担がん KikGR マウスの肝臟に紫色光を照射することで細胞を標識し, 72 時間後の肺を解析した. 肝藏から肺に移動する微量細胞画分を分取した結果, その細胞集団は抗転移能があり, 転移性の腫瘍細胞を死滅させることができた. これらの研究にはフローサイトメーターは必須だが,試料中にごく僅かしか存在しない細胞集団の解析・分取には困難が伴うため,注意すべきポイントを紹介する。 ## 2. 海馬体と嗅内野を繫ぐ線維連絡の解析 (解剖学) 本多祥子 海馬体と嗅内野はいずれも記憶形成回路の基本構成要素をなす重要な脳領域である。近年これらの領域に空間記憶や脳内ナビゲーションに関わる様々な位置情報細胞の存在が知られ注目を集めているが,その間を繋ぐ詳細な線維連絡については未解明な部分が多い。私共はこれまで, 主にラット海馬体一海馬周辺皮質領域間の線維連絡を解剖学的な手法で解析してきた。 その結果, 海馬体への主要な情報入力源である嗅内野浅層には,嗅脳溝にほぼ平行な帯状ユニット構造が存在することを見出した.即ち嗅内野浅層において海馬体 CA1 や海馬台の局所へ投射する細胞群はほぼ同じ長軸と幅の帯状に配列し,また海馬体を巡った情報を再び嗅内野へ戻す経路の中継点である前海馬台についても,局所からの投射終末が嗅内野浅層で帯状に分布していた。この嗅内野へ投射する単一前海馬台ニューロンの軸索分岐形態を調べたところ,終末分岐が嗅内野浅層内で plexus を形成し, 前述の帯とほぼ同じ範囲に終末するものがあることが分かった。嗅内野の帯状ユニット構造はウサギにも見られたことから, 動物種を超えて保存された基盤的構造であると推測 される. さらに普遍的な記憶回路の解明を目指して霊長類マーモセットの解析を行ったところ,ラットとウサギに共通する主要線維連絡の他,ラットに見られずウサギで顕著に認められる線維連絡 (CA1-前海馬台直接投射など)が確認された。 ## 3. 各代謝疾患モデル (心血管・肝・腎)における EPA 投与の効果とそのメカニズム (病理学 (実験病理学分野)) 廣瀬織江・明石慶子・吉澤佐恵子・宇都健太・種田積子・小田秀明 近年, 我が国では, 糖尿病, 動脈硬化, 肥満等の生活習慣病の増加が社会問題として注目されている. 食生活においては, 動物性脂肪分や塩分・カロリーの過剩摂取の他, 魚等に含まれる $\omega 3$ 系不飽和脂肪酸の摂取量の低下がその要因と考えられている. $\omega 3$ 系不飽和脂肪酸の一つであるエイコサペンタエン酸 (EPA) は, 血小板凝集抑制作用, 血液中の脂質低下作用, 動脈硬化性プラークの抑制作用, 抗酸化作用, 抗炎症作用等の様々な作用が知られている。しかし, その詳細なメカニズムに関しては不明な点も多い,今回我々は,生活習慣病に関連するいくつかの動物疾患モデルを作製し, EPAによる疾患抑制効果の検討を行った。 ワーファリン投与による動脈石灰化ラットモデルでは,EPAを投与することで,骨代謝マーカーの発現や MMP-9を伴うマクロファージ浸潤を抑制し, 動脈中膜石灰化を抑制させた。 ストレプトゾトシン腹脽内投与で惹起された糖尿病尿細管傷害マウスモデルでは, EPAを投与することで, 酸化ストレスやミトコンドリア型アポトーシスを減少させ, 尿細管傷害やアルブミン尿を改善させた. 肝細胞癌 (HCC) の誘発化学物質である Diethylnitrosamin 腹腔内投与により HCC を発症させた後に高脂肪食を掑取させて肥满を引き起こした肥满関連肝細胞癌マウスモデルでは, EPAを与えることで, 細胞増殖㧍よび STAT3 活性を阻害し,HCC のサイズの縮小を認めた。 EPA の潜在的効果を検証し, 病態解明を行うことで,今後の新たな治療戦略につながる可能性がある. ## 4. 大脳皮質一次体性感覚野における痛覚情報処理領域 (生理学 (神経生理学分野)) 尾崎弘展.植田禎史・宮田麻理子 大脳皮質一次体性感觉野(S1)では触覚情報のみならず痛覚情報も処理されていると考えられているが, S1 内で痛覚と触覚が分かれて処理されているのか, それとも同一領域で処理されているのか明らかではない. そこで我々は, げっ歯類マウスを用いて, 痛覚情報が S1 内でどのように表現されているのかを調べた. まず, ヒゲ感覚神経の結紮により神経因性疼痛モデルを作成し,S1の活動領域を内因性シグナルイメージングにより可視化した. その結果, ヒゲ感覚領域 (バレル野) の活動は低下する一方で隣接する dysgranular 領域が活性化していた. また, カプサイシンをヒゲパッドに注入し,神経活動マーカー (c-Fos)の発現が上昇した神経細胞の分布を計測したところ,やはりdysgranular 領域で増加しており,この領域が疼痛刺激に対して応答していることが確認された。さらに, 痛覚刺激に応答する細胞の分布を電気生理学的に検証するため, 熱刺激と触刺激を組合せ, dysgranular 領域とバレル野から多チャンネル細胞外電位記録を同時に行った. その結果, 痛覚応答細胞は dysgranular 領域に多く分布し, 触觉応答細胞はバレル野に多く分布していた。 以上の結果から, S1 における痛覚情報処理は dysgranular 領域で行われていると考えられる。 ## 5. 中間周波電磁界の発生源であるIHクッキングヒー ターの普及と出産アウトカムに関する生態学的研究 (衛生学公衆衛生学) 佐藤康仁 . 竹原祥子・ 小島原典子 〔緒言〕家庭における中間周波電磁界の発生源として, Induction Heating ( $\mathrm{IH})$ クッキングヒーターがある. 本研究は, IHクッキングヒーターの普及と出産アウトカムとの間に関連があるかどうかを, 都道府県レベルの生態学的研究デザインによって明らかにする. 【対象と方法】 IHクッキングヒーター普及率は, 全国消費実態調査の結果を用いた,出産アウトカムは,人口動態統計から自然死産率, 妊娠満 22 週以降の死産率, 周産期死亡率, 出生時体重 $2500 \mathrm{~g}$ 未満の割合を用いた。交絡因子には,女性喫煙率および 35 歳以上の出産の割合を用いた. 分析は,重回帰モデルを用いて行った。〔結果〕2009年と2014 年の横断データでは, IH クッキングヒーター普及率は, 出生時体重 $2500 \mathrm{~g}$ 未満の割合との間に統計学的に有意な負の関連が観察された $(\mathrm{p}=0.041, \mathrm{p}=0.006) .2009$ 年から 2014 年の変化量データでは, IH クッキングヒーター 普及率は, 妊娠满 22 週以降の死産率との間に統計学的に有意な正の関連が観察された $(\mathrm{p}=0.044)$ 。考察〕本研究より, アウトカムに娃娠満 22 週以後の死産率を用いたモデルにおいて有意な正の関連が示された。しかしながら,この結果が直ちにリスクを示しているとは考えにくい.【結論】今後は他のデザインの疫学研究を実施することで,本研究により観察された関連が真実であるのかを検討する必要がある。 ## 6. 法医学における变性試料の DNA 解析 (法医学) 町田光世・木林和彦 法医学における個人識別では主に short tandem repeat (STR) 解析が用いられている. 環境への曝露などでDNA が変性した場合にSTR 解析は困難となることがあるが,変性 DNA の解析に適した方法は確立していない。今回は,DNA 試料が変性した後においても解析可能なSNPsのの同定と変性試料のSTR解析に対する全ゲノム増幅の有効性について報告する。 変性 DNA で解析可能な single nucleotide polymorphisms(SNPs)を特定するため, amplified fragment length polymorphism (AFLP) 法により SNPs 解析を行った. 次に,変性 DNA の STR 解析に対する全ゲノム増幅法の有効性を検討するため, 変性 DNA0. $5 \mathrm{ng}$ と $5 \mathrm{ng}$ について全ゲノム増幅した後,STR解析を行った。 AFLP 解析の結果,変性・未変性試料に共通に見られるバンドから抽出した DNA の塩基配列中には SNPs17 個が存在した。そのうちマイナー対立遺伝子頻度 0.01 以上の SNPs はrs144344421であり,DNA が変性した場合においても,個人識別に利用できる可能性があると考えられた. 次に, 全ゲノム増幅前後の STR 解析の結果では,変性時間が長くなると,DNA5 ng を用いて全ゲノ么増幅した時の STR 検出数が DNA0.5ng を用いて全ゲノム増幅した時や全ゲノム増幅を行わない時の STR 検出数よりも多い傾向がみられた.以上の結果から,変性試料の DNA 解析では,(1)SNPsを用いる,(2)STR を用いる場合は, DNA5 ng で全ゲノム増幅を行うことによって解析成功率の上昇につながると考えられた。 ## 7. 母語獲得過程を考慮した教授法開発にむけて: WH 疑問文誤用例の通言語的比較研究 (英語) 遠藤美香 生成文法理論の原理とパラメターのアプローチでは,自然言語間での共通性をとらえた「原理」と,言語の多様性をとらえた「パラメター」によって,「刺激の貧困」 の問題にもかかわらず言語獲得が可能であることに,説明の枠組みを与えてきた.「母語として獲得される言語知識 (L1) と学習によって得られる言語知識 (L2) の違いは何か?」という大きな問いにこたえるべく, その基礎研究の手始めとして, 本発表では, 英語を母語として獲得中の子どもの産出する WH 疑問文,および英語を目標言語とする学習者の産出する WH 疑問文を分析対象とする。特に,目標言語からの逸脱形,誤用例を取り上げ比較する,その際,英語学習者の母語に注目し,日本語に加え, 中国語・ドイツ語等, 通言語的比較検討を行う.母語獲得においては, その過程で目標言語から逸脱した形式を生成する状態が生じたとしても,「否定証拠」といった明示的な教示なしに, 当該言語の最終状態に到達できる。一方,言語学習では,目標言語からみて逸脱した形式が産出される場合は,それを訂正するための教示 が可能である,その教示を行う際,学習者がより効率的に訂正が行えるよう,どのような要因が誤用産出にかかわっているのかを母語獲得との比較において検証し, 明らかにしようとすることが,本研究のめざすところである. 具体的には, パラメターの值設定に起因するものと,英語特有の規則性に起因する産出例を分けて論じた。 ## 8. シミュレーションおよびICTを活用した臨床技能教育プログラムの取り組み ('医学教育学, ${ }^{2}$ 整形外科, ${ }^{3}$ 化学) 山内かづ代 ${ }^{1}$.萩原洋子 ${ }^{2}$. 岩倉菜穂子 ${ }^{2}$.佐藤梓 $^{3} \cdot$ 久保沙織 1 長田義憲 ${ }^{2}$.岡崎賢 $^{2} \cdot$ 大久保由美子 ${ }^{1}$ 〔緒言〕超高齢社会を迎之, 外来傷病分類別で筋骨格系疾患は循環器系と並び第 2 位を占める. 四肢春柱の適切な身体診察および臨床推論に基づく診断能力の高い医師の育成が求められ, 卒前卒後を通じ, 診察技能教育は重要な課題である. 本研究の目的は, 医学部整形外科臨床実習における初診患者診察シミュレーション教育の介入が,四肢脊柱の診察技能を向上させるか否かを検証することである.〔対象と方法】対象は整形外科臨床実習を行った医学部 5 年生のうち, 外来診療に参加した 90 名である。方略 1)外来実習前日に症例を基盤とした学生同士のアドリブロールプレイによる整形外科初喰患者䏅シミュレーションを実施, 指導医による個別フィードバックを行った. 方略2) 整形外科外来において, 学生が初診患者の診察を実施,指導医が患者診察能力を簡易版臨床能力評価法 (mini-Clinical Evaluation Exercise : Mini-CEX)で評価し個別フィードバックを行った. 評価方法)方略 2 の前に方略 1 の初診シミュレーションを行つた群を介入群 $(\mathrm{N}=64)$, スケジュール等の理由で方略 1 を行わなかった群を非介入群( $\mathrm{N}=26)$ として Mini-CEX スコア (医療面接, 身体診察, コミュニケーション, 臨床推論, プロフェッショナリズム, マネージメント, 総合臨床能力)を比較した。〔結果〕両群間に症例内容, 難易度打よび Mini-CEX の経験回数に差はなかった. MiniCEXスコアのうち身体診察, 臨床推論, 総合臨床能力において介入群が有意に高値を示した $(\mathrm{p}<0.05)$ 。〔考察〕臨床実習の場で実践的なシミュレーションとフィードバックを組み合わせたプログラムを構築・実践したことで四肢春柱臨床技能を, 超短期的, 平均的には向上させた.しかし獲得能力に個人のばらつきがあり,標準的に臨床技能を獲得・定着できているとは言い難い.学修者個人の認知負荷の不足が一因の可能性があり, 今後獲得能力の質評価, 中長期的評価およびプログラムの質的改善を要する。
tokyojoshii
cc-by-4.0
Tokyo Women's Medical University
-
# 性差医療 ## (2)呼吸器疾患の性差 \author{ 東京女子医科大学医学部呼吸器内科学講座 \\ 東京女子医科大学女性科(内科) \\ 近籍光光寻 } (受理 2019 年 3 月 8 日) Gender Medicine (2) Gender Differences in Respiratory Diseases \author{ Mitsuko Kondo \\ Department of Respiratory Medicine, School of Medicine, Tokyo Women's Medical University, Tokyo, Japan \\ Department of Women's Health (Internal Medicine), Tokyo Women's Medical University, Tokyo, Japan } Several women have been reported to have chronic respiratory disease. Symptoms such as cough and dyspnea markedly reduce the quality of life, and female patients tend to have mental stress. It is important to understand gender differences in respiratory diseases from the viewpoint of anatomical and physiological differences as well as psychosocial differences. Severe asthma, including phenotypes such as aspirin-intolerant asthma and obesity-related asthma, is reported to be more common in women. New therapeutic options such as biologics and bronchial thermoplasty are available. Chronic obstructive pulmonary disease (COPD) in women tends to be worse because of higher smoking susceptibility. Non-emphysematous type of COPD is common, and appropriate inhalation therapy is required. Among women with interstitial pneumonia, nonspecific interstitial pneumonia caused by collagen disease is common, and corticosteroid and immunosuppressant therapy should be considered. In addition, non-smoker's lung cancer and adenocarcinoma positive for EGFR gene mutation are common among women. Because molecular targeted drugs are effective, precise diagnosis is needed at the gene level. The incidence of pulmonary non-tuberculous mycobacteriosis with nodular bronchiectasis has been increasing in middleaged and elderly women, but treatment options are limited. Pulmonary lymphangiomyomatosis and catamenial pneumothorax are rare diseases that occur only in women. Recently, rapid advancement has been noted in the treatment of respiratory diseases. The perspective of gender difference is associated with personalized medicine and paves a new path for respiratory medicine. Key Words: gender difference, women, respiratory diseases, severe asthma  Figure 1 Number of asthma death classified by age and sex (2016). M, male; F, female. Modified from reference 2, p 31. ## はじめに 呼吸器疾患は喫煙歴,粉塵曝露の多い職歴が男性に多いことから肺癌をはじめとして男性に多い領域と考えられがちである。しかし,気管支喘息では重症喘息は女性に多く,また慢性閉塞性肺疾患 (chronic obstructive pulmonary disease : COPD)では契煙感受性が女性に高く重症化しゃすく,さらに非結核性抗酸菌症は中高年女性に最近著しく増加しているなど,慢性呼吸器疾患診療における女性患者の占める割合は多くなっている,女性は,妊娠・出産・育児など多くのライフイベントを抱えている上に,最近は生涯仕事を持ち続ける女性が増加しており,これまで以上に心身ともにストレスを受けている。また人口の高齢化により,高齢女性は今後も増え続ける。呼吸器疾患は咳嗽や呼吸困難など quality of life(QOL)を著しく低下させる症状が多く, 呼吸器疾患を抱えた女性患者の多くは不安や悩みを抱いている。したがって,立場を理解しやすい,女性医師による女性のための呼吸器内科診療の意義は大きいかもしれない。本稿では,呼吸器疾患の性差について紹介する。 ## 気管支喘息 気管支喘息の罹患率は小児期には男児に多く,思春期以後は女性優位となり,これは世界的にも共通である.厚生労働省の年齢毎の有病率は乳児期には 2.8 対 1 で男子に多く, 思春期以後は 1 対 1.5 と女性優位になる。その理由の一つとして喘息の特徴的な所見である気道過敏性は, 男児は思春期になると改善するのに対して,女性は気道過敏性が充進したま まであると報告されている1). 現在,吸入ステロイド (ICS)を中心とする治療の進歩により,年々喘息死の頻度は減っており,この 20 年間で 6,000 人以上から 2016 年には 1,454 人までに減少している. 性差の面では喘息死はこれまでやや男性に多かったが,その差は縮小化し, 高齢者の増加に伴い女性が増加し $(\text { Figure 1 ) })^{2)}, 2016$ 年の死亡率は人口 10 万人対男性 0.9 人,女性 1.4 人となっている. 多くの喘息はコントロールが容易になっているが,重症喘息は現在も大きな課題となっている. 特に ENFUMOSA (European Network For Understanding Mechanisms Of Severe Asthma)研究では重症喘息の頻度は $4.4: 1$ と女性に多いと報告されだ3․これまで重症喘息に対するアプローチとしてフェノタイプ分類が試みられてきた (Figure 2 $)^{4)}$. そのなかに, 成人発症好酸球性喘息で,好酸球性副鼻腔炎や鼻ポリープを合併し, 2 型炎症 (従来の $\mathrm{T}_{\mathrm{H}} 2$ 型) を特徴とするフェノタイプがある.このなかにシクロキシゲナーゼ 1 (COX-1)阻害薬で重症喘息発作が誘発されるアスピリン喘息 (aspirin-intolerant asthma:AIA,別名 aspirinexacerbated respiratory disease: AERD)が存在し,女性に多い特徴がある) (Figure 3).他に女性が多いフェノタイプとして,成人発症で肥満が目立つ重症喘息があり,2 型炎症の関与は乏しい特徴がある(Figure 2). 最近, 抗 IgE 抗体, 抗 IL-5 抗体,抗 IL-5 受容体 $\alpha$ 鎖抗体などの生物学的製剤の登場により重症喘息の管理は以前より容易になってきている (Figure 4). しかし開発中も含め多くは 2 型炎症をターゲットにするものであり,肥満重症喘息など Figure 2 Asthma phenotypes. Asthma is classified as $\mathrm{T}_{\mathrm{H}} 2$ type (Type 2) and non- $\mathrm{T}_{\mathrm{H}} 2$ type (non-Type 2). Type 2 asthma is associated with $\mathrm{T}_{\mathrm{H}} 2$ cytokines (IL-4, IL-5, and IL-13). In women, aspirin-exacerbated respiratory disease (AERD), very late-onset asthma, and obesity-associated asthma are characteristic phenotypes. EIA, exercise-induced asthma. Modified from reference 4. Figure 3 Clinical characteristics of aspirin-intolerant asthma. There are three characteristic features that include hypersensitivity to aspirin/NSAIDs, chronic rhinosinusitis with nasal polyps, and bronchial asthma. Aspirin-intolerant asthma is predominant in women. の非 2 型炎症における有効な治療法は未だ確立していない。他には気管支鏡を用いた気管支熱形成術 (bronchial thermoplasty:BT) も登場し, 当科でも女性の難治性喘息での BT 有効例を経験している。喘息の重症度の変動は女性に多く, 男性は重症度と QOL の相関が良好であるのに比較して,女性は QOL が全体に低く, さらに重症度との相関が不良である。女性は月経,娃娠などによりホルモンバラン スの変化を受けやすい. 思春期以後に喘息が増悪し,閉経とともに改善する傾向があることや,ホルモン補充療法で悪化することもある。一般に, 月経時や月経前には喘息増悪が起こりやすい。一方,妊娠中の喘息は悪化,改善,不変のそれぞれ $1 / 3$ と言われている ${ }^{6}$. 治療面においては,妊娠中も良好な喘息のコントロールを目標とし, 催奇性を恐れるあまり治療が不十分にならないように, 吸入ステロイド薬 Figure 4 New therapeutic approaches to severe asthma. Modified from reference 2, p 107. (inhaled corticosteroid:ICS)を中心とする治療を継続することが重要である. 基礎研究の面からも喘息と性差は関心がもたれている. エストロゲンは $\operatorname{IgE}$ 抗体産生元進に関わること, エストロゲンとプロゲステロンは共に $\mathrm{T}_{\mathrm{H}} 2$ 産生細胞への増強作用があること, 樹状細胞への抗原提示作用が増強していること, 制御性 T 細胞への抑制作用が報告されている》. ロイコトリエン産生も女性に多く, アスピリン喘息では COX の G-765C の遺伝子多型が女性に多いことが報告されている8). 臨床の場では女性の喘息患者の方が,不定愁訴が多くコントロール不良になりやすい印象を受ける,患者の訴えを十分傾聴するとともに,アレルギー検査,呼気一酸化空素 $(\mathrm{NO})$ を含めた呼吸機能検查, 画像検査,問診票やピークフロー測定なども行って病型や病態評価をきちんと行うこと,また治療は吸入療法が中心となるため, 適正な薬剤の選択や吸入指導を行い,増悪時や発作時への対応についても指導しておくことが重要である. ## COPD COPD は喫煙と関連が深いため, 喫煙率の高い男性に多く, 本邦での疫学調査である NICE (Nippon COPD Epidemiology)study によれば,COPD の有病率は男性 $16.4 \%$ ,女性 5\% である。しかし,若年女性の喫煙率は増加傾向にあり, 今後も女性の COPD は増加していく可能性がある。また女性の COPD は契煙感受性が高く, 男性よりも重症化する傾向にある9). 多くの研究から喫煙量を補正した 1 秒量の低下率は男性よりも女性に大きいため COPDを発症しゃすく,入院する割合も女性に多い。その理由は明らかではないが, 肺の成長発育の差異として女性の気道系が肺容積に対して小さいこと, 気道過敏性の立進, 全身性炎症の関与, エストロゲンの欠乏が女性の喫煙者に多いことなどが推測されている Table 1 Causes of higher smoking susceptibility in female COPD. (Table 1)呼吸困難の程度も男性より女性に強く, QOL の低下, 抑うつや不安も多い特徴がある. さらに COPD は気腫型, 非気腫型に分類されるが,女性は非気腫型が多い傾向がある。すなわち,気道病変がより強く, 病理学的にも細気管支の肥厚が目立つとされる ${ }^{10)}$.また非喫煙者の COPD は女性に多い. これは夫が重喫煙者であった場合の副流煙の影響が大きいと考えられる。 治療面の効果においても性差がみられる。一般に禁煙の不成功率は女性の方が高く, COPD 女性における抑うつ傾向が一因とされる。またニコチンパッチによる禁煙の成功率はより不良であり,バレニクリンは男女差がないとされる. COPD では現在 longacting $\beta 2$ agonist (LABA) /long-acting muscarinic antagonist (LAMA)を中心とした長時間作用型気管支拡張療法が主体となっている.女性の COPD は気道病変が優位であることが多いことから, 吸入療法も期待できる. しかし定量噴霧式吸入器 (metered dose inhaler:MDI)による吸入療法の誤使用は女性に多いと報告されており,女性の COPD では吸入指導の強化が特に必要である. ## 間質性肺炎 間質性肺炎の原因や病型は多彩であることが特徵である。塵肺などの職業性疾患による間質性肺炎は男性に圧倒的に多く, 一方膠原病による間質性肺炎は女性に多い。特発性間質性肺炎のうち, 最も頻度の多い特発性肺線維症(idiopathic pulmonary fibrosis:IPF)は喫煙歴のある男性に多いのに比して, 非特異性間質性肺炎 (non-specific interstitial pneumonia:NSIP)は男女比に差はなく, また膠原病を背景とした二次性 NSIP は女性に多い ${ }^{11}$.したがって,女性のNSIPを診たときは膠原病や分類不能な膠原病 (undifferentiated connective tissue disease: UCTD), 肺野先行型の膠原病, 自己免疫の要素を有する間質性肺炎(interstitial pneumonia with autoimmune features:IPAF)である可能性を考慮する必要がある. NSIP では胸部高分解能 CT (high- Morbidity (per 100,000) Figure 5 Changes in pulmonary non-tuberculous mycobacteriosis (NTM) morbidity (1971-2014). Lung Tbc (+), smear positive for M. tuberculosis; Lung Tbc $(-)$, smear negative for $M$. tuberculosis. Reported by Japan Agency for Medical Research and Development (AMED) in 2016. Modified from reference 13. resolution CT:HRCT)では蜂巣肺はなく, スリガラス影,気管支血管束の肥厚が目立ち,時相も均一である特徴がある. NSIP は IPF と異なり, ステロイドや免疫抑制薬に反応する可能性が高く, 治療選択の上でも鑑別は重要である。 ## 肺癌 肺癌は過去の喫煙の増加により, 癌による死亡率の第 1 位となっている。肺癌と喫煙の因果関係はほぼ確立されている,女性は前述のように契煙感受性が高く,男性より少ない喫煙量で肺癌を発症する。 発がん性物質は主流煙よりも副流煙に多く,夫からの受動喫煙により非喫煙者の妻が肺癌に罹るリスクは約 30\% 高くなるという疫学的な報告がある ${ }^{12}$. 一方,契煙と関連しない肺癌は女性に多く,またその特徴として上皮成長因子受容体 (epithelial growth factor receptor:EGFR)遺伝子変異型がある腺癌で, アジア人に多い. EGFR 遺伝子変異への分子標的薬であるゲフィチニブ,エルロチニブによる治療が極めて有効で, その登場はその後の肺癌治療におけるパラダイムシフトをもたらした。最近ではさらに有効性と安全性が高く, T790M 変異陽性の EGFR 遺伝子変異陽性非小細胞肺癌にも効果があるオシメルチニブが初回から導入できる。またEGFR 遺伝子変異についで腺癌に打ける未分化リンパ腫キナーゼ (anaplastic lymphoma kinase: ALK) 融合遺伝子変異も明らかになった. ALK 陽性肺癌も若年発生, 非喫煙者, 女性に多いという傾向がある,ALK陽性肺癌はクリゾチニブ,アレクチニブといった分子標的薬が奏功し, EGFR 遺伝子変異とは一般的には排他的である,他方,喫煙肺癌は扁平上皮癌に代表され, 遺伝子変異の頻度や数が多い mutation burden が高い特徵があり,ニボルマブやペンブロリズマブといった program death 1 (PD1) をターゲットとした免疫チェックポイント阻害薬が有効であることが多い。逆に EGFR や ALK 遺伝子変異といったドライバー遺伝子変異に起因する肺癌は免疫チェックポイント阻害薬の効果が乏しい傾向にある. したがって,女性肺癌をみたとき夫や自身の契煙の影響も考慮しつつ, 組織型や病期とともに, 遺伝子変異のチェックや PD ligand 1 (PD-L1) 発現の程度を明らかにして precision medicine をめざすことが現在の肺癌治療の趨勢となっている. ## 肺非結核性抗酸菌症(肺 MAC 症を中心に) 肺非結核性抗酸菌症のうち, 肺 MAC (mycobacterium avium complex)症がその大多数を占め, 近年症例数が増加している $(\text { Figure 5 })^{13}$. 中年女性に多い特徴があり, 特に中葉舌区に小葉中心性の小結節の集簇を伴う結節性気管支拡張型 (nodular bronchiectasis type) が多く,その約 80\% は女性である. MAC は自然環境中の水や土壌中に存在し, 水道, 貯水槽などの給水システムに広く生息して,菌を含んた埃や水滴を吸入することで感染すると推測されている ${ }^{14)}$. 過去には陳旧性肺結核や塵肺など基礎疾患のある肺疾患の男性に多かったが, 現在は基礎疾患のない中年以後の女性に急増している。胸部 CT による検診などで発見されることも多く, 自覚症状がない場合も多い. 結核と異なり確実な治療法がなく, また経過も長いため長期的な視点での対応が必要となる。一般に罹患女性の特徴としてやせ型で神経質な傾向がある,死亡率は高くはないが,難治化すると血痰,発熱を繰り返し,るいそうが進行して亡くなる場合もある。本症は宿主因子の影響が大きいと想定され, 性差の観点からも全ゲノムの網羅的探索が試みられているが,現時点では研究段階である。治療薬はクラリスロマイシン, リファンピシン, エブトールを中心とする多剤併用療法が行われるが,薬剂量も多く副作用も考慮すると, その適応や投与時期,投与期間は症例によって個別に対応しているのが現状である。 $ \text { サルコイドーシス } $ サルコイドーシスは原因不明な全身性肉芽腫性肺疾患である。 その年齢分布は 2 峰性で, 第 1 のピー クが 23 34 歳,第 2 のピークが 60 歳代にある.男性は前者にピークがあるのに対して,女性は第 2 のピークが第 1 のピークの 2 倍程度となる。女性に多い症状として視力障害, ぶどう膜炎, 神経・筋症状,結節性紅斑, 高 $\gamma$ グロブリン血症があげられる. 男性では高 Ca 血症が多い傾向がある. サルコイドーシスの病因は現在も不明であるが,心理的ストレスの関与が注目されている. サルコイドーシスでは発症時や増悪時にストレススコアが高くなっていることが多い. ストレス反応は女性の方が強いことも本症の性差に関連している可能性がある。 ## 女性のみに発症する呼吸器疾患 女性のみに発症する代表的な呼吸器疾患には肺リンパ脈管筋腫症と月経随伴性気胸がある.いずれも稀少疾患であるが,女性の気胸を診たときは必ず鑑別診断としてあげなけれげならない。また娃娠や出産といった女性特有の問題にも関わるため,その対応には細心の注意が必要である。 ## 1. 肺リンパ脈管筋腫症 肺リンパ脈管筋腫症 (lymphangioleiomyomatosis:LAM)は TSC 遺伝子異常によって発症する疾患で, 結節性硬化症 (tuberous sclerosis complex : TSC)に伴う TSC-LAM と sporadic LAM がある. sporadic LAM は女性にのみに発症する特徴があるが,TSC-LAMにおいても圧倒的に女性に多い ${ }^{15)}$. TSC 遺伝子異常により形質転換した平滑筋様細胞 (LAM 細胞)が肺,体軸リンパ節(肺門,縦隔,後腹膜腔, 骨盤腔) で増殖し, 肺では多発性囊胞性病変を形成し,リンパ管新生を伴う.生殖可能年齢の女性に発症し, 労作時息切れ, 気胸, 血痰, また乳縻胸水や乳庣腹水を伴う,肺以外の病変として腎の血管筋脂肪腫を合併することもある。 LAM 細胞はエストロゲンレセプター, プロゲステロンレセプターが $53 \%, 68 \%$ と多く発現しており,女性ホルモンに依存している疾患で思春期以後,また妊娠を契機に悪化する.臨床的には閉塞性障害が進行し,また肺の囊胞が増加して気胸を反復するようになる。 LAM の予後は 15 年生存率が $76 \%$ と報告され, 初発時に労作時息切れの強い症例が予後不良である。 LAM では $\mathrm{TSC} 1$ または TSC2 遺伝子の変異により,两者による複合体の制御機能が消失し, $\mathrm{mTOR}$経路が恒常的に活性化され,増殖機能が元進している. 現在, LAM では mTOR 阻害薬であるシロリムス,またTSCではエべロリムスによる治療に適応が通っているが,進行例では肺移植の対象にもなっ ている. その他, luteinizing hormone-releasing hormone (LH-RH) やプロゲステロンによるホルモン療法や卵巣摘出術も試みられる。また対症療法として気管支拡張薬,気胸に対しては胸膜瘉着術なども行われるが,肺移植の対象者にならなくなる点は注意する. LAM は稀少疾患であるが, 若年生殖可能な女性の疾患であることから, その影響力は本人, 家族ともに大きく精神的なサポートも必要である. ## 2. 月経随伴性気胸 女性の自然気胸では月経随伴性気胸を疑う必要がある. 月経開始 24 時間前から開始後 72 時間以内に気胸が発症し, 9 割は右に発症し, 多くは横隔膜に子宮内膜症が確認される. 月経とともに気胸を反復する. 発症機序は横隔膜に異所性子宮内膜が小孔を生じ,ここから流入した子宮内膜が臓側胸膜に生着し,月経期の脱落により胸膜を破綻させると考えられている. 胸腔鏡を用いた手術療法が選択され,ブラの切除とともに, 横隔膜の小孔を切除, 縫合, また人工膜で閉鎖する。また偽閉経療法も行われる。 ## おわりに 呼吸器疾患は多様多彩であり, 気管支喘息や肺癌など近年著しい治療の進歩がみられている. 性差医療の視点は生物学的相違や社会的相違を配慮したきめの細かい,さらには個別化医療にも繋がる医療を目指すものである。したがって女性医師による女性患者の診療を特徵とする女性科は, 難治性疾患が多い呼吸器領域における新しい方向性を提供する場になると期待される. 開示すべき利益相反状態はない. ## 文 献 1) Tantisira KG, Colvin R, Tonascia J et al: Airway responsiveness in mild to moderate childhood asthma: sex influences on the natural history. Am J Respir Crit Care Med 178 (4): 325-331, 2008 2)「喘息予防・管理ガイドライン 2018」(一般社団法人日本アレルギー学会喘息ガイドライン専門部会監), 協和企画, 東京 (2018) 3) The ENFUMOSA cross-sectional European multicentre study of the clinical phenotype of chronic severe asthma. European Network for Understanding Mechanisms of Severe Asthma. Eur Respir J 22 (3): 470-477, 2003 4) Wenzel SE: Asthma phenotypes: the evolution from clinical to molecular approaches. Nat Med $\mathbf{1 8}$ (5): 716-725, 2012 5) Makowska J, Lewandowska-Polak A, Kowalski ML: Hypersensitivity to Aspirin and other NSAIDs: Diagnostic Approach in Patients with Chronic Rhinosinusitis. Curr Allergy Asthma Rep 15 (8): 47, 2015 6) Gluck JC, Gluck PA: The effect of pregnancy on the course of asthma. Immunol Allergy Clin North Am 26 (1): 63-80, 2006 7) Melgert BN, Ray A, Hylkema MN et al: Are there reasons why adult asthma is more common in females? Curr Allergy Asthma Rep 7 (2): 143-150, 2007 8) Szczeklik W, Sanak M, Szczeklik A: Functional effects and gender association of COX-2 gene polymorphism G-765C in bronchial asthma. J Allergy Clin Immunol 114 (2): 248-253, 2004 9) Prescott E, Bjerg AM, Andersen PK et al: Gender difference in smoking effects on lung function and risk of hospitalization for COPD: results from a Danish longitudinal population study. Eur Respir J 10 (4): 822-827, 1997 10) Martinez FJ, Curtis JL, Sciurba F et al: Sex differences in severe pulmonary emphysema. Am J Respir Crit Care Med 176 (3): 243-252, 2007 11) Demedts M, Wells AU, Anto JM et al: Interstitial lung diseases: an epidemiological overview. Eur Respir J Suppl 32: 2s-16s, 2001 12) Kurahashi N, Inoue M, Liu Y et al: Passive smoking and lung cancer in Japanese non-smoking women: a prospective study. Int J Cancer 122 (3): 653-657, 2008 13)日本医療研究開発機構:呼吸器感染症を引き起こす肺非結核性抗酸菌症の国内患者数が 7 年前より 2.6 倍に増加一肺結核に匹敵する罹患率一. 2016. https://www.keio.ac.jp/ja/press_release/2016/osa 3qr000001rly7-att/20160607_1.pdf (Accessed March $11,2019)$ 14) Griffith DE, Aksamit T, Brown-Elliott BA et al: An official ATS/IDSA statement: diagnosis, treatment, and prevention of nontuberculous mycobacterial diseases. Am J Respir Crit Care Med 175 (4): 367-416, 2007 15) Henske EP, McCormack FX: Lymphangioleiomyomatosis - a wolf in sheep's clothing. J Clin Invest 122 (11): 3807-3816, 2012 性差医療 & $89(6)$ \\
tokyojoshii
cc-by-4.0
Tokyo Women's Medical University
-
# ニボルマブ関連大腸炎に対してステロイドが有効であった転移性腎細胞癌の 1 例 '東京女子医科大学東医療センター卒後臨床研修センター ${ }^{2}$ 東京女子医科大学東医療センター泌尿器科 (受理 2019 年 3 月 8 日) ## A Successful Treatment Using Steroids for Nivolumab-Induced Colitis in a Patient with Metastatic Renal Cell Carcinoma \author{ Shotaro Kinoshita, ${ }^{1}$ Daisuke Toki, ${ }^{2}$ and Tsunenori Kondo ${ }^{2}$ \\ ${ }^{1}$ Postgraduate Clinical Training Center, Tokyo Women's Medical University Medical Center East, Tokyo, Japan \\ ${ }^{2}$ Department of Urology, Tokyo Women's Medical University Medical Center East, Tokyo, Japan } We report the case of a 71-year-old woman with nivolumab-induced colitis, which was successfully treated with corticosteroid treatment. She underwent left-sided nephrectomy for renal cell carcinoma in 1989 at 43 years of age. Sorafenib was initiated in 2015 owing to progression of lung and adrenal metastasis; however, it was discontinued in 2016 secondary to nausea. In March 2017, she was switched to nivolumab administered as a biweekly dose of $3.0 \mathrm{mg} / \mathrm{kg} /$ day to treat worsening lung and adrenal metastasis. A partial response was observed after the administration of 7 cycles of nivolumab. In August 2017, she developed vomiting, severe diarrhea, and high fever after the administration of 10 cycles of nivolumab, necessitating admission to our hospital on an emergency basis. Initially, we suspected both, infectious enteritis and nivolumab-induced colitis, and she received meropenem; however, her symptoms persisted. Computed tomography showed intestinal wall thickening compatible with nivolumab-induced colitis. Thus, we initiated intravenous methylprednisolone therapy at a dose of 2.5 $\mathrm{mg} / \mathrm{kg} /$ day. Her symptoms improved soon after the initiation of steroid, without any relapse. Nivolumab was discontinued based on the Immune-mediated Adverse Reactions Management Guide. Nivolumab-induced colitis may precipitate medical emergencies. Therefore, clinicians should be familiar with this condition and its appropriate management. Key Words: nivolumab-induced colitis, immune-related adverse event, renal cell carcinoma ## 緒言 免疫チェックポイント阻害剤であるニボルマブが,2016 年 8 月より腎細胞癌に対して保険適用となった. これまでの抗悪性腫瘍薬とは異なる作用機序の薬剤として注目を集めている一方,免疫関連特有の有害事象も報告されている,今回我々はステロイドが有効であったニボルマブ関連大腸炎の症例を経験したので報告する.  患者 : 71 歳女性. 主訴 : 発熱, 嘔吐, 下痢. 既往歴:1989 年 (43 歳時) に左腎癌に対し根治的左腎摘除術を施行し, 病理診断は淡明細胞癌であった. 2009 年に左肺転移を認め胸腔鏡下左肺部分切除術を, 2012 年に右副腎転移を認め腹腔鏡下右副腎部分切除術を, 2013 年に右肺転移を認め胸腔鏡下右肺部分切除術を施行した。 現病歴 : 2015 年 5 月より肺転移の増大に対しソラフェニブを開始し右副腎・右肺下葉いずれの標的病変も増大なく安定していたが, 嘔気が強くなり 2016 年 11 月に中止した. しかし, 副腎・肺転移増悪のため 2017 年 3 月より 2 週間毎にニボルマブ 3.0 $\mathrm{mg} / \mathrm{kg}$ の投与を開始した. また同時期に副腎不全によるコルチゾール低值, 低ナトリウム血症も出現しヒドロコルチゾンの投与も開始した。 ニボルマブ投与 7 コース終了後の CT (computed tomography) 所見では標的病変が右副腎で $46 \%$ 減少, 右肺下葉で $33 \%$ 縮小と部分奏功であった. 10 コース投与後 7 日目の 2017 年 8 月 7 日より発熱と 6 回/日程度の下痢がみられ入院となったが,絶食および補液により症状軽快し入院後 7 日目に退院となった. しかし退院翌日の 8 月 15 日より $39.7^{\circ} \mathrm{C}$ の発熱, 食後の嘔吐・1日 10 回以上の下痢が出現した. 受診時の収縮期血圧の $60 \mathrm{mmHg}$ 台に低下しショック状態であつたことから再入院となった. 現症 : 身長 $146 \mathrm{~cm}$, 体重 $46 \mathrm{~kg}$, 体温 $38.0^{\circ} \mathrm{C}$, 血圧 $68 / 40 \mathrm{mmHg}$, 脈拍 119 回/分, 腹部自発痛なし, 右下腹部に圧痛を認めるが反跳痛はなし,腸管蠕動音正常,皮膚蒼白,冷汗あり,毛細血管再充満時間遅延あり。 入院時検査所見:血算は WBC $31,300 / \mu \mathrm{l}, \mathrm{Hb} 10.2$ $\mathrm{g} / \mathrm{dl}$, Plt $31.2 \times 10^{4} / \mu \mathrm{l}$ と著明な白血球数増加を認めた. 生化学所見は Alb $2.5 \mathrm{~g} / \mathrm{dl}, \mathrm{CRP} 10.55 \mathrm{mg} / \mathrm{dl}, \mathrm{LD}$ $205 \mathrm{IU} / \mathrm{L}$, ALP $136 \mathrm{IU} / \mathrm{L}, \gamma$-GTP 19 IU/L, BUN 12.4 $\mathrm{mg} / \mathrm{dl}, \mathrm{Cr} 1.51 \mathrm{mg} / \mathrm{dl}, \mathrm{UA} 6.8 \mathrm{mg} / \mathrm{dl}, \mathrm{Na} 136 \mathrm{mEq} /$ L, K $3.4 \mathrm{mEq} / \mathrm{L}, \mathrm{Cl} 102 \mathrm{mEq} / \mathrm{L}$ と CRP の上昇を認めた。腹部レントゲン写真ではニボー像や腸管の異常拡張は認めなかった. 腹部 CT では上行結腸から $\mathrm{S}$ 状結腸にかけて腸管壁肥厚を認めた (Figure 1). 臨床経過(Figure 2) : 鑑別診断として感染性腸炎・ニボルマブ関連大腸炎・虚血性腸炎・炎症性腸疾患が考えられたが,腹部自発痛を認めないこと,過去に炎症性腸疾患の病歴がないことから虚血性腸 Figure 1 Abdominal CT. A thickening of intestinal wall was seen on CT scan. 炎や炎症性腸疾患は否定的であった。感染性腸炎。 ニボルマブ関連大腸炎双方の可能性を考え,血液培養,便培養,便中 Clostridium difficile(以下 $\mathrm{CD}$ ) 抗原検查, 便中 $\mathrm{CD}$ トキシン検査を提出し, 絶食輸液管理の上, メロペネム $2.0 \mathrm{~g} /$ 日で治療を開始した. 来院時はショック状態であったため, 一時的にカテコラミンも使用したが,入院 4 日目には血圧が正常化し中止した. 入院第 3 病日となっても発熱の持続, CRP の上昇があり,また下痢の改善もなかったこと, CT にてニボルマブ関連腸炎に特徴的な腸管壁肥厚を認めたことから有害事象共通用語規準(common terminology criteria for adverse events : CTCAE) Version 4.0 Grade 3 のニボルマブ関連大腸炎を疑い, 予定されていたニボルマブの投与を中止し, メチルプレドニゾロン $2.5 \mathrm{mg} / \mathrm{kg} /$ 日の静脈投与を開始した. メチルプレドニゾロン投与翌日から解熱がみられ, 2 日目には CRP の改善も認められた. 下痢はメチルプレドニゾロン投与 3 日目に消失した. 血液培養, 便培養, 便中 $\mathrm{CD}$ 抗原検査, 便中 $\mathrm{CD}$ トキシン検査がいずれも陰性であったことから感染性腸炎は否定的であると考え, 入院 5 日目にメロペネムの Figure 2 Clinical course during admission. MEPM, meropenem; M-PSL, methylprednisolone; CRP, C-reactive protein. 投与を中止した.メチルプレドニゾロンは症状の改善とともに減量し, 合計 14 日間の静脈投与後, 入院前より副腎不全に対し内服していたヒドロコルチゾンに戻し, 入院後 22 日目に軽快退院となった. 退院後外来にてステロイド投与を継続していたが,2017 年 11 月より,副腎転移が増大したためアキシチニブの投与を開始した. しかし 2018 年 6 月, 肺転移の増悪・膵転移による閉塞性黄疸・肝不全により永眠となった. ## 考 察 免疫チェックポイント阻害剤はこれまでの抗悪性腫瘍薬とは異なる作用機序の薬片として注目を集めている.ニボルマブは活性化 $\mathrm{T}$ 細胞上に発現している PD-1 と結合して, T 細胞の抑制シグナルをブロックすることで, $\mathrm{T}$ 細胞の活性化を維持し,抗腫瘍効果を示す。一方で $\mathrm{T}$ 細胞活性化作用による過度の免疫反応に起因すると考えられるニボルマブに特有の免疫関連有害事象が種々の臟器で発現する。特に下痢・大腸炎を主症状とするニボルマブ関連大腸炎は腎細胞癌のニボルマブ治療における $25 \%$ の症例で出現するとの報告もある ${ }^{11}$.ニボルマブ関連大腸炎の診断にあたっては, 感染性腸炎や他の炎症性腸疾患との鑑別が重要であり,それには CT, 下部内視鏡が有用である。CT 所見では腸管壁肥厚・腸間膜の浮腫を特徴とするが,ニボルマブ関連腸炎に特異的な所見ではない.下部消化管内視鏡では炎症性腸疾患と類似した粘膜の浮腫状変化・潰瘍形成などが認められるが,重症例では消化管穿孔などのリスクがあるため施行には慎重な判断を要する。本症例は抗生剤投与でも炎症反応が改善しなかったこと, 各種培養検査, $\mathrm{CD}$ トキシン検査が陰性であったことから感染性腸炎が否定的であり,ニボルマブ関連大腸炎の可能性を疑いステロイド投与を施行し,同治療が奏功したことから除外診断的にニボルマブ関連大腸炎と診断した。下部内視鏡検査は来院時ショック状態であったことから, 消化器内科との相談の上, リスクを考慮して施行しなかった。 治療については, CTCAE Version 4.0 Grade 3 以上の大腸炎については, $1.0 \sim 2.0 \mathrm{mg} / \mathrm{kg} /$ 日のメチルプレドニゾロン静注またはその等価量の副腎皮質ステロイド静注,ならびに抗生剤の予防投与が推奖されている2). 本症例では, 感染性腸炎とニボルマブ関連大腸炎双方の可能性を考慮して広域抗生剤にて初期治療を開始したが,感染性腸炎が否定された第 5 病日で抗生剤の投与を中止している。 ステロイドに関しては入院後比較的早期からメチルプレドニゾロン $2.5 \mathrm{mg} / \mathrm{kg} /$ 日で開始し, 症状の改善をみながら随時暫減した。なお, ステロイドによる治療が奏功しない場合には $5.0 \mathrm{mg} / \mathrm{kg} /$ 日のインフリキシマブが推奨されており ${ }^{2)}$, 国内でもその有効性が報告されている3).またニボルマブ関連大腸炎の Grade 3 以上は,大腸炎発症後のニボルマブ投与は原則禁忌であり本症例でもニボルマブの投与は中止した. ニボルマブ関連大腸炎に対する治療の遅れは副作用の重篤化を招く恐れがあり,診断・治療は迅速に行わなければならない.診断・治療方針の決定には他科との連携が重要であり, 本症例でも入院時より感染制御部, 消化器内科と連携することで早期の鑑 別診断,治療方針の決定を行うことができたと考えている. ## 結論 今回我々は,ニボルマブ関連大腸炎に対しステロイドが有効であった 1 例を経験した。ニボルマブ関連大腸炎は免疫関連副作用の中でも重篤化するリスクが高く,その管理に習熟しておく必要があると考えられた。 ## 謝 辞 本症例の治療にあたり,有益な教示を与えて頂いた当院感染制御部石川元直先生, 当院内科木村綾子先生に東心よりお礼申し上げます.本論文の要旨は第 357 回東京女子医科大学学会例会・第 12 回研修医症例報告会 (2018 年 2 月 24 日, 東京) において報告した。 開示すべき利益相反状態はない. $ \text { 文献 } $ 1) Motzer RJ, Escudier B, McDermott DF et al: Nivolumab versus Everolimus in Advanced RenalCell Carcinoma. N Engl J Med 373: 1803-1813, 2015 2)小野薬品工業株式会社:オプジーボ ${ }^{\mathbb{R}}$ 安全性・適正使用情報. https://www.opdivo.jp/contents/report/ (Accessed March 8, 2019) 3) Yanai S, Nakamura S, Matsumoto T: NivolumabInduced Colitis Treated by Infliximab. Clin Gastroenterol Hepatol 15 (4): e80-e81, 2017
tokyojoshii
cc-by-4.0
Tokyo Women's Medical University
-
# 第 84 回東京女子医科大学学会総会 シンポジウム「ここまで来た! 心臟血管外科治療の最前線」重症心不全の Futurability 〜骨格筋・筋芽細胞シートでリモデリングを治せるか?~ 大阪大学大学院・医学系研究科・心臟血管外科 澤芳樹 (受理 2018 年 12 月 1 日) The 84th Annual Meeting of the Society of Tokyo Women's Medical University Symposium "Up-to-Date Cardiovascular Surgery" "Futurability" for Severe Heart Failure } Yoshiki Sawa Department of Cardiovascular Surgery, Osaka University Graduate School of Medicine, Osaka, Japan Heart failure is a life-threatening disorder worldwide, and the current end-stage therapies for severe heart failure are replacement therapies such as ventricular-assist devices and heart transplantation. Although these therapies have been reported to be useful, there are many issues in terms of the durability, complications, limited donors, adverse effect of continuous administration of immunosuppressive agents, and high costs involved. Recently, regenerative therapy based on genetic, cellular, or tissue engineering techniques has gained attention as a new therapy to overcome the challenges encountered in transplantation medicine. We focused on skeletal myoblasts as the source of progenitor cells for autologous cell transplantation and the cell-sheet technique for site-specific implantation. In vitro studies have reported that myoblast sheets secrete cytoprotective and angiogenic cytokines such as hepatocyte growth factor (HGF). Additionally, in vivo studies using large and small animal models of heart failure, we have shown that myoblast sheets could improve diastolic and systolic performance and enhance angiogenesis and antifibrosis as well as the expression of several cytokines including HGF and vascular endothelial growth factor (VEGF) in the tissues at the transplanted site. Based on the results of these studies, we performed clinical trials using autologous myoblast sheets in ischemic cardiomyopathy (ICM) and dilated cardiomyopathy patients. Some patients showed left ventricular reverse remodeling and improved symptoms and exercise tolerance. Recently, multiple medical institutions including our institution successfully conducted an exploratory, uncontrolled, open-label phase II study in subjects with ICM to validate the efficacy and safety of autologous myoblast sheets. Thus, we could get the evidence that autologous skeletal muscle sheet might occur reverse remodeling in the responder of severe heart failure patients. Key Words: severe heart failure, myoblast cell-sheet, cytokine, multi-center study, translational research  ## はじめに わが国の心不全による年間死亡数は約 4 万 3 千人, 特に end-stage 心不全にあっては 1 年死亡率が 75\%とされる。高齢化,虚血性心疾患の増加にともない,今後心不全患者数の増大およびそれに伴う治療費の増加が予想される。重症心不全に対する現在の最終的な治療法は, 補助人工心藏や, 心藏移植などの置換型治療であるが,現段階では前者はその耐久性や合併症, 後者はドナーの確保や免疫抑制剤等に問題があり,普遍的治療とは言い難いのが現状である。 我々は, 100 例に及ぶ心臓移植と 400 例を超える補助人工心臓治療を経験する重症心不全治療の拠点であるが,多数の重症心不全患者を目の前に置換型治療の限界と再生型治療の必要性を痛感し, 自己骨格筋由来の筋芽細胞シートによる心筋再生治療法を開発し, 補助人工心臓離脱成功例を世界で初めて報告した. さらに 20 例以上の臨床例の経験から細胞シート移植技術を確立し,企業治験が開始され橋渡し研究を成功させるに至った (Figure 1).また,本細胞シートによる心不全治療は,シートから分泌される様々なサイトカインによる血管新生, 抗線維化作用による作用であることを突き止めた. 1. 心不全に対する細胞治療の発展一細胞シート技術の開発 重症心不全の治癒という目標を達成するためには,細胞治療の基礎技術をさらに発展する必要がある. 細胞治療に重要な不全心への細胞供給システムの問題を解決すべく, 我々は温度応答性培養皿 ${ }^{1}$ を用いて, 細胞シートを作成し, この組織体を心藏へ移植することにより,細胞を供給するという新しい供給システムを開発した。 これまで, 細胞を組織化して移植する方法は主に,人工的な scaffold に細胞を組み込む方法が考案されていたが,温度応答性培養皿による本法は,人工的 scaffold を用いない唯一の方法であり,組織を構築している細胞・細胞外基質はすべて自己生体組織由来であり,細胞と細胞間,移植組織とレシピエント間の接着蛋白の発現は維持されており, 生体適合性の高い組織体であることが種々の基礎研究から証明されている。 我々はまず,ラット新生仔より単離した心筋細胞を,温度応答性培養皿を用いて培養し,細胞シートを作成した.シート状になった心筋細胞を $20^{\circ} \mathrm{C}$ にて剝し,これを二枚重ねて重層化し,障害心の心外膜側に移植した。重層化した心筋細胞シートは homogeneous な 3 次元構造を持ち, connexin 43 の発現および心筋細胞シート間の電気的結合を有し,自己拍 Figure 1 Progress of our translational research. これまでの本研究の成果. 動能を示した. この心筋細胞シートをラット梗塞心の心臟表面に貼付したところ, 心筋細胞シートは心臟表面に接着し, 梗塞心の機能改善を認めた22。 我々はさらにヒト臨床に応用可能な細胞源として, 新生仔由来ではなく, 自己骨格筋由来の筋芽細胞を用いた筋芽細胞シートの作成と評価を行った. ラットを用いて, 骨格筋由来筋芽細胞を単離し, 筋芽細胞シートを作成し, ラット梗塞心,拡張型心筋症ハムスター4)に移植した. その結果, 従来の注射針を用いた細胞移植法と比較して, 組織・機能において,有意な改善が起こることを報告した. さらに,大動物心不全モデルとして, イヌ拡張型心筋症モデ $ル^{5)}$, およびブ夕慢性心筋梗塞モデル゙年作成し, 筋芽細胞シートを移植し, 長期にわたる心機能改善効果を確認するとともに, 本治療法の安全性を確認した。本研究にあたっては, 死亡率が少なく重症の慢性期ブタ心筋梗塞モデルを開発・作成した ${ }^{7)}$.また, 細胞シート移植治療は左心不全のみならず, 右心不全にも有効性があることが示唆されだと同時に, 心不全治療における既存の外科術式である左室形成術と組み合わせることにより, 左室の再拡大が抑制されることを小動物モデルによって証明しだ.また筋芽細胞シートで治療した不全心には, 弾性の高い elastin が豊富に産生されており, これらの弾性緎維が心機能を改善させることが予測されたため, 筋芽細胞に elastinを遺伝子導入し, シート化・移植したところ, 同遺伝子導入細胞シートはより有効な心機能改善効果があることも示された ${ }^{10}$. ## 2. 筋芽細胞シートの心不全に対する機能改善の ## メカニズム 上記の動物実験と並行して, 我々は筋芽細胞シー トの心不全に対する心機能向上効果に関するメカニズムを解明すべく,基礎的研究を行った.元来筋芽細胞は, 骨格筋が損傷した際に, 基底膜に存在する筋芽細胞が活性化され, 細胞が增殖・分化し, 最終的には, 久損した骨格筋を補うことが知られている。筋芽細胞を心臟に移植した際,筋芽細胞は心筋新生仔由来の心筋細胞とは異なり, 心筋特有の収縮蛋白を発現することはなく, また connexin 43 も発現しないため, 電気的にレシピエント心と隔絶されて心臟内に存在し, レシピエント心と同期して拍動することはない. 我々は, 筋芽細胞シートの効果のメカニズムは,移植した細胞より遊離される様々なサイトカインによる作用であると考え, ラット慢性期心筋梗塞モデルに筋芽細胞シートを移植し, 移植され た心臟組織の growth factor の発現を網羅的に解析したところ, 肝細胞増殖因子 (hepatocyte growth factor:HGF),血管内皮増殖因子 (vascular endothelial growth factor: VEGF), ストロマ細胞由来因子 1 (stromal cell-derived factor-1 :SDF-1),インスリン様成長因子 I (insulin-like growth factor I:IGF1)の発現が特に向上していることを見出しだ .この蛋白の発現は, 移植される筋芽細胞シートの枚数に比例して, 向上することを確認している ${ }^{11}$. さらに,本蛋白がどこから産生されているか検討したとこ万, 外来より移植された筋芽細胞よりこれらの蛋白が分泌されていることが判明した. また, 組織学的検討の結果, シート移植された心臟では, $\alpha$-smooth muscle actin 陽性の細胞が多量に移植部位に存在し, 同細胞は myosin heavy chain 陰性の細胞で, 筋芽細胞の特徴を有していないことが判明している. また, HGF, VEGF 等の作用だけではなく, シートを移植した部位に, residual stem cell と呼ばれる心筋幹細胞が多数集積していることが観察されだ3. 同細胞は, 心筋がダメージを受けた際に,損傷部位に集積し, 分化して心筋細胞特有骨格蛋白を発現し,損失した心筋細胞補填にあたっていることが知られている。細胞シートは, このように内因性の心筋再生メカニズムを惹起し(Figure 2), 拡張型心筋症の犬モデルを用いた前臨床試験において,リバースリモデリングをおこすことが観察され゙(Figure 3),心機能向上効果の一因と考えている. ## 3. 細胞シート治療法の臨床研究および医師主導型治験への発展 1)人工心臟を装着した拡張型心筋症患者に対する筋芽細胞シート移植治療 これらの基礎実験をもとに, 左室人工心臟を装着している拡張型心筋症患者に対する自己筋芽細胞シート移植の臨床研究について, 本学倫理委員会未来医療センターに承認を受け(UMIN 試験 ID: UMIN000000660), 2007 年に臨床研究を開始した (Figure 4). 第 1 例目において, 人工心臟や筋芽細胞シートによる集学的治療により, 心機能の改善を認め, 最終的には左室補助人工心臟からの離脱に成功し, 元気に退院した ${ }^{12)}$. 本症例においては, 人工心臟の持つ “Bridge to Recovery” 効果と筋芽細胞シートの持つ心筋賦活効果の両者の作用であると考えている。また, 人工心臟を装着した 3 例の患者に筋芽細胞シートを移植したところ, うち 2 名において, 左室収縮能の改善, 左室のリバースリモデリングを認 血管新生 ## C-kit陽性細胞 幹細胞集積 壁厚の肥厚 Figure 2 Mechanism of myocardial recovery. 予測される心筋組織修復のメカニズム. VEGF, vascular endothelial growth factor; bFGF, basic fibroblast growth factor; HGF, hepatocyte growth factor; FGF, fibroblast growth factor; SDF-1, stromal derived factor-1; BMMNC, bone marrow mononuclear cell. Figure 3 Reverse remodeling in dilated cardiomyopathy: Pre clinical trial. 拡張型心筋症の前臨床試験で観察されたリバースリモデリング. め, 最終的に内 1 名が人工心藏から離脱した. 本治療法にて人工心藏から離脱した患者は 2 名であるが, 離脱後 6 年を経過した時点で, 心不全兆候を認めず,自宅にて療養しており,仕事に復帰している。離脱できなかった 2 症例は, 最終的に心藏移植を行ったが,本治療を行った 4 症例の心筋組織を用いて, 血管密度を解析したところ, いずれの症例の血管密度も向上しており, 非臨床研究で得た結果との相同性が認められた。 Figure 4 Myocardial regeneration therapy with myoblast sheet for patients with left ventricular assist system. 左室補助人工心臟装着患者に対する筋芽細胞シートによる心筋再生治療. LVAS, left ventricular assist system. Figure 5 Clinical results in each treatment for severe heart failure. 重症心不全に対する各種治療成績. ISHLT, International Society for Heart \& Lung Transplantation; LV, left ventricular; LVAD, left ventricular assist device. 2) 人工心臟を装着していない拡張型心筋症患者,虚血性心筋症患者に対する筋芽細胞シート移植治療我々は,人工心臟を装着していない拡張型心筋症および虚血性心筋症患者 50 名以上に対して, 自己筋芽細胞シートを移植し,本治療法の安全性・認容性を確認した. 現在のところ,筋芽細胞シートに関連 した重篤な有害事象を認めず,安全性を確認できている. また, 一部の患者において, 左室収縮能の改善, 臨床症状の改善が得られており, シートを移植した患者の予測生命予後は, 左室形成を受けた患者と比較して良好であった (Figure 5). また, 本治療法は, 多施設にて企業治験を 7 例に行い (Figure 6), Figure 6 Change in cardiac contraction by echocardiography. 心エコー検查による心機能 (LVEF) の変化の推移. LVEF, left ventricular ejection fraction. Figure 7 Relationship between LVEF and LVESVI (Reverse-remodeling). LVEF と LVESVIとの関係(リバースリモデリング). LVEF, left ventricular ejection fraction; LVESVI, left ventricular end systolic volume index. 安全性が検証された ${ }^{13}$. 特に, Figure 7 のごとく左室駆出率 (left ventricular ejection fraction:LVEF) と左室収縮終(末)期容積指数(left ventricular end systolic volume index:LVESVI)の術前後の関係から, 7 例中 5 例にリバースリモデリングが観察され, レスポンダーにおいては有効であることが治験例からも示唆された. これらのデータを元に, 薬事申請が行われ, 2016 年に保険償還された.この背景には, 2014 年に薬事法の改正, すなわち医薬品, 医療機器等の品質, 有効性及び安全性の確保等に関する法律 (薬機法)が制定され,その中に再生医療の審査承認についての章立てが書かれており,その新しい規制である, 条件期限付き承認のもとに保険診療が開始されている。ただし, 重要なのは, この条件期限付き承認の後の市販後調査における有効性の検証であり, 現在 5 年間に 60 例の検証が行われている.この結果を基に本格的承認が行われる。この規制は,世界に類無き日本が最先端の法律として,世界から高い評価を受けているが,この法律が本格的に運用されて多くの再生医療製品が承認され,日本から世界に発信されることが期待される。 $ \text { まとめ } $ 自己筋芽細胞シートによる心筋再生治療は, 医薬品と異なり, また医療機器の臨床研究や治験に近く, 1 例ごとの有効性の確認が大変重要である. しかし, これまでの詳細な検討において,リバースリモデリングが観察される症例を経験し, さらなる検証が必要であるものの, 従来の医薬品や医療機器に加えて,新たな心不全治療法としてその展開が期待される. したがって「細胞シートでリモデリングを治せるか?」という命題に対しては, Yes と答えうる可能性が示唆された。 利益相反 (COI) : テルモ株式会社との共同研究講座,奖学寄附金の受入れ. ## 文 献 1) Shimizu T, Yamato M, Kikuchi A et al: Twodimensional manipulation of cardiac myocyte sheets utilizing temperature-responsive culture dishes augments the pulsatile amplitude. Tissue Eng 7 (2): 141-151, 2001 2) Miyagawa S, Sawa Y, Sakakida S et al: Tissue cardiomyoplasty using bioengineered contractile cardiomyocyte sheets to repair damaged myocardium: their integration with recipient myocardium. Transplantation 80 (11): 1586-1595, 2005 3) Memon IA, Sawa Y, Fukushima $\mathbf{N}$ et al: Repair of impaired myocardium by means of implantation of engineered autologous myoblast sheets. J Thorac Cardiovasc Surg 130 (5): 1333-1341, 2005 4) Kondoh H, Sawa Y, Miyagawa S et al: Longer preservation of cardiac performance by sheetshaped myoblast implantation in dilated cardiomyopathic hamsters. Cardiovasc Res 69 (2): 466475, 2006 5) Hata H, Matsumiya G, Miyagawa S et al: Grafted skeletal myoblast sheets attenuate myocardial remodeling in pacing-induced canine heart failure model. J Thorac Cardiovasc Surg 132 (4): 918-924, 2006 6) Miyagawa S, Saito A, Sakaguchi $T$ et al: Impaired myocardium regeneration with skeletal cell sheets-a preclinical trial for tissue-engineered regeneration therapy. Transplantation 90 (4): 364-372, 2010 7) Shudo Y, Miyagawa S, Fukushima S et al: Establishing new porcine ischemic cardiomyopathy model by transcatheter ischemia-reperfusion of the entire left coronary artery system for preclinical experimental studies. Transplantation 92 (7): e34-e ## 35, 2011 8) Hoashi T, Matsumiya G, Miyagawa S et al: Skeletal myoblast sheet transplantation improves the diastolic function of a pressure-overloaded right heart. J Thorac Cardiovasc Surg 138 (2): 460-467, 2009 9) Saito S, Miyagawa S, Sakaguchi T et al: Myoblast sheet can prevent the impairment of cardiac diastolic function and late remodeling after left ventricular restoration in ischemic cardiomyopathy. Transplantation 93 (11): 1108-1115, 2012 10) Uchinaka A, Kawaguchi N, Hamada $Y$ et al: Transplantation of elastin-secreting myoblast sheets improves cardiac function in infarcted rat heart. Mol Cell Biochem 368 (1-2): 203-214, 2012 11) Sekiya N, Matsumiya G, Miyagawa S et al: Layered implantation of myoblast sheets attenuates adverse cardiac remodeling of the infarcted heart. J Thorac Cardiovasc Surg 138 (4): 985-993, 2009 12) Sawa Y, Miyagawa S, Sakaguchi T et al: Tissue engineered myoblast sheets improved cardiac function sufficiently to discontinue LVAS in a patient with DCM: report of a case. Surg Today 42 (2): 181184, 2012 13) Sawa Y, Yoshikawa Y, Toda K et al: Safety and efficacy of autologous skeletal myoblast sheets (TCD-51073) for the treatment of severe chronic heart failure due to ischemic heart disease. Circ J 79 (5): 991-999, 2015
tokyojoshii
cc-by-4.0
Tokyo Women's Medical University
-
# 第 84 回東京女子医科大学学会総会 シンポジウム「ここまで来た! 心臟血管外科治療の最前線」心臟移植の贈り物 東京女子医科大学大学院重症心不全制御学分野 } 希田神任 } (受理 2018 年 12 月 1 日) The 84th Annual Meeting of the Society of Tokyo Women's Medical University Symposium “Up-to-Date Cardiovascular Surgery” Present from Heart Transplantation Shinichi Nunoda Department of Therapeutic Strategy for Severe Heart Failure, Graduate School of Medicine, Tokyo Women's Medical University, Tokyo, Japan } There have been over 6,000 human heart transplants since the first transplant approximately 50 years ago. In Japan, 50-60 transplants have been performed annually since enforcement of the revised Organ Transplant Law; however, 600-700 people await transplantation, and even Status 1 patients wait over 1,000 days. Post-transplant management is divided into two categories. One, related to transplantation itself, includes open heart surgery, denervation/re-innervation, donor heart ischemia, and issues resulting from recipient heart failure. The other consists of manageable factors such as rejection control, risk of infection or tumor under immunosuppression, adverse effects of immunosuppressants, and frequent cardiac catheterization procedures. After transplantation, patients receive combined treatment with a calcineurin inhibitor (e.g., tacrolimus or cyclosporine), mycophenolate mofetil, and a steroid. Antibody-mediated rejection and its relationship to cardiac allograft vasculopathy have received significant attention. Immunosuppressants contribute to infection with pathogens such as cytomegalovirus, Epstein-Barr virus, and hepatitis virus within 30 days after transplantation. Cardiac allograft vasculopathy is characterized by diffuse coronary stenosis of mainly small- and mediumsized arteries. It is diagnosed by intravascular ultrasound observation of intimal hyperplasia, a lesion caused by immunologic and non-immunologic mechanisms and treated with mTOR (mammalian target of rapamycin) inhibitors. Compliance with post-transplantation maintenance therapies and behaviors enables good long-term health. Heart transplantation is part of an ideal health care system, complemented by evidence- and narrative-based medicine. Key Words: heart transplantation, ventricular assist device, cardiac allograft vasculopathy, narrative-based medicine, the transplant life  ## はじめに 今から約 50 年前の 1967 年 12 月 3 日に, 南アフリ力共和国で行われたヒトにおける心藏移植第 1 例目以降, 数年続いた心臟移植ブームは, 1 年生存率が $20 \%$ に満たない成績であり,たちまち下火となっていった. しかしながら, 心臓外科医の Shumway 医師を中心とするグループは地道に活動を続け, 1972 年の心内膜心筋生検法の拒絶反応診断方法への応用, 1980 年代に画期的な免疫抑制薬であるシクロスポリンの臨床応用にて今日の発展の礎が出来た. 今では,年間 6,000 例以上の実施例数という安定期を迎えている (Figure 1) ${ }^{1)}$. 移植を受けた後の「移植人生」の管理は,医療者と患者および患者家族が二人三脚で行っていくが, その管理には多職種が関与する。本稿では, 心藏移植前後の管理について概説する。 ## 心臟移植前の管理 ## 1. 心臟移植適応判定 心臓移植適応となる難治性心不全の対象疾患は,拡張型心筋症, 拡張相肥大型心筋症, 拘束型心筋症に代表される心筋症がわが国では代表疾患であり,欧米では適応の半数に値する虚血性心疾患の割合はまだ低い。しかし, その割合は今後増えていくことが想定される。 心臓移植適応を検討する際に重要なポイントは, (1)まず,医学的に移植以外に患者の命を助ける有効な治療手段 (代替療法)はないのかという点である。塩分, 水分制限等の基礎治療, アンジオテンシン変換酵素 (angiotensin-converting enzyme : ACE) 阻害薬, 抗アルドステロン薬, $\beta$ 遮断薬, 等の心不全基礎薬, そして非薬物治療としての心臓再同期療法 (cardiac resynchronization therapy: CRT), 植込み型除細動器 (implantable cardioverter defibrillator : ICD),等まで検討されているか否かが問われる。 (2) そして, 移植治療を行わない場合, どの位の余命があるか, つまり, NYHA (New York Heart Association)心機能分類や米国心臟病学会/米国心臟協会 (ACC/AHA) の Stage 分類, 補助人工心臓 (ventricular assist device : VAD)からみ INTERMACS (Interagency Registry for Mechanically Assisted Circulatory Support) Profile 分類〔日本における補助人工心臓に関連した市販後のデータ収集 (Japanese registry for Mechanically Assisted Circulatory Support:J-MACS)分類に相当〕, Peak VO 2 值,等による様々な評価 (Figure 2) がなされ, (3)移植手術後の免疫抑制療法, その他の治療管理が医学的に遂行できる患者か否か, つまり禁忌事項がないか否かが確認され, 最後に, (4)患者本人が移植の必要性を認識し, 移植医療を積極的に希望すると共に家族の協力が期待できるかで最終判断がなされる。この適応判定のプロセスにおいては, 循環器内科医はもとより, 腎臓内科医, 糖尿病・代謝内科医,消化器内科医, 肝臟内科医, 神経内科医, 呼吸器内科医,血液内科医,等の専門医が参加する。そして移植後長期間にわたる移植後管理を本人ばかりでなく,支える家族も遂行できるか否かの判断には,心療内科医やレシピエント\&VADコーディネー ター,そしてソーシャルワーカー,等の多職種が参 Figure 1 Annual number of heart transplants worldwide according to the Registry of the International Society for Heart and Lung Transplantation-2018. Adopted from reference 1. Figure 2 Determination of treatment strategies before heart transplantation based on relationships between New York Heart Association (NYHA) classification, ACC/AHA stage classification, INTERMACS (J-MACS) profiles, and heart transplant waiting status. NYHA, New York Heart Association; ACC/AHA, American Heart Association/American College of Cardiology; INTERMACS, Interagency Registry for Mechanically Assisted Circulatory Support; J-MACS, Japanese registry for Mechanically Assisted Circulatory Support; VAD, ventricular assist device; IABP, intra-aortic balloon pumping; PCPS, percutaneous cardiopulmonary support; VAB, veno-arterial bypass. 画してくる. ## 2. 心臓移植待機中の管理 心臟移植は現在, 年間 $50 \sim 60$ 例行われているが2), その 10~12 倍の 600〜700 人が心臟移植を待機している3)(Figure 3).したがって,一旦リストに載ったからといってすぐさま移植されるわけではなく,待機上位ランクの Status1 において現時点で約 1,000 日を待機しなければならない2). この心臟移植実施数が待機者に比して少ない現状を克服するには臓器提供者の増加しか術はなく, 他臟器移植と連携した啓発活動をより一層強化しなければならない). この 1,000 日の待機期間中, 心臟移植適応と判定された患者は, 適応から外れないように腎機能や肝機能を維持していかなければならず,静注強心薬,等を駆使しても全身状態を維持できない場合には必要に応じて植达久型 VAD の装着を考慮しなければならない.この際, INTERMACS(わが国のJMACS)の profile 分類が数年前からVAD 植迄みのタイミング判定に使われている . 数時間後には死に至るような clinical cardiogenic shock(crash \& burn)の profile 1 の患者においては, 植达み型 VAD の適応にならないことが多くの一致した見解であり, profile 2 以降が植达み型 VAD の適応となる.ただし, profile 2 (progressive decline)ではニックネー ムが sliding fast とあるように, 時間的猶予はなく,直ちに植込みを実施しなければならない. 長い待機期間を要する心臟移植の現状を考慮すると, 植达み型 VADの良いタイミングとしては, 強心薬持続静注に依存した状態, すなわち stable but inotropic dependent である profile 3 や, 入退院を繰り返す,いわゆる frequent flyer の profile 4であろうと思われる. ## 心臟移植後における管理 心臟移植手術を契機に患者管理は一変する。移植後は, 拒絶反応や免疫抑制状態からくる感染症や腫瘍の診断と治療, 免疫抑制薬の有害事象への対応,等に変わる. 移植前以上に移植後は全身管理となる. ここで, 心臟移植後の管理に及ぼす因子をカテゴリー的に列記すると, (1)開心術後管理, (2)除神経に Figure 3 Current number of people awaiting heart transplantation in the Japan Organ Transplant Network (JOT), the actual numbers of heart transplants in Japan, and matters concerning organ transplantation. よる影響,(3)移植心虚血時間を代表とするドナー心由来の因子, (4)心臟移植候補の重症心不全状態での他臟器障害の因子, 5)拒絶反応の種類と程度, (6)感染症や腫瘍に代表される免疫抑制状態,77腎機能障害に代表される免疫抑制薬の有害事象, 8心筋生検に代表される度重なる心臟カテーテル検査,の8つが挙げられる。前半の(1)~(4)は心藏移植を受ける上で宿命的な因子であるが,(5)~8ははントロール可能な因子である.この管理のため, 看護師, ソーシャルワーカー,等のメデイカルスタッフを含めた多職種の参加が必要となり,チームの力量の問われるところである. ## 1. 心臓移植後急性期 心臟移植後からは, カルシニューリン阻害薬 (夕クロリムス, シクロスポリン), 代謝拮抗薬であるミコフェノール酸モフェチル,ステロイドの三薬併用療法がなされる。これら免疫抑制薬は移植後早期には比較的高い血中濃度を維持すべく高用量が使用されるが,問題となる拒絶が生じなければ,各移植実施施設のプロトコールに従い漸減される ${ }^{6}$. 心臟移植の拒絶には, 発症時期により超急性拒絶,急性拒絶, 慢性拒絶に, 発症メカニズムにより細胞性 (cellular), 抗体関連型 (antibody-mediated), その混合型 (mixed) に分類される。遭遇する急性拒絶の多くは細胞性拒絶であるが,近年,抗体関連拒絶反応 (antibody-mediated rejection:AMR)が注目さ れてきている.この AMR は, ユ夕心臟移植チームから最初に報告7)された 1989 年からしばらくの間は, その存在に対して議論が繰り返される状況であったが,今はその存在を疑問視する者は誰もいない.この AMR は,その予後が悪いということのみならず,移植後慢性期に問題となる移植心冠動脈病変 (cardiac allograft vasculopathy: CAV) の発症進展と関係がある8. 移植後は拒絶反応を予防するため生体の免疫を抑制する免疫抑制薬が投与されるが,そのため同時に感染症への注意が必要である. 国際心肺移植学会レジストリー1)によると, 心臟移植後の生存率は, 移植後最初の段階, とりわけ術後 30 日以降 1 年以内において生存率を低下させる主原因が感染症である,成人においては移植後 30 日以降 1 年以内の死亡原因のなかでは感染症が死因の $1 / 3$ を占め最多である (Figure 4) ${ }^{1}$. 小児においても移植後 30 日以降 1 年以内の死因のなかでは多い1). 心臟移植後の感染症の特徴としては, 各時期によって原因となる病原体や発症機序が異なる点があげられる. 移植術後 30 日以内の急性期は, 一般の開心術後の合併症としての感染症が主であり, 細菌や真菌による手術創部の感染,肺炎, 尿路感染が多い。一方で 30 日以降は免疫抑制療法に伴う感染症が多いのが特徴であり,内因性の病原体の活性化やドナー由来の病原体による感染症への注意が必要である. とくに,サイトメガロウイ Figure 4 Relative incidences of leading causes of death in adult heart transplant patients from January 1994 to June 2017 according to the Registry of the International Society for Heart and Lung Transplantation-2018. PTLD, posttransplant lymphoproliferative disorders; CAV, cardiac allograft vasculopathy. Modified from reference 1 . ルス (cytomegalovirus : CMV), エプスタイン・ バー (Epstein-Barr:EB) ウイルス, 肝炎ウイルスなどが問題になりやすい。免疫抑制下でのこれらの感染症は,初期症状が非特異的で診断が遅れがちであるうえにそれ自体が重篤になりやすく,早期診断と治療が重要である。 このように,一旦,心臟移植が行われれば,その後は,いわゆる「移植人生」を歩むこととなる。移植前の重症心不全に対し様々な薬物および非薬物療法を受けていた状態から QOL は一変するが,ある種の免疫抑制薬は一生飲み続けなければならず,患者によっては感染症予防薬もそうである。また,各免疫抑制薬には様々な有害事象があり, 免疫抑制薬間での変更はなされても,完全に有害事象を拭い去ることはできないことも多く,それらを軽減させるための薬剂投与も必要となってくる場合がある.移植後のこのような重要ポイントは, 医師や移植コー ディネーターから移植前において説明が十分になされているはずであるが,移植後に健康な状態を継続させるためには,折りをみて移植後管理について注意点を喚起させなければならない,患者教育は上からの目線ではなく, 患者家族の一員のように共に移植後を歩んでいくという心構えと姿勢が大切である. ## 2. 心藏移植後慢性期 昨今の心臟移植後管理のトピックは移植後急性期管理から慢性期管理にシフトしてきている。国際心肺移植学会レジストリー ${ }^{1}$ によると心臟移植の 1 年生存率は約 $80 \%$ であるが, 移植 1 年後からは右下がりに毎年約 3 4\% の患者が亡くなり,約 10 年で $50 \%$ の生存となってしまう.この主原因は CAV,悪性腫瘍である。また,移植後慢性期の腎機能障害は QOL を著しく損うため移植後早期から留意すべきである(Figure 4). CAV は, 移植後数か月から数年の経過で進展する中小動脈を中心としたびまん性冠動脈狭窄で9), 移植心の虚血をきたすが,移植心は除神経心であるため狭心症などの症状を示さない。また冠動脈の狭窄病変はびまん性のため, 通常の冠動脈造影では病変をとらえにくい,血管内超音波法 (intravascular ultrasonography:IVUS)で肥厚した血管内膜を観察することで診断されるが,冠動脈の狭窄病変はびまん性のため (Figure 5 $)^{10}$, 冠動脈バイパス術や冠血管形成術は一般的に無効である。 本病変の発生機序は免疫学的機序と非免疫学的機序, 等が絡みあって形成されてくる ${ }^{11212}$. したがって,急性拒絶反応を極力抑制し,また粥状冠動脈硬化症の危険因子を管理し, CMV 感染予防を行うしか術 Figure 5 Coronary angiogram and intravascular ultrasound (IVUS) images obtained 2 years after heart transplantation in a 46-year-old recipient. The coronary angiogram showed slight irregularity of the vessel wall, but diffuse intimal hyperplasia was observed by IVUS from the proximal to distal coronary vessels. Modified from reference 10. Figure 6 Role of the physician in heart transplantation. EBM, evidence-based medicine; NBM, narrative-based medicine; mTOR, mammalian target of rapamycin; mTOR, mammalian target of rapamycin. Adopted from reference 18, licensed, under Creative Commons Attribution 4.0 International License. がなかったが13), proliferation signal inhibitor である mTOR (mammalian target of rapamycin) 阻害薬の エベロリムス ${ }^{14}$ は,免疫抑制作用と抗腫瘍作用を兼ね備えた移植後慢性期に問題となる合併症に対して は理にかなった薬剤と思われる。またエべロリムスを併用しカルシニューリン阻害薬投与量を減じることでカルシニューリン阻害薬がもたらす腎機能障害を軽減させることも可能である ${ }^{1516)}$.このように心臓移植後慢性期の管理においても様々な専門分野の内科医が参加することとなる. なお, 心臓移植後慢性期において注意しなければならないものにノンアドヒアランスがある. 欧米では年長坚心移植の予後を規定する大きな因子にもなってきている. ノンアドヒアランスの患者側のリスクファクターとしては,(1)服薬遵守における意志の弱さ, (2)20歳以下, (3)移植後長期間経過, (4)移植以前の予約診察を受診しなかった履歴の存在, (5)精神 - 心理的障害, (6)社会的孤立や社会的支援の欠如, (7)薬物乱用といった点が挙げられている ${ }^{17)}$. ## おわりに Stage B の心不全状態から, 数多くの EBM をもとに薬物療法が行われ, Stage C の段階から非薬物療法も併せて治療が行われてきた患者のうち, 残された将来の治療として心臓移植適応のある患者は 1,000 日以上の長い待機期間を経て, ようやく心蔵移植を受けることになる。その待機期間は補助人工心臟に支えられることも多い. そして,心臟移植が行われれば,その後の「移植人生」を全うするため,移植後急性期の拒絶反応の検査および治療, 感染症のコントロール,さらには薬剤有害事象への介入,慢性期に至っては, 移植心冠動脈病変, 悪性腫痬,腎機能障害, アドヒアランス維持, 精神発達, 等に対して, 多くの多職種とともにこの長い「移植人生」 を進んでいくことになる $\left(\right.$ Figure 6 ${ }^{18)}$. 心臟移植は,「命」の贈り物ばかりでなく, 多くの多職種が関与する EBM と NBM(narrative based medicine)が補完的に関与する理想の医療体制を社会にもたらすと思われる。 開示すべき利益相反はない. ## 文 献 1) Khush KK, Cherikh WS, Chambers DC et al: The International Thoracic Organ Transplant Registry of the International Society for Heart and Lung Transplantation: Thirty-fifth Adult Heart Transplantation Report-2018; Focus Theme: Multiorgan Transplantation. J Heart Lung Transplant 37: 11551168, 2018 2) Fukushima N, Ono M, Saiki $\mathbf{Y}$ et al: Registry report on heart transplantation in Japan (June 2016). Circ J 81: 298-303, 2017 3)(公社)日本臟器移植ネットワークホームページ http://www.jotnw.or.jp/datafile/index.html ( Accessed Dec 14, 2018) 4) 布田伸一: 第 62 回日本循環器学会学術集会パネルディスカッションI 心臟移植:現状と問題心移植サポートについて. 循環器医 $6: 253-258,1998$ 5) Stevenson LW, Pagani FD, Young JB et al: INTERMACS profiles of advanced heart failure: the current picture. J Heart Lung Transplant 28: 535541, 2009 6)布田伸一, 福嶌教偉, 中谷武嗣 : 我が国における心臟移植免疫抑制療法: 移植実施施設におけるプロトコール.「心臟移植」(布田伸一・福嶌教偉編, 松田暉監), pp233-237, 丸善, 東京 (2013) 7) Hammond EH, Yowell RL, Nunoda S et al: Vascular (humoral) rejection in heart transplantation: pathologic observations and clinical implications. J Heart Transplant 8: 430-443, 1989 8) Hammond EH, Yowell RL, Price GD et al: Vascular rejection and its relationship to allograft coronary artery disease. J Heart Transplant 11: S111-S 119, 1992 9) Hosenpud JD, Shipley GD, Wagner CR: Cardiac allograft vasculopathy: current concepts, recent developments, and future directions. J Heart Lung Transplant 11: 9-23, 1992 10)布田伸一:移植心冠動脈病変. 「心臟移植」(布田伸一・福嶌教偉編, 松田睴監), pp295-300, 丸善, 東京 (2013) 11) Schmauss D, Weis M: Cardiac allograft vasculopathy: recent developments. Circulation 117: 21312141, 2008 12) Nunoda S: Cardiac allograft vasculopathy - heart transplantation provides insights into pathogenesis and treatment of arteriosclerosis. Circ J 82: 29432945, 2018 13)布田伸一, 藤井千恵子, 堀田典寛ほか:心移植遠隔期における移植心冠動脈病変の検討. 脈管学 41 : 887-893, 2001 14) Eisen HJ, Tuzcu EM, Dorent R et al: Everolimus for the prevention of allograft rejection and vasculopathy in cardiac-transplant recipients. $\mathrm{N}$ Engl J Med 349: 847-858, 2003 15) Lehmkuhl HB, Mai D, Dandel M et al: Observational study with everolimus (Certican) in combination with low-dose cyclosporine in de novo heart transplant recipients. J Heart Lung Transplant 26: 700-704, 2007 16) Rothenburger M, Teerling $\mathrm{E}$, Bruch $\mathrm{C}$ et al: $\mathrm{Cal}-$ cineurin inhibitor-free immunosuppression using everolimus (Certican) in maintenance heart transplant recipients: 6 months' follow-up. J Heart Lung Transplant 26: 250-257, 2007 17) Nunoda S, Suwa K, Shitakura K et al: Switching to tacrolimus extended-release improved the effectiveness of immunosuppressive therapy in a heart transplant patient: a case report. J Cardiology Cases 6: e26-e29, 2012 18)布田伸一:臟器移植における内科医の役割心臟移植における内科医の役割。移植 50:112-117, 2015
tokyojoshii
cc-by-4.0
Tokyo Women's Medical University
-
# 性差医療 (3)性差医学から見た内分泌代謝疾患: ## 東京女子医科大学における性差医療の経験を含めて \author{ 東京女子医科大学総合診療科・女性科 (女性内科) \\ 力夕. \\ 片井みゆき } (受理 2019 年 5 月 14 日) ## Gender Medicine (3) Gender Aspects on Endocrine and Metabolic Diseases: Review Including the Experiences of Gender Medicine at the Tokyo Women's Medical University in Japan \author{ Miyuki Katai \\ Department of General and Women’s Medicine, Tokyo Women's Medical University, Tokyo, Japan } Gender medicine (GM) deals with the effects of sex and gender differences between males and females. Since 2007, Tokyo Women's Medical University has operated the nation's largest Women-Specific Clinic based on GM, at which 13 female specialists in various fields collaborate. We perform differential diagnoses of complaints while considering gender and sex differences in the mind and in diseases, life stage, and social background. We analyzed the clinical data of 285 patients who visited us during the first year, $68 \%$ (195/285) of whom presented with undefined complaints that included menopausal symptoms, and $26.7 \%$ (52/195) of whom were found to have organ diseases which explained the undefined complaints after our differential diagnosis. Forty-three of 195 women had endocrine diseases and 29 of them had thyroid dysfunctions; the most frequent endocrine disease. In other words, the frequency of endocrine diseases among patients who were considered to have undefined complaints were $22 \%$ and the corresponding frequency of thyroid dysfunction was $15 \%$. In particular, thyroid dysfunction symptoms overlapped with menopausal symptoms and were difficult to distinguish without thyroid function tests. However, the endocrine test is not included in the general test, which increased the difficulty in detecting endocrine diseases. We need to be aware that women generally have a higher incidence of endocrine disease than men and that some endocrine diseases occur during pregnancy, postpartum, or around menopause. Incorporating GM aspects into daily practices can improve the accuracy of the diagnosis overall, especially the diagnosis of endocrine diseases in women. Key Words: gender medicine, Women-Specific Clinic, indefinite complaints, thyroid dysfunction, menopausal symptom  ## はじめに 内分泌代謝は,私たちの身体や精神にとっての恒常性(ホメオスタシス)や全身の調和を保つ上で不可欠な機能であると共に, 性差を生じる要因としても重要な役割を担っている。既に胎生期において生殖器や脳などの性特異的分化には性ホルモンが影響し, 誕生後も, 特に性ホルモン分泌が上昇し始める思春期以降は, 性ホルモンの影響が全身へと及ぶ1.後天的に性差をつかさどる性ホルモンの生涯における分泌動態の変化を Figure 12で示す. Figure 1A は女性での生涯にわたるエストロゲン分泌(1日あたりの尿中エストロゲン排泄量), Figure 1B は男性での血中遊離テストステロン値を示している。女性での女性ホルモン(エストロゲン)分泌は, (1)一生を通じ劇的に変化する, (2)月経がある時期は周期的に大きく変化する,(3)閉経後は急速に低下し生殖能を失う。一方,男性での男性ホルモン(テストステロン)分泌は, (1)個体差が大きく, (2)周期性はなく, (3)年齢と共に緩やかに低下するが,高齢でもある程度の生殖能が保たれる ${ }^{3}$.このような性ホルモン分泌動態の性差に伴い, 生涯において生殖能を保てる年代には決定的な性差がある。 さらに女性では,月経周期,妊娠,出産,閉経などに伴い女性ホルモン分泌状態が生涯を通じて劇的に変化することで, 心身への影響, 各種疾患の発症や増悪・寞解への女性ホルモン分泌の変化が関与することが知られており,日常診療において女性のライフステージや月経周期に伴う内分泌環境の変化に対しての注意は,専門領域を問わず大切な視点かつスキルであると考える。 本稿は性差医療「代謝内分泌」ということで,以下, 性差医療の概要, 性差医学的視点から見た内分泌代謝疾患, 本学における性差医療のこれまでの取組み,女性の性差医療における内分泌代謝疾患の発見頻度等を紹介する。 ## 性差医学・医療 : 日本への導入, 東京女子医科大学,国内外の性差医学会としての取組み 性差医学・医療は比較的新しい概念であるため,基本的な概念と共に, 日本へ導入されてから今日までの流れを紹介したい. 性差医学・医療とは疾患の背景にある性差(男女差)を考慮した新しい医学・医療である. 生殖器系のみならず男女共通の臟器に起こる疾患も含め, 疾患の背景にある性差に注目し診断, 治療, 予防措置 へ反映するというもので, 1980 年代終わり頃から欧米を中心に提唱されてきだにある社会的性差 gender difference と生物学的性差 sex difference を共に考慮する。近年は生殖器系だけでなく, 男女共通臟器の疾患にも, 病態や治療法に様々な性差があることが分かっており, 特に女性はライフステージに伴う女性ホルモン分泌の劇的な変化が, 生活習慣病を含め様々な疾患の発症に関与することが分かってきた6(10). 性差医学・医療の対象は男女共であるが,海外抏よび日本でも,まずは男性に比べてエビデンスが不足している女性に対しての性差医学・医療が先行してきた経緯がある ${ }^{6111 \sim 13}$. 日本で性差医学・医療という概念が広く知られるようになったきっかけは, 1999 年の日本心臟病学会で天野恵子医師が「女性における虚血性心疾患」というシンポジウムを組み,虚血性心疾患の病態や治療法に性差があることを示したことである ${ }^{614)}$ .女性では更年期以降に女性ホルモン分泌の低下により, 男性とは異なるメカニズムの微小血管狭心症を生じることが分かり, 従来のニトログリセリンでは効果がなく, カルシウム拮抗薬が有効であること, 欧米では既に性差医学・医療という概念があること等が示された,今でこそ,虚血性心疾患のほか, たこつぼ心筋症, 心不全等の様々な循環器疾患での性差が明らかになっているが, 今から 20 年前の当時, 生殖器系や乳腺以外の男女共通の疾患にも性差があることはまだほとんど認識されていなかった.こうした,男女共通の疾患における性差の影響の大きさは驚きと衝撃を持って受け止められ,性差の視点を持って診療・研究を行う日本初の女性専用外来が 2001 年に鹿览島大学第一内科で誕生した(この先見的な決断をされた鄭忠和教授は, 後に日本性差医学・医療学会の初代理事長となられた). 性差医療の実践の場として, 2003 年 4 月以降, 全国各地の基幹病院を中心に女性専門外来の開設が相次ぎ, 2004 年には 180 か所, 2006 年には 400 か所以上と急速な勢いで展開した。各施設によって担当医数や専門分野,診療形態などに多様性や個性があるが,女性専門外来に共通するコンセプトとして,主訴を問わない,完全予約制,初診を女性医師が担当する, 初診に十分な時間をかけ, 共感を持って訴えを傾聴することなどが挙げられる年) 188. 東京女子医科大学では 2004 年に本院附属女性生涯健康センター, 2007 年に東京女子医科大学東医療 Figure 1 Changes in the hormone levels of normal women (left) and men (right) during the aging process. Adapted from reference 2. センター日暮里クリニック女性専門外来を開設した. 東京女子医科大学東医療センターでは日本で初の「性差医療部」を開設し,女性専門外来を担当する常勤医が配属された ${ }^{19200}$. 同大日暮里クリニック女性専門外来では, 女性の様々な愁訴に対応するため,総合内科, 内分泌内科, 循環器内科, 消化器内科,婦人科, 精神科, 耳鼻科, 小児科, 乳腺外科, 肛門外科, 緩和ケア, 産業医学, 遺伝医学など多岐にわたる 13 分野の女性専門医が連携して診療を行い,担当医師数・患者数共に全国で最大規模の女性専門外来体制を立ち上げた ${ }^{211 \sim 23)} .2017$ 年 4 月以降は東京女子医科大学東医療センター日暮里クリニック閉院に伴い, 性差医療部常勤医は東京女子医科大学病院 (本院)総合診療科へ異動し診療を継続した. 2018 年 5 月からは本院女性科が本格的に始動し, 乳腺外科,女性内科各領域, 摄取障害, 眼科, 大腸 - 肛門外科,精神神経科, 遺伝子診療と様々な専門分野において,各科いずれも臨床経験豊富なべテラン女性医師達が担当し, 現在に至っている. 性差医学・医療を専門とする国内外の学会として, 国内では 2004 年から性差医療・医学研究会が設立され, 2008 年からは日本性差医学・医療学会へと発展し, 各分野の専門家が幅広く参加し現在に至っている ${ }^{2425)}$. 特に性差医学研究をリードしているのは日本循環器学会で, 性差のエビデンスをまとめた「循環器領域における性差医療に関するガイドライン」 を作成し公表している ${ }^{26)}$. 国際的には国際性差医学会 (International Society of Gender Medicine: IGM)が中心的役割を果たしており,2006 年に第 1 回国際性差医学会学術集会 (IGM Congress) がベルリンで開催され, 2017 年には第 9 回 IGM Congress が初の日本開催として下川宏明大会長(日本性差医学・医療学会理事長・東北大学大学院循環器内科教授)のもと,仙台で開催された。 世界各国から集まったIGM の主要メンバーの写真を Figure 2 に示す.次回は 2019年 9 月 12 13 日にウィーンで開催され, 今回も日本を含め世界各地から臨床医や医学研究者が参集し, 活発な議論や交流が行われる予定である ${ }^{27)}$. ## 内分泌代謝疾患における性差 今回, 主要な内分泌代謝疾患の本邦における発症頻度と好発年齢・好発状況における性差を文献検索 (28) 38), Table 1 にまとめた. 発症頻度の男女比は,男性の発症頻度を 1 とした場合の女性の発症頻度を示した。女性における好発年齢と好発状況を示し,男性での好発年齢が異なる場合は特記した。個々の疾患についての従来ながらの病態, 診断, 治療法等は成書に譲ることにし, 性差の観点から以下を考察する。 まず発症頻度が最も女性に偏っている内分泌代謝疾患の筆頭は橋本病で男性の数十倍高く, 次いで亜急性甲状腺炎, 無痛性甲状腺炎, リンパ球性下垂体前葉炎, バセドウ病, クッシング病, プロラクチノー マ, 甲状腺癌, 原発性副甲状腺機能元進症, 1 型糖尿病の順に, 女性での発症頻度が男性よりも高かった。発症頻度に性差を認めない内分泌代謝疾患は, 先端巨大症, 非機能性下垂体腺腫, リンパ球性漏斗下垂体後葉炎, 褐色細胞腫, 緩徐進行 1 型糖尿病であ口た. 逆に男性で発症頻度がより高い内分泌代謝疾患の筆頭は Kallmann 症候群で男性は女性の 6.9 倍 (1/ 0.17), 次いで 2 型糖尿病が 2 倍, ガストリノーマがほぼ同等かごく僅かに男性で高かった $(1 / 0.93=1.07$倍). 糖尿病が男性で頻度が高い要因としては生活習慣のほか, 男性は女性よりも肥満傾向が強い, 男性 Figure 2 Core members of the International Society of Gender Medicine at Sendai, Japan in 2017. ホルモンによる糖代謝への影響, レプチン・アディポカイン分泌の性差が影響することが指摘されてい $る^{38}$. プロラクチノーマと甲状腺癌は女性での発症頻度が高いのみならず,好発年齢も男性より若い年代にシフトしていることに注意が必要である。また,女性では妊娠と出産後の免疫動態の変化に伴い, 産裖期にリンパ球性下垂体前葉炎,無痛性甲状腺炎が起きやすいことにも注意したい。 通常,男女共通の疾患の診療を行う際にはこうした性差やライフステージを必ずしも意識していない場合も多く, 性差という視点から病態や治療を見直してみると,新しい発見や知見が得られる可能性がある。実際,成書をあたっても,例えば Table 1 のように性差の視点から整理された記載は極めてそしい. また, Table 1 から女性では多くの内分泌代謝疾患の好発年齢が更年期世代と重なっていることがわかる. 女性は 40 代半ば以降の更年期に様々な自律神経症状や精神神経症状を示すが, 内分泌疾患自体もまた多彩な自律神経症状や精神神経症状を示すため, 症状だけで内分泌疾患と不定愁訴や更年期症状との区別がつきにくい.内分泌検査項目は通常,生化学・血算等の検查一式に含まれず,別立てでオーダーする必要がある。すなわち内分泌疾患は,担当医が「内分泌疾患を疑う視点」を持ち,自発的に検查して初めて診断に結びつくという状況にある. すなわち, 内分泌疾患は疑う視点がなければ見えず,さらに女性では更年期や月経によって症状が修飾され, 内分泌疾患はその陰に隠れがちであることに注意が必要である。 以上が示すように, (1)内分泌代謝疾患では発症頻度と発症年齢や状況に性差があること, (2)女性では男性より内分泌疾患の発症頻度が総じて高いこと, (3)女性の内分泌疾患は, より若年で発症するか,あるいは月経不順や無月経から兆候が出やすいこと, (4)妊娠や産裖期に発症しやすい内分泌疾患があること, (5)内分泌疾患は疑う視点を持って検査しないと見つからないことが特徴として挙げられる. これらのポイントは, 日常診療において念頭におくことが大切である。 性差医療(女性専門外来)における内分泌代謝疾患次に,女性における性差医療の実践を行ってきた本学女性専門外来における, 内分泌代謝疾患の割合を見てみたい。 まず診療体制の背景だが,本学女性専門外来は東京女子医科大学東医療センター日暮里クリニックに開設され, 完全予約制の保険診療, 大学病院として鑑別診断を重視し,女性に頻度が高い愁訴に関連する各科の女性専門医達が連携し,女性を包括的に支 Table 1 Sex differences in the incidences and onset age or statuses of major endocrine and metabolic diseases. \\ The onset frequency of women is indicated as the onset frequency of men is 1 . We identified the peak onset age or status in women, and the differences of those criteria with those of men. 援する診療を 10 年間行ってきた. 2007 年 10 月から 2017 年 3 月末までに初診者数 5,241 名(再診を含め総受診者数のべ 61,983 名)と「女性専門外来」としては国内最大規模の診療実績を積んできた。女性専門外来自体が新しい取り組みであったため,当院女性専門外来にはテレビ,新聞,雑誌などからの取材が相次ぎ, 2007 年 10 月から 2017 年 3 月までに 130 件程のメデイア報道がなされた。(1)報道やインター ネット検索により全国各地や海外からも含め幅広いエリアからの受診者が来院したこと, (2)医師からの紹介よりも受診者が自主的あるいは知人や家族の勧めで受診するケースが多かったこと, (3)当院受診前に既に複数の医療施設を受診したが解決に至っていないケースが大多数であることが,当女性専門外来受診者の受療行動において特徴的な点だった。 ニュートラルな解析を行うため,大規模なメディ ア報道の影響によるバイアスがほぼなかった開設後 1 年間で臨床デー夕解析を行った. 総受診者数は 1,317 名, うち新患は 285 名. 年齢分布は 12 83 歳で, 20 30 歳代 $40 \%, 40 \sim 50$ 歳代が $41 \%$, 残り 19\% がその他の年代であった。全体の 68\%(195 名/285 名)が更年期症状を含むいわゆる不定愁訴を主訴に来院していた. うち $26.7 \%$ にあたる 52 名が, 当女性専門外来での鑑別診断後に他の器質的疾患を認めその治療を要した,その内訳を Figure 3 に示すが,甲状腺機能低下症, 甲状腺機能元進症, 副腎不全, 褐色細胞腫, 下垂体腫瘍, 下垂体卒中, 卵巣癌, 卵巣奇形腫, 白血病, 悪性リンパ腫, 悪性脳腫瘍, 乳癌,強皮症, シェーグレン症候群, 慢性膵炎, 硬膜下血腫, 重症貧血, 高血圧, 妊娠, 家族性地中海熱などを認めだ ${ }^{39433}$. Table 2 に示したように, 更年期症状を含む不定 Figure 3 Breakdown of Disease Causes of Undefined Complaints at Women-Specific Clinic of the Tokyo Women's Medical University (2007-2008). Modified from Katai M: Pitfalls in diagnosis and treatment of menopausal women. Journal of Clinical and Experimental Medicine (IGAKU NO AYUMI) 269: 11-15, 201943) Table 2 The proportion of endocrine diseases detected among patients with indefinite complaints at Women-Specific Clinic of the Tokyo Women's Medical University. Two hundred twenty-six female patients visited our outpatient clinic from October 2007 to September 2008, among whom 195 patients visited with indefinite complaints that included menopausal symptoms. 愁訴で女性専門外来を受診した 195 名のうち 52 名 (26.7\%) が鑑別診断後に器質的疾患が発見され, そのうち 43 名(器質的疾患者の $82.7 \%$ ) は内分泌疾患, 29 名が甲状腺機能異常で内分泌疾患の中で最多だった。すなわち不定愁訴とされていた患者の $22 \%$ に内分泌疾患, $15 \%$ に甲状腺機能異常が隠れていたことになる. 以下で,その要因を考察する.当女性専門外来受診者は内科, 婦人科, 精神科等の他診療科を受診後に当科を受診するケースがほとんどである.前医で採血検查はしていないか,検査していても生化学・血算等の一般検查で著変が見られなかった場合に女性患者がさらに多愁訴を訴えると「採血結果から内科的には問題ないので, そうした症状はストレス(あるいは更年期,メンタル,自律神経,等)のせいでしょう」とされていた例が多い。内科的には問題ないとされた根拠である一般検査項目には内分泌検査 が含まれていない,内分泌疾患は精神症状を伴うことが少なくない,更年期症状には愁訴のほとんどの症状が含まれること等が, 診断のピットフォールとなり, 内分泌項目は未検查のまま「内科的に問題なし」あるいは「精神的な問題」や「更年期障害」とされている状況がある ${ }^{39) ~ 43) . ~}$ Table 2 で示した不定愁訴とされていた当女性専門外来受診者の $15 \%$ に甲状腺機能異常が隠れていたというデー夕を検証するため,一般女性での甲状腺機能低下傾向の頻度を Figure 4 に示しだ ${ }^{44}$. 更年期世代では $10 \%$ 近くに機能低下傾向を認めており,私たちのデー夕は愁訴があり受診している女性が母集団であること,機能立進も含んだ数字であること (当科のデータを甲状腺機能低下だけで解析すると不定愁訴女性の $13 \%$ )から納得がいく数字と考える. また, Table 3 に示すように, 甲状腺機能異常と更年期症状は自他覚症状がオーバーラップするもの が多く ${ }^{45)}$ ,甲状腺機能検査をせずには鑑別が困難である.よって, 不定愁訴とされがちな自律神経症状,更年期症状,メンタル症状で受診した女性への鑑別診断として,一般検査で診断がつかない場合は,甲状腺機能検査 (FT4, TSH 測定)を含めた検討がされるべきだと考える $45 \sim$ 〜47). 更年期女性を診療する場合は更年期症状はほぼ必発であり,愁訴の原因を「更年期障害(のみ)」と診断する前に,必ずその他の疾患の併存がないかを除外診断することの重要性を改めて示すデー夕と考える. ## おわりに 内分泌代謝はホメオスタシスを保つ上で男女ともに必要な機能であるが,性差を形成する性ホルモンは性別や年齢に伴い分泌動態が大きく異なる。本稿で性差の視点から内分泌代謝疾患の頻度, 好発時期をまとめた。 女性では男性より内分泌疾患の発症頻度が総じて Figure 4 Percentage of women with elevated TSH levels depends on age. Adapted from reference 44.高いこと,女性における内分泌代謝疾患の好発時期は, 疾患によって $20 \sim 30$ 代の若年, 妊娠や出産後,更年期世代と大別される。内分泌代謝疾患の発見やフォローには,性差の視点を持つこと,ライフイべントやライフステージを考慮することが重要である。特に女性では,月経周期,妊娠・出産,更年期に伴い女性ホルモンが劇的に変化する。妊娠期・産裖期,更年期等に他の疾患が併存する場合は,その他の疾患の症状が隠れてしまうことをすべての診療科の医療者が,より明確に認識する必要があると言える。特に更年期女性では更年期症状に隠れた他の疾患が併存していないかの除外診断は必須であり,特に更年期症状とオーバーラップする甲状腺機能異常をはじめ,一般検查項目には含まれない内分泌疾患が隠れていないかという点には細心の注意を要する. 当科のエビデンスは, こうした性差医学の視点を日常臨床に取り入れることで,鑑別診断のスキルを全般的に向上させ,特に女性の内分泌疾患の診断精度を引き上げることを示した。 性差医学・医療が日本へ導入されてから今年で 20 年が経つ. 性差医療のこれまでの経験とエビデンスの蓄積を, 次世代へと継承していく必要がある.現在, 欧米では性差医学がより積極的に医学教育へ組み达まれ e-learning 教材も公開されているが 48 49),日本では性差医学を卒前医学教育に取り入れている大学医学部が複数ある ${ }^{6(39950) 51}$ ものの, その数はまだ十分とは言い難い。日本でも性差医学教育を全国の大学の卒前教育として普及させるためには,まず医学部のモデルコアカリキュラム制定時に「性差」の項目が導入されることが急務であると考える。その必要性の理由や根拠として, 現在, 国や都道府県の政策や健康計画には性差医療の必要性が既に明文化 Table 3 Similarities between menopausal symptoms and thyroid dysfunction symptoms. & Menopause & Hyperthyroidism & Hypothyroidism \\ Adapted from Katai M: Women and Thyroid Disease. Biken Journal 38: 3-8, 201545) され(22 -55), 国の先進大型研究予算 23 36) 等に性差医学の視点が反映されるようになっていることを,最後に付記する。 ## 謝辞 性差医療を日本へ導入後間もなくから手ほどきを下さいました天野恵子先生に深謝申し上げます。日本性差医学・医療学会の下川宏明理事長と国際性差医学会の中心的存在である Prof. Vera Regitz-Zagrosekのこれまでの温かいご指導に, 日本性差医学会, 国際性差医学会,性差医療情報ネットワーク(NAHW)の皆様のご支援ご指導に深謝致します。また本学においてご指導を賜りました東医療センター性差医療部初代部長の川真田美和子名誉教授に, 旧性差医療部常勤医の佐藤眞理子先生・近藤奈々絵先生, その他の本学女性専門外来歴代ご担当医の皆様 (新井寧子先生, 菊池尚子先生, 小板橋佐知子先生, 山田朱織先生, 佐藤美枝子先生, 都もと子先生,加茂登志子先生, 楠山真理子先生, 轟慶子先生, 大井のり子先生, 宮村康子先生, 加塚希先生, 山田理恵子先生,横田仁子先生, 平久美子先生, 能登谷淳子先生, 平井元い子先生), 武正美奈子医局秘書, 統計解析をご担当下さいました故柳堀朗子非常勤講師, 旧日暮里クリニックのスタッフ一同, 研究プロジェクトや地域実習を性差医療部で行った歴代の本学医学部学生の皆様に, 心からの感謝を込めて厚く御礼申し上げます。 開示すべき利益相反はない. ## 文 献 1)片井みゆき:内分泌・代謝 Overview.「女性診療外来マニュアル」(天野恵子, 松田昌子, 藤井美穂ほか編), pp160-163, じほう,東京 (2006) 2) Lamberts SWJ: Endocrinology of Aging. In Williams Textbook of Endocrinology 12 th (Shlomo Melmed et al eds), pp1219, Elsevier Saunders, Philadelphia (2011) 3)片井みゆき:女性ホルモンから考えるキャリアプラン. へるすあっぷ $21354: 40,2014$ 4)天野恵子:性差医療の現状と展望. 治療学「性差医療」39:225-227, 2005 5)片井みゆき:現在, なぜ性差医学・医療なのか? PTM「最新の疾患別治療マニュアル」13(2): 2005 6)片井みゆき:性差医学・医療をご存じですか?性差医学・医療の総説. シーメンスサイエンティフィックインフォメーション 26 : 2-10, 2016 7) Ridker PM, Cook NR, Lee I-M et al: A randomized trial of low-dose aspirin in the primary prevention of cardiovascular disease in women. $\mathrm{N}$ Engl J Med 352: 1293-1304, 2005 8) Hayden M, Pignone M, Phillips C et al: Aspirin for the primary prevention of cardiovascular events: a summary of the evidence for the U.S. Preventive Services Task Force. Ann Intern Med 136: 161-172, 2002 9) Pearson TA, Blair SN, Daniels SR et al: AHA guidelines for primary prevention of cardiovascular disease and stroke: 2002 update: consensus panel guide to comprehensive risk reduction for adult patients without coronary or other atherosclerotic vascular diseases. Circulation 106: 388-391, 2002 10) Mosca L, Appel LJ, Benjamin EJ et al: Evidencebased guidelines for cardiovascular disease prevention in women. American Heart Association scientific statement. Arterioscler Thromb Vasc Biol 24: e 29-250, 2004 11)片井みゆき:「性差医学・医療」をご存じですか? Alter Talk 臨床連載「性差医学」講義シリーズ第 1 回 (2016) https://amn.astellas.jp/jp/astellasclub/ altertalk/clinical/001.html (Accessed May 12, 2019) 12)片井みゆき:どうして「性差医学・医療」が必要になったのか? Alter Talk 臨床連載「性差医学」講義シリーズ第 2 回 (2017) https://amn.astellas.jp/jp/ astellasclub/altertalk/clinical/002.html (Accessed May 12, 2019) 13)片井みゆき:性差に関する追加研究がもたらしたもの. Alter Talk 臨床連載「性差医学」講義シリー ズ第 3 回 (2017) https://amn.astellas.jp/jp/ astellasclub/altertalk/clinical/003.html ( Accessed May 12, 2019) 14)「女性における虚血性心疾患一成り立ちからホルモン補充療法まで」(天野恵子, 大川真一郎編, 村山正博監), 医学書院, 東京 (2000) 15)片井みゆき:プライマリケア医が更年期女性を診るポイント一女性専門外来での実践一. 日本医事新報 $4186: 1-7,2004$ 16)片井みゆき:女性が求める女性のための医療とは一女性が求める医療から, 皆が求める医療まで. クリニカルプラクティス $24: 713-716,2005$ 17)第 14 章癒し手としての女性医師.「女性医師としての生き方一医師としてのキャリアと人生設計を模索して一」(片井みゆき訳編, 櫻井晃洋監), pp197216, じほう,東京(2006) 18)片井みゆき:更年期女性の診療も担う女性専門外来. 新医療 34 : 165-168, 2007 19)片井みゆき, 川真田美和子, 加茂登志子ほか:「性差医療部」の立ち上げについて一東京女子医科大学東医療センターでの取り組み一. 「性差医学・医療学会第 1 回学術集会プログラム・抄録集」 67, 2008 20)大学病院初の「性差医療部」東京女子医科大学東医療センター・日暮里クリニック. Japan Medicine $1192: 1,2007$ 21)片井みゆき:性差医療と女性専門外来. 診断と治療 $98: 1079-1085,2010$ 22)片井みゆき:性差医療その概念と実践性差医療に基づく女性専門外来. Credentials 70:9-11, 2014 23)時代を支える女性医師 28 片井みゆき。DOCTOR'S MAGAZINE 192 : 22-24, 2015. http://www. nahw.or.jp/wp-content/uploads/2015/11/92385a6b 7329f7585e09f8e8e8726c7c.pdf (Accessed May 12, 2019) 24)下川宏明:性差医療その概念と実践性差医療の歴史と循環器疾患の性差. Credentials 70:6-9, 2014 25)日本性差医学医療学会ホームページ. http://www. jagsm.org (Accessed May 12, 2019) 26)「循環器領域における性差医療に関するガイドライン」日本循環器学会 2008-2009 年合同研究班報告. http://www.j-circ.or.jp/guideline/pdf/JCS2010tei. h.pdf (Accessed May 12, 2019) 27) IGM Congress 2019. https://igm-congress2019.at (Accessed May 12, 2019) 28)難病情報センター:http://www.nanbyou.or.jp/ entry/5461 (Accessed May 12, 2019) 29)有田和徳, 湯之上俊二, 富永篤ほか:先端巨大症疫学・病態・診断. 脳外誌 $\mathbf{1 6}: 678-685,2007$ 30)福田いずみ:内分泌疾患における性差. 医学のあゆみ $261: 259-264,2017$ 31) Losa M, Mortini P, Barzaghi R et al: Endocrine inactive and gonadotroph adenomas: diagnosis and management. J Neurooncol 54: 167-177, 2001 32)一般社団法人日本内分泌学会ホームページ. 内分泌の病気. http://www.j-endo.jp/ippan/contents/03_ disease.html (Accessed May 12, 2019) 33)吉田克己,木曾喜則:亜急性甲状腺炎と無痛性甲状腺炎の診療. 日本内科学会雑誌 $86: 1156-1161$, 1997 34)近藤奈々絵, 片井みゆき, 佐藤眞理子ほか:女性専門外来における甲状腺乳頭癌の有病率と診断過程についての後ろ向き解析. 東京女子医科大学雑誌 $88: 51-56,2018$ 35)高柳涼一:内分泌性高血圧症の疫学:本邦における全国疫学調査. 日本内科学会雑誌 $95: 622-628$, 2006 36) Izumiyama H, Gotyo N, Fukai $\mathbf{N}$ et al: Glucoseresponsive and octreotide-sensitive insulinoma. Intern Med 45: 519-524, 2006 37)泉山肇, 平田結喜緒:膵内分泌腫瘍の画像診断.膵臟 $23: 665-670,2008$ 38)奥山朋子,寺内康夫:糖尿病における性差医療. 血糖. 糖尿病 $\mathbf{5 6}: 522-524,2013$ 39)片井みゆき:総説性差医療.日本病院薬剤師会雑誌 $48: 157-161,2012$ 40)片井みゆき:『更年期のせい』と決めつけない.へるすあっぷ $21361: 40,2014$ 41)片井みゆき:女性患者の診察どのように診るべきか. Heart View 19:108-113,2015 42)片井みゆき:インタビュー第一線で活躍する女性性差医療の発展と悩める女性たちのために. 致知 $3: 98-100,2017$ 43)片井みゆき:更年期診療 UPDATE 更年期女性を診療するうえでのピットフォール:東京女子医大女性専門外来での経験から。医学のあゆみ 269 : 11-15, 2019 44) Maze NA: Interaction of estrogen therapy and thyroid hormone replacement in postmenopausal women. Thyroid 14(Suppl 1): S27-S34, 2004 45)片井みゆき:女性と甲状腺疾患. 微研ジャーナル $38: 3-8,2015$ 46)片井みゆき:女性と甲状腺.アニムス 19 : 14-17, 2014 47)片井みゆき:女性のライフステージと臨床検査甲状腺の疾患. 臨床検査 62:955-961,2018 48) eGender Medicine (Gender Medicine in a World Wide Framework). http://egender.charite.de/ (Accessed May 12, 2019) 49) Ventura-Clapier R, Dworatzek E, Seeland U et al: Sex in basic research: concepts in the cardiovascular field. Cardiovasc Res 113: 711-724, 2017 50) Katai M, Sakurai A, Yokoyama S et al: Introduction of gender and sex specific medicine into the medical education curriculum in Japan. Gender Medicine 3(Suppl): 57, 2006 51)下川宏明, 天野恵子, 石倉文信ほか: 性差医学・医療が果たす役割と今後の期待. The Mainichi Medical Journal 13 : 42-45, 2017 52)片井みゆき:『女性の健康週間』によせて。へるすあっぷ $21365: 41,2014$ 53)内閣府男女共同参画局 : 性差に応じた健康支援の推進. 男女共同参画白書平成 25 年. http://www. gender.go.jp/about_danjo/whitepaper/h25/zentai/ html/honpen/b2_s11_04.html (Accessed May 12, 2019) 54)東京都:生涯を通じた男女の健康支援.「東京都男女平等参画推進総合計画 I 東京都女性活躍推進計画平成 29 年 3 月」, pp143-154 (2017) http://www. seikatubunka.metro.tokyo.jp/danjo/danjobyodo/ files/0000000929/jokatsu_full.pdf http://www. metro.tokyo.jp/INET/KONDAN/2016/06/40q6m 501.htm (Accessed May 12, 2019) 55)東京都東京ウィメンズプラザ : 平成 30 年度東京都女性活躍推進事業「働く女性応援セミナー」http:// www1.tokyo-womens-plaza.metro.tokyo.jp/ seminar/tabid/317/Default.aspx ( Accessed May 12, 2019) 56)国立研究開発法人日本医療研究開発機構:女性の健康の包括的支援実用化研究事業-Wise. https:// www.amed.go.jp/koubo/04/02/0402C_00015.html (Accessed May 12, 2019) & $89(6)$ \\
tokyojoshii
cc-by-4.0
Tokyo Women's Medical University
-
# 性差医療 ## (4)循環器疾患における性差 東京女子医科大学循環器内科 佐藤加炛子 (受理 2019 年 7 月 1 日) Gender Medicine (4) Gender Differences in Cardiovascular Disease Kayoko Sato Department of Cardiology, Tokyo Women's Medical University, Tokyo, Japan Differences in cardiovascular disease are found between the genders. In women, it is known that estrogen has both indirect and direct protective effects on the cardiovascular system. This includes a decrease in lowdensity lipoprotein cholesterol (LDL-C), an increase in high-density lipoprotein cholesterol (HDL-C), the vasodilatation response by endothelial Nitric Oxide Synthase (eNOS) synthase, and prostacyclin synthesis. Many cases of coronary spastic angina and acute coronary syndrome (ACS) have been observed during the menstrual and the late luteal phases of the menstrual cycle, corresponding with low levels of estrogen. After menopause, the risk of atherosclerosis and associated conditions such as; dyslipidemia, hypertension, obesity, diabetes, $\mathrm{T}$ cell activation, and adhesion molecules, increase. Consequently, the risk of a cardiovascular event also increases. In addition, regarding the pathological mechanism underlying ACS, erosion is observed most prominently during pre-menopause, whereas plaque rupture is observed in post-menopause. Furthermore, microvascular angina is often found in menopausal women displaying various symptoms, thus a diagnosis may be difficult. We recognize a decrease in vascular endothelial function and the coronary flow reserve and a high level of lactic acid in the coronary sinus as diagnostic criteria. Regarding problems associated with the "super-aging" society, there are many elderly female patients with HFpEF (heart failure with preserved ejection fraction) who have diastolic dysfunction. Also well-known are cases of atherosclerosis and osteoporosis progressed by common risk factors, and recently, vascular bone disease. There are characteristics in women for microvascular angina and heart failure, as well as ischemic heart disease, due to atherosclerosis caused by the sex hormone environment in later life stages. Considering genderspecific medicine in the prevention and treatment of cardiovascular disease is important for healthy aging of women. Key Words: gender-specific medicine, estrogen, $\mathrm{T}$ cell, atherosclerosis, microvascular angina $ 162-8666 東京都新宿区河田町 8-1 東京女子医科大学循環器内科 E-mail: [email protected] doi: 10.24488/jtwmu.89.4_73 Copyright (C) 2019 Society of Tokyo Women's Medical University. This is an open access article distributed under the terms of Creative Commons Attribution License (CC BY), which permits unrestricted use, distribution, and reproduction in any medium, provided the original source is properly credited. } ## はじめに 循環器疾患は発症率や病態,社会的背景を含む臨床像,またライフステージにより性差を認める。その重要性を考慮した性差医学 (gender-specific medicine) が 1980 年代後半から米国 NIH (National Institute of Health)を中心に始まり,2004 年に米国心臓病協会(American Heart Association:AHA)より 「女性のための心血管疾患予防ガイドライン $]^{1}$ が発表された. わが国においても 1990 年代後半より性差医学の重要性が認識されて, 2010 年に日本循環器学会から「循環器領域における性差医療に関するガイドライン $\rfloor^{2}$ が発表され, 世界一平均寿命の長い日本女性における心血管疾患の性差研究の重要性が認識された. 女性ホルモンであるエストロゲンには, 心血管に対する様々な間接的保護作用と直接的保護作用があることが知られている。閉経によりホルモン環境が激変すると, 脂質異常症,高血圧症,肥満,糖尿病などの動脈硬化リスクが増加し,それを基盤に心血管イベントリスクが上昇する。また,最近では骨粗鬆症と動脈硬化や血管石灰化の関連である骨・血管相関 (vascular bone disease)が明らかとなり,この点においてもエトロゲン欠乏による骨吸収立進が二次的動脈硬化進展をもたらすことが示唆される。本稿では,エストロゲンの心血管に対する作用と閉経前・更年期・高齢女性における動脈硬化への影響や,性差の認められる代表的な虚血性疾患について概説する。 ## 1. エストロゲンの心血管に対する作用 エストロゲンには様々な心血管系に対する間接的保護作用と直接的保護作用があることが知られている $(\text { Figure 1 })^{3)}$. エストロゲンの間接的保護作用は,肝臟, 小腸, 末梢組織に作用し脂質代謝に影響を及ぼす。肝臓や末梢組織の low-density lipoprotein (LDL)受容体数および活性を増加させ,肝性トリグリセリドリパーゼ (hepatic triglyceride lipase : HTGL)の活性を抑制することで血中 LDL コレステロールを低下させる. また, 肝臟, 小腸における highdensity lipoprotein cholesterol (HDL-C) の主要構成蛋白である apolipoprotein fraction A-I(アポ AI)の合成も促し,血中 HDL-C 増加をもたらす。さらに, リポ蛋白 (a) (Lipoprotein (a))や small dense LDL を減少させる効果もある。 エストロゲンは, 血管平滑筋細胞や血管内皮細胞,心臟に発現するエストロゲンレセプター $\alpha$ (estrogen receptor $\alpha: \mathrm{ER} \alpha$ ) やエストロゲンレセプター $\beta$ (estrogen receptor $\beta: \mathrm{ER} \beta$ ) に結合し直接的保護作用を発揮する ${ }^{4}$. 血管内皮細胞では,内皮依存性血管拡張反応である血流依存性血管拡張反応 (flowmediated diameter: FMD), 内皮型 NO 合成酵素 (endothelial NO synthase : eNOS) 活性, プロスタサイクリン (prostacyclin:PI)産生, 内皮由来過分極因子 (endothelium-derived hyperpolarizing factor : $\mathrm{EDHF})$ 産生をそれぞれ増加させる。一方,エンドセリン-1 (endothelin-1:ET-1) 産生や内皮細胞のアポトーシス,接着分子発現を抑制する。また骨髄からの内皮前駆細胞 (endothelial progenitor cell : EPC) の増加も促す ${ }^{5}$. 血管平滑筋細胞に対する直接作用としては血管拡張作用を示し, また血管障害後の血管平滑筋細胞の遊走や増殖を抑え新生内膜肥厚を抑制する ${ }^{366}$. 最近ではエストロゲンが血管収縮,血管肥厚, 動脈硬化促進, 心筋肥大, 心筋収縮力の増大作用のあるアンジオテンシン II の受容体である AT1 受容体の血管平滑筋細胞における発現を抑制することが明らかとなった ${ }^{788}$.これら内因性エストロゲンによる心血管保護作用により閉経前女性は心血管疾患の発症が少ないと考えられている。 ## 2. 性周期および更年期以降におけるエストロゲ ンの心血管に対する影響 閉経前女性の性周期にはエストロゲンの低い月経期,エストロゲンの高い卵胞期,排卵期,エストロゲンが低下しプロゲステロンの増加する黄体期とあり,この内因性女性ホルモンの月経周期による変動が心血管に影響を及ぼす. 若年女性では, FMD が性周期によるエストロゲン変化に伴い変動することが または Akt/PKBを介する作用と考えられている.実際, 閉経前女性の冠攣縮性狭心症や急性冠症候群 (acute coronary syndrome:ACS)の発症, 運動負荷による ST 変化はエストロゲン分泌の低い黄体末期から月経期に多く (Table 1$)^{10) \sim 12)}$, 閉経後 15 年で急激に冠動脈疾患罹患率は増加して 75 歳では男女同等となる $(\text { Figure 2 })^{13}$ 。 また,男女とも動脈硬化進展に伴い $\mathrm{ER} \alpha$ および $\mathrm{ER} \beta$ の血管壁の発現は低下し $^{1415)}$, ER 遺伝子プロモーター領域の DNA methylation や ER 遺伝子のユビキチン化が ER 不活性化をもたらすと考えられている ${ }^{16}$ 。一方,女性で ER $\beta$ の発現が年齢に関係なく石灰化を伴う冠動脈硬化病 ## Liver $L P(a) \downarrow$ small sense LDL $\downarrow$ Lipoprotein oxidation $\downarrow$ Figure 1 The protective direct and indirect effects of estrogen. eNOS, endothelial NO synthase; PI, prostacyclin; EDHF, endothelium-derived hyperpolarizing factor, ET-1, endothelin-1; Treg, regulatory T cell. Table 1 Physiological circulatory function and diseases in the menstrual cycle. RPP, rate-pressure product; FMD, flow-mediated dilatation. 変や閉経後の進行した動脈硬化病変で増加を認め $^{17}$, エストロゲンの $\mathrm{ER} \alpha$ 依存的な抗動脈硬化作用が ER を介するシグナルにより制御されている可能性も示唆された. さらに,女性で $\mathrm{ER} \beta$ 遺伝子多型が高血圧や心血管リスクと関連するとの報告や ${ }^{1819}$,男性では $\mathrm{ER} \alpha$ 遺伝子多型が心血管イベントリスクと相関を認め ${ }^{20)}, 17 \beta$-エストラジオール溶出性ステントが再狭窄予防に有効(EASTER trial)と報告された ${ }^{21} . \mathrm{ER} \beta$ と $\mathrm{ER} \alpha$ をするシグナルが独立して心血管機能を調節している可能性もあるが詳細は解明されていない.女性は閉経すると血中エストロゲンレベルは急激に低下し, 約 2 年で男性の血中レベルょりやや低下する. 男性打よび閉経後の女性の内因性エストロゲンは副腎性男性ホルモンであるデヒドロエピアンドロステロン(dehydroepiandrosterone : DHEA)よりアロマターゼにより変換され生成される (Figure 3). 男女とも DHEA は思春期以降, 加齢とともに減少する aging markerであり, NOを介して抗動脈硬化作用を発揮すると考えられている22).このように男女とも内因性エストロゲンが心血管保護作用を持つと考えられる。 Figure 2 Incidence of cardiovascular disease and estrogen levels. Modified from reference 13). Figure 3 Pathways of steroid hormones. ## 3. エストロゲンの動脈硬化進展に関わる炎症細胞への作用 自己免疫性疾患における性差は広く知られているが,血管の慢性炎症である動脈硬化に対しても性ホルモンは深く関与している。動脈硬化の進展には $\mathrm{CD} 4^{+}$helper $\mathrm{T}$ cell (Th)のうち炎症性サイトカインを産生する IFN $\gamma^{+}$Th1 や IL17 ${ }^{+}$Th17 は促進的に, $\mathrm{CD} 4^{+} \mathrm{CD} 25^{+}$制御性 T 細胞 (Treg) は抑制的に働くと考えられている ${ }^{23}$. エストロゲンは $\mathrm{TNF} \alpha, \mathrm{INF} \gamma$ などの炎症性サイトカイン, アディポカイン, 接着分子, eNOS, ET-1,酸化ストレスなどの血管炎症を抑制するとともに ${ }^{24}$, T 細胞の Th1/Th2 バランスに も影響を及ぼすことが知られている。低エストロゲン状態で Th1 優位に, 高エストロゲン/プロゲステロン状態では Th2 優位に分化する。また,エストロゲンは Treg を増加させることも知られる ${ }^{25)}$. 一方, DHEA は Th1, Th2ともに抑制する. 自己免疫性疾患では Th1 Th17 優位の関節リウマチは妊娠で宽解し, Th2 優位の SLE は妊娠で増悪する ${ }^{26}$. 我々の更年期女性における検討では, 活性化した接着分子 P-selectin glycoprotein ligand-1 (PSGL-1) 陽性の $\mathrm{CD} 4{ }^{+} \mathrm{T}$ 細胞がエストラジオール/ERを介する刺激で血管内皮細胞障害を誘導し ${ }^{27)}$ (Figure 4),女性の閉経以降に急速に進展する動脈硬化の一つの機序と Figure 4 Activated PSGL-1+ ${ }^{+} \mathrm{CD} 4^{+} \mathrm{T}$ cells induced endothelial cell apoptosis in perimenopausal women. ## 考えられた。 ## 4. 女性における動脈硬化病変と虚血性心疾患の特徵 1)急性冠症候群発症の病理学的機序冠動脈の動脈硬化性変化は,5~10歳の幼少期より脂肪線状として始まり,20 歳ごろには隆起性線維脂質性プラークとなり,中年期には様々な動脈硬化病変を認めるようになる。急性冠症候群(ACS)発症の病理学的機序は, 冠動脈プラークの不安定化からプラーク破綻 (plaque rupture) やプラークびらん (plaque erosion) が起こるためと考えられている (Figure 5). 不安定プラークの特徴は薄い線維性被膜に被われた大きな脂質コア(lipid core)とマクロファージ・T 細胞・好中球などの炎症細胞集積や血管新生,血管内皮細胞や血管平滑筋細胞のアポトー シスなどの特徴を認める (Figure 6 ${ }^{282}{ }^{29}$. プラークを不安定化する因子としては「血管内皮細胞の機能障害や傷害」,「炎症性細胞のプラーク内集積と活性化」,「局所血栓形成能の立進」が上げられる ${ }^{30}$. 剖検例の急性心筋梗塞の責任冠動脈病変は $60 \%$ にプラーク破綻,40\% にプラークびらんであるが,閉経前女性における ACS の病理学的原因はプラークびらんが多く ${ }^{31}{ }^{32}$, 血管内皮細胞のアポトーシスなどが血管傷害に重要と考えられる ${ }^{27} 33$ ). 2)動脈硬化リスク因子と虚血性心疾患の性差 日本人女性は平均 50 歳で閉経するが,その前後 5 年 $(45 \sim 55$ 歳)の更年期からエストロゲンが低下し,脂質異常症, 高血圧, 糖尿病, 肥満などのリスク因子が増加し血管機能の低下を生じる。動脈硬化リスク因子の種類は男女で同じであるが,リスク因子ごとの発症率や心血管イベントに対する危険率には性差が認められている. 脂質異常症は, 特にLDL-コレステロールが女性は 50 歳代以降で男性よりむしろ高くなる.女性は男性に比較して, 低 HDL-コレステロール血症,高トリグリセライド血症の心血管系疾患への関与が大きい。高血圧症は閉経前の女性では罹患率が低いが, 経口避妊薬服用により高血圧が増加するので注意が必要である。また, 収縮期血圧が $10 \mathrm{mmHg}$ 上昇すると虚血性心疾患罹患・死亡の危険度は, 男性では 15\% 増加するが女性では明らかではない。糖尿病は, 耐糖能障害の段階から虚血性心疾患のリスクであるが,女性ではその傾向が特に高い。糖尿病のある女性では, 冠動脈疾患発症に対する相対危険度は男性の 2 倍, 糖尿病のない女性の 4 倍である。さらに,女性は冠動脈疾患死の相対危険度は男性の 1.5 倍である ${ }^{3445)}$. 糖尿病のある女性のリスクを高めている原因の一つに,糖尿病の女性は男性に比べて十分な治療を受けておらず,コントロー ル不十分である傾向がある. 日本人の初回発症心筋梗塞のリスク因子は,男性では高血圧・喫煙・糖尿病の順であるが,女性では喫煙・糖尿病・高血圧の順であり ${ }^{36)}$ ,女性では糖尿病の治療が非常に重要である ${ }^{37)}$.女性の虚血性心疾患の死亡率は 50 歳代までは男性の $1 / 3$ であるが, 高齢期にはリスク因子の性差,虚血性心疾患の死亡率ともに差が縮小し,むしろリスク因子保有頻度が高 Erosion $30-40 \%$ Plaque rupture $60 \%$ Calcified nodule $10 \%$ Figure 5 Pathology of acute coronary syndrome (ACS). Figure 6 Characteristics of unstable plaque. Stable plaque has a thick fibrous cap, less lipid core, less inflamed cells and no thrombus. Whereas, unstable plaque contains a large lipid core with hemorrhage, neoangiogenesis, apoptosis of smooth muscle cells and endothelial cells, and many inflamed cells. A thin fibrous cap overlies the lipid core. く高齢で発症すると予後は不良である。また,男性では心筋梗塞として発症することが多いのに対し,女性では非典型的症状を主訴とする狭心症として発症することが多く, 発症から受診・治療までの時間が遅延することも大きな問題である. 3)冠攣縮性狭心症 冠動脈に動脈硬化による狭窄病変がなく,攣縮により胸痛や心電図で ST 上昇が生じる冠攣縮性狭心症 (coronary spastic angina) の頻度は, 男性に比較的多い. 国内の 1,525 例の冠攣縮研究会のレジストリ研究では男性 $77 \%$, 女性 $23 \%$ であった. 女性にお Figure 7 Event-free survival from cardiovascular (CV) events by coronary artery disease (CAD) and persistent chest pain (PChP). CV events were defined as CV death, myocardial infarction, congestive heart failure, or stroke. Modified from reference 40. いて契煙の頻度が少ないことも影響している.また,女性では $75 \%$ 以上の器質的狭窄が少なく, 冠攣縮誘発試験では,限局型よりもびまん性の冠攣縮が多いのも特徴である。閉経前女性の冠攣縮性狭心症の発作が月経周期内の内因性エストロゲンレベルと密接に関係し,黄体末期から月経期にかけて増加し,卵胞期にかけて減少することは前述したとおりである ${ }^{38}$ .女性の冠攣縮性狭心症にエストロゲン製剤の投与が有効である場合が報告されている ${ }^{39}$. 4)微小血管狭心症 微小循環狭心症(microvascular angina)は,男女比 $1: 5$ で女性 (特に閉経後) に多い疾患である。冠動脈に有意狭窄が明らかでなく, $100 \mu \mathrm{m}$ 以下の微小血管における収縮立進や拡張反応不全による不均一な血管拡張に伴う凍結現象が起こることにより生じると考えられており ${ }^{4041)}$, 冠攣縮性狭心症に合併することもある。発症年齢は 30 代半ばから 60 代半ば,特に 40~50 代の更年期前後の女性に多い. 症状は一般的な狭心症症状に加立, 安静時や非典型的な場合, 30 分以上遷延することもあり判断の難しい症例も多い. 微小血管収縮により不定愁訴に近い, 消化器症状,あごの痛み,肩甲骨痛,後頭部痛などの多彩な症状を呈する。また, 症状は精神的ストレス, 糖尿病, 脂質異常症, 高血圧症, メタボリックシンドローム,喫煙などで誘発される,診断は血管内皮機能である反応性充血指数 (reactive hyperemia index : RHI)の低下, PET (positron emission tomography) による冠血流予備能低下, 心臟カテーテル検査における冠血流予備能低下やペーシング負荷時の冠静脈洞の乳酸値の高値が有用である。現在のところ は,確立した治療はなく,狭心症の特効薬である硝酸片や発作時のニトロペンの有効率は $50 \%$ 以下で, ジルチアゼムが奏効する例が多い。十分な効果が得られない場合は,スタチンや $\mathrm{ACE}$ 阻害剤等 $\mathrm{NO}$ 産生を増加させ得る薬剤,メタボリック症候群などでは運動・食事療法,適度な飲酒と禁煙指導,また精神的サポートが有用である。予後は動脈硬化性の狭心症と違 , The Women's Ischemia Syndrome Evaluation Study(WISE Study)にエントリーされた 673 例の平均 5.2 年の検討では, 有意狭窄もなく虚血所見のない患者群は心筋梗塞や脳卒中になることは少ないが,胸痛の消退しない患者群では心血管イベント発症率が 2 倍強あり ${ }^{42}$, 注意深い診断治療が必要である (Figure 7). ## 5. 超高齢化社会の問題点:心不全, 骨・血管相関 ## とエストロゲン 社会の高齢化率は 65 歳以上の高齢者の割合で表すが, 2012 年日本の高齢化率は $24.1 \%$ (男性 $21.2 \%$,女性 26.9\%)であった.「高齢社会」は高齢者 $14 \%$以上と WHO で規定されており, 日本は「超高齢化社会」といえる.超高齢化社会に伴い死因に占める心不全の割合は増加しており,女性の心不全患者の平均年齢は男性より高い。心不全の基礎心疾患危険因子は,男性は虚血性心疾患,女性は高血圧,糖尿病, 肥満が多い。女性の心不全は左心収縮能が $\mathrm{EF}$ (ejection fraction) $\geqq 50 \%$ と保たれており拡張不全が主な病態である HFpEF(heart failure with preserved ejection fraction) が多く, 予後は良い. 男性は左室拡大, $\mathrm{EF}<40 \%$ の左室収縮能低下を呈する $\mathrm{HFrEF}$ (heart failure with reduced ejection frac- Figure 8 The common risk factors in vascular bone disease. tion)が主であることが多い. 女性の心不全の特徴である $\mathrm{HFpEF}$ には筋蛋白遺伝子の発現や細胞内 Caイオンの変動等に対するエストロゲンの影響が心筋のリモデリングへ関連していることが示唆されている ${ }^{43444}$. 高齢者では動脈硬化が進展し血管石灰化や骨粗鬆症が多く認められる。骨粗鬆症に対してエストロゲンは破骨細胞の $\mathrm{ER \alpha} \alpha$ 介してFas リガンドの発現を促進し,アポトーシスを誘導して破骨細胞寿命を短縮させる ${ }^{45}$. 卵巣摘除や閉経後の女性では, エストロゲン低下により骨吸収の元進,骨形成の低下による骨量の減少が進行する。高齢女性では,動脈硬化と骨粗鬆症は共通の要因により進展するため,骨・血管相関 (vascular bone disease) が強いことが指摘されているが 4 (Figure 8),まだ解明に至っていないことも多い. $ \text { おわりに } $ 現在,わが国における循環器疾患の男女比は, 出生時には 15\% ほど男性が多いが,50 歳の閉経期にはほぼ同数, 高齢者では女性が増加し 80 歳では女性が男性の 2 倍となる。また,女性はライフステージでの性ホルモン環境により, 動脈硬化進展による虚血性心疾患のみならず,微小血管狭心症や心不全に特徵を認める。女性のウェルエイジング(wellaging)には, gender-specific medicine を考慮した心血管疾患の予防と治療が今後ますます重要となる。開示すべき利益相反状態はない. $ \text { 文献 } $ 1) Mosca L, Appel LJ, Benjamin EJ et al: Evidencebased guidelines for cardiovascular disease prevention in women. Circulation 104: 672-693, 2004 2)鄭忠和, 天野惠子, 上野光一ほか: Guidelines for Gender-Specific Cardiovascular Disease (JCS2010). JCS $74: 1085,2010$ 3) Mendelsohn ME, Karas RH: The protective effects of estrogen on the cardiovascular system. N Engl J Med 340: 1801-1811, 1999 4) Meyer MR, Barton M: ERalpha, ERbeta, and gpER: novel aspects of oestrogen receptor signalling in atherosclerosis. Cardiovasc Res 83: 605-610, 2009 5) Hamada H, Kim MK, Iwakura A et al: Estrogen receptors alpha and beta mediate contribution of bone marrow-derived endothelial progenitor cells to functional recovery after myocardial infarction. Circulation 114: 2261-2270, 2006 6) Orshal JM, Khalil RA: Gender, sex hormones, and vascular tone. Am J Physiol Regul Integr Comp Physiol 286: R233-R249, 2004 7) Nickenig G, Bäumer AT, Grohè $\mathrm{C}$ et al: Estrogen modulates AT1 receptor gene expression in vitro and in vivo. Circulation 97: 2197-2201, 1998 8) Liu HW, Iwai M, Takeda-Matsubara $Y$ et al: Effect of estrogen and AT 1 receptor blocker on neointima formation. Hypertension 40: 451-457; discussion 448-450, 2002 9) Hashimoto M, Akishita M, Eto M et al: Modulation of endothelium-dependent flow-mediated dilatation of the brachial artery by sex and menstrual cycle. Circulation 92: 3431-3435, 1995 10) Kawano H, Motoyama T, Ohgushi M et al: Men- strual cyclic variation of myocardial ischemia in premenopausal women with variant angina. Ann Intern Med 135: 977-981, 2001 11) Lloyd GW, Patel NR, McGing E et al: Does angina vary with the menstrual cycle in women with premenopausal coronary artery disease? Heart 84: 189-192, 2000 12) Hamelin BA, Méthot J, Arsenault M et al: Influence of the menstrual cycle on the timing of acute coronary events in premenopausal women. Am J Med 114: 599-602, 2003 13) Kannel WB, Hjortland MC, McNamara PM et al: Menopause and risk of cardiovascular disease: the Framingham study. Ann Intern Med 85 (4): 447452, 1976 14) Losordo DW, Kearney M, Kim EA et al: Variable expression of the estrogen receptor in normal and atherosclerotic coronary arteries of premenopausal women. Circulation 89: 1501-1510, 1994 15) Nakamura Y, Suzuki T, Miki Y et al: Estrogen receptors in atherosclerotic human aorta: inhibition of human vascular smooth muscle cell proliferation by estrogens. Mol Cell Endocrinol 219: 17-26, 2004 16) Kim J, Kim JY, Song KS et al: Epigenetic changes in estrogen receptor beta gene in atherosclerotic cardiovascular tissues and in-vitro vascular senescence. Biochim Biophys Acta 1772: 72-80, 2007 17) Christian RC, Liu PY, Harrington $S$ et al: Intimal estrogen receptor (ER) beta, but not ERalpha expression, is correlated with coronary calcification and atherosclerosis in pre- and postmenopausal women. J Clin Endocrinol Metab 91: 2713-2720, 2006 18) Rexrode KM, Ridker PM, Hegener HH et al: Polymorphisms and haplotypes of the estrogen receptor-beta gene (ESR2) and cardiovascular disease in men and women. Clin Chem 53: 1749-1756, 2007 19) Ogawa S, Emi M, Shiraki M et al: Association of estrogen receptor beta (ESR2) gene polymorphism with blood pressure. J Hum Genet 45: 327-330, 2000 20) Sudhir K, Chou TM, Chatterjee K et al: Premature coronary artery disease associated with a disruptive mutation in the estrogen receptor gene in a man. Circulation 96: 3774-3777, 1997 21) Abizaid A, Albertal M, Costa MA et al: First human experience with the 17-beta-estradiol-eluting stent: the Estrogen And Stents To Eliminate Restenosis (EASTER) trial. J Am Coll Cardiol 43: 1118-1121, 2004 22) Hayashi T, Esaki T, Muto E et al: Dehydroepiandrosterone retards atherosclerosis formation through its conversion to estrogen: the possible role of nitric oxide. Arterioscler Thromb Vasc Biol 20: 782-792, 2000 23) Sato K: Helper $\mathrm{T}$ cell diversity and plasticity. Circ $\mathrm{J}$ : official journal of the Japanese Circulation Society 78: 2843-2844, 2014 24) Chakrabarti S, Lekontseva O, Davidge ST: Estrogen is a modulator of vascular inflammation. IUBMB Life 60: 376-382, 2008 25) Polanczyk MJ, Carson BD, Subramanian S et al: Cutting edge: estrogen drives expansion of the CD4 +CD25+regulatory T cell compartment. J Immunol 173: 2227-2230, 2004 26) Lang TJ: Estrogen as an immunomodulator. Clin Immunol 113: 224-230, 2004 27) Gomita K, Sato K, Yoshida M et al: PSGL-1expressing CD $4 \mathrm{~T}$ cells induce endothelial cell apoptosis in perimenopausal women. J Atheroscler Thromb 19: 227-236, 2012 28) Sato K, Niessner A, Kopecky SL et al: TRAILexpressing $\mathrm{T}$ cells induce apoptosis of vascular smooth muscle cells in the atherosclerotic plaque. $\mathrm{J}$ Exp Med 203: 239-250, 2006 29) Sato K, Nuki T, Gomita K et al: Statins reduce endothelial cell apoptosis via inhibition of TRAIL expression on activated CD4 $\mathrm{T}$ cells in acute coronary syndrome. Atherosclerosis 213: 33-39, 2010 30) van der Wal AC, Becker AE, van der Loos CM et al: Site of intimal rupture or erosion of thrombosed coronary atherosclerotic plaques is characterized by an inflammatory process irrespective of the dominant plaque morphology. Circulation 89: 36-44, 1994 31) Virmani R, Kolodgie FD, Burke AP et al: Lessons from sudden coronary death: a comprehensive morphological classification scheme for atherosclerotic lesions. Arterioscler Thromb Vasc Biol 20: 1262-1275, 2000 32) Yahagi K, Davis HR, Arbustini E et al: Sex differences in coronary artery disease: pathological observations. Atherosclerosis 239: 260-267, 2015 33) Burke AP, Farb A, Malcom GT et al: Effect of risk factors on the mechanism of acute thrombosis and sudden coronary death in women. Circulation 97: 2110-2116, 1998 34) Huxley R, Barzi F, Woodward M: Excess risk of fatal coronary heart disease associated with diabetes in men and women: meta-analysis of 37 prospective cohort studies. BMJ 332: 73-78, 2006 35) Lee WL, Cheung AM, Cape D et al: Impact of diabetes on coronary artery disease in women and men: a meta-analysis of prospective studies. Diabetes care 23: 962-968, 2000 36) Kawano H, Soejima H, Kojima S et al: Sex differences of risk factors for acute myocardial infarction in Japanese patients. Circ J 70: 513-517, 2006 37) Madonna R, Balistreri CR, De Rosa S et al: Impact of sex differences and diabetes on coronary atherosclerosis and ischemic heart disease. J Clin Med 8: pii: E98, 2019 38) Kawano H, Motoyama T, Ohgushi M et al: Menstrual cyclic variation of myocardial ischemia in premenopausal women with variant angina. Ann Intern Med 135: 977-981, 2001 39) Kawano H, Motoyama T, Hirai N et al: Estradiol supplementation suppresses hyperventilationinduced attacks in postmenopausal women with variant angina. J Am Coll Cardiol 37: 735-740, 2001 40) Mohri M, Koyanagi M, Egashira K et al: Angina pectoris caused by coronary microvascular spasm. Lancet 351: 1165-1169, 1998 41) Cianflone D, Lanza GA, Maseri A: Microvascular angina in patients with normal coronary arteries and with other ischaemic syndromes. Eur Heart J 16 [Suppl I]: 96-103, 1995 42) Johnson BD, Shaw LJ, Pepine CJ et al: Persistent chest pain predicts cardiovascular events in women without obstructive coronary artery disease: results from the NIH-NHLBI-sponsored Women's Ischaemia Syndrome Evaluation (WISE) study. Eur Heart J 27: 1408-1415, 2006 43) Weinberg EO, Thienelt CD, Katz SE et al: Gender differences in molecular remodeling in pressure overload hypertrophy. J Am Coll Cardiol 34: 264273, 1999 44) Douglas PS, Katz SE, Weinberg EO et al: Hypertrophic remodeling: gender differences in the early response to left ventricular pressure overload. J Am Coll Cardiol 32: 1118-1125, 1998 45) Nakamura T, Imai Y, Matsumoto T et al: Estrogen prevents bone loss via estrogen receptor alpha and induction of Fas ligand in osteoclasts. Cell 130: 811-823, 2007 46) Sennerby U, Melhus H, Gedeborg R et al: Cardiovascular diseases and risk of hip fracture. JAMA 302: $1666-1673,2009$ ## 性差医療 & $89(6)$ \\
tokyojoshii
cc-by-4.0
Tokyo Women's Medical University
-
# 川崎病の治療経過中に認められた偽性高カリウム血症の 1 乳児例 東京女子医科大学医学部小児科学教室 (受理 2018 年 11 月 14 日) ## Pseudo-hyperkalemia Obverted in a Patient with Kawasaki Disease during Treatments Kei Sugimoto, Yukihide Chiba, Yoichiro Kaburaki, Hirotaka Kaneko, Toshihisa Tsuruta, and Satoru Nagata Department of Pediatrics, Tokyo Women’s Medical University, Tokyo, Japan \begin{abstract} A 3-month-old girl was diagnosed with Kawasaki disease 4 days after onset and intravenous immunoglobulin (IVIG) treatment was started on the same day. Because IVIG therapy was ineffective, a combination of IVIG and prednisolone was administered on day 6 . On day 9, the patient had hyperkalemia ( $6.5 \mathrm{mEq} / \mathrm{L})$ without electrocardiographic abnormalities. The serum potassium level measured in blood collected in heparinized tubes was within normal range. We diagnosed pseudohyperkalemia leading to leukocytosis and thrombocythemia, attributable to coagulation system activation and increased release of potassium from leukocytes and/or platelets. Serum potassium levels in patients with potential hyperkalemia under these conditions may require greater consideration. \end{abstract} Key Words: Kawasaki disease, pseudo-hyperkalemia ## 緒言 一般に偽性高カリウム(K)血症は,「血清 $\mathrm{K}$ 值が血漿 $\mathrm{K}$ 値よりも $0.4 \mathrm{mmol} / l$ 以上高い場合」と定義される ${ }^{12)}$ 。偽性高 $\mathrm{K}$ 血症の要因としては,検体の保存時の溶血, 免疫学的機序を介した細胞破壊による溶血,掌のクレンチング(手を開いて再び握る動作)による機械的溶血 ${ }^{34)}$ 等が知られている. その他, 白血球数, 血小板数の増加も偽性高 $\mathrm{K}$ 血症を来すことがあるが,前述の3つの要因と比べて知られていない. 今回,我々は川崎病の治療経過中に認められた白血球数, 血小板数の増加による偽性高 $\mathrm{K}$ 血症の 1 乳児例を経験したので報告する. ## 症例 患者:生後 3 か月の女児. 主訴:発熱。 家族歴:父には川崎病の既往あり。他に特記事項なし。 出生歴 : 在胎 38 週 5 日に骨盤位のため帝王切開にて出生,その他周産期異常指摘なし 既往歴:特記事項なし。 現病歴:前日より不機嫌,哺乳量低下の症状があったが,38.7 の発熱を認めたため当院を受診し E-mail: [email protected] doi: $10.24488 /$ jtwmu.89.1_7 Copyright (C) 2019 Society of Tokyo Women's Medical University. This is an open access article distributed under the terms of Creative Commons Attribution License (CC BY), which permits unrestricted use, distribution, and reproduction in any medium, provided the original source is properly credited. } Table 1 Laboratory findings (Day1 L/D). Figure 1 Clinical course. Although we started treating the urinary tract infection from the first hospital day, 5 of the 6 symptoms of Kawasaki disease (ocular conjunctival congestion, redness of the oropharyngeal mucosa, irregular rash, rigid edema, neck lymphadenopathy) appeared on hospital Day 4. Kawasaki disease was diagnosed on that day, and we therefore changed the treatment regimen. Because the first intravenous immunoglobulin (IVIG) administration was ineffective, combination therapy with IVIG and prednisolone was performed from Day 6 onward. Although the symptoms of Kawasaki disease showed improvement, blood tests revealed hyperkalemia on Day 9. KD, Kawasaki disease; ASA, Acetylsalicylic acid; GPC, Gram positive coccus; CTX, cefotaxime; ABPC, ampicillin; PSL, prednisolone; IVIG, intravenous immunoglobulin. た (第 1 病日)。来院時明らかな脱水所見は認めなかったが,咳嗽および鼻汁を認めた。月齢を考慮し,同日精査加療目的に入院となった. 入院時現症:身長 $58.1 \mathrm{~cm}(-0.9$ 標準偏差: SD),体重 $6.1 \mathrm{~kg}(+0.2 \mathrm{SD})$, 頭囲 $39.1 \mathrm{~cm}(-0.3 \mathrm{SD})$, 胸囲 $40.7 \mathrm{~cm}$ (+0.5 SD)と体格は年齢相当であった.意識清明, 体温 $38.9^{\circ} \mathrm{C}$, 脈拍数 160 回/分, 呼吸数 36 回/分, 咽頭発赤があり, 聴診上呼気時に高調性喘鳴が聴取された. 他に, 明らかな理学的, 神経学的な異常所見は認められなかった. 入院時検査 (Table 1) では好中球有意の白血球数 の上昇 (白血球数 $22,470 / \mu \mathrm{L}$, 好中球 $62.6 \%$ ), $\mathrm{C}$ 反応性タンパク質 (C-reactive protein:CRP) の上昇 $(3.12 \mathrm{mg} / \mathrm{dl})$, 軽度の血清 $\mathrm{K}$ 値の上昇 $(5.2 \mathrm{mEq} / \mathrm{L})$ が認められた。尿沈查では glitter cell (10-19/HF),尿潜血が認められた。その他, 尿定性検査では異常を認めず,髄液検查でも特記すべき所見は認めなかった. ## 入院後の経過(Figure 1): 臨床経過より上気道炎と判断したが, 入院時尿所見より細菌性尿路感染症の併存が疑われ, セフォタキシム $200 \mathrm{mg} / \mathrm{kg} /$ day 点滴静注投与を開始とした. 翌日解熱傾向はなく,入院時の尿培養からグラム陽性球菌 (Gram positive cocci:GPC) が検出され, 第 2 病日よりアンピシリン $150 \mathrm{mg} / \mathrm{kg} / \mathrm{day}$ 点滴静注投与を開始とした。しかし, 同日ょり両側眼球結膜充血, 体幹を中心とた不定形皮疹の出現を認めた.第 4 病日に臨床症状として, 口腔咽頭粘膜の発赤,眼球結膜充血, 口腔咽頭粘膜の発赤, 手・足背の硬性浮腫,頸部リンパ節腫脹が加わった事から川崎病と診断し, $\gamma$ グロブリン大量静注療法 (intravenous immunoglobulin:IVIG) $2 \mathrm{~g} / \mathrm{kg}$ および,アセチルサリチル酸 $35 \mathrm{mg} / \mathrm{kg} /$ day の経口投与を開始した。その後,一旦解熱傾向が認められたが,第 6 病日に再 Table 2 Laboratory findings (Day9 L/D). び発熱を認めた事から,IVIG 不応例としてIVIG 再投与に加えプレドニゾロン $2 \mathrm{mg} / \mathrm{kg} /$ day の経口投与を行った.以後,川崎病の諸症状は改善を認めたが,第 9 病日の血液生化学検查にて血清 $\mathrm{K}$ 値が $6.5 \mathrm{mEq} / \mathrm{L}$ と高値を認めた (Table 2)。なお, 採血検体に溶血は認めなかった,末梢血白血球数と血小板数も第 9 病日に上昇していた(Figure 2)。 高 $\mathrm{K}$ 血症の原因として,横紋筋融解症,糖尿病等による細胞内からの $\mathrm{K}$ の遊離, 急性腎不全, 副腎不全などによる $\mathrm{K}$ の排出障害, 白血球数や血小板数増加に伴う偽性高 K 血症などの可能性を考え,各種血液検査,血液ガス分析,尿検査等を行った。第 9 病日の血液生化学検査 (Table 2) にて, 血液尿素窒素, クレアチニン $(\mathrm{Cr})$, 血糖値の有意な上昇はなく, LDH,AST,ALT 等の逸脱酵素数の上昇も認めなかった. 同日施行した静脈血液ガス分析検査の所見では, 大気圧条件下で $\mathrm{pH} 7.45, \mathrm{PCO}_{2} 34.2 \mathrm{mmHg}$, $\mathrm{HCO}_{3}{ }^{-} 23.7 \mathrm{mmol} / \mathrm{L}, \mathrm{K} 5.55 \mathrm{mmol} / \mathrm{L}$ であり, 異常所見は認めなかった. 心電図所見においては, 心拍 168 回/分,洞調律で,電気軸は正,ST-T 変化なく,T 波増高は認めなかった(Figure 3),尿検査では $\mathrm{K}$ $27 \mathrm{mg} / \mathrm{dl}, \mathrm{Cr} 12 \mathrm{mg} / \mathrm{dL}$, 尿中 $\beta 2 \mathrm{MG}$ (macroglobulin) $220 \mu \mathrm{g} / \mathrm{L}$ (基準値: $\leqq 230 \mu \mathrm{g} / \mathrm{L}$ ),浸透圧 312 $\mathrm{mOsm} / \mathrm{Kg} \cdot \mathrm{H}_{2} \mathrm{O}$ であった. この事より, 急性腎不全 Figure 2 Correlation of white blood cell and platelet counts with serum potassium level. This table shows the changes in white blood cell counts, platelet counts, and potassium (K) levels in peripheral blood. The normal upper limit of $\mathrm{K}$ is indicated by a dotted line. The tripartite values rise significantly through Day 9 . WBC, White blood cells; K, Potassium; PLT, Plateletes thrombocytes. Figure 3 Electrocardiographic findings Day 9. Electrocardiography revealed a heart rate of $168 \mathrm{bpm}$, sinus rhythm, no significant ST-T change, and no significant tented $\mathrm{T}$ wave. These findings confirm the absence of any obvious hyperkalemia. による高 $\mathrm{K}$ 血症は否定的であった。血漿浸透圧は $282 \mathrm{mOsm} / \mathrm{Kg} \cdot \mathrm{H}_{2} \mathrm{O}$ であり, 腎臟でのアルドステロン作用の評価値 Transtubular K gradient (TTKG) は 4.06 で 10 未満, 腎藏での $\mathrm{K}$ の排出機能の評価値 fractional excretion of K(FEK)は $6.9 \%$ で $20 \%$ 未満であった. 以上の, 心電図所見, 尿所見, TTKG,FEKの値はいずれも真の高 K 血症を指し示す所見ではなかった。 その他に, $\mathrm{K}$ の過剩摂取のエピソード,アセチルサリチル酸,プレドニゾロン以外の薬剤投与歴もなかった事より,最終的に偽性高 $\mathrm{K}$ 血症が最も疑われた。この確認のため,第 10 病日にヘパリン管採血を施行し,血漿 $\mathrm{K}$ 値は 5.1 $\mathrm{mEq} / \mathrm{L}$ と正常範囲内であった. 1 日という短期間では状況には変化がないと考え, 白血球数,ならびに血小板数増多による偽性高 $\mathrm{K}$ 血症と診断された. その後白血球数, 血小板数の低下に伴い高 $\mathrm{K}$ 血症は改善し, 他の川崎病の所見も改善した為, 第 22 病日に退院とし, 外来経過観察としたところ, 順調に経過した. ## 考 察 小児領域の偽性高 $\mathrm{K}$ 血症に関する報告は少ない。高 $\mathrm{K}$ 血症の原因としては, 溶血などによる細胞内からの $\mathrm{K}$ の遊離, $\mathrm{K}$ 尿中排出障害, $\mathrm{K}$ 過剩摂取そして偽性高 $\mathrm{K}$ 血症があげられる.本症例では,アシドー シスを認めず,横紋筋融解症の鑑別として測定したクレアチンキナーゼ (CK) は正常値,腎機能は正常であり,K の尿中排泄を障害する薬剤の投与歴もなかった. ミルクの過剩摂取, 栄養食品等の $\mathrm{K}$ の過剩摂取のエピソードもなく, 真の高 $\mathrm{K}$ 血症の鑑別に該当する身体所見, 検査所見, その他の要因が本症例では認めなかった.この事から高 $\mathrm{K}$ 血症の原因としては偽性高 K 血症が考えられた。偽性高 $\mathrm{K}$ 血症の要因としては, (1)血液検体採取後の放置や冷蔵保存による溶血, (2)免疫学的機序を介した細胞破壊による溶血", (3)クレンチング等の採血手技に伴う機械的溶血, (4)白血球増多症6), (5)血小板増多症》等がある。(1)に関しては, 検体は適正に処理されており, (2)(3)に関してもLDH, AST, ALT 等の逸脱酵素数の上昇なく, 溶血所見は認めない事から否定的と考えられた. 以上から(4)(5)の白血球数, 血小板数高値によるものを考えた。 本病態の機序として, 採血管内での細胞密度が極度に高いと,管内で次のような凝固過程へ影響を与える現象が起こることが考えられている。まず,採取された血液が採血管内に放出される際, 生体内では認め難い「採血管壁と細胞間の摩擦による細胞への機械刺激」が生じる。 その際, 内因系凝固経路が活性化されて細胞収縮が起こり, 細胞内の $\mathrm{K}$ が試験管内に存在する血清中に放出される.正常の細胞数ではこの $\mathrm{K}$ の試験管内血清における影響が検查値として変化を与えることはないが,白血病,血小板増多症など極端に血球数が多い時には, 放出される遊離 $\mathrm{K}$ の量が多い事から血清 $\mathrm{K}$ 値に変動をきたすと考えられている (Figure 4). 本症例で偽性高 $\mathrm{K}$ 血症を引き起こした要因として, ステロイド使用による末梢血白血球数の増加,川崎病の病態としての回復期の血小板数の増加があげられる。、ステロイドは末梢プールや骨髄から末梢血へ好中球を誘導し, 白血球数の増加を引き起こす8. 一方, 川崎病では interleukin6 などの炎症性サイトカインや抗炎症性サイトカインの産生元進が認められるため, 血小板数が増加する9。 偽性高 K 血症の発生率に関しては, 肉眼的に溶血を認めない反応性血小板増多症を含む 238 症例および, 本態性血小板増加症と骨髓増殖性疾患 27 症例を合わせた計 265 症例において, 血小板数が 60 万 $/ \mu \mathrm{L}$以上の増多症が生じると偽性高 K 血症の発症率が $50 \%$ 以上増加したとの報告がある ${ }^{10}$. しかしながら,血小板増多を示す経験の多い川崎病における疫学調查はされておらず,その他の偽性高 K 血症に至り易い疾患や,個体因子に関しても知られていない。また, 偽性高 $\mathrm{K}$ 血症が臨床上問題になるのは, 低 $\mathrm{K}$血症を来している場合であり,検査データでは $\mathrm{K}$値が基準値内に収まってしまうと,真の低 $\mathrm{K}$ 血症を見逃す可能性が生じうる ${ }^{11}$. 白血球数や血小板数が非常に多い時は偽性高 $\mathrm{K}$ 血症を来す可能性があることを念頭に入れ,その診断と潜在性の低 K 血症の Figure 4 Hypothetical mechanism underlying development of pseudo-hyperkalemia. When collected blood is injected into a test tube, leukocytes and platelets tend to contract. As a result, the potassium $(\mathrm{K})$ in the blood cells is released into serum in the test tube leading to apparent hyperkalemia. When the cell numbers are large, a high serum $\mathrm{K}$ level is observed. 存在に留意をするべきと考える。川崎病で低 $\mathrm{K}$ 血症を生じうる条件として,経口摄取不良,ステロイド投与による腎性の $\mathrm{K}$ 嗇失, 心不全に対して罣失性利尿薬,強心薬を用いた場合等が想定される。川崎病で血小板増多が認められる場合には, 血清 $\mathrm{K}$ 値が実際よりも高く測定されている可能性を念頭に,心電図による慎重なモニタリングを行い, 血清 $\mathrm{K}$ の評価にへパリン管採血手技を用いるなどの対策が有用であると思われた。 ## 結論 川崎病の経過中に,偽性高 $\mathrm{K}$ 血症を呈した 1 例を経験した. 第 9 病日の血清 $\mathrm{K}$ 値が $6.5 \mathrm{mEq} / \mathrm{L}$ であり,真の高 $\mathrm{K}$ 血症の存在を否定するため、ヘパリン管により,正常な血漿 $\mathrm{K}$ 値を確認できた事から,偽性高 $\mathrm{K}$ 血症と証明された。偽性高 $\mathrm{K}$ 血症の原因として,原疾患および治療に修飾されたことによる白血球数, 血小板数の増加が関与している可能性が考えられた。偽性高 $\mathrm{K}$ 血症が臨床上問題になるのは,低 $\mathrm{K}$ 血症を来している場合で,真の低 $\mathrm{K}$ 血症を見落とす危険性がある。 開示すべき利益相反はない. $ \text { 文献 } $ 1) Singh PJ, Zawada ET, Santella RN: A case of 'reverse' pseudohyperkalemia. Miner Electrolyte Me- tab 23 (1): 58-61, 1997 2) Fukasawa H, Furuya R, Kato A et al: Pseudohyperkalemia occurring in a patient with chronic renal failure and polycythemia vera without severe leukocytosis or thrombocytosis. Clin Nephrol 58 (6): 451-454, 2002 3) Don BR, Sebastian A, Cheitlin M et al: Pseudohyperkalemia caused by fist clenching during phlebotomy. N Engl J Med 322: 1290-1292, 1990 4)倉菌裕子, 伏見了, 田中千寿美ほか:採血時の手指運動と各種血液成分の変化. 体液・代謝管理 14 (1) : 42-45, 1998 5) Verresen L, Lins RL, Neels H et al: Effects of needle size and storage temperature on measurements of serum potassium. Cli Chem 32 (4): 698-699, 1986 6) Bellevue R, Dosik H, Spergel G et al: Pseudohyperkalemia and extreme leukocytosis. J Lab Clin Med 85 (4): 660-664, 1975 7) Sevastos N, Theodossiades G, Efstathiou $S$ et al: Pseudohyperkalemia in serum: The phenomenon and its clinical magnitude. J Lab Clin Med 147 (3): 139-144, 2006 8) Viegas LR, Hoijman E, Beato M et al: Mechanisms involved in tissue-specific apopotosis regulated by glucocorticoids. J Steroid Biochem Mol Biol 109 (3-5): 273-278, 2008 9) Shimizu M, Yokoyama T, Yamada K et al: Distinct cytokine profiles of systemic-onset juvenile idiopathic arthritis-associated macrophage activation syndrome with particular emphasis on the role of interleukin-18 in its pathogenesis. Rheumatology (oxford) 49 (9): 1645-1653, 2010 10)馬場ひさみ, 德竹孝好, 中田昭平ほか:血小板数増 加が血清カリウム值に与える影響 EDTA-2 $\mathrm{Na}$ 加血漿を用いる補正法についての検討. 日本臨床検査自動化学会会誌 35(3):304-309, 2010 11)田中伸久,宮下百代,松井学ほか:小照における血小板数が血清カリウム値に与える影響. 医学検査 62 (4) : 477-479, 2013
tokyojoshii
cc-by-4.0
Tokyo Women's Medical University