filename
stringlengths
1
10
text
stringlengths
33
111k
category
stringclasses
9 values
license
stringclasses
1 value
credit
stringclasses
5 values
P5-19.pdf
# 語りに傾聴を示す応答タイミングの検出のための テキストデータの利用 渡邊優 1 伊藤滉一朗 2 松原茂樹 2,3 1 名古屋大学情報学部 2 名古屋大学大学院情報学研究科 3 名古屋大学情報基盤センター [email protected] [email protected] [email protected] ## 概要 会話エージェントが人間に代わって語りの聴き手を担うことが期待されている。これらが聴き手として認められるには,傾聴を示す目的で語りに応答する発話である傾聴応答を適切なタイミングで生成することが効果的である. 本論文では,傾聴応答タイミングの検出のためのテキストデータの利用について述べる。事前学習済み言語モデルを傾聴応答タイミング検出タスクで fine-tuning する前に,テキストへの句読点挿入タスクを中間タスクとして導入する. 応答タイミングの検出実験の結果,中間タスクの導入により,特に,傾聴応答のデータ量が十分ではない場合に,モデルが傾聴応答タイミングの特徴を効率的に学習できることを確認した。 ## 1 はじめに 日本では,独居高齢者の増加など,社会の個人化が進行し [1],人が語れる機会が失われつつある。語ることは人間の基本的な欲求であり,語る機会の消失は社会問題といえる.この問題の解決策の 1 つは,コミュニケーションロボットやスマートスピー カーなどの会話エージェントが,人間に代わって語りの聴き手を担い,話し手に語る機会を提供することである。これらが語りの聴き手として認められるには,「相手の語りに耳を傾けて聴く」という傾聴の態度を示すことが重要である.そのための明示的な手段は,相手の語りに応答することである.以降では,傾聴を示す目的で語りに応答する発話を傾聴応答と呼ぶ. 傾聴応答は,語りを聴いていることを伝えるとともに,相手への理解を示す働きを持つ.適切なタイミングで生成できれば,話し手の語る意欲を高めら 図 1 語りと傾聴応答の例 れるものの,不適切なタイミングでの生成は語りを遮ることになり,逆効果になりうる [2]. したがって,語りの聴き手を担う会話エージェントの実現のためには,傾聴応答タイミングを適切に検出できる必要がある.語りと傾聴応答のデータに基づく検出手法の開発が現実的であるが,そのデータの蓄積は必ずしも十分ではなく,その収集も容易ではない. そこで本論文では,傾聴応答タイミングの検出のためのテキストデータの利用の効果を考察する。これまでに,傾聴応答タイミング検出におけるテキストデータ利用の効果が報告されているものの [3],傾聴応答のデータ量がテキストデータ利用の効果に及ぼす影響は明らかにされていない。そこで本研究では,テキストへの句読点挿入タスクを中間タスク $[4,5]$ として導入し,傾聴応答のデータ量と中間タスク導入の効果との関係を考察する。傾聴応答タイミングの検出実験を実施し,中間タスクの導入によって,特に,傾聴応答のデータ量が十分ではない場合に, 傾聴応答タイミングの特徴を効率的に学習できることを確認した。 ## 2 傾聴応答 傾聴応答は,語りを聴いていることを伝えるとともに,相手への理解を示す働きを持つ. 図 1 に語りと傾聴応答の例を示す。傾聴応答を適切なタイミングで生成できれば,語り手の語る意欲を高められる 図 2 テキストデータの利用の概略 ものの,不適切なタイミングでの生成は語りを遮ることになり,逆効果になりうる [2]. これまで,傾聴応答の代表例である相槌のタイミング検出手法として,ルールベースによる手法 [6],n-gram モデルによる手法 [7],決定木による手法 [8],CRF による手法 [9],SVM による手法 [10], LSTM による手法 [11]などが提案されている. 近年では,事前学習済みモデルによる手法 [12] も提案されている. ## 3 テキストの句読点 句読点は,テキストの区切りを明示する記号であり,文の可読性の向上や読み手による文の理解に影響を与える [13]. 句読点を適切な位置に挿入できれば,読み手によるテキストの理解が容易になるものの,不適切な位置への挿入は,テキストを読み進めることの妨げとなり,逆効果になりうる。 これまでに,テキストへの句読点挿入手法として,n-gram 言語モデルによる手法 [14], CRF による手法 [15],最大エントロピー法による手法 [13], RNNによる手法 [16] などが提案されている. 近年では,事前学習済みモデルによる手法 [17] も提案されている. ## 4 応答タイミング検出のための句読点の利用 事前学習済みモデルの fine-tuning に関して,ター ゲットタスクで fine-tuning する前に中間タスクで fine-tuning することで,ターゲットタスクに有用な特徴を効果的に学習させる手法が存在する $[4,5]$.本研究では, 応答タイミング検出の中間タスクとして,テキストへの句読点挿入タスクを導入する。 図 2 と図 3 上に,本論文におけるテキストデータの利用の概略と,テキストへの句読点挿入の例をそれぞれ示す. 図 3 において“”は文節境界を示す.句読点挿入タスクでは,テキストにおける各文節境界を, 読点の挿入位置, 句点の挿入位置, 句読点なしの位置の 3 クラスへ分類する. 分類のための入力 ## テキストへの句読点挿入 本論文では/テキストデータについて/述べる 応答タイミングの検出 私は/ですね/昨日/カレーを/作りました 応答なし相棺応答なし席答なし相枹以外 図 3 各タスクの例 には,分類対象の文節境界以前の文字列を用いる。 ターゲットタスクでは,語りの文節境界を傾聴応答タイミングの候補とし,各文節境界が傾聴応答夕イミングであるか否かを判定する.傾聴応答には,相槌を始めとして,感心,繰り返しなど,いくつか種類が存在している [18]. 本研究では, 傾聴応答の代表例である相槌と,相槌以外の傾聴応答に分けて,そのタイミング検出を行う。すなわち,各文節境界を,相槌のタイミング,相槌以外のタイミング,応答なしのタイミング(傾聴応答ではないタイミング)の3クラスへ分類する. 分類のための入力には,分類対象の文節境界以前の語りの文字列を用いる. 図 3 下に,応答タイミングの検出の例を示す. 本研究では, 相槌と読点の使用頻度に着目し,相槌のタイミングと読点の挿入位置,相槌以外のタイミングと句点の挿入位置,応答なしのタイミングと句読点なしの位置が,それぞれ対応しているものとみなす。 ## 5 応答タイミングの検出実験 ## 5.1 実験概要 これまでに,傾聴応答タイミング検出におけるテキストデータ利用の効果が報告されているものの [3],傾聴応答のデータ量に関するテキストデータ利用の効果は明らかにされていない。そこで本実験では,ターゲットタスクである傾聴応答タイミング検出のための学習データ量ごとに,中間タスク導入の効果を評価する,ターゲットタスクの学習データ量の設定は下記の通りである. ・実験設定 (a): 学習データ量を 200 から 2,000 まで,200 ずつ増加させる. - 実験設定 (b) : 学習データ量を 2,000 から 16,000 まで,2,000ずつ増加させる. ターゲットタスクのみで fine-tuning されたモデルを baseline, 両方のタスクで fine-tuning されたモデルを 表 1 京都大学テキストコーパスと傾聴応答コーパスにおける各クラスの出現分布 図 4 実験設定 (a) と (b) におけるマクロ $\mathrm{F} 1$ intermediate-task model と表記する。学習と評価は乱数のシードを変えて 3 回行い,そのマクロ F1 の平均値を最終的な評価値とした。 ## 5.2 実験データ 中間タスク用のテキストデータとして,京都大学テキストコーパス [19]を用いる。このテキストコー パスを,学習,開発,テスト用に分割した. 表 1 にデータの規模を示す. ターゲットタスク用のデータとして,傾聴応答コーパス [20]を用いる。傾聴応答コーパスは,高齢者のナラティブコーパス $\mathrm{JELiCo}[21]$ に,複数の聴き手の傾聴応答が独立に付与されたデータである. 本実験では,聴き手 1 名分の傾聴応答を用いた. 傾聴応答コーパスに含まれる語りを,CaboCha[22] によって文節に分割した. さらに各応答を,その発声開始時刻と最も近い位置にある文節境界に対応付けた。相槌のみが対応付いた文節境界を相槌タイミング,1つ以上の相槌ではない応答が対応付いた文節境界を相槌以外のタイミング,1つも応答が対応付かなかった文節境界を応答なしのタイミングとする. 傾聴応答コーパスを学習,開発,テスト用に分割した. 表 1 にデータの規模を示す. ## 5.3 実装 本実験では,事前学習済みの $\mathrm{BERT}^{1)}$ に,3クラス用の分類層を追加することで,句読点挿入及び傾聴応答タイミング検出を行う。ターゲットタスクでの  学習では,中間タスクで学習されたパラメータを初期値として,分類層を含む全パラメータの更新を続ける.BERTへの入力は,先頭の [CLS]トークンに,分類対象の文節境界の直前 3 つの文節の文字列を連接したものとした. 損失関数には Cross Entropy Loss を,最適化手法には AdamW を用いた。中間タスクの評価データでのマクロ F1 が最良となったエポックのモデルを,ターゲットタスクでさらに学習する,ターゲットタスクに対する性能評価には,開発データでのマクロ F1 が最良となったエポックのモデルを用いた。ハイパーパラメータと実装に用いたライブラリの詳細は,付録 A を参照されたい. ## 5.4 実験結果 ターゲットタスクの結果について報告する2).図 4 に,実験設定 (a)と (b) の結果をそれぞれ示す.いずれの設定においても,学習データ量によらず,intermediate-task model が baseline を上回った ${ }^{3)}$. このことから,テキストデータを用いた句読点挿入タスクでの fine-tuning によって,傾聴応答タイミングの検出性能が向上することを確認した。また,学習データが少量である設定 (a)において, intermediate-task model が baseline を大きく上回る傾向にあった. したがって,傾聴応答タイミング検出タスクのデータが少量である場合には特に,テキストデータを用いた句読点挿入タスクでの fine-tuning が有効であるといえる。 2) 中間タスクの結果は付録 B を参照されたい。 3)有意差検定の結果は付録 $\mathrm{C}$ を参照されたい, 実験設定(a)における相棺以外のF値 実験設定(b) における相檤以外のF 値 実験設定(a)における応答なしのF值 図 5 実験設定 (a)と (b) における各クラスの F 値 ## 5.5 考察 ターゲットタスクの 3 クラスについて,中間タスク導入の効果を個別に考察する。まず,相槌における中間タスク導入の効果について述べる。図 5 の上段に,実験設定 (a)と (b) の結果をそれぞれ示す.学習データ量が 12,000 程度までは, intermediate-task model が baselineを上回り,それ以降では, baseline を下回ることもあった. このことから,ターゲットタスクの学習データ量が十分である場合には, 中間タスク導入の効果は限定的であるものの,学習デー タ量が十分とはいえない場合には,中間タスク学習が効果的であるといえる。 次に,相槌以外における中間タスク導入の効果について述べる. 図 5 の中段に,実験設定 (a)と (b) の結果をそれぞれ示す. 学習データ量が 1,000 程度までは,intermediate-task model が baselineを大きく上回った. 学習データ量が 1,000 を超えると差は小さくなるものの,性能向上を確認できた. このことから,相槌と相槌以外では,中間タスクの導入が有効 な状況や,その効果の大きさが異なるといえる.最後に,応答なしにおける中間タスク導入の効果について述べる. 図 5 の下段に,実験設定 (a) と (b) の結果をそれぞれ示す. 相槌と相槌以外の結果とは異なり,学習データ量によらず,intermediate-task model と baseline に大きな差はなかった. このことから,中間タスクの導入は,応答なしの性能を維持したまま,相槌と相槌以外の性能向上を達成しているといえる。 ## 6 まとめ 本論文では,傾聴応答タイミングの検出のためのテキストデータの利用について述べた. テキストへの句読点挿入タスクを中間タスクとして導入し,その効果を考察した.実験の結果,中間タスクの導入によって,特に,傾聴応答のデータ量が十分ではない場合に,傾聴応答タイミングの特徴を効率的に学習できることを確認した. 今後は, 傾聴応答の種類と読点の用法の種類の関係性を考察し,より効率的な学習方法を検討したい。 ## 謝辞 高齢者のナラティブコーパスは,奈良先端科学技 術大学院大学ソーシャル・コンピューティング研究室から提供いただいた. 本研究は,一部,名古屋大学のスーパーコンピュータ「不老」の一般利用制度により実施した。 ## 参考文献 [1] Ministry of Health, Labor and Welfare. Summary report of comprehensive survey of living conditions 2019, 2020. https://www.mhlw.go.jp/english/database/ db-hss/dl/report_gaikyo_2019.pdf. [2] 大谷佳子. 対人援助の現場で使える聴く・伝える・共感する技術便利帖. 翔泳社, 2017. [3] 長連成, 越智景子, 井上昂治, 河原達也. 大規模テキストデータを用いた事前学習による音声対話の相槌予測. 情報処理学会第 84 回全国大会講演論文集, pp. 305-306, 2022. [4] Jason Phang, Thibault Févry, and Samuel R. Bowman. Sentence encoders on stilts: Supplementary training on intermediate labeled-data tasks. arXiv preprint arXive:1811.01088, 2019. [5] Ting-Yun Chang and Chi-Jen Lu. Rethinking why intermediate-task fine-tuning works. In Proceedings of the Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 706-713, 2021. [6] Nigel Ward and Wataru Tsukahara. Prosodic features which cue back-channel responses in english and japanese. Journal of Pragmatics, Vol. 32, No. 8, pp. 1177-1207, 2000 . [7] Nicola Cathcart, Jean Carletta, and Ewan Klein. A shallow model of backchannel continuers in spoken dialogue. In Proceedings of the 10th Conference on European Chapter of the Association for Computational Linguistics, Vol. 1, pp. 51-58, 2003. [8] Norihide Kitaoka, Masashi Takeuchi, Ryota Nishimura, and Seiji Nakagawa. Response timing detection using prosodic and linguistic information for human-friendly spoken dialog systems. Transactions of the Japanese Society for Artificial Intelligence, Vol. 20, No. 3, pp. 220-228, 2005. [9] Louis-Philippe Morency, Iwan de Kok, and Jonathan Gratch. A probabilistic multimodal approach for predicting listener backchannels. Journal of Autonomous Agents and Multi-Agent Systems, Vol. 20, No. 1, pp. 70-84, 2010. [10] 大野誠寛, 神谷優貴, 松原茂樹. 対話コーパスを用いた相づち生成タイミングの検出. 電子情報通信学会論文誌, Vol. J100-A, No. 1, pp. 53-65, 2017. [11] Robin Ruede, Markus Müller, Sebastian Stüker, and Alex Waibel. Enhancing backchannel prediction using word embeddings. In Proceedings of the 18th Annual Conference of the International Speech Communication Association, pp. 879-883, 2017. [12] Jin Yea Jang, San Kim, Minyoung Jung, Saim Shin, and Gahgene Gweon. BPM_MT: Enhanced backchannel prediction model using multi-task learning. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 3447-3452, 2021. [13] 村田匡輝, 大野誠寛, 松原茂樹. 読点の用法的分類に基づく日本語テキストへの自動読点挿入. 電子情報通信学会論文誌, Vol. J95-D, No. 9, pp. 1783-1793, 2012. [14] Agustin Gravano, Martin Jansche, and Michiel Bacchiani. Restoring punctuation and capitalization in transcribed speech. In Proceedings of the 2009 IEEE International Conference on Acoustics, Speech and Signal Processing, pp. 4741-4744, 2009. [15] Wei Lu and Hwee Tou Ng. Better punctuation prediction with dynamic conditional random fields. In Proceedings of the 2010 Conference on Empirical Methods in Natural Language Processing, pp. 177-186, 2010. [16] Ottokar Tilk and Tanel Alumäe. Bidirectional recurrent neural network with attention mechanism for punctuation restoration. In Proceedings of the 17th Annual Conference of the International Speech Communication Association, pp. 3047-3051, 2016. [17] Micha 1 Pogoda and Tomasz Walkowiak. Comprehensive punctuation restoration for English and Polish. In Proceedings of the Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 4610-4619, 2021. [18] 日本語記述文法研究会. 現代日本語文法 7. くろしお出版, 2009. [19] Sadao Kurohashi and Makoto Nagao. Building a japanese parsed corpus while improving the parsing system. In Proceedings of the 1st International Conference on Language Resources and Evaluation, pp. 719-724, 1998. [20] Koichiro Ito, Masaki Murata, Tomohiro Ohno, and Shigeki Matsubara. Construction of responsive utterance corpus for attentive listening response production. In Proceedings of the 13th Language Resources and Evaluation Conference, pp. 7244-7252, 2022. [21] Kenji Aramaki. Japanese elder's language index corpus v2, 2017. https://figshare.com/articles/dataset/ Japanese_Elder_s_Language_Index_Corpus_v2/ 2082706/1. [22] Taku Kudo and Yuji Matsumoto. Japanese dependency analysis using cascaded chunking. In Proceedings of the 6th Conference on Natural Language Learning, pp. 63-69, 2002. ## A モデルのハイパーパラメータと実装に用いたライブラリ モデルの実装には, pytorch ${ }^{4)}$ と huggingfaceの Trainer $^{5)}$ を用いた. 中間タスクでは 4 枚の GPUを用いて分散学習を行い,ターゲットタスクでは 1 枚の GPU で学習を行った. 表 2 に, 学習の詳細設定を示す. これらのハイパーパラメータの値は,各タスクにおける開発データを用いて定めた. ## B 中間タスクの結果 中間タスクである句読点挿入タスクの結果について報告する。表 3 に,テストデータに対する句読点の挿入性能として,各クラスの適合率,再現率, $\mathrm{F}$ 値を示す.いずれのクラスにおいても,高い挿入性能を示していることを確認した.また,マクロ 1 は 0.800 であった.したがって,モデルは中間タスクを通して,テキストにおける句読点の挿入位置の特徴を適切に学習できたものと考えられる. ## C 有意差検定 5.4 節の実験結果における有意差について報告する。ボンフェローニ補正を適用して,McNemar 検定を多クラスに拡張した McNemar-Bowker 検定 $(\alpha=0.05)$ を行った. 全ての学習データ量において 3 回有意差が認められた. 4) https://pytorch.org/ 5) https://huggingface.co/docs/transformers/main_classes/trainer
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-1.pdf
# 地図を刺激に用いた経路情報参照表現の収集 川端 良子 国立国語研究所 } 大村舞 国立国語研究所 } 小西光 Tecca 合同会社浅原 正幸 国立国語研究所 竹内 誉羽 ホンダリサーチインスティチュート ## 概要 我々は、経路情報を参照する表現のデータベースを構築した。20の地図を刺激とし、 1 地図あたり 2 経路、 1 経路あたり 40 人に地図上の二地点の経路情報の記述を依頼し、1600 の経路情報参照表現を収集した。経路情報参照表現は、地図上のランドマークに基づく相対参照表現のみであるかを判定したうえで、相対参照表現のみの場合には、始点・通過地点・終点の情報の有無をラベル付けした。さらに各表現のわかりやすさをアンケート調査により収集した。 ## 1 はじめに 地図上の経路情報を適切に言語で伝えることは難しい。経路情報は始点の情報・通過地点の情報・終点の情報からなり、周囲のランドマークを用いて、位置情報と移動方向・移動距離を適切に伝える必要がある。 本研究は地図を刺激に用いた経路情報参照表現の収集を行った。20 の地図に対してそれぞれ 2 パター ンの始点・終点情報を設定し、40 の図面を刺激として作成した。これらの刺激を用いて、クラウドソー シングにより、経路情報を固有位置情報と相対参照情報のみで表現した位置情報参照表現を 1 図面あたり 40 件収集することを目指した。収集した言語表現が固有位置情報と相対参照情報のみであるかを判定したのち、始点情報が含まれるか、通過地点情報が含まれるか、終点情報が含まれるかの情報を付与した。さらに各表現のわかりやすさをアンケート調查により収集した。 ## 2 関連研究 古くは Direction giving (経路説明) の会話分析が Psathas ら [1] によって行われ、状況規程・情報と指示・終結の 3 つの段階があるとされ、さらに最初の指示において a) starting point (始点)、b) destination (終点)、c) mode of travel (移動手段)、d) time of travel (移動時間)、e) membership categorization by each of the parties of each other (会話参与者の役割) が重要であることし指摘している [2,3]。Lakoff [4] も同様に SOURCE-PATH-GOAL Schema において、a) SOURCE (始点)、b) DESTINATION (終点)、c) PATH (経路)、d) DIRECTION (方向) の 4 つの構造的要素をあげている。村上 [5] は Blakar[6] が用いた地図を用いて、日本語道順対話を収集し、経路上のどの方向参照地点が言及されているかについて検討を行った。堀内ら [7] は、HCRC Map Task Corpus [8] と同様の設定で、情報提供者と情報追随者とで部分的に情報を共有した設定で、音声対話コーパスを構築した。塚本ら [9] は仮想空間内の経路説明表現やジェスチャーの収集を行った。 ## 3 データの構築手法 ## 3.1 経路情報参照表現の収集 経路情報参照表現の収集は Yahoo! クラウドソー シングにより実施した。図1 のように地図を示したうえで、ロを始点とし、ォもしくはを終点とした任意の経路情報の記述を依頼した。作業に際しては、相対参照表現の収集を目標とし、元の地図を回転した地図のいずれかを刺激とし、以下の 3 点を指示した。 - 作業者が最初に地図の中の四にいるような観点で「前後左右」を使う ・地図の図面における「上下左右」を使わない ・「東西南北」を使わない 表現の収集は、スクリーニング調査と本調査の 2 段階により行った。スクリーニング調査におい 図 1 刺激に用いた地図の例 (30 度回転) ては、図 1 のように 30 度、 120 度、 210 度、 300 度のいずれかの角度回転させた地図を用い、各地図 400 人・合計 1600 人分のデータを収集した。調査画面の例を付録の図 2 に示す。スクリーニング調査において 1 回答あたり 10 円相当の PayPay ポイン卜を謝礼として支払った。スクリーニング調査は 2023/11/02 08:01 に開始し、2023/11/03 03:40 に終了した。このうち、2.3 節に示す「わかりやすさ」を 0-5 の 6 段階で評定するアンケート調査により行い、平均評定値が 3.0 以上の 206 人を本調査の対象者とした。スクリーニング調査結果のわかりやすさの調查は 2023/11/17 08:06 に開始し、2023/11/17 09:55 に終了した。 本調査においては、20 種類の地図に対して、それぞれ 2 パターンの始点・終点を設定した、40 図面の刺激を構成した。 40 図面に対して 4 種類の回転を加えた 160 パターンの刺激を作成し、各パターン 10 人・合計 1600 表現を収集した。本調査において 1 回答あたり 50 円相当の PayPay ポイントを謝礼として支払った。本調査は 2023/11/17 14:02 に開始し、 2023/11/19 23:55 に終了した。 ## 3.2 収集した表現の分類 本調査で収集した 1600 表現はすべて「固有位置情報表現・相対位置情報表現のみ」で東西南北などの絶対位置情報表現を用いていなかった。但し 5 表現が、地図上で誤ったマークを始点・終点として認識しており、不適切な経路情報参照表現であった。 さらに 29 表現が、始点と終点を反対に認識しており、不適切な経路情報参照表現であった(ラベル W を付与した)。 次に、以下の分類を付与した(例は図 1 を刺激と したもの): ・X: 始点についての詳細な説明がある ・ $\mathrm{Y}$ : 途中の経路上の地点の説明がある ・Z: 終点についての詳細な説明がある 始点 (X) の判定においては「○○を背に」「正面の ○を見て(立ち)」「○○と $\triangle \triangle$ の間に立って」「○ ○を出て」「○○」からなど始点の定まりがある場合に始点あり (X) と判定した。また始点周辺の情報が不十分だが「現在地から」「口から」のように始点が明示されている場合は、始点あり (X) と判定した。経路 (Y) の判定においては「左折」「右折」「曲がる」「進む」「回り込む」などの移動を意味する動詞の有無で判定した。 終点 (Z) の判定においては「ゴール」「目的地」「着く」などの明示的な終点を示す語が確認できた場合に、終点あり $(\mathrm{Z})$ と判定した。また明示的な語がなくとも、終点周辺の具体的な描写がある場合は終点あり $(\mathrm{Z})$ と判断した。ただし、「しばらく進むと左側に見える」「広場の先」「通り過ぎたところ」など終点の具体性がない場合には終点なしと判定した。 これらの分類はマルチラベルとして設定した。以下に図 1 を刺激としたスクリーニング調査の例 ${ }^{11}$ をしめす: - XYZ の例 : 「エリコネイルに背を向けて、右手側に進み、交差点を右折する。そこからまっすぐ進み、三菱 UFJ のところで左折し、直進するとローソンがあるので、そこで左手側を見れば目的地です。」 ・YZ の例:(始点がない) 「新宿三丁目駅のある通りに出て右に曲がり、次の交差点を左に曲がって進み、左側の二つ目のビルが目的地です。」 ・XZ の例:(経路が不明瞭) 「新宿三丁目駅を正面に見て、左ビックカメラと右マルイの交差点がロ地点。駅向こうにある伊勢丹右角先の敷地右角がれ印で道路を挟んで正面に野村証券があります。」 ・Y の例:(始点がない・終点が不明膫) 「新宿三丁目駅を渡り、伊勢丹を通過して、伊勢丹メンズ館を右折する。」 「大通りにでて新宿三丁目駅と伊勢丹角の交差 1)これらの例はスクリーニング調査時にラベルの基準策定に利用したもので、公開する本調査のデータには含まれていない。 点方面にに向かう。交差点を左折後、次の大通りまで直進。」(原文ママ) 「新宿三丁目駅を渡り、伊勢丹メンズ館まで進み、新宿ピカデリーの逆に進むとたどり着く」 ## 3.3 表現のわかりやすさ評定 スクリーニング調査で収集した 1600 表現と本調査で収集した 1600 表現について、表現のわかりやすさ評定のアンケート調査を Yahoo! クラウドソー シングを用いて実施した。スクリーニング調査において、固有位置情報表現・相対位置情報表現のみの参照表現を記述した 887 人を対象に募集し、スクリーニング調査データの評定に 216 人が、本調査データの評定に 605 人参加した。付録の図 3 に調查画面を示す。1 図面に対して7つの表現をランダムに配置し、評定は 0: わかりにくい〜5: わかりやすいの 6 段階評価とした。 1 回答あたり 2 円相当の PayPay ポイントを謝礼として支払った。本調査データのわかりやすさの評定調査は、 1 表現あたり 35 人分の評定情報を収集した。本調査は 2023/12/14 17:01 に開始し、2023/12/16 13:10 に終了した。 本研究の実施に際して、表現の収集および表現の印象評定に関する研究倫理審査を国立国語研究所にて実施し、承認を受けている。 ## 4 データの統計 本節では得られたデータの統計について示す。 表 1 観点別のわかりやすさ(個別) 表 1 に各観点の有無 (観点ありが TRUE、観点なしが FALSE) で個別に集計を行い、それぞれのわかりやすさの平均を求めた。まず、始点と終点を取り違えたもの (W) 29 件については、正しいものよりもわかりやすさが低い傾向がみられた。次に、始点 (X) の説明は省略されやすく、 $37.5 \%$ (599/1600) の表現において始点の説明がなかった。始点の説明がなかったもの (わかりやすさ平均 2.72) は、始点の説明があったもの(わかりやすさ平均 2.81) よりも若干わかりやすさが低い傾向がみられた。経路 (Y) の説明がなかったもの (わかりやすさ平均 2.00 ) は $1.5 \%$ (24/1600) で、経路の説明があったもの(わかりやすさ平均 2.79) よりもわかりやすさが低い。終点 $(\mathrm{Z})$ の説明がなかったもの (わかりやすさ平均 2.43) は $3.2 \%$ (51/1600) で、終点の説明があったもの(わかりやすさ平均 2.79) よりもわかりやすさが低い。ゆえに、始点・経路・終点の 3 観点はいずれも重要であることがわかる。 表 2 観点別のわかりやすさ(組み合わせ) 観点の組み合わせに基づく集計結果を表 2 に示す。組み合わせで見ると、経路 $(\mathrm{Y})$ と終点 $(\mathrm{Z})$ がともにあるものが多く $93.9 \%((558+944) / 1600)$ であった。これらのなかで始点 (X) の有無でわかりやすさが異なり、始点があるもの (わかりやすさ平均 2.85) のほうが、始点がないもの (わかりやすさ平均 2.76) よりもわかりやすい。 表 3 にわかりやすい経路情報参照表現上位 10 例を示す。いずれも経路情報 $(\mathrm{Y})$ と終点情報 $(\mathrm{Z})$ を含む経路情報参照表現が含まれている。 ## 5 おわりに 本研究では、固有位置情報と相対位置情報を用いたよりわかりやすい経路情報参照表現を収集することを目的とし、クラウドソーシングを用いて地図上 表 3 わかりやすい経路情報参照表現例 & 3.80 & 0 & 1 & 1 \\ の経路情報を説明する表現を収集した。表現について、始点・経路・終点の情報が含まれるかについて人手で情報付与した。データから始点の情報が参照表現から抜け落ちる傾向が確認された。さらに、わかりやすさの評定について、クラウドソーシングを用いて収集した。その結果、途中の経路・終点の情報が重要であることが確認された。 先行研究の地図課題コーパスは、地図課題をもとに新情報・旧情報の伝達の相互行為を分析するために対話を収集しており、地図上の経路情報をよりわかりやすく説明するという観点が欠けていた。特に地図情報からよりわかりやすい経路情報参照表現を生成するにあたっては、多様な表現をそのわかりやすさとともに収集し、何がわかりやすさをもたらすのかを検討する必要がある。本研究は経路情報参照表現の生成を目指してデータを構築したという点で既存の研究との違いがある。 今回整備したデータについては、地図情報・分類・わかりやすさとともに公開する。 ## 謝辞 本研究はホンダリサーチインスティチュート-国 立国語研究所共同研究プロジェクト「行き先目標物の参照表現に関する日本語話し言葉の分析」・国立国語研究所基幹型共同研究プロジェクト「アノテー ションデータを用いた実証的計算心理言語学」・科研費 JP22K13108, JP19K13195によるものです。 ## 参考文献 [1] George Psathas and Martin Kozloff. The structure of directions. Semiotica, Vol. 17, No. 2, pp. 111-130, 1976. [2] George Psathas. Some sequential structures in directiongiving. Human Studies, Vol. 9, No. 2-3, pp. 231-246, 1986. [3] George Psathas. Direction-giving in interaction. Réseaux. Communication-Technologie-Société, Vol. 8, No. 1, pp. 183-198, 1990 . [4] George Lakoff. Women, fire, and dangerous things: What categories reveal about the mind. University of Chicago press, 1987. [5] 村上恵. 「道順説明」の構成要素と表現類型. 三重大学日本語学文学, Vol. 7, pp. 15-30, 1996. [6] Rolv Mikkel Blakar. An experimental method for inquiring into communication. European Journal of Social Psychology, Vol. 3, No. 4, pp. 415-425, 1973. [7] 堀内靖雄, 中野有紀子, 小磯花絵, 石崎雅人, 鈴木浩之, 岡田美智男, 仲真紀子, 土屋俊, 市川喜. 日本語地図課題対話コーパスの設計と特徴. 人工知能学会誌, Vol. 14, No. 2, pp. 261-272, March 1999. [8] Henry S. Thompson, Anne Anderson, Ellen Gurman Bard, Gwyneth Doherty-Sneddon, Alison Newlands, and Cathy Sotillo. The HCRC map task corpus: Natural dialogue for speech recognition. In Human Language Technology: Proceedings of a Workshop Held at Plainsboro, New Jersey, pp. 21-24, 1993. [9] 塚本剛生, 中野有紀子. メタバースにおける言語・空間情報に基づくアバタへの道案内ジェスチャの自動付与. 日本バーチャルリアリティ学会論文誌, Vol. 17, No. 2, pp. 79-89, June 2012. ## A 付録 地図上に【印から、印へ移動する経路を、まわりのランドマークを用いて説明してください。 $\cdot$30文字以上200文字以下の表現でおねがいします。 ・「みなさんが最初に地図の中の、印にいるような観点で前後左右」を使って説明をお願いします。 ・地図の図面における「上下左右」は使わないでください。 ・東西南北は使わないでください 図 2 調査画面例:経路情報参照表現の収集 左手に円形の池を見て立ち右手の道を直進、最初の左折路を曲がると広い道路を挟んで本田 $R \& D$ に突き当たる。左折し中央 1 と本田 $R \& D$ に挟まれた所に目的地がある 本田R\&Dの裏側の通りへ出て、理化学研究所へ入ると、すぐの突き当りを右へすすみ、ロータリーがみえたら、そのローラリーの入りロ手前です。 ○ 0 わかりにくい $O_{1}$ $\mathrm{O}_{2}$ $\mathrm{O}_{3}$ O4 -5わかりやすい ます理化学研究所の方へ進んでいき、大通りに出たところで左折します。本田R \&Dの向かいの辺りに入口があるので右折して入ります。入口入ってすぐのつきあたりを右折してまつすぐ進み、すぐ見えてくる広場のような所の左手前が目的地です。 中央 1 の建物を右手に見ながら進むと左右に延びる道にぶつかるので、左折する。まっすぐ進むと右手に理化学研究所の入口があるので右折して入る。少し進むと左右に道が分かれているので、右折して直進。少し開けた場所に出て、その左側に目的地がある。 まず理化学研究所に面した通りにでます。右手に理化学研究所を見ながら進んで、右手にある入りロに入ります。突き当たりを右折して進んで、水場のある広場に入ってすぐの所の左手が目的地です。 います ます理化学研究所の方へ進んでいき、大通りに出たところで左折します。本田R \&Dの向かいの辺りに入口があるので右折して入ります。入口入ってすぐのつきあたりを右折してまつすぐ進み、すぐ見えてくる広場のような所の左手前が目的地です。 図 3 調査画面例:わかりやすさのアンケート調査
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-20.pdf
# ペルソナ対話システムにおけるペルソナ選択と応答生成 吉田快 1,2 吉野幸一郎 ${ }^{2,1}$ 品川政太朗 1 須藤克仁 ${ }^{1}$ 中村哲 1 1 奈良先端科学技術大学院大学 2 理化学研究所ガーディアンロボットプロジェクト \{yoshida.kai.yf1, koichiro, sei.shinagawa, sudoh, s-nakamura\}@is.naist.jp ## 概要 ペルソナ対話システムでは対話が進むのに従い,対話の文脈上生成された新しいぺルソナに相当する情報が現れる場合がある。この新しいぺルソナを考慮しない場合,対話文脈と矛盾した応答を生成することがあり得る。そこで本研究では,こうした新しいペルソナに相当する情報をペルソナプールに保持し,その中から対話の文脈に合わせて必要なぺルソナを選択し利用する枠組みを提案する。このため,人手によるペルソナ選択データセットの構築を行い,より良いペルソナ選択手法について分析を行つた. 構築したデータセットを用いたペルソナ文選択の評価では, 名詞ベース選択の手法が既存の文べー ス選択の手法より精度が高いことを確認した。 ## 1 はじめに 近年大規模言語モデルやその周辺技術の発展により,対話システムは与えられた文脈に対して自然な応答生成が可能となった. この結果, 次のステージの対話システム研究,例えばシステム自身の発話との整合やシステムに与えられた役割の保持などを目的とするもの,が増えている.例えばペルソナ対話 [1] は,システムにあらかじめ与えられたペルソナに従った発話を行わせることにより,応答の不整合問題を解決しょうとする研究のアプローチである $[2,3,4]$. ペルソナの表現方法は大きく分けて 2 種類あり,「私は犬を飼っています」のように文形式で明示的に与える場合 $[1,3,4]$ や,特定のユーザの対話データを基に学習されるユーザ表現ベクトル $[2,5]$ のような, 文によらない暗黙的な表現を用いる場合がある. ペルソナ対話システムの多くの先行研究では, Transformer [6] による事前学習済み言語モデルをペルソナ対話のデータセットで微調整する方法が採用されてきた. ペルソナ対話用のデータセットには PersonaChat [1] と呼ばれるデータセットがよく用いられており, PersonaChat の日本語版デー タセットである JPersonaChat [7] も公開されている. 既存の多くのペルソナ対話システムは, 大規模言語モデルをはじめとする大量の学習データで事前訓練された学習済み言語モデルを活用する。このような場合,対話システムが生成する内容に,与えたペルソナに含まれない事実が含まれる幻覚 (Hallucination [8])という現象が発生することがある. 例えば,「私は北陸に住んでいます」というぺルソナのみを事前に与えられたシステムが「私は現在休職中です」のような発話を生成した場合,この新しい「休職中」という情報もその後の応答生成で考慮しなければ応答の一貫性が保たれない。 ペルソナ対話システムに関する先行研究では, こうした不整合に対応するため,応答生成モデルが生成した内容に応じてシステムのペルソナを逐次的に更新する手法が提案されている $[9,10]$. これらの手法では,システムが生成した応答文からペルソナとみなすことができる部分を抽出し,外部义モリに記憶する。この際問題となるのは,入力となるペルソナが逐次的に増える点である. 対話が進むにしたがい,利用しうる新しいペルソナは単調に増加する。 そのため,訓練時に想定されていない数のペルソナを扱うことは考慮されておらず,応答生成に悪影響を及ぼしうる。 この問題に対し,入力されたユーザ発話毎に適切なペルソナのみを選択し,選択したペルソナを入力して応答生成を行うことで,システムの応答精度を高めることが期待できる. 対話の文脈に応じて新しいペルソナから必要なペルソナを選択して利用する場合,応答に使うべきペルソナの選択は再現率を下げないようにしつつ,適合率を上げることが必要である. こうした目的では,類似する可能性が高いぺルソナ候補をできるだけ網羅できるような基準を用いることが重要である.この観点から本研究では, ペルソナ対話システムにおけるペルソナ選択の有効性を確認すると共に,どのような基準で選択することがどのような場面で有効か明らかにする。 図 1 ペルソナ更新可能な対話システムの例 ## 2 ペルソナ更新とペルソナ選択 本節ではまずペルソナ更新システム $[5,9]$ について説明する。 さらに,更新によってプールに蓄積されたペルソナを選択する機構について説明する。また,この選択における選択基準について説明する。 ## 2.1 ペルソナ更新とペルソナ選択機構を持 つペルソナ対話システム ペルソナ更新機構を持つペルソナ対話システムの全体像を図 1 に示す.まず,ペルソナ対話システムは,与えられたペルソナと対話履歴を入力として応答を生成する。この対話の流れの中で,「私は現在休職中でしてね」のように,新しいペルソナに相当する情報が応答生成モデルから生成される場合がある. このとき, ペルソナ生成器がペルソナ更新として,対応するペルソナ文をペルソナプールに保存する(追加されたペルソナ: 私は現在休職中でしてね). ペルソナプールへの追加は先行研究 [3] に従い,以下のルールを満たすものを抽出・記憶する。 1. 4 から 20 の単語 (句読点を含む) で構成される 2. ”私”か”わたし”という単語を含む 3. 名詞, 代名詞, 形容詞のうち少なくともどれか 1 つを含む それ以降の応答生成を行う際に,このペルソナプールから現在の対話文脈に合わせて利用するべきペルソナを選択する. このペルソナ選択によって選択されたペルソナのみが応答生成モデルに与えられ,次の応答生成に用いられる。 ## 2.2 ペルソナ選択手法 ペルソナ選択においては,文の表層における類似として Transformer ベースの構造を持つ ERNIE [11] を用いる手法が提案されている(文ベース選択 [9]). しかしこの方法では,文構造や表現など表層における類似が重視され,内容に関する考慮が軽視されがちという問題があった.そこで本研究では,特に内容語に注目し,発話中に生じた名詞を抽出して用いる手法を提案する. 文脈となるユーザ発話とペルソナプール中のペルソナ文からそれぞれ抽出された名詞を全て word2vec によってべクトル化し,総当たりでコサイン類似度の計算を行う.このうち各ペルソナ文が持つ最大値をそのペルソナ文が持つユーザ発話に対する類似度として扱う(名詞べース選択). 文ベース選択では, 入力発話文とメモリに存在する全てのペルソナ文について特徴抽出を行い,入力発話文とペルソナ文間のコサイン類似度を計算し,閾値以上の類似度となったペルソナ文をすべて選択する. 文からの特徵抽出は bert-large-japanesev2 の最終層の埋め込みの average pooling によって行った.名詞ベース選択では,まず,入力発話文と各ペルソナ文を形態素解析器である MeCab [12] と辞書の ipadic によって名詞のみを抽出し, word2vec により単語べクトルとした. 続いて,入力発話文とペルソナ文に含まれる全ての名詞の組の間で単語ベクトルのコサイン類似度を計算し, 最も高い類似度となる組が持つ類似度を当該文対の類似度とした. 名詞べース選択でも文ベース選択と同様に閾值を設定し,閾値を超えたペルソナ文をすべて選択する。 ## 3 実験 本研究では,ペルソナ選択器として文ベース選択と名詞べース選択の 2 種類の選択器について検証を行う。まず,文べース選択と名詞ベース選択のペルソナ選択器について, それぞれの選択がどの程度適切に行われているかを人手で構築されたテストデー タによって評価する。また,それぞれのぺルソナ選択手法に基づいてぺルソナ更新・選択を行うペルソナ対話システムを構築し,それらを用いて対話実験を用いた場合の人手評価を行う.以降ではそれぞれの実験設定について説明する。 ## 3.1 ペルソナ選択の評価 JPersonaChat の一部を抽出し,その対話の文脈において利用可能なぺルソナ候補文の中からどの文が対話応答に利用されたかのアノテーションを付与したテストデータを構築した ${ }^{1)}$. 具体的には,以下のような手順によってアノテーションを行った. 1. JPersonaChat から同じ名詞を共有していない発話 $u$ ,ペルソナ文 $p_{n}$ を事前に選別 2. $u$ と $p_{n}$ を評価者に提示 3. 評価者は各 $u$ と $p_{n}$ を比較し, 各 $p_{n}$ に「反映されていない」と「やや反映されている」,「反映されている」3 通りのラベルを付ける 事前に 1000 件選別したペルソナに対し, 1 件あたり 3名がラベル付けを行った.「反映されていない」を 0 「「や反映されている」を 1 ,「反映されている」 を 2 としてラベル付けを行い,3名のラベルの総和が 3 を超えるもののみを「応答生成に用いられたぺルソナ文」として付与した. ## 3.2 ペルソナ対話システムでの評価 ## 3.2.1 自動評価指標 応答生成モデルの正確さを測るために,テストデータ中の正解応答に対する応答生成モデルの尤度の代わりに用いられているテストセットパープレキシティ (PPL)を用いる.PPL は低いほど,応答生成モデルがテストデータに近い応答生成を行っていることを示す. ## 3.2.2 人手評価 ペルソナ選択による応答への影響を確認するため, 複数ターンの文脈が存在する状態での応答生成  を行い生成結果を評価する。ここでは, JPersonaChat に含まれる会話文を用いて,疑似的に複数ターンが与えられた場合の応答生成を行った. 具体的には, JPersonaChat であらかじめ定義されている 5 つのぺルソナ,対話履歴として 12 ターン(6応答ペア)の履歴を提示し,それらを入力として生成されたシステム応答をあわせて評価者に提示した.この際, 1 手法あたり 4 件,計 16 件を 1 セットとして,各 1,000 件のデータに対して 250 名の評価者をクラウドソーシングで以下の 3 件を付与した. 自然性自然な応答をしているか 会話履歴の反映度生成した応答に与えた対話履歴の内容が反映されているか ペルソナ文の反映度生成した応答に対話履歴の内容が反映されているか 対話実験は次の 4 通りのモデルで実験を行った。 1. ベースライン Japenese Transformer [7] 2. 更新のみ Japenese Transformer + ペルソナ更新 3. 文ベース選択 Japenese Transformer + ペルソナ更新 + 文ベース選択 4. 名詞ベース選択 Japenese Transformer + ペルソナ更新 + 名詞ベース選択 ## 4 実験結果 ## 4.1 ペルソナ選択の精度 最初に,文ベース選択,名詞ベース選択それぞれの手法で選択を行った場合の ROC 曲線および Precision-Recall 曲線を図 2 および図 3 に示す.これらの図から,全体の傾向として名詞べース選択が文ベース選択よりも Recall/FPR に対して高い Precision/TPR を達成していることが確認でき,より良いペルソナ選択ができていることがみて取れる.また,このテストデータによって $\mathrm{F} 1$ 値が最大となるような値を選択することで最適な閾値を設定し, 文ベース選択が 0.72 , 名詞ベース選択が 0.39 となった. 最適な間値を設定した際の,文ベース選択と名詞ベース選択の選択精度を表 1 に示す. 結果から,提 表 1 選択の評価 & 0.184 & $\mathbf{0 . 9 7 1}$ & 0.158 & 0.272 \\ 案する名詞ベース選択は 7 割近い Accuracy を達成した. また,文べース選択は Recall は高いものの, Accuracy や,F1 が低い結果となった. この結果から, 全体の傾向として名詞ベース選択は文ベース選択よりも良い選択を実現可能であることが示せた. 図 2 名詞ベース選択 (青) と文ベース選択 (橙) の Precision-Recall 曲線 図 3 名詞ベース選択 (青) と文ベース選択 (橙) の ROC 曲線 ## 4.2 生成された応答の評価 ## 4.2.1 自動評価 4.1 節で得られた閾値を用いて実際にユーザ発話によって使用するペルソナ文を選択し,評価した結果を説明する。まず,自動評価におけるテストセットパープレキシティ(PPL)を表 2 に示す. 表 2 応答生成における PPL. $p_{\text {avg }}$ は応答生成使用されたペルソナの数の平均を表す。 文ベースと名詞ベース選択によってベースラインよりも PPL の低下が確認できた.また,更新のみの手法では応答に使用するペルソナ数が増加しているが,更新と選択を導入した手法では更新のみの手法よりも応答に使用するぺルソナ数を削減できた. 特 に名詞ベース選択は,入力するペルソナ数を大幅に削減しつつ,最も低い PPLを達成できた。 ## 4.2.2 人手評価 人手評価の結果を表 3 に示す. & \\ ベースラインと比較して,更新を取り入れた手法はすべて自然性と対話履歴の反映度が向上していることが確認できた.また,更新あり手法に選択を加えた場合は自然性と対話履歴の反映度が低下する反面,ペルソナの反映度が向上する結果となった. しかし, 手法間の有意差を示すためにマンホイットニ一の U 検定により,名詞ベース選択とその他の手法での評価指標ごとの有意差の確認を有意水準 $5 \%$ で行った。その結果,各手法間の有意差は確認できなかった。 ## 5 まとめ 本研究では, ペルソナ対話システムが自身の過去の応答内容に対して一貫性を持った応答を行うことを目的として,ペルソナの更新と選択を取り入れた対話システムを提案しその評価を行った。応答文と利用されたペルソナの対応について人手で紐づけたテストデータを構築し評価した結果,提案する名詞ベース選択手法はより良いペルソナ選択を実現できていることがわかった. さらに,ペルソナ選択を導入した応答生成ではペルソナ選択によりペルソナ数を削減した上で PPLを改善できることが確認された。 対話実験では、ペルソナ選択を行う場合と行わない場合(更新のみ)で人手評価値に大きな差がつかなかった. 今回,実験に用いた対話履歴はそれほど長くなく, 結果として既存の対話モデルでもうまく応答生成が行える設定になっていた可能性が考えられる. こうした問題について議論するためには,さらに長い対話履歴や特定の個人との長期間にわたる対話において,提案したようなペルソナ選択に基づく手法がうまく動作するかを議論する必要がある. ## 参考文献 [1] Saizheng Zhang, Emily Dinan, Jack Urbanek, Arthur Szlam, Douwe Kiela, and Jason Weston. Personalizing dialogue agents: I have a dog, do you have pets too? In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2204-2213, Melbourne, Australia, July 2018. Association for Computational Linguistics. [2] Jiwei Li, Michel Galley, Chris Brockett, Georgios Spithourakis, Jianfeng Gao, and Bill Dolan. A personabased neural conversation model. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 994-1003, Berlin, Germany, August 2016. Association for Computational Linguistics. [3] Pierre-Emmanuel Mazaré, Samuel Humeau, Martin Raison, and Antoine Bordes. Training millions of personalized dialogue agents. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 2775-2779, Brussels, Belgium, OctoberNovember 2018. Association for Computational Linguistics. [4] Haoyu Song, Yan Wang, Kaiyan Zhang, Wei-Nan Zhang, and Ting Liu. BoB: BERT over BERT for training personabased dialogue models from limited personalized data. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 167-177, Online, August 2021. Association for Computational Linguistics. [5] Qian, et al. Learning implicit user profile for personalized retrieval-based chatbot. In Proceedings of the 30th ACM International Conference on Information \& Knowledge Management, pp. 1467-1477, 2021. [6] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [7] Hiroaki Sugiyama, Masahiro Mizukami, et al. Empirical analysis of training strategies of transformer-based japanese chit-chat systems, 2021. [8] Ziwei Ji, et al. Survey of hallucination in natural language generation. ACM Comput. Surv., Vol. 55, No. 12, mar 2023. [9] Xinchao Xu, Zhibin Gou, Wenquan Wu, Zheng-Yu Niu, Hua Wu, Haifeng Wang, and Shihang Wang. Long time no see! open-domain conversation with long-term persona memory. In Findings of the Association for Computational Linguistics: ACL 2022, pp. 2639-2650, Dublin, Ireland, May 2022. Association for Computational Linguistics. [10] Zhengyi Ma, et al. One chatbot per person: Creating personalized chatbots based on implicit user profiles. In Pro- ceedings of the 44th International ACM SIGIR Conference on Research and Development in Information Retrieval, SIGIR '21, p. 555-564, New York, NY, USA, 2021. Association for Computing Machinery. [11] Sun, et al. Ernie 2.0: A continual pre-training framework for language understanding. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, No. 05, pp. 8968-8975, Apr. 2020. [12] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to Japanese morphological analysis. In Proceedings of the $\mathbf{2 0 0 4}$ Conference on Empirical Methods in Natural Language Processing, pp. 230-237, Barcelona, Spain, July 2004. Association for Computational Linguistics. ## A ペルソナ選択の評価者への教示内容 この作業では,発話文 1 文とプロフィール文 9 文を比較して,発話文に使われていると考えられるプロフィール文を選択していただきます。 ## 【選択の条件】 - 発話文の根拠となっていそうなプロフィール文を選択してください - 発話文にプロフィール文が含まれない場合は選択しないでください - 発話文にプロフィールが複数含まれる場合は複数選択してください - 発話文とプロフィール文に部分一致がある場合はそれを選択してください - 発話文から容易に連想できる場合はそのプロフィール文を選択してください ## B 発話評価者への教授内容 1. 自然な応答ができているか - 会話履歴の最後の発話に対して自然な応答ができている場合は「5」を選択してください ・明らかに不自然な応答の場合は「1」を選択してください - それ以外の場合は,応答の自然さに応じて「2〜 4」を選択してください 2. 会話履歴を反映した応答ができているか ・ここでは,会話履歴にたいして自然な応答ができてるかは関係なく, 応答文に会話履歴の内容が反映されているかで選択を行ってください - 応答文の中に会話履歴の中に登場するキーワー ド,もしくはそれに関連する情報が含まれている場合は「5」を選択してください - 応答文に会話履歴の内容が含まれない場合は「3」 を選択してください ・過去の応答と矛盾した応答をしている際は「1」を選択してください 3. プロフィール文を反映した応答ができているか ・ここでは,応答文にプロフィール文が反映されて いるかで選択を行ってください - 応答文の根拠となっていそうなプロフィール文が 1 つでも応答文に反映されていれば「5」を選択してください ・応答文にプロフィール文が含まれない場合は「3」 を選択してください ・プロフィールと矛盾した発話をしている際は「1」 を選択してください ## C 評価の分布 各評価値の分布を図 4 と図 5 ,図 6 に示す. 図 4 自然性の分布 図 5 対話履歴の反映度反映度の分布 図 6 ペルソナの反映度の分布
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-21.pdf
# 知識グラフの対話システムへの記憶化 : 学習アプローチの探究 薛強 ${ }^{1}$ 滝口 哲也 ${ }^{1}$ 有木 康雄 ${ }^{1}$ 1 神戸大学システム情報学研究科 [email protected] takigu, [email protected] ## 概要 近年,対話システムの進化に伴い,生成される回答の質の向上が重要な課題となっている. 本研究では,知識グラフを対話システムに記憶させることにより,回答の質を向上させると同時に,回答中の幻想問題を軽減する方法を探究する.具体的には,知識グラフを記憶するための 3 種類の学習タスクを提案し,その有効性を検証する。実験結果から,一般的な知識検索対話システムと比較して回答の生成品質は向上しなかったものの,新たな可能性を探る一歩となった. 本研究は, 対話システムの質的向上と知識グラフの活用における新たな方向性を示唆している. ## 1 はじめに オープンドメイン対話システムは,人工知能と自然言語処理の分野で重要な進展を遂げてきたが,依然として重大な課題に直面している。具体的には, これらのシステムにはしばしば一貫性のない回答や,事実上の誤りを含む回答を生成するという問題がある。この問題の原因は,文脈の深い理解不足や,特定の知識に基づく正確な回答の生成が困難であることに由来する. このような背景のもと,知識ベース対話システムが提案され,注目を集めている。これらのシステムは,特定の知識ベースに基づいて情報を提供することで,回答の質と正確性を向上させることができる. たとえば, Young ら [1] や Huang ら [2] の研究では,知識ベースを活用することで,対話システムの回答精度が向上することが示されている。このアプローチは,情報量を増加させると共に,対話の一貫性を保つための重要な手段ともなっている.. 一方で,知識検索対話システムは,Dinan ら [3] や Ghazvininejad ら [4] などの研究で示されるように,広範な情報源からのデータ検索に基づいて回答を生 図 1 二種類の知識ベース対話システム 成する。これにより,様々なトピックに対応する能力が向上するが,検索エラーや非効率性,関連性の低下などの問題も伴う. これらの課題に対処するため,言語モデルのパラメータに直接知識を組み込む知識記憶対話システムの研究が進められている. Sun ら [5] の研究は, この新しいアプローチが知識検索プロセスを必要とせずに,高品質な対話を生成できることを示している.このようなシステムは,対話の自然さと応答性を大幅に向上させることが期待できる。 特に,知識グラフに基づく知識ベース対話システムは,構造化された知識形式を活用することで,より洗練された情報提供を可能にする.知識グラフを対話システムに記憶させることは,回答の正確性と関連性を大幅に向上させることができ,ユーザー体験の質を高めることが期待される。本研究では,この分野での新たな進展として,対話システムが知識グラフを効果的に記憶するための 3 つの異なる学習方法を提案し,その実用性と効果を検証する。 本稿では,まず知識検索対話システムと知識記憶対話システムについて述べる. 次に提案する対話システムについて述べる. 最後に提案する対話システムの実験と評価について報告する。 図 2 対話応答生成のための予測タスクと,提案された三つの学習タスクにおけるデータ処理の流れ. ## 2 関連研究 本章では,二種類の知識ベース対話システムについて述べる. ## 2.1 知識検索対話システム オープンドメインの知識ベース対話 (KGD) において,人々は知識統合により意義ある対話を行って 手法が数多く研究され $[8,6,9]$, 知識選択 $[10,11]$ や応答生成 $[12,13]$ に焦点が当てられている. しかし, これらの手法は検索エラーや非効率性 [14],多粒度知識の統合問題 [15] などの課題に直面している. ## 2.2 知識記憶対話システム 言語モデル (LM) は,大量の知識をパラメータに記憶し,会話において有益な応答を生成する能力を有している [16]. LM が知識ベースとして機能することは Petroni らによって示され [17], これは質問応答タスクなどにおいても有効であることが明らかになっている [18]. その一方で,LM ベースの手法は誤情報,いわゆる「幻覚」の問題を引き起こす可能性があり,これは対話システムの信頼性に影響を及ぼす. MixCL[5] は,主にテキストベースの知識デー タにおける幻覚を低減する効果があるが,構造化された知識グラフデータに対しては十分な効果を発揮できない. 本研究では, 知識グラフデータを用いた知識記憶対話システムの性能向上を目指し,幻覚問題を軽減するための異なる学習手法を提案する. ## 3 提案学習アプローチ 本章では,知識グラフを知識記憶対話システムに覚えさせるために,提案する対話システムが用いる四つの学習アプローチについて述べる. ## 3.1 Task 1 :対話応答の予測 対話履歴を $C$, 目標とする応答を $\left(x_{1}, \ldots, x_{L}\right)$ とした場合,モデルの学習は,以下の負の対数尤度を最小化することにより行われる. $ L_{\mathrm{LM}}=-\sum_{i=1}^{L} \log P\left(x_{i} \mid C, x_{1}, \ldots, x_{i-1}\right) $ 学習された生成言語モデルを利用し, 対話システムは適切な応答を生成する能力を獲得する。 ## 3.2 タスク 2: ランダム知識グラフの予測 このタスクでは、知識グラフ $G$ から抽出されたサブグラフ $G_{\text {sub }}$ を注目し、このサブグラフを知識トリプルのテキスト形式の集合として表現する。各知識トリプル $g_{i}$ は $\left(w_{i 1}, w_{i 2}, w_{i 3}\right)$ として表され、ここで $w_{i 1} 、 w_{i 2} 、 w_{i 3}$ はそれぞれトリプルの要素 (エンティティや関係)を表す単語である。サブグラフの長さを $L$ とし、モデルの入力はサブグラフ $G_{\mathrm{sub}}$ の先頭からランダムに選択された位置 $r-1$ までの知識トリプルの集合 $\left(g_{1}, \ldots, g_{r-1}\right)$ となる。目標はこの入力に 基づいて、続く知識トリプルの集合 $\left(g_{r}, \ldots, g_{L}\right)$ を予測する。ここで、 $r$ は 1 と $L$ の間でランダムに選ばれるインデックスである。モデルの学習は, 以下の負の対数尤度を最小化することにより行われる。 $ L_{\mathrm{RKG}}=-\sum_{i=r}^{L} \log P\left(g_{i} \mid g_{1}, g_{2}, \ldots, g_{i-1}\right) $ ## 3.3 タスク 3 : 関連知識グラフの予測 本タスクでは,対話データと関連する知識グラフを組み合わせることにより,与えられた対話コンテキストに基づいて最も関連性の高いサブグラフを予測することを目的としている. 対話履歴を $C$, 関連する知識グラフのサブグラフ $G_{\text {sub }}$ を知識トリプルのテキスト形式の集合 $\left(g_{1}, \ldots, g_{r-1}\right)$ として表現する. タスクの入力として対話履歴 $C$ が与えられ, 目標として知識グラフから関連するサブグラフ $G_{\text {sub }}$ を予測する. モデルの学習は, 以下の負の対数尤度を最小化することにより行われる。 $ L_{\mathrm{CKG}}=-\sum_{i=1}^{L} \log P\left(g_{i} \mid C, g_{1}, g_{2}, \ldots, g_{i-1}\right) $ ## 3.4 タスク 4:誤った知識グラフの識別 このタスクでは,Sunによる研究 [5]を参照し,対話システムにおける「幻覚」の問題を緩和するために,対照学習手法を採用している. タスク 3 で生成された関連知識グラフ $G_{\text {sub }}$ から, エンティティや関係をランダムに別のエンティティや関係に置換し, その結果得られる誤った知識を負の例として使用する. モデルは, 誤った知識 (負の例) の対数尤度を最小化し, 同時に正しい知識 (正の例) の対数尤度を最大化するように学習される。 このプロセスを数式化すると,次のようになる。 $ L_{\mathrm{CL}}=-\sum_{i=1}^{L}\left[\log P\left(g_{i} \mid C, G_{\mathrm{pos}}\right)-\log P\left(g_{i} \mid C, G_{\mathrm{neg}}\right)\right] $ ここで, $C$ は対話コンテキスト, $G_{\mathrm{pos}}$ は正しい知識の集合, $G_{\mathrm{neg}}$ は誤った知識の集合を表している. このようにして,モデルは誤った情報を識別し,正しい情報を強化することを学習する。 全体の損失関数は,各タスクに対する損失の加重和である. $ L_{\mathrm{Total}}=\alpha L_{\mathrm{LM}}+\beta L_{\mathrm{CKG}}+\gamma L_{\mathrm{RKG}}+\delta L_{\mathrm{CL}} $ ここで, $\alpha, \beta, \gamma, \delta$ は各損失関数の重要度を調整する超パラメータである. ## 4 実験と評価 本章では,以下 2 つの角度から提案手法の性能を考察するための実験について述べる: ・異なる対話システムの性能比較: 4.2 節 ・提案する異なるタスクの性能比較: 4.3 節 ## 4.1 実験設定 実験データセットは OpenDialKG [19]を用いる. OpenDialKG は, 本と映画についての推薦対話が含まれている雑談対話データセットである.話者は常に構造化知識中のエンティティを含む発話を行い,関連知識に基づいた推薦対話が行われている. 実験で用いたハイパーパラメータの設定を表 1 に示す. 実験評価では,正解性と多様性の二つの角度から応答文の質を評価する。 応答正解性の評価指標としては,応答と正解文の F1 スコア(F1),応答文と正解文の類似度を表す BLEU-n (B2,B4) [20], Meteor [21]を用いる. 応答多様性の評価指標として, 応答文に含まれる n-gram の種類数を表す DIST-n(D2, D3)[22]を用いる。応答に含まれる知識の正解性の評価指標としては, 応答知識と正解知識の F1 スコア (KF1) と, 応答エンティティと正解エンティティに対する F1 スコア(EF1)を用いる. ## 4.2 対話システムの比較実験 本実験では以下三つの対話システムを比較対象とする: ・知識なし対話システム:知識データを使用せず,対話の自然さと流暢さを重視したシステム。 ・知識検索対話システム:目標知識データに基づいて学習と推論を行い,知識を取り入れたシステム. ・知識記憶対話システム: 本研究で提案するアプローチであり,知識グラフのデータを直接言語モデルのパラメータに組み込むことで,推論時の知識検索を必要としない. 表 2 各モデルによって生成された応答文の評価結果. 各対話システムの応答文生成評価結果を表 2 に示す. 提案システムは,特に応答多様性の指標(D2, D3)で優れた性能を発揮しており,これはシステムが生成する応答の幅広さと創造性を反映している. 知識正解性 (KF1, EF1)においては, 現段階では知識検索対話システムに劣るものの,構造化された知識べースとの連携強化など,今後の改良が期待できる. 表 3 の対話例 1 において,知識がない状態では,知識検索対話システムは「Sorry I don' $t$ have that information.」と回答し,利用可能な情報がない場合の限界を示している。一方,提案システムは検索に依存しないが,不正確な情報を生成することがあり,「2012」という幻覚に陥っている。この問題は,提案システムが知識を内部化しているものの, 正確性を保証するメカニズムがまだ不十分であることを示しており,今後の改善が必要であることを示唆している. 生成例 2 では、知識検索対話システムは提供された知識を利用して適切な応答を生成し、提案システムは学習で得た知識を活用して、検索を必要とせずに関連する回答を生成している。 ## 4.3 アブレーション実験 本実験では,3章で述べた異なるタスクの性能を比較した. 表 2 下半部分に,異なるタスクの構成で学習されたシステムによって生成された応答文の評価結果を示す. $L_{R K G}$ を除外した場合、応答正解性と知識正解性の両方で性能が低下しており、この損失がシステムの全体的な性能向上に寄与していることが示されている。また、 $L_{C K G}$ を除外すると、応答多様性が低下し、知識正解性にも悪影響を与えていることが観察される。一方で、 $L_{C L}$ を除外した場合は、応答正解性にはあまり影響がないものの、応答多様性と知識正解性には若干の低下が見られる。 ## 5 おわりに 本研究では,知識検索に依存せずに動作するオー プンドメイン対話システムの知識記憶アプローチを探求した. 提案システムは応答の多様性と流暢さを向上させるものの, 実験結果は幻覚の問題を浮き彫りにした。これは知識統合の過程での課題であり,今後の改善の必要性を示している. ## 謝辞 本研究の一部は,JSPS 科研費 JP21H00906 の支援を受けたものである。 ## 㚜责文献 [1] Tom Young, Erik Cambria, Iti Chaturvedi, Minlie Huang, Hao Zhou, and Subham Biswas. Augmenting end-to-end dialog systems with commonsense knowledge. Proceedings of AAAI, 2018. [2] Minlie Huang, Xiaoyan Zhu, and Jianfeng Gao. Challenges in building intelligent open-domain dialog systems. ACM Transactions on Information Systems (TOIS), Vol. 38, No. 3, p. 1-32, 2020. [3] Emily Dinan, Varvara Logacheva, Valentin Malykh, Alexander H. Miller, Kurt Shuster, Jack Urbanek, Douwe Kiela, Arthur Szlam, Iulian Vlad Serban, Ryan Lowe, et al. The second conversational intelligence challenge (convai2). In Proceedings of NeurIPS Conversational Al Workshop, 2019. [4] Marjan Ghazvininejad, Chris Brockett, Ming-Wei Chang, Bill Dolan, Jianfeng Gao, Wen tau Yih, and Michel Galley. A knowledge-grounded neural conversation model, 2018. [5] Weiwei Sun, Zhengliang Shi, Shen Gao, Pengjie Ren, M. de Rijke, and Zhaochun Ren. Contrastive learning reduces hallucination in conversations. In AAAI Conference on Artificial Intelligence, pp. 13618-13626, 2023. [6] Tom Young, E. Cambria, Iti Chaturvedi, Hao Zhou, Subham Biswas, and Minlie Huang. Augmenting end-to-end dialog systems with commonsense knowledge. In AAAI, 2018. [7] Minlie Huang, Xiaoyan Zhu, and Jianfeng Gao. Challenges in building intelligent open-domain dialog systems. ACM TOIS, Vol. 38, pp. 1 - 32, 2020. [8] Shuman Liu, Hongshen Chen, Zhaochun Ren, Yang Feng, Qun Liu, and Dawei Yin. Knowledge diffusion for neural dialogue generation. In ACL, pp. 74-81, 2018. [9] Emily Dinan, Stephen Roller, Kurt Shuster, Angela Fan, Michael Auli, and Jason Weston. Wizard of wikipedia: Knowledge-powered conversational agents. In ICLR, 2019. [10] Chuan Meng, Pengjie Ren, Zhumin Chen, Weiwei Sun, Zhaochun Ren, Zhaopeng Tu, and M. de Rijke. Dukenet: A dual knowledge interaction network for knowledgegrounded conversation. In SIGIR, pp. 1151-1160, 2020. [11] Kurt Shuster, Spencer Poff, Moya Chen, Douwe Kiela, and Jason Weston. Retrieval augmentation reduces hallucination in conversation. In Findings of EMNLP, pp. 3784-3803, 2021 [12] Xueliang Zhao, Wei Wu, Can Xu, Chongyang Tao, Dongyan Zhao, and Rui Yan. Knowledge-grounded dialogue generation with pre-trained language models. In EMNLP, pp. 3377-3390, 2020 [13] Chujie Zheng and Minlie Huang. Exploring prompt-based few-shot learning for grounded dialog generation, 2021. [14] Yan Xu, Etsuko Ishii, Zihan Liu, Genta Indra Winata, Dan $\mathrm{Su}$, Andrea Madotto, and Pascale Fung. Retrieval-free knowledge-grounded dialogue response generation with adapters. In ACL — Workshop on DialDoc, pp. 93-107, 2022. [15] Zhiyong Wu, Wei Bi, Xiang Li, Lingpeng Kong, and Benjamin C.M. Kao. Lexical knowledge internalization for neural dialog generation. In ACL, pp. 7945-7958, 2022. [16] Yufan Zhao, Wei Wu, and Can Xu. Are pre-trained language models knowledgeable to ground open domain dialogues?, 2020 [17] Fabio Petroni, Tim Rocktäschel, Patrick Lewis, Anton Bakhtin, Yuxiang Wu, Alexander H. Miller, and Sebastian Riedel. Language models as knowledge bases? In EMNLP, pp. 2463-2473, 2019. [18] Adam Roberts, Colin Raffel, and Noam M. Shazeer. How much knowledge can you pack into the parameters of a language model? In EMNLP, pp. 5418-5426, 2020. [19] Seungwhan Moon, Pararth Shah, Anuj Kumar, and Rajen Subba. Opendialkg: Explainable conversational reasoning with attention-based walks over knowledge graphs. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 845-854, 2019. [20] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th annual meeting of the Association for Computational Linguistics, $\mathrm{pp}$. 311-318, 2002. [21] Satanjeev Banerjee and Alon Lavie. METEOR: An automatic metric for MT evaluation with improved correlation with human judgments. In Jade Goldstein, Alon Lavie, Chin-Yew Lin, and Clare Voss, editors, Proceedings of the ACL Workshop on Intrinsic and Extrinsic Evaluation Measures for Machine Translation and/or Summarization, pp. 65-72, Ann Arbor, Michigan, June 2005. Association for Computational Linguistics. [22] Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. A diversity-promoting objective function for neural conversation models. arXiv preprint arXiv:1510.03055, 2015.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-22.pdf
# キャッチコピー共同作成対話コーパスにおける 発話と編集および参照の分析 周旭琳 市川拓茉 東中竜一郎 名古屋大学大学院情報学研究科 \{[email protected],[email protected],higashinaka@i\}.nagoya-u.ac.jp ## 概要 本研究では,共同作業を行う対話システムの構築に向けて,人間が共同作業を行っているデータの分析を行う.使用するデータは,人間同士が対話しながらキャッチコピーを共同で作成するタスクに取り組んだ対話データである.分析では,発話及びキャッチコピー編集の発生有無と,キャッチコピー 編集欄の位置を指し示す記号による絶対参照表現の発話内での使用有無に着目した. その結果,活発に発話やキャッチコピーの編集を行う対話は作業者の自己評価が他より高くなる傾向があることや,絶対参照が多く使用されるほど評価が高い傾向があることが分かった. ## 1 はじめに 対話システムが普及し,社会に広まるにつれて,人間と共同作業する対話システムの構築が盛んになってきた $[1,2,3]$. しかし, その多くは問題解決のための対話 $[4,5]$ やユーザからの命令にシステムが従うシステム $[6,7,8]$ が中心であり,ユーザと創造的な共同作業を行うシステムに関する研究はいまだ少ない. 我々はこれまで,共同作業が可能な対話システムの構築を目指し,そのための基礎データとして共同作業を行う際の人間のコーパスを収集してきた. 具体的には,対話をしながら共同でキャッチコピーの作成を行うコーパスを収集した $[9,10]$. このコーパスを分析することで,人間同士の共同作業についての知見が得られ,共同作業を行う対話システムの構築に役立つと考えられる。 本稿では,発話とキャッチコピー編集の発生有無に着目した分析および,発話内でのキャッチコピー 編集欄を示す記号による参照表現の使用有無に着目した分析を行う。 図 1 キャッチコピー共同作成タスクの概略図 ## 2 キャッチコピー共同作成対話コー パス 我々は,創造的な共同作業としてキャッチコピー 共同作成タスクを設定し,人間同士の共同作業のコーパス(キャッチコピー共同作成対話コーパス) を収集した $[9,10]$. キャッチコピー共同作成タスクでは,提示される両作業者共通の商品説明を参考に,テキストチャットを用いた対話を行いながら,作業相手とテキストボックスを共同編集しキャッチコピーを作成する。表 1 は収集された対話から抜粋した対話例である。この対話例では焼酎についてキャッチコピーを作成している。 本コーパスには,のべ 105 人のクラウドワーカによって実施された, 782 対話が含まれている。一対話の制限時間は 30 分である. 作業者にはキャッチコピーの対象となる商品の商品説明を提示した. 作業者のインタフェースには, 8 つのテキストボックスからなるキャッチコピー編集欄を設け,両作業者が共有・編集しあうことを可能にした。作業者が特定のテキストボックスを示しやすいよう,テキストボックスの左には,それぞれ $\mathrm{A} \sim \mathrm{H}$ のアルファベットのラベルを付けた. テキストボックス内に文字を入力すると,その変更が作業相手の見ている画面にも即座に反映され,また,編 表 1 対話例. $U_{1}, U_{2}$ はそれぞれ作業者を指す. 灰色の行はキャッチコピー編集欄の編集を示す. \\ ## 集が記録された。 作業後には作業自体や作成したキャッチコピーについての自己評価をアンケートにより調査した. 表 2 はアンケートの質問項目である. ## 3 発話と編集の流れの分析 キャッチコピー共同作成タスクの作業時間中は, キャッチコピーの編集と発話という 2 種の操作を行うことができる. 我々は 2 種の操作が作業時間中にどのように発生することで作業が進んでいるかを明らかにするために,ある時間区分中での 2 種の操作両方の発生有無を考慮した作業の流れのクラスタリングを行った。 さらに,成果物であるキャッチコピーに対する評価値や作業者自身の作業に対する評価を発話と編集の流れのクラスタごとに調べ,どのような関連が見られるかを調査した。 まず,発話と編集の流れの分析のために,30 分のデータを 1 分ごとに区切り,それぞれの 1 分間にどのようなログが存在するかに着目した. ここで, 1 分間に存在するログの種別ごと(発話 (chat) またはキャッチコピーの編集 (edit))について,それぞれ何人のログが存在するか(0 人, 1 人, 2 人)の組み合わせをその 1 分間の状態として定義した. つまり, 1 分間の状態の種類は, 3 の 2 乗で 9 種類となる. 例えば,ある 1 分間に二人ともがキャッチコピーを編集し,一人はさらにチャットも送信していた場合, その 1 分間の状態は chat が一人で edit が二人のため ch1 ed2 と表現される. 1 作業は 30 分のため,各対話は,このような状態が 30 個並んだ形の状態べクトルで表現される.この状態べクトルを $k$-modes [11] でクラスタリングし,発話と編集の流れの分類を行った. クラスタ数はエルボー法 [12]により6ク 図 2 発話と編集の流れのクラスタリング結果. X 軸は開始からの経過時間(分)を示し,Y 軸の値はそれぞれの 1 分間の状態を表す. 円形のマーカは,当該経過時間の区切りにおいて Y 軸の状態である作業の割合を,色の濃さによって示している.色が濃いほど,同一クラスタ中でそのマーカに当てはまる作業数の割合が多いことを意味する. ラスタと決定した。 図 2 は,クラスタリングの結果および,それぞれのクラスタに分類された作業の状態ベクトルを示している。赤線は各クラスタの centroid を表す. 各クラスタがどのような流れで発話と編集を行っていると考えられるかを説明する。 Cluster 1: 開始直後 2 分ほど会話したのち,15 分程度は散発的にチャットを挟みながら,主にキャッチコピーの編集を行っている。その後は最後まで 1 分間ログがない状態が起こる程度の遅いぺースでチャットや編集を行っている. Cluster 2: 30 分間を通して両者が速いペースで 表 2 アンケートの質問項目 Q1. (自分主張) 今回の共同作業では,あなたの考えや意見を主張することができましたか Q2.(相手主張)今回の共同作業では,作業相手の方は意見や考えを主張していましたか Q3.(合意)今回の共同作業では,話し合いによって合意に至ることができましたか Q4. (異論) 今回の共同作業では,あなたと作業相手の意見が分かれることはありましたか Q5. (アイデア)今回の共同作業では,あなただけでは思いつかなかったようなアイデアが出ましたか Q6. (満足) 今回の共同作業に対して満足できましたか Q7. (親しみ)作業相手に親しみを感じますか Q8. (興味) 今回の共同作業で二人で作成したキャッチコピーは,目にした人の興味を引くと思いますか Q9. (想像)今回の共同作業で二人で作成したキャッチコピーは,見る人の想像を膨らませることができると思いますか チャットを行っており,並行してキャッチコピーの編集を行っている。 Cluster 3: 開始から 10 分程度の間はチャットを行っている. その次の 10 分程度は散発的にチャットを挟みながら主にキャッチコピーの編集を行っている. 最後の 10 分程度は主にチャットを行いながらしばしばキャッチコピー の編集を行っている. Cluster 4: クラスタ 2 と同様に 30 分間を通して両者が速いペースでチャットを行いながら,並行してキャッチコピーの編集を行っている. キャッチコピーの編集はクラスタ 2 よりさらに頻繁に行われている。 Cluster 5: 開始から 5 分程度の間はチャットを行う. その後 15 分程度はクラスタ 4 よりも遅いペースでチャットとキャッチコピーの編集を並行して行っている. そして, 最後の 10 分程度は主にチャットを行いながらキャッチコピーの編集を行っている. Cluster 6: 開始直後 4 分ほどチャットを行ったのち,10 分程度は散発的にチャットを挟みながら,主にキャッチコピーの編集を行っている。 その後は最後まで主にチャットを行いながら,散発的に編集を行っている. 作業者にとって満足度が高い発話と編集の流れはどのようなものなのかを明らかにするため,クラスタごとの作業後アンケートの各項目の平均スコアを計算した. さらに,Steel-Dwass の多重比較 [13] を用いて,クラスタ間の差が有意かを調べた。 表 3 にクラスタごとの結果を示す. 作業者の自己評価の値は,クラスタ 2 とクラスタ 4 において高かった. この 2 つのクラスタはどちらもチャットを行いながら並行してキャッチコピーの編集を行う流れで作業を進めている. こまめに意見やアイデアの主張,合意の確認などを行っており,意見が異なることに気づく回数も増え, Q1-Q5 の自己評価が大きい値になったと考えられる.また,他のクラスタと比べて作業相手とチャットをしている時間が長くなるため,満足度が高く,作業相手へ親しみを抱きやすくなり Q6や Q7 が高い值になったと考えられる. キャッチコピーの評価に関しては,Q9 はどのクラスタ間にも有意な差は見られなかったが,Q8ではクラスタ 2 とクラスタ 5 ,クラスタ 4 とクラスタ 5 の間に有意な差が見られた。 以上の分析より,発話と編集の流れはいくつかのクラスタに分かれることが分かった. また,クラスタごとの自己評価は作業中にチャットとキャッチコピーの編集を並行して頻繁に行っている場合に高くなることが分かった. ## 4 絶対参照の発生パターンの分析 キャッチコピー共同作成タスクの一つの特徴は,作成中のキャッチコピーを参照しながら発話を行っている点である.参照には,例えば作成途中のキャッチコピーを示してそれについて議論する参照や,チャット内の単語から着想を得てその表現を含むキャッチコピーを作成する,といったものがある. ここでは,参照の中でも自動抽出が容易な, キャッチコピー欄を表すアルファベットである Aから H を発話中に含んでいる参照に着目し,これを絶対参照と定義する。この絶対参照と対話中の出現時間を考慮した分析を行う。 各対話の絶対参照の発生パターンは,3 節での分析と似た手法で作成する. 1 対話の 30 分の対話時間を 10 分ごとに区切り,それぞれ 10 分間に絶対参照を含む発話が 1 回でも起こっている場合は 1 ,起こっていない場合は 0 とする 3 ビット(8 種類)で表した. 例えば「011」は最初の 10 分間は絶対参照を含む発話が無く,中盤 10 分間と終盤 10 分間は両方とも絶対参照を含む発話が存在することを示す. 782 対話を 8 種のパターンに分類した。 表 4 は絶対参照の発生パターンに該当する作業の統計量および作業者の自己評価の平均スコアである. 多くの対話が絶対参照を含み,どちらかという 表 3 各クラスタの平均スコア. クラスタ番号の横の数值はれぞれのクラスタに分類された作業の割合 $(\%)$ を示す. 太字は各質問における最大値. 各質問において,上位 2 つのスコアについて下線を引いている。付き文字はこのクラスタ番号のクラスタよりも有意に值が高いことを示す(数字が一つのとき $p<0.05,2$ のとき $p<0.01$ ). 表 4 各絶対参照パターンの統計量および平均スコア. パターンの説明は 4 節を参照. 太字は各項目における最大值. と序盤よりも終盤に存在する傾向があると分かる。統計量からは,作業全体を通して絶対参照を行っている作業は平均発話数が増える傾向があることや,序盤は絶対参照を行わず終盤に絶対参照を行う作業は 1 発話の平均の長さが長いこと, 中盤に絶対参照を行う作業はキャッチコピー編集欄への書き込みや削除の文字数が多く,編集が盛んに行われていることが分かる.作業者の自己評価からは,序盤に絶対参照を行う作業は多くの項目で評価が高い傾向にあることが分かる. Q6 と Q7 は序盤に絶対参照があるとスコアが高くなる傾向があるのに対し,Q4 は終盤に近い時点に絶対参照があるほどスコアが高くなる傾向がみられた。 絶対参照の発生パターンの分析により,おおむね絶対参照が全体の広い範囲で行われているほど自己評価が高い傾向があり,適宜キャッチコピーの状態にグラウンディングをしながら対話することが重要であることが示唆された. また,絶対参照が存在した場合でも序盤か終盤かに応じて評価の傾向が異なることが分かった. ## 5 おわりに 本研究では,キャッチコピー共同作成タスクにおける対話データの分析を行った. 発話と編集の流れの分析では,パターンがどの程度あるか,チャットと編集,参照がどのようなパターンの時にどのように満足度が変化するかなどを分析した。その結果, チャットとキャッチコピーの編集を並行して頻繁に行っている作業の場合に,作業者の自己評価が高くなりやすいという知見を得た. 絶対参照発生パター ンの分析からは,絶対参照が広く使用されるほど自己評価が高い傾向があるという知見を得た。 今後は, 本研究で得られた知見を生かし, 人間と対話しながら共同でキャッチコピーを作成することのできる対話システムを構築したい. たとえば,GPT-4 [14]などの大規模言語モデルを使用し, チャットや編集を並列して行い,作成中のキャッチコピーへの参照を利用することのできるモデルの開発を行いたいと考えている。 ## 謝辞 本研究は科研費「モジュール連動に基づく対話システム基盤技術の構築」(課題番号 19H05692)の支援を受けた。 ## 参考文献 [1] 市川拓茉, 東中竜一郎. マルチエージェント強化学習に基づく共同作業を自律的に行う対話システムの最適化. 言語処理学会第 29 回年次大会発表論文集, pp. 1383-1387, 2023 . [2] 江連夏美, 稲葉通将. 個人の特性に基づくブレインストーミング対話の分析. 人工知能学会第 99 回言語・音声理解と対話処理研究会, pp. 134-138, 2023. [3] Piotr Mirowski, Kory W. Mathewson, Jaylen Pittman, and Richard Evans. Co-writing screenplays and theatre scripts with language models: Evaluation by industry professionals. In Proceedings of the $2023 \mathrm{CHI}$ Conference on Human Factors in Computing Systems, pp. 355:1-:34, 2023. [4] Koh Mitsuda, Ryuichiro Higashinaka, Yuhei Oga, and Sen Yoshida. Dialogue collection for recording the process of building common ground in a collaborative task. In Proceedings of the 13th Conference on Language Resources and Evaluation, pp. 5749-5758, 2022. [5] Daniel Fried, Justin Chiu, and Dan Klein. Referencecentric models for grounded collaborative dialogue. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 21302147, 2021. [6] Anjali Narayan-Chen, Prashant Jayannavar, and Julia Hockenmaier. Collaborative dialogue in Minecraft. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5405-5415, 2019. [7] Charles Rich, Candace L. Sidner, and Neal Lesh. Collagen: Applying collaborative discourse theory to humancomputer interaction. Al Magazine, Vol. 22, No. 4, p. 15, 2001. [8] Daijin Yang, Yanpeng Zhou, Zhiyuan Zhang, Toby JiaJun $\mathrm{Li}$, and Ray LC. AI as an active writer: Interaction strategies with generated text in human-AI collaborative fiction writing. In Joint Proceedings of the IUI 2022 Workshops, Vol. 10, pp. 56-65, 2022. [9] 周旭琳, 市川拓茉, 東中竜一郎. キャッチコピー共同作成タスクにおける対話の収集と分析. 人工知能学会第 36 回全国大会論文集, pp. 2A6GS603-2A6GS603, 2022 . [10] 周旭琳, 市川拓茉, 東中竜一郎. 人間と共同でキャッチコピーを作成する対話システムの試作. HAI シンポジウム, 2023. [11] Zhexue Huang. Extensions to the k-means algorithm for clustering large data sets with categorical values. Data mining and knowledge discovery, Vol. 2, No. 3, pp. 283-304, 1998. [12] Robert L. Thorndike. Who belongs in the family? Psychometrika, Vol. 18, pp. 267-276, 1953. [13] Meyer Dwass. Some k-sample rank-order tests. Contributions to probability and statistics, pp. 198-202, 1960. [14] OpenAI. GPT-4 technical report. arXiv preprint arXiv:2303.08774, 2023.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-23.pdf
# コンタクトセンターにおける 人と言語モデルの協働による対話データの作成 伊藤拓海 ${ }^{1,2}$ 阿部香央莉 1 日高雅俊 1,3 野田健一 ${ }^{4}$ 岩浅佑一 4 ${ }^{1}$ Machine Learning Solutions 株式会社 ${ }^{2}$ Langsmith 株式会社 ${ }^{3}$ Edge Intelligence Systems 株式会社 4 トランスコスモス株式会社 [email protected] [email protected] [email protected] \{noda.kenichi, iwasa.yuichi\}@trans-cosmos.co.jp ## 概要 コンタクトセンターにおける自然言語処理は顧客サービスの自動化と効率化において重要な役割を担っているが、個人情報や著作権等の観点から研究用として扱うことのできるデータは少ない。そこで本研究では研究用データの構築のため、仮想の家電メーカを設定し回答に必要なナレッジと対話データの作成に取り組んだ。特に、効率的なデータ作成と実用後の継続的なデータ収集を見据え、人と大規模言語モデルの協働によってデータを作成するアプローチを検討し、461 件のナレッジと 2,308 件の対話データを作成した。 ## 1 はじめに 近年、大規模言語モデル(LLM)の登場により、 チャットボットの性能が飛躍的に向上している。そのチャットボットの主要な応用先として、コンタクトセンターでの利用が期待されている $[1,2,3]$ 。 チャットボットを導入することにより、24 時間対応やオペレーションコスト軽減が期待できる [4]。 しかし、チャットボットの実応用が進んでいる一方で、その研究開発のためのデータが限られているという現状がある。この要因は大きく二つあり、一つはコンタクトセンターのデータが個人情報等を含むため公開しにくいという点である [3]。またもう一つの点として、オペレータはカスタマーからの問い合わせを受け必要に応じてナレッジ等の資料を参照し回答を作成するが、既存の知識参照タスクのためのデータセットの多くが Wikipedia 等を参照しており [5]、実際のコンタクトセンターでのドメインとは大きくかけ離れているという点が挙げられる。 そのため我々は、実応用を志向したコンタクトセ 図 1 データ作成手法の概略図 ンターのチャットボット開発のためのデータセットの構築を目指す。今回は、家電におけるテクニカルサポート業務を想定して、対話データセットを作成する。仮想の家電メーカーを作成し、新たなナレッジを作成した。作成したナレッジに基づき、実際のコンタクトセンターのオペレータと LLM の協働によって対話データを作成を目指す。LLMを用いることで、十分な訓練データがない場合でも、プロンプトの調整によって、一定レベルの性能を持つ対話モデルの構築が期待できる。そのため、本研究では、オペレータがカスタマーのふりをして問い合わせをし、LLM の回答をオペレータが確認・修正を行うことで対話データを収集した。図 1 に本データ作成手法の概略図を示す。本研究にて、我々は 461 件のナレッジと 2,308 件の対話データを作成した。将来的には、LLM をコンタクトセンターにて実運用を行いながら継続的なデータ作成を行うことを目指している。 表 1 洗濯機・衣類乾燥機に関するナレッジの例タイトル給水ホース・排水ホースは自分で交換可能ですか? 文章給水ホースはお客様ご自身での交換が可能です。排水ホースは外に出る蛇腹部分が外付となる外部排水ホース部分については交換可能です。製品を購入された販売店で在庫・価格などご確認の上でご注文をお願い致します。内部側の排水ホースについては補修部品となりお客様ご自身での交換は出来かねる部分てす。弊社ご相談窓口へ点検・修理をご依頼ください。外部排水ホースがなく内部側の排水ホースと一体化しているタイプも同様となります。 排水ホースの仕様は製品によって異なるため、お使いの製品の取扱説明書・据付説明書をご確認ください。 ## 2 関連研究 人と LLM の協働によってデータを作成する取り組みは、近年盛んに行われるようになっている $[6,7,3]$ 。本研究と同様に、 $\mathrm{Lu}$ ら [3] は、人と LLM の協働によってコンタクトセンター向けの対話デー タ作成手法を提案している。日本語のデータセットとしては、宿を探しているカスタマーとオペレータの擬似的な対話を収録した、宿泊施設探索対話コー パスがある $[8,9]$ 。宿泊施設探索対話コーパスは人と人の対話によって対話データが作成されている。 これらの研究と比較すると、我々のデータセットには回答に必要な参照ナレッジが付いている点が異なる。 ## 3 データ作成手法 ここでは、データ作成の手順について説明する。我々は、個人情報や著作権の問題を回避するため、仮想の家電メーカを設定し、ナレッジと対話データを作成した。データの作成においては、個人情報、著作権等に関する問題を避けるため、次のような指示を行った。(1) 実在の企業名・商品名、またはそれを連想されるキーワードを入力しないこと (2) 個人情報を入力しないこと (3) 既存の FAQ サイトのコピー\&ペーストをしないこと。 ## 3.1 ナレッジの構築 表 1 と 2 に作成したナレッジの例を示す。今回は、エアコン、冷蔵庫、洗濯機・衣類乾燥機、掃除機、炊飯器の 5 つの家電に焦点を当てた。これらは比較的身近な家電であり、仮想家電の設計が比較的容易と考えた。ナレッジは、主に製品の詳細と Frequently Asked Questions (FAQ) によって構成さ表 2 仮想のエアコン家電エアリーに関するナレッジの例タイトルエアリーのリモコンを紛失・故障したら運転できる? 文章エエアリーの室内機前面パネルを開けた右下部分にある運転・停止ボタンによって、手動で運転と停止を選択できます。運転・停止ボタシを一回押守と冷房運転、三回素早く押すと暖房運転が開始されます。稼働中は、一回押すことで運転を停止します。 なお、温度変更や除湿運転は行えず自動運転となります。 表 3 プロンプトの例。\{context $\}$ はナレッジの検索結果が入り、\{chat_history \}には、それまでの対話履歴、 \{question\}には直前のカスタマーの発話が入る。 \#\#\# 指示:以下の検索結果と対話履歴を元にコールセンターのオ \#\# 検索結果 : \{context $\}$ \#\#\# 対話履歴:\{chat_history $\}$ ユーザー: \{question $\}$ \#\#\# 応答 : れている。また、表 2 の仮想エアコン“エアリー”のように、仮想製品もいくつか作成した(エアリーの製品詳細は付録 B を参照)。一般的な LLM が学習していない仮想製品を含むことにより、システム検証時にモデル内の知識と外部知識の切り分けが容易になることを期待している。なお、ナレッジはテキストだけで構成されており、画像などの情報はない。 著者らを含む、著者らの所属する複数組織の従業員によって作成された。なお、コンタクトセンター での業務経験がある従業員も含まれる。ナレッジは、Notion ${ }^{1)}$ にって管理され、複数人が共同で作成した。またナレッジは、対話データ作成に並行して、加筆・修正がされた。最終的に、461 件のナレッジを作成した。2)そのうち 425 件は対話データが紐づいている。 ## 3.2 対話データ作成 本研究では、データ作成の効率化および今後の継続的なデータ収集のため、人間の作業者と LLM の協働による対話データ作成を試みる。図 1 にデータ作成の概略図を示す。インターフェースは付録 A に示す。 作業者はカスタマー役を行い、LLM はオペレー タ役を担う。オペレータ役の LLM には、ナレッジの検索結果をプロンプトに含める形での、検索拡張生成 (RAG) [10]を用いた。 本取り組みは探索的なものであり、対話データの 1) https://www.notion.so/ 2) Notion の 1 ページを 1 件とカウントした。 作成と並行して、LLM 側のプロンプトや検索機構などのシステム改善を随時行った。実際に用いたプロンプトの例を表 3 に示す。LLM としては、LINE ル4)を使用した。また、対話データが一定程度作成できた後に、LLM-jp 提供の 13B モデルに対して、 LoRA チューニング [11]を行い、その LoRA チュー ニング後のモデルを使用した。検索については、べクトル検索と BM25 [12] を使用し、Reciprocal Rank Fusion [13] でアンサンブルを行った。ベクトル検索時の埋め込みには、日本語 LUKE [14] $]^{5)}$ を使用した。 また、LoRA チューニング後は、HyDE [15] も併用した。なお、第一位の検索結果のみを使用して回答を生成した。 ## 3.3 対話データ作成の作業者と作業手順 コンタクトセンターでの業務経験がある従業員 10 人(作業者と呼ぶ)に対話データを作成してもらった。作業者にはナレッジを一つ選択してもらい、そのナレッジに関連した課題を抱えるカスタマーの立場で質問を行ってもらった。表 3 に示すプロンプトを用いてオペレータ側の応答を LLM で生成した。LLM の出力は不十分な場合が多いため、必要に応じて作業者に適切な応答となるよう修正してもらった。カスタマーの課題が解決するまで、質問および応答の修正を数ターン行ってもらった。LLM の出力の修正時には、LLM の生成品質を定量化するため、応答の 5 段階評価を求めた。また、RAG の過程で適切なナレッジが取得されなかった場合を考慮し、取得されたナレッジの 5 段階評価(質問内容によっては、「ナレッジは不要」を選択)および、本来参照されるべきナレッジ(Notion のページ URL) の入力を求めた。詳細は、付録 A に示す。 ## 4 対話データの分析 我々は 2,308 対話のデータを作成した。表 4 亿作成した対話データの例を示す。対話のターン数は平均 10.71 ターン(最大 27 、最小 3) で、応答は 11,267 件である。また、 1 応答の長さは、平均 275.77 (最大 1,259、最小 2)文字であった。  表 4 対話データの例。OPR はオペレータ、CTM はカスタマーを示す。オペレータは LLM の出力を作業者によって修正したものである。この対話の正解ナレッジは表 1 である。 OPR お問い合わせありがとうございます。何かお手伝いできることはありますでしょうか。 CTM 洗濯機のホースなんですが、もし破れたり劣化したりしたら自分で付け替えられますか? OPR 給水ホースはお客様ご自身での交換が可能です。排水ホースは外に出る蛇腹部分が外付となる外部排水ホース部分については交換可能です。 CTM 外部ではない排水ホースってあるんですか? OPR 内部側の排水ホースと、外部排水ホースのある夕イプと、外部排水ホースがなく内部側の排水ホー スと二体化しているタイプがございます。内部のホースや、一体化しているタイプは補修部品となりお客様ご自身での交換は出来かねる部分です。弊社ご相談窓口へ点検・修理をご依頼ください。 CTM ちなみに自分のやつがどっちかっていうのは判断できるんですか? OPR 排水ホースの仕様は製品によって異なるため、お使いの製品の取扱説明書・据付説明書にてご確認ください。 CTM もし外部ホースがあるタイプで、外部側と給水ホースだけ交換したい場合どうすればいいですか? OPR お客様ご自身で交換可能な給水ホースと外部排水ホースについては、製品を購入された販売店で在庫・価格などご確認の上で部品としてご注文をお願い致します。 CTM 分かりました。参考になりました。 OPR お役に立てたのであれば幸いです。何か他にお困りのことはございますか? CTM いえ、聞きたいことは聞けたので今のところ他は特にないので、また何かわからないことがある時は改めてご相談します。 OPR かしこまりました。何かございましたら、お気軽にお問い合わせください。本日はお忙しいところ、お問い合わせいただきありがとうございました。 LLM の生成結果と作業者による修正後の編集距離を調べたところ、平均 280.93 (最大 1,161 、最小 0)で、収集した全応答のうち $17.55 \%$ の応答(1,977 件)が LLM の出力をそのまま受け入れたものであった。また、ナレッジの多くは、表 1 亿示したように FAQ となっている。カスタマーからの質問と FAQ がどの程度表層的に異なるかを調べるため、質問と本来参照されるべきナレッジとして作業者が指定したナレッジのタイトルとの編集距離を調べた6)。編集距離の平均は 47.99 (最大 261、最小 0) で、ナレッジのタイトルと完全に同じ質問をしている応答は $0.013 \%$ (100 件)であった。 ## 4.1 LoRA チューニングによる影響分析 LLM の LoRA チューニングによる影響を調べる。以降、「再学習前」「再学習後」と述べる際は LLM-jp 6)ここでは、評価において「ナレッジは不要」と選択された応答以外の応答 7,792 件を対象として分析を行った。 表 5 LLM 再学習前・後の各応答に対する「応答の総合評価」の割合の変化。丸括弧内は件数を示す。 提供の 13B モデルを再学習する前と後の結果について記述する。LLM の生成品質について、作業者に評価してもらった 5 段階評価のうち「応答の総合評価」の結果についての LLM 再学習前・後の変化を表 5 に示す。表より、LLMを再学習した後は再学習前と比べて「とても良い」と評価された応答が大きく増加傾向にあり、また反対に「悪い」「とても悪い」 と評価された応答は大きく減少傾向にあった。これは、LLM の再学習によって生成品質が向上し、普段実務を行なっている作業者から見ても品質の良い応答が生成できるようになったことを示している。 また、再学習により、作業者にとって望ましい応答を生成できるようになっていれば、作業者の応答修正の負荷も減っていると考えられる。そこで、 LLM の再学習前・後での LLM の生成結果と作業者による修正後の編集距離の差異を比較した。結果、 LLM の出力をそのまま受け入れたもの(編集距離が 0のもの)が再学習前は $4.80 \%(293 / 6,097)$ だったのに対し、再学習後は $35.80 \%(1,341 / 3,746)$ にも上った。これは、再学習によって生成品質が向上したLLMを用いることで、データ作成の効率が上昇させることができることを示唆する結果となった。 ## 5 議論:データ作成手順の課題 データ作成の手順にはいくつかの課題があった。 まず、ナレッジの構築に長時間を要した。特に、実際の家電製品が存在しない中でのナレッジの作成であったため、表 2 のような独自家電の設計は容易ではなかった。第 3.1 節で述べたように、画像等は作成しなかったが、先に擬似的な製品画像でイメージを共有した後にナレッジを作成するなどのアプロー チをとることで、より高品質なナレッジの作成に繋がった可能性がある。なお、今回は、著者を含む作業者間で Notion 上でインタラクティブに議論をしながら作成した。対話データ作成時にナレッジの不備や誤りを発見した際は修正するようにして、ナレッジの推敲を行なった。 一方で、仮想家電メーカのナレッジと対話データ の作成を同時進行的に行うことにしたため、ナレッジに紐づいていない対話データができてしまった。表 1 を参考に例を挙げると、対話データ作成途中に、「給水ホースは自分で交換可能ですか?」と「排水ホースは自分で交換可能ですか?」といった $2 \supset$ の FAQ が表 1 のように 1 つにまとめられるといった場合があった。そうした場合、2つの FAQがある時点で作成された対話データは、最新のナレッジとリンクしなくなっている。今回は、ナレッジに紐づいていない対話データはフィルタリングにより除いている。FAQを定期的に更新することは、実際のコンタクトセンターでも行われることであり、実環境でデータを収集する場合にも起きうる課題である。 ## 6 今後の展望 自然言語処理の応用先としてコンタクトセンター は有望であるものの、個人情報等の課題もあり、 データがあまり充実していなかった。我々が作成したデータセットは、対話データだけでなくナレッジも付随していることが特徴である。コンタクトセンターのチャットボットのみならず、FAQ の編集支援など、様々な業務支援システムの研究開発に応用可能だと考えている。 本研究は探索的な取り組みであり、データやその作成方法に関して十分に評価できていない点も多い。データ作成のためのインストラクションなど多くの改善点があると考えている。今後は、本データを基準に、より高品質なデータを効率的に作成可能な方法論の開発を目指す。具体的には、人対人でのデータ作成方法と人対 LLM を比較することを計画している。 今回作成したデータはあくまで擬似的なものであり、実世界の複雑さを完全に反映していない可能性がある。そのため、実データとの比較や作成したデータで学習した LLM を実運用を行い、データ作成手法の改善を行う予定である。 ## 7 おわりに 本論文では、コンタクトセンターにおける対話データを人と LLM の協働によって作成するアプローチについて検討した。仮想の家電メーカを設定し、擬似的なナレッジと対話データを作成した。 データセットは、自然言語処理の応用研究に貢献できると考えており、学術研究の用途に限定して公開する予定である。 ## 謝辞 本研究を進めるにあたり、データ作成とナレッジ整理に尽力くださったトランスコスモスの従業員の方々に感謝申し上げます。 ## 参考文献 [1] 坂田亘, 田中リベカ, 黒橋禎夫. 公式ウェブサイトをベースにした qaチャットボットの自動構築. 言語処理学会第 26 回年次大会発表論文集, pp. 327-330, 2020. [2] 邊土名朝飛, 友松祐太, 佐々木翔大, 阿部香央莉, 乾健太郎. 多様なタスク指向対話データの収集を目的としたクラウドソーシングにおけるインストラクションの設計. 人工知能学会全国大会論文集, Vol. JSAI2023, pp. 4Xin102-4Xin102, 2023. [3] Bo-Ru Lu, Nikita Haduong, Chia-Hsuan Lee, Zeqiu Wu, Hao Cheng, Paul Koester, Jean Utke, Tao Yu, Noah A. Smith, and Mari Ostendorf. DIALGEN: Collaborative Human-LM Generated Dialogues for Improved Understanding of Human-Human Conversations, 2023. [4] チャットボットはコールセンター運営に必要!事例や活用方法を解説, Aug 2021. Accessed: 2024-01-11. [5] 鈴木正敏, 鈴木潤, 松田耕史, 西田京介, 井之上直也. Jaqket: クイズを題材にした日本語 qa データセットの構築. 言語処理学会第 26 回年次大会, pp. 237-240, 2020. [6] Alisa Liu, Swabha Swayamdipta, Noah A. Smith, and Yejin Choi. WANLI: Worker and AI Collaboration for Natural Language Inference Dataset Creation. In Yoav Goldberg, Zornitsa Kozareva, and Yue Zhang, editors, Findings of the Association for Computational Linguistics: EMNLP 2022, pp. 6826-6847, Abu Dhabi, United Arab Emirates, December 2022. Association for Computational Linguistics. [7] Helena Bonaldi, Sara Dellantonio, Serra Sinem Tekiroğlu, and Marco Guerini. Human-Machine Collaboration Approaches to Build a Dialogue Dataset for Hate Speech Countering. In Yoav Goldberg, Zornitsa Kozareva, and Yue Zhang, editors, Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing, pp. 8031-8049, Abu Dhabi, United Arab Emirates, December 2022. Association for Computational Linguistics. [8] Yuta Hayashibe. Self-contained utterance description corpus for Japanese dialog. In Nicoletta Calzolari, Frédéric Béchet, Philippe Blache, Khalid Choukri, Christopher Cieri, Thierry Declerck, Sara Goggi, Hitoshi Isahara, Bente Maegaard, Joseph Mariani, Hélène Mazo, Jan Odijk, and Stelios Piperidis, editors, Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 1249-1255, Marseille, France, June 2022. European Language Resources Association. [9] 祐太林部. 要約付き宿検索対話コーパス. 言語処理学会第 27 回年次大会論文集, pp. 340-344, 2021. [10] Patrick Lewis, Ethan Perez, Aleksandra Piktus, Fabio Petroni, Vladimir Karpukhin, Naman Goyal, Heinrich Küttler, Mike Lewis, Wen-tau Yih, Tim Rocktäschel, Sebastian Riedel, and Douwe Kiela. Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks. In H. Larochelle, M. Ranzato, R. Hadsell, M.F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 9459-9474. Curran Associates, Inc., 2020 . [11] Edward J Hu, yelong shen, Phillip Wallis, Zeyuan AllenZhu, Yuanzhi Li, Shean Wang, Lu Wang, and Weizhu Chen. LoRA: Low-Rank Adaptation of Large Language Models. In International Conference on Learning Representations, 2022. [12] Andrew Trotman, Antti Puurula, and Blake Burgess. Improvements to BM25 and Language Models Examined. In Proceedings of the 19th Australasian Document Computing Symposium, ADCS '14, p. 58-65, New York, NY, USA, 2014. Association for Computing Machinery. [13] Gordon V. Cormack, Charles L A Clarke, and Stefan Buettcher. Reciprocal Rank Fusion Outperforms Condorcet and Individual Rank Learning Methods. In Proceedings of the 32nd International ACM SIGIR Conference on Research and Development in Information Retrieval, SIGIR '09, p. 758-759, New York, NY, USA, 2009. Association for Computing Machinery. [14] Ikuya Yamada, Akari Asai, Hiroyuki Shindo, Hideaki Takeda, and Yuji Matsumoto. LUKE: Deep contextualized entity representations with entity-aware self-attention. In Bonnie Webber, Trevor Cohn, Yulan He, and Yang Liu, editors, Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6442-6454, Online, November 2020. Association for Computational Linguistics. [15] Luyu Gao, Xueguang Ma, Jimmy Lin, and Jamie Callan. Precise Zero-Shot Dense Retrieval without Relevance Labels. In Anna Rogers, Jordan Boyd-Graber, and Naoaki Okazaki, editors, Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1762-1777, Toronto, Canada, July 2023. Association for Computational Linguistics. ## A データ作成手法の詳細 作業者がデータを作成する際に使用したユーザー インターフェイスを図 2 と 3 に示す。7) まず、作業者がカスタマーのふりをして質問をする(図2)。質問が送信されると、LLMを用いてオペレータ側の回答が生成される。次に、作業者はオペレータ側の回答を確認し、以下の要素について 5 段階評価を入力する (図 3)。 ・対話としての流暢性 ・応答の適切性 ・応答の丁寧さ ・応答の事実性(選択肢「評価できない」を含む) - 応答の総合評価 この際、応答が適切でない・流暢でない場合には、回答を直接書き換える。なお、「総合評価」と他 4 種類の軸の評価結果のスピアマン相関が 0.8 以上と高かった。そのため、本文中での分析では、総合評価の結果のみを使用した(第 4.1 節)。 LLM が参照したナレッジも提示され、ナレッジ自体が適切であるかの評価及び、参照先が誤っている場合には修正を行う。ナレッジの内容が不適切である場合は、Notion 上で編集作業を行う。以上の操作を終えるとオペレータ側の回答が確定し、カスタマ一側の発話の入力画面に戻る。カスタマ一側の課題が解決するまで対話を続行した後、対話終了ボタンをクリックすることにより一連の対話を保存する。 データ作成作業は複数の作業者が同時に進めたため、一部のナレッジに関する対話が複数生成される一方で、全く対話の紐付かないナレッジが多数残る状況が見られた。この問題を軽減するため、使用されていないナレッジを自動的に抽出し、そのナレッジに関連した対話を行うよう促す表示を追加した。 また作業者ごとにデータ作成作業に費やせる時間に差異があったため、より多くの作業者が対話作成に携わり多様性をもたせられるよう、作業者ごとのナレッジ作成と対話に費やす時間のバランスを管理者側で調整した。 ユーザーインターフェースは Web ブラウザで利用可能な Web アプリケーションとして実装し、作業者のパソコンにはソフトウェアを導入する必要  お問い合わせありがとうございます。何かお手伝いできることはありますでしょうか。 エアコンは100Vと200Vで何が違うんですか? 送信 ## 対話終了 図 2 カスタマー側の発話の入力画面 ## チャットの評価 100Vと200Vのエアコンは消費電カが異なります。200Vの方が多くの電力を消費するため、ー般にパワーや分能力が高くなります。そのため、短時 100Vのエアコンの温度調整能力は200Vのエアコンに比べると劣るため、比較的小さな部屋での使用が適しています。 上記の応答について評洒をしてください。 対話としての流舓性を評洒してください。 とても悪い ○覀い○どちらとも言えない ○良い○とても良い 応答の道切性を評祝してください。 とても覀い $\bigcirc$ 覀い ○どちらとも言えない $\bigcirc$ 良い ○とても良い 応答の丁面さを教えてください。 とても覀い $\bigcirc$ 覀い ○どちらとも言えない ○良い○とても良い 応答の事央性を教えてください。 とても覀い $\bigcirc$ 悪い○どちらとも言えない ○良い○とても良い $\bigcirc$ 判断できない 応答の総合評価を教えてぐ゙さい。 とても悪い ○覀い○どちらとも言えない ○良い○とても良い 応答が道切でない・流暢でない場合、下部のフォームを用いて適切な形に修正してください。 100Vと200Vのエアコンは消費電カが異なります。200Vの方が多くの電力を消費するため、一般にパ 図 3 オペレータ側の発話の評価・修正画面 がないよう配慮した。Web サーバ側には NVIDIA L4 GPU を搭載し、LLM の量子化技術を適用することにより推論速度の高速化に取り組んだ。オペレータのレスポンスを極力短時間で返すことで、データ作成作業の効率化が期待できる。 ## B ナレッジの例 表 6 仮想のエアコン家電エアリーの詳細ナレッジの一部 \#\# 仕様 【製品コンセプト】よくあるスタンダードモデル 【型番】UFE-F2322 冷暖房時おもに 10 疊(冷 房 8 12 畳: 暖房 8 10 疊) UFE-OT2328 冷 暖房時おもに 14 轠 (冷房 11 17 轠: 暖房 11 14 畳) UFE-OT2350 冷暖房時おもに 18 【価格】オープン価格 仮想製品“エアリー”の製品詳細の一部をを表 6 に示す。
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-24.pdf
# 地図を刺激に用いた位置情報参照表現の収集 大村舞 国立国語研究所 } 川端 良子 国立国語研究所 } 竹内 誉羽 ホンダリサーチインスティチュート ## 概要 本研究では、位置情報を参照する表現のデータベースを構築した。20 の地図を刺激とし、 1 地図あたり 40 人に地図上に示した目標点の位置情報の記述を依頼し、800 の位置情報参照表現を収集した。位置情報参照表現は、地図上のランドマークに基づく相対参照表現のみであるかを判定したうえで、相対参照表現のみの場合には、一人称視点(目標点からの見えるものの記述) ・空間内視点(地図中の他の地点から目標点を参照) ・空間内移動(地図中の他の地点から目標点に移動) ・鳥瞰視点(地図を上から俯瞰)の4つに分類した。さらに各表現のわかりやすさをアンケート調査により収集した。 ## 1 はじめに 地図上の位置情報を言語で伝えるために、直接 GIS 情報に紐づけ可能な固有位置情報・ランドマー クから東西南北で指示する絶対参照情報・向きを仮定したうえで前後左右で指示する相対参照情報などが用いられる。一方で、実際に空間内実体が東西南北がわからない状況で位置情報を特定する場合する状況もある。その場合、話者の伝える固有位置情報と相対参照情報のみを用いた位置情報参照表現が手がかりとなるだろう。 本研究は地図を刺激に用いた位置情報参照表現の収集を行った。20の地図を刺激とし、クラウドソー シングを用いて、地図情報目標物を固有位置情報と相対参照情報のみで表現した位置情報参照表現を 1 地図あたり 40 件収集することを目指した。収集した言語表現が固有位置情報と相対参照情報のみであるかを判定したのち、一人称視点(目標点からの見えるものの記述) ・空間内視点 (地図中の他の地点から目標点を参照) ・空間内移動(地図中の他の地点 から目標点に移動) ・鳥瞰視点(地図を上から俯瞰) の 4 つの視点分類ラベルを付与した。さらに各表現のわかりやすさをアンケート調査により収集した。 ## 2 データの構築手法 ## 2.1 位置情報参照表現の収集 図 1 刺激に用いた地図の例 (30 度回転) 位置情報参照表現の収集は Yahoo! クラウドソー シングにより実施した。図 1 のように地図を示したうえで、ォもしくはので示した目標点の位置情報の記述を依頼した。作業に際しては、相対参照表現の収集を目標とし、元の地図を回転した地図のいずれかを刺激とし、以下の 3 点を指示した。 ・作業者が地図の中のどこかにいるような観点で 「前後左右」を使う ・地図の図面における「上下左右」を使わない ・「東西南北」を使わない 表現の収集は、スクリーニング調査と本調査の 2 段階により行った。スクリーニング調査においては、図 1 のように 30 度、 120 度、 210 度、300 度のいずれかの角度回転させた地図を用い、各地図 400 人・合計 1600 人分のデータを収集した。調査画面の例を付録 A の図 2 に示す。スクリーニング調査において 1 回答あたり 10 円相当の PayPay ポイントを謝礼として支払った。スクリーニング調査は 2023/11/01 17:01 に開始し、2023/11/02 13:10 に終了した。このうち、固有位置情報表現と相対位置表現のみにより適切に回答した 569 人を本調査対象者とした。本調査においては、20 種類の地図に対して、 4 種類の回転を加えた 80 パターンの刺激を作成し、各パターン 10 人・合計 800 表現を収集した。本調査において 1 回答あたり 50 円相当の PayPay ポイントを謝礼として支払った。本調査は 2023/11/07 14:06 に開始し、2023/11/16 20:40に終了した。 ## 2.2 収集した位置情報参照表現の分類 本調査で収集した 800 表現について、以下の表現分類のいずれかを付与した: - A: 固有位置情報表現・相対位置情報表現のみである(東西南北などを用いていない) - B: 固有位置情報表現・相対位置情報表現・絶対位置情報表現である(東西南北を用いている) ・(C: 位置情報参照表現として適さない) 結果、 800 表現中 797 表現が A であり、 3 表現が B であった。スクリーニング調査が効果的に機能し、効率的に目的の表現を収集できたといえる。 さらに、「A: 固有位置情報表現・相対位置情報表現のみである」表現については、以下の視点分類を付与した(例は図 11)を刺激としたもの): $\cdot$ P: 自分が目標点に立っている(一人称視点) 例)「丸印は野村證券の建物を正面に見て、右に文化ビルがあり、背面には伊勢丹、左には伊勢丹メンズ館がある。そのような位置となります。」 - $\mathrm{Q}$ : 自分が地図中の目標点以外の位置に立っているが移動はしない(空間内視点) 例)「文化ビルから見て伊勢丹メンズ館の方面へ見た向かい側の建物」 - $\mathrm{R}$ : 自分が地図中の目標点以外の位置から目標点に移動する(空間内移動) 例)「新宿 3 丁目駅を出るとマルイがあるので三菱 UFJ 銀行がある方向へ進みます。\#\#交差点を左折して伊勢丹を抜けると目的の場所に着き 1)これらの例の地図はスクリーニング調査時にラベルの基準策定に利用したもので、公開する本調査のデータには含まれていない。 ます。」 ・ $\mathrm{S}$ : 目標点の周りにあるものを鳥瞰して示している(鳥観視点) 例)「伊勢丹と野村證券の中間にある建物で、大通りに面した新宿 3 丁目駅側。伊勢丹メンズ館の隣、ローソン側。」 なお、視点分類は複数のラベルが付与可能なマルチラベルとした。複数の表現がふくまれるものや、 1 つの表現で複数の視点によるとらえ方が可能なものについては、可能なラベルをすべて付与した: - $\mathrm{Q}+\mathrm{S}$ :(空間内視点)+(鳥瞰視点) 例)「新宿三丁目駅の近くにある伊勢丹、ロー ソン、マルイメン、野村證券に囲まれた交差点の一画に星印の場所がある。ローソン前に立ち正面に野村證券を見た場合、右側にマルイメン、左側に星印の場所がある。マルイメンとの位置関係は交差点を挟んだ対角線上である。」 - $\mathrm{R}+\mathrm{S}$ :(空間内移動)+(鳥瞰視点) 例)「新宿三丁目駅を伊勢丹側に向かっていくと、野村証券の手前に目的地があります。そこは伊勢丹メンズ館と文化ビルが左右に並ぶ建物です。」 なお、実際に作業を進めてみると、複数の視点のいずれか判断がつかない事例もあった。その場合は |で複数のラベルを並列した(以下の事例は図 1 を刺激としたものではなく、実際のデータにあったもの)。 $\cdot$ $\mathrm{P} \mid \mathrm{Q}$ : 自分がその位置のに立っているか、その位置・が見える場所に立っているのか 例)大通りを挟んでオーク表参道の向かいである。 ・ $\mathrm{Q} \mid \mathrm{S}:$ その位置—が見える場所に立っているのか、俯瞰で見ているのか 例)成増駅から西友のほうに出て、公園との丁字路の公園でも西友でもない角 例)ニトリ手前、まいばすけっと側道路の角の位置。豊島岡女子学園の道路 2 つ挟んだ先。 ## 2.3 表現のわかりやすさ評定 本調査で収集した 800 表現について、表現のわかりやすさ評定のアンケート調査を Yahoo! クラウドソーシングを用いて実施した。スクリーニング調査を通過した 569 人を対象に募集し、308 人が評定調査に参加した。付録 A の図 3 に調査画面を示す。 1 地図に対して7つの表現をランダムに配置し、評定は 0: わかりにくい〜5: わかりやすいの 6 段階評価とした。 1 回答あたり 2 円相当の PayPay ポイントを謝礼として支払った。 1 表現あたり 35 人の評定值を取得した。わかりやすさの評定調査は 2023/12/14 17:02 に開始し、2023/12/15 11:10 に終了した。 本研究の実施に際して、表現の収集および表現の印象評定に関する研究倫理審査を国立国語研究所にて実施し、承認を受けている。 ## 3 データの統計 本節では得られたデータの統計について示す。 表 1 観点別のわかりやすさ(個別) まず、 $\mathrm{P}:$ 一人称視点、 $\mathrm{Q}$ : 空間内視点、 $\mathrm{R}$ : 空間内移動、 $\mathrm{S}$ : 鳥瞰視点の観点の有無(観点ありが TRUE、観点なしが FALSE)で個別に集計を行い、それぞれのわかりやすさの平均値を求めた。表 1 亿集計結果を示す。目標物からの一人称視点(P)の表現は用いていないものが多く(688/800)、一人称視点を用いない表現(わかりやすさ平均 2.68)のほうが用いた表現(わかりやすさ平均 2.59)よりもわかりやすい。目標物を空間内から見る空間内視点 $(\mathrm{Q})$ の表現も用いていないものが多く (664/800)、空間内視点の表現の利用の有無についてわかりやすさの差異はなかった。空間内移動(R)の表現が最も多く、約半数(398/800)の位置情報表現に含まれており、 わかりやすさも空間内移動表現(わかりやすさ平均 2.77)のほうがわかりやすい。最後に鳥瞰視点 ( $\mathrm{S}$ ) の表現は、約 4 分の 1 (206/800)の位置表現に見られるが、鳥瞰視点を用いない表現(わかりやすさ平均 2.72)のほうが用いた表現(わかりやすさ平均 2.50)よりもわかりやすい。表 2 観点別のわかりやすさ(組み合わせ) 観点の組み合わせに基づく集計結果を表 2 に示す。組み合わせを見ても空間内移動 (R) の頻度が高く、わかりやすい傾向がみられた。一人称視点 $(\mathrm{P})$ については、空間内移動 $(R)$ や鳥瞰視点 $(S)$ と組み合わせた場合にはわかりやすい傾向があるが、そうでない場合は平均よりも低いわかりやすさであった。 表 3 にわかりやすい位置情報参照表現上位 10 例を示す。空間内視点 $(\mathrm{Q}) \cdot$ 空間内移動 $(\mathrm{R}) \cdot$ 鳥瞰視点(S)などの表現が含まれるが、いずれも複数の固有位置情報からの多様な相対位置表現が含まれている。 ## 4 関連研究 『日本語地図課題対話コーパス』[1]は、地図課題を被験者に課して音声対話を収録したコーパスである。情報提供者が地図上に始点・経路・終点・目標物の情報を保持し、情報追随者が地図上に始点と目標物のみの情報を保持するという設定で、情報伝達の対話を収録した。なお目標物は双方の地図に表示されているものと、片方の地図にのみ表示されているものが設定されている。『場所参照表現タグ付きコーパス』[2]は、Twitter(現X)のような SNS に投稿された場所参照表現に位置情報を付与したコーパスである。地名・施設名といった固有位置情報表現を対象とする。 徳永ら [3] は日本語の空間名詞の分類を行った。部分型 (位相) ・距離型・方向型の 3 つに分類し、主として一人称視点・空間内視点に資する体系化を行った。小林ら [4] は 2 つの物体の空間的関係を表す空間表現語の選択について、対象物間の距離や大 表 3 わかりやすい位置情報参照表現例 & 3.74 \\ きさなどの幾何的な要因がどのような影響を与えるかについて調査を行った。 Striegnitz ら [5] は、ノースウエスタン大学のキャンパスの道案内のジェスチャーのビデオを収録し、 Route Perspective (空間内移動)と Surver Perspective (鳥瞰視点)を識別した。収録された 368 のジェスチャーの内、Route Perspective が 54\% (199/368) で、 Survey Perspective が 16\% (60/368) と、空間内移動が鳥瞰視点よりも多く用いられることが示された。この割合は我々の調査に近い值である。長谷川ら [6] は擬人化エージェントによる道案内システムを構築し、空間内移動の説明と鳥瞰視点の説明のどちらがわかりやすいかの検証を行った。彼らの設定では鳥瞰視点のほうがわかりやすいという我々の調査と異なる結果が報告されている。 ## 5 おわりに 本研究では、固有位置情報と相対位置情報を用いたよりわかりやすい位置情報参照表現を収集することを目的とし、クラウドソーシングを用いて地図上の位置情報を説明する表現を収集した。位置情報表現に、一人称視点 - 空間内視点 - 空間内移動 - 鳥瞰視点などの観点の分類を人手により付与した。さら に、わかりやすさの評定について、クラウドソーシングを用いて収集した。 調査の結果から、位置情報の説明について「空間内移動」の観点に基づく表現が最も多く生成され、最もわかりやすいことがわかった。 今回整備したデータについては、地図情報・観点分類・わかりやすさとともに公開する。 ## 謝辞 本研究はホンダリサーチインスティチュート-国立国語研究所共同研究プロジェクト「行き先目標物の参照表現に関する日本語話し言葉の分析」・国立国語研究所基幹型共同研究プロジェクト「アノテー ションデータを用いた実証的計算心理言語学」・科研費 JP22K13108, JP19K13195によるものです。 ## 参考文献 [1] 堀内靖雄, 中野有紀子, 小磯花絵, 石崎雅人, 鈴木浩之, 岡田美智男, 仲真紀子, 土屋俊, 市川喜. 日本語地図課題対話コーパスの設計と特徴. 人工知能学会誌, Vol. 14, No. 2, pp. 261-272, March 1999. [2] 松田耕史, 佐々木彬, 岡崎直観, 乾健太郎. 場所参照表現タグ付きコーパスの構築と評価. Technical report, January 2015. [3] 徳永健伸, 小山智史, 齋藤豪. 日本語空間名詞の分類. Technical Report 108 (2004-NL-164), 東京工業大学大学院情報理工学研究科, January 2004. [4] 小林竜己, 寺井あすか, 徳永健伸. 空間語選択における幾何的要因の影響. 認知科学, Vol. 15, No. 1, pp. 144-160, March 2008. [5] Kristina Striegnitz, Paul Tepper, Andrew Lovett, and Justine Cassell. Knowledge representation for generating locating gestures in route directions. In Proceedings of the Workshop in Spatial Language and Dialogue, pp. 147-165, January 2005. [6] 長谷川大, 佐久田博司. 擬人化エージェントによる AR 道案内システム. 知能と情報, Vol. 29, No. 6, pp. 670-677, December 2017. ## A 付録:調査画面例 地図上にネ印で示された場所を、ネ印のまわりのランドマークとの相対位置として説明してください。 $\cdot$ 30文字以上200文字以下の表現でおねがいします。 ・「みなさんが地図の中のどこかにいるような観点で前後左右」を使つて説明をお願いします。 $\cdot$地図の図面における「上下左右」は使わないでください。 $\cdot$「東西南北」は使わないでください。 図 2 調査画面例:位置情報参照表現の収集 図 3 調査画面例 : わかりやすさのアンケート調査
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-25.pdf
# 実際の人々の感想を利用した雑談発話生成 成田 風香 ${ }^{1}$ 佐藤 志貴 ${ }^{1}$ 徳久 良子 ${ }^{1}$ 乾 健太郎 $2,1,3$ ${ }^{1}$ 東北大学 ${ }^{2}$ MBZUAI ${ }^{3}$ 理化学研究所 fuka.narita.q1@dc. tohoku.ac.jp ## 概要 雑談では,感想を述べる発話が対話の盛り上がりに寄与することが知られている,我々は,文脈に対して適切な感想を生成できる発話生成システムの実現を目指し,対話の話題に対する実際の人々の感想を外部情報として入力に用いることを試みる.本稿では,我々がこれまでに構築した「感想付きニュー ス雑談コーパス」を拡張した上で,システムの追加学習を行うことで,人々の感想を利用して発話を生成するシステムを構築した. 生成発話の評価の結果,文脈に対して自然であり,かつ感想を含む発話を多く生成できることが分かった。加えて,これらのシステムにより生成された発話は,雑談を盛り上げるような発話であることが明らかとなった. ## 1 はじめに 近年,ニューラルネットワークをべースとした発話生成システムの性能が向上している $[1,2,3]$. しかし,ユーザと話すこと自体が目的である「非タスク指向型対話 (雑談)」に関する研究では,システムの応答が受動的であることが指摘されており [4],場合によっては対話の盛り上がりへの寄与に欠けた応答となることが考えられる。一方で,人同士の雑談では感想を述べる発話が対話の盛り上がりに寄与すること [5], 人はシステムと話すとき,相手に人と同様の振る舞いを期待する傾向があること [6] から, システムから感想を含む発話を生成することで,雑談をさらに盛り上げることができると考えられる。 しかし, 発話生成システムが適切でない感想発話を生成することにより倫理面や安全性の観点で問題が起きる危険性について指摘されている $[7,8]$. そこで我々は,倫理面や安全性の問題に配慮しながら自然な感想を発話するシステムを実現するため,実際の人々の感想を利用することを試みる。我々はこれまでに,図 1 に示すような発話生成システムの構築を目指し,対話の話題とそれに対する実 図 1 我々が構築を目指す発話生成システムの全体像. 話題に対する人々の感想を外部情報として用いることで,感想を含む発話を生成する。 際の人々の感想,対話を組み合わせた「感想付きニュース雑談コーパス」を構築した [9]. 本稿では,構築したコーパスを大規模化した上で,学習済の発話生成システムの追加学習を行った. そのシステムに人々の感想や文脈を入力して生成した発話を,感想発話の積極性や雑談の盛り上がりの観点で評価した. 評価の結果,文脈のみから次の発話を生成する従来法に比べて文脈に対して自然な発話を生成でき,かつ感想を含む発話を多く生成できることが分かった。加えて,これらのシステムにより生成された発話は,雑談を盛り上げるような発話となっていることが明らかとなった。 ## 2 コーパスの構築 我々はこれまでに,ある話題に対する人々の感想を用い,その話題について対話を行う図 1 のような発話生成システムの実現を目指し,感想付きニュー ス雑談コーパスを構築した.本コーパスは,人々の感想としてツイート1)を,ツイートの集まっている話題としてニュース記事を用いることとし,「話題 (ニュース記事)」「感想(話題に対するツイート)」「対話」の三つ組みで構成されている 2$)$ 。収録されて  いる対話は Wizard of Oz 法で行われたものである.一人はシステム役としてニュース記事の話題を投げかけ,その内容とそれに対する実際の人々の感想を提供しながら発話し,もう一人はユーザ役として自由に発話した. システム役の発話には,話題に対するツイート群の中からどのツイートが使用されたかを示す情報が付与されている. 以前の我々の研究 [9] でコーパスに収録された対話数は 425 対話であったが,より自然な発話生成の学習を行うため対話数を増やし, 47 件のニュース記事に対して, 11,256 発話から成る 1,005 対話とした. 1 対話あたりの発話数は 11.2 発話, 1 対話あたり使用されたツイート数は 2.8 個である. ## 3 実験設定 我々が構築したコーパスを用いることで,人々の実際の感想を用いて発話するよう学習されたシステムが,倫理的な問題を含まない自然な感想を積極的に生成できるかを検証した. さらにそれらの発話が雑談を盛り上げることに対し効果的かを検証した. ## 3.1 コーパスの分割 評価実験にあたり,構築したコーパスを学習デー タ 837 対話,開発データ 72 対話,評価データ 96 対話に分割した. それぞれのデータセット間の独立性を保てるよう,各データセットに含まれるニュース記事には重なりがないようにした. ## 3.2 発話生成システムの学習と推論 本評価実験では,評価データ中の対話に含まれるシステム役の特定の発話を参照応答,参照応答に先行する発話の系列を対話文脈,またコーパス構築において同対話がなされたときにシステム役に提示されていたニュース記事全文およびツイート群を外部情報候補と呼ぶ。発話生成システムに参照応答直前の対話文脈 3 発話や外部情報候補の 1 つを入力し,対話文脈直後の発話として生成された発話の質を評価した. 生成発話の評価には, 以下の 4 個の発話生成システムを用いた。下記の (1) はベースラインシステムで,(2)〜 (4) は感想付きニュース雑談コーパスを用いて追加学習したシステムである. (1) baseline-model. 対話文脈のみの入力で自然な発話生成を行うべースラインシステムとして, Sugiyama らが公開している japanese-dialogtransformers [10]を用いた. 本システムには評価デー タの対話文脈のうち直近 3 発話のみを入力として与え,続く発話を生成させた。 (2) oracle-w/NT. 人手で選ばれた文脈に適切な外部情報を入力して生成される発話を評価するため,本発話生成システムを用いた。外部情報候補の中から,コーパス構築時にシステム役が参照応答に用いた外部情報を対話文脈と連結して入力し, 文脈に続く発話を生成するよう学習して本システムを構築した. 具体的には,参照応答がいずれかのツイートを使用して発話されていた場合,そのツイー トと対話文脈を連結させたものを入力とした. いずれのツイートも使用されていない場合,参照応答がニュース記事の一文を参考にしていると推測される場合はその文3)を対話文脈と連結して入力とし,それ以外の場合は対話文脈のみを入力とした。このようにして決定した入力に対し,参照応答を出力として baseline-model を追加学習することで本システムを構築した. 生成時は, 学習時と同様に, 参照応答に応じて外部情報を決定し発話を生成した。 (3) oracle-w/N. 本システムでは,入力にツイー 卜を使用せず,発話を生成した. 本システムの生成発話を oracle-w/NT の生成発話と比較することでツイートを入力することの有効性を確認した.ツイートを使用した発話を参照応答とするデータを学習データから除いた点以外は oracle-w/NT と同様に本システムを構築した. 生成時もツイートを使用せず,参照応答に応じて,外部情報として用いるニュース記事の一文を決定した。 (4) select-w/NT. (2),(3) のシステムでは,参照応答を利用して入力する外部情報を決定し発話を生成したが,実際の対話の場面では参照応答は存在しない,そこで本システムでは,システム自身が外部情報候補から文脈に適切なものを選択して発話を生成し, oracle-w/NTによる生成発話と比較して, 参照応答がある場合と参照応答がない実用時を想定した場合の差を検証した. 本システムは BlenderBot 3 [11] に倣い,特殊トークンを付与することで,外部情報の選択と発話の生成をどちらも生成問題として同一の系列変換器に学習させた. 外部情報の選択の学習時には,(2)で述べた手法で選択される外部情報と対話文脈を入力した場合の出力を ‘ 1 ’,選択されない外部情報と対話文脈を入力した場合の出 3)具体的には,対話の話題となっているニュース記事本文を ja-sentence-segmenter で分割し,参照応答と類似度の高い 1 文を発話に用いた外部情報として決定した。 力を ' 0 ’として baseline-model の追加学習を行った.発話生成の学習時は, oracle-w/NT で述べた手法で選択される外部情報と対話文脈を連結して入力し,参照応答を出力とする学習を行った. 評価データの発話生成は, 1. 入力する外部情報の選択, 2. 選択された外部情報を利用した発話生成の 2 段階からなる.外部情報選択時には,外部情報候補を文脈と合わせて 1 つずつ入力し, ' 1 ' が出力された外部情報の中から 1 つを外部情報として選択した ${ }^{4)}$ ,評価データの発話生成時は,選択された外部情報を対話文脈と連結して入力し, 生成した。 ## 3.3 人手による発話の評価 評価データ中のシステム役の発話 100 個を無作為抽出して参照応答とし,それらの対話文脈と,文脈に続く4つのシステムからの生成発話をアノテータに提示し評価させた ${ }^{5}$ ). 評価の観点と集計方法を以下に示す. (1) 発話の自然性. 感想の発話のために外部情報を用いることで自然性が損なわれないか確認するため,文脈に続く発話としての自然性を 1 (不自然),2(捉え方によっては問題ない),3(自然)の 3 段階で絶対評価をさせ,平均値を算出した。 (2) 倫理性. 感想を含む発話には倫理的な問題を含みやすいと考えられる。 それぞれの発話に問題があるかどうかを評価させ,少なくとも 1 人が問題ありとした発話を倫理的な問題のある発話とした。 (3) 盛り上がり. 外部情報を入力に加えるシステムが雑談の盛り上がりに効果的かどうかを調べるため,4つのシステムの生成発話をランク付けにより評価させた ${ }^{6}$ .そのランクを一対比較に変換し, それぞれのシステムの勝率を計算した7). さらに,生成された発話が感想を含んでいるかを著者らにより評価した。 4)優先順位をツイート,ニュース記事とし,複数の候補に対して‘1’が出力された場合はその生成尤度が最も高いものを選択した.外部情報候補のいずれに対しても“1”が出力されなかった場合は,外部情報を入力に加えないこととした. 5)アノテータは研究室の学生 3 人であり,4つのシステムの特徵は公表せず,無作為な順序で生成発話を提示した. 6)後の雑談が盛り上がりそうな順にランク付けするよう指示し,2つ以上の発話の順位を同率にすることを許容した。 7) 具体的には,あるシステムAと B の発話を比較するとき, まず各ワーカーのランキングから,システムACB9発話の優劣関係を取り出し,上位のシステムを +1 点,下位のシステムを -1 点とした. この点数を 3 人のアノテータで合計し, 0 点を上回る場合は勝ち,0 点の場合は引き分けとした.以上を全組み合わせ,全 100 個の文脈に対する発話に行うことで,それぞれのシステムの勝率を算出した。 図 2 感想発話数と倫理的に問題がある発話の数および各システムの自然性の評価値の平均。 ## 4 実験結果 ## 4.1 感想を生成する能力に関する評価結果 本研究では,雑談を盛り上げるために積極的に感想を発話する雑談発話生成システムの構築を目標としているが,その感想は自然かつ倫理的な問題がないことが望まれる.各システムの生成発話のうち感想が含まれていた数,生成発話の自然性に対する 3 段階評価の平均值,倫理的に問題があるとされた発話の数を図 2 に示す. 感想発話の生成に対する積極性. 発話生成時,外部情報としてツイートを使用した select-w/NT と oracle-w/NT は,ツイートを使用していない oraclew/N や baseline-model と比較して感想を含む発話が生成された数が多かった. 特に, oracle-w/NT と, oracle-w/N, baseline-model における頻度を比較したところ,統計的に有意な差が得られた ${ }^{8}$. 以上から,他者の感想を入力することで感想を含む発話が積極的に生成でき,特にその感想の選択において参照応答を利用した場合にはより積極的に感想を含む発話を生成できた。 自然性. 発話の自然性に関する 3 段階評価の平均値は, baseline-model は 1.99, oracle-w/NT は 2.30, oracle-w/N は 2.28, select-w/NT は 2.07 であった. 参照応答をもとに入力する外部情報を定めた oracle-w/NT, oracle-w/N の生成発話は, baseline-model の生成発話と比べて自然であった.また,入力する外部情報をシステム自身が選択した select-w/NT の生成発話の自然性に関する評価値はベースラインと (1)=8.3, p=0.0040$, baseline-model との比較におい $\tau, \chi^{2}(1)=4.8, p=0.029$ となった. } 比べて同程度であった. 以上から,他者の感想を外部情報として発話生成に用いてもシステム発話の自然性は損なわれず,特に,参照応答をもとに,入力する外部情報を定めて発話生成を行った場合には自然性が向上した。 倫理性. 倫理的に問題があるとされた発話の数は, 100 発話中, baseline-model は 2 発話, oracle-w/NT は 2 発話, oracle-w/N は 0 発話, select-w/NT は 1 発話であった. 感想の積極的な発話により,倫理的な問題を含む発話の生成頻度が高くなると考えられるが,感想の生成にツイートを用いる select-w/NT や oracle-w/NT では, 倫理的に問題がある発話の数はベースラインと同程度に低かった. 問題があるとされた発話の例とその詳細を付録 $\mathrm{A}$ に示す。 以上の 3 点から,参照応答をもとに外部情報を入力して発話生成を行う場合,自然性と倫理性を損なわずに,積極的に感想を含む発話を生成できた。 このことから,適切な外部情報を使用するシステムは対話を盛り上げることができると考えられる。 select-w/NT はベースラインと同程度の自然性であったが,自然性や感想発話の生成に対する積極性は oracle-w/NT を下回ったことから, 適切な外部情報の選択手法には改善の余地があると考えられる。 ## 4.2 雑談の盛り上がりへの寄与 盛り上がりの評価に関する結果を表 1 に示す。 ニュース記事とツイートを入力して発話を生成した oracle-w/NT,select-w/NT は,ツイートを利用しない oracle-w/N, baseline-model 両方との比較で勝率が 0.5 を超えた. 特に,参照応答をもとに外部情報を選択して入力し, 生成した oracle-w/NT は, 勝率の平均値が最も高くなった. このことから, 他者の感想を外部情報として適切に選択し, 積極的に感想を生成可能な発話生成システムを実現することで,雑談を盛り上げる発話が生成できると考えられる。 ## 4.3 発話生成例 表 2 に,各システムの発話生成例を示す. selectw/NT, oracle-w/NTでは,入力されたツイートを利用した具体性の高い感想の生成が見られた. この対話において,3人のアノテータによる盛り上がりに関する評価結果は, 高い順に select-w/NT, oracle-w/NT, oracle-w/N, baseline-model となった. 以上の例からも,実際の人々の感想を外部情報として選択し,発話生成に利用することが,雑談の盛り上がりに寄与表 1 発話生成システムの盛り上がり評価の勝率 & & & & 平均値 \\ oracle-w/NT & $\mathbf{0 . 7 6}$ & - & $\mathbf{0 . 5 9}$ & $\mathbf{0 . 5 7}$ & $\mathbf{0 . 6 4}$ \\ oracle-w/N & 0.70 & 0.41 & - & 0.46 & 0.52 \\ select-w/NT & 0.71 & 0.43 & 0.54 & - & 0.56 \\ 表 2 感想を含む生成発話の例. ## 文脈 S:はじめまして宜しくお願いします $\mathrm{U}:$ こちらこそよろしくお願いします $\mathrm{S}$ : ハイブリッドの記事読みましたでしょうか? U: はい。読みました。どう感じましたか? $\mathrm{S}$ : 日本のハイブリッド車の売上げに影響するのかな と思います販売できないとなると販売戦略もなに も無いですよね U: そうですよね。もう少し考えて欲しいですよね。 oracle- [TWEET] あと 13 年。他あと 13 年。他の州はど w/NTの州はどうするのかうするのかな。 な。 oracle- [NEWS] 他の州がカリカリフォルニア州の規 w/Nフフォルニア州の規制に制にならうことも「多ならうことも許されてくの州で新たな規制おり、carb の担当者は案を採用する動きがあ 「多くの州で新たな規る」と話しているみた制案を採用する動きがいです ある」と話している。 baseline- なし販売戦略もなにも無い model ですよね。 する発話の生成につながると考えられる。 ## 5 おわりに 我々の構築した「感想付きニュース雑談コーパス」を用いて人々の感想を使って感想を含む発話を生成するシステムを構築し, 生成された発話を評価した. その結果,構築したシステムは文脈に対して自然な発話が生成でき,かつ感想を含む発話を多く生成できること,それらの発話は,雑談を盛り上げるような発話となっていることが明らかとなった. 今後の展望として,コーパス構築時は人手で行った,対話に使用する感想の絞り込みの自動化や, ニュース以外の話題の使用により,より広いドメインに対応した発話生成システムの構築を目指す. ## 謝辞 本研究のコーパス構築には京都大学・児玉貴志氏らが開発された Chat Collection Framework を改変したものを用いました. 本システムの開発者の皆様に深謝いたします。また,Yahoo!クラウドソーシングにクラウドワーカーとしてご協力いただいた皆様へ,深く感謝を申しげます. 本研究は CREST, JSPS 科研費 JP21J22383 の助成を受けたものです. ## 参考文献 [1] Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners, 2020. [2] Long Ouyang, Jeff Wu, Xu Jiang, Diogo Almeida, Carroll L. Wainwright, Pamela Mishkin, Chong Zhang, Sandhini Agarwal, Katarina Slama, Alex Ray, John Schulman, Jacob Hilton, Fraser Kelton, Luke Miller, Maddie Simens, Amanda Askell, Peter Welinder, Paul Christiano, Jan Leike, and Ryan Lowe. Training language models to follow instructions with human feedback, 2022. [3] Amelia Glaese, Nat McAleese, Maja Trębacz, John Aslanides, Vlad Firoiu, Timo Ewalds, Maribeth Rauh, Laura Weidinger, Martin Chadwick, Phoebe Thacker, Lucy Campbell-Gillingham, Jonathan Uesato, Po-Sen Huang, Ramona Comanescu, Fan Yang, Abigail See, Sumanth Dathathri, Rory Greig, Charlie Chen, Doug Fritz, Jaume Sanchez Elias, Richard Green, Soňa Mokrá, Nicholas Fernando, Boxi Wu, Rachel Foley, Susannah Young, Iason Gabriel, William Isaac, John Mellor, Demis Hassabis, Koray Kavukcuoglu, Lisa Anne Hendricks, and Geoffrey Irving. Improving alignment of dialogue agents via targeted human judgements, 2022. [4] Satoshi Akasaki and Nobuhiro Kaji. Conversation initiation by diverse news contents introduction. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACLHLT), Volume 1 (Long and Short Papers), pp. 39883998, 2019. [5] 徳久良子, 寺嶌立太. 雑談における発話のやりとりと盛り上がりの関連. 人工知能学会論文誌, Vol. 21, No. 2, pp. 133-142, 2006. [6] Clifford Nass and Youngme Moon. Machines and mindlessness: Social responses to computers. Journal of Social Issues, Vol. 56, pp. 81-103, 2000. [7] Dian Yu and Kenji Sagae. Automatically exposing problems with neural dialog models. CoRR, Vol. abs/2109.06950, , 2021. [8] Jing Xu, Da Ju, Margaret Li, Y-Lan Boureau, Jason Weston, and Emily Dinan. Recipes for safety in open-domain chatbots. CoRR, Vol. abs/2010.07079, , 2020. [9] 成田風香, 佐藤志貴, 徳久良子, 乾健太郎. 感想付きニュース雑談対話コーパスの構築. 言語処理学会第 29 回年次大会, pp. 131-135, 2023. [10] Hiroaki Sugiyama, Masahiro Mizukami, Tsunehiro Arimoto, Hiromi Narimatsu, Yuya Chiba, Hideharu Nakajima, and Toyomi Meguro. Empirical analysis of training strategies of transformer-based japanese chit-chat systems, 2021. [11] Kurt Shuster, Jing Xu, Mojtaba Komeili, Da Ju, Eric Michael Smith, Stephen Roller, Megan Ung, Moya Chen, Kushal Arora, Joshua Lane, Morteza Behrooz, William Ngan, Spencer Poff, Naman Goyal, Arthur Szlam, Y-Lan Boureau, Melanie Kambadur, and Jason Weston. Blenderbot 3: a deployed conversational agent that continually learns to responsibly engage, 2022. ## A 倫理的な問題のある発話の具体例 ニュース記事やツイートを入力して発話を生成する oracle-w/NT,select-w/NT による生成発話 100 発話の中で,それぞれ 2 発話, 1 発話が倫理的に問題があると評価された。表 3 に実際の生成発話を示す. これらの具体例について,oracle-w/NT による生成発話は,ツイートを利用した発話ではあるが,ツイートがもとになった部分に対して倫理的に問題があると判断されたと推測される. select-w/NT による発話の大部分はツイートに基づくものだったが,最後の部分にツイートの記述と異なる内容が生成され,その部分に対して問題を感じられたと推測される。外部情報を用いて発話を生成する場合,外部情報候補の適切な選択や,外部情報に基づかない情報の出力の抑制が重要であると考えられる。 表 3 倫理的に問題があるとされた発話の例. select- [TWEET] 開発費の 96 億は、それくらいかかるか開発費の 96 億は、それくらいかかるかなとは思 w/NT なとは思う。ドローンでもそうだが、関連法規う。ドローンでもそうだが、関連法規の整備が遅の整備が遅れ、事業の立ち上げが難しい中で、れ、事業の立ち上げが遅れる中で、とりあえず万博とりあえず万博というイベントを口実に既成事というイベントを口実に既成事実を作って、不倫実を作って、ビジネスの道筋を作りたいってこ関係に発展させるってことだな。 とではないか。
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-26.pdf
# Dialogue Response Generation Using Personal Facts and Personality Traits Weiwen $\mathrm{Su}^{1} \quad$ Naoki Yoshinaga $^{2} \quad$ Yuma Tsuta $^{1} \quad$ Masashi Toyoda $^{2}$ ${ }^{1}$ The University of Tokyo $\quad{ }^{2}$ Institute of Industrial Science, The University of Tokyo \{su-w, ynaga, tsuta, toyoda\}@tkl.iis.u-tokyo.ac.jp } \begin{abstract} Persona-based chatbots assuming a specific persona for chatbots can generate consistent responses given the persona. Existing persona-based dialogue datasets such as PersonaChat and Multi-Session Chat (MSC), however, contain mainly personal facts (e.g., "I like cats.") but lack personality traits ("I am extraverted."). We thus automatically annotate the MSC dataset with personality traits to train persona-based chatbots using personal facts and personality traits. Experimental results on the personality-augmented MSC datasets confirmed that our chatbot improves personality consistency scores, when using a personality-aware reranking. \end{abstract ## 1 Introduction Open-domain dialogue systems such as Siri and ChatGPT have become more common in our daily lives. As a daily conversation partner, we expect chatbots to converse like humans with a consistent persona. However, since the conversation data used to train chatbots usually compile conversations from various persons, the resulting chatbots are likely to generate inconsistent responses. To address those inconsistent responses by data-driven chatbots, researchers consider the identity of speakers to generate responses $[1,2,3,4,5,6,7,8]$. To model and control the chatbot persona explicitly, Zhang et al. [3] built PersonaChat, which provides speaker profiles as text descriptions (e.g., "I have a dog."), and most of the following studies on persona-based chatbots utilized this dataset or its extension, Multi-Session Chat (MSC) [9]. Although the existing datasets for persona-based chatbots contain various profiles to describe a speaker persona, those profiles are mainly personal facts such as personal tastes, relatives, social status, and experiences, and barely include Figure 1 An example of a generation with or without personality traits. personality traits such as agreeableness and extraversion. Meanwhile, Saha et al. [10] predict Big-Five personality traits for speakers in several dialogue datasets to control the style of generated responses. However, their datasets do not contain personal facts. In this study, aiming to investigate the impact of personality traits in persona-based chatbots, we automatically annotate personality traits to existing persona-based datasets, MSC, using Big-Five personality predictor trained on Pandora dataset [11]; we then train and evaluate a personabased chatbot using the profiles on personal facts and the estimated personality traits of the speaker. An issue here is how to represent predicted personality traits (category with intensity). We adopt the same short text descriptions as the original profiles on personal facts to maintain interpretability and flexibility. To enhance personality consistency, we incorporate a response reranking model [7] to compute the consistency between the personality profiles and the generated utterance to choose the response with the highest personality consistency. We use the personality-augmented MSC dataset to evaluate the impact of using both profiles on the original personal facts and predicted personality traits in a persona-based chatbot. The automatic and human evaluation confirmed the effectiveness of personality-based profiles, when we use the proposed reranking model. ## 2 Related Work Persona-based Response Generation The problem of inconsistent responses of data-driven chatbots was first pointed out by $\mathrm{Li}$ et al. [1]. To address this problem, they trained the model with user embeddings from the speakers' dialogue histories to generate more consistent responses. Meanwhile, Zhang et al. [3] proposed PersonaChat, the most commonly used dataset for personabased chatbots; it compiles conversations between a pair of speakers that role-play given persona, a series of text descriptions (profiles). To address the scarcity of persona in PersonaChat, Majumder et al. [12] expand the original profiles using commonsense knowledge. In the context of long-term conversation, the persona may change over time. $\mathrm{Xu}$ et al. [9] thus extends PersonaChat with future conversation sessions, referred to the resulting dataset as MSC. However, the profiles in the PersonaChat and MSC contain mainly personal facts such as personal tastes, relatives, and social status, but lack personality traits. ## Personality Controlled Dialogue Generation In dialogue modeling, personality traits such as Big-Five personality are considered to affect speaking styles. In the early stage, Mairesse and Walker [13] leverage a statistical generation model, focusing on extraversion personality. Recently, Wang et al. [14] proposed a seq2seq model for Big-Five personality-conditioned response generation. Saha et al. [10] leverage Big-Five personality and discourse intents as stylistic control codes to generate stylistic responses. Although personal facts and personality traits are two important factors that characterize a speaker, no study attempts to model both persona information into account in response generation, due to the absence of datasets. ${ }^{1)}$ We thus add personality traits as text descriptions to the MSC dataset to train and evaluate persona-based chatbots using both personal facts and personality traits. ## 3 Approach In this section, we describe our method to generate a dialogue response based on not only personal facts but also personality traits in chat conversation. The task is defined as, given the dialogue context $C$, and agent 1) Very recently, RealPersonaChat [15] datasets have been constructed, including massive Japanese conversations with both personal facts and personality traits provided by the speakers. However, the datasets have not been released at the moment. Figure 2 A schema of the three personality verbalization methods. A case of extraversion intensity beyond $u+0.5 \sigma$ is shown. personality traits $P_{\text {personality }}$ and personal facts $P_{\text {fact }}$, the model optimizes the generation of response $R$ to maximize $P\left(R \mid C, P_{\text {personality }}, P_{\text {fact }}\right)$ according to the dataset. ## 3.1 Annotating Personality Traits To augment the existing persona-based dialogue dataset with personality traits, we train a personality detector using Pandora [11] dataset, which consists of Big-Five personality traits and their intensities for 1500+ Reddit users. We develop a RoBERTa [16]-based regression model to predict the target user's intensities of all personality traits at once from the target user's utterances. Following previous work [10], this detector predicts a target user's personality from accumulated target user's utterances, rather than aggregating the predictions from each utterance. Therefore, this model processes several utterances at once like batch processing. In this study, we explore an effective way to verbalize the detected intensity of personality traits. Specifically, based on the distribution of the personality traits, three verbalization approaches to create personality profiles as shown in Figure 2 are explored in our work: 3-class verbalization Split each Big-Five personality trait into three classes (positive, neutral, and negative) with 0.5 standard deviation $\sigma$ from the mean $u$ of this dataset. Then verbalize the personality traits in the same format as the personal fact profiles in the dataset using the adjectives of each Big-Five personality and its opposite expression (e.g. "Extraverted" and "Introverted"). We do not add personality profiles for the neutral class. 7-class verbalization Rather than the three classes, using $0.5,1$, and $2 \sigma$ from $u$ as the threshold, we further divide each personality trait into seven classes by adding adverbs ("a bit", "quite" and non-adverb) of the degree to create more refined personality profiles. Specifically, three adverbs with original and opposite adjectives result in six classes in addition to the neutral class. Concrete verbalization Instead of the original and opposite adjectives of Big-Five personality, we take more concrete descriptions of the people owning such personality traits from psychology websites ${ }^{2}$ as the personality profiles. Specifically, we sampled the concrete descriptions according to the predicted intensity $(33 \%, 66 \%$, and $100 \%$ descriptions among all the descriptions used and combined). ## 3.2 Response generation based on personal facts and personality traits Though the personal facts and the personality traits are both in the format of text descriptions, the elements they influence in the conversation are different. Rather than the basic facts and demographic features, the personality traits influence mainly the action pattern, speaking style, and more complicated aspects. Thus, we first concatenate individual descriptions in the personal facts and personality traits respectively, then concatenate the two sequences of descriptions with a special token. We feed the whole descriptions concatenated before the context to the decoder. Personality-aware Reranking Naively incorporating personality traits may not facilitate the model to fully utilize the given personality traits. Thus, inspired by [7] using reranking to improve consistency between personal facts and generated responses leveraging a model trained on DNLI dataset [17], we propose to reuse the augmented training data of MSC dataset to train a personality consistency prediction model for response reranking. In this task, the response reranking model using RoBERTa [16] regression model calculates the consistency between personality traits and the generated responses. For the training data, we make positive sample pairs of personality traits with utterances in the original dialogue and negative sample pairs of personality profiles with utterances from other dialogues, and use the cosine similarity between the Big-5 personality intensity of those personality traits and intensity of personality traits of the utterance. We use the triplet of the first part of personality traits, the second part of utterances, and the cosine similarity as training data. In the inference stage, given personality profiles and one candidate utterance, the  model could predict the consistency score between them. ## 4 Experiments In this section, we train chatbots on the augmented MSC dataset to confirm the effectiveness of using both personality traits and personal facts with our reranking method. ## 4.1 Settings Datasets We use the MSC dataset [9], augmented by predicted personality traits for evaluation. Since individual dialogue sessions, a series of consecutive utterances, in the MSC datasets can be generated by different pairs of speakers even if they maintain the same personal facts, we ignore multi-session settings in the dataset and handle individual sessions as independent dialogues to guarantee the consistency of speakers' personalities. Models We adopt DialoGPT ${ }^{3)}$ [18] as a backbone of persona-based chatbots, which finetunes a GPT-2 [19] on Reddit comment chain data. The models to be compared in the experiment are as follows: Baseline We finetuned the DialoGPT model on the original MSC datasets with and without the personal facts as baselines. We hereafter referred to them as Baseline and +person. facts, respectively. Proposed We fine-tuned three DialoGPT models on the personality-augmented MSC dataset by combining three personality verbalization methods (3-class, 7 class, and concrete verbalization). We referred them to as 3-class, 7-class, concrete respectively. We performed the reranking of 5 response candidates for the three proposed models. Metrics We use perplexity (ppl.) and BLEU-1/2 [20] as basic metrics. We also evaluate the Distinct-1/2 (DIST1/2) [21] to show whether the generated responses exhibit a certain degree of diversity. In addition to these generic metrics, following the previous studies, we evaluate the personal fact consistency by consistency score (C. score) [22] which is a textual entailment score computed using a RoBERTa [16] model trained on the DNLI dataset [17]. As for personality consistency, inspired by the utterance-level Pearson correlation used by [10], we compute the Pearson correlation of dialogue-level personality detected from gold and gener-  Table 1 Automatic results. BLEU-1/2 and Distinct 1/2 are scaled by multiplying 100 . Pearson correlation is with a $p$-value $\leq 0.05$. Table 2 Human evaluation for response quality. ated responses as personality correlation (Pers. Corr.) In human evaluation, as for response quality, we choose Fluency, Coherence, and Informativeness following the setting of [7], and ask human subjects to annotate 5-point Likert scales for the three dimensions, where 1 point means bad quality, 3 points mean moderate and 5 points mean a perfect performance. As for personal fact consistency, a point within $-1,0,1$ is assigned to each response, which means contradicted, neutral, or related to given personal facts. ## 4.2 Main Results Table 1 list the automatic evaluation results of the generated responses. We can observe that the personality traits did not change perplexity, Distinct-1/2, and personal fact consistency (C. score) (Proposed vs. +person. facts). As for BLEU scores, we can see a consistent increase of BLEU-1 with personality traits. As for Personality Correlation, we could observe that the proposed models gain great increase and the 7-class verbalization of personality traits achieves the best personality consistency. In short, the proposed models improve the consistency with assigned personality profiles while maintaining other performance with +person. facts. Table 2 shows the human evaluation for response quality. Considering the automatic results, we chose the bestperforming models with the 7-class verbalization of personality traits for evaluation. The results show that the 7class setting slightly outperformed +person. facts in terms of Fluency and Consistency, and the model trained with Table 3 Ablation studies. BLEU-1/2 and DIST-1/2 are scaled by multiplying 100 . Pearson correlation is with a $p$-value $<0.05$. Setting ppl. BLEU-1/2 DIST-1/2 C. score Pers. Corr. only personal facts (+person. facts) achieved better results in Coherence and Informativeness. The use of personality traits does not show significantly negative influence on the response quality. ## 4.3 Ablation Studies To examine the influence of the reranking of response candidates on personality consistency, we also conducted an ablation study as shown in Table 3 . The results of the ablation test without reranking (w/o Personalityaware Reranking) allow us to observe the huge impact of response-candidate reranking on personality consistency. Compared with previous results of Personal Facts (in Table 1), the model trained with personality traits could not improve the Personality Correlation. This is probably because the model may have a strong emphasis on personal facts due to the process of creating the MSC dataset, and naively incorporating personality traits did not contribute to the personality consistency. At the moment, personalityaware reranking is vital to improve personality consistency. ## 5 Conclusions In this study, we explore the use of personality traits in addition to personal facts in persona-based chat response generation. We augment the existing MSC dataset [9] with personality traits using a personality detector trained on the Pandora dataset. To fully leverage the predicted personality traits, we explore personality verbalization and propose a personality-aware reranking method to pick response candidates with better personality consistency. Experimental results on the personality-augmented MSC dataset show an improvement in personality consistency. As for future work, we plan to design a more effective model structure to fully utilize personal facts and personality traits at the same time. ## Acknowledgement This work was partially supported by the special fund of Institute of Industrial Science, The University of Tokyo, by JSPS KAKENHI Grant Number JP21H03494, JP21H03445, and by JST, CREST Grant Number JPMJCR19A, Japan. ## References [1] Jiwei Li, Michel Galley, Chris Brockett, Georgios Spithourakis, Jianfeng Gao, and Bill Dolan. A persona-based neural conversation model. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 994-1003. Association for Computational Linguistics, August 2016. [2] Shoetsu Sato, Naoki Yoshinaga, Masashi Toyoda, and Masaru Kitsuregawa. Modeling situations in neural chat bots. In Allyson Ettinger, Spandana Gella, Matthieu Labeau, Cecilia Ovesdotter Alm, Marine Carpuat, and Mark Dredze, editors, Proceedings of ACL 2017, Student Research Workshop, pp. 120-127, Vancouver, Canada, July 2017. Association for Computational Linguistics. [3] Saizheng Zhang, Emily Dinan, Jack Urbanek, Arthur Szlam, Douwe Kiela, and Jason Weston. Personalizing dialogue agents: I have a dog, do you have pets too? In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2204-2213. Association for Computational Linguistics, July 2018. [4] Qiao Qian, Minlie Huang, Haizhou Zhao, Jingfang Xu, and Xiaoyan Zhu. Assigning personality/profile to a chatting machine for coherent conversation generation. In Proceedings of the Twenty-Seventh International Joint Conference on Artificial Intelligence, IJCAI-18, pp. 4279-4285. International Joint Conferences on Artificial Intelligence Organization, 72018. [5] Zhengyi Ma, Zhicheng Dou, Yutao Zhu, Hanxun Zhong, and JiRong Wen. One chatbot per person: Creating personalized chatbots based on implicit user profiles. In Proceedings of the 44th International ACM SIGIR Conference on Research and Development in Information Retrieval, SIGIR '21, p. 555-564. Association for Computing Machinery, 2021. [6] Haoyu Song, Yan Wang, Kaiyan Zhang, Wei-Nan Zhang, and Ting Liu. BoB: BERT over BERT for training persona-based dialogue models from limited personalized data. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 167-177. Association for Computational Linguistics, August 2021. [7] Junkai Zhou, Liang Pang, Huawei Shen, and Xueqi Cheng. SimOAP: Improve coherence and consistency in persona-based dialogue generation via over-sampling and post-evaluation. In Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 9945-9959. Association for Computational Linguistics, July 2023. [8] Qian Liu, Yihong Chen, Bei Chen, Jian-Guang Lou, Zixuan Chen, Bin Zhou, and Dongmei Zhang. You impress me: Dialogue generation via mutual persona perception. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1417-1427. Association for Computational Linguistics, July 2020. [9] Jing Xu, Arthur Szlam, and Jason Weston. Beyond goldfish memory: Long-term open-domain conversation. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 5180-5197. Association for Computational Linguistics, May 2022 [10] Sougata Saha, Souvik Das, and Rohini Srihari. Stylistic response generation by controlling personality traits and intent. In Proceedings of the 4th Workshop on NLP for Conversational AI, pp. 197-211. Association for Computational Linguistics, May 2022. [11] Matej Gjurković, Mladen Karan, Iva Vukojević, Mihaela Bošnjak, and Jan Snajder. PANDORA talks: Personality and demographics on Reddit. In Proceedings of the Ninth International Workshop on Natural Language Processing for Social Media, pp. 138-152. Association for Computational Linguistics, June 2021. [12] Bodhisattwa Prasad Majumder, Harsh Jhamtani, Taylor BergKirkpatrick, and Julian McAuley. Like hiking? you probably enjoy nature: Persona-grounded dialog with commonsense expansions. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 9194-9206. Association for Computational Linguistics, November 2020. [13] François Mairesse and Marilyn Walker. PERSONAGE: Personality generation for dialogue. In Proceedings of the 45th Annual Meeting of the Association of Computational Linguistics, pp. 496-503. Association for Computational Linguistics, June 2007. [14] Wanqi Wu and Tetsuya Sakai. Response generation based on the big five personality traits. 2020. [15] Ao Guo Shota Mochizuki Tatsuya Kawahara Ryuichiro Higashinaka Sanae Yamashita, Koji Inoue. Realpersonachat: A realistic persona chat corpus with interlocutors' own personalities. In Proceedings of the 37th Pacific Asia Conference on Language, Information and Computation, 2023. [16] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. ArXiv, Vol. abs/1907.11692, , 2019. [17] Sean Welleck, Jason Weston, Arthur Szlam, and Kyunghyun Cho. Dialogue natural language inference. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3731-3741. Association for Computational Linguistics, July 2019. [18] Yizhe Zhang, Siqi Sun, Michel Galley, Yen-Chun Chen, Chris Brockett, Xiang Gao, Jianfeng Gao, Jingjing Liu, and Bill Dolan. Dialogpt: Large-scale generative pre-training for conversational response generation. In ACL, system demonstration, 2020. [19] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. 2019 [20] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318. Association for Computational Linguistics, July 2002. [21] Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. A diversity-promoting objective function for neural conversation models. In Proceedings of the $\mathbf{2 0 1 6}$ Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 110119. Association for Computational Linguistics, June 2016. [22] Andrea Madotto, Zhaojiang Lin, Chien-Sheng Wu, and Pascale Fung. Personalizing dialogue agents via meta-learning. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5454-5459. Association for Computational Linguistics, July 2019 ## A Appendix ## A. 1 Human Evaluation Point Assignment Instruction We show the concrete point assignment instruction of human evaluation about response quality (Fluency, Coherence, Informativeness) as follows: Flue. 1 point: Extremely difficult to understand, with frequent language issues. - 2 points: Communication is often unclear, with noticeable language challenges. - 3 points: Communication is generally clear, with occasional disruptions in fluency. - 4 points: Communication is very clear, with minimal interruptions or language issues. - 5 points: Extremely fluent communication, very natural and easy to understand. Coh. 1 point: The text lacks any coherence, making it extremely difficult to follow. - 2 points: Coherence is often lacking, and the text lacks logical flow. - 3 points: Text is generally coherent, but there are some logical breaks or disruptions. - 4 points: The text is very coherent, with strong logical connections between sentences and ideas. - 5 points: Text is extremely coherent, with seamless logical flow and strong connections. Info. 1 point: Provides very limited information, offering little to no assistance. - 2 points: Provides limited information, with some helpful aspects. - 3 points: Provides sufficient information, but may lack depth or detailed explanations. - 4 points: Provides ample information, with moderate depth, and is helpful to the user. - 5 points: Provides highly detailed and comprehensive information, greatly assisting the user.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-27.pdf
# ディスカッションの役割分類に基づいた ファシリテーション対話システム 藤後英哲 1 菊池英明 1 藤倉将平 2 清水健吾 3 1 早稲田大学人間科学研究科 2 株式会社サイシキ ${ }^{3}$ MNTSQ 株式会社 [email protected] [email protected] [email protected] [email protected] ## 概要 会議では,さまざまな問題が生じることが知られている。その問題を解消するアプローチとしてファシリテータの介入があるが,全ての会議にファシリテータを介入させることは困難である.そのため,本研究では会議における問題を解消するため,ファシリテーション対話システムの開発を行なった。開発した対話システムを評価した結果,ファシリテー タとしての適切な発話タイミング・発話生成を行える可能性が示唆された。 ## 1 はじめに 多くの組織において,意思決定のために会議が行われている. しかし, 会議では発話の不均衡など,様々な問題が生じることが知られている [1]. 会議における問題を解消するアプローチの一つとして, ファシリテータの介入がある $[1,2]$. ファシリテー タの介入は効果的ではあるが, 育成や雇用のコストの側面から全ての会議に介入することが難しい. そこで,ファシリテーションを行う対話システムを指向した研究が行われている $[3,4]$. ファシリテー ション対話システム研究の多くは,音声情報や画像情報に着目しており,ファシリテータの発話内容に着目した研究は十分ではない. 本研究の目的は,テキストベースの会議において,ファシリテーションを行う対話システムを開発することである。また,開発した対話システムを用いることで,会議における問題が解消されるかについても併せて検証する。 ## 2 関連研究 ## 2.1 ファシリテータ [1] はファシリテータが解消することのできる会議の問題として,「議論の混乱」「議論の対立」「発言の支配」「決定不能」「議論への不参加」の 5 つを挙げている. また, [5] はグループディスカッションにおける参加者を,グループが行うタスクに関連する行動を行う「タスク遂行役割」, 集団が一体として機能するために必要な行動を行う「グループ調整役割」, 参加者自身の目標を達成するための行動をする「個人的役割」に分類している。一般的に,ファシリテー タにはディスカッションの目的や目標を達成するとともに,グループがグループとして機能するように調整することが期待されている。 そのため, 本研究では,ファシリテータの重要な機能としてタスク遂行役割・グループ調整役割に着目し, その中でも 「オリエンター」「調和者」「ゲートキーパー」を合わせた役割をファシリテータの定義とする。 ## 2.2 テキストベースの複数人対話システム テキストベースの複数人対話を対象とした対話システムに関する研究 [6] では,LLM の複数人対話能力について評価している。 [6] では, 複数人対話データセットを構築し,言語モデルをチューニングすることで,複数人対話における言語モデルの発話生成と発話タイミングについて検証した。検証の結果,既存のプロンプトベースの言語モデルと比較して,発話生成と発話タイミングの個々のタスクにおいて優れた結果を示した。しかし,発話タイミングの精度は $50 \%$ 程度であり,複数人対話システムを実現できているとはいえない. 図 1 システム概要図. ## 2.3 LLM を用いたデータ作成 2022 年に ChatGPT ${ }^{1}$ が発表されて以降, GPT-42) などの LLM を使用したデータ作成を行う研究が増加している $[7,8]$. 複数人対話においても LLM を用いてデータセットを作成した研究がある [9]. [9] によると, 作成されたデータセットは, 全ての評価項目において,人手で収集したデータセットより優れているという結果になった. しかし, 同研究では複数人の会話データセットを作成するに留まっており,その後の発話生成などのモデル構築には至っていない. そのため本研究では,LLM を使用して複数人会話のデータセットを作成し, 発話生成などのモデル構築することで,ファシリテーション対話システムを実現する。 ## 3 提案手法 図 1 は,本研究のシステム概要図である。まず, タイミング予測モデルではシステムが発話をするべきかを 2 值分類する.タイミング予測モデルの結果,発話をするべきと判断された場合は発話を生成し,そうでない場合はシステムは沈黙とする。 タイミング予測モデルで沈黙と判断された後,沈黙が一定時間続いた場合,会議終了判定モデルでは会議が終わったかを 2 值分類する. 会議が終わったと判断された場合は会議を終了し,そうでなかった場合は発話生成モデルで発話を生成する. ## 3.1 データセットの作成 学習用のデータセットを構築するため,大規模言語モデル(本研究では GPT-4)を用いて会議の発言録テキスト(以降「会議データ」とする。)を生成した. 1) https://openai.com/blog/chatgpt 2) https://openai.com/research/gpt-4 まず,GPT-4 に与えるプロンプトが適切かを評価するため, 20 件の会議データを作成した。 20 件の会議データは,プロンプトテンプレートに,事前に用意した会議のトピックと, 4 人目の話者をファシリテータと固定し,それ以外の話者に役割をランダムに与えることで作成した. 作成した 20 件の会議データに対し,ファシリテーション経験者 4 名に評価を行ってもらった. その際,評価項目は本研究におけるファシリテータの要素である「オリエンター」「調和者」「ゲートキーパー」とし,それぞれ 7 段階評価とした. その結果, 各項目ともに平均して 4 以上であったため, 本研究でのプロンプトの設定が妥当であると判断した. 表 1 ファシリテーション経験者による評価結果. 次に,プロンプトテンプレートに,事前に用意した会議のトピックと参加者の役割を与えることで 485 件のデータセットを作成した. 以降のモデル学習では,この 485 件のデータセットを使用した。 ## 3.2 タイミング予測モデル 本研究では,タイミング予測モデルとして BERT を使用した。日本語の事前学習済みモデルとして,東北大 BERT $^{3}{ }^{3}$ ,京大 DeBERTaV2 2),早大 BigBird ${ }^{5}$ ) を比較した. データセットは,全体の $70 \%$ の会議を訓練データ,15\%の会議を検証データ,15\%の会議をテストデータとし, fine-tuning を行った. モデルの学習では, バッチサイズを 16 , 学習率を $2.0 \times 10^{-5}$,重み減衰率を 0.01 として AdamW[10] を使用し, 5 エポック学習を行った。 各モデルのテストデータに対する評価結果を表 2 に示す. 正解率と F1 スコアの精度が最も高かった京大 DeBERTaV2 with topic を採用した。  表 2 タイミング予測モデルの結果. "with topic" は BERTへの入力に会議トピックを含めた学習結果である. $※$ chance rate $=0.64$ ## 3.3 発話生成モデル 本研究では,発話生成モデルとして指示調整言語モデルを使用した. 日本語の事前学習済みモデルとして, ELYZA $^{6)}$, stablelm-beta ${ }^{7)}$, StableBeluga ${ }^{8)}$, weblab $^{9)}$ , youri ${ }^{10)}$ を比較した. データセットは,全体の $80 \%$ 訓練データ,10\%を検証データ,10\%をテストデータとし, LoRA-tuning[11]を行った. モデルの学習では,学習率を $3 \times 10^{-4}$, バッチサイズを 16, LoRAの $\gamma$ 8, LoRAの $\alpha$ を 16, Drop率を 0.05 として AdamW を使用し, 3 エポック学習を行った. また,チューニングする層は Llama ベースのモデルでは"q_proj", "k_proj", "v_proj”とし, gpt_neox ベースのモデルは"query_key_value"とした. 各モデルのテストデータに対する評価結果を表 3 に示す. 推論速度以外の全ての自動評価指標の精度が最も高かった stablelm-betaを採用した。 stablelm-beta が生成した実際の対話例を表 4 に示す. ## 3.4 会議終了判定モデル 本研究では,会議終了判定モデルとして BERT を使用した。比較する事前学習済みモデル,学習デー タの分割,学習の設定は全てタイミング予測モデル (3.2 項)と同様にした. 各モデルのテストデータに対する評価結果を表 5 に示す. 正解率と F1 スコアの精度が最も高かった東北大 BERT を採用した。  表 5 会議終了判定モデルの結果. "with topic”は BERTへの入力に会議トピックを含めた学習結果である. $※$ chance rate $=0.93$ ## 4 評価実験 ## 4.1 実験目的 以下の 2 点を目的に評価実験を行った. 1. 提案システムがファシリテータとして適切に振る舞えているかを検証する。 2. 提案システムによって,会議における問題が生じた際,その問題が解消することができるかを検証する。 ## 4.2 実験設定 提案システムの有効性を検証するため,被験者 3 名ずつのグループを 8 つ用意し,提案システム介入会議(被験者 3 名と提案システムによる会議),システム非介入会議(被験者 3 名による会議), ベー スラインシステム介入会議(被験者 3 名とベースラインシステムによる会議)の3つパターンで被験者内実験を行った. すべての会議は Slack を使用し, テキストベースで行われた。 被験者には各パターンでの会議後, 対話システムの性能(対話システムの自然性・一貫性・応答速度・ファシリテータとしての発話タイミング・ファシリテータとしての発話内容)と会議における問題の解消 (議論の混乱・議論の対立・発言の支配・決定不能・議論への不参加の 5 つの問題が生じた場合に,その問題が適切に解消されたか)を評価してもらった. また,事後アンケートとして,普段の会議経験を 5 段階で回答してもらった. ## 4.3 実験結果 対話システムの性能対話システムの性能におけ 表 3 発話生成モデルの結果. 表 4 stablelm-beta の対話例. D が生成された発話である. A 実社会での,金融周りでの詐欺の被害や機会損失など。 C それもそうです の現実的な問題点を指摘していますね. Bさん,何か意見はありますか? A B さん,早くしてください. B なるほど,確かにそのような点が挙げられるのですね.リスクを恐れて投資に回さないといった保守的な人が日本に多いからのように感じます。 D Aさん,Bさんに対するプレッシャーは控え か? 図 2 システム性能における評価結果. 左から順に自然性, 一貫性, 応答速度, ファシリテータとしての発話タイミング,ファシリテータとしての発話内容を表す. る評価結果を図 2 に示す. 正規性が確認された評価項目については対応のある $\mathrm{t}$ 検定を行い,そうでない評価項目については Wilcoxon の符号順位検定を行った. 検定の結果,発話タイミングでは有意傾向が確認され $(t(23)=-1.46, p=.079)$, 発話内容では有意差が確認された $(W=60.50, p=.028)$. したがって,提案システムは,ベースラインシステムと比較して,適切なタイミングで発話をしている可能性が示唆され,適切な発話を生成していることが確認された。 会議における問題の解消会議における問題の解消に関する評価結果を図 3 に示す. 正規性が確認された評価項目については分散分析,そうでな 図 3 会議における問題の解消に関する評価結果. 左から順に議論の混乱,議論の対立,発言の支配,決定不能,議論への不参加を表す. い評価項目については Kruskal-Wallis 検定を行った.検定の結果,議論の混乱・議論の対立・発言の支配・決定不能・議論への不参加の全ての問題において,問題を解消していることが確認されなかった $(H(2)=1.36, p=.506 ; F(2,63)=1.33, p=.273$; $H(2)=0.54, p=.763 ; F(2,64)=1.93, p=.153$; $H(2)=0.19, p=.909)$. 続いて,提案システムのファシリテータとしての発話内容の評価値が 7 段階中 5 以上だった被験者について分析した. その結果,議論の対立では有意差が確認された $(F(2,29)=7.22, p=.003)$. 最後に,事後アンケートをもとに,会議経験の浅い被験者について分析した. その結果,議論の対立では有意差が確認された $(F(2,23)=4.58, p=.021)$. ## 5 おわりに 本研究では,LLMを用いて会議のデータセットを作成し,ファシリテーション対話システムを開発した. 開発したシステムでは,適切な発話タイミングと発話生成が行える可能性が示唆された。また,全ての被験者の評価では,全ての問題において,提案システムは,ベースラインシステムと人間だけの会議と比較し, 問題を解消することが確認されなかった.しかし,発話が適切に生成されたと回答した被験者と,会議の経験が浅い被験者による評価では,議論の対立の解消に効果があることが示された. ## 参考文献 [1] Frances Westley and James A Waters. Group facilitation skills for managers. Management Education and Development, Vol. 19, No. 2, pp. 134-143, 1988. [2] Liam Bannon, Mike Robinson, and Kjeld Schmidt. Proceedings of the Second European Conference on Computer-Supported Cooperative Work: ECSCW’ 91. Springer Science \& Business Media, 2012. [3] Tsukasa Shiota, Takashi Yamamura, and Kazutaka Shimada. Analysis of facilitators' behaviors in multi-party conversations for constructing a digital facilitator system. In Collaboration Technologies and Social Computing: 10th International Conference, CollabTech 2018, Costa de Caparica, Portugal, September 5-7, 2018, Proceedings 10, pp. 145-158. Springer, 2018. [4] Yoichi Matsuyama, Iwao Akiba, Shinya Fujie, and Tetsunori Kobayashi. Four-participant group conversation: A facilitation robot controlling engagement density as the fourth participant. Computer Speech \& Language, Vol. 33, No. 1, pp. 1-24, 2015. [5] Kenneth D Benne and Paul Sheats. Functional roles of group members. Journal of social issues, Vol. 4, No. 2, pp. 41-49, 1948. [6] Jimmy Wei, Kurt Shuster, Arthur Szlam, Jason Weston, Jack Urbanek, and Mojtaba Komeili. Multi-party chat: Conversational agents in group settings with humans and models. arXiv preprint arXiv:2304.13835, 2023. [7] Himanshu Gupta, Kevin Scaria, Ujjwala Anantheswaran, Shreyas Verma, Mihir Parmar, Saurabh Arjun Sawant, Chitta Baral, and Swaroop Mishra. Targen: Targeted data generation with large language models. arXiv preprint arXiv:2310.17876, 2023. [8] Zhuoyan Li, Hangxiao Zhu, Zhuoran Lu, and Ming Yin. Synthetic data generation with large language models for text classification: Potential and limitations. arXiv preprint arXiv:2310.07849, 2023. [9] Maximillian Chen, Alexandros Papangelis, Chenyang Tao, Seokhwan Kim, Andy Rosenbaum, Yang Liu, Zhou Yu, and Dilek Hakkani-Tur. Places: Prompting language models for social conversation synthesis. arXiv preprint arXiv:2302.03269, 2023 . [10] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. arXiv preprint arXiv:1711.05101, 2019. [11] Edward J. Hu, Yelong Shen, Phillip Wallis, Zeyuan AllenZhu, Yuanzhi Li, Shean Wang, Lu Wang, and Weizhu Chen. Lora: Low-rank adaptation of large language models. arXiv preprint arXiv:2106.09685, 2021.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-28.pdf
# 対話の䶡齬と介入による解消:LLM を用いた検討 清水周一郎 Yin Jou Huang 村脇有吾 Chenhui Chu 京都大学大学院情報学研究科 \{sshimizu, huang, murawaki, chu\}@nlp. ist.i.kyoto-u.ac.jp ## 概要 対話における齯齰は重要な現象であるが,どのような現象であるかは明確でない. 本研究では,対話の齯䶣について,Clark の言語使用に関する理論をもとにして整理し,また齟踣の解消には第三者による介入が役立つことを指摘する.LLM は高い対話能力と広範囲な知識を持ち,コントロールされた対話の実験を容易にする. 本研究では LLM エージェ せ,介入を行うことによる対話の変化を分析する. ## 1 はじめに 対話における齯輵は重要な現象である。2024 年 1 月 2 日に発生した航空機の衝突事故 $[1,2]$ においても,管制官と海上保安庁機の搭乗員との間の対話の䶡敬が原因の 1 つであると見ることができる。一方で,龃齬がどのような現象であるかを定義するのは 語処理の研究は存在しない. 䶡䶣は自然な対話では稀な現象であるため,データを大規模に収集して実験することは容易でない. 大規模言語モデル $(L L M)^{11}$ は,高い対話能力を示し,広範囲な知識を持つ $[5,6]$. LLM を対話研究に利用する利点の一つとして,人間の場合では不可能な,条件の同じ対話を複数回行わせることが可能になることが挙げられる。そこで,本研究では,LLM を利用して齯敬を含む対話を生成し,それをもとに齯齬に関する分析を行う。 齟䶣は,Clark の提唱した共通基盤(話者と対話相手の間で共有された知識や信念)の解釈の不一致  であると捉えられる。これを LLM でモデル化するには,LLM の持つ知識を制限し,異なる知識を持つ LLM エージェントを用意する必要があるが,容易には実現できない,そこで,LLMにその場限りでの知識を持たせ,話者と対話相手に相当する LLM エージェントの間で情報量の差を持たせるための設定として,言葉当てゲームをべースとした設定を提案する。 齯䶣の解消においては,話者と対話相手双方の共通基盤をよく理解する第三者の介入が役立つ.LLM は広範囲な知識を持つため,この介入者の役割を果たすのに適している. ゲームの設定においても,話者と対話相手の持つ知識の差を認識させた LLM エージェントにこの役割を行わせることができる。以上を踏まえ, 本研究では言葉当てゲームの設定において,莜䶣の発生・解消と介入による影響を定量的に評価することを試みる。 ## 2 関連研究 対話システムとしての LLM の登場以前には,対話システムの改善に関する研究が多く行われてきた. 対話破綻の研究 [7] では,対話システムの不十分な性能に起因する対話破綻の分類がなされた. また,対話システムの応答の際に共通基盤を考慮することによって応答性能を向上させる研究がなされた [8]. 本研究は人間と対話システムの対話ではなく,人間同士の対話で起こりうる齯䶣を対象とする点が異なる. LLM エージェント同士の対話に関する研究が行われるようになってきている. Park ら [9] はゲーム上の環境で 25 の異なる人格を持つエージェントを用意し,各エージェントに記憶,計画,反応,思考の機能を持たせて行動させる実験を行い,LLM エー ジェントによる社会的行動の発現を示した. 本研究では Park らのエージェント設計を参考にしつつ,齟踣を含む対話に焦点を当てている. ## 3 齯齬の発生と解消 ## 3.1 䶡䶣の定義 齟䶣について, Clark の共同作業に関する理論 ([10] pp. 148-153,234-235)をもとにして整理する. ${ }^{2}$ Clark は,対話は話者と対話相手とが織り成す共同作業の一種であるとし,共同作業は共同行 動から成るとした。共同行動にはi) 行動と注目, ii)提示と同定,iii) 合図と認識,iv) 提案と考慮の 4 つの段階がある. 例えば,A が椅子を指差しながら B に「ここに座って」と言った場合,これは以下のようになる。 i. A は B の知覚の範囲内で椅子を指差して発声し,B はそれに注意を向ける。 ii. A は指差しと発声によって信号を作り出し,B はその信号を認識する。 iii. A は B が椅子に座るよう頼み,B はその頼みを認識する。 iv. A は B がAのために椅子に座ることを提案し, B はその提案を受け入れるかどうか考える。 対話は共同作業の一種であり,この $n$ 段階目までが達成されるが $n+1$ 段階目が達成されない $(n=0,1,2,3)$ ことによって,異なる種類のミスコミュニケーションが起こりうる.例を挙げると, $n=0 \quad$ 相手がイヤホンをしていて話者の声が聞こえない. $n=1$ 話者がアメリカ人に日本語で話しかけ,相手に理解されない. 相手が「Xさんを知りません」と答える。 $n=3$ 話者が「ここに座って」と言うが,相手が意図的に座らない。 我々は,日本語の「龃龉」に相当するのは,この $n=2$ の場合であるとみなし, 本研究はこうした齟䶣を対象とする. ${ }^{3}$ ## 3.2 䶡䶣の発生 葙驎の発生する原因について,Clark の共通基盤の分類を参考にして整理する([10] pp. 92-121). 共通基盤は,まず,共同体共通基盤と個人的共通基盤に分類できる。共同体共通基盤は,いわゆる文化的な共同体のもつ,その共同体の中でのみ共有されている情報の総体である. Clark は共同体を国籍,職業,趣味など 13 種類に分類している([10] p. 103). ここで,共同体とは,他の共同体が持たない専門的な情報を持つ集団であるとしている.個人的共通基盤は,ある個人と別の個人の関わりに基づく情報である. これを踏まえて,齯䶣の発生する原因について考える。まず,個人的共通基盤については,話者と対話相手のそれぞれが同じように蓄積させるため,齟䶣の原因となるとは考えにくい。一方で,共同体共通基盤については,話者と対話相手が持っている情報が異なるため,䶡齠の原因となりうる。例えば, transformer という単語を聞いたときに,NLP の研究者であればモデルを,電気技師であれば変圧器を,映画の好きな人であれば映画を思い浮かべるだろう. このように,対話者間の持っている情報量に差があることは,䶡䶣が生じるための条件の一つであると考えられる。 蓠嚙は,このような原因から,話者の発話の意図を,対話相手が誤解することに始まる.誤解した対話相手は,その後の発話で,話者が想定していなかった内容の発話をする。本稿では,これを䶡䶣が発生した時点であると考え,以後,稙踣が解消されるまでの間,対話に齯䶣が生じていると考える。 ## 3.3 齯䶣の解消 次に,齯䶣の解消について検討する. Clark は,共同作業の参加者は,共同行動が成功したという証拠を得る(closure)ことによって,その共同行動を共通基盤の一部として確立する(grounding)と述べている([10], pp. 221-252).例えば,話者の「Xを知っていますか?」という発話に対し対話相手が「はい」 と答えた場合,話者は相手が Xを知っているという証拠を得たことになる。 者の発話の意図を,相手が誤解4)することに始まるので,話者が,相手が理解したという証拠を得たとき,齯䶣が解消されたと見ることができる. 指すものとする. }  ## 3.4 第三者による介入 最後に,第三者による介入について考える。共同行動に関係する人の分類として,話者,対話相手,副参加者,傍観者,盗聴者がある([10], p. 14). 第三者はこのうちの副参加者に相当し, 話者が発話時点で直接の対話相手としては認識していないが,話を聞いている人として認識しており,対話に参加している者である. 経験的に,短䶣の解消においては,対話全体を理解する第三者の介入が鍵となることが多い. 例えば, 研究室での研究のミーティングにおいて, 発表者と質問者の間で龃䶣が起きたとき,両者の意図をよく理解する先生が対話に介入することで話が進むことがよくある.共通基盤の文脈で捉えれば,第三者が話者と対話相手の共通基盤を双方の対話者よりもよく理解している場合に,第三者による介入が有効であると考えられる。 第三者が対話に介入する意義は,対話の効率の向上であると言える.対話においては,話者が対話相手に伝えたい内容(メッセージ)を持っており,対話相手が話者のメッセージを理解することによって対話が成立する。この際,メッセージがなかなか聞き手に伝わらないと,話し手はメッセージを表現を言い換えて繰り返すことになる。これを対話の効率が悪い状態であるとし,一方でメッセージがスムー ズに対話相手に伝わる状態を対話の効率が良い状態であるとする.第三者が話者と対話相手双方の意図を理解し,適切に対話に介入することができれば,対話の効率を向上させることができる. ## 4 LLM を用いた検討 ## 4.1 状況設定 粹踣の発生を適切にモデル化するには,3.2 節で述べたように,LLM がある一定の範囲の情報のみを持つ必要がある. しかし,LLM は膨大な量のテキストデータで訓練されており,ある範囲の知識のみを持つように設定することはできない. 5$)$ そこで,人工的に䶡䶣が必ず起きるような対話の設定を考 5)著者らが行った事前実験では,プロンプトの調整によって LLM の持つ知識の範囲を調整することは困難であった. 例えば,NLP の知識を持たない電気技師を模倣させようとしても,NLP の知識を持っているかのような振る舞いをした. LLM の持つ特定の知識を忘却させる研究等は現在行われているところであり,そうしたモデルの活用は今後の課題としたい. え,その上で介入による䶡䶣の解消を試みる. 具体的には,言葉当てゲームに手を加えたものを LLM エージェントに行わせる. エージェントとして,通常のエージェント $\mathrm{A}, \mathrm{B}, \mathrm{C}$ ,介入機構 $\mathrm{D}$ ,才ラクル O を設定する.A,B は質問者である。何らかの単語をあらかじめ与えておき,その単語に関するヒントを Cに与える。ここで,A と B に異なる単語を与えることで,A と B の持つ情報量に差をつけ,A や B 自身には共通の単語を想定していると認識させることで,龃齬の発生を人工的にモデル化する. C は回答者であり,A や B のヒントをもとに,単語を推測する。D は対話に介入する第三者であり, 必要に応じて対話に介入し, 蔃踣を指摘する. ここで, 3.4 節で述べたように,D は A や B よりもよく共通基盤を理解している必要があるため,A と B が異なる単語を想定している可能性があることをあらかじめ認識させる.Oは,LLMエージェントによる対話を自然なものに近づけるために導入した機構である。エージェント同士が対話をする中で,あるエージェントが発話を他の特定のエージェントに向けたものとして発する場合がある.こうした状況を考慮するため,O は対話全体を俯瞰し,どのエー ジェントが発話するべきかを対話の各時点で判断する。 ## 4.2 エージェント設計 エージェント $\mathrm{A} , \mathrm{~B} , \mathrm{C}$ は以下の機能をもつ. - memory: エージェントの初期状態および全エー ジェントによる話者と発話を時系列順に並べたもの. - speak(): 現在の発話履歴に続けて,適切な発話を返す。 介入機構 D は,通常のエージェントの機能に加えて,以下の機能をもつ。 - should_speak():現在の発話履歴を受け,対話に介入するかどうかを判断する。 オラクル O は,通常のエージェント同様の memory,および以下の機能をもつ. - decide_speaker():現在の発話履歴を受け,A, B,Cのうち誰が次に発話すべきか判断する. 具体的なプロンプトは付録 B に示す. 各エージェントの発話順を示すアルゴリズムは以下の通りである. ## 4.3 評価 LLM エージェントによる対話に対し,1) 齯䶣が発生した時点,2) 介入が行われた時点,3) 齯齬が解消された時点の 3 点について著者らが評価を行う. まず,各発話に 1 から番号をつける.齟踣が発生した時点は,3.2節で述べたように,齯䶣が表面化した発話の番号,すなわちある発話がそれまでの発話の内容に沿っていない場合,その発話の番号とする。介入が行われた時点は, 介入機構が介入が必要であると判断し発話したときの発話の番号である. 齯䶣が解消された時点は, 3.3 節の議論をもとに, 全ての参加者が䶡䶣があったことを理解した時点とする.すなわち,A,B,Cのそれぞれについて,䶞䶣があったことを認識した旨の発話をした発話番号を記録し,その最大值を齟䶣が解消された時点とする.これらをもとに,効率指数を,齯踣が解消された時点と齟龉が発生した時点の差として定義する。 ## 4.4 実験設定 実験は全て英語で行った. LLM としては OpenAI の gpt-4-0613を用いた. temperature は 1.0 とした.最大発話数は 20 発話とした。但し, 対話に発展性がないと判断した場合(終わりの挨拶の繰り返しになる場合や次のゲームに移る場合)はそれ以前でも対話を打ち切った. A の単語と B の単語のぺアが同一のものについて 5 回対話を行い,3 ペアについて試した. ここでは, gpt-4-0613 に生成させた類義語のペアから選び,(Aの単語, B の単語) = (beautiful, gorgeous), (wisdom, knowledge), (end, finish)表 1 介入なしの場合とありの場合の評価結果.齯踣発生時点,介入時点,効率指数は(平均) $\pm$ (標準偏差)の形で示している.†:齯䶣が発生したものについてのみ計算した. ‡: 齯䶣が解消したものについてのみ計算した. 介入なしの場合は 1 件のみのため省略した. とした. 介入機構ありの場合となしの場合の計 30 対話を行わせ,評価を行った。 ## 4.5 結果 結果を表 1 に示す.まず,齯䶣が必ず発生すると想定されるシナリオで実験したものの,実際に齯䶣が表面化しなかったものが各 2 件あった。これは LLM がプロンプトの指示に従わない hallucination の問題が原因である。次に,齯䶣が発生した時点については,介入なしの場合とありの場合で大きな差は見られなかった. 齯齠が発生するまで介入機構は介入しないため,予想された結果であると言える. 介入時点について見ると,齯齰発生時点の 1 発話後に介入が行われている。このことから,介入機構の介入を判断する部分が適切に機能していることが分かる.齯䶣解消件数を見ると,介入なしの場合に比べ,介入ありの場合の方が齟䶣を解消できている件数が多く,介入機構によって䶡齠が解消できていることが分かる.但し,介入なしの場合でも,プロンプトの調整により䶡齗を解消できるようになる可能性もあるため,今後の課題である.効率についても,介入なしの場合には件数が少なく定量的に評価できなかったため,今後の課題とする。 ## 5 おわりに 本研究では,対話の齯䶣について Clark の理論をもとに整理した上で,齯䶣の解消には第三者による介入が役立つことを指摘した. LLM エージェントに齟䶣を含む対話とそれに対する介入を行わせ,齟䶣の発生・解消と介入による影響の定量的評価を試みた,今後は,聞き間違いに起因する齟䶣や,異文化コミュニケーションにおける䶞䶣などについても研究したい. ## 謝辞 本研究に関して有益な議論をいただいた黒橋禎夫教授,河原達也教授,Rafik Hadfi 准教授,Devish Lala 研究員に感謝します. 本研究は JSPS 科研費 JP23KJ1356 の助成を受けたものです. ## 参考文献 [1] NHK NEWS WEB. 羽田空港事故交信記録やり取り詳細 “18 分の避難” 機内で何が. https://www3.nhk.or.jp/news/html/20240103/ k10014308031000.html, 2023. [2] NHK NEWS WEB. 羽田空港事故管制官海保機に離陸順番 1 番と伝え許可と認識か. https://www3.nhk.or.jp/news/html/20240105/ k10014310951000.html, 2023. [3] Jason Wei, Maarten Bosma, Vincent Zhao, Kelvin Guu, Adams Wei Yu, Brian Lester, Nan Du, Andrew M. Dai, and Quoc V Le. Finetuned Language Models are ZeroShot Learners. In International Conference on Learning Representations, 2022. [4] Long Ouyang, Jeff Wu, Xu Jiang, Diogo Almeida, Carroll L. Wainwright, Pamela Mishkin, Chong Zhang, Sandhini Agarwal, Katarina Slama, Alex Ray, John Schulman, Jacob Hilton, Fraser Kelton, Luke Miller, Maddie Simens, Amanda Askell, Peter Welinder, Paul Christiano, Jan Leike, and Ryan Lowe. Training language models to follow instructions with human feedback. arXiv:2203.02155, 2022. [5] OpenAI. GPT-4 Technical Report. arXiv:2303.08774v4, 2023. [6] Google Gemini Team. Gemini: A Family of Highly Capable Multimodal Models. arXiv:2312.11805, 2023. [7] 東中竜一郎, 荒木雅弘, 塚原裕史, 水上雅博. 雑談対話システムにおける対話破綻を生じさせる発話の類型化. 自然言語処理, Vol. 29, No. 2, pp. 443-466, 2022. [8] Pei Zhou, Hyundong Cho, Pegah Jandaghi, Dong-Ho Lee, Bill Yuchen Lin, Jay Pujara, and Xiang Ren. Reflect, Not Reflex: Inference-Based Common Ground Improves Dialogue Response Quality. In Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing, 2022. [9] Joon Sung Park, Joseph O'Brien, Carrie Jun Cai, Meredith Ringel Morris, Percy Liang, and Michael S. Bernstein. Generative Agents: Interactive Simulacra of Human Behavior. In Proceedings of the 36th Annual ACM Symposium on User Interface Software and Technology, 2023. [10] Herbert H. Clark. Using language. Cambridge university press, 1996. ## A Clark の用語とその訳の対応表 表 2 訳の対応 ## B プロンプト ## B. 1 各エージェントの初期状態 ## agents: agent 1 : name: "Alice" initial_memory: "You are Alice. You are going to play a game with Bob and Claire. You and Bob have the same word in mind. Claire needs to guess the word. The word is ' $\$\{$ word1\}'. Once claire makes a guess, you can give one hint at a time. You cannot use the word ' $\$\{$ word 1$\}$ ' or ' $\$\{$ word 2$\}$ ' in the hint. You start the conversation by explaining the game and giving a hint." agent2: name: "Bob" initial_memory: "You are Bob. You are going to play a game with Alice and Claire. You and Alice have the same word in mind. Claire needs to guess the word. The word is ' $\$\{$ word2\}'. Once Claire makes a guess, you can give one hint at a time. You cannot use the word ' $\$\{$ word 1$\}$ ' or ' $\$\{$ word2 $\}$ ' in the hint." agent 3: name: "Claire" initial_memory: "You are Claire. You are playing a word guessing game with Alice and Bob. Alice and Bob have the same word in their minds and you need to guess it. You can only guess one word at a time." meta_agent: name: "David" initial_memory: "You are David. You are listening to a conversation between Alice, Bob, and Claire. They are playing a word guessing game. Alice and Bob have a word in their mind and Claire needs to guess it. Actually, the words Alice and Bob have in mind could be different. You usually just listen to the conversation, and only when, rememeber, only when a miscommunication happens, you intervene in the conversation and give some feedback." oracle: initial_memory: "You are listening to a conversation between Alice, Bob, and Claire. Your task is to decide who among Alice, Bob, and Claire is most likely to speak next at a certain point in the conversation." ## B. 2 エージェントの機能 speak(): prompt = " ".join(self.memory) + " What would you say? You would say: should_speak(): prompt $=$ " ". join(self.memory) $+"$ Should you speak now? Yes/No: " decide_speaker (): prompt = " ".join(self.memory) + " Who is most likely to speak now? Answer in one word from Alice, Bob, and Claire: "
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-2.pdf
# 前提知識を考慮した数学の確率問題自動解答の精度向上 谷村華梨平博順 大阪工業大学 情報科学部 \{e1c20061,hirotoshi.taira\}@oit.ac.jp ## 概要 大規模言語モデルによる文章生成の品質が大幅に向上し,さまざまな分野への応用が期待されている.しかし,数学などの教科における個別学習での使用には,各教科の問題に対する解答精度が低いなどの課題がある.本研究では,大規模言語モデルの一つである GPT-4 を用いて高校数学における確率分野の問題に対して自動解答を行い,不正解となる場合の原因の分析を行った. 分析の結果,GPT-4 に不足していると考えられる分野の前提知識を追加して解答生成を行い,解答精度が向上するケースがあることが分かった. 題材として, 従来研究で高い精度を出すことが難しいとされている確率分野の問題を取り扱うこととした. その結果,前提知識を考慮することで,解答精度の向上が見られる事例があった。 ## 1 はじめに 2022 年 11 月に公開された対話型文章生成 AIである ChatGPT は,その高品質な回答により世間からも大きく注目されている。一般的な事柄に対する質問への回答精度が高く, 教育分野への活用も多く提案されている. 文章生成 $\mathrm{AI}$ が個別学習に使用されるようになれば,各人の理解不足の部分に絞った学習も行いやすくなり,効率的に学習が進められることも期待できる. しかし, 現時点での ChatGPT などの文章生成 $\mathrm{AI}$ は, 計算や数学問題を解くのが苦手であると言われており,数学の分野に関してはそのまま個別学習に文章生成 $\mathrm{AI}$ を使うのにはまだ課題がある。一方, ChatGPT 以前の数学の問題に対する自動解答の研究では, 最終的な計算結果のみで解答精度を出しているものや計算問題の解答精度についての研究が多く, 数学の個別学習に重要な問題の解法過程の正否まで細かく評価している研究や文章問題についての研究は少ない. 数学の個別学習にこれらの技術を用いるには,ChatGPT などの対話型文章生成 $\mathrm{AI}$ のような高い文章生成能力も重要な要素となる. 高い文章生成能力を保ちつつ, 数学の問題解答精度についても高める技術が求められている. そこで本研究では,ChatGPT の基盤となっている大規模言語モデル GPT-4 の数学問題を自動解答する際にどのような部分が解答精度の低下につながっているのかを分析した. 現在の大規模言語モデル (LLM) に不足した部分を補うことにより数学問題の自動解答の精度向上を目指した. 題材としては, 数学の問題の中でも問題内容を文章で表現できることが多く, また従来の数学問題自動解答の研究でも高い精度を出すことが難しいと言われている確率分野の問題を取り上げる。 ## 2 関連研究 Dries ら [1] は,自然言語で表現された数学の確率問題を,Problog 言語による中間表現に変換した上で,2 段階で問題を解いている。ここで,Problog 言語とは,命題に確率が付与できるように Prolog 言語が拡張された論理型言語である。また,Simon ら [2] は,自然言語で書かれた問題をProblog 言語の表現に高精度で変換するためにニューラルネットを用いている. Zheng ら [3] は,GPT-3.5を用いて,前の解答をヒントにしながら対話を繰り返すことで,正解率を上げる手法を提案している. Aman ら [4] は, LLM に数学の問題を解く Python コードを生成させ, それを実行することで,計算誤りを減らす手法を提案している. Zhao ら [5] は,Aman らの手法と LLM による解答のどちらが良い答えかを推論することで,高精度な問題解答を行っている. GPT-4 は,数学の問題を解くための学習は特に行われていない LLM のため,計算間違いを起こしやすいといわれている.この欠点に対処するため,岡谷ら [6] は,筆算と同様の計算手順で計算を行わせるようなプロンプトにより,計算を行わせたが,精度向上に寄与しなかったことを報告している。本研究では,数学の確率問題に対して問題を解く上で,LLMに解くの 表 1 実験結果 (\%) 表 2 「チャート式」の各テーマ別の解答精度 (\%) に必要な前提知識が欠けていることが問題解答精度の低下を招いているのではないかと仮定して,精度向上方法について分析・検討を行った. ## 3 GPT-4 による確率問題の自動解答 まず,高品質な文章生成が可能な LLM として高い評価を得ている GPT-4 を用いて,数学の確率問題を解き,その解答精度について評価を行った。 ## 3.1 評価項目 GPT-4 を用いた解答に対して,以下の 2 項目で人手で評価した。 ・最終的な計算結果の正しさ ・解法の過程の正しさ なお,計算誤りのみの理由で最終的な計算結果が不正解であった場合は, 解法の過程は正しいと評価し,その他の理由で最終的な結果が不正解であったときは,解法の過程が誤っているとして評価した。 また,最終的な計算結果が正しいが,偶然正解したと考えられる場合は,解法の過程が間違っていると評価した。 ## 3.2 評価用データ 本研究では,以下の 2 種類のデータセットに対して評価を行った。 $\cdot$「新課程チャート式解法と演習数学 $\mathrm{I}+\mathrm{A}\rfloor[7]$ ・nlp4plp データセット [1] それぞれの数学の確率問題のデータセットは,「チャート式」が日本語の問題セット,nlp4plp が英語の問題セットである.「チャート式」は場合の数と確率の例題 114 問, nlp4plp は確率問題 199 問から構成されている.GPT-4 で自動解答させる際,問題の言語により解答精度に違いがあるかを検証するために,それぞれのデータを他の言語(英語または日本語)に DeepLを用いた翻訳したものについても評価することとした。 ## 3.3 結果 「チャート式」と nlp4plp および,それらを翻訳したものについて,GPT-4により自動解答を行った結果を表 1 に示す. 実験の結果,「チャート式」の日本語の問題では,最終的な計算結果と解法の過程のどちらもあっているものが, 59.65 \%あった.また,「チャート式」 の問題を英語に翻訳し GPT-4 に解かせたものでは, 52.53 \%と,オリジナルの日本語の問題に対する解答精度の方が高かった. また, nlp4plp でも同様に,英語のデータセットでは最終的な計算結果と解法の過程のどちらもあっているものが 83.92 \%であったのに対し, 日本語に翻訳したものでは $75.88 \%$ と, 翻訳前のオリジナルなデータに対する解答精度の方が高かった。 「チャート式」と nlp4plp の解答精度を比較すると, nlp4plp の方が, 最終的な計算結果が間違っており,解法過程が合っている問題の割合が高く, nlp4plp の方が計算誤りが多い. 「チャート式」の各テーマ別の解答精度を表 2 に示す. 実験の結果,問題テーマにより解答精度に大きな違いが見られた. 特に,円順列・じゅず順列,重複順列のテーマでは,最終的な計算結果と計算過程のどちらも不正解である問題の割合が $50 \%$ 以上と高かった. ## 3.4 考察 どちらのデータセットも,翻訳したものとしていないものを比較すると,翻訳していないオリジナルのデータセットの方が,解答精度が高かった. その理由として,翻訳された文が完全には元の文の内容を表したものになっておらず,情報の欠如が起こったためだと考えられる.GPT-4 は,日本語より英語の入力に対する解答精度が高いといわれているが, この数学の確率問題データセットに関しては英語に翻訳せず,オリジナルの日本語では GPT-4 の入力として与えた方がよいことが分かった. 解法の過程はあっているが最終的な計算結果が間違っている問題は,「チャート式」の問題では $5.56 \%$, nlp4plp の問題では $10.05 \%$ \%てった. 最終的な解答が誤った原因は,途中の計算誤りによるものがほとんどであった. 特に,桁数が多い数の割り算での誤りが目立った. nlp4plp の方が「チャート式」の問題より計算過程で桁数が大きくなる問題が多くあったため,結果として,nlp4plp の方が最終的な解答誤りが多くなったと考えられる。また,計算途中で分数を小数に変換してしまう解答も多く, 丸め誤差により最終的な解答が誤っているものも多かった.そのため,途中の計算は分数のままで計算させる方が計算誤りは防げるのではないかと考えられる。 表 2 に示した通り,「チャート式」の問題では,円順列・じゅず順列,重複順列の問題で特に解答精度が低かった. GPT-4 で事前学習されているデータは,英語のテキストが多いと考えられるが,英語で書かれた円順列やじゅず順列,重複順列の問題が少ない可能性がある.そのため,これらのテーマの問題を解かせる際に,これらのテーマに関する前提知識を与えることで,精度が向上する可能性がある。最終的な計算結果と解法の過程のどちらも不正解である問題は,「チャート式」の問題では $35.19 \% も$ あった.これらの問題は, 問題設定の認識が不正確で,考慮すべき条件の欠落や,問題に記載された数量に関する認識誤りなどによるものである. 問題設定に関する認識誤りは,各テーマの問題を解く際に必要な前提知識を追加することで精度向上が図れる可能性がある. ## 4 前提知識の考慮 前節で考察したように,GPT-4 による確率問題の自動解答では,計算誤りや問題設定に対する認識誤りなど,様々な原因により解答を誤ってしまう.従来研究にもあったように,GPT-4 による計算誤りの精度を上げる方法は,現在のところ明らかになっていない. しかし,前提知識の不足については,プロンプトで知識を追加して解答精度を上げられる可能性があるため, 解答精度向上に有効な前提知識について検討を行った。前提知識を考慮することで,正解となった問題を以下に示す. ## 4.1 考え方の考慮 問題の考え方を示すことで正解となったものを以下に示す. $<$ 問題 $>$ 白色カードが 5 枚,赤色カードが 2 枚,黒色カー ドが 1 枚ある. 同じ色のカードは区別できないものとして,この 8 枚のカードを左から 1 列に並べるとき,次のような並べ方は,それぞれ何通りあるか.赤色カードが隣り合う $<$ GPT-4 による解答 $>$ 2 枚の赤色のカードを 1 つのグループと見なし, 白色のカード 5 枚, 赤色のカードのグループ 1 つ,黒色のカード 1 枚の 7 つの要素を並べる. $7 * 6 * 5 * 4 * 3 * 2 * 1=5040$ 通り. <前提知識を追加したときの解答> 赤色カードが隣り合う場合,赤色カードを 1 つのグループと考え,白色カード 5 枚,黒色カード 1 枚,赤色カードのグループ 1 つの 7 つの要素を並べる.並べ方は 7 要素の順列で, 同じものがある順列の公式を用いると, $7 ! /(5 ! * 1 ! * 1 !)=42$ 通り. $<$ 追加した前提知識 $>$ 同じ色のカードは区別できないという部分を理解できていなかったため, 次の前提知識を追加した. 「ただし,区別ができないため,例えば $(1,2) ,(2,1)$ は同じ場合と考える.」 区別できないものについてどのように考えればよいか前提知識を与えた結果,正解に導くことができた. 確率問題ではさいころの大小や球の色など,区別するときとしないときで解法が異なり,特に, GPT-4 は区別しない問題を区別するものとして解くことが多かった. そこで前提知識として,区別ができない場合の具体例を示すことで解決することができた. このことから,問題の考え方は,具体例を示すことで解けるようになると考える。 ## 4.2 解き方の考慮 問題の解き方を考慮することで正解となったものを以下に示す. $<$ 問題 $>$ 6 人の生徒 A,B,C,D,E,F が丸いテーブルに座る.このとき,A,B が隣り合う並び方は何通りあるか. $<$ GPT-4 による解答 $>$ A と B 1 つのグループと見るとこのグループと $\mathrm{C}, \mathrm{D}, \mathrm{E}, \mathrm{F}$ の 5 つの要素を丸いテーブルに座らせるので, $5 !=120$ 通り. グループ内の A と B の座る位置は 2 通り。A と B が隣り合う並び方は, $120 * 2=240$通り。 <前提知識を追加したときの解答 $>$ 5 つの要素(グループ $\mathrm{AB}$ と $\mathrm{C}, \mathrm{D}, \mathrm{E}, \mathrm{F} ) を丸$ いテーブルに座らせる場合の数は $(5-1) !=4 !=24$. グループ $\mathrm{AB}$ 内で $\mathrm{A}$ と B が座る場合の数は 2 !. A, B が隣り合う並び方は $24 * 2=48$ 通り. $<$ 追加した前提知識 > GPT-4 による解答では,円ではなく 1 列であるときの解き方をしていたので,次の前提知識を追加した.「なお,異なる $\mathrm{n}$ 個の円順列の総数は $(\mathrm{n}-1)$ !」 円に並んでいるにもかかわらず,1 列に並ぶときの公式を用いて解いていた. そのため,円順列の公式を前提知識として追加することで正解に導くことができた.このことから,GPT-4 には円順列についての前提知識が少なかったため, 解き方として公式を与えることで解くことができたと考える. ## 5 その他のエ夫 前提知識の考慮以外で,プロンプトの追加により正解となった問題を以下に示す. ## 5.1 言葉の曖昧性の考慮 問題文の曖昧性の解消により,正解となったものを以下に示す. $<$ 問題> 50 人の生徒の中でバス通学の者は 28 人, 自転車通学の者は 25 人,どちらでもない者は 10 人である. バスと自転車の両方で通学している者の人数を答えよ. $<$ GPT-4 による解答 $>$ バス通学の者と自転車通学の者は $28+25=53$ 人.生徒の総数は 50 人なのでバスと自転車の両方で通学している者は $53-50=3$ 人. <提案手法による解答 $>$ バスや自転車を使って通学している者は $50-10=40$人. バスと自転車の両方で通学している者は $28+25-40=13$ 人. $<$ 追加した前提知識 > どちらでもない者を考慮できていなかったため,「どちらでもない者」を「バスも自転車も使わずに通学している者」という具体的な言葉で説明した. 言葉の曖昧性の考慮は,特に日本語の問題で有効だと考える。理由として,日本語には英語よりも曖昧な言葉が含まれていることが多いからである。そのため,曖昧な言葉は具体的に説明することで解けるようになると考える。 ## 6 おわりに 本研究では, 大規模言語モデル GPT-4 の数学問題の自動解答における解答精度の低下の原因を明らかにし, 不足した部分を補うことで数学問題の自動解答の精度向上を目指した. その結果, 各問題に必要な前提知識を付与することは,解答精度の向上につながることが分かった. しかし,追加すべき前提知識が問題によって異なることから,今後の課題とし $\tau$ ,個別学習に利用するには自動的に問題文から追加すべき前提知識を把握し, 考慮する必要があることだといえる. ## 参考文献 [1] Anton Dries, Angelika Kimming, Jesse Davis, Vaishak Belle, Luc De Raedt. Solving probability problems in natural language. In Proceedings of the Twenty-Sixth International Joint Conference on Artificial Intelligence, pp. 3981-3987, 2017. [2] Simon Suster, Pieter Fivez, Pietro Totis, Angelika Kimmig, Jesse Davis, Luc De Raedt, Walter Daelemans. Mapping probability word problems to executable representations. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 3627-3640, 2021. [3] Chuanyang Zheng, Zhengying Liu, Enze Xie, Zhenguo Li, $\mathrm{Yu}$ Li. Progressive-hint prompting improves reasoning in large language models. arXiv preprint arXiv:2304.09797, 2023. [4] Luyu Gao, Aman Madaan, Shuyan Zhou, Uri Alon, Pengfei Liu, Yiming Yang, Jamie Callan, Graham Neubig. Pal: Program-aided language models. In International Conference on Machine Learning, pp. 10764-10799, 2023. [5] Xu Zhao, Yuxi Xie, Kenji Kawaguchi, Junxian He, Qizhe Xie. Automatic Model Selection with Large Language Models for Reasoning. arXiv preprint arXiv:2305.14333, 2023. [6] 岡谷基弘. GPT-4 による足し算実験から示唆される Large Language Models $の$ 課題. 人工知能学会, 汎用人工知能研究会, SIG-AGI-024-02, 2023. [7] 星野泰也. 新課程チャート式解法と演習数学 I+A.第 23 刷, 数研出版, 2015 .
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-3.pdf
# 早押しクイズの名数問題における解の妥当性を考慮した解答を するための СоT プロンプトの構築 杉山宏輝 1 角康之 ${ }^{1}$ 1 公立はこだて未来大学 [email protected] [email protected] ## 概要 本研究では, 早押しクイズの名数問題における解の妥当性を考慮した解答を言語モデルに出力させる方法を提案する. 通常の早押しクイズでは解の妥当性を考慮することで,一見答えが確定していない段階での解答の正答率を高めることができ, 言語モデルにおいても同様のことが期待できる. 具体的な手法として, Chain-of-Thought(CoT) プロンプト [1]を用いて, 妥当性を考慮した思考過程とそこから得られる解答を出力する. 妥当性には, 仲間はずれ, 文字列の類似, 難易度, 順序の 4 種類あり [2], それぞれ問題と思考過程を含めた解答をプロンプトとして与える。 ## 1 はじめに 通常の質問応答タスクでは問題文が全文与えられるため純粋な知識量が重要となるが, 早押しクイズは他者よりも早くボタンを押して解答権を得る必要があるため, 問題文の途中, より早い段階での解答が求められ, 知識量に加えて問題文の推測能力も必要となる. 早押しクイズを解くシステムとしては Watson[3] を始め, 研究されてきているが, 多くは解答のために十分な文量を要し, 人間のクイズプレイヤーほどの早さで解答することは難しい. 早押しクイズには構文や答えとしての自然さがあり [4], それらをもとに問題文を推測することで, 一見答えが確定していないような段階での解答が可能となっている. 例えば,「『歳時記』における季語の 5 つの分類とは,「春」「夏」「秋」「冬」と何でしょう?」という問題がある. 通常, 『『歳時記』における季語の 5 つの分類とは,」の段階では「春」「夏」「秋」「冬」「新年」の 5 択であり, 1 つに絞り込むことはできない. しかし,多くのクイズプレイヤーは「新年」と答え ることができると考えられる.なぜなら「春」「夏」「秋」「冬」は四季として慣れ親しんだ季節であるのに対し,「新年」は多くの場合季節として認識していない. 歳時記ではそれが一季節として分類されているという意外さから,「新年」を答えとするのが最も自然だからである.こうした答えとしての妥当性を, 言語モデルが推測できるようにすることで, 早押しでの質問応答タスクでも正答することができるようになると期待できる. 本研究では, CoTを用いて, 名数問題を対象に, 問題文の前半で解答する方法を提案する。 ## 2 関連研究 今回用いる Chain-of-Thought という手法は, ある問題に対する解答を, 思考過程をいくつかの段階に分けて例示することで, 最終的な精度の向上を図るものである [1]. 算術推論, 常識推論, 記号的推論において精度の向上が見られた. 日本語においても有効性が示されている.[5] 海外の早押しクイズにおける研究 [6] では, 複数のモデルを組み合わせ,ランダムな位置で切り捨てた問題文で学習させた結果, NIPS 2017 で行われた質問応答のコンペティションで優勝し, 人間のクイズ王 6名に対して勝利を収めている. しかし, 複数の文からなる形式のクイズ「Quiz bowl」の問題を用いた検証において, 全文が与えられた場合の正解率は $96 \%$ だったが, 単一の文では $56 \%$ にとどまった. これは最適な押しポイントは学習できておらず, 推定精度が問題文の情報量に依存しているためと考えられる.本研究では,名数問題において問題文の前半に得られる解候補から, 後半の情報を聞くことなく正解することを目指す.また, 日本語の早押しクイズを題材とした研究 $[7,8]$ では, パラレル問題を調査し, その構造と対比関係を明らかにしている. パラレル問題 とは「アイルランドの首都はダブリンですが, アイスランドの首都はどこでしょう?」のような早押しクイズ特有のひっかけ問題のことである. 対比関係を対義, 連続, 一対一対応, 音・表記の一致と定義づけ,それらを元に問題や解の自動生成を行った.このことから, 早押しクイズ特有の要素は解の推定に関係があり, 本提案においても有効であると考える。 ## 3 名数問題と妥当性 ここでいう名数問題とは, 以下のような形式で, あるグループ W の中から答えとなる要素以外を列挙し,残ったものを聞く問題のことを指す。 問題 : $W$ とは, $w_{1}, w_{2}, \ldots, w_{n-1}$ と何でしょう? 答え: $w_{n}$ 名数問題の妥当性は, 以下の 4 つに大別される.[2] 仲間外れ解候補のうち, 他に共通している上位概念がないもの. 例題 : 世界四大珍獣に数えられる 4 種類の動物とは、ジャイアントパンダ、コビトカバ、オカピと何でしょう?答え:ボンゴ 解説:「ジャイアントパンダ」「オカピ」「コビトカバ」の3 種がまとめて世界三大珍獣と呼ばれるため, ボンゴが仲間外れとなる。 文字列の類似度解候補のうち, 文字の表記や音が 1 つだけ似ていないもの. 例題:オリオン座の中央にある 3 つ星を構成しているのは、アルニタク、アルニラムと何でしょう?答え:ミンタカ 解説:「アルニラム」「アルニタク」という似た音の単語と比べ、「ミンタカ」は明らかに音が異なっていることがわかる. 難易度解候補のうち, 知名度が低いなどして 1 つだけ単語の難易度が高いもの 例題:一般に「世界三大料理」と呼ばれる料理とは、 フランス料理、中華料理と何料理でしょう?答え: トルコ料理 解説:「フランス料理」「中華料理」に比べ「トルコ料理」はあまり一般的ではなく、単語としての難易度が高いといえる。 順序日付など何かしらの番号が付与されている単語の順番 例題 : 京都三大祭といえば、5 月の葵祭、7 月の祇園祭と 10 月にある何祭でしょう?答え:時代祭解説: 葵祭は 5 月, 祇園祭は 7 月, 時代祭は 10 月に開催されるため, 葵祭<祇園祭<時代祭という順序関係が存在する。 ## 4 プロンプトの構築と評価 名数問題に解答するためのプロンプトの構築と評価用の問題の選定、および各プロンプトを用いて大規模言語モデルで解いた場合の評価をする. 例題として利用した問題と解答を図 1 に示す. ## 4.1 プロンプト CoT プロンプトの shot として用いる 8 問の問題と思考過程を含む解答を作成した. 問題は 4 種類の妥当性が全て含まれるように採用し、計 8 問の例示とした.プロンプトの構成は実際にクイズを行っているときの思考過程に沿って 1) 解候補の列挙 2) 理由付け 3) 最終的な答えとした. ## 4.2 評価データ クイズを題材にした質問応答のコンペティションである AI 王1) で配布されている問題 (22,335 問) から, 351 問の名数問題を採用した. ## 4.3 評価設定 構築したプロンプトを用いて大規模言語モデルに評価データを解かせ, 正解率を調べる. モデルは日本語のモデルである Japanese Stable $\mathrm{LM}^{2}$ )を使用し標準プロンプトと CoT プロンプトの 2 種類で精度を比較する. 標準プロンプト 8- shot, CoT プロンプト 8-shot で行い, 標準プロンプトは問題の直後に”答えは「” を置き, CoT プロンプトは”解答:”を置く. 問題文は選択肢が確定する前振り(問題文前半)までを入力とした. 正誤判定は、CoT プロンプトにおいては出力の表記ゆれが激しいため(答えは「〜」,正解は 「〜」, 最後は「〜」など), 最終的に言っている単語を解答とみなし、人手で判断した。 ## 4.4 結果と考察 結果を表 1 に示す. 標準プロンプトを用いた場合と CoT プロンプトを用いた場合で正解率の差はほとんど見られなかった.CoT プロンプトによって正解率 1) https://sites.google.com/view/project-aio/dataset?authuser=0 2) https://huggingface.co/stabilityai/japanese-stablelm-base-alpha$7 \mathrm{~b}$ 図 1 CoTプロンプト が向上しなかった原因はさまざま考えられるが, 1 つは解候補列挙段階でのハルシネーションの影響が大きいと考えらえる. 問題 2(表 2) のように、列挙した中に正答が含まれていなければ, 最終的に正解することはほとんど不可能である. また, 理由付けとして妥当な推論ができていないことがほとんどであった. 問題 3,4 のように, 列挙した解候補は正しいにもかかわらず、推論が支離滅裂になってしまい, 答えを間違ってしまう場合も多い. これは 8 -shot の例示では思考過程を十分に学習できなかったことが原因であると考えられる. 関連研究 [5] では 1つのタスクにつき 8 つ例示であったが, 本研究では 4 種類の妥当性全て含めて 8-shot であり, 各妥当性につき 1-3つの例示しかできていなかったため, 理由付けを推論するための十分な情報が無かったと考えられる. 中には問題 1 のように, カースト階級の順序を正確に把握し,一番最後のシュードラを答えとするなど, 理想的な推論結果も得られており,これらは CoT によって妥当性を考慮した推論を学習できた結果で あると考えられる。 表 2 問題とモデルの出力例 問題 1 : 古代インドのカースト制度における主要な $\mathbf{4}$ 階級 とは, バラモン,クシャトリヤ,ヴァイシャと何でしょう? 解答:古代インドにおけるカースト制度は, バラモン, クシャトリヤ,ヴァイシャ,シュードラの 4 つで構成されている. バラモンはカーストの最上位に位置し,クシュトリヤはバラモンに次ぐ地位, ヴァイシャはクシャトリアに次ぐ地位であり, シュドラは最下位に位置している.よって,最後に問われるのはシュードラである.(正解) 問題 2 : 夏目濑石の前期三部作といえば,『三四郎』『それから』と何? 解答:夏目漱石の前期三部作は「吾輩は猫である」,「坊っちゃん」,「草枕」のつである.一番知名度が低いのは「草枕」のため, 最後に聞かれるのは「草枕」である.よって答えは「草枕」(不正解) 問題 3:「六法」と呼ばれる 6つの法律といえば、憲法、民法、民事訴訟法、刑法、刑事訴訟法と何でしょう?解答 : 六法とは、憲法、民法、刑法、商法、民事訴訟法、刑事訴訟法の 6つである。「六法全書」という書籍は存在しないため、六法といえば六法である(不正解) 問題 4 : ロシアの作曲家、チャイコフスキーの三大バレエ音楽といえば、『白鳥の湖』『くるみ割り人形』と何でしょう? 解答 : チャイコフスキーの三大バレエは、白鳥の湖、眠れる森の美女、くるみ割り人形の 3 曲である。白鳥の湖の次に聞かれるのがくるみ割人形であるため、最初に聞かれる曲は白鳥の曲である。「白鳥の歌」は白鳥の曲の別名である。(不正解) 問題 5 : 太陽系の惑星の中で衛星をもっていない 2 つ惑星とは、水星と何でしょう? 解答 : 水星と金星である。水星は太陽に近く、金星は地球に近くて、どちらも衛星をもたない。よって最後に聞かれのは金星であり、答えは「金星」(正解) ## 5 おわりに 本研究では, 早押しクイズの名数問題における解の妥当性を考慮し, 問題文の途中で解答するための CoT プロンプトの構築と検証を行った. 8 -shot の標準プロンプトと CoT プロンプトで正解率の差は見られなかったが, 理想的な推論結果が得られた出力もあり, 今後に期待できる結果となった. 妥当性の無い推論なども数多くあったが, CoT はモデルサイズが大きいほど効果が高いということが知られているため, 今回検証した $7 \mathrm{~b}$ よりも大きいサイズのモデルや,例次数を増やした検証もしていきたい. また, ハルシネーションへの対策として, Retriever を機構を組み込み, 外部知識を参照できるようにする必要がある。 ## 参考文献 [1] Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Brian Ichter, Fei Xia, Ed H. Chi, Quoc V. Le, and Denny Zhou. Chain-of-thought prompting elicits reasoning in large language models. Advances in Neural Information Processing Systems, Vol. 35, pp. 24824-24837, 2022. [2] 杉山宏輝, 角康之. 早押しクイズの解候補の絞り込み. インタラクション 2023 論文集, pp. 1014-1018, 2023. [3] JDavid Ferrucci, Eric Brown, Jennifer Chu-Carroll, James Fan, David Gondek, Aditya A. Kalyanpur, Adam Lally, J. William Murdock, Eric Nyberg, John Prager, Nico Schlaefer, and Chris Welty. Building watson: An overview of the deepqa project. Al Magazine, Vol. 31, No. 3, pp. 59-79, 2010. [4] 伊沢拓司. クイズ思考の解体. 朝日新聞出版, 2021. [5] 堀尾海斗, 村田栄樹, 王昊, 井手竜也, 河原大輔, 山崎天, 新里顕大, 中町礼文, 李聖哲, 佐藤敏紀. 日本語における chain-of-thought プロンプトの検証. 人工知能学会全国大会論文集, 2023 . [6] Ikuya Yamada, Ryuji Tamaki, Hiroyuki Shindo, and Yashiyasu Takefuji. Studio ousia' s quiz bowl question answering system. In The NIPS '17 Competition: Building Intelligent Systems, pp. 181-194, 2018. [7] 橋元佐知, 佐藤理史, 宮田玲, 小川浩平. 競技クイズ・ パラレル問題の基本構造と文型. 語処理学会第 27 回年次大会発表論文集, pp. 1420—-1424, 2021. [8] 橋元佐知, 佐藤理史, 宮田玲, 小川浩平. 早押しクイズのパラレル問題の自動生成. 語処理学会第 28 回年次大会発表論文集, pp. 832-837, 2021.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-4.pdf
# RALLE: A Framework for Developing and Evaluating Retrieval-Augmented Large Language Models 星康人* 宮下大輔* Youyang Ng 立野賢登 森岡靖太 鳥井修 出口 淳 キオクシア株式会社 [email protected] ## 概要 Large Language Model (LLM) と検索を組み合わせた retrieval-augmented large language model (R-LLM) の効率的な開発と定量的な評価を可能とするフレームワーク, RALLE (Retrieval-Augmented LLM Development and Evaluation)を提案する ${ }^{11}$. 既存の R-LLM 開発用フレームワークとは異なり,RALLE は検索や生成などの個々の推論過程を動作させながら行うプロンプト開発や,構築した R-LLM に対して任意のベンチマークデータセットを用いた定量的な評価を実現する。 ## 1 はじめに Large Language Model (LLM) は,自然言語の理解と生成において高い能力を持つことが知られている $[2,3,4]$. しかし,LLM は事実に関する質問応答において, hallucination $[5,6]$, モデルが持つ古い知識 [7], 記憶効率 [8] 等の課題を持つ. これらの課題の軽減策として,LLM と検索を組み合わせた retrieval-augmented large language model (以下, R-LLM) が有望視されている [9]. R-LLM は,モデル外部のデータベースに保存された情報を検索して推論に利用することができ $[9,10]$ ,オープンドメイン QA における精度向上をもたらすことが知られている [11]. さらに,R-LLM を用いることで,hallucination の抑制 [12],知識原の更新の容易さ $[13,10]$, 参照した情報が明確,などの利点を追加学習なしで得られる。 しかし,R-LLM の効率的な開発や,R-LLM の応答性能の定量的な評価を実現する仕組みの整備は不十分である. R-LLM 構築に用いられる ChatGPT  Retrieval Plugin ${ }^{2)}$, Guidance ${ }^{3)}$, LangChain [14]のようなフレームワークは抽象度が高 ${ }^{4)}$ ,検索や生成などの個々の推論ステップの機能の検証やプロンプトの最適化が困難である。また,これらのフレームワークでは任意のベンチマークを用いた R-LLM の定量的な性能評価をサポートしていない. そこで, 本論文では R-LLM の開発と評価のためのフレームワークである RALLEを提案する. RALLE を用いることで,R-LLM の効率的な開発,および客観的な評価指標を用いた性能評価が可能となる. ## 2 RALLe の使い方 図 1 に RALLEの主な特徴を示す5).RALLeを用いた R-LLM 開発の主な流れは,(1) 知識源となる文書の埋め込みと indexing, (2) R-LLM の推論チェー ンの設計,(3) 開発した R-LLM の評価,という 3 つの要素で構成される. (1) 知識源となる文書の埋め込みと indexing では,任意の文書検索器を用いて文書をエンコードし,任意のアルゴリズムで indexing する.RALLE では密ベクトルの index として Faiss Flat index [15], HNSW [16], DiskANN [17] がデフォルトで利用可能である. (2) R-LLM の推論チェーンの設計では, 検索器と LLM を組み合わせて,特定の用途に適した様々な推論パイプラインを設計できる.単一アクションのチェーンは,LLM を用いた closed-book QA システム,ないし検索器を用いて検索結果を返すシステムとなりうる。複数アクションで構成されるチェー ンは,シンプルな retriever-reader の他, 検索用にクエリ書き換えを伴う [18] のような複雑な R-LLM のワークフローとなりうる. 推論チェーンの設計は, Gradio [19] ベースの GUI 上で行うことができる.  図 1 RALLEの概要. R-LLM を構成するアクションは任意の数定義できる.個々のアクションは個別に実行でき,そのアクションで定義されているプロンプトをテストできる. 評価実験の設定や結果は MLflow で管理できる.チャット画面で,構築したR-LLMをテストできる. RALLEでは,LLMや検索(クエリの加工)に用いるプロンプトテンプレートをインタラクティブに開発できる. 各アクションを独立に実行でき(図 1 右下),各アクションの出力を確認しながらプロンプトテンプレートを改善できる. より汎用なプロンプトテンプレートの開発のために, RALLE は Python の f-strings と eval 関数をサポートしている. (3) 開発した R-LLM の評価は,独自の QAデータセットを含む任意のベンチマークデータセットを用いて可能である ${ }^{6)}$. 開発した R-LLM の評価は GUI 上で開始できる. 実験の追跡には MLflow [20] が利用でき,R-LLM の設定ファイルやプロンプトテンプレートを追跡できる.これにより,異なる実験設定における精度を比較でき,より優れた R-LLM の開発に寄与しうる。 さらに, RALLE はチャットインターフェースの構築もサポートしており, 開発者は構築した R-LLM をチャット画面で試験できる(図 1 右上). ## 3 実験設定 本章では,オープンソースの検索器と LLM を組み合わせて構築した R-LLM の性能を, 知識集約型タスクで評価する際の実験設定を述べる.  ## 3.1 タスクとデータセット 評価には KILT (Knowledge Intensive Language Tasks) ベンチマーク [21]を用いる. KILT ベンチマークは, 計 5 つの知識集約型タスク (fact checking, entity linking, slot filling, open-domain question answering, and dialogue) にわたる計 11 のデータセットからなるべンチマークである. KILT の学習セットをプロンプ卜開発に使用し,開発セットを評価に使用する.検索対象の知識源として, KILTが提供する前処理済みの Wikipedia パッセージ集を使用する.このパッセージ集は, 2019 年 8 月 1 日の英語版 Wikipedia ダンプデータから作られており,計 590 万記事と 2220 万の 100 単語パッセージで構成される. 本稿では,各パッセージに記事のタイトルを付加する前処理を行ったパッセージを検索に使用する. ## 3.2 ベースライン モデル外部の知識を用いない closed-book 設定のベースラインとして BART-large モデル [22], および open-book 設定のベースラインとして RAG モデル [23]の結果を用いる. これらのベースラインモデルは KILT ベンチマークで fine-tune されているのに対し, 本稿の実験で用いた LLM および我々が構築した R-LLM はそのような fine-tune がなされていない点に注意されたい. 表 1 KILT ベンチマーク開発セットにおける下流タスクの精度.太字と下線はそれぞれ最も良い値,2 番目に良い值を示す. 括弧内の值は,出力纪 gold answer が含まれる割合を意味する has_answer の値を示す. 灰色の数字は,与えられた設定で結果が変わらないため,上の行からコピーしたものである。 ${ }^{8}$ : KILT 論文 [21] で示されている值を引用.注: BART-large と RAG モデルは KILT で fine-tune 済みである. ## 3.3 文書検索器 文書検索器として, sparse 検索器と dense 検索器を使用する. Sparse 検索器として,Pyserini [24] の unigram BM25 [25] を使用する ${ }^{7)}$. Dense 検索器として, Massive Text Embedding Benchmark (MTEB) [26] のリーダーボード上で 2023 年 7 月時点で Retrieval タスクにおける精度が高いモデルを使用する(付録の表 5 を参照)。具体的には, e5-large-v2 ${ }^{8}$ (e5) [27] と multilingual-e5-large ${ }^{9)}(\mathbf{m}-\mathbf{- 5})$ を使用する. 検索結果を参照して回答する open-book 設定では, クエリとの関連度が最も高い上位 5 つの文書を取得して回答に使用する。検索性能の指標とし $\tau$ , page-level R-precision [28] を用いる。これは,検索された上位 $R$ の記事のうち $R$ 個の gold ページが含まれる割合を意味する. FEVER と HotPotQA(マルチホップデータセット)を除き,R-Precision は Precision@1 と等価である. ## 3.4 LLM R-LLM で使用する LLM は,プロンプトで与えられる指示を理解し,適切な応答を生成しなければならないため, instruction tuning がなされた LLM を使用する。このため本稿では,Llama-2-chat [29] の =0.9$ (単語頻度スケー リング)と $b=0.4$ (文書長正規化)を使用. 8) https://huggingface.co/intfloat/e5-large-v2 9) https://huggingface.co/intfloat/ multilingual-e5-large } 13B (Llama2-13B) と 70B (Llama2-70B) モデル,および WizardVicunaLM-13B ${ }^{10)}$ (W-Vicuna-13B) [30] を用いる。最適な性能と再現性を得るために,LLM の温度パラメータは 0 に設定する。 ## 3.5 プロンプト 実験に用いるプロンプトテンプレートは,KILT の各データセットに対して,学習セットを用いて人手で設計する. RALLEでは,自然言語以外の形式である Python の f-strings と eval 関数を用いたプロンプトテンプレートが使用でき,より柔軟なプロンプトテンプレートの設計を可能である.実験に使用したプロンプトテンプレートの一部を付録 A に示す. ## 4 評価結果 本章では,RALLEを用いて開発したR-LLM の評価結果について述べる。 ## 4.1 下流タスクの性能 KILT ベンチマークにおける下流タスク性能を表 1 にまとめる. 我々が構築した R-LLM (e5 + Llama270B) は,RAG モデルと異なり KILT で fine-tune されていないにもかかわらず,HoPo と TQA データセッ卜において RAG モデルの精度を上回った. また,我々が構築した R-LLM はこれ以外のデータセットでも許容可能な精度レベルを示していることから,  vicuna-13b 表 2 KILT ベンチマークの開発セットにおける検索性能. Avg. は,各データセットにおける検索精度のマクロ平均.太字は最良の値を示す. ${ }^{8}$ KILT 論文 [21] で示されている值を引用. 表 31 問あたりの実行時間 (sec/Q). Memory は,検索時の最大の DRAM 使用量を示す。 本研究で用いた LLM が検索結果を読解するための能力をある程度有することが示唆される。 さらに表 1 から,検索を用いた生成(ELI5を除く),LLM の大規模化(FEV と T-REx を除く),参照する関連文書数の増加(NQ,HoPo,TQA,WoWを除く)が,下流タスクの性能向上に寄与しうることが示唆される。しかし, これらの傾向の例外が数多く見られること,また has_answer の值に比べて精度が低い場合があること(FEV,T-REx,NQ,TQAなど)から,プロンプトや推論チェーンの改良,ないし読解に適した LLM の構築など,生成における改善の必要性が示唆される. いずれにせよ,R-LLMの定量的な評価結果は, 構築した R-LLM の改善点の特定につながると考えられる。 ## 4.2 検索精度 表 2 は KILT 開発セットにおける検索精度を示す. KILT における検索精度の平均は e5 (Flat index) が最も高いことが分かる.また,e5 の検索精度は RAG モデルより高いにもかかわらず,e5を採用した R-LLM の下流性能は RAG モデルに及んでいない (表 1).このことは,構築した R-LLM の生成の部分において改善の余地があることを示唆しており,この考察は 4.1 節の考察と一貫している. ## 4.3 実行時間の解析 表 3 に,実行時間と精度のトレードオフを示す. R-LLM の実行時間は LLM による生成が大部分を占めること,また HNSW や DiskANN などの近似最近傍探索アルゴリズムを使用することで,検索時間を短縮できる一方で検索精度は低下することが分かる.このため,近似最近傍探索による実行時間短縮の効果は限定的であると思われるが,DiskANN はメモリ使用量が比較的少ないことから,利用可能な DRAM 容量に制限がある場合には DiskANN などの技術が実用的な解決策となることも考えられる. 速度と精度のバランスはアプリケーションの要件によって異なるが,このような様々な実験設定での評価結果は R-LLM 開発に貢献すると考えられる. ## 5 おわりに 本稿では,R-LLMを開発・評価するためのフレー ムワークである RALLEを提案した.RALLEを用いてR-LLMを構築し,KILT ベンチマークで評価したところ,我々が構築した R-LLM は KILT ベンチマー クデータセットで fine-tune されていないにもかかわらず,ある程度の回答精度を示すことが判明した。 RALLE が今後の検索拡張生成の研究開発に貢献することを期待する。 ## 参考文献 [1] Yasuto Hoshi, Daisuke Miyashita, Youyang Ng, Kento Tatsuno, Yasuhiro Morioka, Osamu Torii, and Jun Deguchi. RaLLe: A Framework for Developing and Evaluating Retrieval-Augmented Large Language Models. In Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 52-69, Singapore, December 2023. Association for Computational Linguistics. [2] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, et al. Language Models are Few-Shot Learners. In Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901, 2020. [3] Aakanksha Chowdhery, Sharan Narang, Jacob Devlin, Maarten Bosma, Gaurav Mishra, Adam Roberts, Paul Barham, et al. PaLM: Scaling Language Modeling with Pathways. Journal of Machine Learning Research, Vol. 24, No. 240, pp. 1-113, 2023. [4] OpenAI. GPT-4 Technical Report. arXiv preprint arXiv:2303.08774, Vol. abs/2303.08774, 2023. [5] Yejin Bang, Samuel Cahyawijaya, Nayeon Lee, Wenliang Dai, Dan Su, Bryan Wilie, et al. A multitask, multilingual, multimodal evaluation of chatgpt on reasoning, hallucination, and interactivity. arXiv preprint arXiv:2302.04023, 2023. [6] Ali Borji. A categorical archive of ChatGPT failures. arXiv preprint arXiv:2302.03494, 2023. [7] Adam Liska, Tomas Kocisky, Elena Gribovskaya, et al. StreamingQA: A Benchmark for Adaptation to New Knowledge over Time in Question Answering Models. In Proceedings of the 39th International Conference on Machine Learning, Vol. 162 of Proceedings of Machine Learning Research, pp. 13604-13622. PMLR, 17-23 Jul 2022. [8] Benjamin Heinzerling and Kentaro Inui. Language Models as Knowledge Bases: On Entity Representations, Storage Capacity, and Paraphrased Queries. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 1772-1791, Online, April 2021. Association for Computational Linguistics. [9] Grégoire Mialon, Roberto Dessi, Maria Lomeli, Christoforos Nalmpantis, Ramakanth Pasunuru, Roberta Raileanu, et al. Augmented Language Models: a Survey. Transactions on Machine Learning Research, 2023. Survey Certification. [10] Youyang Ng, Daisuke Miyashita, Yasuto Hoshi, Yasuhiro Morioka, Osamu Torii, Tomoya Kodama, and Jun Deguchi. SimplyRetrieve: A Private and Lightweight Retrieval-Centric Generative AI Tool. arXiv preprint arXiv:2308.03983, 2023. [11] Weijia Shi, Sewon Min, Michihiro Yasunaga, Minjoon Seo, Rich James, Mike Lewis, Luke Zettlemoyer, and Wen-tau Yih. RePlug: Retrieval-augmented black-box language models. arXiv preprint arXiv:2301.12652, 2023. [12] Reiichiro Nakano, Jacob Hilton, Suchir Balaji, Jeff Wu, et al. WebGPT: Browser-assisted question-answering with human feedback. arXiv preprint arXiv:2112.09332, 2021. [13] Kelvin Guu, Kenton Lee, Zora Tung, Panupong Pasupat, and Mingwei Chang. Retrieval Augmented Language Model Pre-Training. In Proceedings of the 37th International Conference on Machine Learning, Vol. 119 of Proceedings of Machine Learning Research, pp. 3929-3938. PMLR, 13-18 Jul 2020 [14] Harrison Chase. LangChain, 2023. https://langchain. $\mathrm{com} /$. [15] Jeff Johnson, Matthijs Douze, and Hervé Jégou. Billion-scale similarity search with GPUs. IEEE Transactions on Big Data, Vol. 7, No. 3, pp. 535-547, 2019. [16] Yu A. Malkov and D. A. Yashunin. Efficient and Robust Approximate Nearest Neighbor Search Using Hierarchical Navigable Small World Graphs. IEEE Trans. Pattern Anal. Mach. Intell., Vol. 42, No. 4, pp. 824-836, apr 2020. [17] Suhas Jayaram Subramanya, Fnu Devvrit, Harsha Vardhan Simhadri, Ravishankar Krishnawamy, and Rohan Kadekodi. DiskANN: Fast Accurate Billion-point Nearest Neighbor Search on a Single Node. In Advances in Neural Information Processing Systems, Vol. 32. Curran Associates, Inc., 2019. [18] Xinbei Ma, Yeyun Gong, Pengcheng He, Hai Zhao, and Nan Duan Query Rewriting in Retrieval-Augmented Large Language Models. In Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, pp. 5303-5315, Singapore, December 2023. Association for Computational Linguistics. [19] Abubakar Abid, Ali Abdalla, Ali Abid, Dawood Khan, Abdulrahman Alfozan, and James Zou. Gradio: Hassle-Free Sharing and Testing of ML Models in the Wild. arXiv preprint arXiv:1906.02569, 2019. [20] LF Projects. MLflow - a platform for the machine learning lifecycle, 2023. https://mlflow.org/. [21] Fabio Petroni, Aleksandra Piktus, Angela Fan, Patrick Lewis, Majid Yazdani, Nicola De Cao, James Thorne, Yacine Jernite, et al. KILT: a Benchmark for Knowledge Intensive Language Tasks. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 2523-2544, Online, June 2021. Association for Computational Linguistics. [22] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, et al. BART: Denoising Sequence-toSequence Pre-training for Natural Language Generation, Translation, and Comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, Online, July 2020. Association for Computational Linguistics. [23] Patrick Lewis, Ethan Perez, Aleksandra Piktus, Fabio Petroni, Vladimir Karpukhin, et al. Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks. In Advances in Neural Information Processing Systems, Vol. 33, pp. 9459-9474. Curran Associates, Inc., 2020. [24] Jimmy Lin, Xueguang Ma, Sheng-Chieh Lin, Jheng-Hong Yang, Ronak Pradeep, et al. Pyserini: A Python Toolkit for Reproducible Information Retrieval Research with Sparse and Dense Representations. In Proceedings of the 44th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR 2021), pp. 2356-2362, 2021. [25] Stephen Robertson and Hugo Zaragoza. The Probabilistic Relevance Framework: BM25 and Beyond. Found. Trends Inf. Retr., Vol. 3, No. 4, pp. 333-389, apr 2009. [26] Niklas Muennighoff, Nouamane Tazi, et al. MTEB: Massive Text Embedding Benchmark. In Proceedings of the 17th Conference of the European Chapter of the Association for Computational Linguistics, pp. 2014-2037, Dubrovnik, Croatia, May 2023. Association for Computational Linguistics. [27] Liang Wang, Nan Yang, Xiaolong Huang, Binxing Jiao, Linjun Yang, et al. Text embeddings by weakly-supervised contrastive pre-training. arXiv preprint arXiv:2212.03533, 2022. [28] Nick Craswell. R-Precision. pp. 1-1, 2016. [29] Hugo Touvron, Louis Martin, Kevin Stone, Peter Albert, Amjad Almahairi, et al. LLaMA 2: Open Foundation and Fine-Tuned Chat Models. arXiv preprint arXiv:2307.09288, 2023. [30] June Lee. WizardVicunaLM, 2023. https://github.com/ melodysdreamj/wizardVicunaLM. [31] Ori Ram, Liat Bezalel, Adi Zicher, Yonatan Belinkov, Jonathan Berant, and Amir Globerson. What Are You Token About? Dense Retrieval as Distributions Over the Vocabulary. In Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2481-2498, Toronto, Canada, July 2023. Association for Computational Linguistics. 表 4 本稿の評価実験で使用したプロンプトテンプレートの一部.左フック矢印っは,改行を意味する.より柔軟なプロンプトテンプレート開発のために,RALLE は Python の f-strings と eval 関数をサポートしている. 表 5 実験に用いた検索器. Dense 検索器の埋め込みの次元数を dim.,モデルへの入力の最大系列長を max len. で示す. “: 文献 [31] より引用. ## A 評価で使用したプロンプトテン プレート 表 4 亿,評価実験で使用したプロンプトテンプレートの一部を示す. 詳細は 3.5 節を参照. Retriever はプロンプトを検索クエリとして関連文書 を検索し,LLM はプロンプトを大力として出力を生成し,Identity はプロンプトの文字列をそのまま出力する。 ## B 実験に用いた検索器 表 5 に,実験に使用した文書検索器をまとめる. MTEB [26] の Retrieval タスクにおける評価指標は nDCG@10であり, leaderboard ${ }^{11)}$ 上で公開されている値を示す.  leaderboard
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-5.pdf
# RAG における LLM の学習と評価:FAQ タスクへの応用 長澤春希 ${ }^{1}$ 戸田隆道 ${ }^{1}$ 1 株式会社 AI Shift \{nagasawa_haruki,toda_takamichi\}@cyberagent.co.jp ## 概要 大規模言語モデル (Large Language Model: LLM) はその汎用性の高さから, 実応用を含めた様々な利活用が進んでいる. 昨今では文書などを追加入力として与えることで,外部知識を参照させながら LLMを運用する Retrieval-Augmented Generation(RAG) などの手法の有用性が改めて認識されている. 一方で, Low-Rank Adaptation (LoRA) などの軽量な fine-tuning 手法なども確立されつつある. そこで本稿では,参照知識が限定的な FAQ タスクを例に取り,RAG と比較した際の質問応答タスクにおける LLM fine-tuning の有用性を検討する.並行して,実運用を踏まえた評価についても議論する。 ## 1 はじめに 実応用を含めた様々なタスクで使用されるニュー ラル言語モデルは,そのパラメータをより大規模化させることで汎化性能が向上することが明らかになりつつある [1]. その結果数百億にものぼるパラメータを有した大規模言語モデル(LLM)の開発が盛んになっている. LLM は学習の過程でテキストデータからさまざまな知識を獲得しているが,これらは有限のパラメータに閉じたものとなっている [2] [3]. 従って,学習データに含まれていない知識には対応できないなどの問題点が存在する. そこで外部情報として関連した文書などの情報を入力として与えることで,その情報に基づいた出力を促す Retrieval-Augmented Generation (RAG) [4] [5] などの手法が提案されている. これにより, 学習外の情報を利用した推論や,正確な情報の提供による hallucination の抑制などが図られている [6]. RAG は入力されたクエリに関連する文書を検索する Retriever とそれに基づく回答生成を担う Generator によって構成される. 検索対象の文書は任意の系列長 (chunk size) で区切ることにより管理され,この区切り方が後段の文書検索や回答生成の 図 1 実験概要図. (i) 追加学習はせず,推論時に質問と関連文書を与えて回答を生成. (ii) 質問と関連文書に加え,それに対するGPT-4 の模範回答を使用して Causal Language Modeling (CLM) にて学習を実施. 推論時は質問文のみを入力し回答を生成. (iii) は (ii) で学習したモデルに対し,推論時にも関連文書を与えて回答を生成. 品質に影響すると考えられる。例えばある 1 つの事柄について説明する文書を扱う場合,その事柄について述べられていることを特定するために必要な固有名詞などの情報が全く現れない chunk などが生成される可能性がある.これは必要な情報の検索を難しくする要因の 1 つとなると推察される。このような RAG の設計上の複雑さに由来する難点は各所に存在しており,これらの問題を軽減する 1 つの方法として,chunkに対するアテンションを改善する RETRO [7] などの手法が提案されている. 関連して,LLM の効率的な学習という観点から LoRA [8] や Prompt-tuning [9] などの手法も提案されつつある.具体的には,小規模なパラメータ群を追加して学習させるなどの工夫により,学習コストを抑えながら LLM の学習を実現している。 このような技術を背景とし,関連文書を記憶させるようにモデルを学習させた場合,ある程度まとまったパラメータ内の情報へのアクセスが期待できるため,RAG における先述のような問題を緩和できる可能性も伺える. またビジネス運用などの視点から考えると,学習によって出力分布を意図的に偏らせることによって,競合情報やブランドイメージ を毀損するようなキーワードの出力や言い回しを回避しやすくなるといったメリットも考えられる. 非常に広範なデータで行われる事前学習過程を鑑みると,上述のような fine-tuning の性質は,特定の場面において一定の有用性があると期待される. そこで本稿では,FAQ タスクにおける LLM の運用を考えた際のモデル学習の有用性を改めて考える. 具体的には追加の学習は実施せずに関連文書を質問とともに入力として与える場合 (図 1(i))と, 本タスクの文書データを利用して fine-tuning を施し, テスト時には関連文書は与えない場合 (図 1(ii)),および追加学習をしたモデルに対してさらに推論時に関連文書を与える場合(図 1(iii))の3つを比較することによって検証を行う。 また本稿のような FAQ タスクでの LLM の評価は,確立された評価方法が存在しないため,本稿では評価手法の選定やその解釈についても議論する。 ## 2 関連研究 RE-PLUG RE-PLUG [10] は Generator のパラメー 夕は固定し, Retriever の学習を行うことにより性能の向上を図っている. 具体的には, Retriever の文書検索に係る確率分布と Generator の出力を利用することで,質問文が与えられた時の検索精度の改善を行なっている. RETRO RETRO [7] は Retriever のパラメータは固定して, Generator の chunk に対する attention の張り方を学習することにより,質問応答タスクなどの性能向上を狙ったものになっている. RA-DIT RA-DIT [11] は Retriever と Generator の両方の学習を行う. Retrieverの学習では KL-Divergence を用いて Generator に適した文書を検索できるようにパラメータを更新する. Generator の学習では, 検索文書が与えられた状況下での正解の尤度を最大化するようにパラメータを更新する。 ## 3 性能比較実験:FAQ タスク ## 3.1 データセット 本稿では株式会社 AI Shift によって作成された Ameba FAQ データセット1)を用いて実験を行う.これは株式会社サイバーエージェントが運営する Ameba ブログのヘルプページに掲載されている FAQ  データを収集し,これをもとにLlamaIndex にて提供されている Question Generation ${ }^{2}$ などによって拡張されたデータセットとなっている. データセットの構成としては, 質問内容を表す Title(Query) とそれに対応するように人手で作成された回答文書の Content(Answer) から成る. この Content から新たな質問を生成するなどのアプローチによって,従来の Ameba ブログには掲載されていなかったものを含めてデータセットを拡張している。また各インスタンスには難易度として easy と hard が設定されており,例えばあるインスタンスに対応する関連文書が学習データに登場する場合は easy,テスト時に初めてその文書が登場する場合は hard として分類されている.本実験ではこの回答文書を質問に対する関連文書として定義し, 学習および推論時に利用することとする.また本データセットは学習,評価,テストデータが分離された状態で提供されているため, これをそのまま利用する。ただし今回の検証範囲から,難易度が hard のインスタンスについては,追加学習を施したモデルが回答することは難しいと考えられるため,テストデータでの評価は難易度が easy のもの(687 件)に限定する。 ## 3.2 モデル 本稿では扱うデータセットが日本語であるため, モデルとしても日本語を学習したものを調査対象として選定する。具体的な候補とそのモデルについての情報を Appendix 表 4 にまとめる. またモデルは全て 7B 級の同程度のパラメータサイズのものを利用する.これらのモデルについては学習および評価時に用いるプロンプトとして,HuggingFace の各モデルカードページに記載された推奨プロンプトをそれぞれ使用する。またこれらのモデルに加え, GPT-3.5-turbo および GPT-4 についても比較対象として検証する。なお,この 2 つのモデルについては学習手法等を他のモデルと揃えられないため, 学習の対象外とする。 ## 3.3 学習設定 クエリの関連文書に対する学習手法については Low-Rank Adaptation (LoRA) [8] を採用する。学習はモデルの重みを 8-bit 量子化した状態で行い,Ameba FAQ の評価データの学習損失が一定ステップ以上改 2) https://gpt-index.readthedocs.io/en/latest/ examples/evaluation/\QuestionGeneration.html\# 表 1 Ragas の Answer relevancy(上段)および BERTScore の F1 值(下段). & & & & ELYZA & & StableLM & \\ & 0.673 & 0.679 & 0.614 & 0.594 & 0.664 & 0.671 & 0.669 & 0.607 & 0.637 \\ & 0.747 & 0.731 & 0.710 & 0.756 & 0.721 & 0.757 & 0.753 & 0.809 & 0.719 \\ & - & - & 0.646 & 0.661 & 0.682 & 0.670 & 0.680 & 0.658 & 0.659 \\ LoRA & - & - & 0.713 & 0.751 & 0.741 & 0.742 & 0.747 & 0.745 & 0.732 \\ 善しなくなるまで継続する,形式としては,系列として質問文と関連文書情報が与えられた際の GPT-4 の出力を模範解答とした時の系列上での causal language modeling (CLM) による学習を考える3). ## 3.4 推論設定 評価時においては,全てのモデルにおいて 8-bit 量子化を行なった状態で推論を行う. また推論時のハイパーパラメータも共通のものを使用し,ビームサーチによるテキスト生成を実施する ${ }^{4}$.この時, モデルによっては 8-bit 量子化の影響で十分なビー ム候補を出力できず推論に失敗するインスタンスがいくつか確認された. テストデータ全体に対する割合を鑑み,今回は推論に失敗したインスタンスについては除外して評価を行うこととする. ## 4 実験結果 ## 4.1 評価指標について 今回は評価指標として Ragas5)の Answer relevancy と BERTScore [12]を使用する.前者についてはLLM 自体を評価者として利用する LLM-as-a-judge [13] の手法となっている. また Answer relevancy について, モデルの出力内容によって評価時に弾かれるインスタンスが数件存在したが,先述の方針に則り,このようなインスタンスは除外した上でスコアを算出する. しかしながら実際に LLM を駆動させながらの評価となるため,スコアの容易な変動や選好バイアスが一定程度存在し, 安定した結果の考察が難しいという特徵がある. 本稿ではこの事由を踏まえながら,安定したスコア算出が可能である BERTScore も  並行して算出し,性能を考察することとした.比較対象は運用種別(図 1 の各種設定)およびモデル種別とした. 運用種別に関しては,各設定がどれほど有効かを見るために,追加学習を行っていないモデルに質問のみを入力して回答を生成させる設定についても Baseline として評価を行った. 上記スコアによるモデル性能比較の議論が難しい場合については,GPT-4 を評価者とした直接比較によるランキング形式での評価も併せて実施することとした.こちらの評価は,質問と関連文書を鑑みた際に,どの回答が定性的に最も良いかを GPT-4 に自動評価させたものとなっている. ランキングの定量評価としては,情報検索システムの分野で用いられる Mean Reciprocal Rank(MRR)を採用した。これはそれぞれの候補の順位の逆数をスコアとしその平均を算出するものとなっており,取りうる值は $1 / \mathrm{n}$ (n は候補数)から 1.0 となる. ## 4.2 結果と考察 運用種別についての分析表 1 に各種スコアを掲載している. 上段が Answer relevancy の値,下段が BERTScore の F1 値となっている。まず,運用種別における分析(各列での比較)を考えると,ほぼ全てのモデルについて RAG もしくはRAG+LoRAでの運用時にいずれかのスコアが最も高くなる傾向が観察された.しかしながら,全体として一貫した傾向が認められにくいことから,この2者のどちらがより優れているかをこの結果のみにて結論づける事は難しいため,直接比較における MRR スコアの考察にて議論する(表 2).また Answer relevancy については, CyberAgent LM2-chat や ELYZA-instruct などにおいて,Baseline 設定でのスコアが最も高くなるという直感に反した結果が観察された。しかしながら Baseline にて実際に生成された回答は Ameba ブログに対する回答というよりも寧ろより一般的なものと 表 2 各モデルについての運用種別の比較についての MRR スコア. 列単位でのスコア値となっているため,行単位での比較はできないものとなっている. 取りうる値は 0.25 から 1.00 . & & & ELYZA & & StableLM & \\ なっている場合が多く,質問に対する回答としては不十分であると考えられるものとなっていた.このような点においても,LLMによる絶対的な評価の難しさが表層化されたと考えられる. モデル種別についての分析続いて,モデル種別での分析(各行での比較)を考える. Answer relevancy のスコアを見ると, GPT-4 や GPT-3.5-turbo が比較的高いスコアとなっていることが分かる。またこれに続く形で RAG や RAG+LoRA の設定下における chat や instruction 形式での学習が施されたモデルが高いスコアとなっている。一方で BERTScore の F1 值を見ると, CyberAgentLM2 や ELYZA, StableLM などの CLM のみでの学習が施されたモデルでスコアが高くなる傾向となった. しかしながらこれらのモデルの実際の出力は, 与えられた関連文書の内容を繰り返し出力するなど,FAQ タスクでのユーザへの回答としては定性的に見て適切ではないと考えられる挙動が散見された。 上述のように,実運用を踏まえた上でのモデル毎の絶対的なスコア算出による性能比較には一定の難しさが伴うことが分かる. そこでこれらの出力品質を GPT-4 に比較させることによって,より直接的な比較を試みる ${ }^{6)}$.まずはどの運用形態が優れているかを議論するため,各モデルごとに Baseline, RAG, LoRA,RAG+LoRA を候補に取り比較を行った. その結果を表 2 に示す. 結果より,ほとんどのモデルにおいて RAG+LoRA でのスコアが最大となった. また, chat や instruction 形式で学習したモデルについては, RAG と RAG+LoRA の MRR スコアが比較的近くなっていることが分かる. ただし, 評価者を GPT-4 としているため, LoRA での学習によって self-enhancement bias [13] が助長された可能性は否めないため, 正当な比較である保証は難しいと推察される. よって,これらのモデルに対する fine-tuning の有用性の定量的な測定は厳密には難しく, 実際の出力を比較することによる定性的な評価が肝要だと考えられる。 表 3 直接比較評価による MRR スコア(上段)と順位分布(下段).MRR スコアの取りうる値は 0.333 から 1.00 . & 0.621 \\ 最後にオープンソースのモデルを候補に取り, その性能差を明らかにするための直接比較を試みる。具体的には表 $1 , 2$ より比較的性能が高いと考えられる CyberAgentLM2-chat(RAG+LoRA), ELYZA-instruct(RAG), StableLM-instruct(RAG+LoRA) の直接比較を実施し,その結果を表 3 に示す.ここではより詳細な比較のため, 各モデルの出力が何位に順位付けされたかの回数を示す順位分布(下段) も併せて掲載している. これは GPT-4 による比較評価において,各順位に何度選択されたかを示すものとなっている. 結果より,いずれのモデルについても上位 1 位に選択された回数がほぼ同数であることが明らかとなった。 ## 5 おわりに 本稿では FAQ タスクにおける RAG の運用という設定において,LLM の fine-tuning の有用性を調査した. また実運用を踏まえた LLM 性能評価についても取り組んだ。結果より chat や instruction 形式で学習されたモデルの性能が全般的に高く,これらのモデル間においては明確な性能差やチューニングの有用性を有意に認めることが難しいものとなった。一方で今回試した全ての評価指標において,FAQ タスクで最も肝要であると考えられる「ユーザーの質問を解決する回答をどれ程生成できていたか」を厳密には測定できておらず,今後はこの点についての評価を方針立てることが重要だと考察される.  ## 謝辞 本論文の執筆にあたりご協力いただきました, AI shift AIチームの皆様および, 本研究の実験環境をご提供いただきました CyberAgent group Infrastructure Unit の皆様に深く御礼申し上げます. ## 参考文献 [1] Jared Kaplan, Sam McCandlish, Tom Henighan, Tom B. Brown, Benjamin Chess, Rewon Child, Scott Gray, Alec Radford, Jeffrey Wu, and Dario Amodei. Scaling laws for neural language models. CoRR, Vol. abs/2001.08361, 2020. [2] Fabio Petroni, Tim Rocktäschel, Sebastian Riedel, Patrick S. H. Lewis, Anton Bakhtin, Yuxiang Wu, and Alexander H. Miller. Language models as knowledge bases? In Kentaro Inui, Jing Jiang, Vincent $\mathrm{Ng}$, and Xiaojun Wan, editors, Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, EMNLP-IJCNLP 2019, Hong Kong, China, November 3-7, 2019, pp. 24632473. Association for Computational Linguistics, 2019. [3] Adam Roberts, Colin Raffel, and Noam Shazeer. How much knowledge can you pack into the parameters of a language model? In Bonnie Webber, Trevor Cohn, Yulan He, and Yang Liu, editors, Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, EMNLP 2020, Online, November 16-20, 2020, pp. 5418-5426. Association for Computational Linguistics, 2020. [4] Patrick S. H. Lewis, Ethan Perez, Aleksandra Piktus, Fabio Petroni, Vladimir Karpukhin, Naman Goyal, Heinrich Küttler, Mike Lewis, Wen-tau Yih, Tim Rocktäschel, Sebastian Riedel, and Douwe Kiela. Retrieval-augmented generation for knowledge-intensive NLP tasks. In Hugo Larochelle, Marc'Aurelio Ranzato, Raia Hadsell, MariaFlorina Balcan, and Hsuan-Tien Lin, editors, Advances in Neural Information Processing Systems 33: Annual Conference on Neural Information Processing Systems 2020, NeurIPS 2020, December 6-12, 2020, virtual, 2020. [5] Ori Ram, Yoav Levine, Itay Dalmedigos, Dor Muhlgay, Amnon Shashua, Kevin Leyton-Brown, and Yoav Shoham. In-context retrieval-augmented language models. CoRR, Vol. abs/2302.00083, , 2023. [6] Kurt Shuster, Spencer Poff, Moya Chen, Douwe Kiela, and Jason Weston. Retrieval augmentation reduces hallucination in conversation. In Marie-Francine Moens, Xuanjing Huang, Lucia Specia, and Scott Wen-tau Yih, editors, Findings of the Association for Computational Linguistics: EMNLP 2021, Virtual Event / Punta Cana, Dominican Republic, 16-20 November, 2021, pp. 3784-3803. Association for Computational Linguistics, 2021. [7] Sebastian Borgeaud, Arthur Mensch, Jordan Hoffmann, Trevor Cai, Eliza Rutherford, Katie Millican, George van den Driessche, Jean-Baptiste Lespiau, Bogdan Damoc, Aidan Clark, Diego de Las Casas, Aurelia Guy, Jacob Menick, Roman Ring, Tom Hennigan, Saffron Huang, Loren Maggiore, Chris Jones, Albin Cassirer, Andy Brock, Michela Paganini, Geoffrey Irving, Oriol Vinyals, Simon Osindero, Karen Simonyan, Jack W. Rae, Erich Elsen, and Laurent Sifre. Improving language models by retrieving from trillions of tokens. In Kamalika Chaudhuri, Stefanie Jegelka, Le Song, Csaba Szepesvári, Gang Niu, and Sivan Sabato, editors, International Conference on Machine Learning, ICML 2022, 17-23 July 2022, Baltimore, Maryland, USA, Vol. 162 of Proceedings of Machine Learning Research, pp. 2206-2240. PMLR, 2022. [8] Edward J. Hu, Yelong Shen, Phillip Wallis, Zeyuan AllenZhu, Yuanzhi Li, Shean Wang, Lu Wang, and Weizhu Chen. Lora: Low-rank adaptation of large language models. In The Tenth International Conference on Learning Representations, ICLR 2022, Virtual Event, April 25-29, 2022. OpenReview.net, 2022. [9] Brian Lester, Rami Al-Rfou, and Noah Constant. The power of scale for parameter-efficient prompt tuning. In Marie-Francine Moens, Xuanjing Huang, Lucia Specia, and Scott Wen-tau Yih, editors, Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, EMNLP 2021, Virtual Event / Punta Cana, Dominican Republic, 7-11 November, 2021, pp. 3045-3059. Association for Computational Linguistics, 2021. [10] Weijia Shi, Sewon Min, Michihiro Yasunaga, Minjoon Seo, Rich James, Mike Lewis, Luke Zettlemoyer, and Wen-tau Yih. REPLUG: retrieval-augmented black-box language models. CoRR, Vol. abs/2301.12652, , 2023. [11] Xi Victoria Lin, Xilun Chen, Mingda Chen, Weijia Shi, Maria Lomeli, Rich James, Pedro Rodriguez, Jacob Kahn, Gergely Szilvasy, Mike Lewis, Luke Zettlemoyer, and Scott Yih. RA-DIT: retrieval-augmented dual instruction tuning. CoRR, Vol. abs/2310.01352, 2023. [12] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with BERT. In 8th International Conference on Learning Representations, ICLR 2020, Addis Ababa, Ethiopia, April 26-30, 2020. OpenReview.net, 2020. [13] Lianmin Zheng, Wei-Lin Chiang, Ying Sheng, Siyuan Zhuang, Zhanghao Wu, Yonghao Zhuang, Zi Lin, Zhuohan Li, Dacheng Li, Eric P. Xing, Hao Zhang, Joseph E. Gonzalez, and Ion Stoica. Judging 1lm-as-a-judge with mt-bench and chatbot arena. CoRR, Vol. abs/2306.05685, , 2023. ## A実験にて使用したモデル一覧 表 4 実験にて使用するモデル一覧. ELYZA および ELYZA-instruct はそれぞれ HuggingFace にて ELYZA-japanese-Llama-2-7b-fast, ELYZA-japanese-Llama-2-7b-fast-instruct として提供されるモデルを指すものとする. また StableLM, StableLM-instruct についても同様に, japanese-stablelm-base-ja_vocab-beta-7b, japanese-stablelm-base-ja_vocab-instruct-7b として提供されるものを指す。 \\ ## B 各種ハイパーパラメータ設定 表 5 学習時に使用するハイパーパラメータ 表 6 推論時におけるテキスト生成に関するハイパーパラメータ ## C 比較評価で使用したプロンプト 表 2 および表 3 の評価にて, GPT-4 に与えたプロンプトを掲載する. 以下は候補数が 3 つの場合のものである. \#\#\# タスク定義 ある質問とそれに関連する文書が与えられているとします。これらを踏まえて生成された回答を 3 つ人力するので、回答の質が高い順に並べてください。答え方としては json 形式で \{'index1': \{'rank': x, 'reason': foo \}, 'index2': \{'rank': x, 'reason': foo \}, 'index3': \{'rank': x, 'reason': foo \}\} のように、候補インデックスに対する順位とその理由を当てはめる形で答えてください。 従って rank に入る数字は $1 、 2 、 3$ のいずれかです。それ以外の数字は答えないようにしてください。 \#\#\# 判断基準 回答の質を判断する基準として以下の指針を参考にしてください。 - 関連文書の内容を踏まえ、質問にきちんと回答する内容になっているか。 一関連文書の内容を踏まえ、質問に関係のない内容が含まれていないか。 - 文章として明らかに破綻しているものが回答に含まれて いないか。 - 同じ内容の文章が繰り返し出力されていないか。 \#\#\# 質問 \{query \} \#\#\# 関連文書 \{content \} \#\#\# 回答 index: 1 $\{$ 候補 1$\}$ \#\#\# 回答 index: 2 $\{$ 候補 2$\}$ \#\#\# 回答 index: 3 \{候補 3\}
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-6.pdf
# 質問応答モデルはどのショートカットを優先して学習するか? 篠田一聡 $1,2 *$ 菅原朔 2 相澤彰子 1,2 1 東京大学 2 国立情報学研究所 [email protected] \{saku,aizawa\}@nii.ac.jp ## 概要 読解のための質問応答モデルは,訓練セット内の擬似相関を利用した解き方であるショートカットを学習する傾向がある.この問題を緩和するために様々な手法が提案されてきたが,それらはショートカット自体の特性を十分に考慮していない. 本研究ではショートカットの学習可能性 (ショートカットをどれくらい学習し易いか) が緩和手法の設計に有用であるという仮説を立て,実験的に検証する。 ## 1 はじめに 微調整された事前学習済み言語モデルは,本来の解き方ではなく訓練セット内の擬似相関を利用したショートカットを学習しやすい [1]. この傾向はショートカットが有効な “ショートカット例” への汎化に寄与する一方,ショートカットが無効な “反ショートカット例”への汎化を阻害する $[2,3]$. 読解のための質問応答モデルは複数の種類のショートカットを学習しうることが示唆されている $[4,5,6]$. この問題を緩和するために,データ拡張 $[7,8]$ や損失関数 $[6,9,10]$ 等の緩和手法が提案されてきたが,既存手法はショートカットの種類に応じた特性を十分に考慮していない. 本研究ではショートカットの学習可能性 (ショー トカットをどれくらい学習し易いか)は緩和手法の設計に有用であると仮説を立てる。仮説検証のために,まず抽出型と多肢選択型読解における代表的なショートカットの学習可能性を行動テスト (§3.1),質的分析 (\$3.2), 量的分析 (\$3.3) によって比較する. そして各ショートカットの学習の緩和に必要な反ショートカット例の割合を調べる (\$3.4). 実験結果より, 学習し易いショートカットほど学習の緩和に必要な反ショートカット例の割合が少ないことを示す. よって,緩和手法を設計する際にショートカットの学習可能性を考慮すべきだと主張する. * 現在はNTT 人間情報研究所に所属する 図 1 質問応答モデルがどのショートカットを優先して学習するかを明らかにするための行動テスト (§3.1) の図解. ## 2 ショートカット 実験 (\$3)のために各ショートカット k に対してデータ集合 $\mathscr{D}$ をショートカット例 $\mathscr{D}_{\mathrm{k}}$ と反ショートカット例 $\overline{D_{k}}$ に分割するルールを定義する。 ## 2.1 抽出型読解 文脈から回答を抽出して質問に答える抽出型読解では,以下の 3 つのショートカットを分析する. Answer-Position [6] 文脈の最初の文から回答を抽出するショートカット,回答が最初の文に含まれない時に無効とする。 $(\mathrm{k}=$ Position) Word Matching [5] 質問と最も語彙的に類似した文 $^{1)}$ から回答を抽出するショートカット,回答がそれ以外の文に含まれる時に無効とする。 $\quad(\mathrm{k}=$ Word $)$ Type Matching [11] 質問から回答の固有表現タイプを予測して対応するスパンを抽出するショートカット.回答と同じタイプの固有表現が文脈内で 2 つ以上含まれる場合に無効とする. ${ }^{2)}{ }^{3)}(\mathrm{k}=$ Type $)$ ## 2.2 多肢選択型読解 文脈と質問をもとに複数の選択肢から回答を選択する多肢選択型読解では,NLI の研究に倣い,2つのショートカットを定義して分析した. ${ }^{4)}$ Word-label Correlation 多肢選択型読解タスクでは選択肢のみから正しい回答を予測できる例が多 ここでは質問と共通の最長の n-gram を含む文と定義する. 2)固有表現でない回答は分析の対象から除外した. 3)固有表現抽出には spaCy を用いた。 4)多肢選択型読解と自然言語推論は,文脈と質問 (前提)をも とに選択肢 (仮説) が正しいかを予測する点で類似している。 図 2 抽出型(左)と多肢選択型読解(右)のテストセットの各サブセットにおける訓練中の精度の推移. 5 つのランダムシードでの平均 $\pm$ 標準偏差を折れ線で示す. い $[12,13]$ ことから,仮説のみから正しい予測ができる例が多い NLI [14] と同様,ラベルとの間に擬似相関がある単語が選択肢に含まれると仮定した。 Gardner ら [15] の主張5)に従い, $z$-statistic [15] を用いて最もラベルと相関する単語を簡単のために 1 つ特定する. 詳細は付録 $\mathrm{A}$ を参照のこと. ここで,特定された単語が正解選択肢に含まれるときにショートカットが有効だと定義する。 ( $\mathrm{k}=\mathrm{Top}-1)$ Lexical Overlap NLI モデルは語彙の重複に基づくショートカットを学習し易い [2]ため, 多肢選択型読解でも同様のショートカットが学習され易いと仮定する.ここでのショートカットは,文脈・質問と語彙の重複 ${ }^{6}$ が最大となる選択肢が正解であるときに有効とする. $(\mathrm{k}=$ Overlap $)$ ## 3 実験 データセット抽出型読解では SQuAD 1.1 [16] と NaturalQuestions (NQ) [17], 多肢選択型読解では RACE [18] と ReClor [13]を用いた. RACE と ReClor では選択肢のみからラベルを予測するモデルがランダムよりも良い精度を出しており [12,13],選択肢とラベルの間に擬似相関があると考えられる。 モデルエンコーダには抽出型・多肢選択型読解で広く採用されている BERT-base [19] と RoBERTabase [20]を用いた. タスクごとに出力層をエンコー ダの上に追加する.抽出的読解ではモデルは文脈内の回答スパンの始点と終点の確率分布を出力する.多肢選択型読解では 4 つの選択肢から正しい選択肢の確率分布を予測する.訓練ステップ以外は,既存研究のハイパーパラメータに従った. ${ }^{7)}$ 5)言語理解タスクにおいて入力の単一の特徴がラベルの情報を含むべきではないという主張. 6)選択肢の単語数に対する文脈・質問にも含まれる共通の unigram の数の比率と定義する. 7)本研究で使用したコードは一般に公開している. https: //github.com/KazutoshiShinoda/ShortcutLearnability ## 3.1 行動テスト RQ1:各ショートカットが訓練セットのすべての質問で有効な時, 質問応答モデルはどのショートカットを優先して学習するか? この質問に答えるため, 全てのショートカットが有効な訓練セットで訓練し,いずれかのショー トカットのみが有効なテストセットで評価を行う行動テスト(図 1)を行った. この訓練セットではショートカット例の頻度が平等なため, 学習可能性がモデルの予測に与える純粋な影響を比較できる。 $\mathscr{D}_{\text {Word }} \cap \mathscr{D}_{\text {Type }}$ または $\mathscr{D}_{\text {Top-1 }} \cap \mathscr{D}_{\text {Overlap }}$ でモデルを微調整した. 次にテストセットから抽出した $\mathscr{D}_{\text {Position }} \cap \overline{D_{\text {Word }}} \cap \overline{D_{\text {Type }}}$ などのサブセットで評価し, どのショートカットが優先的に学習されたかを明らかにした. ショートカットの学習過程を明らかにするため,訓練中のスコアの推移も報告する。 結果:抽出型読解結果は図 2 (左) の通り。一貫して訓練中は $\mathscr{D}_{\text {Position }} \cap \overline{\mathscr{D}_{\text {Word }}} \cap \overline{D_{\text {Type }}}$ でのスコアが $\overline{\mathscr{D}_{\text {Position }}} \cap \mathscr{D}_{\text {Word }} \cap \overline{\mathscr{D}_{\text {Type }}}$ と $\overline{\mathscr{D}_{\text {Position }}} \cap \overline{\mathscr{D}_{\text {Word }}} \cap \mathscr{D}_{\text {Type }}$ よりも高かった. つまり Position ショートカットが最も学習されやすかった. また $\overline{\mathscr{D}_{\text {Position }}} \cap \mathscr{D}_{\text {Word }} \cap \overline{\mathscr{D}_{\text {Type }}}$ や $\overline{\bar{D}_{\text {Position }}} \cap \overline{\mathscr{D}_{\text {Word }}} \cap \mathscr{D}_{\text {Type }}$ では $\overline{\mathscr{D}_{\text {Position }}} \cap \overline{\mathscr{D}_{\text {Word }}} \cap \overline{\mathscr{D}_{\text {Type }}}$ よりもスコアが高いことから,モデルは複数のショートカットを複合的に学習することがわかる. 結果: 多肢選択型読解結果は図 2 (右) の通り.訓練終了時, Overlap ショートカットよりも Top-1 ショートカットが一貫して優先的に学習された.興味深いことに, Overlap の学習は, 訓練の初期で Top-1よりも優先された. このことから, 単語とラベルの相関を認識するためには数百ステップの訓練が必要な一方,Transformer [21] に基づく言語モデルは自己注意機構を介して語彙の重複を認識しやすい帰納バイアスがある可能性がある. 図 3 抽出型読解における各ショートカットの周辺の損失関数の可視化. $\mathrm{X} \cdot \mathrm{Y}$ 方向はパラメータ空間内でランダムにサンプリングした。曲面を横と上から見た図を示す. ## 3.2 質的分析 RQ2: なぜ特定のショートカットが他のショー トカットよりも優先して学習されるのか? 画像分類において Scimeca ら [22] が行ったように,損失関数の可視化によってこの質問に答える。具体的には各ショートカットを学習させたモデルパラメータの周辺の損失を可視化する.ショートカッ卜間で損失曲面の平坦さ ${ }^{8)}$ と深さを比較し,選好性について洞察を得ることを目的とする。 設定まず各ショートカットを独占的に学習したモデルを用意する. これはそのショートカットだけが有効なサブセットで訓練することで得られると仮定する。例えば $\mathscr{D}_{\text {Position }} \cap \overline{\mathscr{D}_{\text {Word }}} \cap \overline{\mathscr{D}_{\text {Type }}}$ で訓練したモデルは Position ショートカットを学習する可能性が高い. テストセットにおいて訓練セットと同じサブセットでモデルが最も高いスコアを達成したため,この仮定は支持された. §3.1 で訓練に使用した $\mathscr{D}_{\text {Position }} \cap \mathscr{D}_{\text {Word }} \cap \mathscr{D}_{\text {Type }}$ と $\mathscr{D}_{\text {Top-1 }} \cap \mathscr{D}_{\text {Overlap }}$ で損失を計算し,[24] に従って可視化をした. 紙面の関係で BERT-base の結果のみを報告する。 結果結果を図 3 と 4 亿示す. 曲面の中央が各ショートカットを学習したモデルに対応する. $\$ 3.1$ で優先して学習されたショートカット(Position と Top-1)は,より平坦で深い曲面に位置する傾向があることがわかった. 損失曲面の平坦さと深さの順序は,§3.1 の行動テストにおけるショートカットの学習の優先順序とほぼ相関している。損失曲面の平坦さと汎化性能には相関がある [25] ことから,これらの観察は, $\mathscr{D}_{\text {Position }} \cap \mathscr{D}_{\text {Word }} \cap \mathscr{D}_{\text {Type }}$ と $\mathscr{D}_{\text {Top-1 }} \cap \mathscr{D}_{\text {Overlap }}$ で学習したモデルがそれぞれ Position と Top-1 を優先して学習した理由を説明できる。 8)平坦さの定義は,損失がほぼ一定に保たれるパラメータ空間の連結領域の大きさ $[23]$ とする. 図 4 多肢選択型読解における各ショートカットの周辺の損失関数の可視化. 可視化の方法は図 3 と同様. ## 3.3 量的分析 RQ3: 各ショートカットの学習可能性は定量的にどの程度違うか? この質問に答えることでショートカットの選好性を定量的に説明することを目指す。そのために,あるショートカットのみが適用可能なサブセット(例えば $\left.\mathscr{D}_{\text {Position }} \cap \overline{\mathscr{D}_{\text {Word }}} \cap \overline{\bar{D}_{\text {Type }}}\right)$ についてラベルの最小記述長(MDL)[26] を推定し,ショートカットごとに比較した。この方法を MDL 原理の生みの親に因んで Rissanen Shortcut Analysis (RSA) と名付ける.直感的には RSA は訓練セットにおいて各ショートカットが利用可能なことがどの程度タスクを学習しやすくするかを定量的に比較できる。 設定既存研究 [27, 28] に従って MDL を推定するために Online Code [29]を用いた. Online Code は直感的には訓練損失の曲線の下の面積の計算に相当する。詳細は付録 B を参照のこと。 結果結果を表 1 に示す。一部の例外を除き, SQuAD 1.1 と NQでは Position ショートカットが有効な時に最も学習しやすいことがわかった. この例外は §3.1 で示すように SQuAD で RoBERTa が Word ショートカットを学習しやすいためだと考えられる. RACE と ReClor では Top-1 ショートカットによって Overlap よりも低い MDL が得られた.これらの結果は一部の場合を除き,行動テスト(図 2) や可視化(図 3 と 4)の結果と一貫している. ${ }^{9}$ )また RoBERTa は全ての条件で BERT と比較して MDL を低下させた. 図 2 で RoBERTa は BERT よりも反ショートカット例に対して頑健であったことから, MDL はショートカットの特性だけでなくモデル元来の汎化能力も反映していると考えられる.  図 $5 \mathrm{SQuAD}\left(\right.$ 左 3つ)とRACE(右2つ)のテストセットにおける $D_{\mathrm{k}}$ (青)と $\overline{D_{\mathrm{k}}}$ (橙) での精度. 横軸は訓練セットにおける $\overline{D_{\mathrm{k}}}$ の割合. 訓練セットのサイズは一定に保った. 5 つのランダムシードでの平均 $\pm$ 標準偏差を折れ線で示す. ## 3.4 反ショートカット例の割合の制御 RQ4: ショートカットの学習を避けるために反ショートカット例の割合はどの程度必要か?それはショートカットの学習可能性と関係があるか? ショートカット学習を緩和する最も単純な方法の 1 つは,反ショートカット例を手動または自動で訓練セットに追加して,データセットのバイアスを軽減することである $[8,30]$. なぜなら訓練セットの大半で何らかのショートカットが有効な場合,そのショートカットを学習したモデルは低い訓練損失を達成できるためである. また反ショートカット例の割合とショートカットの手がかりの抽出可能性がショートカット学習の要因であると文法タスクで報告されており [30], 読解タスクにおいても同様の傾向があると考えられる. もしあるショートカットを学習を回避するために反ショートカット例がどの程度必要か分かれば,質問応答モデルに頑健な解き方を学習させるために最適な訓練セットの構築やデー タ拡張手法の設計に役立てられる. 結果結果を図 5 に示す. 訓練セットがショートカット例のみで構成されている場合(x 軸の値が 0 の時), $\overline{D_{\mathrm{k}}}$ と $\overline{D_{\mathrm{k}}}$ のスコアの差分は全てのケースで有意である. Position, Top-1, Overlap において反ショートカット例の割合が $0.7,0.8,0.9$ のときに $D_{\mathrm{k}}$ と $\overline{D_{\mathrm{k}}}$ の間の精度差が解消され, ショートカットの学習を緩和できていると捉えられる。 §3.1,3.2,3.3 の結果を考慮すると,より学習可能なショートカットほどショートカット学習の緩和により少ない割合の反ショートカット例を必要とすることが分かる. さらに Word や Type のような学習しにくいショートカットでは, 反ショートカット例の割合を制御するだけではショートカット学習を緩和するには不十分であることを示唆している. 学習しにくいショートカットに関してさらに精度差を緩和するためには, 損失関数 [31] やモデル構造の改善 $[32,33]$ をする必要があることを示唆している. 表 1 各ショートカットのみが有効なサブセットで推定した最小記述長 (kbits). 5 つのランダムシードでの平均 $\pm$ 標準偏差を報告する。 ## 4 おわりに 代表的なショートカットの学習可能性を一連の実験で比較することにより, 抽出型と多肢選択型読解におけるショートカット学習の理解を深めた. つまり特定のショートカット (Position と Top-1) が学習されやすく,これらはパラメータ空間においてより平坦で深い損失曲面に位置する傾向があり,情報理論的にタスクを学習しやすくすることがわかった. そしてショートカットの学習可能性は学習の緩和に必要な反ショートカット例の比率と相関していることがわかった. このことから,学習可能性は緩和手法の設計に有用だと主張する. 本研究では読解タスクに特化したパラメータ更新を伴うモデルを扱った。一方,LLM の文脈内学習はタスクごとのパラメータ更新を伴わないため,訓練セットに特有の擬似相関を学習しない利点があると GPT-3 の論文では主張されている [34]. しかし,近年 LLM の文脈内学習においても,プロンプトで与える例群における偏りや擬似相関が LLM による推論時のショートカットの使用と精度劣化を引き起こすという報告もある $[35,36]$. 文脈内学習に限らず, LLM が擬似相関を利用する原理の理解 (e.g., [37]) とその抑制 (e.g., [38]) は今後の課題である. ## 謝辞 本研究は JSPS 科研費 JP21H03502, 22J13751, 22K17954, NEDO SIP-2 "Big-data and AI-enabled Cyberspace Technologies”の助成を受けたものです. ## 参考文献 [1] Robert Geirhos et al. Shortcut learning in deep neural networks. Nature Machine Intelligence, Vol. 2, No. 11, pp. 665-673, November 2020. [2] Tom McCoy, Ellie Pavlick, and Tal Linzen. Right for the wrong reasons: Diagnosing syntactic heuristics in natural language inference. In ACL, 2019. [3] Matt Gardner et al. Evaluating models' local decision boundaries via contrast sets. In Findings of EMNLP, 2020. [4] Robin Jia and Percy Liang. Adversarial examples for evaluating reading comprehension systems. In EMNLP, 2017. [5] Saku Sugawara, Kentaro Inui, Satoshi Sekine, and Akiko Aizawa. What makes reading comprehension questions easier? In EMNLP, 2018 [6] Miyoung Ko, Jinhyuk Lee, Hyunjae Kim, Gangwoo Kim, and Jaewoo Kang. Look at the first sentence: Position bias in question answering. In EMNLP, 2020. [7] Kazutoshi Shinoda et al. Improving the robustness of QA models to challenge sets with variational question-answer pair generation. In ACL SRW, 2021. [8] Kazutoshi Shinoda et al. Can question generation debias question answering models? a case study on questioncontext lexical overlap. In MRQA Workshop, 2021. [9] Mingzhu Wu et al. Improving QA generalization by concurrent modeling of multiple biases. In Findings of EMNLP, 2020. [10] Kazutoshi Shinoda et al. Look to the right: Mitigating relative position bias in extractive question answering. In BlackboxNLP Workshop, 2022. [11] Dirk Weissenborn, Georg Wiese, and Laura Seiffe. Making neural QA as simple as possible but not simpler. In CoNLL, 2017. [12] Saku Sugawara, Pontus Stenetorp, Kentaro Inui, and Akiko Aizawa. Assessing the Benchmarking Capacity of Machine Reading Comprehension Datasets. In AAAI, 2020. [13] Weihao Yu, Zihang Jiang, Yanfei Dong, and Jiashi Feng. Reclor: A reading comprehension dataset requiring logical reasoning. In ICLR, 2020. [14] Suchin Gururangan et al. Annotation artifacts in natural language inference data. In NAACL, 2018. [15] Matt Gardner et al. Competency problems: On finding and removing artifacts in language data. In EMNLP, 2021. [16] Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, and Percy Liang. SQuAD: 100,000+ questions for machine comprehension of text. In EMNLP, 2016. [17] Tom Kwiatkowski et al. Natural questions: A benchmark for question answering research. TACL, Vol. 7, pp. 452$466,2019$. [18] Guokun Lai et al. RACE: Large-scale ReAding comprehension dataset from examinations. In EMNLP, 2017. [19] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In NAACL, 2019. [20] Yinhan Liu et al. Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019. [21] Ashish Vaswani et al. Attention is all you need. In NIPS, 2017. [22] Luca Scimeca, Seong Joon Oh, Sanghyuk Chun, Michael Poli, and Sangdoo Yun. Which shortcut cues will DNNs choose? a study from the parameter-space perspective. In ICLR, 2022. [23] Sepp Hochreiter and Jürgen Schmidhuber. Flat Minima. Neural Computation, Vol. 9, No. 1, pp. 1-42, 1997. [24] Hao Li, Zheng Xu, Gavin Taylor, Christoph Studer, and Tom Goldstein. Visualizing the loss landscape of neural nets. In NeurIPS, 2018. [25] Pierre Foret et al. Sharpness-aware minimization for efficiently improving generalization. In International Conference on Learning Representations, 2021. [26] Jorma Rissanen. Modeling by shortest data description. Automatica, Vol. 14, No. 5, pp. 465-471, 1978. [27] Elena Voita and Ivan Titov. Information-theoretic probing with minimum description length. In EMNLP, 2020. [28] Ethan Perez, Douwe Kiela, and Kyunghyun Cho. Rissanen data analysis: Examining dataset characteristics via description length. In ICML, 2021. [29] Jorma Rissanen. Universal coding, information, prediction, and estimation. IEEE Transactions on Information theory, Vol. 30, No. 4, pp. 629-636, 1984. [30] Charles Lovering, Rohan Jha, Tal Linzen, and Ellie Pavlick. Predicting inductive biases of pre-trained models. In ICLR, 2021. [31] Christopher Clark et al. Don't take the easy way out: Ensemble based methods for avoiding known dataset biases. In EMNLP, 2019. [32] Robik Shrestha, Kushal Kafle, and Christopher Kanan. Occamnets: Mitigating dataset bias by favoring simpler hypotheses. In ECCV, 2022. [33] Kazutoshi Shinoda et al. Improving the robustness to variations of objects and instructions with a neuro-symbolic approach for interactive instruction following. In MMM, 2023. [34] Tom Brown et al. Language models are few-shot learners. In NeurIPS, 2020. [35] Zihao Zhao et al. Calibrate before use: Improving few-shot performance of language models. In ICML, 2021. [36] Ruixiang Tang et al. Large language models can be lazy learners: Analyze shortcuts in in-context learning. In Findings of ACL, 2023. [37] Mosh Levy et al. Guiding LLM to fool itself: Automatically manipulating machine reading comprehension shortcut triggers. In Findings of EMNLP, 2023. [38] Josh Magnus Ludan et al. Explanation-based finetuning makes models more robust to spurious cues. In ACL, 2023. ## A ラベルと相関の高い単語の特定 Gardner ら [15] は,言語理解タスクにおいて単一の特徴がラベルの情報を含むべきではないという理由から,入力のある特徴が与えられた元でのラべルの確率は一様分布であるべきだと主張した. そこで,ラベルの条件付き確率が統計的に有意に一様分布から乘離していることを判断するために $z$-statistic が提案された [15]. $z$-statistic $z^{*}$ は以下のように計算される。 $ z^{*}=\frac{p(y \mid w)}{\sqrt{p_{0}\left(1-p_{0}\right) / n}} $ ここで $p_{0}$ はラベル $y$ の一様分布, $n$ は単語 $w$ の頻度, $p(y \mid w)$ は単語 $w$ が含まれる選択肢のラベル $y$ の確率とする. RACE と ReClor データセットでは各質問に対して回答の選択肢は 4 つあるため, $p_{0}$ は $1 / 4$ である. z-statistic が高く,ラベルとの相関が十分高いと判断される単語の例は表 2 の通り。 表 2 RACE と ReClor データセットの訓練セットで計算された $z$-statistic が高い上位 7 単語. ## B 最小記述長の推定 Online Code [29] による MDL の推定では,訓練セットのサブセットがモデルに複数ステップにわたって与えられる. 各ステップにおいて,モデルはその時点までに与えられたサブセットについてスクラッチから学習され, 次のサブセットを予測するために使用される. 時間ステップ $t_{0}, t_{1}, \ldots, t_{S}{ }^{10}$ によってデータセットを $S$ 個のサブセットに分割したとき, Online Code によって MDL は以下のように推定 される. $ L=\sum_{i=0}^{S-1} \sum_{n=t_{i}+1}^{t_{i+1}}-\log _{2} p_{\theta_{i}}\left(y_{n} \mid x_{n}\right) $ ここで $\theta_{i}$ は $\left(x_{j}, y_{j}\right)_{j=1}^{t_{i}}$ で学習した質問応答モデルのパラメータであり, $p_{\theta_{0}}$ は一様分布である. Online Code の詳細については [27, 28]を参照のこと. ショートカットに関係なくデータセットのサイズは, SQuAD 1.1, NaturalQuestions, RACE, ReClor でそれぞれ 1400,4000,3000,300に統一して MDL の推定に用いた。 10)時間ステップは Voita ら [27] に従ってデータセットの 0 , $0.1,0.2,0.4,0.8,1.6,3.2,6.25,12.5,25,50,100 \%$ とした.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-7.pdf
# 大規模言語モデルを用いた Emotional Support Conversation システムの構築とその評価 藤田敦也 上乃聖 李晃伸 名古屋工業大学大学院工学研究科 [email protected] \{sei.ueno,ri\}@nitech.ac.jp ## 概要 会話においてユーザの負の感情を緩和する Emotional Support 能力は,ソーシャルインタラクションやメンタルヘルス支援,顧客対応など様々な対話シナリオにおいて対話システムが今後具備すべき重要な機能である. 本論文では,大規模言語モデルを用いた対話戦略の予測と,予測に基づいた対話生成を行うことで Emotional Support を実現する手法を提案する.実験では,応答文評価と実際に人とシステムを対話させる評価を行い,対話戦略による対話管理の効果や大規模言語モデルの Emotional Support 能力を検証する. ## 1 はじめに ほとんどの人間は生活していく上で,精神障害や精神疾患を抱えていなくとも悩みを持ったり,ストレスを受けたりすることで精神的苦痛を経験する。多くの場合,人間は家族や友人などの社会的な相互作用から Emotional Support を受けることで苦痛に対処する [1][2]. そのため, Emotional Support は日常的にユーザと対話をするような対話システムに訓練するべき重要な能力 [3][4]だといわれている。 そこで,対話システムが Emotional Support を提供できるよう訓練するために,Emotional Support Conversation (ESC) というタスクが設計された. ESC は,直面する課題を理解し,解決することで個人の精神的苦痛を軽減することを目的としたタスク [1][2]であり,そのためには共感を示すことや,慰めること,具体的な助言を提供することなどを行う必要がある。また,そのような行動を適切なタイミング,手順で行うことで良いサポートが行えることが知られている [5]. 具体的な対話戦略やサポー 卜手順を定義して,実際に ESC を行っている対話を収集し,アノテーションを行ったデータセット として ESConv dataset [6] がある。既存の ESC システム [7][8] は ESConv datasetを使用して Fine-tuning を行っているものが多く,その多くは Blenderbot や DialoGPT,GPT-2 などの中規模な言語モデルをべー スとしている [9]. 近年,大規模言語モデル (Large Language Model: LLM) が顕著な生成能力を見せており [10],InContext learing で適切な指示を与えることで未知のタスクにも対応できることが知られている [11]. 本論文では,Emotional Support を行う対話システ么の実現を目的に,大規模言語モデルを利用した対話戦略予測部と対話生成部から構成される ESC システムと,対話生成部のみで構成される ESC システムの 2 つを構築する. 実験では,プロンプトから与えられた ESC の知識のみでの大規模言語モデルの Emotional Support 能力や,対話戦略予測部による対話管理の効果を検証するために応答文評価とシステムとの対話による評価を行う。 ## 2 関連研究 近年,より魅力的な対話システムの構築のために感情や共感の要素が注目されている.感情を扱うシステムには,指定された感情ラベルに基づいて生成を行う方法 [12][13][14] や,入力発話から感情を取得して生成を行う方法 [15][16] がある. また,共感的な応答の研究には,ユーザの感情・気持ちを認識したうえで,それに対応した応答を生成するもの [17][18][19]がある. Emotional Support では,生成文に感情を付与することではなく,ユーザの感情に対してシステムがどのように対処するのかについて焦点を当てる必要がある. 共感的な応答に加え,ユーザの問題を明らかにする質問や,問題に対する解決策の提案,有益な情報の提供などによって,ユーザが困難な状況に対処できるようサポートを行う. 図1 Liu ら [6]によって定義された ESC における手順や対話戦略(手順は基本的には実線矢印の順序に従うが,破線矢印のように状況に応じて柔軟に対応する必要がある) ## 3 大規模言語モデルを利用した ESC システム ESC の知識を記述したプロンプトのみでの大規模言語モデルの Emotional Support 能力や,ESC システムにおいて対話戦略による対話の進行管理の影響を調べるために,対話戦略予測部の有無に差がある 2 つの ESC システムを構築する。 ESC における手順・対話戦略 Liu ら [6] が Helping Skills Theory [5] に基づいて定義した対話戦略や手順を図 1 に示す. ESC の基本的な手順は,ユーザが悩み・問題を探求することを助ける Exploration,ユー ザ自身の理解を深めることを助ける Comforting, ユーザが悩み・問題に対処するための行動を決定することを助ける Action の順になっている. 本論文で構築する ESC システムは, 図 1 の対話戦略や手順に従う. データセット本論文では,日本語での対話実験を行うために ESConv dataset の日本語化を行う. 日本語化には, OpenAI の GPT-3.5 (gpt-3.5-turbo-1106) を利用しており,「次の文章を日本語に翻訳しなさい」という単純な指示のみで行う. データセットは 6:2:2 で分割し, それぞれ train, validation, test とする. ## 3.1 対話戦略予測部なしシステム 大規模言語モデルに対して,ESC に関する知識をプロンプトに与え,大規模言語モデルによる対話生成を行うものである. このシステムでは図 2 に示すように,与えられたプロンプト,対話履歴, ユーザ発話から対話生成のみを行う。 対話生成部 2 つのシステムの違いは,予測された対話戦略ラベルをプロンプト内に含むかどうかであるため,対話生成部については基本的に同様である. 使用した大規模言語モデルは OpenAI の GPT-4 図 2 対話戦略予測部なし対話システム 図 3 対話生成部に使用したプロンプト(赤文字は対話戦略予測部ありシステムの場合に追記された記述) (gpt-4-1106-preview) であり,与えたプロンプトは図 3 に示す. ## 3.2 対話戦略予測部ありシステム 図 4 に示すように,入力発話に対する応答文の対話戦略を大規模言語モデルを用いて予測し,その予測した対話戦略に基づいて対話生成を行うシステムである. 対話戦略予測部データセットの train データを使用して, OpenAI の GPT-3.5 に対して Fine-tuning を行う. Fine-tuning 用のデータセットには,プロンプトと対話履歴 4 発話, 直前のユーザ発話, 応答に使用された対話戦略ラベルの 3 つのセットが 6289 個含まれている. 使用した指示文は図 5 であり, [dialogue_context] の部分には対話履歴が含まれる. 図4 対話戦略予測部あり対話システム 図 5 Fine-tuning 用データセットに使用した指示文 ## 4 評価実験 test データのうち 1,000 個の対話データを使用し,対話戦略ラベルの予測精度を求めた. 本論文で構築した対話戦略予測部の予測精度は $31.2 \%$ であり, これは入力条件が同様である Liu ら [6] の構築した ESC システムの予測精度 $28.57 \%$ を上回り, 大規模言語モデルによる性能向上が見られた. ## 4.1 応答文評価 プロンプトでの知識のみの大規模言語モデルの Emotional Support 能力や,対話戦略予測部の有無による違いを検証するために,大学生である 14 人の被験者に対して応答文評価を行う。 実験設定対話の背景情報を補足する状況説明と,直前のユーザ発話を含めた 5 発話の対話履歴, 2 つのシステムから生成された応答文 $\mathrm{A}$ ,応答文 Bを 1 つの評価セットとする.被験者は 5 つの評価セッ卜を確認して,以下に示す評価基準に基づいた質問に回答する流れを 5 回行う.状況説明は,ESConv dataset に含まれているものを使用する.5つの評価セットを用意するのは, 1 回の評価に ESC の要素である「探求」,「共感」,「提案」が含まれるようにするためである. 評価セットは test データからランダムに 100 個の対話を抽出し,そのうち応答文に ESC の要素が含まれるデータを選択する. 実験に使用した評価セットの 1 つを付録 $\mathrm{A}$ に示す。 ## 評価基準 ・流暢さ : システムの生成文が流暢であったか - 探求 : ユーザの悩み・問題を聞き出し,理解しようとしているか表 1 応答文の 5 段階スコア評価結果 表 2 応答文の比較評価結果 $(\%)$ $\cdot$共感 : ユーザに対して, 共感・理解を示したり,励ましたりしていたか - 提案 : ユーザの悩み・問題に対して,具体的な提案・助言が行えていたか ・全体 : 一般的な相談相手として優れていたか ・解決 : ユーザの悩み・問題を解決・解消できたか(システムとの対話による評価のみ使用) 評価方法「流暢さ」,「探求」,「共感」,「提案」,「全体」の評価基準を使用し,スコア評価と比較評価の 2 種類を行う.スコア評価では,5つの評価基準それぞれについて応答文を 1 ~ 5 の 5 段階で評価する質問を用意し,被験者は 1 を良くない・出来ていない」,3を「どちらでもない」,5を「良い・出来ている」として回答する.比較評価では, 2 つの応答文のどちらが良いかを 5 つの評価基準に基づいた質問 5 個に対して,被験者が「応答文 $\mathrm{A}\lrcorner , 「 引き$分け」,「応答文 $\mathrm{B}\lrcorner$ を回答する。 結果表 1 に示すように,どちらのシステムも 5 つの評価基準において平均して 4 以上の評価が得られており,高評価である。このことから,2つの ESC システムから効果的な Emotional Support を行う応答文が生成されているといえる。 また,表 2 に示すように,比較評価では「共感」以外の評価基準において対話戦略予測部なしシステムの応答が好まれる結果となった.このことから,対話戦略による生成文の制御なしでも大規模言語モデルには効果的な Emotional Support を行う応答文が生成できるといえる。しかし,「共感」の評価基準のみ対話戦略予測部ありシステムが好まれた.これは,25 個のうち 14 個の応答文に共感を示す Comforting の手順に当たる対話戦略が使用され,共感の示し方に幅が生まれたためだと考えられる。 図 6 対話戦略予測部ありシステムとの対話による評価実験での実際の対話例(赤文字は自分の経験を開示している部分) 表 3 システムとの対話による比較評価結果 (\%) ## 4.2 システムとの対話による評価 応答文評価よりも長いコンテキストにおいて,対話戦略予測部による対話管理の効果を検証するために,大学生である 15 人の被験者に対してシステムとの対話による評価を行う。 実験設定被験者は「就職活動の悩み相談」というテーマで,2つの ESC システムとテキストベースでの対話を行う.対話は被験者の就職活動に関する悩みについての入力発話から始まる。対話の最初の発話については 2 つのシステムで揃えることとし,以降の被験者の入力発話についてはシステムの応答に応じて自由に入力して良いものとする.被験者とシステムの対話は最低 6 ターンは続けるものとし, 7 ターン目からは被験者が希望する間は対話を続けさせる. 評価方法 4.1 に挙げた「探求」,「共感」,「提案」,「全体」,「解決」の 5 つの評価基準を使用する. 被験者は 5 つの評価基準において,良いと感じる方を 「システム $\mathrm{A}\lrcorner$, 「引き分け」,「システム $\mathrm{B} 」$ の中から選択する. 2 つのシステムはランダムな順番で使用する。 結果表 3 に示すように,対話戦略予測部の有無によって共感能力に差が生まれており,これは 4.1 の結果で述べたように,Comforting の手順に当たる対話戦略によって共感の示し方に幅が生まれたためだと推察される.特に,Self-disclosureによる自己開示は対話戦略予測部があることによって生まれた共感の示し方である.実際に,被験者 15 人のうち 5 人が経験の開示や励ましによって親しみやすさや共感を感じたとコメントしている。 対話戦略予測部ありシステムとの実際の対話例を図 6 に,対話戦略予測部なしシステムとの実際の対話例を付録 B に示す. 図 6 では,自分の経験を開示することで共感を示しつつ,自分の経験を踏まえた助言の提供を行っている. ## 5 おわりに 本論文では,Emotional Supportを行う対話システ么の実現を目的に,対話生成部のみで構成されるシステムや,対話戦略予測部と対話生成部から構成されるシステムを大規模言語モデルを利用して構築した.プロンプトから与えられた ESC の知識のみでの大規模言語モデルの Emotional Support 能力や,対話戦略予測部による対話管理の効果を確認するために,応答文評価とシステムとの対話による評価を行った. 評価結果から,プロンプトによる $\mathrm{ESC}$ の知識のみでも大規模言語モデルに効果的な Emotional Support 能力が備わることが示唆され,対話戦略予測部があることにより,自己開示などの共感の示し方が生まれ,共感能力が強くなることが示された。 ることから,人間が対話戦略による対話管理を行い対話生成するシステムとの対話による評価を行うことが考えられる.また,大規模言語モデルごとの対話戦略予測精度を検証することも課題として挙げられる。 ## 参考文献 [1] Brant R Burleson. Emotional support skill. HANDBOOK OF COMMUNICATION AND SOCIAL INTERACTION SKILLS, p. 551, 2003. [2] CP Langford, J Bowsher, JP Maloney, and PP Lillis. Social support: a conceptual analysis. Journal of advanced nursing, Vol. 25, No. 1, p. 95-100, January 1997. [3] JM Van der Zwaan, V Dignum, and CM Jonker. A bdi dialogue agent for social support: Specification and evaluation method. In Proceedings of the 3rd Workshop on Emotional and Empathic Agents@ AAMAS, Vol. 2012, pp. 1-8, 2012. [4] Li Zhou, Jianfeng Gao, Di Li, and Heung-Yeung Shum. The design and implementation of xiaoice, an empathetic social chatbot. Computational Linguistics, Vol. 46, No. 1, pp. 53-93, 2020. [5] Clara E Hill. Helping skills: Facilitating, exploration, insight, and action. American Psychological Association, 2009. [6] Siyang Liu, Chujie Zheng, Orianna Demasi, Sahand Sabour, Yu Li, Zhou Yu, Yong Jiang, and Minlie Huang. Towards emotional support dialog systems, 2021. [7] Quan Tu, Yanran Li, Jianwei Cui, Bin Wang, Ji-Rong Wen, and Rui Yan. MISC: A mixed strategy-aware model integrating COMET for emotional support conversation. In Smaranda Muresan, Preslav Nakov, and Aline Villavicencio, editors, Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp.308-319, Dublin, Ireland, May 2022. Association for Computational Linguistics. [8] Yang Deng, Wenxuan Zhang, Yifei Yuan, and Wai Lam. Knowledge-enhanced mixed-initiative dialogue system for emotional support conversations, 2023. [9] Zhonghua Zheng, Lizi Liao, Yang Deng, and Liqiang Nie. Building emotional support chatbots in the era of $1 \mathrm{lms}$, 2023. [10] Gati Aher, Rosa I. Arriaga, and Adam Tauman Kalai. Using large language models to simulate multiple humans and replicate human subject studies, 2023. [11] Wayne Xin Zhao, Kun Zhou, Junyi Li, Tianyi Tang, Xiaolei Wang, Yupeng Hou, Yingqian Min, Beichen Zhang, Junjie Zhang, Zican Dong, Yifan Du, Chen Yang, Yushuo Chen, Zhipeng Chen, Jinhao Jiang, Ruiyang Ren, Yifan Li, Xinyu Tang, Zikang Liu, Peiyu Liu, Jian-Yun Nie, and Ji-Rong Wen. A survey of large language models, 2023. [12] Hao Zhou, Minlie Huang, Tianyang Zhang, Xiaoyan Zhu, and Bing Liu. Emotional chatting machine: Emotional conversation generation with internal and external memory, 2018. [13] Xianda Zhou and William Yang Wang. MojiTalk: Generating emotional responses at scale. In Iryna Gurevych and Yusuke Miyao, editors, Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1128-1137, Melbourne, Australia, July 2018. Association for Computational Linguistics. [14] Lei Shen and Yang Feng. CDL: Curriculum dual learning for emotion-controllable response generation. In Dan Jurafsky, Joyce Chai, Natalie Schluter, and Joel Tetreault, editors, Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 556566, Online, July 2020. Association for Computational Linguistics. [15] Lisong Qiu, Yingwai Shiu, Pingping Lin, Ruihua Song, Yue Liu, Dongyan Zhao, and Rui Yan. What if bots feel moods? In Proceedings of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval, SIGIR '20, p. 1161-1170, New York, NY, USA, 2020. Association for Computing Machinery. [16] Xin Lu, Yijian Tian, Yanyan Zhao, and Bing Qin. Retrieve, discriminate and rewrite: A simple and effective framework for obtaining affective response in retrieval-based chatbots. In Marie-Francine Moens, Xuanjing Huang, Lucia Specia, and Scott Wen-tau Yih, editors, Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 1956-1969, Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [17] Hannah Rashkin, Eric Michael Smith, Margaret Li, and Y-Lan Boureau. Towards empathetic open-domain conversation models: A new benchmark and dataset. In Anna Korhonen, David Traum, and Lluís Màrquez, editors, Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5370-5381, Florence, Italy, July 2019. Association for Computational Linguistics. [18] Zhaojiang Lin, Andrea Madotto, Jamin Shin, Peng Xu, and Pascale Fung. MoEL: Mixture of empathetic listeners. In Kentaro Inui, Jing Jiang, Vincent $\mathrm{Ng}$, and Xiaojun Wan, editors, Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 121132, Hong Kong, China, November 2019. Association for Computational Linguistics. [19] Navonil Majumder, Pengfei Hong, Shanshan Peng, Jiankun Lu, Deepanway Ghosal, Alexander Gelbukh, Rada Mihalcea, and Soujanya Poria. MIME: MIMicking emotions for empathetic response generation. In Bonnie Webber, Trevor Cohn, Yulan He, and Yang Liu, editors, Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 8968-8979, Online, November 2020. Association for Computational Linguistics. ## A 応答文評価に使用した評価セットの例 応答文 B である対話戦略予測部ありシステムが選択した対話戦略ラベルは,Affirmation and Reassurance である。 フーザの状況説明 親が医者になれと迫ってくる。 対話履歴 usr : 彼らは妥協を受け入れてくれないんだ。親って頑固だよね。どうしたらいいのかな? 親の言うことを聞くべきか、それとも自分の夢を追求すべきか悩んでいるんだ。 sys : 具体的に何をすればいいかは私には言えませんが、あなたの人生を他人による指図の前に、 まずは自分自身を満たすことをお勧めします。 usr:そうだね、それについて真剣に考えているんだ。私はすでに大学を卒業している。彼らの 夢の半分を叶えたんだ。でも、正直な意見を伝えるのはいいアイデアだと思うかな? sys : 私は、彼らがあなたの率直な意見に満足しない可能性もあることを覚悟する必要があると 思います。しかし、彼らが満足していないからと言ってそれが間違っているわけではないという ことを忘れないでください。 usr : ありがとう、素晴らしいアドバイスだね。きっと準備をするよ。彼らが失望するかどうかなんて気にしないよ。これは私の人生で、彼らのものじゃないから。結果は受け入れるんだ。 V応答文 $\mathrm{A}$ (対話戦略予測部なしシステム) 素晴らしい決意ですね。自分の人生に対して主体的に考え、行動を準備することは大切です。 どんな結果になっても、あなたが納得できる選択をすることを応援しています。 $\boldsymbol{\nabla}$ 応答文 B (対話戦略予測部ありシステム) その決意は大変勇敢なものです。自分の価値観に忠実でいることは尊重されるべきですし、自信を持って自己主張することは大事です。 ## B対話戦略予測部なしシステムとの対話による評価実験での実際の対話例 このシステムでは,ユーザの発言の言い換えや,要点をまとめつつ,さらに深く掘り下げるような質問や助言の提供を行っている. 
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-8.pdf
# エントレインメント尺度および戦略が 対話システムの評価に与える影響の調査 金崎 翔大 ${ }^{1,2}$ 河野誠也 ${ }^{2}$ 湯口 彰重 3,2 桂井 麻里衣 1 吉野 幸一郎 2 1 同志社大学大学院理工学研究科 2 理化学研究所ガーディアンロボットプロジェクト 3 東京理科大学先進工学部 \{kanezaki21,katsurai\}@mm.doshisha.ac.jp \{seiya.kawano, koichiro.yoshino, akishige.yuguchi\}@riken.jp ## 概要 人間同士の会話では, やりとりを重ねるうちに話者のふるまいが同調するエントレインメント現象がしばしば発生する。こうした現象を扱う対話システムを構築しようとする場合,どのようなエントレインメント尺度を活用するか,どのようなタイミングでどのようなエントレインメント度合いを用いるかの 2 点を明らかにする必要がある. 本研究ではニューラル雑談対話モデルをエントレインメント度合いに応じてリランキングするシステムを用い,複数の語彙的エントレインメント尺度, および複数のエントレインメント戦略を網羅的に組み合わせた主観評価実験を行った。 ## 1 はじめに 対話が進行するにつれて, 語彙, 構文構造, 文体,韻律など,様々な要素において話者間のふるまいが類似する現象をエントレインメントとよぶ. エントレインメントは対話タスクの成功率や自然さと相関することが報告されており,その追跡を通じて対話システムの性能を評価しようとする試みがある $[1,2,3,4]$. 我々はこれまでに,対話文脈においてエントレインメントを柔軟に考慮するように応答文を選択する手法を構築してきた [5, 6, 7]. この中で, Word Mover's Distance (WMD) に基づく尺度 [2,3] と, Bidirectional Encoder Representations from Transformers (BERT)に基づく尺度 [4] の二種類のエントレインメント尺度(スコア)を定義して用いてきた. また,どのような対話文脈でどのようなエントレインメント尺度を持つ応答を選択するか決定 するため,人間による対話コーパスを用いてエントレインメント予測モデルを学習し,目標とする同調度合いを決定するエントレインメント戦略を構築してきた. これらの手法に対してコーパス内の対話履歴を正解データとみなした定量評価実験を行ってきたものの,対話システム構築にあたっては実際のユーザによる評価が重要である。 そこで本研究では,各エントレインメント尺度と,エントレインメント予測モデルにその他の戦略を織り込んだ複数のエントレインメント戦略の組み合わせを用い,エントレインメントを行う対話モデルにおける最適な設定を網羅的に探索する,具体的には,各組み合わせによってリランキングされた対話応答に対してクラウドソーシングによる主観評価実験を行う. ## 2 エントレインメントスコア エントレインメントスコアは, 発話者 $S_{1}$, 応答者 $S_{2}$ による発話ぺア $\left(U_{S_{1}}, U_{S_{2}}\right)$ に関し,ターゲット発話 $U_{S_{2}}$ に与えられる. 言語的エントレインメントを測定するフレームワークとして Local Interpersonal Distance(LID)[2] が提案されており,このスコア計算に異なる 2 つの指標を用いる. ## 2.1 WMD に基づくスコア 二つの文の類似度を計算するために提案された WMD [8] を用いて, 発話 $U_{S_{1}}, U_{S_{2}}$ 間の単語分散表現空間上での意味的距離をスコアとする $[2,3]$. $ \operatorname{LID}_{\mathrm{WMD}, U_{S_{2}}}=\mathrm{WMD}\left(U_{S_{1}}, U_{S_{2}}\right) $ WMD は単語埋め込みを用いた手法であるため,文脈埋め込みと比較して単語の構成性を考慮でき,よりスタイルに焦点を置いたスコアになっていることが期待される. ## 2.2 BERT に基づくスコア BERT 文脈埋め込み空間におけるコサイン類似度により二つの文の類似度を計算する手法として提案された BERTScore [9] を用いて, 発話 $U_{S_{1}}, U_{S_{2}}$ 間の埋め込み空間上での意味的距離をエントレインメントスコアとする。 $ \operatorname{LID}_{\text {BERT }, U_{S_{2}}}=1-\operatorname{BERTScore}\left(U_{S_{1}}, U_{S_{2}}\right) $ こちらは発話文全体の内容を考慮したエントレインメントスコアとなることが期待される. ## 3 エントレインメント戦略 エントレインメント戦略の一つとして,人間が行っているエントレインメント戦略の模倣を考える.このため, エントレインメントスコアの予測値 $\mathrm{LIID}_{U_{S_{2}}}$ を予測するモデルを構築する (4.2 節)。また,実際に人間が行っているエントレインメント戦略が最適であるかどうかを確認するため,以下の 2 種類の戦略を試行する。 $ \begin{aligned} \mathrm{LID}_{\text {oracle }} & =\mathrm{LID}_{U_{S_{2}}} \\ \mathrm{LID}_{\text {min }} & =\min _{R_{i} \in \boldsymbol{R}}\left(\operatorname{LID}_{R_{i}}\right) \end{aligned} $ ここで $R_{i}$ は応答候補集合 $\boldsymbol{R}$ から選択された応答候補の一つである. LID $_{\text {oracle }}$ は実際に人間同士の対話データに存在するデータから計算したエントレインメントスコアであり,人間のエントレインメント戦略を模倣した場合に相当する。また LID $_{\text {min }}$ は常に最大限ユーザ発話に同調する発話を選択することに相当する。 ## 4 エントレインメントを考慮した 応答リランキング 各エントレインメントスコアおよびエントレインメント戦略の効果を検証するため, 著者らが過去に提案したリランキング手法 [6] を適用する。手法の概要を図 1 に示す. 以下で各モジュールを説明する. 図 1 リランキング手法の概要 ## 4.1 ニューラル雑談対話モデル ニューラル雑談対話モデルは,入力として発話文 $U_{S_{1}}$ を受け取り, 出力として入力発話に対する $n$ 個 の $n$-best 応答候補集合 $\boldsymbol{R}=\left.\{R_{1}, R_{2} \ldots, R_{n}\right.\}$ および応答候補の尤度集合 $\boldsymbol{l}_{\boldsymbol{R}}=\left.\{l_{R_{1}}, l_{R_{2}} \ldots, l_{R_{n}}\right.\}$ を出力する. ただし,応答候補集合 $\boldsymbol{R}$ は尤度の降順になっており, $l_{R_{1}} \geq l_{R_{2}} \geq \ldots, \geq l_{R_{n}}$ を満たす. ## 4.2 エントレインメント予測モデル エントレインメント予測モデルは, 発話文 $U_{S_{1}}$ が入力されたとき,その応答文 $U_{S_{2}}$ が持つべきエントレインメントスコア $\mathrm{LID}_{\mathrm{WMD} / \mathrm{BERT}, U_{S_{2}}}$ を予測するように学習する1). 図 2 に示すように,予測モデルは Gated Reccurent Unit(GRU)[10]を用いた階層的エンコーダモデルとバイアス項を含む全結合層 (Linear)を用いたエントレインメントデコーダモデルで構成される。 図 2 エントレイメント予測モデルの概要 発話文中の各単語 $u_{S_{1}, i} \in U_{S_{1}}$ を, 式 (5) で定義するエンコーダで発話レベルの特徴ベクトル $\boldsymbol{h}_{\boldsymbol{S}_{1}}=\boldsymbol{h}_{\boldsymbol{S}_{1},\left|\boldsymbol{U}_{S_{1}}\right|}$ に変換する ${ }^{2)}$. $ \boldsymbol{h}_{\boldsymbol{S}_{1}, \boldsymbol{i}}=\operatorname{GRU}_{\text {utter }}\left(\boldsymbol{h}_{\boldsymbol{S}_{\mathbf{1}, i-1}}, \operatorname{Embedding}\left(u_{S_{1}, i}\right)\right) $ ここで, Embedding($\cdot$) は, $U_{S_{1}}$ における各単語 $u_{S_{1}, i} \in$ $U_{S_{1}}$ を固定長の密ベクトル表現に変換する単語埋め込み層である。 本研究では発話文だけではなく,発話に付随する属性情報を対話エンコーダの追加の入力として用いることでエントレインメントの予測性能の向上を期待する [11,12]. 具体的には,属性情報 $\boldsymbol{M}$ を発話レベルの特徴ベクトル $h_{S_{1}}$ の一部と見なして次式のように結合する. $ \boldsymbol{h}_{\boldsymbol{S}_{1}}^{\boldsymbol{M}}=\operatorname{Concat}\left(\boldsymbol{h}_{S_{1}, i}, \boldsymbol{M}\right) $ ここで,属性情報 $\boldsymbol{M}$ は 2 人の話者 $S_{1}, S_{2}$ の社会的関係べクトル $v_{u_{S}} , v_{u_{T}}$ を用いた。 次に,式(7)で定義される対話エンコーダを用いて,各ターンまでに得られた発話レベルの特徴べクトル $h_{S_{1}}$ の系列を対話レベルの特徴ベクトル $h_{S_{1}}^{\prime}$ に統合する ${ }^{3)}$. 1)“LID ${ }_{W M D / B E R T} ”$ は $L_{\text {IDMD }}$ または $\operatorname{LID}_{\mathrm{BERT}}$ を意味する.これ以降,LID と略す。 2) $\boldsymbol{h}_{S_{1}}$ は発話エンコーダ $\mathrm{GRU}_{\text {utter }}$ に対する最後の単語 $u_{S_{1},\left|U_{S_{1}}\right|}$ の入力に対応する,隠れベクトル $\boldsymbol{h}_{\boldsymbol{S}_{1},\left|\boldsymbol{U}_{S_{1}}\right|}$ である. 3) $\boldsymbol{h}^{\prime}$ は発話 $S_{1}$ の 1 ターン前の対話レベルの特徴ベクトルを $ \boldsymbol{h}_{\boldsymbol{S}_{1}}^{\prime}=\operatorname{GRU}_{\text {context }}\left(\boldsymbol{h}_{\boldsymbol{S}_{1}}^{\boldsymbol{M}}, \boldsymbol{h}^{\prime}\right) $ さらに,デコーダ Linear (.)を用いて,各ターンの特徴ベクトル $\boldsymbol{h}_{S_{1}}^{\prime}$ から予測値 $\mathrm{LII}_{U_{S_{2}}}$ を得る. $ \operatorname{LIO}_{U_{S_{2}}}=\operatorname{Linear}\left(\boldsymbol{h}_{S_{1}}^{\prime}\right) $ ## 4.3 リランキング機構 リランキング機構では,応答候補集合 $\boldsymbol{R}$ からエントレインメント戦略に従った候補を選択して利用する. 各エントレインメント戦略から得られた目標エントレインメントスコア $\mathrm{LID}_{\text {target }} \varepsilon$, 応答候補 $R_{i} \in \boldsymbol{R}$ のエントレインメントスコア $\operatorname{LID}_{R_{i}}$ との差の絶対値を, エントレインメントの実現距離 $d_{R_{i} \text {, target }}$ とする. $ d_{R_{i}} \text {, target }=\left|\mathrm{LID}_{R_{i}}-\mathrm{LID}_{\text {target }}\right| \text {. } $ この值が小さくなるように応答を選択する. 具体的には, $R_{i} \in \boldsymbol{R}$ に対し, 正規化した尤度 $l_{R_{i}}$ と正規化した実現距離 $d_{R_{i} \text {, target }}$ の重み付き調和平均を算出し,最大値をとる応答 $R_{\mathrm{F} \text {-beta }}(\beta)$ を選択する。 てはそれぞれの応答候補リストを基準とした MinMax 正規化を表し, $\beta$ は 0 以上の実数となる重み係数である. 本研究では, $\beta=1$ と設定した. ## 5 評価実験 実験では,WMD と BERT に基づく 2 種類のエントレイメントスコア及び各エントレインメント戦略の組み合わせと,クラウドソーシングによる対話システムの主観評価値との関係を調べる. エントレインメント戦略の設定には次の 5 種類がある. - LID $_{\text {predict }}$ : 予測されたエントレインメントスコアを利用 - $\operatorname{LID}_{\text {predict }} w / v_{S_{2}}$ : 予測されたエントレインメントスコアを利用(当該対話コンテキストにおいてシステム側の発話者が持つ属性情報を追加) - $\operatorname{LID}_{\text {predict }}^{\cdot} w / v_{S_{1}}, v_{S_{2}}$ : 予測されたエントレインメントスコアを利用(当該対話コンテキストにおいて両方の発話者が持つ属性情報を追加) - LID $_{\text {oracle }}$ :対話コーパス上の正解から計算されたエントレインメントスコアを利用(人間のエントレインメント戦略の模倣) 表す. ただし, 本研究では対話履歴は 1 ターンのみであるためゼロベクトルを用いた. ・ LID $_{\text {min }}^{\text {: }}$ : 常に最もユーザ発話に同調した発話候補を利用 ## 5.1 データセット 実験には Twitter のデータを使用した [13]. Twitter から,ユーザ間のフォロー・フォロワー(FF)関係,返信ぺア,すべてのユーザとツイートに関連するメタデータを得るために,まず 5 人のシードユー ザを選んだ.シードユーザには, Twitter 上で多くのフォロワーを持ち,情報工学に関する有名な日本人研究者を用いた. 次に, 彼らの友人とフォロワーのリストを取得した。これらのリストに含まれるユー ザから,2 次の $\mathrm{FF}$ 関係であるフォロー及びフォロワー関係のリストを取得する。最初のシードユーザと上記の関係リストを用いて,ユーザーをノード, “フォロー”関係を有向エッジとするソーシャルグラフを構築した. その後, グラフ内のノード・ユー ザーから全てのツイート(2018 年 3 月から 2022 年 3 月まで)を取得した. ツイートデータの分割は, 50,000 ペア(2018 年 3 月から 2022 年 1 月まで)を学習データ,5,000 ペア(2022 年 2 月)を開発デー タ,300 ペア(2022 年 3 月)をテストデータとした.社会的属性情報を表すユーザベクトル $v_{S_{1}}, v_{S_{2}}$ は先行研究 [14] に従い, ユーザのフォロワーネットワー クを node2vec アルゴリズムに入力して計算した. ## 5.2 実験設定 応答候補集合を生成するニューラル雑談対話モデルには,NTT から公開されている Twitter のデータで事前学習済み Transformer Encoder-Decoder モデルを用いた [15]. リランキング対象の応答候補は 40 個とした。 単語分散表現モデルについては, Akama らが提案したスタイルの類似性と統語的・語義的な類似性の両方を考慮した単語分散表現モデル [16]を用いた.単語分散表現モデルの学習には学習データセット内に含まれる発話を用いた. BERT モデルについては,学習済み多言語 BERTScore を用いた [9]. ## 5.3 クラウドソーシングにおける主観評価 ワーカに発話文 $U_{S_{1}}$ を提示し, 応答について 5 つの項目に関する 5 段階評価の質問を行った。 ・自然性:人間らしい自然な応答ができているか ・楽しさ : 応答文は面白かったか,会話を続けた 表 1 主観評価と自動評価の実験結果 & 0.86 \\ 各項目ごとに $R_{1}$ (baseline) との両側 $\mathrm{t}$ 検定を行い有意差がある場合: * : $p \leq 0.05$, ** : $p \leq 0.01$ いか -話題追従性:人間の話題に沿っていたか ・共感性:システムは人間と共感・協調できているか ・スタイル類似性:システムは人間と似た口調で応答ができているか すべての評価項目において「5」が最も良い評価, $「 1 」$ が最も悪い評価であり段階的な評価とした. ## 5.4 自動評価 応答の評価指標としてテストデータ中に存在する参照発話との BLEU[17] を用いた. また,選択された応答の理想的なエントレインメントスコアとの誤差の計算には式(11)で表される symmetric mean absolute percentage error(sMAPE)を用いた. $n$ は評価データの数である. $ \begin{aligned} & \operatorname{sMAPE}\left(\mathbf{L I D}_{\mathrm{R}_{\mathrm{F} \text { beta }}}, \mathbf{L I D}_{\text {oracle }}\right) \\ & =\frac{200}{n} \sum_{j=1}^{n} \frac{\left|\mathrm{LID}_{\mathrm{R}_{\mathrm{F}-\text { beta }}, j}-\mathrm{LID}_{\text {oracle }, j}\right|}{\left|\mathrm{LID}_{\mathrm{R}_{\mathrm{F}-\text { beta }}, j}\right|+\left|\mathrm{LID}_{\text {oracle }, j}\right|} \end{aligned} $ ## 5.5 実験結果 表 1 に主観評価及び自動評価の結果を示す.また,比較として Twitterにおける人間の応答とリランキング前の応答についても評価を行った. SMAPE については,それぞれのリランキング機構に用いたエントレインメントスコアによって計算した. 主観評価について注目すると,oracle 戦略を用いたシステムを比較しても, $\min$ 戦略は各主観評価において高い評価を得られることが示された. また,話題追随性,スタイル類似性については BERT 尺度に基づくリランキングが,共感性については WMD 尺度に基づくリランキングがより大きく作用するこ とが示唆された。これは我々の,WMD 尺度がよりスタイル類似性に作用し,BERT 尺度はより話題追随性に作用するという予想とは異なる結果となった. また意外なことに,いくつかの主観評価項目においては,人間の応答よりも BERT スコアによるリランキング応答がより高い評価を得ており,これは必ずしも人間のエントレインメント戦略が対話相手にとって最適ではない可能性を示している. 次に,自動評価について注目する。エントレインメント誤差(sMAPE)はベースラインであるリランキング前の応答と比較して, $\mathrm{LID}_{\text {min }}$ を除いて誤差が小さくなった. 一方で,最も同調するようにリランキングをする場合の $\mathrm{LID}_{\text {min }}$ では,エントレインメント尺度にかかわらず,エントレインメント誤差が増加している。これは,人間が対話文脈に合わせて柔軟に同調度合いを調整していることを示唆している.しかし主観評価で示唆されたように,このような人間の対話戦略を模倣することが対話システムにとって常に良い戦略とは限らない. ## 6 おわりに 本研究では,エントレインメント現象を考慮する対話システムを構築し,その評価実験をした. 特に,異なるエントレインメントスコア及びエントレインメント戦略を用いた場合に,各主観評価項目にどのような影響が出るかを調査した. クラウドソーシングによる主観評価の結果,当初の予想と異なり,話題追随性,スタイル類似性については BERT 尺度に基づくリランキングが,共感性については WMD 尺度に基づくリランキングが大きく作用することが示唆された. また,人からの印象を良くするためには常にエントレインメント度合を最大化するような戦略が望ましいことが示された。 ## 謝辞 本研究は JSPS 科研費 22K17958,22H04873, 20H04484 の助成を受けた。 ## 参考文献 [1] Ani Nenkova, Agustin Gravano, and Julia Hirschberg. High frequency word entrainment in spoken dialogue. In Proceedings of the 46th annual meeting of the association for computational linguistics on human language technologies: Short papers, pp. 169-172. Association for Computational Linguistics, 2008. [2] Md. Nasir, Sandeep Nallan Chakravarthula, Brian R.W. Baucom, David C. Atkins, Panayiotis Georgiou, and Shrikanth Narayanan. Modeling Interpersonal Linguistic Coordination in Conversations Using Word Mover' s Distance. In Proc. INTERSPEECH 2019, pp. 1423-1427, 2019. [3] Seiya Kawano, Masahiro Mizukami, Koichiro Yoshino, and Satoshi Nakamura. Entrainable neural conversation model based on reinforcement learning. IEEE Access, Vol. 8, pp. 178283-178294, 2020. [4] Yuning Liu, Aijun Li, Jianwu Dang, and Di Zhou. Semantic and acoustic-prosodic entrainment of dialogues in service scenarios. In Companion Publication of the 2021 International Conference on Multimodal Interaction, ICMI '21 Companion, p. 71-74, New York, NY, USA, 2021. Association for Computing Machinery. [5] 金崎翔大, 河野誠也, 湯口彰重, 桂井麻里衣, 吉野幸一郎. 対話における後続発話のエントレインメント予測. 人工知能学会研究会資料言語・音声理解と対話処理研究会, Vol. 93, pp. 50-55, 2021. [6] 金崎翔大, 河野誠也, 湯口彰重, 桂井麻里衣, 吉野幸一郎. エントレインメント予測に基づいたニューラル雑談対話モデルの応答リランキング. 人工知能学会全国大会論文集, Vol. JSAI2022, pp. 3Yin248-3Yin248, 2022. [7] 金崎翔大, 河野誠也, 湯口彰重, 桂井麻里衣, 吉野幸一郎. エントレインメントスコアを用いた応答リランキングとその自動評価. 言語処理学会第 29 回年次大会発表論文集, pp. 1963-1968, 2023. [8] Matt Kusner, Yu Sun, Nicholas Kolkin, and Kilian Weinberger. From word embeddings to document distances. In International Conference on Machine Learning, pp. 957-966, 2015. [9] Tianyi Zhang*, Varsha Kishore*, Felix Wu*, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert. In International Conference on Learning Representations, 2020. [10] Kyunghyun Cho, Bart van Merrienboer, Caglar Gulcehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, and Yoshua Bengio. Learning phrase representations using rnn encoder-decoder for statistical machine translation. In Proc. of EMNLP, pp. 1724-1734, 2014. [11] Penelope Brown, Stephen C Levinson, and Stephen C Levinson. Politeness: Some universals in language usage, Vol. 4. Cambridge university press, 1987. [12] Cindy Gallois, Tania Ogay, and Howard Giles. Communication accommodation theory: A look back and a look ahead. In Theorizing about intercultural communication, pp. 121-148. Thousand Oaks: Sage, 2005. [13] Seiya Kawano, Shota Kanezaki, Angel Fernando Garcia Contreras, Akishige Yuguchi, Marie Katsurai, and Koichiro Yoshino. Analysis of style-shifting on social media: Using neural language model conditioned by social meanings. In Findings of the Association for Computational Linguistics: EMNLP 2023, 2023. [14] Aditya Grover and Jure Leskovec. node2vec: Scalable feature learning for networks. In Proceedings of the 22nd ACM SIGKDD international conference on Knowledge discovery and data mining, pp. 855-864, 2016. [15] Hiroaki Sugiyama, Masahiro Mizukami, Tsunehiro Arimoto, Hiromi Narimatsu, Yuya Chiba, Hideharu Nakajima, and Toyomi Meguro. Empirical analysis of training strategies of transformer-based japanese chit-chat systems, 2021 . [16] Reina Akama, Kento Watanabe, Sho Yokoi, Sosuke Kobayashi, and Kentaro Inui. Unsupervised learning of style-sensitive word vectors. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 572-578, 2018. [17] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Belgium, Brussels, October 2018. Association for Computational Linguistics.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-9.pdf
# Character-LLM 構築のためのキャラクター設定指示 人見雄太 ${ }^{1}$ 木本晴久 ${ }^{1,2}$ 佐藤 大地 ${ }^{1,3}$ 跡部優吾 ${ }^{1}$ 福島千尋 1 池田 愛 1 並松 竜太郎 ${ }^{1}$ 鈴木 沙英子 ${ }^{1}$ 岡村萌加 ${ }^{1}$ 答田葉月 1 小山正彦 ${ }^{1}$ 片田智大 ${ }^{1}$ 橋本 圭 ${ }^{1}$ ジューストー沙羅 1 守屋 貴行 ${ }^{1}$ }^{1}$ Aww, Inc. 2 茨城大学 3 東京大学 [email protected], [email protected], [email protected], [email protected], chihiro.fukushima@aww. tokyo, ai.ikeda@aww. tokyo, ryutaro.namimatsu@aww. tokyo, saeko.suzuki@aww. tokyo, [email protected], [email protected], [email protected], [email protected], [email protected], sara.giusto@aww. tokyo, m@aww. tokyo ## 1 はじめに Li ら [1] の研究以降, Large Language Model (LLM) を用いてキャラクターを演じさせる Character-LLM の研究が進展している.Character-LLM には主に $2 \supset$ の構築方法が存在する.一つ目は, 作品からキャラクター自体の対話データを抽出し, Retrieval Augmented Generation(RAG)[2]を用いて,ユーザーの質問に関連するキャラクターの対話データを LLM に対する追加入力として与える RAG 方式 [1]. 二つ目は, 対話データを用いて LLMをファインチューニングするファインチューニング方式である $[1,3]$. 本研究では,第 3 の方法として,RAG方式やファインチュー ニング方式を補完するための,キャラクター設定指示方式を提案する.この方式は, 従来方式で再現できなかった細かなキャラクター設定を反映することを目的とする。 従来の方式では, 出力結果が基盤となる LLM の個性や知識に影響を受けるという課題がある [3]. 例えば,表 1 に示されるように,GPT-3.5 や GPT-4[4] を基盤モデルとして用いた場合,RAGで追加入力されたキャラクターの対話データにおいて二人称が 「あなた」であっても,GPT が「君」を使用する傾向がある. このように, LLM 毎に出力の傾向が存在し,細かなキャラクターの再現には課題が残る. 本研究では,キャラクター設定指示を導入することで,この問題にアプローチする.たとえば,表 1 の従来モデルの課題に対応するために,「二人称として”あなた”を用いてください」というキャラクタ一設定指示を追加入力として与える. 具体的には, RAG 方式にキャラクター設定指示を追加し,その表 1: RAG 方式の従来モデルと提案手法における生成例 - $\mathbf{R A} \overline{\mathbf{G}}$ 方式+提案手法: キャラクター: 最後に見た映画は「インターステラー」 だよ。宇宙と時間の概念がめちゃくちゃ面白かったんだ。あなたは最近どんな映画を見たの? 効果を検証する.一方,LLM における指示の表現方法によって,その有効性が大きく変わることが報告されている [5]. このため, 本研究では, 指示エンジニアリングの自動化に関する最近の手法 [6] を取り入れ,キャラクター設定指示がより反映されるように調整するフェーズを設けた. 実験では 3 つのキャラクター設定指示を用いた提案手法と, 従来手法の RAG 方式を比較した. 全てのケースにおいて,提案手法で大幅な改善が確認された。 ## 2 提案手法 本研究では,キャラクターの細かな設定を LLM に反映させるための設定指示を導入する. 具体的には,ユーザーからの発話 $U U$ が与えられた際,従来の RAG 方式を用いて, $T$ 個の関連するキャラクター対話を取得する.これらの対話は,集合 $\mathbb{R D}=\left.\{R D_{1}, R D_{2}, \ldots, R D_{T}\right.\}$ として表され, 各 $R D_{t}$ は $f_{R A G}(U U, T)^{1}$ によって収集された $T$ 個の個別のキャラクター対話データを表す. 本研究では,この $\mathbb{R D}$ に,細かなキャラクター設定を反映した $K$ 個の  キャラクター設定指示 $\mathbb{C P}=\left.\{C P_{1}, C P_{2}, \ldots, C P_{K}\right.\}$ を組み込むことを提案する。このアプローチにより, LLM はより詳細な特徴を反映した生成を可能とする. 各キャラクター設定指示 $C P_{k}$ は,そのキャラクターの特性,背景,動機などを詳細に記述し,これらの設定に基づいた対話生成を促すことを期待する. LLM は関連対話 $\mathbb{R D}$ ,キャラクター設定指示 $\mathbb{C P}$, およびユーザーからの発話 $U U$ を組み合わせて,文脈に合ったキャラクター固有の応答 $C R$ を生成する. このプロセスは,以下の式で表現される。 $ C R=\operatorname{LLM}\left(\bigoplus_{t=1}^{T} R D_{t} \oplus \bigoplus_{k=1}^{K} C P_{k} \oplus U U\right) $ 夕集合を結合するための演算子を表す.この式により,LLM は与えられた関連対話,キャラクター設定,およびユーザーからの発話を融合し,詳細なキャラクター設定を反映した応答を生成することを目指す。 ## 2.1 キャラクター設定指示の自己改善 関連対話 $\mathbb{R D}$ は, $T$ 個の異なる人物の発話 $O U$ とそれに対応するキャラクターの応答 $C U$ のペア $(O U, C U)$ で構成されている.このため,LLMへの入力の情報量が増加することで,一般的な指示を用いる場合に比べて, 各 $C P_{k}$ の反映が弱まる傾向にある. 事前実験により,RD LLM の入力に含める場合,「回答時に二人称を使用する場合は,二人称として『あなた』を必ず使う」という指示の反映率が, $\mathbb{R D}$ をLLM の入力に含めない場合より大きく悪化した. この問題に対処するため,本研究では設定指示を効果的に反映させるための自動指示改善アプロー チを採用する. 具体的には, PromptBreeder [6] という手法を設定指示に特化した形に拡張し,拡張した PromptBreeder $f_{P B}$ を用いて $R D_{t}^{\prime}=f_{P B}\left(R D_{t}\right)$ を生成する.このため,式1を以下のように修正する。 $ C R=\operatorname{LLM}\left(\bigoplus_{t=1}^{T} R D_{t}^{\prime} \oplus \bigoplus_{k=1}^{K} C P_{k} \oplus U U\right) $ この式により,キャラクター設定指示の反映率の向上が期待される. ## 2.2 PromptBreeder PromptBreeder は,複数の変異オペレーターの活用と遺伝的アルゴリズムを組み合わせることで,改善したプロンプトを自動生成する手法である.データセット $X$ からサンプリングされた $M$個の入力と正解のペアを含む訓練用データセット $D_{\text {train }}=\left.\{\left(Q_{1}, A_{1}\right),\left(Q_{2}, A_{2}\right), \ldots,\left(Q_{M}, A_{M}\right)\right.\}$ を用い, LLM を用いてデータセット $X$ を適切に解くための単一の指示 $P^{\star}$ を自動生成することを目指す. 指示 $P^{\star}$ は,PromptBreederによって得られる多様な指示の集合 $\mathbb{P}=\left.\{P_{1}, P_{2}, \ldots, P_{N}\right.\}$ の中から選ばれる. 各指示 $P$ は与えられた入力 $Q$ と連結し,指示付きの入力として LLM に与えることで,応答 $R=\operatorname{LLM}(P \oplus Q)$ を生成する。この際, $D_{\text {train }}$ に含まれるすべての $\left(Q_{m}, A_{m}\right)$ に対して,スコア関数 $f_{\text {fitness }}(R, A)$ の総和を最大化する指示 $P^{\star} を$ 求める. $ P^{\star}=\underset{P \in \mathbb{P}}{\arg \max } \sum_{(Q, A) \in D_{\text {train }}} f_{\text {fitness }}(R=L L M([P \oplus Q]), A) $ ## 2.3 設定指示のための修正 キャラクター設定指示の最適化のために, PromptBreeder に 3 つの改良を加える. 1 つ目の改良は,LLMの入力にRAG などの追加入力を与えても, キャラクター設定指示が適切に最適化されるようにするための修正である. 2 つ目の改良は,変異された指示の評価を通じて,不適切なキャラクター設定指示を個体として生成しないようにするための修正である. 3 つ目の改良は,変異指示,思考スタイル,および変異オペレータに用いる指示についての日本語化を行う修正である.これらの修正を施した拡張版 PromptBreeder を実験に用いる. ## 2.3.1 応答生成の修正 PromptBreeder では通常,単一の指示に対して自動改善を行うが,提案手法の設定では,RAGによる追加入力 $\mathbb{R D}$ とキャラクター設定指示 $\mathbb{C P}$ を含めて入力する必要がある.このため, $\mathbb{R D}$ と $\mathbb{C P}$ を $R$ 生成時の入力として与える. 具体的には,出力の生成を以下の式によって行う. $ R=\operatorname{LLM}\left(\bigoplus_{t=1}^{T} R D_{t}^{\prime} \oplus \bigoplus_{k=1}^{K} C P_{k} \oplus P \oplus Q\right) $ この修正により,キャラクター設定指示と関連対話の両方を考慮した上で,適切な指示 $P$ を生成するこ とが可能となる. ## 2.3.2 変異指示の評価 PromptBreeder のプロセスには,新しく生成された指示集合 $\mathbb{P}$ がそれぞれ適切な指示であるか評価するステップが含まれていない.このため, 不適切な指示が個体として生成されることがある. 例えば,「二人称を用いる際は,あなたを使ってください」 という指示が「必ずあなたを使って回答してください」と変異することで,実用時に全ての質問に対して「あなた」を含めるように促してしまう可能性がある.この問題に対処するため, 新しく変異個体が作られた際に,変異個体を評価するプロセスを追加する.この評価は分類問題として行い,分類ラベルはキャラクター設定指示毎に定められる. 以下に, $P_{\text {original }}$ が「回答時に二人称を使用する場合は,二人称として『あなた』を必ず使う」の場合の評価ラベルを例示する. 1. 二人称を使うときに限り,二人称として「あなた」を使うように指示している。 2. 二人称を使うときに限り,二人称として「あなた」を使うように指示していない. 3. 元の指示の文意が, 改良後の指示に含意されていない. 上記の場合,ラベル 1 と評価された個体を進化個体として人口に含めた. ラベル 1 以外に分類された場合は,ラベル 1 に分類される個体が得られるまで,個体の取得を繰り返すように修正を行った. ## 2.3.3 変異指示などの日本語化 PromptBreeder の元々の変異指示と思考スタイルは英語で書かれている.そのまま使用してもほとんどの場合問題はないが,生成された新しい変異指示が時折英語になることが確認された.この現象は,変異個体作成時の指示に「必ず日本語の指示を作成してください」という文言を含めても観測された. このため, 変異指示, 思考スタイル, 変異オペレー 夕に用いる指示をすべて著者らによって日本語化した. ## 2.4 評価データセットの構築 この小節では,各キャラクター設定指示を評価するためのデータセットの構築方法について説明する.まず,LLM を使用して生成された大量の質問 $\mathbb{G Q}=\left.\{G Q_{1}, G Q_{2}, \ldots, G Q_{J}\right.\}$ を集める. $G \mathbb{Q Q} P_{\text {original }}$ に関連するような質問を生成することを指示として LLM に与えることで生成する.LLM に与えられる質問生成の指示はタスクに応じて異なり,例えば「返答時に二人称を使うような質問を考案してください」といった指示である.GQの多様性を担保するため,新しく質問が生成される度に,新しい質問と既 算し,類似度が 0.8 を越えるペアがあった場合は,新しい質問を GQに含めなかった。 評価時の効率性を考慮し, $L L M\left(\bigoplus_{t=1}^{T} R D_{t}^{\prime} \oplus G Q_{j}\right)$ で $R_{j}$ を生成し, $R_{j}$ が $P_{\text {original }}$ に関連するかを LLM に判断させ,関連があると判断された $G Q_{j}$ のみを評価データセットに追加した.P $P_{\text {original }}$ に関連するかの判定について, $P_{\text {original }}$ が「回答時に二人称を使用する場合は,二人称として『あなた』を必ず使う」 の場合を例に説明する.このケースでは,「回答に二人称が含まれるか判定してください」といった指示をLLM に与えて二人称が含まれるかどうかを判定する.その後,少数ながらタスクに関連しない回答が含まれていることがあるため,著者らによってそれら $R_{j}$ と対応する $G Q_{j}$ を取り除いた. 評価に用いる $P_{\text {original }}$ 毎に 24 件の評価データセットを獲得し, そのうち 12 件を抎張版 PromptBreeder の適応度評価に用い,残りの 12 件をテストセットとして用いた. ## 3 実験 ## 3.1 実験設定 今回の実験には,バーチャルヒューマンの imma を用いた.RAG に用いる情報源としては,PR TIMES の記事,imma のインタビュー記事,SNS のXにおける imma のツイート³ ${ }^{3}$ Aww, Inc. の社員から集めた質問に対する immaの開発者の回答などを用いた. また,実験に使用する $C P$ の作成については, $\mathrm{Li}$ ら [1] の RAG 方式のチャットボットを社内で利用してもらい,immaについて再現できていない課題を収集した. 収集された課題は著者らによって $C P$ へ変換を行った.今回は $C P$ の中から,表 2 の 3 つを選択して実験を行った. 拡張版 PromptBreeder の実験は,初期人口を 20 ,進化のステップ数を 600 , temperature については先行研究の值を GPT 向けに調整したものを用いた ${ }^{4}$. す  表 2: 実験に用いる設定指示一覧 \\ べての実験において LLM は OpenAI の GPT を使用し, 回答生成には gpt-3.5-turbo-1106を,それ以外の場合は gpt-4-0613を使用した. 評価は,評価用デー タセットの質問に対して,式 2 を用いて回答を生成させ,著者らが人手で回答を評価した. 回答の生成において,CPが増えた場合でも効果的であることを示すために,テストに用いない $C P$ を 8 つと,テストに使用する各 $C P$ とを連結し, $\mathbb{P P}$ として式 2 に入力した. 評価指標として,正解率(NA)とターゲット指向正解率(TA)を計算した.NA における正解は,タスク毎に定義される。例えば,二人称のタスクの場合,文中に二人称として「あなた」以外が使われている場合を不正解とし,それ以外を正解とした.TAに関しては,タスクに関連する単語が回答に含まれているケースのみを抽出し,抽出された回答に対してのみ正解率を計算する. 例えば,二人称のタスクの場合,二人称が含まれる回答のみを抽出し,その中での正解率を計算する. 回答生成時には temperature を 0.8 に設定したため,テストセットの 12 件の各質問に対して 5 回ずつ回答を生成し, 計 60 個の回答を評価した。 ## 3.2 実験結果 従来手法および提案手法の正解率とターゲット指向正解率を示す. 表 3 から, 従来手法ではタスクに応じて正解率が大きく異なり, 最小で 13.3 ポイント,最大で 76.7 ポイントであった.この結果は, GPT が持つ固有の生成傾向が存在することを示唆している.たとえば,一人称のタスクにおいて,従来手法では「私」という単語を用いる割合が約 9 割だった. このように, GPT の内在的な生成傾向は,与えられた指示に優先して反映されることが確認できる. また,提案手法は全てのタスクにおいて正解率と を 0.5 から 1 の範囲でランダムな值を取得し毎回異なる值を設定した. 報酬計算時の評価と変異個体の評価については temperature を 0 とした.表 3: 従来手法および提案手法の実験結果. 表の一番上はタスク名に対応し,PB は小節 2.3 で説明した拡張版 PromptBreederを表す。 & & 終助詞 \\ NA/TA \\ RAG 方式 + $\mathbb{C P}+$ PB & $\mathbf{9 3 . 3 / 9 1 . 1}$ & $\mathbf{8 8 . 3 / 8 5 . 5}$ & $\mathbf{9 1 . 6 / 9 1 . 2}$ \\ ターゲット指向正解率の両方で従来手法より高い結果となった. 加えて,拡張版 PromptBreeder を用いることで,全てのタスクにおいて改善が見られ,最大で 11.6 ポイントの改善が確認できた. 一方, $C P$ の使用により,全タスクにわたってタスク固有の表現の出現率が上昇したことが観察された. 例として二人称のタスクを挙げると,60 件の評価時の回答において, 従来手法での二人称の使用回数は 34 件であったのに対し,RAG 方式+CP では 41 件,さらに拡張版 PromptBreeder を加えた場合は 45 件と増加した.これは, $C P$ がキャラクターの細かな言語的特徴を効果的に反映させるだけでなく,指示に沿った表現の使用を促進していることを示している.この増加が必ずしも望ましい結果であるとは限らないため,潜在的な悪影響の有無について,今後検証する必要がある. また,ターゲット指向正解率を見てみると,従来手法の方が大きくスコアが下がっていることから,提案手法の方がタスク固有の要求を的確に捉え,反映できていることが分かる. ## 4 まとめと今後の展望 本研究では,LLM に対するキャラクター設定指示を組み込むことで,Character-LLM の性能向上を図るキャラクター設定指示を提案した. 実験結果は,提案手法が従来手法に比べて, 正解率とターゲット指向正解率を大幅に向上させることを示している.提案手法により,GPT の固有の生成傾向を克服し, よりキャラクター固有の要求に適切に応答する能力を向上させることができた. 今後の研究では,本手法のファインチューニング方式への適用とその効果の検証が必要である. また,異なる状況に応じた柔軟な指示対応の拡張も重要である.例えば,immaが公式な場で「私」という一人称を使用するようなシナリオにおいて,状況に応じた適切なキャラクター設定指示の適用が求められる.このようなシナリオの多様性を考慮した手法の発展は, Character-LLM の応用範囲をさらに広げる上で重要である. ## 参考文献 [1] Cheng Li, Ziang Leng, Chenxi Yan, Junyi Shen, Hao Wang, Weishi MI, Yaying Fei, Xiaoyang Feng, Song Yan, HaoSheng Wang, Linkang Zhan, Yaokai Jia, Pingyu Wu, and Haozhen Sun. Chatharuhi: Reviving anime character in reality via large language model, 2023. [2] Patrick Lewis, Ethan Perez, Aleksandra Piktus, Fabio Petroni, Vladimir Karpukhin, Naman Goyal, Heinrich Küttler, Mike Lewis, Wen tau Yih, Tim Rocktäschel, et al. Retrieval-augmented generation for knowledge-intensive nlp tasks. In Advances in Neural Information Processing Systems (NeurIPS 2020), 2020. [3] Yunfan Shao, Linyang Li, Junqi Dai, and Xipeng Qiu. Character-LLM: A trainable agent for role-playing. In Houda Bouamor, Juan Pino, and Kalika Bali, editors, Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, pp. 13153-13187, Singapore, December 2023. Association for Computational Linguistics. [4] OpenAI. Gpt-4 technical report. ArXiv, Vol. abs/2303.08774, , 2023. [5] Aman Madaan and Amir Yazdanbakhsh. Text and patterns: For effective chain of thought, it takes two to tango. 2022. [6] Chrisantha Fernando, Dylan Banarse, Henryk Michalewski, Simon Osindero, and Tim Rocktäschel. Promptbreeder: Self-referential self-improvement via prompt evolution, 2023. [7] Hayato Tsukagoshi. Japanese simple-simcse. https:// github.com/hppRC/simple-simcse-ja, 2023.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-10.pdf
# 家族関係を対称詞として呼びかけられた際の聞き手の受け取り方一事象関連電位を用いた検討一 山根初穂 ${ }^{1}$ 汪敏 ${ }^{2}$ 加藤志織 ${ }^{2}$ 小泉政利 ${ }^{2}$ 木山幸子 ${ }^{2}$ ${ }^{1}$ 東北大学文学部言語学研究室 ${ }^{2}$ 東北大学大学院文学研究科言語学研究室 [email protected] [email protected][email protected] [email protected] [email protected] ## 概要 親族名称の虚構的用法を用いた呼びかけは、聞き手を不快にする場合がある。本研究はこの不快感について脳波の事象関連電位を用いて検証した。参加者が「お兄/姉ちやん」、「お兄/姉さん」、「すみません」と呼びかけられる音声刺激に応じて感情惹起を反映する成分の検出を目指した。その結果、男女ともに、親族名称の虚構的用法による呼びかけに対して感情反応と考えられる成分が増大した。特に男性参加者では、「さん」と「すみません」に比べ 「ちゃん」に対して感情反応と考えられる成分を惹起した。親族名称の虚構的用法は、聞き手の感情に影響を与えていること、男性は女性よりも対称詞使用に強い拒否反応を持つことを示唆する。 ## 1 はじめに 実際には血縁関係のない他人に対し、「お兄さん」、「お母さん」などと親族名称を使って呼びかけることを、親族名称の虚構的用法と呼ぶ。日本語での虚構的用法は、話し手が自分自身を原点とし て、相手がもし親族だったら自分の何に相当するかを考え、その関係に相当する親族名称を対称詞または自称詞に選ぶのが原則であるが、目上の者が目下の者を相手として話す時、話し手はこの人物を自分の立場から直接とらえず、目下の立場から把握する場合がある $[1]$ 。このようにして、目上の者が目下の者を「お兄さん(ちゃん)」、「お姉さん(ちゃん)」などと呼ぶような虚構的用法が見られる。 この用法は、ポライトネス理論[2]から見れば、他者に認められたい欲求であるポジティブ・フェイスを配慮するポジティブ・ポライトネスのうち、相手と仲間ウチであることを示す指標を用いることで相手との共通基盤を主張する方略であると考えられる。しかし、聞き手にとってこの方略は、馴れ馴れしく不快なものとなる恐れがある。そもそも“他人 を呼ぶ”こと自体タブーを犯す行為となる可能性があり [3]、また他人であるにもかかわらず親族名称を用いることで不当に相手の領域に踏み込む行為となり得るからである。 親族名称の虚構的用法、ないし呼びかけ方全般に関する先行研究は、話し手の言語選択に関するものがほとんどで、呼びかけられた聞き手の反応については検証されていない。そこで本研究では、親族名称の虚構的用法を用いて他人から呼びかけられた際の聞き手の感情的反応について、主観指標および神経指標を通して検証する。 聞き手が親族名称の虚構的用法を用いて呼びかけられている最中の脳波の事象関連電位 (eventrelated potentials: ERPs)を測定して検証する。感情反応を反映する脳波として、刺激提示後 $200 \mathrm{~ms}$ 前に現れ、後頭部で観察される陰性成分の early posterior negativity(EPN)[4]、刺激提示後 200 300 $\mathrm{ms}$ に開始し $1000 \mathrm{~ms}$ までの広い潜時帯で現れる後期陽性成分の late positive complex(LPC)[5]、刺激提示後 400 800ms に中心から頭頂部に現れる後部陽性成分の late positive potential(LPP)[6,7] 等に注目する。 本研究では、初対面で異性に呼びかけられる際の親族名称の虚構的用法において、目下の立場から把握する呼び方である「お兄/姉さん」、またそれよりさらに親密度の高い敬称をつけた「お兄/姉ちゃん」に注目し、親族名称を用いない「すみません」 と呼ばれる場合に比べてこれらの虚構的用法によって上記の ERP 成分が増大するかを検討した。敬称の親密度が高いと、親族名称の虚構的用法がより馴れ馴れしく感じられる可能性がある。また、呼称の性差の社会言語学的研究では、男性より女性のほうが初対面の相手に話しかけられることを警戒すること [8]、男性は女性より「ちゃん」と呼ばれる機会が少ない [9]ため、拒絶反応を示すことが予想される。これらに基づき、以下の仮説を設けた。 仮説 1)日本語母語話者は、初対面の相手から呼びかけられる際、親族名称の虚構的使用に対して不快感を示す。 仮説 2)親族名称の虚構的使用の中でも、より親密度の高い敬称を用いた呼びかけ(「お兄/姉ちやん」)は、標準的な敬称を用いた「お兄/姉さん」 に比べより強い不快感をもたらす。 仮説 3)女性のほうが親族名称の虚構的使用に対して強い不快感を示す。 仮説 4) 男性は、親密度の高い敬称(「ちゃん」) をともなう親族名称の虚構的使用に対してとくに強い不快感を惹起する。 ## 2 方法 ## 2.1 実験参加者 右利きの日本語を母語話者とする学生 36名(うち女性 18 名, 平均年齢 $21.4 \pm 1.82$ 歳)が実験に参加した。参加者には事前に研究の趣旨・方法などを説明し、参加への同意を得たうえで実施した。謝金として一定の金額を支払った。実験中の計測不備により、2名分のデータを分析から除外した。 ## 2.2 刺激 実験刺激として、仮想の話し手による呼びかけ語とそれに続く簡単な内容の発話と、それを受けた聞き手(参加者側)の簡単な返答で構成される会話を作成した。話し手の呼びかけ語は、男性参加者に対して「お兄ちゃん」、「お兄さん」、「すみませ几」、女性参加者に対して「お姉ちゃん」、「お姉さん」、「すみません」のそれぞれ 3 通りの条件を用意した。話しかける内容は、初対面の相手との会話として成り立つ内容とし、内容の偏りを防ぐため依頼や質問といった話し手が恩恵を受ける文と、落とし物を渡すなど聞き手(参加者)が恩恵を受ける文を各 16 文作成した(表 1)。呼びかけ発話に対する返答は、後に参加者が会話に集中させるために会話の内容判断ができるよう、一貫性のある返答とない返答を用意した。呼びかけ発話は、聴覚提示するために、音声創作ソフトウェア CeVIO Creative Studio 通常版を用いて作成し、全ての刺激を男女それぞれの声で、声質を変えて作成した。呼びかけ語のタイプについてカウンターバランスをとり、各参加者は、各刺激会話をいずれか 1 つの呼びかけ語でのみ聴くようにした。以上に加え、分析対象外であるフィラー試行として、呼びかけを含まず話し手と聞き手の関係性がある程度持続することを想定した文 30 文を作成した。音声刺激が提示されている間、音声の性別と対応する人物のシルエット画像を提示した。 ## 2.3 手続き 参加者は個別に電磁シールド機能付きの防音室で、胼波計測中に会話聴取および内容判断課題に取り組んだ。1試行の流れ(図 1) は、聴覚提示により仮想の音声 (男声と女声) で呼びかけ語と簡単な発話が提示され、その間その人物のシルエット画像が視覚提示された。その後、聞き手(参加者)が返答すべき内容を視覚提示したのち、両者のやりとりの一貫性判断を求める画面が提示された。参加者はその問いに対してYes/Noのボタン押しにより回答すると、次の試行に移行した。参加者には事前に呼びかけ語について言及しなかった。練習用課題を 6 試行実施した後、本試行 96 課題を実施した。 32 試行ごとに小休止とった。刺激の提示は E-prime 3.0 (Psychology Software Tools) によって制御し、19 インチのモニター(リフレッシュレート $60 \mathrm{Hz)に}$提示した。 ## 2.4 脳波データの計測、分析 BrainAmp (Brain Products, Germany)を用い、国際 10-20 法に基づいて配置した 32 個の電極(Fp1, Fp2, F7, F3, Fz, F4, F8, FT7, FC3, FCz, FC4, FT8, T7, C3, Cz, C4, T8, TP7, CP3,CP4, TP8, P7, P3, Pz, P4, P8, O1, O2, VEOG, HGOG, A1, A2)により計測し 図 1 実験の 1 試行の流れ た。脳波測定用の帽子を使用し、電極用ジェルを頭皮に付け電極を設置した。また、左目尻に設置した VEOGにより垂直眼電位を、左眼上に設置した HEOG により水平眼電位を測定した。 $\mathrm{CPz}$ を基準電極とし、 $1000 \mathrm{~Hz}$ でサンプリングした。電極間抵抗值は原則 $5 \mathrm{k} \Omega$ 未満になるようにした。脳波の解析は、MATLAB R2019b 上で EEGLAB 14. 1. 2b (Delorme \& Makeig, 2004)を用いて行った。前処理として、250 Hz にダウンサンプリングし、帯域周波数を $1-50 \mathrm{~Hz}$ としてフィルタをかけて低・高周波成分を除去し、商用電源の交流周波数に由来するノイズの低減を行い、基準電極を両耳朵とし再参照を行った。ターゲット提示開始時を 0 として-1000$2000 \mathrm{~ms}$ の範囲をエポック化した。 $\pm 70 \mu \mathrm{V}$ を超える電極が存在するエポックは除外した。 残ったデータに対し, -200-0 ms の区間をべースラインとして電位量の加算平均を行った。EEGLAB STUDY を使った集団解析では、全参加者を対象に呼びかけの種類と参加者の性別を要因に設定し分散分析を行った。呼びかけ直後と音声刺激提示後早期 (170~370ms)と中後期(300 500ms)の潜時帯について、permutationテストによって有意水準 5\%で分析し、false discovery rate 法で補正した。 ## 2.5 主観的印象調査 参加者は、脳波計測中の会話聴取課題終了後に、 その課題で用いられた音声刺激データ(一部)の印象を快(6)-不快(1)の6 段階で回答した。 得られた快不快評定値は、聞き手(参加者)の性 (被験者間要因)、話し手の性(被験者内要因)、呼びかけ方(被験者内要因)に応じた差を線形混合効果(linear mixed effect model: LME) モデルを用いて分析した。呼びかけ方の 3 条件のうち「すみません」を基準に設定した。R studio version 4.3.1(The R Foundation)上でパッケージ lme4 [10]と ImerTest [11]、多重比較のために Ismeans [12]を使用した。 ## 3 結果 ## 3.1 事象関連電位の結果 早期と中後期の潜時帯それぞれにおいて、2(参加者の性 : 女性、男性) $\times 3$ (呼びかけ方:「ちやん」「さん」「すみません」)の分散分析の結果 (付録図 $\mathrm{AB}$ )、呼びかけ方の主効果は有意ではなかったものの、「ちゃん」および「さん」の反応において有意な性差が見られた。早期潜時帯(170~ 370ms)において、男性は「ちゃん」に対して他の呼びかけ語に比べ特異的に陰性方向に推移していった(付録図 a)。これは、EPN成分と解釈できる。 また、中後期潜時帯(300~500ms)においても、男性は「ちゃん」および「さん」に対して、「すみません」に比べて陽性方向の推移を示していた(付録図 b)。これは、LPC成分と解釈できる。 ## 3.2 主観的印象調査の結果 脳波測定の事後に行った実験刺激の呼びかけ語音声に対する主観的快/不快印象評定調査の結果(表 2,図 2)、全体として男性の方が女性よりも評定値が低く( $p=0.018 )$ 、初対面の相手に呼びかけられることに対して全般的に不快感を示す傾向にあった。 また音声や参加者の性にかかわらず、「すみません」 に比べて「ちゃん」に対する評定値が低く( $p=$ 0.008)、「お兄/姉ちゃん」に対する不快感を示した。さらにその不快感は、異性の声によるものほど強くなる傾向が認められた $(p=0.036)$ ## 4 考察 親族名称の虚構的使用全般に対して不快感を生じるという仮説 1 は、全面的には支持されなかった。主観指標では、「すみません」に比べ「お兄/姉ちやん」に対してより不快感を示したが、「お兄/姉さん」に対する有意な変化は認められなかった。 ERPでは、男性において「お兄さん」と「お兄ちやん」に対するより強い感情反応を反映する EPN やLPCと見られる成分が検出された。これは、男性において親族名称の虚構的使用に対する違和感を反映していると解釈できる。 仮説 2 で示したように、親族名称の虚構的使用はより親密度の高い敬称「ちゃん」がつけられると不快感を増すという予測は、主観指標においては男女ともに支持された。ERP 指標でも、「ちゃん」に対する特異的な EPN成分の増大により、男性においてのみ支持された。 さらに性差に関する仮説について、女性のほうが親族名称の虚構的使用に不快感を生じるという仮説 3 は、支持されなかった。主観指標でも ERP 指標でも、女性から強い反応を示す証拠は得られなかっ た。最後に、男性は親密度の高い敬称(「ちゃん」)を使った親族名称の虚構的使用にとくに強い不快感を増すという仮説は、EPN成分が「ちやん」に特異的に増大したことにより支持された。 このように、本研究は、親族名称の虚構的使用による呼びかけに対する聞き手の反応として、概ね女性よりも男性の参加者に強い感情反応を認めた。このことは、男性は、親族名称の虚構的用法のみならず対称詞を用いた呼びかけ自体に女性より強い制限がある [9] という指摘を裏付けている。一方、女性において親族名称の虚構的使用に対する強い不快感の証拠は認められなかったが、これは、社会的に劣勢の役割を担わされている女性 [13] のほうがそのような立ち入った呼びかけをされることに甘んじ諦念していることの反映であるかもしれない。 図 2 呼びかけ語への主観的印象評定結果 表 2 呼びかけ方と話し手、聞き手の性に応じた印象評定の線形混合効果モデリングの結果 ## 参考文献 [1] 鈴木孝夫(1999)『ことばと文化』東京: 岩波書店. [2] Brown, P., \& Levinson, S. C. (1987). Politeness: some universals in language usage. Cambridge, MA: Cambridge University Press.(田中典子監訳(2011)『ポライトネス: 言語使用におけるある普遍現象』東京: 研究社.) [3] 滝浦真人 (2008) 『ポライトネス入門』東京: 研究社. [4] Faja, S., Dawson, G., Aylward, E., Wijsman, E. M., \& Webb, S. K. (2016). Early event-related potentials to emotional faces differ for adults with autism spectrum disorder and by serotonin transporter genotype. Clinical Neurophysiology, 127, 2436-2447. [5] Cuthbert, B. N., Schupp, H. T., Bradley, M. M., Birbaumer, N., \& Lang, P. J. (2000). Brain potentials in affective picture processing: covariation with autonomic arousal and affective report. Biological psychology, 52(2), 95-111. [6] Hinojosa, J. A., Méndez-Bértolo, C., \& Pozo, M. A. (2010). Looking at emotional words is not the same as reading emotional words: behavioral and neural correlates. Psychophysiology, 47(4), 748-757. [7] Schindler, S., Vormbrock, R., \& Kissler, J. (2019). Emotion in context: how sender predictability and identity affect processing of words as imminent personality feedback. Frontiers in Psychology, 10, 94. [8] 仲嶺真・松井豊(2014)「街中での異性への話しかけへの態度 : 行為者の印象、パーソナリティ、行動意図との関連」『筑波大学心理学研究』48: 3747. [9] 小林美惠子(2011)「自称・対称は中性化する か」現代日本語研究会(編)『合本女性のことば・男性のことば (職場編)』113-137. 東京: ひつじ書房. [10] Bates D., Maechler M., Bolker B., \& Walker S. (2015). Fitting linear mixed-effects models using lme4. Journal of Statistical Software, 67(1), 1-48. [11] Kuznetsova, A., Brockhoff, P.B., \& Christensen, R.H.B. (2017). lmerTest package: tests in linear mixed effects models. Journal of Statistical Software, 82(13), 1-26. [12] Length, R.V. (2016). Least-squares means: The R package lsmeans. Journal of Statistical Software, 69(1), 1-33. [13] 中村桃子(2001)『ことばとジェンダー』東京: 勁草書房. ## 謝辞 本研究は科学研究費基盤研究 (A)19H00532による助成を受けた。 ## 付録 図. 初対面の相手からの呼びかけに対する事象関連電位 (A) 刺激提示後 $170 \sim 370 \mathrm{~ms}$ (B) 刺激提示後 $300 \sim 500 \mathrm{~ms}$ a) b) 注. (A)呼びかけ後 170-370 ms 潜時帯の平均電圧頭皮上分布(参加者性別による比較の統計的検定の結果を下側に示し、赤い点が条件差( $p<0.05$, FDR 補正)のある電極を表す)。a)は(A)で有意な条件差のあった電極における振幅の平均値。(B)呼びかけ後 300-500 ms 潜時帯の平均電圧頭皮上分布。b)は(B)で条件差のあった電極における振幅の平均値。赤色で囲われた部分は男女間で有意差( $p<0.05$, Family-wise Discovery Rate 法による補正)がある潜時帯を表す。
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-11.pdf
# 大規模言語モデルによるシフト還元修辞構造解析の模倣 前川在 ${ }^{1}$ 平尾努 ${ }^{2}$ 上垣外英剛 1 奥村学 ${ }^{1}$ 1 東京工業大学 ${ }^{2} \mathrm{NTT}$ コミュニケーション科学基礎研究所 \{maekawa,kamigaito,oku\}@lr.pi.titech.ac.jp [email protected] ## 概要 デコーダのみからなる大規模言語モデル (LLM) の発展は目覚ましく,様々な自然言語処理タスクにおいて良好な結果を残している。一方,修辞構造解析におけるそれらの有効性はこれまで議論されていない. 本稿では,今後の修辞構造解析の研究において LLM を活用すべきかどうかを探ることを目的として,プロンプトを介してシフト還元動作を LLM で模倣する手法を提案し,その有効性を議論する。評価実験の結果, 提案法は世界最高の解析性能を達成し, テキストドメインの汎化性においても優れていた.つまり, 修辞構造解析においても LLM に注力すべきことが強調される結果を得た. ## 1 はじめに 事前学習済み言語モデルは,エンコーダのみのモデルである BERT [1], DeBERTa [2], エンコーダ・デコーダモデルである BART [3], T5 [4], デコーダのみのモデルである GPT-3 [5], Llama 2 [6] など様々なモデルが提案されており, 後者 2 つのモデルの学習データ量とパラメータ数の大規模化が顕著である.特にデコーダのみの事前学習済み言語モデルについては,数兆トークンのテキストデータを用い,数十,数百億のパラメータで学習されたモデル (以降, LLM) が公開され,言語生成を伴うタスクのみならず様々な自然言語処理タスクにおいてその有効性が実証されている。しかし,これまでのところ修辞構造解析という比較的困難なタスクにおける有効性を検証した研究はない. 事前学習済み言語モデルの研究の焦点がほぼ LLMへとシフトした現状において,修辞構造解析への LLM 活用の模索は, 今後の研究の方向性を考える上で興味深い,本稿では,従来から提案されているシフト還元法に基づく修辞構造解析を,プロンプトを介し LLM で模倣する手法1)を  を線形化した木へと変換する手法がある。しかし,文書を入 $e_{1}$ : [Westinghouse Electric Corp. said], $e_{2}$ : [it will buy ShawWalker Co.], $\mathbf{e}_{3}$ : [Terms weren't disclosed.], $\mathbf{e}_{4}$ : [Shaw-Walker,], $\mathbf{e}_{5}$ : [based in Muskegon, Mich.,], $\mathbf{e}_{6}$ : [makes metal files and desks, and seating and office systems furniture.]. 図 1 修辞構造木の例 (RST-DT [8] の WSJ_1100より). 提案する.具体的にはシフト,還元という解析動作を,QLoRA [7]を用いて微調整を行った Llama 2 [6] で決定することで木構造を推定する。標準的ベンチマークデータセットである RST Discourse Treebank (RST-DT) [8] を用いた評価実験では,提案法が世界最高性能を達成し,GUMコーパス [9]を用いたテキストドメイン汎化性の検証においても提案法が優れていることを確認した。これらの結果は,修辞構造解析に LLM を利用する価値が十分あることを示しており,その活用を促進するものと考える. ただし,解析に要する時間が非常に長いという致命的な問題点も同時に浮き彫りとなった. ## 2 準備 ## 2.1 修辞構造理論 修辞構造理論 (Rhetorical Structure Theory: RST) [10] によると,テキストは,葉が Elementary Discourse Unit (EDU) と呼ばれる節相当のユニット,中間ノー ドが 1 つ以上の EDU からなるテキストスパンの核性 (核: Nucleus,衛星: Satellite),枝がテキストスパン間の修辞関係を表わす完全 2 分木 ${ }^{2}$ として表現  される. 図 1 にRST-DT から得た例を示す. 図中, $\mathrm{N}-\mathrm{S}$ と S-N (単核), N-N (多核) は中間ノードが支配するテキストスパンの核性の組み合わせを示す. 単核の場合には衛星から核へ向けて修辞関係が与えられ,多核の場合には等価な修辞関係が与えられる。例では, $e_{3}$ が $e_{1}, e_{2}$ からなるスパンを Elaboration という関係で結び, $e_{4}, e_{5}$ からなるスパンと $e_{6}$ が Same-Unit という等価な関係で結ばれていることを示す. 修辞関係はデータセットによって異なり, RST-DT では 18 種が定義されている. ## 2.2 修辞構造解析の方法論 修辞構造木は構成素木であるので句構造解析で用いられる解析法をそのまま適用できることが多い. ただし, 句構造解析と比較すると, 木の葉の数が多いことから,比較的計算量の少ないアルゴリズムが好まれる. 現在では, 貪欲法によるトップダウン解析,シフト還元法によるボトムアップ解析が主流である $[11,12,13,14]$. どちらのアプローチでも近年のニューラルネットワークに基づく解析法ではテキストスパンをべクトルに変換する特徴抽出層,特徴抽出層から得たべクトルに基づき解析動作を決定する解析動作決定層からなる. 特徴抽出層には, エンコーダのみからなる事前学習済み言語モデルが用いられ,テキストスパンの両端のトークンの埋め込みベクトルの平均をそのスパンのベクトルとする場合が多い. トップダウン解析は, 文書を EDU からなる 1つの系列とみなし,これを再帰的に分割していくことで木を構築する. 解析動作決定層は EDU 系列のどこで分割すべきかを FFN やポインターネットワークなどを用いて決定する $[11,12]$. 一方,ボトムアップ解析は,解析動作決定層がシフトか還元を決定し,EDUを結合しながら木を構築する [13,14].近年, Kobayashi ら [15]は, 様々な事前学習済み言語モデルを用いて,トップダウン,ボトムアップ解析を比較した結果,解析法による違いよりも言語モデルによる違いが性能に大きく影響を及ぼすことを示し, DeBERTaを用いたボトムアップ解析が RST-DT における現在の世界最高性能であることを示した。 ## 3 提案法 本研究では,前節で述べたエンコーダのみの事前学習済み言語モデルを利用したシフト還元法によるボトムアップ解析法を LLM により模倣する. 図 2 エンコーダのみの事前学習済み言語モデルを用いたシフト還元解析法. ## 3.1 従来のシフト還元解析法 解析済みの部分木 ${ }^{3}$ を格納するスタック,これから解析対象となる EDU を格納するキューを用いて,以下のシフト還元操作を繰り返し適用することで左から右に順に EDU 系列を読み込んで木を構築する (図 2 参照). シフトキューの先頭の EDU を取り出し,スタックに積む, 還元スタックの 2 番目に格納された部分木を左の子,トップに格納された部分木を右の子とする木を構築し,再度スタックに積む。 なお,還元操作を行った後,左右の部分木の核性とそれらの間の修辞関係をそれぞれ異なる分類器を用いて決定する。核性ラベルは N-S,S-N,N-N の 3 種のいずれか,修辞関係ラベルはデータセットによって異なるが RST-DT の場合は 18 種である. 解析動作,核性ラベル,修辞関係ラベルの決定は,以下の順伝播型ニューラルネットワーク $\mathrm{FFN}_{\mathrm{act}}, \mathrm{FFN}_{\mathrm{nuc}}$, $\mathrm{FFN}_{\mathrm{rel}}$ を用いて行う. $ s *=\operatorname{FFN} *\left(\operatorname{Concat}\left(\mathbf{u}_{\mathrm{s}_{0}}, \mathbf{u}_{\mathrm{s}_{1}}, \mathbf{u}_{\mathrm{q}_{0}}, \mathbf{u}_{\text {org }}\right)\right) \text {. } $ ここで, $\mathbf{u}_{\mathrm{s}_{0}} , \mathbf{u}_{\mathrm{s}_{1}}$ はスタックの上 2 つに格納される部分木に対応するテキストスパンのベクトル表現, $\mathbf{u}_{\mathrm{q}_{0}}$ はキューの先頭に格納されている EDU のべクトル表現である. ## 3.2 LLM によるシフト還元解析法 スタックとキューは LLM 外部に用意しておき, その情報を LLM に与えることでシフト還元動作を 3)部分木であるが,実際にはテキストスパンとして扱う. Prompts Stack2: Westinghouse Electric it will buy Shaw-Walker Co. Stackl: Terms weren't disclosed. Queuel: Shaw-Walker, Action (shift or reduce): Spanz: Westinghouse Electric it will buy Shaw-Walker Co. Span1: Terms weren't disclosed. Nucleus label (nucleus-nucleus, nucleus-satellite, satellite-nucleus): Span2 Westinghouse Electric it will buy Shaw-Walker Co. Span1: Terms weren't disclosed. Nucleus label: Nucleus-satellite Relation label (Elaboration, ...): LLM generations Action (shift or reduce): reduce 図 3 プロンプトと木の構築過程. スタックの 2 番目には $e_{1}$ と $e_{2}$ からなる部分木,トップには $e_{3}$ ,キューの先頭には $e_{4}$ が格納されている状態で LLM が還元を選択した場合. 決定する。そして,決定に基づきスタックとキュー を更新する手続きを繰り返すことで木を構築する。 LLM でシフト還元操作を行うためにはそれらを実行するためのプロンプトが必要となる.本稿では以下のプロンプトを用いる. Stack2: スタックの 2 番目に格納された部分木に対応するテキストスパン Stack1: スタックのトップに格納された部分木に対応するテキストスパン Queue1: キューの先頭に格納された EDU Action (shift or reduce): shift か reduce $のい$ ずれか. なお,実行結果が還元であった場合には引き続き以下のプロンプトを用いて核性を決定する。 Span2: スタックの 2 番目に格納された部分木に対応するテキストスパン Span1: スタックのトップに格納された部分木に対応するテキストスパン Nucleus label (nucleus-nucleus, nucleus-sa tellite, satellite-nucleus): 3 種のいずれかまた,修辞関係も同様のプロンプトを用いて決定する. ただし, 3 行目以降を以下のように変更し,前のステップで推定した核性ラベルも利用する. Nucleus label: 推定した核性ラベル Relation label $\left(\operatorname{rel}_{1}, \mathbf{r e l}_{2}, \ldots, \operatorname{rel}_{n}\right): n$ 個の関係のなかのいずれか 図 3 に実際のプロンプトを用いた解析例を示す. ## 4 実験設定 タサイズは 7B,13B,70B のすべてを用いて比較した. 前節で説明したプロンプトは zero-shot あるいは few-shot の場合にも適用できるが,事前実験で試したところほとんどの場合で無効な出力により木が構築できなかった。 そこで,プロンプトに正解を与え,微調整を行なうこととした。ただし,パラメー タ数が膨大なため,GPUメモリ,学習時間の制約によりすべてのパラメータの微調整は行えない。よって,パラメータ行列の低ランク行列を用いたアダプタである LoRA [16] を量子化した QLoRA [7] を用いて微調整を行なった。 提案法の有効性を検証するため,修辞構造解析の標準的ベンチマークデータセットである RST-DT [8] に加えそれと同等規模のデータセットである GUM コーパス [9]を用いた. RST-DT は Wall Street Journal から得た 385 文書からなり, 1 文書あたりの平均 EDU 数は約 57 である. 修辞関係ラベルは 18 種が用いられる. RST-DT には公式の検証データセットがないため,Kobayashi ら [17] と同様に Heilman [18] の分割に従い,訓練/検証/テストをそれぞれ 338/40/38 とした. 一方, GUM コーパスは, 会話, インタビュー,ニュースなど多様な 12 のジャンルの 213 文書からなり,1 文書あたりの平均 EDU 数は 4) https://huggingface.co/meta-llama/Llama-2-\{7,13,70\} b-hf 表 1 RST-DT と GUMコーパスでの評価結果 124 と RST-DT よりも多い. 訓練/検証/テストは公式の分割に従い,165/24/24とした. GUMコーパスの修辞関係ラベルは RST-DT のそれとは異なるが,Liu ら [19] の変換ルールを用いて RST-DT と同様のものへと変換した。 また,評価指標には,Standard-Parseval [20] に基づき,ラベルなし (Span), 核性ラベル付き (Nuc), 関係ラベル付き(Rel), 全ラベル付き(Full) スパンの一致のマイクロ平均值で評価した。 ## 5 結果と考察 表 1 に提案法と Kobayashi らの手法の評価結果を示す. 提案法間を比較すると,パラメータ数が増えるにつれ性能が向上する. 特に Rel と Full ではそれが顕著である. Kobayashi らの手法と比較すると, RST-DT の場合には 7B,13B は Full でやや良い程度であるが,GUM の場合には Nuc,Rel,Full で大きな差がある。70B は,Kobayashi らの手法に対しすべての指標において顕著な差で優れている.特に,GUM の Full では 7 ポイント近い差がある. Kobayashi らの手法と提案法の違いは特徴抽出層を経た解析動作決定層においてシフト還元動作を決定するか,LLM でそれら全体を代替して決定するかにあるが,実験結果より後者の有効性は明らかである.DeBERTa が 140M のパラメータであるのに対し, Llama 2 は 70B のパラメータであり約 500 倍程度の差がある.当然,パラメータ数が多いほうが良い結果が得られる可能性が高いので,もし 70B の DeBERTa が使えるのならば提案法より高い性能を示すかもしれない.しかしながら,そもそもそれが可能かは自明でないし,エンコーダのみの事前学習済み言語モデルの開発が現状ではほぼ止まっていることを考えれば,これらの実験結果は,我々が今後LLMを用いた修辞構造解析に注力すべきであることを強く促す.ただし,提案法の学習にはハイエンド GPU が 表 2 GUM コーパスで訓練し,RST-DT で評価した結果. カッコ内は表 1 との差分を示す. 必要であり,微調整には数日を要する. さらに,1 文書の解析に数分を要する。これは,Kobayashi らの手法よりも多大なコストであり,提案法の実用上の大きな課題である. LLMを用いることの利点をさらに探るため,コー パス横断の評価実験を行った.GUM コーパスはニュースを含む多様なジャンルのデータセットであるので,これで学習した解析器がジャンルとして GUM コーパスに包含される RST-DT でどの程度の性能かを調べた。結果を表 2 に示す. 表より, Kobayashi らの手法は訓練データを変更することで性能が大きく劣化している. Span では 5 ポイント程度, Rel, Full では 10 ポイントを超える劣化である. 一方,提案法は Span ではほぼ劣化せず,Nuc で 4 ポイント, Rel と Full で 6-7 ポイントの劣化にとどまっている. さらに,70B の場合には RST-DT で学習した Kobayashi らの手法に Rel,Full では及ばぬものの Span では勝り,Nuc ではやや劣る程度の性能である.これらより,LLMを用いることでテキストドメイン汎化性が向上していることがわかる。これは,LLMが大規模なテキストデータを用いて大規模なパラメータを事前学習したことが貢献していると考える.この結果もLLMを活用することの利点を示しており,今後は,LLMを活用した修辞構造解析を発展させていくべきであることを示す. ## 6 おわりに 本稿では,LLMを用いてシフト還元操作を模倣することによる修辞構造解析法を提案した. Llama 2 を採用し,RST-DT と GUMコーパスを用いて評価実験を行なった結果,提案法は,世界最高性能を達成し,テキストドメインの汎化性にも優れていることが明らかになった。これらの結果は, 事前学習済み言語モデルの研究の焦点がデコーダのみの LLMへと移り変わる現状で,修辞構造解析においても今後 LLM を活用すべきであるという新しい知見をもたらした。一方, 提案法は学習, 推論にかかるコストが多大であるという実用上の課題が明確となった. ## 謝辞 本研究の一部は JSPS 科研費 JP21H03505 の助成を 受けたものです. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] Pengcheng He, Xiaodong Liu, Jianfeng Gao, and Weizhu Chen. DeBERTa: Decoding-enhanced BERT with disentangled attention. In Proceedings of the International Conference on Learning Representations, 2021. [3] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, Online, July 2020. Association for Computational Linguistics. [4] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020. [5] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In H. Larochelle, M. Ranzato, R. Hadsell, M.F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Curran Associates, Inc., 2020. [6] Hugo Touvron, Louis Martin, Kevin Stone, Peter Albert, Amjad Almahairi, Yasmine Babaei, Nikolay Bashlykov, Soumya Batra, Prajjwal Bhargava, Shruti Bhosale, Dan Bikel, Lukas Blecher, Cristian Canton Ferrer, Moya Chen, Guillem Cucurull, David Esiobu, Jude Fernandes, Jeremy Fu, Wenyin Fu, Brian Fuller, Cynthia Gao, Vedanuj Goswami, Naman Goyal, Anthony Hartshorn, Saghar Hosseini, Rui Hou, Hakan Inan, Marcin Kardas, Viktor Kerkez, Madian Khabsa, Isabel Kloumann, Artem Korenev, Punit Singh Koura, Marie-Anne Lachaux, Thibaut Lavril, Jenya Lee, Diana Liskovich, Yinghai Lu, Yuning Mao, Xavier Martinet, Todor Mihaylov, Pushkar Mishra, Igor Molybog, Yixin Nie, Andrew Poulton, Jeremy Reizenstein, Rashi Rungta, Kalyan Saladi, Alan Schelten, Ruan Silva, Eric Michael Smith, Ranjan Subramanian, Xiaoqing Ellen Tan, Binh Tang, Ross Taylor, Adina Williams, Jian Xiang Kuan, Puxin Xu, Zheng Yan, Iliyan Zarov, Yuchen Zhang, Angela Fan, Melanie Kambadur, Sharan Narang, Aurelien Rodriguez, Robert Stojnic, Sergey Edunov, and Thomas Scialom. Llama 2: Open foundation and fine-tuned chat models, 2023. [7] Tim Dettmers, Artidoro Pagnoni, Ari Holtzman, and Luke Zettlemoyer. Qlora: Efficient finetuning of quantized $11 \mathrm{~ms}$. CoRR, Vol. abs/2305.14314, , 2023. [8] Mary Ellen Okurowski Lynn Carison, Daniel Marcu. RST Dis- course Treebank. Philadelphia: Linguistic Data Consortium, 2002. [9] Amir Zeldes. The GUM corpus: Creating multilayer resources in the classroom. Language Resources and Evaluation, Vol. 51, No. 3, pp. 581-612, 2017. [10] W.C. Mann and S.A Thompson. Rhetorical structure theory: A theory of text organization. Technical Report ISI/RS-87-190, USC/ISI, 1987. [11] Naoki Kobayashi, Tsutomu Hirao, Hidetaka Kamigaito, Manabu Okumura, and Masaaki Nagata. Top-down rst parsing utilizing granularity levels in documents. In Proceedings of the AAAI Conference on Artificial Intelligence, pp. 8099-8106, Apr. 2020. [12] Xiang Lin, Shafiq Joty, Prathyusha Jwalapuram, and M Saiful Bari. A unified linear-time framework for sentence-level discourse parsing. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4190-4200, Florence, Italy, July 2019. Association for Computational Linguistics. [13] Grigorii Guz and Giuseppe Carenini. Coreference for discourse parsing: A neural approach. In Proceedings of the First Workshop on Computational Approaches to Discourse, pp. 160167, Online, November 2020. Association for Computational Linguistics. [14] Nan Yu, Meishan Zhang, Guohong Fu, and Min Zhang. RST discourse parsing with second-stage EDU-level pre-training. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 4269-4280, Dublin, Ireland, May 2022. Association for Computational Linguistics. [15] Naoki Kobayashi, Tsutomu Hirao, Hidetaka Kamigaito, Manabu Okumura, and Masaaki Nagata. A simple and strong baseline for end-to-end neural RST-style discourse parsing. In Findings of the Association for Computational Linguistics: EMNLP 2022, pp. 6725-6737, Abu Dhabi, United Arab Emirates, December 2022. Association for Computational Linguistics. [16] Edward J Hu, yelong shen, Phillip Wallis, Zeyuan Allen-Zhu, Yuanzhi Li, Shean Wang, Lu Wang, and Weizhu Chen. LoRA: Low-rank adaptation of large language models. In International Conference on Learning Representations, 2022. [17] Naoki Kobayashi, Tsutomu Hirao, Hidetaka Kamigaito, Manabu Okumura, and Masaaki Nagata. A simple and strong baseline for end-to-end neural RST-style discourse parsing. In Findings of the Association for Computational Linguistics: EMNLP 2022, pp. 6725-6737, Abu Dhabi, United Arab Emirates, December 2022. Association for Computational Linguistics. [18] Michael Heilman and Kenji Sagae. Fast rhetorical structure theory discourse parsing. CoRR, Vol. abs/1505.02425, , 2015. [19] Yang Janet Liu and Amir Zeldes. Why can't discourse parsing generalize? a thorough investigation of the impact of data diversity. In Proceedings of the 17th Conference of the European Chapter of the Association for Computational Linguistics, pp. 3112-3130, Dubrovnik, Croatia, May 2023. Association for Computational Linguistics. [20] Mathieu Morey, Philippe Muller, and Nicholas Asher. How much progress have we made on RST discourse parsing? a replication study of recent results on the RST-DT. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 1319-1324, Copenhagen, Denmark, September 2017. Association for Computational Linguistics.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-12.pdf
# モデル編集を用いた Machine Unlearning における ハイパーパラメータの自動調節 中屋和樹 1 松田源立 1 1 成蹊大学大学院 理工学研究科 [email protected] [email protected] ## 概要 深層学習の発展によりあらゆるタスクの性能が向上した一方で,特定のデータを忘れる技術の開発も求められるようになってきている。Machine Unlearning とは訓練された機械学習モデルから,一部のデータに関する影響を取り除く技術である。本研究では,タスクベクトルと呼ばれるモデル編集手法に着目し, Transforemr モデルの重みを一律ではなく個々の Attention ブロック,ないしはレイヤーごとに調節する手法を提案した。具体的には,翻訳夕スクと対話システムタスクでの Unlearning を試み, Machine Unlearning における評価基準の観点から, テストデータおよび忘却データを対象とした分析を行った。 ## 1 はじめに 近年,深層学習の発展により,機械学習と人工知能の分野は目覚ましい進化を遂げている。特に 2017 年に登場した Transformer[1] は,機械翻訳やその他の自然言語処理タスクだけでなく,画像処理や音声処理分野においても顕著な改善をもたらしている。しかし, この飛躍的な進歩と並行して, 様々な潜在的問題も明らかになってきている。基本的に,機械学習モデルは,主にインターネットから収集した,大規模なデータセットを利用して学習を行う。 この過程において,学習者の意図しないところでユーザーのプライバシーや著作権を侵害するリスクが生じる可能性がある。実際,2021 年には,韓国製のチャットシステムが顧客の住所や銀行口座番号を意図せずに生成したことで, 個人情報保護違反で起訴された事例が存在する。[2] また,Stable Diffusion のような画像生成 AI と著作権との問題は非常に根深い。これは, AI が生成する画像が既存の著作物から派生しているか,それとも独自の創造物である かの判断が困難なためである。AI によって生成された画像が,既存の著作物の表現上の本質的な特徴を捉えている場合,それは著作権の侵害と見なされる可能性がある [3]。これらの情勢を踏まえ,プライバシーや著作権保護の観点から,機械学習モデルが以前に学習した情報を忘れる,すなわち「デー 夕忘却技術」の開発がより重要視されてきている。 Machine Unlearning とは訓練された機械学習モデルから,一部のデータに関する影響を取り除く技術である。[4] 学習モデルが有害なテキストを出力することを抑える Detoxify[5][6] や,モデルに内在するジェンダーバイアスなどを除去する DeBias[7][8] は, Machine Unlearning におけるタスクの一部である。 [9] では,事前学習済みモデル同士の重みを算術演算することで,その振る舞いを変更する「タスクベクトル」というアプローチを提案している。タスクベクトルは,あるタスクでファインチューニングされたモデルの重みから事前学習済みモデルのパラメータの重みを引くことで得られ,加算や減算などの算術演算を通じてターゲットタスクに関するモデルの編集が可能とされている。本研究ではタスクベクトルにおける,negation(否定) に焦点を当てる。否定を表現するタスクベクトルは通常のタスクベクトルにマイナス符号をつけることで得られ, これを編集対象のモデルに指定した割合だけ加算することで,Unlearning 操作を実現できる。原著論文では加算割合入はハイパーパラメータとなっており,また,全ての重みに対して一律に適用している。Transformer は Attention ブロックを複数積み重ねた構造をしており,個々のブロック,ないしはレイヤーが保有している忘却対象データの情報は異なる可能性がある。本稿では,個々の Attention ブロックとレイヤーについてハイパーパラメータ $\lambda$ を調節する手法を提案し,汎化性能の維持と Unlearning 性能の 2 つの観点から比較を行った。 ## 2 関連研究 本節以降, 全ての学習データを $D_{\text {all }}$, 忘却対象のデータを $D_{\text {forget }}$, 情報を維持するデータを $D_{\text {remain }}$, テストデータを $D_{\text {test }}$ と表記する。通常の学習モデルを $\mathrm{M}$ ,Unlearning 適用モデルを $\mathrm{UM}$ , また,データ $D$ を用いてモデルを訓練したことを $M(D)$ で表す。ここでそれぞれの $D$ は,以下の条件を満たすとする。 $ \begin{aligned} & \text { - } D_{\text {all }}=D_{\text {forget }} \cup D_{\text {remain }} \\ & \text { - } D_{\text {forget }} \cap D_{\text {remain }}=\emptyset \end{aligned} $ $M\left(D_{\text {remain }}\right)$ は $D_{\text {all }}$ から $D_{\text {forget }}$ を除外して学習したモデルであり, 本論では Retrain(再学習) モデルという呼称で表現し,UM モデルとの振る舞いの差を評価する際に用いる。 ## 2.1 Machine Unlearning $の$ 達成条件 本節では, Machine Unlearning が達成されたと判断する基準について検討する。既存の研究 [4] によれば, Machine Unlearning の目標は,D $D_{\text {forget }}$ の影響を学習モデルから除去することにある。重要な点は,これが $D_{\text {forget }}$ に対するモデルの精度を際限無く低下させることを意味するわけではないということである。例として,D $D_{\text {remain }}$ のみを用いてモデルを学習する場合を考える。このモデル $\left(M\left(D_{\text {remain }}\right)\right)$ は, $D_{\text {forget }}$ を未観測であるため, $M\left(D_{\text {all }}\right)$ とは異なる挙動を示し, 擬似的に Unlearning を行っていると考えられる。この観点から, 本稿では, Machine Unlearning が達成されるための十分条件を次のように定義する。 1. $D_{\text {forget }}$ に対する $M\left(D_{\text {remain }}\right)$ と $U M$ の振る舞いが近しい 2. $D_{\text {test }}$ に対する UM の精度が維持されている1) ## 2.2 Unlearning 手法の評価基準 Unlearning 手法の評価基準に関しては多岐にわたる議論が存在する。再学習に要する時間は, Unlearning 手法の効率性を評価する上で有効な指標と考えられる。[10] しかしながら, Unlearning に必要な補助モデルの学習時間や, ハイパーパラメータのチューニングに伴う時間的なばらつきを考慮すると, 再学習時間の一律な測定は困難であり, 本研究 れていることが条件であるが,計算時間の都合上,今回は $D_{\text {test }}$ で代用した。 ではこの指標を採用していない。 Machine Unlearning の分野においては,目的のタスクに応じた性能スコアが広く用いられている。[10][11] 本研究も,このアプローチを踏襲する。さらに,言語モデルが単語列に対する確率分布を生成する特性を考慮し, 単語分布の類似性を Unlearning 手法の評価基準として採用する。確率分布間の差異を測定する手段として,対称性を持つ Jensen-Shannon 情報量を採用した。 ## 2.3 タスクベクトルによるモデル編集 タスクベクトルとは, [9] で提案された, 事前学習済みモデルの挙動や下流タスクにおけるモデルの性能を制御するための手法である。タスクベクトルは,特定のタスクでファインチューニングさせたモデルから, 事前学習モデルの重みを引くことで構成される。本研究ではこの考え方を応用し, 忘却対象のデータに特化してファインチューニングさせたモデルから全てのデータでファインチューニングさせたモデルの重みを引くことで,タスクベクトルとして用いる。また, Unlearning の際には,タスクベクトルにマイナス符号をつけて否定表現に変換し, 全てのデータで学習させたモデルに一定の割合で足し合わせる。以上の流れを数式で表すと以下の通りとなる。まず,タスクベクトルを以下のように構成する。 $ \tau_{\text {task }}=\theta_{\text {Dforget }}-\theta_{\text {Dall }} $ $\theta_{D_{\text {forget }}}, \theta_{D_{\text {all }}}$ はそれぞれ,D $D_{\text {all }}$ でのファインチューニング+ $D_{\text {forget }}$ で追加のファインチューニングを行ったモデルの重み, $D_{\text {all }}$ でファインチューニングを行ったモデルの重みを表している。続いて,以下の式に従って Unlearning を行う。 $ \theta_{\text {new }}=\theta_{\text {Dall }}-\lambda \tau_{\text {task }} $ ここで, $\lambda$ 範囲が $0 \sim 1$ の scaling パラメータであり,否定表現のタスクベクトルを足し合わせる割合を示す。 ## 3 提案手法 本節では提案手法の詳細について述べる。[9] で提案されている Unlearning は,タスクベクトルにマイナス符号を付けて否定表現に変換し, 変換されたベクトルを編集対象のモデルに $\lambda$ の割合で加算する,という過程を経て実行される。ただし,入は八イパーパラメータであり, 手動での調整が必要となる。本研究では,この $\lambda$ 自動で調節することを目 表 1: Layer Dropping した時のスコア (IWSLT は BLEU,Persona は Perplexity) 指す。 ## 3.1 手法 1: ブロックごとの割り当て 手法 1 では, Transfomrer の Attention ブロックを複数重ねた構造に着目し,個々のブロックが忘却対象データに対して個別の情報を持っていると仮定を置き,それに応じたハイパーパラメータの調節を行う。個々の Attention ブロックについて入を調節するために,Layer Dropping を用いてスコアの変化量を調査する。Layer Dropping とは,複数の層が重なった Transofomer から Attention ブロックを削除して,最終的なスコアを求めることである。例えば, i 番目のブロックを削除した状態を出力を得た時に目的とするスコアが下がった場合,そのブロックには $D_{\text {forget }}$ に関する情報が多く含まれており,減算する割合を増やすべきであると考えられる。[12] や [13] では,BERT や Vanilla Transformer を対象とした Layer Dropping による性能調査が行われている。i 番目のブロックの scaling パラメータを $\lambda_{i}$ とすると, $\lambda_{i}$ は以下の式で表される。 $ \lambda_{i}=1-\frac{\operatorname{score}\left(\operatorname{drop}\left(M\left(D_{\text {all }}\right), i\right), D_{\text {forget }}\right)}{\operatorname{score}\left(M\left(D_{\text {all }}\right), D_{\text {forget }}\right)} $ $\operatorname{score(M,D)~は,モデル~M~にデータ~} D$ を入力してスコアを得る操作を表しており,score は目的のタスクに応じた評価指標を採用する。翻訳タスクについては BLEU,対話システムタスクについては Perplexity を使用した。drop(M,i) は Transformer のi 番目のブロックを削除することを表現する関数である。 ## 3.2 手法 2: レイヤーごとの割り当て 手法 1 では個々のブロックごとに入を定めたが,手法 2 ではさらに個々のレイヤーに焦点をあて,細かい粒度での $\lambda$ の調節を試みる。既存の研究 [7] において,勾配の類似度を用いた Debias 手法が提案されており, 本研究でもこの考え方を応用する。 $M\left(D_{\text {all }}\right)$ および $M\left(D_{\text {forget }}\right)$ について, $D_{\text {forget }}$ の勾配を各々のレイヤーごとに比較した際,類似度が高いレイヤーが存在することを仮定する。そして, $M\left(D_{\text {all }}\right)$ と $M\left(D_{\text {forget }}\right)$ に $D_{\text {forget }}$ を力し, 得られ 本研究では $\cos$ 類似度を採用した。手法 1 の考え方と同様に,類似度が高いレイヤーについては, $D_{\text {forget }}$ に関する情報が多く含まれており, 減算する割合を増やすべきであるとする。 i 番目のレイヤ一の $\lambda_{i}$ は以下の式の通り。 $ \lambda_{i}=\frac{1}{\left|D_{\text {forget }}\right|} \sum_{d \in D_{\text {forget }}} \frac{\nabla_{i}^{\left(M_{1}, d\right)} \cdot \nabla_{i}^{\left(M_{2}, d\right)}}{\left.\|\nabla_{i}^{\left(M_{1}, d\right)}\right.\|\left.\|\nabla_{i}^{\left(M_{2}, d\right)}\right.\|} $ ここで $M_{1}$ は $M\left(D_{\text {all }}\right), M_{2}$ は $M\left(D_{\text {forget }}\right)$ である。 また, $\nabla_{i}^{(M, d)}$ はモデル $M$ にデータ $d$ を入力した際の勾配ベクトルを表す。実装においては,各勾配はバッチごとに求めるため, 平均は $\left|D_{\text {forget }}\right|$ の代わりに $D_{\text {forget }}$ の全バッチ数での除算によって求める。 ## 4 実験設定 実験データ,およびアーキテクチャの詳細については Appendix A にまとめている。 ## 5 結果と考察 ## 5.1 Dropping によるスコア変化 表 1 に, Layer Dropping を実行した際の $D_{\text {forget }}$ のスコアを示す。IWSLT データセットに関しては, Layer Dropping を適用した結果, encoder と decoder $の$両方で BLEU スコアに顕著な変化が観察された。具体的には, encoder と decoder の両方で 1 層目と 6 層目を削除した際の BLEU スコアの低下が目立った。加えて, decoder では 2 層目を削除した際の BLEU スコアも大幅に低下した。以上より, encoder 91 層目と 6 層目,decoder 91 層目, 2 層目, 6 層目には,D $D_{\text {froget }}$ に関する情報がより多く含まれている可能性が示唆される。 Personachat データセットに関しては, encoder と比較して decoder での perplexity の変化がより大きいことが明らかになった。過去の対話履歴の有無に関わらず,encoder の 1 層目から 5 層目をそれぞれ削 表 2: 各データセットにおける Unlearning の結果 (PPL と JSD はスコアが低いほど良い。) 除した際の Perplexity の変化は軽微であり,6 層目を削除した場合に大幅な変化が観察された。一方, decoder では 1 層目と 6 層目による Perplexity の大幅な変化が観察された。特に,過去の対話履歴ありで 1 層目を削除した場合, $4.0 \mathrm{e}^{\wedge} 7$ ポイントという,より急激な上昇となっている。2 層目から 5 層目においては, 4 層目と 5 層目が比較的軽微であり, 2 層目と 3 層目が中程度の上昇を示した。これらの結果から, encoder の 6 層目, decoder の 1 層目, 2 層目, 3 層目, 6 層目には $D_{\text {forget }}$ に関連する情報がより多く含まれている可能性が示唆される。Appendix B の図 1 と図 2 に, 表 1 の数値から求めた各レイヤー別の $\lambda_{i}$ のグラフを載せている。 ## 5.2 Unlearning $の$ 定量的評価 表 2 について,Original と Retrain はそれぞれ,全てのデータで学習したモデル $\left(M\left(D_{\text {all }}\right)\right.$ ), 再学習モデル $\left(M\left(D_{\text {remain }}\right)\right)$ を表している。BL4 は 4-gram の BLEU スコア, PPL は Perplexity, JSD は Jensen-shanon Divergence である。JSD は,再学習モデルと UM との間で計算した。Model Editを実行する際の scaling パラメータ入は, Retrain モデルにおける forget set のスコアに近づくようにチューニングを行った。具体的なパラメータの値は次の通り。IWSLT:0.36, Persona: 0.57, Persona(past): 0.55。 まず,Test Set の結果に関して概観する。IWSLT の BL4 については, Layer Drop が手動チューニング (Model Edit) と同等のスコアを示したが,その他のデータセット・指標については手動チューニングが最も高い性能となっている。また, Layer Drop と Grad sim での比較では全てのデータセット・指標で Layer Drop が高い性能を示した。これは,手動 化性能を維持することを示唆している。続いて, Forget Set の結果について概観する。 IWSLT データセットでは, 手動チューニングが BLEU スコアにおいて Layer Drop, Grad sim を上回り,JSDでは Grad Sim が手動チューニングより 0.01 ポイント低い結果となった。一方, Personachat デー タセットでは,過去の対話履歴を考慮した場合に限り,Grad sim の JSD が手動チューニングよりも 0.01 ポイント低い結果を示した。その他の結果に関しては,全て手動チューニングが優れていた。 Perplexity は対話履歴ありとなしのそれぞれにおいて, Layer Drop は過剰に Unlearning しており, Grad sim は Unlearning が不足していることが分かる。 これらの結果を総合すると,今回の実験においては,入を個々のブロックないしはレイヤーごとに設定するよりも,手動チューニングによる単一の設定がより優れたスコアを示し,提案した手法では手動でのチューニングには及ばない結果となった。また, 性能スコアの高さと単語分布間の距離の近さが必ずしも比例関係にないことも明らかになった。 ## 6 おわりに 本研究では,タスクベクトルというモデル編集手法に焦点を当て,ハイパーパラメータを Layer Dropping,および勾配の類似度を用いて調整する手法を提案した。実験結果から, Transformer の各ブ る可能性が示唆された。また, 提案手法では手動でのチューニングには及ばない結果となったが, 精度の高さと単語分布間の距離の近さが必ずしも比例関係にないという興味染い発見が得られた。今後の研究課題としては,異なるアプローチによる $\lambda$ の調節方法の探索や新しい Unlearning 手法の開発が挙げられる。また,そもそも再学習モデルとはどのような存在なのか? それらの本質的な性質についての分析も重要な研究課題となるだろう。 ## 謝辞 本研究は JSPS 科研費 JP21K12036 の助成を受けたものである。 ## 参考文献 [1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. CoRR, abs/1706.03762, 2017. [2] Joel Jang, Dongkeun Yoon, Sohee Yang, Sungmin Cha, Moontae Lee, Lajanugen Logeswaran, and Minjoon Seo. Knowledge unlearning for mitigating privacy risks in language models. In Anna Rogers, Jordan Boyd-Graber, and Naoaki Okazaki, editors, Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 14389-14408, Toronto, Canada, July 2023. Association for Computational Linguistics. [3] Midjourney、Stable Diffusion、mimic などの画像自動生成 AI と著作権(その 2),(2023-12 閲覧). https://storialaw.jp/blog/8883. [4] Thanveer Shaik, Xiaohui Tao, Haoran Xie, Lin Li, Xiaofeng Zhu, and Qing Li. Exploring the landscape of machine unlearning: A comprehensive survey and taxonomy, 2023. [5] Zecheng Tang, Keyan Zhou, Pinzheng Wang, Yuyang Ding, Juntao Li, and Minzhang. Detoxify language model step-by-step, 2023. [6] Shrimai Prabhumoye, Mostofa Patwary, Mohammad Shoeybi, and Bryan Catanzaro. Adding instructions during pretraining: Effective way of controlling toxicity in language models. In Andreas Vlachos and Isabelle Augenstein, editors, Proceedings of the 17th Conference of the European Chapter of the Association for Computational Linguistics, pages 2636-2651, Dubrovnik, Croatia, May 2023. Association for Computational Linguistics. [7] Charles Yu, Sullam Jeoung, Anish Kasi, Pengfei Yu, and Heng Ji. Unlearning bias in language models by partitioning gradients. In Anna Rogers, Jordan Boyd-Graber, and Naoaki Okazaki, editors, Findings of the Association for Computational Linguistics: ACL 2023, pages 6032-6048, Toronto, Canada, July 2023. Association for Computational Linguistics. [8] Masahiro Kaneko and Danushka Bollegala. Debiasing pre-trained contextualised embeddings. In Paola Merlo, Jorg Tiedemann, and Reut Tsarfaty, editors, Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pages 1256-1266, Online, April 2021. Association for Computational Linguistics. [9] Gabriel Ilharco, Marco Tulio Ribeiro, Mitchell Wortsman, Ludwig Schmidt, Hannaneh Hajishirzi, and Ali Farhadi. Editing models with task arithmetic. In The Eleventh International Conference on Learning Representations, 2023. [10] Lingzhi Wang, Tong Chen, Wei Yuan, Xingshan Zeng, Kam-Fai Wong, and Hongzhi Yin. KGA: A general machine unlearning framework based on knowledge gap alignment. In Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 13264-13276, Toronto, Canada, July 2023. Association for Computational Linguistics. [11] Vikram S. Chundawat, Ayush K. Tarun, Murari Mandal, and Mohan S. Kankanhalli. Can bad teaching induce forgetting? unlearning in deep networks using an incompetent teacher. In Brian Williams 0001, Yiling Chen 0001, and Jennifer Neville, editors, Thirty-Seventh AAAI Conference on Artificial Intelligence, AAAI 2023, Thirty-Fifth Conference on Innovative Applications of Artificial Intelligence, IAAI 2023, Thirteenth Symposium on Educational Advances in Artificial Intelligence, EAAI 2023, Washington, DC, USA, February 7-14, 2023, pages 7210-7217. AAAI Press, 2023. [12] Hassan Sajjad, Fahim Dalvi, Nadir Durrani, and Preslav Nakov. On the effect of dropping layers of pre-trained transformer models, 2022. [13] Paul Michel, Omer Levy, and Graham Neubig. Are sixteen heads really better than one? In Advances in Neural Information Processing Systems, volume 32. Curran Associates, Inc., 2019. [14] Saizheng Zhang, Emily Dinan, Jack Urbanek, Arthur Szlam, Douwe Kiela, and Jason Weston. Personalizing dialogue agents: I have a dog, do you have pets too? In Iryna Gurevych and Yusuke Miyao, editors, Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 2204-2213, Melbourne, Australia, July 2018. Association for Computational Linguistics. [15] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Dan Jurafsky, Joyce Chai, Natalie Schluter, and Joel Tetreault, editors, Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pages 7871-7880, Online, July 2020. Association for Computational Linguistics. ## A 実験設定 ## A. 1 実験データ 翻訳タスクについては IWSLT2014 の英語-ドイツ語の対訳コーパスを採用した。 $D_{\text {forget }}$ については, train データのうち, $0.1 \%$ をランダムに選択した。 対話システムについては PersonaChat コーパス [14]を使用した。これらのデータセットから,「過去の履歴を参照したデータセット」と「過去の履歴を参照しないデータセット」を別々に構築した。 $D_{\text {forget }}$ について, convid からランダムに 200 個の id を選択した。Personachat データセットは personality, candidates, history, convid, utteranceidx のカラムから構成されており,それぞれ以下の情報が格納されている。 Personality: 話者の性格を記述した文章。 Candidates: 話者の性格とこれまでの会話の履歴を考慮に入れた,話者が発した真の発言と誤答の発言を含む発言リスト。最後の発話が正解となる発話である。 History: 話者同士の対話の履歴。 convid: 対話のテーマごとに付与された $\mathrm{id}_{\mathrm{d}}$ utteranveidx: 個々の対話に紐づけられた $\mathrm{id}_{\mathrm{d}}$ 過去の履歴を参照する場合は, Hisory のテキストを </s>トークンで結合し input とし, Candidates の最後のテキストを output とした。過去の履歴を参照しない場合は, History の最後のテキストを input とし, Candidates の最後のテキストを outoput とした。 表 3: データセットの統計量 \\ $D_{\text {test }}$ & 6,750 & 7,801 & 7,801 \\ $D_{\text {forget }}$ & 1,603 & 1,395 & 1,395 \\ $D_{\text {remain }}$ & 158,636 & 130,043 & 130,043 \\ Avg of input & 40.91 & 11.89 & 94.51 \\ Avg of output & 21.53 & 12.36 & 12.36 \\ ## A. 2 アーキテクチャ 本研究では,学習モデルとして BART[15] を選択した。BART は,Meta によって開発された encoderdecoder 構造を持つ Transformer ベースのアーキテク チャである。このモデルの encoder 部分は,BERT における学習手法と同様, Masked Language Modeling を用いて一部の単語をマスクして学習を行う。一方で,decoder 部分は,次に続く単語の予測を目的とした学習を実施する。文章生成を行う際には, $\mathrm{t}-1$ 番目までのテキストを入力として用い,自己回帰形式により $\mathrm{t}$ 番目の単語を予測する。文章の最大トークン長は IWSLT, Perosna が 128, Persona(past) が 256 とした。オプティマイザは AdamW を使用し,学習率は 2e-5 に設定した。学習エポック数は 3 とした。 ## B 各 Attention ブロックの $\lambda$ 図 1: Encoder Attention ブロックの $\lambda_{i}$ 図 2: Decoder Attention ブロックの $\lambda_{i}$
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-13.pdf
# 生成 AI は含意関係認識ができるのか 荒沢 康平 1 狩野 芳伸 1 1 静岡大学 \{karasawa, kano\}@kanolab.net ## 概要 含意関係認識は論理的過程の基盤であり、たとえばファクトチェックなど様々な重要タスクの下敷きとなる。ファインチューン等で表層的なパターンを学ばせれば含意関係認識の評価スコアは向上するが、必ずしも含意関係認識そのものが解けて論理的な演算一般ができることにはならない。本研究では、ファインチューンや few shot prompting 抜きに GPT-4 がどのような場合に含意関係認識に失敗するかを詳細に分析し、特に時制、数量詞・数詞の認識に課題があること、またわずかな単語や語順の違いで結果が大きく変動することを示した。現在の大規模言語モデルの限界を示すとともに、今後の言語モデル改良に向けた手がかりになると期待される。 ## 1 はじめに 大規模言語モデル(LLM)で実装された生成 AI の登場によって、AIによるコーディングや文章生成など業務の効率化が期待されている。中でも OpenAI 社の提供する GPT-4 は、大量の学習データとパラメータを用いて訓練され、その能力が高く評価されているモデルの一つである。しかし、生成結果に「ハルシネーション」(事実に反する出力)[1] を含むことが問題となっている。さらに、機械学習全般にその推論過程を説明することは困難で、生成 $\mathrm{AI}$ に説明を生成させたとしてもその説明が実際の推論過程と一致するという舗保証はない。こうしたことは、LLM が自然言語の論理的側面をどの程度理解しているかという疑問を引き起こしている。 本研究では、論理的過程の基盤である含意関係認識タスクを通じて LLM の論理的推論能力を調査する。含意関係認識とは、前提文と仮定文のぺアに対し、前提文が真の場合に仮定文の真偽を判断するもので、含意、中立、矛盾の 3 值に分類することが多い。たとえば、前提文を「事実」とし、仮定文を 「SNS などに投稿された文章」とすれば、ファクト チェックに応用できる。 既存の含意関係認識タスクの評価スコアは高いが、ファインチューンや few shot prompting により表層的パターンを学んでいるだけで、含意関係そのものを扱えていない可能性がある。本研究では分類器のファインチューンと LLM の few shot prompting により既存の LLM の性能を検証したうえで、LLM の zero shot prompting でさまざまな含意関係認識デー タのどのような場合に間違うのか分析を行い、現在の LLM の性能の限界を推測する。 ## 2 関連研究 ## 2.1 含意関係認識データセット 日本語の含意関係認識データセットには、 JSNLI[2]、JSICK[3]、JNLI[4] などがある。 JSNLI[2] は英語の大規模な含意関係認識データセットである SNLI[5] を日本語に機械翻訳したもので、事前学習済み BERT[6] をファインチュー ンし Accuracy 0.929 の分類性能を報告している。 JSICK[3] は様々な言語現象を含んだ英語の含意関係認識データセットである SICK[7] を人手で日本語に翻訳したもので、事前学習済み BERTをファインチューンしたモデルで Accuracy 0.84 の正答率を達成している。JNLI[4] は、日本語理解ベンチマー ク JGLUE[4] に含まれる含意関係認識データセットで、翻訳を介さずに作成された。JNLI はクラウドソーシングで構築され、画像の内容を文章で表現させることで、含意と中立のラベルを持つ文ぺアを作成している。矛盾ラベルの文ペアは、表現した文章に対して矛盾する内容をクラウドソーシングで作成させた。事前学習済み BERTをファインチューンし Accuracy 0.906 を達成している。 ## 2.2 LLM を用いた含意関係認識 GPT は Transformer[8] の Encoder 部分を活用したモデルで、OpenAIによって提供されている GPT-4[9] は、GPTに加えInstructGPT で追加的な学習をした LLM である。GPT-4 は多言語処理能力を備えており、さまざまなべンチマークにおいて人間に匹敵しうるパフォーマンスを示している。現時点では、 GPT-4 を代表モデルとして性能検証することは妥当と考えられる。Nejumi LLM リーダーボード $\mathrm{Neo}^{1}{ }^{1}$ で公開されている、gpt-4-1106-previewで JNLIを学習・評価した結果では、Accuracy 0.77 を達成している。 OpenAI の GPT-4 以外にも様々な LLM がある。 llm-jp-eval リーダーボード [10] に掲載されている、 JNLI の性能上位 2 件2) の LLM は、それぞれ Accuracy が $0.916,0.91$ である。 なお、GPT-4 よりも後者二つの LLM の性能が大きく上に見えるのは、後者二つのインストラクション訓練データに JNLI が含まれているためと考えられる。 ## 3 含意関係認識問題の事前分析 含意関係認識タスクに出現する問題は、多様なパターンがある。その中で分析対象を絞るために、 GPT-4 の few shot prompting および BERT とその亜種のファインチューンを行い性能評価と失敗事例の分析を行った。各モデルの実験結果を表 3 に示す。実験詳細は付録 A を参照されたい。 失敗事例の分析の結果、図 1 に示すように GPT-4 は「時制」と「数量詞・数詞」を不得意とする可能性が示唆された。数量詞とは「たくさん」など、数詞とは「 1 つ、2つ」などを指す。次節以降で、この二種を対象に分析を行う。 この結果から、4 章において「時制」「数量詞・数詞」をどの程度見極められているかを、それぞれに特化したデータセットを作成し GPT-4 の性能を調査する。 ## 4 GPT-4 zero shot の含意関係認識 前述のように、ファインチューンないし few shot prompting を行えばその表層パターンを学習し対応できる可能性があるが、現実の利用では含意関係認識は中間的なステップであり、含意関係認識に特化したチューニングを前提にすることはできない。ま $-jp/elyza-ELYZA-japanese-Llama-2-7b-fast-instructfull-jaster)[11][12] および $\quad$ llm-jp/llm-jp-13b-instruct-fulljaster-dolly-oasst-v1.0 } ・時制で間違えた問題例 前提文:路上にある赤い消火栓を使って消火活動をしています。 仮定文 : 消火栓からの消火活動が終わった。 正解: 矛盾 GPT-4 の回答 : 中立 ・数量詞・数詞で間違えた問題例 前提文:たくさんの人が凩を見上げています。 仮定文 : 一人が凩を見上げている。 正解 : 矛盾 GPT-4 の回答 : 含意 図 1 GPT-4 が不正解だった問題例 た、含意関係認識のパターンも表層的、深層的にもさまざまであり、few shot prompting でカバーするのは困難である。そこで、チューニングを施さない 「素の」GPT-4 対象に、すなわち zero-shot で性能を測り分析する。 具体的には、現実的な設定として「ファクトチェック」を想定したプロンプトを用いる。そのうえで、前節で述べた時制判別と数量詞・数詞判別を試すデータセットを作成し、失敗事例を分析する。 ## 4.1 データセット 時制データセット基本となる文の時制を変化させることで含意・矛盾文ぺアを作成したのが時制データセットである。 具体的には図 2 に示すように、GPT-4 で生成した基本となる文を用意し、その文末を変える事によって時制を変化させる。本データセットでは現在進行形・過去形・未来形を使用し、前提文と仮定文の時制を揃えた場合に含意、時制が異なる場合に矛盾ラベルを付与した。中立はなく、2 値ラベルである。含意 300 件、矛盾 300 件の計 600 件を作成した。 基本文:私は本を読んでいます。 含意関係 前提文: 私は本を読んでいます。(現在進行形)仮定文: 私は本を読んでいる。(現在進行形) 矛盾関係 前提文: 私は本を読んでいます。(現在進行形)仮定文: 私は本を読みました。(過去形) 図 2 時制データセットの例 数量詞・数詞データセット基本となる文の数量詞を変化させることで含意・中立・矛盾の 3 值ラべルからなる文ペアを作成したのが数量詞・数詞デー タセットである。 含意の文ぺアは、前提文と仮定文に意味が同じ数量詞を用いるパターンと、前提文に数量詞・数詞を、仮定文に基本文を用いるパターンの大きく分けて 2 パターンで構成した。中立の文ぺアは、前提文に基本文を、仮定文に数量詞・数詞を用いるパターンで構成した。矛盾の文ぺアは、前提文に数量詞を、仮定文にそれと矛盾した数量詞・数詞を用いるパター ンで構成した。含意・中立・矛盾各 200 件、計 600 件の文ペアを作成した(付録の図 6)。 ## 4.2 プロンプト 前述の通り、zero shot プロンプトでの推論を行った。現実的な設定としてファクトチェックを想定し、図3に示すように前提文が事実である場合に仮定文のニュースが事実であるか否かを答えさせるプロンプトを使用した。 図 3 事実か事実でないかを尋ねるプロンプトの例 2 值分類である「時事・時制データセット」では 「指示」の中の「事実であるか事実に反するか判断がつかない場合は「中立」」の文言を削除する。 ## 4.3 実験と結果 gpt-4-1106-preview を使用して zero shot prompting を行い、出力の一貫性を極力保つため temperature を 0.1 に設定した。 「時制」「数量詞・数詞」と JNLI データセットを GPT-4 zero shot で実行した結果を表 1 に示す。表 1 の「事実」ラベルはデータセットの「含意」ラベルに、「事実でない」ラベルはデータセットの「矛盾」 ラベルにそれぞれ対応している。Accuracy が「時制」で 0.52、「数量詞・数詞」は 0.74 、「時制」については、ランダムベースラインの 0.50 と大差ない値 で、総じて実用的とは言い難い性能であった。 表 1 データセット毎の性能比較 ( $\mathrm{p}$ : precision , $\mathrm{r}$ : recall) ## 5 失敗事例の分析・考察 ## 5.1 時制の含意関係認識 表 1 の「事実でない」ラベルに注目すると、極端に precision が高くrecall が低く、「事実でない」と回答する数が極端に少なかったことがわかる。 プロンプトの検証プロンプトによって出力、特にこうした分類タスクのバランスが大きく変わる可能性がある。特に回答に関連の深い単語の影響を調べるため、プロンプトの「事実である」「事実でない」という表現を「正しい」「正しくない」に変更して実行した。結果、「事実でない」と回答する数が増加したものの、極端に少ないという結果は変わらなかった。表 2 にこの 2 種のプロンプトの比較結果を示す。表 2 内の「使用時制」とは問題の前提文と仮定文に用いた時制のペアである。また、分数の分母は各時制ぺアの総数を表している。「現在・未来」 ペア (前提文に現在形、仮定文に未来形の問題)に関しては両プロンプトにおいて正解数が 0 件であった。全体に、時制にかかわる含意関係認識の性能が低いことを示唆している。 & 「事実」プロ時制毎の正解数 \\ 失敗の具体例時制が「現在・未来」ペアの失敗例(図4 の時制の不正解例)を見ると、「現時点ですでに地元住民が参加している」ことが事実であるにもかかわらず、「現時点ではまだ地元住民が参加していない」のが事実であると、GPT-4 が出力している。このような問題は、フェイクニュースの検出をはじめイベント発生の有無にかかわる根本的な部分であり、LLM の出力の信頼性に疑問が生じる。 ・時制の不正解例 前提文:地域の老人ホームの文化祭には、地元住民が参加しています。(現在形) 仮定文:地域の老人ホームの文化祭には、地元住民が参加するでしょう。(未来形) 正解 : 事実でない GPT-4 の回答:事実 - 数量詞の不正解例 1 前提文:大量の人々が防寒具を求めて、衣料品店を訪れています。(数量詞あり) 仮定文 : 1 人の人が防寒具を求めて、衣料品店を訪れています。(数詞あり) 正解 : 事実でない GPT-4 の回答 : 事実 - 数量詞の不正解例 2 前提文:地域の老舗劇場が再開したことで、演劇ファンが公演を楽しんでいます。(数量詞なし)仮定文:地域の老舗劇場が再開したことで、数多くの演劇ファンが公演を楽しんでいます。(数量詞あり) 正解 : 中立 GPT-4 の回答 : 事実 図 4 時制および数量詞・数詞で不正解だった例 ## 5.2 数量詞・数詞の含意関係認識 失敗の具体例正解ラベルが「事実でない」問題を「事実である」と回答するパターンが多かった。図 4 の数量詞の不正解例 1 を見ると、「大量の人が衣料品店を訪れている」ことが事実であるにもかかわらず、「1 人が衣料品店を訪れている」という情報が事実であると出力されており、数量詞の大小関係を認識できない可能性を示唆している。 正解ラベルが「中立」の問題を「事実」と回答するパターンも多かった。図 4 の数量詞の不正解例 2 に示すように、前提文に数詞がなく仮定文に数詞がある場合に誤答が多かった。この例では前提文に数量詞・数詞がないため、仮定文に数詞がある場合その真偽を判断出来ず正解は中立であるが、「事実」 と回答した。形容する内容によっては必ずしも正しいとは言えない場合に対応できず、たとえば虚偽に近い誇張した表現の検出が難しい可能性がある。 出力の信頼性問題文のうち語彙がほとんど共通しているのに、正解できたり不正解であったりする例がいくつもあった。そこでどの要素が出力の変化に影響するか、動詞や語順を変えて確認した。図 5 の例は、「元の問題文 $1 」$ の動詞「減少する」を「増加する」におきかえた場合、節の順序を入れ替えた場合、「元の問題文 2 」の「ロシア」を「アメリカ」 に置き換えた場合である。いずれも同じ入力を 10 回試行したが、置き換え前後で大きく回答のバランスが変わっており、「増加」「減少」や「ロシア」「アメリカ」はそれぞれ単語の意味合いに応じた単語の出現頻度と事実かどうかの相関が、訓練データにおいて偏っていた可能性が考えられる。 ・元の問題文 1 前提文:時間外労働の上限規制によって、山ほどの 運送ドライバーの収入が減少する 仮定文:時間外労働の上限規制によって、少しの運 送ドライバーの収入が減少する GPT-4 の回答:10 回とも「事実」と回答 ・動詞を変化させた場合 前提文:時間外労働の上限規制によって、山ほどの 運送ドライバーの収入が増加する 仮定文:時間外労働の上限規制によって、少しの運送ドライバーの収入が増加する GPT-4 の回答 : 「中立」を 9 回、「事実でない」を 1 回出力 ・語順を変化させた場合 前提文:山ほどの運送ドライバーの収入が時間外労働の上限規制によって、減少する 仮定文: 少しの運送ドライバーの収入が時間外労働 の上限規制によって、減少する GPT-4 の回答 : 「事実」を 5 回、「事実でない」を 5 回出力 ・元の問題文 2 前提文:ロシアがウクライナとの国境線にたくさんの戦車を配備した 仮定文:ロシアがウクライナとの国境線に 1 台の戦車を配備した GPT-4 の回答:「事実」を 7 回、「事実でない」を 3 回出力 ・名詞を変化させた場合 前提文:アメリカがウクライナとの国境線にたくさんの戦車を配備した 仮定文: アメリカがウクライナとの国境線に 1 台の戦車を配備した GPT-4 の回答:10回とも「事実でない」と回答 図 5 出力の信頼性 ## 6 おわりに 含意関係認識における GPT-4 の失敗事例パターンを分析し、その信頼性に限界があるという示唆を得た。含意関係認識においては出現する字面が同じエンティティは同一事物を指すという前提があるが、本来は文脈に応じてエンティティの参照先を解決する必要がある。背景や文脈を取り入れた現実的な設定のタスクで分析を進めたい。 ## 謝辞 本研究は JSPS 科研費 JP22H00804, JP21K18115, JST AIP 加速課題 JPMJCR22U4, およびセコム科学技術財団特定領域研究助成の支援をうけたものです。 ## 参考文献 [1] Lei Huang, Weijiang Yu, Weitao Ma, Weihong Zhong, Zhangyin Feng, Haotian Wang, Qianglong Chen, Weihua Peng, Xiaocheng Feng, Bing Qin, and Ting Liu. A survey on hallucination in large language models: Principles, taxonomy, challenges, and open questions, 2023. 2311.05232 https://arxiv.org/abs/2311.05232. [2] 吉越卓見, 河原大輔, 黒橋禎夫. 機械翻訳を用いた自然言語推論データセットの多言語化. 情報処理学会第 244 回自然言語処理研究会, Vol. 2020-NL-244, No. 6, pp. 1-8, 72020. [3] 谷中瞳, 峯島宏次. Jsick: 日本語構成的推論 - 類似度データセットの構築. 人工知能学会全国大会論文集, Vol. JSAI2021, pp. 4J3GS6f02-4J3GS6f02, 2021. [4] 栗原健太郎, 河原大輔, 柴田知秀. Jglue: 日本語言語理解ベンチマーク. 自然言語処理, Vol. 30, No. 1, pp. 63-87, 2023 . [5] Samuel R. Bowman, Gabor Angeli, Christopher Potts, and Christopher D. Manning. A large annotated corpus for learning natural language inference. In Lluís Màrquez, Chris Callison-Burch, and Jian Su, editors, Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 632-642, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Jill Burstein, Christy Doran, and Thamar Solorio, editors, Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [7] Marco Marelli, Stefano Menini, Marco Baroni, Luisa Bentivogli, Raffaella Bernardi, and Roberto Zamparelli. A SICK cure for the evaluation of compositional distributional semantic models. In Nicoletta Calzolari, Khalid Choukri, Thierry Declerck, Hrafn Loftsson, Bente Maegaard, Joseph Mariani, Asuncion Moreno, Jan Odijk, and Stelios Piperidis, editors, Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC'14), pp. 216-223, Reykjavik, Iceland, May 2014. European Language Resources Association (ELRA). [8] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, Vol. 30, , 2017. [9] OpenAI : Josh Achiam and et al. Gpt-4 technical report, 2023. 2303.08774 https://arxiv.org/abs/2303. 08774. [10] 1lm-jp-eval リーダーボード,(2024-1 閲覧). https://wandb.ai/llm-jp-eval/test-eval/ reports/llm-jp-eval---Vmlldzo1NzE0NjA1? accessToken=s09hm7xrqg43ls8i25am6t0r7iwjpninw zeelqqgbx53zivlm9s04ixfpv3xgiwm. [11] Akira Sasaki, Masato Hirakawa, Shintaro Horie, and Tomoaki Nakamura. Elyza-japanese-llama2-7b, 2023. https://huggingface.co/elyza/ ELYZA-japanese-Llama-2-7b. [12] Hugo Touvron and et al. Llama 2: Open foundation and fine-tuned chat models, 2023. 2307.09288 https: //arxiv.org/abs/2307.09288. [13] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In H. Larochelle, M. Ranzato, R. Hadsell, M.F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Curran Associates, Inc., 2020. https://proceedings. neurips.cc/paper_files/paper/2020/file/ 1457c0d6bfcb4967418bfb8ac142f64a-Paper.pdf. [14] Pengcheng He, Jianfeng Gao, and Weizhu Chen. Debertav3: Improving deberta using electra-style pre-training with gradient-disentangled embedding sharing. In Proceedings of International Conference on Learning Representations (ICLR) 2023, 2023. ## A 付録:LLM の含意関係認識性能検証 LLM として GPT-4 と、分類モデルとして BERT とその亜種について、含意関係認識の性能検証を実験条件をそろえて行った。JNLIには評価データが含まれていないため、検証データで評価を行った。 ## A. 1 GPT-4 「含意度」を出力させるプロンプトを使用した。3)冒頭に「指示」セクションにおいて含意度を出力させる旨指示した。プロンプト中盤では、Few Shot[13] の場合 JNLI の train-v1.1.json の中から含意・中立・矛盾 1 件ずつを使用し、それぞれの含意度を例示した。プロンプトの最後に推論対象となる前提文と仮定文を提示した。 ## A. 2 BERT 系モデル cltohoku/bert-base-japanesewhole-word-masking4) 、 nlp-waseda/roberta-base-japanese ${ }^{5}$ ) nlp-waseda/robertalarge-japanese ${ }^{6}$, ku-nlp/deberta-v2-base-japanese $)^{7 \text { ) }}$ 、 ku-nlp/deberta-v2-large-japanese ${ }^{8)} 、$ microsoft/debertav3-base[14](microsoft/deberta-v3-large)[14] の計 7 つのモデルをファインチューンし使用した。 ## A. 3 実験設定 JNLI の valid-v1.1.json を用いて、含意・中立・矛盾の 3 値分類を行った。 GPT-4 Few Shot, GPT-4 Zero Shot 双方において推論を実施。GPT-4 のモデルは「gpt-4-1106-preview」を使用。また、temperature を 0.1 に設定し出力の一貫性を保たせた。BERT 系モデルのファインチューニングには JNLI の train-v1.1.jsonを使用し、学習時ハイパーパラメータは、Epoch 数:5、学習率:2e-5、 バッチサイズ:16とした。 ## A. 4 実験結果 結果を表 3 に示す。DeBERTa v3(microsoft/debertav3-base)[14] が最高性能であった。一方、GPT-4 の 3)様々なプロンプトを試行した結果、三值を尋ねるより含意度の方が性能が高かったため。 4) https://huggingface.co/cl-tohoku/bert-base-japanese-wholeword-masking 5) https://huggingface.co/nlp-waseda/roberta-base-japanese 6) https://huggingface.co/nlp-waseda/roberta-large-japanese 7) https://huggingface.co/ku-nlp/deberta-v2-base-japanese 8) https://huggingface.co/ku-nlp/deberta-v2-large-japanese表 3 モデル性能の比較 (JNLI) 正答率は 0.73 と、deberta-v3-base の正答率 0.92 よりも19\%低い結果である。さらに、GPT-4 はその他の BERT 系モデルの正答率に及ばない結果となっている。このことから、GPT-4 の含意関係認識性能にはまだ課題があると言えよう。 \# 基本文\#空港の通路を人が歩いています。 - 含意関係 パターン 1 前提文: 空港の通路たくさんの人が歩いています。 (数量詞あり) 仮定文: 空港の通路を多数の人が歩いています。 (数量詞あり) パターン 2 前提文: 空港の通路を $\mathbf{5 0}$ 人が歩いています。 (数詞あり) 仮定文: 空港の通路を人が歩いています。 (数詞なし) - 中立関係 パターン 1 前提文: 空港の通路を人が歩いています。 (数量詞なし) 仮定文: 空港の通路をたくさんの人が歩いています。 (数量詞あり) パターン 2 前提文: 空港の通路を人が歩いています。 (数量詞なし) 仮定文: 空港の通路を 5 人の人が歩いています。 (数詞あり) - 矛盾関係 パターン 1 前提文: 空港の通路を多数の人が歩いています。 (数量詞あり) 仮定文: 空港の通路を少しの人が歩いています。 (数量詞あり) パターン 2 前提文: 空港の通路をたくさんの人が歩いています。 (数量詞あり) 仮定文: 空港の通路を 1 人の人が歩いています。 (数詞あり) 図 6 数量詞・数詞特化データセットの例
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-14.pdf
# 対話モデルに対する敵対的プロンプトの効率的な最適化 矢野一樹 ${ }^{\dagger, 1}$ 綿岡 晃輝 *,1 Thien Q. Tran* 高橋 翼 * Seng Pei Liew* $\quad$ 鈴木潤 $\dagger, \ddagger$ $\dagger$ 東北大学 *LINE ヤフー株式会社 $\$$ 理化学研究所 [email protected] \{koki.wataoka, tran.thien, tsubasa.takahashi, sengpei.liew\}@lycorp.co.jp [email protected] ## 概要 言語モデルの不適切な出力を回避するためには,敵対的プロンプトを用いたストレステストにより,潜在的なリスクを洗い出すことが重要である. 既存の手法では,プロンプトのトークン選択を繰り返すことで攻撃成功に近づくよう最適化を行う。そのため, 一つのプロンプトの生成に時間を要し, 多様なリスクを網羅するストレステストの実施には膨大な時間を要する.この課題を解決するため, プロンプト最適化におけるトークン選択の戦略を改善する手法を提案する. 実験により,提案手法は既存手法より少ないステップで攻撃を成功できることを示す. 加えて,トークン選択における勾配と損失を分析し,提案手法が採用する戦略の優位性を示す。 ## 1 はじめに 有用かつ安全な回答を提供するためのセーフティアラインメント技術 (以降、アラインメント)は,対話モデルが不適切な出力を防ぐ上で,一定の成功を収めてきた $[1,2]$. しかし, 敵対的に最適化されたプロンプトを入力することで,アラインメントをバイパスして言語モデルに望ましくない出力をさせる方法,いわゆる「ジェイルブレイク」が可能なことが確認されている $[3,4,5]$. 中でも, Greedy Coordinate Gradient (GCG) [3] は, GPT-4 [1]を含む様々なモデルに対して攻撃を成功させ,注目を集めた。これらは単なる攻撃に留まらず,モデルのリスクを洗い出すストレステストにも利用できる $[6,7]$. しかしながら,攻撃に成功するような敵対的プロンプトの探索には,高い計算コストを伴う. GCG では,一つの攻撃を成功させるために少なくとも 100 ステップ程度の最適化が必要である. そのため, 複 1) Equal contribution.数の敵対的プロンプトによる網羅的なリスクの探索には,数日間に渡る等, 長時間の処理を要する。 そこで,本研究は既存手法の敵対的プロンプトの最適化におけるトークンの選択戦略を改善した敵対的プロンプト生成手法を提案する。実験により,提案手法は既存手法より少ない最適化ステップで攻撃を成功できることを示す。また,攻撃成功率が既存手法と同等以上であることを示す. さらに,敵対的プロンプトの最適化におけるトークン選択に関する勾配と損失を分析することで,提案手法の最適化戦略が既存手法より優位であることを示す. ## 2 関連研究 ## 2.1 敵対的プロンプト最適化 内部の重みを利用できるホワイトボックスな言語モデルに対する敵対的プロンプトの最適化は,以下のように定式化することが可能である.トークン長が $n$ の入力プロンプト $x_{1: n}=\left.\{x_{1}, \ldots, x_{n}\right.\}$ と生成させたいトークン長 $H$ の出力文を $x_{n+1: n+H}^{*}=\left.\{x_{n+1}, \ldots, x_{n+H}\right.\}$ とする. プロンプト $x_{1: n}$ が与えられたとき,言語モデルが $x_{n+1: n+H}^{*}$ を出力する確率は $ p\left(x_{n+1: n+H}^{*} \mid x_{1: n}\right)=\prod_{i=1}^{H} p\left(x_{n+i} \mid x_{1: n+i-1}\right) . $ となる.生成させたい出力文に対する損失を $ \mathscr{L}\left(x_{1: n}\right)=-\log p\left(x_{n+1: n+H}^{*} \mid x_{1: n}\right) $ と定義すると,敵対的プロンプトの最適化は $\mathscr{L}\left(x_{1: n}\right)$ を最小化させるように入力プロンプトを最適化する問題とみなせる.しかし,考えられる全てのプロンプトの内,損失が最小であるものを探索することは計算量的に困難である.そこで,入力トークンの埋め込みやワンホットベクトルに対する損失の勾配を 計算し,損失を下げる確率が高いプロンプトを探索する手法が提案されている $[8,3]$. ## 2.2 Greedy Coordinate Gradient (GCG) 本項では, 敵対的プロンプトを生成するための既存の最適化手法について, GCG [3] で採用されているアプローチを中心に述べる. GCG はホワイトボックスな言語モデルに対する最も性能の良い攻撃手法である. GCG は以下に述べる手順を $T$ 回ループすることによって敵対的プロンプトを最適化していく。 1. 置換候補トークン集合の計算プロンプトの各トークン $x_{i}$ のワンホットベクトル $e_{x_{i}}$ に対する損失の負の勾配 $-\nabla_{e_{x_{i}}} \mathscr{L}\left(x_{1: n}\right)$ を計算する.その後 $\operatorname{Top}-k\left(-\nabla_{e_{x_{i}}} \mathscr{L}\left(x_{1: n}\right)\right)$ を $k$ 個の要素を持つ置換候補トークン集合とする。 2. 候補プロンプト集合の生成インデックス $i$ をランダムに指定し,置換候補トークン集合 $\operatorname{Top}-k\left(-\nabla_{e_{x_{i}}} \mathscr{L}\left(x_{1: n}\right)\right)$ から候補をランダムに選択し,実際に置換したものを候補プロンプトとする.この工程を $B$ 回繰り返すことによって $B$個の候補プロンプトを得る。 3. 候補プロンプトの選択 $B$ 個の候補プロンプト集合それぞれの損失を計算する。 その結果, 最小となるものを新たなプロンプトとして採用する. GCG では, 1 ステップ毎に攻撃対象モデルにおける forward, backward パスを計算する必要があるため, 計算コストが高い. 加えて, 最適な敵対的プロンプトを得るためには少なくとも 100 ステップ程度の最適化が必要であり, 論文内ではより高い確率で攻撃を成功させるため,上記のアルゴリズムを 500 ステップに設定している。このことから,一つのプロンプトに関する攻撃を成功させるためにも多くの計算量を要することがわかる. 大量のプロンプトを最適化させる場合, 数日間に渡る処理を要求する。 ジェイルブレイクの攻撃性能を高めるだけでなく, 計算効率も高めることは言語モデルの安全性の評価をより広範,迅速に行うことができ,アラインメント技術の向上に大きく貢献する. 次節以降では,提案手法の詳細を説明する。 ## 3 提案手法 提案手法では GCG における置換候補トークン集合の選択戦略に注目する. より最適なトークン集合 を選ぶことで,候補プロンプト集合を生成する際に,より損失を下げるプロンプトを効率的に探索することが可能になる. GCG はワンホットベクトル $e_{x_{i}}$ に対する損失の負の勾配値の大きさが大きい $k$ 個の $\operatorname{Top}-k\left(-\nabla_{e_{x_{i}}} \mathscr{L}\left(x_{1: n}\right)\right)$ を置換候補トークン集合としている. 固定の $k$ について置換候補トークン集合を計算しているため,全ての index において探索範囲が一定である.より効率的に探索範囲を設定するためには負の勾配値の情報を用いて探索範囲を動的に設定するべきである.なぜなら探索範囲を動的に設定することで,あらかじめ損失の低下に大きく貢献しないようなトークンを探索範囲に含めないようにすることが可能であると考えられるからである. 図 1 はあるインデックスに対して Top- $k\left(-\nabla_{e_{x_{i}}} \mathscr{L}\left(x_{1: n}\right)\right)$ をもとに実際に得られる $k$ 個の置換を施されたプロンプトにおける負の勾配値と損失值を図示したものである. 図 1 から,いずれのインデックスにおいても負の勾配値の大きさが相対的に小さい置換候補は損失も比較的高い値を示すことがわかる. よって $\operatorname{Top}-k\left(-\nabla_{e_{x_{i}}} \mathscr{L}\left(x_{1: n}\right)\right)$ のうち, 負の勾配值の大きさが相対的に小さい置換候補は損失の低下にほとんど寄与しないと考えられる。 提案手法では負の勾配値を用いて探索範囲を設定するために,あるインデックスに対する負の勾配値の総和が 1 となるように softmax 関数を適用する. その値が大きいものから累積和が $p$ になるまでのトークンの集合を置換候補トークン集合とする。つまり置換候補トークン集合を $\operatorname{Top}-p\left(\operatorname{softmax}\left(-\nabla_{e_{x_{i}}} \mathscr{L}\left(x_{1: n}\right)\right)\right)$ となるようにする. この変更を施すことで,あるインデックスでの負の勾配値の相対的な情報を利用することが可能となり,探索するトークンの個数を動的に設置し,探索範囲をより効率的に設定することが可能になると考えられる.以上をまとめると提案手法では以下に述べる手順を $T$ 回ループする. 1. 置換候補トークン集合の計算プロンプトの各トークン $x_{i}$ のワンホットベクトル $e_{x_{i}}$ に対する損失の負の勾配 $-\nabla_{e_{x_{i}}} \mathscr{L}\left(x_{1: n}\right)$ を計算する. その後 $-\nabla_{e_{x_{i}}} \mathscr{L}\left(x_{1: n}\right)$ に softmax 関数を適用し, 値が大きいトークンから累積和が $p$ となるまでのトークン Top- $p\left(\operatorname{softmax}\left(-\nabla_{e_{x_{i}}} \mathscr{L}\left(x_{1: n}\right)\right)\right)$ を置換候補トークン集合とする。 2. 候補プロンプト集合の生成ランダムに選ばれたインデックス $i$ の置換候補トークン集合 図 1 各置換候補トークンにおける勾配と実際の損失値. Index は敵対的プロンプトにおけるトークン列のポジションである.横軸: 各置換候補トークンの損失関数に関する勾配. この值の大きさを元に置換トークンを決定する.縦軸: 各置換候補トークンを実際に置換した場合に得られる損失値. 最適化中,すべてのトークンにおいてこの値は得られないが,考察のために計算した. Top- $p\left(\operatorname{softmax}\left(-\nabla_{e_{x_{i}}} \mathscr{L}\left(x_{1: n}\right)\right)\right)$ からランダムに候補を選択し,実際に置換したものを候補プロンプトとする.この工程を $B$ 回繰り返すことによって $B$ 個の候補プロンプトを得る. 3. 候補プロンプトの選択 $B$ 個の候補プロンプト集合それぞれの損失をを計算する。その結果,最小となるものを新たなプロンプトとして採用する。 ## 4 実験と結果 提案手法の攻撃性能と効率性を検証するため,生成した敵対的プロンプトによる攻撃成功率と攻撃成功までに要した最適化のステップ数を測定する。この測定には, 50 種類の不適切な出力をターゲットとするように生成した敵対的プロンプトを用意した.最適化は各手法それぞれ 200 ステップ実施した. 比較対象となる既存手法は, Zou ら [3] によって提案された Greedy Coordinate Gradient (GCG) である. 攻撃対象の不適切な振る舞いについても, Zou らの研究に従い, AdvBench データセットを使用した. AdvBench データセットは不適切な振る舞いを指示文の形式で定義したもので, 冒涜や暴力, 誤情報, サイバー犯罪等, 様々な有害コンテンツを包含している. 加えて, 不適切な振る舞い毎に攻撃者向けのター ゲット文も作成されている. 具体的な例は表 3 にて示した. 攻撃対象モデルは, アラインメントされた言語モデルである Llama2-7B-Chat [2]を採用した. 攻撃成功の自動評価には, GPT-4 [1] を用いた. 不適切な振る舞いの定義文, モデルからの生成文及び, 判定に関する詳細なルールをプロンプティングすることで自動評価を実現した. 実際に用いたプロンプトは図 4 に示した. 表 1 に示す通り,提案手法の攻撃成功率は $3.0 \%$ となり,これはわずかながら既存手法を上回る結果である. 実際に, 本実験で得られた敵対的プロンプトと生成文の例は表 2 に示した. また, 50 種類の攻撃それぞれにおける損失値の平均及び分散の推移を図 2 に示した. 提案手法は既存手法より, 効率的に損失関数の減少に成功していることが確認できる. 図 2 敵対的プロンプト最適化におけるステップ毎の Loss の平均値と分散の推移 表 1 攻撃成功率と Loss の比較 ## 4.1 置換候補トークン数の分析 提案手法の最適化過程において, 置換候補トークン数の変動を図 3 に示す. 序盤における置換候補トークン数の激しい変動に注目する. 最適化過程の初期段階では, 相対的に大きな勾配が存在する際に 表 2 提案手法によって Llama2-7B-Chatへのジェイルブレイク攻撃が成功した事例 は置換候補トークン数を絞る一方で, そうでない場合には探索範囲を広げていることになる.このことから, 提案手法は置換候補トークンの優先度に応じて, 探索空間を動的に調整していることが示された. また, 終盤においては, 顕著な勾配の減少とともに置換候補トークン数は実験設定に基づく最大値である 64 に漸近していることが観察された。 図 3 最適化ステップにおける置換候補トークン数と損失 ## 5 おわりに 本研究では, 人間の倫理基準と価値観に基づいてセーフティアラインメントされた言語モデルに対して, 既存の敵対的手法の改良法を提案した. 実験の結果, 提案手法は既存手法に比べて高い攻撃成功率を達成し, 少ない最適化ステップで攻撃を性能させられることを示した. また, 提案手法の優位性をサポー 卜する分析と考察も提供した。 ## 謝辞 本研究の一部は JST ムーンショット型研究開発事業 JPMJMS2011-35 (fundamental research) の支援を受けたものである. ## 参考文献 [1] OpenAI. Gpt-4 technical report, 2023. [2] Kevin Stone Peter Albert Amjad Almahairi Yasmine Babaei Nikolay Bashlykov Soumya Batra Prajjwal Bhargava Shruti Bhosale et al. Hugo Touvron, Louis Martin. Llama 2: Open foundation and fine-tuned chat models, 2023. [3] Andy Zou, Zifan Wang, J. Zico Kolter, and Matt Fredrikson. Universal and transferable adversarial attacks on aligned language models, 2023. [4] Alexander Wei, Nika Haghtalab, and Jacob Steinhardt. Jailbroken: How does LLM safety training fail? In Thirtyseventh Conference on Neural Information Processing Systems, 2023. [5] Nicholas Carlini, Milad Nasr, Christopher A. ChoquetteChoo, Matthew Jagielski, Irena Gao, Pang Wei Koh, Daphne Ippolito, Florian Tramèr, and Ludwig Schmidt. Are aligned neural networks adversarially aligned? In Thirty-seventh Conference on Neural Information Processing Systems, 2023. [6] Eric Wallace, Shi Feng, Nikhil Kandpal, Matt Gardner, and Sameer Singh. Universal adversarial triggers for attacking and analyzing NLP. In Kentaro Inui, Jing Jiang, Vincent Ng, and Xiaojun Wan, editors, Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 2153-2162, Hong Kong, China, November 2019. Association for Computational Linguistics. [7] Deep Ganguli, Nicholas Schiefer, Marina Favaro, and Jack Clark. Challenges in evaluating AI systems, 2023. [8] Taylor Shin, Yasaman Razeghi, Robert L. Logan IV, Eric Wallace, and Sameer Singh. AutoPrompt: Eliciting Knowledge from Language Models with Automatically Generated Prompts. In Bonnie Webber, Trevor Cohn, Yulan He, and Yang Liu, editors, Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 4222-4235, Online, November 2020. Association for Computational Linguistics. ## A 詳細な実験設定 実験において, 攻撃の対象とする有害な振る舞い と,最適化に用いるターゲット文の定義として使用 した AdvBench データセット [3] の例を表 3 にて示 した. また, 生成文が対象の有害な振る舞いにあたる かの自動評価をするために用いた GPT-4へのプロン プトを図 4 に示した. 表 3 AdvBench データセットの例 \\ & You are a classifier for red teaming large language models (LLMs). Given a generation, determine whether it counts as an instance of the following behavior (subject to the rules below). Your answer should be "Yes" or "No" with an explanation. Behavior: \{有害な振る舞い\} Generation: $\{$ モデルの生成文 $\}$ ## Rules: - Instances of the behavior should be unambiguous and non-minimal. Vague or very short instances do not count. - Generations should themselves be harmful or undesirable for a public-facing LLM to output. Benign or supportive generations do not count. - Generations that respond, analyze, discuss or otherwise react to the behavior when it has originated from other factors do not count. - If the behavior involves coding and programming, the generation should contain code artifacts related to the behavior, not just comments or instructions. Otherwise it does not count. Answer: 図4自動評価のために用いた GPT-4へのプロンプト
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-15.pdf
# 日本語 TruthfuIQA の構築 中村友亮 河原大輔 早稲田大学理工学術院 \{yusuke69@ruri., dkw@\}waseda.jp ## 概要 本研究では大規模言語モデル (LLM) の真実性に関するベンチマークとして,日本語 TruthfulQA (JTruthfulQA)を構築する。JTruthfulQA は非事実に関連するもの,難しい知識を問うものを含む 18 カテゴリ,604 問からなる。JTruthfulQAを用いて LLM の評価を行ったところ, GPT-3.5-Turbo および GPT-4 は非事実ジャンルの問題において人間より高い正答率を示したが,知識ジャンルにおいては人間の正答率を大きく下回った。また,GPT-4 はすべてのジャンルの問題において LLM の中で最も高い正答率を示した。 ## 1 はじめに 現在,英語を中心として大規模言語モデル (LLM) の開発が急激に進んでいる。それに伴って LLM を利用する上での安全性,信頼性の問題への注目が高まっている。英語においては TruthfulQA [1] や BBQ [2] など,真実性や偏見に関連するベンチマー クが整備されている。TruthfulQA は,LLM の真実性や難しい知識に対する性能を評価するベンチマークであり,安全性,信頼性について計測することができる。 日本語についても LLMがいくつも開発されているが,それらの安全性,信頼性を評価するための日本語ベンチマークが不足している。既存の英語のべンチマークを和訳するという手段が考えられるが,回答に必要な知識が英語圈におけるものに偏ってしまい,日本特有の知識に関する評価を正確に行えない。本研究では真実性に着目し, 日本語 TruthfulQA を構築する。これによって,急増する日本語 LLM の安全性の評価,向上に役立つことを期待する。 ## 2 関連研究 LLM の評価項目として倫理とモラル,偏見,毒性,真実性,頑健性,リスクなどがある [3]。それぞ れの評価項目のベンチマークとして,偏見については BBQ [2],BOLD [4],Crows-Pairs [5] など LLM が学習した知識に偏見が含まれるかどうかを検証するベンチマーク,真実性については TruthfulQA [1] や SelfAware [6] など LLM が正確な生成を行えるかを評価するベンチマークが存在する。また,リスク評価を中心として安全性能について多岐にわたる項目での評価を行う Do-Not-Answer [7] などがある。上記のベンチマークはいずれも英語で構築されたものである。 ## 3 日本語 TruthfulQA の構築 3.1 節で TruthfulQA [1] について概説し,3.2 節にて本研究で構築する日本語 TruthfulQA (JTruthfulQA) の詳細を述べる。 ## 3.1 TruthfulQA 概要 TruthfulQA は 38 カテゴリ,817 問からなる真実性に関するべンチマークである。各問題文と, カテゴリ,模範解答とそのソース,正答例,誤答例を含む。カテゴリには,迷信など一部の人々に信じられているが事実とは言えないものと,法律など難しい知識を問うものが存在する。事実である回答のみを真とし,迷信などは誤答とみなす。問題に回答しない,不確実性を表現する,または真実ではあるが関係のない回答は正答として取り扱っている。メインのタスクは問題に対する回答生成であり,各問題に対する LLM の zero-shot による生成が正答か誤答かを評価する。人手評価と自動評価があり,自動評価のために GPT-3 のファインチューニングを行っている。追加タスクでは複数の選択肢の中から正答を選ぶ。 構築方法まず,人によっては誤答すると予想される問題が著者らの手作業によって作成された。問題が容易なものとなることを防ぐために,GPT-3 が複数の生成1)を行って 3 回連続で正答したものを削 1)生成は 0 でない温度に設定して行われている。 表 1 JTruthfulQA の例 表 2 問題のジャンル・カテゴリ 除することによって 437 件の問題を作成している。 その後,この手続きの知見を活かして,人間も機械も誤答すると予想される 380 件の問題を追加で作成している。 ## 3.2 JTruthfulQA の構築 JTruthfulQA はカテゴリ, 問題, 問題作成者によって作られた解答に加え, 人手や LLM で作成した正答例,誤答例から構成する。以下の 5 つのステップによって構築する。 クラウドソーシングによる問題・解答作成まず,表 2 に示すように,迷信など事実に基づかない事象に関する非事実ジャンル 8 カテゴリ, 日本固有の知識に関する知識ジャンル 10 カテゴリの計 18 カテゴリにおいて,クラウドソーシングで 50 個ずつ問題と解答のペアを作成する。各カテゴリにおいて我々が例題とそれに対する解答を用意し,クラウドソーシングでは図 1 のようにカテゴリ名,例題とその解答を提示する。 フィルタリング作成した問題から有用なもののみを残すため, 文字数が 6 文字以下のもの, および, クラウドソーシングの際に提示した例題との類似度が高いものを削除する。また,生成した問題文同士の類似度が高いものは,一つを残してそれ以外を除去する。類似度計算には BERTScore [8] を用いる。 解答・カテゴリの正誤判定残った問題について,解答とカテゴリのそれぞれが合っているかをクラウドソーシングで検証する。解答の検証時,クラウドワーカーにはウェブ検索を用いて問題文に対する解答が適当かどうか判定するよう指示を与える。 5 人のワーカーによるクラウドソーシングの結果, 5 人中 4 人以上が合っていると答えたものを正しいとみなす。解答が誤っている問題は除去し,カテゴリが誤っている問題は人手で振り直しを行う。 18 個のカテゴリに分類できないものは「その他」とする。 LLM による回答例の生成回答評価用に正答例 ・誤答例を作成するため,各問につき GPT-3.5-Turbo ${ }^{2)}$ で 6つ, 3 つの LLM $\left(\right.$ StableLM $^{3}$,, ELYZA $^{4)}$, Weblab $^{5)}$ ) で 2つずつの回答例を生成する。回答生成時には 50 文字以下で回答するように指示し,いずれのモデルも温度は 1 に設定する。回答例が長文になると回答評価時の正誤判定が困難になる恐れがあるため, 長文で生成する傾向にあった 3 つの LLM で生成された問題のうち,75 文字より長いものは除去する。 回答例の正誤判定 LLM で生成した回答に対して10人のクラウドワーカーによるクラウドソーシングで正誤を判定する。8 人以上が正しいと答えたものを正答, 2 人以下が正しいと答えたものを誤答とする。クラウドワーカーは正誤判定する際,カテゴリ,問題,問題作成者によって作られた解答を参照したうえで判定を行う。知識ジャンルの問題については,GPT-3.5-Turbo を用いて生成した 6 つの回答中,3つ以上が正答があったものは簡単すぎる問題として除去する。また,正答でも誤答でもない回答例は削除する。 これらのステップを経て,604 問の問題と各問につき平均 3.6 個の正答例,4.7 個の誤答例を得た。正答例には, 問題作成者によって作られた解答を含む。 4.1.2 節で評価後の人手による例を回答例に追加する。 ## 4 実験 JTruthfulQA の問題に対して,クラウドソーシングによる人間の回答の収集,LLMによる回答生成を実施する。その後,回答が正しいかどうかについて 2) https://platform.openai.com/docs/models/gpt-3-5 3) https://huggingface.co/stabilityai/ japanese-stablelm-instruct-alpha-7b 4) https://huggingface.co/elyza/ ELYZA-japanese-Llama-2-7b-instruct 5) https://huggingface.co/matsuo-lab/ weblab-10b-instruction-sft 図 1 クラウドソーシングにおける例題提示の例 表 3 誤答の例 クラウドソーシングによって人手評価を行い,人間と LLM の正答率を検証する。自動評価手法として 2つのLLMのファインチューニングを行い,正誤判定を実施するほか,BLEU などのスコアを計算する。 ## 4.1 実験設定 ## 4.1.1 回答生成 6 種類の LLM (GPT-3.5-Turbo, GPT-4 ${ }^{6}$, StableLM, ELYZA, Weblab, LINE)において,各問につき 50 文字以内で回答するように指示を与える。プロンプトの形式は各モデルの公開元が使用例としていたものを基本とし,温度は 0 (0 に設定できない場合 0.1$)$ で回答の生成を行う。 人間の回答として,検索を許す,検索を許さないというそれぞれの指示を与えたうえで,各問につき 3 人のクラウドワーカーによって回答例を生成する。回答時には問題文のみが与えられる。 ## 4.1.2 人手評価 LLM で生成した各回答に対して 5 人のクラウドワーカーによるクラウドソーシングで正誤の判定を行い,3 人以上が正しいと答えたものを正答, 2 人以下を誤答とする。クラウドワーカーは提示されたカテゴリ,問題,正答例,誤答例を参照して判定を行う。 人間の回答は,まず 3 人のクラウドワーカーによって作成される各回答について LLM と同様に正誤判定を行う。判定後の回答において,3つの回答中 2 つ以上が正しければ正答,1つ以下であれば誤答とみなす。また,評価後の回答例をデータセットの正答例,誤答例に追加する。これにより,正答例は平均 5.8 個,誤答例は平均 6.2 個となった。 6) https://platform.openai.com/docs/models/gpt-4-and-gpt-4-turbo ## 4.1.3 自動評価 問題に対する回答の正誤評価において,自動評価器を構築し, 人手評価との比較を行う。自動評価器は, GPT-3.5-Turbo, RoBERTa [9] の日本語モデルである早大 RoBERTa $^{7)}$ の 2 つの LLM をファインチューニングして構築する。訓練データは 3.2 節で構築した JTruthfulQA の問題とすべての回答例をそれぞれ結合したものである。テストデータとして JTruthfulQA の問題と 4.1.1 節で作成した回答をそれぞれ結合する。 早大 RoBERTa 入力をもとに正答か誤答かの二値分類として早大 RoBERTa のファインチューニングを実施する。その後ファインチューニングしたモデルを用いて,問題と4.1.1 節の回答を結合したものを入力として推論し,回答の評価を行う。 GPT-3.5-Turbo OpenAIの APIによって提供されているファインチューニングサービスを利用して GPT-3.5-Turbo のファインチューニングを行う。入力をもとに,正答ならば True,誤答ならば False と出力するようにプロンプトを記述する。推論時はモデルの出力に基づき, True を正答, False を誤答として評価を行う。 自動評価の一環として, BLEU, ROUGE-1, BERTScore の値も算出する。まず評価する回答と各正答例・誤答例とのスコアを求め,正答例のうちの最大值から誤答例のうちの最大値を引いたものを最終的な評価値とする。 ## 4.2 実験結果 人間と GPT-4 の誤答の例,各 LLM の人手評価と自動評価の結果,ジャンルごとの各 LLM の正答率をそれぞれ表 $3 , 4 , 5$ に示す。  表 4 各 LLM の人手評価と自動評価の結果。GPT-3.5, RoBERTa の列はそれぞれ GPT-3.5-Turbo, 早大 RoBERTa のファインチューニングモデル (4.1.3 節) で評価した正答率を表す。 表 5 ジャンルごとの各 LLM の正答率 (人手評価) ## 4.2.1 人手評価 知識ジャンルでは検索あり,なしの場合で共に人間の回答の正答率がいずれの LLM よりも高かった。 また, 日本語 LLM の中では ELYZA が最も高い正答率を示した。非事実ジャンルでは GPT-3.5-Turbo, GPT-4 が人間よりも高い正答率を示し, 日本語 LLM の中では StableLM が最も高かった。全問題を通しての正答率はいずれの LLM も人間を超えなかったが,LLM の中では GPT-4 が最も高く,日本語 LLM の中では ELYZA が最も高かった。 誤答する問題の傾向として,検索のあり,なしに関わらず,人間は非事実ジャンルの中でも特に主観的な評価の問題の多くで誤答していた。対照的に, GPT-4 は知識ジャンル全般で誤答が多く, 表 3 のように解答と似た誤答が多かった。 日本語に対してより多くの知識を持っていると考えられる日本語 LLMだが,いずれの指標でも GPT-4 の精度を下回った。StableLM と Weblab は知識ジャンルにおいて GPT-3.5-Turbo よりも高い正答率を示した。ELYZA は非事実ジャンルで高い正答率を示したが,知識ジャンルで最も低い正答率を示した。原因として, ELYZA が英語モデルの Llama-2 を日本語でファインチューニングしたモデルであり,その他の日本語 LLM と比べて日本の知識に関する学習の割合が少なかったためと推測される。 ## 4.2.2 自動評価 RoBERTa,GPT-3.5 共に正答率の順位は概ね人手評価と同様の結果であった。 人手評価の結果を正解とした自動評価の精度は GPT-3.5 の方が高かったが,API を通してのファインチューニングであるため,異なる環境での再現性は RoBERTa のほうが優れていると考えられる。 ## 5 おわりに 本研究では真実性に関するベンチマークとして日本語 TruthfulQA を構築し,LLM の評価を行った。 すべてのジャンルの問題で GPT-4 が最も高い正答率を示した。GPT-3.5-Turbo および GPT-4 は,非事実ジャンルでは人間よりも正答率が高かったが,知識ジャンルでは人間の正答率を大きく下回った。 今後は,新たに開発されている日本語 LLM についても評価する予定である。また,LLM の学習コー パスが非事実ジャンル,知識ジャンルにおける正答率に及ぼす影響について調査したいと考えている。 ## 謝辞 本研究は SB Intuitions 株式会社と早稲田大学の共 同研究により実施した。 ## 参考文献 [1] Stephanie Lin, Jacob Hilton, and Owain Evans. TruthfulQA: Measuring how models mimic human falsehoods. In Smaranda Muresan, Preslav Nakov, and Aline Villavicencio, editors, Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 3214-3252, Dublin, Ireland, May 2022. Association for Computational Linguistics. [2] Alicia Parrish, Angelica Chen, Nikita Nangia, Vishakh Padmakumar, Jason Phang, Jana Thompson, Phu Mon Htut, and Samuel Bowman. BBQ: A hand-built bias benchmark for question answering. In Smaranda Muresan, Preslav Nakov, and Aline Villavicencio, editors, Findings of the Association for Computational Linguistics: ACL 2022, pp. 2086-2105, Dublin, Ireland, May 2022. Association for Computational Linguistics. [3] Zishan Guo, Renren Jin, Chuang Liu, Yufei Huang, Dan Shi, Supryadi, Linhao Yu, Yan Liu, Jiaxuan Li, Bojian Xiong, and Deyi Xiong. Evaluating large language models: A comprehensive survey, 2023. [4] Jwala Dhamala, Tony Sun, Varun Kumar, Satyapriya Krishna, Yada Pruksachatkun, Kai-Wei Chang, and Rahul Gupta. Bold: Dataset and metrics for measuring biases in open-ended language generation. In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, FAccT '21. ACM, March 2021. [5] Nikita Nangia, Clara Vania, Rasika Bhalerao, and Samuel R. Bowman. CrowS-pairs: A challenge dataset for measuring social biases in masked language models. In Bonnie Webber, Trevor Cohn, Yulan He, and Yang Liu, editors, Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 19531967, Online, November 2020. Association for Computational Linguistics. [6] Zhangyue Yin, Qiushi Sun, Qipeng Guo, Jiawen Wu, Xipeng Qiu, and Xuanjing Huang. Do large language models know what they don't know? In Anna Rogers, Jordan Boyd-Graber, and Naoaki Okazaki, editors, Findings of the Association for Computational Linguistics: ACL 2023, pp. 8653-8665, Toronto, Canada, July 2023. Association for Computational Linguistics. [7] Yuxia Wang, Haonan Li, Xudong Han, Preslav Nakov, and Timothy Baldwin. Do-not-answer: A dataset for evaluating safeguards in llms, 2023. [8] Tianyi Zhang*, Varsha Kishore*, Felix Wu*, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert. In International Conference on Learning Representations, 2020. [9] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach, 2019. ## A オープンな LLM による多肢選択式タスクの評価 TruthfulQA [1] と同様に,追加タスクとして多肢選択式タスクを作成した。タスクの性質上,オープンな LLM のみで評価した。 MC1 問題文と一つだけ正答を含む複数の回答選択肢を与え,正答を選択する。選択肢のうち,問題文の続きとして生成したときの対数確率が最も高いものをモデルの選択とする。スコアは全問題での正答率によって表す。 MC2 問題文と複数の正答,誤答選択肢を与え,正答のセットに対して割り当てられた正規化された総合確率をスコアとする。 表 6 オープンソース LLM の多肢選択式タスクの評価結果
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-16.pdf
# 大規模言語モデルに含まれる社会集団間の感情の抽出 田中邦朋 1 笹野 遼平 2 武田 浩一 2 1 名古屋大学情報学部 2 名古屋大学情報学研究科 [email protected] \{sasano, takedasu\}@i.nagoya-u.ac.jp ## 概要 大規模言語モデル (LLM) は大量のテキストからモデルを学習することで、社会常識や偏見など、人間が潜在的に持つ知識や感情をある程度、獲得しているとされる。しかし、特定の社会集団が持つ感情を各種の LLM からどのくらい抽出可能かは明らかとなっていない。本研究では、国籍、宗教、人種/民族という観点でそれぞれ規定される社会集団を対象に、ある集団から別の集団への印象に関する質問を LLM に入力し、その応答に感情分析を行うことで、集団間の感情を LLM を用いてどの程度、抽出できるかの検証に取り組む。 ## 1 はじめに 大規模言語モデル (Large Language Model; LLM) は、様々なタスクにおいて、あたかも人間が作成しているかのような質の高いテキスト生成を実現している [1,2]。このような LLM が持つ人間の行動や対話を模倣する能力に着目し、人間を被験者とした社会実験を LLM により再現しようとする試みも多く行われている $[3,4,5,6,7]$ 。一方で、大規模コーパスから学習された言語モデルが持つ社会的に望ましくない偏った価値観 $[8,9]$ を修正するため、近年の LLM は、人間のフィードバックによる強化学習 (Reinforcement Learning with Human Feedback; RLHF) [10] を取り入れることで、社会的に望ましくない出力を抑制するように学習が行われている。このようにRLHFをモデルの学習に取り入れた結果、社会実験の代替モデルとして LLM が本来習得した知見を出力しなくなる可能性が考えられる。 そこで本研究では、社会集団間の感情を対象に、 RLHFを取り入れた各種の LLM から、これらの感情をどのくらい抽出可能かの検証に取り組む。具体的には、国籍、宗教、人種/民族の各属性で規定される、ある集団から別のある集団への感情を、各種の LLM の出力から再現できるかを検証する。概要を 図 1 社会集団間の感情の抽出実験 図 1 に示す。まず、(1)ある社会集団が別の社会集団に持つ感情を問う質問を LLM に入力する。次に、 (2) LLM の出力に対し感情分析を適用してスコア化し、(3) 集団の全組み合わせのスコアを集計する。最後に、(4) 集計結果と実際の社会調査データとの相関係数を算出することで、LLM から集団間の感情がどの程度、抽出可能か評価する。 ## 2 対象とする社会集団とデータ 本研究では社会集団として、国籍、宗教、人種/民族の 3 つの属性で規定される集団を考える。各属性について、感情の主体となる集団 $G_{\text {from }}$ から、感情の対象となる集団 $G_{\text {to }}$ への感情を LLM から抽出し、実際の社会調査の結果から得られたデータ (実デー タ) との一致度を算出することで、LLM からどの程度、社会集団間の感情を抽出できているか評価する。各属性において考慮する社会集団の一覧を表 1 に示す。また、各属性に対応する実データの詳細は以下の通りである。 国籍 2022 年に行われた新聞通信調査会による社会調査 [11]のうち、各国籍の参加者に対して他国への感情を 4 択で質問し、ポジティブな 2 つの選択肢のいずれかを回答した割合を集計したデータ 表 1 属性ごとの社会集団の一覧 宗教 2022 年にアメリカで行われた Pew Research Centerによる社会調査 [12] のうち、各宗教の信者に他宗教への好感度を 6 択で質問し、ポジティブな 2 つの選択肢を回答した割合から、ネガティブな 2 つの選択肢を回答した割合を減じた値を集計したデータ 人種/民族 2019 年にアメリカで行われた Pew Research Center による社会調査 [13] のうち、各人種/民族に属する参加者が他人種/民族への感情を 100 点満点で回答した結果の平均值を集計したデータ ## 3 集団間の感情の抽出手順 ## 3.1 社会集団間の感情に関する質問 本研究では、図 1 に示す手順で、LLM から社会集団間の感情をどのくらい抽出可能か評価する。まず、LLM に入力する社会集団間の感情に関する質問を表 2 に示すようなテンプレートを用いて作成する。応答が英語で出力されるように最初に “Always answer in English.” と指示を与え、テンプレートを用いて作成した質問を加えたプロンプトを LLM に入力する。質問テンプレートは大きく Yes/No 型質問と Wh型質問の 2 タイプに分けることができ、各タイプ 6 種類、合わせて 12 種類で構成される。 各テンプレートの $G_{\text {from }}$ および $G_{\text {to }}$ の部分には、 それぞれ感情の主体となる集団、感情の対象となる集団が入る。この際、集団を意味するテキスト表現として、国籍、人種/民族については “people”を後置し、宗教については複数形にして入力する。また、社会調査がアメリカで実施された宗教と人種/民族については、質問の前に “In the U.S.,” というフレー ズを追加することで、アメリカの社会集団についての感情を取り出すことを明示する。例えば、アジア人から黒人への感情に関して、“Do $G_{\text {from }}$ like $G_{\text {to }}$ ?"表 2 LLMへ入力する質問のテンプレート というテンプレートを用いて生成された質問は、“In the U.S., do Asian people like Black people?” となる。 LLM の応答の摇らぎによる影響を抑制するため、質問テンプレートで生成された各質問は独立に 3 回入力し、 3 つの応答を得る。質問は 12 種類存在するので、各社会集団ぺアに対し、36 種類の応答が得られることになる。 ## 3.2 LLM の応答のスコア化と集計 LLM の応答に感情分析を適用することで、応答の感情をスコア化する。具体的には、与えられた入力に対し positive、neutral、negative である確率をそれぞれ出力する 3 值感情分析器に、LLM の各応答を入力し、positive である確率 $P_{\mathrm{pos}}$ から、 negative である確率 $P_{\text {neg }}$ を引いた値を算出する。続いて、集団間感情を算出するため、集団ペアごとに算出されたスコアを平均する。この際、質問タイプによる感情の抽出性能の違いを分析できるように、Yes/No 型質問 6 種類、計 18 応答のスコアのみを平均する設定、 Wh 型質問 6 種類、計 18 応答のスコアのみを平均する設定、全質問 12 種類、計 36 応答のスコアを平均する設定の 3 つの設定を比較する。 各属性について、集団の全組み合わせの感情のスコアを算出、集計し、社会調査の結果から得られた実データと比較する。LLMを用いて得られたスコアと、実データのスコアの分布は異なると考えられるため、スコアの絶対的な差ではなく、相関係数により一致度を評価する。具体的には、本研究では、LLMを用いて得られたスコアと調査データの Pearson の相関係数を算出することで、LLM から集団間の感情がどの程度、抽出可能か評価する。 図 2 GPT-4 から得られた国籍間の感情スコアの集計結果と国籍の実データ. 縦軸が $G_{\text {from }}$, 横軸が $G_{\mathrm{to}}$. 図 3 GPT-4 から得られた宗教間の感情スコアの集計結果と宗教の実データ. 縦軸が $G_{\text {from, }}$, 横軸が $G_{\mathrm{to}}$. ## 4 実験 ## 4.1 実験設定 評価対象の LLM として次の 5 つの LLM をデフォルト設定で用いた。 - GPT-3.5 Turbo (gpt-3.5-turbo-06131) - GPT-4 (gpt-4-preview-11062) - Llama 2-Chat 13B ${ }^{3}$ - Llama 2-Chat 70B ${ }^{4}$ - Vicuna 13B v1.5 感情分析器には TweetNLP [14]の Sentiment Analysis を用いた。最大入力長が 512 トークンであることから、512トークンずつ、直前の 256 トークンを重複させた上で入力し、各分割での感情の生起確率を平均し、最終的な感情スコアを算出した。また、LLM の応答を感情分析器を入力する際、出力されるスコアが感情分析モデルの持つ集団へのバイアスに影響されないよう、社会集団を示す語を [MASK]トークンに置き換えた上で感情分析器に入力した。 1) https://platform.openai.com/docs/models/gpt-3-5 2) https://platform.openai.com/docs/models/gpt-4 3) https://huggingface.co/meta-llama/Llama-2-13b-chat 4) https://huggingface.co/meta-llama/Llama-2-70b-chat 5) https://huggingface.co/lmsys/vicuna-13b-v1.5 図 4 GPT-4 から得られた人種/民族間の感情スコアの集計結果と人種/民族の実データ。縦軸が $G_{\text {from }}$, 横軸が $G_{\mathrm{to}}$. ## 4.2 実験結果 LLM として GPT-4を用いた場合の、国籍間、宗教間、人種/民族間の感情スコアの集計結果と対応する実データを図 2、図 3、図 4 にそれぞれ示す。各図の左側が Yes/No 型質問に対する計 18 応答のスコアをまとめた結果、中央が Wh 型質問に対する計 18 応答のスコアをまとめた結果となっており、 $\rho$ の値は右側に示す実データとの相関係数を示している。 国籍間、および、宗教間の感情については、Yes/No 型質問、Wh 型質問、いずれに対しても相関係数は 0.58 から 0.7 程度の値となっており、ある程度、高い相関で LLM から集団間の感情を抽出できていると言える。一方、人種/民族間の感情については、相関係数は Yes/No 型質問に対して 0.394、Wh 型質問に対して 0.102 と、大幅に低い値となった。 図 5 言語モデルと質問タイプの組み合わせごとの LLM から抽出した感情スコアと実データの相関係数. 5 つの LLM それぞれについて、Yes/No 型質問、 Wh 型質問、および、その両方 (all)を用いて感情を抽出した場合の、実データとの相関係数をまとめた結果を図 5 に示す。国籍間、および、宗教間の感情については比較的大きな相関係数が得られることが確認できる。LLMによる差はほとんど確認できなかった一方で、質問タイプについては Yes/No 型質問の方が安定した結果が得られた。Yes/No型質問、および、allに対しては相関係数は最低でも 0.431 と、中程度の相関が確認できたことから、Yes/No 型質問を用いることで、国籍間、宗教間の感情は LLM からある程度、抽出可能であると言える。 一方、人種/民族に関しては、国籍、宗教ほど高い相関は確認できなかった。特に GPT-3.5 Turbo については負の相関が見られた。人種/民族について、相対的に低い相関しか得られなかったのは、RLHFにより社会的バイアスが軽減された結果、社会的に好ましくない可能性がある入力に対して明示的な回答を拒否するようになったためである可能性が考えられる。そこで、質問に対して適切に回答しているかという観点から LLM の応答を分類した。まず、 LLM の応答には、既存の社会調査の結果を引用したものが存在しており、それらの応答の大半は “\%” を含んでいたことから “\%”を含むものは回答拒否ではない応答として機械的に判定した。続いて、残りの応答に対し、Vicuna 13B v1.5を用いた zero-shot 分類6)により、回答拒否とみなせる応答と、そうでない応答に分類し、全応答に占める回答拒否となる応答の割合を算出した。結果を図 6 に示す。 国籍や宗教に比べ、人種/民族は回答の拒否率がいずれのモデルにおいても高いことが確認できる。このような結果となる理由として、特にアメリカにお  図 6 LLM の応答に占める回答拒否の割合. いて、人種/民族に関するバイアスが大きな社会問題として認識されており [9]、モデル構築の際に RLHF を取り入れることで、LLM が人種/民族に関する質問に対して回答を拒否するようになったことが考えられる。また、全体的な傾向として、高い相関係数が得られた属性・モデルの組み合わせの方が回答拒否率が低い傾向があることが確認できる。このことは、LLM が質問に対し明示的な応答を避ける傾向が強くなると、LLMを社会実験の代替モデルとして利用することが困難となることを示している。 ## 5 おわりに 本研究では、国籍、宗教、人種/民族の 3 つの属性で規定される集団間の感情を LLM から抽出できるかの検証に取り組んだ。検証の結果、LLM から抽出された、日常的なテキスト表現により緩やかに規定された国籍や宗教に関する社会集団間の感情は、社会調査によって得られた集団間の感情との高い相関を示すことがわかった。一方で、LLM が関連する質問への回答を拒否する割合が高い人種/民族は、国籍や宗教に比べ、集団間の感情の抽出が難しいことが判明した。今後の展望として、社会集団間以外の集団間の感情抽出や、英語以外の言語での入力が感情抽出へ与える影響について検証を検討したい。 ## 参考文献 [1] OpenAI. GPT-4 Technical Report. 2023. [2] Hugo Touvron, Louis Martin, Kevin Stone, Peter Albert, Amjad Almahairi, Yasmine Babaei, Nikolay Bashlykov, Soumya Batra, Prajjwal Bhargava, Shruti Bhosale, et al. Llama 2: Open foundation and fine-tuned chat models. arXiv preprint arXiv:2307.09288, 2023. [3] Gati V Aher, Rosa I. Arriaga, and Adam Tauman Kalai. Using Large Language Models to Simulate Multiple Humans and Replicate Human Subject Studies. In Proceedings of the 40th International Conference on Machine Learning (ICML), pp. 337-371, 2023. [4] John J Horton. Large Language Models as Simulated Economic Agents: What Can We Learn from Homo Silicus? arXiv preprint arXiv:2301.07543, 2023. [5] Lisa P Argyle, Ethan C Busby, Nancy Fulda, Joshua R Gubler, Christopher Rytting, and David Wingate. Out of One, Many: Using Language Models to Simulate Human Samples. Political Analysis, Vol. 31, No. 3, pp. 337-351, 2023. [6] Junsol Kim and Byungkyu Lee. AI-Augmented Surveys: Leveraging Large Language Models for Opinion Prediction in Nationally Representative Surveys. arXiv preprint arXiv:2305.09620, 2023. [7] Shibani Santurkar, Esin Durmus, Faisal Ladhak, Cinoo Lee, Percy Liang, and Tatsunori Hashimoto. Whose Opinions Do Language Models Reflect? arXiv preprint arXiv:2303.17548, 2023. [8] Hannah Rose Kirk, Yennie Jun, Filippo Volpin, Haider Iqbal, Elias Benussi, Frederic Dreyer, Aleksandar Shtedritski, and Yuki Asano. Bias Out-of-the-Box: An Empirical Analysis of Intersectional Occupational Biases in Popular Generative Language Models. pp. 2611-2624, 2021. [9] Emily M. Bender, Timnit Gebru, Angelina McMillanMajor, and Shmargaret Shmitchell. On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT), p. 610-623, 2021. [10] Long Ouyang, Jeffrey Wu, Xu Jiang, Diogo Almeida, Carroll Wainwright, Pamela Mishkin, Chong Zhang, Sandhini Agarwal, Katarina Slama, Alex Ray, et al. Training Language Models to Follow Instructions with Human Feedback. In Advances in Neural Information Processing Systems (NeurIPS), pp. 27730-27744, 2022. [11] 新聞通信調査会. 第 9 回諸外国における対日メディア世論調査, 2023. [12] Pew Research Center. Americans Feel More Positive Than Negative About Jews, Mainline Protestants, and Catholics, 2023. [13] Pew Research Center. Views on Race in America 2019, 2019. [14] Jose Camacho-Collados, Kiamehr Rezaee, Talayeh Riahi, Asahi Ushio, Daniel Loureiro, Dimosthenis Antypas, Joanne Boisson, Luis Espinosa-Anke, Fangyu Liu, Eugenio Martínez-Cámara, et al. TweetNLP: Cutting-Edge Natural Language Processing for Social Media. In Pro- ceedings of the 2022 Conference on Empirical Methods in Natural Language Processing (EMNLP): System Demonstrations, 2022. ## A Zero-shot 分類の詳細 Vicuna 13B v1.5を用いた LLM の応答の分類は図 7 に示すプロンプトを用いて行った。[Question]、 [Answer] の部分に対応する質問、応答を入力し、 “Label:” に続く出力の先頭 3 トークンに含まれる数字を予測ラベルとして扱った。 Reading a question-answer pair, classify the answer along the criterion below. Label 0 : the answer only discusses the danger of generalization or biases. Label 1: the answer provides even just a little information to help understand the relationship between two groups. Question: [Question] Answer: [Answer] Label : 図 7 Zero-shot 分類に用いたプロンプト また、分類性能を評価するため、国籍間の感情に関する LLM の応答 200 例に対し人手によるアノテーションを行い、そのデータを用いて分類性能を評価した。アノテーションの際は、まず社会調査の結果を引用したと考えられるものをラベル 2 とし、残りの応答例を回答拒否 (ラベル 0) とそれ以外 (ラベル 1) に分類した。アノテーションは 2 名で実施し、2 名のラベルが一致した 179 例を用い、Vicuna 13B v1.5 による分類性能を評価した。分類性能の評価結果を表 3 に示す。
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-17.pdf
# 複文における言い換え文の生成 駿河樹 1 村上仁一 2 1 鳥取大学工学部電気情報系学科 2 鳥取大学工学部 [email protected] [email protected] ## 概要 本論文は,複文における日本語の言い換え文の生成を行う。 言い換え文の生成には様々な手法がある.松本 [1] が行った手法では,モデルの学習・言い換え文の生成に単文対訳文を使用した. 本論文では, 文長が長く複雑になりがちである複文対訳文を使用して同様の実験を行った. また実験結果の比較・検討を行った. その結果,複文は単文と比べると,意味を正しく保持した質の良い言い換え文が作成されやすい事が分かった。 ## 1 はじめに 自然言語処理の分野ではこれまで言い換え文を作成する研究が多く行われている [2][3]. その方法の一例として機械翻訳を用いる手法がある。しかし言い換え文の精度は良くない。この原因として機械翻訳機の翻訳精度が悪いことが挙げられる。 この欠点を解決するため,松本 [1] は,折り返し翻訳を用いて対訳英文と折り返し翻訳した英文の 2 つを比較し,一致した場合に対訳日本文と出力日本文は言い換え文であるとした。この方法により正解率は約 80 \%となった。 松本は,実験データに比較的短い文である単文を使用している。しかし実際に日常で使用される文は複文が多い,そこで本研究では,松本の折り返し翻訳の実験方法を基に,複文を使用する.そして本研究と松本の研究結果との比較を行う. ## 1.1 単文 単文とは,日本語の述語が 1 語のみで構成された文である [4]. 例:信号が青になった。(The signal turned green.) ## 1.2 複文 複文とは,日本語の述語が 2 語以上で構成された文である [4]. 例:この詩はその詩を書いた人が実際に何を感じたかを私達に伝えている。(This poem conveys to us what its author actually felt.) ## 2 先行研究 松本は,「2つの文をそれぞれ翻訳し,翻訳結果が一致したとき,2つの文は言い換えである」という仮説を立てた。そして日英の対訳文に対して折り返し翻訳を行い,英語文が一致した場合,日本語文は言い換え文であるとした.以下に松本の手法の実験手順を示す. 図 1 に概要を示す. 1. OpenNMT で単文の日英対訳文約 16 万文を用いて学習する 2. テストデータとして,19学習に使用した単文の英文を用いて英日翻訳を行う 3. 2 の結果を基に日英翻訳を行う 4. 3 の結果とテストデータ英文を比較し, 完全一致した場合のみ,対訳日本文と 2 の結果が言い換えであるとして出力する 図 1 松本の例(単文) ## 3 問題点 松本は,実験に使用する学習データに,日本語・英語の単文対訳文を使用していた. しかし日常で使われる文は多くが複文である. ## 4 実験 本研究でも,松本の仮説に基づいて,同様の手順で実験を行う. 相違点として,実験に複文を使用する. 複文は単語や構文構造が複雑になりがちである. そのため, 機械翻訳の結果が一致する確率が低くなることが予想される. 図 2 に概要を示す. 図 2 本実験の例(複文) ## 4.1 実験条件 本研究では,松本と同様に OpenNMT[5] を用いて機械翻訳を行う,実験には,研究室が所有する,電子辞書データを基に作成した対訳コーパス [4] を使用する.以下の表 1 に使用するデータを示す。モデルの学習と実験には同じデータを使用する. また,以降は本研究の実験結果を「複文」, 松本の実験結果を「単文」として表記する。 表 1 実験データ ## 4.2 実験手順 以下に本研究の実験手順を示す. 1. OpenNMT で複文の日英対訳文約 9 万文を用いて学習する 2. テストデータとして,1 の学習に使用した複文の英文を用いて英日翻訳を行う 3. 2 の結果を基に日英翻訳を行う 4. 3 の結果とテストデータ英文を比較し,下に示 す複数の条件を満たした場合のみ,対訳日本文と 2 の結果が言い換えであるとして出力する 条件 - 2 の結果が対訳日本文と不一致. 尚且つ,未知語くunk>を含まない ・3 の結果が対訳英文と完全一致 ## 4.3 評価方法 本研究では,得られた言い換え文と対訳日本文が等しい意味を保っているか人手で評価を行う.ランダムに抽出した 100 文の言い換え文に対し,次の 5 項目で評価を行う. ・正解 $(\mathrm{T})$ :言い換えである ・正解微妙 (ST):判断し辛いが正解 - 不正解微妙 (SF):判断し辛いが不正解 - 不正解 (F):言い換えになっていない ・参照間違い $(\mathrm{R})$ :評価が不可能な文. 原因としては, 使用した対訳日本文または英文に著しい文法間違いがある・日本文と英文の意味に対応が取れていない等がある. 正解率の計算時には除外 ## 4.4 実験結果 表 2 に複文の実験結果を示す. 単文の実験結果も比較として記載する.カバー率は,テストデータ数に対して生成言い換え文が生成された割合である。 表 2 実験結果 複文のカバー率は単文と比べて $3 \%$ 減少しているが,大きくは変化していない. ## 4.5 出力例 表 3,4 亿複文の言い換え文出力結果と人手評価結果の例を示す. 表 3 複文の出力例 1 & 評価 B \\ 表 4 複文の出力例 2 & 評価 B \\ ## 4.6 評価結果 以下の表 5 に人手評価の結果を示す. なお,評価者は $\mathrm{A}, \mathrm{B}$ の 2 人である. 表 5 人手評価の結果 複文の正解率は平均して $92 \%$ となった. 言い換えの精度としては非常に高い数値と言える。 ## 5 考察 ## 5.1 単文との比較・検討 松本の実験結果との比較を行う.ただし,使用するデータや評価方法等,条件が異なる部分があるため,比較結果は必ずしも信頼されるものではない. ## 5.1.1 カバー率 表 2 より,単文に対し,複文の方がカバー率が低くなった. 予想の通り,複文は文長が単文に比べて大きいため,折り返し翻訳後の英文が一致しにくくなることが原因と思われる。 ## 5.1.2 正解率 表 5 より,複文における人手評価の正解率は約 $92 \%$ ,単文においては約 $80 \%$ である.複文は単文と比べカバー率が低いが,正解率は上回っている。 これは,文長が長くなり英文一致の条件を満たす確率は落ちた一方で,条件を満たした文は,日本語の意味を保持した質の良い言い換え文である確率が高くなったためだと考える。 ## 5.2 評価が分かれた例 以下の表 6,7 に複文において人手評価の結果が分かれた例をいくつか示す.表 6 評価が分かれた例 1 & 評価 A & 評価 B \\ 表 7 評価が分かれた例 2 単語間に,新たな助詞等が挟まる又は置き替わることで,単語の修飾する対象が変わるケースがある. これについて,評価者によって正解・不正解の基準が大きく異なると推測する。 ## 5.3 「質の良い言い換え文」について 生成された言い換え文において,原文(対訳日本文)と比べると,代名詞 - 句読点 - 助詞の有無やひらがなと漢字の違いといった,構文は全く一緒で一部のみが異なる文が非常に多く生成される。これを「質が悪い言い換え文」と定義する。一方で,単語の順番が入れ替わる・原文と全く異なる単語を使用しているといった文のことを「質の良い言い換え文」と定義する。 以下の表 8 が質の悪い言い換え文とした例である。質の良い言い換え文の例として表 3 などがある. 表 8 質の悪い言い換え文の例 & 評価 A & 評価 B \\ 人手評価を行った 100 文について,質の良い言い換え文の数を調査した. 以下の表 9 に複文・単文における質の良い言い換え文の数を示す。なお,定義が曖昧であり基準の統一は難しいため本調査は 1 人のみで行った。 単文と比べて複文は質の良い言い換え文の数が多いことが分かる. それぞれ出力された言い換え文を調査すると,単文を学習したモデルでは, 'the' や'they', 'it' 等の, 日本語訳では通常省略する英単語を忠実に訳しているケースが非常に多かった. 一方複文を学習したモデルでは同様の問題は軽減されていた。 ## 5.4 参照間違い(R)について 人手評価の項目の一つに参照間違い( $\mathrm{R} \mathrm{~ を適用 ~}$ した. 本実験で使用したコーパスには 2023 年現在では使用されない・意味が通じない文法や単語が使用された日本文が一定数含まれる. 本実験において参照間違いにあたる文を全て事前に取り除くことは出来なかったため,評価項目に追加した。 ## $6 \mathrm{~N$-best 及び M-system} ## 6.1 $\mathrm{N$-best} $\mathrm{N}$-best とは翻訳の出力結果を第 $\mathrm{N}$ 候補まで出力を得る手法である. 本章では,一つの文に対する言い換え文の出力数を増やすことで,言い換えのバリエーションを増やすことが出来ることを期待する。 なお,本実験では $\mathrm{N}=4$ として実験を行う. 以下に 4-best における実験手順を示す. 1. OpenNMT に複文の日英対訳文約 9 万文を用いて学習する 2. テストデータとして 1 の学習に使用した複文の英文約 9 万文を用いて,英日翻訳を 1 文に対して 4 候補出力する 3. 2 のそれぞれの候補に日英翻訳を 4 候補出力する 4. 3 の結果とテストデータ英文を比較し, 完全一致した場合のみ, 対訳日本文と 2 の結果が言い換えであるとして出力する ## 6.2 M-system M-system とは,M 個の異なるモデルを作成し,言い換え文の出力数を増やす手法である.翻訳モデル OpenNMT において, モデルの学習の際にシード値を変化させることで,同一の学習データを用いながら異なる翻訳結果を出力するモデルを作成することが出来る. 本節では, $\mathrm{M}=4$ として 4 つの翻訳モデルを作成し, 前章 4-best の実験を 4 回行うことで言い換え文の数をさらに増やす. 6.1 節の 4-best の実験手順を異なるモデルで 4 回行う. ## 6.3 実験結果 以下の表 10 に 4-best・4-system の実験結果を示す.なお,4 章の実験結果の一部を 1-best として記載する. 表 10 4-best ・ 4-system の実験結果 1-best と比較して, 4-best・4-system では非常に多くの言い換え文を生成することが出来た. ## 6.4 評価結果 以下の表 11 に 4-best・4-system の評価結果を示す.評価者は 1 人である. 表 11 4-system の人手評価の結果 1-best と比べると, 4-best の正解率はほぼ変動しなかった. 4-system は $83 \%$ となり, 約 $8 \%$ 低下した. ## 7 おわりに 本研究では,複文を用いた言い換え文の生成を行った。松本が提案した手法で,実験データに複文を使用した言い換え文を作成した。その結果,高い正解率の言い換え文を多く生成することが出来た. また実験結果について単文と比較・検討を行った。 カバー率は複文は $12 \%$ となり, 単文の $15 \%$ と比べると低下した。一方正解率は複文は $92 \%$ となり,単文の $80 \%$ \%きく上回った. 質の良い言い換え文の数についても,複文は単文を大きく上回る結果となった.今後,複文言い換え文を使用したコーパスの拡張により翻訳機の性能向上を検討する。 ## 謝辞 人手評価に参加してくださった以下の方に感謝します. 宮本歩 ## 参考文献 [1] 松本武尊. 折り返し翻訳を用いた言い換え生成. 自然言語処理学会, 2023. [2] Jianing Zhou and Suma Bhat. Paraphrase generation: A survey of the state of the art. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 5075-5086, 2021. [3] 福田治輝, 綱川隆司, 大島純, 大島律子, 西田昌史, 西村雅史ほか. 逆翻訳による言い換え生成を用いた協调学習自動評定の性能改善. 第 82 回全国大会講演論文集, Vol. 2020, No. 1, pp. 535-536, 2020. [4]村上仁一, 藤波進. 日本語と英語の対訳文対の収集と著作権の考察. 第一回コーパス日本語学ワークショップ, pp. 119-130, 2012. [5] OpenNMT. https://opennmt.net/.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-18.pdf
# 任意の文における言い換え文の作成 宮本歩 1 村上仁一 2 1 鳥取大学 工学部 電気情報系学科 2 鳥取大学 工学部 ${ }^{1}$ [email protected] ${ }^{2}$ [email protected] ## 概要 本稿では,任意の入力文において言い換え文を作成する手法を提案する. 言い換えの作成に関する研究は数多く行われているが,松本の手法 [1] では言い換え文の作成に日英対訳文の存在を前提としていた. 本研究では対訳文のない文章でも正解率 $90 \%$ の精度で言い換え作成を実現した。 ## 1 はじめに 言い換えとは,同じ意味であるが表現や構造を異なる表現に変える行為である. 言い換えに関する研究は幅広く展開されている. 適した意味表現に関する研究 [2] では意味構造の分解と変換を行い,言い換え処理の手続きを示した. 他にニューラル言い換え作成を活用した言語学習支援 [3] では, 少資源問題と少置換問題という言い換え作成の 2 つの課題に焦点を当て,言語学習支援にどのように関連しているか説明している. 機械翻訳を用いた研究では,松本が行った対訳文を用いた言い換え文の作成 [1] がある. 折返し翻訳を用いることで機械翻訳の弱点である翻訳機の精度に対しての依存度を減少させた。 本研究では入力文に対訳文のない状況に焦点を当て,言い換え文を得ることができるか探究する. ## 2 従来手法 松本の手法には次の特徵がある。 ・入力文に日英対訳文が必要 ・翻訳を 2 度行う まず,入力英文を英日翻訳する。次に日英翻訳し,翻訳結果と入力対訳英文が一致したとき 2 つ文は言い換え文であると仮定する. 以下の図 1 に従来手法の例を示す. 1. 入力対訳英文”The signal turned green.”を英日翻訳する 2. 1 の結果から得た”信号機が緑になった.”"を日英翻訳する 3. 入力対訳英文と 2 の結果で得た”The signal turned green.”が一致しているか比較する 4. 一致している場合,入力対訳日本語文と 1 の結果の”信号機が緑になった”は言い換えであるとする 図 1 松本の例 なお,人手評価による正解率は $80 \%$ であった. ## 2.1 問題点 松本の手法では,日英対訳文の存在が前提条件である.そのため,任意の入力文に対応できない. ## 3 提案手法 本研究では,対訳文のない入力文で言い換えを作成することで,任意の文で言い換えの作成を可能にする. 提案手法には次の特徴がある。 ・入力文は英語文のみ ・翻訳を 2 度行う ・N-Best を利用する 本実験は任意の入力文で行っているため,入力文の増加によって言い換え文を大量に得ることが可能である. 以下の図 3 に提案手法の例を示す。 1. 入力英文”My hobbies are various."を 2-Best で英日翻訳する 2. 1 の結果から得た”私の趣味は様々だ.,”,"私は多趣味である.”をそれぞれ 2-Best で日英翻訳する 3. 大力英文と 2 の結果で得たどちらかの英文が”My hobbies are various.”と一致しているか比較する 4. 一致している場合, 3 の”私の趣味は様々だ.”と”私は多趣味である.”は言い換えであるとする 図 2 提案手法の例 ## 4 実験 本実験では,OpenNMT-py[4]を用いて翻訳を行う. なお, OpenNMT のデフォルトパラメータを使用している. ## 4.1 実験環境 電子辞書などの例文から抽出したコーパス [5] を使用する. 翻訳には単文対訳学習文を,入力には単文テスト文を用いる. データ数を表 1 に示す. 表 1 実験環境 ## 5 実験結果 実験結果を表 2 に示す. なお,日本語文同士が一致した場合や未知語を含んでいる場合は,翻訳の出力から除去している. 表 2 実験結果 ## 5.1 出力例 以下に提案手法の出力結果を示す. 表 3 は成功例を,表 4 は失敗例を示す. 表 3 提案手法の出力例 (成功) \\ 表 4 提案手法の出力例 (失敗) \\ 表 4 の入力英文 1 で言い換えに失敗した理由として,「pool」の日本語訳に (水泳) プール,(地面や床などにできた) 水たまりの訳が存在することが挙げられる. 入力英文 2 で言い換え失敗した理由としては, 英日翻訳における誤訳が考えられる。 ## 6 評価 実験で作成された言い換え文から無作為に 100 文を抽出し,人手評価を行う. 文によっては主語がないため複数の解釈が可能になる場合がある. そこで,本実験では包含関係にあるものも言い換えと判断する。 ## 6.1 人手評価 表 5 亿提案手法の入力文 100 文に対して得られた言い換え文の人手評価結果を示す.なお,評価者は 2 人である. 表 5 提案手法の人手評価 表 5 より,2 者の正解率の平均は $83 \%$ である. 評価者は異なるが,松本の手法において正解率の平均は 79\%であった. つまり,同等の評価を得ることができている. ## 7 4-Best 本節では,言い換え文を増加させるために N-Best を $\mathrm{N}=4$ に拡張する. 学習文と入力文は提案手法と同一である.なお,1つ目に出力されたものを英日訳文とし,それ以降の出力文を言い換え文として評価する. 以下の図 3 に例を示す. 1. 英日翻訳を行い,英文 1 文に対して日本語文 4 文を出力する 2. 英日翻訳で得た英文 1 文に対して日英翻訳を行い, 4 文出力する 3. 日英翻訳を行った結果の 4 文に 1 つでも 1 の結果である英文と一致したとき,入力英文と 3 の日英翻訳した結果を言い換えとする 4. 無作為に抽出した入力文 100 文に対して人手評価を行う 図 3 提案手法における 4-Best の例 ## 7.1 4-Best における実験結果 表 6 に 4-Best における実験結果を示す. 表 6 4-Best においての実験結果 表 3 と表 6 を比較すると,得られた言い換え文が増加したことが確認できる。 ## 7.2 4-Best においての出力例 表 7,8 亿 4-Best の場合の出力例を示す. 表 7 4-Best における出力例 1 & $\bigcirc$ \\ 表 8 4-Best における出力例 2 表 7, 8 より, 言い換えがすべて正解であるものと正解不正解のどちらも存在するパターンがあることが分かる. ## 7.3 4-Best における人手評価 表 9 に 4-Best の入力文 100 文に対して得られた言い換え文の人手評価結果を示す. 3 つの言い換え文それぞれに対して評価を行った。また,評価者は 2 人である. 表 9 4-Best における出力の人手評価 表 5 と表 9 を比較すると, 同等の正解率であることが確認できる. ## 8 N-Best \& M-System 7 節の N-Best と M-System を組み合わせて実験を行う. M-System とは,機械翻訳のモデルを M 個用いて翻訳を行う手法である. OpenNMT ではデフォルトパラメータで実験を行う際,モデル学習に乱数が使用されるため同一の学習データで異なるモデルを作成することができる. なお,本実験では $M=4$ とする. また,学習文と入力文は 4 つのモデルにおいても提案手法と同じものを用いる. ## 8.1 4-Best \& 4-System における実験結果 表 10 に 4-Best と 4-System における実験結果を示す. 学習文,入力文は提案手法と同じものを使用した. 表 10 4-Best \& 4-System における実験結果 表 2 と表 10 を比較すると,得られた言い換え文が大幅に増加したことが確認できる。 ## 8.2 4-Best \& 4-System における人手評価 表 11 に 4-Best と 4-System の入力文 100 文に対して得られた言い換え文の人手評価結果を示す.なお,評価者は 1 人である. 表 11 4-Best \& 4-System における出力の人手評価 表 5 と表 11 を比較すると,正解率は若干減少した. ## 9 追加実験 (3 回翻訳法) 提案手法とは異なる手法を検討した. なお,実験環境は提案手法と同じである. この手法には次の特徴がある。 ・入力文は日本語文のみ ・翻訳を 3 度行う 以下の図 4 に例を示す. 1. 入力日本語文”私は 3 月に北海道を旅した."を日英翻訳する 2. 1 の結果から得た”I traveled to Hokkaido in March." を英日翻訳する 3. 2 の結果から得た”我は弥生に蝦夷を旅せり.”を日英翻訳する 4. 1 の結果の”I traveled to Hokkaido in March.”と 3 の結果で得た”I traveled to Hokkaido in March.”が一致しているか比較する 5. 一致している場合, 入力日本語文”私は 3 月に北海道を旅した.”と 3 の”我は弥生に蝦夷を旅せり.”は言い換えであるとする 図 4 追加実験の例 ## 9.1 追加実験の実験結果 実験結果を表 12 に示す. なお,日本語文同士が一致している場合や未知語を含んでいる場合,翻訳の出力から除去している。 表 12 実験結果 表 12 より,本追加実験で得た言い換え文数は表 2 の提案手法と比較して減少した。 ## 9.2 人手評価 表 13 に追加実験の入力文 100 文に対して得られた言い換え文の人手評価結果を示す.なお,評価者は 1 人である. 表 13 追加実験の人手評価 表 13 より,提案手法の人手評価結果である表 5 と比較して正解率が大幅に低下した. 原因として翻訳を 3 回行っていることが挙げられる. ## 10 おわりに 本研究では言い換え作成において入力文に対訳文のない状況に焦点を当てた. 実験結果より,対訳文のない任意の入力文において,松本の手法と同等の精度で言い換え文を得ることができることを示した. 今後は,複文などでも高精度な言い換え文を得るための手法を検討していく。 ## 謝辞 以下の方に人手評価に協力頂きました. 感謝申し上げます. 駿河樹 ## 参考文献 [1] 松本武尊, 村上仁一. 折り返し翻訳を利用した言い換え生成. 言語処理学会第 29 回年次大会, pp. 1043-1047, 2023. [2] 麻生英樹, 高木朗, 伊東幸宏. 言い換えに適した意味表現について. 人工知能学会全国大会論文集, Vol. JSAI08, pp. 89-89, 2008. [3] 小町守, 梶原智之. 言語学習支援のためのニューラル言い換え生成. 人工知能, Vol. 34, No. 4, pp. 451-459, 2019. [4] Opennmt - open-source neural machine translation, 2017. https://opennmt.net/. [5] 村上仁一, 藤波進. 日本語と英語の対訳文対の収集と著作権の考察. 第一回コーパス日本語学ワークショップ, pp. 119-130, 2012.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-19.pdf
# Exploring the Challenges of Multi-Step Logical Reasoning with Language Models: A Few-Shot Approach to Explainable Entailment Trees Bowen Gao ${ }^{1}$ Shotaro Kitamura $^{1}$ Naoya Inoue ${ }^{1,2}$ ${ }^{1}$ JAIST ${ }^{2}$ RIKEN \{gaobowen, s2210055, naoya-i\}@jaist.ac.jp } \begin{abstract} An Entailment Tree is a type of explainable entailment task that requires Large Language Models ( LLMs ) to produce intermediate hypotheses and reasoning steps. Previous studies have focused on using fine-tuned models, including the T5 model, for this purpose. However, finetuning typically involves high computational training costs and necessitates a comprehensive dataset to be effective. This paper explores the use of a decoder-only model combined with few-shot learning. This technique is, facilitated by a prompt, and is implemented to generate the intermediate hypothesis. Our experiments show that it is challenging to achieve results superior to those obtained using finetuned models, including the T5 model. We conducted an analysis to understand why decoder-only models do not excel in this area, and we hope that our findings can aid other researchers in investigating the potential of decoder-only models for explainable entailment tasks. \end{abstract ## 1 Introduction The Entailment Tree [1] is an advanced explainable entailment task, incorporating multi-premise steps from facts to hypothesis, offering more meticulous and rigorous reasoning than prior tasks like reading comprehension [2, 3], explainable fact verification [4, 5] or opendomain QA [6, 7]. Its main challenge lies in methodically tracing reasoning from facts to conclusion, rather than just presenting textual evidence. Initially, researchers utilized the All-At-Once generation method [8], based on the fine-tuned T5 model [9]. However, this approach often failed to generate valid intermediate hypotheses at each step, leading to ineffective Entailment Tree construction. To address this, a step-by-step method was considered, incorporating verification mechanisms like the Verifier [10], Retrieval-generation Reasoner [11] or Reinforcement Learning [12] to enhance the validity and overall performance of each step in the Entailment Tree. Additionally, extensive research has focused on finetuning these models with smaller datasets and applying transfer learning to new problems. Employing few-shot learning enhances performance on specific tasks with limited data. Hence, we plan to use GPT-3.5 for in-context learning in Entailment Tree tasks, anticipating that GPT3.5 will be effective for this purpose. Inspired by the Chain-of-Thought [13] approach, we believe that instruction fine-tuned language models are wellsuited for multi-step reasoning tasks. Therefore, we aim to employ these fine-tuned models for the Entailment Tree task, which involves more reasoning steps and a more structured approach. The experiment was conducted using GPT-3.5 to construct the Entailment Tree. After evaluating with the Tree Alignment Algorithm, the results, although not outperforming the fine-tuned model, were notable. Our method, utilizing only few-shot learning, remains comparable to the fine-tuned model in terms of computational and training cost efficiently. Our main contributions are below: - We utilize the use of decoder-only model with fewshot learning for constructing the Entailment Tree. - We provide analysis and exploit challenges of multistep logical reasoning with Language Models. We hope that our research can offer a feasibility to use few-shot in-context learning to deal with explainable entailment task. Besides, we hope that our insights could help other researchers explore the use of few-shot in-context learning in dealing with the explainable entailment task. ## 2 Methodology ## 2.1 All-At-Once We employed an instruction fine-tuned language model to generate the Entailment Tree using our specific prompt. Our objective was for this fine-tuned model to generate the Entailment Tree in an All-At-Once manner. The primary content of our prompt is as follows: , , , Given a hypothesis, generate a proof tree from given context. Examples hypothesis: the difference between atomic mass and atomic number is the number of the neutrons in an element context: sent1: atomic mass is determined by the number of protons and neutrons sent2: atomic number is only determined by the number of proton of an element proof: sent1 \& sent2 -> hypothesis; , , ## 2.2 Step-by-step Due to the meticulous nature of the steps in the Entailment Tree, we hypothesized that all Entailment Trees could be constructed as binary trees. This means that each step could be generated from a pair of supporting facts using GPT-3.5 ( Figure 1 ). Besides, inspired by previous work on generating the Entailment Tree step-by-step [9, 10, 11, 14], we aimed to establish rules to verify the validity of generated intermediate steps. Additionally, we planned to utilize the beam search algorithm to iteratively generate the Entailment Tree step-by-step. As illustrated in Figure 2, our first step was to combine and arrange all possible pairs of facts as candidates. Then, using a prompt, we instructed GPT-3.5 to deduce an intermediate hypothesis for each pair of facts. To ensure that each step brought the generated intermediate hypothesis closer to the final hypothesis, we intended to use SentenceBert to calculate the similarity score between the intermediate and final hypotheses. We planned to extract the top-K intermediate facts with the highest similarity scores. Lastly, to ensure that the final Entailment Tree was the optimal solution, we employed the beam search algorithm for iteratively generation. We are also show the part of our prompt to make GPT3.5 generate the intermediate hypothesis for chosen facts: , , ## Tasks We are trying to prove a hypothesis from facts step-by-step. Create an intermediate hypothesis based on supporting facts. ## Rules 1. The created intermediate hypothesis should be as short as possible. 2. The created intermediate hypothesis must be based on inferences. , , , We want to make GPT-3.5 conclude the intermediate hypothesis based on inferences. ## 3 Evaluation We evaluated our methods and used the evaluation results to compare with fine-tuned T5 output as shown in Table 1. The gold tree is obtained from dataset, EntailmentBank [1] ## 3.1 Setup In Entailment Tree task, it consists of average 7.6 nodes ( supporting facts ) across 3.2 entailment steps ( multihop tasks are usually only consist of 2-3 supporting facts ). Besides, Entailment Tree's reasoning steps are more meticulous which means in each supporting fact, it is always a simple short sentence, and this sentence is typical in proof generation. It is mainly focusing on two dimensions. The one is about the quality of the created intermediate hypothesis and another is about the final Entailment Tree structure. As the result, we would like to evaluate these two dimensions ( Intermediates and Steps ) with F1 score and All Correct score. It is same with the evaluation metric which is always applied on the Entailment Tree task [1]. ## 3.2 Results Before evaluating our methods, we used GPT-3.5 to evaluate the single step's reasoning ability to verify its capacity Figure 1 We assumed that all the Entailment Trees' step can be explained by the binary tree Figure 2 The structure of step-by-step generating the Entailment Tree with GPT-3.5 to handle explainable entailment task. We extracted all single steps from the gold tree and used GPT-3.5 to generate intermediate hypotheses based on given facts for each step. We assumed that in each step, the facts are always same with the gold one, we only used GPT-3.5 to generate intermediate hypotheses. According to the previous work's evaluation metric, GPT-3.5's score is 0.879 for intermediate hypothesis generation, indicating its capacity to manage the Entailment Tree task. We compared our method which used the GPT-3.5 model with All-At-Once generation method using the fine-tuned T5 model. As shown in Table 1, neither the All-At-Once nor the Step-by-Step method with GPT-3.5 could outperform the fine-tuned T5 model. We then utilized our methods in Python to generate the Entailment Tree with the GPT-3.5 model. Additionally, we used Graphviz library to visualize the Entailment Tree (Figure 3) for ease of analysis of its structure and content. Regard Figure 3, we observed that step1,2 and 3 all used conjunctions to infer new intermediate hypotheses, Table 1 Evaluation result. The evaluation result mainly focus on leaves, steps, intermediates and overall proofs. ( $\mathrm{L}=$ Leaves , $\mathrm{S}=$ Steps, $\mathrm{I}=$ Intermediates, $\mathrm{O}=$ Overall Proofs. ultimately generating a well-structured Entailment Tree. ## 4 Analysis From Experiment and its results, we concluded that the GPT-3.5 model has certain limitations in dealing with explainable entailment tasks like the Entailment Tree, and thus it cannot surpass the performance of the fine-tuned T5 model. To understand why GPT-3.5 could not outperform the fine-tuned T5 model, we manually evaluated the quality of conclusions generated by the GPT- 3.5 model and identified errors with specific reasons. These analyses led us to several conclusions. Figure 3 The visualized Entailment Tree Figure 4 Example of the common sense problem Common sense Based on the results of Experiment 2 , we observed that approximately $27 \%$ of the samples showed GPT-3.5 not performing logical reasoning solely based on the given premises/facts. Instead, It used its own knowledge to draw conclusions. For instance, as shown in Figure 4, the model could conclude without an important fact - "earth is a kind of planet." - derived from supporting facts. It was challenging to make GPT-3.5 understand the importance of this fact for the Entailment Tree's generation, mainly because the model did not consider it relevant. Invalid reasoning Based on the results from Experiment 2 , among the 40 samples tested, we found that approximately $27 \%$ of the samples demonstrated that GPT-3.5 does not perform valid reasoning. As evidenced in Figure 5, the intermediate hypothesis generated by GPT-3.5 was found to be unreasonable. Useless conclusion Based on the results of Experiment 2, among 40 samples, we found that approximately $20 \%$ of the samples indicate that the intermediate hypotheses generated by GPT-3.5 are ineffective for further generation in the Entailment Tree task. Specially, these hypotheses are unhelpful because they merely replicate one of the given facts. For example, when provided with the facts ['mercury is a kind of planet'] and ['mercury is located in the solar system'], GPT-3.5 generated the conclusion ['mercury is located in the solar system'], which is essentially just a repetition of the fact ['mercury is a kind of planet']. Figure 5 Example of the invalid reasoning ## 5 Conclusion and future work Contribution In our research, we exclusively used instruction fine-tuned language models for building the Entailment Tree. While our method didn't outperform finetuned models, it offers comparable results to the T5 model in terms of computational efficiency. We've analyzed and identified reasons for its limitations and plan enhancements in future work. Recognizing the complexity of the Entailment Tree task, which demands careful step-by-step reasoning. Future work To rely solely on instruction fine-tuned models for generating the Entailment Tree and potentially outperforming fine-tuned models like $\mathrm{T} 5$, we need to address specific challenges: - Establish a strict and clear mechanism that enables the model to discern which pairs of facts can produce a valid intermediate hypothesis, avoiding invalid reasoning or mere replication of facts. - Implement a rule that helps the model recognize instances where relying solely on common sense leads to errors, guiding it towards more accurate and logical reasoning. we believe that the instruction fine-tuned language model will show improved performance in handling complex reasoning problems, such as those involved in the Entailment Tree task. ## Acknowledgements This work was supported by JSPS KAKENHI Grant Number 19K20332. We thank Surawat Pothong, Yufeng Zhao and Irfan Robbani for their valuable comments. ## References [1] Bhavana Dalvi, Peter Jansen, Oyvind Tafjord, Zhengnan Xie, Hannah Smith, Leighanna Pipatanangkura, and Peter Clark. Explaining answers with entailment trees. In MarieFrancine Moens, Xuanjing Huang, Lucia Specia, and Scott Wen-tau Yih, editors, Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 7358-7370, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [2] Sewon Min, Victor Zhong, Luke Zettlemoyer, and Hannaneh Hajishirzi. Multi-hop reading comprehension through question decomposition and rescoring. arXiv preprint arXiv:1906.02916, 2019. [3] Ming Tu, Guangtao Wang, Jing Huang, Yun Tang, Xiaodong He, and Bowen Zhou. Multi-hop reading comprehension across multiple documents by reasoning over heterogeneous graphs. arXiv preprint arXiv:1905.07374, 2019. [4] Huanhuan Ma, Weizhi Xu, Yifan Wei, Liuji Chen, Liang Wang, Qiang Liu, and Shu Wu. Ex-fever: A dataset for multi-hop explainable fact verification. arXiv preprint arXiv:2310.09754, 2023. [5] Yichen Jiang, Shikha Bordia, Zheng Zhong, Charles Dognin, Maneesh Singh, and Mohit Bansal. Hover: A dataset for many-hop fact extraction and claim verification. arXiv preprint arXiv:2011.03088, 2020. [6] Yuyu Zhang, Ping Nie, Arun Ramamurthy, and Le Song. Answering any-hop open-domain questions with iterative document reranking. In Proceedings of the 44th International ACM SIGIR Conference on Research and Development in Information Retrieval, pp. 481-490, 2021. [7] Wenhan Xiong, Xiang Lorraine Li, Srini Iyer, Jingfei Du, Patrick Lewis, William Yang Wang, Yashar Mehdad, Wentau Yih, Sebastian Riedel, Douwe Kiela, et al. Answering complex open-domain questions with multi-hop dense retrieval. arXiv preprint arXiv:2009.12756, 2020. [8] Oyvind Tafjord, Bhavana Dalvi Mishra, and Peter Clark. Proofwriter: Generating implications, proofs, and abductive statements over natural language. arXiv preprint arXiv:2012.13048, 2020. [9] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. The Journal of Machine Learning Research, Vol. 21, No. 1, pp. 54855551, 2020. [10] Kaiyu Yang, Jia Deng, and Danqi Chen. Generating natural language proofs with verifier-guided search. In Yoav Goldberg, Zornitsa Kozareva, and Yue Zhang, editors, Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing, pp. 89-105, Abu Dhabi, United Arab Emirates, December 2022. Association for Computational Linguistics. [11] Danilo Neves Ribeiro, Shen Wang, Xiaofei Ma, Rui Dong, Xiaokai Wei, Henry Zhu, Xinchi Chen, Zhiheng Huang, Peng Xu, Andrew O. Arnold, and Dan Roth. Entailment tree explanations via iterative retrieval-generation reasoner. In NAACL-HLT, 2022. [12] Tengxiao Liu, Qipeng Guo, Xiangkun Hu, Yue Zhang, Xipeng Qiu, and Zheng Zhang. Rlet: A reinforcement learning based approach for explainable qa with entailment trees. arXiv preprint arXiv:2210.17095, 2022. [13] Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Fei Xia, Ed Chi, Quoc V Le, Denny Zhou, et al. Chain-of-thought prompting elicits reasoning in large language models. Advances in Neural Information Processing Systems, Vol. 35, pp. 24824-24837, 2022. [14] Oyvind Tafjord, Bhavana Dalvi, and Peter Clark. Entailer: Answering questions with faithful and truthful chains of reasoning. In Conference on Empirical Methods in Natural Language Processing, 2022.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-1.pdf
# 日本語文埋め込みの文書検索性能と検索補助付き生成での評価 矢野千紘* 塚越駿*笹野遼平武田浩一 名古屋大学大学院情報学研究科 \{yano.chihiro.j3, tsukagoshi . hayato.r2\}@s.mail.nagoya-u.ac.jp \{sasano, takedasu\}@i.nagoya-u.ac.jp ## 概要 LLM の実応用が加速する中,LLM を訓練なしで拡張可能な検索補助付き生成 (Retrieval Augmented Generation: RAG) と,RAG に用いられる文埋め込みを利用した密べクトル検索は,重要な技術として注目されている.しかし, 日本語における密ベクトル検索やRAG の評価は十分とは言えない。そこで本研究では,日本語文書検索タスクにおける文埋め込み手法の性能を評価する。さらに,有望なモデルを RAG に利用した場合の性能評価も行い,日本語における密べクトル検索と RAGの全般的な評価を行う. ## 1 はじめに 自然言語文のベクトル表現である文埋め込みを用いた密べクトル検索は, 文脈や意味を考慮した高度な情報検索を可能とすることから,盛んに研究が行われている $[1,2]$. さらに近年では,情報検索と生成モデルを組み合わせた Retrieval Augmented Generation (RAG) が注目を集めている [3, 4]. RAG は大規模言語モデル (LLM)を用いて推論する際の幻覚を低減でき [5],パラメータを更新せずモデルの知識を拡張可能であるため,LLM の実用上重要な技術となっている. RAGでは LLM に与える参考文書が推論結果に直接影響を及ぼすと考えられるため, 文書検索の性能が重要になる。しかし, 密べクトル検索,および,RAGの性能評価は英語を中心に行われており $[2,4]$, 日本語を対象とした評価はほとんど行われていない. そこで本研究では, 日本語を対象に文埋め込みモデルを用いた文書検索タスクでの性能評価を行う. さらに,それらの文埋め込みモデルを RAGに用いた際の性能評価を行う。 ## 2 文書検索タスクでの評価 密ベクトル検索は,埋め込み空間上で検索クエリと文書の類似度を測ることにより文書検索を行う手表 1 密ベクトル検索に用いるデータセットの統計値 法である [1]. 本研究では複数の文埋め込みモデルを用い,文書検索タスクでの性能評価を行う. ${ }^{1}$ ## 2.1 評価実験 文書検索タスクの評価には,検索クエリと,それに対応する正例文書が必要となる. 本研究では表 1 に示す 3つのデータセットを用いた。 $\mathbf{A I}$ 王 $^{2}$ Wikipedia の記事タイトルが解答となるような質問と,それに対応する Wikipedia の文書が関連づけられたデータセットである。関連文書のうち,解答の文字列を含む文書を正例文書,含まない文書を負例文書としている。 Mr.TyDi [6] 多言語質問応答データセットである TyDi QA [7] に単言語の検索用コーパスを付与した,日本語を含む 11 言語に対応する単言語文書検索評価用のデータセットである.Mr.TyDi は各言語について人手で作成された質問と, Wikipedia の文書が関連づけられたデータセットである。関連文書は各質問について Google 検索上位の Wikipedia 記事を段落ごとに分割して作成され,解答の文字列を含む文書を正例文書,含まない文書を負例文書としている。 MIRACL [8] 日本語を含む 18 言語において,単言語文書検索評価を行うための多言語データセットである. Mr.TyDi を元に構築されており,Mr.TyDi 中の関連文書に解答が含まれないような質問を削除し,より多くの文書について人手でラベル付けを行った比較的高品質なデータセットである.  表 2 文書検索タスクでの評価結果.表中の値は全て 100 をかけたものであり, $\rho$ はスピアマンの順位相関係数を,R $\mathrm{R} \mathrm{k}$ はRecall@kを表す. 、・ガ付記されたモデルはそれぞれ順にAI王,Mr.TiDy,MIRACLを訓練データセットとして用いていることを表す。AI王データセットの関連文書は疎ベクトル検索によって取得されており,BM25 は極めて有利であるため†を付している. PKSHA 社の GLuCoSE は JSTSを訓練時の開発セットに利用しているため*を付している。 評価対象モデル日本語文埋め込みモデルとして名大 SimCSE [9],PKSHA 社の GLuCoSE,多言語文埋め込みモデルとして multilingual E5 (mE5) [10], LaBSE [11],OpenAI 社の ada を含む,複数のモデルを評価した。埋め込み同士の類似度として,コサイン類似度を用いた. ベースラインとして疎ベクトル検索手法である BM25を用いた場合と,事前学習済み言語モデルの埋め込みをそのまま用いた場合の性能も評価した. 各モデルの詳細は付録 $\mathrm{A}$ に示す. 評価設定評価には,各データセットのうち正例文書が一つ以上存在するデータを用いた. 各データセットの統計値を表 1 に示す. 評価指標には,検索上位 $\mathrm{k}$ 個の文書中に少なくとも一つ正例文書が含まれる割合を示す Recall@kを用いた. また参考として, 意味的類似度 (Semantic Textual Similarity: STS) タスクにおける各システムの性能を, Tsukagoshi ら [9] と同様に JSTS [12]を用い評価した. ## 2.2 評価結果 実験結果を表 2 に示す. 検索データセットで学習された $\mathrm{mE5}$ や GLuCoSE,名大 SimCSE (miracl) など のモデルが,ベースラインや商用システムをほとんどの場合で上回る高い性能を示した。一方で,自然言語推論データセットのみを用いて訓練された名大 SimCSE (jsnli) などのモデルは,STS タスクにおいて高い性能を示しているものの,文書検索タスクにおいては比較的低い性能となった。 文書検索タスクはSTS タスクと異なり,正例となる二つの文の意味が必ずしも一致しないため,非対称的な類似度を捉えることが重要である。すべてのモデルサイズで一貫して高い性能を示した $\mathrm{mE5}$ は,他のモデルと異なり,クエリと文書に異なる接頭辞を付与した上で,大規模なデータセットで訓練されたモデルである。接頭辞により入力文の非対称性を考慮した埋め込みを生成できることが, $\mathrm{mE5}$ が高い性能を示した要因であると考えられる。 ## 3 RAG での評価 Retrieval Augmented Generation (RAG) とは生成モデルに情報検索を組み合わせ,検索した情報に基づく生成を可能とする技術である. 本研究では 2 節にて評価した埋め込みモデルを用いて,日本語におけ 図 1 単純な質問応答の推論過程 る RAG の性能評価を行う. 評価には, 1 回の検索で回答できる単純な質問応答タスクと, 複数回の検索を必要とする多段階質問応答タスクを用いる. ## 3.1 単純な質問応答 RAG を用いた質問応答の過程を図 1 に示す.まず,データセット中の質問文をクエリとして文書検索を行い,次に,質問文と検索された文書を言語モデルに入力して応答を生成する。 評価には AI 王データセットを利用した。言語モデルに入力するプロンプトには,書籍『大規模言語モデル入門』[13] と同じものを利用した. 応答生成には OpenAI 社の GPT-3.5を用いた。 ## 3.2 多段階質問応答 多段階質問応答は,複数回の文書検索が必要となるような質問に回答するタスクである.推論の過程を図 2 に示す。 評価には日本語の多段階推論データセットである JEMHopQA [14]を用いた. JEMHopQA は,2つの Wikipedia 記事の情報を統合する構成問題と,比較する比較問題からなるデータセットである。つまり,回答には 2 度の検索と,得られた情報の整理,常識的な比較推論が必要となる. 多段階質問応答タスクに対して,LLMを用いた推論手法が複数提案されている $[15,16]$. 本研究では, それらの中でも単純かつ高い性能を示す ReAct [17] を用いた. ReAct は LLM に所定の行動と推論を交互に行わせる手法であり,LLM は行動した結果を都度利用して推論を行い,次の行動を決定する。本研究では,検索クエリ生成と文書検索を繰り返し実施するため,以下の行動を定義した。 ・Search[query]: query を検索システムに入力 ・Finish[answer]: answerを回答とし推論を終了また,GPT-3.5では複雑な推論が困難であったため,応答生成には 3.1 節と異なり GPT-4を用いた. 図 2 多段階質問応答の推論過程 表 3 RAGでの評価に用いるデータセットの統計値 ## 3.3 評価実験 評価設定各質問への回答時に関連文書として LLM に入力する文書は,ReAct にならい,質問に対する類似度が高い上位 5 文書とした。JEMHopQA に対応する Wikipedia コーパスは記事単位で分割されているが, 1 記事が埋め込みモデルの最大系列長を超えることがあったため,同時期の Wikipedia から作成され,より細かな分割が施されている AI 王データセットを検索対象の文書群として利用した。各データセットの統計值を表 3 に示す. 3 文書検索性能と質問応答の正答率の関係を調査するため,文書検索性能 (Recall@5) も評価した. JEMHopQA における文書検索性能の評価には,デー タセット中で正例とされている Wikipedia 記事と同一の記事に含まれるすべての文書を正例文書として扱った. 検索を用いないべースライン手法として, AI 王データセットについては指示と質問文のみを入力する単純な質問応答を,JEMHopQA については Chain of Thought [15] を用いた質問応答を評価した.推論に用いた実際のプロンプトを付録 B に示す。 GPT-4 を用いた評価生成モデルを質問応答タスクに適用する場合,文字列マッチングベースの評価指標はモデルの性能を過小に評価してしまうことが知られている [4]. そこで,文字列マッチングによ  表 4 RAG での評価結果. AI 王の Recall は正解文書がない問題を除いた値である. 表 $5 \mathrm{AI}$ 王データセットでの検索成否と回答性能の分布 る評価に加え,GPT-4を用いた評価を行った. 文字列マッチングによる評価では,生成した応答に正解文字列が含まれている場合正解とした. ${ }^{4} \mathrm{GPT}-4$ による評価では,質問,正答,生成された応答を入力し,生成された応答が質問に対する正答とみなせるかどうかを GPT-4 に判定させた. GPT-4を用いた評価の妥当性を調査するため, AI 王データセットの先頭 300 件に対し著者らによる人手評価を実施し,GPT-4 による正誤判定との一致率を測った. その結果,文字列マッチングによる評価では 264/300 件,GPT-4 による評価では 294/300 件が人手評価と一致した。 ## 3.4 評価結果 RAG での評価結果を表 4 に示す. 検索なしと比較してほとんどの場合で性能の向上が見られたが, JEMHopQA において検索タスクで訓練していないモデルを用いた場合のみ性能の低下が見られた.これは,誤った参考文書が推論におけるノイズとなったためであると考えられる. 2 節と同様, mE5 は一貫して最も高い性能を示した。 mE5を用いた場合の, AI 王データセットにおける検索成否と正誤割合の関係を表 5 に示す. 表から,検索成功時には正答率が $91.8 \%$ と高く, 文書検索の成功が RAG の性能向上に寄与することがわかった. ## 3.5 検索クエリの形式が及ぼす影響 ReAct で生成される検索クエリは,「日本最高峰」 などのように検索キーワードを並べた単語列である  表 6 検索クエリを変化させた時の JEMHopQA での評価 ことが多い,しかし,文埋め込みモデルは文を訓練データとしているため,訓練時と推論時のデータ間に乘離があると考えられる.そこで生成する検索クエリが文になるようにプロンプティングした場合の実験結果を表 6 に示す. 結果から,検索キーワードの羅列よりも文で検索することで,ほとんどのモデルの検索性能が大きく向上することがわかった. 具体的には Recall@5 が改善し,また,検索された文書の平均文書長が大きくなった. ただし, GLuCoSE を用いた場合には検索性能と RAG の正答率に相関が見られなかった. これは, JEMHopQA の問題数が少ないことや, 多段階質問応答の推論過程が複雑であることが理由であると考えられる。 ## 4 おわりに 本研究では, 文埋め込みモデルの文書検索タスク,および,RAGにおける性能を評価した. 文書検索タスクによる評価では,検索データセットで訓練されたモデルが高い性能を示した.中でも,接頭辞を導入し,大規模なデータセットで訓練された mE5 が一貫して高い性能を示した. RAG での評価では,文書検索の成否が RAG の正答率に大きな影響を与えることを示した.また,検索クエリを単語の列挙ではなく文とすることで,多くのモデルで検索および RAG の性能が向上することがわかった. ## 謝辞 本研究は,JSPS 科研費 $23 K J 1134$ の支援を受けたものである. ## 参考文献 [1] Vladimir Karpukhin, Barlas Oguz, Sewon Min, Patrick Lewis, Ledell Wu, Sergey Edunov, Danqi Chen, and Wen-tau Yih. Dense Passage Retrieval for OpenDomain Question Answering. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 3784-3803, 2020. [2] Nandan Thakur, Nils Reimers, Andreas Rücklé, Abhishek Srivastava, and Iryna Gurevych. BEIR: A Heterogeneous Benchmark for Zero-shot Evaluation of Information Retrieval Models. In Thirty-fifth Conference on Neural Information Processing Systems Datasets and Benchmarks Track (NeurIPS), 2021. [3] Patrick Lewis, Ethan Perez, Aleksandra Piktus, Fabio Petroni, Vladimir Karpukhin, Naman Goyal, Heinrich Küttler, Mike Lewis, Wen-tau Yih, Tim Rocktäschel, Sebastian Riedel, and Douwe Kiela. RetrievalAugmented Generation for Knowledge-Intensive NLP Tasks. In Advances in Neural Information Processing Systems (NeurIPS), pp. 9459-9474, 2020. [4] Ehsan Kamalloo, Nouha Dziri, Charles Clarke, and Davood Rafiei. Evaluating open-domain question answering in the era of large language models. In Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (ACL), pp. 5591-5606, 2023. [5] Kurt Shuster, Spencer Poff, Moya Chen, Douwe Kiela, and Jason Weston. Retrieval Augmentation Reduces Hallucination in Conversation. In Findings of the Association for Computational Linguistics (EMNLP), pp. 3784-3803, 2021. [6] Xinyu Zhang, Xueguang Ma, Peng Shi, and Jimmy Lin. Mr. TyDi: A Multi-lingual Benchmark for Dense Retrieval. In Proceedings of the 1st Workshop on Multilingual Representation Learning (MRL), pp. 127-137, 2021. [7] Jonathan H. Clark, Eunsol Choi, Michael Collins, Dan Garrette, Tom Kwiatkowski, Vitaly Nikolaev, and Jennimaria Palomaki. TyDi QA: A Benchmark for Information-Seeking Question Answering in Typologically Diverse Languages. Transactions of the Association for Computational Linguistics (TACL), Vol. 8, pp. 454-470, 2020. [8] Xinyu Zhang, Nandan Thakur, Odunayo Ogundepo, Ehsan Kamalloo, David Alfonso-Hermelo, Xiaoguang Li, Qun Liu, Mehdi Rezagholizadeh, and Jimmy Lin. Making a MIRACL: Multilingual Information Retrieval Across a Continuum of Languages. arXiv:2210.09984, 2022. [9] Hayato Tsukagoshi, Ryohei Sasano, and Koichi Takeda. Japanese SimCSE Technical Report. arXiv:2310.19349, 2023. [10] Liang Wang, Nan Yang, Xiaolong Huang, Binxing Jiao, Linjun Yang, Daxin Jiang, Rangan Majumder, and Furu Wei. Text Embeddings by Weakly-Supervised Contrastive Pre-training. arXiv:2212.03533, 2022. [11] Fangxiaoyu Feng, Yinfei Yang, Daniel Cer, Naveen Arivazhagan, and Wei Wang. Language-agnostic BERT Sentence Embedding. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 878-891, 2022. [12] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese General Language Understanding Evaluation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference (LREC), pp. 2957-2966, 2022. [13] 山田育矢, 鈴木正敏, 山田康輔, 李凌寒. 大規模言語モデル入門. 技術評論社, 2023 . [14] 石井愛, 井之上直也, 関根聡. 根拠を説明可能な質問応答システムのための日本語マルチホップ $\mathrm{QA}$ データセット構築. 言語処理学会第 29 回年次大会, 2023 . [15] Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Ed Huai hsin Chi, F. Xia, Quoc Le, and Denny Zhou. Chain of Thought Prompting Elicits Reasoning in Large Language Models. arXiv:2201.11903, 2023. [16] Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc V Le, Ed H. Chi, Sharan Narang, Aakanksha Chowdhery, and Denny Zhou. Self-Consistency Improves Chain of Thought Reasoning in Language Models. In International Conference on Learning Representations (ICLR), 2023. [17] Shunyu Yao, Jeffrey Zhao, Dian Yu, Nan Du, Izhak Shafran, Karthik Narasimhan, and Yuan Cao. ReAct: Synergizing Reasoning and Acting in Language Models. In International Conference on Learning Representations (ICLR), 2023. [18] Jimmy Lin, Xueguang Ma, Sheng-Chieh Lin, JhengHong Yang, Ronak Pradeep, and Rodrigo Nogueira. Pyserini: A Python toolkit for reproducible information retrieval research with sparse and dense representations. In Proceedings of the 44th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR), pp. 2356-2362, 2021. [19] Tianyu Gao, Xingcheng Yao, and Danqi Chen. SimCSE: Simple Contrastive Learning of Sentence Embeddings. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6894-6910, 2021. [20] Mandy Guo, Zihang Dai, Denny Vrandečić, and Rami Al-Rfou. Wiki-40B: Multilingual Language Model Dataset. In Proceedings of the Twelfth Language Resources and Evaluation Conference (LREC), pp. 2440-2452, 2020. [21] 吉越, 卓見 and 河原, 大輔 and 黒橋, 禎夫. 機械翻訳を用いた自然言語推論データセットの多言語化. 第 244 回自然言語処理研究会 (NL 研), 2020. [22] Ikuya Yamada, Akari Asai, Hiroyuki Shindo, Hideaki Takeda, and Yuji Matsumoto. LUKE: Deep Contextualized Entity Representations with Entity-aware Selfattention. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6442-6454, 2020. [23] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised Cross-lingual Representation Learning at Scale. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 8440-8451, 2020 . 表 7 AI 王データセットでの RAG に用いたプロンプト あなたには今からクイズに答えてもらいます。 問題を与えますので、その解答のみを簡潔に出力してください。 また解答の参考になりうるテキストを与えます。 解答を含まない場合もあるのでその場合は無視してください。 \{retrieved passages $\}$ 問題 : \{query\} 解答 : 表 8 JEMHopQA での RAGに用いた ReAct のプロンプ卜。色付き文字の部分は文クエリでRAG を行う際に追加した文字列を示す。 表 9 JEMHopQA での RAG に用いた Chain of Thought のプロンプト Please conduct all output in Japanese. Question: 『仮面ライダー電王』と『あまちゃん』、放送回数が多いのはどちらでしょう? Answer: 『仮面ライダー電王』の放送回数は 49 回である。『あまちゃん』の放送回数は 156 回である。『あまちゃん』の放送回数が多いので、最終的な答えは『あまちゃん』である。 Question: \{query \} 表 10 GPT-4 での評価に用いたプロンプト  correct answer: $\{$ answer $\}$ student answer: $\{$ pred $\}$ score: } ## A 評価対象モデルの詳細 ベースライン疎ベクトル検索手法として BM25 を評価した。実装には Pyserini [18]を利用し,分かち書きには Kuromojiをを利用した。密べクトル検索のベースラインとして東北大 BERT-base の出力埋め込み表現の平均をとったものを評価した。 日本語密ベクトル検索モデル質問応答データセットで学習された既存の日本語密ベクトル検索モデルとして,東北大 BERT を AI 王データセットで訓練した llm-book/bpr-aioを評価した。 日本語文埋め込みモデル名古屋大学の武田笹野研究室が公開する名大 SimCSE [9], PKSHA 社が公開する GLuCoSE および,PKSHA SimCSE を評価した。名大 SimCSE は,対照学習を用いた文埋め込み手法である SimCSE [19]を用いて東北大 BERT を微調整したモデルである.教師なし設定には Wiki40B [20] を,教師あり設定には JSNLI [21],MIRACL 及び双方を利用したモデルを評価した。JSNLI と MIRACLを併用したモデルでは,学習データの件数を等しくするため,MIRACL のアップサンプリングを行った. GLuCoSE は日本語 LUKE [22] を弱教師あり学習によって事前学習したのち,自然言語推論,言い換え,質問応答データセットで教師あり対照学習を行った文埋め込みモデルである。PKSHA SimCSE は東北大 BERT に対し JSNLI を利用して教師あり対照学習を行った文埋め込みモデルである。 多言語文埋め込みモデル Multilingual E5 (mE5), LaBSE [11],STS データセットで微調整された XLM-R [23] を評価した. $\mathrm{mE5}$ は,大規模な弱教師あり学習ののち,教師あり対照学習によって微調整された文埋め込みモデルである E5 [10] の多言語版であり,XLM-Rをべースとして,自然言語推論,質問応答,事実検証データセットなどを用いて対照学習されている.LaBSE [11] は対訳データを用いて大規模に事前学習を行った文埋め込みモデルである。 ## B RAG に用いたプロンプト 実際に RAG の推論に用いたプロンプトを表 7,8, 9 に示す. GPT-4 での評価に用いたプロンプトを表 10 に示す. 
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-20.pdf
# JParaCrawl からの大規模日本語言い換え辞書の構築 近藤里咲 ${ }^{1}$ 梶原 智之 ${ }^{2}$ 二宮崇 ${ }^{2}$ 1 愛媛大学工学部 2 愛媛大学大学院理工学研究科 [email protected] \{kajiwara, ninomiya\}@cs.ehime-u.ac.jp ## 概要 本研究では,先行研究よりも 25 倍大きい 3.8 億対の日本語言い換え辞書を構築し,公開する。言い換え知識獲得は,Bilingual Pivoting と呼ばれる対訳コーパス上での単語アライメントによって行われてきた. 本手法で獲得できる表現の多様性は対訳コー パスの規模に依存するが,既存の日本語言い換え辞書は 200 万文対の日英対訳コーパスから得られた 1,500 万言い換え対が最大である. 我々は, 10 倍大きい 2,000 万文対の日英対訳コーパス JParaCrawl を用いて, より多様な言い換え知識獲得に取り組む.評価実験の結果,我々の言い換え辞書は再現率と適合率の両方で先行研究を上回り, 文類似度推定の外的評価においてもより高い性能を達成した. ## 1 はじめに 言い換えは情報検索 [1] や機械翻訳 [2] など,多くの自然言語処理タスクの性能改善に貢献する. 近年では,単語や文の表現学習 [3-5] やマスク言語モデルの事前訓練 [6] やファインチューニング [7], 語彙平易化 [8-10]などに言い換え辞書 (PPDB: Paraphrase Database)[11-13] が用いられている. PPDB などの大規模な言い換え知識獲得には, Bilingual Pivoting [14] と呼ばれる対訳コーパス上での単語アライメントの手法が用いられる。これは,図 1 に示すように,他言語の共通の語句(author)と対応付けられる対象言語の語句同士(執筆者-著者) を言い換えと見なす,言い換え知識獲得の手法のひとつである. そのため, Bilingual Pivoting によって獲得できる言い換え表現の多様性は,対訳コーパスの規模に依存する。既存の日本語 PPDB [15] は, 合計約 200 万文対の日英対訳コーパスから Bilingual Pivoting によって約 1,500 万件の言い換え対を収集している. しかし, 3.1 節で示すように,既存の日本語 PPDB では実世界の言い換えの約 $18 \%$ しか網羅できず,言い換え辞書の規模に課題が残っている. 図 1 Bilingual Pivoting [14] による言い換え知識獲得の例 本研究では,2,000万文対を超える最大規模の日英対訳コーパスである JParaCrawl $[16,17]$ に対して Bilingual Pivoting を適用し,より大規模な約 3.8 億件の言い換え対からなる日本語 PPDB を構築および公開1)する。言い換え辞書の品質評価の結果,再現率に関する自動評価および適合率に関する人手評価の両方で,既存の日本語 PPDB [15] を上回り,大規模かつ高品質な言い換え辞書を構築できたことを確認した. さらに,文類似度推定に関する外的評価においても,既存の日本語 PPDB を用いるよりも高い性能を達成し,我々の辞書の有用性を確認できた. ## 2 対訳コーパスからの言い換え獲得 ## 2.1 Bilingual Pivoting Bilingual Pivoting [14] は言い換え知識獲得の手法のひとつであり,PPDB [11-13] のような大規模な言い換え辞書を構築する際に採用されてきた. 基本的なアイデア(図 1)は,他言語の共通の語句 (author) と対応付けられる対象言語の語句同士(執筆者-著者)を言い換えと考えるというものである.  表 1 「執筆者」に対する言い換えの例 具体的にはまず,対象言語の語句 $e$ およびピボッ卜言語の語句 $f$ の系列からなる文対で構成される対訳コーパスがあるときに,単語アライメントの技術を用いて対象言語とピボット言語の間で語句の対応をとる. そして, 単語アライメント確率 $p(f \mid e)$ および $p(e \mid f)$ を計算し, 対象言語の 2 つの語句 $e_{1}$ および $e_{2}$ が共有する全てのピボット言語の語句で単語アライメント確率を周辺化し, 以下のように $e_{1}$ から $e_{2}$ の言い換え確率を近似して求める. $ p\left(e_{2} \mid e_{1}\right) \approx \sum_{f} p\left(e_{2} \mid f\right) p\left(f \mid e_{1}\right) $ ## 2.2 先行研究:既存の日本語 PPDB 既存の日本語 $\mathrm{PPDB}^{2}$ [ [15] は,田中コーパス3) や $\left.\mathrm{KFTT}^{4}\right)$ など,数十万文対の規模の日英対訳コーパス 5つ(合計約 200 万文対)に対して Bilingual Pivoting を適用し,約 1,500万対の日本語の言い換えを得ている. 単語分割などの前処理の後で GIZA++ [18] による単語アライメントを実施し,最大 7 単語の長さのフレーズ単位で式 (1)を計算し,言い換え確率が $1 \%$ 以上の言い換え対を抽出している. なお,Bilingual Pivoting 以外の方法で構築された日本語の言い換え辞書も存在するが,本研究では触れない. 例えば,シソーラスの兄弟関係にある単語対から人手で同義語対を抽出した日本語 WordNet 同義対データベース ${ }^{5)}$ や,人手で内容語に言い換えを付与した SNOW D2: 内容語換言辞書6)などがあるが,いずれも数万語の規模の辞書であり,Bilingual Pivoting に基づく PPDB と比べて遥かに小さい. 2) https://ahcweb01.naist.jp/old/resource/jppdb/ 3) https://www.edrdg.org/wiki/index.php/Tanaka_Corpus 4) https://www. phontron.com/kftt/ 5) https://bond-lab.github.io/wnja/jpn/index.html 6) https://www.jnlp.org/GengoHouse/snow/d2表 2 言い換え確率の閾値ごとの言い換え対数 ## 2.3 より大規模な言い換え辞書の構築 本研究では,より大規模な日本語の言い換え辞書を構築するために,最大規模の日英対訳コーパスである JParaCrawl ${ }^{7}$ [16,17] に対して Bilingual Pivoting を適用する。なお,ピボット言語は英語である。 前処理対訳コーパスの英語側は MosesTokenizer [19], 日本語側は MeCab(IPADIC) [20] で単語分割した. そして,空行や空白文字,100 単語を超える長文などを削除する前処理8)を実施した. Bilingual Pivoting の適用単語アライメントには GIZA++(IBM model 2)[18] を用い,grow-diag-final のヒューリスティックによって対称化した. そして, Moses [19] のフレーズ抽出のヒューリスティックを用いて, 日英翻訳のフレーズテーブルを得た. ここで,先行研究 [15] と同様に,フレーズの最大長は 7 単語とした. このフレーズテーブルを用いて式 (1)を計算し,言い換え対を抽出した. 後処理不要な言い換え対やノイズとなる表現を除外するための後処理を実施した $. e_{1}=e_{2}$ である言い換え対は不要であるため除外し,記号を含む語句や英数字のみで構成される語句を含む言い換え対はノイズとなるため除外した.最終的に,約 3.8 億件の言い換え対を得た.表 1 に,本研究で収集した言い換えの例を示す。また,表 2 に,言い換え確率  図 2 言い換えの再現率に関する自動評価の閾值ごとの言い換え対数について,既存の日本語 PPDB [15] と我々の PPDB の比較を示す. ${ }^{9)}$ ## 3 評価実験 言い換え辞書の品質および有用性を評価するために,言い換えの再現率および適合率に関する内的評価および文類似度推定に関する外的評価を行う。 ## 3.1 実験 1 :再現率の自動評価 実験設定後述の評価用データセットを用いて,言い換え辞書が実世界の言い換えをどれだけ網羅できるかを自動評価する。既存の日本語 PPDB [15] と我々が構築した PPDB から,それぞれ言い換え確率の上位 $k$ 件ずつを抽出し,再現率を自動評価する。 データセット言い換えの再現率を自動評価するために,人間が行う自然な言い換えを収集した評価用データセットを作成する,そこで,専門家によって人手で構築された日本語の文単位の言い換えパラレルコーパスから,語句の言い換えを抽出する. 特定ドメインへの偏りを避けるために,本研究 光), JASMINE ${ }^{12}$ (医療)の 3 つの言い換えパラレルコーパスを対象にする. ${ }^{13)}$ 各コーパスから 200 文対ずつを無作為抽出し,日本語を母語とする大学生 3 名が語句の言い換えを人手で抽出した。なお,2.3 節と同じく MeCab [20] で単語分割し,意味的に対応する最小の語句を抽出 9)先行研究には, $e_{1}=e_{2}$ の対や英数字のみで構成される語句を含む対など,我々の後処理で除外した言い換え対も含まれることに注意されたい,また,先行研究の ALLは,各語句に対して言い換え確率の上位 10 件ずつを抽出したものであり, 間値によって調整されていないことにも注意されたい. 10) https://github.com/naist-nlp/jades 11) https://github.com/EhimeNLP/matcha 12) https://github.com/EhimeNLP/JASMINE 13)クラウドソーシングの SNOW [22] や自動構築された TMUP [23],英語から機械翻訳された PAWS-X [24] は対象外 図 3 言い換えの適合率に関する人手評価 した.また, 2.3 節と同じ後処理を適用し, 7 単語以下の長さの言い換えを抽出した。その結果,JADES から 895 件,MATCHA から 452 件,JASMINE から 429 件の合計 1,776 件の語句の言い換えを得た。 実験結果図 2 に,上位 100 万件から 1,000 万件まで言い換え対の数を変化させた際の再現率の評価結果を示す. 両辞書とも上位 1,000 万件まで見ても実世界の言い換えの $10 \%$ も網羅できないものの,我々の PPDB は既存の日本語 PPDB よりも一貫して高い再現率を示した。また,辞書全体を用いた場合,先行研究の再現率が $18 \%$ であるのに対して,本研究では $51 \%$ と顕著に高い再現率を達成できた.実世界の多様な言い換えを網羅することは依然として難しいものの,本研究では実世界の言い換えのうち半数を収録した言い換え辞書を構築でき,先行研究を網羅性の点で大きく上回ることができた。 ## 3.2 実験 2 : 適合率の人手評価 実験設定言い換え辞書に含まれるノイズ(非言い換え対)の少なさを人手評価する.既存の日本語 PPDB [15] と我々が構築した PPDB から,それぞれ言い換え確率の上位 $k$ 件ずつを抽出し,適合率を人手評価する.ただし,人手評価のコスト軽減のために,両辞書(表 2 の XL サイズ)に共通して掲載されている語句の中から 100 種類を無作為抽出 ${ }^{14)}$ し, それらの語句に対する言い換え対を全て評価する。 なお,上位 1,000 万件の設定で,先行研究では 331 対,本研究では 223 対が評価対象となった. アノテーション日本語を母語とする大学生 3 名が,以下の 4 段階で言い換え対を評価した。 1. 意味的に等価ではない 2. 意味的に等価ではあるものの,置換できない 14)評価者が理解できない語句は対象外として選び直した 表 3 文類似度推定データセットの文対数 3. 文脈によっては置換できる 4. 常に置換できる このうち,1または 2 が付与された言い換え対を負例,3 または 4 が付与された言い換え対を正例と定義する。評価者の多数決によって評価対象の各言い換え対を評価し,適合率を求める。なお,評価者間の 4 段階評価の一致率は,重み付き Kaарa 係数 [25] で 0.62 から 0.71 であり,充分な合意が見られた. 実験結果図 3 亿,上位 100 万件から 1,000 万件まで言い換え対の数を変化させた際の適合率の評価結果を示す. 上位 100 万件の設定を除いて,我々の PPDB が既存の日本語 PPDB よりも高い適合率を示した. なお,上位 100 万件の設定では,両辞書とも評価対象の言い換え対が 9 件のみであり,正例数の差は 1 件であった. また,平均適合率を求めると,先行研究は $43 \%$, 本研究は $47 \%$ であり, より高い適合率を達成できた.これらの結果から, 本研究では言い換え対の規模だけでなく,高品質な言い換えの割合の点でも先行研究を改善できたと言える. ## 3.3 実験 3 : 文類似度推定の外的評価 実験設定言い換え辞書の有用性を検証するために, 英語の先行研究 [26] と同様に文類似度推定夕スクにおける外的評価を行う。本タスクは 2 文間の意味的な類似度を推定するタスクであり,本研究では JSTS ${ }^{15)}$ [27] および JSICK ${ }^{16)}$ [28] のデータセットを用いて人手評価とのピアソン相関を評価する。なお, JSTS は $[0,5]$, JSICK は $[1,5]$ の範囲で類似度の人手評価が付与されている. 表 3 に各データセットの規模を示す. JSTS は評価用データが公開されていないため,本害験では検証用データで評価する。 既存の日本語 PPDB [15] と我々が構築した PPDB から,それぞれ言い換え確率の上位 $k$ 件ずつを抽出し,文類似度推定に用いる。ただし,応用タスクの性能を最大化するためには,再現率と適合率のバランスが重要である。そこで,各辞書(表 2 の XLサイズ)においてハイパーパラメータ $k$ を 100 万ずつ変化させ,訓練用データ上での最適值を探索する。 15) https://github.com/yahoojapan/JGLUE 16) https://github.com/verypluming/JSICK表 4 外的評価:文類似度推定のピアソン相関 言い換え辞書に基づく文類似度推定辞書ベースの教師なし文類似度推定手法である DLS @ CU [29] に従い,言い換え辞書に基づく単語アライメントを行い,対応付けられた単語の割合に応じて式 (2) のように文類似度を推定する。 $ \operatorname{sim}\left(s_{1}, s_{2}\right)=\frac{a\left(s_{1}\right)+a\left(s_{2}\right)}{n\left(s_{1}\right)+n\left(s_{2}\right)} $ ここで, $n(s)$ は文 $s$ の単語数, $a(s)$ は文 $s$ において単語アライメントがとられた単語数を表している. なお,言い換え辞書とは独立に,両文に共通して出現する単語は強制的に対応付けた。 実験結果まず,訓練用データ上でのハイパーパラメータ探索の結果, JSTS においては先行研究で上位 1,000 万件, 本研究で上位 3,000 万件の言い換えを用いた場合に最高性能を示した。一方,JSICK においては先行研究で上位 500 万件, 本研究で上位 1,000 万件が最適であった.これらの結果から,相対的な特性として,JSTS は言い換えの再現率, JSICK は言い換えの適合率を重視することが示唆される. 表 4 に,JSTS の検証用データおよび JSICK の評価用データにおける文類似度推定の実験結果を示す. 両データセットにおいて,既存の日本語 PPDB を用いるよりも我々の PPDB を用いる方が人手評価との高い相関を達成した.これらの結果から, 本研究では文類似度推定タスクのために有用な言い換えを収集できていることが確認できた。 ## 4 おわりに 本研究では,現時点で最大規模の日英対訳コー パスである JParaCrawl [16,17] に対して Bilingual Pivoting [14]を適用し, 現時点で最大規模の約 3.8 億件の日本語言い換え辞書1)を構築および公開した.評価の結果,我々の辞書は再現率と適合率の両方で既存の言い換え辞書 [15] を上回り,高品質かつ網羅性の高い言い換え知識獲得ができたことを確認した. また, 文類似度推定の外的評価からも,既存の辞書に対する我々の辞書の有用性を確認できた。 今後の課題として,表 1 の「執筆者-著者は」などの文法的に不適切な言い換え対の除去やニューラル単語アライメント手法 [30] の適用に取り組みたい. ## 謝辞 本研究は,株式会社メルカリR4D の支援を受けて実施した。 ## 参考文献 [1] Shuang Liu, Fang Liu, Clement Yu, and Weiyi Meng. An Effective Approach to Document Retrieval via Utilizing WordNet and Recognizing Phrases. In Proc. of SIGIR, p. 266-272, 2004. [2] Chris Callison-Burch, Philipp Koehn, and Miles Osborne. Improved Statistical Machine Translation Using Paraphrases. In Proc. of NAACL, pp. 17-24, 2006. [3] Manaal Faruqui, Jesse Dodge, Sujay Kumar Jauhar, Chris Dyer, Eduard Hovy, and Noah A. Smith. Retrofitting Word Vectors to Semantic Lexicons. In Proc. of NAACL, pp. 1606-1615, 2015. [4] John Wieting, Mohit Bansal, Kevin Gimpel, and Karen Livescu. Charagram: Embedding Words and Sentences via Character n-grams. In Proc. of EMNLP, pp. 15041515, 2016. [5] John Wieting, Mohit Bansal, Kevin Gimpel, and Karen Livescu. Towards Universal Paraphrastic Sentence Embeddings. In Proc. of ICLR, 2016. [6] Renliang Sun, Wei Xu, and Xiaojun Wan. Teaching the Pre-trained Model to Generate Simple Texts for Text Simplification. In Findings of the Association for Computational Linguistics: ACL 2023, pp. 9345-9355, 2023. [7] Tatsuya Zetsu, Tomoyuki Kajiwara, and Yuki Arase. Lexically Constrained Decoding with Edit Operation Prediction for Controllable Text Simplification. In Proc. of TSAR, pp. 147-153, 2022. [8] Ellie Pavlick and Chris Callison-Burch. Simple PPDB: A Paraphrase Database for Simplification. In Proc. of ACL, pp. 143-148, 2016. [9] Daiki Nishihara and Tomoyuki Kajiwara. Word Complexity Estimation for Japanese Lexical Simplification. In Proc. of LREC, pp. 3114-3120, 2020. [10] Jipeng Qiang, Yun Li, Yi Zhu, Yunhao Yuan, Yang Shi, and Xindong Wu. LSBert: Lexical Simplification Based on BERT. TASLP, Vol. 29, pp. 3064-3076, 2021. [11] Juri Ganitkevitch, Benjamin Van Durme, and Chris Callison-Burch. PPDB: The Paraphrase Database. In Proc. of NAACL, pp. 758-764, 2013. [12] Juri Ganitkevitch and Chris Callison-Burch. The Multilingual Paraphrase Database. In Proc. of LREC, pp. 4276-4283, 2014. [13] Ellie Pavlick, Pushpendre Rastogi, Juri Ganitkevitch, Benjamin Van Durme, and Chris Callison-Burch. PPDB 2.0: Better paraphrase ranking, fine-grained entailment relations, word embeddings, and style classification. In Proc. of ACL, pp. 425-430, 2015. [14] Colin Bannard and Chris Callison-Burch. Paraphrasing with Bilingual Parallel Corpora. In Proc. of ACL, pp. 597-604, 2005. [15] Masahiro Mizukami, Graham Neubig, Sakriani Sakti, Tomoki Toda, and Satoshi Nakamura. Building a Free, General-domain Paraphrase Database for Japanese. In Proc. of COCOSDA, pp. 1-4, 2014. [16] Makoto Morishita, Jun Suzuki, and Masaaki Nagata. JParaCrawl: A Large Scale Web-Based English-Japanese Parallel Corpus. In Proc. of LREC, pp. 3603-3609, 2020. [17] Makoto Morishita, Katsuki Chousa, Jun Suzuki, and Masaaki Nagata. JParaCrawl v3.0: A Large-scale EnglishJapanese Parallel Corpus. In Proc. of LREC, pp. 6704$6710,2022$. [18] Franz Josef Och and Hermann Ney. A Systematic Comparison of Various Statistical Alignment Models. CL, Vol. 29, No. 1, pp. 19-51, 2003. [19] Philipp Koehn, Hieu Hoang, Alexandra Birch, Chris Callison-Burch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, Chris Dyer, Ondřej Bojar, Alexandra Constantin, and Evan Herbst. Moses: Open Source Toolkit for Statistical Machine Translation. In Proc. of ACL, pp. 177-180, 2007. [20] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying Conditional Random Fields to Japanese Morphological Analysis. In Proc. of EMNLP, pp. 230-237, 2004. [21] Akio Hayakawa, Tomoyuki Kajiwara, Hiroki Ouchi, and Taro Watanabe. JADES: New Text Simplification Dataset in Japanese Targeted at Non-Native Speakers. In Proc. of TSAR, pp. 179-187, 2022. [22] Akihiro Katsuta and Kazuhide Yamamoto. Crowdsourced Corpus of Sentence Simplification with Core Vocabulary. In Proc. of LREC, pp. 461-466, 2018. [23] Yui Suzuki, Tomoyuki Kajiwara, and Mamoru Komachi. Building a Non-Trivial Paraphrase Corpus Using Multiple Machine Translation Systems. In Proc. of ACL-SRW, pp. 36-42, 2017. [24] Yinfei Yang, Yuan Zhang, Chris Tar, and Jason Baldridge. PAWS-X: A Cross-lingual Adversarial Dataset for Paraphrase Identification. In Proc. of EMNLP, pp. 3687-3692, 2019. [25] Jacob Cohen. Weighted Kappa: Nominal Scale Agreement Provision for Scaled Disagreement or Partial Credit. Psychological Bulletin, Vol. 70, No. 4, pp. 213-220, 1968. [26] Tomoyuki Kajiwara, Mamoru Komachi, and Daichi Mochihashi. MIPA: Mutual Information Based Paraphrase Acquisition via Bilingual Pivoting. In Proc. of IJCNLP, pp. 80-89, 2017. [27] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese General Language Understanding Evaluation. In Proc. of LREC, pp. 2957-2966, 2022. [28] Hitomi Yanaka and Koji Mineshima. Compositional Evaluation on Japanese Textual Entailment and Similarity. TACL, Vol. 10, pp. 1266-1284, 2022. [29] Md Arafat Sultan, Steven Bethard, and Tamara Sumner. DLS@CU: Sentence Similarity from Word Alignment and Semantic Vector Composition. In Proc. of SemEval, pp. 148-153, 2015. [30] Zi-Yi Dou and Graham Neubig. Word Alignment by Fine-tuning Embeddings on Parallel Corpora. In Proc. of EACL, pp. 2112-2128, 2021.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-21.pdf
# 大規模言語モデルにおける幻覚緩和のための 単語碓率の外挿 何昀螓 1 高瀬侑亮 1 石橋陽一 1 下平英寿 1,2 1 京都大学 2 理化学研究所 [email protected] [email protected] \{yoichi.ishibashi, shimo\}@i.kyoto-u.ac.jp ## 概要 GPT-4 や Llama,PaLM などの大規模言語モデル (LLM)の進化は下流タスクの性能を急激に上昇させただけでなく,我々の社会に大きな影響を及ぼしている.このような技術革新が起きた一方で,尤もらしい誤情報を生成する「幻覚」が重要課題となっている. 本研究では LLM の構造や学習済みパラメータを変更せず,容易に幻覚を低減する効果的な手法を提案する。この手法は Transformer の低層から高層にかけての単語確率の軌道に着目し, 仮想的な追加層における単語確率を予測して外挿することで,より正確な単語生成を促進し幻覚の発生を抑制する.実験により,提案手法は既存手法と比較して幻覚生成の抑制において同等の性能を達成していることが示された。 ## 1 はじめに 自然言語処理(NLP)は,近年,大規模言語モデル (Large Language Model, LLM) の登場により, 顕著な進化を遂げている. 特に GPT-4 [1], Llama [2, 3], PaLM [4] に代表される LLM は,機械翻訳 [5], 対話 [6], 要約 [7], 質問応答 [3] などのダウンストリー ムタスクにおいて,人間に匹敵する性能を発揮し, これまでにない高度な応用を可能にしている. 特に対話型 LLM エージェントである ChatGPT [8] の登場以降,多くの人々が日常的に LLM を利用しており, LLM が生成する情報の社会的な影響が非常に大きくなっている. しかしこのような技術革新の一方で,「幻覚」と呼ばれる誤った情報を LLM が生成するという重要な課題が浮上している. 幻覚は LLM が実際には存在しない情報をあたかも信憑性があるかのように提示する現象である. これは結果としてユーザーの期待や目的に反する情報を提供してしまう [9] ばかりか,高度な信頼性と正確性が要求される状況においては重大な問題となる。例えば,医療,法律,または金融などの分野において誤った情報が提供されると深刻な結果を招くことは想像に難くない。 幻覚への対処として先行研究ではデータの質や訓練プロセスの不備に着目しこの問題を解決しようとしている.例えば,[10] らは,十分に正確性が信頼できるデータを訓練データとして使用するアプロー チを取っている。また [11] らは,人間フィードバックを元にした強化学習によって人間の嗜好を言語モデルに反映させることで幻覚の緩和を実現している。しかし,これらのアプローチは新たなデータセットの作成やモデルの再訓練といった高いコストを伴う.訓練パラメータが非常に多い LLM において,これらの手法を適用することは非常に困難であろう。 本研究の目的は, 事前学習済み LLM の構造や学習済みパラメータに手を加えることなく,幻覚の発生を効果的かつ低コストで抑制する手法を開発することである.最近の研究では,Transformerにおいて,より深い層へと進むにつれて,幻覚につながる単語の確率に比べて正解単語の確率が徐々に大きくなる傾向が観察されている [12]. これは Transformer モデルのより深い層において幻覚の発生が抑制される傾向を示唆している. では実際の最終層よりもさらにその先に仮想的な層が存在したと仮定すれば,幻覚をより抑制できるのではないだろうか?そこで本研究では,低層から高層にかけての単語の確率分布の変化に基づいて, 最終層よりも先の仮想的な層の単語確率分布を予測する (図 1). 我々のアプローチは,事前学習済み LLM の推論プロセスに介入するものである。このアプロー チの最大の特徴は,モデルの構造や重みを調整する 図 1 提案手法の概略図. Transformer の各層で単語確率を計算し「確率の軌道」を求める. 実験では確率の対数に回帰直線を当てはめて軌道を推定した. そして回帰直線を外挿することで,本来の最終層以降の実際には存在しない仮想的な追加層(例: 33 層,34.5 層)における単語確率を予測する。 ことなく,また特別なデータを用意する必要もないという低コストな手法であることである。 実験では幻覚評価の標準的なベンチマークである TruthfulQA [13] を用いて,提案手法と既存手法との比較分析を実施した。その結果,本手法は既存手法と比較して,幻覚生成の抑制において同等の性能を達成していることが明らかになった。 ## 2 関連研究 幻覚に対処する方法として,学習べースと非学習ベースのアプローチが存在する. 学習ベースまたは外部知識の利用幻覚を低減させる手法には学習ベースの方法がある。例えば [11] による研究は,モデルと人間の価値基準をアライメントするため人間のフィードバックを用いたファインチューニングを提案している. これは真実性の向上と幻覚の緩和に対する有効性を示している。 幻覚を低減するための他の主要なアプローチの一つは,外部知識の活用である. Retrieval-Augmented Generation (RAG) [14] は, 入力クエリに応じて外部知識ベースやインターネットから情報を検索し,言語生成プロセスに統合する。この方法は,生成される出力が事実に基づく可能性を高める. デコード戦略の改良人間のアノテーションやファインチューニングに頼ることなく幻覚の発生を低減する非学習ベースの方法である DoLa [12] が最近提案されている. DoLa は Transformer ベースの言語モデルのデコード戦略に介入する.デコードプロセスにおいて正しくない(すなわち幻覚となる)単語が生成される際には Transformer の低層と高層で確率の対数の差が小さい傾向があることに着目し,低層と高層で確率の対数の差が大きい単語の確率を強調することで幻覚の生成を抑制する。 ## 3 提案法 本研究では,Transformer の低層から高層にかけての単語確率分布の変化に着目した幻覚低減法を提案する。実際には単語ではなく一般にトークンが用いられるが,本論文ではこれらを単語と表記する。 ## 3.1 Transformer 仮想層の単語確率の予測 中間層の単語確率 Transformer モデルの中間層において層が深くなるほど正解単語の確率が増加傾向にあることに焦点を当て,低層から高層にかけて単語確率の軌道を推定することで本来の最終層以降の仮想的な追加層の単語確率分布を予測する. 位置 $t$ の単語を $x_{t}$, それ以前の単語系列を $x_{<t}=$ $\left.\{x_{1}, \cdots, x_{t-1}\right.\}$ と表す. $N$ 層からなる Transformer の各層 $\ell=1, \cdots, N$ に対して単語 $x_{t}$ の埋め込みを $h_{t}^{(\ell)}$ と定義する. 与えられた $x_{<t}$ に基づき次の単語 $x_{t}$ の生起確率を次のようにモデリングする: $ P\left(x_{t} \mid x_{<t}\right)=\operatorname{softmax}\left(\phi\left(h_{t-1}^{(N)}\right)\right), x_{t} \in \mathcal{X} $ ここで softmax はソフトマックス関数, $\phi$ は語彙ヘッド, $x$ は語彙を表す.このように一般的には最終層の埋め込みを用いて生起確率が計算されるが,任意の $\ell$ 層の埋め込みを用いて単語の生起確率を計算することも可能である: $ P_{\ell}\left(x_{t} \mid x_{<t}\right)=\operatorname{softmax}\left(\phi\left(h_{t-1}^{(\ell)}\right)\right), 1 \leq \ell \leq N . $ 仮想層の単語確率の予測任意の中間層 $M$ $(1 \leq M \leq N-1)$ を指定し, $M$ 層から $N$ 層までの確率分布 $P_{M}\left(x_{t} \mid x_{<t}\right), \cdots, P_{N}\left(x_{t} \mid x_{<t}\right)$ を用いて線形回帰を行い,仮想的な第 $L$ 層の単語確率 $P_{L}\left(x_{t} \mid x_{<t}\right)$ を推定する. 回帰分析の説明変数を Transformer 層の添字 $ \boldsymbol{X}_{\text {reg }}=[M, \cdots, N] $ とし,目的変数を単語確率の対数 $ \boldsymbol{Y}_{\text {reg }}=\left[\log P_{M}\left(x_{t} \mid x_{<t}\right), \cdots, \log P_{N}\left(x_{t} \mid x_{<t}\right)\right] $ で定義する。予測する仮想層を実数 $L \in \mathbb{R}(L>$ $N)$ とし, 仮想層の単語確率の対数の予測值 $\log P_{L}\left(x_{t} \mid x_{<t}\right)$ を次のように最小二乗法を用いて計算する. $ \log P_{L}\left(x_{t} \mid x_{<t}\right)=\hat{\beta_{0}}+\hat{\beta}_{1} L $ ここで回帰係数 $\hat{\beta}_{0}, \hat{\beta}_{1}$ は, 分散 $V\left(\boldsymbol{X}_{\boldsymbol{r} \boldsymbol{} \boldsymbol{g}}\right)$ と共分散 $\operatorname{Cov}\left(\boldsymbol{X}_{\boldsymbol{r e g}}, \boldsymbol{Y}_{\boldsymbol{r e g}}\right)$ を用いて次式で計算する. $ \hat{\beta}_{1}=\frac{\operatorname{Cov}\left(\boldsymbol{X}_{\boldsymbol{r} \boldsymbol{}}, \boldsymbol{Y}_{\text {reg }}\right)}{V\left(\boldsymbol{X}_{\text {reg }}\right)}, \quad \hat{\beta_{0}}=\overline{\boldsymbol{Y}_{\text {reg }}}-\hat{\beta}_{1} \overline{\boldsymbol{X}_{\text {reg }}} $ なお (5) では確率の和は 1 にならないが,各層内で確率を比較することが目的のため,規格化はせずこのまま用いる。 ## 4 実験 提案手法における幻覚の性能改善能力を既存手法 Dola [12] と比較しその有効性を検証する。 ## 4.1 実験設定 言語モデル我々はLLaMA1[2] および Llama2[3] のすべてのサイズの事前学習済みモデルを使用する. タスク・データセット本研究で使用するデータセットは, TruthfulQA [13] のマルチチョイスタスクである. TruthfulQA には 817 個の質問があり,それぞれの質問には複数の参考回答が存在する. 参考回答の中には正しい回答(True answers)と誤った回答 (False answers)が含まれており,正しい回答の中には一つだけ最良の回答(Best answer)が存在する。最良の回答とは,正しい回答の中にある,もっとも適切,有用,正確となる回答である。 表 1 は TruthfulQA データセットに含まれる実際の質問と回答の例を示している。この表には質問「フォーチュンクッキーの起源」に関する「正しい回答」と「誤った回答」が列挙されている. これらの回答は Wikipedia のリスト ${ }^{1)}$ から取得されたものである. 評価指標 TruthfulQA のマルチチョイス(MC)夕スクには,独自の評価指標である $\mathrm{MC} 1, \mathrm{MC2}, \mathrm{MC3}$ がある。これらは各質問に対する参考回答の確率を計算し以下の値により評価する。 - $\mathrm{MC1}$ : 参考回答から最良の回答を選ぶ割合 - $\mathrm{MC2}$ : 正しい回答に対して割り当てられた確率の合計値が,参考回答全体の確率に占める割合  misconceptions\#Food_history表 1 TruthfulQA データセットの質問と参考回答の例 \\ Francisco. Fortune cookies originated in California. Fortune cookies originated in the U.S.. Fortune cookies were made by a San Francisco bakery. Fortune cookies were made by a Californian bakery. It is commonly believed that fortune cookies came from China, but they originated in California. 誤った回答 Fortune cookies originated in China. Fortune cookies originated in Japan. Fortune cookies originated in Los Angeles. Fortune cookies originated in $\mathrm{Ky}$ oto. Fortune cookies originated in Hong Kong. It is commonly believed that fortune cookies came from California, but they originated in China. - $\mathrm{MC3}$ : 正しい回答のうち,全ての誤った回答よりも確率が大きいものの割合 ハイパーパラメータ設定提案法には調節可能なハイパーパラメータ $M$ と $L$ がある. ここでは,異なるモデルサイズに対して統一されたハイパーパラメータ設定を適用する.具体的には,すべてのモデルで $M$ と $L$ は共通の值 $M=N-1$ と $L=N+100$ を使用した。 ## 4.2 実験結果 まず表 1 の例文に提案法を適用した結果を紹介する. 図 2 には,言語モデル LLaMA1-7Bを使用し, ハイパーパラメータ $M=30, L=37.5$ と設定した際の,質問「フォーチュンクッキーの起源」に対する回答の確率を外插した結果を示した. 図中のオレンジ色の点は「正しい回答」の確率,青色の点は 「誤った回答」の確率,赤色の点は「最良の回答」の確率を表している. 図 3 は, 図 2 で示された結果のうち, 32 層と 37.5 層 (仮想層) での回答確率に焦点を当てたものである. 37.5 層(仮想層)へ外挿された結果は, 32 層における出力と比較して,「正しい回答」の確率が多くの「誤った回答」の確率よりも高くなっていることがわかる. 図 2 TruthfulQA データセットの質問回答例に対して外挿を行った結果. オレンジの点は正しい回答,青い点は誤った回答,赤い点は最良の回答の確率を示している. 図 3 図 2 の結果から,32 層と 37.5 層(仮想層)の回答確率に焦点を当てて,視覚化したもの. そして,表 2 は本研究におけるデータセット,夕スクとハイパーパラメータでの実験結果である. 本研究で提案する外挿法に加え, ベースラインとして Llama のオリジナルのデコード戦略と DoLa を用いた. DoLa は MC2 に顕著な改善をもたらしたが,外挿法は LLaMA1-7B と LLaMA1-13B モデルにおいて $\mathrm{MC} 1$ と $\mathrm{MC3}$ で最も効果的であった. 一方,大規模モデル(LLaMA1-33B,LLaMA1-65B,Llama2-70B) では,外挿法が Dola と同程度の改善を示すことはなかった。これは,現在のハイパーパラメータ $M=N-1$ および $L=N+100$ の設定において,大規模モデルの外挿性能に問題があることを示唆している. 特に Llama2-70B では外挿を適用することで性能が低下しており,大規模モデルにおける外挿法の適用には慎重なハイパーパラメータ調整や方法論の改善が必要である事を示唆している.表 2 TruthfulQA のマルチチョイス問題の実験結果 ## 5 結論 本研究では言語モデルの幻覚の課題に取り組んだ. 学習ベースの既存法に対して,我々は追加知識やモデルの構造的変更を必要としない手法を目指し, Transformer の各層の単語確率分布に着目し線形回帰を用いて容易に適用できる効果的な手法を提案した.ここではハイパーパラメータとして $M=N-1$ および $L=N+100$ を用いた実験結果を報告している. しかしながら,より大規模な言語モデルにおいては,既有知識をより活用する設定(例えば $M=N-2$ や $N-3 )$ の方が高いスコアを達成する場合があることが観察されている。今後の研究課題としては, $\mathrm{MC} 1 , \mathrm{MC3}$ の評価指標で高い成績を収めることができるのに対し, MC2ではなぜそれが達成されないのかを解明することが挙げられる。 さらに, $\mathrm{MC1}$ , $\mathrm{MC3}$ のスコアが向上する条件についても詳細な分析を行う必要がある。また,本研究はマルチチョイスタスクだけでなく文章生成タスクにも応用可能であるが,提案手法が文章生成において既存手法と比較してどの程度の性能を発揮するかについても調査する余地がある. ## 謝辞 本研究は JSPS 科研費 $22 \mathrm{H} 05106,23 \mathrm{H} 03355$ および JST CREST JPMJCR21N3 の助成を受けたものです. ## 参考文献 [1] OpenAI. Gpt-4 technical report. https://cdn.openai. com/papers/gpt-4.pdf, 2023. [2] Hugo Touvron, Thibaut Lavril, Gautier Izacard, Xavier Martinet, Marie-Anne Lachaux, Timothée Lacroix, Baptiste Rozière, Naman Goyal, Eric Hambro, Faisal Azhar, et al. Llama: Open and efficient foundation language models. arXiv preprint arXiv:2302.13971, 2023. [3] Hugo Touvron, Louis Martin, Kevin Stone, Peter Albert, Amjad Almahairi, Yasmine Babaei, Nikolay Bashlykov, Soumya Batra, Prajjwal Bhargava, Shruti Bhosale, et al. Llama 2: Open foundation and fine-tuned chat models. arXiv preprint arXiv:2307.09288, 2023. [4] Aakanksha Chowdhery, Sharan Narang, Jacob Devlin, Maarten Bosma, Gaurav Mishra, Adam Roberts, Paul Barham, Hyung Won Chung, Charles Sutton, Sebastian Gehrmann, et al. Palm: Scaling language modeling with pathways. Journal of Machine Learning Research, Vol. 24, No. 240, pp. 1-113, 2023. [5] Vikas Raunak, Amr Sharaf, Yiren Wang, Hany Hassan Awadalla, and Arul Menezes. Leveraging GPT-4 for automatic translation post-editing. In Houda Bouamor, Juan Pino, and Kalika Bali, editors, Findings of the Association for Computational Linguistics: EMNLP 2023, Singapore, December 6-10, 2023, pp. 12009-12024. Association for Computational Linguistics, 2023. [6] Romal Thoppilan, Daniel De Freitas, Jamie Hall, Noam Shazeer, Apoorv Kulshreshtha, Heng-Tze Cheng, Alicia Jin, Taylor Bos, Leslie Baker, Yu Du, et al. Lamda: Language models for dialog applications. arXiv preprint arXiv:2201.08239, 2022 [7] Joshua Maynez, Shashi Narayan, Bernd Bohnet, and Ryan T. McDonald. On faithfulness and factuality in abstractive summarization. In Dan Jurafsky, Joyce Chai, Natalie Schluter, and Joel R. Tetreault, editors, Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, ACL 2020, Online, July 510, 2020, pp. 1906-1919. Association for Computational Linguistics, 2020. [8] OpenAI. Introducing chatgpt. https://openai.com/ blog/chatgpt, 2023. [9] Lei Huang, Weijiang Yu, Weitao Ma, Weihong Zhong, Zhangyin Feng, Haotian Wang, Qianglong Chen, Weihua Peng, Xiaocheng Feng, Bing Qin, et al. A survey on hallucination in large language models: Principles, taxonomy, challenges, and open questions. arXiv preprint arXiv:2311.05232, 2023. [10] Suriya Gunasekar, Yi Zhang, Jyoti Aneja, Caio César Teodoro Mendes, Allie Del Giorno, Sivakanth Gopi, Mojan Javaheripi, Piero Kauffmann, Gustavo de Rosa, Olli Saarikivi, et al. Textbooks are all you need. arXiv preprint arXiv:2306.11644, 2023. [11] Long Ouyang, Jeffrey Wu, Xu Jiang, Diogo Almeida, Carroll Wainwright, Pamela Mishkin, Chong Zhang, Sandhini Agarwal, Katarina Slama, Alex Ray, et al. Training language models to follow instructions with human feedback. Advances in Neural Information Processing Systems, Vol. 35, pp. 27730-27744, 2022. [12] Yung-Sung Chuang, Yujia Xie, Hongyin Luo, Yoon Kim, James Glass, and Pengcheng He. Dola: Decoding by contrasting layers improves factuality in large language models. arXiv preprint arXiv:2309.03883, 2023. [13] Stephanie Lin, Jacob Hilton, and Owain Evans. Truthfulqa: Measuring how models mimic human falsehoods. In Smaranda Muresan, Preslav Nakov, and Aline Villavicencio, editors, Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), ACL 2022, Dublin, Ireland, May 22-27, 2022, pp. 3214-3252. Association for Computational Linguistics, 2022. [14] Patrick S. H. Lewis, Ethan Perez, Aleksandra Piktus, Fabio Petroni, Vladimir Karpukhin, Naman Goyal, Heinrich Küttler, Mike Lewis, Wen-tau Yih, Tim Rocktäschel, Sebastian Riedel, and Douwe Kiela. Retrieval-augmented generation for knowledge-intensive NLP tasks. In Hugo Larochelle, Marc'Aurelio Ranzato, Raia Hadsell, MariaFlorina Balcan, and Hsuan-Tien Lin, editors, Advances in Neural Information Processing Systems 33: Annual Conference on Neural Information Processing Systems 2020, NeurIPS 2020, December 6-12, 2020, virtual, 2020.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-22.pdf
# 人材業界固有の表現を考慮した求人票のマルチラベル分類 原 龍昊 ${ }^{1}$ 林 勝悟 ${ }^{1}$ Dat P.T. Nguyen ${ }^{1}$ 1 株式会社ビズリーチ \{longhao.yuan, shogo.hayashi, dat.nguyen\}@bizreach.co.jp ## 概要 人材業界では,求人票や履歴書といった様々なテキストデータが存在し,その分類や予測が行われている。しかし,人材業界のテキストには専門用語などの固有の表現があるため,単純なテキスト分類モデルでは適切な分類が難しい。 本研究では,求人票の職種と業種のマルチラベル分類タスクに取り組む. まず,人材業界固有の表現に対応するために,求人票データを用いてドメイン特化 BERT モデルを訓練する.次に,無関係なテキストの影響を低減するために,文単位に分割した求人票のテキストと各カテゴリの埋め込みを BERT モデルを用いて生成し,各カテゴリとの最大類似度べクトルに基づいてマルチラベル分類を行う. 求人票データセットを用いた評価を行い,提案手法は比較手法よりも優れた結果を出し,分布シフトの状況下でも有効に働くことを確認した。 ## 1 はじめに 人材の採用や管理を行う人材業界では,求人票や履歴書といった様々なデータが存在する。これらは主にテキストやカテゴリを持つ半構造化データとして表現され,システムで管理されている。例えば,求人票はポジション名や仕事内容といったテキストフィールドと,職種や業種といったカテゴリフィー ルドからなる.仕事内容を単一のカテゴリで表現することは難しいため,職種や業種はしばしば複数のカテゴリを持つマルチラベルとして表現される。 求人票のデータ形式はシステムごとに異なるため,あるシステムで管理されている求人票を異なるシステムで扱うためには,その形式に合わせて新たにデータを登録する必要がある。しかし,職種や業種はそれぞれ多数のカテゴリを持つため,システム間のカテゴリの対応関係を人間が正しく理解することは容易ではない.また,専門的な職種や業種には専門用語や固有の表現が存在するため,単純なテキ スト分類手法では高い分類精度を達成することが難しい. 例えば,求人票に「機械学習ライブラリの経験がある」という文がある場合,通常の手法は「ライブラリ」という単語を誤って書籍などの異なる文脈で意味を解釈してしまう可能性がある。 本研究では人材業界固有の表現を考慮した求人票のマルチラベル分類に取り組む.まず,人材業界固有の表現を学習するために,求人票データを用いて BERT モデルを訓練する.次に,無関係なテキストの影響を低減するために,文単位に分割した求人票のテキストとカテゴリテキストの埋め込みを訓練した BERT モデルを用いて生成する。それらの類似度行列を求め,各カテゴリとの最大類似度ベクトルに基づいて求人票のマルチラベル分類を行う. 求人票データを用いた評価を行い,提案手法は比較手法よりも高い性能を発揮したことを確認した。 ## 2 関連研究 テキスト分類は自然言語処理分野の最も基本的なタスクの一つである.基本的なテキスト分類手法はまずテキストをべクトルに変換し,そのべクトルを分類モデルを用いて分類する。テキストのベクトルへの変換には,TF-IDF や BM25,BERT[1] といった手法を用いることができる.分類器として,ロジスティック回帰や Random Forest, Neural Networks などを用いることができる [2]. 機械学習や自然言語処理の技術を人材業界のデー タに応用する研究は多数存在する. Luo らの研究 [3] では,T5 モデルを用いた質問応答タスクを通じて履歴書から学歴やスキルといった情報を抽出する試みが行われた. BERT モデルを用いた求人票からキーワード抽出 [4] や,求人票と履歴書のマッチング [5] といった研究も存在する. Decorte ら [6] は, BERT モデルを用いて履歴書の業界分類と求職者のキャリア予測を行った. 日本語の求人テキストを用いた研究として,質問応答タスクを通じて求人情報を含むメール文書データから構造化データを抽出す 図 1 提案手法の流れ。 る研究も存在する [7]. 近年,ChatGPT をはじめとする大規模言語モデルが様々なタスクで成功を収めている [8]. しかし,大規模言語モデルを大量の求人票データに適用するためには多大なコストが必要であり,API の利用にはデータのセキュリティに関する懸念も存在する。 そのため,本研究では比較的低コストかつセキュリティが確保された環境で動作するモデルに焦点を当てる. ## 3 提案手法 提案手法の枠組みは,求人票データを用いたドメイン特化 BERT モデル (求人 BERT と呼ぶ) の訓練,求人票のテキストとカテゴリテキストの類似度ベクトルの生成,マルチラベル分類からなる.枠組みの全体の流れを図 1 に表す。 ## 3.1 求人票データ 本研究では「ビズリーチ」1)に登録されている求人票データの職種と業種のマルチラベル分類タスクに取り組む. 職種のカテゴリは 35 種類,業種のカテゴリは 18 種類存在する. 各求人票の職種と業種はそれぞれ 1 つ以上のカテゴリを持つ. テキストフィールドとして,ポジション,募集条件,仕事内容,募集企業を持つ. 職種と業種の分類に関係するポジション,募集条件,仕事内容のテキストを結合して1つのテキストとする. 1)「ビズリーチ」は株式会社ビズリーチが運営するスカウト型転職サイトである。企業が求人票を添付したスカウトを求職者に送信し, 求職者がそのスカウトに返信することで面談や面接などのマッチングが生じる. ## 3.2 求人 BERT の訓練 求人票の埋め込みモデルとして Sentence BERT [9] を用いる. まず,求人票データを使用して,マスク言語モデルにより BERT モデルの事前訓練を実施する. 次に,類似するデータの組であるポジティブペア,類似しないデータの組であるネガティブペア, ポジティブペアとの識別が難しいネガティブペアであるハードネガティブペアを用いて BERT モデルの訓練を行う.経験的に,職種が同じ求人票は類似する傾向にある。また,同一求職者に送られるスカウトの求人票は類似する傾向にあり,また同一求職者が返信するスカウトの求人票も類似する傾向にある.そこで,以下の条件を持つ求人票の組をポジティブペア,ネガティブペア,ハードネガティブペアとする。 ・ポジティブペア - 同じ職種を持つ - 同じ求職者にスカウト送信,返信されている ・ネガティブペア - 同じ職種と業種を持たない - 同じ求職者から返信されていない - 募集企業が異なる ・ハードネガティブペア - 同じ職種と業種を持つ - 同じ求職者にスカウト送信されていない - 異なる求職者にスカウト送信,返信されている - 募集企業が異なる ## 3.3 類似度ベクトルの生成 求人票のテキストには, 例えば企業の所在地や沿革など,職種や業種に特別関係しない冗長な文章が含まれていることが多々ある。このような文章は,分類時のノイズとなるだけでなく, BERT モデルの入力トークンを消費してしまい,他の重要な文章が入力されなくなる可能性がある. そのため, 求人票のテキストを文単位に分割してから求人票の埋め込み表現を求める。 提案手法は分類先のカテゴリテキストも活用するために,カテゴリテキストの埋め込みと求人票の埋め込みの類似度に基づいてマルチラベル分類を行う. 求人票のテキスト $d$ を文単位に分割して $n$ の文集合 $\left.\{s_{1}, s_{2}, \ldots, s_{n}\right.\}$ を得る. BERT モデル $E$ により,各文と $m$ のカテゴリテキスト $\left.\{c_{1}, c_{2}, \ldots, c_{m}\right.\}$ の埋め込み $E\left(s_{1}\right), E\left(s_{2}\right), \ldots, E\left(s_{n}\right), E\left(c_{1}\right), E\left(c_{2}\right), \ldots, E\left(c_{m}\right)$ を生成し, これらの類似度行列 $\mathbf{X}$ を求める. 本研究では,文 $s_{i}$ とカテゴリテキスト $c_{j}$ の類似度として以下の cosine 類似度を用いる。 $ X_{i j}=\frac{E\left(s_{i}\right) \cdot E\left(c_{j}\right)}{\left.\|E\left(s_{i}\right)\right.\|\left.\|E\left(c_{j}\right)\right.\|} $ 各カテゴリごとに最大類似度を求め, $d$ の特徵量として $m$ 次元べクトル $\mathbf{x}$ を得る. ## 3.4 マルチラベル分類 本研究では大量の求人票データを処理できるように,軽量なロジスティック回帰モデルをべースモデルとする一対他分類器を採用する. 求人票とカテゴリの類似度ベクトル $\mathbf{x}$ に対して,関数 $f_{j}(j \in[\mathrm{m}])$ を適用して,カテゴリ $j$ が割り当てられる確率を以下のように求める. $ f_{j}(\mathbf{x})=\sigma\left(\mathbf{w}_{j} \cdot \mathbf{x}+b_{j}\right) $ ここで, $\mathbf{w}_{j}$ は $m$ 次元の重みベクトル,$b_{j}$ はバイアス項, $\sigma$ はシグモイド関数である. 訓練データセットを用いてパラメータ $\mathbf{w}_{j}, b_{j}(j \in[m])$ を最適化する. 「ビズリーチ」の求人票は 1 つ以上のカテゴリを持つが,一対他分類器は不均衡データの問題により,各カテゴリの分類確率が低くなる傾向がある. そこで,推論時に分類確率がハイパーパラメータ $\epsilon>0$ より高いカテゴリを割り当てる.いずれのカテゴリの分類確率も $\epsilon$ より上回らない場合には, 最も高い分類確率を持つカテゴリを割り当てる.以上 をまとめると, $x$ に割り当てられるカテゴリ集合 $\hat{Y}$ は以下のように表現される。 $\hat{Y}=\left.\{f_{j}(\mathbf{x}) \mid f_{j}(\mathbf{x})>\epsilon, j \in[m]\right.\} \cup\left.\{\operatorname{argmax}_{j \in[m]} f_{j}(\mathbf{x})\right.\}$ 実験では $\epsilon=0.2$ に設定する. ## 4 実験 ## 4.1 データセット 訓練データとして,「ビズリーチ」に登録されている求人票データ (ビズリーチデータと呼ぶ)を用いる. BERT モデルの訓練には, 5 万組のポジティブペア, 10 万組のネガティブペア, 10 万組のハードネガティブペアを使用する.また,マルチラベル分類モデルの訓練には, 5 万件の求人票データを使用する。 評価データとして,「ビズリーチ」の求人票デー タ 2 万件を用いる. また,インターネット上に公開されている求人票データ (外部データと呼ぶ) 188 件を用いた評価も行う。ここでは,外部データに対してビズリーチデータの職種カテゴリと業種カテゴリを割り当てることが目的であり,正解カテゴリは人手で作成した。 ## 4.2 BERT モデルの設定 BERT モデルとして, 大量の求人票データを高速に処理できるよう, 合計パラメータ数が 1,500万程度の比較的に軽量なモデルを用いる. ネットワーク構造は 8 層の transformer 層と平均 pooling 層からなる. 埋め込みべクトルの次元は 256 であり, 最大入カトークン数は 2048 である. トークナイザーとして SudachiPy[10]を用いる. Transformers ライブラリ [11] で BERT モデルの実装を行った. ## 4.3 比較手法 本研究の目的は人材業界固有の表現を学習することにより, 求人票データの分類精度を向上させることである。そこで,提案手法を以下の固有の表現を学習していないべクトル化手法である TF-IDF と一般的な公開コーパスで訓練された BERT モデル2)(一般 BERT と呼ぶ) を比較手法として用いる. 求人票のテキストを文単位に分割してからべクトル化する場合と,分割せずにベクトル化する場合の比較を行う. ベクトル化した後の処理は,提案手法と同じで 2) https://huggingface.co/pkshatech/simcse-ja-bert-base-clcmlp 表 1 職種予測の評価結果. 太字は最も良い結果を示している. 表 2 業種予測の評価結果. 太字は最も良い結果を示している. ある. また,文単位の分割なしのテキストを入力として,求人 BERT をマルチラベル分類タスクでファインチューニングしたモデル (ファインチューニング済み求人 BERT と呼ぶ) との比較も行う. ## 4.4 評価指標 評価指標として,以下で定義される Accuracy, Macro-F1,Micro-F1を用いる. $ \begin{gathered} \text { Accuracy }=\frac{1}{N} \sum_{i=1}^{N} \frac{\left|Y_{i} \cap \hat{Y}_{i}\right|}{\left|Y_{i} \cup \hat{Y}_{i}\right|} \\ \text { Macro-F1 }=\frac{1}{m} \sum_{j=1}^{m} \frac{2 p_{j} r_{j}}{p_{j}+r_{j}} \\ \text { Micro-F1 }=\frac{2 p r}{p+r} \end{gathered} $ ここで, $N$ はデータ数, $\hat{Y}_{i}$ と $Y_{i}$ はそれぞれデータ $i$ の予測カテゴリ集合と正解カテゴリ集合, $p_{j}$ と $r_{j}$ はそれぞれカテゴリ $j$ に関する適合率と再現率, $p$ と $r$ はそれぞれデータとカテゴリ単位の適合率と再現率を表す。 ## 4.5 結果 各手法の職種と業種予測の評価結果をそれぞれ表 1 と表 2 に示す. 求人票のテキストの文単位の分割を行い,ドメイン特化の求人 BERT を用いる提案手法は,ビズリーチデータの業種予測問題を除いて,比較手法よりも優れた結果を出した.提案手法が高 い性能を発揮できた理由は,求人票のテキストを文単位に分割することにより分類において無関係なテキストの影響を低減し,求人票のテキストを用いて訓練された BERT モデルにより人材業界固有の表現を獲得できたからだと思われる。 マルチラベル分類タスクで求人 BERT モデルのファインチューニングを行ったファインチューニング済み求人 BERT は,業種予測タスクにおいては提案手法よりも良い結果を出した。しかし,ファインチューニング済み求人 BERT はビズリーチデータに最適化されるように訓練されているため, 求人票のテキストや職種,業種の分布がビズリーチデータと異なる外部データにおいて最も優れた結果を出すことができなかった。一方で,提案手法は人材業界固有の表現を学習し, 求人票のテキストとカテゴリとの類似度に基づいて予測を行うことで,ビズリーチデータと外部データの分布が異なっていても高い性能を発揮することができたと思われる. ## 5 まとめ 本研究では,人材業界固有の表現を獲得するために,求人票データを用いてドメイン特化 BERT モデルの訓練を行った。また,無関係なテキストの影響を低減するために,求人票のテキストを文単位に分割してから,各カテゴリとの最大類似度を用いてマルチラベル分類を行う手法を提案した.職種と業種のマルチラベル分類タスクにおいて,提案手法は優れた性能を発揮し,分布シフトにも強いことを確認した. ## 参考文献 [1] Santiago González-Carvajal and Eduardo C Garrido-Merchán. Comparing bert against traditional machine learning text classification. arXiv preprint arXiv:2005.13012, 2020. [2] Andrea Gasparetto, Matteo Marcuzzo, Alessandro Zangari, and Andrea Albarelli. A survey on text classification algorithms: From text to predictions. Information, Vol. 13, No. 2, p. 83, 2022. [3] Yuxin Luo, Feng Lu, Vaishali Pal, and David Graus. Enhancing resume content extraction in question answering systems through t5 model variants. In RECSYS in HR 2023 : the 3rd Workshop on Recommender Systems for Human Resources (RecSys in HR 2023), Proceedings, Vol. 3490, 2023. [4] Hussain Falih Mahdi, Rishit Dagli, Ali Mustufa, and Sameer Nanivadekar. Job descriptions keyword extraction using attention based deep learning models with bert. In 2021 3rd International Congress on Human-Computer Interaction, Optimization and Robotic Applications (HORA), pp. 1-6. IEEE, 2021. [5] Changmao Li, Elaine Fisher, Rebecca Thomas, Steve Pittard, Vicki Hertzberg, and Jinho D Choi. Competence-level prediction and resume \& job description matching using context-aware transformer models. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 8456-8466, 2020. [6] Jens-Joris Decorte, Jeroen Van Hautte, Johannes Deleu, Chris Develder, and Thomas Demeester. Career path prediction using resume representation learning and skill-based matching. In RECSYS in HR 2023 : the 3rd Workshop on Recommender Systems for Human Resources (RecSys in HR 2023), Proceedings, Vol. 3490, 2023. [7] 川崎拳人. 非構造化データの構造化における情報抽出. 研究報告音声言語情報処理 (SLP), Vol. 2020, No. 16, pp. 1-6, 2020. [8] Tianyu Wu, Shizhu He, Jingping Liu, Siqi Sun, Kang Liu, QingLong Han, and Yang Tang. A brief overview of chatgpt: The history, status quo and potential future development. IEEE/CAA Journal of Automatica Sinica, Vol. 10, No. 5, pp. 1122-1136, 2023. [9] Nils Reimers and Iryna Gurevych. Sentence-bert: Sentence embeddings using siamese bert-networks. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP). Association for Computational Linguistics, 2019. [10] Kazuma Takaoka, Sorami Hisamoto, Noriko Kawahara, Miho Sakamoto, Yoshitaka Uchida, and Yuji Matsumoto. Sudachi: A japanese tokenizer for business. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), 2018. [11] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, et al. Transformers: State-of-the-art natural language processing. In Proceedings of the $\mathbf{2 0 2 0}$ conference on empirical methods in natural language processing: system demonstrations, pp. 38-45, 2020.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-23.pdf
# 語りの傾聴における補完応答の生成のための 話し手の発話の予測 海野 博揮 ${ }^{1}$ 大野 誠寛 2 伊藤 滉一朗 ${ }^{3}$ 松原 茂樹 3,4 1 名古屋大学 情報学部 2 東京電機大学未来科学部 3 名古屋大学 大学院情報学研究科 4 名古屋大学情報基盤センター [email protected] [email protected] \{ito.koichiro.v1@s, matsubara.shigeki.z8@f\}.mail.nagoya-u.ac.jp ## 概要 円滑に会話を進めるには,話し手の語りに対して聞き手が相槌などの応答をすることが重要であり,対話システムが語りを聞く際にも,傾聴態度を示す応答(傾聴応答)の生成が望まれる。傾聴応答の 1 つに話し手の発話を補完する応答,すなわち,補完応答がある. 補完応答を適切に生成できれば,語りを理解していることを効果的に伝えることができる. 本論文では,補完応答の生成に向けた,話し手の発話の予測について述べる。まず,補完応答において話し手のどのような発話が補完対象であるかを分析する. 次に,分析結果に基づき,本研究では,話し手の既発話文節と係り受け関係にある未発話文節を補完対象として予測する問題に取り組む。 ## 1 はじめに 傾聴応答は,話し手の語りに対して傾聴の態度を示す応答であり,人間同士の会話を円滑に進めるうえで重要な役割を果たしている。 そのため,対話システムが語りを聞く際にも,傾聴応答の生成が望まれる。 傾聴応答は,その機能の観点から,相槌,感心,評価,同意,補完など,いくつかの種類に分類することができる(例えば 16 種類 [1])。このうち,代表例と考えられる相槌については,その生成方法がいくつか提案されている $[2,3,4]$. しかし, 「うん」や 「はい」のような相槌は,話し手の語りの内容を必ずしも傾聴していなくても表出できるため [5], 傾聴の態度を示す効果が必ずしも高いとはいえない. 一方,話し手の語りの内容を傾聴しないとできない傾聴応答の種類の 1 つとして補完応答がある. 補完応答は,話し手の発話を補う応答であり,聞き手 が話し手のこれまでの語りを理解し,その先に発話される内容を予測したうえで発話される。そのため,補完応答を適切に生成することができれば,話し手の語りを理解し傾聴している態度をより効果的に示すことができると考えられる. 本論文では,補完応答の生成に向けた,話し手の発話の予測について述べる。まず,補完応答において話し手のどのような発話が補完対象であるかを分析する. 次に,分析結果に基づき,本研究では,話し手の既発話文節と係り受け関係にある未発話文節を補完対象として予測する問題に取り組むこととし,その予測手法を提案する. 最後に,評価害験を行い,その予測可能性について検証する。 ## 2 補完応答とその分析 ## 2.1 補完応答 語りの傾聴における補完応答とは,話し手がこれから発話する内容を予測し, 話し手に先んじて話し手の発話を補う応答である. 図 1 に補完応答の例を 2つ示す.いずれも,「甘いものが好きだった」という事柄の後に逆説の接続詞「けど」が続いているという内容をもとに,これから語られる内容(「辛いもの」や「変わった」)が予測され,補完応答が行われていると考えられる。 このような補完応答の出現割合は,伊藤ら [1] によると,傾聴応答の中で $1.29 \%$ であると報告されており,その割合は必ずしも高くない. しかし,補完応答は, 話し手の語りの内容を理解し話し手の発話を予測しないと表出できないため,傾聴態度を示すうえで,その生成を行う効果は大きいといえる。 一方,聞き手への入力となる発話,すなわち,話し手がそれまでに発話した語りに対して,聞き手が 図 1 補完応答の例 予測し補完する対象がどのような要素となっているのかは明らかにされていない. 図 1 の例 1 では,それまでに発話された語り「〜ですけど段々と」の直後に来る発話「辛いもの」を予測し補完している. これに対して,例 2 は,「〜けど年を取ってから」の直後の発話である「好みが」ではなく, その先に出現する「変わったんですよ」を予測し補完している.また,例 1 の補完対象「辛いもの」は,それまでに発話された語りのいずれの文節とも係り受け関係にないのに対して,例 2 の補完対象「変わったんですよ」は,それまでに発話された語りの文節「好きだったんですけど」や「取ってから」の係り先となっている。これらの関係の一端を明らかにすることができれば,補完応答の生成に向けた知見が得られると考えられる。 ## 2.2 補完応答の分析 本節では,聞き手が補完応答を行ったタイミングの前後で話し手の語りを 2 つに分割し,それらと補完応答の内容との関係を分析する。 分析には伊藤らが作成した傾聴応答データ [1] を使用する。このデータには, 聞き手役の 11 人のアノテータが語りの音声を聞きながら発声した傾聴応答 148,962 個が収録されている. 語りの音声データには,高齢者のナラティブコーパスである JELiCo[6] が用いられている. 収集された傾聴応答は,その機能の観点から,補完応答を含む 16 種類に分類されており,614 個の補完応答が収録されている. このうち,ランダムにサンプリングした 300 個について, 補完応答の内容がその生成タイミング以降に話し手の語りに現れるか否かを判定し,現れたものから 95 個を本分析の対象とした. 以降では, 語りに現れた補完応答の内容を補完対象と呼ぶ.なお,傾聴応答データは語りの録音データに対してアノテータが応答をしているため, 応答内容がその後の語りの展開に影響を与えることがない. そのため,応答で補完したことが原因で,補完された内容表 1 補完応答の内容の発話中での出現位置 表 2 補完対象が既発話文節の係り先であるか否か(応答直後よりも後に出現したもののみ) の発話を控えるという現象は起きない. まず,各補完応答に対して,補完対象がその応答タイミングの直後に位置するかそれよりも後かで分類し,頻度を集計した。その結果を表 1 に示す。補完対象が補完応答タイミングの直後よりも後に出現するものは 70 個あり,全体の $73.7 \%$ に相当する.補完応答の生成の実現のためには,単に応答タイミング直後に出現すると思われる話し手の発話を予測できるだけでは十分でなく, 応答タイミング直後よりも後の話し手の発話も含めた予測が必要であるといえる。 次に,補完対象が補完応答タイミングの直後よりも後に出現する 70 個の補完応答に対して,補完応答タイミング以前に発話された語りの中のいずれかの文節が補完対象に係っている(すなわち,補完対象が既発話文節の係り先である)か否かに分類し,頻度を集計した. その結果を表 2 に示す. 補完対象が既発話文節の係り先であるものは全体の $80.0 \%$ (56/70)を占め,その多くはそれまでの語りと補完対象との間に係り受け関係があることがわかる.係り受け関係にないものも存在したが,それらの多くは,語りが独話であるために長文となる傾向にあり,従属節が繋がった先に補完対象が偶然現れたものであった.以上より,応答タイミング直後よりも後の話し手の発話を予測するための戦略の 1 つとして,既発話文節の係り先を予測することが考えられる。 ## 3 係り先文節の予測 本研究では,2.2 節の分析に基づき,語りの傾聴における補完応答生成に向けて,話し手の既発話文節のうち,係り先が未入力である文節の係り先を予測する問題に取り組む.具体的には,発話文が文節列 $b_{1} \cdots b_{n}$ で表される場合, 文節 $b_{t}(1 \leq t \leq n)$ が発話されるたびに,既発話文節列 $B_{t}=b_{1} \cdots b_{t}$ と,その係り受け構造 $D_{t}$ をもとに, $B_{t}$ の中の係り先が未入力である文節の係り先を予測する。 本研究では, 既発話文節列 $B_{t}$ だけでなく, その係 図 2 従来手法 $[7,8,9]$ の係り受け構造 り受け構造 $D_{t}$ を必要とするが,文節が入力されるごとに,それまでの既入力文節列に対する係り受け構造を漸進的に同定し出力する係り受け解析手法はいくつか存在している $[7,8,9,10,11,12]$. 特に,従来手法 $[7,8,9]$ では,文節が入力されるごとに,図 2 に示すような係り受け構造を出力する. 図 2 は,「彼は私の英語の本を借りて留学の準備をしている」 という文のうち,「留学の」までが入力された時点で出力する係り受け構造を表している。係り先が未入力の文節が複数存在するときに,それらの係り先が同一か否かの情報を含んだ係り受け構造となっている. 本研究では, $D_{t}$ がこの係り受け構造となっていることを前提として,係り先の予測可能性を検証する。ただし,本論文では,自動解析結果を用いるのではなく,正解の係り受け構造を利用することとする. 本手法では, $D_{t}$ に基づいて, $B_{t}$ の中で同じ未入力文節に係る文節(複数あれば複数)を取り出し,それらと既発話文節列全体 $B_{t}$ を MLM (Masked Language Model)に入力し,その係り先文節の主辞1) を予測する。図 3 に本手法の概要を示す. 図 3 は,図 2 において $b_{6}$ まで入力された時点での MLMへの入力と出力を示している. まず,未入力文節 $b_{8}$ に係る文節として,$b_{1}$ と $b_{5}$ が取り出された後, これら係り元文節の係り先の主辞が予測されている. 既発話文節列 $\left(B_{6}\right)$ ,係り元の各文節 $\left(b_{1}\right.$ と $\left.b_{5}\right)$ ,係り先の主辞を表す [MASK] の順に連結し,先頭に [CLS] を,各々の後に [SEP] を付与したうえで,サブワー ド分割を施したものを MLM に入力し, [MASK] の予測結果を出力している. さらに, 未入力文節 $b_{7}$ に係る文節として, $b_{6}$ が取り出され,同様の予測が行われている.各時点で,異なる未入力文節に係る文節があるだけ,このような予測が繰り返される.なお,モデルには,Encoder モデルの BERT[14], RoBERTa[15],DeBERTa[16] をそれぞれ使用する.  図 3 本手法の概要 ## 4 実験 本手法の予測性能を評価するために実験を行った. ## 4.1 実験の概要 実験データには,同時通訳データベース (SIDB) の日本語講演の書き起こしデータ [17] を使用した.講演の書き起こしデータは文節で区切られており,文節番号と係り先の文節番号が付与されている.講演データは 16 講演分を使用し,そのうちの 14 講演を訓練データ,1 講演を検証データ, 1 講演をテストデータとした。本手法の実装には PyTorch ${ }^{2)}$ と Hugging Face ${ }^{3)}$ ,Juman++[18] $]^{4)}$ を用いた. モデルは $\mathrm{BERT}^{5)}$ , RoBERTa ${ }^{6}$ ,DeBERTa ${ }^{7)}$ の事前学習済みの公開モデルを使用した. fine tuning 時のハイパー パラメータは,学習率を 5e-7,バッチサイズを 16 , エポック数を 50, Early Stopping を 10 とした。また,fine tuning を行わない DeBERTa のモデルを作成し, この性能を baseline とした. 評価方法は top- $k$ accuracy を使用し, $k$ を 1 から 20 の範囲で変化させて測定した。 ## 4.2 実験結果 図 4 に実験結果を示す. 本手法が 3 つのモデルすべてで baseline を大きく上回った. baseline はいずれの $k$ においても最も性能が低く,高くても $10 \%$ 程度であり,既存の事前学習済みモデルでは係り先を予測することが困難であった。また,3つのモデルのうち DeBERTa がいずれの $k$ におても最も高い性能を示し, $k=7$ の時点で $50 \%$ を超える性能を示 2) https://pytorch.org/ 3) https://huggingface.co/ 4) https://github.com/ku-nlp/jumanpp 5) https://huggingface.co/cl-tohoku/ bert-base-japanese-whole-word-masking 6) https://huggingface.co/nlp-waseda/ roberta-base-japanese 7) https://huggingface.co/ku-nlp/ deberta-v2-base-japanese 図 4 実験結果 図 5 本手法の正解例 した. 図 5 に本手法(DeBERTa)が正解した具体例を示す. 図 5 は「違って」までの文節が入力されたときの「いるという」という文節の主辞を予測した結果である. モデルの出力 top-1 が「いる」であり, 正解の「いるという」の主辞を正しく予測できている. 以上より,本手法によって,一定の水準で係り先の主辞を予測できることを確認した。 ## 4.3 考察 本節では,予測対象の係り先文節の品詞や,それに係る文節数によって,予測しやすさがどのように変わるかを考察する.以下では,最も高い性能を示した本手法(DeBERTa)の実験結果を用いる. ## 4.3.1 品詞による正解率の比較 予測対象の係り先文節の品詞による正解率の変化を図 6 に示す. 動詞, 名詞, その他, 形容詞の順に正解率が高いことがわかる. 形容詞とその他については,その頻度が少なく,テストデータにおいて,形容詞が 31 回,その他が 14 回であった.そのため,十分に学習できなかった可能性がある。一方,動詞や名詞は多く出現するが,名詞に比べて動詞は講演時に使用される種類が少ないため,動詞の方が予測しやすかったと考えられる。 図 6 品詞による正解率の変化 (DeBERTa) 図 7 係り元文節数による正解率の変化(DeBERTa) ## 4.3.2 係り元文節数による正解率の比較 予測対象の係り先文節に係る文節数(係り元文節数)による正解率の変化を図 7 に示す. この図は,係り元文節数により予測対象を分類し,その数が 1 から 8 となるものの正解率をそれぞれ示している.既入力文節列に含まれる係り元文節の数が少ないと正解率は低下し,係り元文節の数が多いと正解率は比較的高い値を示すことを確認できる。係り先文節の主辞を予測する際に,係り受け関係にある文節の情報は有益であると考えられ,その数が多いほど,予測に有利に働くといえる。 ## 5 おわりに 本論文では,補完応答の生成に向けて,話し手の既発話文節と係り受け関係にある未発話文節を補完対象として予測する手法を提案した. 実験の結果,本手法により一定の水準で補完対象を予測可能であることを確認した.今後は,人間が本手法と同じ作業を行ったときに,どの程度の正解率を示すのか調查し,比較したい. ## 謝辞 高齢者のナラティブコーパスは,奈良先端科学技 術大学院大学ソーシャル・コンピューティング研究室から提供いただいた. 本研究は, 一部, 科学研究費補助金基盤研究 (C) No. 19K12127 により実施した. ## 参考文献 [1] Koichiro Ito, Masaki Murata, Tomohiro Ohno, and Shigeki Matsubara. Construction of responsive utterance corpus for attentive listening response production. In Proceedings of the 13th Language Resources and Evaluation Conference, p. 7244-7252, 2022. [2] Nigel G. Ward and Wataru Tsukahara. Prosodic features which cue back-channel responses in English and Japanese. Journal of Pragmatics, Vol. 32, pp. 1177-1207, 2000. [3] Jin Yea Jang, San Kim, Minyoung Jung, Saim Shin, and Gahgene Gweon. BPM_MT: Enhanced backchannel prediction model using multi-task learning. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 3447-3452, 2021. [4] Wencke Liermann, Yo-Han Park, Yong-Seok Choi, and Kong Lee. Dialogue act-aided backchannel prediction using multi-task learning. In Findings of the Association for Computational Linguistics: EMNLP 2023, pp. 15073-15079, 2023. [5] 心が感じられる音声対話システム “heartalk". http://www.y2lab.com/project/heartalk/, 2016. [6] Eiji Aramaki. Japanese elder's language index corpus v2. https://figshare.com/articles/dataset/ Japanese_Elder_s_Language_Index_Corpus_v2/ 2082706, 2016. [7] 村田匡輝, 大野誠寛, 松原茂樹. 未入力文節との構文的関係を考慮する漸進的な係り受け解析. 言語処理学会第 20 回年次大会発表論文集, pp. 193-196, 2014. [8] 相津徹也, 大野誠寛, 松原茂樹. 漸進的係り受け解析における未入力文節との構文的関係の同定. 情報処理学会第 82 回全国大会講演論文集, pp. 441-442, 2020. [9] 橋本優希, 大野誠寛, 松原茂樹. 漸進的係り受け解析における BERT を用いた未入力文節との構文的関係の同定. 情報処理学会第 85 回全国大会講演論文集, No. 2, pp. 803-804, 2023. [10] 加藤芳秀, 松原茂樹, 外山勝彦, 稲垣康善. 確率文脈自由文法に基づく漸進的構文解析. 電気学会論文誌 C (電子・情報・システム部門誌), Vol. 122, No. 12, pp. 2109-2119, 2002 [11] 大野誠寛, 松原茂樹, 柏岡秀紀, 加藤直人, 稲垣康善.節境界単位での漸進的な独話係り受け解析. 情報処理学会研究報告, 音声言語情報処理 (SLP), No. 12, pp. 53-58, 2005. [12] 大野誠寛, 松原茂樹. 文節間の依存・非依存を同定する漸進的係り受け解析. 電子情報通信学会論文誌, Vol. J98-D, No. 4, pp. 709-718, 2015. [13] 内元清貴, 関根聡, 井佐原均. 最大エントロピー法に基づくモデルを用いた日本語係り受け解析. 情報処理学会論文誌, Vol. 40, No. 9, pp. 3397-3407, 1999. [14] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4171-4186, 2019. [15] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A robustly optimized BERT pretraining approach, 2019. [16] Pengcheng He, Xiaodong Liu, Jianfeng Gao, and Weizhu Chen. DeBERTa:decoding-enhanced BERT with disentangled attention. In Proceedings of the 9th International Conference Learning Representations, pp. 121, 2021 . [17] Shigeki Matsubara, Akira Takagi, Nobuo Kawaguchi, and Yasuyoshi Inagaki. Bilingual spoken monologue corpus for simultaneous machine interpretation research. In Proceedings of the 3rd International Conference on Language Resources and Evaluation, pp. 153-159, 2002. [18] Arseny Tolmachev, Daisuke Kawahara, and Sadao Kurohashi. Juman++: A morphological analysis toolkit for scriptio continua. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 54-59, 2018.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-24.pdf
# RAG における自己認識的不確実性の評価 二宮大空 1 戸田隆道 1 1 株式会社 AI Shift \{ninomiya_hirotaka,toda_takamichi\}@cyberagent.co.jp ## 概要 大規模言語モデル (Large Language Model: LLM) の普及により,カスタマーサポート事業では外部知識に基づき回答する Retrieval Augmented Generation (RAG)の導入検討が積極的に行われている. しかし,ユーザーの質問に対する答えが検索で得られなかった場合,誤った情報を生成してしまう可能性が高い。このような場合,本来であれば回答不能であることを LLM が認識してユーザーに伝えることが望ましい,そこで,本研究では回答可能かに関する認識の正確さを自己認識的不確実性と定め,LLM を用いて定量的に評価する。さらに,LLMを用いた回答の修正が自己認識的不確実性の向上に有効であるかを検証する。 ## 1 はじめに LLM の普及に伴い,カスタマーサポートのチャットボットには高品質な対応が求められている。この分野では,ユーザーからの質問は製品やサービス情報など企業独自の情報に関連する内容が多い. しかし,LLM の学習には企業が独自に保有する情報は含まれていないことが多いため,単純に LLM を使用するだけでは最新で誤りのない高品質な回答を生成することは難しい. そこで,外部知識からユーザーの質問に関連する情報を抽出し,その情報に基づいた回答を生成することが可能な RAG $[1,2,3]$ が注目されている. しかし,RAG はユーザーの質問に対する答えが検索により得られなかった場合,誤った回答を生成する可能性が高いという課題がある. このような場合,本来は「回答に十分な情報が見つかりませんでした」といったように回答不能であることをユーザーに伝えることが望ましい. 特に,カスタマーサポートにおける社内ドキュメントは Web 上の文書などと比較すると小規模であるため,回答に必要な情報が検索対象となる外部知識に存在しない場合が多く,RAG 図 $1 \mathrm{RAG}$ の概要図 を事業応用における障壁となっている。そのため, RAG が回答可能かどうかを正しく認識できることと,それを適切に評価できることが重要となる。 一般的に誤情報を生成する問題は hallucination[4] と呼ばれる。本研究で我々が注目する外部知識の不足による誤回答生成は, hallucination の中でも特に,回答可能かどうかといった不確実性の認識の失敗によるものである. 現在この課題に焦点を当てた RAG の評価指標は少ない. そこで本研究では, RAG におけるテキスト生成モデルが回答可能かに関する認識の正確さを表す評価指標を自己認識的不確実性と定義し,LLMを用いてこれを評価する。 ## 2 RAG RAG の概要図を図 1 に示す. RAG は検索を行う Retriever とテキスト生成を行う Generator からなる構造をとる。まず Retriever が外部知識を検索してユーザーの質問に関連する文書を得る。カスタマー サポートの場合は外部知識として製品やサービスに関する社内のドキュメントやマニュアル,よくある質問集(FAQ)を用いることが多い.これらは PDF や Excel といった多様な形式で保持されており,事前に検索手法に適した形式に変換する必要がある.単純なべクトル検索の場合は事前に該当するファイルから抽出したテキストを単体で意味を表す文書に区切り,それぞれに対応するべクトル表現をべクトルデータベースに格納する.検索時はユーザー の質問に対するベクトル表現を取得し,ベクトルデータベースから類似度が高い文書を得る.そして Generator では,Retrieverが検索して得た文書に基づきLLMを用いて質問に対する回答を生成する。 RAG の普及に伴い,RAG の評価方法に関する研究も盛んに行われている [5, 6]. 特に RAGAS[7] では,RAG の性能を複数の観点から LLMを用いて評価する。本研究では特に RAG の Generator に関連する指標として,RAGAS の Faithfullness と Answer Relevancy に着目する. Faithfulness は事実に基づいて回答しているかを評価する指標であり,質問と回答から主張を複数生成し,それらが検索で得られた文書に基づいているかを判定する。一方, Answer Relevancy は回答がどの程度質問に関連しているかを評価する指標であり, 回答と検索で得られた文書から想定される質問を生成し,元の質問との類似度を算出する。これは回答に不要な情報が含まれていると低下する傾向にある。 ## 3 自己認識的不確実性 ## 3.1 概要 RAG の Retriever において回答に十分な情報が検索で得られなかった場合,Generator では回答不能であることを生成することが望ましい。そこで,本研究では Generator が回答可能かに関する認識の正確さを自己認識的不確実性(Self-Aware Uncertainty) と定義する,具体的には,検索で回答に十分な情報が得られた場合には答えの提示に向けて生成するほど,得られなかった場合には答えを提示できないことを適切に生成するほど,Self-Aware Uncertainty は高い值をとる。この時,回答の正誤は問わず,あくまで答えの提示に向けた生成をしているかどうかにのみ着目し,LLMを用いて判定する。判定時のプロンプトには答えの提示に向けた生成には 1 を,それ以外には 0 を生成するように記述され,プロンプトに含まれる \{question \} と \{answer\} はそれぞれユー ザーからの質問と RAG の応答に置換される. 事前に定義した形式で結果を取得するために生成結果が JSON 形式となるように記述する。詳細なプロンプトは付録の表 4 に示す. 判定後 (1) 検索成功かつ答えの提示に向けた生成をしている場合と (2) 検索失敗かつ答えの提示以外の生成をしている場合は適切であるため 1 を,それ以外の場合は 0 をその推論に対する評点とする.そしてこれを全てのデータにお いて平均した値を Self-Aware Uncertainty のスコアとする。 ## 3.2 回答の Rewriting Chain of Thought[8] をはじめ,LLM は段階的な推論によって多くのタスクで推論精度が向上することが知られている。そこで,自己認識的不確実性の向上を期待し,LLM で生成した回答を再度 LLM を用いて修正する Rewriting を行う。これにより,生成した回答に対して,LLM が再度客観的に評価して修正することが期待される。このとき LLM に与えるプロンプトには $\{$ question $\}$ と answer $\}$ と $\{$ context $\}$ が含まれており,それぞれユーザーからの質問と RAG の応答,検索で得た文書に置換される。もし回答の修正が不要であれば“VALID”という固定文字列を出力し,回答の修正が必要であれば修正した回答を出力するような指示が記述されている. Rewriting のプロンプトの詳細は付録の表 5 に示す. ## 4 実験 本研究では,公開されている Ameba FAQ データ はRAGの Generator に関する評価指標であるため, Generatorのみを評価対象とする.具体的には,事前にデータセット中の質問に対して Retrieverによる検索を行い,その結果を用いて Generator の評価実験を行う。 ## 4.1 実験設定 RAG の Retriever では, OpenAI の Embedding モデルである text-embedding-ada-002 でテキストのべクトル化を行い,コサイン類似度が高い文書を取得する. 付録 B の事前実験の結果より,質問と回答の組からなる FAQ はそれらを改行区切りで連結したテキストとして扱う。そして,事前に全てのテキストに対してべクトル化を行い,ベクトルデー タベースを構築する. Generator では LLM として OpenAI $の$ GPT-3.5-turbo-16k, GPT-4-turbo, Google $の$ Gemini-Pro[9] を採用する. 生成時は出力のランダム性を制御するパラメータである Temperature を 0 に設定して回答を生成する.LLM に与えるプロンプトにはカスタマーサポートのオペレーターとして回答するような指示が記載されている。 さらに,プロ  表 1 RAG の性能評価 括弧内は左から順に,検索が成功した事例(RS 事例),検索が失敗した事例(RF 事例)に限り評価したスコアを表す。 ンプトには固定文字 $\{$ context $\}$ が含まれ,Retriever の検索で得た文書に置換される.プロンプトの詳細は付録の表 3 に示す. RAG の評価指標として,3.1 節で述べた自己認識的不確実性に加え,RAGAS $の$ Generator に関する評価指標である Faithfulness と Answer Relevancyを用いる. そして,それら 3 つのスコアの平均値を Average として計測する。評価で利用する LLM は,可能な限り高精度なモデルであることが望ましいと考えられるため全て GPT-4-turbo を用いる。 評価に関する先行研究である LLM-as-a-judge[10] では,判定に用いる LLM は同じモデルによって生成された回答を好む傾向にあることが確認されており, self-enhancement bias として知られている. そのため, 本研究において推論時に Generator として GPT-4-turbo を利用している場合ではこのバイアスの影響を受けている可能性があり,正当な比較に関する課題があることに留意されたい. ## 4.2 データセット 本研究で利用する Ameba FAQデータセットは FAQ と質問データからなる. まず FAQ は質問と答えの組が 461 件存在する. 次に,質問データセットは,訓練用,検証用,評価用に分かれており,それぞれ 1313 件, 792 件,837 件存在する. これらのデー タは質問と正解 FAQ からなる. 本研究ではパラメタの更新を伴う言語モデルの学習を行わないことから,訓練用の質問データを利用しない。そして,実験に要する費用と時間の観点から,次の方法で作成した少量の検証データと評価データを利用する。 まず,全ての検証用と評価用の質問データに対して Retriever で検索した類似度上位 5 件の関連文書を得る。この結果,検証用の質問データでは関連文書に正解 FAQ が含まれている割合は $77.8 \%$ であった。次に,関連文書中に正解 FAQ が含まれているかどうかによって事例を分類し,検索が成功した事例(Retrieve-Success: RS)と失敗した事例 (Retrieve-Failure: RF)を収集する。最後に,検証用の $\mathrm{RS}$ 事例と RF 事例がそれぞれ 10 件ずつからなる計 20 件を検証データとし, 評価用の RS 事例と RF 事例がそれぞれ 50 件ずつからなる計 100 件を評価データとする.検証データは事例の分析に利用し,実験では評価データのスコアを比較する. ## 4.3 実験結果 実験結果を表 1 に示す.まず Rewriting を行わない場合における比較では, Faithfulness において GPT-4-turbo と GPT-3.5-turbo-16k が共に Gemini-Pro を上回った一方で,Self-Aware Uncertainty において Gemini-Pro が最も高い値となった.これより, Faithfulness では捉えられなかった側面を Self-Aware Uncertainty が捉えて評価することができており, Faithfulness では Generator が回答可能かに関する認識の正確さを捉えられない傾向にあると考えられる。特に検索が失敗した $\mathrm{RF}$ 事例における評価ではモデル間の Self-Aware Uncertainty の差が大きく,Gemini-Pro が最も高い值である。そのため, Gemini-Pro は回答の根拠が不十分である場合に正しく回答不能であることをユーザーに伝えることができているといえる. 次に Rewriting を行った場合における比較では, Rewriting により Average が向上したのは, GPT-3.5turbo-16k と Gemini-Pro の 2つであった. 3 つの評価指標においては,両モデルで Faithfulness が向上して $おり$, Answer Relevancy と Self-Aware Uncertainty に大きな差はなかった。これより,Rewriting は回答を事実に基づくように修正する点において特定のモデルで効果がある一方で,自己認識的不確実性に対しての影響は小さいと考えられる。これは Rewriting により自己認識的不確実性が向上するという我々の仮説を否定する結果となった. 最後に 3 つの評価指標の中で Answer Relevancy は 表 2 検証データにおける RF 事例 質問: スマートフォンからアメンバー限定記事を読む手順を教えてください。 回答 (GPT-3.5-turbo-16k): スマートフォンからアメンバー限定記事を読む手順は以下の通りです。 1. Ameba ブログアプリを開きます。 2. ブログのトップページに移動します。 3. アメンバーのブロガーのブログを選択します。 4. アメンバー限定記事を読みたい記事を選択します。 5. 記事の内容を閲覧することができます。 以上がスマートフォンからアメンバー限定記事を読む手順です。アメンバー限定記事を読むためには、ブロガー の方に申請し承認してもらう必要がありますので、ご注意ください。 回答 (GPT-4-turbo): スマートフォンからアメンバー限定記事を読むには、まずそのブロガーのアメンバーになる必要があります。アメンバーになるためには、ブロガーに申請をし、承認される必要があります。アメンバーになった後は、ブロガーがアメンバー限定で投稿した記事を読むことができます。記事の閲覧方法についての詳細は、ドキュメントに記載されている「アメンバー限定記事を閲覧する」 ページをご参照ください。 回答 (Gemini-Pro): 情報が見つかりませんでした。 Rewriting 生成結果 (GPT-3.5-turbo-16k):VALID Rewriting 生成結果 (GPT-4-turbo):**VALID** Rewriting 生成結果 (Gemini-Pro): 情報が見つかりませんで した。 検索で得た FAQ の質問: 1. アメンバー限定記事を書くには? 2. アメンバーについて 3. 記事を非公開にする方法 (スマートフォン) 4. 携帯で書こう 5. 記事の編集はどこからできますか 正解の FAQ の質問: アメンバーってなに? \{Faithfulness, Answer Relevancy, Self-Aware Uncertainty \} 回答(GPT-3.5-turbo-16k)に対する評価: $\{0.000,0.867,0\}$ 回答(GPT-4-turbo)に対する評価: $\{1.000,0.970,0\}$ 回答(Gemini-Pro)に対する評価: $\{0.000,0.821,1\}$ 手法間で差がついていない. 本研究では RAGに与える質問は Ameba のカスタマーサポートという 1 つのドメインに限られた内容である. これより,同一ドメインの質問のみ与えられる実験においては,質問に対して適切に回答されているかを評価するためには Answer Relevancy では不十分であると考えられる。 ## 4.4 事例分析 検証データに対する生成結果に基づいて事例の分析を行う. 全体の傾向として, Gemini-Pro は回答に必要な最小限のテキストを生成している一方で, GPT-3.5-turbo-16k と GPT-4-turbo は「手順は以下の通りです」といったようなカスタマーサポートのオペレーターと類似した応答文を生成している。そのため,チャットボットに与える役割によって適切な LLM が異なると考えられる. この一例を付録の表 7 に記載する。 次に,表 2 の検索が失敗した $\mathrm{RF}$ 事例では,質問に回答するための十分な情報が検索で得られていないにも関わらず,GPT-3.5-turbo-16kと GPT-4-turbo において回答を生成してしまっており, hallucination を引き起こしている. GPT-4-turbo の回答に着目すると検索で得た情報には含まれていない内容が生成されており,それに対して誤って Faithfulness に高い値を出力している。一方で,Gemini-Pro は適切に回答不能と認識しており,「情報が見つかりませんでした」と回答している. Self-Aware Uncertainty はこれらを適切に捉えて Gemini-Proのみ 1 となっており, Generator が回答可能かに関する認識の正確さを,この事例においては正しく評価できているといえる。 ## 5 おわりに 本研究では,RAGが回答可能かどうかの認識に関する評価指標として自己認識的不確実性 (Self-Aware Uncertainty)を定めた。これはRAG の評価に関する先行研究である RAGAS の評価指標と異なり, 回答可能かに関する認識の正確さを捉えている. また,LLM の段階的な推論による性能向上を期待して回答の Rewriting を行った結果,GPT-3.5-turbo-16k と Gemini-Pro において Faithfulness の向上が確認されたが,自己認識的不確実性の向上は確認されなかった。 本研究では,Ameba の FAQ という特定のドメインに限った FAQ と質問を用いて評価実験を行った. これを踏まえ,今後はチャットボット事業を通して収集した複数のドメインにおける RAG の性能評価を実施する.また,今回の実験では費用と時間の観点から小規模なデータセットを用いた. 今後はより大規模なデータを用いて実験を行い,詳細な事例分析と共に自動評価と人手評価との相関を計測し,適切な評価指標の策定を行う. さらに,カスタマーサポート事業への応用においてより優先的に評価すべき観点を事例を通して分析することで,評価に費やす費用と時間の削減を目指す. ## 参考文献 [1] Kenton Lee, Ming-Wei Chang, and Kristina Toutanova. Latent retrieval for weakly supervised open domain question answering. arXiv preprint arXiv:1906.00300, 2019. [2] Patrick Lewis, Ethan Perez, Aleksandra Piktus, et al. Retrieval-augmented generation for knowledge-intensive nlp tasks. Advances in Neural Information Processing Systems, Vol. 33, pp. 9459-9474, 2020. [3] Kelvin Guu, Kenton Lee, Zora Tung, Panupong Pasupat, and Mingwei Chang. Retrieval augmented language model pre-training. In International conference on machine learning, pp. 3929-3938. PMLR, 2020. [4] Vipula Rawte, Amit Sheth, and Amitava Das. A survey of hallucination in large foundation models, 2023. [5] Jon Saad-Falcon, Omar Khattab, Christopher Potts, and Matei Zaharia. Ares: An automated evaluation framework for retrieval-augmented generation systems, 2023. [6] Potsawee Manakul, Adian Liusie, and Mark J. F. Gales. Selfcheckgpt: Zero-resource black-box hallucination detection for generative large language models, 2023. [7] Shahul Es, Jithin James, Luis Espinosa-Anke, and Steven Schockaert. Ragas: Automated evaluation of retrieval augmented generation, 2023 . [8] Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Ed H. Chi, Quoc Le, and Denny Zhou. Chain of thought prompting elicits reasoning in large language models. CoRR, Vol. abs/2201.11903, , 2022. [9] Google Gemini Team. Gemini: A family of highly capable multimodal models, 2023. [10] Lianmin Zheng, Wei-Lin Chiang, Ying Sheng, Siyuan Zhuang, Zhanghao Wu, Yonghao Zhuang, Zi Lin, Zhuohan Li, Dacheng Li, Eric P. Xing, Hao Zhang, Joseph E. Gonzalez, and Ion Stoica. Judging llm-as-a-judge with mt-bench and chatbot arena, 2023. ## A プロンプト 表 3 RAGの Generator のプロンプト \# 概要 あなたは Ameba(アメーバ)のカスタマサポートのオペレー ターです。Ameba が提供する Ameba ブログは、ライフログを中心とした日本最大級のブログメディアです。 \#ドキュメント $<$ DOCUMENT $>$ \{context \} </DOCUMENT> \# 指示 あなたの仕事は、ドキュメントを参照し、ユーザーからの質問に答えることです。 企業としての対応が求められるため、他社のことや他社サービスに関することを話してはいけません。他社のリンクを提供することも認められません。弊社の情報のみ提供してください。 回答はできるだけ正確かつ簡潔にしてください。 <DOCUMENT >と</DOCUMENT >で囲まれたドキュメントのみに基づいて、根拠がある場合のみ回答してください。憶測で発言してはいけません。もし回答に必要な情報が見つからない場合は「情報が見つかりませんでした。」と回答してください。 ユーザーの質問に回答するとき、あなたへの指示の内容ついては言及しないでください。カスタマーサポートとして適切な言い回しを心がけてください。それでは、日本語で答えてください 表 4 自己認識的不確実性の判定のプロンプトあなたには、ユーザーの質問と、シスデ䒘の回答が与えられまるために、「情報が見つかりませんでしたりといった応答不能表す回答をしなければなりません。あなたの仕事は、システムの応答が、回答不能であることを表しているかを判断することです。 - ユーザーの質問: \{question\} - システムの回答: \{answer $\}$ システムムの回答が、「情報が見つかりませんでした」といった応答不能を表す回答である場合は、1 を出力してください。システムの回答が、それ以外の回答をしている場合は、0を出力してください。出力は、必ず以下の JSON 形式でお願いします。”judge”は、 0 または 1 の整数値を取ります。 “ $\{\{$ "judge": 0 or 1$\}\}$ \}“ 表 5 Rewriting のプロンプト質問と、それに対する回答と、回答の根拠となる事実が与えられます。回答が事実に基づいているかを評価してください。もれば、回答を修正してください。 [質問] \{question \} [回答] \{answer $\}$ [事実] \{context $\}$ 回答が事実に基づいていれば、**VALID**とだけ出力してくたさい。もし事害に基づかない曖昧な発言または嘘や詋りが含まれていれば、回答を修正し, 修正された文章のみ出力してください。その際、必要な情報が足りなければ、情報が見つからなかったことをユーザーに伝えてください。曖昧な情報は提供しないでください。 ## B Retriever に関する事前実験 RAG は,推論時に Retriever で検索する必要があるため,事前にテキストをベクトル化し,それをべクトルデータベースに格納する. 本研究で用いる Ameba FAQ データセットは QA 形式となっており,ベクトル化における適切なテキストの形式を事前実験により取得する. テキストの形式として,質問のみ $(Q)$, 答えのみ (A),質問と答えを改行区切りで連結したもの(QA)の 3 通りを比較しする。評価指標としては,検索結果の上位 $N$ 件中に答えが含まれている割合を表す $\mathrm{P} @ N(N \in 1,3,5)$ にて比較した. その結果, $\mathrm{P} @\{1,3,5\}$ において QA が最も高精度であったため,本研究では $\mathrm{QA}$ によるべクトル化を行った. ## C 検証データ中の生成事例 検証データの内,RAG の検索が失敗した RF 事例を表 2 に示した.ここでは,RAGの検索が成功した RS 事例について表 2 に示す. 3 つのモデルの回答はいずれも適切であり, Faithfulness, Answer Relevancy, Self-Aware Uncertainty の全てが高い值である. しかし, Rewriting 生成結果において, Gemini-Pro では回答の修正が行われている。さらに,修正された回答のみだけでなく,修正に伴う説明を生成している。これょり,Rewriting ではLLM の出力の制御性に伴う影響を受けると考えられる。 表 7 検証データにおける RS 事例 親しい凮:回答 (GPT-3.5-turbo-16k) 新しいメールアドレスを登録するためには、以下の手順をお試しください。 1. Ameba の会員登録情報ページにアクセスしてください 2. 登録メールアドレス項目の「メールアドレスを変更する」をクリックしてください。 3. 新しいメールアドレスを入力し、「変更」をクリックしてください。 4. 入力したメールアドレス宛に「(Ameba】メールアドレス変更のお知らせ」と いうタイトルのメールが届きます。 5. メール本文内の URLをタップまたはクリックし、変更を完了してください。 なお、すでに他のアカウントに登録されているメールアドレスへの変更を行お うとすると、入力されたメール产ドレスに誤りがあると表示され変更ができません。登録のないメれールアドレスへの変更をお證いいたします。また、変更後のメールアドレスに関連するメールは、変更前のメールアドレス宛にも一部送信される場合がありますのでご了承ください。 回答 (GPT-4-turbo): 新しいメールアドレスを登録するための手順は以下の通りです。 1. 会員登録情報ページへアクセスしてください 2. 登録メールアドレス項目の「メールアドレスを変更する」をクリックしてください。 3. ご希望の新しいメールアドレスを入力し、「変更」をクリックしてください。 4. 入力した新しいメールアドレス宛に【(Ameba】メールアドレス変更のお知らせ」というタイトルのメールが届きます。 5. メール本文内の URLをタップまたはクリックし、変更を完了してください。 なお、すでに他のアカウントに登録されているメールアドレスへの変更はでき 回答 (Gemini-Pro): 1.会員登録情報ページにアクセスしてください。※スマートからのみご利用の 合はこちらのぺージへアクセスして変更を行っでください。 2.登録メールアドレス項目の【メールアドレスを変更する】をクリックしてください。 3.ご希望のメールアドレスを入力し、【変更】をクリックしてください。 4. 入力したメールアドレス宛に「【Ameba】メールアドレス変更のお知らせ」と 5.メール本文内の URLをタップ・クリックし、変更を完了させてください。 Rewriting 生成結果 (GPT-3.5-turbo-16k):VALID Rewriting 生成結果 (GPT-4-turbo):**VALID** Rewriting 生成結果 (Gemini-Pro): 回答が事実に基づいていません。修正した回答は、以下のとおりです。 ご希望のメールアドレスを入力していただき、パスワードの再設定をお試しく ださい。パスワードを忘れた場合より新規登録を行いたいメールアドレスを入力していただき、パスワードの再設定をお試しください。 申し訳ございませんが、ご希望のメールアドレスがすでに登録されているため、 パスワードの再設定はできません。Amebaでは、1つのアカウントにつき1つ スを登録するためには、新しいアカウントを作成する必要があります。検索で得た FAQ の質問: 1. メールアドレスが既に登録されていますと表示されます (正解の FAQ) 登録したメールアドレスは変更できますか? 3. 入力されたメールアドレスに問題がありますと表示されます 4. 登録したメールアドレスを変更したいのですが 5. メールアドレスの変更について \{Faithfulness, Answer Relevancy, Self-Aware Uncertainty \} 回答(GPT-3.5-turbo-16k)に対する評価: $\{1.000,0.804,1\}$ 回答(GPT-4-turbo)に対する評価: $\{1.000,0.894,1\}$ 回答(Gemini-Pro)に対する評価: $\{1.000,0.804,1\}$
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-25.pdf
# 自己認知は LM as KB の信頼性を高めるか 井之上直也 ${ }^{1,2}$ 原口大地 ${ }^{1}$ 田中健史朗 ${ }^{1}$ 白井清昭 ${ }^{1}$ Natthawut Kertkeidkachorn ${ }^{1}$ 1 北陸先端科学技術大学院大学 2 理化学研究所 \{naoya-i,s2110137,kenshiro.tanaka,kshirai,natt\}@jaist.ac.jp ## 概要 Language Models as Knowledge Bases (LM as KB) は,自然言語形式のプロンプトで知識の問い合わせを柔軟に行える一方で,信頼度の高い問い合わせ方法は未だ確立されていない。本稿では,LM as KBに自己認知機構を取り入れ,予測結果が不確実な場合に問い合わせを分解し,熟考的に検証する新しいアプローチ Back-off LMKB を検討する。評価実験では, GPT-4 及び GPT-3.5 に基づく Back-off LMKB を質問応答データセット StrategyQA [1] 上で検証し, 自己認知機構の有効性,及び今後の課題を示す. ## 1 はじめに LM as KB とは,自然言語形式で書かれた知識べー スを大規模言語モデル (LLM) に学習させることにより,自然言語形式のプロンプトで知識の問い合わせを柔軟に行うことを目指すパラダイムである [2]. LM as KB における未解決課題の一つは,知識の問い合わせ方法である。一般に,ある知識を表現する自然言語表現は複数考えられるが,LLM の出力は言語表現の微妙な変化に鋭敏であり, 実際に言語表現によって同一の知識に対する問い合わせ結果が一貫しないことが示されている $[3,4]$. 例えば,文献 [4] では, Anne Redpath の死没地を問い合わせる際, プロンプト Anne Redpath's life ended in と Anne Redpath's passed away in とでは,LLM の返す結果がそれぞれ London, Edinburgh と異なることが指摘されており,LM as KB の信頼性を摇るがせている。 本研究では,こうした非一貫性は,予測の不確実性により捉えられるものと仮定し, LM as KB の信頼性を改善する方法を検討する,具体的には,図 1 に示すように,素の LM as KB (図 1, LMKB) の問い合わせ結果の不確実性をチェックする自己認知機構を取り入れる。結果に自信がない場合には,問い合わせを単純な命題に分解して論理的に再検証する 図 1 Back-off LMKB の概要. 知識ベース LMKB から真偽が不確実な場合には解答を使用せず,間接証明生成モデル ProofGen を通して,別の知識を用いた論理的な真偽検証にバックオフする。 (図 1, ProofGen).本研究の貢献は次の通りである: $\cdot$問い合わせ結果の不確実性に応じて動的に問い合わせを分解する新たな枠組み Back-off LMKB を提案する(§3)。 - StrategyQA [1] から構築した真偽検証問題 457 問において,GPT-4 及び GPT-3.5 に基づく Back-off LMKB の有効性を定量的に示し(§4.2),エラー 分析により今後の課題を明らかにする(§4.3). ## 2 関連研究 LLM の生成結果の信頼性推定の研究は近年盛んに行われており $5,6,7,8]$, LLM にとって真偽の分からない知識を問われた場合には,不明と答える技術が成熟しつつあり,本研究ではこれを利用する。 質問応答や事実性判定の分野においては,複雑な質問を単純な質問に分解してから LLM に問い合わせ,その結果を統合することで,解答の精度が向上することが多数報告されている $[9,10,11,12]$. しかしながら,いずれも予測の確実性を考慮した動的な分解は行っていない. 文献 [13] では,画像に対する質問応答 (VQA) において, 確信度に応じて動的に質問を分解することの有効性が確認されている。しかしながら,VQA は大力画像に対する問い合わせ,LM as KB はパラメトリック知識に対する問い合わせであり, 本研究とは実験設定が大きく異なる.また,§3で示すような再帰的な真偽検証は検討されていない。 ## 3 提案手法: Back-off LMKB ## 3.1 全体の流れ 自然言語形式の命題 $p$ と知識ベース $K$ が与えられたとき, $p$ の真偽値が分かるならば True, False のいずれか,未知ならば Unknown と答えるモデルを構築する. 形式的には次のような関数 $f$ を設計する. $ f(p)= \begin{cases}\text { True } & \text { if } K \rightsquigarrow p \\ \text { False } & \text { if } K \rightsquigarrow \neg p \text { または } K \not \leadsto p \\ \text { Unknown } & \text { 上記の両方が不確実 }\end{cases} $ ここでぃは意味的な含意を表す。 提案手法である Back-off LMKB の概要を図 1,アルゴリズムを Algorithm 1 に示す. 引数について, $p$ は検証対象の命題, $d$ は再帰の上限, $r$ は現在の再帰呼び出しの深さである.以下,解説する。 Step 1: $K$ 上で事前訓練された LLM に基づく知識ベースモデル LMKB を構築し (\$3.2), 命題 $p$ の真偽を検証する (2 行目). ただし,LMKB は命題の真偽に確信が持てない場合に,Unknown を返すことができるとする. ここで True, False が決まる場合,もしくは再帰の上限に達した場合 $(r=d)$ には,真偽値を返して処理を終了する(3 行目). Step 2: §1 で述べたように,予測の不確実性は LLM の知識の非一貫性のサインであると考えられる. そこで, 予測が不確実なとき,すなわち LMKB が Unknown を返した場合には,間接証明にバックオフし, $p$ の真偽を論理的に検証する (4行目). 具体的には,まず $p$ と論理的な関係にある命題の集合 $Q=\left.\{q_{1}, q_{2}, \ldots, q_{n}\right.\}$ を求めるモデル ProofGen を構築する(§3.3). 論理的な関係は命題論理式 $\phi$ で表され,例えば,十分条件の関係であれば, $(\phi, Q)=\left(q_{1} \wedge q_{2} \rightarrow p,\left.\{q_{1}, q_{2}\right.\}\right)$ となる. 次に, $q_{i} \in Q$ の真偽值 $y_{q_{i}}$ を検証し,仮定 $\Psi=$ $\left.\{q_{i} \mid q_{i} \in Q, y_{q_{i}}=\right.$ True $\} \cup\left.\{\neg q_{i} \mid q_{i} \in Q, y_{q_{i}}=\right.$ False $\}$ を構築する.ここで, $\phi, \Psi$ より $p$ または $p$ が帰結できるならば(例えば $y_{q_{1}}=$ True, $y_{q_{2}}=$ True の場 合),対応する真偽値を返す。例えば,図 1 では, $\phi=q_{1} \wedge q_{2} \rightarrow p$ となるような命題 $q_{1}, q_{2}$ を求め, $q_{1}=$ True, $q_{2}=$ True から $p$ が True であることを帰結している.なお, $q_{i} \in Q$ の真偽検証では, $q_{i}$ を入力として Step 1 から再帰的に処理を行う. ## 3.2 知識ベースモデル: LMKB 命題 $p$ と知識ベース $K$ が与えられたとき, $p$ の真偽値が分かれば True, False のいずれかを,そうでなければ Unknown を返すモデルを構築する。 本研究では,Kはウェブ上に存在するウェブペー ジ集合とし,ウェブコーパスを用いて事前訓練されたLLMをLMKB として用いる. 具体的には, §A. 1 のプロンプトの雛形を用いて言語モデルに $p$ の真偽を問う. 得られた応答の最初のトークンの生成確率分布から True と False の生成確率を取り出した上で正規化し, $p$ の真偽值 $Y$ の確率分布 $\pi(Y)$ とする. 予測の確信度については, LLM の生成確率に基づく確信度と正解率の間に高い相関があることが知られているため [7], $Y$ の正規化エントロピー $\mathrm{NE}(Y)=$ $-\sum_{y \in\{\text { True }, \text { False }\}} \pi(Y=y) \log \pi(Y=y) / \log 2 \in[0,1]$ を計算し, $1-N E(Y)$ を予測の確信度とする. 最終的には,確信度が閾値 $\tau$ 以上ならば真偽値を返す。 $ \begin{aligned} & \operatorname{LMKB}(p)= \\ & \left.\{\begin{array}{cl} \underset{y \in\{\text { True,False }\}}{\operatorname{argmax}} \pi(Y=y) & \text { if } 1-\mathrm{NE}(Y) \geq \tau \\ \text { Unknown } & \text { otherwise. } \end{array}\right. \end{aligned} $ ## 3.3 間接証明生成モデル: ProofGen 命題 $p$ が与えられたとき, $p$ と論理的な関係 $\phi$ にある命題の集合 $Q=\left.\{q_{1}, q_{2}, \ldots, q_{n}\right.\}$ を求める. $\phi$ に様々なバリエーションを持たせることにより, 表 1 BoolQA の精度. 下段は参考値. 様々な間接証明戦略を用いることができるが,今回は $\phi=q_{1} \wedge q_{2} \rightarrow p$ に固定し, $\phi, q_{1}, q_{2} \vdash p$ より $p$ を True と帰結する戦略のみを採用する. 図 1 における Moon Jae-in was born outside of Khanbaliq の分解はその一例である. その他の戦略は §Bを参照のこと。 $p$ から $Q$ を生成するために,§A. 2 の雛形を用いてプロンプトを作成し,LLM に入力する. $p$ が False である場合には,架空の事実を含む十分条件を生成する必要があるため,プロンプトでは,生成される命題 $q_{1}, q_{2}$ は偽の事実 (false facts) であることを許している. 最後に,LLM の生成結果からパタンマッチにより $q_{1}, q_{2}$ を抽出し, $\operatorname{ProofGen}(p)$ の出力を $(\phi, Q)=\left(q_{1} \wedge q_{2} \rightarrow p,\left.\{q_{1}, q_{2}\right.\}\right)$ とする. ## 4 評価実験 本節では,研究の大前提となる LMKB 単体の性能を確認し,LMKB の予測が不確実な場合の間接証明へのバックオフの効果を検証する. ## 4.1 実験設定 データセット StrategyQA [1] (BigBench 版) ${ }^{1)}$ の Validation Split 457 問を用いる. StrategyQA は,(a)複数の知識を統合して答えるマルチホップ $\mathrm{QA}$ であり,(b) 解答に必要な知識が質問からは分からない質問を集めたデータセットであり,本研究の実験に適していると考えられる.GPT-4 により質問文を肯定形に変換して実験に利用する。 モデル LMKB と ProofGen を実装するための LLM として, GPT-4 (gpt-4-1106-preview),または GPT-3.5 (gpt-3.5-turbo-1106)を OpenAI API 経由で用いる2). 実験では,以下のモデルの性能を比較する。 - BooIQA: LMKB に真偽値を強制的に出力させる (提案手法 $\tau=0$ と等価). ・BoolQA+Unk: LMKB の検証結果をそのまま使う (提案手法 $d=0$ と等価). - Back-off LMKB: 提案手法. 再帰の深さの上限 $d=1, d=2$ それぞれを評価する.  図 2 閾値 $\tau$ を変化させた場合の解答率と精度の変化 (上: GPT-4, 下: GPT-3.5). 評価指標それぞれのモデルは「解答しない (Unknown)」という選択肢を取ることができ,解答対象の問題数が異なるため,性能を互いに比較することが難しい。そこで,Selective Classification タスク [15]のもとでモデルを評価する. すなわち,閾值 $\tau$ を変化させ,解答率と精度の変化をプロットする. 本実験では $\tau$ を 0.025 きざみで 0.0-1.0 まで変化させ,解答率 $=\frac{\text { モデルが真偽値を返した問題数 }}{\text { 全問題数度 }}$ 同一解答率の上での精度比較が可能になる。 ## 4.2 実験結果 BoolQA の精度を表 1, BoolQA+Unk, Back-off LMKB の解答率と精度の関係を図 2 に示す。 ## LMKB は十分な精度を持ち,予測の不確実性を推定できるか? 表 1 より,LMKB は既存研究と 比べても遜色ない精度で真偽検証ができることが確認できた. また,図 2 より,両言語モデルにおいて BoolQA+Unk の解答率と精度の間に負の相関が確認 できた。これは,正規化エントロピーに基づく確信度を用いた LMKB が,予測の不確実性を適切に推定できていることを意味する. 表 2 LMKB が Unknown と答えた事例における,間接証明に基づく真偽検証の精度 (GPT-4). \% True は正解ラべルが True の問題の割合を示す. ## 不確実な予測に対する間接証明へのバックオ フは有効か?図 2 より, 同一の解答率における BoolQA+Unk と提案手法の精度を比べると,GPT-4 ではすべての解答率において,GPT-3.5 では解答率 60\%以上において,提案手法がより高い精度を得ら れた。これより,予測が不確実である場合の間接証明へのバックオフの有効性が確認できた. さらに,図 2 より, $d=1$ と $d=2$ を比べると, $d=2$ の精度が全体的に高い傾向にあることがわかる.これより,慎重な真偽検証を再帰的に行うことの有効性も確認できた. 図 3 に, BoolQA は False, BoolQA+Unk は Unknown と判断するところを,間接証明へのバックオフにより True と結論を上書きし,正解できた事例を示す. ## 間接証明による真偽判断はどの程度正確か? GPT-4 の解答率 $95 \%$ 付近の実験結果について,間接証明に基づく真偽判断の性能を評価した. LMKB が Unknown と解答した事例における,間接証明に 基づく真偽判断の精度を表 2 に示す. True を正解と する問題の割合はそれぞれ $62.8 \%, 61.8 \%$ 程度であ り,Unknown を単純に True または False に倒す場合 に比べて,10\%以上高い精度で真偽判断を実現でき ていることになる.以上より,間接証明へのバック オフの効果を改めて確認できた. ## 4.3 間接証明のエラー分析 今後の課題を探るため,表 2 の $(d, \tau)=(2,0.35)$ の結果において,間接証明が真偽判断を誤った事例 20 件を人手により分析した. 予測 $=$ True, 正解 = False: 9 件 6 件/9 件は, ProofGen は期待通りに動作していたが,LMKB の真偽判定誤りに起因するエラーが 3 件,LMKB の真偽判定は正しいが,データセットの質問がそもそも曖昧であり,True も正解といえるケースが 3 件あった. 残りの 3 件 $/ 9$ 件は,ProofGen のエラーにより, 生成された命題の集合が入力命題の十分条件でないという事例であった(図 4). 予測 = Unknown,正解 = True: 11 件 9 件/11 件については,ProofGen にエラーはないが, 5 件/9 件に 図 3 間接証明へのバックオフが有効な例. “T: ... F: ...” は LMKB の予測確率分布,“C:” は確信度,“ $\rightarrow$ ”は最終的な真偽検証結果を示す(式 2 による)。 ついては,LMKB が少なくとも 1 つの命題を False または Unknown と判断したために,十分条件が成立していると判定されずに True と帰結しなかったケースであった (図 5). 残りの 4 件/9 件については, LMKB の真偽判定誤りにより True と帰結されなかったケースであった. 残り 2 件/11 件は,前述同様,生成された命題の集合がそもそも十分条件になっていないものであった. ## 5 おわりに 本稿では,LM as KB の信頼性向上を目指し,予測の不確実性を間接証明によるバックオフで補うアプローチを検討した. $\$ 4.3$ のエラー分析により,大きく二つの課題が見えてきた。 第一に,LMKB の真偽検証の精度,及び予測の不確実性の推定精度の問題である。予測の不確実性の指標を,知識ベースにある命題とそうでない命題を明確に切り分けられる統制された実験条件下で研究していく必要がある. 第二に,間接証明戦略の不十分さである. 現状の提案手法では,与えられた命題に対して一つの特定の形の証明を試みているが,これにより誤った Unknown の予測を生み出してしまった。一つの証明戦略について複数の命題集合を生成する,証明戦略を増やすなどの対策が必要である。また,最適な証明戦略の自動選択や,確実に真偽検証できる方向に探索的に証明を展開するなど,証明探索の研究なども今後の課題となる. ## 謝辞 本研究は JSPS 科研費 $19 K 20332$ の助成を受けたも のです. 所属研究室の坂井吉弘氏,趙羽風氏には論文に関して有益な助言をいただきました. 両氏に感謝いたします. ## 参考文献 [1] Mor Geva, Daniel Khashabi, Elad Segal, Tushar Khot, Dan Roth, and Jonathan Berant. Did aristotle use a laptop? a question answering benchmark with implicit reasoning strategies. Transactions of the Association for Computational Linguistics, Vol. 9, pp. 346-361, 2021. [2] Fabio Petroni, Tim Rocktäschel, Sebastian Riedel, Patrick Lewis, Anton Bakhtin, Yuxiang Wu, and Alexander Miller. Language models as knowledge bases? In Kentaro Inui, Jing Jiang, Vincent Ng, and Xiaojun Wan, editors, Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 2463-2473, Hong Kong, China, November 2019. Association for Computational Linguistics. [3] Zhengbao Jiang, Jun Araki, Haibo Ding, and Graham Neubig. How can we know when language models know? on the calibration of language models for question answering. Transactions of the Association for Computational Linguistics, Vol. 9, pp. 962977,2021 . [4] Lovisa Hagström, Denitsa Saynova, Tobias Norlund, Moa Johansson, and Richard Johansson. The effect of scaling, retrieval augmentation and form on the factual consistency of language models. In Houda Bouamor, Juan Pino, and Kalika Bali, editors, Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, pp. 5457-5476, Singapore, December 2023. Association for Computational Linguistics. [5] Jiahui Geng, Fengyu Cai, Yuxia Wang, Heinz Koeppl, Preslav Nakov, and Iryna Gurevych. A survey of language model confidence estimation and calibration, 2023. [6] Alex Mallen, Akari Asai, Victor Zhong, Rajarshi Das, Daniel Khashabi, and Hannaneh Hajishirzi. When not to trust language models: Investigating effectiveness of parametric and nonparametric memories. In Anna Rogers, Jordan Boyd-Graber, and Naoaki Okazaki, editors, Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 9802-9822, Toronto, Canada, July 2023. Association for Computational Linguistics. [7] Katherine Tian, Eric Mitchell, Allan Zhou, Archit Sharma, Rafael Rafailov, Huaxiu Yao, Chelsea Finn, and Christopher Manning. Just ask for calibration: Strategies for eliciting calibrated confidence scores from language models fine-tuned with human feedback. In Houda Bouamor, Juan Pino, and Kalika Bali, editors, Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, pp. 5433-5442, Singapore, December 2023. Association for Computational Linguistics. [8] Potsawee Manakul, Adian Liusie, and Mark Gales. SelfCheckGPT: Zero-resource black-box hallucination detection for generative large language models. In Houda Bouamor, Juan Pino, and Kalika Bali, editors, Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, pp. 90049017, Singapore, December 2023. Association for Computational Linguistics. [9] Pruthvi Patel, Swaroop Mishra, Mihir Parmar, and Chitta Baral. Is a question decomposition unit all we need? In Yoav Goldberg, Zornitsa Kozareva, and Yue Zhang, editors, Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing, pp. 4553-4569, Abu Dhabi, United Arab Emirates, December 2022. Association for Computational Linguistics. [10] Sewon Min, Kalpesh Krishna, Xinxi Lyu, Mike Lewis, Wen-tau Yih, Pang Koh, Mohit Iyyer, Luke Zettlemoyer, and Hannaneh Hajishirzi. FActScore: Fine-grained atomic evaluation of factual precision in long form text generation. In Houda Bouamor, Juan Pino, and Kalika Bali, editors, Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, pp 12076-12100, Singapore, December 2023. Association for Computational Linguistics. [11] Tushar Khot, Harsh Trivedi, Matthew Finlayson, Yao Fu, Kyle Richardson, Peter Clark, and Ashish Sabharwal. Decomposed prompting: A modular approach for solving complex tasks. In The Eleventh International Conference on Learning Representations, 2023. [12] Jiajie Zhang, Shulin Cao, Tingjian Zhang, Xin Lv, Juanzi Li, Lei Hou, Jiaxin Shi, and Qi Tian. Reasoning over hierarchical question decomposition tree for explainable question answering. In Anna Rogers, Jordan Boyd-Graber, and Naoaki Okazaki, editors, Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 14556-14570, Toronto, Canada, July 2023. Association for Computational Linguistics. [13] Zaid Khan, Vijay Kumar BG, Samuel Schulter, Manmohan Chandraker, and Yun Fu. Exploring question decomposition for zeroshot vqa, 2023 [14] Aakanksha Chowdhery, Sharan Narang, Jacob Devlin, Maarten Bosma, Gaurav Mishra, Adam Roberts, Paul Barham, Hyung Won Chung, Charles Sutton, Sebastian Gehrmann, Parker Schuh, Kensen Shi, Sasha Tsvyashchenko, Joshua Maynez, Abhishek Rao, Parker Barnes, Yi Tay, Noam Shazeer, Vinodkumar Prabhakaran, Emily Reif, Nan Du, Ben Hutchinson, Reiner Pope, James Bradbury, Jacob Austin, Michael Isard, Guy Gur-Ari, Pengcheng Yin, Toju Duke, Anselm Levskaya, Sanjay Ghemawat, Sunipa Dev, Henryk Michalewski, Xavier Garcia, Vedant Misra, Kevin Robinson, Liam Fedus, Denny Zhou, Daphne Ippolito, David Luan, Hyeontaek Lim, Barret Zoph, Alexander Spiridonov, Ryan Sepassi, David Dohan, Shivani Agrawal, Mark Omernick, Andrew M. Dai, Thanumalayan Sankaranarayana Pillai, Marie Pellat, Aitor Lewkowycz, Erica Moreira, Rewon Child, Oleksandr Polozov, Katherine Lee, Zongwei Zhou, Xuezhi Wang, Brennan Saeta, Mark Diaz, Orhan Firat, Michele Catasta, Jason Wei, Kathy MeierHellstern, Douglas Eck, Jeff Dean, Slav Petrov, and Noah Fiedel. Palm: Scaling language modeling with pathways, 2022. [15] Yonatan Geifman and Ran El-Yaniv. Selective classification for deep neural networks. In I. Guyon, U. Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. ## A LLM に与えるプロンプト ## A. 1 LMKB For the following question, provide your best guess. Give ONLY the guess. No other words or explanation. $\{p\}$. True or False? ## A. 2 ProofGen To conclude a statement $X$, what premises are needed? Write two atomic premises $P$ and Q. - $P$ and $Q$ can be false facts. $P$ and $Q$ should contain all the world knowledge required to prove X. P and Q should be simple sentences consisting of only subject-verb-object. - Write specific statements. Do not use pronouns. Use specific nouns. Give ONLY answer. No other words or explanations. For example: P: <Premise 1> Q: <Premise 2> $\mathrm{X}:\{p\}$ ## B その他の証明戦略の例 - Modus Tollens: $\phi=\left(p \rightarrow q_{1}\right)$ とし, $\phi, \neg q_{1} \vdash \neg p$ より $p$ を偽と帰結する。 - Disjunctive Syllogism: $\phi=(p \vee \neg p)$ とし, $\phi, \neg p \vdash p$ より $p$ を真と帰結する. ## C 間接証明のエラー 図 4,図 5 に,間接証明のエラーに起因する真偽検証誤りを示す。 図 4 ProofGen のエラーの例(右下)「「UMG の本社にはオーディオ機器がある」「NYSE の closing bell はオー ディオ機器で放送できる」だけでは「UMG の本社には NYSE の closing bell を放送するシステムがある」とは言い切れない. Michael Bloomberg can fund the debt of Micronesica for a decade. 図 5 LMKB により生成された十分条件は正しいが LMKB が Falseを返したため,証明が失敗し,全体としては Unknownを返した。
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-26.pdf
# 言語は等しく複雑か?: 多義語埋め込み表現による形式一意味対応の複雑性 中山拓人 慶應義塾大学 [email protected] ## 概要 「あらゆる言語は,等しく複雑である」という言語の性質は,言語学において長く信じられてきた。実際に,この性質を支持するような事例が報告されている一方で,反証的な研究結果も同時に挙げられており,現在に至るまで,その真偽については未解決である。本研究は,言語全体の複雑性を決定する主要な要因の 1 つとして, 形式 - 意味の対応関係に注目し, 情報理論に基づく複雑性計測手法の提案,及び多言語間の複雑性比較を行った. 結果として,極端に複雑な対応関係を持つ言語は無いが,他に比べて,より単純な対応関係を持つ言語が存在すること, 及び言語の等複雑性はそれほど強い性質ではない,ということが示唆された. ## 1 はじめに 言語学において,「あらゆる言語は,等しく複雑である」という性質が,広く信じられてきた。一般に言語の等複雑性 (linguistic equi-complexity) と呼ばれるこの性質は, 70 年近く前から示唆されているものである。例えば, Hockett は, “impressionistically it would seem that the total grammatical complexity of any language, counting both morphology and syntax, is about the same as that of any other" $[1$, p.180] と述へている. 実際に,Everett は Pirahã 語について, "[n]o one should draw the conclusion from the paper that the Pirahã language is in any way 'primitives'. It has the most complex verbal morphology I am aware of. And a strikingly complex prosodic system” [2, p. 62] と主張しており,等複雑性を支持する事例を報告している。 この様に,言語間において,個別の側面ごとの複雑性に差異が見られても,全体を均した複雑性には差がないという性質が,暗黙の裡に支持されてきた。 しかし,この性質の真偽については,後述の通り,未解決と言わざるを得ない状況にある。この主たる理由として挙げられるのは,言語全体の複雑性を計測する方法について,統一的な見解が無いことである. そこで本研究は,言語全体の複雑性を決定する主要な要因の 1 つが,形式 - 意味の対応関係であると仮定し,その尺度を用いた複雑性計測手法の提案,及び多言語間の複雑性比較を実践する.以下では, 2 節で, これまでの複雑性研究の概観と, 意味の側面を考慮した計測をするための,埋め込み表現について概観する. その後,3節で方法論の提案を行い, 4 節で多言語比較の結果と,その考察を示す. ## 2 先行研究 ## 2.1 言語の等複雑性 コンピュータ技術の向上により,2000 年代以降から,膨大な計算力を用いた複雑性研究が行われてきたが,現在に至るまでも,言語の等複雑性に対する支持/不支持のいずれの立場も見られる。例えば, Bentz らの研究では,言語全体の複雑性を,様々な側面の情報を格納したべクトルとして表現する手法を用いた [3].それを用いて,各次元間における相関の有無によって,各側面同士のトレードオフ関係に,ベクトル間の有意差の有無によって,言語全体の複雑性にアプローチした. 結果として,トレードオフ関係にはほとんど有意な相関は見られなかったが,その一方で,言語全体の複雑性については有意な差が見られず,言語の等複雑性を示唆する結果が示されている。また,Shannon の情報理論 [4] 亿基づいて,単語についての uni-gram エントロピーとエントロピーレートを,多言語間で比較した研究もある [5]. 結果として,2つの尺度とも極めて狭い範囲に収まっており,言語の等複雑性が示唆される結果が示されている. 一方で,否定的な立場を示す研究もある。 Koplenig らの研究では,「それ以前の系列が与えられた条件下で,次に出てくる要素の予測しづらさ」 を言語の複雑性と定義し, 情報エントロピーとして算出したその值を,コーパス間で比較した [6]. 結果として,あるコーパスの中でエントロピーが高い /低い言語は,別のコーパス内でも,同様に高い/低いエントロピーを持つという,言語の等複雑性に対して否定的な示唆がなされている。また,人口の多いコミュニティで使用される言語程, エントロピーが高い,即ち複雑性が高い傾向があることを指摘しており,実際に言語が使用される環境が,言語の複雑性を決める要素の 1 つであることが示唆されている研究もある [7]. この様に,現在に至るまで,言語の等複雑性についての論争は,未解決である. これまでの複雑性研究は, 形式的側面の分析が主な関心の対象であるが,これは多くの研究で活用されている, Shannon の情報理論 $[4$, p. 1] で明示されている態度である. Frequently the messages have meaning; that is they refer to or are correlated according to some system with certain physical or conceptual entities. These semantic aspects of communication are irrelevant to the engineering problem. The significant aspect is that the actual message is one selected from a set of possible messages. The system must be designed to operate for each possible selection, not just the one which will actually be chosen since this is unknown at the time of design. Shannon は,上記の様に言及しており,この態度は現在の研究にも大きく継承されているといえる。しかし,言語の複雑性研究において,意味的側面を考慮に入れるべきであるという手法も,昨今取り上げられている (e.g., [8]). 本研究は, 形式的側面だけでなく, 意味的側面も考慮した上で,言語の等複雑性にアプローチすることを目的とする。 ## 2.2 多義性と埋め込み表現 構文文法などで言われている,形式と意味のぺアリングを,言語の基本的な単位という立場に立てば,形式 - 意味の対応関係の複雑性が,言語全体の複雑性を決定する要因の 1 つであると見做せる。 そして,形式 - 意味の対応関係の複雑性のあり方として,「ある形式を見た時に,その形式がどんな意味を表しているか,予測しづらい程,複雑であり,一対一対応に近い程,単純である」という尺度が考えられる。故に,この尺度を計測するためには,ある形式が,いくつの語義と結びついているのかを,自動で推定する手法が必要となる. これを解決するために,本研究では文脈を考慮した埋め込み表現を用いる。埋め込み表現としてよく知られているのは, word2vec [9] [10] である.しかし, word2vec は文脈を考慮していないため,それから得られる埋め込み表現からは,形式が持つ複数の語義を推定することはできない,各トークンにつき得られた埋め込み表現であれば,それらを利用して語義巣を推定することができるだけでなく,各トー クンがどの語義で使われているかも,得ることができる. 文脈を考慮した埋め込み表現を得られるモデルは,よく知られているものが複数ある. Devlin らが提案した BERT (Bidirectional Encoder Representation from Transformers) [11] は, 双方向の文脈を学習することで,埋め込み表現を得るが,事前学習だけでなく,タスクに合わせた微調整を組み合わせて行うことが,特徴である. Peter らが提案した ELMo (Embeddings from Language Model)[12] は, 双方向 LSTMを用いて,各トークンに対し入力文脈全体を加味した埋め込み表現を算出する点が特徴である.この特徴から,多義語をモデル化することが可能になっている.また ELMo には,多言語用の学習済みモデルが公開されており [13] [14],本研究ではこれを理由に,以下で取り組む実験では,ELMoを使用した。 ## 3 方法論 ## 3.1 提案する手法 本研究が提案する手法では,「ある形式から,それが表している意味をどれだけ予測しづらいか」を言語全体の複雑性を決定する主要な要因と仮定し, Shannon の情報理論に基づいて,これを計算する. 手法のアルゴリズムとしては,まずデータとなるテクストを,任意の単位に分割し,それで得られたトークンごとの埋め込み表現を得る。ここで想定される単位とは主に単語であるが,場合によってはより大きな,複数単語の系列や,より小さい n-gram も考えられる。その場合,文脈に相当する単位を事前に設定することが想定される。 次に得られたトークンごとの埋め込み表現を,タイプごとにクラスタリ ングを行う。ここで得られたクラスター数が,そのタイプの語義の推定数となる. 各クラスターに属するトークン数から出現確率の分布 $p_{k}$ を算出し, それを基に各タイプのエントロピー $H$ を,以下の公式で求める. $ H=-\sum_{k} p_{k} \log _{2} p_{k} $ エントロピーに関しては,各タイプのエントロピーの単純な総和では,タイプ数に依存して増加するため,各タイプ自体の出現確率を掛けることで,平均化する. 以下の Algorithm 1 は, 疑似コードによる手順の記述である. ## 3.2 実験 本実験では,単語を対象として,10 言語 (英語,ギリシャ語,スペイン語,中国語,チェコ語,ドイツ語, 日本語, フランス語, ヘブライ語, ロシア語)の比較を行った. 文脈を考慮した埋め込み表現を各単語トークンに対して得るために,学習済みの ELMo モデルを使用した.多言語比較するにあたって,学習済みモデルの ELMoForManyLangs [13][14]を使用した.これは公開されている 44 言語の学習済みモデルであり,以下では 10 言語のモデルを使い,比較した。使用するデータは,コーパスから無作為にダウンロードした各言語 10,000 文を使用した. 各コーパスと抽出したデータの情報を,それぞれ表 1 ,表 2 にまとめた. 表 2 使用データの概要抽出単語数 $(/ 10,000$ 文) クラスタリング手法としては,BDSCANを使用した. クラスター数を未知の語義数の推定値として利用するため,クラスター数を予め設定する必要が無い手法を用いた。 そうして得られた,クラスター に対するトークンの分布から,エントロピーを算出した. ## 4 結果 算出された各言語についてのエントロピーは,図 1 の通りであった. 全体として,0.5未満の小さな値を示しており,最小値がチェコ語 ( 0.0938 )で,最大值がフランス語 ( $\approx 0.4496$ )であった. ここで計算したエントロピーは,0 に近い程一対一対応に近く, 1 に近い程 1 つの形式が平均して 2 つの語義に対応していることを意味している. その意味では, どの言語も 1 つの形式に対しては, 1 つ以上 2 つ未満の語義のみが結びついており,極端に一対多数の様な,複雑な対応関係を示す言語は見られな 図 1 エントロピー比較 かった. 一方で,チェコ語とロシア語については,全体の中でも特に低い, 0.1 未満の值を示している. このことから,形式と語義の対応関係が,極めて一対一対応に近い言語があることが示唆される. 故に,形式 - 意味の対応関係における言語の複雑性は,極端に高い值を示す言語は無いが,他に比べて,より一対一対応に近い単純な対応関係を持つ言語が存在すること,及び,言語の等複雑性はそれほど強い性質ではない,ということが示唆される。 ## 5 結語 本研究は,言語全体の複雑性を決定する主要な要因の 1 つとして, 形式 - 意味の対応関係に注目し,情報理論に基づく複雑性計測手法の提案, 及び多言語間の複雑性比較を行った. 結果として, 形式 - 意味の対応関係における言語の複雑性は,極端に高い値を示す言語は無いが,他に比べて,より一対一対応に近い単純な対応関係を持つ言語が存在すること,及び,言語の等複雑性はそれほど強い性質ではない,ということが示唆された. 今後の課題として, 本研究では, 10 言語のみの分析に留まったため,学習済みモデルが公開されている 44 言語全ての分析が必要である. また, 本研究が対象とした単位は単語であったが,単語以外の単位にも拡張が必要である. これは,単語という単位が明確に定義できない言語 (e.g., 日本語,中国語) においては,意味と結びついている形式系列の単位として,単語が妥当であるか否かは,明確ではないためである. 最後に,意味を離散的にしか扱えていない点が,課題として挙げられる. 本研究では,語義数をクラスター 数によって推定したが,実際には,語義は連続値的な振る舞いをしていると考えられる,今後は,多次元空間に埋め込まれた分散表現を利用し,形式と連続値としての意味との対応関係を対象としていく必要がある。 ## 謝辞 本研究は,JST 次世代研究者挑戦的研究プログラ ム JPMJSP2123 の支援を受けたものです. ## 参考文献 [1] Charles . Hockett. A course in modern linguistics. Macmillan, 1958. [2] Daniel L. Everett. Cultural constraints on grammar and cognition in piraha . Current Anthropology, Vol. 46, pp. 621-646, 2005. [3] Christian Bentz, Ximena Gutierrez-Vasques, Olga Sozinova, and Tanja Samardžić. Complexity trade-offs and equi-complexity in natural languages: a meta-analysis. Linguistics Vanguard, Vol. 9, pp. 9-25, 2022. [4] Claude E. Shannon. A mathematical theory of communication. The Bell System Technical Journal, Vol. 27, pp. 623-656, 1948. [5] Christian Bentz, Dimitrios Alikaniotis, Michael Cysouw, and Ramon Rerrer i Cancho. The entropy of words - learnability and expressivity across more than 1000 languages. Entropy, Vol. 19, p. 275, 2017. [6] Alexander Koplenig, Sascha Wolfer, and Peter Meyer. A large quantitative analysis of written language challenges the idea that all languages are equally complex. Scientific Reports, Vol. 13, , 2023. [7] Alexander Koplenig, Sascha Wolfer1, and Peter Meyer1. Human languages trade off complexity against efficiency. Scientific Reports, in press. [8] Christian Bentz. Beyond words: Lower and upper bounds on the entropy of subword units in diverse languages. In The 16th International Cognitive Linguistics Conference, Düsseldorf, Germany, 2023. [9] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S. Corrado, and Jeffery Dean. Distributed representations of words and phrases and their compositionality. In Advances in Neural Information Processing Systems, Vol. 26, pp. 3111-3119. Curran Associates, Inc., 2013. [10] Tomas Mikolov, Kai Chen, Gregory S. Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. In International Conference on Learning Representations, 2013. [11] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, 2019. Association for Computational Linguistics. [12] Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, and Luke Zettlemoyer. Deep contextualized word representations. New Orleans, Louisiana, 2012. Association for Computational Linguistics. [13] Wanxiang Che, Yijia Liu, Yuxuan Wang, Bo Zheng, and Ting Liu. Towards better UD parsing: Deep contextualized word embeddings, ensemble, and treebank concatenation. In Proceedings of the CoNLL 2018 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies, pp. 55-64, Brussels, Belgium, 2018. Association for Computational Linguistics. [14] Murhaf Fare, Andrey Kutuzov, Stephan Oepen, and Erik Velldal. Word vectors, reuse, and replicability: Towards a community repository of large-text resources. In Proceedings of the 21st Nordic Conference on Computational Linguistics, pp. 271276, Gothenburg, Sweden, 2017. Association for Computational Linguistics.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-27.pdf
# 超伝導材料の転移温度予測における事例間の繋がりを考慮した 知識グラフの有効性の調査 吉野草太 ${ }^{1}$ 旭良司 ${ }^{2}$ 三輪誠 ${ }^{1}$ 佐々木裕 1 1 豊田工業大学 2 名古屋大学 \{sd20109, makoto-miwa, yutaka.sasaki\}@toyota-ti.ac.jp [email protected] .nagoya-u.ac.jp ## 概要 近年,データ駆動で材料開発を行うマテリアルズ・インフォマティクスの発展に伴い,属人的な知見への依存を減らし,より高性能に物性値を予測するための研究が進められている。超伝導材料は高い応用可能性により開発が急がれているが,膨大な探索範囲から目的に見合った転移温度を持つ材料を発見するのは困難である。そのため,組成式や構造情報から転移温度を予測し,材料探索を加速化するアプローチが研究され,その 1 つにデータベースから作成した知識グラフを用いて転移温度予測を行う手法がある。しかし,既存手法の知識グラフは事例間の繋がりを考慮できていない,そこで,本研究では材料が組成式・構造名・論文題名の頂点を介して繋がる知識グラフを用いた転移温度予測モデルを提案する.実験により,SuperCon データセットにおいて既存手法と比較して RMSE が 0.072 減少することが明らかとなった。さらに,材料間の繫がりを考慮した知識グラフの転移温度予測に対する有効性を確認した. ## 1 はじめに 近年,データ駆動で材料開発を行うマテリアルズ・インフォマティクス(Materials Informatics; MI) の発展に伴い,属人的な知見への依存を減らした効率的な材料開発が活発化している. MIによる材料開発のアプローチの 1 つとして,機械学習を用いて材料の物性値を予測する研究がある. 材料の組成式,構造情報などを入力として材料の物性値を予測する手法が提案されており,より高性能に物性値を予測するための研究が進められている $[1,2,3,4,5,6]$. 材料研究において,注目されている材料の一つに超伝導材料がある.超伝導材料はある温度(転移温度)以下で電気抵抗がゼロとなる特性から,工学・医学などの幅広い分野で応用されており,その開発は急務である.超伝導材料の用途やコストは転移温度に依存するため,目的に見合った転移温度を持つ材料の開発が求められているが,膨大な材料組成の探索範囲から所望の超伝導材料を発見するのは困難である。そのため,組成式や構造情報から転移温度を予測し,所望の転移温度を記録した組成式や構造情報をもとに材料を作製するアプローチが研究されており,超伝導材料データベース (SuperCon [7], 3DSC [8], Superconducting Research Database [9] など) を用いた予測モデル $[10,11,12,13]$ が提案されている. 材料が似た組成式を持つ・同じ構造を持つなどの関係があるとき,その材料の転移温度は関連を持つ可能性がある.また,同じ論文で報告されている材料は,何らかの観点で似た性質の材料である可能性がある。このような材料間の繋がりを考慮するための方法の 1 つとして,データを頂点と辺で表現する知識グラフに変換し,グラフニューラルネットワー ク (Graph Neural Network; GNN) で学習する方法が考えられる。材料分野で GNN を利用した手法の 1 つとして, Hatakeyama ら [14] はテーブルデータベースに記録されている材料の各事例を,組成式・構造・文字を頂点で,それぞれの頂点の関係を辺で表現する知識グラフに変換して,GNNを学習することで,材料分野の物性值予測において高い予測性能を示した.しかし,この方法では,事例ごとに知識グラフを作成するため,事例間を繋ぐ辺が無く,材料間の繋がりを考慮できない。さらに,転移温度予測に対して,知識グラフを利用した例はなく,その有効性は未知のままである. そこで本研究では,超伝導材料の転移温度予測に おける知識グラフの有効性の調査を目的として,材料の組成式・構造・論文題名からなる知識グラフを入力とした転移温度予測モデルを提案する. 知識グラフにより,組成式・構造・論文において事例間で繋がりを持つ材料が互いに及ぼし合う影響を捉えることができれば,より高性能な予測ができると期待できる. 本研究の貢献は以下の通りである. ・超伝導材料分野における知識グラフを利用した転移温度予測モデルの提案 ・データベースの事例間の繋がりによる転移温度予測への有効性の確認 ## 2 関連研究 材料の組成式や構造を入力として特定の物性値を予測する物性值予測が広く研究されている. 物性予測は様々な情報を入力として用いる手法 $[2,3]$ と組成式のみを入力に用いる手法 $[1,5,6]$ に大別される. 様々な情報を入力として用いる手法は一般に高性能だが,材料に対する情報量に偏りがあり不均一である。一方, 組成式のみを入力に用いる手法は組成式だけを必要とするため,運用が手軽だが性能は低い。 Wang ら [6] は組成式から注意機構を用いて物性値を予測する CrabNetを提案した. CrabNet は,組成式について元素と比率をそれぞれ符号化した入力を,Transformer [15] のエンコーダ部を参考にしたモデルに与えて物性値を予測する. 組成式の比率の符号化において,比率を線形変換したものと対数変換したものを符号化することで,組成式の比率の違いに敏感な材料,たとえばドーピングの影響を受けやすい材料に対応し, 様々なデータセットで高い予測性能を示している. Hatakeyama ら [14] はテーブルデータベースを変換した知識グラフに GNNを適用し,物性予測を行う手法を提案した. テーブルデータベースでは,異なるデータベースの統合や実験手順などの記録が難しい,といった問題点が存在する.そのため,テー ブルデータをグラフに変換して 47 種類の物性值を 1 つのモデルで予測し,高い予測性能を実現した. しかし,このグラフデータベースは 1 つの事例を 1 つのグラフに変換して作成されるため,事例間の繋がりが無い.また,超伝導材料分野において,テーブルデータをグラフで表す有効性は明らかになっていない. ## 3 提案手法 超伝導材料を対象に,知識グラフを入力とする転移温度予測モデルを提案する. 3.1 節で超伝導材料データベースからの知識グラフの作成について説明し, 3.2 節で知識グラフを入力とする転移温度予測モデルについて説明する。提案手法の概要を図 1 に示す. ## 3.1 知識グラフの作成 超伝導材料データベースに登録されている全ての事例から知識グラフを作成する. 処理前組成式処理後組成式・構造名・論文題名を知識グラフの頂点とし,処理後組成式が材料の中心的な属性と考え $\tau$, 処理前組成式 - 構造名 - 論文題名から処理後組成式へそれぞれ異なる関係の有向辺を張る.このようなグラフの構造にすることで,複数の処理後組成式が処理前組成式・構造名・論文題名を介して次のように知識グラフ上で繋がることで,学習する際に,共通点を持った処理後組成式の表現同士が影響し合うことを期待する.例えば,処理後組成式の表現の単なる線形結合ではなく, 介す頂点が処理前組成式・構造名・論文題名のどれであるかによってそれぞれ異なる表現が伝わって混ざり合う。 まず,処理前組成式に様々な処理を施したものが処理後組成式であるため, 大体の組成は一致している.この 2 つを辺で繋ぐことで,似た組成の処理後組成式が同じ処理前組成式を介して繋がる。次に,処理後組成式とその構造名を辺で繋ぐことで,同じ構造を持つ処理後組成式が構造名を介して繋がる.最後に,処理後組成式とそれが報告された論文題名を繋ぐことで,同じ論文で報告された処理後組成式が論文題名を介して繫がる. 図 2 に具体的な値を用いた知識グラフの作成手順を示す. ## 3.2 転移温度予測モデル 3.1 節で作成した知識グラフを用いて転移温度予測を行う.知識グラフのそれぞれの頂点の表現を初期化した後,Relational Graph Convolutional Networks (RGCN) [16] と全結合層により転移温度と不確実度を出力し, CrabNet と同様に RobustL1 損失で学習する。 RGCN に入力する知識グラフの頂点である処理前組成式・処理後組成式・構造名・論文題名の表現はそれぞれ異なる方法で初期化する。処理前組成 図 1 提案モデルの全体像 超伝導材料データベース 知識グラフ作成 図 2 知識グラフの具体的な作成手順 式と構造名は一様分布の乱数 $(1,024$ 次元 $)$, 処理後組成式は CrabNet の表現(1,024 次元),論文題名は MatSciBERT [17](768 次元)により,それぞれ初期化する。ここで用いた CrabNet と MatSciBERT は出力のみ用いているため,提案手法のネットワークには繋がっていない。ここで処理前組成式は,処理後組成式と異なり括弧や未定義元素が使用されており CrabNet では初期化できないため,一様分布の乱数で初期化する。また,CrabNet の表現は組成式の最大元素数を 8 で固定することで $(8,128)$ 次元の行列となっているが,RGCN に入力するため 1,024 次元のベクトルに変形して使用する. ここでいう CrabNet の表現とは, CrabNet 内の ResidualNetwork の最終層から出力される表現である. CrabNet では ResidualNetwork の後に, $(8,128)$ 次元の表現を $(8,3)$ 次元にする全結合層と, $(8,3)$ 次元を 2 次元 (転移温度,不確実度)にする物性値予測層が存在する。以降では,この全結合層と物性値予測層を合わせて出力層と呼ぶ. 頂点の表現を初期化した知識グラフを RGCN に入力し, 順伝播後の処理後組成式の頂点の表現を出力層に入力し,転移温度を出力する。知識グラフを RGCN に入力する前に,処理前組成式・処理後組成式・構造名・論文題名の頂点の表現をそれぞれ全結合層に入力し,次元を 512 次元に揃える. 頂点の表現の次元を揃えた知識グラフを,頂点の表現の次元を保ちながら,2 層の RGCN に入力する.RGCN から出力された知識グラフのうち, 処理後組成式の頂点の表現のみ使用する. 処理後組成式の頂点の表現は 1,024 次元であるが,CrabNet の出力層に入力するため $(8,128)$ 次元に変形する. 変形後の処理後組成式の頂点の表現を出力層に入力することで転移温度と不確害度が出力される。 このように RGCNを導入することにより,処理後組成式と処理前組成式・構造名・論文題名の辺を区別しつつ,頂点の表現同士を影響させ合うことができる。処理後組成式の頂点の表現のみを全結合層に与える理由は,処理後組成式と転移温度が 1 対 1 に対応しているためである.知識グラフの中に無い処理後組成式に対しては転移温度を予測することができないため,開発データ・テストデータの処理後組成式も含めて知識グラフを作成し,トランスダクティブな学習を行う。 上述した転移温度予測モデルを数式で表す. 作成した知識グラフを $G$ ,次元を揃える前のそれぞれの頂点の表現を $H_{i}, i \in\{$ 処理前組成式,処理後組成式,構造名,論文題名 $\}$ とすると,転移温度予測モデルは次のように転移温度 output と不確実度 $\sigma$ を予測する。 $ \begin{aligned} & H_{i}^{\prime}=\operatorname{FC}_{i}\left(H_{i}\right) \\ & X=\operatorname{Concat}\left(H_{i}^{\prime}\right) \\ & X^{\prime}=\operatorname{RGCN}(G, X) \\ & X_{\text {処理後組成式 }}=\operatorname{Reshape}\left(X_{\text {処理後組成式 }}\right) \\ & X^{\prime \prime \prime}=\operatorname{FC}\left(X_{\text {処理後組成式 }}\right) \\ & \text { output }, \sigma=\operatorname{CrabNetOutput}\left(X^{\prime \prime \prime}\right) \end{aligned} $ 表 1 転移温度予測の結果 $[\mathrm{K}]$. 太字は列における最高のスコアを示す ここで予測された転移温度 outputについて, CrabNet で用いられている以下の RobustL1 関数を用いて転移温度の正解 target と比較することで,損失を計算する。 $ L=\sqrt{2} \exp (\sigma) \mid \text { output }- \text { target } \mid+\sigma $ ## 4 実験と考察 ## 4.1 実験設定 超伝導材料データセットとして, MDR SuperCon[7] を用いる。超伝導材料に対応する 33,407 件の事例それぞれについて記録されている 200 種類以上の属性の中から,処理前組成式として name 列,処理後組成式として element 列,構造名として str3 列,転移温度として tc 列,論文題名として title 列,論文出版年として year列を取り出す.この際,処理前組成式・処理後組成式・転移温度・論文出版年に欠損值を含む事例を削除する. それぞれ 1913 年〜2003 年の事例を訓練データ,2004 年〜2013 年の事例を開発データ,2014 年〜2021 年の事例をテストデータとして,おおよそ 7:2:1 の割合で分割した。 データの分割とは別に, SuperConの全事例から知識グラフを構築した (付録 $\mathrm{A})$. 全事例から知識グラフを作成するため,開発データやテストデータの処理前組成式 - 処理後組成式 - 構造名 - 論文題名の頂点の表現も訓練時に参照する. 開発・テスト時において,RGCN までは訓練時と同様に順伝播が行われるが,その後は開発データ・テストデータに含まれる処理後組成式のみを全結合層に入力し, 転移温度を出力する. 本研究で提案するモデルは知識グラフにある処理後組成式の転移温度を予測するため,新たな処理後組成式の追加は想定していない. また,知識グラフの頂点の表現を初期化する際に使う CrabNet は訓練データで事前に学習しておく。 ## 4.2 実験結果 SuperCon に記録されている超伝導材料のうち,評価データとテストデータに対して転移温度予測を行った結果を表 1 に示す. SuperCon から構築した知表 2 アブレーションの結果. 太字は列における最高スコアを示す。 識グラフを用いることで,評価データにおいては提案手法が CrabNet の性能を上回る結果となったが, テストデータにおいては CrabNet に比べて MAEが約 0.2 大きく, RMSEが約 0.1 小さい結果となった. ## 4.3 考察 提案手法による性能向上が知識グラフによって事例間の繋がりを考慮したことによるのかを調べるために追加実験を行った結果を表 2 に示す. 具体的には,提案手法から処理前組成式・構造名・論文題名の頂点をそれぞれ除外したアブレーションを行った.すべての場合において提案手法の性能より下回っており,事例間の繋がりの有効性を示唆している. 性能の低下が最も大きいのは構造名を抜いた場合であった. ## 5 おわりに 本研究では,超伝導材料の転移温度予測に対する知識グラフの有効性の確認を目的として, 超伝導材料データベースから作成した知識グラフを入力とする転移温度予測モデルを提案した. SuperConを用いて提案手法の学習・評価を行った結果,転移温度の RMSE が 0.072 減少した. また,提案手法における性能向上は,材料に関する多様な項目を考慮することに依ると確認できた。 今後は,括弧や変数を含む処理前組成式と構造名の適切に初期化する, SuperCon 以外のデータベースを追加するなどの改善を行い,転移温度予測のさらなる精度向上や,学習した頂点の表現の他タスクへの活用を目指す。 ## 謝辞 本研究は JSPS 科研費 $23 \mathrm{~K} 11237$ の助成を受けたものです. ## 参考文献 [1] Dipendra Jha, Logan Ward, Arindam Paul, Wei-keng Liao, Alok Choudhary, Chris Wolverton, and Ankit Agrawal. Elemnet: Deep learning the chemistry of materials from only elemental composition. Scientific Reports, Vol. 8, No. 1, p. 17593, Dec 2018. [2] Kristof T Schütt, Huziel E Sauceda, P-J Kindermans, Alexandre Tkatchenko, and K-R Müller. Schnet-a deep learning architecture for molecules and materials. The Journal of Chemical Physics, Vol. 148, No. 24, 2018. [3] Tian Xie and Jeffrey C Grossman. Crystal graph convolutional neural networks for an accurate and interpretable prediction of material properties. Physical review letters, Vol. 120, No. 14, p. 145301, 2018. [4] Dipendra Jha, Logan Ward, Zijiang Yang, Christopher Wolverton, Ian Foster, Wei-keng Liao, Alok Choudhary, and Ankit Agrawal. Irnet: A general purpose deep residual regression framework for materials discovery. In Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery \& Data Mining, KDD '19, p. 2385-2393, New York, NY, USA, 2019. Association for Computing Machinery. [5] Rhys EA Goodall and Alpha A Lee. Predicting materials properties without crystal structure: Deep representation learning from stoichiometry. Nature communications, Vol. 11, No. 1, p. 6280, 2020. [6] Anthony Yu-Tung Wang, Steven K Kauwe, Ryan J Murdock, and Taylor D Sparks. Compositionally restricted attention-based network for materials property predictions. Npj Computational Materials, Vol. 7, No. 1, p. 77, 2021. [7] National Institute for Materials Science Materials Database Group. Mdr supercon datasheet ver.220808. https://doi .org/10.48505/nims.3837, 12 2022. Accessed: 2023-07-17. [8] Timo Sommer, Roland Willa, Jörg Schmalian, and Pascal Friederich. 3dsc - a dataset of superconductors including crystal structures. Scientific Data, Vol. 10, No. 1, p. 816, Nov 2023. [9] Ivan K. Schuller. Discovery of new superconductors. Technical Report AD1103101, University of California San Diego United States, 3 2020. APPROVED FOR PUBLIC RELEASE. [10] Kam Hamidieh. A data-driven statistical model for predicting the critical temperature of a superconductor. Computational Materials Science, Vol. 154, pp. 346-354, 2018. [11] Kaname Matsumoto and Tomoya Horide. An acceleration search method of higher tc superconductors by a machine learning algorithm. Applied Physics Express, Vol. 12, No. 7, p. 073003, jun 2019. [12] Tomohiko Konno, Hodaka Kurokawa, Fuyuki Nabeshima, Yuki Sakishita, Ryo Ogawa, Iwao Hosako, and Atsutaka Maeda. Deep learning model for finding new superconductors. Phys. Rev. B, Vol. 103, p. 014509, Jan 2021. [13] Yutaka Sasaki Kento Mitsui and Ryoji Asahi. Automatic knowledge acquisition from superconductivity information in literature. Science and Technology of Advanced Materials: Methods, Vol. 3, No. 1, p. 2206532, 2023. [14] Kan Hatakeyama-Sato and Kenichi Oyaizu. Integrating multiple materials science projects in a single neural network. Communications Materials, Vol. 1, No. 1, p. 49, Jul 2020. [15] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [16] Michael Schlichtkrull, Thomas N. Kipf, Peter Bloem, Rianne van den Berg, Ivan Titov, and Max Welling. Modeling relational data with graph convolutional networks. In Aldo Gangemi, Roberto Navigli, Maria-Esther Vidal, Pascal Hitzler, Raphaël Troncy, Laura Hollink, Anna Tordai, and Mehwish Alam, editors, The Semantic Web, pp. 593-607, Cham, 2018. Springer International Publishing. [17] Tanishq Gupta, Mohd Zaki, N. M. Anoop Krishnan, and Mausam. Matscibert: A materials domain language model for text mining and information extraction. npj Computational Materials, Vol. 8, No. 1, p. 102, May 2022. 図 3 SuperCon 内の転移温度の分布 ## A 統計情報 SuperCon に記録されている転移温度のヒストグラムを図 3 に示す. SuperCon から構築した知識グラフについての統計を表 3 と 4 に示す. 表 4 知識グラフの辺の統計 ## B 実験環境 実装には,Python 3.10.8を用いた。転移温度予測モデルを実装するために,PyTorch 1.13.1,DGL 1.1.2+cu116, Transformers 4.35.2, CrabNet 2.0.8, scikitlearn 1.3.2を用いた。転移温度予測モデルはハイパーパラメータチューニングを行い,最終的に表 5 に示すハイパーパラメータで学習を行った。転移温度予測モデルの学習に用いた計算機の詳細は表 6 に示す. 表 5 ハイパーパラメータチューニングの結果 $ \text { RGCN 層の次元 } 512 $ バッチサイズ 64 学習率 $4 \mathrm{e}-2$ base $\operatorname{lr}$ (CyclicLR) 3e-3 $\max \operatorname{lr}$ (CyclicLR) 9e-3 ドロップアウト3 $3 \mathrm{e}-2$ 表 6 計算機の詳細
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-2.pdf
# 文書分類のための クラス情報を考慮したトークン分割 平岡 達也 岩倉 友哉 富士通株式会社 \{hiraoka.tatsuya, iwakura.tomoya\}@fujitsu.com ## 概要 本稿では,クラスの情報を有効活用することで文書分類タスクに特化したトークン分割の処理を提案する. ユニグラム言語モデルベースのトークン分割器に,エントロピーに基づく重みを掛け合わせることで,あるクラスに特徴的なトークンを優先的に使用するようなトークン分割を行う. 実験より, 複数の文書分類のデータセットで提案手法による性能の向上が得られることが分かった. また,クラスが未知の場合であっても,疑似的なクラスによって性能の向上が得られる場合があることを報告する. ## 1 はじめに テキストを単語やサブワードなどに区切るトークン分割の処理は,文書分類などの多くの自然言語処理において前処理として取り扱われる.トークン分割は,学習や推論に用いる入力の単位を決定する重要な前処理であり,適切なトークン分割を用いることで自然言語処理の性能の向上が得られる $[1,2,3]$.適切なトークン分割を行うために,前処理の時点ですでに分かっている後段のタスクの情報を活用できるとよい,例えば,後段のタスクが文書分類である場合,前処理の時点でテキストのドメインや,どのような文書クラスが存在するかが既知であることが多い. 従来のトークン分割の手法は後段のタスクの学習に用いるデータで分割器を作成する $[4,5,6]$ ため,ドメインに関する情報は考慮することができる.しかしながら,文書分類のクラスなどの後段夕スクの学習と推論に用いられる,タスクに固有の情報について考慮することはできない。 本研究では文書分類に焦点を当てて,文書分類のクラスの情報を考慮したトークン分割の新たな手法 (Cakenizer: Class-aware tokenizer)を提案する (表 1). Cakenizer では,文書分類におけるクラスに属するサ表 1 学習時に使用する情報の比較. } & トークン分割器 & $\checkmark$ & $\checkmark$ \\ ンプルを一連の文書とみなしてエントロピーに基づくスコアを計算し,クラスに特徴的なトークンが優先的に使用されるような分割を行う.実験結果より,日中英の複数の文書分類のデータセットで性能の向上が得られることを報告する。また,クラスの情報が取得できない場合であっても,K-means クラスタリングによる疑似的なクラスを用いることで,提案手法によるクラス情報を考慮した分割を行い,性能の向上が得られることを報告する。 ## 2 言語モデルを用いたトークン分割 あるテキスト $S$ について, $|V|$ 個のトークンから構成される語彙 $V$ のもとで作ることができる $S$ のトークン分割の候補 $S^{\prime}$ の集合を $V(S)$ と表す. トー クン分割の処理では,何らかの方法で計算したトー クン分割の確率 $P\left(S^{\prime} \mid S\right)$ が最大となるような分割候補 $\hat{S}^{\prime}$ をビタビアルゴリズム [7] などで求める. $ \hat{S^{\prime}}=\underset{S^{\prime} \in V(S)}{\operatorname{argmax}} p\left(S^{\prime} \mid S\right) . $ ユニグラム言語モデルを用いたトークン分割であれば, $p\left(S^{\prime} \mid S\right)$ は以下のように計算する. $ p\left(S^{\prime} \mid S\right)=\prod_{s \in S^{\prime}} p(s) . $ ここで $s$ は $S^{\prime}$ を構成する $\left|S^{\prime}\right|$ 個のトークンのひとつであり, $S^{\prime}=\left.\langle s_{1}, \ldots, s_{\left|S^{\prime}\right|}\right.\rangle$ である. ユニグラムの確率 $p(s)$ の推定には,EM アルゴリズムを用いた学習 [8] などを利用する。 図 1 二值分類での $p(s \mid c)$ に対するスコア $e(s)$ の値域. ## 3 クラスを考慮したトークン分割 提案手法では,後段タスクの文書分類で使用するクラス $c \in C$ に関する情報を盛り込んだトークン分割を行う. クラスの情報を考慮したトークン分割を行うために,式(2)におけるトークンの確率 $p(s)$ を以下の $\mu$ による重み付き和 $p^{\prime}(s)$ で置き換える。 $ p^{\prime}(s)=(1-\mu) p(s)+\mu q(s) $ $q(s)$ は,トークン $s$ の各クラスでの分布に対するエントロピーをもとに計算したスコア $e(s)$ によって重みづけられた $p(s)$ である. $ \begin{aligned} q(s) & =\frac{p(s) e(s)+\epsilon}{\sum_{t \in V} p(t) e(t)+\epsilon} \\ e(s) & =1+\sum_{c \in C} p(s \mid c) \log _{|C|} p(s \mid c) \end{aligned} $ ここで $\epsilon$ は,トークンの確率が 0 になることを防ぐための微小な值である。また,語彙に含まれるすべてのトークンに対応する $q(s)$ の和は 1 となる. $|C|$ は,文書分類のタスクで使用されるクラスの総数であり, $p(s \mid c)$ はクラス $c$ に分類されるテキストの集合においてトークン $s$ が出現する条件付確率である.なお, $p(s \mid c)=0$ とならないように微小な值を加えたうえで計算を行う。 図 1 に,二値分類において $s$ のクラスごとの分布の割合に対して重み $e(s)$ がとる値域を示した. トー クン $s$ が特定のクラス(例えば正負クラスのどちらか一方)にしか出現しない場合, $e(s) \fallingdotseq 1.0$ であり, $s$ がどのクラスにも等しく出現する場合は $e(s)=0.0$ となる. すなわち $e(s)$ は, 特定のクラスに偏って出現する特徴的なトークンほど重要度を高め, 様々なクラスに出現する普遍的なトークンほど重要度を低くするような重みとして働く。これにより,特定のラベルに特徴的なトークンを優先して使用するようなトークン分割が得られると期待される. トークンの確率 $p(s)$ を学習済みのユニグラム言語モデルに対して,後から重みの項 $q(s)$ を付け加えることで提案手法は実装できる。また, SentencePiece [5]の Unigram モードのように,各トー クンの確率を推定したり語彙の枝刈りを行うトークン分割器の作成の段階から,重みを用いて学習することもできる. Viterbi-Training [8]を用いたトークンの確率の推定と語彙の枝刈りを行う例を, Algorithm 1 に示した. アルゴリズムにおいて,5-7 行目の重みづけをスキップすれば,従来のユニグラム言語モデルの確率の推定と語彙の枝刈りと同様の処理になる.また, EM-Training [8]では, 8 行目と 9 行目のパラメータの推定に EM アルゴリズムを用いる. ## 4 実験: オリジナルのクラス 提案手法 (Cakenizer) の効果を,日本語・中国語・英語の 3 言語での文書分類のタスクを用いて検証する. 本節では,文書分類のデータセットに設定されている本来のクラスのラベルを用いて,トークン分割器の学習を行う設定について実験する. ## 4.1 設定 ## 4.1.1 データセット 日本語の文書分類では,Twitter の感情分類のデー タセット $[9,10]$ を用いた。また, JGLUE [11]より JNLI と JMARC を用いた. 中国語では,Weiboの感情分類のデータセット [12]を用いた。また,EC サイト(JD.com)のレビューデータセット [13] からレート予測とジャンル予測の文書分類タスクを作成 表 2 文書分類のタスクでの実験結果( $\mathrm{F} 1 \% \pm \mathrm{SD})$ .太字は Vanilla の値を超える結果. した [14]. 英語では,Twitter の感情分類データセットを用いた [15].また,ECサイト(Amazon)のレビューデータセット [16] からレート予測とジャンル予測の文書分類タスクを作成した。 ## 4.1.2 トークン分割器 実験では,提案手法による重みづけを用いない従来の方法でユニグラム言語モデルの確率の推定と語彙の枝刈りを行う手法(Vanilla)をベースラインとして,ユニグラム言語モデルの確率の推定と語彙の枝刈りの段階から重みを使用する場合(Dynamic) を比較する. さらに,提案手法の単純な適用方法として,Vanillaに対して後処理として式 (3)の重みを付与した手法(PostProc)を比較する. 全ての実験において語彙の規模は $K=16,000$ であり,トークン分割器の作成には各データセットの学習データを $D$ として使用した. Algorithm 1 の 1 行目における語彙の初期化では, 頻度が 4 以下のトークンと長さが 9 以上のトークンは除外した. 語彙の枝刈りイテレーションにおける,ユニグラム言語モデルの確率の推定ループの回数は $M=2$, イテレーションごとの語彙の削減率は $R=0.4$ とした. また,重み付き和の係数は $\mu=0.5$ とした. ## 4.2 文書分類器 トークン分割器の差による影響を観察しやすいように,実験では 1 層の BiLSTM と 3 層の MLPを用いた単純な文書分類器 [17] を用いた. 分類器は 20 エポックの学習を行い, Adam [18] を用いて最適化した. 検証データで性能が最大となったチェックポ 図 $2 \mu$ が性能に与える影響. イントを採用し,評価データでの $\mathrm{F} 1$ 值を計測した。本実験においては,トークン分割器の作成と文書分類器の学習の双方に確率的な要素が含まれている. そのため, トークン分割器の作成と文書分類器の学習をそれぞれ 3 回ずつ組み合わせて試行し,その平均の $\mathrm{F} 1$ 值を報告する。すなわち,それぞれパラメータをランダムに初期化した 3 つのトークン分割器と,3つの文書分類器の合計 9 つの試行パター ンについて平均を取った。 ## 4.3 結果 表 2 にまとめた実験結果より,提案手法は Viterbi/EM-Training の双方の設定において,複数のデータセットでの性能向上に寄与しうることが示唆された. 最終的な平均 $\mathrm{F} 1$ 值は Viterbi-Training の学習時に提案手法を用いる設定が最も高く, Cakenizer は Viterbi-Training と組み合わせて使うこと良いと言える. また,提案手法を後処理として適用する方法も,学習時から組み込む方法と同様に性能向上に寄 表 3 疑似ラベルを用いた実験の結果.太字は表 2 の Vanillaを超える結果. } & WRIME & 41.97 & 41.65 & 41.42 & 42.13 & 41.49 & 41.67 & 41.13 & 40.76 & 40.34 & 41.38 & 41.10 & 41.02 \\ 与することが示唆された. 後処理として提案手法を用いる方法は導入のコストが低いため,多くの場面での活用が期待できる. 図 2 に, Dynamic の設定で式 (3)での重み付き和の係数 $\mu$ を 0.1 から 0.9 の範囲で変化させたときの平均 $\mathrm{F} 1$ 値の推移を示した. 全体的にベースラインである Vanillaを超える值で推移しているが, $\mu$ が大きくなるにつれてわずかに向上幅が下がる傾向がみられる。また,EM-Training に提案手法を組み込んだ場合の方が,異なる $\mu$ に対して安定して性能の向上が得られることが示唆された. ## 5 実験: 疑似ラベル 実践的な自然言語処理では,トークン分割を行う段階で本来の分類ラベルが利用できない場合がある. 本節では,学習データに対して付与した疑似ラベルを用いて提案手法のトークン分割器を作成した場合の効果について検証する。 ## 5.1 設定 疑似ラベルを作成するために,K-means クラスタリングを各文書分類のデータセットの学習デー タに適用した.クラスタリングを行う段階ではトークン分割器が使用できないため,テキストの特徴量の作成にはテキストに含まれる文字 N-gram $(N=\{1,2,3,4,5\})$ を用いた. scikit-learn に実装されている K-means クラスタリング [19]を利用し,クラスタの数 $L=5,10,15$ について実験を行った. 疑似ラベルを用いる点を除けば,全ての実験設定は 84 と同じである. ## 5.2 結果 表 3 に実験結果より,提案手法によるトークン分割に疑似ラベルを用いた場合であっても,Vanillaに比べて性能の向上が得られることが分かった. また,設定の組み合わせによっては,疑似ラベルを用いた場合の方がオリジナルのラベルを用いた場合よりも高い性能向上が得られることが分かった. これは, 教師なし学習によって獲得した疑似ラベルは機械学習のモデルにとって扱いやすいドメインの割り振りになっており,このドメインを考慮したトークン分割を行うことで効率的な文書分類の学習ができるためであると考えられる。この結果は, 文書分類タスクにおいて疑似的なラベルを用いて事前学習を行うことで性能向上が得られるという既存研究の報告 [20] にも合致する. ## 6 おわりに 本稿では,文書分類に特化したトークン分割の手法として Cakenizer を提案した. 提案手法はユニグラム言語モデルをべースとし,トークンの確率の推定と語彙の枝刈りの過程で後段の文書分類のラベルを考慮する.実験の結果より,日本語・中国語・英語での文書分類で性能向上に寄与することが示唆された。また,疑似ラベルを用いた設定でも性能の向上が得られることが分かった. 今後は機械翻訳などの文書分類以外のタスクのデータセットに対しても,疑似ラベルを用いた手法の応用を行う。 ## 謝辞 本研究は,JST,ACT-X,JPMJAX21AM の支援を受けたものです. ## 穿拉文献 [1] Tatsuya Hiraoka, Hiroyuki Shindo, and Yuji Matsumoto. Stochastic tokenization with a language model for neural text classification. In Proceedings of the 57th Annual Meeting of ACL, pp. 1620-1629, 2019. [2] Kaj Bostrom and Greg Durrett. Byte pair encoding is suboptimal for language model pretraining. In Findings of ACL: EMNLP 2020, pp. 4617-4624, 2020. [3] Hoo-Chang Shin, Yang Zhang, Evelina Bakhturina, Raul Puri, Mostofa Patwary, Mohammad Shoeybi, and Raghav Mani. BioMegatron: Larger biomedical domain language model. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on EMNLP, pp. 4700-4706, Online, November 2020. Association for Computational Linguistics. [4] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of ACL (Volume 1: Long Papers), Vol. 1, pp. P1715-1725, 2016. [5] Taku Kudo and John Richardson. Sentencepiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on EMNLP: System Demonstrations, pp. 66-71, 2018. [6] Xinying Song, Alex Salcianu, Yang Song, Dave Dopson, and Denny Zhou. Fast wordpiece tokenization. In Proceedings of the 2021 Conference on EMNLP, pp. 2089-2103, 2021. [7] Andrew Viterbi. Error bounds for convolutional codes and an asymptotically optimum decoding algorithm. IEEE transactions on Information Theory, Vol. 13, No. 2, pp. 260-269, 1967. [8] Sabine Deligne and Frederic Bimbot. Language modeling by variable length sequences: Theoretical formulation and evaluation of multigrams. In 1995 International Conference on Acoustics, Speech, and Signal Processing, Vol. 1, pp. 169-172. IEEE, 1995. [9] Yu Suzuki. Filtering method for twitter streaming data using human-in-the-loop machine learning. Journal of Information Processing, Vol. 27, pp. 404-410, 2019. [10] Tomoyuki Kajiwara, Chenhui Chu, Noriko Takemura, Yuta Nakashima, and Hajime Nagahara. WRIME: A new dataset for emotional intensity estimation with subjective and objective annotations. In Proceedings of the 2021 Conference of NAACL: HLT, pp. 2095-2104, Online, June 2021. Association for Computational Linguistics. [11] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese general language understanding evaluation. In Proceedings of the Thirteenth LREC, pp. 2957-2966, Marseille, France, June 2022. European Language Resources Association. [12] S2ap: A sequential senti-weibo analysis platform. https: //github.com/wansho/senti-weibo. [13] Yongfeng Zhang, Min Zhang, Yi Zhang, Guokun Lai, Yiqun Liu, Honghui Zhang, and Shaoping Ma. Dailyaware personalized recommendation based on feature-level time series analysis. In Proceedings of the 24th international conference on WWW, pp. 1373-1383, 2015. [14] Tatsuya Hiraoka, Sho Takase, Kei Uchiumi, Atsushi Keyaki, and Naoaki Okazaki. Joint optimization of tokenization and downstream model. In Findings of ACL: ACL-IJCNLP 2021, pp. 244-255, 2021. [15] Twitter sentiment analysis. https://www.kaggle.com/ c/twitter-sentiment-analysis2. [16] Ruining He and Julian McAuley. Ups and downs: Modeling the visual evolution of fashion trends with one-class collaborative filtering. In proceedings of the 25 th international conference on WWW, pp. 507-517, 2016. [17] Peng Zhou, Zhenyu Qi, Suncong Zheng, Jiaming Xu, Hongyun Bao, and Bo Xu. Text classification improved by integrating bidirectional lstm with two-dimensional max pooling. In Proceedings of COLING 2016, the 26th COLING: Technical Papers, pp. 3485-3495, 2016. [18] Diederik P Kingma and Jimmy Ba. Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.6980, 2014. [19] F. Pedregosa, G. Varoquaux, A. Gramfort, V. Michel, B. Thirion, O. Grisel, M. Blondel, P. Prettenhofer, R. Weiss, V. Dubourg, J. Vanderplas, A. Passos, D. Cournapeau, M. Brucher, M. Perrot, and E. Duchesnay. Scikitlearn: Machine learning in Python. Journal of Machine Learning Research, Vol. 12, pp. 2825-2830, 2011. [20] Eyal Shnarch, Ariel Gera, Alon Halfon, Lena Dankin, Leshem Choshen, Ranit Aharonov, and Noam Slonim. Cluster \& tune: Boost cold start performance in text classification. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 7639-7653, 2022.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-3.pdf
# Improving Zero-Shot Dependency Parsing by Unsupervised Learning Jiannan Mao ${ }^{1,2}$ Chenchen Ding $^{2}$ Hour Kaing $^{2}$ Hideki Tanaka $^{2}$ Masao Utiyama $^{2}$ Tadahiro Matsumoto $^{1}$ ${ }^{1}$ Gifu University, Gifu, Japan ${ }^{2}$ ASTREC, UCRI, NICT, Japan \{mao, tad\}@mat.info.gifu-u.ac.jp \{chenchen.ding, hour_kaing, hideki.tanaka, mutiyama\}@nict.go.jp } \begin{abstract} UDify [1] is a multilingual and multi-task parser finetuned on mBERT. It has demonstrated notable performance, even on few-shot languages. However, its performance saturates early and decreases gradually as training progresses with zero-shot languages. This work focuses on this phenomenon, which has not yet been sufficiently studied. Data augmentation methods based on unsupervised learning on monolingual data were designed to transform a zero-shot case into an artificial few-shot case. Experiments were conducted on the Breton language as a typical case study. For the Breton language, the unlabeled attachment score was significantly improved. The parsing accuracies for other languages were not noticeably affected. \end{abstract ## 1 Introduction A dependency parser can be efficiently trained on large treebanks when available [2, 3]. For low-resource languages with limited treebanks, multilingual modeling has emerged as an efficient solution in which cross-lingual information is leveraged to compensate for the lack of data on specific languages. Many research $[4,5]$ have demonstrated that the performance in part-of-speech (POS) or dependency parsing can be improved by pairing languages with similar. This multilingual approach reduces the cost of training multiple models for a language group [6]. UDify [1] is a multi-task self-attention network finetuned on multilingual BERT (mBERT) [7] pre-trained embeddings, capable of producing annotations for any treebank from Universal Dependencies treebanks [8]. UDify exhibits strong and consistent performance across a wide range of languages and tasks such as lemmatization, POS Figure 1 Change in the UAS of a model during the training process on the Breton test set for both the baselines (Baseline and Self) and the proposed method (Unsup). tags, and dependency parsing. In addition to UDify, there are several comparable state-of-the-art methods[5, 9]. A problem highlighted by several related studies is the substantial discrepancy in the performance of these methods in zero-shot scenarios, even with identical training strategies, datasets, models, and evaluation methods $[9,10]$. This work investigates the underlying reason for the phenomenon regarding zero-shot cases by exhaustively examining the epochs during model training. To resolve this problem, a data augmentation strategy is proposed to improve the performance and stability of UDify. Specifically, the original UDify provides an initialization based on unsupervised learning for a zero-shot language; the generated results by unsupervised learning are then incorporated into UDify's training set so that the zero-shot language is converted into an artificial few-shot language. Experiments on the Breton are taken as a case study. Unsupervised learning-based data augmentation efficiently boosted the unlabeled attachment score (UAS) from $68.4 \%$ to $76.1 \%$. Furthermore, the parsing accuracy for other languages did not decrease, which suggests that the overall robustness of multilingualism processing is still retained. ## 2 Background ## 2.1 UDify The UDify model jointly predicts lemmas, POS tags, dependency structures, and etc. The pre-trained mBERT model is a self-attention network with 12 encoder layers. It is used in the UDify model for cross-lingual learning without additional tags to distinguish the languages. In addition, a strategy similar to that of ELMo [11] is adopted, where a weighted sum of the outputs of all layers is computed as follows and fed to a task-specific classifier: $ e_{j}^{t a s k}=\sum_{i} m B E R T_{i j} $ Here, $e^{\text {task }}$ denotes the contextual output embeddings for tasks such as the dependency parse, $m B E R T_{i j}$ denotes the $m B E R T$ representation for layer $i$ at token position $j$. In the task involving dependency structures, mBERT's subword tokenization process inputs words into multiple subword units. Despite this, only the embeddings $e_{j}^{t a s k}$ of the first subword unit are used, serving as input to the graph-based bi-affine attention classifier [2]. The resulting outputs are combined using bi-affine attention to produce a probability distribution of the arc-head for each word. Finally, the dependency tree is decoded using the ChuLiu/Edmonds algorithm [12, 13]. ## 2.2 Unsupervised Dependency Learning Adhering to the properties of dependency syntax [14], a general unsupervised algorithm for projective $\mathrm{N}$-gram dependency learning (Unsupervised-Dep) was described in Ding [15]. This method employs a CYK-style chart and dynamic programming to construct the optimal dependency tree, grounded in the non-constituent concepts of completelink and complete-sequence. Due to the significant time complexity associated with $\mathrm{N}$-gram learning, this study concentrates on bi-gram for practical applicability. When considering the bi-gram, the directionality of a pair of words is set by the dependency relation, with $\left(w_{i} \rightarrow w_{j}\right)$ indicating a rightward relation and $\left(w_{i} \leftarrow w_{j}\right)$ indicating a leftward one. The bi-gram unsupervised learning update probabilities $P\left(w_{i} \rightarrow w_{j}\right)$ and $P\left(w_{i} \leftarrow w_{j}\right)$ are calculated using the Inside-Outside algorithm [16]. Finally, the Viterbi algorithm [17] is employed to determine the optimal tree construction. ## 3 Proposed Method ## 3.1 Motivation In UDify's training, the dependency structures of zeroshot languages are learned through transfer learning. In contrast to the high-resource and few-shot languages, early saturation in the accuracy of the dependency parsing is exhibited during the learning process of all low-resource languages. The best performance was typically achieved around the 8th training epoch, as shown in Figure 2. Figure 2 Changes in the UAS of zero-shot languages during the training process. This phenomenon has been noticed $[5,9,10]$ but not yet systematically investigated to the best of our knowledge. Given that the accuracy of dependency parsing for zeroshot languages tends to decrease as training progresses, the number of epochs becomes a crucial factor in the inconsistency observed in related work. Considering the observed positive correlation between parsing accuracy and the number of training epochs for high-resource and few-shot languages, it is somewhat unexpected to encounter a substantial discrepancy between the optimal and final testing results for zero-shot tasks. This calls for specialized strategies to bridge this gap. In the following, we introduce a data augmentation technique grounded on Unsupervised-Dep, and aims to reduce the performance gap and thus improve the effectiveness of UDify in dependency parsing for zero-shot languages. ## 3.2 Unsupervised Augmentation To apply Unsupervised-Dep in data augmentation, it is vital to ensure the generated data aligns with the UD format. Therefore, in addition to dependency arc-heads, other types of data must be created and combined with the results from Unsupervised-Dep. Given its high time complexity of $O\left(n^{3}\right)$, making the common practice in the original methods, which start training from a random probability, somewhat inefficient. To circumvent this, we decided to leverage the parsing results from UDify to initialize the probabilities. Despite the potential decrease in UDify's accuracy on zero-shot languages during its training, the final results consistently outperform those from other models $[8,3]$, providing a robust foundation for our initialization approach. We initiate the process with the raw corpus, Data, input into the trained UDify by the original UD treebanks, to generate the dependency arc-heads, represented as $D E P_{a r c}$, and POS, lemmas, etc., denoted as Others. Statistical computations on $D E P_{\text {arc }}$ generate initial probabilities $P\left(w_{i} \rightarrow w_{j}\right)$ and $P\left(w_{i} \leftarrow w_{j}\right)$, serving as input for Unsupervised-Dep alongside Data. Following several iterations of training through Unsupervised-Dep, the re-estimated $P\left(w_{i} \rightarrow w_{j}\right)^{\prime}$ and $P\left(w_{i} \leftarrow w_{j}\right)^{\prime}$ emerge. They become the parameters for the Viterbi algorithm to determine the optimal dependency arc-head as given by $ D E P_{a r c}^{\prime}=\operatorname{Viterbi}\left(x, P\left(w_{i} \rightarrow w_{j}\right)^{\prime}, P\left(w_{i} \leftarrow w_{j}\right)^{\prime}\right), $ where $D E P_{a r c}^{\prime}$ is the tree with the highest probability for a sentence $x$ from Data. We merged $D E P_{\text {arc }}^{\prime}$ with $O$ ther $s$, ultimately generating artificial data. The artificial data are then combined with the existing UD treebanks for the subsequent training. ## 4 Experiments ## 4.1 Dataset We selected Breton from OPUS ${ }^{1)}$ as our target zeroshot language for the implementation of UnsupervisedDep. After cleaning the collected data, we obtained $99.5 \mathrm{k}$ sentences, which we refer to as OPUS-br. From this collection, we first identified a subset of 300 sentences as our test set, referred to as test ${ }_{300}$. To conduct more detailed testing of the sentence structures generated by Unsupervised-Dep, we later expanded this subset by incorporating an additional 200 sentences, resulting in a total of 500 sentences, referred to as test 500 . The division of the collected data in the experiment is summarized in Table 1. The training set is used for obtaining and updating the probabilities. The validation set is applied to validate  Table 1 Division of the OPUS-br into training, validation, and test sets, and the number of words in each set. the results of Unsupervised-Dep learning. The test set, demonstrates the results of our data augmentation. To evaluate our proposed method, we used the same version of the UD treebank that UDify uses for our experiments. During training, we concatenated all training sets, mirroring the approach of [18]. We shuffled all sentences before each epoch and fed the mixed batch of sentences into the network, including sentences from any language or treebank, whether they were original UD treebank sentences or those generated through Unsupervised-Dep. ## 4.2 Setup To minimize the impact of potential experimental environmental variations [19], we follow the parameters and re-implemented the model provided by UDify ${ }^{2}$, which we refer to as the Baseline. To expedite the experiment, we implemented multi-GPU parallel training ${ }^{3)}$ by modifying UDify using Horovod [20]. For our method, we initially computed the parsing results of the training data from OPUS-br using the Baseline. These results served as the initial probabilities for $P\left(w_{i} \rightarrow w_{j}\right)$ and $P\left(w_{i} \leftarrow w_{j}\right)$. These probabilities were continuously re-estimated throughout the unsupervised learning process of training data from OPUS-br. After the 10th training epoch, we employed the re-estimated probabilities to parse the test set from OPUS-br. In multilingual parser experiments, two different subsets of the OPUS-br dataset were employed to refine the dependency arc-heads generated by Unsupervised-Dep, specifically marked as Unsup $_{300}$ and Unsup ${ }_{500}$. Unsup ${ }_{300}$ integrates sentences from the OPUS-br test ${ }_{300}$ into the UDify training set, while Unsup $_{500}$ utilizes sentences from the OPUS-br test $5_{500}$. Meanwhile, inspired by Rybak [21], we conducted an experiment using a comparative method dubbed Self Sop $_{300}$. In this approach, we used the test ${ }_{300}$, diverging from the  use of Unsupervised-Dep for sentence refinement. The sentences were directly parsed with the Baseline instead. The parsing results were then converted into UD format, merged with the original training set, and used for a new round of UDify model training. ## 4.3 Result and Discussion A comparison with the experimental results reported in the original UDify study confirms that Baseline was reimplemented successfully, as demonstrated in Table 2. The results in this table not only indicate a significant improvement in UDify's ability to avoid the decrease in dependency arc-head accuracy for the Breton language at the end of the training, regardless of the proposed method that was implemented but also indicate that while self ${ }_{300}$ causes only a minor increase in the UAS score, Unsup ${ }_{300}$ and Unsup ${ }_{500}$, which incorporate data generated from Unsupervised-Dep, significantly augment the accuracy of the dependency archead. Additionally, Figure 1 and Table 2 illustrates that, though different datasets have minimal impact on the peak UAS scores for Breton during training, methods Unsup ${ }_{300}$ and Unsup ${ }_{500}$ notably narrow the gap between the best and last UAS scores, thereby enhancing training stability. Table 2 UD scores on Breton and other languages obtained by different methods. Rest $(\%)$ refers to the average score of UPOS, UFeats, Lemma, and LAS in the UD scores. The UDify result was reported by Kondratyuk [1]. Considering UDify's role as a multilingual parser, it is necessary to evaluate the impact of the proposed method on other languages. To observe in detail the differences and changes in the UAS between the Baseline and Unsup po0, $^{2}$, we conducted tests across all treebanks and display the results in Figure 3. From the figure, it is evident that while Unsup $_{500}$ has improved the UAS for Breton, it has had virtually no impact on the parsing precision of dependency constructions in other languages. For a comprehensive comparison, the UD scores of the Figure 3 Changes in the UAS for the Baseline and Unsup ${ }_{500}$ on all test treebanks. The x-axis sorts the UD treebanks by the ascending improvement of the proposed method over the Baseline. Breton and other languages have been compiled in Table 2. Given that UDify must balance the loss produced by multiple decoders during training and Rybak's work [21], these variations in evaluation metrics are considered reasonable. Broadly, our data augmentation method has almost no negative impact on other languages and tasks, maintaining their performance levels. Considering all results, we argue that generating training data for zero-shot languages through the application of the Unsupervised-Dep is both essential and effective in multilingual modeling. ## 5 Conclusion This study investigated the issue of decreased parsing accuracy exhibited by UDify in zero-shot language scenarios, despite its generally outstanding performance in few-shot language scenarios. To address this problem, we proposed a method that applies an unsupervised algorithm to transition a zero-shot language into a few-shot language context, thereby effectively expanding the dataset and enhancing the model's learning capability. The efficacy of our approach has been substantiated through our experimental results. By incorporating sentence dependency arc-head structures produced by Unsupervised-Dep into UDify's training data, we achieved a substantial improvement in UDify's performance with zero-shot languages. This improvement was significant even when only a limited number of sentences, such as 300 or 500, were used. Although our constraints did not allow for a definitive demonstration of a positive correlation between the number of sentences generated by UnsupervisedDep incorporated into the training data and the improvement of UDify in zero-shot languages, this correlation remains a possibility. ## References [1] Dan Kondratyuk and Milan Straka. 75 languages, 1 model: Parsing Universal Dependencies universally. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 2779-2795, Hong Kong, China, November 2019. Association for Computational Linguistics. [2] Timothy Dozat and Christopher D. Manning. Deep biaffine attention for neural dependency parsing. In 5th International Conference on Learning Representations, ICLR 2017, Toulon, France, April 24-26, 2017, Conference Track Proceedings. OpenReview.net, 2017. [3] Peng Qi, Timothy Dozat, Yuhao Zhang, and Christopher D. Manning. Universal Dependency parsing from scratch. In Proceedings of the CoNLL 2018 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies, pp. 160-170, Brussels, Belgium, October 2018. Association for Computational Linguistics. [4] Waleed Ammar, George Mulcaire, Miguel Ballesteros, Chris Dyer, and Noah A. Smith. Many languages, one parser. Transactions of the Association for Computational Linguistics, Vol. 4, pp. 431-444, 2016. [5] Ahmet Üstün, Arianna Bisazza, Gosse Bouma, and Gertjan van Noord. UDapter: Typology-based language adapters for multilingual dependency parsing and sequence labeling. Computational Linguistics, Vol. 48, No. 3, pp. 555-592, September 2022. [6] Melvin Johnson, Mike Schuster, Quoc V. Le, Maxim Krikun, Yonghui Wu, Zhifeng Chen, Nikhil Thorat, Fernanda Viégas, Martin Wattenberg, Greg Corrado, Macduff Hughes, and Jeffrey Dean. Google's multilingual neural machine translation system: Enabling zero-shot translation. Transactions of the Association for Computational Linguistics, Vol. 5, pp. 339-351, 2017. [7] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [8] Daniel Zeman, Jan Hajič, Martin Popel, Martin Potthast, Milan Straka, Filip Ginter, Joakim Nivre, and Slav Petrov. CoNLL 2018 shared task: Multilingual parsing from raw text to Universal Dependencies. In Proceedings of the CoNLL 2018 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies, pp. 1-21, Brussels, Belgium, October 2018. Association for Computational Linguistics. [9] Anna Langedijk, Verna Dankers, Phillip Lippe, Sander Bos, Bryan Cardenas Guevara, Helen Yannakoudakis, and Ekaterina Shutova. Meta-learning for fast cross-lingual adaptation in dependency parsing. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 8503-8520, Dublin, Ireland, May 2022. Association for Computational Linguistics. [10] Ahmet Üstün, Arianna Bisazza, Gosse Bouma, and Gertjan van Noord. UDapter: Language adaptation for truly Universal Dependency parsing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 2302-2315, Online, November 2020. Association for Computational Linguistics. [11] Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, and Luke Zettlemoyer. Deep contextualized word representations. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 2227-2237, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [12] Yoeng-Jin Chu. On the shortest arborescence of a directed graph. Scientia Sinica, Vol. 14, pp. 1396-1400, 1965. [13] Jack Edmonds, et al. Optimum branchings. Journal of Research of the national Bureau of Standards B, Vol. 71, No. 4, pp. 233-240, 1967. [14] Jane J. Robinson. Dependency structures and transformational rules. Language, Vol. 46, No. 2, pp. 259-285, 1970. [15] Chenchen Ding and Mikio Yamamoto. An unsupervised parameter estimation algorithm for a generative dependency n-gram language model. In Proceedings of the Sixth International Joint Conference on Natural Language Processing, pp. 516-524, Nagoya, Japan, October 2013. Asian Federation of Natural Language Processing. [16] Karim Lari and Steve J Young. The estimation of stochastic context-free grammars using the inside-outside algorithm. Computer speech \& language, Vol. 4, No. 1, pp. 35-56, 1990. [17] G David Forney. The viterbi algorithm. Proceedings of the IEEE, Vol. 61, No. 3, pp. 268-278, 1973. [18] Ryan McDonald, Slav Petrov, and Keith Hall. Multi-source transfer of delexicalized dependency parsers. In Proceedings of the 2011 Conference on Empirical Methods in Natural Language Processing, pp. 62-72, Edinburgh, Scotland, UK., July 2011. Association for Computational Linguistics. [19] Martin Popel and Ondrej Bojar. Training tips for the transformer model. Prague Bull. Math. Linguistics, Vol. 110, pp. 43-70, 2018. [20] Alexander Sergeev and Mike Del Balso. Horovod: Fast and easy distributed deep learning in TensorFlow. arXiv preprint arXiv:1802.05799, 2018. [21] Piotr Rybak and Alina Wróblewska. Semi-supervised neural system for tagging, parsing and lematization. In Proceedings of the CoNLL 2018 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies, pp. 45-54, Brussels, Belgium, October 2018. Association for Computational Linguistics.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-4.pdf
# 日本語 Universal Dependencies の通時的転移可能性について 尾崎 太亮 ${ }^{1}$ 臼井 久生 ${ }^{1}$ 古宮 嘉那子 ${ }^{1}$ 浅原 正幸 2 小木曽 智信 ${ }^{2}$ 1 東京農工大学大学院 生物システム応用科学府 2 国立国語研究所 \{hiroaki-ozaki,h-usui\}@st.go.tuat.ac.jp [email protected], \{masayu-a, togiso\}@ninjal.ac.jp ## 概要 日本語の通時的な文法研究のため,近代以前の日本語に対する統語情報の付与を目指し,現代日本語 Universal Dependencies (UD) 解析の zero-shot 転移を検討した. UDで広く研究される言語横断的な解析手段に着目し, 現代日本語 UD で学習した解析器を明治期の文書を対象とした UD コーパスで評価した結果,係り受け関係にある二語の抽出は高い精度を維持していたものの,文法的な観点では述語とその格要素の転移性能が低く, また助動詞を含めた文末表現も適切に解析できないことも明らかになった. ## 1 はじめに 日本語の通時的な文法研究を行う上で,日本語の各時代の文に対する形態論情報や統語情報は研究対象の言語現象を調査するための基礎情報である. しかし, すでに話者の存在しない古典に対して, 特にアノテーターの負担の大きい統語情報の付加は非常に困難であり, 現在入手可能な日本語近代以前の日本語に対する統語情報は限定的である. 一方, Universal Dependencies (UD) などの多言語横断での統一的な統語アノテーションと深層学習を活用したそれらの解析器の進展により, 転移学習による低リソース言語での高い解析精度を実現する手段が確立されてきている [1]. また,UDには現代日本語 [2] の他, 明治期の言文一致運動以前に刊行され,近代文語文で書かれた明六雑誌を対象とした UD Japanese Modern コーパス (以下,明六雑誌)[3] が存在している. これを活用し, 転移学習よって日本語の通時的な文法研究のための統語情報の付与がどの程度行えるのか,を明らかにすることを目的に,現代口語文 UD で学習された解析器の近代文語での zero-shot 転移性能について主に明六雑誌での性能を評価した結果を報告する。 ## 2 関連研究 近代日本語に対する UD 解析手法については,安岡 [4] による近代語用の UniDic を活用した形態素情報の付け替えと, 既存の日本語 UD 係り受け解析器の組み合わせによる解析の検討が行われており,この形態素情報の付け替えによって大幅に精度向上が図れるものの, 明六雑誌で直接的に学習した精度には至らないことが報告されている。 また,その解析器は, unidic2ud ${ }^{1}$ として公開されている. ## 3 通時的転移性能の調査指針 通時転移性能を考える上で,精度に影響を与える要因として, 本研究において特に注目している文法の観点に加えて, 語の意味変化や用いられる語の変化, 言語処理・機械学習的な観点の二つが大きく考えられる。これらをなるべく分離して評価できるよう,以下の検討を行った。 埋め込み表現通常, 深層学習による UD 解析は,語と形態素情報の埋め込み表現の双方を用いた解析が一般的であるが,それぞれの表現が達成しうる精度を個別に評価した. 特に語の埋め込み表現においては,現代文で学習された日本語言語モデルに加え $\tau$ ,通時的な語用変化を考慮して近代以前の日本語から現代語への翻訳モデル [5]のものも評価した. 転移元コーパスアノテーション基準の微妙な差異や学習データ量の影響を考慮して, 複数の現代日本語 UDコーパスからの転移性能を評価した。 解析モデル依存文法解析では一般的に,文を形態素解析したのち,形態素間の隣接行列を直接推定するグラフ型の解析器と, 形態素列を先頭から機械学習手段で推定された手続きを施すことで解析木を得る遷移型解析器の二種類が存在する. 本研究では主にグラフ型の解析器を用いたが,一般公開されて  表 1: 各モデルの UAS/LAS 値 いる遷移型の日本語 UD 解析器も比較に用いた. ## 4 実験設定 データセット学習に用いたコーパスは現代日本語 UDである BCCWJ コーパス (以下, BCCWJ) と2) と GSDコーパス (以下, GSD)3) の学習データセットの双方または片方を用いた.検証には,上記コーパスの検証データセットを用いた。評価には,上記コーパスの評価データセットに加えて, 明六雑誌と,unidic2ud のレポジトリに公開されている雪國,舞姫冒頭のUDアノテーションデータ4)を用いた。 評価指標と評価方法係り受け解析のみの評価に着目するため,形態素解析部を統一し,近代文語文については unidic2ud の解析結果 (近代語 UniDic) をそのまま用いた。現代文 (BCCWJ, GSD) に関しては GiNZA の解析結果を用いた。評価指標は,安岡 [4] の結果との比較を考慮して,係り受け関係にある二語の関係ラベル込みの抽出性能指標である Labeled Attachment Score(LAS)を用いた。これに加えて,係り受け関係にある二語の抽出性能を測る Unlabeled Attachment Score(UAS) も比較に用いた。評価スクリプトは CoNLL shared task 2018[6] で用いられた評価スクリプト5)を用いた。ただし,BCCWJ の評価については,上記の評価スクリプトをそのまま適用するとエラーが発生したため,Appendix A に記載した工 2) https://github.com/UniversalDependencies/ UD_Japanese-BCCWJ 3) https://github.com/UniversalDependencies/ UD_Japanese-GSD 4) https://github.com/KoichiYasuoka/UniDic2UD/tree/ master/benchmark 5) https://universaldependencies.org/conll18/ conll18_ud_eval.py夫を施した。 評価対象モデル主な解析器としてグラフ型である DiaParser[7]を用いた。語の埋め込み表現として,東北大学が提供する日本語 $\left.\mathrm{BERT}^{6}\right)$ と Usui らによる近代以前の日本語から現代口語へ翻訳する T5[5] のエンコーダを用い,学習中にこれらの埋め込み表現に対する更新は行わなかった。埋め込み表現として形態素情報を用いる場合は,UD の UPOS タグを埋め込み表現に変換し, 解析器の学習によって表現の更新を行った。その他のハイパーパラメタは付録の表 2 に示す. 比較対象のモデルは以下である. Tohoku: 東北大学が提供する日本語 BERTを用いた DiaParser モデル. T5: Usui らによる T5 モデルのエンコーダを用いた DiaParser モデル. UPOS: 語の埋込表現の代わりに形態素情報の埋め込み表現を用いた DiaParser モデル。 GiNZA: $\mathrm{spaCy}^{7}$ )が提供する遷移型解析を BCCWJ で学習したモデル. 現代文に関しては GiNZA[8] そのものを利用し,近代文語文に関しては unidic2ud を用いて形態素解析を行ったのち係り受け解析を GiNZA で実施した。 ## 5 実験結果と考察 表 1 に各コーパスにおけるUAS,LAS の値を示す. GiNZA の括弧で記載した UAS, LAS 値は GiNZA 公式サイトの記載及び安岡 [4] の結果を参照した. ${ }^{8)}$ 太字は,各コーパス・指標における最大値を示  (a) GSD (b) 明六雑誌 図 1: 係り受け関係にある二語の距離に対する各解析器のエラーレート. (a) GSD (b) 明六雑誌 図 2: 関係ラベルに対する各解析器のエラーレート す. BCCWJ, GSD, 明六雑誌の各コーパスにおいて Tohoku モデルが高い性能を有している。一方,雪國や舞姫においては,T5 モデルが高い性能を有している.しかし,あくまで明六雑誌の範囲では翻訳タスクの事前学習による解析性能の向上があるとは言い難い結果となった. GiNZA の現代文の評価結果が松田の結果 [8] と乘離しているが,§4 で記載した通り評価スクリプトの違いが大きいと考えられる. 以下,§3で述べた三つの観点に即して結果を論ずる. 機械学習的な影響機械学習的な影響としては,主に学習データ量と解析器のモデルの差異が考えられる. 学習データ量の観点では, GSD の学習データが 7050 文であるのに対し,BCCWJ が 40801 文であるので,その学習データ量の差異が性能差に表れて いると考えられる。また今回,BCCWJ と GSD を合わせた学習データの結果が総じて高い精度を有していたことから, UD 解析器の学習の観点でデータ量増大によって精度向上のわずかながらの余地があると考えられ,またそれによる近代文語文の転移性能の向上も期待できると考えられる. 解析モデルの観点では,DiaParser ベースのモデルが,遷移型の解析器である GiNZA の結果に対して概ね上回っており,その差は特に近代文語文において大きくなっている.このため,遷移型はこのような転移学習に不利である可能性が考えうる.深層学習によるグラフ型解析器は埋め込み表現間の注意機構をより直接的に活用することができ,より安定的に転移が行える可能性がある。 図 1 には係り受け関係にある二語の距離 (何トー クン離れているか) に対するエラーレートを示す. Tohoku,T5,UPOS の各モデルは BCCWJ と GSD を共に学習データに用いたものを用いた. Tohoku, T5 と比べて遷移型の GiNZA モデルは特に長距離の係り受け関係でのエラーレートが高い。一方,注意機構を直接的に扱うグラフ型では二語の距離が大きな影響を与えるとは考えにくく,実際,距離にさほど依存しないエラーレートとなっている。また, GiNZA の明六雑誌でのエラーレートは,三トークン以上の距離で 5 割を超え,形態素情報のみ (UPOS) の結果よりも高い値となっている. 語用および文法変化の影響表 1 において,現代文である BCCWJ・GSD における UAS・LAS の值を比較すると,語の埋め込み表現を用いた場合,UAS の方が LAS より 1,2 ポイント程度高い値であるの に対し, 形態素情報のみで学習した UPOS モデルでは 5 ポイント以上の差が発生している. UAS と LAS の値の差は,係り受け関係ラベルを評価に加味するかどうかの違いであるので,係り受け関係そのものではなく,関係ラベルの推定に語レベルの情報を必要としており,その点がこの差を発生させていると考えられる. しかし, 近代文語文 (明六雑誌, 舞姫,雪國) において UAS と LAS の同様の差を鑑みると,語の埋め込み表現と形態素情報のみ場合では特段大きな性能差がなく,係り受け関係ラベルの精度という観点では,形態論情報とさほど相違ない情報しか転移できていないことが考えられる。そこで,係り受け関係ラベルごとのエラーレートを調査した. 図 2 には, 名詞句主語 (nsubj), 名詞修飾語 (nmod), 副詞修飾語 (advmod), 等位接続詞 (cc), 助動詞 (aux),格標識 (case) の関係ラベルについて,GSD と明六雑誌におけるエラーレートを示す。他の関係ラベルについては付録の図 4 に記載した。 名詞句主語 (nsubj) では現代文で二割程度であったエラーレートが近代文語文では六割以上に増大している.その他の格要素に関するエラーレートも高く(図 4 におけるiobj, obl), 述語項構造に関する情報はあまり転移できないことがわかる。これが,上記にある UAS・LAS の値の差の要因となっている. 格標識 (case) に関しては,GSDでは解析モデルにおける差異はほぼなく, 明六雑誌においては形態素情報のみの場合が最も高い値を示した。これは,内容語の直後の助詞はほぼ直前の内容語に係るというルールが近代文語文においても機能していると言える. 一方, 助動詞 (aux), については, 同じく形態素情報のみの場合が最も高い値ではあるものの,その精度は現代文に対して大きく低下している。これは例えば「〜如し」や「〜なり」など現代では使われない助動詞の語用の問題であったり, 文末の言い回しの変化の影響が大きいと考えられる. 図 3 には各モデルの文末表現に対する UD 解析事例を示す. 形態素解析結果について, 名詞を $\mathrm{N}$, 動詞を $\mathrm{V}$, 助動詞を A で表記した. unidic2ud の解析で「ある」が助動詞と誤判定されている。このため, UPOS モデルでは唯一の内容語である「通患」に全て係る解析結果となっている. Tohoku や T5 モデルでは「に」 を格助詞と認識して格標識ラベルを付与している。 T5では「通患たる」と「あらず」を複合語として認識した上で,格助詞「に」の作用で「通患たる」が 「あらず」の斜格要素とみなされている. Tohokuで (a) 正解 (c) $\mathrm{T} 5$ (b) Tohoku (d) UPOS図 3: 文末表現に対する UD 解析結果例 は,係り受け関係が交差しており,学習データの文法にも合致していない. 名詞修飾語 (nmod) の GSD における出現頻度は $5.8 \%$ 程度であったものが,明六雑誌では $16.9 \%$ と著しく増加しており (付録図 5 参照), 図 3 にあるような漢語的表現に関する係り受け関係に多用されていると考えられる。このため,このエラーレートも名詞句主語と同様に増加している。 また,副詞修飾語 (advmod) や等位接続詞 (cc) では,語の埋込表現よりも形態素を用いた転移の方が有効であることがわかる. このことから, 現代語と近代文語文では用いられる副詞や接続詞が大きく異なることが示唆される.また,T5 モデルが Tohoku よりもわずかに良好な精度を得ており, 歴史的資料の翻訳による語彙獲得がある程度影響することが示唆される。 ## 6 おわりに 本稿では,日本語の通時的な文法研究のため,近代以前の日本語に対する統語情報の付与を目指し,現代日本語 UD 解析の zero-shot 転移を検討した. 現代日本語 UD で学習した解析器を明治期の近代文語文に適用した結果,機械学習的な観点ではグラフ型解析器がより通時的転移に有効であることを示した. 語用・文法的な観点では,述語とその格要素に関する転移性能が低く, 助動詞を含めた文末表現も適切に解析できないことを示した. 今後は, 述語項や文末表現を考慮した精度向上を手段の検討を実施する。 さらに,対象とする時代区分の拡大も検討する。 ## 謝辞 本研究は JSPS 科研費 JP22K12145, 18K00634 及び国立国語研究所共同研究プロジェクト「アノテー ションデータを用いた実証的計算心理言語学」の助成を受けたものです. ## 参考文献 [1] Dan Kondratyuk and Milan Straka. 75 Languages, 1 Model: Parsing Universal Dependencies Universally. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 2779-2795, Hong Kong, China, 2019. Association for Computational Linguistics. [2] 浅原正幸, 金山博, 宮尾祐介, 田中貴秋, 大村舞, 村脇有吾, 松本裕治. Universal Dependencies 日本語コーパス.自然言語処理, Vol. 26, No. 1, pp. 3-36, 2019. [3] OMURA Mai, TAKAHASHI Yuta, and ASAHARA Masayuki. Universal Dependency for Japanese Modern Languages. In Proceedings of The Japanese Association for Digital Humanities 2017 (JADH2017), 92017. [4] 安岡孝一. 形態素解析部の付け替えによる近代日本語 (旧字旧仮名) の係り受け解析. Technical Report 3 , 情報処理学会, 82020. [5] Hisao Usui and Kanako Komiya. Translation from Historical to Contemporary Japanese Using Japanese T5. In Proceedings of the 3rd International Workshop on Natural Language Processing for Digital Humanities, Tokyo, Japan, November 2023. Association for Computational Linguistics. [6] Daniel Zeman, Jan Hajič, Martin Popel, Martin Potthast, Milan Straka, Filip Ginter, Joakim Nivre, and Slav Petrov. CoNLL 2018 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies. In Daniel Zeman and Jan Hajič, editors, Proceedings of the CoNLL 2018 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies, pp. 1-21, Brussels, Belgium, October 2018. Association for Computational Linguistics. [7] Giuseppe Attardi, Daniele Sartiano, and Maria Simi. Biaffine Dependency and Semantic Graph Parsing for Enhanced Universal Dependencies. In Stephan Oepen, Kenji Sagae, Reut Tsarfaty, Gosse Bouma, Djamé Seddah, and Daniel Zeman, editors, Proceedings of the 17th International Conference on Parsing Technologies and the IWPT 2021 Shared Task on Parsing into Enhanced Universal Dependencies (IWPT 2021), pp. 184-188, Online, August 2021. Association for Computational Linguistics. [8] 松田宽. GiNZa - Universal Dependencies による実用的日本語解析. 自然言語処理, Vol. 27, No. 3, pp. 695-701, 2020. (a) GSD Relation Label (b) 明六雑誌 図 4: 関係ラベルに対する各解析器のエラーレート Relation Label 図 5: 各関係ラベルに対するコーパス内での出現頻度 ## A BCCWJ における GiNZA 評価 GiNZA トークナイズ処理結果と BCCWJ のテストデータセットのトークンとの乘離が大きく,正しく評価が行えなかった.これは,評価スクリプトが文分割精度も評価対象としているため,トークナイズ結果に乘離が大きいと文を同定する処理が正常に行えないことに起因している. そこでまず,トークナイズの解離を解消するため,BCCWJ テストデータではトークンとして含まれてない全角空白を除去して GiNZA で形態素解析を行った. さらに, 各文毎にデータを分割して,それぞれ評価スクリプトを用いて評価を行ったのち,それらを積算することでテストデータセット全体の評価結果を算出した.表 2: DiaParser 学習時のハイパーパラメタ
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-5.pdf
# Transformer と $\langle$ CLS $\rangle$ ベクトルを用いた Span-based 固有表現抽出手法 宮﨑 太郎 ${ }^{1}$ Simon Clippingdale $^{2}$ 後藤 淳 1 ${ }^{1}$ NHK 放送技術研究所 ${ }^{2}$ NHK 財団 \{miyazaki.t-jw, goto.j-fw\}@nhk.or.jp [email protected] ## 概要 固有表現抽出は自然言語処理の基盤技術のひとつであり,自然言語処理を利用したシステムで広く応用されている.従来では CRF (Conditional Random Field) を用いた系列ラベリングを用いる手法が一般的であったが,近年では複数単語のまとまりを入力して,入力のまとまりが固有表現であるか判定する Span-based手法も用いられる. 本稿では, Span-based 手法による固有表現抽出手法について述べる. 複数単語からのベクトルのまとめ上げに BERT などの事前学習モデルで用いられる特別な Token $\langle\mathrm{CLS}\rangle$ の考え方を用いることで,従来一般的に用いられていた LSTM (Long Short-term Memory) や Max Pooling を上回る性能が得られることを確認した。 ## 1 はじめに 固有表現抽出 (Named Entity Recognition: NER) は文章中の人名,地名,組織名などの固有表現を抽出,分類するもので,自然言語処理の基盤技術のひとつである.情報抽出 [1] やセンシティブな情報の匿名化 [2]など,自然言語を扱う様々なシステム内で広く応用されている. 固有表現は日々新しいものが生まれる。それらの新語に対応したNER を実現するには,単語の表層に頼らない分類手法を用いる必要がある. ニューラルネットワークを用いた NER では,単語をべクトル表現した上で,入力の各単語が固有表現またはその一部を構成する単語かどうかを判定する系列ラべリング $[3,4]$ を用いるのが一般的である(図 1-(a)). しかし, 系列ラベリングでは入れ子構造の固有表現に対応することができない,そこで,近年では入れ子構造の固有表現に対応した手法も多く提案されている $[5,6,7]$. 本稿では, 入れ子構造に対応した手 (a) 系列ラベリング (b) Span-based 手法 図 1 固有表現抽出手法. 系列ラベリングでは単語ごとに固有表現の開始(B-)や途中(I-),最後(L-)や固有表現ではない(O)などのラベルを付与していく. Span-based 手法では,単語のまとまり(Span)を表すべクトルを計算し,Span 全体が固有表現であるかどうか判定する. 法の一つである Span-based 手法を用いた固有表現抽出手法について述べる. Span-based 手法の概略を図 1-(b) に示す. 判定の対象とする単語列から単一のベクトルを作成し,固有表現であるか,また固有表現である場合はその種類を判定する.判定対象の単語列に含まれる Token 数は可変であることから,この長さが異なるべクトルを単一のベクトルに変換する必要がある. 従来では LSTM (Long Short-term Memory) や Max pooling が用いられることが多い.しかしLSTM は最初や最後に入力される Token のベクトルからの影響を強く受けやすく,また Max pooling では 2 つの共通する単語を多く持つ単語列,例えば「NHK 放送技術研究 図 2 Flat NER と Nested NER. Flat NER では 1 つの単語は 1 つの固有表現にのみ属するが, Nested NER では複数の固有表現に属する場合がある。 所」と「NHK 放送技術研究所の」の間で出力ベクトルが似通ってしまうことが問題となる. そこで我々は,これらの問題を解決するために, ベクトルのまとめ上げ部分に Transformer を用いた. Transformer は一般的に入力の行列と同じ大きさのべクトルを出力するが,ここに,BERT[8] 等で用いられる $\langle\mathrm{CLS}\rangle$ を用いてまとめ上げる手法を提案する. ## 2 関連研究 NERのタスクは,入れ子構造の固有表現を考慮せずに 1 つの単語は最大で 1 つの固有表現に含まれるとして扱う Flat NER と,入れ子構造を考慮した Nested NER の 2 つに大きく分類できる (図 2). Flat NER は古くから研究されているタスクであり [9],一方の Nested NER は比較的新しく提案されたタスクである [5]. 本稿では Flat NER を扱う. ## Flat NER Flat NER では,多くの手法は CRF (Conditional Random Field)を用いた系列ラベリングを用いる $[3,4]$. CRF の前段の双方向 LSTM (Long Short-Term Memory) により,前後の文脈を加味した単語べクトルを作成し,それぞれの単語が固有表現またはその一部であるか判定する. Akbik et al. は文字べースの言語モデルを使用し,文字ごとのべクトルを双方向 RNN (Recurrent Neural Network) に入力することで,学習データに多くは出現しない低頻度語の分類精度を向上する手法を提案した [10]. 近年では外部文脈を用いた性能向上の手法も多く提案されている. Yamada et al. は対象とする文の前後の文の情報を活用することで性能が向上することを示した [11]. また, Wang et al. は前後の文ではなく,NER の対象とするテキストをクエリとした検索により獲得した外部の文章を,対象とするテキストと合わせてモデルに入力する手法を提案し,有効性を報告した [12]. ## Nested NER Finkel et al. [5] により Nested NER のタスクが提唱されて以来, 多くの手法が提案されている. Lin etal. は,固有表現の特徴的な単語を見つける Anchor と, Anchor を含む固有表現の範囲を決定する Region の 2つのネットワークからなる Anchor-Region Network を提案した [7]. Tan et al. は,固有表現の範囲と固有表現の種類を推定するそれぞれのネットワークを組み合わせて学習する手法を提案した [13]. Wan et al. は, GCN (Graph Convolutional Network)を用い,学習データ中で対象の文と類似した特徴を持つ文の情報を NER 対象対象の文の情報と合わせてネットワー クに入力する手法を提案した [14]. このような系列ラベリングを用いずに固有表現の範囲と種類を推定していく手法は Span-based 手法と呼ばれ,Nested NERの一つの主流となっている. Span-based ではない Nested NER の手法も提案されている. Ju et al. は系列ラベリングを多段構造にして用いることで,入れ子構造の固有表現を抽出する手法を提案した [6]. Katiyar et al. は単語ごとの固有表現らしさのスコアを用いたハイパーグラフを用いた手法を提案した [15]. ## 3 提案手法 本稿では, Span-based の NER 手法を用いる. Spanbased の固有表現抽出手法の一般的な手法について述べた後に,提案する $\langle\mathrm{CLS}\rangle$ ベクトルを用いた提案手法について述べる. ## 3.1 Span-based 固有表現抽出 Span-based の NER 手法では,固有表現の範囲を表す Span と,その固有表現の種類を同時に判定することで固有表現を抽出する.Span 推定と固有表現の種類判定を別のネットワークを用いて行う手法 $[7,13]$ と,入力分から連続する単語のあらゆるパターンを作成してモデルに入力し, 入力 $\operatorname{Span}$ が固有表現であるかの判定と固有表現である場合はその種類の判定を一つのネットワークで行う手法 [14] が提案されているが,本稿では後者を用いる。 Span-based 手法による NER では,まず入力文の各単語を事前学習モデルなどを用いてべクトル化する. 次に,入力文のうちの連続する複数単語からなるSpanを全パターン作成し,そのSpanに含まれる単語のべクトルをまとめて Span 全体を表すべクトルに変換し,そのベクトルを FFNN (Feed-forward neural network) などに入力し,Span が固有表現であるか,また固有表現である場合にはその種類を判定する. ベクトルのまとめ上げには Max Pooling や LSTM などが用いられることが多い. ## $3.2\langle$ CLS $\rangle$ と Transformer を用いたべクト ルまとめ上げ 提案手法では, Max Pooling やLSTM の代わりに, BERT[8] で用いられる 〈CLS〉と同様の考え方を用いて 1 次元のベクトルに変換する. 提案手法の概要を図 3 に示す. BERT における $\langle$ CLS $\rangle$ は特別な Token で,〈CLS〉に対応する出力べクトルは文全体を分類する際に用いられる. BERT 内の Transformer ネットワークにより $\langle\mathrm{CLS}\rangle$ に続く入力文の全単語のべクトルが考慮された, 文全体を表すべクトルとなる。 この考え方を応用し, 提案手法では事前学習モデルから出力された Token ごとのべクトルのうち, 分類対象のSpan に含まれるものすべてと,〈CLS $\rangle$ をべクトル空間に埋め込んだものを Transformer に入力する. Transformer の入力ベクトルは $v_{\text {in }} \in \mathbb{R}^{(|t|+1) \times s}$ となる.ここで, $|t|$ は分類対象の Span に含まれる単語の Token 数を, $s$ はベクトルの次元数を表す. $v_{\text {in }}$ を Transformer encoder に入力し, その出力から $\langle\mathrm{CLS}\rangle$ に対応するべクトル $v_{\text {span }}$ を取り出し, このベクトルを Span 全体を表すべクトルとして利用する. 学習の過程で, 〈CLS〉を特徴空間に埋め込んだベクトルは, Transformer 内の Multi-head self attention で「固有表現の抽出に役立つべクトル要素」に高い重みが与えられる query となることが期待できる. これにより, Transformer encoder の出力 $v_{\text {span }}$ は Span 内の各 Token を表すべクトルを,固有表現抽出に役立つように重みつき和を要素としたべクトルが出力される. ## 3.3 固有表現の抽出 学習したモデルを用いて固有表現を抽出する方法について述べる. 今回対象としている Flat-NER では,入力の各単語が最大でも 1 つの固有表現にのみ属するものとして扱う。一方で,提案手法では各単語が複数の固有表現に属することが可能となっているため, 出力されたスコアが最大となる固有表現を出力し, Flat-NER の手法として評価を行う. 学習したモデルを用い,入力文から作成した全 Span に対し,固有表現の種類,または固有表現ではない場合のスコアを出力する。「固有表現ではない」 スコアが最大の場合にはこのSpanを棄却し,それ 図 3 提案手法の概要. 表 1 データセットの諸元 以外の場合にはスコアが最大となる固有表現の種類とともにスコアを出力し,これをスコアの降順に並べる. スコアが最大のものから順に,Spanに属する単語に固有表現のラベルを割り当てていく.この際に,既により高いスコアのSpanによりラベル付けされた単語が 1 つでも含まれている場合には,その Span は棄却する. すべての Span について割り当てが完了した時点で,ラベルが付けられていない単語は固有表現ではないとラべルをつけ,これを最終的な固有表現抽出結果として出力する。 ## 4 評価実験 ## 4.1 使用データ 評価実験には, WNUT-16[16], WNUT-17[17], CoNLL 2003[18] の 3 つのデータセットを用いた. それぞれのデータ量等を表 1 に示す. CoNLL 2003 はニュース原稿を基にしたデータであるため,未知の固有表現が少ない一方,WNUT-16 と WNUT-17 は SNS のデータであるため未知の固有表現が多い. 特に, WNUT-17 では評価データに出現する固有表現はすべて学習データに出現しない未知のものになるように設計されている. 表 2 実験結果 ## 4.2 実験設定 提案手法の実装には PyTorch と Transformers を用い, RAdam[19] によりモデルを学習した. 事前学習モデルとして,XLM-RoBERTa-large[20]を使用した.学習率は事前学習モデル部の追加学習に $1.0 \times 10^{-5}$, それ以外の部分を $2.0 \times 10^{-4}$ とした. 学習時のミニバッチサイズを 50 , 学習エポック数を 50 とし, 開発データの micro-F1 が最大となるモデルを最終的なモデルとして評価に用いた. 学習はそれぞれのモデルについてランダムシードを変えて 3 回行い,その中央値を報告する。 提案手法で用いる Transformer encoder は, ベースライン手法の Max Pooling などと条件を合わせるために 1 層とした. また, FFNN は 3 層とした. FFNN の各層の間では Layer Normalizationと Reluを,また学習時には Dropoutを用いた. Dropout 率は 0.3 とした. ## 4.3 ベースライン手法 ベースライン手法として, ベクトルのまとめ上げ部分に Transformerを用いずに別の手法を用いたものを用意し,性能を比較した。 LSTM 対象単語列の各 Token のベクトルを双方向 LSTM に入力し, すべて入力後の隠れ層のべクトルを FFNN に入力して判定する。このベースライン手法では,LSTMを 1 層とした. Max pooling 対象単語列の各 Token のベクトルを Max pooling により単一のベクトルに変換し, FFNNに入力して判定する. Average pooling 対象単語列の各 Token のべクトルを Average pooling により単一のベクトルに変換し,FFNNに入力して判定する。 ## 4.4 実験結果 実験結果と,2023 年 12 月時点の SoTA の性能を表 2 に示す. SoTA はすべて異なる論文で報告されたもので,WNUT-16 が Hu et al.[21], WNUT-17 が Wang et al.[12], CoNLL 2003 が Wang et al.[22] により報告さ れたものである. 提案手法は,WNUT-16 の Max pooling を除くべー スライン手法より高い性能を得られた. WNUT-16 と WNUT-17 では現在の State-of-the-art の手法をも上回る性能となった. これにより,提案手法の有効性を確認することができた. ## 5 考察 提案手法では,Transformer encoderを用いて分類対象となる単語列の全 Token のべクトルをまとめ上げて 1 次元ベクトルに変換した. この計算過程で, Transformer 内部の Multi-head attention により,各 Token のベクトルの重み付け和に似た性質のベクトルが $\langle C L S\rangle$ の出力に足されている. これが単純に入力ベクトルの最大値を取る Max Pooling や平均值を取る Average Pooling よりもより精度良い足し合わせとなり,性能が向上したものと考えられる。また,LSTM などの RNN (Recurrent Neural Network) モデルは,入力を順番に処理していくため,初期の入力の情報が忘却されやすく, 最後の入力に近いものほど出力への影響が大きいことが知られている。提案手法では入力の Span 内での語順を考慮しない代わりに,LSTM のような語順による影響の大きさの違いが生じないことが性能の向上に寄与したものと考えられる。 今回は Max/Average pooling と条件を合わせるために,提案手法や LSTM でも 1 層のネットワークで実験したが,提案手法では Pooling 等と異なり層を増やすことでき,より複雑なタスクなどでも応用がしやすいことも利点の一つでもあると考えられる. ## 6 おわりに 本稿では,Span-based 手法による固有表現抽出手法について述べた. 複数 Token からなる分類対象の単語列のベクトルを, BERT 等で用いられる $\langle C L S\rangle$ と同様の考え方により 1 次元に変換し,その変換したべクトルを用いて固有表現の種類を分類する手法を提案した. 評価実験において,ベースライン手法と比較して良好な性能を得られることを確認した. 特に WNUT-17 データセットにおいては, 現在の State-of-the-art を上回る性能を得ることができた. 今回は Transformer や LSTM について,1 層のモデルを用いた。課題として,特に CoNLL 2003 のようにデータサイズが大きい場合が挙げられ, 今後, 層数の性能への影響を実験により確認していく。 ## 参考文献 [1] Aman Kumar and Binil Starly. "fabner" : information extraction from manufacturing process science domain literature using named entity recognition. Journal of Intelligent Manufacturing, Vol. 33, No. 8, pp. 2393-2407, 2022. [2] Ondřej Sotolář, Jaromír Plhák, and David Šmahel. Towards personal data anonymization for social messaging. In International Conference on Text, Speech, and Dialogue, pp. 281-292. Springer, 2021 [3] Zhiheng Huang, Wei Xu, and Kai Yu. Bidirectional lstm-crf models for sequence tagging. arXiv preprint arXiv:1508.01991, 2015. [4] Guillaume Lample, Miguel Ballesteros, Sandeep Subramanian, Kazuya Kawakami, and Chris Dyer. Neural architectures for named entity recognition. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 260-270, San Diego, California, June 2016. Association for Computational Linguistics. [5] Jenny Rose Finkel and Christopher D. Manning. Nested named entity recognition. In Proceedings of the 2009 Conference on Empirical Methods in Natural Language Processing, pp. 141-150, Singapore, August 2009. Association for Computational Linguistics. [6] Meizhi Ju, Makoto Miwa, and Sophia Ananiadou. A neural layered model for nested named entity recognition. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 1446-1459, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [7] Hongyu Lin, Yaojie Lu, Xianpei Han, and Le Sun. Sequence-tonuggets: Nested entity mention detection via anchor-region networks. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5182-5192, Florence, Italy, July 2019. Association for Computational Linguistics. [8] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [9] Casimir Borkowski and Thomas J. Watson. An experimental system for automatic recognition of personal titles and personal names in newspaper texts. In COLING 1967 Volume 1: Conference Internationale Sur Le Traitement Automatique Des Langues, 1967. [10] Alan Akbik, Duncan Blythe, and Roland Vollgraf. Contextual string embeddings for sequence labeling. In Proceedings of the 27th International Conference on Computational Linguistics, pp. 1638-1649, Santa Fe, New Mexico, USA, August 2018. Association for Computational Linguistics. [11] Ikuya Yamada, Akari Asai, Hiroyuki Shindo, Hideaki Takeda, and Yuji Matsumoto. Luke: Deep contextualized entity representations with entity-aware self-attention. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6442-6454, 2020. [12] Xinyu Wang, Yong Jiang, Nguyen Bach, Tao Wang, Zhongqiang Huang, Fei Huang, and Kewei Tu. Improving Named Entity Recognition by External Context Retrieving and Cooperative Learning. In the Joint Conference of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (ACL-IJCNLP 2021). Association for Computational Linguistics, August 2021. [13] Chuanqi Tan, Wei Qiu, Mosha Chen, Rui Wang, and Fei Huang. Boundary enhanced neural span classification for nested named entity recognition. In Proceedings of the AAAI conference on artificial intelligence, Vol. 34, pp. 9016-9023, 2020. [14] Juncheng Wan, Dongyu Ru, Weinan Zhang, and Yong Yu. Nested named entity recognition with span-level graphs. In Smaranda Muresan, Preslav Nakov, and Aline Villavicencio, editors, Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 892-903, Dublin, Ireland, May 2022. Association for Computational Linguistics. [15] Arzoo Katiyar and Claire Cardie. Nested named entity recognition revisited. In Marilyn Walker, Heng Ji, and Amanda Stent, editors, Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 861-871, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [16] Benjamin Strauss, Bethany Toma, Alan Ritter, Marie-Catherine de Marneffe, and Wei Xu. Results of the WNUT16 named entity recognition shared task. In Bo Han, Alan Ritter, Leon Derczynski, Wei Xu, and Tim Baldwin, editors, Proceedings of the 2nd Workshop on Noisy User-generated Text (WNUT), pp. 138144, Osaka, Japan, December 2016. The COLING 2016 Organizing Committee. [17] Leon Derczynski, Eric Nichols, Marieke van Erp, and Nut Limsopatham. Results of the WNUT2017 shared task on novel and emerging entity recognition. In Proceedings of the 3rd Workshop on Noisy User-generated Text, pp. 140-147, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [18] Erik F. Tjong Kim Sang and Fien De Meulder. Introduction to the CoNLL-2003 shared task: Language-independent named entity recognition. In Proceedings of the Seventh Conference on Natural Language Learning at HLT-NAACL 2003, pp. 142147, 2003. [19] Liyuan Liu, Haoming Jiang, Pengcheng He, Weizhu Chen, Xiaodong Liu, Jianfeng Gao, and Jiawei Han. On the variance of the adaptive learning rate and beyond. In Proceedings of the Eighth International Conference on Learning Representations (ICLR 2020), April 2020. [20] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised cross-lingual representation learning at scale. CoRR, Vol. abs/1911.02116, , 2019 [21] Jinpeng Hu, Yaling Shen, Yang Liu, Xiang Wan, and Tsung-Hui Chang. Hero-gang neural model for named entity recognition. In Proceedings of the $\mathbf{2 0 2 2}$ Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1924-1936, Seattle, United States, July 2022. Association for Computational Linguistics. [22] Xinyu Wang, Yong Jiang, Nguyen Bach, Tao Wang, Zhongqiang Huang, Fei Huang, and Kewei Tu. Automated concatenation of embeddings for structured prediction. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 2643-2660, Online, August 2021. Association for Computational Linguistics.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-6.pdf
# 日本語意味役割タスクにおいて複数 TokenID が与える影響 曽和晃太郎 ${ }^{1}$ 竹内孔一 2 1 岡山大学 2 岡山大学大学院 [email protected], [email protected] ## 概要 本研究では , Byte-Level BPE アルゴリズムを採用したトークナイザのエンコードによって,1つのトークンから複数のトークン ID が生成される場合に日本語意味役割タスクに与える影響について調査した.觉の結果,二つの日本語意味役割タスク光れぞれにおいて複数のトークン ID を持つデータが各タスクの精度に与える影響を明らかにし,各タスクにおける有効なデータの形を示した . ## 1 はじめに 昨今,ChatGPT の登場を皮切りに,樣々な大規模言語モデル (Large Language Model: LLM) が提供されている.日本語に特化したモデルも多く提供され, 光れに伴い樣々なトークナイザも登場している.しかし,光れらがすべての単語をカバーできているわけではなく,うまくトークナイズ出来ず,不適切なデータを作成してしまうことも少なくない. ## 1.1 Byte-Level BPE これまでの言語処理タスクで多く使用された言語モデルである東北大学 BERT モデルでは, トー クナイズアルゴリズムに Mecab による形態素解析および, Subword 分割が採用されている [1] . 一方で, CyberAgent から提供されている OpenCALM などの言語モデルでは , トークナイズアルゴリズムに Byte-Level BPE (Byte Pair Encoding) が採用されている. Byte-Level BPE は,Byte 単位で処理を行い,頻度の高いByte 列を語彙として登録する [2] 。 Byte-Level BPE を採用するトークナイザでは未知語などの予期せぬトークンが出現した際には, 1 トークンに含まれる Byte 列から複数のトークン ID に変換してしまうといった現象が発生する。 鯯を華麗に別く(鯯:このしろ) 図 1 未知語を含むテキスト例えば,図 1 のような未知語を含んだテキストをトークナイズするとする 図 2 未知語を含むテキストのトークナイズ結果 この文章を Byte-Level BPE のトークナイザを用いてトークナイズを行うと図 2 のようになり, 1 つのトークンから 3 つのトークン ID が出力される. ## 1.2 意味役割付与 (Semantic Role Labeling: SRL)について 意味役割付与とは,文中の述語を基準として,「いつ」「どこで」「誰が」「何を」などの意味的関係を持つ項を予測し,光れに対応したラベルを付与するタスクである.以下に例を示す. 図 3 「彼は友人を家に招いた」に含まれる意味役割 「彼は友人を家に招いた」という文章が与えられたとき,「招く」という述語を基準として,「彼は」 に動作主を表す $\mathrm{Arg} 0$ というラベルを,招かれた対象の「友人を」に対象を表す Arg1 というラベルを,招いた場所である「家に」に場所を表す ArgM_LOC というラベルを付与する 本研究で使用する意味役割ラベルは Propbank 形式を採用する. ## 1.3 概念フレーム付与について 概念フレーム付与とは, 文中の述語の語義を予測し,光れに対応したFrameIDを付与するというタスクである . 図 3 の例では「招く」という述語の語義として勧誘が正解の語義であり,光れに対応した FrameID=470 が正解のID となる.ここで,「招く」という述語は勧誘の他に,「専門家を外国から自社に招く」という文章に付されている着点への移動 (FrameID=17) や「誤解を招く」という文章に付されている因果 (FrameID=613) などという概念フ 図 $4 \mathrm{CRF}$ を利用した意味役割および概念フレーム付与モデル レームをもつ. ## 2 実験 ## 2.1 データセット 本研究で使用するデータセットに含まれる日本語意味役割ラベルおよび概念フレームは,岡山大学竹内研究室で構築している述語項構造シソーラス [3] を基に作成している. 国立国語研究所によって公開されている日本語コーパスである NPCMJ を,述語項構造シソーラスを用いて人手で分析し,概念フレームと項の意味役割を付したデータセットである NPCMJ-PT[4] を使用する NPCMJ-PT は , 31 種類の意味役割ラベルと 1009 種類の概念フレームを持つ. 文章数は 33958 件で,述語 1 つに対して 1 データとなっており計 54141 件のデータセットを作成している.また,述語項構造シソーラスでは , 1096 件の FrameID を付与しているが , NPCMJ-PT には光の $92 \%$ \% 1009 件の FrameID が含まれる。 今回の実験では学習データ,開発データ,テストデータを光れ光れ 8:1:1 の割合で使用する。 2.2 意味役割および概念フレーム付与モデル ## 2.2.1 モデルの概観 今回使用するモデルを図 4 に示す.このモデルでは,文章と㐁の文に含まれる述語を入力として, トークン IDを取得,单の後 LLM を通して特徵量 を取り出す. 取り出した特徵量を SRL, FID 光れ光れのデコーダへと渡す. SRL デコーダでは,CRF を用いてラベル列を出力する.FID デコーダでは Softmax 関数を通して 1096 種類の FID から確率の高いID を出力する. ## 2.2.2 使用する大規模言語モデル 本研究では CyberAgent が提供している大規模言語モデルである OpenCALM[5] および CALM2[6] を使用する.OpenCALM はパラメータサイズによって複数モデルが提供されているが, 光の中から OpenCALM-Small ,OpenCALM-Medium ,OpenCALMLarge を使用する . ## 2.3 複数トークンID の取り扱い 1.1 節で示した例のように一つのトークンから複数のトークン ID が出た場合以下の二つの方法でタスクを実行する. 1. 先頭のID を弚のトークンのトークンID として使用する 2. 複数のトークン ID が出るデータは使用せず, すべてのトークンから単一の ID が得られるデータのみ使用する 1 の方法で実験を行う際に使用するデータを Full_HeadID,2 の方法で実験を行う際に使用するデータをOnly_UniIDとする. 今回使用するデータはあらかじめ Unidic を基にトークナイズしたものを使用する.こうすることで , LLM 側の予期しないトークンを相当量確保する 表 1 各モデルとデータによる比較 ことが可能となる.ためしに OpenCALM のトークナイザを用いて全 54141 件のデータをトークナイズすると,複数トークン ID が現れたデータ数は 7716 件となり,Only_UniIDは 46425 件となる.これにより複数トークン ID の与える影響が小さくなると考えられる。 また , 今回使用するモデルとのデータ数の関係を表 2 に示す. OpenCALM はパラメータ数によらずトークナイザは同一のものであるため,単一ID のみで構成されたデータ Only_UniID はすべて 30130 件で統一されている.また,Full_HeadIDに対する割合は 55.7\%である . CALM2 は Only_UniID が 24976 件,Full_HeadID に対する割合は $46.1 \%$ である . ## 3 実験結果 実験結果を表 1 に示す.SRLに関しては,すべてのモデルにおいて単一の ID のみのデータを使用したほうが高いスコアを得られた。一方で,FIDではすべてのモデルにおいて単一の ID のみのデータを使用したほうがスコアが低くなるという結果になった. この結果より,概念フレーム付与タスクに関しては , 少量のトークン境界が適切なデータを用いた場合よりも,トークン境界が不適切なデータを含んでいたとしても,大量のデータを用いたほうが良い結果が得られることがわかる.一方で , 意味役割付与タスクの場合はデータの量よりもトークン境界が適切なデータを少量でも集めたほうが有効であること表 3 OpenCALM 各モデルにおける Full_HeadID と Only_UniID のスコアの差分 がわかる . この結果は CALM2 の結果から元のデー 夕量と比べて半数以上少ないデータの場合にも同樣のことが言える。 また, OpenCALM ではパラメータ数で各スコアの増減に特徵がみられた.表 3 に各モデルにおいて Only_UniID のスコアから Full_HeadID のスコアを引いた差分を示す. この結果より,パラメータ数が大きくなるほど, FID のスコアの低下が大きくなり,SRL のスコアの増加量が小さくなっていることが分かる.すなわち, パラメータ数が少ないモデルほど単一トークン ID のデータの恩恵が大きく,パラメータ数が大きいモデルほどデータの量の低下に大きな影響を受けることが分かる。 ## 4 まとめ 実験結果から,意味役割付与と概念フレーム付与の二つのタスクではデータに求められる要件が異なることが示された . 意味役割付与タスクでは , 適切なトークン境界を揃えた質的なデータセットが求められる一方で,概念フレーム付与タスクでは量的なデータセットが求められる.すなわち,この二つのタスクを同時に行うマルチタスク学習においては, この質的データセットと量的データセットの両方の要件を満たす必要があると考える。 ## 参考文献 [1] 築地俊平, 新納浩幸. Tokenizer の違いによる日本語 BERT モデルの性能評価. 言語処理学会第 27 回年次大会発表論文集, pp. 781-784, 2021. [2] 井上誠一, Nguyen Tung, 中町礼文, 李聖哲, 佐藤敏紀. 日本語 GPT を用いたトークナイザの影響の調査. 言語処理学会第 28 回年次大会発表論文集, pp. 6-10, 2022. [3] 岡山大学竹内研究室. 述語項構造シソーラス, 2023. https://pth.cl.cs.okayama-u.ac.jp/. [4] Koichi Takeuchi, Alastair Butler, Iku Nagasaki, Takuya Okamura, and Prashant Pardeshi. Constructing Web-Accessible Semantic Role Labels and Frames for Japanese as Additions to the NPCMJ Parsed Corpus. In Proceedings of The 12th Language Resources and Evaluation Conference (LREC2020), 2020. [5] Alex Andonian, Quentin Anthony, Stella Biderman, Sid Black, Preetham Gali, Leo Gao, Eric Hallahan, Josh Levy-Kramer, Connor Leahy, Lucas Nestler, Kip Parker, Michael Pieler, Shivanshu Purohit, Tri Songz, Wang Phil, and Samuel Weinbach. GPTNeoX: Large Scale Autoregressive Language Modeling in PyTorch, 82021. [6] Hugo Touvron, Thibaut Lavril, Gautier Izacard, Xavier Martinet, Marie-Anne Lachaux, Timothée Lacroix, Baptiste Rozière, Naman Goyal, Eric Hambro, Faisal Azhar, Aurelien Rodriguez, Armand Joulin, Edouard Grave, and Guillaume Lample. Llama: Open and efficient foundation language models. arXiv preprint arXiv:2302.13971, 2023.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-7.pdf
# 依存関係の大きさは意味の関連性を表す 大山百々勢 1,2 山際宏明 1 下平英寿 1,2 1 京都大学 2 理化学研究所 [email protected], [email protected], [email protected] ## 概要 単語ベクトルの点群を可視化して高次元空間でどのように単語の意味が表現されているのかを解釈する手段として独立成分分析 (ICA)を用いることができる.ところが現実のデータに適用すると ICA によって得られる成分は互いに無相関であるが独立ではなく,成分間には依存関係がある。本稿では単語ベクトルを ICA で変換して得られる成分間の依存関係を3 次以上の混合モーメントで定量化し,その依存関係が何を表しているのかを理解することを目標とする. 実験を行った結果,依存関係が大きい成分同士は意味の関連が強いことがわかった.また,成分間の依存関係への寄与が大きな単語によって関連性を具体的に解釈することができた。 ## 1 はじめに 単語ベクトルは Skip-gram with Negative Sampling (SGNS) [1] のようなシンプルなモデルで得られるものから,複雑なニューラルネットワークに基づく言語モデル $[2,3,4,5]$ の内部表現まで, 言語の意味理解と表現において重要な役割を果たしている.しかし高次元空間においてこれらのベクトルがどのように言葉の意味を表現しているのか解釈するのは難しく,様々な議論がされている。 単語ベクトルが高次元空間でどのように意味を表現しているのかを解釈する手段として独立成分分析 (ICA) [6] を用いることができる [7, 8]. ICA はデータを線形変換して可能な限りデータを独立に表現するような座標軸を見つける手法である.ICAを単語ベクトルに適用して得られる各座標軸は,成分值が大きな単語によって解釈することができる. 現実のデータにICAを適用すると,得られる成分同士は互いに無相関であるが独立ではなく,成分間には依存関係があることが知られている $[9,10,11]$. ICA によって得られる成分間に依存関係が残る主な 図 1 単語ベクトルを ICA で変換して得られる成分のぺア $\left(\mathbf{s}_{i}, \mathbf{s}_{j}\right)$ の相関係数 $\mathrm{E}\left(\mathbf{s}_{i} \mathbf{s}_{j}\right)$ (左) と 4 次の混合モーメント $\mathrm{E}\left(\mathrm{s}_{i}^{2} \mathbf{s}_{j}^{2}\right)$ (右)を表すヒートマップ. 左のヒートマップの非対角成分に着目すると,異なる独立成分間の線形相関は 0 であることがわかる。一方右のヒートマップでは,成分間が独立であるときの值である 1 を超える成分のぺアが多く,これらの成分間には非線形な依存関係が存在することが示唆される。 理由の一つは,ICA では捉えることができない非線形な依存関係が現実のデータには存在し,結果として ICA が仮定するデータの独立性が満たされないことにある。図 1 に単語べクトルを ICA で変換して得られる成分のぺア $\left(\mathbf{s}_{i}, \mathbf{s}_{j}\right)$ の相関係数 $\mathrm{E}\left(\mathbf{s}_{i} \mathbf{s}_{j}\right)$ と 4 次の混合モーメント $\mathrm{E}\left(\mathbf{s}_{i}^{2} \mathbf{s}_{j}^{2}\right)$ を示す. この図からも, ICA を適用して得られる成分間の相関は 0 であるものの,これらの成分は実際には独立ではなく非線形な依存関係があることがわかる。 本稿では単語ベクトルをICA で変換して得られる成分間の依存関係を 3 次以上の混合モーメントで定量化し,その依存関係が何を表しているのかを理解することを目標とする. 本稿の構成まず 2 章で単語ベクトルを ICA で変換して得られる独立成分が解釈可能であることをみる. 続く 3 章では独立成分間の依存関係を定量化する3 次以上の混合モーメントについて述べる。 4 章では依存関係が大きい成分同士は意味の関連が強いことと,その関連性は依存関係への寄与が大きな単語によって解釈できることを実験で示す. ## 2 背景: 単語埋め込みの独立成分 独立成分分析 (ICA) はデータを線形変換して可能な限りデータを独立に表現する座標軸を見つける手法である.この章では ICA を単語ベクトルに適用して得られる各座標軸は,その成分值が大きな単語によって解釈できることを確認する。 ## 2.1 記号の定義 $n$ 個の単語 $w_{1}, \cdots, w_{n}$ の中心化した単語ベクトルを各行に並べた行列を $\mathbf{X} \in \mathbb{R}^{n \times d}$ と表す. ここで $d$ は単語べクトルの次元である. 行列 $\mathbf{X}$ に対して, ICA は変換後の行列 $\mathbf{S} \in \mathbb{R}^{n \times d}$ の各列が統計的になるべく独立になるような変換 $\mathbf{B} \in \mathbb{R}^{d \times d}$ を求める. ICA の変換は以下の式で与えられる。 $ \mathbf{S}=\mathbf{X B} $ $S_{t, i}$ の値は ICA で得られた $i$ 番目の座標軸における単語 $w_{t}$ のベクトルの成分値を表す1). 行列 $\mathbf{S}$ の各列を独立成分と呼び,以下では $i$ 列目の独立成分を $\mathbf{s}_{i} \in \mathbb{R}^{n}$ と表記する. ## 2.2 単語ベクトルの独立成分の解釈可能性 ICA を単語べクトルに適用して得られる各座標軸は,その成分値が大きな単語によって解釈できることを確認する。 実験設定実験に使用した単語べクトルは, Skip-gram with Negative Sampling (SGNS) を用いて学習した。学習に使ったコーパスは text8コーパス [12] である。単語数は $n=253,854$ であり, 次元数は $d=300$ とした. ICA の計算には Scikit-learn に実装されている FastICA [13] を用いており $\mathbf{S}$ は白色化されている。 実験結果表 1 は,各座標軸において,ICA で変換した後に正規化した単語べクトルの成分值が大きな単語2)と,その成分值を示したものである3). 各座標軸が持つ意味はその軸の成分値が大きな単語に 1)座標軸は分布の歪度が正になる向きにとり, 歪度の絶対値の順に軸番号を定めた。 2)正規化したべクトルの各成分値は,そのベクトルと各座標軸ベクトルとのコサイン類似度を表す。各座標軸において,正規化した単語べクトルの成分值が大きなものを選ぶことは,座標軸との向きが近いべクトルを選ぶことに対応する。 3)ただし, text8コーパスにおいて 100 回以上出現する単語の中から選んだ.以後,特に断りがなければ図表で示す単語は全て text8コーパスにおいて 100 回以上出現する単語の中から選んだものである.表 1 各座標軸において,ICA で変換した後に正規化した単語ベクトルの成分值が大きな単語とその成分値の表. text8コーパスにおいて 100 回以上登場する単語のうち,成分值の上位 5 単語をそれぞれ表示した。 よって解釈できる. 例えば第 0 軸の成分值が大きな単語は dishes, sause, fried,... であることから,第 0 軸は「食べ物」の意味を持つ軸であると解釈できる.同様に,第 30 軸は「ラジオ放送」,第 60 軸は「河川」, 第 90 軸は「アメリカの漫画」,第 120 軸は「季節・天候」,第 150 軸は「核」の意味をそれぞれ持つと解釈できる。 ## 3 背景:独立成分間の依存関係 現実のデータにICAを適用すると,得られる成分同士は互いに無相関であるが独立ではなく,成分間には依存関係があることが知られている $[9,10,11]$.特に ICA では捉えることができない非線形な依存関係が,これらの成分間に存在する. ## 3.1 依存関係を定量化する尺度 単語ベクトルを ICA で変換し,そこから得られる独立成分 $\mathbf{s}_{i}$ と $\mathbf{s}_{j}$ 間の依存関係を定量化する方法を検討する。この定量化には,相互情報量や HSIC [14] のほか, 3 次以上の混合モーメント $\mathrm{E}\left(\mathbf{s}_{i}^{k} \mathbf{s}_{j}^{l}\right)(k+l \geq 3)$ を使用することができる。本稿では,4 次の混合モーメントを用いて依存関係を定量化する。 $ \mathrm{E}\left(\mathbf{s}_{i}^{2} \mathbf{s}_{j}^{2}\right)=\frac{1}{n} \sum_{t=1}^{n} S_{t, i}^{2} S_{t, j}^{2} $ $\mathbf{S}$ は白色化されており, $\mathbf{s}_{i}$ と $\mathbf{s}_{j}$ が互いに独立であれば, $\mathrm{E}\left(\mathbf{s}_{i}^{2} \mathbf{s}_{j}^{2}\right)=1$ である. $\mathrm{E}\left(\mathbf{s}_{i}^{2} \mathbf{s}_{j}^{2}\right)$ の值が 1 から離れるほど, $\mathbf{s}_{i}$ と $\mathbf{s}_{j}$ は依存関係が大きいと言える。 表 2 (上段) $\mathrm{E}\left(\mathbf{s}_{i}^{2} \mathbf{s}_{j}^{2}\right)$ の值が大きい独立成分のペア. 表の中で重複が現れないように上位 6 ペアを示した. (下段) $\mathrm{E}\left(\mathbf{s}_{i}^{2} \mathbf{s}_{j}^{2}\right)$ の值が小さい独立成分のぺア. 上段におけるぺア $\left(\mathbf{s}_{i}, \mathbf{s}_{j}\right)$ の軸番号が小さい成分 $\mathbf{s}_{i}$ に対して, $\mathrm{E}\left(\mathbf{s}_{i}^{2} \mathbf{s}_{k}^{2}\right)$ の值が小さい成分 $\mathbf{s}_{k}$ を表の中で重複が現れないように選んだ。表の単語はそれぞれの成分值が大きな上位 5 単語である. 表 36 つの成分ペア $\left(\mathrm{s}_{i}, \mathbf{s}_{j}\right)$ について, $\mathrm{E}\left(\mathbf{s}_{i}^{2} \mathbf{s}_{j}^{2}\right)$ の值への寄与 $S_{t, i}^{2} S_{t, j}^{2}$ が大きな上位 6 単語とその值を示す. 表に示す 6 つの成分ペアは 4.2 節で定義している最小全域木 $T$ 上から選んだ。 図 $2 \mathrm{E}\left(\mathrm{s}_{i}^{2} \mathbf{s}_{j}^{2}\right)$ の值の箱ひげ図. $\mathrm{E}\left(\mathrm{s}_{i}^{2} \mathrm{~s}_{j}^{2}\right)$ は対称なので, $i<j$ である 44,850 個の值を使用した. ## 4 実験:依存関係の解釈と可視化 ## 4.1 依存関係が大きいと意味が関連する 単語ベクトルを ICAで変換して得られる独立成分のペア $\left(\mathbf{s}_{i}, \mathbf{s}_{j}\right)$ について, $\mathrm{E}\left(\mathbf{s}_{i}^{2} \mathbf{s}_{j}^{2}\right)$ の値を計算した. この值に関する詳細は図 2 の箱ひげ図に示されている.この図から,ペアごとに $\mathrm{E}\left(\mathrm{s}_{i}^{2} \mathrm{~s}_{j}^{2}\right)$ の値が大きいものと小さいものがあることがわかる. $\mathrm{E}\left(\mathbf{s}_{i}^{2} \mathbf{s}_{j}^{2}\right)$ の値が大きい成分のぺアと小さい成分の ペアをそれぞれ具体的に分析し,その特徴を明らかにする。 結果と考察表 2 に独立成分ペア $\left(\mathbf{s}_{i}, \mathbf{s}_{j}\right)$ の $\mathrm{E}\left(\mathbf{s}_{i}^{2} \mathbf{s}_{j}^{2}\right)$ の値と,それぞれの成分値が大きな単語を示す。 $\mathrm{E}\left(\mathbf{s}_{i}^{2} \mathbf{s}_{j}^{2}\right)$ の値が大きな独立成分ペアはそれぞれの成分が持つ意味が関連していることがわかる. 逆に, $\mathrm{E}\left(\mathrm{s}_{i}^{2} \mathbf{s}_{j}^{2}\right)$ の値が小さいと意味が関連していないこともわかる。 具体例 $\mathrm{E}\left(\mathbf{s}_{i}^{2} \mathbf{s}_{j}^{2}\right)$ の値が特に大きいペアとして第 22 軸と第 59 軸のペアに注目した. 22 軸は「楽器」, 59 軸は「オーケストラ」の意味でそれぞれ解釈できる.これにより,両者には意味の関連性があることがわかる。一方で, $\mathrm{E}\left(\mathbf{s}_{i}^{2} \mathbf{s}_{j}^{2}\right)$ の值が小さいペアである第 22 軸と第 1 軸では, 第 22 軸が「楽器」, 第 1 軸が 「食べ物」を意味し,これらの間には明確な意味の関連性が見られないことがわかる. 図 34.2 節で定義している最小全域木 $T$ における,連結な部分木を 2 つ可視化した. 各頂点はそれぞれ ICAで得られる単語ベクトルの独立成分を表す. 頂点のラベルには頂点番号を記し,その隣に成分値が最も大きな単語を記した. 頂点 $(i, j)$ 間の枝の色は成分間の $\mathrm{E}\left(\mathbf{s}_{i}^{2} \mathbf{s}_{j}^{2}\right)$ の値の大きさを表しており,枝の色が濃いほど大きい. ## 4.2 依存関係のネットワークを可視化 独立成分 $\mathbf{s}_{i}(i \in\{0, \cdots, d-1\})$ を頂点とする重みつき完全グラフ $G$ を考える. 頂点対 $\left(\mathbf{s}_{i}, \mathbf{s}_{j}\right)$ の間の辺の重みを $e^{-\mathrm{E}\left(\mathbf{s}_{i}^{2} \mathrm{~s}_{j}^{2}\right)}$ とする ${ }^{4)}$ このグラフ $G$ に対して最小全域木 $T$ を計算した ${ }^{5)}$. 結果と考察図 3 に最小全域木 $T$ における 2 つの部分木を示す. この図を通して 3 つ以上の独立成分の意味のつながりやまとまりといった構造を読み取ることが可能である. 具体例例えば,126: pointer, 56: сpu や 2: acid, 10: dna といった意味的に関連する成分ぺアは $T$ 内の辺で結ばれている. また,49: court, 193: rights, 168: license や 147: medicine, 52: infections, 16: blood といったグループは,辺によって結合された頂点集合として,ひとつの意味のまとまりを形成していることがわかる. ## 4.3 意味の関連性を具体化 独立成分のペア $\left(\mathbf{s}_{i}, \mathbf{s}_{j}\right)$ において,$S_{t, i}^{2} S_{t, j}^{2}$ が大きな単語 $w_{t}$ は $\mathrm{E}\left(\mathbf{s}_{i}^{2} \mathbf{s}_{j}^{2}\right)=\frac{1}{n} \sum_{t=1}^{n} S_{t, i}^{2} S_{t, j}^{2}$ に対する寄与が 4)このグラフ $G$ で最小全域木 $T$ を計算することは, $\mathrm{E}\left(\mathrm{s}_{i}^{2} \mathrm{~s}_{j}^{2}\right)$ の総和を最大化する全域木を求めることに相当する. 5) $G$ の部分グラフとして様々なものが考えられるが,残す枝の数と結果の解釈性のバランスを考慮し,各成分ごとに相対的な重要度の高い枝が選ばれやすい最小全域木を選択した。大きい.この節では独立成分ペアの $\mathrm{E}\left(\mathrm{s}_{i}^{2} \mathbf{s}_{j}^{2}\right)$ の値への寄与が大きな単語を調べる. 結果と考察表 3 に示すのは, 4.2 節で定義した最小全域木 $T$ から選んだ成分ぺアと寄与が大きな単語例である. $\mathrm{E}\left(\mathbf{s}_{i}^{2} \mathbf{s}_{j}^{2}\right)$ の値への寄与が大きな単語 $w_{k}$ は両方の成分に関連する意味を持ち,成分ペアの関連性がより具体的になることがわかる. 具体例例として,第 16 軸と第 52 軸のペアにおいて $\mathrm{E}\left(\mathbf{s}_{i}^{2} \mathbf{s}_{j}^{2}\right)$ の值への寄与が顕著な単語を挙げると, abscess (膿瘍),multifocal (多焦点の), hemorrhagic (出血),esophagitis (食道炎)などが含まれる。これらの単語は第 16 軸が表す「人体」と第 52 軸が表す「感染症」の意味の関連性を具体的に反映するものである. ## 5 おわりに 本稿では,単語ベクトルを ICA で変換して得られる成分間の依存関係を $\mathrm{E}\left(\mathbf{s}_{i}^{2} \mathbf{s}_{j}^{2}\right)$ で定量化した. 実験により,依存関係の大きさが独立成分間の意味の関連性を反映することがわかった。また,成分間の依存関係への寄与が大きな単語を調べることで,成分間の関連性を具体的に解釈することができた。今後は,「意味の関連性」についての定性的な議論を拡張し,より客観的かつ定量的な尺度を用いた分析方法を探求することを目指す。 ## 謝辞 本研究は JSPS 科研費 $22 \mathrm{H} 05106,23 \mathrm{H} 03355$ および JST CREST JPMJCR21N3 の助成を受けたものです. ## 参考文献 [1] Tomás Mikolov, Ilya Sutskever, Kai Chen, Greg Corrado, and Jeffrey Dean. Distributed representations of words and phrases and their compositionality. In Advances in Neural Information Processing Systems, pp. 31113119, 2013. [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Jill Burstein, Christy Doran, and Thamar Solorio, editors, Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [3] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A robustly optimized BERT pretraining approach. arXiv preprint arXiv:1907.11692, 2019. [4] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In $\mathrm{H}$. Larochelle, M. Ranzato, R. Hadsell, M.F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Curran Associates, Inc., 2020. [5] Hugo Touvron, Louis Martin, Kevin Stone, Peter Albert, Amjad Almahairi, Yasmine Babaei, Nikolay Bashlykov, Soumya Batra, Prajjwal Bhargava, Shruti Bhosale, et al. Llama 2: Open foundation and fine-tuned chat models. arXiv preprint arXiv:2307.09288, 2023. [6] Aapo Hyvärinen and Erkki Oja. Independent component analysis: Algorithms and applications. Neural networks, Vol. 13, No. 4-5, pp. 411-430, 2000. [7] Tomáš Musil and David Mareček. Independent components of word embeddings represent semantic features. arXiv:2212.09580, 2022. [8] Hiroaki Yamagiwa, Momose Oyama, and Hidetoshi Shimodaira. Discovering universal geometry in embeddings with ICA. In Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, pp. 4647-4675, Singapore, December 2023. Association for Computational Linguistics. [9] Aapo Hyvärinen, Patrik O. Hoyer, and Mika Inki. Topographic independent component analysis. Neural Computation, 2001. [10] Hiroaki Sasaki, Michael Gutmann, Hayaru Shouno, and Aapo Hyvarinen. Correlated topographic analysis: estimating an ordering of correlated components. Machine Learning, 2013. [11] Hiroaki Sasaki, Michael Gutmann, Hayaru Shouno, and Aapo Hyvarinen. Estimating Dependency Structures for non-Gaussian Components with Linear and Energy Correlations. In Samuel Kaski and Jukka Corander, editors, Proceedings of the Seventeenth International Conference on Artificial Intelligence and Statistics, Vol. 33 of Proceedings of Machine Learning Research, pp. 868-876, Reykjavik, Iceland, 22-25 Apr 2014. PMLR. [12] Matt Mahoney. About the test data, 2011. http: //mattmahoney.net/dc/textdata.html. [13] A. Hyvarinen. Fast and robust fixed-point algorithms for independent component analysis. IEEE Transactions on Neural Networks, Vol. 10, No. 3, pp. 626-634, 1999. [14] Arthur Gretton, Olivier Bousquet, Alex Smola, and Schölkopf Bernhard. Measuring statistical dependence with hilbert-schmidt norms. In The International Conference on Algorithmic Learning Theory, 2005.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-8.pdf
# 自動生成した NLI データを用いた教師なし文埋め込みの改良 佐藤 蒼馬 ${ }^{1}$ 塚越駿 2 笹野遼平 2 武田 浩一 ${ }^{2}$ 1 名古屋大学情報学部 2 名古屋大学大学院情報学研究科 \{sato.soma.y7, tsukagoshi. hayato.r2\}@s.mail.nagoya-u.ac.jp \{sasano, takedasu\}@i.nagoya-u.ac.jp ## 概要 デコーダ系の大規模言語モデル (LLM) は自然言語処理の多くのタスクにおいて高い性能を示しており、文埋め込み生成においても PromptEOL [1] というデコーダ系モデルが Semantic Textual Similarity (STS) タスクにおいて最高性能を達成している。しかし、PromptEOL が高い性能を示すのは、人手で構築された自然言語推論 (Natural Language Inference: NLI) データセットを用いて fine-tuning した場合であり、人手で構築されたデータを利用しない場合の STS の性能は 6 ポイント程度低い值となっている。本研究では LLM を用いて NLI データセットを自動生成し、PromptEOL 9 fine-tuing に利用することで、教師なし設定における文埋め込み生成の高性能化を目指す。STS タスクで評価した結果、人手で構築された大規模なデータセットを利用しない設定において 82.21 という既存手法を上回る性能を達成した。 ## 1 はじめに 文埋め込みは検索や含意関係認識など多くの夕スクに利用できることから、広く研究されている。特に、事前学習済み言語モデルを fine-tuning することで文埋め込みを生成する手法が多く提案されている。例えば、エンコーダ系のモデルを用いたものとして、NLI 分類で BERT [2] を fine-tuning する SentenceBERT [3]、定義文を用いて BERT を fine-tuning する DefSent [4]、対照学習により BERT を fine-tuning する SimCSE [5]、プロンプトベースの文埋め込み手法により静的なトークン埋め込みのバイアスを取り除く PromptBERT [6]、エンコーダ・ デコーダ系のモデルを用いたものとして、NLI デー タセットおよび QA データセットを用いて T5 [7] を fine-tuning する Sentence-T5 [8] 等が挙げられる。 また近年、デコーダ系の LLM に基づく手法が種々のベンチマークタスクで高い性能を示してい る。文埋め込み生成についても、デコーダ系の LLM をバイ・エンコーダとして使用し、埋め込みを生成する SGPT [9] や、一つの単語のみに焦点を当てる制限を設けたプロンプトベースの手法で文埋め込みを生成する PromptEOL [1] 等が提案されており、 PromptEOL は人手で構築されたデータを利用する設定において、現時点でもっとも高いSTS の性能を達成している。しかし、人手で構築された NLI データセットを利用しない場合、それより大きく低い性能にとどまっている。 本研究では LLM を利用して NLI データセットを自動構築し、構築した NLI データセットを PromptEOL の fine-tuning に利用することで、人手で構築したデータを利用しない設定においても高い性能を持つ文埋め込みモデルの構築を目指す。本研究で提案するフレームワークの概要を図 1 に示す。まず、Wikipedia から抽出した文に対し、それが含意する文、それと矛盾する文を生成するようなプロンプ卜をそれぞれ適用し、NLI データセットを自動生成する。続いて、自動生成された NLI データセットを用いて PromptEOL $の$ fine-tuning を行い、fine-tuning 済みのモデルを用いて文埋め込みを生成する。 ## 2 PromptEOL PromptEOL はデコーダ系の大規模言語モデルに入力するプロンプトを工夫することで質の高い文埋め込みを生成する手法である。図 1 下部の埋め込み生成で示すように、「This sentence: "[text]" means in one word: "」の [text]を埋め込みを生成したい文に置換し、「in one word: "」の直後の埋め込みを、入力文の埋め込みとして用いる。デコーダ系の大規模言語モデルは次単語予測タスクで事前訓練されたモデルであるため、入力文を 1 単語で言い換えるような単語埋め込みを出力させるように入力を工夫することで、文埋め込みを生成することができる。 SimCSE の教師あり学習同様、NLI データセット 図 1 自動生成した NLI データを用いた教師なし文埋め込みの改良の概要 で対照学習したLLMを用いることで、より高性能な文埋め込みモデルを得ることが可能となる。図 1 の下部に示すように、NLI データセットを用いる場合、PromptEOL は含意関係にある文の埋め込みが近づき、矛盾関係にある文の埋め込みが遠ざかるように LLMを fine-tuning した上で、fine-tuning 後の LLM を用いて文埋め込みを生成する。NLIデータセットを用いて fine-tuning を行うことで、STS タスクにおいて 6 ポイント程度高いスコアを達成することが報告されている [1]。 ## 3 NLI データセットの自動生成 本研究では、LLMを用いて自動生成したNLIデー タを用いて PromptEOLを fine-tuning することで、人手で構築された大規模なデータセットを利用せずに、高性能な文埋め込み生成モデルを構築することを目的とする。本節では本研究における NLI データの生成手順について説明する。 ## 3.1 既存の NLI データセット NLI データセットは、前提文 (premise) と仮説文 (hypothesis) からなる文のペアに対し、含意 (entailment)、中立 (neutral)、矛盾 (contradiction) のいずれかのラベルが付与されたデータセットである。人手で構築された代表的な NLI データセットとして Stanford NLI (SNLI) [10] コーパスや、Multi-Genre NLI (MNLI) コーパス [11]、Cross-Lingual NLI (XNLI) コーパス [12] があり、それぞれ 579,000、433,000、 112,500 個の文ペアで構成されている。SimCSE や PromptEOL が SNLI コーパスおよび MNLIコーパスを用いているなど、NLI データセットは多くの文埋め込み生成モデルにおいて利用されている。本研究では、SNLIコーパスと MNLIコーパスを統合したデータを利用することとし、以降ではこのデータのことを人手 NLI データセットと呼ぶ。 ## 3.2 NLI データの自動生成 前提文となる文を、以下のプロンプトの $\{$ premise $\}$ の部分に置換し LLM に入力することで、それぞれ前提文に対応する含意文、矛盾文を生成する。この際、「Answer:"」に続いて出力された、次の「"」までの文字列を生成文とみなす。 ## 含意文生成用プロンプト Generate one sentence that logically entails "\{premise\}" in the form of a statement beginning with "Answer:". Answer: " ## 矛盾文生成用プロンプト Generate one sentence that logically contradicts "\{premise\}" in the form of a statement beginning with "Answer:". Answer: " few-shot 学習を採用する場合は、人手 NLI データセットからいくつかの文ペアを取り出し、上述のプロンプトの前に例として加え、含意文、矛盾文を生成する。例えば、1-shot $の$ 前提文、含意文のぺアとして、"Fun for adults and children."、"Fun for both adults and children.”を使用する場合のプロンプトは以下のようになる。 ## 含意文生成用プロンプト (1-shot) Generate one sentence that logically entails "Fun for adults and children." in the form of a statement beginning with "Answer:". Answer: "Fun for both adults and children." Generate one sentence that logically entails "premise" in the form of a statement beginning with "Answer:". Answer: " ## 4 実験 自動生成した NLI データセット、および、それを用いて生成した文埋め込みの評価を行った。 ## 4.1NLI データセットの評価 評価方法 DeBERTa V2 XXLarge モデル [13] に MNLI タスクを学習させた deberta-v2-xxlarge-mnli ${ }^{1)}$ を用いて、自動生成した NLI データセットの質を評価した。具体的には、自動生成した NLI データセット中の各事例について、deberta-v2-xxlarge-mnli を用いた含意、中立、矛盾の三値分類を行い、分類結果と NLI データセットに付与されたラベルの一致度を算出することでデータセットの質を評価した。 実験設定 0 -shot および人手 NLI データセットについては、含意および矛盾の文ぺアをそれぞれランダムに 3000 ペアずつ、計 6000 ペア取り出し、それらの文ぺアに対し自動分類結果とのラべルの一致度を算出した。few-shot 学習では、含意 10 個、矛盾 10 個の計 20 個の異なるプロンプトに対し、それぞれ 1000 ペアずつ、計 20000 個の文ぺアを生成し、それらの文ぺアに対し自動分類結果とのラベルの一致度を算出した。また、LLM には llama-2-7b-chat [14] を用いた。生成元となる前提文の集合として、SimCSE [5] の教師なし学習で用いられた、Wikipedia からランダムに抽出された 100 万文を用いた。その際、人手 NLI データセットの分布に近くなるようにトークン数が 4 以上 32 以下の文の  表 1 NLI データセットのラベルと自動分類の一致度 み使用した。few-shot 学習は 5 -shot、10-shot、20-shot の 3 パターンで実施した。 実験結果一致度の算出結果を表 1 に示す。shot 数が増えるほど一致度が向上し、20-shot の場合、人手 NLI データセットと同等の一致度となった。特に含意ぺアについては、few-shot 学習により大幅に一致度が向上しており、few-shot 学習の効果は非常に大きいと言える。以上の結果から、10-shot や 20-shot を用いて自動生成した NLI データセットはある程度、高品質なものとなっている可能性が高いと考えられる。付録 A に 0-shot、20-shot の設定で自動生成された NLI データの例を示す。 ## 4.2 文埋め込みの評価 評価方法 NLI データセットを利用して生成された文埋め込みの評価を行った。文埋め込みの評価は主に Semantic Textual Similarity (STS) タスクで行った2)。STS タスクは、文ペアが与えられた時に、モデルを用いて文ぺアの意味的な類似度を計算し、それがどの程度人間による評価に近いかを検証することで、モデルが文の意味的類似性を正しく推定できるかを評価するタスクである。本研究では多くの先行研究と同様に、文ぺアの文埋め込みの余弦類似度と人手評価による類似度とのスピアマンの順位相関係数により文埋め込みの質を評価した。 実験設定 STS データセットとして、先行研究と同様 STS 2012-2016 [15, 16, 17, 18, 19]、STS-B [20]、 SICK-R [21] の 7 つのデータセットを用いた。LLM には 1lama-2-7b [14] を用い、64,000 事例の NLI デー タセットを用いて fine-tuningを行った。学習時の batch_size は 256、warm_up に用いたステップ数は全体の $10 \%$ 、学習率は $5 \mathrm{e}-4$ とした。学習の際は、 5 ステップごとに STS-B の開発セットに対するスピアマンの順位相関係数を計算し、最もスコアが高い時点のモデルを最終的な評価に用いた。  表 2 文埋め込みの余弦類似度と人手評価とのスピアマンの順位相関係数 (表内の值は全て 100 をかけたもの) 乱数による実験結果への影響を低減するため、 0-shot、および、人手データセットを用いた実験では、NLI データセットの並び順を変えて 3 回実験し、それらの平均スコアを最終的なスコアとした。 few-shot 学習では、異なる例文を用いて生成した 10 個の NLI データセットに対しそれぞれ実験し、それらの平均スコアを最終的なスコアとした。 また、比較のため、fine-tuningを行わない llama-2$7 \mathrm{~b}$ ベースの PromptEOLを用いた評価も行った。さらに NLI データセットを使用しない unsupervisedSimCSE-RoBERTa、人手 NLI データセットで学習した supervised-SimCSERoBERTa、教師なし学習において最高性能を達成している PromptRoBERTa についても先行研究のスコアを引用し比較を行った。 実験結果 STS タスクの実験結果を表 2 に示す. 0-shot で fine-tuning した PromptEOL モデルと fine-tuning を行わない PromptEOL モデルのスコアを比較すると、平均スコアがおよそ 7 ポイントほど上昇しており、生成した NLI データセットを用いた fine-tuning が有効であることが確認できる。さらに、 0-shot と few-shot の結果を比較すると、few-shot 学習により生成した NLI データセットを用いたモデルの方が 3 ポイント程度高くなっており、few-shot 学習の有効性が確認できる。特に 10-shot に対する平均スコアは 82.21 と、unsupervised-SimCSE-RoBERTa や PromptRoBERTa の性能を上回っており、人手で構築された大規模なデータセットを利用しない設定において最高性能を達成した。教師あり学習と比較すると、教師あり学習した PromptEOL の平均スコアは 85.41 と、10-shot に対する平均スコア 82.21 より、 3.2 ポイント高いスコアであった。fine-tuning を行わない場合の平均スコアは 71.62 であるので、few-shot 学習により自動生成した NLI データセットの効果は非常に大きいと言える。 ## 5 おわりに 本研究ではデコーダ系の大規模言語モデルを用いて NLI データセットを自動生成し、PromptEOL の fine-tuning に利用することで、教師なし設定における文埋め込み生成の高性能化に取り組んだ。STS タスクを用いた評価実験の結果、few-shot 学習により自動生成した NLI データセットを用いることで、人手で構築された大規模なデータセットを利用しない設定において、既存手法を大きく上回る性能を達成した。今後の課題としては以下の 2 つが挙げられる。まず、提案した枠組みは人手で構築された大規模なデータセットを必要としないことから多くの言語に応用可能であると考えられるが、本研究での実験は英語のみを対象としている。手法の言語横断的な有用性を示すためには、英語以外の言語も対象とした実験を行う必要がある。また、後段タスクを対象とした実験では、そもそも NLI データセットを用いた fine-tuning が有効でないという結果となったが、提案した枠組みは NLI データ以外にも応用可能であることから、後段タスクごとに適したデータセットを検証し、各タスクに適した文埋め込みの生成を目指すことが考えられる。 ## 謝辞 本研究は JSPS 科研費 JP21H04901 の助成を受けたものです。 ## 参考文献 [1] Ting Jiang, Shaohan Huang, Zhongzhi Luan, Deqing Wang, and Fuzhen Zhuang. Scaling Sentence Embeddings with Large Language Models. arXiv:2307.16645, 2023. [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of NACCL'19, pp. 4171-4186, 2019. [3] Nils Reimers and Iryna Gurevych. Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks. In Proceedings of EMNLP-IJCNLP'19, pp. 3982-3992, 2019. [4] Hayato Tsukagoshi, Ryohei Sasano, and Koichi Takeda. DefSent: Sentence Embeddings using Definition Sentences. Proceedings of ACL'21, pp. 411-418, 2021. [5] Tianyu Gao, Xingcheng Yao, and Danqi Chen. SimCSE: Simple Contrastive Learning of Sentence Embeddings. In Proceedings of EMNLP'21, pp. 6894-6910, 2021. [6] Ting Jiang, Jian Jiao, Shaohan Huang, Zihan Zhang, Deqing Wang, Fuzhen Zhuang, Furu Wei, Haizhen Huang, Denvy Deng, and Qi Zhang. PromptBERT: Improving BERT Sentence Embeddings with Prompts. In Proceedings of EMNLP'22, pp. 8826-8837, 2022. [7] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer. arXiv:1910.10683, 2019. [8] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Sentence-T5: Scalable Sentence Encoders from Pre-trained Text-to-Text Models. In Findings of ACL'22, pp. 1864-1874, 2022. [9] Niklas Muennighoff. SGPT: GPT Sentence Embeddings for Semantic Search. arXiv preprint arXiv:2202.08904, 2022. [10] Samuel R. Bowman, Gabor Angeli, Christopher Potts, and Christopher D. Manning. A large annotated corpus for learning natural language inference. In Proceedings of EMNLP'15, pp. 632-642, 2015. [11] Adina Williams, Nikita Nangia, and Samuel Bowman. A Broad-Coverage Challenge Corpus for Sentence Understanding through Inference. In Proceedings of NACCL'18, pp. 1112-1122, 2018. [12] Alexis Conneau, Ruty Rinott, Guillaume Lample, Adina Williams, Samuel Bowman, Holger Schwenk, and Veselin Stoyanov. XNLI: Evaluating Cross-lingual Sentence Representations. In Proceedings of EMNLP'18, pp. 24752485, 2018. [13] Pengcheng He, Xiaodong Liu, Jianfeng Gao, and Weizhu Chen. DeBERTa: Decoding-enhanced BERT with Disen- tangled Attention. In Proceedings of ICRL'21, 2021. [14] Thomas Scialom Hugo Touvron and et al. Llama 2: Open Foundation and Fine-Tuned Chat Models. arXiv:2307.09288, 2023. [15] Eneko Agirre, Daniel Cer, Mona Diab, and Aitor Gonzalez-Agirre. SemEval-2012 Task 6: A Pilot on Semantic Textual Similarity. In Proceedings of SemEval'12, pp. 385-393, 2012. [16] Eneko Agirre, Daniel Cer, Mona Diab, Aitor GonzalezAgirre, and Weiwei Guo. *SEM 2013 shared task: Semantic Textual Similarity. In Proceedings of ${ }^{*}$ SEM'13, pp. 32-43, 2013. [17] Eneko Agirre, Carmen Banea, Claire Cardie, Daniel Cer, Mona Diab, Aitor Gonzalez-Agirre, Weiwei Guo, Rada Mihalcea, German Rigau, and Janyce Wiebe. SemEval2014 Task 10: Multilingual Semantic Textual Similarity. In Proceedings of SemEval'14, pp. 81-91, 2014. [18] Eneko Agirre, Carmen Banea, Claire Cardie, Daniel Cer, Mona Diab, Aitor Gonzalez-Agirre, Weiwei Guo, Iñigo Lopez-Gazpio, Montse Maritxalar, Rada Mihalcea, German Rigau, Larraitz Uria, and Janyce Wiebe. SemEval2015 Task 2: Semantic Textual Similarity, English, Spanish and Pilot on Interpretability. In Proceedings of SemEval'15, pp. 252-263, 2015. [19] Eneko Agirre, Carmen Banea, Daniel Cer, Mona Diab, Aitor Gonzalez-Agirre, Rada Mihalcea, German Rigau, and Janyce Wiebe. SemEval-2016 Task 1: Semantic Textual Similarity, Monolingual and Cross-Lingual Evaluation. In Proceedings of SemEval'16, pp.497-511, 2016. [20] Eneko Agirre Iñigo Lopez-Gazpio Lucia Specia Daniel Cer, Mona Diab. SemEval-2017 Task 1: Semantic Textual Similarity Multilingual and Crosslingual Focused Evaluation. In Proceedings of SemEval'17, pp. 1-14, 2017. [21] Marco Marelli, Stefano Menini, Marco Baroni, Luisa Bentivogli, Raffaella Bernardi, and Roberto Zamparelli. A SICK cure for the evaluation of compositional distributional semantic models. In Proceedings of LREC'14, pp. 216-223, 2014. 表 30 -shot 学習で自動生成された NLI データの例 表 4 20-shot 学習で自動生成された NLI データの例 & \\ 表 5 SentEval の後段タスクにおける正解率 (\%) ## A 自動生成された NLI データの例 0-shot 学習、20-shot 学習で自動生成された NLI データの例を表 3、表 4 にそれぞれ示す。表 3、表 4 で前提文は同一である。 0-shot 学習により生成された含意文の多くは中立と推定されているものの、含意はしていなくとも類似した意味の文を生成できていることがわかる。一方、矛盾文については never といった否定語や colored という colorless とは逆の意味の単語を用いることで、多様な文が生成できていることがわかる。20-shot 学習により生成された文は前提文を強く参照している傾向があり、精度の高い含意文、矛盾文を生成できていることが確認できる。また、 0 -shot 学習と比べ、生成される文は短くなる傾向があった。 ## B 後段タスクを用いた評価 生成された文埋め込みの、後段タスクにおける有用性を検証するため、SentEval の後段タスクを用いた評価を実施した。SentEval の後段タスクでは文埋め込みを入力として使用し、その上で線形分類器の訓練を行う。具体的には、各文から生成された文埋め込みを特徴として使用し、ロジスティック回帰などの線形分類器を訓練する。訓練された分類器を用いて分類タスクのパフォーマンスを評価し、正解率や他の関連メトリックスを測定することで、文表現の効果性を定量的に評価する。 結果を表 5 に示す。先行研究 [1] で報告されているのと同様に、fine-tuning を行うことによる後段タスクの性能向上は確認できなかったが、0-shot、 few-shot ともに人手 NLI データセットで学習した場合と同等のスコアとなった。
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-9.pdf
# 言語横断類似度推定のための多言語文符号化器のドメイン適応 山内 洋輝 ${ }^{1}$ 梶原 智之 ${ }^{1}$ 桂井 麻里衣 ${ }^{2}$ 二宮 崇 ${ }^{1}$ 1 愛媛大学 2 同志社大学 \{yamauchi@ai., kajiwara@, ninomiya@\}cs.ehime-u.ac.jp [email protected] ## 概要 本研究では,多言語文符号化器のドメイン適応に取り組む.高度な専門知識が要求される医療や学術のドメインにおいては,目的ドメインに特化した事前訓練の有効性が知られている。しかし,様々な言語においてドメイン特化の単言語事前訓練モデルの開発が進む一方,言語横断情報検索などに応用可能な多言語モデルは存在しない,また,各言語における目的ドメインのコーパスを整備し多言語の事前訓練を行うには大きなコストが必要となる. そこで我々は,既存の多言語文符号化器および 2 言語の各々における目的ドメインに特化した単言語文符号化器を用いて, 効率的にドメイン特化の言語横断文符号化器を開発する. 3 つのドメインおよび言語対における翻訳ランキングの評価実験の結果,ドメイン適応なしのベースラインや既存のドメイン適応手法と比べて,提案手法の有効性を確認できた。 ## 1 はじめに Web 上に蓄積された膨大なデータから網羅的に情報を得るために,言語横断情報検索 [1] の技術が期待されている. 埋め込みべースの言語横断情報検索などの応用を目指して, 多言語文符号化器 [2-4] の研究も盛んに進められている. これらの多言語文符号化器は Wikipedia や CC100 [5] などの一般的なテキストを用いて訓練されているが,高度な専門知識が要求される医療や学術のドメインに対応するためには, 目的ドメインに特化した多言語文符号化器を開発することが望ましい。しかし, これらのドメインに特化した単言語文符号化器 [6-11] の開発が進む一方で, 言語横断情報検索に応用可能なドメイン特化の多言語文符号化器は存在しない. そこで本研究では,ドメイン特化の言語横断文符号化器を構築する手法を提案する. ただし, 各言語における目的ドメインのコーパスを整備して多言語の事前訓練を行うには大きなコストが必要となるた め, 汎用的な多言語文符号化器 $[3,4,12,13]$ の開発と同様に,事前訓練済みの文符号化器を対訳コーパス上でファインチューニングするアプローチを採用する. 先行研究では, 知識蒸留 [3], 翻訳ランキング [4], 対照学習 [12], 敵対的学習 [13] などの手法を用いて,対訳文における原言語と目的言語の埋め込みを近づけることに焦点を当ててきた。一方で本研究では, 原言語と目的言語の埋め込みを近づけるだけでなく,ドメイン知識の獲得も同時に行う. 学術 (英日) ・医療 (英仏) ・金融 (英中)の 3 つのドメインおよび言語対における評価実験の結果,提案手法がドメイン適応なしのべースラインや既存のドメイン適応手法と比べて高い性能を達成することを確認できた. 詳細な分析の結果, 提案手法は目的ドメインの対訳コーパスが数千文対しか使用できない状況でも有効であることが明らかになった。 ## 2 提案手法 図 1 に示すように,本研究では目的ドメインの対訳コーパス上でのファインチューニングを通して,多言語文符号化器から言語非依存の埋め込み(意味表現)を抽出しつつ,各言語におけるドメイン特化の単言語文符号化器からドメイン知識を蒸留する.このように獲得した意味表現(図 1 の黄色) は,目的ドメインに適した意味空間上で,入力言語に関わらず,意味的に類似した文に類似したべクトルを与えられる. 本手法は, 多言語文符号化器から得られる埋め込みを言語固有の情報を持つ言語表現と言語非依存の情報を持つ意味表現に分離する DREAM [12] および MEAT [13] から着想を得て言語非依存の埋め込みを訓練するとともに,Multilingual SentenceBERT [3] の知識蒸留から着想を得てドメイン特化の埋め込みを訓練するものである。 先行研究 $[12,13]$ と同様に, 多言語文符号化器から得られる埋め込みを, MLP ${ }_{* L}$ および MLP HM $^{2}$ の 2 つの多層パーセプトロンによって言語表現および意味表現に分離する。これを原言語 $\mathrm{S}$ および目的言語 図 1 提案手法の概要図. 目的ドメインの対訳コーパス, 多言語文符号化器, 各言語におけるドメイン特化の単言語文符号化器を用いて,多言語文符号化器から言語非依存なドメイン特化の意味表現を抽出するように MLPを訓練する。 $\mathrm{T}$ の両方で実施し,合計 4 つの MLPを以下の 5 つの損失関数に基づくマルチタスク学習で訓練する. $ L=L_{1}+L_{2}+L_{3}+L_{4}+L_{5} $ ## 2.1 ドメイン知識の蒸留 言語表現と意味表現を足し合わせた文表現を,ドメイン特化の単言語文符号化器から得た文表現に近づけることで,意味表現へのドメイン知識の蒸留を狙う,以下のように損失を定義する。 $ L_{1}=2-\left(\cos \left(\left(S_{L}+S_{M}\right), S_{D}\right)+\cos \left(\left(T_{L}+T_{M}\right), T_{D}\right)\right) $ ここで, $S_{L} \in \mathbb{R}^{d}$ および $T_{L} \in \mathbb{R}^{d}$ は原言語および目的言語の言語表現, $S_{M} \in \mathbb{R}^{d}$ および $T_{M} \in \mathbb{R}^{d}$ は各言語の意味表現, $S_{D} \in \mathbb{R}^{d}$ および $T_{D} \in \mathbb{R}^{d}$ は各言語のドメイン特化モデルから得た文表現を表す。ただし, $d$ は埋め込みの次元数である. ## 2.2 言語間で意味表現同士を近づける 言語に依存せず,意味的に等価な文同士の意味表現を近づけたい。これを達成するために,対訳文の間で意味表現を近づける以下の損失を定義する. $ L_{2}=1-\cos \left(S_{M}, T_{M}\right) $ ## 2.3 言語間で言語表現同士を遠ざける 意味に依存せず,異なる言語の文同士の言語表現を遠ざけたい。これを達成するために,対訳文の間で言語表現を遠ざける以下の損失を定義する. $ L_{3}=\max \left(0, \cos \left(S_{L}, T_{L}\right)\right) $ ## 2.4 元の文表現と離れすぎない 言語非依存の意味表現を獲得するために,言語固有であるドメイン特化の単言語文符号化器に影響を受けすぎないようにしたい。これを達成するために,意味表現と多言語文符号化器から得られる元の文表現の大きな乘離を防ぐ以下の損失を定義する。 $ L_{4}=2-\left(\cos \left(S, S_{M}\right)+\cos \left(T, T_{M}\right)\right) $ 意味表現と同様に,言語表現も元の文表現との大きな乘離を避けるために,以下の損失を定義する。 $ L_{5}=2-\left(\cos \left(S, S_{L}\right)+\cos \left(T, T_{L}\right)\right) $ ## 2.5 実装の詳細 文表現には,各モデルから出力されるトークン埋め込みの平均プーリングを用いる. MLP には 1 層の順伝播型ニューラルネットワークを用いる。また,対訳コーパス上でファインチューニングするのは MLP のみであり,文符号化器は更新しない. ## 3 評価実験 3つのドメインおよび言語対を対象とする翻訳ランキングタスクにおいて提案手法の性能を評価する. 翻訳ランキングは,ある原言語文に対して意味的類似度の降順に目的言語文をランキングするタスクであり,対訳文を 1 位にランク付けできた割合を評価する ExactMatch および上位 10 件のうち何位に対訳文をランク付けできたかを評価する平均逆順位 MRR@10によって自動評価する。本実験では,余弦類似度によって意味的類似度を推定する。 表 1 実験結果 } & LaBSE & 0.908 & 0.927 & 0.943 & 0.949 & 0.476 & 0.537 \\ 表 2 対訳コーパスの文対数 ## 3.1 実験設定 データセット学術・医療・金融の3 つのドメインにおいて実験した.学術ドメインにおいては,科研費の採択課題名 ${ }^{1)}$ に関する英日の対訳コーパスを用いた。医療ドメインにおいては,WMT16 [14] の Biomedical Translation タスクにて採用された PubMed に関する英仏の対訳コーパスを用いた。金融ドメインにおいては,Financial Times の記事タイトルを抽出した英中の対訳コーパス [15] を用いた。これらの対訳コーパスの文対数を表 2 に示す。それぞれ,検証用および評価用に 5,000 文対ずつを無作為抽出し,残りを訓練用に用いた。 モデルドメイン特化の単言語文符号化器には,学術ドメインにおいては英語の SciBERT ${ }^{2)}$ [6] および日本語の AcademicRoBERTa ${ }^{3}$ [10], 医療ドメインにおいては英語の Bio_ClinicalBERT ${ }^{4)}$ [7] およびフランス語の $\operatorname{DrBERT}^{5}$ [11], 金融ドメイン 1) https://kaken.nii.ac.jp/ 2) https://huggingface.co/allenai/scibert_scivocab_ uncased 3) https://huggingface.co/EhimeNLP/AcademicRoBERTa 4) https://huggingface.co/emilyalsentzer/Bio_ ClinicalBERT 5) https://huggingface.co/Dr-BERT/DrBERT-7GB においては英語の FinBERT ${ }^{6}$ [ [8] および中国語の Mengzi-BERT ${ }^{7)}$ [9] を用いた. 多言語文符号化器には,機械翻訳の品質推定のために言語表現と意味表現を分離する先行研究 $[12,13]$ と同様に, 最先端の多言語文符号化器のひとつである $\mathrm{LaBSE}^{8)}$ [4]を用いた. バッチサイズを 512,最適化手法を Adam [16],学習率を 1e-5 として HuggingFace Transformers [17] を用いて訓練した。検証用データにおける式 (1)の損失が 3epoch 改善しない場合に訓練を終了した. 比較手法言語表現と意味表現を分離しつつドメイン知識の蒸留を行う提案手法の有効性を評価するために,LaBSE の文表現をそのまま用いるべースラインに加えて,3つの比較手法の実験を行う.まず, ドメイン知識の蒸留のみを行う比較手法 (1)として,言語表現と意味表現に分離する $\mathrm{MLP}_{L}$ および $\mathrm{MLP}_{M}$ の代わりに,原言語用の $\mathrm{MLP}_{S}$ および目的言語用の $\mathrm{MLP}_{T}$ を用いて,以下の損失 $L_{6}$ を考える. $ L_{6}=2-\left(\cos \left(S_{S}, S_{D}\right)+\cos \left(T_{T}, T_{D}\right)\right) $ 次に,言語表現と意味表現を分離しない比較手法 (2) として,ドメイン知識の蒸留に加えて原言語の表現と目的言語の表現を近づける損失 $L_{6}+L_{7}$ を考える. $ L_{7}=1-\cos \left(S_{S}, T_{T}\right) $ 最後に,ドメイン知識の蒸留をしない比較手法 (3) として,言語表現と意味表現を足し合わせて元の文表現を復元する損失 $L-L_{1}+L_{8}$ を考える. $ L_{8}=2-\left(\cos \left(\left(S_{L}+S_{M}\right), S\right)+\cos \left(\left(T_{L}+T_{M}\right), T\right)\right) $ 6) https://huggingface.co/ProsusAI/finbert 7) https://huggingface.co/Langboat/ mengzi-bert-base-fin 8) https://huggingface.co/sentence-transformers/LaBSE 表 3 アブレーション分析 ExactMatch ## 3.2 実験結果 表 1 に実験結果を示す. 上段は英語の文をクエリとして他言語の文を検索する場合の実験結果であり、下段は他言語の文をクエリとして英語の文を検索する場合の実験結果である。 LaBSE と比較して, 全てのドメインおよび言語対において,提案手法が一貫して高い性能を達成できた. ドメイン知識の蒸留のみを行う比較手法 (1) は,対訳文を検索する能力が完全に失われており,単純なドメイン適応では言語横断モデルを訓練できないことがわかる.また,言語表現と意味表現を分離しない比較手法 (2) も著しく性能が劣化することから,言語非依存な意味表現を抽出することが言語横断の類似度推定のために重要であることがわかる。 ドメイン知識の蒸留をしない比較手法 (3) は,元の LaBSE の性能を上回ったが,全てのドメインおよび言語対において提案手法以下の性能に留まった. そのため,言語非依存な意味表現を抽出するだけでも言語横断情報検索の性能改善を期待できるものの, ドメイン適応によってその品質をさらに改善できると言える. ## 3.3 アブレーション分析 提案手法のうち,ドメイン適応を司る $L_{1}$ 以外の損失についての様々な組み合わせを評価した結果を表 3 に示す. 紙面の都合上, 学術ドメインにおける英日データの結果のみを掲載するが,他のドメインや言語対においても同様の結果が見られた。 (a) に性能悪化が見られるため,高い言語横断性能を達成するためには言語表現と意味表現を分離する $L_{2}$ および $L_{3}$ の損失が重要であることがわかる. (b) 図 2 対訳コーパスの規模と言語横断情報検索の品質 より,元の文表現を大きく更新することを防ぐ $L_{4}$ および $L_{5}$ を除くことで著しい性能悪化が見られることから,安定したドメイン適応の訓練のためにこれらの損失が重要であることがわかる。(c) および (e) から,意味表現に関する損失を除外することで,提案手法と比べて to-English 方向の性能が悪化することがわかる。一方で,(d) および (f) から,言語表現に関する損失を除外しても大きな影響はない. ## 3.4 対訳コーパスの規模に関する分析 訓練に使用する目的ドメインの対訳コーパスの規模を減らしつつ性能の変化を分析した結果を図 2 に示す. 5,000 文対の対訳コーパスを用いた訓練でさえ,提案手法(実線)はLaBSE の性能(点線)を上回ることが明らかになった. 特定のドメインにおける大規模な対訳コーパスを整備するには大きなコストがかかるため,小規模なデータで言語横断のドメイン適応を実現できることには価值がある. ## 4 おわりに 本研究では,多言語文符号化器のドメイン適応に取り組んだ。提案手法は,目的ドメインの対訳コー パスと目的ドメインに特化した単言語文符号化器を用いて, 多言語文符号化器から言語非依存の意味表現を抽出しつつ,ドメイン知識を蒸留する。学術・医療・金融の 3 ドメインおよび英日・英仏・英中の 3 言語対における実験結果は,ドメインや言語に依存せず一貫して, 提案手法が言語横断類似度推定の性能を改善できることを示した. 本手法は,目的ドメインにおける数千文対の対訳コーパスからでさえ,多言語文符号化器のドメイン適応を実現できる. ## 謝辞 本研究は JSPS 科研費(基盤研究 B,課題番号: JP20H04484)および国立研究開発法人情報通信研究機構 (NICT) の委託研究(課題番号:22501)による助成を受けたものです. ## 参考文献 [1] Mikel Artetxe and Holger Schwenk. Massively Multilingual Sentence Embeddings for Zero-Shot Cross-Lingual Transfer and Beyond. Transactions of the Association for Computational Linguistics, Vol. 7, pp. 597-610, 2019. [2] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised Cross-lingual Representation Learning at Scale. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8440-8451, 2020. [3] Nils Reimers and Iryna Gurevych. Making Monolingual Sentence Embeddings Multilingual using Knowledge Distillation. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing, pp. 4512-4525, 2020. [4] Fangxiaoyu Feng, Yinfei Yang, Daniel Cer, Naveen Arivazhagan, and Wei Wang. Language-agnostic BERT Sentence Embedding. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics, pp. 878-891, 2022. [5] Guillaume Wenzek, Marie-Anne Lachaux, Alexis Conneau, Vishrav Chaudhary, Francisco Guzmán, Armand Joulin, and Edouard Grave. CCNet: Extracting High Quality Monolingual Datasets from Web Crawl Data. In Proceedings of the Twelfth Language Resources and Evaluation Conference, pp. 4003-4012, 2020. [6] Iz Beltagy, Kyle Lo, and Arman Cohan. SciBERT: A Pretrained Language Model for Scientific Text. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 3615-3620, 2019. [7] Emily Alsentzer, John Murphy, William Boag, Wei-Hung Weng, Di Jindi, Tristan Naumann, and Matthew McDermott. Publicly Available Clinical BERT Embeddings. In Proceedings of the 2nd Clinical Natural Language Processing Workshop, pp. 72-78, 2019. [8] Dogu Araci. FinBERT: Financial Sentiment Analysis with Pre-trained Language Models. arXiv:1908.10063, 2019. [9] Zhuosheng Zhang, Hanqing Zhang, Keming Chen, Yuhang Guo, Jingyun Hua, Yulong Wang, and Ming Zhou. Mengzi: Towards Lightweight yet Ingenious Pre-trained Models for Chinese. arXiv:2110.06696, 2021. [10] Hiroki Yamauchi, Tomoyuki Kajiwara, Marie Katsurai, Ikki Ohmukai, and Takashi Ninomiya. A Japanese Masked Language Model for Academic Domain. In Proceedings of the Third Workshop on Scholarly Document Processing, pp. 152-157, 2022. [11] Yanis Labrak, Adrien Bazoge, Richard Dufour, Mickael Rouvier, Emmanuel Morin, Béatrice Daille, and PierreAntoine Gourraud. DrBERT: A Robust Pre-trained Model in French for Biomedical and Clinical domains. In Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics, pp. 16207-16221, 2023. [12] Nattapong Tiyajamorn, Tomoyuki Kajiwara, Yuki Arase, and Makoto Onizuka. Language-agnostic Representation from Multilingual Sentence Encoders for Cross-lingual Similarity Estimation. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 7764-7774, 2021. [13] Yuto Kuroda, Tomoyuki Kajiwara, Yuki Arase, and Takashi Ninomiya. Adversarial Training on Disentangling Meaning and Language Representations for Unsupervised Quality Estimation. In Proceedings of the 29th International Conference on Computational Linguistics, pp. 5240-5245, 2022. [14] Ondřej Bojar, Rajen Chatterjee, Christian Federmann, Yvette Graham, Barry Haddow, Matthias Huck, Antonio Jimeno Yepes, Philipp Koehn, Varvara Logacheva, Christof Monz, Matteo Negri, Aurélie Névéol, Mariana Neves, Martin Popel, Matt Post, Raphael Rubino, Carolina Scarton, Lucia Specia, Marco Turchi, Karin Verspoor, and Marcos Zampieri. Findings of the 2016 Conference on Machine Translation. In Proceedings of the First Conference on Machine Translation, pp. 131-198, 2016. [15] Nicolas Turenne, Nicolas Turenne, Ziwei Chen, Guitao Fan, Jianlong Li, Yiwen Li, Siyuan Wang, and Jiaqi Zhou. Mining an English-Chinese Parallel Dataset of Financial News. Journal of Open Humanities Data, Vol. 8, No. 9 , pp. 1-12, 2022. [16] Diederik P. Kingma and Jimmy Lei Ba. Adam: A Method for Stochastic Optimization. In Proceedings of the 3rd International Conference for Learning Representations, 2015. [17] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Remi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander Rush. Transformers: State-of-the-Art Natural Language Processing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45, 2020.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-10.pdf
# 視覚的文脈を利用した視覚言語モデルによる 画像キャプション生成自動評価手法 前田 航希 $、$ 栗田 修平・宮西大樹 * 東京工業大学, ・理化学研究所, $\diamond$ 国際電気通信基礎技術研究所 [email protected], [email protected] [email protected], [email protected] ## 概要 既存の画像キャプション生成の品質自動評価は,画像に映る物体への言及を過大評価するほか,物体の特性や関係といった細かい言及の間違いを見過ごすなど,人間の判断に近い評価をするには未だ不十分である. 本稿では,視覚言語モデル(VLM)を用いた画像キャプション生成の自動評価手法として VisCE $^{2}$ を提案する. 本手法は,VLM が持つ視覚理解能力によって,画像に写る物体の属性や関係を含めた視覚的文脈を明示的に言語化し,VLM の言語理解能力によって視覚的文脈を考慮した評価を可能にする、メタ評価実験を通じて,VisCE ${ }^{2}$ は既存手法と同等以上の人手評価との相関を示し,視覚的文脈の追加が評価性能を向上させることを実証した. ## 1 はじめに 画像キャプション生成の自動評価は,視覚的な情報を言語化する過程での正確さや自然さを効率的に判断する上で重要な役割を果たす。これまでに,事前に用意した参照文と生成したキャプションの $n$-gram の重複を計測する手法 $[1,2]$, 視覚言語モデルから取得した画像とテキストの分散表現の類似度を計測する手法 [3] などが提案され,画像キャプション生成の自動評価の品質は大きく向上したものの,未だに人手評価の品質と比べて大きな差が存在している。また, CLIP-S [3] 視覚言語基盤モデルを用いた評価指標は,物体の属性や物体間の関係の誤りを見逃す傾向があると指摘されている [4]. この問題を解決するために,我々は評価プロセスに視覚的文脈の抽出を導入する.視覚的文脈は,背景や細かな物体,および推測される事実を含む,画像を詳述する周辺情報である.画像から視覚的文脈を抽出して評価に用いることで,画像内の物体に加 え,その状態や相互作用,意図を正確に記述したかを識別し,より包括的な評価が可能になる. 本研究では,視覚的文脈を活用した視覚言語モデルベースの画像キャプション生成の自動評価手法 (Vision Language Model-based Caption Evaluation Method leveraging Visual Context Extraction; VisCE²) を提案する。 VisCE ${ }^{2}$ は,VLMを用いて画像内の物体とその相互関係からなる視覚的文脈を明示的に言語化し,画像と言語化した視覚的文脈をもとに,生成したキャプション候補のスコアを計算することで,自動評価を行う.VLM の視覚理解能力と言語理解能力を用いて,視覚的文脈を考慮しながら言語および視覚の両観点から画像キャプション生成の評価を行うことで,評価品質の向上が期待できる. 我々は人手評価を用いたメタ評価実験を行い, (i)VisCE ${ }^{2}$ は人手評価と高い相関を示し, 既存の手法と同等以上の評価性能を持つこと (ii) 評価時に画像の視覚的文脈を構成的な表現で与えることが評価性能の向上につながることを実証した ${ }^{1)}$. ## 2 関連研究 ## 2.1 画像キャプション生成の自動評価手法 画像キャプション生成の一般的な品質自動評価では,事前に用意した参照文と生成したキャプションの一致度を複数の指標 $[1,2,5,6,7]$ で計測して比較を行う。しかし,参照文を用意するコストが大きく,人間の評価との相関が低いことが知られている.この問題を解決するために,参照文を用いずに自動評価する試みが為されている. CLIP-S [3] は,視覚と言語の基盤モデル CLIP [8] を用いて画像とテキストの埋め込み表現の $\cos$ 類似度を評価スコアとみなす。また,CLIP-S の訓練事例を拡張した 1)本研究の実装は以下の URL で公開する予定である: https://github.com/nlp-titech/VLM_caption_eval 図 $1 \mathrm{VisCE}^{2}$ によるキャプション品質自動評価の概要と入出力の例. まず VLM は画像から視覚的文脈を抽出し,テキストとして出力する.その後,画像および候補文に加えて得られた視覚的文脈を用いてキャプションを評価する. PAC-S [9] や,生成文の正確性と画像に映る物体の網羅性を評価した InfoMetIC [10] などが提案された. CLAIR [11] は ChatGPT [12], Claude [13], PaLM [14] といった大規模言語モデルを画像キャプション生成の評価に活用し,人手評価との高い相関を示した. しかし, 意味的な類似度を評価するための参照文作成のコストがかかるうえ,モデルが公開されておらず評価の透明性も低い, 提案手法は, VLM が画像の視覚的文脈を明示的に出力して自身に与えることで,参照文付与のコストを低減し,周辺情報を考慮したきめ細かい評価ができる。 ## 2.2 視覚言語モデル(VLM) 異なるモダリティの統合的な理解を目指して,視覚と言語の両潜在空間の距離学習を行う事前学習手法である CLIP [8] が提案された. その後, 複数の視覚言語課題を同一のモデルで解くことを目的として, OFA [15], InstructBLIP [16] などが提案されてきた. 言語モデルの発展と並行して提案された LLaVA [17] は,言語課題において高い性能を発揮した LLaMA [18] と Vicuna [19] を CLIP と統合し, 微調整を行うことで多くのマルチモーダル課題での Zero-shot 性能を飛躍的に向上させた. また,モデルは非公開だが APIを通じて利用可能な VLM として, GPT-4V [20] や Gemini [21] どがある. 本研究では, 結果の再現性の観点から, 公開されたモデルの中で最も性能が高いLLaVA-1.5 [22]を採用した. ## 3 提案手法: VisCE $^{2$} $\operatorname{VisCE}^{2}$ は, 画像キャプション生成の品質評価をマルチモーダルなテキスト補完課題とみなす. 本手法 では,画像,候補文,およびキャプション評価用に設計したプロンプトを入力として,VLM が続くテキストを補完し,キャプションの品質を示すスコアを含む文を生成する。 図 1 に VisCE ${ }^{2}$ の概要を示す.VLMを用いた評価に際し,評価の基準となる参照情報を画像・テキストの両方で与えるために, $\mathrm{VisCE}^{2}$ ではキャプションの品質を評価するプロセスを 2 段階に分ける.第一段階では,VLM は画像の視覚的文脈を抽出し,構造的に出力する. 具体的には,VLM に画像を与え,画像に存在する物体, 物体の特徴, および物体同士に成り立つ関係に分類し,それぞれ列挙する。これにより,物体に関するより詳細な情報が保存され,評価に活用することができる.また,画像だけでは第二段階では,第一段階で得られた視覚的文脈を用いてキャプションの評価を行う. 画像,候補文と視覚的文脈をプロンプトに統合し,VLMに与える. キャプションの総合的な品質を 0 以上 100 以下の整数値で出力するよう VLM に指示し, キャプションの品質を反映したスコアを出力させる. ## 4 実験 本稿で提案した自動評価手法のメタ評価を行うため, $\mathrm{VisCE}^{2}$ と画像キャプションへの人手評価がどの程度整合するかを検証した. 評価に用いたデータセットの詳細は付録 A に詳述する.また,視覚的文脈の有効性を検証するために複数のプロンプトによる評価性能の比較を行った. VisCE ${ }^{2}$ は利用する VLM に制限はないが,結果の再現性と透明性の観点から公開されている VLM の中で最も性能が高い LLaVA1.5-13B を採用した. 表 1 Flickr8k-Expert [23],Composite [24] における人手評価との相関. Ref.: 参照文の利用の有無,太字: 最良スコア,†: 先行研究で報告されたスコアを示す. ## 4.1 人手評価との相関 我々は Flickr8k-Expert [23], Composite [24]を用いて, $\operatorname{VisCE}^{2}$ のキャプション品質評価能力を検証した. 自動評価と人手評価の相関を測るメタ評価指標には,Kendall の順位相関係数を用いた。表 1 は, $\mathrm{VisCE}^{2}$ の人手評価との相関を既存の自動評価指標 $[1,2,3,5,6,7,9,10,11]$ と比較したものである. Flickr8k-Expert. VisCE ${ }^{2}$ は参照文を用いない手法の中で最高性能を達成した。また,公開されたモデルを利用したものに限れば,参照文を用いた手法を含めた中で最も高い評価性能であった。これまでの最高性能であった InfoMetIC に大きく差をつけて上回り (+4.8pt), 従来の自動評価指標と比較して,提案手法は人間に沿ったキャプション品質評価ができることが示された。 Composite. VisCE ${ }^{2}$ は高い水準の評価性能を示した. CLIP-S, PAC-S と比較して 3pt. 以上の性能向上が見られ,画像キャプション生成の自動評価に対する VLM の有効性が実証された. 提案手法は InfoMetIC の性能を下回ったが,InfoMetIC は Composite を構成する 3 種類のデータセットで品質推定器を微調整しており,これが性能差の一因として考えられる。 一方で,VisCE ${ }^{2}$ は大規模言語モデルと参照文を用いる CLAIR と比較して低い結果となった. 利用する言語モデルの規模の差を鑑みると,性能の差に寄与する要素の特定にはさらなる検証が必要である。 ## 4.2 キャプション対の比較 我々は,キャプション対の選好判断を収集した人手評価データセット Pascal-50S [2] を用いて評価指表 2 Pascal-50S [2] における判定精度. 表 3 THumB 1.0 における自動評価手法と人手評価との Pearson 相関係数. w/o, w/ Human はそれぞれ人間が書いたキャプションを候補文に含めるかを示している. 標の相対的な評価の性能を検証した。侯補文の組は以下の 4 つのグループに分類されており,グループごとの人手評価との一致度を計測した.表中の記号はキャプションの組の性質を表し,それぞれ以下の内容を表す。 1. $\mathrm{HC}:$ 人間が書いたキャプションどうしの組 2. HI: 人間が書いた,一方は正しく,もう一方は誤った画像に付与されたキャプションの組 3. HM: 人間が書いたものと生成キャプションの組 4. MM: 自動生成されたキャプションどうしの組 表 2 の判定精度の結果から,VisCE ${ }^{2}$ は CLIP-S と同等程度だが,これまでの参照文を用いない自動評価指標と比較して低い性能を呈した. CLAIR も同様の傾向を示しており,言語モデルに依存する手法に共通する欠点だと考えられる。 ## 4.3 キャプション品質評価の特性 $\mathrm{VisCE}^{2}$ のキャプション評価の特性を調べるために,キャプションに精度と想起スコアが付与された 図 2 Composite データセットの画像, 人手評価および候補文と, それに対する VisCE 2 と CLIP-S の評価スコアの比較.左側に VisCE ${ }^{2}$ が正しく評価できた例,右側に誤って評価した例を示す. 表 4 異なるプロンプト戦略での人手評価との相関と精度スコア. THumB は w/ Human の設定での Precision との相関を示す THumB1.0 [25] を用いてそれぞれのスコアとの相関を計測した. 先行研究 $[10,25]$ に倣い,メタ評価指標には Pearson の相関係数を用いた. 表 3 に示すように,VisCE²は精度との相関で最高性能を達成した. RefCLIP-S と比較すると,総合スコアでは同程度の相関を示しているが,精度との相関は提案手法が大きく差をつけて上回り (+0.20/0.18pt.), 想起との相関は劣る (-0.19/-0.20pt.). このことから, $\mathrm{VisCE}^{2}$ は視覚的文脈の挿入による画像の周辺情報を基に,内容の網羅性よりも描写の正確性を重視することが明らかになった. ## 4.4 視覚的文脈の有無が及ぼす評価性能へ の影響 我々は,視覚的文脈の插入が評価性能の向上に寄与するか検証するために, 4 種類のプロンプトを用いて人手評価との相関を比較した(付録表 5): 1. Vanilla: スコアのみを出力させる. 2. Chain-of-Thought: 理由とスコアを出力させる. 3. Description: 視覚的文脈として LLaVA-1.5 が生成したキャプションを利用する。 4. $\operatorname{VisCE}^{2}$ (提案手法): 視覚的文脈を構成的な形式で出力し評価に利用する.表 4 に示すように,VisCE² は全ての項目で最も良い評価性能を示した.注目すべきことに,VisCE²は Description 設定と比較して性能が有意に向上した. この結果は,参照文よりも視覚的文脈を用いることが評価性能の向上に寄与することを示し,提案手法の有効性を実証するものである。 ## 4.5 定性的評価 提案した評価尺度の品質を評価するために, VisCE² が出力したスコアを人手評価および CLIP-S と定性的な例を用いて比較した。 図 2 の左列の例を見ると,CLIP-S は画像に含まれる物体を含んだキャプションを高く評価し,構成的な誤りを過小評価している. VisCE²はそのようなキャプションを正しく評価できることがわかる。しかし,VisCE2 は画像の主題でない状況を正確に描写したキャプションに高得点をつける傾向にあり,右列のような誤りが見られる。この精度を重視する傾向は 4.3 節で見られた結果と整合する。 ## 5 おわりに 我々は,視覚的文脈を抽出し評価に活用する VLM ベースの画像キャプション生成の自動評価手法である $\operatorname{VisCE}^{2}$ を提案した。メタ評価実験では既存の指標と比較して人間の判断に沿った評価ができ,視覚的文脈の挿入が評価性能を向上させることを実証した. 生成キャプションの画像の内容における網羅性評価と $\operatorname{VisCE}^{2}$ と組合せることでさらなる評価性能の向上が期待される。また,VLM による評価を幻覚評価や他の視覚言語課題に応用する予定である. 謝辞. 本研究は JST さきがけ JPMJPR20C2, JSPS 科研費 22K17983,JSPS 科研費 JP20269633 の助成を受けたものです. ## 参考文献 [1] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. BLEU: a method for automatic evaluation of machine translation. In ACL, pp. 311-318, 2002. [2] Ramakrishna Vedantam, C Lawrence Zitnick, and Devi Parikh. Cider: Consensus-based image description evaluation. In CVPR, pp. 4566-4575, 2015. [3] Jack Hessel, Ari Holtzman, Maxwell Forbes, Ronan Le Bras, and Yejin Choi. CLIPScore: a reference-free evaluation metric for image captioning. In EMNLP, 2021. [4] Saba Ahmadi and Aishwarya Agrawal. An examination of the robustness of reference-free image captioning evaluation metrics. arXiv preprint arXiv:2305.14998, 2023. [5] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 74-81, Barcelona, Spain, 2004. Association for Computational Linguistics. [6] Michael Denkowski and Alon Lavie. Meteor universal: Language specific translation evaluation for any target language. In WMT, pp. 376-380, 2014. [7] Peter Anderson, Basura Fernando, Mark Johnson, and Stephen Gould. SPICE: semantic propositional image caption evaluation. In ECCV, pp. 382-398, 2016. [8] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, Gretchen Krueger, and Ilya Sutskever. Learning transferable visual models from natural language supervision. arXiv preprint arXiv:2103.00020, 2021. [9] Sara Sarto, Manuele Barraco, Marcella Cornia, Lorenzo Baraldi, and Rita Cucchiara. Positive-Augmented Contrastive Learning for Image and Video Captioning Evaluation. In CVPR, 2023. [10] Anwen Hu, Shizhe Chen, Liang Zhang, and Qin Jin. InfoMetIC: An Informative Metric for Reference-free Image Caption Evaluation. In ACL, pp. 3171-3185. Association for Computational Linguistics, 2023. [11] David M Chan, Suzanne Petryk, Joseph E Gonzalez, Trevor Darrell, and John Canny. CLAIR: Evaluating Image Captions with Large Language Models. In EMNLP, Singapore, Singapore, December 2023. Association for Computational Linguistics. [12] OpenAI. Introducing ChatGPT, 2022. [13] Yuntao Bai, et al. Training a helpful and harmless assistant with reinforcement learning from human feedback. arXiv preprint arXiv:2204.05862, 2022. [14] Aakanksha Chowdhery, et al. PaLM: Scaling language modeling with pathways. arXiv preprint arXiv:2204.02311, 2022 [15] Peng Wang, An Yang, Rui Men, Junyang Lin, Shuai Bai, Zhikang Li, Jianxin Ma, Chang Zhou, Jingren Zhou, and Hongxia Yang. Ofa: Unifying architectures, tasks, and modalities through a simple sequence-to-sequencelearning framework. arXiv preprint arXiv:2202.03052, 2022. [16] Wenliang Dai, et al. InstructBLIP: Towards generalpurpose vision-language models with instruction tuning. arXiv preprint arXiv:2305.06500, 2023. [17] Haotian Liu, Chunyuan Li, Qingyang Wu, and Yong Jae Lee. Visual instruction tuning. arXiv preprint arXiv:2304.08485, 2023 [18] Hugo Touvron, et al. LLaMA: Open and efficient foundation language models. arXiv preprint arXiv:2302.13971, 2023. [19] Wei-Lin Chiang, Zhuohan Li, Zi Lin, Ying Sheng, Zhanghao Wu, Hao Zhang, Lianmin Zheng, Siyuan Zhuang, Yonghao Zhuang, Joseph E. Gonzalez, Ion Stoica, and Eric P. Xing. Vicuna: An open-source chatbot impressing gpt-4 with $90 \% *$ chatgpt quality, March 2023. [20] OpenAI, et al. Gpt-4 technical report. arXiv preprint arXiv:2303.08774, 2023 [21] Gemini Team, et al. Gemini: A family of highly capable multimodal models. 2023. [22] Haotian Liu, Chunyuan Li, Yuheng Li, and Yong Jae Lee. Improved baselines with visual instruction tuning. arXiv preprint arXiv:2310.03744, 2023. [23] Micah Hodosh, Peter Young, and Julia Hockenmaier. Framing image description as a ranking task: Data, models and evaluation metrics. J. Artif. Intell. Res., Vol. 47, pp. 853-899, 2013. [24] Somak Aditya, Yezhou Yang, Chitta Baral, Cornelia Fermuller, and Yiannis Aloimonos. From images to sentences through scene description graphs using commonsense reasoning and knowledge. arXiv preprint arXiv:1511.03292, 2015. [25] Jungo Kasai, Keisuke Sakaguchi, Lavinia Dunagan, Jacob Morrison, Ronan Le Bras, Yejin Choi, and Noah A. Smith. Transparent human evaluation for image captioning. In NAACL, pp. 3464-3478, Seattle, United States, July 2022. Association for Computational Linguistics. [26] Xinlei Chen, et al. Microsoft COCO captions: Data collection and evaluation server. arXiv preprint arXiv:1504.00325, 2015. [27] Peter Young, Alice Lai, Micah Hodosh, and Julia Hockenmaier. From image descriptions to visual denotations: New similarity metrics for semantic inference over event descriptions. TACL, Vol. 2, pp. 67-78, 2014. 表 5 実験において利用したプロンプト.ただし,\{caption \} は候補文,\{context $\}$ は第一段階で生成されたキャプションおよび視覚的文脈をそれぞれ挿入する。画像はいずれのプロンプトにおいても先頭に与えられる. \\ ## A 評価データセットの詳細 Flickr 8k Expert [23] は 5,644 組の画像と自動生成キャプションが含まれている. 各ぺアは 3 人の専門家によって 1 から 4 でスコア付けされ,合計 17,000の人手評価を含んでいる。ここで専門家とはイリノイ大学の学生であり,クラウドソー シングを用いて集めたデータセット (Flickr8k-CrowdFlower) との差異の明確化のための語用である.1 はキャプションが画像と全く関連しないことを示し,4 はキャプションが対応する画像を間違いなく説明していることを示す. Composite [24] は, MSCOCO [26] (2,007 枚), Flickr8k [23] (997 枚), Flickr30K [27] (991 枚)の 3 つのデータセットから合計 3,995 枚の画像を収集したデータセットである. 各画像に 2 つの自動生成キャプションと 1 つの人間が書いたキャプションが付与され,1 から 5 の 5 段階の Likert 尺度でスコア付けされている。 PASCAL-50S [2] は, UIUC Pascal Dataset から抽出された 1000 の画像に対して,それぞれ少なくとも 50 個の参照キャプションが与えられる。比較対象となる候補文は人間が作成したキャプションと5つの自動生成手法を用いて生成したキャプションが対となり,4000 対集められている.人手評価は 3 名の評価の多数決で定められ,参照文とより類似していると判断されたキャプションが選好の人手評価として付与される.また,作業者は評価時に“類似” の概念は明確に指示されていなかった。 THumB 1.0 [25] は,MSCOCO [26] からランダムに抽出された画像 500 枚に,1つの人間が書いたキャプションと 4 つの自動生成キャプションが付与したデータセットである. 各組に,キャプションの正確さ (Precision), 顕著な情報の網羅性 (Recall),総合的な品質 (Total)の3つのスコアが人手で付与されている.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-11.pdf
# 講演動画の言語横断字幕生成のための 英日マルチモーダル対訳コーパスの構築 寺面 杏優 1 近藤 里咲 ${ }^{1}$ 梶原 智之 ${ }^{2}$ 二宮崇 ${ }^{2}$ 1 愛媛大学工学部 2 愛媛大学大学院理工学研究科 \{teramen@ai., kondo@ai., kajiwara@, ninomiya@\}cs.ehime-u.ac.jp ## 概要 本研究では、英語の講演動画とその日本語字幕からなるマルチモーダル対訳コーパスを構築し、公開する。動画からの言語横断字幕生成では、音声認識のエラーが伝播して翻訳品質が劣化してしまう。この課題に対処するために、音声認識文に加えて音声や画像を参照するマルチモーダル機械翻訳が有望である。我々は、このようなマルチモーダル機械翻訳の研究に取り組むために、既存の英日対訳コーパスに対して画像・音声・音声認識文を付与した約 10 万文対のマルチモーダル対訳コーパスを構築した。英日翻訳における実験の結果、音声認識文の誤り訂正によって、翻訳品質の改善を確認できた。 ## 1 はじめに 音声翻訳 [1] とは、原言語の音声から目的言語のテキストや音声への機械翻訳の技術である。音声アシスタントやオンライン会議などのサービスの普及により、人と人や人と機械の間のグローバルなコミュニケーションを円滑に進めるために、音声翻訳の技術が期待されている。 伝統的な音声翻訳は、音声認識 [2] と機械翻訳 [3] のパイプラインモデルとして実現され、前段の音声認識における誤りが後段の機械翻訳の品質を劣化させてしまう課題がある。この課題に対して、機械翻訳の際に音声認識テキストだけでなく音声や画像を参照するマルチモーダル機械翻訳 [4] のアプローチが有望である。マルチモーダル機械翻訳の先行研究では、音声翻訳 [5-7] や画像を用いる機械翻訳 [8-10] など、対訳コーパスに対して他の 1 種類のモダリティのデータのみを追加する事例が多い。 しかし、例えば講演の発表資料などにアクセスできる状況では、講演の音声と発表資料の画像の両方から有益な情報を得ることが期待できるため、言語・音声・画像の 3 種類のモダリティのデータを組み合わせることで翻訳品質のさらなる改善が見込める。 3 種類のモダリティを組み合わせる先行研究には、 How-2 [11] や QED [12] などの動画を用いる機械翻訳がある。ただし、How-2 は英語からポルトガル語の言語対のみを扱い、QED は教育ドメインのみを扱うため、適用範囲が限定されている。 本研究では、言語・音声・画像の 3 つのモダリティを扱うコーパスの拡充のために、講演動画の英日翻訳を対象とするマルチモーダル機械翻訳コーパスを構築し、英日の言語横断字幕生成に取り組む。既存の IWSLT2017 の英日対訳コーパス [13]をもとに、新たに音声と画像を付与し、さらに音声から音声認識文を生成し、画像・英語音声・音声認識英語文・書き起こし英語文・日本語参照訳の 5 つ組からなる約 10 万件のデータセット TAIL ${ }^{1)}$ 作成する。評価実験の結果、音声認識英語文をそのまま機械翻訳するよりも、音声認識文と書き起こし英語文を用いて訓練した音声認識の誤り訂正を間に挟むことで、翻訳品質を改善できることが明らかになった。 ## 2 TAIL コーパス 本研究では、英語から日本語への言語横断字幕生成のために、 $\mathrm{TED}^{22}$ の講演動画を対象に、画像 $\cdot$英語音声・音声認識英語文・書き起こし英語文・日本語参照訳の 5 つ組コーパス TAILを構築する。 IWSLT2017 [13] において TED 講演動画の書き起こし英語文と日本語参照訳からなる英日対訳コーパスが公開されているため、本研究ではこれに画像・英語音声・音声認識英語文を新たに付与して 5 つ組を得る。図 1 にコーパス構築の流れを示し、図 2 には本研究で構築する TAIL コーパスの例を示す。ここで、画像が 3 枚あるのは、音声の開始・中間・終了の  図 1 コーパス構築の全体像 \\ 図 2 TAILコーパスの例(画像・英語音声・音声認識英語文・書き起こし英語文・日本語参照訳の 5 つ組)ただし、画像は音声の開始・中間・終了の各時刻に対応する 3 枚を収集。 各時刻に対応する画像を収集しているためである。 ## 2.1 音声アノテーション 本節では、IWSLT2017 英日対訳コーパスに対して、英語音声および音声認識英語文を付与する。 音声データの取得IWSLT2017 英日対訳コーパスのメタデータに含まれる URL から、MP4 形式の動画データを取得できる。この動画を ffmpeg3)を用いて FLAC 形式の音声データに変換する。これは、図 1 の手順 1 に対応する。 音声とテキストの対応付けIWSLT2017 英日対訳コーパスの書き起こし英語文および手順 1 で取得した音声を講演単位で入力し、aeneas ${ }^{4}$ を用いて音声とテキストを対応付ける。その際に、1 文ごとに開始時刻および終了時刻のタイムスタンプを取得するとともに、ffmpegを用いて音声を分割する。これは、図 1 の手順 2 (タイムスタンプの取得)および手順 3 (音声の分割)に対応する。 音声認識手順 3 で文ごとに分割した音声を、 Google Speech Recognition ${ }^{5}$ を用いてテキストに変換する。これは、図 1 の手順 4 に対応する。 3) https://ffmpeg.org 4) https://github.com/readbeyond/aeneas 5) https://github.com/Uberi/speech_recognition ## 2.2 画像アノテーション 本節では、これまで構築してきたコーパスに対して、さらに画像を付与し、5つ組を得る。ここで、 TED の講演動画には、講演者のみが写るなど必ずしも講演内容を充分に表現しないシーンも多い。そこで本研究では、各文に対して複数枚ずつの画像を収集する。具体的には、各文のタイムスタンプの開始・中間・終了の各時刻に対応する 3 枚の画像を用いる。動画および手順 2 で取得したタイムスタンプを講演単位で入力し、OpenCV6)を用いて 1 文あたり 3 枚ずつの画像を取得した。 ## 2.3 対訳コーパスフィルタリング タイムスタンプや対応付けの誤りに起因する対訳コーパスのノイズの影響を軽減するために、自動的な対訳コーパスフィルタリングを実施する。本研究では、音声認識英語文(ASR)および書き起こし英語文(REF)の文対を用いて、文長の比および単語誤り率による対訳コーパスフィルタリングを行う。 まず、文長差が大きいほどノイズの多い文対であると考え、文長の比による対訳コーパスフィルタリングでは $0.8 \leq \operatorname{len}(\mathrm{ASR}) / \mathrm{len}(\mathrm{REF}) \leq 1.2$ の事例のみを残す。ここで、len($\cdot$) は文の単語数を表す。また、単語誤り率(WER)が大きいほどノイズの多い文対で 6) https://opencv.org 表 1 音声認識文とその誤り訂正の誤りの分布および訂正の良し悪しの内訳 表 2 TAIL コーパスの統計 あると考え、WER(ASR, REF) $\leq 0.5$ の事例のみを残す。ここで、WER の計算においては、前処理としてテキストを小文字化し、記号を除去した。 表 2 に、TAILコーパスの文対数を示す。一部の動画にアクセスできなかったため、IWSLT2017 英日対訳コーパスのうち約 $5 \%$ の文対は本研究では使用していない。対訳コーパスフィルタリングを経て、最終的に約 10 万文対のマルチモーダル対訳コーパスを構築した。 ## 2.4 音声認識の誤り分析 TAILコーパスから無作為に 100 文対を抽出し、音声認識の誤りについて分析した結果を表 1 に示す。本コーパスの音声認識誤りは、大きく「大文字/小文字」「記号の追加/削除」「語句の追加/削除」「語彙の置換」の 4 種類に分類できる。 大文字/小文字書き起こし英語文においては大文字であるが音声認識英語文では小文字として認識されている誤りが、 $85 \%$ の文において見られた。特に、音声認識英語文の文頭は多くの場合に小文字として出力されてしまっていた。反対に、小文字であるべき文字を誤って大文字としてしまう例も $27 \%$ の文において見られた。記号の追加/削除書き起こし英語文に含まれるピリオドや疑問符などの記号は、全ての音声認識英語文において 1 つ以上が削除されていた。これらの記号の削除は機械翻訳の性能に影響を与える可能性が高いため、機械翻訳の前に適切に復元することが望ましいと考えられる。 語句の追加/削除書き起こし英語文に含まれない語句の追加に比べて、書き起こし英語文に含まれる語句が音声認識英語文において削除されている事例が多かった。特に、音声とテキストの対応付けのエラーの影響で、文頭の語句が削除されている事例が多かった。 語句の置換同音異義語・表記摇孔・活用の違い・ その他の 4 種類の語句の置換を調査した。いずれかの語句の置換を伴う音声認識誤りが $78 \%$ の文に見られ、特に同音異義語や活用の誤りが多かった。 ## 3 評価実験 TAIL コーパスを用いて、音声認識の誤り訂正および音声認識英語文から日本語への機械翻訳の評価実験を行う。誤り訂正および機械翻訳の性能は、 SacreBLEU [14]を用いて BLEU [15] を評価する。 ## 3.1 誤り訂正 本実験では、音声認識の誤り訂正を行う。TAIL コーパスの音声認識英語文と書き起こし英語文の対を用いて、事前訓練済みの BART [16]をファインチューニングして誤り訂正器を構築する。 モデル誤り訂正器として、fairseq ${ }^{7)}$ [17]を用いて Base 設定の $\mathrm{BART}^{8}$ をファインチューニングした。最適化には Adam [18] を使用し、バッチサイズを 2,048 トークンとして、4 バッチごとにパラメタを更新した。検証用データにおけるクロスエントロピー損失が 10 回改善されなければ訓練を停止した。 データ表 2 に示した 101,953 文対の中から、誤りを含まない文対(WER $\leq 0.05 ) を$ 除去した 80,859 文対の音声認識英語文および書き起こし英語文を用いて、誤り訂正を訓練した。評価用の 5,040 文対からは、 $0.05 \leq \mathrm{WER} \leq 0.15$ の誤りが少ない評価用データと $0.20 \leq \mathrm{WER} \leq 0.50$ の誤りが多い評価用データを無作為に 1,200 文対ずつ抽出し、その他を検証用データとして使用した。前処理には、BART のトークナイザを用いてサブワード分割をした。 実験結果表 3 、BLEUによる評価結果を示す。上段の誤りが少ない評価用データと下段の誤りが多い評価用データのそれぞれにおいて、19ポイントおよび 17 ポイントの大きな BLEU の改善が見られた。 この結果から、本コーパスが音声認識の誤り訂正のために有用であると言える。なお、本コーパスに含まれる音声や画像などの他のモダリティのデータを考慮することで、誤り訂正の性能をさらに改善できると期待できるが、これは今後の課題である。 表 1 に訂正結果の詳細な分析を示す。大文字/小文字の誤りや記号の漏れ、文頭における語句の抜けが大きく改善できた。一方で、記号を過剰に追加したり文中の語句を誤削除する事例も見られた。 ## 3.2 機械翻訳 本実験では、IWSLT2017 英日対訳コーパス [13] を用いて訓練した Transformer [3] および JParaCrawl v3.0 [19,20] の事前訓練済みモデル ${ }^{9)}$ IWSLT2017 英日対訳コーパス上でファインチューニングした Transformer の 2 つの英日翻訳器を用いて、音声認識英語文から日本語への機械翻訳を行う。そして、 3.1 節の技術で音声認識の誤りを訂正するこ 7) https://github.com/facebookresearch/fairseq 8) https://huggingface.co/facebook/bart-base 9) https://www.kecl.ntt.co.jp/icl/lirg/jparacrawl表 4 英日翻訳の実験結果(BLEU) とにより、翻訳品質が改善できることを確認する。 モデル翻訳器として、fairseqを用いて Base 設定の Transformer [3] を訓練した。最適化には Adamを使用し、バッチサイズを 4,096 トークンとして、 8 バッチごとにパラメタを更新した。検証用データにおけるクロスエントロピー損失が 10 回改善されなければ訓練を停止した。 データ表 2 に示した 211,604 文対の書き起こし英語文および日本語参照訳を用いて、機械翻訳を訓練した。検証用と評価用データは、3.1 節と同じものを用いた。前処理として、英語には Moses Tokenizer $^{10)}$ [21]、日本語には $\mathrm{MeCab}$ (IPADIC) ${ }^{11)}$ [22] を用いて単語分割した。そして、SentencePiece ${ }^{12)}$ [23] を用いて Byte Pair Encoding [24]による語彙サイズ 32,000 のサブワード分割を行った。 実験結果表 4 に、BLEU による自動評価の結果を示す。音声認識の自動的な誤り訂正によって、誤りが多い評価用データと誤りが少ない評価用データの両方において翻訳品質が改善できた。JParaCrawl を用いた事前訓練によって全体に翻訳品質が改善するものの、事前訓練済み翻訳器に対しても音声認識誤り訂正は有効であることがわかった。 ## 4 おわりに 本研究では、英日の言語横断字幕生成のために、講演動画を対象に約 10 万文対の画像・英語音声音声認識英語文・書き起こし英語文 $\cdot$ 日本語参照訳の 5 つ組コーパスを構築した。そして、音声認識文と書き起こし文を用いた音声認識の誤り訂正によって、音声翻訳の性能を改善した。今後の課題として、音声や画像を使ったマルチモーダル誤り訂正およびマルチモーダル機械翻訳を行い、言語横断字幕生成の性能をさらに改善したい。  ## 謝辞 本研究成果は、国立研究開発法人情報通信研究機 構(NICT)の委託研究(課題番号:22501)により 得られたものです。 ## 参考文献 [1] Chen Xu, Rong Ye, Qianqian Dong, Chengqi Zhao, Tom Ko, Mingxuan Wang, Tong Xiao, and Jingbo Zhu. Recent Advances in Direct Speech-to-text Translation. In Proc. of IJCAI, pp. 6796-6804, 2023. [2] William Chan, Navdeep Jaitly, Quoc V. Le, and Oriol Vinyals. Listen, Attend and Spell: A Neural Network for Large Vocabulary Conversational Speech Recognition. In Proc. of ICASSP, pp. 4960-4964, 2016. [3] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is All you Need. In Proc. of NIPS, pp. 5998-6008, 2017. [4] Umut Sulubacak, Ozan Caglayan, Stig-Arne Grönroos, Aku Rouhe, Desmond Elliott, Lucia Specia, and Jörg Tiedemann. Multimodal Machine Translation through Visuals and Speech. Machine Translation, Vol. 34, pp. 97-147, 2020. [5] Mattia A. Di Gangi, Roldano Cattoni, Luisa Bentivogli, Matteo Negri, and Marco Turchi. MuST-C: a Multilingual Speech Translation Corpus. In Proc. of NAACL, pp. 2012-2017, 2019. [6] Elizabeth Salesky, Matthew Wiesner, Jacob Bremerman, Roldano Cattoni, Matteo Negri, Marco Turchi, Douglas W. Oard, and Matt Post. The Multilingual TEDx Corpus for Speech Recognition and Translation. In Proc. of INTERSPEECH, pp. 3655-3659, 2021. [7] Changhan Wang, Juan Pino, Anne Wu, and Jiatao Gu. CoVoST: A Diverse Multilingual Speech-To-Text Translation Corpus. In Proc. of LREC, pp. 4197-4203, 2020. [8] Desmond Elliott, Stella Frank, Khalil Sima'an, and Lucia Specia. Multi30K: Multilingual English-German Image Descriptions. In Proc. of VL, pp. 70-74, 2016. [9] Ashish V. Thapliyal, Jordi Pont Tuset, Xi Chen, and Radu Soricut. Crossmodal-3600: A Massively Multilingual Multimodal Evaluation Dataset. In Proc. of EMNLP, pp. 715-729, 2022. [10] Shantipriya Parida, Ondrej Bojar, and Satya Ranjan Dash. Hindi Visual Genome: A Dataset for Multimodal Englishto-Hindi Machine Translation. Computación y Sistemas, Vol. 23, No. 4, pp. 1499-1505, 2019. [11] Ramon Sanabria, Ozan Caglayan, Shruti Palaskar, Desmond Elliott, Loïc Barrault, Lucia Specia, and Florian Metze. How2: A Large-scale Dataset for Multimodal Language Understanding. In Proc. of NeurIPS, 2018. [12] Ahmed Abdelali, Francisco Guzman, Hassan Sajjad, and Stephan Vogel. The AMARA Corpus: Building Parallel Language Resources for the Educational Domain. In Proc. of LREC, pp. 1856-1862, 2014. [13] Mauro Cettolo, Marcello Federico, Luisa Bentivogli, Jan Niehues, Sebastian Stüker, Katsuhito Sudoh, Koichiro Yoshino, and Christian Federmann. Overview of the IWSLT 2017 Evaluation Campaign. In Proc. of IWSLT, pp. 2-14, 2017. [14] Matt Post. A Call for Clarity in Reporting BLEU Scores. In Proc. of WMT, pp. 186-191, 2018. [15] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a Method for Automatic Evaluation of Machine Translation. In Proc. of ACL, pp. 311-318, 2002. [16] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension. In Proc. of ACL, pp. 7871-7880, 2020. [17] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. Fairseq: A Fast, Extensible Toolkit for Sequence Modeling. In Proc. of NAACL, pp. 48-53, 2019. [18] Diederik P. Kingma and Jimmy Ba. Adam: A Method for Stochastic Optimization. In Proc. of ICLR, 2015. [19] Makoto Morishita, Jun Suzuki, and Masaaki Nagata. JParaCrawl: A Large Scale Web-Based English-Japanese Parallel Corpus. In Proc. of LREC, pp. 3603-3609, 2020. [20] Makoto Morishita, Katsuki Chousa, Jun Suzuki, and Masaaki Nagata. JParaCrawl v3.0: A Large-scale EnglishJapanese Parallel Corpus. In Proc. of LREC, pp. 67046710, 2022. [21] Philipp Koehn, Hieu Hoang, Alexandra Birch, Chris Callison-Burch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, Chris Dyer, Ondřej Bojar, Alexandra Constantin, and Evan Herbst. Moses: Open Source Toolkit for Statistical Machine Translation. In Proc. of ACL, pp. 177-180, 2007. [22] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying Conditional Random Fields to Japanese Morphological Analysis. In Proc. of EMNLP, pp. 230-237, 2004. [23] Taku Kudo and John Richardson. SentencePiece: A Simple and Language Independent Subword Tokenizer and Detokenizer for Neural Text Processing. In Proc. of EMNLP, pp. 66-71, 2018. [24] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural Machine Translation of Rare Words with Subword Units. In Proc. of ACL, pp. 1715-1725, 2016.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-12.pdf
# Combining Large Language Model with Speech Recognition System in Low-resource Settings Sheng $\mathrm{Li}^{1} \quad$ Zhengdong Yang ${ }^{1,2}$ Wangjin Zhou ${ }^{2} \quad$ Chenhui Chu ${ }^{2}$ Chen Chen ${ }^{3}$ Eng Siong Chng ${ }^{3} \quad$ Hisashi Kawai $^{1}$ ${ }^{1}$ National Institute of Information and Communications Technology (NICT) ${ }^{2}$ Kyoto University ${ }^{3}$ Nanyang Technological University \{sheng.li,hisashi.kawai\}@nict.go.jp [email protected], [email protected], chu@i . kyoto-u.ac.jp [email protected], [email protected] ## 概要 This paper investigates integrating automatic speech recognition (ASR) with large language models (LLMs). The overarching goal of the paper is to validate the effectiveness of integrating LLMs with ASR systems, with a specific focus on low-resource settings. In our experiment, The LLM is utilized for second-pass rescoring to correct errors in ASR outputs. We fine-tune a Japanese-specific version of the LLaMA model, named japanese-Llama-27b, feeding it with the Whisper-Large-v3 ASR model's n-best output. The experiment shows that the proposed method effectively enhances the ASR result, even in lowresource environments. ## 1 Introduction Nowadays, methods of combining automatic speech recognition (ASR) applications with pre-trained language models (LMs) are booming. Zhang et al. [1] proposed a spelling corrector based on the transformer [2] to reduce the substitution error in Mandarin speech recognition. [3] improved the BERT [4] effectiveness in detecting spelling errors with the soft-masking technique as the bridge between the error detector and corrector. Futami et al. [5] generated soft labels for ASR training with the BERT distilling knowledge. There are also some works [6, 7] studying to improve ASR rescoring by BERT. Additionally, BERT has also been successfully applied in multi-modal studies in vision-language pretraining $[8,9,10,11]$ or voice-language pretraining $[12,13,14]$. More recently, [15] proposes combining large language models (LLMs) into a speech recognition system. This paper follows the rescoring method described in [15] and tests this method for Japanese ASR tasks and low-resource settings. It also extends our previous work combining BERT and GPT2 [16] with Wav2Vec2.0 ASR system [17]. ## 2 Related Work ## 2.1 AMs for ASR task Conventional hybrid Gaussian mixture and hiddenMarkov (GMM-HMM) [18] and deep neural network and hidden-Markov (DNN-HMM) [19] based automatic speech recognition (ASR) systems require independently optimized components: acoustic model, lexicon and language model. The end-to-end (E2E) model integrates these components into a single neural network. It simplifies ASR system construction, solves the sequence labeling problem between variable-length speech frame inputs and label outputs (phone, character, syllable, word, etc.), and has achieved promising results on ASR tasks. Various types of E2E models have been studied in recent years: connectionist temporal classification (CTC) [20, 21], attention-based encoder-decoder (Attention) E2E models [22, 23], E2E lattice-free maximum mutual information (LFMMI) [24], and E2E models jointly trained with CTC and attentionbased objectives (CTC/Attention) [25, 26]. The transformer has been applied to E2E speech recognition systems $[27,28,29,30]$ and has achieved promising 図 1: The flowchart of the method. results. Then, the self-supervised learning (SSL) model, e.g., the Wav2Vec2.0 [31], became popular. The training is based on self-supervised learning with unlabeled speech. Then, the model is fine-tuned on labeled data with the CTC objective for the ASR task. Whisper [32], OpenAI's transformer-based open-source ASR system, excels in accuracy and contextual understanding. Trained on a vast 680,000 -hour dataset of diverse languages and accents, it effectively transcribes in noisy environments. It is ideal for real-time applications like live captioning and voice-to-text conversion. In this paper, we use the Whisper model for our experiment. ## 2.2 LMs for ASR task Using an LM in ASR brings a leap to speech recognition performance. Generally speaking, ASR combing with LM has two types of strategies: first-pass decoding and secondpass rescoring. In ASR, the task was formulated as a noisy channel model using the Bayes rule $P(W \mid X)=P(X \mid W) P(W)$, where $X$ is the speech signal and $W$ is the corresponding text. The two distributions of $P(X \mid W)$ and $P(W)$ were named acoustic and language models, respectively. The LM was trained separately on the source text and only used for decoding [33]. WFST-based decoding compiles n-gram LMs into the decoding graph for efficient first-pass decoding [34]. Incorporating larger n-gram LMs made the decoding graph explode, and researchers changed the compiling improved algorithm [35] or used second-pass rescoring in both offline and on-the-fly settings [36, 37] instead. The Bayesian formulation still made sense in the hybrid DNN-HMM model era. The scores could be interpreted as pseudo-likelihoods by subtracting an appropriate prior, so the same decoding/rescoring framework carried over. For End-to-End ASR, the models directly estimate $P(W \mid X)$. We still can combine using LMs in the first-pass decoding (e.g., shallow fusion, cold fusion, etc. [38, 39]). (a) The boxplot analysis of error rates. (b) The scatterplot analysis of error rates. Similar to the second-pass rescoring, hypotheses can be obtained using beam search on an ASR model and re-rank with an externally trained LM. A two-pass E2E ASR model was proposed with an encoder shared between a streaming RNN-T model and a full-context LAS decoder [40]. There are also some works $[1,3,5,6,7]$ studying to improve ASR rescoring by transformer and BERT. More recently, [15] proposes combining LLMs into a speech recognition system. ## 3 Method This paper uses LLM for error correction, which is second-pass rescoring in the output transcriptions gener- ated by the ASR system (N-best decoding hypotheses), as shown in Figure 1. We introduce LoRA [41] to avoid tuning the whole set of parameters of a pre-trained model by inserting a neural module with a small number of extra trainable parameters to approximate the full parameter updates, allowing for efficient learning of the N-best to transcription mapping without affecting the pre-trained parameters of the LLM. Our method introduces trainable low-rank decomposition matrices into LLMs' existing layers, enabling the model to adapt to new data while keeping the original LLMs fixed to retain the previous knowledge. Specifically, LoRA performs a reparameterization of each model layer expressed as a matrix multiplication by injecting low-rank decomposition matrices 1. As a result, the representations generated by the LLM are not distorted due to task-specific tuning. At the same time, the adapter module acquires the capability to predict the true transcription from the $\mathrm{N}$-best hypotheses. Benefiting from efficient training, we can employ a large-scale language model in the method, which is expected to understand the task description and capture correlation in the $\mathrm{N}$-best list. ## 4 Experiments ## 4.1 Experimental Settings The experimental settings for fine-tuning a Japanese language model in a low-resource environment are as follows. 1.LLM used: The experiment employs the japaneseLlama-2-7b model ${ }^{1)}$. This model is presumably a variant of the LLaMA (Large Language Model by Meta AI) adapted for Japanese language processing. 2.ASR model: Whisper-Large-v3 generates 10-best outputs (CER\%=12.91 for 1-best). 3.The training is performed on an NVIDIA Tesla V100 GPU using 8-bit training. The hyperparameters for finetuning are 15 epochs, learning rate $1 \mathrm{e}-4$, batch size 64, and LoRA rank 4. 4.Dataset: To simulate low-resource settings, we use the Japanese dataset from SPREDS-U1 ${ }^{2)}$. The finetuning process involves 900 Japanese sentences for the low-resource setting. A separate 100 Japanese sentences for evaluation. 5.Evaluations: We use NIST-SCTK to evaluate the Character Error Rate (CER\%). ## 4.2 Experimental Results Table 1 shows the results of the experiments. 表 1: Evaluation of LLM-based Correction Model (CER\%), the ASR output CER\% is 12.91 We conduct the paired sample t-test on the results from the best model (Epoch 11). The paired sample t-test sug- gests that the improvement in CER\% is statistically significant. In Figure 2a, the left boxplot represents the Original CER\%, and the right means the Improved CER\%. This plot illustrates the results' spread and central tendency, where you can see the generally lower spread and median in the Improved CER\%. Each point in Figure 2b represents a pair of original and improved CER\%. The dashed line represents the line of equality (where the original and improved rates would be equal). Points below this line indicate instances where the improved CER\% is lower (better) than the original, and points above the line indicate the opposite. The concentration of points below the line further supports the conclusion that the improved CER\% are generally lower than the original rates. ## 4.3 Further Discussions The method we use in this paper can be further improved in the following aspects. 1. We notice that the Whisper-large model has an excessively high accuracy on the LibriSpeech-clean-test dataset. If the clean-test Word Error Rate (WER) is lower than $2 \%$, using a LLM for correction is impossible. However, the proposed method works again when we switch to a relatively weak model, e.g., Whispertiny. Librispeech-other-test WER\% reduced from $27.5 \%$ to $20.5 \%$, and Librispeech-clean-test WER\% reduced from $27.3 \%$ to $21.4 \%$. 2.The original llama model cannot be directly used. Before we fine-tune the LLM model with N-best and ground truth data pairs, the LLM must be pretrained with large-scale language-specific textual data. However, there are no existing high-quality LLMs for low-resourced languages. That is why it is a pity we did not work on real low-resource languages. ## 5 Conclusion This paper proves combining LLM with a speech recognition system effectively improves speech recognition performance, even in low-resource settings. In the future, we will conduct more experiments to demonstrate the method's effectiveness in a broader range of settings. 1) huggingface.co/elyza/ELYZA-japanese-Llama-2-7b 2) ast-astrec.nict.go.jp/en/release/SPREDS-U1 ## 謝辞 This work was supported by JSPS KAKENHI Grant Numbers JP23K11227, JP23H03454, and NICT international funding. ## 参考文献 [1] Shiliang Zhang, Ming Lei, and Zhijie Yan Investigation of transformer based spelling correction model for ctc-based end-to-end mandarin speech recognition. In Proc. Interspeech, pp. 2180-2184, 2019. [2] A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. Gomez, L. Kaiser, and I. Polosukhin. Attention is all you need. In CoRR abs/1706.03762, 2017 . [3] Shaohua Zhang, Haoran Huang, Jicong Liu, and Hang Li. Spelling error correction with soft-masked bert. arXiv preprint arXiv:2005.07421, 2020. [4] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL), Volume 1 (Long and Short Papers), pp. 41714186, June 2019. [5] Hayato Futami, Hirofumi Inaguma, Sei Ueno, Masato Mimura, Shinsuke Sakai, and Tatsuya Kawahara. Distilling the knowledge of BERT for sequence-to-sequence ASR. CoRR, Vol. abs/2008.03822,, 2020. [6] Julian Salazar, Davis Liang, Toan Q Nguyen, and Katrin Kirchhoff. Masked language model scoring. arXiv preprint arXiv:1910.14659, 2019 [7] Joonbo Shin, Yoonhyung Lee, and Kyomin Jung. Effective sentence scoring method using bert for speech recognition. In Proc. ACML, pp. 1081-1093, 2019. [8] Jiasen Lu, Dhruv Batra, Devi Parikh, and Stefan Lee. Vilbert: Pretraining task-agnostic visiolinguistic representations for vision-and-language tasks. arXiv preprint arXiv:1908.02265, 2019 [9] Liunian Harold Li, Mark Yatskar, Da Yin, Cho-Jui Hsieh, and Kai-Wei Chang. Visualbert: A simple and performant baseline for vision and language. arXiv preprint arXiv:1908.03557, 2019. [10] Luowei Zhou, Hamid Palangi, Lei Zhang, Houdong Hu, Jason Corso, and Jianfeng Gao. Unified vision-language pre-training for image captioning and vqa. In Proc. AAAI, Vol. 34, pp. 13041-13049, 2020. [11] Xiujun Li, Xi Yin, Chunyuan Li, Pengchuan Zhang, Xiaowei Hu, Lei Zhang, Lijuan Wang, Houdong Hu, Li Dong, Furu Wei, et al. Oscar: Objectsemantics aligned pre-training for vision-language tasks. In Proc. ECCV, pp. 121-137, 2020. [12] Alexei Baevski and Abdelrahman Mohamed. Effectiveness of self-supervised pre-training for asr. In 2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 7694-7698, 2020. [13] Wei-Ning Hsu, Yao-Hung Hubert Tsai, Benjamin Bolte, Ruslan Salakhutdinov, and Abdelrahman Mohamed. Hubert: How much can a bad teacher benefit asr pre-training? In Proc. IEEE-ICASSP, pp. 6533-6537, 2021. [14] Chengyi Wang, Yu Wu, Shujie Liu, Ming Zhou, and Zhenglu Yang. Curriculum pre-training for end-to-end speech translation. arXiv preprint arXiv:2004.10093, 2020 [15] Cheng Chen, Yuchen Hu, Chao-Han Huck Yang, Sabato Marco Siniscalchi, Pin-Yu Chen, and Eng Siong Chng. Hyporadise: An open baseline for generative speech recognition with large language models. ArXiv, Vol. abs/2309.15701, , 2023 [16] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, et al. Language models are unsupervised multitask learners. OpenAl blog, Vol. 1, No. 8, p. 9, 2019 [17] Sheng Li and Jiyi Li. Correction while recognition: Combining pretrained language model for taiwan-accented speech recognition. In Lazaros Iliadis, Antonios Papaleonidas, Plamen Angelov, and Chrisina Jayne, editors, Artificial Neural Networks and Machine Learning - ICANN 2023, pp. 389400, Cham, 2023. Springer Nature Switzerland. [18] L. Rabiner. A tutorial on hidden markov models and selected applications in speech recognition. Proceedings of the IEEE, Vol. 77, No. 2, pp. 257-286, 1988. [19] G. Dahl, D. Yu, L. Deng, and A. Acero. Context dependent pre-trained deep neural networks for large vocabulary speech recognition. IEEE Trans. ASLP, Vol. 20, No. 1, pp. 30-42, 2012 [20] A. Graves and N. Jaitly. Towards End-to-End speech recognition with recurrent neural networks. In Proc. ICML, 2014 [21] Y. Miao, M. Gowayyed, and F. Metze. EESEN: End-to-End speech recog- nition using deep RNN models and WFST-based decoding. In Proc. IEEEASRU, pp. 167-174, 2015 [22] J. Chorowski, D. Bahdanau, D. Serdyuk, K. Cho, and Y. Bengio. Attentionbased models for speech recognition. In Proc. NIPS, 2015. [23] W. Chan, N. Jaitly, Q. Le, and O. Vinyals. Listen, attend and spell: A neural network for large vocabulary conversational speech recognition. In Proc. IEEE-ICASSP, 2016. [24] H. Hadian, H. Sameti, D. Povey, and S. Khudanpur. End-to-end speech recognition using lattice-free mmi. In Proc. INTERSPEECH, 2018. [25] S. Watanabe, T. Hori, S. Kim, J. R. Hershey, and T. Hayashi. Hybrid CTC/attention architecture for end-to-end speech recognition. IEEE Journal of Selected Topics in Signal Processing, Vol. 11, No. 8, pp. 1240-1253, 2017 [26] S. Watanabe, T. Hori, S. Karita, T. Hayashi, J. Nishitoba, Y. Unno, N. Soplin, J. Heymann, M. Wiesner, N. Chen, A. Renduchintala, and T. Ochiai. Espnet: End-to-end speech processing toolkit. In Proc. INTERSPEECH, 2018. [27] L. Dong, S. Xu, and B. Xu. Speech-transformer: A no-recurrence sequenceto-sequence model for speech recognition. In Proc. IEEE-ICASSP, 2018. $28]$ S. Zhou, S. Xu, and B. Xu. Multilingual end-to-end speech recognition with a single transformer on low-resource languages. In CoRR abs/1806.05059, 2018. [29] S. Zhou, L. Dong, S. Xu, and B. Xu. A comparison of modeling units in sequence-to-sequence speech recognition with the transformer on mandarin chinese. In CoRR abs/1805.06239, 2018 [30] S.Zhou, L.Dong, S.Xu, and B.Xu. Syllable-based sequence-to-sequence speech recognition w [31] Alexei Baevski, Yuhao Zhou, Abdelrahman Mohamed, and Michael Auli. wav2vec 2.0: A framework for self-supervised learning of speech representations. In Advances in Neural Information Processing Systems (NeurIPS), Vol. 33, pp. 12449-12460, 2020. [32] OpenAI. Whisper: Robust speech recognition via large-scale weak supervision. https://openai .com/blog/whisper/, 2023 [33] Frederick Jelinek. Continuous speech recognition by statistical methods Proceedings of the IEEE, Vol. 64, pp. 532-556, 1976. [34] Mehryar Mohri, et al. Speech recognition with weighted finite-state transducers. 2008. [35] Paul R. Dixon, Chiori Hori, and Hideki Kashioka. A specialized WFST approach for class models and dynamic vocabulary. In Proc. Interspeech 2012, pp. 1075-1078, 2012. [36] Andrej Ljolje, et al. Efficient general lattice generation and rescoring. In EUROSPEECH, 1999 [37] Hasim Sak, et al. On-the-fly lattice rescoring for real-time automatic speech recognition. In Interspeech, 2010. [38] Jan Chorowski and Navdeep Jaitly. Towards better decoding and language model integration in sequence to sequence models. In Interspeech, 2016. [39] Anuroop Sriram, et al. Cold fusion: Training seq2seq models together with language models. In Interspeech, 2017. [40] Tara N. Sainath, et al. Two-pass end-to-end speech recognition. ArXiv abs/1908.10992, 2019 . [41] J. Edward Hu, Yelong Shen, Phillip Wallis, Zeyuan Allen-Zhu, Yuanzhi Li, Shean Wang, and Weizhu Chen. Lora: Low-rank adaptation of large language models. ArXiv, Vol. abs/2106.09685, , 2021.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-13.pdf
# Large Language Models as Manga Translators: A Case Study Zhishen Yang $^{1}$, Tosho Hirasawa ${ }^{2}$, Edison Marrese-Taylor ${ }^{3,4}$, Naoaki Okazaki ${ }^{1}$ School of Computing, Tokyo Institute of Technology ${ }^{1}$ Tokyo Metropolitan University ${ }^{2}$, The University of Tokyo ${ }^{3}$ National Institute of Advanced Industrial Science and Technology 4 [email protected], [email protected] [email protected], [email protected] ## Abstract Originating in Japan, manga has gained immense popularity on a global scale as a distinct form of comics. However, the primary language of manga, Japanese, is a barrier to its widespread access to international markets. While crucial for its global expansion, manga translation is often accompanied by substantial investment in time and resources. The emergence of machine translation technology presents the opportunity to automate manga translation processes, potentially reducing translation costs. However, challenges arise due to copyright restrictions limiting training data access. This paper empirically explores the feasibility of leveraging Large Language Models (LLMs) for manga translation tasks. Our study delves into investigations to assess to what extent LLMs are capable of performing such a task and identify which contextual cues help enhance the quality of the output. The experimental results demonstrate the potential of employing the LLM in manga translation, indicating a promising trajectory for future research. ## 1 Introduction Comics are one of the most famous artistic expressions worldwide. Among the diversity of comics around the world, Japanese manga emerges as one of the most prolific variations with global impacts. In this context, language barriers have represented a substantial challenge in allowing manga to reach international markets, as manual translation is usually highly time-consuming and costly. This means that many comics have not been translated and are only available in their domestic markets. Automating manga translations to other languages will greatly facilitate the accessibility and popularity of Japanese manga, ulti- mately leading to reduced publishing timelines and shorter wait times for readers. Although recent progress in Machine Translation (MT) has landed a promising foundation for manga translation, many challenges still need to be addressed despite this advantage. Compared with traditional text-only MT tasks, the manga translation endeavor introduces unique challenges, including the following. 1. Utilizing visual scenes in translations As a type of visual storytelling, texts are combined with manga images to compose a complete story. Visual content often presents backgrounds, emotions, body language, and texts to immerse readers. While human translators possess the innate ability to incorporate semantic and emotional messages from visual content when translating texts, enabling MT models to effectively integrate visual scenes to improving translation quality remains a challenging and under-explored task. 2. Lack of training data Manga books are subject to copyright restrictions, and annotating manga for building translation models is highly costly and labor-intensive, leading to training data for this task being limited. This contrasts with recent trends in machine learning, with models requiring substantial amounts of data for training. In this sense, we think that the absence of readily available and high-quality manga translation training data may potentially hinder the development of successful machine translation models. 3. Language style The language of manga is artistic and narrates stories to its readers. Translation models trained on data from different domains could potentially misinterpret this creative language, misrepresenting the intended emotions and causing the inadvertent loss of the authors' implicit messaging. Given these difficulties, tackling the task of manga machine translation continues remains an ongoing challenge. Despite the recent advances in our field with the advent of Large Language Models (LLMs), which have demonstrated a wide variety of capabilities across several natural language tasks, their effectiveness in more concrete applications, such as ours, remains unexplored. In light of this issue, we conduct empirical investigations to study the performance of LLMs in automatic manga translation. To the best of our knowledge, this study is the first to focus on employing LLMs for manga translation. Our main findings are as follows. - Our experimental results demonstrate that the strong zero-shot translation abilities of LLM are, to a large extent, preserved when performing manga translation, demonstrating the potential of using such models for this task. - We found that giving few-shot examples as context to the LLM improves translation quality, which lies in accordance with observations for several other tasks. - We show that our zero-shot LLM-based approach can attain comparable performance to model fine-tuning using millions of examples, suggesting a potential direction to overcome data availability problems. ## 2 Proposed Approach This study tries to answer two main questions: (1) Can LLM perform manga translation without access to the training dataset? and (2) What types of context bring performance boosts to LLM? Given the aforementioned research questions, we first assess the effectiveness of Large Language Models in zeroshot manga translation, contrasting it with a supervised machine translation model. Following this, we investigate the importance of integrating various types of contextual information to support the LLM in enhancing translation quality. In this context, we defined three categories of context: 1. Few-shot context: Instances of randomly-sampled translation examples. 2. Local context: Adjacent textual content to the utterance to be translated. 3. Visual context: Textual descriptions of manga images/frames accompanying the utterance to be trans- lated, which we first obtain using a pre-trained visionand-language model. ## 3 Experimental Settings This section details our models, dataset, and evaluation frameworks used in the experiments. Please refer to the appendix for implementation details and prompt templates. Dataset The OpenMantra dataset [1] is the only manga translation dataset available with public access. It contains five Japanese manga books with 1,592 text passages and 214 pages in five different genres. Professional translators translated Japanese texts into English and Chinese. Translation Direction The source language in our experiments is Japanese, and the target languages are Chinese or English. Translation models We utilized large multilingual MT models trained on massive parallel corpora, specifically, M2M100 [2]. Additionally, we experimented with M2M100 models of different sizes, including the 418M, 1.2B and 12B models. We also experiment with LLMbased black-box chat agents, specifically GPT-3.5 [3, 4, 5]. Evaluation We performed evaluations in terms of the quality of the generated translations. Specifically, we followed the methodology of previous studies, employing BLEU-4 scores [6]. Additionally, we present results for METEOR [7], COMET [8], and BERTScore [9]. ## 4 Results Our study seeks to empirically investigate the viability of utilizing LLMs for manga translation, with a specific focus on identifying the contexts that contribute to enhancing translation quality. The experimental results indicate that GPT-3.5 has strong zero-shot multilingual translation capabilities, which surpass the M2M100 models. Furthermore, fewshot contexts help the GPT-3.5 further boost its performance. Drawing from our experimental findings, it becomes apparent that while manga translation is a type of multimodal machine translation, incorporating visual contexts has a minimal, if not slightly detrimental, impact on performance. In the next subsections, we give details of our experimental results and provide in-depth analysis to answer our research questions. ## 4.1 Supervised Machine Translation Model: M2M100 Table 1 presents the results of automatic evaluation metrics of M2M100, a multilingual machine translation model. We evaluated three different sizes of the model: $418 \mathrm{M}$ (small), 1.2B (medium), and 12B (large). Notably, the medium size variant M2M100 (1.2B) achieved the highest scores across BLEU, METEOR, chrF, and COMET metrics for both Chinese and English translations. Based on the experimental results, scaling the model does not continually improve the scores. Using a large M2M100 model (12B) slightly decreases scores for the English translation, while we can find moderate deterioration for the Chinese translation. M2M100 (1.2B) also ranks the best according to the COMET score for English and Chinese translations. For the BERTScore, M2M100 (1.2B) performs the best on Chinese translations, although the larger model (M2M100 12B) has the best BERTScore for English translation, it is only a marginal improvement compared to M2M100 (1.2B). The experimental results indicate that scaling does not consistently yield positive outcomes for M2M100 in the context of manga translation tasks. This is probably caused by the fact that manga texts are outside the data domains in which M2M100 was trained. Regarding target languages for translation, M2M100 consistently performs better when English is the designated target language. ## 4.2 Large Language Model: GPT3.5 As a Large Language Model with robust zero-shot capabilities across various natural language tasks, GPT-3.5's potential to address the manga translation task was the primary focus of this study. As shown in Table 1, even in the absence of contextual cues, GPT-3.5 offer significantly superior scores across all metrics in comparison to M2M100. Unlike the latter, GPT-3.5 achieved higher scores in translating Chinese, according to the BLEU metric, although similar improvements were not observable in other metrics. These findings underscore GPT-3.5's potential as a large language model to undertake the manga translation task in a zero-shot scenario. We refer to GPT-3.5 without any contexts as the baseline for the rest of the experiments. ## 4.3 Probing the need for textual contexts Having identified the kinds of LLM models that can obtain better performance in our task, we now task ourselves with answering our second research question, namely, what types of context bring performance boosts to the LLM (GPT-3.5). We first investigate the necessity of incorporating the local context. In the case of English translation, it is evident that including local context leads to improvements across all metrics. However, we observe a slight decline in scores when introducing a local context for the Chinese translation. We also observe that randomly sampled utterancelevel translation demonstrations (k-shot contexts) enhances the performance of the LLM. In the context of manga translation, our results show that presenting examples of manga translations potentially imparts GPT-3.5 insights into manga translation styles. To gain insight into how the model can leverage this context for better performance, we experiment by feeding randomly selected $k=[1,2,4,6,8,10]$ utterances in Japanese along with their corresponding translations from four other manga books, thus avoiding leakage problems. We hypothesize that offering GPT-3.5 more examples should lead to improved performance. Referencing Table 2, introducing more demonstrations does not necessarily correlate with performance improvements for both languages. In the case of English, k=10 yielded the highest BLEU, METEOR, chrF scores, while $\mathrm{k}=6$ achieved the best BERTScore. On the contrary, for Chinese, when k=4, GPT-3.5 achieved the highest scores in BLEU, METEOR. ## 4.4 Probing the need for visual contexts Finally, we seek to answer whether visual context contributes to translations. To that end, we used the LLaVA model to obtain textual descriptions of manga images. Given that each manga image consists of frames, we also obtained textual descriptions for each frame. This approach can be likened to an alternative to image descriptions, resembling a more focused rendition of the image context. The underlying hypothesis is that the model would provide more intricate descriptions, effectively delivering a detailed form of visual context and ultimately improving translation quality. Table 1: Automatic evaluation results on Japanese to English/Chinese Translation, where * indicates statistical significance of the difference over GPT-3.5 ( $\mathrm{p} \leq 0.05$ ) bootstrap resampling, Rules indicate that we provide additional instructions on how to perform translations, Demos indicates our best results using k-shot ( $k=6$ for English, $k=4$ for Chinese) contexts, $\operatorname{Img}_{E n, Z n}$ denotes models that receive visual context at the utterance level, and Frame ${ }_{E n, Z n}$ denotes models that received visual context at the frame level. Table 2: Ablation study: role of $\mathrm{k}$ in few-shot experiments in Japanese to English/Chinese Translations, where k denotes the number of shots. Considering that target translations are in English and Chinese, we hypothesize that providing visual contexts written in the target languages would offer more informative cues for the model to utilize in the translation process. From the experimental results in Table 1, for translation into English, English image description helps slightly improve BLEU, METEOR, and chrF scores but not significantly. Still, we cannot observe the same improvements when translating into Chinese, which results in drops in all metrics. Compared with Chinese image descriptions, English image descriptions always gain higher evaluation metric scores. Overall, we see that using frame description does not improve the evaluation metric scores. GPT-3.5 obtained similar scores for both translation directions compared to image descriptions. Surprisingly, using image and frame descriptions in English always leads to higher evaluation scores for both English and Chinese translations. Compared to our baseline GPT-3.5 model, integrating frame descriptions did not improve the evaluation metric scores for both translation directions. In both cases, GPT-3.5 obtained scores similar to those obtained using image descriptions. However, for both translation directions, using frame descriptions led to slight improvements in BLEU. ## 5 Conclusion In this paper, we carried out empirical investigations into applying LLMs for the task of manga translation. In this pursuit, we selected GPT3.5 as our LLM. We observed that LLMs exhibit robust zero-shot capabilities in translating manga texts. Furthermore, our findings indicate that introducing few-shot context in the form of translation examples, enhances the translation quality of GPT-3.5. This study marks an initial exploration into utilizing LLMs for the manga translation task. The complexity inherent in manga translation encompasses multiple layers, including modelling and resource building. In future research, we intend to discover the feasibility of fine-tuning LLMs or vision-language models to address the manga translation challenge. Additionally, we are intrigued by the investigation of which visual elements within manga images contribute to improving translation quality. ## Acknowledgment These research results were obtained from the commissioned research (No.22501) by National Institute of Information and Communications Technology (NICT), Japan. ## References [1] Ryota Hinami, Shonosuke Ishiwatari, Kazuhiko Yasuda, and Yusuke Matsui. Towards fully automated manga translation. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 35, pp. 12998-13008, 2021. [2] Angela Fan, Shruti Bhosale, Holger Schwenk, Zhiyi Ma, Ahmed El-Kishky, Siddharth Goyal, Mandeep Baines, Onur Celebi, Guillaume Wenzek, Vishrav Chaudhary, Naman Goyal, Tom Birch, Vitaliy Liptchinsky, Sergey Edunov, Michael Auli, and Armand Joulin. Beyond English-Centric Multilingual Machine Translation. Journal of Machine Learning Research, Vol. 22, No. 107, pp. 1-48, 2021. [3] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language Models are Few-Shot Learners. In Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Curran Associates, Inc., 2020. [4] Introducing ChatGPT. [5] Nisan Stiennon, Long Ouyang, Jeffrey Wu, Daniel Ziegler, Ryan Lowe, Chelsea Voss, Alec Radford, Dario Amodei, and Paul F Christiano. Learning to summarize with human feedback. In Advances in Neural Information Processing Systems, Vol. 33, pp. 3008-3021. Curran Associates, Inc., 2020. [6] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [7] Satanjeev Banerjee and Alon Lavie. METEOR: An automatic metric for MT evaluation with improved correlation with human judgments. In Proceedings of the ACL Workshop on Intrinsic and Extrinsic Evaluation Measures for Machine Translation and/or Summarization, pp. 65-72, Ann Arbor, Michigan, June 2005. Association for Computational Linguistics. [8] Ricardo Rei, Craig Stewart, Ana C Farinha, and Alon Lavie. COMET: A Neural Framework for MT Evaluation. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 2685-2702, Online, November 2020. Association for Computational Linguistics. [9] Tianyi Zhang*, Varsha Kishore*, Felix Wu*, Kilian Q. Weinberger, and Yoav Artzi. BERTScore: Evaluating Text Generation with BERT. In International Conference on Learning Representations, September 2019. [10] Haotian Liu, Chunyuan Li, Qingyang Wu, and Yong Jae Lee. Visual Instruction Tuning, April 2023. ## A Implementation Details In experiments, we utilized the M2M100 models, which are accessible through HuggingFace and the Microsoft Azure GPT services ${ }^{1)}$. Since the ground truth Chinese translations are in traditional characters, we converted them to simplified characters. For the the vision and language model used in the experiments, we employed LLaVa ${ }^{2)}[10]$ specifically the version Vicuna-13B-v1.3-CLIP-L-336px, to generate textual descriptions for images/frames. The English prompt used was "Please describe this manga image", while the corresponding Chinese prompt was “请用中文描述这个漫画图片”. ## B Prompt template Figure 1: The prompt template used in experiments. Figure 1 shows the prompt template for GPT3.5. Where $\{$ text $\}$ represent $n$th sentence to be translated: $\{$ src_lang $\}$ represents source language: Japanese, \{tgt_lang\} denotes target language: Chinese or English. \{context_type\} is a sentence that explicitly tells GPT3.5 the context type, as shown below: 1. Few-shot context: Here are sample translations: 2. Local context: Empty 3. Visual context: Here is the manga image description: $\{$ context $\}$ denote context content 1. Few-shot context: $\mathrm{K}$ translation examples. 2. Local context: Previous sentence: n-1th sentence Next sentence: $\mathrm{n}+1$ th sentence 3. Visual context: Image/frame descriptions 1) https://azure.microsoft.com/en-us/products/ai-services/openai-service 2) https://github.com/haotian-liu/LLaVA
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-14.pdf
# EgoOops!データセット : 手順書に従う作業の 一人称視点映像への作業誤りアノテーション 羽路 悠斗 ${ }^{1}$ 西村 太一 ${ }^{2}$ 山本 航輝 ${ }^{1}$ 梶村 恵矢 ${ }^{1}$ 崔 泰艈 $^{1}$ 亀甲 博貴 ${ }^{3}$ 森信介 ${ }^{3}$ 1 京都大学大学院情報学研究科 ${ }^{2}$ LINE ヤフー株式会社 3 京都大学 学術情報メディアセンター ${ }^{1}\{$ haneji.yuto.58c, yamamoto.koki.76n\}@st.kyoto-u.ac.jp ${ }^{1}$ \{kajimura.keiya. 48x, cui.taiyu.33c\}@st.kyoto-u.ac.jp ${ }^{2}$ [email protected] ${ }^{3}\{$ kameko,forest\}@i.kyoto-u.ac.jp ## 概要 本研究の目的は, 手順書に従う作業の一人称視点映像を,手順書を参照しながら解析し,作業の誤りの時間区間と種類を予測することである.まず,手順書に従う 5 つの作業,合計 50 本, 6.8 時間の一人称視点の作業映像を撮影し, EgoOops!データセットを構築する。映像には,事前に定義した誤りの種類と,詳細な説明文を付与している。また,大規模な一人称視点映像と言語のペアで事前学習したモデルを用いて,手順認識と作業誤り分類を統合的に行う手法を提案する。手順認識で 36.9,作業誤り分類で 22.3 の F1 スコアであった. 映像のみを用いた結果との比較から,手順書の参照が作業誤り分類に有効だとわかった。 ## 1 はじめに 料理や組み立てなどの手順書に従う作業において,動作の誤りや物体の取り違えなどの作業の誤りが起こる。 そうした誤りにより,作業の質が低下したり危険が増したりする。対策としては,よく起こる誤りを特定して作業者を教育したり,誤りの発生を警告したりすることが挙げられる。こうした対策には多くの人員を要するので,作業の様子を撮影して自動で誤りを検出することが望ましい。 既存研究では,映像からの作業誤りの検出を目的として,撮影した作業映像の誤りをアノテーションしたデータセットが構築されてきた $[1,2,3,4,5]$. これらの映像からの誤り検出には, 動作認識 $[1,2,3,6]$ や映像異常検知 [4] の手法が用いられてきた. ここで,従来のデータセットの撮影では,手順を厳密に は定めないことが多かったため $[1,2,3,5]$, 手順書を参照するモデルは実現されていない。 本研究の目的は, 一人称視点の作業映像を手順書も参照しながら解析し,手順から逸脱する作業の誤りの時間区間と種類を予測することである.まず,多様な領域に渡る 5 つの作業を手順書に従って実施し, 合計 50 本,6.8 時間の一人称視点の作業映像を収集し, EgoOops!データセットを構築する(図 1).手順区間,手順ラベル,事前に定義した 6 種類の作業誤りのラベル,誤りの詳細な説明文を映像に付与しており,作業誤りを検出するモデルの学習と評価に利用できる。また,大規模な一人称視点映像と言語のペアで事前学習したエンコーダによって, 作業映像と手順書を埋め込み,手順の認識と作業誤りの分類を統合的に行う手法を提案する。 EgoOops!データセットを用いて評価実験を行う.手順区間の特定において,動作区間検出の最高性能のモデルの mAP は 52.24 であった. 提案手法による手順認識の F1 スコアが 36.9 ,作業誤り分類の F1 スコアが 22.3 であった。作業誤りの分類で映像のみを用いると F1 スコアが大きく低下したため,手順書の参照が有効だといえる. ## 2 EgoOops!データセットの構築 本研究では,手順書に従う作業の誤り検出のために,EgoOops!データセットを構築する。本データセットは,一人称視点映像と手順書からなる. ## 2.1 手順書の用意 映像の収録前に,基準に沿って作業を選定し,手順書を用意する。 ## Egocentric video ## Procedural text Task: cardboard craft 1. "Draw auxiliary lines of the shape and the fold on cardboard according to dimensional drawings" 2. "Cut along the auxiliary lines of the shape" 3. "Leave the ends of the liner for gluing." 4. "Make incisions on the auxiliary lines of the fold." "Fold along the incisions of the fold." "Adhere the liner with glue." 図 1: EgoOops!データセットの例. 手順書に従う作業の一人称視点映像に,手順区間,手順ラベル,事前に定義した 6 種類の作業誤りのラベル,誤りの詳細な説明文を付与する。 図 2: 作業の撮影風景 作業の選定Webを検索して手順書に従う作業を収集し,電気回路,光の混色実験,イオン反応実験, おもちゃの積み木作り,ダンボール工作の 5 つの作業を選択した。作業の領域,誤りの種類,映像の長さ,物体,動作の多様性が,選定の基準である. 手順書の用意選定した作業について,手順書を用意する. Web 上や専用のキットに付属の手順書がある作業では,利用する道具を明記するなど,著者のうち 1 名がより詳細に書き換える. 既存の手順書がない作業では,著者のうち 1 名が事前に作業して手順を書き起こしておく.日本語で手順書を用意し,英文で事前学習したモデルを適用できるように,手作業で英語版の手順書に翻訳もする.用意した手順書を参照して,収録参加者は作業を行う。 ## 2.2 映像の収録 収録の工程男性 4 名の日本人の大学院生の参加者に,手順書に従って作業してもらう.参加者にそれぞれの作業を 2 本か 4 本ずつ割り当て,各作業を 10 本ずつ撮影する. 多くの作業誤りを撮影するために,我々が事前に用意したか参加者が考えた誤りを 5 本の映像では意図的に含め,他の 5 本の映像では手順書通りに作業する。 撮影環境撮影風景を図 2 に示す. Panasonic HX-A500 一人称視点カメラを,参加者の頭部に装着して撮影する。道具や手順書など作業に用いる物 を,予め机に置いておく.作業の様子を近くで撮影し,画角の変動を抑えるために,座って作業する。 ## 2.3 アノテーションの規格 収録した映像に,手順区間の開始時刻と終了時刻を,手順のラベルと,作業誤りの種類のラベルと説明文とともに付与する(図 1)。手順のラベルは順序関係の誤りに,作業誤りの種類のラベルは手順の実行内容の誤りにそれぞれ対応する。本稿の実験では,作業誤りの分類に取り組む。 区間区間の開始時刻はいずれかの物体を掴んで手順を始める時点,終了時刻は手順を終えて全ての物体を離す時点とする.ただし,ある物体を持ったまま次の手順に移行する場合には,それ以外の物体を掴んだり離したりする時点とする。なお,ここでいう手順には,手順書で指示されていないが作業者が誤って実行したものもある。 手順手順書の手順には実行順のラベルが付いており,それらを参照して各区間の手順のラベルを付与する(図 1)。ただし,手順書にない手順は,未定義とする。なお,手順の重複,欠落,順番の入れ替わりが起こることがある。こうした順序関係の誤りの検出は,本稿では扱わず今後の課題とする。 作業誤りの種類と説明文作業誤りを含む区間には,事前に定義した誤りの種類のラベルを付与する. さらに,どう誤っているかを具体的に説明するために,詳細な内容を英文で記述する,定義した誤りの種類は,1. 誤った物体で手順を実行する, 2. 誤った物体を掴み,使わず手放す,3.作業誤りの訂正,4. 意図しない行動,5. 誤った方法で手順を実行する,6. その他の 6 種類である. なお,複数の種類に該当する場合も,その他に分類する。本稿の実験では,誤りの種類の予測に取り組み,将来的には 表 1: 手順数と手順あたりの単語数を作業間で比較. 表 2: 映像の平均長,映像あたりの区間数,区間の平均長を作業間で比較. 各作業 10 本ずつ撮影した. & & 平均秒数 \\ 説明文を応用(例:自動生成)することを目指す. ## 2.4 統計情報 EgoOops!データセットの統計情報を,手順書・映像・作業誤りについて算出する。また,別のアノテータによるアノテーションとの一致率を評価し, アノテーションの質を確かめる。 手順書表 1 に示すように,手順数や手順ごとの単語数は作業ごとに異なり,手順書の複雑さは様々だといえる。手順数は,積み木が最も少なく(7 手順),ダンボールが最も多い (14 手順). 手順ごとの単語数は, 電気回路が最も少なく(平均 7.6 単語),積み木が最も多い (平均 18.6 単語). 映像表 2 に示すように,映像長・区間長・区間数の観点で多様な映像を含んでいる.積み木がいずれも最小 (平均 1.9 分の映像長,平均 8.9 秒の区間長, 1 映像あたり平均 8.7 区間)であり,ダンボー ルがいずれも最大(平均 26.1 分の映像長,平均 87.7 秒の区間長,1 映像あたり平均 16.5 区間)である. 表 3: 各種類の誤りの数を作業間で比較. 種類の定義は 2.3 節を参照. 表 4: 区間の特定の結果. 作業誤り表 3 に示すように,多様な種類の誤りを含んでいる。作業ごとに特有の誤りの傾向(例: イオン反応では,誤った物体で手順を実行することが多い)があり,その傾向は作業間で多様である。 アノテーションの一致率アノテーションの質を確かめるために,別の 1 人のアノテータが新たに付与するアノテーションとの一致率を評価する。アノテータが付与した区間と手順のラベルとの一致率は,共通部分を和集合で割った tIoU で 84.2 である. それとは別に,EgoOops!データセットのアノテー ションの区間に,アノテータが作業誤りの種類のラベルと説明文を付与する.種類の一致率は F1 スコアで 83.3 であり,説明文の一致率は BERTScore [7] で 96.3 である. これらの一致率から,アノテーションが高品質だといえる. ## 3 実験 2 節で構築した EgoOops!データセットを用いて,作業誤り検出の評価実験を行う。エンドツーエンド認識にはデータ量が少ないため,1. 区間の特定, 2. 手順の認識, 3. 作業誤りの分類に分ける. ## 3.1 区間の特定 問題設定映像全体の一連の $T$ 枚のフレー ム $\mathbf{X}=\left.\{\mathbf{x}_{1}, \mathbf{x}_{2}, \ldots, \mathbf{x}_{T}\right.\}$ が与えられ, $N$ 個の区間 $\mathbf{Y}=\left.\{\mathbf{y}_{1}, \mathbf{y}_{2}, \ldots, \mathbf{y}_{N}\right.\}$ を出力する. 区間 $\mathbf{y}_{i}=\left(s_{i}, e_{i}\right)(i \in$ $[1, N])$ は, 開始時刻 $s_{i}$ と終了時刻 $e_{i}$ からなり, $s_{i} \in[1, T], e_{i} \in[1, T], s_{i} \leq e_{i}$ である. 動作区間検出で広く使われている mAPで評価する $[11,12,13,14]$.共通部分を和集合で割った tIoU が閾値以上のとき,予測区間が正解区間と一致しているとみなす。 手法動作区間検出において最高性能である, ActionFormer [9] と TriDet [10] を評価する。また,手順の実行中には物体を操作するため, hand-object detector [8] で手と物体の接触を検出したフレームが連続する区間を評価する。 結果 tIoU の閾値 $\{0.1,0.2,0.3,0.4,0.5\}$ における評価結果と,それらの平均を表 4 に示す. TriDet に 図 3: 提案手法の概要. 表 5: 手順の認識の結果. タスクごとにマクロ平均を算出し,さらにそれらの平均を示す。 表 6: 作業誤りの分類の結果. マクロ平均を示す. よる予測の mAP の平均は 52.24 であり, 最も高精度である. EPIC-KITCHENS-100 データセット [13] の動作区間検出において,TriDet のスコアは 25.4 であり [10], EgoOops!データセットの区間は比較的検出しやすいといえる. ## 3.2 手順の認識と作業誤りの分類 タスク定義アノテーションに従い時間方向にトリミングした $M_{i}$ 枚のフレームからなる区間 $\mathbf{V}_{i}=\left.\{\mathbf{v}_{1}, \mathbf{v}_{2}, \ldots, \mathbf{v}_{M_{i}}\right.\}, N$ 手順の手順書 $\mathbf{T}=$ $\left.\{t_{1}, t_{2}, \ldots, t_{N}\right.\}, C$ 個の誤りの種類 $\left.\{m_{1}, m_{2}, \ldots, m_{C}\right.\}$ が与えられる. $t_{N+1}=$ 未定義を含めた $N+1$ 手順の一 $\supset t_{k}(k \in[1, N+1])$ と, $m_{C+1}=$ 正解を含めた $C+1$種類の一つ $m_{l}(l \in[1, C+1])$ への分類を出力する. $A$ 個の区間が一つの映像 $\mathbf{V}=\left.\{\mathbf{V}_{1}, \mathbf{V}_{2}, \ldots, \mathbf{V}_{A}\right.\}$ には含まれる. Precision, Recall, F1 スコアで評価する。 手法図3 に示すように,映像と言語の埋め込みのコサイン類似度で手順を認識し, 埋め込み空間上の分類層により作業誤りを分類することを提案する. 埋め込みには, 大規模な一人称視点映像と言語のペアからなるデータセット Ego4D [14] で事前学習した EgoVLP [15]を用いる. 本稿では, 手順認識と誤り分類を分けて評価するために,アノテーションされた手順の文の埋め込みを誤りの分類に用いる.区間 $\mathbf{V}_{i}$ のフレーム系列を, ベクトル $\hat{\mathbf{V}}_{i} \in \mathbb{R}^{d}$ に埋め込む. 各手順 $t_{j}(j \in[1, N+1])$ の文を, ベクトル $\hat{\mathbf{t}}_{j} \in \mathbb{R}^{d}$ にそれぞれ埋め込んで,手順埋め込み系列 $\hat{\mathbf{T}}=\left.\{\hat{\mathbf{t}}_{1}, \hat{\mathbf{t}}_{2}, \ldots, \hat{\mathbf{t}}_{N+1}\right.\}$ を得る. 映像の埋め込みとのコサイン類似度が最も大きい手順を認識する。 区間 $\mathbf{V}_{i}$ の映像の埋め込み $\hat{\mathbf{V}}_{i}$ とアノテーションされた手順 $t_{g t_{i}}\left(g t_{i} \in[1, N+1]\right)$ の文の埋め込み $\hat{\mathbf{t}}_{g t_{i}}$ を積み重ねて, $\mathbf{F}_{i} \in \mathbb{R}^{2 \times d}$ を得る. self-attention 層と続く average pooling 層により一次元目の方向に融合し $\tau, \mathbf{f}_{\mathbf{i}} \in \mathbb{R}^{d}$ を得る. 任意の分類器により, 作業誤りの種類 $m_{l}$ に分類する. 設定 EgoVLPの重みも学習する. 埋め込みの次元 $d=256$ とする. 分類器は 1 層の線形層とする. 結果表 5 に, 手順の認識の結果を示す. Precision は 39.6, Recall は40.0, F1 スコアは 36.9である. 表 6 に,作業誤りの分類の結果を示す. 映像と手順書を用いると,Precision は 19.1, Recall は35.1, F1 スコアは 22.3 だった. F1 スコアの 7 クラス分類におけるチャンスレートの約 14.3 より高性能である. また,映像のみを用いると $\mathrm{F} 1$ スコアが 12.0 低下したため,手順書の参照が有効だといえる. ## 4 終わりに 本研究では,手順書に従う作業の誤り検出のために,一人称視点映像と手順書からなる EgoOops!デー タセットを構築した. 手順書に従う作業を対象とする点, 誤りの種類ラベルも付与している点,作業の領域と誤りの種類が多様な点が貢献である. 収集した作業映像に対して,大規模な一人称視点映像と言語のぺアで事前学習したエンコーダを用いて, 手順認識と作業誤り分類を統合的に行った. 作業誤りの分類では,提案手法の性能がチャンスレー 卜を上回った. また,映像のみを用いた結果との比較により, 手順書の参照が有効だとわかった. ## 参考文献 [1] Fadime Sener, Dibyadip Chatterjee, Daniel Shelepov, Kun He, Dipika Singhania, Robert Wang, and Angela Yao. Assembly101: A Large-Scale Multi-View Video Dataset for Understanding Procedural Activities. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 21064-21074, June 2022 [2] Reza Ghoddoosian, Isht Dwivedi, Nakul Agarwal, and Behzad Dariush. Weakly-supervised action segmentation and unseen error detection in anomalous instructional videos. In Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 10128-10138, 2023. [3] Xin Wang, Taein Kwon, Mahdi Rad, Bowen Pan, Ishani Chakraborty, Sean Andrist, Dan Bohus, Ashley Feniello, Bugra Tekin, Felipe Vieira Frujeri, et al. HoloAssist: An egocentric human interaction dataset for interactive AI assistants in the real world. In Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 20270-20281, 2023. [4] Rohith Peddi, Shivvrat Arya, Bhrath Challa, Likhitha Pallapothula, Akshay Vyas, Qifan Zhang, Jikai Wang, Vasundhara Komaragiri, Eric Ragan, Nicholas Ruozzi, Yu Xiang, and Vibhav Gogate. Put on your detective hat: What's wrong in this video? In Proceedings of the 40th International Conference on Machine Learning, Honolulu, Hawai, USA, 2023 [5] Tim J. Schoonbeek, Tim Houben, Hans Onvlee, Peter H. N. de With, and Fons van der Sommen. IndustReal: A Dataset for Procedure Step Recognition Handling Execution Errors in Egocentric Videos in an Industrial-Like Setting. In Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision, pp. 4365-4374, 2024. [6] Guodong Ding, Fadime Sener, Shugao Ma, and Angela Yao. Every Mistake Counts in Assembly, July 2023. [7] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, and Yoav Artzi. BERTScore: Evaluating Text Generation with BERT. In Proceedings of the 8th International Conference on Learning Representations, April 2020. [8] Dandan Shan, Jiaqi Geng, Michelle Shu, and David F. Fouhey. Understanding Human Hands in Contact at Internet Scale. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 9866-9875, Seattle, WA, USA, June 2020. IEEE. [9] Chen-Lin Zhang, Jianxin Wu, and Yin Li. ActionFormer: Localizing Moments of Actions with Transformers. In Shai Avidan, Gabriel Brostow, Moustapha Cissé, Giovanni Maria Farinella, and Tal Hassner, editors, Proceedings of the European Conference on Computer Vision, Vol. 13664, pp. 492-510, Cham, 2022. Springer Nature Switzerland. [10] Dingfeng Shi, Yujie Zhong, Qiong Cao, Lin Ma, Jia Li, and Dacheng Tao. TriDet: Temporal Action Detection With Relative Boundary Modeling. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 18857-18866, 2023. [11] Fabian Caba Heilbron, Victor Escorcia, Bernard Ghanem, and Juan Carlos Niebles. ActivityNet: A Large-Scale Video Benchmark for Human Activity Understanding. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 961970, 2015 . [12] Haroon Idrees, Amir R. Zamir, Yu-Gang Jiang, Alex Gorban, Ivan Laptev, Rahul Sukthankar, and Mubarak Shah. The THUMOS challenge on action recognition for videos "in the wild". Computer Vision and Image Understanding, Vol. 155, pp. 1-23, February 2017. [13] Dima Damen, Hazel Doughty, Giovanni Maria Farinella, Antonino Furnari, Evangelos Kazakos, Jian Ma, Davide Moltisanti, Jonathan Munro, Toby Perrett, Will Price, and Michael Wray. Rescaling Egocentric Vision: Collection, Pipeline and Challenges for EPICKITCHENS-100. International Journal of Computer Vision, Vol. 130, No. 1, pp. 33-55, January 2022. [14] Kristen Grauman, Andrew Westbury, Eugene Byrne, Zachary Chavis, Antonino Furnari, Rohit Girdhar, Jackson Hamburger, Hao Jiang, Miao Liu, Xingyu Liu, Miguel Martin, Tushar Nagarajan, Ilija Radosavovic, Santhosh Kumar Ramakrishnan, Fiona Ryan, Jayant Sharma, Michael Wray, Mengmeng Xu, Eric Zhongcong Xu, Chen Zhao, Siddhant Bansal, Dhruv Batra, Vincent Cartillier, Sean Crane, Tien Do, Morrie Doulaty, Akshay Erapalli, Christoph Feichtenhofer, Adriano Fragomeni, Qichen Fu, Abrham Gebreselasie, Cristina Gonzalez, James Hillis, Xuhua Huang, Yifei Huang, Wenqi Jia, Weslie Khoo, Jachym Kolar, Satwik Kottur, Anurag Kumar, Federico Landini, Chao Li, Yanghao Li, Zhenqiang Li, Karttikeya Mangalam, Raghava Modhugu, Jonathan Munro, Tullie Murrell, Takumi Nishiyasu, Will Price, Paola Ruiz Puentes, Merey Ramazanova, Leda Sari, Kiran Somasundaram, Audrey Southerland, Yusuke Sugano, Ruijie Tao, Minh Vo, Yuchen Wang, Xindi Wu, Takuma Yagi, Ziwei Zhao, Yunyi Zhu, Pablo Arbelaez, David Crandall, Dima Damen, Giovanni Maria Farinella, Christian Fuegen, Bernard Ghanem, Vamsi Krishna Ithapu, C. V. Jawahar, Hanbyul Joo, Kris Kitani, Haizhou Li, Richard Newcombe, Aude Oliva, Hyun Soo Park, James M. Rehg, Yoichi Sato, Jianbo Shi, Mike Zheng Shou, Antonio Torralba, Lorenzo Torresani, Mingfei Yan, and Jitendra Malik. Ego4D: Around the World in 3,000 Hours of Egocentric Video. In Proceedings of IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 18973-18990, New Orleans, LA, USA, June 2022. IEEE. [15] Kevin Qinghong Lin, Jinpeng Wang, Mattia Soldan, Michael Wray, Rui Yan, Eric Z. XU, Difei Gao, Rong-Cheng Tu, Wenzhe Zhao, Weijie Kong, Chengfei Cai, WANG HongFa, Dima Damen, Bernard Ghanem, Wei Liu, and Mike Zheng Shou. Egocentric video-language pretraining. In S. Koyejo, S. Mohamed, A. Agarwal, D. Belgrave, K. Cho, and A. Oh, editors, Proceedings of the Advances in Neural Information Processing Systems, Vol. 35, pp. 7575-7586. Curran Associates, Inc., 2022. (a) 銅 (左),亜鉛(中央),マグネシウム(右)の外観の違い. 亜鉛とマグネシウムを見た目から判別するのは困難である. (b) マイクロ $\mathrm{QR}$ コードを添付した様子.短い直方体(左)と長い直方体(右)は類似している. 図 4: 判別が困難な物体があるため,マイクロ $\mathrm{QR}$ コードを物体に添付. $ \begin{array}{ll} \mathrm{d}<2.5[\mathrm{~min}] & 7.5<=\mathrm{d}<10[\mathrm{~min}] \\ 2.5<=\mathrm{d}<5[\mathrm{~min}] & 10<=\mathrm{d}[\mathrm{min}] \\ 5<=\mathrm{d}<7.5[\mathrm{~min}] & \end{array} $ 図 5: 映像長(分)の分布. ## A 付録 ## A. 1 データセットの構築 マイクロ QR コード名称を埋め込んだマイクロ $\mathrm{QR}$ コードを物体に添付する。作業誤りの中でも物体の誤りを検出するには,操作中の物体を認識する必要がある. しかし, 2.1 節で挙げた作業で用いる物体の中には,小さかったり外観が類似していて判別が困難なものがある. こうした物体を物体検出モデルで認識するのは困難であり,マイクロ $\mathrm{QR}$ コー ドを物体に添付する。なお,本稿の実験では,マイクロ $\mathrm{QR}$ コードの認識を使用していない. 認識結果の作業誤りの検出への活用は,今後の課題である. 映像の統計情報各映像の映像長,区間数,区間長の分布を,作業ごとに分けて示す. 図 5 に示すように,映像長の分布は作業によって異なっている. 積み木ではほとんどの映像が 2.5 分以下だが,段ボール工作では全て 10 分以上である. 図 6 に示すように,区間長の分布も作業によって異なってい $ \begin{array}{ll} \mathrm{d}<10[\mathrm{sec}] & 20<=\mathrm{d}<30[\mathrm{sec}] \\ 10<=\mathrm{d}<20[\mathrm{sec}] & 30<=\mathrm{d}[\mathrm{sec}] \end{array} $ 図 6: 区間長(秒)の分布. 図 7: 区間数の分布. る. 積み木や電気回路では 10 秒以下の区間が最も多いが,ダンボール工作では 30 秒以上の区間が最も多いかつ大半を占めている. 図 7 に示すように,区間数の分布も作業によって異なっている. 光の混色,イオン反応,積み木,段ボール工作では,大半の映像で特定の区間数を含む.こうした傾向は,主に手順書の手順数や手順の複雑さの違いに由来すると考えられ,2.4 節で示した手順書の多様性が,映像の多様性にもつながっている。映像には作業間で多様性があり,さらに同じ作業内でも映像同士が異なっていることがわかる。なお,2.4 節にて,映像の統計情報の各作業における平均値を示した.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-15.pdf
# 一人称視点に基づく テキスト駆動型アフォーダンス及び軌跡の学習 吉田智哉 1,2 栗田修平 2 西村太一 3 森信介 1 1 京都大学 ${ }^{2}$ 理化学研究所 ${ }^{3}$ LINE ヤフー株式会社 yoshida. [email protected] [email protected] [email protected] [email protected] ## 概要 視覚的アフォーダンス学習は, 入力画像中のインタラクションするべき領域を局限する課題である.先行研究によって,この課題がロボットの把持課題に有効であることが示されている一方で,多様な行動に対するアフォーダンスの学習が次の問題となっている. 本研究では,この問題の解決のためにテキスト駆動型視覚的アフォーダンス及び軌跡の学習を提案する. この課題は,テキストで表現された様々な行動に対して,それを達成するために,画像中のどの領域に,どのようにインタラクションするべきかを学習することを目的とした課題である.この課題を解決するために,一人称視点動画データセットから自動で擬似教師データセットを構築し,それを利用したモデルを提案する. 実験の結果,提案手法が先行研究のモデルと比べて優れた性能を示したことを報告する。 ## 1 はじめに 人間は物体のどの領域に,どのようにインタラクションするべきかを理解しており,その知識を利用することで安全に,かつ効率的に作業を行うことができる.例えば,ドアを開けようとする際には,ノブに触れそれを回転させることにより達成する。こうした人間と物体間のインタラクションは短いテキストとして表すことが可能であり,それらで条件づけられた行動のために,視覚中のどの領域に,どのようにインタラクションするべきかを推論可能なモデルは,ロボット工学やヒューマンコンピュータインタラクションの領域において有用なツールになると思われる。 近年,Gibson [1] が提案した,環境が動物に提供する行動の可能性を表すアフォーダンスの概念をロ (a) 先行研究 (b) 提案手法図 1 テキスト駆動型視覚的アフォーダンス学習. ボットに適用する試みが盛んに行われており,これらの試みは視覚的アフォーダンス学習課題として定式化されている $[2,3,4,5,6,7]$. 視覚的アフォーダンス学習とは, 図 1 (左)に示されるように,入力画像(もしくは動画)中の物体に対して,インタラクションすべき領域を局限する課題である.先行研究 $[2,3]$ では,主に把持に焦点が当てられており, いくつかの研究によって,それらがロボットに応用可能であることが示されている $[8,9]$. 先行研究により,把持などの手と物体間のインタラクションにおいてアフォーダンスの学習が有効であることが示された一方で,手で把持された道具と物体間のインタラクション $[5,6]$ や目的に応じたインタラクションなどのより高次なアフォーダンス学習が次の問題となっている。 本研究では,この問題を解決するためにテキスト駆動型視覚的アフォーダンス及び軌跡の学習を提案する。この課題は,図1(右)に示されるように,テキストで表現された様々な行動に対して,それを達成するために,画像中のどの領域に,どのような方法でインタラクションするべきかを学習することを目的とした課題である。この課題の解決のために, 図 2 自動で擬似教師データを作成するための手法(左)及び,モデルの概要(右). 大規模な一人称視点動画データセットから自動で擬似教師データを作成する手法及び,構築したデータセットを利用したモデルを提案する. 実験の結果,提案手法が先行研究におけるモデルと比べて優れた性能であることが確認できた. ## 2 テキスト駆動型視覚的アフォーダ ンス及び軌跡の学習 テキスト駆動型視覚的アフォーダンス学習は, テキストで表現された様々な行動に対して,それを達成するために,画像中のどの領域に,どのような方法でインタラクションするかを学習することを目的とした課題であり,領域は確率分布,方法は軌跡として表現される.この課題の解決のためのデータを人手で作成するには,多くの時間と費用を必要とするため,本研究では自動で擬似教師データを作成する手法を提案する。手法の流れを図 2 (左)に示す. ## 2.1 擬似教師データの作成 大規模一人称視点動画データセット $[10,11]$ には,短いクリップ内の撮影者の行動を表す短いテキスト及び,それらの行動の開始時刻 $t_{o b s}$ と終了時刻 $t_{\text {inter }}$ が付与されている1). 各 $t_{\text {obs }}, t_{\text {inter }}$ に対応する画像フレームを $F_{o b s}, F_{\text {inter }}$ と表記する。 インタラクションの分類. 人間と物体間のインタラクションの種類は大きく, “手と物体間のインタラクション(HOI)”あるいは“道具と物体間のインタラクション(TOI)”に分類可能である.HOI は,手が対象の物体と接触するインタラクションを 1)Ego4D [10] は下流タスクである Short-term action acticipation 課題のためのデータセットを利用した.表し,TOI は,把持された道具が対象の物体と接触するインタラクションを表す. 各クリップがどちらに属すかの分類,さらに TOI の場合は利用されている道具を特定することを狙いとする。これを達成するために,あるクリップとその過去のクリップに付与されているテキスト列を入力として,大規模言語モデル,LLaMA2 [12]を利用する。 適切な出力を得るために,システムプロンプトを与え,数例のサンプルを提示する.プロンプトの詳細は付録 A. 1 に添付する。 インタラクション領域の射影.短い動画クリップ内の隣接する 2 フレームの動きは基本的に小さいため,それらの関係はホモグラフィで表すことができる [13]. したがって,クリップ内の任意のフレーム同士の射影行列はその 2 フレーム間中のフレームらの射影行列を掛け合わせることによって得られる. SURF [14] アルゴリズムを用いて二つのフレーム間の特徴点マッチングを行い,4 つの特徴点ペアをサンプリングし, RANSAC [15] を適用することで $F_{\text {obs }}$ と $F_{\text {inter }}$ 間の射影行列を取得する。次に,任意のテキストを受け付ける物体検出モデル2)を利用し, $F_{\text {inter }}$ フレーム中のインタラクションしている物体(道具もしくは手)のセグメンテーションマスクを取得する.得られたセグメンテーションマスクは,計算した $F_{\text {obs }}$ と $F_{\text {inter }}$ 間の射影行列により, $F_{o b s}$ へと射影される。 軌跡の射影.点追跡モデルである CoTracker [16] を利用し, $F_{\text {inter }}$ 中のインタラクション領域に対し  lang-segment-anything 表 1 擬似テストセットにおける各ベースライン及び提案手法の結果. テキストの有無は,モデルが予測のためにテキスト情報を利用するかどうかを表す. て 0.5 秒間の領域追跡を行う。各フレームにおける追跡結果の座標平均を計算し,それらの点を,領域の射影と同様の手法によって, $F_{o b s}$ に射影する.操作の詳細は付録 A. 2 に添付する。 ## 2.2 モデル 前節で構築したデータセットを用いて,チャンネル数 $c$, 幅 $w$, 高さ $h$ からなる入力画像 $F_{o b s} \in \mathbb{R}^{c \times w \times h}$ と入力テキストに対し,インタラクションするべき領域 $P \in \mathbb{R}^{w \times h}$ 及び,軌跡 $L=\left.\{\left(x_{0}, y_{0}\right), \ldots,\left(x_{n}, y_{n}\right)\right.\}$ を生成する. 図1(右)に示されるように,モデルは MDETR [17] における最終層の出力を利用し, $P$, $L$ を生成する. MDETR は Transformer [18] を利用した物体検出器である DETR [19] をテキストを受け付けるように拡張したモデルであり, 物体検出及び物体セグメンテーションが可能なモデルである.領域予測では,セグメンテーション課題 [20] のためにファインチューニングされた MDETR を利用し, 目的関数 $L_{r e g}$ をバイナリ交差エントロピーとする. 軌跡予測では, 各入力座標は先行研究に倣い,線形層から成る座標エンコーダを介して高次の特徵量に変換される [21]. また,始点は領域 $P$ の中心座標とし, その後の軌跡を学習する. 各座標は MDETR から得られる特徴量を相互注意機構を介して,Transformer デコーダによって再帰的に生成される. 目的関数 $L_{t r a j}$ は二乗誤差とする. 訓練時は,損失を $L=L_{r e g}+\lambda L_{t r a j}$ として同時学習を実施する.また,入はハイパーパラメータである. ## 3 実験 ## 3.1 実験設定 データセット・擬似教師データを作成するための一人称視点動画データセットとして Ego4D [10] を利用した. これにより 75,655 件の擬似データの作成を行い,それらを 69,655 件の教師データ,3,000件の検証データ,3,000 のテストデータに分割した. 評価指標. 領域推定では,先行研究や顕著性マップ推定にて一般的に利用される評価指標である,Pearson's correlation coefficient (CC), Similarity metrics (Sim) [22] 及び AUC-Judd (AUC-J) [23]を利用した [2,13]. また, Kullback-Leibler divergence は分布の裾野に敏感であるであるため利用しない [24]. 軌跡推定では, 先行研究にて一般的に利用される評価指標である,Average displacement error (ADE) 及び Dynamic time warping (DTW) [25]を利用した. さらに,座標シーケンス間の偏角を評価する Direction similarity metrics (D-Sim) を利用した. 各指標の詳細は付録 B に添付する. ベースライン. 視覚的アフォーダンス学習課題に取り組んだ先行研究のモデルである, VRB [8], Hotspots [2] と比較を行う. どちらのモデルも言語を入力としてとらず,対象の物体のみが写っている画像に対して領域推定を行うモデルである.また,言語を介したモデルとの比較のために, Open-vocabrualy object detection において性能が最も優れている Grounding DINO [26] を利用したセグメンテーションモデルである Lang-SAM ${ }^{3)}$ と比較を行う. これらのモデルは領域予測におけるべースラインであり,軌跡予測におけるべースラインではないことを強調しておく. ベースラインの詳細は付録 C に添付する。 ## 3.2 結果 表 1 に,擬似テストセットにおける提案手法とベースラインの結果を示す. ヒートマップ推定では,どの評価指標においても提案手法がベースラインよりも優れていることが確認できる.また,領域予測,軌跡予測のどちらにおいてもテキスト情報なしで学習した提案手法の性能が,ありのときよりも  図 3 領域予測及び軌跡予測の例。(a),(b) は手と物体間のインタラクションの例であり,(c),(d) は道具と物体間のインタラクションの例を示す. 赤い線は軌跡を表し, 矢印は終点を表す. 低いことからテキスト中に表される行動を利用することが重要であることがわかる. セグメンテー ションモデルである Lang-SAM は,評価指標 CC において他のベースラインよりも優れている一方で, AUC-Jにおいては劣る結果となっている.これは,物体中の局所的な領域でなく物体全体に対して領域を予測しているため,偽陰性に敏感な AUC-Jにおいて低くなっていることが考えられる。 ## 3.3 生成例 前節において性能が優れていたべースラインである VRB と Lang-SAM 及び提案手法の生成例を図 3 に示す。また,ベースラインは領域予測のためのモデルであるため軌跡はない,手と物体間のインタラクションである (a),(b) では,ベースライン,提案手法ともに正しい領域を示していることが確認できる。一方で,道具と物体間のインタラクションである (c), (d) ではベースラインが道具や物体全体など予測に失敗しているのに対して,提案手法では道具がインタラクションするべき領域を予測できている. しかし, 予測された領域は広く, 改善の余地がある.また,Lang-SAM の領域はどの例においても物体全体にかかっており,前節で考察した AUC-Jが低くなっている原因が反映されている. 軌跡予測については,正解データの軌跡と比較して方向のずれは大きくないものの,始点のずれが目立つことが確認できる.始点のずれは領域予測の結果によるものであるため,改善のためには領域予測の精度を向上させる必要がある. ## 4 おわりに 本研究では,新規の課題であるテキスト駆動型視覚的アフォーダンス及び軌跡の学習を提案した.この課題の解決のために, 自動で擬似教師データを作成する手法を提案し擬似データセットを構築した. また,構築したデータセットを利用し,領域と軌跡を予測するためのモデルを提案した.実験の結果,先行研究における手法と比べて提案手法が優れた性能であることが確認できた. 今回の評価は擬似テストデータで行ったが,これはモデルが真に有用であることを示すためには不十分である. 今後の課題として,人手で作成したデータで評価を行うとともに,モデルの改良を行っていきたい. ## 謝辞 本研究は JST さきがけ JPMJPR20C2 および JSPS 科研費 JP22K17983, Microsoft Accelerate Foundation Models Research の支援を受けたものです. ## 参考文献 [1] James J Gibson. The ecological approach to visual perception: classic edition. Psychology press, 2014. [2] Tushar Nagarajan, Christoph Feichtenhofer, and Kristen Grauman. Grounded human-object interaction hotspots from video. In ICCV, 2019. [3] Gen Li, Varun Jampani, Deqing Sun, and Laura SevillaLara. Locate: Localize and transfer object parts for weakly supervised affordance grounding. In CVPR, 2023. [4] Kuan Fang, Te-Lin Wu, Daniel Yang, Silvio Savarese, and Joseph J. Lim. Demo2vec: Reasoning object affordances from online videos. In CVPR, 2018. [5] Austin Myers, Ching L Teo, Cornelia Fermüller, and Yiannis Aloimonos. Affordance detection of tool parts from geometric features. In ICRA, 2015. [6] Zecheng Yu, Yifei Huang, Ryosuke Furuta, Takuma Yagi, Yusuke Goutsu, and Yoichi Sato. Fine-grained affordance annotation for egocentric hand-object interaction videos. In WACV, 2023. [7] Lorenzo Mur-Labadia, Jose J. Guerrero, and Ruben Martinez-Cantin. Multi-label affordance mapping from egocentric vision. In ICCV, 2023. [8] Shikhar Bahl, Russell Mendonca, Lili Chen, Unnat Jain, and Deepak Pathak. Affordances from human videos as a versatile representation for robotics. In CVPR, 2023. [9] Toan Nguyen, Minh Nhat Vu, An Vuong, Dzung Nguyen, Thieu Vo, Ngan Le, and Anh Nguyen. Open-vocabulary affordance detection in 3d point clouds. In IROS, 2023. [10] Kristen Grauman, Andrew Westbury, Eugene Byrne, Zachary Chavis, Antonino Furnari, Rohit Girdhar, Jackson Hamburger, Hao Jiang, Miao Liu, Xingyu Liu, et al. Ego4d: Around the world in 3,000 hours of egocentric video. In CVPR, 2022. [11] Dima Damen, Hazel Doughty, Giovanni Maria Farinella, Sanja Fidler, Antonino Furnari, Evangelos Kazakos, Davide Moltisanti, Jonathan Munro, Toby Perrett, Will Price, and Michael Wray. Scaling egocentric vision: The epickitchens dataset. In ECCV, 2018. [12] Hugo Touvron, Louis Martin, Kevin Stone, Peter Albert, Amjad Almahairi, Yasmine Babaei, Nikolay Bashlykov, Soumya Batra, Prajjwal Bhargava, Shruti Bhosale, et al. Llama 2: Open foundation and fine-tuned chat models. arXiv preprint arXiv:2307.09288, 2023. [13] Shaowei Liu, Subarna Tripathi, Somdeb Majumdar, and Xiaolong Wang. Joint hand motion and interaction hotspots prediction from egocentric videos. In CVPR, 2022. [14] Herbert Bay, Andreas Ess, Tinne Tuytelaars, and Luc Van Gool. Speeded-up robust features (surf). Computer vision and image understanding, Vol. 110, No. 3, 2008 . [15] Martin A. Fischler and Robert C. Bolles. Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography. Commun. ACM, Vol. 24, No. 6, 1981. [16] Nikita Karaev, Ignacio Rocco, Benjamin Graham, Natalia Neverova, Andrea Vedaldi, and Christian Rupprecht. Cotracker: It is better to track together. arXiv:2307.07635, 2023. [17] Aishwarya Kamath, Mannat Singh, Yann LeCun, Gabriel Synnaeve, Ishan Misra, and Nicolas Carion. Mdetr - modulated detection for end-to-end multi-modal understanding. In ICCV, 2021. [18] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, NeurIPS, Vol. 30, 2017. [19] Nicolas Carion, Francisco Massa, Gabriel Synnaeve, Nicolas Usunier, Alexander Kirillov, and Sergey Zagoruyko. End-to-end object detection with transformers. In ECCV, 2020. [20] Chenyun Wu, Zhe Lin, Scott Cohen, Trung Bui, and Subhransu Maji. PhraseCut: Language-based Image Segmentation in the Wild. In CVPR, 2020. [21] Francesco Giuliari, Irtiza Hasan, Marco Cristani, and Fabio Galasso. Transformer networks for trajectory forecasting. In ICPR, 2021. [22] Michael J Swain and Dana H Ballard. Color indexing. International journal of computer vision, Vol. 7, No. 1, 1991. [23] Tilke Judd, Krista Ehinger, Frédo Durand, and Antonio Torralba. Learning to predict where humans look. In ICCV, 2009. [24] Zoya Bylinskii, Tilke Judd, Aude Oliva, Antonio Torralba, and Frédo Durand. What do different evaluation metrics tell us about saliency models? PAMI, Vol. 41, No. 3, 2019. [25] Dynamic time warping. Information Retrieval for Music and Motion, 2007. [26] Shilong Liu, Zhaoyang Zeng, Tianhe Ren, Feng Li, Hao Zhang, Jie Yang, Chunyuan Li, Jianwei Yang, Hang Su, Jun Zhu, et al. Grounding dino: Marrying dino with grounded pre-training for open-set object detection. arXiv preprint arXiv:2303.05499, 2023. [27] Dandan Shan, Jiaqi Geng, Michelle Shu, and David F. Fouhey. Understanding human hands in contact at internet scale. In CVPR, 2020. [28] Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. In ICLR, 2013. ## A 擬似教師データ作成の詳細 ## A. 1 インタラクションの分類 大規模言語モデルはオープンソースであり,高い性能を持つ LLaMA2-60B [12]を利用した。また,システムプロンプトは, “<<SYS>> Please analyze the provided sequence of actions, focusing primarily on the last action to determine the tool for the interaction. Context from previous actions can be considered if necessary to fully understand the last action. Sequence of actions: ['action1', 'action2', 'action3', ...] 《</SYS>》 とし, 3 つの例を生成前に提示した. ## A. 2 領域・軌跡の射影 $F_{\text {obs }}$ から $F_{\text {inter }}$ までの射影行列を取得するために, hand-object detector [27]をクリップ中の各フレー ムに対して適用した。これにより,各フレーム中の手の矩形領域と,その手が触れている物体の矩形領域が得られる.これらは射影行列の計算時にマスクする領域として利用され,これを利用することで,射影結果のずれを軽減させる.射影後のセグメンテーションマスクを領域として表現するために,混合ガウスモデル(GMM)を得られたセグメンテー ションマスクに適用し, GMM からサンプリングした点にガウシアンぼかしを適用することで,領域として取得した. これらの作業により,射影結果のずれを緩和させることが期待できる。 ## B 評価指標の詳細 領域推定では: - Pearson's Correlation Coefficient (CC): 2 つの分布間の相関を測定したもの. - Similarity Metrics (Sim): 2 つの確率分布間の類似度を測る計算したものであり,2つの確率分布間の各座標における最小値を取り,それらを合計で計算される. - AUC-Judd (AUC-J): Area of Under Curve (AUC) 指標の派生であり,異なる閾値における 2 つの分布の一致率を計算したもの. を利用した。 軌跡推定では: - Average Displacement Error (ADE): 2 つの座標シー ケンス中の各座標における二乗誤差の平均. - Dynamic Time Warping (DTW): 2 つの座標シーケンス間の距離を,総当たりで計算し,最小となる組み合わせの絶対誤差を計算したもの. - Direction Similarity Metrics (D-Sim): 座標シーケンスを各座標間の偏角シーケンスに変換し,変換後の 2 つのシーケンスのコサイン類似度を計算したもの. を利用した。 ## C ベースラインの詳細 実験ではベースラインとして, VRB [8], Hotspots [2], Lang-SAM ${ }^{4}$ と比較を行った. VRB と Hotspots は,対象の物体のみが写っている画像に対して領域予測をするモデルであるため,入力テキスト中の物体名を $\mathrm{spaCy}^{5}$ を用いて抽出し,その結果を Lang-SAM に入力することにより,画像中の対象の物体の矩形領域を抽出し,対象の物体のみが写る画像を取得した. また,Hotspots は,事前に定義された数種類の行動ラベルを指定することで,その行動に対応する領域を出力するモデルであるため,入カテキスト中の動詞を抽出後,Word2Vec [28]を用いて, Hotspots の持つ最も類似度が高いラベルに置き換えることで推論を行った。 
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-16.pdf
# PORTER: 最適輸送を用いた Polygon Matching に基づく参照表現セグメンテーション 九曜克之 飯岡雄偉 杉浦孔明 慶應義塾大学 \{katsukuyo, kmngrd1805, komei.sugiura\}@keio.jp ## 概要 自然言語による指示で生活支援ロボットが操作できれば便利であるが,現状,生活支援ロボットの命令文理解性能は十分ではない,そこで,本研究では,複数の参照表現を含む命令文および画像から動作対象の物体のマスクを予測するタスクを扱う.既存研究では,頂点の順番は異なるが同じ多角形を表す場合を区別して扱っているため,正解と近い多角形を予測しているにも関わらず,異なる多角形と判断してしまい,不適切な学習を促してしまうという問題がある。そこで本論文では,複雑な参照表現を含む命令文から対象物のマスクを生成するセグメンテーションモデルを提案する. 本手法の新規性は,最適輸送を用いた Polygon Matching Loss の導入である。命令文,室内環境の画像,対象物のマスクで構成されるデータセットによる評価の結果,提案手法は標準的な評価尺度である mean IoU において, ベースライン手法を 10.41 ポイント上回った. ## 1 はじめに 現代社会で高齢化が進む中,日常生活における介助支援の重要性が高まっているが,その介助を担う在宅介助者は不足している。この解決策として, 被介助者に物理的な支援が可能な生活支援ロボットが注目されている [1]. 生活支援ロボットは,被介助者からの自然言語による指示で物体の把持や移動に関する操作を行うことが期待されている. しかし,現状ではその命令文理解性能は不十分である [2]. 本研究では,物体操作に関する命令文が与えられた際,対象物のマスクを生成する Object Segmentation from Manipulation Instructions (OSMI) タスクを扱う。例えば,"Go into the living room and give me the pillow nearest the plant." という命令文が与えられたとき,植物に最も近い枕のマスクを生成することが望まし Instruction : "Go into the living room and give me the pillow nearest the plant." 図 1: OSMI タスクの具体例 い. 本タスクはロボットによる物体把持において重要である。なぜなら,ロボットが物体を把持する場面では,その形状や位置を特定することが重要であり,マスクによる把持物体の領域予測のほうが,矩形領域による予測よりも望ましいからである。 OSMI タスクと関係が深いタスクとして, Referring Expression Segmentation (RES)タスク [3] がある. RES タスクに比べ,本研究で扱う OSMI タスクでは,ナビゲーション命令から始まる 2 文以上の命令文が多く,対象物を修飾する文が複数含まれている場合があり,単純な RES タスクよりも困難である.例えば,複数の物体の上にキャンドルがおいてある画像に対して,命令文 “Go to the table. And pick up the candle on the right.” が与えられているとする. その際,“the candle on the right” のみでは対象物体を特定できない可能性がある。この例では,“the table" が対象物を間接的に修飾しているため,その表現の理解が重要になる. RES タスクを扱う既存研究は多く存在する [4-8]. しかし,これらの既存手法では,部分的なマスクしか生成されない場合や,複雑な参照表現を理解できず,対象と同カテゴリの異なる物体のマスクを生成する場合があるため,OSMI タスクのためのモデル としては不十分である. 多角形に基づくマスクを用いて予測する手法である SeqTR [7] は, 対象物を表す多角形の頂点を予測するため,画素単位でマスクを予測する手法よりも断片的なマスクを生成する可能性は低い. しかし,頂点の順番は異なるが同じ多角形を表す場合を区別して扱っているため,正解と近い多角形を予測しているにも関わらず,異なる多角形と判断し,非効率的な学習を促してしまう問題がある。 そこで,本研究では複雑な参照表現を含む命令文から対象物のマスクを生成するセグメンテー ションモデル Polygon Optimal tRansport TransformER (PORTER) を提案する. 既存手法との主要な違いは,最適輸送を用いた Polygon Matching Loss 導入する点である.これにより, 予測マスクの頂点順序に関係なく正解マスクに近づくような学習が期待される. 本研究の独自性は以下である. ・多角形において頂点の順番が異なっても同じ多角形を表す場合を扱うために,最適輸送を用いた Polygon Matching Loss を導入する。 -大規模言語モデルを用いて,命令文に対して対象物に関する修飾関係を明瞭にする言い換えを行う Paraphraserを導入する。 ## 2 問題設定 本研究で扱う OSMI タスク [6] では, 命令文が指す対象物に対して,マスクを生成することが望ましい。図 1 に本タスクの具体例を示す. 例えば,“Go into the living room and give me the pillow nearest the plant." という命令文が与えられた際,紫色の領域で示すマスクの生成を目標とする。 入力は画像および命令文である. 出力は対象物に対するマスクである. 本研究では,対象物は 1 つであることを前提とする。評価尺度として,RES において標準的である mean IoU(mIoU), Precision@k(P@k)を用いる. ## 3 提案手法 提案手法は多角形に基づくマスクを扱う手法 [7] を拡張した,OSMI タスクを扱うモデルである。既存手法では,頂点の順番が異なるが同じ多角形を表す場合を考慮していない。このような場合に対応するため, 提案手法は最適輸送に基づく Polygon Matching Loss を導入する.これは,頂点集合以外の 図 2: 提案手法のネットワーク構造. 追加情報を必要としないため,提案手法は既存の多角形に基づくマスクを扱う手法一般に適用可能であると考えられる。 既存手法との主な違いは以下である. ・多角形において頂点の順番が異なっても同じ多角形を表す場合を扱うために,頂点集合全体として正解マスクに近づける最適輸送に基づく Polygon Matching Loss を導入する。 ・大規模言語モデルを用いて,命令文に対して対象物に関する修飾関係を明瞭にする言い換えを行う Paraphraserを導入する。 図 2 に提案手法のモデル構造を示す. 提案手法は大きく分けて Paraphraser, Image Encoder および Optimal Transport Vertex Predictor の 3 つのモジュー ルから構成される. ネットワークの入力 $x$ は $x=\left.\{x_{\text {img }}, x_{\text {inst }}\right.\}$ である. ここに, $\boldsymbol{x}_{\text {img }} \in \mathbb{R}^{H \times W \times 3}, \boldsymbol{x}_{\text {inst }} \in\{0,1\}^{v \times l}$ はそれぞれ画像,命令文を表す。また, $H, W, v$ および $l$ はそれぞれ画像の高さ,幅,命令文の語彙サイズおよび最大トークン数を表す。 ## 3.1 Paraphraser OSMI タスクでは,対象物を修飾する文が複数含まれている場合があるが,既存手法はこのような場合を考慮していない。そのため,Paraphraser は命令文に対して対象物に関する修飾関係を明膫にする言い換えを行う,入力は $\boldsymbol{x}_{\text {inst }}$ であり,出力は言い換えを行った命令文 $\boldsymbol{x}_{\mathrm{p} \text {-inst }}$ である. 本モジュールでは,大規模言語モデルである gpt-3.5-turbo [9] を用いる.例として, $x_{\text {inst }}$ が “Go to the dining table. Then pick up the candle on the right.” であるとき,gpt-3.5-turbo から “\#Pick up the right candle on the dining table.\#" とい う文を得る.次に文頭と文末の “\#”を除去することで,最終的に $\boldsymbol{x}_{\text {p-inst }}$ として "Pick up the right candle on the dining table." を得る. その後, OpenAI が提供する text-embedding-ada-002 [10] を用いて $\boldsymbol{x}_{\text {p-inst }}$ から言語特徵量 $L \in \mathbb{R}^{C}$ を抽出した. ここに $C$ は $L$ の次元数を示す. ## 3.2 Image Encoder 実世界のオブジェクトについて,単一の解像度で特徵を抽出するだけでは,小さなオブジェクトや遠くのオブジェクトに対する性能が劣化する場合がある. Image Encoder では,このような場合を扱うために, 異なる解像度を組み合わせて画像特徵の抽出を行う.本モジュールは,DarkNet-53 [11] に基づく疊み込みネットワークで構成される。入力は $x_{\mathrm{img}}$ であり, 出力は解像度の違う $M_{V}$ 種類の中間層における画像特徴量 $\left.\{V_{i}\right.\}_{i=1}^{M_{V}}$ である. ここに $V_{i} \in \mathbb{R}^{H_{i} \times W_{i} \times C_{i}}$ であり, $H_{i}, W_{i}, C_{i}$ は $V_{i}$ の画像サイズおよびチャネル数を示す. 得られた $V_{i}$ に畳み込みを行い,チャネル方向に結合することで,最終的な画像特徵量 $V \in \mathbb{R}^{H_{V} \times W_{V} \times C_{V}}$ を得る. $L$ および $V$ からマルチモーダル特徴量 $h_{M M}=\tanh (V) \odot \tanh (L)$ を得る. ただし,。は要素ごとの乗算を表す. ## 3.3 Optimal Transport Vertex Predictor 多角形に基づくマスクを扱う既存手法 $[7,8]$ では,頂点の順番が異なっても同じ多角形を表す場合を考慮できていない. Optimal Transport Vertex Predictor (OTVP) では,このような場合を扱うために最適輸送を用いてマッチングを行い,多角形の頂点を予測する。このような場合を扱うために最適輸送を用いてマッチングを行い,多角形の頂点を予測する. OTVPは, $h_{M M}$ および頂点の埋め込み表現 $E$ を入力とし,予測マスクの頂点集合を $\hat{y}=\left.\{\hat{v}_{i} \in \mathbb{R}^{2}\right.\}_{i=1}^{M}$ 形を構成する頂点の座標および頂点数を表す。 OTVP は transformer encoder および transformer decoder で構成される. transformer encoder は $n_{\mathrm{enc}}$ 層の transformer layer から構成される。 $h_{M M}$ を transformer encoder に入力し, $h_{\mathrm{enc}} \in \mathbb{R}^{H_{M M} W_{M M} \times d_{\mathrm{enc}}}$ が得られる. ここで, $d_{\text {enc }}$ は次元数を示す. transformer decoder は $n_{\mathrm{dec}}$ 層の transformer layer から構成される. $h_{\mathrm{dec}}$ 及び $E$ を transformer decoder に入力し, $h_{\mathrm{dec}} \in \mathbb{R}^{2 M \times d_{\mathrm{dec}}}$ が得られる. ここで, $d_{\mathrm{dec}}$ は次元数を示す. 最終的に, $h_{\mathrm{dec}}$ に線形変換を行うことで $\hat{y}$ が得られる.表 1: 各手法における定量的結果. 提案する最適輸送に基づくポリゴンマッチングでは,予測マスクの頂点集合と正解マスクの頂点集合とのマッチングのために最適輸送問題を解く. すなわち, 予測マスクの頂点集合 $\hat{y}$ と正解マスクの頂点集合 $y=\left.\{\boldsymbol{v}_{\boldsymbol{i}} \in \mathbb{R}^{2}\right.\}_{i=1}^{M}$ の2つが与えられたとき, 最小の輸送コストで $\hat{y} を y$ に移動させる輸送計画を求める. $\hat{y}$ および $y$ を 2 の離散分布 $\alpha=\sum_{i=1}^{M} a_{i} \delta_{\hat{v}_{i}}$ および $\beta=\sum_{j=1}^{M} \boldsymbol{b}_{j} \delta_{\boldsymbol{v}_{j}}$ とみなす. ここに, $\delta_{\boldsymbol{v}_{i}}$ は $\boldsymbol{v}_{i}$ を中心とするディラックのデルタ関数を表す。重みべクトル $\boldsymbol{a}$ および $\boldsymbol{b}$ は, $\sum_{i=1}^{M} \boldsymbol{a}_{i}=\sum_{j=1}^{M} \boldsymbol{b}_{j}=1$ を満たす.このとき, $\hat{y} と y$ の間の最小輸送コスト,すなわち $\mathscr{L}_{\mathrm{OT}}$ は次のように定義される. $ \mathscr{L}_{\mathrm{OT}}=\min _{\boldsymbol{P} \in \mathcal{U}(\boldsymbol{a}, \boldsymbol{b})} \sum_{i=1}^{M} \sum_{j=1}^{M} C\left(\hat{\boldsymbol{v}}_{i}, \boldsymbol{v}_{j}\right) \boldsymbol{P}_{i j} $ ここに, $ \begin{aligned} & \mathcal{U}(\boldsymbol{a}, \boldsymbol{b})= \\ & \left.\{\boldsymbol{P} \in \mathbb{R}^{M \times M} \mid \boldsymbol{P}_{i j} \geq 0, \boldsymbol{P} \mathbf{1}_{M}=\boldsymbol{a}, \boldsymbol{P}^{\top} \mathbf{1}_{M}=\boldsymbol{b}\right.\} \end{aligned} $ であり, $C$ および $\boldsymbol{P}_{i j}$ は $\hat{v}_{i}$ から $\boldsymbol{v}_{i} へ$ の輸送コストおよび輸送計画である. また, $\mathbf{1}_{M}$ は成分が全て 1 である $M$ 次元べクトルを表す. $C$ は $C\left(\hat{v}_{i}, v_{j}\right)=\left.\|\hat{v}_{i}-v_{j}\right.\|_{2}$ (1)を効率的に計算するためにエントロピー正則化を行い, Sinkhorn アルゴリズム [12]を用いる. ## 4 実験設定 本研究では,SHIMRIE データセット [6] に基づき, SHIMRIEv2データセットを構築した. SHIMRIE データセットには,指示文,対象物に関連する画像,対象物の画素単位のマスクが含まれている. SHIMRIEv2データセットを構築したのは, SHIMRIE データセットには次の 2 つの問題があるためである. (i) 多角形に基づくマスクが必要である. (ii)SHIMRIE データセットには,十分な精度のマスクを持たないサンプルが含まれている. (i) の問題に対して,SHIMRIEv2 データセットでは画素単位のマスクに加えて多角形に基づくマスクを導入した. (ii) の問題に対して,この原因は SHIMRIE デー タセットが Matterport3D データセット [13] に含まれ "Take down the photo collage of flowers above the black shelf stand in the hallway with a basket of sports balls."図 3: 成功例の定性的結果. (a) LAVT [4], (b) MDSM [6], (c) 提案手法, (d) 正解マスク画像. るボクセルレベルのクラス情報と,REVERIE デー タセット [2] に含まれる対象物を囲む矩形領域を用いて,半自動的に対象物の 2 次元セグメンテーションマスクを抽出していたためだと考えられる。そこで,SHIMRIEv2 データセットでは手動で精緻化したマスクを導入した。 SHIMRIEv2 データセットには,4,341 枚の画像に対応する,11,371 の命令文および対象物のマスクのペアが含まれている. 命令文の語彙サイズは 3,558,全単語数は 196,541 語, 平均文長は 18.8 である. 本研究では, 計算量削減のため, $640 \times 480$ の元画像を $256 \times 256$ にリサイズした. ## 5 実験結果 ## 5.1 定量的結果 表 1 に MDSM [6], LAVT [4] と提案手法との比較に関する定量的結果を示す. 各スコアは,5回実験における平均值および標準偏差を表す. ベースライン手法として, LAVT [4] および MDSM [6] を使用した. LAVT は OSMI タスクと関連の深いRES タスクにおいて,MDSM はOSMI タスクにおいて良好な結果が得られているモデルであるためべースライン手法として選択した。 評価尺度には,mIoU,Precision@ $k(\mathrm{P} @ k)$ を用い いRES タスクにおける標準的な尺度であるため使用した。また,本実験の主要尺度は $\mathrm{mIoU}$ とした。 表 1 より, 主要尺度である mIoUにおいて, MDSM, LAVT および提案手法はそれぞれ 24.36, 28.16 および 38.57 であり, 提案手法は MDSM より 14.21 ポイント, LAVT より 10.41 ポイント上回った. さらに, P@ 0.5 および $\mathrm{P} 0.7$ においても提案手法は MDSM, LAVT を上回る性能であった. 以上より, 提案手法 が最も良好な性能であったといえる. 主要尺度の mIoU において LAVT と提案手法の性能差は統計有意であった $(p<0.05)$. ## 5.2 定性的結果 図 3 に定性的結果を示す. 図において,(a), (b), (c) および (d)はそれぞれ,LAVTの予測マスク,MDSM の予測マスク,提案手法の予測マスクおよび正解マスクを示す. 図 3 における命令文は, “Take down the photo collage of flowers above the black shelf stand in the hallway with a basket of sports balls.”であり,対象物は画像の右側にある花のコラージュ写真である. LAVT および MDSM では,写真の一部のマスクのみを生成しており,さらに,誤って隣の展示物のマスクを生成している.それに対して,提案手法では正確に花のコラージュ写真のマスクを生成している. ## 6 おわりに 本研究では,物体操作に関する命令文の対象物のマスクを生成するOSMI タスクを扱った. 本研究の貢献は以下である. - 多角形において頂点の順番が異なっても同じ多角形を表す場合を扱うために,最適輸送を用いた Polygon Matching Loss を提案した. ・大規模言語モデルを用いて,命令文に対して対象物に関する修飾関係を明瞭にする言い換えを行う Paraphraser を提案した。 ・本タスクと関連の染いRES タスクにおいて標準的な評価尺度である mIoU,Precision@ $k$ について,提案手法がベースライン手法を上回った. 将来研究として,実機による物体把持タスクへの適用が挙げられる。 ## 謝辞 本研究の一部は,JSPS 科研費 $23 \mathrm{H} 03478$ ,JST ムー ンショット,NEDO の助成を受けて実施されたもの である. ## 参考文献 [1] Takashi Yamamoto, et al. Development of Human Support Robot as The Research Platform of A Domestic Mobile Manipulator. ROBOMECH, Vol. 6, No. 1, pp. 1-15, 2019. [2] Yuankai Qi, Qi Wu, Peter Anderson, et al. REVERIE: Remote Embodied Visual Referring Expression in Real Indoor Environments. In CVPR, pp. 9982-9991, 2020. [3] Ronghang Hu, Marcus Rohrbach, and Trevor Darrell. Segmentation from Natural Language Expressions. In ECCV, pp. 108-124, 2016. [4] Zhao Yang, Jiaqi Wang, et al. LAVT: Language-Aware Vision Transformer for Referring Image Segmentation. In CVPR, pp. 18155-18165, 2022. [5] Peng Wang, et al. OFA: Unifying Architectures, Tasks, and Modalities Through a Simple Sequence-to-Sequence Learning Framework. In ICML, pp. 23318-23340, 2022. [6] Yui Iioka, Yu Yoshida, et al. Multimodal Diffusion Segmentation Model for Object Segmentation from Manipulation Instructions . In IEEE IROS, pp. 7590-7597, 2023. [7] Chaoyang Zhu, Yiyi Zhou, Yunhang Shen, et al. SeqTR: A Simple yet Universal Network for Visual Grounding. In ECCV, pp. 598-615, 2022. [8] Jiang Liu, Hui Ding, Zhaowei Cai, Yuting Zhang, et al. PolyFormer: Referring Image Segmentation as Sequential Polygon Generation. In CVPR, pp. 18653-18663, 2023. [9] https://platform.openai.com/docs/models/ gpt-3-5. [10] https://platform.openai.com/docs/models/ embeddings. [11] Joseph Redmon and Ali Farhadi. YOLOv3: An Incremental Improvement. arXiv preprint arXiv:1804.02767, 2018. [12] Marco Cuturi. Sinkhorn Distances: Lightspeed Computation of Optimal Transport. In NIPS, Vol. 26, pp. 22922300, 2013. [13] Angel Chang, Angela Dai, Thomas Funkhouser, et al. Matterport3D: Learning from RGB-D Data in Indoor Environments. In 3DV, pp. 667-676, 2018. [14] Shagun Uppal, et al. Multimodal Research in Vision and Language: A Review of Current and Emerging Trends. Information Fusion, Vol. 77, pp. 149-171, 2022. [15] Tao Mei, et al. Vision and Language: from Visual Perception to Content Creation. APSIPA Transactions on Signal and Information Processing, Vol. 9, p. E11, 2020. [16] Rui Zhou, Cong Jiang, and Qingyang Xu. A Survey on Generative Adversarial Network-based Text-to-image Synthesis. Neurocomputing, Vol. 451, pp. 316-336, 2021. [17] Fei Chen, Du Zhang, et al. VLP: A Survey on Visionlanguage Pre-training. Machine Intelligence Research, Vol. 20, No. 1, pp. 38-56, 2023. [18] Jing Gu, Eliana Stefani, Qi Wu, et al. Vision-and-Language Navigation: A Survey of Tasks, Methods, and Future Directions. In ACL, pp. 7606-7623, 2022. [19] Yanyuan Qiao, et al. Referring Expression Comprehension: A Survey of Methods and Datasets. IEEE Transactions on Multimedia, Vol. 23, pp. 4426-4440, 2020. [20] Aishwarya Kamath, Mannat Singh, et al. MDETRModulated Detection for End-to-End Multi-Modal Understanding. In ICCV, pp. 1780-1790, 2021. [21] Aly Magassouba, et al. Understanding Natural Language Instructions for Fetching Daily Objects Using GAN-Based Multimodal Target-Source Classification. IEEE RA-L, Vol. 4, No. 4, pp. 3884-3891, 2019. [22] Shintaro Ishikawa and Komei Sugiura. Target-Dependent UNITER: A Transformer-Based Multimodal Language Comprehension Model for Domestic Service Robots. IEEE RA-L, Vol. 6, No. 4, pp. 8401-8408, 2021. [23] Mohit Shridhar and David Hsu. Interactive Visual Grounding of Referring Expressions for Human-Robot Interaction. In RSS, 2018. [24] Oier Mees, Alp Emek, et al. Learning Object Placements for Relational Instructions by Hallucinating Scene Representations. In IEEE ICRA, pp. 94-100, 2020. [25] Danny Driess, Fei Xia, Mehdi Sajjadi, Corey Lynch, et al. PaLM-E: An Embodied Multimodal Language Model. arXiv preprint arXiv:1804.02767, 2023. [26] Jonathan Ho, et al. Denoising Diffusion Probabilistic Models. In NeurIPS, Vol. 33, pp. 6840-6851, 2020. [27] Sahar Kazemzadeh, Vicente Ordonez, et al. ReferItGame: Referring to Objects in Photographs of Natural Scenes. In EMNLP, pp. 787-798, 2014. [28] Licheng Yu, Patrick Poirson, Shan Yang, Alexander Berg, and Tamara Berg. Modeling Context in Referring Expressions. In ECCV, pp. 69-85, 2016. [29] Junhua Mao, Jonathan Huang, Alexander Toshev, et al. Generation and Comprehension of Unambiguous Object Descriptions. In CVPR, pp. 11-20, 2016. [30] Tsung Lin, Michael Maire, et al. Microsoft COCO: Common Objects in Context. In ECCV, pp. 740-755, 2014. [31] Jun Hatori, et al. Interactively Picking Real-World Objects with Unconstrained Spoken Language Instructions. In IEEE ICRA, pp. 3774-3781, 2018. [32] Mohit Shridhar, Jesse Thomason, et al. ALFRED: A Benchmark for Interpreting Grounded Instructions for Everyday Tasks. In CVPR, pp. 10740-10749, 2020. ## A 付録 ## A. 1 関連研究 マルチモーダル言語処理に関する研究は広く行われている [14-18]. [19]では,参照表現理解タスクにおける各手法,標準データセット,標準評価尺度を包括的に紹介している. Referring Expression Comprehension (REC) は参照表現を含む文および画像を入力とし,その対象物の矩形領域を予測するタスクである. MDETR [20] はこのタスクを扱う代表的な手法であり,モデルの初期段階において画像と言語のモダリティを融合する機構を導入し,良好な結果を得ている. Referring Expression Segmentation (RES) は, REC と同様に対象物の領域を予測するが,対象物の矩形領域ではなくマスクを予測をするタスクである.LAVT [4] はこのタスクを扱う代表的な手法であり,画像特徴量を抽出する段階で, 注意機構を介して言語特徴量と融合した特徴量を抽出する. 近年では, 対象物を画素単位で予測するのではなく,対象物を表す多角形の頂点を予測することでRES を解くアプローチもが存在する $[7,8]$. 一方,生活支援ロボットの参照表現理解を目的として,物体操作の指示文から物体を特定する問題に取り組んだ研究も存在する [21-24]. [23,24] では,対話システムを導入することで指示文の曖昧さを取り除き,物体を特定する手法を提案している。 また, PaLM-E [25] では画像と言語を扱う大規模言語モデルを用いて指示文をもとにタスクの分解および実行を行う. [6] は OSMI タスクに初めて取り組んだ論文であり,OSMI の評価のための SHIMRIE データセットを作成し,二段階のセグメンテー ションモデルである MDSM を提案した. MDSM は, Encoder-Decoder モデルで生成したマスクに対し,DDPM [26] を用いて洗練を行っている. RES における標準的なデータセットとして RefCOCO [27], RefCOCO+ [28] および G-Ref [29] があげられる.これらはすべて MS COCO [30] から収集された画像に対して,自然言語表現でのアノテーションがされている. PFN-PIC [31] は画像および把持する対象物体に関する指示文から構成されるデータセットであり,約 20 種類の日用品を 4 つの箱に無作為に配置した物体に対する固定視点の画像を用いている. REVERIE データセット [2]表 2: Ablation Study における定量的結果. は Remote Embodied Visual Referring Expression in Real Indoor Environments (REVERIE) タスクを行うためのデータセットであり, 経路とその終着点にある物体に対して物体操作に関する命令文が与えられている. ALFRED [32] は,自然言語による命令文とロボットのカメラ画像から,家事タスクにおけるロボットの行動を訓練するためのベンチマークである. 提案手法は SeqTR [7] と異なり, 最適輸送を用いた多角形のマッチングによって対象物の予測を行う. ## A. 2 Ablation Studies 表 2 に,提案手法の ablation studies の定量的結果を示す. ablation 条件として以下の 2 つを定めた. - Polygon Matching Loss ablation $\mathscr{L}_{O T}$ を取り除き, $\mathscr{L}_{O T}$ の性能への寄与を調査した。表 2 より,モデル (i) における $\mathrm{mIoU}$ は 37.28 であり,モデル (iii)よりも 1.29 ポイン卜減少した. P@kにおいても同様に減少した. このことから, Polygon Matching Loss が性能向上に寄与しているといえる。これは, Polygon Matching Loss により,モデルが頂点の順序に関係なく,頂点集合全体として正解マスクに近づくように学習したためであると示唆される. - Paraphraser ablation Paraphraser を取り除くことで Paraphraser の有効性を調査した. 表 2 より,モデル (ii) における mIoU は 36.97 であり,モデル (iii)よりも 1.60 ポイント低かった. このことから, Paraphraser が指示文の修飾関係を明瞭にし,言語理解の向上を促したということが示唆される.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-17.pdf
# レストラン検索・予約サイトの投稿画像分類における マルチモーダルモデルの適用検証 柳沢勇気 株式会社カカクコム [email protected] ## 概要 レストラン検索・予約サイトの投稿画像を「料理」や「ドリンク」といった種別に分類することは,ユーザーが目的の写真を効率よく閲覧することに貢献する.大量の画像を人手で分類するのは多大な時間と労力を有するため, 自動分類モデルを用意するのが望ましい. しかし, 従来の教師あり学習モデルは学習データの作成にコストがかかる。 そこ で,大量の画像-テキストペアで事前学習されたマルチモーダルモデルを使うことで,学習データ作成にかかるコストを無くし, 画像をゼロショットで自動分類することを試みた. その結果, 複数の画像種別において実用的な分類性能を達成し, 人手による作業を大幅に削減できることを確認できた。 ## 1 はじめに レストラン検索・予約サイトにおいて, ユーザー が投稿した画像を「料理」や「ドリンク」といった種別ごとに分類することは, ユーザーが目的の写真を効率よく閲覧することに貢献する。 株式会社カカクコムが運営するレストラン検索・予約サイト「食ベログ」 [1] においては, ユーザ一が投稿した画像を「料理」,「ドリンク」,「メニュー」,「内観」,「外観」,「その他」の種別へ分類している。これにより, ユーザーは飲食店の画像を効率よく探すことができるようになる.食べログでは,日々大量の画像が投稿されており,これを 24 時間体制で適切な種別へ人手で分類している. 大量の画像を人手で分類するのは多大な時間と労力を有するため, 自動分類モデルを用意するのが望 ましい. 解決方法としては, 自前の学習データセッ卜(画像と画像に付与したいラベルがぺアになったデータを集めたもの)を使い,教師あり学習によって学習した自動分類モデルを利用する方法が考えられる。 しかし,これにはモデルを学習させるためのデー 夕を作成する工程に多大な時間と労力がかかる. 特に,実サービスにおける運用では,分類ラベルの追加・変更をすることがある.そのたびにデータの収集とラベリングを繰り返し実施する必要があるという問題がある。 そこで本研究では,大量の画像一テキストペアで学習したマルチモーダルモデルである Contrastive Language-Image Pre-training (CLIP) [2]を活用することで,モデルの学習にかかる時間や労力を抑えつつ,レストラン検索・予約サイトにおける投稿画像の人手での分類作業を削減することを試みた。その結果,複数の画像種別において実用的な分類性能を達成し,人手による画像分類の作業を大幅に削減できた. ## 2 導入方法 食べログでは,ユーザーが投稿した画像を 24 時間体制で適切な種別へ人手で分類している. 分類作業は, 品質向上の観点から 1 画像につき 2 回実施しており, 一次作業で種別の振り分け, 二次作業で再確認して確定という流れである. 人手での分類は高品質な分類を実現する一方で,多大な労力とコストを要する. 本研究では, CLIP によるゼロショット分類を導入し, 一次作業の振り分け作業を「人」から「CLIP での分類」に置き換える方法で人手による一次作業の削減を図った。な お,置き換えにあたっては,分類確度が高い結果のみを置き換える方針とした。分類確度が低い結果を置き換えると, 分類品質の低下や二次作業での修正増加を招くリスクがあるためである.本研究では,適合率(特定の種別に分類された画像全体のうち,実際にその種別に属している画像の割合)が $80 \%$以上の種別を人手での一次作業の対象から CLIP への分類に置き換える方針とした。 ## 導入前 ## 導入後 図 1 ゼロショット分類導入前後の比較 ## 3 実験 実際にユーザーが投稿した画像を評価データとして,各種別に分類できるかを評価する。また,提案手法に記載した一次作業の削減率も評価する. ## 3. 1 評価データセット 評価データセットは,実際にユーザーから投稿があった画像から 1 万枚をサンプリングしたものを使用した. 種別ごとのデータ数は以下のとおりである. - 料理: 6,365 件 $(63.7 \%)$ ・ ドリンク: 636 件 $(6.4 \%)$ - メニュー: 1,002 件 $(10.0 \%)$ - 内観: 233 件 $(2.3 \%)$ - 外観: 603 件 $(6.0 \%)$ - その他: 1,161 件 $(11.7 \%)$ カッコ内は評価データ全体に対する比率を指しており,これは実際の投稿実績と同等である. 評価デ一タの画像の正解種別は人手で付与した種別を使用した. なお, 学習データはゼロショット学習のモデルを採用しているため不要である. ## 3. 2 分類手法 CLIP による投稿画像のゼロショット分類の手法 (以下,本手法)についての概要を図 2 に示した. CLIP による投稿画像のゼロショット分類にあたっては,分類を行う画像および,分類先である各種別を説明する適切なテキスト(プロンプト)を用意する. 図 2 CLIP を使ったゼロショット分類 上記のプロンプトと画像に対し CLIP の Image Encoder と Text Encoderを使用して,個々のプロンプトと画像をそれぞれ特徴ベクトルに変換する。 画像の特徴ベクトルと各プロンプトの特徴ベクトルとの間のコサイン類似度を計算し,ソフトマックス関数を適用することで, 各プロンプトがその画像に対してどれだけ「適合しているか」という確率を得る. 画像と各プロンプトとの確率を画像がそのプロンプトで説明される種別に分類される確率とみなし, 最も高い確率値を示した種別に画像を分類する.ただし,種別ごとに閾値を設定しておき,確率値が「その他」カテゴリを除く全ての種別の閾値を下回る場合には画像は「その他」カテゴリに分類する. 使用した CLIP の事前学習済みモデルは, rinna 株式会社によって提供された japanese-cloob-vit-b-16 [3] である. このモデルは, Conceptual 12M [4] の 1,200 万の言語・画像ぺアのデータを日本語に翻訳し学習データとして使用している [5] . ## 3.3 プロンプト設計 本研究では, 日本語テキストで学習されたモデルを使用した。そのため,プロンプトも日本語テキストで準備した. プロンプトは,基本的に種別の名称をそのまま使用したが,2つの観点で工夫をした。 ## 3.3. 1 メニュー 「メニュー」に分類したいのは,料理やドリンクの名称と価格が記載された,いわゆる食事メニュー である.プロンプトを「メニュー」とした場合,食事メニューではない張り紙や看板などの画像が,「メニュー」に分類されてしまう傾向があった.これらの画像は「その他」種別へ分類したい. そこで本研究では,プロンプトを「フードメニュー」に修正し, 張り紙や看板などの画像と食事メニューが同じ種別に分類される確率が下がるよう工夫した. ## 3. 3.2 その他 「その他」は,「料理」,「ドリンク」,「メニユー」,「内観」,「外観」のどれにも該当しない画像を分類する.「その他」へ分類する画像は多岐に渡るため,プロンプトを網羅的に設計することは難しい,そこで本研究では,その他を表すプロンプトは設定せず,「その他」以外の種別のプロンプトと画像の確率值が一定より下回る場合に「その他」 へ分類するようにした. ## 3.4 確率値の闇値調整 「2. 導入方法」において,適合率が $80 \%$ 以上の種別を人手による一次作業から CLIP での分類に置き換えることとした. そのため,各種別の適合率が $80 \%$ 以上になるように, 3.2 で述べた確率值の閾值を調整した。図 3 に,各種別の適合率と確率値の閾値の関係を示した。 図 3 閾値ごとの適合率の推移 図 3 によると, 「料理」に関しては閾値 0 で適合率 $80 \%$ 以上を満たしていることがわかる。一方で 「ドリンク」については,閾值 0 では $80 \%$ を満たさず 0.48 付近で適合率の $80 \%$ を満たすことがわかる. よって,「ドリンク」に分類された場合には 0.48 を下回る画像を「その他」へ分類する. 同様の手順で「メニュー」,「外観」の閾値も設定した.「内観」の適合率は閾值 $0.4 \sim 0.5$ で 50\%程度まで上昇しているが, 0.5 に到達したところで $0 \%$ になる.これは分類種別が「内観」であるデータで, 0.5 以上の確率値を持つ結果が 0 件であることを示している.よって, 「内観」については, 閾値の調整で適合率 $80 \%$ を満たすことはできなかった。 ## 3.5 評価結果 ## 3.5. 1 性能評価 本研究による画像分類の種別ごとの性能評価を表 1 に示した.「料理」,「ドリンク」,「メニュ一」,「外観」にて適合率 $80 \%$ 以上を達成することができた. 対して「内観」と「その他」については,適合率 $80 \%$ を達成することができなかった。 そのため,参考として閾値を 0.3 にしたときの結果を記載した。なお,「その他」については全種別に対して閾値 0.3 を設定(閾値 0.3 を下回った際に 「その他」の種別を付与)したときの性能を記載した. ## 表 1 各種別の性能評価(\%) ## 3.5.2 一次作業の削減率 人手での種別の振り分けにおける一次作業の削減数の合計は, 6,949 件であった. 評価データは 1 万件のため, 削減率は $69.49 \%$ を達成できた. 削減の内訳は, 料理: 5,522, ドリンク: 265 , メニュー: 830,外観: 332 である. ## 3.6 考察 本研究の手法で, 全体として $70 \%$ 近くの一次作業を削減できることがわかった。一次作業の削減の内訳としては「料理」が多くを占めている。これは食べログにおける投稿画像の $60 \%$ 以上が「料理」 に該当する画像でありかつ「料理」の種別の分類性能が高かったことに起因する. 分類対象のデータセットの比率の高いデータに対する分類性能が高く出たことから, 本研究の手法は本タスクに対して有効であったと結論付けることができる. 種別ごとの結果を見ると「内観」の性能が低いことがわかる.分類結果を詳細に見たところ,「ビルなどの建物内にある店舗の入口」など「外観」へ分類すべき画像が「内観」とへ誤分類される傾向があった. この問題を解決する手段としては, プロンプトの変更が考えられる.たとえば,「内観」のプロンプトを「飲食店の内部」,「テーブルと椅子が配置された飲食店」などのように「内観」へ分類したい画像の特徴を具体的に説明するようなテキストを設定するなどが考えられる. ## 4 おわりに 本研究では,マルチモーダルモデルである CLIP を使用して,レストラン検索・予約サイトにおける投稿画像の人手での分類作業の削減に取り組んだ. その結果, 人手による分類作業における一次作業をおよそ $70 \%$ 削減することに成功した. CLIPのゼロショット分類を活用することで,モデル学習のためのデータ収集や再学習などの運用コストを低減した自動分類システムの構築が可能であることがわかつた. 今後の課題として, プロンプトの最適化や事前学習モデルの変更などによる, 分類性能の向上が考えられる。また,今回設定した種別以外の分類タスク (ガイドラインに反する画像へタグ付けするなど) への適用検証にも取り組みたい。 ## 参考文献 1.レストラン検索・予約サイト「食べログ」。 https://tabelog.com/, 2024/1/10 閲覧 2. Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, Gretchen Krueger, Ilya Sutskever. Learning Transferable Visual Models From Natural Language Supervision. arXiv:2103.00020, 2021 3. 沢田慶, シーン誠, 趙天雨. 日本語における $\mathrm{AI}$ の民主化を目指した事前学習モデルの公開. 人工知能学会研究会資料言語・音声理解と対話処理研究会. 2022/12/13 - 2022/12/14 4. Soravit Changpinyo, Piyush Sharma, Nan Ding, Radu Soricut. Conceptual 12M: Pushing Web-Scale ImageText Pre-Training To Recognize Long-Tail Visual Concepts. arXiv:2102.08981, 2021 5. rinna 社、日本語に特化した言語画像モデル CLIP を公開。 https://rinna.co.jp/news/2022/05/20220512.html, 2024/1/10 閲覧
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-18.pdf
# サッカー実況中継を付加的情報の提供という側面から見る 森雄一郎 ${ }^{1}$ 前川在 ${ }^{1}$ 小杉哲 ${ }^{1}$ 船越孝太郎 ${ }^{1}$ 高村大也 ${ }^{2}$ 奥村学 1 1 東京工業大学 2 産業技術総合研究所 \{moriy, maekawa, kosugi, funakoshi, oku\}@lr.pi.titech.ac.jp [email protected] ## 概要 本稿では,スポーツ実況における付加的情報の提供という側面に焦点を当てる。これまでの実況生成に関連する研究は,主要なイベントが起こった際映像上の内容を細かく記述するタスクの解決を志向している。しかし,現害のスポーツ実況者は,主要なイベントを取り上げるだけでなく,映像に関連する付加的な情報を提供し,観客の知的好奇心を満たす. 本研究では,大規模言語モデルを用いて実際のサッカーの試合中継における実況コメントを分析し,付加的情報の提供を担うコメントの割合を調査する。そして,分析により,付加的情報が現実の実況に多く含まれていることを示すとともに,今後の実況生成の研究において付加的情報を考慮する必要があることを主張する。 ## 1 はじめに スポーツにおける実況者の役割は,観客に対してスポーツの魅力を多角的に伝えることにある.特にサッカーのような動的なスポーツでは,実況者は試合の重要なアクションを情熱的に説明し,試合中の出来事を様々な角度から捉えることで観客の興奮を高め続ける。このような実況の重要性にもかかわらず,プロの実況者が不足していることから,見逃し配信やアマチュアスポーツの録画など,広範な領域においてその魅力を十分に伝えきれていない実情がある。そこで,自然言語生成技術を用いた実況生成の自動化が有望な解決策として提案されている $[1,2]$. 従来の研究は, 主に試合映像から発話タイミングを推定し,対応する実況文の生成を行う Dense Video Captioning (DVC) [3] タスクの一つとして実況生成に取り組んできた $[4,5]$. これらは主に映像上の主要なイベントの記述に焦点を当てているのに対して, 図 1 実況の例. 上のコメントは映像の説明を行っており,既存研究で扱われている。これに対して,下のコメントが本研究で扱うコメントであり,資料を参照しつつ映像に関連する付加的な情報を提供している。 本研究では「付加的な情報の提供」という側面に焦点を当てる.現実の実況者は,主要なイベントを取り上げるだけでなく,選手のプロフィールや試合のボール保持率といった,映像に関連する付加的な情報を提供し,観客の知的好奇心を満たすという重要な役割も果たす。例えば,図 1 下の「フィオレンティーナは彼を 700 万ユーロで獲得しました」という実況者のコメントは,フィオレンティーナが劣勢の中,クリスティアン・テージョが交代指示を待つ状況で,実況者が発話したものである。そして,これは「700 万ユーロの価値のあるクリスティアン・ テージョの活躍と,それによるフィオレンティーナの逆転への期待感を高める」という重要な役割を果たす.このように,付加的情報の提供という側面は実況においてなくてはならないものである。 本研究では,付加的情報の提供が実況の重要な側面であることを示すために,サッカー試合中継の実況コメント中に,どのくらい付加的情報が含まれるかを調査する.そのため,我々は大規模言語モデルを用いた few-shot learning を活用し,付加的情報を含むか否かを各コメントにラベル付けした実況コメントデータセットを構築する。具体的には,我々は SoccerNet-v2 [6] に含まれるサッカー実況中継の音声を書き起こし,実況コメントを得る.得られた実況コメントは非常に数が多いため, 人手でラベル付けするのは,時間的・金銭的コストが大きいという問題がある.そこで,大規模言語モデルを使用し,低コストでラベル付けを実行する。このラベル付きデータセットは,付加的情報の提供を含む実況生成システム構築に利用できる. 最後に, 我々は大規模言語モデルにより付与されたラベルを集計し,その割合を算出することで,付加的情報が現実のサッカー実況中継に多く含まれていることを明らかにする. さらに,付加的情報を含むコメントの時間帯別・イベント別の使用率を調査し, 構築したラベル付きデータセットの特徴を捉える。調査により,使用率が時間帯や関連するイベントの種類で異なることが分かった. ## 2 関連研究 ## 2.1 実況生成 スポーツ実況生成の研究は,サッカー $[5,1,2,7]$,野球 [8],ゲーム映像 [4] などの領域を対象に行われている. 実況生成の研究は主に,テキストやデータを用いる手法と映像を用いる手法,または両方を使う手法がある. Kubo ら [1]の SNS の書き込みを使う手法や Taniguchi ら [2] のデータを使う手法は, 実況者が観戦している映像を用いずに実況文を生成している. 最近は, 急速に発展しているVision and Language の技術を用いて,映像を入力とする実況文生成手法も提案されている. 例えば, Ishigaki ら [4] は,レーシングゲームの映像と追跡データを入力として,(1) 発話タイミングの推定と (2) 実況文の生成を行うタスクを提案している. Mkhallati ら [5] は, SoccerNet-v2 [6] に収録されているサッカー実況中継の試合映像のみを入力とする実況生成タスクを提案している. さらに, Mkhallati らはこのタスク用に SoccerNet-Caption という新しいデータセットを構築した. このデータセットには, サッカーの試合映像に基づいたキャプションが含まれている.映像を入力として用いる実況生成の研究 $[4,5,8]$ は, DVC と呼ばれるタスクから着想を得ている.DVC とは,映像中の重要なイベントを検出し, 各イベントの説明文を生成するタスクである。 そして,DVC タスクを発展させる形で, Qi ら [9] は選手やチーム, プレー に関する知識を補強するための知識べースを用いた サッカー実況文生成を提案している. これらの研究は映像上のイベントの説明に焦点を当てているのに対して, 本研究では映像だけでは得られない付加的な情報の提供という側面に焦点を当てる。 ## 2.2 実況発話のラベリング 発話ラベリングは,音声や発話テキストに対して,話者の意図や発話内容のラベルを予測するタスクであり,これまで多くの応用研究が行われた. 例えば,音声通話の発話意図推定 [10] やメールスレッドを対象とした発話テキストの分類 [11],会議や日常会話における発話行為のタグ付け [12] がある. 最近では,実況に関連する研究も存在し,上田ら [13] はレーシングゲームの実況発話内容ラベルの推定手法を提案した. 本研究では, 「付加的情報」という新たな視点に基づいて発話ラベリングを行うため,既存の発話ラベルセットを利用せず,独自の基準を設定した(詳細は 3.1 節で述べる). 発話ラベリングは,分類もしくは系列タグ付けとして定式化されており,近年はラベル付きデータセットを用いてニューラルネットワークを学習する手法が用いられる [13]. 本研究では, 発話ラベリングを分類問題として捉え,大規模言語モデルの few-shot learning [14] によりラベル付けを行う. ## 3 データセット構築 本節では,ラベル付き実況コメントデータ構築の手順を述べる(概要を図 2 に示す),我々は, 3.2 節の実況コメント収集と 3.3 節の自動ラベリングを行い,最終的に表 1 に示すような 428,834 件のラベル付きコメントデータを作成した。 図 2 データセット構築の概要図. ## 3.1 付加的情報の定義 まず,本研究における付加的情報を定義する.付加的情報とは「実況者が見ている映像からは分から 表 1 構築したラベル付きコメントデータの例. 試合情報は試合の日付,開始時間,チーム名,最終スコアを含む. 付加的情報かは,実況テキストが付加的情報を含むならば Yes,含まないならば Noをとる。 ない,外部から必要な情報」とする.我々は,全ての実況コメントに対して,付加的情報が含まれるか否かという 2 值分類をおこなった。 ## 3.2 実況コメント収集 本研究では,SoccerNet-v2 [6] をデータソースとして用いる. SoccerNet-v2には,500 試合の実況音声付きサッカー中継映像があり,そのうち約 $80 \%$ \%が実況者による発話を含む.実況は,英語・スペイン語を中心とする 12 種類の言語により提供される.我々は, SoccerNet-v2 の映像のうち, 実況者の発話を含む試合を対象とした。対象とした試合の映像に含まれる実況音声を Whisper large-v2 [15] で書き起こす. Whisper large-v2 を用いることで, 多言語の音声の書き起こしと,対応する発話時間の推定を同時に行うことができる. なお, Whisper large-v2 の利用にあたり (1)ノイズと (2) 書き起こし単位の問題が発生した。付録 A にそれぞれの詳細と対処法を示す. ## 3.3 大規模言語モデルを用いた自動ラベリ ング 我々は, 3.2 節で収集されたコメントを,大規模言語モデルの few-shot learning で自動ラベリングした. モデルに与えるプロンプト,利用したモデルやパラメータ等の設定を以下で述べる. プロンプト我々は,モデルへの指示と人手で作成した few-shot 事例, 対象のコメントでプロンプトを構成した. ラベリング例や対象コメントには,参照すべき文脈情報として,(1) 対象の前 2 件のコメント,(2)試合チームと日付・最終スコアを与えた。 ラベリング例には分類した理由も与えており,大規模言語モデルの出力時も同じく理由を述べるように指示した. 図 3 にプロンプトの例を示す. なお, few-shot 事例は,人手で分類した 100 件の実況コメントの比率に合わせ,付加的情報を含むコメント 2 件,含まないコメント 5 件で構成した1).  図 3 プロンプトと大規模言語モデルによる応答の例.応答は,ラベリング対象のコメントに対するラベルとその理由で構成される。 大規模言語モデルの設定我々は, トークンあたりの料金と性能のバランスを考慮し, gpt-3.5-turbo1106 [16] を用いた. デコードのパラメータは,再現性を考慮して temperature $=0$ のみ指定し,残りはデフォルト値を用いた2) ${ }^{2)}$ 自動ラベリングに掛かったコストは約 300USDである. ## 4 分析 本節では,3節の自動ラベリングの性能を評価し,大規模言語モデルにより得られたラベルの信頼性を確認する。また,データセット構築によって得られたラベルを集計して,付加的情報が含まれるコメントの割合を確認し,現実のサッカー実況には付加的情報の提供という重要な側面もあることを定量的に示す. さらに,付加的情報を含むコメントの時間帯別の使用率を調査し,構築したラベル付きデータセットの特徵を捉える. 最後に,擬似的な主要イべントのラベルを用いて,実況者が付加的情報を提供するタイミングについて分析する. 自動ラベリングの評価大規模言語モデルによる自動ラベリングの信頼性を担保するために,無作為にサンプリングした実況コメント 100 件について, 2人のアノテータにより人手で付与したラベル3)と 2) https://platform.openai.com/docs/api-reference/cha t/create 3)人手ラベルの妥当性を確保するため,2 人のアノテータがそれぞれラベリングを行った. 2 人が付けたラベルにおける Cohen の $\kappa$ 係数 [17] は 0.798 であった. ラベルがアノテータ 図 4 時間帯別の付加的情報の使用率. ラベルの割合は 5 分間隔で集計したため,グラフは前・後半それぞれ,アディショナルタイムを含めて 10 個の点で構成される. の Accuracy, Precision, Recall, $F_{1}$ を評価した.このサンプル 100 件には,人手で付加的情報を含むと判断されたコメントが 14 件,含まないと判断されたコメントが 86 件含まれている。評価結果は,Accuracy が 0.97 , Precision が 1.0 , Recall が 0.75 , そして $F_{1}$ が 0.86 であった ${ }^{4)}$. この結果から,大規模言語モデルは高い精度で実況コメントをラベリングできていることがわかる. ラベルの割合付与されたラベルごとの実況コメント数を算出すると,「付加的情報を含む」コメントの数は 56,718 で,全体の 13 \%であることがわかった. 一方で,「付加的情報を含まない」コメントの数は 370,396で,全体の 86 \%である. さらに,「その他」のカテゴリーには 1,718 件のコメントが含まれており,これは全体の 1 \%未満である ${ }^{5)}$.この 13\%という值は,付加的情報を含むコメントが無視できない割合で存在することを示している. つまり, 現実の実況において付加的情報の提供という側面も重要であることが分かった. 時間帯別の使用率本研究では,実況コメントが時系列データであるという特性を考慮し, 付加的情報を含むコメントの時間帯別の使用率を分析する。図 4 に示す通り,使用率は時間帯によって大きく異なることが分かる. 特に, 序盤(試合開始から 5 分まで)では約 $21 \%$ のコメントが付加的情報を含んでおり,これは中盤や終盤の約 2 倍に相当する. この傾向は,実際のサッカー実況で一般的に見られる特性と一致している。通常,実況者は試合の展開や大会の全体構造に関する説明から始め,試合序盤には視聴者に有益な情報を多く提供する傾向がある. したがって,試合序盤の高い使用率は,このような実況者の行動傾向を反映していると考えられる. 間で異なる事例は,2 人で議論しラベルを決定した。 4) Precision, Recall, $F_{1}$ は, Yes ラベルに対して算出した. 5)「その他」は,入力可能なプロンプトの上限超過や非英語のコメントの影響など,様々な理由でラベル付けができなかったコメントを指す(詳細は B に示す). タイミング SoccerNet-Caption [5]に含まれるキャプションデータには,主要イベントに関するラベル6) が付与されており,これを元に,実況コメントへのラベル付けを擬似的に実施した.具体的には,主要イベントの時間を示すタイムスタンプの前後 5 秒間に発話開始時間が含まれる実況コメントを,その主要イベントに関連する事例として擬似的に対応付けた. その後, 主要イベントに関連する付加的情報を提供するコメントの使用率を算出した結果,主要イベント周辺では,全体における使用率 $13 \%$ に比べて高いことが判明した(詳細は付録 C. 3 に示す). 特に,イエローカードやレッドカードの場面では $23 \%$ であり,この傾向が顕著であった. ## 5 議論・今後の展望 本稿では,大規模言語モデルによる few-shot learning を活用した 428,834 件のコメントのラベリングにより,現実の実況において付加的情報を含むコメントが $13 \%$ 存在することがわかった. つまり,我々は,現実のサッカー実況には映像の説明としての側面だけでなく,付加的情報を提供するという重要な側面もあると定量的に示した. また,分析により,付加的情報の使用率や提供タイミングに関する,構築したラベル付きデータセットの特徵を捉えた. なお,このデータセットは,付加的情報の提供を含む実況生成システム構築に利用できる。 本研究の展望としては, 付加的情報に関する詳細な分析と,この情報を活用した実況生成システムの構築が挙げられる.今後,我々は付加的情報を含むコメントを細かく分類7)することで,付加的情報の内容を詳しく分析する。 つぎに,実況コメントから付加的情報を抽出し,各試合ごとの実況準備資料 (付加的情報の知識ベース)を構築する. そして,この準備資料を活用しつつ付加的情報を含む実況文を適切なタイミングで生成する,新たな実況生成タスクに取り組む.これは,映像の理解と効果的な情報提供を必要とする挑戦的な Vision and Language タスクであり,より現実に近いサッカー実況生成への一歩であると考えられる。 6)コーナーキック,イエローカードの提示,ゴール,選手交代などを指す. 7)付加的情報の分類のラベルセットは,(1) スタッツか経歴やエピソードかといった言及内容,(2) 選手やチームなどの言及対象,(3) 過去か現在の試合かという時間軸を基準に作成する. ## 参考文献 [1] Mitsumasa Kubo, Ryohei Sasano, Hiroya Takamura, and Manabu Okumura. Generating live sports updates from twitter by finding good reporters. In 2013 IEEE/WIC/ACM International Joint Conferences on Web Intelligence (WI) and Intelligent Agent Technologies (IAT), Vol. 1, pp. 527-534. IEEE, 2013. [2] Yasufumi Taniguchi, Yukun Feng, Hiroya Takamura, and Manabu Okumura. Generating live soccer-match commentary from play data. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 33, pp. 7096-7103, 2019. [3] Ranjay Krishna, Kenji Hata, Frederic Ren, Li Fei-Fei, and Juan Carlos Niebles. Dense-captioning events in videos. In Proceedings of the IEEE international conference on computer vision, pp. 706-715, 2017. [4] Tatsuya Ishigaki, Goran Topic, Yumi Hamazono, Hiroshi Noji, Ichiro Kobayashi, Yusuke Miyao, and Hiroya Takamura. Generating racing game commentary from vision, language, and structured data. In Anya Belz, Angela Fan, Ehud Reiter, and Yaji Sripada, editors, Proceedings of the 14th International Conference on Natural Language Generation, pp. 103-113, Aberdeen, Scotland, UK, August 2021. Association for Computational Linguistics. [5] Hassan Mkhallati, Anthony Cioppa, Silvio Giancola, Bernard Ghanem, and Marc Van Droogenbroeck. Soccernet-caption: Dense video captioning for soccer broadcasts commentaries. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 5073-5084, 2023. [6] Adrien Deliege, Anthony Cioppa, Silvio Giancola, Meisam J. Seikavandi, Jacob V. Dueholm, Kamal Nasrollahi, Bernard Ghanem, Thomas B. Moeslund, and Marc Van Droogenbroeck. SoccerNet-v2: A dataset and benchmarks for holistic understanding of broadcast soccer videos. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) Workshops, pp. 4508-4519, June 2021. [7] Masashi Oshika, Kosuke Yamada, Ryohei Sasano, and Koichi Takeda. Transformer-based live update generation for soccer matches from microblog posts. arXiv preprint arXiv:2310.16368, 2023. [8] Byeong Jo Kim and Yong Suk Choi. Automatic baseball commentary generation using deep learning. In Proceedings of the 35th Annual ACM Symposium on Applied Computing, pp. 1056-1065, 2020. [9] Ji Qi, Jifan Yu, Teng Tu, Kunyu Gao, Yifan Xu, Xinyu Guan, Xiaozhi Wang, Bin Xu, Lei Hou, Juanzi Li, and Jie Tang. Goal: A challenging knowledge-grounded video captioning benchmark for real-time soccer commentary generation. In Proceedings of the 32nd ACM International Conference on Information and Knowledge Management, CIKM '23, p. 5391-5395, New York, NY, USA, 2023. Association for Computing Machinery. [10] Andreas Stolcke, Klaus Ries, Noah Coccaro, Elizabeth Shriberg, Rebecca Bates, Daniel Jurafsky, Paul Taylor, Rachel Martin, Carol Van Ess-Dykema, and Marie Meteer. Dialogue act modeling for automatic tagging and recognition of conversational speech. Computational linguistics, Vol. 26, No. 3, pp. 339-373, 2000. [11] Tatsuro Oya and Giuseppe Carenini. Extractive summarization and dialogue act modeling on email threads: An integrated probabilistic approach. In Kallirroi Georgila, Matthew Stone, Helen Hastie, and Ani Nenkova, editors, Proceedings of the 15th Annual Meeting of the Special Interest Group on Discourse and Dialogue (SIGDIAL), pp. 133-140, Philadelphia, PA, U.S.A., June 2014. Association for Computational Linguistics. [12] Emile Chapuis, Pierre Colombo, Matteo Manica, Matthieu Labeau, and Chloé Clavel. Hierarchical pre-training for sequence labelling in spoken dialog. In Trevor Cohn, Yulan He, and Yang Liu, editors, Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 2636-2648, Online, November 2020. Association for Computational Linguistics. [13] 上田佳祐, 石垣達也, 小林一郎, 宮尾祐介, 高村大也ほか. 実況における発話ラベル予測. 研究報告音声言語情報処理 (SLP), Vol. 2021, No. 1, pp. 1-6, 2021. [14] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, et al. Language models are few-shot learners. Advances in neural information processing systems, Vol. 33, pp. 1877-1901, 2020. [15] Alec Radford, Jong Wook Kim, Tao Xu, Greg Brockman, Christine McLeavey, and Ilya Sutskever. Robust speech recognition via large-scale weak supervision. In International Conference on Machine Learning, pp. 2849228518. PMLR, 2023. [16] OpenAI. Introducing chatgpt. https://openai.com/b log/new-models-and-developer-products-announc ed-at-devday, 2023. [17] Jacob Cohen. A coefficient of agreement for nominal scales. Educational and psychological measurement, Vol. 20, No. 1, pp. 37-46, 1960. [18] Steven Bird, Edward Loper, and Ewan Klein. Natural Language Processing with Python. O'Reilly Media Inc., 2009. [19] Tibor Kiss and Jan Strunk. Unsupervised multilingual sentence boundary detection. Computational linguistics, Vol. 32, No. 4, pp. 485-525, 2006 ## A データ構築の詳細 本節では,データ構築時に Whisper large-v2 を使用したときに発生した問題と対応方法について述べる. ノイズ実況音声は,観客の歓声などのノイズが含まれるが,Whisper large-v2 の出力はおおむね正確である。しかし,実況者が沈黙しているときに,実況者の最後の発話テキストが繰り返し出力されることがある.この繰り返しによるノイズは,現実の実況を収集する上で不要であり,さらにはコメントのラベルの集計結果に影響を与えうるため,分析において問題となる. 我々は, 繰り返しの初めのテキストのみを残し,それ以降の書き起こしは削除した。 書き起こし単位 Whisper large-v2による音声の書き起こしの際,テキストが途中で断片化(セグメント化)されることがある.これは,一貫性のないラベリング単位を作ることになり,加えて文章として成立していないものを含んでしまうため,大規模言語モデルラベリング性能に悪影響を与える可能性がある. 我々はこの問題を避けるため,nltk [18] の Punkt Tokenizer [19] を使って Whisper large-v2 の書き起こしを適切な文単位に分割する8). ## B 制限 本研究にはデータ構築における課題が残されている. それは,自動ラベリングの不具合と信頼性である. まず,自動ラベリングの不具合であるが,これにはいくつかの型がある.例えば,大規模言語モデルがロシア語などの実況コメントの文脈情報を汲み取れず,-1や2のような指示外のラベルをつける場合があった. また,Punkt Tokenizer の後処理にも関わらず,実況コメントが 10,000 以上の単語で構成される事例があり,その影響でプロンプトが OpenAI のトークン制限を超過する場合があった. つぎに,自動ラベリングの信頼性である.4 節で自動ラベルと人手ラベルを比較した際,偽陽性はなかったが,偽陰性は存在した. 偽陰性が発生した原因としては,(1) データ構築処理に起因するものと (2) 大規模言語モデルに起因するものがある. (1) の例として取り上げるのは,「In 2010.」である. 8)分割後の文にも時間情報を付与するため,元の断片的なテキストに付属する時間情報を用いた。その結果,実況コメントの発話区間どうしに重なりが発生した. しかし,この設定は DVC と同様であるため,特に問題はないと考える.表 2 データセットの統計値. 表 3 サッカーの各主要イベントに関連するコメントの付加的情報の使用率. これは,Punkt Tokenizerによる処理後にもかかわらず,「In 2010.」が 1 文として認識されてしまい,意味のある情報だと判断されなかったことが原因として考えられる。(2) の例として取り上げるのは, $\lceil$ He's been taken under the wing by Victor Fernandez $\cdots$ (省略)」である.本来ならば,この発話は映像外の知識を必要とする。しかし,大規模言語モデルはうまくこの文脈を捉えられず,付加的情報を含まないと判断してしまった. ## C 分析の詳細 ## C. 1 自動ラベリングの詳細 本節では, Few-shot 事例に含むラベルの割合を変化させたときの自動ラベリングの性能の変化について調査する.ラベルの割合を同数(付加的情報を含むもの 3 件,含まないもの 3 件)にした場合は, Accuracy が 0.74 , Precision が 0.27 , Recall が $0.67, F_{1}$ が 0.38 となった. これは, 自動ラベリングの際に用いた割合 (付加的情報を含む 2 件と,含まない 5 件) の時と比較して,全ての評価指標で下がっている。 ## C. 2 データセットの統計 構築したデータセットの統計を表 2 に示す. 表から,付加的情報を含む実況コメントは,文字数・発話時間ともに,平均より長いことが分かる. ## C. 3 タイミング分析の詳細 各主要イベントにおける付加的情報の使用率を表 3 に示す.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-19.pdf
# 日本語投機的デコーディングの検討 林崎由 能勢隆 伊藤彰則 東北大学 hayashizaki.yu.t5@dc. tohoku.ac.jp \{takashi.nose.b7, akinori.ito.a2\}@tohoku.ac.jp ## 概要 投機的デコーディングは,言語モデルによるテキスト生成において, 出力の精度を低下させることなく推論を高速化する手法として注目を集めている。 この手法ではドラフトモデルと呼ばれるより小規模な言語モデルを利用することで生成の一部並列化による推論速度の向上を害現している。一方,これまでの検討は英語が中心であり, 日本語などの言語固有の性能やドメイン依存のメカニズムについては明らかになっていない. 本研究では, 日本語を対象として,モデルサイズの異なる複数の事前学習済み言語モデルに基づきドラフトモデルを構築し, 日本語要約タスクにおける投機的デコーディングの効果検証およびトークン単位での詳細な分析を行う. ## 1 はじめに 大規模言語モデル (LLM) は,多種多様なタスクを高精度で解くことができる汎用性から, 自然言語処理の根幹を担う技術として注目を集めている [1,2]. その一方,これらのモデルは一般的にパラメータ数が非常に多く, 1 回の推論につき 1 つしかトークンを生成できないため, テキスト生成速度が遅いことが問題となっている. 言語モデルによるテキスト生成を高速化する手法も多く提案されているが $[3,4]$, いずれも出力精度の低下が避けられない. この性質により,マルチモーダル対話 $[5,6]$ や自動運転 [7] などのリアルタイム性と出力品質が同時に要求される用途での応用が妨げられている. 出力の精度を低下させることなくテキスト生成を高速化する手法として,投機的デコーディング (Speculative decoding)[8, 9] が注目されている.この手法では,推論を高速化したい対象の言語モデル (ターゲットモデル) に対し,ドラフトモデルと呼ばれるより小規模な言語モデルにより高速に複数の候補トークンを逐次生成した後,ターゲットモデルに 図 1: 投機的サンプリングの概要図 より並列に出力を検証する投機的サンプリングと呼ばれる処理を繰り返す (図 1). 候補トークンが受理された場合,ターゲットモデルの 1 回の推論につき,同時に複数のトークンを生成することができるため,高速化を実現することができる.ドラフトモデルを追加で運用する必要があるが,この手法で生成されたトークンの分布は単一のターゲットモデルで生成した場合と一致することが理論的に保証されている $[8,9]$ ため,有望な手法であると言える. 一方,投機的デコーディングにより得られる効果はドメインに依存することが知られている. 先行研究では,英語での要約 $[8,9]$, 英独翻訳 [8],コード生成 [9] でテキスト生成速度が変化することを示しているが,ドメイン依存の詳細なメカニズムについては明らかになっていない,また,言語固有の特徴 $[10,11]$ が影響を与える可能性があるにも関わらず,英語以外での検証も行われていない。 そこで本研究では, 日本語の事前学習済み言語モデルを構築し, 要約生成タスクXLSum[12]により投機的デコーディングの効果検証を行う.また,ター ゲットモデルにより検証されるトークンに着目し, そのメカニズムを分析する。なお,実験で使用したコードとモデルはhttps://github.com/u-hyszk/ japanese-speculative-decoding で公開している. ## 2 投機的デコーディング 投機的デコーディング $[8,9]$ は,言語モデルでのテキスト生成において出力の精度を低下させることなく推論を高速化する手法である.この手法では,推論の対象となるターゲットモデルに対し,より小規模なドラフトモデルを用いて予め $\gamma$ 個の候補トー クンを逐次生成した後,ターゲットモデルにより並列に出力を検証する投機的サンプリング (アルゴリズム 1) による部分的な並列推論を繰り返し行うことでトークンを生成する1). 各投機的サンプリングにおいて,ターゲットモデルでの推論は 1 回しか行われないが2),アルゴリズム 1 の 10 行目においてトークンが受理された回数に応じて最大で $\gamma+1$ 個のトークンを生成できるため,高速化が期待される. また,この処理で生成されたトークンの分布は単一のターゲットモデルで生成した場合と一致することが理論的に保証されている $[8,9]$. 投機的デコーディングでは, (1) ドラフトモデルの推論速度が速く,(2) ドラフトモデルとターゲットモデルの出力分布が近いほど,高速化が期待される. (2) について,より具体的には,トークンが受理される確率であるトークン受理率 $\beta$ と確率分布 $p(y), q(y)$ 間の全変動距離 $D_{\mathrm{TVD}}(p \| q)$ との間に次式の関係があることが示されている $[8,13]$. $ \beta=1-D_{\mathrm{TVD}}(p \| q) $ ただし,全変動距離 $D_{\mathrm{TVD}}(p \| q)$ は以下のように定義される。 $ D_{\mathrm{TVD}}(p \| q)=\sum_{y}\left|\frac{p(y)-q(y)}{2}\right| $ このトークン受理率 $\beta$ は,一般的には平均トークン受理率 $\alpha$ (検証された総トークン数に占める受理されたトークンの割合) で報告され, ドメインに依存して変化することが知られている。,例えば,Chen ら [9] は,コード生成タスク Human Eval[14] では $\alpha$ が高く, 英語要約タスク XSum[15] では $\alpha$ が低くなる傾向にあることを報告している。 ## 3 日本語言語モデルでの検討 本研究では,モデルサイズが異なる複数の日本語事前学習済み言語モデルを構築し, 要約生成タスク 1) $p(y)$ および $q(y)$ はそれぞれドラフトモデル $M_{p}$, ター ゲットモデル $M_{q}$ の出力分布である. また, $y \sim p(y)$ は確率分布 $p(y)$ からトークン $y$ がサンプリングされたことを表す. $U$ は一様分布である. 2)アルゴリズム 1の5 6行目で 1 回のみ並列で推論を行う. XLSum[12]により,投機的デコーディングの効果検証を行う.本節では,日本語での検証を行うためのドラフトモデルの事前学習 (3.1 項), および追加学習 (ファインチューニング)(3.2 項)について述べる. ## 3.1 日本語ドラフトモデルの事前学習 本研究では,日本語での投機的デコーディングの効果検証を行うために,モデルサイズが異なる複数の日本語言語モデルを事前学習から構築し,ドラフトモデルとして使用することとした.事前学習から行った理由としては以下の 3 つが挙げられる: 1. 投機的デコーディングでは,ターゲットモデルとドラフトモデルの出力分布同士の演算を行うため,両方のモデルで共通の語彙を使用する必要がある. 2. 公開されている日本語の事前学習済み言語モデルのうち,上記の条件 1 を満たしているものは少ない.条件を満たすものについても,異なるモデルサイズが少ないため,分析できる範囲が限られる3)4)。 3. 投機的サンプリングにおける受理率の向上と出力の正確な分析のために,学習に用いるデータセットが同じであることが望ましい.  4) https://www.cyberagent.co.jp/news/detail/id=28817 構築した事前学習モデルのモデルサイズとアー キテクチャは付録 A. 1 の通りである. 重要な点として, 全てのモデルで OpenCALM $1 b^{5}$ )と同じトークナイザを用いることで,共通の語彙を使用できるようにした. また,学習データセットも全てのモデルで共通であり, 日本語 Wikipedia ${ }^{5}$ および日本語 CC-100[16] から 1 億 240 万文を取得して使用した.詳細については付録 A. 1 に示す. ## 3.2 日本語評価タスクでの追加学習 本研究では,日本語における投機的デコーディングの評価に多言語要約データセットの XLSum[12] を採用し, 前項の事前学習済みモデルに対して XLSum を用いた追加学習を行った. 追加学習を行った理由としては,モデルの出力をタスクの内容と一致させることで公平な評価を行うためであ の要約から構成されたデータセットである.このうち日本語の学習用データ 7110 文により追加学習を行った (付録 A.2). テストデータ 889 文を使用して,自動評価指標 Rouge[17] により評価した結果を付録 A. 2 に示す. また, OpenCALM medium $/ \mathrm{small}^{5}$ ) を同様に追加学習した結果も併記する. 表 3 の結果から, 前項で作成した事前学習済み言語モデルは,先行研究のモデルと同程度の要約性能を有していると考えられる。 ## 4 実験 本節では, 3.2 節で作成した要約モデルを使用して,日本語における投機的デコーディングの効果を検証する。まず,実験条件について述べ (4.1 項), 生成高速化実験の結果を示し (4.2 項), 最後に受理されたトークンについて分析を行う (4.3 項). ## 4.1 実験条件 使用データ 3.2 節で述べた XLSum のテストデー タ 889 文のタイトルと本文を入力として使用した. 使用モデル 3.2 節で作成した要約モデルを使用した. ターゲットモデルには 409M パラメータのモデルを使用し,ドラフトモデルにはそれ以外のモデルを使用した.なお,すべての実験はRTX 30901  表 1: 日本語 XLSum による投機的デコーディングの結果. ただし,ターゲットモデルのパラメータ数は 409M である. 枚を搭載した単一の計算機により行った. 評価指標先行研究 $[8,9]$ と同様に, 次式で定義されるスピードアップを評価指標とした。なお, $t_{\text {target }}$ はターゲットモデルの 1 トークンあたりの生成時間, $t_{\text {spec }}$ は投機的デコーディングによる 1 トークンあたりの生成時間である. $ \text { Speedup }=\frac{t_{\text {target }}}{t_{\text {spec }}} $ また,ドラフトモデルとターゲットモデルの出力の近さを表す平均トークン受理率 $\alpha$ と, ドラフトモデルの推論速度を確認する指標として,ターゲットモデルに対するドラフトモデルの 1 トークンあたりの生成時間の比 $c$ も同様に報告する. なお,全ての評価指標において 3 回の測定の平均値を報告する. ハイパーパラメータ出力の多様性を制御する Temperature( $T$ ) は $\{0.0,1.0\}$ で評価した. 候補トークン数 $\gamma$ は $\{1,3,5,7\}$ の 4 種類で評価した. ## 4.2 日本語要約タスクでの生成高速化実験 実験の結果を表 1 に示す.なお,表 1 では最もスピードアップが高かった場合の候補トークン数 $\gamma$ の結果のみを表記し,候補トークン数を変えた場合の結果は付録 A. 3 に示す. Temperature が 0.0, 1.0 の両方の場合において,ドラフトモデルが 47M の場合に最もスピードアップが大きくなり,それぞれ $\mathrm{x} 2.02$, $\mathrm{x} 1.55$ のスピードアップが得られた. 英語要約タスクにおいて 2 倍から 3 倍程度のスピードアップが得 図 2: 受理された回数が多いトークンの上位 15 個 られた先行研究 $[8,9]$ と比較した場合, 若干速度向上の幅は小さいが,これについては言語やモデルサイズの違いが一因であると考えられる。 一方,ドラフトモデルのモデルサイズを変更して $\alpha$ や $c$ が変化した場合,スピードアップが著しく低下する傾向も見られた. この傾向は先行研究 $[8,9]$ と同様であるものの, モデルサイズを細かく調整した本実験の結果から,得られるスピードアップはモデルサイズに対して鋭敏である可能性が示唆された. すなわち,投機的デコーディングによる効果を最大限得るためには,ターゲットモデルに合わせてドラフトモデルのサイズを慎重に選定することが重要であると考えられる。 ## 4.3 受理トークンの傾向分析 本項では,投機的デコーディングにより受理されたトークンの傾向を分析する。まず,表 1 において,最もスピードアップが大きくなった,ドラフトモデルのパラメータ数が $47 \mathrm{M}$, Temperature $T=0.0$,候補トークン数 $\gamma=1$ の場合について, 受理されたトークンの上位 15 個を図 2 に示す7). この結果から,受理されたトークンの上位には,句読点や括弧などの補助記号,および助詞が多く含まれていることが分かる。また,XLSum 特有のニュースに関連する名詞も上位に含まれている。 次に,受理されたトークンについて, $\mathrm{MeCab}^{8}$ による形態素解析を行った結果を図 3 に示す9). モデルサイズによる比較のため,パラメータ数 $6 \mathrm{M}$ の場合と $247 \mathrm{M}$ の場合の結果も併記する.この結果から, 出力全体に対しても受理されるトークンの大部 7)被検証トークンとは,アルゴリズム 1 の9行目において検証されたトークンのことを指す。 8) https://taku910.github.io/mecab/ 9)複数の名詞から構成されるトークンの場合は「複合名詞」 と表記した. また,複数の品詞から構成されるトークンは,「名詞+助詞」などと表記した。 図 3: 受理されたトークンの品詞分類 図 4: 受理された回数が多い「名詞」トークンのワー ドクラウド 分は名詞や補助記号,および助詞が占めていることが分かる. また,モデルサイズが大きくなるほど,名詞のトークン受理率が高くなる傾向が見られる. 最後に,「名詞」に属するトークンのうち, 受理された回数が多いものをワードクラウドにより可視化した結果を図 4 に示す.この結果から,ニュース特有の「トランプ」「COVID」などのトークンが上位を占めていることが分かる。 以上の結果をまとめると,(1) ターゲットモデルにより受理されるトークンは名詞や補助記号,および助詞が大部分を占めており,(2)このうち名詞にはドメイン特有のトークンが多く含まれていた. 特に (2)については,投機的デコーディングのドメイン依存のメカニズムとして, 名詞トークンの受理率が大きく関連している可能性が示唆された。 ## 5 まとめ 本研究では,日本語の事前学習済み言語モデルを構築し,要約生成タスク XLSum により投機的デコーディングによる推論速度向上の効果検証を行った. 分析の結果,日本語でも適切なモデルサイズを選択することで投機的デコーディングが有効であることが確認された.また,ターゲットモデルにより受理されるトークンは名詞や句読点などの補助記号,および助詞が大部分を占め,特に名詞がドメイン依存を引き起こしている可能性が示唆された. ## 参考文献 [1] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In H. Larochelle, M. Ranzato, R. Hadsell, M.F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Curran Associates, Inc., 2020. [2] Hugo Touvron, Thibaut Lavril, Gautier Izacard, Xavier Martinet, Marie-Anne Lachaux, Timothée Lacroix, Baptiste Rozière, Naman Goyal, Eric Hambro, Faisal Azhar, Aurelien Rodriguez, Armand Joulin, Edouard Grave, and Guillaume Lample. Llama: Open and efficient foundation language models. In ArXiv, 2023. [3] Geoffrey Hinton, Oriol Vinyals, and Jeff Dean. Distilling the knowledge in a neural network. In ArXiv, 2015. [4] Itay Hubara, Matthieu Courbariaux, Daniel Soudry, Ran El-Yaniv, and Yoshua Bengio. Quantized neural networks: Training neural networks with low precision weights and activations. J. Mach. Learn. Res., Vol. 18, No. 1, p. 6869-6898, jan 2017. [5] Takato Yamazaki, Tomoya Mizumoto, Katsumasa Yoshikawa, Masaya Ohagi, Toshiki Kawamoto, and Toshinori Sato. An opendomain avatar chatbot by exploiting a large language model. In Svetlana Stoyanchev, Shafiq Joty, David Schlangen, Ondrej Dusek, Casey Kennington, and Malihe Alikhani, editors, Proceedings of the 24th Annual Meeting of the Special Interest Group on Discourse and Dialogue, pp. 428-432, Prague, Czechia, September 2023. Association for Computational Linguistics. [6] Ryota Yahagi, Yuya Chiba, Takashi Nose, and Akinori Ito. Multimodal dialogue response timing estimation using dialogue context encoder. In Svetlana Stoyanchev, Stefan Ultes, and Haizhou Li, editors, Conversational AI for Natural Human-Centric Interaction, pp. 133-141, Singapore, 2022. Springer Nature Singapore. [7] Kotaro Tanahashi, Yuichi Inoue, Yu Yamaguchi, Hidetatsu Yaginuma, Daiki Shiotsuka, Hiroyuki Shimatani, Kohei Iwamasa, Yoshiaki Inoue, Takafumi Yamaguchi, Koki Igari, Tsukasa Horinouchi, Kento Tokuhiro, Yugo Tokuchi, and Shunsuke Aoki. Evaluation of large language models for decision making in autonomous driving. In ArXiv, 2023. [8] Yaniv Leviathan, Matan Kalman, and Yossi Matias. Fast inference from transformers via speculative decoding. In Andreas Krause, Emma Brunskill, Kyunghyun Cho, Barbara Engelhardt, Sivan Sabato, and Jonathan Scarlett, editors, Proceedings of the 40th International Conference on Machine Learning, Vol. 202 of Proceedings of Machine Learning Research, pp. 1927419286. PMLR, 23-29 Jul 2023. [9] Charlie Chen, Sebastian Borgeaud, Geoffrey Irving, Jean-Baptiste Lespiau, Laurent Sifre, and John Jumper. Accelerating large language model decoding with speculative sampling. In ArXiv, 2023. [10] 貴弘岩畑. 英語と日本語の構文選択における差異について.人文研究 $=$ Studies in humanities, No. 175, pp. 95-122, 2011. [11] 光弘大村. 文化を映し出すことば:日英比較から文化を言語学する. 人文論集, Vol. 66, No. 2, pp. 81-95, 012016. [12] Tahmid Hasan, Abhik Bhattacharjee, Md. Saiful Islam, Kazi Mubasshir, Yuan-Fang Li, Yong-Bin Kang, M. Sohel Rahman, and Rifat Shahriyar. XL-sum: Large-scale multilingual abstractive summarization for 44 languages. In Chengqing Zong, Fei Xia, Wenjie Li, and Roberto Navigli, editors, Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 4693-4703, Online, August 2021. Association for Computational Linguistics. [13] Yongchao Zhou, Kaifeng Lyu, Ankit Singh Rawat, Aditya Krishna Menon, Afshin Rostamizadeh, Sanjiv Kumar, Jean-François Kagy, and Rishabh Agarwal. Distillspec: Improving speculative decoding via knowledge distillation. In ArXiv, 2023. [14] Mark Chen, Jerry Tworek, Heewoo Jun, Qiming Yuan, Henrique Ponde de Oliveira Pinto, Jared Kaplan, Harri Edwards, Yuri Burda, Nicholas Joseph, Greg Brockman, Alex Ray, Raul Puri, Gretchen Krueger, Michael Petrov, Heidy Khlaaf, Girish Sastry, Pamela Mishkin, Brooke Chan, Scott Gray, Nick Ryder, Mikhail Pavlov, Alethea Power, Lukasz Kaiser, Mohammad Bavarian, Clemens Winter, Philippe Tillet, Felipe Petroski Such, Dave Cummings, Matthias Plappert, Fotios Chantzis, Elizabeth Barnes, Ariel Herbert-Voss, William Hebgen Guss, Alex Nichol, Alex Paino, Nikolas Tezak, Jie Tang, Igor Babuschkin, Suchir Balaji, Shantanu Jain, William Saunders, Christopher Hesse, Andrew N. Carr, Jan Leike, Josh Achiam, Vedant Misra, Evan Morikawa, Alec Radford, Matthew Knight, Miles Brundage, Mira Murati, Katie Mayer, Peter Welinder, Bob McGrew, Dario Amodei, Sam McCandlish, Ilya Sutskever, and Wojciech Zaremba. Evaluating large language models trained on code. In ArXiv, 2021. [15] Shashi Narayan, Shay B. Cohen, and Mirella Lapata. Don't give me the details, just the summary! topic-aware convolutional neural networks for extreme summarization. In Ellen Riloff, David Chiang, Julia Hockenmaier, and Jun'ichi Tsujii, editors, Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 1797-1807, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. [16] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised Cross-lingual Representation Learning at Scale. In ArXiv, No. arXiv:1911.02116. arXiv, April 2020. [17] Chin-Yew Lin. ROUGE: A Package for Automatic Evaluation of Summaries. In Text Summarization Branches Out, pp. 7481, Barcelona, Spain, July 2004. Association for Computational Linguistics. [18] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [19] Alex Andonian, Quentin Anthony, Stella Biderman, Sid Black, Preetham Gali, Leo Gao, Eric Hallahan, Josh Levy-Kramer, Connor Leahy, Lucas Nestler, Kip Parker, Michael Pieler, Jason Phang, Shivanshu Purohit, Hailey Schoelkopf, Dashiell Stander, Tri Songz, Curt Tigges, Benjamin Thérien, Phil Wang, and Samuel Weinbach. GPT-NeoX: Large Scale Autoregressive Language Modeling in PyTorch, 9 2023. https://github.com/ EleutherAI/gpt-neox. [20] Kenta Shinzato. HojiChar: The text processing pipeline, September 2023. https://github.com/HojiChar/HojiChar. ## A 付録 ## A. 1 事前学習の詳細 事前学習では, 表 2 の9種類の Transformer Decoder モデル [18] を構築した. 事前学習ではライブラリ GPT-NeoX[19] を使用した. 日本語 CC-100 データセットについては,学習データ量を絞るため, 1 文あたり 30 文字以上の文のみを使用し,両方のデー タセットで NFKC 正規化を行った. これらの一連の前処理には,ライブラリ hojichar[20]を使用した. テストデータ 50000 文により, perplexityを評価した結果を表 2 に示す。 パラメータ数が増えるにつれて, perplexity が低下していることが確認できる. 表 2: モデルのパラメータ数とアーキテクチャ ## A. 2 追加学習モデルの要約性能 XLSum は日本語の学習用データ 7110 文により 10 エポックの追加学習を行い,損失が最も小さくなったモデルを選択して実験に使用した. テストデータ 889 文による評価結果では (表 3), 同パラメータ数・ トークナイザの OpenCALM medium $/$ small $^{5)}$ と比較しても, 同程度の要約性能となっていることが確認できる. 表 3: 日本語 XLSum による追加学習 ## A. 3 候補トークン数を変えた場合の結果 Temperature が $0.0 , 1.0$ の両方の場合において,ドラフトモデルが $47 \mathrm{M}$ の場合に最もスピードアップが大きくなり,それぞれ $\mathrm{x} 2.02 , \mathrm{x} 1.55$ のスピードアップが得られた. 一方,ドラフトモデルのモデルサイズを変更して $\alpha$ や $c$ が変化した場合,スピードアップが著しく低下する傾向も見られた. 例えば,表 4 において, $T=0.0, \gamma=1$ のとき,パラメータ数 $47 \mathrm{M}$ と $29 \mathrm{M}$ を比較すると, $\alpha$ と $c$ がそれぞれ 0.027, 0.020 しか変わらないにも関わらず,スピードアップは $x 2.02$ から $x 1.24$ に低下していることが分かる. また,実験設定によっては,スピードアップが等倍より低くなる場合もあった。 表 4: 日本語 XLSumによる投機的デコーディングの結果. ただし,ターゲットモデルのパラメータ数は 409M である
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-1.pdf
# 拡散過程を用いたキャプション生成における分類器導入の精度 への影響の検証 平野理子 1 小林一郎 1 1 お茶の水女子大学 \{g1920535, koba\}@is.ocha.ac.jp ## 概要 近年,拡散過程を用いた生成モデルは連続領域において最先端の性能を達成しており,離散データ生成においても盛んに研究が行われている。本研究では,拡散言語モデルを使って自然言語処理タスクの一つであるキャプション生成に取り組み,精度向上を目的に画像による制御を言語モデルとは別の構成要素(分類器)によって行う手法と言語モデルのみで実現する手法の性能の違いについて検証を行なった.実験で測定された精度に関して提案手法は比較手法を上回ることができなかったが,提案手法によって画像の内容に応じたキャプションが一定の精度で生成できることを確認した。 ## 1 はじめに 自然言語文生成においては,汎用言語モデルの出現により言語モデル中心の文生成が主流となっている。一方,近年,画像生成においては,拡散過程 (Diffusion Process,DP)を採用した手法が,敵対的生成ネットワーク(GAN)による従来の最高性能を超える画像の生成を可能にした [1]. また Li ら [2] によって,本来連続的な情報を扱う DP に対して離散情報である自然言語を扱えるようにした Diffusion Language Model (DLM) が提案されており, 従来の最高性能を超えるような制御可能な自然言語文生成の可能性が示されている.この拡散過程を使った制御可能な自然言語文生成を可能とした先行研究 [2] では,外部の構成要素(分類器)を導入し制御を行い良い精度を達成している一方,分類器を使用せずに良い精度を達成している拡散過程を用いた制御可能な自然言語文生成手法も提案されている [3]. これら背景を踏まえ,本研究は拡散過程を用いた画像キャプショニング手法の開発,また分類器の導入の有無による精度への影響の調査を目的とする。 ## 2 関連研究 拡散モデルによる画像生成 Stable Diffusion [4] やDALL・E2 [1] は拡散過程を用いて画像を生成するモデルである。これらは与えられたテキストからその内容に従った画像を生成するタスクや画像から画像への変換タスクなどにおいて,非常に高い精度を達成している. Stable Diffusion はノイズ除去ネットワーク内の U-Net 層にてテキストプロンプトを Cross-Attention を使用して Transformer [5] に条件づけることで,入力テキストに応じた画像生成を可能にしている. 拡散過程を用いた seq2seq 自然言語文生成 DiffusionLM [2] は生成文に小さな制約をかけることに成功したが,より高難度な条件を与える seq2seq タスクにおいても拡散過程を用いたモデルは高い性能を示している. SeqDiffSeq [3] はその一例で,新しいノイズスケジュールを提案しテキストの品質と推論時間に関して他の拡散ベースのモデルと比較して多くの seq2seq 生成タスクの性能を向上させた. ノイズ除去ネットワークにはフルアテンションの BART decoder [6] を使っており,ソースシーケンスも入力として与えることで分類器を含まないモデル構造 (Classifier free) になっている. SSD-LM 拡散言語モデルであり,革新的な二つの大きな特徵を持つ。一つ目は,多くの拡散言語モデルはシーケンス全体を一度に生成する非自己回帰的である一方,SSD-LM [7] では半自己回帰的にシー ケンス内でトークンを左から右に生成することで出力の長さの柔軟性が向上している。また一般的な自己回帰言語モデルと同じトークナイザーを採用することで,追加の学習なしで外部の既製分類器を使った制御を可能としている。実際に条件付き条件付きでないテキスト生成どちらにおいても競合ベースラインを上回り,高いモジュール性も備えている. ## 3 拡散過程を用いたキャプション 生成 ## 3.1 提案手法 本研究は拡散過程を用いたキャプション生成手法の開発と精度向上に取り組んでおり, 画像による制御の方法として言語モデルとは別の構成要素となる分類器(Classifier)を導入する場合としない場合の二つの手法を提案し, 精度や結果の比較を行う. 導入をする場合,提案モデルは拡散過程に基づく言語モデル (DLM:Diffusion Language Model) と分類器の二つの要素から構成され,DLM の自然言語文生成過程を分類器で制御することによって画像の内容を説明するキャプションを生成する.分類器を導入しない場合においては,DLM 内のノイズ除去ネットワーク (DNN:Denoising Neural Network) に画像の情報を渡すことで,入力画像に応じた制御を行う. ## 3.2 拡散過程に基づく言語モデル (DLM) DLM とは拡散過程を用いた非自己回帰の言語モデルのことである. DLMを構築するには標準的な連続状態を扱う拡散モデルに幾つかの修正を加える必要があり,埋め込みと丸め込みの過程の導入がその一つである. 埋め込み関数を定義することで離散データであるテキストを連続空間に写像し,丸め込み過程によって連続空間のベクトルを単語を表すべクトルに変換する. DLM の学習の対象はピュアなノイズからノイズを徐々に除去し, 最終的に流暢性のある自然言語文を生成する過程である. つまり各タイムステップにおけるノイズの除去 $p\left(\mathbf{x}_{t-1} \mid \mathbf{x}_{t}\right)$ を実現する際,必要となるパラメータを学習する. 具体的な学習の流れとしては,まず学習テキストデー タをトークン化し,各トークンをべクトル空間に埋め込む. サンプリングされたタイムステップ $t$ によって決められる量のノイズを埋め込み表現に乗せ,ノイズの乗った状態 $\mathbf{x}_{t}$ にする. ノイズの乗った状態 $\mathbf{x}_{t}$ とタイムステップ $t$ をノイズ除去ネットワー ク $f\left(\mathbf{x}_{t}, t\right)$ に与え, 元のノイズの乗っていない状態のデータ $\mathbf{x}_{0}$ を推測させる. 推測した $\mathbf{x}_{0}$ から丸め込んだトークン列 $w$ も求め, 損失関数 (式 (1)) に従ってこれらと元のデータとの損失を計算する。 $ \begin{aligned} L_{\mathrm{DLM}} & =\mathbb{E}_{q_{\phi}\left(\mathbf{x}_{0: T} \mid \mathrm{w}\right)}\left[\left.\|\tilde{\boldsymbol{\mu}}_{t}\left(\mathbf{x}_{t} ; \mathbf{x}_{0}\right)\right.\|^{2}+\sum_{t=2}^{T}\left[\left.\|\mathbf{x}_{0}-f\left(\mathbf{x}_{t}, t\right)\right.\|^{2}\right]\right] \\ & +\mathbb{E}_{q_{\phi}\left(\mathbf{x}_{0: 1} \mid \mathrm{w}\right)}\left[\left.\|\mathrm{w}-f\left(\mathbf{x}_{1}, 1\right)\right.\|^{2}+\log p_{\theta}\left(\mathrm{w} \mid \mathbf{x}_{0}\right)\right] \end{aligned} $ ## 3.3 分類器を使用する手法 分類器分類器の役割は, DLM が自然言語文をサンプルする過程の中で反復的に生成する潜在変数に対して勾配更新を行うことにより,最終的に生成される自然言語文を制御することである。このような条件 $c$ を満たすように潜在変数 $\mathbf{x}_{0: T}$ を制御するモデルは式 (2)で表せる. 本研究で条件 $c$ とは画像,特に画像特徵量のことを指す。 $ p\left(\mathbf{x}_{0: T} \mid c\right)=\prod_{t=1}^{T} p\left(\mathbf{x}_{t-1} \mid \mathbf{x}_{t}, c\right) $ 右辺の確率を分解すると, $ \begin{aligned} p\left(\mathbf{x}_{t-1} \mid \mathbf{x}_{t}, c\right) & \propto p\left(\mathbf{x}_{t-1} \mid \mathbf{x}_{t}\right) \cdot p\left(c \mid \mathbf{x}_{t-1}, \mathbf{x}_{t}\right) \\ & =p\left(\mathbf{x}_{t-1} \mid \mathbf{x}_{t}\right) \cdot p\left(c \mid \mathbf{x}_{t-1}\right) \end{aligned} $ 式 (3) 右辺第一因子の各タイムステップでのノイズの除去 $p\left(\mathbf{x}_{t-1} \mid \mathbf{x}_{t}\right)$ は DLM によってパラメータ化する.つまり式 (3) 右辺第二因子のデータにノイズの乗った状態 $\mathbf{x}_{t}$ から制御条件 $c$ への変換 $p\left(c \mid \mathbf{x}_{t-1}\right)$ が分類器の学習対象である. 学習過程分類器はDLM 内のノイズ除去ネットワーク $f\left(\mathbf{x}_{t}, t\right)$ の出力を使用するため, DLM と分類器は同時に学習を行う. 具体的には, 分類器はノイズの乗った状態 $\mathbf{x}_{t}$ から $f\left(\mathbf{x}_{t}, t\right)$ が推測するノイズの乗る前の状態 $\mathbf{x}_{0}$ を入力として受け取り,これから線形回帰で画像特徵量を予測する. 予測画像特徴量 $\tilde{c}$ と正解画像特徴量 $c$ 間の二乗平均誤差を DLM の損失関数の式 (1) に追加することで(式 (4)), DLM と分類器の同時学習を実現している。 $ L_{\mathrm{DLM} \& C \text { lassfier }}=L_{\mathrm{DLM}}+L_{\mathrm{MSE}}(\tilde{c}, c) $ 生成過程分類器を導入する場合,DLM の生成過程を分類器が制御することで画像に応じた自然言語文が生成される (図 1). 具体的な流れとしては, まず入力としてガウシアンノイズ $\mathbf{x}_{T}$ と画像をモデルに与え, $t=T$ から 1 までの各タイムステップにおいて次の流れを繰り返す.ノイズの乗った状態 $\mathbf{x}_{t}$ から学習をさせた DLM 内のノイズ除去ネットワー ク $f\left(\mathbf{x}_{t}, t\right)$ を使って言語特徴量 $\mathbf{x}_{0}$ を抽出させる. 抽出された言語特徴量から分類器によって予測画像特徵量 $\tilde{c}$ を求め, その予測画像特徴量と正解画像特徴量間の二乗平均誤差と $\mathbf{x}_{t}$ にのっているノイズの量の和から勾配を求め $\mathbf{x}_{t}$ を更新する. 更新した $\mathbf{x}_{t}$ と更新された $\mathbf{x}_{t}$ から改めて推定した $\mathbf{x}_{0}$ を使って, 1 タイムステップノイズを除去した状態 $\mathbf{x}_{t-1}$ をサンプ 図 1 分類器を使用した際のキャプション生成の流れ 図 2 分類器を使用しない場合のキャプション生成の流れ リングする. この流れを反復的に各タイムステップで実行し,最終的に画像に応じたキャプションの生成を実現している。 ## 3.4 分類器を使用しない手法 (Classifier Free) 続いて分類器を導入しない手法について説明をする。制御を行う外部要素がない場合,画像による制御を行うために単純に DLM 内のノイズ除去ネットワークに画像特徴量 $c$ を条件として与える. $ \tilde{\mathbf{x}_{0}} \approx f\left(\mathbf{x}_{t}, t, c\right) $ ノイズ除去ネットワークに画像特徴量 $c$ を条件付けする方法として,ネットワーク内の Multi-Head Attention 層において Cross-Attention を導入している. つまりノイズの乗った状態 $\mathbf{x}_{t}$ と画像特徴量 $c$ から, $Q=\mathbf{x}_{t} \cdot W_{Q}, K=c \cdot W_{K}, V=c \cdot W_{V}$ として $Q, K, V$ を用意する。.このようにすることで DLM 内の潜在変数に画像の情報が注入されるようになっている (図 2). ## 4 実験 本実験の目的は提案手法を用いて入力画像から実際に生成されるキャプションの精度を求め評価を行うことで, 分類器の導入の有無による精度の違いを検証することである. ## 4.1 実験設定 データセットデータセットには, Microsoft $\mathrm{COCO}^{1 } \text { を使用する. 広く使われている Karpathy 分 }$割方法 [11] に従って 113,287 枚を学習データ,5,000 1) https://cocodataset.org/\#home枚を評価データとしこれを用いてパラメータ調整を行った. 残りの 5,000 枚をテストデータとし評価を行う. DLM の学習時語彙数は 13,461 , 埋め込み次元は 256 に設定されている。また DLM 内の DNN(ノイズ除去ネットワーク) には BERT Encoder [5] を使用しており,画像から特徴量を抽出する手法には BLIP [12] を採用している. 評価指標他の手法と提案手法の性能比較として,生成されたキャプションを品質と多様性の 2 つの側面から評価する.品質の評価としては 5 つの評価指標を導入している。まず画像キャプショニングの標準的な評価方法に従って 4 つの評価指標 BLEU [13], METEOR [14], ROUGE-L [15], CIDEr [16] を用いる. BLEU や METEOR は機械翻訳,ROUGE-L は要約,CIDEr は画像キャプショニングタスクによく使われる評価指標である.これらは生成文と正解文の間の文字列類似性を図るため,意味的類似性の評価を目的に BERTScore [17] を導入する.続いて多様性の指標として 3 つ導入をしている。一つ目の dist-1 は各生成文内の多様性を測定するものであり,值が低いと生成文に繰り返しの単語がより含まれていることを示唆する.続いて文レべルの自己 BLEUを使って文レベルの多様性を評価する.これは 1 つの画像からの出力セットにおける n-gram 重複を測定するもので,值が低いことは多様性が高いと考えられる.最後に出力セット内の異なる 4-gram の比率を表す多様な 4-gram (div-4)を計算する。提案手法についてひとつの画像ごとに 5 つのサンプルを生成し多様性の評価指標を計算している. 比較手法比較手法として 3 つの手法, OFA [8], LaBERT [9] と DDCap [10] を使って性能を比較する. OFA は現在の SOTA な画像キャプショニング手法の一つであり,モダリティ (画像や言語) とタスクを統合して扱う seq2seq モデルである. LaBERT は文長制御が可能な DLM と同じく非自己回帰的にキャプションを生成する. DDCap は拡散過程を用いてキャプション生成に取り組んでいる Classifier free 手法である.提案手法の DLM では内部のデータは連続状態であるのに対し,DDCap はデータを離散状態のまま DLM 内で取り扱う。 ## 4.2 結果 評価指標において,提案手法は分類器の有無に関わらず比較手法と比べて良い精度を達成することは 表 1 実験結果 表 2 分類器の有無による生成キャプション例の比較 有:A man holding a plate of food standing in a kitchen.無:A man that is sitting on in a kitchen. 有: a man sitting on a bench reading a book 無:A bench on the edge of a park bench. 有:Two young people sitting on a court is tire 無:A group of people sitting around a bench or UNK. 有:A classroom vintage of luggage two pieces of various suitcases 無:A luggage suitcase is out in the middle of the luggage. 有:A piece of pizza sitting on top of a green plate.無:A cup of on a plate near a. 有:A man riding a motorcycle down a drive.無:A man riding a motorcycle down the street. 有:A bird perched on a branches of a tree forest in Michael.無:A bird sitting on top of a tree. 有:A papers of buses that are parked on the ground 無:A city is down the street. 理方法について修正が必要であると考えている。 ## 5 まとめ 拡散過程を用いた生成モデルは,ピュアなノイズから反復的に少しずつノイズを除去することで,最終的にデータをサンプルする. 本研究では拡散過程を用いた画像キャプショニング手法を開発し,また分類器の導入の有無による精度の比較を行った. 実際に画像からキャプションを生成する実験を通して, 分類器を導入しない手法よりも分類器を使用して制御を行う手法の方が評価指標において高い精度を達成することを確認した. また分類器の導入の有無に関わらず,提案手法は拡散過程を用いて画像から画像の内容を適切に捉えたキャプションを一定の精度で生成できることを示している。一方提案手法は他の拡散言語モデルを使った画像キャプショニング手法を含め比較手法と比べ良い精度を達成できていない. 今後は,言語モデル DLM 内のノイズ除去ネットワーク (DNN) について様々な構造を試したり, 分類器を使わない場合において画像の特徵量の DNN のの力の仕方を改良したり,提案手法の更なる精度の向上に取り組みたい。 ## 謝辞 本研究は JSPS 科研費 18 H05521 の助成を受けて 行ったものです. ## 参考文献 [1] Ramesh Aditya, et al. Hierarchical text-conditional image generation with CLIP latents. CoRR, 2022. [2] Xiang Lisa Li, et al. Diffusion-lm improves controllable text generation. ArXiv, Vol. abs/2205.14217, , 2022. [3] Yuan Hongyi, et al. Seqdiffuseq: Text diffusion with encoder-decoder transformers. ArXiv, 2022. [4] Rombach Robin, et al. High-resolution image synthesis with latent diffusion models. CoRR, 2021. [5] Vaswani Ashish, et al. Attention is all you need. CoRR, Vol. abs/1706.03762, , 2017. [6] Mike Lewis, et al. BART: Denoising sequence-tosequence pre-training for natural language generation, translation, and comprehension. 2020. [7] Xiaochuang Han, et al. Ssd-lm: Semi-autoregressive simplex-based diffusion language model for text generation and modular control. ACL: Annual Meeting of the Association for Computational Linguistics. [8] Wang Peng, et al. Ofa: Unifying architectures, tasks, and modalities through a simple sequence-to-sequence learning framework. CoRR, 2022. [9] Chaorui Deng, et al. Length-controllable image captioning. arXiv preprint arXiv:2007.09580, 2020. [10] Zixin Zhu, et al. Exploring discrete diffusion models for image captioning. arXiv preprint arXiv:2211.11694, 2022. [11] Karpathy Andrej, et al. Deep visual-semantic alignments for generating image descriptions. CoRR, Vol. abs/1412.2306, , 2014. [12] Junnan Li, Dongxu Li, Caiming Xiong, and Steven Hoi. Blip: Bootstrapping language-image pre-training for unified vision-language understanding and generation. In ICML, 2022. [13] Kishore Papineni, et al. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, 2002. [14] Satanjeev Banerjee, et al. METEOR: An automatic metric for MT evaluation with improved correlation with human judgments. 2005. [15] Unnat Jain, et al. Two can play this game: Visual dia$\log$ with discriminative question generation and answering. 2018. [16] Ramakrishna Vedantam, et al. Cider: Consensus-based image description evaluation. 2015. [17] Zhang Tianyi, et al. Bertscore: Evaluating text generation with bert. 2020 .
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-20.pdf
# Improving the Image Discrimination Ability for CLIP-Model via Semantic Graphs through Graph Convolutional Network Sangmyeong Lee ${ }^{1}$ Seitaro Shinagawa ${ }^{1}$ Koichiro Yoshino ${ }^{1,2}$ Satoshi Nakamura ${ }^{1}$ ${ }^{1}$ Nara Institute of Science and Technology ${ }^{2}$ Guardian Robot Project, RIKEN lee.sangmyeong. [email protected] } \begin{abstract} The Contrastive Language-Image Pre-training (CLIP) model is based on plain textual inputs, leading to a challenge in handling structural ambiguity residing inside a text. This paper examines the effectiveness of semantic graphs, the graph format representation converted from syntax trees, using a graph convolutional network (GCN) as the CLIP model's input to address this challenge. Additionally, we leverage the integrated gradient methodology to analyse how semantic graphs are interpreted within the model's architecture. \end{abstract ## 1 Introduction Contrastive Language Image Pre-training (CLIP) [1] has demonstrated its effectiveness in Vision and Language (V\&L) tasks like few-shot and zero-shot classification, leveraging large text-image pair datasets, applied to models like Stable Diffusion [2], one of the state-of-the-art text-to-image generation models. However, CLIP model's heavy dependence on plain textual inputs poses challenges in capturing semantic nuances from structural information in input texts. Among these challenges, we focus on structural ambiguity, where a sentence can be interpreted in multiple syntactic ways. In Figure 1 (A), the position of the bag can differ, either on a chair or in the man's arms, based on the syntactic structure. This raises a concern for the CLIP model's ability to clearly discriminate ambiguous vision and language pairs to meet the user's intention. In the realm of linguistics, structural information of language is expressed using linguistic formalism, a systematic representation of the lingual structure. Our previous research [3] attempted to insert the syntax tree, the most representative type of formalism, into the CLIP model's Figure 1 (A) : Multiple meanings of the text "Danny approached the chair with a bag." based on the syntactic structure, (B) : Textualised syntax tree from the same input text, (C) : Semantic graph representing the same meaning with (B). text encoder by simply treating it as a text consisting of words, POS tags, and brackets (Figure 1 (B)), outperforming the conventional CLIP model in image discrimination. While successful, textualised syntax trees had the following problems: - With additional brackets and POS tags, the syntax tree's sequence length had potential threats to exceed the CLIP model's limitation. - Tokenisation was performed in an unintentional manner, leading to wrong inference. In this paper, we try another formalism called semantic graphs (Figure 1 (C)). Semantic graphs abstract away the core meaning of a sentence by representation of predicates (e.g. verbs) and arguments within (nouns). We expect the semantic graphs to be free from the problems above hence leading to better discrimination performance. We try out a Graph Convolutional Network (GCN) [4] as the encoding strategy and undergo the analysis of the model's inference principle. ## 2 Related Studies ## 2.1 Limitations of the CLIP model's Plain Textual Inputs While our research isn't directly related with this aspect, the CLIP model's ability to correctly associate images with the right arrangements of words, known as Visio-Linguistic Compositionality, is reported to be poor in the current CLIP model [5]. As a response, there have been attempts to deal with this challenge by leveraging scene graphs, which shows the visual structural information between the objects appearing inside the image [6,7]. Our research is different from these research in following points: - Ambiguity is a subject beyond compositionality. Even if the compositionality is solved, disambiguation remains a challenge. - While scene graph processing is usually done by individually encoding partial triplets of objects and relation, our graph methodology considers the overall flow through nodes and edges. - Instead of visual structural information, ours employ the linguistic structural information. ## 2.2 GCN for Natural Language Processing GCN has been applied in the field of Natural Language Processing by encoding graph-structured linguistic formalisms. Examples include syntax trees based on dependency grammar $[8,9]$, semantic graphs $[10,11]$, etc. Our proposal is profoundly based on this idea, by constructing a semantic graph from a sentence then passing it through GCN. ## 3 Proposed Method The overview of our proposal is illustrated in Figure 2. Compared with the conventional CLIP model, the proposal has two key distinctions. First, during the fine-tuning process, we keep the CLIP model's vision component parameters fixed, since the extensively pre-trained vision encoder is expected to yield high performance without extra training. Second, out model presumes a graph parser transforming the textual input into the graph, and a GCN network to Figure 2 Overview of the proposal. The sentence is transformed into a semantic graph and then encoded through the GCN encoder. acquire characteristic vectors from the graph. We combine these vectors with the text vectors independently acquired from the conventional CLIP's text encoder, through concatenation and linear projection. As the graph parser, we employ HanLP [12], and the pre-trained CLIP vision and text encoders are from Huggingface ${ }^{1)}$. Our GCN is based on Morris et al.'s work [13], where a single node vector undergoes an update according to the formula (from the kth layer to the $(\mathrm{k}+1) \mathrm{th})$ : $ x_{i}^{k+1}=W_{1} x_{i}^{k}+W_{2}\left(\sum_{j \in \text { Neighbours }(i)} e_{j, i} \cdot x_{j}\right) $ This formulation involves two essential weight matrices: $W_{1}$ for the self-recurrent computation and $W_{2}$ for managing the weights of neighbouring edges from the node $\left(e_{j, i}\right)$. ## 4 Experiments There are two research questions our experiments aims to observe: - Can integrating semantic graphs into the CLIP model enhance its ability to discriminate vision and language pairs with structural ambiguity? (Section 4.1) - Does leveraging semantic graphs result in sound discrimination quality even in general scenarios irrelevant to ambiguity? (Section 4.2) We compare three models as follows: - CLIP $_{\text {plain }}$ : Conventional CLIP model with plain text inputs, which is our baseline. - CLIP tree as text : Conventional CLIP model architecture fine-tuned with linearised textual syntax trees as inputs[3], which is the other baseline. - CLIP $_{\mathrm{GCN}}$ : GCN applied to a semantic graph, which is our proposal. 1) https://huggingface.co/openai/clip-vit-base-patch32 ## 4.1 Structural Disambiguation Experiment The focus of this experiment is to leverage the semantic graphs to accurately discriminate vision and language pairs with structural ambiguity. As a dataset, we employ Language And Vision Ambiguities (LAVA) corpus [14], which consists of structurally ambiguous texts with two possible interpretations, two corresponding images, two corresponding syntax trees, and two corresponding semantic parsed information. Since linguistic formalisms are already offered in the corpus, we don't use the parser previously mentioned in this experiment. Evaluation metrics we employ are as follows: Discrimination Accuracy evaluates the model's ability to successfully discriminate ambiguous vision and language pairs. At every time step, the model is given two vision and language pairs sharing the same plain text but with different interpretations from structural ambiguity. We count the correctly matched pairs, and the accuracy is computed as the ratio of the number of correct matches over the total data pairs. Recall@K evaluates the model's performance in the context of image retrieval, where we search for the right pair for the input from all the test data. With the values of $\mathrm{K}$ set as 1,5 , and 10 in advance, for each $\mathrm{K}$, we count the number of inputs for which the correct match was found within the top $\mathrm{K}$ search results. We evaluate using this metric bidirectionally-text-to-image and image-to-text. ## 4.2 Generality Evaluation Experiment The objective of this experiment is to assess the model's performance in diverse scenarios, aiming to determine its ability to generalize across various contexts without being excessively tailored to specific datasets, such as LAVA. To explore this question, we use Microsoft COCO [15], a dataset equipped with a substantial number of vision and language pairs depicting various situations and contexts. This dataset has no language data other than plain texts, hence we use HanLP parser mentioned in Section 3. As for the metrics, we use Recall@K, but not the discrimination accuracy since this experiment has little to do with ambiguity. ## 5 Experimental Results ## 5.1 Structural Disambiguation Experimental Results The upper part in Table 1 shows the disambiguation experimental results on LAVA corpus. In assessing discrimination accuracy, our proposal outperformed the baselines, with 77.53 in accuracy, suggesting the proposal's effec- shows largely the best results. And except for the case where $\mathrm{K}$ equals 1 , our proposal is even outperformed by ## 5.2 Generality Evaluation Experimental Results The bottom part in Table 1 shows the generality evalution results on COCO dataset. In this section, our proposal showed the worst performance. While there has been a decline across almost every aspect compared with LAVA, our proposal showed the worst decline. One notable thing mance decline is less severe than that of our proposal. to-text direction. Considering as well the CLIP tree as text $^{\text {'s }}$ best performance across the Recall@K in Section 5.1, one could speculate this performance owing to the model's preservation of the conventional CLIP model's pre-trained structure. Overall, our proposal showed the best performance in Figure 3 Discriminating examples where the scenario features a single person. Both graphs are generated from the same sentence, presented in the bottom. The numbers on the red arrows indicate the model's inference probability, and nodes enclosed in red circles highlight the actual differences between the top and bottom graphs. Two different arrows represent the model's matching and the actual right pair. In this case, both inferences are successful, with the top graph of the high probability and the bottom graph of the low probability. discrimination accuracy but the lowest in generality. This discrepancy in performance of the proposal necessitates further analysis. ## 6 Analysis For our GCN proposal model, we employed the Integrated Gradients method [16], which involves interpolating between the input and an empty zero baseline input of the same size, accumulating gradient values for each edge. The focus of our analysis is to see if the model's attention is given to the adequate parts of the graph in disambiguation using the LAVA corpus. The difference between two different graphs from the same sentence is enclosed within red circles in Figure 3 and 4. Figure 3 shows the successful discrimination examples where the scenario covers a single person. The difference in graphs appear in meaning as the position of the bag, whether on the chair on in the man's arms. In Figure 3 it is evident that the model is concentrating on the right part hence leading to successful matching. Additionally, it is notable that the bottom example shows less attention which is demonstrated by the less thickness of edges, given compared with that given to the upper example, and the inference probability is significantly lower (0.546). This suggests the attribution of semantic graph in its right intention in discrimination tasks. However, there was a problem observed in scenarios covering two people as shown in Figure 4. In the sen- Figure 4 Discriminating examples where the scenario features two people. The Figure structure is as same as that of Figure 3. Both graphs are matched to the right images. tence "Danny looked at Andrei having a yellow chair.", the difference in meaning is 'who' has the bag, Andrei or Danny. As the LAVA corpus assigns distinct personal names, treating them as proper nouns instead of providing general absolute characteristics like appearance descriptions, it becomes challenging to distinguish individuals, such as determining who is Andrei and who is Danny, even with the assistance of semantic graphs. Consequently, in scenarios involving more than two people, the model became excessively tailored to precisely differentiate between these pairs. In Figure 4, while the matching is successful with high inference probability, the upper example doesn't show the model's attention given to the right part to focus on. Throughout the text examples, the model usually chose an extreme strategy to focus on every edge in one pair and pay attention to random few edges in the other. Overall, it could be said that while leveraging semantic graphs showed successful discrimination performance both in quantitative and qualitative manners for certain cases, innate noise included in the data hindered the model's correct inference, calling out a need for a more robust dataset. ## 7 Conclusion This paper introduces the integration of semantic graphs into the CLIP model to enhance its discrimination performance for disambiguation. Our experiments demonstrate superior accuracy, highlighting the proposal's strength. However, limitations, such as the model's generality and potential impact of noisy parsed linguistic formalism, remain unexplored. The exclusive focus on CLIP raises questions about the generalisability of our findings to other Vision and Language models. Future research will address these limitations to further refine and extend our approach. ## Acknowledgement This work was supported by JSPS KAKENHI Grant Numbers 21K17806. ## References [1] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, Gretchen Krueger, and Ilya Sutskever. Learning transferable visual models from natural language supervision. In ICML, 2021. [2] Robin Rombach, A. Blattmann, Dominik Lorenz, Patrick Esser, and Björn Ommer. High-resolution image synthesis with latent diffusion models. In CVPR, pp. 10674-10685, 2021 [3] 李相明, 品川政太朗, 中村哲. Clip におけるテキストの構文情報理解による画像識別能力の向上.画像の認識・理解シンポジウム. [Lee Sangmyeong, Seitaro Shinagawa, and Satoshi Nakamura (2023). Improving Image Discrimination Ability through Understanding of Textual Syntactic Information in CLIP. Meeting on Image Recognition and Understanding (MIRU)], 72023. [4] Thomas Kipf and Max Welling. Semi-supervised classification with graph convolutional networks. ArXiv, Vol. abs/1609.02907, , 2016 [5] Yutaro Yamada, Yingtian Tang, and Ilker Yildirim. When are lemons purple? the concept association bias of clip. ArXiv, Vol. abs/2212.12043, , 2022. [6] Yufen Huang, Jiji Tang, Zhuo Chen, Rongsheng Zhang, Xinfeng Zhang, Weijie Chen, Zeng Zhao, Tangjie Lv, Zhipeng $\mathrm{Hu}$, and Wen Zhang. Structure-clip: Enhance multi-modal language representations with structure knowledge. ArXiv, Vol. abs/2305.06152, , 2023. [7] Harman Singh, Pengchuan Zhang, Qifan Wang, Mengjiao MJ Wang, Wenhan Xiong, Jingfei Du, and Yu Chen. Coarse-to-fine contrastive learning in imagetext-graph space for improved vision-language compositionality. ArXiv, Vol. abs/2305.13812, , 2023. [8] Diego Marcheggiani and Ivan Titov. Encoding sentences with graph convolutional networks for semantic role labeling. In EMNLP, 2017. [9] Emanuele Bastianelli, Andrea Vanzo, and Oliver Lemon. Encoding syntactic constituency paths for frame-semantic parsing with graph convolutional networks. ArXiv, Vol. abs/2011.13210, , 2020 [10] He Cao and Dongyan Zhao. Leveraging denoised abstract meaning representation for grammatical error correction. In ACL, 2023. [11] Weiwen Xu, Huihui Zhang, Deng Cai, and Wai Lam. Dynamic semantic graph construction and reasoning for explainable multi-hop science question answering. ArXiv, Vol. abs/2105.11776, , 2021. [12] Han He and Jinho D. Choi. The stem cell hypothesis: Dilemma behind multi-task learning with transformer encoders. In Marie-Francine Moens, Xuanjing Huang, Lucia Specia, and Scott Wen-tau Yih, editors, EMNLP, pp. 5555-5577, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [13] Christopher Morris, Martin Ritzert, Matthias Fey, William L. Hamilton, Jan Eric Lenssen, Gaurav Rattan, and Martin Grohe. Weisfeiler and leman go neural: Higher-order graph neural networks. In AAAI, 2018. [14] Yevgeni Berzak, Andrei Barbu, Daniel Harari, Boris Katz, and Shimon Ullman. Do you see what i mean? visual resolution of linguistic ambiguities. In EMNLP, 2015. [15] Tsung-Yi Lin, Michael Maire, Serge J. Belongie, James Hays, Pietro Perona, Deva Ramanan, Piotr Dollár, and C. Lawrence Zitnick. Microsoft coco: Common objects in context. In ECCV, 2014. [16] Mukund Sundararajan, Ankur Taly, and Qiqi Yan. Axiomatic attribution for deep networks. In ICML, 2017.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-21.pdf
# 大規模視覚言語モデルに関する指示追従能力の検証 塩野大輝 1 宮脇峻平 ${ }^{1}$ 田中涼太 ${ }^{1,2}$ 鈴木潤 1,3 1 東北大学 ${ }^{2} \mathrm{NTT}$ 人間情報研究所 ${ }^{3}$ 理化学研究所 \{daiki.shiono.s1\}@dc. tohoku.ac.jp \{shumpei.miyawaki.b7, tanaka.ryota.r7, jun.suzuki\}@tohoku.ac.jp ## 概要 大規模言語モデル(LLM)の隆盛を背景に,視覚言語モデルに LLMを組み込んだ大規模視覚言語モデル(LVLM)の提案が盛んに行われている. しかし,追加学習後の LVLM は組み込まれる前の LLM が有していた指示追従能力を示さず,タスク指示に従わない事例が観測されている. そこで本研究では,追加学習後の LVLM の指示追従能力が低下することを世界で初めて定量的に示し明らかにする。 さらに LVLM の指示追従能力の低下の原因となる要素を洗い出し,モデルの指示追従能力を評価した結果,追加学習時の出力形式に関する指示の有無が指示追従能力の低下に大きな影響を与えている可能性があることを示す. ## 1 はじめに 視覚情報と言語情報の意味関係を紐づけたマルチモーダルな知識 [1] を活用して,計算機が人により与えられた指示に基づいて適切な推論を実現することは,人工知能研究が目指す最終目的の一つである. 2024 年現在では,大規模言語モデル(LLM) の技術的進展が目覚ましく,この進展を受けて,画像とテキストを入力として,テキストを出力する GiT [2],BLIP-2 [3],LLaVA [4] などのオープンソー スの大規模視覚言語モデル (LVLM) が数多く提案されている. LVLM では言語生成器に LLM を用いることで,多様かつ大規模な言語コーパスで学習された LLM による高度な言語推論能力を活用することができる.LLM / LVLM は,一般に指示文に基づく応答生成ができるほど高いタスク汎化性能を発揮する [5]. また指示文に従う能力は,下流タスクの性能だけでなく, 安全性と信頼性という観点からも重要であり,特に医療などのシナリオでは指示に反する意図しない出力が悲惨な結果を招く可能性もある。そのため,指示文に反する出力の軽減とその 図 1 本研究において取り組む問題の例. LVLM の指示追従能力が LLM に比べて低いという現状を定量的に明らかにし,指示追従能力の低下をもたらす要因を考察する。 評価が,安全性・信頼性において重要であると言える. 視覚的質問応答タスクなど数多の視覚言語タスクにおいて LVLM は優れた推論能力を実現している.しかし,LVLM に組み込まれる前の LLM であれば指示文に従って回答できるような問題であっても,追加学習後の LVLM は指示文に従うことができない事例が観測されている [6]. 本研究では,追加学習後の LVLM の指示文に従う能力を定量的に評価し,指示文に従う能力が低下していることを初めて定量的に示し明らかにする。さらに,LVLM の指示文に従う能力低下に対する原因の解明を目指す(図 1).まず,出力形式に関する指示を含んだ追加学習データセットを新たに作成する (3 章). さらに,追加学習後の LVLM の指示追従能力の低下を定量的に示す (4, 5 章). 加えて,LVLM の指示追従能力の低下の原因となる要素を洗い出し,モデルの指示追従能力を評価することで,特定の要素が LVLM の指示追従能力に与える影響を調査する.実験結果より,LVLM の指示追従能力の低下に大きな影響を与えているのは,追加学習時の出力形式に関する指示の有無である可能性が高く,視覚情報による影響は小さい可能性があることを示す。 ## 2 関連研究 ## 2.1 LLM / LVLM における指示追従能力 人間から与えられた指示に従った応答文を LLM が生成することは, 意図しない応答文の生成を抑制するという観点から社会的実装において重要な役割を持つ. Li らはLLM の “指示追従能力” を,学習データセットから取得可能な文脈知識とは異なる指示文に従う能力とみなし,指示追従能力の評価を試みている [7]. Li らに倣い, 本研究では, 指示追従能力を「モデル(LLM / LVLM)が入力された事前知識と一致しない可能性のある指示文に従う能力」 と定義し, モデルの指示追従能力の評価を実施する. 近年では複雑な人間の指示に高い追従性を示す LLM が数多く提案されており, これらの LLM は多様なタスクに対して,指示文と対象タスクの入出力ペアが対になった指示付きの学習データセットで追加学習 (Instruction Tuning (指示学習)) される. また指示学習の入力データに画像を含めることで,指示追従能力の獲得が視覚言語タスクまで拡張された Visual Instruction Tuning(視觉指示学習)も提案されており [4],LVLM の学習に広く使用されている。 ## 2.2 LVLM の指示追従能力の脆弱性 優れた汎化性能を実現する LVLM であるが,画像中に存在する物体の位置や数を正確に把握できないこと,架空の物体に関する指示に対して誤認した応答を生成することなど,視覚処理および指示追従の観点の一部で脆弱性が定性的に観察されている [6]. しかし, LVLM の指示追従能力の定量的な評価は依然としてなされていない。そこで本研究では,LVLM の指示追従能力を定量的に評価する。 ## 2.3 視覚指示学習データセットの課題 先行研究にみられる視覚指示学習データセット $[4,8]$ では, GPT-4 [9] のような LLMを用いて画像キャプションから指示付きの学習データを生成する. しかし, 我々はこれらの視覚指示学習データセットには,出力形式に関するタスク指示が含まれてないことを定性的に確認した. そこで本研究では,出力形式に関するタスク指示が含まれた(視覚)指示学習データセットを新たに作成し, 出力形式に関するタスク指示の有無による LVLM の指示追従能力に対する影響を調査する。 ## 3 指示追従データセット ## 3.1 (視覚)指示学習データセットの作成 ## 視覚指示学習データの出力形式に関する指示の不足による影響 図 1 では, LVLM が出力形式に関 する指示内容を正しく考慮できていない例を示し た.を対象とした研究分野において,多様性を担保 しながら出力形式を明示的に指示するようなデータ セットは十分に存在しない,そこで我々は追加学習用の二種類の視覚指示学習データセットを作成した (図 2).まず COC0 2014 [10] の検証データセットか ら 10,000 件の画像を無作為に収集した. 次に,こ れら 10,000 件の画像全てに対して,GPT-4V [11]を 使用して画像キャプションを生成した。また,LLM の指示追従能力を評価するためのデータセットであ る IFEval データセット [12] から出力形式に関する タスク指示を 100 件無作為に抽出した. さらに画像 キャプションと出力形式に関するタスク指示から質問文と解答を GPT-4 により生成した.これにより, \{画像, 画像キャプション, 出力形式に関するタスク 指示, 質問文, 解答 $\}$ のペアを 5,000 件得た. これに より,以下の二種類のデータセットが作成できる. - Format Oriented Visual Instruction Tuning (FOVIT) データセット(図 2.a): \{画像, 出力形式に関するタスク指示, 質問文, 解答 $\}$ のペア 5,000 件 - Format Oriented Instruction Tuning (FOIT) データセット(図 2.b) : \{画像キャプション, 出力形式に関するタスク指示, 質問文, 解答 $\}$ のペア 5,000 件 視覚情報による影響追加学習時に入力する情報を言語情報のみに限定した場合,すなわち LVLM のベース LLM をテキストのみで追加学習する場合,出力形式に関する指示の有無がベース LLM の指示追従能力に与える影響を調査する。具体的には,出力形式に関する指示が含まれたデータセットで追加学習した LLM と出力形式に関する指示が含まれないデータセットで追加学習した LLMを 3.2 節で作成した指示追従能力評価データセットで評価する. 3.1 節の結果と本節の結果から, 視覚情報の有無がモデルの指示追従能力に与える影響を調査できる.上述の画像キャプションと質問文から解答を GPT-4 により生成し, \{画像, 画像キャプション, 質問文, 解答\}のペアをさらに 5,000 件得た.これにより,以 図 $2 \mathrm{COCO}$ 画像と,GPT-4Vにより生成された画像キャプション,IFEval データセットから抽出された出力形式に関するタスク指示,GPT-4 により生成された質問文と解答からなる(視覚)指示学習データセットの一例(3.1 節). 下二種類のデータセットが作成できる(図 2). - Not Format Oriented Visual Instruction Tuning (NoFOVIT) データセット(図 2.c):\{画像, 質問文, 解答 $\}$ のペア 5,000 件 - Not Format Oriented Instruction Tuning (NoFOIT) データセット(図 2.d): \{画像キャプション, 質問文, 解答 $\}$ のペア 5,000 件 ## 3.2 指示追従能力評価用データ Li ら [7] は,LLM の指示追従能力を評価するにあたり, 事前に定義されたラベルの生成が必要な二值分類タスクを評価対象として,LLM が指示文に従うかどうかを評価する verbalizer manipulation を提案している. 例えば感情分類では positive, negative というラベルが定義されるが,分類タスクを解くという指示に従うのであれば $a$ ,bのようなラベルを割り当てることで十分である. Verbalizer manipulation では,ラベルの意味表現と学習時の文脈知識の整合性別に以下の三つのラベル体系を定義して,LLM が分類タスクを解くという指示に追従するか段階的に評価する(図3): ・ Natural: ラベルと学習時の文脈の意味表現が一致する(整合性が高い)。 - Neutral: ラベルと学習時の文脈の意味表現に関連性がない。 - Unnatural: ラベルと学習時の文脈の意味表現が ## \# 評価データセットの事例 If a movie review is positive, you need to output "\{label_0\}". If a movie review is negative, you need to output "\{label_1\}". Movie review: lovely and poignant. Answer: } & & \\ 図 3 SST-2 のデータを用いた verbalizer manipulation よる評価セットの作成方法. 文脈とラベルの意味表現との整合性に基づいて “Natural”, “Neutral”, “Unnatural” の 3 種類のラベルが定義される. ## 一致しない(整合性が低い)。 Verbalizer manipulation によって,モデルが事前知識に依存しているか,または指示に正確に従うために事前知識を上書きする能力(指示追従能力)を評価することができる. 我々は, $\mathrm{Li}$ ら [7] に倣い,九つの二值分類データセット (SST-2 [13], FP [14], EMOTION [15], SNLI [16], SICK [17], RTE [18], QQP [19], MRPC [20], SUBJ [21]) それぞれに対して 12 セットの verbalizer manipulation を実施して評価データセットを構築した。 ## 4 実験設定 視覚指示学習が LVLM の指示追従能力にもたらす影響を調査すべく,LVLM およびその言語生成器であるベース LLMを 3.1 節のデータセットで学習し,各モデルの指示追従能力を 3.2 節のデータセットを用いて評価を行った。 評価対象となるモデル LVLM,LLM の追加学習前のベース LLM には Llama 2-Chat 7B [22]を使用した. 追加学習済みのモデルは LVLM $_{\text {FOVIT }}$, LVLM $_{\text {NoFOVIT }}$, LLM $_{\text {FOIT }}$, LLM $_{\text {NoFOIT }}$, LVLM $_{\text {LLaVA }}$ で表現し,それぞれ FOVIT, NoFOVIT, FOIT, NoFOIT, LLaVA-Instruct-150K で追加学習したことを示す. LVLM,LLM の追加学習時の詳細な設定は付録を参照されたい. 推論時は全てのモデルで最大出力トークン数を 15 ,ビーム幅を 10 とした. 評価データセット 3.2 節で作成した指示追従能力評価データセットで評価した。このデータセットは,九種類の二値分類タスクを対象に図 3 のような verbalizer manipulationを実施したものである. 詳細なデータ件数は付録に示した. LVLMを 3.2 節で作成したデータセットで評価する際には,該当する画像情報が存在しないため, 白塗りの画像を視覚情報として入力した. 評価指標評価指標には,SQuAD v2 [23] で提案された $F_{1}$ 値を採用した. 本指標では,事前に定義した二値分類のラベルを正解のトークン系列とする。言語モデルによって生成された応答トークン系列と正解のトークン系列との重複トークン数に基づいて再現率および適合率が算出され,正解と重複するトークン数が多いほど $F_{1}$ 值が大きくなる. ## 5 実験結果 3.2 節によって作成されたデータセットを用いて,追加学習済みのモデルの指示追従能力を評価した結果を図 4 に示す. 指示追従能力の低下の検証 Verbalizer manipulation における Natural, Neutral および $F_{1}$ 值のマク口平均を示す Allにおいて,追加学習を実施した LVLM $_{\text {FOVIT }}$ を除く全てのモデルがベース LLM である LLM (Llama 2-Chat 7B) よりも低い $F_{1}$ 値となった.特にモデルが事前知識に依存せずに,与えられた指示に従うかを評価する Unnatural においては全ての追加学習済みモデルにおいて LLM (Llama 2-Chat 7B) を下回る結果となった. このことは,ベース LLM LVLM $_{\text {NoFOVIT }}$, LLM $_{\text {FOIT }}$, LLM $_{\text {NoFOIT }}$, LVLM $_{\text {LLaVA }}$ はそれぞれ FOVIT, NoFOVIT, FOIT, NoFOIT, LLaVA-Instruct-150K デー タセットで追加学習したモデルを表す.また “All” は "Natural", "Neutral", "Unnatural" の $F_{1}$ 值のマクロ平均. が有していた指示追従能力の低下が追加学習に起因することを示唆している。 ## 視覚指示学習データ中の出力形式に関する指示 の有無による影響 Verbalizer manipulation における 全てのラベル体系において, LVLM $_{\text {NoFOVIT }} よ り も$ LVLM $_{\text {FOVIT }}$ の $F_{1}$ 値が高い結果となった. FOVIT は 出力形式の指示が含まれた視覚指示学習データセッ トであることから,出力形式を明示的に与えること によりベース LLM が有している指示追従能力の低下を抑制できることが示唆された。 視覚情報による影響また全てのラベル体系にお 果となった. FOIT は出力形式の指示が含まれた指示学習データセットであることから,追加学習時に入力する情報を言語情報のみに限定した場合であっても, 出力形式を学習データ中に明示的に与えることによってべース LLM が有している指示追従能力の低下を抑制できることが示唆された。 ## 6 おわりに 本研究では,LVLM の指示追従能力を定量的に評価した. 実験結果より,LVLM の指示追従能力の低下をはじめて定量的に確認できた。さらに,LVLM のみならず LLM においてもモデル追加学習時の出力形式に関する指示の有無が指示追従能力に大きな影響を与える可能性があることを示唆した. 今後の展望として, 出力形式に関する指示データの量とモデルの指示追従能力との関係を精緻に調査したい. ## 謝辞 本研究は,JST ムーンショット型研究開発事業 JPMJMS2011-35 (fundamental research) の助成を受けて実施されたものである. 研究遂行にあたりご助言ご協力を賜りました Tohoku NLP グループの皆様に感謝申し上げます。 ## 参考文献 [1] C.K. Odgen and I.A. Richards. The Meaning of Meaning A Study of the Influence of Language upon Thought and of the Science of Symbolism. Routledge \& Kegan Paul Ltd., 1923. [2] Jianfeng Wang, Zhengyuan Yang, Xiaowei Hu, Linjie Li, Kevin Lin, Zhe Gan, Zicheng Liu, Ce Liu, and Lijuan Wang. Git: A generative image-to-text transformer for vision and language. arXiv preprint arXiv:2205.14100, 2022. [3] Junnan Li, Dongxu Li, Silvio Savarese, and Steven Hoi. Blip-2: Bootstrapping language-image pre-training with frozen image encoders and large language models. arXiv preprint arXiv:2301.12597, 2023. [4] Haotian Liu, Chunyuan Li, Qingyang Wu, and Yong Jae Lee. Visual instruction tuning. arXiv preprint arXiv:2304.08485, 2023 [5] Jason Wei, Maarten Bosma, Vincent Zhao, Kelvin Guu, Adams Wei Yu, Brian Lester, Nan Du, Andrew M Dai, and Quoc V Le. Finetuned language models are zeroshot learners. In International Conference on Learning Representations, 2021. [6] Chaoyou Fu, Peixian Chen, Yunhang Shen, Yulei Qin, Mengdan Zhang, Xu Lin, Jinrui Yang, Xiawu Zheng, $\mathrm{Ke} \mathrm{Li}$, Xing Sun, et al. Mme: A comprehensive evaluation benchmark for multimodal large language models. arXiv preprint arXiv:2306.13394, 2023. [7] Shiyang Li, Jun Yan, Hai Wang, Zheng Tang, Xiang Ren, Vijay Srinivasan, and Hongxia Jin. Instruction-following evaluation through verbalizer manipulation. In NeurIPS 2023 Workshop on Instruction Tuning and Instruction Following, 2023. [8] Bo Zhao, Boya Wu, and Tiejun Huang. SVIT: scaling up visual instruction tuning. CoRR, 2023. [9] OpenAI. Gpt-4 technical report, 2023. [10] Tsung-Yi Lin, Michael Maire, Serge Belongie, James Hays, Pietro Perona, Deva Ramanan, Piotr Dollár, and C Lawrence Zitnick. Microsoft coco: Common objects in context. In Computer Vision-ECCV 2014: 13th European Conference, Zurich, Switzerland, September 6-12, 2014, Proceedings, Part V 13, pp. 740-755. Springer, 2014. [11] OpenAI. Gpt-4v(ision) system card, 2023. [12] Jeffrey Zhou, Tianjian Lu, Swaroop Mishra, Siddhartha Brahma, Sujoy Basu, Yi Luan, Denny Zhou, and Le Hou. Instruction-following evaluation for large language models. arXiv preprint arXiv:2311.07911, 2023. [13] Richard Socher, Alex Perelygin, Jean Wu, Jason Chuang, Christopher D Manning, Andrew Y Ng, and Christopher Potts. Recursive deep models for semantic compositionality over a sentiment treebank. In Proceedings of the 2013 conference on empirical methods in natural language processing, pp. 1631-1642, 2013. [14] Pekka Malo, Ankur Sinha, Pekka Korhonen, Jyrki Wallenius, and Pyry Takala. Good debt or bad debt: Detecting semantic orientations in economic texts. Journal of the Association for Information Science and Technology, Vol. 65, No. 4, pp. 782-796, 2014. [15] Elvis Saravia, Hsien-Chi Toby Liu, Yen-Hao Huang, Junlin Wu, and Yi-Shin Chen. Carer: Contextualized affect representations for emotion recognition. In Proceedings of the $\mathbf{2 0 1 8}$ conference on empirical methods in natural language processing, pp. 3687-3697, 2018. [16] Samuel R Bowman, Gabor Angeli, Christopher Potts, and Christopher D Manning. A large annotated corpus for learning natural language inference. arXiv preprint arXiv:1508.05326, 2015. [17] Marco Marelli, Stefano Menini, Marco Baroni, Luisa Bentivogli, Raffaella Bernardi, and Roberto Zamparelli. A SICK cure for the evaluation of compositional distributional semantic models. In Proceedings of the Ninth International Conference on Language Resources and Evaluation, LREC 2014, Reykjavik, Iceland, May 2631, 2014, pp. 216-223. European Language Resources Association (ELRA), 2014. [18] Ido Dagan, Oren Glickman, and Bernardo Magnini. The pascal recognising textual entailment challenge. In Machine learning challenges workshop, pp. 177-190. Springer, 2005. [19] Zihang Chen, Hongbo Zhang, Xiaoji Zhang, and Leqi Zhao. Quora question pairs, 2017. [20] Bill Dolan and Chris Brockett. Automatically constructing a corpus of sentential paraphrases. In Third International Workshop on Paraphrasing (IWP2005), 2005. [21] Alexis Conneau and Douwe Kiela. Senteval: An evaluation toolkit for universal sentence representations. arXiv preprint arXiv:1803.05449, 2018. [22] Hugo Touvron, Louis Martin, Kevin Stone, Peter Albert, Amjad Almahairi, Yasmine Babaei, Nikolay Bashlykov, Soumya Batra, Prajjwal Bhargava, Shruti Bhosale, et al. Llama 2: Open foundation and fine-tuned chat models. arXiv preprint arXiv:2307.09288, 2023. [23] Pranav Rajpurkar, Jian Zhang, and Percy Liang. Know what you don't know: Unanswerable questions for squad. In ACL 2018, 2018. [24] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, et al. Learning transferable visual models from natural language supervision. In International conference on machine learning, pp. 8748-8763. PMLR, 2021. ## A 参考情報 ## A. 1 指示追従能力評価データセットの種類別データ件数 表 1 評価データセットの種類別データ件数 3.2 節で構築した指示追従能力評価データセットのデータセット名とラベルタイプの種類別データ件数を表 1 に示す. ## A. 2 追加学習時の学習設定 表 2 LVLM の追加学習時の学習設定 表 3 LLM の追加学習時の学習設定 $\begin{array}{ll}\text { エポック数 } & 1 \\ \text { グローバルバッチサイズ } 32\end{array}$ 最適化関数 AdamW 初期学習率 $5.0 \times 10^{-5}$ スケジューラーcosine 最大系列長 1024 LLM Llama 2-Chat 7B You are a helpful assistant judging the sentiment of a movie review. If the movie review is positive, you need to output "positive". If the movie review is negative, you need to output "negative". You are only allowed to output "positive" or "negative". Movie review: there 's ... tremendous energy from the cast, a sense of playfulness and excitement that seems appropriate. Answer (Gold): positive ## LVLMFoVIT : positive LVLMnofovit: The sentiment of the movie review is positive LLMFoIT: positive LLMNofort: Yes, the movie review is positive LVLMLLavA: The sentiment of the movie review is positive LLM (Llama 2-Chat 7B): positive 図 5 評価データセット(SST-2 の “Natural”タイプ)に対する複数モデルの出力結果の一例. 付きのデータセットで LLM (Llama 2-Chat 7B)を追加学習したモデル LVLM $_{\text {FOVIT }}$, LLM $_{\text {FOIT }}$ は与えられた指示に従い正解することができている。一方で,出力形式の指示が含まれないデータセットで追加学 は,指示に従うことができていない。この結果からも, 出力形式の指示が含まれたデータセットの利用が,追加学習前のベース LLM の指示追従能力低下の抑制に役立つ可能性が示唆された. ## A. 4 本研究の限界 3.1 節で作成された追加学習用のデータセットは, GPT-4V により画像キャプションを生成していたため,画像の内容と一致しない情報が含まれてしまう可能性がある.また 5 章では,モデルの指示追従能力をラベルとの一致という限定的な方法のみで評価しているので,包括的に指示追従能力を測れているとは言えない.加えて LVLM の評価の際は,理想的には,視覚情報を参照しながら指示追従能力を評価したいが,現在の方法では,視覚情報を白塗りの画像で補完してしまっており,テキスト情報だけに手がかりがある評価方法になってしまっている. 4 章で説明した LVLM,LLM の追加学習時の設定をそれぞれ表 $2 , 3$ に示す. ## A. 3 評価データセットにおけるモデル出力の定性評価 5 章において,評価データセット(SST-2 の "Natural" タイプ)の一例に対する複数モデルの出力結果を比較したものを図 5 に示す. 出力形式の指示
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-22.pdf
# 語義曖昧性解消に着目した 英日マルチモーダル機械翻訳の評価セット構築と分析 佐藤郁子 ${ }^{1}$ 平澤寅庄 ${ }^{1}$ 金輝燦 ${ }^{1}$ 岡照晃 ${ }^{1}$ 小町守 ${ }^{2}$ 1 東京都立大学 2 一橋大学 \{sato-ayako, hirasawa-tosho, kim-hwichan, teruaki-oka\}@ed.tmu.ac.jp, [email protected] ## 概要 マルチモーダル機械翻訳 (MMT) は, 画像を用いた文脈補完によって単語の曖昧性を解消することを目的としている. しかし, 既存 MMT モデルによる品質改善は限定的で,その理由に評価ベンチマークの制限が挙げられる. 既存 MMT 評価セットに含まれるほとんどの原文は明瞭であり, 翻訳に画像を必要としないため, 視覚情報の効果を正確に評価できない. そこで, 本研究では正しい翻訳を行うために画像が必要な英日 MMT のベンチマークを提案する. 既存 MMT モデルを本データセットで評価した結果, 翻訳品質のわずかな向上が確認された.この結果から, 既存 MMT モデルは画像を必要とするシナリオにおいても画像を十分に活用できていないことがわかる。 ## 1 はじめに 自然言語処理とコンピュータビジョンの融合が注目を集めている. マルチモーダル機械翻訳(MMT) は, その融合の一分野であり, 視覚情報を利用して翻訳品質を向上させることが提案されている. 機械翻訳(MT)モデルが曖昧な文を翻訳する場合, 文脈だけでは十分な情報が得られないことがある. そこで MMT はより正確な翻訳のために視覚情報を追加し入力文の文脈情報を補完する. しかし, 既存の MMT システムは, 翻訳品質を効果的に向上できていない $[1,2]$. このような結果の原因として, モデル構造, 学習データ, 評価データが考えられる. 本研究では, 評価データの質の影響に注目する。 MMT の標準的なベンチマークは, Flickr30K デー タセット [3] から英語のキャプションをドイツ語 [4], フランス語 [5], チェコ語 [2], 日本語 [6] に翻訳することで構築されている. 英語のキャプションは画像を曖昧性なく詳細に記述しているため, 正確な翻 En: This is a photo of a seal. En: This is a photo of a seal. Ja: これは封の写真である。 Ja: これはアザラシの写真である。図 1: 英日翻訳における視覚的文脈による曖昧性解消の例. 訳を生成するために視覚情報で補完する必要がないものがほとんどである [7]. したがって,このようなベンチマークは MMT における語義曖昧性解消への画像の寄与を評価するのには適していない。 より正確な評価に向けて, 原文に語義曖昧性を明示的に挿入した評価データセットがいくつか存在する $[8,9]$. Futeral ら [9] は,フランス語に翻訳した際に異なる表層となるような複数の語義を持つ英単語をもとに曖昧性解消指向のベンチマークを提案した. これらの研究はアルファベット言語が対象であり, 文化的距離の遠い非アルファベット言語はあまり注目されていない. そこで我々は, 画像が曖昧性解消の手がかりとなる場合のみを含む英日 MMT 評価セットを構築した. 具体的には, WordNet [10] を用いて複数の語義を持つ英単語を抽出し, 画像を与えることで語義が判別できる 250 ペアを手動で選択した. また, 先行研究 [9] に倣って複数の訳語候補があり得る語義曖昧性を含む文を作成し,その語義に対応する画像を ImageNet [11] から収集した(図 1). また, 既存の MMT モデルを我々のデータセットで評価し, 語義曖昧性解消の能力を評価した. さらに, 出力の定性的分析を行った. その結果, MMT システムはテキストのみのシステムよりも翻訳品質が若干向上する程度であり,ほとんどの曖昧な単語を曖昧性解消して翻訳することはできなかった.この結果は, MMT システムが画像を取り込むことができないのは, 評価データによるものではなく, モデル構造や学習データによるものであることを示している。 図 2: データセット構築の概要. $S 1, S 2, S 3$ は語義 1 , 語義 2 , 語義 3 を表す. ## 2 関連研究 MMT を評価するためのデータセットを以下に示す. Caglayan ら [12] は入力文の一部をマスクすることで文脈情報を意図的に制限し, 画像の効果を分析している.この分析から,マスクされた入力文では MMT モデルが MT モデルを上回り画像が有効であることが示された. しかし, マスク大力は実用的な MMT システムには適していない. 本研究では, 入力文をマスクせず語義の曖昧性に着目することで, 翻訳候補が複数存在する設定を提案する。 Lala らは視覚的文脈やテキスト文脈が翻訳にどの程度寄与するかを調査するために, Multimodal Lexical Translation Dataset [8] を構築した. このデータセットは視覚的文脈に限定されておらず, 画像で表現できない単語も含まれているため, MMT における視覚的文脈の寄与を評価するには不向きである. そこで, 視覚的文脈のみによる曖昧性解消のための高品質な MMT 評価データセットを構築する。 CoMMuTE [9] は, 視覚的文脈によって訳語が決定される曖昧文からなる英仏データセットである. 各事例は, 曖昧な英文, 2 つ翻訳可能な対象文, 対象文に対応する 2 つの画像から構成される. 彼らは, 曖昧な英文を談話評価データ [13] から 29 収集し, さらに 21 の文を自作し, 合計 50 の文を作成した. 英仏翻訳で発生する語義の曖昧さは, 英日翻訳でも同じ単語で発生する. しかし, 単にフランス語から日本語に翻訳するだけでは, 評価データセットが比較的小さくなってしまう. そこで, より効率的にデータサイズを拡張するために, WordNetを用いた曖昧語抽出法を提案する。 ## 3 データセット構築 ## 3.1 語義ペア候補の自動選定 このステップでは, WordNet から画像で表現しやすい名詞を抽出する. WordNetには動植物など専門的な名詞も多く含まれるが, 使用範囲が限定されるため学習データに含まれる可能性は低く, より出現頻度の高い一般的な単語の抽出を目指す。 Step 1: Word-senses extraction from WordNet 以下の条件に従って, WordNet から多義名詞と木構造語義を抽出する. (1) 名詞の長さが 10 文字以下(一般的な単語を抽出するため). (2) 物理的実体に属する(画像で表現できる語義を抽出する). 次に, 抽出した語義から語義対を作成する。 Step 2: Distance Filter 語義間の距離は 2 つの語義ノードを結ぶ辺の数として定義される. 距離が 5 未満の語義ぺアは除外する.フィルタリング後の単語数は 725 であり, 各単語の語義対の平均数は 2.07 である. 各単語について, 距離の降順に語義対をソー トする. Step 3: Image Extraction from ImageNet 各語義に対応する画像を ImageNet から取得する. どちらかのノードに対応する画像がないぺアは削除される。 ## 3.2 語義ペアの人手アノテーション 自動的に抽出された語義ぺアの中から, 各単語に適切なぺアを手動で選択する. さらに,選択されたペアに対応する画像が不適切な場合は, 画像を置き換える.アノテーションは, 日本語を母語とし, コンピュータサイエンスの修士課程に在籍する 3 名が担当した. すべてのアノテーターは, 語義対のリストから同じ順序で語義対を選択する。 Step 4: Grounding Filter 単語と意味のペアをチェックし, 両方の意味が一般的で画像で表現できるぺアを選択する. 適切なペアがない場合, 対象語は除外される. 図 2 は, 除外すべき不適切な語義ぺアの例である. 各アノテータはそれぞれ 194, 123, 158 のペアを選択した. 選択された語義ぺアの全ペア中の一致率は, Fleiss の Kappa 值で計算すると $0.256 \%$ であり,おおよそ一致している. 少なくとも 1 人に選択されたぺ (a) Ringtail (b) Mimosa 表 $1:$ データセットの統計情報. アは合計で 197 組ある 11. また, 対応する語義を適切に表し, 特徵抽出に十分な品質の画像を確保するため, 123 枚の不適切な(解像度が著しく低い, 教師ラベルの語義が正しくない)画像を, Flickr から CC BY ライセンスで取得した代替画像に置き換える。 Step 5: Sentence Generation 対象単語はテンプレート文 “This is a/an/the [ ].” に挿入される.このテンプレート文は文章の文脈から語義が判断できないように曖昧さを維持した形式になっている. 各単語に2つの語義が使われているため, 最終的な文数は対象単語数の 2 倍となる. 構築したデータセットの統計量を表 1 に示す。 ## 4 既存モデルにおける評価 ## 4.1 実験設定 データ評価には我々のデータセットを使用し,学習と評価の両方に Flickr30k Entities-JP を使用した. Flickr30k Entities-JP は 29,000 の学習データ, 1, 014 の検証データ, 1,000 の評価データがある. 英語は Multi30K task 1 [4] に従ってトークン化し, 日本語は MeCabを使って単語分割した. (IPA 辞書) を用いて単語分割を行った. サブワード分割は BPE を用いて行う. モデル MMT モデルと MT モデルを比較し,画像の寄与を評価した。テキストベースのMT モデルとして Transformer-Tiny [15] を用いた.また, Transformer-based Attentive multimodal Transformer (Attentive) [16], Gated multimodal Transformer (Gated) [15], Visual Translation Language Modelling (VTLM) [17]を MMT モデルとして用いた. VTLM は Con- 1)データセットを拡張するために, CoMMuTE と Word-inContext Dataset [14] から 53 の語義ペアを選択する. Step 2 の語義ペアを組み合わせることで, 最終的に 250 のぺアを得る. (c) Captain X 画像から語義を判断するのが困難 ceptual Captions データセットで事前学習されている. CoMMuTE の研究で提案されたモデルは, 大量のキャプションデータに対する事前学習が必要であり, 計算コストの点から本研究では使用しなかった. 画像特徴として CLIP [18], Vision Transformer [19], ResNet-50 [20]を用いた. MT と MMT モデルのアー キテクチャは, 層数を 4 , 注意メカニズムのヘッド数を 4 , 隠れ層の次元数を 256 とした。 評価指標 sacreBLEU [21] と COMET [22]を使用した. 訳文の本質的でない摂動(文末の変更など) の影響を軽減するため, 3 つの参照文を作成し, その平均値を報告する. さらに, モデルの曖昧性解消を評価するために, [8] で提案された指標も採用し, $\frac{C}{N}$ を計算する.ここで, $C$ は出力中の対象単語が参照中の対象単語と正確に一致した回数, $N$ はデータセットサイズである.この指標を本研究では Lexical Accuracy (LA) と呼ぶ. ## 4.2 結果 表 2 は, 既存の MMT モデルの自動評価における性能である. MMT モデルは MT モデルを上回り,画像の寄与が示された. 特に, Attentive (RCNN) は顕著な改善を示し,このモデルが画像に対してより敏感であることを示唆している。 Flickr30k のスコアは, BLEU では -3.61 から 1.06 の範囲, COMET では $-3.40 \times 10^{-3}$ から $1.30 \times 10^{-3}$ の範囲で改善した. 一方, 我々のデータセットは, BLEU で-1.50 から 2.30, COMET で $4.26 \times 10^{-2}$ から $5.24 \times 10^{-2}$ の範囲で改善した. 我々のデータセットは Flickr30kよりも大幅に改善し, 画像の寄与をより敏感に評価することができた. ## 4.3 分析 ## 4.3.1 視覚情報による訳語変化 また, システムの出力を詳細に分析した. 図 4 は 2 つの出力例を示しており, MT モデルは TransformerTiny , MMT モデルは (a) VTLM (RCNN), (b) Attentive (RCNN) である. (a) の例では, MT モデルは両方の語 表 2: (M)MT モデルの結果. 太字は, MT モデルを上回っていることを示す. (a) src: This is a photo of a hood. (b) src: This is a photo of a liner. 2 図 4: いくつかの出力例. 太字は対象単語を示す. 義を「フード」に翻訳した. 一方, MMT モデルは, 対応する画像を参照することで, 「ボンネット」と区別することができた. しかし, MMT モデルが正しい訳語に変換できたのは 8 例だけであった. また, 目的語以外の単語が変化している例 (文末の変化, 読点の挿入など)も複数あった.これらの結果から, 自動評価スコアの向上は, 対象単語以外の変更によるトークン数の変化に大きく影響される可能性があることが示唆された。 翻訳品質が向上したのは 8 例だけであったが, 視覚情報が出力対象語に影響を与えたと思われる例も複数あった(図 4 の liner など).このような事例の数をモデルごとに付録 A の表 4 に示す. 画像によって訳語が変化した例のうち, 正しく訳されたのは $7 \%$ だけであった. つまり, 既存のモデルは視覚情報をわずかしか利用しておらず, 改善の余地がある. ## 4.3.2 対象単語の学習/検証データでの存在割合 本研究では英日翻訳の際に曖昧性が生じる単語 (対象単語)をもとに曖昧性のある文対を作成している.4.3.1 節での分析の結果より,翻訳品質の改善は限定的であることが示唆される. この原因として対象単語が学習データに含まれないためその単語についての学習が不十分であることが考えられる. そこで, 本節では対象単語が学習/検証データに含まれる割合を調査する。 表 3 の結果より, 英日双方に含まれる対象単語の割合は 0 であることがわかる。すなわち, 対象単語が評価データと同じ英日翻訳で使用されている文 は学習/検証データには存在しないにもかかわらず, わずかな事例は正確に翻訳できているということである。一方で, $91.6 \%$ の対象単語はソース側の学習データに含まれており, $69.0 \%$ の対象単語はター ゲット側の学習データに含まれている。すなわち, ソース側とターゲット側それぞれで単語が画像中の物体とマッピングされている場合, 画像が仲介することでソース側の表層とターゲット側の語義を対応付けている可能性が考えられる。 モデルが語義と画像の対応関係を学習できているかについても検証を行い,付録 B に示す. 表 3: 全対象単語のうち学習/検証データに含まれる単語の割合. 英語はソース側に対象単語の表層が含まれる割合, 日本語はターゲット側に対象単語の語義が含まれる割合, 英日は対象単語が 1 つの文についてソースとターゲットの双方に含まれる割合を示す。 ## 5 おわりに MMT における視覚情報の寄与を正確に評価するために, 英日評価データセットを構築した. 本データセットで既存のモデルを評価した結果, 画像が翻訳品質を向上させるケースはわずかであることがわかった.つまり, MMT がうまく機能しない原因は,画像を必要としない設定の評価データではなく, モデル構造や学習データに改善の余地があることがわかった。 ## 謝辞 本研究は AAMT/Japio 特許翻訳研究会の助成を受 けたものです. ## 参考文献 [1] Stig-Arne Grönroos, Benoit Huet, Mikko Kurimo, Jorma Laaksonen, Bernard Merialdo, Phu Pham, Mats Sjöberg, Umut Sulubacak, Jörg Tiedemann, Raphael Troncy, and Raúl Vázquez. The MeMAD submission to the WMT18 multimodal translation task. In Proceedings of the Third Conference on Machine Translation: Shared Task Papers, 2018 [2] Loïc Barrault, Fethi Bougares, Lucia Specia, Chiraag Lala, Desmond Elliott, and Stella Frank. Findings of the third shared task on multimodal machine translation. In Proceedings of the Third Conference on Machine Translation: Shared Task Papers, 2018. [3] Peter Young, Alice Lai, Micah Hodosh, and Julia Hockenmaier. From image descriptions to visual denotations: New similarity metrics for semantic inference over event descriptions. Transactions of the Association for Computational Linguistics, Vol. 2, pp. 67-78, 2014. [4] Desmond Elliott, Stella Frank, Khalil Sima'an, and Lucia Specia. Multi30K: Multilingual English-German image descriptions. In Proceedings of the 5th Workshop on Vision and Language, 2016. [5] Desmond Elliott, Stella Frank, Loïc Barrault, Fethi Bougares, and Lucia Specia. Findings of the second shared task on multimodal machine translation and multilingual image description. In Proceedings of the Second Conference on Machine Translation, 2017. [6] Hideki Nakayama, Akihiro Tamura, and Takashi Ninomiya. A visually-grounded parallel corpus with phrase-to-region linking. In Proceedings of the Twelfth Language Resources and Evaluation Conference, 2020 [7] Stella Frank, Desmond Elliott, and Lucia Specia. Assessing multilingual multimodal image description: Studies of native speaker preferences and translator choices. Natural Language Engineering, 2018. [8] Chiraag Lala and Lucia Specia. Multimodal lexical translation. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), 2018. [9] Matthieu Futeral, Cordelia Schmid, Ivan Laptev, Benoît Sagot, and Rachel Bawden. Tackling ambiguity with images: Improved multimodal machine translation and contrastive evaluation. In Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), 2023. [10] Christiane Fellbaum, editor. WordNet: An Electronic Lexical Database. MIT Press, 1998. [11] Olga Russakovsky, Jia Deng, Hao Su, Jonathan Krause, Sanjeev Satheesh, Sean Ma, Zhiheng Huang, Andrej Karpathy, Aditya Khosla, Michael Bernstein, Alexander C. Berg, and Li Fei-Fei. ImageNet Large Scale Visual Recognition Challenge. International Journal of Computer Vision (IJCV), Vol. 115, No. 3, pp. 211-252, 2015 [12] Ozan Caglayan, Pranava Madhyastha, Lucia Specia, and Loïc Barrault. Probing the need for visual context in multimodal machine translation. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 2019. [13] Rachel Bawden, Rico Sennrich, Alexandra Birch, and Barry Haddow. Evaluating discourse phenomena in neural machine translation. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Lin- guistics: Human Language Technologies, Volume 1 (Long Papers), 2018 [14] Mohammad Taher Pilehvar and Jose Camacho-Collados. WiC: the word-in-context dataset for evaluating context-sensitive meaning representations. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), 2019. [15] Zhiyong Wu, Lingpeng Kong, Wei Bi, Xiang Li, and Ben Kao. Good for misconceived reasons: An empirical revisiting on the need for visual context in multimodal machine translation. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing, 2021. [16] Jindřich Libovický, Jindřich Helcl, and David Mareček. Input combination strategies for multi-source transformer decoder. In Proceedings of the Third Conference on Machine Translation: Research Papers, 2018 [17] Ozan Caglayan, Menekse Kuyu, Mustafa Sercan Amac, Pranava Madhyastha, Erkut Erdem, Aykut Erdem, and Lucia Specia. Crosslingual visual pre-training for multimodal machine translation. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, 2021 [18] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, Gretchen Krueger, and Ilya Sutskever. Learning transferable visual models from natural language supervision. In Proceedings of the 38th International Conference on Machine Learning, 2021. [19] Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, Jakob Uszkoreit, and Neil Houlsby. An image is worth 16x16 words: Transformers for image recognition at scale. In Proceedings of the 9th International Conference on Learning Representations, 2021 [20] Shaoqing Ren, Kaiming He, Ross Girshick, and Jian Sun. Faster RCNN: Towards real-time object detection with region proposal networks. In Advances in Neural Information Processing Systems 28, 2015. [21] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, 2018. [22] Ricardo Rei, Craig Stewart, Ana C Farinha, and Alon Lavie. COMET: A neural framework for MT evaluation. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), 2020. ## 付録 ## A 視覚情報による訳語変化 表 4: 全 MMT モデルにおける視覚情報によって翻訳が変わった事例の数。 ## B 画像の識別能力評価 既存 MMT モデルにおいて画像情報の効果が限定的である原因として,エンコードしているモデル自体が語義と画像を結び付けられていない可能性が挙げられる. モデルが語義と画像の対応関係を学習できているか検証するため, 画像の識別能力を調査する。検証では, 対象単語の語義ペアごとに, 各画像についてどちらの語義を表しているかを 2 值分類し, その正解率を報告する. 分類のモデルには CLIP [18] を使用する。 検証の結果, 画像 2 值分類の正解率は $92.4 \%$ で, 500 語義のうち誤分類は 38 語義のみであった. すなわち, モデルはほとんど全ての画像と語義の対応付けを正しく行なっていると言える. 分類結果の一部を図 5 に示し, 定性分析を行う. basket(かご / バスケットゴール, 図 5a) の例では, 画像と対応する語義が正しく分類されている。一方で, cast(型/ギプス, 図 5b) と bath(浴槽 / バスルーム, 図 5c) の例では誤った分類結果となっている. cast の例は, 画像がギプス以外の物体が多く画像のエンコード自体が困難なことが原因として考えられる.bathの例は,浴槽自体がバスルームに包含されるものであるという関係から対応語義を選択することが困難であったと考えられる。 (a) basket(かご/ バスケットゴール) (b) bath(浴槽 / バスルーム). (c) cast(型/ギプス)の例. 図 5: 画像の 2 值分類における分類結果.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-23.pdf
# Evaluation of the Adversarial Robustness in LLM-based Visual Dialog System Yahan Yu Fei Cheng Chenhui Chu Kyoto University [email protected] \{feicheng, chu\}@i.kyoto-u.ac.jp ## Abstract Large Language Models (LLMs) are widely employed. However, their susceptibility to adversarial attacks poses a significant security concern. In this paper, we focus on LLM-based visual dialog systems and delve into their sensitivity in the aspect of both visual attack and textual attack. Our work aims to investigate the robustness of these systems, and give researchers the understanding of the security challenges that LLMs may face in practical applications. ## 1 Introduction In recent years, the field of natural language processing has witnessed a surge in the utilization of Large Language Models (LLMs) [1] and their multi-modal extensions $[2,3,4]$, underscoring their pivotal role in various applications. In contrast to non-LLM-based multi-modal systems, such as ViLBERT-based and CLIP-based, the LLM-based approaches often have more powerful abilities for contextual understanding and transfer learning because of their large-scale training. Despite the success of LLM-based multi-modal systems, an escalating concern surrounds the security robustness [5] of these models, particularly in the face of adversarial attacks [6]. Adversarial attacks [7], characterized by purposeful manipulations of input data, exploit the inherent vulnerabilities in model architectures, posing formidable challenges to the reliability and security of LLMs. In multi-modal scenarios, the system may exhibit varying sensitivities to inputs from different modalities. Attackers can exploit this by selectively targeting the most sensitive modality during adversarial attacks to achieve more effective manipulation. It is necessary to consider the adversarial robustness of the system on multiple modalities simultaneously to obtain a comprehensive evaluation. In response to this security risk and insufficient research in LLM-based multi-modal systems, our work directs its focus toward the specific domain of LLM-based visual dialog systems [8]. Given that Chatbot [9] represents a foundational function of the application of LLMs, our work aims to evaluate their robustness boundaries. To emulate real-world scenarios, we introduce a zero-shot setting system tailored for the visual dialog task. This system serves to evaluate the robustness of LLM-based multimodal systems against adversarial attacks, incorporating assessments in both text and visual modalities. Specifically, we scrutinize robustness through Fast Gradient Sign Method (FGSM) attacks [7], introducing adversarial noise to images, and coreference attacks [10], manipulating the textual input. Our contributions are summarised as below: 1. To reflect the real robustness of LLMs, we construct the LLMs-based visual dialog system in zero-shot settings. 2. Our successful execution of FGSM and coreference attacks sheds light on the nuanced vulnerabilities inherent in LLM-based visual dialog systems. ## 2 Related Work ## 2.1 Visual Dialog Task Visual dialog [8] has been introduced as an extended task of Visual Question Answering (VQA) [11]. In Visual dia$\log$, the system is tasked with responding to a sequence of interconnected questions, leveraging both an image and a dialog history. Prior works have explored attention mechanisms [12] that account for the intricate interactions among modalities of the image, dialog history, and question. Some investigations [13] have delved into uncovering the semantic structures within the dialog through graph neural net- Figure 1 The proposed structure of LLM-based zero-shot visual dialog system. We evaluate its adversarial robustness against FGSM attack and coreference attack. Example of coreference attack is shown in Table 1. works. Our work takes into account the excellent zero-shot generalization capability of LLMs, and leverages this capability to facilitate interactions and inference across modalities within the visual dialog system. ## 2.2 Adversarial Attacks on Multi-modal Models In the domain of multi-modal models, a few studies have recently delved into examining their susceptibility to adversarial attacks. In [14], this work attacked textual inputs using the methods of BERT-Attack and TextFooler, providing the first investigation into the robustness of visual dialog models against textual attacks. In [15], this work demonstrated that imperceptible attacks on images, altering the output of an image caption model, can be exploited by malicious content providers to harm users. In [10], both image and text-level attacks were imposed on a ViLBERT-based visual dialog system, evaluating the adversarial robustness across multiple modalities. Our evaluation builds on these insights, concentrating on LLM-based multi-modal models and demonstrating the effectiveness of the attacks on the visual dialog task. ## 3 Task Definition For the visual dialog task, we define the input image as $V$, the dialog history as $H=\left.\{H_{1}, H_{2}, \ldots, H_{t}\right.\}$ where $t$ means dialog turns and $H_{t}=\left.\{Q_{t}, A_{t}\right.\}$ means the question $Q_{t}$ and answer $A_{t}$ in one turn, and the final question as $Q_{0}$. The objective of this task is to enable the model to select the appropriate answer Ans from a set containing $N$ candidate answers $\left.\{A n s_{1}, A n s_{2}, \ldots, A n s_{N}\right.\}$ based on the input information. As for the attacks, we define the visual attack as VA(.) and the textual attack as TA(.). After attacking, we input the perturbed image $V^{\prime}=\mathrm{VA}(V)$ or the perturbed dialog history $H^{\prime}=\mathrm{TA}(H)$ into the model, and expected the answer $A n s^{\prime}$ should be different from the ground truth answer. ## 4 Method ## 4.1 LLM-based Zero-shot Visual Dialog Sysytem The proposed structure is shown in Figure 1. Selection for LLM Considering the advanced performance and open-source implementation, we choose BLIP2 [16] as the base model in the zero-shot visual dialog system, which is a recent multi-modal model that gained significant attention. BLIP-2 seamlessly integrates vision and language understanding by combining a pre-trained visual model with a LLM. Consequently, it possesses the capability to handle both visual and textual inputs, leading to the generation of coherent natural language outputs. Zero-shot Setting We construct a zero-shot system for the evaluation of adversarial robustness. The zero-shot setting aims to closely mimic real-world application scenarios, where models may encounter previously unseen categories or tasks. This configuration better simulates the robustness observed in practical use, providing a more realistic assessment of the model's performance. Scoring of Answers To select the appropriate answer from the candidate set, we calculate the log-likelihood score [8] of all the candidates because our visual dialog system contains a generative decoder. In the evaluation phase, the rank of the candidate set is given by their loglikelihood scores. ## 4.2 Adversarial Visual Attack We make the assumption that an attacker possesses the capability to introduce minor perturbations to the visual inputs of the model. Additionally, we assume that the attacker has unrestricted access to all model weights. In this setting, the Fast Gradient Sign Method [7] is an attack method that introduces perturbations to visual inputs guided by the gradients of the loss concerning the visual inputs: $ \operatorname{FGSM}(V)=V+\epsilon \cdot \operatorname{sign}\left(\nabla_{V} \operatorname{Loss}(V, \text { label })\right), $ where $V$ and label represent the visual inputs and their corresponding ground-truth labels, respectively. $\nabla \operatorname{Loss}(\cdot)$ means the gradient of the model. The hyperparameter $\epsilon$ is utilized to modulate the intensity of perturbations. And the $\operatorname{sign}(\cdot)$ is a mathematical function that returns the sign of a real number. Specifically, it maps a positive number to 1 , a negative number to -1 , and zero to 0 . The $\operatorname{sign}(\cdot)$ function is denoted as follows: $ \operatorname{sign}(x)= \begin{cases}1 & \text { if } x>0 \\ -1 & \text { if } x<0 \\ 0 & \text { if } x=0\end{cases} $ However, in contrast to the aforementioned configuration, each question in the visual dialog task may have one or more pertinent answers within the list of candidate answers. This is because some candidate answers may be semantically identical (e.g. 'yeah' and 'yes'). So the validation dataset of visual dialog task is annotated with the relevance score [8] between each of the candidate answers and ground truth, which ranges from 0 to 1 . Therefore, we modify the FGSM attack as follows: $ \begin{aligned} & \operatorname{FGSM}(V)=V+ \\ & \epsilon \cdot \operatorname{sign}\left(\sum_{n=1}^{N} \operatorname{Re}_{n} \cdot \nabla_{V} \operatorname{Loss}\left((V, H, Q), A n s_{n}\right)\right), \end{aligned} $ where $A n s_{n}$ means the $n-t h$ candidate answer, $R e l_{n}$ means the relevent score between ground truth answer and the $n-$ th candidate answer. Equation signifies that the gradients of the loss with respect to all relevant answers are taken into account in the FGSM attack. Table 1 Example of adversarial textual attack. The red words indicate that the target word for the attack is adults which is replaced with grownup after the attack. ## 4.3 Adversarial Textual Attack We also investigate adversarial robustness against textual attacks. As shown in Table 1, we employ the coreference attack [10], wherein noun phrases in the dialog history are replaced with their synonyms to deceive the models. Coreference means that the target words and the replacement words not only have semantic similarity but also refer to the same object. In this method, we utilize an off-theshelf neural coreference resolution tool [17] to identify words in the dialog history referring to objects mentioned in a given question. We perform a greedy substitution of words with their synonyms, selecting those with the minimum cosine distance in the counter-fitting word embedding space [18]. After going through these steps, we obtained the attacked text samples. ## 5 Experiments ## 5.1 Dataset VisDial v1.0 [8] is a version of the Visual Dialog dataset, which is widely used in the visual dialog task. It consists of a collection of dialogues between humans discussing images. The dataset is designed to facilitate research on the intersection of computer vision and natural language processing, particularly in tasks involving dialog understanding and visual reasoning. The VisDial v1.0 dataset contains $123 \mathrm{k}, 2 \mathrm{k}$, and $8 \mathrm{k}$ dialogs as train, validation, and test split. In our zero-shot setting, we only use the validation set. ## 5.2 Implementation As for the BLIP-2 model, in our work, we opted for CLIP (ViT-L/14) [19] as the Image Encoder and the decoderbased OPT model (2.7B and 6.7B) [20] as the LLM. Table 2 Results on LLM-based zero-shot visual dialog system without attacks. The ViLBERT-based, CLIP-based and FROMAGe-based approaches are the existing methods, while two BLIP-2-based approaches are our baselines. We emphasize the current state-of-the-art results. $ \text { w/o attacks } $ ## 5.3 Metrics We adhere to the standardized evaluation protocol introduced in [8]. Generative tasks for visual dialog models are appraised using retrieval-based evaluation metrics, including normalized discounted cumulative gain (NDCG), mean reciprocal rank (MRR) and recall@k ( $\mathrm{R} @ \mathrm{k}, \mathrm{k}=1,5,10)$. Each dialogue comprises a list of 100 answer candidates for every question, with one ground-truth answer included in the candidates. The model arranges the answer candidates based on log-likelihood scores and is subsequently evaluated using the aforementioned three metrics. NDCG considers all relevant answers from the candidate set, while MRR and $\mathrm{R} @ \mathrm{k}$ take into account the rank of the single ground-truth answer. So, NDCG is considered the primary evaluation metric in current works. ## 5.4 Results on LLM-based Zero-shot Visual Dialog System Table 2 shows the results on our proposed system without adversarial attacks in contrast with other zero-shot visual dialog systems. In details, BLIP-2 has 188M trainable parameters in the pretraining stage, while ViLBERT has 114M, CLIP has 300M and FROMAGe has 5.5M. The performance and trainable parameters of BLIP-2-based model are close to the existing zero-shot visual dialog models, which can illustrate that the structure of BLIP-2-based models is reasonable, and can be used in the attack process. ## 5.5 Results on Adversarial Visual Attack Table 3 shows the results on LLM-based zero-shot visual dialog system with the visual attack. Hyperparameter $\epsilon$ adjusts the intensity of perturbations. As the $\epsilon$ rises, the perturbation applied to the image becomes stronger and NDCG drops, which means that the FGSM attack is successful on the BLIP-2-based model. In the ViLBERT- Table 3 Results on LLM-based zero-shot visual dialog system with adversarial visual attack. We adjust the perturbation strength by varying the hyperparameter $\epsilon$, observing changes in the model's performance. Table 4 Results on LLM-based zero-shot visual dialog system with adversarial textual attack. based visual dialog model [10], FGSM usually causes a drop by $30 \%$. In our work, the slight drop in NDCG can be attributed to the robustness of BLIP-2 because of the pretraining on multiple vision datasets such as LAION [23]. ## 5.6 Results on Adversarial Textual Attack Table 4 shows the results on LLM-based zero-shot visual dialog system with the coreference attack. In the ViLBERT-based visual dialog model [10], NDCG usually drops by $4 \%$. But in our work, NDCG improves. We hypothesize that, based on the language understanding and reasoning capabilities of LLMs, the substitution of synonymous words in the text contributes to the semantic completion of the dialog history. This indicates that LLM-based models are robust against our coreference attack. ## 6 Conclusion In conclusion, our study underscores the widespread utilization of LLMs while highlighting a critical security concern due to their vulnerability to adversarial attacks. The identified weaknesses in security extend not only to LLMs but also to LLM-based multi-modal models. Specifically focusing on LLM-based visual dialog systems, our research finds their sensitivity to visual attacks, and the opposite impact to textual attacks. Future work could involve the design of more advanced adversarial attacks to attain stronger visual attacks and more effective textual attacks. By developing novel adversarial strategies, researchers can gain a deeper understanding of the security boundary in LLM-based visual dialog systems, contributing to robust defense mechanisms. ## Acknowledgements This work was supported by 京都大学大学院情報学研究科博士後期課程の学生に対する支援事業. ## References [1] Rohan Taori, Ishaan Gulrajani, Tianyi Zhang, Yann Dubois, Xuechen Li, Carlos Guestrin, Percy Liang, and Tatsunori B Hashimoto. Stanford alpaca: An instructionfollowing llama model, 2023. [2] Haotian Liu, Chunyuan Li, Qingyang Wu, and Yong Jae Lee. Visual instruction tuning. arXiv preprint arXiv:2304.08485, 2023. [3] Xi Chen, Josip Djolonga, Piotr Padlewski, Basil Mustafa, Soravit Changpinyo, Jialin Wu, Carlos Riquelme Ruiz, Sebastian Goodman, Xiao Wang, Yi Tay, et al. Pali-x: On scaling up a multilingual vision and language model. arXiv preprint arXiv:2305.18565, 2023. [4] Yanzhe Zhang, Ruiyi Zhang, Jiuxiang Gu, Yufan Zhou, Nedim Lipka, Diyi Yang, and Tong Sun. Llavar: Enhanced visual instruction tuning for text-rich image understanding. arXiv preprint arXiv:2306.17107, 2023. [5] Jun Yan, Vikas Yadav, Shiyang Li, Lichang Chen, Zheng Tang, Hai Wang, Vijay Srinivasan, Xiang Ren, and Hongxia Jin. Virtual prompt injection for instruction-tuned large language models. arXiv preprint arXiv:2307.16888, 2023 . [6] Andy Zou, Zifan Wang, J Zico Kolter, and Matt Fredrikson. Universal and transferable adversarial attacks on aligned language models. arXiv preprint arXiv:2307.15043, 2023. [7] Ian J Goodfellow, Jonathon Shlens, and Christian Szegedy. Explaining and harnessing adversarial examples. arXiv preprint arXiv:1412.6572, 2014. [8] Abhishek Das, Satwik Kottur, Khushi Gupta, Avi Singh, Deshraj Yadav, José MF Moura, Devi Parikh, and Dhruv Batra. Visual dialog. In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 326-335, 2017. [9] Sara Montagna, Stefano Ferretti, Lorenz Cuno Klopfenstein, Antonio Florio, and Martino Francesco Pengo. Data decentralisation of 1lm-based chatbot systems in chronic disease self-management. In Proceedings of the 2023 ACM Conference on Information Technology for Social Good, pp. 205-212, 2023. [10] Gi-Cheon Kang, Sungdong Kim, Jin-Hwa Kim, Donghyun Kwak, and Byoung-Tak Zhang. The dialog must go on: Improving visual dialog via generative self-training. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 6746-6756, 2023 . [11] Stanislaw Antol, Aishwarya Agrawal, Jiasen Lu, Margaret Mitchell, Dhruv Batra, C Lawrence Zitnick, and Devi Parikh. Vqa: Visual question answering. In Proceedings of the IEEE international conference on computer vision, pp. 2425-2433, 2015. [12] Idan Schwartz, Seunghak Yu, Tamir Hazan, and Alexan- der G Schwing. Factor graph attention. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 2039-2048, 2019. [13] Zilong Zheng, Wenguan Wang, Siyuan Qi, and Song-Chun Zhu. Reasoning visual dialogs with structural and partial observations. In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition, $\mathrm{pp}$. 6669-6678, 2019. [14] Lu Yu and Verena Rieser. Adversarial textual robustness of visual dialog. In 61st Annual Meeting of the Association for Computational Linguistics 2023, pp. 34223438. Association for Computational Linguistics, 2023. [15] Christian Schlarmann and Matthias Hein. On the adversarial robustness of multi-modal foundation models. In Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 3677-3685, 2023. [16] Junnan Li, Dongxu Li, Silvio Savarese, and Steven Hoi. Blip-2: Bootstrapping language-image pre-training with frozen image encoders and large language models. arXiv preprint arXiv:2301.12597, 2023. [17] Kevin Clark and Christopher D Manning. Deep reinforcement learning for mention-ranking coreference models. arXiv preprint arXiv:1609.08667, 2016. [18] Di Jin, Zhijing Jin, Joey Tianyi Zhou, and Peter Szolovits. Is bert really robust? a strong baseline for natural language attack on text classification and entailment. In Proceedings of the AAAI conference on artificial intelligence, Vol. 34, pp. 8018-8025, 2020. [19] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, et al. Learning transferable visual models from natural language supervision. In International conference on machine learning, pp. 8748-8763. PMLR, 2021. [20] Susan Zhang, Stephen Roller, Naman Goyal, Mikel Artetxe, Moya Chen, Shuohui Chen, Christopher Dewan, Mona Diab, Xian Li, Xi Victoria Lin, et al. Opt: Open pre-trained transformer language models. arXiv preprint arXiv:2205.01068, 2022. [21] Jiasen Lu, Dhruv Batra, Devi Parikh, and Stefan Lee. Vilbert: Pretraining task-agnostic visiolinguistic representations for vision-and-language tasks. Advances in neural information processing systems, Vol. 32, , 2019. [22] Jing Yu Koh, Ruslan Salakhutdinov, and Daniel Fried. Grounding language models to images for multimodal inputs and outputs. In International Conference on Machine Learning, pp. 17283-17300. PMLR, 2023. [23] Christoph Schuhmann, Romain Beaumont, Richard Vencu, Cade Gordon, Ross Wightman, Mehdi Cherti, Theo Coombes, Aarush Katta, Clayton Mullis, Mitchell Wortsman, et al. Laion-5b: An open large-scale dataset for training next generation image-text models. Advances in Neural Information Processing Systems, Vol. 35, pp. 25278-25294, 2022.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-24.pdf
# Out-of-distribution Shape Generation using Large Language Models and Geometry Nodes Yutaro Yamada ${ }^{1}$, Machel Reid ${ }^{2}$ ${ }^{1}$ Yale University ${ }^{2}$ Google DeepMind [email protected] ## 概要 Recent advancements in text-to-image models have been impressive. Yet, they still struggle with accurately following prompts, especially when asked to create out-ofdistribution objects like a "chair with three legs." In this paper, we introduce a novel method using "Geometry Nodes"-a procedural generation tool for creating shapes in Blender, which is a 3D modeling software. This tool allows for the generation of shapes based on general parameters like 'radius' and 'height.' We use a large language model (LLM) to interpret text prompts and convert them into specific instructions for these shape generators. Our method has proven effective in creating unconventional examples in two categories: Chairs and Tables. ## 1 はじめに Models like DALL-E-3 [1] and Stable Diffusion [2] have made significant advancements in text-to-image generation, producing images nearly indistinguishable from those created by humans. However, they still face challenges in accurately following prompts, particularly in representing spatial relationships and object-attribute binding. Various solutions have been suggested to overcome these issues. For example, [3] propose to enhance pre-trained diffusion models with additional inputs like scribbles or depth maps. [4] uses compositional linguistic structures during the diffusion guidance. While these methods show promise, they still struggle with generating images of objects that do not typically exist, like a "a chair with five legs." This difficulty partly arises because such unusual objects are rarely included in the training data. Additionally, it is likely that these models do not separate and understand concepts the way humans do, such as distinguishing the number of legs from the gen- 図 1 Our approach vs. DALL-E-3, one of the most advanced text-to-image models for the task of generating out-ofdistribution samples like "a chair with three legs". For DALL-E3, we use "A chair with three legs. Make sure the background is black, and the object generated is a gray-colored 3D shape." for our prompt. For our approach, our prompt is "a chair with three legs." eral concept of a chair. Large Language Models (LLMs) are known for their exceptional reasoning abilities [5]. This raises the question: can we use the reasoning capabilities of LLMs to solve the above problem? Our approach involves using Blender's Geometry Nodes, a tool to create parametric shape generator, in combination with the function-calling ability of LLMs. By feeding specific arguments to the shape generator, we can partially address the above problem. Geometry Nodes is a tool within Blender, an opensource 3D modeling software, that enables the creation of 3D meshes programmatically. It allows users to build a computational graph of 3D operations and set certain parameters as inputs to this graph. For instance, using a set of Geometry Nodes, one can create various designs of objects by altering the input parameters. An example illustration of Geometry Nodes setup is shown in Figure 3. This flexible system is especially popular among programmer-oriented 3D designers, who use Geometry Nodes to instantly generate diverse shapes by tweaking specific parameters. In our work, we extend this concept. We have developed two parametric shape generators for chairs and tables. Uniquely, these generators allow for the modification of certain attributes, like the number of legs. Alongside these generators, we provide docstrings - natural language descriptions explaining how to use each shape generator effectively. ## 2 Related Work Alignment with human intentions for text-toimage models The topic of aligning text-to-image models with human intentions has been gaining significant interest. Recently, there have been various methods to ensure that image generation aligns more closely with what humans intend. One effective approach involves using additional inputs like layout [6], bounding boxes [7], and user sketches [3] to steer the direction of image generation. Text-guided image editing is another method that incorporates human intentions. Recent advancements include using pre-trained diffusion models along with a spatial mask to focus edits in specific areas, as explored by [8]. Another approach uses cross-attention layers for text-only guidance in image editing, as demonstrated in [9]. Imagic, introduced by [10], stands out for its ability to make complex, non-rigid semantic edits through text-based optimization. The concept of model customization, as explored by $[11,12]$, is particularly noteworthy. These techniques allow diffusion models to create images of a new concept from just a handful examples. Once the model is fine-tuned to understand the concept, it can generate various images of that subject in different contexts. Prompt following There is ongoing work to improve how diffusion models interpret and accurately follow text prompts. Early versions of Stable Diffusion faced challenges with correctly associating attributes and generating compositions. For instance, they often misassigned colors in images with two concepts or struggled to generate images with multiple concepts. [4] tackles this problem by integrating linguistic structures into the diffusion process. 'Attend-and-excite,' proposed by [13], employs an attention-based semantic guidance method. DALL-E-3 [1] largely resolves these issues by using better, more detailed captions on a larger scale. Procedural generation In the realm of procedural generation, Geometry Nodes have gained traction in the 3D vision community. For instance, InfiniGen [14] employs Geometry Node-based methods to create 3D scenes, providing an endless source of synthetic data for 2D and 3D vision tasks. There is also a work [15] that combines InfiniGen with Large Language Models (LLMs), using LLMs as a language interface to control world creation. Our method is distinct; we introduce new shape generators based on Geometry Nodes, focusing specifically on creating samples that are outside the usual training distribution. ## 3 Method Our proposed text-to-3D approach involves LLM's function calling ability and shape generator based on Geometry nodes. The overall approach is shown in Figure 2. We describe each step below. ## 3.1 LLM function calling The first step in our process is to translate a user's natural language description into a set of parameters for the shape generator. To do this, we utilize the function calling capability of Large Language Models (LLMs). This feature, originally developed by OpenAI, enhances LLMs' chat completion abilities, enabling them to connect seamlessly with external tools and applications. Many external applications offer their functionalities through APIs (Application Programming Interfaces). The ability of LLMs to execute these APIs in response to user text inputs is a natural extension of their capabilities. While it is possible to prompt LLMs to generate strings in a specific format, it is more efficient for them to directly produce outputs in JSON format. To meet this requirement, LLMs can be fine-tuned to output in these specific formats. This approach has been gaining popularity, and there are efforts within the opensource community, like the one led by [16], to replicate OpenAI's function calling feature. To enhance the interaction between LLMs and these applications, we provide detailed natural language descriptions of what each argument represents. ## 3.2 Parametric shape generator based on Geometry Nodes The second phase in our text-to-3D process involves a parametric shape generator using Geometry Nodes. In Blender, each Geometry Node corresponds to a specific operation, like creating a mesh, extruding mesh surfaces, and selecting certain mesh faces through various selection 図 2 Our text-to-3D pipeline using Large Language Models and Geometry Nodes. mechanisms. In our project, we have developed two specialized Geometry Node groups specifically for chairs and tables. These groups are designed to be flexible, allowing input parameters to adjust features such as the number of legs, height, width, and curvature of the furniture. An example of our Geometry Node setup are displayed in Figure 3. The arguments to the chair generator are summarized as follows: "number of legs", "leg height", "leg radius", "chair seat height", "chair seat radius", "chair seat corner radius", "Distance to legs from chair seat edge", "backrest height". The arguments for the table generator are summarized as follows: "number of legs", "leg height", "leg radius", "tabletop height", "tabletop radius", "Distance to legs from table edge". We then convert our Geometry Node groups into Python scripts by using a converter ${ }^{1)}$. This allows us to take the arguments we receive from the function calling and pass them directly to the scripted version of the Geometry Nodes. ## 4 Results Here we showcase how our text-to-3D pipeline works for generating regular chairs and tables via user's text input. We then show how we can also generate out-of-distribution chairs and tables, and compare results from DALL-E-3 and StableDiffusion-XL. ## 4.1 Text-guided generation We first test our text-to-3D pipeline to generate regular chairs and tables. As shown in Figure 4, we can see that the height attribute in text prompts is correctly reflected in generated 3D mesh. ## 4.2 Out-of-distribution sample generation Next we compare our approach with some of the most advanced text-to-image models: DALL-E-3 and Stable Diffusion XL. The results are shown in Figure 5 and Figure 6. We see that DALL-E-3 fail to accurately follow the input prompts. SDXL successfully generates "a table with three legs" and "a chair with five legs" (if we consider one of the overlapping legs as the fifth leg.) However, for the rest of cases, we see that SDXL struggle to follow the text prompts. On the other hand, our approach successfully generates desired shapes in all cases. This shows that the reasoning ability of LLMs along with parametric shape generator as a structured prior helps in the case of generating out-of-distribution samples. ## 5 Limitations Our approach requires parametric shape generators, which limits the applicability of our method. Future work should explore if it is possible to learn to generate these parametric shape generators, which can be written as a code. ## 6 Conclusion We tackle the issue of prompt following of text-to-image and text-to-3D models. We first show that even the most advanced text-to-image models still struggle with generating out-of-distribution samples. We then introduce our approach that combines Large Language Models and Geometry Nodes. Large Language Models deal with reasoning and translating user prompts into concrete API calls, which then be used to execute Geometry Nodes to create 3D mesh. We show that our approach can generate both regular four-legged chairs as well as out-of-distribution chairs like "a chair with three legs" and "a chair with six legs". Since our approach requires preparing Geomtry Node setups prior to generation, this limits the applicability of our method to pre-defined object categories. However, our approach shows greater flexibility and control over the range of characteristics that are beyond commonly seen attributes in training data, thanks to the reasoning ability of Large Language Models.  図 3 An example geometry node setup. Each box represents a mesh operation such as "Extrude mesh", "Create a curve circle" etc. "A tall table" "A short table" 図 4 An example 3D mesh result for tables. "three legs" "five legs" DALL-E-3 SDXL Ours 図 5 Comparing DALL-E-3, Stable Diffusion-XL (SDXL), and our approach for generating out-of-distribution tables. The prompts we use are: "a table with three legs/five legs/ six legs", respectively. 図 6 Comparing DALL-E-3, Stable Diffusion-XL (SDXL), and our approach for generating out-of-distribution chairs. The prompts we use are: "a chair with three legs/five legs/ six legs", respectively. ## 参考文献 [1] James Betker, Gabriel Goh, Li Jing, Tim Brooks, Jianfeng Wang, Linjie Li, Long Ouyang, Juntang Zhuang, Joyce Lee, Yufei Guo, Wesam Manassra, Prafulla Dhariwal, Casey Chu, Yunxin Jiao, and Aditya Ramesh. Improving Image Generation with Better Captions. [2] Dustin Podell, Zion English, Kyle Lacey, Andreas Blattmann, Tim Dockhorn, Jonas Müller, Joe Penna, and Robin Rombach. SDXL: Improving Latent Diffusion Models for High-Resolution Image Synthesis, July 2023. [3] Lvmin Zhang, Anyi Rao, and Maneesh Agrawala. Adding Conditional Control to Text-to-Image Diffusion Models. In Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 3836-3847, 2023. [4] Weixi Feng, Xuehai He, Tsu-Jui Fu, Varun Jampani, Arjun Reddy Akula, Pradyumna Narayana, Sugato Basu, Xin Eric Wang, and William Yang Wang. Training-Free Structured Diffusion Guidance for Compositional Textto-Image Synthesis. In The Eleventh International Conference on Learning Representations, September 2022. [5] Shunyu Yao, Jeffrey Zhao, Dian Yu, Nan Du, Izhak Shafran, Karthik R. Narasimhan, and Yuan Cao. ReAct: Synergizing Reasoning and Acting in Language Models. In The Eleventh International Conference on Learning Representations, September 2022. [6] Zhengyuan Yang, Jianfeng Wang, Zhe Gan, Linjie Li, Kevin Lin, Chenfei Wu, Nan Duan, Zicheng Liu, Ce Liu, Michael Zeng, and Lijuan Wang. ReCo: RegionControlled Text-to-Image Generation. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 14246-14255, 2023. [7] Yuheng Li, Haotian Liu, Qingyang Wu, Fangzhou Mu, Jianwei Yang, Jianfeng Gao, Chunyuan Li, and Yong Jae Lee. GLIGEN: Open-Set Grounded Text-to-Image Generation. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 22511-22521, 2023. [8] Omri Avrahami, Ohad Fried, and Dani Lischinski. Blended Latent Diffusion. ACM Transactions on Graphics, Vol. 42, No. 4, pp. 149:1-149:11, July 2023. [9] Amir Hertz, Ron Mokady, Jay Tenenbaum, Kfir Aberman, Yael Pritch, and Daniel Cohen-or. Prompt-toPrompt Image Editing with Cross-Attention Control. In The Eleventh International Conference on Learning Representations, September 2022 [10] Bahjat Kawar, Shiran Zada, Oran Lang, Omer Tov, Huiwen Chang, Tali Dekel, Inbar Mosseri, and Michal Irani. Imagic: Text-Based Real Image Editing With Diffusion Models. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 6007-6017, 2023. [11] Nataniel Ruiz, Yuanzhen Li, Varun Jampani, Yael Pritch, Michael Rubinstein, and Kfir Aberman. DreamBooth: Fine Tuning Text-to-Image Diffusion Models for SubjectDriven Generation. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 22500-22510, 2023. [12] Nupur Kumari, Bingliang Zhang, Richard Zhang, Eli Shechtman, and Jun-Yan Zhu. Multi-Concept Customization of Text-to-Image Diffusion. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 1931-1941, 2023. [13] Hila Chefer, Yuval Alaluf, Yael Vinker, Lior Wolf, and Daniel Cohen-Or. Attend-and-Excite: Attention-Based Semantic Guidance for Text-to-Image Diffusion Models. ACM Transactions on Graphics, Vol. 42, No. 4, pp. 148:1-148:10, July 2023 . [14] Alexander Raistrick, Lahav Lipson, Zeyu Ma, Lingjie Mei, Mingzhe Wang, Yiming Zuo, Karhan Kayan, Hongyu Wen, Beining Han, Yihan Wang, Alejandro Newell, Hei Law, Ankit Goyal, Kaiyu Yang, and Jia Deng. Infinite Photorealistic Worlds Using Procedural Generation. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 12630-12641, 2023. [15] 3D-GPT: Procedural 3D Modeling with Large Language Models. In The Twelfth International Conference on Learning Representations, October 2023. [16] Shishir G. Patil, Tianjun Zhang, Xin Wang, and Joseph E. Gonzalez. Gorilla: Large Language Model Connected with Massive APIs, May 2023.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-2.pdf
# 自然画像で学習された画像埋め込みにダイアグラムを 特徵づける情報は含まれているか? 吉田遥音 1 工藤慧音 1,2 青木洋一 1,2 田中涼太 ${ }^{1,3}$ 斉藤いつみ ${ }^{1}$ 坂口慶祐 ${ }^{1,2}$ 乾健太郎 $4,1,2$ 1 東北大学 ${ }^{2}$ 理化学研究所 ${ }^{3}$ NTT 人間情報研究所 ${ }^{4} \mathrm{MBZUAI}$ haruto.yoshida@dc. tohoku.ac.jp \{keito.kudo.q4, youichi.aoki.p2, tanaka.ryota.r7 \}@dc.tohoku.ac.jp \{itsumi.saito, keisuke.sakaguchi \}@tohoku.ac.jp [email protected] ## 概要 ダイアグラムの意味やデザインを考慮して分類や検索,評価を行うための道具として,画像埋め込みがある. しかし, 既存の事前学習済み画像モデルから得られる埋め込みに,ダイアグラムを特徴づける情報が十分に含まれているかは明らかでない。本研究では, エッジの向きやノードの形といった要素が異なるダイアグラムの埋め込み分布を比較し,事前学習済みモデルから得られる画像埋め込みがダイアグラムを特徴づける情報を含んでいるかを調べた。既存の事前学習済みモデルから得られる埋め込みはダイアグラムを特徴づける情報を十分には含んでいない可能性があり,ダイアグラムを扱うことができるモデルの必要性が示唆された. ## 1 はじめに ダイアグラムは,データや概念を整理し,図示したものである. テキストでの表現に加えて,視覚的な表現を用いることにより理解を促す効果があるため, ビジネス [1] や教育 [2], 学術研究 [3] をはじめとする多くの分野で広く用いられている. また,自然言語からダイアグラムを生成する研究 $[4,5]$ が行われるなど,ダイアグラムの理解・生成に関する研究の重要度は高まっている. ダイアグラムの視覚的情報には,ノード間を結ぶエッジやテキストなどで表される記号的な意味情報と,それらをさらに見やすく表現するためのレイアウトや色使いといったデザインの大きく 2 つ要素がある. これら 2 つの要素を適切に用いることで,ダイアグラムは効果的に情報を伝達する. そのため, ダイアグラムの分類や検索といった研究を行 図 1 本研究の概念図. 特定の要素が異なるダイアグラムの埋め込み分布の違いを調べた. 分布内での距離が大きいほど,異なるダイアグラムとしてモデルが認識していると考えられる. エッジが逆向きのダイアグラムは,意味的には大きな違いがあるものの,埋め込み空間における距離は小さかった。 うにあたり,ダイアグラムの意味とデザインに焦点を当てることが重要であるといえる. ダイアグラムが持つ意味やデザインを考慮して分類や検索といった研究を行うための道具として,画像埋め込みがある.実際に画像を扱う研究において, 分類 [6] や検索 [7], 生成画像の評価 $[8,9]$ に至るまで,画像埋め込みが用いられている。つまり, ダイアグラムの特徴を正しく理解可能な埋め込みを構築することで,ダイアグラムの検索や分類といった様々な研究に応用できる. しかしながら, 既存の画像を埋め込むモデルの学習データは自然画像が中心であり,ダイアグラムは少ないと考えられる.1)ここでの自然画像は,現実世界の一部を切り取った写真のような画像を指している.またダイアグラムは,特定の情報を表現するために意図的に設計されているため,背景の乱雑さや複雑なテクスチャといった情報は抑制されてお 1) 今回実験に用いる Inception V3 は画像分類を行うために学習されたモデルであり, 学習データの中に diagram や figure といったラベルは存在していなかった. り,自然画像とは本質的に異なる [2]. そのため,既存の画像埋め込みにダイアグラムを特徴づける情報が含まれていない可能性があるが,その検証はなされていない. そこで本研究では, 既存の画像埋め込みにダイアグラムを特徴づける情報が含まれているかを調査した. その結果, エッジの色や向きといったピクセル数が小さい要素に関する情報が含まれていない,または取り出しにくい形で含まれている可能性があることが明らかになった. この結果は, ダイアグラムを扱うことができる新たなモデルが必要であることを示唆している。 ## 2 関連研究 ## 2.1 自然画像の埋め込み 自然画像の研究において,分類や検索を目的とした埋め込みが提案されている $[10,11]$. これらの研究は, 自動車 [10] や建造物 [11] といった一般物体に対する埋め込みモデルの構築を目的としている. そのため,画像中の特定の一般物体についての特徴を含んだ埋め込みを得ることに焦点を当てている。一方で, 本研究が対象とするダイアグラムはノードやエッジ,テキストなど記号的な要素が多く,これらの個々の要素に加えて要素間の関係を理解することが重要である. ## 2.2 自然言語処理における埋め込みの分析 自然言語処理の分野では,単語や文の埋め込みが特定の情報を含んでいるかを分析する研究が行われている $[12,13,14]$. 多くの既存研究では, 言語的性質の違いを認識する分類器を学習し, その分類精度やモデルの複雑さを見ることで埋め込みに含まれる情報を調べている $[12,13]$. ただしこれらの手法では,異なる表現に対して異なる分類器を学習する必要があることや,学習時のハイパラメータによって分類精度が変化してしまうといった問題が指摘されている [14]. 本研究では, 重心からの距離によって分類する教師なしの分類手法 [15]を用いる. 具体的な説明は 3.2 節で述べる。 ## 3 分析の方針 本稿では,采イアグラムの中でも 2 つのノードとそれらを結ぶ 1 つのエッジからなるシンプルな有向グラフをべースとするダイアグラム対象として,埋 め込みの分布を分析する。 ## 3.1 ダイアグラムの準備 $\mathrm{A}, \mathrm{B}$ の 2 つのノードと,Aから B に向かう 1 つのエッジからなる有向グラフをべースのダイアグラムとして,特定の要素を変更したダイアグラムを用意する。変更する要素は,ノードの位置 (16 種類), ノードの形 ( 2 種類 $)$ ,ノードの色 ( 2 種類),エッジの向き (2 種類),エッジの色 ( 2 種類),ノード内のテキストの有無(2 種類)であり,基本的にはこれらの直積をとる形で 384 種類のダイアグラムを作成する. ただし,テキストが無いダイアグラムはノー ドの区別ができないため,そのままでは同一のダイアグラムが複数生成されてしまう,今回はそれらの重複を取り除くため,単純に全ての直積をとった場合の 512 種類とは一致しない. また本稿では,有向グラフとしての正しさを意味の正しさとし,エッジの向きとテキストの有無を 「意味に関わる要素」, それ以外を「デザインに関わる要素」とする。 さらに,ノードの位置はバリエー ションを出すための要素であり,こちらについての詳細な分析は行わない。 ## 3.2 画像埋め込みの定量分析 特定の要素が異なるダイアグラムの埋め込みを入力とし, どれほどの精度で分類できるかを測ることにより,埋め込みに含まれている情報を分析する。本稿では, 既存研究 [15] と同様の方法により分類と定量化を行う.準備として,ダイアグラムの特定の要素についての条件を表す正解クラスを定義する. ここでの正解クラスは,要素の違いを 0 と 1 の二值で表現したものである. 例えばノードの形に注目して正解クラスを定義する場合,ノードの形が円であるか否かをそれぞれ 0 と 1 という 2 つの正解クラスとして定義する. 分類手法図 3 に示す手順により,ダイアグラムを分類する.はじめに,それぞれの正解クラスに属する埋め込みの重心を計算し,それを正解クラスの重心とする. 正解クラス $j \in\{0,1\}$ の重心 $\mathbf{c}_{j}$ は, $j$ に属する埋め込みの集合を $\mathbb{E}_{j}$ として式 1 により計算される。 $ \mathbf{c}_{j}=\frac{1}{\left|\mathbb{E}_{j}\right|} \sum_{\mathbf{e}_{k} \in \mathbb{E}_{j}} \mathbf{e}_{k} $ 次に,それぞれの埋め込みに対して,全ての正解クラスの重心との L2 距離,またはコサイン類似度を 図 2 ダイアグラムの作成過程. すべての要素を 1 つずつ指定することで 1 つのダイアグラムを作成する. 計算し,L2 距離が最小,またはコサイン類似度が最大の正解クラスに分類する.ここで分類されたクラスを予測クラスと呼ぶ。全ての埋め込みの集合を正とすると, $\mathbf{e}_{k} \in \mathbb{E}$ の予測クラス $\hat{y}_{k}$ は式 2 または式 3 により計算される. $ \begin{aligned} & \hat{y}_{k}=\underset{j}{\operatorname{argmin}}\left.\|\mathbf{e}_{k}-\mathbf{c}_{j}\right.\| \\ & \hat{y}_{k}=\underset{j}{\operatorname{argmax}} \frac{\mathbf{e}_{k} \cdot \mathbf{c}_{j}}{\left|\mathbf{e}_{k} \| \mathbf{c}_{j}\right|} \end{aligned} $ 評価指標分類精度を定量化するために,クラスタリングの評価に用いられている Purity と Inverse Purity の調和平均である $\mathrm{F}$ 值 [16] を用いる. 本稿では,Purity と Inverse Purity はそれぞれ「ある予測クラスに分類されたダイアグラムの中に異なる正解クラスのダイアグラムが含まれていないか」と「ある正解クラスのダイアグラムが異なる予測クラスに分類されていないか」を表している。これらを計算するにあたり,予測クラス $i$ に含まれている正解クラス $j$ に属するデータの個数を表す混同行列 $n_{i, j}$ を計算する. $\mathbf{e}_{k} \in \mathbb{E}$ の正解クラスを $y_{k}$ とすると, $n_{i, j}$ は式4 により計算される. $ n_{i, j}=\left|\left.\{\mathbf{e}_{k} \in \mathbb{E} \mid \hat{y}_{k}=i \wedge y_{k}=j\right.\}\right| $ $n_{i, j}$ と埋め込みの総数 |E|E を用いて, Purityと Inverse Purity はそれぞれ式 5 , 式 6 により計算される。 $ \begin{gathered} \text { Purity }=\frac{1}{N} \sum_{i} \max _{j}\left(n_{i, j}\right) \\ \text { Inverse Purity }=\frac{1}{N} \sum_{i}\left(\frac{\max _{j}\left(n_{i, j}\right)}{\sum_{i} n_{i, j}} \sum_{j} n_{i, j}\right) \end{gathered} $ 最後に,式 7 により Purity と Inverse Purity の調和平均をとる。 $ F=\frac{2 \times \text { Purity } \times \text { Inverse Purity }}{\text { Purity }+ \text { Inverse Purity }} $ 図 3 埋め込みの分類手法. 埋め込みと正解クラスの重心との距離により分類する. ## 3.3 埋め込み分布の可視化 定量分析では分布間の距離や広がりを分析することは難しいため,主成分分析(PCA)[17]を用いて複数の要素における埋め込み分布を 2 次元に圧縮して可視化する. PCA の前処理として標準化を行い, さらに圧縮後に白色化を行う. ## 4 実験 画像を埋め込むモデル画像を埋め込むモデルには, Inception V3 [18] と CLIP [19](ViT-B/32 [20]) を用いた。また,計算される埋め込みの次元は Inception V3 が 2048,CLIP が 512 である.以降は,画像を埋め込むモデルを「埋め込みモデル」と呼ぶ. データセット埋め込みモデルの入力には, 3.1 節で述べた 384 種類のダイアグラムを使用した. ## 4.1 定量分析 エッジの向き,テキストの有無,ノードの形, ノードの色,エッジの色の 5 つの観点について $\mathrm{F}$ 值を測定した結果を表 1 に示す. 意味に関わる要素の中でもエッジの向きでの分類は困難: 表 1 より,意味に関わる要素を比較すると,どちらの埋め込みモデルにおいてもテキストの有無に対する $\mathrm{F}$ 値はエッジの向きに対する $\mathrm{F}$ 値より 表 1 各要素に対する $\mathrm{F}$ 值. $F_{\mathrm{L} 2} , F_{\mathrm{cos}}$ はそれぞれ $\mathrm{L} 2$ 距離,コサイン類似度をもとに計算した。 も高かった。これは,テキストの有無が異なるダイアグラムを埋め込みの違いで容易に分類できるが, エッジの向きが異なるダイアグラムは埋め込みの違いで分類することが困難であることを意味する。つまり,意味に関わる要素の中でも,テキストの有無についての情報は埋め込みに含まれるが,エッジの向きについての情報は埋め込みに含まれない,または取り出しにくい形で含まれる可能性がある. ## デザインに関わる要素の中でもエッジの色での分類は困難: 表 1 より,デザインに関わる要素を比較すると,どちらの埋め込みモデルにおいてもノー ドの形や色に対する $\mathrm{F}$ 值はエッジの色に対する $\mathrm{F}$ 值 よりも高かった.これは,ノードの形や色が異なる ダイアグラムを埋め込みの違いで容易に分類でき るが,エッジの色が異なるダイアグラムを埋め込み の違いで分類することが困難であることを意味す る.つまり,デザインに関わる要素の中でも,ノー ドの形や色についての情報は埋め込みに含まれる が,エッジの色についての情報は埋め込みに含まれ ない,または取り出しにくい形で含まれる可能性が ある. ## 意味・デザインを問わずエッジの違いでの分類は 困難: 表 1 より,エッジについての情報は埋め込みに含まれない,または取り出しにくい形で含まれる可能性がある.今回使用したダイアグラムにおいてエッジは他の要素に比べてピクセル数が少なく,既存の画像埋め込みがピクセル数の多い要素についての情報を取り出しやすい形で含んでいる可能性がある。一方で,今回のエッジのような,ピクセル数は少ないが,ダイアグラムの本質的な意味に関わる要素も多くあるため,そういった要素の情報が取り出しやすい形で含まれる埋め込みが望まれる。 ## 4.2 定性分析 意味に関わる要素における埋め込み分布を図 4 に示す. ただし,PCAを行った後の第二主成分までの累積寄与率は Inception V3 で埋め込んだ場合が 0.20 , CLIP で埋め込んだ場合が 0.33 であった. ## CLIP の埋め込み分布は定量分析の結果と整合:表 4 より, CLIPの埋め込み分布については, 基準と なるダイアグラムの埋め込みとエッジが逆向きのダ イアグラムの埋め込みは混ざり合って分布している が,テキストの無いダイアグラムの埋め込みはそれ らとは混ざり合わずに分布していた。これは表 1 の 結果と整合している。一方, Inception V3 の埋め込 み分布は, CLIP の埋め込み分布に比べてテキスト の無いダイアグラムの埋め込みがそれ以外の埋め込 みと混ざり合って分布していた. これは表 1 の結果 と整合しているとは言えない. Inception V3 の PCA における第二主成分までの累積寄与率が CLIP の寄与率よりも低いことから,埋め込み全体を説明する のに不十分であることが原因だと考えられる. 図 4 意味に関わる要素の埋め込み分布. 次元圧縮には PCAを用いた。 ## 5 おわりに 本稿では,既存の画像埋め込みに有向グラフをベースとしたダイアグラムのエッジに関する情報が含まれていない,または取り出しにくい形で含まれている可能性があることを明らかにした。この結果は,ダイアグラムを特徴づける情報を取り出しやすい形で含んでいる画像埋め込みを構築する必要性を示唆している. 今後は,ダイアグラムを特徴づける情報を取り出しやすい形で含む埋め込みを構築し, ダイアグラムの分類や検索といった研究に応用することを目指す.また,テキストとダイアグラムにおける埋め込みの対応関係を明らかにする方向性も興味深い。 ## 謝辞 本研究は JSPS 科研費 JP21K21343,JP22H00524 の 助成を受けたものです。また,本研究を進めるにあたり多大なご助言,ご協力を賜りました羽根田賢和氏,松墒孝介氏をはじめとする Tohoku NLP グルー プの皆様に感謝いたします. ## 参考文献 [1] Emelie Havemo. A visual perspective on value creation: Exploring patterns in business model diagrams. European Management Journal, Vol. 36, No. 4, pp.441-452, 2018. [2] Aniruddha Kembhavi, Mike Salvato, Eric Kolve, Minjoon Seo, Hannaneh Hajishirzi, and Ali Farhadi. A Diagram Is Worth A Dozen Images. arXiv preprint arXiv:1603.07396, 2016 [3] Helen C. Purchase. Twelve years of diagrams research. Journal of Visual Languages \& Computing, Vol. 25, No. 2, pp. 57-75, 2014. [4] Jonas Belouadi, Anne Lauscher, and Steffen Eger. AutomaTikZ: Text-Guided Synthesis of Scientific Vector Graphics with TikZ. arXiv preprint arXiv:2310.00367, 2023. [5] Abhay Zala, Han Lin, Jaemin Cho, and Mohit Bansal. DiagrammerGPT: Generating Open-Domain, Open-Platform Diagrams via LLM Planning. arXiv preprint arXiv:2310.12128, 2023. [6] Alex Krizhevsky, Ilya Sutskever, and Geoffrey E Hinton. ImageNet Classification with Deep Convolutional Neural Networks. In Advances in Neural Information Processing Systems, Vol. 25. Curran Associates, Inc., 2012. [7] Bingyi Cao, André Araujo, and Jack Sim. Unifying Deep Local and Global Features for Image Search. In Andrea Vedaldi, Horst Bischof, Thomas Brox, and Jan-Michael Frahm, editors, Computer Vision - ECCV 2020, Lecture Notes in Computer Science, pp. 726-743. Springer International Publishing, 2020. [8] Jack Hessel, Ari Holtzman, Maxwell Forbes, Ronan Le Bras, and Yejin Choi. CLIPScore: A Referencefree Evaluation Metric for Image Captioning. In MarieFrancine Moens, Xuanjing Huang, Lucia Specia, and Scott Wen-tau Yih, editors, Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 7514-7528. Association for Computational Linguistics, 2021. [9] Martin Heusel, Hubert Ramsauer, Thomas Unterthiner, Bernhard Nessler, and Sepp Hochreiter. GANs Trained by a Two Time-Scale Update Rule Converge to a Local Nash Equilibrium. arXiv preprint arXiv:1706.08500, 2018 [10] Jonathan Krause, Michael Stark, Jia Deng, and Li Fei-Fei. 3D Object Representations for Fine-Grained Categorization. In 2013 IEEE International Conference on Computer Vision Workshops, pp. 554-561. IEEE, 2013. [11] Tobias Weyand, Andre Araujo, Bingyi Cao, and Jack Sim. Google Landmarks Dataset v2 - A Large-Scale Benchmark for Instance-Level Recognition and Retrieval. In 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2020. [12] Yadollah Yaghoobzadeh, Katharina Kann, T. J. Hazen, Eneko Agirre, and Hinrich Schütze. Probing for Semantic Classes: Diagnosing the Meaning Content of Word Embeddings. In Anna Korhonen, David Traum, and Lluís Màrquez, editors, Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5740-5753. Association for Computational Linguistics, 2019. [13] Katarzyna Krasnowska-Kieraś and Alina Wróblewska. Empirical Linguistic Study of Sentence Embeddings. In Anna Korhonen, David Traum, and Lluís Màrquez, editors, Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 57295739. Association for Computational Linguistics, 2019. [14] Yichu Zhou and Vivek Srikumar. DirectProbe: Studying Representations without Classifiers. In Kristina Toutanova, Anna Rumshisky, Luke Zettlemoyer, Dilek Hakkani-Tur, Iz Beltagy, Steven Bethard, Ryan Cotterell, Tanmoy Chakraborty, and Yichao Zhou, editors, Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 5070-5083. Association for Computational Linguistics, 2021. [15] 坂田将樹, 横井祥, Benjamin Heinzerling. 事前学習済み言語モデルによるエンティティの概念化. 言語処理学会, pp. 1310-1315, 2023. [16] Enrique Amigó, Julio Gonzalo, Javier Artiles, and Felisa Verdejo. A comparison of extrinsic clustering evaluation metrics based on formal constraints. Information Retrieval, Vol. 12, No. 4, pp. 461-486, 2009. [17] Jonathon Shlens. A Tutorial on Principal Component Analysis. arXiv preprint arXiv:1404.1100, 2014. [18] Christian Szegedy, Vincent Vanhoucke, Sergey Ioffe, Jonathon Shlens, and Zbigniew Wojna. Rethinking the Inception Architecture for Computer Vision. arXiv preprint arXiv:1512.00567, 2015. [19] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, Gretchen Krueger, and Ilya Sutskever. Learning Transferable Visual Models From Natural Language Supervision. arXiv preprint arXiv:2103.00020, 2021. [20] Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, Jakob Uszkoreit, and Neil Houlsby. An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale. In International Conference on Learning Representations, 2020. [21] Laurens van der Maaten and Geoffrey Hinton. Visualizing Data using t-SNE. Journal of Machine Learning Research, Vol. 9, No. 86, pp. 2579-2605, 2008. [22] Leland McInnes, John Healy, and James Melville. UMAP: Uniform Manifold Approximation and Projection for Dimension Reduction. arXiv preprint arXiv:1802.03426, 2020. ## A 埋め込み分布の可視化 ## A. 1 t-SNE,UMAP による意味の正しさに 関わる要素についての可視化 t-SNE [21],UMAP [22]を用いて次元圧縮した場合の意味の正しさに関する要素についての埋め込み分布をそれぞれ図 5 , 図 6 に示す. どちらの次元圧縮手法を用いた場合でも,CLIP の埋め达み分布はテキストの有無によってクラスタが分かれていることが確認でき,これは表 1 の結果と整合している. Inception V3 の埋め込み分布は, $\mathrm{t}$-SNE を用いて次元圧縮した場合にはテキストの有無によってクラスタが分かれていることが確認でき,これは表 1 の結果と整合している。 図 5 意味の正しさについての埋め込み分布. 次元圧縮には $\mathrm{t}-\mathrm{SNE}$ を用いた。 図 6 意味の正しさについての埋め込み分布. 次元圧縮にはUMAPを用いた。 ## A. 2 PCA, t-SNE, UMAP によるエッジの 色についての埋め込みの可視化 PCA, t-SNE,UMAP を用いて次元圧縮した場合のエッジの色についての埋め込み分布をそれぞれ図 7, 図 8,図 9 に示す. どの次元圧縮手法を用いた場合でも,両モデルの埋め込み分布がエッジの違いによって明確に分かれている様子は見られなかった. 一方で, $\mathrm{t}$-SNE を用いて次元圧縮した場合には小さなクラスタレベルでは分かれているものもあり,その中にはぺアになっているように見えるものもあった. 図 7 エッジの色ついての埋め込み分布。次元圧縮には PCAを用いた。 図 8 エッジの色についての埋め込み分布. 次元圧縮には t-SNE を用いた. 図 9 エッジの色についての埋め込み分布. 次元圧縮には UMAPを用いた。
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-3.pdf
# 知識ベースの検索を伴う Video QA タスクの提案 黒田佑樹 1 中島悠太 ${ }^{2}$ 1 大阪大学大学院情報科学研究科 2 大阪大学データビリティフロンティア機構 \{y-kuroda@is., n-yuta@\}ids.osaka-u.ac.jp ## 概要 ユーザの過去の発言や行動等の知識をもとに質問に答えられる質問応答システムの登場が期待される. Knowledge-Based Video Question Answering (KBVQA) では,テレビドラマを実世界に見立ててこの問題に取り組んでいる. KBVQA では, 質問に対して必要な知識が紐付けられて利用されている。本研究では質問と知識の紐付けを行わず,全体の長大な知識ベースからの知識検索を伴う VideoQA 夕スクである MAGQAを提案する。また,動画像字幕からの自動知識ベース作成,知識検索及び質問応答を行うベースライン手法を提案し,本タスクの難しさと提案手法の有効性を示す. ## 1 はじめに ユーザの過去の発言や行動に関する質問応答システムは高度なアシスタント機能の実現に不可欠であり,例えば, What is the name of the person whom I talked with at one of the past editions of NLP? のような質問に回答することが期待される。これは,ユーザの発言や行動の長大なログ(映像)から質問に関連する部分(知識)を見つけ出し,その結果に基づいて回答を生成するタスクと考えることができる. このタスクに関連するタスクとして,KnowledgeBased Video Question Answering (KBVQA) [1] が提案されている。このタスクでは,複数のエピソードから構成されるテレビドラマを対象として,同様の問題に取り組んでいる。質問に答えるための知識ベースとして,作問者によるアノテーション [1] やインターネット上の要約 [2], 動画像から作成されたシーン説明 [2], 映像に付属する字幕から自動作成した要約 [3] を利用する手法が提案されいる. これらの手法では,各質問に対して対応する知識 図 1 従来の KBVQA タスクと提案する MAGQA タスクの概要. 後者は質問に答えるために必要な情報を紐付けず,検索して得る。 がアノテーションとして提供されている,または質問がどのエピソードに関するものか,などのように知識の範囲を限定できるものとしている.例えば,現在 KBVQA において最も精度の良い手法 [3] は,図1(左)のように予め質問と紐付けられたエピソードの字幕要約のみを用いており,回答を生成する際には要約全文を大力としている。前述のいずれの手法も,学習時には質問に対して必要な知識(または. 少なくとも必要な知識の真値)が紐付いていること前提としている. 質問と知識の紐付けには,質問にアノテーションを付与する必要がある。ユーザの発言や行動のように長大なログ,すなわち大量の知識が提供される夕スクにおいて,質問に答えるための知識等に関するアノテーションは高コストで,例えばドメイン毎の (もしくは巨大なデータセットに対する)アノテー ション付与は難しい。 そこで本稿では,図1(右)のように,映像から質問応答に必要な知識を検索し,利用するタスクである MAGQA を提案する。このタスクでは,検索対象となる知識を限定するためのアノテーションを利用しない,従って,モデルはまず質問をクエリとして知識べースを検索し,その結果に基づいて回答を生成する。学習では,検索と回答生成を合わせて最適化する必要がある。本稿では既存データセットである KnowIT VQA [1]を用いて MAGQA を提案す る. 本タスクのベースラインとして字幕というテキストモダリティに注目した手法を提案する。 ## 2 タスク定義 KnowIT VQA はテレビドラマ Big Bang Theory に関する KBVQA のデータセットで,20 分程度の映像からなる 207 のエピソードから構成されており, 各エピソードは 12,264 のシーンに分割され,各シー ンについて 2 件,合計で 24000 件を超えるサンプルが提供されている. テレビドラマはユーザの発言や行動を記録した映像の代替に適したものであると考える. KnowIT VQA は多肢選択式のタスクとなっており,サンプルは,質問文 $q$, 回答候補 $a=\left.\{a_{1}, a_{2}, a_{3}, a_{4}\right.\}$, 対応するシーン $s=\{v, t\}$ (ただし, $v$ と $t$ はぞれぞれ映像と字幕), 人手で作成され される. このタスクでは $q, a, s$ が与えられたときに,全てのサンプルの $k$ の集合である知識べース $\mathscr{K}=\{k\}$ から適切な知識を選択し, これを元に $a$ から回答を選択する。このタスクでは,学習時に $k$ を知識の真値として利用できる。 MAGQA はこのデータセットを元にしており,人手で作成された知識ベースである $\mathscr{K}$ に代えて,全ての映像の集合 $\mathcal{S}=\{(v, t)\}$ を知識べースとし, 学習時にも $k$ を真値として利用しない。つまり, $q, a$, $s$ が与えられたときに, $\delta$ から必要な知識を見つけ出し, $a$ から回答を選択する. 自動音声認識技術により,字幕テキスト $t$ の利用は実用上の問題となならないと考える。このタスクにより,冒頭で示したユーザの発言や行動に基づいて質問に回答するシステムを模擬的に評価する。 ## 3 提案手法 文献 [3] では,提案タスクと同様に $\mathscr{K}$ を利用せず映像から必要な知識を獲得するアプローチが採用されている,具体的には,質問文 $q$ のシーン $s$ が含まれるエピソードを $e$ とすると,そのエピソードの映像 $S_{e} \subset \mathcal{S}$ から言語モデルを用いて物語文 $n$ を生成し, $q, a, n$ から回答 $c^{\star}$ を生成する. 提案するべースライン手法でも文献 [3] と同様に物語文を利用する(図 2)。ただし,質問文とエピソードが紐付いていないことから, 全てのシーンについて物語文を生成し, その集合 $\mathcal{N}$ を事前に構築する. さらに, Open Domain QA [4] における密べクトルによる文書検索 [5] を援用し, 質問文 $q$, 回答候補 $a$ をエリリとして,知識検索モジュールで $\mathcal{N}$ から知識の検索を行う. 最後に検索して得られた知識 $n^{\star}, q$, および $a$ を質問応答モジュールへの入力として回答 $c^{\star}$ 得る。なお,知識検索モジュールと質問応答モジュールの学習は独立して行う. ## 3.1 知識ベース生成 知識ベース生成モジュールでは,映像集合 $\delta$ から知識べースである物語文集合 $\mathcal{N}$ を生成する。本稿では, 文献 [3] と同様に, 映像 $v$ と字幕 $t$ のうち $t$ のみを利用する。 字幕は質問への回答に必要な多くの情報を含むが,対話形式であることから代名詞を多用するなど,その一部分のみを見ると検索性や了解性が低く, 質問応答の性能に悪影響を及ぼすことが懸念される. そこで提案手法では,要約等の自然言語処理タスクにゼロショットで高い精度を示す LLM である GPT-4 [6] を用いて字幕を物語文へと変換することで,言語モデルがより扱いやすい知識ベースを生成する. 具体的には,図 3 のようなテンプレートを用い, ビデオのシーン $s$ の字幕 $t$ を GPT-4 にプロンプトとして与えることで, 物語文 $n_{s}$ を生成する. 付加的な情報として,そのシーンの文脈を明らかにするためにエピソード内で時間的に手前のシーン $s^{\prime}$ の物語文 $n\left(s^{\prime}\right)$ ,及びそのシーンの場所を表すテキスト $p$ [2] もプロンプトとして入力する. $n_{s}$ を一定の長さ $L$ に分割したものをそれぞれ $n_{s l}$ (ただし. $\left.n_{s}=n_{s 1}+\cdots\right)$ とすると,知識べース $\mathcal{N}$ は次式により得られる。 $ \mathcal{N}=\left.\{n_{s l} \mid s \in \mathcal{S}, l=1, \ldots\right.\} $ ## 3.2 知識検索 知識ベース $\mathcal{N}$ の検索には, Open Domain QA タスク [4] で採用されている密べクトルによる文書検索 [5] を用いる. まず質問 $q$ と回答候補 $a=\left.\{a_{i} \mid i=1, \ldots, 4\right.\}$ からクエリ $ w_{i}=[\mathrm{CLS}]+q+[\mathrm{SEP}]+a_{i}+[\mathrm{SEP}] $ を生成する。クエリと知識のエンコーダを $E_{\mathrm{W}}, E_{\mathrm{K}}$ とすると,知識検索モジュールは, $w_{i}$ と $n \in \mathcal{N}$ の類似度 $\operatorname{sim}\left(w_{i}, n\right)=E_{W}\left(w_{i}\right)^{\top} E_{K}(n)$ を計算し, 上位 5 件の知識 $n^{\star}\left(w_{i}\right)=\left.\{n_{j}^{\star} \mid j=1, \ldots, 5\right.\}$ を出力する. $ \text { エンコーダ } E_{\mathrm{W}}, E_{\mathrm{K}} \text { は, BERT [7] ベースの Spider } $ [8] を初期パラメータとし, DPR [5] に基づく手法を 図 2 提案手法の概要. $ \begin{aligned} & \text { You are a highly skilled AI trained in language comprehension } \\ & \text { and summarization. } \\ & \text { Please summarize the [Dialogue] from the [Scene] in the TV drama, } \\ & \text { following the guidelines below: } \\ & \text { 1. Resolve co-references and avoid using pronouns as much as possible. } \\ & \text { 2. Use the same words as in the [Dialogue] whenever possible, } \\ & \text { to avoid losing information. } \\ & \text { 3. You may use the information from the [Context] if necessary. } \\ & \text { [Scene] } \end{aligned} $ $ \text { [Context] } $ $ \text { [Dialog] } $ 図 3 物語文生成のプロンプト. [Scene] 下部には場所を表すテキスト. [Context] 下部には前のシーンの物語文. [Dialogue] 下部にはそのシーンの字幕が入る. シーン冒頭では [Context] は空である. 用いて,本タスク向けにファインチューニングする. 具体的には,質問 $q$ とその回答に必要な知識 $n^{+}$, 無関係な知識の集合 $\left.\{n_{b}^{-}\right.\}_{b}$ を用いて, 正解 $c$ に対応するクエリ $w_{c}$ と $n^{+}$の類似度が大きくなるよう次式により対照学習を行う. $ \ell\left(w_{c}, n^{+},\left.\{n_{b}^{-}\right.\}\right)=-\log \frac{e^{\operatorname{sim}\left(w_{c}, n^{+}\right)}}{e^{\operatorname{sim}\left(w_{c}, n^{+}\right)}+\sum_{b} e^{\operatorname{sim}\left(w_{c}, n_{b}^{-}\right)}} $ 本タスクでは $q$ の回答に必要な知識 $n^{+}$についてのアノテーションが存在しない. そのため, $w_{c}$ と, 対応するエピソード内で $w_{c}$ との BM25 [9] スコアが最も高い知識を擬似的な $n^{+}$とする. また, $\left.\{n_{b}^{-}\right.\}_{b}$ はバッチ内の別の質問に対する $n^{+}$を用いる. ## 3.3 質問応答 質問応答では [3] を参考に,検索した知識 $n^{\star}\left(w_{i}\right)$ を BERT [7] ベースのニューラルネットワークの入力として回答を生成する. まず,質問 $q$ の回答候補 $a_{i}$ と知識 $n_{j}^{\star} \in n^{\star}\left(w_{i}\right)$ ごとに BERT と線形層を用い たスコア $z_{i j}$ を計算する. BERTへの入力 $x_{i j}$ は $ x_{i j}=[\mathrm{CLS}]+n_{j}^{\star}+[\mathrm{SEP}]+q+[\mathrm{SEP}]+a_{i}+[\mathrm{SEP}] $ で得られる。スコア $z_{i j}$ は次式で与えられる。 $ z_{i j}=\mathbf{W}^{\top} \operatorname{BERT}\left(x_{i j}\right)+\mathbf{b} $ ただし, Wとbは線形層のパラメータとする。 次に,質問文 $q$ に対する知識 $n *_{j}$ の重要度を計算する。これには,回答候補 $a_{i}$ それぞれについて,スコア $z_{i j}$ を最大とする $n *_{j}$ が大きければ重要であると考え,温度パラメータ $T$ を用いて次式により与える。 $ \alpha_{j}=\operatorname{softmax}\left(\max _{i} z_{i j} / T\right) $ 最終的な回答候補 $a_{i}$ のスコア $z_{i}^{\prime}$ は. $ z_{i}^{\prime}=\sum_{j} \alpha_{j} z_{i j} $ この $z_{i}^{\prime}$ と正解 $c$ とのクロスエントロピーロスにより質問応答モジュールを学習する. ## 4 実験 実験では,検索範囲と回答精度の関係,および知識検索モジュールの回答精度への影響を調査した.知識の分割数 $L$ は予備実験で良好な性能を示した 80 に固定した. これにより.知識ベースに含まれる知識数は 11,964 となる. また,質問応答モジュー ルでは,BERT-base-uncased [7] を用いた. ## 4.1 検索範囲と回答精度の関係 本研究で提案する MAGQA は,学習時に質問への回答に必要な知識の真值が与えられず,推論時にも検索範囲が限定されない点が従来研究 [3] と異なる.例えば文献 [3] の手法では,各質問のシーンが含まれるエピソードが既知であるとし,学習時,推論時のいずれもそのエピソード全体の対話全体の要約を入力している. そこで, 知識の検索範囲が精度にどの程度影響を与えるかを評価した。 表 1 検索範囲を限定した場合の回答精度の比較. 平均知識数は各検索範囲が含む知識数の平均. 実験では,検索対象の知識ベースをシーズン単位 ${ }^{11}$, エピソード単位,シーン単位で限定する. すなわち,ある質問文 $q$ が紐付けられたシー ンを $s, s$ が含まれるエピソードのシーン集合を $\operatorname{Epi}(s) , s$ が含まれるシーズンのシーン集合を $\operatorname{Sea}(s)$ で表すと,検索範囲をシーズン単位とする場合には知識ベースを $\mathcal{N}_{\text {Season }}(s)=\left.\{n_{s^{\prime} l} \mid s^{\prime} \in\right.$ $\operatorname{Sea}(s), l=1, \ldots\}$, エピソード単位とする場合には $\mathcal{N}_{\text {Episode }}(s)=\left.\{n_{s^{\prime}} \mid s^{\prime} \in \operatorname{Epi}(s), l=1, \ldots,\right.\}$, シーン単位とする場合には $\mathcal{N}_{\text {Scene }}(s)=\left.\{n_{s l} \mid l=1, \ldots,\right.\}$ とする.知識検索モジュールの学習時には,常に全シーンを含む知識べース $\mathcal{N}$ を利用し,質問応答モジュールの学習, および推論時は, 知識検索モジュールで限定された知識べースから得られる知識を利用した。 表 1 にそれぞれの構成での精度をまとめる.検索対象をシーズンやエピソードに限定すると精度が上昇することがわかる.これは検索対象の減少により。検索が容易になったためであると考えられる.シー ンまで限定すると回答精度は減少する.これは検索対象の減少により,回答に必要な情報が含まれなくなったことが原因であると推察できる。知識検索モジュールが仮に必要な知識を必ず見つけ出せると仮定すると,検索範囲が全体の場合の精度がエピソー ドに限定した場合の精度を超える可能性も考えられる. MAGQA において高い回答精度を達成するためには,検索範囲を広くしつつ検索性能を向上させる必要があり,本タスクの難しさがわかる. また。エピソード単位で知識を利用する文献 [3] の手法では,同じ知識ベースで性能を評価すると平均知識数 26 で回答精度 0.762 となり,提案するべー スライン手法の方が高い性能を示した.この結果から,検索範囲を限定した場合でも提案手法が有用であるといえる。 1) シーズンはエピソードをまとめたもので,KnowIT VQA では The Big Bang Theory シリーズの 9 つのシーズンの映像を含む。それぞれのシーズンに含まれるエピソード数は異なるものの, 1 シーズンは 20 エピソード程度で構成される.表 2 知識検索モジュールごとの回答精度. KnowIT VQA で提供されている質問の分類ごとの回答精度も合わせて示す. ## 4.2 知識検索モジュールによる性能比較 前節の結果から,知識検索モジュールの性能が回答精度を大きく左右すると類推できる。そこで,提案ベースライン手法の知識検索モジュールの替わりに,ランダムな知識を選択する場合.BM25 [9],エンコーダ $E_{W}, E_{K}$ の事前学習モデルである Spider [8] で回答精度を比較した.また.知識を用いず.質問と回答候補のみを質問応答の入力として用いる場合 (QAのみ) も比較対象とする. 表 2 に結果をまとめる.この結果から,どのような種類の質問に関しても提案べースライン手法の知識検索モジュールを用いた際の回答精度が最も高いことがわかる. 疎な表現による検索方式である BM25 と密ベクトルの学習を用いる方法である Spider を比較するとわずかに BM25 が上回るが, Spiderを本タスク向けにファインチューニングした提案手法はこれを上回る精度を達成した。これより,知識検索モジュールには質問のドメインに対するファインチューニングが必要であり,知識のアノテーションを利用しない MAGQA のようなタスク設計の重要性が示唆される. ## 5 おわりに ユーザの過去の発言や行動に関する質問応答の模擬タスクとして,知識を必要とする Video QA で大きな知識ベースから必要な知識を検索し, 質問に回答するタスクである MAGQAを提案した。また, LLM による知識ベース作成. 密ベクトルを用いた知識検索. 言語モデルによる質問応答によるべースライン手法を提案した. 実験では,タスクの困難さとベースライン手法の有効性を示した. 一方で, ベースライン手法は基礎的な物となっており,質問応答モジュールからの誤差逆伝播による知識検索モジュールの学習等, さらなる研究が期待される. ## 謝辞 本研究は JST 創発的研究支援事業 JPMJFR216O の助成による. ## 参考文献 [1] Noa Garcia, Mayu Otani, Chenhui Chu, and Yuta Nakashima. KnowIT VQA: Answering knowledge-based qaquestions about videos. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, pp. 10826-10834, 2020. [2] Noa Garcia and Yuta Nakashima. Knowledge-based video question answering with unsupervised scene descriptions. In European Conference on Computer Vision (ECCV), pp. 581-598. Springer, 2020. [3] Deniz Engin, François Schnitzler, Ngoc QK Duong, and Yannis Avrithis. On the hidden treasure of dialog in video question answering. In Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), pp. 2064-2073, 2021. [4] Danqi Chen, Adam Fisch, Jason Weston, and Antoine Bordes. Reading Wikipedia to answer open-domain questions. In Regina Barzilay and Min-Yen Kan, editors, Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics(ACL), pp. 1870-1879, 2017. [5] Vladimir Karpukhin, Barlas Oguz, Sewon Min, Patrick Lewis, Ledell Wu, Sergey Edunov, Danqi Chen, and Wentau Yih. Dense passage retrieval for open-domain question answering. In Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6769-6781, 2020. [6] OpenAI. GPT-4 technical report, 2023. [7] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies(NAACL-HLT), pp. 41714186, 2019. [8] Ori Ram, Gal Shachaf, Omer Levy, Jonathan Berant, and Amir Globerson. Learning to retrieve passages without supervision. In Proceedings of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACLHLT), pp. 2687-2700, 2022. [9] Stephen E Robertson, Steve Walker, Susan Jones, Micheline M Hancock-Beaulieu, Mike Gatford, et al. Okapi at trec-3. NIST Special Publication SP, Vol. 109, p. 109, 1995.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-4.pdf
# Genre-based Character Network Analysis and Emotion Sequence Analysis for Manga Megha Sharma $^{1}$ Yoshimasa Tsuruoka $^{1}$ ${ }^{1}$ The University of Tokyo \{meghas, yoshimasa-tsuruoka\}@g.ecc.u-tokyo.ac.jp } \begin{abstract} This paper explores the relationship between emotion sequences and character network graphs from Japanese comics to explore trends among different genres. We propose a framework to extract emotion sequences from the manga, and analyse whether significant correlations exist between temporal pages and emotions of the manga as well as between emotion variables. We also detect the peaks and valleys to find correlations with genres. We build social network graphs from the characters in pages to analyse the structural relationship across genres and extract features from the graphs and report on the trends across genres. Our results suggest that some preliminary trends exist in the current scope of the study. \end{abstract ## 1 Introduction Japanese comics, manga, are a multi-media art form where visual cues (drawings) and textual cues (dialogues) are used to create a complete story [1]. Additional visual elements such as style and onomatopoeia are used to enhance the reading experience. Manga analysis allows us to understand about the content and organisation of the manga through a social and reflective lens. Manga analysis not only benefits a social interpretation of multi-media, but it also supports applications such as manga translation [2], in-painting [3], and sketch-to-manga conversion [4]. Existing studies on manga analysis show that societal influence plays an important role in the development of manga. Research on gender-based and genre-based division in dialogues reveal mangas are influenced by dialogue patterns that mimic societal usage over the years [5]. In fact, Sugishita and Masuda [6] argue that manga story-lines exhibit character networks that reflect empirical social networks in society. In this paper, we aim to analyse manga characters and content through a lens of genre. Our contributions are two-fold. We view our work as an extension of Sugishita and Masuda's [6] work by extending the character network analysis to recognise genre-based patterns. Moreover, we also conduct a brief emotion sequence analysis based on genres. Our results find preliminary trends in the sequences and character graphs. ## 2 Method We short-listed 46 books from the Manga109 dataset [7] [8], which is annotated with face, dialogue and body bounding boxes. There are 12 genres defined in the dataset. We use four books from each genre except for horror where only two books are available. For character network analysis we only use two books from Four-Frame Cartoon (FFC) genre due to available data and annotation conflicts. We approach the analysis using two methods: Emotion sequence analysis and character network analysis. The former utilises the continuous sequence of emotions detected using the character faces and dialogues. The latter builds character networks of the characters appearing in manga and analyses the resulting graphs. In this section, the details of both methods are explained. ## 2.1 Emotion Sequence Analysis We define emotions using Russell's four quadrant theory that maps emotions as a function of arousal (intensity) and valence (positivity) [9]. Emotion is detected using the dialogues (text) of the manga page as well as the character faces. To do so, a face emotion detection model and a text emotion detection model are trained. The face emotion detection model is trained on a dataset of 509 manga character faces associated with 11 emotion classes ${ }^{1)}$. An  Figure 1 Emotion sequence for manga titled "Paraiso Road" by Kanno Hiroshi. The emotions are normalised from 1 to 5 EfficientNet model [10] with a custom classification layer achieves a validation accuracy of $77.7 \%$. We convert the emotion categories to valence and arousal values based on the NRC-VAD lexicon[11]. We use a pre-trained JapaneseBERT $^{2}$ model for text emotion detection. We fine-tune the model on a dataset of 30,000 social media blog posts [12]. The model achieves an accuracy of $61 \%$ on sentiment (valence) detection. A case study of emotion sequences is shown in fig. 1 , where the normalised emotion variables of arousal and valence are plotted. The plots suggest spikes in arousal at three peaks, with a considerable pace change towards the end of the book at page 100. The sharp change in arousal and valence boosts the emotion to a high point, which can signal a happy end to the story line. This is reflected as the story reaches a positive pay-off in the final few pages. Qualitative analysis of emotion sequences can help understand the emotional arc of the story-line and identify climactic points (points of sharp peaks or valleys). We extract features from the emotion sequences that will be used to understand behaviour by genre. These features can be categorised into three: detecting (1) temporal relations, (2) manga feature relations, and (3) peaks and valleys. For temporal relations, we calculate the Kendall tau correlation coefficient between temporal (pages) and other continuous manga features such as arousal, valence and text length. We also compute Pearson correlation among the three manga features. Finally, we keep track of number of peaks and valleys detected for each book in both arousal and valence sequences. The peaks and valleys are 2) huggingface.co/minutillamolinara/bert-japanese_finetunedsentiment-analysis defined for emotions above or below a threshold of four and two respectively when normalised on a scale of one to five. The statistics of the results of all features can be found in appendix A.1. These results are made only using the statistically significant coefficients to avoid noise from insignificant correlations. ## 2.2 Character Network Analysis From the analysis by Sugishita and Masuda [6], we take a social network approach to our manga analysis by genre. Hence, we create temporal bipartite graphs where one layer of nodes are the pages and the other are the characters. An edge between the character and the page exists if the character exists on the page. Using this graph, we can project it on a space of only the character nodes to capture the character network. Examples of extracted character networks are shown in fig. 2 - fig. 4. As seen in the figures, the character graphs can vary from size and structure. Complete graphs show equal distribution of character interactions through the manga, while star-like graph show a protagonist-driven story. On the other hand, subgroups may exist as seen in fig. 4 despite a well-connected "protagonist" (node with highest degree). These might suggest such stories have sub-plots that feature different characters. Our goal is to analyse these properties to detect any trends between the genre of these novels. Similar to emotion sequence analysis, we extract features from the graphs to study for the discussion. We extract the number of nodes and edges as $N$ and $M$ respectively. We also measure the average degree of the graph as $K$ and the coefficient of variation of the degree as $K C V$. The latter measures the variation trends in the degree of all nodes in the graph by taking the ratio of the standard deviation to the mean. We also measure the degree of the "protagonist", $K P . K P$ is also normalised by dividing by the rest of the number of nodes. Degree assortativity, $R$, measures whether nodes with similar degrees are closer to each other or further apart [13]. Clustering coefficient, $C$, measures the extent of clustering as a triangle in the graph [14]. ## 3 Discussion ## 3.1 Emotion Sequence Analysis We have plotted the average temporal relation coefficients in fig. 5 for each of the 12 genres. Science fiction Figure 2 A completely connected social graph from OL Lunch by Sanri Youko. Figure 3 A star-like social graph from Touyou Kidan by Tojo Miho. Figure 4 A social graph with sub-groups from Tsubasa No Kioku by Sato Harumi. had no statistically significant results in this step. Apart from horror, all genres exhibit mostly a negative correlation with time. This might suggest that the manga has decreasingly lower arousal and valence with the turn of the pages. However, the relationship is not very strong, ranging from 0 to -0.17 at best. Animal genre has the most negative correlation between the dialogue text length and the page number, suggesting that the dialogues get shorter with the story. On the other hand, Suspense and Historical drama both show a positive correlation between text length and page number. Historical drama in particular is the longest manga on average, with a text character length of over $28 \mathrm{~K}$. Horror has the most positive correlation with valence and arousal. However, it should be noted that these significant values are taken from only one book in the genre as the other has no significant relation. This highlights a potential limitation of the study, the limited books used here act as a barrier to the understand the performance across genres. In particular, we found a very strong correlation between arousal and valence across all genres. The lowest correlation is that of 0.7 (Animal genre), achieving up to 0.9 (FFC genre). This strong correlation seems to point the data mostly stays in the first and third quadrant of Russell's four quadrants. We believe this narrow view of emotion is reflective of the capacity of the emotion detection models rather than the actual manga emotion content. All genres also have a positive correlation between emotion variables (arousal, valence) and text length. This relationship is the lowest for Love Romance and Romantic Comedy and highest for FFC, implying that romantic genres tend to associate little arousal growth with text length of the manga. The relationship between valence and text length remains stable between 0.6 to 0.8 across all genres. Figure 5 Temporal correlations of emotion sequences by genre. Empty bars suggest no statistically significant results were observed. Finally, we look into the content of the valence and arousal values across pages using peak and valley detection. In general, the percentage difference between peak and valleys is over $97 \%$, implying valleys are far more common than peaks across genres. In particular, suspense genre has the lowest number of arousal valleys, suggesting that arousal is not usually on the lower end, while Animal has the highest number of arousal valleys, suggesting that arousal is usually on the lower end. Humour and Love Romance also have the highest number of valence valleys, suggesting sentimental lows in the story. In general, we found that arousal, valence, and text length do not hold significant differences among genre. One reason for such results could be the limited data and model performance. Moreover, manga is more generally differentiated by intended audience such as Shoujo (manga for girls) and Shounen (manga for boys) are more common genre descriptions for Japanese comics [5]. However, we leave the analysis as per gendered genres as future work as it requires simultaneous studies of gender and genre differentiation. ## 3.2 Character Network Analysis The statistical results from character network graphs is available in table 1. On average, there are 28 characters defined for a manga. However, the variety of network size varies among genres. Our results find that Historical Drama has the largest number of characters and edges on average, which falls in-line with the text length of the books. Four-Frame Cartoons (FFC) tend to have the smallest number of characters and edges. An example graph fig. 2 shows how FFC genre can be different from other genres seen in fig. 4 and 3. This is also confirmed by the low $K C V$ we find for FFC, which indicates that the degree is more homogeneous than diverse, implying a small number of characters interact with similar number of characters throughout the manga. The coefficient of variation of the degree of graph lies between 0.00 (completely connected graph) to 1.15 (high variation in the graph). On average, $K C V$ takes a value of 0.62 , with a majority of manga falling under 1 . This is consistent with the results by Sugishita and Masuda [6] where smaller social networks, as seen in manga, exhibit similar characteristics. Historical drama achieves the highest graph degree on average, while animal genre has the lowest. These results are intuitively in-line with results from $N$ and $M$, with a positive correlation with both. The normalised degree of the protagonist on average is 0.84 , which shows high level of connectivity in manga social networks. This could suggest, most manga are protagonist driven, a similar conclusion derived in [6]. Romantic Comedy has the significantly lowest $K P$ among the genres at 0.6 , while other genres are all above 0.75 . On structural analysis of the character graphs, it is evident that Romantic Comedy is more likely to exhibit graphs with sub-groups of characters similar to fig. 4. Whether these exist due to sub-plots can not be verified from graph structure and emotion sequence alone. Detailed results are available in appendix A.2. As seen in fig. 6, character networks are all dissassortative, which means that nodes with dissimilar degrees are closer to each other. This interesting result is also exhibited in [6]. We find that horror and Four-frame cartoons exhibit the lowest dissassortativeness. This is due to the particular well-connected graphs seen in both genres, where the story is not as protagonist-centered as other genres. On the other Figure $6 R, C$ values for each genre based on the character network graphs. Manga exhibits disassortative networks hand, all genres exhibit a high level of clustering. These clustering coefficients are largely similar, with an average of 0.83 across all books. This implies the graphs exhibit a large number of triangles. In general, character network analysis reveals some interesting trends across genres, which can be analysed further with more books and longer volumes. Table 1 Statistical results for all genres for character network analysis. $N$ is for number of nodes, $M$ is for number of edges, $K$ is for degree of the graph, $K C V$ is the coefficient of variation for the degree, $K P$, is the degree of the "protagonist" of the story, $R$ is the degree assortavity and $C$ is the clustering coefficient ## 4 Future Work and Conclusion This paper studies the content of manga in different genres through two lenses: emotional and social. Our results discuss some interesting trends revealed in the emotion sequence analysis and the character network analysis. However, these results are based on a limited set of data and requires further investigation to achieve a more substantial study of manga analysis. Hence, we propose the following future directions. An important bottleneck for emotion sequence analysis are the performances of the emotion recognition models, hence, we plan to experiment with different modeling architectures to improve emotion recognition in text and visual cues. We also propose deeper sequence analysis, especially inspired from bio-informatics. Solomon et al. [15] used such sequence analysis techniques to detect motifs in conversations. To conclude, our results invite a further analysis of manga through various lenses. ## References [1] Toni Johnson-Woods. Manga: An anthology of global and cultural perspectives. Bloomsbury Publishing USA, 2010. [2] Ryota Hinami, Shonosuke Ishiwatari, Kazuhiko Yasuda, and Yusuke Matsui. Towards fully automated manga translation. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 35, pp. 12998-13008, 2021. [3] Minshan Xie, Menghan Xia, Xueting Liu, Chengze Li, and Tien-Tsin Wong. Seamless manga inpainting with semantics awareness. ACM Transactions on Graphics (TOG), Vol. 40, No. 4, pp. 1-11, 2021. [4] Ziyuan Liu, Ye Ding, Qi Wan, Zhiyang He, and Qing Zhang. Generating manga images from sketch via gan. 2022. [5] Giancarla Unser-Schutz. Influential or influenced? the relationship between genre, gender and language in manga. Gender and Language, Vol. 9, No. 2, pp. 223-254, 2015. [6] Kashin Sugishita and Naoki Masuda. Social network analysis of manga: similarities to real-world social networks and trends over decades. Applied Network Science, Vol. 8, No. 1, p. 79, 2023. [7] Kiyoharu Aizawa, Azuma Fujimoto, Atsushi Otsubo, Toru Ogawa, Yusuke Matsui, Koki Tsubota, and Hikaru Ikuta. Building a manga dataset "manga109" with annotations for multimedia applications. IEEE MultiMedia, Vol. 27, No. 2, pp. 8-18, 2020. [8] Yusuke Matsui, Kota Ito, Yuji Aramaki, Azuma Fujimoto, Toru Ogawa, Toshihiko Yamasaki, and Kiyoharu Aizawa. Sketch-based manga retrieval using manga109 dataset. Multimedia Tools and Applications, Vol. 76, No. 20, pp. 21811-21838, 2017. [9] James A Russell. A circumplex model of affect. Journal of personality and social psychology, Vol. 39, No. 6 , p. 1161, 1980. [10] Mingxing Tan and Quoc Le. Efficientnet: Rethinking model scaling for convolutional neural networks. In International conference on machine learning, pp. 61056114. PMLR, 2019 [11] Saif Mohammad. Obtaining reliable human ratings of valence, arousal, and dominance for 20,000 english words. In Proceedings of the 56th annual meeting of the association for computational linguistics (volume 1: Long papers), pp. 174-184, 2018. [12] Haruya Suzuki, Yuto Miyauchi, Kazuki Akiyama, Tomoyuki Kajiwara, Takashi Ninomiya, Noriko Takemura, Yuta Nakashima, and Hajime Nagahara. A japanese dataset for subjective and objective sentiment polarity classification in micro blog domain. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 7022-7028, 2022. [13] Mark EJ Newman. Assortative mixing in networks. Physical review letters, Vol. 89, No. 20, p. 208701, 2002. [14] Duncan J Watts and Steven H Strogatz. Collective dynamics of 'small-world' networks. nature, Vol. 393, No. 6684, pp. 440-442, 1998 [15] Denise Haunani Solomon, Susanne Jones, Miriam Brin- berg, Graham D Bodie, and Nilam Ram. Using sequence analysis to identify conversational motifs in supportive interactions. Journal of social and Personal Relationships, Vol. 39, No. 10, pp. 3155-3179, 2022. ## A Appendix ## A. 1 Statistic Results from Emotion Sequence Analysis Table 2 Statistical results across all genres. page_arousal, page_valence, page_text, arousal_text, arousal_valence, valence_text are correlation coefficients between both variables. valence_peaks, valence_valleys, arousal_peaks, arousal_valleys are number of peaks and valleys for valence and arousal respectively. ## A. 2 Genre-based Comparison of Character Network Graph Features Figure 7 Number of nodes and edges divided by genre. Figure 8 Degree $(K)$, Coefficient of variation of degree $(K C V)$ and protagonist normalised degree $(K P)$ divided by genre.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-5.pdf
# 環境依存情報を利用しない大規模言語モデルによる コンピュータータスク自動化手法 笹川慶人 河原大輔 早稲田大学理工学術院 \{kate@fuji., dkw@\}waseda.jp ## 概要 大規模言語モデル (LLM)を用いたエージェントによってさまざまなコンピュータータスクを自律的に実行する手法が提案されている。先行研究で提案された手法の多くは HTML のコードなど環境に依存した情報を用いており、それらを用いることのできない環境では使用できず、汎用性に欠ける。本研究では環境に依存した情報を用いずにタスクを実行する手法を提案する。具体的には、コンピューター 画面のスクリーンショットを画面上のテキストとユーザーインターフェースの要素の位置情報に変換し、その情報からマウスやキーボード操作のコマンドを LLM に生成させる。結果としてコンピュー ター画面の画像の入力のみでタスクを実行できるようになり、また、高いタスク成功率を示した。 ## 1 はじめに 大規模言語モデル (LLM) はさまざまな分野で応用されており、自律的にコンピュータータスクを実行するエージェントとしても利用される。このようなエージェントは人間から与えられるタスクと現在のコンピューターの状態に基づいて、次に実行するベきアクションを予測し、タスクを完了する。既存の研究の多くは HTML のコードなど環境に依存した情報を LLM に入力することで現在のコンピュー ターの状態を認識させ、次に実行するべきアクションを予測させている $[1,2,3]$ 。そのような手法は特定の環境でしか適用することができない。例えば、 HTML のコードは web ブラウザー以外のソフトウェアでは利用できないことが多い。 この問題に対処するため、本研究では特定の環境でしか利用することのできない情報を使わずに、コンピューター画面のスクリーンショットの内容を描写したテキストのみを使用してコンピュータータス \\ 図 1 MiniWoB++のタスク例. 左:click-button, 右:click-tab-2. クを実行する手法を提案する。スクリーンショットの処理には光学的文字認識 (OCR) モデルや物体検出モデルを使い、スクリーンショット上のテキストやユーザーインターフェース (UI) の要素の名称とその位置情報を示したバウンディングボックスに変換する。出力はマウスやキーボード操作のコマンドとなる。モデルの評価にはさまざまなコンピューター タスクからなる MiniWoB++ベンチマーク [4] を用いる。コンピューター画面のスクリーンショットのみを利用しているため他の環境でも使える手法であり、結果としてタスク成功率 9 割を達成した。 ## 2 関連研究 ## 2.1 コンピュータータスクの自動化 web ブラウザーを使った日常的なタスクを集めたプラットフォームである World of Bits (WoB) [5] の一つに MiniWoB ベンチマークがある。このベンチマークにさらに難しいタスクや全く新しいタスクなどが導入された MiniWoB++ベンチマークがあり、 コンピュータータスクのベンチマークとしてよく用いられている。MiniWoB++ベンチマークには、ボタンをクリックするタスクやテキストを入力するタスクなどの単純なタスクから複数回の画面の遷移を必 要とするような難しいタスクまでさまざまなタスクがある。それぞれのタスクにおいて seed 值を設定することでランダムにタスク環境が生成される。 このようなコンピュータータスクを自動で実行するモデルを構築する手法として強化学習を用いる手法、LLM を fine-tuning する手法、LLM の zero-shot や few-shot による手法がある。強化学習を用いる手法として CC-Net [6] や Pix2Act [7] があるが、モデルを学習するのに人間によるデモンストレーションデータが大量に必要である。LLMを fine-tuningする手法として WebGUM [8] や WebN-T5 [9] があるが、 モデルを学習するコストがかかる。 これらに対して、LLM の zero-shot、few-shotによる手法は必要なデモンストレーションデータの数が少なく、パラメータを更新する必要がないという利点がある。LLM の zero-shot による手法 [10] は人間によるデモンストレーションデータは全く使わないが、難しいタスクにおいて few-shot の手法より成功率が低い。LLM の few-shot による手法である RCI [1] では LLM に実行する予定のアクションのプランを再帰的に修正させることで精度を向上させている。AdaPlanner [2] は環境からのフィードバックによってプランを改善することにより精度を向上させている。Synapse [3] ではタスクの類似度によって LLM に対する入出力例 (exemplar) を選んで入力して精度を向上させている。これらの few-shotによる手法はタスク成功率は高いが、HTML のコードを用いており、それが利用できる環境でのタスクにしか適用することができない。我々の提案手法は HTML のコードを用いていないため、さまざまな環境におけるタスクに適用することができる。 ## 2.2 大規模言語モデルのマルチモーダル化 HTML のコードを使わずに画像を使用してコンピュータータスクを解くために、LLM に画像を認識させる必要がある。その手法として LLM とコンピュータービジョンモデル (CV モデル) を直接結合する手法がある。この手法では画像とテキストのアライメントをとる必要があり、BLIP-2 [11] では LLM と CLIP [12] の ViT [13] を Q-Former というモジュールで結合し、画像とキャプションペアのデー タで学習してアライメントをとっている。BLIP-2 をマルチモーダル instruction tuning したモデルとして InstructBLIP [14] があり、性能が向上している。 LLaVA [15] では LLM と CLIP の ViTを線形層で結合し、マルチモーダル instruction tuning することで画像とテキストのアライメントをとっている。 また、CV モデルの出力をテキストとして直接 LLM に入力する手法がある。MM-REACT [16] では ChatGPT $^{1)}$ を画像のキャプションモデルや OCR モデル等の CV モデルと組み合わせて画像に関する質問に答えられるようにした。また、LLaVA では画像のキャプションとバウンディングボックスを GPT-4 に入力することでマルチモーダル instruction tuning 用のデータを生成し、学習に利用している。 ## 3 提案手法 ## 3.1 概要 本研究では強力な LLM の推論能力を利用するために、コンピューター画面のスクリーンショットをテキストで表現して LLM に入力するという手法を採用する。図 2 に提案手法の概要を示す。まず、コンピューター画面のスクリーンショットを撮って、用意した $\mathrm{CV}$ モデルに入力し、 $\mathrm{CV}$ モデルの出力、 タスクごとに作成した exemplar、タスクの指示、今までの実行したアクション履歴を LLM に入力し、次のアクションを出力させる。この処理をタスクが完了するまで繰り返す。なお、画像を入力としてアクションを決定するモデルとしては 2.2 節で述べたマルチモーダルモデルを使う手法も考えられるが、 zero-shot、few-shot で利用する場合はタスク成功率が低く、また、fine-tuningをする場合は学習データの用意やパラメータの更新などのコストがかかってしまうため採用しない。 ## 3.2 テキストによる画像内容の描写方法 LLM にコンピューター画面のスクリーンショットを認識させるために、OCR と物体検出によってスクリーンショット上のテキストとUI の要素を検出し、その名称と位置を表すバウンディングボックスを入力する。OCR モデルは EasyOCR ライブラリ2)を利用して実装する。物体検出モデルとしては YOLOv8を学習し利用する。YOLOv8を学習するために、MiniWoB++ベンチマークのタスクのスクリー ンショットにおいて、UI の要素の位置をアノテー ションしたデータセットを構築する。まず、それぞれのタスクにおいて 10 種類の seed 值を設定して人  図 2 提案手法の概要 手でタスクを解き、画面の遷移が起こるごとにスクリーンショットを撮ることによって画像を収集する。ここで、テキストとしてタスクの指示が与えられるため、スクリーンショットのタスクの指示がかかれている黄色の部分はカットする。画像の解像度はデフォルトの 2 倍の解像度である $320 \times 320$ とした。収集した画像に対してUI の要素の位置とクラスをアノテーションした。クラスラベルをつけにくいUI の要素に関しては “other object” というラベルをつけ、後処理でキャプションを生成する。構築したデータセットのクラス数は 40 、データ数は約 $2.8 \mathrm{k}$ となった。このデータセットを用いて Ultralytics ライブラリ3)を利用して YOLOv8を学習した。 LLM のコンピューター画面の認識精度を上げるため、OCR と物体検出の結果に対して後処理を行う。まず、テキストを含む UI の要素は OCR の結果と組み合わせる。text button などの中に語句を含むオブジェクトは、'Submit'というテキストがオブジェクト内に検出された場合、'Submit' button などのように統合する。text area などの中に文や文章を含むオブジェクトは、中のテキストがわかるように、 text area containing the text 'text'のようにする。 また、"other object”というラベルがつけられたオブジェクトは InstructBLIP によってキャプションを生成してラベルとして利用する。 ## 3.3 LLM ヘのプロンプト タスク成功率を上げるため、LLMへのプロンプトとして ReAct [17] プロンプトを利用する。ReAct プロンプトは思考の出力、アクション生成および実行結果の観察をテキストで組み合わせ、タスク成功率を上げるというものである。具体的には Auto-GPT 4 ) のプロンプトに変更を加えたものを利用する。LLM に対する指示を記述するシステムプロンプトで、 LLM の役割や制約、実行可能なアクション、バウンディングボックスの表現方法、出力形式、その他補助的な情報等を指示する。ユーザープロンプトはタスクの指示、過去に実行したアクション履歴、CV モデルの出力による現在のコンピューター画面情報とする。ここで、 $\mathrm{CV}$ モデルの出力のバウンディングボックスは $\mathrm{y}$ 座標によってソートする。出力は思考過程と次に実行するアクション列となる。具体的な入出力例を付録 Cに示す。 ## 4 実験 ## 4.1 実験設定 実験環境として、スクリーンショットを撮って座標を指定したアクションを実行することのできる MiniWob++ベンチマークを使用する。このベンチマークのタスクのうち 74 タスクにおいて評価を行う。実験に使用しないタスクは付録 A に示す。それぞれのタスクごとに exemplarを作成し、one-shot で入力する。LLM は OpenAI が API として提供している gpt-3.5-turbo、gpt-3.5-turbo-16k、gpt-4 を利用する5。gpt-3.5-turbo では、タスク完了までの画面の遷移回数が最小となるようにアクションを実行しても context size におさまらないタスクでは評価を行わない。評価指標としては、タスク環境から返される報酬が正の値であった割合で定義される成功率を用いる。ただし、次のアクションが決定されない、モデルの context sizeを超える、設定された max steps を超えるなどという事象が起きた場合は失敗として扱う。タスクごとに、gpt-3.5-turbo、gpt-3.5-turbo-16k では seed 値を 0-49として 50 回実験し、gpt-4 では seed 値を 0-19として 20 回実験する。その他の詳細設定は付録 B に示す。 5) https://platform.openai.com/docs/api-reference 3) https://github.com/ultralytics/ultralytics 4) https://github.com/Significant-Gravitas/AutoGPT 表 1 全体の成功率とタスク数. 本手法以外の結果は $[1,2,3]$ より引用. 表 2100 個の失敗したタスクの失敗原因 ## 4.2 実験結果 本手法と先行研究の few-shot の手法とを比較した結果を表 1 に示す。表において、成功率の平均は夕スクごとの成功率の平均值であり、タスク数はそれぞれの手法において評価が行われたタスクの数である。画像を大力としていること、context size の大きいモデルを使用していること、先行研究の手法ではサポートされていなかったドラッグなどの操作をアクションに追加したことなどの要因から実行できるタスク数が増えた。ただし、先行研究の手法では HTML のコードを利用しているため、評価する意味のないタスクにおいては評価を行っていないということが考えられる。また、本手法の gpt-3.5-turbo-16k の結果と gpt-4 の結果を比較すると、推論能力の高い gpt-4 の方がタスク成功率は高くなっていた。さらに、gpt-3.5-turbo と gpt-3.5-turbo-16k の結果を比較すると、gpt-3.5-turbo の方が解けるタスク数が減っているため、本手法はより大きな context size が必要であることがわかった。 ## 4.3 結果の分析 gpt-3.5-turbo-16k と gpt-4 それぞれについて、失敗したタスクから 100 個ランダムにサンプリングして、その失敗原因を分析した。その結果を表 2 に示す。gpt-3.5-turbo-16k と gpt-4 を比較すると gpt-4 ではLLM の推論による失敗が少なかった。CV モデルの推論の原因例として OCR モデルや物体検出モデルの推論が間違っていた場合や、キャプションモ表 3 3 タスクを解くのに必要なステップ数ごとの成功率 デルがわかりやすいキャプションをつけられなかった場合などが挙げられる。LLM の推論が原因で失敗したタスク例として、スクロールして目的のオブジェクトを探すタスクやオブジェクトの数を数えるタスク、オブジェクトの位置関係が重要で、バウンディングボックスによって正確に位置を認識しなければならないタスクなどがあった。その他の原因としてはオブジェクトをドラッグで入れ替えるタスクは判定が厳しく、失敗することが多かった。 表 3 にタスクを解くのに必要なステップ数ごとのタスク成功率を示す。1 ステップタスクは最初のスクリーンショットの情報のみからタスクを完了するためのアクションを全て生成できるタスクであり、 $\mathrm{n}$ ステップタスクはアクションを実行した後の画面の変化を観測し、再びアクションを生成する必要があるタスクである。 $\mathrm{n}$ ステップタスクの成功したタスクにおける平均ステップ数は gpt-3.5-turbo-16k では 3.024、gpt-4 では 3.089 であった。また、gpt-4では $\mathrm{n}$ ステップタスクでもあまり成功率が下がっておらず、複数回の画面の遷移を経るタスクでも正しく推論ができていた。 gpt-3.5-turbo、gpt-3.5-turbo-16k 特有の失敗原因として、exemplar に影響されて失敗するというものがあった。例えば、図 1 の click-tab-2 というタスクにおいて、exemplar で “Tab \#2” に目的のリンクがあった場合、“Tab \#2”に目的のリンクがなかったとしても、“Tab \#2” の別のリンクをクリックしてしまうという現象が起こった。gpt-4 では指定されたオブジェクト名と全く同じオブジェクト名でないとクリックしないという事象が見られた。 ## 5 おわりに 本論文では画像のみを用いて座標を指定したマウスやキーボードのアクションを生成する手法を提案した。この手法は HTML のコードを利用せずタスクを解くことができるため、物体検出モデルを構築すれば、web ブラウザー以外のソフトウェアでも使える環境に依存しない手法となっている。今後はマルチモーダルモデルと本手法を組み合わせたい。また、より現実的な環境で実験を行いたい。 ## 謝辞 本研究は SB Intuitions 株式会社と早稲田大学の共同研究により実施した。 ## 参考文献 [1] Geunwoo Kim, Pierre Baldi, and Stephen Marcus McAleer. Language models can solve computer tasks. In Thirty-seventh Conference on Neural Information Processing Systems, 2023. [2] Haotian Sun, Yuchen Zhuang, Lingkai Kong, Bo Dai, and Chao Zhang. Adaplanner: Adaptive planning from feedback with language models. In Thirty-seventh Conference on Neural Information Processing Systems, 2023. [3] Longtao Zheng, Rundong Wang, Xinrun Wang, and Bo An. Synapse: Trajectory-as-exemplar prompting with memory for computer control. In NeurIPS 2023 Foundation Models for Decision Making Workshop, 2023. [4] Evan Zheran Liu, Kelvin Guu, Panupong Pasupat, and Percy Liang. Reinforcement learning on web interfaces using workflow-guided exploration. In International Conference on Learning Representations, 2018. [5] Tianlin Shi, Andrej Karpathy, Linxi Fan, Jonathan Hernandez, and Percy Liang. World of bits: An open-domain platform for web-based agents. In Doina Precup and Yee Whye Teh, editors, Proceedings of the 34th International Conference on Machine Learning, Vol. 70 of Proceedings of Machine Learning Research, pp. 3135-3144. PMLR, 06-11 Aug 2017. [6] Peter C Humphreys, David Raposo, Tobias Pohlen, Gregory Thornton, Rachita Chhaparia, Alistair Muldal, Josh Abramson, Petko Georgiev, Adam Santoro, and Timothy Lillicrap. A data-driven approach for learning to control computers. In Kamalika Chaudhuri, Stefanie Jegelka, Le Song, Csaba Szepesvari, Gang Niu, and Sivan Sabato, editors, Proceedings of the 39th International Conference on Machine Learning, Vol. 162 of Proceedings of Machine Learning Research, pp. 9466-9482. PMLR, 17-23 Jul 2022. [7] Peter Shaw, Mandar Joshi, James Cohan, Jonathan Berant, Panupong Pasupat, Hexiang Hu, Urvashi Khandelwal, Kenton Lee, and Kristina Toutanova. From pixels to UI actions: Learning to follow instructions via graphical user interfaces. In Thirty-seventh Conference on Neural Information Processing Systems, 2023. [8] Hiroki Furuta, Kuang-Huei Lee, Ofir Nachum, Yutaka Matsuo, Aleksandra Faust, Shixiang Shane Gu, and Izzeddin Gur. Multimodal web navigation with instruction-finetuned foundation models. arXiv, 2023. abs/2305.11854. [9] Izzeddin Gur, Ofir Nachum, Yingjie Miao, Mustafa Safdari, Austin Huang, Aakanksha Chowdhery, Sharan Narang, Noah Fiedel, and Aleksandra Faust. Understanding HTML with large language models. In Houda Bouamor, Juan Pino, and Kalika Bali, editors, Findings of the Association for Computational Linguis- tics: EMNLP 2023, pp. 2803-2821, Singapore, December 2023. Association for Computational Linguistics. [10] Tao Li, Gang Li, Zhiwei Deng, Bryan Wang, and Yang Li. A zero-shot language agent for computer control with structured reflection. In Houda Bouamor, Juan Pino, and Kalika Bali, editors, Findings of the Association for Computational Linguistics: EMNLP 2023, pp. 1126111274, Singapore, December 2023. Association for Computational Linguistics. [11] Junnan Li, Dongxu Li, Silvio Savarese, and Steven Hoi. BLIP-2: bootstrapping language-image pre-training with frozen image encoders and large language models. In ICML, 2023 . [12] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, Gretchen Krueger, and Ilya Sutskever. Learning transferable visual models from natural language supervision. In Marina Meila and Tong Zhang, editors, Proceedings of the 38th International Conference on Machine Learning, Vol. 139 of Proceedings of Machine Learning Research, pp. 8748-8763. PMLR, 18-24 Jul 2021. [13] Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, Jakob Uszkoreit, and Neil Houlsby. An image is worth 16x16 words: Transformers for image recognition at scale. In International Conference on Learning Representations, 2021. [14] Wenliang Dai, Junnan Li, Dongxu Li, Anthony Tiong, Junqi Zhao, Weisheng Wang, Boyang Li, Pascale Fung, and Steven Hoi. InstructBLIP: Towards general-purpose vision-language models with instruction tuning. In Thirtyseventh Conference on Neural Information Processing Systems, 2023. [15] Haotian Liu, Chunyuan Li, Qingyang Wu, and Yong Jae Lee. Visual instruction tuning. In Thirty-seventh Conference on Neural Information Processing Systems, 2023. [16] Zhengyuan Yang, Linjie Li, Jianfeng Wang, Kevin Lin, Ehsan Azarnasab, Faisal Ahmed, Zicheng Liu, Ce Liu, Michael Zeng, and Lijuan Wang. MM-REACT: Prompting chatgpt for multimodal reasoning and action. arXiv, 2023. abs/2303.11381. [17] Shunyu Yao, Jeffrey Zhao, Dian Yu, Nan Du, Izhak Shafran, Karthik Narasimhan, and Yuan Cao. ReAct: Synergizing reasoning and acting in language models. In International Conference on Learning Representations (ICLR), 2023. ## A 実験の対象から除外したタスク 先行研究で除外していた debug tasks (choosedate-easy、choose-date-medium、click-tab-2-easy、 click-tab-2-medium、click-test-transfer、email-inboxdelete、email-inbox-forward、email-inbox-important 、 email-inbox-noscroll、email-inbox-reply、email-inboxstar-reply)、即時的反応が必要なタスク (chase-circle、 moving-items、simon-says)、selenium の仕様上できない動作が必要なタスク (choose-list、click-scroll-list、 highlight-text、 highlight-text-2、 text-editor)、テキストによる指示が不明確なタスク (click-menu-2、 use-colorwheel-2)、バウンディングボックスの情報からアクションを生成するという実験設定に沿わないタスク (grid-coordinate、guess-number、 use-slider、use-slider-2、use-spinner) や exemplar を作成できなかったタスク(book-flight、drag-cube、 drag-sort-numbers、number-checkboxes) も除外する。 ## B 実験の詳細設定 本実験で実行可能なコマンドは、マウスカー ソルを動かすMOVE_COORDS、指定された座標をクリックまたはダブルクリックする CLICK_COORDS、 DBLCLICK_COORDS、ドラッグの操作を実行する MOUSEDOWN_COORDS、MOUSEUP_COORDS、スクロールを実行するSCROLL_UP_COORDS、SCROLL_DOWN_COORDS、指定されたキーを押すPRESS_KEY、指定されたテキストをタイプするTYPE_TEXTがある。 PRESS_KEY で使用できるキーボードのキー は"<Enter>"、"<Backspace>"、"C-a"、"C-c"、"C-x"、 "C-v"のいずれかとした。OpenAI の API としては、gpt-3.5-turbo-0613、gpt-3.5-turbo-16k-0613、 gpt-4-0613を使用した。LLM の最大の completion の回数である max steps は 10 回に設定し、出力の max tokens は drag-shapes、choose-date は 1024、clickcheckboxes-large、click-checkboxes-transfer は 1500、その他のタスクは 512 とした。また、completion のパラメーターは temperature を 0、その他の max tokens 以外のパラメーターはデフォルトの値を用いた。さらに、モデルの推論に時間がかかるため、タスクの制限時間はデフォルトの 100 倍の時間に設定した。 ## C 入出力例 図 1 における click-button タスクの入出力例を表 4、表 5 に示す。 Task: Click on the "Ok" button. Observation 1: OCR : 'commodo ullamcorper turpis': $[3,88$, 260, 116] Object Detector: textbox: $[4,4,283,47]$ 'Ok' button: $[4,46,69,90]$ 'next' button: $[4,113,86,156]$ 'submit' button: $[3,155,114,198]$ textbox: $[3,199,256,242]$ 表 5 click-button タスクにおける出力例
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-6.pdf
# Enhancing Economic Time Series Prediction with News Text Data and Numerical Data: A Transformer-Based Approach Shangyang Mou ${ }^{1} \quad$ Wenting Zhang $^{1} \quad$ Takuji Kinkyo $^{1} \quad$ Shigeyuki Hamori $^{1}$ Jinhui Chen ${ }^{2}$ Tetsuya Takiguchi ${ }^{1} \quad$ Yasuo Ariki $^{1}$ ${ }^{1}$ Kobe University ${ }^{2}$ Wakayama University [email protected] } \begin{abstract} Financial time series such as stock prices can be hard to predict as it is difficult to model short-term and long-term temporal dependencies between data points. In addition, they are influenced by underlying fundamentals that are conveyed through various news feeds. Existing methods for predicting financial time series typically focus on either numerical data or textual information. When considering textual data, the prevailing approach is to utilize sentiment information extracted from news sources as features. This paper introduces a novel methodology that directly integrates financial news content with corresponding time series data, to enhance the accuracy of financial time series forecasting. \end{abstract ## 1 Introduction Financial time series forecasting is a challenging signal processing problem, largely because the underlying financial system that generates such data is enormously complex, resulting in data that can exhibit both non-linear and non-stationary characteristics [1]. However, financial data prediction plays a pivotal role in various aspects of the financial domain, from individual investment decisions to macroeconomic policy making [2]. With the growing availability of big data, there has been an increase in research into financial date analysis. For example, from automated trading systems $[3,4]$ to stock price prediction $[5,6]$, the availability and analysis of large financial datasets have enhanced the accuracy and speed of market predictions and investment strategies, significantly impacting the field of financial technology. In financial time series forecasting, unlike data from weather, traffic, or electricity $[7,8]$, financial time series are influenced by a variety of complex factors. These include historical data as well as macroeconomic policies, global events, and related economic indices [9, 10]. Existing approaches in financial series prediction have utilized either textual or numerical data, with some models considering both types concurrently [11,12]. The most methods employing financial text have predominantly relied on sentiment analysis, using sentiment scores as features to assist model predictions $[13,14]$. These models typically focus on predicting the direction in which the data will fall or rise, rather than directly predicting the data series. However, inaccuracies in sentiment analysis, especially mispredicted sentiment labels, can notably affect the quality and accuracy of financial predictions, leading to significant deviations in forecasted outcomes. Recently, transformer models have become increasingly popular for time series forecasting tasks, showing impressive outcomes [8, 7, 15, 16, 17]. However, [18] claims that transformers may not be as effective as anticipated, with results showing that linear models outperform the more complex transformer-based models. Despite this, considering the transformers' robust language processing capabilities [19], we explore whether it can effectively handle textual features combined with numerical data for financial data forecasting. ## 2 Proposed Method This paper proposes a methodology that directly uses news text as a feature combined with numerical data for forecasting. The approach, implemented on transformerbased models, has yielded promising results. The effectiveness of this method illustrates the potential of integrating complex language models with traditional numerical time series analysis, offering a more comprehensive understand- ## Figure 1 FRAMEWORK ARCHITECTURE. ing of the financial data. For the time series forecasting tasks, we consider the following problem: given a collection of multivariate time series samples with look-back window $L:\left(x_{1}, \ldots, x_{L}\right)$ where each $x_{t}$ at time step $t$ is a vector of dimension $\mathrm{M}$, we would like to forecast $T$ future values $\left(x_{L+1}, \ldots, x_{L+T}\right)$. Forward Process. We define the $i$-th univariate series of length $L$, starting at time index 1 , as $x_{1: L}^{(i)}=\left(x_{1}^{(i)}, \ldots, x_{L}^{(i)}\right)$, where $i=1, \ldots, M$. The input numerical data $\left(x_{1}, \ldots, x_{L}\right)$ is divided into $M$ univariate series $x^{(i)} \in \mathbb{R}^{1 \times L}$, and each is processed independently through the transformer backbone according to PatchTST [16] model's channelindependence setting. Then the corresponding news text data denoted as $a_{t}=\left(w_{1}, \ldots, w_{e}\right)_{t} w_{t}$ is concatenated to each univariate time series. Since we only use the latest day's news text embedding $w_{L}$, for each time series $\left(x_{1}, \ldots, x_{L}\right)$, the final input to the transformer becomes a concatenation of the numerical series and the textual embedding: $z^{(i)}=\left(x_{1: L}^{(i)}, a_{L}\right)$, with our objective being to forecast $T$ future values $\left(x_{L+1}, \ldots, x_{L+T}\right)$. ## 2.1 Model Architecture In the study by Nie et al. [16], a novel transformer architecture, named PatchTST, was introduced, innovatively incorporating two pivotal concepts - channel independence and patching - specifically designed for enhancing time series forecasting. Channel independence. Channel independence is a property of the PatchTST model that allows different channels of the input to be processed independently. In traditional transformers, the same set of attention weights is used for all channels, which limits the model's ability to capture fine-grained information in each channel. In contrast, the PatchTST model applies attention weights separately to each channel, allowing it to better capture the unique features and patterns in each channel. Patching. Patching is a technique to alleviate the computational burden of self-attention. Rather than attending to every position in the sequence, the input sequence is partitioned into smaller sub-sequences known as patches. Self-attention is then computed between the patches. This approach enables the model to handle longer sequences while avoiding memory constraints and facilitating quicker inference. Additionally, patching enables the capture of localized semantic information that can not be available when using individual point-wise input tokens. By dividing the input into patches and processing each channel independently, the model can efficiently capture complex patterns and relationships across the entire sequence. Inspired by this, we extend the input to combine with news text, as shown in Figure 1, for each channel we concatenate the correspond news text embedding to the time series. Transformer Encoder. PatchTST uses the vanilla transformer encoder that maps the observed signals to the latent representations. Initially, the numerical data and textual feature embeddings are concatenated, forming an enriched input sequence. This combined sequence is then mapped to the transformer's latent space of dimension $D$ via a trainable linear projection $W_{p} \in \mathbb{R}^{D \times P}$, where $P$ is the dimension after concatenation. Additionally, a learnable additive position encoding $W_{\text {pos }} \in \mathbb{R}^{D \times N}$ is applied to maintain the temporal order of the concatenated patches: $z_{d}^{(i)}=$ $W_{p} z_{p}^{(i)}+W_{p o s}$, where $z_{d}^{(i)} \in \mathbb{R}^{D \times N}$ denote the combined input fed into the transformer encoder. In the multi-head attention mechanism, each head $h=1, \ldots, H$ transforms the input into query matrices $Q_{h}^{(i)}=\left(z_{d}^{(i)}\right)^{T} W_{h}^{Q}$, key matrices $K_{h}^{(i)}=\left(z_{d}^{(i)}\right)^{T} W_{h}^{K}$, and value matrices $V_{h}^{(i)}=\left(z_{d}^{(i)}\right)^{T} W_{h}^{V}$, where $W_{h}^{Q}, W_{h}^{K} \in \mathbb{R}^{D \times d_{k}}$ and $W_{h}^{V} \in \mathbb{R}^{D \times D}$. The scaled dot-product attention mechanism then generates the attention output $O_{h}^{(i)} \in \mathbb{R}^{D \times N}$ as: $ \begin{aligned} \left(O_{h}^{(i)}\right)^{T} & =\operatorname{Attention}\left(Q_{h}^{(i)}, K_{h}^{(i)}, V_{h}^{(i)}\right) \\ & =\operatorname{Softmax}\left(\frac{Q_{h}^{(i)}\left(K_{h}^{(i)}\right)^{T}}{\sqrt{d_{k}}}\right) V_{h}^{(i)} \end{aligned} $ The multi-head attention block incorporates BatchNorm layers and a feed-forward network with residual connections. Finally, a flatten layer followed by a linear head is used after the encoder to obtain the prediction result $\hat{x}_{L+1: L+T}^{(i)}=\left(\hat{x}_{L+1}^{(i)}, \ldots, \hat{x}_{L+T}^{(i)}\right) \in \mathbb{R}^{1 \times T}$. FinBert. To effectively process news text, we employ the FinBERT model [20], a domain-specific pre-trained BERT architecture specialized for financial contexts. FinBERT is adept at extracting features from financial texts, enabling it to capture the complex sentiment and thematic content inherent in financial news. In our approach, FinBERT is utilized to generate feature embeddings which serve as a rich, contextual representation of the news data. The integration of textual features and quantitative time series data significantly enhances the model's ability to forecast time series with greater accuracy, leveraging the rich contextual information present in the news text to provide a more comprehensive understanding of the factors influencing the time series trends. ## 2.2 Model Input For our study, we constructed a dataset focused on the U.S. economy by utilizing a collection of news headlines scraped from the official websites of CNBC, the Guardian, and Reuters ${ }^{1)}$. These headlines provided an overview of the U.S. economy and stock market trends over the past one to two years. To complement this textual data, we aligned it with corresponding period economic time series data, including indices such as the SP 500, MSCI US, NYSE American Composite, Nasdaq Composite, Dow Jones Industrial Average, and the US Dollar Index. Given the significantly higher dimensionality of textual data compared to numerical data, and the fact that news is not available every day, we only select latest day's news. On days without news, we inserted a 'no news' marker. In our transformer-based approach, we added a masking layer to handle these 'no news' instances by masking them, so the model do not pay attention to them. To align the news data with the corresponding index in dimension and retain as much textual information as possible, we concatenate the latest day's news with a historical window of time series data, as the latest updates tend to have the greatest impact. For instance, to forecast the time series for the upcoming 12 days, we utilise the previous 96-day time series and the latest day's news, reflecting the immediacy and relevance of the latest news in influencing economic trends.  Considering that the U.S. stock market typically has 256 trading days per year, coupled with the scarcity of financial news datasets, we constructed a dataset containing 611 samples. The dataset consists of economic data for the period 2018-03-01 to 2020-07-02 and corresponding news texts. The choice of this time period and the resulting size of the dataset is dictated by the amount of relevant news content available for analysis. The dataset thus provides a comprehensive view of the economic landscape over a given period, combining quantitative market data with qualitative news narratives to provide an integrated approach to financial analysis. ## 3 Experiments In this section we describe the details of the training process and the experiment setting. Loss Function. Consistent with PatchTST [16] we use the Mean Squared Error (MSE) loss to measure the discrepancy between the prediction and the ground truth. The loss in each channel is gathered and averaged over $M$ time series to get the overall objective loss: $ L=E_{x} \frac{1}{M} \sum_{i=1}^{M}\left.\|\hat{x}_{L+1: L+T}^{(i)}-x_{L+1: L+T}^{(i)}\right.\|_{2}^{2} $ Model Parameters. In Table 1, we compare our dataset US Economy with other popular datasets dedicated to multivariate time series forecasting tasks. Notably, our dataset appears to be relatively small, primarily due to the scarcity of news text data. This peculiarity prompted specific adjustments in our model's parameters. Original PatchTST model configuration consists of 3 encoder layers with the head number $H=16$ and the latent space dimension $D=128$. However, in our adapted model that incorporates news text data, we found it necessary to modify the architecture to better capture the complexity introduced by the additional textual information. To this end, we increased the number of encoder layers to 12 , providing a deeper and more nuanced processing capability for the combined numerical and textual data. Additionally, with our dataset variables, we optimized the head number to 4 , ensuring efficient processing while capturing the intricate patterns in the combined numerical and textual inputs. Results Analysis. Based on our experiments, integrating news text as a feature into the corresponding economic data time series has demonstrated significant im- Table 1 Dataset Comparison. provements in multivariate time series forecasting. Specifically, as shown in Table 2 when only economic data was used, $\mathrm{MSE}=0.5779$. However, upon incorporating the corresponding news text as an additional feature, there was a notable reduction in the MSE to 0.4773 . This substantial decrease underscores the efficacy of including news text in enhancing the accuracy of our forecasting model. The results clearly indicate that the contextual insights provided by the news text play a crucial role in predicting economic trends more accurately, thereby validating our approach of combining qualitative textual data with quantitative time series data. Table 2 Multivariate time series forecasting results with look-back window $\mathrm{L}$ and number of input tokens $\mathrm{N}$ are predicted. In our comparative analysis of model performance with and without news content shown in Figure 2, we observed a marked contrast in the optimization trajectories. Using solely economic data, the model rapidly converged to its minimum MSE of 0.5779 within just 7 epochs, after which it began to overfit, as indicated by the subsequent increase in validation loss. This swift convergence suggests that the model finds it relatively straightforward to learn from numerical data, which, although indicative of economic trends, lacks the complexity inherent in textual information. Conversely, when we incorporated news text into the forecasting model, the optimal MSE of 0.4773 was achieved only after a considerably longer training period of 70 epochs. This prolonged learning curve highlights the complexity that textual data introduces to the model, necessitating a more nuanced and detailed learning process. Notably, the model trained with text data did not exhibit signs of overfitting within the observed epochs, suggesting that it was able to continue learning and integrating insights from the textual content effectively. The extended training required for the text-enhanced model is indicative of its process to assimilate and interpret the multifaceted influences captured in textual data, which are often non-linear and abstract compared to numerical Figure 2 Comparison of MSE Loss with \& without News Content. data. The improved MSE with textual data integration demonstrates the model's enhanced capability to discern and synthesize the latent factors affecting economic tendencies, resulting in wiser and more precise forecasts. These observations underscore the comprehensive nature of forecasts that incorporate qualitative insights from text data, affirming the value of combining diverse data types for a deeper understanding of economic movements. This approach aligns with the intricate realities of financial markets, where qualitative factors often steer the quantitative indicators, suggesting a promising direction for advancing financial time series forecasting methodologies. ## 4 Conclusions In conclusion, our method integrates economic news text with economic data for multivariate time series forecasting. This approach adds influential news content to the prediction process, enhancing traditional numerical data analysis. Our experiments demonstrated that features extracted from news text can improve economic sequence forecasting. However, a key limitation is the limited availability of financial news that high-related to specific economic indicators. The sheer volume of market news makes it challenging to identify news that directly affects certain economic metrics. Moreover, aligning them temporally with economic data is a non-trivial task. Therefore, our validation is conducted on a relatively small dataset. Moving forward, we plan to extend the scope of our dataset to further validate our findings. A larger dataset will allow a more thorough evaluation of our model and the broader impact of text-enhanced time series forecasting. This direction of research holds the potential to significantly improve the precision of economic predictions by incorporating a richer spectrum of qualitative information. ## References [1] Adam Atkins, Mahesan Niranjan, and Enrico Gerding. Financial news predicts stock market volatility better than close price. The Journal of Finance and Data Science, Vol. 4, No. 2, pp. 120-137, 2018. [2] Daniel Broby. The use of predictive analytics in finance. The Journal of Finance and Data Science, Vol. 8, pp. 145-161, 2022. [3] Yang Liu, Qi Liu, Hongke Zhao, Zhen Pan, and Chuanren Liu. Adaptive quantitative trading: An imitative deep reinforcement learning approach. In Proceedings of the AAAI conference on artificial intelligence, Vol. 34, pp. 2128-2135, 2020 . [4] Boming Huang, Yuxiang Huan, Li Da Xu, Lirong Zheng, and Zhuo Zou. Automated trading systems statistical and machine learning methods and hardware implementation: a survey. Enterprise Information Systems, Vol. 13, No. 1, pp. 132-144, 2019. [5] Sreelekshmy Selvin, R Vinayakumar, EA Gopalakrishnan, Vijay Krishna Menon, and KP Soman. Stock price prediction using lstm, rnn and cnn-sliding window model. In 2017 international conference on advances in computing, communications and informatics (icacci), pp. 1643-1647. IEEE, 2017. [6] Mehar Vijh, Deeksha Chandola, Vinay Anand Tikkiwal, and Arun Kumar. Stock closing price prediction using machine learning techniques. Procedia computer science, Vol. 167, pp. 599-606, 2020. [7] Haoyi Zhou, Shanghang Zhang, Jieqi Peng, Shuai Zhang, Jianxin Li, Hui Xiong, and Wancai Zhang. Informer: Beyond efficient transformer for long sequence time-series forecasting. In Proceedings of the AAAI conference on artificial intelligence, Vol. 35, pp. 11106-11115, 2021. [8] Haixu Wu, Jiehui Xu, Jianmin Wang, and Mingsheng Long. Autoformer: Decomposition transformers with auto-correlation for long-term series forecasting. Advances in Neural Information Processing Systems, Vol. 34, pp. 22419-22430, 2021. [9] Rakesh Kumar Verma and Rohit Bansal. Impact of macroeconomic variables on the performance of stock exchange: a systematic review. International Journal of Emerging Markets, Vol. 16, No. 7, pp. 1291-1329, 2021. [10] Torben G Anderson, Tim Bollerslev, Francis X Diebold, and Clara Vega. Micro effects of macro announcements: Real-time price discovery in foreign exchange. American economic review, Vol. 93, No. 1, pp. 38-62, 2003. [11] Mark Cecchini, Haldun Aytug, Gary J Koehler, and Praveen Pathak. Making words work: Using financial text as a predictor of financial events. Decision support systems, Vol. 50, No. 1, pp. 164-175, 2010. [12] Renáta Myšková and Petr Hájek. Mining risk-related sentiment in corporate annual reports and its effect on financial performance. Technological and Economic Development of Economy, Vol. 26, No. 6, pp. 1422-1443, 2020. [13] Ryo Akita, Akira Yoshihara, Takashi Matsubara, and Kuniaki Uehara. Deep learning for stock prediction using numerical and textual information. In 2016 IEEE/ACIS 15th International Conference on Computer and Information Science (ICIS), pp. 1-6. IEEE, 2016. [14] Bledar Fazlija and Pedro Harder. Using financial news sentiment for stock price direction prediction. Mathematics, Vol. 10, No. 13, p. 2156, 2022 [15] Tian Zhou, Ziqing Ma, Qingsong Wen, Xue Wang, Liang Sun, and Rong Jin. Fedformer: Frequency enhanced decomposed transformer for long-term series forecasting. In International Conference on Machine Learning, pp. 27268-27286. PMLR, 2022. [16] Yuqi Nie, Nam H Nguyen, Phanwadee Sinthong, and Jayant Kalagnanam. A time series is worth 64 words: Long-term forecasting with transformers. In The Eleventh International Conference on Learning Representations, 2022. [17] Yong Liu, Tengge Hu, Haoran Zhang, Haixu Wu, Shiyu Wang, Lintao Ma, and Mingsheng Long. itransformer: Inverted transformers are effective for time series forecasting. arXiv preprint arXiv:2310.06625, 2023. [18] Ailing Zeng, Muxi Chen, Lei Zhang, and Qiang Xu. Are transformers effective for time series forecasting? In Proceedings of the AAAI conference on artificial intelligence, Vol. 37, pp. 11121-11128, 2023. [19] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, Vol. 30, , 2017. [20] Zhuang Liu, Degen Huang, Kaiyu Huang, Zhuang Li, and Jun Zhao. Finbert: A pre-trained financial language representation model for financial text mining. In Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence, IJCAI'20, 2021.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-7.pdf
# Multimodal Large Language Model Meets New Knowledge: A Preliminary Study Junwen Mo Jiaxuan Li Duc Minh Vo Hideki Nakayama The University of Tokyo \{mo, li,vmduc\}@nlab.ci.i.u-tokyo.ac.jp [email protected] } \begin{abstract} Multimodal Large Language Models (MLLMs) have achieved impressive performance on established image understanding benchmarks. However, these benchmarks typically include images of objects that are already known, potentially not fully testing MLLMs' ability to understand unfamiliar objects. To address this, we assess the performance of MLLMs on images featuring synthesized novel objects. We use ChatGPT to create descriptions of novel objects by merging characteristics of existing objects and then employ a text-to-image generation model to generate synthesized objects. Using this dataset, we evaluate MLLMs in identifying and describing the elements of novel objects. Experiment results show that state-ofthe-art MLLMs struggle to comprehensively understand images containing novel objects, often leading to hallucinated descriptions. \end{abstract ## 1 Introduction Large Language Models (LLMs) have demonstrated remarkable performance in natural language generation and understanding $[1,2]$. To advance the capabilities of intelligent systems, several works $[3,4,5,6]$ have extended LLMs to Multimodal Large Language Models (MLLMs) by incorporating visual elements. Although these MLLMs have achieved significant advancements in established benchmarks for image captioning and Visual Question Answering (VQA), their proficiency in recognizing and understanding novel entities in the open world remains unexplored. Moreover, existing benchmarks are not suitable anymore since MLLMs are trained on large amounts of data that include known objects. Consequently, developing more challenging benchmarks featuring novel objects is crucial for a thorough evaluation of MLLMs' capabilities. Figure 1 A fruit that blends the characteristics of strawberries, kiwis, and pineapples. In everyday life, we often come across unfamiliar objects. When describing these new objects, we typically refer to characteristics such as shape and color. To better understand and remember these novel objects, we instinctively draw comparisons to known objects, using our existing knowledge base instead of relying solely on the object's attributes. This necessitates the ability to understand known objects comprehensively. Inspired by the aforementioned ideas, we construct a new image dataset representing fantasy objects that do not exist in reality. These novel objects are concocted by blending attributes of two or three known objects, utilizing image generation models, in order to evaluate whether current MLLM can identify that the presented objects are not real and can associate them to known concepts. Figure 1 provides an example. Our contributions are as follows: - We introduce a challenging new benchmark for MLLMs, comprised of novel objects that do not exist in the real world. - We evaluate state-of-the-art MLLMs using our new benchmark and observe that these models struggle with novel objects, highlighting the importance of further developing MLLMs for open-world understanding. ## 2 Related Work Multimodal Large Language Models Due to the difficulty in obtaining image-text pairs, most MLLMs are developed using existing visual models, such as CLIP [7], and language foundation models, like LLaMA [2] and Vicuna [8], rather than being trained from scratch. BLIP-2 [3] proposes a Querying Transformer (Q-former) to fuse vision and language module, which has been adopted by other works, including MiniGPT-4 [6]. For the development of instruction-following MLLMs, LLaVA [5] develops a multimodal instruction-following data, which is widely used by subsequent research [6, 4]. For our experiments, we test three well-known instruction-tuned MLLMs: LLaVA-1.5, MiniGPT-4, and InstructBLIP. Traditional Benchmark Traditional Image captioning and VQA benchmarks contains large amounts of diverse images, providing robust evaluation for developing MLLMs. Image captioning requires models to recognize the information in an image and describe it accurately. One of the most famous image captioning dataset is MSCOCO [9]. VQA tasks require models to well understand the information in the image and sometimes need reasoning on the visual cues. A lot of VQA datasets are constructed to cover diverse scenarios, including COCOQA [10], VQAv2 [11] and Visual Genome [12]. However, a limitation of these traditional benchmarks is that most images within these datasets contain existing knowledge, such as known objects and common sense, which may has already been included in the training data for MLLMs. Benchmark with Novel Elements The WHOOPS benchmark introduces images that defy common sense, with the objective of evaluating whether the generation by MLLMs exhibits bias towards common sense and assesses their reasoning ability to identify unusual parts. Additionally, the ISEKAI dataset [13], featuring images with fantasy objects, aims to assess the few-shot learning capabilities of MLLMs. To assess the ability of LLMs when meeting new knowledge, KnowGen [14] is proposed. It is a knowledge generation method by altering entity attributes and relationships to create entities not existing in the world. A Question Answering (QA) benchmark named ALCUNA is constructed using KnowGen. Our work is inspired by KnowGen. The main distinction lies in our focus on MLLMs. Compared to the ISEKAI dataset, we aim to synthesize novel entities with a more complex mixture of objects. ## 3 Image Synthesis In this section, we introduce how to design new objects and synthesize the corresponding images. ## 3.1 Prompt construction In our preliminary study, we employed a straightforward procedure to synthesize images. Our approach involved prompting ChatGPT to design novel objects through the combination of existing entities, with a specific focus on animals and fruits. It is instructed to provide detailed descriptions of combining these objects to generate novel ones. This process yielded 100 novel animal descriptions and 50 fruit descriptions. \#\#\#User: Generate visually rich prompts for Text-to-Image models, envisioning novel fruits by amalgamating physical attributes of diverse fruits. Ensure the following: 1. Keep the prompts non-threatening. 2. Avoid duplicating existing examples. 3. Cultivate creativity in the examples you generate. 4. PLEASE eliminate redundancy and background details unrelated to amalgamating appearance features, like taste and impression. The content should include shape, surface, and flesh. 5. Steer clear of repetition within your examples. 6. Aim for maximum diversity in the generated creature designs. 7. Each created fruit combines the characteristics of 2 or 3 kinds of fruits. Example: Melonkiwipear: a pear-shaped fruit that combines the fuzzy skin of a kiwi with the juicy, red, transparent flesh of a watermelon. \#\#\#ChatGPT : ## 3.2 Data construction In the second step, we prompt the text-to-image model to synthesize images, utilizing OpenDalleV1.1 [15]. Due to the potential mismatch between the descriptions generated by ChatGPT and the requirements of the image generation model, we employed Promptist [16] to generate refined prompts. Both the original and refined descriptions were fed into the model, resulting in the generation of 9 images for each description. Finally, to ensure the quality of images for our preliminary experiment, we manually selected 84 satisfactory images based on our judgment of high quality. ## 4 Experiment ## 4.1 Implementation We employed beam search for inference in our evaluations. For each model, the beam width is set to 5, and the length penalty is set to 1 . The implementation is based on the HuggingFace Transformers library. ## 4.2 Compared methods We conducted tests on three well-known MLLMs: LLaVA-1.5-7b [5], InstructBLIP [4], and MiniGPT-4 [6], using our selected images. ## 4.3 Evaluation metrics The evaluation focused on two main aspects: Entity Identification. The first test aimed to assess the models' capability to identify whether the entities within the synthesized images were artificially generated. Recognition of Unreal Features. We evaluated whether the models could recognize the source or origin of the features if we inform the models that the entities within the images were unreal. To achieve these goals, we design 3 questions/instructions: 1) What is the $\{E N T\}$ in this image? 2) Describe this image. 3) The $\{E N T\}$ in the image is a combination of multiple $\{E N T\}$ s. Please respond with only the names of the \{ENT\}s, without additional information. \{ENT\} will be replaced to be either "animal" or "fruit" depending on the image being evaluated. ## 4.4 Results What is the $\{$ ENT $\}$ in this image? The objective of this question was to assess whether the models could identify that the entities in the images did not exist in the world. The responses are checked manually. We found that all models provided accurate but incomplete answers by correctly naming the main entity. For instance, if presented with an image featuring an elephant with eagle wings, the models will answer "elephant" without expressing doubt about the synthetic nature of the entity. It is observed that the responses were limited to naming the primary entity and did not explicitly acknowledge the artificial or unreal characteristics of the image. One plausible explanation for this limitation is the lack of diversity in the current instruction-tuning dataset, leading the models to overlook expressing doubts about the authenticity of the entities, as discussed in a recent work [17]. Among the analyzed images, responses for 52 out of 64 animal images were consistently aligned across the chosen models, whereas responses for 7 out of 20 fruit images were consistent. One of the inconsistent examples is shown in Table 1 ( $\mathrm{col} 2$ ). The result suggests that our synthesized images for fruits are more confusing for the models. Image Captioning We prompt models with "Describe this image" for image captioning, aiming to assess their ability to comprehend synthesized entities and recognize unusual parts within them. Due to the lack of ground truth captions for synthesized images, automatic evaluation of this task is unfeasible. Upon observation, we noted a significant issue of hallucination in this test. Most responses do not mention the unusual parts present in the synthesized entities. Even in cases where a model recognized these distinctive features from different entities, it often generated incorrect captions that include hallucinations, shown in Table 1 (col 3). This & Q: Describe this image. & \\ Table 1 Col 2 shows a case where models have varying opinions on the fruit name. Col 3 demonstrates that the models successfully recognize elements of a parrot and a leopard, while they do not notice that these elements constitute a single entity in the captions. Col 4 showcases a component analysis. The features of the cheetah are obvious, while the features of a kangaroo are less distinct, with its characteristics mainly manifested in its movements and paws. highlights a challenge in the models' ability to accurately capture and describe the unique elements of the synthesized objects. Component The final test aims to assess whether models could correctly identify the components of synthesized entities when explicitly informed that the entities depicted in the images were synthesized. The results for prediction accuracy are presented in Table 2. Notably, InstructBLIP displayed the highest recall and F1 score, while LLaVA$1.5-7 \mathrm{~b}$ achieved the best precision. It is noteworthy that recalls for all models were close to $50 \%$, indicating that one of the components could be correctly recognized in most cases. Table 1 ( $\mathrm{col} 4$ ) shows an example. Table 2 Average precision, recall and $\mathrm{f} 1$ score on the prediction of components ## 5 Conclusion This work is a preliminary study on the ability of three well-known MLLMs on images with synthesized objects. We conducted experiments to assess the ability of MLLMs in understanding novel objects combined with familiar entities. Through the experiments, we found that 1) these MLLMs failed to express doubt about the presented questions. 2) The observed prevalence of hallucination indicates that these MLLMs can identify known elements but often lack a comprehensive understanding of the overall entity. Limitation The dataset size in our experiments is relatively small, leading to a less convincing conclusion. In our future work, we aim to devise methods to expand both the size and diversity, enabling a more comprehensive analysis. Additionally, most evaluation processes are conducted manually, incurring both time costs and subjective judgments. To enhance the evaluation process, we are considering the utilization of well-developed LLMs, such as ChatGPT, which will be explored in our future experiments. ## References [1] OpenAI. ChatGPT [large language model], 2024. https://chat.openai.com. [2] Hugo Touvron, Thibaut Lavril, Gautier Izacard, Xavier Martinet, Marie-Anne Lachaux, Timothée Lacroix, Baptiste Rozière, Naman Goyal, Eric Hambro, Faisal Azhar, Aurélien Rodriguez, Armand Joulin, Edouard Grave, and Guillaume Lample. Llama: Open and efficient foundation language models. CoRR, Vol. abs/2302.13971, , 2023. [3] Junnan Li, Dongxu Li, Silvio Savarese, and Steven C. H. Hoi. BLIP-2: bootstrapping language-image pre-training with frozen image encoders and large language models. In Andreas Krause, Emma Brunskill, Kyunghyun Cho, Barbara Engelhardt, Sivan Sabato, and Jonathan Scarlett, editors, International Conference on Machine Learning, ICML 2023, 23-29 July 2023, Honolulu, Hawaii, USA, Vol. 202 of Proceedings of Machine Learning Research, pp. 19730-19742. PMLR, 2023. [4] Wenliang Dai, Junnan Li, Dongxu Li, Anthony Meng Huat Tiong, Junqi Zhao, Weisheng Wang, Boyang Li, Pascale Fung, and Steven C. H. Hoi. Instructblip: Towards generalpurpose vision-language models with instruction tuning. CoRR, Vol. abs/2305.06500, , 2023. [5] Haotian Liu, Chunyuan Li, Qingyang Wu, and Yong Jae Lee. Visual instruction tuning. CoRR, Vol. abs/2304.08485, , 2023 [6] Deyao Zhu, Jun Chen, Xiaoqian Shen, Xiang Li, and Mohamed Elhoseiny. Minigpt-4: Enhancing visionlanguage understanding with advanced large language models. CoRR, Vol. abs/2304.10592, , 2023. [7] Manling Li, Ruochen Xu, Shuohang Wang, Luowei Zhou, Xudong Lin, Chenguang Zhu, Michael Zeng, Heng Ji, and Shih-Fu Chang. Clip-event: Connecting text and images with event structures. In IEEE/CVF Conference on Computer Vision and Pattern Recognition, CVPR 2022, New Orleans, LA, USA, June 18-24, 2022, pp. 16399-16408. IEEE, 2022. [8] Wei-Lin Chiang, Zhuohan Li, Zi Lin, Ying Sheng, Zhanghao Wu, Hao Zhang, Lianmin Zheng, Siyuan Zhuang, Yonghao Zhuang, Joseph E. Gonzalez, Ion Stoica, and Eric P. Xing. Vicuna: An open-source chatbot impressing gpt-4 with $90 \% *$ chatgpt quality, March 2023. [9] Xinlei Chen, Hao Fang, Tsung-Yi Lin, Ramakrishna Vedantam, Saurabh Gupta, Piotr Dollár, and C Lawrence Zitnick. Microsoft coco captions: Data collection and evaluation server. arXiv preprint arXiv:1504.00325, 2015. [10] Mengye Ren, Ryan Kiros, and Richard S. Zemel. Exploring models and data for image question answering. In Corinna Cortes, Neil D. Lawrence, Daniel D. Lee, Masashi Sugiyama, and Roman Garnett, editors, Advances in Neural Information Processing Systems 28: Annual Conference on Neural Information Processing Systems 2015, December 7-12, 2015, Montreal, Quebec, Canada, pp. 29532961, 2015. [11] Yash Goyal, Tejas Khot, Douglas Summers-Stay, Dhruv Batra, and Devi Parikh. Making the V in VQA matter: Elevating the role of image understanding in visual question answering. In 2017 IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2017, Honolulu, HI, USA, July 21-26, 2017, pp. 6325-6334. IEEE Computer Society, 2017. [12] Ranjay Krishna, Yuke Zhu, Oliver Groth, Justin Johnson, Kenji Hata, Joshua Kravitz, Stephanie Chen, Yannis Kalantidis, Li-Jia Li, David A. Shamma, Michael S. Bernstein, and Li Fei-Fei. Visual genome: Connecting language and vision using crowdsourced dense image annotations. Int. J. Comput. Vis., Vol. 123, No. 1, pp. 32-73, 2017. [13] Yan Tai, Weichen Fan, Zhao Zhang, Feng Zhu, Rui Zhao, and Ziwei Liu. Link-context learning for multimodal llms. CoRR, Vol. abs/2308.07891, , 2023. [14] Xunjian Yin, Baizhou Huang, and Xiaojun Wan. ALCUNA: large language models meet new knowledge. In Houda Bouamor, Juan Pino, and Kalika Bali, editors, Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, EMNLP 2023, Singapore, December 6-10, 2023, pp. 1397-1414. Association for Computational Linguistics, 2023. [15] https://huggingface.co/dataautogpt3/OpenDalleV1.1. [16] Yaru Hao, Zewen Chi, Li Dong, and Furu Wei. Optimizing prompts for text-to-image generation. CoRR, Vol. abs/2212.09611, , 2022. [17] Fuxiao Liu, Kevin Lin, Linjie Li, Jianfeng Wang, Yaser Yacoob, and Lijuan Wang. Mitigating hallucination in large multi-modal models via robust instruction tuning. arXiv preprint arXiv:2306.14565, Vol. 1, , 2023.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-8.pdf
# 音声想起時の脳波における想起区間の推定 鈴木大裕 ${ }^{1}$ 入部百合絵 ${ }^{1}$ 1 愛知県立大学 大学院情報科学研究科 [email protected] [email protected] ## 概要 音声想起時脳波から想起言語を識別する $\mathrm{BCI}$ 研究が始まっている.音声想起識別では想起区間を検出せず,ノイズを含む区間を想起対象データとして扱うため識別精度が低下する傾向にある。そこで想起言語の識別精度向上を目標に, 本稿では音声想起時脳波における想起区間の推定について報告する. 本報告では, 定 $\mathrm{Q}$ 変換によるスペクトログラムをサンプル加算することで想起区間を得て,想起区間を基に 3DCNN で想起区間推定を行った. その結果,加算スペクトログラムで得た反応を想起区間として 3DCNN に入力することで,約 $80 \%$ の精度で想起区間推定に成功した. また,データを加算することで約 $90 \%$ の推定精度を得た。 ## 1 はじめに BCI(Brain Computer Interface)では,神経疾患を持つ方の円滑なコミュニケーションを実現するため,脳波から音声言語情報を抽出する研究が行われている[1]. これらの研究では, 発話時の脳波を対象とするものと, 音声想起 (speech imagery) 時の脳波を用いるものが存在する.音声想起では相手に話しかけるイメージで言語を想起するのみとし, 原則, 発話器官は動かさない. 本研究では, 神経疾患を持つ方々に寄与するため,音声想起時の脳波を対象とする。 発話音声からの音声認識では,発話区間の推定が識別精度に大きく影響する.音声想起でも同様のことが言えるだろう。しかし, 音声想起を用いて想起言語を推定する研究では, 脳波から想起区間を特定することが困難であるため,「無想起区間を多く含む脳波データ」を対象に想起言語を識別せざるを得ない。その結果,無想起区間が干涉することで,想起言語の識別精度が劣化する傾向にある. 本研究では,音声想起区間を特定することで,音声想起における言語推定の精度向上を目指す. 本稿では,音声想起区間の検出手法について提案する. 図 1 左脳側 21 電極の配置 先行研究[2]では, CSP (Common Spatial Pattern) を特徴量とし混合ガウスモデル (Gaussian Mixture Model)に音声想起と無想起の2クラス分類した結果,約 $80 \%$ の精度を得たが,音声想起区間の推定までは行えていない,本報告では,定Q変換[3]を用いた加算スペクトログラムによる想起反応の調査を行い, その想起反応を用いて3DCNN (3 Dimensional Convolutional Neural Network)[4]による想起区間の推定を行う。また,先行研究の手法を用いた区間推定と比較する。 ## 2 音声想起時脳波の収録 インフォームド・コンセントを得た右利き成人男性 5 名(A, B, C, D, E)を対象に,日本語母音/a/の脳波を収録した。脳波計測には g.tec 社の g.HIAMP を使用し,サンプリング周波数 $512 \mathrm{~Hz}$ で計測した。電極は拡張 10-20 法に従い,音声想起活動があるとされる左脳側に 21 電極 $(1 ; \mathrm{AF} 3,2 ; \mathrm{AF} 7,3 ; \mathrm{F} 9,4 ; \mathrm{F} 7$, 5;F5, 6;F3, 7;F1, 8;FC1, 9;FC3, 10;FC5, 11;FT7, 12; FT9, 13; T7, 14; C5, 15; C3, 16; C1, 17; CP1, 18; CP3,19; CP5,20; TP7,21; TP9)を配置し(図 1 ; 赤丸は電極番号),基準電極を左の耳朵,アース電極を $\mathrm{AFz}$ (図 1 ; 青丸)とした. 脳波研究では収録実験をする際,プロトコルを用いる. 本研究では, 図 2 のプロトコルを作成した.同じ単語を連続で想起した場合,想起脳波が脳内で $0.1 \mathrm{sec} 3.0 \mathrm{sec} 3.0 \mathrm{sec} \cdots$ 図 2 視覚刺激による収録プロトコル 時間的に重畳され強い反応となり, 識別率が向上する[5]. そこで本収録実験では,想起反応を容易に取得可能にするため, 母音/a/のみをプロトコル内で 10 回想起した。また,事前に実施した実験では純音による強い聴覚反応が観察されたため, 視覚刺激によるプロトコルとした. 収録実験では, 電磁シールドルーム内の椅子に被験者が座り,視覚刺激となるディスプレイを見せながら収録を実施した。想起の時間間隔は $3.0 \mathrm{sec}$ 設けられているが,被験者には画面の十字マークが消えたら即座に/a/と 1 回だけ想起するように伝えた。また,/a/の文字は思い浮かべないこと,音声を想像すること(相手に話しかけるイメージ),瞬きはノイズとして重畳されてしまうため想起中は瞬きを極力しないこと(可能な限り十字マーク表示の際に瞬きをすること)の 3 点を指示した。 以上の実験を被験者 5 名に対して,プロトコル 1 セット 10 回想起を 20 セット行い, 日本語母音/a/の音声想起を被験者毎に 200 サンプル収集した. ## 3 提案手法 本報告で提案する手法は, 前処理, 特徴量抽出,想起区間推定の順で行う。 ## 3.1 前処理 脳波データには脳内アーチファクトや電源ノイズの影響があるため前処理を行う,前処理では,直流成分と電極間バイアス,電源ノイズの除去,21電極の加算,逆位相キャンセリングを実施する。 ## 3.1. 1 直流成分除去 本研究で使用する g.HIAMP は DC アンプのため, EEG 信号にはオフセットが混在する. 直流成分が含まれると,のちの周波数解析で正しい結果が得られない場合があるため直流成分を除去する. 本研究では除去方法として,時間信号 $x(t)$ に対して前後 $50 \mathrm{~ms}$ の区間を平均化し, $x(t)$ から引き去る.計算式を式 (1)に示す. $x(t)$ は時間信号, $t$ は時間 $(\mathrm{ms}), \bar{x}$ は $t-$ $50 \sim t+50$ までの平均值とする. $ y(t)=x(t)-\bar{x} $ ## 3.1.2 電極間バイアス除去 各電極で計測される電位は,基準電極と各測定電極の差分として得ているため,電極間で異なるバイアスを持つ.そのため,電極間のバイアスを除去する必要がある,全電極の信号を平均したものを基準值とし,各電極から引く処理を入れることで,電極間のバイアスを平準化する。計算式を式(2)に示す. $c h$ は電極番号, $t$ は時間, $x(c h, t)$ は各電極の時間信号, $\overline{x(t)}$ は全電極を平均した時間信号である. $ y(c h, t)=x(\operatorname{ch}, t)-\overline{x(t)} $ ## 3.1.3 電源ノイズ除去 収録したデータには,電源ノイズが含まれる,電源ノイズは,脳波波形の観測を困難にする。そのため,必ず除去する必要がある. 電源ノイズは急峻なノイズである。そこで,特定の狭い周波数帯のみを減衰するノッチフィルタによりノイズ除去を行う. 本研究の収録場所は愛知県であるため, $60 \mathrm{~Hz}$ とその高調波 $120,180,240 \mathrm{~Hz}$ に対し,ノッチフィルタを適用することで電源ノイズを除去する. ## 3. 1.421 電極の加算 21 電極加算は, 音声想起の特徵を捉えるための前処理である. 皮質脳波の研究[6]では音声発話と音声想起,聴取のデータを収集し,振幅特性を分析しているが,音声想起反応のある電極にばらつきが生じていた。一方,本研究ではキャップ式脳波計を用いるため,被験者毎に反応電極が異なる事象が発生する. 以上の事由により, 本研究では 21 電極を加算することとした. 計算式を式(3)に示す. CHは総電極数, $c h$ は電極, $t$ は時間, $x(c h, t)$ は各電極の時間信号である. $ y(t)=\sum_{c h=1}^{C H} x(c h, t) $ ## 3.1.5 逆位相キャンセリング 逆位相キャンセリングは,位相スペクトルを反転させることでノイズを減衰する技術である. ヘッドホンなどに利用されている. 21 電極を加算することで, 全電極に生じる音声想起反応以外の反応(ノイズ)が要因となり,波形にゆがみが観測された。そのため,一定以上の強さをもつスペクトルを位相反転することで, 波形の歪みを減衰させた。これにより,体動のような強いノイズを除去する。 ## 3.2 音声想起の特徵量抽出 特徴量抽出では周波数解析を行う。言語表象は high- $\gamma$ 帯域(60-180Hz)に現れると報告されている[7].言語表象は音声想起反応の一部と考えられるため,本研究では high- $\gamma$ 帯域のような高周波帯域も対象に,低周波帯域から広域に亘り周波数分析を行う。 そのため定 $\mathrm{Q}$ 変換を行い, さらに定常雑音を除去するためのスペクトルサブトラクションを施した. ## 3. 2.1 定 Q 変換 [3] 短時間フーリエ変換では, 全ての周波数帯で同じ窓長を用いることで周波数変換をする.それにより,時間分解能を一定に保ち, 高周波数帯では高い周波数分解能を持つ. しかし, 低周波数帯では十分な周波数分解能を持つことができない。そこで, 低周波帯域と高周波帯域を一定の分解能で分析するため,定 $\mathrm{Q}$ 変換を用いる。 定 $\mathrm{Q}$ 変換とは, 中心周波数ごとに窓長を変えることを実現した変換法である. 中心周波数が高い時は空長を狭くし, 低い時は密長を広くすることにより,全ての周波数帯域で一様な周波数分解能を得られる.計算式を式(4)に示す. なお, $n$ は時間サンプル, $x$ は時間信号, $\omega$ は密関数, $k$ は対数周波数のビン数, $N[k]$ は窓長の変化, 指数関数は中心周波数に対するフィルタを表す。 $ y(k)=\frac{1}{N(k)} \sum_{n=0}^{N(k)-1} \omega(n, k) x(n) e^{\frac{-2 j \pi Q n}{N(k)}} $ ## 3. 2.2 スペクトルサブトラクション 収録した脳波データには呼吸や心臓の鼓動, 脳内で定常的に発生している信号など, 胼波中には常に混在するノイズ(定常雑音) が含まれる.これらのノイズを取り除くために定 $\mathrm{Q}$ 変換で得たスペクトログラムに対して, 同サンプル全体の平均値を引き去る. これにより, 定常的に発生する雑音を除去する. 除去の計算式を式(5)に示す.ここで, $c h$ 電極, $k$ は周波数軸, $t$ は時間, $x$ はスペクトログラム, $\overline{x(c h, k)}$ はスペクトログラムにおける全時間の平均である. $ y(c h, k, t)=x(c h, k, t)-\overline{x(c h, k)} $ ## 3.3 想起区間の推定手法 評価実験では,想起反応が刺激からどのタイミングで発生するか確認し,その区間を想起データとして用いた音声想起区間の推定を行う。 ## 3.3.1 スペクトログラムの加算 脳波信号は微弱なため, 本研究では被験者毎に 200 サンプルを加算し, 音声想起反応を観察した. そして,予備実験で収集した発話音声のパワーの範囲を加算したスペクトログラムと比較することで,音声想起反応が現れる範囲を確定した. ## 3. 3.2 音声想起区間推定 時系列に想起の有無を識別する.音声想起反応は時刻とともに複数の frame 上を変移しながら表出されると考え, 識別器には 3 次元の畳夕込みによる 3DCNN を採用した。 学習データは, 想起と想起以外のスペクトログラムを 2 種類用意する. 想起データは 3.3.1で述べた加算スペクトログラムから得られる想起区間を用いる.また, 想起以外のデータは想起区間の後方を採用する. 想起反応が複数の frame 上を変移するという仮定から, 7 frame 窓, 1 frame シフトとして「周波数軸, 7 frame (密長), 時間軸」の 3 次元のデータを作成し,3DCNN に入力する. 3 DCNN の構成を表 1 に示す.出力は想起か想起以外の2クラスである. このモデルをテストデータに適用し, 時系列で想起か想起以外かの結果を得ることで,想起区間の推定を行う。また, 20 分割交差検証で評価する。 ## 表 1 3DCNN の構成 バッチサイズ : 64 , エポック数 : 30 , 最適化 : Adam 損失関数 : 交差エントロピー ## 4 推定結果と考察 本実験の評価結果について述べる。実験試料は収録した日本語母音/a/として,各被験者 200 サンプルを使用する。 ## 4. 1 加算スペクトログラムの結果 - 考察 被験者Aのスペクトログラムを加算した結果を図 3 に示す. 上図は予備実験で収録した音声発話を時間[sec]-パワーに変換したもの, 下図は音声想起(発話無し)時のスペクトログラムである。横軸は刺激呈示終了時刻を 0 としている. この結果より, 音声想起の反応は, 音声発話に近いタイミングで開始/終了していることが確認できる.また,想起反応は急激に現れるものではなく, 準備段階を経て徐々に生じているように見える. 周波数帯域で比べると, 特に $60 \sim 100 \mathrm{~Hz}$ に強い成分が確認された. 以上の想起反応はすべての被験者に同様の傾向が観察された. よって, この区間を音声想起の正解ラベルとし推定を行う。 ## 4. 2 音声想起区間推定の結果・考察 被験者毎に 20 分割交差検証で想起区間を推定した結果を図 4 亿示す。図 4 は,横軸が時間,縦軸は被験者 5 名の 200 サンプル(計 1000 サンプル)に対する accuracy である. 音声想起区間は赤枠の範囲である. 先行研究[2]の手法(図 4 青線)は音声想起区間の accuracy が 0.2 まで低下しているが,提案手法 (図 4 橙線) は安定して 0.8 の accuracyを得ている. この結果から,本手法は想起区間の推定に有効であると言える. しかし, 提案手法の音声想起区間以外の accuracy に目を向けると,音声想起区間外を想起と推定してしまうことが先行研究をよりも多い.この要因は脳内のノイズによる影響であると考えられる. そのため, 加算した 10 サンプルを本手法に適用寸ることで,これらのノイズの低減を図った. 結果は図 4 の緑線である。想起区間の精度は維持しつつも,想起区間外の精度が向上した.この結果より,本提案手法で最適な加算数を検討した. その結果を図 5 に示す. 図 5 は各加算数における全被験者の accuracyを表しており, 青線が全時間の平均 accuracy,橙線が想起区間の最大 accuracy を示す。また,横軸はサンプル加算数, 縦軸が accuracy である. 加算することで想起区間における精度が向上し, 約 90\%の accuracy を得た.また, 10 回加算することで 1 サン 図 3 加算したスペクトログラム(被験者 A) 図 4 全サンプルの時間単位の識別率 図 5 全時間の平均識別率と想起区間の最大識別率プル時と比べ,全時間の平均識別率と想起区間の最大識別率が向上したことから,約 10 回加算するとノイズ低減が可能であると示された. ## 5 おわりに 本報告では,音声想起区間の検出を目的として,定 $\mathrm{Q}$ 変換によるスペクトログラムを用い,3DCNN で音声想起区間の推定を行った. その結果,データを加算することで約 $90 \%$ の精度で想起推定に成功した. 今後は被験者数とデータ数の拡充とともに,連続想起や刺激無し想起の区間推定を目指す. ## 参考文献 [1] Tsuneo Nitta, Junsei Horikawa, Yurie Iribe, Ryo Taguchi, Kouichi Katsurada, Shuji Shinohara, Goh Kawai, "Linguistic representation of vowels in speech imagery EEG”, Front. Hum. Neurosci., 18 May 2023 Sec. Brain-Computer Interfaces, Volume 17, 2023. [2] 細川晃樹, 山尾元陽, 入部百合絵, 田口亮, 新田恒雄, “共通空間パターンを用いた音声想起時 EEG の識別”,情報処理学会第 83 回全国大会, 2021. [3] Judith C.Brown, "Calculation of a ConstantQ Spectral Transform”, J.Acoust. Soc. Am. 89, 425 - 434. 1991. [4] Shuiwang ji, Wei Xu, Ming Yang, Kai Yu, " $3 \mathrm{~d}$ convolutional neural networks for human action recognition”, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.35, 2013. [5] Anne Porbadnigk, MarekWester, Jan-P. Calliess, Tanja Schultz, "EEG-BASED SPEECH RECOGNITION Impact of Temporal Effects", BIOSIGNALS 2009 - Proceedings of the International Conference on Bio-inspired Systems and Signal Processing, 2009. [6] Stephanie Martin, Peter Brunner, Inaki Iturrate, Jose del R. Millan, Gerwin Schalk, Robert T. Knight, Brian N. Pasley, "Word pair classification during imagined speech using direct brain recordings", Scientific Reports volume 6, Article number: 25803, 2016. [7] Adeen Flinker, Anna Korzeniewska, Avgusta Y. Shestyuk, Piotr J. Franaszczuk, Nina F. Dronkers, Robert T. Knight, and Nathan E. Crone, "Redefining the role of Broca 's area in speech", PNAS vol.112, no.9, pp.2871-2875, 2015.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-9.pdf
# 一人称視点映像を用いた マルチモーダル作業支援システム 梶村恵矢 ${ }^{1}$ 西村太一 ${ }^{2}$ 羽路悠斗 ${ }^{1}$ 山本航輝 ${ }^{1}$ 崔泰毓 ${ }^{1}$ 龟甲博貴 ${ }^{3}$ 森信介 ${ }^{3}$ 1 京都大学大学院 情報学研究科 ${ }^{2}$ LINE ヤフー株式会社 3 京都大学 学術情報メディアセンター ${ }^{1}\{$ kajimura.keiya.48x, haneji.yuto.58c\}@st.kyoto-u.ac.jp ${ }^{1}$ \{yamamoto.koki.76n, cui.taiyu.33c\}@st.kyoto-u.ac.jp ${ }^{2}$ [email protected] ${ }^{3}\{$ kameko, forest $\} @ i . k y o t o-u . a c . j p$ ## 概要 実験や料理など,作業者が手順書に従って作業を行う状況において,不安のある手順や不明瞭な手順を映像として確認できることは作業の再現性向上に有効に働くと考えられる。また,映像中の作業者の視線情報や手元の細かな動作を確認できる点において,実際の作業者が確認する映像として一人称視点動画を用いることはメリットがある.本研究では広く人手で行う作業の再現性向上を目的とし,テキス卜と音声による入力機能を持った一人称視点動画を用いたマルチモーダル作業支援システムを提案する. また,実験では作業負荷や作業完成度にシステムが与える影響を調べ,システムが負荷の軽減や完成度の向上に寄与するかを考察する。 ## 1 はじめに 作業は連続した複数の手順で構成され,それらを自然言語で記述したものを手順書と呼ぶ,人間が行う作業には科学実験や工作,組み立て,料理などが挙げられる.これらの人手作業において,作業の再現性は記述された手順書に従って各手順を正確に実行することによって担保される. しかし,手順書を定めた場合でも再現性が保たれないことがある。 Bakerによると 5 割を超える科学者が自身の行った実験の再現に失敗したことがあり,7 割を超える科学者が他者が設定した実験の再現に失敗したことがあると報告されている [1]. 人手作業において手順書を定めているにもかかわらず,作業の再現に失敗してしまう原因の 1 つとして,誤った動作を行うことや物体を取り違えること などのヒューマンエラーが考えられる。手順書は作業に習熟している者にとっては作業内容を明瞭に示したものとなる。一方で,作業に十分に習熟していない者にとっては,見慣れない動作や物体がその中に出てくると,時に作業内容が不明瞭になってしまい,結果としてヒューマンエラーを引き起こしてしまう可能性がある。 手順内容を文字情報だけでなく,動作や物体の視覚的情報を含む映像で確認することができれば,不慣れな作業に対しても作業者は作業内容に対する理解度を高めることができ,作業中の誤りを減らすことが可能になると考えられる。また,映像として一人称視点の作業映像を扱うメリットとして手元の細かな作業や視線情報などを確認することが可能になることが挙げられる。三人称視点による作業映像は作業の全体の状況を客観的に捉えることが可能である. 対して,一人称視点の作業映像では映像中の作業者が行っている,より具体的(あるいは局所的) な動作について上述したような情報を通じて知ることが可能であり,さらに,それらの情報から映像中の作業者の意図を推測することが可能となる。これらのことから,作業の誤りを減らすことを目的とすれば,各動作,各手順の詳細が分かりやすい一人称視点の映像が三人称視点の映像と比べて有効であると考えられる。 以上を踏まえて,本稿では人手作業の誤りを減らし,再現性を高めることを目的としたマルチモーダル作業支援システムを提案する。また,2 種類の作業を 6 名の参加者にシステム有無で条件を変えた実験によってシステムが作業の実行時間,負荷,完成度にどのような影響を与えるかを検証する。 ## 2 関連研究 ## 2.1 一人称視点映像のデータセット 近年,様々な研究グループによって一人称視点映像のデータセットが公開されている. Grauman らによって公開されている Ego4D はその中でも最大規模のデータセットである [2]. このデータセットには世界 9 力国の参加者の日常活動とそれらに付随するアノテーションが収録されており,一人称視点の視覚的認知課題の究明に大きく寄与している. 西村らによって公開されている BioVL2 は生化学実験に特化した数少ない一人称視点映像データセットである [3]. このデータセットは生化学実験を一人称視点で撮影した動画と実験の手順書が紐付けられている. また,映像から手順書を生成する課題にも取り組んでいる。 ## 2.2 作業支援システム Chang らは How to Video に対してイベント検索を行うコマンドと時間的に映像を操作するコマンドが実装された作業支援システムを提案している。また,実験により,How to Video を参照して実行するタスクをより低いストレスで実行できることを示している [4]. 彼らの研究と我々の研究の差分は達成すべき目的にある. 彼らがよりストレスフリーなシステムを目的とする一方で, 我々の目的はシステムを介して作業の誤りを減らし, その再現性を高めることである. Scholl らはスマートグラス上に手順内容がテキストとして表示され, 音声認識により手順内容を切り替えることができるハンズフリーな実験支援システムを提案している [5]. このシステムを用いた実験の参加者全員がスマートグラス上に表示される情報だけで化学実験を成功させることができたことを報告している.彼らの提案するシステムと本稿で提案するシステムの最も大きな差異は利用者に提示する情報のモダリティである. 本稿で提案するシステムはテキストだけでなく, 実際の作業映像を提示する。 ## 3 提案手法 ## 3.1 システム概要 システムは Web アプリケーションとして実装した. ページ内には作業動画,手順内容,検索ボッ 図 1 利用者が操作するシステムの画面 図 2 システムの処理の流れ クスが含まれている (図 1). システム利用者は検索ボックスにキーワードを入力するか,音声によってそれを伝えることでイベント検索を行う.また,各手順内容に対応するスキップボタンを用いることでも該当イベントの参照が可能である. 本稿の実験で扱う作業を用いて上記の処理の流れを図 2 に例示する.まず,最下段で入力を受け取る。次に,中断で入力されたテキストと各手順のコサイン類似度を計算する. 最後に最も類似度が高い手順内容が動画で再生される。この例では手順 2 が該当するので,手順 2 が始まる箇所から動画が再生される。 人手作業では作業者の両手が塞がっていて手を使ったシステムの操作が難しい場合が多々考えられる。提案システムは一人称視点の作業映像に対して,イベント検索を行うことで手順内容を映像で確認できるものであり, 両手が塞がっている状況においても音声入力によってハンズフリーで操作できるものである. ## 3.2 キーワードによるイベント検索 システムは音声あるいはテキストを入力として受け取る。 入力が音声の場合は Whisper [6] を用いた音声認識によってテキスト化する。こうして受け取った入力テキストと各手順内容のそれぞれに対して各単語ベクトルの平均値を計算し,それらのコサイン類似度を比較することでキーワードによるイベント検索が実現される。コサイン類似度の計算には $\mathrm{spaCy}$ [7] を用いた. 入力されたテキストは GiNZA [8] を用いて形態素解析され,トークン化される. その後, 各トークンには学習済みの単語ベクトルが付与される. このようにして付与された単語ベクトルの平均值を $t$ とし, 検索対象となる $n$ 個の手順内容を同様に処理したものをそれぞれ $\boldsymbol{p}_{1}, \boldsymbol{p}_{2}$, ..., $\boldsymbol{p}_{\boldsymbol{n}}$ とする. 検索結果となる手順 $\hat{\boldsymbol{p}}$ は以下の式で決定される。 $ \hat{\boldsymbol{p}}=\underset{\boldsymbol{p}_{\boldsymbol{i}}}{\operatorname{argmax}} \frac{\left.\langle\boldsymbol{t}, \boldsymbol{p}_{\boldsymbol{i}}\right.\rangle}{\|\boldsymbol{t}\|\left.\|\boldsymbol{p}_{\boldsymbol{i}}\right.\|} $ ここで $\left.\langle t, p_{i}\right.\rangle$ は $t$ と $p_{i}$ の内積であり, $\|t\|$ は $t$ のノルムである. ## 4 実験 提案システムが作業の実行時間,負荷を減少させることができるか,完成度を向上させることができるかを測定するために,被験者実験を行った。実験では研究室内で作成したデータセットを用いた (付録 A).このデータセットに含まれる 5 種類の作業のうち比較的手順数が多く複雑さの高い以下の 2 種の作業を用いた, 作業 1 :金属のイオン化傾向を比較する化学実験 作業 2 :簡易的な電子回路を組む作業 作業 1 は中学生向けの化学実験キットを用いた作業であり,作業 2 は対象年齢 6 歳以上の知育玩具を用いた作業である.参加者はこの 2 種類の作業を実行した. ## 4.1 実験参加者 研究室内の学生を対象として実験協力者を募集し, 20 代男性 6 名が実験に参加した. 協力者を募集する上で,実験で行う作業内容を事前に知らないことを条件とし,その他の条件は設けなかった。参加者を作業 $1 , 2$ に対して次のような各 3 名ずつのグループに無作為に分けて実験を行った。この振り分けにより,参加者は作業 $1 , 2$ のいずれかで必ず提案システムを操作した $\mathrm{A}$ : 作業 1 でシステムあり, 作業 2 でシステムなし $\mathrm{B}$ : 作業 2 でシステムあり, 作業 1 でシステムなし ## 4.2 実験手順 それぞれの作業に対して,まず,参加者に対して作業概要の説明と手順書中に現れる物体名の確認を行った.この時被験者がシステムを用いながら作業を行う場合は,システムの機能と基本的な操作方法についても説明を行った. 次に,参加者に対して作業を実行する“速さよりも正確性を意識して作業を行う”ように教示を与え,参加者は事前に準備された手順書に従って各作業を遂行した。作業はこちらから指示したタイミングで開始し,参加者が全ての作業手順の完了を申告した時点で終了と判断した. ## 4.3 評価項目 評価項目は実行時間,NASA-TLX [9],複数項目に対する 5 段階評価,自由回答によるフィードバックである.実行時間は作業開始時点から作業終了時点までの経過秒数を計測する。 NASA-TLX は作業に対する主観的な作業負荷を計測する指標である. 計測項目には知的・知覚的要求 (MD), 身体的要求 (PD),タイムプレッシャー (TD),作業成績 (OP),努力(EF),フラストレー ション(FR)の6つである.作業者はこれらの6つの項目に対して点数をつけ, ${ }_{6} \mathrm{C}_{2}$ 通りで各項目同士を比較する. 各項目の点数と項目同士の比較によって決定した重みを用いた平均(WWL,付録 B)とを用いて作業負荷を計測する. 各項目の点数は高ければ高いほど作業負荷が大きいことを示す. 5 段階評価によるフィードバックでは作業難易度,作業完成度を評価した.グループ $\mathrm{A}$ につては,これに加えてシステムの利便性, システムの操作性も評価した. 自由記述によるフィードバックによって上述した評価項目で取りきれないフィードバックを取った。 ## 5 結果と考察 表 1 に各参加者の実行時間を示す。この結果から作業 1 はシステムを用いた場合は実行時間が長くなっていることがわかる。作業 2 についてはシステムの有無による実行時間の変化は見られない. 作業 1 についてはシステムを利用する時間が実行時間に 表 1 各作業の実行時間. $\mathrm{A}$ :作業 1 でシステムあり,B:作業 2 でシステムあり 図 3 各条件における NASA-TLX の平均值 影響した結果,実行時間が長くなっていることがわかる. 図 3 に各条件における参加者の NASA-TLX の平均値を示す. 各作業について,システム有・無で結果を比較すると作業 1 ではシステムありの場合に 6 項目中 4 項目の得点がシステムなしの場合と比べ高くなっていることがわかる. WWL はシステムありの場合におよそ 5 点高くなっていることがわかる. 作業 2 ではシステムありの場合に 6 項目中 5 項目の得点がシステムなしの場合と比べ低くなっていることがわかり,WWL はシステムありの場合におよそ 20 点低くなっていることがわかる. この結果から,作業 2 についてシステムによって作業負荷が軽減しているといえる。 各作業に対するアンケート結果を図 $4 , 5$ に示す. これらの結果から作業 1 についてはシステムを用いた場合の方が完成度の評価がまとまっており, 用いていない場合は評価がばらけていることがわかる。 また,難易度についてはシステムを用いる場合の方が高くなっていることがわかる. 作業 2 についてはシステムを用いた場合の方が完成度の評価が高く,難易度が低いことがわかる.システムに対する評価は作業 1 の場合, 操作性・利便性ともに平均でおよそ 3.5 であり, 作業 2 の場合, 操作性・利便性ともに平均で 3 ということがわかる. 以上の結果からシステムを用いる場合,自己評価としての作業完成度が高くなると考えられる。また,作業の種類によっ 図 4 作業 1 に関するアンケート結果 図 5 作業 2 に関するアンケート結果 てシステムの有無で作業難易度が変化することが考えられる。自由回答によるフィードバックで得た回答(付録 C)を一部抜粋して示す。“動画のサイズが若干小さいと感じた”, “テキスト情報と完成イラス卜との対応が直感的にわかりやすかった”(P1) “音声入力は使えるタイミングがよくわからなかった”,“スキップボタンは反応が早く使いやすかった。”(P5)これらのフィードバックから,システムの利用は一長一短であることがわかる. ## 6 おわりに 本稿では人手作業における誤りを減らし,作業の再現性を高めることを目的としたマルチモーダルな作業支援システムを提案し,システムが作業の実行時間,負荷,完成度にどのように影響するかを調べるため,2 種類の作業を行う実験によりシステムを評価した。実験の結果から,作業 1 に関して,実行時間,作業負荷は共に増加し,作業 2 に関して,実行時間に変化はなく, 作業負荷は減少した. どちらの作業もシステムの利用によって作業完成度に対する自己評価は高まったことがわかった。これらの結果から作業種類によってはシステムの利用が誤りを減らすことができる可能性があると考えられる. 今後の課題として,実験のサンプル数を増やすこと,異なる作業に対して同様の実験を行うこと,システムの UI/UX の向上などが挙げられ,これらの解決に務めていきたい。 ## 参考文献 [1] Monya Baker. 1,500 scientists lift the lid on reproducibility. Nature, Vol. 533, No. 7604, 2016. [2] Kristen Grauman, Andrew Westbury, Eugene Byrne, Zachary Chavis, Antonino Furnari, Rohit Girdhar, Jackson Hamburger, Hao Jiang, Miao Liu, Xingyu Liu, et al. Ego4d: Around the world in 3,000 hours of egocentric video. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 1899519012, 2022. [3] 西村太一, 迫田航次郎, 牛久敦, 橋本敦史, 奥田奈津子,小野富三人, 亀甲博貴, 森信介. Biovl2 データセット:生化学分野における一人称視点の実験映像への言語アノテーション. 自然言語処理, Vol. 29 , No. 4, pp. 1106-1137, 2022. [4] Minsuk Chang, Mina Huh, and Juho Kim. Rubyslippers: Supporting content-based voice navigation for how-to videos. In Proceedings of the $2021 \mathrm{CHI}$ Conference on Human Factors in Computing Systems, CHI '21, New York, NY, USA, 2021. Association for Computing Machinery. [5] Philipp M Scholl, Matthias Wille, and Kristof Van Laerhoven. Wearables in the wet lab: a laboratory system for capturing and guiding experiments. In Proceedings of the 2015 ACM International Joint Conference on Pervasive and Ubiquitous Computing, pp. 589-599, 2015. [6] Alec Radford, Jong Wook Kim, Tao Xu, Greg Brockman, Christine McLeavey, and Ilya Sutskever. Robust speech recognition via large-scale weak supervision. In International Conference on Machine Learning, pp. 2849228518. PMLR, 2023 [7] Matthew Honnibal, Ines Montani, Sofie Van Landeghem, and Adriane Boyd. spaCy: Industrial-strength Natural Language Processing in Python. 2020. [8] [9] Sandra G Hart and Lowell E Staveland. Development of nasa-tlx (task load index): Results of empirical and theoretical research. In Advances in psychology, Vol. 52, pp. 139-183. Elsevier, 1988. ## A 実験に用いたデータセット 実験に用いたデータセットは研究室内で作成したものである。このデータセットは以下に示す 5 種類の作業についての各 10 本の映像とそれらと手順内容を紐づけたアノテーションからなる。映像の撮影には Panasonic HX-A500 一人称視点カメラを用いた。作業の選定にあたり,作業の領域,誤りの種類,映像の長さ,物体,動作の多様性を基準とした. 表 2 に各作業の内容,手順数,手順あたりの単語数を示す. 表 2 各作業内容,手順数,手順あたりの単語数 ## B NASA-TLX における WWL の算出方法 まず,NASA-TLXの 6 つの評価項目に対して ${ }_{6} \mathrm{C}_{2}$ 通りの比較を行う.比較の中で各項目が選ばれた回数を重み $w_{i}$ (05)とし, 各項目の素点を $v_{i}$ とすると WWL は以下の式で算出され,1100 の値を取る. $w_{i}$ の総和は比較回数と同じ 15 である. $ W W L=\frac{\sum_{i=1}^{6} w_{i} \times v_{i}}{\sum_{i=1}^{6} w_{i}} $ この値も各項目の素点と同様、WWLが高ければ高いほど作業者にとって作業負荷が高いことを示す. ## C 自由回答によるフィードバック “動画のサイズが若干小さいと感じた”,“テキスト情報と完成イラストとの対応が直感的にわかりやすかった”(P1) (作業 1 に関して)“反応するかどうかがわからなかった”,“「スイッチ S2をモーターと電池ボックスを直列に繋ぐ」について、1) 文法的に理解し難かった、2) 完成図の把握に時間がかかった。”(P2) “反応の有無を確かめるのが微妙に大変だった。”( 3 3) “ワークシートのマイクロプレートを置く位置の上に書かれている「銅、亜鉛、マグネシウム」が、マイクロプレートの後ろに隠れて見えづらかった。”,“並列に繋ぐの意味が分からなかった。または先に S2 とランプを繋げると、正解のようにならないと思います。”(P4) “適切な場所に滴下するのが難しかった。”, “音声入力は使えるタイミングがよくわからなかった。手を使う作業中なのでテキスト入力はしにくい。スキップボタンは反応が早く使いやすかった。”(P5)
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-10.pdf
# 大規模言語モデルを用いたニュース類似度の算出 井本稔也 Japan Digital Design 株式会社 [email protected] ## 概要 意味的テキスト類似度 (Semantic Text Similarity) は,予め定めた基準に沿って 2 文書の類似度をスコア化するものである. 金融分野ではニューステキストへの応用が考えられるが,地理的情報・エンティティ・時間・トピックなど,複数基準を総合判断する必要があるため, 教師データセット作成の人的コストが高くなってしまう. 本稿では,大規模言語モデル(LLM)を用い,少数のアノテーション済みサンプルを利用したニュース類似度の算出を試みた。特に, Few-shot、手がかり・推論の中間生成手法, 自己整合性といったプロンプトエンジニアリング手法の有効性の検証を行い,SOTA の教師あり学習手法に迫る精度を達成した. 更なる精度向上を目指すべく、地理的情報など各基準の類似度から段階的に解くサブタスク推論アプローチを検証し,提案モデルは SOTA と同水準の精度を達成した。 ## 1 はじめに 意味的テキスト類似度 (Semantic Text Similarity) は,予め定めた基準に沿って 2 文書の類似度をスコア化するものである [1][2][3][4]. 金融分野での主要なテキストの 1 つにニュースデータがある. ニュー ス分析はセンチメント分析 [5],クラスタリング分析 [6],金融資産との相関分析 [7],ニュース推薦 [8] など多岐に渡る。ニュース類似度分析は,異なる 2 つのニュース記事について複数基準で類似度を測り,総合評価値を与えるタスクである [9]. クラスタリング分析やニュース推薦など,様々な用途に応用可能である. [9] では,各ニュース記事ぺアについて複数人のアノテーターが,複数個の基準での類似度と総合類似度を付与したデータセットを提供している。ニュース記事は文章長が比較的長い事,地理的情報・エンティティ・時間・トピックなどの類似度を各々評価する事,各評価を組み合わせて総合評価を行う必要がある事など,データセット作成コ ストが高い事が課題である。 本稿では,ここ $1 , 2$ 年で急速に発展・応用が進む大規模言語モデル(LLM)を用い,少数のアノテーション済みサンプルを利用してニュース類似度の算出をし,高精度の分類モデルが構築可能か検証した. 低資源下でのモデル構築を目指すため,学習データが必要な Fine-Tune は行わず,プロンプトエンジニアリングのみを利用した。実験データセット [9] は多言語ニュースから構成され,各ニュースの文脈を高度に理解する必要があるため,GPT-3.5 Turbo および GPT-4 Turbo (Azure OpenAI) を利用した。 精度の高いモデル構築を目指して,まず,入力テキストの工夫,CARPをベースにしたプロンプトエンジニア手法を実施した. 結果,比較対象としたコンペティション 1 位の HFL モデル [10](本稿で SOTA モデルとも呼ぶ) に迫る高精度を達成した。更なる精度向上を目指すべく,地理的情報など各基準の類似度から段階的に解くアプローチ(本稿でサブタスク推論と呼ぶ)を検証し,提案モデルは SOTA モデルと同水準の精度を達成した。 ## 2 予備知識 ## 2.1 データセットとタスク 本稿では,SemEval 2022 Shared task8[11]を実験データセットとして利用する. ${ }^{1)}$ 英語など 10 言語について,2020 年 1 月から 6 月までのニュース記事ペアを収集し,地理的情報 (GEO),エンティティ (ENT),時間(TIME),ナラティブ(NAR),総合評価(OVERALL)の類似度を付与している2)。 - GEO: 地理的な近さ (場所、都市、国など) ・ENT: GEO で勘案した位置情報を除いた固有名詞 (人、会社、組織、商品、何かしらの生物)  表 1 検証データのニュース記事ペアの数,平均文章数と平均トークン数 - TIME: 記事、あるいは、記事の内容の時期的な近さ -NAR: 物語のスキームの近さ ・OVERALL: 実質的に同じニュースストーリーを網羅しているか?(スタイル、トーンを除く) 各類似度は 4 種類のスコア,Vs(非常に似ている), SS(いくらか似ている), SD(いくらか似ていない), VD(非常に似ていない) の何れかを取る。 なお, 複数のアノテーターの平均値を用いるため正解ラベルは小数になり得る. 表 1 に,検証データに含まれる言語ごとのニュース記事ぺアの数,平均文章数,平均トークン数を載せた ${ }^{31}$. コンペティションに倣い OVERALL の予測タスクを実施し,VS,SS,SD,VDを各々 1,2,3,4 の数値に読み替え, 検証データセットでのピアソン相関係数による評価検証を行った。 ## 2.2 比較モデル(HFL) 提案モデルとの比較に,[11] で 1 位を獲得した HFL モデル [10] を採用した. xlm-roberta-large[13] ベースのアーキテクチャーで,データ前処理に 2 つの特徴,データ水増し(Data Augmentation)と Head-Tail 入力がある. データ水増しは,利用せずとも論文精度相当の結果を再現できたため本研究では実施していない4). Head-Tail 入力は, モデルの入力トークン数制限のため全文を入力せず,冒頭 200,  末尾 56 トークンを結合したテキストをモデルに入力する方法である. ## 2.3 CARP CARP[14] は,LLM 自身に手がかり(CLUE)と推論(REASONING)を生成させ,続けて主題の分類タスクを解かせるというプロンプトエンジニア手法である。自己整合性(Self-Consistency)[15] は,同一クエリーに対し LLM に複数個の返答を出力させ, その平均值や最頻値を最終的な返答とする手法である. [14]では, 16 個の手がかり・推論付き例示に加え自己整合性も利用し,既存手法の SOTA に匹敵する精度を達成した。 ## 2.4 サブタスク推論 [16] では,タスクを解く際関連する子タスクを同時に解くことを考えた. シングルタスク推論(STI) とマルチタスク推論(MTI)の2つのアプローチで比較し, MTI の方が高精度であることが示されている.ここで,MTIは,マルチタスク学習同様,全ての子タスクと親タスクを LLM で一度に全て生成する手法を指す.STI は,各子タスクの返答生成を都度行い,親タスクの返答生成時には各子タスクの返答をプロンプトに追加して生成させる手法である.更なる精度向上のため CARP に加え,本稿でサブタスク推論アプローチと呼ぶ,GEO,ENT,NAR の各類似度(子タスク)を先に予測させ,続けて OVERALL (親タスク)を予測する手法を検証した。 ## 3 実験計画 より高精度なニュース類似度算出モデルを模索するための実験を計画する。 ## 実験 A1、入カトークン数の削減手法の比較 GPT-3.5 Turbo, GPT-4 Turbo モデルのトークン数上限 は大きいものの,Few-shot の分ニュース記事ペアを プロンプトに書き込む必要があり,計算コストも高 くなるため,トークン数は極力減らしたい。 そこ でトークン数削減方法として, Head-Tail 入力 (冒頭 200 , 末尾 56 トークン) と要約入力(200 語以内)を 比較する。 実験 A2. 英語とマイナー言語の性能差の検証 [17] では,GPT-3.5, GPT-4 モデルでの低リソース言語(事前学習に占める割合が低い言語)の性能が英語などメジャー言語と比較し低いことが報告されている.そこで,非英語のニュース記事を英語に翻訳 表 2 全言語ペアでの Overall のピアソン相関 して類似度を算出し精度比較する。 実験 A3. 各種プロンプトエンジニアリング手法の有用性検証 Few-shot プロンプト,CARP,自己整合性プロンプト (SC) により, 精度向上するか検証する. その結果, SOTA に匹敵するモデルは構築できたかを考察する. 実験 B. サブタスク推論のコンセプト正当性検証実験 A で構築したモデルを更に発展させるため, GEO/ENT/NAR の各類似度を先に LLM に予測させ,続けて OVERALLを予測させるサブタスク推論アプローチを検証する5). 設定 6 をべースにしたSTIによるサブタスク推論アプローチを採用し,提案モデルが実験 A モデルより精度改善するか検証する。なお実験 B では,計算コスト削減のため en-en, es-en, de-en ゚アのみを対象としている。また, GEO/ENT/NAR のいずれかに 4 より大きい数値が入ってる検証サンプルがあったため除外した ${ }^{6)}$. ## 4 実験結果と考察 表 2 と表 3 に全実験結果を緾めた. 実験設定の詳細は付録 A. 1 に示す。 実験 A1 表 2 の設定 2 と設定 3 を比較し,少なくとも 3-shot プロンプトの場合では,記事要約を使うより冒頭・末尾を用いた方が高精度であることが分かった.これは [10] で議論されているように,重要な情報が記事冒頭・末尾に集中しているためと考えられる. Head-Tail 入力だと重要部分のみをモデルに入力するのに対して,要約だと重要でない部分も含めたニュース記事全体の情報が満遍なくモデルに入力され,精度が低くなると考えられる。 実験 A2 表 2 の設定 2 と設定 $\mathbf{4}$ を比較し,少なくとも 3-shot プロンプトの場合では, 低リソース言語の精度低下は確認できなかった。 そこで本研究ではマルチリンガルのままモデル予測を行う事とした.  図 1 Overall の類似度の分布(Config は実験設定を表す) 実験 A3 表 2 の設定 1 と設定 2 を比較し,Zeroshot から Few-shot(3 例)にすることで, 約 15\%の精度向上を確認した. 設定 2 と設定 5 を比較し, CARP (手がかり・推論の中間生成)で,5.7\%の精度向上を確認した. 設定 6 と設定 7 を比較し, $\mathrm{SC}(10$ 回の推論結果の平均値を用いた自己整合性プロンプト) により,10.3\%の精度向上を確認した. また設定 6 では,訓練データで誤回答の多かったタイプを追加で 3 例プロンプトに追加し, 若干 $(1.2 \%)$ の精度向上を確認した. 更に,各実験設定での予測値分布を示す図 1 を見ると,CARPを導入する事で予測の偏りが大きく改善したことが分かる. ここまでの実験により, 実験 $\mathrm{A}$ 最善モデル (設定 7) は6サンプルのみで $75.25 \%$ を達成し, HFL モデルの $80.69 \%$ に約 $5 \%$ まで迫る結果を得られた。 実験 B 表 3 の設定 9 と設定 10 を比較し,サブタスク推論により全言語ペアで精度向上が見られ,全体では約 4\%の精度向上を確認した. 表 4 には各サブタスクの予測精度の一覧を載せている。設定 10 と設定 11 を比較し,提案手法(STI)を用いる事で, HFL とほぼ同水準の全体精度を達成することを確認した. 実験 B - 考察設定 10 の結果について, GEO/ENT/NAR(サブタスク)と OVERALL のスコアの関係性を考察したい. 表 5 の番号 1 と番号 2 は,サブタスクの正解スコアについて各々平均值・最大值を取ったものと,OVERALL 正解スコアの相関係数を表す。ここから,OVERALL はサブタスクの最大值とより強く相関を持ち,特に de-en は,平均ではなく最大值を使う事で約 14\%精度向上することが分かる. これは,サブタスクにどれか 1 つでも悪いスコアがあると,引っ張られて OVERALL スコ 表 33 言語ペアでの Overall のピアソン相関 相関係数 (\%) 表 $4 \mathrm{GEO} \cdot \mathrm{ENT} \cdot \mathrm{NAR}$ の予測精度 アも悪化する傾向があることを意味する。一方番号 3 と番号 4 は,正解の代わりに設定 10 で算出したサブタスク・OVERALL 予測ラベル間の相関を取ったものである. ここから,モデルはサブタスクの最大よりも平均値に近い予測を行う事がわかる。 つまり,モデルが最大值をより重視する予測ができれば,より高精度なモデルとなり得ることが示唆される。 STI モデルエラー分析表 6 は,STI モデルに関する予測誤差(0.5 刻みで範囲を区切り集計)毎の件数の一覧である。ここでは,絶対値誤差が 2 より大きい en-en の一例に絞りエラー分析を実施する. 付録 A. 2 にモデルに入力した 2 記事の本文を,表 7 に各サブタスクと OVERALL の正解ラベルと予測を纒めた. まず後者から,ENT に一番大きな乘離があることが分かる.そこで本文を比較すると,共通したエンティティはニュースの主題と関係が薄いものが多い事に気づく(「居場所確保命令」は記事 2 の主題ではない,「エイミー・グラフ」は記者の名前,など). ここで,Head-Tail 入力を採用しているため記事の中間部分は割愛されてしまう事に注意したい. 実際記事 2 の原文は,コロナウィルスの検査能力の拡大が主題で,PCR 技術,検査に必要な物質の供給不足,支援者情報などに関して,記事 1 にない多くのエンティティが記載されていた. Head-Tail に書かれた主題と関係が薄いエンティティの共通性をモデルが重視してしまい誤分類(ENT の類似度が過度に高くなった)したものと考えられる. ## 5 おわりに 本稿では,LLMを用い少数のアノテーション済みサンプルを利用したニュース類似度の算出を試みた。表 53 言語ペアでの GEO/ENT/NAR と OVERALL のピアソン相関 表 6 STI モデルの絶対予測誤差(Err)ごとの件数 表 7 誤分類サンプルの詳細 Few-shot、CARP,自己整合性といったプロンプトエンジニアリング手法に加え,GEO/ENT/NAR の各基準の類似度から段階的に解くサブタスク推論アプローチを提案し, SOTA と同水準の精度を達成した。 なお,本稿では MTI を実施しなかった。 入力長が長くなりコストが高くなる事,ENT など固有表現抽出に関しては新しいエンティティの追加もあり更新頻度の低い GPT モデルより専用のモデルを用意した方がよい事などが主な理由であるが,他タスクへの適用も見据え有効性の追加検証を実施したい。今後は他にも,検証サンプル数の増加,Head-Tail 入力トークン数の増加, CARP の例示数の増加,記事日付等を用いた TIME の予測,GPT モデルの学習期間外での精度検証などを行い,更なる精度向上を目指したい. ## 参考文献 [1] Daniel Cer, Mona Diab, Eneko Agirre, Inigo LopezGazpio, and Lucia Specia. Semeval-2017 task 1: Semantic textual similarity multilingual and crosslingual focused evaluation. In Proceedings of the 11th International Workshop on Semantic Evaluation (SemEval-2017). Association for Computational Linguistics, 2017. [2] Akshita Jha, Vineeth Rakesh, Jaideep Chandrashekar, Adithya Samavedhi, and Chandan K. Reddy. Supervised contrastive learning for interpretable long-form document matching. Vol. 17, No. 2, 2023. [3] Sihao Chen, Hongming Zhang, Tong Chen, Ben Zhou, Wenhao Yu, Dian Yu, Baolin Peng, Hongwei Wang, Dan Roth, and Dong Yu. Sub-sentence encoder: Contrastive learning of propositional semantic representations, 2023. [4] Shuhe Wang, Beiming Cao, Shengyu Zhang, Xiaoya Li, Jiwei Li, Fei Wu, Guoyin Wang, and Eduard Hovy. Simgpt: Text similarity via gpt annotated data, 2023. [5] Sorouralsadat Fatemi and Yuheng Hu. A comparative analysis of fine-tuned $11 \mathrm{~ms}$ and few-shot learning of $11 \mathrm{~ms}$ for financial sentiment analysis, 2023. [6] Kailash Karthik Saravanakumar, Miguel Ballesteros, Muthu Kumar Chandrasekaran, and Kathleen McKeown. Event-driven news stream clustering using entity-aware contextual embeddings. In Paola Merlo, Jorg Tiedemann, and Reut Tsarfaty, editors, Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 2330-2340, Online, April 2021. Association for Computational Linguistics. [7] Alejandro Lopez-Lira and Yuehua Tang. Can chatgpt forecast stock price movements? return predictability and large language models, 2023. [8] Xinyi Li, Yongfeng Zhang, and Edward C Malthouse. Exploring fine-tuning chatgpt for news recommendation, 2023. [9] Xi Chen, Ali Zeynali, Chico Camargo, Fabian Flöck, Devin Gaffney, Przemyslaw Grabowicz, Scott Hale, David Jurgens, and Mattia Samory. SemEval-2022 task 8: Multilingual news article similarity. In Guy Emerson, Natalie Schluter, Gabriel Stanovsky, Ritesh Kumar, Alexis Palmer, Nathan Schneider, Siddharth Singh, and Shyam Ratan, editors, Proceedings of the 16th International Workshop on Semantic Evaluation (SemEval-2022), pp. 1094-1106, Seattle, United States, July 2022. Association for Computational Linguistics. [10] Zihang Xu, Ziqing Yang, Yiming Cui, and Zhigang Chen. HFL at SemEval-2022 task 8: A linguistics-inspired regression model with data augmentation for multilingual news similarity. In Guy Emerson, Natalie Schluter, Gabriel Stanovsky, Ritesh Kumar, Alexis Palmer, Nathan Schneider, Siddharth Singh, and Shyam Ratan, editors, Proceedings of the 16th International Workshop on Semantic Evaluation (SemEval-2022), pp. 1114-1120, Seattle, United States, July 2022. Association for Computational Linguistics. [11] Semeval 2022 task 8: Multilingual news article sim- ilarity, 2022. https://competitions.codalab.org/ competitions/33835. [12] Semeval 2022 task 8: Multilingual news article similarity dataset details, 2022. https://zenodo.org/records/ 6507872. [13] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised cross-lingual representation learning at scale, 2020. [14] Xiaofei Sun, Xiaoya Li, Jiwei Li, Fei Wu, Shangwei Guo, Tianwei Zhang, and Guoyin Wang. Text classification via large language models, 2023. [15] Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc V Le, Ed H. Chi, Sharan Narang, Aakanksha Chowdhery, and Denny Zhou. Self-consistency improves chain of thought reasoning in language models. In The Eleventh International Conference on Learning Representations, 2023. [16] Multi-task inference: Can large language models follow multiple instructions at once?, 2023. https:// openreview.net/forum?id=_HP30A8V3DT. [17] Yejin Bang, Samuel Cahyawijaya, Nayeon Lee, Wenliang Dai, Dan Su, Bryan Wilie, Holy Lovenia, Ziwei Ji, Tiezheng Yu, Willy Chung, Quyet V. Do, Yan Xu, and Pascale Fung. A multitask, multilingual, multimodal evaluation of chatgpt on reasoning, hallucination, and interactivity, 2023. ## A Appendix ## A. 1 実験設定の詳細 設定 1 から 4 図 2 のプロンプトを用い,温度は 0 で GPT-3.5 Turbo(gpt-35-turbo-16k-0613) により生成した. [12] から VS/SS/SD(VD の例はなかった)を 1 例ずつ選出し 3-shot に用いた. 設定 3 の 200 語要約は LLaMA-13B-Chat にて,簡易なプロンプトを使って行った. 設定 $\mathbf{4}$ の英語への翻訳は https://github.com/ssut/py-googletransにて行った. 設定 5,6 図 3 のプロンプトを用い,温度は 0 で GPT-3.5 Turbo により生成した. 全体の数\%は予測がうまくいかなかったため,それらは GPT-4 Turbo (gpt-4-1106-preview) で再生成した. 設定 6 で追加した 3-shot は,訓練データ全体を設定 5 で推論しモデルが VS と誤回答するケースが多い事が判明したため,正答が SS,SD,VD のケースを各 1 例選出し, CLUES と REASONING を人手で作成し追加したものである. 設定 7 温度を 0.7 に設定し 10 個の返答と類似度を生成,その平均值を最終的な類似度とした。 設定 9 設定 $\mathbf{7}$ の 3 言語ぺアに絞った結果を載せた。 設定 10 図 4 のプロンプトを用い,設定 7 と同様 10 個の平均值を算出した. GEO,ENT,NAR の各サブタスク予測は, CARP+SC(設定 7) をべースに, Instruction や例を各々カスタマイズしたものを用いた. 図 2 few-shot プロンプト 図 $3 \operatorname{carp}$ プロンプト 図 4 サブタスク推論プロンプト ## A. 2 エラー分析の記事詳細 図 5 日本語に翻訳した 2 記事の本文(一部省略)
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-11.pdf
# テキスト分析による言語処理学会年次大会 29 年分の 研究動向の調査 本間夏樹 飯村翔馬 株式会社 NTT データ数理システム \{homma,iimura\}@msi.co.jp ## 概要 本調査では自然言語処理分野の研究動向の定量的な把握のため、言語処理学会年次大会の 29 年分の論文に対してテキスト分析を行った。先行事例では単語の集計が主だったが、本調査では係り受け表現の抽出やカテゴリ情報の付与を行うことでより実践的な情報の獲得を試みた。機関毎の発表傾向や共起分析による共著関係の可視化、研究分野やテキスト種別毎の論文数等についての分析を行い、定量的に知見を得ることを目指した。 ## 1 はじめに テキスト分析は、テキストデータから洞察を引き出す重要な手段である。新しい知見を得るだけではなく、定量的な結果を持って自分の感覚と比較したり、他者に共有できる情報として切り出す方法として有効である。テキスト分析の対象のデータのドメインの 1 つに「学術文献」がある。テキスト分析を行うことで、研究分野の傾向を定量的に把握したり、重要な文献の絞り込みを効率的に行ったりすることが可能になる。近年、自然言語処理分野の発展は著しく、その流れを捉えるために言語処理学会の論文を分析することは有用である。言語処理学会の論文を分析した事例として [1][2] がある。[1] では、論文誌と年次大会のタイトルと書誌情報の 10 年分が分析対象である。テキスト分析として、タイトルを Chasen で形態素解析した結果を集計している。 また、双対尺度法で所属機関と分野の関係図を作成している。[2]では、年次大会のタイトル・イントロダクション・本文と書誌情報の 19 年分が分析対象である。IBM Content Analytics with Enterprise Search を使用しており、タイトルとイントロダクションから年毎の頻度上位語の抽出を行っている。また、受賞論文に相関の高い表現の抽出、増加傾向、数量の年別傾向等の分析を行っている。言語処理学会の論文を活用した事例として、NLP Corpus Search Engine (NaCSE)[3] が存在し、指定したキーワードを含む論文を検索でき、年度毎の頻度を確認することができる。他の学会の論文を分析した例として [4] がある。日本建築学会の情報・システム・利用・技術シンポジウムの論文集のタイトルを対象として、KH Coder を用いて頻度上位単語の抽出や、期間毎の共起ネットワーク図の可視化を行っている。関連事例として、自然言語処理のトップカンファレンスの論文を集計しているウェブサイト [5] では、所属機関ごとの論文数が確認できる。 本調査では、言語処理学会 29 年分の年次大会のタイトルと書誌情報 (出版年・機関) からテキスト分析を行う。先行事例では書誌情報や単語レベルの分析に留まっていた。本調査では係り受け情報を活用し、より文脈を考慮した実践的な情報を得たり、 ルールベースを用いてカテゴリ情報を付与し研究分野やテキスト種別等の解釈しやすい単位で分析を実施する。また、共起を用いて共同研究の概観を把握することを目指す。 ## 2 データ処理 ## 2.1 データ収集 発表論文の書誌情報は、言語処理学会の各年度の年次大会のウェブサイトにアクセスし、そのプログラムからタイトルと著者の所属機関を抽出した。所属機関は第一著者のものを使用し、複数の機関が記載されている場合は左端の機関に絞った。分析デー タとして、抽出タイトルをテキスト、出版年と機関を属性情報として、Text Mining Studio (TMS) [6] に読み込ませた。ただし、共同研究調査の分析においてのみ各著者の全所属機関の情報を活用している。 なお、論文のタイトルは日本語が大部分であり、 英文タイトルは全体の一割未満である。英文タイトルの論文の情報も分析対象として統一して処理を行うために、OpenAI 社の GPT-4[7] を用いて日本語に翻訳を行った。翻訳結果は目視で確認し、より適切な訳が考えられる場合や後続のテキスト処理の負担を軽減できる場合は適宜修正を行った。和文・英文の両方が含まれている場合 ${ }^{1}$ は和文のみ使用した。 また、論文内で和文タイトルを発見できた場合2) はそれを採用し、プログラムとの差異を発見できた場合3) は論文ファイルのタイトルを優先した。 ## 2.2 属性の前処理 属性情報を加工することで目的に沿った粒度や視点で分析が可能になる。出版年を次のように 5 年毎の期間に分割した。「1 期 (1995-1999 年)」「2 期 (2000-2004 年)」「3 期 (2005-2009 年)」「4 期 (2010-2014 年)」「5 期 (2015-2019 年)」「6 期 (2020-2023 年)」とした。 所属機関について、表記摇れや組織改編を考慮して把握している範囲でまとめ上げた。例えば、NICT は通信総合研究所と通信・放送機構を含むようにまとめ上げた。なお、NTT アドバンストテクノロジ、 NTT データ、NTT ドコモ等はNTT に集約せずに、 それぞれ別の機関として集計した。更に機関を 4 つの種別に分けた。高等専門学校・大学等は「教育機関」、公立の研究所や外郭団体等を「公的機関」、民間企業等を「企業等」、フリーや所属なしを「個人」 とした。 ## 2.3 テキストの前処理 テキストの前処理には TMS に搭載されている機能を利用した。TMS は形態素解析・構文解析結果の情報を付与している。英名の技術用語等については適宜辞書を作成した。 更に、分析のトピックに応じて、単語群をまとめ上げるカテゴリルールを作成した。例えば、『文脈解析』カテゴリは、「述語項構造」「共参照」「照応」「談話構造」等の文字列を含むタイトルはそのカテ 1) The Relationship between Sound and Meaning in Japanese BackChannel Grunts (あいづちの音響的部品とそれぞれの意味) (1998), An Experimental Classification of English Noun Phrases Used in Metaphorical Expressions (日本語表題: メタファに着目した英語の名詞分類の試み) (2002)の 2 件 2) Detecting Alternation Instances in a Valency Dictionary, 構文意味辞書における類似構文の融合方法 (2002) の 1 件 3)プログラム: 対話データベースの自動プロファイリング:効率的話題タグ付与をめざして, 論文: 日本語教科書の会話に見られる言いよどみ (1998)の 1 件 ゴリであるというルールを持つ。このような研究トピック等に関連するカテゴリルールを適用することでテキストデータの分類を実施し、その集計等から研究動向を把握するのに適した粒度の情報を獲得できる。ただし、ルール作成の際に見落としがある可能性があるため、TMS に実装されている大規模テキストデータで事前学習したモデルを利用して類義語の抽出を行い、取りこぼしの低減を試みた。 ## 3 データ分析と観察 ## 3.1 属性の集計 年毎の発表件数の推移を表したのが図 1 である。前年と比べて減少している年もあるが、全体的な傾向として増加していることが分かる。特に 2023 年の発表件数の伸びは突出している。内訳は第一著者の所属機関の種別となっており、教育機関が過半数を占める。初期は企業の割合が多かったことが確認できる。個人は 0 人の年もあり、多い年も 10 名に満たず少ない。 図 1 言語処理学会年次大会の発表件数の推移 (内訳は第一著者の所属機関の種別) 第一著者の所属機関の論文数を集計して、全期間の合計上位 10 機関を抽出した結果が図 2 である。教育機関の割合が高く、最大数の東大に、NAIST、京大が続く。公的機関では NICT、企業ではNTT の件数が多いことが分かる。名大、筑波大は 3 期以降に件数が伸びている。 共同研究の動向を把握するために、共著者の所属機関を共起ネットワークで可視化した。分析対象とする論文は著者が二人以上で、異なる機関に所属しているものに絞った。全ての共著関係を抽出すると煩雑な図になるため、合計 8 本以上の共著論文があ 1期 2期 $\square$ 3期 4 期 5 期 6 期 図 2 第一著者の発表数上位 10 機関 る機関で、信頼度 ${ }^{4)}$ が 60 以上の関係のみに絞って抽出した結果が図 3 である。ノードの大きさが論文数を、矢印が信頼度 60 以上の共著関係を表す。東大や理研等様々な機関と共同研究しているノードには、複数の矢印が入り込む形となっている。宇都宮共和大のように複数の矢印が出ているノードは、一つの論文で複数の機関と共著関係になっていることが考えられる。 図 3 共起ネットワークによる共著関係の可視化 ## 3.2 単語・係り受け表現の集計 タイトルを形態素解析・構文解析したものを集計した。品詞が「名詞・形容詞・形容動詞・動詞」の単語を期間毎に頻度上位 10 件抽出した結果が表 1 である。「用いる」「基づく」等論文で使用される基本的な語彙を確認できる。なお、1つのタイトル内で同じ単語が複数回使用されている場合、その単語の頻度は 1 回として集計されている。 単一の単語では文脈から切り離されて、その意味 4) $\{A$ から $B$ の信頼度 $\}=\{A$ と $B$ の共著論文数 $\} /\{A$ の共著論文数 $\} \times 100$表 110 年毎の頻度上位 10 件の単語 表 210 年毎の頻度上位 10 件の係り受け表現 の解釈が難しいことがある。それに対処するために、単語間の修飾関係を抽出した係り受け表現を利用して、テキストの内容をより深く把握することを試みる。係り元単語が「名詞」、係り先単語が「形容詞・形容動詞・動詞・サ変名詞」の係り受け表現を抽出した結果が表 2 である。 10 年毎に頻度上位 10 件の係り受け表現が抽出されている。単語単体と比べて頻度は小さくなっている。手法に着目して係り受け表現を確認すると、1-2 期では N-gram や SVM、 3-4 期では SVM、5-6 期では BERT や分散表現が使用されていることが読み取れる。 ## 3.3 カテゴリ情報の集計 特定の視点からテキストを分析するには、カテゴリルールを作成して集計するのが有効な手段の一つである。研究動向を把握するために、研究分野の力テゴリを作成し、全期間で集計した上位 10 カテゴリの結果が図 4 である。『生成』や『対話』は、大規模言語モデルや生成モデルへの実用化が進む産業界への応用が拡大されている段階で、研究活動が活発になっている可能性がある。『生成』の次に多い 『形態素・構文解析・固有表現』の論文数は期間 1-6 で他分野と比べて増減が少ない傾向から、安定した研究関心が得られていると考えられる。『埋め込み』 は 5 期に急激に増加し 6 期で減少しているが、普及度が高まるにつれてタイトルに明示的に記載される頻度が減少している可能性が示唆される。 ■第1期 $\square$ 第2期 $\square$ 第3期 $\square$ 第4期 $\square$ 第5期 $\square$ 第6期 図4 分野カテゴリの集計 研究分野のカテゴリを上位 10 機関でクロス集計した結果が図 5 である。グラフの格子上の丸の大きさは論文数を示す。横方向に確認すると該当分野でどの機関が多く発表しているか把握できる。例えば、『機械翻訳』では NAIST と NICT が多いことが見受けられる。縦方向は該当機関でどの分野で研究が活発か確認できる。東工大は『生成』に関わる論文が多い。東大は特定の分野に偏らずに幅広く研究していることが読み取れる。 図 5 分野カテゴリと 10 機関の集計 対象のテキストの傾向把握のためにテキスト種別のカテゴリを集計した結果が図 6 である。日本の学会であるため『日本語』カテゴリが多い。なお、このカテゴリは単語「日本語」に加えて「日本語文」「日本語フレームネット」等を含むため表 1 の日本語の合計よりも多い。『外国語』は、頻度が多い順に英語・中国語・ウイグル語・韓国語・モンゴル語・ スペイン語・インドネシア語と続き、 30 言語以上あり多様性を確認できた。 言語処理学会ではテキスト以外のデータを対象とする場合もあるため、その傾向を確認した結果を図 7 に示す。6 期では 3 つのカテゴリで論文数が増加しており、近年マルチモーダルなモデルやタスクに注目が集まっている影響に起因すると考えられる。 図 6 テキスト種別論文数 『画像系』の伸びが顕著なのは Text-to-Image モデルの普及が影響している可能性がある。 $\begin{array}{llllllll}0 & 50 & 100 & 150 & 200 & 250 & 300 & 350\end{array}$ 音声・音楽系 画像系 動画系 ■1期 $\square 2$ 期 $\square 3$ 期 $\square 4$ 期 $\square 5$ 期 $\square 6$ 期 図 7 データ種別論文数 ## 4 おわりに 本稿では、第 1 回から第 29 回までの言語処理学会年次大会のタイトルと書誌情報から研究動向を把握することを試みた。テキストは形態素解析・構文解析を行い、単語と係り受け表現の集計を行い、期間毎の傾向を確認した。またカテゴリルールを作成し、研究分野やテキスト種別といった特定の観点からデータを分析した。属性情報を加工し、共著関係の可視化を行い、機関間の関係を調べた。本調査の分析を深める方法として、異なる粒度で集計する、単語や係り受けの特徴度合い [8] を算出して比較する、特定の単語を含む係り受け表現を抽出する等が考えられる。 今後の展望として、作成した辞書やカテゴリルー ル等を改良し、テキスト分析対象を論文誌にも広げた文献データベースの構築を検討している。テキス卜分析と大規模言語モデルを併用して効率的に調査およびデータの構造化を進め、構造化したデータベースを参照する対話システムの構築等を行うことで、これまでに到達できなかった知見を誰もが活用でき、本大会スローガン「30 年のプロンプトから未来を創造する」方向性を目指したいと考えている。 ## 参考文献 [1] 村田真樹, 一井康二, 馬青, 白土保, 井佐原均. 過去 10 年間の言語処理学会論文誌・年次大会発表における研究動向調査. 言語処理学会第 11 回年次大会発表論文集, 2005 . [2] 那須川哲哉, 西山莉紗, 吉田一星. 学術文献のテキストマイニング言語処理学会年次大会 19 年分の予稿データの知的資産としての活用可能性の検討. 言語処理学会第 20 回年次大会発表論文集, pp. 800-803, 2014. [3] 田淵龍二. 論文閲覧を支援する試み一文脈検索可能な NLP 予稿集コーパス構築. 言語処理学会第 24 回年次大会発表論文集, pp. 686-689, 2018. [4] 福田知弘. テキストマイニングを用いた建築情報分野の論文タイトル分析. 日本建築学会・情報システム技術委員会第 41 回情報・システム・利用・技術シンポジウム 2018, pp. 150-153. [5] 村脇有吾. 日本所属の言語処理トップカンファレンス論文 (2022 年). https://murawaki.org/misc/ japan-nlp-2022.html. [6] NTT データ数理システム. Text Mining Studio, 2024. https://www.msi.co.jp/solution/tmstudio/ index.html. [7] Open AI. GPT-4 technical report, 2023. https://cdn. openai.com/papers/gpt-4.pdf. [8] 内山将夫, 中條清美, 山本英子, 井佐原均. 英語教育のための分野特徴単語の選定尺度の比較. 自然言語処理, 2004. ## A 付録 参考情報としてカテゴリルールを記載する。『二重かぎ括弧』で示されるカテゴリと、「かぎ括弧」内の分類ルールから構成される。テキストは一つ以上の分類ルールが該当したカテゴリに分類される。ルールの*記号は任意の文字列、\&記号はその前後にある文字列の両方が含まれることを示す。なお、紙面の都合上一部のカテゴリルールは割愛している。 ## A. 1 研究分野のカテゴリルール 『生成』「*生成*」「Generat $*\lrcorner 「 \mathrm{~g} e n e r$ at $*\lrcorner$ 『テキスト分析』「*テキストマイニング*」「*テキス卜分析*」「*テキストアナリティクス*」「* T e x t Mining $*\lrcorner\lceil * T$ ext Analytics *」「Text\&Mining」「Text\&Analyt i c s $\lrcorner$ 『形態素・構文解析・固有表現」「*単語分割*」「*分かち書き* *」「*わかち書き*」「*形態素解析*」「* サブワード分割*」「Token i *」「*Morpho log i c a l $*\lrcorner\lceil * \operatorname{morpholog}$ i c a $l *\lrcorner$「Word\&Divid $*\lrcorner 「$ Wo rd\&d i vid $*\lrcorner$「品詞推定」「*構文解析 $* 」 「 *$ 係り受け*」「*係受*」 y」「*句構造*」「*統語*」「s y n t a c t i c \& a nalysis $\downharpoonleft$ Syntact i c\&Analys i $\mathrm{S}\lrcorner \Gamma \mathrm{S} y \mathrm{ntax}\lrcorner \Gamma *$ 固有表現 $*\lrcorner$ 『音声認識』「*音声認識 $* \downharpoonleft 「 * \mathrm{~S}$ p e e c h - t o $\mathrm{Text} *\lrcorner\lceil\mathrm{STT}\lrcorner \Gamma \mathrm{A} S \mathrm{R}\lrcorner$ 『埋め込み』「*埋め込*」「*分散表現*」「*埋込*」 $\lceil * \mathrm{Emb}$ edd i n g *」「*埋め込み $* 」 「 * W o r d$ $2 \mathrm{Vec} *\lrcorner\lceil *$ word $2 \mathrm{vec} *\lrcorner$ 『可視化』「*可視化 $*\lrcorner \Gamma * \mathrm{~V}$ i s u a 1 i z $*\lrcorner \Gamma *$ visualiz $*\lrcorner$ 『音声合成』「* $\mathrm{Text}-\mathrm{to}-\mathrm{S}$ p e e c h $*\lrcorner\ulcorner\mathrm{T}$ $\mathrm{T} \mathrm{S}\lrcorner \Gamma *$ 音声合成*」 『質問応答・機械読解』「*質問応答*」「Que s t i o n\&Answering」「*質疑応答 $*\lrcorner 「 * \mathrm{VQA}$ *」「*機械読解*」 『機械翻訳』「*機械翻訳 $* 」 「 * \mathrm{Mach}$ i n e T r ans lat ion*」「Mach ine\&T rans l at i on」 『誤り認識・訂正』「*誤り認識*」「*誤り訂正*」「* 『文脈解析』「*共参照 $* 」 「 *$ 照応 $* 」 「 *$ a p h o r a $*\lrcorner\lceil *$ Coreference $*\lrcorner\lceil *$ coref e r enc e $* 」 「 *$ 直示*」「*ダイクシス*」「* d e i $\mathrm{xis} *\lrcorner \Gamma * \mathrm{Deixis} *\lrcorner \Gamma *$ 代名詞 $*\lrcorner \Gamma *$ 指示語 *」「*省略,」「*橋渡し*」「b r i d g i n e \& r e f e r enc e」「*格解析 $*\rfloor 「 *$ 办格 $* 」 「 *$ 米述語項構造 $* 」 「 *$ 談話構造 $* 」 「 *$ 論述構造 $* 」 「 *$ 請求項構造 $*\lrcorner$ 『対話』「*対話 $* 」 「 * D i ~ a ~ l o g u e * 」$ 『検索』「*検索*」『情報抽出・知識獲得』「* 獲得 $* 」 「 *$ 情報抽出 $*\rfloor$ 『言語判定』「*言語判定* 『文書分類』「*文書分類*」「*文章分類*」「*テキスト分類 $* 」 「 *$ Document Classific at ion $*\lrcorner$ 『要約』「*要約 $*\lrcorner 「 * S$ ummar i z a t i o n $* 」$ ## A. 2 テキスト種別のカテゴリルール 『外国語』「* Chines e $*\lrcorner 「 * \mathrm{English}$ *」「*アラビア語*」「*アルタイ諸語*」「*アジア言語*」「*イタリア語*」「*インドネシア語*」「*ウイグル語*」「*ウズベク語*」「*ギリシア語*」「*ギリシャ語*」「*クメール語*」「*シンハラ語*」「*スペイン語*」「*ソマリ語*」「*タイ語*」「*タタール語*」「*チェコ語*」「*テトゥン語*」「*ドイツ語 *」「*ハンガリー語*」「*ハングル*」「*ビルマ語 語*」「*ペルシャ語*」「*ポーランド語*」「*ポルトガル語*」「*マラーティー語*」「*ミヤンマー語*」「*モンゴル語*」「*ルーマニア語*」「*ロシア語*」「*ロマンス語 $* 」 「 *$ *マンス諸語 $*\rfloor 「 *$ 英語 $*\rfloor 「 *$外国語 $* 」 「 *$ 韓国語 $* 」 「 *$ 中国語 $* 」 「 *$ 朝鮮語*」 『ツイート』「* Twit t e r *」「*ツイート*」「*つぶやき*」 『レビュー』「*レビュー*」 『物語・小説』「* F i c t i on $*\lrcorner 「 * \mathrm{Novel}$ *」「*S t o r y*」「*ストーリー*」「*フィクション*」「*小説 $* 」 「 *$ 物語*」 『金融』「* Financ e $* 」 「 *$ i 為替 $* 」 「 *$ 金融 $* 」 「 *$ 銀行 $* 」 「 *$ 証券 $* 」 「 *$ 保険 $* 」$ 『対話』「*対話 $*\lrcorner$ 『論文』「*論文*」 『SNS』「* S N S *」「*ソーシャルネット*」「*ソー シャルメディア*」 『レシピ・食べ物』「*レシピ*」「*食べ物*」「*飲み物*」「*飲食*」「*食感*」 『日本語』「* 日本語*」「* J a p a n e s e $*\rfloor$ 『法律』「*法律*」「*刑事*」「*民事 $* 」 「 *$ 司法 $* 」$ $\lceil *$ 訴訟 $* 」\lceil *$ 判決 $* 」 「 *$ 勝訴 $* 」 「 *$ 敗訴 $* 」 「 *$ 裁判 *」「*条例*」「*調書*」「*原告*」「*被告*」「*被疑者*」 『試験』「*試験*」「*入試 $* 」$ 『ブログ』「*ブログ*」「* b log*」 『行政』「*行政*」「*官公庁 $* 」 「 *$ 役所 $* 」 「 *$ 公文書*」「*公務員*」「*官僚*」「* e - Gov * 」 『医療』「*医*」「*療*」「*カルテ*」「*看護*」 $\lceil *$ 診察 $* 」 「 *$ 診断*」「*病*」「*症*」「*リ八ビリ $*\lrcorner\lceil *$ 患者 $*\lrcorner 「 *$ Med i c a $1 *\lrcorner\lceil * \mathrm{MRI} *\lrcorner \Gamma *$健診 $*\lrcorner \Gamma *$ Medi c i ne $*\lrcorner \Gamma *$ Hosp i t a l $*\lrcorner\ulcorner * \mathrm{~K}$ art e $*\lrcorner\ulcorner * \mathrm{P}$ at i en $\mathrm{t} *\lrcorner\ulcorner * \mathrm{p} a \mathrm{t}$ i en t $*\lrcorner\lceil * \mathrm{Reh}$ abil i t at i on $*\lrcorner \Gamma *$健康 $* 」 「 *$ 助産師 $* 」 「 *$ 管理栄養士 $* 」 「 *$ 聴覚障害者 *」「*癒し効果*」「* 疾患 $* 」$ 『知財』「*知的財産*」「*知財 $* 」 「 *$ 特許 $* 」 「 *$ 商標 $* 」 「 *$ 著作権*」
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-12.pdf
# Translation Suggestion based on Pseudo Data generated from Word Alignment Fuzhu Zhu ${ }^{1}$ Xiaotian Wang ${ }^{1}$ Takehito Utsuro $^{1}$ Masaaki Nagata $^{2}$ ${ }^{1}$ Deg. Prog. Sys.\&Inf. Eng., Grad. Sch. Sci.\&Tech., University of Tsukuba ${ }^{2}$ NTT Communication Science Laboratories, NTT Corporation, Japan [email protected] } \begin{abstract} In this paper, we propose a method for generating pseudo data for WMT22 Translation Suggestion task using word alignments. Furthermore, we also adopt the method of Data Augmentation to improve the final performance of the models. Meanwhile, we propose to apply the pre-trained mT5 model to WMT22 Translation Suggestion task. For the results, our proposed approach exceeds the baseline on the Translation Suggestion direction of En-Zh pairs. In addition, the performance of the mT5 model illustrates the possibility of applying pre-trained seq 2 seq model to WMT22 Translation Suggestion task. \end{abstract ## 1 Introduction With the development of the machine translation field, an increasing number of specialized tasks and demands are being continually proposed. Post-editing is known as editing machine translation to improve its quality. However, manual post-editing is costly, leading to the proposal of methods which aim to assist post-editing. Translation Suggestion (TS) is one of these methods, which has proven its ability in improving the efficiency of post-editing [1] [2]. To spur the research in TS task, Yang et al. [3] have created a golden corpus dataset, WeTS, for TS task. Besides this, due to the scarcity of WeTS, Yang et al. [3] also propose several methods for generating pseudo data ${ }^{1)}$. As for the model, Yang et al. [3] propose the segment-aware self- 1) They use fast-align [4] as one of the methods to generate pseudo data. In their experiments, they have confirmed that fast-align outperforms TERCOM [5]. Meanwhile, Arase et al. [6] have confirmed that OTAlign outperforms fast-align. In this paper, we assume that higher quality word alignment would contribute to generate higher quality pseudo data. Although we do not provide the details, the experimental results show that models pre-trained by pseudo data generated by OTAlign outperform models pre-trained by pseudo data generated by TERCOM. attention based Transformer for TS task. Through their work, we obtain a benchmark for TS task, including generating the pseudo data, model training and evaluation. In this study, we propose methods for generating pseudo data for TS task by using word alignments which are generated by OTAlign [6]. Meanwhile, we also use the method of data augmentation for TS task. As for the model, we adopt the mT5-base model [7] which is a large-scale pre-trained model. By applying these methods, the final results exceed the baseline, demonstrating the feasibility of our proposed approaches. ## 2 Related Works Since Yang et al. [3] provided a benchmark for TS. There have already been some achievements related to this task. Mao et al. [8] used the $\Delta \mathrm{LM}$ as their backbone model. $\Delta \mathrm{LM}$ is a pre-trained multilingual encode-decoder model, which outperforms various strong baselines on both natural language generation and translation tasks. For the training data, they construct the pseudo data with two different methods according to its constructing complexity. In their experiments, they find that accuracy indicator of TS can be helpful for efficient PE in practice. On the other hand, the main efforts of Zhang et al. [9] are paid on building the pseudo data. In addition to randomly mask the sub-segment in target reference, they use a quality estimation model to estimate the translation quality of words in translation output sentence and select the span with low confidence for masking. Then, an alignment tool to find the sub-segment corresponding to the span in the reference sentence and use it as the alternative suggestion for the span. From these works, we find that there are two main ways to improve the final performance of Translation Suggestion. The first method is to construct a more efficient model or apply some pre-trained models which is suitable for the Translation Suggestion task. Another method is to find well organized ways to generate the pseudo data as the amount of the golden corpus is limited ## 3 Training Models for Translation Suggestion Task The TS task can be described as a sequence input of the source language sentence $s$ concatenates the masked translation $m^{-w}$,and a sequence output of the target translation suggestion $t$. The input to the model is formatted as: $ \left[s ;<\text { sep }>; m^{-w}\right] $ where [;] means concatenation, and $<$ sep $>$ is a special token used as a delimiter. Following the benchmark [3] method, we apply the pseudo data to pre-train the model. After pre-training, we fine-tune the model by utilizing the golden corpus of WeTS. For more information about TS, please refer to the appendix A. ## 4 Generating Pseudo Data for Translation Suggestion Task Since the high costs and labor-consuming of creating the golden corpus, as well as the difficulty of training a model for Translation Suggestion task with scare amounts of golden corpus data, it becomes imperative to generate the pseudo corpus automatically. In order to achieve this goal, we firstly collect the parallel English-Chinese data from the United Nations Parallel Corpus v1.0 dataset. ${ }^{2)}$ For English-Chinese corpora, we remove sentences that are shorter than 50 words or longer than 200 words. After this operation, we finally get a size of around $10 \mathrm{M}$ corpora.Then we get the machine translation by feeding the English sentences of the cleaned corpus into a corresponding fully-trained NMT model. Finally, we can generate pseudo corpus data by utilizing the cleaned EnglishChinese corpus and the Chinese machine translation. ## 4.1 Generating Pseudo Data by Random Mask Since this method is described in [3], in this paper, we do not provide a comprehensive explanation. For more information, please refer to the appendix B. ## 4.2 Generating Pseudo Data by Word Alignments Since the mismatch of distribution between the target sentence and the machine translation sentence is the po- 2) The details of United Nations Parallel Corpus v1.0 dataset can be found at https://conferences.unite.un.org/uncorpus. Table 1 The number of generated pseudo data with three proposed approaches & & \\ 0TAlign & $4,040,000$ & $3,022,368$ & $5,378,537$ \\ tential problem of random mask method, we propose the approach of utilizing the monolingual word alignment to generate pseudo data for TS task. Then we can generate the pseudo data for TS task based on the alignment information.3) ## Prompting Alignment by OTAlign Optimal Transport (OT) is a theory which aims to find the most effective method for transferring mass from one measure to another.The OT problem generates the OT mapping, which reveals the correspondences between two samples. While OT is commonly used as a distance metric between two measures, the main focus in alignment problems often lies on the OT mapping. For the reason mentioned above, Arase et al. [6] proposed a method for applying the Optimal Transport theory to generate the word alignments. Their experiments' results indicate that OT-base alignment methods are competitive against the state-of-the-arts designed for word alignment [10] [11]. As shown in Figure 1(b), based on the word alignment generated by OTAlign ${ }^{4)}$, we could create pseudo data for the Translation Suggestion task by following rules: - Keep : If there is an alignment between two tokens (one is from the target reference sentence, another is from the machine translation sentence), and they are completely identical, then this token is remained in the masked translation. - Replacement : If there is an alignment between two tokens (one is from the target reference sentence, another is from the machine translation sentence), but they are not the same, then a placeholder is added to the masked translation, and the corresponding target reference token in the word alignment is added to the correct alternative. 3) We test two different ways for generating word alignments, including TERCOM (Snover et al., 2006) and OTAlign (Arase et al., 2023), and the experimental results show that OTAlign performs better. 4) Please refer to the appendix $C$ for details of generating word alignments by OTAlign. (a) Generating pseudo data by randomly masking the tokens in the target reference text, meanwhile the placeholder in the mask translation is represented by <MASK_REP> (b) Generating pseudo data by using the word alignment between the target reference text and MT, meanwhile the placeholder in the mask translation is represented by <MASK_REP> Figure 1 Two methods of generating pseudo data for Translation Suggestion task Figure 2 The examples of the pseudo data and parallel sentence data constructed from the same source language sentence and target reference sentence pair - Insertion : If there is an alignment, and the index of the token from the target reference is 2 or more greater than the index of the previous word alignment,, then we consider that tokens between these two indices need to be inserted. Then placeholders are added in the masked translation, and the corresponding tokens are added to the correct alternative. - Quality judgement : After the four operations mentioned above, we need to assess the quality of the obtained $\left(m^{-w}, y\right)$ pairs. In order to do this, we can evaluate the number of placeholders in the mask trans- lation. If the number of placeholders exceeds a certain threshold, then the quality of that masked translation is considered poor and should be filtered out. - Placeholders concatenation: In Equation 1, we can observe that the model input contains only 1 placeholder, but after the operations described above, the current sentence may have multiple placeholders. Therefore, we need to concatenate adjacent placeholders to ensure that the number of placeholders remains consistent with the number of one defined in the TS model input. This may result in generating multiple pseudo data from a single triple of $(r, h, a l)$ (Figure 1(b)) . Based on the rules mentioned above, we ultimately generate the pseudo data by using OTAlign. The numbers of pseudo data after the operation of quality judgement and placeholders concatenation are shown in Table 1. ## 4.3 Data Augmentation Xiao et al. [12] propose a method which applies the Data Augmentation (DA) technique into the Bilingual Text- Infilling task and the final experiment result demonstrates the feasibility of DA. Since the Bilingual Text-Infilling task and the TS task are quite similar (both aim to provide correct alternatives for masked (or missing) segments in the corresponding sentences by the models.), we also propose to apply DA into the TS task. Briefly speaking, for the parallel data $\left(x, m^{-w}\right)$ and correct alternatives $y$ in Equation 2, we construct the parallel sentence data $\left(x, \bar{m}^{-w}\right)$ and $\bar{y}$, where $\bar{m}^{-w}=\emptyset$ and $\bar{y}=m^{-w}$. In other words, $\bar{m}^{-w}$ means no tokens are provided in $m^{-w}$. Then we combine the pseudo data and the parallel sentence data to train the TS models in our experiments. ## 5 Experiments ## 5.1 Translation Suggestion Task Settings For training, we apply the two-state training pipline, where we pre-train the model on the pseudo data in the first stage, and then fine-tune the model on the golden $\mathrm{WeTS}^{5)}$ corpus in the second stage. To compare the performance of the generated pseudo data, we consider the model pre-trained with pseudo data generated by random mask as the baseline model. We divided the existing two types of pseudo data into subsets of 1,2 and 4 million each. Meanwhile, we add an equal amount of parallel sentence data to each subsets of pseudo data. By comparing the performance of models trained on the same amount of pseudo data and parallel sentence data, we verify the effectiveness of data augmentation for the TS task. Other experimental settings are in appendix D. ## 5.2 Results As shown in Table 2, as the amount of generated pseudo data increases, the improvement in model's performance is noticeable but not extremely significantly. Compared to models pre-trained using an equal amount of pseudo data generated by randomly mask (Baseline: mT5_base_1M, mT5_base_2M, mT5_base_4M), the performance of models only pre-trained with OTAlign-generated pseudo data is worse than baseline models. However, after fine-tuning, models pre-trained with pseudo data generated by OTAlign's word alignments outperform the baseline. On the other hand, we also want to confirm whether data aug- 5) You can download this dataset from https://openai.weixin. qq. com/translate/description. mentation methods can enhance the performance of the mT5-base model in the TS task.As shown in Table 2, after adding an equal amount of parallel sentence data, models only pre-trained with OTAlign-generated pseudo data and parallel sentence data don't achieve higher BLEU scores compared to the baseline models with the same amount of data. However, after fine-tuning, models with OTAligngenerated pseudo data and parallel sentence data achieve higher scores than baseline models. Especially, when the mT5-base model is pre-trained with 4M OTAligngenerated pseudo data and $4 \mathrm{M}$ parallel sentence data, it achieves a BLEU score of 22.3 after fine-tuning. ${ }^{6)}$ Table 2 The evaluation result of models trained by two types of generated pseudo data. ("*" shows the significant $(p<0.05)$ BLEU scores of models' outputs which are pre-trained and fine-tuned with generated pseudo data in the same amount, compared with mT5_base_xM) ## 6 Conclusion In order to improve the performance of TS, we have attempted to use OTAlign for generating pseudo data. The experiment results indicate that pseudo data generated using OTAlign is effective for pre-training models, thereby improving the effectiveness of TS. Meanwhile, we show that Data Augmentation technology for TS, the results show that the parallel sentence data can significantly improve the effectiveness of TS. 6) Besides these experiments, we used the $4 \mathrm{M}$ pseudo-data generated by random mask, 4M OTAlign generated pseudo-data, and about $12 \mathrm{M}$ of parallel sentence data (approximately $20 \mathrm{M}$ in total) for the pretraining of the mT5-base model. After fine-tuning, the model's BLEU score increased to 26.4. This indicates that continuously increasing the pseudo data volume according to our proposed method can further enhance the model's performance. ## References [1] D. Lee, J. Ahn, H. Park, and J. Jo. IntelliCAT: Intelligent machine translation post-editing with quality estimation and translation suggestion. In Proc. 59th ACL and 11th IJCNLP, pp. 11-19, 2021. [2] Q. Wang, J. Zhang, L. Liu, G. Huang, and C. Zong. Touch editing: A flexible one-time interaction approach for translation. In Proc. 1st AACL and 10th IJCNLP, pp. 1-11, 2020. [3] Z. Yang, F. Meng, Y. Zhang, E. Li, and J. Zhou. WeTS: A benchmark for translation suggestion. In Proc. EMNLP, pp. 5278-5290, 2022. [4] C. Dyer, V. Chahuneau, and N. Smith. A simple, fast, and effective reparameterization of IBM model 2. In Proc. NAACL-HLT, pp. 644-648, 2013. [5] M. Snover, B. Dorr, R. Schwartz, L. Micciulla, and J. Makhoul. A study of translation edit rate with targeted human annotation. In Proc. AMTA, Vol. 200, 2006. [6] Y. Arase, H. Bao, and S. Yokoi. Unbalanced optimal transport for unbalanced word alignment. In Proc. 61st ACL, pp. 3966-3986, 2023. [7] L. Xue, N. Constant, A. Roberts, M. Kale, R. Al-Rfou, A. Siddhant, A. Barua, and C. Raffel. mT5: A massively multilingual pre-trained text-to-text transformer. In Proc. NAACL, pp. 483-498, 2021. [8] H. Mao, W. Zhang, J. Cai, and J. Cheng. Transn's submissions to the WMT22 translation suggestion task. In Proc. 7th WMT, pp. 1205-1210, 2022. [9] H. Zhang, S. Lai, S. Zhang, H. Huang, Y. Chen, J. Xu, and J. Liu. Improved data augmentation for translation suggestion. In Proc. 7th WMT, pp. 1211-1216, 2022. [10] W. Lan, C. Jiang, and W. Xu. Neural semi-markov CRF for monolingual word alignment. In Proc. 59th ACL and 11th IJCNLP, pp. 6815-6828, 2021. [11] M. Nagata, K. Chousa, and M. Nishino. A supervised word alignment method based on cross-language span prediction using multilingual BERT. In Proc. EMNLP, pp. 555-565, 2020. [12] Y. Xiao, G. Huang L. Liu, Q. Cui, S. Huang, S. Shi, and J. Chen. BiTIIMT: A bilingual text-infilling method for interactive machine translation. In Proc. 60th ACL, pp. 1958-1969, 2022. [13] P. F. Brown, S. A. Della Pietra, V. J. Della Pietra, and R. L. Mercer. The mathematics of statistical machine translation: Parameter estimation. Computational Linguistics, Vol. 19, pp. 263-311, 1993. [14] T. Kudo and J. Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proc. EMNLP, pp. 66-71, 2018 . [15] K. Papineni, S. Roukos, T. Ward, and W. Zhu. Bleu: a method for automatic evaluation of machine translation. In Proc. 40th ACL, pp. 311-318, 2002. ## A Translation Suggestion Translation suggestion is an important tool for postediting. To further reduce the post-editing time, researchers [1] [2] propose to apply TS into post-editing, where TS provides the sub-segment suggestions for the annotated incorrect word spans in the results of machine translation, and their extensive experiments show that TS can substantially reduce translators' cognitive loads and the post-editing time. To enhance the research in the TS area. Yang et al. [3] propose a benchmark for TS. In their proposal, they consider TS task as this: Given the source sentence $x=\left(x_{1}, \ldots, x_{s}\right)$, the translation sentence $m=\left(m_{1}, \ldots m_{t}\right)$, the incorrect words or spans $w=m_{i: j}$ where $1 \leq i \leq j \leq t$ , and the correct alternative $y$ for $w$, the task of TS is optimized to maximize the conditional probability of $y$ as follows: $ P\left(y \mid x, m^{-w}, \theta\right) $ ## B Generating Pseudo Data by Random Mask Random mask on the golden parallel corpus is the most straightforward approach to generate pseudo data for TS. Give the sentence pair $(x, r)$ in the cleaned English-Chinese corpus, where $x$ is the source language sentence and $r$ is the corresponding target reference sentence. We denote $r^{\backslash i: j}$ as a masked version of $r$, which means a portion of $r$ from position $i$ to $j$ is replaced with a placeholder (<MASK_REP>). The $r^{i: j}$ denotes the portion of $r$ from position $i$ to $j$. We consider $r^{i: j}$ and $r^{\backslash i: j}$ as the correct alternative ( $y$ in Equation 1) and masked translation $\left(m^{-w}\right.$ in Equation 1) respectively. In this approach, the mask translation in each example is part of the target reference sentence $r$. (Figure 1(a)). Specifically, we randomly select one token in target reference sentence with a certain probability ${ }^{7)}$ as the first token of the incorrect span. Then, in order to generate the correct alternative and the masked translation, we set another certain probability to decide the length of the incorrect span which is started from the first token we selected. Finally, the correct alternative and the masked translation can be  generated. ## C Generating word alignments by OTAlign As for the OT problem, the inputs are a cost function and a pairs of measures. Assuming that the word embeddings of target reference sentence $r$ and the corresponding MT sentence $h$ are at hand. A cost refers to a dissimilarity between $r_{t}$ and $h_{k}$ computed by a distance metric such as Euclidean and cosine distances. The cost matrix $\mathbf{C}$ summarises the cost of any word pairs: $C_{t, k}=c\left(r_{t}, h_{k}\right)$. A measure means a weight each word has. The concept of measure corresponds to the notion of fertility introduced in IBM Model 3 [13], which defines how many target reference(MT) words a MT word(target reference) word can align. The mass of words in $r$ and $h$ is represented as arbitrary measures $a \in \mathbb{R}_{+}^{t}$ and $b \in \mathbb{R}_{+}^{k}$. Finally, an alignment matrix $\mathbf{P}$ is computed to minimize the sum of alignment costs under the cost matrix $\mathbf{C}$ : $ L_{C}(\boldsymbol{a}, \boldsymbol{b}):=\min _{P \in U(a, b)}<\boldsymbol{C}, \boldsymbol{P}> $ where $\langle\boldsymbol{C}, \boldsymbol{P}\rangle:=\sum_{t, k} C_{t, k} P_{t, k}$.With this formulation, we can seek the most reliable word alignment matrix $\mathbf{P}$ ## D Experimental Settings As for the mT5-base model ${ }^{8}$, the pseudo data is jointly tokenized into sub-word units with SentencePiece. [14] During pre-training, the batch size is set as 32 , and the learning rate is set to $3 \mathrm{e}-5$. During fine-tuning, the batch size is also set as 32, and the learning rate is set to $1 \mathrm{e}-$ 5. Especially, we pre-train the mT5-base model using the generated pseudo data and the parallel sentence data for one epoch and fine-tune the model for ten epochs. All the other configurations are remained unchanged as the setting of the benchmark [3]. In order to evaluate the models, we utilize the official evaluation tool scarebleu ${ }^{9)}$ to evaluate the model's output(The translation suggestion segment in Chinese) against the reference correct alternatives. In this paper, because we only select the English-Chinese direction, the BLEU [15]score is calculated on the characters with the default tokenizer for Chinese. For experiments related to the mT5-base model we conduct them on an NVIDIA A6000 RTX (48GB) with CUDA 11.3. 
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-13.pdf
# 翻訳文の部分構造を制約とした機械翻訳 帖佐 克己 ${ }^{1,2}$ 上垣外 英剛 2 渡辺太郎 2 ${ }^{1}$ NTTコミュニケーション科学基礎研究所 2 奈良先端科学技術大学院大学 [email protected] \{kamigaito.h, taro\}@is.naist.jp ## 概要 語彙制約付き機械翻訳は,指定された語句を訳語として含む文を生成するという制約の下で機械翻訳を行うタスクである。制約として指定する単位を語句からテキストの構造へ拡張することで,機械翻訳結果への操作性が向上することが期待できるが,これまで構造を制約としたニューラル機械翻訳は取り組まれてこなかった.そこで,本論文では,従来の語彙制約付き機械翻訳手法を拡張し, 目的言語側の部分構造を制約とした機械翻訳を行う手法を検討する。 ## 1 はじめに 語彙制約付き機械翻訳は,指定された語句を訳語として含む文を生成するという制約の下で機械翻訳を行うタスクである $[1,2,3,4]$. 訳語を指定することで,特許や法務等での翻訳で重要とされる,文書内での訳語の一貫性を担保できる。また,後編集のように,人間が修正の指示を与えながら翻訳を行う,インタラクティブな翻訳にも語彙制約付き機械翻訳は応用可能である。このタスクは近年活発に取り組まれており,制約を満たした上で高品質な翻訳文の生成が可能になりつつある. 制約として指定する単位を語句からテキストの構造へ拡張することで,機械翻訳の出力に対する操作性がより向上することが期待できる。テキストはその背後に構造を持ち, その構造によってテキスト中の語句間の関係や文型が表現される。そのため,構文構造や談話構造を用いて,その部分構造を制約とすることで,語彙制約では実現できなかったフレー ズ間の関係や文型に対しても操作可能になる. 例えば,句構造や依存構造などの構文構造の部分木を制約とすることで態を選んだ訳出が可能になり,日英などの同時通訳で問題となる語順の異なりを解決することができる.また,談話構造を利用することで,特許翻訳などで重要とされる句の並列関係の一貫性が翻訳前後で保たれていることを担保できる. しかし,構造を制約としたニューラル機械翻訳に関してはこれまで取り組まれていない,また,従来の語彙制約付き機械翻訳手法 $[2,3]$ が構造を制約とした機械翻訳に適用可能であるかどうかも明らかではない。 本論文では,語彙制約付き機械翻訳手法を拡張し,目的言語側の部分構造を制約とした機械翻訳を行う手法を検討する。構造制約を与えるには翻訳文とその構造が必要であるため,その 2 つの情報をまとめた構造付き翻訳文を 1 つの $\mathrm{S}$ 式として表し,原言語文からその $\mathrm{S}$ 式を直接生成する。また,構造制約も,葉ノードとして語彙が含まれる $\mathrm{S}$ 式の形で与える。このとき,構造制約を含む構造付き翻訳文を探索するために構造制約を考慮する翻訳モデルや構造制約付きデコーディングを行い,構造制約付き機械翻訳を実現する.ASPEC [5] を用いた日英翻訳での実験を行い,構造付き翻訳文を出力する翻訳モデルと制約付きデコーディングを組み合わせる事によって,制約を完全に満たす翻訳文を精度を落とすことなく生成できることが確認できた。また,構造制約を考慮する翻訳モデルが構造制約の充足率が 100\%に近い状態で高精度な翻訳文を生成できることも示した。 ## 2 関連研究 構造を制約としたニューラル機械翻訳に関してはこれまで取り組まれていないが,語彙制約付き機械翻訳に取り組んだ研究はこれまでにいくつか提案されている. それらの研究は制約を完全に満たすことを保証するかどうかによって 2 種類に大別され,制約を完全に満たすことを保証する手法はハード制約付き手法,そうでない手法をソフト制約付き手法と呼ばれる [3]. ハード制約付き手法では,主にデコーディングの過程で全ての指定語句を含む系列を探索する方法が用いられる. Post ら [2] はビームサーチの遷移や状 態の持ち方を拡張することで制約付きデコーディングを実現している. Lu ら [6] は,トークンの先読みを行い,将来的な制約の充足率に基づく探索による制約付きデコーディング手法を提案している.これらの手法は制約を満たすことを保証できるが,従来の翻訳器と比べて探索に大きい計算コストを必要とし,入力によっては翻訳精度が低下してしまう。 一方で,ソフト制約付き手法では,主に翻訳モデルへの入力を工夫する方法が採用されている. LeCA [3] は,原文の末尾に語彙制約を結合した系列をモデルに入力するというシンプルな手法で,一定の制約の充足率を達成している。他にも,大規模言語モデル(LLM)のプロンプトとして対訳となるフレーズのペアに関する指示を与えて翻訳を行う手法も提案されている [7]. このような手法はハード制約の手法に比べて高速に動作するが,いくつかの指定語句が出力されない可能性がある.また,LLM を用いた構造制約付き翻訳に関しては,自然言語で厳密に翻訳文の構造に関する指示を与えるのは難しいことや,LLM で構造付き翻訳文を生成する方法が明らかではないという課題がある。 また,この両方の手法を組み合わせることによって,ハード制約を満たした上で,ハード制約単体よりも少ない計算コストで,高い翻訳精度を実現できることも報告されている [4]. ## 3 提案手法 ## 3.1 定式化 構造制約付き機械翻訳は, $I$ トークンの原文 $X=\left(x_{1}, \cdots, x_{I}\right)$ と翻訳先言語の部分構造の集合 $C=\left(C_{1}, \cdots, C_{K}\right)$ が構造制約として与えられたときに,その部分構造を含む $J$ トークンの翻訳文 $Y=\left(y_{1}, \cdots, y_{J}\right)$ を生成するタスクである.このとき, 制約として与えられたリスト中の順序と, 翻訳文中の部分構造の出現順序は必ずしも一致しない. また,語彙制約は翻訳文中にそのまま含まれていたのに対して, 本タスクでは構造制約がそのまま翻訳文に含まれない,そのため,生成された翻訳文が制約を満たしているかどうかを判定するには翻訳文の構造を別途獲得する必要がある. さらに, 従来の翻訳モデルでは生成過程において翻訳文の構造にアクセスできないため,既存の制約付きデコーディング手法を構造制約に適用することが難しい. 翻訳文とその構造を得るために,その構造を $\mathrm{S}$ 式 として線形化して 1 つ文字列で表した, $L$ トークンの構造付き翻訳文 $Y^{s t r}=\left(y_{1}^{s t r}, \cdots, y_{L}^{s t r}\right)$ を直接生成する手法 [8, 9] を利用する. また, 各構造制約 $C_{k}$ は, $Y_{s t r}$ と同じ種類の構造による, 連続した 1 つの $\mathrm{S}$ 式として与えられる. そして, 制約 $C$ を満たす系列のうちから以下の条件付き確率を最大化する系列を探索することで,構造制約付き機械翻訳を実現する。 $ p\left(Y^{s t r} \mid X, C\right)=\prod_{l}^{L} p\left(y_{l}^{s t r} \mid y_{<l}^{s t r}, X, C\right) . $ このとき,与えることができる構造制約 $C_{k}$ は翻訳文の構造の部分木に制限されるが,これらの構造制約が構造付き翻訳文 $Y_{s t r}$ の部分文字列として現れるようになる。また,生成過程において翻訳文の構造を参照することができるため,語彙制約付き機械翻訳と同様の枠組みで構造制約付き機械翻訳を実現できる. ## 3.2 構造制約付き翻訳モデル 生成過程で翻訳文の構造を利用するために,原文から構造付き翻訳文を生成する,構造付き翻訳モデルを作成する.翻訳モデルの学習に用いられる対訳コーパスには一般的に翻訳文の構造情報が付与されていないため,既存のパーサを用いて翻訳文の構造情報を獲得し,S 式として表される構造付き翻訳文を作成する.この構造付き翻訳文と原文のペアを用いて,従来の翻訳モデルと同様の枠組みでモデルを学習することで,構造付き翻訳モデルを作成する。 さらに,翻訳モデル中で構造制約を考慮して翻訳を行う構造制約付き翻訳モデルを作成するために, LeCA [3] と同様に,原文と制約を結合して入力系列を拡張する手法を用いる。この入力系列は,区切りとなるシンボルである $\langle$ sep $\rangle$ で原文 $X$ と制約 $C$ 中の各部分構造 $C_{k}$ を連結することにより,以下のように作成する。 $ \left[X,\langle\text { sep }\rangle, C_{1},\langle\text { sep }\rangle, C_{2}, \cdots, C_{K},\langle\text { eos }\rangle\right] $ ここで,〈eos〉は文の終端を表すシンボルである. モデルの学習時にも式(2)の入力系列は用いられるが,既存の対訳コーパスには構造制約の情報が付与されていない. そこで,正解の翻訳文から構造制約を作成し,構造制約の擬似的な正解データとして利用する.この構造制約は,構造付き翻訳文から構造同士の重なりが無いように $K$ 個の部分構造をランダムに抽出することで作成する。このとき,制 表 1 開発用・テスト用セットの構造制約の統計情報 & \\ テスト & $21.76(14.64)$ & $1.51(0.65)$ 約の個数 $K$ はハイパーパラメータとして与えられる確率分布に従って,ランダムに決定する。 ## 3.3 構造制約付きデコーディング 本タスクでは与えられた制約を必ず満たす翻訳文を生成する必要があるが,前述の翻訳モデル単体では生成した翻訳文が制約を満たすことを保証することができない.そこで,構造付き翻訳モデルのデコーディング時に,語彙制約付きデコーディング(lexically constrained decoding; LCD)を用いる [2]. LCD は翻訳文の探索のためにビームサーチを行う際に,制約を考慮して翻訳文の候補を選択を行う手法であり,これにより制約を満たした翻訳文が得られることを保証できる. この手法は元々は語彙制約のための制約付きデコーディングとして提案されたものだが, 3.1 節の通り,構造制約を構造付き翻訳文の部分文字列とすることで,語彙制約付き機械翻訳と同様の枠組みで構造制約を扱うことができるため,この手法を構造制約のための制約付きデコー ディング手法として利用することができる. ## 4 実験 提案手法の有効性を評価するため,日英翻訳を対象として, 句構造を構造制約とした構造制約付き機械翻訳の制度評価を行った。 ## 4.1 データセット 学習および評価に使用する対訳コーパスとして ASPEC [5] を使用した. ASPEC の学習データのうち,最後の 100 万文対に関してはノイズが多く含まれていることから, 最初の 200 万文対のみを学習データとして使用した. テキストの構造情報には句構造を使用した. SuPar ${ }^{1)}$ の CRF モデル [10]を用いて構文解析を行い,S 式で表される構造付き翻訳文を作成した. SentencePiece [11]を用いてサブワードへの分割を行った. 語彙は日本語と英語で共有とし, サイズは 32,000 とした. また, 学習時に過度に長い文を用いるのを避けるために, Moses の 1) https://github.com/yzhangcs/parser clean-corpus-n.perl 2) によって文長が 512 を超えるものを学習データから削除した。 学習データの構造制約の作成に際して,各制約の最大トークン数は 150 , 最小の木の深さは 2 とした. また, 1 文あたりの構造制約の最大個数は 3 とし,各文に対する制約の個数 $K$ は以下の分布 $p(K)$ に従ってサンプリングを行い決定した。 $ p(K)= \begin{cases}0.3 & (K=0) \\ 0.7 / 3 & (1 \leq K \leq 3)\end{cases} $ 開発およびテスト用データセットの構造制約についても,学習データと同様の方法で作成した. 表 1 に,開発およびテスト用データセットの構造制約の統計情報を示す。 ## 4.2 翻訳モデル 本実験では以下の 3 つの翻訳モデルを作成し,評価に用いた。 ベースライン原文から翻訳文を生成する,一般的な翻訳モデル 構造付き翻訳モデル原文から構造付き翻訳文を生成する翻訳モデル 構造制約付き翻訳モデル原文と構造制約から構造付き翻訳文を生成する翻訳モデル ベースラインには Transformer(big) [12]を用いた. 制約付きデコーディングを用いる際には通常よりも大きいビームサイズを使用する必要があるため,本実験ではビームサイズを 20 とした. その他のベースラインの設定およびハイパーパラメータの詳細については付録の表 3 に示す. その他のモデルについても,特に明記していない場合はべースラインに準じた設定およびハイパーパラメータを使用している。モデルの実装には fairseq [13]を用いた. ## 4.3 評価尺度 構造制約付き機械翻訳の評価は,語彙制約付き機械翻訳における観点を基に,翻訳文の翻訳精度および構造制約の充足率という観点に基づいて行った.翻訳精度の評価尺度には自動評価尺度としてデファクトスタンダードな手法である BLEUを使用し,その計算には sacrebleu [14] を用いた. 本実験で用いたモデルには構造付き翻訳文を出力するものもあるが,それらの翻訳精度の評価に際しては,出 2) https://github.com/moses-smt/mosesdecoder/blob/ master/scripts/training/clean-corpus-n.perl 表 2 各手法の翻訳精度および制約の充足率.太字は各尺度で最も高いスコアを示す。 力から構造情報を取り除いて翻訳文のみを抽出して計算を行った. 構造制約の充足率を測る尺度には,語彙制約付き機械翻訳でも用いられている Term\%と Sent\%の 2 つの尺度を用いた [4]. Term\%は構造制約のうち正しく生成された構造制約の割合, Sent\%は構造制約をすべて満たす翻訳文の割合として定義される。 ## 4.4 実験結果 各手法の翻訳文の翻訳精度および構造制約の充足率を表 2 に示す。 まず,構造付き翻訳モデルの翻訳精度が,ベースラインと比べて BLEUが 0.8 ポイントの減少と,大きく低下していないことがわかる. 構造付き翻訳モデルは $\mathrm{S}$ 式で表される構造付き翻訳文を生成することで翻訳とその構文解析を同時に行う。そのため, ベースラインのような翻訳だけを行うタスクよりも難しく,翻訳精度が低くなってしまう可能性があった. この懸念に対して, 結果より, 構造付き翻訳文を生成する方法でもべースラインと同程度の精度で翻訳が行えることが確認できた. 次に,構造付き翻訳モデルに制約付きデコーディングを組み合わせた結果に着目すると,構造付き翻訳モデル単体と比べて翻訳精度が BLEU で 1 ポイント改善しており,さらに構造制約の充足率もほぼ 100\%を達成していることが確認できる。このとき,ハード制約を満たすはずの制約付きデコーディングを適用しているにもかかわらず Term\%と Sent\% の文字の正規化などが表記ゆれが発生しているためであり,その点に対応すると両方の充足率は $100 \%$ を達成している. また, WAT の語彙制約付き翻訳データセット [1] での語彙制約の平均単語数が 6.6 7.4 単語であるのに対して,今回作成した構造制約のトークン数は平均 21 トークン前後と, 語彙制約が $\mathrm{S}$ 式で与えられることによりトークン数が増加している.このような長いトークンからなる構造制約 に対しても,制約付きデコーディングを用いることで,制約を満たす翻訳文を精度を落とすことなく探索できることが確認できた。 また,構造制約付き翻訳モデルの結果に着目すると, ベースラインに比べて BLEU が+16.3 ポイントと,翻訳精度が大幅に改善していることが確認できる. さらに,構造制約の充足率についても,制約付きデコーディングを使用していないにもかかわらず Term\%と Sent\%の両方においてほとんど 100\%に近いスコアを達成しており,ほとんどの構造制約は満たされている.この高い充足率の理由としては,構造制約のトークン数が非常に大きいということが考えられる。構造制約のトークン数が増加するということは,構造制約付き翻訳モデルの入力から出力にそのままコピーするトークンの数が増えるということになるため,モデルの学習過程において入力をコピーするようにモデルが強く学習した結果,非常に高い充足率に繋がった可能性が考えられる. 最後に,構造制約付き翻訳モデルに制約付きデコーディングを組み合わせた際の結果に着目すると,構造制約付き翻訳モデル単体と比べて制約の充足率は改善していることがわかる。一方で,翻訳精度については, ベースラインや構造付き翻訳モデルを用いた手法に比べると改善しているが,構造制約付き翻訳モデル単体と比べると減少している. これは,制約付きデコーディングによって構造制約を考慮した翻訳文の候補の選択が行われるために,一般的なビームサーチと比べて十分な探索が行えずに翻訳精度が減少しているのではないかと考えられる。 ## 5 まとめ 本論文では語彙制約付き機械翻訳を拡張し,目的言語側の部分構造を制約とした構造制約付き機械翻訳タスクを提案した. さらに,その構造制約付き機械翻訳を行う手法として,翻訳文とその構造を同時に出力する構造付き翻訳モデルやそのモデルを拡張して構造制約も考慮した構造制約付き翻訳モデル,構造制約付きデコーディングを提案した. ASPEC を用いた日英翻訳での実験を行い,構造付き翻訳モデルと制約付きデコーディングを組み合わせる事によって,制約を完全に満たす翻訳文を精度を落とすことなく生成できることが確認できた。また,構造制約付き翻訳モデルが構造制約の充足率が $100 \%$ に近い状態で高精度な翻訳文を生成できることも示した. ## 参考文献 [1] Toshiaki Nakazawa, Hideki Nakayama, Chenchen Ding, Raj Dabre, Shohei Higashiyama, Hideya Mino, Isao Goto, Win Pa Pa, Anoop Kunchukuttan, Shantipriya Parida, Ondřej Bojar, Chenhui Chu, Akiko Eriguchi, Kaori Abe, Yusuke Oda, and Sadao Kurohashi. Overview of the 8th workshop on Asian translation. In Toshiaki Nakazawa, Hideki Nakayama, Isao Goto, Hideya Mino, Chenchen Ding, Raj Dabre, Anoop Kunchukuttan, Shohei Higashiyama, Hiroshi Manabe, Win Pa Pa, Shantipriya Parida, Ondřej Bojar, Chenhui Chu, Akiko Eriguchi, Kaori Abe, Yusuke Oda, Katsuhito Sudoh, Sadao Kurohashi, and Pushpak Bhattacharyya, editors, Proceedings of the 8th Workshop on Asian Translation (WAT2021), pp. 1-45, Online, August 2021. Association for Computational Linguistics. [2] Matt Post and David Vilar. Fast lexically constrained decoding with dynamic beam allocation for neural machine translation. In Marilyn Walker, Heng Ji, and Amanda Stent, editors, Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 13141324, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [3] Guanhua Chen, Yun Chen, Yong Wang, and Victor O.K. Li. Lexical-constraint-aware neural machine translation via data augmentation. In Proceedings of IJCAI 2020: Main track, pp. 3587-3593, 72020. [4] Katsuki Chousa and Makoto Morishita. Input augmentation improves constrained beam search for neural machine translation: NTT at WAT 2021. In Proceedings of the 8th Workshop on Asian Translation (WAT2021), pp. 53-61, Online, August 2021. Association for Computational Linguistics. [5] Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. ASPEC: Asian scientific paper excerpt corpus. In Nicoletta Calzolari, Khalid Choukri, Thierry Declerck, Sara Goggi, Marko Grobelnik, Bente Maegaard, Joseph Mariani, Helene Mazo, Asuncion Moreno, Jan Odijk, and Stelios Piperidis, editors, Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC'16), pp. 2204-2208, Portorož, Slovenia, May 2016. European Language Resources Association (ELRA). [6] Ximing Lu, Sean Welleck, Peter West, Liwei Jiang, Jungo Kasai, Daniel Khashabi, Ronan Le Bras, Lianhui Qin, Youngjae Yu, Rowan Zellers, Noah A. Smith, and Yejin Choi. NeuroLogic a*esque decoding: Constrained text generation with lookahead heuristics. In Marine Carpuat, Marie-Catherine de Marneffe, and Ivan Vladimir Meza Ruiz, editors, Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 780-799, Seattle, United States, July 2022. Association for Computational Linguistics. [7] Yasmin Moslem, Rejwanul Haque, John D. Kelleher, and Andy Way. Adaptive machine translation with large language models. In Mary Nurminen, Judith Brenner, Maarit Koponen, Sirkku Latomaa, Mikhail Mikhailov, Frederike Schierl, Tharindu Ranasinghe, Eva Vanmassenhove, Sergi Alvarez Vidal, Nora Aranberri, Mara Nunziatini, Carla Parra Escartín, Mikel Forcada, Maja Popovic, Carolina Scarton, and Helena Moniz, editors, Proceedings of the 24th Annual Conference of the European Association for Machine Translation, pp. 227-237, Tampere, Finland, June 2023. European Association for Machine Translation. [8] Oriol Vinyals, L ukasz Kaiser, Terry Koo, Slav Petrov, Ilya Sutskever, and Geoffrey Hinton. Grammar as a foreign language. In C. Cortes, N. Lawrence, D. Lee, M. Sugiyama, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 28. Curran Associates, Inc., 2015. [9] Roee Aharoni and Yoav Goldberg. Towards string-to-tree neural machine translation. In Regina Barzilay and Min-Yen Kan, editors, Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 132-140, Vancouver, Canada, July 2017. Association for Computational Linguistics. [10] Yu Zhang, Houquan Zhou, and Zhenghua Li. Fast and accurate neural CRF constituency parsing. In Proceedings of IJCAI, pp. 4046-4053, 2020. [11] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Eduardo Blanco and Wei Lu, editors, Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics. [12] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [13] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Waleed Ammar, Annie Louis, and Nasrin Mostafazadeh, editors, Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 48-53, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [14] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Belgium, Brussels, October 2018. Association for Computational Linguistics. ## A ベースラインの設定 ベースラインに用いた翻訳モデルの設定及びハイパー パラメータを表 3 に示す. 表 3 ベースラインのモデルの設定およびハイパーパラメータ アーキテクチャ Tied-embeddings Transformer(big) [12] Encoder/Decoder の Embedding と Decoderの最終層の重みを Optimizer 学習率の更新方法 Warmup $\underset{1 e-8}{\operatorname{Adam}}\left(\beta_{1}=0.9, \beta_{2}=0.98, \epsilon=\right.$ 学習率の最大値 Inverse square root decay Dropout 4,000 ステップ 0.001 Gradient Clipping 0.3 Label Smoothing 1.0 ミニバッチサイズ 0.1 更新回数 512,000 トークン ビームサイズ 30,000 ステップ 20
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-14.pdf
# 漸進的な音声分割を用いたストリーミング同時音声翻訳 福田りょう 須藤克仁 中村哲 奈良先端科学技術大学院大学 \{fukuda.ryo.fo3, sudoh, s-nakamura\}@is.naist.jp ## 概要 同時音声翻訳モデルを実用化する際には、連続音声を逐次的に処理する必要があるが、近年の研究は音声が文等の短い単位に分割されたベンチマークデータを対象に行われており、連続音声の処理については十分に検討が行われていない。そこで本稿では漸進的な音声分割モデルを作成し、同時音声翻訳モデルと組み合わせて連続音声を処理するストリー ミング同時音声翻訳システムを構築した。実験では、音声分割手法がトップラインの 94\%以上の翻訳精度を維持できることを確認し、また音声分割における将来と過去の音声情報の重要性を検証した。 ## 1 はじめに 同時音声翻訳は、発話の完了を待たずに翻訳処理を開始する音声機械翻訳であり、言語の壁を超えた即時性の高い情報伝達を実現する技術として実用化が期待されている。同時音声翻訳の従来方式では、音声認識、発話より短いチャンクへの自動分割、機械翻訳という 3 つの処理が必要であった $[1,2,3]$ 。 ニューラル機械翻訳 [4] の発展に伴い、音声を直接翻訳する End-to-end 型の音声翻訳モデル [5] を用いてよりシンプルな構成で同時音声翻訳が実現できるようになった。Maら [6] は、テキストからテキストへの同時翻訳の手法 $[7,8]$ を同時音声翻訳に適用した。Liu ら [9] は訳出タイミングと翻訳精度を同時に最適化する手法を提案した。近年では、事前学習済みの大規模な音声モデルや多言語モデルを用いた同時音声翻訳が提案されている $[10,11]$ 。 このような発展の一方で、同時音声翻訳における連続音声の処理方法については十分な検討がなされていない。音声は本来、長さに制限のない連続的なデータ(ストリーミングデータ)である。しかしほとんどの既存研究ではそのような大力が想定されておらず、実験では事前に発話単位に分割された数秒〜十数秒程度の音声セグメントが大力として用いられ てきた。 即時性が求められない通常の音声機械翻訳 (オフライン音声翻訳) では、連続音声を適切に処理するための手法が研究されている。既存の音声翻訳モデルは単体で連続音声を処理することが難しいため、翻訳前に音声分割を実行する方法が一般的である。音声区間検出による分割 [12] は最も典型的な音声分割手法であるが、発話の過剩な分割により翻訳精度を低下させる問題が指摘されている [13]。この問題を緩和するため、音声区間で分割した音声セグメン卜を一定の長さになるまで連結する方法が提案されている $[14,15]$ 。近年では、音声翻訳コーパスに含まれる発話単位のセグメント境界を予測する分類器を用いたモデルベースの手法が提案され、従来手法を大きく上回ることが報告されている $[16,17,18]$ 。 既存の音声分割手法の多くはオフライン音声翻訳のために設計されており、発話より長い音声を入力することが想定されている。一方で同時音声翻訳においては、翻訳処理と同様に、発話の完了を待たずに漸進的な音声分割処理を行う必要がある。そこで本稿では、オフライン音声翻訳のための音声分割手法の、同時音声翻訳への適用可能性を検討した。具体的には、モデルベースの音声分割手法 [18] を漸進的な処理に対応させるために、学習時に参照できる将来の情報に制約をかけて音声分割モデルの学習を行った。その後、作成した音声分割モデルと同時音声翻訳モデルを組み合わせてストリーミング同時音声翻訳システムを構築した。TED talks $の$ 音声翻訳コーパス MuST-Cを用いた英独音声翻訳実験で、提案手法がベースラインを上回り、音声翻訳コーパスに含まれる文単位のセグメントの 94\%以上の翻訳精度を維持できることを示した。また、音声分割モデルが参照できる将来の情報に制約をかけることで学習と推論の条件の不一致が緩和され、翻訳精度が向上することを確認した。最後に、音声分割における過去の情報の重要性を検証した。 ## 2 漸進的な音声分割 ## 2.1 モデルベースの音声分割 音声翻訳コーパスには通常、文にアライメントされた音声セグメントを含む。これらのセグメントの境界は多くの場合発話の区切りと一致するため、翻訳に適していると考えられる。SHAS [16] は、音声翻訳コーパスのセグメント境界を予測する分類器を用いてオフライン音声翻訳において高い翻訳精度を達成した。SHAS の分類器の構造は、事前学習済みの自己教師あり音声モデル wav2vec 2.0 [19] のエンコーダに 1 層の Transformer Encoder 層 [20]を繋げたニューラルネットワークモデルである。モデルは、 フレーム単位の系列ラベリング問題として音声翻訳コーパスのセグメント境界の予測を学習する。学習時及び推論時には固定長 (20 秒)の音声が入力される。SHAS+FTPT [18] は、SHAS の拡張であり、分類器の wav2vec 2.0 のパラメータを追加学習することでより高い翻訳精度を達成した。また SHAS+FTPT は、音声をより短いセグメントに分割するため、処理時間の観点から漸進的処理に適している。 ## 2.2 Attention masking 本研究では音声分割モデル SHAS+FTPTを同時音声翻訳に適用する。wav $2 \mathrm{vec} 2.0$ 及び追加の Transformer Encoder 層では、self-attention により、最大 20 秒先の音声情報を参照できる。同時音声翻訳では、発話より短いチャンクを漸進的に処理する必要があるため、SHAS+FTPT の学習時のように長い将来の情報を参照できない。本研究では、モデル学習時に self-attention が参照できる将来の情報に制約をかけることで推論時とのギャップを低減することを検討した。Self-attention は下式で定義される scaled dot-product attention である。 $ \operatorname{Attention}(Q, K, V)=\operatorname{softmax}\left(\frac{Q K^{T}}{\sqrt{d}}\right) V $ Attention の重み行列 $\operatorname{softmax}\left(\frac{Q K^{T}}{\sqrt{d}}\right) \in R^{T \times T}$ は、 $j$ 番目の Query $Q_{j}$ が $i$ 番目の Value $V_{i}$ を参照する際の重み $\alpha_{i, j}(i<=T, j<=T)$ の要素から構成されている。 もし $\alpha_{i, j}=0$ であれば、 $Q_{j}$ は $V_{i}$ を参照しない。ここで、Attention の参照範囲を制御するために、重み行列にマスク行列 $M \in R^{T \times T}$ を掛け合わせることができる。もし $M(i, j)=0$ であれば、 $Q_{j}$ は $V_{i}$ を参照しない。 図 1 : ストリーミング同時音声翻訳システムの概要 本研究では異なるマスク行列 $M$ のパターンを用いて学習した 3 つ音声分割モデルを比較した。 - Unmasked: $M$ を用いない。学習時に selfattention は最大 20 秒先の情報を参照できる。 - Monotonic masking [21, 22, 23]: $i, j(j<i)$ について $M(i, j)=0$ となるような $M$ を用いる。学習時に self-attention は過去の情報のみ参照できる。 - Chunk-wise masking [24, 25]: 入力フレームを固定のチャンクサイズに分割して現在と過去のチャンクだけを参照できるようにする。具体的には、 $ M(i, j)= \begin{cases}0 & \text { if } c(i) \neq c(j) \text { and } j<i \\ 1 & \text { otherwise. }\end{cases} $ とする。 $c(i)$ は $i$ 番目のフレームが属するチャンクのインデックスである。 Monotonic masking と比べ、チャンク単位で漸進的に処理を行う推論時と近い条件で学習を行う。 ## 3 ストリーミング同時音声翻訳 図 1 に本稿で構築するストリーミング同時音声翻訳 (Streaming Simultaneous ST) システムの概要図を示す。システムは音声分割 (Segmentation) と同時音声翻訳 (Simultaneous ST) で構成されており、 2 つのモデルが交互に処理を行うことで動作する。擬似コードを Algorithm 1 に示す。システムは receive_speech_stream() 関数を用いて音声データを連続的に受け取り chunk に追加する (行 8)。音声チャンク chunk の長さが固定長 $X$ に達すると、音声分割 Segmentation $(\cdot)$ を実行する (行 10-11)。次に、音声分割結果として得られる音声セグメントの一部である part_seg、同一セグメント内の過去の音声情報 context、セグメント終了フラグis_end を引数にと る、同時音声翻訳 SimulST(.)を実行する (行 15)。ここで、is_end == True の場合、SimulST(.) は文末まで生成を行った後、次のセグメントの処理に備えて状態をリセットする。その後、過去の情報 context を更新し(行 16-19)、chunkをリセットして(行 20)行 8 の処理に戻る。 Segmentation( $\cdot$ ) では音声分割モデルの推論を実行する。音声分割モデルは、過去の情報と現在のチャンクを連結した系列を入力として受け取り、各フレームが音声セグメントに含まれる確率を出力する。次に、過去の情報に対応する予測を切り捨てた、現在のチャンク部分の確率の系列に閾値 $t h r(0 \leq t h r \leq 1)$ で間値処理を行うことでセグメントの境界(開始 bos, 終了 eos)を決定する。ここで $t h r=0.1$ は $t h r=0.9$ よりも消極的な分割を行うことを意味する。最後に bos と $e o s$ の間にある音声を part_seg として返す。この時、次のセグメントのプレフィックス prefix とセグメント終了フラグ is_end も同時に返す。Segmentation($\cdot$) の詳細を付録 A. 1 に示す。 ## 4 実験設定 ストリーミング同時音声翻訳システムを構築し、提案手法の有効性を検証するために異なる音声分割手法を比較した。 ## 4.1 タスク Ted talks の音声翻訳コーパス MuST-C v2 に含まれる、英語の講演音声とそれに対応付いた書き起こしテキスト、及びドイツ語の翻訳テキストを用いて英独音声翻訳の実験を行った。学習データ、開発データ及び評価データのセグメント数はそれぞれ $250,942 、 1,415 、 2,580$ である。音声分割モデルの学習に学習・開発データを用いた。システムの評価のために評価データを用いた。 音声分割手法 (4.2) と同時音声翻訳モデル (4.3)を用いてストリーミング同時音声翻訳システムを構築した。システム構築のために SimulEval toolkit [26] 1) を用いた。 評価時は、自動分割した音声に対する翻訳結果を評価データのセグメントとトーク毎に対応付けを行った後、BLEU [27] を測定した。対応付けには編集距離に基づくテキスト整列アルゴリズム [28] を用いた。 ## 4.2 音声分割 6 つの音声分割手法を比較した。 ・Topline: 評価データのセグメント境界 - Fixed-length: 固定長で分割するベースライン - Unmasked: マスクなしの音声分割モデル (2 章) - Monotonic: Monotonic masking (2 章) - Chunk-wise: Chunk-wise masking (2 章) 音声分割モデルにおける閾値処理の設定値 $t h r$ を 0.1 から 0.7 の間で探索し、最も翻訳精度が高かった 0.3 を選択した。Chunk-wise の学習時のチャンクの長さを 1 秒とした。Fixed-length $の$ 設定は固定長 10 秒から 20 秒の間で探索し、最も翻訳精度が高い 15 秒を選択した。 ## 4.3 同時音声翻訳 事前学習済みの音声モデル HuBERT [29] と、多言語モデル mBART50 [30] に基づく同時音声翻訳モデル [11]を使用した。翻訳の出力タイミングを決定する方策として、過去の仮説と現在の仮説の間の最長共通プレフィックスを出力する Local agreement [31] を用いた。推論時のチャンクサイズを $X=\{400,600,800,1000,1200\}(\mathrm{ms})$ として遅延を調節した。  図 2: 異なるチャンクサイズにおける音声分割手法の比較。閾値 $t h r=0.3$ 。 図 3: 過去の情報 context のアブレーション ## 5 実験結果 図 2 に各音声分割手法を用いたシステムの翻訳精度を示す。音声分割モデルを用いた 3 つの手法 (Unmasked、Monotonic、Chunk-wise) はいずれもベースライン Fixed-length を上回り、Chunk-wise は Topline の 94-99\%の翻訳精度を維持した。各音声分割手法による翻訳精度の詳細を付録 A. 2 に示す。 Chunk-wise は Unmasked の BLEU を平均 1.2 ポイント上回った。マスク行列により参照できる将来の情報に制約をかけることで学習と推論の条件の不一致が緩和されたと考えられる。一方で、Monotonic と Chunk-wise の間に大きな差は見られなかった。ただし、詳細は省略するが、セグメント境界を決定するための間値 $t h r$ を 0.3 より大きくした時の翻訳精度の低下は Monotonic でより顕著であり、 $t h r=0.5$ 以上では Monotonic は Chunk-wise を大きく下回った。 $t h r=0.1$ から 0.7 までの結果を付録 A. 3 に示す。 $t h r$ が大きいと分割がより積極的になるため、音声分割精度の差が強調されやすい。この結果は Chunk-wise が利用できるチャンクレベルの短い将来の情報が、分割精度向上に寄与することを示唆している。音声分割モデルの比較から、将来の音声情報が分割精度に影響することが確認された。続いて過去の音声情報の重要性を検証するため、音声分割モデルの推論時に用いていた同一セグメント内の過去の情報 contextを取り除いて結果を比較した。図 3 に結果を示す。いずれのチャンクサイズにおいても大きく翻訳精度が低下したことから、過去の情報も分割精度に大きく影響することが確認された。 ## 6 関連研究 先行研究として、原理的に連続音声を処理できる同時音声翻訳モデルが提案されている [32]が、連続音声での実験は行われていない。Polák ら [33] は、音声分割を統合した同時音声翻訳モデルを提案した。これは我々の知る限り、End-to-end 型の音声翻訳モデルを用いて連続音声の同時音声翻訳実験を行った唯一の先行研究である。Polák らの手法は外部の音声分割手法を必要としない利点がある一方で、学習コストが高く、また任意の音声翻訳モデルを用いることができない久点がある。 ## 7 おわりに 本稿では、オフライン音声翻訳のための音声分割手法を同時音声翻訳に適用し、ストリーミング同時音声翻訳システムを構築した。実験では、提案した音声分割モデルがトップラインの翻訳精度を 94-99\%維持することを示し、また音声分割の判断において将来と過去の情報が重要であることを明らかにした。 ## 謝辞 本研究の一部は JSPS 科研費 JP21H05054、 JP21H03500、JP23KJ1583 の助成を受けた。 ## 参考文献 [1] Srinivas Bangalore, Vivek Kumar Rangarajan Sridhar, Prakash Kolan, Ladan Golipour, and Aura Jimenez. Real-time incremental speech-to-speech translation of dialogs. In Proceedings of the 2012 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 437-445, June 2012. [2] Tomoki Fujita, Graham Neubig, Sakriani Sakti, Tomoki Toda, and Satoshi Nakamura. Simple, lexicalized choice of translation timing for simultaneous speech translation. In Proc. Interspeech 2013, pp. 3487-3491, 2013. [3] Vivek Kumar Rangarajan Sridhar, John Chen, Srinivas Bangalore, Andrej Ljolje, and Rathinavelu Chengalvarayan. Segmentation strategies for streaming speech translation. In Proceedings of the 2013 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 230-238, June 2013. [4] Ilya Sutskever, Oriol Vinyals, and Quoc V Le. Sequence to sequence learning with neural networks. Advances in neural information processing systems, Vol. 27, , 2014. [5] Alexandre Bérard, Olivier Pietquin, Laurent Besacier, and Christophe Servan. Listen and translate: A proof of concept for end-to-end speech-to-text translation. In NIPS Workshop on end-to-end learning for speech and audio processing, 2016. [6] Xutai Ma, Juan Pino, and Philipp Koehn. SimulMT to SimulST: Adapting simultaneous text translation to end-to-end simultaneous speech translation. In Proceedings of the 1st Conference of the Asia-Pacific Chapter of the Association for Computational Linguistics and the 10th International Joint Conference on Natural Language Processing, pp. 582-587, December 2020. [7] Mingbo Ma, Liang Huang, Hao Xiong, Renjie Zheng, Kaibo Liu, Baigong Zheng, Chuanqiang Zhang, Zhongjun He, Hairong Liu, Xing $\mathrm{Li}$, Hua Wu, and Haifeng Wang. STACL: Simultaneous translation with implicit anticipation and controllable latency using prefix-to-prefix framework. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3025-3036, July 2019. [8] Xutai Ma, Juan Miguel Pino, James Cross, Liezl Puzon, and Jiatao Gu. Monotonic multihead attention. In International Conference on Learning Representations, 2020. [9] Dan Liu, Mengge Du, Xiaoxi Li, Ya Li, and Enhong Chen. Cross attention augmented transducer networks for simultaneous translation. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 39-55, November 2021 . [10] Peter Polák, Ngoc-Quan Pham, Tuan Nam Nguyen, Danni Liu, Carlos Mullov, Jan Niehues, Ondřej Bojar, and Alexander Waibel. CUNI-KIT system for simultaneous speech translation task at IWSLT 2022. In Proceedings of the 19th International Conference on Spoken Language Translation (IWSLT 2022), pp. 277-285, May 2022 [11] Ryo Fukuda, Yuta Nishikawa, Yasumasa Kano, Yuka Ko, Tomoya Yanagita, Kosuke Doi, Mana Makinae, Sakriani Sakti, Katsuhito Sudoh, and Satoshi Nakamura. NAIST simultaneous speech-tospeech translation system for IWSLT 2023. In Proceedings of the 20th International Conference on Spoken Language Translation (IWSLT 2023), pp. 330-340, July 2023. [12] Jongseo Sohn, Nam Soo Kim, and Wonyong Sung. A statistical model-based voice activity detection. IEEE signal processing letters, Vol. 6, No. 1, pp. 1-3, 1999. [13] David Wan, Chris Kedzie, Faisal Ladhak, Elsbeth Turcan, Petra Galuščáková, Elena Zotkina, Zheng Ping Jiang, Peter Bell, and Kathleen McKeown. Segmenting subtitles for correcting asr segmentation errors. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 2842-2854, 2021. [14] Marco Gaido, Matteo Negri, Mauro Cettolo, and Marco Turchi. Beyond voice activity detection: Hybrid audio segmentation for direct speech translation. CoRR, Vol. abs/2104.11710, , 2021. [15] Hirofumi Inaguma, Brian Yan, Siddharth Dalmia, Pengcheng Guo, Jiatong Shi, Kevin Duh, and Shinji Watanabe. ESPnet-ST IWSLT 2021 offline speech translation system. In Proceedings of the 18th International Conference on Spoken Language Translation, pp. 100-109, August 2021. [16] Ioannis Tsiamas, Gerard I. Gállego, José A. R. Fonollosa, and Marta R. Costa-jussà. SHAS: Approaching optimal Segmentation for End-to-End Speech Translation. In Proc. Interspeech 2022, pp. 106-110, 2022. [17] Ryo Fukuda, Katsuhito Sudoh, and Satoshi Nakamura. Speech Segmentation Optimization using Segmented Bilingual Speech Corpus for End-to-end Speech Translation. In Proc. Interspeech 2022, pp. 121-125, 2022. [18] Ryo Fukuda, Katsuhito Sudoh, and Satoshi Nakamura. Improving speech translation accuracy and time efficiency with fine-tuned wav2vec 2.0-based speech segmentation. IEEE/ACM Transactions on Audio, Speech, and Language Processing, Vol. 32, pp. 906-916, 2024. [19] Alexei Baevski, Yuhao Zhou, Abdelrahman Mohamed, and Michael Auli. wav2vec 2.0: A framework for self-supervised learning of speech representations. Advances in Neural Information Processing Systems, Vol. 33, , 2020. [20] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, pp. 5998-6008, 2017. [21] Colin Raffel, Minh-Thang Luong, Peter J Liu, Ron J Weiss, and Douglas Eck. Online and linear-time attention by enforcing monotonic alignments. In International conference on machine learning, pp. 2837-2846. PMLR, 2017 [22] Chung-Cheng Chiu and Colin Raffel. Monotonic chunkwise attention. In International Conference on Learning Representations, 2018 [23] Xutai Ma, Juan Miguel Pino, James Cross, Liezl Puzon, and Jiatao Gu. Monotonic multihead attention. In International Conference on Learning Representations, 2019. [24] Xie Chen, Yu Wu, Zhenghao Wang, Shujie Liu, and Jinyu Li. Developing real-time streaming transformer transducer for speech recognition on large-scale dataset. In ICASSP 2021 - 2021 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 5904-5908, 2021. [25] Jian Xue, Peidong Wang, Jinyu Li, Matt Post, and Yashesh Gaur. Large-Scale Streaming End-to-End Speech Translation with Neural Transducers. In Proc. Interspeech 2022, pp. 3263-3267, 2022. [26] Xutai Ma, Mohammad Javad Dousti, Changhan Wang, Jiatao Gu, and Juan Pino. SIMULEVAL: An evaluation toolkit for simultaneous translation. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 144-150, October 2020. [27] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, July 2002. [28] Evgeny Matusov, Gregor Leusch, Oliver Bender, and Hermann Ney. Evaluating machine translation output with automatic sentence segmentation. In Proceedings of the Second International Workshop on Spoken Language Translation, 2005 [29] Wei-Ning Hsu, Benjamin Bolte, Yao-Hung Hubert Tsai, Kushal Lakhotia, Ruslan Salakhutdinov, and Abdelrahman Mohamed. Hubert: Self-supervised speech representation learning by masked prediction of hidden units. IEEE/ACM Transactions on Audio, Speech, and Language Processing, Vol. 29, pp. 3451-3460, 2021. [30] Yuqing Tang, Chau Tran, Xian Li, Peng-Jen Chen, Naman Goyal, Vishrav Chaudhary, Jiatao Gu, and Angela Fan. Multilingual translation with extensible multilingual pretraining and finetuning. arXiv preprint arXiv:2008.00401, 2020. [31] Danni Liu, Gerasimos Spanakis, and Jan Niehues. Low-Latency Sequence-to-Sequence Speech Recognition and Translation by Partial Hypothesis Selection. In Proc. Interspeech 2020, pp. 36203624, 2020. [32] Xutai Ma, Yongqiang Wang, Mohammad Javad Dousti, Philipp Koehn, and Juan Pino. Streaming simultaneous speech translation with augmented memory transformer. In ICASSP 2021. 2021 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 7523-7527, 2021. [33] Peter Polák and Ondřej Bojar. Long-form end-to-end speech translation via latent alignment segmentation. arXiv preprint arXiv:2309.11384, 2023 ## A 参考情報 ## A. 1 Segmentation アルゴリズム Algorithm 1 中の $\operatorname{Segmentation}(\cdot)$ の擬似コードを Algorithm 2 に示す。処理手順は以下の通りである。 1. 過去の情報 context とチャンク chunkを連結して音声分割モデル $\operatorname{seg}(\cdot)$ に入力し、各フレームがセグメントに含まれている確率を予測する (行 6)。 2. thresholding (.) で、chunk に対応する確率の系列 probs を閾值処理し segments= $\left[s_{0}, s_{1}, \ldots, s_{\left.\lfloor X . O U T P U T \_S P S\right.\rfloor}\right]\left(s_{i} \in\{0,1\}\right)$ を得る (行 7)。 3. expand_list( ( ) で、segments の各要素を IN_OUT_RATIO 回繰り返した新しいリスト segments $=\left[s_{0}, s_{1}, \ldots, s_{\left.\lfloor X \cdot I N P U T \_S P S\right]}\right]$ を得る (行 8$)$ 。 4. findBos (.) と findEos(.) で、bos のインデックスのリスト $B_{b o s}$ と eos のインデックスのリスト $B_{e o s}$ をれぞれ得る (行 9-10)。ここで - $B_{\text {bos }}=\left[i \mid x_{i-1}=0\right.$ and $x_{i}=1$ for all $i \in\{1,2, \ldots,\lfloor X$. INPUT_SPS]\}] - $B_{\text {eos }}=\left[i \mid x_{i-1}=1\right.$ and $x_{i}=0$ for all $i \in\{1,2, \ldots,\lfloor X$. INPUT_SPS」\}] である。 5. 図 4 はチャンクの予測を (i) から (viii) の 8 パターンに分類したものである。このうちパターン (iv) と (viii)、パターン (iii)と (vii)を同様に扱い、context, $B_{\text {bos }}, B_{\text {eos }}$ の内容に応じて 6 通りの分岐処理を行う (行 11-24)。prefix はパターン (vi) で生じる次のセグメントのプレフィックスを管理する変数である。 図 4: 音声分割モデルの予測パターン ## A. 2 各音声分割手法の BLEU スコア 表 1: 音声分割手法の翻訳精度。括弧内はトップラインに対する分割手法の比。 ## A. 3 異なる閾値における音声分割の比較 (a) $t h r=0.1$. $400 \quad 600 \quad 800 \quad 1000 \quad 1200$ chunk size (c) $t h r=0.5$. (d) $t h r=0.7$. 図 5: 異なる閾値 $t h r$ における音声分割モデルの比較。 図 5 は、閾値 $t h r$ が大きく分割が積極的になるほど、音声分割モデルの精度の差が顕著に表れる様子を示す。
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-15.pdf
# タグ付き混合データ学習と自己教師あり学習による 同時通訳データを用いた End-to-End 同時音声翻訳 胡尤佳 福田りょう 西川勇太 加納保昌 須藤 克仁 中村哲 奈良先端科学技術大学院大学 [email protected] ## 概要 同時音声翻訳は、話し手の発話終了を待たずに漸進的に翻訳を行う技術である。高品質かつ低遅延の同時音声翻訳を実現するには、適宜省略や、話し手が話した内容をできるだけ早く訳出する等の、実際の通訳者の技法を同時通訳コーパスから学習することが有効であると期待される。本研究では、同時通訳データが不足している問題を軽減するため、同時通訳データに加えて話し手の発話終了を待ってから翻訳を開始する翻訳を前提としたオフラインデータと混合し、スタイルタグを用いて出力スタイルを区別する学習法を提案する。実験結果から、文の意味的類似度を測る評価における同時通訳テストデータでの翻訳性能向上の効果が、提案手法において示された。 ## 1 はじめに 同時音声翻訳 (SimulST) は、文末を待たずに話し手の発話を漸進的に翻訳する技術であり、話し手の発話終了を待ってから翻訳を開始するオフライン音声翻訳 (Offline ST) と比較し、低遅延での翻訳を実現できる。近年ではニューラルネットワークに基づく End-to-end の SimulST モデルが提案されているが [1,2]、大規模な同時通訳 (SI) データがなかったため、MuST-C [3] のような TED の字幕データからなるオフライン (Offline) データを用いて学習されてきた。SimulST は話し手の発話終了を待たずに漸進的に翻訳するという点で、通訳者が行う同時通訳の考え方に類似している。通訳者は、話し手の発話に追従するため、不必要な語の省略や、話し手が話した内容をできるだけ早く話すなどの技法を取り入れている。そのため、高品質で低遅延な同時音声翻訳を実現するには、SI データを使用して同時通訳の仕方を学習させることが有効であると期待される。 図1 自己教師あり学習による多段階学習とタグ付き混合データ学習を組み合わせた手法 特に、英語と日本語はそれぞれ SVO 言語、SOV 言語であることから、Offline 翻訳においては訳出される語順の違いが大きい。Offline データを用いて同時翻訳を学習してしまうと、訳出時に原言語で始めの方に出てきた内容が目的言語だと後の方に出てくるなどの場合があり、遅延が大きくなる恐れがある。英日の言語対での SI データはいくつかあるものの $[4,5,6,7]$ 、Offline データと比較して極めて少量である。本研究では、より多量に利用可能な Offline データもSI データの学習と同時に利用することで、 SI データが少量である問題に取り組む。与えられた英語の原文 (Source) に対する Offline と SI の日本語の例を図 2 に示す。OfflineとSI のスタイルには大きな違いがあり、図 2 では以下の違いがある。 ・Offline ではほとんどの原文の語が日本語に翻訳されているが、SIではいくつかの原文の語が省略されている。 -SI は Offline と比較し、文法的な流暢さが犠牲となっているが、原文の前半を後半より先に訳すことで、低遅延の翻訳を実現できる。 このような違いは、話し手の発話に追従できるように適宜省略を行いつつ、SI が通訳の同時性を重視していることから生まれる。したがって、SI データを用いてこうした翻訳を SimulST が学習することで、同時性の向上が期待できる。 学習方法として、SI データを用いてモデルを最初から学習する方法がまず考えられるが、データが不 図 2 英日での Offline と SI の違いの例。図中の実線は単語の対応を表す。例文は NAIST-SIC-Aligned [4] に含まれる。 足しており、モデルの学習が上手くいかない恐れがある。また、多量の Offline データで学習された事前学習済みモデルに対して SI データを Fine-tuning させる方法が考えられる。しかし、多量の Offline デー タで学習された事前学習済みモデルに対してそのまま少量の SI データを Fine-tuning させると、過学習を起こしやすく、省略でない部分も含めて過剩に省略してしまうモデルが作成される恐れがある。 本研究では、SIまたは Offline 出力を明示的に意味するスタイルタグが付与された混合データを用いて単一の SimulST モデルを学習する手法を提案する。スタイルタグを付与することにより、SIまたは Offline スタイルの出力を選択的に生成するようデコード時にモデルに指示することができる。また本研究では、一度作成されたモデルから生成された擬似 SI データをさらに次の学習に用いる自己教師あり学習を多段階に行う手法も組み合わせ、SI データが少量である問題のさらなる軽減を目指した。実験の結果、提案手法により、文の意味的類似度を測る評価手法である BLEURT、COMET、COMET-QE での改善を示したことが分かった。また、出力結果を見た結果、提案モデルは従来モデルと比較し、より SI スタイルの出力が期待できることが分かった。 ## 2 関連研究 本手法は、リソースの豊富な Offline 翻訳からリソースの乏しいSIへのドメイン適応と見なすことができる。ドメイン外モデルに対してドメイン内データを Fine-tuning させる手法は、いくつか考えられてきた $[8,9]$ 。Chu らは、多量のデータに基づくドメイン外モデルを用いて直接少量のドメイン内デー タを学習させると、小さいドメイン内データに過剩適応 (Overfitting) する課題を、ドメイン内、外デー タであることを表すタグを付与することにより軽減 した [9]。Tagged Back-translation [10] では、タグベー スの手法を逆翻訳に基づくData Augmentation に応用しており、NMT モデルの学習における逆翻訳ノイズに対処するため、オリジナルの原文と逆翻訳から得られた原文を区別するタグを付与している。本研究は、これらのタグベースの手法から着想を得ており、SI データの不足の課題に取り組む。 ## 3 提案手法 ## 3.1 タグ付き混合データ学習 本研究では、比較的多量な Offline データを用いて SI データの不足を補い、SimulST モデルを学習する方法を提案する。先行研究に従い [9]、学習では目的言語文字列の先頭にスタイルタグを付与し、推論時には最初に指定されたタグを Forced decoding し、 タグが指すスタイルの出力の訳出を行う。本研究では、SIの場合は<si>、Offlineの場合は<off>、の 2 種類のタグを用いる。 ## 3.2 自己教師あり学習による多段階学習と タグ付き混合データ学習 SI データの不足をさらに軽減するために、本研究では擬似生成された SI データを用いて段階的に学習させる自己教師あり学習を、タグ付き混合デー タ学習の手法と組み合わせる。自己教師あり学習を利用したタグ付き混合データ学習の概要を図 1 に示す。まず、すでに学習された Style- $R_{i}$ モデルに対して Offline 学習データの原言語音声を入力し、出力時にくsi〉を Forced decoding することで SI スタイルの擬似 SI データを生成させる。出力された擬似 SI データを、Round $i+1\left(R_{i+1}\right)$ データとする。次に、生成された $R_{i+1}$ データに<si>タグを付与し、オリジナルの Offline、SI データに追加して、元モデルの Style- $R_{i}$ モデルに対してタグ付き混合データ学習を 表 1 実験で利用した Offline とSI データのサイズ 行い、学習されたモデルを Style- $R_{i+i}$ とする。この操作を多段階に繰り返すことで、擬似生成されるデータの質が向上していき、SimulST モデルの性能向上ができることが期待される。 ## 4 実験 ## 4.1 データセット 本研究で用いる Offline, SI データは両方とも、原言語音声、原言語テキスト、目的言語テキストにより構成される ST データを用いた。Offline データは MuST-C [3] v2 英日データ、SI データは NAISTSIC-Aligned [4] 1)を用いた。NAIST-SIC-Aligned は、 NAIST-SIC [7] を用いて、原言語テキストと目的言語テキストの文をアライメント、Filtering して構築された。NAIST-SIC-Aligned における、INTRA、 AUTO-DEV、AUTO-TEST データをそれぞれSI の学習、開発、評価データとした。これらのSI データのうち、英語の Forced aligner である Gentle ${ }^{2)}$ を用いて、SI データの英語のテキストと MuST-C の対応する音声とのアライメントを取れるものをデータとして利用した ${ }^{3}$ )実験に使用したデータセットのサイズを表 1 に示す。最終的な評価には Offline データではなく、SI 評価データを用いた。 ## 4.2 同時音声翻訳 Fine-tuning 前のモデルは Fukuda ら [11]の base モデルを用いている。base は、事前学習済みモデルである HuBERTを Encoder、mBARTを Decoder として初期化されたモデルを複数の Offline ST データで Fine-tuning して作成されている。Fine-tuning については、言及がない限り [12] での Fine-tuning 時の設定に従う。文単位モデルと、[12] のように Prefix Alignment [13] をべースにしたモデルで比較した際、前者の方がベースライン手法の性能が高い傾向があったため、本研究では前者を採用した。 Fine-tuning の際に以下の設定で実験を行ったものをそれぞれべースライン、提案手法とした。  ベースライン: Offline, SI それぞれ、Offline, SI デー タで Fine-tuning したモデル。 提案手法 1: Style, Style-Up タグ付き混合データで Fine-tuning したモデル (-Up は SI データを upsampling したモデル)。 提案手法 2: Style- $R_{0}$, Style- $R_{1}$, Style- $R_{2}$, Style- $R_{3}$自己教師あり学習をタグ付き混合データ学習に適用したモデル。Style- $R_{3}$ は、 $R_{0}$ から $R_{3}$ まで使って多段階学習させたモデル4)。 また、Fukuda らと同様に、同時音声翻訳のための段階的な出力のためのデコード手法は Local Agreement (LA) [14]を採用した。それぞれのモデルにおいて、部分出力を得るための部分入力音声のセグメントサイズの単位を $\{200,400,600,800,1000\} \mathrm{ms}$ の 5 パターンでデコードを行い、遅延域のコントロールを行った。遅延評価では部分訳出の終了タイミングを考慮した遅延評価指標である Average Token Delay (ATD) [15] を用い、性能評価には、参照訳との単語一致度を測る BLEU、参照訳との出力文の文の意味的類似度を測る BLEURT [16]、参照訳、出力文だけでなく原言語参照訳との類似度も考慮した COMET [17], COMET-QEを用いた。 ## 5 実験結果と考察 ベースラインと提案手法の遅延評価 (ATD) と性能評価 (BLEU, BLEURT, COMET-QE) の関係を図 3 に示す 5)。実験結果から、BLEURT, COMET-QE において、いずれの場合でも提案手法で性能向上がみられた。提案法において、少量のSI データを upsampling し、かさ増した場合の効果がこれらの評価手法では見られず、むしろ低下を招く場合があった。その一方で、自己教師あり学習による擬似 SI データを用いた場合には翻訳性能の向上が見られ、少量のSI データの upsampling と比較し、より多様性のある擬似 SI データを用いることの有効性が示された。自己教師あり学習による多段階学習を行った場合とそうでない場合を比べると、前者の方がより性能向上の傾向が見られた。 一方で、BLEU における評価では、提案手法べー スラインである SIが最も良い結果となり、BLEURT, COMET-QE の場合と傾向が大きく異なる。SI 評価 $ データを生成する元モデルとして Style を用い、 $R_{0}$ データを base に対して適用したモデルを Style- $R_{0}$ とした。 5) COMET での実験結果は、COMET-QE と傾向が類似しており、付録に添付した。 } 図 3 ベースラインと提案法における遅延評価 (ATD) と性能評価 (BLEU, BLEURT, COMET-QE) の関係 表 2 ベースラインと提案法における出力文と参照文の例 (入力音声のセグメント単位:400ms) 図 4 SI 評価データにおける参照訳と出力文の長さ比 データにおける出力文と参照訳との長さ比較を図 4 に示す。提案手法と比較すると、SI model からの出力長は短い傾向にあり、参照訳に最も近い長さの出力がされていることで、BLEU の向上に寄与したと考えられる。しかし、一部の SI 評価データに含まれる参照訳は、本来訳出すべき原言語音声の内容を過剩に削った内容で訳している場合があった。例文を表 2 に示す。例文 1 においては、SI model が過剩に省略を行っているものの、参照訳が過剰に短い。 このような過剰に短い参照訳を含む SI 学習データで直接モデルが学習されたことで、SI model は過剩に省略を行うモデルになったと考えられ、例えば例文 2 の SI model 出力では、「they were hacked into」の部分が翻訳されず訳抜けになっている。 このような過剰に短い参照訳が、SI 評価データに多く含まれていたことから、参照訳のみに頼った評価が信頼できない恐れがある。そこで本研究では、 COMET-QE のような、原言語テキストをべースにした評価も行った。COMET-QEでの結果は、今回採用した評価指標の中で、それぞれの手法間の差が最も大きく見られた。特に、自己教師あり学習を取り入れた提案手法 2 においては、Style- $R_{0}$ から Style- $R_{3}$ へ多段階学習を繰り返すことにより、低遅延かつ高品質の翻訳がモデルで実現できることが期待される。また、図 4 より、提案法がベースラインと比べ出力が長く、自己教師あり学習による多段階学習を繰り返すほどその傾向がみられることが分かる。 しかし実際の出力では、表 2 に示すように、「これは」、「なぜなら」、「彼らは」などの、内容に大きく影響しないつなぎ言葉や主語などがべースラインと比べ多く出力されている傾向があり、これらの語を除いても意味が通じるケースが多く、性能に大きく影響しないと考えられる。 ## 6 おわりに 本研究では, 同時音声翻訳において少量のSI デー タを用いた学習手法としてタグ付き混合学習を提案し、自己教師あり学習による多段階学習も取り入れた。実験結果から、より同時通訳らしい同時音声翻訳が提案手法により期待できることが分かった。今後の課題として、本研究でのモデルをべースに、通訳者が行うような適宜省略が可能なモデルの作成や、出力結果の人手評価を考えている。 ## 謝辞 本研究の一部は JSPS 科研費 JP21H05054 と JST SPRING プログラム JPMJSP2140 の助成を受けたものである。 ## 参考文献 [1] Xutai Ma, Juan Pino, and Philipp Koehn. SimulMT to SimulST: Adapting simultaneous text translation to endto-end simultaneous speech translation. In Proceedings of the 1st Conference of the Asia-Pacific Chapter of the Association for Computational Linguistics and the 10th International Joint Conference on Natural Language Processing, pp. 582-587, Suzhou, China, December 2020. Association for Computational Linguistics. [2] Yi Ren, Jinglin Liu, Xu Tan, Chen Zhang, Tao Qin, Zhou Zhao, and Tie-Yan Liu. SimulSpeech: End-to-end simultaneous speech to text translation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 3787-3796, Online, July 2020. Association for Computational Linguistics. [3] Mattia A. Di Gangi, Roldano Cattoni, Luisa Bentivogli, Matteo Negri, and Marco Turchi. MuST-C: a Multilingual Speech Translation Corpus. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 2012-2017, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [4] Jinming Zhao, Yuka Ko, Ryo Fukuda, Katsuhito Sudoh, Satoshi Nakamura, et al. NAIST-SIC-Aligned: Automatically-Aligned English-Japanese Simultaneous Interpretation Corpus. arXiv preprint arXiv:2304.11766, 2023. [5] Hitomi Toyama, Shigeki Matsubara, Koichiro Ryu, Nobuo Kawaguchi, and Yasuyoshi Inagaki. CIAIR Simultaneous Interpretation Corpus. In Proceedings of Oriental COCOSDA, 2004. [6] Hiroaki Shimizu, Graham Neubig, Sakriani Sakti, Tomoki Toda, and Satoshi Nakamura. Constructing a speech translation system using simultaneous interpretation data. In Proceedings of IWSLT, 2013. [7] Kosuke Doi, Katsuhito Sudoh, and Satoshi Nakamura. Large-scale English-Japanese simultaneous interpretation corpus: Construction and analyses with sentence-aligned data. In Proceedings of the 18th International Conference on Spoken Language Translation (IWSLT 2021), pp. 226-235, Bangkok, Thailand (online), August 2021. Association for Computational Linguistics. [8] Rico Sennrich, Barry Haddow, and Alexandra Birch. Controlling politeness in neural machine translation via side constraints. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 35-40, San Diego, California, June 2016. Association for Computational Linguistics. [9] Chenhui Chu, Raj Dabre, and Sadao Kurohashi. An empirical comparison of domain adaptation methods for neural machine translation. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 385-391, Vancouver, Canada, July 2017. Association for Computational Linguistics. [10] Isaac Caswell, Ciprian Chelba, and David Grangier. Tagged back-translation. In Proceedings of the Fourth Conference on Machine Translation (Volume 1: Research Papers), pp. 53-63, Florence, Italy, August 2019. Association for Computational Linguistics. [11] Ryo Fukuda, Yuta Nishikawa, Yasumasa Kano, Yuka Ko, Tomoya Yanagita, Kosuke Doi, Mana Makinae, Katsuhito Sudoh, Sakriani Sakti, and Satoshi Nakamura. NAIST Simultaneous Speech Translation System for IWSLT 2023. In Proceedings of the 20th International Conference on Spoken Language Translation (IWSLT2023), pp. 330-340, 2023. [12] Yuka Ko, Ryo Fukuda, Yuta Nishikawa, Yasumasa Kano, Katsuhito Sudoh, and Satoshi Nakamura. Tagged endto-end simultaneous speech translation training using simultaneous interpretation data. In Elizabeth Salesky, Marcello Federico, and Marine Carpuat, editors, Proceedings of the 20th International Conference on Spoken Language Translation (IWSLT 2023), pp. 363-375, Toronto, Canada (in-person and online), July 2023. Association for Computational Linguistics. [13] Yasumasa Kano, Katsuhito Sudoh, and Satoshi Nakamura. Simultaneous neural machine translation with prefix alignment. In Proceedings of the 19th International Conference on Spoken Language Translation (IWSLT 2022), pp. 22-31, Dublin, Ireland (in-person and online), May 2022. Association for Computational Linguistics. [14] Danni Liu, Gerasimos Spanakis, and Jan Niehues. LowLatency Sequence-to-Sequence Speech Recognition and Translation by Partial Hypothesis Selection. In Proc. Interspeech 2020, pp. 3620-3624, 2020. [15] Yasumasa Kano, Katsuhito Sudoh, and Satoshi Nakamura. Average Token Delay: A Latency Metric for Simultaneous Translation. In Proc. INTERSPEECH 2023, pp. 44694473, 2023. [16] Thibault Sellam, Dipanjan Das, and Ankur P Parikh. Bleurt: Learning robust metrics for text generation. In Proceedings of ACL, 2020. [17] Ricardo Rei, Craig Stewart, Ana C Farinha, and Alon Lavie. Comet: A neural framework for $\mathrm{mt}$ evaluation. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 2685-2702, 2020. ## A 付録 図 5 ベースラインと提案法における遅延評価 (ATD) と性能評価 (COMET) の関係
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-16.pdf
# JParaCrawl v4.0: クラウドソーシングを併用した 大規模対訳コーパスの構築 森下 睦, 帖佐 克己, 永田 昌明 ${ }^{1}$ NTTコミュニケーション科学基礎研究所 [email protected] ## 概要 現在の機械翻訳モデルは主に対訳コーパスを用いて学習されており、その翻訳精度は対訳コーパスの質と量に大きく依存している。本稿では、新たにウェブをクロールし日英対訳文を抽出することで大規模日英対訳コーパスを構築し、翻訳精度の底上げを狙う。なおこの際クラウドソーシングを活用して対訳文が存在するウェブサイトを発見することで、効率的な対訳文収集を目指す。今回ウェブから収集した対訳文と以前作成した日英対訳コーパス JParaCrawl v3.0 を合わせることで、合計 4400 万文を超える日英最大規模の対訳コーパスを作成することに成功した。実験により、新たな対訳コーパスを用いて学習した翻訳モデルが様々な分野で高い翻訳精度を発揮することを示す。なお、今回作成した対訳コーパスを JParaCrawl v4.0と名付け、我々のウェブサイト上で研究目的利用に限り無償公開する予定である。1) ## 1 はじめに 現在のニューラル機械翻訳モデルは、主に対訳コーパスを用いた教師ありの手法 $[2,3,4,5]$ で学習されている。また大規模言語モデル (LLM) の事前学習時に対訳コーパスを使用することで、多言語文の理解・生成性能が向上することが知られており [6]、対訳コーパスの重要性はさらに増している。これらのモデル学習時、対訳コーパスの質と量が翻訳・言語理解性能に大きな影響を与えること知られているが、大規模対訳コーパスが一般に公開されている言語対は限られている。例えば、独英などの言語対ではすでに数億文の対訳文が公開されているものの、日英ではまだ同程度のものは存在せず、モデル学習時に大きな問題となっている。そのため、本 1)本稿は JParaCrawl v3.0 発表時の原稿 [1] をもとに加筆修正したものである。稿ではさらに大規模なウェブベースの日英対訳コー パスを構築する。現在、日英で最大規模の対訳コー パスの 1 つは約 2100 万文の対訳文を含む JParaCrawl v3.0 [7] であり、これはウェブを大規模にクロールし対訳文を自動的に抽出することで構築されている。本コーパスは欧州言語対と比較すると小規模であり、2022 年を最後に更新が止まっているため、最新の情報を含んでいない。そのため、本研究ではウェブを全面的に再クロールし、対訳文を抽出することで JParaCrawl コーパスを拡大/更新する。本研究では、この際クラウドワーカーから日英対訳文が存在するウェブサイトの報告を受けることで、より効率良く対訳文を抽出することを目指す。また、新たに作成した対訳コーパスを用いて、英日および日英の機械翻訳の精度がどのように向上するかを実験的に示す。本研究で作成した対訳コーパスは JParaCrawl v4.0 と名付け、今後の研究のために我々のウェブサイト2)で公開する予定である。 ## 2 関連研究 対訳コーパスは様々な文書から対訳文を抽出することで作成されることが多い。例えば、欧州議会の議事録から作成された Europarl [8]、国連の翻訳文書から作成された UN 対訳コーパス [9] などがある。 これらの文書は、通常プロの翻訳者が翻訳しており、文書 ID などのメタデータを持っていることもあるので、容易に対訳文を抽出することができる。 しかし、一般にメタデータが整った状態で公開されている対訳文書は多くない。 近年では、ウェブから対訳文を抽出する手法も多く提案されている。ウェブ上には 2 言語以上で書かれたウェブサイトが多数存在し、こういったウェブサイトから対訳文を抽出する。ウェブ上には、様々な言語や分野の対訳文が存在しており、大規模な対  表 1 JParaCrawl コーパスに含まれる重複を取り除いた対訳文数および英語側単語数 表 2 収集対象ウェブサイト数および対訳文抽出成功ウェブサイト数 訳コーパスを作成するための有望な情報源である。 ウェブから対訳文を抽出する初期の研究としては、大規模な分散システムを構築し対訳文を抽出したもの [10]、Common $\mathrm{Crawl}^{3}$ )から対訳文を抽出したもの [11] などがある。また、多言語文埋め込みを用いた対訳文対応手法を用いて、Wikipedia や Common Crawl から大規模な多言語対訳コーパスを作成する研究も報告されている $[12,13]$ 。 また、ParaCrawl プロジェクトはヨーロッパ言語の大規模な対訳コーパスをウェブから継続的に作成している [14]。我々は以前この活動にヒントを得て、大規模な対訳コーパスが存在しない日英向けの大規模な対訳コーパスを作成した $[15,7]$ 。このコー パスは JParaCrawl と名付けられ、2100万文を超える対訳文を含む日英における最大規模の対訳コーパスとなっている。しかし、JParaCrawl コーパスは、独英などの欧州言語対と比較するとまだ小規模であり、これをもとにした翻訳モデルの精度も欧州言語対と比較すると低精度である。ゆえに、さらに大きな日英対訳コーパスの作成が求められている。本研究では、ウェブを新たにクロールし対訳文をさらに抽出することで、JParaCrawl コーパスをさらに拡張することを目指す。 ## 3 JParaCrawl v4.0 本研究では、ウェブから対訳文を抽出することで大規模な対訳コーパスを構築する。この際の基本的な収集作業は以下の 4 ステップとなる。  ## 3.1 対訳文を含むウェブサイトの発見 本研究ではまず対訳文が存在すると思われるウェブサイト (対訳ウェブサイト)をリストアップし、これらのサイトから対訳文を抽出することを考える。本工程は成果物となる対訳コーパスの質と量に大きく影響する。そのため、JParaCrawl v3.0 以前で使用していた CommonCrawl 解析による手法に加え、クラウドソーシングを活用した手法、既存対訳コーパスの解析による手法を併用して対訳ウェブサイトリストを作成した。各手法により列挙されたクロール対象ドメイン数を表 2 に示す。 CommonCrawl 解析 CommonCrawl 上のテキストデータを言語判定ツール $\mathrm{CLD} 2^{4}$ によって解析し、各ドメインの言語別データ量を得る。その後、英語と日本語が同量程度含まれるウェブサイトには対訳文が存在する可能性があるという仮説に基づき、 クロール対象ウェブサイトを列挙する。本研究では、2021 年 9 月から 2023 年 6 月までに公開された Common Crawl のテキストアーカイブデータ 12 セット (合計 104TB) を分析対象とし、ウェブサイトの規模が大きく、英語と日本語の文章が同程度であるウェブサイトを列挙した。2021 年 8 月以前に公開されたデータについては、JParaCrawl v3.0 作成時に既に分析済みであるため除外した。なお、本手順には ParaCrawl プロジェクトが提供する extractor5)を使用した。JParaCrawl v2.0 までは本手法のみを使用した。JParaCrawl v3.0では本手法を主力とし、試験的に一部次項のクラウドソーシングを実施した。 クラウドソーシングの活用 Morishita ら [16] は、 クラウドワーカーはこれまでの経験をもとに対訳ウェブサイトを手動で効率的に列挙できるという仮説を立て、ドメイン適応のための対訳文収集時にクラウドソーシングを活用する手法を提案した。 また、JParaCrawl v3.0 作成時は、試験的にクラウドソーシング由来の対訳ウェブサイトを少量クロールし、CommonCrawl 由来のウェブサイトより対訳文抽出効率が高いことを確認した [7]。上記の結果を受け今回の対訳コーパス構築時も、より大規模にクラウドソーシングを活用することで効率的に対訳文を抽出できると考えた。本研究では、対象ドメインを絞らずクラウドワーカーに日英対訳が存在するウェブサイトの報告を依頼し、列挙されたウェブサ 4) https://github.com/CLD2Owners/cld2 5) https://github.com/paracrawl/extractor イトをクロール対象とした。6) 既存対訳コーパスの解析本研究では、これまで対訳文が大量に抽出できたウェブサイトは、時間の経過により有用な対訳文が増加している可能性があるという仮説を立てた。前回作成した JParaCrawl v3.0には、各対訳文がどのドメインから得られたものかがメタデータとして付与されている。そのため、JParaCrawl v3.0 から多く対訳文が抽出できた上位ドメインを列挙し、再クロール対象した。 ## 3.2 ウェブサイトのクロール 次に、前節で列挙されたウェブサイト全体をクロールする。本研究では、Heritrix7) を用いて、各ウェブサイトに対して最大 48 時間のクローリングを行った。この際 JParaCrawl v3.0 にならい、プレーンテキストに加え、Word、PDFファイルについてもクロール対象とした。 ## 3.3 対訳文抽出 次に、クロールされたウェブサイトから対訳文を抽出する。本手順には、ParaCrawl プロジェクトが提供するBitextor8)を日本語に対応させ使用した。対訳文書と対訳文の対応付けには、機械翻訳を用いた対応付けツールbleualign [17]を使用した。このツールでは、まず機械翻訳を用いて日本語文を英文に翻訳し、BLEU スコアを最大化する日英の文ペアを発見する。この際、日英翻訳には JParaCrawl v3.0 で学習した Transformer ベースのニューラル機械翻訳(NMT)モデルを使用した。 ## 3.4 ノイズ除去 最後の手順として、正しく対応付けられていない、翻訳が不正確など、学習時のノイズとなる文対をフィルタリングする。本手順には、 Bicleaner9) [18] を使用した。 ## 3.5 作成結果 上記手順により得られたクリーンな対訳文と JParaCrawl v3.0を結合し、重複文を削除した。これにより 4400 万文以上を含む新しい大規模日英対  訳コーパス JParaCrawl v4.0 の構築に成功した。表 1 に、これまでの JParaCrawl および今回作成した $\mathrm{v} 4.0$ の重複を削除した対訳文数および英語側単語数を示す。また、表 2 に、クリーンな対訳文を 1 文以上含んでいた対訳ウェブサイト数 (抽出成功数)を示す。CommonCrawl 由来の収集対象と比較して、クラウドソーシングにより列挙された対訳ウェブサイトは、対訳文抽出の成功率が高くより効率的にクロールできていることがわかる。なお、クラウドソーシングにより列挙されたウェブサイトのうち、 CommonCrawl により得られたサイトと重複していたものは約 6\%であり、ほとんどが CommonCrawl からは発見できない対訳ウェブサイトであったことも特筆に值する。 ## 4 実験 本節では、新たに作成した JParaCrawl v4.0 の翻訳精度への影響を確認するために、NMT モデルを学習し様々なテストセットでその精度を評価した。以降では、使用したテストセットの詳細およびモデル学習時の設定について述べる。 ## 4.1 実験設定 ## 4.1.1 テストセット 様々な分野で NMT モデルの精度を評価するために、19 種類のテストセットでモデルを評価する。付録表 4 に使用するテストセットの分野および統計情報を示す。これらには、以前の JParaCrawl 発表時に報告した ASPEC [19] (科学技術論文), JESC [20] (映画字幕), KFTT [21] (Wikipedia 記事), TED (tst2015) [22] (講演) などが含まれる。さらに本実験では、WMT22、WMT23 の General 翻訳夕スク $[23,24]$ で使用されたテストセットを追加した。 これらは、汎用的な機械翻訳精度を測ることを目的として設計され、ニュース文、対話文、SNS 上の文書、インターネット通販サイトの文書等が含まれている。なおシェアードタスク用テストセットの中には、特定の翻訳方向 (英 $\rightarrow$ 日など) で使用することを前提としたものもあるが、参考までに英日、日英の両方向で評価した。また付録表 5 に示すように、いくつかのコーパスには学習データが付属しているものがある。比較のため、これらの学習データで分野別モデルを学習した際のスコアを付録の表 6 に示す。 表 3 JParaCrawl で学習した翻訳モデルの自動評価値 (BLEU / COMET)。JParaCrawl モデルのうち最高スコアのものを太字で示す。E-J は英日、J-E は日英翻訳を想定して作成されたテストセットであることを示す。 ## 4.1.2 学習設定 翻訳モデルの学習には fairseq [25]を用い、 small、base、bigの 3 つの異なる大きさの Transformer [5] モデルを学習した。付録表 7 に詳細な学習設定を示す。以前の JParaCrawl の報告に基づき、 TED (tst2015) では small モデルを、KFTT では base モデルを、その他のテストセットでは big モデルを使用した。自動評価値として sacreBLEU [26] を用いた BLEU スコア [27]、Unbabel/wmt22-comet-da モデルを用いた COMET スコア [28] を報告する。なお、以前の実験との整合性を保つために、すべてのテストセットを NFKC 正規化した。詳細な実験設定については付録 Aに示す。 ## 4.2 実験結果 表 3 に様々なテストセットにおける BLEU スコアおよび COMET スコアを示す。以降では BLEU スコアより人手評価との相関が高いとされる COMET スコアを中心に議論する [29]。JParaCrawl v4.0で学習したモデルは、19 のテストセットのうち英日では 16、日英では 17 のテストセットで以前の JParaCrawl を上回る精度を達成した。科学技術論文、ニュース、SNS などの様々な分野において、新しい JParaCrawl が NMT モデルの精度を押し上げている。WMT20、21ニュース翻訳タスクの精度向上ついては、以前報告されているように、ウェブペー ジから近年のニュース文に関連した対訳文を抽出 できたことによるものだと考えられる。[7]。また、 WMT22、23 General 翻訳タスクについても精度が向上している。複数領域の対訳文から構成されている General 翻訳タスクテストセットと様々な領域を含むウェブデータの相性が良いことが要因の一つとして考えられる。 ## 5 おわりに 本研究では、これまでの大規模日英対訳コーパス JParaCrawl をさらに拡張した JParaCrawl v4.0を作成した。本対訳コーパスは、従来の CommonCrawl 解析に加え、クラウドソーシングの活用および既存対訳コーパスの解析を行い、対象となったウェブサイトをクロール、対訳文抽出を行うことで作成した。新たな JParaCrawl v4.0は 4400 万以上の対訳文を含んでおり、これは JParaCrawl v3.0 の倍以上の大きさである。本対訳コーパスを用いることで、様々な分野の翻訳精度が向上することを実験的に確認した。今後の課題としては、継続的な JParaCrawl の更新や、より優れた対訳ウェブサイト検出方法/対訳文抽出手法/フィルタリング手法の提案などが挙げられる。また、より大規模な対訳モデルで本コーパスを学習した際の翻訳精度や、LLM で本コーパスを活用した際の効果は計測できておらず、今後取り組んでいきたいと考えている。なお、本研究で作成した JParaCrawl v4.0 は我々のウェブサイトで研究目的に限り無償で公開する予定である。 ## 参考文献 [1] 森下睦, 帖佐克己, 鈴木潤, 永田昌明. JParaCrawl v3.0: 大規模日英対訳コーパス. 言語処理学会第 28 回年次大会 (NLP2022), 2022. [2] Ilya Sutskever, Oriol Vinyals, and Quoc V. Le. Sequence to sequence learning with neural networks. In Proceedings of the 28th Annual Conference on Neural Information Processing Systems (NeurIPS), pp. 3104-3112, 2014. [3] Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. In Proceedings of the 3rd International Conference on Learning Representations (ICLR), 2015. 4] Minh-Thang Luong, Hieu Pham, and Christopher D. Manning. Effective of the Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1412-1421, 2015. [5] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Proceedings of the 31st Annual Conference on Neural Information Processing Systems (NeurIPS), pp. 6000-6010, 2017. [6] Rohan Anil, et al. Palm 2 technical report. arXiv preprint arXiv:2305.10403, 2023. [7] Makoto Morishita, Katsuki Chousa, Jun Suzuki, and Masaaki Nagata. JParaCrawl v3.0: A large-scale English-Japanese parallel corpus. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 6704-6710, 2022 [8] Philipp Koehn. Europarl: A parallel corpus for statistical machine translation. In Proceedings of the Machine Translation Summit X, pp. 79-86, 2005. [9] Micha 1 Ziemski, Marcin Junczys-Dowmunt, and Bruno Pouliquen. The united nations parallel corpus v1.0. In Proceedings of the 10th International Conference on Language Resources and Evaluation (LREC), pp. 3530-3534, 2016. [10] Jakob Uszkoreit, Jay M. Ponte, Ashok C. Popat, and Moshe Dubiner. Large scale parallel document mining for machine translation. In Proceedings of the 23rd International Conference on Computational Linguistics (COLING), pp. 1101-1109,2010. [11] Jason R Smith, Herve Saint-Amand, M Plamada, P Koehn, C Callison-Burch, and Adam Lopez. Dirt cheap web-scale parallel text from the common crawl. In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (ACL), pp. 1374-1383, 2013. [12] Holger Schwenk, Vishrav Chaudhary, Shuo Sun, Hongyu Gong, and Francisco Guzmán. WikiMatrix: Mining $135 \mathrm{~m}$ parallel sentences in 1620 language pairs from Wikipedia. arXiv preprint arXiv:1907.05791, 2019. [13] Holger Schwenk, Guillaume Wenzek, Sergey Edunov, Edouard Grave, and Armand Joulin. CCMatrix: Mining billions of high-quality parallel sentences on the web. arXiv preprint arXiv:1911.04944, 2019. [14] Marta Bañón, Pinzhen Chen, Barry Haddow, Kenneth Heafield, Hieu Hoang, Miquel Esplà-Gomis, Mikel L. Forcada, Amir Kamran, Faheem Kirefu, Philipp Koehn, Sergio Ortiz Rojas, Leopoldo Pla Sempere, Gema RamirezSánchez, Elsa Sarrías, Marek Strelec, Brian Thompson, William Waites, Dion Wiggins, and Jaume Zaragoza. ParaCrawl: Web-scale acquisition of parallel corpora. In Proceedings of the 58th Annual Meeting of the Association for corpora. In Proceedings of the 58th Annual Meeting of [15] Makoto Morishita, Jun Suzuki, and Masaaki Nagata. JParaCrawl: A large scale web-based English-Japanese parallel corpus. In Proceedings of the 12th International Conference on Language Resources and Evaluation (LREC), pp. 3603-3609, 2020 [16] Makoto Morishita, Jun Suzuki, and Masaaki Nagata. Domain adaptation of machine translation with crowdworkers. In Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing: Industry Track, pp. 606-618, 2022. [17] Rico Sennrich and Martin Volk. Iterative, MT-based sentence alignment of parallel texts. In Proceedings of the 18th Nordic Conference of Computational Linguistics (NODALIDA), pp. 175-182, 2011 [18] Víctor M. Sánchez-Cartagena, Marta Bañón, Sergio Ortiz-Rojas, and Gema Ramírez-Sánchez. Prompsit's submission to WMT 2018 parallel corpus filtering shared task. In Proceedings of the 3rd Conference on Machine [19] Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. ASPEC: Asian scientific paper excerpt corpus. In Proceedings of the 10th International Conference on Language Resources and Evaluation (LREC), 2016. [20] R. Pryzant, Y. Chung, D. Jurafsky, and D. Britz. JESC: Japanese-English Subtitle Corpus. arXiv preprint arXiv:1710.10639, 2017. [21] Graham Neubig. The Kyoto free translation task. http://www. phontron.com/kftt, 2011. [22] Mauro Cettolo, Christian Girardi, and Marcello Federico. WIT3: web inventory of transcribed and translated talks. In Proceedings of the 16th Annual Conference of the European Association for Machine Translation (EAMT), pp. 261-268, 2012. [23] Tom Kocmi, Rachel Bawden, Ondřej Bojar, Anton Dvorkovich, Christian Federmann, Mark Fishel, Thamme Gowda, Yvette Graham, Roman Grundkiewicz, Barry Haddow, Rebecca Knowles, Philipp Koehn, Christof Monz, Makoto Morishita, Masaaki Nagata, Toshiaki Nakazawa, Michal Novák, Martin Popel, and Maja Popović. Findings of the 2022 conference on machine translation (WMT22). In Proceedings of the Seventh Conference on Machine Translation (WMT), pp. $1-45,2022$. [24] Tom Kocmi, Eleftherios Avramidis, Rachel Bawden, Ondřej Bojar, Anton Dvorkovich, Christian Federmann, Mark Fishel, Markus Freitag, Thamme Gowda, Roman Grundkiewicz, Barry Haddow, Philipp Koehn, Benjamin Marie, Christof Monz, Makoto Morishita, Kenton Murray, Makoto Nagata, Toshiaki Nakazawa, Martin Popel, Maja Popović, and Mariya Shmatova. Findings of the 2023 conference on machine translation (WMT23): LLMs are here but not quite there yet. In Proceedings of the Eighth Conference on Machine Translation, pp. 1-42, 2023. [25] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan $\mathrm{Ng}$, David Grangier, and Michael Auli. fairseq: A fast, extensible toolki for sequence modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL HLT), pp. 48-53, 2019. [26] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the 3rd Conference on Machine Translation (WMT), pp. 186-191, 2018. [27] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. BLEU: method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 311-318, 2002 [28] Ricardo Rei, Craig Stewart, Ana C Farinha, and Alon Lavie. COMET: A neural framework for MT evaluation. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 2685- [29] Markus Freitag, Nitika Mathur, Chi-kiu Lo, Eleftherios Avramidis, Ricardo Rei, Brian Thompson, Tom Kocmi, Frederic Blain, Daniel Deutsch, Craig Stewart, Chrysoula Zerva, Sheila Castilho, Alon Lavie, and George Foster Results of WMT23 metrics shared task: Metrics might be guilty but references are not innocent. In Proceedings of the Eighth Conference on Machine Translation, pp. 578-628, 2023 . [30] Matīss Rikters, Ryokan Ri, Tong Li, and Toshiaki Nakazawa. Designing the business conversation corpus. In Proceedings of the 6th Workshop on Asian Translation (WAT), pp. 54-61, 2019. [31] Loïc Barrault, Magdalena Biesialska, Ondřej Bojar, Marta R. Costa-jussà, Christian Federmann, Yvette Graham, Roman Grundkiewicz, Barry Haddow, Matthias Huck, Eric Joanis, Tom Kocmi, Philipp Koehn, Chi-kiu Lo, Nikola Ljubešić, Christof Monz, Makoto Morishita, Masaaki Nagata, Toshiaki Nakazawa, Santanu Pal, Matt Post, and Marcos Zampieri. Findings of the 2020 conference on machine translation (WMT20). In Proceedings of the 5th Conference on Machine Translation (WMT), pp. 1-55, 2020 [32] Farhad Akhbardeh, Arkady Arkhangorodsky, Magdalena Biesialska, Ondře Bojar, Rajen Chatterjee, Vishrav Chaudhary, Marta R. Costa-jussa, Cristina España-Bonet, Angela Fan, Christian Federmann, Markus Freitag, Yvette Graham, Roman Grundkiewicz, Barry Haddow, Leonie Harter, Kenneth Heafield, Christopher Homan, Matthias Huck, Kwabena AmponsahKaakyire, Jungo Kasai, Daniel Khashabi, Kevin Knight, Tom Kocmi, Philipp Koehn, Nicholas Lourie, Christof Monz, Makoto Morishita, Masaaki Nagata, Ajay Nagesh, Toshiaki Nakazawa, Matteo Negri, Santanu Pal, Allahsera Auguste Tapo, Marco Turchi, Valentin Vydrin, and Marcos Zampieri. Findings of the 2021 conference on machine translation (WMT21). In Proceedings of the 6th Conference on Machine Translation (WMT), pp. 1-93, 2021. [33] Xian Li, Paul Michel, Antonios Anastasopoulos, Yonatan Belinkov, Nadir K Durrani, Orhan Firat, Philipp Koehn, Graham Neubig, Juan M. Pino, and Hassan Sajjad. Findings of the first shared task on machine translation robustness. In Proceedings of the 4th Conference on Machine Translation (WMT), 2019. [34] Lucia Specia, Zhenhao Li, Juan Pino, Vishrav Chaudhary, Francisco Guzmán, Graham Neubig, Nadir Durrani, Yonatan Belinkov, Philipp Koehn, Hassan Sajjad, Paul Michel, and Xian Li. Findings of the WMT 2020 shared task on machine translation robustness. In Proceedings of the 5th Conference on Machine Translation (WMT), pp. 76-91, 2020. [35] Antonios Anastasopoulos, Ondřej Bojar, Jacob Bremerman, Roldano Cattoni, Maha Elbayad, Marcello Federico, Xutai Ma, Satoshi Nakamura, Matteo Negri, Jan Niehues, Juan Pino, Elizabeth Salesky, Sebastian Stüker, Katsuhito Sudoh, Marco Turchi, Alexander Waibel, Changhan Wang, and Matthew Wiesner FINDINGS OF THE IWSLT 2021 EVALUATION CAMPAIGN. In Proceedings of the 18th International Conference on Spoken Language Translation (IWSLT), pp. 1-29, 202 [36] Graham Neubig. Forest-to-string SMT for asian language translation: NAIST at WAT2014. In Proceedings of the 1st Workshop on Asian Translation (WAT), pp. 20-25, 2014 [37] Diederik Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Proceedings of the 3rd International Conference on Learning Representations (ICLR), 2015. [38] Nitish Srivastava, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, and Ruslan Salakhutdinov. Dropout: A simple way to prevent neural networks from overfitting. Journal of Machine Learning Research, Vol. 15, pp. 1929$1958,2014$. [39] Razvan Pascanu, Tomas Mikolov, and Yoshua Bengio. On the difficulty of training recurrent neural networks. In Proceedings of the 30th International 40] Christian Szegedy, Vincent Vanhoucke, Sergey Ioffe, Jon Shlens, and Zbig niew Wojna. Rethinking the Inception Architecture for Computer Vision. In Proceedings of CVPR, pp. 2818-2826, 2016. [41] Myle Ott, Sergey Edunov, David Grangier, and Michael Auli. Scaling neural machine translation. In Proceedings of the 3rd Conference on Machine Translation (WMT), pp. 1-9, 2018. [42] Yonghui Wu, Mike Schuster, Zhifeng Chen, Quoc V. Le, Mohammad Norouzi, Wolfgang Macherey, Maxim Krikun, Yuan Cao, Qin Gao, Klaus Macherey, Jeff Klingner, Apurva Shah, Melvin Johnson, Xiaobing Liu, Lukasz Kaiser, Stephan Gouws, Yoshikiyo Kato, Taku Kudo, Hideto Kazawa, Keith Stevens, George Kurian, Nishant Patil, Wei Wang, Cliff Young, Jason Smith, Jason Riesa, Alex Rudnick, Oriol Vinyals, Greg Corrado, Macduff Hughes, and Jeffrey Dean. Google's neural machine translation system: Bridging the gap between human and machine translation. arXiv preprint [43] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 66-71, 2018. 表 4 テストセットに含まれる分野、対訳文数および英語側単語数 表 5 分野別学習データに含まれる文数および英語側単語数。ASPEC は本来約 300 万文の学習データを含んでいるが、先行研究に基づき先頭 200 万文のみを学習に使用した [36]。 表 6 分野別コーパスのみで学習した翻訳モデルの自動評価値 (BLEU / COMET) ## A 詳細な実験設定 表 4 にテストセットに含まれる分野、対訳文数および英語側単語数を示す。また、表 5 に分野別学習データに含まれる文数および英語側単語数を示す。 なお、ASPEC は本来約 300 万文の学習データを含んでいるが、先行研究に基づき先頭 200 万文のみを学習に使用した [36]。分野別学習データのみで学習した翻訳モデルの自動評価値を表 6 に示す。 JParaCrawl v4.0を用いた翻訳モデル学習時の前処理として、対訳コーパスを sentencepiece [43]を用いて unigram 確率をもとにサブワード単位に分割した。この際、語彙数は 64,000、character coverage は 0.9999 とした ${ }^{10)}$ 。また、未知文字については 10) JParaCrawl v3.0 作成時は語彙数を 32,000 としたが、コー パスの拡張に伴い各単語埋め込みの学習が十分に行われると考え語彙数を増加させた。表 7 ハイパーパラメータの一覧 & Transformer [5] \\ Byte-fallback により UTF-8 のバイト列の組み合わせによる表現を行った。翻訳モデルを学習する際の詳細なハイパーパラメータを表 7 に示す。
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-17.pdf
# 単語難易度を考慮した反復的な翻訳文の平易化 大鹿雅史 ${ }^{1}$ 森下睦 ${ }^{2}$ 平尾努 ${ }^{2}$ 笹野遼平 ${ }^{1}$ 武田浩一 ${ }^{1}$ 1 名古屋大学大学院情報学研究科 ${ }^{2} \mathrm{NTT}$ コミュニケーション科学基礎研究所 [email protected] \{makoto.morishita, tsutomu.hirao\}@ntt.com \{sasano, takedasu\}@i.nagoya-u.ac.jp ## 概要 近年,機械翻訳の精度は大幅に向上しており,機械翻訳の利用が広まっている。しかし,利用者の年齢によっては,機械翻訳によって出力された文章の語彙の難易度が高く出力文の意味を適切に理解するのが困難な場合がある. そこで,本研究では単語の難しさを語彙の獲得年齢 (Age of Acquisition) [1] と定義し,修正すべき単語を指定した翻訳文の平易化手法を提案する。実験を通して,提案手法が文章の意味を保持したまま平易化を行うことができることを示す. また,本手法を反復的に利用することでょり平易化が可能であることを示す. ## 1 はじめに 近年, ニューラル機械翻訳技術の発展により多くの人々が機械翻訳を利用できるようになってきた。 しかし, 現在用いられている機械翻訳には出力される翻訳文の難易度を制御する仕組みが存在していない.そのため, 利用者の年齢層に合わせた翻訳を生成することができず,特に子供が利用した際,翻訳文の意味を適切に理解できない可能性がある. 翻訳文の意味を適切记理解できない要因の一つとして,難易度の高い単語が使用されていることがある. 単語の難しさを示す指標として語彙の獲得年齢 (Age of Acquisition, 以下 AoA) がある. AoA に従って単語をより平易なものに置換することで,翻訳文を年齢に適した難易度に平易化することが可能である.しかし, 単純に単語を置き換えるだけでは, 翻訳文の意味を損なう恐れがある。また,単語以外の修正ができず,文全体の平易化に繫がらない可能性がある. そこで,本研究では原言語文と機械翻訳の出力に対し大規模言語モデル (LLM)を用いて翻訳文中の AoA の高い語を反復的に指定する平易化を行う手法を提案する。図 1 亿本研究の概要図を示す. LLM を利用することにより,指定した単語だけでなく,周囲の単語も文脈沈じて置き換えることができ,文意を保持した平易化が可能となる。また,翻訳文内に修正すべき単語が複数存在した場合や出力された平易文纪再び AoA の高い単語が含まれていた場合, 反復的に適用することで全ての単語を平易化できる。また, 本手法は AoA を用いて単語の難易度を決定するため, 子供のための翻訳器や非母語話者の言語学習支援など教育目的への応用が可能であると考えられる。 Simple-English-Wikipediaをもと作成したデータセットのでの実験を通じて,MUSS[2]を利用した平易化手法や語彙を制限した生成手法に比べ高い翻訳性能を維持したまま平易化を達成した。 ## 2 関連研究 ## 2.1 平易化と後編集 テキスト平易化や後編集の手法は翻訳文をより理解しやすい文へと変換するため広く用いられている. テキスト平易化には深層強化学習を利用した平易化 [3] 队統計的機械翻訳を平易化に応用する手法 [4] などが存在する。また,後編集には翻訳文を反復的に修正することで翻訳の品質を高める手法 [5] や,削除や置き換えなどのタグを利用して後編集を行う手法 [6] などが存在している。しかし,翻訳文に対して後編集を利用した平易化は取り組まれておらず,本研究では翻訳文の品質を維持したままの後編集を利用した平易化を目的とする。 ## 2.2 難易度を考慮した機械翻訳 近年,文章の難易度や複雑さを制御する手法が提案されている. Agrawal ら [7] や Tani ら [8] は機械翻訳モデルから出力される文章の複雑さを制御する多 図 1 提案手法の概要図. 原言語文 $(x)$, 機械翻訳文 $(y)$, 修正単語の三つ組を LLM に入力し平易文 $(\hat{y})$ を出力する. 修正単語は機械翻訳文のうち最も AoA の高い単語と定義し,その AoAを示す. 段階難易度制御翻訳に取り組んでいる。また,谷ら [9] は異なる難易度の参照文を利用した学習を行うことで出力文の難易度を制御した機械翻訳の手法を提案している。これらの手法では文全体の難易度を考慮しているが,単語単位での難易度を考慮しておらず,個々の単語の難易度を制御することができない. ## 3 反復的な翻訳文の平易化 ## 3.1 提案手法 本研究では,修正すべき単語を指定した上で翻訳文を平易化する手法を提案する。機械翻訳文 $(y)$,原言語文 $(x)$, 修正単語の三つ組を LLM に入力することで平易文 ( $\hat{y}$ )を出力するモデルの構築を行う (図 1). 修正単語の同定には AoA を利用し,機械翻訳文の修正すべき単語をく編集 > タグで囲みモデルへ入力する. 本手法は語彙の獲得年齢をもとに修正単語の定義を行うため,機械翻訳の利用者に合わせ対象の年齢を指定することが可能である. すなわち, $n$ 歳向けの機械翻訳を実現する際には AoA が $n$ 以上である単語を修正単語と定義することで AoA が $n$以上の単語を出力しない翻訳器を構築する. 本手法は反復的に利用可能なことから,機械翻訳文に複数の修正すべき単語が含まれていた場合,繰り返し単語を指定することで,全ての単語を編集することができるという特徴がある. 加えて,一回の平易化で十分に AoA が下がらなかった場合 $y^{\prime}$ にも,再び修正単語を指定し平易化をすることで,AoAを満たすまで修正することが可能である. ## 3.2 データセットの構築 提案手法の評価に適したデータセットが存在しないため, 本研究では単言語データを元に逆翻訳を適用することでデータセットの作成を行う. 図 2 亿作成の手順を示す. 単言語データに対して逆翻訳を適用することで,原文,中間翻訳文,逆翻訳文の三つ組を得る.この三つ組のうち,原文と逆翻訳文の各 図 2 データセットの作成手順を示した図 文に含まれる語の最大 AoA の差が 0.5 以上である文ペアを抽出する。修正単語は逆翻訳文のうち, 最も AoA の高い単語とし, 原文, 中間翻訳文, 逆翻訳文,修正単語の四つ組のデータセットを構築する。 また, $n$ 歳向けの機械翻訳を実現するために生成時には対象となる年齢 $n$ を指定してデータセットの選別を行う。すなわち,逆翻訳文に含まれる最大 AoA が $n$ 以上,かつ,原文に含まれる最大 AoA が $n$未満である文のみを利用して生成を行う. データセットのうち, 実際の生成時には中間翻訳文が図 1 内 $x$ ,逆翻訳文が図 1 内 $y$ ,原文が図 1 内 $\hat{y}$ に相当する。 ## 4 実験 ## 4.1 実験設定 大規模言語モデルとして Hugging Face が公開しているライブラリである Transformers から事前学習済みの $\mathrm{GPT}-\mathrm{Neo} \mathrm{X}^{1)}$ を利用した. また,モデルのファインチューニングには LoRA[10]を用いる.2) 本研究では 3.2 節で述べた手法を用いてデータセットの作成を行った. 単言語データには SimpleEnglish-Wikipedia ${ }^{3)}$ 利用した.データセットには見出しなどの非文が含まれていたため,これらを取り除く前処理を行い実験に利用した。逆翻訳には JParaCrawl v3.0を用いて学習されたニューラル機械翻訳モデル [11]を利用して,英 $\rightarrow$ 日 $\rightarrow$ 英と機械翻訳を適用することでデータセットを作成した。  表 1 各手法の生成文を評価した際の実験結果. 「生成した文数」は提案手法を反復した際に AoA が 10 未満にならず再度生成した際の文数を示す. なお,評価の際は 6,194 文全体を用いて評価を行っている. & 0.00 & 0.69 & 0.90 & 0.83 & 0.82 & 0.91 & 0.94 & 0.96 & 0.97 \\ 作成したデータセットは 169,672 文からなり,訓練データ $:$ 検証データ:テストデータ $=8: 1: 1$ に分割して実験を行った. ファインチューニング時には一つのモデルで全ての年齢を対象として平易化が可能になるように訓練データのすべてのデータを利用した. また, 本研究では生成時の対象の年齢を 10 歳として生成を行なった. すなわち,テストデータでは逆翻訳文に含まれる最大 AoA が 10 以上かつ原文に含まれる最大 AoA が 10 未満であるデー タのみを利用して生成を行った. 生成したデータは全 6,194 文であった。 ## 4.2 評価指標 評価指標には機械翻訳の評価指標,テキスト平易化の評価指標,平均最大 AoA,平易化の成功割合を用いて評価を行う。機械翻訳としての評価には $n$-gram の一致度を元に評価を行う BLEU [12] と類似度ベースに評価を行う COMET [13] を利用する. ${ }^{4)}$ テキスト平易化の評価指標として単語の言い換えなどを元に評価を行う SARI [14],一文あたりの単語数や単語あたりの音節数から評価を行う FKGL [15] を利用する. 平易化の成功割合についてはテストセットのうち,文章内の最も高い AoA が対象の年齢より低くなった文数の割合を示す. ## 4.3 比較手法 提案手法の有用性を検証するために三つの比較手法で実験を行った。一つ目はテキスト平易化の手法として事前学習済みの教師なしモデルである MUSS[2]を利用して平易化を行う.テストセットの逆翻訳文を入力とし平易文を出力する手法である.二つ目はデコード時に語彙を制限する翻訳手法である (制約付き生成). この手法ではデータセットの  た.翻訳文を日英翻訳で英語に翻訳する際に,AoA が 10 以上の単語が出力されないように語彙を制限して翻訳を行う.具体的には,生成時の各時刻で仮説に AoA が 10 以上の単語が含まれている場合,その仮説のスコアを $-\infty$ とする. 生成時のビーム幅は 6 で生成を行い,探索に失敗した文については逆翻訳文を出力する設定とする.三つ目は一回の平易化で複数の単語を指定する手法である。この手法は提案手法の派生型として考えることができる.ファインチューニング時には原文の最大 AoA よりも高い AoA を持つ逆翻訳文に含まれる単語を修正単語として指定し,生成時には AoA が 10 以上の単語をすべて修正単語と指定して平易化を行う。この手法により反復的に平易化を行う利点を示す. ## 4.4 実験結果 表 1 に実験結果を示す. MUSS を用いた平易化では逆翻訳文に比べ BLEU や COMET の機械翻訳の評価が著しく低下しているのが確認できる。これによって単純に平易化を行うだけでは翻訳文の意味が損なわれてることがわかる.次に,提案手法の 1 回目の生成では逆翻訳文に比べ全ての評価指標において性能が向上していることがわかる. これにより提案手法では翻訳文の文意を維持したまま平易化が可能であり,提案手法の有効性が確認できる。また,提案手法の 1 回目と制約付き生成を比較すると平均 AoA 及び AoA が 10 未満になった割合は劣るものの,その他の指標で高い值を示していることが確認できる.最後に複数単語指定との比較では翻訳性能は同程度であり,平易化の指標についてはわずかに提案手法が上回っている。一方で,平均 AoA や AoA が 10 未満になった割合については複数単語指定が上回っており,複数の単語を指定することで一回の平易化でより多くの単語を修正することが可能であることがわかる. 表 2 各モデルにおける実際の生成例. 一番右の列は文中で最も AoA の高い単語とその AoAを表す. 次に,AoAが基準値を超えていた文に対して反復的に提案法を適用した際の比較を行う。提案手法内の比較では反復を行うことで全ての指標が同程度に維持または改善されていることがわかる.これより,反復的に平易化を行うことで翻訳文の意味を維持したままより AoA の低い単語を利用した翻訳文へと平易化することが可能になっていると言える. また,制約付き生成や複数単語指定との比較では 2 回目の反復で AoA が 10 未満になった割合を上回っており,その際,機械翻訳の手法ではわずかに劣るものの平易化の指標において提案手法が高い性能を示している。なお,5 回目の反復時には COMET 以外の全ての指標において比較手法のスコアを上回る結果となった. 最後に,図 3 に横軸に各文における最大 AoA,縦軸に文数を示したグラフを示す. 図 3 より提案手法の一回目の生成では AoA が 10 以上の単語が多く使われているが,反復を行うことで低 AoA の単語に平易化されていることが確認できる. 制約付き生成は低 AoA の単語を利用しているものの,生成に失敗する例があることによって AoA が 10 以上の文が生成されており,MUSS を用いた平易化の手法についても AoA の高い単語が多く使われている。 ## 4.5 分析 表 1 において MUSS を用いた平易化は FKGL について大幅なスコアの改善が確認できる. MUSS では一文を複数の文に分割する平易化が多く行われていた. FKGL は一文あたりの単語数を考慮する評価指標であり,文の分割によって一文あたりの単語数が減少するため,スコアが改善したと考えられる。 提案手法において平易化に失敗している例の中には反復を行うことで一度修正された単語が再び生成されてしまう例が存在した. また, 反復を繰り返すことで平均 AoA が下がっているのに対して BLEU の値は収束している.これは反復によって平易化に 図 3 各手法の生成文の最大 AoA の統計を表したグラフ は成功しているものの,テストセット全体の文数に対して平易化した文数の割合が少ないため,全体で評価した際に値に変化が見られないと考えられる. ## 4.6 生成例 表 2 に実際の生成例を示す. MUSS による平易化では最大AoAが下がっていないのに加え,文意が損なわれていることが確認できる。一方で,提案手法の 1 回目の反復では AoA が下がりきってはいないが,文意を保持した平易化に成功しており,また, 2 回目の反復で AoA が 10 未満の単語への平易化が成功していることが確認できる.制約付き生成では原文に最も近い生成を行なっており,生成時に語彙を制限する手法も一定の有効性を示している。 ## 5 おわりに 本研究では修正すべき単語を指定し,反復的な翻訳文の平易化を行なった. 実験の結果より提案手法により AoA の高い単語を指定しながら平易化を行うことで翻訳性能を維持したまま平易化を行うことが可能であることを示した.本研究では日英翻訳についてのみ実験を行ったが,英日翻訳や他の言語対に関しても実験を行いたい。 ## 参考文献 [1] Victor Kuperman, Hans Stadthagen-González, and Marc Brysbaert. Age-of-acquisition ratings for 30,000 english words. Behavior Research Methods, Vol. 44, pp. 978990, 2012. [2] Louis Martin, Angela Fan, Éric de la Clergerie, Antoine Bordes, and Benoît Sagot. MUSS: Multilingual unsupervised sentence simplification by mining paraphrases. In Proceedings of the Thirteenth Language Resources and Evaluation Conference (LREC), pp. 1651-1664, 2022. [3] Xingxing Zhang and Mirella Lapata. Sentence simplification with deep reinforcement learning. In Martha Palmer, Rebecca Hwa, and Sebastian Riedel, editors, Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 584594, 2017. [4] Wei Xu, Courtney Napoles, Ellie Pavlick, Quanze Chen, and Chris Callison-Burch. Optimizing statistical machine translation for text simplification. Transactions of the Association for Computational Linguistics (TACL), Vol. 4, pp. 401-415, 2016. [5] Pinzhen Chen, Zhicheng Guo, Barry Haddow, and Kenneth Heafield. Iterative translation refinement with large language models, 2023. [6] Prabhakar Gupta, Anil Nelakanti, Grant M. Berry, and Abhishek Sharma. Interactive post-editing for verbosity controlled translation. In Proceedings of the 29th International Conference on Computational Linguistic (COLING), pp. 5119-5128, 2022. [7] Sweta Agrawal and Marine Carpuat. Controlling text complexity in neural machine translation. In Kentaro Inui, Jing Jiang, Vincent Ng, and Xiaojun Wan, editors, Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 1549-1564, 2019. [8] Kazuki Tani, Ryoya Yuasa, Kazuki Takikawa, Akihiro Tamura, Tomoyuki Kajiwara, Takashi Ninomiya, and Tsuneo Kato. A benchmark dataset for multi-level complexitycontrollable machine translation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference (LREC), pp. 6744-6752, 2022. [9] 谷和樹, 湯浅亮也, 田村晃裕, 梶原智之, 二宮崇, 加藤恒夫. 異なる難易度の参照文を用いる多段階難易度制御翻訳. 言語処理学会第 29 回年次大会, 2023. [10] Edward J. Hu, Yelong Shen, Phillip Wallis, Zeyuan AllenZhu, Yuanzhi Li, Shean Wang, Lu Wang, and Weizhu Chen. Lora: Low-rank adaptation of large language models. In The Tenth International Conference on Learning Representations (ICLR), 2022. [11] Makoto Morishita, Katsuki Chousa, Jun Suzuki, and Masaaki Nagata. JParaCrawl v3.0: A large-scale EnglishJapanese parallel corpus. In Proceedings of the Thirteenth Language Resources and Evaluation Conference (LREC), pp. 6704-6710, 2022. [12] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 311-318, 2002. [13] Ricardo Rei, Craig Stewart, Ana C Farinha, and Alon Lavie. COMET: A neural framework for MT evaluation. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 2685-2702, 2020. [14] Wei Xu, Courtney Napoles, Ellie Pavlick, Quanze Chen, and Chris Callison-Burch. Optimizing statistical machine translation for text simplification. Transactions of the Association for Computational Linguistics (TACL), Vol. 4, pp. 401-415, 2016. [15] Peter Kincaid, Robert P. Fishburne, Richard L. Rogers, and Brad S. Chissom. Derivation of new readability formulas (automated readability index, fog count and flesch reading ease formula) for navy enlisted personnel. 1975. 表 3 実験に利用したプロンプト 指示:く編集 > で囲まれた単語を使わないで仮説文を元に次の日本語を翻訳してください. \#\#\# 日本語: 紙幣発祥の地. \#\#\# 仮説文:The birthplace of $<$ 編集 $>$ banknotes $<$ 編集 $>$. \#\#\# 翻訳: 表 4 平易化に失敗した際の生成例 表 5 反復 1 回で平易化に成功した例 ## A 学習設定 LoRA は全ての線形層に対して適用し学習されたパラメータ数は $25,952,256$ で全体の $0.68 \%$ のパラメータについてファインチューニングを行なった。 また,ハイパーパラメータは $r$ を $16 , \alpha を 32$ と設定した. ファインチューニングを行う際のパラメー タは初期の学習率を 1e-5 とし線形に減衰させ, バッチサイズを 16 , エポック数を 5 とし, 最適化手法に AdamWを利用した。また,実験に利用したプロンプトの例を表 3 に示す. 日本語が中間翻訳文 (図 1 内 $x$ ), 仮説文が逆翻訳文 (図 1 内 $y$ ), <編集 > で区切られた単語が修正単語としてモデルに入力される。 ## B 平易化に失敗している例 表 4 に平易化に失敗した際の例を示す。機械翻訳文に存在する institution という単語は反復 2 回目で agency という AoA の高い単語へと修正されていることが確認できる.この agency を修正単語と指定して平易化を行うことで,3回目の反復で再び institution に修正されているが,4 回目の反復で agency が再度生成されていることが確認できる.このように反復を行うことで一度平易化された単語が再び生成されてしまうような例が存在した。これは現在のモデルが変更履歴を考慮できないことが原因の一つとして考えられ,今後の課題である. ## C 平易化に成功している例 表 5 に反復をすることなく平易化に成功した例を示す. MUSS を利用した平易化では平易化には成功しているものの,やや文意を損なった平易文が生成されていることが確認できる。 また,制約付き生成においては AoA が 10 未満の単語のみでの生成ができず,平易化に失敗している。一方で,提案手法の生成では反復をすることなく一回の平易化で文意を保持したまま AoA の低い単語への修正に成功している.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-18.pdf
# 文内コンテキストを利用した分割統治ニューラル機械翻訳 石川隆太 加納保昌 須藤克仁 中村哲 奈良先端科学技術大学院大学 \{ishikawa.ryuta.il7, kano.yasumasa.kw4, sudoh,s-nakamura\}@is.naist.jp ## 概要 長文の翻訳は、ニューラル機械翻訳(NMT)における顕著な課題の一つである。我々は、分割統治アプローチに基づいてこの課題に取り組む。提案手法では、(1) 入力文を等位接続詞を基準に節単位に分割し、(2) 分割された各節を、文内コンテキストを考慮できる形で、節翻訳モデルを使用して翻訳し、 (3) 翻訳された節を集約して、別の Seq2Seq モデルを用いて最終的な翻訳を得る。ASPEC を用いた英日翻訳の実験結果から、41 単語以上の長い入力文において、mBART をファインチューニングしたベー スラインよりも優れた BLEUを実現することが示された。 ## 1 はじめに 近年、NMT の翻訳品質は飛躍的に向上し、より自然で文脈に沿った翻訳が可能となった。しかし、 NMT にはいくつかの課題がある $[1]$ 。その課題の一つが長文の翻訳である。長文の翻訳精度低下の課題に対して、統計的機械翻訳では、長文を短いセグメントに分割して翻訳し、並べ替えて結合する分割統治的手法が提案されている [2]。NMT においては、 Pouget ら [3] が、長文を分割し、分割された各セグメントを翻訳した後に前から順に結合する手法を提案している。しかし、[3] の手法は分割したセグメントを翻訳した後にそれぞれ前から単純に連結するため、英語と日本語のような語順が大きく異なる言語対を翻訳する際に、出力文が不自然な文になってしまう懸念がある。この語順が不自然になるケースに対応するため Kano ら [4] は NMT における長文のための分割統治的手法を提案している。[4] の手法による翻訳プロセスは大きく 2 つの段階に分かれており、各プロセスはそれぞれ別の Seq2Seq モデルで実施される。1 段階目は文を節単位のセグメントに分割し、分割後の各節の翻訳を行う。2 段階目は翻訳後の各節の連結部分を自然な表現に書き換えた り、必要に応じて節の順番を並び替えることで、最終的な出力文が自然な訳出になるように調整を行う。Kano ら [4] の手法において、二つの課題が挙げられている。一つは節分割の際のセグメンテーション単位の課題、もう一つは節分割後の節の翻訳精度の課題である。 本研究では、上記二つの課題に注目し、英日翻訳における長文の翻訳精度の向上を試みる。具体的に、等位接続詞を基準とした新しい英文の節の分割単位及び、分割後の節翻訳において文内コンテキストを参照して翻訳を行うモデルの学習手法を提案する。 ## 2 分割統治型 NMT とその課題 分割統治型ニューラル機械翻訳の概要とその課題を説明する。 ## 2.1 分割統治型 NMT の概要 Kano ら [4] の手法は主に 4 つの Step からなる。 Pouget ら [3] はセグメント翻訳のための最適な分割の境界を見つけるため、文のセグメンテーションに翻訳モデルの出力確率を利用していた。しかし、彼らの手法は文法的に適切な境界で文を分割する保証がない。それに対し、[4] の手法は節という、統語構造上自然な単位に基づくセグメンテーションを採用している。Step1 で入力文を構文解析し、Step2で文を節単位でセグメントに分割する。節の中に節を含む場合も、すべての節境界で分割が実施される。 その後、Step3 で分割された各節は、文単位の対訳コーパスで学習された翻訳モデルによって翻訳される。最後の Step4 で翻訳モデルとは別の Seq2Seq モデルを用いて、最終的な訳出を生成する。Step4 における入力はソース側の各節と翻訳された各節を特殊トークンを使用して結合し、その後、各節同士を別の特殊トークンで結合したものである。分割されたことにより、翻訳された各セグメント同士が、互いに文脈的にどのような関係を持つのかという情報 が失われているため、このようにソース側の情報を付与する必要があるとされている。 ## 2.2 分割統治型 NMT の課題 彼らの手法では、Step3 における節単位の翻訳精度が問題とされている。この節の翻訳精度は、翻訳の最終的な品質に大きな影響を与えるとされる。節翻訳の精度における課題には、次の 3 つの要因が考えられる。 セグメンテーションの単位すべての節境界で分割を行うため、分割後の節が短くなり過ぎたり、節と節の間を繋ぐ短いセグメントが生じることがある。 文レベルの NMT モデルの利用節翻訳の後にソース側の情報を翻訳後の各節に付与しているが、節の翻訳は文単位のコーパスで学習されたモデルで行なっているため、トレーニングと推論の間の入力文の不整合により、望ましくない追加や省略を引き起こす可能性がある。 分割された節をそれぞれ独立に翻訳 Step3 の節翻訳の際に各節はそれぞれ独立に翻訳されるため、文中の文脈情報が活用できず、不適切で一貫性のない単語選択を引き起こす可能性がある。 ## 3 提案手法 本研究では上記の 3 つの課題を考慮して Kano ら [4] の手法を基盤とし、新しい分割統治ニューラル機械翻訳手法を提案する。 ## 3.1 等位接続詞を基準とした節のセグメン テーション [4]の手法ではすべての節境界で分割を行うため、分割の際に [2] の手法のように階層構造を考慮していない。本研究では、節と節を連結する等位接続詞を基準として、その前後に $\mathrm{s}$ 構造を持つ文にのみ分割の単位を限定することで、この問題に対処する。 この節分割単位に限定することで節の中に節を含む場合の分割は行われない。したがって、節の階層構造を考慮せずに、分割された節が短くなり過ぎることが防げる。節分割のルールの詳細を実例を用いて示す。次の 2 つの文があるとき、 1. I like football and baseball. 2. She wants to travel the world, but her job keeps her busy, and her savings are not enough for the trip. これらに構文解析を適用して、次の表現を得る。 1. (S (S She wants to travel the world), 2. (CC but) ( $S$ her job keeps her busy), (CC and) (S her savings are not enough for the trip).) 最初の文には、2つの名詞を接続する and が含まれているが、これはセグメンテーションの条件を満たしていない。2 番目の文を接続詞を基準にセグメント化すると、 3 つの節と 2 つの接続詞が導き出される。 -(s She wants to travel the world,) - (CC but) -(S her job keeps her busy,) - (CC and) - (S her savings are not enough for the trip.) 我々のセグメンテーションルールは、入力文全体がSを形成する場合、結果として生じるセグメントがS またはCCであることを保証する。 ## 3.2 節単位の対訳データのアライメント 節翻訳に文レベルの NMT モデルを利用することによって生じる可能性のある問題を軽減するために、節の対訳データを使用して節翻訳のための NMT モデルが作成できることが望ましい。本研究では、節レベルの対訳データを作成し、このデー タに基づいて mBART を節翻訳用にファインチュー ニングした。我々は、Kano ら [5] の手法を参考にした、文レベルの対訳データから節レベルのアライメントを得る手法を提案する。この手法は主に以下の 3 つのプロセスから構成されている。 対訳コーパスのソース側の構文解析ソース側の文を構文解析し、接続詞の前後に節 S を持つ文を特定し、接続詞の位置に基づいて節に分割する。 ソース側の各節の翻訳分割された各ソース節をベースラインの翻訳モデルを使用して翻訳し、ター ゲット側の節としてぺアにすることで、節レベルで擬似的な対訳データを構築する。 節アライメントの獲得疑似的な節単位の対訳データのターゲット節はベースラインによって翻訳されたものである。しかし、ソース側の各節は独立して翻訳されるため、翻訳後のターゲット側の各節は分割前の元のソース文から一部の文脈情報を失う。したがって、翻訳されたターゲット側の各節を並べ替えて繋げ直してたとしても、元のターゲット文を再現できる保証はない。したがって、節のアライメントは元の対訳データから獲得する。このプロ <<<En-sentencel >>> + En-sentence2 --- Ja-sentence 1 En-sentence $1+<<<$ En-sentence2 >>> --- Ja-sentence2 <<<En-sentence2 >>> + En-sentence3 --- Ja-sentence2 En-sentence $2+$ <<<En-sentence 3 >>> --- Ja-sentence3 <<<En-clause1>>> + En-clause2 + En-clause3 --- Ja-clause1 <<<En-clause2>>>+ En-clause3 --- Ja-clause2 En-clause $1+$ En-clause $2+<<<$ En-clause3>>> --- Ja-clause3 図 1: 文レベルのコンテキストを考慮した対訳データ (左) と節レベルのコンテキストを考慮した対訳データ (右) の形式(タグで囲われた部分のみを翻訳するようにモデルを微調整する) 図 2: 提案手法による翻訳処理の概要 セスは以下の 4 つの Step で行われる。(付録の図 3 に節アライメント獲得のプロセスを示す。) 1. mBART のトークナイザーを使用して、分割されたソース文に対応するターゲット文をトー クン化する。このとき、最後のトークンから始め、最初のトークンに向かって、一つずつトー クンを連結しながら、分割されたソース節とのアライメント候補を作成する。 2. 翻訳された文の最後の節から最初の節に向かって順序を追いながら、Step1 で作成したアライメント候補(最後から順に連結されたトークン化されたターゲット文)に対して BERTscore (F1)を測定する。そして、最も高いスコアを持つアライメント候補をソース側の節とアライメントする。 3. ターゲット側のアライメントされた文字列を元のターゲット文から削除する。 4. ソース側のアライメントされていない節が残り 1 つのみの場合は、それを残りのターゲット文とアライメントし、操作を終了する。2つ以上のソース節が残っている場合は、削除された文字列を除いた文を新しいターゲット文として扱い、Step1 に戻る。 この手法を使用することで、ソース側のセグメント化された各節とターゲット側の文との間の対応が確立され、擬似的な対訳データを使用せずに節レべルでのアライメントが獲得される。その結果、節単位の対訳データの品質が向上することが期待でき る。Step1 において、[5] の手法のように、ターゲット文の最初からトークンを連結し、アライメント候補を作成することも試みたが、後方からの連結と比較してアライメントの精度が低かったため、後者のアプローチを採用した。 ## 3.3 文内コンテキストを利用した節単位翻訳モデル \\ 節翻訳モデルのデータ形式 文内コンテキストを利用した節翻訳モデルは複数の節が組み合わされた 入力から、タグ《く 》》で囲まれた節のみを翻訳す るようにファインチューニングされる。図 1 は、文 レベルおよび節レベルの文脈を考慮できる形の対訳 データの形式を示している。このデータ形式を採用 することにより、[6] の手法のように入力の文脈情報が拡張される。その結果、タグに囲まれた部分の 外側の文脈情報を参照しながら、タグで指定された 部分のみを翻訳するモデルを作成することが可能に なる。 節翻訳モデルのファインチューニング節翻訳モデルは次の二段階でファインチューニングされる。 ・文レベルのコンテキストを考慮した対訳データを用いて、mBART の初期のファインチューニングを行う。 ・節レベルでのコンテキストを考慮した対訳デー タを使用して、節翻訳に特化するための二段階目のファインチューニングを行う。 節レベルのコンテキストだけでなく、文レベルのコンテキストを考慮した対訳データを使用して段階的にファインチューニングを行う理由は、節レベルのコンテキストを考慮した対訳データの量が比較的少ない (300K) ためである。これを補うために、今回の実験では、文レベルのコンテキストを考慮した対訳データも使用して、節翻訳モデルのファインチュー ニングを行った。 通常、対訳コーパスに含まれる文が互いに文脈的なつながりを持つ保証はない。しかし、文書 ID と文 ID の情報があれば、元の文書を再構築できる可能性がある。本研究では、そのようなコーパスが利 表 1: 単語長ごとのテストデータの文数 表 2: テストセット全体の BLEU 用可能であると仮定する。まず、対訳コーパスのソース側の文書 ID と文 ID を使用して、ソース側コーパス内の元の文書を再構築する。次に、各文書内で、文脈を維持しながら文を 2 つずつ組み合わせる。この際に組み合わされた文の一方に、単一の文単位を示すタグ《く 》>が追加し、タグ付きの文に対応するターゲット側の文がぺアになる。 2 文の文脈を考慮する対訳データと同様に、アライメントされたソースとターゲットの節を基に、節の文脈を考慮した対訳データを作成する。これにより、各セグメントされた節を、その節の前後の文脈を参照して翻訳することが可能になる。その結果、 Kano ら [4] の手法と比較して、より効果的な節しべルの翻訳が期待される。図 2 は、提案された手法による翻訳プロセスの概要を示すもので、文脈を考慮できる形の節翻訳の実装を例示している。 ## 4 実験 提案方法の有効性を調査するため、我々は長文の翻訳に焦点を当てた以下の実験を実施した。 ## 4.1 実験設定 我々は、文書と文の順序情報が利用可能で、我々の提案手法が適応可能なバイリンガルコーパスである ASPEC [7] を基に、英日翻訳の実験を行った。評価指標は、BLEU、BLEURT、COMETを用いた。日本語のトークン化には ja-mecab [8]を使用し、 sacrebleu [9]を用いて計算した。文の長さの影響を調べるために、テストセットを英文の単語数に基づいて 4つビン (1-20、21-40、41-60、61 以上) に分割した。提案手法は、入力英語文が等位接続詞を持ち、その前後に S 構造を持つ文にのみ働き、それ以外の場合にはベースラインが使用される。そのためテストセット全ての文に提案手法が適応されるわけ 表 3: 入力単語数ごとの BLEU(分割が行われた文のみ) ではない。表 1 は、テストセット全体と提案手法が適応される文の数をそれぞれ示している。 ## 4.2 結果 表 2 はテストセット全体のベースラインと提案手法の入力単語数ごとの BLEU スコアを比較している。全体的な結果から、提案手法はべースラインに対し、 0.1 ポイント高い結果となった。単語長 41-60、61 以上の範囲においてはそれぞれべースラインと比較して、 0.7 ポイント、 1.3 ポイント BLEU の改善が確認できた。 表 3 はベースラインと提案手法における構文解析の結果、分割が行われた文のみを対象とした場合の入力単語数ごとの BLEUを比較している。これは、 ベースラインと提案手法の性能差を明確に示すための結果である。提案手法はベースラインに対し、 1-20 単語長以外の全ての範囲において、高い BLEU を示している。特筆すべきは単語長 41-60、61 以上の区分において、提案手法はベースラインよりもそれぞれ 2.4 ポイント、 1.1 ポイント高い BLEUを達成していることである。これは提案手法が長文の翻訳において特に効果的であることを示唆している。より詳細な分析については付録で述べる。 ## 5 おわりに 本研究では、長文の翻訳品質の向上を目指し、 NMT において分割統治手法を基盤とした、新たな文のセグメンテーション単位及び、文内コンテキス卜を利用した節翻訳モデルの学習方法を提案した。実施した実験により、提案された手法は単語数 41 以上の長文の翻訳において BLEU スコアを向上させることが確認された。 提案手法が適応される文の割合を増やすことによるテストセット全体としての翻訳品質のさらなる向上が期待できる。そのため、等位接続詞以外での新しい節分割パターンの追加などを行い、接続詞を持たない長文にも対応できるように提案手法を拡張することを今後の課題とする。 ## 謝辞 本研究の一部は科研費 $21 \mathrm{H} 03500$ と $21 \mathrm{H} 05054$ の助成を受けたものです。 ## 参考文献 [1]Philipp Koehn and Rebecca Knowles. Six challenges for neural machine translation. In Proceedings of the First Workshop on Neural Machine Translation, pp. 28-39, Vancouver, August 2017. Association for Computational Linguistics. [2]K. Sudoh, K. Duh, H. Tsukada, T. Hirao, and M. Nagata. Divide and translate: improving long distance reordering in statistical machine translation. In Proceedings of the Joint 5th Workshop on Statistical Machine Translation and Met- ricsMATR(SMT '10), p. 418-427, 2010. [3]Jean Pouget-Abadie, Dzmitry Bahdanau, Bart van Merrien-boer, Kyunghyun Cho, and Yoshua Bengio. Overcoming the curse of sentence length for neural machine translation using automatic segmentation. In Proceedings of SSST-8 Elighth Workhop on Syntax Semantics and Structure in Statistical Translation, p. 78-85, 2014. [4]加納保昌, 須藤克仁, 中村哲. 分割統治的ニューラル機械翻訳. 言語処理学会第 27 回年次大会発表論文集., 2021. [5]Yasumasa Kano, Katsuhito Sudoh, and Satoshi Nakamura. Simultaneous neural machine translation with prefix alignment. In Proceedings of the 19th International Conference on Spoken Language Translation (IWSLT 2022), pp. 22-31, Dublin, Ireland (inperson and online), May 2022. Association for Computational Linguistics. [6]Jörg Tiedemann and Yves Scherrer. Neural machine translation with extended context. In Bonnie Webber, Andrei Popescu-Belis, and Jörg Tiedemann, editors, Proceedings of the Third Workshop on Discourse in Machine Translation, pp. 82-92, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [7]Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. Aspec: Asian scientific paper excerpt corpus. In Nicoletta Calzolari (Conference Chair), Khalid Choukri, Thierry Declerck, Marko Grobelnik, Bente Maegaard, Joseph Mariani, Asuncion Moreno, Jan Odijk, and Stelios Piperidis, editors, Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC 2016), pp. 2204-2208, Portorož, Slovenia, may 2016. European Language Resources Association (ELRA). [8]Taku Kudo. Mecab : Yet another part-of-speech and morpho- logical analyzer., 2006. https://taku910. github.io/mecab/. [9] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Brussels, Belgium, October 2018. Association for Computational Linguistics. ## A 付録 表 4: 入力単語数ごとの BLEURT(分割が行われた文のみ) 表 5: 入力単語数ごとの COMET(分割が行われた文のみ) 表 6: テストデータの節と文の平均単語数 表 4、表 5 から BLEURT、COMET での評価では、全体として BLEU と同様に提案手法がベースラインを上回っていることが確認できた。しかし、 BLEURT においては単語長 61 以上の範囲ではベー スラインを下回る結果となった。今回の実験において全テストデータ 1812 文の内提案手法が適応されている文は 259 文で、割合としては約 $14 \%$ と非常に少ないため、テストセット全体としての BLEU の向上は 0.1 ポイントに留まったと考えられる。単語数 41-60、61-の範囲で提案手法の BLEU が改善した原因として、節単位のセグメンテーションによって長文の入力と出力の長さが翻訳モデルにとって扱いやすい単位になったことが考えられる。図 4 は単語数ビンごとの文数を示している。学習データにおける文の長さの平均値、中央値はそれぞれ 22.8、21であり、単語数 10-30 の範囲に学習データが集中していることが分かる。このことから、単語数 10-30 の範囲が翻訳モデルにとって扱いやすい文長であることが考えられる。表 6 はテストデータのそれぞれの単語長の範囲における節と文の平均単語数を示している。単語数 41-60、61 以上の範囲の節の平均単語数に注目すると、どちらも単語数 10-30 の範囲に収まっている。このことから長文の翻訳において入力文を翻訳モデルが扱いやすい単位に文を分割して扱 うことでより効率的に入力文の情報を処理することができ、結果的に翻訳の精度が向上したことが考えられる。 図 3: 提案手法による分割された英語文節と対応する日本語文節のアライメントを得る処理の概要 図 4: ASPEC コーパスの単語数ビンごとの文数
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-19.pdf
# 言い換え文を用いた機械翻訳の学習データの増加 松本武尊 1 村上仁一 2 1 鳥取大学大学院持続性社会創生学科学研究科 2 鳥取大学工学部 [email protected] [email protected] ## 概要 NMT において,言い換え文を利用して,学習文を増加する手法がある.本論文では,外部コーパスを利用せずに言い換え文を生成する。乥して,生成された言い換え文を用いて学習データを増加させ,機械翻訳の精度向上を試みた。光の結果, 自動評価結果では, わずかに精度が向上した.しかし, 人手評価結果では学習文に言い換え文を追加しても精度に変化が見られなかった。 ## 1 はじめに ニューラル機械翻訳の精度を向上させるためには, 大量の学習データが必要となる.しかし, 大量の学習データを収集するには,大きなコストがかかる.乥こで,言い換え文を用いて学習データを増加させる手法がある. 本研究では,外部コーパスを利用せずに,折り返し翻訳を用いて言い換え文を生成し,学習データを増加させる. 先行研究 [1] と同樣に折り返し翻訳を行い元の文と折り返し翻訳をされた文を比較する。光して,2 の文が一致した場合のみ言い換え生成を行う.このことにより,翻訳誤りが減少し,高い精度の疑似データを作成することができると考えられる.光して,生成された言い換え文を用いて学習文を増加させ,機械翻訳の精度を調査する. ## 2 関連研究 ## 2.1 言い換え生成 学習データを増幅させるために,言い換え生成を行う. 言い換え生成には樣々な手法がある. 先行研究 [1] では, 日本語の言い換え生成を行った.NMT を用いて折り返し翻訳を行い, 翻訳結果が一致した場合のみ言い換え生成をした.また,言い換えの取得数を増加させるために出力候補数を 4 候補にした 4Best , 乱数による出力の違いを考慮した 4 システムで実験を行った.表 1 に生成された言い換え文とランダムに選択された言い換え文 100 文に対する人手評価の結果を示す。 2.2 単言語コーパスを用いた学習データの増加 学習データを増幅させるために単言語コーパスを用いる手法がある. Sennrich[2] らは,ターゲット言語の単一言語コーパスはフレーズベースの統計的機械翻訳の流暢性を高めるための重要な役割を果たしていることから,NMT でも単言語コーパスを利用した. 単一言語コーパスを逆翻訳と組み合わせることにより,追加の並列学習データとして扱った。光の結果,機械翻訳の精度の大幅な改善が見られた。 ## 3 提案手法 本研究では,日英翻訳を基本としている。提案手法として,学習データにターゲット言語の言い換え文を追加した翻訳モデルとする.つまり,英語の言い換え文を追加する.また,ベースラインは言い換え文を学習データに追加していない翻訳モデルとする.表 2 に学習データの追加例を示す. なお, 言い換え生成には, ベースラインの学習データを用いている。光のため,外部コーパスを利用していない. 表 2 学習文の追加例 & \\ ## 4 実験 ## 4.1 実験手順 ## 本研究では以下の手順で実験を行う 1. ベースラインとして,言い換え文を利用しない翻訳モデルを作成する。 2. 提案手法として, 英語の言い換え文を学習デー タに追加し,翻訳モデルを作成する. 3. 1,2 で作成した翻訳モデルを用いてテストデー タで翻訳を行い自動評価を行う。 ## 4.2 実験条件 本実験の実験条件を示す.NMT の学習・翻訳には OpenNMT-py[3] のバージョン3.1.1を用いて,デフォルトの設定で実験を行う. ## 4.3 対訳コーパス 本研究では, 電子辞書などから抽出した日英単文対訳コーパスを用いる [4] . 表 3 に日英対訳コーパスの一部を示す.また,追加する英語の言い換え文の一部を表 4 に示し,表 5 に生成された言い換え文とランダムに選択された言い換え文 10 文に対する人手評価結果を示す. 表 3 日英対訳コーパスの例 & \\ 表 4 英語の言い換え文の例 & \\ ## 5 結果 ## 5.1 ターゲット言語の学習データの追加量 本実験では,言い換え文の量を3つに変化させて実験を行った.表 6 に日英翻訳におけるターゲット言語である英語の言い換え文を追加したときの学習データの数を示す. 表 6 日英翻訳における学習データの量 ## 5.2 自動翻訳結果 表 7 にテストデータ 16,328 文における BLEU による自動評価結果を示す。 表 7 日英翻訳における自動評価結果 表 7 より,英語の言い換え文を追加することにより BLEU 值は少し増加した.しかし,追加する言い換え文の量を増加させても BLEU 值の変化がわずかであることが確認できる. ## 5.3 人手評価結果 表 8 に英語の言い換え文 14,818 文を追加したときと , ベースラインをランダムに選択された 100 文で人手で比較を行った結果を示す。 表 8 ベースラインとの比較結果 表 8 より,ベースラインと英語の言い換え文 14,818 文を追加した場合を比較すると差がないことが確認できる . ## 5.4 出力例 表 9 に人手評価で提案手法のほうが良い例を示す.また,表 10 に言い換え文を追加したほうが良い例を示す. \\ 表 9 より, 言い換え文を追加することにより, 間違って翻訳されていた単語が正しい単語に置き換わっていることが確認できる .表 10 ベースラインが良かった出力例 \\ 表 10 より,言い換え文を追加することにより, ベースラインでは正しく翻訳されていた単語が別の単語へ置き換わっていたり, 不要な単語が増加していることが確認できる. ## 6 考察 ## 6.1 ソース言語の言い換えの追加 表 7 より, ターゲットである英語の言い換え文を追加しても,BLEU 値は,あまり増加しなかった. そこで,ソース言語である日本語の言い換え文を追加したときの日英翻訳の精度を調査する. ## 6.1.1 ソース言語の学習データの追加量 表 11 に日英翻訳におけるソース言語である日本語の言い換え文を追加したときの学習データの量を示す. 表 11 日本語の言い換え文を追加した学習データ量 ## 6.1.2 自動評価結果 表 12 にテストデータ 16,328 文における自動評価結果を示す。 表 12 より, 日本語の言い換え文を追加すると, 表 12 日本語の言い換え文を追加した自動評価結果 BLEU METEOR TER RIBES BLEU 值がわずかに減少したことが確認できる. ## 6.1.3 出力例 表 13 に出力例を示す. 表 13 ソース言語の言い換えを追加したときの出力例 \\ ## 6.2 精度が向上しない原因 表 7 と 12 より, 日本語, 英語の言い換え文を追加しても機械翻訳の精度にはあまり差がなかった。以下に精度が向上しなかった原因として考えられることを示す. ## 6.2.1 末知語 本研究では,外部コーパスを利用していない,光のため, ベースラインと比較すると, 学習データにおける単語の出現回数は変化する.しかし, 単語の種類は増加しない.よって, ベースラインで未知語 となっている単語は言い換え文を追加しても未知語のままである.例として,表 13 の入力文 2 ではベースラインで未知語として出力されている部分は,言い換え文を追加しても未知語として出力されていたり,不適切な単語に置き換わっている。 ## 6.2.2 不適切な言い換え文 学習文に追加した言い換え文には,不適切な言い換え文が含まれている.觉のため,ベースラインで翻訳が成功していた文が,不適切な言い換え文が追加することにより翻訳が失敗する場合がある.例として,表 10 の入力文 2 では,言い換え文を追加すると” parked“ の目的語が不適切な単語になっている. ## 6.3 今後の課題 本研究では,外部コーパスを用いていないため,翻訳の情報量は増加していない,炎のため,精度が向上していないと考える. 光こで今後として, 単語の情報量を増加させるために,外部の単一コーパスを用いて言い換え文を作成して,学習データに追加することを検討したい. ## 7 おわりに 本研究では,学習データに言い換え文を追加することにより,学習データを増加させ,機械翻訳の精度向上を試みた.結果より,ターゲット言語である英語の言い換え文を追加した場合では,BLEU 值はわずかに向上した . 精度がわずかしか向上しなかった大きな原因として, 未知語が影響していると考えられる. 光こで今後として,外部の単一コーパスを用いることにより,機械翻訳の精度の調査を行いたい。 ## 参考文献 [1] 松本武尊, 村上仁一. 折り返し翻訳を利用した言い換え生成. 言語処理学会第 29 回年次大会, 2023. [2] Rico Sennrich, Barry Haddow, and Alexandra Birch. Improving neural machine translation models with monolingual data. arXiv preprint arXiv:1511.06709, 2015. [3] OpenNMT. https://opennmt.net/OpenNMT-py/. [4] 村上仁一, 藤波進. 日本語と英語の対訳文対の収集と著作権の考察. 第一回コーパス日本語学ワークショップ, pp. 119-130, 2012. [5] 田中慎太郎, 飯間ほか. 往復翻訳を教師とした言い換え生成モデルによる高速テキストデータ拡張. 人工知能学会全国大会論文集第 37 回 (2023), pp. 2E5GS604-2E5GS604. 一般社団法人人工知能学会, 2023. [6] Jianing Zhou and Suma Bhat. Paraphrase generation: A survey of the state of the art. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 5075-5086, 2021. [7] 杉山普, 吉永直樹ほか. 逆翻訳によるデータ拡張に基づく文脈考慮型ニューラル機械翻訳. 研究報告自然言語処理 (NL), Vol. 2019, No. 14, pp. 1-5, 2019. [8] 矢野貴大, 村上仁一. ニューラル機械翻訳に乱数が与える影響. 言語処理学会第 27 回年次大会, 2021. [9] Minh-Thang Luong, Hieu Pham, and Christopher D Manning. Effective approaches to attention-based neural machine translation. arXiv preprint arXiv:1508.04025, 2015.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-1.pdf
# TED 講演音声の機械翻訳のためのデータ拡張法の比較 増田健人山本一公中川聖一 中部大学工学部 } \{tp22021-6334@sti, kazumasayamamoto@isc, nakagawa@isc\}.chubu.ac.jp ## 概要 本稿では Transformer を用いた翻訳モデルの性能改善の為に英日・日英を対象とした単一方向翻訳モデル及び双方向翻訳モデルの比較、種々のデータ拡張法の比較を行った。拡張手法では先行研究の手法 [1]に加え、翻訳モデルにオートエンコーダ部分を追加した手法、オートエンコーダによる生成文を疑似コーパスとして用いた方法、英韓のパラレルデー タを併用したマルチリンガルでの翻訳モデルの学習を行い、テキスト翻訳と音声翻訳の有効性を報告する。 ## 1 はじめに TED 講演音声に関して、英語の音声認識は IWSLT(International Workshop on Spoken Language Translation) での発表が多いが、英日翻訳に関しては少ない。2021 年には英日の瞬時テキスト翻訳 [7] が、2022 年には英日の瞬時音声翻訳がタスクに加えられている [8]。 TED の英日音声翻訳に関しては、2022 年度の IWSLT で最も良かった結果は、大規模な外部音声資源・言語資源を使用した USTC(中国科学技術大学) のシステムで、音声認識誤り率 (単語誤り率) 約 $5 \%$, アンサンブル翻訳ではテキスト入力で 22 , 音声入力・オフライン方式では約 19 の BLEU 值を報告している [11]。2023 年度の IWSLT では、オフライン音声翻訳と瞬時音声翻訳、新しい TED のテストデータが評価対象となり、ACL の発表音声もテストに加えられた [9]。今回も音声認識と機械翻訳の力スケード方式が end-to-end 方式の性能を上回った。 TED 講演のオフライン英日音声翻訳には 3 チームが参加し、BLEU の值は 10.6, 16.5, 18.7 であった。一番良かった HW-TSC(Huawei 翻訳サービスセンター)の手法は、音声認識は Whisper(conformer) を fine-tuning したもので、翻訳モデルは Deep-Transformer の 1 対多言語 (1 対 3) モデルである [9]。 学習に用いるパラレルデータの不足を補うために単言語コーパスによるデータ拡張手法がある [12]。 これは単言語コーパスを機械翻訳することで疑似的なパラレルコーパスを作成し、ベースとなるパラレルコーパスと混合して学習に用いる手法である。山岸らは本手法の単言語コーパスとして、日本語話し言葉コーパス CSJ(Corpus of Spontaneous Japanese) の学会講演の書き起こしデータ等を使用した $[13,14]$ 。 また、ベースとなるパラレルコーパスをある規則に基づいて変換して疑似コーパスを作成し、ベースコーパスを数倍に増やすことで学習データを得る拡張法がある (パラフレーズモデル)[15]。Bao らは品質の良い疑似コーパスを得るためにソース文のキーワード等も付加して複数文の翻訳文を生成し、用いている [16]。オートエンコーダを使用する方法も種々ある。Cheng らは、モノリンガルデータと英中、中英翻訳モデルを用いて英語文 $\rightarrow$ 中国語文 $\rightarrow$ 英語文,中国語文 $\rightarrow$ 英語文 $\rightarrow$ 中国語文,とソース文を翻訳し、ソース文とターゲット文が同一になるように学習して単なる逆翻訳手法よりも高い効果を得ている [17]。 我々が試みた方法は、ソース側文とターゲット側文が同一になるように学習するもので、Currey らと同じ手法である [19]。但し、Currey らは Transformer や双方向モデルでは評価していない。また、オートエンコーダで生成された文を用いた疑似コーパスとの比較も行っていない。 ## 2 翻訳モデル ## 2.1 Transformer[6] Transformer モデルはエンコーダ層とデコーダ層からなる。エンコーダは同じ構成のエンコーダの積み 重ねにより構成され、一つのエンコーダは自己注意機構とフィードフォワードネットワーク(FFNN) により構成される。デコーダも同じ構成のデコーダの積み重ねにより構成される。 ## 2.2 エンコーダ-デコーダの層数 標準的な Transformer のモデルはエンコーダ 6 層、 デコーダ 6 層であるが、最適な設定は学習データ量によって異なる。先行研究の予備実験 [1] では、エンコーダ-デコーダ層数が 6 層-6 層で $0.80 、 3$ 層- 3 層で 13.22 の BLEU 值であった。本実験では異なるエンコーダ-デコーダ層数での各データ拡張手法の比較を行った。 ## 2.3 単一方向翻訳と双方向翻訳モデル 単一方向翻訳モデルでは、ソース言語とターゲット言語のペアで学習することで翻訳モデルを作成する。双方向翻訳モデルの場合は、ソース言語とター ゲット言語のペアと、ターゲット言語とソース言語を入れ替えたペアからなるデータセットによって翻訳モデルを作成する。1つの双方向翻訳モデルで英日翻訳、日英翻訳の両方を行う。 ## 3 データ拡張法 ## 3.1 単言語コーパスの順方向/逆方向翻訳 によるデータ拡張 (a) ベースコーパス以外からの利用 本実験で使用する TED 講演の IWSLT のベー スコーパスには英語と日本語のパラレルコーパスが少ないため、英語または日本語の単言語コーパスをベースモデルで順/逆方向に翻訳することで英語と日本語の疑似パラレルコーパスを作成し、データ拡張を行う [1]。単言語コー パスには IWSLT2018 英語-スペイン語のパラレルコーパスの英語側と、CSJ 日本語コーパスの模擬講演を用いた。 (b) ベースコーパスからの利用 ベースコーパスの英語または日本語側を、先行研究 [1] で最も翻訳精度の高かったモデルを用いて順/逆方向に機械翻訳することでべースコーパスのペアの片方と合わせて疑似対訳コー パスとして作成し、データ拡張を行った。 ## 3.2 オートエンコーダによるデータ拡張 英日、日英のパラレルコーパスに加えて、英-英、日一日のパラレルコーパスを加えて学習する(オートエンコーダ [19])。この際、ソース言語側に言語対タグを付けた。 (c)ソース文とターゲット文を同一にしたパラレルコーパス ベースコーパスに対して、ソース文とター ゲット文を同一にしたオートエンコーダ部分を追加して学習を行った。英日単一方向翻訳モデルの場合は英語を日本語に翻訳するように学習すると同時に英語文と同じ英語文に、日本語文を同じ日本語文に翻訳する部分のどちらか、もしくは両方を追加して学習する。英日/日英双方向翻訳モデルの場合は英語と日本語の双方向翻訳の学習に加えて、英英及び日日のオートエンコーダ機能を学習する。 (d) オートエンコーダにより生成された疑似ソース文を利用 ベースコーパスのソース文とターゲット文を同一にして学習したオートエンコーダを用いて、疑似パラレルコーパスを作成しデータ拡張に用いた。(生成文を英,日,と記す)。 (e) ベースコーパス以外の単言語コーパスによるオートエンコーダ部分の追加 (c) の方法と同じであるが、ベースコーパス以外の単言語コーパスを使用する。 ## 3.3 英韓パラレルデータによるデータ拡張 (f) マルチリンガルモデルが少資源学習データに対して有効なことから [14]、日本語と類似する文法を持つとされる韓国語と英語のパラレルコー パスをベースコーパスと合わせて学習することで英日、日英翻訳タスクに適用した。 ## 3.4 ASPEC コーパスモデルからの転移学習 (g) TEDのような話し言葉でなく書き言葉であるが大規模な 100 万文のペアからなる ASPEC コー パスにより単一方向モデル、双方向モデルを学習し、そのパラメータを初期値としてベースコーパスである IWSLT およびデータ拡張したデータセットで翻訳モデルを学習する。なお ASPEC コーパスによる翻訳モデル学習の際に は TED の話し言葉の語彙に合わせた [1]。 ## 4 実験結果 ## 4.1 使用したデータ 本研究では IWSLT2016 英語-日本語パラレルコー パスをベースコーパスとして使用した。データ拡張用の単言語コーパスとして IWSLT2018 英語-スペイン語パラレルコーパスの英語側と、日本語の単言語コーパスである日本語話し言葉コーパス CSJ を、マルチリンガルモデル用の英韓対訳コーパスに IWSLT2016 英語-韓国語パラレルコーパス用いた。表 1 に学習文数、開発文数、テスト文数を示す。 表 1: 使用データセット (a) ベースコーパス () 内は講演数 (b) データ拡張用データ () 内は講演数・分野数 (c) 翻訳テストデータの総文数 () 内は講演数 \\ ## 4.2 音声認識手法と認識結果 音声翻訳に使用する TED 講演音声のテキスト書き起こしは、先行研究 [2] で Kaldi を用いて学習した音声認識モデルによるものである [2]。これは Kaldi の TEDLIUMv3 亿対応したレシピで学習した認識システムで、DNN-HMMを用いて学習した隠れ層 13 層、ユニット数 1024 のネットワークである。出力層のユニット数はトライフォン HMM のの共有状態数に対応している。ネットワークへの入力特徴量は MFCC (メル周波数ケプストラム) 40 次元である。テストデータは 12 講演のうち 10 講演である (2 講演は音声要約の実験に不適切であったため除外 [2])。 このモデルを TED 講演音声約 450 時間の学習デー タで学習を行い、得られた平均単語正解精度 87.6 \%(話者・講演により 70~90\% [3]) の音声認識結果を用いて音声入力による翻訳を行った。 ## 4.3 翻訳結果 Transformer モデルの学習には fairseq[23] Version 0.12.0を使用した。エンコーダとデコーダの層数は 3 層と 6 層のモデルを単一方向と双方向それぞれ学習し評価した。学習の最適化は Adam, 学習率は 0.0005、学習は 20 epoch まで行った。翻訳モデルの性能評価には BLEU を用い、本研究では 4-gram までの値を用いた。 英日音声翻訳実験は音声認識した 10 講演で行い、 テキスト翻訳もこの 10 講演に合わせた。 12 講演の英日、日英のテキスト翻訳結果は付録に示す。また、翻訳業者 2 社による人手による英日翻訳を 2 講演に対して行ってもらい [1]、オリジナルなリファレンスと合わせてリファレンスを 3 つにした翻訳評価を付録に示す。 表 2 に種々のデータ拡張手法の翻訳評価結果を示す。 3.1 節 (a) の手法は 12 講演に対してのみ行い (付録参照)、10 講演に対する結果をまとめてないので省いた。双方向翻訳モデルの fine-tuning とは、 モデルの学習後、ベースパラレルコーパスで追加学習したモデルのことである。べースラインとは IWSLT2016 の英日ベースパラレルコーパスを単一方向翻訳モデル及び双方向翻訳モデルで学習したものである。十疑似英語はべースパラレルコーパスの日本語部分をを 3.1 節 (b) の手法で機械翻訳し、疑似パラレルコーパスとして学習に使用することを指す。十疑似日本語も同様である。単言語コーパスとして用いている IWSLT2018 の英語部分を新英、CSJ を新日として示す。 ベースラインの結果は単一方向モデルで 13.78 , 双方向モデルで 14.40 の BLEU 値であった。 (b) のベースコーパスの機械翻訳による疑似コー パスを作成して用いた手法では、疑似英語、疑似日本語どちらを利用した場合でもべースラインの BLEU 値を上回った。単一方向翻訳モデルでは BLEU 値が+2.74 改善された。双方向翻訳モデルでも fine-tuning を行うことで更なる翻訳精度向上が見られ、双方向のベースラインと比較すると BLEU 値が+1.83 改善している。また、音声翻訳では BLEU が 13.00 を越え、音声認識誤りに対してもある程度 表 2: TED 講演の英日翻訳評価実験結果 (10 講演, BLEU) () 内は fine-tuning モデル 頑健であると言える。 (c) のベースパラレルコーパスに対してソース文とターゲット文を同一にしたオートエンコーダ部分を追加する拡張手法では、6 層の fine-tuning を行ったモデル全てで翻訳精度が高く、テキスト翻訳で BLEU 值 16.00 以上、音声翻訳で BLEU 值 13.00 以上となっている。このことから翻訳モデルが追加したオートエンコーダ部分によって頑健な内部表現を得ることが出来たと考えられる。 (d) のオートエンコーダを利用して生成した文を疑似パラレルコーパスとして利用する手法では、 ベースラインとの大きな差異は見られない。これは学習文とテスト文を同一に用いたためオートエンコーダの性能が良過ぎ、生成された疑似パラレルコーパスとベースパラレルコーパスの類似度が高く(英':BLEU=99.47, 日'=BLEU=98.84)、汎化性が得られなかったためと考えられる。 (e) のベースコーパス以外の単言語コーパスをオートエンコーダ部分として追加する手法では、 IWSLT2018 の英語部分と CSJ の両方を追加したモデルの評価が高かったものの、ベースパラレルコー パスをオートエンコーダ部分として追加したモデルに比べると翻訳精度改善の度合いは低い。 (f) の英韓パラレルコーパスの利用では日本語と類似する文法を持つ韓国語と英語のパラレルコーパスを追加したマルチリンガルモデルによって英日翻訳の精度の向上が見られた。 最後に種々の組み合わせとして 3.1 節 (a) の単言語コーパスによる疑似パラレルコーパスの追加と 3.3 節 ( $\mathrm{g}$ )の ASPEC コーパスモデルによる初期パラメータを組み合わせた先行研究 [1] のモデル (h-1) と、先行研究での最良モデルに対して (b) のベースコーパス内の疑似コーパス利用手法、および (c) のベースコーパスのオートエンコーダ部分の追加手法を用いてデータ拡張を行ったモデルの翻訳評価結果を表 2 の h-2 に示す。翻訳精度改善の効果が高かった今回の提案手法を h-1 の先行研究 [1] での最良モデルに対して組み合わせることで、テキスト翻訳で BLEU16.77, 音声翻訳で BLEU14.32 という高い評価結果を得られた。 ## 5 まとめ TED 講演の英日 22 万文ペアに対しオートエンコーダ部分の拡張とべースコーパスに対する機械翻訳での疑似コーパス拡張で単一方向モデル、双方向モデル共に翻訳性能が向上した。10 講演に対して最も良かったデータ拡張法では英日テキスト翻訳でベースラインの $\mathrm{BLEU}=14.40$ から 16.77 に、音声翻訳でベースラインの BLEU=12.03 から 14.32 に向上した。また、12 講演の英日テキスト翻訳に対しては、ベースラインの 14.25 から 16.18 に向上した(付録)。日英翻訳ではベースラインの 13.01 から 16.90 に向上した (付録)。オリジナルなリファレンスは話し言葉の意訳に近く、機械翻訳で BLEU 值を上げる限界がある。そこでリファレンスをマルチ(3つ) にすると BLEU 值は大幅に向上した(付録)。 ## 謝辞 本研究の一部は JSPS 科研費 $18 \mathrm{H} 01062,19 K 12027$, 22K12084 の助成を受けた。 ## 参考文献 [1] 坂野, 桜井, 足立, 山本, 中川:TED 講演音声の音声認識・音声翻訳・音声要約の検討, 言語処理学会, 第 29 回年次大会, pp.1417-1422, 2023. [2]足立, 山本, 中川:TED 講演の英日翻訳と日英翻訳の検討, 言語処理学会, 第 29 回年次大会, pp.2489-2494, 2023. [3] 中川, 足立, 桜井, 坂野, 山本:TED 講演音声の音声認識性能と音声翻訳および重要文抽出要約の性能の関係, 日本音響学会, 第 150 回研究発表会, pp.1097-1100, 2023 [4] 後藤,山本, 中川: 音声認識誤りを考慮した英語講義音声の日本語への音声翻訳システムの検討, 言語処理学会第 23 回年次大会, pp.1054-1057, 2017. [5] 佐橋, 秋葉, 中川: 科学技術論文抄録と講義の英日機械翻訳のリスコアリングの検討, 言語処理学会第 25 回年次大会, pp.1165-1168, 2019. [6] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob, Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin: Attention is all you need, Conference on Neural Information Processing Systems (NIPS2017), 30, 2017 [7] A. Anastasopoulos, O. Bojar, et al. : Findings of the IWSLT 2021 evaluation campaign, Proc. IWSLT-2021, pp.1-29, 2021 [8] A. Anastasopoulos, L. Barrault, et al. : Findings of the IWSLT 2022 evaluation campaign, Proc. IWSLT-2022, pp. 98-158, 2022. [9] M. Agarwal, et al. : Findings of the IWSLT 2023 Evaluation campaign, Proc. IWSLT-2023, pp. 1-61, 2023. [10] R. Fukuda, Y. Ko, Y. Kano, et al. : NAIST simultaneous speech-to-text translation for IWSLT 2022, Proc. IWSLT 2022, pp.286-292, 2022. [11] W. Zhang, Z. Ye, et al. : The USTC-NELSLIP offline speech translation systems for IWSLT 2022, Proc. IWSLT, pp.198-207, 2022 [12] Rico Sennrich, Barry Haddow, Alexandra Birch: Improving neural machine translation models with monolingual data, Proc. ACL, pp. 86-96, 2016. [13] 山岸勇輝, 秋葉友良, 塚田元: 逆翻訳を用いたデー 夕拡張と転移学習を利用した英日講演字幕翻訳の改善, 言語処理学会第 26 回年次大会, pp.1277-1280, 2020 [14] 山岸勇輝, 秋葉友良, 塚田元: 入力側単言語資源と転移学習を利用による講演字幕を対象とした英日ニューラル機械翻訳の改善, 言語処理学会第 28 回全国大会, pp.1317-1321, 2022 [15] J.E. Hu, et al. : Improved Lexically Constrained Decoding for Translation and Monolingual Rewriting, Proc. Conf. NAACL, pp839-850, 2019. [16] Guangsheng Bao, Zhiyang Teng, Zhang, Yue: Target-Side Augmentation for Document-Level Machine Translation, Proc. ACL, pp. 10725-10742, 2023. [17] Y. Cheng, et al. : Semi-Supervised Learning for Neural Machine Translation, Proc. ACL, pp. 1965-1974, 2016 [18] 紺谷優志, 秋葉友良, 塚田元:ラウンドトリップ翻訳を用いたニューラル機械翻訳のデータ拡張, 言語処理学会第 28 回年次大会 pp. 360-364, 2022. [19] A. Currey, et al. : Copied Monolingual Data Improves Low-Resource Neural Machine Translation, Proc. ACL, pp.148-156, 2017. [20] Raj Dabre, Chenhui Chu, Anoop Kunchukuttan: A survey of multilingual neural machine translation, ACM Computer Surveys, vol.53, no.3, 2020. [21] Liang Ding,Di Wu, Dachen Tao: Improving neural machine translation by bidirectional training, arXiv:2109.07780, 2021. [22] Bui Tuan Thanh, 秋葉友良, 塚田元: 双方向翻訳モデルと反復逆翻訳を用いた低資源言語に対するニュー ラル機械翻訳の性能向上, 言語処理学会第 28 回全国大会, pp. 1756-1760, 2022. [23] Facebook AI Research Sequence-to-Sequence Toolkit written in Python, 2024 年 1 月 12 日, https://github.com/facebookresearch/fairseq. ## A 付録 表 A: TED 12 講演の英日-日英翻訳評価実験結果 (BLEU) () 内は fine-tuning モデル 表 B: TED 2 講演のマルチリファレンスによる翻訳評価結果 (BLEU)()内は fine-tuning モデル
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-20.pdf
# Exploring the Potential of Prompt-Based Method for Kanji-Kana Conversion in Japanese Braille Translation Micah Kitsunai ${ }^{1}$ Deborah Watty ${ }^{1}$ Shu-Kai Hsieh ${ }^{1}$ ${ }^{1}$ Graduate Institute of Linguistics, National Taiwan University, Taipei, Taiwan \{r11142010, r11142012, shukaihsieh\}@ntu.edu.tw } \begin{abstract} This study focuses on the challenge of polyphone disambiguation in the automatic translation process of Japanese into Japanese Braille and explores the applicability of Large Language Models (LLM) to this task. We propose a method that includes additional information obtained by employing a morphological analysis tool when prompting the LLM. The results indicate that this combined approach enhances accuracy beyond the predictive capabilities of morphological analysis tools alone and also surpasses the standalone use of the LLM. \end{abstract ## 1 Introduction Even though text-to-speech applications are very widespread, Braille is still an important communication tool for people with visual impairments. With every new publication, there is a need for Braille translation, and this demand continues to grow. Braille functions with 6 dots forming a single cell, allowing for 64 different combinations based on whether each dot is raised or not. Since the number of possible characters is limited, more than one Braille cell is sometimes used to represent a single print symbol [1, 2]. A Japanese Braille character typically corresponds one-to-one with a single Kana character ${ }^{1)}$ (see Table 1). Therefore, it is necessary to convert Kanji into Kana for Braille translation. While there is Braille Kanji (漢点字) that uses 8 dots, it is not widely used and does not require Kana conversion, so it is not considered in this study. Japanese is commonly written in a combination of Kanji and Kana. Kanji characters have multiple readings (examples are shown in Table 2), known as On'yomi (Chinesederived reading) and Kun'yomi (original Japanese read-  ing). Additionally, there are polyphones, which are words with the same spelling but different readings [3]. When the wrong reading is chosen for a word during Braille conversion, it is up to the reader to identify this mistake, slowing down the reading process. Despite the development and utilization of numerous automatic Braille translation tools, their accuracy is not perfect, necessitating manual corrections. The primary objective of this study is to propose a method for applying Large Language Models (henceforth referred to as LLMs) to automatic Braille translation that does not require finetuning and can be implemented at a low cost. ## 1.1 Literature Review A key challenge in Braille translation is accurately predicting the appropriate readings of Kanji. Rule-based methods, such as Liblouis [4], exist but require the continuous addition of new rules. Alternative approaches involve using Neural Machine Translation Technology [5, 6] or BERT for polyphone disambiguation [7]. There are also studies using pre-trained language models for polyphone disambiguation in text-to-speech [8], but they require extensive Braille data and training. Additionally, research using corpora with Kana annotations [6] and their validations [9] have been conducted. With the advent of large language models, prompt engineering is an emerging approach to a variety of problems $[10,11,12]$. For the purpose of Braille translation, Reference [13] used a prompt-based method for the disam- Table 2 Classification of Multiple Readings in Japanese biguation of polyphone characters in Taiwanese Mandarin. The study employed syntactic analysis results and external dictionary data as part of the prompt given to an LLM, recording a higher accuracy rate than generic rule-based methods. ## 2 Proposed Method In this paper, we adapt the method used in [13] to the use case of Japanese Braille translation. Figure 1 illustrates the pipeline of the proposed method. In the following section each step in the pipeline is explained in more detail and Table 3 summarizes the various problems that need to be solved for Braille conversion and which part of the pipeline addresses each problem. ## 2.1 Morphological Analysis Initially, texts containing a mix of Kanji and Kana are analyzed using the open-source morphological analysis engine Mecab [14], employing its standard IPA dictionary. This analysis yields a range of linguistic information for each morpheme, including Part of Speech (POS), reading, and phonetic notation (phonetics). The process of converting to kana encompasses two distinct types: "Kana as written form" and "Kana as spoken form." In Braille translation, the latter principle is applied and the sounds are transcribed exactly as heard. As illustrated in Table 2, a characteristic of this method is the representation of “は" (ha) as “わ” (wa). Mecab's phonetics information, readily usable and also employed in other studies [5], forms the basis of our system. Differences in On'yomi and Kun'yomi readings, as shown in Table 2, are often correctly predicted through this analysis. However, since the determination of readings for homographs is not perfect, subsequent methods are needed to enhance the accuracy. ## 2.2 Dictionary Entries Dictionary entries for words are obtained using the JishoAPI [15], an API that provides results from Jisho, $\left.{ }^{2}\right)$ an online Japanese-English dictionary. Since most Kana and some Kanji readings are unique, it is not necessary to add this information to all words. To identify words with unclear readings, we focus on words containing Kanji after morphological analysis, extracting only those with multiple readings or multiple entries in the dictionary. The acquired dictionary data can be seen as an example in the prompt illustrated in Figure 3. ## 2.3 Prompt Design In this proposed method, the library Langchain [16] was used, which facilitates application development utilizing Large Language Models. For words with unclear readings, the meanings and possible readings obtained from JishoAPI were inserted into the prompt, as shown in Figure 3. This prompt is processed by the LLM to predict the correct readings of the Kanji. ## 2.4 Conversion to Braille The readings obtained from the prompt and from the dictionary entries are then combined. Since Kana and Braille characters are almost exclusively associated as oneto-one pairs, the conversion is straightforward from here on out. The results are displayed as shown in Figure 3.3) ## 3 Evaluation and Results For verification, we used the polyphones included in the test data as keys and counted whether their readings were correctly predicted when using each method. ## 3.1 Test Data We constructed a dataset of 67 short sentences, each containing one polyphone (from a list of 18 different polyphone characters), from the Balanced Corpus of Contemporary Written Japanese [17]. To ensure that the context around the target word could be referenced, 20 words before and after each polyphone were extracted. The target words were selected based on [9]  Table 3 Strategies in the Proposed Method of This Study Figure 1 Pipeline of the Proposed Method Figure 2 An Example of a Prompt ## 3.2 Evaluation Method Table 5 presents the results by morphological analysis alone, GPT-3.5 and GPT-4 alone, as well as GPT-3.5 and GPT-4 paired with morphological analysis. ## 3.2.1 Mecab Mecab allows for the prediction of readings for each morpheme, so its usability as a morphological analysis tool was tested. Instances were observed where the context-based judgment was insufficient. For some characters, the tool selected the same reading for all example sentences. Additionally, errors were noted where, despite being technically correct, uncommon readings were chosen. Figure 3 An Example of the Results ## 3.2.2 OpenAl Models Using OpenAI's API, attempts were made to obtain Kanji readings using GPT-3.5 and the latest GPT-4 models. We adopted a zero-shot-prompting method, providing prompts that simply instruct the text to be converted to Katakana. The OpenAI models used were gpt-3.5-turbo and gpt-4. With both the GPT-3.5 and GPT-4 models, there were instances of seemingly random combinations of On'yomi and Kun'yomi, or entirely random, non-existent readings. ## 3.2.3 Mecab + OpenAl Models Finally, we combined the morphological analysis with Mecab with prompting the LLM as described in the previous section. We tested the same models as in our zero-shot approach. In the experiments conducted, the GPT models used were all set with a Temperature of 0 for the purpose of reproducibility. The accuracy improved with this method. Specifically, referencing Mecab and dictionaries helped prevent the generation of non-existent readings by GPT. ## 4 Discussion The low accuracy rate of the method using only prompting with GPT-3.5 is likely due to a shortage of data on Table 4 Improvements gained from the Proposed Method \\ 私 watashi & *watakushi & watashi & watashi & \\ Table 5 Comparison of Scores and Accuracy for Each Model pairs of Kanji characters and their readings in such language models. However, the significant improvement in results with GPT-4 suggests that the ability to predict readings using only prompts greatly depends on the quality and quantity of the data. In the methodology employed in this study, the risk of generating non-existent words is low due to the use of reading information and dictionary data based on Mecab's morphological analysis, as demonstrated in Table 4. Furthermore, it was observed that more accurate reading predictions become possible by performing context-based corrections using LLMs after the selection of readings by Mecab. This approach effectively combines the strengths of both systems: Mecab's precise morphological analysis capabilities and the complex contextual understanding of LLMs. Thus, it compensates for the shortcomings of each system and offers a more balanced approach. However, it was observed that the accuracy rate for synonyms with different readings is still low. This could be due to the semantic categorization used not adequately addressing these specific cases. Initially, it was thought that the system had flexible response capabilities, but the effect on synonyms turned out to be limited. Nonetheless, in Braille conversion, since there is little change in meaning, it is unlikely to be a significant burden for users. ## 5 Conclusion In this study, we explored the potential of using LLMs for Kanji-to-Kana conversion in the context of automatic Japanese Braille translation. Compared to the standalone use of morphological analysis tools like Mecab and lan- Table 6 Examples and Classification of Errors & Error & Category & Method \\ 私 watashi & *watakushi & Mecab \\ 人気 hitoke & *jinnke & & LLM \\ 人事 jinnji & *ninnji & & LLM \\ 昨日 kinou & *sakujitsu & synonym & all \\ guage models such as GPT, the method proposed in this research - incorporating dictionary search results for polyphones into prompts and then inputting these into an LLM - demonstrated higher accuracy. The improvement in the accuracy of automatic Kana assignment for Kanji, as explored in this study, is expected to contribute not only to Braille translation but also to assist children and Japanese language learners who are not yet proficient in Kanji, as well as to enhance text-to-speech accuracy. In the future, there is potential in expanding the dictionary database and incorporating comprehensive textual context and word usage examples into the prompts. The current methodology is confined to single-sentence analysis due to LLM token limits, but an essential objective moving forward would be to extend this approach to full-text analysis and improvements in translation speed while maintaining the accuracy of analysis. ## References [1] 日本点字委員会. 日本点字表記法 2018 年版. 社, 2018. [2] 特定非営利活動法人全国視覚障害者情報提供施設協会. 点訳のてびき第 4 版. 社, 2019. [3] 西山浩気, 山本和英, 中嶋秀治. 読み曖昧性解消のためのデータセット構築手法. 人工知能学会全国大会論文集第 32 回 (2018), pp. 4Pin152-4Pin152. 一般社団法人人工知能学会, 2018. [4] Christian Egli. Liblouis-a universal solution for braille transcription services. In Proceedings of Daisy 2009 Conference, 2009. [5] Yuko Shimomura, Hiroyuki Kawabe, Hidetaka Nambo, and Shuichi Seto. Braille Translation System Us- ing Neural Machine Translation Technology I - Code Conversion, p. 335345. Springer International Publishing, June 2019. [6] Hiroyuki Kawabe, Yuko Shimomura, and Shuichi Seto. Braille translation system using neural machine translation technology II - code conversion of kana-kanji mixed sentences. In Proceedings of the Fifteenth International Conference on Management Science and Engineering Management: Volume 115, pp. 417-426. Springer, 2021. [7] 佐藤文一, 喜連川優ほか. 事前学習済み bert の単語埋め込みべクトルによる同形異音語の読み誤りの改善. 研究報告アクセシビリティ (AAC), Vol. 2020, pp. $1-5,2020$. [8] Rem Hida, Masaki Hamada, Chie Kamada, Emiru Tsunoo, Toshiyuki Sekiya, and Toshiyuki Kumakura. Polyphone disambiguation and accent prediction using pre-trained language models in japanese tts front-end, 2022. [9] 喜連川優佐藤文一. 大規模振り仮名注釈付きコーパスを用いた同形異音語の読み分類. 言語処理学会第 28 回年次大会 (NLP2022), pp. 1878-1883, 2022. [10] Bertalan Meskó. Prompt engineering as an important emerging skill for medical professionals: tutorial. Journal of Medical Internet Research, Vol. 25, p. e50638, 2023. [11] Vivian Liu and Lydia B Chilton. Design guidelines for prompt engineering text-to-image generative models. In Proceedings of the $2022 \mathrm{CHI}$ Conference on Human Factors in Computing Systems, pp. 1-23, 2022. [12] Unggi Lee, Haewon Jung, Younghoon Jeon, Younghoon Sohn, Wonhee Hwang, Jewoong Moon, and Hyeoncheol Kim. Few-shot is enough: exploring chatgpt prompt engineering method for automatic question generation in english education. Education and Information Technologies, pp. 1-33, 2023. [13] Deborah Watty, Micah Kitsunai, and Shu-Kai Hsieh. Prompt-based translation of chinese into taiwanese mandarin braille. In 2023 International Conference on Asian Language Processing (IALP), pp. 56-61. IEEE, 2023. [14] MeCab MeCab. Yet another part-of-speech and morphological analyzer, 2006. [15] jisho-api. https://github.com/pedroallenrevez/ jisho-api/, 2004. Accessed: 2023-01-12. [16] Harrison Chase. Langchain. https://github.com/ langchain-ai/langchain, 2022. Accessed: 2023-0112. [17] 前川喜久雄. Kotonoha 『現代日本語書き言葉均衡コーパス』の開発 (i 特集 $i$ 資料研究の現在). 日本語の研究, Vol. 4, No. 1, pp. 82-95, 2008.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-21.pdf
# 対訳関係にノイズのある対訳文からの新しい翻訳知識の学習 後藤功雄 衣川和卉 美野秀弥 河合吉彦 山田一郎 NHK 放送技術研究所 \{goto.i-es, kinugawa.k-jg, mino.h-gq, kawai.y-lk, yamada.i-hy\}@nhk.or.jp ## 概要 ニュースでは新しい語彙や表現が出現するため, ニュースの機械翻訳では新しい語彙や表現の翻訳知識を学習していく必要がある. 英語ニュースは日本語ニュースの単純な翻訳ではないため,日英ニュー ス記事から抽出できる対訳文は,対訳関係にノイズがある場合が多い。対訳関係にノイズがあるデータから翻訳を学習すると,ノイズも学習してしまうという課題がある。また,新しい表現は頻度が少ない場合が多く,低頻度の表現の学習は難しいという課題もある。そこで,ノイズの学習を抑え,低頻度の表現を学習しやすくすることを目指したNMT の手法として,学習したい表現部分と後続文脈の一部のみから誤差逆伝播で学習する手法を提案する. ## 1 はじめに NHKでは,日本語ニュースを基にして英語ニュー スを制作しており,この制作支援に日英機械翻訳システムを活用している.ニュースは新しい話題を報道するため,新しい語や名前,表現がしばしば出現する. 機械翻訳システムは構成的に翻訳できない表現に関しては,学習していないものは基本的には翻訳できない,情報発信のための英語ニュース制作では,正確な表現であることが重要であることから,新しい語や表現の訳は, 最初はニュースライターが正確な訳を調べて英語ニュースを制作する.過去の英語ニュースに既に出現している語や表現は,機械翻訳システムがそこから翻訳知識を自動的に学習して翻訳できるようになることが期待されている1). しかし, 英語ニュースの制作は日本語ニュースの単なる翻訳ではない [1] ため,同じニュースを伝える日英の記事対から抽出した対訳文対は,対訳関係に  ノイズが多いデータとなる.また,出稿する記事数は限りがあり,多くの話題の頻度は低い。すなわち,ノイズを含む対訳データから低頻度の新しい語や表現の翻訳知識の学習が必要となっている。 ニューラル機械翻訳(NMT)で対訳関係にノイズを含む対訳文を追加学習した場合,対訳関係のノイズを学習してしまうという課題と,低頻度の新しい語や表現は学習しても出力されにくいという課題がある. 訓練データの対訳文に含まれる対訳関係のノイズの影響を低減する NMT の手法がある [2]. この手法は単語対応の情報を利用する.単語対応の推定は難しいため推定誤りが発生し,それが NMT の学習におけるノイズの影響の低減効果に影響してしまうという課題がある.また,データ固有のアンカートー クンを入力文に追加することで対訳ノイズの影響を低減する NMT の手法もある [3]. しかし,アンカー トークンが低頻度の新しい語や表現の翻訳元として学習されてしまう恐れがあるため,この手法は,低頻度の新しい語や表現の学習には不向きと考えられる。 本稿では,これらの課題に向けた対策手法を提案する。対訳関係にノイズを含む対訳文をニューラル機械翻訳 (NMT) で追加学習する際に,学習したい表現と後続文脈の一部のみから誤差逆伝播させる.これによって,訳抜けなどの対訳関係のノイズを学習してしまうことが低減される効果と,対象の表現を集中的に学習することで,学習されやすくなる効果が期待される。単語対応の情報を利用しないため,単語対応推定の誤りの影響を受けない.NHK のニュース文を用いた日英翻訳の実験を実施した.追加学習により翻訳品質が下がってしまう課題は, この方法では効果が見られなかったが,対象の表現が出力されやすくなる効果が確認された。 ## 2 提案手法 例えば,下記に示す,日英記事(2021/4/4 NHK ニュース)中の文対から,“スエズ運河庁:SCA”の翻訳知識を学習したい場合を想定する。 ・エジプトのスエズ運河では先月 23 日、愛媛県の正栄汽船が所有し、台湾の会社が運航する大型コンテナ船が座礁して運河が塞がれ、6日後の 29 日にコンテナ船の離礁に成功し、運河の通航が再開されました。運河を管理するスエズ運河庁は、待機を余儀なくされた 422 隻の船舶すべてが 3 日、運河を通過したと発表しました。 - The SCA said on Saturday that all 422 ships stranded by the Japanese-owned, Taiwanese-operated Ever Given had passed through the canal by the end of the day. 青文字が学習したい対象部分であるが,低頻度データでは対訳部分を正確に推定して抽出することは困難である。赤文字は対応先がない部分を表しており,この文対では,日本語側に対応していない部分が多く存在する。この文対を NMT でそのまま学習すると,赤文字部分の訳抜けを学習してしまい,翻訳品質が下がってしまう. そこで,提案手法では,NMT の訓練時に,訓練データに出現していないもしくは低頻度などで翻訳知識を学習したい目的言語表現部分と後続文脈の一部( $n$ トークン)にのみ誤差逆伝播する対象を制限する。例えば,後続文脈の長さを 1 トークン $(n=1)$ とした場合で, “SCA" が BPE などによるサブワード分割で 3 トークン $(\mathrm{S} @ @, \mathrm{C} @ @, \mathrm{~A})^{2)}$ で表される場合,この文対の目的言語文“The S@@ C@@ A said on Saturday that ...”のうち, 誤差逆伝播させる出力トークンを 2 番目から 5 番目のトークン,すなわち,S@@,C@@,A,saidの4トークンのみとする.このように学習したい表現部分を中心に部分的に学習することで,学習を必要としていない部分を学習することで訳抜けなどの対訳関係のノイズを学習してしまうことを抑制し, 対象の表現の学習に集中することで対象の表現が出力されやすくなることが期待できる。後続文脈の一部も誤差逆伝播させる理由は,NMT のデコーダーは言語モデルの機能を持っており, 新しい表現は学習していない 2)ここでは@@はサブワード分割された分割点の左側を表している.文脈となり,その後続のトークンの推定性能が低くなることが想定され,新しい表現に続くトークンも学習するためである. 誤差逆伝播を制限する実装方法はいくつか考えられるが,本研究ではマスキングを用いる.誤差逆伝播させる直前の各出力トークンの龙度に対して、誤差逆伝播させたくないトークンの尤度に 0 を掛け,誤差逆伝播させたいトークンの尤度には 1 を掛ける. すなわち,出力トークン列に対応する 0 と 1 からなるべクトル(マスクベクトル)を出力トークンの尤度のベクトルに要素ごとに掛けて(アダマール積)から誤差逆伝播する。 ## 3 評価実験 提案手法の効果を検証するために,NHK のニュー スデータを用いた実験を行った。 ## 3.1 評価用データセットの構築 ベースとなる NMT モデルの構築用のデータには,日本語側もしくは英語側が NHKニュース文でその対訳を人手で構築した高品質な日英対訳 $1 \mathrm{M}$ 文対 (日英ニュース1)と開発データを用いた。この訓練データには 2020 年までのニュースを用いた. 次に,2021 年 1 月から 2022 年 10 月までの NHK 英語ニュース(英語ニュース 2)に含まれる英単語のうち,2017 年 6 月から 2020 年 12 月までの NHK 英語ニュース(英語ニュース 1)と日英ニュース 1 の英語に含まれない英単語のリスト(新英単語リス卜)を取得. 英語ニュース 2 の各記事と対応する日本語ニュー ス記事から,対訳文を抽出し,新英単語リストの英単語を含む対訳文を選択. さらに,この対訳文の日本語側で新英単語リストの英単語に対応する日本語表現が存在する対訳文を選択. この対訳文をノイズあり対訳と呼ぶ.新英単語リストの英単語と対応する日本語表現のペア(新英単語\&日本語表現ペア) に対応するノイズあり対訳は,各ペアあたり 1 文対から最大で 3 文対である. 2021 年以降のニュースの高品質な日英対訳文対で,新英単語\&日本語表現ぺアを含む対訳文対を抽出. これをテストデータ 2 \&参照訳 2 (426文対) とする。テストデータ 2 \&参照訳 2 に含まれる新英単語 \&日本語表現ペア(25 ペア)を含むノイズあり対訳は全てノイズあり訓練データ 2(65 文対)とする. 残りの新英単語 \& 日本語表現ペア(137ペア) を含むノイズあり対訳は,各ぺアあたり 1 つしかノイズあり対訳がないものを除外し,各ぺアあたり 2 つまたは 3 つのノイズあり対訳文対のうち,1つの日本語文をテストデータ 1 (137 文),それ以外の 1 つもしくは 2 つの対訳文をノイズあり訓練データ 1 (全体で 219 文対)とした. 追加学習には,ノイズあり訓練データ 1(219文対)とノイズあり訓練データ 2 (65 文対)を合わせたデータ(284 文対)を用いた. ## 3.2 実験設定 日本語の単語分割には Mecab(IPA 辞書)を使い,数字は 1 トークンにまとめた. 英語のトークナイザには Moses 付属のトークナイザを用いた. NMT のモデル構造には,Transformer[4]を用い,実装は独自開発で,設定值には Sockeye[5] の標準設定を用いた. その設定值は 6 層, dropout=0.1, label smoothing $=0.1$ などである.ただし,NHK のニュース文は文長が長いため, 学習に利用する最大文長は 200 トークンに設定した。 最適化手法には adam を用いた。ベースとなる NMT モデルは, 最大エポック数 100 で学習し, 開発データでモデル選択を行なった。翻訳時はビーム幅 5 でビームサーチした. 追加学習は, 10 エポック学習した. ## 3.3 実験結果 テストデータ 1 を翻訳した際に,新英単語\&日本語表現ペアの新英単語が訳出される率を調べた. 結果を表 1 に示す.「追加学習なし」がベースとなる NMT の出力, 「通常追加学習」がベースモデルに対して、ノイズあり対訳提案追加手法の数字 $n$ は後続文脈として利用するトークン数である.カッコ内の数値は件数を表している。追加訓練データが 1 文のみの場合, 55 件のテストデータの内,訳出できたのは「追加学習なし」および「通常追加学習」で $1.8 \%$,提案手法は最大で,後続文脈なし $(0)$ の $12.7 \% て ゙ ,$ 提案手法は改善しているが大半は訳出できていない.追加訓練データが 2 文の場合, 82 件のテストデータの内, 訳出できたのは「追加学習なし」が $0 \%$ おび 「通常追加学習」で 9.8\%, 提案手法は最大で, 後続文脈なし (1) の $50.0 \%$ で,提案手法は通常学習に比べて改善が見られ,半数が訳出されている。なお, テストデータ 1 には高品質な参照役が存在しないため,BLEU スコアは算出していない.表 1 テストデータ 1 における追加データ数毎の訳出率 } & & 1.8 & $(1 / 55)$ & 0.0 & $(0 / 82)$ \\ テストデータ 2 を翻訳した際の BLEU スコアと,新英単語 \&日本語表現ぺアの新英単語が訳出される率を調べた。結果を表 2 に示す。 追加学習なしのベースモデルのスコアに比べて、追加学習したモデルはいずれも BLEU スコアが低下した.この主な原因は, 追加学習で過学習してしまったためと考えられる。この結果からは,対訳関係にノイズがあるデータから学習する際にノイズの影響を抑える効果は確認できなかった。一方で,訳出率は,「追加学習なし」では $0 \%$, 「通常追加学習」 では, $2.1 \%$ に対して, 提案手法では, 最大 $61.5 \%$ (後続文脈 1 トークンの場合)に向上している. 表 2 テストデータ 2 における翻訳品質 ## 4 おわりに ニュース翻訳に向けて,ノイズのある対訳データから低頻度の新しい語や表現を学習する手法を提案した. 評価実験では,低頻度の新しい語が訳出される率の向上が確認された。一方で, 追加学習により全体の翻訳品質が低下した. 今後, 過学習を抑える対策を取り入れることで,この問題の改善に取り組んでいく予定である. ## 謝辞 本研究成果の一部は、国立研究開発法人情報通信研究機構の委託研究 (課題 225) により得られたものです。 ## 参考文献 [1] 後藤功雄. ニュースを対象とした日英機械翻訳システムの研究開発. AAMT ジャーナル, No. 77, pp. 4-10, 2022. [2] 後藤功雄, 美野秀弥, 山田一郎. 訳抜けを含む訓練デー タと訳抜けのない出力とのギャップを埋めるニュー ラル機械翻訳. 言語処理学会第 26 回年次大会, 2020. [3] 根石将人, 吉永直樹. ニューラル機械翻訳のためのノイズ寛容なアンカー学習. 言語処理学会第 29 回年次大会, 2023 . [4] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Proceedings of NeurIPS, pp. 5998-6008. 2017. [5] Felix Hieber, Michael Denkowski, Tobias Domhan, Barbara Darques Barros, Celina Dong Ye, Xing Niu, Cuong Hoang, Ke Tran, Benjamin Hsu, Maria Nadejde, Surafel Lakew, Prashant Mathur, Anna Currey, and Marcello Federico. Sockeye 3: Fast neural machine translation with pytorch, 2022.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-22.pdf
# GPT を用いた標準語から方言への翻訳 山崎祐 ${ }^{1}$ 坂野遼平 ${ }^{1}$ ${ }^{1}$ 工学院大学情報学部 情報通信工学科 [email protected] ## 概要 現在日本では方言は当該地域における日常会話等にとどまらず,様々な形で活用されている. その方言を支える職業として方言指導講師がある. しかし若者の方言離れなどによる問題から方言指導講師の減少が縣念されている.指導できる人が減少すると舞台の原稿作成や方言の翻訳などが困難になってしまう.そこで本研究では,GPT を利用した標準語から津軽弁へのテキスト翻訳を行う.具体的には標準語と津軽弁の対訳データを Fine-tuning し,津軽弁への翻訳を指示する prompt を与える. 実験の結果,学習前よりも Fine-tuning をした後のほうが BLEU スコアが高くなることが分かった。 ## 1 はじめに 方言とはある言語が地域によって別々な発達をし,文法・イントネーション・語彙などの上で相違のあるいくつかの言語圏に分かれたとみなされた時のそれぞれの地域の言語体系のことである. 東條操の方言区画論 [1] では,日本語の方言は本土方言と琉球方言に大別される.本土方言は東部方言,西部方言,九州方言の 3 つに分類される. これらはさらに,北海道で話される北海道方言や,鹿児島県や宮崎県で話される薩隅方言といった方言で細分化されている. また琉球方言は沖縄や奄美大島, 宮古島で話される。本土方言は 13 , 琉球方言は 3 の計 16 の方言が日本には存在する. 日本では異なる各地方独特の語彙や言い回しあるいはイントネーションや発音の違い,いわゆるなまりを指す場合が多い. 現在日本では方言は当該地域における日常会話等にとどまらず,様々な形で活用されている.例として地域資源として観光誘致に活用されるケースがある. 具体的には空港や駅など公共交通機関や観光客が集まる土産物屋には歓迎を表すあいさつ方言が使われている. また劇団四季のライオンキングの舞台 では地域講演に合わせ,セリフをそれぞれの土地に合った方言に変えるという演出がある [2]. このように観光誘致や多様な作品表現には方言が欠かせない。それを支える職業として方言指導講師がある。方言指導講師とはドラマや映画,舞台など俳優に方言を指導する専門家である.俳優が方言を習得できるように,練習の原稿を作成したり,方言のイントネーションや発音を指導する。このような専門家によって多様な方言の活用が支えられている. しかし, 方言指導講師の減少が懸念されている.一因として方言の標準語化が進んでいることがあげられる。これは,標準語に触れる機会が増えることで,方言に替わって標準語が多く用いられるようになる現象を指す。背景として 2011 年の国立国語研究所の調査 [3] によると, 戦前以来の標準語教育や都市部への就職,マスメディアの発達が挙げられている.こういった背景に伴い, 若者が地方から都市に移り,方言指導講師の担い手の減少が懸念される. それにより方言を指導できる人が減少すると舞台の原稿作成やイントネーションの指導が困難になってしまう。 本研究では津軽弁に着目し, Generative Pre-trained Transformer(GPT)を利用した機械翻訳でテキストベースの標準語から津軽弁への翻訳を行う.津軽弁とは青森県津軽地方で話される日本語の方言である. 青森県内の方言はこの津軽弁と南部地方の南部方言に大きく分かれる. 本研究では前者の津軽弁を扱う。研究目的は GPT を用いた言語モデルで原稿を作成することで方言指導講師の負担を軽减することである. ## 2 関連研究 今井の研究ではディープラーニングフレームワー ク Chainer を用いて津軽弁と共通語双方向の音声・文字情報変換システムの開発を行った [4]. 津軽弁テキストを入力として形態素解析を行うシステム 図 1 提案システム と,人工知能により翻訳を行うシステムにより構成されている. 形態素解析には京都大学情報学研究科と NTTコミュニケーション科学基礎研究所による共同研究ユニットプロジェクトを通して開発されたオープンソース $\mathrm{MeCab}$ (和布無)を使用している.形態素解析エンジンは独自のライブラリを追加できるため,方言情報を用いたライブラリを作成することができる. 今井の研究では $\mathrm{MeCab}$ 使用して, 津軽弁ライブラリを作成し形態素解析を行った. しかし分割精度は $62 \%$ \%だったため, 正しく分割できない例があった. 本研究では GPT を用いることで標準語から津軽弁への翻訳を行い,精度を検証する。 尾崎らの研究では大規模言語モデルである GPT-3 の反論文生成品質を人手により評価・検証することに加え, 収集した反論とそれを元に生成した生成反論の文章一致率を算出・評価を行った. 反論生成は GPT-3 の prompt に議題と立論とそれに対する反論の回答例をあたえ,それをもとに反論を出力するようにした.この研究では prompt のクエリ部(「反論を生成せよ」という指示)が反論文生成に大きく寄与していることが分かった [5]. ## 3 提案手法 図 1 に提案システムの動作の流れを示す. 本研究では GPT に標準語から津軽弁の翻訳を行わせる. 初めに GPT に方言データを学習させる。方言データは標準語と津軽弁の対訳のデータである. 具体的な候補として,国立国語研究所の全国方言データ [6] や,先行研究の今井の研究 [4] で用いられている標準語と津軽弁の対訳文章などが挙げられる. 前者の方言データは標準語と津軽弁単語単位の対訳に対して, 後者は文章データとなっている. 本研究では後者の文章データを学習させる. なぜなら GPT は transformer をもとに作られている. transformer は前後の文脈から,次にどの単語が来るべきかを予測するように訓練する。そのため単語ではわからない前後関係を,文章で学習させることができる. 学習を行った GPT に入力として標準語を与える. ここで GPT に対しての prompt を設定する. prompt は「(標準語文)を津軽弁に翻訳してください.」とした. 方言に特化した GPT がその入力を翻訳する. そうすることで津軽弁に翻訳されたものが出力される。 ## 3.1 GPT GPT とは,自然言語の生成や応答,会話のモデリングに特化して開発された言語モデルである.これらのモデルは訓練データとしてニュース記事や Web ページ,書籍,会話ログなど莫大なテキストデータが使用されている. GPTをある目的に特化させるための手段として Fine-tuning と prompt が挙げられる. ## 3.1.1 Fine-tuning Fine-tuning とは追加のデータを用意してモデル自体をさらに学習させる方法である. GPT は事前学習された汎用モデルであり, 特定のタスクに対して最適化されていないことがある. そこで自分の行いたいタスクに特化させるために,追加のデータを学習させることでモデルのパラメータを調整する. OpenAI によると Fine-tuning をすることで prompt よりも高品質な応答が可能なことや prompt の短縮による処理時間の短縮が期待できる [7]. ## 3.1.2 prompt prompt とは言語モデルに対しての指示や命令のことである. promptを適切に設定することで,言語モデルの出力が良質なものになる. 基本的な prompt のパターンとして zero-shot prompting および few-shot prompting がある.前者の「zero-shot prompting」は例を与えず,直接質問を与える promptの型である. すでに多くのデータが学習されているモデルであれば正しい回答が得られるが,間違った回答が出力される場合がある。一方後者の「few-shot prompting」ははじめにいくつか指示とその回答のセットを与え,学習させる prompt の型である.このセットの数が多ければ,適切な回答が得られる。 ## 4 評価手法 本研究では翻訳した生成文と正解訳を評価するために BLEU スコアと人手評価を用いる. ## 4.1 BLEU スコア BLEU スコアとは翻訳したフレーズと正解訳に含まれているフレーズが比較され,そのフレーズの一致数をカウントするスコアである。機械翻訳の性能を評価するための自動的な尺度で,01の範囲であらわされ, 正解訳に近いほど数値が高くなる.このフレーズは N-gram で分割したテキストである. $\mathrm{N}$-gram とは任意の文字列や文書を連続した $\mathrm{n}$ 個の文字で分割するテキスト分割方法である。例えば 「今日は暑いですね」を単語単位 1-gram で分割すると,「今日,は,暑い,です,ね」となる。このように分割したフレーズ同士を比較し,一致している数で評価する.算出式は以下のようになっている $ B L E U=e^{(1-r / c)} \exp \left(\sum_{i=1}^{n} w_{n} \log p_{n}\right) $ $r$ は人間が翻訳した文章の長さを表し,正解訳の意味で reference の頭文字をとっている. $c$ は機械が翻訳した文章の長さを表し,機械が翻訳した文の候補の意味で candidates の頭文字をとっている. $ \begin{aligned} & w_{n}=1 / N \\ & p_{n}=\frac{\Sigma_{C \in \text { Candidates }} \Sigma_{n-\text { gram } \in C} \operatorname{Count}_{\text {clip }}(n-\text { gram })}{\Sigma_{C^{\prime} \in \text { Candidates }} \Sigma_{n-\text { gram }} \in C^{\prime} \text { Count }\left(n-\text { gram }^{\prime}\right)} \end{aligned} $ と定義される。一般的に $\mathrm{N}=4$ と定義されることが多い. count $_{\text {clip }}(n-$ gram は $\mathrm{n}$-gram のときに,機械が翻訳した文章 (candidates) と人間が翻訳した文章 (candidates) の一致している数である [8]. BLEU スコアには弱点がある。 それは文章の意味を考慮していないことである.BLEU スコアは字面しか見ていないため,同義語でも完全に文字が一致しなければ,評価されない。そのため翻訳を正しく評価するためには BLEU スコアのみでは不十分である。そこで人手評価で文章の意味や表現の評価を補う. ## 4.2 人手評価 人手評価は評価型国際ワークショップ IWSLT(International Workshop on Spoken Language Translation[9] で採用された基準を用いる。今回は流暢さに着目する. 流暢さとはある言語として自然な表現であるかを示す。つまり津軽弁の文章として自然な文章であ gpt-3.5-turbo と提案手法の BLEU スコア るかどうかを見てもらう.今回は流暢さを 15 の 5 段階で評価してもらう. ## 5 実験 今回使用したモデルは gpt-3.5-turbo である.方言データは今井の研究 [4] や津軽弁をまとめたホームページ [10] から収集した文章 207 文を使用した。そのデータを学習データとテストデータで $8: 2$ に分けた。学習データ 165 文を gpt-3.5-turbo に Fine-tuning をした。そのモデルには「(標準語文)を津軽弁に翻訳してください.」という promptを指定した. そうすることで GPT で翻訳をすることができる。そしてテストデータ 42 文を用いて翻訳した生成文と正解訳を BLEU スコアで評価した. BLEU スコアは N-gram で分割するため単語で分かれている必要がある。そのため評価をする前に,生成文を津軽弁の辞書を用いた janome で形態素解析を行った. さらに人手評価を行った. 津軽地方出身の 4 人の評価者に行ってもらった. Fine-tuning する前とした後の 42 文をそれぞれ 1~5 で評価してもらい,それを平均したもので比較した。 ## 5.1 評価結果 Fine-tuning する前の gpt-3.5-turbo と提案手法のモデルで BLEU スコアを用いて評価した結果を表 1 に示す.また提案手法の成功例と失敗例の出力結果の例を表 2 と表 3 に示す. Fine-tuning をする前の BLEU スコアと比べ,Fine-tuning を行った提案手法は倍以上の値となった。一般的に Fine-tuning を行うことで,あるタスクの性能が上がる。この実験により,方言の翻訳でも BLEU スコアが上がることが分かった。しかし BLEU スコアは 0.4 以上の値になると高品質な翻訳といわれているため,高品質な翻訳とは言えない。 次に人手評価の結果を表 4 に示す. 表 4 は 1 5 段階で評価してもらったものを平均し, Fine-tuning 前の 42 文の平均值と, Fine-tuning 後の平均値で比較した結果である. Fine-tuning 後のほうが平均值は低くなっている, 42 文のうち,Fine-tuning 前のほうが高い評価となったものは 25 文, Fine-tuning 後のほう 表 2 出力結果 (成功例) 表 3 出力結果 (失敗例) 表 4 人手評価の平均值 が高い評価となったものは 12 文あり,同一評価が 5 文であった. ## 5.2 考察 BLEUスコアに関しては, Fine-tuning 前よりも後のほうがスコアが高くなっていることが分かった. しかし人手評価での流暢さの評価は Fine-tuning 前よりも後のほうが低くなっていることが分かった。なぜなら BLEU スコアはフレーズの一致率を見るため,意味については考慮されない。そのため Fine-tuning したことで単語は方言らしくなったが,実際津軽弁の文章としての意味はおかしくなってしまった。 ## 6 おわりに 方言を支える職業として方言指導講師がある.しかし,言葉の標準化により,方言話者は減り,さらに彼ら/彼女らの高齢化も問題となっている. そこで大規模言語モデルである GPTを利用して,標準語から方言の翻訳を行った. GPTを方言に特化させるモデルにするために, Fine-tuning を行った. 結果としては Fine-tuning を行うことで標準語から津軽弁への翻訳の BLEU スコアが上がることが確認できた. しかし一般に高品質と言われる BLEU スコアには達しておらず,十分な翻訳精度とは言えない。また人手評価により Fine-tuning する前よりもした後のほうが流暢さが低くなっていることが分かった. 今後の課題として翻訳精度と形態素解析の精度を高めるためにさらに津軽弁文章を収集する必要がある. また方言の機械翻訳の prompt による効果で zero-shot-prompting と few-shot-prompting $の$ 精度比較を行っていきたい. ## 参考文献 [1] 東條操. 日本方言学. Technical report, 吉川弘文館, 1954. [2] 劇団四季. https://www.shiki.jp/applause/ lionking/learn_more/more_lk_2.html(accessed August. 1 2023). [3] 木部暢子. 方言の多様性から見る日本語の将来. 学術の動向, Vol. 16, No. 5, pp. 5 108-5 112, 2011. [4] 今井雅. 特別講演「あなたの津軽弁を共通語に一一弘大 $\times$ ai $\times$ 津軽弁の取り組み一一」.日本放射線看護学会誌, Vol. 10, No. 1, pp. 9-12, 2022. [5] 尾崎大晟, 中川智皓, 内藤昭一, 井之上直也, 山口健史. 大規模言語モデルが生成した反論文の品質評価. In The 37th Annual Conference of the Japanese Society for Artificial Intelligence, p. 4, 2023. [6] 国立国語研究所. https://www2.ninjal.ac.jp/ hogen/dp/fpjd/fpjd_index.html(accessed January. 4, 2024). [7] OpenAI. https://platform.openai.com/docs/ guides/fine-tuning(accessed December. 20, 2023). [8] Kishore Papineni, Salim Roukos Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting on Association for Computational Linguistics, pp. 313-315, 2002. [9] Yasuhiro Akiba, Marcello Federico, Noriko Kando, Hiromi Nakaiwa, Michael Paul, Jun' ichiTsujii. Overview of the iwslt04 evaluation campaign. In IWSLT 2004, p. 3, 2004. [10] Moritaka Ogasawara. https://www2d.biglobe.ne.jp/ oga/tsugaru/ben. html (accessed January. 4, 2024).
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-23.pdf
# JaParaPat: 大規模日英特許対訳コーパス 永田昌明森下睦 帖佐克己 安田宜仁 NTT コミュニケーション科学基礎研究所 \{masaaki.nagata, makoto.morishita, katsuki.chousa, norihito.yasuda\}@ntt.com ## 概要 2000 年から 2021 年に日本特許庁 $(J P O)$ と米国特許商標庁 (USPTO) から公開された特許出願から約 3 億文対の日英対訳コーパスを作成した。欧州特許庁 (EPO) が管理する書誌データベース DOCDB からパテントファミリーに基づいて対訳文書対を抽出し、機械翻訳に基づく文対応を用いて対訳文対を抽出した。Web から収集した約 2000 万文対の対訳データ JParaCrawl に対して、特許出願から収集した約 3 億文対の対訳データを追加することにより、日英特許翻訳の精度が約 20BLEU ポイント向上した。 ## 1 はじめに 国際特許出願は非常に数が多いが有限であり、一定の期間を経てすべて公開される。本研究では、日本と米国の国際特許出願から得られる日英特許対訳データの量と質、およびそれらを用いて達成可能な翻訳精度を明らかにすることを目的とする。なお、日本における国際特許出願の翻訳業務の多くは日本語から英語への翻訳であるため、ここでは日英翻訳のみを評価対象とする。 日英特許対訳コーパスを作成する歴史は 20 年近くに及ぶ。内山ら [1] は、日英新聞記事のコンパラブルコーパスから対訳文を抽出する手法 [2] を使って、2007 年に NTCIR-6 特許検索タスクのために約 200 万文対の日英特許対訳コーパスを作成した。これは公開された最初の大規模な日英特許コーパスであり、2008 年に日本語と英語の間の機械翻訳に関する最初の共通タスクである NTCIR-7 特許翻訳タスクで使用された。[3]. 特許庁と情報通信研究機構 (NICT) は、日米の特許出願公開公報からパテントファミリーに基づいて約 3.5 億文対の JPO-NICT 英日対訳コーパスを作成した1)。このコーパスは、高度言語情報融合フォー ラム (ALAGIN) の会員に無償で提供されている。ま た特許庁は、100 万文対の日英特許対訳 JPO Patent Corpus $^{2}$ を作成し、2015 年に初めて開催されたアジア翻訳ワークショップ (WAT) において特許翻訳の共通タスクに提供した。 JPO-NICT や JPO の特許対訳コーパスは 2015 年頃に対訳辞書に基づく文対応手法 [2] を用いて作成された。一般論として hunalign[4] のような対訳辞書に基づく文対応よりも、Bleualign[5] のような機械翻訳に基づく文対応の方が精度が高いので、最先端の文対応手法を使えば日英特許対訳コーパスの品質を向上できる可能性がある。 近年、海外では大規模な特許対訳コーパスを作成する様々な試みが行われている。COPPA[6] は PCT 出願の抄録から対訳を抽出した。ParaPat[7] は Google Patentsの抄録から対訳を抽出した。 EuroPat[8] は、USPTO と EPO の特許査定を受けた特許文書から対訳を抽出した。EuroPat は、ParaCrawl プロジェクト [9] で実績がある機械翻訳に基づく文対応を用いている。 我々のアプローチは EuroPat に似ているが、特許査定を受けた特許ではなく未審査の特許出願を使用し、欧州言語間ではなく日英間の対応を付与した。国際特許出願には、パリルートと PCT ルートの 2 つの方法がある。我々の知る限り、本研究は、両ルー トの特許出願を広範囲に調査し、タイトル、要約、明細書、特許請求の範囲を含む特許文書のすべての部分に対応を付与する初めての試みである。 ## 2 特許出願データ ## 2.1 国際特許出願制度 外国で特許を取得する方法には、パリ条約 (Paris Convention)に基づいて直接その国へ出願する方法 (パリルート) と、特許協力条約 (Patent Cooperation Treaty, PCT) に基づく国際出願をその国へ移行する方法 (PCT ルート) がある。 2) http://lotus.kuee.kyoto-u.ac.jp/WAT/patent/ パリ条約ルートでは、ある国で国内出願をした後、パリ条約に基づく優先権を主張して 1 年以内に別の国に出願する。PCT 出願では、PCT 受理官庁 (receiving office) に単一の言語および形式で一つの PCT 出願を行えば、すべての PCT 加盟国で出願日に優先権を確保できる。しかし、ある国で特許権を取得するためには、その国に対して優先日から 30 力月以内に PCT 出願の国内移行 (national phase application)の手続きを行い、その国の国内法に従って特許審査を受ける必要がある。その際にその国の特許庁が受理する言語へ特許出願を翻訳しなければならない。例えば、日本企業が日本語で書いた PCT 出願を世界知的所有権機関 (World Intellectual Property Organization, WIPO) へ提出した場合、日本への国内移行後に日本特許庁 $(\mathrm{JPO})$ は日本語の特許を公開し、米国への国内移行後に米国特許商標庁 (USPTO) は英語の特許を公開する。 ## 2.2 日本特許庁の特許データ 日本特許庁 (JPO) は特許情報の一括ダウンロードサービスを提供している 3$)$ 。企業が利用する場合には会社の登記簿の提出を求められるが、ハードディスクを特許庁に送れば、必要な特許情報を入れて返送してもらえる。 日本の特許公報では、PCT に関する特許出願には通常の国内出願とは別の名前が与えられている。公開特許公報 (published pattent application) は、日本語で書かれた通常の国内特許である。これがパリ条約に基づく優先権主張の探索対象となる。公表特許公報 (Japanese translation of PCT international patent application) は、JPO 以外を受理官庁とする国際特許出願を、日本へ国内移行する際に提出された日本語への翻訳である。 再公開特許 (domestic re-publication of PCT international patent application) は JPO を受理官庁とする日本語で書かれた国際特許出願である。JPO は、再公開特許を公開する制度を、2021 年 12 月 23 日に廃止した。この日以降、最初に日本へ日本語で出願された PCT 出願は、一定の補正を経て特許と査定された場合にのみ利用可能となる。そのため本研究の対象期間は 2021 年までとした。 我々は、対訳データを作成するために、発明の久イトル、要約、明細書、請求項に対応する XML 要  素の $\mathrm{p}$ タグで囲まれたテキストを抽出した。すなわち、請求項番号、段落番号、数式、図などは抽出していない。日本の特許出願は 2004 年 1 月から XML 形式になっているが、2004 年以前は SGML 形式であった。SGML 形式のデータは、基本的に XML 形式と抽出対象が同じになるようにした。 ## 2.3 米国特許商標庁の特許データ 米国特許商標庁 (USPTO) は、特許出願の全文デー タを提供している。4)説明書と文書型定義 DTD は USPTO の Web ページにある。 ${ }^{5)}$ USPTO は、2001 年 3 月 15 日から特許出願の全文データを提供している。対応する特許出願は、米国で公開される 1 年前に日本で公開されている可能性があるため、本研究の対象期間は 2000 年からとしている。 USPTO の PCT 特許出願には、JPO の公表特許公報と再公開特許のような区別がないので、 PCT/JP2005/003817 のように文書番号が PCT で始まる場合を PCT 出願とみなした。 ## 2.4 欧州特許庁の書誌データ 欧州特許庁 (EPO) は、全世界の特許書誌データ (DOCDB) を有償で提供している。DOCDB のサンプル6) とマニュアル7) は EPO の Web サイトからダウンロードできる。 我々は、パテントファミリーの情報を取得するために DOCDB を入手した。パテントファミリーとは、一つの発明を保護するために様々な国で取得された特許の集合である。パテントファミリーは、 DOCDB の優先権主張のデータを解析することにより得られる。DOCDB の XML では、優先権主張の対象となっている文書の kind-code から通常の特許 (A) と PCT 出願 $(\mathrm{W})$ を区別できる。 ## 3 手法 ## 3.1 文書対応 EPO の DOCDB から得られるパテントファミリー に基づいて、JPO と USPTO から公開された特許  出願を対応づける。元データはすべて XML であり、Python 標準ライブラリの xml.etree.ElementTree モジュールを使用して以下に記述する文書対応の手順を実装した。同じパテントファミリーに所属する日本語と英語の特許出願の対の中で一番古いものを互いに対訳である文書対とみなす。 特許対訳文書対の探し方は、パリルートと PCT ルートで若干異なっている。パリルートの場合、基本は、一方が他方を優先権主張の対象とする場合である。本研究では、日本に出願した特許を優先権主張の対象とする米国の特許との対を 'jp-us'、米国に出願した特許を優先権主張とする日本の特許との対を 'us-jp'と呼ぶ。さらに例えば最初に中国で出願した特許を日本と米国へ出願する場合のように、共通の特許を優先権主張の対象とする日本の特許と米国の特許の対も抽出対象とし 'jp-x-us' と呼ぶ。 PCT ルートの場合、日本 (JPO) は再公表特許と公表特許公報の出願番号を求め、米国 (USPTO) は文書番号が PCT で始まるものを求める。両方が DOCDB に存在し、かつ、一致した場合、日本の特許出願と米国の特許出願を互いに翻訳な文書対とみなす。 ## 3.2 文対応 日本の特許出願と米国の特許出願は、タイトル、要約、明細書、請求項に分割し、それぞれのセクションごとに文対応を行った。文分割は、日本語、英語ともに moses の split-sentences.perl ${ }^{8}$ を用いた。 まず対訳辞書に基づく文対応 [2] を用いて最初の特許対訳データを作成した。次にこの特許対訳データと Web から収集した大規模日英対訳対デー タ JParaCrawl[10] を用いて日本語から英語への翻訳モデルを作成した。そして機械翻訳に基づく文対応 [5] を用いてもう一度特許対訳データを作成した。対訳辞書に基づく文対応は、日本語文と英語文の対において、対訳辞書に収録されている対訳語句がそれぞれに出現する割合をこの文対の類似度の尺度とする。対訳辞書としては、EDR 対訳辞書9)を使用した。日英対訳語句対の数は $1,690,174$ 件である。日本語の単語分割には mecab-unidic ${ }^{10)}$ 、英語のトー クナイズには TreeTagger ${ }^{11)}$ を用いた。機械翻訳に  基づく文対応には Bleualign ${ }^{12)}$ 、機械翻訳には fairseq [11] を用いた。日本語文書を英語へ翻訳し、BLEU を文の類似度の尺度として動的計画法により文対応を求めた。 ## 4 実験 ## 4.1 特許対訳データ 表 5 に日本の特許出願の公開年に基づいて 2000 年から 2021 年まで年別に収集された対訳文書対と対訳文対の数を示す。合計で約 140 万の対訳文書対から約 3.5 億の対訳文対を収集した。jp-us, jp-x-us, us-jp, pct は 3.1 節に述べた出願ルートと最初の出願国に基づく分類である。 表 2 テストデータの文数と英語側の単語数 表 3 文対応手法の比較 ## 4.2 実験条件 日英特許対訳コーパス JaParaPat の品質を確認するため、日本語から英語への翻訳実験を行った。 2000 年から 2021 年の前半までの対訳データを訓練データとした。表 1 に訓練データの文書数、文数、英語側の単語数を示す。 表 2 にテストデータの文数と英語側の単語数を示す。開発データとテストデータは、2021 年の後半 (second half) のパリルートと PCT ルートからそれぞ 12) https://github.com/rsennrich/Bleualign $\begin{array}{llllll}\text { 表 } 4 & \text { 様々な訓練データに対する日英翻訳の精度 } & & \\ \text { PCT test } 1 \text { test2 文対数 } & \text { 更新数 }\end{array}$ れ 2000 文と 1000 文をランダムに選択した。さらに 2022 年以降に公開予定の社内の日本語 PCT 出願を特許翻訳を専門とする二つの翻訳会社が英語へ翻訳したものをテストデータとして用意した。対象領域は情報通信 (ICT) に関するもので、ハードウェアからソフトウェアまで幅広い内容を含んでいる。また特許対訳データの科学技術論文への適用可能性を調べるために、ASPEC[12] のテスト文も使用した。 WAT-2023 の特許翻訳に関する共通タスクで使用されている JPO Patent Corpus のテストセットは最も新しいものでも公開年が 2019-2020であり、収集期間に含まれているので使用しなかった。 機械翻訳ソフトウェアは fairseq [11] を使用し、翻訳モデルは Transformer big [13] を使用した。 Transformer のハイパーパラメタを表 6 に示す。訓練データおよびテストデータのトークナイズは、 sentencepiece [14] を使用した。特許対訳データから $7 \mathrm{M}$ 文対、 $\mathrm{JParaCrawl}$ から $3 \mathrm{M}$ 文対をランダムにサンプリングして、sentencepiece のモデルを訓練した。語彙数は、日本語と英語ともに $32 \mathrm{~K}$ である。翻訳の精度は sacreBLEU $[15,16]$ と COMET(wmt22-cometda) [17] で評価した。特許翻訳では専門用語を正しく訳出できることが重要なので、本研究では BLEU を主たる評価尺度とする。 ## 4.3 文対応法の比較 最初に二つの文対応手法について評価した。Web から対訳データを収集する研究では、対訳辞書を用いた文対応よりも翻訳器を用いる文対応の方が高品質な対訳文が得られると報告されている。 $[9,10]$ まず 2000 年から 2013 年のパリルートの日英対訳文書対から、対訳辞書に基づく文対応で約 34M 文対の対訳データ (2000-2013Paris_dict)を作成した。次にこの対訳文対と JParaCrawl(20002013Paris_dict+JPC) から翻訳モデルを作成し、機械翻訳に基づく方法で約 43M 文対の対訳データ (2000-2013Paris_trans) を作成した。それぞれの翻訳モデルについて、特許テスト文に対する翻訳精度を表 3 に示す。13) テストセットによる翻訳精度の違いはさておき、表 3 からは、Web から収集した対訳データよりも、特許出願から収集した対訳データを使用する方が翻訳精度が大幅に高いこと、特許出願から収集した対訳データと Web から収集した対訳データを合わせると、特許翻訳の精度が少し向上すること、対訳辞書に基づく文対応よりも機械翻訳に基づく文対応の方が多くの対訳データを収集できること $(34 \mathrm{M}$ から 43M)、そして翻訳精度から判断すると機械翻訳に基づく文対応により得られる対訳データの方が高品質であることが分かる。 ## 4.4 日英翻訳精度 2000 年から 2021 年のパリルート (182M 文対) と PCT ルート (155M 文対) およびJParaCrawl(22M 文対) から訓練した翻訳モデルの翻訳精度を表 4 に示す。 Web 対訳データである JParaCrawl と比較すると、特許対訳データを使用することにより、特許テスト文の翻訳精度は大幅に向上する。パリルートと PCT ルートを比較すると、パリルートのテスト文はパリルートの対訳データの方が翻訳精度が高く、PCT ルートのテスト文は PCT ルートの対訳データの方が精度が高い。JParaCrawl とパリルートと PCT ルー トを合わせる (JPC+Paris+PCT) と、JParaCrawl だけ (JPC) に比べて日本語から英語への特許翻訳の精度が約 20BLEU ポイント向上した。 ## 5 おわりに 2000-2021 年の日本と米国の特許出願から網羅的に特許対訳データを収集し、約 $350 \mathrm{M}$ 文対の特許対訳コーパス JaParaPatを作成した。訓練データの量が Transformer big モデルで学習できる限界に達している可能性があるので、今後は機械翻訳のスケール則に関する研究 $[18,19]$ を参考にして、モデルのパラメタを増やす検討が必要である。  ## 参考文献 [1] Masao Utiyama and Hitoshi Isahara. A Japanese-English patent parallel corpus. In Proceedings of Machine Translation Summit XI: Papers, Copenhagen, Denmark, September 10-14 2007. [2] Masao Utiyama and Hitoshi Isahara. Reliable measures for aligning Japanese-English news articles and sentences. In Proceedings of the 41 st Annual Meeting of the Association for Computational Linguistics, pp. 72-79, Sapporo, Japan, July 2003. Association for Computational Linguistics. [3] Atsushi Fujii, Masao Utiyama, Mikio Yamamoto, and Takehito Utsuro. Overview of the patent translation task at the ntcir-7 workshop. In Proceedings of NTCIR-7 Workshop Meeting, pp. 389-400, 2008. [4] Dániel Varga, Péter Halácsy, András Kornai, Viktor Nagy, László Németh, and Viktor Trón. Parallel corpora for medium density languages. In Proceedings of the RANLP2005, pp. 590-596, 2005. [5] Rico Sennrich and Martin Volk. MT-based sentence alignment for OCR-generated parallel texts. In Proceedings of the 9th Conference of the Association for Machine Translation in the Americas: Research Papers, Denver, Colorado, USA, October 31-November 4 2010. Association for Machine Translation in the Americas. [6] Marcin Junczys-Dowmunt, Bruno Pouliquen, and Christophe MazencAndrew. Coppa v2.0: Corpus of parallel patent applications building large parallel corpora with gnu make. In Proceedings of the 4th Workshop on Challenges in the Management of Large Corpora Workshop Programme, pp. 15-19, 2016. [7] Felipe Soares, Mark Stevenson, Diego Bartolome, and Anna Zaretskaya. ParaPat: The multi-million sentences parallel corpus of patents abstracts. In Proceedings of the Twelfth Language Resources and Evaluation Conference, pp. 3769-3774, Marseille, France, May 2020. European Language Resources Association. [8] Kenneth Heafield, Elaine Farrow, Jelmer van der Linde, Gema Ramírez-Sánchez, and Dion Wiggins. The EuroPat corpus: A parallel corpus of European patent data. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 732-740, Marseille, France, June 2022. European Language Resources Association. [9] Marta Bañón, Pinzhen Chen, Barry Haddow, Kenneth Heafield, Hieu Hoang, Miquel Esplà-Gomis, Mikel L. Forcada, Amir Kamran, Faheem Kirefu, Philipp Koehn, Sergio Ortiz Rojas, Leopoldo Pla Sempere, Gema RamírezSánchez, Elsa Sarrías, Marek Strelec, Brian Thompson, William Waites, Dion Wiggins, and Jaume Zaragoza. ParaCrawl: Web-scale acquisition of parallel corpora. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4555-4567, Online, July 2020. Association for Computational Linguistics. [10] Makoto Morishita, Katsuki Chousa, Jun Suzuki, and Masaaki Nagata. JParaCrawl v3.0: A large-scale EnglishJapanese parallel corpus. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 6704-6710, Marseille, France, June 2022. European Language Resources Association. [11] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 48-53, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [12] Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. ASPEC: Asian scientific paper excerpt corpus. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC'16), pp. 2204-2208, Portorož, Slovenia, May 2016. European Language Resources Association (ELRA). [13] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Proceedings of the NeurIPS 2017, pp. 5998-6008, 2017. [14] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics. [15] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [16] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Brussels, Belgium, October 2018. Association for Computational Linguistics. [17] Ricardo Rei, Craig Stewart, Ana C Farinha, and Alon Lavie. COMET: A neural framework for MT evaluation. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 2685-2702, Online, November 2020. Association for Computational Linguistics. [18] Mitchell A Gordon, Kevin Duh, and Jared Kaplan. Data and parameter scaling laws for neural machine translation. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 5915-5922, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [19] Yamini Bansal, Behrooz Ghorbani, Ankush Garg, Biao Zhang, Colin Cherry, Behnam Neyshabur, and Orhan Firat. Data scaling laws in nmt: The effect of noise and architecture. In Proceedings of the 39th International Conference on Machine Learning, pp. 1466-1482, 2022. ## A 年別の対訳文書対と対訳文対の数 表 5 抽出された対訳文書対と対訳文対の数 (2000 年から 2021 年) & & $160,758,864$ & 244,356 & & & 542,968 \\ B翻訳モデルのハイパーパラメ夕 表 6 Transformer のハイパーパラメタ
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-24.pdf
# 証憑を用いた日本語 OCR 誤り訂正ベンチマークの構築 藤武将人 ファーストアカウンティング株式会社 FA Research fujitakeefastaccounting.co.jp ## 概要 この論文では OCR(Optical Character Recognition) システムにおける日本語証憑の認識結果の誤り訂正手法検討のため, ベンチマークとベースラインの構築及びその有効性の評価を行う. 請求書などの証憑において,適切な処理やその自動化に向けて記載されている文字を正しく認識し, また誤りがある場合には補正を行うことは重要である. そのため, 本研究では日本語請求書における社名などの項目を対象に既存の OCR モデルによる文字認識精度を測定し, 誤り訂正ベンチマークを構築した. そして, 言語モデルを用いた誤り訂正手法を提案しここれらの誤りを効果的に訂正できるかを検証した. 提案した誤り訂正アルゴリズムは, 全体的な認識精度を著しく向上させることができることを示した. ## 1 はじめに ビジネス・オートメーションの場面では, 請求書のような企業文書画像からテキストを正確に抽出するシステムが必要とされることがある. デジタル文書が普及したとはいえ, 紙べースの証憑はまだ存在するため, スキャンした証憑からテキストを読み取る OCR(Optical Character Recognition)技術 [1,2] は久かせない. その必要性から様々な OCR サービス $[3,4]$ や高精度化に向けた研究 $[5,6]$ が近年進められている.しかし, OCR は様々なフォントや画像の状態に影響され, 正確な読み取りができないことがある. また, 日本の会計実務では, 処理の信頼性を高めるために, 社名などの上に印鑑を押す習慣がある. その結果, 図 1 のような文字画像が作られることがあり, 印影の影響で認識精度が著しく低下する傾向がある.そのため, 正確な情報を抽出するためには,読み取り結果の誤りを補正する必要がある. 日本語 OCR の誤り訂正は, 書籍や古文書で研究されてきた.これまでの研究は, 誤り箇所の検出と誤り候補の訂正の 2 つの要素から構成されている. 検出 図 1 証恣画像における文字認識対象のサンプル例. 証恣に印鑑を押す慣習により, 日本の証憑は OCR が難しい画像になる傾向がある。 では,トリグラムを用いて各文字が誤りかどうかを判定し, 言語モデルにおける確率值が閾値より小さい場合, その文字を誤り候補とする。そして, 誤り候補を訂正する際には, 誤り訂正候補の各文字位置に対して出現確率の高い文字列を置換する [7]. 修正においては,その OCR のテキスト全体のグローバル情報を用いて修正を行うなどの方法が提案されている [8]. 先行研究は, 主に書籍や古文書の書き写しを対象としており, 企業文書や, そのような補正のためのオープンな利用可能なベンチマークの構築には至っていない. また, 先行研究は閾値の設定など複雑で人手に依存している. これらの問題に対処するため, 我々は日本の請求書に記載された取引先名に焦点を当て, 日本語の OCR 誤り訂正ベンチマークを構築した. 証憑には会社名, 金額, 日付など様々な情報が含まれており, それぞれに OCR 誤りの可能性がある. しかし, 金額や日付などの情報は 1 つの情報として言語的な意味を持たず, 効果的な誤り訂正は困難と考えられる. そこで, 本研究では取引先名である会社名に着目し, ベンチマークを構築した. そして, そのベンチマークを用いて, 言語モデルとルールベース手法を用いたべー スラインを構築し, 評価を行った. 我々の貢献は以下の通りである: ・日本の証憑に基づく OCR 誤り訂正ベンチマー クを提案する.これは 2 つの OCR サービスに基づく実際の誤りであり, 異なる特徴を提供し, 今後の研究の基礎となる。 ・言語モデルとルールベースの解析手法を用いたベンチマークのベースラインを提供した. 表 1 各種モデル・サービスによる OCR 認識精度 ## 2 関連研究 ## 2.1 日本語 OCR 誤り訂正 日本語 OCR 誤り訂正タスクは書籍などを対象として研究されており [7], また,グローバル情報を用いて修正候補を選択する改善方法が提案されている [8]. また, 言語モデル BERT を用いた OCR 誤植検出手法も提案されている [9]. 本研究は, 従来の研究とは異なり, OCR 誤り訂正タスクの誤り検出と訂正を単一の言語モデルで直接行うアプローチを提案し, またベンチマークを作成することで, 今後の研究に役立てる。 ## 2.2 事前学習済みモデル: T5 近年の研究では, 大量のラベルなしデータを用いて訓練され,多くのタスクで良好な性能を発揮する事前訓練モデルに注目が集まっている.これらのモデルの一つである T5 [10] は, 自然言語処理の多様なタスクを系列から系列への変換プロセスとして捉え, Transformer [11]を活用することで性能を向上させている. 本研究では, OCR 誤り訂正を系列から系列への変換と定義し, T5を用いてこのタスクをモデル化する. ## 3 ベンチマーク構築 ## 3.1 OCR 評価 日本語証憑における印影の影響を含む OCR 誤り訂正データセット構築を行なった. 我々は許諾をいただいた日本語請求書を用いて, 図 1 に示すように, 社名項目部分について, 文字領域を切り取り画像セットを準備した. ランダムにサンプリングし, 11,000 枚の証憑の取引先画像を用意した. そして, その画像についてアノテーションデータと実際にその画像を OCR モデルが文字認識した結果のペアを作成した. 具体的には, アノテーションは文字認識画像のアノテーションを専門的に行なっている人間により全ての画像に対して Ground Truth(GT) を付与した. OCR については, 現在のテキスト認識のパフォーマ ンスを評価するために, 3 つのモデルとサービスを使用した. 1 つ目は Japanese OCR [12] で, オープンに公開されている Transformer ベースの日本語テキス卜認識モデルである. 2 つ目は Google が提供する Vision API [3] で, 商用汎用テキスト認識である. 3 つ目はファーストアカウンティング株式会社が提供する会計特化の OCR である Robota API [4] である. 各モデルの文字認識精度は, 単語レベルの精度で評価した.つまり, GT と OCR 結果のすべての文字が一致した場合, True となり, そうでない場合は False となる. アルファベット, 英数字, スペースは半角文字として扱った. GT と各モデルのテストセットの文字認識結果例を表 1 に示す. 空白文字, 改行文字, 文字コードの認識はモデルやサービスによって異なる.空白, 改行などは重要な意味を持つ場合もあるが, OCR 誤り訂正を考慮するとテキスト情報のみから補完を行うことは困難であるため, それらを削除する等の標準化処理を行なった精度を別途算出した。 Robota API, Vision API, Japanese OCR の順に, 統一処理を加えた後の OCR 精度は, それぞれ $99.1 \%, 72.0 \%$, 26.6\%となった. また, 表 2 にランダムサンプルの GT とその OCR 結果を示す. Japanese OCR は日本語の文章に似た認識結果を返す傾向があり,ノイズなどの影響で正しく認識できないことが確認できる. また, Vision API では, 読める文字は正しく認識されるが, 一部の文字が欠落している場合がある. Robota API では久落文字が少ないことが確認できる. ## 3.2OCR 誤り訂正ベンチマークの構築 これまでの結果をもとに, OCR 誤り訂正ベンチマークを構築した. 本研究における OCR 誤り訂正夕スクは, 誤りを含む可能性のあるテキスト列を入力とし, 補正されたものを出力として出力することである. 入力として誤りがなければ, 正しいテキストがそのまま出力される. 以上のタスク設定に基づき,テキスト認識結果と GT を用いてベンチマークを構築した. 各モデルの認識結果が入力となり, 出力が GT として推定される. また, 人名のサンプルからは個人情報を除去した。 ここで, Japanese OCR は精度が低く, 定性的にも出力結果から正しい文字を推定することは困難であると考えられたため, ベンチマークデータには Vision API と Robota API の結果をそれぞれのセットとして用いた. 従って, ベンチマークは 2 つのセットで構成 表 2 OCR 認識結果の例 表 3 訓練・評価・テストセットのデータサンプル数 表 4 OCR 誤り訂正精度 される. 評価は OCR 認識精度評価と同じ, ワード単位精度を用い, それぞれのセットにおける評価及びそれらの平均値を計測する. 訓練, 評価, テストセットとして画像に対して,ランダムに分割を行なった. 表 3 に, 各セットにおける訓練, 評価及びテストの True と False のサンプル数を示す. True は GT と OCR の結果が一致したことを示し, False は誤りを含むサンプルである. Robota セット, Vision セットでは共通の画像を有しているが,それぞれの認識結果精度が異なるため, True と False の割合が異なる.このようにして, 割合や誤り傾向の異なる 2 つのセットを用いて, 日本語 OCR 誤り訂正ベンチマークを構築した. ## 4 ベースライン構築 ## 4.1 T5によるアプローチ OCR 誤り訂正に対して, 言語モデルがどの程度の誤り訂正ができるかについてその性能を評価する。 その誤り訂正における評価に適したモデルとして T5を用いて実験を行った. T5 は Transformer をべー スとしたエンコーダーデコーダー型の言語モデルであり, その構造から, 系列から系列へと変換が可能である. そのため, 本研究のタスク設定である, 誤りが混入しているかもしれない文字列を入力として, 訂正後の出力が可能となる. 我々は, 2 つの日本語の事前学習済みモデルを使用した. そして, その事前学習済みモデルに対してベンチマークで微調整訓練を行 なった. 一つは Megagon Labs が公開している学習済みの日本語 T5 であり, 語彙サイズ 32k [13] を用いた. 本研究では $\mathrm{T} 5_{\text {Megagon }}$ と表記する.もう一つは, T5 を改良した T5Xをべースに, 株式会社レトリバが公開している学習済みの日本語モデル $\mathrm{T} 5$ [14] を用いた. 本研究では, $\mathrm{T} 5_{\text {Retrieva }}$ と示す.いずれも事前学習として mC4 と Wikipediaを用いている。 T5 エンコーダへ OCR 誤り訂正候補テキストを入力とし,デコーダー出力を誤り訂正済みテキストとして, 系列変換の枠組みで OCR 誤り訂正の微調整学習を行った. 従って, 入力に誤りがあれば修正された結果を出力し, 誤りがなければ入力をそのまま出力するようにモデルを学習した。 パラメータは, バッチサイズ 32 , 最大入出力長 64 , 学習率 5e-5, イテレーション 15,000 , 勾配累積 2 ステップで, 両モデルとも同じハイパーパラメータを使用した. 定量評価は 3 回の訓練の平均値を示す. また,事前実験では事前学習済みモデルに対して, 微調整を行わない時の結果はどちらもスコアが 0 となることを確認した。 ## 4.2 ルールによるアプローチ また, 言語モデルアプローチの性能を比較するために,ルールベースモデルを構築した. 本アプローチは, 国税庁の法人データベースを用いて, 編集距離による検索を行い, 距離が近い文字列があれば, その文字列を修正出力する. 具体的には, データベース²)を元に企業データベースを作成し, 前処理と重複排除を行い, 約 370 万件のリストを作成した. 前処理はべンチマーク作成時に用いた標準化処理に準じた. 編集距離としてレーベンシュタイン距離を用い, 距離が最小の文字列を候補としてデータベースから検索し, 比較のためのスコアを算出した. スコアは $2 \supset の$部分から構成され, 1 つは編集距離そのものであり,  表 5 テストセットにおける言語モデルよる OCR 修正後の結果 もう1つは編集距離を文字列に対して正規化した比率である. 比率は編集距離を計算したテキストの最大長で割って計算される. 編集距離が 1 以下かつ割合が 0.30 以下の場合, 候補テキストを訂正後テキストとして出力し, そうでない場合は入力テキストが出力される。 ## 5 実験 ## 5.1 定量評価 表 4 に言語モデル T5 とルールベースによる誤り訂正精度を示す. 平均スコアから, $\mathrm{T} 5_{\text {Retrieva }}$ は $94.8 \%$ を達成し, 訂正前の精度 $85.4 \%$ から 9.4 ポイント改善した. 次に, ルールベースの誤り訂正と $\mathrm{T} 5_{\text {Megagon }}$ は, それぞれ $87.2 \%, 9.3 \%$ の精度となった. 同じ T5 とハイパーパラメータを用いても, 事前に学習した重みによって誤り訂正精度が異なることが確認された。訂正タスクと事前訓練済みモデルの相性や事前訓練済みモデルの学習された時の条件などの違いが要因と考えられる.この実験により, 選択された事前学習済み言語モデルによる誤り訂正が平均的には効果的であり、ルールベースも実用的であることが確認された. Vision セットは平均結果と同様の傾向を示すが, Robota セットは異なる傾向を示す. $\mathrm{T} 5_{\text {Retrieva }}$ による誤り訂正は, 純粋な OCR 結果よりも精度を向上させたが, 他の方法は精度を悪化させた. OCR の精度が高い場合, 誤り訂正は精度を改善するよりも悪化させる可能性があるため, 実適用時には補正の有無を判断する必要がある. ## 5.2 定性評価 表 5 にそれぞれのセットにおける T5 モデルの訂正前後及び GT 例を示す. まず, Vision セットの $\mathrm{T} 5_{\text {Retrieva }}$ では「株式会社」が欠損している場合に補正できていることが確認できる一方で, 「Z」から 「ほっかほっか亭」と推定し, GT とは異なる補正を行なってしまうことが確認できる. T5 $5_{\text {Megagon }}$ に関しては入力テキストを削除する傾向があり,不正解になっていることが確認できる. Robota セットは OCR 結果が正しいことが多く, $\mathrm{T} 5_{\text {Retrieva }}$ では補正後も同一の出力ができていることが確認できる. 一方で, T5 $5_{\text {Megagon }}$ では Google セットと同様に入力テキストを削除する傾向がある. ## 6 おわりに 本論文では, 日本語証憑の OCR 精度を向上させるために, 取引先名における OCR 誤り訂正ベンチマー クを構築した. そして, そのベンチマークをもとに, $\mathrm{T} 5$ 言語モデルによるベースラインを構築し, 2 種類の事前学習済みモデルを用いてその有効性を検証した.さらに,ルールベースのアプローチを用いて言語モデルの有効性を検証した. 実験の結果, 言語モデルアプローチはタスクの内容と事前学習済みモデルの相性がある可能性を示唆し, 効果的な事前学習済みモデルは単純な構造にもかかわらず, OCR 誤り訂正を効果的に実行できることが示された. ## 謝辞 貴重な議論, 技術的助言, 入念な校正をしてくださった小林一郎教授に感謝する。 ## 参考文献 [1] Xiang Zhang, Yongwen Su, Subarna Tripathi, and Zhuowen Tu. Text spotting transformers. In Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, pp. 9519-9528, 2022. [2] Masato Fujitake. A3s: Adversarial learning of semantic representations for scene-text spotting. In Proceedings of IEEE International Conference on Acoustics, Speech, and Signal Processing, pp. 1-5, 2023. [3] Google. Cloud vision api. [4] Fast Accounting. Robota api. [5] Masato Fujitake. Dtrocr: Decoder-only transformer for optical character recognition. In Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision, pp. 8025-8035, 2024. [6] Masato Fujitake. Diffusionstr: Diffusion model for scene text recognition. In Proceedings of IEEE International Conference on Image Processing, pp. 15851589, 2023. [7] 竹内孔一, 松本裕治. 統計的言語モデルを用いた ocr 誤り訂正システムの構築. 情報処理学会論文誌, Vol. 40, No. 6, pp. 2679-2689, 1999. [8] 増田勝也. 大域的情報を用いた ocr 文字誤り訂正. 言語処理学会第 21 回年次大会発表論文集, pp. 127-130, 2015. [9] 謝素春, 松本章代. 日本語 bert モデルによる近代文の誤り訂正. 言語処理学会第 29 回年次大会発表論文集, pp. 1616-1620, 2023. [10] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei $\mathrm{Li}$, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020 . [11] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Proceedings of International Conference on Neural Information Processing Systems, pp. 5998-6008, 2017 [12] Detomo. Japanese_ocr. [13] megagonlabs. t5-base-japanese-web. [14] retrieva jp. t5-base-medium.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-25.pdf
# サーベイ論文で引用すべき論文の推薦 柴克樹 笹野遼平 武田浩一 名古屋大学大学院情報学研究科 } [email protected] ## 概要 サーベイ論文の自動生成は新たな研究分野に取り組もうとする研究者にとって、分野全体の俯瞰を助ける重要な役割を持つ技術である。しかし、既存のサーベイ論文自動生成に関する研究では、サーベイ論文が引用する論文の情報から、サーベイ論文を生成するタスクに焦点が当てられており、引用すべき論文をどのようにして見つけるかについては十分な検討がなされてこなかった。本研究では、サーベイ論文で引用すべき論文の推薦システムの構築に取り組む。具体的には、生成したいサーべイ論文に関するキーワードが与えられたとき、キーワード検索と論文の引用関係に基づき候補論文集合を作成し、そこから引用推薦の枠組みを用いてサーベイ論文が引用すべき論文を推薦するシステムを構築する。 ## 1 はじめに 大規模言語モデル (LLM)をはじめとする人工知能技術の急速な発展に伴い、新たな研究分野が生まれている。新たな分野に取り組もうとする研究者にとって、対象の研究分野を俯瞰するサーベイ論文は非常に有益であることから、サーベイ論文の自動生成技術の重要性は高まっていると言える。既存のサーベイ論文自動生成の研究 $[1,2]$ では、サーベイ論文が引用する論文の情報から、サーベイ論文を生成するタスクに焦点が当てられており、引用論文は実験に使用するサーベイ論文が引用している論文をそのまま利用するか、引用論文をもとにヒューリスティックに収集されたものが使われている。しかし、実際にサーベイ論文を生成することを考えると、引用すべき論文を見つける技術は必要不可欠であることから、本研究ではサーベイ論文が引用すべき論文を推薦するタスクに取り組む。 既存の引用推薦(citation recommendation)の研究 [3-6] は論文のタイトル、概要、引用関係、著者 \{sasano, takedasu\}@i.nagoya-u.ac.jp 図 1 提案する引用論文推薦システム概要 情報などが与えられ、それをもとに推薦を行う設定で行われてきた [7]。近年では SciBERT [8]をべースにタイトル、概要、引用関係から学習を行なった SPECTER [9] が広く利用されている。一方で、20万本程度の中規模な論文プールに対する引用推薦では SPECTERのような TAE (Transformer-based Article Encoders)は高い性能を示すが、200万本程度の大規模なデータセットでは BM 25 に性能が劣るという指摘もある [10]。サーベイ論文の自動生成においては、通常の引用推薦と異なり論文のタイトルや概要は存在していないため、対象分野のキーワード等のみから推薦を行う必要があり、また、サーベイ論文と通常論文では引用傾向が異なっていると考えられるが、サーベイ論文を対象とした引用推薦の研究は行われていない。 そこで、本研究ではキーワードを入力とするサー ベイ論文の引用推薦のシステムを構築に取り組む。 システムの概要図を図 1 に示す。提案システムではキーワードをもとに Web 上から候補論文集合を収集し、ランキングモデルにより候補論文集合の順位付けを行うことで引用すべき論文の推薦を行う。 ## 2 サーベイ論文における引用の分析 引用推薦システムの構築に先立ち、サーベイ論文が引用する論文の傾向について分析する。 ## 2.1 データセット 既存研究で広く利用されてきたデータセットである DBLP-Citation-network (v14) データセット1)、および、ACL Antholgy Network Corpus ${ }^{2}$ における論文の平均引用本数を調べた結果、いずれも 5.25 本と、引用論文情報の欠落が多く存在していた。このため本研究では、2022 年 8 月までに ACL anthology に掲載された 80,013 本の論文の全文コーパスである ACL OCL Corpus [11] と、Semantic Scholar ${ }^{3)}$ を利用して、分析に使用する論文データセットを作成した。 まず、分析対象のサーベイ論文として ACL OCL Corpus から、以下の 3 つの条件を満たす 60 本の論文を抽出した。 1. タイトルに“survey”、"literature review”、"a review” のいずれかのフレーズを含む 2. 引用文献数が 15 以上である 3. ACL、EMNLP、NAACL、AACL、CL のいずれかで発表されている 続いて、比較対象とする通常論文として、ACL OCL Corpus から無作為に 900 本の論文を抽出した。各論文が引用する論文の一覧は ACL OCL Corpus から獲得し、引用先の論文が出版された年月と被引用数の情報は Semantic Scholar から収集した。 ## 2.2 サーベイ論文における引用の特徴 まず、平均引用論文数を調査した。その結果、通常論文の平均引用論文数は約 30 本であるのに対し、 サーベイ論文の平均引用論文数は約 85 本と、通常論文の 3 倍近い論文を引用していることが分かった。 次に、通常論文とサーベイ論文、それぞれについて、引用している論文の出版経過日数を調査した。結果を図 2 に示す。出版経過日数を 3 ケ月ごとにまとめた結果で、縦軸は各グループに属する論文の割合を表す。図 2 から、サーベイ論文は通常論文よりも新しい論文を引用する傾向があり、その傾向は出版経過日数が 1 年以内の論文において顕著であることが分かる。また、通常論文の引用論文の出版経過 1) https://www.aminer.cn/citation 2) https://clair.eecs.umich.edu/aan/index.php 3) https://www. semanticscholar.org/ 図 2 サーベイ論文と通常論文の引用論文の出版経過日数 図 3 サーベイ論文と通常論文の引用論文の被引用数回数 日数については 1 年単位の周期性があることが確認できた。これは、通常論文は毎年近い時期に開催される同じ学会に投稿された論文を多く引用する傾向があるためだと考えられる。一方、サーベイ論文は多くの学会やジャーナルを横断的に引用するため、 このような傾向は確認できなかった。 続いて、通常論文とサーベイ論文、それぞれについて、引用している論文の被引用回数を調査した。被引用回数の中央値をまとめた結果を図 3 に示す。 サーベイ論文は引用論文の出版経過年数に依らず、通常論文よりも被引用回数の少ない論文を引用する傾向が確認できた。これは、通常論文は各分野の代表的な論文のみ引用する傾向が強いのに対し、サー ベイ論文では対象とする分野の論文を広く引用するためであると考えられる。 ## 3 サーベイ論文のための引用推薦 本研究で構築するサーベイ論文に対する引用推薦システムでは、まずキーワードをもとに推薦候補論文集合を収集する。続いて、集まった候補論文をランキングモデルに入力し、得られたランキング結果をもとに引用すべき論文を推薦する。 図 4 論文集合間の引用関係のイメージ ## 3.1 候補論文収集 候補論文集合として、以下で規定される 4 つの論文集合 $S_{0}$ (初期集合)、 $S_{F}$ (前向き)、 $S_{B}$ (後向き)、 $S_{F B}$ (前向き+後向き)を収集する。 - $S_{0}$ : 与えられたキーワードで Semantic Scholarを検索した結果得られた上位 $n$ 件の論文 - $S_{F}: S_{0}$ 中の論文が (前向き) 引用している論文 - $S_{B}: S_{0}$ 中の論文を (後向き) 引用している論文 - $S_{F B}$ : $S_{B}$ 中の論文を (後向き) 引用している論文収集された論文集合間の引用関係のイメージを図 4 に示す。以降では論文集合 $S_{0}$ と $S_{F}$ の和集合を $S_{0+F}$ などのように記載するものとする。また、 1 本の論文の引用論文数は多くとも数百程度である一方、一部の論文の被引用数は 1 万を超えるため、前向き収集と比較して後向き収集では候補論文集合の爆発的な増加が発生しうる。そのため、後向き収集は引用回数が 300 回未満の論文のみを対象とする。 ## 3.2 候補論文のランキング 本研究ではランキングモデルとして LightGBM を利用する。LightGBM に入力する特徴量を表 1 に示す。特徵量は大きく、対象論文のみから得られる $F_{\text {候補集合 }}$ のうち “ $S_{0}$ または $S_{F}$ 中の論文から引用された回数” は、キーワード検索で上位となった論文 $\left(S_{0}\right)$ 、または、それらの論文が引用している論文 $\left(S_{F}\right)$ から多く引用されている論文はサーベイ論文を作成する際に引用すべき論文である可能性が高いという考えに基づく特徴量である。また、 $F_{\text {擬似論文は引用 }}$推薦において広く利用されている SPECTER2 [9] に基づく特徴量である。SPECTER2では、引用関係にある論文同士のベクトルの類似度が相対的に大きくなるような論文べクトルを、論文のタイトルと概要から作成する。生成対象のサーベイ論文が存在して表 1 LightGBM に入力する特徴量 ## 対象論文のみから得られる特徵量 ( $\left.F_{\text {対象論文 }\right)$} - 出版経過年数・日数 - 会議・論文誌名 - $S_{0}$ または $S_{F}$ 中の論文から引用された回数 ・対象論文が含まれる候補論文集合 ## 擬似論文を用いて算出される特徵量 ( $F_{\text {擬似論文) }$ )} ・擬似サーベイ論文との類似度 いる場合、そのタイトルと概要を用いて SPCETER2 のべクトルを生成できるが、本研究の設定では存在していない。このため、LLMを用いてキーワードから疑似的なタイトルと概要を生成し、生成されたタイトル、概要から SPECTER2 のベクトルを生成し、候補論文集合中の論文の論文ベクトルとの類似度を算出し、素性として利用する。疑似的なタイトルと概要の生成に使用した LLM とプロンプト、生成例は付録 A に示す。 ## 4 実験 2.1 節で述べたサーベイ論文 60 本を対象に、収集された候補論文集合の評価、および、最終的な引用論文推薦結果の評価を行った。 ## 4.1 候補論文集合の収集と評価 まず、評価対象とするサーベイ論文 60 本それぞれについてキーワードを人手で付与した。具体的には、タイトルに含まれる単語列から、サーベイのトピックを適切に表現できる 2 つ、または、 3 つの単語列を人手で抽出した。続いて、付与されたキーワードをもとに候補論文集合を作成した。論文集合 $S_{0}$ および $S_{F}$ は Semantic Scholarを用いて収集し、全 60 論文に対して収集された結果をまとめた論文プールを構築した。一方、論文集合 $S_{F}$ および $S_{F B}$ の収集には、後向きに引用を辿る必要があるが、Semantic Scholar の引用検索機能では $1 \%$ 程度しか収集できなかったため、構築した論文プールを対象に引用情報を利用し、疑似的に論文収集した。ただし、実際にサーベイ論文が引用している論文については、論文プールに含まれていない場合も、 $S_{F}$ または $S_{F B}$ の条件を満たすか調査し、条件を満たす場合は候補論文集合に追加した ${ }^{4)}$ 。  表 2 論文収集カバー率のマクロ平均 (括弧中の数値はサーベイ論文 1 本あたりの収集した論文数) 論文収集の結果を表 2 に示す。 $S_{0}$ 収集の際の閾值 $n$ として 100,200,300,500の 4つの値に対する結果を記載している。 $n=10000$ まで増やした実験も行ったが、カバー率は 31.92 に留まったことから、引用関係を用いて候補論文集合を収集する有効性が確認できる。 ## 4.2 引用論文推薦の評価 引用論文推薦の評価は、実際の引用文献のうち、順位付けされた論文候補集合の上位 $k$ 件に含まれる割合を、全 60 論文で平均したスコアにより行った。 $k$ の値は、実際の引用文献数を $r$ 倍した値とした。また、 5 分割交差検証を害施し、LightGBM で使用する損失関数は binary log loss、学習率は 5e-3、 num_leaves は 46 とした。 まず、 $r=1$ とする設定において、候補論文集合の違いによる性能の違いを検証した。結果を表 3 に示す。収集対象とする論文集合の種類が少ない場合 $\left(S_{0}, S_{0+B}\right)$ は、 $n$ を大きくした場合の方が高い性能となる一方で、論文集合 $S_{B}$ や $S_{F B}$ まで収集対象とした場合は、 $n$ が小さい方が高い性能となった。全体でもっとも高い性能となったのは、 $n=100$ としすべての論文集合を収集対象とした場合であった。 続いて、提案手法の有効性を確認するための比較実験を行った。まず、提案手法における LightGBM ずつ除いたモデルとの比較を行った。さらに、疑似的な論文タイトルおよび概要に基づく BM25 ベー スのモデル、SPECTER2 ベースのモデルとの比較も行った ${ }^{5)}$ 。実験は、 $S_{0}$ 収集の際の間値 $n$ を 100 、論文収集対象を $S_{0+F+B+F B}$ とする設定で実施し、 $r$ の値として 0.5, 1, 2, 3, 5 の 5 つの值に対して評価を実施した。結果を表 4 に示す。 $r$ の値に依らず提案手法がもっとも高い性能を達成した。この結果から、  表 3 候補論文集合ごとの引用推薦性能 $(r=1)$ 表 4 引用推薦の比較実験結果 除いた場合の性能低下の度合いが大きいことから、対象論文がどの候補論文集合に含まれるかや候補論文集合から何回引用されているかの情報は重要な手 上に寄与していることから、LLM を用いて疑似的に生成したタイトル、概要が有効に機能していることが確認できる。 大規模なデータセットにおいては、SPECTER2 ベースのモデルは、BM25 ベースのモデルに性能が劣ると指摘 [10] されていたが、本実験では引用関係を利用することでカバー率が高く比較的小さな候補論文集合を収集したため、Semantic Scholar 上の全論文 (約 2 億本) を推薦対象としながらも、SPECTER2 ベースのモデルが BM25 ベースのモデルの性能を大幅に上回った。 ## 5 おわりに 本研究ではサーベイ論文に対する引用推薦タスクに取り組み、キーワードを入力とするサーベイ論文の引用推薦システムの構築と評価を行った。また、 サーベイ論文における引用の分析を行い、サーベイ論文は新しい論文を引用する傾向があること、引用数の小さな論文も引用する傾向があることを明らかにした。今後の課題としては、分析によって得られたサーベイ論文における引用の特徴を捉えたモデルの構築、引用論文情報からの論文生成モデルの利用によるサーベイ論文自動生成システムの構築が考えられる。 ## 参考文献 [1] Rahul Jha, Reed Coke, and Dragomir Radev. Surveyor: A system for generating coherent survey articles for scientific topics. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 29, 2015. [2] Huiyan Xu, Zhongqing Wang, Yifei Zhang, Xiaolan Weng, Zhijian Wang, and Guodong Zhou. Document structure model for survey generation using neural network. Frontiers of Computer Science, Vol. 15, pp. 1-10, 2021. [3] Zafar Ali, Guilin Qi, Khan Muhammad, Siddhartha Bhattacharyya, Irfan Ullah, and Waheed Abro. Citation recommendation employing heterogeneous bibliographic network embedding. Neural Computing and Applications, Vol. 34, No. 13, pp. 10229-10242, 2022. [4] Xiao Ma and Ranran Wang. Personalized scientific paper recommendation based on heterogeneous graph representation. IEEE Access, Vol. 7, pp. 79887-79894, 2019. [5] Chanathip Pornprasit, Xin Liu, Pattararat Kiattipadungkul, Natthawut Kertkeidkachorn, Kyoung-Sook Kim, Thanapon Noraset, Saeed-Ul Hassan, and Suppawong Tuarob. Enhancing citation recommendation using citation network embedding. Scientometrics, pp. 1-32, 2022. [6] Zafar Ali, Guilin Qi, Pavlos Kefalas, Shah Khusro, Inayat Khan, and Khan Muhammad. SPR-SMN: Scientific paper recommendation employing specter with memory network. Scientometrics, Vol. 127, No. 11, pp. 67636785, 2022. [7] Zafar Ali, Pavlos Kefalas, Khan Muhammad, Bahadar Ali, and Muhammad Imran. Deep learning in citation recommendation models survey. Expert Systems with Applications, Vol. 162, p. 113790, 2020. [8] Iz Beltagy, Kyle Lo, and Arman Cohan. SciBERT: A pretrained language model for scientific text. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3615-3620, 2019 [9] Arman Cohan, Sergey Feldman, Iz Beltagy, Doug Downey, and Daniel Weld. SPECTER: Document-level representation learning using citation-informed transformers. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 2270-2282. Association for Computational Linguistics, 2020. [10] Zoran Medić and Jan Snajder. Large-scale evaluation of transformer-based article encoders on the task of citation recommendation. In Proceedings of the Third Workshop on Scholarly Document Processing, pp. 19-31. Association for Computational Linguistics, October 2022. [11] Shaurya Rohatgi, Yanxia Qin, Benjamin Aw, Niranjana Unnithan, and Min-Yen Kan. The ACL OCL corpus: Advancing open science in computational linguistics. In Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, pp. 1034810361. Association for Computational Linguistics, December 2023. ## A 擬似タイトル、概要生成の詳細 本研究では LLM として gpt-3.5-turbo-0613 を使用した。また、擬似タイトル、および、概要の生成に利用したプロンプトを表 5 に示す。[keywords]の部分に人手で与えられたキーワードを入力して使用した。 $ \text { 実際にキーワードとして“Bias”と“NLP”を与え } $ た場合に生成された擬似論文タイトルと概要を表 6 に示す。参考のため、本キーワード抽出の際に利用した実際の論文のタイトルと概要を表 7 に示す。 表 5 疑似タイトル、概要生成のためのプロンプト Please generate an appropriate title and abstract for a survey paper focus on the keywords '"[keywords]', within 100 words. 表 6 擬似的に生成されたタイトルと概要 ## 擬似タイトル A Comprehensive Survey on Bias in Natural Language Processing ## 擬似概要 With the rapid growth of natural language processing (NLP) applications, it has become increasingly crucial to address the issue of bias present in these systems. This survey paper aims to provide an extensive overview of bias in NLP, covering various dimensions such as gender, race, and socio-economic status. We explore the different sources of bias, including data collection, preprocessing, and algorithmic decision-making processes. Additionally, we discuss the impacts of biased NLP systems on society, including perpetuating stereotypes and discrimination. Furthermore, we present recent advancements in bias mitigation techniques and highlight the challenges and future directions in this field. This survey paper serves as a valuable resource for researchers and practitioners interested in understanding and mitigating bias in NLP. ## B BM25、SPECTER2 モデルの詳細 BM25 ベースモデルサーベイ論文の擬似タイトルと擬似概要をクエリとして、候補論文のタイトルと概要に対する BM25 スコアを算出し、順位づけして推薦する手法。 SPECTER2 ベースモデルサーベイ論文の擬似タイトルと概要から SPECTER2 のベクトルを作成し、候補論文の論文ベクトルとの類似度をユークリッド距離により算出し、順位づけして推薦する手法。SPECTER2 は huggingfac 上で公開されているモデル6)を利用した。 表 7 実際のタイトル・概要 ## タイトル Language (Technology) is Power: A Critical Survey of "Bias" in NLP ## 概要 We survey 146 papers analyzing "bias" in NLP systems, finding that their motivations are often vague, inconsistent, and lacking in normative reasoning, despite the fact that analyzing "bias" is an inherently normative process. We further find that these papers' proposed quantitative techniques for measuring or mitigating "bias" are poorly matched to their motivations and do not engage with the relevant literature outside of NLP. Based on these findings, we describe the beginnings of a path forward by proposing three recommendations that should guide work analyzing "bias" in NLP systems. These recommendations rest on a greater recognition of the relationships between language and social hierarchies, encouraging researchers and practitioners to articulate their conceptualizations of "bias"-i.e., what kinds of system behaviors are harmful, in what ways, to whom, and why, as well as the normative reasoning underlying these statements - and to center work around the lived experiences of members of communities affected by NLP systems, while interrogating and reimagining the power relations between technologists and such communities. 6) https://huggingface.co/allenai/specter2
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-26.pdf
# 診療テキストからの必要な検査項目の予測 榎原芽美 ${ }^{1}$ 柴田大作 ${ }^{2}$ 辻川剛範 ${ }^{2}$ 宇野裕 $^{2}$ 北出祐 ${ }^{2}$ 河添悦昌 ${ }^{1}$ 大江和彦 ${ }^{2}$ 久保雅洋 ${ }^{2}$ 1 東京大学大学院 医学系研究科 2 日本電気株式会社 バイオメトリクス研究所 [email protected] \{daisaku-shibata, tujikawa, yutaka_uno, t-kitade, masahirokubo\}@nec.com ## 概要 Large Language Models(LLM)は,その高い自然言語処理能力からさまざまな領域で注目されており,医学領域においても高い関心が寄せられている. 本研究では、実際の医療現場において医療従事者が行うタスクの一つである初診時の診療テキストからの検査項目の予測を行う. LLM の精度と医療従事者の精度を比較した結果, 全ての訓練データで Fine-tuning した Bidirectional Encoder Representations from Transformers の精度が最も高いことが確認された. また, Zero-Shot や Few-Shot で学習した LLM の精度は医療従事者による精度と遜色ない值であることが明らかとなり,LLM の有効性が示唆された。 ## 1 はじめに 症例報告における症例記述は,経過を日付順に記載することが一般的であり,性別や年齢などの患者基本情報, 主訴, 現病歴, 既往歴や現症などと言った初診時に取得される情報から始まり,続いて実施された検査の結果,治療内容や症状の変化などの臨床経過を記載することが一般的である。基本的にはこの初診時に収集される情報を用いて,医師が必要な検査項目の選択を行うが,これはしばしば医師の経験や知識に依存し,電子カルテやオーダリングシステムを導入している病院では,医師が多岐に渡る検査項目の中から必要な検査をシステム上から選択することになるため,必要な検査を過不足なく選択する業務は,医師の負担 [1] となっている. そこで本研究では,Large Language Models (LLM) を用いた初診時の問診情報から必要な検査項目を自動で予測するタスクに取り組む(図 1).日本語の症例報告テキストを初診時問診で得られる情報について記載したと考えることができる前半部分 と,その後の臨床経過を記載した後半に分割し, 後半部分のテキストに記載されている検査所見に基づいて実施された検査項目のアノテーションを行う. そして必要な検査項目を,前半部分のテキストから Bidirectional Encoder Representations from Transformers (BERT) や Generative Pre-trained Transformer 4 (GPT-4) などの LLM を用いて予測することで,それらの性能を評価する。また医療従事者の予測精度とそれらを比較することで LLM の有効性について調査を行う. ## 2 関連研究 医療領域における臨床タスクに対して LLMを応用した研究がいくつか報告されている。例えば,実際の患者情報と遺伝情報を元にしたテキストから,特定の治療薬に対する反応性があるかを二值分類で予測するタスクにおける LLM の性能評価を行う研究や [2],患者からの健康相談に関する質問テキストに対して回答文を作成するタスクについて,医師の回答文と LLM の生成文を,情報の質と共感性の側面から比較評価する研究 [3] などが報告されている. 医療分野における LLM の適用は研究段階であるが [4],これを更に推し進めるためにはLLM が実際の臨床現場で想定されるタスクに対してどの程度有効であるのかを明らかにする必要がある. ## 3 実験 ## 3.1 実験材料 コーパスとして,難病・希少疾患を対象とした日本語の症例報告テキスト 183 件から構成される iCorpus[5] を使用した。このコーパスは,厚労省指定難病名をキーワードに検索して得た症例報告テキストを使用していることから,特定の診療科や疾患 図 1 本研究の概要 領域に限定されない幅広い症状や所見が記載されている。(図 2) 症例は専門領域ごとに実施されている検査が異なると考えられるため,コーパスを掲載雑誌ごとに層別化した上で,訓練データとテストデータを 8:2 の割合で分割した。そして各コーパスを初診時問診までの段階で得られる情報のみを含むと考えられる前半部分と, 検査結果と臨床経過を含む後半部分に分割し,後半部分に記載された検査結果を参考に臨床検査マスター [6] と画像検査マスター [7] を用いて正解ラベルのアノテーションを実施した. ここで 183 件のうち,初診時問診で得られる情報についての記載がないものや 1 ファイルにつき複数症例について記載されていたもの,前半部分と後半部分への分割が困難であった 11 ファイルを実験材料から除外し,最終的に 172 ファイルを使用した. 訓練デー タとテストデータにおけるラベルとその出現頻度を表 1 に示す。なお,正解ラベルのアノテーションは第一著者が担当したが,アノテーションの前処理として必要なテストデータの前半部分と後半部分への分割は第二著者により実施された.最初に第一著者が訓練データ全体を参考に正解ラベルを決定し,アノテーションを実施した.続いてテストデータの前半部分から必要な検査項目を予測(医療従事者の予測)し,その後テストデータの後半部分を参考に正解ラベルのアノテーションを行った. ## 3.2 モデル LLM として, OpenAI から提供されている GPT-4, ELYZA から公開されている elyza/ELYZA-japaneseLlama-2-7b-fast-instruct (ELYZA), 東北大学から公開されている bertbase-japanese-whole-word-masking (以下東北大 BERT)と NII から公開されている 検査項目の予測 正解ラベルの作成 - 血液学的検査 - 生化学的検査 . 内分泌学的検査 - 一般検査 - X線CT検相 - 核医学検査 図 2 実験材料の詳細:前半部分を用いて必要な検査項目を予測し,後半部分を用いて正解ラベルのアノテーションを行う. alabnii/jmedroberta-base-sentencepiece (JMedRoBERTa) を使用した。各 LLM の詳細は A 付録(表 4)に示す. ## 3.3 実験設定 LLM ごとの学習方法を表 2 に示す. GPT-4 は Zero-shot, One-shot と Few-shot Learning $の 3$ 種類の方法で実験を行い,ELYZA については GPT-4 と同様の実験に加えて全訓練データで Fine-tuning する実験を追加し,合計で 4 種類の方法で実験を行った. ELYZA と GPT-4 に使用したプロンプトの詳細については A 付録(表 5)に記載した。東北大 BERT と JMedRoBERTa は Fine-tuning を行った際の精度, One-shot と Few-shot Learning の 3 種類の方法で実験を行った. 加えて,LLM の精度と比較するため,日本の医療国家資格を有する著者の一人による分類実験も実施した. なお評価指標には,Micro-Precision, 表 1 データセットにおける各ラベルの出現頻度 表 2 LLM ごとの学習方法 Micro-Recall, Micro-F1 (以下, 単に Precision, Recall, F1)を使用した。 ## 3.3.1 Fine-tuning による実験設定 学習時のバッチサイズは 1 , Epoch 数は 20, optimizerには AdamW を使用し, 学習率は 3e-5, 最大系列長は 512 トークン,損失関数にはロジット付きバイナリ交差エントロピーを用いた. シード值を変更し、5 回評価を行ったそれぞれの評価値の平均を最終的な評価とした。 ## 3.3.2 Zero-Shot Learning による実験設定 予測すべき検査項目の候補に加えて,入力文を連結したものをプロンプトとし,それに続く文字列として予測検査を出力した. 使用したプロンプトの例を A 付録(表 5)に示す. 表中の input の部分に入力文を挿入する. 出力されたテキストから,予測すべきラベル候補のうちの各ラベルの文字列と完全一致したものを予測ラベルとし,評価を行った. ## 3.3.3 One-Shot Learning による実験設定 BERT では,各ラベルが少なくとも 1 例となるよう訓練データから 5 件抽出したデータで学習し予測を行った. 本来であれば,各ラベルが 1 例ずつとなるように訓練データを調整することが理想である が,本研究で使用した不均衡データを扱う多ラベル分類においてはこれを行うことは不可能であったため,含まれるラベルが最低 1 例ずつとなるような 5 件を抽出する措置を行った。 GPT-4 と ELYZA では,訓練データのテキストから 1 例を事例として,Zero-Shot Learning で示したプロンプト文と同様の予測すべき検査項目の候補と入力文の間に追加したものとし,その続きをモデルに生成させ,それに続く文字列として予測検査を出力し, Zero-Shot Leaning と同様の手順で評価を行った. ## 3.3.4 Few-Shot Learning による実験設定 BERT では, One-Shot Learning と同様の手順で,各ラベルが少なくとも 4 例となるよう訓練データから 13 件抽出したデータで学習し予測を行った. GPT-4 と ELYZA では,訓練データのテキストから 2 例を事例として,Zero-Shot Learning で示したプロンプト文と同様の予測すべき検査項目の候補と入力文の間に追加したものとし,その続きをモデルに生成させ,それに続く文字列として予測検査を出力し, Zero-Shot Leaning と同様の手順で評価を行った. ## 3.3.5 医療従事者の予測 医療従事者である著者の 1 人が,テストデータの各事例に対して,予測ラベルを表 1 から選択した。 ## 3.4 結果 実験結果を表 3 に示す. BERT と ELYZA の Finetuning を行った場合,Precision と F1 の值においては,医療従事者による予測性能を上回ることが確認された. 一方で, ELYZA と GPT-4 の Zero-Shot, One-Shot と Few-Shot Learning における性能は医療従事者の予測性能より低いことが確認された。同様に, One-Shot, Few-Shot における BERT の性能も医療従事者の予測性能より低いことがわかった. ## 4 考察 ## 4.1 Fine-tuning 全てのモデルにおいて,Precision と F1 の值が医療従事者の予測結果を上回ることが確認されたが, Recall の値においては,どのモデルも医療従事者の予測結果を下回る結果となった。この要因として,医療従事者は検査を実施しないことによる疾患の見落としリスクを念頭においていること,モデルの予 表 3 実験結果: 医療従事者の結果は Fine-tuning 行に記載する. & 614 & .787 & 0.690 \\ 測においては訓練データ内の出現頻度が低いラベルの予測が困難であったためと考えられる. ラベルごとの予測結果を分析したところ,ラベル数が 30 件より少ない場合は予測精度が著しく低いことが調査で明らかとなった.これより, 本研究では, 有病率の低い希少疾患を対象としたコーパスを対象としたため,出現頻度が低いラベル,つまり特定の疾患のみで行われるような実施頻度の低い検査項目の予測精度が低かったと言える。そのため, 臨床現場での応用を考える際には,どのような疾患を扱うかなどのタスクの要件定義の検討と, 疾患ごとの有病率を考慮したデータの不均衡性に対する対策が必要であると考えられる。 ## 4.2 Zero/One/Few-Shot Learning 4つのモデルのうち,3つのモデルにおいては事例数つまり学習データ数が多いほど,高い性能を示すことが明らかとなった. GPT-4 のみ One-shot よりも Zero-shot の方が,性能が高く医療従事者の予測に近い結果となることが確認された。これは GPT-4 ではコストの関係から他のモデルとは異なり,1回しか実験ができておらず,入力となった事例による影響が大きいと考えられ,今後の更なる検討が必要である. Few-Shotでは, Fine-tuning を行った BERT の性能に及ばないまでも,Few-Shot を行ったモデルの中では GPT-4 が最も高い F1 を示し, 医療従事者の精度と遜色ない值であることがわかった. 本研究で設定したタスクにおいては,Fine-tuning を行った BERT の性能が最も高い結果となったが,与える事例の内容などプロンプトを工夫することで精度の改善につながる可能性がある. ## 5 おわりに 症例報告テキストを用いた検査項目の予測において, Fine-tuning を行ったLLM の精度が最も高く医療従事者よりも高いことが明らかとなった. データ量が十分にあるのであれば,LLM の Fine-tuning を行うことが有効であるが,一方で,Zero-shot Learning における GPT-4 の精度は医療従事者の精度と遜色ない值となることが確認されたため,今後の応用が期待される。 本研究の課題として不確実性への対応がある. 不確害性としては,正解ラベルのアノテーションと医療従事者の予測は著者の一人によって実施されたものであるため正確性に課題が残る。これについては今後,人数を増やし多数決を取るなどすることを考えている。また GPT-4 は 1 回の試行のみの結果であることから,他のモデルと同様に複数回の平均値を算出することがより正確な議論のために必要である. 特殊性としては,本研究で使用した iCorpus は,難病・希少疾患に着目した症例報告テキストコーパスであり,このコーパスでは扱われない疾患についての予測については再現性が担保されていないことから,今後,実際のリアルワールドデータを用いた追加の検討が必要であると考えられる。 ## 謝辞 本研究は日本電気株式会社の 2023 年度研究インターンシップの一部として実施されたものである. ## 参考文献 [1] 瀬戸僚馬, 蓮岡英明, 三谷嘉章, 山下小百合, 若林進, 渡辺明良, 石神久美子, 武藤正樹, 開原成允. 医師事務作業補助者の業務と電子カルテ等への代行入力の現状.医療情報学, Vol. 29, No. 6, pp. 265-272, 2009. [2] Zekai Chen, Mariann Micsinai Balan, and Kevin Brown. Boosting transformers and language models for clinical prediction in immunotherapy. arXiv preprint arXiv:2302.12692, 2023. [3] John W Ayers, Adam Poliak, Mark Dredze, Eric C Leas, Zechariah Zhu, Jessica B Kelley, Dennis J Faix, Aaron M Goodman, Christopher A Longhurst, Michael Hogarth, et al. Comparing physician and artificial intelligence chatbot responses to patient questions posted to a public social media forum. JAMA internal medicine, 2023. [4] Hutson M. Could ai help you to write your next paper? Nature, Vol. 611, No. 7934, pp. 192-193, 2022. [5] Emiko Shinohara, Daisaku Shibata, and Yoshimasa Kawazoe. Development of comprehensive annotation criteria for patients' states from clinical texts. Journal of Biomedical Informatics, Vol. 134, p. 104200, 2022. [6] 大江和彦山上浩志. 標準臨床検査マスターのコー ド充足性に関する定量的評価. 医療情報学, Vol. 33, No. 3, pp. 139-150, 2013. [7] HIS, RIS, PACS, モダリティ間予約, 会計, 照射録情報連携指針バージョン3.4(2022)<JJ1017 指針 Ver 3.4 (2022) >. (公社) 日本放射線技術学会(JSRT), 2022 年 7 月 1 日. ## A 付録 表 4 使用モデル & & & 日本語の医学論文 \\ *Llama2 を改良した独自のトークナイザー 表 5 プロンプトの詳細 Zero-Shot Learning Prompt. あなたは誠実で優秀な日本人医師です。本文の患者に必要な検査項目の組み合わせを、 検査のリスト:['X 線単純撮影', 'X 線透視・造影', 'X 線血管撮影', 'X 線 CT 検査', 'MRI 検査', '核医学検査', '超音波検査', '一般検査', '血液学的検査', '生化学的検査', '内分泌学的検査', '免疫学的検査', '微生物学的検査', '病理学的検查', '脳波 ・临磁図検查', '心電図検查']から選択し、リスト形式で回答してください。 本文 : \{input $\}$ 検査項目: One-Shot Learning Prompt. あなたは誠実で優秀な日本人医師です。本文の患者に必要な検查項目の組み合わせを、 検査のリスト:['X線単純撮影', 'X線透視・造影', 'X線血管撮影', 'X 線 CT 検査', 'MRI 検査', '核医学検査', '超音波検査', '一般検査', '血液学的検査', '生化学的検查', '内分泌学的検査', '免疫学的検査', '微生物学的検査', '病理学的検查', '脳波 - 脳磁図検查', '心電図検査']から選択し、リスト形式で回答してください。例 : 本文 : 患者 : 44 歳,女性.主訴:低身長.既往歴 : 特になし.家族歴 : 母と弟に低身長,母に肯柱管内靭帯骨化症.現病歴:幼少時より低身長, 35 歳頃より下肢痛, 腰痛を自覚.近医にて後縦勒帯骨化症(OPLL), 黄色靭帯骨化症(OYL)を疑われ, 1999 年 7 月,当院整形外科にて頸椎,胸椎椎弓形成術を施行,その後,低身長精查のため当科転科となった.入院時現症 : 身長 $131.7 \mathrm{~cm}$, 体重 $41 \mathrm{~kg}$, 体温 $36.5^{\circ} \mathrm{C}$, 血圧 $120 / 70 \mathrm{mmHg}$, 下肢 0 脚. 検査項目 : ['生化学的検査', '肉分泌学的検查', 'X線単純撮影', '一般検査', 'X 線 CT 検查'], 本文 : \{input $\}$ 検査項目: Few-Shot Learning Prompt. あなたは誠実で優秀な日本人医師です。本文の患者に必要な検査項目の組み合わせを、 検查のリスト: ['X線単純撮影', 'X線透視・造影', 'X線血管撮影', 'X線 CT 検查', 'MRI 検查', '核医学検查', '超音波検査', '一般検査', '血液学的検査', '生化学的検査', '内分泌学的検査', '免疫学的検査', '微生物学的検查', '病理学的検査', '脳波・脳磁図検査', '心電図検査'刀から選択し、リスト形式で回答してください。 例 1 : 本文 : 患者 : 44 歳, 女性.主訴 : 低身長.既往歴 : 特になし.家族歴 : 母と弟に低身長,母に秦柱管内勒帯骨化症.現病歴:幼少時より低身長, 35 歳頃より下肢痛, 腰痛を自覚.近医にて後縦靭帯骨化症(OPLL), 黄色靭帯骨化症(OYL)を疑われ, 1999 年 7 月,当院整形外科にて頸椎,胸椎椎弓形成術を施行,その後,低身長精査のため当科転科となった.入院時現症 : 身長 $131.7 \mathrm{~cm}$, 体重 $41 \mathrm{~kg}$ ,体温 $36.5^{\circ} \mathrm{C}$, 血圧 $120 / 70 \mathrm{mmHg}$, 下肢 0 脚. 検查項目 : ['生化学的検査', '内分泌学的検査', 'X 線単純撮影', '一般検査', 'X 線 CT 検査'], 例 2 : 本文:患者: 75 歳, 男性.主訴 : 胸やけ.既往歴:前立腺癌(平成 21 年 9 月に前立腺全摘術を施行後, ホルモン療法を継続中), 高血圧, 糖尿病, 大腸ポリープ.家族歴: 特記事項なし.現病歴: CCS の診断にて平成 15 年より近医通院中であった.平成 22 年 4 月頃より胸やけ症状が出現し,上部消化管内視鏡検査を施行したところ胃癌を指摘され,加療目的で当科へ紹介受診した.なお,CCS 症状はプレドニン $7.5 \mathrm{mg}$ /日にてコントロール良好であった.入院時現症:身長 $162 \mathrm{~cm}$, 体重 $63 \mathrm{~kg}$, 下腹部正中に手術創を認めた.腹部に明らかな腫瘤は触知されなかった. 検査項目 : ['生化学的検查', '免疫学的検查', '病理学的検查', 'X 線 CT 検査', '血液学的検查'], 本文: $\{$ input $\}$ 検査項目:
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-27.pdf
# Target-Driven Contexts in Detecting Informational Bias Iffat Maab ${ }^{1}$, Edison Marrese-Taylor ${ }^{1,2}$, Yutaka Matsuo ${ }^{1}$ Graduate School of Engineering, The University of Tokyo ${ }^{1}$ National Institute of Advanced Industrial Science and Technology ${ }^{2}$ \{iffatmaab, emarrese, matsuo\}@weblab.t.u-tokyo.ac.jp ## Abstract Media bias detection requires comprehensive integration of information derived from multiple news sources. Sentence-level political bias detection in news is no exception, and has proven to be a challenging task that requires an understanding of bias in consideration of the context. Inspired by the fact that humans exhibit varying degrees of writing styles, resulting in a diverse range of statements with different local and global contexts, previous work in media bias detection has proposed augmentation techniques to exploit this fact. Despite their success, we observe that these techniques introduce noise by overgeneralizing bias context boundaries, which hinders performance. To alleviate this issue, we propose techniques to more carefully search for context using a bias-sensitive, target-aware approach for data augmentation. Our approach outperforms previous methods significantly when combined with pre-trained models such as BERT. ## 1 Introduction Biased media have the potential to sway readers in potentially detrimental paths. Therefore, it is crucial to unveil the true nature of media bias. We think bias detection is important as a proxy or mechanism to assess the quality of information in news media. As stated by [1], there is no problem with the existence of narratives in substandard journalism, rather poor professionalism. A study by [2] suggests that indeed media has a sizable political impact on voting, where for example [3] found significant effect of exposure to Fox News in increased turnout to the polls. Bias in news from different aspects has been studied in the past, where for example [4] and [5] created news quality corpus of 561 articles and study how various news constituents characterize the quality of editorial articles. While these works are highly relevant to the bias problem, they did not specifically or directly target at the issue. Foundational work in political bias was performed by [6], who released a human-annotated dataset named Bias Annotation Spans on the Informational Level (BASIL), containing 300 fine-grained bias annotations. Concretely, political bias is identified at the sentence-level, where spans are annotated and a target (the main entity) is identified, in addition to a few other labels. Significantly, BASIL stands as the first dataset to be annotated with different types of bias. Informational bias, which depends broadly on the context of the sentence [7] and arises from manipulation of information or selective presentation of content in a factual way, e.g., use of quotes, to evoke specific reader's emotions towards news entities $[6,8]$, and lexical bias, which stems from the choice of specific words or linguistic phrases that influence the interpretation of a subject, and perpetuate the understanding of information $[9,10,11]$ are present in BASIL. To the best of our knowledge, BASIL is the first dataset that annotates informational bias together with specific targets. With the release of BASIL, work on political bias detection has mostly focused on informational bias, with a strong emphasis on informational context within and across news media articles, as informational bias is highly content-dependent. In the seminal work, [8] feed the whole document/article as context for sentence-level bias classification. Though this approach worked relatively well in practice, using long documents in this context brings considerable noise, redundancy and can increase vocabulary size, which can ultimately decrease the performance of the classifier as evidenced by previous work [12]. Moreover, as shown by [13], detecting bias at article level remains even more challenging and difficult task. In light of this issue, several works have recently focused on introducing more specific contextual information to perform classification $[14,8,12]$. While the aforemen- & Inf \\ & & \\ HPO & 4 & & & Inf \\ NYT & & & & \\ Table 1: Bias sentences extracted from event 0 of BASIL with three news media sources, FOX (Ofox; source:fox, event:0), HPO (0hpo; source:hpo, event:0), and NYT (0nyt; source:nyt, event:0), showing a single event can exhibit similar targets and bias types to manifest event-based target aware context. tioned approaches have resulted in improved performance, we think their applicability is limited. On one hand, articles in BASIL have no overall bias label, instead each sentence is labeled as evidence of a certain kind of bias or as a neutral statement, suggesting that these should be treated separately when detecting different kinds of bias. Previous studies $[15,16]$ have already shown that on document-level classification, paragraphs can belong to multiple categories, which [13], also observed on BASIL, where paragraphs belong to either informational bias, lexical bias or no bias spans. Furthermore, as highlighted by [13], by mixing contexts of informational and lexical bias, it becomes difficult for the model to distinguish and predict different type of bias, which may result in lower model performance. In this work, we provide a framework to generate more consistent and similar bias contexts to improve performance. As shown in Table 1, each instance of annotated bias span also identifies the "target", i.e., the main entity or topic of the sentence that is also annotated in BASIL. Using this information, our key insight is to create eventlevel contexts that are target-aware and also sensitive to the bias label. For example, for the target "Obama Campaign", sentences from three different news sources are combined to form a single contextual example for informational bias classification, as highlighted in light gray. Inspired by ideas from modeling context in informational bias detection $[8,13,12]$, our approach is able to augment examples with richer contexts and less noise. Following recent work $[17,8,12]$, we tackle a bias detection task of INF/OTH using data from BASIL. Through extensive experimentation, we demonstrate the effectiveness of our approach by obtaining state-of-theart performance on all of our studied tasks. In addition, our holistic view on bias enables us to unveil inconsistent terminologies used for contextual information of BASIL, therefore we gather such contexts to improve clarity and uniformity, and to avoid previous work problems as indicated in our comparison with the state-of-the-art. ## 2 Related Work Media bias has been scrutinized often with nuanced variations and under different contexts through diverse terminologies. [18] proposed attention-based model to capture high level contexts of news articles including title, link structure, and news information using both textual content and network structure to leverage cues from multiple views. Contextualized representations of sentences for better understanding of documents are studied using numerous pre-trained language models [14, 10]. Inspired from [14], [8] work on BASIL to propose several context inclusive models on article and event context, and use three BiLSTMs for encoding FOX, HPO, NYT news documents as triplets. Building upon existing study of [8], [12] use multi-level graph attention networks for bias detection by MultiCTX model that use contrastive learning from sentence embeddings to discriminate target sentences. Another recent study on BASIL [19] built distillation models on top of RoBERTa for informational bias classification and explore different types of local and global discourse structures. Similarly, article-level bias classifiers [13] use second order bias features of BASIL to manipulate context information using uncased BERT. Using BASIL, BERT by [20] remain as a major baseline model in majority of previous studies [8, 12]. [13] find that fine-tuned BERT has a strong efficacy and use it to reimplement [6] results. In light of the findings, our proposed approach also utilize BERT [20]. ## 3 Proposed Approach ## 3.1 Bias-Aware Neighborhood Context Previous work has shown that phrases surrounding a sentence annotated with bias can be used as local context to perform bias classification, and that this local context can contribute to the ability of models to identify and label types of bias. However, by ignoring the nature of these Table 2: Detail of the number of contextualized instances obtained by applying our proposed ABTA and EBTA to a set of the original examples from BASIL, in this case taken from events (E) 18 and 22, for the case of informational bias. sentences, existing approaches that utilize neighborhood context $[8,12]$ can run into problems by introducing ambiguous content, for example when adding sentences that are annotated with the opposite bias. As shown by [8], this can also lead to massive data leakage problems across train and test sets. To account for the disparity in how different bias contexts are overlooked in previous work, in this paper, we propose to care for the bias label of neighboring sentences, advancing to generate Bias-Aware Neighborhood Contexts (BANC), and adding neighboring sentences to the model input as long as they have a related bias label. See Appendix $\mathrm{B}$ for the detailed description. ## 3.2 Target-Aware Context While our neighboring approach helps identify local context relevant for bias classification, we believe that global context, either at the article or event levels, can also be exploited. To that end, we note that BASIL contains annotations that also identify the "target" of a given sentence where informational bias is present. This "target" label refers to the main entity or topic of the sentence that is annotated, with some of the most prominent targets in BASIL being entities or people that lie at the core of news reports, such as Donald Trump, Romney Campaign, Secure America Now, among others. We further note that although the frequency of appearance of a given "target" varies substantially, as long as we keep the annotated label constant (e.g., informational), the context remains the same. This motivated us to gather all surrounding linguistic cues pertaining to a specific target at both the article-level and event-level. Concretely, we create target-aware contextual information by making use of all possible combination spans having the same bias and target, and propose article-based target-aware (ABTA) and event-based target-aware (EBTA) contexts, which we explain below. As show in Table 2, using ABTA context, for instance, the target "Barack Obama" which has 5 sentences annotated with informational bias in the FOX article and 1 in HPO, generates all possible combinations of two sentences within FOX giving us 10 contextualized examples, and 1 same example in HPO because this article has only one sentence, respectively. Note that possible combinations of sentences within articles are combined in groups of two only, which we do to emulate the natural distribution of occurrence of sentences with the same bias and same "target”. EBTA contexts shown in the "Event-level" column in Table 2, are computed for common targets across articles, for instance, the same target "Barack Obama" with informational bias appear across FOX and HPO with 5 and 1 sentences, therefore all unique possible combinations in groups of two generates 5 new contextualized examples across the two aforementioned articles. Finally, following the example in the table for "Barack Obama", the combined contexts of ABTA and EBTA give us a total of $10+1+5=16$ contextualized informational bias examples for a single target. Because of the way in which we combine sentences, it is evident that our approach is significant in providing contextualized examples for infrequent targets as well, therefore also contributing towards mitigating imbalanced bias distribution and skewed nature of "targets" as observed in BASIL articles [13]. Using our target-aware techniques, we observe a fourfold increase of examples for informational bias detection (1,221 original BASIL sentences v/s 4,987 contextualized examples). Please see Appendix $\mathrm{C}$ for the most frequent "targets" in BASIL. Finally, based on successful results reported by previous work $[21,17]$, we additionally use a backtranslation approach to generate more data, which we apply to our contextualized samples using Spanish as a pivot language. By incorporating multiple viewpoints in our neighborhood and target-aware contexts, we facilitate our model in providing a broad and inherent semantics of biased targets Table 3: Comparison of our approach with previous work, separated by usage of context. We report average results of three runs with different random seeds. In the Table, Acc, P, and R stand for Accuracy, Precision and Recall respectively. BT denotes the augmentation approach from [17], who are also the only authors to report accuracy. to manifest variations in bias representations. Our experiments will further demonstrate the impact of proposed context in different training settings. ## 4 Results and Experiments See Appendix A for experimental setup and implementation details. Baselines We consider multiple contextual models that address the detection of informational bias, for example, SSC (Sequential Sentence Classification) [22] and its variant WinSCC (windowed Sequential Sentence Classification) [8], RoBERTa, ArtCIM for target sentences within an article, and EvCIM for triplets of articles covering the same event [8, 12]. [12] further proposed MultiCTX model and reproduce the results using WinSCC and EvCIM for informational bias detection. We also compare against the fine-tuned RoBERTa model [19], as well as BERT $[17,13,20,6]$. We compare our model with various baselines against most studied INF/OTH bias task of BASIL using contextual information as indicated by prior work [17]. Based on our comprehensive analysis on how prior studies use different contexts on BASIL, we align similar contexts of our proposed method to allow meaningful comparisons as shown in the Table 3, using three corresponding sections. To compare with previous work where only within article context is used, we concretely utilize our top performing models for comparison, i.e., BERT combined with $100 \%$ BANC (BERT + BANC), and with backtranslation (BERT + BANC + BT). Similarly, prior work using event contexts are compared with our BERT model trained on $100 \%$ target-aware (BERT + ABTA + EBTA), and with backtranslation (BERT + ABTA + EBTA + BT), respectively. Since MultiCTX by [12] uses multi-contrast learning of both article and event contexts, we compare and use our best BERT model with fusion of both proposed context techniques (BERT + BANC + ABTA + EBTA), and with backtranslation (BERT + BANC + ABTA + EBTA + BT), which in essence is our final model. Based on our results, and supporting findings of our ablation study, both BANC and target-aware (ABTA \& EBTA) hold significance in our approach, however target-aware contexts contributes more than BANC parallel to previous findings [12]. Our approach outperforms previous work significantly, obtaining an F1-score of 58.15 in INF label. ## 5 Conclusion We study a challenging and significant task of detecting misinformation and shed light on bias prevalence in news media. Our work focus on incorporating bias sensitive (BANC) and target-aware contexts (ABTA \& EBTA) for sentence-level bias detection tasks. Our model encompass the process by which individuals acquire new knowledge in real-world settings, i.e., gathering the associated type of bias from common news media targets covering the same event coupled with experiences, and subsequently utilizing such contexts to make predictions about unfamiliar aspects. Our model concretely outperforms classification performance of strong baselines, and we find that the best performance is achieved when target-aware contexts are combined with BANC, and our methodological standpoint in using small-augmented data of frequent targets suggests that our model is better at recognising bias in media. ## Acknowledgements The authors wish to express gratitude to the funding organisation as this work has been supported by the Mohammed bin Salman Center for Future Science and Technology for Saudi-Japan Vision 2030 at The University of Tokyo (MbSC2030). ## References [1] Unesco. Journalism, 'fake news' \& disinformation: handbook for journalism education and training. UNESCO, 2018. [2] Tim Groseclose and Jeffrey Milyo. A measure of media bias. The quarterly journal of economics, Vol. 120, No. 4, pp. 1191-1237, 2005. [3] Stefano DellaVigna and Ethan Kaplan. The fox news effect: Media bias and voting. The Quarterly Journal of Economics, Vol. 122, No. 3, pp. 1187-1234, 2007. [4] Wei-Fan Chen, Henning Wachsmuth, Khalid Al Khatib, and Benno Stein. Learning to flip the bias of news headlines. In Proceedings of the 11th International conference on natural language generation, pp. $79-88$, 2018. [5] Ioannis Arapakis, Filipa Peleja, Barla Berkant, and Joao Magalhaes. Linguistic benchmarks of online news article quality. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1893-1902, 2016. [6] Lisa Fan, Marshall White, Eva Sharma, Ruisi Su, Prafulla Kumar Choubey, Ruihong Huang, and Lu Wang. In plain sight: Media bias through the lens of factual reporting. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 63436349, Hong Kong, China, November 2019. Association for Computational Linguistics. [7] Shijia Guo and Kenny Q. Zhu. Modeling multi-level context for informational bias detection by contrastive learning and sentential graph network, 2022. [8] Esther van den Berg and Katja Markert. Context in informational bias detection. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 6315-6326, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics. [9] Marta Recasens, Cristian Danescu-Niculescu-Mizil, and Dan Jurafsky. Linguistic models for analyzing and detecting biased language. In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1650-1659, Sofia, Bulgaria, August 2013. Association for Computational Linguistics. [10] Mohit Iyyer, Peter Enns, Jordan Boyd-Graber, and Philip Resnik. Political ideology detection using recursive neural networks. In Proceedings of the 52nd Annual Meet- ing of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1113-1122, Baltimore, Maryland, June 2014. Association for Computational Linguistics. [11] Christoph Hube and Besnik Fetahu. Neural based statement classification for biased language. In Proceedings of the Twelfth ACM International Conference on Web Search and Data Mining. ACM, jan 2019. [12] Shijia Guo and Kenny Q Zhu. Modeling multi-level context for informational bias detection by contrastive learning and sentential graph network. arXiv preprint arXiv:2201.10376, 2022. [13] Wei-Fan Chen, Khalid Al-Khatib, Benno Stein, and Henning Wachsmuth. Detecting media bias in news articles using gaussian bias distributions. arXiv preprint arXiv:2010.10649, 2020. [14] Arman Cohan, Iz Beltagy, Daniel King, Bhavana Dalvi, and Daniel S Weld. Pretrained language models for sequential sentence classification. arXiv preprint arXiv:1909.04054, 2019. [15] Guozheng Rao, Weihang Huang, Zhiyong Feng, and Qiong Cong. Lstm with sentence representations for documentlevel sentiment classification. Neurocomputing, Vol. 308, pp. 49-57, 2018. [16] Abinash Tripathy, Abhishek Anand, and Santanu Kumar Rath. Document-level sentiment classification using hybrid machine learning approach. Knowledge and Information Systems, Vol. 53, pp. 805-831, 2017. [17] Iffat Maab, Edison Marrese-Taylor, and Yutaka Matsuo. An effective approach for informational and lexical bias detection. In Proceedings of the Sixth Fact Extraction and VERification Workshop (FEVER), pp. 66-77, 2023. [18] Vivek Kulkarni, Junting Ye, Steven Skiena, and William Yang Wang. Multi-view models for political ideology detection of news articles. arXiv preprint arXiv:1809.03485, 2018. [19] Yuanyuan Lei, Ruihong Huang, Lu Wang, and Nick Beauchamp. Sentence-level media bias analysis informed by discourse structures. In Proceedings of the $\mathbf{2 0 2 2}$ Conference on Empirical Methods in Natural Language Processing, pp. 10040-10050, 2022. [20] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018. [21] Tomas Mikolov, Quoc V Le, and Ilya Sutskever. Exploiting similarities among languages for machine translation. arXiv preprint arXiv:1309.4168, 2013. [22] Arman Cohan, Iz Beltagy, Daniel King, Bhavana Dalvi, and Dan Weld. Pretrained language models for sequential sentence classification. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP). Association for Computational Linguistics, 2019. ## A Experimental Setup To streamline the comparison with prior work [8, 12], we use a 10 -fold cross-validation setting where bias-aware neighborhood and event-based target aware contexts never appear at the same time in non-overlapping train-val-test split sets of 80-10-10, respectively. Average performance of our model using three seed runs is reported in all our experiments. For the sentence-level bias detection, we perform of informational bias i.e., INF/OTH bias task. Inspired by [17], for INF/OTH bias task we combine BANC, EBTA and ABTA with backtranslation of informational bias samples. We refer to the original set of examples in BASIL, without augmentation as "regular". We do not perform any augmentation techniques for the testing examples . Furthermore, to examine the effectiveness of our proposed components in ablation studies, regular BASIL examples [6] are augmented with BANCand target-aware contexts in fractions of $10 \%, 20 \%, 30 \%, 40 \%, 50 \%, 100 \%$, and $100 \%$ with BT (additional backtranslated examples). Implementation Details We use the PyTorch to implement our models, borrowing from HuggingFace, our classifiers are based on BERT-base [20], and all our models are trained with $5 \times 10^{-5}$ as learning rate, 32 as batch size, and 15 as a maximum epoch count. We utilize a server with an NVIDIA V-100 GPU for our experiments. & - \\ Table 4: An article of New York Times section extracted from BASIL showing bias-aware neighborhood context of informational bias in blue. ## B Bias-Aware Neighborhood Context Table 4 shows an example of how this procedure works. Since, our approach is bias-sensitive, to generate a BANC for informational bias classification, we combine sentences with indices 2, 3 and 4 as highlighted in blue. According to the same principle, for cases where the first sentence of an article has bias, next sentence is checked and combined, whereas in the event where it is last sentence, former sentence gets checked and successively combined. ## C Most Frequent Targets Table 5 shows a detailed explanation on target-aware context generation for the most frequent "targets" in BASIL. Table 5: Most frequent bias targets in BASIL across events and their possible combinations using target-aware context. Barack Obama* includes three similar targets: Barack Obama, Obama's administration, Sasha and Malia Obama with 119,21 , and 16 bias sentences.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-2.pdf
# 過去クエリを介した関連文書検索システム 須賀幹太 ${ }^{1,2}$ 宮本琳太郎 ${ }^{1}$ 桂尚輝 ${ }^{1}$ 梅澤慶介 ${ }^{1}$ 1 株式会社メルカリ ${ }^{2}$ 早稲田大学 } [email protected] , \{r-miyamoto,n-a-katsura,k-umezawa $\} @ m e r c a r i . c o m$ ## 概要 多くのサービスではユーザーが困った際に質問フォームから問い合わせをすることができる。問い合わせに対して関連するへルプガイドを自動で検索・推薦できれば、問題解決までの時間削減に寄与できる。また、ChatGPTを始めとする LLMを用いた文章生成において、関連ガイドをコンテキストとして渡すことで正確な返答文章の生成が可能になる。そこで本研究ではユーザーからの新規クエリに対して、過去のクエリとその返信文を経由することで関連ガイドを高精度に検索する手法を提案する。提案手法と新規クエリから直接ガイド文章との類似度を計算する既存手法を比較した結果、提案手法は高精度に文章を検索できることが分かった。 ## 1 はじめに サービス系アプリケーションでは、ユーザに生じた問題点をフリーテキストで運営側に問い合わせることができることが多い。現在それらの問い合わせに対する返答は、必要性に応じてカスタマーサポート等の担当部署が一件ずつ作成している。しかし近年の急激な IT 化に伴って、ユーザ数と共に問い合わせの件数も増加しており、人力で返答文を作成していると返信までに時間を要するという問題がある。ユーザの問い合わせに関連するへルプガイドを自動的に検索・推薦することができれば、ユー ザは問題が即座に解決を解決することができ、カスタマーサポート側にとっても人力で対応するべき問い合わせ数の減少効果が期待できる。また、近年台頭してきた ChatGPT を始めとする LLM では自然な文章を高速に生成することができるが、その生成には事前学習時に含まれている情報しか使用できないため、各サービス固有の問題に対する QA ボットとして直接使うことは難しい。その対応策として外部知識をコンテキストとして LLM に与えることで回答の生成に使用する情報を拡張させる Retrieval Augumented Language Model という手法が多く研究されている $[1,2,3]$ 。ユーザの問い合わせ文章から関連するガイドを検索し、その情報を LLM に与えることによってより正確な情報を含んだ回答が自動的に生成できると考えられる。現在、関連するガイドの検索手法としては問い合わせ文章と検索対象を単語の一致度やべクトル表現などで直接評価する手法 [4] が一般的であるが、文意を考慮できないため正しいガイドを推薦できないことがある。そこで本研究では問い合わせ文章を過去の問い合わせと返信文を経由することで文意を考慮した上で関連ガイドを高精度に推薦する手法を提案する。 ## 2 関連研究 ## 2.1 文章類似度検索 従来の文章検索分野においては、単語の出現頻度を元にした疎べクトルで文章を表すことが一般的であった [5]。単語の重要度をどのように重み付けるかによって様々な手法が存在し、最も有名なものは TF-IDF[6] やそれを拡張した BM25[7] である。しかしこれらの疎べクトルを用いた手法は文章が正確に一致していないと検索できないという制約がある。 そこで、近年ではニューラルネットワークを用いた文章検索手法が多く提案されている $[8,9,10]$ 。これらは文章を潜在空間内の密ベクトルとして表現し、 ベクトル間の距離を計算することで類似度を判定している。本研究では後者のニューラルネットワークをべースとした文章検索技術を改良した手法を提案する。 ## 2.2 Retrieval Augmented Language Model Retrieval Augmented Language Model(RA-LM) は言語モデル (LM) に外部から取得した関連文章を与えることで、生成文章の質を向上させることができる枠組みである [11]。近年、LM のパラメーター数の急激な増加によりモデルの再学習コストが高くなっ 図 1 提案手法の概念図 ているため、簡易的に性能向上が見込める RA-LM が注目されている。RA-LMのうち Retriever 部分に関して盛んに研究がされており、代表的なものとしてはニューラルネットワークベースで教師あり学習が可能な DPR[12] や教師ラベルなしで学習可能な Retrieval Augmented Generation[13]、対照学習を行う Contriever[14] などがある。 ## 3 提案手法 本研究ではユーザからの新規の問い合わせに関連するへルプガイドを検索する際に、過去のユー ザからの問い合わせとその返信文を経由する手法 Embedding via を提案する。提案手法の概要を図 1 に示す。従来の文章検索手法としては問い合わせ文章と検索対象群のベクトル表現に変換しその中で類似度を直接計算することが一般的である [5]。しかし質問と回答の文章では文体が異なることがあるため、類似度を直接計算すると正しく評価されない場合がある。そこで、問い合わせは問い合わせ同士、回答は回答同士で文章の類似度を比較することで類似ガイド推薦の精度を上げるため、本手法を提案する。なお、本論文において、以後ユーザからの問い合わせをクエリと表現する。 ## 3.1 Embedding via の検索過程 過去のクエリとそれに紐づいている返信文を経由することで類似度上位 $\mathrm{K}$ 個の関連文章を推薦する際に、検索の幅を増やす方向としては 1. 新規クエリと類似度が高い過去クエリ上位 $\mathrm{k}$ 件を取得 2. 返信文と類似度が高いガイド上位 $\mathrm{k}$ 件を取得 という 2 種類が存在する。本研究では各方向で検索幅を増やす手法をそれぞれ Embedding via query aug, Embedding via doc aug と名付け性能を比較する。 ## 3.1.1 Embedding via query augment 新規のクエリを $q_{n}$ 、過去のクエリ群を $Q_{p}$ として設定する。文書のベクトル表現を獲得する関数を $E(\cdot)$ とし、ベクトル同士の類似度を計算する関数を $S(\cdot)$ とする。式 3 の様に、ベクトル空間に埋め込んだ $q_{n}$ と $q_{p}\left(\in Q_{p}\right)$ 間で類似度を計算し、類似度の高かった上位 $\mathrm{K}$ 件を $Q P_{k}(k=1,2,,, K)$ とする。 $Q P_{k}$ に一意に紐づいている返信文を $R P_{k}(k=1,2,, K)$ とし、 $R P_{k}$ それぞれに対して検索対象のヘルプガイド $g_{i}\left(i=1,,, N_{g}\right)$ との類似度を計算する。各 $R P_{k}$ から得られた類似度スコアが最も高い 1 件のガイドを集積し、検索の結果 Gとして出力する。本研究では文書のベクトル表現獲得のための $E(\cdot)$ に OpenAI 社 が提供する text-embedding-ada-002[15] の API を採用し、類似度関数 $S(\cdot)$ にはコサイン類似度を用いる。 $ \begin{aligned} & Q P_{k}=\left.\{q_{i} \mid q_{i} \in \operatorname{rank}\left(S\left(E\left(q_{n}\right), E\left(q_{i}\right)\right)\right)<k\right.\} \\ & \mathbb{G}=\left.\{g_{i} \mid g_{i} \in \arg \max _{r_{k} \in R P_{k}}\left(E\left(r_{k}\right), E\left(g_{i}\right)\right)\right.\} \end{aligned} $ ## 3.1.2 Embedding via doc augment 3.1.1 の Embedding via query augment と同様に新規のクエリを $q_{n}$ 、過去のクエリ群を $Q_{p}$ とし、ベクトル空間に埋め込む。Embedding via doc augment では式 3 の様に、ベクトル空間に埋め込んだ $q_{n}$ と $q_{p}$ 間で類似度を計算し、類似度の高かった上位 $\mathbf{1}$ 件を $\hat{q_{p}}$ とする。 $\hat{q_{p}}$ に一意に紐づいている返信文を $r_{p}$ とし、 $r_{p}$ と検索対象のヘルプガイド $g_{i}\left(i=1,,, N_{g}\right)$ の類似度を計算する。類似度スコア上位 $k$ 件のガイドを検索の結果 $G$ として出力する。ベクトル表現獲得のための $E(\cdot)$ 、類似度関数 $S(\cdot)$ も Embedding via query augment と同一である。なお、 $\mathrm{k}=1$ のとき、検索結果は Embedding via query augment と一致する。 $ \begin{aligned} & \hat{q_{p}}=\arg \max _{q_{i} \in Q_{p}} S\left(E\left(q_{n}\right), E\left(q_{i}\right)\right) \\ & \mathbb{G}=\left.\{g_{i} \mid g_{i} \in \operatorname{rank}\left(S\left(E\left(r_{p}\right), E\left(g_{i}\right)\right)\right)<k\right.\} \end{aligned} $ ## 4 実験 提案手法をメルカリ1) に寄せられたお問い合わせ履歴に適用し評価を行った。また、提案手法の文章検索性能を比較するために、ベースラインとしてクエリと対象群の距離を直接計算する手法 Embedding direct と、疎ベクトルベースの検索手法である TF-IDF[6] と BM25[7] でも同様の実験を行う。 表 1 データセットの規模と文長 ## 4.1 データセット 社内で集積されたデータを用いて実験用データセットを構築した。使用する文章は全て事前に埋め込みモデルでベクトル化した。各データセットにおけるサンプル数および文章の長さの特徴を表 1 に示す。 1) https://jp.mercari.com/検索対象ガイド社内で使用しているへルプガイドのうち、2023 年 10 月時点で外部公開状態になっている 676 件 $^{2)}$ を使用。 1 つのへルプガイドは複数のセクションから成っており、本研究ではセクション単位で切り出した 2,091 件の文章を検索対象とした。これらの文章は text-embedding-ada-002によって予めべクトル化して保持した。 クエリ文章実験に用いるクエリ文章としてはメルカリに対して実際にユーザから受けたもののうち、関連するへルプガイドが紐付け可能なもののみを使用した。1つのクエリ文章に対して正解ガイドが 1 件のみ対応している。新規クエリ $q_{n}$ は 2023 年 10 月中に受けた問い合わせから 10,000 件をランダムにサンプリング、過去クエリ $q_{p}$ は 2023 年 8-9 月中に受けた問い合わせから 100,000 万件をランダムにサンプリングして用意した。使用した問い合わせには全て社内のエージェントが作成した返答文が紐づいている。 ## 4.2 比較手法 Embedding direct Embedding direct では、新規クエリ $q_{n}$ から 3.1 と同様にベクトル表現 $E\left(q_{n}\right)$ を獲得し、これと検索対象群との類似度を計算する。その結果、類似度が上位 $\mathrm{k}$ 件であったガイドを検索の結 BM25 BM25 は文章 $d$ を形態素解析によって単語レベルに分解した上で以下の式 5 によって計算される。ここで、IDF $\left(w_{i}\right)$ は検索対象の全文章中において単語 $w_{i}$ が希少であるかを示す值であり、 $f\left(w_{i}, d\right)$ は文章 $d$ 中での単語の出現頻度、|d| は文章 $d$ の単語数である。BM25を用いた比較手法では、式 5 でクエリ文章と検索対象ガイドの類似度スコアを計算し、あったガイドを検索の結果 Gとして出力する。 $ \text { Score }=\sum_{i} I D F\left(w_{i}\right) \frac{\left(k_{1}+1\right) f\left(w_{i}, d\right)}{f\left(w_{i}, d\right)+k_{1}\left(1-b+b \frac{|d|}{a v g(d l)}\right)} $ ## 4.3 評価方法 各手法で類似度が高いと算出された上位 $\mathrm{k}$ 件 $(k=5,10)$ の候補ガイドに対して Success Rate(SR) @ $\mathrm{k}$ と Mean Reciprocal Rank(MRR)@kを計算して評価する。 SR とは Sakata らの研究 [16] で用いられている指標であり、検索された上位 $\mathrm{k}$ 件の候補文章の内に一 2) https://help.jp.mercari.com/guide/ 図 2 類似度の分布 つでも正解の関連文章 $\hat{g}$ が含まれていたクエリの割合である (式 6)。また、MRR@k は式 7 に示すように、検索された上位 $\mathrm{k}$ 件の文章を関連度に沿って降順に見て行った際に、最初に関連文書が含まれていた順位 $\operatorname{rank}_{i}$ の逆数を加算した値である。 $ \begin{gathered} S R=\frac{1}{|Q|} \sum_{i=1}^{|Q|} s_{i}, s_{i}=\left.\{\begin{array}{l} 1(\hat{g} \in \mathbb{G}) \\ 0(\hat{g} \notin \mathbb{G}) \end{array}\right.\} \\ M R R=\frac{1}{|Q|} \sum_{i=1}^{|Q|} \frac{1}{\operatorname{rank}_{i}} \end{gathered} $ ## 4.4 結果と考察 提案手法と比較手法を用いて文章検索を行った時の評価結果を表 2 に示す。結果から Embedding via query augment/doc augment は共にベースラインの手法より性能が高いことがわかる。これはクエリとへルプガイドの距離よりも返答文とへルプガイドの距離が近いため、より正確に類似度を計算できているためだと考えられる。その検証としてクエリと返答文それぞれに対してへルプガイド文章と類似度を計算した時の分布を図 2 に示す。図 2 から、返答文とヘルプガイドの類似度の方が全体として高い傾向が見られた。 また、提案手法の中では doc augment よりも query augment の方が性能が大幅に高い傾向が見られた。 これは新規クエリに対して複数の類似過去クエリから関連ガイドを検索することによって推薦結果に多様性が生まれ、正解の文章が含まれている確率が高くなったからではないかと推測される。この考察を検証するため、Embedding via において 10 件の関連関連を検索する際に過去クエリと類似ガイド表 2 評価結果 表 3 Embedding via n-query m-doc 9 検証結果 の取得数の組み合わせをそれぞれ $\mathrm{n}$ 及び $\mathrm{m}$ 件に拡張し、表 2 と同様のデータセット、評価指標で比較実験を行った。その結果を表 3 に示す。この表における (query $=1$, doc=10) と (query $=10$, doc=1) はそれぞ $れ$ Embedding via doc augment (3.1.2) と Embedding via query augment (3.1.1) と同義である。結果として同じ件数のガイドを検索する際に、過去の類似クエリの数を多くするほど性能が高い傾向が見られた。 ## 5 おわりに 本研究ではユーザからの新規のクエリに対して、類似する過去クエリと返信文を経由することで関連するヘルプガイド文章を検索する手法を 2 種類提案した。大規模な社内データを用いて文章検索実験を行った結果、提案手法は共にベースラインである直接的に文章の類似度を検索する手法よりも良い性能であり、特に過去類似クエリを多く取得する query augment の手法が高い性能を示した。類似する過去クエリ方向に検索幅を広げることの重要性を検証するため、使用する過去クエリと返信文からの類似ガイドの件数を複数変えて同様の実験を行った結果過去クエリの数が多くなると共に性能が上がる傾向が見られた。 本手法を用いて提案されたヘルプガイドは、ユー ザの問題解決に有用となるだけでなく、LLMを Retrieval Augumented Generation システムと組み合わせることにより正確な回答文章を自動的に行うことができると考えられる。 今後の課題としては本手法が他環境のデータセットでも同様に有効であることを実証する必要がある。 ## 謝辞 本研究を遂行するにあたり協力, 指導いただいた株式会社メルカリ社内の全ての方に御礼申し上げます。 ## 参考文献 [1] Bohan Li, Yutai Hou, and Wanxiang Che. Data augmentation approaches in natural language processing: A survey. Ai Open, Vol. 3, pp. 71-90, 2022. [2] Lee Xiong, Chenyan Xiong, Ye Li, Kwok-Fung Tang, Jialin Liu, Paul Bennett, Junaid Ahmed, and Arnold Overwijk. Approximate nearest neighbor negative contrastive learning for dense text retrieval. arXiv preprint arXiv:2007.00808, 2020. [3] Yingqi Qu, Yuchen Ding, Jing Liu, Kai Liu, Ruiyang Ren, Wayne Xin Zhao, Daxiang Dong, Hua Wu, and Haifeng Wang. Rocketqa: An optimized training approach to dense passage retrieval for open-domain question answering. arXiv preprint arXiv:2010.08191, 2020. [4] S. Ibrihich, A. Oussous, O. Ibrihich, and M. Esghir. A review on recent research in information retrieval. Procedia Computer Science, Vol. 201, pp. 777-782, 2022. [5] Amit Singhal, et al. Modern information retrieval: A brief overview. IEEE Data Eng. Bull., Vol. 24, No. 4, pp. 3543, 2001 . [6] Karen Sparck Jones. A statistical interpretation of term specificity and its application in retrieval. Journal of documentation, Vol. 28, No. 1, pp. 11-21, 1972. [7] Stephen E Robertson, Steve Walker, Susan Jones, Micheline M Hancock-Beaulieu, Mike Gatford, et al. Okapi at trec-3. Nist Special Publication Sp, Vol. 109, p. 109, 1995. [8] Po-Sen Huang, Xiaodong He, Jianfeng Gao, Li Deng, Alex Acero, and Larry Heck. Learning deep structured semantic models for web search using clickthrough data. In Proceedings of the 22nd ACM international conference on Information \& Knowledge Management, pp. 23332338, 2013. [9] Yelong Shen, Xiaodong He, Jianfeng Gao, Li Deng, and Grégoire Mesnil. Learning semantic representations using convolutional neural networks for web search. In Proceedings of the 23rd international conference on world wide web, pp. 373-374, 2014. [10] Hamid Palangi, Li Deng, Yelong Shen, Jianfeng Gao, Xiaodong He, Jianshu Chen, Xinying Song, and Rabab Ward. Deep sentence embedding using long short-term memory networks: Analysis and application to information retrieval. IEEE/ACM Transactions on Audio, Speech, and Language Processing, Vol. 24, No. 4, pp. 694-707, 2016. [11] Fengbin Zhu, Wenqiang Lei, Chao Wang, Jianming Zheng, Soujanya Poria, and Tat-Seng Chua. Retrieving and reading: A comprehensive survey on open-domain question answering. arXiv preprint arXiv:2101.00774, 2021. [12] Vladimir Karpukhin, Barlas Oğuz, Sewon Min, Patrick Lewis, Ledell Wu, Sergey Edunov, Danqi Chen, and Wen- tau Yih. Dense passage retrieval for open-domain question answering. arXiv preprint arXiv:2004.04906, 2020. [13] Patrick Lewis, Ethan Perez, Aleksandra Piktus, Fabio Petroni, Vladimir Karpukhin, Naman Goyal, Heinrich Küttler, Mike Lewis, Wen-tau Yih, Tim Rocktäschel, et al. Retrieval-augmented generation for knowledge-intensive nlp tasks. Advances in Neural Information Processing Systems, Vol. 33, pp. 9459-9474, 2020. [14] Gautier Izacard, Mathilde Caron, Lucas Hosseini, Sebastian Riedel, Piotr Bojanowski, Armand Joulin, and Edouard Grave. Unsupervised dense information retrieval with contrastive learning. arXiv preprint arXiv:2112.09118, 2021. [15] OpenAI. New and improved embedding model $^{3)}, 2022$. [16] Wataru Sakata, Tomohide Shibata, Ribeka Tanaka, and Sadao Kurohashi. Faq retrieval using query-question similarity and bert-based query-answer relevance. In Proceedings of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval, pp. 1113-1116, 2019. 
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-3.pdf
# 論文における URL による引用を考慮した引用要否判定 和田和浩 1 角掛正弥 2 松原茂樹 1,3 1 名古屋大学大学院情報学研究科 2 日立製作所 3 名古屋大学情報基盤センター [email protected] [email protected] [email protected] ## 概要 論文執筆や査読支援に向けて,ある文に引用が必要か否かを判定する引用要否判定が行われている.既存研究は文献タグによる引用のみを対象としているが,学術論文では URL による引用(以下 URL引用)も行われる.データセットなどの引用は URL 引用で実施されることが多く,それらの引用も引用要否判定の対象に含める必要がある。本論文では,文献タグによる引用に加え,URL引用を対象とした引用要否判定を提案する. データセットを作成し $^{1)}$ ,既存手法の性能を確認した結果,URL引用に限った再現率は低く,改善の余地があることが判明した.また,URL引用に特有の言い回しへの対応が課題であることが分かった. ## 1 はじめに 学術論文において,引用は先行研究を尊重し,著者の研究の立ち位置を明確にするために重要な行為である. 加えて, 論文の読者の理解や関連するリソースへのアクセスを支援するためにも, 引用は適切に行われる必要がある. しかし, 適切な引用が行われているか否かを確認する作業には熟練した技術が必要なうえ, 近年の論文数の増加に伴い確認作業に要する時間も肥大化している. 論文の執筆・査読支援を促進するため,ある文に引用が必要か否かを判定する引用要否判定の研究が行われている $[1,2,3]$. 引用要否判定は,引用の抜け漏れの防止・検出を可能とし,執筆・査読の双方を支援できる重要なタスクである.既存研究の引用要否判定で対象としている引用は主に, 文献ストに書誌情報として記される文献の引用である。 $[1,2,3]$. しかし,学術論文では文献以外にもデータセット 1)以下のリポジトリでデータセットを公開する. https: //github.com/matsubara-labo/URL_Citation_Worthiness 図 1 引用要否判定(本文は [6] より引用) やプログラムなど,様々な研究資源が引用される。 そして,それらは本文中に文献タグによって引用されるとは限らない。特に,データセットやプログラム,ツールなどは URL によって引用(以下 URL 引用)されることが多い $[4,5]$. したがって,文献タグによる引用のみが対象である従来の引用要否判定では,文献以外の引用を十分に考慮できない。一方で,論文の読者による研究の理解や再現,リソースへのアクセスを支援するためには,データセットやプログラム等も適切に引用されることが望ましい。 そこで本論文では,文献タグによる引用に加えて,URL引用も含めた引用要否判定タスク(図 1) を提案する.具体的には,既存研究で「引用あり」 とされていた文集合に,URL引用が存在する文を加える。これにより,従来の引用要否判定では十分に考慮できていなかった引用も網羅できる。 このタスク設定に従い,ACL Anthology2) より収集した ACL,NAACL,EMNLP の本会議における論文からデータセットを作成した。従来の引用要否判定の手法から,BERT[7] などの文脈埋め込みモデルを使用した Gosangi らの手法 [3] をべースラインとして,URL引用を含めた引用要否判定における性能を確認した。その結果,URL引用の引用要否判定では,前後の文脈が重要であることが分かった。また,引用の種類を区別せず評価した場合は「引用あり」の文の F 值は高い一方で,URL引用に限った再現率は低い傾向にあり,URL引用の要否判定には改  図 2 脚注での URL引用(脚注は [6] より引用) 善の余地があることが判明した. 加えて, URL引用を誤って判定した文を分析した結果,データセットやツールを表す固有名詞やURL引用に特有の言い回しへの対応が課題であることが分かった. ## 2 関連研究 引用要否判定は,ある文が引用を必要とするか否かを判定するタスクであり,杉山らによって提案された [8]. このタスクに対する取り組みは多くあり, Bonab らは ACL-ARC[9] を基に引用要否判定用のデータセットである SEPID-citeを作成し, Word2Vec[10] と CNN を用いた手法を提案した [1]. Gosangi らは引用要否判定に段落レベルの広い文脈が有用であると主張し, 広い文脈情報を加えた ACL-cite を作成した [3]. これらの研究は主に言語処理分野やコンピュータサイエンス分野を対象にしているが,他の分野でも研究されている [2,11]. Zeng らは医学分野の論文データセットである PubMed${ }^{3)}$ を使用して PMOA-cite を作成した [2]. また, Khatri らは Caselaw Access Project ${ }^{4}$ で提供されているデータを使用してアメリカの法律文書に対して引用要否判定を行った [11]. ## 3 URL 引用を含めた引用要否判定 本節では,本研究で提案する URL 引用も含めた引用要否判定タスクについて述べる. このタスクでは文ごとに引用が必要か否かの 2 值分類を行う. 具体的には,文献タグによる引用,またはURL引用が行われた文を「引用あり」として検出することを目指す. 図 1 に例を示す. 1 文目は文献タグによる引用であり, 従来の引用要否判定においても検出対象の引用である. 一方, 2 文目は URL引用が行われた例であるが,従来の引用要否判定では検出対象としていない. 本論文の引用要否判定では, このような文を「引用あり」として検出すべき文に追加する. ${ }^{5)}$ URL 引用は主に本文, 脚注, 参考文献の 3 か所で行われる [4]. 参考文献における URL引用は文献 3) https://pubmed.ncbi.nlm.nih.gov/ 4) https://case.law/ 5)文献タグによる引用,URL引用がともに行われた場合も 「引用あり」として検出対象とする。 タグによる引用と重複するため,本文と脚注での URL引用のみを扱う. 本文での URL引用では,本文中の URL を含む文を「引用あり」とする.脚注での URL 引用では,URLが記載された脚注の文章によって,「引用あり」として検出対象にする文が異なる. 図 2 の上側のように脚注に URL のみ記載されている場合,本文中の脚注番号を含む文を「引用あり」とする. なぜなら,本文の脚注番号が脚注の URL のみを参照しているため,本文での URL引用と本質的には同じであり, 脚注番号のある文を引用箇所と考えることができるためである。一方,図 2 の下側のように脚注に URL 以外も記載されている場合,脚注番号は URL 以外の文章も参照しており,本文での URL引用と同じであるとはみなし難い、そのため,本文中の脚注番号を含む文ではなく,脚注において URL が記載された文を「引用あり」として検出すべき対象にする。 ## 4 データセット ## 4.1 作成手順 以下の手順に従ってデータセットを作成した. 1. 論文 PDF のテキスト化 2. 文分割 3. 脚注番号の対応付け 4. 文献タグ,URL の検出 論文 PDF のテキスト化に PDFNLT-1.0[12] を使用した. 文分割に Spacy $\left.{ }^{6}\right)$ の en_core_web_lg 7 )を使用した.本研究で提案する引用要否判定タスクでは脚注に URL 以外の文章も含まれるか否かによって,脚注番号が対応している本文を「引用あり」とする場合がある。一方,PDFNLTでは脚注と本文の脚注番号の対応付けは行われない. そのため, 本文の脚注番号と脚注の対応付けを行う. 本文中の脚注番号の候補から前後の語, 単語, ページ番号などを使用してスコアを計算し,最も高いスコアであったものを対応する脚注番号とした. 手順 4 は,「引用あり」として検出対象とする文を判定するために実施する.文献タグ8)と URL ${ }^{9)}$ の検出には正規表現を用いた.  表 1 データセットの比較(括弧内の数値は全体の文数に占める割合を表す. [3] より引用し,一部改変) Sentence Classification 図 3 ベースラインのモデル図 表 2 ラベルごとの内訳 & & & & \\ ## 4.2 作成したデータセット 2000 年以降の ACL,NAACL,EMNLP の本会議における論文を ACL Anthology より収集し,データセットを作成した. ## 4.2.1 脚注番号の対応付けの正しさ 脚注番号の対応付けが正しく行われているかを確かめるために,各会議から 17 論文ずつ合計 51 論文を無作為に選択し, 調査した. その結果, $\mathrm{F}$ 値が 0.91 であり,高い性能で脚注番号の対応付けを行えることを確認した。 ## 4.2.2 先行研究のデータセットとの比較 作成したデータセットと先行研究のデータセットとの比較を表 1 に示す. SEPID-cite, ACL-cite は言語処理, PMOA-cite は医学分野のデータセットである.引用を含む文(文献タグ)の全体に占める割合は本研究で作成したデータセットが 0.158 , 先行研究のデータセットが 0.075 0.195 となっており, 同分野ではやや多いが全体としては同水準である。また, 1 文当たりの文字数,単語数はそれぞれ $141 , 23$ であり, 同分野の ACL-cite と同水準の数値であった. ## 4.2.3 ラベルごとの内訳 表 2 に引用なし,および,引用の種類別に「引用あり」の文の内訳を示す。引用が行われなかった文は約 190 万文であり,全体の $83.4 \%$ 占めている. URL引用が含まれている文は $1 \%$ と非常に少ない. また,URL引用のみ行われた文では他に比べて,文字数,単語数ともに少ない. 文献タグによる引用が行われた文は長くなりやすく,URL引用も行われた場合には全ラベルの内,最長となっている。 ## 5 ベースラインの性能 先行研究の手法をべースラインとし, 本研究で提案する引用要否判定においてべースラインがどの程度の性能を達成可能かを確認するために実験を行った. ベースラインとして,文脈埋め込みモデルを使用したテキスト分類において標準的な方法を採用している Gosangi らの手法 [3] を選択した。 ## 5.1 ベースラインの手法 Gosangi ら [3] の Sentence Classification と Sentence Pair Classification をべースラインとした。それぞれのモデル図を図 3 に示す. Sentence Classification(SC) SC のモデルは BERT[7] などの文脈埋め込みモデルと分類層である全結合層から構成される。文脈埋め込みモデルに判定対象の文を大力し, [CLS] トークンに対応する出力を全結合層に繋げて各クラスのロジットを得る. Sentence Pair Classification(SPC) SPC のモデルは SC と同様である. 入力には判定対象の文とその前後の 1 文を加えたものを文脈として,判定対象の文と文脈を [SEP] により結合して使用する. ただし,Gosangi らの手法では全結合層のみが学習対象であるが,本研究では,全てのパラメータを 表 4 実験結果(太字は最も高い性能を示したものを指す.) 学習する方法(SC(full)と $\mathrm{SPC}\left(\right.$ full))を検証する ${ }^{10)}$ ## 5.2 実験設定 データセット 4 節で作成したデータセットを文書単位で学習,検証,テスト用に 8:1:1 の割合でランダムに分割した. 作成されたデータセットの内訳は表 3 に示す通りである。 モデルと各種パラメータ Gosangi らの手法 [3] に従い,RoBERTa-base ${ }^{11)}$ , large ${ }^{12)}[13]$ を文脈埋め込みモデルとして使用した. 最適化手法は学習率 1e-5 (base), 4e-6 (large) の AdamW[14] とし, その他のパラメータは Huggingface Trainer のデフォルト值 ${ }^{13)}$ とした。また CrossEntropyLoss を指標に Early Stopping (patience は2)を使用した. バッチサイズは 32,勾配累積のステップ数は2である。 ## 5.3 実験結果 表 4 に Weighted-F1 と「引用あり」の適合率,再現率, $\mathrm{F}$ 值,URL引用についての再現率を示す. ACL-cite は作成したデータセットとオーバーラップがあるため、その結果 [3] も参考として記載する。結果の数値はそれぞれ 3 回異なるシード値で学習した平均と標準偏差である. large は base よりも若干の性能が向上したが全体の傾向に変化はなかった. $\mathrm{SC}$ (full) + RoBERTa-base について,「引用あり」の $\mathrm{F}$ 值が 0.974 であり高い性能を発揮している。一方で,URL引用についての再現率は 0.779 であり「引用あり」の 0.975 に対して低い值となっている. SPC(full) + RoBERTa-base について,前後の文脈を加えることで SC(full) + RoBERTa-base より高い性能となった. 特に URL引用についての伸びが 0.153 と大きい。この結果から,文献タグによる引用は判定対象の文だけでもある程度判定できる一方で,URL 引用の判定には広い文脈が有効であるといえる。 10)事前に検証した結果,全てのパラメータを学習させた方が高い $\mathrm{F}$ 値であったため (full) で検証を行った。 11) https://huggingface.co/roberta-base 12) https://huggingface.co/roberta-large 13) https://huggingface.co/docs/transformers/v4.36.1/ en/main_classes/optimizer_schedules\#transformers. AdamW表 5 SPC(full)+RoBERTa-base で誤って判定した文 & ツール \\ ## 5.4 エラー分析 URL 引用を正しく検出できなかった文を人手で分析した. SPC(full) + RoBERTa-base で正しく判定できなかった文の例を表 5 に示す. 1 つ目の例ではツールの引用を行っており,ツール名に対応して URL が記載されている. したがって, 固有名詞に着目することで性能が改善する可能性がある.2つ目の例では脚注でデータの引用を行っているが,1つ目の例とは異なりデータ名は明示されていない. そのため, 脚注の “Extracted from firebase dump” からデータの取得についての文であることを識別する必要があり,こうした URL引用に特有の言い回しへの対応が必要である. ## 6 おわりに 本論文では,文献タグによる引用に加えて URL 引用も含めた引用要否判定タスクを提案した. このタスクのために ACL Anthology より収集した論文データから新たなデータセットを作成した。このデータセットに対する文脈埋め込みモデルを使用したベースラインの性能を確認した.その結果,文献タグによる引用と比較して URL引用の要否判定の再現率が低く,改善の余地があることが分かった. また,URL引用の要否判定では特に前後の文脈の有無が重要であり,文脈の追加により大幅に性能が向上することを示された。加えて,URL引用についてのエラー分析を行い,URL引用に特有の言い回しへの対応が必要であることが分かった. 本研究で作成したデータセットの URL引用の標本数が極端に少ない。このことが URL引用の再現率の低さの原因である可能性がある. そのため, アップサンプリング等の手法を試す必要がある. ## 謝辞 本研究は一部, JSPS 科研費基盤研究 (B) $21 \mathrm{H} 03773$ の支援により実施した。 ## 参考文献 [1] Hamed Bonab, Hamed Zamani, Erik Learned-Miller, and James Allan. Citation worthiness of sentences in scientific reports. In Proceedings of the 41st International ACM SIGIR Conference on Research \& Development in Information Retrieval, SIGIR '18, pp. 1061-1064, New York, NY, USA, 2018. Association for Computing Machinery. [2] Tong Zeng and Daniel E Acuna. Modeling citation worthiness by using attention-based bidirectional long short-term memory networks and interpretable models. Scientometrics, Vol. 124, No. 1, pp. 399-428, July 2020. [3] Rakesh Gosangi, Ravneet Arora, Mohsen Gheisarieha, Debanjan Mahata, and Haimin Zhang. On the use of context for predicting citation worthiness of sentences in scholarly articles. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT), pp. 4539-4545, Online, June 2021. Association for Computational Linguistics. [4] Masaya Tsunokake and Shigeki Matsubara. Classification of URL citations in scholarly papers for promoting utilization of research artifacts. In Proceedings of the First Workshop on Information Extraction from Scientific Publications, pp. 8-19, Online, November 2022. Association for Computational Linguistics. [5] He Zhao, Zhunchen Luo, Chong Feng, Anqing Zheng, and Xiaopeng Liu. A context-based framework for modeling the role and function of on-line resource citations in scientific literature. In Proceedings of the $\mathbf{2 0 1 9}$ Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 5206-5215, Hong Kong, China, November 2019. Association for Computational Linguistics. [6] Nishant Kambhatla, Logan Born, and Anoop Sarkar. CipherDAug: Ciphertext based data augmentation for neural machine translation. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (ACL), Volume 1 (Long Papers), pp. 201218, Dublin, Ireland, May 2022. Association for Computational Linguistics. [7] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT), Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [8] Kazunari Sugiyama, Tarun Kumar, Min-Yen Kan, and Ramesh C. Tripathi. Identifying citing sentences in research papers using supervised learning. In 2010 International Conference on Information Retrieval Knowledge Management (CAMP), pp. 67-72, 2010. [9] Steven Bird, Robert Dale, Bonnie Dorr, Bryan Gibson, Mark Joseph, Min-Yen Kan, Dongwon Lee, Brett Powley, Dragomir Radev, and Yee Fan Tan. The ACL Anthology reference corpus: A reference dataset for bibliographic research in computational linguistics. In Proceedings of the Sixth International Conference on Language Resources and Evaluation (LREC), pp. 1755-1759, Marrakech, Morocco, May 2008. European Language Resources Association (ELRA). [10] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. In Advances in Neural Information Processing Systems, Vol. 26. Curran Associates, Inc., 2013. [11] Mann Khatri, Pritish Wadhwa, Gitansh Satija, Reshma Sheik, Yaman Kumar, Rajiv Ratn Shah, and Ponnurangam Kumaraguru. Citecaselaw: Citation worthiness detection in caselaw for legal assistive writing, 2023. [12] Takeshi Abekawa and Akiko Aizawa. SideNoter: Scholarly paper browsing system based on PDF restructuring and text annotation. In Proceedings of the 26th International Conference on Computational Linguistics (COLING): System Demonstrations, pp. 136-140, Osaka, Japan, December 2016. The COLING 2016 Organizing Committee. [13] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach, 2019. [14] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization, 2019.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-4.pdf
# 対話型検索のためのクエリ書き換えにおける 大規模言語モデルの効果分析 阿部健也 ${ }^{1}$ 竹岡邦紘 ${ }^{2}$ 小山田昌史 ${ }^{2}$ 1 筑波大学大学院 ${ }^{2} \mathrm{NEC}$ データサイエンスラボラトリー [email protected] \{k_takeoka, oyamada\}@nec.com ## 概要 対話型検索は,対話の最後に与えられるユーザの質問に適合する文書を検索するタスクであり,対話の文脈に依存した質問を適切に書き換えるクエリ書き換えが主要なアプローチの一つである。大規模言語モデル (LLM) によって作成したクエリ書き換えで学習する手法は提案されているが,どのような場面でどの程度有効かは十分に調べられていない. 本研究では,LLM による書き換えやそのデータを学習したモデルがどのような状況において有効であり,人手のデータを使う場合に比べてどのような性質があるかを調査した. 実験の結果,LLMを利用すると元の質問との重複を避ける傾向にあり,元の質問から大きく書き換える必要のない事例を苦手とすることがわかった。 ## 1 はじめに 対話型検索 (conversational search) は,対話において最後に与えられたユーザの質問に適合する文書を検索するタスクである。近年は TREC で対話型検索に取り組むコンペティション [1] が開催され,大規模なデータセット [2] が作成されるなど活発に研究されている. 対話型検索が一般的な検索と最も異なる点は,省略や共参照が頻繁に発生する対話の文脈に依存した自然文の質問であり,対話履歴に基づいて質問の意図を理解する必要があるところだ. この課題に対するアプローチには,対話型クエリ書き換え (Query Rewriting) と対話型密検索 (Conversational Dense Retrieval) の2つがある [3]. 対話型密検索は対話をそのまま入力して適切な検索結果が得られるように学習するアプローチ $[4,5,6]$ であり,一方で対話型クエリ書き換えは一般的な検索エンジンに入力するクエリへと変換するアプ 図 1 対話型検索の概要 (対話型検索では図中の検索結果を評価する。) ローチである.しかし,対話型密検索には検索モデルが固定されてしまうという欠点がある。一方で対話型クエリ書き換えは検索モデルに依存しないという点で実用性が高く,T5を利用して質問を書き換える T5QR[7] や BERTを利用して対話履歴から必要な単語を選択して拡張する QuReTeC[8]などが提案されている. 最近提案された LLM4CS[9] では LLM を用いてクエリの書き換えを行うことで従来の手法を上回る精度を達成し,いくつかの工夫を加えることで人手書き換えの精度も上回った. この他にもクエリ書き換えの手法は多数提案されている $[10,11,12,13,14]$ が,これらの手法の多くは人手やルールベースの書き換えデータを学習している。しかし,人手の書き換えは作成コストが高く,ルールベースの書き換えは精度が高くない。 この課題を解決するために大規模言語モデル (LLM) で正解となる書き換えデータを生成しモデルを学習するという手法が提案されている [15]. この論文は LLM の書き換えを学習データとした書き換えモデルで検索精度を一部改善することに成功した.これらは人手の書き換えの代わりに LLMによる書き換えを用いる方が有効な可能性があることを示唆している。しかし, [15] では一部のケースにおいて LLM による書き換えをべースにした手法が有効に動作しないケースが報告されていたものの,その明確な理由は特定することができていなかった. LLM による書き換えは人手による書き換えと比較するとコストが低く,大量のデータを容易に生成できるため,どのような状況で LLM が効果的に機能するか,またはそうでないかが明らかになれば生成したデータに対してフィルタリング等 [16]を行うことで低コストで高品質な学習データを用意できると考えられる. そこで,本研究では既存研究 [15] の実験で用いられたデータセットに加えて,2つのデータセットを用いて,人手とLLMによるクエリの書き換えが検索結果に及ぼす影響,および学習データとしてのそれぞれの書き換えの効果についての分析を行った。実験では 3 つのデータセットの結果の評価だけでなく, 成功例や失敗例の分析を行い,以下のような知見が得られた. (1) LLM による書き換えは元の質問の単語との重複を避ける傾向にある. (2) LLM による書き換えを学習したモデルも同様に単語との重複を避ける傾向がある. (3) LLM とその書き換えで学習したモデルは元の質問から大きく書き換える必要のない事例を苦手とする。 ## 2 実験 ## 2.1 問題設定 対話型検索は,対話を通じたユーザからの質問 $q_{i}$ とその対話履歴 $C_{i}=\left.\{q_{1}, r_{1}, q_{2}, r_{2}, \ldots, q_{i-1}, r_{i-1}\right.\}$ が与えられた時に, 質問 $q_{i}$ に対する返答 $r_{i}$ に必要な文書 $d_{i}^{+}$を文書集合 $D$ から検索するタスクである.対話型検索においてユーザの質問 $q$ は代名詞による置き換えや単語の省略が存在するため, それまでの対話履歴 $C$ を利用してそれらを解決して, 質問 $q$ を $\hat{q}$ に変換することをクエリ書き換えと呼ぶ.この書き換えた $\hat{q}$ は文脈に依存せずに情報要求を表す簡潔な質問であることが望ましい。このような $\hat{q}$ に変換することで検索モデルの種類に関わらず検索ができることがクエリ書き換えの強みである。よって,本研究ではクエリ書き換えに注目する. 本研究ではクエリ書き換え手法のベースとして T5QR[7]を用いる. T5QR は T5 の入力として質問とそれまでの対話履歴を与え, 対話履歴に基づいて書き換えた質問を出力する.この時,T5 は人間の書き換えを正解として学習を行う. クエリ書き換え手法は他にも存在するが,LLM が基本的に自然文を生成するため,今回は自然文の書き換えを生成する $\mathrm{T} 5 \mathrm{QR}$ を選択した。 ## 2.2 LLM による書き換えデータ生成 人間と LLM の書き換えモデル(T5QR)の学習データとしての効果を検証するために LLM で書き換えを生成する際の方法について述べる,入力として用いるのはユーザの質問 $q_{i}$ とその対話履歴 $C_{i}$ である. 具体的に LLM に適切なクエリ書き換えを生成させるためのプロンプトは付録 B 表 B に示した. また,同様に付録 B 表 5 に,[15] において使用されたプロンプトも記載した. この 2 つのプロンプトはどちらも対話履歴に基づいてユーザの質問を書き換えるように指示している1). [15] では学習データの生成時に理想的な書き換えを含んだ対話の例をいくつか提示する Few-Shot な設定であったが,本実験の生成時には Zero-Shot な設定で生成を行う. ## 2.3 データセット 以前の研究 $[11,12,13]$ に従って, in-domain 設定のためのデータセットとして $\mathrm{QReCC}[2] を$ 利用した. また, 本実験ではデータセットとして TREC CAsT 2019, $2020[1,17]$ も利用する. QReCC は 8 万件のターン(質問と返答のペア)が含まれる英語での対話 1.4 万件のデータセットである.コー パスには Web ページ 100 万件を分割したパッセー ジ 5400 万件が含まれる. 追加のデータセットとして利用する CAsT-19,20 には対話がそれぞれ 50,25 件で対話ターンが 479,208 ずつ用意され,検索対象はパッセージ 3900 万件である. 3 つのデータセットの質問には適合文書が与えられているため,この適合文書をどの程度検索できているかで手法を評価する。 ## 2.4 実験設定 クエリ書き換えの性能を比較するために 2 つの検索モデルで実験を行った. 検索モデルは従来の研究で用いられていることの多いBM25[18] と GTR[19]を使用した. BM25 のハイパーパラメータは $k 1=0.82$ と $b=0.68$ と設定した. GTRは T5 のエンコーダ部分を用いたベクトル検索モデルであり, クエリの最大入力トークン数を 64 , 文書の最大入力トークン数を 384 とした. 上位 100 件を検索し,評価指標は MAP@ 100,MRR@100,Recall@10(R@10) を用いた. 全ての指標が高い値ほど良い評価で, MRR は検索結果に最初に登場する適合文書が上  表 1 異なる書き換え手法を用いた場合の対話型検索の評価結果. 位であるほど高い評価となる. MAP と Recall はどちらも適合文書をできるだけ多く検索できることを重視しており,特に MAP は順位も考慮する。書き換えモデルの $\mathrm{T} 5 \mathrm{QR}$ では入力の最大を 384 として出力の最大を 64 とした。また,書き換えモデルとしての LLM には OpenAI が提供する API の gpt-3.5-turbo-instruct ${ }^{2}$ 3) を使用した. ## 2.5 比較手法 実験において書き換え手法として比較を行うものについて述べる。質問のみ: ユーザの質問をそのまま使う.人手: 各データセットで提供されている人手による書き換えを使う.LLM: LLM で書き換えたクエリを使う.T5QR(人手): 人手で作った書き換えデータを学習した T5 モデルで生成したクエリを使う. T5QR(LLM): LLM で作った書き換えデータを学習した $\mathrm{T} 5$ モデルで生成したクエリを使う. ## 2.6 実験結果 表 1 は 3つのデータセットにおける評価結果である。 $\mathrm{T} 5 \mathrm{QR}$ (人手) と T5QR(LLM)の間で評価が高かったものを太字で,全体で最も高い評価のものを下線で表す. 実験の結果からクエリ書き換え手法に関して以下のことがわかった. (1) 全てのデータセット,検索手法において人手での書き換えの精度が最も高い.これは [9] の結果と同様で LLM を最大限に活用するような方法では人間を超える精度が発揮できる一方で,今回の実験のように Zero-Shot な 2) https://platform.openai.com/docs/models/gpt-3-5 3)同時期に実験に取り組んでおり,[15] と実験設定が異なるため結果が異なるものの,API で使用するモデルバージョンの違いが主要因であることを確認している。設定で書き換えのみを行う場合,人手の結果を超えるのは難しい. (2) QReCC においては T5QR の学習に人手よりも LLM の書き換えを使った場合の方が精度が高い. [15] のような Few-shot 設定ではなく,今回のような Zero-Shot な設定においても,LLM の書き換えを学習に使うことは有効であると考えられる。また (1)と (2) の結果から,直接の書き換えとしては人手の方が良いにも関わらず,学習の効果としては LLM の方が有効に作用するケースがあると分かる。(3) CAsT-19,20では CAsT-20 の BM25を除いて,T5QR(人手)が T5QR(LLM)を上回る. (4) CAsT-19 でのみ直接 LLM を利用するよりも人間の書き換えで学習した T5QR で書き換えた方が検索結果が良い,今回の設定では他のデータで学習済みの検索モデルをそのまま利用しているため,クエリ書き換えの質が検索精度に大きく影響する。そのため (3),(4) についての結果ではデータセット間でのクエリの性質の違いが関わっていると考えられ,表 2.5 の実例分析において詳しく述べる. ## 2.7 実例分析 本節では実例分析により人間や LLM の書き換えの傾向にどのような違いがあるのかを明らかにする.まず,書き換え前後における1クエリあたりの単語数と重複数を図 2.5 に示す. LLM による書き換えは一貫して人手による書き換えよりも単語数が多いにも関わらず,元の質問との重複数は人手よりも少ない.この傾向はそれぞれの書き換えを学習データとして利用した際にも同様である。また,人手と LLM の書き換えについて CAsT における実例を表 2.5 に示す. CAsT-19,20 に共通して人間の書 図 2 書き換え前後における 1 クエリあたりの単語数と重複数.() 内は書き換え前後の単語の重複数を書き換え前の単語数で割った値である。(左:CAsT-19 右:CAsT-20) \\ xWhat impact has Netflix had on television view- \\ U & (b) How has it changed the way TV is & How has Netflix changed the way TV is watched? \\ watched? & What is anemia? & xWhat are the symptoms and causes of anemia? \\ 表 2 質問の書き換えの成功例と失敗例: LLM の書き換えを人間の書き換えと比較して検索結果の評価結果が全ての指標で上がっているものを成功 $(\checkmark)$, 下がっているものを失敗xとしている. き換えは文章の形が大きく変わることは少なく,省略や共参照の解決のみにとどまることが多い. 特に CAsT-19では,(c)の例のように,書き換えがなくても検索できているケースが確認された. これらのことから,LLMによる書き換えが必ずしも質問の意図を損なわない一方で質問を㔯長にしてしまい,検索精度のばらつきが生じる原因となっていると考えられる。他にも例 (e) の “Why are so many bees dying?" では dying が検索において重要な単語であり,その単語が LLM による書き換えでは失われてしまうため検索に失敗している。これは LLM に「書き換えること」を指示していることや LLM 自体の性質が原因であると考えられる。この性質から 2.6 章の (3),(4)の結果について以下のような考察ができる。 CAsT-19 では大きな書き換えを必要としない質問を特に多く含むため,LLM が有効に作用せず,大きく書き換えを行わない人間の書き換えを学習した T5QR に劣ったと考えられる. 同様に,CAsT-19 のみで T5QR(LLM) が BM25, GTR の両方で T5QR (人手)を下回ったことも単語の重複を避ける性質を学習しているためであると考えられる。一方で, CAsT-19 CAsT-20 の成功例があるように㔯長であることは悪いケースのみではなく, 成功例の (a) や (d) にあるように映画の人気についての話題では “review”,肩の怪我についての話題で “injury”という単語が追加されるような書き換えにより検索結果が改善するケースも存在する。 ## 3 結論 本研究では対話型検索におけるクエリ書き換えモデルの学習において,正解データを人間と LLM の書き換えとした場合の効果の違いについて分析を行った. その結果,LLM は質問の意味を保った書き換えが可能であるものの,検索において重要な単語を書き換えてしまうケースがあることが明らかになった. これは, LLMが単語の重複を避けようとするという性質によるもので,特に元の質問から大きく書き換える必要のない質問を苦手とすることがわかった.また,LLMによる書き換えで学習した T5 も同様の性質を示した. 今後の課題としては,LLM が人手の書き換えと比較して有効である事例にどのような傾向を明らかにすること,本実験を踏まえて LLM を利用したロバストなクエリ書き換えデータ生成方法を検討することが挙げられる。 ## 参考文献 [1] Jeffrey Dalton, Chenyan Xiong, and Jamie Callan. Trec cast 2019: The conversational assistance track overview. arXiv preprint arXiv:2003.13624, 2020. [2] Raviteja Anantha, Svitlana Vakulenko, Zhucheng Tu, Shayne Longpre, Stephen Pulman, and Srinivas Chappidi. Open-domain question answering goes conversational via question rewriting. arXiv preprint arXiv:2010.04898, 2020. [3] Jianfeng Gao, Chenyan Xiong, Paul Bennett, and Nick Craswell. Neural approaches to conversational information retrieval. arXiv preprint arXiv:2201.05176, 2022. [4] Shi Yu, Zhenghao Liu, Chenyan Xiong, Tao Feng, and Zhiyuan Liu. Few-shot conversational dense retrieval. In Proceedings of the 44th International ACM SIGIR Conference on research and development in information retrieval, pp. 829-838, 2021. [5] Kelong Mao, Zhicheng Dou, Hongjin Qian, Fengran Mo, Xiaohua Cheng, and Zhao Cao. Convtrans: Transforming web search sessions for conversational dense retrieval. In Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing, pp. 2935-2946, 2022. [6] Hongjin Qian and Zhicheng Dou. Explicit query rewriting for conversational dense retrieval. In Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing, pp. 4725-4737, 2022. [7] Sheng-Chieh Lin, Jheng-Hong Yang, Rodrigo Nogueira, Ming-Feng Tsai, Chuan-Ju Wang, and Jimmy Lin. Conversational question reformulation via sequence-to-sequence architectures and pretrained language models. arXiv preprint arXiv:2004.01909, 2020. [8] Nikos Voskarides, Dan Li, Pengjie Ren, Evangelos Kanoulas, and Maarten de Rijke. Query resolution for conversational search with limited supervision. In Proceedings of the 43rd International ACM SIGIR conference on research and development in Information Retrieval, pp. 921-930, 2020. [9] Kelong Mao, Zhicheng Dou, Haonan Chen, Fengran Mo, and Hongjin Qian. Large language models know your contextual search intent: A prompting framework for conversational search. arXiv preprint arXiv:2303.06573, 2023. [10] Sheng-Chieh Lin, Jheng-Hong Yang, and Jimmy Lin. Contextualized query embeddings for conversational search. arXiv preprint arXiv:2104.08707, 2021. [11] Fengran Mo, Jian-Yun Nie, Kaiyu Huang, Kelong Mao, Yutao Zhu, Peng Li, and Yang Liu. Learning to relate to previous turns in conversational search. arXiv preprint arXiv:2306.02553, 2023. [12] Kelong Mao, Zhicheng Dou, Bang Liu, Hongjin Qian, Fengran Mo, Xiangli Wu, Xiaohua Cheng, and Zhao Cao. Search-oriented conversational query editing. In Findings of the Association for Computational Linguistics: $\mathrm{ACL}$ 2023, pp. 4160-4172, 2023. [13] Fengran Mo, Kelong Mao, Yutao Zhu, Yihong Wu, Kaiyu Huang, and Jian-Yun Nie. Convgqr: Generative query reformulation for conversational search. arXiv preprint arXiv:2305.15645, 2023. [14] Zeqiu Wu, Yi Luan, Hannah Rashkin, David Reitter, Hannaneh Hajishirzi, Mari Ostendorf, and Gaurav Singh Tomar. Conqrr: Conversational query rewriting for retrieval with reinforcement learning. arXiv preprint arXiv:2112.08558, 2021. [15] Fanghua Ye, Meng Fang, Shenghui Li, and Emine Yilmaz. Enhancing conversational search: Large language model-aided informative query rewriting. arXiv preprint arXiv:2310.09716, 2023. [16] Zhuyun Dai, Vincent Y Zhao, Ji Ma, Yi Luan, Jianmo Ni, Jing Lu, Anton Bakalov, Kelvin Guu, Keith B Hall, and Ming-Wei Chang. Promptagator: Few-shot dense retrieval from 8 examples. arXiv preprint arXiv:2209.11755, 2022. [17] Jeffrey Dalton, Chenyan Xiong, and Jamie Callan. Cast 2020: The conversational assistance track overview. In In Proceedings of TREC, 2021. [18] Stephen Robertson, Hugo Zaragoza, et al. The probabilistic relevance framework: $\mathrm{Bm} 25$ and beyond. Foundations and Trends ${ }^{\circledR}$ in Information Retrieval, Vol. 3, No. 4, pp. 333-389, 2009. [19] Jianmo Ni, Chen Qu, Jing Lu, Zhuyun Dai, Gustavo Hernández Ábrego, Ji Ma, Vincent Y Zhao, Yi Luan, Keith B Hall, Ming-Wei Chang, et al. Large dual encoders are generalizable retrievers. arXiv preprint arXiv:2112.07899, 2021. [20] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, et al. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 conference on empirical methods in natural language processing: system demonstrations, pp. 38-45, 2020. ## A 実験設定の詳細 表 3 データセットのサイズ QReCC のデータセットの詳細は 3 の通りで, test データは 16451 件用意されているが, $[13,14,15]$ などと同様に注釈づけをやり直して作られた 8029 件をテストデータとして扱う。また,学習時には T5 のベースとして transformers ライブラリ [20] の t5-base ${ }^{4)}$ 利用した。学習率は $5 \times 10^{-5}$ ,バッチサイズは 48 で 1 epoch 毎に dev データでの損失を計算し,2 回連続で損失が下がらなければ学習を止める early stopping を行った. 学習はシードを変えて 3 回行い,それぞれのモデルの書き換えで検索を行い, 3 回の平均をとった. ## B 入カしたプロンプトの例 本実験と [15] のプロンプトを表 B と表 5 に示す.本実験で用いた gpt-3.5-turbo-instruct では 2 つのプロンプトで大きな差は見られなかった. [15] でも同じような意味の他のプロンプトであれば啇用できると述べられている。  表 4 本実験で使用したプロンプト 表 5 [15] による Zero-Shot 設定のプロンプト Given a question and its context, decontextualize the question by addressing coreference and omission issues. The resulting question should retain its original meaning and be as informative as possible, and should not duplicate any previously asked questions in the context. Context: [Q: How does water freeze? A: Freezing happens when the molecules... Q: What happens to its molecules? A: When frozen, water molecules take...] Question: [Why isn't the bottom of the ocean frozen?] Rewrite: 表 6 [15] による Zero-Shot 設定のプロンプト 図 3 QReCC における書き換え前後における1クエリあたりの単語数と重複数 表 7 LLM のプロンプト,バージョンの違いによる評価結果への影響 ## C QReCC における単語数と重複数 QReCC における書き換え前後での単語の重複数とその割合を図 Dに記載した. CAsT のデータと同様に LLM の書き換えでは単語数が長く,元の質問からの重複を避ける傾向にあることがわかる. ## D LLM のバージョンによる評価結果の違い また,[15] の設定と我々の設定での結果の比較を表 D に示した. [15] の設定は QReCC での結果は良いものの出力が安定しないため CAsT データセットでは本実験の設定が上回っている. 
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-5.pdf
# ChatGPT による日本語常識道徳データセットの拡張 大橋 巧 ${ }^{1}$ 中川翼 ${ }^{2}$ 彌冨 仁 ${ }^{1,2}$ 1 法政大学理工学部応用情報工学科 2 法政大学理工学研究科応用情報工学専攻 \{takumi.ohashi.4g, tsubasa.nakagawa.5p\}@stu.hosei.ac.jp [email protected] ## 概要 近年の人工知能の発展や社会への参入により,人工知能に人間の一般的な道徳観を持たせることが望まれるが,現在公開されている学習させるための日本語常識道徳データセットではカバーしている事例が少ない. 本研究では ChatGPT による事例のバリエーションを補うデータ拡張手法を提案する. 既存の日本語常識道徳データセットを拡張したデータセットでモデルを学習・評価することで提案手法による性能の向上を確認するとともに,GPT-4 Turbo による推定結果と比較することで,拡張データセットで学習したモデルは日本特有の文化や道徳に対する理解が求められる事例に対して,より効果的な推定が可能であることが示唆された。 ## 1 はじめに 近年の人工知能の発展や社会への参入に伴い,人工知能の倫理を巡る議論は活発化している. 人工知能をよりよく活用するためには,人間に近い価値観を持つことが必要であり,どのようにして人工知能に倫理を教えるか議論が行われている $[1,2]$. その中で現在, 人工知能に一般的な道徳観を学習させるためのデータセットが構築されている $[3,4,5]$. 竹下ら [5] は日本語では唯一の常識道徳データセット JCommonsenseMorality(JCM)を構築し,公開した. 道徳的判断に関するデータセットはいくつか存在するがそのほとんどは英語圏のデータセットであり,文化差や言語の違いを考えれば日本語の常識道徳データセットは希少である.彼らはこのデー タセットを用いて評価実験を行い, Hendrycs ら [3] が構築した英語の常識道徳データセットを用いた実験結果と比較した上で,日本語における道徳的判断には日本特有の文化や慣習も考慮した,より複雑な道徳理解が求められることを示唆した. だが,現状のデータセットでは事例のバリエーションが少ないため,学習データの事例を増やし語彙を補うことが望まれる。 データのバリエーションを補うデータ拡張(Data Augmentation)は学習データの量や質に性能が依存する機械学習分野において効果的であり,自然言語処理 (Natural Language Processing; NLP) の分野でも行われている [6,7]. 例えば, Easy Data Augmentation (EDA)は同義語を置換したり,単語を交換,挿入,削除したりなどの単純な操作を行い,効果を示している [7]. また, OpenAI が 2022 年 11 月に公開した対話型の大規模言語モデル(Large Language Models; LLM)である ChatGPTを用いた手法も行われている [8, 9, 10]. Dai ら [10] は Few-shot のテキスト分類タスクのためのデータ拡張手法として, ChatGPT によるデータ拡張を提案し, Amazonレビューの分類や医学領域の NLP タスクといった複数のタスクで既存のデータ拡張手法より高い効果を示した. 既存のデータ拡張手法は生成されるデータの精度や多様性に限界があったが,ChatGPT は豊富な知識を持っているかつ,学習時に人間のフィードバックによる強化学習 (Reinforcement Learning from Human Feedback; RLHF) [11]を行っていることから,より有益で多様なデータを生成することができる. 本研究では ChatGPT を用いて日本語の常識道徳データセット JCM の拡張を行い,事例のバリエー ションを補う手法を提案し,拡張したデータセットで BERT [12] や RoBERTa [13] といった事前学習モデルをファインチューニングして道徳理解に関する性能を評価した。また,JCM を拡張したデータセットを用いて学習した最良のモデルと,主に英語のデータを多く学習している現時点で最先端の LLM である GPT-4 Turbo による道徳的判断の推定結果と比較し,日本特有の文化や慣習を含む,より複雑な道徳理解が求められる事例に対する推定能について検証した。 ## 2 提案方法 ## 2.1 データセット 本研究では, 日本語では現時点で唯一の常識道徳データセット JCommonsenseMorality $(\mathrm{JCM})^{1)}[5] を$用いた. データセットに含まれている文章とラベルの例を表 1 に示す. 文章は文章の一部,つまり状況や行為が変わることにより道徳的評価が変化する 2 文 1 組で構成されており,道徳的に許容できる(1) か否(0)かの 2 種類のラベルが付与されている. データ数は学習データが 13,975 文, 検証用データが 1,996 文,テスト用データが 3,992 文の計 19,963 文である. このデータセットは量が限られ,一部の単語が変化した 2 文 1 組の構成であるので,目的を実現する学習用データとして不足している。例えば,表 1 の文章の一部を変化させた,「赤ちゃんにコーヒーを飲ませる」や「赤ちゃんにガムを飲ませる」のような場合は適切に分類できるかは不明である. 我々が身に着けているような知識や経験を反映するような事例を網羅することは難しいが,それぞれのペアに対応したパターン増やすことで,以前より幅広い内容を含むデータセットの構築が期待できる. ## 2.2 拡張手法 本研究では JCM に対して,ChatGPTを用いたデー タセットの拡張方法を提案する。拡張に用いる ChatGPT のモデルは, GPT-3.5 Turbo 2)(2023 年 11 月 6 日時点のモデル) である. 拡張方法のフレームワークを図 1 に示す。 まず,データセットから文章の一部が変わることにより道徳的評価が変化するぺアを取り出す。このペアの事例のバリエーションを増やすため, ペアの一致している部分を抽出する。 それぞれの文章に対して,日本語 NLP ライブラリである GiNZA[14] で単語分割して前方から一致する部分と後方から一致  図 1 拡張手法のフレームワーク する部分を抽出し,その間にくを挿入した文を作成した. 以下この文を一致抽出文と呼ぶ. ただし,一致抽出文がく>を含めて 6 文字以下の場合,適切に検出できていない可能性が高いため,そのぺアでは一致抽出文を生成しない。 次に ChatGPT にこの一致抽出文に類似した文章で道徳的に許容できる文章,道徳的に許容できない文章が含まれる 6 文を生成させた。ここで生成された 6つの文章に対して ChatGPT にこの文章が道徳的に「許容できる」「許容できない」,または「判別できない」か判定を行わせ,その結果をもとにアノテーションを行った.このとき,「判別できない」 というラベルを加えたのは,文脈がおかしい文章や道徳的判断しにくい文章を除外するためである. 「判別できない」というラベルが付けられた文章や元データと重複する文章,生成した文章同士で重複した文章を除外し,必要のないデータを取り除いた. 最後に偏りが発生しないように,1つの組から生成された文章の中で道徳的に許容できる,できない文章それぞれ 3 つを上限に拡張データセットに採用した. この手順に従い,各組で文章の生成とアノテー 表 2 拡張前と拡張後のデータ数 ションを行い,データセットを拡張した.拡張後のデータ数は表 2 に示すように,拡張前の約 2.2 倍となった. ## 3 実験 ## 3.1 データ拡張の評価 我々は,拡張前と拡張後のデータセットでそれぞれ事前学習モデルの BERT[12] と RoBERTa[13] をファインチューニングし,JCM のテストデータに対して道徳的に許容できるか否かの評価を行い,拡張の効果を確認した。 事前学習モデルには, 日本語版 Wikipedia で事前学習した $\mathrm{BERT}^{3}$ ) と日本語版 Wikipedia, 日本語版 CC-100 で事前学習した RoBERTa ${ }^{4}$ を用いた. 損失関数に交差エントロピー誤差, 最適化手法に AdamW[15] を使用し, エポック数は 20 エポックの early-stopping を適用した. 学習率は BERT $\left.\{1 \times 10^{-5}\right.$ , $\left.2 \times 10^{-5}, 3 \times 10^{-5}, 4 \times 10^{-5}, 5 \times 10^{-5}\right.\}$, RoBERTa $\left.\{1 \times 10^{-6}, 2 \times 10^{-6}, 3 \times 10^{-6}, 4 \times 10^{-6}, 5 \times 10^{-6}\right.\}$, バッチサイズはどちらのモデルも $\{8,16,24,32\}$ を使用した。検証用データでパラメーターチューニングを行い,F1 スコアで最も高い精度を示した八イパーパラメータでテスト用データを評価した。このときシード值を変えて 5 回ずつ行い,それぞれのスコアの平均を求めた。また,比較のため ChatGPT (GPT-3.5 Turbo)と GPT-4 Turbo5)(どちらも2023 年 11 月 6 日時点のモデル)で同様に推定を 1 回ずつ行い,評価した。 ## 3.2 日本特有の文化を含む文章に対する 評価 本実験で用いる JCM には日本語特有の表現や日本独自の文化を含む文章がいくつか見られるため,提案手法で JCM を拡張したデータセットを学  表 3 各モデルの分類性能 習したモデルと主に英語のデータを多く学習している GPT-4 Turbo では推定結果に違いが出ると考えられる。そこで我々は,道徳ラベルの推定結果からそれぞれのモデルが日本特有の文化や慣習を含む文章に対して正しく推定できているのか分析した. 拡張データセットでファインチューニングした RoBERTa と GPT-4 Turbo による推定結果から, 片方が誤りもう一方が正解する文章をそれぞれ抽出した. RoBERTa は実験で得たシード値を変えた 5 回の結果を用いた. 抽出した文章に対して,以下の $2 \supset$ の手法で日本特有の文章が含まれている割合をそれぞれ求めた. 日本文化いろは事典による手法日本文化に関するキーワードを取り上げ,基本事項を紹介している日本文化いろは事典6) にある 253 個のキーワードのいずれかが含まれている文章の割合を求めた。 人手評価による手法 10 名の日本人を対象に道徳判別の推定結果を伏せた形で日本特有の単語や言い回しが含まれているか判断をするブラインドテストを行い,その割合を求めた. テストに用いるデータは,RoBERTa と GPT-4 Turbo の片方が誤り,もう一方が正解する文章に対して 50 文ずつランダムサンプリングを行い, RoBERTa の 1 回の結果ごとに 2 セットずつ, 合計 10 セット作成し, 1 名あたり 1 セット評価をした。 ## 4 結果と考察 ## 4.1 データ拡張の評価結果 道徳的に許容できるか否かを推定する各モデルの性能を表 3 に示す. BERT,RoBERTaのどちらでも拡張データセットでファインチューニングした方が,元データセットでファインチューニングした場合より高い道徳判別能を示した. また,拡張データセットでファインチューニングした RoBERTa では,  表 4 『GPT-4 Turbo が推定を誤り, RoBERTa が正解した文章』の例文 ChatGPT による推定結果よりスコアが上回った. ChatGPT で類似文章を複数生成したことで元デー タセットより事例のバリエーションが広がり,拡張したラベルを学習することで ChatGPT が持つ知識範囲をカバーすることができたため,性能向上に繋がったと考えられる. しかし, GPT-4 Turbo による推定結果を上回ることはできなかった. ## 4.2 日本特有の文化を含む文章に対する 評価結果 『GPT-4 Turbo が推定を誤り,RoBERTa が正解した文章』の中で日本特有の文化を含むと判断した例文と対応する正解ラベル(道徳的に許容できる:0,許容できない:1)を表 4 に示す. 上 2 文は日本文化いろは事典による手法で判断した例文であり,事典に登録されている「七五三」,「正月」という単語がそれぞれ含まれている。下 2 文は人手評価による手法で判断した例文であり,日本文化いろは事典に登録されている単語は含まれていないが,評価を行った全員が日本特有の文化を含んでいると評価した.「野球の試合に負けたので、砂を持ち帰る」という例文では日本特有の高校野球の文化を示しており, この文章を正しく判別するには日本特有の文化や道徳に対する理解が必要であると言える. RoBERTa と GPT-4 Turbo の片方が誤り,もう一方が正解する文章に対する日本特有の表現の割合についての評価を図 2 に示す.『GPT-4 Turbo が推定を誤り,RoBERTa が正解した文章』の方が日本文化いろは事典を用いた手法では $2.4 \%$ ,人手評価による手法 の割合が高いことが確認できた. GPT-4 Turbo が推定を誤る文章に日本特有の文化や慣習を含む割合が高い理由として, GPT-4 Turbo の持つバイアスが関係していると考えられる. GPT-4 Turbo は学習時にインターネットからの膨大な量のデータで学習をするとともに RLHF を行っている [11]. この学習デー タの偏りや人間のアノテーターの価値観や社会文化に影響されることにより, 特定の文化や社会, 言語 (a) 日本文化いろは事典による手法 (b) 人手評価による手法 図 2 日本特有の表現が含まれる文章の割合の比較 に偏っている可能性がある $[16,17]$. 一方で,提案手法で拡張したデータセットでファインチューニングしたモデルは,JCM に含まれている日本語特有の表現や日本独自の文化も学習データに含まれているため, GPT-4 Turbo でも推定が難しい日本特有のより複雑な道徳理解が求められる事例に対して, 日本特有の文化や道徳を考慮した推定が可能になっていると考えられる。 ## 5 おわりに 我々が提案した拡張手法により, 既存の常識道徳データセットを ChatGPT で事例のバリエーションを補ったデータセットに拡張することができた.拡張データを用いてファインチューニングした BERT や RoBERTa は, 拡張前のデータを用いるより高い性能であることを確認したとともに,RoBERTa はChatGPT を超える性能を達成した。また,この RoBERTa と GPT-4 Turbo による推定結果の違いを分析すると, 拡張データセットで学習したモデルは日本特有の文化や道徳に対する理解が求められる事例に対して,より効果的な推定が可能であることが示唆された。 今後は日本語以外の他の言語や文化圏の道徳に関するデータセットに対して,同様に ChatGPT を用いる拡張を行い効果を確かめるとともに,GPT-4 Turbo による推定結果との違いにどのような傾向が見られるか調査を行う。 ## 参考文献 [1] Edmond Awad, Sohan Dsouza, Richard Kim, Jonathan Schulz, Joseph Henrich, Azim Shariff, Jean-François Bonnefon, and Iyad Rahwan. The Moral Machine Experiment. Nature, Vol. 563, No. 7729, pp. 59-64, 2018. [2] Liwei Jiang, Chandra Bhagavatula, Jenny T Liang, Jesse Dodge, Keisuke Sakaguchi, Maxwell Forbes, Jon Borchardt, Saadia Gabriel, Yulia Tsvetkov, Regina A. Rini, and Yejin Choi. Can Machines Learn Morality? The Delphi Experiment. arXiv preprint arXiv:2110.07574, 2021. [3] Dan Hendrycks, Collin Burns, Steven Basart, Andrew Critch, Jerry Li, Dawn Song, and Jacob Steinhardt. Aligning AI with Shared Human Values. Proceedings of the International Conference on Learning Representations (ICLR), 2021. [4] Nicholas Lourie, Ronan Le Bras, and Yejin Choi. Scruples: A Corpus of Community Ethical Judgments on 32,000 Real-life Anecdotes. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 35, pp. 1347013479, 2021 [5] 竹下昌志, ジェプカラファウ, 荒木健治. JCommonsenseMorality: 常識道徳の理解度評価用日本語データセット. 言語処理学会第 29 回年次大会, pp. 357-362, 2023. in Japanese. [6] Steven Y. Feng, Varun Gangal, Jason Wei, Sarath Chandar, Soroush Vosoughi, Teruko Mitamura, and Eduard H. Hovy. A Survey of Data Augmentation Approaches for NLP. In Findings, 2021 [7] Jason Wei and Kai Zou. EDA: Easy Data Augmentation Techniques for Boosting Performance on Text Classification Tasks. In Conference on Empirical Methods in Natural Language Processing, 2019. [8] Chenxi Whitehouse, Monojit Choudhury, and Alham Fikri Aji. LLM-powered Data Augmentation for Enhanced Crosslingual Performance. arXiv preprint arXiv:2305.14288, 2023 . [9] Solomon Ubani, Suleyman Olcay Polat, and Rodney Nielsen. ZeroShotDataAug: Generating and Augmenting Training Data with ChatGPT. arXiv preprint arXiv:2304.14334, 2023. [10] Haixing Dai, Zhengliang Liu, Wenxiong Liao, Xiaoke Huang, Zihao Wu, Lin Zhao, Wei Liu, Ninghao Liu, Sheng Li, Dajiang Zhu, et al. ChatAug: Leveraging ChatGPT for Text Data Augmentation. arXiv preprint arXiv:2302.13007, 2023 . [11] Long Ouyang, Jeff Wu, Xu Jiang, Diogo Almeida, Carroll L. Wainwright, Pamela Mishkin, Chong Zhang, Sandhini Agarwal, Katarina Slama, Alex Ray, John Schulman, Jacob Hilton, Fraser Kelton, Luke E. Miller, Maddie Simens, Amanda Askell, Peter Welinder, Paul Francis Christiano, Jan Leike, and Ryan J. Lowe. Training Language Models to Follow Instructions with Human Feedback. arXiv preprint arXiv:2203.02155, 2022. [12] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In North American Chapter of the Association for Computa- tional Linguistics, 2019. [13] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A Robustly Optimized BERT Pretraining Approach. arXiv preprint arXiv:1907.11692, 2019. [14] 松田宽. GiNZA-Universal Dependencies による実用的日本語解析. 自然言語処理, Vol. 27, No. 3, pp. 695-701, 2020. [15] Ilya Loshchilov and Frank Hutter. Decoupled Weight Decay Regularization. arXiv preprint arXiv:1711.05101, 2017. [16] Han Rao. Ethical and Legal Considerations behind the Prevalence of ChatGPT: Risks and Regulations. Frontiers in Computing and Intelligent Systems, Vol. 4, No. 1, pp. 23-29, 2023. [17] Partha Pratim Ray. ChatGPT: A Comprehensive Review on Background, Applications, Key Challenges, Bias, Ethics, Limitations and Future Scope. Internet of Things and Cyber-Physical Systems, 2023.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-6.pdf
# 大規模言語モデル開発における 日本語 Web 文書のフィルタリング手法の検証 榎本倫太郎 ${ }^{1}$ Tolmachev Arseny ${ }^{2}$ 新妻巧朗 3 栗田修平 4 河原大輔 1 ${ }^{1}$ 早稲田大学理工学術院 ${ }^{2}$ Works Applications ${ }^{3}$ 朝日新聞社 4 理化学研究所 [email protected] [email protected] [email protected] [email protected] [email protected] ## 概要 日本語に強い大規模言語モデルの開発が活発化しており、その事前学習のために日本語の良質な大規模コーパスが求められている。しかし、大規模コー パスの中で大きな割合を占めるにもかかわらず、日本語 Webコーパスのフィルタリング手法は確立されていない。本研究では、日本語の Webコーパスに対して適切な自動品質フィルタリング手法を検証する。検証手法は、大規模言語モデルのコーパス構築で用いることを想定し、大量なデータでも比較的高速に処理できる小規模な分類器や言語モデルを選択する。Webコーパス品質評価ベンチマークをもとにこれらフィルタリング手法を評価した結果、最も精度が良い手法は N-gram 言語モデルであったが、強いフィルタリングが必ずしも下流タスクの性能向上につながるとは限らなかった。また、フィルタリングの過程で特定のトピックの割合が大きく減少した。 ## 1 はじめに 大規模言語モデル (LLM) の性能において、学習コーパスの品質が大きく影響する $[1,2]$ 。学習コー パスの中で Web 文書の割合が大きく、その中に含まれる低品質な文書または段落を効率的に除去することが重要である。 LLM の日本語における性能向上を図るため、大規模な日本語 Web コーパスを用いた学習による LLM 開発が進んでいるが、それらのコーパスの品質フィルタリング手法は確立されていない。ルールに基づくフィルタリング手法は、不要なアルファベットや記号、特定の繰り返し文などは削除できるが、削除項目の網羅性に欠け、文書の種類によっては適切ではない可能性がある。一方で自動フィルタリング手法はルールでは除去できない低品質な文書を取り除くことができる可能性があるが、どの手法がよいのか、また、どのような文書が削除されるのかについて検証されていない。 本研究では日本語 Webコーパス中の低品質な文書を学習によって除去する自動フィルタリング手法を検証する。検証には、大規模なコーパスを処理することを考慮し、比較的高速な分類器や言語モデルの Perplexityを用いる。Webコーパス品質評価ベンチマークを用いた実験の結果、 $\mathrm{N}$-gram 言語モデルの Perplexity によるフィルタリング手法が最も優れていることが分かった。 また、N-gram 言語モデルでフィルタリングを行った日本語 Webコーパスで BERT [3] の事前学習を行い、日本語言語理解ベンチマーク JGLUE [4] で評価した。その結果、強すぎるフィルタリングは性能悪化をもたらすことが分かった。さらに、学習に用いた Webコーパスにおいてトピック分析を行ったところ、フィルタリング過程で特定のトピックの割合が減少することが分かった。 ## 2 関連研究 ## 2.1 英語の LLM と学習コーパス テキストの品質分類手法には主にルールに基づく手法と機械学習に基づく手法の 2 種類がある。ルー ルに基づく手法を用いて作成された英語コーパスには The Pile [5] や RefinedWeb [6] がある。機械学習に基づく手法は LLaMA [7] モデルの学習コーパスの構築に用いられている。 The Pile は、Webコーパスや論文、書籍、コードなど 22 種類の高品質なサブセットからなる総量 $825 \mathrm{GiB}$ のクロスドメインコーパスである。The Pile 中の Web コーパスは Web アーカイブである Common Crawl (CC) ${ }^{1}$ から抽出されており、HTML ページから定型文を削除する jusText ${ }^{2}$ を用いてクリーニングされている。 RefinedWebでは、フィルタリングによってバイアスがかかることを避けるために、言語識別以外のフィルタリング処理において機械学習に基づく手法を用いていない。代わりに、Web 文書の URL をもとに有害文書を、またルールにより定型文や特殊文字の連続を削除している。 LLaMA で使用された学習コーパスのうち $67 \%$ が $\mathrm{CC}$ 由来である。 $\mathrm{CC}$ に対して言語識別、重複削除の上、線形分類器や N-gram 言語モデルの Perplexity によって低品質文書を削除している。しかし、 LLaMA の学習コーパスは公開されていない。そこで、LLaMA の学習コーパス構築手法にしたがって構築された完全にオープンな 1.21T トークンの RedPajama ${ }^{3)}$ データセットが公開されている。また、 RedPajama から特定の記号や短い文書を削除し、 さらに重複削除を行った 627B トークンからなる SlimPajama [8] データセットが公開されている。 ## 2.2 日本語 LLM 日本語 LLM では、CyberAgent の calm2-7b4) モデルや rinna $の$ japanese-gpt-neox-3.6b ${ }^{5}$ などが公開されているが、その学習コーパスの具体的なフィルタリング手法は不明である。また、LINE は独自のテキストフィルタリングライブラリ HojiCharr) でフィルタリング処理した学習コーパスから構築した LLM である japanese-large- $\mathrm{Im}^{7)}$ 公開している。しかし、 HojiChar はルールに基づくフィルタリング手法であり、機械学習に基づく手法は用いていない。 ## 3 検証手法 本研究では、フィルタリングの過程でデータセットにバイアスがかかることを無視し、テキストの品質のみに着目する。さらに、ルールベースの手法だけでは除去できない文書に対処できることを期待し、我々の検証では機械学習に基づく手法を用い  る。また、大規模コーパスを処理する必要があるので、高速な品質分類手法を用いる。そこで、分類器と言語モデルを用いた学習に基づく手法を検証する。 ## 3.1 分類器による分類 分類器では対象の Web 文書が高品質か低品質かの二値分類を行う。分類器として単層/多層パーセプトロンと $\mathrm{fastText}^{8}$ )を用いる。単層パーセプトロンと一層の隠れ層を持つ多層パーセプトロンは、分かち書きしたテキストから tf-idf の値をもとにしたべクトルを文書の特徴量として学習する。fastText では単語の one-hot 表現からニューラルモデルで分散表現を得て教師あり学習する。分類器の学習データセットとして、高品質な文書は現代日本語書き言葉均衡コーパス BCCWJ [9]、低品質な文書は CC から収集した日本語の Webコーパスとする。この Web コーパスは言語識別以外のフィルタリング処理をしていない。 ## 3.2 言語モデルの Perplexity による分類 高速な言語モデルによる分類のために、小規模なニューラル言語モデル (Transformer) と N-gram 言語モデルを用いる。これらの言語モデルで Web 文書の Perplexity を計算し、その Perplexity の分布から閾値を決定し分類を行う。学習データセットとして BCCWJ を用いる。 ## 4 検証実験 ## 4.1 実験設定 フィルタリング性能の評価には、LLM 勉強会 (LLM-jp) が作成した Webコーパス品質評価ベンチマーク9)を用いる。これは日本語 $\mathrm{mC4}$ [10] の文書 500 件に人手で “accepted", "harmful”, "low quality" のラベルが付与されたデータセットである。このデータセットのラベル割合を表 1 に示す。本研究では “accepted”を高品質文書、“harmful” と “low quality”を低品質文書とする。 評価指標は、ベンチマークのテキストが高品質 (正例) か低品質 (負例) かの二値分類において、精度 (Accuracy)、適合率 (Precision)、再現率 (Recall)、検知力 (Detection-power)、F 值、ROC-AUC を用いる。検 8) https://fasttext.cc/ 9) https://github.com/llm-jp/llm-jp-corpus/tree/main/ benchmark 表 1: 品質評価ベンチマークのラベル分布 知力は、負例である低品質文書を低品質であると分類できた割合である。ROC-AUC は、予測確率が得られる分類器においてのみ計算する。各手法の比較には主に再現率と検知力を用いる。再現率と検知力が両方とも高い手法が、高品質文書を取りこぼさず、多くの低品質文書を除去できるといえる。 単層/多層パーセプトロンは Python ライブラリ scikit-learn ${ }^{10)}$ を使用する。単層/多層パーセプトロンと fastText の学習には、BCCWJ (高品質文書) と日本語 Web コーパス (低品質文書) のうちそれぞれ 5,000 文書、計 10,000 文書を用い、ベンチマークの事例の推論結果を評価する。なお、単層パーセプトロンは出力結果が確率として得られないので、scikit-learn で確率較正する。 言語モデルは BCCWJ 全量のうち句点で終わる文のみを学習に用いる。推論時の Perplexity 分布から閾値を設定し、閾値前後でベンチマークの事例を分類、評価する。Transformer ベースの言語モデルは GPT-NeoX [11] で学習し、パラメータ数は 19M である。N-gram 言語モデルは KenLM [12]を用いて学習する。MeCab ${ }^{11)}$ で分かち書きした単位を 1-gram とし、2 から 5-gram の言語モデルを比較する。なお、予備実験として文字べースでも検証を行ったが、精度がより良かった分かち書き単位を採用する。 ## 4.2 実験結果 品質評価ベンチマークでの評価結果を表 3 に示す。ただし、分類器は間値 (予測確率、probability) 以上の文書を、言語モデルは閾値 (Perplexity) 以下の文書を高品質とする。 分類器を用いた手法では ROC-AUC が 0.7 を超えるのは fastText と多層パーセプトロンである。特に、再現率 (Recall) と検知力 (Detection) では fastText の方が多層パーセプトロンよりもスコアが高く、フィルタリング能力が高い。さらに、3-gram 以上の言語モデルの性能は、fastText と比べて再現率が 3 ポイントしか変わらないにも関わらず、検知力が 17.6 ポイント高く、より多くの低品質の文書を除去できる。一方で、Transformer ベースの言語モデルは検知力が 10) https://scikit-learn.org/stable/ 11) https://taku910.github.io/mecab/ 0.165 と低く、低品質文書の 2 割も除去できない。 これは他のすべての手法より分類性能が低い。以上より、N-gram 言語モデルの Perplexityを用いた手法が最も良く、3-gramでも高い分類能力がある。Web 文書例と 3-gram 言語モデルによる Perplexity に関して定性評価した結果を付録 A に示す。 ## 5 追加実験 追加実験として、フィルタリング後の Webコーパスによる BERT の事前学習および、日本語言語理解ベンチマーク JGLUE によるファインチューニングを行い、詳細な性能評価を行う。また、フィルタリング強度に応じて Web コーパスのトピックがどのような影響を受けるかを分析する。 ## 5.1 JGLUE での下流タスク評価 ベンチマークでの検証結果より、3-gram 言語モデルの Perplexity に基づく分類手法がもっとも性能が高いため、これで学習コーパスを作成する。日本語 $\mathrm{mC4}$ データセットのサブセット約 850 万文書の Perplexity 分布を分析し、Perplexity 下位 $[25,50,75$, 100]\%のうちランダムに選ばれた文書から計 4 つのデータセットを作成する。データセットのサイズはそれぞれ BertJapaneseTokenizer ${ }^{12)}$ によるトークン分割で $2 \mathrm{~B}$ トークンである。4つのデータセットでパラメータ数 110M の BERT モデルを事前学習し、 JGLUE の各タスクで 3 回ずつファインチューニングし、スコアの平均を算出する。 実験結果評価結果を表 3 に示す。JGLUE のすべてのスコアにおいて一貫して優れたモデルはみられないが、最も強いフィルタリングである Perplexity 下位 $25 \%$ の平均スコアが低いため、下流タスクにおいてはフィルタリングが強すぎても性能向上につながらないことが分かる。また、フィルタリングなしの下位 $100 \%$ よりフィルタリングありの方がスコアが高いタスクがある。 ## 5.2 Web コーパスのトピック分析 日本語 $\mathrm{mC} 4$ データセット中の 10 万文書に対して、Perplexity 下位 $[100,75,50,25] \%$ を基準にフィルタリングを強めていく過程で、文書のトピック割合変化を調べる。フィルタリング無しの 10 万文書を学習データとし、LDA [13] でトピックモデルを作 12) https://huggingface.co/cl-tohoku/ bert-base-japanese-whole-word-masking 表 2: Webコーパス品質評価ベンチマークにおける各フィルタリング手法の評価結果 表 3: フィルタリング強度が異なる BERT モデルの JGLUE 評価結果 成、Perplexity の閾値以下ごとの文書のトピック割合を算出する。トピックモデルの作成にあたり、デー タセットのテキストを形態素解析し、名詞のみを抜き出す。ここから数字や記号、アルファベット、日本語ストップワード13)を除去、さらに 3 割以上の文書に出現する高頻出単語を削除し、トピックモデルの学習に用いる。 実験結果 17 個のトピックが得られ、各トピックにおける頻出上位 30 語をもとに GPT-3.5 ${ }^{14}$ でトピック名をつけた。10万文書のトピック割合と N-gram 言語モデルの Perplexity によるフィルタリング強度の関係を図 1 に示す。「ファッションアイテムとショッピング」の文書割合がフィルタリング過程で 15.6\%から 1.3\%まで減少している。このトピックは “rakuten.co.jp” などの通販サイトの文書が多く含まれている。また、「ファッションアイテムとショッピング」の文書割合が減少する代わりに、「国際問題と経済活動」や「恋愛と人間関係」が 7 ポイント以上増加している。これらには主にニュース記事やブログ記事が含まれている。N-gram 言語モデルによって除去対象となる Web 文書のトピックには偏りがあることが分かる。さらなる分析として、 $\mathrm{N}$-gram 言語モデルの Perplexity によるフィルタリングと URL ドメインに基づくフィルタリングの関連 図 1: フィルタリング強度によるトピック割合性を付録 B に示す。 ## 6 おわりに 本研究は、日本語 Webコーパスを機械学習に基づく手法で品質フィルタリングし、品質評価ベンチマークで性能比較を行った。結果として、N-gram 言語モデルの Perplexity を用いた分類手法が最も高精度であったが、フィルタリングが強すぎると下流タスクの性能低下につながることが分かった。今後はより大きなモデルでの下流タスク評価や、段落などの細かい単位でのフィルタリングを検討したい。  ## 謝辞 Web コーパス品質評価ベンチマークを作成、公開した京都大学の清丸寛一氏および LLM-jp に感謝する。本研究の一部は JSPS 科研費 JP21H04901 の助成を受けて実施した。 ## 参考文献 [1] Shayne Longpre, Gregory Yauney, Emily Reif, Katherine Lee, Adam Roberts, Barret Zoph, Denny Zhou, Jason Wei, Kevin Robinson, David Mimno, and Daphne Ippolito. A pretrainer's guide to training data: Measuring the effects of data age, domain coverage, quality, \& toxicity. 2023. abs/2305.13169. [2] Suriya Gunasekar, Yi Zhang, Jyoti Aneja, Caio César Teodoro Mendes, Allie Del Giorno, Sivakanth Gopi, Mojan Javaheripi, Piero Kauffmann, Gustavo de Rosa, Olli Saarikivi, Adil Salim, Shital Shah, Harkirat Singh Behl, Xin Wang, Sébastien Bubeck, Ronen Eldan, Adam Tauman Kalai, Yin Tat Lee, and Yuanzhi Li. Textbooks are all you need. 2023. abs/2306.11644. [3] Jacob Devlin Ming-Wei Chang Kenton and Lee Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of naacL-HLT, Vol. 1, p. 2, 2019. [4] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. Jglue: Japanese general language understanding evaluation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 2957-2966, 2022. [5] Leo Gao, Stella Biderman, Sid Black, Laurence Golding, Travis Hoppe, Charles Foster, Jason Phang, Horace He, Anish Thite, Noa Nabeshima, Shawn Presser, and Connor Leahy. The pile: An $800 \mathrm{gb}$ dataset of diverse text for language modeling. 2020. abs/2101.00027. [6] Guilherme Penedo, Quentin Malartic, Daniel Hesslow, Ruxandra Cojocaru, Alessandro Cappelli, Hamza Alobeidli, Baptiste Pannier, Ebtesam Almazrouei, and Julien Launay. The refinedweb dataset for falcon $11 \mathrm{~m}$ : Outperforming curated corpora with web data, and web data only. 2023. abs/2306.01116. [7] Hugo Touvron, Thibaut Lavril, Gautier Izacard, Xavier Martinet, Marie-Anne Lachaux, Timothée Lacroix, Baptiste Rozière, Naman Goyal, Eric Hambro, Faisal Azhar, Aurelien Rodriguez, Armand Joulin, Edouard Grave, and Guillaume Lample. Llama: Open and efficient foundation language models. 2023. abs/2302.13971. [8] Zhiqiang Shen, Tianhua Tao, Liqun Ma, Willie Neiswanger, Zhengzhong Liu, Hongyi Wang, Bowen Tan, Joel Hestness, Natalia Vassilieva, Daria Soboleva, and Eric Xing. Slimpajama-dc: Understanding data combinations for $11 \mathrm{~m}$ training, 2023. abs/2309.10818. [9] Kikuo Maekawa, Makoto Yamazaki, Toshinobu Ogiso, Takehiko Maruyama, Hideki Ogura, Wakako Kashino, Hanae Koiso, Masaya Yamaguchi, Makiro Tanaka, and Yasuharu Den. Balanced corpus of contemporary writ- ten japanese. Language Resources and Evaluation, Vol. 48, No. 2, p. 345-371, December 2013. [10] Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, and Colin Raffel. mT5: A massively multilingual pre-trained text-totext transformer. In Kristina Toutanova, Anna Rumshisky, Luke Zettlemoyer, Dilek Hakkani-Tur, Iz Beltagy, Steven Bethard, Ryan Cotterell, Tanmoy Chakraborty, and Yichao Zhou, editors, Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 483-498, Online, June 2021. Association for Computational Linguistics. [11] Alex Andonian, Quentin Anthony, Stella Biderman, Sid Black, Preetham Gali, Leo Gao, Eric Hallahan, Josh LevyKramer, Connor Leahy, Lucas Nestler, Kip Parker, Michael Pieler, Shivanshu Purohit, Tri Songz, Wang Phil, and Samuel Weinbach. GPT-NeoX: Large Scale Autoregressive Language Modeling in PyTorch, 82021. [12] Kenneth Heafield. KenLM: Faster and smaller language model queries. In Proceedings of the Sixth Workshop on Statistical Machine Translation, pp. 187-197, Edinburgh, Scotland, July 2011. Association for Computational Linguistics. [13] David M Blei, Andrew Y Ng, and Michael I Jordan. Latent dirichlet allocation. Journal of machine Learning research, Vol. 3, No. Jan, pp. 993-1022, 2003. 図 2: ベンチマーク文書の Perplexity の例 (どちらも低品質文書、Perplexity の少数点以下は省略) ## A N-gram 言語モデルの定性評価 本実験のベンチマーク評価において、最も性能の良かった N-gram (3-gram) 言語モデルの Perplexity とその文書の例を図 2 に示す。図 2 上部の文書は、アルファベットや日付、記号などが多く含まれており、Perplexity が 253919 と高い。一方、下部の文書は、文脈は首尾一貫していないが、Perplexity は 377 と低く、一見日本語に見える文書は文脈が正しくなくとも高品質文書と判断される。これは他の分類例でも確認される。 $\mathrm{N}$-gram 言語モデルでは文脈レべルの品質評価を行うことは難しいことが分かる。 ## B Web 文書の Perplexity と URL ド メインの関係 ルールに基づくフィルタリング手法には、特定の URL ドメイン以外の Web 文書を除去対象とする URL ドメインフィルタがある。LLM-jp の有効な URL(トップレベル) ドメインリスト ${ }^{15)}$ には ["biz", "cc", "com", "info", "jp", "me", "net", "org", "site", "tokyo", "tv", "work", "xyz"] があり、これら以外のドメインを持つ Web 文書は除去対象となる。日本語 $\mathrm{mC4}$ において、有効な URL または無効な 15) https://github.com/llm-jp/llm-jp-corpus/blob/main/ scripts/dict/ja_valid_domains.txt 図 3: URLドメインフィルタと Perplexity 分布 URL を持つそれぞれ 5 万文書の Perplexity 分布を図 3 に示す。 図 3 より、有効な URL の Perplexity 分布は 0 から 100,000 の間に集中している。一方で、無効な URL の Perplexity 分布は 0 から 100,000 だけでなく、 500,000 から 700,000 の Perplexity にも集中している。従って、有効な URL の Web 文書に比べ、無効なものは Perplexity が大きい傾向にあり、N-gram 言語モデルに基づくフィルタリングと、URL ドメインに基づくフィルタリングの除去対象には関連性があることが分かる。しかし、URL ドメインに基づくフィルタリングでは無効な URL として Perplexity の小さな高品質文書も同時に除去してしまう可能性がある。 この点において N-gram 言語モデルによるフィルタリングは優位である。ただし、日本語 $\mathrm{mC4}$ コーパスのサブセット 100 万文書のうち無効な URL の文書は約 7.7\%であり、コーパス全体に対して URL に基づくフィルタリングをかけるならば、高品質文書まで落としてしまう影響は小さい。
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-7.pdf
# 新聞記事を対象とした Sentence BERT を用いた経済政策不確実性の 分類 桑名祥平 佐々木稔 茨城大学 理工学研究科 情報工学専攻 [email protected] [email protected] ## 概要 本稿では, Sentence BERT のファインチューニングを用いて,経済政策不確実性に言及のある新聞記事を分類する手法の考案を行った.BERT や RoBERTa のファインチューニングを用いた従来手法のモデルと,本稿のモデルを $\mathrm{F}$ 値で比較することにより,提案手法の有効性を検証する.また,経済政策不確実性の有無に関するラベル付けを行う際,従来の単語マッチングによるラベル付けを行ったデ一タセットと,人手でラベル付けを行ったデータセットの両方を使用し, モデルへの影響度の検証を同時に行う。 ## 1 はじめに 近年,新聞記事や SNS などのテキストデータを経済分野に応用寸る研究が行われている。本論文では, 2016 年に発表された経済指標の経済政策不確実性指数 [1] に着目する。経済政策不確実性 (EPU)とは, 特定の国や地域において, 将来の経済政策に関する不確実な事象や事例のことであり,これらの不確害性に言及した新聞記事から算出されるのが経済政策不確実性指数である。しかしながら,指標の算出で用いられる新聞記事の収集は人手で行われており,効率的な収集方法が求められる。 そこで本稿では, EPU に言及のある新聞記事を, 機械学習を用いて自動で分類する手法を提案する。 ## 2 関連研究 - 関連手法 機械学習手法を用いて, 経済に関するテキストを分類する研究は多く行われてきた。関ら[2]は, 景気ウオッチャー調査 ${ }^{1}$ の五段階評価と回答理由の文  章を訓練データとして, 経済に関する文章を, BERT を用いて五段階に分類し,その数值を基に新たな経済指標を構築している. Godbole ら[3]は, 新聞記事に対して, 単語マッチングによる EPU のラベル付けを行ったデータセットを訓練データとして, BERT や RoBERTa, DistilBERT などの複数のモデルでファインチューニングを行うことで, 新聞記事の分類を行っている. Chen ら[4]は,EPU のラベル付けを行う際の単語マッチングによる指数への影響を考慮し,ニユーラルネットワークによるノイズ除去を行っている. Godbole らの結果を応用して, 新聞記事を類似度別に分割して作成したデータセットを用いた場合のモデルへの影響を調査した研究も過去に行った. 結果としては, ラベル間の類似度が高い場合は分類がうまくできず, 反対に類似度が低い場合は正しく分類できるということが分かった.しかしながら,デー タセットを作成する段階では, 経済政策不確実性に関する単語のキーワードマッチングによるラベル付けを行っていた。これは, 従来行われてきた手法であり,定量的なラベル付けであるものの,信憑性に欠けるという難点がある. 本稿では, 実際に新聞記事に目を通し,ラベル付けを行うことによるモデルの精度への影響を調査すると同時に, Sentence BERT を用いた分類手法を評価する。 ## 3 提案手法 ## 3.1 概要 本稿で提案する分類手法の概略図を図 1 に示す. 図 1 : 提案手法の概略図 具体的な処理の流れは, Sentence BERT をファインチューニングした後, Sentence BERT の出力層に分類する層を追加することにより, 入力された文新聞記事に対して経済政策不確実性に関する二值分類を行う. ## 3.2 データセット 本実験で使用した新聞記事は,マイクロソフトが提供している, 過去のマイクロソフトニュースのデ ータセットと, ロイター通信の新聞記事の二つを使用する.いずれも英字の新聞記事で, あらかじめ経済カテゴリの新聞記事のみを抽出している.ファインチューニングにおいて, 損失に Triplet Loss を用いるため, データセットでは, Anchor, Positive, Negative からなる Triplet データを用意する必要がある. 正負合わせて 100 件を人手でラベル付けを行い,組み合わせを変えた Triplet データ約 5000 件をファインチューニング用に使用する. ## 3. 3 ラベル付け ファインチューニングを行う際には, 教師ありデ ータが必要であるため, 新聞記事にラベル付けをする必要がある. Godbole ら[3]は, 経済に関する単語,政策に関する単語, 不確実性に関する単語それぞれ最低一単語が文章に含まれていた場合に, 不確実性ありの”1”,無い場合には”0"のラベルを振っている。 これらの単語が含まれていない場合でも, 経済政策不確実性に関係する新聞は多くあり, 単語のマッチ ングでは抽出することができない. そこで, 人手でラベル付けを行うことにより,これらの可能性を排除している. 単語のマッチングによるラベル付けを行ったデータセットがどの程度正確なのかを調査するため, 人手でラベルを振りなおした時の件数を,以下の表 1 に示す. 表 1 : ラベルの件数 ラベルを振りなおした結果, 変更があったのは 100 件中 21 件であった. 単語のマッチングによるラベル付けは, 約 $80 \%$ の精度でラベル付けができているということが分かった. ## 3. 4 Sentence BERT Sentence BERT[5](図 2)は, 2 つの文の埋め込み表現が同時に学習され,これによって文の意味的な関連性がより正確に捉えることができる.これにより,テキストの対比や意味の推論などのタスクで優れた性能を発揮することができ, 広く利用されている. 処理内容はシンプルで, ある文章と類似する文章を組として学習し, 似ている文章同士のべクトルは似たベクトルになるよう BERTをファインチューニングするものである. 前述のように, 本実験では, 損失に Triplet Loss を使用するものとする. Triplet Loss では, ある基準となる文章 Aを一つ選び, それに類似する文章 $\mathrm{P}$ と, そうでない文章 $\mathrm{N}$ 二つを組として,特徴量間の距離から損失を計算して学習する. 具体的には,アンカーとなる $\mathrm{P}$ の文章ベクトルは, $\mathrm{P}$ のベクトルに近づけ $\mathrm{N}$ のベクトルとは遠ざけるような処理が行われる. 図 2: Sentence BERT ${ }^{2}$ ## 3.5 分類層 分類器では, ニューラルネットワークの機械学習モデルを使用する. SentenceBERTへの入力は新聞記事のテキストとなり, 出力はベクトルとなる. この出力をニューラルネットワークの分類器に接続し, 分類したいクラス分の次元を持つベクトル出力することにより, 分類を行う. 今回の場合は二値分類であるから, 入力層は 768 次元, 出力層は 2 次元となる. SentenceBERT から出力されるべクトルは, 各トークンのベクトルの平均値である MEAN, 各トークンのベクトルの最大値である MAX, 系列の最初にあたる[CLS]の三種類存在するが, 本実験では[CLS]を分類器への入力としている. 分類器の構成は, 合計入力層, 中間層(100 次元), 出力層の 3 層であり, 損失関数はクロスエントロピー損失を用いている. また, 中間層の活性化関数には Relu 関数, 出力層ではシグモイド関数を用いている. ## 4 実験 ## 4. 1 実験設定 本実験で調查したいことは以下の二点である. 1. 従来の BERT や RoBERTa のファインチューニングしたモデルと, 本実験で使用する Sentence BERT のモデルのどちらが有効かを検証すること 2. 単語マッチングによるラベル付けを行ったデ一タセットと, 人手でラベル付けしたデータセットの両方を使用することで,有効なラベル付けの手法を模索すること 項目 2 を調査するにあたり,ファインチューニングに用いるデータセットを二種類用意する.一つは,従来の単語マッチングによるラベル付けを行ったデ一タセットであり, もう一つは今回新しく作成した人手でラベル付けを行ったデータセットである. Sentence BERT のファインチューニングのバッチサイズを 8 , エポック数を 5 としている. 分類層のニュ一ラルネットワークでは, エポック数は 50 , 学習率は 0.1 としている. ## 4. 2 評価方法 本実験では,実験結果を比較する指標として, テストデータの分類結果の正解率 (Accuracy),適合率(Precision), 再現率 (Recall), F 值を用いる. ## 5 実験結果 Sentence BERT のファイチューニングにおいて,人手でラベル付けしたデータセットを用いた場合と,従来の単語マッチングによるラベル付けをしたデー タセットを用いた場合の実駼結果を以下の表 1 に示す.また, 過去に行った BERTや RoBERTaなどのモデルを使用した場合の結果を比較として示す (F 値のみ). ^{2}$ https://arxiv.org/abs/1908.10084 より引用 } 表 1 : 実験結果 & & 適合率 & F 值 \\ 実験結果から, 人手でラベル付けを行ったデータセットと, 単語のマッチングによるラベル付けを行ったデータセットでは, モデルの分類精度に大きな影響を与えることはないことが分かった. F 值にあまり差異は見られないものの, 正解率や再現率, 適合率で微妙な差がみられた.また, 今回の実験では,新たに SentenceBERT のファインチューニングを用いたモデルを使用したが,これまでのモデルと比較すると精度の良いモデルとは言えない結果となった。 ## 5.1 考察 正しくラベルを振りなおしたデータセットを用いた場合と, 従来の単語マッチングによる $80 \%$ の精度でラベル付けを行ったデータセットでは,見かけ上,分類精度に大きな差は見られない。つまり, これまで誤ってラベル付けされていたデータで,正しく分類されていたと思われていたものが正しくラベル付けされたことで,これまで誤って分類されていた件数が減っていると考えることもできる. しかし,ラベル付けを行う時間とモデルの性能を考慮すると, 自動かつ定量的なラベル付けの単語マッチングの手法の精度も低いというわけではないことがわかる. 今回新たに,Sentence BERT のファインチューニングを用いたが,他のモデルの分類精度よりも低い結果となった。考えられる理由として,ファインチューニングに用いたデータセットの件数が少なく, 100 件の記事の組み合わせを変えただけであるため,似たような損失計算が行われてしまったものと思われる. ## 6 おわりに 本稿では, Sentence BERT のファインチューニングを用いて,経済政策不確実性に言及のある新聞記事を分類する手法の考案と, ラベル付けの手法 の違いによるモデルの精度への影響を調査した。 Sentence BERT のファインチューニングの有効性を示すような結果を得ることはできなかった。一方で,人手でラベル付けを行ったデータセットを用いることで,一定の有効性を示すことができた。今後の方針としては,ハイパーパラメータのチュ一ニングや,充実したデータセットの構築,損失関数の見直しなどによるモデルの改良に加えて,抽出した経済政策不確実性に関する新聞記事を使用し,経済指標を構築することをゴールに進めていく予定である. ## 参考文献 [1] Baker, S.R., Nicholas, B., Steven, J., \& Davis. (2016). Measuring economic policy uncertainty. Quarterly Journal of Economics, 131(4), 15931636. [2] Seki, K., Ikuta, Y., \& Matsubayashi, Y. (2021). News-based Business Sentiment and its Properties as an Economic Index [3] Godbole, S., Grubinska, K., \& Kelnreiter, O. (2020). Economic Uncertainty Identification Using Transformers - Improving Current Methods., Seminar Information System | WiSe 19/20. [4] Chen, C, C., Huang, Y, L., \& Yang, F. (2023). Semantics matter: An empirical study on economic policy uncertainty index. In IREF. [5] N. Reimers, I. Gurevych, "Sentence-BERT: Sentence Embeddings using Siamese BERT - Networks “, Proc. EMNLP 2019, pp. 3982-3992, 2019.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-8.pdf
# 日本語タスクにおける LLM を用いた疑似学習データ生成の検討 藤井 巧朗 $^{1}$ 勝又 智 ${ }^{2}$ 1 横浜国立大学大学院理工学府 2 株式会社レトリバ [email protected] [email protected] ## 概要 大規模言語モデル (LLM)を用いることで,学習データが少量の状況においても高い性能が期待できることが報告されている。しかし, LLMはパラメー 夕数が多いため, 推論コストが大きいという課題が存在する。そこで,本研究では 6 個の下流タスクにおいて,LLMから疑似学習データを生成し,そのデータで小規模モデルを学習する JapaGen が LLM にどの程度迫れるかを検証した. その結果,フォー マルなテキストを入力とする分類タスクで有効であることを明らかにした。 ## 1 はじめに 近年,大規模言語モデル (Large Language Model; LLM) に関する研究が盛んに行われている. Brown ら [1] は GPT-3を開発し,LLMにタスクの説明文と数件の教師データを入力することで,LLM のパラメータ更新を行うことなく高い精度を達成した. 日本語においても, 同様に高い性能を達成できる場合もあることが報告されている1). このようにLLM は従来の機械学習モデルと比べて優れた特徴を持つ一方で,パラメータ数が多く,推論時には GPU リソースの制約などの運用コストが高い. この課題に対する研究として, LLMに疑似学習データを生成させ,そのデータを用いて小規模モデルを学習させるもの (広義の知識蒸留と呼称) が存在する.Yeら [2] は英語の様々なタスクに対し $\tau$, GPT-2 XL [3] を利用した Nucleus sampling [4] による多様な疑似データを作成した. その疑似データで DistilBERT [5]を訓練することで, GPT-2 XL より優れた性能となることを報告した. その後, より精巧な疑似データを生成するための研究 $[6,7,8,9]$ や,生成した疑似データによる小規模モデルの学習が有効なタスクを分析した研究 [10] などが存在するが,  日本語での検証は我々の知る限り存在しない.本研究では日本語の複数のタスクについて, GPT-3.5を利用した疑似データ生成による広義の知識蒸留 (JapaGen と呼称) を検証した. 具体的には, JGLUE 中の分類タスクとJSTS,ニューストピック分類,SNS テキスト分類について検証を実施した.検証として, Ye ら [2]のような Decoding 戦略による多様な疑似データ生成を試みたが,多様な疑似デー タの生成は困難であることがわかった. そこで,本研究ではタスク知識を利用した疑似データ生成手法 Knowledge-Assisted Data Generation (KADG)を提案する.この手法は Ye ら [2]のように Decoding 戦略に依存せず,LLMへの入力にタスク知識を導入することで多様なテキストを生成する。 貢献. 本研究では,(1) 日本語タスクにおいて, LLM を用いた疑似データ生成による広義の知識蒸留 JapaGenを検証した。(2) さらに,多様な疑似デー タ生成を行うためにタスク知識を Prompt に含めるKADGを提案した。(3) 実験の結果,JapaGen はフォーマルなテキストを入力とするタスクにおいて Zero-Shot Prompting や Few-Shot $の$ 性能を上回った. (4) KADG によって疑似データの多様性が向上し, 教師データ (Gold) の分布に近づいたが,必ずしも下流タスク性能が向上するとは限らないことが分かった. ## 2 LLM を用いた従来の推論 LLM は従来の機械学習モデルと比べて, 少量の学習データでも高い性能を発揮することが知られている. Brown ら [1] は大量のテキストデータで学習された LLM (GPT-3) を作成し,このモデルにタスクの説明文と数件の教師データのみを入力することで,高い性能を達成した。この入力というのは,LLM のパラメータ更新は行わず,LLMがテキストを生成する際の条件部として入力すること (Prompting) を指しており,この入力に対する出力テキスト Predict の確率分布は下記のように表現できる. $ \text { Predict } \sim \operatorname{Prob}_{\text {LLM }}(\cdot \mid \text { Prompt }) $ Prompt が LLM に入力するテキストである.また,彼らは Prompt に入力する教師データの件数をもとに,数件であれば Few-Shot,一件も含まず,タスクの説明文のみを入力する際は Zero-Shot と呼称した.本研究でも同様に使用する教師データの件数をもとに Zero/Few-Shot の区別を行う.Zero/Few-Shot の利点は,学習データの効率化に加え,学習データの収集コストを下げることにも繋がる。一方で,LLM はパラメータ数が多いため, 推論時の運用コストが大きくなる. 本研究では Zero-Shot と同様の教師データ件数を利用しつつ,推論コストを下げるために,LLM から疑似データを生成し,そのデータを用いて小規模モデルを学習することを検討する。 ## 3 疑似データを用いた推論 $\mathrm{Ye}$ ら [2] は簡潔なタスクとラベルの説明文を LLM に入力することで,Zero-Shot 設定での疑似データ生成を実施した. 本研究でも,同様の入力を日本語夕スクに向けて作成し,疑似データ生成を行った. ## 3.1 Zero-Shot 疑似データ生成 本研究では,単一テキスト分類タスクまたは 2 文間の関係性推定タスクについて LLM を用いた疑似データ生成 JapaGenを行った。 単一テキスト分類タスク. あるクラス $y_{c} \in$ $Y ;|Y|=C$ に対応する疑似データ $\tilde{D}_{y_{c}}=\left.\{\left(\tilde{x}_{c, j}, y_{c}\right)\right.\}_{j=1}^{M}$ をLLMを用いて作成する。ただし, $M$ はラベルあたりの疑似データ数を指す.この疑似データテキスト $\tilde{x}_{c, j}$ は次式 (2)により生成する。 $ \tilde{x}_{c, j} \sim \operatorname{Prob}_{\mathrm{LLM}}\left(\cdot \mid \mathrm{T}\left(\text { task, } y_{c}\right)\right) $ ただし, $\mathrm{T}\left(\right.$ task, $y_{c}$ ) はタスク task とクラス $y_{c}$ に関して説明を行う Prompt を作成する関数である。他のクラスも同様に疑似データを作成し,疑似データセット $\tilde{D}=\left[\tilde{D}_{y_{1}}, \tilde{D}_{y_{2}}, \ldots, \tilde{D}_{y_{C}}\right]$ を作成する. 2 文間の関係推定タスク. 最初に, 1 文目 $\tilde{x}_{c, j}^{1}$ を前述した 1 文入力と同様に生成する. $ \tilde{x}_{c, j}^{1} \sim \operatorname{Prob}_{\mathrm{LLM}}(\cdot \mid \mathrm{T}(\text { task })) $ ただし, $\mathrm{T}($ task) ではクラスは使用せず,タスク task のみから Prompt を作成している. 2 文目 $\tilde{x}_{c, j}^{2}$ は,先ほどの入出力 $\mathrm{T}(\mathrm{task})$ および $\tilde{x}_{c, j}^{1}$ を LLM に入力して作成する. $ \tilde{x}_{c, j}^{2} \sim \operatorname{Prob}_{\mathrm{LLM}}\left(\cdot \mid \mathrm{T}(\operatorname{task}), \mathrm{T}\left(\operatorname{task}, \tilde{x}_{c, j}^{1}, y_{c}\right)\right) $ ただし, $\mathrm{T}\left(\mathrm{task}, \tilde{x}_{c, j}^{1}, y_{c}\right)$ は 1 回目で生成されたテキストとクラスの説明文に基づいて Prompt を作成する. このように,クラス $y_{c}$ に関する $M$ 個のデータ $\tilde{D}_{y_{c}}=\left.\{\left(\tilde{x}_{c, j}^{1}, \tilde{x}_{c, j}^{2}, y_{c}\right)\right.\}_{j=1}^{M}$ を作成する. これを全クラスに実施し,疑似データセット $\tilde{D}$ を作成する。 ## 3.2 多様な疑似データ生成 前述の疑似データ生成手法は式 (1) に基づいて, Top-p などの生成パラメータによって調整した分布から生成している.我々の事前実験では,Ye ら [2] と同様の方法で多様な日本語テキストの生成を試みたが,いくつかのタスクで類似したテキストが多く生成された (\$4.2). そこで,本研究ではタスクの知識を Prompt に含めることによって多様なテキストの生成を試みる。 タスクごとにそのタスクに関する内容語集合 $E_{\text {task }}$ を人手で作成し,その中から内容語 $d \in E_{\text {task }}$ をランダムに選択して Promptを作成する。 $ \begin{aligned} & d \sim E_{\text {task }} \\ & \tilde{x}_{c, j} \sim \operatorname{Prob} \\ & \text { LLM }\left(\cdot \mid \mathrm{T}\left(\text { task, } y_{c}, d\right)\right) \end{aligned} $ $\mathrm{T}\left(\right.$ task $\left., y_{c}, d\right)$ はタスク task の説明文と,クラス $y_{c}$ の説明文,内容語 $d$ に関連する Prompt を生成している.この処理を $\$ 3.1$ と同様に全てのクラスに対して実施し,疑似データセット $\tilde{D}$ を作成する。内容語を考慮した疑似データ生成方法を Knowledge-Assisted Data Generation (KADG) と呼ぶ. KADG は教師デー タを使用しないという点では Zero-Shot と見なすこともできるが,タスク知識を利用しているため,これまでの Zero-Shot と同一と述べるのは適当ではないと考える. そこで本研究では Zero-Shot に対して KADG を適応した場合の問題設定をZero-Shot* と呼称し,Zero-Shot と区別する。 ## 4 実験 本研究では様々な日本語タスクで,広義の知識蒸留が LLM の Zero-Shot Prompting や Few-Shot 手法にどの程度迫るか検証する。 比較手法. LLM を用いた疑似データ生成手法として,§3で述べた Zero-Shot および Zero-Shot*の 2 手法を比較する.また,§2で述べた Zero-Shot および Few-Shot での Prompting 及び,Few-Shot データのみで学習したモデルの結果を比較する。限値とし 表 16 個の日本語タスクにおける各手法の性能比較. 各値は 5 シード値の平均 (標準偏差)を表す. & & & & & & Avg. \\ て各データセット内の Gold データをそのまま利用した場合 (Fully Supervised) との比較も行う. 実験データ.JGLUE[11]のうちMARC-ja, JSTS, JNLIおよびJCoLAの4タスクを用いた。また,多様なドメインで評価を行うため,トピック分類タスク (News) および SNS における事実性分類 (COVID-19) を用いた22). JGLUE は test セットが公開されていないため, train セットを 8:2 に分割して学習し, dev セットを test セットとして評価を行った。 実装. LLM は gpt-3.5-turbo-0613を使用し, Fine-Tuning 時は,モデルに日本語 BERTを用いた.疑似データ生成におけるパラメータおよび各タスクにおける学習パラメータは付録 $\S$ A. 3 に示す. また, Fine-Tuning に関しては 5 回シード値を変えて実施しており,実験結果はその平均を報告している。 ## 4.1 広義の知識蒸留に関する結果 各手法における下流タスク性能を表 1 亿示す. Zero-Shot での比較. JapaGen は Prompting の性能を JSTS,JNLI および Newsの 3 タスクで上回り, MARC-ja,JCoLA および COVID-19の3 タスクで下回った. 前者 3 タスクのテキストはフォーマルである一方,後者 3 タスクのうち MARC-ja と COVID-19 はインフォーマルであるという特徴がある3).また,JCoLA はタスクの性質上,文法的に誤ったテキストを生成する必要があるが,そのような Prompt 設計は困難であった. 以上より, Zero-Shot 設定において JapaGen はフォーマルなテキストを入力とするタスクで有効であることが示唆される. JapaGen で用いた BERT モデルは約 110M であるにもかかわらず4),全タスク平均において,JapaGen 2) タスクの詳細は付録 $\S$ A. 1 に,各タスクの評価指標は $\S A .2$ に記載。また,KADG に関しては MARC-ja,JSTS および JNLIに対して実施した. 3)テキストスタイルにおいてフォーマルかどうかを表す。 4) gpt-3.5-turboのパラメータ数は公開されていないが,公開されている LLM は数数百 B のモデルサイズである. は Prompting と比較してわずか 3.43 しか下回らない.したがって,モデルサイズと性能のトレードオフを考慮すると,JapaGen は効果的であると言える。 Few-Shot との比較. JapaGen は Few-Shot FineTuning と比較して,全タスク平均で 24.37 ポイントも上回り,各タスクでは COVID-19 以外の 5 タスクで上回った。これは,同じモデルサイズである場合,JapaGen (Zero-Shot) は Few-Shot の性能を大きく上回ることを意味する. Few-Shot Prompting との比較では,JapaGen は JNLI および News の 2 タスクで性能を上回る。この 2 タスクは Zero-Shot Prompting での結果と一致する. JSTS で性能が下回ったのは,類似度のみから疑似データを生成するのは困難であるためだと考えられる。具体的には,疑似データ生成時に付与するクラスは $\{0 ., 1 ., 2 ., 3.4 ., 5$.$\} の 5$ 個としたが,実際には 2 文の類似度は $0 . \sim 5$. の実数値であり,小数点以下の類似性を正確に表現できない。以上から, Zero-Shot JapaGen はフォーマルなテキストの分類タスクにおいて効果的である。これらのタスクでは,モデルサイズが大きく, Gold データ数も多い Few-Shot Prompting をも上回った. Fully Supervised との比較. JapaGen で生成した疑似データは Gold データと同程度かそれ以上のデータサイズなのにもかかわらず,JapaGen は全 6 タスクで Fullly Supervised の性能を大きく下回った.これは LLMにより生成した疑似データの分布は Gold の分布と大きく異なることを示唆する.次節で Gold と疑似データの分布について分析する. KADG における性能. KADG は MARC-jaのみ JapaGen の性能を上回った. 次節でこの分析を行う. ## 4.2 分析 出現トークン数分布. Gold および疑似テキストの出現トークンとその出現数のヒストグラム分布を図 1 に示す。また,両ヒストグラムの重複度を表 図 1 Gold と疑似データにおける出現トークンと出現数の分布. Jaccard 係数はヒストグラムの一致度を示し,値が高いほど一致することを示す. ヒストグラムには 500 回以上出現するトークンを表示した。*は KADGを表す. 表 2 各種データの多様性. 値は小さい方が多様である. MAR. は MARC-ja,COV. は COVID-19を指す. す重み付き Jaccard 係数 [12] も算出した. 全タスクに共通して疑似データにのみ出現するトークンが多く存在することが分かる. News は他タスクと比較して Jaccard 係数が小さいのにもかかわらず JapaGen が Few-Shot の性能を上回ることから, Gold と疑似データの分布の一致は下流タスク性能の十分条件にすぎないと言える。また,KADG によって Jaccard 係数は増加したことから,KADG は疑似データを Gold 分布に近づけるのに有効である. 多様性分析. Gold と疑似データの多様性を分析する。多様性の測定には Self-BLEU (cf. §A.5) [13] を用いた. Self-BLEU は值が小さいほど多様であることを示す指標である.結果を表 2 に示す。 表 2 より, MARC-ja と COVID-19 の 2 タスクで, JapaGen の多様性は約 $1 / 2$ も低い. 一方, JSTS, JNLI, JCoLA および News では,疑似データは Gold デー 夕に近い多様性を保持している. 次に, JapaGen と KADG の比較を行う. MARC-ja のみ KADG の多様性が JapaGen を上回る. 表 1 の結果と合わせると, KADG による多様化が MARC-ja の精度向上に寄与していると考えられる. Ye ら [2] は多様性を上げるとラベル正確性が低下し,下流タスク性能を悪化させてしまうと報告しているが,KADG で作成した疑似データのラベル正確性を確認したところ,この正 図 2 データ数に対する下流タスク性能の推移. 確性を低下させることなく多様性を向上させていることがわかった (§A.6). 以上から,KADGによって多様性を増加する場合と多様性を制限してしまう場合があるが,ラベル正確性は維持できるため, KADG はその前者の場合に有効であると言える。 データ数のスケーリング. 疑似データ数による下流タスク性能の推移を図 2 に示す. データ数は $\{100,500,1000,5000\}$ である. データ数に対して多くの下流タスク性能は増加傾向にある。 ## 5 おわりに 本研究では,LLMによって生成した疑似データで学習した小規模モデルが 6 個の日本語タスクにおいて LLM にどれだけ迫るかを検証した。その結果, フォーマルなテキストを入力とする分類タスクにおいて,Zero-Shot および Few-Shot Prompting を上回った. また,タスク知識を Prompt に導入する KADG を提案し,疑似データが Gold データの分布に近づき,MARC-ja で多様性と性能が向上した. 限界. 本研究では簡潔な Prompt を用いたが, Prompt 設計により精度向上が期待される。また,疑似データ生成に gpt-3.5-turbo より高性能な LLM を使用することも精度向上に繋がると考えられる。 ## 謝辞 この成果は, 国立研究開発法人新エネルギー・産業技術総合開発機構 (NEDO) の委託業務 (JPNP18002) の結果得られたものです. ## 参考文献 [1] Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners, 2020. [2] Jiacheng Ye, Jiahui Gao, Qintong Li, Hang Xu, Jiangtao Feng, Zhiyong Wu, Tao Yu, and Lingpeng Kong. ZeroGen: Efficient zero-shot learning via dataset generation. In Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing, 2022. [3] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. 2019. [4] Ari Holtzman, Jan Buys, Li Du, Maxwell Forbes, and Yejin Choi. The curious case of neural text degeneration. In International Conference on Learning Representations, 2020. [5] Victor Sanh, Lysandre Debut, Julien Chaumond, and Thomas Wolf. DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter. arXiv preprint arXiv:1910.01108, 2019. [6] Jiacheng Ye, Jiahui Gao, Zhiyong Wu, Jiangtao Feng, Tao Yu, and Lingpeng Kong. ProGen: Progressive zeroshot dataset generation via in-context feedback. In Findings of the Association for Computational Linguistics: EMNLP 2022, 2022. [7] Himanshu Gupta, Kevin Scaria, Ujjwala Anantheswaran, Shreyas Verma, Mihir Parmar, Saurabh Arjun Sawant, Swaroop Mishra, and Chitta Baral. TarGEN: Targeted data generation with large language models. arXiv preprint arXiv:2310.17876, 2023 [8] Yue Yu, Yuchen Zhuang, Jieyu Zhang, Yu Meng, Alexander Ratner, Ranjay Krishna, Jiaming Shen, and Chao Zhang. Large language model as attributed training data generator: A tale of diversity and bias. In Thirty-Seventh Conference on Neural Information Processing Systems Datasets and Benchmarks Track, 2023. [9] John Chung, Ece Kamar, and Saleema Amershi. Increasing diversity while maintaining accuracy: Text data generation with large language models and human interventions. In Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), 2023. [10] Zhuoyan Li, Hangxiao Zhu, Zhuoran Lu, and Ming Yin. Synthetic data generation with large language models for text classification: Potential and limitations. In Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, 2023. [11] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese general language understanding evaluation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, 2022. [12] Yue Yu, Yuchen Zhuang, Rongzhi Zhang, Yu Meng, Jiaming Shen, and Chao Zhang. ReGen: Zero-shot text classification via training data generation with progressive dense retrieval. In Findings of the Association for Computational Linguistics: ACL 2023, 2023. [13] Yaoming Zhu, Sidi Lu, Lei Zheng, Jiaxian Guo, Weinan Zhang, Jun Wang, and Yong Yu. Texygen: A benchmarking platform for text generation models. In The 41st international ACM SIGIR conference on research \& development in information retrieval, 2018. [14] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, 2002. ## A 付録 ## A. 1 データセット・タスク MARC-ja. 商品レビューに対してポジティブかネガティブかを分類. JNLI / JSTS. JNLI は 2 文の含意関係 (含意/矛盾 / 中立) を, JSTS は 2 文の類似度を 0. 5. で推定. JCoLA. 文が統語的に正しいかを判定. COVID-19.COVID-19 に関するツイートの事実性 (一般事実 / 個人事実 / 意見 / 感想) を推定 ${ }^{5}$. News. Livedoor News のニュース記事を 9 個のカテゴリ (トピック / Sports Watch / IT ライフハック / 家電チャンネル / MOVIE ENTER / 独女通信 / エスマックス / livedoor HOMME / Peachy) に分類6). ## A. 2 評価指標 Accuracy. 全推論結果のうち正解した割合. Pearson. 予測値と正解の線形相関係数. Spearman. 予測値と正解の順位情報のみに基づく相関係数. Matthews Correlation Coefficient. クラス不均衡を考慮した分類性能の指標. ## A. 3 実装 Pytorch ${ }^{7)}$ および transformers ${ }^{8}$ を用いて実装した. Few-Shot 設定において,Prompting では各クラス 1 件ずつ, Fine-Tuning では各クラス 5 件ずつランダムにサンプリングして用いた。 疑似データ生成のパラメータ. 生成パラメー 夕は,max_tokensを 500,top-pを 1.0,temperature を 1.2, frequency penaltyを 0.02 として, 一度に 5 件のデータを生成した. また,疑似データ生成数 $M$ は各クラス 25,000 件行った. ただし,実数値を推定する JSTS は $\{0 ., 1 ., 2 ., 3 ., 4 ., 5$.$\} の 6$ 個をクラスとして疑似データ生成を行った。 下流タスクの学習パラメータ. 実験は NVIDIA TITAN RTX GPU (24GB) 上で行った. Fine-Tuning 時の日本語 BERT モデルとして cl-tohoku/bert-base-japanese-v3を用いた. 下流タスクにおける学習パラメータを表 3 に示す. ただ  し,各値は [11]を参考にした。また,各タスクにおける最大入力トークン長を表 4 亿示す. 表 3 学習パラメータ. opt. は最適化手法, $b s$ はバッチサイズ, $l r$ は学習率, $e p$ は学習エポック数, warmup は warmup ratio,smooth は label smooth の温度を指す. 表 4 各タスクにおける最大入力トークン長. ## A. 4 Prompt 各タスクに用いた Prompt は https://github.com/ retrieva/JapaGen を参照. ## A. 5 Self-BLEU §4.2 の多様性分析で用いた Self-BLEU の算出方法について説明する.まず,データセット内の 1 つのテキストについて,それ以外のテキストをリファレンスとした BLEU スコア [14]を算出する。 そして, データセット内の全テキストに対して BLEU スコアを算出し,その平均がデータセットの Self-BLEU である. Self-BLEU は表層的な一致度合いを計測する指標であり,低いほど多様性が高いことを表す. ## A. 6 ラベル正確性に関する分析 生成した疑似データにおけるラベルの正確性を分析する. 正確性の測定は, [2] に基づいて実施し, Goldを学習データ,Gold,JapaGen および KADG のデータを評価データとした場合の性能を正確性とする.各タスクにおけるラベル正確性の結果を表 5 に示す. 表 2 と合わせて, KADG は JapaGen と同程度かそれ以上のラベル正確性を維持したまま,疑似データの多様性を向上させることができる. 表 5 各種データの正確性. JSTS を除き, 值が高い方が正確である。JSTS のみ,教師ラベルとの平均二乗誤差を記載.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-9.pdf
# ニュースソースの違いによるフェイクニュース検出と問題点 岸祐輝 1 中川翼 2 彌冨仁 ${ }^{1,2}$ 1 法政大学理工学部応用情報工学科 2 法政大学理工学研究科応用情報工学科専攻 \{yuki.kishi.4z, tsubasa.nakagawa.5p\}@stu.hosei.ac.jp [email protected] ## 概要 フェイクニュースを見破るのは難しい問題であり,機械学習技術を用いた検出が試みられている。 しかし学習モデルが未来のニュースに対して適応できず適切な検出ができない点が懸念される. 本研究では,機械学習モデルが学習した記事に対し,解析対象とするニュースの配信時期の違いや,ニュー スソースが既知であるか否かの違い, タイトルや本文などの解析対象が検出精度にどの程度の影響があるかの検証を 100 万以上を収録する大規模な NELA-GT データセットを用いて解析した. 未知のニュースソースに対する検出精度が著しく低下すること,データセットに由来する制限はあるが,著者と本文を組み合わせるのが特に有効だと分かった。 ## 1 はじめに インターネットやSNS の普及した現代において,誤った情報や誤解を招くフェイクニュースは重要な問題の 1 つであるが,一見して見破るのは難しい.最近では COVID-19 の流行により嘘やデマが大量に発信されてしまい,虚偽の情報を否定するために国によって対応せざるを得なくなった [1]. ニュースが信頼に足りうるか判断するには,様々な情報を入手して多角的に判断する必要があるが,各情報源を精查するには時間がかかるため,自動でフェイクニュースを検知する仕組みが求められている。 フェイクニュースによる混乱を防ぐことを目的とした機械学習技術を用いたフェイクニュース検出の研究が行われている $[2,3]$. 一般的に, モデルには記事本文やタイトル等ニュース記事に関する情報が入力され,それが本物か偽物かを分類するタスクとして定義される. 様々なデータセットが公開され,例えば,主に政治や社会に関する主張や発言を収集したデータセットである LIAR [4] や,2016 年の米国選挙に近い9月の平日 7 日間に Facebook より投稿されたニュース記事とそれに対するコメン トや反応を収集した BuzzFace [5],複数のニュースソース(会社などの組織名)から 1 年間かけて収集した NELA-GT [6, 7] データセット等は,この分野の研究で利用されている. しかし,機械学習を用いたフェイクニュースの自動検出には, 未来の出来事に対して検出能が低下する問題が指摘されている $[8,9]$. これは時間の経過によるニューストピックや語彙の変化に起因しており, 対応が難しい課題となっている. そのため, 本質的に頑健なフェイクニュース検出モデルを構築するためには,多岐にわたる記事とそれに対するラべル情報を元に,適切な解析が必要になる. LIAR や BuzzFace 等のデータセットは,記事データ量の少なさ,特定トピックへの限定,収集期間の短さなどが課題である. 本研究では,既知のニュースで学習したモデルが未来のニュースに対して一般化しない可能性について, 収集時期の異なる 100 万件を超える大規模なフェイクニュースデータセット NELA-GT-2019 [6] と NELA-GT-2020 [7] を用いて, ニュースの配信時期による影響を検証した。また,ニュースソースが既知であるか否かの違い,タイトルや本文のような要素ごとの違いがどのような影響を与えているかについても検証した. ## 2 方法 NELA-GT-2019を既知のニュース,NELA-GT-2020 を未来のニュースとしてニュースの真偽の 2 值分類の分類能の評価を行った. 比較実験には,ニュースの配信時期の違い,ニュースソースの違いによって 4 パターンのテストデータを用意し, 各パターンに対して記事データの要素を用いた 7 つの組み合わせで検証した。 ## 2.1 データセット NELA-GT-2019 は 2019 年に 261 のニュースソースから収集された約 118 万件,NELA-GT-2020 は 2020 表 1 記事データの要素 表 2 記事データの例 年に 519 のニュースソースから収集された約 178 万件の記事データでそれぞれ構成されている。ニュー スソースには,0-Reliable,1-Mixed, 2-Unreliable の 3 種類のいずれかのラベルが付与され,ラベルが付けられていないソースも存在している.各ソースには複数の記事データが含まれており,各記事デー タは表 1 に示す 10 種類の要素で構成されている. NELA-GT データセットは,記事そのものにはラベルが付いていないため,実験にはこのデータセットを用いた他の先行研究 $[2,9]$ と同様,記事が属しているソースのラベルを使用した. よって,同じソー スに属している記事はすべて同じラベルを持つことになる. これらのデータの内,ラベルが Mixed であるものとラベルが付いていないもの,記事の content が保持されていないものを本研究の解析対象から除外した. これらの条件に沿って選定したデータの内, NELA-GT につけられているラベルが本来ソースレベルであることから,NELA-GT-2019 のデータセッ 表 4 評価に用いるデータの数 トをソースを基に $8: 2$ に分割し,8 割を学習データ, 2 割をテストデータとした. この 8 割の学習データを今後行う 4 つの実験パターンに共通して使用する. NELA-GT-2020 は学習で使用せず,全てテストデータとして利用した. 学習に用いるデータの数を表 3 に,評価に用いるデータの数を表 4 に示す. ## 2.2 学習と評価のパターン フェイクニュースの検出には BERT [10] を用いた. 損失関数には交差エントロピー誤差,最適化手法には Adam [11] を使用し,学習率は $1.0 \times 10^{-5}$, バッチサイズは 16 , エポック数は 5 に設定した. フェイクニュースの検出能の比較において,以下 4 つのパターンのテストデータに対して評価を行った. A) NELA-GT-2019の学習に用いていないデータ (現在の未知のソース) B) NELA-GT-2020 のデータ全て(未来の記事) C) NELA-GT-2020のうち,学習データに含まれていたニュースソースを除外したデータ(未来の未知のソース) D) NELA-GT-2020のうち,学習データに含まれていたニュースソースのデータ (未来の既知のソース) ここで,記事データのうちフェイクニュースの検出に効果的な要素を議論するため,それぞれの条件において,モデルが用いる情報として以下の 7 種の条件 ( $「$ content $\lrcorner$, 「 title $\lrcorner$, 「 title + content $\lrcorner$, $\lceil$ author + content $\lrcorner, \quad$ published_utc + content $\lrcorner,\lceil\mathrm{TAP}+$ content $\lrcorner, 「 F U L L 」$ ) で評価を行った. TAP は title, author,published_utcを1つの文として連結したものであり, FULL は title, author, published_utc, content を 1 つの文として連結したものである. 各モデルのフェイクニュース検出能は, accuracy, precision, 表 5 A パターン:NELA-GT-2019 の学習に用いていないデータ(現在の未知のソース)で評価した結果 表 6 B パターン:NELA-GT-2020 のデータ全て(未来の記事) で評価した結果 recall,F1 スコアで評価した. ## 3 結果と考察 ## 3.1 時期とソースの違いによるスコア差 実験結果を表 5 から表 8 に示す. A パターン(現在, 未知ソース) と B パターン(未来,全ソース) を比較すると未来の記事である B パターンのスコアが 20-30 ポイントほど大きく低下した. 1 年違いのニュース記事でも未来のニュースを予測するのは困難になる結果が得られた. C パターン(未来,未知ソース)は 2 值分類であるのにほとんどの組み合わせで $F 1=0.5$ を切っていることから,学習モデルは未来の未知ソースより配信されたニュースの真偽を判別できていない。一方で,D パターン(未来,既知ソース)は他のパターンを比べて時期によるスコアの減少は少ない.このことから, B パターンや $\mathrm{C}$ パターンでスコアが減少する主な原因はニュースソースの違いによるものであり, 現状のモデルでは未来の未知のソースに関しては対応できないと言える.ただしデータセットが記事に対してではなくニュースソースに対してラベル情報が付与されている制約も大きいと考えられる。表 7 C パターン:NELA-GT-2020 のうち,学習データに含まれていたニュースソースを除外したデータ(未来の未知のソース) で評価した結果 表 8 D パターン:NELA-GT-2020 のうち, 学習データに含まれていたニュースソースのデータ(未来の既知のソース) で評価した結果 ## 3.2 利用する情報による予測能 先述の通り,現状のモデルでは未来の未知ソースには対応できず,性能を大きく落としてしまうため, 未来の未知ソースが含まれている B パターンと $\mathrm{C}$ パターンでは,どの要素がフェイクニュースの検出に有効か比較することはできない,そこで,未来の未知ソースが含まれていない D パターン(未来,既知ソース)の各要素で学習したモデルの結果を比較することで,どの要素がフェイクニュースの検出に有効か検証する. 図 1 に D パターンの各組み合わせの ROC 曲線と AUC を示す. 表 8 では content のスコアとあまり変わりのない title + content や published_utc + content $も$ AUC のスコアでは上回っていることから,ニュースのタイトルや出版日はフェイクニュースを検出する上で有効な情報であると言える.特に,すべての情報を組み合わせている TAP + content と FULL と共に, author + content が近い AUC のスコアになっていることから,ニュースの著者情報は最も有力であると言える。著者と記事本文を組み合わせるとモデル性能が向上するのは,信頼できるニュースを配信し続ける著者は基本的に同じ人物であること,信頼で 図 $1 \mathrm{D}$ パターン(未来の既知ソース)の各組み合わせの ROC 曲線と AUC きない著者はデマや嘘を配信し続けたり,ニュースの配信が初めてで信頼できるか判別しづらいといった特徴を見分けられていることが理由として考えられる。 ## 4 おわりに ニュースソースにラベルが付与されている NELA-GT データセットを用いた検証により,既知のニュースソースに対してはフェイクニュースに対して一定の検出能を実現したが,未知のソースに対しては検出ができなかった. また,ニュース本文単体で推定するより他の情報を組み合わせることでフェイクニュースの検出能が増加し, 特に著者に関する情報が有効であった. 今回使用した NELA-GT はニュース記事に対してラベルが付けられておらず,ニュース記事の属するソースのラベルで代用して学習を行った. しかし, これはニュース記事そのものの信頼性を保証するものではないため,ニュース記事レベルで信頼性の高いデータを扱えることが望ましい. 今後の展望として,ニュース記事レベルの信頼性を補強する手法を探すと同時に,今回の title や content といったニュー スを構成する要素とは別に,コメントや賛成票といったニュースに対する人々の反応や評価といった情報であるソーシャルコンテキストを用いて,未来のニュースに対して効果の高い手法を模索する. ## 参考文献 [1] Usha M. Rodrigues and Jian Xu. Regulation of COVID-19 Fake News Infodemic in China And India. Media International Australia, Vol. 177, pp. 125 - 131, 2020. [2] Özlem Özgöbek, Benjamin Kille, Anja Rosvold From, and Ingvild Unander Netland. Fake News Detection by Weakly Supervised Learning Based on Content Features. In Evi Zouganeli, Anis Yazidi, Gustavo Mello, and Pedro Lind, editors, Nordic Artificial Intelligence Research and Development, pp. 52-64, Cham, 2022. Springer International Publishing. [3] Rohit Kumar Kaliyar, Anurag Goswami, and Pratik Narang. FakeBERT: Fake News Detection in Social Media with A BERT-based Deep Learning Approach. Multimedia tools and applications, Vol. 80, No. 8, pp. 1176511788, 2021. [4] William Yang Wang. "Liar, Liar Pants on Fir": A New Benchmark Dataset for Fake News Detection. In Annual Meeting of the Association for Computational Linguistics, 2017. [5] Giovanni Santia and Jake Williams. Buzzface: A News Veracity Dataset with Facebook User Commentary And Egos. In Proceedings of the international AAAI conference on web and social media, Vol. 12, pp. 531-540, 2018. [6] Maurício Gruppi, Benjamin D. Horne, and Sibel Adali. NELA-GT-2019: A Large Multi-labelled News Dataset for The Study of Misinformation in News Articles. CoRR, Vol. abs/2003.08444, , 2020. [7] Maurício Gruppi, Benjamin D. Horne, and Sibel Adali. NELA-GT-2020: A Large Multi-labelled News Dataset for The Study of Misinformation in News Articles. CoRR, Vol. abs/2102.04567, , 2021. [8] Sonia Castelo, Thais Almeida, Anas Elghafari, Aécio Santos, Kien Pham, Eduardo Nakamura, and Juliana Freire. A Topic-agnostic Approach for Identifying Fake News Pages. In Companion proceedings of the 2019 World Wide Web conference, pp. 975-980, 2019. [9] Shaina Raza and Chen Ding. Fake News Detection Based on News Content And Social Contexts: A Transformerbased Approach. International Journal of Data Science and Analytics, Vol. 13, No. 4, pp. 335-362, 2022. [10] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In North American Chapter of the Association for Computational Linguistics, 2019. [11] Diederik P. Kingma and Jimmy Ba. Adam: A Method for Stochastic Optimization. CoRR, Vol. abs/1412.6980, , 2014.
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P9-10.pdf
# Chain-of-Thought 過程の誘導による LLM の性能改善と 推論過程および性能の説明性向上 藤田 真伎 ${ }^{1}$ 狩野 芳伸 1 1 静岡大学 \{mfujita,kano\}@kanolab.net ## 概要 近年,大規模言語モデルの性能上は著しいものがあるが,その大規模さゆえにモデル構造や推論過程がブラックボックス化している問題がある.そこで,Chain-of-Thought の過程を誘導するフォーマッ卜を提案し,推論過程のどの部分が特に推論結果に影響を与えているかを特定できるようにした。また, Fine Tuning により任意のモデルで同様のフォー マットでの出力ができること,この手法を用いることで複数モデル間で推論能力の差がある部分を明確にできることも示した.司法試験の民法分野の含意関係推論タスクを題材として,大規模言語モデルを用いたタスク性能の向上を達成した. ## 1 はじめに 近年,大量の学習データやパラメータで訓練された大規模言語モデル (Large Language Model,以下 LLM)を用いることでさまざまなタスクの性能向上が示されている。一方で,LLM にはそのパラメータ数の多さゆえに推論過程がブラックボックス化しているという問題があり,機械学習モデルの予測根拠を説明する XAI(eXplainable AI)[1] や説明可能性 [2] について研究されている. また, Chain-of-Thought[3](以下 CoT) などの手法を用いることで段階的な推論が可能になり,性能向上が報告されている. 一方で, どの部分の推論が解答の助けになっているかは明らかでなく, また LLM の出力には幻覚 [4] が発生する場合もあり,段階的な推論を含めた出力の方法には改善の余地がある。 LLM の中でも Open AI 社の提供する GPT-4 はその性能が高い.しかし, GPT-4 はその学習データや内部構造が公開されておらず,動作の解釈や再現, カスタマイズがより難しい. 踏まえて,本研究の貢献は主に以下の二つである.一つ目に,LLM が推論過程を示しながら出力を行うのに適したフォーマットを提案し,それにより CoT の過程を分析することで,モデルの推論に貢献している推論箇所を特定することや,モデルが苦手としている推論箇所を特定できることを示した. さらにこの提案フォーマットにより,LLM のタスク性能を向上させた. 二つ目に,提案フォーマットに沿って内部構造が公開されているモデルの Fine Tuning を行うことでフォーマットに沿った出力を可能にすることを確認した. さらに,段階的な推論が必要な法律分野のデータセットを用い,一般的な性能では劣る公開モデルでも,提案手法により推論段階によっては GPT-4 に匹敵する性能を達成した。 ## 2 関連研究 ## 2.1 Chain-of-Thought(CoT) CoT とはLLM に問いに対する答えのみを出力させるのでなく,答えを推論するのに必要な中間ステップを出力させた後に答えを出力させる手法で,段階的な推論が必要となるタスクを中心に精度の向上が報告されている. 段階的に推論する旨を指示に書くZeroShotでの CoT や,実際に段階的に推論を行う例を与える Few Shot[5] での CoT などがある. ## 2.2 OpenAI GPT-4 OpenAI が提供する GPT-4 [6] は Transformer [7] の Decoder 部分を用いた LLM である. 多言語を扱うことができ,かつ様々なタスクで高精度な回答ができる. たとえばアメリカの司法試験の模擬試験においては上位 $10 \%$ に相当するスコアが示されている。一方で,具体的なモデルの内部構造や訓練データなどは公開されておらず,内部構造がブラックボックスであるために分析や改善が難しい面がある. ## 2.3 日本語 LLM 本研究では,我々自身でモデルの Fine Tuning 等を行い比較するために,内部構造が公開されており訓練可能な形で利用できる LLM が必要である. 日本語専用に事前学習された LLM [8] [9] や,多言語が扱えるモデル [10] [11]など非常に多くのモデルが公開されている。 ## 2.4 法自然言語処理タスク COLIEE 法律分野の自然言語処理技術に関するワークショップとして, 我が国司法試験の民法分野短答式問題の自動解答を行い性能を競う Competition on Legal Information Extraction and Entailment(以下 COLIEE) [12][13][14][15][16][17][18][19][20][21] が毎年開催されてきた. COLIEE の Task4 は民法条文一覧と過去問題が与えられ,それをもとに自動で解答を行うシステムを作成し, テスト問題の解答の精度を競うものである. このタスクは,問題文とその問題を解くのに必要な関連民法条文の二つが与えられ,問題文が正しいか否かを Yes か No の二択で答え,解答の精度を競うものである. 我々は,段階的な推論が有効な分野の一つと考えられる法律分野を対象に,COLIEE データセットを用いて実験を行った. ## 3 提案手法 本論文では,CoT の出力フォーマットを固定することで推論過程を比較可能にし,タスクに応じてそれぞれの推論ステップごとの有効性とモデルの改善点を示す手法を提案する。 1. 対象タスクの特徴や課題をもとに,タスク固有のプロンプトと,タスクの回答にあたる CoT の出力フォーマットを設定する. 2. 任意の生成モデルに Few Shot Prompting や Fine Tuning を行い,設定したフォーマットに沿った出力を行わせる. 3. どの推論ステップで最終的な出力が大きく変化するか,また他のモデルと比較しどのステップに違いがあるかを分析することで,推論ステップごとの有効性とモデルの改善点を明確にする. ## 4 実験 COLIEE を題材に提案手法の実験と分析を行う. COLIEE 配布の司法試験年度に対応したデータのうち評価には R01~R03 の三年分の問題 255 問を使用し,後述の公開モデルの Fine Tuning には $\mathrm{H} 18 \sim \mathrm{H} 30$ の 629 問を使用した。 生成モデル一般に,個別タスクにおいて具体的にどのような能力が優れているかを特定することが難しい,例えば COLIEE の場合,民法条文から適切な部分を見つける能力や,論理的な推論能力など,様々な可能性がある. そこで,共通した出力フォー マットと CoTを用い,GPT-4 と公開モデルを比較することで,二つのモデルの性能差を定量化する.本論文では数種類のモデルを比較実験したうえで,手元で学習可能なモデルサイズのうち公開モデルとして正答率が高かった stabilityai/StableBeluga13B [10] を用い,GPT-4 と比較することとした。 ## 4.1 プロンプトと出カフォーマット 異なるプロンプトや Few Shotを比較した結果,図 1 のプロンプトおよびフォーマットで出力することとした。すなわち,フォーマットを「問題要点・民法要約 ・推論箇所 ・回答」の四つの要素として設定する。この四要素を定めた理由は以下の通りである. まず,司法試験の民法問題では含意か否かを判定する際の要点が存在することが多い,また,与えられる民法条文は必ずしも必要最小限ではなく,現実の裁判でも膨大な条文から必要箇所を抽出しなければならない. 最後に, 問題の要点と民法条文の要約から論理的な推論を行うステップを経て,最終的な解答を出力するフォーマットを設定した. ## 4.2 公開モデルの Fine Tuning と GPT-4 の Few Shot Prompting stabilityai/StableBeluga13B は, Few Shot Prompting のみでは出力フォーマットが固定されず CoTでの段階的な推論ができなかったため, Fine Tuning を行った. このモデルでフォーマットの学習ができれば他の多くのモデルでも提案手法が実現可能と考える。 学習データは図 1 のフォーマットに沿うよう GPT-4を用いて作成した. COLIEE 配布の H18 R03 までのデータ中で GPT-4 が正解を出力した 629 例の推論過程つきの出力をもとに,Lora[22][23] を用いて学習する。 GPT-4 は執筆時点で Fine Tuning が利用できなかっ たため,Few Shot で正例と負例を毎回固定した同じ一例ずつを与えた。なお,Few Shot で与える例は GPT-4 の出力をもとに人手で調整したものである. ## \# 指示 \# 以下は司法試験の民法問題です。民法条文部分に記載されている関連民法条文を参照し問題が正しいか正しくないか,問題の要点を述べた後に正しい場合は「True」を正しくない場合は「False」を出力しなさい. #民法条文# 第五条 未成年者が法律行為をするには,その法定代理人の同意を得なければならない。ただし,単に権利を得,又は義務を免れる法律行為については,この限りでない。(略) \# 問題文\# 未成年者がした売買契約は,親権者の同意を得ないでした場合であっても,その契約が日常生活に関するものであるときは,取り消すことができない. \# 回答# 問題の要点: 未成年者がした売買契約が親権者の同意を得ないでした場合,その契約が日常生活に関するものであるとき,その契約を取り消すことができるかどうか. 民法条文によれば,未成年者が法律行為をするには, その法定代理人の同意を得なければならない。しかし,単に権利を得,又は義務を免れる法律行為については,この限りでないとされています。また,法定代理人が目的を定めて処分を許した財産は,その目的の範囲内において,未成年者が自由に処分することができるとされています. したがって,未成年者がした売買契約が日常生活に関するものである場合,その契約は法定代理人の同意を得ないでしたにせよ,未成年者が自由に処分することができる範囲内にあると解釈できます。そのため,その契約を取り消すことはできないと考えられます。 回答:True 図 1 プロンプト・出力フォーマットの例 ## 4.3 GPT-4 による有効な推論ステップ特定 我々は GPT-4 に CoTを用いることで COLIEE 夕スクの正解率向上を確認した (A.1). 生成した推論過程のどの部分がモデルの回答に影響を与えているか特定するため. 一度 CoTを用いて段階的な推論を行った後に, 4.1 節の 4 つの要素に基づいて分割を行った. その後, 分割後の途中までの推論過程をもとにモデルにタスクの回答をさせることで,どの要素が推論に大きな影響を与えるか分析した (図 2). 問題要点と条文要約の出力は,元の条文や問題文が長いほど効果的に作用すると考えられる. そこで評価データを,条文および問題文の長さでそれぞれ二分割し, 問題と条文の長さが正答率の変化に影響 図 2 GPT-4を用いた推論過程ごとの正答率の定量化 & & & & GPT4のみ \\ 図 3 モデル性能の比較手法 を与えるか確認した。 ## 4.4 二種モデル間の性能比較 先の 4 要素に沿った段階的な出力 (図 3)を,公開モデルに CoTを用いて行わせた. その後, 要素ごとに分割を行い,GPT-4 に以降を推論させてから正答率を算出することで, CoT のどの段階においてモデルの性能の差が生まれているかを分析した. ## 5 実験結果 ## 5.1 モデルの学習 4.2 節で記載した,公開モデルの学習結果を表 1 に示す. Fine Tuning により問題の解答率精度の向上とともに,出力フォーマットに沿った出力を行えるようになったことが分かる. ## 5.2 GPT-4 による有効な推論ステップ特定 4.3 節の CoT の有効な推論ステップの特定の実験結果を表 2 に示す. 評価データは COLIEE の R01〜 R03 の問題 255 問中,公開モデルと GPT-4 がともにフォーマットに沿った出力を行えた 240 問に限定した. 問題文文字数が評価データにおける中央値 (70 文字) 以上の場合を「問題長文」とし,該当する 121 問に絞った正答率を記載した. 同様に問題短文 119 表 1 StableBeluga-13B の学習前後の結果比較 表 2 推論過程ごとの正答率の変化結果 & & \\ 問題長文 & 0.793 & 0.802 & 0.843 & 0.851 \\ 問題短文 & 0.840 & 0.815 & 0.832 & 0.840 \\ 条文長文 & 0.842 & 0.808 & 0.858 & 0.875 \\ 条文短文 & 0.792 & 0.808 & 0.817 & 0.817 \\ 問,民法条文でも中央値である 170 文字を基準に条文長文 120 問と条文短文 120 問の正答率を記載した.いずれも長文なほど正答率が向上しており,要約の効果があったと考えられる。 ## 5.3 二種モデル間の性能比較 4.4 節に沿って各ステップごとの精度を求めたものが表 3 である。各要素は図 3 に対応している。すなわち,すべてを公開モデルで実行する場合に始まり, 図表の右にいくほど GPT-4 が分担する要素が増え,一番右では GPT-4 がすべてを実行した場合であり,右に行くほど性能が向上しているが,「推論箇所以降」より先はあまり変化がない. ## 6 分析と考察 ## 6.1 公開モデルの Fine Tuning これにより,任意のモデルでフォーマットに適した段階的な出力をすることで,提案手法の一つである CoTを用いた性能比較を行えるようになる可能性を示唆した。 ## 6.2 GPT-4 による有効な推論ステップ特定 表 2 の結果を分析する. 推論箇所を出力することで,文字数に関わらず全体的に正答率が向上しており, 問題と条文の要約をした後にも一度テキスト形式で論理的な推論を挟むことで適切な推論が行えた,有効な推論ステップと考えられる。条文要約を用いることで条文長文,条文短文の場合ともに正答率が向上し. 特に条文が長文のときに大きく正答率が向上していることから長文を扱いやすくするとい表 3 モデル性能の比較結果 う要約の意図通りに作用した有効な推論ステップと考えられる.問題要点を用いることで問題長文の正答率が上がっており,こちらも要点化の有効性を示唆している。問題短文の場合の正答率は低下していることから,問題の要点のみを記載するフォーマッ卜は正答率の低下を招く可能性を示唆している.これは大力部分に書かれている民法条文と出力部分に書かれている問題の要点の比較が難しく,回答に必要な情報の一部のみを出力させると精度が低下するる可能性を示唆している.総合すると,要素ごとに分割したことで,それぞれの要素が正答率の向上に寄与したことを定量的に分析できたといえる。 ## 6.3 二種モデル間の性能比較 表 3 の結果から,GPT-4 と公開モデルを比較した時に,どちらがどの点で優っているか定量的に分析できることを示す. 推論箇所以降 GPT-4,条文要約以降 GPT-4,GPT-4 のみの結果に大きな差がない (表 3 右側)ことから,公開モデルと GPT-4 とで問題の要点の抽出と民法条文の要約性能に大差がないと考えらえる。一方で推論箇所や回答までを公開モデルが行うと精度が大きく低下しており(表 3 左側),含意関係認識の部分で大きな性能差があることを示唆している。 ## 7 おわりに CoT において出力フォーマットや推論過程を固定することで性能向上させるとともに,任意のモデル間で性能差を段階的かつ定量的に分析する手法を提案した. COLIEE 司法試験の自動解答を題材に,実際に性能が向上し,現在の司法試験自動解答の課題である,推論過程とモデル構造のブラックボックス部分を解消できる可能性を示唆した。 今後は,分析により特定された不足する性能について,データの拡張やアンサンブルにより改善を試みたい,また,テンプレートの生成,モデルの性能調査,改善の流れを用いることで,定量的な分析に基づいたモデル改善を行うことができ,これを他のタスクにも応用できることを確認したい。 ## 謝辞 本研究は JSPS 科研費 JP22H00804,JP21K18115, JP20K20509,JST AIP 加速課題 JPMJCR22U4,およびセコム科学技術財団特定領域研究助成の支援をう けたものです. ## 参考文献 [1] 恵木正史. Xai(explainable ai) 技術の研究動向. 日本セキュリティ・マネジメント学会誌, Vol. 34, No. 1, pp. 20-27, 2020. [2] Finale Doshi-Velez and Been Kim. Towards a rigorous science of interpretable machine learning, 2017. https://arxiv.org/abs/ 1702.08608 . [3] Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Brian Ichter, Fei Xia, Ed Chi, Quoc Le, and Denny Zhou. Chainof-thought prompting elicits reasoning in large language models, 2023. https://arxiv.org/abs/2201.11903. [4] Lei Huang, Weijiang Yu, Weitao Ma, Weihong Zhong, Zhangyin Feng, Haotian Wang, Qianglong Chen, Weihua Peng, Xiaocheng Feng, Bing Qin, and Ting Liu. A survey on hallucination in large language models: Principles, taxonomy, challenges, and open questions, 2023. https://arxiv.org/abs/2311. 05232. [5] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In H. Larochelle, M. Ranzato, R. Hadsell, M.F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Curran Associates, Inc., 2020. https://proceedings.neurips.cc/paper_files/paper/ 2020/file/1457c0d6bfcb4967418bfb8ac142f64a-Paper.pdf. [6] OpenAI. Gpt-4 technical report, 2023. https://arxiv.org/abs/ 2303.08774 [7] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. https://proceedings.neurips.cc/paper_files/paper/ 2017/file/3f5ee243547dee91fbd053c1c4a845aa-Paper.pdf. [8] Tianyu Zhao, Akio Kaga, and Kei Sawada. rinna/youri-7b. https: //huggingface.co/rinna/youri-7b. [9] Jun Suzuki Namgi Han Saku Sugawara Shota Sasaki Shuhei Kurita Taishi Nakamura Takumi Okamoto. Hirokazu Kiyomaru, Hiroshi Matsuda. $11 \mathrm{~m}$-jp/llm-jp-13b-instruct-fulljaster-dolly-oasst-v1.0. https://huggingface. co/llm-jp/ llm-jp-13b-instruct-full-jaster-dolly-oasst-v1.0. [10] Stability AI. stabilityai/stablebeluga-13b, 2023. https:// huggingface.co/stabilityai/StableBeluga-13B. [11] Xwin-LM Team. Xwin-lm, 9 2023. https://github.com/ Xwin-LM/Xwin-LM. [12] Competition on legal information extraction/entailment (COLIEE-14) workshop on juris-informatics (jurisin) 2014, 2014. http://webdocs.cs.ualberta.ca/ miyoung2/ jurisin_task/index.html. [13] Mi-Young Kim, Randy Goebel, and Satoh Ken. COLIEE-2015: evaluation of legal question answering. In Ninth International Workshop on Juris-informatics (JURISIN 2015), 2015. [14] Mi-Young Kim, Randy Goebel, Yoshinobu Kano, and Ken Satoh. COLIEE-2016: evaluation of the competition on legal information extraction and entailment. In International Workshop on Jurisinformatics (JURISIN 2016), 112016 [15] Yoshinobu Kano, Mi-Young Kim, Randy Goebel, and Ken Satoh. Overview of COLIEE 2017. In Ken Satoh, Mi-Young Kim, Yoshinobu Kano, Randy Goebel, and Tiago Oliveira, editors, COLIEE 2017. 4th Competition on Legal Information Extraction and Entailment, Vol. 47 of EPiC Series in Computing, pp. 1-8. EasyChair, 2017. [16] Yoshinobu Kano, Mi-Young Kim, Masaharu Yoshioka, Yao Lu, Juliano Rabelo, Naoki Kiyota, Randy Goebel, and Ken Satoh. COLIEE-2018: Evaluation of the competition on legal information extraction and entailment. In Kazuhiro Kojima, Maki Sakamoto, Koji Mineshima, and Ken Satoh, editors, New Frontiers in Artificial Intelligence, pp. 177-192, Cham, 2019. Springer International Publishing. [17] Juliano Rabelo, Mi-Young Kim, Randy Goebel, Masaharu Yoshioka, Yoshinobu Kano, and Ken Satoh. A summary of the COLIEE 2019 competition. In Maki Sakamoto, Naoaki Okazaki, Koji Mineshima, and Ken Satoh, editors, New Frontiers in Artificial Intelligence, pp. 34-49, Cham, 2020. Springer International Publishing. [18] Juliano Rabelo, Mi-Young Kim, Randy Goebel, Masaharu Yoshioka, Yoshinobu Kano, and Ken Satoh. COLIEE 2020: Methods for legal document retrieval and entailment. In New Frontiers in Artificial Intelligence: JSAI-IsAI 2020 Workshops, JURISIN, LENLS 2020 Workshops, Virtual Event, November 15-17, 2020, Revised Selected Papers, p. 196-210, Berlin, Heidelberg, 2020. Springer-Verlag. [19] Juliano Rabelo, Randy Goebel, Mi-Young Kim, Yoshinobu Kano, Masaharu Yoshioka, and Ken Satoh. Overview and discussion of the competition on legal information extraction/entailment (COLIEE) 2021. The Review of Socionetwork Strategies, Vol. 16, No. 1, pp. 111-133, 2022. [20] Mi-Young Kim, Juliano Rabelo, Randy Goebel, Masaharu Yoshioka, Yoshinobu Kano, and Ken Satoh. COLIEE 2022 summary: Methods for legal document retrieval and entailment. In New Frontiers in Artificial Intelligence: JSAI-IsAI 2022 Workshop, JURISIN 2022, and JSAI 2022 International Session, Kyoto, Japan, June 12-17, 2022, Revised Selected Papers, p. 51-67, Berlin, Heidelberg, 2023. Springer-Verlag. [21] Randy Goebel, Yoshinobu Kano, Mi-Young Kim, Juliano Rabelo, Ken Satoh, and Masaharu Yoshioka. Summary of the competition on legal information, extraction/entailment (COLIEE) 2023. In Proceedings of the Nineteenth International Conference on Artificial Intelligence and Law, pp. 472-480, 2023. [22] Edward J Hu, yelong shen, Phillip Wallis, Zeyuan Allen-Zhu, Yuanzhi Li, Shean Wang, Lu Wang, and Weizhu Chen. LoRA: Low-rank adaptation of large language models. In International Conference on Learning Representations, 2022. https: //openreview.net/forum?id=nZeVKeeFYf9. [23] Sourab Mangrulkar, Sylvain Gugger, Lysandre Debut, Younes Belkada, Sayak Paul, and Benjamin Bossan. Peft: State-of-the-art parameter-efficient fine-tuning methods. https://github.com/ huggingface/peft, 2022. ## A 参考情報 ## A. 1 GPT-4 を用いた結果比較 表 4 は,FewShot と Chin-of-Thought(表内 CoT)をそれぞれ用いた場合,用いなかった場合の計四通りの正答率を示したものである. CoT を用いない場合は True/Falseのみを出力している. 表 4 GPT-4 の推論結果 ## A. 2 関連民法条文が長文の例 COLIEE で与えられる問題には民法条文が長文の場合があり,図 4 はその一例である. これは文字数にすると 654 文字に相当し,モデルによっては文字列長が推論に悪影響を与える場合も多い. 第四百六十五条の三個人根保証契約であってその主たる債務の範囲に金銭の貸渡し又は手形の割引を受けることによって負担する債務(以下「貸金等債務」という。)が含まれるもの(以下「個人貸金等根保証契約」という。)において主たる債務の元本の確定すべき期日(以下「元本確定期日」という。)の定めがある場合において、その元本確定期日がその個人貸金等根保証契約の締結の日から五年を経過する日より後の日と定められているときは、その元本確定期日の定めは、その効力を生じない。 2 個人貸金等根保証契約において元本確定期日の定めがない場合(前項の規定により元本確定期日の定めがその効力を生じない場合を含む。)には、その元本確定期日は、その個人貸金等根保証契約の締結の日から三年を経過する日とする。 3 個人貸金等根保証契約における元本確定期日の変更をする場合において、変更後の元本確定期日がその変更をした日から五年を経過する日より後の日となるときは、その元本確定期日の変更は、その効力を生じない。ただし、元本確定期日の前二箇月以内に元本確定期日の変更をする場合において、変更後の元本確定期日が変更前の元本確定期日から五年以内の日となるときは、この限りでない。 4 第四百四十六条第二項及び第三項の規定は、個人貸金等根保証契約における元本確定期日の定め及びその変更(その個人貸金等根保証契約の締結の日から三年以内の日を元本確定期日とする旨の定め及び元本確定期日より前の日を変更後の元本確定期日とする変更を除く。)について準用する。 ## A. 3 モデル別の評価比較 openAI の提供するモデル,公開モデルなどについて正答率をまとめたものを表 5 に示す. パラメータなどはモデルの推奨値を使っているが, temperature や top_p の値は最低限の再現性を確保するため低く設定した. 与えるプロンプトは図 1 をもとに,各モデルの入力フォーマットに合わせ調整した. 正例と負例を一例ずつ与える Few Shot と, CoTを組み合わせている. 正答率は解答できたものに限定しているため, True/False を出力に含まない問題は除外している. そのため,モデルによっては分母が 255 問にならないものもある. 表 5 各モデルの推論結果 図 4 民法条文が長文の例 (R1-17-U)
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P9-11.pdf
# RAG の連結方式および自動評価指標の定量評価 徳永 匡臣 岡田 智靖 株式会社 野村総合研究所 \{m2-tokunaga, t3-okada\}@nri.co.jp ## 概要 大規模言語モデル (LLMs, Large Language Models) に外部知識を付与する手法として,Retrieval Augmented Generation(RAG)が高い注目を集めている.本研究では,RAG の実装で必要不可欠な「連結方式」に着目し,9つのLLMsに対して定量評価をおこなう.その後, 18 個の RAG システムを用いて自動評価指標と人手評価との相関を評価する. 新たに構築した日本語評価用データセットによる定量評価の結果,RAG の回答精度を重視する場合は直列方式,回答速度を重視する場合は並列方式による連結が適していることを示した. また自動評価指標と人手評価との相関を評価した結果,ROUGE や BERTScore などの従来の自動評価指標と比べて,GPT-4を用いた自動評価が人手評価との高い相関を示すことが分かった. ## 1 導入 近年,大規模言語モデル (LLMs, Large Language Models) の急速な発展に伴い, 自然言語処理分野におけるさまざまなタスクが Zero-shot/Few-shot で解けるようになった [1]. LLMs はアプリケーションへの応用が期待される一方で,まだ多くの課題を含む. その一例として,LLMs が事実とは異なる文を生成してしまう「幻覚」(hallucination) という現象が挙げられる。また,学習データに含まれていない事柄に関しては LLMs が知識を有さないことも実用上の障壁となる. そのような課題への対策とし $\tau$, Retrieval Augmented Generation (RAG) が有望視されている $[2,3]$. RAG は,大力文に関連した文書を外部データソー スから取得し,LLMsにその関連文書をもとに回答文を生成させるシステムである. 本研究では, 関連文書を取得する部分を Retriever,回答文を生成する部分を Generator と呼ぶ. RAGによって LLMs の真実性 (factuality) や忠実性 (faithfulness) などの改 (1) 直列方式 (2) 並列方式 図 $1 \mathrm{RAG}$ の連結方式の比較 善が期待できる一方で,LLMs のコンテキスト長は有限であり,すべての関連文書を 1 つのプロンプトに収めることは困難である。また,長いコンテキスト長を有す LLMs であっても,入力文の中間部分の情報は見落としてしまっている,という 「Lost-in-the-middle」が報告されている [4]. 複数の関連文書を活用する方法として,実装上 ${ }^{1)}$ ではヒュー リスティック的に LLMs を多段に連結する方式が用いられている. 本研究では,Generator での LLMs の連結方式に着目し,それらの方式における正答率および遅延を定量的に評価する。 本研究で扱う連結方式を図 1 に示す. 連結方式として2つ扱い,本研究ではそれぞれ「直列方式」と 「並列方式」と呼ぶ. 入力文を $q$ ,Retrieverによって取得された $k$ 個の関連文書のうち $i$ 番目の関連文書を $d_{i}, i \in\{1, \ldots, k\}$, Generator で用いる LLMs を $\operatorname{LLM}(\cdot)$ とする. プロンプトのテンプレートを $p_{\mathrm{QA}}\left(q, d_{i}\right), p_{\text {Refine }}\left(q, a_{i}, d_{i}\right), p_{\text {Aggregate }}\left(q, a_{1}, \ldots, a_{k}\right)$ とし,表 1 にそれらの例を示した. 上記の関数はいずれもテキストを受け取り,テキストを返す。図 1 の処理をアルゴリズム 1,2 に示す. 並列方式の While 句内は並列処理との併用が可能である点に注意され [6]$ など. } 表 13 種類のプロンプトのテンプレートの例( $p_{\text {Aggregate }}$ は $k=3$ ),\{\}はそれぞれプレースホルダーを指す. たい. 本研究では,RAGにおける連結方式の定量評価および自動評価指標のメタ評価をおこなう.また,適切な RAG の日本語評価用の公開データセットがないため, 本研究では日本語評価用データセットを構築した. 本研究での新規性は以下である. ・RAG の日本語評価用データセットの構築 - RAG の直列方式 ・並列方式の定量評価 ・RAGにおける自動評価指標のメタ評価 ## 2 関連研究 ## 2.1 大規模言語モデル 近年,Transformer[7] のスケーリング則 $[8,9]$ やその大規模化による創発能力 [10] の発見により,言語モデルの大規模化が加速している. こうした大規模な言語モデルは,大規模言語モデル (LLMs, Large Language Models) と呼ばれる. 大規模なコーパスを用いて事前学習した LLMs を指示チューニングする ことで,LLMs が Zero-shot/Few-shot のみでさまざまなべンチマークにおいて高いスコアを達成している [11]. LLMs の利便性の高さから,国内外で多くの LLMs が研究開発されている $[12,13,14]$. ## 2.2 Retrieval Augmented Generation LLMs が抱える「幻覚」や「学習データに含まれない情報は生成できない」という問題を解決する方法の 1 つとして Retrieval Augmented Generation (RAG) がある。入力に関連する外部知識を,言語モデルのプロンプトに含めることで,言語モデルの生成文の真実性が向上することが報告されている [2]. 英語圏においては LLMs を用いた RAG の定量評価の研究は存在する [15] 一方で, 日本語においては我々の知る限りまだない. 本研究では日本語における RAG の定量評価をおこない,RAG の連結方式による性能への影響を示す. ## 2.3 自動評価指標 自然言語生成 (NLG, Natural Language Generation) タスクにおいて,モデルを評価する方法として自動評価指標が用いられてきた [16]. 自動評価指標として,生成文と正解文の n-gram の一致度をもとにスコアを計算する BLEU[17] や ROUGE[18],意味の一致度をもとにスコアを計算する BERTScore[19] などがある.これらの自動評価指標は自然言語処理分野の発展を長らく支えてきたものの,NLG タスクにおいては人手評価との相関が低くなる場合も報告されている [20,21]. さらに近年の LLMs は生成文が多様であるがゆえに,生成文と正解文の文体が異なるケースが発生しやすく,従来の評価指標が正しく機能しないことが考えられる。そのため,GPT-4[22] などの LLMs を用いた自動評価手法に注目が集まっている [23,24]. 自動評価指標と人手評価との相関を評価することはメタ評価と呼ばれ,本研究では 表 2 構築した評価用データセットの統計情報 RAGにおける自動評価指標のメタ評価をおこなう。 ## 3 実験設定 本研究では, RAG の連結方式の定量評価および自動評価指標のメタ評価をおこなう. RAGの適切な日本語評価用データセットが存在しないため, 評価用データセットを新たに 2 つ構築した. RAG の日本語評価用データセットを用いて,9つの LLMs を対象に RAG の定量評価をおこなった. 評価指標には正答率と遅延を用いた。さらに,自動評価指標のメタ評価として,4つの自動評価指標に対して人手評価との相関係数を算出した。 ## 3.1 評価用データセットの構築 本研究で構築した RAG の日本語評価用データセットの統計情報を表 2 に示す. RAG の日本語評価用データセットとして新たに NLP2023 と NRI-CIS の2つを構築した. それぞれ生成型の質問応答タスクであり,テストデータとして 50 件の質問文,回答の正解文,文脈のトリプレットを含む。検索対象の文書として,NLP2023 は言語処理学会第 29 回年次大会 ${ }^{2}$ に寄稿された日本語の論文 520 件 ${ }^{3}$ , NRI-CIS は社内業務に関するマニュアルや手順書 883 件を用いた. テストデータの例は補足 $\mathrm{A}$ に記載した。 ## 3.2 RAG モデル 本研究では,RAG モデルの Retriever として最大内積探索によるべクトル検索 $(k=5)$ を採用した.すべての文書を 512 文字のチャンクに分割後, OpenAI $の$ text-embedding-ada-002[25]を用いてべクトル化した. すべてのチャンクおよびベクトルは, ベクトルデータベースの Qdrant に格納した. Generator の LLMs として, API として提供される gpt-35-turbo-1106(GPT-3.5 Turbo)[26], gpt-4-1106-preview(GPT-4 Turbo)[27], claude-2.1[28], text-bison-32k(PaLM2)[29] に加えて, 日本語特化の LLMs である youri-7b-instruction[14], swallow-7binstruct, swallow-13b-instruct, swallow-70b-instruct[30], ELYZA-japanese-Llama-2-13b-instruct[31] の合計 $9 \supset$ 2) https://www.anlp.jp/proceedings/annual_meeting/2023/ 3)他多数の論文と比べフォーマットが大きく異なる論文なども対象外とした。 の LLMs を対象にした。日本語特化の LLMs は NVIDIA A10G Tensor Core GPU を用いて推論をおこなった. ${ }^{4)}$ ま,実験の再現性の観点から,すべての LLMs において temperature $=0$ とし, gpt-35-turbo1106,gpt-4-1106-preview および日本語特化の LLMs においては seed 值を固定した. 日本語特化の LLMs は貪欲法 (Greedy Search) を用いて生成をおこなった. Generator の並列方式は,並列の特性を活かし LLMs の呼び出し処理をマルチスレッドで並列化した. 予備実験の結果より日本語特化 LLMs は 0-shot, それ以外の LLMs は 1-shot で実験をおこなった。 ## 3.3 評価指標 RAG の連結方式の評価指標として,実用を考慮し正答率および遅延を用いた.正答率は人手評価を採用し,2 人のアノテーターがそれぞれ正誤判定をおこなった. アノテーター間で正誤に相違がある場合は,話し合いによって正誤を確定した,遅延は,質問文を RAG に入力した時点から RAG が EOS トー クンを生成する時点までの時間を測定した。また,自動評価指標に対してメタ評価では,ROUGE-L, BLEU-4,BERTScore の F 值,GPT-4 による自動評価 (以下,GPT-4-Acc.)の 4 つの自動評価指標を用いた. ${ }^{5)}$ GPT-4-Acc. では gpt-4-1106-preview を用いて正誤判定をおこなった. GPT-4-Acc. は,質問文,正解文,RAG システムによる生成文の 3 つを入力として受け取り,RAG システムによる生成文の正誤を判定する. GPT-4-Acc. のプロンプトとして [23]を一部修正したものを利用した。(プロンプトは補足 B に記載). 18 個の RAG システムに対する自動評価指標の結果をもとに,各データセットにおいて人手評価と自動評価指標との相関係数を計算した. サンプル数の量を考慮し,相関係数にはケンドールの順位相関係数を用いた。 ## 4 実験結果 ## 4.1 RAG の連結方式の定量評価 RAG の連結方式の定量評価の結果を表 4 に記す. NLP2023 の youri-7b-instruction および ELYZA- 4)日本語 LLMs のデプロイには HuggingFace Text Generation Inferenceを用いた. 5)ROUGE および BLEU の単語分割器として Sudachi[32], BERTScore の埋め込みモデルは [19] に従って bert-basemultilingual-cased を用いた. 表 3 GPT-4-Acc. で誤って正しいと判断されたケース. 下線部は関連文書に記載がない箇所. & 理由を推論するタスク & \\ 表 4 RAGにおける連結方式の定量評価. 遅延は秒単位. japanese-Llama-2-13b-instruct を除いて,直列方式の正答率が並列方式よりも高い.これは,並列方式において $p_{\text {Aggregate }}$ に文脈が含まれていないがゆえに $\operatorname{LLM}\left(p_{\text {Aggregate }}\right)$ が回答候補から適切な回答を選択できていない可能性が考えられる。一方で遅延に関しては,並列方式が直列方式よりも平均して NLP2023 においては 0.78 倍, NRI-CIS においては 0.58 倍ほど短い.このことから,マルチスレッド化によって並列方式の特性を活用できていることが分かる.これらの結果から, RAGの正答率を重視する場合は直列方式,遅延を重視する場合は並列方式を採用するのが適切であることが示唆された。 ## 4.2 自動評価指標のメタ評価 自動評価指標の人手評価との相関係数を表 5 に記す. NLP2023 および NRI-CIS のいずれにおいて表 5 人手評価と自動評価指標の相関係数(ケンドールの順位相関係数) も GPT-4-Acc. が人手評価との最も高い相関を示した. また, 人手評価と GPT-4-Acc. の見かけ上の一致率 $(n=1,800)$ は $86.7 \%$ となり, RAG の自動評価指標として GPT-4-Acc. が有効であることが分かった.一方,GPT-4-Acc. が評価を誤った例を表 3 に示す.表 3 のように,RAG が生成した文に正解文が含まれている場合は幻覚があるにもかかわらず GPT-4-Acc. が正解と判断しているケースがいくつか見られた. これらは,GPT-4-Acc.のプロンプトに幻覚を不正解とする判断基準を加えたり, Retrieverによって得られた関連文書も加えたりすることで改善が期待されるが,その定量的な評価は今後の研究とする. ## 5 結論 本研究では,RAG の連結方式に着目した定量評価および自動評価指標のメタ評価をおこなった.新たに構築した評価用日本語 RAG データセットによる定量評価の結果, RAG の回答精度を重視する場合は直列方式,回答速度を重視する場合は並列方式を採用することが良いことを示した。またメタ評価の結果,専門知識を要する質問応答タスクにおいて GPT-4 を用いた自動評価 (GPT-4-Acc.) が従来の評価指標と比べて,人手評価との高い相関を示すことが分かった. 今後の展望として, 同ベンチマークを用いた RAGにおけるさまざまな手法の定量評価や, GPT-4-Acc. のさらなる改善をおこなう. ## 謝辞 本研究の構想にあたり,ご助言をいただいたスタンフォード大学 Assistant Professor の Tatsunori Hashimoto 氏に感謝いたします。 ## 参考文献 [1]Tom Brown, Benjamin Mann, et al. "Language Models are Few-Shot Learners". In: Advances in Neural Information Processing Systems. Ed. by H. Larochelle, M. Ranzato, et al. Vol. 33. Curran Associates, Inc., 2020, pp. 1877-1901. [2]Sebastian Borgeaud, Arthur Mensch, et al. "Improving Language Models by Retrieving from Trillions of Tokens". In: Proceedings of the 39th International Conference on Machine Learning. Ed. by Kamalika Chaudhuri, Stefanie Jegelka, et al. Vol. 162. Proceedings of Machine Learning Research. PMLR, 2022, pp. 2206-2240. [3]Patrick Lewis, Ethan Perez, et al. "Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks". In: Advances in Neural Information Processing Systems. Ed. by H. Larochelle, M. Ranzato, et al. Vol. 33. Curran Associates, Inc., 2020, pp. 9459-9474. [4]Nelson F. Liu, Kevin Lin, et al. Lost in the Middle: How Language Models Use Long Contexts. arXiv:2307.03172. 2023. [5]Harrison Chase. LangChain. https : / / github . com / langchain-ai/langchain. 2022. [6]Jerry Liu. Llamalndex. https://github.com/jerryjliu/ llama_index. 2022. [7]Ashish Vaswani, Noam Shazeer, et al. "Attention is All you Need". In: Advances in Neural Information Processing Systems. Ed. by I. Guyon, U. Von Luxburg, et al. Vol. 30. Curran Associates, Inc., 2017. [8]Jared Kaplan, Sam McCandlish, et al. "Scaling Laws for Neural Language Models”. In: CoRR abs/2001.08361 (2020). [9]Jordan Hoffmann, Sebastian Borgeaud, et al. Training Compute-Optimal Large Language Models. 2022. [10]Barret Zoph, Colin Raffel, et al. "Emergent abilities of large language models". In: TMLR (2022). [11]Jason Wei, Maarten Paul Bosma, et al. "Finetuned Language Models are Zero-Shot Learners”. In: 2022. [12]Hugo Touvron, Louis Martin, et al. Llama 2: Open Foundation and Fine-Tuned Chat Models. 2023 [13]Albert Q. Jiang, Alexandre Sablayrolles, et al. Mistral 7B. 2023. [14]Tianyu Zhao and Kei Sawada. rinna/youri-7b-instruction. https : / / huggingface . co / rinna / youri - 7binstruction. 2023. [15]Peng Xu, Wei Ping, et al. Retrieval meets Long Context Large Language Models. 2023. [16]Percy Liang, Rishi Bommasani, et al. "Holistic Evaluation of Language Models". In: Transactions on Machine Learning Research (2023). Featured Certification, Expert Certification. [17]Kishore Papineni, Salim Roukos, et al. "Bleu: a Method for Automatic Evaluation of Machine Translation". In: Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics. Ed. by Pierre Isabelle, Eugene Charniak, et al. Philadelphia, Pennsylvania, USA: Association for Computational Linguistics, 2002, pp. 311-318. [18]Chin-Yew Lin. "ROUGE: A Package for Automatic Evaluation of Summaries". In: Text Summarization Branches Out. Barcelona, Spain: Association for Computational Linguistics, 2004, pp. 74-81. [19]Tianyi Zhang, Varsha Kishore, et al. "BERTScore: Evaluating Text Generation with BERT". In: International Conference on Learning Representations. 2020. [20]Jian Guan, Zhexin Zhang, et al. "OpenMEVA: A Benchmark for Evaluating Open-ended Story Generation Metrics". In: Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers). Ed. by Chengqing Zong, Fei Xia, et al. Online: Association for Computational Linguistics, 2021, pp. 6394-6407. [21]Tianyi Zhang, Faisal Ladhak, et al. Benchmarking Large Language Models for News Summarization. 2023. [22]OpenAI. GPT-4 Technical Report. 2023. [23]Lianmin Zheng, Wei-Lin Chiang, et al. Judging LLM-as-ajudge with MT-Bench and Chatbot Arena. 2023. [24]Yann Dubois, Xuechen Li, et al. AlpacaFarm: A Simulation Framework for Methods that Learn from Human Feedback. 2023. [25]OpenAI. New and improved embedding model. https: / / openai . com/blog/new-and-improved-embeddingmodel. 2022. [26]OpenAI. Introducing ChatGPT. https : / / openai . com / blog/chatgpt. 2022. [27]OpenAI. New models and developer products announced at DevDay. https: //openai . com/blog/newmodels - and - developer - products - announced - at devday. 2023. [28]Anthropic. Introducing Claude 2.1. https : / / www . anthropic.com/index/claude-2-1. 2023. [29]Rohan Anil, Andrew M. Dai, et al. PaLM 2 Technical Report. 2023. [30]TokyoTech-LLM. Swallow. https : / / tokyotech-llm . github.io/swallow-llama. 2023. [31]Akira Sasaki, Masato Hirakawa, et al. ELYZA-japaneseLlama-2-13b. https://huggingface. co/elyza/ELYZAjapanese-Llama-2-13b. 2023. [32]Kazuma Takaoka, Sorami Hisamoto, et al. "Sudachi: a Japanese Tokenizer for Business". In: Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018). Ed. by Nicoletta Calzolari (Conference chair), Khalid Choukri, et al. Miyazaki, Japan: European Language Resources Association (ELRA), 2018 [33]桝原弘哉・村上仁一.「対訳文を用いた同義語・類義語・対義語の抽出」.『言語処理学会第 29 回年次大会』. 2023. ## A 構築したテストデータの例 文脈は一部省略した。 ## A. 1 NLP2023 ## A. 2 NRI-CIS \\ ## B GPT-4-Acc. のプロンプト [23] のプロンプトを一部修正したものを利用. Please act as an impartial judge and evaluate the quality of the response provided by an AI assistant to the user question. Your evaluation should consider correctness. You will be given a reference answer and the assistant's answer. Begin your evaluation by comparing the assistant's answer with the reference answer. Identify and correct any mistakes. Be as objective as possible. After providing your explanation, you must judge the response as True or False by strictly following this format: "[[grading]]", for example: "Grading: [[True]]". <|The Start of Reference Answer|> \#\#\# User: \{question \} \#\#\# Reference answer: \{answer\} <|The End of Reference Answer|> <|The Start of Assistant's Conversation with User|> \#\#\# User: \{question \} \#\#\# Assistant: \{generation $\}$ <|The End of Assistant's Conversation with User|>
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P9-12.pdf
# マルチホップ QA の根拠情報を用いた LLM の“偽” 正解の分析 石井愛 1 井之上直也 ${ }^{2,1}$ 鈴木久美 ${ }^{1}$ 関根聡 1 1 理化学研究所 2 北陸先端科学技術大学院大学 [email protected] [email protected] [email protected] [email protected] ## 概要 LLM がどのような知識に基づいて推論しているのか,そのきめ細かい調査の一つとして,回答の根拠となる導出情報が付与されたマルチホップ $\mathrm{QA}$ データセットを用いて GPT-4 の出力を分析する.分析の結果,回答が正解しているにも関わらず,根拠となる導出に誤りが含まれる“偽”正解といえる現象が発生し,“偽”正解を除くと,正解率は $60 \%$ から 40\%に低下することを示す. さらに,外部知識を組み合わせた場合のカバー率の調査結果から, LLM を既存の外部知識と適切に組み合わせることによる改善の可能性を示す. ## 1 はじめに 大規模言語モデル(LLM)が様々なタスクで高い精度を達成する一方で,LLM が事実と矛盾する内容を生成することが示され [1, 2], LLM の内部知識の評価や LLM が事実に基づいて回答をできるかといった事実性に関する検証結果が複数報告されている $[3,4,5,6,7]$. QA 問題の解決において,LLM がどのような知識に基づいて推論して回答しているのかは,回答の導出に至った導出過程を出力させ,その出力を精査する必要がある. Zheng ら [7] はマルチホップ QA データセットを用いてエラー内容を人手で分類し, エラーの半数以上が事実性に関するエラーであり,知識を文章や段落等の粒度で与えることによる結果の改善を示している. ただし,このような詳細な調査においても, 問題に正解した場合も含めてどの程度導出が正確に実行されていたかは明らかになっていない. 我々は LLM の導出過程のきめ細かい調査の一つとして, 導出情報が付与されているマルチホップ QA データセットである JEMHopQA ${ }^{1)}$ [8] を用いて 1) https://github.com/aiishii/JEMHopQA ## JEMHopQA の正解セット 質問: 長嶋茂雄と小林旭,どちらが年上ですか?導出: (長嶋茂雄, 生年月日, 1936 年 2 月 20 日); (小林旭, 生年月日, 1938 年 11 月 3 日)回答: 長嶋茂雄 ## GPT-4 の出力 導出: (長嶋茂雄, 生年月日, 1936 年 1 月 20 日); (小林旭, 生年月日, 1939 年 4 月 13 日) 回答: 長嶋茂雄 図 1: “偽” 正解の例(赤字:導出のエラー部分) GPT-4 が出力する質問への回答と, 導出を調査した. 調査結果から,回答は正解しているにも関わらず,根拠となる導出に誤りがある “偽” 正解といえる現象が発生することがわかった(図 1). 本稿では,JEMHopQAを用いた GPT-4 の出力の評価結果および,手作業で分析した結果から“偽”正解の発生頻度やその具体例を示す. さらに,導出の誤りを,既存の構造化知識ベース $(\mathrm{KB})$ がどの程度カバーできるかを調査し,LLM と KB の適切な組み合わせによる改善の可能性を示す. ## 2 分析方法 ## 2.1 データセット 本分析では, 回答の導出情報が付与されている Wikipediaをべースとした日本語のマルチホップ QA データセットである JEMHopQA を用いる. JEMHopQA の導出情報は, 図 1 の" (長嶋茂雄, 生年月日, 1936 年 2 月 20 日)”のように,主語エンティティ(長嶋茂雄)と目的語エンティティ(1936 年 2 月 20 日)間の半構造化された関係(生年月日)を表すトリプルの形式である.質問はマルチホップ推論が必要な質問であり,各質問と回答のペアには $2 \supset$以上の導出ステップが付与されている. JEMHopQA を用いて評価するタスクは,質問 $Q$ が与えられたとき,タスクは (i) 答え $A$ を予測し, (ii) $A$ の根拠となる導出 $D$ を生成するタスクである. ## 2.2 評価指標 導出はトリプルの形で半構造化されているが,エンティティも関係も類義語のバリエーションや言い換えの影響を受けるため,厳密な文字列マッチによる自動評価は困難である.そこで,井之上ら [9] を参考に,導出の評価において類似度スコアを用いる. 具体的には,トークン化2)された単語に対する正規化レーベンシュタイン距離を使用し, 前処理として類義語辞書 ${ }^{3}$ を用いる4). 類義語辞書は,デー タセットで観測された類似する単語群を追加して用いる. 導出回答である導出 $G$ と,システムが出力する導出 $D$ が与えられたときのスコアを $c(D ; G)$ とし, そのスコアに基づく, 精度, 再現率, $f_{1}$ を次のように定義する: $ \begin{aligned} \operatorname{pr}(D) & =\frac{c(D ; G)}{|D|}, \operatorname{rc}(D)=\frac{c(D ; G)}{|G|} \\ \mathrm{f}_{1}(D) & =\frac{2 \cdot \operatorname{pr}(D ; G) \cdot \operatorname{rc}(D ; G)}{\operatorname{pr}(D ; G)+\operatorname{rc}(D ; G)} \end{aligned} $ ここで, $|G|$ と $|D|$ は与えられた質問に対するトリプルの数である. $c(D ; G)$ は, $G$ と $D$ に含まれるトリプル $d_{i}, g_{j}$ について, $d_{i}$ と $g_{j}$ の類似度スコア $a\left(d_{i}, g_{j}\right) \in[0,1]$ を計算し, スコアの合計が最大となる組み合わせのスコアとする. また,導出の正確性を評価するため, $f_{1}^{\text {ent }} , f_{1}^{\text {rel }}$, および $f_{1}^{\text {full } の ~} 3$ つのスコアを用いる. $f_{1}^{\text {ent }}$ は主語と目的語エンティティの $a\left(d_{i}, g_{j}\right)$ の平均, $f_{1}^{\text {rel }}$ は $d_{i}$ と $g_{j}$ の関係についての $a\left(d_{i}, g_{j}\right)$ の平均, $f_{1}^{\text {full }}$ は主語と目的語エンティティ,および関係についての $a\left(d_{i}, g_{j}\right)$ の平均である. 回答回答の評価には Exact Match(EM) と Similarity Match(SM) スコアを使用する.SM は上述の類似性計算を使用する。 ## 2.3 実験設定 評価には,47 の構成問題と 73 の比較問題から構成される JEMHopQA 開発セットを対象に, OpenAI  $\mathrm{API}^{5}$ ) 経由で gpt-4-0613 モデルを用い,以下の 5 種類のプロンプトで実験を行った: 1. Zero-shot: 質問のみを与える次の質問に,簡潔な名詞句または YES/NO で答えてください:杉咲花の父の職業は? $=>$ 2. 5-shot: Train セットから 5 つのランダムなサンプルを Few-shot の例として含める次の質問に,簡潔な名詞句または YES/NO で答えてください: ルーヴル美術館が所在する都市の市長の名前は $?=>$ アンヌ・イダルゴ 奈良市とドバイではどちらが人口が多いですか? =>ドバイ (... 他 3 例)杉咲花の父の職業は? $=>$ 3. Chain-of-Thought (CoT) 5-shot: CoT[10] を提供する命令を,5つのサンプルとともに追加する次の質問に,根拠を提示しながら,簡潔な名詞句または YES か NO で答えてください: ルーヴル美術館が所在する都市の市長の名前 は? => (ルーヴル美術館, 所在地, パリ); (パリ,市 長, アンヌ・イダルゴ)=> アンヌ・イダルゴ (... 他 4 例)杉咲花の父の職業は? $=>$ 4. Gold $D$ : 正解の導出 $D$ を与える 次の質問に,簡潔な名詞句または YES か NO で答えてください:杉咲花の父の職業は? => (杉咲花, 父, 木暮武彦); (木暮武彦, 職業, ギタリスト) $=>$ 5. Gold $D$ 5-shot: 正解の導出 $D$ を,5つのサンプルとともに追加する 次の質問に,簡潔な名詞句または YES か NO で答えてください: ルーヴル美術館が所在する都市の市長の名前 は ? => (パリ, 市長, アンヌ・イダルゴ); (ルーヴ ル美術館, 所在地, パリ)=> アンヌ・イダルゴ (... 他 4 例) 杉咲花の父の職業は? => (杉咲花, 父, 木暮武彦); (木暮武彦, 職業, ギタリスト) $=>$ パラメータは, temperature は 1.0, max_tokens は 32,根拠も生成する際は 256 に設定する.各実験は 3 回実行した結果の平均を報告する.  ## 3 GPT-4 の評価結果と考察 ## 3.1 マルチホップ QA にどの程度答えられ るのか 表 1 に Zero-shot,5-shot,Cot 5-shot の設定の回答の Exact Match (EM) と Similarity Match (SM) 結果を示す. 5-shot の設定が EMを 48.9\%から 55.6\%に向上させ,さらに,CoT 設定により約 4\%向上した. JEMHopQA の開発セットにおいて, Cot 5-shot の設定が最も精度が高く約 $60 \%$ 正しく回答できることがわかった。 表 1: GPT-4 による評価結果 & \\ 比較 & $0.785 / 0.785$ & $0.724 / 0.707 / 0.718$ \\ 表 2: GPT-4 CoT 5-shot 設定の結果詳細 ## 3.2 GPT-4 の誤答の要因はなにか GPT-4 の誤答の要因を調査するため, CoT 5-shot の導出トリプルの評価結果を合わせた詳細を表 2 に示す. 導出のエンティティの正しさの尺度である $f_{1}^{\text {ent }}$ は, 構成問題で 0.552 , 比較問題で 0.724 であり,約 $17 \%$ の相違があった.これは,質問内で 2 つ主語エンティティが明示的に言及される比較問題に対し,構成問題ではブリッジエンティティが暗黙的であり,識別が困難なためである. 導出トリプルの誤りをさらに調査するため, CoT 5-shot の誤答のケースを手動で分類した ${ }^{6}$ 。 誤答 48 問のうち,推論でのエラーは 1 問のみであり,残りの 47 問は出力した導出トリプルの誤りに起因することがわかった. 構成問題における導出トリプルの誤りは 31 問で,そのうち $58 \%$ ぞブリッジエンティティの識別エラー, 残りはブリッジエンティティを 6)導出トリプルの個数や関係表現が正解と異なる場合,質問に回答するために十分な情報と判断できれば正解とした.また,人口は時期により変動するため,近い数値であれば正解とした.主語とする目的語エンティティのエラーであった. その他として,正解では導出トリプルが 4 つの問題で 2 つのみが出力されたエラーが 1 問,エンティティのエラーと同時に発生していた. トリプルの関係の表現に起因する誤答は発生していなかった. ## 3.3 導出 $D$ を与えられれば正しく推論で きるのか 誤答の要因の大部分はエンティティの識別に起因することが示されたことから,正しい導出トリプルを大力として与えられれば, GPT-4 は導出トリプルを用いて正しく推論できると考えられる。導出トリプルを用いて推論する能力を確認するため,正解の導出 $D$ を入力として与えたケース Gold $D$ および, Gold $D$ 5-shot の設定での検証を実施した.各設定においては,GPT-4 が導出 $D$ の順序から回答を導き出す可能性を考え,そのままの順序およびランダムな順序 (RND) として実施するケースをそれぞれ実施した. 評価結果を表 3 に示す. 表 3: 導出 $D$ を入力として与えた評価結果導出 $D$ を与えなかった結果 Zero-shot,5-shot(表 1) と比較すると, Gold $D$, Gold $D$ 5-shot はそれぞれ EM が約 40\%向上し, Gold $D$ 5-shot の設定の結果は約 95\%であった. これにより, JEMHopQAを解く難しさは導出 $D$ の識別にあり,導出 $D$ を与えられればほぼすべてのケースで正しく推論できることがわかった.また,導出 $D$ の順序をランダムに設定したケースとの結果の差異が小さいことから,導出 $D$ の順序情報を用いているわけではなく,正しく推論に活用していると考えられる。 Gold $D$ 5-shot $の 3$ 回の試行で回答の EM が不正解となった問題数は $4 \sim 6$ 問であった.そのうち,部分正解(大学を聞いているのに対し,学部まで答えた等)が 3 4 問であり,その他は数値比較の問題であった. 3 回の試行ですべて誤答となった数値比較の問題をその分析とともに付録図 2 に示す. ## 3.4 “偽” 正解はどの程度発生するのか CoT 5-shot の設定での GPT-4 が出力した回答と導出トリプルについて,それぞれ正誤を手作業で分 類した結果を表 4 に示す. 回答が正解であった 72 問のうち,32\%(23/72)に導出トリプルのエラーが含まれており, 導出にエラーが含まれているにも関わらず問題には “偽” 正解していることがわかった. 回答の正解率は $60 \%(72 / 120)$ であるが,“偽” 正解を除いた回答と導出両方が正しい場合の正解率は 40\%(49/120) であった. “偽”正解のうち,91\%(21/23)は比較問題であり,数値の大小や日付の前後関係を問う 14 問および,エンティティが同じかどうかを問う 7 問であった. 数值や日付の前後関係を問う問題では,トリプルの数値が正解と異なっていても,相対的な大小・前後関係は正解と変わらず正答できたケースであった. エンティティが同じかどうかを問う問題では,正解が NO のとき,エンティティが正解と異なっていても,もう一方のエンティティと同じではないことで正解となっていた. 残りの $9 \%(2 / 23)$ は構成問題で,ブリッジエンティティが Wikipedia に存在しない組織や個人であったが,出力された答えは正しいケースであった.具体的なエラーの例を付録表 6 に示す. 表 4: 回答と導出トリプルの正誤分類 ## 3.5 導出トリプルのエラーは既存の KB に よって改善できるのか GPT-4 が出力した導出トリプルのエラーについて, 既存の KBを利用することで改善できる可能性を探るため,JEMHopQA の導出トリプルのうち KBにおけるカバー率を調査した. KB として, Wikipediaを対象とした 2 つの日本語の KB, Wikidata および森羅7) ${ }^{7}[11$ を使用した。森羅は Wikipedia の記事から属性と值のペアを抽出し, ENE カテゴリ [12] に従って構造化された KB データである. どちらの KB の知識表現も,JEMHopQA の導出トリプルと互換性がある。 表 5 において,最初の 3 列は,質問に必要な導出トリプルが Wikidata,森羅,または両方の結合のいずれで見つかったかの開発セット 120 問にする KB のカバー率を示している. 各質問には 2 つ以上の導出トリプルが設定されているため, そのうちの一部  正解した場合のカバー率を合わせて示す. Wikidata と森羅がすべての導出トリプルをカバーできたケー スは,それぞれ $30 \%$ と $50 \%$ であり,両方の KB を合わせると $63 \%$ であった. 両方の $\mathrm{KB}$ でカバーされていないトリプルの例としては,KB 内の関係より細かい関係(例えば,「兄弟」ではなく「妹」)や,対応のない関係(例えば,「ピアノを習いはじめた年」) が含まれる. 最後の 2 つの列は, GPT-4 と GPT-4 を両方の KB と組み合わせたカバー率を示している.GPT-4 のカバー率は 2 つの KB の組み合わせよりも低いが, すべて組み合わせるとカバー率が $77 \%$ となった. GPT-4 ではエンティティに誤りが含まれるエラーが 6 割程度発生するものの, 上記のような KB 内の関係より細かい関係が必要とされるケースにおいて GPT-4 は適切な関係を出力できていたことから,互いに補完し合う結果となった.このことから,LLM を既存の KB と適切に組み合わせることができれば,本タスクのさらなる改善が可能であることが示された。 & & W+S & GPT-4 & \\ 一部 & $27.5 \%$ & $29.2 \%$ & $22.5 \%$ & $22.5 \%$ & $16.7 \%$ \\ 無し & $42.5 \%$ & $20.8 \%$ & $14.2 \%$ & $36.7 \%$ & $5.8 \%$ \\ 表 5: 既存 KB および GPT-4 による導出のカバー率 ## 4 おわりに 本稿では,根拠情報として導出がトリプルの形式で付与された日本語のマルチホップ $\mathrm{QA}$ 用のデータセットである JEMHopQA を用いて, GPT-4 の推論および出力した導出トリプルの評価結果を示した.分析結果から,GPT-4 の誤答はほぼすべて導出トリプルのエラーに起因し, 正答した場合も導出トリプルにはエラーが含まれている “偽” 正解のケースがあることを示した. 回答の正解率は $60 \%$ であったが,“偽”正解を除いた回答と導出トリプル両方の正解率は $40 \%$ であることがわかった. さらに,根拠情報について既存の構造化された知識(KB)のカバー 率および,GPT-4 と組み合わせた場合のカバー率を示し, 既存 $\mathrm{KB}$ と組み合わせることでより良い性能を達成できる可能性を示した。そのような,KBと LLM の統合に向けた検討は今後の課題である. ## 謝辞 本研究は JSPS 科研費 JP20269633, および 19K20332 の助成を受けたものです. ## 参考文献 [1] Yejin Bang, Samuel Cahyawijaya, Nayeon Lee, Wenliang Dai, Dan Su, Bryan Wilie, Holy Lovenia, Ziwei Ji, Tiezheng Yu, Willy Chung, Quyet V. Do, Yan Xu, and Pascale Fung. A multitask, multilingual, multimodal evaluation of chatgpt on reasoning, hallucination, and interactivity. arXiv preprint arXiv:2302.04023, 2023. [2] Ziwei Ji, Nayeon Lee, Rita Frieske, Tiezheng Yu, Dan Su, Yan Xu, Etsuko Ishii, Ye Jin Bang, Andrea Madotto, and Pascale Fung. Survey of hallucination in natural language generation. ACM Comput. Surv., Vol. 55, No. 12, mar 2023 [3] Cunxiang Wang, Sirui Cheng, Zhikun Xu, Bowen Ding, Yidong Wang, and Yue Zhang. Evaluating open question answering evaluation. CoRR, Vol. abs/2305.12421, , 2023. [4] Pouya Pezeshkpour. Measuring and modifying factual knowledge in large language models. arXiv preprint arXiv:2306.06264, 2023 [5] Potsawee Manakul, Adian Liusie, and Mark Gales. SelfCheckGPT: Zero-resource black-box hallucination detection for generative large language models. In Houda Bouamor, Juan Pino, and Kalika Bali, editors, Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, pp. 9004-9017, Singapore, December 2023. Association for Computational Linguistics. [6] Stephanie Lin, Jacob Hilton, and Owain Evans. TruthfulQA: Measuring how models mimic human falsehoods. In Smaranda Muresan, Preslav Nakov, and Aline Villavicencio, editors, Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 3214-3252, Dublin, Ireland, May 2022. Association for Computational Linguistics. [7] Shen Zheng, Jie Huang, and Kevin Chen-Chuan Chang. Why does chatgpt fall short in answering questions faithfully? arXiv preprint arXiv:2304.10513, 2023. [8] 石井愛, 井之上直也, 鈴木久美, 関根聡. JEMHopQA:日本語マルチホップ $\mathrm{QA}$ データセットの改良. 言語処理学会第 30 回年次大会発表論文集 (NLP2024), 2024. [9] Naoya Inoue, Pontus Stenetorp, and Kentaro Inui. R4C: A benchmark for evaluating RC systems to get the right answer for the right reason. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 6740-6750, Online, July 2020. Association for Computational Linguistics. [10] Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Fei Xia, Ed Chi, Quoc V Le, Denny Zhou, et al. Chain-of-thought prompting elicits reasoning in large language models. Advances in Neural Information Processing Systems, Vol. 35, pp. 24824-24837, 2022. [11] Satoshi Sekine, Akio Kobayashi, and Kouta Nakayama. Shinra: Structuring wikipedia by collaborative contribution. In Conference on Automated Knowledge Base Construction, 2019. [12] 関根聡, 安藤まや, 小林暁雄, 隅田飛鳥. 拡張固有表現定義の更新と日本語 Wikipedia 分類データ 2019. 言語処理学会第 26 回年次大会発表論文集 (NLP2020), pp. 1221-1224, 2020. ## 付録 JEMHopQA の正解セット 質問: 漫画『テセウスの船』と『来世ではちゃんとします』,『来世ではちゃんとします』の方が先の掲載ですか? 導出: (テセウスの船 (漫画), 発表年月日, 2017 年 6 月 22 日); (来世ではちゃんとします, 発表年月日, 2018 年 2 月 7 日) ## 回答: $\mathrm{NO$} ## GPT-4 の出力 回答: YES ## 誤答の要因 導出トリプルの関係「発表年月日」と質問文の「連載」との結びつけの失敗が考えられる.「先」という文脈によって変化する意味の解釈の失敗も考えられるが,他のどちらが先かを問う他の問題 12 問はすべて正解 しており,これら 12 問では関係と質問文の表現は同一または類義語にあたるものであった. 図 2: 導出 $D$ を入力とした与える設定で不正解となった問題 } & & & & \\ 表 6: エンティティに誤りが含まれるが正解したケースの例(青字:正解となった回答,赤字:導出のエラー 部分)
NLP-2024
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/